JP4260774B2 - Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium - Google Patents

Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium Download PDF

Info

Publication number
JP4260774B2
JP4260774B2 JP2005164787A JP2005164787A JP4260774B2 JP 4260774 B2 JP4260774 B2 JP 4260774B2 JP 2005164787 A JP2005164787 A JP 2005164787A JP 2005164787 A JP2005164787 A JP 2005164787A JP 4260774 B2 JP4260774 B2 JP 4260774B2
Authority
JP
Japan
Prior art keywords
region
halftone
character edge
character
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005164787A
Other languages
Japanese (ja)
Other versions
JP2006340230A (en
Inventor
泰崇 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005164787A priority Critical patent/JP4260774B2/en
Publication of JP2006340230A publication Critical patent/JP2006340230A/en
Application granted granted Critical
Publication of JP4260774B2 publication Critical patent/JP4260774B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、入力画像データの種別を識別する画像処理装置および画像処理方法に関するものである。   The present invention relates to an image processing apparatus and an image processing method for identifying the type of input image data.

従来から、カラー複写機などの画像形成装置において、文字原稿、文字と印刷写真が混在した文字印刷写真原稿など様々な種類の原稿が用いられている。この様々な原稿に対して最適な処理を施せるようにするため、文字印刷写真モード、文字モード、印刷写真モードなどと呼ばれる原稿種別選択モードが備えられている。また、原稿のプレスキャンなどを行うことにより原稿種別選択モードを自動的に選択させるカラー複写機が知られている。   2. Description of the Related Art Conventionally, in image forming apparatuses such as color copiers, various types of originals such as character originals and character printed photo originals in which characters and printed photographs are mixed are used. In order to perform optimum processing on these various originals, an original type selection mode called a character print photograph mode, a character mode, and a print photograph mode is provided. There is also known a color copying machine that automatically selects a document type selection mode by performing a pre-scan of a document.

自動で原稿種別を選択する方法としては、従来より、入力原稿から網点、文字エッジ、それ以外の領域を認識し、それぞれの領域の大きさや比率により入力原稿がどのような領域で構成されているかを認識し、それに合わせた原稿種別のモードを選択する方法が知られている。   As a method of automatically selecting a document type, conventionally, a halftone dot, a character edge, and other areas are recognized from the input document, and the area of the input document is configured according to the size and ratio of each area. There is known a method of recognizing whether or not a document is selected according to the document type.

例えば、特許文献1には、入力原稿中から網点上文字を検出し、網点上文字を多く含んだ原稿であると認識した場合には解像度優先の画像処理を施し出力する技術が開示されている。   For example, Patent Document 1 discloses a technique for detecting characters on halftone dots from an input document, and performing resolution-priority image processing and outputting when the document is recognized as a document containing many characters on halftone dots. ing.

また、特許文献2には、原稿が有彩か否かを判定するとともに、網点画素の数が所定数か否かを判定し、原稿が有彩であり、かつ、網点画素数が所定数以上である場合に網点絵柄であると判断し、カラー再生を行う技術が開示されている。
特開平10−285394号(1998年10月23日公開) 特開2002−247390号(2002年8月30日公開)
In Patent Document 2, it is determined whether or not the document is chromatic, and whether or not the number of halftone pixels is a predetermined number. The document is chromatic and the number of halftone pixels is predetermined. A technique for performing color reproduction by determining that a halftone dot pattern is present when the number is greater than or equal to the number is disclosed.
JP-A-10-285394 (published October 23, 1998) JP 2002-247390 (released on August 30, 2002)

上記特許文献1では網点上文字を検出することができるが、網点上文字は網点領域上にある文字のことであり、地図、パンフレット、カタログなどで多用されている網点で構成された文字(以後、これを網点文字という)ではない。そのため、特許文献1の技術では、網点文字を精度良く認識することが難しい。また、仮に認識できた場合でも、解像度優先の処理が行われることから網点文字の色味が変わったり、原稿中に網点領域が含まれたりしている場合にはモアレが発生する可能性がある。   Although the above-mentioned Patent Document 1 can detect a character on a halftone dot, the character on a halftone dot is a character on a halftone dot region, and is composed of halftone dots frequently used in maps, pamphlets, catalogs, and the like. It is not a character (hereinafter referred to as a halftone character). For this reason, it is difficult for the technique of Patent Document 1 to accurately recognize halftone characters. Also, even if it can be recognized, moire may occur if the color of halftone characters changes or halftone areas are included in the document because resolution priority processing is performed. There is.

また、網点文字領域は、網点で構成されていることから、網点領域と似通っている。そのため、上記特許文献2に記載の技術では、網点文字領域が網点絵柄であると誤検出される可能性が高い。仮に網点文字が網点絵柄ではないと判断されると、特許文献2の技術では、モノクロコピーされるため、カラーの網点文字がモノクロの網点文字として再現されることとなり、網点文字の再現性が大きく損なわれる。   The halftone dot character area is similar to the halftone dot area because it is composed of halftone dots. Therefore, in the technique described in Patent Document 2, there is a high possibility that the halftone character region is erroneously detected as a halftone dot pattern. If it is determined that the halftone dot character is not a halftone dot pattern, the technique disclosed in Japanese Patent Laid-Open No. 2004-228867 makes a monochrome copy, so that the color halftone character is reproduced as a monochrome halftone character. Reproducibility is greatly impaired.

本発明は、上記の問題点に鑑みて、入力画像データが網点文字を含むか否かを精度良く検出することができる画像処理装置を実現することにある。さらに、網点文字の再現性を向上させることができる画像処理装置を実現することにある。   In view of the above-described problems, the present invention is to realize an image processing apparatus capable of accurately detecting whether or not input image data includes halftone characters. Another object is to realize an image processing apparatus capable of improving the reproducibility of halftone characters.

本発明に係る画像処理装置は、上記の課題を解決するために、入力画像データから網点で構成された文字のエッジである網点文字エッジ領域を検出する網点文字エッジ領域検出部と、前記網点文字エッジ領域検出部による検出結果に基づいて、入力画像データが網点文字を含むか否かを判定する判定部とを備えることを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention includes a halftone character edge region detection unit that detects a halftone character edge region that is a character edge composed of halftone dots from input image data, And a determination unit that determines whether or not the input image data includes a halftone character based on a detection result by the halftone character edge region detection unit.

また、本発明の画像処理方法は、入力画像データから網点で構成された文字のエッジである網点文字エッジ領域を検出する網点文字エッジ領域検出ステップと、前記網点文字エッジ領域検出ステップにおける検出結果に基づいて、入力画像データが網点文字を含むか否かを判定する判定ステップとを含むことを特徴とする。   Also, the image processing method of the present invention includes a halftone character edge region detecting step for detecting a halftone character edge region which is an edge of a character composed of halftone dots from input image data, and the halftone character edge region detecting step. And a determination step of determining whether or not the input image data includes halftone characters based on the detection result in.

上記の構成によれば、入力画像データから網点で構成された文字のエッジである網点文字エッジ領域を検出し、この検出結果に基づいて入力画像データが網点文字を含むか否かを判定する。これにより、網点文字以外の網点領域にはエッジが存在しないため、単なる網点領域を網点文字エッジ領域として検出することがない。また、網点で構成されていない文字のエッジを網点文字のエッジとして誤検出することもない。その結果、入力画像データが網点文字を含むか否かを精度良く識別することができる。   According to the above configuration, a halftone character edge region that is an edge of a character composed of halftone dots is detected from the input image data, and whether or not the input image data includes halftone characters based on the detection result. judge. As a result, since there is no edge in the halftone dot area other than the halftone character, a simple halftone area is not detected as a halftone character edge area. Further, the edge of a character that is not composed of halftone dots is not erroneously detected as the edge of a halftone character. As a result, it is possible to accurately identify whether the input image data includes halftone characters.

さらに、本発明の画像処理装置は、上記の構成に加えて、入力画像データから網点領域を検出する網点領域検出部を備え、前記網点文字エッジ領域検出部は、平滑化処理を行った入力画像データから文字エッジ領域を抽出し、抽出した文字エッジ領域であり、かつ、前記網点領域検出部が検出した網点領域を前記網点文字エッジ領域として検出することが好ましい。   In addition to the above configuration, the image processing apparatus of the present invention further includes a halftone dot region detection unit that detects a halftone dot region from the input image data, and the halftone dot character edge region detection unit performs a smoothing process. Preferably, a character edge region is extracted from the input image data, and the halftone dot region detected by the halftone dot region detection unit is detected as the halftone dot character edge region.

上記の構成によれば、平滑化処理を行った入力画像データから文字エッジ領域を抽出する。平滑化処理を行うことで、入力画像データから網点領域の特徴が除去されることとなる。よって、平滑化処理を行った入力画像データから抽出された文字エッジ領域には、通常の文字のエッジ領域と、網点文字のエッジ領域とが含まれることとなる。そのため、平滑化処理を行った入力画像データから抽出された文字エッジ領域であり、かつ、平滑化処理を行っていない入力画像データから検出された網点領域である領域は、網点で構成された文字、つまり、網点文字のエッジ領域となる。よって、上記の構成によれば、網点文字エッジを精度良く検出することができる。   According to said structure, a character edge area | region is extracted from the input image data which performed the smoothing process. By performing the smoothing process, the features of the halftone dot region are removed from the input image data. Therefore, the character edge region extracted from the input image data subjected to the smoothing process includes an edge region of normal characters and an edge region of halftone characters. Therefore, the area that is the character edge area extracted from the input image data that has been subjected to the smoothing process and that is the halftone area that has been detected from the input image data that has not been subjected to the smoothing process is composed of halftone dots. This is the edge area of a halftone character, that is, a halftone dot character. Therefore, according to the above configuration, a dot character edge can be detected with high accuracy.

さらに、本発明の画像処理装置は、上記の構成に加えて、前記判定部の判定結果に基づいて、入力画像データを少なくとも前記網点文字エッジ領域、文字エッジ領域および網点領域の3つの領域に分離する領域分離部を備えることが好ましい。   Furthermore, in addition to the above-described configuration, the image processing apparatus of the present invention is configured to convert input image data into at least three areas of the halftone character edge area, the character edge area, and the halftone area based on the determination result of the determination unit. It is preferable to provide a region separation unit that separates into two.

上記の構成によれば、例えば、判定部の判定結果が網点文字を含む入力画像データであることを示す場合、入力画像データから優先的に網点文字エッジ領域を分離する。これにより、網点文字エッジ領域を誤って網点領域として分離してしまうことがなくなる。つまり、精度良く網点文字エッジ領域を分離することができる。   According to the above configuration, for example, when the determination result of the determination unit indicates that the input image data includes halftone characters, the halftone character edge region is preferentially separated from the input image data. As a result, the halftone dot character edge region is not erroneously separated as a halftone dot region. That is, the dot character edge region can be separated with high accuracy.

さらに、本発明の画像処理装置は、上記の構成に加えて、前記領域分離部によって分離された文字エッジ領域に対して強調フィルタ処理を行い、前記領域分離部によって分離された網点領域に対して平滑フィルタ処理を行い、前記領域分離部によって分離された網点文字エッジ領域に対して前記文字エッジ領域よりも弱い強調フィルタ処理を行う空間フィルタ部を備えることが好ましい。   Furthermore, in addition to the above configuration, the image processing apparatus of the present invention performs an enhancement filter process on the character edge region separated by the region separation unit, and applies to the halftone dot region separated by the region separation unit. It is preferable to include a spatial filter unit that performs smoothing filter processing and performs emphasis filter processing weaker than the character edge region on the halftone character edge region separated by the region separation unit.

上記の構成によれば、前記領域分離部によって分離された文字エッジ領域に対して強調フィルタ処理を行うため、文字再現性が向上する。また、前記領域分離部によって分離された網点領域に対して平滑フィルタ処理を行うため、モアレ発生を抑制することができる。さらに、前記領域分離部によって分離された網点文字エッジ領域に対して前記文字エッジ領域よりも弱い強調フィルタ処理を行うため、網点文字の色合いの変化を抑制することができる。   According to the above configuration, the character reproducibility is improved because the emphasis filter process is performed on the character edge region separated by the region separation unit. In addition, since the smoothing filter process is performed on the halftone dot regions separated by the region separation unit, the occurrence of moire can be suppressed. Further, since the emphasis filter processing weaker than that of the character edge region is performed on the halftone character edge region separated by the region separation unit, it is possible to suppress a change in the shade of the halftone character.

さらに、本発明の画像処理装置は、上記の構成に加えて、前記領域分離部によって分離された網点文字エッジ領域に対して、前記領域分離部によって分離された網点領域と同一の黒生成率で黒生成を行う黒生成部を備えることが好ましい。   Furthermore, in addition to the above-described configuration, the image processing apparatus of the present invention generates the same black as the halftone dot region separated by the region separation unit for the halftone character edge region separated by the region separation unit. It is preferable to provide a black generation unit that generates black at a rate.

上記の構成によれば、網点領域と網点文字エッジ領域とが同一の黒生成率で黒生成がされることから、網点文字エッジ領域と隣り合う網点領域との黒生成率のギャップが少なくなる。   According to the above configuration, since the halftone dot area and the halftone dot edge area are generated with the same black generation rate, the gap between the halftone dot character edge area and the adjacent halftone dot area is black. Less.

さらに、本発明の画像処理装置は、上記の構成に加えて、前記領域分離部によって分離された網点文字エッジ領域に対して、前記領域分離部によって分離された網点領域と同一の下色除去率で下色除去処理を行う下色除去部を備えることが好ましい。   Furthermore, in addition to the above-described configuration, the image processing apparatus of the present invention has the same undercolor as the halftone dot region separated by the region separation unit with respect to the halftone character edge region separated by the region separation unit. It is preferable to provide a lower color removing unit that performs a lower color removing process at a removal rate.

上記の構成によれば、網点領域と網点文字エッジ領域とが同一の下色除去率で下色除去処理がされることから、網点文字エッジ領域と隣り合う網点領域との下色除去率のギャップが少なくなる。   According to the above configuration, the halftone dot area and the halftone dot edge area are subjected to the undercolor removal process with the same undercolor removal rate, so that the halftone dot edge area and the adjacent halftone dot area are undercolored. The removal rate gap is reduced.

また、本発明の画像形成装置は、以上のように、上述の画像処理装置と、該画像処理装置で処理された画像データに基づいて画像を形成する画像出力部とを備えているので、入力画像データが網点文字を含むか否かを精度良く検出することができ、さらに、網点文字の再現性を向上させることができる。   In addition, as described above, the image forming apparatus of the present invention includes the above-described image processing apparatus and the image output unit that forms an image based on the image data processed by the image processing apparatus. Whether or not the image data includes halftone characters can be detected with high accuracy, and the reproducibility of the halftone characters can be improved.

なお、上記画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより上記画像処理装置をコンピュータにて実現させる画像処理プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The image processing apparatus may be realized by a computer. In this case, an image processing program for causing the image processing apparatus to be realized by the computer by causing the computer to operate as each unit, and a computer that records the image processing program A readable recording medium falls within the scope of the present invention.

本発明に係る画像処理装置は、入力画像データから網点で構成された文字のエッジである網点文字エッジ領域を検出する網点文字エッジ領域検出部と、前記網点文字エッジ領域検出部による検出結果に基づいて、入力画像データが網点文字を含むか否かを判定する判定部とを備える。それゆえ、入力画像データが網点文字を含むか否かを精度良く検出することができる。   The image processing apparatus according to the present invention includes a halftone character edge region detection unit that detects a halftone character edge region that is an edge of a character composed of halftone dots from input image data, and the halftone character edge region detection unit. And a determination unit that determines whether the input image data includes halftone characters based on the detection result. Therefore, it is possible to accurately detect whether or not the input image data includes halftone characters.

本発明の一実施形態について図1ないし図21に基づいて説明すると以下の通りである。   An embodiment of the present invention will be described below with reference to FIGS.

<画像形成装置の全体構成について>
図2に示すように、本実施の形態に係る画像形成装置は、画像処理装置2と、画像処理装置2に接続されたカラー画像入力装置1およびカラー画像出力装置3とから構成されている。なお、本実施形態においては、画像形成装置として、デジタルカラー複写機を例に挙げて説明する。
<Overall Configuration of Image Forming Apparatus>
As shown in FIG. 2, the image forming apparatus according to the present embodiment includes an image processing apparatus 2, a color image input apparatus 1 and a color image output apparatus 3 connected to the image processing apparatus 2. In the present embodiment, a digital color copying machine will be described as an example of the image forming apparatus.

カラー画像入力装置(読取装置)1は、例えば、CCD(Charge Coupled Device)を備えたスキャナ部より構成されており、原稿画像からの反射光像をRGB(R:赤・G:緑・B:青)アナログ信号としてCCDにて読み取り、画像処理装置2に出力するものである。   The color image input device (reading device) 1 includes, for example, a scanner unit provided with a CCD (Charge Coupled Device). The reflected light image from the original image is converted into RGB (R: red, G: green, B: Blue) The analog signal is read by the CCD and output to the image processing apparatus 2.

カラー画像出力装置3は、画像処理装置2にて行われた所定の画像処理結果を出力する装置である。カラー画像出力装置3は、電子写真方式やインクジェット方式のプリンタ等である。   The color image output device 3 is a device that outputs a predetermined image processing result performed by the image processing device 2. The color image output device 3 is an electrophotographic printer or an inkjet printer.

画像処理装置2は、A/D(アナログ/デジタル)変換部11、入力補正部12、原稿種別識別部14、領域分離部15、色補正部13、黒生成/下色除去部(黒生成部、下色除去部)16、空間フィルタ処理部17および中間調生成部18を備えている。   The image processing apparatus 2 includes an A / D (analog / digital) conversion unit 11, an input correction unit 12, a document type identification unit 14, a region separation unit 15, a color correction unit 13, a black generation / under color removal unit (black generation unit). , An under color removal unit) 16, a spatial filter processing unit 17, and a halftone generation unit 18.

カラー画像入力装置1のCCDラインセンサにより入力されたカラー画像信号(RGBアナログ信号)は、A/D変換部11にてRGBデジタル信号に変換される。このRGBデジタル信号は、入力補正部12において、カラー画像入力装置1の照明系・結像系・撮像系で生じる各種の歪みが取り除かれ、反射率信号が画像処理に適した濃度信号に変換されるとともにRGB信号の補色であるCMY(C:シアン・M:マゼンタ・Y:イエロー)信号に変換される。   A color image signal (RGB analog signal) input by the CCD line sensor of the color image input device 1 is converted into an RGB digital signal by the A / D converter 11. The RGB digital signal is converted by the input correction unit 12 from various distortions generated in the illumination system, imaging system, and imaging system of the color image input device 1, and the reflectance signal is converted into a density signal suitable for image processing. And converted to a CMY (C: cyan, M: magenta, Y: yellow) signal which is a complementary color of the RGB signal.

原稿種別識別部14は、原稿上にどのような領域が存在しているかを検出し、その検出結果を基に、原稿種別の判定処理、例えば、入力された原稿が文字原稿、文字・印刷写真原稿、文字・印画紙写真原稿、印刷写真原稿、印画紙写真原稿の何れであるのかを判定するものである。原稿種別識別部14は、判定結果を示す原稿種別信号を領域分離部15に出力する。なお、原稿種別識別部14の詳細は後に詳述する。   The document type identification unit 14 detects what area exists on the document, and based on the detection result, the document type determination process, for example, the input document is a character document, a character / print photo It is determined whether it is a manuscript, a character / photographic paper photographic manuscript, a printed photographic manuscript, or a photographic paper photographic manuscript. The document type identification unit 14 outputs a document type signal indicating the determination result to the region separation unit 15. Details of the document type identification unit 14 will be described later.

領域分離部15は、上記原稿種別識別部14における判定結果を示す原稿種別信号を利用し、各画素が、例えば、網点領域、文字エッジ領域、網点文字エッジ領域のいずれの領域に属するのかを判定し、その判定結果を示す領域識別信号を黒生成/下色除去部16、空間フィルタ部17、中間調生成部18に出力するものである。   The region separation unit 15 uses a document type signal indicating the determination result in the document type identification unit 14, and whether each pixel belongs to, for example, a halftone dot region, a character edge region, or a halftone character edge region. The region identification signal indicating the determination result is output to the black generation / undercolor removal unit 16, the spatial filter unit 17, and the halftone generation unit 18.

色補正部13は、色再現の忠実化実現のために、不要吸収成分を含むCMY(C:シアン・M:マゼンタ・Y:イエロー)色材の分光特性に基づいた色濁りを取り除く色補正処理を行うものである。   The color correction unit 13 performs color correction processing for removing color turbidity based on spectral characteristics of CMY (C: cyan, M: magenta, Y: yellow) color materials including unnecessary absorption components in order to realize faithful color reproduction. Is to do.

黒生成/下色除去部16は、色補正後のCMYの3色信号から黒(K)信号を生成する黒生成処理を行う一方、元のCMY信号から黒生成で得たK信号に対応するUCR信号を差し引いて新たなCMY信号を生成する下色除去処理を行なうものである。そして、これらの処理(黒生成処理・下色除去処理)の結果、CMYの3色信号はCMYKの4色信号に変換される。   The black generation / under color removal unit 16 performs black generation processing for generating a black (K) signal from the CMY three-color signals after color correction, while corresponding to the K signal obtained by black generation from the original CMY signal. Undercolor removal processing for subtracting the UCR signal to generate a new CMY signal is performed. As a result of these processes (black generation process / under color removal process), the CMY three-color signal is converted into a CMYK four-color signal.

空間フィルタ処理部17は、CMYK信号に対してエッジ強調処理や平滑化処理を行うものである。   The spatial filter processing unit 17 performs edge enhancement processing and smoothing processing on the CMYK signal.

中間調生成部18は最終的に画像を画素に分割してそれぞれの階調を再現するための階調再現処理を行うものである。   The halftone generation unit 18 performs gradation reproduction processing for finally dividing an image into pixels and reproducing each gradation.

そして、中間調生成部18から出力された画像データに基づいて、カラー画像出力部3にて出力画像が形成される。なお、以上の処理は図示しないCPU(Central Processing Unit)により行われる。   Based on the image data output from the halftone generator 18, an output image is formed by the color image output unit 3. The above processing is performed by a CPU (Central Processing Unit) (not shown).

<原稿種別識別部について>
次に、原稿種別識別部14における原稿種別識別処理の詳細について説明する。図1は、原稿種別識別部14の構成を示すブロック図である。
<About the document type identification unit>
Next, details of the document type identification process in the document type identification unit 14 will be described. FIG. 1 is a block diagram illustrating a configuration of the document type identification unit 14.

図1に示されるように、原稿種別識別部14は、文字エッジ領域検出部21、網点領域検出部22、網点文字エッジ領域検出部23、画素数カウント部24および原稿種別判定部(判定部)25を備えている。本実施形態の原稿種別識別部14は、入力された原稿が、文字原稿、文字・印刷写真原稿、印刷写真原稿、その他(印画紙写真原稿)のいずれに属するのかを識別する。   As shown in FIG. 1, the document type identification unit 14 includes a character edge region detection unit 21, a halftone dot region detection unit 22, a halftone dot character edge region detection unit 23, a pixel number counting unit 24, and a document type determination unit (determination). Part) 25. The document type identification unit 14 of the present embodiment identifies whether the input document belongs to a character document, a character / print photo document, a print photo document, or the other (photographic paper photo document).

文字エッジ領域検出部21は、注目画素が文字のエッジ領域であるのか否かを判定し、その判定結果を示す文字エッジ画素信号を画素数カウント部24に出力するものである。   The character edge region detection unit 21 determines whether or not the pixel of interest is a character edge region, and outputs a character edge pixel signal indicating the determination result to the pixel count unit 24.

網点領域検出部22は、注目画素が網点領域であるのか否かを判定し、その判定結果を示す網点画素信号を画素数カウント部24および網点文字エッジ領域検出部23に出力するものである。   The halftone dot region detection unit 22 determines whether or not the target pixel is a halftone dot region, and outputs a halftone pixel signal indicating the determination result to the pixel number counting unit 24 and the halftone character edge region detection unit 23. Is.

網点文字エッジ領域検出部23は、網点領域検出部22からの網点画素信号を参照して、注目画素が網点文字のエッジ領域であるか否かを判定し、その判定結果を示す網点文字エッジ画素信号を画素数カウント部24に出力するものである。   The halftone dot edge region detection unit 23 refers to the halftone pixel signal from the halftone dot region detection unit 22 to determine whether or not the pixel of interest is an edge region of a halftone character, and indicates the determination result. The halftone character edge pixel signal is output to the pixel number counting unit 24.

画素数カウント部24は、文字エッジ領域、網点領域、網点文字エッジ領域の画素数をカウントし、各カウント値を原稿種別判定部25に出力する。原稿種別判定部25は、各カウント値を基に原稿種別を判定し、その判定結果を示す原稿種別信号を出力するものである。   The pixel number counting unit 24 counts the number of pixels in the character edge region, the halftone dot region, and the halftone character edge region, and outputs each count value to the document type determination unit 25. The document type determination unit 25 determines the document type based on each count value, and outputs a document type signal indicating the determination result.

(原稿種別識別部における処理全体の流れ)
図3は、原稿種別識別部14における処理の流れの概要を示すフローチャートである。まず、入力補正部12からのCMY画像データから、網点領域検出部22における注目画素が網点領域であるか否かを判定する網点領域検出処理(S1)、文字エッジ領域検出部21における注目画素が文字エッジ領域であるか否かを判定する文字エッジ領域検出処理(S2)、網点文字エッジ領域検出部23における注目画素が網点文字エッジ領域であるか否かを判定する網点文字エッジ領域検出処理(S3)が行われる。
(Overall process flow in the document type identification section)
FIG. 3 is a flowchart showing an outline of the flow of processing in the document type identification unit 14. First, from the CMY image data from the input correction unit 12, a halftone dot region detection process (S 1) for determining whether or not the target pixel in the halftone dot region detection unit 22 is a halftone dot region, and a character edge region detection unit 21 Character edge region detection processing (S2) for determining whether or not the pixel of interest is a character edge region, and a halftone dot for determining whether or not the pixel of interest in the halftone character edge region detector 23 is a halftone character edge region Character edge region detection processing (S3) is performed.

その後、画素カウント部24において各領域に属する画素数をカウントし(S4)、原稿種別判定部25において、画素数カウント部24がカウントしたカウント値を基に原稿種別が判定される(S5)。   Thereafter, the pixel count unit 24 counts the number of pixels belonging to each region (S4), and the document type determination unit 25 determines the document type based on the count value counted by the pixel number count unit 24 (S5).

<<網点領域検出処理の流れ>>
次に、各処理について詳細に説明する。図4は、網点領域検出部22における網点領域の検出処理の流れを示すフローチャートである。なお、以下の説明では、C,M,Yいずれかのプレーンについて網点領域検出処理を行うときについて説明する。
<< Flow of halftone dot detection process >>
Next, each process will be described in detail. FIG. 4 is a flowchart showing the flow of halftone dot region detection processing in the halftone dot region detector 22. In the following description, a case where halftone dot region detection processing is performed for any one of C, M, and Y planes will be described.

網点領域検出部22は、網点領域が
特徴a:小領域内での濃度変動が大きいこと、
特徴b:背景に比べて網点の濃度が高いこと、
という特徴を有することを利用して、各画素が網点領域であるか否かを判定する。
The halftone dot region detection unit 22 is characterized in that the halftone dot region has a characteristic a: large density fluctuation in a small region,
Feature b: The density of the halftone dot is higher than the background,
It is determined whether or not each pixel is a halftone dot region by utilizing the characteristic of

まず、S11において、網点領域検出部22は、図5に示されるような予め設定されているM×N画素マスク(例えば、7×7画素マスク)内の画素値V(M,N)の最大値VMax、最小値VMin、平均濃度値VAveを算出する。   First, in S11, the halftone dot region detection unit 22 calculates a pixel value V (M, N) within a preset M × N pixel mask (for example, a 7 × 7 pixel mask) as shown in FIG. The maximum value VMax, the minimum value VMin, and the average density value Vave are calculated.

次に、画素マスク内の各画素について、画素値が平均濃度値VAveよりも大きいか否かが判断される(S12)。画素値が平均濃度値VAveよりも大きい場合、網点領域検出部22は、該画素値を255に設定する(S13)。一方、画素値が平均濃度値VAveよりも小さい場合、網点領域検出部22は、該画素値を0に設定する(S14)。   Next, for each pixel in the pixel mask, it is determined whether the pixel value is larger than the average density value VAve (S12). When the pixel value is larger than the average density value Vave, the halftone dot region detection unit 22 sets the pixel value to 255 (S13). On the other hand, when the pixel value is smaller than the average density value Vave, the halftone dot region detection unit 22 sets the pixel value to 0 (S14).

すなわち、網点領域検出部22は、S12〜S14にて、網点の特徴である濃度変動を検出しやすいようにVAveをもとに2値化を行う。   That is, the halftone dot area detection unit 22 performs binarization based on VAve so that the density fluctuations that are the characteristics of the halftone dots can be easily detected in S12 to S14.

次に、S15において、網点領域検出部22は、図5に示されるような画素マスク内の画素の主走査方向の反転回数RMain、副走査方向の反転回数RSubを算出する。   Next, in S15, the halftone dot region detection unit 22 calculates the number of inversions RMain in the main scanning direction and the number of inversions RSub in the sub scanning direction of the pixels in the pixel mask as shown in FIG.

例えば、主走査方向の場合、
|V(m,n)−V(m,n−1)|>0
を満たすときに画素の反転があったと判定してRMainを1加算し、これを画素マスク内のすべての主走査方向について行う。
For example, in the main scanning direction:
| V (m, n) -V (m, n-1) |> 0
When it is satisfied, it is determined that the pixel has been inverted, and RMain is incremented by 1, and this is performed for all main scanning directions in the pixel mask.

一方、副走査方向の場合、
|V(m,n)−V(m−1,n)|>0
を満たすときに画素の反転があったと判定してRSubを1加算し、これを画素マスク内のすべての副走査方向について行う。
On the other hand, in the sub-scanning direction,
| V (m, n) -V (m-1, n) |> 0
When it is satisfied that the pixel has been inverted, RSub is incremented by 1, and this is performed for all sub-scanning directions in the pixel mask.

なお、図5に示す矢印は、画素マスク内で上記演算が行われる全ての組み合わせを表すものである。図5の左グラフの矢印は主走査方向を、図5の右グラフの矢印は副走査方向を示すものである。   Note that the arrows shown in FIG. 5 represent all combinations in which the above calculation is performed within the pixel mask. The arrows in the left graph in FIG. 5 indicate the main scanning direction, and the arrows in the right graph in FIG. 5 indicate the sub-scanning direction.

次に、網点領域検出部22は、最大濃度値VMaxおよび最小濃度値VMinと、平均濃度値VAveとの濃度差が、各々予め設定された閾値ThMax、ThMinよりも大きいか否か、すなわち、以下の条件式
VMax−VAve>ThMax、かつ、VAve−VMin>ThMin …(1)
を満たすか否かを判定する(S16)。これにより、注目画素が上記網点領域の特徴a(小領域内での濃度変動が大きいこと)を有するか否かを判定できる。
Next, the halftone dot area detection unit 22 determines whether or not the density difference between the maximum density value VMax and the minimum density value VMin and the average density value VAve is larger than preset threshold values ThMax and ThMin, that is, The following conditional expressions: VMax−VAve> ThMax and VAve−VMin> ThMin (1)
It is determined whether or not the condition is satisfied (S16). Thereby, it can be determined whether or not the target pixel has the feature a of the halftone dot region (the density variation within the small region is large).

上記条件式(1)を満たす場合にはS17に移行し、満たさない場合にはS19に移行する。   If the conditional expression (1) is satisfied, the process proceeds to S17, and otherwise, the process proceeds to S19.

S17において、網点領域検出部22は、S15で算出した主走査方向の反転回数RMainおよび副走査方向の反転回数RSubが、各々予め設定された閾値ThMainおよびThSubよりも大きいか否か、すなわち、以下の条件式
RMain>ThMain、かつ、RSub>ThSub …(2)
を満たすか否かを判定する。これにより、注目画素が上記網点領域の特徴b(背景に比べて網点の濃度が大きいこと)を有するか否かを判定できる。
In S17, the halftone dot region detection unit 22 determines whether or not the number of inversions RMain in the main scanning direction and the number of inversions RSsub in the sub-scanning direction calculated in S15 are larger than preset threshold values ThMain and ThSub, respectively, The following conditional expression: RMain> ThMain and RSub> ThSub (2)
It is determined whether or not the above is satisfied. Thereby, it can be determined whether or not the target pixel has the feature b of the halftone dot region (the density of the halftone dot is larger than that of the background).

上記条件式(2)を満たす場合にはS18に移行し、満たさない場合にはS19に移行する。   If the conditional expression (2) is satisfied, the process proceeds to S18, and if not, the process proceeds to S19.

上記条件式(1)および(2)の両方を満たす場合、S18において、網点領域検出部22は、画素マスクの中央の画素である注目画素を網点領域と判定する。つまり、上記網点領域の特徴aおよび特徴bの両方を有するものとして、注目画素を網点領域と判定する。一方、上記条件式(1)および(2)の少なくとも一方を満たさない場合、S19において、網点領域検出部22は、注目画素を非網点領域と判定する。その後、網点領域検出部22は、注目画素が網点領域か非網点領域のいずれに属するかを示す網点画素信号を出力する。   If both the conditional expressions (1) and (2) are satisfied, in S18, the halftone dot region detection unit 22 determines that the pixel of interest that is the central pixel of the pixel mask is a halftone dot region. That is, the pixel of interest is determined to be a halftone dot region, assuming that it has both the features a and b of the halftone dot region. On the other hand, when at least one of the conditional expressions (1) and (2) is not satisfied, in S19, the halftone dot region detection unit 22 determines the target pixel as a non-halftone dot region. Thereafter, the halftone dot region detection unit 22 outputs a halftone pixel signal indicating whether the target pixel belongs to a halftone dot region or a non-halftone dot region.

次に、網点領域検出部22は、全ての画素について網点領域か否かの判定が終了したか否かを判断する(S20)。全ての画素についての判定が終了していない場合、判定を行っていない画素について、上記S11〜S19の処理が繰り返される。このようにして、網点領域検出部22は、全ての画素について網点領域か否かを判定する。   Next, the halftone dot region detection unit 22 determines whether or not the determination as to whether or not all the pixels are halftone dot regions has ended (S20). If the determination for all the pixels has not been completed, the processes of S11 to S19 are repeated for the pixels that have not been determined. In this way, the halftone dot area detection unit 22 determines whether or not all pixels are halftone dot areas.

<<文字エッジ検出処理の流れ>>
次に、文字エッジ領域検出部21における文字エッジ検出処理の流れについて図6のフローチャートを参照しながら説明する。なお、以下の説明では、あるC,M,Yのいずれかのプレーンについて文字エッジ検出処理を行う場合について説明する。
<< Character edge detection process flow >>
Next, the flow of character edge detection processing in the character edge region detection unit 21 will be described with reference to the flowchart of FIG. In the following description, a case where character edge detection processing is performed for any one of C, M, and Y planes will be described.

文字エッジ領域検出部21は、文字エッジ領域が
特徴c:ある一定方向の濃度差(エッジ)が存在すること、
という特徴を有することを利用して、各画素が文字エッジ領域であるか否かを判定する。
The character edge area detection unit 21 is characterized in that the character edge area has a characteristic c: a density difference (edge) in a certain direction,
It is determined whether or not each pixel is a character edge region by utilizing this characteristic.

まず、文字エッジ領域検出部21は、図7に示されるような予め設定されたM×N画素マスク(例えば3×3画素マスク)内の中央の画素である注目画素f(x、y)に対して、初期変数としてi=−1,j=−1を設定する(S21)。   First, the character edge region detection unit 21 applies a pixel of interest f (x, y) that is a central pixel in a preset M × N pixel mask (for example, 3 × 3 pixel mask) as shown in FIG. On the other hand, i = −1 and j = −1 are set as initial variables (S21).

続いて、文字エッジ領域検出部21では、予め設定された閾値ThEdgeを基に、以下の条件式、
|f(x,y)−f(x+i,y+j)|>ThEdge …(3)
を満足するか否かを判定する(S22)。
Subsequently, the character edge region detection unit 21 uses the following conditional expression based on a preset threshold ThEdge:
| F (x, y) -f (x + i, y + j) |> ThEdge (3)
Is determined (S22).

上記条件式(3)を満足する場合、S27に移行する。一方、上記条件式(3)を満足しない場合、S23〜S26の処理によって、i,jを順次1だけ加算し、上記S22の判定を行う。すなわち、(i,j)を(0,−1)、(1,−1)、(−1,0)、(0,0)、(1,0)、(−1,1)、(0,1)、(1,1)に順に設定する。ただし、いずれかの設定で上記条件式(3)を満足する場合、残りの設定に変更することなく、そのままS27を処理に移行する。   If the conditional expression (3) is satisfied, the process proceeds to S27. On the other hand, when the conditional expression (3) is not satisfied, i and j are sequentially added by 1 by the processing of S23 to S26, and the determination of S22 is performed. That is, (i, j) is changed to (0, -1), (1, -1), (-1,0), (0,0), (1,0), (-1,1), (0 , 1) and (1, 1) in this order. However, when the conditional expression (3) is satisfied with any of the settings, the process proceeds to S27 as it is without changing to the remaining settings.

文字エッジ領域は、上述した特徴c(ある一定方向の濃度差(エッジ)が存在する)を有する。そのため、画素マスク内の画素のいずれか一つでも上記条件式(3)が満たされる場合、S27において、文字エッジ領域検出部21は、注目画素が特徴cを有するとして、注目画素が文字エッジ領域であると判定する。一方、画素マスク内の全ての画素について上記条件式(3)が満たされない場合、S28において、文字エッジ領域検出部21は、注目画素が非文字エッジ領域であると判定する。そして、文字エッジ領域検出部22は、注目画素が文字エッジ領域か非文字エッジ領域のいずれに属するかを示す文字エッジ画素信号を出力する。   The character edge region has the above-described feature c (there is a density difference (edge) in a certain direction). Therefore, if any one of the pixels in the pixel mask satisfies the conditional expression (3), in S27, the character edge region detection unit 21 determines that the pixel of interest has the feature c, and the pixel of interest is the character edge region. It is determined that On the other hand, when the conditional expression (3) is not satisfied for all the pixels in the pixel mask, the character edge region detection unit 21 determines in S28 that the pixel of interest is a non-character edge region. Then, the character edge region detection unit 22 outputs a character edge pixel signal indicating whether the target pixel belongs to the character edge region or the non-character edge region.

その後、文字エッジ領域検出部21は、全ての画素について文字エッジ領域か否かの判定が終了したか否かを判断する(S29)。全ての画素についての判定が終了していない場合、判定を行っていない画素について、上記S21〜S28の処理が繰り返される。このようにして、文字エッジ領域検出部21は、全ての画素について文字エッジ領域か否かを判定する。   Thereafter, the character edge region detection unit 21 determines whether or not the determination of whether or not all the pixels are character edge regions has been completed (S29). If the determination for all the pixels has not been completed, the processes of S21 to S28 are repeated for the pixels that have not been determined. In this way, the character edge area detection unit 21 determines whether or not all pixels are character edge areas.

<<網点文字エッジ検出処理>>
次に、網点文字エッジ領域検出部23における網点文字エッジ検出処理の流れについて図8のフローチャートを参照しながら説明する。なお、以下の説明では、あるC,M,Yのいずれかのプレーンについて網点文字エッジ検出処理を行う場合について説明する。
<< Half-dot character edge detection processing >>
Next, the flow of halftone character edge detection processing in the halftone character edge region detection unit 23 will be described with reference to the flowchart of FIG. In the following description, a case where halftone character edge detection processing is performed for any one of C, M, and Y planes will be described.

網点文字エッジの領域は、
特徴a:小領域内での濃度変動が大きいこと、
特徴b:背景に比べて網点の濃度が高いこと、
特徴c:ある一定方向の濃度差(エッジ)が存在すること、
という文字エッジ領域の特徴と網点領域の特徴を併せて持っている。このため、入力画像データに対して図6で示した文字エッジ検出処理を行っても、精度良く網点文字エッジを検出することができない。
The area of the halftone dot edge is
Feature a: Large variation in density within a small region,
Feature b: The density of the halftone dot is higher than the background,
Feature c: existence of a density difference (edge) in a certain direction,
The character edge area feature and the halftone dot area feature are combined. For this reason, even if the character edge detection processing shown in FIG. 6 is performed on the input image data, the halftone character edge cannot be detected with high accuracy.

そこで、本実施形態の網点文字エッジ領域検出部23は、まず入力画像データに対して網点領域の特徴を除去するために平滑化処理を行う(S31)。   Therefore, the halftone character edge region detection unit 23 of the present embodiment first performs smoothing processing on the input image data in order to remove the features of the halftone region (S31).

平滑化処理は、例えば、図9(a)に示されるような全周波数帯域でMTF(Modulation Transfer Function)を減少させるような特性を有する5×5サイズのメディアンフィルタを用いるか、あるいは、図9(b)に示されるような網点文字領域が属する低周波帯域でMTFを増幅させつつ、網点領域が属する高周波帯域でMTFを減少させるような特性を有するような平滑と強調の特性を併せ持つ混合フィルタを用いればよい。   The smoothing process uses, for example, a median filter of 5 × 5 size having a characteristic of reducing MTF (Modulation Transfer Function) in the entire frequency band as shown in FIG. 9A, or FIG. As shown in (b), the MTF is amplified in the low frequency band to which the halftone character region belongs, and has the smoothing and emphasis characteristics that have the characteristic of reducing the MTF in the high frequency band to which the halftone region belongs. A mixed filter may be used.

その後、図6に示した文字エッジ検出処理を行う(S32)。ここで、検出される文字エッジは、網点文字エッジのほかに通常の文字エッジも含まれている。そこで、網点文字エッジ領域検出部23は、図4で示した網点領域の検出処理の結果を利用し、注目画素が網点領域であり、かつ、文字エッジ領域であるか否かを判断する(S33)。 Thereafter, the character edge detection process shown in FIG. 6 is performed (S32). Here, the detected character edge includes not only a halftone dot character edge but also a normal character edge. Accordingly, the halftone character edge region detection unit 23 uses the result of the halftone dot region detection process shown in FIG. 4 to determine whether the pixel of interest is a halftone region and a character edge region. (S33).

注目画素が網点領域であるとともに、文字エッジ領域である場合、網点文字エッジ領域検出部23は、注目画素が網点文字エッジ領域であると判定する(S34)。そして、網点文字エッジ領域検出部23は、注目画素が網点文字エッジ領域か非網点文字エッジ領域のいずれに属するかを示す網点文字エッジ画素信号を出力する。   When the target pixel is a halftone dot area and a character edge area, the halftone dot character edge area detection unit 23 determines that the target pixel is a halftone character edge area (S34). Then, the halftone character edge region detection unit 23 outputs a halftone character edge pixel signal indicating whether the pixel of interest belongs to a halftone character edge region or a non-halftone character edge region.

その後、網点文字エッジ領域検出部23は、全ての画素について網点文字エッジ領域か否かの判定が終了したか否かを判断する(S35)。全ての画素についての判定が終了していない場合、判定を行っていない画素について、上記S31〜S34の処理が繰り返される。このようにして、網点文字エッジ領域検出部23は、全ての画素について網点文字エッジ領域か否かを判定する。   After that, the halftone character edge area detection unit 23 determines whether or not the determination as to whether or not all the pixels are halftone character edge areas has been completed (S35). When the determination for all the pixels has not been completed, the processes of S31 to S34 are repeated for the pixels that have not been determined. In this way, the halftone character edge region detection unit 23 determines whether or not all pixels are halftone character edge regions.

<<画素数カウント処理>>
次に、画素数カウント部24における画素数カウント処理について図10のフローチャートを参照しながら説明する。
<< Pixel count processing >>
Next, the pixel number counting process in the pixel number counting unit 24 will be described with reference to the flowchart of FIG.

まず、S41において、文字エッジ領域の画素数のカウント値EdgeCount、網点領域の画素数のカウント値ScreenCount、網点文字エッジ領域の画素数のカウント値ScreenEdgeCountを初期値0に設定する。   First, in S41, the count value EdgeCount of the number of pixels in the character edge region, the count value ScreenCount of the number of pixels in the halftone dot region, and the count value ScreenEdgeCount of the number of pixels in the halftone character edge region are set to the initial value 0.

その後、注目画素において、C,M,Yのいずれかのプレーンで文字エッジ画素信号が文字エッジ領域であることを示すか否かを判定する(S42)。文字エッジ画素信号が文字エッジ領域を示す場合、画素数カウント部24は、文字エッジ領域のカウント値EdgeCountを1だけ加算する(S43)。   Thereafter, in the target pixel, it is determined whether or not the character edge pixel signal indicates a character edge region in any one of C, M, and Y planes (S42). When the character edge pixel signal indicates the character edge region, the pixel number counting unit 24 adds 1 to the character edge region count value EdgeCount (S43).

同様にして、画素数カウント部24は、注目画素において、C,M,Yのいずれかのプレーンで網点画素信号が網点領域であることを示すか否かを判定し(S44)、網点画素信号が網点領域を示す場合、網点領域のカウント値ScreenCountを1だけ加算する(S45)。また、画素数カウント部24は、注目画素において、C,M,Yのいずれかのプレーンで網点文字エッジ画素信号が網点文字エッジ領域であることを示すか否かを判定し(S46)、網点文字エッジ画素信号が網点文字エッジ領域を示す場合、網点文字エッジ領域のカウント値ScreenEdgeCountを1だけ加算する(S47)。   Similarly, the pixel number counting unit 24 determines whether or not the halftone dot pixel signal indicates that it is a halftone dot region in any one of the C, M, and Y planes in the target pixel (S44). If the dot pixel signal indicates a halftone dot region, the halftone dot region count value ScreenCount is incremented by 1 (S45). Further, the pixel number counting unit 24 determines whether or not the halftone dot character edge pixel signal indicates the halftone dot character edge region in any one of C, M, and Y in the target pixel (S46). When the halftone character edge pixel signal indicates a halftone character edge region, the count value ScreenEdgeCount of the halftone character edge region is incremented by 1 (S47).

S42〜S47の処理を画像全体の画素に対して行う(S48)。そして、画素数カウント部24は、画像全体の画素に対してカウントされた各カウント値EdgeCount,ScreenCount,ScreenEdgeCountを原稿種別判定部25に出力する。   The processes of S42 to S47 are performed on the pixels of the entire image (S48). Then, the pixel number counting unit 24 outputs the count values EdgeCount, ScreenCount, and ScreenEdgeCount counted for the pixels of the entire image to the document type determination unit 25.

<<原稿種別判定処理>>
次に、原稿種別判定部25における原稿種別判定処理の流れについて図11のフローチャートを参照しながら説明する。
<< Document Type Determination Process >>
Next, the flow of the document type determination process in the document type determination unit 25 will be described with reference to the flowchart of FIG.

まず、S51において、原稿種別の判定の指標となる文字エッジ領域判定フラグEdgeFlag、網点領域判定フラグScreenFlag、網点文字エッジ領域判定フラグScreenEdgeFlagを初期値0に設定する。次に、画素数カウント部24で算出された文字エッジ領域に属する画素のカウント値EdgeCountが予め設定された閾値ThEdgeCount以上であるか否かを判定し(S52)、カウント値EdgeCountが閾値ThEdgeCount以上である場合には、文字エッジ領域判定フラグEdgeFlagを1とする(S53)。   First, in S51, a character edge region determination flag EdgeFlag, a halftone dot region determination flag ScreenFlag, and a halftone character edge region determination flag ScreenEdgeFlag, which are indexes for determining the type of document, are set to an initial value 0. Next, it is determined whether or not the count value EdgeCount of the pixels belonging to the character edge region calculated by the pixel number counting unit 24 is greater than or equal to a preset threshold ThEdgeCount (S52), and the count value EdgeCount is greater than or equal to the threshold ThEdgeCount. If there is, the character edge region determination flag EdgeFlag is set to 1 (S53).

同様にして、原稿種別判定部25は、網点領域に属する画素のカウント値ScreenCountが予め設定された閾値ThScreenCount以上であると判定された場合(S54)、網点領域判定フラグScreenFlagを1とする(S55)。また、網点文字エッジ領域に属する画素のカウント値ScreenEdgeCountが予め設定された閾値ThScreenEdgeCount以上であると判定された場合(S56)、網点領域判定フラグScreenEdgeFlagを1とする(S57)。   Similarly, when it is determined that the count value ScreenCount of the pixels belonging to the halftone dot area is greater than or equal to a preset threshold value ThScreenCount (S54), the document type determination unit 25 sets the halftone dot area determination flag ScreenFlag to 1. (S55). If it is determined that the count value ScreenEdgeCount of the pixels belonging to the halftone character edge region is equal to or larger than a preset threshold value ThScreenEdgeCount (S56), the halftone dot region determination flag ScreenEdgeFlag is set to 1 (S57).

以上で求められたフラグと、予め記憶していた判定基準を示す図12のようなテーブルとを基に、原稿種別判定部25は、原稿が「文字印刷写真」「文字」「印刷写真」「その他(印画紙写真)」のいずれであるかを判定する(S58)。そして、原稿種別判定部25は、判定した結果を示す原稿種別信号を領域分離部15に出力する。   Based on the flag obtained as described above and a table as shown in FIG. 12 showing the determination criteria stored in advance, the document type determination unit 25 determines that the document is “character printed photograph”, “character”, “printed photograph”, “ It is determined whether it is “other (printing paper photograph)” (S58). Then, the document type determination unit 25 outputs a document type signal indicating the determination result to the region separation unit 15.

例えば、図12のテーブルに示されるように、文字エッジ領域判定フラグEdgeFlag、網点領域判定フラグScreenFlag、網点文字エッジ領域判定フラグScreenEdgeFlagが全て1である場合、原稿中に文字領域、網点領域、網点文字領域が混在していることから、原稿種別判定部25は、原稿が「文字印刷写真(A)」であると判定する。文字エッジ領域判定フラグEdgeFlagと網点領域判定フラグScreenFlagとが1であり、網点文字エッジ領域判定フラグScreenEdgeFlagが0である場合、原稿中に文字領域および網点領域が混在していることから、原稿種別判定部25は、原稿が「文字印刷写真(B)」であると判定する。また、文字エッジ領域判定フラグEdgeFlagのみが1の場合、原稿中には通常の文字しか存在しないことから、原稿種別判定部25は、原稿が「文字」原稿であると判定する。また、すべてのフラグが0である場合、原稿が銀塩写真に代表される連続調の階調で構成されていると考えられ、「その他」の原稿(例えば、印画紙写真原稿)であると判断される。なお、文字印刷写真原稿に関しては、(A)から(E)に分けられるが、これについては後述する。   For example, as shown in the table of FIG. 12, when the character edge region determination flag EdgeFlag, the halftone dot region determination flag ScreenFlag, and the halftone character edge region determination flag ScreenEdgeFlag are all 1, the character region and the halftone dot region are included in the document. Since the halftone dot character area is mixed, the document type determination unit 25 determines that the document is “character printed photograph (A)”. If the character edge area determination flag EdgeFlag and the halftone dot area determination flag ScreenFlag are 1 and the halftone dot edge edge determination flag ScreenEdgeFlag is 0, the character area and the halftone area are mixed in the document. The document type determination unit 25 determines that the document is “character printed photograph (B)”. When only the character edge region determination flag EdgeFlag is 1, only normal characters exist in the document, and the document type determination unit 25 determines that the document is a “character” document. When all the flags are 0, it is considered that the document is composed of continuous tone gradations represented by silver halide photography, and is an “other” document (for example, a photographic paper photo document). To be judged. The character-printed photo original is divided into (A) to (E), which will be described later.

上記の原稿種別識別部25の処理によって、入力画像がどのような原稿であるかが識別される。これにより、原稿種別信号に基づいて、領域分離部15では、各画素がどの領域に属するのかを精度良く検出することができる。   By the processing of the above-described document type identification unit 25, what kind of document the input image is is identified. Thereby, based on the document type signal, the region separation unit 15 can accurately detect which region each pixel belongs to.

<領域分離部について>
次に、領域分離部15の詳細について説明する。図13は領域分離部15の構成を示すブロック図である。図示されるように、領域分離部15は、文字エッジ領域検出部31、網点領域検出部32、網点文字エッジ領域検出部33、領域判定部34、有彩・無彩判定部35を備えている。
<Region separation unit>
Next, details of the region separation unit 15 will be described. FIG. 13 is a block diagram showing the configuration of the region separation unit 15. As shown in the figure, the region separation unit 15 includes a character edge region detection unit 31, a halftone dot region detection unit 32, a halftone dot edge region detection unit 33, a region determination unit 34, and a chromatic / achromatic determination unit 35. ing.

文字エッジ領域検出部31、網点領域検出部32、網点文字エッジ領域検出部33における処理は、各々原稿種別識別部14の文字エッジ領域検出部21、網点領域検出部22、網点文字エッジ領域検出部23と同様の処理を行うものである。ただし、文字エッジ領域検出部31、網点領域検出部32、網点文字エッジ領域検出部33は、原稿種別識別部14からの原稿種別信号に応じて、検出処理の際に用いる閾値を変更するものとする。これにより、注目画素がどの領域に属するかを精度良く検出することができる。   The processing in the character edge region detection unit 31, the halftone dot region detection unit 32, and the halftone character edge region detection unit 33 includes the character edge region detection unit 21, the halftone region detection unit 22, the halftone character, respectively, of the document type identification unit 14. The same processing as that of the edge region detection unit 23 is performed. However, the character edge region detection unit 31, the halftone dot region detection unit 32, and the halftone dot edge detection unit 33 change the threshold value used in the detection process according to the document type signal from the document type identification unit 14. Shall. Thereby, it is possible to accurately detect which region the pixel of interest belongs to.

なお、文字エッジ領域検出部31は、注目画素が文字エッジ領域であることを示す文字エッジ信号、または、注目画素が非文字エッジ領域であることを示す非文字エッジ信号を領域判定部34に出力する。また、網点領域検出部32は、注目画素が網点領域であることを示す網点領域信号を領域判定部34および網点文字エッジ領域検出部33に、注目画素が非網点領域であることを示す非網点信号を領域判定部34に出力する。さらに、網点文字エッジ領域検出部33は、注目画素が網点文字エッジ領域であることを示す網点文字エッジ信号、または、注目画素が非網点文字エッジ領域であることを示す非網点文字エッジ信号を領域判定部34に出力する。   The character edge region detection unit 31 outputs a character edge signal indicating that the target pixel is a character edge region or a non-character edge signal indicating that the target pixel is a non-character edge region to the region determination unit 34. To do. Also, the halftone dot region detection unit 32 sends a halftone dot region signal indicating that the target pixel is a halftone dot region to the region determination unit 34 and the halftone dot character edge region detection unit 33, and the target pixel is a non-halftone dot region. A non-halftone dot signal indicating this is output to the area determination unit 34. Further, the halftone dot edge region detection unit 33 generates a halftone dot edge signal indicating that the target pixel is a halftone dot edge region, or a non-halftone dot indicating that the target pixel is a non-halftone character edge region. The character edge signal is output to the area determination unit 34.

領域判定部34は、文字エッジ領域検出部31、網点領域検出部32、網点文字エッジ領域検出部33からの信号に基づいて、注目画素が網点領域、文字エッジ領域、網点文字エッジ領域のいずれに属するかを判定するものである。なお、領域判定部34は、領域判定の際、原稿種別識別部14からの原稿種別信号に基づき、図12のテーブルの左列に示す判定優先順位に従って、文字エッジ領域検出部31、網点領域検出部32、網点文字エッジ領域検出部33からの信号の優先度を変更するものとする。   Based on the signals from the character edge region detection unit 31, the halftone dot region detection unit 32, and the halftone character edge region detection unit 33, the region determination unit 34 determines that the target pixel is a halftone dot region, a character edge region, and a halftone character edge. It is determined which one of the areas it belongs to. Note that the area determination unit 34 determines the character edge area detection unit 31, the halftone dot area in accordance with the determination priority shown in the left column of the table of FIG. 12 based on the document type signal from the document type identification unit 14 when determining the region. Assume that the priority of the signals from the detection unit 32 and the halftone character edge region detection unit 33 is changed.

領域判定部34は、注目画素が網点領域に属する場合にはその旨を示す網点領域信号を、注目画素が網点文字領域に属する場合にはその旨を示す網点文字エッジ領域信号を、注目画素がその他の領域に属する場合にはその旨を示す他領域信号を後段のブロックに出力する。また、領域判定部34は、注目画素が文字エッジ領域に属する場合、文字エッジ領域信号を有彩・無彩判定部35に出力する。   When the target pixel belongs to the halftone dot region, the region determination unit 34 displays a halftone dot region signal indicating that, and when the target pixel belongs to the halftone character region, the region determination unit 34 displays a halftone character edge region signal indicating that fact. If the pixel of interest belongs to another area, an other area signal indicating that fact is output to the subsequent block. In addition, when the target pixel belongs to the character edge region, the region determination unit 34 outputs a character edge region signal to the chromatic / achromatic determination unit 35.

有彩・無彩判定部35は、文字エッジ領域であると判定された画素に対して、その領域が色文字であるのか、黒文字であるのかを判定するものである。有彩・無彩判定部35における処理の詳細については後述する。   The chromatic / achromatic determining unit 35 determines, for a pixel determined to be a character edge region, whether the region is a color character or a black character. Details of the processing in the chromatic / achromatic determination unit 35 will be described later.

(領域分離部における処理全体の流れ)
図14は、領域分離部15における処理の流れを示すフローチャートである。図14に示されるように、まず、網点領域検出部32による網点領域検出処理(S61)、文字エッジ領域検出部31による文字エッジ領域検出処理(S62)、網点文字エッジ領域検出部33により網点文字エッジ領域検出処理(S63)が並行して行われる。これらのS61・S62・S63は、上記S1・S2・S3の処理と同様である。
(Overall process flow in the region separation unit)
FIG. 14 is a flowchart showing the flow of processing in the region separation unit 15. As shown in FIG. 14, first, a halftone dot region detection process (S61) by the halftone dot region detection unit 32, a character edge region detection process (S62) by the character edge region detection unit 31, and a halftone character edge region detection unit 33. Thus, the halftone character edge region detection process (S63) is performed in parallel. These S61, S62, and S63 are the same as the processes of S1, S2, and S3.

ただし、上述したように、文字エッジ領域検出部31、網点領域検出部32、網点文字エッジ領域検出部33は、原稿種別識別部14からの原稿種別信号に応じて、閾値を変更するものとする。なお、網点領域検出部32は、閾値ThMax、ThMin、ThMain、ThSubとして、デフォルトの設定値を予め記憶している。また、文字エッジ領域検出部31および網点文字エッジ領域検出部33は、閾値ThEdgeとして、デフォルトの設定値を予め記憶している。   However, as described above, the character edge region detection unit 31, the halftone dot region detection unit 32, and the halftone character edge region detection unit 33 change the threshold according to the document type signal from the document type identification unit 14. And The halftone dot region detection unit 32 stores default setting values in advance as threshold values ThMax, ThMin, ThMain, ThSub. In addition, the character edge region detection unit 31 and the halftone character edge region detection unit 33 store a default setting value in advance as the threshold ThEdge.

例えば、原稿種別信号が「文字印刷写真(A)」原稿または「文字印刷写真(B)」原稿を示す場合、文字エッジ領域検出部31、網点領域検出部32、網点文字エッジ領域検出部33は、デフォルトの設定値を用いて検出処理を行う。これに対し、原稿種別信号が「文字印刷写真(D)」原稿を示す場合、原稿上には文字のみ、あるいは文字が多く存在していると考えられる。そこで、文字エッジや網点文字エッジを検出しやすくするため、文字エッジ領域検出部31および網点文字エッジ領域検出部33は、閾値ThEdgeをデフォルトの設定値より小さい値(例えば、デフォルトの設定値の0.7倍)に変更する。   For example, when the document type signal indicates a “character-printed photo (A)” document or a “character-printed photo (B)” document, a character edge region detection unit 31, a halftone dot region detection unit 32, and a halftone dot character edge region detection unit 33 performs a detection process using a default set value. On the other hand, when the document type signal indicates a “character printed photograph (D)” document, it is considered that only characters or many characters exist on the document. Therefore, in order to facilitate detection of a character edge or a halftone character edge, the character edge region detection unit 31 and the halftone character edge region detection unit 33 set the threshold ThEdge to a value smaller than the default setting value (for example, the default setting value). To 0.7).

また、原稿種別信号が「文字印刷写真(C)」原稿あるいは「文字印刷写真(E)」原稿である場合、原稿上には網点領域と網点文字のみ、あるいは網点領域と網点文字が多く存在していると考えられる。そこで、網点領域を検出しやすくするため、網点領域検出部32は、閾値ThMax、ThMin、ThMain、ThSubをデフォルトの設定値より小さい値(例えば、デフォルトの設定値の0.7倍)に変更する。   When the document type signal is a “character printed photograph (C)” document or a “character printed photograph (E)” document, only a halftone dot area and halftone character, or a halftone dot area and halftone character is displayed on the original. It is thought that there are many. Therefore, in order to facilitate detection of the halftone dot region, the halftone dot region detection unit 32 sets the threshold values ThMax, ThMin, ThMain, and ThSub to values smaller than the default setting values (for example, 0.7 times the default setting value). change.

このように、文字エッジ領域検出部31、網点領域検出部32、網点文字エッジ領域検出部33は、原稿種別識別部14からの原稿種別信号に応じて閾値を調整する。   As described above, the character edge region detection unit 31, the halftone dot region detection unit 32, and the halftone character edge region detection unit 33 adjust the threshold according to the document type signal from the document type identification unit 14.

そして、文字エッジ領域検出部31は、注目画素が文字エッジ領域であることを示す文字エッジ信号、または、注目画素が非文字エッジ領域であることを示す非文字エッジ信号を領域判定部34に出力する。また、網点領域検出部32は、注目画素が網点領域であることを示す網点信号、または、注目画素が非網点領域であることを示す非網点信号を領域判定部34に出力する。さらに、網点文字エッジ領域検出部33は、注目画素が網点文字エッジ領域であることを示す網点文字エッジ信号、または、注目画素が非網点文字エッジ領域であることを示す非網点文字エッジ信号を領域判定部34に出力する。   Then, the character edge region detection unit 31 outputs a character edge signal indicating that the target pixel is a character edge region or a non-character edge signal indicating that the target pixel is a non-character edge region to the region determination unit 34 To do. Further, the halftone dot area detection unit 32 outputs a halftone dot signal indicating that the target pixel is a halftone dot area or a non-halftone dot signal indicating that the target pixel is a non-halftone dot area to the area determination unit 34. To do. Further, the halftone dot edge region detection unit 33 generates a halftone dot edge signal indicating that the target pixel is a halftone dot edge region, or a non-halftone dot indicating that the target pixel is a non-halftone character edge region. The character edge signal is output to the area determination unit 34.

次に、S64では、領域判定部34は、文字エッジ信号、網点信号および網点文字エッジ信号に基づいて、注目画素が属する領域を、文字エッジ領域、網点領域、網点文字エッジ領域のいずれであるかを判定する(領域判定処理)。この際、領域判定部34は、文字エッジ信号、網点信号および網点文字エッジ信号の優先度を原稿種別信号に基づいて決定し、該優先度に応じて注目画素の領域を判定する。なお、領域判定部34における領域判定処理の詳細な処理の流れについては後述する。   Next, in S64, the region determination unit 34 determines the region to which the target pixel belongs based on the character edge signal, the halftone dot signal, and the halftone character edge signal as the character edge region, the halftone dot region, and the halftone character edge region. Which one is determined (area determination processing). At this time, the region determination unit 34 determines the priority of the character edge signal, the halftone dot signal, and the halftone character edge signal based on the document type signal, and determines the region of the target pixel according to the priority. The detailed process flow of the area determination process in the area determination unit 34 will be described later.

次に、注目画素が文字エッジ領域であると判定した場合(S65でYes)、領域判定部は、注目画素が文字エッジ領域であることを示す文字エッジ信号を有彩・無彩判定部35に出力する。   Next, when it is determined that the target pixel is the character edge region (Yes in S65), the region determination unit sends a character edge signal indicating that the target pixel is the character edge region to the chromatic / achromatic determination unit 35. Output.

その後、有彩・無彩判定部35は、注目画素が有彩色であるか、無彩色であるかの有彩無彩判定処理を行う(S66)。そして、処理を終了する。なお、有彩・無彩判定部35における有彩無彩判定処理の詳細については後述する。   Thereafter, the chromatic / achromatic determination unit 35 performs a chromatic / achromatic determination process to determine whether the pixel of interest is a chromatic color or an achromatic color (S66). Then, the process ends. Details of the chromatic / achromatic determination processing in the chromatic / achromatic determination unit 35 will be described later.

一方、注目画素が文字エッジ領域以外(つまり、網点領域、網点文字エッジ領域またはその他の領域)である場合(S65でNo)、領域判定部34は、注目画素が網点領域であることを示す網点領域信号、注目画素が網点文字エッジ領域であることを示す網点文字エッジ領域信号、または、注目画素がその他の領域であることを示す他領域信号を後段に出力する。そして、処理を終了する。   On the other hand, when the target pixel is other than the character edge region (that is, a halftone dot region, a halftone character edge region, or other region) (No in S65), the region determination unit 34 determines that the target pixel is a halftone dot region. , A dot character edge region signal indicating that the pixel of interest is a dot character edge region, or another region signal indicating that the pixel of interest is another region is output to the subsequent stage. Then, the process ends.

<<領域判定処理>>
次に、上記S64の領域判定部34における領域判定処理の詳細について説明する。図15は、原稿種別信号が「文字印刷写真(A)」原稿を示している場合における領域判定処理の流れを示すフローチャートである。
<< Area determination processing >>
Next, details of the area determination process in the area determination unit 34 in S64 will be described. FIG. 15 is a flowchart showing the flow of region determination processing when the document type signal indicates a “character-printed photo (A)” document.

まず、領域判定部34は、予め記憶している図12のテーブルに基づいて、原稿種別信号「文字印刷写真(A)」に対応する網点信号・網点文字エッジ信号・文字エッジ信号の優先度を決定する。ここでは、網点文字エッジ信号を最優先とし、続いて網点信号、文字エッジ信号の順とする。   First, the area determination unit 34 prioritizes the halftone signal, the halftone character edge signal, and the character edge signal corresponding to the document type signal “character printed photograph (A)” based on the table of FIG. 12 stored in advance. Determine the degree. Here, the dot character edge signal is given the highest priority, followed by the dot signal and the character edge signal in this order.

そして、領域判定部34は、S71において、網点文字エッジ領域検出部33から得られた信号が、C,M,Yのいずれかのプレーンで網点文字エッジ領域であることを示す網点文字エッジ信号であるか否かを判断する。C,M,Yのいずれか一つでも網点信号を受けた場合、領域判定部34は、注目画素が網点文字エッジ領域であると判定する(S72)。   In step S71, the area determination unit 34 indicates that the signal obtained from the halftone dot edge area detection unit 33 is a halftone dot edge area in any one of C, M, and Y planes. It is determined whether it is an edge signal. When any one of C, M, and Y receives a halftone dot signal, the region determination unit 34 determines that the pixel of interest is a halftone character edge region (S72).

一方、C,M,Yのいずれのプレーンについても非網点文字エッジ信号である場合、領域判定部34は、S73において、網点領域検出部32から得られた信号が、C,M,Yのいずれかのプレーンで網点領域であることを示す網点信号か否かを判断する。C,M,Yのいずれか一つでも網点信号を受けた場合、領域判定部34は、注目画素が網点領域であると判定する(S74)。   On the other hand, if the C, M, and Y planes are non-halftone character edge signals, the region determination unit 34 determines that the signal obtained from the halftone dot region detection unit 32 is C, M, Y in S73. It is determined whether any of the planes is a halftone dot signal indicating a halftone dot region. When any one of C, M, and Y receives a halftone dot signal, the region determination unit 34 determines that the pixel of interest is a halftone dot region (S74).

一方、C,M,Yのいずれのプレーンについても非網点信号である場合、領域判定部34は、S75において、文字エッジ領域検出部31から得られた信号が、C,M,Yのいずれかのプレーンで文字エッジ領域であることを示す文字エッジ信号か否かを判断する。C,M,Yのいずれか一つでも文字エッジ信号を受けた場合、領域判定部34は、注目画素が文字エッジ領域であると判定する(S76)。   On the other hand, if the C, M, and Y planes are non-halftone signals, the region determination unit 34 determines that the signal obtained from the character edge region detection unit 31 is C, M, or Y in S75. It is determined whether or not the character edge signal indicates the character edge region in the plane. If any one of C, M, and Y receives a character edge signal, the region determination unit 34 determines that the pixel of interest is a character edge region (S76).

一方、C,M,Yのいずれのプレーンについても非文字エッジ信号である場合、領域判定部34は、S77において、注目画素がその他の領域であると決定する(S77)。   On the other hand, if the C, M, and Y planes are non-character edge signals, the region determination unit 34 determines in S77 that the pixel of interest is another region (S77).

以上の説明では、原稿種別信号が「文字印刷写真(A)」である場合を例に挙げて説明したが、原稿種別信号が他の原稿(「文字印刷写真(B)〜(E)」「文字」)を示す場合であっても、図12に示されるように各信号の優先順位を決定し、決定した優先順位に基づいて、注目画素の領域を決定する。なお、原稿種別信号が「印刷写真」を示している場合、領域判定部34は、全ての画素について網点領域信号を出力する。また、原稿種別信号が「その他」を示している場合、領域判定部34は、全ての画素について他領域信号を出力するものとする。   In the above description, the case where the document type signal is “character printed photo (A)” has been described as an example, but the document type signal is another document (“character printed photos (B) to (E)”, “ Even in the case of “character”), the priority order of each signal is determined as shown in FIG. 12, and the region of the target pixel is determined based on the determined priority order. When the document type signal indicates “printed photograph”, the area determination unit 34 outputs a dot area signal for all pixels. When the document type signal indicates “other”, the area determination unit 34 outputs other area signals for all pixels.

<<有彩無彩判定処理>>
次に、有彩・無彩判定部35における有彩無彩判定処理について説明する。図16は、有彩無彩判定処理の流れを示すフローチャートである。
<< Chromatic / Achromatic Determination Process >>
Next, the chromatic / achromatic determination process in the chromatic / achromatic determination unit 35 will be described. FIG. 16 is a flowchart showing a chromatic / achromatic determination process.

まず、文字エッジ信号を受けた有彩・無彩判定部35は、注目画素のC,M,Yの3値の中で最大(MaxColor)、最小(MinColor)を求める(S81)。次に、求めた最大(MaxColor)と最小(MinColor)と予め定められた閾値ThColorとが以下の条件式
MaxColor−MinColor>ThColor
を満たすか否かを判定する(S82)。
First, the chromatic / achromatic determination unit 35 that has received the character edge signal obtains the maximum (MaxColor) and minimum (MinColor) among the three values of C, M, and Y of the pixel of interest (S81). Next, the obtained maximum (MaxColor) and minimum (MinColor) and a predetermined threshold ThColor are the following conditional expressions:
MaxColor-MinColor> ThColor
It is determined whether or not the condition is satisfied (S82).

上記条件式を満たす場合、有彩・無彩判定部35は、注目画素を色文字エッジ領域であると判定する(S83)。一方、上記条件式を満たさない場合、有彩・無彩判定部35は、注目画素を黒文字エッジ領域であると判定する(S84)。   When the above conditional expression is satisfied, the chromatic / achromatic determination unit 35 determines that the pixel of interest is a color character edge region (S83). On the other hand, when the conditional expression is not satisfied, the chromatic / achromatic determination unit 35 determines that the pixel of interest is a black character edge region (S84).

これにより、文字エッジ領域が色文字エッジ領域、黒文字エッジ領域に分類されることとなる。   As a result, the character edge region is classified into a color character edge region and a black character edge region.

<領域分離信号に応じた処理>
以上のようにして、領域判定部34および有彩・無彩判定部35により各画素がどの領域に属するかが判定され、その判定結果を示す領域分離信号(色文字エッジ領域、黒文字エッジ領域、網点領域、網点文字エッジ領域、その他の領域のいずれかを示す信号)が黒生成/下色除去部16、空間フィルタ部17、中間調生成部18に出力される。そして、各ブロックでは、図16に示されるような領域分離信号に応じた適切な処理が行われる。以下に黒生成/下色除去部16、空間フィルタ部17、中間調生成部18における処理の具体例について順に説明する。
<Processing according to region separation signal>
As described above, the region determination unit 34 and the chromatic / achromatic determination unit 35 determine which region each pixel belongs to, and a region separation signal (color character edge region, black character edge region, A signal indicating one of a halftone dot region, a halftone character edge region, and other regions) is output to the black generation / undercolor removal unit 16, the spatial filter unit 17, and the halftone generation unit 18. In each block, appropriate processing according to the region separation signal as shown in FIG. 16 is performed. Hereinafter, specific examples of processing in the black generation / undercolor removal unit 16, the spatial filter unit 17, and the halftone generation unit 18 will be described in order.

(黒生成/下色除去処理)
黒生成/下色除去部16では、色補正部から出力された各画素のCMY値の平均、最小値、最大値のいずれかの値を基に予め記憶されている黒生成曲線を用いてK(ブラック)値を生成し、該K値と予め記憶されているUCR曲線とを用いてUCR値を求め、CMY値から求めたUCR値を減算する処理が行われる。この際、黒生成/下色除去部16では、領域分離信号に応じて、黒生成曲線およびUCR曲線を以下のように切り替える。
・黒文字エッジ領域では、文字再現性向上のため黒生成率、UCR率を高くする。
・色文字エッジ領域、網点領域、その他領域においては、彩度低下を防止するために黒生成率、UCR率を低くする。
・網点文字エッジ領域では、網点領域と隣り合うため、黒生成率、UCR率のギャップを少なくするために、網点領域と同一の黒生成率、UCR率とする。
(Black generation / under color removal processing)
The black generation / under color removal unit 16 uses a black generation curve stored in advance based on one of the average, minimum, and maximum values of the CMY values of each pixel output from the color correction unit. A (black) value is generated, a UCR value is obtained using the K value and a UCR curve stored in advance, and the obtained UCR value is subtracted from the CMY value. At this time, the black generation / under color removal unit 16 switches the black generation curve and the UCR curve as follows according to the region separation signal.
In the black character edge area, the black generation rate and UCR rate are increased to improve character reproducibility.
In the color character edge area, halftone dot area, and other areas, the black generation rate and UCR rate are lowered in order to prevent saturation reduction.
Since the halftone dot character edge region is adjacent to the halftone dot region, the same black generation rate and UCR rate as the halftone dot region are used in order to reduce the gap between the black generation rate and the UCR rate.

上記の観点から、黒生成/下色除去部16は、黒文字エッジ領域において例えば図18の実線で示されるような上に凸の黒生成曲線を用い、色文字エッジ領域、網点文字エッジ領域、網点領域、その他領域において例えば図18の破線で示されるような下に凸の黒生成曲線を用いて黒生成を行う。   From the above viewpoint, the black generation / under color removal unit 16 uses an upwardly convex black generation curve as shown by a solid line in FIG. 18 in the black character edge region, for example, a color character edge region, a halftone character edge region, In the halftone dot region and other regions, black generation is performed using a downwardly convex black generation curve as indicated by a broken line in FIG.

また、黒生成/下色除去部16は、黒文字エッジ領域において例えば図19の実線で示されるようなほぼ線形のUCR曲線を用い、色文字エッジ領域、網点文字エッジ領域、網点領域、その他領域において例えば図19の破線で示されるような下に凸のUCR曲線を用いてUCR処理を行う。   Further, the black generation / undercolor removal unit 16 uses, for example, a substantially linear UCR curve as shown by a solid line in FIG. 19 in the black character edge region, so that the color character edge region, the halftone character edge region, the halftone dot region, etc. For example, UCR processing is performed using a downwardly convex UCR curve as indicated by a broken line in FIG.

(空間フィルタ処理)
空間フィルタ部17では、強調あるいは平滑化処理が行われる。この際、空間フィルタ部17では、以下のように領域分離信号に基づいて空間フィルタ係数を切り替える。
・黒文字エッジ領域、色文字エッジ領域では文字再現性向上のため強調フィルタ処理を行う。
・網点領域においては、モアレ抑制のため平滑フィルタ処理を行う。
・網点文字エッジ領域ではフィルタ処理による網点文字の色合いの変化を抑えるために、黒文字エッジ領域、色文字エッジ領域で用いられるような強調フィルタよりも弱い強調フィルタ処理を行う。
・その他領域において網点領域と同様の平滑フィルタ処理、あるいは銀塩写真などに代表される連続階調部のボヤケを抑えるため、網点文字領域と同様の弱い強調フィルタ処理を行う。
(Spatial filter processing)
The spatial filter unit 17 performs enhancement or smoothing processing. At this time, the spatial filter unit 17 switches the spatial filter coefficient based on the region separation signal as follows.
-Emphasis filter processing is performed to improve character reproducibility in the black character edge region and the color character edge region.
-In the dot area, smooth filter processing is performed to suppress moire.
In the halftone character edge region, in order to suppress a change in the shade of the halftone character due to the filter processing, emphasis filter processing that is weaker than that used in the black character edge region and the color character edge region is performed.
In other areas, the same smoothing filter process as in the halftone dot area or the weak emphasis filter process similar to that in the halftone character area is performed in order to suppress the blur in the continuous tone portion represented by silver halide photography.

上記の観点から黒文字エッジ領域、色文字エッジ領域では例えば図20(a)の破線に示されるような全周波数帯域でMTFを増幅させるような特性を有する強調フィルタを用いる。網点文字エッジ領域では、例えば図20(a)の実線に示されるような全周波数帯域で黒文字エッジ領域、色文字エッジ領域用の強調フィルタよりも弱くMTFを増幅させるような特性を有する弱い強調フィルタを用いる。網点領域では、例えば図20(b)の実線に示されるような全周波数帯域でMTFを減少させるような特性を有する平滑フィルタを用いる。その他領域では、図20(a)の実線に示されるような空間周波数特性を示す弱い強調フィルタ、あるいは、図20(b)の実線に示されるような空間周波数特性を示す平滑フィルタを用いる。   From the above viewpoint, in the black character edge region and the color character edge region, for example, an emphasis filter having a characteristic of amplifying the MTF in the entire frequency band as shown by the broken line in FIG. In the halftone dot edge region, for example, weak emphasis having a characteristic of amplifying MTF weaker than the emphasis filter for the black character edge region and the color character edge region in the entire frequency band as shown by the solid line in FIG. Use a filter. In the halftone dot region, for example, a smoothing filter having such a characteristic that the MTF is reduced in the entire frequency band as shown by the solid line in FIG. In other regions, a weak emphasis filter having a spatial frequency characteristic as shown by a solid line in FIG. 20A or a smoothing filter having a spatial frequency characteristic as shown by a solid line in FIG. 20B is used.

(中間調生成処理)
中間調生成部18では、文字エッジ領域の解像度、網点領域などでの階調性を再現させる処理が行われる。例えば中間調生成処理として実施される処理の1つであるディザ処理の場合、黒文字エッジ領域では解像度重視の観点からディザマトリクスサイズが小さいものとし(例えば、1×1画素)、色文字エッジ領域、網点文字エッジ領域、網点領域、その他領域においては階調性重視の観点からディザマトリクスサイズが大きいもの(5×5画素)を用いる。
(Halftone generation process)
The halftone generation unit 18 performs processing for reproducing the resolution of the character edge region, the gradation in the halftone dot region, and the like. For example, in the case of dither processing, which is one of the processes performed as halftone generation processing, the black character edge region has a small dither matrix size (for example, 1 × 1 pixel) from the viewpoint of emphasizing resolution, and the color character edge region, In the halftone dot edge region, halftone dot region, and other regions, those having a large dither matrix size (5 × 5 pixels) are used from the viewpoint of emphasizing gradation.

<変形例>
上記説明では、原稿種別信号に基づいて領域分離処理を行う際の閾値を変更して領域分離精度を上げ、画素毎に黒生成/下色除去処理、空間フィルタ処理、中間調生成処理の内容を切り替えるものとした。
<Modification>
In the above description, the threshold for performing the region separation process is changed based on the document type signal to increase the region separation accuracy, and the details of the black generation / under color removal processing, spatial filter processing, and halftone generation processing for each pixel are described. It was supposed to switch.

ただし、原稿種別信号が「印刷写真」および「その他」の場合には、領域分離部15は全ての画素に対して同一の信号を出力する。すなわち、領域分離部15は、原稿種別信号が「印刷写真」の場合に全画素について網点領域信号を出力し、原稿種別信号が「その他」の場合に全画素について他領域信号を出力する。したがって、原稿種別信号が「印刷写真」あるいは「その他」の場合、原稿種別識別部14が原稿種別信号を黒生成/下色除去部16、空間フィルタ部17、中間調生成部18に出力し、各ブロックが図21に示されるように原稿種別信号に応じた処理を行っても良い。   However, when the document type signal is “printed photograph” or “others”, the region separation unit 15 outputs the same signal to all the pixels. That is, the region separation unit 15 outputs a halftone dot region signal for all pixels when the document type signal is “printed photograph”, and outputs another region signal for all pixels when the document type signal is “other”. Therefore, when the document type signal is “printed photograph” or “others”, the document type identification unit 14 outputs the document type signal to the black generation / under color removal unit 16, the spatial filter unit 17, and the halftone generation unit 18, Each block may perform processing according to the document type signal as shown in FIG.

すなわち、原稿種別信号が「印刷写真」である場合、原稿中に網点領域が多く存在していることから、黒生成/下色処理部16では、彩度低下などを防ぐため黒生成率、UCR率を低くする。また、空間フィルタ部17はモアレ抑制のため平滑フィルタ処理を行い、中間調生成部18は階調性重視によりディザマトリクスサイズの大きいものを用いるようにする。   That is, when the document type signal is “printed photo”, since there are many halftone dot areas in the document, the black generation / undercolor processing unit 16 prevents the black generation rate, Reduce the UCR rate. Further, the spatial filter unit 17 performs smoothing filter processing to suppress moire, and the halftone generation unit 18 uses a large dither matrix size with an emphasis on gradation.

また、原稿種別信号が「その他」を示す場合、原稿中に印画紙領域が多く存在していることから、黒生成/下色処理部16では、彩度低下などを防ぐため黒生成率、UCR率を低くする。また、空間フィルタ部17は平滑フィルタ処理、あるいは印画紙領域のボヤケを抑えるため、弱い強調フィルタ処理を施す。中間調生成部18は階調性重視によりディザマトリクスサイズの大きいものを用いるようにする。   When the document type signal indicates “other”, since there are many photographic paper regions in the document, the black generation / under color processing unit 16 prevents the black generation rate, UCR, etc. Reduce the rate. In addition, the spatial filter unit 17 performs weak enhancement filter processing in order to suppress smoothing filter processing or blur of the photographic paper region. The halftone generator 18 uses a large dither matrix size with an emphasis on gradation.

なお、原稿種別信号が「文字印刷写真」「文字」を示す場合には、前述した領域分離処理の後、各領域に対して図21に示されるような処理を施せばよい。   When the document type signal indicates “character printed photograph” or “character”, the processing as shown in FIG. 21 may be performed on each region after the region separation processing described above.

本発明はコンピュータに実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体に記録させることにより、処理を行うプログラムを記録した記録媒体を持ち運び自在に提供することができる。   According to the present invention, a recording medium on which a program for processing is recorded is recorded on a computer-readable recording medium on which a program to be executed is recorded.

なお、本実施例では、この記録媒体としては、メモリ、例えばROMのようなものそのものがプログラムメディアであっても良いし、また、外部記憶装置としてプログラム読取り装置が設けられ、そこに記録媒体を挿入することで読取り可能なプログラムメディアであっても良い。   In the present embodiment, the recording medium may be a program medium such as a memory such as a ROM, or a program reader may be provided as an external storage device. It may be a program medium that can be read by being inserted.

いずれの場合においても、格納されているプログラムはマイクロプロセッサがアクセスして実行させる構成であっても良いし、あるいは、いずれの場合もプログラムを読出し、読出されたプログラムは、マイクロコンピュータの図示されていないプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。   In any case, the stored program may be configured to be accessed and executed by the microprocessor, or in any case, the program is read and the read program is not illustrated in the microcomputer. The program may be downloaded to a non-program storage area and executed. It is assumed that this download program is stored in the main device in advance.

ここで、上記プログラムメディアは、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスクやハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリを含めた固定的にプログラムを担持する媒体であっても良い。   Here, the program medium is a recording medium configured to be separable from the main body, such as a tape system such as a magnetic tape or a cassette tape, a magnetic disk such as a floppy (registered trademark) disk or a hard disk, or a CD-ROM / MO /. Disk system for optical disks such as MD / DVD, card system such as IC card (including memory card) / optical card, mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash It may be a medium that carries a fixed program including a semiconductor memory such as a ROM.

上記記録媒体は、デジタルカラー画像形成装置やコンピュータシステムに備えられるプログラム読取り装置により読取られることで実行される。   The recording medium is executed by being read by a program reading device provided in a digital color image forming apparatus or a computer system.

コンピュータシステムは、フラットベッドスキャナ・フィルムスキャナ・デジタルカメラなどの画像入力装置、所定のプログラムがロードされることにより上記画像処理方法など様々な処理が行われるコンピュータ、コンピュータの処理結果を表示するCRTディスプレイ・液晶ディスプレイなどの画像表示装置およびコンピュータの処理結果を紙などに出力するプリンタより構成される。   The computer system includes an image input device such as a flatbed scanner, a film scanner, and a digital camera, a computer that performs various processes such as the above image processing method by loading a predetermined program, and a CRT display that displays the processing results of the computer. An image display device such as a liquid crystal display and a printer that outputs the processing results of the computer to paper or the like.

本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope shown in the claims. That is, embodiments obtained by combining technical means appropriately modified within the scope of the claims are also included in the technical scope of the present invention.

本発明によれば、網点文字を含む原稿を識別することができ、網点文字を含む原稿に適した画像処理を施すことができる。これにより、原稿から画像を取り込み、取り込んだ画像を紙等に出力する画像形成装置(プリンタなど)に適用することができる。   According to the present invention, a document including halftone characters can be identified, and image processing suitable for a document including halftone characters can be performed. Accordingly, the present invention can be applied to an image forming apparatus (such as a printer) that captures an image from a document and outputs the captured image on paper or the like.

本発明の実施形態に係る画像処理装置が備える原稿種別識別部の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a document type identification unit included in the image processing apparatus according to the embodiment of the present invention. 本発明の実施形態に係る画像形成装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image forming apparatus according to an embodiment of the present invention. 原稿種別識別部における原稿種別識別処理全体の流れを示すフローチャートである。6 is a flowchart showing the overall flow of document type identification processing in a document type identification unit. 網点領域検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a halftone dot area detection process. 網点領域の検出処理に用いる画素マスクの一例を示す図である。It is a figure which shows an example of the pixel mask used for the detection process of a halftone dot area | region. 文字エッジ領域検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a character edge area | region detection process. 文字エッジ領域の検出処理に用いる画素マスクの一例を示す図である。It is a figure which shows an example of the pixel mask used for the detection process of a character edge area | region. 網点文字エッジ領域検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a halftone character edge area | region detection process. (a)(b)は、平滑化フィルタの例を示す図である。(A) and (b) are figures which show the example of a smoothing filter. 画素数カウント処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a pixel number count process. 原稿種別判定処理の流れを示すフローチャートである。6 is a flowchart illustrating a flow of document type determination processing. 原稿種別判定処理に用いる判定基準のテーブルの一例を示す図である。It is a figure which shows an example of the table of the determination criteria used for original document type determination processing. 本実施形態の画像処理装置が備える領域分離部の構成を示すブロック図である。It is a block diagram which shows the structure of the area | region separation part with which the image processing apparatus of this embodiment is provided. 領域分離部における領域分離処理全体の流れを示すフローチャートである。It is a flowchart which shows the flow of the whole area | region separation process in an area | region separation part. 領域判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an area | region determination process. 領域分離信号に応じた処理の一例を示す図である。It is a figure which shows an example of the process according to an area | region separation signal. 有彩・無彩判定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of chromatic / achromatic determination processing. 黒生成処理に用いる黒生成曲線の一例を示す図である。It is a figure which shows an example of the black production | generation curve used for a black production | generation process. 下色除去処理に用いるUCR曲線の一例を示す図である。It is a figure which shows an example of the UCR curve used for under color removal processing. 空間フィルタ部で用いられるフィルタを示すものであり、(a)は強調フィルタの一例を、(b)は平滑フィルタの一例を示す図である。The filter used in a spatial filter part is shown, (a) is an example of an emphasis filter, (b) is a figure which shows an example of a smoothing filter. 原稿種別信号に応じた処理の一例を示す図である。It is a figure which shows an example of the process according to a document classification signal.

符号の説明Explanation of symbols

1 カラー画像入力装置
2 画像処理装置
3 カラー画像出力装置(画像出力部)
15 領域分離部
16 黒生成/下色除去部(黒生成部、下色除去部)
17 空間フィルタ部
22 網点領域検出部
23 網点文字エッジ領域検出部
25 原稿種別判定部(判定部)
DESCRIPTION OF SYMBOLS 1 Color image input device 2 Image processing device 3 Color image output device (image output part)
15 Region separation unit 16 Black generation / under color removal unit (black generation unit, under color removal unit)
17 Spatial filter unit 22 Halftone dot region detection unit 23 Halftone dot edge region detection unit 25 Document type determination unit (determination unit)

Claims (7)

入力画像データに対し、注目画素を中央に含み複数の画素からなる第1画素マスクを設定し、第1画素マスク内の濃度変動を示す特徴量が第1閾値よりも大きいという第1条件と、特定方向において基準濃度値を基準とする第1画素マスク内の画素の濃度の反転回数が予め設定された第2閾値より大きいという第2条件との両方を満たす注目画素を網点領域として検出する網点領域検出部と、
平滑化処理を行った入力画像データに対し、注目画素を中央に含み複数の画素からなる第2画素マスクを設定し、注目画素と第2画素マスク内のいずれかの画素との濃度差が予め設定された第3閾値より大きいという第3条件を満たす注目画素を文字エッジ領域として抽出し、抽出した文字エッジ領域であり、かつ、前記網点領域検出部が検出した網点領域である領域を、網点で構成された文字のエッジである網点文字エッジ領域として検出する網点文字エッジ領域検出部と、
前記網点文字エッジ領域検出部による検出結果に基づいて、入力画像データが網点文字を含むか否かを判定する判定部と
前記判定部の判定結果に基づいて、入力画像データを少なくとも前記網点文字エッジ領域、文字エッジ領域および網点領域の3つの領域に分離する領域分離部と、
前記領域分離部によって分離された文字エッジ領域に対して強調フィルタ処理を行い、前記領域分離部によって分離された網点領域に対して平滑フィルタ処理を行い、前記領域分離部によって分離された網点文字エッジ領域に対して前記文字エッジ領域よりも弱い強調フィルタ処理を行う空間フィルタ部とを備えることを特徴とする画像処理装置。
A first condition in which a first pixel mask including a pixel of interest in the center and including a plurality of pixels is set for input image data, and a feature amount indicating density variation in the first pixel mask is greater than a first threshold; A pixel of interest that satisfies both the second condition that the number of inversions of the density of the pixels in the first pixel mask with the reference density value as a reference in a specific direction is greater than a preset second threshold is detected as a halftone dot area. A halftone dot detection unit;
For the input image data subjected to the smoothing process, a second pixel mask including a pixel of interest in the center and including a plurality of pixels is set, and a density difference between the pixel of interest and any pixel in the second pixel mask is determined in advance. A pixel of interest that satisfies a third condition that is greater than a set third threshold is extracted as a character edge region, and is an extracted character edge region and a region that is a halftone dot region detected by the halftone dot region detection unit. a halftone text edge area detecting unit that detects a halftone text edge area is an edge of a character made up of halftone dots,
A determination unit that determines whether or not the input image data includes a halftone character, based on a detection result by the halftone character edge region detection unit ;
A region separating unit that separates input image data into at least three regions of the halftone character edge region, the character edge region, and the halftone region based on the determination result of the determination unit;
Dot emphasis filter processing is performed on the character edge region separated by the region separation unit, smoothing filter processing is performed on the halftone dot region separated by the region separation unit, and halftone dots separated by the region separation unit An image processing apparatus comprising: a spatial filter unit that performs an emphasis filter process that is weaker than the character edge region on the character edge region .
前記領域分離部によって分離された網点文字エッジ領域に対して、前記領域分離部によって分離された網点領域と同一の黒生成率で黒生成を行う黒生成部を備えることを特徴とする請求項に記載の画像処理装置。 A black generation unit that generates black at the same black generation rate as the halftone dot region separated by the region separation unit with respect to the halftone character edge region separated by the region separation unit. Item 8. The image processing apparatus according to Item 1 . 前記領域分離部によって分離された網点文字エッジ領域に対して、前記領域分離部によって分離された網点領域と同一の下色除去率で下色除去処理を行う下色除去部を備えることを特徴とする請求項に記載の画像処理装置。 A lower color removal unit that performs a lower color removal process on the halftone character edge region separated by the region separation unit at the same lower color removal rate as the halftone dot region separated by the region separation unit; The image processing apparatus according to claim 1 , wherein: 請求項1からのいずれか1項に記載の画像処理装置と、
該画像処理装置で処理された画像データに基づいて画像を形成する画像出力部とを備えることを特徴とする画像形成装置。
The image processing apparatus according to any one of claims 1 to 3 ,
An image forming apparatus comprising: an image output unit configured to form an image based on image data processed by the image processing apparatus.
入力画像データに対し、注目画素を中央に含み複数の画素からなる第1画素マスクを設定し、第1画素マスク内の濃度変動を示す特徴量が第1閾値よりも大きいという第1条件と、特定方向において基準濃度値を基準とする第1画素マスク内の画素の濃度の反転回数が予め設定された第2閾値より大きいという第2条件との両方を満たす注目画素を網点領域として検出する網点領域検出ステップと、  A first condition in which a first pixel mask including a pixel of interest in the center and including a plurality of pixels is set for input image data, and a feature amount indicating density variation in the first pixel mask is greater than a first threshold; A pixel of interest that satisfies both the second condition that the number of inversions of the density of the pixels in the first pixel mask with the reference density value as a reference in a specific direction is greater than a preset second threshold is detected as a halftone dot area. Halftone dot detection step;
平滑化処理を行った入力画像データに対し、注目画素を中央に含み複数の画素からなる第2画素マスクを設定し、注目画素と第2画素マスク内のいずれかの画素との濃度差が予め設定された第3閾値より大きいという第3条件を満たす注目画素を文字エッジ領域として抽出し、抽出した文字エッジ領域であり、かつ、前記網点領域検出ステップにより検出した網点領域である領域を、網点で構成された文字のエッジである網点文字エッジ領域として検出する網点文字エッジ領域検出ステップと、  A second pixel mask composed of a plurality of pixels including the target pixel in the center is set for the smoothed input image data, and the density difference between the target pixel and any pixel in the second pixel mask is determined in advance. A target pixel that satisfies the third condition that is greater than the set third threshold is extracted as a character edge region, and the extracted character edge region and a region that is a halftone dot region detected by the halftone dot region detection step A halftone dot edge region detection step for detecting a halftone dot edge region that is an edge of a character composed of halftone dots;
前記網点文字エッジ領域検出ステップにおける検出結果に基づいて、入力画像データが網点文字を含むか否かを判定する判定ステップと、  A determination step of determining whether or not the input image data includes a halftone character, based on a detection result in the halftone character edge region detection step;
前記判定ステップの判定結果に基づいて、入力画像データを少なくとも前記網点文字エッジ領域、文字エッジ領域および網点領域の3つの領域に分離する領域分離ステップと、  An area separation step of separating the input image data into at least three areas of the halftone character edge area, the character edge area, and the halftone area based on the determination result of the determination step;
前記領域分離ステップによって分離された文字エッジ領域に対して強調フィルタ処理を行い、前記領域分離ステップによって分離された網点領域に対して平滑フィルタ処理を行い、前記領域分離ステップによって分離された網点文字エッジ領域に対して前記文字エッジ領域よりも弱い強調フィルタ処理を行う空間フィルタステップとを含むことを特徴とする画像処理方法。  The emphasis filter processing is performed on the character edge region separated by the region separation step, the smoothing filter processing is performed on the halftone region separated by the region separation step, and the halftone dot separated by the region separation step. And a spatial filter step for performing an emphasis filter process weaker than the character edge region on the character edge region.
請求項1からのいずれか1項に記載の画像処理装置を動作させる画像処理プログラムであって、コンピュータを上記の各部として機能させるための画像処理プログラム。 An image processing program for operating an image processing apparatus according to any one of claims 1 to 3, an image processing program for causing a computer to function as each section described above. 請求項に記載の画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the image processing program according to claim 6 is recorded.
JP2005164787A 2005-06-03 2005-06-03 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium Expired - Fee Related JP4260774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005164787A JP4260774B2 (en) 2005-06-03 2005-06-03 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005164787A JP4260774B2 (en) 2005-06-03 2005-06-03 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Publications (2)

Publication Number Publication Date
JP2006340230A JP2006340230A (en) 2006-12-14
JP4260774B2 true JP4260774B2 (en) 2009-04-30

Family

ID=37560353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005164787A Expired - Fee Related JP4260774B2 (en) 2005-06-03 2005-06-03 Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP4260774B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5126533B2 (en) * 2008-10-01 2013-01-23 大日本印刷株式会社 Target detection system
JP5073773B2 (en) * 2010-04-08 2012-11-14 シャープ株式会社 Image processing apparatus, image forming apparatus, image processing method, and program
JP5983124B2 (en) * 2012-07-17 2016-08-31 コニカミノルタ株式会社 Edge detection device, edge detection method, and computer program

Also Published As

Publication number Publication date
JP2006340230A (en) 2006-12-14

Similar Documents

Publication Publication Date Title
JP4495197B2 (en) Image processing apparatus, image forming apparatus, image processing program, and recording medium for recording image processing program
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP4166744B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4170353B2 (en) Image processing method, image processing apparatus, image reading apparatus, image forming apparatus, program, and recording medium
JP4496239B2 (en) Image processing method, image processing apparatus, image forming apparatus, image reading apparatus, computer program, and recording medium
JP4402090B2 (en) Image forming apparatus, image forming method, program, and recording medium
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
JP2002232708A (en) Image processing device, image forming device using the same, and image processing method
JP4437825B2 (en) Image processing method, image processing apparatus, image forming apparatus, program, and recording medium
JP4260774B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2005286571A (en) Image processing apparatus, image forming apparatus provided with image processing apparatus, image processing method, image processing program, and recording medium with image processing program recorded thereon
JP4522978B2 (en) Image processing apparatus, image processing method, image forming apparatus, image processing program, and recording medium
JP4545766B2 (en) Image processing apparatus, image forming apparatus, image reading apparatus, image processing program, and recording medium
JP4549227B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4740913B2 (en) Image processing apparatus, image processing method, image forming apparatus and program, and recording medium
JP4545167B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP3767210B2 (en) Document type determination device and image processing device
JP4808282B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium for recording image processing program
JP4958626B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP2011015172A (en) Device for processing image, device for forming image, method and program for processing image, and recording medium recording program for processing image
JP4545134B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JPS63199569A (en) Image processor
JP2002218272A (en) Image processing method, image processor, image formation device provided with the same and recording medium
JP2008072351A (en) Image processing method, image processor, original reader, image forming apparatus, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees