JP2009290438A - Image processing apparatus, image processing method, program, and recording medium - Google Patents

Image processing apparatus, image processing method, program, and recording medium Download PDF

Info

Publication number
JP2009290438A
JP2009290438A JP2008139441A JP2008139441A JP2009290438A JP 2009290438 A JP2009290438 A JP 2009290438A JP 2008139441 A JP2008139441 A JP 2008139441A JP 2008139441 A JP2008139441 A JP 2008139441A JP 2009290438 A JP2009290438 A JP 2009290438A
Authority
JP
Japan
Prior art keywords
pixel area
halftone
character
halftone dot
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008139441A
Other languages
Japanese (ja)
Inventor
Satoshi Ouchi
敏 大内
Hiroyuki Shibaki
弘幸 芝木
Noriko Miyagi
徳子 宮城
Yuki Matsushima
由紀 松島
Atsushi Togami
敦 戸上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008139441A priority Critical patent/JP2009290438A/en
Publication of JP2009290438A publication Critical patent/JP2009290438A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which produces less incorrect separation between characters on a dot matrix and a dot matrix pattern by separating characters on the dot matrix in a legible manner and reproducing a dot matrix pattern without uncomfortable feeling during operation in economy mode. <P>SOLUTION: A means of detecting edge pixel area on dot matrix detects a target pixel area as a character edge pixel area on the dot matrix, in the case when the target pixel area is detected as a character edge pixel area by an edge pixel area detection means, and pixel areas that are away by a predetermined distance from the target pixel area and are opposite to each other with the target pixel area therebetween are detected as a dot matrix area of character background by the dot matrix pixel area detection means. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像上の文字を判読し易くしつつ、トナーやインク等の消費を低減することができる画像処理装置に関する。   The present invention relates to an image processing apparatus that makes it easy to read characters on an image and can reduce consumption of toner, ink, and the like.

現在の複写機においては、文字領域と絵柄(印刷、印画紙)領域が混在する原稿に対し、文字領域に対しては解像度を優先し、絵柄領域に対しては諧調性を優先するといつた処理を適応的に切り替えるために、領域識別ユニット、いわゆる像域分離技術を搭載している。また、カラー複写機においては、上記像域分離技術に加え、文字領域を黒単色で再生するために局所的な色情報を利用して、黒文字領域に対する処理と、色文字領域と絵柄領域に対する処理と、を適応的に切り替えるための像域分離技術(以下、像域分離技術A)を搭載している。
図13は、像域分離技術Aの全体フロー図である。
図13中、スキャナ101は、原稿を読み取ることによりRGB信号からなる画像データを取得する。スキャナγ補正手段102は、スキャナのγ特性を補正し、反射率リニアの信号から濃度リニアの信号へ変換する。スキャナ色補正手段103は、スキャナ特性に依存したRGB信号をスキャナに依存しないデバイス非依存のR’G’B’信号に変換する。
In the current copying machine, when a document area is mixed with a character area and a pattern (printing, photographic paper) area, the resolution is given priority to the character area and the gradation is given priority to the pattern area. In order to switch between them adaptively, an area identification unit, so-called image area separation technology is installed. In color copiers, in addition to the image area separation technique described above, processing for black character areas and processing for color character areas and design areas are performed using local color information to reproduce the character areas in black. And an image area separation technique (hereinafter, image area separation technique A) for adaptively switching between the two.
FIG. 13 is an overall flowchart of the image area separation technique A.
In FIG. 13, a scanner 101 acquires image data composed of RGB signals by reading a document. The scanner γ correction unit 102 corrects the γ characteristic of the scanner and converts the linear reflectance signal into a linear density signal. The scanner color correction unit 103 converts the RGB signal depending on the scanner characteristics into a device-independent R′G′B ′ signal that does not depend on the scanner.

フィルタ104は、網点部の起伏を抑えてモアレを抑制する平滑化処理、および、文字部の鮮鋭性を高めるエッジ強調処理を行う。エッジ強調処理は、画像属性判定Aからの判定結果(文字又は絵柄)をもとに、原稿の種類によって切り換えられる。例えば、文字原稿では文字鮮鋭性重視でエッジ強調処理を適用し、絵柄原稿ではモアレ抑制重視で平滑化処理を適用する。画像属性判定Aの判定結果は、フィルタ104および墨処理手段106に適用される。
プリンタ色補正手段105は、デバイス非依存のR’G’B’信号からプリンタ特性に依存したC’M’Y’信号への変換を行う。墨処理手段106は、C’M’Y’データに応じてK信号を発生させ(墨生成)、C’M’Y’からKに応じた量を減ずる(下色除去(UCR))処理を行う。CMYKはプリンタの色材色に対応している。墨生成、UCR処理の方法としては、式に基づいて行う方法、LUTで行う方法等がある。
トナーセーブ処理手段107は、ユーザーがトナーセーブモードを指定した場合、操作パネル(図示せず)からの原稿の種類を表す信号、および、エッジ検出手段(図示せず)からのエッジ検出結果に応じて、トナーセーブ処理を切り換える。図13の処理フローでは、トナーセーブOFFである。
トナーセーブ処理後の画像に対して、プリンタγ補正手段108、擬似中間調処理手段109による処理を施し、プリンタ110で記録媒体上に画像出力する。プリンタγ補正手段108は、プリンタの濃度特性に合わせて濃度変換テーブルを用いた変換処理を行う。擬似中間調処理手段109では、ディザや誤差拡散等の擬似中間調処理を行う。
The filter 104 performs a smoothing process that suppresses the undulation of the halftone dot portion and suppresses moire, and an edge enhancement process that increases the sharpness of the character portion. The edge enhancement processing is switched depending on the type of document based on the determination result (character or picture) from the image attribute determination A. For example, edge emphasis processing is applied with emphasis on character sharpness for character originals, and smoothing processing is applied with emphasis on moire suppression for pattern originals. The determination result of the image attribute determination A is applied to the filter 104 and the black processing unit 106.
The printer color correction unit 105 performs conversion from a device-independent R′G′B ′ signal to a C′M′Y ′ signal depending on printer characteristics. The black processing means 106 generates a K signal according to the C′M′Y ′ data (black generation), and subtracts the amount corresponding to K from the C′M′Y ′ (under color removal (UCR)). Do. CMYK corresponds to the color material color of the printer. As a method of black generation and UCR processing, there are a method based on an expression, a method using a LUT, and the like.
When the user designates the toner save mode, the toner save processing unit 107 responds to a signal indicating the type of document from the operation panel (not shown) and the edge detection result from the edge detection unit (not shown). Switch toner save processing. In the processing flow of FIG. 13, toner save is OFF.
The image after the toner saving process is processed by the printer γ correction unit 108 and the pseudo halftone processing unit 109, and the image is output on the recording medium by the printer 110. The printer γ correction unit 108 performs conversion processing using a density conversion table in accordance with the density characteristics of the printer. The pseudo halftone processing unit 109 performs pseudo halftone processing such as dithering and error diffusion.

上記説明は、原画の忠実再生を前提として、画質向上を図る場合の例である。しかし、像域分離技術の利用は上述の利用例に限定されない。例えば、トナーやインク等を節約しつつ、文字を判読できるように画像形成したい場合にも像域分離技術は利用される。この場合、絵柄領域を薄く再生し、白地上文字は勿論のこと、網点上文字も背景とのコントラストを保持あるいは強調しつつ、文字部そのものを原画に近い状態で再生することが要求される。
このような適応的な画像加工を行う場合(以下、エコモード時)には、白地上の細かい文字と、網点上の文字との両方を高精度に分離しつつ、かつ絵柄エッジを誤分離しないような像域分離技術(以下、像域分離技術B)が必要となる。
The above description is an example in the case of improving the image quality on the premise of faithful reproduction of the original image. However, the use of the image area separation technique is not limited to the above-described use examples. For example, the image area separation technique is also used when it is desired to form an image so that characters can be read while saving toner and ink. In this case, it is required to reproduce the picture area thinly and reproduce the character portion itself in a state close to the original image while maintaining or enhancing the contrast with the background as well as the characters on the white background as well as the characters on the white background. .
When such adaptive image processing is performed (hereinafter referred to as eco mode), both the fine characters on the white background and the characters on the halftone dots are separated with high accuracy, and the pattern edges are erroneously separated. An image area separation technique (hereinafter referred to as image area separation technique B) is required.

図14は、像域分離技術Bを用いた時の全体フロー図である。各処理ブロックは図13と同様であるので、その説明を省略する。勿論、トナーセーブ処理手段107では、注目画素あるいは注目ブロックが絵柄部であれば、トナーを節約するような処理が施され、文字部であれば特になにもしない、といったような適応処理が施される。
像域分離技術Bとしてさまざまな方式が提案されている。
例えば、特許文献1に記載の発明では、文字背景の広い白地に注目又は利用して文字を検出する。また、特許文献2乃至4に記載の発明では、網点絵柄のドットの存在に注目又は利用して絵柄を検出する。また、特許文献5に記載の発明では、網点上文字を積極的に文字として判定する。
特許第3153221号公報 特許第2972171号公報 特許第3862374号公報 特開2002−262077公報 特許2002−199210公報
FIG. 14 is an overall flowchart when the image area separation technique B is used. Each processing block is the same as that shown in FIG. Of course, in the toner save processing means 107, if the pixel of interest or the block of interest is a picture portion, processing for saving toner is performed, and if it is a character portion, no special processing is performed. Is done.
Various methods have been proposed as the image area separation technique B.
For example, in the invention described in Patent Document 1, a character is detected by paying attention to or using a white background with a wide character background. Further, in the inventions described in Patent Documents 2 to 4, a design is detected by paying attention to or using the presence of dots of halftone design. In the invention described in Patent Document 5, a character on a halftone dot is positively determined as a character.
Japanese Patent No. 3153221 Japanese Patent No. 2972171 Japanese Patent No. 3862374 JP 2002-262077 A Patent 2002-199210

しかしながら、白地上の細かい文字と網点上文字の両方を高精度に分離しつつ、絵柄エッジを誤分離しないような像域分離技術Bは、未だ性能不十分で実用化されていないのが現状である。
特許文献1の発明では、白地上文字を分離するが、網点上文字を絵柄と判定してしまうという問題がある。詳述すれば、網点上文字領域は、網点背景が非常に薄い場合、つまり白地と判定される場合を除き、絵柄として判断されてしまう。一方で、網点上絵柄に関しては、文字として誤検出される個所が非常に少ない。
また、特許文献2乃至4に記載の発明では、ドット近傍から網点領域を膨張する仕組み(ドット計数部や積分部など)があり、網点上に存在する文字(特にエッジ部)は、基本的に絵柄として判断されるという問題がある。
また、特許文献5に記載の発明では、網点上の文字が分離できたとしても網点絵柄における文字のような構造を持つ領域、例えば画像の輪郭部(人や物の輪郭)などを文字として誤判定するといったような問題がある。
However, the image area separation technique B that separates both the fine characters on the white ground and the characters on the halftone dots with high accuracy and does not erroneously separate the pattern edges is still inadequate in performance and has not yet been put into practical use. It is.
In the invention of Patent Document 1, white ground characters are separated, but there is a problem that characters on a halftone dot are determined as a picture. More specifically, the character area on the halftone dot is determined as a pattern except when the halftone dot background is very thin, that is, when it is determined as a white background. On the other hand, with respect to the halftone dot pattern, there are very few places that are erroneously detected as characters.
Further, in the inventions described in Patent Documents 2 to 4, there is a mechanism (such as a dot counting unit and an integration unit) that expands a halftone dot region from the vicinity of a dot. There is a problem that it is judged as a design.
Further, in the invention described in Patent Document 5, even if characters on a halftone dot can be separated, a region having a structure like a character in a halftone dot pattern, for example, a contour portion of an image (contour of a person or an object), etc. There is a problem such as misjudging.

以上からも理解できるように、エコモードにおいて特許文献1乃至4に記載された像域分離方法を選択した場合には、網点上文字は絵柄として判定され、その結果、網点上文字およびその背景は薄く画像再生され、最悪の場合、文字が読めなくなる。また、特許文献5に記載された像域分離方法を選択した場合には、絵柄中に頻繁に文字部として判断される領域が出現する。結果として同領域においては、色材をセーブするというエコモードとしての効果が薄れるだけでなく、絵柄の濃さが激しく変動し、再生画像に大きな違和感を生じさせる。その結果、誤分離個所が異常に目立ってしまい、ユーザーに不快感を与えることも少なくない。エコモードをセールスポイントとして提供した場合に、(一律で薄い絵柄画像なら納得されるのだが)網点絵柄の再生画像が受け入れられずかえってマイナスポイントとなることがある。
本発明は、上述の事情に鑑みてなされたものであり、エコモード使用時に、白地上の文字は、例えば特許文献1等の従来技術を利用して絵柄と高精度に分離しつつ、網点上の文字領域に対しその分離結果を使用して画像再生する場合に、判読可能な程度に分離すること、また一方で、網点絵柄領域においてユーザーにとって違和感の少ない絵柄再生が可能な誤分離の少ない画像処理装置を提供することを目的とする。
As can be understood from the above, when the image area separation method described in Patent Documents 1 to 4 is selected in the eco mode, the character on the halftone dot is determined as a picture, and as a result, the character on the halftone dot and its character In the worst case, the characters cannot be read. In addition, when the image area separation method described in Patent Document 5 is selected, an area frequently determined as a character portion appears in the design. As a result, in the same region, not only the eco-mode effect of saving the coloring material is diminished, but also the density of the pattern fluctuates drastically, causing a sense of incongruity in the reproduced image. As a result, the mis-separated part is noticeable abnormally and often causes discomfort to the user. When eco-mode is offered as a sales point, a replay image with a halftone dot pattern may not be accepted (although a uniform thin pattern image is acceptable), it may be a negative point.
The present invention has been made in view of the above-described circumstances, and when using the eco mode, the characters on the white ground are separated from the pattern with high accuracy using a conventional technique such as Patent Document 1, for example, while using halftone dots. When reconstructing an image using the separation results for the upper character area, the image should be separated to a legible level. On the other hand, in the halftone dot pattern area, it is possible to reproduce the pattern with less discomfort for the user. An object is to provide a small number of image processing apparatuses.

上記の課題を解決するために、請求項1に記載の発明は、原稿をデジタル信号に変換して画像データとして取得する画像データ取得手段と、前記画像データから文字エッジ画素領域を検出するエッジ画素領域検出手段と、前記画像データから文字背景の網点画素領域を検出する網点画素領域検出手段と、前記エッジ画素領域検出手段による検出結果と前記網点画素領域検出手段による検出結果とに基づいて網点上の文字エッジ画素領域を検出する網点上エッジ画素領域検出手段と、を備え、前記網点上エッジ画素領域検出手段は、注目画素領域が前記エッジ画素領域検出手段によって文字エッジ画素領域として検出され、前記注目画素領域から所定の距離を有するとともに前記注目画素領域を挟んで対向する画素領域が前記網点画素領域検出手段によって文字背景の網点画素領域として検出された場合に、前記注目画素領域を網点上の文字エッジ画素領域として検出する画像処理装置を特徴とする。
また、請求項2に記載の発明は、請求項1記載の画像処理装置において、前記網点画素領域検出手段は、平坦な網点画素領域を検出する平坦画素領域検出手段を備えることを特徴とする。
また、請求項3に記載の発明は、請求項2記載の画像処理装置において、前記平坦画素領域検出手段は、前記注目画素領域から所定の距離を有するとともに前記注目画素領域を挟んで対向する文字背景の網点画素領域に対して網点密度が一定のレベル差以下であることを検出することを特徴とする。
また、請求項4に記載の発明は、請求項2記載の画像処理装置において、前記平坦画素領域検出手段は、前記注目画素領域から所定の距離を有するとともに前記注目画素領域を挟んで対向する文字背景の網点画素領域に対して色の差が一定の値以下であることを検出することを特徴とする。
In order to solve the above problem, the invention according to claim 1 is an image data acquisition unit that converts a document into a digital signal and acquires the image data, and an edge pixel that detects a character edge pixel region from the image data. Based on an area detection means, a halftone pixel area detection means for detecting a halftone pixel area of a character background from the image data, a detection result by the edge pixel area detection means, and a detection result by the halftone pixel area detection means Halftone dot edge pixel area detecting means for detecting a character edge pixel area on the halftone dot, and the halftone dot edge pixel area detecting means is configured such that the target pixel area is a character edge pixel by the edge pixel area detecting means. A pixel area that is detected as an area and has a predetermined distance from the target pixel area and is opposed to the target pixel area is detected as the halftone dot pixel area. When it is detected as a halftone pixel region of the character background by stage, and wherein the image processing device for detecting the target pixel area as a character edge pixel region on the dot.
According to a second aspect of the present invention, in the image processing apparatus according to the first aspect, the halftone pixel area detecting means includes a flat pixel area detecting means for detecting a flat halftone pixel area. To do.
According to a third aspect of the present invention, in the image processing device according to the second aspect, the flat pixel region detecting means has a predetermined distance from the target pixel region and faces the target pixel region across the target pixel region. It is characterized by detecting that the halftone dot density is below a certain level difference with respect to the background halftone pixel region.
According to a fourth aspect of the present invention, in the image processing apparatus according to the second aspect, the flat pixel region detecting means has a predetermined distance from the target pixel region and faces the target pixel region across the target pixel region. It is characterized in that it is detected that a color difference with respect to a background halftone pixel region is not more than a certain value.

また、請求項5に記載の発明は、画像データ取得手段が、原稿をデジタル信号に変換して画像データとして取得する画像データ取得ステップと、エッジ画素領域検出手段が、前記画像データから文字エッジ画素領域を検出するエッジ画素領域検出ステップと、網点画素領域検出手段が、前記画像データから文字背景の網点画素領域を検出する網点画素領域検出ステップと、前記エッジ画素領域検出ステップにおける検出結果と前記網点画素領域検出ステップにおける検出結果とに基づいて、網点上エッジ画素領域検出手段が、網点上の文字エッジ画素領域を検出する網点上エッジ画素領域検出ステップと、を有し、前記網点上エッジ画素領域検出ステップは、注目画素領域が前記エッジ画素領域検出ステップにおいて文字エッジ画素領域として検出され、かつ前記注目画素領域から所定の距離を有するとともに前記注目画素領域を挟んで対向する画素領域が前記網点画素領域検出ステップによって文字背景の網点画素領域として検出された場合に、前記注目画素領域を網点上の文字エッジ画素領域として検出するステップである画像処理方法を特徴とする。
また、請求項6に記載の発明は、請求項5記載の画像処理方法をコンピュータに実行させるためのプラグラムを特徴とする。
また、請求項7に記載の発明は、請求項6記載のプログラムを記録した、コンピュータ読み取り可能な記録媒体を特徴とする。
According to a fifth aspect of the present invention, the image data acquisition means converts the document into a digital signal and acquires it as image data, and the edge pixel area detection means detects the character edge pixel from the image data. An edge pixel area detecting step for detecting an area; a halftone pixel area detecting unit for detecting a halftone pixel area of a character background from the image data; and a detection result in the edge pixel area detecting step. And a halftone dot edge pixel area detecting means for detecting a character edge pixel area on the halftone dot based on the detection result in the halftone dot pixel area detecting step. In the halftone dot edge pixel region detecting step, the pixel region of interest is a character edge pixel region in the edge pixel region detecting step. When a pixel area that is detected and has a predetermined distance from the target pixel area and that faces the target pixel area across the target pixel area is detected as a halftone pixel area of a character background by the halftone pixel area detection step, The image processing method is a step of detecting a target pixel area as a character edge pixel area on a halftone dot.
The invention according to claim 6 is characterized by a program for causing a computer to execute the image processing method according to claim 5.
The invention according to claim 7 is characterized by a computer-readable recording medium on which the program according to claim 6 is recorded.

本発明によれば、原稿中から文字エッジ画素領域と文字背景の網点画素領域を検出した後、注目画素領域から所定の距離を有するとともに注目画素領域を挟んで対向する画素領域を網点上の文字エッジ画素領域として検出するので、エコモード使用時においても、網点上の文字領域が判読可能に分離されつつ、網点絵柄領域においてユーザーにとって違和感の少ない絵柄再生が可能な誤分離の少ない画像処理装置を提供することができる。   According to the present invention, after detecting a character edge pixel region and a character dot halftone pixel region in a document, a pixel region having a predetermined distance from the target pixel region and facing the target pixel region on the halftone dot is detected. Since the character area on the halftone dot is readable and separable even when using the eco mode, there is little misseparation that allows the user to reproduce the pattern with less discomfort for the user in the halftone dot picture area. An image processing apparatus can be provided.

以下、本発明の実施形態を詳細に説明する。
図1は、本発明に関わる像域分離処理全体の処理ブロック図である。以下、各ブロックの構成や動作などを説明する。
[スキャナ10](画像データ取得手段)
本発明は、カラー複写機等で使用されることを前提としてなされたものである。そのため、スキャナ10は、400dpiRGB8bit出力のカラースキャナ装置である。スキャナ10からの出力信号は、概ね反射率リニアの信号であるが、必要に応じてγ変換を行った後に、白地上・文字領域検出処理手段20や網点上・文字領域検出処理手段30に夫々入力される。
[白地上・文字領域検出処理手段20]
白地上の文字を文字として判読するための処理を行うブロックである。本処理ブロックは本発明の本質ではないので、以下内容は簡単に説明する。求められる機能は、二次元の画像データから、背景が白地である文字領域を検出するとともに、絵柄(印画紙、印刷網点)領域を文字領域として誤検出しないことである。具体的には、特許文献1等に記載の従来処理を行えばよい。以下、簡単に説明する。
Hereinafter, embodiments of the present invention will be described in detail.
FIG. 1 is a processing block diagram of the entire image area separation processing according to the present invention. Hereinafter, the configuration and operation of each block will be described.
[Scanner 10] (Image data acquisition means)
The present invention has been made on the assumption that it is used in a color copying machine or the like. Therefore, the scanner 10 is a 400 dpi RGB 8-bit output color scanner device. The output signal from the scanner 10 is a substantially linear signal, but after γ conversion is performed as necessary, the signal is detected by the white ground / character area detection processing means 20 or the halftone dot / character area detection processing means 30. Each is entered.
[White ground / character area detection processing means 20]
This block performs processing for interpreting white ground characters as characters. Since this processing block is not the essence of the present invention, the contents will be briefly described below. The required function is to detect a character area having a white background from two-dimensional image data and not to erroneously detect a pattern (printing paper, printing halftone) area as a character area. Specifically, the conventional processing described in Patent Document 1 or the like may be performed. A brief description is given below.

図2は、白地上・文字領域検出処理手段20について説明する図である。図中、log変換回路21は、スキャナ10からの反射率リニアの信号を濃度リニアの信号に変換し、C(シアン)、M(マゼンタ)、Y(イエロー)の各色インクの量を表すC1、M1、Y1信号を出力する。マスキング回路22は、log変換回路21からの信号をプリンタ記録信号(C2、M2、Y2)に変換する。文字検出回路23は、プリンタ記録信号から文字領域を検出し、検出結果を二値信号にして出力する。例えば注目画素が文字領域ならば1、絵柄領域ならば0を出力する。また、白地背景検出回路24は、プリンタ記録信号から背景に白地のある領域を検出し、検出結果を二値信号にして出力する。例えば注目画素の背景が白地ならば1、それ以外ならば0を出力する。AND回路25は、それらのandをとって、白地上・文字領域検出処理手段20の出力信号とする。
なお、本処理ブロックにおいては、白地上の文字を検出できる装置であれば、従来から提案されている装置を利用して何ら構わないが、特に網点絵柄領域において文字としての誤分離を概ね起こさないという性能を持つことは重要かつ必要である。
また、本処理ブロックの出力信号は、注目画素が白地上文字領域であれば1[on]、そうでなければ0[off]の二値信号とする。
FIG. 2 is a diagram for explaining the white ground / character area detection processing means 20. In the figure, a log conversion circuit 21 converts a linear reflectance signal from the scanner 10 into a linear density signal, and C1 represents the amount of each color ink of C (cyan), M (magenta), and Y (yellow). M1 and Y1 signals are output. The masking circuit 22 converts the signal from the log conversion circuit 21 into a printer recording signal (C2, M2, Y2). The character detection circuit 23 detects a character area from the printer recording signal and outputs the detection result as a binary signal. For example, 1 is output if the target pixel is a character area, and 0 is output if it is a picture area. The white background detection circuit 24 detects an area having a white background from the printer recording signal and outputs the detection result as a binary signal. For example, 1 is output if the background of the pixel of interest is white, and 0 otherwise. The AND circuit 25 takes these ands as an output signal of the white ground / character area detection processing means 20.
In this processing block, any device that can detect characters on the white ground can be used as long as it has been proposed in the past. It is important and necessary to have no performance.
The output signal of this processing block is a binary signal of 1 [on] if the target pixel is a white ground character region, and 0 [off] otherwise.

[網点上・文字領域検出処理手段30](図1)
本発明の特徴的構成である処理ブロックである。処理の詳細は後述の実施形態にて説明する。ここでは求められる機能や特徴などを説明する。本処理ブロックの機能は、二次元の画像データから、特に原稿が印刷でできている場合に多い網点上の文字を検出することであり、一方で絵柄のエッジ部、特に網点絵柄のエッジ部をできるだけ誤検出しないことが重要である。本発明は、実際の原稿において網点上文字の存在する次のような画像特徴を利用して、特に、網点絵柄中の誤判定を少なくするような工夫をしている。すなわち、
(1)印刷物において一般的に網点上文字は、網点領域に挟まれている。
(2)上記(1)に加え、文字背景の網点は、濃度や色の変化が少なく平坦(一様)であることが多い。
逆に言えば、網点上文字と間違えそうな絵柄中のエッジ部とその背景は、上記(1)、(2)の特徴を持たないことが多い。その特徴を利用した処理アルゴリズムを提案する。具体的な処理内容は実施形態にて説明するが、以下、処理アルゴリズムの原理について簡単に説明する。
[On-dot / character area detection processing means 30] (FIG. 1)
It is a processing block which is the characteristic structure of this invention. Details of the processing will be described in an embodiment described later. Here, the required functions and features will be described. The function of this processing block is to detect characters on halftone dots from two-dimensional image data, especially when the original is printed, while the edge of the picture, especially the edge of the halftone picture. It is important not to misdetect parts as much as possible. The present invention uses the following image features in which characters on halftone dots are present in an actual document, and in particular, devise to reduce misjudgments in halftone patterns. That is,
(1) In the printed matter, the characters on the halftone dot are generally sandwiched between the halftone dot regions.
(2) In addition to the above (1), the halftone dots of the character background are often flat (uniform) with little change in density and color.
In other words, the edge portion in the pattern that seems to be mistaken for the characters on the halftone dot and the background thereof often do not have the features (1) and (2). We propose a processing algorithm using the features. Although specific processing contents will be described in the embodiment, the principle of the processing algorithm will be briefly described below.

図3は、網点上文字の画像特徴を説明する図である。例えば符号1で示す文字「R」の横棒は、棒の上下に網点領域が存在しており、(1)の要件を具備していることがわかる。
逆に、図3の符号2で示す「−」は、上部は網点領域が存在するが、下部には網点領域が存在しないため、半分は網点上文字と言えるが、半分は白地上文字と言える。このような場合、今回提案する処理では、網点上文字として判定されず、文字として検出できないことも特徴である。しかし、そこが薄く再生されたとしても、そもそも文字ではなく(わく縁の周辺の一部である)大きな問題にはならない。
また、本処理ブロックの出力信号は、注目画素が網点上文字領域であれば1[on]、そうでなければ0[off]の二値信号とする。
FIG. 3 is a diagram for explaining image characteristics of characters on halftone dots. For example, it can be seen that the horizontal bar of the letter “R” indicated by reference numeral 1 has halftone dot regions above and below the bar and satisfies the requirement (1).
On the other hand, “−” indicated by reference numeral 2 in FIG. 3 has a halftone dot region at the top, but does not have a halftone dot region at the bottom, so half can be said to be a halftone character, but half is white ground. It can be said that it is a character. In such a case, the process proposed this time is not determined as a character on a halftone dot and cannot be detected as a character. However, even if it is thinly reproduced, it is not a letter in the first place (it is a part of the periphery of the edge) and does not become a big problem.
The output signal of this processing block is a binary signal of 1 [on] if the pixel of interest is a character area on a halftone dot, and 0 [off] otherwise.

[論理和処理手段40]
本処理ブロックは、前述の白地上・文字領域検出処理手段20からの出力信号と、網点上・文字領域検出処理手段30からの出力信号の論理和処理を行って出力する。この処理を施す理由は、白地上の文字領域に存在する画素と網点上に存在する画素に対し、同一の再生処理(例えば、色材セーブに相当する処理をスルーにする)を施すためである。しかし、白地上の文字領域に存在する画素と網点上に存在する画素に対し、それぞれ異なる再生処理を施したい場合には、このような論理和をとる必要はなく、白地上・文字領域検出処理手段20からの出力信号と網点上・文字領域検出処理手段30からの出力信号をそれぞれ独立に利用すれば良い。
論理和処理を行わずそれぞれ独立に処理するメリットの一例を示す。例えば、文字そのものが同じような濃さである場合に、白地上文字は、網点上文字と比べて、背景が薄い分だけコントラストが大きいという特徴がある。従って、エコモードで画像を再生する場合に、前者の方を後者よりも色材を少なくさせ、例えばγを寝かせて再生しても判読性は保証されることになる。
[OR processing means 40]
This processing block performs an OR operation on the output signal from the above-described white ground / character area detection processing means 20 and the output signal from the halftone dot / character area detection processing means 30 and outputs the result. The reason for applying this processing is that the same reproduction processing (for example, processing corresponding to color material saving is made through) is applied to pixels existing in the character area on the white background and pixels existing on the halftone dots. is there. However, if you want to perform different playback processing on the pixels existing in the character area on the white background and the pixels existing on the halftone dots, it is not necessary to perform such a logical OR. The output signal from the processing means 20 and the output signal from the halftone dot / character area detection processing means 30 may be used independently of each other.
An example of the merit of processing independently without performing logical sum processing is shown. For example, when the character itself has the same density, the white ground character has a feature that the contrast is larger by the amount of the lighter background than the halftone character. Therefore, when an image is reproduced in the eco mode, the former is less readable than the latter, and for example, even if γ is laid and reproduced, the legibility is guaranteed.

[第一の実施形態]
本発明の第一の実施形態について説明する。図4は本発明の第一の実施形態に係る網点上・文字領域検出処理手段30aを示すブロック図である。原稿をスキャナ10にて読み取り、RGBからなるカラー画像信号を取得し、後述する種々の画像認識処理を施した後、網点上の文字領域であるか否かを意味する属性信号(二値信号)を出力する。
[エッジ画素領域検出処理手段31]
本処理ブロックの働きは、画像データ中から白地上、網点上を問わず、文字エッジを積極的に抽出することである。ここでは、既存の技術である特許第3260815号公報に記載された方式又は装置を利用する。以下、簡単に説明する。
入力信号の8bit信号を、ここでは6bit(0〜63:原稿の白側が0、黒側が63)にγ変換し、エッジ検出処理に用いる。
[First embodiment]
A first embodiment of the present invention will be described. FIG. 4 is a block diagram showing halftone dot / character area detection processing means 30a according to the first embodiment of the present invention. An original signal is read by the scanner 10, a color image signal composed of RGB is acquired, and after various image recognition processing described later, an attribute signal (binary signal) indicating whether the character area is on a halftone dot or not. ) Is output.
[Edge Pixel Area Detection Processing Unit 31]
The function of this processing block is to positively extract character edges from image data regardless of whether they are on the white ground or on halftone dots. Here, the method or apparatus described in Japanese Patent No. 3260815, which is an existing technology, is used. A brief description is given below.
Here, the 8-bit signal of the input signal is γ-converted to 6 bits (0 to 63: 0 on the white side of the document and 63 on the black side) and used for edge detection processing.

図5は、エッジ分離について説明する図である。エッジ分離は、次のようにして行う。3×3のマスク内において、以下の条件の内一つでも満たすとき、中心画素Eをエッジ画素と判定する。すなわち、図5(a)乃至(d)に示す4つのマスク内(A〜Iは各画素値)に対して、
E−B≧Cont(閾値)&
E≧Bk(閾値) &
G≧Bk &
H≧Bk &
I≧Bk
あるいは、
E−I≧Cont &
E≧Bk &
B≧Bk &
D≧Bk &
が成立すれば、中心画素Eをエッジ画素と判定する。
[網点画素領域検出処理手段32]
本処理ブロックの働きは、画像データ中から、網点領域を抽出することである。ここでは、既存の技術である特許文献2に記載された方式又は装置を利用する。
FIG. 5 is a diagram for explaining edge separation. Edge separation is performed as follows. If at least one of the following conditions is satisfied in the 3 × 3 mask, the center pixel E is determined as an edge pixel. That is, for the four masks shown in FIGS. 5A to 5D (A to I are pixel values),
E−B ≧ Cont (threshold) &
E ≧ Bk (threshold) &
G ≧ Bk &
H ≧ Bk &
I ≧ Bk
Or
E−I ≧ Cont &
E ≧ Bk &
B ≧ Bk &
D ≧ Bk &
If is established, the center pixel E is determined as an edge pixel.
[Halftone Pixel Area Detection Processing Unit 32]
The function of this processing block is to extract a halftone dot region from the image data. Here, the method or apparatus described in Patent Document 2 which is an existing technique is used.

図6は、網点画素領域検出処理手段32の処理フローを示す図である。
入力画像信号部321は、入力信号である8bitの信号を、6bit(0〜63:原稿の白側が0、黒側が63)にγ変換し、極点検出処理に用いる。
極点検出部322は、例えば3×3画素のマスク(図示せず)において、中心の画素値が、その周囲の他の8つの画素値に比べて最大か、または最小であるとき、極点(ピーク)画素の候補とする。画素値が最大ならば山ピーク画素候補、画素値が最小ならば谷ピーク画素候補とする。さらに、下記式(1)のごとく、中心画素値と周囲の8つの画素値との差の絶対値|Δmi|をそれぞれ算出し、各絶対値がすべて所定の閾値Δmth以上である場合に、真の極点画素と判定する。出力値としては、山ピーク画素[10]、又は谷ピーク画素[01]、又はそれ以外の画素[00]を示す2bit信号となる。なお、検出処理を施す場合のマスクの移動は、1画素単位で行う。
|Δmi|≧Δmth (iは、1から8)
・・・・・・(1)
FIG. 6 is a diagram showing a processing flow of the halftone pixel area detection processing means 32.
The input image signal unit 321 γ-converts an 8-bit signal, which is an input signal, to 6 bits (0 to 63: 0 on the white side of the document and 63 on the black side), and uses it for the pole detection process.
For example, in a 3 × 3 pixel mask (not shown), the pole detection unit 322 detects a pole (peak) when the center pixel value is the maximum or the minimum compared to the other eight pixel values around it. ) Pixel candidate. If the pixel value is maximum, it is a peak peak pixel candidate, and if the pixel value is minimum, it is a valley peak pixel candidate. Further, as shown in the following formula (1), the absolute value | Δmi | of the difference between the central pixel value and the surrounding eight pixel values is calculated, respectively, and when each absolute value is not less than a predetermined threshold value Δmth, Are determined to be extreme pixels. The output value is a 2-bit signal indicating the peak peak pixel [10], valley peak pixel [01], or other pixel [00]. Note that the mask is moved in units of pixels when performing the detection process.
| Δmi | ≧ Δmth (where i is 1 to 8)
(1)

網点領域検出部323について説明する。図7は、網点領域の検出を説明するための画素ブロックを示す図である。例えば、9×9画素からなる注目ブロックB0(N=9)において、前述の山ピーク画素、及び谷ピーク画素をそれぞれ計数し、値の大きい方を注目ブロックB0のピーク画素数とし、このピーク画素数が所定の閾値より大きい場合に、注目ブロックB0を網点領域として検出する。なお、処理を施す場合のブロックの移動は、ブロック(9×9画素)単位で行う。出力値は、網点領域の場合には[1]、網点領域でない場合には[0]の二値信号となる。
領域判定出力信号出力部324は、図7に示す注目ブロックB0を囲む8つのブロック(B1〜B8)に対して、網点領域検出部323にて網点領域ブロックとして判定されたブロック数を算出し、その算出値が所定の閾値より大きい場合に、注目ブロックB0を網点領域として判定し、網点判定信号を出力する。処理を施す場合のブロックの移動は、ブロック(9×9画素)単位で行う。出力値は、網点判定された場合には[1]、網点判定されなかった場合には[0]の二値信号となる。
なお、網点領域を検出するにあたって、今回の例としては、特許文献2に記載された方式又は装置を利用したが、網点画素領域検出処理手段32においては、無論この方式又は装置に限定されるものではなく、特許文献3等に開示された既存の網点領域検出方式又は装置を利用して何ら構わない。
[補正処理手段33](網点上エッジ画素領域検出)
本処理ブロックの働きは、エッジ画素領域検出処理手段31の結果と、網点画素領域検出処理手段32の結果を利用して、網点領域に挟まれたエッジ画素領域(網点上の文字エッジ画素領域)を検出する。
The halftone dot area detection unit 323 will be described. FIG. 7 is a diagram illustrating a pixel block for explaining detection of a halftone dot region. For example, in the target block B0 (N = 9) composed of 9 × 9 pixels, the above-described peak peak pixel and valley peak pixel are counted, and the larger value is used as the peak pixel number of the target block B0. When the number is larger than a predetermined threshold, the block of interest B0 is detected as a halftone dot region. In addition, the movement of the block in the case of processing is performed in units of blocks (9 × 9 pixels). The output value is a binary signal [1] in the case of the halftone dot region, and [0] if it is not the halftone dot region.
The region determination output signal output unit 324 calculates the number of blocks determined as the halftone dot block by the halftone dot region detection unit 323 for the eight blocks (B1 to B8) surrounding the target block B0 shown in FIG. If the calculated value is larger than the predetermined threshold value, the target block B0 is determined as a halftone dot region, and a halftone dot determination signal is output. The movement of the block when processing is performed is performed in units of blocks (9 × 9 pixels). The output value is a binary signal [1] when the halftone dot is determined and [0] when the halftone dot is not determined.
In detecting the halftone area, the method or apparatus described in Patent Document 2 is used as an example of this time, but the halftone pixel area detection processing means 32 is of course limited to this method or apparatus. The present invention is not limited to this, and any existing halftone dot area detection method or apparatus disclosed in Patent Document 3 may be used.
[Correction processing means 33] (Detection of halftone dot edge pixel area)
The function of this processing block is to use the result of the edge pixel area detection processing means 31 and the result of the halftone pixel area detection processing means 32 to obtain an edge pixel area (a character edge on a halftone dot) between the halftone dot areas. Pixel area) is detected.

図8は、補正処理手段の処理内容を説明する図である。注目画素(P0)に対して、所定の方向で、所定の距離離れた位置に存在するそれぞれの画素をP1〜P8とする。ここで、距離のLは、検出しようとする文字の線幅に影響があるため、この像域分離技術を利用した適応的なエコモード時の最終的な出力画像などを見ながら実験的に決めればよい。
この時、P0がエッジ画素領域検出処理手段31でエッジ画素と判定され、かつ次の条件の時に、補正処理手段33から注目画素P0に対し、網点上文字エッジであることを示す信号[1]が出力される。なお、網点上文字エッジでない場合には信号[0]が出力される。
P1=網点領域 & P5=網点領域
または P2=網点領域 & P6=網点領域
または P3=網点領域 & P7=網点領域
または P4=網点領域 & P8=網点領域
なお、画素P1とP5、P2とP6、P3とP7、P4とP8は、図8を見てもわかるように、それぞれその間に注目画素P0を挟んで存在している画素の組である。
FIG. 8 is a diagram for explaining the processing contents of the correction processing means. Respective pixels existing at a predetermined distance away from the target pixel (P0) in a predetermined direction are defined as P1 to P8. Here, since the distance L has an influence on the line width of the character to be detected, it can be determined experimentally while looking at the final output image in the adaptive eco mode using this image area separation technique. That's fine.
At this time, P0 is determined to be an edge pixel by the edge pixel area detection processing unit 31, and the signal [1 indicating that the correction pixel is a halftone dot character edge from the correction processing unit 33 to the target pixel P0 under the following conditions. ] Is output. If the character edge is not a halftone dot, signal [0] is output.
P1 = halftone dot region & P5 = halftone dot region or P2 = halftone dot region & P6 = halftone dot region or P3 = halftone dot region & P7 = halftone dot region or P4 = halftone dot region & P8 = halftone dot region P1 and P5, P2 and P6, P3 and P7, and P4 and P8 are pairs of pixels that exist with the target pixel P0 interposed therebetween, as can be seen from FIG.

上述の条件を言い換えれば、P0がエッジ画素領域検出処理手段31によりエッジ画素と判定され、かつ、注目画素P0に対して所定の距離Lだけ離れるとともに注目画素P0を挟んで対向する2つの画素からなる画素対(P1とP5、P2とP6、P3とP7、又は、P4とP8)のいずれかが網点領域である場合に、注目画素P0が網点上文字エッジであると判断される。
以上により、本発明によれば、画像データ中から文字エッジであり背景が網点領域であって、さらに文字エッジが網点に挟まれているような網点上の文字エッジ画素(例えば、図3の符号1で示す部分)を高精度に検出可能である。一方で、図3の符号2で示す部分や網点上の太い文字は、前述の距離パラメータLによっては、文字エッジとして判定されないが、文字を読むという意味では大きな問題とならない。
In other words, P0 is determined to be an edge pixel by the edge pixel region detection processing unit 31, and from two pixels that are separated from the target pixel P0 by a predetermined distance L and are opposed to each other with the target pixel P0 interposed therebetween. If any one of the pixel pairs (P1 and P5, P2 and P6, P3 and P7, or P4 and P8) is a halftone dot region, it is determined that the target pixel P0 is a halftone dot character edge.
As described above, according to the present invention, a character edge pixel (for example, FIG. 3) can be detected with high accuracy. On the other hand, the portion indicated by reference numeral 2 in FIG. 3 or a thick character on a halftone dot is not determined as a character edge depending on the distance parameter L described above.

[第二の実施形態]
本発明の第二の実施形態について説明する。第一の実施形態と同一の部分には同一の符号を付し、その説明を省略する。図9は、本発明の第二の実施形態に係る網点上・文字領域検出処理手段30bを示すブロック図である。機能としては第一の実施形態と同様、原稿をスキャナ10にて読み取り、RGBからなるカラー画像信号を取得し、後述する種々の画像認識処理を施した後、網点上の文字であるか否かを意味する属性信号(二値信号)を出力する。
[極点画素密度検出処理手段34]
本処理ブロックの働きは、画像データを利用して、局所領域ごとに網点密度を算出することである。ここでは、前述の網点画素領域検出処理手段32と処理内容の異なる部分を主に説明する。図10は、極点画素密度検出処理手段34の処理フローを示す図である。
極点画素密度算出部341について説明する。例えば、図7における9×9画素からなる注目ブロックB0(N=9)において、前述の山ピーク画素、及び谷ピーク画素をそれぞれ計数し、値の大きい方を注目ブロックB0のピーク画素数とする。そして、ピーク画素数が所定の閾値以下であれば「0」を出力値とし、そうでなければ、ピーク画素数が当該ブロックの中心画素の画素密度値として出力される。処理を施す場合のブロックの移動は、画素単位で行う。すなわち、1画素ごとに密度値が算出される。
なお、極点検出の方法は上述の方法に限られない。例えば特許文献4に開示された孤立点判定を極点検出部322に置き換えて利用しても何ら構わない。
[Second Embodiment]
A second embodiment of the present invention will be described. The same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted. FIG. 9 is a block diagram showing halftone dot / character area detection processing means 30b according to the second embodiment of the present invention. As in the case of the first embodiment, the document is read by the scanner 10, a color image signal composed of RGB is acquired, and after performing various image recognition processes described later, whether or not the character is on a halftone dot. An attribute signal (binary signal) is output.
[Pole pixel density detection processing means 34]
The function of this processing block is to calculate the dot density for each local region using image data. Here, a description will be mainly given of a different part of the processing content from the halftone pixel region detection processing means 32 described above. FIG. 10 is a diagram showing a processing flow of the extreme pixel density detection processing means 34.
The pole pixel density calculation unit 341 will be described. For example, in the target block B0 (N = 9) composed of 9 × 9 pixels in FIG. 7, the above-described peak peak pixel and valley peak pixel are counted, and the larger value is used as the peak pixel number of the target block B0. . If the number of peak pixels is equal to or less than a predetermined threshold, “0” is output as the output value. Otherwise, the number of peak pixels is output as the pixel density value of the central pixel of the block. The movement of the block when processing is performed is performed in units of pixels. That is, a density value is calculated for each pixel.
Note that the method of pole detection is not limited to the above-described method. For example, the isolated point determination disclosed in Patent Document 4 may be replaced with the pole detection unit 322 and used.

[補正処理手段35]
本処理ブロックは、エッジ画素領域検出処理手段31の結果と、極点画素密度検出処理手段34の結果を利用して、平坦な(一様な濃度の)網点領域に挟まれたエッジ画素領域を検出する(平坦画素領域検出)。図8を使って具体的な処理内容を説明する。
注目画素(P0)に対して、所定の方向で、所定の距離離れた位置に存在するそれぞれの画素をP1〜P8とする。ここで、距離のLは、検出しようとする文字の幅に影響があるため、この像域分離技術を利用した適応的なエコモード時の最終的な出力画像などを見ながら実験的に決めればよい。
この時、P0がエッジ画素領域検出処理手段31でエッジ画素と判定され、かつ次の条件の時に、補正処理手段35から注目画素P0に対し、平坦な網点領域に挟まれたエッジ画素領域であることを示す信号[1]が出力される。なお、一様な濃度の網点領域に挟まれたエッジ画素領域でない場合には信号[0]が出力される。
(P1≧閾値_網点 & P5≧閾値_網点 & |P1−P5|< 閾値_平坦)
または (P2≧閾値_網点 & P6≧閾値_網点 & |P2−P6|< 閾値_平坦)
または (P3≧閾値_網点 & P7≧閾値_網点 & |P3−P7|< 閾値_平坦)
または (P4≧閾値_網点 & P8≧閾値_網点 & |P4−P8|< 閾値_平坦)
以上説明した通り、本発明は、原稿中の網点上文字の背景には平坦な網点画素領域が存在するという特徴を利用するため、本発明によれば網点上の文字エッジ画素領域に相当する画素を高精度に検出できる。また、本発明は、原稿中の網点上文字の背景にはエッジを挟んで両方向に概ね同じ網点率の網点領域が存在するという特徴を利用するため、網点上文字エッジ画素領域を高精度に検出できる。
[Correction processing means 35]
This processing block uses the result of the edge pixel region detection processing unit 31 and the result of the extreme pixel density detection processing unit 34 to obtain an edge pixel region sandwiched between flat (uniform density) halftone dot regions. Detect (flat pixel area detection). Specific processing contents will be described with reference to FIG.
Respective pixels existing at a predetermined distance away from the target pixel (P0) in a predetermined direction are defined as P1 to P8. Here, since the distance L has an influence on the width of the character to be detected, it can be determined experimentally while looking at the final output image in the adaptive eco mode using this image area separation technique. Good.
At this time, P0 is determined to be an edge pixel by the edge pixel region detection processing unit 31, and the correction processing unit 35 determines that the pixel of interest P0 is an edge pixel region sandwiched between flat halftone dot regions under the following conditions. A signal [1] indicating the presence is output. If the edge pixel region is not sandwiched between halftone dot regions having a uniform density, the signal [0] is output.
(P1 ≧ threshold_dot & P5 ≧ threshold_dot & | P1-P5 | <threshold_flat)
Or (P2 ≧ threshold_dot & P6 ≧ threshold_dot & | P2-P6 | <threshold_flat)
Or (P3 ≧ threshold_dot & P7 ≧ threshold_dot & | P3-P7 | <threshold_flat)
Or (P4 ≧ threshold_halftone dot & P8 ≧ threshold_halftone dot & | P4-P8 | <threshold_flat)
As described above, the present invention uses the feature that a flat halftone pixel area exists in the background of the halftone character in the document. Therefore, according to the present invention, the character edge pixel area on the halftone dot is used. Corresponding pixels can be detected with high accuracy. In addition, since the present invention utilizes the feature that there is a halftone dot area with the same halftone dot ratio in both directions across the edge in the background of the halftone dot character in the document, It can be detected with high accuracy.

[第三の実施形態]
本発明の第三の実施形態について説明する。第一、第二の実施形態と同一の部分には同一の符号を付し、その説明を省略する。図11は、本発明の第三の実施形態に係る網点上・文字領域検出処理手段30cを示すブロック図である。機能としては第一の実施形態と同様、原稿をスキャナ10にて読み取り、RGBからなるカラー画像信号を取得し、後述する種々の画像認識処理を施した後、網点上の文字であるか否かを意味する属性信号(二値信号)を出力する。
[マスキング処理手段36]
本処理ブロックの働きは、スキャナのRGB信号を記録系の信号であるCMY信号に変換することである。これにより原稿の網点ドットを色版ごとにより正確に判定することができる。すなわち、カラー原稿はシアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)版からなるが、マゼンタ版の網点ドットは、M信号を作り出すことにより、後段の極点検出では他の版の網点ピークを抽出することなく、マゼンタ版のみの網点ドットを抽出することが可能となる。
マスキング処理は、次のような線形一次式で行うものとし、各係数パラメータ[aij]は実験的に決定すれば良い。
C = a11*R + a12*G + a13*B + a14
M = a21*R + a22*G + a23*B + a24
Y = a31*R + a32*G + a33*B + a34
[Third embodiment]
A third embodiment of the present invention will be described. The same parts as those in the first and second embodiments are denoted by the same reference numerals, and the description thereof is omitted. FIG. 11 is a block diagram showing halftone dot / character area detection processing means 30c according to the third embodiment of the present invention. As in the case of the first embodiment, the document is read by the scanner 10, a color image signal composed of RGB is acquired, and after performing various image recognition processes described later, whether or not the character is on a halftone dot. An attribute signal (binary signal) is output.
[Masking processing means 36]
The function of this processing block is to convert the RGB signals of the scanner into CMY signals that are recording signals. As a result, the halftone dots of the original can be more accurately determined for each color plate. That is, a color original is made up of cyan (C), magenta (M), yellow (Y), and black (K) plates. The halftone dots of the magenta plate generate other signals in the subsequent pole detection by generating M signals. This makes it possible to extract halftone dots only for the magenta version without extracting halftone dots for the plate.
The masking process is performed by the following linear linear expression, and each coefficient parameter [aij] may be determined experimentally.
C = a11 * R + a12 * G + a13 * B + a14
M = a21 * R + a22 * G + a23 * B + a24
Y = a31 * R + a32 * G + a33 * B + a34

[極点画素密度検出処理手段37]
本処理ブロックの働きは、マスキング処理後のCMY各画像データを利用して、局所領域ごとに網点密度を算出することである。基本的には図10の処理を三つ並列に行うことになる。ここでは、前述の網点画素領域検出処理手段32と処理内容の異なる部分を主に説明する。図12は、極点画素密度検出処理37の処理フローを示す図である。
極点画素密度算出部371は、例えば、図7における9×9画素からなる注目ブロックB0(N=9)において、ここでは前述の山ピーク画素を計数し、その値を注目ブロックB0のピーク画素数とする。前述の極点画素密度算出部341のように谷ピークも検出する方法でも良いが、文字が上に存在する色網点は、一般にハイライト、つまり網点率が低くて山ピーク側の網点であることがほとんどであるため、本実施形態では山ピークの密度を算出した。そして、ピーク画素数が所定の閾値以下であれば「0」を出力値とし、そうでなければ、ピーク画素数が当該ブロックの中心画素の画素密度値として出力される。処理を施す場合のブロックの移動は、画素単位で行う。すなわち、1画素ごとに密度値が算出される。
[Pole pixel density detection processing means 37]
The function of this processing block is to calculate a halftone dot density for each local region by using each CMY image data after the masking process. Basically, three processes in FIG. 10 are performed in parallel. Here, a description will be mainly given of a different part of the processing content from the halftone pixel region detection processing means 32 described above. FIG. 12 is a diagram illustrating a processing flow of the extreme pixel density detection processing 37.
For example, in the attention block B0 (N = 9) including 9 × 9 pixels in FIG. 7, the pole pixel density calculation unit 371 counts the above-described peak peak pixels, and calculates the value as the number of peak pixels of the attention block B0. And A method of detecting a valley peak as in the above-described extreme pixel density calculation unit 341 may be used, but a color halftone dot on which characters are present is generally a highlight, that is, a halftone dot on a mountain peak side with a low dot percentage. In most cases, the peak peak density is calculated in this embodiment. If the number of peak pixels is equal to or less than a predetermined threshold, “0” is output as the output value. Otherwise, the number of peak pixels is output as the pixel density value of the central pixel of the block. The movement of the block when processing is performed is performed in units of pixels. That is, a density value is calculated for each pixel.

[補正処理手段38]
本処理ブロックの働きは、エッジ画素領域検出処理手段31の結果と、極点画素密度検出処理手段37の結果を利用して、平坦な(一様な色の)網点領域に挟まれたエッジ画素領域を検出する(平坦画素領域検出)。図8を使って具体的な処理内容を説明する。注目画素(P0_c、m、y)に対して、所定の方向で、所定の距離離れた位置に存在するそれぞれの画素をP1_c、m、y〜P8_c、m、yとする。ここで、距離のLは、検出しようとする文字の幅に影響があるため、この像域分離技術を利用した適応的なエコモード時の最終的な出力画像などを見ながら実験的に決めればよい。
この時、P0がエッジ画素領域検出処理手段31でエッジ画素と判定され、かつ次の条件の時に、補正処理手段38から注目画素に対しアクティブ信号が出力される。
[Correction processing means 38]
The function of this processing block is to use the result of the edge pixel area detection processing unit 31 and the result of the extreme pixel density detection processing unit 37 to obtain an edge pixel sandwiched between flat (uniform color) halftone dot areas. An area is detected (flat pixel area detection). Specific processing contents will be described with reference to FIG. Respective pixels existing at a predetermined distance away from the target pixel (P0_c, m, y) in a predetermined direction are defined as P1_c, m, y to P8_c, m, y. Here, since the distance L has an influence on the width of the character to be detected, it can be determined experimentally while looking at the final output image in the adaptive eco mode using this image area separation technique. Good.
At this time, P0 is determined to be an edge pixel by the edge pixel area detection processing unit 31, and an active signal is output from the correction processing unit 38 to the target pixel under the following conditions.

(((P1_c≧閾値_網点 & P5_c≧閾値_網点) または (P1_m≧閾値_網点 & P5_m≧閾値_網点) または (P1_y≧閾値_網点 & P5_y≧閾値_網点)) かつ ((|P1_c−P5_c|+|P1_m−P5_m|+|P1_y−P5_y|)< 閾値_平坦)) ⇒A
または(((P2_c≧閾値_網点 & P6_c≧閾値_網点) または (P2_m≧閾値_網点 & P6_m≧閾値_網点) または (P2_y≧閾値_網点 & P6_y≧閾値_網点)) かつ ((|P2_c−P6_c|+|P2_m−P6_m|+|P2_y−P6_y|)< 閾値_平坦)) ⇒B
または(((P3_c≧閾値_網点 & P7_c≧閾値_網点) または (P3_m≧閾値_網点 & P7_m≧閾値_網点) または (P3_y≧閾値_網点 & P7_y≧閾値_網点)) かつ ((|P3_c−P7_c|+|P3_m−P7_m|+|P3_y−P7_y|)< 閾値_平坦)) ⇒C
または(((P4_c≧閾値_網点 & P8_c≧閾値_網点) または (P4_m≧閾値_網点 & P8_m≧閾値_網点) または (P4_y≧閾値_網点 & P8_y≧閾値_網点)) かつ ((|P4_c−P8_c|+|P4_m−P8_m|+|P4_y−P8_y|)< 閾値_平坦)) ⇒D
出力信号は、論理和処理手段40に入力され、それぞれ[ABCD]の論理和が取られ、二値信号として出力される。
(((P1_c ≧ threshold_dot & P5_c ≧ threshold_dot) or (P1_m ≧ threshold_dot & P5_m ≧ threshold_dot) or (P1_y ≧ threshold_dot & P5_y ≧ threshold_dot)) And ((| P1_c-P5_c | + | P1_m-P5_m | + | P1_y-P5_y |) <threshold_flat)) ⇒A
Or (((P2_c ≧ threshold_dots & P6_c ≧ threshold_dots)) or (P2_m ≧ threshold_dots & P6_m ≧ threshold_dots) or (P2_y ≧ threshold_dots & P6_y ≧ threshold_dots) ) And ((| P2_c-P6_c | + | P2_m-P6_m | + | P2_y-P6_y |) <threshold_flat)) ⇒B
Or (((P3_c ≧ threshold_halftone dot & P7_c ≧ threshold_halftone dot) or (P3_m ≧ threshold value_halftone dot & P7_m ≧ threshold_halftone dot) or (P3_y ≧ threshold value_halftone dot & P7_y ≧ threshold value_dot) ) And ((| P3_c-P7_c | + | P3_m-P7_m | + | P3_y-P7_y |) <threshold_flat)) ⇒C
Or (((P4_c ≧ threshold_halftone dot & P8_c ≧ threshold_halftone dot) or (P4_m ≧ threshold value_halftone dot & P8_m ≧ threshold_halftone dot) or (P4_y ≧ threshold value_halftone dot & P8_y ≧ threshold value_dot) ) And ((| P4_c-P8_c | + | P4_m-P8_m | + | P4_y-P8_y |) <threshold_flat)) ⇒D
The output signal is input to the logical sum processing means 40, and the logical sum of [ABCD] is taken and output as a binary signal.

なお、ここでは注目画素を挟んで、4方向のそれぞれ[ABCD]で閾値判定を行い、論理和処理手段40にて、それぞれ[ABCD]の論理和をとったが、より条件を厳しくすることもできる。例えば、それぞれ[ABCD]の論理積をとれば、より平坦性(色の一様性)を判定していることになり、平坦な網点に存在する文字を検出しにくくなってしまうが、絵柄中の誤分離を減らすことができ、そういった調整レベルの処理変更は無論可能である。
さらに、本実施形態は、カラー複写機においてエコモードが選択された際の像域分離の、特に網点上文字検出装置について記載したが、一般に行われる原稿忠実再生時において、網点上文字領域には例えば強いエッジ強調処理(空間フィルタ処理)を、絵柄中のエッジ部には弱いエッジ強調処理を、といったような網点上文字エッジ部と絵柄中エッジ部に異なる処理を施したい場合などにおいての認識系処理として本発明を採用することも可能である。
以上説明した通り、本発明は、原稿中の網点上文字の背景に平坦な網点領域が存在するという特徴を利用するため、本発明によれば網点上の文字エッジ画素領域を高精度に検出できる。また、本発明は、原稿中の網点上文字の背景にはエッジを挟んで両方向に概ね同じ色の網点領域が存在する特徴を利用するため、本発明によれば網点上の文字エッジ画素領域を高精度に検出できる。
In this case, the threshold is determined by [ABCD] in each of the four directions across the target pixel, and the logical sum of [ABCD] is obtained by the logical sum processing means 40. However, the condition may be made stricter. it can. For example, if the logical product of [ABCD] is taken, the flatness (uniformity of color) will be judged, and it will be difficult to detect characters existing on flat halftone dots. It is possible to reduce the mis-separation in the middle, and it is possible to change the processing at the adjustment level.
Further, this embodiment has described an image area separation, particularly a halftone dot character detection device, when an eco mode is selected in a color copying machine. For example, when you want to apply different processing to the halftone dot character edge and the middle edge of the picture, such as strong edge enhancement (spatial filtering), weak edge enhancement on the edge of the picture, etc. It is also possible to employ the present invention as the recognition system processing.
As described above, the present invention uses the feature that a flat halftone area exists in the background of the character on the halftone dot in the document. Therefore, according to the present invention, the character edge pixel area on the halftone dot has a high accuracy. Can be detected. In addition, since the present invention uses the feature that there is a halftone dot area of approximately the same color in both directions across the edge in the background of the halftone character in the document, according to the present invention, the character edge on the halftone dot is used. The pixel area can be detected with high accuracy.

以上、第一乃至第三の実施形態において説明した画像処理装置を、複写機、ファクシミリ等の画像形成装置に搭載することで、エコモード使用時においても、網点上の文字領域が判読可能に分離されつつ、網点絵柄領域においてユーザーにとって違和感の少ない絵柄再生が可能な誤分離の少ない画像処理が可能な複写機、ファクシミリ等を提供することが可能となる。
また、以上、第一乃至第三の実施形態において説明した画像処理ブロックを有するプログラムをコンピュータに備え、或いは、コンピュータ読み取り可能な記録媒体に記録することで、各種画像処理装置に本発明を適用することが可能となる。
As described above, when the image processing apparatus described in the first to third embodiments is installed in an image forming apparatus such as a copying machine or a facsimile, a character area on a halftone dot can be read even when the eco mode is used. It is possible to provide a copying machine, a facsimile machine, or the like that can perform image processing with less misseparation and can reproduce a pattern with less discomfort for the user in the halftone dot pattern area while being separated.
In addition, the present invention is applied to various image processing apparatuses by including the program having the image processing blocks described in the first to third embodiments in a computer or by recording the program on a computer-readable recording medium. It becomes possible.

本発明に関わる像域分離処理全体の処理ブロック図である。It is a processing block diagram of the entire image area separation processing according to the present invention. 白地上・文字領域検出処理手段について説明する図である。It is a figure explaining a white ground and character area detection processing means. 網点上文字の画像特徴を説明する図である。It is a figure explaining the image feature of the character on a halftone dot. 本発明の第一の実施形態に係る網点上・文字領域検出処理手段を示すブロック図である。FIG. 3 is a block diagram showing halftone dot / character area detection processing means according to the first embodiment of the present invention. (a)乃至(d)は、エッジ分離について説明する図である。(A) thru | or (d) is a figure explaining edge isolation | separation. 網点画素領域検出処理手段の処理フローを示す図である。It is a figure which shows the processing flow of a halftone pixel area | region detection process means. 網点領域の検出を説明するための画素ブロックを示す図である。It is a figure which shows the pixel block for demonstrating the detection of a halftone dot area | region. 補正処理手段の処理内容を説明する図である。It is a figure explaining the processing content of a correction process means. 本発明の第二の実施形態に係る網点上・文字領域検出処理手段を示すブロック図である。It is a block diagram which shows the halftone dot and character area detection process means based on 2nd embodiment of this invention. 極点画素密度検出処理手段の処理フローを示す図である。It is a figure which shows the processing flow of a pole pixel density detection process means. 本発明の第三の実施形態に係る網点上・文字領域検出処理手段を示すブロック図である。It is a block diagram which shows the halftone dot and character area detection process means based on 3rd embodiment of this invention. 極点画素密度検出処理37の処理フローを示す図である。FIG. 10 is a diagram showing a processing flow of pole pixel density detection processing 37. 従来技術である像域分離技術Aの全体フロー図である。It is a whole flowchart of the image area separation technique A which is a prior art. 従来技術である像域分離技術Bの全体フロー図である。It is a whole flowchart of the image area separation technique B which is a prior art.

符号の説明Explanation of symbols

10…スキャナ、 20…白地上・文字領域検出処理手段、21…log変換回路、22…マスキング回路、23…文字検出回路、24…白地背景検出回路、25…AND回路、 30、30a、30b、30c…網点上・文字領域検出処理手段、31…エッジ画素領域検出処理手段、32…網点画素領域検出処理手段、321…入力画像信号部、322…極点検出部、323…網点領域検出部、324…領域判定出力信号出力部、33…補正処理手段、34…極点画素密度検出処理手段、341…極点画素密度算出部、35…補正処理手段、36…マスキング処理手段、37…極点画素密度検出処理、371…極点画素密度算出部、38…補正処理手段、 40…論理和処理手段、 101…スキャナ、102…補正手段、103…スキャナ色補正手段、104…フィルタ、105…プリンタ色補正手段、106…墨処理手段、107…トナーセーブ処理手段、108…補正手段、109…擬似中間調処理手段、110…プリンタ   DESCRIPTION OF SYMBOLS 10 ... Scanner, 20 ... White ground and character area detection processing means, 21 ... Log conversion circuit, 22 ... Masking circuit, 23 ... Character detection circuit, 24 ... White background detection circuit, 25 ... AND circuit, 30, 30a, 30b, 30c ... halftone dot / character area detection processing means, 31 ... edge pixel area detection processing means, 32 ... halftone pixel area detection processing means, 321 ... input image signal section, 322 ... extreme point detection section, 323 ... halftone dot area detection 324 ... Area determination output signal output unit 33 ... Correction processing means 34 ... Pole pixel density detection processing means 341 ... Pole pixel density calculation part 35 ... Correction processing means 36 ... Mask processing means 37 ... Pole pixel Density detection processing, 371 ... pole pixel density calculation unit, 38 ... correction processing means, 40 ... logical sum processing means, 101 ... scanner, 102 ... correction means, 103 ... scanner Correcting means 104 ... filter, 105 ... printer color correction unit, 106 ... ink processing means, 107 ... toner save processing unit, 108 ... correction means, 109 ... halftoning unit, 110 ... printer

Claims (7)

原稿をデジタル信号に変換して画像データとして取得する画像データ取得手段と、前記画像データから文字エッジ画素領域を検出するエッジ画素領域検出手段と、前記画像データから文字背景の網点画素領域を検出する網点画素領域検出手段と、前記エッジ画素領域検出手段による検出結果と前記網点画素領域検出手段による検出結果とに基づいて網点上の文字エッジ画素領域を検出する網点上エッジ画素領域検出手段と、を備え、
前記網点上エッジ画素領域検出手段は、注目画素領域が前記エッジ画素領域検出手段によって文字エッジ画素領域として検出され、前記注目画素領域から所定の距離を有するとともに前記注目画素領域を挟んで対向する画素領域が前記網点画素領域検出手段によって文字背景の網点画素領域として検出された場合に、前記注目画素領域を網点上の文字エッジ画素領域として検出することを特徴とする画像処理装置。
Image data acquisition means for converting an original into a digital signal and acquiring it as image data; edge pixel area detection means for detecting a character edge pixel area from the image data; and detecting a dot pixel area of a character background from the image data Halftone dot pixel area detection means for detecting a character edge pixel area on a halftone dot based on a detection result by the edge pixel area detection means and a detection result by the halftone pixel area detection means Detecting means,
The halftone dot edge pixel area detecting means detects the target pixel area as a character edge pixel area by the edge pixel area detecting means, has a predetermined distance from the target pixel area, and opposes the target pixel area. An image processing apparatus, wherein when the pixel area is detected as a halftone pixel area of a character background by the halftone pixel area detection means, the target pixel area is detected as a character edge pixel area on a halftone dot.
請求項1記載の画像処理装置において、前記網点画素領域検出手段は、平坦な網点画素領域を検出する平坦画素領域検出手段を備えることを特徴とする画像処理装置。   2. The image processing apparatus according to claim 1, wherein the halftone pixel area detecting means includes a flat pixel area detecting means for detecting a flat halftone pixel area. 請求項2記載の画像処理装置において、前記平坦画素領域検出手段は、前記注目画素領域から所定の距離を有するとともに前記注目画素領域を挟んで対向する文字背景の網点画素領域に対して網点密度が一定のレベル差以下であることを検出することを特徴とする画像処理装置。   3. The image processing apparatus according to claim 2, wherein the flat pixel region detecting means has a halftone dot with respect to a halftone pixel region of a character background having a predetermined distance from the target pixel region and facing the target pixel region. An image processing apparatus for detecting that the density is equal to or less than a certain level difference. 請求項2記載の画像処理装置において、前記平坦画素領域検出手段は、前記注目画素領域から所定の距離を有するとともに前記注目画素領域を挟んで対向する文字背景の網点画素領域に対して色の差が一定の値以下であることを検出することを特徴とする画像処理装置。   3. The image processing apparatus according to claim 2, wherein the flat pixel region detecting means has a predetermined distance from the target pixel region and has a color with respect to a halftone pixel region of a character background opposed to the target pixel region. An image processing apparatus that detects that a difference is equal to or less than a certain value. 画像データ取得手段が、原稿をデジタル信号に変換して画像データとして取得する画像データ取得ステップと、
エッジ画素領域検出手段が、前記画像データから文字エッジ画素領域を検出するエッジ画素領域検出ステップと、
網点画素領域検出手段が、前記画像データから文字背景の網点画素領域を検出する網点画素領域検出ステップと、
前記エッジ画素領域検出ステップにおける検出結果と前記網点画素領域検出ステップにおける検出結果とに基づいて、網点上エッジ画素領域検出手段が、網点上の文字エッジ画素領域を検出する網点上エッジ画素領域検出ステップと、を有し、
前記網点上エッジ画素領域検出ステップは、注目画素領域が前記エッジ画素領域検出ステップにおいて文字エッジ画素領域として検出され、かつ前記注目画素領域から所定の距離を有するとともに前記注目画素領域を挟んで対向する画素領域が前記網点画素領域検出ステップによって文字背景の網点画素領域として検出された場合に、前記注目画素領域を網点上の文字エッジ画素領域として検出するステップであることを特徴とする画像処理方法。
An image data acquisition means for converting the document into a digital signal and acquiring it as image data;
An edge pixel area detecting means for detecting a character edge pixel area from the image data;
A halftone pixel region detecting means for detecting a halftone pixel region of a character background from the image data;
A halftone dot edge detection unit that detects a halftone dot edge pixel region based on a detection result in the edge pixel region detection step and a detection result in the halftone pixel region detection step. A pixel area detecting step,
In the halftone dot edge pixel region detecting step, the target pixel region is detected as a character edge pixel region in the edge pixel region detecting step, and has a predetermined distance from the target pixel region and is opposed to the target pixel region. When the pixel area to be detected is detected as the halftone dot pixel area of the character background by the halftone pixel area detecting step, the target pixel area is detected as a character edge pixel area on the halftone dot. Image processing method.
請求項5記載の画像処理方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to claim 5. 請求項6記載のプログラムを記録した、コンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 6 is recorded.
JP2008139441A 2008-05-28 2008-05-28 Image processing apparatus, image processing method, program, and recording medium Pending JP2009290438A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008139441A JP2009290438A (en) 2008-05-28 2008-05-28 Image processing apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008139441A JP2009290438A (en) 2008-05-28 2008-05-28 Image processing apparatus, image processing method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2009290438A true JP2009290438A (en) 2009-12-10

Family

ID=41459241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008139441A Pending JP2009290438A (en) 2008-05-28 2008-05-28 Image processing apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2009290438A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014045722A1 (en) * 2012-09-19 2014-03-27 富士フイルム株式会社 Page image generation device, operation control method therefor, and operation control program therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014045722A1 (en) * 2012-09-19 2014-03-27 富士フイルム株式会社 Page image generation device, operation control method therefor, and operation control program therefor
JPWO2014045722A1 (en) * 2012-09-19 2016-08-18 富士フイルム株式会社 Page image generation apparatus, operation control method thereof, and operation control program thereof

Similar Documents

Publication Publication Date Title
US8477324B2 (en) Image processor and image processing method that uses s-shaped gamma curve
US7876961B2 (en) Method and apparatus for processing image, and computer program product
US8243330B2 (en) Apparatus, method, and computer-readable recording medium for performing color material saving process
US7706022B2 (en) Image forming apparatus and image forming method
KR100994644B1 (en) Image processing apparatus and method thereof
US8243335B2 (en) Device for changing screen ruling for image formation in accordance with relationship between luminance and saturation
JP4793874B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4700721B2 (en) Image processing device
JP4464420B2 (en) Image processing apparatus, image processing method, and program
US20100302599A1 (en) Image processing apparatus, image processing method, and program
JP6221402B2 (en) Image processing apparatus, image processing method, and program
JP2006115425A (en) Image processing apparatus, image forming apparatus, image processing method, computer program and recording medium
JP2009272667A (en) Image processor, image processing system, and program
JP2000278523A (en) Image processor, image reader and image formation device loading the same, image processing method and computer readable storage medium storing image processing procedures
US7164504B1 (en) Image processing apparatus, image processing method and computer program product for image processing
JP2007088741A (en) Image processing apparatus and image processing method
JP2004187119A (en) Device, system, and method for processing image
JP6474315B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP2009290438A (en) Image processing apparatus, image processing method, program, and recording medium
JP3767878B2 (en) Image processing apparatus with output correction inside character
JP7391619B2 (en) Image processing device, image processing method and program
JP2008205967A (en) Image processor
JP4963559B2 (en) Image processing apparatus, image forming apparatus, image processing method, and program for causing computer to execute the method
JP2009005068A (en) Image processing apparatus and image processing method
JP2015051610A (en) Image forming apparatus and image processing method in image forming apparatus