JP4846681B2 - Image processing apparatus, image processing method, and computer-readable storage medium storing image processing program - Google Patents

Image processing apparatus, image processing method, and computer-readable storage medium storing image processing program Download PDF

Info

Publication number
JP4846681B2
JP4846681B2 JP2007235155A JP2007235155A JP4846681B2 JP 4846681 B2 JP4846681 B2 JP 4846681B2 JP 2007235155 A JP2007235155 A JP 2007235155A JP 2007235155 A JP2007235155 A JP 2007235155A JP 4846681 B2 JP4846681 B2 JP 4846681B2
Authority
JP
Japan
Prior art keywords
character
pixel
pixels
edge
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007235155A
Other languages
Japanese (ja)
Other versions
JP2009071405A (en
Inventor
徳子 宮城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007235155A priority Critical patent/JP4846681B2/en
Publication of JP2009071405A publication Critical patent/JP2009071405A/en
Application granted granted Critical
Publication of JP4846681B2 publication Critical patent/JP4846681B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、スキャナで読み取った画像、またはネットワークを介して取得した画像などに対して、画像領域の文字の識別処理を行い、その結果に応じて画像を処理するモノクロ複合機、カラー複合機などの画像処理装置、画像処理方法、および画像処理プログラムが格納されたコンピュータ読み取り可能な記憶媒体に関する。   The present invention provides a monochrome multifunction device, a color multifunction device, or the like that performs character identification processing of an image area on an image read by a scanner or an image acquired via a network and processes the image according to the result. The present invention relates to an image processing apparatus, an image processing method, and a computer-readable storage medium storing an image processing program.

モノクロ複合機、カラー複合機などの画像処理装置では、画像処理技術の高解像度化に伴って、高画質化への要求が高まってきている。
こうした画像処理装置における一般的な画像処理では、スキャナγ補正処理、変倍処理、フィルタ処理、およびプリンタγ処理などの様々な処理が行われる。中でもフィルタ処理は、スキャナ部などから入力された画像信号に対して、鮮鋭度を補正する処理であり、出力画像における文字のシャープネス(くっきり感)、および絵柄の粒状性(ざらつき感)を決定する上で重要な処理である。
In an image processing apparatus such as a monochrome multifunction peripheral or a color multifunction peripheral, a demand for higher image quality has been increased with an increase in resolution of image processing technology.
In general image processing in such an image processing apparatus, various processing such as scanner γ correction processing, scaling processing, filter processing, and printer γ processing is performed. In particular, the filtering process is a process for correcting the sharpness of an image signal input from a scanner unit or the like, and determines the sharpness (crispness) of characters and the granularity (roughness) of a pattern in an output image. This is an important process.

フィルタ処理にて強調を強くすると、文字のシャープネスが向上する反面、絵柄の粒状性が劣化し、また、フィルタ処理にて平滑処理を重視すると、絵柄の粒状性は向上する反面、文字のシャープネスが不足する。
そのため、従来の画像形成装置では、フィルタ処理を行う前に画像領域から文字の識別を行い、該画像領域を文字領域と非文字領域とに分離して、画像の属性に合わせた最適なフィルタ処理を行う。
ところが、画像領域に網点が存在し、「網点上文字」を識別する場合には(「網点上文字」については、図85(b)および図86(b)を参照)、文字ではなく網点を誤って識別することがあり、網点上の文字に対して絵柄に行う平滑処理などを実行してしまうので、網点上文字が読みにくくなるという問題がある。
If the emphasis is enhanced by the filter process, the sharpness of the character is improved, but the graininess of the pattern is deteriorated. If the emphasis is on the smoothing process by the filter process, the graininess of the pattern is improved, but the sharpness of the character is decreased. Run short.
Therefore, in the conventional image forming apparatus, the character is identified from the image area before performing the filtering process, and the image area is separated into the character area and the non-character area, and the optimum filtering process according to the attribute of the image is performed. I do.
However, when there are halftone dots in the image area and “characters on halftone dots” are identified (see “characters on halftone dots” in FIGS. 85 (b) and 86 (b)), In some cases, a halftone dot may be erroneously identified, and a smoothing process or the like performed on a pattern on a character on the halftone dot is executed, which makes it difficult to read the character on the halftone dot.

そこで、下記特許文献1には、文字部と絵柄部が混在した多階調画像から文字部を分離する方法であって、各画素を黒画素、白画素に分類して、M×M内の領域内の連結した黒画素および連結した白画素を検出して、連結黒画素および白画素が共に一定数以上存在するときに、注目画素が文字線画領域、あるいは網点領域であるかを判断する技術が開示されている。
下記特許文献2には、入力デジタル画像データを、m×nブロックの平均濃度を閾値として2値化し、この2値信号の連続性を検出することで、注目画素が文字線画領域、あるいは網点領域にあるかを判断する技術が開示されている。
下記特許文献3には、画像領域におけるエッジの局所的な凹凸に着目してエッジの滑らかさを判定し、このエッジの滑らかさから網点上の文字エッジを網点絵柄中のエッジから切り分けて識別する画像処理装置が開示されている。
Therefore, Patent Document 1 below is a method of separating a character part from a multi-tone image in which a character part and a picture part are mixed, and each pixel is classified into a black pixel and a white pixel, A connected black pixel and a connected white pixel in the area are detected, and when a certain number or more of the connected black pixels and white pixels exist, it is determined whether the target pixel is a character line drawing area or a halftone dot area. Technology is disclosed.
In Patent Document 2 below, input digital image data is binarized using an average density of m × n blocks as a threshold, and the continuity of the binary signal is detected, so that the pixel of interest is a character line drawing region or a halftone dot. A technique for determining whether or not an area is present is disclosed.
In Patent Document 3 below, the smoothness of an edge is determined by paying attention to the local unevenness of the edge in the image area, and the character edge on the halftone dot is separated from the edge in the halftone dot pattern from the smoothness of the edge. An image processing apparatus for identification is disclosed.

特開平2−292957JP-A-2-292957 特開平1−227573JP-A-1-227573 特願2007−60529(未公開特許文献)Japanese Patent Application No. 2007-60529 (unpublished patent document)

しかしながら、これら上記特許文献では、網点上に「部分的に小さい形状を有する文字の特徴的部分」(部分的に小さい形状を有する文字の特徴的部分とは、例えば、濁点、読点、平仮名の「お」の最後の一角部分、「・」、「■」の点部分のように線が孤立して点
形状で存在する部分や、句点、半濁点などのドーナツのような小型の丸型形状で存在する部分など)がある場合には、文字の画素数が識別処理に必要な画素数に満たなくなるため、文字の識別を困難にするという問題が発生する(濁点、半濁点については、図47(a)参照)。
また、網点上に不鮮明で小さい文字(例えば、解像度が600dpi(dot per inch)を下回り、フォント数が6pt(point)を下回るような文字)が存在する場合に、文字の画素数が識別処理に必要な画素数に満たなくなるため、文字の識別を困難にするという問題が発生する。
さらに、網点上のエッジ方向が頻繁に変化する形状を有する文字が存在する場合に、文字部分の十字やT字の交差部分の識別を困難にするという問題が発生する(T字部、および十字部については図87(b)参照)。
However, in these patent documents, “characteristic part of a character having a partially small shape” on a halftone dot (characteristic part of a character having a partially small shape is, for example, a cloud point, a punctuation mark, or a hiragana character. The last corner part of “O”, the part where the line is isolated and has a point shape like the point part of “・”, “■”, and the small round shape like a donut such as a punctuation point, a semi-turbid point, etc. If there is a part that exists in the image, the number of pixels of the character will be less than the number of pixels necessary for the identification process, which causes the problem of making it difficult to identify the character. 47 (a)).
In addition, when there are unclear and small characters (for example, characters whose resolution is lower than 600 dpi (dot per inch) and the number of fonts is lower than 6 pt (point)) on the halftone dot, the number of pixels of the character is identified. Therefore, there is a problem that it is difficult to identify characters.
Furthermore, when there is a character having a shape in which the edge direction on the halftone dot is frequently changed, there arises a problem that it becomes difficult to identify the cross of the character part or the intersection of the T character (the T character part, and (See FIG. 87 (b) for the cross).

そこで本発明では、網点上の文字エッジを網点絵柄中のエッジから切り分けて、かつ、不鮮明で小さな文字の識別を可能とし、文字の識別を欠落なく高精度に行う画像処理装置を提供することを第1の目的とする。
濁点、および読点などの孤立して存在する短線を識別することを可能とし、文字の識別を欠落なく高精度に行うことを第2の目的とする。
半濁点、および句点などの小型の丸型形状を識別することを可能とし、文字の識別を欠落なく高精度に行うことを第3の目的とする。
文字部分が十字に交差した部分の識別を可能とし、文字の識別を欠落なく高精度に行うことを第4の目的とする。
文字部分がT字に交差した部分の識別を可能とし、文字の識別を欠落なく高精度に行うことを第5の目的とする。
網点上の文字エッジを網点絵柄中のエッジから切り分けて、かつ、不鮮明で小さな文字の識別を可能とし、文字の識別を欠落なく高精度に行う画像処理方法を提供することを第6の目的とする。
網点上の文字エッジを網点絵柄中のエッジから切り分けて、かつ、不鮮明で小さな文字の識別を可能とし、文字の識別を欠落なく高精度に行う画像処理プログラムが格納されたコンピュータ読み取り可能な記憶媒体を提供することを第7の目的とする。
Therefore, the present invention provides an image processing apparatus that cuts a character edge on a halftone dot from an edge in a halftone dot pattern, enables identification of a blurred and small character, and performs character identification with high accuracy without omission. This is the first purpose.
A second object is to make it possible to identify isolated short lines such as cloud marks and reading marks, and to perform character identification with high accuracy without omission.
A third object is to make it possible to identify small round shapes such as semi-turbids and punctuation marks, and to perform character identification with high accuracy without omission.
A fourth object is to make it possible to identify a portion where character portions intersect with a cross, and to perform character identification with high accuracy without omission.
It is a fifth object of the present invention to make it possible to identify a portion where a character portion intersects a T-shape and to perform character identification with high accuracy without omission.
A sixth object of the present invention is to provide an image processing method in which a character edge on a halftone dot is separated from an edge in a halftone dot pattern, enables identification of unclear and small characters, and performs character identification with high accuracy without omission. Objective.
A computer-readable image processing program that cuts character edges on halftone dots from the edges in the halftone dot pattern, enables identification of unclear and small characters, and performs character identification with high accuracy without loss A seventh object is to provide a storage medium.

請求項1記載の発明では、画像データを受領する画像データ受領手段と、前記画像データ受領手段で受領した画像データに対して、第1のパターンマッチング処理、横方向画素数カウント処理、及び縦方向画素数カウント処理を行い、黒画素、又は白画素が連続する画素数が所定画素数以上である網点上文字の文字特徴を識別する基本識別手段と、前記画像データ受領手段で受領した画像データに対して、連続白画素抽出処理及び白画素で囲まれている領域の抽出処理、黒画素塊カウント処理、孤立点抽出処理、チェッカーパターン抽出処理、第2のパターンマッチング処理、及び第3のパターンマッチング処理を行い、前記基本識別手段で識別された網点上文字の文字特徴と異なる、黒画素、又は白画素が連続する画素数が所定画素数に満たない網点上文字の文字特徴を、網点上文字の文字特徴として識別する補足識別手段と、前記基本識別手段で識別された網点上文字の文字特徴、および前記補足識別手段で識別された網点上文字の文字特徴に基づいて、前記画像データ受領手段で受領した画像データを文字領域と非文字領域とに分離する画像属性判定手段と、を備えたことにより、前記第1の目的を達成する。
請求項2記載の発明では、請求項1記載の発明において、前記基本識別手段は、前記網点上文字の文字特徴をエッジ部分として識別することを特徴とする。
請求項3記載の発明では、請求項1、または請求項2記載の発明において、前記基本識別手段は、黒画素、又は白画素が連続する画素数が一定方向に所定画素数以上である場合に、網点上文字の文字特徴として識別することを特徴とする。
請求項4記載の発明では、請求項1、請求項2、または請求項3記載の発明において、前記基本識別手段は、前記網点上文字の文字特徴を尾根画素として識別することを特徴とする。
請求項5記載の発明では、請求項1、請求項2、請求項3、または請求項4記載の発明において、前記補足識別手段は、前記網点上文字の文字特徴を孤立する部分として識別することにより、前記第2の目的を達成する。
請求項6記載の発明では、請求項1、請求項2、請求項3、請求項4、または請求項5記載の発明において、前記補足識別手段は、前記網点上文字の文字特徴を丸型形状を形成する部分として識別することにより、前記第3の目的を達成する。
請求項7記載の発明では、請求項1、請求項2、請求項3、請求項4、請求項5、または請求項6記載の発明において、前記補足識別手段は、前記網点上文字の文字特徴を線が十字に交差する部分として識別することにより、前記第4の目的を達成する。
請求項8記載の発明では、請求項1、請求項2、請求項3、請求項4、請求項5、請求項6、または請求項7記載の発明において、前記補足識別手段は、前記網点上文字の文字特徴を線がT字に交差する部分として識別することにより、前記第5の目的を達成する。 請求項9記載の発明では、画像データを受領する画像データ受領手段を備えた画像処理装置において、前記画像データ受領手段で受領した画像データに対して、第1のパターンマッチング処理、横方向画素数カウント処理、及び縦方向画素数カウント処理を行い、黒画素、又は白画素が連続する画素数が所定画素数以上である網点上文字の文字特徴を識別する第1のステップと、前記画像データ受領手段で受領した画像データに対して、連続白画素抽出処理及び白画素で囲まれている領域の抽出処理、黒画素塊カウント処理、孤立点抽出処理、チェッカーパターン抽出処理、第2のパターンマッチング処理、及び第3のパターンマッチング処理を行い、前記第1のステップで識別された網点上文字の文字特徴と異なる、黒画素、又は白画素が連続する画素数が所定画素数に満たない網点上文字の文字特徴を、網点上文字の文字特徴として識別する第2のステップと、前記第1のステップで識別された網点上文字の文字特徴、および前記第2のステップで識別された網点上文字の文字特徴に基づいて、前記画像データ受領手段で受領した画像データを文字領域と非文字領域とに分離する第3のステップと、を備えたことにより、前記第6の目的を達成する。
請求項10記載の発明では、画像データを受領する画像データ受領機能と、前記画像データ受領機能で受領した画像データに対して、第1のパターンマッチング処理、横方向画素数カウント処理、及び縦方向画素数カウント処理を行い、黒画素、又は白画素が連続する画素数が所定画素数以上である網点上文字の文字特徴を識別する基本識別機能と、前記画像データ受領機能で受領した画像データに対して、連続白画素抽出処理及び白画素で囲まれている領域の抽出処理、黒画素塊カウント処理、孤立点抽出処理、チェッカーパターン抽出処理、第2のパターンマッチング処理、及び第3のパターンマッチング処理を行い、前記基本識別機能で識別された網点上文字の文字特徴と異なる、黒画素、又は白画素が連続する画素数が所定画素数に満たない網点上文字の文字特徴を、網点上文字の文字特徴として識別する補足識別機能と、前記基本識別機能で識別された網点上文字の文字特徴、および前記補足識別機能で識別された網点上文字の文字特徴に基づいて、前記画像データ受領機能で受領した画像データを文字領域と非文字領域とに分離する画像属性判定機能と、を備えたことにより、前記第7の目的を達成する。
According to the first aspect of the present invention, image data receiving means for receiving image data , first pattern matching processing, horizontal pixel count processing, and vertical direction for the image data received by the image data receiving means Image data received by the image data receiving means, the basic identification means for performing pixel count processing and identifying the character characteristics of the characters on the halftone dot in which the number of pixels in which black pixels or white pixels continue is equal to or greater than the predetermined number of pixels On the other hand, continuous white pixel extraction processing, extraction processing of an area surrounded by white pixels, black pixel block counting processing, isolated point extraction processing, checker pattern extraction processing, second pattern matching processing, and third pattern performs a matching process, different from the character features of the identified dot on characters by the base identifying means, black pixels, or number of pixels white pixels are consecutive fully a predetermined number of pixels The character features on no halftone characters, a supplemental identification means for identifying as a character feature on halftone characters, the basic identification means identified dot on character features, and identified by the supplementary identification means Image attribute determining means for separating the image data received by the image data receiving means into a character area and a non-character area on the basis of the character characteristics of the characters on the halftone dot. Achieve.
The invention according to claim 2 is characterized in that, in the invention according to claim 1, the basic identification means identifies a character feature of the character on the halftone dot as an edge portion.
According to a third aspect of the present invention, in the first or second aspect of the present invention, the basic identification unit is configured such that the number of pixels in which black pixels or white pixels are continuous is equal to or greater than a predetermined number of pixels in a certain direction. In this case, the character feature is identified as a character feature of a character on a halftone dot.
According to a fourth aspect of the present invention, in the first, second, or third aspect of the invention, the basic identifying means identifies the character feature of the character on the halftone dot as a ridge pixel. .
According to a fifth aspect of the present invention, in the first, second, third, or fourth aspect, the supplementary identifying means identifies the character feature of the character on the halftone dot as an isolated part. Thus, the second object is achieved.
According to a sixth aspect of the present invention, in the first, second, third, fourth, or fifth aspect, the supplementary identifying means rounds the character characteristics of the halftone characters. The third object is achieved by identifying the portion forming the shape.
According to a seventh aspect of the present invention, in the first, second, third, fourth, fifth, or sixth aspect, the supplementary identifying means is a character of the halftone dot character. The fourth object is achieved by identifying the feature as a portion where the line intersects the cross.
In the invention according to claim 8, in the invention according to claim 1, claim 2, claim 3, claim 4, claim 5, claim 6 or claim 7, the supplementary identification means is the halftone dot. The fifth object is achieved by identifying the character feature of the upper character as a portion where the line intersects the T-shape. According to the ninth aspect of the present invention, in the image processing apparatus provided with the image data receiving means for receiving the image data , the first pattern matching process, the number of pixels in the horizontal direction for the image data received by the image data receiving means. A first step of performing a count process and a vertical pixel count process, and identifying a character feature of a character on a halftone dot in which the number of pixels in which black pixels or white pixels are continuous is equal to or greater than a predetermined number of pixels; Continuous white pixel extraction processing, extraction processing of a region surrounded by white pixels, black pixel block counting processing, isolated point extraction processing, checker pattern extraction processing, second pattern matching for image data received by the receiving means process, and the third performs pattern matching process, different from the character features of the first on halftone identified in step character, black pixels or white pixels are The character features of a halftone dot on a character which the number of pixels is less than the predetermined number of pixels to be continued, on the halftone characters and the second identifying as a character feature, the first on halftone identified in step character A third step of separating the image data received by the image data receiving means into a character region and a non-character region based on the character feature and the character feature of the halftone character identified in the second step; The sixth object is achieved.
According to the tenth aspect of the present invention, an image data receiving function for receiving image data , and a first pattern matching process, a horizontal pixel count process, and a vertical direction for the image data received by the image data receiving function Image data received by the basic identification function that performs the pixel count processing and identifies the character characteristics of the characters on the halftone dot in which the number of black pixels or continuous white pixels is equal to or greater than the predetermined number of pixels, and the image data receiving function On the other hand, continuous white pixel extraction processing, extraction processing of an area surrounded by white pixels, black pixel block counting processing, isolated point extraction processing, checker pattern extraction processing, second pattern matching processing, and third pattern It performs a matching process, the different character features of the identified dot on characters in the basic identification functions, black pixels or the number of pixels of white pixels are continuous within a predetermined number of pixels The character features Tanai dot on characters, identified by supplemental identification features and the basic identification features in the identified dot on character features, and the supplementary identification function of identifying as a character feature on halftone characters An image attribute determination function for separating the image data received by the image data reception function into a character area and a non-character area based on the character characteristics of the characters on the halftone dots. To achieve.

請求項1から請求項4、請求項9、および請求項10記載の発明では、網点上の文字エッジを網点絵柄中のエッジから切り分けて、かつ、不鮮明で小さな文字の識別を可能とし、文字の識別を欠落なく高精度に行うことができる。
請求項5記載の発明によれば、濁点、および読点などの孤立して存在する短線を識別することを可能とし、文字の識別を欠落なく高精度に行うことができる。
請求項6記載の発明によれば、半濁点、および句点などの小型の丸形状を識別することを可能とし、文字の識別を欠落なく高精度に行うことができる。
請求項7記載の発明によれば、文字部分が十字に交差した部分の識別を可能とし、文字の識別を欠落なく高精度に行うことができる。
請求項8記載の発明によれば、文字部分がT字に交差した部分の識別を可能とし、文字の識別を欠落なく高精度に行うことができる。
In the inventions according to claims 1 to 4, claim 9, and claim 10, the character edge on the halftone dot is separated from the edge in the halftone dot pattern, and an unclear and small character can be identified. Character identification can be performed with high accuracy without omission.
According to the fifth aspect of the present invention, it is possible to identify isolated short lines such as muddy spots and reading marks, and it is possible to identify characters with high accuracy without omission.
According to the sixth aspect of the present invention, it is possible to identify small round shapes such as a semi-turbid point and a phrase, and it is possible to identify characters with high accuracy without omission.
According to the seventh aspect of the present invention, it is possible to identify the portion where the character portion intersects the cross, and the character can be identified with high accuracy without omission.
According to the eighth aspect of the present invention, it is possible to identify the portion where the character portion intersects the T-shape, and the character can be identified with high accuracy without omission.

以下、発明を実施するための形態について図面を参照して詳細に説明する。
[第1の実施形態の詳細]
図1は、本発明の第1の実施形態の構成を示したブロック図である。
スキャナ10は、原稿を読み取りRGB信号からなる画像データを受領し、スキャナγ補正手段11は、スキャナのγ特性を反射率リニアの信号から濃度リニアの信号に属性を変換することにより補正する。
この属性変換では、平滑化に効果的な濃度リニアの信号を、エッジ強調に効果的な濃度リニアの信号に変換する。スキャナ色補正手段12は、スキャナ特性に依存したRGB信号をスキャナに依存しないデバイス非依存のR’G’B’信号に変換する。
画像属性判定手段20は、画像データから文字領域を抽出し、文字領域として白地上文字、網点上文字などの文字を抽出する。
エッジ量抽出手段30は、R’G’B’信号から画像中のエッジらしさを表す信号であるエッジ量を抽出する。
フィルタ処理手段13は、画像属性判定手段20およびエッジ量抽出手段30の結果に基づき、網点部の起伏を抑えてモアレを抑制する平滑化処理、および文字部の鮮鋭性を高めるエッジ強調処理を行う。
プリンタ色補正手段14では、デバイス非依存のR’G’B’信号からプリンタ特性に依存したC’M’Y’信号への変換を行う。
エッジ量抽出手段40は、C’M’Y’信号から画像中のエッジ度合い(エッジらしさ)を示す信号であるエッジ量を抽出する。UCR/墨生成手段15は、画像属性判定手段20およびエッジ量抽出手段40の結果に基づき、C’M’Y’データに応じてK信号を発生させ(墨生成)、C’M’Y’からKに応じた量を減ずることで下色除去(UCR)を行う。なお、このときのCMYKはプリンタの各色に対応している。
プリンタγ補正手段16は、UCR/墨生成手段15で下色除去後の信号に対して、プリンタγ補正を行い、さらに擬似階調処理手段17で擬似階調処理を行って、プリンタ18にて記録媒体上に画像出力する。
より詳細には、プリンタγ補正手段16では、プリンタの濃度特性に合わせて濃度変換テーブルを用いた変換処理を行い、擬似階調処理手段17では、ディザや誤差拡散等の擬似中間調処理を行う。
なお、本実施形態では、スキャナ10から原稿を読み取ることで画像データを受領したが、図示しないインターネットとの通信や記憶媒体などから画像データを受領することも可能である。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the invention will be described in detail with reference to the drawings.
[Details of First Embodiment]
FIG. 1 is a block diagram showing the configuration of the first exemplary embodiment of the present invention.
The scanner 10 reads an original and receives image data composed of RGB signals, and the scanner γ correction unit 11 corrects the γ characteristics of the scanner by converting attributes from a linear reflectance signal to a linear density signal.
In this attribute conversion, a density linear signal effective for smoothing is converted into a density linear signal effective for edge enhancement. The scanner color correction unit 12 converts the RGB signal depending on the scanner characteristics into a device-independent R′G′B ′ signal that does not depend on the scanner.
The image attribute determination means 20 extracts a character area from the image data, and extracts characters such as white ground characters and halftone dots as character areas.
The edge amount extraction unit 30 extracts an edge amount that is a signal representing the likelihood of an edge in the image from the R′G′B ′ signal.
Based on the results of the image attribute determination unit 20 and the edge amount extraction unit 30, the filter processing unit 13 performs a smoothing process that suppresses the undulation of the halftone part and suppresses moire, and an edge enhancement process that increases the sharpness of the character part. Do.
The printer color correction means 14 performs conversion from a device-independent R′G′B ′ signal to a C′M′Y ′ signal depending on printer characteristics.
The edge amount extraction means 40 extracts an edge amount that is a signal indicating the degree of edge (edge-likeness) in the image from the C′M′Y ′ signal. The UCR / black generation unit 15 generates a K signal according to the C′M′Y ′ data based on the results of the image attribute determination unit 20 and the edge amount extraction unit 40 (black generation), and C′M′Y ′. Under color removal (UCR) is performed by subtracting the amount corresponding to K from K. Note that CMYK at this time corresponds to each color of the printer.
The printer γ correction unit 16 performs printer γ correction on the signal after undercolor removal by the UCR / black generation unit 15, and further performs pseudo gradation processing by the pseudo gradation processing unit 17. An image is output on a recording medium.
More specifically, the printer γ correction means 16 performs conversion processing using a density conversion table in accordance with the density characteristics of the printer, and the pseudo gradation processing means 17 performs pseudo halftone processing such as dither and error diffusion. .
In the present embodiment, image data is received by reading a document from the scanner 10, but it is also possible to receive image data from communication with the Internet (not shown) or a storage medium.

図2は、画像属性判定手段20の構成を示したブロック図である。RGB→CMY変換201にて、原稿のプロセスカラーに対応したcmy信号に変換し、cmy信号各々に対して2値化手段202、212、222の後、基本識別手段507、508、509および、補足識別手段501、502、503を行い、OR208にて各cmy信号から識別された識別結果の論理和演算を行う。cmyいずれかの信号で文字と識別されれば、画像属性判定手段20の識別結果は「文字」となる。
RGB→CMY変換201は、次式によりR’G’B’信号から原稿のプロセスカラーに対応したcmy信号への変換を行う。
c=a0+a1×R+a2×G+a3×B
m=b0+b1×R+b2×G+b3×B
y=c0+c1×R+c2×G+c3×B(式1)
式1のa0〜a3、b0〜b3、c0〜c3は、プロセスカラーのカラーパッチをスキャナで読み込み、RGB読取値とカラーパッチの色の関係に基づき予め設定されたパラメータである。
FIG. 2 is a block diagram showing the configuration of the image attribute determination means 20. The RGB → CMY conversion 201 converts the signal into a cmy signal corresponding to the process color of the document. After the binarizing means 202, 212, and 222 for each of the cmy signals, the basic identification means 507, 508, and 509 are supplemented. Identification means 501, 502, and 503 are performed, and an OR operation is performed on the identification result identified from each cmy signal in OR208. If the signal is identified as a character by any one of the signals Cmy, the identification result of the image attribute determination means 20 is “character”.
The RGB → CMY conversion 201 converts the R′G′B ′ signal into a cmy signal corresponding to the process color of the document by the following equation.
c = a0 + a1 × R + a2 × G + a3 × B
m = b0 + b1 × R + b2 × G + b3 × B
y = c0 + c1 * R + c2 * G + c3 * B (Formula 1)
In Expression 1, a0 to a3, b0 to b3, and c0 to c3 are parameters set in advance based on the relationship between the RGB read value and the color of the color patch when the process color patch is read by the scanner.

図3は、2値化手段202、212、222の構成を示したブロック図である。ピーク画素検出手段231、232は、注目画素が濃度変化の山を示す極点であるかどうかを、周囲の画素との濃度関係から検出する。
例えば、M×M画素からなるブロック内において、中心画素の濃度レベルが他の全ての濃度レベルよりも高いときに、以下に示す(式2)、あるいは以下に示す(式3)のようにして極点かどうかを判定する。
なお、以下に示す(式2)により、ピーク画素を検出しているのがピーク画素検出手段231、以下に示す(式3)により、ピーク画素を検出しているのがピーク画素検出手段232である。
(1)M=3(図4(a))の場合、
(2m0−m1−m8)≧ΔmTH かつ、
(2m0−m2−m7)≧ΔmTH かつ、
(2m0−m3−m6)≧ΔmTH かつ、
(2m0−m4−m5)≧ΔmTH (式2)
(2)M=5(図4(b))の場合、
(2m0−m3−m22)≧ΔmTH かつ、
(2m0−m8−m17)≧ΔmTH かつ、
(2m0−m1−m24)≧ΔmTH かつ、
(2m0−m7−m18)≧ΔmTH (式3)
FIG. 3 is a block diagram showing the configuration of the binarization means 202, 212, 222. The peak pixel detection means 231 and 232 detect whether or not the target pixel is an extreme point indicating a peak of density change from the density relationship with surrounding pixels.
For example, when the density level of the central pixel is higher than all other density levels in a block composed of M × M pixels, the following (Expression 2) or (Expression 3) shown below is performed. Determine if it is a pole.
The peak pixel is detected by the peak pixel detecting means 231 according to (Equation 2) shown below, and the peak pixel is detected by the peak pixel detecting means 232 according to (Equation 3) shown below. is there.
(1) When M = 3 (FIG. 4A),
(2m0-m1-m8) ≧ ΔmTH and
(2m0−m2−m7) ≧ ΔmTH and
(2m0−m3−m6) ≧ ΔmTH and
(2m0-m4-m5) ≧ ΔmTH (Formula 2)
(2) In the case of M = 5 (FIG. 4B),
(2m0−m3−m22) ≧ ΔmTH and
(2m0-m8-m17) ≧ ΔmTH and
(2m0-m1-m24) ≧ ΔmTH and
(2m0−m7−m18) ≧ ΔmTH (Formula 3)

ピーク画素検出手段手段231、232では、中心画素を挟んで対称の位置にある2つの画素レベルの平均値と中心画素の濃度差が、閾値ΔmTHよりも大きい場合、中心画素をピークとして検出する。そして、OR233は、ピーク画素検出手段231、およびピーク画素検出手段232のうち、どちらか一方でもピーク画素として検出されれば、ピーク画素として判定する。
閾値設定手段234は、注目画素を中心として9×9画素内にあるピーク画素および画素値(cまたはmまたはyの値)からピーク画素の中から最も画素値が大きいもの(濃度が高いもの)を検出して、閾値=ピーク画素最大値+αとして設定する。αは閾値に余裕を持たせるためのパラメータであり、CMY信号が各8bitの場合ではα=10〜30程度の値に設定しておく。
白画素/黒画素判定手段235は、画像データが設定された閾値以上であれば黒画素として判定し、設定した閾値未満であれば白画素として判定する。
これにより、網点上文字の平網部分は白画素と判定され、文字部分は(網点上の白抜き文字のようなものは例外として)網点よりも濃度が高いので、黒画素として判定される。
The peak pixel detection means 231 and 232 detect the central pixel as a peak when the density difference between the average value of the two pixel levels and the central pixel located symmetrically with respect to the central pixel is larger than the threshold value ΔmTH. The OR 233 determines that the pixel is a peak pixel if any one of the peak pixel detector 231 and the peak pixel detector 232 is detected as a peak pixel.
The threshold value setting means 234 has the highest pixel value (highest density) from the peak pixel and the pixel value (c or m or y value) within the 9 × 9 pixel centering on the target pixel. Are set as threshold = peak pixel maximum value + α. α is a parameter for giving a margin to the threshold value, and is set to a value of α = about 10 to 30 when the CMY signal is 8 bits each.
The white pixel / black pixel determination unit 235 determines a black pixel if the image data is equal to or greater than a set threshold value, and determines a white pixel if the image data is less than the set threshold value.
As a result, the halftone dot character is determined to be a white pixel, and the character portion has a higher density than the halftone dot (with the exception of white dots on the dot), so it is determined as a black pixel. Is done.

図5は、エッジの滑らかさ判定手段203、213、223の構成を示したブロック図である。3×3サイズの2値画像データに対して、各パターンマッチング手段は、以下(1)〜(4)のパターンマッチングを行う。
(1)P1パターンマッチング手段241は、図6(a)のP1に示すパターンマッチングを行う。
(2)P2パターンマッチング手段242は、図6(b)のP2に示すパターンマッチングを行う。
(3)P3パターンマッチング手段243は、図6(c)のP3に示すパターンマッチングを行う。
(4)P4パターンマッチング手段244は、図6(d)のP4に示すパターンマッチングを行う。
そして、上記(1)〜(4)の結果、各パターンマッチング手段は、一致すれば「1」、不一致ならば「0」を出力する。
FIG. 5 is a block diagram showing the configuration of the edge smoothness determination means 203, 213, and 223. For 3 × 3 size binary image data, each pattern matching means performs the following pattern matching (1) to (4).
(1) The P1 pattern matching unit 241 performs pattern matching indicated by P1 in FIG.
(2) The P2 pattern matching unit 242 performs pattern matching indicated by P2 in FIG.
(3) The P3 pattern matching unit 243 performs pattern matching indicated by P3 in FIG.
(4) The P4 pattern matching means 244 performs pattern matching indicated by P4 in FIG.
As a result of the above (1) to (4), each pattern matching means outputs “1” if they match, and “0” if they do not match.

横方向画素数カウント手段245、246、および縦方向画素数カウント手段247、248では、各出力値に対して、横方向または縦方向の画素数カウントを行い、注目画素から見た4方向の領域に対して縦エッジまたは横エッジの抽出を行う。
このとき、左上縦エッジ/左下縦エッジ/右上縦エッジ/右下縦エッジ/左上横エッジ/右上横エッジ/左下横エッジ/右下横エッジの8つの2値信号として抽出される。
In the horizontal direction pixel number counting means 245 and 246 and the vertical direction pixel number counting means 247 and 248, the number of pixels in the horizontal direction or the vertical direction is counted for each output value, and the area in the four directions as viewed from the target pixel. Extract vertical edges or horizontal edges.
At this time, it is extracted as eight binary signals of upper left vertical edge / lower left vertical edge / upper right vertical edge / lower right vertical edge / upper left horizontal edge / upper right horizontal edge / lower left horizontal edge / lower right horizontal edge.

図7(b)は、注目画素を中心として参照領域を4等分し、左上領域に縦線の左側エッジ(立上りエッジ)があるとき左上縦エッジとして抽出し、左下領域に縦線の左側エッジ(立上りエッジ)があるとき左下縦エッジとして抽出した例を示した図である。
図7(a)および図7(c)は、45°〜135°の傾きがある場合に、左上縦エッジおよび左下縦エッジを抽出対象とした例を示した図である。
図8(b)は、右上領域に縦線の右側エッジ(立下りエッジ)があるとき右上縦エッジとして抽出し、右下領域に縦線の右側エッジ(立下りエッジ)があるとき右下縦エッジとして抽出した例を示した図である。
図8(a)および図8(c)は、45°〜135°の傾きがある場合に、右上縦エッジ、および右下縦エッジを抽出対象とした例を示した図である。
図9(b)は、注目画素を中心として参照領域を4等分し、左上領域に横線の上側エッジ(立上りエッジ)があるとき左上横エッジ、右上領域に横線の上側エッジ(立上りエッジ)があるとき右上横エッジとして抽出した例を示した図である。
図9(a)および図9(c)は、−45°〜45°の傾きがある場合も左上横エッジおよび右上横エッジを抽出対象とした例を示した図である。
図10(b)は、左下領域に横線の下側エッジ(立下りエッジ)があるときに左下横エッジとして抽出し、右下領域に横線の下側エッジ(立下りエッジ)があるときに右下横エッジとして抽出した例を示した図である。
図10(a)および図10(c)は、−45°〜45°の傾きがある場合に、左下横エッジ、および右下横エッジを抽出対象とした例を示した図である。
なお、図7〜図10では、参照領域内に対となるエッジが存在する比較的細い線を例に図示したが、図11(a)のように対となるエッジが参照領域内には存在しない太い線などのエッジに関しても同じく、左上縦エッジ、および左下縦エッジとして抽出する。
図11(b)のように滑らかな曲線のエッジでは、抽出するのは直線だけでなく左上縦エッジや左下縦エッジを抽出する。
In FIG. 7B, the reference area is divided into four equal parts with the pixel of interest at the center, and when the left edge of the vertical line (rising edge) is in the upper left area, it is extracted as the upper left vertical edge, and the left edge of the vertical line is extracted in the lower left area It is the figure which showed the example extracted as a lower left vertical edge when there exists (rising edge).
FIGS. 7A and 7C are diagrams showing an example in which the upper left vertical edge and the lower left vertical edge are extracted when there is an inclination of 45 ° to 135 °.
In FIG. 8B, when there is a vertical right edge (falling edge) in the upper right area, it is extracted as an upper right vertical edge, and when there is a vertical line right edge (falling edge) in the lower right area, the lower right vertical It is the figure which showed the example extracted as an edge.
FIGS. 8A and 8C are diagrams showing an example in which the upper right vertical edge and the lower right vertical edge are extracted when there is an inclination of 45 ° to 135 °.
FIG. 9B divides the reference area into four equal parts with the pixel of interest at the center, and when the upper left area has a horizontal upper edge (rising edge), the upper left horizontal edge, and the upper right area has a horizontal line upper edge (rising edge). It is the figure which showed the example extracted as an upper right horizontal edge at a certain time.
FIGS. 9A and 9C are diagrams illustrating an example in which the upper left horizontal edge and the upper right horizontal edge are extracted even when there is an inclination of −45 ° to 45 °.
In FIG. 10B, when the lower left edge (falling edge) of the horizontal line is in the lower left area, it is extracted as the lower left horizontal edge, and when the lower edge (falling edge) of the horizontal line is in the lower right area, It is the figure which showed the example extracted as a lower horizontal edge.
FIGS. 10A and 10C are diagrams showing an example in which the lower left horizontal edge and the lower right horizontal edge are extracted when there is an inclination of −45 ° to 45 °.
7 to 10 exemplify a relatively thin line in which a pair of edges exist in the reference area, but a pair of edges exist in the reference area as shown in FIG. Similarly, an edge such as a thick line that is not extracted is extracted as an upper left vertical edge and a lower left vertical edge.
As shown in FIG. 11B, not only a straight line but also an upper left vertical edge and a lower left vertical edge are extracted at the edge of a smooth curve.

図12は、横方向画素数カウント手段245および横方向画素数カウント手段246の処理を説明した図である。
注目画素を挟んで横方向13画素のパターンマッチング結果が(1)のようなものであった場合を例に説明する。
パターンマッチング結果に対して、画素位置に対応した(2)横方向画素数カウント用の重みを各々乗算する。
重みは、注目画素位置でゼロ、離れるに従って絶対値が大きくなるものであり、一方向がマイナス、その反対方向がプラスである。
つまり、(1)×(2)の結果はパターンにマッチした画素が注目画素から数えて左右どちらの方向に何画素離れた画素位置に存在するかを求めたものになっている。
パターンにマッチした画素のうち注目画素に最も近い画素の位置((1)×(2)の結果から、絶対値が最小になるものを選択する)を横方向画素数カウントの結果として出力する。
ただし、(1)パターンマッチング結果が参照領域内で全てゼロの場合は、画素数カウントの結果は最大値「7」を出力する。
図13は、縦方向画素数カウント手段247および縦方向画素数カウント手段248の処理を説明した図である。注目画素を挟んで縦方向13画素のパターンマッチング結果が(1)のようなものであった場合を例に説明する。
パターンマッチング結果に対して、画素位置に対応した(2)縦方向画素数カウント用の重みを各々乗算する。この重みは、注目画素位置でゼロ、離れるに従って絶対値が大きくなるものであり、一方向がマイナス、反対方向がプラスである。
つまり、(1)×(2)の結果はパターンにマッチした画素が注目画素から数えて上下どちらの方向に何画素離れた画素位置に存在するかについて定めた指標としている。
そして、パターンにマッチした画素のうち注目画素に最も近い画素の位置((1)×(2)の結果から、絶対値が最小になるものを選択する)を縦方向画素数カウントの結果として出力する。
ただし、(1)にてパターンマッチング結果が参照領域内で全てゼロの場合は、画素数カウントの結果は最大値「7」を出力する。
FIG. 12 is a diagram for explaining processing of the horizontal pixel number counting unit 245 and the horizontal pixel number counting unit 246.
An example will be described in which the pattern matching result of 13 pixels in the horizontal direction across the target pixel is as shown in (1).
The pattern matching result is multiplied by (2) the weight for counting the number of horizontal pixels corresponding to the pixel position.
The weight is zero at the pixel position of interest, and the absolute value increases as the distance increases, with one direction being negative and the opposite direction being positive.
That is, the result of (1) × (2) is obtained by determining how many pixels away from the pixel of interest the pixel matching the pattern is located in the left or right direction.
The position of the pixel closest to the target pixel among the pixels matched with the pattern (select the one with the smallest absolute value from the result of (1) × (2)) is output as the result of the horizontal pixel count.
However, (1) if the pattern matching result is all zero in the reference area, the pixel count result is the maximum value “7”.
FIG. 13 is a diagram for explaining processing of the vertical pixel number counting unit 247 and the vertical pixel number counting unit 248. A case where the pattern matching result of 13 pixels in the vertical direction across the target pixel is as shown in (1) will be described as an example.
The pattern matching result is multiplied by (2) a weight for counting the number of vertical pixels corresponding to the pixel position. This weight is zero at the target pixel position, and the absolute value increases as the distance from the pixel position increases, with one direction being negative and the opposite direction being positive.
That is, the result of (1) × (2) is an index that determines how many pixels away from the pixel of interest the pixel matching the pattern is located in the vertical direction.
Then, the position of the pixel closest to the target pixel among the pixels matching the pattern (select the one with the smallest absolute value from the result of (1) × (2)) is output as the result of counting the number of pixels in the vertical direction. To do.
However, if the pattern matching result is all zero in the reference area in (1), the maximum number “7” is output as the pixel count result.

図14は、左上縦エッジ抽出手段249および右上縦エッジ抽出手段251の参照領域と抽出条件を説明した図である。横方向画素数カウントの結果y1〜y7を縦方向に注目画素(y7)を含む上7画素を参照して、(1)縦線の抽出条件、(2)斜め線の抽出条件(滑らかな曲線も含む)のいずれかを満たせば、左上縦エッジまたは右上縦エッジとして「1」を出力、どちらも満たさなければ「0」を出力する。
(1)縦線の抽出条件および(2)斜め線の抽出条件ともに、第1の条件は、7画素全ての横方向画素数カウントの結果が「7」より小さいこと、つまり、横方向に必ずパターンマッチングでマッチした画素が存在することである。
(1)縦線の抽出条件の第2の条件は、横方向画素数カウントの最大値と最小値の差分が1以下であることである。
(2)斜め線の抽出条件の第2の条件は、横方向画素数カウントの結果が上から下に向かって降順に並んでいることである。
(1)縦線の抽出条件は、完全にノイズの無い縦線は勿論のこと、図46の網点上文字画像の例のように、縦線に1dotが突起状に付いている場合も縦線として抽出する条件になっており、斜め線によりも判定条件をやや緩くしている。
FIG. 14 is a diagram for explaining reference regions and extraction conditions of the upper left vertical edge extraction unit 249 and the upper right vertical edge extraction unit 251. The horizontal pixel count results y1 to y7 are referred to the upper seven pixels including the target pixel (y7) in the vertical direction, and (1) vertical line extraction conditions and (2) diagonal line extraction conditions (smooth curve) 1 is output as an upper left vertical edge or an upper right vertical edge, and “0” is output when neither is satisfied.
The first condition for both (1) vertical line extraction condition and (2) diagonal line extraction condition is that the result of the horizontal pixel count of all seven pixels is smaller than “7”, that is, the horizontal direction is always That is, there is a pixel matched by pattern matching.
(1) The second condition of the vertical line extraction condition is that the difference between the maximum value and the minimum value of the horizontal pixel count is 1 or less.
(2) The second condition of the diagonal line extraction condition is that the horizontal pixel count results are arranged in descending order from top to bottom.
(1) The vertical line extraction condition is not only a vertical line with no noise, but also a vertical line with a 1 dot projection as shown in the example of a character image on a halftone dot in FIG. It is a condition to extract as a line, and the determination condition is slightly relaxed by an oblique line.

図15は、左下縦エッジ抽出手段250および右下縦エッジ抽出手段252の参照領域と抽出条件を説明する図である。横方向画素数カウントの結果y7〜y13を縦方向に注目画素(y7)を含む下7画素参照する。それ以外は図14の左上縦エッジ抽出249および右上縦エッジ抽出251と同じである。   FIG. 15 is a diagram for explaining reference regions and extraction conditions of the lower left vertical edge extraction unit 250 and the lower right vertical edge extraction unit 252. The results of the horizontal pixel count y7 to y13 are referred to the lower seven pixels including the target pixel (y7) in the vertical direction. The rest is the same as the upper left vertical edge extraction 249 and the upper right vertical edge extraction 251 of FIG.

図16は、左上横エッジ抽出手段253および左下横エッジ抽出手段255の参照領域と抽出条件を説明した図である。縦方向画素数カウントの結果t1〜t7を横方向に注目画素(y7)を含む左7画素参照し、
(1)横線の抽出条件、(2)斜め線の抽出条件(滑らかな曲線も含む)のいずれかを満たせば、左上横エッジまたは左下横エッジとして「1」を出力、どちらも満たさなければ「0」を出力する。
(1)横線の抽出条件および(2)斜め線の抽出条件ともに、第1の条件は、7画素全ての縦方向画素数カウントの結果が「7」より小さいこと、つまり、縦方向に必ずパターンマッチングでマッチした画素が存在することである。
(1)横線の抽出条件の第2の条件は、縦方向画素数カウントの最大値と最小値の差分が1以下であることである。
(2)斜め線の抽出条件の第2の条件は、縦方向画素数カウントの結果が左から右に向かって降順に並んでいることである。
(1)横線の抽出条件の方は、完全にノイズの無い横線は勿論のこと、横線に1dot突起状に付いている場合も縦線として抽出する条件になっており、斜め線よりも判定条件をやや緩くしている。
FIG. 16 is a diagram for explaining reference regions and extraction conditions of the upper left horizontal edge extraction unit 253 and the lower left horizontal edge extraction unit 255. Refer to the left pixel including the pixel of interest (y7) in the horizontal direction from the result of the vertical pixel count t1 to t7,
If either (1) the horizontal line extraction condition or (2) the diagonal line extraction condition (including a smooth curve) is satisfied, “1” is output as the upper left horizontal edge or the lower left horizontal edge. "0" is output.
The first condition for both (1) the horizontal line extraction condition and (2) the diagonal line extraction condition is that the result of counting the number of vertical pixels in all seven pixels is smaller than “7”, that is, the pattern is always in the vertical direction. That is, there is a pixel matched by matching.
(1) The second condition of the horizontal line extraction condition is that the difference between the maximum value and the minimum value of the vertical direction pixel count is 1 or less.
(2) The second condition of the diagonal line extraction condition is that the results of the vertical pixel count are arranged in descending order from left to right.
(1) The horizontal line extraction condition is not only a horizontal line with no noise, but also a horizontal line with a 1-dot protrusion, so that it is extracted as a vertical line. A little loose.

図17は、右上横エッジ抽出手段254および右下横エッジ抽出手段256の参照領域と抽出条件を説明した図である。
縦方向画素数カウントの結果t7〜t13を横方向に注目画素(t7)を含む右7画素参照する。
それ以外は図16の左上横エッジ抽出手段253および左下横エッジ抽出手段255と同じである。
以上説明した各エッジの抽出条件のうち、第2の条件として説明したものが、エッジの滑らかさを判定する条件に該当し、参照領域内における局所的な凹凸の有無を判定している。
FIG. 17 is a diagram for explaining reference regions and extraction conditions of the upper right horizontal edge extracting unit 254 and the lower right horizontal edge extracting unit 256.
As a result of counting the number of pixels in the vertical direction, the right seven pixels including the target pixel (t7) are referred to in the horizontal direction.
The rest is the same as the upper left horizontal edge extracting means 253 and the lower left horizontal edge extracting means 255 of FIG.
Among the extraction conditions for each edge described above, the one described as the second condition corresponds to the condition for determining the smoothness of the edge, and determines the presence or absence of local unevenness in the reference region.

図18は、連続エッジ検出手段204、214、224の構成を示したブロック図である。図18に示すように、連続エッジ検出手段204、214、224は論理積演算(AND)および論理和演算(OR)で構成されており、例えば、図21のように注目画素が左上縦エッジかつ左下縦エッジの場合、「連続エッジ」として検出される。このように、滑らかな線が連続する場合に連続エッジが検出され、主に太い文字や線のエッジが検出される。   FIG. 18 is a block diagram showing the configuration of the continuous edge detection means 204, 214, 224. As shown in FIG. 18, the continuous edge detecting means 204, 214, 224 are configured by AND operation (AND) and OR operation (OR). For example, as shown in FIG. In the case of the lower left vertical edge, it is detected as “continuous edge”. In this way, continuous edges are detected when smooth lines are continuous, and mainly the edges of thick characters and lines are detected.

図19は、ペアエッジ検出手段205、215、225の構成を示したブロック図である。図19に示すように、ペアエッジ検出手段205、215、225は論理積演算(AND)および論理和演算(OR)で構成されており、例えば、図22(a)のように注目画素が左上縦エッジかつ右上縦エッジ、または、左下縦エッジかつ右下縦エッジの場合、「ペアエッジ」として検出される。
このように、主に細い文字や線などはペアエッジとして検出される。なお、図22(b)のように端点付近のエッジもペアエッジとして検出される。
FIG. 19 is a block diagram showing the configuration of the pair edge detection means 205, 215, 225. As shown in FIG. 19, the pair edge detection means 205, 215, and 225 are configured by a logical product operation (AND) and a logical sum operation (OR). For example, as shown in FIG. An edge and an upper right vertical edge, or a lower left vertical edge and a lower right vertical edge are detected as “pair edges”.
Thus, mainly thin characters and lines are detected as pair edges. As shown in FIG. 22B, edges near the end points are also detected as pair edges.

図20は、交点エッジ検出手段206、216、226の構成を示したブロック図である。図20に示すように、交点エッジ検出手段206、216、226は論理積演算(AND)および論理和演算(OR)で構成されており、例えば、図23のように注目画素が右上横エッジかつ左下縦エッジの場合、「交点エッジ」として検出される。このように、主に文字を構成する線同士の交点、太文字の端点、折れ線の角付近が検出される。
図24は、文字絵柄識別手段207、217、227の構成を示したブロック図である。太文字(太線)エッジおよび細文字(細線)エッジをそれぞれ識別し、OR295にて太文字エッジまたは細文字エッジであれば文字エッジとして識別する。
太文字エッジの抽出は、補正手段291で行い、その結果を膨張手段292で膨張する。太文字エッジでは、連続エッジ/ペアエッジ/交点エッジのうち、連続エッジと交点エッジが抽出されるはずである。
補正手段291では、5×5の参照領域内の画素全てにおいて連続エッジまたは交点エッジが検出されていれば「1」を出力し、連続エッジでも交点エッジでもない画素が存在する場合は「0」を出力する。
FIG. 20 is a block diagram showing the configuration of the intersection edge detection means 206, 216, 226. As shown in FIG. 20, the intersection edge detection means 206, 216, and 226 are composed of a logical product operation (AND) and a logical sum operation (OR). For example, as shown in FIG. In the case of the lower left vertical edge, it is detected as an “intersection edge”. In this way, mainly the intersections of the lines constituting the characters, the end points of the bold characters, and the corners of the broken lines are detected.
FIG. 24 is a block diagram showing the configuration of the character / picture pattern identifying means 207, 217, 227. A bold character (bold line) edge and a thin character (thin line) edge are identified, respectively, and if it is a bold character edge or a fine character edge, it is identified as a character edge in OR295.
The bold edge extraction is performed by the correction unit 291 and the result is expanded by the expansion unit 292. For a bold edge, a continuous edge and an intersection edge should be extracted from continuous edges / pair edges / intersection edges.
The correcting means 291 outputs “1” if a continuous edge or intersection edge is detected in all the pixels in the 5 × 5 reference region, and “0” if there is a pixel that is neither a continuous edge nor an intersection edge. Is output.

膨張手段292は、5×5画素の補正手段291の結果を参照し、「1」が存在すれば太文字エッジとして抽出する。細文字エッジの抽出は、補正293で補正し、その結果を膨張手段294で膨張する。
細文字エッジでは、連続エッジ/ペアエッジ/交点エッジのうち、ペアエッジと交点エッジが抽出される。
補正手段293では、5×5の参照領域内の画素全てにおいてペアエッジまたは交点エッジが検出されていれば「1」を出力し、ペアエッジでも交点エッジでもない画素が存在する場合は「0」を出力する。膨張手段294は、5×5画素の補正手段293の結果を参照し、「1」が存在すれば細文字エッジとして抽出する。
The expansion unit 292 refers to the result of the correction unit 291 for 5 × 5 pixels, and if “1” exists, extracts it as a bold character edge. The extraction of the fine character edge is corrected by the correction 293, and the result is expanded by the expansion means 294.
In the fine character edge, the pair edge and the intersection edge are extracted from the continuous edge / pair edge / intersection edge.
The correction unit 293 outputs “1” if a pair edge or intersection edge is detected in all the pixels in the 5 × 5 reference region, and outputs “0” if a pixel that is neither a pair edge nor an intersection edge exists. To do. The expansion unit 294 refers to the result of the 5 × 5 pixel correction unit 293, and if “1” exists, extracts it as a fine character edge.

次に、エッジの滑らかさ判定の具体的処理を、網点上文字エッジの場合、網点絵柄中エッジの場合の2つの具体例で説明する。
(エッジの滑らかさ判定の具体例1)
まず、網点上文字エッジの場合におけるエッジの滑らかさ判定について、以下に具体的に説明する。
図25は、網点上文字エッジの2値化後の画像を示した図である。
図26は、図25の画像に対するP1パターンマッチング手段241の結果と横方向画素数カウント手段245の結果であり、左上縦エッジ、および左下縦エッジともに、横方向画素数カウント結果=7が存在するので、抽出結果は「0」になる。
図27は、図25の画像に対するP2パターンマッチング手段242の結果と横方向画素数カウント手段246の結果であり、右上縦エッジ、および右下縦エッジともに、横方向画素数カウント結果=7が存在するので、抽出結果は「0」になる。
図28は、図25の画像に対するP3パターンマッチング手段243の結果と縦方向画素数カウント手段247の結果であり、左上横エッジ、および右上横エッジともに、縦方向画素数カウント結果が全て7未満、かつ、左から右に向かって降順に並んでいるので、抽出結果は「1」になる。
図29は、図25の画像に対するP4パターンマッチング手段244の結果と縦方向画素数カウント手段248の結果であり、左下横エッジ、右下横エッジともに、縦方向画素数カウント結果が全て7未満、かつ、左から右に向かって降順に並んでいるので、抽出結果は「1」になる。
Next, specific processing of edge smoothness determination will be described with two specific examples in the case of a character edge on a halftone dot and the case of a halftone dot pattern edge.
(Specific example 1 of edge smoothness determination)
First, the edge smoothness determination in the case of a character edge on a halftone dot will be specifically described below.
FIG. 25 is a diagram showing an image after binarization of a character edge on a halftone dot.
FIG. 26 shows the result of the P1 pattern matching unit 241 and the result of the horizontal pixel count unit 245 for the image of FIG. 25, and there is a horizontal pixel count result = 7 for both the upper left vertical edge and the lower left vertical edge. Therefore, the extraction result is “0”.
FIG. 27 shows the result of the P2 pattern matching unit 242 and the result of the horizontal pixel count unit 246 for the image of FIG. 25, and there is a horizontal pixel count result = 7 for both the upper right vertical edge and the lower right vertical edge. Therefore, the extraction result is “0”.
FIG. 28 shows the result of the P3 pattern matching unit 243 and the result of the vertical pixel number counting unit 247 for the image of FIG. 25, and the vertical pixel number count result is less than 7 for both the upper left horizontal edge and the upper right horizontal edge. And since it is arranged in descending order from the left to the right, the extraction result is “1”.
FIG. 29 shows the result of the P4 pattern matching unit 244 and the result of the vertical pixel number counting unit 248 for the image of FIG. 25, and the vertical pixel number count result is less than 7 for both the lower left horizontal edge and the lower right horizontal edge. And since it is arranged in descending order from the left to the right, the extraction result is “1”.

以上の各抽出結果から、図25の画像に対するエッジの滑らかさ判定の結果、「滑らかなエッジである」として抽出されるのは、左上横エッジ、右上横エッジ、左下横エッジ、および右下横エッジということになる。
これは連続エッジおよびペアエッジとして検出され、(補正手段293で排除されなければ)最終的に「文字エッジ」として識別される。
As a result of the edge smoothness determination for the image of FIG. 25, the upper left horizontal edge, the upper right horizontal edge, the lower left horizontal edge, and the lower right horizontal are extracted as “smooth edge” as a result of the edge smoothness determination for the image of FIG. It will be an edge.
This is detected as a continuous edge and a pair edge, and finally identified as a “character edge” (unless excluded by the correction means 293).

(エッジの滑らかさ判定の具体例2)
次に、網点絵柄中エッジの場合におけるエッジの滑らかさ判定について、以下に具体的に説明する。
図30は、網点絵柄中エッジの2値化後の画像である。
図31は、図30の画像に対するP1パターンマッチング手段241の結果と横方向画素数カウント手段245の結果である。左上縦エッジは、横方向画素数カウント結果が全て7未満、かつ、上から下に向かって降順に並んでいるので抽出結果は「1」、左下縦エッジは、横方向画素数カウント結果=7が存在するので抽出結果は「0」になる。
(Specific example 2 of edge smoothness determination)
Next, edge smoothness determination in the case of a halftone dot pattern will be specifically described below.
FIG. 30 shows an image after binarization of the halftone dot pattern.
FIG. 31 shows the result of the P1 pattern matching unit 241 and the result of the horizontal pixel number counting unit 245 for the image of FIG. In the upper left vertical edge, the horizontal pixel count results are all less than 7 and are arranged in descending order from top to bottom, so the extraction result is “1”, and the lower left vertical edge is the horizontal pixel count result = 7. Therefore, the extraction result is “0”.

図32は、図30の画像に対するP2パターンマッチング手段242の結果と横方向画素数カウント手段246の結果であり、右上縦エッジは、横方向画素数カウント結果=7が存在するので抽出結果は「0」、右下縦エッジは、横方向画素数カウント結果が全て7未満、かつ、上から下に向かって降順に並んでいるので抽出結果は「1」になる。
図33は、図30の画像に対するP3パターンマッチング手段243の結果と縦方向画素数カウント手段247の結果であり、左上横エッジは、縦方向画素数カウント結果が全て7未満であるが左から右に向かって降順に並んでいないため抽出結果は「0」、右上横エッジは、縦方向画素数カウント結果が全て7未満、かつ、左から右に向かって降順に並んでいるので抽出結果は「1」になる。
図34は、図30の画像に対するP4パターンマッチング手段244の結果と縦方向画素数カウント手段248の結果であり、左下横エッジは、縦方向画素数カウント結果が全て7未満、かつ、左から右に向かって降順に並んでいるので抽出結果は「1」、右下横エッジは、縦方向画素数カウント結果が全て7未満であるが左から右に向かって降順に並んでいないため抽出結果は「0」になる。
FIG. 32 shows the result of the P2 pattern matching unit 242 and the result of the horizontal pixel count unit 246 for the image of FIG. 30. The upper right vertical edge has the horizontal pixel count result = 7, and the extraction result is “ “0” and the lower right vertical edge are all less than 7 in the horizontal pixel count result and are arranged in descending order from top to bottom, so the extraction result is “1”.
FIG. 33 shows the result of the P3 pattern matching unit 243 and the result of the vertical pixel number counting unit 247 for the image of FIG. 30, and the upper left horizontal edge shows that the vertical pixel count results are all less than 7, but from left to right. Since the pixels are not arranged in descending order toward the left, the extraction result is “0”, and the upper right horizontal edge is all less than 7 in the vertical direction pixel count result and is arranged in descending order from left to right. 1 ”.
FIG. 34 shows the result of the P4 pattern matching unit 244 and the result of the vertical pixel number counting unit 248 for the image of FIG. 30, and the lower left horizontal edge shows that the vertical pixel count results are all less than 7 and the left to right The result of extraction is “1” because the pixels are arranged in descending order toward the left, and the lower right horizontal edge has all the vertical pixel count count results of less than 7, but is not arranged in descending order from left to right. It becomes “0”.

以上の各抽出結果から、図30に示す画像に対するエッジの滑らかさ判定の結果、「滑らかなエッジである」として、左上縦エッジ、右下縦エッジ、右上横エッジ、および左下横エッジが抽出される。
これは連続エッジ、ペアエッジ、交点エッジのいずれでもなく、最終結果は文字エッジでないということになる。ここで注目すべきは、左上横エッジと右下横エッジが、参照領域に局所的な凹凸があるため滑らかなエッジでないと判定され抽出されない点であり、これにより絵柄エッジを文字エッジとして誤って識別してしまうことを防いでいる。
From the above extraction results, as a result of the edge smoothness determination for the image shown in FIG. 30, the upper left vertical edge, the lower right vertical edge, the upper right horizontal edge, and the lower left horizontal edge are extracted as “smooth edge”. The
This is not a continuous edge, a pair edge, or an intersection edge, and the final result is not a character edge. It should be noted here that the upper left horizontal edge and the lower right horizontal edge are not extracted because they are judged as non-smooth edges due to local irregularities in the reference area. This prevents it from being identified.

なお、本実施形態では、上述したエッジの滑らかさ判定手段203、213、223、連続エッジ検出手段204、214、224、ペアエッジ検出手段205、215、225、交点エッジ検出手段206、216、226、および文字絵柄識別手段207、217、227から、基本識別手段507、508、509が構成されるものとする。
図35は、補足識別手段501、502、503の構成を示したブロック図である。
補足識別手段501、502、503は、短線・小丸検出手段601、十字パターン検出手段602、T字パターン検出手段603から構成され、注目画素を短線または小丸または十字またはT字部分の画素として検出した場合にOR604にて文字として識別し、「1」を出力する。そして、その他の場合には「0」を出力する。
In the present embodiment, the above-described edge smoothness determination means 203, 213, 223, continuous edge detection means 204, 214, 224, pair edge detection means 205, 215, 225, intersection edge detection means 206, 216, 226, In addition, basic identification means 507, 508, and 509 are constituted by the character and pattern identification means 207, 217, and 227.
FIG. 35 is a block diagram showing the configuration of the supplementary identification means 501, 502, and 503.
The supplementary identification means 501, 502, and 503 are composed of a short line / small circle detection means 601, a cross pattern detection means 602, and a T-shaped pattern detection means 603, and detect the pixel of interest as a short line, small circle, cross, or T-shaped pixel. In this case, it is identified as a character by OR 604 and “1” is output. In other cases, “0” is output.

基本識別手段507、508、509では、所定画素数以上の連続する文字エッジを検出しているため、孤立して存在する短い線は文字として識別できない。
また、基本識別手段507、508、509では、所定画素数以上の連続する縦エッジ、横エッジのみを検出しているため、曲率の大きな小さい丸などの文字部分などは識別できないという問題がある。
そこで、短線・小丸検出手段601では、曲率の大きな丸型形状を検出することを可能とする。このように、補足識別手段501、502、503は、基本識別手段507、508、509とは異なり、文字の画素数が識別処理に必要な所定画素数に満たなくなった場合でも識別処理を行うことができる。
Since the basic identification means 507, 508, and 509 detect continuous character edges of a predetermined number of pixels or more, short lines that exist in isolation cannot be identified as characters.
In addition, since the basic identification means 507, 508, and 509 detect only continuous vertical edges and horizontal edges of a predetermined number of pixels or more, there is a problem that character portions such as small circles with large curvatures cannot be identified.
Therefore, the short line / small circle detecting means 601 can detect a round shape having a large curvature. Thus, unlike the basic identification means 507, 508, and 509, the supplementary identification means 501, 502, and 503 perform the identification process even when the number of pixels of the character is less than the predetermined number of pixels necessary for the identification process. Can do.

図36は、短線・小丸検出手段601の構成を示したブロック図である。
縦方向連続白画素抽出手段604は、図37に示すパターンに適合する場合に「1」を出力する。
横方向連続白画素抽出手段605は、図38に示すパターンに適合する場合に「1」を出力する。
斜め方向連続白画素抽出手段606は、図39のいずれかのパターンに適合する場合に「1」を出力する。
斜め方向連続白画素抽出手段607は、図40のいずれかのパターンに適合する場合に「1」を出力する。
縦方向連続白画素抽出手段604、横方向連続白画素抽出手段605、斜め方向連続白画素抽出手段606、および斜め方向連続白画素抽出手段607では、いずれも中心が注目画素であり、出力は注目画素に対する抽出結果として行い、適合しない場合には「0」を出力する。
次に、白画素で囲まれている領域の抽出手段608では、以下の条件(1)〜(4)が全て成立する場合に、白画素で囲まれている領域とみなして「1」を出力し、成立しない場合には「0」を出力する。
(1)図41のa1、a2、a3とb1、b2、b3に各1つ以上、縦方向連結白画素抽出手段604での出力「1」の画素がある。
(2)図41のc1、c2、c3とd1、d2、d3に各1つ以上、横方向連結白画素抽出手段605での出力「1」の画素がある。
(3)図41のe1、e2、e3とf1、f2、f3に各1つ以上、斜め方向連結白画素抽出手段606での出力「1」の画素がある。
(4)図41のg1、g2、g3とh1、h2、h3に各1つ以上、斜め方向連結白画素抽出手段607での出力「1」の画素がある。
FIG. 36 is a block diagram showing the configuration of the short line / small circle detecting means 601.
The vertical continuous white pixel extracting means 604 outputs “1” when the pattern matches the pattern shown in FIG.
The horizontal continuous white pixel extracting means 605 outputs “1” when the pattern matches the pattern shown in FIG.
The diagonally continuous white pixel extracting means 606 outputs “1” when it matches any of the patterns in FIG.
The diagonal direction continuous white pixel extracting means 607 outputs “1” when it matches any of the patterns in FIG.
In the vertical continuous white pixel extracting unit 604, the horizontal continuous white pixel extracting unit 605, the diagonal continuous white pixel extracting unit 606, and the diagonal continuous white pixel extracting unit 607, the center is the target pixel, and the output is the target. This is performed as an extraction result for the pixel, and “0” is output when the result does not match.
Next, in the region extraction unit 608 surrounded by white pixels, if all of the following conditions (1) to (4) are satisfied, the region extraction unit 608 outputs “1” as a region surrounded by white pixels. If it does not hold, “0” is output.
(1) One or more of a1, a2, a3 and b1, b2, b3 in FIG. 41 each have a pixel of output “1” from the vertically connected white pixel extracting means 604.
(2) One or more of c1, c2, c3 and d1, d2, d3 in FIG. 41 each have a pixel of output “1” from the laterally connected white pixel extracting means 605.
(3) One or more of e1, e2, e3 and f1, f2, f3 in FIG. 41 each have a pixel of output “1” from the diagonally connected white pixel extracting means 606.
(4) One or more of each of g1, g2, g3 and h1, h2, h3 in FIG. 41 has a pixel of output “1” from the diagonally connected white pixel extracting means 607.

図43は、黒画素塊カウント手段609における注目画素に隣接する黒画素の画素数をカウントする処理手順を示したフローチャートである。
まず、黒画素塊カウント手段609は、注目画素e[0][0]が黒画素か否かの判断を行う(ステップ5)。
そして、注目画素e[0][0]が黒画素である場合(ステップ5;Y)、x=y=0における画素のカウントを1として設定する(ステップ10)。
次に、注目画素からx+1の隣接する画素を認識し(ステップ15)、xが8以下の画素であるかを判断する(ステップ20)。xが8以下である場合(ステップ20;Y)、e[x][0]を隣接画素として、隣接画素e[x][0]が黒画素か否かを判断する(ステップ25)。
隣接画素e[x][0]が黒画素である場合(ステップ25;Y)、カウント数に1を加える(ステップ30)。
FIG. 43 is a flowchart showing a processing procedure for counting the number of black pixels adjacent to the target pixel in the black pixel block counting means 609.
First, the black pixel block counting unit 609 determines whether or not the target pixel e [0] [0] is a black pixel (step 5).
When the target pixel e [0] [0] is a black pixel (step 5; Y), the pixel count at x = y = 0 is set to 1 (step 10).
Next, x + 1 adjacent pixels are recognized from the target pixel (step 15), and it is determined whether x is a pixel of 8 or less (step 20). When x is 8 or less (step 20; Y), e [x] [0] is set as an adjacent pixel, and it is determined whether or not the adjacent pixel e [x] [0] is a black pixel (step 25).
When the adjacent pixel e [x] [0] is a black pixel (step 25; Y), 1 is added to the count number (step 30).

次に、yに1加算し(ステップ35)、(x=奇数かつy≦3)または(x=偶数かつy≦1)の条件を満たす隣接画素を抽出する(ステップ40)。
条件を満たす隣接画素が抽出された場合(ステップ40;Y)、ステップ40で抽出された画素が黒画素か否かを判断し(ステップ45)、黒画素である場合(ステップ45;Y)、外側の画素e[x][y]が黒画素であるとして、カウント数に1を加算して(ステップ50)、前述のステップ35へリターンする。
また、ステップ40において、条件を満たす隣接画素が抽出されなかった場合にはy=0として(ステップ55)ステップ20にリターンし、さらに、ステップ20において条件を満たす画素が無い場合には(ステップ20;N)、黒画素塊カウント手段609は、黒画素の画素数をカウントする処理を終了する。
Next, 1 is added to y (step 35), and adjacent pixels satisfying the condition of (x = odd number and y ≦ 3) or (x = even number and y ≦ 1) are extracted (step 40).
When adjacent pixels satisfying the condition are extracted (step 40; Y), it is determined whether or not the pixel extracted in step 40 is a black pixel (step 45). If it is a black pixel (step 45; Y), Assuming that the outer pixel e [x] [y] is a black pixel, 1 is added to the count number (step 50), and the process returns to step 35 described above.
If no adjacent pixel satisfying the condition is extracted in step 40, y = 0 is set (step 55), and the process returns to step 20. Further, if there is no pixel satisfying the condition in step 20 (step 20). N), the black pixel block counting means 609 ends the process of counting the number of black pixels.

短線用黒画素塊判定手段610は、注目画素の黒画素塊カウントの結果が予め設定した所定閾値(8〜12くらいの値に設定)以上であれば、短線の黒画素塊であると判定して「1」を出力し、所定閾値未満であれば「0」を出力する。
小丸用黒画素塊判定手段612は、黒画素塊カウント手段609での出力結果が図40に示す注目画素Eが0(つまり注目画素が白画素)であり、かつ、図44に示す画素A、B、C、Dで予め設定した所定閾値以上であれば、小丸の黒画素塊であると判定して「1」を出力し、所定閾値未満であれば「0」を出力する。
小丸用黒画素塊判定手段612は、中心画素に白がありその周りにドーナツ状に黒塊が存在する画素を抽出する。
小丸用黒画素塊判定手段612の判定における所定閾値は、短線用黒画素塊判定手段610における所定閾値より2〜4程度小さい値に設定すると良い。
If the result of the black pixel block count of the target pixel is equal to or greater than a predetermined threshold value (set to a value of about 8 to 12), the short line black pixel block determination unit 610 determines that it is a short line black pixel block. "1" is output, and if it is less than the predetermined threshold, "0" is output.
The black pixel block determining unit 612 for small circles outputs the output result from the black pixel block counting unit 609 when the target pixel E shown in FIG. 40 is 0 (that is, the target pixel is a white pixel), and the pixel A, If it is greater than or equal to a predetermined threshold value set in advance in B, C, and D, it is determined that it is a small black pixel block, and “1” is output.
The small circle black pixel block judging means 612 extracts a pixel in which white is present in the central pixel and a black block is present in a donut shape around it.
The predetermined threshold in the determination by the small circle black pixel block determining unit 612 may be set to a value that is about 2 to 4 smaller than the predetermined threshold in the short line black pixel block determining unit 610.

AND613は、短線用黒画素塊判定手段610の出力結果、および白画素塊で囲まれている領域の抽出手段608の結果が共に「1」である場合に「1」を出力する。
これにより、白画素に囲まれた黒塊を抽出することができる。
なお、遅延調整手段611は、注目ラインの位置を同期させるため、短線用黒画素塊判定手段610の結果を3ライン遅延させ、AND613へと入力する。
膨張手段615は、注目画素の周辺13×13画素を参照し、1つでもAND613に「1」が入力された場合に、「1」を出力する。
The AND 613 outputs “1” when the output result of the short line black pixel block determination unit 610 and the result of the extraction unit 608 of the region surrounded by the white pixel block are both “1”.
Thereby, a black block surrounded by white pixels can be extracted.
The delay adjusting unit 611 delays the result of the short line black pixel block determining unit 610 by three lines and inputs the result to the AND 613 in order to synchronize the position of the target line.
The expansion unit 615 refers to the 13 × 13 pixels around the pixel of interest, and outputs “1” when “1” is input to the AND 613 at least.

AND614は、小丸用黒画素塊判定手段612の出力結果と白画素塊で囲まれている領域の抽出手段608の結果が共に「1」であるときに「1」を出力し、それ以外の場合は「0」を出力する。
つまり、中心に白画像があり、その周りにドーナツ状に黒塊が存在しさらにその外側が白で囲まれている画素を判定することができる。
膨張手段616は、注目画素の周辺13×13画素を参照し、1つでもAND614に「1」が入力された場合に、「1」を出力する。
The AND 614 outputs “1” when both the output result of the black pixel block determining unit 612 for small circles and the result of the extracting unit 608 of the area surrounded by the white pixel block are “1”, otherwise Outputs “0”.
That is, it is possible to determine a pixel in which a white image is present at the center, a black lump is present around the white image, and the outside is surrounded by white.
The expansion means 616 refers to the surrounding 13 × 13 pixels of the target pixel, and outputs “1” when “1” is input to the AND 614 at least.

黒孤立点抽出手段620は、以下の(1)〜(8)の条件が全て成り立つ場合に、注目画素を黒孤立点画素とみなして「1」を出力する。
そして、1つでも成り立たない場合には、「0」を出力する。
(1)図45に示す(a−1)または(a−2)のパターンに適合する。
(2)図45に示す(b−1)または(b−2)のパターンに適合する。
(3)図45に示す(c−1)または(c−2)のパターンに適合する。
(4)図45に示す(d−1)または(d−2)のパターンに適合する。
(5)図45に示す(e−1)または(e−2)のパターンに適合する。
(6)図45に示す(f−1)または(f−2)のパターンに適合する。
(7)図45に示す(g−1)または(g−2)のパターンに適合する。
(8)図45に示す(h−1)または(h−2)のパターンに適合する。
なお、図45のパターンは、中心を全て注目画素として設定している。
The black isolated point extracting unit 620 regards the target pixel as a black isolated point pixel and outputs “1” when all of the following conditions (1) to (8) are satisfied.
If even one does not hold, “0” is output.
(1) It conforms to the pattern (a-1) or (a-2) shown in FIG.
(2) It conforms to the pattern (b-1) or (b-2) shown in FIG.
(3) It conforms to the pattern (c-1) or (c-2) shown in FIG.
(4) It conforms to the pattern (d-1) or (d-2) shown in FIG.
(5) It conforms to the pattern (e-1) or (e-2) shown in FIG.
(6) It conforms to the pattern (f-1) or (f-2) shown in FIG.
(7) It conforms to the pattern (g-1) or (g-2) shown in FIG.
(8) It conforms to the pattern (h-1) or (h-2) shown in FIG.
In the pattern of FIG. 45, all the centers are set as the target pixel.

白孤立点抽出手段619は、以下の(1)〜(8)の条件のうち少なくとも6つが成り立つ場合に、注目画素を白孤立点画素とみなして「1」を出力し、1つでも成り立たない場合には「0」を出力する。
ここで、少なくとも連続する6つが成り立つ場合とは、以下の(1)(2)以外の全てが成立、または、以下の(2)(3)以外の全てが成立、または、以下の(3)(4)以外の全てが成立、または、以下の(4)(5)以外の全てが成立、または、以下の(5)(6)以外の全てが成立、または、以下の(6)(7)以外の全てが成立、または、以下の(7)(8)以外の全てが成立、または、以下の(1)(8)以外の全てが成立することである。
(1)図46の(a−1)または(a−2)のパターンに適合する。
(2)図46の(b−1)または(b−2)のパターンに適合する。
(3)図46の(c−1)または(c−2)のパターンに適合する。
(4)図46の(d−1)または(d−2)のパターンに適合する。
(5)図46の(e−1)または(e−2)のパターンに適合する。
(6)図46の(f−1)または(f−2)のパターンに適合する。
(7)図46の(g−1)または(g−2)のパターンに適合する。
(8)図46の(h−1)または(h−2)のパターンに適合する。
なお、図46のパターンは、中心を全て注目画素として設定している。
The white isolated point extracting unit 619 outputs “1” by regarding the target pixel as the white isolated point pixel when at least six of the following conditions (1) to (8) are satisfied, and even one of them is not satisfied. In this case, “0” is output.
Here, the case where at least six consecutive conditions are satisfied means that all but (1) and (2) below are satisfied, or all but (2) and (3) below are satisfied, or the following (3) All except for (4) are established, all of the following (4) and (5) are established, or all of the following (5) and (6) are established, or the following (6) (7 All other than (7) and (8) below are established, or all other than (1) and (8) below are established.
(1) It conforms to the pattern of (a-1) or (a-2) in FIG.
(2) It conforms to the pattern of (b-1) or (b-2) in FIG.
(3) It conforms to the pattern of (c-1) or (c-2) in FIG.
(4) It conforms to the pattern of (d-1) or (d-2) in FIG.
(5) It conforms to the pattern of (e-1) or (e-2) in FIG.
(6) It conforms to the pattern (f-1) or (f-2) in FIG.
(7) It conforms to the pattern (g-1) or (g-2) in FIG.
(8) It conforms to the pattern of (h-1) or (h-2) in FIG.
In the pattern of FIG. 46, all the centers are set as the target pixel.

白孤立点抽出手段619は、図47の白孤立点(1)だけでなく、白孤立点(2)のような完全に黒に囲まれてはいないがコの字形状のものも含めて白孤立点とされたものを判定することができる。
チェッカーパターン抽出手段621は、図48に示すパターンに適合する場合に、チェッカーパターン画素として「1」を出力する。
いずれも中心が注目画素であり、出力は注目画素に対する抽出結果である。適合しない場合は「0」を出力する。
短線用絵柄領域判定手段622は、11×11画素内の黒孤立点、白孤立点、チェッカーパターン画素の画素数を各々カウントし、黒孤立点の画素が予め設定した所定数(0〜2程度)以上、白孤立点の画素が1つ以上、または、チェッカーパターン画素が1つ以上存在する場合に、絵柄領域であるとして「1」を出力し、その他の場合には「0」を出力する。
The white isolated point extracting means 619 includes not only the white isolated point (1) in FIG. 47 but also white that includes a U-shaped shape that is not completely surrounded by black, such as the white isolated point (2). It is possible to determine an isolated point.
The checker pattern extraction unit 621 outputs “1” as the checker pattern pixel when it matches the pattern shown in FIG.
In either case, the center is the target pixel, and the output is the extraction result for the target pixel. If it does not match, “0” is output.
The short line picture area determination means 622 counts the number of black isolated points, white isolated points, and checker pattern pixels within 11 × 11 pixels, and a predetermined number (about 0 to 2) of pixels of black isolated points is preset. ) As described above, when there are one or more pixels of white isolated points or one or more checker pattern pixels, “1” is output as a pattern area, and “0” is output in other cases. .

短線用絵柄領域判定手段622は、短線検出における絵柄部での誤検出をキャンセルするためのものであり、濁点等では図43に示す白孤立点やチェッカーパターンが存在しないことを利用している。
黒孤立点も2値化手段202、212、222で精度良く背景領域を白画素に変換できれば存在しないが、変換の際に判定基準を緩める場合があり、黒孤立点が残り点在することがある。
膨張手段624は、13×13画素内に短線用絵柄領域判定手段622の出力「1」が1つでも存在すれば「1」として出力する。1つも存在しない場合には「0」を出力する。
The short line picture area determination means 622 is for canceling erroneous detection in the picture part in the short line detection, and utilizes the fact that there is no white isolated point or checker pattern shown in FIG.
Black isolated points do not exist as long as the binarization means 202, 212, and 222 can accurately convert the background area into white pixels, but the criteria may be relaxed during the conversion, and there may be remaining black isolated points. is there.
The expansion means 624 outputs “1” as long as there is at least one output “1” of the short line picture area determination means 622 within 13 × 13 pixels. If none exists, “0” is output.

小丸用絵柄領域判定手段623は、11×11画素内の黒孤立点、チェッカーパターン画素の画素数を各々カウントし、黒孤立点の画素が予め設定した所定数(0〜2程度)以上、または、チェッカーパターン画素が1つ以上存在する場合に、絵柄領域であるとして「1」を出力し、その他の場合は「0」を出力する。
短線同様に、小丸検出における絵柄部での誤検出をキャンセルするためのものである。
膨張手段625では13×13画素内に小丸用絵柄領域判定手段623の出力「1」が1つでも存在すれば「1」を出力する。1つも存在しない場合には「0」を出力する。
AND617では、膨張手段615の出力が「1」、かつ、反転手段626の出力が「1」(=膨張手段624の出力が「1」)の場合に、孤立して存在する白に囲まれた短線であるとして「1」を出力し、それ以外の場合は「0」を出力する。
AND618では、膨張手段616の出力が「1」、かつ、反転手段627の出力が「1」(=膨張手段625の出力が「1」)の場合に、孤立して存在する白に囲まれた小丸であるとして「1」を出力し、それ以外の場合は0を出力する。
The small circle picture area determination means 623 counts the number of black isolated points and checker pattern pixels within 11 × 11 pixels, and the number of black isolated point pixels is equal to or greater than a predetermined number (about 0 to 2), or When there is one or more checker pattern pixels, “1” is output as a picture area, and “0” is output in other cases.
Similar to the short line, this is for canceling erroneous detection in the pattern portion in small circle detection.
The expansion means 625 outputs “1” if there is at least one output “1” of the small circle picture area determination means 623 within 13 × 13 pixels. If none exists, “0” is output.
In the AND 617, when the output of the expansion means 615 is “1” and the output of the inverting means 626 is “1” (= the output of the expansion means 624 is “1”), the AND 617 is surrounded by white that exists in isolation. “1” is output as a short line, and “0” is output otherwise.
In the AND 618, when the output of the expansion means 616 is “1” and the output of the inverting means 627 is “1” (= the output of the expansion means 625 is “1”), the AND 618 is surrounded by white that exists in isolation. “1” is output as a small circle, and 0 is output otherwise.

図49は、十字パターン検出手段602の構成を示したブロック図である。基本識別手段507、508、509では所定画素数以上の連続する文字エッジを検出しているため、混み入った形状の文字内部に存在する短い縦線と横線が十字に交わる部分が文字として識別できない。それを検出するためのものである。
縦方向黒画素パターンマッチング手段628は、図50に示すパターンに適合する場合に、縦方向の黒画素であるとして注目画素の出力「1」とし、横方向黒画素パターンマッチング手段629は、図51に示すパターンに適合する場合に、横方向の黒画素であるとして注目画素の出力「1」とし、適合しない場合には「0」を出力する。
縦方向白画素パターンマッチング手段630は、図52に示すパターンに適合する場合に、縦方向の白画素であるとして「1」を出力し、横方向白画素パターンマッチング手段631は、図53に示すパターンに適合する場合に、横方向の白画素であるとして「1」を出力する。
いずれも中心が注目画素であり、出力は注目画素に対する抽出結果である。適合しない場合は「0」を出力する。
FIG. 49 is a block diagram showing the configuration of the cross pattern detecting means 602. As shown in FIG. Since the basic identification means 507, 508, and 509 detect a continuous character edge of a predetermined number of pixels or more, a portion where a short vertical line and a horizontal line cross inside a crowded character cannot be identified as a character. . It is for detecting it.
When the vertical black pixel pattern matching unit 628 matches the pattern shown in FIG. 50, the vertical black pixel pattern matching unit 629 sets the pixel of interest output “1” as a vertical black pixel, and the horizontal black pixel pattern matching unit 629 If it matches the pattern shown in FIG. 4, the pixel of interest is output “1” as a black pixel in the horizontal direction, and “0” is output if it does not match.
If the vertical white pixel pattern matching unit 630 matches the pattern shown in FIG. 52, the vertical white pixel pattern matching unit 631 outputs “1” as the vertical white pixel, and the horizontal white pixel pattern matching unit 631 shows that shown in FIG. If it matches the pattern, “1” is output as white pixels in the horizontal direction.
In either case, the center is the target pixel, and the output is the extraction result for the target pixel. If it does not match, “0” is output.

縦線の線幅カウント手段632では、縦方向の黒A画素が注目画素を含んで横に何画素連続しているかをカウントする。
図50に示す黒棒パターンが縦に何画素連続しているかをカウントすることが可能であり、縦線の幅を検出することができる。横線の線幅カウント手段633では、横方向の黒画素が注目画素を含んで縦に何画素連続しているかをカウントすることができる。
図51に示す黒棒パターンが横に何画素連続しているかを数えて幅を検出することができる。
The vertical line width counting means 632 counts the number of continuous black A pixels in the vertical direction including the target pixel.
It is possible to count how many pixels the black bar pattern shown in FIG. 50 continues vertically, and to detect the width of the vertical line. The horizontal line width counting means 633 can count the number of vertical black pixels including the target pixel in the vertical direction.
The width can be detected by counting how many pixels the black bar pattern shown in FIG.

図56は、縦線の線幅カウント手段632、および黒画素塊カウント手段609における縦方向および横方向に連続した黒画素の画素数をカウントする処理手順を示したフローチャートである。
図56のフローチャートに従って、黒画素塊カウント手段609における縦方向および横方向に連続した黒画素の画素数をカウントする処理手順を説明する。
まず、図54に示す注目画素d[0]が、黒画素であるか否かを判断する(ステップ100)。
注目画素が黒画素である場合(ステップ100;Y)、図50に示す注目画素に隣接する2方向に対して、それぞれ黒画素のカウントを行う(ステップ105)。
まず、mの正方向については、カウントに必要な画素d[m]を認識し現在のm数に1を加え(ステップ110)、mが6以内の画素であるかを判断する(ステップ115)。
そして、画素d[m]が黒画素か否かを判断し(ステップ120)、黒画素である場合に(ステップ120;Y)、カウント数に1を加える(ステップ125)。
FIG. 56 is a flowchart showing the processing procedure for counting the number of black pixels continuous in the vertical and horizontal directions in the vertical line width counting means 632 and the black pixel block counting means 609.
A processing procedure for counting the number of black pixels continuous in the vertical and horizontal directions in the black pixel block counting means 609 will be described with reference to the flowchart of FIG.
First, it is determined whether or not the target pixel d [0] shown in FIG. 54 is a black pixel (step 100).
If the target pixel is a black pixel (step 100; Y), the black pixel is counted in each of the two directions adjacent to the target pixel shown in FIG. 50 (step 105).
First, for the positive direction of m, the pixel d [m] necessary for counting is recognized, 1 is added to the current m number (step 110), and it is determined whether m is a pixel within 6 (step 115). .
Then, it is determined whether or not the pixel d [m] is a black pixel (step 120). When the pixel d [m] is a black pixel (step 120; Y), 1 is added to the count number (step 125).

一方、mの負方向については、カウントに必要な画素d[m]を認識し現在のm数に1を減じて(ステップ130)、mが−6以内の画素であるかを判断する(ステップ135)。そして、画素d[m]が黒画素か否かを判断し(ステップ140)、黒画素である場合に(ステップ140;Y)、カウント数に1を加える(ステップ145)。
そして、mが6を越えた場合、またはmが−6を下回った場合に(ステップ115;N、およびステップ135;N)ステップ125およびステップ145でカウントしたカウント値を合計し、1を加えて最終的なカウント値とする(ステップ150)。そして得られた最終的なカウント値をBk_t値として設定する(ステップ155)。
On the other hand, for the negative direction of m, the pixel d [m] necessary for counting is recognized and 1 is subtracted from the current m number (step 130) to determine whether m is a pixel within -6 (step 130). 135). Then, it is determined whether or not the pixel d [m] is a black pixel (step 140). When the pixel d [m] is a black pixel (step 140; Y), 1 is added to the count number (step 145).
When m exceeds 6, or when m is less than −6 (step 115; N and step 135; N), the count values counted in step 125 and step 145 are summed, and 1 is added. A final count value is set (step 150). The final count value obtained is set as the Bk_t value (step 155).

十字用白領域間の距離算出手段634、635は、それぞれ縦方向、または横方向の白画素が入力され、図53に示す以下の(1)〜(4)に示す白A画素間の距離を算出する。
(1)領域<1>に存在する白A画素と、領域<2>に存在する白A画素との距離L1
(2)領域<3>に存在する白A画素と、領域<4>に存在する白A画素との距離L2
(3)領域<1>に存在する白A画素と、領域<3>に存在する白A画素との距離L3
(4)領域<2>に存在する白A画素と、領域<4>に存在する白A画素との距離L4
ただし、距離を算出する白A画素同士は同一行あるいは同一列上に存在するものに限る。また、中心の行または列に近いものでその条件に合致するものがあれば優先する。
The distance calculation means 634 and 635 between the white areas for crosses are inputted with white pixels in the vertical direction or the horizontal direction, respectively, and calculate the distance between the white A pixels shown in the following (1) to (4) shown in FIG. calculate.
(1) Distance L1 between the white A pixel existing in the region <1> and the white A pixel existing in the region <2>
(2) The distance L2 between the white A pixel existing in the region <3> and the white A pixel existing in the region <4>
(3) The distance L3 between the white A pixel existing in the region <1> and the white A pixel existing in the region <3>
(4) Distance L4 between the white A pixel existing in the region <2> and the white A pixel existing in the region <4>
However, the white A pixels for calculating the distance are limited to those existing on the same row or the same column. Also, if there is something close to the center row or column that matches the condition, priority is given.

図58は、十字用白領域間の距離算出手段634、635の処理について説明したフローチャートである。図58のフローチャートに従って、十字用白領域間の距離算出手段634、635の処理手順を説明する。
まず、図57に示すh=1の行に移動し(ステップ200)、2点のm値をm1=0、m2=0に設定し(ステップ205)、m1のm値を1減算し(ステップ210)、m1が−5以上かの判断を行う(ステップ215)。ステップ215で判断の結果、上回る場合には(ステップ215;Y)、m1の列に黒画素があるか判断を行う(ステップ220)。
FIG. 58 is a flowchart illustrating the processing of the distance calculation means 634 and 635 between the white areas for crosses. A processing procedure of the distance calculation means 634 and 635 between the white areas for crosses will be described with reference to the flowchart of FIG.
First, it moves to the row of h = 1 shown in FIG. 57 (step 200), sets m values of two points to m1 = 0 and m2 = 0 (step 205), and subtracts 1 from the m value of m1 (step 200). 210), whether m1 is −5 or more is determined (step 215). If the result of determination in step 215 is greater (step 215; Y), it is determined whether there is a black pixel in the column m1 (step 220).

次に、ステップ220で黒画素がある場合に(ステップ220;Y)、m2のm値に1加算し(ステップ225)、m2が5以上かの判断を行う(ステップ230)。判断の結果下回る場合には(ステップ230;Y)、m2の列に黒画素があるか判断を行う(ステップ235)。ステップ235で黒画素がある場合に(ステップ235;Y)、距離L1を|m1|と|m2|とを加算して算出する(ステップ240)。
また、ステップ215およびステップ230で、m1が−5を下回り、m2が5を上回る場合(ステップ215;N、およびステップ230;N)、h+1の行へ移動して(ステップ250)、hが5以下であるかを判断する(ステップ255)。hが5以下である場合にはステップ205にリターンし(ステップ255;Y)、hが5を越える場合には
、距離L1を0に設定する(ステップ260)。
Next, when there is a black pixel in step 220 (step 220; Y), 1 is added to the m value of m2 (step 225), and it is determined whether m2 is 5 or more (step 230). If the result of determination is below (step 230; Y), it is determined whether there is a black pixel in the column m2 (step 235). If there is a black pixel in step 235 (step 235; Y), the distance L1 is calculated by adding | m1 | and | m2 | (step 240).
In step 215 and step 230, if m1 is less than −5 and m2 is greater than 5 (step 215; N and step 230; N), the process moves to the line h + 1 (step 250), and h is 5 It is determined whether the following is true (step 255). If h is 5 or less, the process returns to step 205 (step 255; Y), and if h exceeds 5, the distance L1 is set to 0 (step 260).

十字判定手段636、および十字判定手段637は、以下の条件(1)〜(3)が全て成立する場合に、十字部の画素であると判定して「1」を出力し、それ以外の場合には「0」を出力する。
(1)縦線の線幅(Bk_t)≠0、かつ、横線の線幅(Bk_y)≠0、かつ、白領域間の距離4つ(L1、L2、L3、L4)が全て0でない。
(2)縦線および横線の線幅が概ね一定:|L1−L2|<th1、かつ、|L3−L4|<th1である。
(3)白A画素と白A画素の間は縦線または横線が存在:min(L1−L2)≦(Bk_t+th2)、かつ、min(L3−L4)≦(Bk_y+th2)である。
ここで、th1およびth2は予め設定した所定の閾値であり、判定基準に若干の許容分を持たせるためのものである。2〜4程度の小さい値に設定しておく。
The cross determination unit 636 and the cross determination unit 637 determine that the pixel is a cross pixel when all of the following conditions (1) to (3) are satisfied, and output “1”, otherwise "0" is output to.
(1) Vertical line width (Bk_t) ≠ 0, horizontal line width (Bk_y) ≠ 0, and four distances between white areas (L1, L2, L3, L4) are not all zero.
(2) The line widths of the vertical and horizontal lines are substantially constant: | L1-L2 | <th1 and | L3-L4 | <th1.
(3) A vertical line or a horizontal line exists between the white A pixel and the white A pixel: min (L1−L2) ≦ (Bk_t + th2) and min (L3−L4) ≦ (Bk_y + th2).
Here, th1 and th2 are predetermined threshold values set in advance, and are for giving a slight allowance to the criterion. It is set to a small value of about 2 to 4.

十字判定手段636では、図59(a)のように白A画素が縦長(特に1ドット幅)で存在する場合でも十字パターン部を検出することができる。
そして、十字判定手段637では、図59(b)のように白A画素が横長(特に1ドット幅)で存在する場合であっても十字パターン部を検出することが可能である。
図60は、図59(a)の中心の十字パターン部を拡大した図である。白領域間の距離L1、L2、L3、L4、および、縦線の線幅Bk_tと横線の線幅Bk_yは、図59(a)の十字パターン部における図示した部分の距離に相当する。
十字判定手段636、または十字判定手段637にて十字部の画素であると判定された場合、OR638にて「1」を出力し、膨張手段639にて15×15画素内に1つでも「1」が存在する場合には、注目画素を最終的に十字パターン画素であるとみなして「1」を出力する。
The cross determination means 636 can detect the cross pattern portion even when the white A pixel is vertically long (particularly 1 dot width) as shown in FIG.
The cross determination means 637 can detect the cross pattern portion even when the white A pixel is horizontally long (particularly, one dot width) as shown in FIG.
FIG. 60 is an enlarged view of the cross pattern portion at the center of FIG. The distances L1, L2, L3, and L4 between the white areas, and the line width Bk_t of the vertical line and the line width Bk_y of the horizontal line correspond to the distances of the illustrated portions in the cross pattern portion of FIG.
When the cross determining unit 636 or the cross determining unit 637 determines that the pixel is a cross portion pixel, the OR 638 outputs “1”, and the dilating unit 639 outputs “1” within 15 × 15 pixels. "Is present, the target pixel is finally regarded as a cross pattern pixel, and" 1 "is output.

図61は、T字パターン検出手段603の構成を示したブロック図である。基本識別手段507、508、509では所定画素数以上の連続する文字エッジを検出しているため、混み入った形状の文字内部に存在する縦線と横線がT字に交わり、どちらかの方向の線が短い場合等は文字として識別できない。以下にT字パターン検出手段603の各構成について詳細に説明する。
縦方向黒画素パターンマッチング手段640、横方向黒画素パターンマッチング手段643、縦方向白画素パターンマッチング手段644、横方向白画素パターンマッチング手段646、縦線の線幅カウント手段648、横線の線幅カウント手段649は、十字パターン検出手段602と構成が同様であり、説明を省略する。
縦方向黒画素パターンマッチング手段642は、図62に示すパターンに適合する場合に、注目画素の出力を「1」とする。横方向黒画素パターンマッチング手段641は、図63に示すパターンに適合する場合に、黒画素であるとして注目画素の出力を「1」とする。適合しない場合は0を出力する。
FIG. 61 is a block diagram showing a configuration of the T-shaped pattern detection means 603. As shown in FIG. Since the basic identification means 507, 508, and 509 detect a continuous character edge of a predetermined number of pixels or more, the vertical line and the horizontal line existing inside the crowded character intersect with the T-shape, and either direction If the line is short, it cannot be identified as a character. Below, each structure of the T-shaped pattern detection means 603 is demonstrated in detail.
Vertical black pixel pattern matching means 640, horizontal black pixel pattern matching means 643, vertical white pixel pattern matching means 644, horizontal white pixel pattern matching means 646, vertical line width counting means 648, horizontal line width counting The means 649 has the same configuration as the cross pattern detection means 602 and will not be described.
The vertical black pixel pattern matching unit 642 sets the output of the pixel of interest to “1” when it matches the pattern shown in FIG. The horizontal black pixel pattern matching unit 641 sets the output of the pixel of interest to “1” as a black pixel when it matches the pattern shown in FIG. If it does not match, 0 is output.

縦方向白画素パターンマッチング手段645は、図64に示すパターンに適合する場合に注目画素の出力を「1」とし、横方向白画素パターンマッチング手段647は、図65に示すパターンに適合する場合に、白B画素であるとして注目画素の出力を「1」とする。適合しない場合は「0」を出力する。
縦線の線幅カウント手段648、および横線の線幅カウント手段651は、十字パターン検出手段602の縦線の線幅カウント手段632、横線の線幅カウント手段633と同様の構成であるため、説明を省略する。
ただし、縦線の線幅カウント648、横線の線幅カウント651の参照領域は、図54、図55のd[−3]〜d[3]であるので、その点だけ異なる。図56の線幅カウントのフロー図において、660と661の条件分岐式をm≧−3とm≦3に変更して適用する。
The vertical white pixel pattern matching unit 645 sets the output of the target pixel to “1” when it matches the pattern shown in FIG. 64, and the horizontal white pixel pattern matching unit 647 matches the pattern shown in FIG. The output of the pixel of interest is “1”, assuming that it is a white B pixel. If it does not match, “0” is output.
The vertical line width counting unit 648 and the horizontal line width counting unit 651 have the same configuration as the vertical line width counting unit 632 and the horizontal line width counting unit 633 of the cross pattern detection unit 602, and therefore will be described. Is omitted.
However, the reference areas of the vertical line width count 648 and the horizontal line width count 651 are d [−3] to d [3] in FIG. 54 and FIG. In the line width count flow diagram of FIG. 56, the conditional branching expressions of 660 and 661 are changed to m ≧ −3 and m ≦ 3 and applied.

縦方向T字用白領域間の距離算出手段652は、縦方向の白A画素と白B画素を入力して、図66に示す以下(1)〜(4)の距離を算出する。
(1)領域<1>に存在する白A画素と領域<3>に存在する白A画素の距離L3
(2)領域<2>に存在する白A画素と領域<4>に存在する白A画素の距離L4
(3)領域<5>に存在する白B画素とL4≠0が算出された列との距離L5
(4)領域<6>に存在する白B画素とL3≠0が算出された列との距離L6
横方向T字用白領域間の距離算出手段653は、横方向の白A画素と白B画素を入力して、図67に示す以下(5)〜(8)の距離を算出する。
(5)領域<1>に存在する白A画素と領域<2>に存在する白A画素の距離L1
(6)領域<3>に存在する白A画素と領域<4>に存在する白A画素の距離L2
(7)領域<7>に存在する白B画素とL2≠0が算出された行との距離L7
(8)領域<8>に存在する白B画素とL1≠0が算出された行との距離L8
The distance calculating means 652 between the vertical T-shaped white areas receives the white A pixel and the white B pixel in the vertical direction, and calculates the following distances (1) to (4) shown in FIG.
(1) The distance L3 between the white A pixel existing in the region <1> and the white A pixel existing in the region <3>
(2) The distance L4 between the white A pixel existing in the region <2> and the white A pixel existing in the region <4>
(3) The distance L5 between the white B pixel existing in the region <5> and the column where L4 ≠ 0 is calculated
(4) The distance L6 between the white B pixel existing in the region <6> and the column for which L3 ≠ 0 is calculated
The distance calculation means 653 between the white areas for the T direction in the horizontal direction inputs the white A pixel and the white B pixel in the horizontal direction, and calculates the following distances (5) to (8) shown in FIG.
(5) The distance L1 between the white A pixel existing in the region <1> and the white A pixel existing in the region <2>
(6) The distance L2 between the white A pixel existing in the region <3> and the white A pixel existing in the region <4>
(7) Distance L7 between the white B pixel existing in region <7> and the row where L2 ≠ 0 is calculated
(8) Distance L8 between the white B pixel existing in region <8> and the row where L1 ≠ 0 is calculated

図68は、縦方向T字用白領域間の距離算出手段652、および横方向T字用白領域間の距離算出手段653の距離算出処理について示したフローチャートである。
まず、L1_hが0であるか否かを判断し(ステップ300)、L1_h=0である場合に(ステップ300;Y)、h=0として設定し(ステップ305)、hを現在値から1減算して(ステップ310)、hが−5以上であるかを判断する(ステップ315)。
そして、−5以上である場合に(ステップ315;Y)、W[h]を1として判断し(ステップ320;Y)、L8を(h+L1_h)に設定する(ステップ325)。
また、ステップ325において、L1_h=0でない場合(ステップ300;N)、またはステップ315において、hが−5を下回る場合(ステップ315;N)、L8を0として設定する(ステップ330)。
FIG. 68 is a flowchart showing the distance calculation processing of the distance calculating means 652 between the vertical T-shaped white areas and the distance calculating means 653 between the horizontal T-shaped white areas.
First, it is determined whether or not L1_h is 0 (step 300). When L1_h = 0 (step 300; Y), h = 0 is set (step 305), and 1 is subtracted from the current value. (Step 310), it is determined whether h is −5 or more (step 315).
If it is −5 or more (step 315; Y), W [h] is determined as 1 (step 320; Y), and L8 is set to (h + L1_h) (step 325).
If L1_h = 0 is not satisfied in step 325 (step 300; N), or if h is less than −5 in step 315 (step 315; N), L8 is set to 0 (step 330).

上記L1、L2、L3、L4の算出は、十字用白領域間の距離算出手段634、635と同様である。L5、L6、L7、L8の算出は、例えばL8では、L1≠0が算出された行番号hをL1_hとして算出する。L5、L6、L7もL1_hがL4_h、L3_h、L2_hに変わるだけで他の処理については同様である。常に注目画素に近いところから順に白B画素であるか否かを見ていき、各参照領域内で注目画素に最も近い白B画素との距離を算出する。
T字判定手段654は、以下の条件(1−1)、(2−1)、および(3−1)が全て成立する場合、または(1−2)、(2−2)、および(3−2)が全て成立する場合にT字部の画素であると判定して「1」を出力し、それ以外の場合には「0」を出力する。
The calculation of L1, L2, L3, and L4 is the same as the distance calculation means 634 and 635 between the white areas for crosses. In the calculation of L5, L6, L7, and L8, for example, in L8, the line number h in which L1 ≠ 0 is calculated is calculated as L1_h. L5, L6, and L7 are the same as the other processes except that L1_h is changed to L4_h, L3_h, and L2_h. Whether or not the pixel is the white B pixel is always checked in order from the position closest to the target pixel, and the distance to the white B pixel closest to the target pixel in each reference region is calculated.
The T-shaped determination unit 654 determines that the following conditions (1-1), (2-1), and (3-1) are all satisfied, or (1-2), (2-2), and (3 -2) determines that the pixel is a T-shaped pixel and outputs "1", otherwise outputs "0".

(T字判定手段654の判定条件)
(1−1)縦線の線幅(Bk_t)≠0、かつ横線の線幅(Bk_y)≠0、かつ白領域間の距離2つ(L4、L5)が0でない。
(2−1)白A画素と白A画素の間は横線が存在:L4≦(Bk_y+th2)
(3−1)白A画素と白B画素の間は縦線が存在:L5≦(Bk_t+th2)
(1−2)縦線の線幅(Bk_t)≠0、かつ横線の線幅(Bk_y)≠0、かつ白領域間の距離2つ(L3、L6)が0でない。
(2−2)白A画素と白A画素の間は横線が存在:L3≦(Bk_y+th2)
(3−2)白A画素と白B画素の間は縦線が存在:L6≦(Bk_t+th2)
th2は予め設定した所定の閾値であり、十字判定手段636および十字判定手段637で使用しているth2と同じである。
(Determination condition of the T-shaped determination means 654)
(1-1) Vertical line width (Bk_t) ≠ 0, horizontal line width (Bk_y) ≠ 0, and two distances between white areas (L4, L5) are not zero.
(2-1) A horizontal line exists between the white A pixel and the white A pixel: L4 ≦ (Bk_y + th2)
(3-1) A vertical line exists between the white A pixel and the white B pixel: L5 ≦ (Bk_t + th2)
(1-2) Vertical line width (Bk_t) ≠ 0, horizontal line width (Bk_y) ≠ 0, and two distances between white areas (L3, L6) are not zero.
(2-2) A horizontal line exists between the white A pixel and the white A pixel: L3 ≦ (Bk_y + th2)
(3-2) A vertical line exists between the white A pixel and the white B pixel: L6 ≦ (Bk_t + th2)
th2 is a predetermined threshold value set in advance, and is the same as th2 used in the cross determination unit 636 and the cross determination unit 637.

(1−1)、(2−1)、および(3−1)は、図69(a)に示すT字パターン部、(1−2)、(2−2)、および(3−2)部は、図69(b)に示すT字パターン部を検出するための条件である。   (1-1), (2-1), and (3-1) are T-shaped pattern portions shown in FIG. 69 (a), (1-2), (2-2), and (3-2). The part is a condition for detecting the T-shaped pattern part shown in FIG.

図70は、図69(a)のT字パターン部を拡大した図である。白領域間の距離L4、L5、および、縦線の線幅Bk_tと横線の線幅Bk_yは、図69(a)のT字パターン部における図示した部分の距離に相当する。
T字判定手段655は、以下の条件(1−1)、(2−1)、および(3−1)が全て成立する場合、または、(1−2)、(2−2)、および(3−2)が全て成立する場合に、T字部の画素であると判定して「1」を出力し、それ以外の場合は「0」を出力する。
FIG. 70 is an enlarged view of the T-shaped pattern portion of FIG. 69 (a). The distances L4 and L5 between the white areas, and the line width Bk_t of the vertical line and the line width Bk_y of the horizontal line correspond to the distances of the illustrated portions in the T-shaped pattern portion of FIG.
The T-shaped determination unit 655 determines that the following conditions (1-1), (2-1), and (3-1) are all satisfied, or (1-2), (2-2), and ( When all of 3-2) are satisfied, it is determined that the pixel is a T-shaped pixel, and “1” is output. Otherwise, “0” is output.

(T字判定手段655の判定条件)
(1−1)縦線の線幅(Bk_t)≠0、かつ、横線の線幅(Bk_y)≠0、かつ、白領域間の距離2つ(L2、L7)が0でない。
(2−1)白A画素と白A画素の間は縦線が存在:L2≦(Bk_t+th2)
(3−1)白A画素と白B画素の間は横線が存在:L7≦(Bk_y+th2)
(1−2)縦線の線幅(Bk_t)≠0、かつ、横線の線幅(Bk_y)≠0、かつ、白領域間の距離2つ(L1、L6)が0でない。
(2−2)白A画素と白A画素の間は縦線が存在:L3≦(Bk_t+th2)
(3−2)白A画素と白B画素の間は横線が存在:L6≦(Bk_y+th2)
なお、th2は予め設定した所定の閾値であり、十字判定手段636および十字判定手段637で使用しているth2と同じである。
(Determination condition of the T-shaped determination means 655)
(1-1) Vertical line width (Bk_t) ≠ 0, horizontal line width (Bk_y) ≠ 0, and two distances between white areas (L2, L7) are not zero.
(2-1) A vertical line exists between the white A pixel and the white A pixel: L2 ≦ (Bk_t + th2)
(3-1) A horizontal line exists between the white A pixel and the white B pixel: L7 ≦ (Bk_y + th2)
(1-2) The vertical line width (Bk_t) ≠ 0, the horizontal line width (Bk_y) ≠ 0, and the two distances between the white areas (L1, L6) are not zero.
(2-2) A vertical line exists between the white A pixel and the white A pixel: L3 ≦ (Bk_t + th2)
(3-2) A horizontal line exists between the white A pixel and the white B pixel: L6 ≦ (Bk_y + th2)
Note that th2 is a predetermined threshold value set in advance, and is the same as th2 used in the cross determination unit 636 and the cross determination unit 637.

T字判定手段654、またはT字判定手段655でT字部の画素であると判定された場合、OR656にて「1」を出力し、膨張手段657にて15×15画素内に1つでも「1」が存在する場合、注目画素を最終的にT字パターン画素であるとみなして「1」を出力する。
図71は、エッジ量抽出手段30の構成を示したブロック図である。信号合成手段301にてR’G’B’信号を合成((R’+2G’+B’)/4)して1信号に変換し、エッジ量検出手段302にてエッジ量を検出する。
図72は、エッジ量検出手段302のブロック図である、エッジ量検出フィルタで、それぞれ図73に示した4種類の7×7フィルタを使用して、マスキング演算を行う。そして、4つの出力のうち絶対値が最大のものを最大値選択311で選択して出力する。
When the T-character determining unit 654 or the T-character determining unit 655 determines that the pixel is a T-shaped portion, the OR 656 outputs “1”, and the dilating device 657 outputs even one in 15 × 15 pixels. When “1” exists, the target pixel is finally regarded as a T-shaped pattern pixel and “1” is output.
FIG. 71 is a block diagram showing the configuration of the edge amount extraction means 30. As shown in FIG. The signal synthesis means 301 synthesizes the R′G′B ′ signal ((R ′ + 2G ′ + B ′) / 4) and converts it into one signal, and the edge quantity detection means 302 detects the edge quantity.
FIG. 72 is a block diagram of the edge amount detection means 302, which is an edge amount detection filter, and performs masking calculation using the four types of 7 × 7 filters shown in FIG. Of the four outputs, the one with the maximum absolute value is selected by the maximum value selection 311 and output.

図74は、フィルタ処理手段13の構成を示したブロック図である。平滑化手段131およびエッジ強調手段132のフィルタ処理を行い、2つのフィルタ処理の結果を合成手段133でエッジ量および文字エッジに応じた割合で合成する。文字エッジである場合は、エッジ量に応じて、エッジ量最大のときに平滑化結果:エッジ強調結果を1:10の割合で合成し、エッジ量最小のときには1:0(平滑化結果のみ有効)、エッジ量が中間の値の場合は中間的な割合で合成し、文字エッジでない場合は常に1:0の割合で合成するのが良い。
このように、白地上文字エッジおよび網点上文字エッジは、エッジを強調してくっきり再現し、絵柄部は滑らかに粒状性良く再現するのに有効である。
FIG. 74 is a block diagram showing the configuration of the filter processing means 13. The smoothing means 131 and the edge enhancement means 132 are subjected to filter processing, and the results of the two filter processes are combined by the combining means 133 at a ratio corresponding to the edge amount and the character edge. In the case of a character edge, the smoothing result: edge enhancement result is combined at a ratio of 1:10 when the edge amount is maximum according to the edge amount, and 1: 0 (only the smoothing result is valid) when the edge amount is minimum. When the edge amount is an intermediate value, it is preferable to synthesize at an intermediate ratio, and when it is not a character edge, it is always preferable to synthesize at a ratio of 1: 0.
In this manner, the white ground character edge and the halftone dot character edge are clearly reproduced with the edge emphasized, and the pattern portion is effective for reproducing smoothly and with good graininess.

図75は、エッジ量抽出手段40の構成を示したブロック図である。C’M’Y’各色毎にエッジ量検出手段401、402、403にて多値のエッジ量を検出する。エッジ量検出手段の構成は、エッジ量抽出手段30と同様の構成である(図72)。
エッジ量検出フィルタは、図76に示す5×5サイズのものを使用する。
そして、フィルタ処理後の信号からのエッジ量を検出して、解像度の違いを考慮して検出フィルタのサイズを変更する。
最大値選択手段404では、検出した3色のエッジ量のうち最大のものを選択する。一方、信号合成手段405では、C’M’Y’の3信号を所定の割合で足し合わせて1信号に変換する。例えば(C’×1/4+M’×2/4+Y’×1/4)を合成信号として出力する。ラプラシアンフィルタ演算手段406で、合成信号に対して図77のフィルタによりマスキング演算を行い、符号判定手段407にて正の値か否かを判定する。このとき、正なら「1」、負なら「0」を出力する。
FIG. 75 is a block diagram showing the configuration of the edge amount extraction means 40. As shown in FIG. C′M′Y ′ Multi-value edge amounts are detected by edge amount detection means 401, 402, and 403 for each color. The configuration of the edge amount detection means is the same as that of the edge amount extraction means 30 (FIG. 72).
As the edge amount detection filter, a filter of 5 × 5 size shown in FIG. 76 is used.
Then, the edge amount from the signal after filtering is detected, and the size of the detection filter is changed in consideration of the difference in resolution.
The maximum value selection unit 404 selects the maximum of the detected three color edge amounts. On the other hand, the signal synthesizing unit 405 adds the three signals C′M′Y ′ at a predetermined ratio and converts them into one signal. For example, (C ′ × 1/4 + M ′ × 2/4 + Y ′ × 1/4) is output as a synthesized signal. The Laplacian filter calculation means 406 performs a masking calculation on the synthesized signal using the filter shown in FIG. 77, and the sign determination means 407 determines whether the value is a positive value. At this time, “1” is output if positive, and “0” is output if negative.

内側エッジ量抽出手段408で、符号判定手段407の結果が「1」である場合に最大値選択手段404の出力値をそのまま出力する。また、符号判定407の結果が「0」の場合には、エッジ量をキャンセルして「0」を出力する。
プラシアンフィルタ演算手段406の出力値は、文字の内側エッジに相当するエッジの高濃度側では正の値、文字の外側エッジに相当するエッジの低濃度側では負の値を出力するため、これを利用し、ラプラシアンが正の内側エッジでのみエッジ量を有効にし、ラプラシアンが負の外側エッジでは、エッジ量を無効にしている。
N値化手段409にて、N値を量子化する。Nは、エッジ量抽出結果の適用先であるUCR/墨生成手段15にて、処理を何段階で制御するかに応じて決まるが、ここでは説明を簡単にするため2段階で制御するものとし、0〜63の値で抽出された内側エッジ量を0/1(N=2)に量子化しておく。
When the result of the sign determination unit 407 is “1” by the inner edge amount extraction unit 408, the output value of the maximum value selection unit 404 is output as it is. If the result of the code determination 407 is “0”, the edge amount is canceled and “0” is output.
The output value of the Placian filter calculation means 406 outputs a positive value on the high density side of the edge corresponding to the inner edge of the character, and a negative value on the low density side of the edge corresponding to the outer edge of the character. , The edge amount is enabled only for the inner edge where the Laplacian is positive, and the edge amount is disabled for the outer edge where the Laplacian is negative.
An N value is quantized by the N value converting means 409. N is determined according to the number of stages of processing controlled by the UCR / black generation unit 15 to which the edge amount extraction result is applied, but here it is controlled in two stages to simplify the explanation. The inner edge amount extracted with a value of 0 to 63 is quantized to 0/1 (N = 2).

UCR/墨生成手段15は、墨生成、およびUCRともに式で行う方法、LUTで行う方法等があるが、本実施例では墨生成をLUTで行い、UCRを式で行う場合について説明する。
図78は、墨生成のLUTについて示した図である。墨生成では、C’、M’、Y’(0が白、255が黒)の最小値Min(C’、M’、Y’)を算出し、これをLUTへ入力して出力値を得る。UCRは次の式により行う。αはUCR調整パラメータである。
C=C’−α×K
M=C’−α×K
Y=C’−α×K (式4)
The UCR / black generation means 15 includes a method for performing both black generation and UCR using an equation, a method using an LUT, and the like. In this embodiment, a case where black generation is performed using an LUT and UCR is performed using an equation will be described.
FIG. 78 is a diagram showing a black generation LUT. In black generation, the minimum value Min (C ′, M ′, Y ′) of C ′, M ′, Y ′ (0 is white, 255 is black) is calculated and input to the LUT to obtain an output value. . UCR is performed by the following equation. α is a UCR adjustment parameter.
C = C′−α × K
M = C′−α × K
Y = C′−α × K (Formula 4)

文字エッジかつエッジ量抽出手段40の出力値が「1」の場合、墨生成テーブル−1を使用し、Min(C、M’Y’)をそのままKに置き換え、UCR調整パラメータはα=1とする。その他の場合は、墨生成テーブル−2を使用し、ハイライトではKを発生させず中間から徐々にKを発生させる。UCR調整パラメータはα=0.5とする。フィルタ処理のようにエッジ量を多値で求め、中間的な墨生成テーブルをいくつも準備して多段階制御しても良い。このように墨生成およびUCRを切り換えることにより、文字(黒文字)をくっきり色付きなく再現し、絵柄を高階調に再現することができる。   When the output value of the character edge and edge amount extraction means 40 is “1”, the black generation table-1 is used, Min (C, M′Y ′) is replaced with K as it is, and the UCR adjustment parameter is α = 1. To do. In other cases, the black generation table-2 is used, and K is not generated in the highlight, but K is gradually generated from the middle. The UCR adjustment parameter is α = 0.5. As in the filter processing, the edge amount may be obtained in multiple values, and a number of intermediate black generation tables may be prepared and controlled in multiple stages. By switching between black ink generation and UCR in this way, it is possible to reproduce characters (black characters) clearly and without color and to reproduce a pattern with high gradation.

以上説明したように、第1の実施形態によれば、所定画素数以上の連続して存在する滑らかなエッジを基に文字エッジを識別する基本識別手段と、短線・小丸・十字パターン・T字パターンを識別する補足識別手段により、両方の識別結果に基づいて網点上文字を識別するため、網点上文字を網点絵柄中エッジと切り分けて、かつ、文字部での欠落なく高精度に抽出することができる。
さらに、識別結果をフィルタ処理、墨処理に適用することにより、網点上文字エッジと網点絵柄の高画質再生を両立できる。なお、本実施例では文字絵柄識別結果をフィルタ処理と墨処理に適用する例を示したが、色補正や擬似階調処理など、様々な高画質化処理に文字絵柄識別結果を使用する従来公知の技術を用いて、それらに本発明の識別結果を適用することも勿論可能である。
As described above, according to the first embodiment, basic identification means for identifying a character edge based on smooth edges that are continuously present in excess of a predetermined number of pixels, a short line, a small circle, a cross pattern, and a T-character. In order to identify the character on the halftone dot based on both identification results by the supplementary identification means that identifies the pattern, the character on the halftone dot is separated from the edge of the halftone dot pattern and with high accuracy without missing in the character part Can be extracted.
Furthermore, by applying the identification result to filter processing and black ink processing, it is possible to achieve both high-quality reproduction of halftone dot character edges and halftone dot patterns. In the present embodiment, an example is shown in which the character / pattern identification result is applied to the filter processing and the black processing. However, a conventionally known method in which the character / pattern identification result is used for various image quality enhancement processing such as color correction and pseudo gradation processing. Of course, it is also possible to apply the identification result of the present invention to these techniques.

[第2の実施形態の詳細]
第1の実施形態では、本発明の文字絵柄識別結果を高画質化処理に適用する例を示したが、第2の実施形態では、高画質化ではなく画質加工的な処理であるトナーセーブ処理に適用する例を示す。トナーセーブ処理は、濃度を下げて出力することにより、トナー消費量を抑える処理である。なお、“トナーセーブ”のトナーとは、粉体トナーに限らない。液体トナー(インク)もこれに含まれる。
[Details of Second Embodiment]
In the first embodiment, an example in which the character / pattern identification result of the present invention is applied to the image quality improvement processing has been described. However, in the second embodiment, toner save processing that is not image quality improvement but image quality processing is performed. An example applied to The toner saving process is a process for suppressing the toner consumption amount by lowering the density and outputting. The “toner save” toner is not limited to powder toner. This includes liquid toner (ink).

図79は、本実施形態の構成を示したブロック図である。操作パネル50では、ユーザーがトナーセーブモードで出力したい場合にトナーセーブモードを選択指定することができる。ユーザーがトナーセーブモードを指定した場合、トナーセーブ処理手段19にてトナーセーブ処理を行う。
トナーセーブ処理手段19は、操作パネル50からの信号、および、画像属性判定手段20の結果(文字エッジであるか否か)、および、エッジ量抽出手段40の出力値に応じて、トナーセーブ処理を切り換える。
図80は、トナーセーブ処理におけるγ変換を示した図である。トナーセーブγ−1を使用した場合、入力値=出力値になり、濃度がそのまま保存され実質的にトナーセーブ処理が行われないことになる。トナーセーブγ−2を使用した場合、入力値に対して出力値が50%程度になる処理が施される。そこで、操作パネルにてトナーセーブモードが指定されない場合は、常にトナーセーブγ−1を使用する。操作パネルにてトナーセーブモードが指定された場合は、文字エッジであり、かつ、エッジ量抽出の出力値が「1」である場合、トナーセーブγ−1にてトナーセーブ処理を行う(実質的に行わない)。その他の場合はトナーセーブγ−2を使用する。
FIG. 79 is a block diagram showing a configuration of the present embodiment. On the operation panel 50, when the user wants to output in the toner save mode, the toner save mode can be selected and designated. When the user designates the toner save mode, the toner save processing unit 19 performs toner save processing.
The toner save processing unit 19 performs toner save processing according to the signal from the operation panel 50, the result of the image attribute determination unit 20 (whether it is a character edge), and the output value of the edge amount extraction unit 40. Switch.
FIG. 80 is a diagram showing γ conversion in the toner save process. When toner save γ−1 is used, the input value = the output value, the density is stored as it is, and the toner save process is not substantially performed. When toner save γ-2 is used, processing is performed in which the output value is about 50% of the input value. Therefore, when the toner save mode is not designated on the operation panel, toner save γ-1 is always used. When the toner save mode is designated on the operation panel, the toner save process is performed with toner save γ−1 when the character edge is detected and the output value of edge amount extraction is “1” (substantially). Not to do). In other cases, toner save γ-2 is used.

これにより、トナーセーブモード設定時、白地上文字エッジおよび網点上文字エッジの濃度を保存することで文字判読性を維持しつつ、絵柄部に対して効果的にトナーを節約し、かつ、網点絵柄中エッジが文字エッジのように濃度保存されてしまう画質上の不具合(文字絵柄識別の精度が悪いと頻繁に発生してしまう不具合)を抑えて絵柄部でも良好なトナーセーブ画像を生成することができる。   As a result, when the toner save mode is set, the density of the white background character edge and the character edge on the halftone dot is preserved to maintain the character legibility, while effectively saving the toner on the picture portion, and Generates a good toner-save image even in the picture part, suppressing image quality defects (faults that frequently occur when the accuracy of character / pattern identification is poor) where the edges of the dot pattern are conserved in density like character edges be able to.

以上説明したように、第2の実施形態によれば、本発明の文字絵柄識別手段をトナーセーブ処理に適用することにより、文字判読性維持、絵柄画質の不具合抑制、トナー節約効果の発揮を同時に達成することができる。このように、本発明の識別技術は高画質化のための画像処理に制限されるものではなく、適用先は極めて広い。ここで挙げたトナーセーブも適用例の1つであり、この他に例えば文字絵柄を識別して圧縮方式を変えることで圧縮効率を高める技術等に適用しても効果的である。   As described above, according to the second embodiment, by applying the character / picture identification means of the present invention to the toner saving process, it is possible to simultaneously maintain character legibility, suppress defects in the picture image quality, and exhibit a toner saving effect. Can be achieved. Thus, the identification technique of the present invention is not limited to image processing for improving image quality, and the application destination is extremely wide. The toner save mentioned here is one example of application, and in addition to this, for example, it can be effectively applied to a technique for increasing compression efficiency by identifying a character pattern and changing the compression method.

[第3の実施形態の詳細]
図81は、第3の実施形態を行うための構成を示したブロック図である。第3の実施形態は、基本識別手段514、524、534の部分が実施形態1と異なり、別の文字特徴を利用して基本識別を行うことを特徴とする。
第3の実施形態における基本識別手段514、524、534について説明する。本実施形態では、文字特徴として尾根画素を利用し、尾根画素は図84(a)に示すように文字内部に連続して存在する特徴や、図84(b)に示すように注目画素を挟んだ両側の画素濃度が注目画素の濃度より所定値以上低い画素のような特徴を有する。
平滑化手段511、521、531は、尾根検出の精度向上のための前処理として、平滑化処理を行う。例えば、図82に示すフィルタを用いて行い、スキャナのMTF特性によってフィルタパラメータを調整する。
[Details of Third Embodiment]
FIG. 81 is a block diagram showing a configuration for carrying out the third embodiment. The third embodiment is characterized in that the basic identification means 514, 524, and 534 are different from the first embodiment in that basic identification is performed using another character feature.
The basic identification means 514, 524, 534 in the third embodiment will be described. In this embodiment, a ridge pixel is used as a character feature, and the ridge pixel sandwiches a pixel of interest as shown in FIG. 84 (a) or a feature that is continuously present inside the character, as shown in FIG. 84 (b). However, the pixel density on both sides is such a characteristic that the pixel is lower than the density of the target pixel by a predetermined value or more.
The smoothing means 511, 521, and 531 perform smoothing processing as preprocessing for improving the accuracy of ridge detection. For example, the filter shown in FIG. 82 is used, and the filter parameter is adjusted according to the MTF characteristic of the scanner.

尾根検出手段512、522、532は、図83に示す5×5画素について、以下の(1)〜(4)の条件のうち3つが成立する場合に、注目画素Lcを尾根画素として検出し「1」を出力する。そして、それ以外の場合には「0」を出力する。
(1)Lc−L1≧Th、かつLc−L24≧Th
(2)Lc−L3≧Th、かつLc−L22 ≧Th
(3)Lc−L5≧Th、かつLc−L20 ≧Th
(4)Lc−L11≧Th、かつLc−L14 ≧Th
The ridge detection means 512, 522, and 532 detect the target pixel Lc as a ridge pixel when three of the following conditions (1) to (4) are satisfied for the 5 × 5 pixels shown in FIG. 1 "is output. In other cases, “0” is output.
(1) Lc-L1 ≧ Th and Lc-L24 ≧ Th
(2) Lc-L3 ≧ Th and Lc-L22 ≧ Th
(3) Lc-L5 ≧ Th and Lc-L20 ≧ Th
(4) Lc-L11 ≧ Th and Lc-L14 ≧ Th

密度補正手段513、523、533は、尾根画素が連続して存在する場合は密度も所定値以上であることから、21×21画素を参照し、参照領域内に尾根画素が予め設定した所定閾値以上存在する場合に文字であると識別して「1」を出力する。また、所定閾値未満の場合には「0」を出力する。所定閾値は、21×21の参照領域サイズに対して15以上の値に設定しておくのが適当である。
以上説明したように、第3の実施形態によれば、所定画素数以上の連続して存在する尾根画素を基に文字を識別する基本識別と、短線・小丸・十字パターン・T字パターンを識別する補足識別を行い、両方の識別結果に基づき網点上文字を識別するため、網点上文字を網点絵柄中エッジと切り分けて、かつ、文字部を欠落なく高精度に抽出することができる。
The density correction means 513, 523, and 533 refer to 21 × 21 pixels when the ridge pixels are continuously present, and therefore the predetermined threshold value that the ridge pixels are set in advance in the reference region. If it exists, it is identified as a character and “1” is output. If it is less than the predetermined threshold, “0” is output. It is appropriate to set the predetermined threshold to a value of 15 or more with respect to the reference area size of 21 × 21.
As described above, according to the third embodiment, the basic identification for identifying characters based on the ridge pixels continuously present with a predetermined number of pixels or more, and the short line, small circle, cross pattern, and T-shaped pattern are identified. Since the characters on the halftone dot are identified based on both identification results, the character on the halftone dot is separated from the middle edge of the halftone dot pattern, and the character portion can be extracted with high accuracy without omission. .

本発明の第1の実施形態の構成を示したブロック図である。It is the block diagram which showed the structure of the 1st Embodiment of this invention. 画像属性判定手段の構成を示したブロック図である。It is the block diagram which showed the structure of the image attribute determination means. 2値化手段の構成を示したブロック図である。It is the block diagram which showed the structure of the binarization means. 3×3画素および5×5画素を示した図である。It is the figure which showed 3 * 3 pixel and 5 * 5 pixel. エッジの滑らかさ判定手段の構成を示したブロック図である。It is the block diagram which showed the structure of the smoothness determination means of an edge. 3×3サイズの2値画像データに対して行うパターンマッチングについて示した図である。It is the figure shown about the pattern matching performed with respect to 3 * 3 size binary image data. 左上縦エッジおよび左下縦エッジを抽出対象とした例を示した図である。It is the figure which showed the example which made extraction object the upper left vertical edge and the lower left vertical edge. 右上縦エッジおよび右下縦エッジを抽出対象とした例を示した図である。It is the figure which showed the example which made extraction object the upper right vertical edge and the lower right vertical edge. 左上横エッジおよび右上横エッジを抽出対象とした例を示した図である。It is the figure which showed the example which made extraction object the upper left horizontal edge and the upper right horizontal edge. 左上横エッジおよび右下横エッジを抽出対象とした例を示した図である。It is the figure which showed the example which made extraction object the upper left horizontal edge and the lower right horizontal edge. 左下縦エッジおよび右下縦エッジを抽出対象とした例を示した図である。It is the figure which showed the example which made extraction object the lower left vertical edge and the lower right vertical edge. 横方向画素数カウント手段の処理を説明した図である。It is a figure explaining the process of the horizontal direction pixel number count means. 縦方向画素数カウント手段の処理を説明した図である。It is a figure explaining the process of the vertical direction pixel number count means. 左上縦エッジ抽出手段および右上縦エッジ抽出手段の参照領域および抽出条件を示した図である。It is the figure which showed the reference area and extraction condition of an upper left vertical edge extraction means and an upper right vertical edge extraction means. 左下縦エッジ抽出手段および右下縦エッジ抽出手段の参照領域および抽出条件を示した図である。It is the figure which showed the reference area and extraction condition of a lower left vertical edge extraction means and a lower right vertical edge extraction means. 左上横エッジ抽出手段および左下横エッジ抽出手段の参照領域および抽出条件を示した図である。It is the figure which showed the reference area and extraction condition of an upper left horizontal edge extraction means and a lower left horizontal edge extraction means. 右上横エッジ抽出手段および右下横エッジ抽出手段の参照領域および抽出条件を示した図である。It is the figure which showed the reference area and extraction condition of an upper right horizontal edge extraction means and a lower right horizontal edge extraction means. 連続エッジ検出手段の構成を示したブロック図である。It is the block diagram which showed the structure of the continuous edge detection means. ペアエッジ検出手段の構成を示したブロック図である。It is the block diagram which showed the structure of the pair edge detection means. 交点エッジ検出手段の構成を示したブロック図である。It is the block diagram which showed the structure of the intersection edge detection means. 連続エッジの抽出例について示した図である。It is the figure shown about the example of extraction of a continuous edge. ペアエッジの抽出例について示した図である。It is the figure shown about the example of extraction of a pair edge. 交点エッジの抽出例について示した図である。It is the figure shown about the example of extraction of an intersection edge. 文字絵柄識別手段の構成を示したブロック図である。It is the block diagram which showed the structure of the character picture identification means. 網点上文字エッジの2値化後の画像を示した図である。It is the figure which showed the image after binarization of the character edge on a halftone dot. 図25の画像に対するP1パターンマッチング手段の結果、および横方向画素数カウント手段の結果を示した図である。It is the figure which showed the result of the P1 pattern matching means with respect to the image of FIG. 25, and the result of the horizontal pixel number counting means. 図25の画像に対するP2パターンマッチング手段の結果、および横方向画素数カウント手段の結果を示した図である。It is the figure which showed the result of the P2 pattern matching means with respect to the image of FIG. 25, and the result of the horizontal pixel number counting means. 図25の画像に対するP3パターンマッチング手段の結果、および縦方向画素数カウント手段の結果を示した図である。It is the figure which showed the result of the P3 pattern matching means with respect to the image of FIG. 25, and the result of the vertical direction pixel number count means. 図25の画像に対するP4パターンマッチング手段の結果、および縦方向画素数カウント手段の結果を示した図である。It is the figure which showed the result of the P4 pattern matching means with respect to the image of FIG. 25, and the result of the vertical direction pixel number count means. 網点絵柄中エッジの2値化後の画像を示した図である。It is the figure which showed the image after the binarization of the halftone dot pattern. 図30の画像に対するP1パターンマッチング手段の結果、および横方向画素数カウント手段の結果を示した図である。It is the figure which showed the result of the P1 pattern matching means with respect to the image of FIG. 30, and the result of the horizontal pixel number counting means. 図30の画像に対するP2パターンマッチング手段の結果、および横方向画素数カウント手段の結果を示した図である。It is the figure which showed the result of the P2 pattern matching means with respect to the image of FIG. 30, and the result of the horizontal pixel number counting means. 図30の画像に対するP3パターンマッチング手段の結果、および縦方向画素数カウント手段の結果を示した図である。It is the figure which showed the result of the P3 pattern matching means with respect to the image of FIG. 30, and the result of a vertical direction pixel number count means. 図30の画像に対するP4パターンマッチング手段の結果、および縦方向画素数カウント手段の結果を示した図である。It is the figure which showed the result of the P4 pattern matching means with respect to the image of FIG. 30, and the result of the vertical direction pixel number count means. 補足識別手段の構成を示したブロック図である。It is the block diagram which showed the structure of the supplement identification means. 短線・小丸検出手段の構成を示したブロック図である。It is the block diagram which showed the structure of the short line / small circle detection means. 縦方向連続白画素抽出手段が抽出する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a vertical direction continuous white pixel extraction means extracting. 横方向連続白画素抽出手段が抽出する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a horizontal direction continuous white pixel extraction means extracting. 斜め方向連続白画素抽出手段が抽出する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a diagonal direction continuous white pixel extraction means extracting. 斜め方向連続白画素抽出手段が抽出する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a diagonal direction continuous white pixel extraction means extracting. 白画素で囲まれている領域の抽出手段における白画素で囲まれている領域の条件を示した図である。It is the figure which showed the conditions of the area | region enclosed by the white pixel in the extraction means of the area | region enclosed by the white pixel. 5×5に配置された各画素について示した図である。It is the figure shown about each pixel arrange | positioned at 5x5. 黒画素塊カウント手段における注目画素に隣接する黒画素の画素数をカウントする処理手順を示したフローチャートである。It is the flowchart which showed the process sequence which counts the pixel number of the black pixel adjacent to the attention pixel in a black pixel block count means. 小丸の黒画素について判定する基準について示した図である。It is the figure shown about the criteria determined about a black pixel of a small circle. 黒孤立点抽出手段の黒孤立点を判定する基準について示した図である。It is the figure shown about the reference | standard which determines the black isolated point of a black isolated point extraction means. 白孤立点抽出手段の白孤立点を判定する基準について示した図である。It is the figure shown about the reference | standard which determines the white isolated point of a white isolated point extraction means. 白孤立点抽出手段が抽出する白孤立点について示した図である。It is the figure shown about the white isolated point which a white isolated point extraction means extracts. チェッカーパターン抽出手段が抽出する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a checker pattern extraction means extracting. 十字パターン検出手段の構成を示したブロック図である。It is the block diagram which showed the structure of the cross pattern detection means. 縦方向黒画素パターンマッチング手段が適合する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a vertical direction black pixel pattern matching means adapting. 横方向黒画素パターンマッチング手段が適合する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a horizontal direction black pixel pattern matching means adapting. 縦方向白画素パターンマッチング手段が適合する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a vertical direction white pixel pattern matching means adapting. 横方向白画素パターンマッチング手段が適合する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a horizontal direction white pixel pattern matching means adapting. 横方向の画素を示した図である。It is the figure which showed the pixel of the horizontal direction. 縦方向の画素を示した図である。It is the figure which showed the pixel of the vertical direction. 縦線の線幅カウント手段、黒画素塊カウント手段における縦方向、および横方向に連続した黒画素の画素数をカウントする処理手順を示したフローチャートである。It is the flowchart which showed the process sequence which counts the pixel number of the black pixel which continued in the vertical direction and horizontal direction in the line width count means of a vertical line, and a black pixel block count means. 各領域の白A画素について示した図である。It is the figure shown about the white A pixel of each area | region. 十字用白領域間の距離算出手段の距離算出手順を示したフローチャートである。It is the flowchart which showed the distance calculation procedure of the distance calculation means between the white areas for crosses. 十字パターンを検出する際の白A画素の縦長、および横長を示した図である。It is the figure which showed the vertical length and the horizontal length of the white A pixel at the time of detecting a cross pattern. 図59(a)の十字パターンを拡大した図である。It is the figure which expanded the cross pattern of Fig.59 (a). T字パターン検出手段の構成を示したブロック図である。It is the block diagram which showed the structure of the T-shaped pattern detection means. 縦方向黒画素パターンマッチング手段が適合する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a vertical direction black pixel pattern matching means adapting. 横方向黒画素パターンマッチング手段が適合する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a horizontal direction black pixel pattern matching means adapting. 縦方向白画素パターンマッチング手段が適合する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a vertical direction white pixel pattern matching means adapting. 横方向白画素パターンマッチング手段が適合する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a horizontal direction white pixel pattern matching means adapting. 縦方向T字用白領域間の距離算出手段が距離を算出する縦方向の白画素間について示した図である。It is the figure shown between the white pixels of the vertical direction which the distance calculation means between the white areas for vertical T characters calculates a distance. 横方向T字用白領域間の距離算出手段が距離を算出する横方向の白画素間について示した図である。It is the figure shown between the white pixels of the horizontal direction which the distance calculation means between the white areas for horizontal T characters calculates a distance. 縦方向T字用白領域間の距離算出手段、および横方向T字用白領域間の距離算出手段の距離算出手順を示したフローチャートである。It is the flowchart which showed the distance calculation procedure of the distance calculation means between the white areas for vertical T characters, and the distance calculation means between the white areas for horizontal T characters. T字パターンの例を示した図である。It is the figure which showed the example of the T-shaped pattern. 図69(a)のT字パターンを拡大した図である。It is the figure which expanded the T-shaped pattern of Fig.69 (a). エッジ量抽出手段の構成を示したブロック図である。It is the block diagram which showed the structure of the edge amount extraction means. エッジ量検出手段の構成を示したブロック図である。It is the block diagram which showed the structure of the edge amount detection means. マスキング演算で使用する4種類の7×7フィルタを示した図である。It is the figure which showed four types of 7 * 7 filters used by a masking calculation. フィルタ処理手段の構成を示したブロック図である。It is the block diagram which showed the structure of the filter process means. エッジ量抽出手段の構成を示したブロック図である。It is the block diagram which showed the structure of the edge amount extraction means. エッジ量検出フィルタを示した図である。It is the figure which showed the edge amount detection filter. ラプラシアンフィルタ演算手段が合成信号に対して演算する際に使用するフィルタの一例を示した図である。It is the figure which showed an example of the filter used when a Laplacian filter calculating means calculates with respect to a synthesized signal. 墨生成のLUTについて示した図である。FIG. 6 is a diagram showing a black generation LUT. 本発明の第2の実施形態の構成を示したブロック図である。It is the block diagram which showed the structure of the 2nd Embodiment of this invention. トナーセーブ処理手段におけるγ変換を示した図である。FIG. 6 is a diagram illustrating γ conversion in a toner save processing unit. 本発明の第3の実施形態の構成を示したブロック図である。It is the block diagram which showed the structure of the 3rd Embodiment of this invention. 尾根検出の前処置に用いるフィルタについて示した図である。It is the figure shown about the filter used for the pretreatment of a ridge detection. 尾根検出手段が尾根を検出する際のパターンについて示した図である。It is the figure shown about the pattern at the time of a ridge detection means detecting a ridge. 尾根画素の一例について示した図である。It is the figure shown about an example of the ridge pixel. 閾値Th1で2値化した網点絵柄中エッジ、および網点上文字エッジについて示した図である。It is the figure shown about the halftone dot pattern edge binarized with threshold value Th1, and the character edge on a halftone dot. 閾値Th2で2値化した網点絵柄中エッジ、および網点上文字エッジについて示した図である。It is the figure shown about the halftone dot pattern edge binarized with threshold value Th2, and the character edge on a halftone dot. 濁点、半濁点、十字部、およびT字部を示した図である。It is the figure which showed the cloud point, the semi-cloudy point, the cross part, and the T-shaped part.

符号の説明Explanation of symbols

10 スキャナ
11 スキャナγ補正手段
12 スキャナ色補正手段
13 フィルタ処理手段
14 プリンタ色補正手段
15 UCR/墨生成手段
16 プリンタγ補正手段
17 擬似階調処理手段
18 プリンタ
20 画像属性判定手段
30、40 エッジ量抽出手段
DESCRIPTION OF SYMBOLS 10 Scanner 11 Scanner gamma correction means 12 Scanner color correction means 13 Filter processing means 14 Printer color correction means 15 UCR / black generation means 16 Printer gamma correction means 17 Pseudo gradation processing means 18 Printer 20 Image attribute judgment means 30, 40 Edge amount Extraction means

Claims (10)

画像データを受領する画像データ受領手段と、
前記画像データ受領手段で受領した画像データに対して、第1のパターンマッチング処理、横方向画素数カウント処理、及び縦方向画素数カウント処理を行い、黒画素、又は白画素が連続する画素数が所定画素数以上である網点上文字の文字特徴を識別する基本識別手段と、
前記画像データ受領手段で受領した画像データに対して、連続白画素抽出処理及び白画素で囲まれている領域の抽出処理、黒画素塊カウント処理、孤立点抽出処理、チェッカーパターン抽出処理、第2のパターンマッチング処理、及び第3のパターンマッチング処理を行い、前記基本識別手段で識別された網点上文字の文字特徴と異なる、黒画素、又は白画素が連続する画素数が所定画素数に満たない網点上文字の文字特徴を、網点上文字の文字特徴として識別する補足識別手段と、
前記基本識別手段で識別された網点上文字の文字特徴、および前記補足識別手段で識別された網点上文字の文字特徴に基づいて、前記画像データ受領手段で受領した画像データを文字領域と非文字領域とに分離する画像属性判定手段と、を備えたことを特徴とする画像処理装置。
Image data receiving means for receiving image data;
A first pattern matching process, a horizontal pixel count process, and a vertical pixel count process are performed on the image data received by the image data receiving unit , and the number of pixels in which black pixels or white pixels are continuous is determined. Basic identification means for identifying character characteristics of a character on a halftone dot having a predetermined number of pixels or more;
For the image data received by the image data receiving means, a continuous white pixel extraction process, an extraction process of a region surrounded by white pixels, a black pixel block count process, an isolated point extraction process, a checker pattern extraction process, a second The pattern matching process and the third pattern matching process are performed, and the number of consecutive black pixels or white pixels different from the character characteristics of the halftone dot character identified by the basic identification means is less than the predetermined pixel number. Supplementary identifying means for identifying character features of non-halftone characters as character features of halftone characters;
Based on the character characteristics of the halftone dot character identified by the basic identification means and the character characteristic of the halftone dot character identified by the supplementary identification means, the image data received by the image data receiving means is defined as a character area. An image processing apparatus comprising: an image attribute determining unit that separates a non-character area.
前記基本識別手段は、前記網点上文字の文字特徴をエッジ部分として識別することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the basic identification unit identifies a character feature of the character on the halftone dot as an edge portion. 前記基本識別手段は、黒画素、又は白画素が連続する画素数が一定方向に所定画素数以上である網点上文字の文字特徴を識別することを特徴とする請求項1、または請求項2記載の画像処理装置。   The basic identification means identifies a character feature of a character on a halftone dot in which the number of pixels in which black pixels or white pixels are continuous is equal to or greater than a predetermined number of pixels in a certain direction. The image processing apparatus described. 前記基本識別手段は、前記網点上文字の文字特徴を尾根画素として識別することを特徴とする請求項1、請求項2、または請求項3記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the basic identification unit identifies a character feature of the character on the halftone dot as a ridge pixel. 前記補足識別手段は、前記網点上文字の文字特徴を孤立する部分として識別することを特徴とする請求項1、請求項2、請求項3、または請求項4記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the supplementary identification unit identifies a character feature of the character on the halftone dot as an isolated part. 前記補足識別手段は、前記網点上文字の文字特徴を丸型形状を形成する部分として識別することを特徴とする請求項1、請求項2、請求項3、請求項4、または請求項5記載の画像処理装置。   The supplementary identifying means identifies the character feature of the character on the halftone dot as a part forming a round shape, 6. The claim 1, claim 3, claim 4, or claim 5, wherein The image processing apparatus described. 前記補足識別手段は、前記網点上文字の文字特徴を線が十字に交差する部分として識別することを特徴とする請求項1、請求項2、請求項3、請求項4、請求項5、または請求項6記載の画像処理装置。   The supplementary identifying means identifies the character feature of the character on the halftone dot as a portion where a line crosses a cross, 5. Claims 1, 2, 3, 4, 5. Alternatively, the image processing apparatus according to claim 6. 前記補足識別手段は、前記網点上文字の文字特徴を線がT字に交差する部分として識別することを特徴とする請求項1、請求項2、請求項3、請求項4、請求項5、請求項6、または請求項7記載の画像処理装置。   The supplementary identifying means identifies a character feature of the character on the halftone dot as a portion where a line intersects a T-character. The image processing apparatus according to claim 6 or 7. 画像データを受領する画像データ受領手段を備えた画像処理装置において、
前記画像データ受領手段で受領した画像データに対して、第1のパターンマッチング処理、横方向画素数カウント処理、及び縦方向画素数カウント処理を行い、黒画素、又は白画素が連続する画素数が所定画素数以上である網点上文字の文字特徴を識別する第1のステップと、
前記画像データ受領手段で受領した画像データに対して、連続白画素抽出処理及び白画素で囲まれている領域の抽出処理、黒画素塊カウント処理、孤立点抽出処理、チェッカーパターン抽出処理、第2のパターンマッチング処理、及び第3のパターンマッチング処理を行い、前記第1のステップで識別された網点上文字の文字特徴と異なる、黒画素、又は白画素が連続する画素数が所定画素数に満たない網点上文字の文字特徴を、網点上文字の文字特徴として識別する第2のステップと、
前記第1のステップで識別された網点上文字の文字特徴、および前記第2のステップで識別された網点上文字の文字特徴に基づいて、前記画像データ受領手段で受領した画像データを文字領域と非文字領域とに分離する第3のステップと、を備えたことを特徴とする画像処理方法。
In an image processing apparatus provided with image data receiving means for receiving image data,
A first pattern matching process, a horizontal pixel count process, and a vertical pixel count process are performed on the image data received by the image data receiving unit , and the number of pixels in which black pixels or white pixels are continuous is determined. A first step of identifying a character feature of a character on a halftone dot having a predetermined number of pixels or more;
For the image data received by the image data receiving means, a continuous white pixel extraction process, an extraction process of a region surrounded by white pixels, a black pixel block count process, an isolated point extraction process, a checker pattern extraction process, a second The pattern matching process and the third pattern matching process are performed, and the number of continuous black pixels or white pixels different from the character characteristics of the halftone character identified in the first step is set to the predetermined number of pixels. A second step of identifying character features of less than halftone characters as character features of halftone characters;
Based on the character feature of the halftone dot character identified in the first step and the character feature of the halftone dot character identified in the second step, the image data received by the image data receiving means is a character. And a third step of separating the region into a non-character region.
画像データを受領する画像データ受領機能と、
前記画像データ受領機能で受領した画像データに対して、第1のパターンマッチング処理、横方向画素数カウント処理、及び縦方向画素数カウント処理を行い、黒画素、又は白画素が連続する画素数が所定画素数以上である網点上文字の文字特徴を識別する基本識別機能と、
前記画像データ受領機能で受領した画像データに対して、連続白画素抽出処理及び白画素で囲まれている領域の抽出処理、黒画素塊カウント処理、孤立点抽出処理、チェッカーパターン抽出処理、第2のパターンマッチング処理、及び第3のパターンマッチング処理を行い、前記基本識別機能で識別された網点上文字の文字特徴と異なる、黒画素、又は白画素が連続する画素数が所定画素数に満たない網点上文字の文字特徴を、網点上文字の文字特徴として識別する補足識別機能と、
前記基本識別機能で識別された網点上文字の文字特徴、および前記補足識別機能で識別された網点上文字の文字特徴に基づいて、前記画像データ受領機能で受領した画像データを文字領域と非文字領域とに分離する画像属性判定機能と、を備えたことを特徴とする画像処理プログラムが格納されたコンピュータ読み取り可能な記憶媒体。
An image data receiving function for receiving image data;
The first pattern matching process, the horizontal pixel count process, and the vertical pixel count process are performed on the image data received by the image data reception function , and the number of pixels in which black pixels or white pixels are continuous is determined. A basic identification function for identifying character features of halftone characters that are equal to or greater than a predetermined number of pixels;
For the image data received by the image data receiving function , continuous white pixel extraction processing, extraction processing of a region surrounded by white pixels, black pixel block counting processing, isolated point extraction processing, checker pattern extraction processing, second The pattern matching process and the third pattern matching process are performed, and the number of consecutive black pixels or white pixels, which is different from the character characteristics of the character on the halftone dot identified by the basic identification function, satisfies the predetermined number of pixels. A supplementary identification function that identifies character features of non-halftone characters as character features of halftone characters;
Based on the character feature of the halftone dot character identified by the basic identification function and the character feature of the halftone dot character identified by the supplementary identification function, the image data received by the image data receiving function is defined as a character region. A computer-readable storage medium storing an image processing program, comprising: an image attribute determination function that separates into a non-character area.
JP2007235155A 2007-09-11 2007-09-11 Image processing apparatus, image processing method, and computer-readable storage medium storing image processing program Expired - Fee Related JP4846681B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007235155A JP4846681B2 (en) 2007-09-11 2007-09-11 Image processing apparatus, image processing method, and computer-readable storage medium storing image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007235155A JP4846681B2 (en) 2007-09-11 2007-09-11 Image processing apparatus, image processing method, and computer-readable storage medium storing image processing program

Publications (2)

Publication Number Publication Date
JP2009071405A JP2009071405A (en) 2009-04-02
JP4846681B2 true JP4846681B2 (en) 2011-12-28

Family

ID=40607244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007235155A Expired - Fee Related JP4846681B2 (en) 2007-09-11 2007-09-11 Image processing apparatus, image processing method, and computer-readable storage medium storing image processing program

Country Status (1)

Country Link
JP (1) JP4846681B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6025475B2 (en) * 2012-09-21 2016-11-16 キヤノン株式会社 Image area determination apparatus, image area determination method, and image processing apparatus
JP6132094B2 (en) * 2013-07-23 2017-05-24 セイコーエプソン株式会社 Recording device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2783350B2 (en) * 1993-09-22 1998-08-06 シャープ株式会社 Image processing device
JP4013478B2 (en) * 2000-12-25 2007-11-28 コニカミノルタビジネステクノロジーズ株式会社 Image processing device
JP2003198839A (en) * 2001-12-27 2003-07-11 Ricoh Co Ltd Character edge detector
JP3942080B2 (en) * 2002-02-26 2007-07-11 株式会社リコー Image forming apparatus
JP4792835B2 (en) * 2005-06-27 2011-10-12 コニカミノルタビジネステクノロジーズ株式会社 Image processing device

Also Published As

Publication number Publication date
JP2009071405A (en) 2009-04-02

Similar Documents

Publication Publication Date Title
US8477324B2 (en) Image processor and image processing method that uses s-shaped gamma curve
US5331442A (en) Identification of graphic and character areas in color image processor
US5768403A (en) Image-area identifying system for a color image processing apparatus
JP3399486B2 (en) Color image processing apparatus and method
US8345310B2 (en) Halftone frequency determination method and printing apparatus
JP6221402B2 (en) Image processing apparatus, image processing method, and program
JP4637054B2 (en) Image processing apparatus, control method therefor, computer program, and computer-readable storage medium
US6868183B1 (en) Image processing apparatus, image forming apparatus, and image processing method depending on the type of original image
JP3334042B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
JP4771428B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP6740612B2 (en) Image processing apparatus, image processing method and program
JP4846681B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing image processing program
JP4013478B2 (en) Image processing device
JP6676962B2 (en) Image processing apparatus, image processing method, and program
JP4228466B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure
JP3942080B2 (en) Image forming apparatus
JP2006287623A (en) Input image correction device, method, and program, image processor, image formation apparatus, and recording medium
JP3767878B2 (en) Image processing apparatus with output correction inside character
JP5165043B2 (en) Device, method and program capable of detecting line
JPH0654180A (en) Method and device for image area separation
JP3789243B2 (en) Image processing apparatus and method
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP4047356B2 (en) Image processing device
JP6641982B2 (en) Image processing apparatus, image processing method, and program
JP4176053B2 (en) Image processing method, image processing apparatus, image forming apparatus, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111003

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees