JP4771428B2 - Image processing apparatus, image processing method, program, and recording medium - Google Patents

Image processing apparatus, image processing method, program, and recording medium Download PDF

Info

Publication number
JP4771428B2
JP4771428B2 JP2007060529A JP2007060529A JP4771428B2 JP 4771428 B2 JP4771428 B2 JP 4771428B2 JP 2007060529 A JP2007060529 A JP 2007060529A JP 2007060529 A JP2007060529 A JP 2007060529A JP 4771428 B2 JP4771428 B2 JP 4771428B2
Authority
JP
Japan
Prior art keywords
edge
pixel
vertical edge
image
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007060529A
Other languages
Japanese (ja)
Other versions
JP2008227732A (en
Inventor
徳子 宮城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007060529A priority Critical patent/JP4771428B2/en
Publication of JP2008227732A publication Critical patent/JP2008227732A/en
Application granted granted Critical
Publication of JP4771428B2 publication Critical patent/JP4771428B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、スキャナで読み取った画像あるいはネットワークを介して取得した画像に対して、文字領域の識別を行い、識別結果に応じた最適な処理を施す画像処理装置、画像処理方法、プログラムおよび記録媒体に関する。   The present invention relates to an image processing apparatus, an image processing method, a program, and a recording medium for identifying a character area on an image read by a scanner or an image acquired via a network and performing optimum processing according to the identification result About.

スキャナ読取画像から、白地上文字領域と絵柄領域(この場合は白地上文字領域以外の領域)を識別し、識別結果に応じてフィルタ、墨処理、擬似階調処理等の画像処理を切り換える装置がある。このような画像処理の切り換えは、文字を鮮鋭に再現し、絵柄はざらつきを抑えて再現するために行うものであり、本来であれば網点背景上の文字も白地上文字と同様に鮮鋭に再現したいが、網点上文字は網点絵柄中のエッジとの識別が困難であるため、絵柄部への影響を考慮して絵柄領域として処理している。   A device that identifies a white ground character area and a pattern area (in this case, an area other than a white ground character area) from a scanner read image, and switches image processing such as filter, black ink processing, and pseudo gradation processing according to the identification result. is there. Such switching of image processing is performed in order to reproduce characters sharply and to reproduce a pattern with reduced roughness. Originally, characters on a halftone dot background are as sharp as white ground characters. Although it is desired to reproduce, since it is difficult to distinguish the character on the halftone dot from the edge in the halftone dot pattern, it is processed as a picture area in consideration of the influence on the picture part.

例えば、特許文献1、2では、白地上文字と網点上文字を区別することなく、文字領域と絵柄領域を識別している。どちらも画像を2値化し、2値信号の連続性により文字を識別する技術であるが、網点絵柄エッジが比較的急峻である場合は特に、網点上文字エッジを網点絵柄エッジと切り分けて識別できない。   For example, in Patent Documents 1 and 2, a character area and a picture area are identified without distinguishing white ground characters and half-tone characters. In both cases, the image is binarized and the character is identified by the continuity of the binary signal. However, especially when the halftone dot pattern edge is relatively steep, the character edge on the halftone dot is separated from the halftone dot pattern edge. Cannot be identified.

図31(a)は、閾値th1で2値化処理した2値画像、図31(b)は、閾値th1よりも高濃度側の閾値th2で2値化処理した2値画像である。網点上文字エッジであっても、閾値を適切に設定することにより、図31(b)のように文字部を黒画素、網点背景を白画素として2値化することができる。網点背景が比較的高濃度である場合も、スキャナの特性上、網点のピーク濃度よりも線画の尾根濃度の方が、スキャナ読取値が高濃度になる傾向があり、殆どのケースにおいて閾値を適切に設定できれば図31(b)のような2値化結果が得られる。   FIG. 31A shows a binary image binarized by the threshold th1, and FIG. 31B shows a binary image binarized by the threshold th2 on the higher density side than the threshold th1. Even for a character edge on a halftone dot, by appropriately setting the threshold value, it is possible to binarize the character portion as a black pixel and the halftone dot background as a white pixel as shown in FIG. Even when the background of the halftone dot is relatively high, due to the characteristics of the scanner, the ridge density of the line drawing tends to be higher than the peak density of the halftone dot, and in most cases the threshold value is the threshold value. Can be set appropriately, a binarized result as shown in FIG.

図31(b)において、網点絵柄中のエッジと網点上の文字エッジの識別が課題になるが、両者の違いは網点絵柄中のエッジの方がエッジ部に局所的な凹凸があるのに対して、網点上の文字エッジは局所的に見ても本来の文字形状に沿った滑らかなエッジで構成されており、局所的な凹凸が非常に少ない、という点にある。横線あるいは縦線はスキャナ読取時のノイズにより比較的凹凸が出やすいが、それでも1ドット程度の凹凸である。   In FIG. 31 (b), the identification of the edge in the halftone dot pattern and the character edge on the halftone dot becomes a problem, but the difference between the two is that the edge in the halftone dot pattern has local irregularities in the edge portion. On the other hand, the character edge on the halftone dot is composed of a smooth edge along the original character shape even when viewed locally, and there is very little local unevenness. The horizontal line or vertical line is relatively uneven due to noise at the time of scanner reading, but it is still about 1 dot uneven.

上記した特許文献1、2の場合、局所的な凹凸があっても文字エッジと判定してしまう。特許文献2は、2値化処理が特許文献1とは異なり、エッジ部だけ黒画素として抽出されるような2値化処理であるため、図31(b)のような2値画像から文字領域を識別するものではないが、エッジ部で黒画素が連なる比較的急峻な絵柄エッジの場合は、局所的な凹凸に関係なく文字領域として識別されてしまう。特許文献1、2が発明された当時、スキャナの解像度が今より格段に低く、網点形状が厳密に読み取られなかったためにエッジ部の局所的な形状で識別することが難しかったという事情もある。   In the case of the above-described Patent Documents 1 and 2, even if there is local unevenness, it is determined as a character edge. Patent Document 2 is different from Patent Document 1 in that the binarization process is a binarization process in which only the edge portion is extracted as a black pixel. Therefore, the character region is extracted from the binary image as shown in FIG. However, in the case of a relatively steep pattern edge in which black pixels are connected at the edge portion, it is identified as a character region regardless of local unevenness. At the time when Patent Documents 1 and 2 were invented, the resolution of the scanner was much lower than it is now, and there was also a situation that it was difficult to identify the local shape of the edge part because the halftone dot shape was not read accurately .

特開平2−292957号公報JP-A-2-292957 特開平1−227573号公報JP-A-1-227573 特開2002−199210号公報JP 2002-199210 A

ところが、近年のスキャナの高解像度化に伴い、網点上文字を意識的に抽出する技術が提案されている。例えば、特許文献3では、網点上の文字を抽出しているが、網点上の文字エッジと網点絵柄中のエッジとを切り分けて識別していない。   However, with the recent increase in resolution of scanners, a technique for consciously extracting characters on halftone dots has been proposed. For example, in Patent Document 3, a character on a halftone dot is extracted, but a character edge on a halftone dot and an edge in a halftone dot pattern are not separated and identified.

本発明の目的は、エッジの局所的な凹凸に着目し、滑らかなエッジであるか否かを判定することにより、網点上の文字エッジを網点絵柄中のエッジと切り分けて識別する画像処理装置、画像処理方法、プログラムおよび記録媒体を提供することにある。   An object of the present invention is to perform image processing that distinguishes a character edge on a halftone dot from an edge in a halftone dot pattern by focusing on local unevenness of the edge and determining whether the edge is smooth or not. An apparatus, an image processing method, a program, and a recording medium are provided.

本発明は、画像を構成するn画素×n画素領域の中心画素を挟んで対称の位置にある2つの画素値の平均値と前記中心画素の画素値との差が、所定の閾値よりも大きいときに、前記中心画素をピーク画素として検出するピーク画素検出手段と、前記検出されたピーク画素の画素値に基づいて閾値を設定する設定手段と、前記閾値を用いて前記画像を2値化する2値化手段と、前記2値化後の画像から、左上縦エッジ、左下縦エッジ、右上縦エッジ、右下縦エッジ、左上横エッジ、右上横エッジ、左下横エッジ、右下横エッジを抽出する抽出手段と、前記抽出されたエッジが左上縦エッジかつ左下縦エッジの場合、連続エッジとして検出し、前記抽出されたエッジが左上縦エッジかつ右上縦エッジ、または、左下縦エッジかつ右下縦エッジの場合、ペアエッジとして検出し、前記抽出されたエッジが右上横エッジかつ左下縦エッジの場合、交点エッジとして検出するエッジ検出手段と、前記エッジ検出手段の検出結果に基づいて網点上の文字エッジを文字エッジとして識別する識別手段を有することを最も主要な特徴とする。
In the present invention, the difference between the average value of two pixel values at symmetrical positions across the center pixel of the n pixels × n pixel region constituting the image and the pixel value of the center pixel is larger than a predetermined threshold value. Sometimes, a peak pixel detecting means for detecting the center pixel as a peak pixel, a setting means for setting a threshold value based on a pixel value of the detected peak pixel, and binarizing the image using the threshold value From the binarization means and the binarized image, upper left vertical edge, lower left vertical edge, upper right vertical edge, lower right vertical edge, upper left horizontal edge, upper right horizontal edge, lower left horizontal edge, lower right horizontal edge are extracted. And extracting means for detecting when the extracted edge is an upper left vertical edge and a lower left vertical edge as a continuous edge, and the extracted edge is an upper left vertical edge and an upper right vertical edge, or a lower left vertical edge and a lower right vertical edge. Edge field , Detected as Peaejji, if the extracted edges of the upper right lateral edge and the lower left vertical edge, an edge detecting means for detecting as the intersection edge, the character a character edge on halftone dots based on a result of detection by the edge detecting means The main feature is to have an identification means for identifying as an edge.

本発明によれば、網点上の文字エッジを文字エッジとして識別する識別結果を利用して画像処理を切り換えた場合に、絵柄画質を損なわずに効果的に文字エッジに対して最適な画像処理を施すことができる。 According to the present invention, when image processing is switched using an identification result that identifies a character edge on a halftone dot as a character edge, the optimum image processing is effectively performed on the character edge without impairing the picture quality. Can be applied.

以下、発明の実施の形態について図面により詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

実施例1:
図1は、本発明の実施例1の構成を示す。スキャナ10は、原稿を読み取ることによりRGB信号からなる画像データを取得し、スキャナγ補正手段11はスキャナのγ特性を補正し、反射率リニアの信号から濃度リニアの信号へ変換する。スキャナ色補正12は、スキャナ特性に依存したRGB信号をスキャナに依存しないデバイス非依存のR’G’B’信号に変換する。
Example 1:
FIG. 1 shows the configuration of Embodiment 1 of the present invention. The scanner 10 obtains image data composed of RGB signals by reading a document, and the scanner γ correction unit 11 corrects the γ characteristics of the scanner, and converts the reflectance linear signal into a density linear signal. The scanner color correction 12 converts the RGB signal depending on the scanner characteristics into a device-independent R′G′B ′ signal that does not depend on the scanner.

画像属性判定手段20は、RGB信号から文字エッジ領域を抽出する。文字エッジ領域には、白地上文字も網点上文字も含まれる。エッジ量抽出手段30は、R’G’B’信号から画像中のエッジらしさを表す信号であるエッジ量を抽出する。フィルタ処理手段13は、画像属性判定手段20およびエッジ量抽出手段30の結果に基づき、網点部の起伏を抑えてモアレを抑制する平滑化処理、および、文字部の鮮鋭性を高めるエッジ強調処理を行う。プリンタ色補正手段14は、デバイス非依存のR’G’B’信号からプリンタ特性に依存したC’M’Y’信号への変換を行う。   The image attribute determination unit 20 extracts a character edge region from the RGB signal. The character edge area includes white ground characters and half-dot characters. The edge amount extraction unit 30 extracts an edge amount that is a signal representing the likelihood of an edge in the image from the R′G′B ′ signal. Based on the results of the image attribute determination unit 20 and the edge amount extraction unit 30, the filter processing unit 13 performs smoothing processing that suppresses the undulation of the halftone portion and suppresses moire, and edge enhancement processing that increases the sharpness of the character portion I do. The printer color correction unit 14 performs conversion from a device-independent R'G'B 'signal to a C'M'Y' signal depending on printer characteristics.

エッジ量抽出手段40は、C’M’Y’信号から画像中のエッジらしさを表す信号であるエッジ量を抽出する。UCR/墨生成15手段は、画像属性判定手段20およびエッジ量抽出手段40の結果に基づき、C’M’Y’データに応じてK信号を発生させ(墨生成)、C’M’Y’からKに応じた量を減ずる(下色除去(UCR))。CMYKはプリンタの色材色に対応している。UCR/墨生成後の信号に対して、プリンタγ補正手段16、擬似階調処理手段17による処理を施し、プリンタ18で記録媒体上に画像を出力する。プリンタγ補正手段16は、プリンタの濃度特性に合わせて濃度変換テーブルを用いた変換処理を行う。擬似階調処理手段17では、ディザや誤差拡散等の擬似中間調処理を行う。   The edge amount extraction means 40 extracts an edge amount that is a signal representing the likelihood of an edge in the image from the C′M′Y ′ signal. The UCR / black generation 15 means generates a K signal according to the C′M′Y ′ data based on the results of the image attribute determination means 20 and the edge amount extraction means 40 (black generation), and C′M′Y ′. The amount corresponding to K is reduced (under color removal (UCR)). CMYK corresponds to the color material color of the printer. The signal after the UCR / black generation is processed by the printer γ correction unit 16 and the pseudo gradation processing unit 17, and the printer 18 outputs an image on a recording medium. The printer γ correction unit 16 performs a conversion process using a density conversion table in accordance with the density characteristics of the printer. The pseudo gradation processing means 17 performs pseudo halftone processing such as dithering and error diffusion.

図2は、画像属性判定手段20の構成を示す。RGB→CMY変換手段201は、原稿のプロセスカラーに対応したcmy信号に変換し、cmy信号各々に対して2値化(202、212、222)、エッジの滑らかさ判定(203、213、223)、連続エッジ検出(204、214、224)/ペアエッジ検出(205、215、225)/交点エッジ検出(206、216、226)、文字絵柄識別(207、217、227)を行い、OR208において各cmy信号から識別された文字エッジの論理和演算を行う。cmyいずれかの信号で文字エッジと識別されれば、画像属性判定手段20の結果は文字エッジになる。   FIG. 2 shows the configuration of the image attribute determination means 20. The RGB → CMY conversion unit 201 converts the CMY signal corresponding to the process color of the original, binarizes the CMY signal (202, 212, 222), and determines the smoothness of the edge (203, 213, 223). , Continuous edge detection (204, 214, 224) / pair edge detection (205, 215, 225) / intersection edge detection (206, 216, 226), character pattern identification (207, 217, 227). Perform a logical OR operation on the character edges identified from the signal. If it is identified as a character edge by any one of the signals Cmy, the result of the image attribute determination means 20 becomes a character edge.

RGB→CMY変換手段201は、次式(1)によりR’G’B’信号から原稿のプロセスカラーに対応したcmy信号への変換を行う。   The RGB → CMY conversion unit 201 converts the R′G′B ′ signal into a cmy signal corresponding to the process color of the document by the following equation (1).

c=a0+a1×R+a2×G+a3×B
m=b0+b1×R+b2×G+b3×B
y=c0+c1×R+c2×G+c3×B (式1)
a0〜a3、b0〜b3、c0〜c3は、プロセスカラーのカラーパッチをスキャナで読み込み、RGB読取値とカラーパッチの色の関係に基づき予め設定されたパラメータである。
c = a0 + a1 × R + a2 × G + a3 × B
m = b0 + b1 × R + b2 × G + b3 × B
y = c0 + c1 * R + c2 * G + c3 * B (Formula 1)
a0 to a3, b0 to b3, and c0 to c3 are parameters set in advance based on the relationship between the RGB read value and the color of the color patch when the process color patch is read by the scanner.

図3(a)は、2値化手段202、212、222の構成を示す。ピーク画素検出は、注目画素が濃度変化の山を示す極点であるかどうかを、周囲の画素との濃度関係から判定するものである。M×M画素からなるブロック内において、中心画素の濃度レベルが他のすべての濃度レベルよりも高いときに、式2あるいは式3のようにして極点かどうかを判定する。式2によりピーク画素を検出しているのがピーク画素検出手段(3×3)231、式3によりピーク画素を検出しているのがピーク画素検出手段(5×5)232である。
M=3(図3(b))の場合、
(2m0−m1−m8)≧ΔmTH かつ、
(2m0−m2−m7)≧ΔmTH かつ、
(2m0−m3−m6)≧ΔmTH かつ、
(2m0−m4−m5)≧ΔmTH (式2)
M=5(図3(c))の場合、
(2m0−m1−m24)≧ΔmTH かつ、
(2m0−m7−m18)≧ΔmTH かつ、
(2m0−m3−m22)≧ΔmTH かつ、
(2m0−m8−m17)≧ΔmTH かつ、
(2m0−m5−m20)≧ΔmTH かつ、
(2m0−m9−m16)≧ΔmTH かつ、
(2m0−m11−m14)≧ΔmTH かつ、
(2m0−m12−m13)≧ΔmTH (式3)
つまり、中心画素を挟んで対称の位置にある2つの画素レベルの平均値と中心画素の濃度差が、閾値ΔmTHよりも大きいときに、中心画素をピークとして検出する。OR回路233において2つのピーク画素検出手段231と232のうちどちらか一方でもピーク画素として検出されればピーク画素と判定する。閾値設定手段234では、注目画素を中心として9×9画素内にあるピーク画素および画素値(cまたはmまたはyの値)からピーク画素の中から最も画素値が大きいもの(濃度が高いもの)を検出し、閾値=ピーク画素最大値+αとする。αは閾値に余裕を持たせるためのパラメータであり、CMY信号が各8bitの場合はα=10〜30程度の値に設定しておく。白画素/黒画素判定手段235は、c(またはmまたはy)の値が設定した閾値以上であれば黒画素、設定した閾値未満であれば白画素と判定する。これにより、網点上文字の平網部分は白画素と判定され、文字部分は(網点上の白抜き文字のようなものは例外として)網点よりも濃度が高いので、黒画素と判定される。
FIG. 3A shows the configuration of the binarizing means 202, 212, 222. In the peak pixel detection, it is determined from the density relationship with surrounding pixels whether or not the target pixel is an extreme point indicating a peak of density change. When the density level of the central pixel is higher than all other density levels in the block composed of M × M pixels, it is determined whether or not it is an extreme point according to Expression 2 or Expression 3. The peak pixel detection means (3 × 3) 231 detects the peak pixel according to Expression 2, and the peak pixel detection means (5 × 5) 232 detects the peak pixel according to Expression 3.
When M = 3 (FIG. 3B),
(2m0-m1-m8) ≧ ΔmTH and
(2m0−m2−m7) ≧ ΔmTH and
(2m0−m3−m6) ≧ ΔmTH and
(2m0-m4-m5) ≧ ΔmTH (Formula 2)
In the case of M = 5 (FIG. 3C),
(2m0-m1-m24) ≧ ΔmTH and
(2m0-m7-m18) ≧ ΔmTH and
(2m0−m3−m22) ≧ ΔmTH and
(2m0-m8-m17) ≧ ΔmTH and
(2m0-m5-m20) ≧ ΔmTH and
(2m0-m9-m16) ≧ ΔmTH and
(2m0-m11-m14) ≧ ΔmTH and
(2m0−m12−m13) ≧ ΔmTH (Formula 3)
That is, the center pixel is detected as a peak when the density difference between the average value of the two pixel levels located symmetrically with respect to the center pixel and the density of the center pixel is larger than the threshold value ΔmTH. If either one of the two peak pixel detection means 231 and 232 is detected as a peak pixel in the OR circuit 233, it is determined as a peak pixel. The threshold value setting means 234 has the highest pixel value (highest density) among the peak pixels from the peak pixel and the pixel value (c or m or y value) within the 9 × 9 pixel centering on the target pixel. And threshold value = peak pixel maximum value + α. α is a parameter for giving a margin to the threshold, and when the CMY signal is 8 bits each, α is set to a value of about 10 to 30. The white pixel / black pixel determining unit 235 determines that the pixel is a black pixel if the value of c (or m or y) is equal to or greater than a set threshold value, and is a white pixel if the value is less than the set threshold value. As a result, the halftone dot character is determined to be a white pixel, and the character portion (with the exception of white characters on the halftone dot) has a higher density than the halftone dot, so it is determined to be a black pixel. Is done.

図4(a)は、エッジの滑らかさ判定手段203、213、223の構成を示す。P1パターンマッチング241は図4(b)のP1、P2パターンマッチング242は図4(b)のP2、P3パターンマッチング243は図4(b)のP3、P4パターンマッチング244は図4(b)のP4の3×3サイズの2値画像パターンとのパターンマッチングを行い、一致すれば「1」、不一致ならば「0」を出力する。   FIG. 4A shows the configuration of the edge smoothness determination means 203, 213, and 223. P1 pattern matching 241 is P1 in FIG. 4B, P2 pattern matching 242 is P2 in FIG. 4B, P3 pattern matching 243 is P3 in FIG. 4B, and P4 pattern matching 244 is in FIG. 4B. Pattern matching with a 3 × 3 size binary image pattern of P4 is performed, and “1” is output if they match, and “0” is output if they do not match.

次に、各出力値に対して、横方向または縦方向の画素数カウントを行い、注目画素から見た4方向の領域に対して縦エッジまたは横エッジの抽出を行う。ここで抽出されるのは、左上縦エッジ/左下縦エッジ/右上縦エッジ/右下縦エッジ/左上横エッジ/右上横エッジ/左下横エッジ/右下横エッジの8つの2値信号である。   Next, the number of pixels in the horizontal direction or the vertical direction is counted for each output value, and the vertical edge or the horizontal edge is extracted from the region in the four directions viewed from the target pixel. Extracted here are eight binary signals: upper left vertical edge / lower left vertical edge / upper right vertical edge / lower right vertical edge / upper left horizontal edge / upper right horizontal edge / lower left horizontal edge / lower right horizontal edge.

図5(a)−2のように、注目画素を中心として参照領域を4等分し、左上領域に縦線の左側エッジ(立上りエッジ)があるとき左上縦エッジ、左下領域に縦線の左側エッジ(立上りエッジ)があるとき左下縦エッジとして抽出する。   As shown in FIG. 5A-2, the reference area is divided into four equal parts with the pixel of interest at the center, and when there is a left edge (rising edge) of the vertical line in the upper left area, the upper left vertical edge and the left side of the vertical line in the lower left area When there is an edge (rising edge), it is extracted as a lower left vertical edge.

図5(a)−1、(a)−3のように、45°〜135°の傾きがある場合も、左上縦エッジおよび左下縦エッジの抽出対象とする。   As shown in FIGS. 5 (a) -1 and (a) -3, even when there is an inclination of 45 ° to 135 °, the upper left vertical edge and the lower left vertical edge are extracted.

縦線の右側エッジも同様に、図5(b)−2のように、右上領域に縦線の右側エッジ(立下りエッジ)があるとき右上縦エッジ、右下領域に縦線の右側エッジ(立下りエッジ)があるとき右下縦エッジとして抽出し、45°〜135°の傾きがある場合も抽出対象とする(図5(b)−1、(b)−3)。   Similarly, as shown in FIG. 5B-2, the right edge of the vertical line has an upper right vertical edge when the right edge (falling edge) of the vertical line is in the upper right area and the right edge of the vertical line in the lower right area. When there is a falling edge), it is extracted as a lower right vertical edge, and when it has an inclination of 45 ° to 135 °, it is also extracted (FIGS. 5B-1 and 5B-3).

図5(c)−2のように、注目画素を中心として参照領域を4等分し、左上領域に横線の上側エッジ(立上りエッジ)があるとき左上横エッジ、右上領域に横線の上側エッジ(立上りエッジ)があるとき右上横エッジとして抽出する。図5(c)−1、(c)−3のように、−45°〜45°の傾きがある場合も左上横エッジおよび右上横エッジの抽出対象とする。   As shown in FIG. 5C-2, the reference region is divided into four equal parts with the target pixel as the center. When the upper left region has an upper edge (rising edge) of the horizontal line, the upper left horizontal edge, and the upper right region has an upper edge of the horizontal line ( When there is a rising edge), it is extracted as the upper right horizontal edge. As shown in FIGS. 5 (c) -1 and (c) -3, even when there is an inclination of −45 ° to 45 °, the upper left horizontal edge and the upper right horizontal edge are extracted.

横線の下側エッジも同様に、図5(d)−2のように、左下領域に横線の下側エッジ(立下りエッジ)があるとき左下横エッジ、右下領域に横線の下側エッジ(立下りエッジ)があるとき右下横エッジとして抽出し、−45°〜45°の傾きがある場合も抽出対象とする(図5(d)−1、(d)−3)。なお、図5(a)〜(d)では、参照領域内に対となるエッジが存在する比較的細い線を例に図示したが、図5(e)−1のように、対となるエッジが参照領域内には存在しない太い線のエッジに関しても同じく、左上縦エッジや左下縦エッジを抽出する。また、ここで抽出するのは直線だけでなく、図5(e)−2のように、滑らかな曲線のエッジも含めて左上縦エッジや左下縦エッジを抽出する。   Similarly, as shown in FIG. 5D, the lower edge of the horizontal line has a lower left horizontal edge when the lower left edge (falling edge) exists in the lower left area, and the lower edge of the horizontal line (lower edge) When there is a falling edge), it is extracted as a lower right lateral edge, and when it has an inclination of −45 ° to 45 °, it is also extracted (FIG. 5 (d) -1, (d) -3). In FIGS. 5A to 5D, a relatively thin line having a pair of edges in the reference region is illustrated as an example. However, as illustrated in FIG. Similarly, the upper left vertical edge and the lower left vertical edge are extracted for the edge of the thick line that does not exist in the reference area. Further, not only a straight line but also an upper left vertical edge and a lower left vertical edge including a smooth curved edge are extracted as shown in FIG. 5 (e) -2.

図6(a)は、横方向画素数カウント手段245および横方向画素数カウント手段246の処理を説明する図である。注目画素を挟んで横方向13画素のパターンマッチング結果が(1)の場合を例に説明する。パターンマッチング結果に対して、画素位置に対応した(2)横方向画素数カウント用の重みを各々乗算する。重みは、注目画素位置でゼロ、離れるに従って絶対値が大きくなるものであり、左方向がマイナス、右方向がプラスである。つまり、(1)×(2)の結果はパターンにマッチした画素が注目画素から数えて左右どちらの方向に何画素離れた画素位置に存在するかを求めたものになっている。パターンにマッチした画素のうち注目画素に最も近い画素の位置((1)×(2)の結果から、絶対値が最小になるものを選択する)を横方向画素数カウントの結果として出力する。ただし、(1)パターンマッチング結果が参照領域内で全てゼロの場合は、画素数カウントの結果は最大値「7」を出力する。   FIG. 6A is a diagram for explaining processing of the horizontal pixel number counting unit 245 and the horizontal pixel number counting unit 246. A case where the pattern matching result of 13 pixels in the horizontal direction across the target pixel is (1) will be described as an example. The pattern matching result is multiplied by (2) the weight for counting the number of horizontal pixels corresponding to the pixel position. The weight is zero at the target pixel position, and the absolute value increases as the distance increases. The left direction is negative and the right direction is positive. That is, the result of (1) × (2) is obtained by determining how many pixels away from the pixel of interest the pixel matching the pattern is located in the left or right direction. The position of the pixel closest to the target pixel among the pixels matched with the pattern (select the one with the smallest absolute value from the result of (1) × (2)) is output as the result of the horizontal pixel count. However, (1) if the pattern matching result is all zero in the reference area, the pixel count result is the maximum value “7”.

図6(b)は、縦方向画素数カウント手段247および縦方向画素数カウント手段248の処理を説明する図である。注目画素を挟んで縦方向13画素のパターンマッチング結果が(1)の場合を例に説明する。パターンマッチング結果に対して、画素位置に対応した(2)縦方向画素数カウント用の重みを各々乗算する。重みは、注目画素位置でゼロ、離れるに従って絶対値が大きくなるものであり、上方向がマイナス、下方向がプラスである。つまり、(1)×(2)の結果はパターンにマッチした画素が注目画素から数えて上下どちらの方向に何画素離れた画素位置に存在するかを求めたものになっている。パターンにマッチした画素のうち注目画素に最も近い画素の位置((1)×(2)の結果から、絶対値が最小になるものを選択する)を縦方向画素数カウントの結果として出力する。ただし、(1)パターンマッチング結果が参照領域内で全てゼロの場合は、画素数カウントの結果は最大値「7」を出力する。   FIG. 6B is a diagram for explaining the processing of the vertical pixel number counting unit 247 and the vertical pixel number counting unit 248. A case where the pattern matching result of 13 pixels in the vertical direction across the target pixel is (1) will be described as an example. The pattern matching result is multiplied by (2) a weight for counting the number of vertical pixels corresponding to the pixel position. The weight is zero at the target pixel position, and the absolute value increases as the distance increases. The upward direction is negative and the downward direction is positive. That is, the result of (1) × (2) is obtained by determining how many pixels away from the pixel of interest the pixel matching the pattern is in the vertical direction. The position of the pixel closest to the target pixel among the pixels matched with the pattern (select the one having the smallest absolute value from the result of (1) × (2)) is output as the result of counting the number of vertical pixels. However, (1) if the pattern matching result is all zero in the reference area, the pixel count result is the maximum value “7”.

図7(a)は、左上縦エッジ抽出手段249および右上縦エッジ手段抽出手段251の参照領域と抽出条件を説明する図である。横方向画素数カウントの結果y1〜y7を縦方向に注目画素(y7)を含む上7画素参照し、(1)縦線の抽出条件、(2)斜め線の抽出条件(滑らかな曲線も含む)のいずれかを満たせば、左上縦エッジまたは右上縦エッジとして「1」を出力、どちらも満たさなければ「0」を出力する。(1)縦線の抽出条件および(2)斜め線の抽出条件ともに、第1の条件は、7画素全ての横方向画素数カウントの結果が「7」より小さいこと、つまり、横方向に必ずパターンマッチングでマッチした画素が存在することである。(1)縦線の抽出条件の第2の条件は、横方向画素数カウントの最大値と最小値の差分が1以下であることである。(2)斜め線の抽出条件の第2の条件は、横方向画素数カウントの結果が上から下に向かって降順に並んでいることである。(1)縦線の抽出条件の方は、完全にノイズの無い縦線は勿論のこと、図31(b)の網点上文字画像の例のように、縦線に1ドットが突起状に付いている場合も縦線として抽出する条件になっており、斜め線よりも判定条件をやや緩くしている。   FIG. 7A is a diagram for explaining reference regions and extraction conditions of the upper left vertical edge extraction unit 249 and the upper right vertical edge extraction unit 251. The horizontal pixel count results y1 to y7 are referred to the top seven pixels including the target pixel (y7) in the vertical direction, and (1) vertical line extraction conditions and (2) diagonal line extraction conditions (including smooth curves) ) Is output as the upper left vertical edge or the upper right vertical edge, and “0” is output when neither is satisfied. The first condition for both (1) vertical line extraction condition and (2) diagonal line extraction condition is that the result of the horizontal pixel count of all seven pixels is smaller than “7”, that is, the horizontal direction is always That is, there is a pixel matched by pattern matching. (1) The second condition of the vertical line extraction condition is that the difference between the maximum value and the minimum value of the horizontal pixel count is 1 or less. (2) The second condition of the diagonal line extraction condition is that the horizontal pixel count results are arranged in descending order from top to bottom. (1) The vertical line extraction condition is not only a vertical line with no noise, but also one dot on the vertical line as in the example of the character image on the halftone dot in FIG. Even if it is attached, it is a condition to extract as a vertical line, and the judgment condition is slightly looser than that of the diagonal line.

図7(b)は、左下縦エッジ抽出手段250および右下縦エッジ抽出手段252の参照領域と抽出条件を説明する図である。横方向画素数カウントの結果y7〜y13を縦方向に注目画素(y7)を含む下7画素参照する。それ以外は図7(a)の左上縦エッジ抽出手段249および右上縦エッジ抽出手段251と同様である。   FIG. 7B is a diagram for explaining reference regions and extraction conditions of the lower left vertical edge extraction unit 250 and the lower right vertical edge extraction unit 252. The results of the horizontal pixel count y7 to y13 are referred to the lower seven pixels including the target pixel (y7) in the vertical direction. The rest is the same as the upper left vertical edge extracting unit 249 and the upper right vertical edge extracting unit 251 of FIG.

図8(a)は、左上横エッジ抽出手段253および左下横エッジ抽出手段255の参照領域と抽出条件を説明する図である。縦方向画素数カウントの結果t1〜t7を横方向に注目画素(y7)を含む左7画素参照し、(1)横線の抽出条件、(2)斜め線の抽出条件(滑らかな曲線も含む)のいずれかを満たせば、左上横エッジまたは左下横エッジとして「1」を出力、どちらも満たさなければ「0」を出力する。(1)横線の抽出条件および(2)斜め線の抽出条件ともに、第1の条件は、7画素全ての縦方向画素数カウントの結果が「7」より小さいこと、つまり、縦方向に必ずパターンマッチングでマッチした画素が存在することである。(1)横線の抽出条件の第2の条件は、縦方向画素数カウントの最大値と最小値の差分が1以下であることである。(2)斜め線の抽出条件の第2の条件は、縦方向画素数カウントの結果が左から右に向かって降順に並んでいることである。(1)横線の抽出条件の方は、完全にノイズの無い横線は勿論のこと、横線に1ドットが突起状に付いている場合も縦線として抽出する条件になっており、斜め線よりも判定条件をやや緩くしている。   FIG. 8A is a diagram for explaining reference regions and extraction conditions of the upper left horizontal edge extraction unit 253 and the lower left horizontal edge extraction unit 255. The left pixel including the target pixel (y7) in the horizontal direction is referred to the results t1 to t7 of the vertical pixel count, and (1) horizontal line extraction condition, (2) diagonal line extraction condition (including a smooth curve) If either of these is satisfied, “1” is output as the upper left horizontal edge or the lower left horizontal edge, and “0” is output if neither is satisfied. The first condition for both (1) the horizontal line extraction condition and (2) the diagonal line extraction condition is that the result of counting the number of vertical pixels in all seven pixels is smaller than “7”, that is, the pattern is always in the vertical direction. That is, there is a pixel matched by matching. (1) The second condition of the horizontal line extraction condition is that the difference between the maximum value and the minimum value of the vertical direction pixel count is 1 or less. (2) The second condition of the diagonal line extraction condition is that the results of the vertical pixel count are arranged in descending order from left to right. (1) The horizontal line extraction condition is not only a completely noise-free horizontal line, but also a case where a horizontal line has a dot in the shape of a protrusion, so that it is extracted as a vertical line. The judgment conditions are slightly relaxed.

図8(b)は、右上横エッジ抽出手段254および右下横エッジ抽出手段256の参照領域と抽出条件を説明する図である。縦方向画素数カウントの結果t7〜t13を横方向に注目画素(t7)を含む右7画素参照する。それ以外は図8(a)の左上横エッジ抽出手段253および左下横エッジ抽出手段255と同様である。   FIG. 8B is a diagram for explaining reference regions and extraction conditions of the upper right horizontal edge extracting unit 254 and the lower right horizontal edge extracting unit 256. As a result of counting the number of pixels in the vertical direction, the right seven pixels including the target pixel (t7) are referred to in the horizontal direction. The rest is the same as the upper left horizontal edge extraction unit 253 and the lower left horizontal edge extraction unit 255 of FIG.

以上、説明した各エッジの抽出条件のうち、第2の条件として説明したものが、エッジの滑らかさを判定する条件に該当し、参照領域内における局所的な凹凸の有無を判定している。   Of the above-described extraction conditions for each edge, the one described as the second condition corresponds to the condition for determining the smoothness of the edge, and determines the presence or absence of local unevenness in the reference region.

図9は、連続エッジ検出手段204、214、224の構成を示す。図9に示すように、論理積演算(AND)261〜264および論理和演算(OR)265で構成される。例えば図12(a)のように、注目画素が左上縦エッジかつ左下縦エッジの場合、連続エッジとして検出される。滑らかな線が連続する場合に連続エッジが検出され、主に太い文字や線のエッジが検出される。   FIG. 9 shows the configuration of the continuous edge detection means 204, 214, 224. As shown in FIG. 9, it includes AND operations (AND) 261 to 264 and an OR operation (OR) 265. For example, as shown in FIG. 12A, when the pixel of interest is an upper left vertical edge and a lower left vertical edge, it is detected as a continuous edge. When smooth lines are continuous, continuous edges are detected, and mainly the edges of thick characters and lines are detected.

図10は、ペアエッジ検出手段205、215、225の構成を示す。図10に示すように、論理積演算(AND)271〜274および論理和演算(OR)275で構成される。例えば図12(b)のように、注目画素が左上縦エッジかつ右上縦エッジ、または、左下縦エッジかつ右下縦エッジの場合、ペアエッジとして検出される。主に細い文字や線が検出される。また、図12(c)のように、端点付近のエッジもペアエッジとして検出される。   FIG. 10 shows the configuration of the pair edge detection means 205, 215, and 225. As shown in FIG. 10, it is composed of logical product operations (AND) 271 to 274 and logical sum operation (OR) 275. For example, as shown in FIG. 12B, when the target pixel is an upper left vertical edge and an upper right vertical edge, or a lower left vertical edge and a lower right vertical edge, it is detected as a pair edge. Thin characters and lines are mainly detected. Further, as shown in FIG. 12C, edges near the end points are also detected as pair edges.

図11は、交点エッジ検出手段206、216、226の構成を示す。図11に示すように、論理積演算(AND)281〜288および論理和演算(OR)289で構成される。例えば図12(d)のように、注目画素が右上横エッジかつ左下縦エッジの場合、交点エッジとして検出される。主に文字を構成する線同士の交点、太文字の端点、折れ線の角付近が検出される。   FIG. 11 shows the configuration of the intersection edge detection means 206, 216, 226. As shown in FIG. 11, it is composed of logical product operations (AND) 281 to 288 and logical sum operation (OR) 289. For example, as shown in FIG. 12D, when the pixel of interest is an upper right horizontal edge and a lower left vertical edge, it is detected as an intersection edge. The intersections between the lines constituting the characters, the end points of the bold characters, and the corners of the broken lines are mainly detected.

図13は、文字絵柄識別手段207、217、227の構成を示す。太文字(太線)エッジおよび細文字(細線)エッジをそれぞれ識別し、OR295で太文字エッジまたは細文字エッジであれば文字エッジとして識別する。太文字エッジの抽出は、補正手段291で補正を行い、その結果を膨張手段292で膨張する。太文字エッジでは、連続エッジ/ペアエッジ/交点エッジのうち、連続エッジと交点エッジが抽出されるはずである。補正手段291では、5×5の参照領域内の画素全てにおいて連続エッジまたは交点エッジが検出されていれば「1」を出力し、連続エッジでも交点エッジでもない画素が存在する場合は「0」を出力する。膨張手段292は、9×9画素の補正手段291の結果を参照し、「1」が存在すれば太文字エッジとして抽出する。細文字エッジの抽出は、補正手段293で補正を行い、その結果を膨張手段294で膨張する。細文字エッジでは、連続エッジ/ペアエッジ/交点エッジのうち、ペアエッジと交点エッジが抽出されるはずである。補正手段293では5×5の参照領域内の画素全てにおいてペアエッジまたは交点エッジが検出されていれば「1」を出力し、ペアエッジでも交点エッジでもない画素が存在する場合は「0」を出力する。膨張手段294は、9×9画素の補正手段293の結果を参照し、「1」が存在すれば細文字エッジとして抽出する。   FIG. 13 shows the configuration of the character / picture identification means 207, 217, 227. A bold character (thick line) edge and a thin character (thin line) edge are identified, respectively. In the extraction of the bold character edge, correction is performed by the correction unit 291 and the result is expanded by the expansion unit 292. For a bold edge, a continuous edge and an intersection edge should be extracted from continuous edges / pair edges / intersection edges. The correcting means 291 outputs “1” if a continuous edge or intersection edge is detected in all the pixels in the 5 × 5 reference region, and “0” if there is a pixel that is neither a continuous edge nor an intersection edge. Is output. The expansion unit 292 refers to the result of the 9 × 9 pixel correction unit 291 and extracts “1” as a bold character edge. The extraction of the fine character edge is corrected by the correction unit 293 and the result is expanded by the expansion unit 294. In the fine character edge, the pair edge and the intersection edge should be extracted from the continuous edge / pair edge / intersection edge. The correction unit 293 outputs “1” if a pair edge or intersection edge is detected in all the pixels in the 5 × 5 reference region, and outputs “0” if a pixel that is neither a pair edge nor an intersection edge exists. . The expansion unit 294 refers to the result of the 9 × 9 pixel correction unit 293, and extracts “1” as a fine character edge.

エッジの滑らかさ判定から文字絵柄識別までの処理を、網点上文字エッジの場合、網点絵柄中エッジの場合の2つの具体例で説明する。
(エッジの滑らかさ判定の具体例1)
図14は、網点上文字エッジの2値化後の画像である。図15は、図14の画像に対するP1パターンマッチング241の結果と横方向画素数カウント手段245の結果であり、左上縦エッジ、左下縦エッジともに、横方向画素数カウント結果=7が存在するので、抽出結果は「0」になる。
The processing from edge smoothness determination to character picture identification will be described with two specific examples of the case of a character edge on a halftone dot and the case of a middle edge of a halftone dot pattern.
(Specific example 1 of edge smoothness determination)
FIG. 14 is an image after binarization of a character edge on a halftone dot. FIG. 15 shows the result of the P1 pattern matching 241 for the image of FIG. 14 and the result of the horizontal pixel count counting unit 245. Since both the upper left vertical edge and the lower left vertical edge have the horizontal pixel count result = 7, The extraction result is “0”.

図16は、図14の画像に対するP2パターンマッチング242の結果と横方向画素数カウント手段246の結果であり、右上縦エッジ、右下縦エッジともに、横方向画素数カウント結果=7が存在するので、抽出結果は「0」になる。   FIG. 16 shows the result of the P2 pattern matching 242 for the image of FIG. 14 and the result of the horizontal pixel count counting means 246. Since the upper right vertical edge and the lower right vertical edge both have the horizontal pixel count result = 7. The extraction result is “0”.

図17は、図14の画像に対するP3パターンマッチング243の結果と縦方向画素数カウント手段247の結果であり、左上横エッジ、右上横エッジともに、縦方向画素数カウント結果が全て7未満、かつ、左から右に向かって降順に並んでいるので、抽出結果は「1」になる。   FIG. 17 shows the result of the P3 pattern matching 243 for the image of FIG. 14 and the result of the vertical pixel count counting means 247. The vertical pixel count results are all less than 7 for both the upper left horizontal edge and the upper right horizontal edge, and Since they are arranged in descending order from left to right, the extraction result is “1”.

図18は、図14の画像に対するP4パターンマッチング244の結果と縦方向画素数カウント手段248の結果であり、左下横エッジ、右下横エッジともに、縦方向画素数カウント結果が全て7未満、かつ、左から右に向かって降順に並んでいるので、抽出結果は「1」になる。   FIG. 18 shows the result of P4 pattern matching 244 for the image of FIG. 14 and the result of the vertical pixel count counting means 248. Both the lower left horizontal edge and the lower right horizontal edge have vertical pixel count results of less than 7, and Since they are arranged in descending order from left to right, the extraction result is “1”.

以上の各抽出結果から、図14の画像に対するエッジの滑らかさ判定の結果、滑らかなエッジであるとして抽出されるのは、左上横エッジ、右上横エッジ、左下横エッジ、右下横エッジ、ということになる。これは連続エッジおよびペアエッジとして検出され、(補正手段293で排除されなければ)最終的に文字エッジとして識別される。
(エッジの滑らかさ判定の具体例2)
図19は、網点絵柄中エッジの2値化後の画像である。図20は、図19の画像に対するP1パターンマッチング241の結果と横方向画素数カウント手段245の結果である。左上縦エッジは、横方向画素数カウント結果が全て7未満、かつ、上から下に向かって降順に並んでいるので抽出結果は「1」、左下縦エッジは、横方向画素数カウント結果=7が存在するので抽出結果は「0」になる。
As a result of the edge smoothness determination for the image of FIG. 14 from the above extraction results, what is extracted as a smooth edge is the upper left horizontal edge, the upper right horizontal edge, the lower left horizontal edge, and the lower right horizontal edge. It will be. This is detected as a continuous edge and a pair edge, and finally identified as a character edge (unless excluded by the correction means 293).
(Specific example 2 of edge smoothness determination)
FIG. 19 shows an image after binarization of the halftone dot pattern. FIG. 20 shows the result of the P1 pattern matching 241 and the result of the horizontal pixel number counting unit 245 for the image of FIG. In the upper left vertical edge, the horizontal pixel count results are all less than 7 and are arranged in descending order from top to bottom, so the extraction result is “1”, and the lower left vertical edge is the horizontal pixel count result = 7. Therefore, the extraction result is “0”.

図21は、図19の画像に対するP2パターンマッチング242の結果と横方向画素数カウント手段246の結果であり、右上縦エッジは、横方向画素数カウント結果=7が存在するので抽出結果は「0」、右下縦エッジは、横方向画素数カウント結果が全て7未満、かつ、上から下に向かって降順に並んでいるので抽出結果は「1」になる。   FIG. 21 shows the result of the P2 pattern matching 242 and the result of the horizontal pixel count counting unit 246 for the image of FIG. 19. The upper right vertical edge has the horizontal pixel count result = 7, and the extraction result is “0”. The lower right vertical edge has all horizontal pixel count results of less than 7 and is arranged in descending order from top to bottom, so the extraction result is “1”.

図22は、図19の画像に対するP3パターンマッチング243の結果と縦方向画素数カウント手段247の結果であり、左上横エッジは、縦方向画素数カウント結果が全て7未満であるが左から右に向かって降順に並んでいないため抽出結果は「0」、右上横エッジは、縦方向画素数カウント結果が全て7未満、かつ、左から右に向かって降順に並んでいるので抽出結果は「1」になる。   FIG. 22 shows the result of the P3 pattern matching 243 for the image of FIG. 19 and the result of the vertical pixel count counting means 247. The upper left horizontal edge shows that the vertical pixel count results are all less than 7, but from left to right. Since the pixels are not arranged in descending order, the extraction result is “0”. In the upper right horizontal edge, all the vertical pixel count results are less than 7 and are arranged in descending order from left to right. "become.

図23は、図19の画像に対するP4パターンマッチング244の結果と縦方向画素数カウント手段248の結果であり、左下横エッジは、縦方向画素数カウント結果が全て7未満、かつ、左から右に向かって降順に並んでいるので抽出結果は「1」、右下横エッジは、縦方向画素数カウント結果が全て7未満であるが左から右に向かって降順に並んでいないため抽出結果は「0」になる。   FIG. 23 shows the result of the P4 pattern matching 244 for the image of FIG. 19 and the result of the vertical pixel count counting means 248. The lower left horizontal edge indicates that the vertical pixel count results are all less than 7 and from left to right. Since the pixels are arranged in descending order, the extraction result is “1”, and the lower right horizontal edge has all the vertical pixel count results less than 7, but the extraction result is “from left to right. 0 ”.

以上の各抽出結果から、図19の画像に対するエッジの滑らかさ判定の結果、滑らかなエッジであるとして抽出されるのは、左上縦エッジ、右下縦エッジ、右上横エッジ、左下横エッジ、ということになる。これは連続エッジ、ペアエッジ、交点エッジのいずれでもなく、最終結果は文字エッジでないということになる。注目すべきは、左上横エッジと右下横エッジが、参照領域に局所的な凹凸があるため滑らかなエッジでないと判定され、抽出されない点であり、これにより絵柄エッジを文字エッジとして誤って識別してしまうことを防いでいる。   As a result of the edge smoothness determination for the image in FIG. 19, it is said that the upper left vertical edge, the lower right vertical edge, the upper right horizontal edge, and the lower left horizontal edge are extracted as smooth edges. It will be. This is not a continuous edge, a pair edge, or an intersection edge, and the final result is not a character edge. It should be noted that the upper left horizontal edge and the lower right horizontal edge are judged as non-smooth edges due to local unevenness in the reference area, and are not extracted. It prevents that.

図24は、エッジ量抽出手段30の構成を示す。信号合成手段301は、R’G’B’信号を合成((R’+2G’+B’)/4)して1信号に変換し、エッジ量検出手段302においてエッジ量を検出する。   FIG. 24 shows the configuration of the edge amount extraction means 30. The signal synthesis unit 301 synthesizes the R′G′B ′ signal ((R ′ + 2G ′ + B ′) / 4) and converts it into one signal, and the edge amount detection unit 302 detects the edge amount.

図25(a)は、エッジ量検出手段302の構成を示す。エッジ量検出フィルタ303〜306(1〜4)では、それぞれ図25(b)〜(e)に示した4種類の7×7フィルタを使用して、マスキング演算を行う。4つの出力のうち絶対値が最大のものを最大値選択手段311で選択し、出力する。   FIG. 25A shows the configuration of the edge amount detection means 302. In the edge amount detection filters 303 to 306 (1 to 4), masking calculation is performed using four types of 7 × 7 filters shown in FIGS. Of the four outputs, the one with the maximum absolute value is selected by the maximum value selection means 311 and output.

図26は、フィルタ処理手段13の構成を示す。平滑化手段131およびエッジ強調手段132のフィルタ処理を行い、2つのフィルタ処理の結果を合成手段133は、エッジ量および文字エッジに応じた割合で合成する。文字エッジである場合は、エッジ量に応じて、エッジ量最大のときに平滑化結果:エッジ強調結果を1:10、エッジ量最小のときに1:0(平滑化結果のみ有効)、エッジ量が中間の値の場合は中間的な割合で合成する。文字エッジでない場合は常に1:0の割合で合成する。白地上文字エッジおよび網点上文字エッジを強調して鮮鋭に再現し、絵柄部は滑らかに粒状性良く再現するのに有効である。   FIG. 26 shows the configuration of the filter processing means 13. The smoothing means 131 and the edge emphasis means 132 are subjected to filter processing, and the result of the two filter processes is synthesized at a ratio corresponding to the edge amount and the character edge. In the case of a character edge, according to the edge amount, smoothing result when the edge amount is maximum: edge enhancement result is 1:10, and when the edge amount is minimum, 1: 0 (only the smoothing result is valid), edge amount When is an intermediate value, it is synthesized at an intermediate ratio. When it is not a character edge, it is always combined at a ratio of 1: 0. It is effective for emphasizing the white ground character edge and the halftone dot character edge to reproduce sharply, and to reproduce the picture portion smoothly with good graininess.

図27は、エッジ量抽出手段40の構成を示す。C’M’Y’各色毎にエッジ量検出手段401、402、403は多値のエッジ量を検出する。エッジ量検出手段の構成は、エッジ量抽出手段30のものと同様である(図25(a))。ただし、エッジ量検出フィルタは図27(b)〜(e)の5×5サイズのものを使用する。フィルタ処理後の信号からのエッジ量検出であるため、解像度の違いを考慮して検出フィルタのサイズを変えている。最大値選択手段404は、検出した3色のエッジ量のうち最大のものを選択する。一方、信号合成手段405は、C’M’Y’の3信号を所定の割合で足し合わせて1信号に変換する。例えば(C’×1/4+M’×2/4+Y’×1/4)を合成信号として出力する。ラプラシアンフィルタ演算手段406は、合成信号に対して図27(f)のフィルタを使用してマスキング演算を行い、符号判定手段407は正の値か否かを判定する。正なら1、負なら0を出力する。内側エッジ量抽出手段408は、符号判定手段407の結果が「1」である場合に、最大値選択手段404の出力値をそのまま出力する。符号判定手段407の結果が「0」の場合は、エッジ量をキャンセルして0を出力する。ラプラシアンフィルタ演算手段406の出力値は、文字の内側エッジに相当するエッジの高濃度側では正の値、文字の外側エッジに相当するエッジの低濃度側では負の値を出力するため、これを利用し、ラプラシアンが正の内側エッジでのみエッジ量を有効にし、ラプラシアンが負の外側エッジではエッジ量を無効にしている。N値化手段409においてN値に量子化する。Nは、エッジ量抽出結果の適用先であるUCR/墨生成手段15において、処理を何段階で制御するかに応じて決まるものであるが、ここでは説明を簡単にするため2段階で制御するものとし、0〜63の値で抽出された内側エッジ量を0/1(N=2)に量子化しておく。   FIG. 27 shows the configuration of the edge amount extraction means 40. For each color C′M′Y ′, the edge amount detection means 401, 402, and 403 detect multivalued edge amounts. The configuration of the edge amount detection means is the same as that of the edge amount extraction means 30 (FIG. 25A). However, the edge amount detection filter of 5 × 5 size shown in FIGS. 27B to 27E is used. Since the edge amount is detected from the signal after the filter processing, the size of the detection filter is changed in consideration of the difference in resolution. The maximum value selection unit 404 selects the maximum one of the detected edge amounts of the three colors. On the other hand, the signal synthesizing unit 405 adds the three signals C′M′Y ′ at a predetermined ratio and converts them into one signal. For example, (C ′ × 1/4 + M ′ × 2/4 + Y ′ × 1/4) is output as a synthesized signal. Laplacian filter operation means 406 performs masking operation on the synthesized signal using the filter of FIG. 27 (f), and sign determination means 407 determines whether or not it is a positive value. 1 if positive, 0 if negative. The inner edge amount extraction unit 408 outputs the output value of the maximum value selection unit 404 as it is when the result of the sign determination unit 407 is “1”. If the result of the sign determination means 407 is “0”, the edge amount is canceled and 0 is output. The Laplacian filter calculation means 406 outputs a positive value on the high density side of the edge corresponding to the inner edge of the character and a negative value on the low density side of the edge corresponding to the outer edge of the character. The edge amount is valid only at the inner edge where the Laplacian is positive, and the edge amount is invalid at the outer edge where the Laplacian is negative. The N-value converting unit 409 quantizes the N-value. N is determined according to the number of stages in which processing is controlled in the UCR / black generation means 15 to which the edge amount extraction result is applied, but here it is controlled in two stages in order to simplify the explanation. It is assumed that the inner edge amount extracted with a value of 0 to 63 is quantized to 0/1 (N = 2).

UCR/墨生成手段15は、墨生成、UCRともに式で行う方法、LUTで行う方法等があるが、本実施例では墨生成をLUTで行い、UCRを式で行う場合について説明する。図28は、墨生成のLUTである。墨生成では、C’、M’、Y’(0が白、255が黒)の最小値Min(C’、M’、Y’)を算出し、これをLUTへ入力して出力値を得る。UCRは次の式により行う。αはUCR調整パラメータである。
C=C’−α×K
M=C’−α×K
Y=C’−α×K (式4)
文字エッジかつエッジ量抽出手段40の出力値が「1」の場合、墨生成テーブル−1を使用し、Min(C、M’Y’)をそのままKに置き換え、UCR調整パラメータはα=1とする。その他の場合は、墨生成テーブル−2を使用し、ハイライトではKを発生させず中間から徐々にKを発生させる。UCR調整パラメータはα=0.5とする。フィルタ処理のようにエッジ量を多値で求め、中間的な墨生成テーブルをいくつも準備して多段階制御しても良い。このように墨生成およびUCRを切り換えることにより、文字(黒文字)を鮮鋭に色付きなく再現し、絵柄を高階調に再現することができる。
The UCR / black generation means 15 includes a method of performing both black generation and UCR using an equation, a method using an LUT, and the like. In this embodiment, a case where black generation is performed using an LUT and UCR is performed using an equation will be described. FIG. 28 shows a black generation LUT. In black generation, the minimum value Min (C ′, M ′, Y ′) of C ′, M ′, Y ′ (0 is white, 255 is black) is calculated and input to the LUT to obtain an output value. . UCR is performed by the following equation. α is a UCR adjustment parameter.
C = C′−α × K
M = C′−α × K
Y = C′−α × K (Formula 4)
When the output value of the character edge and edge amount extraction means 40 is “1”, the black generation table-1 is used, Min (C, M′Y ′) is replaced with K as it is, and the UCR adjustment parameter is α = 1. To do. In other cases, the black generation table-2 is used, and K is not generated in the highlight, but K is gradually generated from the middle. The UCR adjustment parameter is α = 0.5. As in the filter processing, the edge amount may be obtained in multiple values, and a number of intermediate black generation tables may be prepared and controlled in multiple stages. By switching between black ink generation and UCR in this way, it is possible to reproduce characters (black characters) sharply without coloring and to reproduce a pattern with high gradation.

以上、本実施例によれば、エッジの局所的な凹凸に着目し、滑らかなエッジであるか否かを判定することで、網点上文字エッジを網点絵柄中エッジと切り分けて識別することができる。更に、識別結果をフィルタ処理、墨処理に適用することにより、網点上文字エッジと網点絵柄の高画質再生を両立できる。なお、本実施例では文字絵柄識別結果をフィルタ処理と墨処理に適用する例を示したが、色補正や擬似階調処理など、様々な高画質化処理に文字絵柄識別結果を使用する従来技術があり、それらに本発明の識別結果を適用しても勿論有効である。   As described above, according to the present embodiment, by focusing on the local unevenness of the edge and determining whether or not the edge is a smooth edge, the character edge on the halftone dot is discriminated from the edge in the halftone dot pattern. Can do. Furthermore, by applying the identification result to filter processing and black ink processing, it is possible to achieve both high-quality reproduction of a halftone dot character edge and a halftone dot pattern. In this embodiment, an example in which the character / pattern identification result is applied to the filter processing and the black processing is shown. However, the conventional technology uses the character / pattern identification result for various image quality enhancement processing such as color correction and pseudo gradation processing. Of course, it is also effective to apply the identification result of the present invention to them.

実施例2:
実施例1では、本発明の文字絵柄識別結果を高画質化処理に適用する例を示した。実施例2では、高画質化ではなく画質加工的な処理であるトナーセーブ処理に適用する例を示す。トナーセーブ処理は、濃度を下げて出力することにより、トナー消費量を抑える処理である。なお、“トナーセーブ”のトナーとは、粉体トナーに限らない。液体トナー(インク)もこれに含まれる。
Example 2:
In Example 1, the example which applies the character pattern identification result of this invention to an image quality improvement process was shown. In the second embodiment, an example is shown in which the present invention is applied to a toner save process that is not an image quality improvement process but an image quality processing. The toner saving process is a process for suppressing the toner consumption amount by lowering the density and outputting. The “toner save” toner is not limited to powder toner. This includes liquid toner (ink).

図29は、本発明の実施例2の構成を示す。操作パネル50では、ユーザーがトナーセーブモードで出力したい場合にトナーセーブモードを選択指定することができる。ユーザーがトナーセーブモードを指定した場合、トナーセーブ処理手段19がトナーセーブ処理を行う。   FIG. 29 shows the configuration of the second embodiment of the present invention. On the operation panel 50, when the user wants to output in the toner save mode, the toner save mode can be selected and designated. When the user designates the toner save mode, the toner save processing means 19 performs toner save processing.

トナーセーブ処理手段19は、操作パネル50からの信号、および、画像属性判定手段20の結果(文字エッジであるか否か)、および、エッジ量抽出手段40の出力値に応じて、トナーセーブ処理を切り換える。   The toner save processing unit 19 performs toner save processing according to the signal from the operation panel 50, the result of the image attribute determination unit 20 (whether it is a character edge), and the output value of the edge amount extraction unit 40. Switch.

トナーセーブ処理は、図30のγ変換により行う。トナーセーブγ−1を使用した場合、入力値=出力値になり、濃度がそのまま保存され、実質的にトナーセーブ処理が行われないことになる。トナーセーブγ−2を使用した場合、入力値に対して出力値が50%程度になる処理が施される。操作パネル50でトナーセーブモードが指定されない場合は、常にトナーセーブγ−1を使用する。操作パネル50でトナーセーブモードが指定された場合は、文字エッジであり、かつ、エッジ量抽出の出力値が「1」である場合、トナーセーブγ−1を使用してトナーセーブ処理を行う(実質的に行わない)。その他の場合は、トナーセーブγ−2を使用する。   The toner saving process is performed by the γ conversion of FIG. When toner save γ-1 is used, the input value = the output value, the density is stored as it is, and the toner save process is not substantially performed. When toner save γ-2 is used, processing is performed in which the output value is about 50% of the input value. When the toner save mode is not designated on the operation panel 50, the toner save γ-1 is always used. When the toner save mode is designated on the operation panel 50, if it is a character edge and the output value of edge amount extraction is “1”, toner save processing is performed using toner save γ−1 ( Practically not). In other cases, toner save γ-2 is used.

これにより、トナーセーブモード設定時、白地上文字エッジおよび網点上文字エッジの濃度を保存することで文字判読性を維持しつつ、絵柄部に対して効果的にトナーを節約し、かつ、網点絵柄中エッジが文字エッジのように濃度保存されてしまう画質上の不具合(文字絵柄識別の精度が悪いと頻繁に発生してしまう不具合)を抑えて絵柄部でも良好なトナーセーブ画像を生成することができる。   As a result, when the toner save mode is set, the density of the white background character edge and the character edge on the halftone dot is preserved to maintain the character legibility, while effectively saving the toner on the picture portion, and Generates a good toner-save image even in the picture part, suppressing image quality defects (faults that frequently occur when the accuracy of character / pattern identification is poor) where the edges of the dot pattern are conserved in density like character edges be able to.

以上、実施例2によれば、実施例1の文字絵柄識別をトナーセーブ処理に適用することにより、文字判読性の維持、絵柄画質の不具合の抑制、トナーの節約効果の発揮を同時に達成することができる。このように、本発明の識別技術は高画質化のための画像処理に限定されるものではなく、適用範囲は極めて広い。ここで挙げたトナーセーブもその適用例の一つであり、この他に例えば文字絵柄を識別して圧縮方式を変えることで圧縮効率を高める技術等に適用しても効果的である。   As described above, according to the second embodiment, by applying the character / pattern identification according to the first embodiment to the toner saving process, it is possible to simultaneously maintain the character readability, suppress the defect in the image quality, and exhibit the toner saving effect. Can do. Thus, the identification technique of the present invention is not limited to image processing for improving image quality, and the applicable range is extremely wide. The toner save mentioned here is one of the application examples. In addition, for example, it can be effectively applied to a technique for increasing the compression efficiency by identifying a character pattern and changing the compression method.

また、本発明は、前述した実施例の処理手順や機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(CPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても達成される。この場合、記憶媒体から読出されたプログラムコード自体が前述した実施例の処理手順や機能を実現することになる。プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、コンピュータが読出したプログラムコードを実行することにより、前述した実施例の処理手順や機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施例の処理手順や機能が実現される場合も含まれる。さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の処理手順や機能が実現される場合も含まれる。   The present invention also supplies a storage medium storing software program codes for realizing the processing procedures and functions of the above-described embodiments to a system or apparatus, and a computer (CPU or MPU) of the system or apparatus stores the storage medium. This can also be achieved by reading and executing the program code stored in. In this case, the program code itself read from the storage medium realizes the processing procedures and functions of the above-described embodiment. As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used. Further, by executing the program code read by the computer, not only the processing procedures and functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code. ) Etc. perform part or all of the actual processing, and the processing procedures and functions of the above-described embodiments are realized by the processing. Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. This includes the case where the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the processing procedures and functions of the above-described embodiments are realized by the processing.

本発明の実施例1の構成を示す。The structure of Example 1 of this invention is shown. 画像属性判定手段の構成を示す。The structure of an image attribute determination means is shown. 2値化手段の構成を示す。The structure of a binarization means is shown. エッジの滑らかさ判定手段の構成を示す。The structure of the smoothness determination means of an edge is shown. 抽出対象となるエッジ例を示す。An example of an edge to be extracted is shown. 横/縦方向画素数カウント手段の処理を説明する図である。It is a figure explaining the process of a horizontal / vertical direction pixel number count means. 左上/右上縦エッジ抽出手段、左下/右下縦エッジ抽出手段の参照領域と抽出条件を説明する図である。It is a figure explaining the reference area and extraction conditions of an upper left / upper right vertical edge extraction means and a lower left / lower right vertical edge extraction means. 左上/左下横エッジ抽出手段、右上/右下横エッジ抽出手段の参照領域と抽出条件を説明する図である。It is a figure explaining the reference area and extraction conditions of an upper left / lower left horizontal edge extraction means and an upper right / lower right horizontal edge extraction means. 連続エッジ検出手段の構成を示す。The structure of a continuous edge detection means is shown. ペアエッジ検出手段の構成を示す。The structure of a pair edge detection means is shown. 交点エッジ検出手段の構成を示す。The structure of an intersection edge detection means is shown. 連続エッジ、ペアエッジ、交点エッジの検出を説明する図である。It is a figure explaining the detection of a continuous edge, a pair edge, and an intersection edge. 文字絵柄識別手段の構成を示す。The structure of a character pattern identification means is shown. 網点上文字エッジの2値化後の画像を示す。An image after binarization of a character edge on a halftone dot is shown. 図14の画像に対するP1パターンマッチングの結果と横方向画素数カウント手段の結果を示す。The result of P1 pattern matching with respect to the image of FIG. 14 and the result of a horizontal direction pixel number count means are shown. 図14の画像に対するP2パターンマッチングの結果と横方向画素数カウント手段の結果を示す。The result of the P2 pattern matching with respect to the image of FIG. 14 and the result of the horizontal pixel number counting means are shown. 図14の画像に対するP3パターンマッチングの結果と縦方向画素数カウント手段の結果を示す。The result of the P3 pattern matching with respect to the image of FIG. 14 and the result of a vertical direction pixel number count means are shown. 図14の画像に対するP4パターンマッチングの結果と縦方向画素数カウント手段の結果を示す。The result of the P4 pattern matching with respect to the image of FIG. 14 and the result of a vertical direction pixel number count means are shown. 網点絵柄中エッジの2値化後の画像を示す。An image after binarization of an edge in a halftone dot pattern is shown. 図19の画像に対するP1パターンマッチングの結果と横方向画素数カウント手段の結果を示す。The result of P1 pattern matching with respect to the image of FIG. 19 and the result of the horizontal pixel number counting means are shown. 図19の画像に対するP2パターンマッチングの結果と横方向画素数カウント手段の結果を示す。The result of the P2 pattern matching with respect to the image of FIG. 19 and the result of the horizontal pixel number counting means are shown. 図19の画像に対するP3パターンマッチングの結果と縦方向画素数カウント手段の結果を示す。The result of P3 pattern matching with respect to the image of FIG. 19 and the result of the number of pixels in the vertical direction are shown. 図19の画像に対するP4パターンマッチングの結果と縦方向画素数カウント手段の結果を示す。The result of P4 pattern matching with respect to the image of FIG. 19 and the result of the number of pixels in the vertical direction are shown. エッジ量抽出手段の構成を示す。The structure of an edge amount extraction means is shown. エッジ量検出手段の構成を示す。The structure of an edge amount detection means is shown. フィルタ処理手段の構成を示す。The structure of a filter process means is shown. エッジ量抽出手段の構成を示す。The structure of an edge amount extraction means is shown. 墨生成のLUTを示す。A black generation LUT is shown. 本発明の実施例2の構成を示す。The structure of Example 2 of this invention is shown. トナーセーブ処理を説明する図である。FIG. 10 is a diagram illustrating toner save processing. 従来の課題を説明する図である。It is a figure explaining the conventional subject.

符号の説明Explanation of symbols

10 スキャナ
11 スキャナγ補正手段
12 スキャナ色補正手段
13 フィルタ処理手段
14 プリンタ色補正手段
15 UCR/墨処理手段
16 プリンタγ補正手段
17 擬似中間調処理手段
18 プリンタ
20 画像属性判定手段
30、40 エッジ量抽出手段
DESCRIPTION OF SYMBOLS 10 Scanner 11 Scanner gamma correction means 12 Scanner color correction means 13 Filter processing means 14 Printer color correction means 15 UCR / Black processing means 16 Printer gamma correction means 17 Pseudo halftone processing means 18 Printer 20 Image attribute judgment means 30, 40 Edge amount Extraction means

Claims (5)

画像を構成するn画素×n画素領域の中心画素を挟んで対称の位置にある2つの画素値の平均値と前記中心画素の画素値との差が、所定の閾値よりも大きいときに、前記中心画素をピーク画素として検出するピーク画素検出手段と、前記検出されたピーク画素の画素値に基づいて閾値を設定する設定手段と、前記閾値を用いて前記画像を2値化する2値化手段と、前記2値化後の画像から、左上縦エッジ、左下縦エッジ、右上縦エッジ、右下縦エッジ、左上横エッジ、右上横エッジ、左下横エッジ、右下横エッジを抽出する抽出手段と、前記抽出されたエッジが左上縦エッジかつ左下縦エッジの場合、連続エッジとして検出し、前記抽出されたエッジが左上縦エッジかつ右上縦エッジ、または、左下縦エッジかつ右下縦エッジの場合、ペアエッジとして検出し、前記抽出されたエッジが右上横エッジかつ左下縦エッジの場合、交点エッジとして検出するエッジ検出手段と、前記エッジ検出手段の検出結果に基づいて網点上の文字エッジを文字エッジとして識別する識別手段を有することを特徴とする画像処理装置。 When the difference between the average value of two pixel values at symmetrical positions across the center pixel of the n pixels × n pixel region constituting the image and the pixel value of the center pixel is larger than a predetermined threshold, Peak pixel detection means for detecting a central pixel as a peak pixel, setting means for setting a threshold based on the pixel value of the detected peak pixel, and binarization means for binarizing the image using the threshold Extraction means for extracting an upper left vertical edge, a lower left vertical edge, an upper right vertical edge, a lower right vertical edge, an upper left horizontal edge, an upper right horizontal edge, a lower left horizontal edge, and a lower right horizontal edge from the binarized image; If the extracted edge is an upper left vertical edge and a lower left vertical edge, it is detected as a continuous edge, and if the extracted edge is an upper left vertical edge and an upper right vertical edge, or a lower left vertical edge and a lower right vertical edge, Peyer Detected as di, when the extracted edge of the upper right lateral edge and the lower left vertical edge, the intersection edge detecting means for detecting as an edge detection result to the character edge to character edge on halftone dots, based of the edge detecting means An image processing apparatus having an identification means for identifying as follows. 前記設定手段は、前記検出されたピーク画素の最大値に所定値を加算した値を、前記閾値として設定することを特徴とする請求項1記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the setting unit sets a value obtained by adding a predetermined value to the maximum value of the detected peak pixel as the threshold value. 画像を構成するn画素×n画素領域の中心画素を挟んで対称の位置にある2つの画素値の平均値と前記中心画素の画素値との差が、所定の閾値よりも大きいときに、前記中心画素をピーク画素として検出するピーク画素検出工程と、前記検出されたピーク画素の画素値に基づいて閾値を設定する設定工程と、前記閾値を用いて前記画像を2値化する2値化工程と、前記2値化後の画像から、左上縦エッジ、左下縦エッジ、右上縦エッジ、右下縦エッジ、左上横エッジ、右上横エッジ、左下横エッジ、右下横エッジを抽出する抽出工程と、前記抽出されたエッジが左上縦エッジかつ左下縦エッジの場合、連続エッジとして検出し、前記抽出されたエッジが左上縦エッジかつ右上縦エッジ、または、左下縦エッジかつ右下縦エッジの場合、ペアエッジとして検出し、前記抽出されたエッジが右上横エッジかつ左下縦エッジの場合、交点エッジとして検出するエッジ検出工程と、前記エッジ検出工程の検出結果に基づいて網点上の文字エッジを文字エッジとして識別する識別工程を有することを特徴とする画像処理方法。 When the difference between the average value of two pixel values at symmetrical positions across the center pixel of the n pixels × n pixel region constituting the image and the pixel value of the center pixel is larger than a predetermined threshold, A peak pixel detecting step for detecting a central pixel as a peak pixel, a setting step for setting a threshold based on the pixel value of the detected peak pixel, and a binarization step for binarizing the image using the threshold An extraction step of extracting an upper left vertical edge, a lower left vertical edge, an upper right vertical edge, a lower right vertical edge, an upper left horizontal edge, an upper right horizontal edge, a lower left horizontal edge, and a lower right horizontal edge from the binarized image; If the extracted edge is an upper left vertical edge and a lower left vertical edge, it is detected as a continuous edge, and if the extracted edge is an upper left vertical edge and an upper right vertical edge, or a lower left vertical edge and a lower right vertical edge, Peyer Detected as di, when the extracted edge of the upper right lateral edge and the lower left vertical edge, and an edge detection step of detecting as the intersection edge, the edge detection result of detection to the character edge character edge on halftone dots based process An image processing method comprising an identification step of identifying as 請求項記載の画像処理方法をコンピュータに実現させるためのプログラム。 A program for causing a computer to realize the image processing method according to claim 3 . 請求項記載の画像処理方法をコンピュータに実現させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium recording a program for causing a computer to implement the image processing method according to claim 3 .
JP2007060529A 2007-03-09 2007-03-09 Image processing apparatus, image processing method, program, and recording medium Expired - Fee Related JP4771428B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007060529A JP4771428B2 (en) 2007-03-09 2007-03-09 Image processing apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007060529A JP4771428B2 (en) 2007-03-09 2007-03-09 Image processing apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2008227732A JP2008227732A (en) 2008-09-25
JP4771428B2 true JP4771428B2 (en) 2011-09-14

Family

ID=39845843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007060529A Expired - Fee Related JP4771428B2 (en) 2007-03-09 2007-03-09 Image processing apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4771428B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5029719B2 (en) 2010-03-23 2012-09-19 ブラザー工業株式会社 Image processing device
JP5880088B2 (en) * 2012-01-31 2016-03-08 ブラザー工業株式会社 Edge detection apparatus, image data processing apparatus, liquid ejection apparatus including the image data processing apparatus, edge detection method, and edge detection program
JP6221402B2 (en) * 2013-06-24 2017-11-01 株式会社リコー Image processing apparatus, image processing method, and program
JP6132094B2 (en) * 2013-07-23 2017-05-24 セイコーエプソン株式会社 Recording device
CN117152149B (en) * 2023-10-31 2024-01-26 江苏盟星智能科技有限公司 Edge smoothness detection method and system for wafer dicing

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4013478B2 (en) * 2000-12-25 2007-11-28 コニカミノルタビジネステクノロジーズ株式会社 Image processing device
JP2002305654A (en) * 2001-04-04 2002-10-18 Sharp Corp Image processor, image forming apparatus using the same, image processing method and recording medium
JP4502303B2 (en) * 2001-07-05 2010-07-14 株式会社リコー Image processing device
JP2003224718A (en) * 2002-01-30 2003-08-08 Sharp Corp Image processing method and image processor
JP4105539B2 (en) * 2002-12-27 2008-06-25 シャープ株式会社 Image processing apparatus, image forming apparatus including the same, image processing method, image processing program, and recording medium
JP2004252733A (en) * 2003-02-20 2004-09-09 Hitachi Software Eng Co Ltd Image processing system and program for image processing

Also Published As

Publication number Publication date
JP2008227732A (en) 2008-09-25

Similar Documents

Publication Publication Date Title
US7227990B2 (en) Color image processing device and color image processing method
JP4137890B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
US8477324B2 (en) Image processor and image processing method that uses s-shaped gamma curve
US7667711B2 (en) Image processing system, a method thereof, and a recording medium thereof
JP4793874B2 (en) Image processing apparatus, image processing method, program, and recording medium
US10115011B2 (en) Document type recognition apparatus, image forming apparatus, document type recognition method, and computer program product
JP4498233B2 (en) Image processing apparatus and image processing method
US8345310B2 (en) Halftone frequency determination method and printing apparatus
JP2008011267A (en) Image processor, image processing method, image processing program, and memory medium
JP6221402B2 (en) Image processing apparatus, image processing method, and program
WO1999067943A1 (en) Image processor, image processing method, and medium on which image processing program is recorded
JP4115999B2 (en) Image processing apparatus, image forming apparatus, image reading processing apparatus, image processing method, image processing program, and computer-readable recording medium
US6714676B2 (en) Image processing apparatus and image processing method
JP3334042B2 (en) IMAGE PROCESSING APPARATUS, IMAGE READING APPARATUS AND IMAGE FORMING APPARATUS EQUIPPED WITH THE SAME, IMAGE PROCESSING METHOD, AND COMPUTER-READABLE STORAGE MEDIUM CONTAINING IMAGE PROCESSING PROCEDURE
JP4771428B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2007311836A (en) Image processing apparatus, control method thereof, computer program and computer-readable storage medium
US9948824B2 (en) Image compressing device, image forming apparatus, image compressing method, and recording medium
JP2004214977A (en) Image processing apparatus, image forming apparatus and image processing method equipped therewith image processing program and recording medium
JP6693310B2 (en) Image processing apparatus, image processing method and program
JP4228466B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure
JP4846681B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing image processing program
JP3942080B2 (en) Image forming apparatus
JP4080252B2 (en) Image processing apparatus, image forming apparatus, image processing method, program, and recording medium
JP2009033493A (en) Image processor, image processing method, program, and recording medium
JP2014011590A (en) Image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees