JP2003101774A - Image processor - Google Patents

Image processor

Info

Publication number
JP2003101774A
JP2003101774A JP2001292191A JP2001292191A JP2003101774A JP 2003101774 A JP2003101774 A JP 2003101774A JP 2001292191 A JP2001292191 A JP 2001292191A JP 2001292191 A JP2001292191 A JP 2001292191A JP 2003101774 A JP2003101774 A JP 2003101774A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
edge
means
direction
character
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001292191A
Other languages
Japanese (ja)
Inventor
Etsuro Morimoto
Hiroyuki Shibaki
Toru Suino
悦朗 森本
水納  亨
弘幸 芝木
Original Assignee
Ricoh Co Ltd
株式会社リコー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To apply the optimum processing to a halftone part and a character edge part on the basis of detection result by precisely detecting only the character edge part. SOLUTION: A band dividing means 7 in a filter processing means 3 divides an input image into a plurality of coefficients of direction component for each frequency band. A character edge detecting means 8 detects edge components of an image and uniformity of a contour by using the divided coefficients, thereby detecting a character edge. A sharpness control means 9 performs emphasizing process and smoothing process in accordance with the detected character edge.

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、入力画像中の文字エッジ部を検出し、その検出結果に基づいて適切な処理を行う画像処理装置に関し、例えば電子写真プロセスを用いたデジタル複写機、ファクシミリ装置等の画像形成装置などに好適な技術である。 BACKGROUND OF THE INVENTION [0001] [Technical Field of the Invention The present invention detects a character edge in the input image, an image processing apparatus which performs appropriate processing based on the detection result, for example, electronic digital copying machine using a photographic process, the image forming apparatus such as a facsimile apparatus which is a preferred technique like. 【0002】 【従来の技術】従来、網点で中間調が表現されている原稿をスキャナなどで読み取り、処理すると、網点部をエッジ部と判断し、このために、網点部に対して適切でない処理が施され、画質が劣化してしまう問題があった。 [0004] Conventionally, reading a document halftone is represented by dots scanner or the like, treatment, the meshed portion is determined as an edge portion, for this, with respect to halftone dot portion not appropriate processing is performed, image quality there was a problem that deteriorates. 【0003】そこで、従来技術では、画像中のエッジの検出を行うと同時に、網点を検出する手段を備えることにより、上記した問題を解決している。 [0003] Therefore, in the prior art, and at the same time to detect the edges in the image, by providing a means for detecting a dot, it solves the problems described above. 【0004】 【発明が解決しようとする課題】しかし、上記した従来の技術では、エッジ部と網点部の2つの検出処理を必要とし、加えて網点部の検出には多くのハードウェア量が必要となる。 [0004] The present invention is to provide, however, the conventional technology described above, the edge portion and two detection processing of a halftone dot portion requires a lot of hardware amount for the detection of halftone dot portion in addition Is required. 【0005】本発明は上記した問題点に鑑みてなされたもので、本発明の目的は、網点部を検出することなく、 [0005] The present invention has been made in view of the above problems, an object of the present invention, without detecting the meshed portion,
文字エッジ部のみを精度よく検出し、その検出結果を基に、入力画像に混在する網点部と文字エッジ部に最適な処理を施すようにした画像処理装置を提供することにある。 The character edge portion only detected accurately, on the basis of the detection result, to provide an image processing apparatus that performs optimal processing to the halftone portion and the character edge portion mixed in the input image. 【0006】本発明の他の目的は、入力された画像信号をウェーブレット係数信号に変換して画像処理する装置において、本発明の文字エッジ検出は、ウェーブレット係数信号から簡単に作成することができ、ウェーブレット空間での画像処理に最適な画像処理装置を提供することにある。 Another object of the present invention, there is provided an apparatus for image processing is converted into a wavelet coefficient signal inputted image signal, character edge detection of the present invention can be easily created from the wavelet coefficient signals, to provide an optimal image processing apparatus to the image processing in the wavelet space. 【0007】また、通常、ウェーブレット変換は帯域分割する際に画像の間引きを行っているが、画像の間引きを行うと画像特徴量の算出の精度が低下するという問題がある。 [0007] Usually, the wavelet transform is performed thinning of the image when the band division, the accuracy of performing the image feature amount calculation thinning of the image is lowered. 【0008】本発明の他の目的は、帯域分割する際に画像を間引かずにウェーブレット係数に変換することにより、より高精度な文字エッジ検出を行う画像処理装置を提供することにある。 Another object of the present invention, by converting the wavelet coefficients without thinning the image when band division is to provide an image processing apparatus to perform more accurate character edge detection. 【0009】 【課題を解決するための手段】本発明では、入力画像中から網点を検出せずに、文字エッジ部のみを高精度に検出し、その検出結果から、網点部と文字エッジ部が混在する入力画像の各部位に最適な画像処理を施す。 [0009] In the present invention SUMMARY OF], without detecting the halftone dots from the input image, detects only character edge portion with high accuracy, from the detection result, halftone portion and a character edge part is to perform optimal image processing to each portion of the input image to be mixed. 【0010】本発明では、検出方向のエッジ成分と、エッジの輪郭の均一性に基づいて文字エッジのみを検出することにより、網点分離等のハード的、コスト的に負荷の大きい画像領域判別手段を用いることなく、エッジ成分中から文字エッジのみを高精度に検出すると共に、使用するラインメモリ、バッファの数を抑制する。 [0010] In the present invention, the detection direction of the edge components, by detecting only the character edge based on the contour of the uniformity of the edges, hardware, a large image area discriminating means cost-load such as halftone separation without using, only characters edges from in edge components with accurately detected, the line memory used to suppress the number of buffers. 【0011】本発明では、文字エッジ検出手段の出力を多値とすることにより、文字エッジ検出において誤検出があった場合でも、切替による歪みやモアレの発生による出力画像に与える悪影響を最小限に抑える。 In the present invention, by the output of the character edge detection means and the multi-level, even if there is a false detection in the character edge detection, to minimize the adverse effects on the output image due to occurrence of distortion or moire due to the switching suppress. 【0012】本発明では、文字エッジ検出を複数の方向毎に実施し、その最大値を検出結果とすることにより、 In the present invention, conducted a character edge detection for each of the plurality of directions, by the detection result the maximum value,
文字エッジ部において方向毎のばらつきの少ない均衡のとれた画像を再生する。 Play balanced image with less balancing variations in each direction in the character edge portion. 【0013】 【発明の実施の形態】以下、本発明の一実施例を図面を用いて具体的に説明する。 DETAILED DESCRIPTION OF THE INVENTION Hereinafter, will be described in detail with reference to the drawings an embodiment of the present invention. (実施例1)図1は、本発明の実施例1〜4に適用される全体の構成を示す。 (Example 1) Figure 1 shows the overall structure applied to the embodiment 1-4 of the present invention. スキャナ等の画像入力手段1によって入力された画像信号は、スキャナγ処理手段2によって、反射率リニアの画像入力手段1からの画像データを濃度リニアまたは明度リニアの画像データに変換する。 Image signal input by the image input unit 1 such as a scanner, the scanner γ processing unit 2 converts the image data from the image input unit 1 of the reflectivity linearly image data of density linear or brightness linear. スキャナγ処理手段2はスルーにしてもよい。 The scanner γ processing means 2 may be through. スキャナγ処理手段2からの画像データはフィルタ処理手段3に入力される。 Image data from the scanner γ processing unit 2 is input to the filter processing unit 3. 【0014】フィルタ処理手段3では所定の空間周波数特性に画像を変換する。 [0014] converting the image to filter means a predetermined spatial frequency characteristic in 3. フィルタ処理手段3から出力された画像データは、γ変換処理手段4で所定の濃度特性となるように変換され、さらに中間調処理手段5において多値または2値画像データに変換される。 Image data output from the filter processing unit 3 is converted to a predetermined density characteristic in γ conversion processing unit 4, it is further converted in the halftone processing unit 5 to the multi-valued or binary image data. 中間調処理手段5として、例えばディザ処理や誤差拡散処理を用いればよい。 As halftone processing unit 5, for example, it may be used dithering or error diffusion process. 中間調処理手段5から出力された画像データは電子写真プリンタなどの画像出力手段6に出力される。 Image data output from the halftone processing unit 5 is output to the image output unit 6 such as an electrophotographic printer. 【0015】図2は、本発明のフィルタ処理手段の構成を示す。 [0015] Figure 2 shows the structure of a filter processing means of the present invention. 図2に示すように、入力画像信号Sは、まず帯域分割手段7に入力され、複数の画像帯域信号Wに分解される。 As shown in FIG. 2, the input image signal S is first inputted to the band division unit 7, it is decomposed into a plurality of image-band signals W. 文字エッジ検出手段8では、分解された画像信号Wを用いて入力画像信号中の文字やラインのような文字エッジ画像部の検出を行う。 The character edge detection means 8 detects a character edge image portion, such as characters and lines in the input image signal using the decomposed image signals W. 次に、鮮鋭性制御手段9 Next, sharpness control means 9
では、文字エッジ検出手段8の検出結果に応じて画像の強調処理および平滑処理を行う。 In, performs enhancement processing and smoothing processing of the image in accordance with the detection result of the character edge detector 8. 最後に、帯域合成手段10によって実空間画像信号に変換し、出力するよう構成されている。 Finally, into a real space image signals by band synthesizing means 10 is configured to output. 【0016】本発明の実施例に係る帯域分割手段7は、 The band dividing means 7 according to an embodiment of the present invention,
図3に示すようなウェーブレット変換によって実現している。 Is realized by the wavelet transform as shown in FIG. 入力画像信号Sは、まずローパスフィルタG The input image signal S is first low-pass filter G
(x)701およびハイパスフィルタH(x)702によってx方向にウェーブレット変換される。 (X) is the wavelet transform in the x direction by 701 and the high-pass filter H (x) 702. ここで、ローパスフィルタG(x)は図4(a)に示すような平均値成分を求めるような低周波成分抽出用フィルタであり、ハイパスフィルタH(x)は図4(b)のように差分成分を求める高周波成分抽出用フィルタである。 Here, the low pass filter G (x) is a low-frequency component extracting filter, such as an average value components as shown in FIG. 4 (a), the high-pass filter H (x), as shown in FIG. 4 (b) a high frequency component extracting filter for obtaining a difference component. 【0017】本実施例では、図4に示す特性のウェーブレット基底関数(Haar)を例にして説明する。 [0017] In this embodiment, will be described as an example wavelet basis functions (Haar) of characteristics shown in FIG. 求められた画像信号に対し、フィルタ群703,704,7 The image signal obtained, filter group 703,704,7
05,706によってy方向のウェーブレット変換が施される。 Wavelet transform in the y direction is performed by 05,706. 以上の変換によって求められるのが1階層のウェーブレット係数である。 That obtained by the conversion described above is a wavelet coefficient of one level. 【0018】図3において、1st−LLは1階層の低周波成分であり、原画像に対して2×2画素の平均値を求めた画像信号となっている。 [0018] In FIG. 3, 1st-LL is a low-frequency component of the first layer, it has a picture signal to obtain an average value of 2 × 2 pixels on the original image. また、1st−LHは1 In addition, 1st-LH 1
階層の横方向高周波成分であり、ナイキスト周波数にあたる横方向のエッジ信号を抽出したような画像信号となっている。 A lateral high-frequency components of the hierarchy, which is an image signal as extracted lateral edge signal corresponding to the Nyquist frequency. 同様に1st−HLは1階層の縦方向高周波成分であり縦方向のエッジ信号を、1st−HHは斜め方向のエッジ信号を抽出したような画像信号となっている。 The 1st-HL 1 longitudinally a high-frequency component vertical edge signal of the hierarchy as well, 1st-HH has a image signal as to extract the diagonal edge signal. 【0019】図5に示すように、基底関数としてHaa As shown in FIG. 5, Haa as a basis function
r関数を用いたウェーブレット変換では、2×2画素単位の変換が行われ、4画素の有する値を図5のようにa,b,c,dとした場合、2×2画素ブロックの画像情報はLL、HL、LH、HHの4係数に変換され、平均値及び各方向のエッジ成分を抽出する変換が行われる。 In the wavelet transform using the r function, 2 × 2 conversion pixels is performed, a value included in the four pixels as shown in FIG. 5, b, c, when the d, the image information of the 2 × 2 pixel block the LL, HL, LH, and converted into 4 coefficients HH, transformation to extract the average value and the direction of the edge components is performed. 【0020】求められた1st−LL信号に対し、同様の手順で2階層のウェーブレット変換が行われ、フィルタ群707〜712によって変換された画像信号2nd [0020] For 1st-LL signal obtained, similar wavelet transform two layers is performed in step, the image signal converted 2nd by the filter group 707 to 712
−LL,2nd−LH,2nd−HL,2nd−HHを得る。 -LL, 2nd-LH, 2nd-HL, the 2nd-HH get. 2nd−LLは4×4画素の平均値を求めた画像信号であり、1階層より低周波帯域の画像信号である。 2nd-LL is an image signal to obtain an average value of 4 × 4 pixels is an image signal of a low frequency band than one level.
また、同様に2nd−LHは1st−LHよりも低周波帯域の成分であり、ナイキスト周波数の1/2の周波数帯域の横方向エッジを抽出した画像信号である。 Similarly, 2nd-LH is a component of the low frequency band than the 1st-LH, is an image signal obtained by extracting the lateral edges of the half of the frequency band of the Nyquist frequency. 同様に2nd−HLは2階層の縦方向高周波成分でありより低周波な縦方向エッジ信号を、2nd−HHは斜め方向のエッジ信号を抽出したような画像信号となっている。 Similarly 2nd-HL is the longitudinal an high-frequency component lower frequency longitudinal edge signals of two layers, 2nd-HH has a image signal as to extract the diagonal edge signal. 以上のようにして、2階層までのウェーブレット係数信号W(1st−LL〜1st−HH,2nd−LL〜2n As described above, the wavelet coefficient signals W up to two levels (1st-LL~1st-HH, 2nd-LL~2n
d−HH)を得る。 d-HH) obtained. 【0021】図6は、本発明の文字エッジ検出手段8の構成を示す。 [0021] FIG. 6 shows the structure of a character edge detection means 8 of the present invention. 文字エッジ検出手段8は、前記出力されたウェーブレット係数信号Wを入力し、係数信号Wから方向別文字エッジ検出手段11,12,13,14によって横方向、縦方向、右斜め方向、左斜め方向の文字エッジD1,D2,D3,D4の検出を行い、これら4方向の検出結果のORをとり、文字エッジ検出結果Cとして出力する。 Character edge detector 8 receives the output wavelet coefficient signals W, laterally by the direction-specific character edge detecting means 11, 12, 13 and 14 from the coefficient signals W, longitudinal direction, the right oblique direction, the left oblique direction performed the detection of character edge D1, D2, D3, D4, it takes these four directions of the detection result OR, and outputs as a character edge detection result C. 【0022】図7は、方向別文字エッジ検出手段11, [0022] Figure 7, the direction-specific character edge detecting means 11,
12,13,14の構成を示す。 Showing the configuration of the 12, 13, 14. 方向別文字エッジ検出手段11,12,13,14は、ウェーブレット係数信号Wからエッジ成分Eを検出するエッジ成分検出手段1 Directional character edge detecting means 11, 12, edge component detecting means 1 for detecting an edge component E from the wavelet coefficient signals W
6と、ウェーブレット係数信号Wからエッジ成分の輪郭の均一性Aを検出する輪郭均一性検出手段17と、これらの2つの検出結果を入力し、注目しているエッジ成分が該当方向への文字エッジであるか否かの判定を行い、 6, a contour uniformity detecting means 17 for detecting the uniformity A contour edge component from the wavelet coefficient signals W, enter these two detection results, character edge of interest to that edge components to the appropriate direction or makes a determination whether or not it is,
その結果を方向別文字エッジ検出結果D1,D2,D The results direction-character edge detection result D1, D2, D
3,D4として出力する判定手段18からなる。 3, consisting of determining means 18 for outputting as D4. 【0023】本発明の方向別文字エッジ検出手段において輪郭の均一性を検出することにより、網点分離のように多大なハードウェアを追加することなく、フィルタ処理により強調が必要とされる文字エッジ部のみが抽出可能となる。 [0023] By detecting the uniformity of the contour in the direction-character edge detecting means of the present invention, without adding significant hardware as halftone separation, the character edge enhancement by filtering is required only part it is possible to extract. 【0024】以下、エッジ成分検出手段16の動作について図8〜図17を用いて詳細に説明する。 [0024] Hereinafter, will be described in detail with reference to FIGS. 8 to 17, the operation of the edge component detector 16. まず、方向別文字エッジ検出手段が、右斜め方向の文字エッジ検出手段13である場合を説明する。 First, direction-character edge detection means, the case is in the right oblique direction letter edge detection means 13. このときのエッジ成分検出手段16は、1階層の低周波成分(1st−LL係数)を入力し、図8における左上位置の1st−LL係数1LL(i−1,j−1)から中央位置の1st−L Edge component detector 16 at this time, first layer of type a low frequency component (1st-LL coefficient), the upper left position in FIG. 8 from 1st-LL coefficient 1LL (i-1, j-1) of the center position 1st-L
L係数1LL(i,j)を減算し、その減算結果を注目画素(係数)位置(i,j)におけるエッジ成分Eとして出力する。 L coefficients 1LL (i, j) is subtracted, and outputs the subtraction result as an edge component E at the target pixel (coefficient) position (i, j). 図9は、2×2の1st−LL係数から右斜め方向のエッジ成分の検出を説明する図である。 Figure 9 is a diagram from 1st-LL coefficient of 2 × 2 is described the detection of the right diagonal edge component. このエッジ成分Eの検出を実空間フィルタ係数で表現すると、図10のフィルタに相当する。 When representing the detection of the edge component E in the real space filter coefficients, corresponding to the filter of FIG. 10. このフィルタは右斜め方向のエッジ成分の抽出が可能である。 The filter is capable of extracting the right diagonal edge component. 【0025】また、方向別文字エッジ検出手段が、左斜め方向の文字エッジ検出手段14である場合、エッジ成分検出手段16は、1階層の低周波成分(1st−LL Further, the direction-specific character edge detecting means, when a left oblique direction of the character edge detecting means 14, edge component detector 16, the low-frequency component of the first layer (1st-LL
係数)を入力し、図11における上段中央位置の1st Enter a coefficient), 1st the upper middle position in FIG. 11
−LL係数1LL(i,j−1)から中段左側の1st -LL coefficient 1LL (i, j-1) from the middle left 1st
−LL係数1LL(i−1,j)を減算し、その減算結果を注目画素(係数)位置(i,j)におけるエッジ成分Eとして出力する。 -LL coefficient 1LL (i-1, j) is subtracted, and outputs the subtraction result as an edge component E at the target pixel (coefficient) position (i, j). 図12は、2×2の1st−LL Figure 12 is a 2 × 2 1st-LL
係数から左斜め方向のエッジ成分の検出を説明する図である。 Is a diagram describing the detection of the left diagonal edge component from the coefficient. このエッジ成分Eの検出を実空間フィルタ係数で表現すると、図13のフィルタに相当する。 When representing the detection of the edge component E in the real space filter coefficients, corresponding to the filter of Figure 13. このフィルタは左斜め方向のエッジ成分の抽出が可能である。 The filter is capable of extracting the edge components in the left oblique direction. 【0026】また、方向別文字エッジ検出手段が、横方向の文字エッジ検出手段11である場合、エッジ成分検出手段16は、2階層の横方向高周波成分(2nd−L Further, the direction-specific character edge detecting means, if a lateral character edge detecting means 11, edge component detector 16, the horizontal direction high frequency component of the second layer (2nd-L
H係数)を入力し、図14における中央位置の2nd− Type H coefficient), the center position in FIG. 14 2Nd-
LH係数2LH(i,j)をそのまま注目画素(係数) LH coefficient 2LH (i, j) as it is the pixel of interest (coefficient)
位置(i,j)におけるエッジ成分Eとして出力する。 Position (i, j) is output as an edge component E in.
このエッジ成分Eの検出を実空間フィルタ係数で表現すると、図15のフィルタに相当する。 When representing the detection of the edge component E in the real space filter coefficients, corresponding to the filter of Figure 15. 【0027】そして、方向別文字エッジ検出手段が、縦方向の文字エッジ検出手段12である場合、エッジ成分検出手段16は、2階層の縦方向高周波成分(2nd− [0027] Then, the direction-specific character edge detecting means, if a vertical character edge detecting means 12, edge component detector 16, second vertical high-frequency component of the hierarchy (2Nd-
HL係数)を入力し、図16における中央位置の2nd Enter the HL coefficient), 2nd center position in FIG. 16
−HL係数2HL(i,j)をそのまま注目画素(係数)位置(i,j)におけるエッジ成分Eとして出力する。 -HL coefficient 2HL (i, j) is output as an edge component E in the intact target pixel (coefficient) position (i, j). このエッジ成分Eの検出を実空間フィルタ係数で表現すると、図17のフィルタに相当する。 When representing the detection of the edge component E in the real space filter coefficients, corresponding to the filter of Figure 17. 【0028】このように、エッジ成分検出手段16では、文字エッジを検出する方向が縦横か斜め方向かに応じて異なる構成のエッジ成分検出方法を用いているが、 [0028] Thus, the edge component detection unit 16, but the direction of detecting the character edges are using an edge component detection method different configurations depending on whether vertical and horizontal or oblique direction,
もちろんすべての方向について同じ構成の手法をとっても良いし、すべての方向に異なる構成の手法をとってもよい。 Of course all may take the approach of the same configuration for the direction, may take the approach of different configurations in all directions. 【0029】図18は、輪郭均一性検出手段17の構成を示す。 FIG. 18 shows the configuration of the contour uniformity detecting means 17. 輪郭均一性検出手段17は、ウェーブレット係数信号Wから文字エッジ検出方向のエッジ成分E1を検出する第1のエッジ成分検出手段19と、検出されたエッジ成分E1の文字エッジ検出方向への連続性R1を判定する第1の連続性判定手段20と、ウェーブレット係数信号Wから文字エッジ検出方向とは垂直方向のエッジ成分E2を検出する第2のエッジ成分検出手段21と、 Contour uniformity detecting means 17 includes a first edge component detector 19 which detects a character edge detection direction of the edge component E1 from the wavelet coefficient signals W, the continuity of the detected character edge detection direction of the edge component E1 R1 a first continuity determining means 20 determines, from the character edge detection direction from the wavelet coefficient signals W and a second edge component detector 21 for detecting a vertical edge component E2,
検出されたエッジ成分E2の文字エッジ検出方向への連続性R2を判定する第2の連続性判定手段22と、これら2つの連続性判定結果の論理積をとり、輪郭均一性検出結果Aとして出力するAND回路23から構成されている。 A second continuity determining means 22 determines the continuity of R2 to the detected character edge detection direction of the edge components E2, the logical product of these two successive determination result, outputs as the outline uniformity detection result A and a aND circuit 23. 【0030】第1のエッジ成分検出手段19は、図7で説明したエッジ成分検出手段16と同一のものでよい。 The first edge component detector 19 may be of the same edge component detector 16 described with reference to FIG.
従って本実施例では、第1のエッジ成分検出手段19 Accordingly, in this embodiment, the first edge component detector 19
は、文字エッジ検出方向と一致するエッジ成分を検出するエッジ成分検出手段16とする。 Is an edge component detector 16 for detecting an edge component that matches the character edge detection direction. また、第2のエッジ成分検出手段21は、文字エッジ検出方向と垂直方向のエッジ成分を検出するエッジ成分検出手段16とする。 The second edge component detection means 21, an edge component detector 16 which detects a character edge detection and vertical edge components. 【0031】図19は、連続性判定手段20,22の構成を示す。 FIG. 19 shows a configuration of a continuity determination means 20, 22. 第1の連続性判定手段20と第2の連続性判定手段22の構成、動作は同一であるので、第1の連続性判定手段20を例に説明する。 A first continuity determining means 20 constituting the second continuity determining section 22, the operation is the same, illustrating the first continuity determining section 20 as an example. 【0032】第1の連続性判定手段20は、エッジ成分検出手段19の出力であるエッジ成分E1を入力し、注目画素(係数)位置(i,j)を含むエッジ検出方向への複数個の隣接エッジ成分について、それぞれ隣接画素間のエッジ成分の差分値(絶対値)AS1を算出する隣接エッジ差分値算出手段24と、隣接エッジ差分値算出手段24の全差分値の合計TAS1を算出するエッジ差分値集計手段25と、エッジ差分値集計手段25の結果TAS1と所定の閾値Th1とを比較し、閾値以下の場合、エッジの連続性があると判定し、連続性判定結果R The first continuity determination means 20 receives the edge component E1 is the output of the edge component detection unit 19, the pixel of interest (factor) position (i, j) a plurality of the edge detection direction including for adjacent edge component, and an adjacent edge difference value calculating means 24 for calculating each difference value of the edge components between adjacent pixels (absolute value) AS1, edges of calculating the total TAS1 of all difference values ​​of the adjacent edge difference value calculating means 24 a difference value aggregator 25, compares the result TAS1 with a predetermined threshold value Th1 of the edge difference value collecting unit 25, when the threshold value or less, it is judged that there is a continuity of the edge, continuity determination result R
1として“1”を出力し、閾値より大きい場合は連続性判定結果R1として“0”を出力する閾値処理手段25 Outputs "1" as the 1, threshold processing unit 25 larger than the threshold is for outputting "0" as a continuity determination result R1
から構成されている。 It is constructed from. 【0033】第1の連続性判定手段20、第2の連続性判定手段22の動作を以下詳述する。 The first continuity determination means 20, the operation of the second continuity determining section 22 will be described in detail below. まず、右斜め方向の文字エッジを検出する場合を図20、図21を用いて説明する。 First, FIG 20 will be described with reference to FIG. 21 the case of detecting the right oblique direction of the character edge. 【0034】第1の連続性判定手段20は、第1のエッジ成分検出手段19で図10のフィルタにより検出されたエッジ成分E1を入力し、隣接エッジ差分値算出手段24において、図20に示すように、注目画素(係数) The first continuity determining means 20, a first edge component detection means 19 inputs the edge component E1 detected by the filter of FIG. 10, in the adjacent edge difference value calculating means 24, shown in FIG. 20 as described above, the pixel of interest (coefficient)
位置(i,j)を含む右斜め方向への隣接6エッジ成分について、それぞれ隣接画素間のエッジ成分の差分値(絶対値)AS1を算出し、エッジ差分値集計手段25 Position (i, j) for the adjacent 6 the edge component in the right oblique direction including the respective calculates a difference value (absolute value) AS1 edge component between adjacent pixels, an edge difference value aggregator 25
において、隣接エッジ差分値算出手段24の全差分値の合計TAS1を算出する。 In calculates the sum TAS1 of all difference values ​​of the adjacent edge difference value calculating unit 24. 【0035】これを式で表すと、以下のようになる。 [0035] This is represented by the formula, is as follows. TAS1=|E1a−E1b|+|E1b−E1c|+ TAS1 = | E1a-E1b | + | E1b-E1c | +
|E1c−E1d|+|E1d−E1e|+|E1e− | E1c-E1d | + | E1d-E1e | + | E1e-
E1f| ここで、E1a〜E1fは、それぞれE1(i+2,j E1f | here, E1a~E1f, respectively E1 (i + 2, j
−2)〜E1(i−3,j+3)のエッジ成分の算出結果である。 -2) ~E1 (i-3, j + 3) is a calculation result of the edge components. 【0036】閾値処理手段25は、エッジ差分値集計手段25の結果TAS1と所定の閾値Th1とを比較し、 The threshold processing unit 25 compares the results TAS1 with a predetermined threshold value Th1 of the edge difference value aggregator 25,
閾値以下の場合、エッジの連続性があると判定し、連続性判定結果R1として“1”を出力し、閾値より大きい場合、エッジの連続性がないと判定し、連続性判定結果R1として“0”を出力する。 If less than the threshold value, it determines that there is continuity of the edge, and outputs "1" as a continuity determination result R1, larger than the threshold, determines that there is no continuity of the edge, as a continuous determination result R1 " 0 "is output. 【0037】図21は、図20の第1の連続性判定手段20が右斜め方向へのエッジ成分の右斜め方向への連続性を判定していることを示す。 [0037] FIG. 21 shows that first continuity determination means 20 in FIG. 20 is determined continuity of the right diagonal edge components in the right oblique direction. 【0038】第2の連続性判定手段22は、第2のエッジ成分検出手段21で図13のフィルタにより検出された左斜め方向のエッジ成分E2を入力し、隣接エッジ差分値算出手段24において、図22に示すように注目画素(係数)位置(i,j)を含む右斜め方向への隣接6 The second continuity determining means 22, the second edge component detector 21 inputs a left diagonal edge component E2 detected by the filter of FIG. 13, in the adjacent edge difference value calculating means 24, target pixel (coefficient) position as shown in FIG. 22 (i, j) adjacent to the right oblique direction including 6
エッジ成分について、それぞれ隣接画素間のエッジ成分の差分値(絶対値)AS2を算出し、エッジ差分値集計手段25において、隣接エッジ差分値算出手段24の全差分値の合計TAS2を算出する。 For edge components, respectively the difference value of the edge components between adjacent pixels is calculated (absolute value) AS2, in edge difference value collecting unit 25 calculates the sum TAS2 of all difference values ​​of the adjacent edge difference value calculating unit 24. 【0039】これを式で表すと、以下のようになる。 [0039] This is represented by the formula, is as follows. TAS2=|E2a−E2b|+|E2b−E2c|+ TAS2 = | E2a-E2b | + | E2b-E2c | +
|E2c−E2d|+|E2d−E2e|+|E2e− | E2c-E2d | + | E2d-E2e | + | E2e-
E2f| ここで、E2a〜E2fは、それぞれE2(i+2,j E2f | here, E2a~E2f, respectively E2 (i + 2, j
−2)〜E2(i−3,j+3)のエッジ成分の算出結果である。 -2) ~E2 (i-3, j + 3) is a calculation result of the edge components. 【0040】閾値処理手段25は、エッジ差分値集計手段25の結果TAS2と所定の閾値Th2とを比較し、 The threshold processing unit 25 compares the results TAS2 with a predetermined threshold value Th2 of the edge difference value aggregator 25,
閾値以下の場合、エッジの連続性があると判定し、連続性判定結果R2として“1”を出力し、閾値より大きい場合、エッジの連続性がないと判定し、連続性判定結果R2として“0”を出力する。 If less than the threshold value, it determines that there is continuity of the edge, and outputs "1" as a continuity determination result R2, larger than the threshold, determines that there is no continuity of the edge, as a continuous determination result R2 " 0 "is output. 【0041】図23は、図22の第2の連続性判定手段22が左斜め方向へのエッジ成分の右斜め方向への連続性を判定していることを示す。 [0041] Figure 23 shows that the second continuity determining section 22 of FIG. 22 is determined continuity of the right diagonal edge component in the left oblique direction. 【0042】次に、横方向の文字エッジを検出する場合を図24、図25を用いて説明する。 Next, the case of detecting the lateral direction of a character edge will be described with reference to FIG. 24, FIG. 25. 第1の連続性判定手段20は、第1のエッジ成分検出手段19で図15のフィルタで示される2nd−LH係数のエッジ成分E1 First continuity determining means 20, the edge component of the 2nd-LH coefficients indicated by the filter of FIG. 15 in the first edge component detector 19 E1
を入力し、隣接エッジ差分値算出手段24において、図24に示すように注目画素(係数)位置(i,j)を含む左右横方向への隣接5エッジ成分について、それぞれ隣接画素間のエッジ成分差分値(絶対値)AS1を算出し、エッジ差分値集計手段25において、隣接エッジ差分値算出手段24の全差分値の合計TAS1を算出する。 Enter a, in the adjacent edge difference value calculating means 24, the adjacent 5 edge component in the lateral transverse direction including the target pixel (coefficient) position (i, j) as shown in FIG. 24, edge components between the respective adjacent pixels difference value calculated (absolute value) AS1, in edge difference value collecting unit 25 calculates the sum TAS1 of all difference values ​​of the adjacent edge difference value calculating unit 24. 【0043】これを式で表すと、以下のようになる。 [0043] This is represented by the formula, is as follows. TAS1=|E1A−E1B|+|E1B−E1C|+ TAS1 = | E1A-E1B | + | E1B-E1C | +
|E1C−E1D|+|E1D−E1E| ここで、E1A〜E1Eは、それぞれE1(i−2, | E1C-E1D | + | E1D-E1E | Here, E1A~E1E each E1 (i-2,
j)〜E1(i+2,j)のエッジ成分の算出結果である。 A calculation result of the edge component of j) ~E1 (i + 2, j). 【0044】閾値処理手段25は、エッジ差分値集計手段25の結果TAS1と所定の閾値Th3とを比較し、 The threshold processing unit 25 compares the result TAS1 with a predetermined threshold Th3 edge difference value aggregator 25,
閾値以下の場合、エッジの連続性があると判定し、連続性判定結果R1として“1”を出力し、閾値より大きい場合、エッジの連続性がないと判定し、連続性判定結果R1として“0”を出力する。 If less than the threshold value, it determines that there is continuity of the edge, and outputs "1" as a continuity determination result R1, larger than the threshold, determines that there is no continuity of the edge, as a continuous determination result R1 " 0 "is output. 【0045】図25は、図24の第1の連続性判定手段20が横方向へのエッジ成分の横方向への連続性を判定していることを示す。 [0045] Figure 25 shows that first continuity determination means 20 in FIG. 24 is determined continuity of the horizontal edge component in the horizontal direction. 【0046】第2の連続性判定手段22は、第2のエッジ成分検出手段21で図17のフィルタで示される2n The second continuity determining means 22, 2n indicated by the second edge component detector 21 in the filter of FIG. 17
d−HL係数のエッジ成分E2を入力し、隣接エッジ差分値算出手段24において、図26に示すように注目画素(係数)位置(i,j)を含む左右横方向への隣接5 Type the edge component E2 of the d-HL coefficients, the adjacent edge difference value calculating means 24, adjacent to the lateral horizontal direction including the target pixel (coefficient) position (i, j) as shown in FIG. 26 5
エッジ成分について、それぞれ隣接画素間のエッジ成分差分値(絶対値)AS2を算出し、エッジ差分値集計手段25において、隣接エッジ差分値算出手段24の全差分値の合計TAS2を算出する。 For edge components, respectively calculated edge component difference value (absolute value) AS2 between adjacent pixels, the edge difference value collecting unit 25 calculates the sum TAS2 of all difference values ​​of the adjacent edge difference value calculating unit 24. 【0047】これを式で表すと、以下のようになる。 [0047] This is represented by the formula, is as follows. TAS2=|E2A−E2B|+|E2B−E2C|+ TAS2 = | E2A-E2B | + | E2B-E2C | +
|E2C−E2D|+|E2D−E2E| ここで、E2A〜E2Eは、それぞれE2(i−2, | E2C-E2D | + | E2D-E2E | Here, E2A~E2E respectively E2 (i-2,
j)〜E2(i+2,j)のエッジ成分の算出結果である。 A calculation result of the edge component of j) ~E2 (i + 2, j). 【0048】閾値処理手段25は、エッジ差分値集計手段25の結果TAS2と所定の閾値Th4とを比較し、 The threshold processing unit 25 compares the result TAS2 a predetermined threshold value Th4 edge difference value aggregator 25,
閾値以下の場合、エッジの連続性があると判定し、連続性判定結果R1として“1”を出力し、閾値より大きい場合、エッジの連続性がないと判定し、連続性判定結果R1として“0”を出力する。 If less than the threshold value, it determines that there is continuity of the edge, and outputs "1" as a continuity determination result R1, larger than the threshold, determines that there is no continuity of the edge, as a continuous determination result R1 " 0 "is output. 【0049】図27は、図26の第2の連続性判定手段22が縦方向へのエッジ成分の横方向への連続性を判定していることを示す。 [0049] Figure 27 shows that the second continuity determining section 22 of FIG. 26 is determined continuity of the horizontal edge component in the vertical direction. 【0050】その他、左斜め方向のエッジ検出する場合には、前述した右斜め方向のエッジを検出する手法と同様の方法で実現でき、また縦方向のエッジを検出する場合には、前述した横方向のエッジを検出する手法と同様の方法で実現できるので、その説明を省略する。 [0050] Other, in the case of detecting the left oblique direction edges, when realized in the same way as a method of detecting a right diagonal edge mentioned above, also for detecting a vertical edge, horizontal previously described can be realized in a manner similar technique to detect the direction of the edge, and a description thereof will be omitted. 【0051】なお、斜め方向の文字エッジ検出時に、隣接6エッジ成分について隣接画素間のエッジ成分の差分値を算出し、縦横方向の文字エッジ検出時に、隣接5エッジについて隣接画素間のエッジ成分の差分値を算出しているが、上記したエッジ成分の数は一例であって、連続性が判別できる範囲であれば上記した数に限定されない。 [0051] Incidentally, when the diagonal direction of the character edge detection, and calculates the difference value of the edge component between neighboring pixels for the adjacent 6 the edge component, when the character edge detection vertical and horizontal directions, the edge component between neighboring pixels for the adjacent 5 Edge While calculating the difference value, the number of edge components described above is an example, not limited to the number described above as long as the continuity can be determined. 【0052】図18に戻り、AND回路23は、第1の連続性判定手段20の出力結果R1と第2の連続性判定手段22の出力結果R2を入力し、R1,R2のAND [0052] Returning to FIG. 18, the AND circuit 23, an output result R1 of the first continuity determining means 20 receives the output result R2 of the second continuity determining section 22, the AND of R1, R2
を取り、その結果を輪郭均一性検出手段の出力結果Aとして出力する。 Taken, and outputs the result as output A of the contour uniformity detecting means. すなわち、R1,R2が共に連続性が有る場合に限り、輪郭均一性検出手段17の出力結果Aとして、“1”を出力する。 That is, only when the R1, R2 are both continuity exists, the output A of the contour uniformity detector 17 outputs "1". 【0053】このように、エッジ検出方向のエッジ成分がエッジ検出方向に連続し、かつエッジ検出方向と垂直方向のエッジ成分についてもエッジ検出方向に連続しているということは、文字やライン画像の輪郭が均一、つまり文字やラインの輪郭が滑らかであることを表しているので、検出されたエリアは文字エッジ部であり、網点ではないことになる。 [0053] Thus, the fact that the edge detection direction of the edge components are continuous in the edge detection direction, and are also continuous in the edge detection direction for edge detection and vertical edge component, the characters and line images contour uniform, i.e. since the contour of the character or line represents that it is smooth, the detected area is a character edge, so that not a dot. 【0054】なお、本実施例では、連続性検出手段において検出する複数方向の連続性は、一方はエッジ成分検出手段で検出されたエッジ成分の連続性、他方はその方向と垂直方向のエッジ成分の連続性を一例に説明したが、本発明は上記した垂直方向の連続性には限定されず、他の方向であってもよい。 [0054] In this embodiment, a plurality of directions of continuity detecting the continuity detection means, one continuity of edge components detected by the edge component detection means, the other edge component in that direction and the vertical direction of but continuity has been described as an example, the present invention is not limited to the continuity of the vertical direction as described above, may be other directions. 【0055】図28は、判定手段18の構成を示す。 [0055] Figure 28 shows a configuration of a determination unit 18. 判定手段18には、エッジ成分検出手段16の検出結果E The determination means 18, the detection result of the edge component detection means 16 E
と輪郭均一性検出手段17の検出結果Aが入力される。 Detection result A contour uniformity detecting means 17 is input.
絶対値算出手段27では、エッジ成分検出手段16の検出結果Eの絶対値を算出し、閾値処理手段28では検出結果Eの絶対値と所定の閾値Th5とを比較し、検出結果Eの絶対値が閾値より大きい場合は、その結果BAE In absolute value calculating means 27 calculates the absolute value of the detection result E of an edge component detector 16, compares the absolute value with a predetermined threshold value Th5 thresholding means the 28 detection result E, the detection result absolute value of E BAE If is larger than the threshold value, as a result
として“1”を出力し、閾値以下の場合は“0”を出力する。 Outputs "1" as in the case of threshold value or less to output "0". そしてAND回路29では、閾値処理手段28の結果BAEと輪郭均一性検出手段17の出力結果AとのANDを取り、閾値処理手段28がBAEとして“1” And the AND circuit 29 takes the AND between the output A of the results BAE and contour uniformity detecting means 17 in the threshold processing means 28, threshold processing means 28 as BAE "1"
を出力し、輪郭均一性検出手段17が出力結果Aとして“1”を出力したとき、判定手段18は、それぞれの方向別文字エッジ(D1,D2,D3,D4)を検出したことを出力する(D1,D2,D3,D4=“1”)。 Outputs, when the contour uniformity detector 17 outputs "1" as the output result A, the determination unit 18 outputs the detection of the respective direction-character edge (D1, D2, D3, D4) (D1, D2, D3, D4 = "1"). 【0056】なお、本実施例では、縦・横・右斜め・左斜めの4方向について、そのエッジ成分と輪郭均一性から文字エッジ検出を行っているが、文字エッジの検出を任意の方向のみに実施するようにしても良い。 [0056] In this embodiment, the length, width, and right oblique, left oblique four directions, that is the edge component and the contour uniformity doing letter edge detection, the detection of the character edge in any direction only it may be carried out. 【0057】図6に戻り、各方向別文字エッジ検出手段11〜14により方向別文字エッジD1,D2,D3, [0057] Returning to FIG. 6, the direction-specific character edge by the direction-character edge detecting means 11 to 14 D1, D2, D3,
D4が検出され、これら4方向の文字エッジ検出結果のOR15をとり、文字エッジ検出手段8の最終的な結果Cとして出力する。 D4 is detected, takes OR15 these four directions character edge detection result, and outputs a final result C of the character edge detector 8. 【0058】すなわち、注目画素(係数)が文字エッジ部である場合には、文字エッジ検出結果Cとして“1” [0058] That is, when the pixel of interest (factor) is a character edge portion, as a character edge detection result C "1"
が出力され、それ以外の絵柄部(非文字エッジ)の場合には、文字エッジ検出結果Cとして“0”が出力される。 There is output, in the case of the other picture section (non-character edge), as a character edge detection result C "0" is output. 【0059】なお、上記した実施例では、複数の方向に文字エッジ検出を行い、全方向のエッジ検出結果のOR [0059] In the embodiment described above, performs character edge detection in a plurality of directions, all directions of the edge detection result OR
をとり、注目画素(係数)における文字エッジ検出結果としているが、本発明はこれに限定されず、各方向毎の文字エッジ検出結果を、それぞれ各方向毎の鮮鋭性制御手段に反映させるようにしても良い。 Taken up, but as a character edge detection result at the target pixel (coefficient), the present invention is not limited thereto, the character edge detection results for each direction, respectively so as to reflect the sharpness control means for each direction and it may be. 図29は、文字エッジ検出手段8の全体構成図を示す。 Figure 29 shows an overall configuration diagram of a character edge detector 8. 【0060】図2に示すように、文字エッジ検出手段8 [0060] As shown in FIG. 2, the character edge detector 8
で検出された文字エッジ検出結果Cを利用して、鮮鋭性制御手段9では画像信号の強調処理および平滑化処理を行う。 In using the detected character edge detection result C, it performs the enhancement processing and smoothing processing of sharpness control means 9, the image signal. 図30は、鮮鋭性制御手段9の構成を示す。 Figure 30 shows the structure of a sharpness control unit 9. 鮮鋭性制御手段9は、文字エッジ検出手段8の検出結果Cに応じて、1階層の高周波成分(1st−HL,1st− Sharpness control means 9, according to the detection result C of the character edge detector 8, one level of the high frequency component (1st-HL, 1st-
LH,1st−HH)および2階層の高周波成分(2n LH, 1st-HH) and two levels of high frequency components (2n
d−HL,2nd−LH,2nd−HH)に対し、補正手段(902〜907)によって所定の補正を行う。 d-HL, 2nd-LH, to 2nd-HH), performs a predetermined correction by the correction means (902-907). これら補正手段の補正については図31を用いて説明する。 The correction of these correcting means will be described with reference to FIG. 31. 【0061】図31に示すように、補正手段(902〜 [0061] As shown in FIG. 31, the correction means (902~
907)に入力された高周波成分係数信号の絶対値が、 The absolute value of the input high-frequency component coefficient signal 907) is,
所定のノイズ除去閾値(Thn)よりも小さい場合には、補正後の係数信号の値を0にするように補正している。 When a predetermined smaller than the noise removal threshold (Thn) are corrected values ​​after correction factor signals to zero. また、高周波成分係数信号の絶対値が、所定のノイズ除去閾値Thn以上の場合には、入力された係数信号の値に所定の強調係数αを乗じて出力するように構成している。 The absolute value of the high-frequency component coefficient signals, in the case of more than the predetermined noise removal threshold Thn is multiplied by a predetermined emphasis coefficient α to the value of the input coefficient signal is configured to output. 【0062】このように制御することによって、ノイズ除去閾値Thnより小さな高周波成分はノイズとして除去されるため平滑化を施した画像となり、ノイズ除去閾値Thn以上の高周波成分は信号としてα倍(α>1) [0062] By controlling in this way, small high-frequency component from the noise removal threshold Thn becomes image subjected to smoothing to be removed as noise, high frequency components of the above noise removal threshold Thn as signal alpha times (alpha> 1)
されるため差分成分が増大し強調処理を施した画像が得られる。 Image difference component is subjected to increased emphasis processing to be obtained. 【0063】なお、補正手段902〜907のThn、 [0063] In addition, the correction means 902~907 Thn,
αは、図32に示すように異なる周波数帯域(1st, α is different frequency bands as shown in FIG. 32 (1st,
2nd)、異なる方向成分(HL,LH,HH)ごと個別に設定できるように構成されている。 2nd), and is configured to allow different directions component (HL, LH, HH) for each individual configuration. つまり、それぞれの帯域、方向ごとに除去する高周波成分の大きさと強調度合いを制御できるので、きめこまかなノイズ除去(平滑化)と強調を行うことが可能となる。 In other words, each band, it is possible to control the size and the degree of emphasis of the high frequency component removing every direction, it is possible to perform emphasis and fine noise removal (smoothing). 【0064】また、本発明の実施例では文字領域および絵柄領域で異なるパラメータ群(Thn、α)を保有しており、文字エッジ検出手段の検出結果Cに応じてこれらのパラメータ群の切り換えを行うように構成している。 [0064] In the embodiment of the present invention owns parameter group different character area and a picture area (Thn, alpha), for switching the these parameter groups in accordance with the detection result of the character edge detecting means C It is configured so as. すなわち、文字領域における強調係数αは絵柄領域よりも大きな値であり、文字や線画部において十分な鮮鋭性が得られるよう設定している。 That is, the enhancement coefficient α in the character region is larger than picture area, are set to sufficient sharpness in the character or line drawing portion is obtained. 逆に、文字領域におけるノイズ除去閾値Thnは、絵柄領域よりも小さな値に設定することにより、比較的微小な濃度変化も強調することができ、文字や線画部の鮮鋭性を満足することができる。 Conversely, the noise removal threshold Thn in the character region, by than picture area is set to a small value, a relatively small change in density can also be emphasized, it can be satisfied sharpness of characters or line drawing unit . 【0065】帯域に関しては、2階層の高周波成分に対して最も強調度合いが高くなるように設定している。 [0065] With respect to bandwidth is set to the most degree of emphasis with respect to the high frequency component of the second layer is high. 一般的な原稿では、6本/mmに相当する画像周波数付近での強調を大きくすることで6ポイント明朝体などの小さな文字画像に対して十分な鮮鋭性を得ることができる。 In a typical document, it is possible to obtain sufficient sharpness by increasing the emphasis in the vicinity of the image frequency corresponding to 6 lines / mm for small character images such as 6 points Mincho. これよりも高周波帯域に対して過度な強調を行ってもノイズ成分を強調する恐れがあり好ましくない。 From this fear emphasize noise components even if excessive emphasis against high-frequency band even can not preferable. 【0066】本実施例は600dpiの解像度を有するスキャナで読み取った画像信号を前提としたもので、6 [0066] This embodiment obtained by assuming the image signal read by the scanner with a 600dpi resolution, 6
本/mmに相当する高周波成分は2階層の信号(2nd High-frequency component corresponding to the lines / mm 2 hierarchy signal (2nd
−HL,2nd−LH,2nd−HH)であるので、2 -HL, 2nd-LH, because it is 2nd-HH), 2
階層の強調係数を最も高く設定している。 It has set the highest emphasis coefficient of the hierarchy. スキャナの解像度に応じて、どの階層の強調係数を最も高くするか適宜設定すればよい。 Depending on the resolution of the scanner, it may be either suitably set to the highest enhancement factor for any level. 【0067】絵柄領域では、網点画像部におけるモアレの発生を抑制するため、比較的小さな強調係数を適用するよう構成している。 [0067] In picture area, in order to suppress the occurrence of moire in the halftone image portion, and configured to apply a relatively small emphasis coefficient. 特に150線以上の高線数の網点画像に対しては網点構造の除去を行ない粒状性の向上を実現するために、比較的大きなノイズ除去閾値Thnを設定している。 To achieve an improvement in graininess performs removal of halftone dot structure, particularly for 150 lines or more high linear speed of the halftone image, it is set relatively large noise removal threshold Thn. 【0068】以上のようにパラメータを設定することで、文字領域および絵柄領域(主に網点画像領域)に対して、両者の画像品質を両立する鮮鋭性制御を行うことができる。 [0068] By setting the parameters as described above, for the character region and the picture area (mainly halftone image area), it is possible to perform sharpness control to balance both images quality. 【0069】図2に戻り、鮮鋭性制御手段9からのデータは帯域合成手段10に入力され、実空間画像に逆変換される。 [0069] Returning to FIG. 2, data from the sharpness control means 9 is input to a band synthesizing unit 10, is converted back to a real space image. 図33は、帯域合成手段10の構成を示す。 33 shows a configuration of a band synthesizing means 10. 帯域合成手段10では、より高階層のウェーブレット係数信号から処理が行われる。 The band synthesizing unit 10, processing is performed from the wavelet coefficient signals of higher hierarchy. 鮮鋭性処理手段9によって補正された2階層係数信号(2nd−LL',2nd−H 2 Hierarchical coefficient signal corrected by the sharpness processing unit 9 (2nd-LL ', 2nd-H
L',2nd−LH',2nd−HH')は、逆変換フィルタH*(y),G*(y)によってy方向に逆変換され、さらにH*(x),G*(x)によってx方向に逆変換される。 L ', 2nd-LH', 2nd-HH '), the inverse transform filter H * (y), is converted back to the y-direction by G * (y), further H * (x), by G * (x) It is converted back to the x-direction. 得られた画像信号は補正後の1階層LL The obtained image signal is one level LL corrected
信号(1st−LL')であり、1階層の他の補正後係数信号(1st−HL',1st−LH',1st−H Signal 'is other corrected coefficient signal one level (1st-HL (1st-LL)', 1st-LH ', 1st-H
H')とともに、同様な帯域合成処理が施される。 With H '), the same band synthesis process is performed. このようにしてフィルタ処理後の実空間画像信号S'が得られる。 Thus the real space image signal S after filtering 'is obtained. 【0070】ところで、本実施例におけるウェーブレット変換は、通常圧縮処理などで行われているサブサンプリング(画素の間引き)を実施しない構成をとっている。 [0070] Incidentally, the wavelet transform in the present embodiment adopts a configuration that does not implement the subsampling (decimation of pixels) taking place in such normal compression process. サブサンプリングを行うウェーブレット変換のブロック図は、図34に示すように、ハイパスフィルタ及びローパスフィルタによる処理を行った後、2画素に1画素間引く処理(例えば、奇数画素を間引く処理)を行い、係数信号とする。 Block diagram of the wavelet transform for performing sub-sampling, as shown in FIG. 34, after the process by the high-pass and low-pass filters, for 1 pixel thinning process on two pixels (e.g., thinning odd pixel processing), the coefficient the signal. 逆変換では、アップサンプリングを行い、逆変換フィルタによって逆変換を行う。 The inverse transformation performs upsampling, an inverse transform by the inverse transform filter. 【0071】本実施例のウェーブレット変換は図35に示すように、順変換の際にダウン(サブ)サンプリングを行わない。 [0071] Wavelet transform of this embodiment, as shown in FIG. 35 does not perform down (sub) sampled during the forward transform. 従って、図36に示すように、各階層、各方向の係数信号の画像サイズは入力画像Orgと同サイズとなる。 Accordingly, as shown in FIG. 36, each layer, the image size in each direction of the coefficient signal is the same size as the input image Org. 逆変換時には、図35のようにeven、o At the time of reverse conversion, even as shown in Figure 35, o
dd画素群毎にそれぞれアップサンプリングを行い、逆変換フィルタを施す。 Each performs up-sampling for each dd pixel groups, performs inverse transform filter. 1つの原画像画素に対してeve eve for one of the original image pixel
n画素群からの逆変換結果と、odd画素群からの逆変換結果が得られるので、これらを平均して逆変換後の画像データとする。 And inverse conversion results from n pixel groups, since the inverse transform results from odd pixel group is obtained, the image data after the inverse transform by averaging them. 【0072】本実施例のダウンサンプリングを行わない処理によって、高精度な画像特徴量の算出が行えるとともに、強調/平滑ムラのない高品位なフィルタ処理を行うことができる。 [0072] the processing is not performed downsampling of the present embodiment, together with enabling the calculation of accurate image feature amount, it is possible to perform high-quality filtering without enhancement / smoothing unevenness. この様子を図37〜図39を用いて説明する。 This state will be described with reference to FIGS. 37 to 39. 図37〜図39はいずれも原画像は同じであり4画素周期で濃淡を繰り返す信号である。 FIGS. 37 39 are all original image is a signal that repeats shading at 4-pixel period is the same. 図37と図3 FIGS. 37 and 3
8はサブサンプリングを行う場合の例であり、図39はサブサンプリングを行わない本実施例の方式を示すものである。 8 is an example of a case where the sub-sampling, Fig. 39 shows a scheme of the present embodiment is not performed subsampling. さらに、図37と図38はサブサンプリングを行う画素が1画素ずれた場合の例を示すものである。 Furthermore, Figure 37 and Figure 38 shows a example of a case where pixels of performing sub-sampling is shifted by one pixel. 【0073】図37の場合、d1とd2の画素対、d3 [0073] In the case of FIG. 37, the pixel pair d1 and d2, d3
とd4の画素対に対して行われたウェーブレット係数信号を間引いた例であり、結果、d0とd1の画素対、d When an example of thinning out the wavelet coefficient signals that are made to the pixel pairs d4, results, d0 a pixel pair of d1, d
2とd3の画素対に対する係数信号が残る。 Coefficient signals for 2 and d3 pixel pair remains. 例えば強調フィルタ処理のために、高周波成分に対して2倍の強調係数を乗じて逆変換すると、d0とd1の高周波成分5 For example emphasis filtering, the inverse transform is multiplied by the emphasis coefficient of 2 times the high frequency component, the high frequency component 5 of d0 and d1
0が2倍と増幅され、逆変換後のd0'とd1'のデータ差は2倍となり、所望の強調処理が行われていることがわかる。 0 is amplified twice, data difference d0 'and d1' after the inverse transform is doubled, it is found that the desired enhancement processing is performed. 【0074】これに対し、図38のようにサブサンプリングが1画素ずれた場合、d1とd2の画素対によって得られる高周波成分は0となり、強調係数を乗じても高周波成分は増幅されず、図のように原信号と何ら変わらない結果となり、所望の強調処理が行われていないことがわかる。 [0074] In contrast, if the offset sub-sampling one pixel as shown in FIG. 38, the high frequency component is 0 obtained by the pixel pair d1 and d2, respectively, and the high frequency component is not amplified even by multiplying the emphasis coefficient, FIG. no not a result and become the same as the original signal as described above, it can be seen that the desired enhancement processing has not been performed. このようにサブサンプリングを行う変換系では、そのサンプリング位置によって正しく周波数特性の補正が行えない場合がある。 In this way transformation system for performing sub-sampling, there are cases where not be corrected properly the frequency characteristic by its sampling position. 【0075】この問題を解決するのが本実施例のサブサンプリングを行わないウェーブレット変換であり、図3 [0075] a wavelet transform is not performed subsampling of the embodiment to solve this problem, FIG. 3
9のように図37と図38の結果を平均した結果となり漏れがなく周波数特性の補正が行える。 9 can be performed to correct the averaged result will leak without frequency characteristic results in FIGS. 37 and 38 as. また、強調処理のみならず、画像の特徴量を算出する際にもサブサンプリングを行っていない信号なので高精度な特徴量抽出が行える。 Moreover, not emphasizing process only, since the signal not subjected to subsampling even when calculating the characteristic amount of an image highly accurate feature extraction can be performed. 【0076】(実施例2)実施例1では、文字エッジ検出手段8の検出結果Cが2値出力であるが、実施例2では、文字エッジ検出手段8の検出結果Cが多値出力である実施例である。 [0076] Example 2 In Example 1, the detection result C of the character edge detecting means 8 is a binary output, in the second embodiment, the detection result C of the character edge detecting means 8 is a multi-value output it is an example. 実施例2では、実施例1の判定手段1 In Example 2, the determination means 1 of Example 1
8を判定手段18a(図40)に置き換え、実施例1の文字エッジ検出手段8を文字エッジ検出手段8a(図4 Substituting 8 determination unit 18a (FIG. 40), a character edge detecting means 8 of Example 1 letter edge detection unit 8a (FIG. 4
1)に置き換える。 Replaced by 1). 【0077】図40は、実施例2に係る判定手段18a [0077] Figure 40, the determination unit 18a according to Example 2
の構成を示す。 It shows the configuration. 図40において、絶対値算出手段27で出力結果AEを算出した後、多値出力算出手段30において、AEが所定の閾値Th5a以上である場合、そのままAEの値を算出結果MAEとして出力し、AEが所定の閾値Th5a未満である場合、“0”を算出結果M In Figure 40, after calculating the output AE absolute value calculating means 27, in the multi-level output calculating unit 30, when AE is not less than the predetermined threshold value Th5a, and outputs the value of AE as a calculation result MAE intact, AE There is less than a predetermined threshold Th5a, the calculation result of "0" M
AEとして出力する。 And outputs it as AE. 【0078】AND31では、輪郭均一性検出手段17 [0078] In AND31, contour uniformity detecting means 17
の出力結果Aが“1”である場合は、出力として多値出力算出手段30の結果MAEをそのままD1,D2,D If it is the output result A is "1", as a result MAE multilevel output calculating unit 30 as the output D1, D2, D
3,D4として出力し、輪郭均一性検出手段17の出力結果Aが“0”の場合は、“0”を出力する。 3, and output as D4, output A of the contour uniformity detecting means 17 is "0", and outputs "0". 【0079】また、図41は、実施例2に係る文字エッジ検出手段8aの構成を示す。 [0079] Further, FIG. 41 shows a structure of a character edge detecting means 8a according to the second embodiment. 図41に示す文字エッジ検出手段8aにおいて、各方向別文字エッジ検出手段1 In character edge detecting means 8a shown in FIG. 41, the direction-character edge detecting means 1
1から14の検出結果D1,D2,D3,D4は前述したように、多値出力となる。 Detection result D1, D2, D3, D4 of 1 to 14, as described above, the multi-level output. そして、MAX回路32では、これら4方向の検出結果の最大値を選択し、これを文字エッジ検出手段8aの出力結果Cとする。 Then, the MAX circuit 32, selects the maximum of these four directions of the detection result, which is an output result C of the character edge detecting means 8a. 【0080】このようにして得られる多値出力Cによって、図30に示す鮮鋭性制御手段9を制御する。 [0080] By multi-level output C thus obtained, to control the sharpness control means 9 shown in FIG. 30. 実施例1では文字部/絵柄部(非文字部)という2値的な制御パラメータの切替であるのに対して、実施例2では、複数の中間的なパラメータの切替設定が可能となり、よりきめ細かな鮮鋭性制御が可能となる。 Whereas a switching of the binary control parameter of the character portion / picture section in Example 1 (non-character portion), in the second embodiment, it is possible to change setting of a plurality of intermediate parameters, more detailed sharpness control can be such. 【0081】(実施例3)本発明の実施例3では、文字エッジ検出手段8の出力結果Cを用いて、入力画像信号に実空間上で鮮鋭性制御を行う実施例である。 [0081] In Example 3 (Embodiment 3) The present invention, by using the output result C of the character edge detecting means 8, an embodiment of performing a sharpness control on real space to the input image signal. 図42 Figure 42
は、実施例3の構成を示す。 Shows the configuration of the third embodiment. 実施例1と異なる点は、鮮鋭性制御手段9aにおいて、出力結果Cによって制御される信号が、帯域分割手段7の出力結果であるウェーブレット係数信号Wではなく、入力画像信号Sである点である。 Example 1 differs in sharpness control means 9a, the signal is controlled by the output result C, rather than the wavelet coefficient signal W which is the output result of the band dividing means 7 is that the input image signal S . 【0082】また、実施例1と異なる他の点は、実施例1では鮮鋭性制御手段9において強調係数αとノイズ除去閾値Thnを文字エッジ検出手段8の出力結果Cに応じて切り換えているのに対し、本実施例では、鮮鋭性制御手段9aに予め用意した2種類の実空間フィルタ(図43、図44)を、文字エッジ検出手段8の出力結果C [0082] Also different from the first embodiment other points are switched in accordance with the output result C of Example 1, the sharpness control means 9 in the emphasis coefficient α and the noise removal threshold Thn character edge detecting means 8 hand, in the present embodiment, two types of real spatial filter previously prepared sharpness control means 9a (FIG. 43, FIG. 44), the output result of the character edge detecting means 8 C
に応じて選択し、入力信号Sにフィルタ処理を行う。 Selected according to, it performs a filtering process on the input signal S. 図43は、文字エッジが検出されない場合に選択されるフィルタの特性を示し、図44は、文字エッジが検出された場合に選択されるフィルタ(エッジ強調)の特性を示す。 Figure 43 shows the characteristic of the filter character edge is selected if not detected, FIG. 44 shows the characteristic of the filter (edge ​​enhancement) selected when the character edge is detected. 【0083】(実施例4)本発明の実施例4は、輪郭均一性検出手段17を構成する第2の連続性検出手段22 [0083] Example 4 (Example 4) The present invention, the second continuity detection means constituting the contour uniformity detecting means 17 22
で用いるエッジ成分E2が、第1の連続性検出手段20 Edge component E2 is, first continuity detection unit 20 used in the
で用いるエッジ成分E1よりも高周波特性をもつエッジ成分である場合の実施例である。 Than the edge component E1 used in an embodiment in which an edge component with the high-frequency characteristics. 【0084】すなわち、本実施例では、図22、23の代わりに、図45に示すような第2の連続性検出を行う。 [0084] That is, in this embodiment, in place of 22 and 23, a second continuity detection as shown in FIG. 45. 第2の連続性検出に用いる、左斜め方向のエッジ成分E2は、同画素位置における1st−LH係数1LH Used for the second continuity detection, the edge component E2 of the left oblique direction, 1st-LH coefficient 1LH at the same pixel position
(i,j)から1st−HL係数1HL(i,j)を減算した値となっている。 (I, j) consists 1st-HL coefficient 1HL (i, j) and the value obtained by subtracting the. 本実施例の方法は、第2の連続性検出に用いるエッジ成分が高周波特性であるため、より厳密に連続性を判定することができ、輪郭の均一性検出の精度を向上させることができる。 The method of this embodiment, edge components used for the second continuity detection for a high-frequency characteristics, can be determined more strictly continuity, it is possible to improve the accuracy of the uniformity detection of the contour. 【0085】なお、本実施例ではウェーブレット係数の簡単な演算によりエッジ成分E2を算出しているが、本発明はこれに限定されず、他の方法、例えば実空間信号から直接所望のエッジ成分を算出しても同様の効果が得られる。 [0085] Incidentally, in this embodiment calculates the edge component E2 by simple calculation of the wavelet coefficients, the present invention is not limited to this, other methods, the desired edge components such as direct from real space signal calculated the same effect can be obtained. 【0086】上記した実施例では、ウェーブレット基底関数としてHaar型ウェーブレットを例にしたが、他の基底関数でも同様に実現できる。 [0086] In the above embodiment, although an example Haar type wavelet as wavelet basis functions can be implemented similarly in other basis functions. また、ウェーブレット変換に限らず、画像を複数の周波数帯域に分割するサブバンド変換、フーリエ変換、アダマール変換、ラプラシアンピラミッドなどに対しても同様に実現できる。 Further, not limited to the wavelet transform, subband transform to divide the image into a plurality of frequency bands, the Fourier transform, Hadamard transform it can be realized similarly for such Laplacian pyramid. 【0087】また、上記した実施例ではウェーブレット空間上での処理を説明したが、実空間上でも同様に実施できる。 [0087] Further, in the above embodiment has been described processing on the wavelet space, it can be carried out equally well on real space. 【0088】また、上記したように、本発明は専用のハードウェアによって実施してもよいことは当然であるが、汎用のコンピュータシステムを利用し、ソフトウェアで実施してもよい。 [0088] Further, as described above, the present invention is able to be implemented by dedicated hardware of course, to use a general-purpose computer system may be implemented in software. ソフトウェアで実施する場合には、本発明の画像処理機能(フィルタ処理、γ変換、中間調処理などの処理)や処理手順を実現するプログラムが記録媒体などに記録されていて、該記録媒体などからプログラムがコンピュータシステムに読み込まれてCP If implemented in software, the image processing functions of the present invention a program for realizing and processing procedure (filtering, gamma conversion, processing such as halftone processing) have been recorded in a recording medium, and the like the recording medium program is loaded into the computer system CP
Uによって実行されることにより、本発明の画像処理機能が実施される。 It is executed by the U, an image processing function of the present invention is implemented. 画像データは、例えばスキャナなどから読み込んだ原稿画像データや予めハードディスクなどに用意された画像データであり、あるいはネットワークを介して取り込んだ画像データである。 Image data is, for example, image data is prepared like the original image data and previously hard disk read from a scanner, or image data acquired via a network. また、処理結果は、プリンタに出力され、あるいはハードディスクに書き出される。 The processing result is outputted to the printer, or written to the hard disk. またはネットワークを介して外部装置(プリンタなど)に出力される。 Or output to an external device (such as a printer) via a network. 【0089】 【発明の効果】以上、説明したように、本発明によれば、以下のような効果が得られる。 [0089] [Effect of the Invention] As described above, according to the present invention, the following effects can be obtained. (1)入力画像信号に対しエッジ成分と輪郭の均一性を検出し、文字やライン画像部においてはその輪郭の均一性が高く、網点部においてはその輪郭の均一性が比較的低いという特徴を利用して、文字エッジ部のみを精度よく検出することができる。 (1) detecting the uniformity of the input image signal to edge component and the outline characters, high uniformity of the contour in the line image portion, characterized in meshed portion is relatively low homogeneity of the outline by using, only the character edge portion can be accurately detected. また、文字エッジ部の検出結果を基に、網点部と文字エッジ部の両方が混在する一般的な入力画像の各部位に対して、それぞれに適した画像処理、すなわち、文字やラインはエッジ強調し、網点および非エッジ部は平滑化させることができる。 Further, based on the detection result of the character edge for each part of a general input image both halftone portion and the character edge portion are mixed, the image processing suitable for each, i.e., character and line edge emphasized, halftone and non-edge portion can be smoothed. (2)検出したい文字エッジ方向と同一方向のエッジ成分の連続性を検出することにより、まずその方向のエッジか否かの判定を行い、同時にその方向とは別方向のエッジ成分の連続性を検出することにより、判定されたエッジの輪郭が均一であるか否かの判定が可能となる。 By (2) detecting the continuity of the detected character to the edge in the same direction of the edge component, first a determination is made whether the direction of the edge, at the same time the continuity of the different directions of the edge component of its direction by detecting, it is possible to determine whether the contours of the determined edges is uniform. 文字やライン画像部においてはその輪郭の均一性が高く、 In the character or line image portion is high uniformity of its contour,
網点部においてはその輪郭の均一性が比較的低いことから、検出したい文字エッジ方向と同一方向のエッジ成分の連続性とその方向にほぼ垂直方向のエッジ成分の連続性の両方が大きい場合、文字エッジ部であると判定することができる。 Because of the relatively low homogeneity of the outline in the meshed portion, if both the continuity of the substantially vertical edge component continuity and the orientation of the edge components of the character edge in the same direction as the direction to be detected is large, it can be determined that a character edge. これにより、網点分離等ハード的にもコスト的にも負荷の大きい画像領域判別手段を用いることなく、エッジ成分中から文字エッジのみを精度よく検出できる。 Accordingly, without using a large image area determination means is also loaded in cost to halftone separation such hardware, only the character edge can be detected accurately from among the edge components. (3)連続性検出手段で検出する複数方向の連続性の内、1つをエッジ成分検出手段で検出されたエッジ成分の連続性とすることにより、検出手段を共通化することができ、使用するラインメモリ、バッファの数を低く抑えることができる。 (3) of the continuity of the plurality of directions to be detected by the continuity detection means, by the continuity of the detected edge component by the edge component detection means one, can be made common detection means, using line memory, it is possible to reduce the number of buffers. (4)検出したい文字エッジ方向の別方向として、特にほぼ垂直方向に限定することにより、最も効率よくまた高精度に輪郭の均一性を検出することができる。 (4) As another direction of the character edge direction to be detected, in particular by limiting the substantially vertical direction, it can be detected most efficiently also outline uniformity with high accuracy. (5)第2の連続性検出に用いるエッジ成分を高周波特性とすることにより、より細かい信号変化にも追随可能となり、輪郭の均一性検出の精度を向上させることができる。 (5) by a high-frequency characteristics of the edge components for the second continuity detection, also enables follow the finer signal changes, it is possible to improve the accuracy of the uniformity detection of the contour. (6)文字エッジ検出結果を文字エッジらしさの度合いを示す多値量とすることにより、段階的または連続的に画像処理を切り替えることが可能となり、仮に文字エッジ検出で誤検出があった場合でも、2値で画像処理を切り替える場合よりも、切替による歪みやモアレの発生による出力画像に与える悪影響を最小限に抑えることができる。 With multi-level amount indicating the degree of (6) the character edge detection result character edge resemblance, it is possible to switch the stepwise or continuously image processing, even if the there is erroneous detection at the character edge detection , than when switching the image processing in binary, it is possible to minimize the adverse effects on the output image due to occurrence of distortion or moire due to the switching. (7)複数の方向成分に対して各々の文字エッジ検出を行い、その検出結果の最大値を注目画素における文字エッジ検出結果とすることにより、いずれの方向の文字エッジであっても同じ文字エッジ検出結果が得られ、文字エッジ部において方向毎のばらつきの少ない均衡のとれた画像再生ができる。 (7) performs each of the character edge detection for a plurality of directional components, and the detection by the character edge detection result at the target pixel the maximum value of the result, each of the direction of the character edge and a be the same character edge detection results can be obtained, an image reproduction with a good variation less balance each direction in the character edge portion. (8)ウェーブレット変換が入力画像信号を複数の周波数帯域と複数の方向成分の係数信号に分割する変換であることから、文字エッジ検出のために必要なエッジ成分および輪郭の均一性を検出する際、ウェーブレット係数信号そのまま、もしくはウェーブレット係数信号の簡単な演算結果をこれらの検出に使用できるので、文字エッジの検出が容易に実現できる。 (8) Since the wavelet transform is a transform to divide the input image signal to the coefficient signals of a plurality of frequency bands and a plurality of directional components, when detecting the uniformity of the edge components and contours necessary for character edge detection , wavelet coefficient signals directly, or because a simple calculation result of the wavelet coefficient signals can be used to detect these, the detection of character edge can be easily realized. また、文字エッジ検出の検出結果を基に、網点部と文字エッジ部の両方が混在する一般的な入力画像の各部位に対して、それぞれに適した画像処理をウェーブレット係数信号上で実施することができる。 Further, based on the detection result of the character edge detection for each part of a general input image both halftone portion and the character edge portion are mixed, to implement the image processing suitable for each on the wavelet coefficient signals be able to. (9)さらにウェーブレット変換で帯域分割するとき、 (9) Further when band division in the wavelet transform,
画像を間引かずに係数変換することにより、より高精度な文字エッジ検出を行うことができる。 By coefficients convert without thinning the image, it is possible to perform more accurate character edge detection. (10)例えば1LH係数と1HL係数の差をとることにより、帯域分割された係数信号に補正を加え、その補正された係数信号によりエッジ成分検出を行うことにより、補正を行わない場合と比べて高周波の網点をエッジ成分として拾わないようなエッジ成分の検出が可能となり、より高精度に網点以外の文字エッジのみの検出を行うことができる。 (10) For example, by taking the difference 1LH coefficient and 1HL coefficient, a correction to the band division coefficient signals added by performing an edge component detected by the correction coefficient signal, as compared with the case where no correction the frequency of the halftone dots becomes possible to detect an edge component that does not picked up as an edge component, it is possible to perform only the detection character edge other than the halftone dots more accurately.

【図面の簡単な説明】 【図1】本発明の実施例1〜4に適用される全体の構成を示す。 It shows the entire configuration to be applied to Examples 1 to 4 BRIEF DESCRIPTION OF THE DRAWINGS [Figure 1] present invention. 【図2】本発明のフィルタ処理手段の構成を示す。 2 shows a configuration of the filtering means of the present invention. 【図3】帯域分割手段の構成を示す。 Figure 3 shows the structure of a band division means. 【図4】Haarのウェーブレットを示す。 4 shows a wavelet of Haar. 【図5】Haarウェーブレット変換を説明する図である。 5 is a diagram illustrating the Haar wavelet transform. 【図6】文字エッジ検出手段の構成を示す。 6 shows the structure of a character edge detection means. 【図7】方向別文字エッジ検出手段の構成を示す。 7 shows a configuration of a direction-specific character edge detection means. 【図8】右斜め方向のエッジ成分の検出に使用される1 [8] 1 for use in the detection of the right diagonal edge component
st−LL係数を示す。 It shows the st-LL coefficient. 【図9】右斜め方向のエッジ成分の検出を説明する図である。 9 is a diagram for explaining the detection of the right diagonal edge component. 【図10】右斜め方向のエッジ成分の検出を実空間フィルタ係数で表現した図である。 [10] The detection of the right diagonal edge component is a diagram expressing the real space filter coefficients. 【図11】左斜め方向のエッジ成分の検出に使用される1st−LL係数を示す。 11 shows the 1st-LL coefficients used for the detection of the left diagonal edge component. 【図12】左斜め方向のエッジ成分の検出を説明する図である。 12 is a diagram for explaining the detection of the left diagonal edge component. 【図13】左斜め方向のエッジ成分の検出を実空間フィルタ係数で表現した図である。 13 is a diagram representing the detection of the left diagonal edge components in the real space filter coefficients. 【図14】横方向のエッジ成分の検出に使用される2n [14] 2n used in the detection of the lateral edge components
d−LH係数を示す。 It shows the d-LH coefficient. 【図15】横方向のエッジ成分の検出を実空間フィルタ係数で表現した図である。 [15] The detection of the horizontal edge component is a diagram expressing the real space filter coefficients. 【図16】縦方向のエッジ成分の検出に使用される2n [16] 2n which is used for detecting the vertical edge component
d−HL係数を示す。 It shows the d-HL coefficient. 【図17】縦方向のエッジ成分の検出を実空間フィルタ係数で表現した図である。 [17] The detection of the vertical edge component is a diagram expressing the real space filter coefficients. 【図18】輪郭均一性検出手段の構成を示す。 Figure 18 shows the configuration of a contour uniformity detecting means. 【図19】連続性判定手段の構成を示す。 Figure 19 shows the configuration of a continuity determination means. 【図20】注目画素位置を含む右斜め方向への隣接6エッジ成分を用いて連続性の判定を説明する図である。 20 is a diagram for explaining the determination of continuity with the adjacent 6 the edge component in the right oblique direction including the target pixel position. 【図21】右斜め方向へのエッジ成分の右斜め方向への連続性を判定していることを示す図である。 21 is a diagram showing that the determined continuity of the right diagonal edge components in the right oblique direction. 【図22】注目画素位置を含む右斜め方向への隣接6エッジ成分を用いて連続性の判定を説明する図である。 22 is a diagram for explaining the determination of continuity with the adjacent 6 the edge component in the right oblique direction including the target pixel position. 【図23】左斜め方向へのエッジ成分の右斜め方向への連続性を判定していることを示す図である。 23 is a diagram showing that the determined continuity of the right diagonal edge component in the left oblique direction. 【図24】注目画素位置を含む左右横方向への隣接5エッジ成分を用いて連続性の判定を説明する図である。 24 is a diagram for explaining the determination of continuity with the adjacent 5 edge component in the lateral transverse direction including the target pixel position. 【図25】横方向へのエッジ成分の横方向への連続性を判定していることを示す図である。 25 is a diagram showing that the determined continuity of the horizontal edge component in the horizontal direction. 【図26】注目画素位置を含む左右横方向への隣接5エッジ成分を用いて連続性の判定を説明する図である。 26 is a diagram for explaining the determination of continuity with the adjacent 5 edge component in the lateral transverse direction including the target pixel position. 【図27】縦方向へのエッジ成分の横方向への連続性を判定していることを示す図である。 27 is a diagram showing that the determined continuity of the horizontal edge component in the vertical direction. 【図28】判定手段の構成を示す。 Figure 28 shows the configuration of a determination unit. 【図29】文字エッジ検出手段の全体構成図を示す。 Figure 29 shows an overall configuration diagram of a character edge detection means. 【図30】鮮鋭性制御手段の構成を示す。 30 shows the structure of a sharpness control means. 【図31】補正手段の入出力特性の例を示す。 Figure 31 shows an example of input-output characteristic of the correction means. 【図32】文字、網点領域に対応した補正手段へのパラメータの設定例を示す。 [Figure 32] characters, showing a setting example of a parameter to the correction means corresponding to the halftone dot region. 【図33】帯域合成手段の構成を示す。 Figure 33 shows the configuration of a band synthesizing means. 【図34】サブサンプリングを行うウェーブレット変換の構成を示す。 Figure 34 shows the configuration of a wavelet transform for performing subsampling. 【図35】本発明に係るサブサンプリングを行わないウェーブレット変換の構成を示す。 Figure 35 shows the configuration of a wavelet transform is not performed subsampling according to the present invention. 【図36】サブサンプリングを行わないウェーブレット変換を説明する図である。 36 is a diagram illustrating a wavelet transform is not performed subsampling. 【図37】サブサンプリングを行うウェーブレット変換を説明する図である。 37 is a diagram illustrating a wavelet transform for performing subsampling. 【図38】サブサンプリングを行うウェーブレット変換を説明する図である。 38 is a diagram illustrating a wavelet transform for performing subsampling. 【図39】サブサンプリングを行わない本実施例に係るウェーブレット変換を説明する図である。 39 is a diagram illustrating a wavelet transform according to this embodiment is not performed subsampling. 【図40】判定手段の他の構成例を示す。 Figure 40 shows another configuration example of the determination means. 【図41】文字エッジ検出手段の他の構成例を示す。 Figure 41 shows another configuration example of a character edge detection means. 【図42】フィルタ処理手段の他の構成例を示す。 Figure 42 shows another configuration example of the filtering means. 【図43】文字エッジが検出されない場合に選択されるフィルタの特性を示す。 FIG. 43 shows the characteristic of the filter character edge is selected if not detected. 【図44】文字エッジが検出された場合に選択されるフィルタの特性を示す。 Figure 44 shows the characteristic of the filter character edge is selected when it is detected. 【図45】高周波特性をもつエッジ成分を用いて連続性を検出する例を示す。 An example of detecting a continuity with reference to FIG. 45 the edge components with high frequency characteristics. 【符号の説明】 1 画像入力手段2 スキャナγ処理手段3 フィルタ処理手段4 γ変換処理手段5 中間調処理手段6 画像出力手段7 帯域分割手段8 文字エッジ検出手段9 鮮鋭性制御手段10 帯域合成手段 [Description of Reference Numerals] 1 image input unit 2 scanner gamma processing unit 3 filter processing unit 4 gamma conversion means 5 halftone processing unit 6 image output unit 7 band dividing means 8 characters edge detection means 9 sharpness control means 10 band synthesizing means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 水納 亨 東京都大田区中馬込1丁目3番6号 株式 会社リコー内Fターム(参考) 5C077 MP06 NN02 NN08 NN11 NP01 PP02 PP03 PP15 PP23 PP27 PP43 PP49 PQ08 TT02 5L096 BA17 FA06 FA22 FA44 FA67 GA19 GA55 JA11 ────────────────────────────────────────────────── ─── front page of the continuation (72) inventor everyone Toru Ota-ku, Tokyo Nakamagome 1-chome No. 3 No. 6 stock company Ricoh in the F-term (reference) 5C077 MP06 NN02 NN08 NN11 NP01 PP02 PP03 PP15 PP23 PP27 PP43 PP49 PQ08 TT02 5L096 BA17 FA06 FA22 FA44 FA67 GA19 GA55 JA11

Claims (1)

  1. 【特許請求の範囲】 【請求項1】 所定画像を複数の周波数帯域毎に複数の方向成分の係数に分割して出力するとき、前記所定画像の画素を間引かずに行って出力する帯域分割手段と、前記分割された係数を用いて前記画像の複数の方向毎にそれぞれ文字エッジを検出する方向毎の文字エッジ検出手段と、前記何れかの方向で文字エッジが検出されたことに応じて、前記分割された所定係数に対して所定の処理を施して出力する出力手段とを備えたことを特徴とする画像処理装置。 Patent Claims: 1. When dividing and outputs the coefficients of a plurality of directional components for each of a plurality of frequency bands predetermined image, band division to be output to go to without thinning the pixels of the predetermined image means, a character edge detecting means in each direction to detect a plurality each character edge for each direction of the image using the divided coefficients, depending on the said letter edge in either direction is detected an image processing apparatus characterized by comprising an output means for outputting by performing predetermined processing for the divided predetermined coefficient. 【請求項2】 前記各文字エッジ検出手段は、文字エッジ検出方向における画像のエッジ成分を検出するエッジ成分検出手段と、文字エッジ検出方向におけるエッジ成分の輪郭の均一性を検出する輪郭均一性検出手段と、前記検出されたエッジ成分と輪郭の均一性とを基に文字エッジであるか否かを判定する判定手段とを備えたことを特徴とする請求項1記載の画像処理装置。 Wherein said each character edge detecting means, a character edge and the edge component detection means for detecting an image of an edge component in the detection direction, character edge detection direction in the edge uniformity detector for detecting the contour of the uniformity of the edge component means and the detected image processing apparatus according to claim 1 wherein the uniformity of the edge components and the contour, characterized by comprising determination means for determining whether a character edge based. 【請求項3】 前記輪郭均一性検出手段は、前記文字エッジ検出方向およびそれとは異なる方向におけるエッジ成分を検出するエッジ成分検出手段と、前記文字エッジ検出方向および異なる方向におけるエッジ成分の連続性を判定する連続性判定手段とを備え、前記文字エッジ検出方向および異なる方向におけるエッジ成分の連続性を基に輪郭の均一性を検出することを特徴とする請求項2 Wherein the contour uniformity detecting means includes an edge component detector means for detecting said letter edge detection direction and edge components in a direction different from that, the continuity of the edge components in the character edge detection direction and a different direction determining a continuity determination means, and detects the character edge detection direction and different based on the continuity of the edge component in the direction of the contour uniformity claim 2
    記載の画像処理装置。 The image processing apparatus according. 【請求項4】 前記異なる方向におけるエッジ成分は、 4. The edge component in said different directions,
    前記文字エッジ検出方向に対して垂直方向のエッジ成分であることを特徴とする請求項3記載の画像処理装置。 The image processing apparatus according to claim 3, characterized in that the vertical edge component with respect to the character edge detection direction. 【請求項5】 前記垂直方向のエッジ成分は、文字エッジ検出方向のエッジ成分よりも高周波成分をもつエッジ成分であることを特徴とする請求項4記載の画像処理装置。 Edge component of claim 5, wherein the vertical direction, the image processing apparatus according to claim 4, wherein a than the edge component of the character edge detection direction is the edge component with a high-frequency component. 【請求項6】 前記高周波成分をもつエッジ成分は、異なる方向成分の係数を用いて検出することを特徴とする請求項5記載の画像処理装置。 Edge component with wherein said high frequency components, the image processing apparatus according to claim 5, wherein the detecting using the coefficients of different directional components. 【請求項7】 前記連続性判定手段は、注目画素または注目係数を含む、所定個数の隣接する画素間のエッジ成分の差分値を基に連続性を判定することを特徴とする請求項3記載の画像処理装置。 Wherein said continuity determining means, including the target pixel or target coefficients, according to claim 3, wherein determining the continuity based on the difference value of the edge components between adjacent pixels of a predetermined number the image processing apparatus. 【請求項8】 前記文字エッジ検出手段は、前記各方向毎に文字エッジの度合いを示す多値量を検出し、前記何れかの方向で最大の値をとる文字エッジの度合いを示す多値量に応じて、前記分割された所定係数に対して所定の処理を施して出力する出力手段とを備えたことを特徴とする請求項1記載の画像処理装置。 Wherein said character edge detection means, the multi-level amount indicating a degree of character edge in which the detected multivalued amount indicating a degree of character edge in each direction takes the maximum value in the one direction the image processing apparatus according to claim 1, characterized by comprising by, and output means for outputting by performing predetermined processing for the divided predetermined coefficient according to. 【請求項9】 所定画像を複数の周波数帯域毎に複数の方向成分の係数に分割して出力するとき、前記所定画像の画素を間引かずに行って出力する帯域分割手段と、前記分割された係数を用いて前記画像の複数の方向毎にそれぞれ文字エッジを検出する方向毎の文字エッジ検出手段と、前記何れかの方向で文字エッジが検出されたことに応じて、前記所定画像に対して所定の処理を施して出力する出力手段とを備えたことを特徴とする画像処理装置。 9. When dividing and outputs the coefficients of a plurality of directional components for each of a plurality of predetermined image frequency band, a band dividing means for outputting performed without thinning the pixels of the predetermined image, is the divided and a character edge detecting means in each direction to detect a plurality each character edge for each direction of the image by using the coefficient, the depending on the character edge in either direction is detected, with respect to the predetermined image the image processing apparatus characterized by comprising an output means for outputting performs predetermined processing Te. 【請求項10】 所定画像を複数の周波数帯域毎に複数の方向成分の係数に分割して出力する帯域分割手段と、 10. A band division means and outputting the divided coefficient of the plurality of directional components of the predetermined image for each of a plurality of frequency bands,
    前記分割された係数を用いて前記画像の複数の方向毎にそれぞれ文字エッジを検出する方向毎の文字エッジ検出手段と、前記何れかの方向で文字エッジが検出されたことに応じて、前記分割された所定係数に対して所定の処理を施して出力する出力手段とを備えたことを特徴とする画像処理装置。 Wherein a character edge detecting means for each direction by using the divided coefficients to detect a plurality each character edge for each direction of said image, in response to the character edge in either direction is detected, the divided the image processing apparatus characterized by comprising an output means for outputting by performing predetermined processing on and predetermined coefficients. 【請求項11】 所定画像の注目画素毎にエッジ成分と、エッジ成分の輪郭の均一性を検出する手段と、前記エッジ成分とエッジ成分の輪郭の均一性が検出されたとき、前記注目画素を文字エッジと判定する手段と、文字エッジと判定された画素に対して鮮鋭性を制御する手段とを備えたことを特徴とする画像処理装置。 11. A edge for each pixel of interest of the predetermined image component, and means for detecting the contour of the uniformity of the edge component, when the uniformity of the contour of the edge component and an edge component is detected, the pixel of interest It means for determining a character edge, the image processing apparatus characterized by comprising a means for controlling the sharpness with respect to the pixel which is determined as a character edge.
JP2001292191A 2001-09-25 2001-09-25 Image processor Pending JP2003101774A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001292191A JP2003101774A (en) 2001-09-25 2001-09-25 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001292191A JP2003101774A (en) 2001-09-25 2001-09-25 Image processor

Publications (1)

Publication Number Publication Date
JP2003101774A true true JP2003101774A (en) 2003-04-04

Family

ID=19114203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001292191A Pending JP2003101774A (en) 2001-09-25 2001-09-25 Image processor

Country Status (1)

Country Link
JP (1) JP2003101774A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008060722A (en) * 2006-08-29 2008-03-13 Sony Corp Image processor and image processing method
WO2010140281A1 (en) * 2009-06-04 2010-12-09 シャープ株式会社 Signal processing device, control method for signal processing device, control program, and computer-readable storage medium having the control program recorded therein
WO2011021518A1 (en) * 2009-08-19 2011-02-24 日本電気株式会社 Image processing method, image processing device, and program
JP2011061473A (en) * 2009-09-09 2011-03-24 Murata Machinery Ltd Image discrimination device
US8098329B2 (en) 2006-08-29 2012-01-17 Sony Corporation Image determination apparatus, image determination method, and program, and image processing apparatus, image processing method, and program
JP2012502359A (en) * 2008-09-03 2012-01-26 ソニー エレクトロニクス インク The positioning of the text for image and video ocr
JP2013030975A (en) * 2011-07-28 2013-02-07 Riso Kagaku Corp Image processing device
US8773594B2 (en) 2010-09-29 2014-07-08 Sharp Kabushiki Kaisha Signal processing device, and integrated circuit including oblique lowpass filtering and multiple sharpening components
US8811765B2 (en) 2009-11-17 2014-08-19 Sharp Kabushiki Kaisha Encoding device configured to generate a frequency component extraction signal, control method for an encoding device using the frequency component extraction signal, transmission system, and computer-readable recording medium having a control program recorded thereon
US8824825B2 (en) 2009-11-17 2014-09-02 Sharp Kabushiki Kaisha Decoding device with nonlinear process section, control method for the decoding device, transmission system, and computer-readable recording medium having a control program recorded thereon
US8891898B2 (en) 2010-02-15 2014-11-18 Sharp Kabushiki Kaisha Signal processing device and control program for sharpening images

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098329B2 (en) 2006-08-29 2012-01-17 Sony Corporation Image determination apparatus, image determination method, and program, and image processing apparatus, image processing method, and program
JP2008060722A (en) * 2006-08-29 2008-03-13 Sony Corp Image processor and image processing method
JP2012502359A (en) * 2008-09-03 2012-01-26 ソニー エレクトロニクス インク The positioning of the text for image and video ocr
WO2010140281A1 (en) * 2009-06-04 2010-12-09 シャープ株式会社 Signal processing device, control method for signal processing device, control program, and computer-readable storage medium having the control program recorded therein
US8655101B2 (en) 2009-06-04 2014-02-18 Sharp Kabushiki Kaisha Signal processing device, control method for signal processing device, control program, and computer-readable storage medium having the control program recorded therein
CN102484673A (en) * 2009-08-19 2012-05-30 日本电气株式会社 Image processing method, image processing device, and program
WO2011021518A1 (en) * 2009-08-19 2011-02-24 日本電気株式会社 Image processing method, image processing device, and program
CN102484673B (en) * 2009-08-19 2015-12-16 日本电气株式会社 An image processing method, an image processing apparatus and a program
JP5614550B2 (en) * 2009-08-19 2014-10-29 日本電気株式会社 Image processing method, image processing apparatus and program
US9083913B2 (en) 2009-08-19 2015-07-14 Nec Corporation Image processing method, image processing device, and program
JP2011061473A (en) * 2009-09-09 2011-03-24 Murata Machinery Ltd Image discrimination device
US8811765B2 (en) 2009-11-17 2014-08-19 Sharp Kabushiki Kaisha Encoding device configured to generate a frequency component extraction signal, control method for an encoding device using the frequency component extraction signal, transmission system, and computer-readable recording medium having a control program recorded thereon
US8824825B2 (en) 2009-11-17 2014-09-02 Sharp Kabushiki Kaisha Decoding device with nonlinear process section, control method for the decoding device, transmission system, and computer-readable recording medium having a control program recorded thereon
US8891898B2 (en) 2010-02-15 2014-11-18 Sharp Kabushiki Kaisha Signal processing device and control program for sharpening images
US8773594B2 (en) 2010-09-29 2014-07-08 Sharp Kabushiki Kaisha Signal processing device, and integrated circuit including oblique lowpass filtering and multiple sharpening components
JP2013030975A (en) * 2011-07-28 2013-02-07 Riso Kagaku Corp Image processing device

Similar Documents

Publication Publication Date Title
US6771793B1 (en) Image processing method and apparatus
US5200840A (en) Image processing apparatus
US6934056B2 (en) Noise cleaning and interpolating sparsely populated color digital image using a variable noise cleaning kernel
US20050041116A1 (en) Image processing apparatus and image processing program
US20060291741A1 (en) Image processing apparatus, image processing method, program, and recording medium therefor
US8237830B2 (en) Video camera
US6795588B1 (en) Noise detector, noise detection method, signal processor and signal processing method
US20040196408A1 (en) Image processing method
JP2004221644A (en) Image processing apparatus and method therefor, recording medium, and program
JP2003134352A (en) Image processing method and apparatus, and program therefor
US20030218776A1 (en) Image processor and image processing method
US20070009176A1 (en) Multi-resolution processing of digital signals
JP2001005960A (en) Method and device for processing image
US7355755B2 (en) Image processing apparatus and method for accurately detecting character edges
US5956432A (en) Image processing apparatus and method
JP3465226B2 (en) Image density conversion processing method
JPH09212623A (en) Image processing method
JP2000306089A (en) Image processor, image processing method and recording medium
JP2004120092A (en) Image processing apparatus, image processing system, image processing method, storage medium, and program
US20010024515A1 (en) Method and apparatus to interpolate video frames
JP2002117400A (en) Image correction method and device, and recording medium readable by computer and having image correction program recorded thereon
CN102665030A (en) Improved bilinear Bayer format color interpolation method
US20050035977A1 (en) Signal processing apparatus and method, recording medium, and program
CN101877123A (en) Image enhancement method and device
US20100322509A1 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081008