JP2000331174A - Edge processing method - Google Patents

Edge processing method

Info

Publication number
JP2000331174A
JP2000331174A JP11139736A JP13973699A JP2000331174A JP 2000331174 A JP2000331174 A JP 2000331174A JP 11139736 A JP11139736 A JP 11139736A JP 13973699 A JP13973699 A JP 13973699A JP 2000331174 A JP2000331174 A JP 2000331174A
Authority
JP
Japan
Prior art keywords
edge
image data
value
parameter
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11139736A
Other languages
Japanese (ja)
Inventor
Michiteru Shichiro
道輝 七呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP11139736A priority Critical patent/JP2000331174A/en
Publication of JP2000331174A publication Critical patent/JP2000331174A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the edge connectivity by controlling a parameter in the direction where the output image data are thinned if the primary differential value of an attentional pixel is larger than the threshold with the secondary differential value set smaller than zero and then controlling the parameter in the direction where the output image data are thickened if the primary differential value of the attentional pixel is larger than the threshold with the secondary differential value set larger than zero respectively. SOLUTION: The primary differential value of an attentional pixel is calculated (S101) and the secondary differential value of the pixel is calculated (S102). An edge decision result is calculated by comparing the minimum differential value with the threshold and deciding the positive or negative secondary differential value (S103). The image data correction value is set and outputted as a parameter (S104) and then binarized by the similar gradation processing to generate an output image (S105). Then the parameter is controlled in the direction where the output image data are thinned if the primary differential value is larger than the threshold with the secondary differential value set smaller than zero and in the direction where the output image data are thickened if the primary differential value is larger than the threshold with the secondary differential value set larger than zero respectively.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、イメージスキャ
ナ、ディジタル複写機等の読み取り装置により読み取ら
れた濃淡画像から文字エッジを検出して補正を行うエッ
ジ処理方法に関するものである。
[0001] 1. Field of the Invention [0002] The present invention relates to an edge processing method for detecting and correcting character edges from a grayscale image read by a reading device such as an image scanner or a digital copying machine.

【0002】[0002]

【従来の技術】従来から、イメージスキャナやディジタ
ル複写機等の読み取り装置により読み取られたディジタ
ル画像データに対し、画像のエッジ部の検出・強調等の
処理を施した後、プリンタや表示装置等の出力機器に出
力することで、高画質印字、鮮明度の高い表示画像が期
待できるため、さらなる高度なエッジ処理方法に対する
要求が高まりつつある。また、特に二値プリンタ、二値
化モードでの多値プリンタに対して画像エッジ部の良好
な再現性を満足しながら多階調データを二値データに変
調出力する二値化方法の要求が高まっている。
2. Description of the Related Art Conventionally, digital image data read by a reading device such as an image scanner or a digital copying machine is subjected to processing such as detection and enhancement of an edge portion of the image, and then processed by a printer or a display device. By outputting to an output device, high-quality printing and a display image with high clarity can be expected. Therefore, a demand for a more advanced edge processing method is increasing. In addition, there is a demand for a binarization method for modulating and outputting multi-tone data into binary data while satisfying good reproducibility of an image edge portion, particularly for a binary printer and a multi-level printer in a binary mode. Is growing.

【0003】以下、従来のエッジ処理方式の構成および
動作について説明する。
The configuration and operation of a conventional edge processing system will be described below.

【0004】図9は従来のエッジ処理方法を示すフロー
チャート、図10は従来のエッジ処理技術におけるエッ
ジ検出部の構成を示すブロック図、図11は従来のエッ
ジ処理技術における一次微分オペレータを示す説明図、
図12は従来のエッジ処理技術におけるエッジ補正部の
構成を示すブロック図である。
FIG. 9 is a flowchart showing a conventional edge processing method, FIG. 10 is a block diagram showing a configuration of an edge detecting section in a conventional edge processing technique, and FIG. 11 is an explanatory diagram showing a primary differential operator in a conventional edge processing technique. ,
FIG. 12 is a block diagram showing a configuration of an edge correction unit in a conventional edge processing technique.

【0005】まず、図9に基づいて、従来のエッジ処理
方式の一画素の処理フローを説明する。
First, a processing flow for one pixel in the conventional edge processing method will be described with reference to FIG.

【0006】ここでは、画像データDを入力し(S10
0)、上下・左右・右斜・左斜の計4方向の差分値の中
の最大値Emaxを算出し(S108)、Emaxと閾
値TH_Eとを比較し(S109)、S109の判定結
果であるCorrに従って画像データDを補正してエッ
ジ補正出力Qを出力する(S110)。
Here, image data D is input (S10
0), the maximum value Emax of the difference values in the four directions of up, down, left, right, right skew, and left skew is calculated (S108), Emax is compared with the threshold value TH_E (S109), and the result of the determination in S109 is obtained. The image data D is corrected according to Corr, and an edge correction output Q is output (S110).

【0007】ここで、ステップS108は、上下方向の
差分値Ea・左右方向の差分値Eb・右斜方向の差分値
Ec・左斜方向の差分値Edの計4方向の差分値を算出
するサブステップ(SS1)と、Ea,Eb,Ec,E
dを絶対値化し順に|Ea|,|Eb|,|Ec|,|
Ed|を得るサブステップ(SS2)と、|Ea|,|
Eb|,|Ec|,|Ed|の中の最大値Emaxを算
出するサブステップ(SS3)とで構成される。
Here, step S108 is a step of calculating a difference value in a total of four directions of a difference value Ea in the vertical direction, a difference value Eb in the left and right direction, a difference value Ec in the right oblique direction, and a difference value Ed in the left oblique direction. Step (SS1), Ea, Eb, Ec, E
| Ea |, | Eb |, | Ec |, |
Substep (SS2) for obtaining Ed |, | Ea |, |
And a sub-step (SS3) of calculating the maximum value Emax among Eb |, | Ec | and | Ed |.

【0008】また、ステップS109では、判定式Em
ax<THのときに判定結果Corrを0(注目画素が
画像のエッジでない)、判定式Emax<THでないと
きに判定結果Corrを1(注目画素が画像のエッジで
ある)とする。そして、この判定結果Corrを参照
し、ステップS110は、注目画素がエッジでないとき
(Corr=0)にはQ=Dとするサブステップ(SS
16)と、注目画素がエッジであるとき(Corr=
1)にはQ=D+Emax/4とするサブステップ(S
S17)とで構成される。
In step S109, the judgment formula Em
When ax <TH, the determination result Corr is 0 (the pixel of interest is not the edge of the image), and when the determination formula Emax <TH is not 1, the determination result Corr is 1 (the pixel of interest is the edge of the image). Then, referring to this determination result Corr, step S110 is a sub-step (SS) where Q = D when the target pixel is not an edge (Corr = 0).
16) and when the pixel of interest is an edge (Corr =
1) includes a substep (S = Q + D + Emax / 4)
S17).

【0009】そして、このような図9のフローを主走査
方向および副走査方向に繰り返すことで、画像全体のエ
ッジ処理が行われる。
By repeating the flow of FIG. 9 in the main scanning direction and the sub-scanning direction, edge processing of the entire image is performed.

【0010】次に、図10に基づき、従来のエッジ処理
技術におけるエッジ検出部の構成について説明する。
Next, the configuration of an edge detecting section in a conventional edge processing technique will be described with reference to FIG.

【0011】エッジ検出部は、画像データDが入力され
る一次微分算出手段10および画像記憶手段12を備え
ている。
The edge detecting section has a first derivative calculating means 10 to which the image data D is input and an image storing means 12.

【0012】一次微分算出手段10は、差分値算出手段
14、絶対値算出手段15および最大値算出手段16で
構成されており、画像データDは一次微分算出手段10
の差分値算出手段14に入力される。また、制御信号D
L_CTRを画像記憶手段12に送る制御手段13が設
けられており、画像記憶手段12は、この制御信号DL
_CTRに従って画像データDを書き込み、また制御信
号DL_CTRに従って画像データDのライン遅延信号
であるDLを一次微分算出手段10に対して読み出す。
The primary differential calculating means 10 comprises a differential value calculating means 14, an absolute value calculating means 15, and a maximum value calculating means 16, and the image data D is converted to the primary differential calculating means 10.
Is input to the difference value calculating means 14. Also, the control signal D
A control unit 13 for sending L_CTR to the image storage unit 12 is provided.
_CTR is written, and DL, which is a line delay signal of the image data D, is read out to the primary differential calculation means 10 in accordance with the control signal DL_CTR.

【0013】ここで、差分値算出手段14は、画像デー
タDおよび画像記憶手段12より読み出されたライン遅
延信号であるDLでウインドウ(図示せず)を構成し、
このウインドウに対し図11(a)、(b)、(c)、
(d)の一次微分オペレータ17,18,19,20の
オペレータ演算を行うことで、上下方向の差分値Ea、
左右方向の差分値Eb、右斜方向の差分値Ec、左斜方
向の差分値Edをそれぞれ算出する。また、絶対値算出
手段15は差分値Ea,Eb,Ec,Edを絶対値化し
て|Ea|,|Eb|,|Ec|,|Ed|を算出し、
最大値算出手段16は|Ea|,|Eb|,|Ec|,
|Ed|の最大値Emaxを算出する。
Here, the difference value calculation means 14 forms a window (not shown) with the image data D and the line delay signal DL read from the image storage means 12,
11 (a), (b), (c),
(D) By performing the operator operation of the first derivative operators 17, 18, 19, and 20, the vertical difference value Ea,
The difference value Eb in the left-right direction, the difference value Ec in the rightward slant direction, and the difference value Ed in the leftward slant direction are calculated. The absolute value calculating means 15 converts the difference values Ea, Eb, Ec, and Ed into absolute values to calculate | Ea |, | Eb |, | Ec |, | Ed |
The maximum value calculating means 16 calculates | Ea |, | Eb |, | Ec |,
The maximum value Emax of | Ed | is calculated.

【0014】次に、図12に基づき、従来のエッジ処理
技術におけるエッジ補正部の構成について説明する。
Next, the configuration of the edge correction unit in the conventional edge processing technique will be described with reference to FIG.

【0015】エッジ補正部は、Emaxと閾値TH_E
とを比較し、判定結果CorrがEmax<THのとき
に0、Emax<THでないときに1として出力する比
較手段22と、このような比較手段22の判定結果Co
rrが入力され、Corr=1のときにエッジ補正値と
してEmax/4を、Corr=0のときにエッジ補正
値として0(補正しない)を出力する補正値算出手段2
3と、補正値算出手段23のエッジ補正値が入力され、
画像データDとエッジ補正値を加算してエッジ補正出力
Qを生成する加算手段21を備えている。
[0015] The edge correction unit calculates the Emax and the threshold value TH_E.
And a comparison means 22 which outputs 0 when the judgment result Corr is smaller than Emax and 1 when Emax <TH is not larger than the judgment result Corr.
rr is input and Emax / 4 is output as an edge correction value when Corr = 1, and 0 (no correction) is output as an edge correction value when Corr = 0 is output.
3 and the edge correction value of the correction value calculation means 23 are input,
An adder 21 is provided for adding the image data D and the edge correction value to generate an edge correction output Q.

【0016】[0016]

【発明が解決しようとする課題】しかしながら、上記し
た技術では、エッジ量と比較される閾値THが大きい場
合にはエッジが検出されない画素が多く発生し、エッジ
の連結性が悪くなるという問題を有している。そして、
このエッジ検出されない画素のために、検出されたエッ
ジの分布の滑らかさが低下する。
However, the above technique has a problem that when the threshold value TH to be compared with the edge amount is large, many pixels for which no edge is detected are generated, and the connectivity of the edge is deteriorated. are doing. And
Because of the pixels whose edges are not detected, the smoothness of the distribution of the detected edges is reduced.

【0017】一方、エッジ量と比較される閾値THが小
さい場合には、エッジが太くなる傾向があるというとい
う問題点を有している。
On the other hand, when the threshold value TH to be compared with the edge amount is small, there is a problem that the edge tends to be thick.

【0018】そこで、本発明は、エッジの太さが読み取
り装置のMTFに依存しにくいエッジ処理方法を提供す
ることを目的とする。
Accordingly, an object of the present invention is to provide an edge processing method in which the thickness of an edge hardly depends on the MTF of a reading device.

【0019】[0019]

【課題を解決するための手段】この課題を解決するため
に、本発明のエッジ処理方法は、多階調の画像データを
入力して画像のエッジ部を検出、補正を行うエッジ処理
方法であって、画像データを入力し、画像データから注
目画素における一次微分値を求め、画像データから注目
画素における二次微分値を求め、一次微分値が閾値を超
えない第1のエッジ判別結果、一次微分値が閾値以上で
且つ二次微分値がゼロを越えない第2のエッジ判別結
果、一次微分値が閾値以上で且つ二次微分値がゼロ以上
の第3のエッジ判別結果の3つのエッジ判別結果を求
め、3つのエッジ判定結果からパラメータを設定し、パ
ラメータにより出力画像データを生成し、出力画像デー
タの生成において、注目画素が第1のエッジ判別結果の
ときにはパラメータをデフォルト値に設定し、注目画素
が第2のエッジ判別結果のときにはデフォルト値より出
力画像データが薄くなる方向にパラメータを制御し、注
目画素が第3のエッジ判別結果のときにはデフォルト値
より出力画像データが濃くなる方向にパラメータを制御
するものである。
In order to solve this problem, an edge processing method according to the present invention is an edge processing method for detecting and correcting an edge portion of an image by inputting multi-gradation image data. Inputting image data, obtaining a first differential value of the pixel of interest from the image data, obtaining a second differential value of the pixel of interest from the image data, a first edge determination result in which the first differential value does not exceed a threshold, a first differential Three edge discrimination results of a second edge discrimination result whose value is equal to or more than a threshold value and whose secondary differential value does not exceed zero, and a third edge discrimination result whose primary differential value is not less than a threshold value and whose secondary differential value is not less than zero , And a parameter is set from the three edge determination results. Output image data is generated using the parameters. In the generation of the output image data, the parameter is set when the pixel of interest is the first edge determination result. When the target pixel is the second edge determination result, the parameter is controlled so that the output image data becomes thinner than the default value. When the target pixel is the third edge determination result, the output image data is set higher than the default value. The parameter is controlled in such a direction that the density becomes higher.

【0020】これにより、エッジの連結性が向上して、
エッジの太さが読み取り装置のMTFに対して高い非依
存性を実現することができる。
Thus, the connectivity of the edges is improved,
The edge thickness can be highly independent of the MTF of the reader.

【0021】[0021]

【発明の実施の形態】本発明の請求項1に記載の発明
は、多階調の画像データを入力して画像のエッジ部を検
出、補正を行うエッジ処理方法であって、画像データを
入力し、画像データから注目画素における一次微分値を
求め、画像データから注目画素における二次微分値を求
め、一次微分値が閾値を超えない第1のエッジ判別結
果、一次微分値が閾値以上で且つ二次微分値がゼロを越
えない第2のエッジ判別結果、一次微分値が閾値以上で
且つ二次微分値がゼロ以上の第3のエッジ判別結果の3
つのエッジ判別結果を求め、3つのエッジ判定結果から
パラメータを設定し、パラメータにより出力画像データ
を生成し、出力画像データの生成において、注目画素が
第1のエッジ判別結果のときにはパラメータをデフォル
ト値に設定し、注目画素が第2のエッジ判別結果のとき
にはデフォルト値より出力画像データが薄くなる方向に
パラメータを制御し、注目画素が第3のエッジ判別結果
のときにはデフォルト値より出力画像データが濃くなる
方向にパラメータを制御するエッジ処理方法であり、エ
ッジの連結性が向上して、エッジの太さが読み取り装置
のMTFに対して高い非依存性を実現することが可能に
なるという作用を有する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The invention according to claim 1 of the present invention is an edge processing method for detecting and correcting an edge portion of an image by inputting multi-gradation image data, wherein the image data is input. Then, the first differential value of the pixel of interest is obtained from the image data, the second differential value of the pixel of interest is obtained from the image data, the first edge determination result in which the first differential value does not exceed the threshold value, the first differential value is not less than the threshold value, and The second edge determination result in which the secondary differential value does not exceed zero, the third edge determination result in which the primary differential value is equal to or more than the threshold value and the secondary differential value is equal to or more than zero,
One edge determination result is obtained, a parameter is set from the three edge determination results, output image data is generated by the parameter, and in the generation of the output image data, the parameter is set to a default value when the pixel of interest is the first edge determination result. When the target pixel is the second edge determination result, the parameter is controlled so that the output image data becomes lighter than the default value. When the target pixel is the third edge determination result, the output image data becomes darker than the default value. This is an edge processing method for controlling parameters in the direction, and has the effect that the connectivity of edges is improved, and the thickness of the edge can be highly independent of the MTF of the reading device.

【0022】本発明の請求項2に記載の発明は、請求項
1記載の発明において、出力画像データは、擬似中間調
処理による画像の二値化処理により生成されるエッジ処
理方法であり、エッジの連結性が向上して、エッジの太
さが読み取り装置のMTFに対して高い非依存性を実現
することが可能になるという作用を有する。
According to a second aspect of the present invention, in the first aspect, the output image data is an edge processing method generated by binarizing an image by a pseudo halftone process. Has an effect that the thickness of the edge can be highly independent of the MTF of the reading device.

【0023】本発明の請求項3に記載の発明は、請求項
1または2記載の発明において、画像データ補正値をパ
ラメータに設定し、出力画像データの生成においては、
配分誤差を算出し、注目画素の画像データとパラメータ
と配分誤差との和を二値化して当該出力画像データを生
成するとともに注目画素の二値化時の量子化誤差を算出
してこれを記憶するエッジ処理方法であり、エッジの連
結性が向上して、エッジの太さが読み取り装置のMTF
に対して高い非依存性を実現することが可能になるとい
う作用を有する。
According to a third aspect of the present invention, in the first or second aspect, the image data correction value is set as a parameter, and the generation of the output image data includes
The distribution error is calculated, the sum of the image data of the pixel of interest, the parameter, and the distribution error is binarized to generate the output image data, and the quantization error at the time of binarization of the pixel of interest is calculated and stored. Edge connection method, the edge connectivity is improved, and the thickness of the edge is reduced by the MTF of the reading device.
Has the effect of realizing high independence on

【0024】本発明の請求項4に記載の発明は、請求項
1または2記載の発明において、二値化閾値をパラメー
タに設定し、出力画像データの生成においては、配分誤
差を算出し、注目画素の画像データと配分誤差との和を
パラメータで二値化して出力画像データを生成するとと
もに注目画素の二値化時の量子化誤差を算出してこれを
記憶するエッジ処理方法であり、エッジの連結性が向上
して、エッジの太さが読み取り装置のMTFに対して高
い非依存性を実現することが可能になるという作用を有
する。
According to a fourth aspect of the present invention, in the first or second aspect, a binarization threshold is set as a parameter, and in generating output image data, a distribution error is calculated. An edge processing method that binarizes the sum of image data of a pixel and a distribution error with a parameter to generate output image data, calculates a quantization error at the time of binarization of a target pixel, and stores the quantization error. Has an effect that the thickness of the edge can be highly independent of the MTF of the reading device.

【0025】以下、本発明の実施の形態について、図1
から図8を用いて説明する。なお、これらの図面におい
て同一の部材には同一の符号を付しており、また、重複
した説明は省略されている。
Hereinafter, an embodiment of the present invention will be described with reference to FIG.
This will be described with reference to FIG. In these drawings, the same members are denoted by the same reference numerals, and duplicate description is omitted.

【0026】(実施の形態1)図1は本発明の実施の形
態1であるエッジ処理方法を示すフローチャート、図2
は図1のエッジ処理方法が実行されるエッジ検出部の構
成を示すブロック図、図3は図1のエッジ処理方法にお
ける二次微分オペレータを示す説明図、図4は図1のエ
ッジ処理方法によるエッジ検出結果を示すグラフ、図5
は図1のエッジ処理方法が実行される誤差拡散部の構成
を示すブロック図、図6は図5の誤差拡散部における誤
差マトリクスを示す説明図である。
(Embodiment 1) FIG. 1 is a flowchart showing an edge processing method according to Embodiment 1 of the present invention.
FIG. 3 is a block diagram showing a configuration of an edge detection unit in which the edge processing method of FIG. 1 is executed, FIG. 3 is an explanatory diagram showing a second derivative operator in the edge processing method of FIG. 1, and FIG. FIG. 5 is a graph showing an edge detection result.
5 is a block diagram showing a configuration of an error diffusion unit in which the edge processing method of FIG. 1 is executed, and FIG. 6 is an explanatory diagram showing an error matrix in the error diffusion unit of FIG.

【0027】先ず、本実施の形態のエッジ処理方法によ
る一画素の処理フローについて図1に基づいて説明す
る。
First, a processing flow of one pixel by the edge processing method of the present embodiment will be described with reference to FIG.

【0028】本実施の形態では、濃度値である画像デー
タDを入力し(画像入力ステップ・S100)、上下・
左右・右斜・左斜の計4方向の差分値の中の最大値Em
axを算出して画像データDから注目画素における一次
微分値を求め(一次微分値算出ステップ・S101)、
注目画素における二次微分値Rを算出し(二次微分値算
出ステップ・S102)、Emaxと閾値TH_Eとの
比較および二次微分値Rの正負判断によりエッジ判定結
果を算出し(エッジ判定ステップ・S103)、ステッ
プS103のエッジ判定結果に従い画像データ補正値D
corrをパラメータとして設定・出力し(パラメータ
設定ステップ・S104)、画像データ補正値Dcor
rをパラメータとした誤差拡散処理に基づく疑似階調処
理による二値化処理を行って出力画像を生成する(出力
画像生成ステップ・S105)。
In this embodiment, image data D, which is a density value, is input (image input step S100), and up, down,
The maximum value Em of the difference values in a total of four directions: left, right, right and left slopes
ax is calculated to obtain a first derivative of the pixel of interest from the image data D (first derivative calculation step S101);
The secondary differential value R of the target pixel is calculated (secondary differential value calculation step S102), and an edge determination result is calculated by comparing Emax with the threshold value TH_E and determining whether the secondary differential value R is positive or negative (edge determination step S103), the image data correction value D according to the edge determination result of step S103
corr is set and output as a parameter (parameter setting step S104), and the image data correction value Dcor is set.
An output image is generated by performing binarization processing by pseudo gradation processing based on error diffusion processing using r as a parameter (output image generation step S105).

【0029】ここで、ステップS101は、上下方向の
差分値Ea・左右方向の差分値Eb・右斜方向の差分値
Ec・左斜方向の差分値Edの計4方向の差分値を算出
するサブステップ(SS1)と、差分値Ea,Eb,E
c,Edを絶対値化し、順に|Ea|,|Eb|,|E
c|,|Ed|を得るサブステップ(SS2)と、|E
a|,|Eb|,|Ec|,|Ed|の中の最大値Em
axを算出するサブステップ(SS3)とで構成され
る。
Here, step S101 is a subroutine for calculating a difference value in a total of four directions of a difference value Ea in the vertical direction, a difference value Eb in the left and right direction, a difference value Ec in the right oblique direction, and a difference value Ed in the left oblique direction. Step (SS1) and difference values Ea, Eb, E
c and Ed are converted to absolute values, and | Ea |, | Eb |
substep (SS2) for obtaining c |, | Ed |
a |, | Eb |, | Ec |, | Ed |
ax calculation sub-step (SS3).

【0030】また、ステップS103は、判定式Ema
x<THのときにエッジ判定結果を1(注目画素が画像
のエッジでない)、判定式(Emax>=TH)かつ
(R<0)のときにエッジ判定結果を2(注目画素が画
像エッジの谷側)、判定式(Emax>=TH)かつ
(R>=0)のときにエッジ判定結果を3(注目画素が
画像エッジの山側)としてエッジ判定結果を算出する。
In step S103, the judgment formula Ema
When x <TH, the edge determination result is 1 (the pixel of interest is not the edge of the image), and when the determination formula (Emax> = TH) and (R <0), the edge determination result is 2 (the pixel of interest is the image edge). The edge determination result is calculated as 3 (the target pixel is on the peak side of the image edge) when the valley side) and the determination formula (Emax> = TH) and (R> = 0) are satisfied.

【0031】ステップS104は、エッジ判定結果に基
づき画像データ補正値Dcorrをパラメータとして設
定し、エッジ判定結果が1のときのパラメータ設定を行
うサブステップ(SS6)と、エッジ判定結果が2のと
きのパラメータ設定を行うサブステップ(SS8)と、
エッジ判定結果が3のときのパラメータ設定を行うサブ
ステップ(SS7)とで構成される。
Step S104 sets the image data correction value Dcorr as a parameter based on the edge determination result, and sets a parameter when the edge determination result is 1 (SS6). Sub-step of setting parameters (SS8);
And a sub-step (SS7) for performing parameter setting when the edge determination result is 3.

【0032】そして、ステップS105は、誤差マトリ
クスの要素値と量子化誤差との注目画素周辺での畳み込
み和である配分誤差Etotを算出するサブステップ
(SS9)と、注目画素の画像データと画像データ補正
値Dcoorであるパラメータと配分誤差Etotとの
和を二値化閾値で二値化して注目画素の二値画像Qであ
る出力画像データを得るとともに注目画像の二値化時の
量子化誤差Eとを算出するサブステップ(SS10)
と、量子化誤差Eを記憶するサブステップ(SS11)
とで構成される。
Then, step S105 is a substep (SS9) of calculating a distribution error Etot, which is a convolution of the element value of the error matrix and the quantization error around the pixel of interest, and the image data and image data of the pixel of interest. The sum of the parameter that is the correction value Dcoor and the distribution error Etot is binarized with a binarization threshold to obtain output image data that is the binary image Q of the pixel of interest, and the quantization error E at the time of binarization of the image of interest. (SS10)
And a sub-step of storing the quantization error E (SS11)
It is composed of

【0033】そして、図1に示す処理を主走査方向およ
び副走査方向に繰り返すことで画像全体のエッジ処理が
行われる。
The edge processing of the entire image is performed by repeating the processing shown in FIG. 1 in the main scanning direction and the sub-scanning direction.

【0034】次に、図2に基づき、本実施の形態のエッ
ジ処理方法におけるエッジ検出部の構成について説明す
る。
Next, the configuration of the edge detector in the edge processing method of the present embodiment will be described with reference to FIG.

【0035】エッジ検出部は、画像データDが入力され
る一次微分算出手段10、二次微分算出手段11および
画像記憶手段12を備えている。
The edge detecting section has a first derivative calculating means 10 to which image data D is input, a second derivative calculating means 11, and an image storing means 12.

【0036】一次微分算出手段10は、差分値算出手段
14、絶対値算出手段15および最大値算出手段16で
構成されており、画像データDは一次微分算出手段10
の差分値算出手段14に入力される。また、制御信号D
L_CTRを画像記憶手段12に送る制御手段13が設
けられており、画像記憶手段12は、この制御信号DL
_CTRに従って画像データDを書き込み、また制御信
号DL_CTRに従って画像データDのライン遅延信号
であるDLを一次微分算出手段10と二次微分算出手段
11に対して読み出す。
The primary differential calculating means 10 comprises a differential value calculating means 14, an absolute value calculating means 15, and a maximum value calculating means 16, and the image data D is converted to the primary differential calculating means 10.
Is input to the difference value calculating means 14. Also, the control signal D
A control unit 13 for sending L_CTR to the image storage unit 12 is provided.
The image data D is written in accordance with _CTR, and the line delay signal DL of the image data D is read out to the primary differential calculation means 10 and the secondary differential calculation means 11 in accordance with the control signal DL_CTR.

【0037】ここで、差分値算出手段14は、画像デー
タDおよび画像記憶手段12より読み出されたライン遅
延信号であるDLでウインドウ(図示せず)を構成し、
このウインドウに対し、前述した図11(a)、
(b)、(c)、(d)の一次微分オペレータ17,1
8,19,20のオペレータ演算を行うことで、上下方
向の差分値Ea、左右方向の差分値Eb、右斜方向の差
分値Ec、左斜方向の差分値Edをそれぞれ算出する。
また、絶対値算出手段15は差分値Ea,Eb,Ec,
Edを絶対値化して|Ea|,|Eb|,|Ec|,|
Ed|を算出し、最大値算出手段16は|Ea|,|E
b|,|Ec|,|Ed|の最大値Emaxを算出す
る。そして、二次微分算出手段11は、画像データDお
よび画像記憶手段12より読み出されたライン遅延信号
であるDLでウインドウ(図示せず)を構成し、図3の
二次微分オペレータ1を行うことで二次微分値Rを算出
する。
Here, the difference value calculating means 14 forms a window (not shown) with the image data D and the line delay signal DL read from the image storing means 12,
With respect to this window, FIG.
(B), (c), (d) first derivative operator 17,1
By performing 8, 19, and 20 operator calculations, a vertical difference value Ea, a horizontal difference value Eb, a right diagonal difference value Ec, and a left diagonal difference value Ed are calculated, respectively.
The absolute value calculating means 15 calculates the difference values Ea, Eb, Ec,
| Ea |, | Eb |, | Ec |, |
Ed |, and the maximum value calculating means 16 calculates | Ea |, | E
The maximum value Emax of b |, | Ec |, | Ed | is calculated. Then, the second derivative calculator 11 forms a window (not shown) with the image data D and the line delay signal DL read from the image storage 12, and performs the second derivative operator 1 of FIG. Thus, the second derivative R is calculated.

【0038】次に、図4を用いてエッジ判定結果の説明
を行う。なお、図4は、画像エッジ近傍における画像デ
ータD(濃度データ)に関して、代表的な主走査方向
(X)のレベル変化を示したグラフである。
Next, the result of the edge judgment will be described with reference to FIG. FIG. 4 is a graph showing a typical level change in the main scanning direction (X) with respect to the image data D (density data) near the image edge.

【0039】図4において、エッジ判定結果=1(判定
式Emax<THのとき)は図4のの部分に対応して
おり、前述のように注目画素が画像のエッジではないこ
とを意味する。エッジ判定結果=2(判定式(Emax
>=TH)かつ(R<0))は図4のの部分に対応し
ており、前述のように注目画素が画像エッジの谷側、す
なわち濃度が低い部分にあることを意味する。そして、
エッジ判定結果=3(判定式(Emax>=TH)かつ
(R>=0))は図4のの部分に対応しており、前述
のように注目画素が画像エッジの山側、すなわち濃度が
高い部分にあることを意味する。
In FIG. 4, the edge judgment result = 1 (when the judgment formula Emax <TH) corresponds to the portion shown in FIG. 4, and means that the target pixel is not the edge of the image as described above. Edge judgment result = 2 (judgment expression (Emax
> = TH) and (R <0)) correspond to the portion of FIG. 4 and mean that the pixel of interest is on the valley side of the image edge, that is, on the portion with low density, as described above. And
The edge judgment result = 3 (judgment expression (Emax> = TH) and (R> = 0)) corresponds to the portion shown in FIG. 4. As described above, the target pixel is on the hill side of the image edge, that is, the density is high. Means in part.

【0040】次に、図5に基づき、本実施の形態のエッ
ジ処理方法が実行される誤差拡散部について説明する。
Next, an error diffusion unit in which the edge processing method of the present embodiment is executed will be described with reference to FIG.

【0041】誤差拡散部は、最大値Emaxおよび二次
微分値Rに基づいてエッジ判別結果を出力するエッジ判
別手段2と、エッジ判別手段2からのエッジ判別結果を
受けてパラメータとして画像データ補正値Dcorr
(図1におけるサブステップSS6,SS7,SS8で
の算出値)を設定するパラメータ設定手段3と、画像デ
ータDと誤差制御手段7からの注目画素周辺の配分誤差
Etotとパラメータ設定手段3からの画像データ補正
値Dcorrとの加算値を出力する加算手段8と、加算
手段8の加算値が入力され、加算値が固定閾値TH(=
128)より大きいときに二値画像Q=1、固定閾値T
H以下のときに二値画像Q=0と二値化して二値画像Q
を出力する二値化手段4と、二値化手段の二値画像Qお
よび固定閾値THが入力され、D−Q×255を二値化
時の量子化誤差Eとして出力する誤差生成手段5と、量
子化誤差Eを記憶する誤差記憶手段6と、制御信号EL
_CTRにより量子化誤差Eの誤差記憶手段6への書き
込み制御、量子化誤差Eのライン遅延データであるEL
の読み出し制御、および誤差マトリクス9(図6)に基
づきELより注目画素周辺の配分誤差Etotを算出を
行う誤差制御手段7とを備えている。
The error diffusion unit outputs an edge discrimination result based on the maximum value Emax and the secondary differential value R. The error diffusion unit receives the edge discrimination result from the edge discrimination unit 2 and receives the image data correction value as a parameter. Dcorr
(Calculated values in sub-steps SS6, SS7, SS8 in FIG. 1), a parameter setting means 3, an image data D, a distribution error Etot around the target pixel from the error control means 7, and an image from the parameter setting means 3. An adding means 8 for outputting an added value to the data correction value Dcorr, and an added value of the adding means 8 are input, and the added value is set to a fixed threshold TH (=
128) When larger than binary image Q = 1, fixed threshold T
When H or less, the binary image Q is binarized to 0 and the binary image Q
And an error generating means 5 which receives the binary image Q and the fixed threshold value TH of the binarizing means and outputs D−Q × 255 as a quantization error E at the time of binarization. Storage means 6 for storing the quantization error E, and a control signal EL.
_CTR controls the writing of the quantization error E to the error storage means 6 and EL which is the line delay data of the quantization error E
And an error control means 7 for calculating a distribution error Etot around the target pixel from the EL based on the error matrix 9 (FIG. 6).

【0042】ここで、パラメータ設定手段3では、エッ
ジ判別結果=1のときにはたとえばDcorr=0(デ
フォルト値)を、エッジ判別結果=2のときには画素を
強調するためにたとえばDcorr=−Emax/4
(出力画像データが薄くなる値)を、エッジ判別結果=
3のときには画素を強調するためにたとえばDcorr
=Emax/4(出力画像データが濃くなる値)をそれ
ぞれパラメータとして画像データ補正値Dcorrを設
定する。
Here, when the edge determination result = 1, for example, Dcorr = 0 (default value) when the edge determination result = 1, and when the edge determination result = 2, for example, Dcorr = -Emax / 4 to emphasize the pixel.
(The value at which the output image data becomes lighter)
In the case of 3, for example, Dcorr
= Emax / 4 (a value at which the output image data becomes darker) is used as a parameter to set the image data correction value Dcorr.

【0043】そして、このように、パラメータである画
像データ補正値Dcorrを加算手段8に加えること
で、画像のエッジの谷側では画像データが低い方に補正
され、画像のエッジの山側では画像データを高い方に補
正され、それ以外の箇所では特に補正値を加えられない
ので、画像のエッジを強調することが可能になる。
As described above, by adding the image data correction value Dcorr, which is a parameter, to the adding means 8, the image data is corrected to be lower on the valley side of the image edge, and the image data is corrected on the hill side of the image edge. Is corrected to the higher side, and no correction value can be added in other places, so that the edge of the image can be emphasized.

【0044】(実施の形態2)図7は本発明の実施の形
態2であるエッジ処理方法を示すフローチャート、図8
は図7のエッジ処理方法が実行される誤差拡散部の構成
を示すブロック図である。なお、本実施の形態におい
て、エッジ検出部の構成およびエッジ判定結果について
は実施の形態1におけるものと同様となっているため、
重複した図示および説明は省略されている。
(Embodiment 2) FIG. 7 is a flowchart showing an edge processing method according to Embodiment 2 of the present invention.
FIG. 8 is a block diagram showing a configuration of an error diffusion unit in which the edge processing method of FIG. 7 is executed. Note that, in the present embodiment, the configuration of the edge detection unit and the edge determination result are the same as those in the first embodiment.
Overlapping illustrations and descriptions have been omitted.

【0045】先ず、本実施の形態のエッジ処理方法によ
る一画素の処理フローについて図7に基づいて説明す
る。
First, a processing flow for one pixel by the edge processing method of the present embodiment will be described with reference to FIG.

【0046】本実施の形態では、濃度値である画像デー
タDを入力し(画像入力ステップ・S100)、上下・
左右・右斜・左斜の計4方向の差分値の中の最大値Em
axを算出して画像データDから注目画素における一次
微分値を求め(一次微分値算出ステップ・S101)、
注目画素における二次微分値Rを算出し(二次微分値算
出ステップ・S102)、Emaxと閾値TH_Eとの
比較および二次微分値Rの正負判断によりエッジ判定結
果を算出し(エッジ判定ステップ・S103)、ステッ
プS103のエッジ判定結果に従い閾値THをパラメー
タとして設定・出力し(パラメータ設定ステップ・S1
06)、閾値THをパラメータとした誤差拡散処理に基
づく疑似階調処理による二値化処理を行って出力画像を
生成する(出力画像生成ステップ・S107)。
In this embodiment, image data D, which is a density value, is input (image input step S100),
The maximum value Em of the difference values in a total of four directions: left, right, right and left slopes
ax is calculated to obtain a first derivative of the pixel of interest from the image data D (first derivative calculation step S101);
The secondary differential value R of the target pixel is calculated (secondary differential value calculation step S102), and an edge determination result is calculated by comparing Emax with the threshold value TH_E and determining whether the secondary differential value R is positive or negative (edge determination step S103), and sets and outputs the threshold value TH as a parameter according to the edge determination result of step S103 (parameter setting step S1)
06), an output image is generated by performing a binarization process by a pseudo gradation process based on an error diffusion process using the threshold value TH as a parameter (output image generation step S107).

【0047】ここで、ステップS101は、上下方向の
差分値Ea・左右方向の差分値Eb・右斜方向の差分値
Ec・左斜方向の差分値Edの計4方向の差分値を算出
するサブステップ(SS1)と、差分値Ea,Eb,E
c,Edを絶対値化し、順に|Ea|,|Eb|,|E
c|,|Ed|を得るサブステップ(SS2)と、|E
a|,|Eb|,|Ec|,|Ed|の中の最大値Em
axを算出するサブステップ(SS3)とで構成され
る。
Here, step S101 is a step of calculating a difference value in a total of four directions of a difference value Ea in the vertical direction, a difference value Eb in the left and right direction, a difference value Ec in the right oblique direction, and a difference value Ed in the left oblique direction. Step (SS1) and difference values Ea, Eb, E
c and Ed are converted to absolute values, and | Ea |, | Eb |
substep (SS2) for obtaining c |, | Ed |
a |, | Eb |, | Ec |, | Ed |
ax calculation sub-step (SS3).

【0048】また、ステップS103は、判定式Ema
x<THのときにエッジ判定結果を1(注目画素が画像
のエッジでない)、判定式(Emax>=TH)かつ
(R<0)のときにエッジ判定結果を2(注目画素が画
像エッジの谷側)、判定式(Emax>=TH)かつ
(R>=0)のときにエッジ判定結果を3(注目画素が
画像エッジの山側)としてエッジ判定結果を算出する。
In step S103, the judgment expression Ema
When x <TH, the edge determination result is 1 (the pixel of interest is not the edge of the image), and when the determination formula (Emax> = TH) and (R <0), the edge determination result is 2 (the pixel of interest is the image edge). The edge determination result is calculated as 3 (the target pixel is on the peak side of the image edge) when the valley side) and the determination formula (Emax> = TH) and (R> = 0) are satisfied.

【0049】ステップS106は、エッジ判定結果に基
づき二値化閾値THをパラメータとして設定し、エッジ
判定結果が1のときのパラメータ設定を行うサブステッ
プ(SS12)と、エッジ判定結果が2のときのパラメ
ータ設定を行うサブステップ(SS14)と、エッジ判
定結果が3のときのパラメータ設定を行うサブステップ
(SS13)とで構成される。
In step S106, the binarization threshold value TH is set as a parameter based on the edge determination result, and a sub-step (SS12) for setting parameters when the edge determination result is 1; It is composed of a sub-step for setting parameters (SS14) and a sub-step for setting parameters when the edge determination result is 3 (SS13).

【0050】そして、ステップS107は、誤差マトリ
クスの要素値と量子化誤差との注目画素周辺での畳み込
み和である配分誤差Etotを算出するサブステップ
(SS9)と、注目画素の画像データと配分誤差Eto
tとの和をパラメータで二値化して注目画素の二値画像
Qである出力画像データを得るとともに注目画像の二値
化時の量子化誤差Eを算出するサブステップ(SS1
5)と、量子化誤差Eを記憶するサブステップ(SS1
1)とで構成される。
Step S107 is a sub-step (SS9) of calculating a distribution error Etot, which is a convolution of the element value of the error matrix and the quantization error around the pixel of interest. Eto
The sub-step (SS1) of binarizing the sum with t with a parameter to obtain output image data that is a binary image Q of the pixel of interest and calculating a quantization error E at the time of binarizing the image of interest.
5) and a sub-step of storing the quantization error E (SS1)
1).

【0051】そして、図7に示す処理を主走査方向およ
び副走査方向に繰り返すことで画像全体のエッジ処理が
行われる。
The edge processing of the entire image is performed by repeating the processing shown in FIG. 7 in the main scanning direction and the sub-scanning direction.

【0052】次に、図8に基づき、本実施の形態のエッ
ジ処理方法が実行される誤差拡散部について説明する。
Next, an error diffusion unit in which the edge processing method of this embodiment is executed will be described with reference to FIG.

【0053】誤差拡散部は、最大値Emaxおよび二次
微分値Rに基づいてエッジ判別結果を出力するエッジ判
別手段2と、エッジ判別手段2からのエッジ判別結果を
受けてパラメータとして閾値TH(図7におけるサブス
テップSS12,SS13,SS14での算出値)を設
定するパラメータ設定手段3と、画像データDと誤差制
御手段7からの注目画素周辺の配分誤差Etotとの加
算値を出力する加算手段8と、加算手段8の加算値とパ
ラメータ設定手段3からの閾値THとが入力され、加算
値が閾値THより大きいときに二値画像Q=1、閾値T
H以下のときに二値画像Q=0と二値化する二値化手段
4と、二値化手段の二値画像Qおよび閾値THが入力さ
れ、D−Q×255を二値化時の量子化誤差Eとして出
力する誤差生成手段5と、量子化誤差Eを記憶する誤差
記憶手段6と、制御信号EL_CTRにより量子化誤差
Eの誤差記憶手段6への書き込み制御、量子化誤差Eの
ライン遅延データであるELの読み出し制御、および誤
差マトリクス9(図6)に基づきELより注目画素周辺
の配分誤差Etotを算出を行う誤差制御手段7とを備
えている。
The error diffusion unit outputs an edge discrimination result based on the maximum value Emax and the secondary differential value R. The error diffusion unit receives the edge discrimination result from the edge discrimination unit 2 and receives a threshold value TH (see FIG. 7, a parameter setting means 3 for setting the values calculated in the sub-steps SS12, SS13, SS14, and an addition means 8 for outputting an added value of the image data D and the distribution error Etot around the target pixel from the error control means 7. And the addition value of the addition means 8 and the threshold value TH from the parameter setting means 3, and when the addition value is larger than the threshold value TH, the binary image Q = 1 and the threshold value T
When the value is equal to or less than H, a binarizing unit 4 for binarizing the binary image Q = 0 and the binary image Q and the threshold value TH of the binarizing unit are input, and D−Q × 255 at the time of binarization is input. An error generating unit 5 that outputs the quantization error E; an error storage unit 6 that stores the quantization error E; a control of writing the quantization error E to the error storage unit 6 by the control signal EL_CTR; There is provided an error control means 7 for controlling reading of EL which is delay data and calculating a distribution error Etot around the target pixel from the EL based on the error matrix 9 (FIG. 6).

【0054】ここで、パラメータ設定手段3では、エッ
ジ判別結果=1のときにはたとえばTH=128(デフ
ォルト値)を、エッジ判別結果=2のときには画素を強
調するためにたとえばTH=128+Emax/4(出
力画像データが薄くなる値)を、エッジ判別結果=3の
ときには画素を強調するためにたとえばTH=128−
Emax/4(出力画像データが濃くなる値)をそれぞ
れパラメータとして閾値THを設定する。
Here, the parameter setting means 3 sets, for example, TH = 128 (default value) when the edge judgment result = 1, and sets TH = 128 + Emax / 4 (output) to emphasize the pixel when the edge judgment result = 2. When the edge discrimination result = 3, for example, TH = 128−
The threshold value TH is set using Emax / 4 (a value at which the output image data becomes dark) as a parameter.

【0055】そして、このように、パラメータである閾
値THを可変にすることで、画像のエッジの谷側では画
像データが低い方に補正され、画像のエッジの山側では
画像データが高い方に補正され、それ以外の箇所では特
に補正値を加えられないので、画像のエッジを強調する
ことが可能になる。
By making the threshold value TH, which is a parameter, variable, the image data is corrected to the lower side on the valley side of the image edge and to the higher side on the ridge side of the image edge. Since no correction value can be applied to other portions, the edges of the image can be emphasized.

【0056】なお、実施の形態1および2において、画
像データDは濃度値とされているが、輝度系の信号とす
ることもできる。
Although the image data D is a density value in the first and second embodiments, it may be a luminance signal.

【0057】また、以上の説明では擬似中間調処理は誤
差拡散処理に基づいて行われているが、平均誤差最小法
に基づいて行うこともできる。
In the above description, the pseudo halftone processing is performed based on the error diffusion processing. However, the pseudo halftone processing can be performed based on the average error minimum method.

【0058】[0058]

【発明の効果】以上のように、本発明によれば、読み取
り装置のMTFでなまったエッジに対し、一次微分値と
二次微分値によりエッジの山側と谷側を規定してエッジ
の山側にある画素レベルを増幅し、エッジの谷側にある
画素レベルを増幅しているので、エッジの連結性が向上
して、エッジの太さが読み取り装置のMTFに対して高
い非依存性を実現することが可能になるという有効な効
果が得られる。
As described above, according to the present invention, the peak and valley sides of the edge are defined by the primary differential value and the secondary differential value with respect to the edge that has been blurred by the MTF of the reading apparatus, and the edge ridge side is defined. Since a certain pixel level is amplified and a pixel level on the valley side of the edge is amplified, the connectivity of the edge is improved, and the edge thickness is highly independent of the MTF of the reading device. The effective effect that it becomes possible is obtained.

【0059】また、エッジ再現で問題になりがちなエッ
ジが太く再現されるという現象を回避することが可能に
なるという有効な効果が得られる。
Further, there is obtained an effective effect that it is possible to avoid a phenomenon that an edge, which tends to be a problem in edge reproduction, is reproduced thick.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1であるエッジ処理方法を
示すフローチャート
FIG. 1 is a flowchart illustrating an edge processing method according to a first embodiment of the present invention;

【図2】図1のエッジ処理方法が実行されるエッジ検出
部の構成を示すブロック図
FIG. 2 is a block diagram illustrating a configuration of an edge detection unit that executes the edge processing method of FIG. 1;

【図3】図1のエッジ処理方法における二次微分オペレ
ータを示す説明図
FIG. 3 is an explanatory diagram showing a second derivative operator in the edge processing method of FIG. 1;

【図4】図1のエッジ処理方法によるエッジ検出結果を
示すグラフ
FIG. 4 is a graph showing a result of edge detection by the edge processing method of FIG. 1;

【図5】図1のエッジ処理方法が実行される誤差拡散部
の構成を示すブロック図
FIG. 5 is a block diagram showing a configuration of an error diffusion unit in which the edge processing method of FIG. 1 is executed.

【図6】図5の誤差拡散部における誤差マトリクスを示
す説明図
FIG. 6 is an explanatory diagram showing an error matrix in the error diffusion unit in FIG. 5;

【図7】本発明の実施の形態2であるエッジ処理方法を
示すフローチャート
FIG. 7 is a flowchart showing an edge processing method according to the second embodiment of the present invention;

【図8】図7のエッジ処理方法が実行される誤差拡散部
の構成を示すブロック図
8 is a block diagram illustrating a configuration of an error diffusion unit in which the edge processing method of FIG. 7 is executed.

【図9】従来のエッジ処理方法を示すフローチャートFIG. 9 is a flowchart showing a conventional edge processing method.

【図10】従来のエッジ処理技術におけるエッジ検出部
の構成を示すブロック図
FIG. 10 is a block diagram showing a configuration of an edge detection unit in a conventional edge processing technique.

【図11】従来のエッジ処理技術における一次微分オペ
レータを示す説明図
FIG. 11 is an explanatory diagram showing a primary differential operator in a conventional edge processing technique.

【図12】従来のエッジ処理技術におけるエッジ補正部
の構成を示すブロック図
FIG. 12 is a block diagram showing a configuration of an edge correction unit in a conventional edge processing technique.

【符号の説明】[Explanation of symbols]

1 二次微分オペレータ 2 エッジ判別手段 3 パラメータ設定手段 4 二値化手段 5 誤差生成手段 6 誤差記憶手段 7 誤差制御手段 8 加算手段 10 一次微分算出手段 11 二次微分算出手段 12 画像記憶手段 14 差分値算出手段 15 絶対値算出手段 16 最大値算出手段 DESCRIPTION OF SYMBOLS 1 Secondary differential operator 2 Edge discriminating means 3 Parameter setting means 4 Binarizing means 5 Error generating means 6 Error storing means 7 Error controlling means 8 Adding means 10 Primary differential calculating means 11 Secondary differential calculating means 12 Image storing means 14 Difference Value calculation means 15 Absolute value calculation means 16 Maximum value calculation means

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA11 CA08 CA12 CA16 CB07 CB12 CB16 CC03 CE03 CE13 DA08 DB02 DB09 DC16 5C077 LL19 MP06 MP07 NN11 PP03 PP43 PP47 PP68 PQ08 PQ20 PQ22 RR02 RR14 TT06 5L096 AA06 DA01 EA43 FA06 GA02 GA03 GA51  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5B057 AA11 CA08 CA12 CA16 CB07 CB12 CB16 CC03 CE03 CE13 DA08 DB02 DB09 DC16 5C077 LL19 MP06 MP07 NN11 PP03 PP43 PP47 PP68 PQ08 PQ20 PQ22 RR02 RR14 TT06 5L096 AA06 GA031

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】多階調の画像データを入力して画像のエッ
ジ部を検出、補正を行うエッジ処理方法であって、 画像データを入力し、 前記画像データから注目画素における一次微分値を求
め、 前記画像データから注目画素における二次微分値を求
め、 前記一次微分値が閾値を超えない第1のエッジ判別結
果、前記一次微分値が閾値以上で且つ前記二次微分値が
ゼロを越えない第2のエッジ判別結果、前記一次微分値
が閾値以上で且つ前記二次微分値がゼロ以上の第3のエ
ッジ判別結果の3つのエッジ判別結果を求め、 前記3つのエッジ判定結果からパラメータを設定し、 前記パラメータにより出力画像データを生成し、 前記出力画像データの生成において、前記注目画素が前
記第1のエッジ判別結果のときには前記パラメータをデ
フォルト値に設定し、前記注目画素が前記第2のエッジ
判別結果のときには前記デフォルト値より前記出力画像
データが薄くなる方向に前記パラメータを制御し、前記
注目画素が前記第3のエッジ判別結果のときには前記デ
フォルト値より前記出力画像データが濃くなる方向に前
記パラメータを制御することを特徴とするエッジ処理方
法。
An edge processing method for detecting and correcting an edge portion of an image by inputting multi-gradation image data, wherein the image data is input, and a first derivative value of a pixel of interest is obtained from the image data. Calculating a second differential value of a pixel of interest from the image data; a first edge determination result in which the first differential value does not exceed a threshold value; the first differential value is equal to or more than a threshold value; and the second differential value does not exceed zero. As a result of the second edge determination, three edge determination results of a third edge determination result in which the primary differential value is equal to or greater than a threshold value and the secondary differential value is equal to or greater than zero are set, and parameters are set from the three edge determination results. And generating output image data based on the parameter. In the generation of the output image data, when the pixel of interest is the first edge determination result, the parameter is set to a default value. When the target pixel is the second edge determination result, the parameter is controlled in a direction in which the output image data becomes thinner than the default value. When the target pixel is the third edge determination result, An edge processing method, wherein the parameter is controlled so that the output image data becomes darker than a default value.
【請求項2】前記出力画像データは、擬似中間調処理に
よる画像の二値化処理により生成されることを特徴とす
る請求項1記載のエッジ処理方法。
2. The edge processing method according to claim 1, wherein said output image data is generated by binarizing an image by pseudo halftone processing.
【請求項3】画像データ補正値を前記パラメータに設定
し、 前記出力画像データの生成においては、配分誤差を算出
し、前記注目画素の前記画像データと前記パラメータと
前記配分誤差との和を二値化して当該出力画像データを
生成するとともに前記注目画素の二値化時の量子化誤差
を算出してこれを記憶することを特徴とする請求項1ま
たは2記載のエッジ処理方法。
3. An image data correction value is set in the parameter. In the generation of the output image data, a distribution error is calculated, and a sum of the image data of the pixel of interest, the parameter, and the distribution error is calculated. 3. The edge processing method according to claim 1, wherein the output image data is generated by converting the value into a value, and a quantization error at the time of binarization of the target pixel is calculated and stored.
【請求項4】二値化閾値を前記パラメータに設定し、 前記出力画像データの生成においては、配分誤差を算出
し、前記注目画素の前記画像データと前記配分誤差との
和を前記パラメータで二値化して前記出力画像データを
生成するとともに前記注目画素の二値化時の量子化誤差
を算出してこれを記憶することを特徴とする請求項1ま
たは2記載のエッジ処理方法。
4. A binarization threshold value is set in the parameter. In the generation of the output image data, a distribution error is calculated, and a sum of the image data of the pixel of interest and the distribution error is calculated by the parameter. The edge processing method according to claim 1, wherein the output image data is generated by performing a value conversion, and a quantization error at the time of binarization of the target pixel is calculated and stored.
JP11139736A 1999-05-20 1999-05-20 Edge processing method Pending JP2000331174A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11139736A JP2000331174A (en) 1999-05-20 1999-05-20 Edge processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11139736A JP2000331174A (en) 1999-05-20 1999-05-20 Edge processing method

Publications (1)

Publication Number Publication Date
JP2000331174A true JP2000331174A (en) 2000-11-30

Family

ID=15252190

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11139736A Pending JP2000331174A (en) 1999-05-20 1999-05-20 Edge processing method

Country Status (1)

Country Link
JP (1) JP2000331174A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213565A (en) * 2006-01-13 2007-08-23 Toshiba Corp Image processing apparatus, method, and program
US7391920B2 (en) 2003-11-04 2008-06-24 Fujifilm Corporation Image processing method, apparatus, and program
JP2009211330A (en) * 2008-03-03 2009-09-17 Sony Corp Image processor, image processing method and computer program
WO2014064968A1 (en) * 2012-10-22 2014-05-01 Eizo株式会社 Image processing device, image processing method, and computer program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7391920B2 (en) 2003-11-04 2008-06-24 Fujifilm Corporation Image processing method, apparatus, and program
JP2007213565A (en) * 2006-01-13 2007-08-23 Toshiba Corp Image processing apparatus, method, and program
JP2009211330A (en) * 2008-03-03 2009-09-17 Sony Corp Image processor, image processing method and computer program
JP4497216B2 (en) * 2008-03-03 2010-07-07 ソニー株式会社 Image processing apparatus, image processing method, and computer program
WO2014064968A1 (en) * 2012-10-22 2014-05-01 Eizo株式会社 Image processing device, image processing method, and computer program
JP2014103648A (en) * 2012-10-22 2014-06-05 Eizo Corp Image processing device, image processing method, and computer program
US9241091B2 (en) 2012-10-22 2016-01-19 Eizo Corporation Image processing device, image processing method, and computer program

Similar Documents

Publication Publication Date Title
US6587115B2 (en) Method of an apparatus for distinguishing type of pixel
WO2000024189A1 (en) Printing apparatus and method
JP3700357B2 (en) Image processing device
JP2000331174A (en) Edge processing method
US7843608B2 (en) Image processing apparatus capable of preventing pseudo coutour
JP4228466B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing image processing procedure
JP2003153005A (en) Image processing apparatus involving shadow detection
JPH08272952A (en) Image processor
JP2859268B2 (en) Image processing method
US6563604B1 (en) Method of gradation reproduction
US6842267B1 (en) Image processing method
JP3275746B2 (en) Image processing device
JP3789243B2 (en) Image processing apparatus and method
JPH04281671A (en) Picture processor
JP4553297B2 (en) Image processing device
JP4324532B2 (en) Image processing apparatus and storage medium
JPH11150659A (en) Method for processing image
JP2002171410A (en) Image processing apparatus
JP3032238B2 (en) Image processing device
JP2000152006A (en) Smoothing processor
JPH10173929A (en) Image processor
JP2001358944A (en) Image processing method
JP2004282532A (en) Image processing apparatus
JP2002199212A (en) Image processor
JPH11345327A (en) Picture processing method and picture processor