JPH05300369A - Picture processing unit - Google Patents
Picture processing unitInfo
- Publication number
- JPH05300369A JPH05300369A JP4127958A JP12795892A JPH05300369A JP H05300369 A JPH05300369 A JP H05300369A JP 4127958 A JP4127958 A JP 4127958A JP 12795892 A JP12795892 A JP 12795892A JP H05300369 A JPH05300369 A JP H05300369A
- Authority
- JP
- Japan
- Prior art keywords
- density
- area
- edge
- binarizing
- binarized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、イメージスキャナ、フ
ァクシミリ、複写機などの画像データを処理する画像処
理装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for processing image data such as an image scanner, a facsimile and a copying machine.
【0002】[0002]
【従来の技術】イメージスキャナ、ファクシミリ、複写
機などの画像データを処理する画像処理装置が、ストラ
イプ状の原稿やドット状の原稿の画像を入力する際に、
いわゆる「モアレ」が発生する。このモアレを除去する
ために平滑化処理が行われる。ところが平滑化処理を行
うと、本来の輪郭部分であるエッジがぼけるという現象
が発生する。そこで、従来の画像処理装置においては、
空間フィルタを用いてエッジの部分を強調するか、空間
フィルタの値が所定の閾値を超えればエッジがあると判
断して、平滑化処理を行わないという処理がなされてい
た。2. Description of the Related Art When an image processing apparatus such as an image scanner, a facsimile or a copying machine, which processes image data, inputs an image of a striped original or a dot original,
So-called "moire" occurs. A smoothing process is performed to remove this moire. However, when the smoothing process is performed, a phenomenon occurs in which an edge that is an original contour portion is blurred. Therefore, in the conventional image processing device,
There has been performed a process of emphasizing an edge portion using a spatial filter or determining that there is an edge when the value of the spatial filter exceeds a predetermined threshold value and not performing smoothing processing.
【0003】[0003]
【発明が解決しようとする課題】上記従来の画像処理装
置においては、読み取る原稿が文字や写真の場合には有
効であるが、網点写真の原稿の場合には、ドット1つ1
つを強調してしまうのでモアレが強調されたり、ドット
1つ1つをエッジであると判断して平滑化処理を行わな
いので、モアレを除去することができないという問題が
あった。In the above-described conventional image processing apparatus, it is effective when the original to be read is a character or a photograph, but when the original is a halftone photograph, each dot is a dot.
However, there is a problem that moire cannot be removed because each dot is emphasized and moire is emphasized, and since each dot is judged to be an edge and smoothing processing is not performed.
【0004】この問題を解決する方法が特開昭63−6
9376号公報に開示されている。その方法は、画像デ
ータの1ラインの濃度波形から、極大点と次の極大点の
距離を測定して、その距離がある閾値以上でしかも極大
点が周期的であれば網点写真と判断し、それ以外は文字
もしくは写真のエッジとする。次に極大点間の平均濃度
の差をとることにより網点写真のエッジを抽出し、エッ
ジ以外は平滑化処理を行うというものである。A method for solving this problem is disclosed in JP-A-63-6.
It is disclosed in Japanese Patent No. 9376. The method is to measure the distance between the maximum point and the next maximum point from the density waveform of one line of image data, and if the distance is more than a certain threshold and the maximum points are periodic, it is judged as a halftone photograph. , Others are the edges of text or photographs. Next, the difference in the average density between the maximum points is extracted to extract the edges of the halftone dot photograph, and the smoothing process is performed on the other than the edges.
【0005】しかしながらこの方法においては、主走査
方向のエッジを検出することはできるが、副走査方向の
エッジを検出することができないという問題があった。However, this method has a problem that the edge in the main scanning direction can be detected but the edge in the sub scanning direction cannot be detected.
【0006】本発明は上記従来例及び公報記載の開示技
術の問題を解決するものであり、文字や写真はもちろん
網点写真の原稿であっても、主走査方向及び副走査方向
のエッジを検出して、モアレを除去できる優れた画像処
理装置を提供することを目的とする。The present invention solves the problems of the disclosed techniques described in the above-mentioned conventional examples and gazettes, and detects the edges in the main scanning direction and the sub-scanning direction not only for characters and photographs but also for halftone dot originals. Then, it aims at providing the outstanding image processing apparatus which can remove a moire.
【0007】[0007]
【課題を解決するための手段】本発明は上記目的を達成
するために、複数の画素からなる2値化領域と該2値化
領域と同数の画素からなりかつ該2値化領域に隣接する
1つ又は複数の周辺領域を決定する領域決定手段と、前
記2値化領域及び周辺領域の濃度レベルを検出する濃度
検出手段と、前記濃度レベルから前記画像のエッジを検
出するエッジ検出手段と、該エッジ検出手段の検出結果
に応じて前記2値化領域に異なる2値化処理を行う2値
化処理手段とを備えた構成となっている。In order to achieve the above object, the present invention comprises a binarized area consisting of a plurality of pixels, the same number of pixels as the binarized area, and being adjacent to the binarized area. Area determining means for determining one or a plurality of peripheral areas; density detecting means for detecting density levels of the binarized area and peripheral area; edge detecting means for detecting edges of the image from the density levels; Binary processing means for performing different binarization processing on the binarized area according to the detection result of the edge detection means.
【0008】[0008]
【作用】したがって本発明によれば、複数の画素からな
る2値化領域及び同数の画素からなる周辺領域の濃度レ
ベルを比較して、エッジであるか否かの検出をするの
で、文字や写真はもちろん網点写真の原稿であっても、
主走査方向及び副走査方向のモアレを除去することがで
きる。Therefore, according to the present invention, the density levels of the binarized area composed of a plurality of pixels and the peripheral area composed of the same number of pixels are compared to detect whether or not it is an edge. Of course, even if it is a manuscript of halftone pictures,
It is possible to remove moire in the main scanning direction and the sub scanning direction.
【0009】[0009]
【実施例】以下、本発明の実施例を図を参照して詳細に
説明する。Embodiments of the present invention will now be described in detail with reference to the drawings.
【0010】図1は本発明による画像処理装置の実施例
の概略ブロック図である。図1において、1は原稿の画
像を読み取る画像読取部であり、CCDセンサ(図示せ
ず)を具備し、原稿から得られる光情報を電気信号に変
換してアナログ画像信号を出力する。2は8ビットのA
/Dコンバータであり、アナログ画像信号を黒(0)か
ら白(255)の256階調のデジタル画像データ(以
下、画像データという)に変換する。3は種々の演算を
行うCPUであり、画像データをメモリに転送すると共
に、画像データを2値化する演算処理、所定の領域の画
像データの濃度レベルを検出して、画像のエッジを検出
する演算処理等を行う。4は256階調の画像データの
少なくとも1フレーム分を記憶するフレームメモリであ
る。5はCPU3が実行する画像処理のプログラムを格
納すると共に、2値化に必要な閾値データを格納するR
OMである。このROM5は、紫外線によりあるいは電
気的に消去可能で書換え可能なROMを含むものとす
る。FIG. 1 is a schematic block diagram of an embodiment of an image processing apparatus according to the present invention. In FIG. 1, reference numeral 1 denotes an image reading unit for reading an image of a document, which includes a CCD sensor (not shown) and converts optical information obtained from the document into an electric signal and outputs an analog image signal. 2 is 8-bit A
The D / D converter converts an analog image signal into digital image data of 256 gradations of black (0) to white (255) (hereinafter, referred to as image data). Reference numeral 3 denotes a CPU that performs various calculations, transfers the image data to a memory, performs a calculation process for binarizing the image data, detects the density level of the image data in a predetermined area, and detects the edge of the image. Performs arithmetic processing, etc. Reference numeral 4 is a frame memory for storing at least one frame of image data of 256 gradations. Reference numeral 5 stores an image processing program executed by the CPU 3, and stores threshold data required for binarization.
OM. The ROM 5 includes a rewritable ROM that can be erased by ultraviolet rays or electrically.
【0011】次に、上記実施例の構成において、CPU
3によって実行される画像処理の方法は、1つに限るこ
となく種々可能であが、ここでは第1及び第2の実施例
について説明する。Next, in the configuration of the above embodiment, the CPU
The image processing method executed by the method 3 is not limited to one, but various methods are possible. Here, the first and second embodiments will be described.
【0012】図2は第1の実施例における2値化処理を
行うために、設定された単位領域を示す図であり、単位
領域ごとに特微量を算出する。この単位領域は、図2に
示すように、2値化領域E5 とその周辺領域E1 ないし
E4 及びE6 の6つの領域で構成されている。さらに各
領域は、主走査方向及び副走査方向に、それぞれ4×4
のマトリックス単位、すなわち16画素で構成されてい
る。図3に領域E5 のマトリックスを示す。図3におい
て、I(j,i)(ただし、jはマトリックスの位置、
iはマトリックス内の画素の位置を表す)は、マトリッ
クスを構成する各画素の濃度を表している。この2値化
領域及びその周辺領域の領域指定データ、並びにマトリ
ックス構成は、予めROM5に格納されていて、必要に
応じてCPU3により読み出される。したがってこのR
OM5はCPU3と協同して2値化領域とその周辺領域
を決定する領域決定手段を構成する。FIG. 2 is a diagram showing a unit area set in order to carry out the binarization processing in the first embodiment, and a characteristic amount is calculated for each unit area. As shown in FIG. 2, this unit area is composed of a binarized area E 5 and six areas of its peripheral areas E 1 to E 4 and E 6 . Further, each area is 4 × 4 in the main scanning direction and the sub-scanning direction.
Matrix unit, that is, 16 pixels. FIG. 3 shows the matrix of the area E 5 . In FIG. 3, I (j, i) (where j is the position of the matrix,
i represents the position of a pixel in the matrix) represents the density of each pixel forming the matrix. The area designating data of the binarized area and its peripheral area, and the matrix configuration are stored in the ROM 5 in advance and read by the CPU 3 as necessary. Therefore this R
The OM 5 cooperates with the CPU 3 to form a region determining means for determining the binarized region and its peripheral region.
【0013】この単位領域に基づいてエッジ検出を行う
が、そのために各領域の平均濃度を次式に示す濃度算出
式より求める。Edge detection is performed based on this unit area. For that purpose, the average density of each area is obtained from the density calculation formula shown in the following formula.
【0014】[0014]
【数1】 図4は上記濃度算出式により求めた平均濃度から、エッ
ジを検出するまでの経過を示す図である。図4(a)は
各領域の平均濃度m1 ,m2 ,…,m6 を示している。
図4(b)は左斜めのエッジを検出するために、比較す
る平均濃度の領域の組み合わせを示すものである。ここ
で、1画素あたりのエッジ判定用閾値をTAとすると、
次式の条件を満足すれば左斜めのエッジであると判定さ
れる。[Equation 1] FIG. 4 is a diagram showing the process from the average density obtained by the density calculation formula described above to the detection of an edge. FIG. 4A shows the average densities m 1 , m 2 , ..., M 6 of each area.
FIG. 4B shows a combination of areas of average densities to be compared in order to detect a diagonally left edge. Here, assuming that the edge determination threshold value per pixel is TA,
If the condition of the following equation is satisfied, it is determined that the edge is a diagonally left edge.
【0015】[0015]
【数2】 図4(c)は右斜めのエッジを検出するために、比較す
る平均濃度の領域の組み合わせを示すものである。次式
の条件を満足すれば右斜めのエッジであると判定され
る。[Equation 2] FIG. 4C shows a combination of average density regions to be compared in order to detect a right slanted edge. If the condition of the following equation is satisfied, it is determined that the edge is a right diagonal edge.
【0016】[0016]
【数3】 図4(d)は縦のエッジを検出するために、比較する平
均濃度の領域の組み合わせを示すものである。縦のエッ
ジであるかは次式を満たすかどうかで判定される。[Equation 3] FIG. 4D shows a combination of areas of average density to be compared in order to detect a vertical edge. Whether it is a vertical edge or not is determined by whether or not the following expression is satisfied.
【0017】[0017]
【数4】 エッジ検出がなされた後に、図2の2値化領域E5 につ
いて2値化処理がなされるが、その際に領域E5 のマト
リックス内の各画素を、図5に示すディザ処理を行う閾
値マトリックスにより2値化する。[Equation 4] After the edge detection is performed, the binarization processing is performed on the binarized area E 5 of FIG. 2. At this time, each pixel in the matrix of the area E 5 is processed by the threshold matrix for performing the dither processing shown in FIG. To binarize.
【0018】主走査方向の画素数をHとし、副走査方向
のライン数をVとすると、2値化処理中の画素及びライ
ンの位置は各方向のカウンタで計数される。主走査方向
のカウンタの値をXとし、副走査方向のカウンタの値を
Yとすると、Xは0からHまで変化しYは0からVまで
変化する。主走査方向のカウンタの値Xを8で割った余
りをX%8で表し、副走査方向のカウンタの値Yを8で
割った余りをY%8で表すと、図5におけるj及びk
は、j=X%8,k=Y%8の値となる。If the number of pixels in the main scanning direction is H and the number of lines in the sub scanning direction is V, the positions of pixels and lines during binarization are counted by a counter in each direction. When the counter value in the main scanning direction is X and the counter value in the sub-scanning direction is Y, X changes from 0 to H and Y changes from 0 to V. The remainder obtained by dividing the counter value X in the main scanning direction by 8 is represented by X% 8, and the remainder obtained by dividing the counter value Y in the sub-scanning direction by 8 is represented by Y% 8.
Is a value of j = X% 8 and k = Y% 8.
【0019】したがって、主走査方向及び副走査方向と
もに、8画素ごとに同じ閾値により2値化処理がなされ
ることになる。ただ、図5の閾値マトリックスは8×8
で構成され、領域E5 の2値化対象マトリックスは4×
4で構成されているので、閾値マトリックスを4×4の
マトリックスを単位とする4つの部分マトリックスA、
B、C及びDとし、これら部分マトリックスの1つと領
域E5 とを比較して2値化処理を行う。この場合図5の
閾値マトリックスのj行k列目の値をD(j,k)とす
ると、領域E5 がエッジであると判別したときは、I
(5,i)≧D(j,k)の場合は白画素を出力し、I
(5,i)<D(j,k)の場合は黒画素を出力する。
領域E5 がエッジでないと判別したときは、m5 ≧D
(j,k)の場合は白画素を出力し、m5 <D(j,
k)の場合は黒画素を出力する。Therefore, in both the main scanning direction and the sub-scanning direction, binarization processing is performed with the same threshold value for every eight pixels. However, the threshold matrix in FIG. 5 is 8 × 8.
And the binarization target matrix of the region E 5 is 4 ×
4, the threshold matrix is composed of four sub-matrices A whose unit is a 4 × 4 matrix,
B, C, and D are set, and one of these partial matrices is compared with the area E 5 to perform binarization processing. In this case, assuming that the value at the j-th row and the k-th column of the threshold matrix of FIG. 5 is D (j, k), when it is determined that the region E 5 is an edge, I
If (5, i) ≧ D (j, k), a white pixel is output and I
If (5, i) <D (j, k), black pixels are output.
When it is determined that the area E 5 is not an edge, m 5 ≧ D
In the case of (j, k), a white pixel is output and m 5 <D (j,
In the case of k), a black pixel is output.
【0020】次に、第1の実施例において、図1のCP
U3によって実行される領域E5 を2値化する処理の一
連の動作について、図6の動作フローチャートを参照し
て説明する。なお、本実施例ににおいては説明を容易に
するために、主走査方向及び副走査方向のカウント数の
最大値(H+1)及び(V+1)は4の倍数とする。し
たがって、H%4=3,V%4=3となる。Next, in the first embodiment, the CP of FIG.
A series of operations of the process of binarizing the area E 5 executed by U3 will be described with reference to the operation flowchart of FIG. In the present embodiment, for ease of explanation, the maximum values (H + 1) and (V + 1) of the count numbers in the main scanning direction and the sub scanning direction are set to multiples of 4. Therefore, H% 4 = 3 and V% 4 = 3.
【0021】まず、主走査及び副走査方向のカウンタの
値X及びYを初期値0に設定する(ステップS1)。X
=0,Y=0の位置の画素の濃度レベルのデータは、フ
レームメモリ4からCPU3に読込まれる(ステップS
2)。次に読込んだデータの画素の主走査方向のカウン
ト値Xが、X%4=3であるか、すなわち4の倍数であ
るか否かを判別し(ステップS3)、4の倍数でなけれ
ばXを1つ増加させてX+1とし(ステップS4)、ス
テップS1に移行して同じラインの次画素のデータを読
込み、X%4=3となるまでステップS2ないしS4を
実行する。これら各ステップは、4×4の対象マトリッ
クスの主走査方向の4画素の濃度データを読込むルーチ
ンである。First, the counter values X and Y in the main-scanning and sub-scanning directions are set to initial values 0 (step S1). X
The data of the density levels of the pixels at the positions of = 0 and Y = 0 are read from the frame memory 4 to the CPU 3 (step S
2). Next, it is determined whether or not the count value X of the pixels of the read data in the main scanning direction is X% 4 = 3, that is, a multiple of 4 (step S3), and it is not a multiple of 4. X is incremented by 1 to X + 1 (step S4), the process proceeds to step S1, the data of the next pixel on the same line is read, and steps S2 to S4 are executed until X% 4 = 3. Each of these steps is a routine for reading the density data of 4 pixels in the main scanning direction of the 4 × 4 target matrix.
【0022】ステップS3においてX%4=3となった
場合には、副走査方向のカウント値Yが、Y%4=3で
あるか否かを判別し(ステップS5)、Y%4=3でな
い場合には、XをX−3とし、YをY+1として(ステ
ップS6)、ステップS2に移行してデータの読込みを
行う。すなわち、次のラインの4画素の読込みを開始す
る。ステップS5において、Y%4=3となった場合に
は、領域E5 の4×4の対象マトリックスのデータがす
べて読込まれたことになるので、(数1)にしたがっ
て、領域E5 の平均濃度レベルの検出を行う(ステップ
S7)。When X% 4 = 3 in step S3, it is determined whether or not the count value Y in the sub-scanning direction is Y% 4 = 3 (step S5), and Y% 4 = 3. If not, X is set to X-3, Y is set to Y + 1 (step S6), and the process proceeds to step S2 to read data. That is, reading of the four pixels of the next line is started. If Y% 4 = 3 in step S5, it means that all the data of the 4 × 4 target matrix of the area E 5 has been read, and therefore the average of the area E 5 is calculated according to (Equation 1). The density level is detected (step S7).
【0023】なお、ステップS1からステップS7まで
の処理については、2値化領域E5だけでなくE5 を除
く他のE1 ないしE6 の各領域についても、その平均濃
度を検出するために行う。In the processing from step S1 to step S7, the average density is detected not only in the binarized area E 5 but also in other areas E 1 to E 6 except E 5. To do.
【0024】この濃度検出手段としてのステップS7で
算出された平均濃度レベルを基に、(数2)、(数3)
及び(数4)を用いて、エッジであるか否かの判別を行
う(ステップS8)。エッジ検出手段としてのステップ
S8において、その検出結果に応じて、異なる2値化処
理を行う2値化処理手段としてのステップに移行する。
すなわち、エッジでない場合には平均濃度で2値化を行
い(ステップS9)、エッジである場合にはそのままの
濃度で2値化を行う(ステップS10)。Based on the average density level calculated in step S7 as the density detecting means, (Equation 2), (Equation 3)
And (Equation 4) are used to determine whether or not it is an edge (step S8). In step S8 as the edge detection means, the process proceeds to the step as the binarization processing means that performs different binarization processing according to the detection result.
That is, if it is not an edge, binarization is performed with the average density (step S9), and if it is an edge, binarization is performed with the same density (step S10).
【0025】次に、最新に取込んだ画素データすなわち
図3のI(5,16)が、そのラインの最終画素である
か否かを、すなわちX=Hであるか否かを判別し(ステ
ップS11)、X=Hでなければ、X=X+1、Y=Y
−3として(ステップS12)、ステップS2に移行し
て3ライン前の次画素データを読込む。そしてX=Hに
なるまでステップS2からステップS12までの処理を
繰返し実行する。これは4ライン分の2値化処理を行う
ルーチンである。Next, it is determined whether or not the latest fetched pixel data, that is, I (5,16) in FIG. 3 is the last pixel of the line, that is, whether X = H ( Step S11), unless X = H, X = X + 1, Y = Y
-3 (step S12), the process proceeds to step S2 to read the next pixel data three lines before. Then, the processing from step S2 to step S12 is repeatedly executed until X = H. This is a routine for performing binarization processing for four lines.
【0026】ステップS11においてX=Hとなった場
合には、Y=Vであるか否かを、すなわち最終ラインで
あるか否かを判別し(ステップS13)、Y=Vでない
場合には、X=0,Y=Y+1として(ステップS1
4)、ステップS2に移行して次のラインの最初の画素
データを読込む。そしてY=VになるまでステップS2
からステップS14までの処理を繰返し実行する。ステ
ップS13においてY=Vとなった場合には、1フレー
ム分の2値化処理が終了する。When X = H in step S11, it is determined whether or not Y = V, that is, whether or not it is the last line (step S13). X = 0, Y = Y + 1 (step S1
4) Go to step S2 to read the first pixel data of the next line. Then, step S2 is performed until Y = V.
The processing from to step S14 is repeatedly executed. If Y = V in step S13, the binarization process for one frame ends.
【0027】このように上記第1の実施例においては、
複数の画素からなる領域を2値化する場合に、同数の画
素からなる1つ又は複数の周辺領域の平均濃度レベルを
求めることにより、2値化領域がエッジであるか否かを
判別して、その判別結果に基づいて異なる方法で2値化
処理を行うものである。したがって、文字や写真はもと
より網点写真であっても、主走査方向だけでなく副走査
方向のモアレを除去すると共に、エッジを強調すること
ができる。As described above, in the first embodiment,
When binarizing a region composed of a plurality of pixels, it is possible to determine whether or not the binarized region is an edge by obtaining an average density level of one or a plurality of peripheral regions composed of the same number of pixels. The binarization processing is performed by a different method based on the determination result. Therefore, not only in characters and photographs but also in halftone photographs, it is possible to remove moire not only in the main scanning direction but also in the sub-scanning direction and enhance the edges.
【0028】なお、この第1の実施例では16画素ごと
に平均濃度を検出したが、主走査方向の4画素ごとの平
均濃度を1ラインについて求めて、4ラインの平均濃度
を求めた後に2値化領域の平均濃度を検出しても良い。In the first embodiment, the average density is detected for every 16 pixels, but the average density for every 4 pixels in the main scanning direction is calculated for one line, and the average density for 4 lines is calculated, and then 2 is calculated. The average density of the binarized area may be detected.
【0029】また、第1の実施例では平均濃度を求める
ようにしたが、合計濃度を求めてエッジを検出するよう
にしても良い。Further, although the average density is obtained in the first embodiment, the edge may be detected by obtaining the total density.
【0030】次に、第2の実施例について説明する。図
7は2値化のための単位領域を示すものである。E1 な
いしE9 の各領域は、第1の実施例と同様に4×4のマ
トリックスの16画素で構成され、E5 が2値化を行う
マトリックスである。E5 のマトリックスの画素の位置
は、第1の実施例と同じく図3に示す構成となってい
る。図8は、図7の各領域の画素の濃度レベルの特徴量
Pを示すものである。Next, the second embodiment will be described. FIG. 7 shows a unit area for binarization. Each area of E 1 to E 9 is composed of 16 pixels of a 4 × 4 matrix as in the first embodiment, and E 5 is a matrix for binarization. The pixel positions of the matrix E 5 have the structure shown in FIG. 3 as in the first embodiment. FIG. 8 shows the characteristic amount P of the density level of the pixel in each area of FIG.
【0031】図9は第2の実施例において、図1のCP
U3によって実行される領域E5 を2値化する処理の一
連の動作のフローチャートであるが、ステップS70及
びステップS80以外は第1の実施例に係る図6のフロ
ーチャートと同一であり、その説明は省略し、異なる部
分について説明する。FIG. 9 shows the CP of FIG. 1 in the second embodiment.
7 is a flowchart of a series of operations of binarizing the region E 5 executed by U3, which is the same as the flowchart of FIG. 6 according to the first embodiment except step S70 and step S80, and the description thereof will be given. Omitted, different parts will be described.
【0032】ステップS70の極値検出のサブルーチン
を図10に示す。2値化処理領域であるE5 のマトリッ
クスについて、その最大濃度を算出し(ステップS7
1)、最小濃度を算出する(ステップS72)。次に最
小極大値及び最小極大値を算出する(ステップS73及
びS74)。そして2値化領域E5 のP0 が極値かどう
かを判断する。FIG. 10 shows the extreme value detection subroutine of step S70. The maximum density of the matrix of E 5 , which is the binarization processing area, is calculated (step S7).
1) The minimum density is calculated (step S72). Next, the minimum maximum value and the minimum maximum value are calculated (steps S73 and S74). Then, it is determined whether P 0 of the binarized area E 5 is an extreme value.
【0033】極値の判断は、P0 を中心にして周りの画
素について、すべての周りの画素が次の(数5)の条件
を満たせば極大値とする。The judgment of the extreme value is made to be the maximum value with respect to the surrounding pixels around P 0 if all the surrounding pixels satisfy the following condition (Equation 5).
【0034】[0034]
【数5】 また、P0 を中心にして周りの画素について、すべての
周りの画素が次の(数6)の条件を満たせば極小値とす
る。[Equation 5] Further, regarding the surrounding pixels around P 0 , if all the surrounding pixels satisfy the following condition (Equation 6), it is set to the minimum value.
【0035】[0035]
【数6】 この極大計算方法をを使用して、図7で示した領域のす
べての画素について極値判断を行う。最終的に最大濃
度、最小濃度、最大極小濃度及び最小極大濃度を計算
し、極値がない場合には極値なしとする。[Equation 6] Using this maximum calculation method, the extreme value judgment is performed for all the pixels in the area shown in FIG. Finally, the maximum concentration, minimum concentration, maximum minimum concentration and minimum maximum concentration are calculated, and if there is no extreme value, no extreme value is set.
【0036】なお、ステップS1からステップS70ま
での処理については、2値化領域E5 だけでなくE5 を
除く他のE1 ないしE9 の各領域についても行う。The processing from step S1 to step S70 is performed not only on the binarized area E 5 but also on each of the areas E 1 to E 9 other than E 5 .
【0037】次に、求めた特徴量(最大濃度、最小濃
度、最大極小濃度、最小極大濃度)に基づいて、E5 の
マトリックスがエッジであるかを検出する(ステップS
80)。エッジであるための条件は、1.極値がなく、
かつ(最大濃度)−(最小濃度)≧TAの場合、2.
(最大濃度)−(最小極大濃度)≧TAの場合、3.
(最大極小濃度)−(最小濃度)≧TAの場合、であ
る。これら以外の場合はエッジでないと判定する。Next, it is detected whether the matrix of E 5 is an edge based on the obtained feature amount (maximum density, minimum density, maximum minimum density, minimum maximum density) (step S).
80). The conditions for being an edge are: No extremum,
And (maximum density) − (minimum density) ≧ TA, 2.
(Maximum concentration)-(minimum maximum concentration) ≧ TA, 3.
In the case of (maximum minimum density)-(minimum density) ≧ TA, In other cases, it is determined that the edge is not an edge.
【0038】この判定結果に基づく2値化処理について
は、第1の実施例と同じであり、領域E5 がエッジであ
ると判別したときは、I(5,i)≧D(j,k)の場
合は白画素を出力し、I(5,i)<D(j,k)の場
合は黒画素を出力する。領域E5 がエッジでないと判別
したときは、m5 ≧D(j,k)の場合は白画素を出力
し、m5 <D(j,k)の場合は黒画素を出力する。The binarization processing based on this judgment result is the same as that of the first embodiment. When it is judged that the area E 5 is an edge, I (5, i) ≧ D (j, k). ), A white pixel is output, and if I (5, i) <D (j, k), a black pixel is output. When it is determined that the area E 5 is not an edge, a white pixel is output when m 5 ≧ D (j, k), and a black pixel is output when m 5 <D (j, k).
【0039】このように上記第2の実施例においても、
第1の実施例と同様に、複数の画素からなる領域を2値
化する場合に、同数の画素からなる1つ又は複数の周辺
領域の最大濃度、最小濃度、最大極小濃度及び最小極大
濃度を求めることにより、2値化領域がエッジであるか
否かを判別して、その判別結果に基づいて異なる方法で
2値化処理を行うものである。したがって、文字や写真
はもとより網点写真であっても、主走査方向だけでなく
副走査方向のモアレを除去すると共に、エッジを強調す
ることができる。As described above, also in the second embodiment,
Similar to the first embodiment, when binarizing a region including a plurality of pixels, the maximum density, the minimum density, the maximum minimum density, and the minimum maximum density of one or a plurality of peripheral areas including the same number of pixels are determined. By determining, whether or not the binarized area is an edge is discriminated, and the binarization process is performed by a different method based on the discrimination result. Therefore, not only in characters and photographs but also in halftone photographs, it is possible to remove moire not only in the main scanning direction but also in the sub-scanning direction and enhance the edges.
【0040】[0040]
【発明の効果】本発明は、上記実施例から明らかなよう
に、複数の画素からなる2値化領域と、同数の画素から
なる1つ又は複数の周辺領域とを、単位領域として決定
する領域決定手段を有し、濃度検出手段により、この単
位領域の濃度レベルを検出して、その検出結果によりエ
ッジ検出手段によりエッジであるか否かを判別して、エ
ッジである場合と、エッジでない場合とで2値化処理手
段により異なる2値化処理を行うので、文字や写真はも
とより網点写真であっても、主走査方向だけでなく副走
査方向のモアレを除去すると共に、エッジを強調する効
果が得られる。As is apparent from the above embodiment, the present invention is a region in which a binarized region including a plurality of pixels and one or a plurality of peripheral regions including the same number of pixels are determined as unit regions. A determination unit is provided, the density detection unit detects the density level of this unit area, and the detection result determines whether or not it is an edge. Since different binarization processing is performed by the and binarization processing means, moiré is removed not only in the main scanning direction but also in the sub-scanning direction and the edges are emphasized, not only in characters and photographs but also in halftone dot photographs. The effect is obtained.
【図1】本発明の実施例の構成を示す概略ブロック図で
ある。FIG. 1 is a schematic block diagram showing a configuration of an exemplary embodiment of the present invention.
【図2】本発明の第1の実施例における2値化の単位領
域を示す図である。FIG. 2 is a diagram showing a binarized unit area in the first embodiment of the present invention.
【図3】図2における2値化処理領域の画素のマトリッ
クスを示す図である。FIG. 3 is a diagram showing a matrix of pixels in a binarized region in FIG.
【図4】(a)は図2の単位領域の平均濃度を示す図で
ある。(b)ないし(d)はエッジ検出のために比較す
る領域を示す図である。FIG. 4A is a diagram showing the average density of the unit area of FIG. (B) to (d) are diagrams showing regions to be compared for edge detection.
【図5】本発明の8×8の閾値マトリックスを示す図で
ある。FIG. 5 is a diagram showing an 8 × 8 threshold matrix of the present invention.
【図6】本発明の第1の実施例における2値化処理の動
作フローチャートである。FIG. 6 is an operation flowchart of a binarization process in the first embodiment of the present invention.
【図7】本発明の第2の実施例における2値化の単位領
域を示す図である。FIG. 7 is a diagram showing a binarized unit area in the second embodiment of the present invention.
【図8】図7における特徴値を示す図である。8 is a diagram showing feature values in FIG. 7. FIG.
【図9】本発明の第2の実施例における2値化処理の動
作フローチャートである。FIG. 9 is an operation flowchart of binarization processing in the second embodiment of the present invention.
【図10】図9における極値検出のサブルーチンのフロ
ーチャートである。10 is a flowchart of an extreme value detection subroutine in FIG.
1 画像読取部 2 A/Dコンバータ 3 CPU 4 フレームメモリ 5 ROM 1 image reading unit 2 A / D converter 3 CPU 4 frame memory 5 ROM
Claims (5)
有する画像データに2値化処理を行う画像処理装置であ
って、 複数の画素からなる2値化領域と該2値化領域と同数の
画素からなりかつ該2値化領域に隣接する1つ又は複数
の周辺領域を決定する領域決定手段と、前記2値化領域
及び周辺領域の濃度レベルを検出する濃度検出手段と、
前記濃度レベルから前記画像のエッジを検出するエッジ
検出手段と、該エッジ検出手段の検出結果に応じて前記
2値化領域に異なる2値化処理を行う2値化処理手段と
を備えたことを特徴とする画像処理装置。1. An image processing apparatus for performing binarization processing on image data having gradation obtained by reading an image of an original, the binarization area having a plurality of pixels, and the same number of the binarization areas. Area determining means for determining one or a plurality of peripheral areas each of which is adjacent to the binarized area and density detecting means for detecting the density levels of the binarized area and the peripheral area.
An edge detection unit that detects an edge of the image from the density level; and a binarization processing unit that performs different binarization processing on the binarized region according to a detection result of the edge detection unit. Characteristic image processing device.
び周辺領域の各領域内の平均濃度又は合計濃度を求める
ことを特徴とする請求項1記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein the density detecting unit obtains an average density or a total density in each of the binarized area and the peripheral area.
び周辺領域の各領域内の最大濃度、最小濃度、最大極小
値濃度及び最小極大値濃度を求めることを特徴とする請
求項1記載の画像処理装置。3. The density detecting means obtains a maximum density, a minimum density, a maximum minimum value density and a minimum maximum value density in each of the binarized area and the peripheral area. Image processing device.
の平均濃度の差又は合計濃度の差により前記エッジを検
出するエッジ検出手段を有することを特徴とする請求項
2記載の画像処理装置。4. The image processing according to claim 2, further comprising edge detection means for detecting the edge based on a difference in average density or a difference in total density in each of the binarized area and the peripheral area. apparatus.
の最大濃度、最小濃度、最大極小値濃度及び最小極大値
濃度により前記エッジを検出するエッジ検出手段を有す
ることを特徴とする請求項3記載の画像処理装置。5. An edge detecting unit for detecting the edge based on a maximum density, a minimum density, a maximum minimum density and a minimum maximum density in each of the binarized area and the peripheral area. Item 3. The image processing device according to item 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4127958A JPH05300369A (en) | 1992-04-22 | 1992-04-22 | Picture processing unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4127958A JPH05300369A (en) | 1992-04-22 | 1992-04-22 | Picture processing unit |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05300369A true JPH05300369A (en) | 1993-11-12 |
Family
ID=14972870
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4127958A Pending JPH05300369A (en) | 1992-04-22 | 1992-04-22 | Picture processing unit |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05300369A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6985629B2 (en) | 2000-04-26 | 2006-01-10 | International Business Machines Corporation | Image processing method, relative density detecting method and image processing apparatus |
-
1992
- 1992-04-22 JP JP4127958A patent/JPH05300369A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6985629B2 (en) | 2000-04-26 | 2006-01-10 | International Business Machines Corporation | Image processing method, relative density detecting method and image processing apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH05227425A (en) | Improvement in automatic image segmentation | |
JP3576810B2 (en) | Image processing device | |
JPS62172867A (en) | Picture processor | |
JP3040896B2 (en) | Image processing device | |
US7145694B2 (en) | Image processing apparatus and method | |
JP3568732B2 (en) | Image processing device | |
JP3083673B2 (en) | Image area identification device | |
JP3100383B2 (en) | Character region separation method and apparatus | |
JP3479161B2 (en) | Image processing device | |
JPH05300369A (en) | Picture processing unit | |
JP3426747B2 (en) | Color halftone area determination device | |
JPH0654180A (en) | Method and device for image area separation | |
JPS6359272A (en) | Picture processor | |
JP3183787B2 (en) | Halftone area determination device | |
JP3216963B2 (en) | Halftone area determination device | |
JPH07322060A (en) | Image area separation device, facsimile equipment provided with the device and electronic file device | |
JP3099435B2 (en) | Image area determination device | |
JP3725255B2 (en) | Digital image processing device | |
JPH05344330A (en) | Picture area discriminating device | |
JP3177508B2 (en) | Image processing device | |
JPH09247436A (en) | Image area discrimination device and image processor | |
JP3240389B2 (en) | Binarization processing device | |
JPH06152947A (en) | Image processor | |
JP3146516B2 (en) | Image processing device | |
JPH09238253A (en) | Picture processor and picture processing method |