JPH05143726A - Method for processing image and device therefor - Google Patents

Method for processing image and device therefor

Info

Publication number
JPH05143726A
JPH05143726A JP3308861A JP30886191A JPH05143726A JP H05143726 A JPH05143726 A JP H05143726A JP 3308861 A JP3308861 A JP 3308861A JP 30886191 A JP30886191 A JP 30886191A JP H05143726 A JPH05143726 A JP H05143726A
Authority
JP
Japan
Prior art keywords
edge
image data
filter
binary image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3308861A
Other languages
Japanese (ja)
Inventor
Yukari Shimomura
ゆかり 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP3308861A priority Critical patent/JPH05143726A/en
Publication of JPH05143726A publication Critical patent/JPH05143726A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide the image processing method and device therefor which can transform a binary image into a satisfactory multilevel image. CONSTITUTION:First of all, in a step S101, binary image data in the window of 7X7 containing an attention picture element are stored and in a step S102, an edge is detected and an edge direction is judged. Next, respective filters are selected corresponding to the judged result. Namely, in the case of half tone (a), a filter 1 is selected (step S103), in the case of a longitudinal edge (b), a filter 2 is selected (step S104), in the case of a lateral edge (c), a filter 3 is selected (step S105) and in the case of an inclined edge (d), a filter 4 is selected (step S106). In a step S107, the sum of products is calculated to the stored binary image data by the filters and the data are converted into multilevel data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、特に2値画像データを
高精細な多値画像データに変換する画像処理方法及び装
置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for converting binary image data into high definition multivalued image data.

【0002】[0002]

【従来の技術】従来、2値画像データから多値画像デー
タを推定する方法は変換しようとする注目画素を含むウ
インドウを設定し、そのウインドウ内に存在する2値画
像データの重み付け平均値をとる方法、即ち平滑化フィ
ルタで行われていた。
2. Description of the Related Art Conventionally, a method of estimating multi-valued image data from binary image data sets a window including a target pixel to be converted, and takes a weighted average value of the binary image data existing in the window. It was done by the method, namely the smoothing filter.

【0003】しかし、画像の中には、顔の輪郭や文字な
どの高周波部分と空や顔の頬などの低周波部分が存在
し、高周波部分はエッジをはっきりと変換し、低周波部
分は2値画像特有の粒状性を取り去って滑らかに変換す
ることが要求される。そこで、画像のエッジ部分と中間
調部分を判別し、領域ごとに多値変換手段を変える方法
が考えられている。つまり、エッジ部分は図13に示す
(a)のような注目画素の重みを大きくした山形のフィ
ルタを用い、中間調部分は同(b)のようなより平滑化
効果の大きいなだらかなフィルタが良く用いられる。
However, in the image, there are high-frequency parts such as the contours and characters of the face and low-frequency parts such as the sky and the cheeks of the face. The high-frequency parts clearly convert the edges, and the low-frequency parts are 2 It is required to remove the graininess peculiar to the value image and perform smooth conversion. Therefore, a method of discriminating the edge portion and the halftone portion of the image and changing the multi-value conversion means for each region has been considered. That is, for the edge portion, a mountain-shaped filter in which the weight of the pixel of interest as shown in FIG. 13 is increased is used, and for the halftone portion, a smooth filter having a larger smoothing effect as in FIG. Used.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、2値で
画像を表すために、疑似的に中間調濃度をドットの間隔
で表しており、エッジの立ち上がり部分や立ち下がり部
分に図14に示すようなノッチと呼ばれる凹凸が発生す
る。特に誤差拡散法や濃度保存法などの濃度保存性の2
値化方法はノッチが発生しやすい。例として、誤差拡散
法による2値化による文字部のノッチを説明する。この
誤差拡散法を簡単に説明すると、しきい値による2値化
により発生する誤差を近傍に位置する未処理の画素に分
散する2値化方法である。更に、詳しく説明すれば、2
56階調の多値画像をあるしきい値THREにより2値
化を行う際に、2値化を行う画素のレベルがXだった場
合、X>THREの時、その画素はドットが打たれる。
即ち、多値のレベルで言うと“255”に変換されるの
で、発生する誤差はERROR=X−255である。ま
たX<THREの時には“0”に変換されるので、発生
する誤差はERROR=Xとなる。
However, in order to represent an image in binary, pseudo halftone densities are represented by dot intervals, and the rising and falling portions of the edges are as shown in FIG. Unevenness called a notch occurs. In particular, it has two characteristics of concentration preservation such as error diffusion method and concentration preservation method.
Notching is likely to occur in the quantification method. As an example, the notch of the character portion by binarization by the error diffusion method will be described. This error diffusion method will be briefly described as a binarization method in which an error generated by binarization by a threshold value is dispersed to unprocessed pixels located in the vicinity. More specifically, 2
When a 56-gradation multi-valued image is binarized by a certain threshold THRE, if the level of the pixel to be binarized is X, when X> THRE, the pixel is dot-printed. ..
That is, since it is converted into "255" in multi-valued level, the error that occurs is ERROR = X-255. Further, when X <THRE, it is converted to "0", so the error that occurs is ERROR = X.

【0005】一般的に、図15に示す(a)のように、
大きなマトリクスで誤差ERRORを分配するのが良い
のだが、ここでは簡単のため、同(b)のマトリクスを
使用して説明する。図中、*は注目画素、マトリクスの
係数はその画素に分配される誤差の比を表している。図
16に示す多値画像データをしきい値127で図15に
示す(b)のマトリクスの誤差拡散法で処理したとする
と、得られる2値画像は図16の右側のようにノッチの
発生した画像となるのは明らかである。
Generally, as shown in FIG. 15 (a),
It is good to distribute the error ERROR in a large matrix, but here, for the sake of simplicity, description will be made using the matrix of (b). In the figure, * represents the pixel of interest, and the coefficient of the matrix represents the ratio of the errors distributed to that pixel. When the multi-valued image data shown in FIG. 16 is processed with the threshold value 127 by the error diffusion method of the matrix shown in FIG. 15 (b), the obtained binary image has notches as shown on the right side of FIG. Clearly the image.

【0006】また、画像を2領域に分けて領域ごとに多
値変換する方法では、文字部の多値変換手法として中央
の大きい山形のフィルタを用いるため、エッジ部のノッ
チを残した多値変換になってしまい、それにより、中間
調部とエッジ部のつなぎ目が不自然に見えるという欠点
があった。
Further, in the method of dividing an image into two regions and performing multi-value conversion for each region, since a mountain-shaped filter having a large center is used as a multi-value conversion method of a character part, multi-value conversion leaving a notch at an edge part is performed. Therefore, there is a drawback that the joint between the halftone portion and the edge portion looks unnatural.

【0007】本発明は、上記課題を解決するために成さ
れたもので、2値画像を良好な多値画像に変換できる画
像処理方法及び装置を提供することを目的とする。
The present invention has been made to solve the above problems, and an object of the present invention is to provide an image processing method and apparatus capable of converting a binary image into a good multi-valued image.

【0008】[0008]

【課題を解決するための手段】及び上記目的を達成する
ために、本発明の画像処理装置は以下の構成を有する。
In order to achieve the above object and to achieve the above object, the image processing apparatus of the present invention has the following configuration.

【0009】2値画像データを多値画像データに変換す
る画像処理装置において、注目画素を含むウインドウ内
の2値画像データを記憶する記憶手段と、該記憶手段に
記憶された2値画像データに基づいてサイズの異なる複
数のウインドウを用いてエッジを検出するエッジ検出手
段と、該エッジ検出手段での結果に応じて多値画像デー
タに変換する多値変換手段とを有する。また好ましく
は、前記エッジ検出手段は、一次微分フィルタによりエ
ッジ及びエッジ方向を検出することを特徴とする。
In an image processing apparatus for converting binary image data into multi-valued image data, a storage means for storing the binary image data in a window including a pixel of interest and a binary image data stored in the storage means are provided. It has edge detection means for detecting edges using a plurality of windows having different sizes, and multi-value conversion means for converting into multi-value image data according to the result of the edge detection means. Further preferably, the edge detecting means detects an edge and an edge direction by a first-order differential filter.

【0010】更に好ましくは、前記多値変換手段は、前
記エッジ検出手段でのエッジ方向に応じた複数のフィル
タを備え、所望のフィルタを選択して多値画像データに
変換することを特徴とする。
More preferably, the multi-value conversion means is provided with a plurality of filters according to the edge direction in the edge detection means, and a desired filter is selected and converted into multi-value image data. ..

【0011】また好ましくは、前記多値変換手段は、ニ
ューラルネットワークを用いて多値画像データに変換す
ることを特徴とする。
Further preferably, the multi-value converting means is characterized in that the multi-value converting means converts the multi-value image data using a neural network.

【0012】また、本発明の画像処理方法は以下の各ス
テップを有する。
Further, the image processing method of the present invention has the following steps.

【0013】2値画像データを多値画像データに変換す
る画像処理方法において、注目画素を含むウインドウ内
の2値画像データを記憶し、該記憶された2値画像デー
タに基づいてエッジを検出し、該エッジ検出結果に応じ
て多値画像データに変換することを特徴とする。
In an image processing method for converting binary image data into multi-valued image data, binary image data in a window including a pixel of interest is stored, and an edge is detected based on the stored binary image data. The multi-valued image data is converted according to the edge detection result.

【作用】以上の構成において、注目画素を含むウインド
ウ内の2値画像データを記憶し、記憶された2値画像デ
ータに基づいてサイズの異なる複数のウインドウを用い
てエッジを検出し、その検出結果に応じて多値画像デー
タに変換するように動作する。
With the above structure, the binary image data in the window including the pixel of interest is stored, the edges are detected using a plurality of windows having different sizes based on the stored binary image data, and the detection result is obtained. It operates so as to be converted into multi-valued image data according to.

【0014】[0014]

【実施例】以下、図面を参照して本発明に係る好適な一
実施例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will be described in detail below with reference to the drawings.

【0015】図1は、本実施例における処理手順を示す
フローチャートである。
FIG. 1 is a flow chart showing the processing procedure in this embodiment.

【0016】まず、ステップS101において注目画素
を含む7×7のウインドウ内の2値画像データをストア
する。これは、2値画像の領域分離を誤判断無く行うに
は、画素単位でなく面単位で判断する必要があるためで
ある。また、本実施例では、7×7の大きなウインドウ
を設けているが、これに限るものではない。そして、ス
テップS102においてエッジ検出及びエッジ方向判定
を行う。具体的には、図2に示す(a)及び(b)の7
×7と、(c)及び(d)の5×5の一次微分フィルタ
のダブル判定を行う。つまり、本実施例では、7×7の
フィルタは文字などの急激なエッジだけでなく、中間調
画像内に存在する比較的滑らかなエッジまで検出できる
が、逆に文字部に多い高周波部分で周波数を打ち消して
しまい、検出できないエッジも存在する。そこで、5×
5のフィルタを用い、そのしきい値を高くすることで急
激な高周波部分もエッジとして検出できるように構成す
るものである。
First, in step S101, binary image data in a 7 × 7 window including a target pixel is stored. This is because it is necessary to make a determination on a plane basis rather than a pixel basis in order to perform area determination of a binary image without erroneous determination. Further, in this embodiment, a large window of 7 × 7 is provided, but the present invention is not limited to this. Then, in step S102, edge detection and edge direction determination are performed. Specifically, 7 in (a) and (b) shown in FIG.
Double determination is performed for x7 and 5x5 primary differential filters of (c) and (d). In other words, in the present embodiment, the 7 × 7 filter can detect not only a sharp edge of a character or the like but also a relatively smooth edge existing in the halftone image, but conversely, the frequency is high in a high frequency portion that is large in the character portion. There is an edge that cannot be detected because it cancels out. So 5x
By using the filter of No. 5 and increasing the threshold value, a sharp high frequency portion can be detected as an edge.

【0017】なお、文字などの急激な高周波部分をエッ
ジ部として、多値変換することのみを目的とするなら
ば、しきい値の高い5×5の一次微分フィルタだけで十
分である。本実施例ではまず、5×5のフィルタを用い
て、エッジ検出及びエッジ方向判定を行う。その処理の
フローチャートを図3に示す。
For the purpose of only multi-value conversion with a sharp high frequency portion such as a character as an edge portion, a 5 × 5 first-order differential filter having a high threshold value is sufficient. In this embodiment, first, edge detection and edge direction determination are performed using a 5 × 5 filter. A flowchart of the processing is shown in FIG.

【0018】この処理は、上述のステップS101でス
トアされた7×7の2値画像データの内、注目画素を中
心とする5×5のウインドウ内に含まれる画素を用いて
判定するもので、ここではしきい値THREを“6”と
する。まずステップS301では、図2に示す(c)の
フィルタと2値画像データとの積和を取り、絶対値にし
て縦方向エッジパラメータsum1を計算する。次にス
テップS302では、図2に示す(d)のフィルタで同
様に、横方向エッジパラメータsum2を計算する。そ
して、ステップS303で斜めエッジか否かを判断す
る。その判断基準としては、sum1+sum2がしき
い値以上で、かつsum1とsum2の差が少ないであ
る。尚、その差のしきい値は“4”とする。
This process is performed by using the pixels contained in the 5 × 5 window centered on the pixel of interest among the 7 × 7 binary image data stored in step S101 described above. Here, the threshold THRE is set to "6". First, in step S301, the sum of products of the filter (c) shown in FIG. 2 and the binary image data is calculated to be an absolute value, and the vertical edge parameter sum1 is calculated. Next, in step S302, the lateral edge parameter sum2 is calculated in the same manner by the filter of (d) shown in FIG. Then, in step S303, it is determined whether the edge is a diagonal edge. As the judgment criterion, sum1 + sum2 is equal to or larger than the threshold value, and the difference between sum1 and sum2 is small. The threshold value of the difference is "4".

【0019】ここで、上述の条件に当てはまるならばス
テップS304に進み、その画素を斜めエッジと判定す
る。しかし、当てはまらなければステップS305に進
み、縦方向エッジ、つまりsum1>THRE/2か否
かをチェックする。ここで、YESであればステップS
306に進み、その画素を縦方向エッジと判定する。し
かし、NOであればステップS307に進み、横方向エ
ッジ、つまりsum2>THRE/2か否かをチェック
し、YESであればステップS308に進み、その画素
を横方向エッジと判定する。しかし、NOであればステ
ップS309に進み、その画素を中間調と判定する。
If the above conditions are met, the process proceeds to step S304, and the pixel is determined to be a diagonal edge. However, if it is not the case, the process proceeds to step S305, and it is checked whether or not the vertical edge, that is, sum1> THRE / 2. If YES here, step S
In step 306, the pixel is determined to be a vertical edge. However, if NO, the process proceeds to step S307 to check whether or not a horizontal edge, that is, sum2> THRE / 2, and if YES, the process proceeds to step S308 to determine the pixel as a horizontal edge. However, if NO, the process advances to step S309 to determine that the pixel is halftone.

【0020】例えば、2値画像データが図4に示す
(a)のような形状をしていたならば、得られる数値s
um1は“10”である。一方、数値sum2は“1”
である。つまり、sum1とsum2の差がしきい値よ
り大きいのでステップS303の条件には当てはまらな
いが、ステップS305の条件には当てはまり、その画
素は縦方向エッジと判定される。また、同(b)のよう
な形状の2値画像データの場合、sum1は“1”で、
sum2は“8”である。従って、横方向エッジと判定
される。更に、同(c)のような2値画像データでは、
sum1は“6”でsum2も“6”である。つまり、
sum1+sum2が“12”で、しきい値THREを
越えており、かつ、sum1−sum2が“0”なの
で、ステップS303の条件に当てはまる。よって、斜
めエッジと判定される。以上の様に5×5のウインドウ
サイズでエッジ検出、エッジ方向判定を行い、エッジな
しと判定された場合には、更に7×7のウインドウサイ
ズでエッジ判定を行い、その判定結果をも加味して多値
変換を行う。このように異なるサイズのウインドウを用
いてエッジ検出、エッジ方向判定を行うことにより、中
間調部分のエッジも検出しやすくなり、判定精度が格段
に向上する。
For example, if the binary image data has a shape as shown in FIG.
um1 is “10”. On the other hand, the numerical value sum2 is "1"
Is. That is, since the difference between sum1 and sum2 is larger than the threshold value, the condition of step S303 is not met, but the condition of step S305 is met, and the pixel is determined to be a vertical edge. Further, in the case of the binary image data having the shape as shown in (b), sum1 is “1”,
sum2 is “8”. Therefore, it is determined to be a lateral edge. Furthermore, in binary image data like (c),
sum1 is “6” and sum2 is also “6”. That is,
Since sum1 + sum2 is "12", which exceeds the threshold THRE, and sum1-sum2 is "0", the condition of step S303 is satisfied. Therefore, it is determined to be a diagonal edge. As described above, the edge detection and the edge direction determination are performed in the 5 × 5 window size, and when it is determined that there is no edge, the edge determination is further performed in the 7 × 7 window size and the determination result is also taken into consideration. Multi-value conversion. By performing edge detection and edge direction determination using windows of different sizes in this way, it becomes easier to detect edges in the halftone portion, and the determination accuracy is significantly improved.

【0021】次に、本実施例における多値変換フィルタ
について説明する。図5は、4つの多値変換フィルタを
示す図である。図5に示す(a)は中間調部分用のフィ
ルタ、同(b)は斜めエッジ用のフィルタ、同(c)は
縦方向エッジ用のフィルタ、同(d)は横方向エッジ用
のフィルタである。まず、図5に示す(a)の中間調部
分用のフィルタは、なだらかな山形のフィルタである。
多少山形にした方が、ED画像特有の高調波成分を消せ
るので良い。同(b)の斜めエッジ用フィルタには、縦
横方向両方に高周波成分を持ったフィルタを使用する。
また、同(c)の縦方向エッジ用フィルタには、縦方向
のみに高周波成分を持ったフィルタを使用する。そし
て、同(d)の横方向エッジ用フィルタには、横方向の
みに高周波成分を持ったフィルタを使用する。
Next, the multi-value conversion filter in this embodiment will be described. FIG. 5 is a diagram showing four multi-value conversion filters. 5A is a filter for a halftone portion, FIG. 5B is a filter for diagonal edges, FIG. 5C is a filter for vertical edges, and FIG. 5D is a filter for horizontal edges. is there. First, the filter for the halftone portion of (a) shown in FIG. 5 is a gentle mountain-shaped filter.
It is better to have a little chevron because the harmonic components unique to the ED image can be erased. A filter having high-frequency components in both the vertical and horizontal directions is used for the diagonal edge filter of FIG.
Further, a filter having a high frequency component only in the vertical direction is used as the vertical edge filter of (c). Then, as the horizontal edge filter of the same (d), a filter having a high frequency component only in the horizontal direction is used.

【0022】ここで、前述したステップS102での処
理が終了すると、その結果に応じて上述のフィルタが選
択される。つまり、中間調であればフィルタ1を(ステ
ップS103)、縦方向エッジであればフィルタ2を
(ステップS104)、横方向エッジであればフィルタ
3を(ステップS105)、そして斜めエッジであれば
フィルタ4を(ステップS106)それぞれ選択する。
次に、ステップS107では、ステップS101でスト
アされた2値画像データに対し、上述のフィルタで積和
して多値データに変換する。例えば、図6に示すような
2値画像データを前述した方法でエッジ検出及びエッジ
方向判定を行うと、図7に示す如くエッジ判定される。
また、上述の手法により多値変換を行うと、図6の2値
画像データは図8に示すように多値変換される。これに
対し、従来の山形フィルタによって中間調、エッジ部の
2判定のみで図6の2値画像データの処理を行うと、図
10に示すように、ノッチの残った、中間調部とエッジ
部のつなぎ目の不自然な画像となる。
Here, when the processing in step S102 is completed, the above-mentioned filter is selected according to the result. That is, if it is a halftone, filter 1 (step S103), if it is a vertical edge, filter 2 (step S104), if it is a horizontal edge, filter 3 (step S105), and if it is an oblique edge, filter 2 4 (step S106).
Next, in step S107, the binary image data stored in step S101 is summed with the above-mentioned filter and converted into multi-valued data. For example, when the edge detection and the edge direction determination are performed on the binary image data as shown in FIG. 6 by the method described above, the edge determination is performed as shown in FIG.
Further, when the multi-value conversion is performed by the above method, the binary image data of FIG. 6 is multi-value converted as shown in FIG. On the other hand, when the binary image data of FIG. 6 is processed only by the two judgments of the halftone and the edge portion by the conventional chevron filter, as shown in FIG. 10, the halftone portion and the edge portion where the notch remains are shown. The image becomes unnatural at the joint.

【0023】図10は、本実施例における画像処理装置
の概略ブロック図である。ここで、不図示の画像入力装
置から送られてきた2値画像データは、7ラインのバッ
ファ1101に入力される。このラインバッファ110
1には画像データの垂直方向に連続する7ライン分のデ
ータが記憶される。そして、7ラインのうち同じ水平位
置の左端から右端までのデータが順次クロックに同期し
て遅延素子(ラッチ)群1102に対して入力される。
このラッチ群1102の中には水平垂直7×7の小領域
内のデータがラッチされる。
FIG. 10 is a schematic block diagram of the image processing apparatus in this embodiment. Here, the binary image data sent from the image input device (not shown) is input to the 7-line buffer 1101. This line buffer 110
In 1 is stored data of 7 lines which are continuous in the vertical direction of the image data. Then, the data from the left end to the right end at the same horizontal position among the 7 lines is sequentially input to the delay element (latch) group 1102 in synchronization with the clock.
In the latch group 1102, the data in the horizontal and vertical 7 × 7 small area is latched.

【0024】ラッチ群1102は、49個のラッチから
なり、各ラッチの出力はエッジ検出及びエッジ方向判定
回路1103に入力される。エッジ検出及びエッジ方向
判定回路1103は、その入力データから演算を行い、
判定データを出力する。その判定データはセレクタ11
08の制御データとなり、その制御データに従って、セ
レクタ1108は4つのフィルタ1104〜1107の
うち1つを選択する。そして、セレクタ1108によっ
て選択されたフィルタに基づいて多値変換回路1109
でラッチ群1102に記憶されているデータが多値変換
される。
The latch group 1102 is composed of 49 latches, and the output of each latch is input to the edge detection and edge direction determination circuit 1103. The edge detection and edge direction determination circuit 1103 calculates from the input data,
Output judgment data. The judgment data is the selector 11
The control data is 08, and the selector 1108 selects one of the four filters 1104 to 1107 according to the control data. Then, based on the filter selected by the selector 1108, the multi-value conversion circuit 1109
The data stored in the latch group 1102 is converted into multi-valued data.

【0025】図11は、上述したエッジ検出及びエッジ
判定回路1103の詳細なブロック図である。ここで、
データが2値であるため、一次微分フィルタは、加算回
路と減算回路のみで計算できる。図中、1201は縦方
向フィルタによりsum1を計算している部分であり、
1202は横方向フィルタによりsum2を計算してい
る部分である。1203は斜めエッジを判定する部分で
あり、データ1211と1212とを加算し、しきい値
THREと比較する。一方、データ1211と1212
の差が大きいか否かの判断を、2つのデータの下位2ビ
ットを無視したデータを比較することにより行ってい
る。そして、これらの出力のANDを取ることで斜め方
向エッジの判定結果とする。
FIG. 11 is a detailed block diagram of the edge detection and edge determination circuit 1103 described above. here,
Since the data is binary, the first derivative filter can be calculated only by the adder circuit and the subtractor circuit. In the figure, 1201 is a part for calculating sum1 by the vertical direction filter,
Reference numeral 1202 is a part for calculating sum2 by the horizontal filter. Reference numeral 1203 denotes a portion for judging an oblique edge, which adds the data 1211 and 1212 and compares it with the threshold value THRE. On the other hand, data 1211 and 1212
Is judged by comparing the data ignoring the lower 2 bits of the two data. Then, the output of these outputs is ANDed to obtain the diagonal edge determination result.

【0026】1204は縦方向エッジを判定する部分
で、データ1212をTHRE/2と比較している。ま
た同様に、1205は横方向エッジを判定する部分で、
データ1212をTHRE/2と比較している。
Reference numeral 1204 denotes a portion for determining a vertical edge, which compares the data 1212 with THRE / 2. Similarly, 1205 is a portion for determining a horizontal edge,
The data 1212 is compared to THRE / 2.

【0027】このようにして、エッジ判定結果を示す判
定データ1213がエッジ検出及びエッジ判定回路から
出力される。図13は、多値変換回路1109のブロッ
ク図である。図示するように、選択されたフィルタの係
数と各画素が乗算器1301で乗算され、次の加算器1
302で加算されることによって最終的な多値データ1
303に変換される。なお、7×7のウインドウの場合
も図11と同様の構成により行うことができる。
In this way, the determination data 1213 indicating the edge determination result is output from the edge detection and edge determination circuit. FIG. 13 is a block diagram of the multi-value conversion circuit 1109. As shown in the figure, the coefficient of the selected filter and each pixel are multiplied by the multiplier 1301, and the next adder 1
The final multi-valued data 1 is added by 302
Converted to 303. In the case of a 7 × 7 window, the same configuration as in FIG. 11 can be used.

【0028】上述のようにエッジ検出及びエッジ判定
を、5×5及び7×7の一次微分フィルタで行っている
ので、エッジの判定を精度良く行うことができる。な
お、フィルタの形状は正方形である必要はない。また、
多値変換は、そこの画素の特性に合わせたニューラルネ
ットワークにより行っても良い。特に斜めエッジ部分や
中間調部分にニューラルネットワークを使用すると効果
的である。
Since the edge detection and the edge determination are performed by the 5 × 5 and 7 × 7 first-order differential filters as described above, the edge determination can be performed accurately. The shape of the filter does not have to be square. Also,
The multi-value conversion may be performed by a neural network that matches the characteristics of the pixels. In particular, it is effective to use a neural network for the diagonal edge portion and the halftone portion.

【0029】また、前述の実施例では、エッジ判定を中
間調、斜めエッジ、横方向エッジ、縦方向エッジの4つ
に分けて行っているが、斜め方向を更に細かく、右下斜
め、左下斜めのように分け、全部で5つのエッジ判定を
行うことで、更に良い画像が得られる。
Further, in the above-described embodiment, the edge judgment is divided into four, that is, the halftone, the slanted edge, the horizontal edge, and the vertical edge. As described above, a better image can be obtained by performing five edge determinations in total.

【0030】以上説明した実施例によれば、中間調部分
は粒状性無く、エッジ部分はノッチ無くはっきりと、か
つ中間調とエッジ部のつなぎ目が滑らかに変換できるの
で、2値画像データから良好な多値画像データを得られ
る。尚、本発明は、複数の機器から構成されるシステム
に適用しても、1つの機器から成る装置に適用しても良
い。また、本発明は、システム或いは装置にプログラム
を供給することによって達成される場合にも適用できる
ことは言うまでもない。
According to the embodiment described above, the halftone portion has no graininess, the edge portion has no notches, and the joint between the halftone and the edge portion can be smoothly converted. Multi-valued image data can be obtained. The present invention may be applied to a system including a plurality of devices or an apparatus including a single device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0031】[0031]

【発明の効果】以上説明したように、本発明によれば、
2値画像を良好な多値画像に変換することが可能とな
る。
As described above, according to the present invention,
It is possible to convert a binary image into a good multi-valued image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施例における処理手順を示すフローチャー
トである。
FIG. 1 is a flowchart showing a processing procedure in this embodiment.

【図2】エッジ検出及びエッジ判定に使用する一次微分
フィルタを示す図である。
FIG. 2 is a diagram showing a first-order differential filter used for edge detection and edge determination.

【図3】図1のエッジ検出及びエッジ判定処理を示すフ
ローチャートである。
FIG. 3 is a flowchart showing edge detection and edge determination processing of FIG.

【図4】2値画像データを示す図である。FIG. 4 is a diagram showing binary image data.

【図5】多値変換に使用するフィルタを示す図である。FIG. 5 is a diagram showing a filter used for multi-value conversion.

【図6】2値画像データを示す図である。FIG. 6 is a diagram showing binary image data.

【図7】図6の画像をエッジ検出及びエッジ判定した結
果を示す図である。
FIG. 7 is a diagram showing a result of edge detection and edge determination of the image of FIG.

【図8】図6の2値画像データを本実施例で処理した結
果を示す図である。
FIG. 8 is a diagram showing a result of processing the binary image data of FIG. 6 in this embodiment.

【図9】図6の2値画像データを従来手法で処理した結
果を示す図である。
9 is a diagram showing a result of processing the binary image data of FIG. 6 by a conventional method.

【図10】本実施例における画像処理装置の概略ブロッ
ク図である。
FIG. 10 is a schematic block diagram of an image processing apparatus in this embodiment.

【図11】図10のエッジ検出及びエッジ判定回路のブ
ロック図である。
11 is a block diagram of the edge detection and edge determination circuit of FIG.

【図12】図10の多値変換回路のブロック図である。12 is a block diagram of the multi-value conversion circuit of FIG.

【図13】従来における2種類の多値変換フィルタを示
す図である。
FIG. 13 is a diagram showing two types of conventional multi-value conversion filters.

【図14】ノッチの様子を説明する図である。FIG. 14 is a diagram illustrating a notch.

【図15】誤差拡散法の誤差拡散パラメータを示す図で
ある。
FIG. 15 is a diagram showing error diffusion parameters of the error diffusion method.

【図16】多値画像を誤差拡散法で2値化した様子を示
す図である。
FIG. 16 is a diagram showing how a multi-valued image is binarized by an error diffusion method.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 2値画像データを多値画像データに変換
する画像処理装置において、注目画素を含むウインドウ
内の2値画像データを記憶する記憶手段と、該記憶手段
に記憶された2値画像データに基づいてサイズの異なる
複数のウインドウを用いてエッジを検出するエッジ検出
手段と、該エッジ検出手段での結果に応じて多値画像デ
ータに変換する多値変換手段とを有することを特徴とす
る画像処理装置。
1. An image processing apparatus for converting binary image data into multi-valued image data, a storage means for storing the binary image data in a window including a pixel of interest, and a binary image stored in the storage means. An edge detecting means for detecting an edge by using a plurality of windows having different sizes based on the data; and a multi-value converting means for converting into multi-value image data according to a result of the edge detecting means. Image processing device.
【請求項2】 前記エッジ検出手段は、一次微分フィル
タによりエッジ及びエッジ方向を検出することを特徴と
する請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the edge detecting unit detects an edge and an edge direction by a first-order differential filter.
【請求項3】 前記多値変換手段は、前記エッジ検出手
段でのエッジ方向に応じた複数のフィルタを備え、所望
のフィルタを選択して多値画像データに変換することを
特徴とする請求項1記載の画像処理装置。
3. The multi-value converting means comprises a plurality of filters according to the edge direction in the edge detecting means, and selects a desired filter to convert the multi-valued image data. 1. The image processing device according to 1.
【請求項4】 前記多値変換手段は、ニューラルネット
ワークを用いて多値画像データに変換することを特徴と
する請求項1記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the multi-value conversion unit converts the multi-value image data using a neural network.
【請求項5】 2値画像データを多値画像データに変換
する画像処理方法において、注目画素を含むウインドウ
内の2値画像データを記憶し、該記憶された2値画像デ
ータに基づいてエッジを検出し、該エッジ検出結果に応
じて多値画像データに変換することを特徴とする画像処
理方法。
5. An image processing method for converting binary image data into multi-valued image data, wherein binary image data in a window including a pixel of interest is stored and edges are stored based on the stored binary image data. An image processing method, which comprises detecting and converting into multivalued image data according to the edge detection result.
JP3308861A 1991-11-25 1991-11-25 Method for processing image and device therefor Pending JPH05143726A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3308861A JPH05143726A (en) 1991-11-25 1991-11-25 Method for processing image and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3308861A JPH05143726A (en) 1991-11-25 1991-11-25 Method for processing image and device therefor

Publications (1)

Publication Number Publication Date
JPH05143726A true JPH05143726A (en) 1993-06-11

Family

ID=17986146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3308861A Pending JPH05143726A (en) 1991-11-25 1991-11-25 Method for processing image and device therefor

Country Status (1)

Country Link
JP (1) JPH05143726A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130966A (en) * 1995-11-17 2000-10-10 Fuji Xerox Co., Ltd. Image processing system and method for converting an input N-valued (N>or-Z) image into an M-valued (M>N) image
US6370279B1 (en) 1997-04-10 2002-04-09 Samsung Electronics Co., Ltd. Block-based image processing method and apparatus therefor
WO2010047104A1 (en) * 2008-10-22 2010-04-29 日本電信電話株式会社 Deblocking method, deblocking device, deblocking program, and computer-readable recording medium containing the program
JP2012096083A (en) * 2004-07-09 2012-05-24 Hitachi Aloka Medical Ltd Image processing method and device for detection and emphasis of edge
JPWO2011158657A1 (en) * 2010-06-17 2013-08-19 シャープ株式会社 Image filter device, decoding device, encoding device, and data structure
JP2020086850A (en) * 2018-11-22 2020-06-04 キヤノン株式会社 Information processor, information processing method and program, and image forming system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6130966A (en) * 1995-11-17 2000-10-10 Fuji Xerox Co., Ltd. Image processing system and method for converting an input N-valued (N>or-Z) image into an M-valued (M>N) image
US6370279B1 (en) 1997-04-10 2002-04-09 Samsung Electronics Co., Ltd. Block-based image processing method and apparatus therefor
JP2012096083A (en) * 2004-07-09 2012-05-24 Hitachi Aloka Medical Ltd Image processing method and device for detection and emphasis of edge
JP2013099604A (en) * 2004-07-09 2013-05-23 Hitachi Aloka Medical Ltd Method and apparatus of image processing to detect and enhance edge
WO2010047104A1 (en) * 2008-10-22 2010-04-29 日本電信電話株式会社 Deblocking method, deblocking device, deblocking program, and computer-readable recording medium containing the program
TWI386068B (en) * 2008-10-22 2013-02-11 Nippon Telegraph & Telephone Deblocking processing method, deblocking processing device, deblocking processing program and computer readable storage medium in which the program is stored
JP5503548B2 (en) * 2008-10-22 2014-05-28 日本電信電話株式会社 Deblocking processing method, deblocking processing apparatus, deblocking processing program, and computer-readable recording medium recording the program
JPWO2011158657A1 (en) * 2010-06-17 2013-08-19 シャープ株式会社 Image filter device, decoding device, encoding device, and data structure
JP2020086850A (en) * 2018-11-22 2020-06-04 キヤノン株式会社 Information processor, information processing method and program, and image forming system
US11496635B2 (en) 2018-11-22 2022-11-08 Canon Kabushiki Kaisha Information processing system for obtaining read data of handwritten characters, training a model based on the characters, and producing a font for printing using the model

Similar Documents

Publication Publication Date Title
CN106651816B (en) Method and system for halftone processing of digital image
JPH05143726A (en) Method for processing image and device therefor
JPH11164145A (en) Image processor
US5905816A (en) Method of and apparatus for binarizing image signals
JP3798150B2 (en) Image processing method and image processing apparatus
JP3118868B2 (en) Image processing device
US6842267B1 (en) Image processing method
JPH0816773A (en) Image processing method
JPH11150659A (en) Method for processing image
JP3146518B2 (en) Image processing device
JPS61157169A (en) Picture processing device
JP3249341B2 (en) Image processing device
JPH09247450A (en) Image processing unit
JP2857906B2 (en) Halftone binarization processor
JP2860039B2 (en) Pseudo halftone image reduction device
JPH08191387A (en) Image processor
JPH09135349A (en) Image processor
JP2859603B2 (en) Method and apparatus for binarizing image data
JP2836992B2 (en) Image scaling processor
JPS61157162A (en) Picture processing device
JPH08107499A (en) Image processing unit
JPH08161482A (en) Image processing method
JPH09102869A (en) Image processor
JP2004040611A (en) Image processing apparatus, image processing method, program, and medium
JPH10271333A (en) Image processor

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20000310