JPH06282646A - Picture processing method - Google Patents

Picture processing method

Info

Publication number
JPH06282646A
JPH06282646A JP4204195A JP20419592A JPH06282646A JP H06282646 A JPH06282646 A JP H06282646A JP 4204195 A JP4204195 A JP 4204195A JP 20419592 A JP20419592 A JP 20419592A JP H06282646 A JPH06282646 A JP H06282646A
Authority
JP
Japan
Prior art keywords
image data
pixel
data
original image
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4204195A
Other languages
Japanese (ja)
Inventor
Yoshihiro Saito
祐弘 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd filed Critical Alps Electric Co Ltd
Priority to JP4204195A priority Critical patent/JPH06282646A/en
Publication of JPH06282646A publication Critical patent/JPH06282646A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To accurately and satisfactorily extract the contour of an object in an original picture when original picture data is converted into binary data by dividing the original picture into plural local areas and emphasizing the contrast for the original picture data of each pixel of each local area. CONSTITUTION:When the original picture data is converted into binary data, the original picture data are divided into plural local areas 1a, 1b.... The data processing emphasizing the contrast of the original picture data in each local area is performed. Then, the negative picture data are prepared for each pixel of the original picture data. Then, the blurring negative picture data consisting of the average negative picture data of pixel in the prescribed area including the pixel for each pixel are prepared. The multi-value contour picture data are obtained by adding the original picture data and the blurring negative picture data on each pixel with the prescribed factor multiplied. The linear density conversion is performed on the data in the range of the prescribed gradation value. As each local area is reduced, the degree of extracting the contour section becomes high.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、写真等の濃淡を有する
原画像を2値のディジタル情報として取込むとともにそ
の後に各種の画像処理を施す場合に利用されるものであ
り、特に原画像データを2値データに変換する場合に、
当該原画像内の物体の輪郭を良好に抽出するのに好適な
画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is used when an original image having light and shade such as a photograph is captured as binary digital information and then various image processing is performed, and particularly, original image data. When converting to binary data,
The present invention relates to an image processing method suitable for favorably extracting the contour of an object in the original image.

【0002】[0002]

【従来の技術】一般に、色の濃度は複数の階調値により
形成されている多値情報であるために、これをディジタ
ル情報として取込む時に、メモリー量を少量としたり、
その後のデータ処理を容易としたりするために、白黒の
いずれかに分類して2値情報に変換して取込むことが行
なわれている。
2. Description of the Related Art Generally, since the color density is multi-valued information formed by a plurality of gradation values, when this is taken in as digital information, the amount of memory is reduced,
In order to facilitate the subsequent data processing, it is performed to classify it into one of black and white, convert it into binary information, and take it in.

【0003】このように多値情報を2値情報に変換する
場合には、画像処理に必要とされる原画像の有する特徴
を2値情報に取入れるようにしなければならない。
When converting multi-valued information into binary information in this way, it is necessary to incorporate the features of the original image required for image processing into the binary information.

【0004】特に、原画像内の物体の輪郭を明確に区分
して2値情報とする必要がある。なぜならば、この輪郭
線は画像処理において、種々の用途に利用されているか
らである。例えば、(1)画像内の物体の切出し線とし
て利用されたり、(2)切出した画像の形状を変形する
時の外形枠として利用されたり、(3)切出した画像の
明るさ、コントラスト、色彩等の画質を調整する時の外
形枠として利用されたり、(4)画像の記録時の特徴量
として利用されたりしている。
In particular, it is necessary to clearly divide the contour of the object in the original image into binary information. This is because this contour line is used for various purposes in image processing. For example, (1) it is used as a cutout line of an object in an image, (2) it is used as an outer frame when transforming the shape of the cutout image, and (3) brightness, contrast, and color of the cutout image. It is used as an outer frame when adjusting image quality such as, and (4) used as a feature amount when recording an image.

【0005】そこで、従来においては、原画像内の物体
の輪郭を抽出するために、原画像の各画素の保有する濃
度値からなる原画像データと、この原画像データに対す
るネガ画像データとを相互の画素の位置を一定方向にず
らして重ね合せて、原画像およびネガ画像の階調値を加
算して、2値データに変換する対象となる多値画像デー
タを作成し、その多値画像データの各画素の階調値と所
定の基準階調値との大小を比較して、白黒の2値に分類
していた。
Therefore, in the past, in order to extract the contour of an object in the original image, the original image data consisting of the density value held by each pixel of the original image and the negative image data for this original image data are mutually exchanged. The pixel positions of are shifted in a certain direction and overlapped, the gradation values of the original image and the negative image are added, and multivalued image data to be converted into binary data is created. The gray scale value of each pixel and the predetermined reference gray scale value are compared to classify them into binary black and white.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、前記従
来方法においては、原画像内の物体の輪郭を精度よく抽
出することができなかった。
However, in the above-mentioned conventional method, the contour of the object in the original image could not be accurately extracted.

【0007】なぜならば、一般に物体の輪郭は隣接する
画素間の濃度の階調値の変化が大きい部分として現れる
が、前記従来方法のように原画像データとネガ画像デー
タとをずらして重ね合わせているために、輪郭部分の階
調値の変化が相殺されてしまい、輪郭部として抽出され
なくなる場合が起りうるからである。また、従来は原画
像の全域に対して、一度に多値画像データを作成する処
理を施しているために、輪郭部の抽出度合が低いもので
あった。
This is because the contour of the object generally appears as a portion where the gradation value of the density between adjacent pixels is large, but the original image data and the negative image data are shifted and overlapped as in the conventional method. This is because the change in the gradation value of the contour portion is canceled out, and the contour portion may not be extracted. Further, conventionally, the degree of extraction of the contour portion is low because the processing of creating multi-valued image data at once is performed on the entire area of the original image.

【0008】本発明はこれらの点に鑑みてなされたもの
であり、原画像データを2値データに変換する場合に、
当該原画像内の物体の輪郭を精度よく良好に抽出するこ
とのできる画像処理方法を提供することを目的とする。
The present invention has been made in view of these points, and when converting original image data into binary data,
An object of the present invention is to provide an image processing method capable of accurately and satisfactorily extracting the contour of an object in the original image.

【0009】[0009]

【課題を解決するための手段】前記目的を達成するため
に、本発明の画像処理方法は、複数の画素のそれぞれが
複数の階調値により構成されている原画像データを、前
記各画素のデータを白黒の2値のいずれか一方とする2
値データに変換する際に、前記原画像データを複数の局
所領域に分割し、各局所領域における前記原画像データ
のコントラストを強くするデータ処理を施し、その後原
画像データの各画素に対してネガ画像データを作成し、
その後各画素に対して当該画素を含む所定領域の画素の
平均ネガ画像データからなるボケネガ画像データを作成
し、各画素について前記原画像データとボケネガ画像デ
ータとにそれぞれ所定の係数を乗じて加算して多値輪郭
画像データを求めるとともに、この多値輪郭画像データ
を所定の階調値の範囲内に線形濃度変換して納めること
により、前記2値データへの変換に供される多値輪郭画
像データを作成することを特徴とする。
In order to achieve the above object, the image processing method of the present invention provides original image data in which each of a plurality of pixels is composed of a plurality of gradation values, Data is either black and white binary 2
When converting into the value data, the original image data is divided into a plurality of local regions, data processing for increasing the contrast of the original image data in each local region is performed, and then each pixel of the original image data is negatively processed. Create image data,
After that, blur negative image data composed of average negative image data of pixels in a predetermined area including the pixel is created for each pixel, and the original image data and the blur negative image data are multiplied by predetermined coefficients for each pixel and added. Multi-valued contour image data is obtained, and the multi-valued contour image data is linearly density-converted within a range of a predetermined gradation value to be stored, whereby the multi-valued contour image is provided for conversion into the binary data. It is characterized by creating data.

【0010】[0010]

【作用】本発明によれば、原画像を複数の局所領域に分
割し、各局所領域の各画素の原画像データに対して、コ
ントラストを強調し、その後当該画素のボケネガ画像デ
ータを重ね合せ、更にそのデータを所定の階調値の範囲
内に線形濃度変換することにより、2値データへの変換
に供される多値輪郭画像データを作成するものであるか
ら、前記原画像内の物体の輪郭を精度よく良好に抽出し
た画像データを得ることができる。
According to the present invention, the original image is divided into a plurality of local regions, the contrast is emphasized with respect to the original image data of each pixel in each local region, and then the blurred image data of the pixel is superimposed. Furthermore, since the multi-level contour image data used for conversion into binary data is created by performing linear density conversion of the data within a range of a predetermined gradation value, the object in the original image It is possible to obtain image data in which the contour is accurately and favorably extracted.

【0011】[0011]

【実施例】以下、本発明の実施例を図1から図11につ
いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of the present invention will be described below with reference to FIGS.

【0012】図1から図5は本発明の実施例を示してい
る。
1 to 5 show an embodiment of the present invention.

【0013】本実施例は、図1に示す装置により、図2
に示すフローチャートに従って画像データを作成するよ
うに形成されている。
In this embodiment, the apparatus shown in FIG.
The image data is formed according to the flowchart shown in FIG.

【0014】本実施例を、図1に示すように、例えばカ
ラー写真等の色の濃淡を有する原画像1を2値の画像デ
ータとして取込む場合について説明する。
In the present embodiment, as shown in FIG. 1, a case will be described in which an original image 1 having a shade of color such as a color photograph is captured as binary image data.

【0015】この原画像1の画像データを作成する装置
は、CPUや各種のメモリ(共に図示せず)等が内蔵さ
れているコンピュータ2と、このコンピュータ2に対す
る種々の指示を入力するキーボード、マウス等の入力機
器3と、CRT等の出力機器4と、原画像1の各画素の
色濃度の階調値を読取る濃度読取り器5とにより形成さ
れている。
An apparatus for creating image data of the original image 1 is a computer 2 having a built-in CPU and various memories (both not shown) and the like, and a keyboard and a mouse for inputting various instructions to the computer 2. And the like, an output device 4 such as a CRT, and a density reader 5 for reading the gradation value of the color density of each pixel of the original image 1.

【0016】次に、本発明方法を説明する。Next, the method of the present invention will be described.

【0017】先ず、濃度読取り器5を用いて原画像1の
各画素の色濃度の階調値を読取り、原画像データとして
コンピュータ2内のメモリに記憶させる。この階調値の
読取りは、公知の方法により行なうとよい。
First, the gradation value of the color density of each pixel of the original image 1 is read using the density reader 5 and stored in the memory in the computer 2 as the original image data. The reading of the gradation value may be performed by a known method.

【0018】例えば、先ず読取る解像度を決定する。す
なわち、解像度として画素の大きさと、色濃度の最大値
すなわち画像データの取り得る最大階調値(Cmax)
を決定する。その後に、原画像1を画素の大きさに従っ
て、X方向およびY方向にスキャンしながら各画素
(n,m)の色濃度の階調値I(n,m)を測定して、
全体を原画像データとしてコンピュータ2内のメモリに
いったん記憶させる。ここで、前記nは各画素のX座
標、mは各画素のY座標である。
For example, first, the resolution to be read is determined. That is, the pixel size as the resolution and the maximum value of the color density, that is, the maximum gradation value (Cmax) that the image data can take.
To decide. Then, the original image 1 is scanned in the X and Y directions according to the pixel size, and the gradation value I (n, m) of the color density of each pixel (n, m) is measured,
The whole is once stored in the memory in the computer 2 as original image data. Here, n is the X coordinate of each pixel, and m is the Y coordinate of each pixel.

【0019】次に、2値データへの変換に供される多値
輪郭画像データを作成する。この方法を図2に示すフロ
ーチャートに従って説明する。
Next, multivalued contour image data used for conversion into binary data is created. This method will be described with reference to the flowchart shown in FIG.

【0020】先ず、ステップST11において、原画像
1を、図3に示すように、複数の局所領域1a,1b,
1c…に分割する。この各局所領域の大きさは、設定解
像度等に応じて前記入力機器3により指定するものであ
り、小さくするほど輪郭部の抽出度合が高くなる。
First, in step ST11, as shown in FIG. 3, the original image 1 is converted into a plurality of local regions 1a, 1b,
1c ... The size of each local region is specified by the input device 3 according to the set resolution and the like, and the smaller the size, the higher the degree of extraction of the contour portion.

【0021】次に、ステップST12において、すべて
の局所領域に対する輪郭抽出処理が終了したか否かの判
断が行なわれる。この判断がYESの場合には処理が終
了され、NOの場合にはステップST13へ進行する。
Next, in step ST12, it is determined whether or not the contour extraction processing has been completed for all local regions. If this determination is YES, the process is terminated, and if NO, the process proceeds to step ST13.

【0022】このステップST13においては、輪郭抽
出の前処理として、原画像データのコントラストを強く
するデータ処理を行なう。
In step ST13, data processing for increasing the contrast of the original image data is performed as a preprocessing for contour extraction.

【0023】すなわち、原画像1の原画像データI
(n,m)の変化量が小さくてコントラストが比較的弱
い場合には、原画像データI(n,m)に対してコント
ラストを強調する前処理を施して、前処理後の原画像デ
ータIB(n,m)、すなわち IB(n,m)=T{I(n,m)}=T(i) を作成する。
That is, the original image data I of the original image 1
When the change amount of (n, m) is small and the contrast is relatively weak, the original image data I (n, m) is subjected to a preprocessing for enhancing the contrast, and the original image data IB after the preprocessing is performed. (N, m), that is, IB (n, m) = T {I (n, m)} = T (i).

【0024】この場合、原画像1の色濃度の階調度数分
布をhp(i)とするとともに、目的とする階調度数分
布をhq(i)=(原画像1の全画素数/Cmax)と
し、更に、T(i)を0≦j≦iの範囲のΣhp(j)
と0≦j≦T(i)の範囲のΣhq(j)との差の絶対
値が最小となる階調値として求める。
In this case, the gradation frequency distribution of the color density of the original image 1 is hp (i), and the target gradation frequency distribution is hq (i) = (total number of pixels of original image 1 / Cmax). And T (i) is Σhp (j) in the range of 0 ≦ j ≦ i.
Is obtained as a gradation value that minimizes the absolute value of the difference between Σhq (j) in the range of 0 ≦ j ≦ T (i).

【0025】次に、ステップST14において、輪郭抽
出処理を行なう。
Next, in step ST14, contour extraction processing is performed.

【0026】この輪郭抽出処理は、図4に示すフローチ
ャートにしたがって行なわれる。
This contour extraction processing is performed according to the flowchart shown in FIG.

【0027】先ず、ステップST21およびST22に
より、以下のステップST23からST27に示す多値
輪郭画像データの作成方法を全画素に対して施すように
している。
First, in steps ST21 and ST22, the method of creating multivalued contour image data shown in the following steps ST23 to ST27 is applied to all pixels.

【0028】そして、ステップST23においては、原
画像1の各画素(n,m)に対するネガ画像データN
(n,m)、すなわち N(n,m)=Cmax−I(n,m) を作成する。
Then, in step ST23, the negative image data N for each pixel (n, m) of the original image 1
(N, m), that is, N (n, m) = Cmax-I (n, m) is created.

【0029】次に、ステップST24に進行して、各画
素(n,m)に対して当該画素を含む所定領域の画素の
平均ネガ画像データからなるボケネガ画像データU
(n,m)を作成する。
Next, in step ST24, blurred negative image data U consisting of average negative image data of pixels in a predetermined area including the pixel for each pixel (n, m).
Create (n, m).

【0030】これを図5により説明すると、各画素
(n,m)に対してボカシを施す当該画素を含む所定領
域となるボカシマトリックスBの大きさ(X,Y方向の
各ボカシマトリックスサイズをusx,usyとする)
を決定し、そのボカシマトリックスB内の全画素の平均
ネガ画像データを求めてボケネガ画像データU(n,
m)、すなわち U(n,m)=ΣN(n−i,m−j)/(usx×u
sy) を作成する。
This will be described with reference to FIG. 5. The size of the blur matrix B, which is a predetermined region including the pixel to which each pixel (n, m) is blurred (the blur matrix size in the X and Y directions is usx. , Usy)
Is determined, and the average negative image data of all pixels in the blur matrix B is calculated to obtain the blurred negative image data U (n,
m), that is, U (n, m) = ΣN (n−i, m−j) / (usx × u
sy) is created.

【0031】ここで、前記usx,usy,i,jの値
を画像処理の内容に応じて設定することにより、図5に
示すように各画素(n,m)をボカシマトリックスBの
中央とさせたり、偏らせるとよい。また、局所領域の端
部のボケネガ画像データを求める場合には、隣接する局
所領域の画像データを用いるとよい。
Here, by setting the values of usx, usy, i, j according to the contents of the image processing, each pixel (n, m) is set to the center of the blur matrix B as shown in FIG. Or you should bias it. Further, when obtaining the blurred image data of the edge of the local area, it is preferable to use the image data of the adjacent local areas.

【0032】次に、ステップST25に進行して、各画
素(n,m)について前記原画像データI(n,m)と
ボケネガ画像データU(n,m)とにそれぞれ所定の係
数(WI,WN)を乗じて加算して多値輪郭画像データ
L(n,m)、すなわち L(n,m)=WI・I(n,m)+WN・U(n,
m) を求める。
Next, in step ST25, a predetermined coefficient (WI, WI) is added to the original image data I (n, m) and the blurred negative image data U (n, m) for each pixel (n, m). WN) is multiplied and added to obtain multilevel contour image data L (n, m), that is, L (n, m) = WI · I (n, m) + WN · U (n,
m) is calculated.

【0033】この各係数(WI,WN)は画像処理の内
容に応じて、0〜1の範囲において自由に設定するとよ
い。
Each coefficient (WI, WN) may be freely set within the range of 0 to 1 according to the contents of image processing.

【0034】次に、ステップST26およびST27に
より、前記多値輪郭画像データL(n,m)を所定の階
調値の範囲内、すなわち画像データの取り得る最大階調
値(Cmax)内に納めることにより、2値データへの
変換に供される多値輪郭画像データL2(n,m)を作
成する 更に説明すると、ステップST26において、前記多値
輪郭画像データL(n,m)が画像データの取り得る最
大階調値(Cmax)を超えるか否かを判断し、超えな
いNOの場合には、 L2(n,m)=L(n,m) として、ステップST12に戻る。
Next, in steps ST26 and ST27, the multivalued contour image data L (n, m) is stored within a predetermined gradation value range, that is, within the maximum gradation value (Cmax) that the image data can have. By doing so, the multi-valued contour image data L2 (n, m) to be used for conversion into binary data is further described. In step ST26, the multi-valued contour image data L (n, m) is converted into image data. Of the maximum gradation value (Cmax) that can be taken is determined, and if NO is not exceeded, L2 (n, m) = L (n, m) is set and the process returns to step ST12.

【0035】前記判断がYESの場合には、 L2(n,m)=Cmax として、ステップST22に戻る。When the above determination is YES, L2 (n, m) = Cmax is set and the process returns to step ST22.

【0036】このように、本実施例によれば、原画像1
の各画素(n,m)の原画像データI(n,m)に対し
て、当該画素のボケネガ画像データU(n,m)を重ね
合せることにより、2値データへの変換に供される多値
輪郭画像データL2(n,m)を作成するものであるか
ら、従来のようにデータをずらして重ね合わせるもので
はないので、前記原画像1内の物体の輪郭を精度よく良
好に抽出した画像データを得ることができる。
Thus, according to this embodiment, the original image 1
The original image data I (n, m) of each pixel (n, m) is superposed with the blurred negative image data U (n, m) of the pixel to be used for conversion into binary data. Since the multi-valued contour image data L2 (n, m) is created, the data is not shifted and overlapped as in the conventional case. Therefore, the contour of the object in the original image 1 is accurately and favorably extracted. Image data can be obtained.

【0037】次に、ステップST15に進行して、前記
多値輪郭画像データL2(n,m)に対して、更に後処
理を施す。
Next, in step ST15, the multivalued contour image data L2 (n, m) is further post-processed.

【0038】すなわち、多値輪郭画像データL2(n,
m)の階調値を、所定の階調値内、例えば、前記画像デ
ータの取り得る最小階調値から最大階調値(Cmax)
までの範囲に、線形濃度変換して2値データへの変換に
供される後処理後の多値輪郭画像データLA(n,
m)、すなわち LA(n,m)={(Cmax−Cmin)/(L2m
ax−L2min)}×{L2(n,m)−L2mi
n)} を求める。
That is, the multivalued contour image data L2 (n,
m) the gradation value within a predetermined gradation value, for example, from the minimum gradation value that the image data can take to the maximum gradation value (Cmax)
Up to the range up to the post-processing multi-valued contour image data LA (n, which is used for linear density conversion and conversion into binary data
m), that is, LA (n, m) = {(Cmax-Cmin) / (L2m
ax-L2min)} * {L2 (n, m) -L2mi
n)} is calculated.

【0039】この後処理は、得られたL2(n,m)の
範囲(L2max−L2min)が画像データの取り得
る範囲(Cmax−Cmin)より狭い場合に、当該
(L2max−L2min)の範囲を(Cmax−Cm
in)の範囲と同一となるように比例配分して広げるも
のである。
In this post-processing, if the obtained range of L2 (n, m) (L2max-L2min) is narrower than the range of image data (Cmax-Cmin), the range of (L2max-L2min) is set. (Cmax-Cm
in), so that it is the same as the range of (in).

【0040】これにより画像データの取り得る範囲(C
max−Cmin)の全体を利用した多値輪郭画像デー
タLA(n,m)を得ることができる。
As a result, the range (C
It is possible to obtain the multivalued contour image data LA (n, m) using the entire (max-Cmin).

【0041】このようにして得られた多値輪郭画像デー
タLA(n,m)に対して、白黒の2値に変換するしき
い値(Cx)を画像処理の内容に応じて画像データの取
り得る範囲(Cmax−Cmin)内に設定し、多値輪
郭画像データLA(n,m)が前記しきい値(Cx)よ
り大きい画素を白とし、前記しきい値(Cx)より小さ
い画素を黒とし、全体として2値の画像データを作成す
る。
For the multi-valued contour image data LA (n, m) thus obtained, a threshold value (Cx) for converting into binary of black and white is obtained according to the contents of the image processing. It is set within the range (Cmax-Cmin) to obtain, and the pixels whose multivalued contour image data LA (n, m) is larger than the threshold value (Cx) are white, and the pixels smaller than the threshold value (Cx) are black. Then, binary image data is created as a whole.

【0042】その後、ステップST12に戻り、その判
断がYESとなるまで、すなわち、すべての局所領域に
対する輪郭抽出処理が終するまで、ステップST13か
らST15の処理が継続して行なわれる。
After that, the process returns to step ST12, and the processes of steps ST13 to ST15 are continuously performed until the determination becomes YES, that is, until the contour extraction process for all local regions is completed.

【0043】次に、図6から図11に示す具体的な実施
例により本発明方法を説明する。
Next, the method of the present invention will be described with reference to specific examples shown in FIGS.

【0044】本実施例は、図6に示すカラー写真からな
る原画像1から2値の画像データを取出すようにしたも
のである。解像度としては、原画像1をX方向×Y方向
=690×520の画素数に分解するとともに、各局所
領域の大きさをX方向×Y方向=25×25の画素に設
定し、色濃度を0〜255の階調値に設定した。
In this embodiment, binary image data is extracted from the original image 1 consisting of the color photograph shown in FIG. As the resolution, the original image 1 is decomposed into the number of pixels of X direction × Y direction = 690 × 520, and the size of each local region is set to the pixels of X direction × Y direction = 25 × 25 to set the color density. The gradation value is set to 0 to 255.

【0045】この原画像1のY座標=68の部分の原画
像データI(n,m)は、図7に示す通りとなり、2値
データへの変換に供される多値輪郭画像データLA
(n,m)は、図8に示す通りとなった。比較のための
従来方法による多値輪郭画像データは、図9に示す通り
となった。
The original image data I (n, m) of the Y-coordinate = 68 portion of the original image 1 is as shown in FIG. 7, and is the multivalued contour image data LA used for conversion into binary data.
(N, m) is as shown in FIG. The multilevel contour image data by the conventional method for comparison is as shown in FIG.

【0046】そして、図8に示すような多値輪郭画像デ
ータLA(n,m)を公知のディザ法により処理してプ
リンタにより出力すると図10のようになり、また、図
9に示すような従来方法による多値輪郭画像データを前
記と同様にディザ法により処理してプリンタにより出力
すると図11のようになる。
Then, when the multivalued contour image data LA (n, m) as shown in FIG. 8 is processed by the known dither method and output by the printer, it becomes as shown in FIG. 10 and as shown in FIG. FIG. 11 shows the multi-valued contour image data processed by the conventional method by the dither method and output by the printer as described above.

【0047】これらの図7から図11より明らかなよう
に、本実施例によると、従来例に比べて原画像1内の物
体の輪郭部が明確に強調されており、輪郭部が2値の画
像データに精度よく、しかも確実に抽出されることがわ
かる。
As is apparent from FIGS. 7 to 11, according to the present embodiment, the contour portion of the object in the original image 1 is clearly emphasized as compared with the conventional example, and the contour portion has a binary value. It can be seen that the image data can be extracted accurately and surely.

【0048】なお、本発明は前記実施例に限定されるも
のではなく、例えばモノクロ写真やその他階調値を有す
る画像であれば、すべて適用することができるものであ
り、必要に応じて変更することができる。
The present invention is not limited to the above-described embodiment, but can be applied to all the monochrome images and other images having gradation values, and can be changed as necessary. be able to.

【0049】[0049]

【発明の効果】このように本発明の画像処理方法は、原
画像を複数の局所領域に分割し、各局所領域の各画素の
原画像データに対して、コントラストを強調し、その後
当該画素のボケネガ画像データを重ね合せ、更にそのデ
ータを所定の階調値の範囲内に線形濃度変換することに
より、2値データへの変換に供される多値輪郭画像デー
タを作成するものであるから、原画像データを2値デー
タに変換する場合に、当該原画像内の物体の輪郭を精度
よく良好に抽出することのできる等の効果を奏する。
As described above, the image processing method of the present invention divides the original image into a plurality of local regions, emphasizes the contrast of the original image data of each pixel in each local region, and then Since the blurred image data is overlaid and the data is linearly density-converted within a range of a predetermined gradation value, multivalued contour image data used for conversion into binary data is created. When the original image data is converted into binary data, the contour of the object in the original image can be extracted accurately and favorably.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像処理方法を実施するための装置の
概略図
FIG. 1 is a schematic view of an apparatus for carrying out an image processing method of the present invention.

【図2】本発明方法の1実施例を示すフローチャートFIG. 2 is a flowchart showing an embodiment of the method of the present invention.

【図3】原画像の拡大説明図FIG. 3 is an enlarged explanatory diagram of an original image.

【図4】本発明方法の輪郭抽出処理の1実施例を示すフ
ローチャート
FIG. 4 is a flowchart showing an embodiment of contour extraction processing of the method of the present invention.

【図5】図3のA部の拡大図5 is an enlarged view of part A of FIG.

【図6】本発明方法を適用する原画像図FIG. 6 is an original image diagram to which the method of the present invention is applied.

【図7】原画像データを示す色濃度の階調グラフFIG. 7 is a color density gradation graph showing original image data.

【図8】図6の原画像データより本発明方法に基づいて
求められた2値データへの変換に供される多値輪郭画像
データLA(n,m)を示すグラフ
8 is a graph showing multivalued contour image data LA (n, m) used for conversion from the original image data of FIG. 6 into binary data obtained based on the method of the present invention.

【図9】比較のための従来方法による多値輪郭画像デー
タを示すグラフ
FIG. 9 is a graph showing multivalued contour image data by a conventional method for comparison.

【図10】図6の原画像に対して、本発明方法を施して
得た多値輪郭画像データを、ディザ法により処理してプ
リンタにより出力した画像図
FIG. 10 is an image diagram in which multivalued contour image data obtained by applying the method of the present invention to the original image of FIG. 6 is processed by a dither method and output by a printer.

【図11】従来方法を施して得た多値輪郭画像データ
を、ディザ法により処理してプリンタにより出力した画
像図 1 原画像
FIG. 11 is an image diagram of an original image in which multivalued contour image data obtained by applying a conventional method is processed by a dither method and output by a printer.

【手続補正書】[Procedure amendment]

【提出日】平成6年2月22日[Submission date] February 22, 1994

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図6[Name of item to be corrected] Figure 6

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図6】 [Figure 6]

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 複数の画素のそれぞれが複数の階調値に
より構成されている原画像データを、前記各画素のデー
タを白黒の2値のいずれか一方とする2値データに変換
する際に、前記原画像データを複数の局所領域に分割
し、各局所領域における前記原画像データのコントラス
トを強くするデータ処理を施し、その後原画像データの
各画素に対してネガ画像データを作成し、その後各画素
に対して当該画素を含む所定領域の画素の平均ネガ画像
データからなるボケネガ画像データを作成し、各画素に
ついて前記原画像データとボケネガ画像データとにそれ
ぞれ所定の係数を乗じて加算して多値輪郭画像データを
求めるとともに、この多値輪郭画像データを所定の階調
値の範囲内に線形濃度変換して納めることにより、前記
2値データへの変換に供される多値輪郭画像データを作
成することを特徴とする画像処理方法。
1. When converting original image data in which each of a plurality of pixels is composed of a plurality of gradation values into binary data in which the data of each pixel is one of binary black and white , The original image data is divided into a plurality of local regions, subjected to data processing to increase the contrast of the original image data in each local region, then create negative image data for each pixel of the original image data, For each pixel, blur image data consisting of average negative image data of pixels in a predetermined area including the pixel is created, and for each pixel, the original image data and the blur negative image data are respectively multiplied by a predetermined coefficient and added. The multi-valued contour image data is obtained, and the multi-valued contour image data is converted into the binary data by linear density conversion within the range of a predetermined gradation value. An image processing method, characterized in that multi-valued contour image data to be provided is created.
JP4204195A 1992-06-22 1992-06-22 Picture processing method Pending JPH06282646A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4204195A JPH06282646A (en) 1992-06-22 1992-06-22 Picture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4204195A JPH06282646A (en) 1992-06-22 1992-06-22 Picture processing method

Publications (1)

Publication Number Publication Date
JPH06282646A true JPH06282646A (en) 1994-10-07

Family

ID=16486410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4204195A Pending JPH06282646A (en) 1992-06-22 1992-06-22 Picture processing method

Country Status (1)

Country Link
JP (1) JPH06282646A (en)

Similar Documents

Publication Publication Date Title
US6324309B1 (en) Image processing apparatus
EP1323132B1 (en) Image sharpening by variable contrast stretching
JP4667062B2 (en) Image analysis apparatus, image analysis method, and blob identification apparatus
US6771793B1 (en) Image processing method and apparatus
JP3848403B2 (en) Image segmentation system
US20030161534A1 (en) Feature recognition using loose gray scale template matching
US7437002B2 (en) Image recognition system utilizing an edge image and a binary image
US8384964B2 (en) Image processing apparatus and image processing method
US20030179935A1 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
US6721458B1 (en) Artifact reduction using adaptive nonlinear filters
JP6781406B2 (en) Image processing equipment and computer programs
US5434931A (en) System and method for picture image processing employing transformation of picture data
JP4496602B2 (en) Image processing method and image processing apparatus
JP2004166007A (en) Device, method and program for image processing, and storage medium
JP3515019B2 (en) Image correction method and apparatus, recording medium recording the method, image photographing apparatus incorporating the apparatus, and image display apparatus incorporating the apparatus
US6985629B2 (en) Image processing method, relative density detecting method and image processing apparatus
JP2777202B2 (en) Image processing device
JPH06282646A (en) Picture processing method
JP2000357226A (en) Method for binarizing light and shade image and recording medium where binarizing program is recorded
JPH06282647A (en) Picture processing method
JPH06282645A (en) Picture data processing method
JP4035696B2 (en) Line segment detection apparatus and image processing apparatus
JP4324532B2 (en) Image processing apparatus and storage medium
JPS60136478A (en) Picture processor
JPH04236574A (en) Picture coding system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19990629