JPH06282646A - Picture processing method - Google Patents
Picture processing methodInfo
- Publication number
- JPH06282646A JPH06282646A JP4204195A JP20419592A JPH06282646A JP H06282646 A JPH06282646 A JP H06282646A JP 4204195 A JP4204195 A JP 4204195A JP 20419592 A JP20419592 A JP 20419592A JP H06282646 A JPH06282646 A JP H06282646A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- pixel
- data
- original image
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000006243 chemical reaction Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 description 23
- 238000000605 extraction Methods 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 2
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 1
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、写真等の濃淡を有する
原画像を2値のディジタル情報として取込むとともにそ
の後に各種の画像処理を施す場合に利用されるものであ
り、特に原画像データを2値データに変換する場合に、
当該原画像内の物体の輪郭を良好に抽出するのに好適な
画像処理方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is used when an original image having light and shade such as a photograph is captured as binary digital information and then various image processing is performed, and particularly, original image data. When converting to binary data,
The present invention relates to an image processing method suitable for favorably extracting the contour of an object in the original image.
【0002】[0002]
【従来の技術】一般に、色の濃度は複数の階調値により
形成されている多値情報であるために、これをディジタ
ル情報として取込む時に、メモリー量を少量としたり、
その後のデータ処理を容易としたりするために、白黒の
いずれかに分類して2値情報に変換して取込むことが行
なわれている。2. Description of the Related Art Generally, since the color density is multi-valued information formed by a plurality of gradation values, when this is taken in as digital information, the amount of memory is reduced,
In order to facilitate the subsequent data processing, it is performed to classify it into one of black and white, convert it into binary information, and take it in.
【0003】このように多値情報を2値情報に変換する
場合には、画像処理に必要とされる原画像の有する特徴
を2値情報に取入れるようにしなければならない。When converting multi-valued information into binary information in this way, it is necessary to incorporate the features of the original image required for image processing into the binary information.
【0004】特に、原画像内の物体の輪郭を明確に区分
して2値情報とする必要がある。なぜならば、この輪郭
線は画像処理において、種々の用途に利用されているか
らである。例えば、(1)画像内の物体の切出し線とし
て利用されたり、(2)切出した画像の形状を変形する
時の外形枠として利用されたり、(3)切出した画像の
明るさ、コントラスト、色彩等の画質を調整する時の外
形枠として利用されたり、(4)画像の記録時の特徴量
として利用されたりしている。In particular, it is necessary to clearly divide the contour of the object in the original image into binary information. This is because this contour line is used for various purposes in image processing. For example, (1) it is used as a cutout line of an object in an image, (2) it is used as an outer frame when transforming the shape of the cutout image, and (3) brightness, contrast, and color of the cutout image. It is used as an outer frame when adjusting image quality such as, and (4) used as a feature amount when recording an image.
【0005】そこで、従来においては、原画像内の物体
の輪郭を抽出するために、原画像の各画素の保有する濃
度値からなる原画像データと、この原画像データに対す
るネガ画像データとを相互の画素の位置を一定方向にず
らして重ね合せて、原画像およびネガ画像の階調値を加
算して、2値データに変換する対象となる多値画像デー
タを作成し、その多値画像データの各画素の階調値と所
定の基準階調値との大小を比較して、白黒の2値に分類
していた。Therefore, in the past, in order to extract the contour of an object in the original image, the original image data consisting of the density value held by each pixel of the original image and the negative image data for this original image data are mutually exchanged. The pixel positions of are shifted in a certain direction and overlapped, the gradation values of the original image and the negative image are added, and multivalued image data to be converted into binary data is created. The gray scale value of each pixel and the predetermined reference gray scale value are compared to classify them into binary black and white.
【0006】[0006]
【発明が解決しようとする課題】しかしながら、前記従
来方法においては、原画像内の物体の輪郭を精度よく抽
出することができなかった。However, in the above-mentioned conventional method, the contour of the object in the original image could not be accurately extracted.
【0007】なぜならば、一般に物体の輪郭は隣接する
画素間の濃度の階調値の変化が大きい部分として現れる
が、前記従来方法のように原画像データとネガ画像デー
タとをずらして重ね合わせているために、輪郭部分の階
調値の変化が相殺されてしまい、輪郭部として抽出され
なくなる場合が起りうるからである。また、従来は原画
像の全域に対して、一度に多値画像データを作成する処
理を施しているために、輪郭部の抽出度合が低いもので
あった。This is because the contour of the object generally appears as a portion where the gradation value of the density between adjacent pixels is large, but the original image data and the negative image data are shifted and overlapped as in the conventional method. This is because the change in the gradation value of the contour portion is canceled out, and the contour portion may not be extracted. Further, conventionally, the degree of extraction of the contour portion is low because the processing of creating multi-valued image data at once is performed on the entire area of the original image.
【0008】本発明はこれらの点に鑑みてなされたもの
であり、原画像データを2値データに変換する場合に、
当該原画像内の物体の輪郭を精度よく良好に抽出するこ
とのできる画像処理方法を提供することを目的とする。The present invention has been made in view of these points, and when converting original image data into binary data,
An object of the present invention is to provide an image processing method capable of accurately and satisfactorily extracting the contour of an object in the original image.
【0009】[0009]
【課題を解決するための手段】前記目的を達成するため
に、本発明の画像処理方法は、複数の画素のそれぞれが
複数の階調値により構成されている原画像データを、前
記各画素のデータを白黒の2値のいずれか一方とする2
値データに変換する際に、前記原画像データを複数の局
所領域に分割し、各局所領域における前記原画像データ
のコントラストを強くするデータ処理を施し、その後原
画像データの各画素に対してネガ画像データを作成し、
その後各画素に対して当該画素を含む所定領域の画素の
平均ネガ画像データからなるボケネガ画像データを作成
し、各画素について前記原画像データとボケネガ画像デ
ータとにそれぞれ所定の係数を乗じて加算して多値輪郭
画像データを求めるとともに、この多値輪郭画像データ
を所定の階調値の範囲内に線形濃度変換して納めること
により、前記2値データへの変換に供される多値輪郭画
像データを作成することを特徴とする。In order to achieve the above object, the image processing method of the present invention provides original image data in which each of a plurality of pixels is composed of a plurality of gradation values, Data is either black and white binary 2
When converting into the value data, the original image data is divided into a plurality of local regions, data processing for increasing the contrast of the original image data in each local region is performed, and then each pixel of the original image data is negatively processed. Create image data,
After that, blur negative image data composed of average negative image data of pixels in a predetermined area including the pixel is created for each pixel, and the original image data and the blur negative image data are multiplied by predetermined coefficients for each pixel and added. Multi-valued contour image data is obtained, and the multi-valued contour image data is linearly density-converted within a range of a predetermined gradation value to be stored, whereby the multi-valued contour image is provided for conversion into the binary data. It is characterized by creating data.
【0010】[0010]
【作用】本発明によれば、原画像を複数の局所領域に分
割し、各局所領域の各画素の原画像データに対して、コ
ントラストを強調し、その後当該画素のボケネガ画像デ
ータを重ね合せ、更にそのデータを所定の階調値の範囲
内に線形濃度変換することにより、2値データへの変換
に供される多値輪郭画像データを作成するものであるか
ら、前記原画像内の物体の輪郭を精度よく良好に抽出し
た画像データを得ることができる。According to the present invention, the original image is divided into a plurality of local regions, the contrast is emphasized with respect to the original image data of each pixel in each local region, and then the blurred image data of the pixel is superimposed. Furthermore, since the multi-level contour image data used for conversion into binary data is created by performing linear density conversion of the data within a range of a predetermined gradation value, the object in the original image It is possible to obtain image data in which the contour is accurately and favorably extracted.
【0011】[0011]
【実施例】以下、本発明の実施例を図1から図11につ
いて説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT An embodiment of the present invention will be described below with reference to FIGS.
【0012】図1から図5は本発明の実施例を示してい
る。1 to 5 show an embodiment of the present invention.
【0013】本実施例は、図1に示す装置により、図2
に示すフローチャートに従って画像データを作成するよ
うに形成されている。In this embodiment, the apparatus shown in FIG.
The image data is formed according to the flowchart shown in FIG.
【0014】本実施例を、図1に示すように、例えばカ
ラー写真等の色の濃淡を有する原画像1を2値の画像デ
ータとして取込む場合について説明する。In the present embodiment, as shown in FIG. 1, a case will be described in which an original image 1 having a shade of color such as a color photograph is captured as binary image data.
【0015】この原画像1の画像データを作成する装置
は、CPUや各種のメモリ(共に図示せず)等が内蔵さ
れているコンピュータ2と、このコンピュータ2に対す
る種々の指示を入力するキーボード、マウス等の入力機
器3と、CRT等の出力機器4と、原画像1の各画素の
色濃度の階調値を読取る濃度読取り器5とにより形成さ
れている。An apparatus for creating image data of the original image 1 is a computer 2 having a built-in CPU and various memories (both not shown) and the like, and a keyboard and a mouse for inputting various instructions to the computer 2. And the like, an output device 4 such as a CRT, and a density reader 5 for reading the gradation value of the color density of each pixel of the original image 1.
【0016】次に、本発明方法を説明する。Next, the method of the present invention will be described.
【0017】先ず、濃度読取り器5を用いて原画像1の
各画素の色濃度の階調値を読取り、原画像データとして
コンピュータ2内のメモリに記憶させる。この階調値の
読取りは、公知の方法により行なうとよい。First, the gradation value of the color density of each pixel of the original image 1 is read using the density reader 5 and stored in the memory in the computer 2 as the original image data. The reading of the gradation value may be performed by a known method.
【0018】例えば、先ず読取る解像度を決定する。す
なわち、解像度として画素の大きさと、色濃度の最大値
すなわち画像データの取り得る最大階調値(Cmax)
を決定する。その後に、原画像1を画素の大きさに従っ
て、X方向およびY方向にスキャンしながら各画素
(n,m)の色濃度の階調値I(n,m)を測定して、
全体を原画像データとしてコンピュータ2内のメモリに
いったん記憶させる。ここで、前記nは各画素のX座
標、mは各画素のY座標である。For example, first, the resolution to be read is determined. That is, the pixel size as the resolution and the maximum value of the color density, that is, the maximum gradation value (Cmax) that the image data can take.
To decide. Then, the original image 1 is scanned in the X and Y directions according to the pixel size, and the gradation value I (n, m) of the color density of each pixel (n, m) is measured,
The whole is once stored in the memory in the computer 2 as original image data. Here, n is the X coordinate of each pixel, and m is the Y coordinate of each pixel.
【0019】次に、2値データへの変換に供される多値
輪郭画像データを作成する。この方法を図2に示すフロ
ーチャートに従って説明する。Next, multivalued contour image data used for conversion into binary data is created. This method will be described with reference to the flowchart shown in FIG.
【0020】先ず、ステップST11において、原画像
1を、図3に示すように、複数の局所領域1a,1b,
1c…に分割する。この各局所領域の大きさは、設定解
像度等に応じて前記入力機器3により指定するものであ
り、小さくするほど輪郭部の抽出度合が高くなる。First, in step ST11, as shown in FIG. 3, the original image 1 is converted into a plurality of local regions 1a, 1b,
1c ... The size of each local region is specified by the input device 3 according to the set resolution and the like, and the smaller the size, the higher the degree of extraction of the contour portion.
【0021】次に、ステップST12において、すべて
の局所領域に対する輪郭抽出処理が終了したか否かの判
断が行なわれる。この判断がYESの場合には処理が終
了され、NOの場合にはステップST13へ進行する。Next, in step ST12, it is determined whether or not the contour extraction processing has been completed for all local regions. If this determination is YES, the process is terminated, and if NO, the process proceeds to step ST13.
【0022】このステップST13においては、輪郭抽
出の前処理として、原画像データのコントラストを強く
するデータ処理を行なう。In step ST13, data processing for increasing the contrast of the original image data is performed as a preprocessing for contour extraction.
【0023】すなわち、原画像1の原画像データI
(n,m)の変化量が小さくてコントラストが比較的弱
い場合には、原画像データI(n,m)に対してコント
ラストを強調する前処理を施して、前処理後の原画像デ
ータIB(n,m)、すなわち IB(n,m)=T{I(n,m)}=T(i) を作成する。That is, the original image data I of the original image 1
When the change amount of (n, m) is small and the contrast is relatively weak, the original image data I (n, m) is subjected to a preprocessing for enhancing the contrast, and the original image data IB after the preprocessing is performed. (N, m), that is, IB (n, m) = T {I (n, m)} = T (i).
【0024】この場合、原画像1の色濃度の階調度数分
布をhp(i)とするとともに、目的とする階調度数分
布をhq(i)=(原画像1の全画素数/Cmax)と
し、更に、T(i)を0≦j≦iの範囲のΣhp(j)
と0≦j≦T(i)の範囲のΣhq(j)との差の絶対
値が最小となる階調値として求める。In this case, the gradation frequency distribution of the color density of the original image 1 is hp (i), and the target gradation frequency distribution is hq (i) = (total number of pixels of original image 1 / Cmax). And T (i) is Σhp (j) in the range of 0 ≦ j ≦ i.
Is obtained as a gradation value that minimizes the absolute value of the difference between Σhq (j) in the range of 0 ≦ j ≦ T (i).
【0025】次に、ステップST14において、輪郭抽
出処理を行なう。Next, in step ST14, contour extraction processing is performed.
【0026】この輪郭抽出処理は、図4に示すフローチ
ャートにしたがって行なわれる。This contour extraction processing is performed according to the flowchart shown in FIG.
【0027】先ず、ステップST21およびST22に
より、以下のステップST23からST27に示す多値
輪郭画像データの作成方法を全画素に対して施すように
している。First, in steps ST21 and ST22, the method of creating multivalued contour image data shown in the following steps ST23 to ST27 is applied to all pixels.
【0028】そして、ステップST23においては、原
画像1の各画素(n,m)に対するネガ画像データN
(n,m)、すなわち N(n,m)=Cmax−I(n,m) を作成する。Then, in step ST23, the negative image data N for each pixel (n, m) of the original image 1
(N, m), that is, N (n, m) = Cmax-I (n, m) is created.
【0029】次に、ステップST24に進行して、各画
素(n,m)に対して当該画素を含む所定領域の画素の
平均ネガ画像データからなるボケネガ画像データU
(n,m)を作成する。Next, in step ST24, blurred negative image data U consisting of average negative image data of pixels in a predetermined area including the pixel for each pixel (n, m).
Create (n, m).
【0030】これを図5により説明すると、各画素
(n,m)に対してボカシを施す当該画素を含む所定領
域となるボカシマトリックスBの大きさ(X,Y方向の
各ボカシマトリックスサイズをusx,usyとする)
を決定し、そのボカシマトリックスB内の全画素の平均
ネガ画像データを求めてボケネガ画像データU(n,
m)、すなわち U(n,m)=ΣN(n−i,m−j)/(usx×u
sy) を作成する。This will be described with reference to FIG. 5. The size of the blur matrix B, which is a predetermined region including the pixel to which each pixel (n, m) is blurred (the blur matrix size in the X and Y directions is usx. , Usy)
Is determined, and the average negative image data of all pixels in the blur matrix B is calculated to obtain the blurred negative image data U (n,
m), that is, U (n, m) = ΣN (n−i, m−j) / (usx × u
sy) is created.
【0031】ここで、前記usx,usy,i,jの値
を画像処理の内容に応じて設定することにより、図5に
示すように各画素(n,m)をボカシマトリックスBの
中央とさせたり、偏らせるとよい。また、局所領域の端
部のボケネガ画像データを求める場合には、隣接する局
所領域の画像データを用いるとよい。Here, by setting the values of usx, usy, i, j according to the contents of the image processing, each pixel (n, m) is set to the center of the blur matrix B as shown in FIG. Or you should bias it. Further, when obtaining the blurred image data of the edge of the local area, it is preferable to use the image data of the adjacent local areas.
【0032】次に、ステップST25に進行して、各画
素(n,m)について前記原画像データI(n,m)と
ボケネガ画像データU(n,m)とにそれぞれ所定の係
数(WI,WN)を乗じて加算して多値輪郭画像データ
L(n,m)、すなわち L(n,m)=WI・I(n,m)+WN・U(n,
m) を求める。Next, in step ST25, a predetermined coefficient (WI, WI) is added to the original image data I (n, m) and the blurred negative image data U (n, m) for each pixel (n, m). WN) is multiplied and added to obtain multilevel contour image data L (n, m), that is, L (n, m) = WI · I (n, m) + WN · U (n,
m) is calculated.
【0033】この各係数(WI,WN)は画像処理の内
容に応じて、0〜1の範囲において自由に設定するとよ
い。Each coefficient (WI, WN) may be freely set within the range of 0 to 1 according to the contents of image processing.
【0034】次に、ステップST26およびST27に
より、前記多値輪郭画像データL(n,m)を所定の階
調値の範囲内、すなわち画像データの取り得る最大階調
値(Cmax)内に納めることにより、2値データへの
変換に供される多値輪郭画像データL2(n,m)を作
成する 更に説明すると、ステップST26において、前記多値
輪郭画像データL(n,m)が画像データの取り得る最
大階調値(Cmax)を超えるか否かを判断し、超えな
いNOの場合には、 L2(n,m)=L(n,m) として、ステップST12に戻る。Next, in steps ST26 and ST27, the multivalued contour image data L (n, m) is stored within a predetermined gradation value range, that is, within the maximum gradation value (Cmax) that the image data can have. By doing so, the multi-valued contour image data L2 (n, m) to be used for conversion into binary data is further described. In step ST26, the multi-valued contour image data L (n, m) is converted into image data. Of the maximum gradation value (Cmax) that can be taken is determined, and if NO is not exceeded, L2 (n, m) = L (n, m) is set and the process returns to step ST12.
【0035】前記判断がYESの場合には、 L2(n,m)=Cmax として、ステップST22に戻る。When the above determination is YES, L2 (n, m) = Cmax is set and the process returns to step ST22.
【0036】このように、本実施例によれば、原画像1
の各画素(n,m)の原画像データI(n,m)に対し
て、当該画素のボケネガ画像データU(n,m)を重ね
合せることにより、2値データへの変換に供される多値
輪郭画像データL2(n,m)を作成するものであるか
ら、従来のようにデータをずらして重ね合わせるもので
はないので、前記原画像1内の物体の輪郭を精度よく良
好に抽出した画像データを得ることができる。Thus, according to this embodiment, the original image 1
The original image data I (n, m) of each pixel (n, m) is superposed with the blurred negative image data U (n, m) of the pixel to be used for conversion into binary data. Since the multi-valued contour image data L2 (n, m) is created, the data is not shifted and overlapped as in the conventional case. Therefore, the contour of the object in the original image 1 is accurately and favorably extracted. Image data can be obtained.
【0037】次に、ステップST15に進行して、前記
多値輪郭画像データL2(n,m)に対して、更に後処
理を施す。Next, in step ST15, the multivalued contour image data L2 (n, m) is further post-processed.
【0038】すなわち、多値輪郭画像データL2(n,
m)の階調値を、所定の階調値内、例えば、前記画像デ
ータの取り得る最小階調値から最大階調値(Cmax)
までの範囲に、線形濃度変換して2値データへの変換に
供される後処理後の多値輪郭画像データLA(n,
m)、すなわち LA(n,m)={(Cmax−Cmin)/(L2m
ax−L2min)}×{L2(n,m)−L2mi
n)} を求める。That is, the multivalued contour image data L2 (n,
m) the gradation value within a predetermined gradation value, for example, from the minimum gradation value that the image data can take to the maximum gradation value (Cmax)
Up to the range up to the post-processing multi-valued contour image data LA (n, which is used for linear density conversion and conversion into binary data
m), that is, LA (n, m) = {(Cmax-Cmin) / (L2m
ax-L2min)} * {L2 (n, m) -L2mi
n)} is calculated.
【0039】この後処理は、得られたL2(n,m)の
範囲(L2max−L2min)が画像データの取り得
る範囲(Cmax−Cmin)より狭い場合に、当該
(L2max−L2min)の範囲を(Cmax−Cm
in)の範囲と同一となるように比例配分して広げるも
のである。In this post-processing, if the obtained range of L2 (n, m) (L2max-L2min) is narrower than the range of image data (Cmax-Cmin), the range of (L2max-L2min) is set. (Cmax-Cm
in), so that it is the same as the range of (in).
【0040】これにより画像データの取り得る範囲(C
max−Cmin)の全体を利用した多値輪郭画像デー
タLA(n,m)を得ることができる。As a result, the range (C
It is possible to obtain the multivalued contour image data LA (n, m) using the entire (max-Cmin).
【0041】このようにして得られた多値輪郭画像デー
タLA(n,m)に対して、白黒の2値に変換するしき
い値(Cx)を画像処理の内容に応じて画像データの取
り得る範囲(Cmax−Cmin)内に設定し、多値輪
郭画像データLA(n,m)が前記しきい値(Cx)よ
り大きい画素を白とし、前記しきい値(Cx)より小さ
い画素を黒とし、全体として2値の画像データを作成す
る。For the multi-valued contour image data LA (n, m) thus obtained, a threshold value (Cx) for converting into binary of black and white is obtained according to the contents of the image processing. It is set within the range (Cmax-Cmin) to obtain, and the pixels whose multivalued contour image data LA (n, m) is larger than the threshold value (Cx) are white, and the pixels smaller than the threshold value (Cx) are black. Then, binary image data is created as a whole.
【0042】その後、ステップST12に戻り、その判
断がYESとなるまで、すなわち、すべての局所領域に
対する輪郭抽出処理が終するまで、ステップST13か
らST15の処理が継続して行なわれる。After that, the process returns to step ST12, and the processes of steps ST13 to ST15 are continuously performed until the determination becomes YES, that is, until the contour extraction process for all local regions is completed.
【0043】次に、図6から図11に示す具体的な実施
例により本発明方法を説明する。Next, the method of the present invention will be described with reference to specific examples shown in FIGS.
【0044】本実施例は、図6に示すカラー写真からな
る原画像1から2値の画像データを取出すようにしたも
のである。解像度としては、原画像1をX方向×Y方向
=690×520の画素数に分解するとともに、各局所
領域の大きさをX方向×Y方向=25×25の画素に設
定し、色濃度を0〜255の階調値に設定した。In this embodiment, binary image data is extracted from the original image 1 consisting of the color photograph shown in FIG. As the resolution, the original image 1 is decomposed into the number of pixels of X direction × Y direction = 690 × 520, and the size of each local region is set to the pixels of X direction × Y direction = 25 × 25 to set the color density. The gradation value is set to 0 to 255.
【0045】この原画像1のY座標=68の部分の原画
像データI(n,m)は、図7に示す通りとなり、2値
データへの変換に供される多値輪郭画像データLA
(n,m)は、図8に示す通りとなった。比較のための
従来方法による多値輪郭画像データは、図9に示す通り
となった。The original image data I (n, m) of the Y-coordinate = 68 portion of the original image 1 is as shown in FIG. 7, and is the multivalued contour image data LA used for conversion into binary data.
(N, m) is as shown in FIG. The multilevel contour image data by the conventional method for comparison is as shown in FIG.
【0046】そして、図8に示すような多値輪郭画像デ
ータLA(n,m)を公知のディザ法により処理してプ
リンタにより出力すると図10のようになり、また、図
9に示すような従来方法による多値輪郭画像データを前
記と同様にディザ法により処理してプリンタにより出力
すると図11のようになる。Then, when the multivalued contour image data LA (n, m) as shown in FIG. 8 is processed by the known dither method and output by the printer, it becomes as shown in FIG. 10 and as shown in FIG. FIG. 11 shows the multi-valued contour image data processed by the conventional method by the dither method and output by the printer as described above.
【0047】これらの図7から図11より明らかなよう
に、本実施例によると、従来例に比べて原画像1内の物
体の輪郭部が明確に強調されており、輪郭部が2値の画
像データに精度よく、しかも確実に抽出されることがわ
かる。As is apparent from FIGS. 7 to 11, according to the present embodiment, the contour portion of the object in the original image 1 is clearly emphasized as compared with the conventional example, and the contour portion has a binary value. It can be seen that the image data can be extracted accurately and surely.
【0048】なお、本発明は前記実施例に限定されるも
のではなく、例えばモノクロ写真やその他階調値を有す
る画像であれば、すべて適用することができるものであ
り、必要に応じて変更することができる。The present invention is not limited to the above-described embodiment, but can be applied to all the monochrome images and other images having gradation values, and can be changed as necessary. be able to.
【0049】[0049]
【発明の効果】このように本発明の画像処理方法は、原
画像を複数の局所領域に分割し、各局所領域の各画素の
原画像データに対して、コントラストを強調し、その後
当該画素のボケネガ画像データを重ね合せ、更にそのデ
ータを所定の階調値の範囲内に線形濃度変換することに
より、2値データへの変換に供される多値輪郭画像デー
タを作成するものであるから、原画像データを2値デー
タに変換する場合に、当該原画像内の物体の輪郭を精度
よく良好に抽出することのできる等の効果を奏する。As described above, the image processing method of the present invention divides the original image into a plurality of local regions, emphasizes the contrast of the original image data of each pixel in each local region, and then Since the blurred image data is overlaid and the data is linearly density-converted within a range of a predetermined gradation value, multivalued contour image data used for conversion into binary data is created. When the original image data is converted into binary data, the contour of the object in the original image can be extracted accurately and favorably.
【図1】本発明の画像処理方法を実施するための装置の
概略図FIG. 1 is a schematic view of an apparatus for carrying out an image processing method of the present invention.
【図2】本発明方法の1実施例を示すフローチャートFIG. 2 is a flowchart showing an embodiment of the method of the present invention.
【図3】原画像の拡大説明図FIG. 3 is an enlarged explanatory diagram of an original image.
【図4】本発明方法の輪郭抽出処理の1実施例を示すフ
ローチャートFIG. 4 is a flowchart showing an embodiment of contour extraction processing of the method of the present invention.
【図5】図3のA部の拡大図5 is an enlarged view of part A of FIG.
【図6】本発明方法を適用する原画像図FIG. 6 is an original image diagram to which the method of the present invention is applied.
【図7】原画像データを示す色濃度の階調グラフFIG. 7 is a color density gradation graph showing original image data.
【図8】図6の原画像データより本発明方法に基づいて
求められた2値データへの変換に供される多値輪郭画像
データLA(n,m)を示すグラフ8 is a graph showing multivalued contour image data LA (n, m) used for conversion from the original image data of FIG. 6 into binary data obtained based on the method of the present invention.
【図9】比較のための従来方法による多値輪郭画像デー
タを示すグラフFIG. 9 is a graph showing multivalued contour image data by a conventional method for comparison.
【図10】図6の原画像に対して、本発明方法を施して
得た多値輪郭画像データを、ディザ法により処理してプ
リンタにより出力した画像図FIG. 10 is an image diagram in which multivalued contour image data obtained by applying the method of the present invention to the original image of FIG. 6 is processed by a dither method and output by a printer.
【図11】従来方法を施して得た多値輪郭画像データ
を、ディザ法により処理してプリンタにより出力した画
像図 1 原画像FIG. 11 is an image diagram of an original image in which multivalued contour image data obtained by applying a conventional method is processed by a dither method and output by a printer.
【手続補正書】[Procedure amendment]
【提出日】平成6年2月22日[Submission date] February 22, 1994
【手続補正1】[Procedure Amendment 1]
【補正対象書類名】図面[Document name to be corrected] Drawing
【補正対象項目名】図6[Name of item to be corrected] Figure 6
【補正方法】変更[Correction method] Change
【補正内容】[Correction content]
【図6】 [Figure 6]
Claims (1)
より構成されている原画像データを、前記各画素のデー
タを白黒の2値のいずれか一方とする2値データに変換
する際に、前記原画像データを複数の局所領域に分割
し、各局所領域における前記原画像データのコントラス
トを強くするデータ処理を施し、その後原画像データの
各画素に対してネガ画像データを作成し、その後各画素
に対して当該画素を含む所定領域の画素の平均ネガ画像
データからなるボケネガ画像データを作成し、各画素に
ついて前記原画像データとボケネガ画像データとにそれ
ぞれ所定の係数を乗じて加算して多値輪郭画像データを
求めるとともに、この多値輪郭画像データを所定の階調
値の範囲内に線形濃度変換して納めることにより、前記
2値データへの変換に供される多値輪郭画像データを作
成することを特徴とする画像処理方法。1. When converting original image data in which each of a plurality of pixels is composed of a plurality of gradation values into binary data in which the data of each pixel is one of binary black and white , The original image data is divided into a plurality of local regions, subjected to data processing to increase the contrast of the original image data in each local region, then create negative image data for each pixel of the original image data, For each pixel, blur image data consisting of average negative image data of pixels in a predetermined area including the pixel is created, and for each pixel, the original image data and the blur negative image data are respectively multiplied by a predetermined coefficient and added. The multi-valued contour image data is obtained, and the multi-valued contour image data is converted into the binary data by linear density conversion within the range of a predetermined gradation value. An image processing method, characterized in that multi-valued contour image data to be provided is created.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4204195A JPH06282646A (en) | 1992-06-22 | 1992-06-22 | Picture processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4204195A JPH06282646A (en) | 1992-06-22 | 1992-06-22 | Picture processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH06282646A true JPH06282646A (en) | 1994-10-07 |
Family
ID=16486410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4204195A Pending JPH06282646A (en) | 1992-06-22 | 1992-06-22 | Picture processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH06282646A (en) |
-
1992
- 1992-06-22 JP JP4204195A patent/JPH06282646A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6324309B1 (en) | Image processing apparatus | |
EP1323132B1 (en) | Image sharpening by variable contrast stretching | |
JP4667062B2 (en) | Image analysis apparatus, image analysis method, and blob identification apparatus | |
US6771793B1 (en) | Image processing method and apparatus | |
JP3848403B2 (en) | Image segmentation system | |
US20030161534A1 (en) | Feature recognition using loose gray scale template matching | |
US7437002B2 (en) | Image recognition system utilizing an edge image and a binary image | |
US8384964B2 (en) | Image processing apparatus and image processing method | |
US20030179935A1 (en) | Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program | |
US6721458B1 (en) | Artifact reduction using adaptive nonlinear filters | |
JP6781406B2 (en) | Image processing equipment and computer programs | |
US5434931A (en) | System and method for picture image processing employing transformation of picture data | |
JP4496602B2 (en) | Image processing method and image processing apparatus | |
JP2004166007A (en) | Device, method and program for image processing, and storage medium | |
JP3515019B2 (en) | Image correction method and apparatus, recording medium recording the method, image photographing apparatus incorporating the apparatus, and image display apparatus incorporating the apparatus | |
US6985629B2 (en) | Image processing method, relative density detecting method and image processing apparatus | |
JP2777202B2 (en) | Image processing device | |
JPH06282646A (en) | Picture processing method | |
JP2000357226A (en) | Method for binarizing light and shade image and recording medium where binarizing program is recorded | |
JPH06282647A (en) | Picture processing method | |
JPH06282645A (en) | Picture data processing method | |
JP4035696B2 (en) | Line segment detection apparatus and image processing apparatus | |
JP4324532B2 (en) | Image processing apparatus and storage medium | |
JPS60136478A (en) | Picture processor | |
JPH04236574A (en) | Picture coding system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 19990629 |