JPH01232893A - Noise elimination method for color picture - Google Patents

Noise elimination method for color picture

Info

Publication number
JPH01232893A
JPH01232893A JP63058937A JP5893788A JPH01232893A JP H01232893 A JPH01232893 A JP H01232893A JP 63058937 A JP63058937 A JP 63058937A JP 5893788 A JP5893788 A JP 5893788A JP H01232893 A JPH01232893 A JP H01232893A
Authority
JP
Japan
Prior art keywords
color
area
processing
areas
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63058937A
Other languages
Japanese (ja)
Inventor
Kaoru Imao
今尾 薫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP63058937A priority Critical patent/JPH01232893A/en
Publication of JPH01232893A publication Critical patent/JPH01232893A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Television Systems (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

PURPOSE:To effectively eliminate noise at a contour part in versatile color pictures by applying color change in terms of probability in response to the noise-like degree. CONSTITUTION:A color picture of a processing object is read by an external scanner and its quantized data is stored in a picture memory 101. A CPU 102 applies the processing for noise rejection and its pre-processing according to a processing program 105 stored in a program memory 103. In the processing for noise rejection, the CPU 102 obtains a function of a color difference with two areas and its interval as to the area with a prescribed width or below having a color in the color mixture relation with the two areas and clipped by the two areas close to each other having a prescribed width and applies color conversion with a probability in response to the value. A data memory 104 is used to stored the data on the way of processing and its processing result data.

Description

【発明の詳細な説明】 〔技術分野〕 本発明は、画像情報を扱う装置類において、画像中のノ
イズを除去する方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field] The present invention relates to a method for removing noise in an image in devices that handle image information.

〔従来技術〕[Prior art]

従来、画像のフィルタリングによる−様な処理を行い、
画像中のノイズの除去を行っている。
Traditionally, image filtering is used to perform similar processing.
Noise in the image is removed.

しかし、画像の属性に応じてパラメータの調整(チュー
ニング)が必要になるという問題があった。また、平滑
処理と鮮鋭化処理の両立を難しく、粒状ノイズを除去す
るための処理(平滑処理)を行うと、画像の輪郭部のボ
ケが生じるなどの問題があった。
However, there is a problem in that parameters need to be adjusted (tuned) depending on the attributes of the image. Furthermore, it is difficult to achieve both smoothing processing and sharpening processing, and when processing for removing granular noise (smoothing processing) is performed, there are problems such as blurring of the outline of the image.

なお、この種のノイズ除去に関する公知資料として″強
調と平滑化処理′″、中村2月刊誌「オー・プラス・イ
ー(Oplus E) J 、 Na75.1986年
2月(株式会社新技術]ミュニケーション発行)、第8
3頁から第97頁などがある。
Publicly known materials regarding this type of noise removal include ``Enhancement and Smoothing Process'', published by Nakamura February Monthly Magazine ``Oplus E J, Na75.February 1986 (Shintechi Co., Ltd.) Communication ), 8th
There are pages 3 to 97, etc.

〔目 的〕〔the purpose〕

本発明の目的は、画像毎にパラメータの調整を行うこと
なく、多様なカラー画像中のノイズ、特に輪郭部のノイ
ズを効果的に除去し輪郭部を鮮鋭化することができるノ
イズ除去方法を提供することにある。
An object of the present invention is to provide a noise removal method that can effectively remove noise in a variety of color images, especially noise on contours, and sharpen contours without adjusting parameters for each image. It's about doing.

〔構 成〕〔composition〕

本発明は、画像輪郭部のあいまい性を確率処理すること
により、輪郭部を鮮鋭化することを特徴とするものであ
る。
The present invention is characterized in that the image contour is sharpened by performing probability processing on ambiguity in the image contour.

すなわち本発明によれば、カラー画像において、輪郭部
の領域のノイズらしさの度合いを調べ、この度合いがあ
る限界を越えたときに一律に色変更(領域統合)を行う
のではなく、ノイズらしさの度合いに応じた確率的な色
変更(領域統合)を行う。
In other words, according to the present invention, in a color image, the degree of noise-likeness of the contour area is checked, and when this degree exceeds a certain limit, the color is not uniformly changed (area integration), but the degree of noise-likeness is checked. Probabilistic color change (region integration) is performed according to the degree of change.

さらに詳細には、近接した一定幅以下の2領域で挟まれ
、該2領域と混色関係の色を持つ一定幅以下の領域aに
ついて、該2領域中の該領域aに対する色差が小さいほ
うの領域すとの色差および距離によって決まる値E=f
 (色差、距離)を測定する。この関数fは色差が大き
いほどまた距離が小さいほど値Eが大きくなる関数とす
る。そして値Eに応じた確率で、領域aの領域すの色へ
の色変更(領域aの領域すへの統合)を行うことにより
、輪郭部のあいまい領域(ノイズ)を除去し輪郭部の鮮
鋭化を達成する。
More specifically, for an area a of a certain width or less that is sandwiched between two adjacent areas of a certain width or less and has a color in a mixed color relationship with the two areas, the area that has a smaller color difference with respect to the area a of the two areas. The value E=f determined by the color difference and distance between the two
(color difference, distance). This function f is a function in which the value E increases as the color difference increases and as the distance decreases. Then, by changing the color of area a to the color of the area (integration of area a into the area) with a probability according to the value E, ambiguous areas (noise) on the outline are removed and the outline is sharpened. to achieve

〔実施例〕〔Example〕

以下1図面を用い本発明の一実施例について説明する。 An embodiment of the present invention will be described below with reference to one drawing.

第1図は本発明を実施するための装置構成の一例を示し
ている。101は画像メモリ、102は中央処理装置(
CPU)、103はプログラムメモリ、104はデータ
メモリである。
FIG. 1 shows an example of an apparatus configuration for implementing the present invention. 101 is an image memory, 102 is a central processing unit (
103 is a program memory, and 104 is a data memory.

処理対象のカラー画像は外部のスキャナによって読取ら
れ、その量子化データは画像メモリ101に格納される
。このカラー画像について、ノイズ除去のための処理と
その前処理が中央処理装置102により実行されるが、
その処理プログラム105はプログラムメモリ103に
格納されている。ノイズ除去のためのルールは後述のよ
うに■。
A color image to be processed is read by an external scanner, and its quantized data is stored in image memory 101. Regarding this color image, processing for noise removal and its preprocessing are executed by the central processing unit 102.
The processing program 105 is stored in the program memory 103. The rules for noise removal are as described below■.

■、■の三つがあり、これは処理プログラム105に組
込まれているが、ルールベースとして独立させてもよい
、データメモリ104は、処理途中のデータおよび処理
結果データを格納するために使用される。
There are three types, (1) and (2), which are incorporated into the processing program 105, but may also be made independent as a rule base.The data memory 104 is used to store data in the middle of processing and processing result data. .

次に第2図に示した流れ図によって、処理の全体的な流
れを説明する。
Next, the overall flow of the process will be explained with reference to the flowchart shown in FIG.

まず画像メモリ101内のカラー画像について、色が均
一の領域毎にラベルを付ける(ステップ201)1次に
、このラベリング後のカラー画像を再帰的に四分割する
ことにより、カラー画像四分木構造で記述し、その記述
データをデータメモリ104内の画像記述データ部10
6に格納する(ステップ202)、木構造のリーフには
、各領域の識別番号を付属情報としてもたす。
First, for the color image in the image memory 101, a label is attached to each area of uniform color (step 201).Next, the color image after this labeling is recursively divided into four parts, thereby creating a color image quadtree structure. The description data is stored in the image description data section 10 in the data memory 104.
6 (step 202), the identification number of each area is provided as attached information to the leaves of the tree structure.

なお、こ5までの処理は新しいものではないので、詳細
な説明は省略する。また、四分木構造に代えて二分木な
どの木構造で記述してもよい。
Note that since the processing up to step 5 is not new, detailed explanation will be omitted. Further, instead of the quadtree structure, a tree structure such as a binary tree may be used.

このように画像を木構造で記述すると、データ量を削減
できるとNもに、その後の処理における画像中の領域の
位相空間的な検索を高速に実行できる。
When an image is described in a tree structure in this way, not only can the amount of data be reduced, but also a topological spatial search for a region in the image can be executed at high speed in subsequent processing.

次に、画像記述データを参照することにより、第3図に
示すテーブル1と第4図に示すテーブル2を、データメ
モリ104内の記憶部107,108上にそれぞれ作成
する(ステップ203)。
Next, by referring to the image description data, table 1 shown in FIG. 3 and table 2 shown in FIG. 4 are created on storage units 107 and 108 in data memory 104, respectively (step 203).

テーブル1にはラベリングされた各領域毎に、領域識別
番号、色識別番号、面積(画素数)および領域の外接矩
形情報を格納する。
Table 1 stores, for each labeled area, area identification number, color identification number, area (number of pixels), and area circumscribing rectangle information.

第5図はこの外接矩形情報の説明図であり、501ばラ
ベリングされた一つの均等色領域であり、その外接矩形
(破線)の対角頂点の座1jll(minx。
FIG. 5 is an explanatory diagram of this circumscribed rectangle information, where 501 is one labeled uniform color area, and the position 1jll (minx) of the diagonal vertex of the circumscribed rectangle (broken line).

1hiny) 、 (maxx、 maxy)が外接矩
形情報としてテーブル1に格納される。
1hiny) and (maxx, maxy) are stored in table 1 as circumscribed rectangle information.

画像領域の位相空間的検索の際、この外接矩形情報によ
って検索する領域範囲を限定することにより、効率的な
検索が可能になる。
When performing a topological spatial search for an image region, by limiting the range of the region to be searched using this circumscribed rectangle information, efficient search becomes possible.

テーブル2には上記色識別番号毎に、その色に対応した
R(赤)、G(緑)、B(青)の3[色のデータを格納
し、また、この3原色データをもとにして、色識別番号
に対応した色を均等色空間であるLIa*b傘空間に変
換し、そのLm値、a傘値、b中値を格納する。このよ
うに、均等色空間であるI、*a*b傘表色系を使用す
ることにより、人間の視覚特性にあったノイズ判定が可
能になる。
Table 2 stores the three color data of R (red), G (green), and B (blue) corresponding to each color identification number above, and also Then, the color corresponding to the color identification number is converted into LIa*b umbrella space, which is a uniform color space, and its Lm value, a umbrella value, and b middle value are stored. In this way, by using the I, *a*b umbrella color system, which is a uniform color space, it becomes possible to perform noise determination that matches human visual characteristics.

ステップ204からステップ206は、画像記述データ
とテーブル1,2を参照しルールI、II。
Steps 204 to 206 refer to the image description data and Tables 1 and 2 to determine Rules I and II.

■によるノイズ除去を行う処理部分である。This is the processing part that performs noise removal according to (2).

ステップ204で注目領域aを設定し、ステップ205
でルールI、II、IIIを順に適用してノイズ除去を
行う。そして、ステップ206で全領域を注目領域に設
定済みであるか否かを判定し、未設定の領域が残ってい
ればステップ204に戻って次の注目領域を設定して処
理を行う。
At step 204, a region of interest a is set, and at step 205
Then, rules I, II, and III are sequentially applied to remove noise. Then, in step 206, it is determined whether all areas have been set as attention areas, and if there are any unset areas remaining, the process returns to step 204 to set the next attention area and perform processing.

こ\で、本実施例においては、ノイズらしさの度合いと
して「地肌塵」と「エツジ度」を使用する。地肌塵は注
目領域の濃度と面積によって決まるものであり、エツジ
度は注目2領域間の距離と色差によって決まるもので、
それぞれ次のように定義される。
In this embodiment, "ground dust" and "edge degree" are used as the degree of noise-likeness. Background dust is determined by the density and area of the area of interest, and edge degree is determined by the distance and color difference between the two areas of interest.
Each is defined as follows.

地肌塵=COMB (wl ・D、 w2 ・S)  
  (1)エツジ度=COMB (w3 ・L、w4 
・E)     (2)こ\で、C= COM B (
a 、 b )は次のように定義される。
Background dust = COMB (wl ・D, w2 ・S)
(1) Edge degree = COMB (w3 ・L, w4
・E) (2) Here, C= COM B (
a, b) are defined as follows.

■ a=1またはb=1ならばC=1 ■ a > Oかつb〉0ならばC= a + b −
a b■ ab≦0かつa〜±1かつb〜±1ならばC
=a+b ■ a < Oかつb<oならばC= a + b +
 a b■ a=−1またはb=−1ならばC=−1式
(1)、 (2)において、wiは重み付は係数、Dは
濃度レベル、Sは面積、Lは距離、Eは色差である。
■ If a=1 or b=1 then C=1 ■ If a > O and b>0 then C= a + b −
a b■ If ab≦0 and a~±1 and b~±1 then C
= a + b ■ If a < O and b < o, then C = a + b +
a b ■ If a = -1 or b = -1, then C = -1 In equations (1) and (2), wi is the weighting coefficient, D is the concentration level, S is the area, L is the distance, and E is It's the color difference.

D、S、L、Eはその度合いによって−1から+1まで
の値で表現する。すなわち地肌塵、エツジ度とも−1か
ら+1までの値であり、濃度レベルが低く(白に近い)
、面積が大きいほど地肌塵は高く、距離が小さく色差が
大きいほどエツジ度は高くなる。なお、Lは2領域の幅
のうちの小さいほうは幅値で代用し、DはLm値で代用
する。
D, S, L, and E are expressed as values from -1 to +1 depending on their degree. In other words, both the background dust and edge degree are values from -1 to +1, and the density level is low (close to white).
, the larger the area, the higher the background dust, and the smaller the distance and the larger the color difference, the higher the edge degree. Note that the width value of the smaller of the widths of the two regions is substituted for L, and the Lm value is substituted for D.

またEはL * B * b傘表色系での色差とする。Furthermore, E is the color difference in the L*B*b umbrella color system.

次にステップ205の処理について、適用するルール毎
に説明する。
Next, the process of step 205 will be explained for each applied rule.

まず、ルールIによる処理が行われる。ルール■は隣接
している領域間の統合ルールであり、この処理により主
に色濃度むらによるノイズの除去が行われる。第6図は
その流れ図である。
First, processing according to Rule I is performed. Rule (2) is an integration rule between adjacent areas, and this process mainly removes noise caused by color density unevenness. FIG. 6 is a flowchart.

注目領域aに隣接している領域集合B=(bilbiは
aに隣接して領域)を木構造上で検索する(ステップ6
01)、注目領域aと一つの隣接領域b1とのエツジ度
を測定する(ステップ602)。
The tree structure is searched for the region set B = (bilbi is the region adjacent to a) adjacent to the region of interest a (step 6
01), the degree of edge between the region of interest a and one adjacent region b1 is measured (step 602).

注目領域aの面積と隣接領域biの面積との比較判定を
行う(ステップ603)。
A comparison is made between the area of the attention area a and the area of the adjacent area bi (step 603).

注目領域aの面積が隣接領域biの面積より大きいとき
は、注目領域aに隣接領域biを統合し、そうでないと
きは注目領域aを隣接領域biに統合する(ステップ6
04,605)。
When the area of the attention area a is larger than the area of the adjacent area bi, the adjacent area bi is integrated into the attention area a; otherwise, the attention area a is integrated into the adjacent area bi (step 6
04,605).

この統合は一律に行うのではなく、エツジ度の度合いに
応じた確率で行う、この統合確率は第7図に示すように
、エツジ度がある値以上では0%、その値未満ではエツ
ジ度が小さいほど大きくなり。
This integration is not performed uniformly, but with a probability that depends on the degree of edgeness.As shown in Figure 7, this integration probability is 0% when the degree of edgeness is above a certain value, and when the degree of edgeness is less than that value. The smaller the bigger.

エツジ度=−1で100%になるものとする。すなわち
、エツジ度に応じた統合確率が100%のときは必ず統
合を行い、統合確率が0%のときは統合を行わず、統合
確率が50%のときは平均的に2回に1回の割合で統合
を行うというような、エツジ度に応じた確率的統合処理
が行われる。
It is assumed that the edge degree is 100% at -1. In other words, when the integration probability according to the edge degree is 100%, integration is always performed, when the integration probability is 0%, integration is not performed, and when the integration probability is 50%, integration is performed once every two times on average. Stochastic integration processing is performed according to the degree of edge, such as integration based on proportions.

このように、あいまい性のあるノイズの領域を確率的に
統合するため、エツジ度が固定した閾値を越えたときに
一律に領域統合を行う方法と違って、画像毎にノイズ除
去処理のパラメータの調整(チューニング)を行うこと
なく、多様な画像に対し良好なノイズ除去が可能である
In this way, in order to stochastically integrate ambiguous noise regions, unlike the method of uniformly integrating regions when the edge degree exceeds a fixed threshold, the noise removal processing parameters are adjusted for each image. Good noise removal is possible for a variety of images without any adjustment (tuning).

注目領域aと一つの隣接領域biに関する以上の処理を
行うと、領域集合B内の全領域biについての処理終了
の判定を行い(ステップ606)、残りの領域biがあ
ればステップ602から処理を再開する。
After the above processing for the region of interest a and one adjacent region bi is performed, it is determined whether the processing has ended for all regions bi in the region set B (step 606), and if there is any remaining region bi, the processing starts from step 602. resume.

このような処理によって結合された領域については1画
像記述データおよびテーブル1が更新される。
One image description data and table 1 are updated for the combined areas through such processing.

なお、このルール■による領域統合処理を、注目領域の
面積の大小を考慮せずに実行すると、面積の小さい領域
を中心として統合が進むことがある。一般に面′積の小
さい領域は不確かな情報であるため1面積の大きい領域
から、それを中心にして統合を進めたほうが、より正確
な統合を達成できる。そのため、全領域を面積順にソー
トし、面積の大きい順に注目領域を設定して統合処理を
進めることが好ましい。しかし、ソート処理は非常に長
い処理時間を必要とするという問題がある。
Note that if the region integration processing according to this rule (2) is executed without considering the size of the area of the region of interest, the integration may proceed mainly in regions with small areas. Generally, a region with a small surface area contains uncertain information, so more accurate integration can be achieved by starting from a region with a large surface area and proceeding with the integration centering on that region. Therefore, it is preferable to sort all regions in order of area, set regions of interest in descending order of area, and proceed with the integration process. However, there is a problem in that the sorting process requires a very long processing time.

このソートを行わずに、ソートを行った場合と同様の効
果を得るための処理方式の一例を第8図に示す、ステッ
プ801は第2図中のステップ201からステップ20
3と同じ処理部分であり、ステップ804,807は第
2図中のステップ204.206と同様の処理ステップ
である。ステップ806は第6図中のステップ601か
らステップ606までと同様の処理ステップである。
An example of a processing method for obtaining the same effect as sorting without performing this sorting is shown in FIG. 8. Step 801 corresponds to steps 201 to 20 in FIG.
3, and steps 804 and 807 are the same processing steps as steps 204 and 206 in FIG. Step 806 is a processing step similar to steps 601 to 606 in FIG.

ステップ802はカウンタnの初期設定ステップ、ステ
ップ808はカウンタnの値と最大限にとの比較判定の
ステップである。
Step 802 is a step of initializing the counter n, and step 808 is a step of comparing and determining the value of the counter n with the maximum value.

ステップ805は、ステップ804で設定された注目領
域aの面積と81およびS2との比較判定であり、この
判定条件を満足した注目領域だけがステップ806の処
理対象になる。
Step 805 is a comparison judgment between the area of the attention area a set in step 804 and 81 and S2, and only the attention area that satisfies this determination condition becomes the processing target of step 806.

こNで、Sl、S2はnの値に応じて変化する値であり
、例えば、 n=1のとき5l=200.S2=無限大n = 2の
とき5l=lOO,52=200n=3のとき5L=1
0. 52=100n=4のときSl、=O,52=l
O である。
In this N, Sl and S2 are values that change depending on the value of n. For example, when n=1, 5l=200. S2=infinity When n=2, 5l=lOO, 52=200 When n=3, 5L=1
0. When 52=100n=4, Sl,=O,52=l
It is O.

以上のようなルールIによるノイズ除去処理後、ルール
■によるノイズ除去処理が実行される。このルール■は
大きな領域に包含された小領域の統合ルールであり、こ
の処理でホワイトノイズ、網点、電子写真方式における
カラートナーの付着ノイズを想定したノイズ除去が行わ
れる。第9図はこの処理の流れ図である まず、注目領域aの面積が閾値Th1以上であるか調べ
(ステップ901)、Th1以上の面積であれば、注目
領域aに包含されている領域集合B= (bi l b
iはaに包含されている領域)を木構造上で検索する(
ステップ902)。
After the noise removal process according to rule I as described above, the noise removal process according to rule (2) is executed. This rule (2) is an integration rule for a small area included in a large area, and this process performs noise removal assuming white noise, halftone dots, and color toner adhesion noise in electrophotography. FIG. 9 is a flowchart of this process. First, it is checked whether the area of the attention area a is equal to or larger than the threshold value Th1 (step 901), and if the area is equal to or greater than Th1, the area set B included in the attention area a= (bi l b
i is the area included in a) on the tree structure (
Step 902).

この領域集合Bを色差の小さい領域Ciにクラスタリン
グする(ステップ903)。領域CiはBの部分集合で
あり、それぞれは木構造上の一つ以上の領域biからな
り、相互に重なりあわない。
This region set B is clustered into regions Ci with small color differences (step 903). The areas Ci are a subset of B, each consisting of one or more areas bi in a tree structure, and do not overlap with each other.

すなわち、B=CIUC2U・・・CkU・・・である
That is, B=CIUC2U...CkU...

各領域Ciを注目領域aに対する色差と、面積および「
集合度」によりカテゴリー1.2.3に分類する(ステ
ップ904)、なお、集合度は領域Ciの要素(領域b
i)の数を領域aの面積で割った値である。
Each region Ci is defined as the color difference with respect to the region of interest a, the area and "
The degree of aggregation is classified into categories 1.2.3 (step 904).
It is the value obtained by dividing the number i) by the area of region a.

カテゴリー1はホワイトノイズを想定したものであり、
色差がかなり小さく、面積が大きくない領域がこれに分
類される。カテゴリー2は網点を想定したものであり、
色差が中位、面積が小さく、集合度が中位の領域がこれ
に分類される。カテゴリー3はカラートナーの付着ノイ
ズを想定したものであり、色差がかなり大で、面積が小
さく、集合度がかなりtJsさい領域がこれに分類され
る。なお、カテゴリー3に関しては、さらに、例えばY
(黄色)1M(マゼンタ)、C(シアン)、BK(黒)
のインクの色であるという、色の条件を追加してもよい
Category 1 is assumed to be white noise,
Areas where the color difference is fairly small and the area is not large are classified into this category. Category 2 assumes halftone dots,
Regions with medium color difference, small area, and medium aggregation degree are classified into this category. Category 3 is assumed to be the adhesion noise of color toner, and an area where the color difference is quite large, the area is small, and the aggregation degree is quite small tJs is classified into this category. Regarding category 3, furthermore, for example, Y
(yellow) 1M (magenta), C (cyan), BK (black)
You may also add a color condition that the ink color is the same.

以上のいずれのカテゴリーにも分類されない領域Ciは
ノイズでない(有効な情報である)ので、領域統合の対
象から除外される。
Areas Ci that are not classified into any of the above categories are not noise (they are valid information) and are therefore excluded from area integration targets.

B内の少なくとも一つのChiがカテゴリー1゜2.3
のいずれかに分類された場合、注目領域aの地肌度を測
定しくステップ906)、この地肌度の度合いに応じて
、カテゴリー1,2または3に分類された領域Ci内の
領域biを、注目領域aに確率的に統合する(ステップ
907)。
At least one Chi in B is in category 1゜2.3
If the area of interest is classified as one of the categories, step 906), the degree of texture of the area of interest a is measured, and the area bi within the area Ci classified as category 1, 2, or 3 is set as the area of interest. Stochastic integration is performed in area a (step 907).

この領域の統合確率は第10図に示すように。The integrated probability for this area is shown in Figure 10.

地肌度がある値以下では0%であるが、それ以上の値で
は地肌度が大きいほど大きくなる。
When the background texture is below a certain value, it is 0%, but when the background texture is above a certain value, it increases as the background texture increases.

このような領域統合により、主に上記の粒状ノイズを除
去することができる。また、−律に領域統合を行うので
はなく、地肌度の度合いに応じた確率的統合を行うため
、画像毎にパラメータのチューニングをしないで多様な
画像のノイズ除去が可能である。
Such area integration can mainly remove the above-mentioned granular noise. Furthermore, since area integration is not performed in a regular manner, but stochastic integration is performed according to the degree of texture, it is possible to remove noise from a variety of images without having to tune parameters for each image.

次にルール3により処理が行われる。ルール3は画像の
輪郭部のあいまい領域(ノイズ)の統合ルールであり、
この処理により輪郭部を鮮鋭化することができる。第1
1図はこの処理の流れ図である。
Next, processing is performed according to rule 3. Rule 3 is a rule for integrating ambiguous areas (noise) in the outline of the image,
This processing makes it possible to sharpen the outline. 1st
Figure 1 is a flowchart of this process.

まず注目領域aの幅が閾値Th2より小さいか調べる(
ステップ1001)、幅がTh2以上ならば、注目領域
aは輪郭部の領域ではないので、処理の対象から除外す
る。
First, check whether the width of the attention area a is smaller than the threshold Th2 (
In step 1001), if the width is equal to or greater than Th2, the region of interest a is not an outline region and is therefore excluded from processing.

幅がTh2より小さい注目領域aに対しては、その一定
範囲内の近接領域bi(注目領域aに隣接している必要
はない)を木構造上で検索する(ステップ1002)。
For the region of interest a whose width is smaller than Th2, a nearby region bi (not necessarily adjacent to the region of interest a) within a certain range is searched on the tree structure (step 1002).

この近接領域中で、注目領域aを両側から挟むような位
置関係にあり(aに接している必要はない)、かつ幅が
Th3以上の二つの領域bl、b2を選ぶ(ステップ1
003)。このような領域bl、b2を選ぶことができ
ないときは、処理を終了する。
In this proximal area, select two areas bl and b2 that are in a positional relationship sandwiching the attention area a from both sides (does not need to be in contact with a) and have a width of Th3 or more (Step 1
003). If such areas bl and b2 cannot be selected, the process ends.

次に注目領域a色が領域bl、b2の色と混色関係にあ
るか調べる(ステップ1004)、混色関係でないとき
は処理を終了する。
Next, it is determined whether the color of the attention area a has a color mixing relationship with the colors of the areas bl and b2 (step 1004), and if there is no color mixing relationship, the process ends.

混色関係であれば、領域bl、b2のうちで注目領域a
との色差が小さいほうの領域をbl、他方をb2とし、
それぞれの注目領域aとの色差ΔEl、ΔE2を求める
(ステップ1005)。
If it is a color mixture relationship, the attention area a is selected from the areas bl and b2.
Let the area with the smaller color difference be bl, the other b2,
The color differences ΔEl and ΔE2 with respect to each region of interest a are determined (step 1005).

ΔE1とΔ2の比較判定を行い(ステップ1006)、
ΔE1≧ΔE2ならば処理を終了するが。
A comparative judgment is made between ΔE1 and Δ2 (step 1006),
If ΔE1≧ΔE2, the process ends.

ΔEl<ΔE2ならば、注目領域aと領域b1とのエツ
ジ度を測定する(ステップ1007)。
If ΔE1<ΔE2, the degree of edge between the region of interest a and the region b1 is measured (step 1007).

そして、エツジ度の度合いに応じた確率で、注目領域a
の領域b1の色への色変更を行う(ステップ1008)
。もし、開領域が接触しているときは、この色変更は領
域の統合そのものであるが、離れているときは、色の面
だけの領域統合である。
Then, the attention area a is determined with probability according to the degree of edge.
The color is changed to the color of area b1 (step 1008).
. If the open areas are in contact, this color change is the integration of the areas themselves, but if they are separated, it is the area integration of only the color planes.

この色変更(領域統合)の確率は第12図に示すように
、エツジ度が大きいほど大である。
As shown in FIG. 12, the probability of this color change (area integration) increases as the edge degree increases.

このような領域の確率的変更により、画像輪郭部のあい
まい領域(ノイズ)を除去することができ、また、−律
に色変更(統合)をするのではなく、エツジ度の度合い
に応じた確率で色変更をするから、画像毎にパラメータ
のチューニングを行わなくとも、多様な画像に対し良好
な結果を得られる。
By stochastically changing the area in this way, it is possible to remove ambiguous areas (noise) in the image outline, and instead of randomly changing the color (integration), we can change the probability according to the degree of edgeness. Since the colors are changed using , good results can be obtained for a variety of images without having to tune parameters for each image.

以上の処理により、四分木構造の画像記述データおよび
テーブル1が更新され、それが処理結果としてデータメ
モリ104のそれぞれの記憶部106.107に得られ
る。
Through the above processing, the quadtree-structured image description data and table 1 are updated, and these are obtained as processing results in the respective storage units 106 and 107 of the data memory 104.

なお、ノイズ除去のためのルールやアルゴリズム、ノイ
ズらしさの指標、処理装置の構成などは、必要に応じて
変更可能である。
Note that the rules and algorithms for noise removal, the noise-likeness index, the configuration of the processing device, etc. can be changed as necessary.

〔効 果〕〔effect〕

以上の説明から明らかなように、本発明によれば1輪郭
部の領域a、bのエツジ度に応じた確率で領域aの領域
すへの色変更(領域統合)を行うことにより、画像毎に
パラメータのチューニングを行うことなく、多様なカラ
ー画像中の輪郭部のあいまい領域(ノイズ)を効果的に
除去し1輪郭部の鮮鋭化することができる。
As is clear from the above description, according to the present invention, by changing the color of area a to area 2 (area integration) with a probability according to the edge degree of areas a and b of one contour, It is possible to effectively remove ambiguous areas (noise) of outlines in various color images and sharpen one outline without having to perform parameter tuning.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明を実施するための装置構成の一例を示す
ブロック図、第2図は処理全体の流れ図、第3図はテー
ブル゛1の説明図、第4図はテーブル2の説明図、第5
図は外接矩形情報の説明図、第6図はルール1による処
理の流れ図、第7図はエツジ度と統合確率の関係図、第
8図はルール1に関連した処理の変形例を示す流れ図、
第9図はルール2による処理の流れ図、第10図は地肌
度と統合確率の関係図、第11図はルール3による処理
の流れ図、第12図はエツジ度と色変更確率の関係図で
ある。 101・・・画像メモリ、 102・・・中央処理装置
、103・・・プログラムメモリ、 104・・・データメモリ。 第2図 第3図 (チー7“ル1つ 第4図 第6図 第1O図 +s色月a、崖2 第12図 →哩シ゛°渡
FIG. 1 is a block diagram showing an example of a device configuration for carrying out the present invention, FIG. 2 is a flowchart of the entire process, FIG. 3 is an explanatory diagram of table 1, FIG. 4 is an explanatory diagram of table 2, Fifth
The figure is an explanatory diagram of circumscribed rectangle information, Figure 6 is a flowchart of processing according to rule 1, Figure 7 is a diagram of the relationship between edge degree and integrated probability, and Figure 8 is a flowchart showing a modified example of processing related to rule 1.
Figure 9 is a flowchart of the processing according to Rule 2, Figure 10 is a diagram of the relationship between background degree and integrated probability, Figure 11 is a flowchart of processing according to Rule 3, and Figure 12 is a diagram of the relationship between edge degree and color change probability. . 101... Image memory, 102... Central processing unit, 103... Program memory, 104... Data memory. Fig. 2 Fig. 3 (Chee 7" 1 le Fig. 4 Fig. 6 Fig. 1 O Fig. + S Color Moon a, cliff 2 Fig. 12 → cross

Claims (1)

【特許請求の範囲】[Claims] (1)カラー画像において、近接した一定幅以下の2領
域で挟まれ、該2領域と混色関係の色を持つ一定幅以下
の領域aについて、該2領域中の該領域aに対する色差
が小さいほうの領域bとの色差および距離によって決ま
る値E=f(色差、距離)を測定し、こゝで関数fは色
差が大きいほどまた距離が小さいほど値Eが大きくなる
関数とし、値Eに応じた確率で領域aの領域bの色への
色変更を行うことを特徴とするカラー画像のノイズ除去
方法。
(1) In a color image, for an area a of a certain width or less that is sandwiched between two adjacent areas of a certain width or less and has a color in a mixed color relationship with the two areas, the one of the two areas that has a smaller color difference with respect to the area a Measure the value E = f (color difference, distance) determined by the color difference and distance from area b of A color image noise removal method characterized by changing the color of area a to the color of area b with probability.
JP63058937A 1988-03-12 1988-03-12 Noise elimination method for color picture Pending JPH01232893A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63058937A JPH01232893A (en) 1988-03-12 1988-03-12 Noise elimination method for color picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63058937A JPH01232893A (en) 1988-03-12 1988-03-12 Noise elimination method for color picture

Publications (1)

Publication Number Publication Date
JPH01232893A true JPH01232893A (en) 1989-09-18

Family

ID=13098743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63058937A Pending JPH01232893A (en) 1988-03-12 1988-03-12 Noise elimination method for color picture

Country Status (1)

Country Link
JP (1) JPH01232893A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0576298A2 (en) * 1992-06-26 1993-12-29 Canon Kabushiki Kaisha Image processing method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0576298A2 (en) * 1992-06-26 1993-12-29 Canon Kabushiki Kaisha Image processing method and apparatus
EP0576298A3 (en) * 1992-06-26 1994-04-20 Canon Kk
US5579405A (en) * 1992-06-26 1996-11-26 Canon Kabushiki Kaisha Method and apparatus for contour vector image processing

Similar Documents

Publication Publication Date Title
Cheng et al. A hierarchical approach to color image segmentation using homogeneity
US8233725B2 (en) Adaptive sampling region for a region editing tool
Jancsary et al. Loss-specific training of non-parametric image restoration models: A new state of the art
Trias-Sanz et al. Using colour, texture, and hierarchial segmentation for high-resolution remote sensing
Gauch et al. Comparison of three-color image segmentation algorithms in four color spaces
US8452109B2 (en) Image segregation system with method for handling textures
US6438268B1 (en) Vector quantization codebook generation method
US8081196B2 (en) Assisted adaptive region editing tool
US20030108245A1 (en) Method and system for improving an image characteristic based on image content
CN104751147A (en) Image recognition method
KR101048582B1 (en) Method and device for detecting faces in color images
CN115033721A (en) Image retrieval method based on big data
US6408028B1 (en) Diffusion based peer group processing method for image enhancement and segmentation
US7826668B1 (en) Adaptive region editing tool
JPH01232893A (en) Noise elimination method for color picture
JP2006501530A (en) Handling boundary information for graphical objects
JPH01232894A (en) Noise elimination method for color picture
JPH01232892A (en) Noise elimination method for color picture
JPH01232876A (en) Picture noise eliminating method
CN104636495B (en) A kind of content based video retrieval system method
Prasenan et al. A Study of Underwater Image Pre-processing and Techniques
Sebasco Traversable Region Identification from Post-Disaster Aerial Footage Using Graph Based Image Segmentation
US7899255B2 (en) Method for recognizing and indexing digital media
Archer et al. Optimal dimension reduction and transform coding with mixture principal components
Mascarilla Fuzzy rules extraction and redundancy elimination: An application to remote sensing image analysis