JPH01232876A - Picture noise eliminating method - Google Patents

Picture noise eliminating method

Info

Publication number
JPH01232876A
JPH01232876A JP63058938A JP5893888A JPH01232876A JP H01232876 A JPH01232876 A JP H01232876A JP 63058938 A JP63058938 A JP 63058938A JP 5893888 A JP5893888 A JP 5893888A JP H01232876 A JPH01232876 A JP H01232876A
Authority
JP
Japan
Prior art keywords
area
processing
noise
degree
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63058938A
Other languages
Japanese (ja)
Inventor
Kaoru Imao
今尾 薫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP63058938A priority Critical patent/JPH01232876A/en
Publication of JPH01232876A publication Critical patent/JPH01232876A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To eliminate noise excellently without adjusting a parameter for each picture by combining an area in a picture and its surrounding area with a probability in response to the degree of noise-like of the area in the picture. CONSTITUTION:A picture being a processing object is read by an external scanner and its quantized data is stored in a picture memory 101. A CPU 102 applies the processing for noise rejection and its preprocessing according to a processing program 105 stored in a program memory 103. In the processing for noise rejection, the noise-like degree of the area in the picture is checked, and the area and the surrounding areas are combined in a probability in response to the degree. A data memory 104 is used to store the data on the way of processing and the processing result data.

Description

【発明の詳細な説明】 〔技術分野〕 本発明は、画像情報を扱う装置類において、画像中のノ
イズを除去する方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field] The present invention relates to a method for removing noise in an image in devices that handle image information.

〔従来技術〕[Prior art]

従来1画像のフィルタリングによる−様な処理を行い1
画像中のノイズの除去を行っている。
Conventionally, we perform similar processing by filtering one image.
Noise in the image is removed.

しかし、画像の属性に応じてパラメータの調整(チュー
ニング)が必要になるという問題があった。また、平滑
処理と鮮鋭化処理の両立を難しく、粒状ノイズを除去す
るための処理(平滑処理)を行うと、画像の輪郭部のボ
ケが生じるなどの問題があった。
However, there is a problem in that parameters need to be adjusted (tuned) depending on the attributes of the image. Furthermore, it is difficult to achieve both smoothing processing and sharpening processing, and when processing for removing granular noise (smoothing processing) is performed, there are problems such as blurring of the outline of the image.

なお、この種のノイズ除去に関する公知資料としてパ強
調と平滑化処理″、中村9月刊誌「オー・プラス・イー
(Oplus E) J 、 Nci75.1986年
2月(株式会社新技術]ミュニケーション発行)、第8
3頁から第97頁などがある。
Publicly known materials regarding this type of noise removal include "Paper Emphasis and Smoothing Processing", Nakamura's September Monthly Magazine "Oplus E J, Nci75. February 1986 (published by Shintechi Co., Ltd.) Communication" , 8th
There are pages 3 to 97, etc.

〔目 的〕〔the purpose〕

本発明の目的は、画像毎にパラメータの調整を行うこと
なく、カラー画像を含む多様な画像に対し良好なノイズ
除去が可能な画像のノイズ除去方法を提供することにあ
る。
An object of the present invention is to provide an image noise removal method that can effectively remove noise from various images including color images without adjusting parameters for each image.

〔構 成〕〔composition〕

本発明は、ノイズのあいまい性を確率処理することによ
り目的を達成しようとするものである。
The present invention attempts to achieve the object by performing probabilistic processing on the ambiguity of noise.

すなわち本発明は、画像中の注目領域のノイズらしさの
度合いを調べ、その度合いがある限界を越えたときに一
律にまわりの領域と統合するのではなく、ノイズらしさ
の度合いに応じた確率で注目領域とそのまわりの領域と
の統合を行うことを特徴とするものである。
In other words, the present invention examines the degree of noise-likeness of a region of interest in an image, and when the degree exceeds a certain limit, does not uniformly integrate it with surrounding areas, but instead selects attention with a probability according to the degree of noise-likeness. It is characterized by integrating an area and surrounding areas.

〔実施例〕〔Example〕

以下、図面を用い本発明の一実施例について説明する。 An embodiment of the present invention will be described below with reference to the drawings.

第1図は本発明を実施するための装置構成の一例を示し
ている。101は画像メモリ、102は中央処理装置(
CPU) 、103はプログラムメモリ、104はデー
タメモリである。
FIG. 1 shows an example of an apparatus configuration for implementing the present invention. 101 is an image memory, 102 is a central processing unit (
CPU), 103 is a program memory, and 104 is a data memory.

処理対象の画像(本実施例ではカラー画像)は外部のス
キャナによって読取られ、その量子化データは画像メモ
リ101に格納される。このカラー画像について、ノイ
ズ除去のための処理とその前処理が中央処理装置102
により実行されるが、その処理プログラム105はプロ
グラムメモリ103に格納されている。ノイズ除去のた
めのルールは後述のようにI、n、Hの三つがあり、こ
れは処理プログラム105に組込まれているが、ルール
ベースとして独立させてもよい、データメモリ104は
、処理途中のデータおよび処理結果デづを格納す′″t
= e t=使用2t′6・  1.−4次に第2図に
示した流れ図によって、壺=理の全体的な流れを説明す
る。
An image to be processed (a color image in this embodiment) is read by an external scanner, and its quantized data is stored in the image memory 101. Regarding this color image, processing for noise removal and its pre-processing are carried out by the central processing unit 102.
The processing program 105 is stored in the program memory 103. There are three rules for noise removal, I, n, and H, as described later, and these are built into the processing program 105, but they may also be made independent as a rule base. Stores data and processing results
= e t=use2t'6・1. -4 Next, the overall flow of the pottery process will be explained using the flowchart shown in Figure 2.

まず画像メモリ101内のカラー画像について、色が均
一の領域毎にラベルを付ける(ステップ201)。次に
、このラベリング後のカラー画像を再帰的に四分割する
ことにより、カラー画像四分本構造で記述し、その記述
データをデータメモリ104内の画像記述データ部10
6に格納する(ステップ202)。木構造のリーフには
、各領域の識別番号を付属情報としてもたす。
First, a label is attached to each uniformly colored region of the color image in the image memory 101 (step 201). Next, the color image after labeling is recursively divided into four parts to describe the color image in a quarter book structure, and the description data is stored in the image description data section 10 in the data memory 104.
6 (step 202). The leaves of the tree structure have the identification number of each area as attached information.

なお、こ\までの処理は新しいものではないので、詳細
な説明は省略する。また、四分木構造に代えて二分木な
どの木構造で記述してもよい。
Note that since the processing up to this point is not new, detailed explanation will be omitted. Further, instead of the quadtree structure, a tree structure such as a binary tree may be used.

このように画像を木構造で記述すると、データ量を削減
できると\もに、その後の処理における画像中の領域の
位相空間的な検索を高速に実行できる。
When an image is described in a tree structure in this way, the amount of data can be reduced, and topological spatial searches of regions in the image can be performed at high speed in subsequent processing.

次に、画像記述データを参照することにより、第3図に
示すテーブル1と第4図に示すテーブル2を、データメ
モリ104内の記憶部107,108上にそれぞれ作成
する(ステップ203)。
Next, by referring to the image description data, table 1 shown in FIG. 3 and table 2 shown in FIG. 4 are created on storage units 107 and 108 in data memory 104, respectively (step 203).

テーブル1にはラベリングされた各領域毎に、領域識別
番号、色識別番号1面積(画素数)および領域の外接矩
形情報を格納する。
Table 1 stores, for each labeled area, an area identification number, color identification number 1 area (number of pixels), and area circumscribing rectangle information.

第5図はこの外接矩形情報の説明図であり、501はラ
ベリングされた一つの均等色領域であり、その外接矩形
(破線)の対角頂点の座標(+in x zminy)
 、 (maxx、 maxy)が外接矩形情報として
テーブル1に格納される。
FIG. 5 is an explanatory diagram of this circumscribed rectangle information, where 501 is one labeled uniform color area, and the coordinates (+in x zminy) of the diagonal vertices of the circumscribed rectangle (broken line)
, (maxx, maxy) are stored in Table 1 as circumscribed rectangle information.

画像領域の位相空間的検索の際、この外接矩形情報によ
って検索する領域範囲を限定することにより、効率的な
検索が可能になる。
When performing a topological spatial search for an image region, by limiting the range of the region to be searched using this circumscribed rectangle information, efficient search becomes possible.

テーブル2には上記色識別番号毎に、その色に対応した
R(赤)、G(緑)、B(青)の3原色のデータを格納
し、また、この3原色データをもとにして、色識別番号
に対応した色を均等色空間であるL傘a*b傘空間に変
換し、そのL零値、as値、b中値を格納する。このよ
うに、均等色空間であるL*a傘す傘表色系を使用する
ことにより、人間の視覚特性にあったノイズ判定が可能
になる。
Table 2 stores data for the three primary colors of R (red), G (green), and B (blue) corresponding to each color identification number, and based on these three primary color data, , converts the color corresponding to the color identification number into an L umbrella a*b umbrella space, which is a uniform color space, and stores its L zero value, as value, and b intermediate value. In this way, by using the L*a umbrella color system, which is a uniform color space, it becomes possible to determine noise in accordance with human visual characteristics.

ステップ204からステップ206は、画像記述データ
とテーブル1,2を参照しルールI、n。
Steps 204 to 206 refer to the image description data and tables 1 and 2 to determine rules I and n.

■によるノイズ除去を行う処理部分である。This is the processing part that performs noise removal according to (2).

ステップ204で注目領域aを設定し、ステップ205
でルールI、II、mを順に適用してノイズ除去を行う
。そして、ステップ206で全領域を注目領域に設定済
みであるか否かを判定し、未設定の領域が残っていれば
ステップ204に戻って次の注目領域を設定して処理を
行う。
At step 204, a region of interest a is set, and at step 205
Then, rules I, II, and m are applied in order to remove noise. Then, in step 206, it is determined whether all areas have been set as attention areas, and if there are any unset areas remaining, the process returns to step 204 to set the next attention area and perform processing.

二\で、本実施例においては、ノイズらしさの度合いと
して「地肌度」と「エツジ度」を使用する。地肌度は注
目領域の濃度と面積によって決まるものであり、エツジ
度は注目2領域間の距離と色差によって決まるもので、
それぞれ次のように定義される。
In this embodiment, "texture level" and "edge level" are used as the degree of noise-likeness. The texture level is determined by the density and area of the area of interest, and the edge level is determined by the distance and color difference between the two areas of interest.
Each is defined as follows.

地肌度=COMB (wl ・D、 w2 ・S)  
  (1)エツジ度=COMB (w3 ・L、w4 
・E)     (2)こシで、C= COM B (
a 、 b )は次のように定義される。
Texture = COMB (wl ・D, w2 ・S)
(1) Edge degree = COMB (w3 ・L, w4
・E) (2) With this, C= COM B (
a, b) are defined as follows.

■ a = 1またはb=1ならばC=1■ a > 
Oかつb〉0ならばC=a+b−ab■ ab≦Oかつ
aへ±1かつb〜±1ならばC= a + b ■ a < Oかつb<oならばC=a+b+ab■ 
a=−1またはb=−1ならばC=−1式(1)、 (
2)において、wiは重み付は係数、Dは濃度レベル、
Sは面積、Lは距離、Eは色差である。
■ If a = 1 or b = 1, then C = 1 ■ a >
If O and b>0 then C=a+b-ab■ If ab≦O and ±1 to a and b~±1 then C= a + b■ If a<O and b<o then C=a+b+ab■
If a=-1 or b=-1, C=-1 Equation (1), (
In 2), wi is the weighting coefficient, D is the density level,
S is area, L is distance, and E is color difference.

D、S、L、Eはその度合いによって−1から+1まで
の値で表現する。すなわち地肌度、エツジ度とも−1か
ら+1までの値であり、濃度レベルが低く(白に近い)
、面積が大きいほど地肌度は高く、距離が小さく色差が
大きいほどエツジ度は高くなる。なお、Lは2領域の幅
のうちの小さいほうは幅値で代用し、DはLm値で代用
する。
D, S, L, and E are expressed as values from -1 to +1 depending on their degree. In other words, both the background level and edge level are values from -1 to +1, and the density level is low (close to white).
The larger the area, the higher the texture, and the smaller the distance and the larger the color difference, the higher the edge. Note that the width value of the smaller of the widths of the two regions is substituted for L, and the Lm value is substituted for D.

またEはL* a申b*表色系での色差とする。Further, E is the color difference in the L*a and b* color system.

次にステップ205の処理について、適用するルール毎
に説明する。
Next, the process of step 205 will be explained for each applied rule.

まず、ルール■による処理が行われる。ルールIは隣接
している領域間の統合ルールであり、この処理により主
に色濃度むらによるノイズの除去が行われる。第6図は
その流れ図である。
First, processing according to rule (2) is performed. Rule I is an integration rule between adjacent areas, and this process mainly removes noise due to color density unevenness. FIG. 6 is a flowchart.

注目領域aに隣接している領域集合B=(bilbiは
aに隣接して領域)を木構造上で検索する(ステップ6
01)。注目領域aと一つの隣接領域b1とのエツジ度
を側室する(ステップ602)。
The tree structure is searched for the region set B = (bilbi is the region adjacent to a) adjacent to the region of interest a (step 6
01). The degree of edge between the region of interest a and one adjacent region b1 is determined (step 602).

注目領域aの面積と隣接領域biの面積との比較判定を
行う(ステップ603)。
A comparison is made between the area of the attention area a and the area of the adjacent area bi (step 603).

注目領域aの面積が隣接領域biの面積より大きいとき
は、注目領域aに隣接領域biを統合し、そうでないと
きは注目領域aを隣接領域biに統合する(ステップ6
04,605)。
When the area of the attention area a is larger than the area of the adjacent area bi, the adjacent area bi is integrated into the attention area a; otherwise, the attention area a is integrated into the adjacent area bi (step 6
04,605).

この統合は一律に行うのではなく、エツジ度の度合いに
応じた確率で行う。この統合確率は第7図に示すように
、エツジ度がある値以上では0%、その値未満ではエツ
ジ度が小さいほど大きくなり、エツジ度=−1で100
%になるものとする。すなわち、エツジ度に応じた統合
確率が100%のときは必ず統合を行い、統合確率が0
%のときは統合を行わず、統合確率が50%のときは平
均的に2回に1回の割合で統合を行うというような。
This integration is not performed uniformly, but with a probability depending on the degree of edgeness. As shown in Figure 7, this integrated probability is 0% when the edge degree is above a certain value, and below that value, it increases as the edge degree decreases, and becomes 100% when the edge degree = -1.
%. In other words, when the integration probability according to the degree of edge is 100%, integration is always performed, and when the integration probability is 0.
%, no integration is performed, and when the integration probability is 50%, integration is performed once every two times on average.

エツジ度に応じた確率的統合処理が行われる。Stochastic integration processing is performed according to the degree of edge.

このように、あいまい性のあるノイズの領域を確率的に
統合するため、エツジ度が固定した閾値を越えたときに
一律に領域統合を行う方法と違って、画像毎にノイズ除
去処理のパラメータの調整(チューニング)を行うこと
なく、多様な画像に対し良好なノイズ除去が可能である
In this way, in order to stochastically integrate ambiguous noise regions, unlike the method of uniformly integrating regions when the edge degree exceeds a fixed threshold, the noise removal processing parameters are adjusted for each image. Good noise removal is possible for a variety of images without any adjustment (tuning).

注目領域aと一つの隣接領域biに関する以上の処理を
行うと、領域集合B内の全領域biについての処理終了
の判定を行い(ステップ606)、残りの領域biがあ
ればステップ602から処理を再開する。
After the above processing for the region of interest a and one adjacent region bi is performed, it is determined whether the processing has ended for all regions bi in the region set B (step 606), and if there is any remaining region bi, the processing starts from step 602. resume.

このような処理によって結合された領域については1画
像記述データおよびテーブル1が更新される。
One image description data and table 1 are updated for the combined areas through such processing.

なお、このルール■による領域統合処理を、注目領域の
面積の大小を考慮せずに実行すると、面積の小さい領域
を中心として統合が進むことがある。一般に面積の小さ
い領域は不確かな情報であるため、面積の大きい領域か
ら、それを中心にして統合を進めたほうが、より正確な
統合を達成できる。そのため、全領域を面積類にソート
し、面積の大きい順に注目領域を設定して統合処理を進
めることが好ましい。しかし、ソート処理は非常に長い
処理時間を必要とするという問題がある。
Note that if the region integration processing according to this rule (2) is executed without considering the size of the area of the region of interest, the integration may proceed mainly in regions with small areas. In general, regions with small areas contain uncertain information, so it is possible to achieve more accurate integration by starting with the regions with large areas and proceeding with the integration. Therefore, it is preferable to sort all regions into areas, set regions of interest in descending order of area, and proceed with the integration process. However, there is a problem in that the sorting process requires a very long processing time.

このソートを行わずに、ソートを行った場合と同様の効
果を得るための処理方式の一例を第8図に示す。ステッ
プ801は第2図中のステップ201からステップ20
3と同じ処理部分であり。
FIG. 8 shows an example of a processing method for obtaining the same effect as when sorting is performed without performing this sorting. Step 801 corresponds to step 201 to step 20 in FIG.
This is the same processing part as 3.

ステップ804,807は第2図中のステップ204.
206と同様の処理ステップである。ステップ806は
第6図中のステップ601からステップ606までと同
様の処理ステップである。
Steps 804 and 807 are steps 204.
This is the same processing step as 206. Step 806 is a processing step similar to steps 601 to 606 in FIG.

ステップ802はカウンタnの初期設定ステップ、ステ
ップ808はカウンタnの値と最大限にとの比較判定の
ステップである。
Step 802 is a step of initializing the counter n, and step 808 is a step of comparing and determining the value of the counter n with the maximum value.

ステップ805は、ステップ804で設定された注1領
域aの面積と81およびS2との比較判定であり、この
判定条件を満足した注目領域だけがステップ806の処
理対象になる。
Step 805 is a comparison judgment between the area of note 1 region a set in step 804 and 81 and S2, and only the region of interest that satisfies this judgment condition becomes the processing target of step 806.

こぎで、81.S2はnの値に応じて変化する値であり
、例えば、 n=1のとき51=20o、82=無限大n=2のとき
51=100,52=2009n=3のとき51=10
. 52=100n=4のとき51=O,52=10 である。
By rowing, 81. S2 is a value that changes depending on the value of n, for example, when n=1, 51=20o, 82=infinity, when n=2, 51=100, 52=2009, when n=3, 51=10
.. When 52=100n=4, 51=O, 52=10.

以上のようなルールIによるノイズ除去処理後、ルール
■によるノイズ除去処理が実行される。このルール■は
大きな領域に包含された小領域の統合ルールであり、こ
の処理でホワイトノイズ、網点、電子写真方式における
カラートナーの付着ノイズを想定したノイズ除去が行わ
れる。第9図はこの処理の流れ図である まず、注目領域aの面積が閾値Th1以上であるか調べ
(ステップ901)、Th1以上の面積であれば、注目
領域aに包含されている領域集合B= (bi l b
iはaに包含されている領域)を木構造上で検索する(
ステップ902)。
After the noise removal process according to rule I as described above, the noise removal process according to rule (2) is executed. This rule (2) is an integration rule for a small area included in a large area, and this process performs noise removal assuming white noise, halftone dots, and color toner adhesion noise in electrophotography. FIG. 9 is a flowchart of this process. First, it is checked whether the area of the attention area a is equal to or larger than the threshold value Th1 (step 901), and if the area is equal to or greater than Th1, the area set B included in the attention area a= (bi l b
i is the area included in a) on the tree structure (
Step 902).

この領域集合Bを色差の小さい領域Ciにクラスタリン
グする(ステップ903)、領域ChiはBの部分集合
であり、それぞれは木構造上の一つ以上の領域biから
なり、相互に重なりあわない。
This area set B is clustered into areas Ci with small color differences (step 903).The areas Chi are a subset of B, each consisting of one or more areas bi in a tree structure, and do not overlap with each other.

すなわち、B=CIUC2U・・・CkU・・・である
That is, B=CIUC2U...CkU...

各領域Ciを注目領域aに対する色差と、面積および「
集合度」によりカテゴリー1.2.3に分類する(ステ
ップ904)。なお、集合度は領域Ciの要素(領域b
i)の数を領域aの面積で割った値である。
Each region Ci is defined as the color difference with respect to the region of interest a, the area and "
The data are classified into categories 1, 2, and 3 based on the degree of aggregation (step 904). Note that the aggregation degree is the element of area Ci (area b
It is the value obtained by dividing the number i) by the area of area a.

カテゴリー1はホワイトノイズを想定したものであり、
色差がかなり小さく、面積が大きくない領域がこれに分
類される。カテゴリー2は網点を想定したものであり、
色差が中位、面積が小さく、集合度が中位の領域がこれ
に分類される。カテゴリー3はカラートナーの付着ノイ
ズを想定したものであり、色差がかなり大で、面積が小
さく、集合度がかなり小さい領域がこれに分類される。
Category 1 is assumed to be white noise,
Areas where the color difference is fairly small and the area is not large are classified into this category. Category 2 assumes halftone dots,
Regions with medium color difference, small area, and medium aggregation degree are classified into this category. Category 3 is assumed to be color toner adhesion noise, and areas with a fairly large color difference, a small area, and a fairly small aggregation degree are classified into this category.

なお、カテゴリー3に関しては、さらに、例えばY(黄
色)、M(マゼンタ)、C(シアン)、BK(黒)のイ
ンクの色であるという、色の条件を追加してもよい。
Regarding category 3, a color condition may be added, such as, for example, that the ink color is Y (yellow), M (magenta), C (cyan), or BK (black).

以上のいずれのカテゴリーにも分類されない領域Ciは
ノイズでない(有効な情報である)ので、領域統合の対
象から除外される。
Areas Ci that are not classified into any of the above categories are not noise (they are valid information) and are therefore excluded from area integration targets.

B内の少なくとも一つのCiがカテゴリー1゜2.3の
いずれかに分類された場合、注目領域aの地肌度を測定
しくステップ906)、この地肌度の度合いに応じて、
カテゴリー1,2または3に分類された領域Ci内の領
域biを、注目領域aに確率的に統合する(ステップ9
07)。
If at least one Ci in B is classified into one of categories 1, 2, and 3, the degree of texture of the attention area a is measured (step 906), and according to the degree of the degree of background,
Region bi within region Ci classified as category 1, 2, or 3 is probabilistically integrated into region of interest a (step 9
07).

この領域の統合確率は第10図に示すように、地肌度が
ある値以下では0%であるが、それ以上の値では地肌度
が大きいほど大きくなる。
As shown in FIG. 10, the integrated probability in this region is 0% when the background texture is below a certain value, but increases as the background texture increases above that value.

このような領域統合により、主に上記の粒状ノイズを除
去することができる。また、−律に領域統合を行うので
はなく、地肌度の度合いに応じた確率的統合を行うため
1画像毎にパラメータのチューニングをしないで多様な
画像のノイズ除去が可能である。
Such area integration can mainly remove the above-mentioned granular noise. In addition, since area integration is not performed regularly, but stochastic integration is performed according to the degree of texture, it is possible to remove noise from a variety of images without having to tune parameters for each image.

次にルール3により処理が行われる。ルール3は画像の
輪郭部のあいまい領域(ノイズ)の統合ルールであり、
この処理により輪郭部を鮮鋭化することができる。第1
1図はこの処理の流れ図である。
Next, processing is performed according to rule 3. Rule 3 is a rule for integrating ambiguous areas (noise) in the outline of the image,
This processing makes it possible to sharpen the outline. 1st
Figure 1 is a flowchart of this process.

まず注目領域aの幅が閾値Th2より小さいか調べる(
ステップ1001)。幅がTh2以上ならば、注目領域
aは輪郭部の領域ではないので。
First, check whether the width of the attention area a is smaller than the threshold Th2 (
Step 1001). If the width is Th2 or more, the region of interest a is not an outline region.

処理の対象から除外する。Exclude from processing.

幅がTh2より小さい注目領域ごに対しては、その一定
範囲内の近接領域bi(注目領域aに隣接している必要
はない)を木構造上で検索する(ステップ1002)。
For each region of interest whose width is smaller than Th2, a nearby region bi (not necessarily adjacent to the region of interest a) within a certain range is searched on the tree structure (step 1002).

この近接領域中で、注目領域aを両側から挟むような位
置関係にあり(aに接している必要はない)、かつ幅が
Th3以上の二つの領域bl、b2を選ぶ(ステップ1
003)。このような領域bl、b2を選ぶことができ
ないときは、処理を終了する。
In this proximal area, select two areas bl and b2 that are in a positional relationship sandwiching the attention area a from both sides (does not need to be in contact with a) and have a width of Th3 or more (Step 1
003). If such areas bl and b2 cannot be selected, the process ends.

次に注目領域a色が領域bl、b2の色と混色関係にあ
るか調べる(ステップ1004)。混色関係でないとき
は処理を終了する。
Next, it is determined whether the color of the attention area a has a mixed color relationship with the colors of the areas bl and b2 (step 1004). If there is no color mixing relationship, the process ends.

混色関係であれば、領域b1.b2のうちで注目領域a
との色差が小さいほうの領域をbl、他方をb2とし、
それぞれの注目領域aとの色差ΔEl、ΔE2を求める
(ステップ1005)。
If it is a color mixture relationship, the area b1. Attention area a in b2
Let the area with the smaller color difference be bl, the other b2,
The color differences ΔEl and ΔE2 with respect to each region of interest a are determined (step 1005).

ΔE1とΔ2の比較判定を行い(ステップ1006)、
ΔE1≧ΔE2ならば処理を終了するが、八El<ΔE
2ならば、注目領域aと領域b1とのエツジ度を測定す
る(ステップ1007)。
A comparative judgment is made between ΔE1 and Δ2 (step 1006),
If ΔE1≧ΔE2, the process ends, but 8El<ΔE
If it is 2, the degree of edge between the region of interest a and the region b1 is measured (step 1007).

そして、エツジ度の度合いに応じた確率で、注目領域a
の領域b1の色への色変更を行う(ステップ1008)
。もし1両領域が接触しているときは、この色変更は領
域の統合そのものであるが、離れているときは、色の面
だけの領域統合である。
Then, the attention area a is determined with probability according to the degree of edge.
The color is changed to the color of area b1 (step 1008).
. If the two areas are in contact, this color change is the integration of the areas themselves, but if they are separated, it is the area integration of only the color planes.

この色変更(領域統合)の確率は第12図に示すように
、エツジ度が大きいほど大である。
As shown in FIG. 12, the probability of this color change (area integration) increases as the edge degree increases.

このような領域の確率的変更により、画像輪郭部のあい
まい領域(ノイズ)を除去することができ、また、−律
に色変更(統合)をするのではなく、エツジ度の度合い
に応じた確率で色変更をするから、画像毎にパラメータ
のチューニングを行わなくとも、多様な画像に対し良好
な結果を得られる。
By stochastically changing the area in this way, it is possible to remove ambiguous areas (noise) in the image outline, and instead of randomly changing the color (integration), we can change the probability according to the degree of edgeness. Since the colors are changed using , good results can be obtained for a variety of images without having to tune parameters for each image.

以上の処理により、四分木構造の画像記述データおよび
テーブル1が更新され、それが処理結果としてデータメ
モリ104のそれぞれの記憶部106.107に得られ
る。
Through the above processing, the quadtree-structured image description data and table 1 are updated, and these are obtained as processing results in the respective storage units 106 and 107 of the data memory 104.

なお、ノイズ除去のためのルールやアルゴリズム、ノイ
ズらしさの指標、処理装置の構成などは、必要に応じて
変更可能である6また、白黒2値画像など領域種が2種
類の画像についても、本発明は適用可能である。
Note that the rules and algorithms for noise removal, the index of noise-likeness, the configuration of the processing device, etc. can be changed as necessary. The invention is applicable.

〔効 果〕〔effect〕

以上の説明から明らかなように、本発明によれば、ノイ
ズらしさの度合いに応じた確率処理(あいまい処理)に
よりノイズ除去を行うため、画像毎にパラメータのチュ
ーニングを行うことなく、多様な画像に対し良好なノイ
ズ除去効果を得られる。
As is clear from the above explanation, according to the present invention, noise is removed by probability processing (ambiguity processing) according to the degree of noise-likeness, so that it can be applied to various images without having to tune parameters for each image. On the other hand, a good noise removal effect can be obtained.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明を実施するための装置構成の一例を示す
ブロック図、第2図は処理全体の流れ図、第3図はテー
ブル1の説明図、第4図はテーブル2の説明図、第5図
は外接矩形情報の説明図、第6図はルール1による処理
の流れ図、第7図はエツジ度と統合確率の関係図、第8
図はルール1に関連した処理の変形例を示す流れ図、第
9図はルール2による処理の流れ図、第10図は地肌度
と統合確率の関係図、第11図はルール3による処理の
流れ図、第12図はエツジ度と色変更確率の関係図であ
る。 101・・・画像メモリ、  102・・・中央処理装
置、103・・・プログラムメモリ、 104・・・データメモリ。 第3図 (テーフ゛ル1) 第4図 第6図 第9図 第10図 第12図 →エンジ°ン(
FIG. 1 is a block diagram showing an example of a device configuration for implementing the present invention, FIG. 2 is a flowchart of the entire process, FIG. 3 is an explanatory diagram of table 1, FIG. 4 is an explanatory diagram of table 2, Figure 5 is an explanatory diagram of circumscribed rectangle information, Figure 6 is a flowchart of processing according to rule 1, Figure 7 is a diagram of the relationship between edge degree and integrated probability, and Figure 8 is a diagram of the relationship between edge degree and integrated probability.
Figure 9 is a flowchart showing a modification of processing related to Rule 1, Figure 9 is a flowchart of processing according to Rule 2, Figure 10 is a relationship between texture and integrated probability, Figure 11 is a flowchart of processing according to Rule 3, FIG. 12 is a diagram showing the relationship between edge degree and color change probability. 101... Image memory, 102... Central processing unit, 103... Program memory, 104... Data memory. Figure 3 (Table 1) Figure 4 Figure 6 Figure 9 Figure 10 Figure 12 → Engine (

Claims (1)

【特許請求の範囲】[Claims] (1)画像中の領域のノイズらしさの度合いを調べ、そ
の度合いに応じた確率で当該領域とそのまわりの領域と
の統合を行うことを特徴とする画像のノイズ除去方法。
(1) An image noise removal method characterized by examining the degree of noise-likeness of a region in an image, and integrating the region and surrounding regions with a probability according to the degree.
JP63058938A 1988-03-12 1988-03-12 Picture noise eliminating method Pending JPH01232876A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63058938A JPH01232876A (en) 1988-03-12 1988-03-12 Picture noise eliminating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63058938A JPH01232876A (en) 1988-03-12 1988-03-12 Picture noise eliminating method

Publications (1)

Publication Number Publication Date
JPH01232876A true JPH01232876A (en) 1989-09-18

Family

ID=13098774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63058938A Pending JPH01232876A (en) 1988-03-12 1988-03-12 Picture noise eliminating method

Country Status (1)

Country Link
JP (1) JPH01232876A (en)

Similar Documents

Publication Publication Date Title
Cheng et al. A hierarchical approach to color image segmentation using homogeneity
EP0552770B1 (en) Apparatus for extracting facial image characteristic points
US8233725B2 (en) Adaptive sampling region for a region editing tool
Gauch et al. Comparison of three-color image segmentation algorithms in four color spaces
EP1168247A2 (en) Method for varying an image processing path based on image emphasis and appeal
US6360002B2 (en) Object extracting method using motion picture
US8081196B2 (en) Assisted adaptive region editing tool
KR101048582B1 (en) Method and device for detecting faces in color images
JP2000011138A (en) Color coordinate space structure and color quantizing method using color coordinate and color spreading
CN111968057A (en) Image noise reduction method and device, storage medium and electronic device
CN115033721A (en) Image retrieval method based on big data
EP1225546B1 (en) Method for setting dominant color using spatial coherency
US6704448B1 (en) Device and method for extracting specific region from image and computer-readable recording medium storing region extraction program
US7826668B1 (en) Adaptive region editing tool
Weldon et al. Integrated approach to texture segmentation using multiple Gabor filters
JPH01232876A (en) Picture noise eliminating method
JPH01232893A (en) Noise elimination method for color picture
JPH01232894A (en) Noise elimination method for color picture
Kaya et al. Parametric and nonparametric correlation ranking based supervised feature selection methods for skin segmentation
JPH01232892A (en) Noise elimination method for color picture
Ikonomakis et al. Unsupervised seed determination for a region-based color image segmentation scheme
CN104636495B (en) A kind of content based video retrieval system method
Chamorro-Martinez et al. A fuzzy colour image segmentation applied to robot vision
US7068839B2 (en) Method for transformating color image on image processing system
Shi et al. Pairwise learning to rank for image quality assessment