JP3381039B2 - Contour extraction method of color image applying fuzzy inference - Google Patents

Contour extraction method of color image applying fuzzy inference

Info

Publication number
JP3381039B2
JP3381039B2 JP11746193A JP11746193A JP3381039B2 JP 3381039 B2 JP3381039 B2 JP 3381039B2 JP 11746193 A JP11746193 A JP 11746193A JP 11746193 A JP11746193 A JP 11746193A JP 3381039 B2 JP3381039 B2 JP 3381039B2
Authority
JP
Japan
Prior art keywords
contour
inference
image
value
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11746193A
Other languages
Japanese (ja)
Other versions
JPH06333045A (en
Inventor
温 松下
光男 横山
Original Assignee
温 松下
光男 横山
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 温 松下, 光男 横山 filed Critical 温 松下
Priority to JP11746193A priority Critical patent/JP3381039B2/en
Publication of JPH06333045A publication Critical patent/JPH06333045A/en
Application granted granted Critical
Publication of JP3381039B2 publication Critical patent/JP3381039B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、ファジィ推論を用い
て、統一性のある推論を各手法に適応し、かつパラメー
タの調整容易なことを目的としたファジィ推論を応用し
たカラー画像の輪郭抽出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention uses fuzzy inference to apply uniform inference to each method and to extract contours of color images by applying fuzzy inference for easy adjustment of parameters. Regarding the method.

【0002】[0002]

【従来の技術】従来知られている輪郭抽出方法として
は、領域と領域の境界を検出する輪郭抽出法(eddge de
tection )と、各ピクセル(画像の各点)を、ピクセル
値(明度又は色相)によつて分類して領域に分ける領域
抽出法(region extraction )が知られている。
2. Description of the Related Art As a conventionally known contour extraction method, a contour extraction method (eddge
Tection) and each pixel (each point of an image) are classified according to a pixel value (brightness or hue) and divided into regions (region extraction).

【0003】前記中輪郭抽出法には次の4つが提案され
ている。 1.一次微分を用いた方法 2.二次微分を用いた方法 3.平均値微分を用いた方法 4.テンプレートマツチングを用いた方法
The following four methods have been proposed for the above-mentioned middle contour extraction method. 1. Method using first derivative 2. Method using second derivative 3. Method using average value differentiation 4. Method using template matching

【0004】[0004]

【発明により解決すべき課題】前記従来の輪郭抽出法中
微分を用いる方法はノイズを拾う欠点があり、微分の次
数が上れば上るほどその傾向が強くなる問題点がある。
The conventional method using the differential in the contour extraction method has a drawback of picking up noise, and there is a problem that the tendency becomes stronger as the order of the differential increases.

【0005】またラブラシアンは二次微分であるため、
線形な傾斜を持つ輪郭を検出することができず、輪郭よ
りも点、線、角などの検出に向くという得失がある。そ
こでノイズを取除く為に平均値を用いる方法が提案され
ている。
Since Labrian is a second derivative,
There is a merit that it is not possible to detect a contour having a linear inclination, and it is more suitable for detecting points, lines, corners, etc. than a contour. Therefore, a method using an average value to remove noise has been proposed.

【0006】前記輪郭抽出法として提案されている1.
〜4.の各方法は、基本的に明度(濃淡値)を用いるこ
とが前提となつているが、明度情報だけでは十分の領域
分割が行えない場合がある。
Proposed as the contour extraction method
~ 4. Although each method is basically based on the use of brightness (grayscale value), there are cases where sufficient area division cannot be performed only with brightness information.

【0007】例えば快晴の日の屋外事物とその影のよう
な場合には、事物と影とが夫々の領域として取り出され
る問題点がある。
[0007] For example, in the case of an outdoor object and its shadow on a sunny day, there is a problem that the object and the shadow are extracted as their respective areas.

【0008】前記問題点を解決する為に彩度の高低によ
り差をつけ、又は色相値による領域抽出、或いは色情報
を用いた領域分割などが試みられている。
In order to solve the above problems, it has been attempted to make a difference depending on the level of saturation, extract a region by a hue value, or divide a region using color information.

【0009】前記各方法には夫々特質があるが、次の問
題点もある。 1.統一性がない。 2.各手法に向き不向がある。 3.パラメータの調整がむつかしい。
Each of the above methods has its own characteristics, but has the following problems. 1. There is no unity. 2. Each method has its own orientation. 3. Parameter adjustment is difficult.

【0010】即ち従来の方法は、それぞれ独自のアプロ
ーチによって独自のアルゴリズムを構築しており、統一
性が全くないのである。そして抽出方法によっては、特
定の画像にのみ向いている方法や、ノイズの影響を大き
く受けてしまう方法など、それぞれが一長一短をもつて
いる。また方法によつては、パラメータの調整が必要で
ある。
That is, each of the conventional methods has its own algorithm by its own approach and has no uniformity. Depending on the extraction method, each method has advantages and disadvantages, such as a method suitable only for a specific image and a method that is greatly affected by noise. Also, some methods require adjustment of parameters.

【0011】このようなことから、画像処理に関する専
問的知識のない人がこれらのアルゴリズムを利用しよう
としても、専門家の助けなしでは使いこなせないという
ことである。
Therefore, even if a person who does not have an in-depth knowledge of image processing tries to use these algorithms, he or she cannot use them without the help of a specialist.

【0012】このような問題点を解決するためには、ど
のような画像についても適用できる方法が必要である。
これには、柔軟性を持つたファジィ理論の考え方を応用
することが有効であると考えられる。またファジィ理論
は「明るい」「暗い」「青い」など我々が日常使う形容
詞をメンバーシツプ関数によつて表現することが可能で
あり、インターフェースとしても使用し易いと考えるこ
とができる。
In order to solve such a problem, a method applicable to any image is required.
It is effective to apply the idea of flexible fuzzy theory to this. Fuzzy theory can express adjectives that we use everyday, such as "bright", "dark", and "blue", by means of a member function, and can be considered to be easy to use as an interface.

【0013】ルソー(Russo )は、簡単なファジィ推論
によつて輪郭抽出が可能であることを示しているが、そ
の推論規則は、あるピクセルについて、その8近傍が
「同じ」ピクセル値であれば、そこは輪郭ではないとい
うものである。ルソーの方法は非常に簡便な方法である
が次の2つの問題点がある。
[0013] Russo shows that contour extraction is possible by simple fuzzy inference, but the inference rule is that if a pixel's eight neighbors are "same" pixel values. , There is no contour. The Rousseau method is a very simple method, but has the following two problems.

【0014】その1つは、推論結果に輪郭の「方向性」
が含まれていないことである。輪郭の「方向性」が得ら
れない抽出方法では、その後の輪郭を線としてつなげる
作業が困難になる場合がある。もう1つは濃淡画像に対
象としていることである。これらのことから、方向性を
考えたルールを明度と色相の両方に適用することを提案
するものである。
One of them is the "direction" of the contour in the inference result.
Is not included. In the extraction method in which the "direction" of the contour cannot be obtained, it may be difficult to connect the contours as lines thereafter. The other is that it is targeted for grayscale images. From these things, we propose to apply a rule considering directionality to both lightness and hue.

【0015】[0015]

【課題を解決する為の手段】即ち推論の方法としては、
輪郭部分を3×3の9つのピクセルについて見た場合、
そのパターンは基本的に図1のように6種類であると考
えることができる。この図のパターン(a)は垂直方向
の輪郭、パターン(b)は水平方向の輪郭、パターン
(c)と(d)は右下りの輪郭、パターン(e)と
(f)は右上りの輪郭である。
[Means for solving the problem] That is, as a method of inference,
If we look at the contour part for 3 × 3 9 pixels,
It can be considered that there are basically six types of patterns as shown in FIG. In this figure, pattern (a) is a vertical contour, pattern (b) is a horizontal contour, patterns (c) and (d) are right-downward contours, and patterns (e) and (f) are upper-rightward contours. Is.

【0016】図1中の斜線部分と他の部分は、それぞれ
が同じ「明度」(または色相)に属していることを表わ
している。前記におけるピクセル値が「同じ」であるか
どうかの判定には、図2のようなメンバーシツプ関数を
用いる。
The shaded portions and other portions in FIG. 1 indicate that they belong to the same "brightness" (or hue). To determine whether or not the pixel values in the above are "same", a membership function as shown in FIG. 2 is used.

【0017】例えば、図1のパターン(a)の場合、左
1列の3ピクセル値が同じであり(図2のいずれかの山
に3ピクセル値が含まれる)、右1列の3ピクセル値が
「同じ」であり(図2のいずれかの山に3ピクセル値が
含まれる)、その2つが相異なれば垂直方向の輪郭が存
在するということがいえる。
For example, in the case of the pattern (a) shown in FIG. 1, the 3 pixel values in the left 1 column are the same (any mountain in FIG. 2 contains 3 pixel values), and the 3 pixel values in the right 1 column are Is "same" (any mountain in FIG. 2 contains 3 pixel values), and if the two are different, it can be said that there is a vertical contour.

【0018】即ちこの発明は、サンプル画像より得たサ
ンプルデータに基づきファジィ推論用のメンバーシップ
関数を自動生成した後、画像の各ピクセルの明度値につ
いて垂直方向輪郭、水平方向輪郭、右下り輪郭及び右上
り輪郭の6つのパターンから6つのルールを適用し、
ァジィ推論で6つの推論を行い、その中で最大値が得ら
ルールを採用して当該ルールのパターンを輪郭の
方向とし、前記ルールの推論結果を輪郭強度とし、各ピ
クセルの色相値についても前記と同様の推論を行ない、
各ピクセルについて輪郭の方向と強度を算出し、前記明
度値の推論によって得られた輪郭強度と、色相値の推論
によって得られた輪郭強度とのAND、またはOR演算
を行うと共に、各ピクセル値の彩度を荷重値として用い
ることを特徴としたファジィ推論を応用したカラー画像
の輪郭抽出方法である。
That is, the present invention uses a sample obtained from a sample image.
Membership for fuzzy inference based on sample data
After automatically generating the function, for the brightness value of each pixel of the image, the vertical outline, horizontal outline, downward right outline and upper right
Apply the six rule of six patterns of Ri contour, off
Performed six inference in Ajii inference employs a rule that a maximum value is obtained therein, the pattern of the rule and the direction of the contour, the inference result of the rule and the edge intensity, hue value for each pixel The same reasoning as above is performed for
The contour direction and intensity are calculated for each pixel, and the contour intensity obtained by the inference of the lightness value and the contour intensity obtained by the inference of the hue value are ANDed or ORed, and the pixel value of each pixel is calculated. This is a color image contour extraction method that uses fuzzy inference, which uses saturation as a weight value.

【0019】また他の発明は、ファジィ推論を輪郭抽出
に用い、画像の特性に合せたメンバーシップ関数を設定
することができるので、輪郭抽出機能を可変にするも
であり、彩度の低い部分では明度情報を優先し、彩度の
高い部分では色相情報を優先したものである。
Another aspect of the present invention is to extract a contour from fuzzy inference.
And set the membership function according to the characteristics of the image
It is possible to, and than also you contour extraction function variable, the lower part of the saturation priority to brightness information, in the portion having a high saturation is obtained by giving priority to color information.

【0020】次に、あるサンプル画像を選定し、そのサ
ンプル画像中抽出したい輪郭の箇所をトレースし、該当
輪郭のサンプルデータに基づきファジィ推論用のメンバ
ーシップ関数を自動生成し、類似画像の輪郭を抽出する
ことを特徴としたファジィ推論を応用したカラー画像の
抽出もできる
[0020] Next, to select a certain sample image, tracing the location of the contour to be extracted in the sample image, and automatically generate the membership functions for fuzzy inference on the basis of the sample data of the corresponding contour, the contour of the similar image Color images can also be extracted by applying fuzzy inference, which is characterized by extraction.

【0021】前記における色情報は、デジタル画像で
は、赤(R)、緑(G)、青(B)の三色によつて表現
されるのが標準となっている。然して色相・明度・彩度
の色の三属性について、その変換方法の一例を示すと次
のようになる。
It is standard that the color information in the above is represented by three colors of red (R), green (G) and blue (B) in a digital image. However, an example of the conversion method for the three attributes of hue, lightness, and saturation is as follows.

【0022】まず明度Vは、前記R、G、Bから次式の
ように計算することができる。
First, the brightness V can be calculated from the R, G, and B as follows.

【0023】[0023]

【数1】 [Equation 1]

【0024】次に、色差信号C1 、C2 が次式となる。Next, the color difference signals C 1 and C 2 are expressed by the following equation.

【0025】[0025]

【数2】 [Equation 2]

【数3】 [Equation 3]

【0026】前記数2のように計算され、これらの値か
ら色相H、彩度Sが次式により求められる。
## EQU2 ## The hue H and the saturation S are calculated by the equation 2 and the values S and S are obtained from the following equations.

【0027】[0027]

【数4】 [Equation 4]

【数5】 [Equation 5]

【0028】前記明度によって得られた輪郭強度と、色
相によつて得られた輪郭強度のAND演算(またはOR
演算)を行う。このとき、各ピクセル値の彩度(sat )
を次のように重み付けする。
An AND operation (or OR of the contour strength obtained by the above-mentioned brightness and the contour strength obtained by the hue)
Calculation). At this time, the saturation (sat) of each pixel value
Are weighted as follows.

【0029】[0029]

【数6】 [Equation 6]

【0030】前記輪郭抽出におけるルゴリズムの評価は
殆んど人の主観に頼っている。これは対象とする画像が
通常自然であり結果として得られる輪郭とはどのような
ものが良いか明確な定義がないためである。然し乍ら人
工的に作つたサンプル画像を用いれば定量的な評価を行
うこともできるので、以下これによりこの発明の評価を
行う。定量的評価には次の計算式を用いる。
The evaluation of the algorithm in the contour extraction depends on the subjectivity of most people. This is because the target image is usually natural and there is no clear definition of what the resulting contour should be. However, since it is possible to perform a quantitative evaluation by using a sample image artificially created, the evaluation of the present invention will be performed below. The following formula is used for quantitative evaluation.

【0031】[0031]

【数7】 [Equation 7]

【数8】 [Equation 8]

【0032】前記において、R1 は定義された輪郭の理
想点に対してどの程度実際に抽出されたかを表す数値で
ある。またRN は理想点以外の点が抽出された割合を表
す。RN における理想点とは輪郭の定義による候補群に
含まれた点のことを指している。
In the above description, R 1 is a numerical value representing how much is actually extracted with respect to the ideal point of the defined contour. Further, R N represents the ratio of the extracted points other than the ideal points. It refers to a point included in the candidate group as defined in the contour from the ideal point in R N.

【0033】定量的評価に用いたサンプルは、図3に示
した4つの画像である。
The samples used for the quantitative evaluation are the four images shown in FIG.

【0034】前記図3を用いて輪郭抽出法の定量的評価
を行つたが、既存の輪郭抽出法と顯著な差が生じたのは
次に示す場合である。
Quantitative evaluation of the contour extraction method was carried out using FIG. 3 described above. However, a significant difference from the existing contour extraction method occurred in the following cases.

【0035】1.輪郭のコントラスト(2つの領域のピ
クセル値の差)が小さい場合。 ファジィ理論を適用した輪郭抽出法では、輪郭のコント
ラストに左右されず良好な結果が得られたのに対し、プ
レウィット(Prewitt )及びソクベル(Soebel)の微分
オペレータによる方法では、コントラストが小さいとき
には検出されるノイズが増加する傾向が見られる。
1. When the contour contrast (difference between pixel values of two regions) is small. The contour extraction method applying the fuzzy theory gave good results regardless of the contrast of the contour. It can be seen that the noise generated increases.

【0036】2.画像に含まれるノイズの影響。 バイナリーノイズ(binary noise)及びガウシヤンノイ
ズ(Gaussian noise)を含んだ画像に対して特にルソー
の方法は大きくその影響を受ける。これはルソーの方法
が「周りのピクセルがすべて同じであればそこは輪郭で
はない」というルールを用いている為で、周りのピクセ
ルの内の1つでも異なつていればそこは輪郭と判断され
るからである。
2. The effect of noise in the image. Rousseau's method is greatly affected especially for images containing binary noise and Gaussian noise. This is because Rousseau's method uses the rule that "if all the surrounding pixels are the same, it is not a contour", and if any one of the surrounding pixels is different, it is judged as a contour. Because it is done.

【0037】また定性的評価として、自然画を用いた輪
郭抽出を行つた。図4の(a)(b)2種類の画像を用
いた結果を図5に示した。図4の画像にプレウィット
(Prewitt )の微分オペレータを用いた結果が図5
(a)、(c)であり、この発明のファジィ推論による
結果が図5(b)、(d)である。
As a qualitative evaluation, contour extraction using a natural image was performed. The results obtained by using the two types of images (a) and (b) of FIG. 4 are shown in FIG. The result of using the Prewitt differential operator on the image of FIG. 4 is shown in FIG.
5 (a) and 5 (c), and the results of the fuzzy inference according to the present invention are shown in FIGS. 5 (b) and 5 (d).

【0038】そこで図5の(a)と(b)を比べると、
プレウィット(Prewitt )の微分オペレータとファジィ
推論による方法で同じような結果が得られているが、図
5(c)と(d)の2つを比較すると、明らかな違いが
みられる。
Therefore, comparing (a) and (b) of FIG.
Although similar results have been obtained by the method using the Prewitt differential operator and the fuzzy inference, a clear difference can be seen by comparing the two in FIGS. 5C and 5D.

【0039】最も大きな違いは、(c)の微分オペレー
タによる方法は、オブジェクトの輪郭だけでなく、オブ
ジェクトの影まで抽出していることである。これはプレ
ウィット(Prewitt )の微分オペレーターの方法が明度
情報のみしか扱つていないためである。これに対し、こ
の発明のファジィ推論による方法は、明度情報の他に色
相情報や彩度情報も利用するため、オブジェクトの影を
抽出することなく(d)のような結果が得られるのであ
る。前記図5(c)と(d)の結果から分るように色情
報を輪郭抽出に用いることは精度を向上させる上で非常
に重要である。
The biggest difference is that the method using the differential operator in (c) extracts not only the contour of the object but also the shadow of the object. This is because the method of Prewitt's differential operator only deals with lightness information. On the other hand, the method based on fuzzy inference according to the present invention uses hue information and saturation information in addition to the lightness information, so that the result as shown in (d) can be obtained without extracting the shadow of the object. As can be seen from the results of FIGS. 5C and 5D, it is very important to use the color information for contour extraction in order to improve the accuracy.

【0040】[0040]

【実施例】この発明を任意のサンプル画像を抽出して行
う実施例につき、図6に基づいて説明する。先づ目的と
している種類の画像の中から、輪郭をトレースする為の
サンプル画像を選ぶ(a)。
EXAMPLE An example of carrying out the present invention by extracting an arbitrary sample image will be described with reference to FIG. First, a sample image for tracing the contour is selected from the images of the target type (a).

【0041】次にこのサンプル画像について、ユーザが
輪郭と思う箇所をトレースする(b)。この作業によつ
て輪郭周辺に関する情報システムに入力されたことにな
る。
Next, with respect to this sample image, a portion where the user thinks the contour is traced (b). By this work, it is input to the information system about the contour periphery.

【0042】前記トレースしたことによつて入力された
輪郭のサンプルデータをもとに、ファジィ推論のための
メンバーシツプ関数が自動生成される(c)。従ってフ
ァジィ推論のためのルールが自動的に生成されたことに
なる。
A member function for fuzzy inference is automatically generated based on the sample data of the contour input by the tracing (c). Therefore, the rules for fuzzy reasoning are automatically generated.

【0043】前記生成された推論ルールによつて、前記
で用いたサンプル画像と、同種の画像の輪郭抽出を行う
ことができる(d)。
According to the generated inference rule, the contours of the sample image used above and the same type of image can be extracted (d).

【0044】前記のように、ユーザがトレースすること
によつて、入力された輪郭に関するサンプルデータをも
とにしてメンバーシツプ関数が自動生成される。そのア
ルゴリズムを図7に示した。
As described above, by tracing by the user, the membership function is automatically generated based on the input sample data regarding the contour. The algorithm is shown in FIG.

【0045】輪郭に関するサンプルデータは、図7に示
したように3×3マトリクスの形で扱う。マトリクス中
の数値は明度値または色相値であり、以下の操作は明度
と色相について2回行なわれる。従つて明度に関する推
論ルールと色相に関する推論ルールがそれぞれ生成され
ることになる。まず、3×3のサンプルデータをそのパ
ターンの類似性をもとにクラス分けを行う。このとき、
特徴のないサンプルデータ、つまり9個の値がほぼ同じ
で、明らかに輪郭周辺のデータでないものについては除
外する。
The sample data relating to the contour is handled in the form of a 3 × 3 matrix as shown in FIG. Numerical values in the matrix are lightness values or hue values, and the following operations are performed twice for lightness and hue. Therefore, an inference rule for lightness and an inference rule for hue are generated respectively. First, 3 × 3 sample data is classified into classes based on the similarity of the patterns. At this time,
The sample data without features, that is, the nine values that are almost the same and are not obviously the data around the contour are excluded.

【0046】このようにクラス分けを行なうことによつ
て、輪郭に関するデータをその方向性および濃度差によ
つて分類することになる。
By performing the classification as described above, the data regarding the contour is classified according to its directionality and density difference.

【0047】従つて1つのクラスの中には、特定の方向
性を持ち特定の濃度差による輪郭に関するデータが集め
られることになる。
Therefore, in one class, data about contours having a specific directionality and having a specific density difference is collected.

【0048】次にメンバーシツプ関数の設定は、図7に
示したように各クラスの3×3のデータの各ピクセルに
ついて設定される。これには、各ピクセルにおけるサン
プルデータが個別に利用される。例えばクラスnについ
てm個のサンプルがあり、その左上の位置のピクセルに
関するサンプルデータをP1 、P2 、…、Pm とする。
このとき左上のピクセルに対するメンバーシツプ関数は
サンプルデータの平均値を頂点とし、分散に係数αを乘
じた結果を傾きとするような三角形型の関数になる(図
8)。
Next, the member function is set for each pixel of 3 × 3 data of each class as shown in FIG. For this, the sample data in each pixel is used individually. For example, there are m samples for the class n, and the sample data for the pixel at the upper left position is P 1 , P 2 , ..., P m .
At this time, the membership function for the upper left pixel becomes a triangular function having the average value of the sample data as the vertex and the result of multiplying the variance by the coefficient α as the slope (FIG. 8).

【0049】前記方法によつて、ユーザがトレースして
入力した輪郭情報をもとにしてその画像の特性に合つた
輪郭抽出のためのファジィ推論ルールを自動生成させる
ことができる。このようにして生成された推論ルール
は、サンプル画像として用いた画像と同じ特性を持つた
画像に適用することができる。
According to the above method, it is possible to automatically generate a fuzzy inference rule for contour extraction which matches the characteristics of the image based on the contour information traced and input by the user. The inference rule thus generated can be applied to an image having the same characteristics as the image used as the sample image.

【0050】まず明度に関するサンプルデータ数が、特
徴のないものを除外した結果SVALであつたとする。そ
してそれらのサンプルデータを用いて生成されたルール
数をRVAL とする。これらのルールRULE1 、RUL
2 、…、RULERVALによる推論結果がそれぞれ
1 、E2 、…、ERVALであつたとき、明度情報を用い
た最終的な推論結果EDGEVAL は次のように計算され
る。
First, it is assumed that the number of sample data relating to the lightness is S VAL as a result of excluding those without features. Then, the number of rules generated using those sample data is set as R VAL . These rules RULE 1 , RUL
When the inference results by E 2 , ..., RULE RVAL are E 1 , E 2 , ..., E RVAL respectively, the final inference result EDGE VAL using the lightness information is calculated as follows.

【0051】[0051]

【数9】 [Equation 9]

【0052】このように明度に関するルールによる推論
結果の中から最大値のみを取るのは、各推論ルールは異
なつた方向性、または異つた濃度差の輪郭を抽出するも
のであり、1つのピクセルは1つの方向性または1つの
濃度差の輪郭にしか成り得ないからである。同様に、色
相に関するサンプルデータ数をSHUE 、それらをもとに
生成されたルール数をRHUE 、そして色相による最終的
な推論結果をEDGEHUE とする。
In this way, the reason why only the maximum value is taken from the inference result by the rule concerning the lightness is that each inference rule is to extract the contour of different directionality or different density difference, and one pixel is This is because only one directionality or one density difference contour can be formed. Similarly, the number of sample data relating to hue is S HUE , the number of rules generated based on them is R HUE , and the final inference result by hue is EDGE HUE .

【0053】このとき明度及び色相の両方を考慮した最
終的な推論結果EDGEALL は、明度と色相に関するサ
ンプル数を用いて次のような重み付けをして求められ
る。
At this time, the final inference result EDGE ALL considering both lightness and hue is obtained by weighting as follows using the number of samples relating to lightness and hue.

【0054】[0054]

【数10】 [Equation 10]

【0055】このような重み付けをするのは、ユーザが
入力した輪郭情報について明度の特徴が大きければS
VAL が増加し、色相の特徴が大きければSHUE が増加す
るからである。
Such weighting is performed in S if the lightness feature of the contour information input by the user is large.
VAL increases, because S HUE increases the larger the characteristics of the hue.

【0056】つまりこのアルゴリズムは、輪郭が明度差
によるものか、濃度差によるものかを判断し、明度差に
よるものであれば明度情報を優先して輪郭抽出に用い、
色相差によるものであれば色相情報を優先して輪郭抽出
に用いるのである。
That is, this algorithm judges whether the contour is due to the difference in brightness or the difference in density, and if it is due to the difference in brightness, the brightness information is preferentially used for the contour extraction,
If the difference is due to the hue difference, the hue information is preferentially used for contour extraction.

【0057】前記図3を用いて輪郭をトレースし、それ
によつて得られたルールを用いて輪郭の方向性による抽
出力を調べた結果、水平、垂直、斜め、曲線の四種類の
輪郭に対して良好な結果を得られた。ただエッジの形状
がランプ状のものを用いた場合にはややノイズの発生が
みられた。
The contour is traced by using FIG. 3, and the extraction force by the directionality of the contour is examined by using the rule obtained thereby. As a result, for four types of contours of horizontal, vertical, diagonal and curved, And good results were obtained. However, when a ramp-shaped edge was used, some noise was observed.

【0058】また実際に輪郭抽出を行う画像の輪郭のコ
ントラスト(0〜63の64段階にとる)が異なるとき
は抽出率がどうなるかを調べた結果、例えばコントラス
トが30の輪郭をトレースして推論ルールを生成させた
場合はコントラストが34の輪郭までは十分に抽出でき
たが、コントラストが35以上になると輪郭の抽出率は
急激に落ち始め、コントラスト50以上のものについて
は殆んど何も抽出されないという結果を得た。
Further, as a result of checking the extraction rate when the contrast of the contour of the image for which contour extraction is actually performed (taken in 64 steps from 0 to 63) is different, for example, the contour having the contrast of 30 is traced and inferred. When the rule was generated, it was possible to sufficiently extract contours with a contrast of 34, but when the contrast was 35 or higher, the extraction rate of the contours began to drop sharply, and almost anything with a contrast of 50 or higher was extracted. I got the result that is not done.

【0059】これはつまりコントラストの小さい輪郭を
トレースしてルールを生成すれば、そのルールはコント
ラストの大きい輪郭を抽出することはなく、コントラス
トの大きい輪郭をトレースしてルールを生成すれば、コ
ントラストの小さい輪郭を抽出することはないことを示
している。結局このことはトレースした画像の特性に合
つた推論ルールが生成されていることを意味している。
This means that if a rule with a low contrast is traced to generate a rule, the rule does not extract a contour with a high contrast, but if a rule is traced with a contour with a high contrast to generate a rule, It shows that a small contour is not extracted. After all, this means that the inference rules that match the characteristics of the traced image are generated.

【0060】ノイズを含んだサンプル画像をトレースし
てその結果生成される推論ルールを用いて元のサンプル
画像の輪郭抽出を行い、ノイズを含んだ画像に対する抽
出力を調べた結果、同じ画像を使つているもにも関わら
ずノイズの量が増えるにしたがって輪郭の抽出率が減少
する事が認められた。
The sample image containing noise is traced, the contour of the original sample image is extracted using the inference rule generated as a result, and the extraction power for the image containing noise is examined. As a result, the same image is used. However, it was confirmed that the contour extraction rate decreased as the amount of noise increased.

【0061】ノイズの影響を受けてしまっているのは輪
郭周辺にノイズが存在するとき、それを含んだ情報を輪
郭情報として入力し、推論ルールの生成に用いているた
めであると考えられる。人が自分の目で画像を見たとき
には、多少ノイズが含まれていても画像全体をとらえて
輪郭を判断することができるが、そのような能力をシス
テムに持たせるのは困難であり、ノイズに関しては問題
の残るところである。
It is considered that the influence of noise is that when noise exists around the contour, information including it is input as contour information and used for generation of the inference rule. When a person looks at an image with his or her own eyes, it is possible to determine the contour by grasping the entire image even if it contains some noise, but it is difficult to give such a capability to the system. As for, there are still problems.

【0062】ここに図4の画像の中の特定のオブジェク
トのみをトレースしたことによつて得られた結果を図9
に示す。前記図9により分ることは、赤いオブジェクト
をトレースしたときに生成される推論ルールを用いれ
ば、赤いオブジェクトのみが抽出され、黄色いオブジェ
クトのみをトレースすれば、黄色いオブジェクトのみを
抽出することができるということである。
The result obtained by tracing only a specific object in the image of FIG. 4 is shown in FIG.
Shown in. It can be seen from FIG. 9 that only the red object can be extracted by using the inference rule generated when the red object is traced, and only the yellow object can be extracted by tracing the yellow object. That is.

【0063】つまりある画像の中から特定の輪郭だけを
トレースしてルールを生成させれば、そのような特別な
要求のための推論ルールを得ることができるのである。
このように特定の輪郭のみを抽出するという作業は、既
存の方法で行なうことは不可能であり、これまでは輪郭
抽出をした後の処理として行つていた部分である。しか
しこの発明によれば、ユーザが輪郭と思うところをトレ
ースしてシステムに入力するため、特定の輪郭に関する
情報をシステムに学習させるということが可能となつた
のである。
That is, by tracing only a specific contour from a certain image and generating a rule, an inference rule for such a special request can be obtained.
The work of extracting only a specific contour in this way cannot be performed by an existing method, and is a part that has been performed as a process after the contour extraction until now. However, according to the present invention, since the user traces what he / she thinks of a contour and inputs it to the system, it is possible to let the system learn information about a specific contour.

【0064】[0064]

【発明の効果】即ちこの発明によれば、輪郭抽出の為の
推論ルールを自動生成できるので次のような特質を有す
る。
According to the present invention, the inference rule for contour extraction can be automatically generated, so that it has the following characteristics.

【0065】1.サンプル画像の輪郭をトレースすると
いう簡単な作業によつて、その画像の特性に合せたファ
ジィ推論ルールが自動生成される。
1. By the simple operation of tracing the contour of the sample image, fuzzy inference rules matching the characteristics of the image are automatically generated.

【0066】2.ユーザが望んでいる特定の輪郭(例え
ば特定の色のオブジェクト輪郭など)のみを抽出できる
ようなファジィ推論ルールを生成させることができる。
2. A fuzzy inference rule can be generated so that only a specific contour desired by the user (for example, an object contour of a specific color) can be extracted.

【0067】3.ユーザはサンプル画像の輪郭をトレー
スするだけという単純なインタフェースを持つたシステ
ムであるため、画像処理の専門家でなくても簡単に使用
することができる。
3. Since the user has a system having a simple interface that only traces the contour of the sample image, it can be easily used even by a person who is not an image processing expert.

【0068】さらにこの発明によれば、メンバーシツプ
関数を調節することにより、画像の特性に合せた柔軟な
輪郭の抽出ができるようになる効果がある。
Further, according to the present invention, by adjusting the membership function, it is possible to extract a flexible contour in accordance with the characteristics of the image.

【0069】このように画像処理の専問的知識を持たな
いユーザが使うことを前提とした輪郭抽出システムはこ
れまで全く提案されていなかつたが、この点を改善した
ものである。
As described above, no contour extraction system intended for use by a user who does not have exclusive knowledge of image processing has been proposed so far, but this is an improvement.

【図面の簡単な説明】[Brief description of drawings]

【図1】(a)、(b)、(c)、(d)、(e)、
(f)この発明の実施例の輪郭パターンを示す図。
1 (a), (b), (c), (d), (e),
(F) The figure which shows the outline pattern of the Example of this invention.

【図2】同じくピクセル値に関するメンバーシツプ関数
の図。
FIG. 2 is a diagram of a membership function also relating to pixel values.

【図3】(a)、(b)、(c)、(d)同じくサンプ
ル画像。
3A, 3B, 3C, and 3D are sample images.

【図4】(a)、(b)同じく原画像。4A and 4B are also original images.

【図5】(a)、(b)、(c)、(d)同じく抽出し
た画像。
FIG. 5 (a), (b), (c), (d) similarly extracted images.

【図6】(a)、(b)、(c)、(d)同じく自動生
成の方法の説明図。
6A, 6B, 6C, and 6D are explanatory views of the same automatic generation method.

【図7】同じく自動生成のアルゴリズムの説明図。FIG. 7 is an explanatory diagram of an algorithm of automatic generation.

【図8】同じくメンバーシツプ関数の設定説明図。FIG. 8 is an explanatory diagram of setting of a member function.

【図9】(a)、(b)同じく図4の画像の中の特定の
オブジェクトのトレースによって得られた図。
9A and 9B are views obtained by tracing a specific object in the image of FIG.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平3−268072(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/60 250 JICSTファイル(JOIS)─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-3-268072 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06T 7/60 250 JISST file (JOIS)

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 サンプル画像より得たサンプルデータに
基づきファジィ推論用のメンバーシップ関数を自動生成
した後、画像の各ピクセルの明度値について垂直方向輪
郭、水平方向輪郭、右下り輪郭及び右上り輪郭の6つの
パターンから6つのルールを適用し、ファジィ推論で6
つの推論を行い、その中で最大値が得られルールを採
用して当該ルールのパターンを輪郭の方向とし、前記
ルールの推論結果を輪郭強度とし、各ピクセルの色相値
についても前記と同様の推論を行ない、各ピクセルにつ
いて輪郭の方向と強度を算出し、前記明度値の推論によ
って得られた輪郭強度と、色相値の推論によって得られ
た輪郭強度とのAND、またはOR演算を行うと共に、
各ピクセル値の彩度を荷重値として用いることを特徴と
したファジィ推論を応用したカラー画像の輪郭抽出方
法。
1. To sample data obtained from a sample image
After automatically generating <br/> membership functions for fuzzy inference based, vertical wheel lightness value of each pixel of the image
Contour, horizontal contour, downward right contour, and upper right contour
Apply 6 rules from the pattern, 6 by fuzzy reasoning
One of performed inference employs a rule that a maximum value is obtained therein, the pattern of the rule and the direction of the contour, the inference result of the <br/> rules and edge intensity, hue value for each pixel For the above, the same inference as described above is performed, the contour direction and intensity are calculated for each pixel, and the AND of the contour intensity obtained by the inference of the lightness value and the contour intensity obtained by the inference of the hue value, or While performing the OR operation,
A color image contour extraction method using fuzzy inference, which uses the saturation of each pixel value as a weight value.
【請求項2】 ファジィ推論を輪郭抽出に用い、画像の
特性に合せたメンバーシップ関数を設定することができ
るので、輪郭抽出機能を可変にすることを特徴とした請
求項1記載のファジィ推論を応用したカラー画像の輪郭
抽出方法。
2. A fuzzy inference can be used for contour extraction, and a membership function can be set according to the characteristics of the image.
Therefore , the contour extracting function is made variable so that the contour extracting method of the color image applying fuzzy inference according to claim 1.
【請求項3】 彩度の低い部分では明度情報を優先し、
彩度の高い部分では色相情報を優先した請求項1記載の
ファジィ推論を応用したカラー画像の輪郭抽出方法。
3. Lightness information is prioritized in a low saturation portion,
2. A color image contour extraction method applying fuzzy inference according to claim 1, wherein hue information is prioritized in a high saturation portion.
JP11746193A 1993-05-19 1993-05-19 Contour extraction method of color image applying fuzzy inference Expired - Fee Related JP3381039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11746193A JP3381039B2 (en) 1993-05-19 1993-05-19 Contour extraction method of color image applying fuzzy inference

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11746193A JP3381039B2 (en) 1993-05-19 1993-05-19 Contour extraction method of color image applying fuzzy inference

Publications (2)

Publication Number Publication Date
JPH06333045A JPH06333045A (en) 1994-12-02
JP3381039B2 true JP3381039B2 (en) 2003-02-24

Family

ID=14712256

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11746193A Expired - Fee Related JP3381039B2 (en) 1993-05-19 1993-05-19 Contour extraction method of color image applying fuzzy inference

Country Status (1)

Country Link
JP (1) JP3381039B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4853560B2 (en) 2009-09-18 2012-01-11 コニカミノルタビジネステクノロジーズ株式会社 Image processing method, image processing apparatus, and computer program
KR101881795B1 (en) * 2016-12-05 2018-07-26 인천대학교 산학협력단 Method for Detecting Edges on Color Image Based on Fuzzy Theory

Also Published As

Publication number Publication date
JPH06333045A (en) 1994-12-02

Similar Documents

Publication Publication Date Title
Liang et al. Competitive fuzzy edge detection
CN102187365B (en) Image processing device, method, and program
CN106169081B (en) A kind of image classification and processing method based on different illumination
US6603880B2 (en) Method and device of object detectable and background removal, and storage media for storing program thereof
Moreira et al. Neural-based color image segmentation and classification using self-organizing maps
US5247583A (en) Image segmentation method and apparatus therefor
US7528991B2 (en) Method of generating a mask image of membership of single pixels to certain chromaticity classes and of adaptive improvement of a color image
Daily Color image segmentation using Markov random fields
CN113537099B (en) Dynamic detection method for fire smoke in highway tunnel
CN103914699A (en) Automatic lip gloss image enhancement method based on color space
CN106127735A (en) A kind of facilities vegetable edge clear class blade face scab dividing method and device
Gupta et al. Low contrast image enhancement technique by using fuzzy method
Wang et al. An edge detection method by combining fuzzy logic and neural network
JP3381039B2 (en) Contour extraction method of color image applying fuzzy inference
JP3505372B2 (en) Image processing device and image processing method for soft landing of moon and planet
Pujas et al. Robust colour image segmentation
CN104966271B (en) Image de-noising method based on biological vision receptive field mechanism
Khudhair et al. Soft edge detection by mamdani fuzzy inference of color image
JPH08221567A (en) Color area separating method
JP3264460B2 (en) Image identification method
JP4202692B2 (en) Image processing method and apparatus
Zeng et al. Categorical color projection for robot road following
Maeda et al. Rough and accurate segmentation of natural color images using fuzzy region-growing algorithm
Boaventura et al. Border detection in digital images: An approach by fuzzy numbers
Praveena et al. A neuro fuzzy image fusion using block based feature level method

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees