JPH06111016A - Area dividing method for color image - Google Patents

Area dividing method for color image

Info

Publication number
JPH06111016A
JPH06111016A JP4258505A JP25850592A JPH06111016A JP H06111016 A JPH06111016 A JP H06111016A JP 4258505 A JP4258505 A JP 4258505A JP 25850592 A JP25850592 A JP 25850592A JP H06111016 A JPH06111016 A JP H06111016A
Authority
JP
Japan
Prior art keywords
space
color
curve
distribution
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4258505A
Other languages
Japanese (ja)
Other versions
JP3289787B2 (en
Inventor
Osamu Nakagawa
修 中川
Masao Aizu
昌夫 会津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP25850592A priority Critical patent/JP3289787B2/en
Publication of JPH06111016A publication Critical patent/JPH06111016A/en
Application granted granted Critical
Publication of JP3289787B2 publication Critical patent/JP3289787B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To execute a better area division by modeling the feature of a distribution on a color space estimated from the reflection model of an object as a curve for passing through 'object color' from 'black' and reaching 'white', and executing clustering on a parameter space for distinguishing this curve. CONSTITUTION:The feature of a distribution on a color space estimated from the reflection model of an object is modeled as a curve for passing through 'object color' from 'black' and reaching 'white'. By mapping each picture element onto a parameter space for distinguishing its curve, such a distribution as each picture element in the same area is localized in a specific place is obtained, and clustering is executed on its space. Also, since cluster representative points 1-3 correspond to one piece of half ellipse for representing the area, after a division is executed in such a manner, for which half ellipse each picture element belongs is decided, labeling is executed and the area division is finished. Thus, the picture element in the same area comes to be localized easily in a specific place on the parameter space.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カラー画像の領域分割
方法に係り、特に、印刷製板の画像データ処理に際し
て、画像中の各物体に対応する特定領域の抽出(いわゆ
る切り抜き)や、領域選択型の色調修正、あるいは、画
像を構造的に記述し、例えばデータ圧縮等に利用する構
造抽出符号化等に用いるのに好適な、カラー画像の領域
分割方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color image area dividing method, and more particularly to extracting a specific area (so-called clipping) or area corresponding to each object in an image when processing image data of a printing plate. The present invention relates to a color image area dividing method suitable for selective color tone correction or for structurally describing an image and for use in, for example, structure extraction coding used for data compression or the like.

【0002】[0002]

【従来の技術】デジタル・カラー画像の領域分割法の代
表的なものの1つとして、色空間上でのクラスタリング
手法がある。
2. Description of the Related Art A clustering method on a color space is one of typical methods for dividing a region of a digital color image.

【0003】これは、図1に示す如く、画像平面内の画
素を色空間(例えばRGB色空間)に写像し、その空間
上でのクラスタ重心からの距離に応じて設定したクラス
タ境界を用いたクラスタリングにより、各画素の分類及
び1、2、3等のラベル付けを行い、画像平面に逆写像
することにより領域分割画像を得て、領域分割を行う方
法である。
As shown in FIG. 1, this is done by mapping pixels in an image plane into a color space (for example, RGB color space) and using a cluster boundary set according to the distance from the cluster centroid in that space. This is a method in which each pixel is classified and labeled with 1, 2, 3, etc. by clustering, and a region-divided image is obtained by inverse mapping on an image plane to perform region division.

【0004】[0004]

【発明が解決しようとする課題】この従来法は、同一領
域の画素が、色空間上で常に特定の場所に局在している
場合には旨く領域分割ができるが、実際の画像ではそう
でない場合も多い。従って、同一領域であるにもかかわ
らず、複数の領域に分割されたり、異なる領域が1つの
領域と見做されたり、単独で用いるには問題の多い手法
であった。
According to this conventional method, when the pixels in the same area are always localized in a specific place on the color space, the area can be properly divided, but it is not so in the actual image. In many cases. Therefore, even though they are the same area, they are divided into a plurality of areas, different areas are regarded as one area, and there are many problems in using them independently.

【0005】本発明は、前記従来の問題点を解消するべ
くなされたもので、画像の色空間上での分布のモデルに
基づき、従来法とは全く異った観点から、新しいクラス
タリング手法を提供することを目的とする。
The present invention has been made to solve the above-mentioned conventional problems, and provides a new clustering method based on a model of distribution of an image in a color space, from a viewpoint completely different from the conventional method. The purpose is to do.

【0006】[0006]

【課題を解決するための手段】本発明は、カラー画像の
領域分割に際して、物体の反射モデルから推定される色
空間上での分布の特徴を、「黒」から「物体色」を通り
「白」へと至る曲線としてモデル化し、該曲線を区別す
るパラメータ空間上へ各画素を写像することにより、同
一領域の画素同士が特定の場所に局在するような分布を
得、その空間上でクラスタリングを行うことにより、前
記目的を達成したものである。
According to the present invention, when a color image is divided into regions, the characteristics of the distribution in the color space estimated from the reflection model of the object are changed from "black" to "object color" to "white". By modeling as a curve leading to, and mapping each pixel on a parameter space that distinguishes the curve, a distribution in which pixels in the same region are localized at a specific location is obtained, and clustering is performed on that space. By performing the above, the above-mentioned object is achieved.

【0007】[0007]

【作用】通常、画像は三次元的な拡がりを持った物体に
照明光を当て、反射光を適切なレンズ系に通し、二次元
平面にマッピングすることによって撮影が行われる。
In general, an image is photographed by illuminating an object having a three-dimensional spread with illumination light, passing the reflected light through an appropriate lens system, and mapping the reflected light on a two-dimensional plane.

【0008】ある1つの物体は同一の分光反射率を持
ち、つまり、同一の色を持っていて、照明光と物体表面
の角度と視点の位置の関係により、様々なグラデーショ
ンが生じる。しかし、このグラデーションは、色空間上
である種の曲線に沿って変化する。何故ならば、影にな
り照明光が届かない部分は黒くなり、物体の表面に対し
て、照明光が入射したときの入射角で決まる出射角と物
体への視線が近い物体表面の領域では、多くの場合鏡面
反射状態となり、いわゆるキャッチライトの場所とな
る。この部分は、照明光がある反射率で全ての波長の光
が反射するので、照明光と同じ“白”となり、その中間
の部分は物体表面が拡散反射をし、視線角度に対し反射
率が分布を持つので、同一領域(同一物体)の画素は、
色空間(例えばL*u *v *空間)上では、図2のよう
に、黒→物体色→白という曲線上に集中して分布する傾
向があると考えられ、実際にもそのように分布している
ことが確認できる。ここで、L*は明度、u *v *平面
内でL*軸からの距離は彩度、回転角は色相を表わす。
One object has the same spectral reflectance, that is, the same color, and various gradations occur depending on the relationship between the angle of the illumination light and the surface of the object and the position of the viewpoint. However, this gradation changes along a certain curve in the color space. The reason is that in the area of the object surface where the line of sight to the object is close to the exit angle determined by the incident angle when the illumination light is incident on the surface of the object, which is shaded and the area to which the illumination light does not reach become black. In many cases, it is a specular reflection state, which is a so-called catch light place. In this part, the illumination light reflects light of all wavelengths with a certain reflectance, so it becomes the same “white” as the illumination light, and in the middle part, the object surface is diffusely reflected and the reflectance is different with respect to the line-of-sight angle. Since it has a distribution, pixels in the same area (same object) are
In the color space (for example, L * u * v * space), it is considered that there is a tendency to concentrate on the curve of black → object color → white as shown in FIG. You can confirm that you are doing. Here, L * represents lightness, the distance from the L * axis in the u * v * plane represents saturation, and the rotation angle represents hue.

【0009】従って、画像全体で見ると、図2のような
楕円体を屈曲させたようなバナナ状の分布が、図3に示
す如く、領域の数(物体の数)だけ複数存在することに
なる。
Therefore, when viewed from the entire image, there are a plurality of banana-shaped distributions, such as a bent ellipsoid as shown in FIG. 2, corresponding to the number of regions (the number of objects), as shown in FIG. Become.

【0010】ところが従来法では、これらのことが全く
考慮されていないため、図4に破線で示す如く、同一領
域(物体)であるにもかかわらず、複数の領域に分割さ
れたり、図5に破線で示す如く、異なる領域(物体)が
1つの領域と見做されたりすることがあり、従来のクラ
スタリング手法は、領域分割法としては不完全なもので
あった。
However, in the conventional method, since these matters are not taken into consideration at all, as shown by a broken line in FIG. 4, even though the same area (object) is divided into a plurality of areas, or in FIG. As shown by the broken line, different regions (objects) may be regarded as one region, and the conventional clustering method is incomplete as a region division method.

【0011】本発明では、前述した分布のモデルに基づ
き、各領域に対応した複数の屈曲楕円体状分布を分離す
るようにクラスタリングを行って、従来法の問題点を解
決している。
In the present invention, the problem of the conventional method is solved by performing clustering so as to separate a plurality of bent ellipsoidal distributions corresponding to each region based on the above-described distribution model.

【0012】以下、本発明のクラスタリング手法につい
て詳細に説明する。
The clustering method of the present invention will be described in detail below.

【0013】今、図6のように、色空間(例えばL*u
*v *空間)上の「黒」を表わす点Aと、「白」を表わ
す点Bを通る曲線群を考える。すると、任意の画素は、
色空間上で1点として表わされるが、それは必ず曲線群
の中の1つの曲線に属する。即ち、1つの画素に対して
1つの曲線が対応する。
Now, as shown in FIG. 6, the color space (for example, L * u
Consider a group of curves passing through a point A representing "black" and a point B representing "white" on the * v * space). Then any pixel becomes
Although represented as one point in the color space, it always belongs to one curve in the curve group. That is, one curve corresponds to one pixel.

【0014】各々の曲線を区別するパラメータは2つで
十分であるので、各画素を二次元のパラメータ空間上の
1点にマッピングして表現できる。例えば、この曲線群
として、図7のように、点Aと点Bを通る半楕円の集合
を考え、明度軸上の原点の位置を L=L*−50 ………(1) に従い移動して、L*のとり得る範囲を0≦L*≦10
0に正規化する。
Since two parameters for distinguishing each curve are sufficient, each pixel can be represented by mapping to one point on the two-dimensional parameter space. As an example of this curve group, consider a set of semi-ellipses passing through points A and B as shown in FIG. 7, and move the position of the origin on the lightness axis according to L = L * -50 ... (1) The range of L * is 0 ≦ L * ≦ 10
Normalize to 0.

【0015】ここで、1つの半楕円がL=0平面と交わ
る面は一意的に決まるので、半楕円曲線群は、この交点
の(u *、v *)座標値(μ、ν)によってパラメータ
化することができる。
Here, since the plane where one semi-ellipse intersects the L = 0 plane is uniquely determined, the semi-elliptic curve group has parameters (u *, v *) coordinate values (μ, ν) of this intersection. Can be converted.

【0016】従って、各画素は、半楕円に沿った一種の
写影操作によって、L=0平面上にマッピングすること
ができる。
Therefore, each pixel can be mapped on the L = 0 plane by a kind of mapping operation along the semi-ellipse.

【0017】実際の画像の色空間上での分布が、例えば
図8のようになっているとき、このようなマッピングに
よって、(μ、ν)平面上では、図9のような分布にな
り、領域毎に局在した分布を得ることができる。このよ
うにして、特徴空間にマッピングしておいてから、通常
のクラスタリング手法を用いることによって、効率の良
い領域分割が行える。
When the distribution of the actual image on the color space is as shown in, for example, FIG. 8, such mapping results in the distribution on the (μ, ν) plane as shown in FIG. It is possible to obtain a localized distribution for each region. In this way, efficient mapping can be performed by mapping the feature space and then using a normal clustering method.

【0018】[0018]

【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0019】本実施例を実施するための装置は、図10
に示す如く、色空間変換部10と、特徴空間への変換部
20と、領域分割部30とを含んでいる。
An apparatus for carrying out this embodiment is shown in FIG.
As shown in FIG. 3, the color space conversion unit 10, the feature space conversion unit 20, and the region division unit 30 are included.

【0020】前記色空間変換部10は、入力画像信号、
例えばRGB信号をL*u *v *信号に変換する。RG
BからXYZ座標系の3刺激値XYZ、同XYZからL
*u*v *への変換は確立されており、RGBからXY
Zへの変換は、次式によって定義される(宮原誠「系統
的画像符号化」(株)アイピーシーの134頁参照)。
The color space conversion section 10 receives an input image signal,
For example, an RGB signal is converted into an L * u * v * signal. RG
B to XYZ coordinate system tristimulus values XYZ, XYZ to L
Conversion to * u * v * has been established and RGB to XY
The conversion to Z is defined by the following equation (see Makoto Miyahara “Systematic Image Coding” IPC Co., Ltd., page 134).

【0021】[0021]

【数1】 [Equation 1]

【0022】又、XYZからL*u *v *への変換は、
次式で定義される(高木幹雄、下田陽久監修「画像解析
ハンドブック」東京大学出版会の107頁−108頁参
照)。
The conversion from XYZ to L * u * v * is
It is defined by the following formula (see "Image Analysis Handbook" edited by Mikio Takagi and Yoshihisa Shimoda, pages 107-108 of the University of Tokyo Press).

【0023】[0023]

【数2】 [Equation 2]

【0024】ここで、(X0 、Y0 、Z0 )は、標準光
源下における完全拡散白色面についての(X、Y、Z)
の値であり、標準光源C(色温度6774K)の場合、 (X0 、Y0 、Z0 )=(98.072、100.0
0、118.225) である。
Here, (X0, Y0, Z0) is (X, Y, Z) for a perfect diffuse white surface under a standard light source.
Of the standard light source C (color temperature 6774K), (X0, Y0, Z0) = (98.072, 100.0)
0, 118.225).

【0025】本実施例では、色空間としてL*u *v *
表色系を用いているが、L*a *b*表色系等、他の色
空間でも「黒→物体色→白」を通るような適当な曲線群
を考えることにより、同等の効果が期待できる。
In this embodiment, L * u * v * is used as the color space.
Although the color system is used, the equivalent effect can be obtained by considering an appropriate curve group that passes through “black → object color → white” in other color spaces such as the L * a * b * color system. Can be expected.

【0026】前記特徴空間への変換部20は、(L*、
u *、v *)を領域分割に適した特徴空間上の点(L、
μ、ν)に変換する。図11から、変換式は代数幾何学
的に求まり、以下のようになる。
The conversion unit 20 into the feature space is (L *,
u *, v *) is a point (L,
μ, ν). From FIG. 11, the conversion formula is obtained by algebraic geometry, and is as follows.

【0027】[0027]

【数3】 [Equation 3]

【0028】前記領域分割部30は、全画像に対してサ
ンプリングを行って、各画素に対する(μ、ν)の値か
らトレーニングデータを作り、ISODATA(Itera
tiveSelf Organizing Data Analysis Techniques
)法により二次元のクラスタリングを行う(高木幹
雄、下田陽久監修「画像解析ハンドブック」東京大学出
版会の648頁−651頁参照)。
The area dividing section 30 samples all images, creates training data from the values of (μ, ν) for each pixel, and ISODATA (Itera)
tiveSelf Organizing Data Analysis Techniques
) Method for two-dimensional clustering (see “Image Analysis Handbook” supervised by Mikio Takagi and Yohisa Shimoda, pages 648-651 of the University of Tokyo Press).

【0029】前記ISODATA法は、初期状態として
適当なクラスタを与え、そのメンバを組替えて少しずつ
「より良いクラスタ」を求めていくもので、非階層的ク
ラスタリング(再配置法)を代表する手法として、古く
から知られた手法である。
In the ISODATA method, an appropriate cluster is given as an initial state, and its members are recombined to gradually obtain a "better cluster", which is a representative method of non-hierarchical clustering (relocation method). , Is a method that has been known since ancient times.

【0030】このISODATA法の手順を図12に示
す。
FIG. 12 shows the procedure of this ISODATA method.

【0031】このISODATA法では、まずステップ
100で、再配置の収束条件、微小クラスタ、孤立デー
タの判定条件、分裂・融合の分岐条件等のパラメータを
設定する。
In this ISODATA method, first in step 100, parameters such as relocation convergence conditions, minute clusters, isolated data determination conditions, and split / fusion branch conditions are set.

【0032】次いで、ステップ102で、初期クラスタ
の重心を決定する。例えば、初期クラスタの数を1とし
て全平均を用いることができる。
Then, in step 102, the center of gravity of the initial cluster is determined. For example, the total average can be used with the number of initial clusters being 1.

【0033】次いで、ステップ104乃至108で、再
配置法を実施する。具体的には、まずステップ104
で、各データとクラスタ重心との距離を計算し、それぞ
れのデータを、距離が最小となるクラスタに配置する。
次いでステップ106に進み、再配置されたクラスタ内
で、各クラスタの重心を再計算して修正する。次いで、
ステップ108に進み、各データとクラスタ重心の距離
の平均が、再配置・重心の修正の結果、変化しなけれ
ば、収束したと見做し、それ以外はステップ104に戻
って繰返す。
Then, in steps 104 to 108, the rearrangement method is performed. Specifically, first, step 104
Then, the distance between each piece of data and the center of gravity of the cluster is calculated, and each piece of data is arranged in the cluster having the smallest distance.
Then, in step 106, the center of gravity of each cluster is recalculated and corrected in the rearranged clusters. Then
In step 108, if the average of the distance between each data and the cluster centroid does not change as a result of the rearrangement / correction of the centroid, it is considered to have converged, and otherwise returns to step 104 to repeat.

【0034】再配置法終了後、ステップ110に進み、
データの数が著しく少ない微小クラスタと、他のクラス
タから著しく離れた孤立データを、以後のクラスタリン
グから除外する。
After the rearrangement method is completed, the process proceeds to step 110,
Small clusters with a significantly small amount of data and isolated data that are significantly separated from other clusters are excluded from subsequent clustering.

【0035】次いでステップ112に進み、クラスタ重
心間の距離の最小値が、ある閾値以上あり、且つ、クラ
スタの分散の最大値が、ある閾値以下であるとき、クラ
スタリングは収束したとして、終了する。それ以外はス
テップ114及び/又は116に進む。
Next, in step 112, when the minimum value of the distance between the cluster centroids is greater than or equal to a certain threshold value and the maximum value of the variance of the cluster is less than or equal to a certain threshold value, it is determined that the clustering has converged, and the clustering ends. Otherwise, go to steps 114 and / or 116.

【0036】クラスタ重心間の距離の最小値が、ある閾
値以下である場合には、ステップ114に進んで、その
クラスタ対を統合し、新しいクラスタ重心を計算する。
If the minimum distance between the cluster centroids is less than or equal to a threshold, the process proceeds to step 114, the cluster pairs are integrated, and a new cluster centroid is calculated.

【0037】一方、クラスタの分散の最大値が、ある閾
値以上である場合には、ステップ116に進んで、クラ
スタ分散の最大値が閾値以下になるまでクラスタを分裂
させ、新しいクラスタ重心を計算する。
On the other hand, if the maximum value of the variance of the cluster is greater than a certain threshold value, the process proceeds to step 116, the cluster is divided until the maximum value of the cluster variance is equal to or less than the threshold value, and a new cluster centroid is calculated. .

【0038】ステップ114による統合又はステップ1
16による分裂が終了した後、再びステップ104に戻
って、処理を繰返す。
Integration by step 114 or step 1
After the division by 16 is completed, the process returns to step 104 again to repeat the processing.

【0039】このようにして、図13に示すような、ク
ラスタ分割(クラスタ境界を破線で示す)と、クラスタ
代表点1、2、3(○印で示す)が得られる。
In this way, cluster division (cluster boundaries are indicated by broken lines) and cluster representative points 1, 2, 3 (indicated by circles) as shown in FIG. 13 are obtained.

【0040】発明の作用の項で説明したように、この各
々の代表点1、2、3が、図14に示す如く、領域を代
表する半楕円1本に相当するので、このように分割を行
った後、各画素がどの半楕円に属するかを判断し、ラベ
ル付けを行って、領域分割を終了する。
As described in the section of the operation of the invention, since each of the representative points 1, 2, and 3 corresponds to one semi-ellipse representing the area as shown in FIG. 14, the division is performed in this way. After that, it is determined which half ellipse each pixel belongs to, labeling is performed, and the region division is completed.

【0041】[0041]

【発明の効果】以上説明した通り、本発明によれば、物
体の反射モデルから推定される色空間上での分布の特徴
を「黒」から「物体色」を通り「白」へ至る曲線として
モデル化し、曲線を区別するパラメータ空間上でクラス
タリングを行っているため、同一領域の画素は、パラメ
ータ空間上では特定の場所に局在し易くなり、その結
果、従来法と比較して、より良い領域分割を行うことが
可能となる。
As described above, according to the present invention, the characteristic of the distribution in the color space estimated from the reflection model of an object is represented by a curve from "black" to "object color" to "white". Since modeling is performed and clustering is performed on the parameter space that distinguishes the curves, pixels in the same area tend to be localized at a specific location on the parameter space, and as a result, it is better than the conventional method. It is possible to perform area division.

【図面の簡単な説明】[Brief description of drawings]

【図1】従来のRGB色空間上でのクラスタリング手法
を説明する線図
FIG. 1 is a diagram illustrating a conventional clustering method on an RGB color space.

【図2】本発明の原理を説明するための、L*u *v *
空間上における一物体の物体色の分布の一例を示す線図
FIG. 2 shows L * u * v * for explaining the principle of the present invention.
Diagram showing an example of distribution of object color of one object in space

【図3】同じく、画像全体における複数の物体の物体色
の分布の例を示す線図
FIG. 3 is a diagram similarly showing an example of distribution of object colors of a plurality of objects in the entire image.

【図4】従来のクラスタリング手法による分割結果の一
例をL*u *v *空間上に示した線図
FIG. 4 is a diagram showing an example of a division result by a conventional clustering method in an L * u * v * space.

【図5】同じく他の例をL*u *v *空間上に示した線
FIG. 5 is a diagram showing another example in the L * u * v * space.

【図6】本発明のクラスタリング手法を説明するため
の、L*u *v *空間上の「黒」を表わす点と、「白」
を表わす点を通る曲線群を示す線図
FIG. 6 is a diagram showing points representing “black” and “white” on the L * u * v * space for explaining the clustering method of the present invention.
Diagram showing a group of curves passing through points

【図7】同じく、L*のとり得る範囲を正規化した状態
を示す線図
FIG. 7 is a diagram showing a state in which the range of L * can be normalized.

【図8】実際の画像の色空間上での分布の例を示す線図FIG. 8 is a diagram showing an example of distribution of an actual image in a color space.

【図9】同じく、マッピングによって得られる(μ、
ν)平面上での分布を示す線図
FIG. 9 is also obtained by mapping (μ,
ν) Diagram showing the distribution on the plane

【図10】本発明の実施例を実施するための装置の全体
構成を示すブロック線図
FIG. 10 is a block diagram showing an overall configuration of an apparatus for carrying out an embodiment of the present invention.

【図11】前記実施例の特徴空間への変換部で用いられ
ている変換式を説明するための線図
FIG. 11 is a diagram for explaining a conversion formula used in a conversion unit for converting into a feature space in the embodiment.

【図12】前記実施例の領域分割部で用いられている二
次元クラスタリング手法の一例を説明するための流れ図
FIG. 12 is a flowchart for explaining an example of a two-dimensional clustering method used in the area dividing unit of the above-described embodiment.

【図13】前記実施例により得られるクラスタ分割とク
ラスタ代表点を示す線図
FIG. 13 is a diagram showing cluster division and cluster representative points obtained in the above embodiment.

【図14】図13のクラスタ代表点を含むL*u *v *
空間上の領域を示す線図
14 includes L * u * v * including cluster representative points in FIG.
Diagram showing the area in space

【符号の説明】[Explanation of symbols]

10…色空間変換部 20…特徴空間への変換部 30…領域分割部 10 ... Color space conversion unit 20 ... Feature space conversion unit 30 ... Region division unit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】物体の反射モデルから推定される色空間上
での分布の特徴を、「黒」から「物体色」を通り「白」
へと至る曲線としてモデル化し、 該曲線を区別するパラメータ空間上へ各画素を写像する
ことにより、同一領域の画素同士が特定の場所に局在す
るような分布を得、 その空間上でクラスタリングを行うことを特徴とするカ
ラー画像の領域分割方法。
1. A distribution characteristic in a color space estimated from a reflection model of an object has a characteristic of "white" passing from "black" to "object color".
By modeling each curve as a curve leading to, and mapping each pixel on the parameter space that distinguishes the curve, a distribution in which pixels in the same region are localized at a specific place is obtained, and clustering is performed on that space. A method of dividing a color image into areas.
JP25850592A 1992-09-28 1992-09-28 How to segment a color image Expired - Fee Related JP3289787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25850592A JP3289787B2 (en) 1992-09-28 1992-09-28 How to segment a color image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25850592A JP3289787B2 (en) 1992-09-28 1992-09-28 How to segment a color image

Publications (2)

Publication Number Publication Date
JPH06111016A true JPH06111016A (en) 1994-04-22
JP3289787B2 JP3289787B2 (en) 2002-06-10

Family

ID=17321146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25850592A Expired - Fee Related JP3289787B2 (en) 1992-09-28 1992-09-28 How to segment a color image

Country Status (1)

Country Link
JP (1) JP3289787B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3728896C1 (en) * 1987-08-29 1988-06-30 Staedtler Fa J S Cap for writing, drawing or painting devices
DE8814492U1 (en) * 1988-11-21 1989-03-02 A. W. Faber-Castell GmbH & Co, 8504 Stein Cap for writing or similar devices
DE8906686U1 (en) * 1989-05-29 1989-07-20 Herlitz Ag, 1000 Berlin Writing or painting instrument, such as a fibre-tip pen or similar.
DE3817248C1 (en) * 1988-05-20 1989-10-26 Kreuzer Produktion + Vertrieb Gmbh & Co Kg, 5300 Bonn, De Protective cap for a writing, drawing or applicator instrument
DE3818473A1 (en) * 1988-05-31 1989-12-07 Staedtler Fa J S CAP FOR WRITING INSTRUMENTS
DE3821195A1 (en) * 1988-06-23 1989-12-28 Schwan Stabilo Schwanhaeusser PROTECTIVE CAP FOR A WRITING, SIGN OR APPLICATION DEVICE
EP0477316B1 (en) * 1990-03-19 1999-04-14 The Gillette Company Writing instrument cap
US6633407B1 (en) 1998-04-29 2003-10-14 Lg Electronics, Inc. HMMD color space and method for quantizing color using HMMD space and color spreading

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3728896C1 (en) * 1987-08-29 1988-06-30 Staedtler Fa J S Cap for writing, drawing or painting devices
DE3817248C1 (en) * 1988-05-20 1989-10-26 Kreuzer Produktion + Vertrieb Gmbh & Co Kg, 5300 Bonn, De Protective cap for a writing, drawing or applicator instrument
DE3818473A1 (en) * 1988-05-31 1989-12-07 Staedtler Fa J S CAP FOR WRITING INSTRUMENTS
US5054949A (en) * 1988-05-31 1991-10-08 J.S. Staedtler Gmbh & Co. Cap for writing implement with air vent
DE3821195A1 (en) * 1988-06-23 1989-12-28 Schwan Stabilo Schwanhaeusser PROTECTIVE CAP FOR A WRITING, SIGN OR APPLICATION DEVICE
DE8814492U1 (en) * 1988-11-21 1989-03-02 A. W. Faber-Castell GmbH & Co, 8504 Stein Cap for writing or similar devices
DE8906686U1 (en) * 1989-05-29 1989-07-20 Herlitz Ag, 1000 Berlin Writing or painting instrument, such as a fibre-tip pen or similar.
EP0477316B1 (en) * 1990-03-19 1999-04-14 The Gillette Company Writing instrument cap
US6633407B1 (en) 1998-04-29 2003-10-14 Lg Electronics, Inc. HMMD color space and method for quantizing color using HMMD space and color spreading

Also Published As

Publication number Publication date
JP3289787B2 (en) 2002-06-10

Similar Documents

Publication Publication Date Title
US6798903B2 (en) Image processing method, image processing device, recording medium, and transmission medium
US5317678A (en) Method for changing color of displayed images by use of color components
JP3557659B2 (en) Face extraction method
JP4050842B2 (en) Image processing method
JP6004481B2 (en) Color image processing method, color image processing apparatus, and color image processing program
JP3018914B2 (en) Gradation correction device
US7265761B2 (en) Multilevel texture processing method for mapping multiple images onto 3D models
JP2003069846A (en) Image processing program
JP2005151282A (en) Apparatus and method of image processing, and program
CN113344836B (en) Face image processing method and device, computer readable storage medium and terminal
JP2012516076A (en) Image processing
JPH06111016A (en) Area dividing method for color image
KR20220088832A (en) Seal certification assisting method using seal scanner
CN109064431B (en) Picture brightness adjusting method, equipment and storage medium thereof
Meylan Tone mapping for high dynamic range images
JP5824423B2 (en) Illumination light color estimation device, illumination light color estimation method, and illumination light color estimation program
US10764471B1 (en) Customized grayscale conversion in color form processing for text recognition in OCR
JP3289792B2 (en) Color correction method for specific area of color image
JPH0998295A (en) Data compression method for color image
JPH0785284A (en) Method for dividing area of color picture
JP2009050035A (en) Image processing method, image processing system, and image processing program
JP4640850B2 (en) Image processing program
JP2007243987A (en) Image processing method, image processing system, and image processing program
JPH08265585A (en) Area division method for color picture
JP3256312B2 (en) Extraction method of specific area of color image

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090322

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090322

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100322

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees