JPH0785284A - Method for dividing area of color picture - Google Patents

Method for dividing area of color picture

Info

Publication number
JPH0785284A
JPH0785284A JP5230692A JP23069293A JPH0785284A JP H0785284 A JPH0785284 A JP H0785284A JP 5230692 A JP5230692 A JP 5230692A JP 23069293 A JP23069293 A JP 23069293A JP H0785284 A JPH0785284 A JP H0785284A
Authority
JP
Japan
Prior art keywords
space
color
signal
picture elements
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5230692A
Other languages
Japanese (ja)
Other versions
JP3346849B2 (en
Inventor
Osamu Nakagawa
修 中川
Masao Aizu
昌夫 会津
Mikio Takagi
幹雄 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP23069293A priority Critical patent/JP3346849B2/en
Publication of JPH0785284A publication Critical patent/JPH0785284A/en
Application granted granted Critical
Publication of JP3346849B2 publication Critical patent/JP3346849B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Abstract

PURPOSE:To execute efficint area division by mapping respective picture elements in a feature space and then using a normal clustering procedure. CONSTITUTION:A color space transforming part 10 transforms an input picture signal (CMY signal) into an L*u*v* signal. A transformation part 20 to a feature space transforms (L*, u*, v*) into a point (L, mu, nu) on a feature space appropriate for area division. Namely the feature of distribution on a color space expressed by the L*u*v* signal estimated from a reflection model of an object is modeled as a curve from 'black' to 'white' through an 'object color' and respective picture elements are copied to a parameter space for distinguishing the curve. Consequently distribution that picture elements in the same area are locally included in a specific place is obtained. An area dividing part 30 samples all picture elements in a picture, prepares training data from (mu, nu) values corresponding to respective picture elements and executes two-dimensional clustering by an ISODATA method.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カラー画像の領域分割
方法に係り、特に、印刷製板の画像データ処理に際し
て、画像中の各物体に対応する特定領域の抽出(いわゆ
る切り抜き)や、領域選択型の色調修正、あるいは、画
像を構造的に記述し、例えばデータ圧縮等に利用する構
造抽出符号化等に用いるのに好適な、カラー画像の領域
分割方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a color image area dividing method, and more particularly to extracting a specific area (so-called clipping) or area corresponding to each object in an image when processing image data of a printing plate. The present invention relates to a color image area dividing method suitable for selective color tone correction or for structurally describing an image and for use in, for example, structure extraction coding used for data compression or the like.

【0002】[0002]

【従来の技術】デジタル・カラー画像の領域分割法の代
表的なものの1つとして、色空間上でのクラスタリング
手法がある。
2. Description of the Related Art A clustering method on a color space is one of typical methods for dividing a region of a digital color image.

【0003】これは、図1に示す如く、画像平面内の画
素を色空間(例えばRGB色空間)に写像し、その空間
上でのクラスタ重心からの距離に応じて設定したクラス
タ境界を用いたクラスタリングにより、各画素の分類及
び1、2、3等のラベル付けを行い、画像平面に逆写像
することにより領域分割画像を得て、領域分割を行う方
法である。
As shown in FIG. 1, this is done by mapping pixels in an image plane into a color space (for example, RGB color space) and using a cluster boundary set according to the distance from the cluster centroid in that space. This is a method in which each pixel is classified and labeled with 1, 2, 3, etc. by clustering, and a region-divided image is obtained by inverse mapping on an image plane to perform region division.

【0004】[0004]

【発明が解決しようとする課題】この従来法は、同一領
域の画素が、色空間上で常に特定の場所に局在している
場合には旨く領域分割ができるが、実際の画像ではそう
でない場合も多い。従って、同一領域であるにもかかわ
らず、複数の領域に分割されたり、異なる領域が1つの
領域と見做されたり、単独で用いるには問題の多い手法
であった。
According to this conventional method, when the pixels in the same area are always localized in a specific place on the color space, the area can be properly divided, but it is not so in the actual image. In many cases. Therefore, even though they are the same area, they are divided into a plurality of areas, different areas are regarded as one area, and there are many problems in using them independently.

【0005】本発明は、前記従来の問題点を解消するべ
くなされたもので、画像の色空間上での分布のモデルに
基づき、従来法とは全く異った観点から、新しいクラス
タリング手法を提供することを目的とする。
The present invention has been made to solve the above-mentioned conventional problems, and provides a new clustering method based on a model of distribution of an image in a color space, from a viewpoint completely different from the conventional method. The purpose is to do.

【0006】[0006]

【課題を解決するための手段】本発明は、カラー画像の
領域分割に際して、CMY表色系で表される入力画像信
号を、L* u* v*信号に変換し、物体の反射モデルか
ら推定されるL* u*v*信号で表される色空間上での
分布の特徴を、「黒」から「物体色」を通り「白」へと
至る曲線としてモデル化し、該曲線を区別するパラメー
タ空間上へ各画素を写像することにより、同一領域の画
素同士が特定の場所に局在するような分布を得、その空
間上でクラスタリングを行うことにより、前記目的を達
成したものである。
According to the present invention, when a color image is divided into regions, an input image signal represented by a CMY color system is converted into an L * u * v * signal and estimated from a reflection model of an object. A parameter for modeling the characteristic of the distribution in the color space represented by the L * u * v * signal as a curve from “black” to “white” through “object color” and distinguishing the curve. The above object is achieved by mapping each pixel onto a space to obtain a distribution in which pixels in the same region are localized at a specific place, and performing clustering on the space.

【0007】[0007]

【作用】通常、画像は三次元的な拡がりを持った物体に
照明光を当て、反射光を適切なレンズ系に通し、二次元
平面にマッピングすることによって撮影が行われる。
In general, an image is photographed by illuminating an object having a three-dimensional spread with illumination light, passing the reflected light through an appropriate lens system, and mapping the reflected light on a two-dimensional plane.

【0008】ある1つの物体は同一の分光反射率を持
ち、つまり、同一の色を持っていて、照明光と物体表面
の角度と視点の位置の関係により、様々なグラデーショ
ンが生じる。しかし、このグラデーションは、色空間上
である種の曲線に沿って変化する。何故ならば、影にな
り照明光が届かない部分は黒くなり、物体の表面に対し
て、照明光が入射したときの入射角で決まる出射角と物
体への視線が近い物体表面の領域では、多くの場合鏡面
反射状態となり、いわゆるキャッチライトの場所とな
る。この部分は、照明光がある反射率で全ての波長の光
が反射するので、照明光と同じ“白”となり、その中間
の部分は物体表面が拡散反射をし、視線角度に対し反射
率が分布を持つので、同一領域(同一物体)の画素は、
色空間(例えばL*u *v *空間)上では、図2のよう
に、黒→物体色→白という曲線上に集中して分布する傾
向があると考えられ、実際にもそのように分布している
ことが確認できる。ここで、L*は明度、u *v *平面
内でL*軸からの距離は彩度、回転角は色相を表わす。
One object has the same spectral reflectance, that is, the same color, and various gradations occur depending on the relationship between the angle of the illumination light and the surface of the object and the position of the viewpoint. However, this gradation changes along a certain curve in the color space. The reason is that in the area of the object surface where the line of sight to the object is close to the exit angle determined by the incident angle when the illumination light is incident on the surface of the object, which is shaded and the area to which the illumination light does not reach become black. In many cases, it is a specular reflection state, which is a so-called catch light place. In this part, the illumination light reflects light of all wavelengths with a certain reflectance, so it becomes the same “white” as the illumination light, and in the middle part, the object surface is diffusely reflected and the reflectance is different with respect to the line-of-sight angle. Since it has a distribution, pixels in the same area (same object) are
In the color space (for example, L * u * v * space), it is considered that there is a tendency to concentrate on the curve of black → object color → white as shown in FIG. You can confirm that you are doing. Here, L * represents lightness, the distance from the L * axis in the u * v * plane represents saturation, and the rotation angle represents hue.

【0009】従って、画像全体で見ると、図2のような
楕円体を屈曲させたようなバナナ状の分布が、図3に示
す如く、領域の数(物体の数)だけ複数存在することに
なる。
Therefore, when viewed from the entire image, there are a plurality of banana-shaped distributions, such as a bent ellipsoid as shown in FIG. 2, corresponding to the number of regions (the number of objects), as shown in FIG. Become.

【0010】ところが従来法では、これらのことが全く
考慮されていないため、図4に破線で示す如く、同一領
域(物体)であるにもかかわらず、複数の領域に分割さ
れたり、図5に破線で示す如く、異なる領域(物体)が
1つの領域と見做されたりすることがあり、従来のクラ
スタリング手法は、領域分割法としては不完全なもので
あった。
However, in the conventional method, since these matters are not taken into consideration at all, as shown by a broken line in FIG. 4, even though the same area (object) is divided into a plurality of areas, or in FIG. As shown by the broken line, different regions (objects) may be regarded as one region, and the conventional clustering method is incomplete as a region division method.

【0011】本発明では、前述した分布のモデルに基づ
き、各領域に対応した複数の屈曲楕円体状分布を分離す
るようにクラスタリングを行って、従来法の問題点を解
決している。
In the present invention, the problem of the conventional method is solved by performing clustering so as to separate a plurality of bent ellipsoidal distributions corresponding to each region based on the above-described distribution model.

【0012】以下、本発明のクラスタリング手法につい
て詳細に説明する。
The clustering method of the present invention will be described in detail below.

【0013】今、図6のように、色空間(例えばL*u
*v *空間)上の「黒」を表わす点Aと、「白」を表わ
す点Bを通る曲線群を考える。すると、任意の画素は、
色空間上で1点として表わされるが、それは必ず曲線群
の中の1つの曲線に属する。即ち、1つの画素に対して
1つの曲線が対応する。
Now, as shown in FIG. 6, the color space (for example, L * u
Consider a group of curves passing through a point A representing "black" and a point B representing "white" on the * v * space). Then any pixel becomes
Although represented as one point in the color space, it always belongs to one curve in the curve group. That is, one curve corresponds to one pixel.

【0014】各々の曲線を区別するパラメータは2つで
十分であるので、各画素を二次元のパラメータ空間上の
1点にマッピングして表現できる。例えば、この曲線群
として、図7のように、点Aと点Bを通る半楕円の集合
を考え、明度軸上の原点の位置を印刷画像のL*の範囲
の中点L0 に移動する。
Since two parameters for distinguishing each curve are sufficient, each pixel can be represented by mapping to one point on the two-dimensional parameter space. For example, a set of semi-ellipses passing through the points A and B is considered as this curve group, and the position of the origin on the lightness axis is moved to the midpoint L0 of the range L * of the print image.

【0015】L=L*−L0 ………(1)L = L * -L0 (1)

【0016】ここで、1つの半楕円がL=0平面と交わ
る面は一意的に決まるので、半楕円曲線群は、この交点
の(u *、v *)座標値(μ、ν)によってパラメータ
化することができる。
Here, since the plane where one semi-ellipse intersects the L = 0 plane is uniquely determined, the semi-elliptic curve group is defined by the (u *, v *) coordinate values (μ, ν) of this intersection. Can be converted.

【0017】従って、各画素は、半楕円に沿った一種の
写影操作によって、L=0平面上にマッピングすること
ができる。
Therefore, each pixel can be mapped on the L = 0 plane by a kind of mapping operation along the semi-ellipse.

【0018】実際の画像の色空間上での分布が、例えば
図8のようになっているとき、このようなマッピングに
よって、(μ、ν)平面上では、図9のような分布にな
り、領域毎に局在した分布を得ることができる。このよ
うにして、特徴空間にマッピングしておいてから、通常
のクラスタリング手法を用いることによって、効率の良
い領域分割が行える。
When the distribution of the actual image in the color space is as shown in, for example, FIG. 8, such mapping results in the distribution shown in FIG. 9 on the (μ, ν) plane, It is possible to obtain a localized distribution for each region. In this way, efficient mapping can be performed by mapping the feature space and then using a normal clustering method.

【0019】[0019]

【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0020】本実施例を実施するための装置は、図10
に示す如く、色空間変換部10と、特徴空間への変換部
20と、領域分割部30とを含んでいる。
An apparatus for carrying out this embodiment is shown in FIG.
As shown in FIG. 3, the color space conversion unit 10, the feature space conversion unit 20, and the region division unit 30 are included.

【0021】前記色空間変換部10は、入力画像信号、
例えばCMY信号をL*u *v *信号に変換する。ここ
でCMY表色系において、Cはシアン、Mはマゼンタ、
Yはイエローを表し、この3色の濃度成分により色を表
現するものである。CMYからXYZ座標系の3刺激値
XYZ、同XYZからL*u *v *への変換は確立され
ており、CMYからXYZへの変換は、次のノイゲバウ
アーの式によって定義される。ここでXw 等は印刷物カ
ラーパッチの測定値をもとに決められた係数である。
The color space conversion unit 10 receives an input image signal,
For example, a CMY signal is converted into an L * u * v * signal. In the CMY color system, C is cyan, M is magenta,
Y represents yellow, and color is expressed by the density components of these three colors. The conversion from CMY to XYZ coordinate tristimulus values XYZ and XYZ to L * u * v * has been established, and the conversion from CMY to XYZ is defined by the following Neugebauer equation. Here, Xw and the like are coefficients determined based on the measured value of the color patch of the printed matter.

【0022】 X=(1−c )(1−m )(1−y )Xw + c(1−m )(1−y )Xc +(1−c )m (1−y )Xm +(1−c )(1−m )y Xy +cm(1−y )Xcm+(1−c )myXmy+ c(1−m )y Xcy +cmy Xcmy …(2)X = (1-c) (1-m) (1-y) Xw + c (1-m) (1-y) Xc + (1-c) m (1-y) Xm + (1 -C) (1-m) y Xy + cm (1-y) Xcm + (1-c) myXmy + c (1-m) y Xcy + cmy Xcmy (2)

【0023】ここで、c 、m 、y は0から1の値をとる
網点面積率であり、Y、Zもこれと同様な式となる。
Here, c, m, and y are halftone dot area ratios that take values from 0 to 1, and Y and Z have the same formulas.

【0024】又、XYZからL*u *v *への変換は、
次式で定義される(高木幹雄、下田陽久監修「画像解析
ハンドブック」東京大学出版会の107頁−108頁参
照)。
The conversion from XYZ to L * u * v * is
It is defined by the following formula (see "Image Analysis Handbook" edited by Mikio Takagi and Yoshihisa Shimoda, pages 107-108 of the University of Tokyo Press).

【0025】[0025]

【数1】 [Equation 1]

【0026】ここで、(X0 、Y0 、Z0 )は、標準光
源下における完全拡散白色面についての(X、Y、Z)
の値であり、標準光源C(色温度6774K)の場合、
(X0 、Y0 、Z0 )=(98.072、100.0
0、118.225)である。
Here, (X0, Y0, Z0) is (X, Y, Z) for a perfect diffused white surface under a standard light source.
And the value of standard light source C (color temperature 6774K),
(X0, Y0, Z0) = (98.072, 100.0
0, 118.225).

【0027】本実施例では、色空間としてL*u *v *
表色系を用いているが、L*a *b*表色系等、他の色
空間でも「黒→物体色→白」を通るような適当な曲線群
を考えることにより、同等の効果が期待できる。
In this embodiment, L * u * v * is used as the color space.
Although the color system is used, the equivalent effect can be obtained by considering an appropriate curve group that passes through “black → object color → white” in other color spaces such as the L * a * b * color system. Can be expected.

【0028】前記特徴空間への変換部20は、(L*、
u *、v *)を領域分割に適した特徴空間上の点(L、
μ、ν)に変換する。図11から、変換式は代数幾何学
的に求まり、以下のようになる。
The conversion unit 20 into the feature space is (L *,
u *, v *) is a point (L,
μ, ν). From FIG. 11, the conversion formula is obtained by algebraic geometry, and is as follows.

【0029】[0029]

【数2】 [Equation 2]

【0030】前記領域分割部30は、全画像に対してサ
ンプリングを行って、各画素に対する(μ、ν)の値か
らトレーニングデータを作り、ISODATA(Itera
tiveSelf Organizing Data Analysis Techniques
)法により二次元のクラスタリングを行う(高木幹
雄、下田陽久監修「画像解析ハンドブック」東京大学出
版会の648頁−651頁参照)。
The area dividing unit 30 samples all images, creates training data from the values of (μ, ν) for each pixel, and ISODATA (Itera
tiveSelf Organizing Data Analysis Techniques
) Method for two-dimensional clustering (see “Image Analysis Handbook” supervised by Mikio Takagi and Yohisa Shimoda, pages 648-651 of the University of Tokyo Press).

【0031】前記ISODATA法は、初期状態として
適当なクラスタを与え、そのメンバを組替えて少しずつ
「より良いクラスタ」を求めていくもので、非階層的ク
ラスタリング(再配置法)を代表する手法として、古く
から知られた手法である。
In the ISODATA method, an appropriate cluster is given as an initial state, and its members are recombined to gradually find a "better cluster", which is a representative method of non-hierarchical clustering (relocation method). , Is a method that has been known since ancient times.

【0032】このISODATA法の手順を図12に示
す。
FIG. 12 shows the procedure of this ISODATA method.

【0033】このISODATA法では、まずステップ
100で、再配置の収束条件、微小クラスタ、孤立デー
タの判定条件、分裂・融合の分岐条件等のパラメータを
設定する。
In this ISODATA method, first, in step 100, parameters such as relocation convergence conditions, minute clusters, isolated data determination conditions, and split / fusion branch conditions are set.

【0034】次いで、ステップ102で、初期クラスタ
の重心を決定する。例えば、初期クラスタの数を1とし
て全平均を用いることができる。
Then, in step 102, the center of gravity of the initial cluster is determined. For example, the total average can be used with the number of initial clusters being 1.

【0035】次いで、ステップ104乃至108で、再
配置法を実施する。具体的には、まずステップ104
で、各データとクラスタ重心との距離を計算し、それぞ
れのデータを、距離が最小となるクラスタに配置する。
次いでステップ106に進み、再配置されたクラスタ内
で、各クラスタの重心を再計算して修正する。次いで、
ステップ108に進み、各データとクラスタ重心の距離
の平均が、再配置・重心の修正の結果、変化しなけれ
ば、収束したと見做し、それ以外はステップ104に戻
って繰返す。
Next, in steps 104 to 108, the rearrangement method is performed. Specifically, first, step 104
Then, the distance between each piece of data and the center of gravity of the cluster is calculated, and each piece of data is arranged in the cluster having the smallest distance.
Then, in step 106, the center of gravity of each cluster is recalculated and corrected in the rearranged clusters. Then
In step 108, if the average of the distance between each data and the cluster centroid does not change as a result of the rearrangement / correction of the centroid, it is considered to have converged, and otherwise returns to step 104 to repeat.

【0036】再配置法終了後、ステップ110に進み、
データの数が著しく少ない微小クラスタと、他のクラス
タから著しく離れた孤立データを、以後のクラスタリン
グから除外する。
After the rearrangement method is completed, the process proceeds to step 110,
Small clusters with a significantly small amount of data and isolated data that are significantly separated from other clusters are excluded from subsequent clustering.

【0037】次いでステップ112に進み、クラスタ重
心間の距離の最小値が、ある閾値以上あり、且つ、クラ
スタの分散の最大値が、ある閾値以下であるとき、クラ
スタリングは収束したとして、終了する。それ以外はス
テップ114及び/又は116に進む。
Next, in step 112, when the minimum value of the distance between the cluster centroids is greater than or equal to a certain threshold value and the maximum value of the variance of the cluster is less than or equal to a certain threshold value, it is determined that the clustering has converged, and the clustering ends. Otherwise, go to steps 114 and / or 116.

【0038】クラスタ重心間の距離の最小値が、ある閾
値以下である場合には、ステップ114に進んで、その
クラスタ対を統合し、新しいクラスタ重心を計算する。
If the minimum distance between the cluster centroids is less than or equal to a threshold, the process proceeds to step 114, the cluster pairs are integrated, and a new cluster centroid is calculated.

【0039】一方、クラスタの分散の最大値が、ある閾
値以上である場合には、ステップ116に進んで、クラ
スタ分散の最大値が閾値以下になるまでクラスタを分裂
させ、新しいクラスタ重心を計算する。
On the other hand, when the maximum value of the variance of the cluster is equal to or more than a certain threshold value, the process proceeds to step 116, the cluster is divided until the maximum value of the cluster variance is equal to or less than the threshold value, and a new cluster centroid is calculated. .

【0040】ステップ114による統合又はステップ1
16による分裂が終了した後、再びステップ104に戻
って、処理を繰返す。
Integration by step 114 or step 1
After the division by 16 is completed, the process returns to step 104 again to repeat the processing.

【0041】このようにして、図13に示すような、ク
ラスタ分割(クラスタ境界を破線で示す)と、クラスタ
代表点1、2、3(○印で示す)が得られる。
In this way, cluster division (cluster boundaries are indicated by broken lines) and cluster representative points 1, 2, 3 (indicated by circles) as shown in FIG. 13 are obtained.

【0042】発明の作用の項で説明したように、この各
々の代表点1、2、3が、図14に示す如く、領域を代
表する半楕円1本に相当するので、このように分割を行
った後、各画素がどの半楕円に属するかを判断し、ラベ
ル付けを行って、領域分割を終了する。
As described in the section of the operation of the invention, each of the representative points 1, 2 and 3 corresponds to one semi-ellipse representing the area as shown in FIG. After that, it is determined which half ellipse each pixel belongs to, labeling is performed, and the region division is completed.

【0043】[0043]

【発明の効果】以上説明した通り、本発明によれば、物
体の反射モデルから推定される色空間上での分布の特徴
を「黒」から「物体色」を通り「白」へ至る曲線として
モデル化し、曲線を区別するパラメータ空間上でクラス
タリングを行っているため、同一領域の画素は、パラメ
ータ空間上では特定の場所に局在し易くなり、その結
果、従来法と比較して、より良い領域分割を行うことが
可能となる。
As described above, according to the present invention, the characteristic of the distribution in the color space estimated from the reflection model of an object is represented by a curve from "black" to "object color" to "white". Since modeling is performed and clustering is performed on the parameter space that distinguishes the curves, pixels in the same area tend to be localized at a specific location on the parameter space, and as a result, it is better than the conventional method. It is possible to perform area division.

【図面の簡単な説明】[Brief description of drawings]

【図1】従来のRGB色空間上でのクラスタリング手法
を説明する線図
FIG. 1 is a diagram illustrating a conventional clustering method on an RGB color space.

【図2】本発明の原理を説明するための、L*u *v *
空間上における一物体の物体色の分布の一例を示す線図
FIG. 2 shows L * u * v * for explaining the principle of the present invention.
Diagram showing an example of distribution of object color of one object in space

【図3】同じく、画像全体における複数の物体の物体色
の分布の例を示す線図
FIG. 3 is a diagram similarly showing an example of distribution of object colors of a plurality of objects in the entire image.

【図4】従来のクラスタリング手法による分割結果の一
例をL*u *v *空間上に示した線図
FIG. 4 is a diagram showing an example of a division result by a conventional clustering method in an L * u * v * space.

【図5】同じく他の例をL*u *v *空間上に示した線
FIG. 5 is a diagram showing another example in the L * u * v * space.

【図6】本発明のクラスタリング手法を説明するため
の、L*u *v *空間上の「黒」を表わす点と、「白」
を表わす点を通る曲線群を示す線図
FIG. 6 is a diagram showing points representing “black” and “white” on the L * u * v * space for explaining the clustering method of the present invention.
Diagram showing a group of curves passing through points

【図7】同じく、L*のとり得る範囲を正規化した状態
を示す線図
FIG. 7 is a diagram showing a state in which the range of L * can be normalized.

【図8】実際の画像の色空間上での分布の例を示す線図FIG. 8 is a diagram showing an example of distribution of an actual image in a color space.

【図9】同じく、マッピングによって得られる(μ、
ν)平面上での分布を示す線図
FIG. 9 is also obtained by mapping (μ,
ν) Diagram showing the distribution on the plane

【図10】本発明の実施例を実施するための装置の全体
構成を示すブロック線図
FIG. 10 is a block diagram showing an overall configuration of an apparatus for carrying out an embodiment of the present invention.

【図11】前記実施例の特徴空間への変換部で用いられ
ている変換式を説明するための線図
FIG. 11 is a diagram for explaining a conversion formula used in a conversion unit for converting into a feature space in the embodiment.

【図12】前記実施例の領域分割部で用いられている二
次元クラスタリング手法の一例を説明するための流れ図
FIG. 12 is a flowchart for explaining an example of a two-dimensional clustering method used in the area dividing unit of the above-described embodiment.

【図13】前記実施例により得られるクラスタ分割とク
ラスタ代表点を示す線図
FIG. 13 is a diagram showing cluster division and cluster representative points obtained in the above embodiment.

【図14】図13のクラスタ代表点を含むL*u *v *
空間上の領域を示す線図
14 includes L * u * v * including cluster representative points in FIG.
Diagram showing the area in space

【符号の説明】[Explanation of symbols]

10…色空間変換部 20…特徴空間への変換部 30…領域分割部 10 ... Color space conversion unit 20 ... Feature space conversion unit 30 ... Region division unit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】CMY表色系で表される入力画像信号を、
L* u* v*信号に変換し、 物体の反射モデルから推定されるL* u* v*信号で表
される色空間上での分布の特徴を、「黒」から「物体
色」を通り「白」へと至る曲線としてモデル化し、 該曲線を区別するパラメータ空間上へ各画素を写像する
ことにより、同一領域の画素同士が特定の場所に局在す
るような分布を得、 その空間上でクラスタリングを行うことを特徴とするカ
ラー画像の領域分割方法。
1. An input image signal represented by a CMY color system,
The characteristics of the distribution in the color space represented by the L * u * v * signal converted from the L * u * v * signal and estimated from the reflection model of the object are changed from “black” to “object color”. By modeling as a curve leading to “white” and mapping each pixel on a parameter space that distinguishes the curve, a distribution in which pixels in the same region are localized at a specific place is obtained, and on that space A color image region segmentation method characterized by performing clustering in.
JP23069293A 1993-09-17 1993-09-17 How to segment a color image Expired - Fee Related JP3346849B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23069293A JP3346849B2 (en) 1993-09-17 1993-09-17 How to segment a color image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23069293A JP3346849B2 (en) 1993-09-17 1993-09-17 How to segment a color image

Publications (2)

Publication Number Publication Date
JPH0785284A true JPH0785284A (en) 1995-03-31
JP3346849B2 JP3346849B2 (en) 2002-11-18

Family

ID=16911821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23069293A Expired - Fee Related JP3346849B2 (en) 1993-09-17 1993-09-17 How to segment a color image

Country Status (1)

Country Link
JP (1) JP3346849B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068691A (en) * 2010-09-21 2012-04-05 Denso Wave Inc Optical information reading device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012068691A (en) * 2010-09-21 2012-04-05 Denso Wave Inc Optical information reading device

Also Published As

Publication number Publication date
JP3346849B2 (en) 2002-11-18

Similar Documents

Publication Publication Date Title
US5313570A (en) Method for determining color boundaries for correcting for plate misregistration in color printing
US6345117B2 (en) Method for automatic trap selection for correcting for separation misregistration in color printing
US5668931A (en) Method for automatic trap selection for correcting for plate misregistration in color printing
EP0620534B1 (en) Method for automatic trap selection for correcting for plate misregistration in colour printing
US6798903B2 (en) Image processing method, image processing device, recording medium, and transmission medium
US7394468B2 (en) Converted digital colour image with improved colour distinction for colour-blinds
US9948830B2 (en) Color estimation system, separation data generation system, color estimation method and separation data generation method
US5793884A (en) Spectral based color image editing
US7764411B2 (en) Color processing apparatus and method, and storage medium storing color processing program
US20030090689A1 (en) System and method of trapping for correcting for separation misregistration in color printing
WO1998005510A2 (en) Method and system for reproducing color images as duotones
JP2002245446A (en) Color image processor and its method
EP0543992A1 (en) A method for displaying multitone images.
JPH11215391A (en) Method, device and product for directly calculating color area of color reproduction process
JPH06111016A (en) Area dividing method for color image
US6744918B1 (en) Document analysis method to detect BW/color areas and corresponding scanning device
US6665435B1 (en) Image data processing method and corresponding device
JPH0785284A (en) Method for dividing area of color picture
JPH0998295A (en) Data compression method for color image
JPH1155540A (en) Method and device for generating luminance image and recording medium recording this method
JPH08265585A (en) Area division method for color picture
JP3289792B2 (en) Color correction method for specific area of color image
KR0151918B1 (en) Image generation apparatus and method for image processing
Safibullaevna et al. Processing Color Images, Brightness and Color Conversion
JPH06236019A (en) Method for extracting specific region of color image

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100906

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110906

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110906

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120906

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees