JP2004258752A - Image dividing method and device - Google Patents

Image dividing method and device Download PDF

Info

Publication number
JP2004258752A
JP2004258752A JP2003046017A JP2003046017A JP2004258752A JP 2004258752 A JP2004258752 A JP 2004258752A JP 2003046017 A JP2003046017 A JP 2003046017A JP 2003046017 A JP2003046017 A JP 2003046017A JP 2004258752 A JP2004258752 A JP 2004258752A
Authority
JP
Japan
Prior art keywords
image
region
area
dividing
types
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003046017A
Other languages
Japanese (ja)
Inventor
Masahiko Yamada
雅彦 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2003046017A priority Critical patent/JP2004258752A/en
Publication of JP2004258752A publication Critical patent/JP2004258752A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To carry out more appropriate area division of an image, in an image division method and device, for each of object areas on the basis of various feature values extracted from image data such as a photographic image. <P>SOLUTION: A feature value extracting means calculates luminance color information and texture information for each of the pixels of an image, an area dividing mens integrates the pixels wherein the combination of the luminance color information and texture information is equivalent, and divides the image into a plurality of areas I to VI constituted of the integrated pixel group, and an area integrating means integrates the area III under consideration and the area V under consideration among those areas with another adjacent area VI whose luminance color information is equivalent, thereby dividing the image into a plurality of areas 1 to 4. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像データから抽出した複数種類の特徴量に基づいて画像を複数の領域に分割する画像分割方法および装置に関するものである。
【0002】
【従来の技術】
デジタルカメラ等で撮像した画像は、たとえば人物や海、空、建物その他の背景等を含むものである。その画像の中からその人物や背景等の画像データが1つのオブジェクトとして抽出すれば、各オブジェクト毎に異なる画像処理を行うことができるとともに、各オブジェクトの意味を判別してユーザーに提示することもできる。このためには、画像に含まれているオブジェクト毎にそれぞれオブジェクト領域を分割する必要がある。
【0003】
そこで、1つのオブジェクトを構成する画像データは、色情報、テクスチャ情報、ウェーブレット係数等の特徴量が類似したものとなっている性質を利用し、画像データから上記特徴量を抽出し、この特徴量に基づいて画像を複数のオブジェクト領域に分割する方法が提案されている。たとえば、特許文献1においては、画像データの各画素について複数種類の特徴量を抽出し、その複数種類の特徴量を要素とした複数の特徴ベクトルを生成し、その特徴ベクトルを類似する特徴ベクトル毎に分類してクラスタリングし、そのクラスタリングされた結果に基づいて画像を複数のオブジェクト領域に分割する方法が提案されている。
【0004】
【特許文献1】
特願2002−246395号
【0005】
【発明が解決しようとする課題】
しかしながら、上記のように複数種類の特徴量からなる特徴ベクトルに基づいて画像を領域分割する際には、輝度情報や色情報とテクスチャ情報とではダイナミックレンジが異なるので、たとえば、各特徴量に異なる所定の係数を掛けて特徴ベクトルを生成するなどして重み付けがなされる。したがって、この重み付け次第で領域分割の結果が異なることになるため、重み付けの最適化が必要となるが、最適な重み付けは画像の対象毎に異なるため容易ではなく、画像の対象と重み付けを関連づけたデータベースなどが必要となりコストアップにもなる。
【0006】
本発明は、画像データから抽出した複数種類の特徴量に基づいて画像を複数の領域に分割する画像分割方法および装置において、上記のようなデータベースなどを必要とすることなく、適切に画像をオブジェクト領域毎に分割することができる画像分割方法および装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
本発明の画像分割方法は、画像の画素毎に複数種類の特徴量を求め、その複数種類の特徴量の組み合わせが同等である画素を統合して、画像をその統合された画素群が構成する複数の領域に分割し、その領域の少なくとも1つの領域を注目領域とし、その注目領域を複数種類の特徴量のうち少なくとも1種類の特徴量が同等である該注目領域に隣接する他の領域と統合して画像を複数の領域に分割することを特徴とする。
【0008】
ここで、上記「複数種類の特徴量」としては、たとえば、輝度情報、色情報およびテクスチャ情報などがある。テクスチャ情報とは画像におけるエッジに関する情報であり、たとえば、ウェーブレット変換係数、DCT係数および1次微分フィルタ演算処理結果、2次微分フィルタ処理結果などを利用することができる。
【0009】
上記「複数種類の特徴量の組み合わせが同等」とは、画素が有する複数の特徴量の各特徴量のそれぞれが同じ分類に属することを意味する。同じ分類に属するとは、たとえば、特徴量の値が所定の値の範囲内にあることをいう。また、そのような所定の値の範囲内にある特徴量を他の1つの値に置き換えた場合に、その値の組み合わせが同じであることも含むものとする。
【0010】
上記画像分割方法においては、他の領域が複数あるとき、その複数の他の領域のうち注目領域との複数種類の特徴量のうちいずれか1つの特徴量の特徴量空間における距離が最小となる他の領域を注目領域と統合して画像を複数の領域に分割するようにすることができる。
【0011】
ここで、上記「特徴量の特徴量空間における距離」とは、たとえば、上記注目領域における全画素の特徴量の平均値と他の領域における全画素の特徴量の平均値とのユークリッド距離のことをいう。
【0012】
本発明の画像分割装置は、画像の画素毎に複数種類の特徴量を求める特徴量抽出手段と、複数種類の特徴量の組み合わせが同等である画素を統合して画像をその統合された画素群が構成する複数の領域に分割する領域分割手段と、上記領域の少なくとも1つの領域を注目領域とし、その注目領域を複数種類の特徴量のうち少なくとも1種類の特徴量が同等である該注目領域に隣接する他の領域と統合して画像を複数の領域に分割する領域統合手段とを備えたことを特徴とする。
【0013】
上記画像分割装置においては、領域統合手段を、他の領域が複数あるとき、その複数の他の領域のうち注目領域との複数種類の特徴量のうちいずれか1つの特徴量の特徴量空間における距離が最小となる他の領域を注目領域と統合して画像を複数の領域に分割するものとすることができる。
【0014】
【発明の効果】
本発明の画像分割方法および装置によれば、画像の画素毎に複数種類の特徴量を求め、その複数種類の特徴量の組み合わせが同等である画素を統合して画像をその統合された画素群が構成する複数の領域に分割し、該領域の少なくとも1つの領域を注目領域とし、その注目領域を複数種類の特徴量のうち少なくとも1種類の特徴量が同等である該注目領域に隣接する他の領域と統合して画像を複数の領域に分割するようにしたので、上述したようなデータベースを必要とすることなく、適切なオブジェクト領域毎の領域分割を行うことができる。
【0015】
上記画像分割方法および装置において、他の領域が複数あるとき、その複数の他の領域のうち注目領域との複数種類の特徴量のうちいずれか1つの特徴量の特徴量空間における距離が最小となる他の領域を注目領域と統合して画像を複数の領域に分割するようにした場合には、注目領域と統合する他の領域の最適化を図ることができ、より適切なオブジェクト領域毎の領域分割を行うことができる。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明の画像分割方法を実施する画像分割装置の一実施形態について説明する。図1は上記実施形態の構成を示すブロック図である。本実施形態による画像分割装置は、画像の画素毎に輝度色情報およびテクスチャ情報を抽出し、この輝度色情報およびテクスチャ情報のそれぞれの組み合せが同等である画素を統合して画像を複数の領域に分割し、その領域の少なくとも1つの領域を輝度色情報が同等である隣接領域と統合して画像を複数の領域に分割するものである。
【0017】
本実施形態による画像分割装置は、図1に示すように、画像データから輝度色情報およびテクスチャ情報を抽出する特徴量抽出手段10、特徴量抽出手段10により抽出された輝度色情報およびテクスチャ情報のそれぞれについてクラスタリング処理を施すクラスタリング処理手段12、クラスタリング処理手段12によりクラスタリング処理の施された輝度色情報およびテクスチャ情報のそれぞれについてラベリング処理を施すラベリング処理手段14、ラベリング処理手段14によりラベリング処理の施された輝度色情報およびテクスチャ情報のそれぞれについて微小領域統合処理を施す微小領域統合処理手段16、微小領域統合処理手段16により微小領域統合処理の施された輝度色情報およびテクスチャ情報のそれぞれについて、ラベリングデータの組み合せが同じ画素を統合して画像を複数の領域に分割する領域分割手段20、および領域分割手段20により分割された複数の領域のうちの所定の画素数以下の領域を輝度色情報に基づいてその領域に隣接する領域に統合して画像を複数の領域に分割し、領域分割画像を出力する領域統合手段22とを備えている。
【0018】
特徴量抽出手段10は、図1に示すように、画像データから輝度色情報を抽出するRGB−YCC変換処理部11と画像データからテクスチャ情報を抽出するテクスチャ情報抽出処理部13とを有している。
【0019】
ラベリング処理手段14は、実空間において同じクラスタを示す数値を有する画素がまとまっている領域に対して同じラベルを付けてラベリング処理を行うものである。このラベリング処理は、クラスタリング処理手段12においてクラスタリングされた結果は、同じクラスタに属している画素はベクトル空間ではまとまるが、実空間では離散的に分布していることもあるため施される処理である。
【0020】
微小領域統合処理手段16は、ラベリング処理手段14によりラベリング処理を施した結果に基づいて領域分割すると、数画素〜数十画素からなる微小領域は実際は不必要な領域であるのに、1つの領域として分割されてしまうため、このような微小領域を隣接領域に統合する処理を行うものである。
【0021】
次に、本発明の画像分割装置の一実施形態の作用について説明する。
【0022】
まず、画像データが特徴量抽出手段10のRGB−YCC変換処理部11およびテクスチャ情報抽出処理部13に入力される。そして、RGB−YCC変換処理部11は、画像データの各画素データについてのRGB成分を生成し、このRGB成分にRGB−YCC変換処理を施し、画像データの各画素データについてのYCC成分を生成する。なお、本実施の形態では、輝度色情報として上記のようにYCC成分を生成するようにしたが、各画素データについてのRGB成分をそのまま利用してもよい。また、上記のようにYCC成分に変換することに限らず、HSV変換、L*a*b*変換などを利用して輝度色情報を抽出するようにしてもよい。そして、RGB−YCC変換処理部11は各画素データについてのYCC成分をクラスタリング処理手段12に出力する。
【0023】
クラスタリング処理手段12は、YCC成分の各成分(Y成分、Cb成分およびCr成分)を要素としたベクトル空間(輝度色情報としてYCC成分を利用する場合には3次元空間)上において、各画素データについてのYCC成分の各成分を要素とするベクトルをマッピングする。マッピングされたベクトル空間では、似ているYCC成分を持つ画素データのベクトルが集まりクラスタが形成されるため、このクラスタ毎に各画素データをまとめる。そして、各クラスタに割り当てられた画素データにクラスタ毎に異なる数値を付し、その結果をラベリング処理手段14に出力する。
【0024】
ラベリング処理手段14は、上記のようにして求められたベクトル空間上でのクラスタリング処理結果を実空間に写像し、実空間において同じクラスタの属する画素がまとまっている領域の画素に同じ名前(たとえば、数値で0,1,2…)を付する。そして、ラベリング処理手段14はラベリング処理結果を微小領域統合処理手段16に出力する。
【0025】
微小領域統合処理手段16は、入力されたラベリング処理結果に基づいて分割された領域のうち、最も画素数が少ない最小領域を抽出する。そして、この最小領域の画素数が所定の閾値(所定の閾値としては、たとえば全体画素数の1/1000程度)以下である場合に、この領域を処理対象領域とし、この処理対象領域が外接する矩形領域に存在する隣接領域(図2参照)を抽出する。そして、処理対象領域の代表値として処理対象領域内の画素データのY成分、Cb成分およびCr成分のそれぞれの平均値を求める。また、同様に、各隣接領域について上記代表値を求める。そして、処理対象領域の代表値と隣接領域の代表値とをY成分、Cr成分およびCb成分を軸とする3次元座標上にプロットした場合の処理対象領域の代表値から隣接領域の代表値までのユークリッド距離を計測する。そして、その中から最短距離となる隣接領域を抽出し、処理対象領域と隣接領域とを統合し、その統合された処理対象領域の画素のラベルを隣接領域の画素のラベルに付けなおす。そして、次に再び最も画素数の少ない最小領域を抽出し、この最小領域の画素数が所定の閾値以下である場合には、上記と同様にして隣接領域と統合する。そして、所定の閾値以下の画素数である領域がなくなるまで上記処理を繰り返し、その結果を領域分割手段18に出力する。
【0026】
一方、画像データが入力されたテクスチャ情報抽出処理部13は、画像データからエッジ信号を検出し、そのエッジ信号の検出結果を各画素データのテクスチャ情報としてクラスタリング処理手段12に出力する。エッジ信号の検出は、たとえば、1次微分フィルタ処理やラプラシアンフィルタ処理などを用いて行うようにしてもよいし、ウェーブレット変換係数やDCT係数をテクスチャ情報として用いるようにしてもよい。また、縦、横および斜めの1次微分フィルタ処理の結果を3次元の情報として利用するようにしてもよいし、画像データS0に多重解像度処理を施し、高解像度画像におけるテクスチャ情報および低解像度画像におけるテクスチャ情報を2次元の情報として利用するようにしてもよい。
【0027】
クラスタリング処理部12は、入力されたエッジ信号の検出結果に基づいて、エッジ信号が集合した部分とエッジ信号が少ない部分とでクラスタリングし、その結果をラベリング処理手段14に出力する。具体的には、エッジ信号にモフォロジー演算処理を施した結果などを用いてクラスタリングするようにすればよい。
【0028】
ラベリング処理手段14は、入力されたクラスタリング処理結果に基づき、上記と同様にしてラベリング処理を施し、微小領域統合処理手段16は、上記ラベリング処理結果に上記と同様にして微小領域統合処理を施し、その結果を領域分割手段18に出力する。
【0029】
上記のようにして領域分割手段18には、画像データを輝度色情報に基づいて領域分割された結果とテクスチャ情報に基づいて領域分割された結果とが入力される。そして、たとえば、輝度色情報に基づいて領域分割した結果が、図3(a)に示すような、ラベル0の付された領域A、ラベル1の付された領域Bおよびラベル2の付された領域Cの3つの領域に分割されたものであり、また、テクスチャ情報に基づいて領域分割された結果が、図3(b)に示すような、ラベル0の付された領域aおよびラベル1の付された領域bの2つの領域に分割されたものであるとすると、領域分割手段18は、輝度色情報領域分割結果において付されたラベルとテクスチャ情報分割結果において付されたラベルとの両方に基づいて各画素に再びラベリングする。具体的には、たとえば、所定の画素について、輝度色情報領域分割結果のラベルが0であって、テクスチャ情報領域分割結果のラベルが0である場合には、その画素にはラベル0を付し、所定の画素について、輝度色情報領域分割結果のラベルが1であって、テクスチャ情報領域分割結果のラベルが0である場合には、その注目画素には統合ラベル1を付し、というように輝度色情報領域分割結果のラベルとテクスチャ情報領域分割結果のラベルとの組み合せが同じもの対して同じ統合ラベルが付される。統合ラベルは図4の表に従って付され、その統合ラベルに基づいて画像が領域I〜領域VIに領域分割される。上記のようにして再領域分割された結果が、領域統合手段20に出力される。
【0030】
領域統合手段20は、入力された再領域分割された結果について、上記に説明した微小領域統合処理手段16における処理と同様の処理を施すが、処理対象領域を判断する際の画素数の閾値は、たとえば、上記閾値よりも大きい値にするなど異なるものとしてもよい。また、領域統合処理手段20は、輝度色情報に基づいてのみ領域統合処理を行う。図3(c)のように再領域分割された結果において、領域I〜領域VIのうち領域IIIと領域Vが処理対象領域と判断された場合にはまず、領域IIIは領域IVとともに領域Cであったため、輝度色情報を代表値とした距離は0となり、図3(d)に示すように、領域IIIと領域IVが統合されて領域4となり、領域Vと領域IIはともに領域Bであったため、両者の代表値間の距離は0となり、図3(d)に示すように、領域Vと領域IIが統合されて領域2となる。また、領域IVは、領域が大きく、画素数が閾値より大きいため、図3(d)に示すように、独立した新しい領域3となる。上記のように領域統合処理を施すことにより、図3(c)の段階で微小領域となった場合は、輝度色情報に基づいて分割された領域に復元し、微小領域にならなかった場合は、輝度色情報の基づいて分割された領域をさらに分割することが可能となる。つまり、輝度色情報による領域分割画像とテクスチャ情報による領域分割画像の長所を兼ね備えた領域分割画像を生成することができる。
【0031】
また、人間は画像を遠くから見た場合、主に輝度変化と色変化でオブジェクト領域毎の分割を行っていると考えられるので、上記のように輝度色情報に基づいて領域統合処理を施すようにすれば、より人間の感覚に近い領域分割を行うことができる。
【0032】
なお、図3(d)においては、輝度色情報であるYCC成分に基づいて領域統合処理を施しているが、輝度情報(Y成分)だけで領域統合処理を施すようにしてもよい。
【0033】
また、上記実施形態においては、輝度色情報およびテクスチャ情報のそれぞれについてクラスタリング処理およびラベリング処理を施した後、それぞれのラベリング処理の結果について微小領域統合処理を施すようにしたが、この微小領域統合処理を行わないようにしてもよく、上記それぞれのラベリング処理の結果に基づいて領域分割手段18において再領域分割処理を行うようにしてもよい。
【0034】
また、上記実施形態においては、輝度色情報およびテクスチャ情報のそれぞれについてクラスタリング処理を施した後、それぞれのクラスタリング処理結果にラベリング処理を施すようにしたが、ラベリング処理を行わないようにしてもよく、輝度色情報およびテクスチャ情報のそれぞれについてクラスタリング処理を施した後に、それぞれのクラスタリング処理の結果により各画素に付されたクラスタの数値を用いて統合ラベルを各画素に付し、その統合ラベルに基づいて再領域分割するようにしてもよい。なお、上記の場合、たとえば、輝度色情報に基づくクラスタリング処理結果におけるクラスタ数が16で、テクスチャ情報に基づくクラスタリング処理結果におけるクラスタ数が4である場合には、16×4=64個の統合ラベルが付されることになる。
【0035】
なお、上記本発明による画像分割方法をコンピュータに実行させるためのプログラムとして提供してもよい。
【図面の簡単な説明】
【図1】本発明の画像分割装置の一実施形態を示すブロック図
【図2】図1に示す画像分割装置における微小領域統合処理を説明するための図
【図3】図1に示す画像分割装置の領域分割手段および領域統合手段における処理を説明するための図
【図4】図1に示す画像分割装置の領域分割手段における処理を説明するための図
【符号の説明】
10 特徴量抽出手段
11 RGB−YCC変換処理部
12 クラスタリング処理手段
13 テクスチャ情報抽出処理部
14 ラベリング処理手段
16 微小領域統合処理手段
18 領域分割手段
20 領域統合手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image dividing method and apparatus for dividing an image into a plurality of regions based on a plurality of types of feature amounts extracted from image data.
[0002]
[Prior art]
An image captured by a digital camera or the like includes, for example, a person, the sea, the sky, a building, and other backgrounds. If image data such as the person and background is extracted from the image as one object, different image processing can be performed for each object, and the meaning of each object can be determined and presented to the user. it can. For this purpose, it is necessary to divide the object area for each object included in the image.
[0003]
Therefore, the image data constituting one object is extracted from the image data by using the property that the feature quantities such as color information, texture information, and wavelet coefficients are similar, and this feature quantity is extracted. A method of dividing an image into a plurality of object regions based on the above has been proposed. For example, in Patent Document 1, a plurality of types of feature amounts are extracted for each pixel of image data, a plurality of feature vectors having the plurality of types of feature amounts as elements are generated, and the feature vectors are similar to each feature vector. There has been proposed a method of classifying and classifying an image into a plurality of object regions based on the clustered result.
[0004]
[Patent Document 1]
Japanese Patent Application No. 2002-246395 [0005]
[Problems to be solved by the invention]
However, when an image is divided based on a feature vector composed of a plurality of types of feature amounts as described above, the dynamic range differs between luminance information, color information, and texture information. Weighting is performed by generating a feature vector by multiplying a predetermined coefficient. Therefore, the result of region division differs depending on this weighting, so it is necessary to optimize the weighting. However, since the optimum weighting is different for each image object, it is not easy, and the image object is associated with the weight. A database is required, which increases costs.
[0006]
The present invention provides an image segmentation method and apparatus for segmenting an image into a plurality of regions based on a plurality of types of feature amounts extracted from image data. It is an object of the present invention to provide an image dividing method and apparatus capable of dividing each area.
[0007]
[Means for Solving the Problems]
The image dividing method of the present invention obtains a plurality of types of feature amounts for each pixel of an image, integrates pixels having the same combination of the plurality of types of feature amounts, and forms an image by the integrated pixel group. Divided into a plurality of regions, and at least one region of the region is set as a region of interest, and the region of interest is a region adjacent to the region of interest having at least one type of feature amount equivalent among the plurality of types of feature amounts The image is divided into a plurality of regions by integration.
[0008]
Here, examples of the “plural types of feature amounts” include luminance information, color information, and texture information. The texture information is information related to edges in the image, and for example, wavelet transform coefficients, DCT coefficients, primary differential filter calculation processing results, secondary differential filter processing results, and the like can be used.
[0009]
The phrase “a combination of a plurality of types of feature values is equivalent” means that each of the feature values of a plurality of feature values of a pixel belongs to the same classification. Belonging to the same classification means, for example, that the feature value is within a predetermined value range. In addition, when a feature amount within the range of such a predetermined value is replaced with another value, the combination of the values is the same.
[0010]
In the image dividing method, when there are a plurality of other regions, the distance in the feature amount space of any one of the plurality of types of feature amounts with the attention region among the other regions is minimized. Other regions can be integrated with the region of interest to divide the image into a plurality of regions.
[0011]
Here, the “distance of the feature amount in the feature amount space” is, for example, the Euclidean distance between the average value of the feature amount of all the pixels in the region of interest and the average value of the feature amount of all the pixels in the other region. Say.
[0012]
The image dividing apparatus according to the present invention integrates a feature amount extraction unit that obtains a plurality of types of feature amounts for each pixel of an image, and a pixel group in which a combination of a plurality of types of feature amounts is equivalent, and combines the images Region dividing means for dividing the region into a plurality of regions, and at least one of the regions as a region of interest, and the region of interest is equivalent to at least one type of feature amount among a plurality of types of feature amounts And an area integration means for dividing the image into a plurality of areas by integrating with other areas adjacent to the area.
[0013]
In the image dividing apparatus, when there are a plurality of other regions, the region integration unit is configured in a feature amount space of any one feature amount among a plurality of types of feature amounts with the attention region among the plurality of other regions. It is possible to divide the image into a plurality of regions by integrating another region having the smallest distance with the region of interest.
[0014]
【The invention's effect】
According to the image dividing method and apparatus of the present invention, a plurality of types of feature amounts are obtained for each pixel of an image, pixels having the same combination of the plurality of types of feature amounts are integrated, and an image is integrated into the pixel group. Is divided into a plurality of regions, and at least one of the regions is set as a region of interest, and the region of interest is adjacent to the region of interest having at least one type of feature amount equivalent among the plurality of types of feature amounts. Since the image is divided into a plurality of areas by being integrated with the area, it is possible to perform appropriate area division for each object area without the need for a database as described above.
[0015]
In the image dividing method and apparatus, when there are a plurality of other regions, the distance in the feature amount space of any one of the plurality of types of feature amounts with the attention region among the other regions is the minimum. If the image is divided into a plurality of areas by integrating the other areas with the attention area, optimization of the other areas to be integrated with the attention area can be achieved. Region division can be performed.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of an image dividing apparatus that performs an image dividing method of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the above embodiment. The image segmentation apparatus according to the present embodiment extracts luminance color information and texture information for each pixel of the image, and integrates pixels having the same combination of the luminance color information and texture information into a plurality of regions. The image is divided, and at least one of the regions is integrated with an adjacent region having the same luminance color information, and the image is divided into a plurality of regions.
[0017]
As shown in FIG. 1, the image segmentation apparatus according to the present embodiment is a feature amount extraction unit 10 that extracts luminance color information and texture information from image data, and the luminance color information and texture information extracted by the feature amount extraction unit 10. Clustering processing means 12 that performs clustering processing for each, labeling processing means 14 that performs labeling processing for each of the luminance color information and texture information subjected to clustering processing by the clustering processing means 12, and labeling processing performed by the labeling processing means 14. For each of the luminance color information and the texture information, the micro area integration processing means 16 for performing the micro area integration processing, and for each of the luminance color information and the texture information subjected to the micro area integration processing by the micro area integration processing means 16, Luminance color information is obtained by integrating the pixels with the same combination of ring data to divide the image into a plurality of areas, and the area having a predetermined number of pixels or less of the plurality of areas divided by the area dividing means 20 And an area integration means 22 for dividing the image into a plurality of areas by integrating the areas into the area adjacent to the area and outputting the area divided image.
[0018]
As shown in FIG. 1, the feature quantity extraction unit 10 includes an RGB-YCC conversion processing unit 11 that extracts luminance color information from image data and a texture information extraction processing unit 13 that extracts texture information from image data. Yes.
[0019]
The labeling processing unit 14 performs the labeling process by attaching the same label to a region in which pixels having numerical values indicating the same cluster are grouped in the real space. This labeling process is performed because the result of clustering in the clustering processing means 12 is that pixels belonging to the same cluster are grouped in the vector space but may be discretely distributed in the real space. .
[0020]
When the micro area integration processing means 16 divides the area based on the result of the labeling process performed by the labeling processing means 14, a micro area consisting of several pixels to several tens of pixels is actually an unnecessary area, but one area. Therefore, a process for integrating such a minute area into an adjacent area is performed.
[0021]
Next, the operation of one embodiment of the image dividing apparatus of the present invention will be described.
[0022]
First, image data is input to the RGB-YCC conversion processing unit 11 and the texture information extraction processing unit 13 of the feature amount extraction unit 10. The RGB-YCC conversion processing unit 11 generates an RGB component for each pixel data of the image data, performs an RGB-YCC conversion process on the RGB components, and generates a YCC component for each pixel data of the image data. . In this embodiment, the YCC component is generated as the luminance color information as described above, but the RGB component for each pixel data may be used as it is. Further, the luminance color information may be extracted by using HSV conversion, L * a * b * conversion, or the like without being limited to the conversion to the YCC component as described above. Then, the RGB-YCC conversion processing unit 11 outputs the YCC component for each pixel data to the clustering processing unit 12.
[0023]
The clustering processing means 12 uses each pixel data on a vector space (a three-dimensional space when using the YCC component as luminance color information) having each component of the YCC component (Y component, Cb component and Cr component) as elements. A vector whose elements are the components of the YCC component for is mapped. In the mapped vector space, vectors of pixel data having similar YCC components are gathered to form a cluster, and thus each pixel data is collected for each cluster. The pixel data assigned to each cluster is assigned a different numerical value for each cluster, and the result is output to the labeling processing means 14.
[0024]
The labeling processing means 14 maps the clustering processing result in the vector space obtained as described above to the real space, and the same name (for example, for example) the pixel of the region where the pixels to which the same cluster belongs are grouped in the real space. Numerical values 0, 1, 2,. Then, the labeling processing unit 14 outputs the labeling processing result to the minute region integration processing unit 16.
[0025]
The micro area integration processing means 16 extracts the minimum area having the smallest number of pixels from the areas divided based on the input labeling processing result. When the number of pixels in the minimum area is equal to or less than a predetermined threshold (for example, the predetermined threshold is about 1/1000 of the total number of pixels), this area is set as a processing target area, and the processing target area is circumscribed. An adjacent area (see FIG. 2) existing in the rectangular area is extracted. Then, average values of the Y component, the Cb component, and the Cr component of the pixel data in the processing target area are obtained as representative values of the processing target area. Similarly, the representative value is obtained for each adjacent region. From the representative value of the processing target region to the representative value of the adjacent region when the representative value of the processing target region and the representative value of the adjacent region are plotted on the three-dimensional coordinates with the Y component, the Cr component, and the Cb component as axes. Measure the Euclidean distance. Then, an adjacent area having the shortest distance is extracted from the area, the processing target area and the adjacent area are integrated, and the label of the pixel of the integrated processing target area is re-attached to the label of the pixel of the adjacent area. Then, the minimum area with the smallest number of pixels is extracted again, and when the number of pixels in the minimum area is equal to or less than a predetermined threshold value, it is integrated with the adjacent area in the same manner as described above. Then, the above process is repeated until there is no area having the number of pixels equal to or smaller than the predetermined threshold value, and the result is output to the area dividing means 18.
[0026]
On the other hand, the texture information extraction processing unit 13 to which the image data is input detects an edge signal from the image data, and outputs the detection result of the edge signal to the clustering processing unit 12 as texture information of each pixel data. The detection of the edge signal may be performed using, for example, a primary differential filter process or a Laplacian filter process, or a wavelet transform coefficient or a DCT coefficient may be used as texture information. Further, the results of the vertical, horizontal and diagonal first-order differential filter processing may be used as three-dimensional information, or the image data S0 is subjected to multi-resolution processing, and the texture information and the low-resolution image in the high-resolution image. The texture information may be used as two-dimensional information.
[0027]
Based on the input edge signal detection result, the clustering processing unit 12 performs clustering on the portion where the edge signals are gathered and the portion where the edge signals are small, and outputs the result to the labeling processing means 14. Specifically, clustering may be performed using a result of performing a morphology operation process on the edge signal.
[0028]
The labeling processing unit 14 performs labeling processing in the same manner as described above based on the input clustering processing result, and the micro region integration processing unit 16 performs micro region integration processing on the labeling processing result in the same manner as described above. The result is output to the area dividing means 18.
[0029]
As described above, the result obtained by dividing the image data based on the luminance color information and the result obtained by dividing the area based on the texture information are input to the region dividing unit 18. Then, for example, the result of the area division based on the luminance color information is the area A with the label 0, the area B with the label 1, and the label 2 as shown in FIG. The area C is divided into three areas, and the result of the area division based on the texture information is the result of the area a and the label 1 labeled 0 as shown in FIG. Assuming that the area is divided into two areas of the attached area b, the area dividing means 18 applies both the label attached in the luminance color information area division result and the label attached in the texture information division result. Label each pixel again based on it. Specifically, for example, when the label of the luminance color information area division result is 0 and the label of the texture information area division result is 0 for a predetermined pixel, the pixel is labeled 0. For a given pixel, if the label of the luminance color information area division result is 1 and the label of the texture information area division result is 0, the target pixel is assigned an integrated label 1, and so on. The same combination label is attached to the same combination of the label of the luminance color information area division result and the label of the texture information area division result. The integrated label is attached according to the table of FIG. 4, and the image is divided into regions I to VI based on the integrated label. The result of the re-region division as described above is output to the region integration unit 20.
[0030]
The region integration unit 20 performs the same processing as the processing in the minute region integration processing unit 16 described above on the input result of the re-region division, but the threshold value of the number of pixels when determining the processing target region is For example, it may be different from the above threshold value. The area integration processing means 20 performs the area integration process only based on the luminance color information. As a result of the re-region division as shown in FIG. 3C, when it is determined that the region III and the region V among the regions I to VI are the processing target regions, the region III is the region C together with the region IV. Therefore, the distance with the luminance color information as a representative value is 0, and as shown in FIG. 3D, the region III and the region IV are integrated into the region 4, and both the region V and the region II are the region B. Therefore, the distance between the representative values of both is 0, and the region V and the region II are integrated into the region 2 as shown in FIG. In addition, since the area IV is large and the number of pixels is larger than the threshold value, the area IV becomes an independent new area 3 as shown in FIG. By performing the region integration processing as described above, if the region becomes a minute region in the stage of FIG. 3C, the region is restored to the region divided based on the luminance color information, and if the region does not become the minute region Thus, the area divided based on the luminance color information can be further divided. That is, it is possible to generate a region divided image having the advantages of the region divided image based on luminance color information and the region divided image based on texture information.
[0031]
In addition, when a human sees an image from a distance, it is considered that the object region is divided mainly by luminance change and color change. Therefore, the region integration processing is performed based on the luminance color information as described above. By doing so, it is possible to perform region division closer to a human sense.
[0032]
In FIG. 3D, the region integration process is performed based on the YCC component that is the luminance color information. However, the region integration process may be performed using only the luminance information (Y component).
[0033]
In the above embodiment, the clustering process and the labeling process are performed on each of the luminance color information and the texture information, and then the micro area integration process is performed on the result of each labeling process. The region dividing unit 18 may perform the re-region division process based on the results of the respective labeling processes.
[0034]
In the above embodiment, the clustering process is performed on each of the luminance color information and the texture information, and then the labeling process is performed on each clustering process result. However, the labeling process may not be performed. After performing clustering processing for each of the luminance color information and texture information, an integrated label is attached to each pixel using the numerical value of the cluster attached to each pixel according to the result of each clustering processing, and based on the integrated label Re-region division may be performed. In the above case, for example, when the number of clusters in the clustering processing result based on the luminance color information is 16 and the number of clusters in the clustering processing result based on the texture information is 4, 16 × 4 = 64 integrated labels Will be attached.
[0035]
The image dividing method according to the present invention may be provided as a program for causing a computer to execute the image dividing method.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an embodiment of an image dividing apparatus according to the present invention. FIG. 2 is a diagram for explaining a micro area integration process in the image dividing apparatus shown in FIG. FIG. 4 is a diagram for explaining processing in the region dividing unit and region integrating unit of the apparatus. FIG. 4 is a diagram for explaining processing in the region dividing unit of the image dividing apparatus shown in FIG.
DESCRIPTION OF SYMBOLS 10 Feature-value extraction means 11 RGB-YCC conversion process part 12 Clustering process means 13 Texture information extraction process part 14 Labeling process means 16 Minute area | region integration process means 18 Area division means 20 Area integration means

Claims (4)

画像の画素毎に複数種類の特徴量を求め、該複数種類の特徴量の組み合わせが同等である画素を統合して、前記画像を該統合された画素群が構成する複数の領域に分割し、該領域の少なくとも1つの領域を注目領域とし、該注目領域を前記複数種類の特徴量のうち少なくとも1種類の特徴量が同等である該注目領域に隣接する他の領域と統合して前記画像を複数の領域に分割することを特徴とする画像分割方法。Obtaining a plurality of types of feature amounts for each pixel of the image, integrating pixels having the same combination of the plurality of types of feature amounts, and dividing the image into a plurality of regions formed by the integrated pixel group; At least one region of the region is set as a region of interest, and the region of interest is integrated with another region adjacent to the region of interest having at least one type of feature amount equivalent among the plurality of types of feature amounts. An image dividing method, wherein the image is divided into a plurality of regions. 前記他の領域が複数あるとき、
該複数の他の領域のうち前記注目領域との複数種類の特徴量のうちいずれか1つの特徴量の特徴量空間における距離が最小となる他の領域を前記注目領域と統合して前記画像を複数の領域に分割することを特徴とする請求項1記載の画像分割方法。
When there are a plurality of the other areas,
Of the plurality of other regions, the other region having the smallest distance in the feature amount space of any one of the plurality of types of feature amounts with the attention region is integrated with the attention region, and the image is obtained. The image dividing method according to claim 1, wherein the image is divided into a plurality of regions.
画像の画素毎に複数種類の特徴量を求める特徴量抽出手段と、前記複数種類の特徴量の組み合わせが同等である画素を統合して前記画像を該統合された画素群が構成する複数の領域に分割する領域分割手段と、前記領域の少なくとも1つの領域を注目領域とし、該注目領域を前記複数種類の特徴量のうち少なくとも1種類の特徴量が同等である該注目領域に隣接する他の領域と統合して前記画像を複数の領域に分割する領域統合手段とを備えたことを特徴とする画像分割装置。Feature amount extraction means for obtaining a plurality of types of feature amounts for each pixel of an image, and a plurality of regions formed by integrating the pixels in which the combination of the plurality of types of feature amounts is equivalent to constitute the image An area dividing means for dividing the area into at least one of the areas as an attention area, and the attention area is adjacent to the attention area having at least one type of feature quantity equivalent among the plurality of types of feature quantities. An image dividing apparatus comprising: an area integration unit that integrates an area and divides the image into a plurality of areas. 前記領域統合手段が、
前記他の領域が複数あるとき、
該複数の他の領域のうち前記注目領域との複数種類の特徴量のうちいずれか1つの特徴量の特徴量空間における距離が最小となる他の領域を前記注目領域と統合して前記画像を複数の領域に分割するものであることを特徴とする請求項3記載の画像分割装置。
The region integration means is
When there are a plurality of the other areas,
Of the plurality of other regions, the other region having the smallest distance in the feature amount space of any one of the plurality of types of feature amounts with the attention region is integrated with the attention region, and the image is obtained. 4. The image dividing apparatus according to claim 3, wherein the image dividing apparatus is divided into a plurality of regions.
JP2003046017A 2003-02-24 2003-02-24 Image dividing method and device Withdrawn JP2004258752A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003046017A JP2004258752A (en) 2003-02-24 2003-02-24 Image dividing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003046017A JP2004258752A (en) 2003-02-24 2003-02-24 Image dividing method and device

Publications (1)

Publication Number Publication Date
JP2004258752A true JP2004258752A (en) 2004-09-16

Family

ID=33112681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003046017A Withdrawn JP2004258752A (en) 2003-02-24 2003-02-24 Image dividing method and device

Country Status (1)

Country Link
JP (1) JP2004258752A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127024A (en) * 2004-10-27 2006-05-18 Denso Corp Region segmentation method and device, image recognition processing device, program and recording medium
JP2007026225A (en) * 2005-07-19 2007-02-01 Toyota Motor Corp Image processing device and its method
JP2007226681A (en) * 2006-02-24 2007-09-06 Nagaoka Univ Of Technology Water flow area detection system, water flow area detection method, and program
US20100135523A1 (en) * 2007-06-29 2010-06-03 Jeffrey Adam Bloom Volume marking with low-frequency
WO2016027689A1 (en) * 2014-08-21 2016-02-25 アイシン精機株式会社 Image display control device and image display system
JP2016122905A (en) * 2014-12-24 2016-07-07 ソニー株式会社 Image processing apparatus, image processing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127024A (en) * 2004-10-27 2006-05-18 Denso Corp Region segmentation method and device, image recognition processing device, program and recording medium
JP4506409B2 (en) * 2004-10-27 2010-07-21 株式会社デンソー Region dividing method and apparatus, image recognition processing apparatus, program, and recording medium
JP2007026225A (en) * 2005-07-19 2007-02-01 Toyota Motor Corp Image processing device and its method
JP4613726B2 (en) * 2005-07-19 2011-01-19 トヨタ自動車株式会社 Image processing apparatus and method
JP2007226681A (en) * 2006-02-24 2007-09-06 Nagaoka Univ Of Technology Water flow area detection system, water flow area detection method, and program
JP4677561B2 (en) * 2006-02-24 2011-04-27 国立大学法人長岡技術科学大学 Water level detection system, water level detection method, and program
US20100135523A1 (en) * 2007-06-29 2010-06-03 Jeffrey Adam Bloom Volume marking with low-frequency
US8638977B2 (en) * 2007-06-29 2014-01-28 Thomson Licensing Volume marking with low-frequency
WO2016027689A1 (en) * 2014-08-21 2016-02-25 アイシン精機株式会社 Image display control device and image display system
JP2016043778A (en) * 2014-08-21 2016-04-04 アイシン精機株式会社 Image display control device and image display system
JP2016122905A (en) * 2014-12-24 2016-07-07 ソニー株式会社 Image processing apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
Achanta et al. Salient region detection and segmentation
JP6639113B2 (en) Image recognition device, image recognition method, and program
Mirmehdi et al. Segmentation of color textures
JP2004361987A (en) Image retrieval system, image classification system, image retrieval program, image classification program, image retrieval method, and image classification method
JP6192271B2 (en) Image processing apparatus, image processing method, and program
CN104504734B (en) A kind of color of image transmission method based on semanteme
KR20160143494A (en) Saliency information acquisition apparatus and saliency information acquisition method
US8743119B2 (en) Model-based face image super-resolution
CN107316286B (en) Method and device for synchronously synthesizing and removing rain and fog in image
US8577137B2 (en) Image processing apparatus and method, and program
US8718401B2 (en) Image processing device, method and program
CN101211356A (en) Image inquiry method based on marking area
CN110110755B (en) Pedestrian re-identification detection method and device based on PTGAN region difference and multiple branches
JP4098021B2 (en) Scene identification method, apparatus, and program
Hassanat et al. Colour-based lips segmentation method using artificial neural networks
CN110569859B (en) Color feature extraction method for clothing image
CN112396053A (en) Method for detecting object of all-round fisheye image based on cascade neural network
CN103324753B (en) Based on the image search method of symbiotic sparse histogram
CN109583341B (en) Method and device for detecting multi-person skeleton key points of image containing portrait
CN110268442A (en) In the picture detect background objects on exotic computer implemented method, in the picture detect background objects on exotic equipment and computer program product
JP2004258752A (en) Image dividing method and device
JP2009123234A (en) Object identification method, apparatus and program
JP6801020B2 (en) Image recognition device, image recognition method, and image recognition program
JP2004078939A (en) Object identification method, apparatus and program
JP2007264838A (en) Object identification apparatus

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509