JP2004086538A - Method and device for classifying feature quantity of image - Google Patents

Method and device for classifying feature quantity of image Download PDF

Info

Publication number
JP2004086538A
JP2004086538A JP2002246395A JP2002246395A JP2004086538A JP 2004086538 A JP2004086538 A JP 2004086538A JP 2002246395 A JP2002246395 A JP 2002246395A JP 2002246395 A JP2002246395 A JP 2002246395A JP 2004086538 A JP2004086538 A JP 2004086538A
Authority
JP
Japan
Prior art keywords
vector
feature
classification
classification parameter
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002246395A
Other languages
Japanese (ja)
Inventor
Masahiko Yamada
山田 雅彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002246395A priority Critical patent/JP2004086538A/en
Publication of JP2004086538A publication Critical patent/JP2004086538A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To precisely classify the feature quantities of image data for each image. <P>SOLUTION: A first classification parameter is generated by using a parameter indicating the distribution of feature vectors in a vector region, and the feature vectors are divided into a plurality of first vector regions by using the first classification parameter. Then, a second classification parameter is generated by calculating the representative point of each of the first vector areas, and the first vector region is divided into a plurality of second vector regions by using the second classification parameter. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、画像データから抽出した特徴量を類似した特徴量毎に分類する画像の特徴量分類方法および装置に関し、詳しくは、たとえば写真画像や医療用画像などの画像データからオブジェクト領域情報を抽出する際に、画像データを特徴量を用いて領域分割するために、画像データから抽出された特徴量を分類する画像の特徴量分類方法および装置に関するものである。
【0002】
【従来の技術】
デジタルカメラ等で撮像した画像は、たとえば人物や海、空、建物その他の背景等を含むものである。その画像の中からその人物や背景等の画像データが1つのオブジェクトとして抽出すれば、各オブジェクト毎に異なる画像処理を行うことができるとともに、各オブジェクトの意味を判別してユーザーに提示することもできる。このためには、画像に含まれているオブジェクト毎にそれぞれオブジェクト領域を分割する必要がある。
【0003】
画像データから自動的にオブジェクト領域を抽出する場合、特徴量を分類した後、この分類結果を利用して画像情報を分割してオブジェクトを自動的に分割することが提案されている。すなわち、1つのオブジェクトを構成する画像データは、色情報、テクスチャ情報、ウェーブレット係数等の特徴量が類似したものとなっている。この性質を利用すれば、画像データをオブジェクト領域毎に領域分割することができる。
【0004】
特徴量を分類する際に、画像圧縮等で利用されるベクトル量子化の手法を用いられる。ベクトル量子化は、特徴量を軸とした特徴ベクトル空間における領域分割方法であり、類似した特徴量を持つ画素ベクトルを分類するために有効な手段である。具体的には、画像の各画素に対する複数の特徴量が抽出されて、各特徴量を要素とした複数の特徴ベクトルが生成される。その後、複数の特徴ベクトルを類似する特徴ベクトル毎に分類する(クラスタリング)。そして、クラスタリングされた結果に基づいて、画像データが分類されて複数のクラスタリング領域に領域分割される。
【0005】
ここで、各特徴ベクトルは複数の分類パラメータの中で最も距離の近い分類パラメータに分類されることにより、各特徴ベクトルがそれぞれ分類パラメータ毎に分類される。よって、上述した複数の特徴ベクトルを分類する場合、分類の基となる複数の分類パラメータ(代表ベクトル)が必要となる。
【0006】
【発明が解決しようとする課題】
ところで、画像の被写体の相違により、画像の特徴量の分布が大きく変動する。たとえば、海岸で海と空を背景に人物が写っている場合と、小高い丘の上で町並みを背景に人物が写っている場合とでは、画像が持っている色や輝度、テクスチャなどの特徴量が異なる。このため、特徴ベクトル空間での特徴量の分布は画像毎に異なるものとなる。
【0007】
一方、画像圧縮で用いられるベクトル量子化は、情報の冗長性低減のため様々な画像を学習データとして平均的な分類パラメータを作成し、その分類パラメータを用いてベクトル量子化を行っている。したがって、画像圧縮で用いられるベクトル量子化をそのまま特徴量を分類するためのベクトル量子化に用いた場合、特徴量の分類の精度が低いという問題がある。
【0008】
つまり、画像圧縮等で用いられる分類パラメータは様々な画像を学習データとして平均的な分類パラメータであるため、必ずしも画像毎に最適な分類パラメータが使用されていない。このため、特徴量の分類に基づいて画素毎に領域分割する際の精度が低くなってしまい、特徴量の分類に基づいて画像データ領域の領域分割した場合、正しく領域分割できないという問題がある。
【0009】
そこで、本発明は、画像データの特徴量の分類を画像毎に精度よく行うことができる画像の特徴量分類方法および装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
本発明の画像の特徴量分類方法は、複数の画像データからそれぞれ複数の特徴量を抽出するステップと、抽出した前記複数の特徴量を用いて前記画像データ毎に特徴ベクトルを生成するステップと、生成した前記複数の特徴ベクトルを類似した該特徴ベクトル毎に分類するための分類パラメータを生成するステップと、生成した前記分類パラメータを用いて前記複数の特徴ベクトルを類似した該特徴ベクトル毎に分類した複数のベクトル領域を生成するステップとを有する画像の特徴量分類方法であって、前記ベクトル領域内の前記特徴ベクトルの分布を示すパラメータを用いて第1分類パラメータを生成するステップと、生成した前記第1分類パラメータを用いて前記特徴ベクトルを複数の第1ベクトル領域に分割するステップと、分割した前記各第1ベクトル領域毎の代表点を算出して第2分類パラメータを生成するステップと、生成した該第2分類パラメータを用いて前記複数の特徴ベクトルを複数の第2ベクトル領域に分割するステップとを有することを特徴とする。
【0011】
ここで、「ベクトル領域の生成」は、特徴ベクトルが複数の分類パラメータのうちどの分類パラメータに最も類似するかを判断することにより、各分類パラメータ毎に特徴ベクトルを分類することにより行われる。
【0012】
また、第1分類パラメータを生成するステップ、第1分類パラメータを用いて第1ベクトル領域に分割するステップ、第2分類パラメータを生成するステップおよび第2分類パラメータを用いて第2ベクトル領域に分割するステップを有する分類プロセスが、一度だけ行われるものであってもよいし、複数回繰り返して行われるものであってもよい。
【0013】
本発明の画像の特徴量分類装置は、画像データから複数の特徴量を抽出する特徴量抽出手段と、抽出された前記複数の特徴量を用いて前記画像データ毎に特徴ベクトルを生成する特徴ベクトル生成手段と、生成された前記複数の特徴ベクトルを類似した該特徴ベクトル毎に分類するための分類パラメータを生成する分類パラメータ生成手段と、生成された前記分類パラメータを用いて前記複数の特徴ベクトルを類似した該特徴ベクトル毎に分類した複数のベクトル領域を生成する特徴ベクトル分類手段とを有する画像の特徴量分類装置において、前記分類パラメータ生成手段が、前記ベクトル領域における前記特徴ベクトルの分布を示すパラメータを用いて第1分類パラメータを生成する第1分類パラメータ生成手段と、生成された前記第1分類パラメータを用いて前記特徴ベクトル分類手段により分割された第1ベクトル領域の代表点をそれぞれ算出して第2分類パラメータを生成する第2分類パラメータ生成手段とを有することを特徴とする。
【0014】
ここで、「第1分類パラメータ生成手段」は、複数のベクトル領域のすべてについて、第1分類パラメータを生成してもよいし、複数のベクトル領域のうち特徴ベクトルの分布を示すパラメータが最も大きいベクトル領域だけ第1分類パラメータを生成してもよい。
【0015】
また、「第1分類パラメータ生成手段」は、ベクトル領域の分布を示すパラメータとして用いて第1分類パラメータを生成すればよく、たとえば特徴ベクトルの分散を用いることができる。さらに、「第2分類パラメータ生成手段」は算出した代表点を用いて第2分類パラメータを生成すればよく、たとえばベクトル領域の重心を用いることができる。
【0016】
【発明の効果】
本発明の画像の特徴量分類方法および装置によれば、特徴ベクトルの分布を示すパラメータを用いて第1分類パラメータを生成し、第1分類パラメータを用いて第1ベクトル領域に分割し、第1ベクトル領域の代表点を用いて第2分類パラメータを生成し、第2分類パラメータを用いて第2ベクトル領域に分割することにより、画像毎の特徴量の分布に合わせた第1ベクトル領域の分割を行うことになり、画像毎に画像の特徴量分布にあった最適な分類パラメータを生成することができるため、特徴量の分類を精度よく行うことができる。
【0017】
また、第1分類パラメータによる第1ベクトル領域の分割のみならず、さらに第1ベクトル領域の代表点を第2分類パラメータとして生成することにより、分散による雑な分類パラメータの生成だけでなく、その後より正確な分類パラメータを生成することにより、特徴量の分類を精度良く行うことができる。
【0018】
なお、第1分類パラメータを生成するステップ、第1分類パラメータを用いて第1ベクトル領域に分割するステップ、第2コードブックを生成するステップおよび第2分類パラメータを用いて第2ベクトル領域に分割するステップを有する分割プロセスを複数回繰り返すことにより、精度よく分類パラメータの数を増やすことができるため、特徴量の分類をより細かく正確に行うことができる。
【0019】
また、複数のベクトル領域のうち特徴ベクトルの分布を示すパラメータが最も大きいベクトル領域の第1分類パラメータを生成することにより、効率よく第2分類パラメータを生成することができる。
【0020】
【発明の実施の形態】
図1は本発明の画像の特徴量分類装置の好ましい実施の形態を示すブロック図であり、図1を参照して画像の特徴量分類装置について説明する。画像の特徴量分類装置1は、画像データPDを各オブジェクト毎にクラスタリング領域を分割する等のために、画像データPDの特徴量CQを特徴ベクトルCB毎に分類するものであって、特徴量抽出手段10、特徴ベクトル生成手段20、分類パラメータ生成手段30、特徴ベクトル分類手段40等を有する。
【0021】
特徴量抽出手段10は画像データPDから特徴量CQを抽出して特徴ベクトル生成手段20に出力する機能を有する。画像データPDは1画像を構成するM×N個の画素データxij(i,j:0≦i≦N、0≦j≦M)を有しており、各画素データに色情報や輝度情報等の様々な画像情報が含まれている。特徴量抽出手段10は画像データPDの画像情報から設定された特徴量CQを抽出する機能を有する。たとえば、特徴量抽出手段10は、画像データPDから、特徴量CQとしてRGB、YCC、Labなどの色情報や輝度情報、ウェーブレット係数、DCT係数などのテクスチャ情報等のn個の特徴量CQ=(ijijijij、・・・n―1ijij)を抽出するようになっている。なお、特徴量抽出手段10により抽出される特徴量CQの数および種類はユーザーにより設定することが可能である。
【0022】
特徴ベクトル生成手段20は、特徴量抽出手段10により抽出された複数の特徴量CQを用いて画像データPD毎に特徴ベクトルCBを生成する機能を有する。そして特徴ベクトル生成手段20は生成した特徴ベクトルCBをベクトルデータベース25に記憶させる。たとえば、特徴量抽出手段10が各画像データPDからそれぞれn個の特徴量CQを抽出した場合、特徴ベクトル生成手段20は特徴ベクトルCB=(ijijijij、・・・n―1ijij)を作成する。すなわち、特徴ベクトル生成手段20は画像空間から特徴ベクトル空間に写像するようになっている。
【0023】
分類パラメータ生成手段30はベクトルデータベース25の複数の特徴ベクトルCBを、類似した特徴ベクトルCB毎に分類するための分類パラメータを生成する機能を有する。そして、分類パラメータ生成手段30は生成した分類パラメータをコードブック35に記憶させるようになっている。
【0024】
特徴ベクトル分類手段40はコードブック35の分類パラメータを用いて複数の特徴ベクトルCBを複数のベクトル領域BR(クラスタ)に分割する機能を有する(クラスタリング)。具体的には、特徴ベクトル分類手段40は、複数の分類パラメータのうち各特徴ベクトルCBがどの分類パラメータと最も類似するかを判断する。その結果により、特徴ベクトル分類手段40は複数の特徴ベクトルCBを各分類パラメータ毎に分類して、複数の類似した特徴ベクトルCBからなるベクトル領域BRを生成する。最も類似する分類パラメータの選択は、たとえば特徴ベクトルCBと最も距離(ユークリッド距離やマハラノビス距離等)が近い分類パラメータRBを選択することにより行われる。
【0025】
たとえばL個の分類パラメータRBを有する場合、特徴ベクトル分類手段40は特徴ベクトル空間をL個のベクトル領域BRに分割することになる。そして、特徴ベクトル分類手段40は、特徴ベクトルCBとその特徴ベクトルCBの属する分類パラメータを関連づけしてベクトルデータベース25に記憶する。したがって、ベクトルデータベース25内の各特徴ベクトルが特徴ベクトル領域BR毎に記憶された状態になっている。
【0026】
ここで、分類パラメータ生成手段30は第1分類パラメータHRBを生成する第1分類パラメータ生成手段31と、第2分類パラメータRBを生成する第2分類パラメータ生成手段32とを有する。第1分類パラメータ生成手段31は各特徴ベクトル領域BR内の特徴ベクトルCBの分布を示すパラメータを用いて第1分類パラメータHRBを生成する。具体的には、第1分類パラメータ生成手段31は特徴ベクトルCBの分布を示すパラメータとして、特徴ベクトルCBの分散σ=(σijσijσijσij、・・・n―1σijσij)を生成する。そして、第1分類パラメータ生成手段31は、分散σを用いて第1分類パラメータHRBを生成する。そして第1分類パラメータ生成手段31は、生成した第1分類パラメータHRBをコードブック35に記憶させる。
【0027】
一方、第2分類パラメータ生成手段32は、生成された第1分類パラメータHRBを用いて特徴ベクトル分類手段40により分割されたベクトル領域BRの代表点をそれぞれ算出して第2分類パラメータRBを生成する。ここで、代表点は各特徴ベクトルCBのユークリッド距離空間における重心(平均値)であり、第2分類パラメータRB=(RBijRBijRBijRBij、・・・n―1RBijRBij)として生成される。なお、ベクトル領域内にK個の特徴ベクトルがある場合、平均値の各成分はRBij=Σij/Kを算出することにより生成される。そして、第2分類パラメータ生成手段32は生成した代表点を第2分類パラメータRBとする。この生成された第2分類パラメータRBが最終的な特徴量CQを分類する分類パラメータとして使用されることになる。
【0028】
なお、第2分類パラメータ生成手段32は、ユークリッド距離における重心(平均値)を代表点として算出するようにしているが、ユークリッド距離を用いない一般の距離空間上では重心の計算は困難であるため、重心以外の代表点を算出するようにしてもよい。
【0029】
制御手段50は、分類パラメータ生成手段30および特徴ベクトル分類手段40の動作を制御する機能を有する。具体的には、以下に示すような特徴量分類方法を実現するように、第1分類パラメータ生成手段31、第2分類パラメータ生成手段32および特徴ベクトル分類手段40を制御するようになっている。
【0030】
図2は本発明の画像の特徴量分類方法の好ましい実施の形態を示すフローチャート図であり、図2を参照して画像の特徴量分類方法について説明する。まず、画像データPDの特徴量CQが特徴量抽出手段10により抽出される(ステップST1)。抽出した特徴量CQを用いて特徴ベクトルCBが特徴ベクトル生成手段20により生成されて、ベクトルデータベース25に記憶される(ステップST2)。そして、第2分類パラメータ生成手段32によりすべての特徴ベクトルCBからなる特徴ベクトル領域BRの重心が算出される(ステップST3)。その後、算出された重心が初期分類パラメータRBrefとしてコードブック35に記憶される(ステップST4)。
【0031】
次に、第1分類パラメータ生成手段31において、すべての特徴ベクトルCBからなる初期ベクトル領域BRrefの分散σが算出される(ステップST5)。そして、算出された初期分類パラメータRBrefに分散σを加減算した2つの第1分類パラメータHRB1=(RB+σ)、HRB2=(RB−σ)が生成されてコードブック35に記憶される(ステップST6)。なお、第1分類パラメータ生成手段31が、分散σに適当な加重αを乗じたものを加算して第1分類パラメータHRB1=(RBref+ασ)、HRB2=(RBref−ασ)を生成するようにしてもよい。
【0032】
このとき、第1分類パラメータHRB1、HRB2の生成の基となった分類パラメータ、すなわち初期分類パラメータRBrefを上書きするように、第1分類パラメータHRB1、RGB2がコードブック35に記憶される。したがって、コードブック35内には第1分類パラメータHRB1、RGB2のみが存在する。その後、2つの第1分類パラメータHRB1、HRB2を用いて特徴ベクトル領域BRが2つの第1ベクトル領域に分割される(ステップST7)。
【0033】
さらに、分割された第1ベクトル領域HBRの重心がそれぞれ算出されて(ステップST8)、第2分類パラメータRB1、RB2が生成された後コードブック35に記憶される(ステップST9)。このとき、第2分類パラメータRB1、RB2の生成の基となった分類パラメータ、すなわち第1分類パラメータHRB1、HRB2を上書きするように、第2分類パラメータRB1、RB2がコードブック35に記憶される。したがって、コードブック35内には第1分類パラメータRB1、RB2のみが存在する。その後、特徴ベクトル分類手段40により、第2分類パラメータRB1、RB2を用いて2つの第2ベクトル領域BRが生成される(ステップST10)。
【0034】
この分割プロセス(ステップST5〜ステップST10)がカウンターSが設定回数になるまで(S=P)繰り返される(ステップST11)。したがって、コードブック35にはP+1個の第2分類パラメータRBが記憶される。言い換えれば、特徴ベクトル空間がP+1個の特徴ベクトル領域BRに分割されて、特徴量CQが特徴ベクトルCBという形で分類されたことになる。
【0035】
図3から図6は特徴ベクトル空間において領域分割される様子を示す図であり、図1から図3を参照して画像の特徴量分類方法の具体例について説明する。なお、図3から図6において、特徴量CQとして3つの特徴量CQ=(ijijij)が画像データPDから抽出されて、分割プロセス(ステップST5〜ステップST10)を4回(P=4)繰り返すことにより、特徴ベクトル空間を5つのベクトル領域BRに領域分割した場合について例示する。
【0036】
まず、抽出された3つの特徴量を用いて特徴ベクトルCB=(ijijij)が各画像データPD毎に生成される。次に、特徴ベクトルCBの重心(x、y、z)が算出されて、この重心が初期分類パラメータRBrefとしてコードブック35に記憶される。その後、初期分類パラメータRBrefに対する分散σ=(σ、σ、σ)が算出される。そして、算出された第1分類パラメータHRBに分散σが加減算されて、第1分類パラメータHRB1=(RB+σ)=(x+σ、y+σ、z+σ)、HRB2=(RB+σ)=(x−σ、y−σ、z−σ)が生成される。
【0037】
その後、各特徴ベクトルについて2つの第2分類パラメータHRB1、HRB2のうち、いずれの第1分類パラメータHRB1、HRB2との距離が近いかが特徴ベクトル分類手段40により判断される。これにより、図3(b)のように、特徴ベクトル空間が2つの第1ベクトル領域HBR1、HBR2に分割される。
【0038】
次に、第2分類パラメータ生成手段32において、2つの第1ベクトル領域HBR1、HBR2毎に重心が算出される。そして、算出された重心がそれぞれ第2分類パラメータRB1、RB2してコードブック35に記憶される。その後、第2分類パラメータRB1、RB2を用いて特徴ベクトル分類手段40により領域分割が行われる。すると、図3(c)に示すように、特徴ベクトル空間が2つの第2ベクトル領域BR1、BR2に分割される。
【0039】
次に、P=2回目の領域分割処理(ステップST5〜ステップST10)が行われる。まず、第2分類パラメータRB1、RB2に対する各特徴ベクトルの分散σBR1、σBR2が第2ベクトル領域BR1、BR2毎に算出される。すると、第2分類パラメータ生成手段32において、算出された分散σBR1、σBR2のうちいずれの分散σが大きいかが判断される。図3(c)においては特徴ベクトル領域BR1の分散σBR2の方が大きい。すると、第2分類パラメータ生成手段32において、第2ベクトル領域BR2が2つに分割するベクトル領域として設定される。
【0040】
そして、図4(a)のように、分散σBR2を用いて2つの第1分類パラメータHRB11=(RB2+σBR2)、HRB12=(RB2−σBR2)が算出される。その後、コードブック35内の第2分類パラメータRB2が算出された第1分類パラメータHRB1、HRB2に入れ替えられる。よって、コードブック35には、第1分類パラメータHRB1、HRB2と第2分類パラメータRB1が記憶された状態になっている。
【0041】
そして、特徴ベクトル分類手段40によりコードブック35を用いて領域分割が行われることにより、3つの第1ベクトル領域が生成される。そして、第2分類パラメータ生成手段32により、3つの特徴ベクトルについてそれぞれ重心が算出されて3つの第2分類パラメータRB11、RB12、RB13が生成された後、コードブック35に記憶される。さらに、特徴ベクトル分類手段40により、特徴ベクトル空間が図4(b)に示すような3つの第2ベクトル領域BR11、BR12、BR13に分割される。
【0042】
次に、S=3回目の分割プロセス(ステップST5〜ステップST10)が行われる。各第2ベクトル領域BR11、BR12、BR13毎に各特徴ベクトルCBの分散σBR11、σBR12、σBR13が算出されて、最も大きい分散σBR12が選択される。すると、図5(a)のように、第2分類パラメータ生成手段32において、第2ベクトル領域BR12が2つに分類するベクトル領域として設定される。
【0043】
そして、図5(a)に示すように、選択された分散σBR13を用いて2つの第1分類パラメータHRB21=(RB12+σBR12)、HRB22=(RB12−σBR12)が算出される。そして、算出された第1分類パラメータHRB21、HRB22がコードブック35に記憶される。すると、コードブック35に第1分類パラメータHRB21、HRB22および第2分類パラメータRB11、RB13が記憶された状態になる。その後、特徴ベクトル分類手段40により、コードブック35を用いて領域分割が行われて、特徴ベクトル空間が4つの第1ベクトル領域に分割される。
【0044】
さらに、各第1ベクトル領域毎に重心が算出されて、4つの第2分類パラメータRB11、RB13、RB21、RB22が生成された後、コードブック35に記憶される。そして、特徴ベクトル分類手段40により図5(b)に示すように、特徴ベクトル空間が4つの第2ベクトル領域BR21、BR22、BR23、BR24に分割される。
【0045】
同様に、S=P=4回目の分割プロセス(ステップST5〜ステップST10)が行われる。各特徴ベクトル領域BR21、BR22、BR23、BR24毎に特徴ベクトルの分散σBR21、σBR22、σBR23、σBR24が算出されて、最も大きい分散σBR21が選択される。すると、図6(a)のように、第2分類パラメータ生成手段32において、第2ベクトル領域BR21が2つに分割するベクトル領域として設定される。
【0046】
そして、選択された分散σBR21を用いて2つの第1分類パラメータHRB31=(RB11+σBR21)、HRB32=(RB11−σBR21)が算出される。算出された第1分類パラメータHRB31、HRB32がコードブック35に記憶されて、コードブック35には第1分類パラメータHRB31、HRB32および第2分類パラメータRB21、RB22、RB13が記憶された状態になる。
【0047】
そして、特徴ベクトル分類手段40により、コードブック35を用いて領域分割が行われて、特徴ベクトル空間が5つの第1ベクトル領域に分割される。さらに、各第1ベクトル領域毎に重心が算出されて、図6(b)に示すような第2分類パラメータRB13、RB21、RB22、RB31、RB32が生成された後、コードブック35に記憶される。そして、特徴ベクトル分類手段40により、コードブック35を用いて領域分割が行われて、特徴ベクトル空間が5つの第2ベクトル領域BR13、BR21、BR22、BR31、BR32に分割される。
【0048】
上記実施の形態によれば、分散σを用いて第1分類パラメータHRBを生成し、この第2コードブック352で仮に領域分割した後、各特徴ベクトル領域BR内の重心を算出して第2分類パラメータRBを生成することにより、効率的かつ正確な特徴量の分類を行うことができる。すなわち、重心からのみコードブック35を生成した場合、特徴ベクトルの分布が2極化していると(図4(c)の特徴ベクトル領域BR11参照)、重心はその2極化した分布の中間を示すことになり、いずれの分布からも距離の長い分類パラメータが生成されることになってしまう。
【0049】
一方、分散σのみを用いてコードブック35を生成した場合、特徴ベクトルCBの分布に合った第1分類パラメータを生成することができる。しかし、分散σを用いた領域分割は粗雑に分類されたものに過ぎないため画像の特徴量分類の精度が落ちてしまう。そこで、上述のように、分散σを用いた第1分類パラメータHRBを用いて粗く領域分割した後、重心からなる第2分類パラメータRBにより精密に領域分割を行うことにより、効率的かつ正確な特徴量CQの分類を行うことができる。このように、特徴量の分類を正確に行うことができれば、特徴量CQの分類に基づく画像データPDの領域分割も正確に行うことができるため、オブジェクト抽出の精度を高めることができる。
【0050】
なお、本発明の実施の形態は上記実施の形態に限定されない。たとえば図3から図6において第1分類パラメータ生成手段31は複数の特徴ベクトル領域のうち最も分散σの大きい特徴ベクトル領域について、第1分類パラメータHRBを生成するようにしているが、複数の特徴ベクトル領域すべてについて第1分類パラメータHRBを生成するようにしてもよい。この場合、第1分類パラメータHRBおよび第2分類パラメータRBはP個だけ生成されることになる。
【0051】
また、特徴量抽出手段10は、ユーザーにより画像データPDから抽出する特徴量CQを設定する場合について例示しているが、特徴量抽出手段10がたとえば「風景画像」や「医療用画像」といったカテゴリー情報と、抽出する特徴量CQの種類をリンクして記憶した画像情報データベースを有しており、ユーザーがカテゴリー情報を選択すると、画像データPDから抽出する特徴量CQを変えられるようにしてもよい。これにより、抽出する特徴量CQを画像の種類に合わせて変えることができるため、画像データPD内のオブジェクト領域の分割を容易にする特徴量CQの分類を行うことができる。
【0052】
具体的には、たとえば医療用画像等の直接X線が照射された領域と、被写体を介してX線が照射された領域とを有する画像データPDがあるとする。この画像データPDは、照射野絞りの外側は低濃度でテクスチャが少ない、照射野絞り内の直接X線部は高濃度でテクスチャが少ない、被写体部は中間濃度でテクスチャが多い、という特徴がある。そこで、各画像データPDから濃度情報とテクスチャ情報を特徴量として抽出する。
【0053】
すると、図1の画像の特徴量分類装置1により複数の特徴ベクトル領域が生成されて画像データPDに写像した場合、最も外側にあるベクトル領域BRであるか、ベクトル領域BR内の平均濃度が既定値以下か、ベクトル領域BR内の平均テクスチャ量が既定値以下かの少なくとも1つ以上の指標に基づき照射野外領域を判定することができる。この領域分割した結果に基づいて、X線画像の照射野絞りにより低濃度となった領域を高濃度化する画像処理を加えることにより、幻惑による診断能の低下を防止することが可能となる。
【0054】
あるいは、得られた特徴ベクトル領域の中から、画像の中心は被写体があり、画像の隅には直接X線部がある等のクラスタリング領域間の相対的な位置関係、特徴ベクトル領域内の平均濃度、特徴ベクトル領域内の平均テクスチャ量の少なくとも1つ以上の指標に基づいて、背景部(直接X線部)と被写体部とを判別し、被写体部と背景部(直接X線部)とにそれぞれ適切な画像処理パラメータを算出し領域毎に画像処理を施すようにしてもよい。これにより、被写体のダイナミックレンジと画像全体のダイナミックレンジを別々にコントロールすることができるため、最適なダイナミックレンジの画像を得ることができる。たとえば、画像データPDの全体に渡ってダイナミックレンジ圧縮すると、被写体のダイナミックレンジは適切となるが、被写体外(特に直接X線部)が低濃度になり締まりのない画像となる場合がある。一方、上述のように各ベクトル領域毎にダイナミックレンジの圧縮条件を変えることにより、画像データPDの全体の画質の向上を図ることができる。
【0055】
このように、画像データPDにおける領域分割をするのに適した特徴量を抽出して、特徴量の分類を行うことにより、画像データの領域分割を精度よく行うことができるような特徴量の分類を行うことができる。
【0056】
また、図1の画像の特徴量分類装置はハードウェア資源を用いて実現してもよいし、ソフトウェアとコンピュータの協働により実現するようにしてもよい。この画像の特徴量分類プログラムは、画像データから複数の特徴量を抽出する特徴量抽出手段と、抽出された前記複数の特徴量を用いて前記画像データ毎に特徴ベクトルを生成する特徴ベクトル生成手段と、生成された前記複数の特徴ベクトルを類似した該特徴ベクトル毎に分類するための分類パラメータを生成する分類パラメータ生成手段と、生成された前記分類パラメータを用いて前記複数の特徴ベクトルを複数のベクトル領域に分割する領域分割手段とを有するようにコンピュータを機能させる画像の特徴量分類プログラムにおいて、前記分類パラメータ生成手段が、前記ベクトル領域における前記特徴ベクトルの分布を示すパラメータを用いて第1分類パラメータを生成する第1分類パラメータ生成手段と、生成された前記第1分類パラメータを用いて前記領域分割手段により分割された前記ベクトル領域の代表点をそれぞれ算出して第2分類パラメータを生成する第2分類パラメータ生成手段とを有するものとしてコンピュータを機能させることを特徴とする画像の特徴量分類プログラム、ということができる。
【0057】
ところで、特徴ベクトル空間において領域分割(クラス分類)が行われた結果を利用して、その特徴ベクトル領域を画像空間に写像した後、画像データをオブジェクト領域ORを抽出する。このとき、特徴ベクトル空間において分類されたベクトル領域BRに従って領域分割を行うと、特徴ベクトル空間では10個のベクトル領域からなっていても、実空間領域ではたとえば100個以上の多数の領域になる。これは、同じベクトル領域BR内の画像データPDであっても実空間上では異なる領域に存在することがあるためである。具体的には、特徴ベクトルCBの分類結果に基づいて画像データPDの領域分割を行った場合、図7(a)に示すように、複数のクラスタリング領域DPが形成される。
【0058】
したがって、ベクトル領域BRに基づいて領域分割されたクラスタリング領域DPを統合することにより、図7(b)に示すようにオブジェクト領域ORを抽出する必要がある。しかし、領域統合の精度が低いと画像内でオブジェクト毎に正しく分類できないという問題がある。そこで、以下に示すように、正しい領域統合を行うことができるオブジェクト抽出装置100が提供される。
【0059】
具体的には、図8はオブジェクト抽出装置の一例を示すブロック図であり、図8を参照してオブジェクト抽出装置100について説明する。図8のオブジェクト抽出装置100は、上述した画像データPDから抽出した複数の特徴量CQを類似した特徴量CQ毎に分類する画像の特徴量分類装置1と、画像の特徴量分類装置1による特徴量CQの分類結果に基づいて画像データPDを分類して複数のクラスタリング領域DPを生成する領域分割手段101と、生成されたクラスタリング領域DPを統合してオブジェクト領域ORを抽出するオブジェクト抽出手段110とを有する。
【0060】
ここで、領域分割手段101はクラスタリング領域DPを生成する際、各クラスタリング領域DPにラベルを付するようになっている(ラベリング処理)。さらに、領域分割手段101は、図9(a)に示すように、ラベルとともにクラスタリング領域DPの始点座標(sx、sy)、領域の幅wx、領域の高さwy(素9(b)参照)を各クラスタリング領域DPをデータベース111に記憶させるようになっている。
【0061】
なお、特徴ベクトル空間のベクトル領域BRを画像フレームPF上に写像すると、領域クラスタ(画素のかたまり)となっていない孤立画素が存在することがある。そこで、領域分割手段101が、画像フレームPFの空間的にまたは特徴量的に最も近接したベクトル領域(クラスタ)BRに属するように平滑化処理を行うようにしてもよい。これにより、領域分割した際の孤立画素をノイズとして除去することができる。
【0062】
オブジェクト抽出手段110は、複数のクラスタリング領域DPの中から最も画素数の小さい最小クラスタリング領域DPminを選択する最小領域選択手段112と、抽出された最小クラスタリング領域DPminと統合する隣接クラスタリング領域DPaを決定する統合判断手段113と、決定された隣接クラスタリング領域DPaと最小クラスタリング領域DPminを統合する領域統合手段114とを備える。
【0063】
ここで、統合判断手段113は、最小クラスタリング領域DPminが微小画素しきい値以下の場合、最小クラスタリング領域DPminと隣接している隣接クラスタリング領域DPaのうち、画素数が最も多い隣接クラスタリング領域DPaを最小クラスタリング領域DPminと統合するクラスタリング領域と判断する。
【0064】
一方、統合判断手段113は、最小クラスタリング領域DPminが小画素しきい値以下の場合、隣接クラスタリング領域DPaのうち最も特徴が近い隣接クラスタリング領域DPaを最小クラスタリング領域DPminと統合するクラスタリング領域と判断するものである。
【0065】
なお、上述した微小画素しきい値はたとえば画像データPDの全画素数の1/100画素数に設定されており、小画素しきい値はたとえば画像データPDの全画素数の1/10画素数に設定されている。
【0066】
また、統合判断手段113が特徴の近い隣接クラスタリング領域DPaを選択する場合、たとえば最小クラスタリング領域DPminと、隣接クラスタリング領域DPaとの特徴ベクトル空間における距離を参照して、最も距離が短い隣接クラスタリング領域DPaを選択するようになっている。
【0067】
あるいは、最小クラスタリング領域DPminと隣接クラスタリング領域DPaと特徴量CQの変化量(たとえばYCCが特徴量CQであれば、Yのエッジ信号、Crのエッジ信号およびCbのエッジ信号の平均値等)が少ない隣接クラスタリング領域DPaが選択されるようにしてもよい。
【0068】
また、複数のクラスタリング領域DPが統合された後のクラスタリング領域DPが隣接クラスタリング領域DPaである場合、統合後の隣接クラスタリング領域DPaから算出される特徴量CQの平均値等が使用される。
【0069】
次に、図10を参照して領域統合方法について説明する。まず、図1から図7に示すように、画像データPDの特徴量CQを用いて特徴ベクトル空間でのベクトル領域BRの分割が行われる(ステップST21)。その後、分割されたベクトル領域BRに従い、画像データPDについて領域分割が領域分割手段101により行われる。すると、画像データPDが複数のクラスタリング領域DPに分割される(ステップST22)。このとき、各クラスタリング領域DPは、それぞれラベリングされた状態でデータベース111に記憶されている。
【0070】
なお、特徴ベクトル空間の分類結果を画像データPD上に写像すると、領域クラスタ(画素のかたまり)となっていない孤立画素が存在することがある。このとき、領域分割手段90は、孤立画素をノイズとして除去するため、画像データPDの空間的に、および/または特徴量的に最も近接したクラスタに属するように平滑化処理を行う機能を有していてもよい。
【0071】
その後、複数のクラスタリング領域DPの中から最も画素数が最も少ない最小クラスタリング領域DPminが最小領域選択手段112により抽出される(ステップST23)。また、抽出された最小クラスタリング領域DPminに隣接する隣接クラスタリング領域DPaが統合判断手段113により選択される(ステップST24)。
【0072】
そして、統合判断手段113において、最小クラスタリング領域DPの画素数が微小画素しきい値以下であるかが判断される(ステップST25)。最小クラスタリング領域DPminが微小画素しきい値以下にある場合、最小クラスタリング領域DPminと隣接クラスタリング領域DPaとの境界画素数が各隣接クラスタリング領域DPa毎に計測される。そして、最小クラスタリング領域DPminは境界画素数の最も多い隣接クラスタリング領域DPaと統合する(ステップST26)。
【0073】
具体的には図11(a)においてクラスタリング領域Aが微小画素しきい値以下の最小クラスタリング領域DPminであるとする。クラスタリング領域Aは、クラスタリング領域C、Dと隣接しているため、クラスタリング領域C、Dが隣接クラスタリング領域DPaとなる。最小クラスタリング領域Aとクラスタリング領域C、Dとが接している隣接画素数がそれぞれ計測される。すると、図11(a)においては隣接クラスタリング領域Dとの境界画素数の方が隣接クラスタリング領域Cとの境界画素数よりも多い。このためクラスタリング領域Aは図11(b)のようにクラスタリング領域Dと統合する。
【0074】
このように、最小クラスタリング領域DPminが微小クラスタリング領域である場合、最も隣接画素数の多い隣接クラスタリング領域DPaと結合させると、最適なオブジェクト領域ORの生成を行うことができる。
【0075】
一方、最小クラスタリング領域DPminの画素数が小画素しきい値以下の場合(ステップST27)、隣接クラスタリング領域DPaとの特徴ベクトル空間での距離が算出される。そして、最小クラスタリング領域DPminは距離が最短となる隣接クラスタリング領域DPaと統合する(ステップ28)。
【0076】
具体的には、図11(b)に示すように、クラスタリング領域Bが小画素しきい値以下の最小クラスタリング領域DPminであるとする。すると、クラスタリング領域Bの隣接クラスタリング領域DPaはクラスタリング領域C、Dである。そして、テクスチャ情報を距離を計測する特徴量とした場合、どちらのクラスタリング領域C、Dのテクスチャがクラスタリング領域Bのテクスチャに近いかが判断される。すると、図11(c)のように、クラスタリング領域Bはクラスタリング領域Cと統合される。
【0077】
このように、最小クラスタリング領域DPminが小クラスタリング領域である場合、最も特徴の似ている隣接クラスタリング領域DPaと統合することにより、最適なオブジェクト領域の生成を行うことができる。
【0078】
また、上述した統合プロセス(ステップST23〜ステップST28)が小クラスタリング領域がなくなるまで、すなわち最小クラスタリング領域DPminが小画素数しきい値より大きくなるまで繰り返される。すると、図7(a)に示す複数のクラスタリング領域DPが統合されて、図7(b)に示すようにオブジェクト領域OR(少なくとも小画素しきい値以上のマクロ領域)が生成されていく。
【図面の簡単な説明】
【図1】本発明の画像の特徴量分類装置の好ましい実施の形態を示すブロック図
【図2】本発明の画像の特徴量分類方法の好ましい実施の形態を示すフローチャート図
【図3】本発明の画像の特徴量分類方法における特徴ベクトル空間を示す図
【図4】本発明の画像の特徴量分類方法における特徴ベクトル空間を示す図
【図5】本発明の画像の特徴量分類方法における特徴ベクトル空間を示す図
【図6】本発明の画像の特徴量分類方法における特徴ベクトル空間を示す図
【図7】画像の特徴量分類装置を用いて分割されたベクトル領域を用いてクラスタリング領域を生成した様子を示す図
【図8】画像の特徴量分類装置を用いたオブジェクト抽出装置の一例を示すブロック図
【図9】図8のオブジェクト抽出装置においてデータベースに記憶されるクラスタリング領域の情報の一例を示す図
【図10】オブジェクト抽出方法の一例を示すブローチャート図
【図11】オブジェクト抽出方法における領域統合の様子を示す図
【符号の説明】
1   画像の特徴量分類装置
10  特徴量抽出手段
20  特徴ベクトル生成手段
30  分類パラメータ生成手段
31  第1分類パラメータ生成手段
32  第2分類パラメータ生成手段
35  コードブック
40  特徴ベクトル分類手段
BR  ベクトル領域
CB  特徴ベクトル
CQ  特徴量
HRB 分類パラメータ
DP  クラスタリング領域
PD  画像データ
HRB 第1分類パラメータ
RB  第2分類パラメータ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image feature quantity classification method and apparatus for classifying feature quantities extracted from image data for each similar feature quantity, and more specifically, for example, extracting object region information from image data such as a photographic image or a medical image. The present invention relates to an image feature amount classification method and apparatus for classifying feature amounts extracted from image data in order to divide image data into regions using feature amounts.
[0002]
[Prior art]
An image captured by a digital camera or the like includes, for example, a person, the sea, the sky, a building, and other backgrounds. If image data such as the person and background is extracted from the image as one object, different image processing can be performed for each object, and the meaning of each object can be determined and presented to the user. it can. For this purpose, it is necessary to divide the object area for each object included in the image.
[0003]
In the case of automatically extracting an object region from image data, it has been proposed to classify feature amounts and then divide image information using this classification result to automatically divide objects. That is, image data constituting one object has similar feature quantities such as color information, texture information, and wavelet coefficients. If this property is used, the image data can be divided into object areas.
[0004]
When classifying feature quantities, a vector quantization technique used in image compression or the like is used. Vector quantization is a region dividing method in a feature vector space with feature quantities as axes, and is an effective means for classifying pixel vectors having similar feature quantities. Specifically, a plurality of feature amounts for each pixel of the image are extracted, and a plurality of feature vectors having each feature amount as an element are generated. Thereafter, the plurality of feature vectors are classified into similar feature vectors (clustering). Based on the clustered result, the image data is classified and divided into a plurality of clustering regions.
[0005]
Here, each feature vector is classified into classification parameters having the closest distance among the plurality of classification parameters, whereby each feature vector is classified for each classification parameter. Therefore, when the plurality of feature vectors described above are classified, a plurality of classification parameters (representative vectors) that are the basis of classification are required.
[0006]
[Problems to be solved by the invention]
By the way, the distribution of the feature amount of the image greatly fluctuates due to the difference in the subject of the image. For example, when a person is reflected on the coast with the sea and sky as a background, and when a person is reflected on a small hill with the street as a background, the image has features such as color, brightness, and texture. Is different. For this reason, the distribution of the feature amount in the feature vector space differs for each image.
[0007]
On the other hand, in vector quantization used in image compression, an average classification parameter is created using various images as learning data to reduce information redundancy, and vector quantization is performed using the classification parameter. Therefore, when the vector quantization used in image compression is used as it is for the vector quantization for classifying the feature amount, there is a problem that the accuracy of the feature amount classification is low.
[0008]
In other words, the classification parameter used in image compression or the like is an average classification parameter using various images as learning data, and therefore the optimum classification parameter is not necessarily used for each image. For this reason, there is a problem in that the accuracy in dividing the region for each pixel based on the feature amount classification is lowered, and when the image data region is divided on the basis of the feature amount classification, the region cannot be correctly divided.
[0009]
SUMMARY OF THE INVENTION An object of the present invention is to provide an image feature quantity classification method and apparatus capable of accurately classifying feature quantities of image data for each image.
[0010]
[Means for Solving the Problems]
The image feature quantity classification method of the present invention includes a step of extracting a plurality of feature quantities from a plurality of image data, a step of generating a feature vector for each of the image data using the extracted feature quantities, Generating a classification parameter for classifying the plurality of generated feature vectors for each similar feature vector, and classifying the plurality of feature vectors for each similar feature vector using the generated classification parameter An image feature quantity classification method comprising: generating a plurality of vector regions, wherein a first classification parameter is generated using a parameter indicating a distribution of the feature vectors in the vector region; Dividing the feature vector into a plurality of first vector regions using a first classification parameter; Calculating a representative point for each of the first vector regions and generating a second classification parameter; and dividing the plurality of feature vectors into a plurality of second vector regions using the generated second classification parameter It is characterized by having.
[0011]
Here, the “vector region generation” is performed by classifying the feature vector for each classification parameter by determining which classification parameter is most similar among the plurality of classification parameters.
[0012]
Also, the step of generating the first classification parameter, the step of dividing into the first vector region using the first classification parameter, the step of generating the second classification parameter, and dividing into the second vector region using the second classification parameter The classification process having steps may be performed only once or may be performed repeatedly a plurality of times.
[0013]
An image feature amount classification apparatus according to the present invention includes a feature amount extraction unit that extracts a plurality of feature amounts from image data, and a feature vector that generates a feature vector for each image data using the extracted feature amounts. Generating means, classification parameter generating means for generating classification parameters for classifying the generated feature vectors for each similar feature vector, and the plurality of feature vectors using the generated classification parameters. A feature quantity classification device for an image having a feature vector classification unit that generates a plurality of vector regions classified for each similar feature vector, wherein the classification parameter generation unit includes a parameter indicating a distribution of the feature vector in the vector region A first classification parameter generating means for generating a first classification parameter using the first class parameter, and the generated first class parameter And having a second classification parameter generating means for generating a second classification parameters calculated respectively representative points of the first vector regions divided by the feature vector classifying means using a kind parameters.
[0014]
Here, the “first classification parameter generation means” may generate the first classification parameter for all of the plurality of vector regions, or the vector having the largest parameter indicating the distribution of the feature vector among the plurality of vector regions. The first classification parameter may be generated only for the region.
[0015]
Further, the “first classification parameter generation unit” may generate the first classification parameter by using it as a parameter indicating the distribution of the vector region, and for example, the variance of the feature vector can be used. Furthermore, the “second classification parameter generating unit” may generate the second classification parameter using the calculated representative point, and for example, the center of gravity of the vector region can be used.
[0016]
【The invention's effect】
According to the image feature quantity classification method and apparatus of the present invention, the first classification parameter is generated using the parameter indicating the distribution of the feature vector, is divided into the first vector region using the first classification parameter, The second classification parameter is generated using the representative points of the vector area, and is divided into the second vector area using the second classification parameter, thereby dividing the first vector area in accordance with the feature amount distribution for each image. As a result, it is possible to generate an optimum classification parameter suitable for the feature quantity distribution of the image for each image, so that the feature quantity can be classified with high accuracy.
[0017]
Further, not only the division of the first vector area by the first classification parameter, but also the generation of the representative point of the first vector area as the second classification parameter, not only the generation of the rough classification parameter by the variance, but also after that By generating accurate classification parameters, it is possible to classify feature quantities with high accuracy.
[0018]
It should be noted that the step of generating the first classification parameter, the step of dividing into the first vector region using the first classification parameter, the step of generating the second codebook, and dividing into the second vector region using the second classification parameter By repeating the division process including steps a plurality of times, the number of classification parameters can be increased with high accuracy, so that the feature quantities can be classified more precisely.
[0019]
In addition, the second classification parameter can be efficiently generated by generating the first classification parameter of the vector area having the largest parameter indicating the distribution of the feature vector among the plurality of vector areas.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a preferred embodiment of an image feature quantity classification apparatus according to the present invention. The image feature quantity classification apparatus will be described with reference to FIG. The image feature quantity classification device 1 classifies the feature quantity CQ of the image data PD for each feature vector CB in order to divide the clustering area of the image data PD for each object, and the like. Means 10, feature vector generation means 20, classification parameter generation means 30, feature vector classification means 40, and the like.
[0021]
The feature quantity extraction unit 10 has a function of extracting the feature quantity CQ from the image data PD and outputting it to the feature vector generation unit 20. The image data PD is M × N pixel data x constituting one image. ij (I, j: 0 ≦ i ≦ N, 0 ≦ j ≦ M), and each pixel data includes various image information such as color information and luminance information. The feature amount extraction unit 10 has a function of extracting a set feature amount CQ from the image information of the image data PD. For example, the feature quantity extraction unit 10 uses the n feature quantities CQ = (color information such as RGB, YCC, Lab, and the like, texture information such as wavelet coefficients, DCT coefficients, etc. as the feature quantity CQ from the image data PD. 0 x ij , 1 x ij , 2 x ij , 3 x ij ... n-1 x ij , n x ij ) To extract. Note that the number and type of feature amounts CQ extracted by the feature amount extraction means 10 can be set by the user.
[0022]
The feature vector generation unit 20 has a function of generating a feature vector CB for each image data PD using the plurality of feature amounts CQ extracted by the feature amount extraction unit 10. Then, the feature vector generation means 20 stores the generated feature vector CB in the vector database 25. For example, when the feature quantity extraction unit 10 extracts n feature quantities CQ from each image data PD, the feature vector generation unit 20 uses the feature vector CB = ( 0 x ij , 1 x ij , 2 x ij , 3 x ij ... n-1 x ij , n x ij ). That is, the feature vector generation means 20 maps from the image space to the feature vector space.
[0023]
The classification parameter generation means 30 has a function of generating a classification parameter for classifying a plurality of feature vectors CB in the vector database 25 for each similar feature vector CB. The classification parameter generation unit 30 stores the generated classification parameters in the code book 35.
[0024]
The feature vector classification means 40 has a function of dividing a plurality of feature vectors CB into a plurality of vector regions BR (clusters) using the classification parameters of the code book 35 (clustering). Specifically, the feature vector classification unit 40 determines which classification parameter is most similar to each feature vector CB among the plurality of classification parameters. As a result, the feature vector classifying unit 40 classifies the plurality of feature vectors CB for each classification parameter, and generates a vector region BR including a plurality of similar feature vectors CB. The most similar classification parameter is selected, for example, by selecting a classification parameter RB that is closest to the feature vector CB (such as Euclidean distance and Mahalanobis distance).
[0025]
For example, when there are L classification parameters RB, the feature vector classification means 40 divides the feature vector space into L vector regions BR. Then, the feature vector classification unit 40 associates the feature vector CB with the classification parameter to which the feature vector CB belongs and stores it in the vector database 25. Therefore, each feature vector in the vector database 25 is stored for each feature vector region BR.
[0026]
Here, the classification parameter generation unit 30 includes a first classification parameter generation unit 31 that generates the first classification parameter HRB and a second classification parameter generation unit 32 that generates the second classification parameter RB. The first classification parameter generation unit 31 generates a first classification parameter HRB using a parameter indicating the distribution of the feature vector CB in each feature vector region BR. Specifically, the first classification parameter generating unit 31 uses the variance σ = (() of the feature vector CB as a parameter indicating the distribution of the feature vector CB. 0 σ ij , 1 σ ij , 2 σ ij , 3 σ ij ... n-1 σ ij , n σ ij ) Is generated. And the 1st classification parameter production | generation means 31 produces | generates the 1st classification parameter HRB using dispersion | distribution (sigma). Then, the first classification parameter generation means 31 stores the generated first classification parameter HRB in the code book 35.
[0027]
On the other hand, the second classification parameter generation unit 32 calculates the representative points of the vector regions BR divided by the feature vector classification unit 40 using the generated first classification parameter HRB, and generates the second classification parameter RB. . Here, the representative point is the center of gravity (average value) of each feature vector CB in the Euclidean metric space, and the second classification parameter RB = ( 0 RB ij , 1 RB ij , 2 RB ij , 3 RB ij ... n-1 RB ij , n RB ij ). When there are K feature vectors in the vector area, each component of the average value is n RB ij = Σ n X ij It is generated by calculating / K. Then, the second classification parameter generation unit 32 sets the generated representative point as the second classification parameter RB. The generated second classification parameter RB is used as a classification parameter for classifying the final feature quantity CQ.
[0028]
The second classification parameter generation unit 32 calculates the center of gravity (average value) at the Euclidean distance as a representative point, but it is difficult to calculate the center of gravity in a general metric space that does not use the Euclidean distance. A representative point other than the center of gravity may be calculated.
[0029]
The control unit 50 has a function of controlling operations of the classification parameter generation unit 30 and the feature vector classification unit 40. Specifically, the first classification parameter generation means 31, the second classification parameter generation means 32, and the feature vector classification means 40 are controlled so as to realize the feature quantity classification method as described below.
[0030]
FIG. 2 is a flowchart showing a preferred embodiment of the image feature quantity classification method of the present invention. The image feature quantity classification method will be described with reference to FIG. First, the feature quantity CQ of the image data PD is extracted by the feature quantity extraction means 10 (step ST1). A feature vector CB is generated by the feature vector generation means 20 using the extracted feature quantity CQ and stored in the vector database 25 (step ST2). Then, the center of the feature vector region BR composed of all the feature vectors CB is calculated by the second classification parameter generation means 32 (step ST3). Thereafter, the calculated center of gravity is stored in the code book 35 as an initial classification parameter RBref (step ST4).
[0031]
Next, the first classification parameter generation means 31 calculates the variance σ of the initial vector region BRref composed of all the feature vectors CB (step ST5). Then, two first classification parameters HRB1 = (RB + σ) and HRB2 = (RB−σ) obtained by adding / subtracting the variance σ to the calculated initial classification parameter RBref are generated and stored in the code book 35 (step ST6). Note that the first classification parameter generation means 31 adds the variance σ multiplied by an appropriate weight α to generate the first classification parameters HRB1 = (RBref + ασ), HRB2 = (RBref−ασ). Good.
[0032]
At this time, the first classification parameters HRB1 and RGB2 are stored in the code book 35 so as to overwrite the classification parameter that is the basis for generating the first classification parameters HRB1 and HRB2, that is, the initial classification parameter RBref. Accordingly, only the first classification parameters HRB1 and RGB2 exist in the code book 35. Thereafter, the feature vector region BR is divided into two first vector regions using the two first classification parameters HRB1 and HRB2 (step ST7).
[0033]
Further, the center of gravity of each divided first vector region HBR is calculated (step ST8), and the second classification parameters RB1 and RB2 are generated and stored in the codebook 35 (step ST9). At this time, the second classification parameters RB1 and RB2 are stored in the code book 35 so as to overwrite the classification parameters that are the basis for generating the second classification parameters RB1 and RB2, that is, the first classification parameters HRB1 and HRB2. Accordingly, only the first classification parameters RB1 and RB2 exist in the code book 35. Thereafter, the feature vector classifying unit 40 generates two second vector regions BR using the second classification parameters RB1 and RB2 (step ST10).
[0034]
This division process (step ST5 to step ST10) is repeated until the counter S reaches the set number of times (S = P) (step ST11). Therefore, P + 1 second classification parameters RB are stored in the code book 35. In other words, the feature vector space is divided into P + 1 feature vector regions BR, and the feature quantity CQ is classified in the form of the feature vector CB.
[0035]
FIGS. 3 to 6 are diagrams illustrating how regions are divided in the feature vector space. A specific example of the image feature amount classification method will be described with reference to FIGS. 1 to 3. In FIGS. 3 to 6, three feature amounts CQ = ( 0 x ij , 1 x ij , 2 x ij ) Is extracted from the image data PD and the feature vector space is divided into five vector regions BR by repeating the division process (step ST5 to step ST10) four times (P = 4).
[0036]
First, using the extracted three feature quantities, a feature vector CB = ( 0 x ij , 1 x ij , 2 x ij ) Is generated for each image data PD. Next, the center of gravity (x 0 , Y 0 , Z 0 ) Is calculated, and this center of gravity is stored in the code book 35 as the initial classification parameter RBref. Thereafter, the variance σ = (σ for the initial classification parameter RBref x , Σ y , Σ z ) Is calculated. Then, the variance σ is added to or subtracted from the calculated first classification parameter HRB, so that the first classification parameter HRB1 = (RB + σ) = (x 0 + Σ x , Y 0 + Σ y , Z 0 + Σ z ), HRB2 = (RB + σ) = (x 0 −σ x , Y 0 −σ y , Z 0 −σ z ) Is generated.
[0037]
Thereafter, the feature vector classifying unit 40 determines which of the two second classification parameters HRB1 and HRB2 for each feature vector is closest to the first classification parameter HRB1 and HRB2. Thus, as shown in FIG. 3B, the feature vector space is divided into two first vector regions HBR1 and HBR2.
[0038]
Next, the second classification parameter generation means 32 calculates the center of gravity for each of the two first vector regions HBR1 and HBR2. The calculated centroids are stored in the code book 35 as second classification parameters RB1 and RB2, respectively. Thereafter, the region is divided by the feature vector classification means 40 using the second classification parameters RB1 and RB2. Then, as shown in FIG. 3C, the feature vector space is divided into two second vector regions BR1 and BR2.
[0039]
Next, P = 2 second region division processing (step ST5 to step ST10) is performed. First, the variance σ of each feature vector with respect to the second classification parameters RB1, RB2 BR1 , Σ BR2 Is calculated for each of the second vector regions BR1 and BR2. Then, in the second classification parameter generation means 32, the calculated variance σ BR1 , Σ BR2 It is determined which variance σ is larger. In FIG. 3C, the variance σ of the feature vector region BR1 BR2 Is bigger. Then, in the second classification parameter generation means 32, the second vector region BR2 is set as a vector region divided into two.
[0040]
Then, as shown in FIG. BR2 The two first classification parameters HRB11 = (RB2 + σ BR2 ), HRB12 = (RB2-σ BR2 ) Is calculated. Thereafter, the second classification parameter RB2 in the code book 35 is replaced with the calculated first classification parameters HRB1 and HRB2. Therefore, the code book 35 is in a state where the first classification parameters HRB1 and HRB2 and the second classification parameter RB1 are stored.
[0041]
Then, the feature vector classification means 40 performs region division using the code book 35, thereby generating three first vector regions. Then, the second classification parameter generation unit 32 calculates the centroid for each of the three feature vectors to generate the three second classification parameters RB11, RB12, and RB13, and then stores them in the codebook 35. Further, the feature vector classification means 40 divides the feature vector space into three second vector regions BR11, BR12, BR13 as shown in FIG.
[0042]
Next, S = third division process (step ST5 to step ST10) is performed. Variance σ of each feature vector CB for each second vector region BR11, BR12, BR13 BR11 , Σ BR12 , Σ BR13 Is calculated and the largest variance σ BR12 Is selected. Then, as shown in FIG. 5A, in the second classification parameter generation means 32, the second vector area BR12 is set as a vector area to be classified into two.
[0043]
Then, as shown in FIG. 5 (a), the selected variance σ BR13 The two first classification parameters HRB21 = (RB12 + σ BR12 ), HRB22 = (RB12−σ BR12 ) Is calculated. Then, the calculated first classification parameters HRB21 and HRB22 are stored in the code book 35. Then, the first classification parameters HRB21 and HRB22 and the second classification parameters RB11 and RB13 are stored in the code book 35. Thereafter, the feature vector classifying unit 40 divides the region using the code book 35, and divides the feature vector space into four first vector regions.
[0044]
Further, the center of gravity is calculated for each first vector region, and four second classification parameters RB11, RB13, RB21, and RB22 are generated and stored in the codebook 35. Then, as shown in FIG. 5B, the feature vector classifying unit 40 divides the feature vector space into four second vector regions BR21, BR22, BR23, and BR24.
[0045]
Similarly, S = P = the fourth division process (step ST5 to step ST10) is performed. Variance σ of feature vectors for each feature vector region BR21, BR22, BR23, BR24 BR21 , Σ BR22 , Σ BR23 , Σ BR24 Is calculated and the largest variance σ BR21 Is selected. Then, as shown in FIG. 6A, in the second classification parameter generation means 32, the second vector region BR21 is set as a vector region divided into two.
[0046]
And the selected variance σ BR21 The two first classification parameters HRB31 = (RB11 + σ BR21 ), HRB32 = (RB11−σ BR21 ) Is calculated. The calculated first classification parameters HRB31 and HRB32 are stored in the codebook 35, and the first classification parameters HRB31 and HRB32 and the second classification parameters RB21, RB22 and RB13 are stored in the codebook 35.
[0047]
Then, the feature vector classifying unit 40 divides the region using the code book 35, and divides the feature vector space into five first vector regions. Further, the center of gravity is calculated for each first vector region, and second classification parameters RB13, RB21, RB22, RB31, and RB32 as shown in FIG. 6B are generated and stored in the codebook 35. . Then, the feature vector classifying unit 40 divides the region using the code book 35, and divides the feature vector space into five second vector regions BR13, BR21, BR22, BR31, BR32.
[0048]
According to the above-described embodiment, the first classification parameter HRB is generated using the variance σ, and after the region is temporarily divided by the second codebook 352, the center of gravity in each feature vector region BR is calculated to calculate the second classification. By generating the parameter RB, the feature quantity can be classified efficiently and accurately. That is, when the code book 35 is generated only from the center of gravity, if the distribution of the feature vector is bipolar (see the feature vector region BR11 in FIG. 4C), the center of gravity indicates the middle of the bipolarized distribution. In other words, a long-distance classification parameter is generated from any distribution.
[0049]
On the other hand, when the code book 35 is generated using only the variance σ, the first classification parameter matching the distribution of the feature vector CB can be generated. However, since the region division using the variance σ is only coarsely classified, the accuracy of image feature amount classification is degraded. Therefore, as described above, after the region is roughly divided using the first classification parameter HRB using the variance σ, the region is precisely divided using the second classification parameter RB including the center of gravity, so that an efficient and accurate feature can be obtained. The quantity CQ can be classified. As described above, if the feature quantity can be classified accurately, the area of the image data PD can be accurately divided based on the classification of the feature quantity CQ, so that the accuracy of object extraction can be improved.
[0050]
The embodiment of the present invention is not limited to the above embodiment. For example, in FIG. 3 to FIG. 6, the first classification parameter generation means 31 generates the first classification parameter HRB for the feature vector region having the largest variance σ among the plurality of feature vector regions. The first classification parameter HRB may be generated for all regions. In this case, the first classification parameter HRB and the second classification parameter RB are P 2 Only one will be generated.
[0051]
Further, the feature amount extraction unit 10 is exemplified for the case where the user sets the feature amount CQ to be extracted from the image data PD. However, the feature amount extraction unit 10 has categories such as “landscape image” and “medical image”. It has an image information database in which information and the type of feature quantity CQ to be extracted are linked and stored, and when the user selects category information, the feature quantity CQ extracted from the image data PD may be changed. . As a result, the feature quantity CQ to be extracted can be changed according to the type of the image, so that the feature quantity CQ that facilitates the division of the object area in the image data PD can be classified.
[0052]
Specifically, for example, it is assumed that there is image data PD having a region irradiated with direct X-rays such as a medical image and a region irradiated with X-rays through a subject. This image data PD is characterized in that the outside of the irradiation field stop has a low density and little texture, the direct X-ray part in the irradiation field stop has a high density and little texture, and the subject part has an intermediate density and a lot of texture. . Therefore, density information and texture information are extracted as feature amounts from each image data PD.
[0053]
Then, when a plurality of feature vector regions are generated by the image feature amount classification apparatus 1 of FIG. 1 and mapped to the image data PD, it is the outermost vector region BR or the average density in the vector region BR is predetermined. The irradiation field region can be determined based on at least one index that is equal to or less than the value or whether the average texture amount in the vector region BR is equal to or less than the predetermined value. Based on the result of this region division, it is possible to prevent deterioration in diagnostic ability due to illusion by adding image processing for increasing the density of the area that has become low density due to the irradiation field stop of the X-ray image.
[0054]
Or, from the obtained feature vector area, the relative position relationship between the clustering areas such as the subject at the center of the image and the X-ray part directly at the corner of the image, the average density in the feature vector area The background portion (direct X-ray portion) and the subject portion are discriminated based on at least one index of the average texture amount in the feature vector region, and the subject portion and the background portion (direct X-ray portion) are respectively determined. Appropriate image processing parameters may be calculated and image processing may be performed for each region. As a result, the dynamic range of the subject and the dynamic range of the entire image can be controlled separately, so that an image with an optimal dynamic range can be obtained. For example, when dynamic range compression is performed over the entire image data PD, the dynamic range of the subject is appropriate, but the outside of the subject (particularly the direct X-ray part) may be low in density and may have an image that is not tightened. On the other hand, the overall image quality of the image data PD can be improved by changing the compression condition of the dynamic range for each vector area as described above.
[0055]
In this way, the feature amount classification that enables the region division of the image data to be accurately performed by extracting the feature amount suitable for the region division in the image data PD and classifying the feature amount. It can be performed.
[0056]
1 may be realized using hardware resources, or may be realized by cooperation of software and a computer. The image feature quantity classification program includes feature quantity extraction means for extracting a plurality of feature quantities from image data, and feature vector generation means for generating a feature vector for each of the image data using the extracted feature quantities. Classification parameter generation means for generating a classification parameter for classifying the generated plurality of feature vectors for each similar feature vector, and a plurality of the feature vectors using the generated classification parameter In the image feature quantity classification program for causing a computer to function so as to have an area dividing means for dividing into vector areas, the classification parameter generating means uses the parameter indicating the distribution of the feature vectors in the vector area to perform a first classification. First classification parameter generation means for generating parameters, and the generated first classification A computer is caused to function as having a second classification parameter generating unit that calculates a representative point of the vector region divided by the region dividing unit using a parameter and generates a second classification parameter. It can be said that it is an image feature amount classification program.
[0057]
By using the result of region division (class classification) in the feature vector space, the feature vector region is mapped to the image space, and then the object region OR is extracted from the image data. At this time, if region division is performed according to the vector region BR classified in the feature vector space, even if the feature vector space includes 10 vector regions, the real space region includes, for example, a large number of regions of 100 or more. This is because even image data PD in the same vector area BR may exist in different areas in the real space. Specifically, when the region division of the image data PD is performed based on the classification result of the feature vector CB, a plurality of clustering regions DP are formed as shown in FIG.
[0058]
Therefore, it is necessary to extract the object region OR as shown in FIG. 7B by integrating the clustering regions DP divided into regions based on the vector region BR. However, if the accuracy of region integration is low, there is a problem that it cannot be correctly classified for each object in the image. Therefore, as will be described below, an object extraction apparatus 100 capable of performing correct area integration is provided.
[0059]
Specifically, FIG. 8 is a block diagram illustrating an example of an object extraction apparatus, and the object extraction apparatus 100 will be described with reference to FIG. The object extraction device 100 in FIG. 8 includes an image feature amount classification device 1 that classifies a plurality of feature amounts CQ extracted from the image data PD described above for each similar feature amount CQ, and features by the image feature amount classification device 1. A region dividing unit 101 that classifies the image data PD based on the classification result of the quantity CQ to generate a plurality of clustering regions DP, and an object extraction unit 110 that extracts the object region OR by integrating the generated clustering regions DP. Have
[0060]
Here, when the region dividing unit 101 generates a clustering region DP, a label is attached to each clustering region DP (labeling process). Further, as shown in FIG. 9A, the region dividing unit 101, together with the label, the starting point coordinates (sx, sy), the region width wx, and the region height wy (see element 9 (b)) together with the label. Each clustering region DP is stored in the database 111.
[0061]
When the vector region BR in the feature vector space is mapped onto the image frame PF, there may be an isolated pixel that is not a region cluster (a group of pixels). Therefore, the area dividing unit 101 may perform the smoothing process so as to belong to a vector area (cluster) BR that is closest in terms of space or feature quantity of the image frame PF. Thereby, the isolated pixel when the area is divided can be removed as noise.
[0062]
The object extraction unit 110 determines a minimum region selection unit 112 that selects a minimum clustering region DPmin having the smallest number of pixels from a plurality of clustering regions DP, and an adjacent clustering region DPa that is integrated with the extracted minimum clustering region DPmin. The integrated determination unit 113 and the region integration unit 114 that integrates the determined adjacent clustering region DPa and the minimum clustering region DPmin are provided.
[0063]
Here, when the minimum clustering area DPmin is equal to or smaller than the minute pixel threshold, the integrated determination unit 113 minimizes the adjacent clustering area DPa having the largest number of pixels among the adjacent clustering areas DPa adjacent to the minimum clustering area DPmin. The clustering area is determined to be integrated with the clustering area DPmin.
[0064]
On the other hand, when the minimum clustering area DPmin is equal to or smaller than the small pixel threshold, the integrated determination unit 113 determines that the adjacent clustering area DPa having the closest feature among the adjacent clustering areas DPa is a clustering area to be integrated with the minimum clustering area DPmin. It is.
[0065]
The above-described minute pixel threshold value is set to, for example, 1/100 pixel number of the total number of pixels of the image data PD, and the small pixel threshold value is, for example, 1/10 pixel number of the total number of pixels of the image data PD. Is set to
[0066]
Further, when the integrated determination unit 113 selects an adjacent clustering region DPa having a close feature, for example, by referring to the distance in the feature vector space between the minimum clustering region DPmin and the adjacent clustering region DPa, the adjacent clustering region DPa having the shortest distance is used. Is supposed to be selected.
[0067]
Alternatively, the change amount of the minimum clustering region DPmin, the adjacent clustering region DPa, and the feature amount CQ (for example, if YCC is the feature amount CQ, the average value of the Y edge signal, the Cr edge signal, and the Cb edge signal, etc.) is small. The adjacent clustering area DPa may be selected.
[0068]
Further, when the clustering region DP after the integration of the plurality of clustering regions DP is the adjacent clustering region DPa, the average value of the feature amount CQ calculated from the adjacent clustering region DPa after the integration is used.
[0069]
Next, the region integration method will be described with reference to FIG. First, as shown in FIGS. 1 to 7, the vector region BR is divided in the feature vector space using the feature quantity CQ of the image data PD (step ST21). Thereafter, the area dividing unit 101 performs area division on the image data PD in accordance with the divided vector area BR. Then, the image data PD is divided into a plurality of clustering areas DP (step ST22). At this time, each clustering region DP is stored in the database 111 in a labeled state.
[0070]
Note that when the classification result of the feature vector space is mapped onto the image data PD, there may be an isolated pixel that is not an area cluster (a group of pixels). At this time, the region dividing unit 90 has a function of performing a smoothing process so as to belong to the closest cluster spatially and / or feature amount of the image data PD in order to remove isolated pixels as noise. It may be.
[0071]
Thereafter, the minimum clustering region DPmin having the smallest number of pixels is extracted from the plurality of clustering regions DP by the minimum region selection means 112 (step ST23). Also, the adjacent clustering region DPa adjacent to the extracted minimum clustering region DPmin is selected by the integrated judgment unit 113 (step ST24).
[0072]
Then, the integrated determination unit 113 determines whether the number of pixels in the minimum clustering region DP is equal to or smaller than the minute pixel threshold (step ST25). When the minimum clustering area DPmin is equal to or smaller than the minute pixel threshold, the number of boundary pixels between the minimum clustering area DPmin and the adjacent clustering area DPa is measured for each adjacent clustering area DPa. Then, the minimum clustering area DPmin is integrated with the adjacent clustering area DPa having the largest number of boundary pixels (step ST26).
[0073]
Specifically, in FIG. 11A, it is assumed that the clustering region A is the minimum clustering region DPmin that is equal to or smaller than the minute pixel threshold. Since the clustering region A is adjacent to the clustering regions C and D, the clustering regions C and D become the adjacent clustering region DPa. The number of adjacent pixels with which the minimum clustering area A and the clustering areas C and D are in contact is measured. Then, in FIG. 11A, the number of boundary pixels with the adjacent clustering region D is larger than the number of boundary pixels with the adjacent clustering region C. For this reason, the clustering area A is integrated with the clustering area D as shown in FIG.
[0074]
Thus, when the minimum clustering region DPmin is a minute clustering region, an optimal object region OR can be generated by combining with the adjacent clustering region DPa having the largest number of adjacent pixels.
[0075]
On the other hand, when the number of pixels in the minimum clustering region DPmin is equal to or smaller than the small pixel threshold value (step ST27), the distance in the feature vector space from the adjacent clustering region DPa is calculated. Then, the minimum clustering area DPmin is integrated with the adjacent clustering area DPa having the shortest distance (step 28).
[0076]
Specifically, as shown in FIG. 11B, it is assumed that the clustering region B is a minimum clustering region DPmin having a small pixel threshold value or less. Then, the adjacent clustering regions DPa of the clustering region B are the clustering regions C and D. Then, when the texture information is a feature quantity for measuring the distance, it is determined which of the clustering regions C and D is close to the texture of the clustering region B. Then, the clustering region B is integrated with the clustering region C as shown in FIG.
[0077]
Thus, when the minimum clustering region DPmin is a small clustering region, an optimal object region can be generated by integrating with the adjacent clustering region DPa having the most similar features.
[0078]
Further, the integration process (steps ST23 to ST28) described above is repeated until there is no small clustering area, that is, until the minimum clustering area DPmin becomes larger than the small pixel number threshold. Then, a plurality of clustering areas DP shown in FIG. 7A are integrated, and an object area OR (at least a macro area equal to or larger than the small pixel threshold) is generated as shown in FIG. 7B.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a preferred embodiment of an image feature amount classification apparatus according to the present invention.
FIG. 2 is a flowchart showing a preferred embodiment of the image feature amount classification method of the present invention.
FIG. 3 is a diagram showing a feature vector space in the image feature quantity classification method of the present invention;
FIG. 4 is a diagram showing a feature vector space in the image feature quantity classification method of the present invention;
FIG. 5 is a diagram showing a feature vector space in the image feature quantity classification method of the present invention;
FIG. 6 is a diagram showing a feature vector space in the image feature amount classification method of the present invention;
FIG. 7 is a diagram illustrating a state in which a clustering region is generated using a vector region divided using an image feature amount classification device;
FIG. 8 is a block diagram illustrating an example of an object extraction device using an image feature amount classification device;
9 is a diagram showing an example of clustering area information stored in a database in the object extraction device of FIG. 8;
FIG. 10 is a flowchart illustrating an example of an object extraction method.
FIG. 11 is a diagram showing a state of region integration in the object extraction method.
[Explanation of symbols]
1 Image feature classifier
10 Feature extraction means
20 Feature vector generation means
30 Classification parameter generation means
31 First classification parameter generation means
32 Second classification parameter generation means
35 Codebook
40 Feature vector classification means
BR vector region
CB feature vector
CQ feature
HRB classification parameters
DP clustering domain
PD image data
HRB first classification parameter
RB Second classification parameter

Claims (5)

画像データから複数の特徴量を抽出するステップと、抽出した前記複数の特徴量を用いて前記画像データ毎に特徴ベクトルを生成するステップと、生成した前記複数の特徴ベクトルを類似した該特徴ベクトル毎に分類するための分類パラメータを生成するステップと、生成した前記分類パラメータを用いて前記複数の特徴ベクトルを類似した該特徴ベクトル毎に分類した複数のベクトル領域を生成するステップとを有する画像の特徴量分類方法であって、
前記ベクトル領域内の前記特徴ベクトルの分布を示すパラメータを用いて第1分類パラメータを生成するステップと、
生成した前記第1分類パラメータを用いて前記特徴ベクトルを複数の第1ベクトル領域に分割するステップと、
分割した前記各第1ベクトル領域毎の代表点を算出して第2分類パラメータを生成するステップと、
生成した該第2分類パラメータを用いて前記複数の特徴ベクトルを複数の第2ベクトル領域に分割するステップと
を有することを特徴とする画像の特徴量分類方法。
Extracting a plurality of feature amounts from the image data; generating a feature vector for each of the image data using the extracted plurality of feature amounts; and for each feature vector similar to the generated feature vectors Generating a classification parameter for classifying the plurality of feature vectors, and generating a plurality of vector regions obtained by classifying the plurality of feature vectors for each similar feature vector using the generated classification parameter A quantity classification method,
Generating a first classification parameter using a parameter indicating a distribution of the feature vector in the vector region;
Dividing the feature vector into a plurality of first vector regions using the generated first classification parameter;
Calculating a representative point for each of the divided first vector regions to generate a second classification parameter;
And a step of dividing the plurality of feature vectors into a plurality of second vector regions using the generated second classification parameter.
前記第1分類パラメータを生成するステップ、前記第1分類パラメータを用いて前記第1ベクトル領域に分割するステップ、前記第2分類パラメータを生成するステップおよび第2分類パラメータを用いて前記第2ベクトル領域に分割するステップを有する分割プロセスを複数回繰り返すことを特徴とする請求項1に記載の画像の特徴量分類方法。Generating the first classification parameter; dividing the first vector area using the first classification parameter; generating the second classification parameter; and second vector area using the second classification parameter. The image feature quantity classification method according to claim 1, wherein the division process including the step of dividing the image into a plurality of times is repeated a plurality of times. 画像データから複数の特徴量を抽出する特徴量抽出手段と、抽出された前記複数の特徴量を用いて前記画像データ毎に特徴ベクトルを生成する特徴ベクトル生成手段と、生成された前記複数の特徴ベクトルを類似した該特徴ベクトル毎に分類するための分類パラメータを生成する分類パラメータ生成手段と、生成された前記分類パラメータを用いて前記複数の特徴ベクトルを類似した該特徴ベクトル毎に分類した複数のベクトル領域を生成する特徴ベクトル分類手段とを有する画像の特徴量分類装置において、
前記分類パラメータ生成手段が、
前記ベクトル領域における前記特徴ベクトルの分布を示すパラメータを用いて第1分類パラメータを生成する第1分類パラメータ生成手段と、
生成された前記第1分類パラメータを用いて前記特徴ベクトル分類手段により分割された第1ベクトル領域の代表点をそれぞれ算出して第2分類パラメータを生成する第2分類パラメータ生成手段と
を有することを特徴とする画像の特徴量分類装置。
Feature amount extraction means for extracting a plurality of feature amounts from image data, feature vector generation means for generating a feature vector for each image data using the extracted feature amounts, and the generated features Classification parameter generation means for generating a classification parameter for classifying a vector for each similar feature vector, and a plurality of the plurality of feature vectors classified for each of the similar feature vectors using the generated classification parameter In an image feature quantity classification device having a feature vector classification means for generating a vector region,
The classification parameter generating means is
First classification parameter generation means for generating a first classification parameter using a parameter indicating a distribution of the feature vector in the vector region;
Second classification parameter generation means for generating a second classification parameter by calculating representative points of the first vector regions divided by the feature vector classification means using the generated first classification parameter. An apparatus for classifying feature quantities of images as features.
前記第1分類パラメータ生成手段が、複数の前記ベクトル領域のうち前記特徴ベクトルの分布を示すパラメータが最も大きい前記ベクトル領域の第1分類パラメータを生成するものであることを特徴とする請求項3に記載の画像の特徴量分類装置。The said 1st classification parameter production | generation means produces | generates the 1st classification parameter of the said vector area | region with the largest parameter which shows the distribution of the said feature vector among several said vector area | regions. An image feature classifying device. 前記第1分類パラメータ生成手段が、前記特徴ベクトル領域の分散を前記ベクトル領域の分布を示すパラメータとして用いるものであり、前記第2分類パラメータ生成手段が、前記第1ベクトル領域の重心を前記代表点として算出するものであることを特徴とする請求項3または請求項4に記載の画像の特徴量分類装置。The first classification parameter generation means uses the variance of the feature vector area as a parameter indicating the distribution of the vector area, and the second classification parameter generation means uses the center of gravity of the first vector area as the representative point. 5. The image feature amount classification apparatus according to claim 3, wherein the image feature amount classification device is calculated as follows.
JP2002246395A 2002-08-27 2002-08-27 Method and device for classifying feature quantity of image Withdrawn JP2004086538A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002246395A JP2004086538A (en) 2002-08-27 2002-08-27 Method and device for classifying feature quantity of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002246395A JP2004086538A (en) 2002-08-27 2002-08-27 Method and device for classifying feature quantity of image

Publications (1)

Publication Number Publication Date
JP2004086538A true JP2004086538A (en) 2004-03-18

Family

ID=32054309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002246395A Withdrawn JP2004086538A (en) 2002-08-27 2002-08-27 Method and device for classifying feature quantity of image

Country Status (1)

Country Link
JP (1) JP2004086538A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7474808B2 (en) 2003-10-08 2009-01-06 Fujifilm Corporation Image processing device and image processing method
WO2013088807A1 (en) * 2011-12-13 2013-06-20 インターナショナル・ビジネス・マシーンズ・コーポレーション Method, device, and computer program for generating medical case-specific representative images and radiographic image interpretation information
US9262442B2 (en) 2012-09-20 2016-02-16 International Business Machines Corporation Techniques for generating a representative image and radiographic interpretation information for a case
JP2021090488A (en) * 2019-12-06 2021-06-17 株式会社ジョブ Data processor, x-ray apparatus mounting the data processor, and data processing method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7474808B2 (en) 2003-10-08 2009-01-06 Fujifilm Corporation Image processing device and image processing method
WO2013088807A1 (en) * 2011-12-13 2013-06-20 インターナショナル・ビジネス・マシーンズ・コーポレーション Method, device, and computer program for generating medical case-specific representative images and radiographic image interpretation information
CN103988205A (en) * 2011-12-13 2014-08-13 国际商业机器公司 Method, device, and computer program for generating medical case-specific representative images and radiographic image interpretation information
GB2515398A (en) * 2011-12-13 2014-12-24 Ibm Method, device, and computer program for generating medical case-specific representative images and radiographic image interpretation information
JPWO2013088807A1 (en) * 2011-12-13 2015-04-27 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method, apparatus and computer program for generating representative image and interpretation information for each case
US9201901B2 (en) 2011-12-13 2015-12-01 International Business Machines Corporation Techniques for generating a representative image and radiographic interpretation information for a case
GB2515398B (en) * 2011-12-13 2018-02-14 Ibm Method,apparatus, and computer program for generating representative image and radiographic interpretation information for each case
US9262442B2 (en) 2012-09-20 2016-02-16 International Business Machines Corporation Techniques for generating a representative image and radiographic interpretation information for a case
JP2021090488A (en) * 2019-12-06 2021-06-17 株式会社ジョブ Data processor, x-ray apparatus mounting the data processor, and data processing method
JP7348642B2 (en) 2019-12-06 2023-09-21 株式会社ジョブ Data processing device, X-ray device equipped with the data processing device, and data processing method

Similar Documents

Publication Publication Date Title
JP4903854B2 (en) Object detection method in digital image
JP6438403B2 (en) Generation of depth maps from planar images based on combined depth cues
Brutzer et al. Evaluation of background subtraction techniques for video surveillance
JP4898800B2 (en) Image segmentation
AU2006252252B2 (en) Image processing method and apparatus
JP3373008B2 (en) Image area separation device
US12002259B2 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
JP4098021B2 (en) Scene identification method, apparatus, and program
Karaman et al. Comparison of static background segmentation methods
WO2004043054A2 (en) A method for generating a quality oriented significance map for assessing the quality of an image or video
Tong et al. Learning no-reference quality metric by examples
CN110706196B (en) Clustering perception-based no-reference tone mapping image quality evaluation algorithm
US20040240733A1 (en) Image transmission system, image transmission unit and method for describing texture or a texture-like region
Li et al. Predicting the quality of view synthesis with color-depth image fusion
US7620246B2 (en) Method and apparatus for image processing
CN111583357A (en) Object motion image capturing and synthesizing method based on MATLAB system
CN109064444B (en) Track slab disease detection method based on significance analysis
JP2009123234A (en) Object identification method, apparatus and program
CN116958113A (en) Product detection method, device, equipment and storage medium
KR101717733B1 (en) Hdr image processing apparatus and method
JP2004086538A (en) Method and device for classifying feature quantity of image
JP4202692B2 (en) Image processing method and apparatus
JP4080276B2 (en) Object extraction method, apparatus and program
CN110489584B (en) Image classification method and system based on dense connection MobileNet model
CN113240611A (en) Foreign matter detection method based on picture sequence

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051101