JP5391876B2 - Representative feature extraction system, method and program - Google Patents
Representative feature extraction system, method and program Download PDFInfo
- Publication number
- JP5391876B2 JP5391876B2 JP2009156830A JP2009156830A JP5391876B2 JP 5391876 B2 JP5391876 B2 JP 5391876B2 JP 2009156830 A JP2009156830 A JP 2009156830A JP 2009156830 A JP2009156830 A JP 2009156830A JP 5391876 B2 JP5391876 B2 JP 5391876B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- representative
- hierarchy
- partial
- representative feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、複数のデータからなるデータ群から当該データ群を代表する特徴データを抽出する代表特徴抽出システム、方法およびプログラムに関する。 The present invention relates to a representative feature extraction system, method, and program for extracting feature data representing a data group from a data group consisting of a plurality of data.
多数のデータからなるデータ群の中から、そのデータ群を代表する特徴を抽出する代表特徴抽出技術は、画像処理、画像認識、データマイニングなどの幅広い分野に応用される技術である。例えば、画像データから、画像全体や部分画像の性質をよく表す代表特徴を抽出し、代表特徴とその代表特徴に対する差分として画像を表現することで、画像を圧縮することができる。また、海面を上空から撮影した画像から、海面の画素値を代表する画素を抽出して代表特徴とし、さらに、代表特徴とは異なる画素を検出することにより、溺れた人や漂流物等を検出し、海難救助等へ応用することも可能である。さらにまた、それぞれが似通った行動パターンとなるように一連の行動パターンを部分パターンに分割し、各部分パターンごとにその部分パターンを代表する特徴を抽出することによって、代表特徴を用いて行動を解析する行動マイニング等への応用も可能である。 A representative feature extraction technique for extracting features representative of a data group from a large number of data groups is a technique applied to a wide range of fields such as image processing, image recognition, and data mining. For example, it is possible to compress an image by extracting representative features that well represent the characteristics of the entire image or partial image from the image data, and expressing the image as a difference between the representative feature and the representative feature. In addition, pixels that represent the pixel values of the sea surface are extracted from the image taken from the sky and used as representative features, and by detecting pixels that are different from the representative features, drowning people and drifting objects are detected. However, it can also be applied to maritime rescue. Furthermore, the behavior is analyzed using representative features by dividing the series of behavior patterns into partial patterns so that each becomes a similar behavior pattern, and extracting features that represent the partial patterns for each partial pattern. Application to action mining is also possible.
代表特徴抽出を行うものの例として特許文献1(特開2007−142883号公報)に記載された画像処理装置では、動きが似通ったグループに動きベクトルをグルーピングし、各グループごとに平均ベクトルを求めることによって、各グループを代表する代表ベクトルを求めている。特許文献2(特開平11−167634号公報)に記載の画像の領域分割方法では、画像の各画素のRGB値をヒストグラム化することによってその画像を色の似通った領域に分割し、各領域ごとに、平均色もしくは最頻色を求め代表色としている。特許文献3(特開2008−065803号公報)に記載の画像処理装置では、色空間でのヒストグラムの極大値を選択して代表色とし、代表色でもって表現することにより、入力画像中で使用されている色数を低減する限定色化の処理を行っている。 As an example of representative feature extraction, the image processing apparatus described in Patent Document 1 (Japanese Patent Application Laid-Open No. 2007-142883) groups motion vectors into groups with similar motions, and obtains an average vector for each group. Thus, a representative vector representing each group is obtained. In the image segmentation method described in Patent Document 2 (Japanese Patent Laid-Open No. 11-167634), the RGB values of each pixel of the image are histogrammed to divide the image into regions of similar colors, and for each region. The average color or the most frequent color is obtained as the representative color. In the image processing apparatus described in Patent Document 3 (Japanese Patent Application Laid-Open No. 2008-066583), a local maximum value of a histogram in a color space is selected as a representative color, and is expressed in the representative color, thereby being used in the input image. Limited color processing is performed to reduce the number of colors that are used.
なお、関連技術におけるデータの階層化に関するものとして、特許文献4(特開平9−294277号公報)に記載の予測符号化画像データ管理システムでは、画像データ列をそのデータ構造に応じて階層に分離し、分離された階層からその画像データが持つ物理的特徴を抽出し、画像を特徴づける特徴ベクトルを生成している。また、特徴ベクトルの類似度を算出し、類似度に応じて映像を構造化している。特許文献5(特開2006−338298号公報)に記載のマルチデータの分割管理方法では、メモリにおける小容量データの管理の効率化のために、分割データを階層化して管理している。特許文献6(特開平7−219968号公報)に記載の文書保存検索装置では、入力された文書データを視覚的な観点に基づいて複数の階層に分離して格納することにより、ページめくり形態で文書データを表示させる際に、目的とするページを高速で見つけ出せるようにしている。 As for data hierarchization in the related art, in the predictive encoded image data management system described in Patent Document 4 (Japanese Patent Laid-Open No. 9-294277), an image data string is separated into hierarchies according to the data structure. Then, a physical feature of the image data is extracted from the separated hierarchy, and a feature vector that characterizes the image is generated. Also, the similarity of the feature vectors is calculated, and the video is structured according to the similarity. In the multi-data division management method described in Patent Document 5 (Japanese Patent Laid-Open No. 2006-338298), division data is managed in a hierarchy in order to improve the efficiency of management of small-capacity data in a memory. In the document storage / retrieval apparatus described in Patent Document 6 (Japanese Patent Laid-Open No. 7-219968), the input document data is separated into a plurality of hierarchies and stored in a page turning form based on a visual viewpoint. When displaying document data, the target page can be found at high speed.
上述した関連技術における代表特徴抽出技術のうち、特許文献1及び2には、特徴量の平均を求めて代表特徴とする方法が記載されている。しかしながら平均を用いて代表特徴を抽出する技術では、特徴量に外れ値がある場合に対応できない、という課題がある。外れ値とは、ノイズなどの影響によって本来の値から大きく外れてしまった値のことである。平均に対しては、その平均から距離の離れた特徴量の影響が大きく寄与するため、特徴量に外れ値がある場合に、特徴量の平均に基づいて適切な代表値を求めることができなくなる。 Of the representative feature extraction techniques in the related art described above, Patent Documents 1 and 2 describe a method of obtaining an average of feature amounts to obtain a representative feature. However, the technique of extracting representative features using an average has a problem that it cannot cope with a feature value having an outlier. An outlier is a value that deviates significantly from the original value due to the influence of noise or the like. For the average, the influence of the feature amount that is far from the average greatly contributes, and therefore, when there is an outlier in the feature amount, an appropriate representative value cannot be obtained based on the feature amount average. .
特許文献2,3には、ヒストグラムでの極大値や最大値を求めて代表特徴とする方法が記載されている。しかしながらヒストグラムを用いる方法では、データが疎の場合には対応できない、という課題がある。データが疎であり、同じ値をとるデータが少ない場合には、ヒストグラムを作成することができない。特に、特徴の次元が高い場合、相対的にデータは疎となるため、高次元の特徴を用いる場合には、ヒストグラムを作成することが困難となることが多い。 Patent Documents 2 and 3 describe methods for obtaining a maximum value and a maximum value in a histogram and using them as representative features. However, the method using the histogram has a problem that it cannot cope with sparse data. If the data is sparse and few data have the same value, a histogram cannot be created. In particular, when the dimension of the feature is high, the data is relatively sparse, and it is often difficult to create a histogram when using a high-dimensional feature.
そこで本発明の目的は、特徴量に外れ値がある場合に、あるいはデータが疎である場合にも対応できる代表特徴抽出システムを提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a representative feature extraction system that can cope with a case where there is an outlier in a feature amount or a case where data is sparse.
本発明の別の目的は、特徴量に外れ値がある場合に、あるいはデータが疎である場合にも対応できる代表特徴抽出方法を提供することにある。 Another object of the present invention is to provide a representative feature extraction method that can cope with the case where there is an outlier in the feature amount or the case where data is sparse.
本発明の代表特徴抽出システムは、入力データから代表特徴を選択する代表特徴抽出システムであって、入力データを階層的に複数の部分データ群に分割する分割手段と、処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群においてその部分データ群に含まれるデータごとにそのデータからその部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求める評価値算出手段と、処理階層の各部分データ群について、その部分データ群に含まれるデータの中で評価値が最小のものを代表データとして選択するデータ選択手段と、処理階層が最上位の階層であればデータ選択手段が選択した代表データを入力データに対する代表特徴とし、処理階層が最上位の階層以外の階層であるときには、データ選択手段が選択した代表データを集約して処理階層より1階層上の階層の部分データ群を生成する集約手段と、を有する。 The representative feature extraction system of the present invention is a representative feature extraction system that selects representative features from input data, and includes a dividing unit that hierarchically divides input data into a plurality of partial data groups, and a hierarchy that has not been processed. Using the lowest hierarchy as the processing hierarchy, for each partial data group in the processing hierarchy, for each data contained in the partial data group, the sum of distances from that data to other data contained in the partial data group is calculated and evaluated An evaluation value calculation means for obtaining a value, a data selection means for selecting, as representative data, the data with the smallest evaluation value among the data included in the partial data group for each partial data group in the processing hierarchy; If it is an upper hierarchy, the representative data selected by the data selection means is the representative feature for the input data, and the processing hierarchy is a hierarchy other than the highest hierarchy. Data selection means having a aggregation means for generating a partial data group is selected representative data aggregation and processing hierarchy than one layer on the hierarchy.
本発明の代表特徴抽出方法は、入力データから代表特徴を選択する代表特徴抽出方法であって、入力データを階層的に複数の部分データ群に分割することと、処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群においてその部分データ群に含まれるデータごとにそのデータからその部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求め、評価値が最小のものをその部分データ群の代表データとして選択することと、処理階層が最上位の階層であれば選択された代表データを入力データに対する代表特徴とすることと、処理階層が最上位の階層以外の階層であるときには、選択された代表データを集約して処理階層より1階層上の階層の部分データ群を生成し、評価値を求めることと代表データを選択することとを繰り返すことと、を有する。 The representative feature extraction method of the present invention is a representative feature extraction method for selecting a representative feature from input data. The representative feature extraction method divides input data hierarchically into a plurality of partial data groups and The evaluation value is calculated by calculating the sum of the distance from the data to the other data included in the partial data group for each data included in the partial data group in each partial data group of the processing hierarchy with the lower hierarchy as the processing hierarchy Selecting the one with the smallest evaluation value as the representative data of the partial data group, and if the processing hierarchy is the highest hierarchy, making the selected representative data the representative feature for the input data, and processing When the hierarchy is a hierarchy other than the highest hierarchy, the selected representative data is aggregated to generate a partial data group one hierarchy above the processing hierarchy and obtain an evaluation value Having a repeating and selecting the representative data.
本発明によれば、特徴量に外れ値がある場合にも代表特徴を安定して選択できるようになる。その理由は、各データ群内の他のデータとの距離の合計が最小となるデータを各データ群を代表するデータとすることを階層的に行っているからである。外れ値を含むデータは下位の階層において選択から外されるので、上位の階層では、外れ値を含まないデータから代表特徴を選択することになる。また本発明では、データが疎であっても代表特徴を求めることができる。その理由は、他のデータとの距離の合計を最小にするデータは、データ数にかかわりなく、必らず求めることができるからである。 According to the present invention, the representative feature can be stably selected even when the feature amount has an outlier. The reason is that the data having the minimum distance to other data in each data group is hierarchically set as data representing each data group. Since the data including outliers is excluded from the selection in the lower hierarchy, the representative feature is selected from the data including no outliers in the upper hierarchy. In the present invention, the representative feature can be obtained even if the data is sparse. The reason is that the data that minimizes the total distance to other data can always be obtained regardless of the number of data.
次に、発明を実施するための形態について、図面を参照して詳細に説明する。 Next, embodiments for carrying out the invention will be described in detail with reference to the drawings.
図1に示す本発明の第1の例示実施形態の代表特徴抽出システムは、処理対象のデータ群を読み込む入力部11と、読み込まれたデータ群を格納するデータ群格納部12と、データ群格納部12に格納されたデータ群の中の各データについて評価値を求める評価値計算部13と、データ群格納部12に格納されたデータ群の各データの中から、評価値計算部13で計算された評価値が最小のデータをデータ群の代表特徴として選択するデータ選択部14と、データ選択部14で選択されたデータをデータ群の代表特徴として外部に出力する出力部15と、を備えている。ここで評価値計算部13は、データ群中の各データについて、データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。入力部11、データ群格納部12、評価値計算部13、データ選択部14及び出力部15は、それぞれ、入力手段、格納手段、評価値計算手段、データ選択手段及び出力手段として機能する。
The representative feature extraction system of the first exemplary embodiment of the present invention shown in FIG. 1 includes an
次に、図1に示した代表特徴抽出システムの動作について、図2のフローチャートを説明する。 Next, the flowchart of FIG. 2 is demonstrated about operation | movement of the representative feature extraction system shown in FIG.
まず、ステップA1において入力部11が処理対象のデータ群を読みこみ、それをデータ群格納部12内に格納する。次に評価値計算部13は、ステップA2において、データ群格納部12内のデータ群の中の各データについて、データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。その後、ステップA3においてデータ選択部14は、データ群格納部12内のデータ群の中の各データについて、ステップA2で得られた評価値が最小のものをデータ群の代表特徴として選択する。ステップA4において、出力部15は、ステップA3で選択されたデータを代表特徴として出力する。後述するように、評価値は、例えば他のデータとの距離の合計が小さいほど小さくなるように定められ、これによって、距離の合計が小さい、すなわち、データ群中の他のデータとの類似度が大きいデータが代表特徴として選択されることになる。
First, in step A 1, the
第1の例示実施形態の代表特徴抽出システムは、パーソナルコンピュータやワークステーションなどのコンピュータを用い、それらのコンピュータ上でプログラムを実行することによっても実現できる。それらのコンピュータは、カメラなどが入力部11として接続され、ディスプレイなどが出力部15として接続されたものであり、一般に、中央処理ユニット(CPU)と、プログラムやデータを格納するためのハードディスク装置と、主メモリと、コマンド等を入力するためのキーボードやマウスなどの入力装置と、CD−ROM等の記録媒体を読み取る読み取り装置と、外部ネットワークとの接続に用いられるインタフェースなどを備えている。主メモリあるいはハードディスク装置上に記憶領域を確保することによってデータ群格納部12が構成されることになる。そして、上述の評価値計算部13及びデータ選択部14の機能を実現するためのコンピュータプログラムをそのコンピュータに読み込ませて実行させることにより、第1の例示実施形態の代表特徴抽出システムがコンピュータによって実現されたことになる。プログラムは、CD−ROMなどの記録媒体から、あるいネットワークを介して、コンピュータに読み込まれる。
The representative feature extraction system of the first exemplary embodiment can also be realized by using a computer such as a personal computer or a workstation and executing a program on the computer. These computers have a camera or the like connected as an
次に、本発明の第2の例示実施形態の代表特徴抽出システムについて説明する。第2の例示実施形態は、データを階層的に複数の部分データ群に分割し、各部分データ群で、その部分データ群内の他のデータとの距離の合計が最小となるデータをその部分データ群を代表するデータとし、このような代表データを選択する処理を階層的に実行して代表特徴を選択することを特徴とするものである。 Next, a representative feature extraction system according to a second exemplary embodiment of the present invention will be described. In the second exemplary embodiment, the data is hierarchically divided into a plurality of partial data groups, and each partial data group has the data having the smallest total distance from other data in the partial data group This is characterized in that data representing a data group is selected, and a representative feature is selected by hierarchically executing a process of selecting such representative data.
図3に示す第2の例示実施形態の代表特徴抽出システムは、処理対象のデータ(入力データ)を読み込む入力部21と、入力データを複数の部分データ群に階層的に分割するデータ分割部22と、階層ごとの部分データ群を格納する部分データ群格納部23と、階層ごとに各部分データ群の中の各データについて評価値を求める評価値計算部24と、階層ごとに各部分データ群の代表データを選択するデータ選択部25と、データ選択部25で選択されたデータを集約するデータ集約部26と、データ集約部26により入力データに対する代表特徴とされたデータを外部に出力する出力部27と、を備えている。ここで評価値計算部24は、部分データ群格納部23に格納された処理対象の階層の各部分データ群中の各データについて、その部分データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。データ選択部25は、部分データ群格納部23に格納された処理対象の階層の各部分データ群のデータの中から、評価値計算部24による評価値が最小のデータをその部分データ群の代表データとして選択する。データ集約部26は、データ選択部25によって選択された代表データが最上位階層のものであれば、その代表データを入力データに対する代表特徴とし、最上位以外の階層のものであるときは、その代表データから当該階層より1階層上の階層の部分データ群を生成して部分データ群格納部23に格納する。
The representative feature extraction system of the second exemplary embodiment shown in FIG. 3 includes an
この構成においては、入力部21、データ分割部22、部分データ群格納部23、評価値計算部24、データ選択部25、データ集約部26及び出力部27は、それぞれ、入力手段、分割手段、格納手段、評価値計算手段、データ選択手段、集約手段及び出力手段として機能する。
In this configuration, the
次に、図3に示した代表特徴抽出システムの動作について、図4のフローチャートを説明する。 Next, the flowchart of FIG. 4 is demonstrated about operation | movement of the representative feature extraction system shown in FIG.
まず、ステップB1において入力部21が処理対象のデータ(入力データ)を読みこみ、ステップB2においてデータ分割部22が入力データを複数の部分データ群に階層的に分割して部分データ群格納部23内に格納する。そして評価値計算部24は、ステップB3において、複数の階層のうちその時点で未処理となっている階層で最も下位の階層を処理階層として、部分データ群格納部23内のその処理階層の各部分データ群ごとにその部分データ群中の各データについて、当該部分データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。ここでいう未処理の階層とは、評価値計算や以下に述べるデータ選択の処理がその時点で完了していない階層のことである。その後、ステップB4においてデータ選択部25は、部分データ群格納部23内のその時点での処理階層の各部分データ群について、ステップB3で得られた評価値が最小のデータをその部分データ群の代表データとして選択する。ステップB5において、データ集約部26は、現在の処理階層が最上位の階層かどうかを判断する。ステップB5において最上位の階層である場合と判断した場合には、データ集約部26は、その処理階層での代表データを入力データに対する代表特徴とし、出力部27がステップB7においてその代表特徴を外部に出力する。一方、ステップB5において最上位の階層でないと判断した場合には、ステップB6において、データ集約部26は、現在の処理階層の各部分データ群の代表データを集約することにより、現在の処理階層より1階層上の階層に属する部分データ群を生成して部分データ群格納部23に格納する。その後、現在の処理階層より1階層上の階層を対象として上述した処理を繰り返すために、ステップB3からの処理が繰り返される。したがって、データ集約部26が生成した1階層上の階層の部分データ群が、評価値計算部24による次の評価値算出の対象となる。
First, in step B1, the
このように第2の例示実施形態では、入力データを階層的に複数の部分データ群に分割するデータ分割部22と、階層ごとの各部分データ群を格納する部分データ群格納部23と、階層ごとに各部分データ群の代表データを集めて次の階層の部分データ群を作成するデータ集約部26とを設けることにより、評価値計算及び代表データのためのデータ選択を階層的に行えるようになる。評価値計算部24及びデータ選択部25は、各部分データ群に対し、第1の例示実施形態における評価値計算部13及びデータ選択部14と同様の処理を行うことによって、各部分データ群ごとに代表データを選択する。
As described above, in the second exemplary embodiment, the
このような第2の例示実施形態では、評価値計算を階層的な部分データ群ごとに行うことで、全体の計算量を削減することができる。また、下位の階層を処理している段階で、外れ値を含むデータを除去することができるため、外れ値の影響を少なくし、安定して代表特徴を選択することができる。 In such a second exemplary embodiment, the overall calculation amount can be reduced by performing evaluation value calculation for each hierarchical partial data group. In addition, since the data including outliers can be removed at the stage of processing the lower hierarchy, the influence of the outliers can be reduced and the representative feature can be selected stably.
第2の例示実施形態の代表特徴抽出システムも、第1の例示実施形態の場合と同様に、コンピュータ上でプログラムを実行することによっても実現できる。その場合、コンピュータの主メモリあるいはハードディスク装置上に記憶領域を確保することによって部分データ群格納部23が構成されることになる。また、コンピュータで実行されるプログラムは、上述のデータ分割部22、評価値計算部24、データ選択部25及びデータ集約部26の機能を実現するプログラムである。
The representative feature extraction system of the second exemplary embodiment can also be realized by executing a program on a computer, as in the case of the first exemplary embodiment. In this case, the partial data
次に、本発明の第3の例示実施形態の代表特徴抽出システムについて説明する。図5に示す第3の例示実施形態の代表特徴抽出システムは、図1に示した第1の例示実施形態のシステムにおいて、入力が想定される特徴量の生起分布を記憶する生起分布記憶部15を設け、生起分布記憶部15から特徴量の生起分布が評価値計算部13に与えられるようにしたものである。生起分布記憶部15は、生起分布記憶手段として機能するものである。
Next, a representative feature extraction system according to a third exemplary embodiment of the present invention will be described. The representative feature extraction system of the third exemplary embodiment shown in FIG. 5 is an occurrence
本例示実施形態では、評価値計算部13は、入力が想定される特徴量の生起分布を用いて、評価値を計算する。入力が想定される特徴量の生起分布とは、入力部12に入力されるデータ群において各データがとると予想される値の分布のことである。具体的には第1の例示実施形態の場合と同様に、データ群中の各データについて、データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。その際、2つのデータの距離値を、生起分布記憶部15に記憶されている生起分布に基づいて仮想的にデータを発生させたとしてその仮想的に発生させたデータが現在比較している二つのデータの間のものとなる確率で表すものとする。言いかえれば、特徴量の生起分布から仮想的にパターンを発生させたとして、データ群内のあるデータAから当該データ群内の他のデータBへの距離を、データAから見てデータBよりも近いパターンが観測される確率とする。そして評価値計算部13は、この距離値あるいはその合計をそのまま評価値とする。あるいは評価値計算部13は、距離値が大きければ評価値が大きくなるような適宜の関数を用いて、距離値から評価値を定める。
In the present exemplary embodiment, the evaluation
次に、図5に示した代表特徴抽出システムの動作について、図6のフローチャートを説明する。 Next, the flowchart of FIG. 6 is demonstrated about operation | movement of the representative feature extraction system shown in FIG.
まず、ステップA1において入力部11が処理対象のデータ群を読みこみ、それをデータ群格納部12内に格納する。次に評価値計算部13は、生起分布記憶部15に記憶されている生起分布を使用して、ステップA2aにおいて、データ群格納部12内のデータ群の中の各データについて、データ群の中の他のデータとの類似度を表す距離値を上述のようにして求めし、距離の合計を用いて各データの評価値を求める。その後、ステップA3においてデータ選択部14は、データ群格納部12内のデータ群の中の各データについて、ステップA2で得られた評価値が最小のものをデータ群の代表特徴として選択する。ステップA4において、出力部15は、ステップA3で選択されたデータを代表特徴として出力する。
First, in step A 1, the
このような第3の例示実施形態によれば、特徴量における生起分布を考慮していることにより、あるデータから見て、外れ値を含むデータよりも生起分布から仮想的に生成したパターンの方が近いデータとなる確率は大きくなり、1に近くなる。すなわち、あるデータから見て、外れ値を含むデータは他のデータよりも遠くなる。特徴量の生起分布の本来的な意味を考えれば、確率1とは、その特徴がない場合と同じ評価である。したがって、外れ値が他のデータの評価値へ与える影響が小さくなる。そのため、データの特徴量に外れ値が含まれていても、本例示実施形態の処理を行うことによって、さらに適切な代表特徴抽出を行うことができる。 According to the third exemplary embodiment, the occurrence distribution in the feature quantity is taken into consideration, so that the pattern virtually generated from the occurrence distribution is more than the data including outliers as seen from some data. The probability of being close to data increases and approaches 1. That is, when viewed from some data, data including outliers is farther than other data. Considering the original meaning of the occurrence distribution of the feature amount, the probability 1 is the same evaluation as when there is no feature. Therefore, the influence of outliers on the evaluation values of other data is reduced. For this reason, even if an outlier is included in the feature amount of the data, more appropriate representative feature extraction can be performed by performing the processing of the present exemplary embodiment.
第3の例示実施形態の代表特徴抽出システムも、第1の例示実施形態の場合と同様に、コンピュータ上でプログラムを実行することによっても実現できる。この場合、コンピュータの主メモリあるいはハードディスク装置上に記憶領域を確保することによって、データ群格納部12及び生起分布記憶部16が構成されることになる。
The representative feature extraction system of the third exemplary embodiment can also be realized by executing a program on a computer, as in the case of the first exemplary embodiment. In this case, the data
次に、本発明の第4の例示実施形態の代表特徴抽出システムについて説明する。図7に示す第4の例示実施形態の代表特徴抽出システムは、図3に示した第2の例示実施形態のシステムに対し、クラスタリング部28とクラスタ代表抽出部29とを付加したものである。クラスタリング部28及びクラスタ代表抽出部29は、それぞれ、クラスタリング手段及びクラスタ代表抽出手段として機能するものである。クラスタリング部28は、データ集約部26の出力側に設けられ、部分データ群の代表特徴として選択された代表特徴を、その性質が似通った複数のクラスタに分割する。クラスタ代表抽出部29は、クラスタリング部28によって分割されたクラスタから、各クラスタを代表する代表特徴を抽出し、出力部29に送る。その結果、出力部29は、各クラスタを代表する代表特徴を、入力データの代表特徴として出力することになる。
Next, a representative feature extraction system according to a fourth exemplary embodiment of the present invention will be described. The representative feature extraction system of the fourth exemplary embodiment shown in FIG. 7 is obtained by adding a
次に、図7に示した代表特徴抽出システムの動作について、図8のフローチャートを説明する。 Next, the operation of the representative feature extraction system shown in FIG. 7 will be described with reference to the flowchart of FIG.
ステップB1からステップB6までは、図4に示したものと同様に処理が実行される。そして、ステップB5の実行後、その時点での処理階層が最上位階層であるときに、ステップC1において、クラスタリング部28は、そこへの入力データを特徴量の似通ったクラスタに分割(クラスタリング)する。そしてステップC2において、クラスタ代表抽出部29は、クラスタリング部28で作成されたクラスタごとに代表特徴を抽出する。その後、ステップC3において出力部27は、ステップC2で抽出された代表特徴を外部に出力する。
From step B1 to step B6, processing is executed in the same manner as shown in FIG. Then, after the execution of step B5, when the processing hierarchy at that time is the highest hierarchy, in step C1, the
このような第4の例示実施形態によれば、クラスタリングの手法を用いることにより、入力データが複数の性質のデータ群からなる場合に、各データ群に対応する代表特徴を選択することができるようになる。 According to the fourth exemplary embodiment as described above, by using the clustering technique, it is possible to select the representative feature corresponding to each data group when the input data is composed of data groups having a plurality of properties. become.
第4の例示実施形態の代表特徴抽出システムも、第1の例示実施形態の場合と同様に、コンピュータ上でプログラムを実行することによっても実現できる。その場合、コンピュータの主メモリあるいはハードディスク装置上に記憶領域を確保することによって部分データ群格納部23が構成されることになる。また、コンピュータで実行されるプログラムは、上述のデータ分割部22、評価値計算部24、データ選択部25、データ集約部26、クラスタリング部28及びクラスタ代表抽出部29の機能を実現するプログラムである。
Similarly to the case of the first exemplary embodiment, the representative feature extraction system of the fourth exemplary embodiment can also be realized by executing a program on a computer. In this case, the partial data
図9は本発明のさらに別の例示実施形態の代表特徴抽出システムの構成を示すブロック図である。 FIG. 9 is a block diagram showing a configuration of a representative feature extraction system of still another exemplary embodiment of the present invention.
図9に示す代表特徴抽出システムは、図3に示した第2の例示実施形態の代表特徴抽出システムと同様のものであるが、入力部21、部分データ群格納部23及び出力部27が設けられていない点で、図3に示したものと相違する。すなわちこの構成は、入力データを複数の部分データ群に階層的に分割するデータ分割部22と、階層ごとに各部分データ群の中の各データについて評価値を求める評価値計算部24と、階層ごとに各部分データ群の代表データを選択するデータ選択部25と、データ選択部25で選択されたデータを集約するデータ集約部26と、を備えている。データ分割部22は、最下位の階層の各部分データ群を評価値計算部24に与える。評価値計算部24は、処理対象の階層の各部分データ群中の各データについて、その部分データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。データ選択部25は、処理対象の階層の各部分データ群のデータの中から、評価値計算部24による評価値が最小のデータをその部分データ群の代表データとして選択する。データ集約部26は、データ選択部25によって選択された代表データが最上位階層のものであれば、その代表データを入力データに対する代表特徴として出力し、最上位以外の階層のものであるときは、その代表データから当該階層より1階層上の階層の部分データ群を生成して評価値計算部24に出力する。この構成においても第2の例示実施形態と同様の手順によって代表特徴の抽出が行われる。
The representative feature extraction system shown in FIG. 9 is the same as the representative feature extraction system of the second exemplary embodiment shown in FIG. 3, but includes an
図9に示した例示実施形態の代表特徴抽出システムも、上述の各例示実施形態の場合と同様に、コンピュータ上で、上述のデータ分割部22、評価値計算部24、データ選択部25及びデータ集約部26の機能を実現するプログラムを実行することによっても実現できる。
The representative feature extraction system of the exemplary embodiment shown in FIG. 9 also has the above-described
次に、具体的な実施例を用いて上述した例示実施形態の動作を説明する。 Next, the operation of the above-described exemplary embodiment will be described using specific examples.
[実施例1]
実施例1は、上述の第2の例示実施形態に対応するものである。
[Example 1]
Example 1 corresponds to the second exemplary embodiment described above.
実施例1は、ハイパースペクトルカメラによって海面を撮像した画像から海面自体を表す特徴を抽出し、人や漂流物などの海面ではない画素を検出することにより溺者や漂流者等の要救助者を探す海難救助システムに対し、第2の例示実施形態を適用したものである。具体的には、海面のデータを表す特徴を抽出する際に、第2の例示実施形態の代表特徴抽出システムを使用する。 In the first embodiment, features representing the sea surface itself are extracted from an image obtained by imaging the sea surface with a hyperspectral camera, and pixels that are not the sea surface, such as people and drifting objects, are detected. The second exemplary embodiment is applied to the marine rescue system to be searched. Specifically, the representative feature extraction system of the second exemplary embodiment is used when extracting features representing sea level data.
ハイパースペクトルカメラとは、高い波長分解能により対象物のスペクトルを細かく計測する機能を有するカメラであり、例えば、各画素に対して、数nm〜数十nmのバンド幅で、数十〜数百バンドのバンド数でスペクトル強度を計測することができる。各画素の情報は、バンド数をDとすると、D個のスペクトル強度からなるD次元ベクトルのデータとして表現できる。画像の画素数をNとすると、全画像の情報は、D次元ベクトルのN個のデータの集まり(データ列)として表現できる。 A hyperspectral camera is a camera that has a function of finely measuring the spectrum of an object with high wavelength resolution. For example, for each pixel, a bandwidth of several nanometers to several tens of nanometers, and several tens to several hundreds of bands. Spectral intensity can be measured with the number of bands. The information of each pixel can be expressed as D-dimensional vector data composed of D spectral intensities, where D is the number of bands. If the number of pixels of an image is N, the information of all the images can be expressed as a collection (data string) of N data of D-dimensional vectors.
本実施例では、N個のデータ列の中から、全体の特徴をよく表すK個の代表特徴を抽出し、これらK個の代表特徴とは性質の異なるデータを異常データとして検知することで、海面を撮像した画像から海面ではない画素を検出し、溺者等の要救助者を検出する。例えば図10で示すように、対象画像のほとんどが海の領域であってその中に溺者がいる場合に、画像のほとんどを占める海面自体の特徴ベクトルを参照データとし、参照データとは異なる画素を見つけることで溺者を検出し、救助活動の助けとすることができる。 In the present embodiment, K representative features that well represent the overall features are extracted from the N data strings, and data different in nature from these K representative features is detected as abnormal data. A pixel that is not the sea surface is detected from an image of the sea surface, and a rescuer such as a deaf person is detected. For example, as shown in FIG. 10, when most of the target image is a sea region and there is a deaf person, the feature vector of the sea surface itself that occupies most of the image is used as reference data, and the pixel is different from the reference data. Detecting deaf people can help with rescue activities.
本実施例では、入力部21としてハイパースペクトルカメラ、出力部27としてディスプレイを使用し、また、データ分割部22、評価値計算部24、データ選択部25及びデータ集約部26は、コンピュータ上でプログラムを実行することによりソフトウェアによって実現されている。部分データ群格納部23としては、コンピュータの記憶装置が用いられている。
In the present embodiment, a hyperspectral camera is used as the
入力部21としてのハイパースペクトルカメラから、画像の情報を入力する。画像は2次元であり、画素iの情報をIiとし、全入力データの集合をG={I1,I2,…,IN}とする。各画素の情報は、スペクトル強度を特徴量とし、D個の特徴量からなるD次元ベクトルとして、Ii=(vi (1),vi (2),…,vi (D))と表現される。
Image information is input from the hyperspectral camera as the
データ分割部22は、入力データG={Ii}を複数の部分データ群に分割する。部分データ群への分割は図11で示すように、2次元の格子状に分割し、図12で示すような階層構造にする。これは、空間的に近い領域は近いスペクトルの性質を持つであろうと考えられるため、空間的に近い領域を同じ部分データ群とするためである。
The
例えば入力画像が256×256画素(=65536データ)であって、出力する代表特徴の数kが1の場合で、各階層では、1階層下の2×2の領域のデータが1つのデータとなるように階層構造に分割する場合、256=28であるので、
G=(G1 (1),G2 (1),G3 (1),G4 (1))
Gi (1)=(Gi,1 (2),Gi,2 (2),Gi,3 (2),Gi,4 (2))
Gi,j (2)=(Gi,j,1 (3),Gi,j,2 (3),Gi,j,3 (3),Gi,j,4 (3))
…
Gi,…,k (7)=(Gi,…,k,1 (8),Gi,…,k,2 (8),Gi,…,k,3 (8),Gi,…,k,4 (8))
と、8階層に階層分割することができ、各階層を2×2の部分データ群に分割することができる。分割が終わるとこれらの部分データ群は部分データ群格納部23に格納される。
For example, when the input image is 256 × 256 pixels (= 65536 data) and the number k of representative features to be output is 1, in each layer, the data in the 2 × 2 region one layer below is one data. In order to divide into a hierarchical structure, since 256 = 2 8 ,
G = (G 1 (1) , G 2 (1) , G 3 (1) , G 4 (1) )
G i (1) = (G i, 1 (2) , G i, 2 (2) , G i, 3 (2) , G i, 4 (2) )
G i, j (2) = (G i, j, 1 (3) , G i, j, 2 (3) , G i, j, 3 (3) , G i, j, 4 (3) )
...
G i, ..., k (7 ) = (G i, ..., k, 1 (8), G i, ..., k, 2 (8), G i, ..., k, 3 (8), G i, … , K, 4 (8) )
And can be divided into 8 hierarchies, and each hierarchy can be divided into 2 × 2 partial data groups. When the division ends, these partial data groups are stored in the partial data
次に評価値計算部24は、複数の階層のうちその時点で未処理となっている階層で最も下位の階層を処理階層として、処理階層の部分データ群を部分データ群格納部23から取り出し、取り出された各部分データ群内の各データについて、当該部分データ群内の他のデータとの距離を計算する。部分データ群に対する処理は、階層ごとに実行されるが、一番最初には、評価値計算部24は、データ分割部22から部分データ群格納部23を介して渡された、最下位の階層に属する部分データ群に対して評価値算出の処理を実行する。
Next, the evaluation
画素Iaと画素Ibの距離としては、式(1)で表されるL2距離や、式(2)で表されるL1距離など任意の距離基準を用いることができる。なお、L2距離は、2次元ユークリッド空間での距離の定義に基づくものであって、一般的に距離として用いられているものである。 As the distance between the pixel I a and the pixel I b , any distance reference such as the L 2 distance represented by the expression (1) or the L 1 distance represented by the expression (2) can be used. The L 2 distance is based on the definition of the distance in the two-dimensional Euclidean space and is generally used as a distance.
評価値計算部24は、部分データ群内の各データについて、部分データ群内の他のデータとの距離の合計として、各データの評価値を求める。例えば、部分データ群が{(Ii,Ij,Ik,Il)}の4つのデータからなる場合、IaとIbの距離をDabとして、Iiの評価値Viを
The evaluation
として求め、同様にVj,Vk,Vlも他のデータとの距離の合計として求める。 Similarly, V j , V k , and V l are also obtained as the sum of distances from other data.
このようにして処理階層の各部分データ群の中の各データに対して評価値が算出されると、次にデータ選択部25は、部分データ群ごとにその部分データ群のデータの中から、評価値が最小のものを選択する。例えば、ある部分データ群が{(Ii,Ij,Ik,Il)}の4つのデータからなり、各データの評価値が{(Vi,Vj,Vk,Vl)}であるとし、{(Vi,Vj,Vk,Vl)}のうち最小のものがViであったとすると、データ選択部25は、この部分データ群の代表データをIiとする。
When the evaluation value is calculated for each data in each partial data group in the processing hierarchy in this way, the
処理階層の各部分データ群に関して代表データが選択されると、データ集約部26は、現在の処理階層が、予め定められている最上位の階層か否かを判定する。最上位の階層であった場合、データ集約部26はその代表データを出力部27へ通知する。一方、最上位でなかった場合、データ集約部26は、現在の処理階層より一つ上の階層について、部分データ群を作成する。上の階層の部分データ群は、データ選択部25により選択された現在の処理階層に属する代表データをいくつか集めたものからなる。上の階層の部分データ群を作成すると、データ集約部26はその作成した各部分データ群を部分データ群格納部22に格納することによって評価値計算部24に供給する。
When representative data is selected for each partial data group of the processing hierarchy, the
例えば入力画像が256×256画素(=65536データ)であって、出力する代表特徴の数kが1であり、各階層では1階層下の2×2のデータが1データとなるようにして、入力データを階層構造に分割する場合、1番下の階層には、それぞれが2×2のデータからなる部分データ群が16384(=128×128)個存在することになる。下から2番目の階層に対しては、最下位の階層の128×128個の代表データに基づいて、4096(=64×64)個の部分データ群が作成される。この処理を8階層にわたって行うことで、最上位の階層では、2×2個の部分データ群から1つの代表データを選ぶことになる。最上位の階層で目的の1つの代表データが得られるので、最終的にデータ集約部26は、この代表データを出力部27へ通知することになる。
For example, the input image is 256 × 256 pixels (= 65536 data), the number k of representative features to be output is 1, and in each layer, 2 × 2 data one layer below is one data, When the input data is divided into hierarchical structures, there are 16384 (= 128 × 128) partial data groups each consisting of 2 × 2 data in the lowest hierarchy. For the second layer from the bottom, 4096 (= 64 × 64) partial data groups are created based on 128 × 128 representative data of the lowest layer. By performing this process over 8 hierarchies, one representative data is selected from 2 × 2 partial data groups in the highest hierarchy. Since one target representative data is obtained at the highest hierarchy, the
出力部27として設けられているディスプレイは、代表データを表示する。
A display provided as the
この実施例1では、評価値計算部24において、各データの評価値として部分データ群内の他のデータとの距離の合計を計算し、データ選択部25では、部分データ群ごとに、その部分データ群のデータの中から、評価値が最小のものを選択するようにしている。そのため、代表値をヒストグラムを求めることで定める方法と異なり、データ数に比べて特徴の次元が高い場合であっても、確実に代表データを求めることができる。
In the first embodiment, the evaluation
ヒストグラムを求めて代表データを定める場合、ヒストグラムにおける一つの区切りに十分な数のデータが入るだけのデータがなければ、正しく代表データを求めることができない。例えばデータ数が少なく、一つの区切りに入るデータの数が1つとか2つになった場合、たまたまデータが2つ入った区切りが代表として選ばれてしまい、全体を代表するものとはならない。このことは特徴の次元が多くなると顕著となる。なぜならば、次元の数のべき乗に比例して区切りの数が増えるからである。一つの特徴を100に区切る場合、1次元の特徴であれば100個の区切りができるが、60次元の特徴であれば10060個(=10120個)の区切りができることになる。 When the representative data is determined by obtaining the histogram, the representative data cannot be obtained correctly if there is not enough data to contain a sufficient number of data at one segment in the histogram. For example, when the number of data is small and the number of data that falls within one segment is one or two, the segment that happens to contain two data is selected as a representative and does not represent the whole. This becomes more prominent as the feature dimension increases. This is because the number of breaks increases in proportion to the power of the number of dimensions. When one feature is divided into 100, one-dimensional features can be divided into 100 pieces, but 60-dimensional features can be divided into 100 60 pieces (= 10 120 pieces).
ヒストグラムを用いる方法と比べ、実施例1の方法であれば、特徴量における次元が高くても必らず代表データを求めることが可能である。 Compared with the method using the histogram, the method according to the first embodiment can always obtain representative data even if the dimension of the feature amount is high.
また本実施例では、評価値計算部24が各データの評価値として部分データ群内の他のデータとの距離の合計を計算し、データ選択部25が部分データ群ごとにその部分データ群のデータの中から評価値が最小のものを選択する、ということを階層的に行うようにしている。そのため、データに外れ値が含まれていても、安定して代表特徴を抽出することができる。
Further, in this embodiment, the evaluation
これに対して平均値を代表特徴とする場合、平均値には外れ値の影響が含まれることになる。通常、平均値を計算する場合、平均を求めるという操作そのものの性質から、距離の離れたものの影響が大きくなるので、外れ値の影響がどうしても大きくなってしまうという問題がある。 On the other hand, when the average value is used as a representative feature, the average value includes the influence of an outlier. Usually, when calculating an average value, the influence of the distance is increased due to the nature of the operation itself of obtaining the average, so that there is a problem that the influence of the outlier is inevitably increased.
本実施例の場合、例えば、図13に示すように最下層の部分データ群が{(I1,I2,I3,I4)}の4つのデータからなるとし、I4はノイズの影響による外れ値を含んでいるデータとする。各データ間の距離をDijとする。I4は外れ値を含んでいるデータであるので、距離D14,D24,D34は、距離D12,D13,D23と比べ大きくなる。よって、他のデータとの距離の合計である各データの評価値(V1,V2,V3,V4)のうちV4は、その他の評価値(V1,V2,V3)に比べて大きくなる。評価値が小さいものを代表データとするので、この場合、データI4が代表データとして選ばれることはない。そのため、本実施例によれば、外れ値を含むデータが代表データとして上の階層に伝播する可能性は非常に低い。このような選択を階層的に行うことにより、実施例1によれば、ノイズ等の影響を受けて外れ値を含むようなデータが上位の階層のデータに含まれることがなくなり、安定して代表特徴を抽出することができる。 In the case of the present embodiment, for example, as shown in FIG. 13, it is assumed that the lowermost partial data group consists of four data of {(I 1 , I 2 , I 3 , I 4 )}, and I 4 is the influence of noise. It is assumed that the data contains outliers. Let D ij be the distance between each data. Since I 4 is data including outliers, the distances D 14 , D 24 , and D 34 are larger than the distances D 12 , D 13 , and D 23 . Therefore, among the evaluation values (V 1 , V 2 , V 3 , V 4 ) of each data, which is the total distance from other data, V 4 is the other evaluation values (V 1 , V 2 , V 3 ). Larger than In this case, the data I 4 is not selected as the representative data because the data having a small evaluation value is used as the representative data. Therefore, according to the present embodiment, there is a very low possibility that data including outliers will be propagated to the upper hierarchy as representative data. By performing such selection hierarchically, according to the first embodiment, data that includes an outlier due to the influence of noise or the like is not included in the data of the higher hierarchy, and can be represented stably. Features can be extracted.
さらに本実施例には、ノイズ等による外れ値だけでなく、性質の異なる極小数のデータの影響も受けないという効果もある。例えば、海面を撮影した画像から溺れている人を探すために、海面自体のスペクトルを代表特徴として抽出する場合、単純に平均をとると、海面だけではなく、検出対象の溺れた人などの海面自体以外のものも含めた平均を代表特徴としてしまうことになる。この実施例によれば、階層的にデータを選別し、下の階層で性質の異なるものを排除することで、最終的に性質の異なるものを含めずに代表特徴を選択することができる。 Furthermore, this embodiment has an effect that it is not affected by not only outliers due to noise or the like, but also a minimum number of data having different properties. For example, in order to search for a drowning person from an image of the sea surface, when the spectrum of the sea surface itself is extracted as a representative feature, simply taking the average, not only the sea surface but also the sea surface of a drowning person or the like to be detected The average including things other than itself will be the representative feature. According to this embodiment, by selecting data hierarchically and excluding those having different properties in the lower hierarchy, it is possible to finally select representative features without including those having different properties.
さらに本実施例には、高速に代表特徴を選択できるという効果もある。 Furthermore, this embodiment also has an effect that the representative feature can be selected at high speed.
例えば、入力データがN=a×b個のデータからなるとする。階層化することなくデータごとに他のデータとの距離を全て求めるとすると、ab(ab−1)/2回の距離計算が必要となる。 For example, it is assumed that the input data consists of N = a × b data. If all distances to other data are obtained for each data without hierarchization, ab (ab-1) / 2 distance calculation is required.
これに対し、n=a×b個のデータをそれぞれがb個のデータからなるa個の部分データ群へと1階層に分割するものとする。b個のデータからなる部分データ群内の距離計算の回数がb(b−1)/2回であり、これがa個の部分データ群のそれぞれごとに実行するので、1階層目の距離計算は全部でab(b−1)/2回である。2階層目の距離計算は、a個のデータ内の距離計算であるので、a(a−1)/2回である。よって、階層化することで、ab(b−1)/2+a(a−1)/2回の計算で済むことなる。階層化しない場合と階層化する場合とでの距離計算回数の差はa(b2−1)(a−1)となる。ここでa,bは1より大きいので、階層化により必らず計算量は削減されることになる。ここでは1階層に分割する場合の計算量を示したが、複数の階層に分割すると、計算量についてのより大きな削減効果を得ることができる。 On the other hand, it is assumed that n = a × b data is divided into one partial data group each consisting of b data. The number of distance calculations in the partial data group composed of b data is b (b-1) / 2 times, and this is executed for each of the a partial data groups. The total is ab (b-1) / 2 times. The distance calculation in the second layer is a (a-1) / 2 times because it is a distance calculation within a data. Therefore, by hierarchizing, calculation of ab (b-1) / 2 + a (a-1) / 2 is sufficient. The difference in the number of distance calculations between the case of not hierarchizing and the case of hierarchization is a (b 2 −1) (a−1). Here, since a and b are larger than 1, the calculation amount is inevitably reduced by hierarchization. Here, the calculation amount in the case of dividing into one layer is shown, but if it is divided into a plurality of layers, a larger reduction effect on the calculation amount can be obtained.
上述の実施例1では、最終的に求める代表特徴の数Kを1とし、全体を一つの特徴で象徴させるようにしているが、Kを1よりも大きな値とし、複数あるいは多数の代表特徴を抽出してもよい。例えば、画像を4×4画素ごとに区切った領域ごとに代表特徴を選択することで、画像を16分の1に縮小した圧縮画像とすることもできる。入力データが異なる性質を有する複数の要素からなることが想定される場合には、全体を一つの特徴で代表させるよりも、複数の代表特徴を求め、性質の異なる複数の要素をそれぞれ代表させるようにする方が好ましい。 In the first embodiment, the number K of representative features to be finally obtained is set to 1, and the whole is symbolized by one feature. However, K is set to a value larger than 1, and a plurality of representative features or a plurality of representative features are represented. It may be extracted. For example, by selecting a representative feature for each area obtained by dividing the image into 4 × 4 pixels, the image can be reduced to 1/16. If the input data is assumed to consist of multiple elements with different properties, rather than representing the whole as a single feature, obtain multiple representative features and represent each of multiple elements with different properties. Is preferable.
上述の説明では、部分データ群を求めるために2次元空間を連続する正方格子状に分割したが、例えば長方形格子や、三角形格子、六角形格子など、他の形状を用いて2次元空間を階層的に分割することも可能である。あるいは所定数の画素おきに分割するなど、空間的に不連続に分割することも可能である。 In the above description, in order to obtain the partial data group, the two-dimensional space is divided into continuous square lattices, but the two-dimensional space is hierarchized using other shapes such as a rectangular lattice, a triangular lattice, and a hexagonal lattice. It is also possible to divide automatically. Alternatively, it is possible to divide spatially discontinuously, such as dividing every predetermined number of pixels.
本実施例では、分割に際しては、隙間なくかつ重なりなく分割したが、隙間や重なりがあるように分割することも可能である。隙間があって全てのデータを利用しない場合であっても、あるいは重なりがある場合であって、全体の特徴を求めることはできる。例えば、一般に2のべき乗に分割するとコンピュータでの実装が容易であるため、入力データ数が2の巾乗でない場合には、端数を含めないようにすることも可能である。同様に、入力データにある程度の一様性が仮定できるのであれば、重なりがあっても影響は少ない。 In this embodiment, the division is performed without gaps and without overlapping, but it is also possible to divide so that there are gaps or overlaps. Even if there is a gap and not all data is used, or there is an overlap, it is possible to obtain the overall characteristics. For example, in general, division into powers of 2 makes it easy to implement on a computer. Therefore, when the number of input data is not a power of 2, it is possible to exclude fractions. Similarly, if a certain degree of uniformity can be assumed in the input data, there is little influence even if there is an overlap.
上述の実施例1では、入力手段としてはハイパースペクトルカメラを用い、このカメラからコンピュータに対して画像データを直接入力したが、カメラとコンピュータとをネットワークを介して接続された別の場所に配置することも可能である。例えば航空機にカメラを積み、カメラからのデータを無線ネットワークを介して地上の管制基地に送信し、地上の管制基地のコンピュータによって代表特徴抽出を行うように構成することもできる。また、カメラからその場の画像をコンピュータに直接入力してリアルタイムで処理を行うように構成することもできるし、データを記憶装置に保存しておき、例えば問題発生後の事後調査のように、データ採取と代表特徴抽出とを別のタイミングで行うこともできる。 In the first embodiment described above, a hyperspectral camera is used as the input means, and image data is directly input from the camera to the computer. However, the camera and the computer are arranged in different locations connected via a network. It is also possible. For example, a camera may be mounted on an aircraft, data from the camera may be transmitted to a ground control base via a wireless network, and representative feature extraction may be performed by a computer on the ground control base. In addition, it can be configured to directly input the image from the camera to the computer for processing in real time, and the data is stored in the storage device, for example, a post-survey after a problem occurs, Data collection and representative feature extraction can be performed at different timings.
代表特徴の出力方法としては、本実施例で説明したディスプレイに代表特徴を表示するものだけでなく、ネットワークを通して電子的に他の装置へ代表特徴を通知する、あるいはハードディスク装置やUSB(Universal Serial Bus)メモリ等の記録媒体に代表特徴を記録するなど、任意の方法を用いることができる。 As a representative feature output method, not only the representative feature is displayed on the display described in this embodiment, but the representative feature is electronically notified to other devices through a network, or a hard disk device or USB (Universal Serial Bus) is used. ) Any method can be used, such as recording a representative feature on a recording medium such as a memory.
本実施例では、海面の画像から溺者や漂流物を検出するシステムのために代表特徴抽出システムを使用する場合を説明したが、土砂災害現場の画像から土砂ではないものを検出するために土砂を代表する特徴を抽出するシステムや、砂漠の画像からオアシスを検出するために砂漠を代表する特徴を抽出するシステムへも本実施例を同様に応用することができる。また、代表特徴の抽出の対象となるデータとしては、本実施例で用いたハイパースペクトルカメラによるスペクトルデータだけではなく、任意のデータを用いることができる。例えば、移動速度、滞在時間などの行動を表現する複数の特徴量を用いて行動を表現し、一連の行動履歴から代表的な行動を抽出し、代表的な行動と比較して異常な行動を検知し、障害発生などを検出する障害検知システムなどに本実施例を応用することができる。さらに、一語の発話音声を多次元ベクトルとして表現し、一連の会話から、通常の会話にみられる発話を代表特徴として検出して、代表特徴と異なる会話を検出することで、犯罪捜査等にも本実施例を応用することもできる。さらにまた、通常ではないデータを検出する異常検知のための代表特徴選択だけでなく、画像を圧縮するために、その画像の特徴をよく表す代表画素を選択することにも本実施例は応用可能である。本実施例は、代表特徴を用いてデータの分類を行うことにも応用できる。 In this embodiment, the case where the representative feature extraction system is used for a system for detecting a deaf person or a drifting object from an image of the sea surface has been described. However, in order to detect non-sediment from an image of a sediment disaster site, The present embodiment can be similarly applied to a system that extracts a feature that represents a desert, and a system that extracts a feature that represents a desert in order to detect an oasis from a desert image. In addition, as the data from which representative features are extracted, not only spectral data obtained by the hyperspectral camera used in this embodiment but also arbitrary data can be used. For example, a behavior is expressed using a plurality of feature quantities expressing behavior such as moving speed and staying time, representative behavior is extracted from a series of behavior history, and abnormal behavior is compared with typical behavior. The present embodiment can be applied to a failure detection system that detects and detects the occurrence of a failure. Furthermore, by expressing speech speech of one word as a multidimensional vector, detecting utterances found in normal conversation as a representative feature from a series of conversations, and detecting conversations that differ from the representative feature, for criminal investigations, etc. The present embodiment can also be applied. Furthermore, this embodiment can be applied not only to selecting representative features for detecting abnormalities that detect unusual data, but also to selecting representative pixels that well represent the features of the image in order to compress the image. It is. The present embodiment can also be applied to classify data using representative features.
[実施例2]
実施例2は上述した第4の例示実施形態に対応するものである。この実施例2は、実施例1と同様のものであるが、図7に示すようにクラスタリング部28及びクラスタ代表抽出部29を備えている点で実施例1とは異なっている。また入力データについても異なる性質を有する複数の要素からなることが想定されるとし、最終的に求める代表特徴の数は複数とする。また、また代表データ数Kも2以上であるとする。
[Example 2]
Example 2 corresponds to the fourth exemplary embodiment described above. The second embodiment is similar to the first embodiment, but differs from the first embodiment in that a
例えば、画像を8×8画素ごとに区切った領域ごとに代表データを選択するものとすると、実施例1と同様の処理を行うことにより、クラスタリング部28へ入力されるデータは、入力画像を64分の1に縮小した代表データ(圧縮画像)となる。クラスタリング部28では、そこへの入力画像を特徴量の似通った部分画像(クラスタ)に分割する。例えば処理対象の画像が図14に示すように海の領域と砂浜の領域からなるとすると、クラスタリング部28は、入力画像全体をクラスタリング処理し、図15に示すように、海の領域と、砂浜の領域とに対応する2つの部分画像1,2に入力画像を分割する。クラスタリング処理には、例えばk−平均法(k-means)などの任意の方法を用いることができる。
For example, assuming that representative data is selected for each region obtained by dividing the image into 8 × 8 pixels, by performing the same processing as in the first embodiment, the data input to the
このようにクラスタが生成されたとしてクラスタ代表抽出部29は、作成されたクラスタごとに代表特徴を抽出する。例えば、図15に示すように海の領域と砂浜の領域とを示す二つのクラスタ(部分画像1,2)が作成された場合、図16においてスペクトル曲線で示すように、海を表すクラスタの代表値と砂浜を表すクラスタの代表値を求める。
As described above, the cluster
クラスタの代表値の求め方としては、評価値計算部24及びデータ選択部25での処理と同様に、他のデータまでの距離の合計が最小となるデータを代表値とする方法がある。あるいは、クラスタ内のデータの平均値として代表値を求めることもできる。本実施例の場合、クラスタリングを行う前に階層的に代表特徴を選択しており、外れ値のデータや少数の性質の異なるデータは予め除かれている。また、似た性質を持つクラスタへ分割されている。そのため、1つのクラスタ内にはほぼ同じ性質を持つデータのみが存在するたので、ここで平均を求めても、外れ値や性質の異なるデータに影響されることはない。
As a method of obtaining the representative value of the cluster, there is a method in which data having the minimum total distance to other data is used as the representative value, as in the processing in the evaluation
クラスタリングとしては、空間的な連続性を用いて似た領域に分割する方法を用いてよいし、空間的な連続性は用いずにスペクトルの類似性だけで似た領域に分割する方法を用いてもよい。図16で示すような、入力画像が空間的に区別できる複数の領域からなる場合には、空間的な連続性を用いて似た領域に分割する方が、好ましい代表特徴を選択することができる。一方、森の中から部分的に土が見えているような画像を入力画像とする場合には、空間的な連続性を用いずにスペクトルの類似性だけに着目することで、入力画像を森の木と土のそれぞれにクラスタリングすることができる。 For clustering, a method of dividing into similar regions using spatial continuity may be used, or a method of dividing into similar regions using only spectral similarity without using spatial continuity. Also good. When the input image is composed of a plurality of regions that can be spatially distinguished as shown in FIG. 16, it is possible to select a representative feature that is preferable to divide into similar regions using spatial continuity. . On the other hand, when the input image is an image in which the soil is partially visible from the forest, the input image is converted into the forest by focusing only on the spectral similarity without using spatial continuity. Can be clustered on each tree and soil.
このような実施例2によれば、特徴量の似通ったクラスタに入力画像を分割し、各クラスタに対して代表特徴抽出を行うことで、入力画像がいくつかの異なった性質を持つ複数の領域からなる場合にも対応できるようになる。 According to the second embodiment, the input image is divided into clusters having similar feature amounts, and representative feature extraction is performed on each cluster, so that the input image has a plurality of regions having several different properties. It will be possible to cope with the case of consisting of.
本実施例では、クラスタリングの前に階層的な選択を行っているので、入力画像を高速に処理することが可能となる。階層的な選択を行わずに入力データに対してクラスタリングを直接行うことも考えられる。しかしながら、k−平均法などのクラスタリングアルゴリズムは繰り返し演算を使用するので、非常に処理時間のかかるアルゴリズムである。したがって階層的な選択をあらかじめ行い、クラスタリング対象のデータ数を減らしておくことで、大幅な高速化が実現できる。 In this embodiment, since hierarchical selection is performed before clustering, an input image can be processed at high speed. It is also conceivable to perform clustering directly on input data without performing hierarchical selection. However, since a clustering algorithm such as the k-means method uses repetitive operations, it is an extremely time-consuming algorithm. Therefore, significant speedup can be realized by performing hierarchical selection in advance and reducing the number of data to be clustered.
[実施例3]
実施例3は、図5を用いて説明した第3の例示実施形態に対応するものである。
[Example 3]
Example 3 corresponds to the third exemplary embodiment described with reference to FIG.
生起分布記憶部16は、各データIiの生起分布Q(X)=(q(1)(x),q(2)(x),…,q(D)(x))、つまり各特徴量vi (j)の生起分布q(j)(x)を記憶している。例えば、第j成分の特徴量の分布は、平均がm(j)であって分散がσ(j)である正規分布であるとか、あるいは、[min(j),max(j)]の間の一様分布である、といったことが生起分布記憶部16に記憶されている。特徴量vi (j)は生起分布記憶部16に記憶された分布に従って生起するとする。撮影対象についての事前知識に基づいて平均や分散等のパラメータを含めて事前に生起分布を与えることもできるし、分布の形状だけは既知であるとした上で、平均や分散等のパラメータを実際に入力されたデータから求めることにより生起分布を与えることもできる。さらに、生起分布についての事前知識が得られない場合や、事前知識から生起分布を定められない場合には、一様分布を仮定し、その一様分布の最大値max(j)、最小値min(j)を実際に入力された全ての画像のデータの第j成分の最大値、最小値から定めることもできる。
The occurrence
評価値計算部13は、生起分布記憶部16に記憶されている生起分布Q(x)を用いて仮想的に生成した値がデータIaとIbの間の値となる確率P(Ia,Ib)として、これらのデータIaとIbの距離を定義する。第j成分の生起分布がq(j)(x)であるので、生起分布から仮想的に生成されるパターンの第j成分の値がデータIaの第j成分の値va (j)とIbの第j成分の値vb (j)の間の値となる確率p(va (j),Ib (j))は、式(4)で表される。よって、仮想的に生成した値がIaとIbの間の値となる確率P(Ia,Ib)は、各成分の生起分布が独立であるとすると、式(5)によって表される。通常の場合、距離についてその値が大きいほど二つのデータは異なっており、値が小さいほど二つのデータが近いと言える。式(5)で定義した確率も、その値が小さいということは、二つの値の間にあたる値を取る事象がめったに起こらない、つまり二つのデータの間が距離が短く、二つのデータが類似していることを表している。逆に確率値が大きいということは、二つのデータの値の間の値を取る事象が珍しくない、つまり二つのデータの間が距離が長く、二つのデータが非類似であることを表わしている。
The evaluation
IiとIRの距離D(Ii,IR)として、この確率pの対数をとることで、式(6)のようにすることもできる。対数関数(log)は単調増加関数であるため、対数をとっても距離としての性質に変化はない。 By taking the logarithm of this probability p as the distance D (I i , I R ) between I i and I R , it is also possible to obtain equation (6). Since the logarithmic function (log) is a monotonically increasing function, even if the logarithm is taken, the property as a distance does not change.
ここで、式(1)で表される一般的な距離を用いる場合と比較し、本実施例で規定するような距離を用いることの効果について、図17を用いて説明する。 Here, as compared with the case of using the general distance represented by Expression (1), the effect of using the distance as defined in this embodiment will be described with reference to FIG.
例えば第d成分に相当するセンサに欠損が生じたり、ノイズの影響で外れ値をとったりすることで、本来、IiとIRは似たデータであるにもかかわらず、それらのデータにおける第d成分の差(vi (d)−vR (d))が大きな値になったとする。図17において、横軸が第n成分を示し、縦軸が第n成分の特徴量の値を示している。データISはIRと同じ対象のデータであるが、ISの第d成分にノイズが入り、特徴量vS (d)が外れ値となっている。データITはIRとは別の対象のデータであり、IRとは全体的に異なる特徴量となっている。しかしながら、通常の距離L2を用いる場合には、vS (d)が外れ値であるため、(vS (d)−vR (d))2が非常に大きな値となり、第d成分以外の特徴量がほぼ同じ値であるにもかかわらず、距離L2(IS,IR)は大きな値となり、その結果、データISとIRは似ていないと判定されてしまう。一方、ITとIRは全体的に少しずつ異なるが、大きな差のある成分がないため、距離L2(IT,IR)はそれほど大きくならず、ITとIRは、ISとIRより似ていると判断されてしまう。 For example, when a sensor corresponding to the d-th component is lost or an outlier is taken under the influence of noise, I i and I R are originally similar data, but the d-th data in those data is similar. It is assumed that the component difference (v i (d) −v R (d) ) becomes a large value. In FIG. 17, the horizontal axis indicates the nth component, and the vertical axis indicates the value of the feature amount of the nth component. The data I S is the same target data as I R , but noise enters the d-th component of I S , and the feature value v S (d) is an outlier. Data I T is the data of another subject and I R, has a totally different characteristic amount from the I R. However, when the normal distance L 2 is used, since v S (d) is an outlier, (v S (d) −v R (d) ) 2 becomes a very large value, except for the d-th component. The distance L 2 (I S , I R ) is a large value even though the feature values of are substantially the same, and as a result, it is determined that the data I S and I R are not similar. On the other hand, although I T and I R are slightly different as a whole, since there is no component having a large difference, the distance L 2 (I T , I R ) is not so large, and I T and I R are I S It would be judged to be similar than I R and.
一方、本実施例で用いる式(6)で示される距離の場合、第d成分の寄与を考えると、外れ値のためvS (d)とvR (d)の差が大きくなったときにp(vS (d),vR (d))が1に近くなり、式(6)の第d成分の対数値log(p(vS (d),vR (d)))は0に近くなる。そのため、外れ値を含む第d成分の全体への寄与は小さくなる。それ以外の外れ値を含まない第i成分(i≠d)については、vS (i)とvR (i)の差が小さく、p(vS (i),vR (i))は0に近くなり、式(6)の第i成分の対数値log(p(vS (i),vR (i)))は小さな値(絶対値が大きな負の値)となる。外れ値を含む第d成分が0で、外れ値を含まない成分が絶対値の大きな負の値であるため、その合計D(IS,IR)は絶対値の大きな負の値となり、本実施例で定義する距離としては小さな値となる。したがってデータISとIRは似ていると判断される。一方、ITとIRは全体的に異なるため、全ての成分についてp(vT (i),vR (i))が1に近い値となり、式(6)の各成分の対数値log(p(vT (i),vR (i)))はいずれも0に近くなる。0に近い値を加えてもやはり0に近い値となるため、D(IT,IR)は0に近い値となる。式(6)で表される距離は、0が最大値であるので、データITとIRの距離は大きな値となる。 On the other hand, in the case of the distance represented by the equation (6) used in the present embodiment, when the contribution of the d-th component is considered, when the difference between v S (d) and v R (d) increases due to an outlier. p (v S (d) , v R (d) ) becomes close to 1, and the logarithmic value log (p (v S (d) , v R (d) )) of the d-th component in equation (6) is 0. Close to. For this reason, the contribution to the entire d-th component including outliers is reduced. For the i-th component (i ≠ d) that does not include any other outlier, the difference between v S (i) and v R (i) is small, and p (v S (i) , v R (i) ) is The logarithmic value log (p (v S (i) , v R (i) )) of the i-th component of Equation (6) becomes a small value (a negative value with a large absolute value). Since the d-th component including outliers is 0 and the component not including outliers is a negative value having a large absolute value, the sum D (I S , I R ) is a negative value having a large absolute value. The distance defined in the embodiment is a small value. Thus data I S and I R are determined to be similar. On the other hand, since I T and I R are totally different, p (v T (i) , v R (i) ) becomes a value close to 1 for all components, and logarithmic value log of each component in Equation (6) (p (v T (i) , v R (i) )) are both close to zero. Even if a value close to 0 is added, it is also close to 0, so D (I T , I R ) is close to 0. Distance represented by the formula (6), since 0 is the maximum value, the distance data I T and I R becomes a large value.
式(6)で示す距離の持つこの性質により、特徴量の一部に欠損や外れ値がある場合にもそのことの影響を受けにくくなる。したがって実施例3の手法は、入力データに外れ値が含まれていても安定して代表特徴を抽出することができるという性質を有する。 Due to this property of the distance shown in Equation (6), even if there is a deficiency or outlier in a part of the feature amount, it is less susceptible to that. Therefore, the method of the third embodiment has a property that a representative feature can be stably extracted even if an outlier is included in input data.
同様に、式(6)で示す距離の持つ、差が大きな成分の全体に対する寄与は小さくなるという性質により、本実施例の手法は、特徴の次元が高い場合でも安定して代表特徴を抽出することができるという性質を有する。 Similarly, due to the property that the contribution of the component having a large difference with the distance represented by Equation (6) is small, the method of this embodiment stably extracts representative features even when the feature dimension is high. It has the property that it can.
これに対して式(1)に示す通常の距離L2を用いる場合には、特徴の次元が高くなると安定して代表特徴を抽出できなくなる。一般に、通常の距離L2を用いる場合には、次元が高くなるとデータの近さの判定が不安定となると言われている。高次元では通常の距離による近さの判定が不安定になることの原因は、通常の距離尺度では、Dが大きな自然数であるとして、D次元パターンの各成分のうち、距離が小さい成分の寄与が、距離が大きい成分の寄与に比べてはるかに小さくなることにある。距離が小さい成分の寄与よりも、外れ値のような距離が大きい成分の微小変化の影響の方が大きくなり、近さの判定の不安定性を引き起こしている。また、次元Dが大きくなると距離が大きい成分が現れる確率が高くなるため、高次元パターンではこのような近傍判定の不安定性が生じる確率が高くなる。 On the other hand, when the normal distance L 2 shown in the equation (1) is used, the representative feature cannot be extracted stably when the feature dimension becomes high. In general, when the normal distance L 2 is used, it is said that the determination of data proximity becomes unstable as the dimension increases. The reason why the determination of the proximity based on the normal distance becomes unstable in the high dimension is that the normal distance scale assumes that D is a large natural number, and among the components of the D-dimensional pattern, the contribution of the component with the smaller distance Is much smaller than the contribution of components with large distances. The influence of a minute change of a component with a large distance, such as an outlier, is greater than the contribution of a component with a small distance, causing instability in proximity determination. In addition, since the probability that a component having a large distance will appear as the dimension D increases, the probability that such instability of neighborhood determination will occur in a high-dimensional pattern increases.
これに対して本実施例にように任意パターンの特徴量の生起分布から仮想的にパターンを発生させた場合に、各データごとに、各データの特徴量よりも正常データに近いパターンとなる確率は、特徴量の差の大きな成分については1に近くなる。1に近いほど影響が小さいので、特徴量の差の大きな成分の他の成分への影響が小さくなり、このため、他の成分が似ていれば二つのパターン間の距離は小さくなる。このように、次元が高くなっても、本実施例の方法によれば、距離が不安定となることはない。 On the other hand, when a pattern is virtually generated from the occurrence distribution of the feature quantity of an arbitrary pattern as in the present embodiment, the probability that the pattern is closer to normal data than the feature quantity of each data for each data Is close to 1 for components with large differences in feature quantities. The closer the value is to 1, the smaller the influence is. Therefore, the influence of the component having a large feature amount difference on the other component is reduced. For this reason, if the other components are similar, the distance between the two patterns is reduced. Thus, even if the dimension is increased, according to the method of this embodiment, the distance does not become unstable.
ここでは、特徴が複数の特徴量からなる高次元ベクトルとして表せる場合で、複数の特徴量のうちのある特徴量に外れ値が含まれる場合に対する効果を示した。次に、複数のデータのうちに異常なデータが含まれる場合に対する本実施例の効果を説明する。 Here, an effect is shown in the case where the feature can be expressed as a high-dimensional vector composed of a plurality of feature amounts, and an outlier is included in a certain feature amount of the plurality of feature amounts. Next, the effect of the present embodiment for the case where abnormal data is included in a plurality of data will be described.
図13に示すように、{(I1,I2,I3,I4)}の4つのデータから代表値を選ぶ場合に、I4はノイズの影響による外れ値を含んでいるデータであるとする。各データ間の距離をDijとする。I4は外れ値を含んでいるデータであるので、距離D14,D24,D34は距離D12,D13,D23と比べて大きくなる。 As shown in FIG. 13, when a representative value is selected from four data of {(I 1 , I 2 , I 3 , I 4 )}, I 4 is data including an outlier due to the influence of noise. And Let D ij be the distance between each data. Since I 4 is data including outliers, the distances D 14 , D 24 , and D 34 are larger than the distances D 12 , D 13 , and D 23 .
先に述べたように、通常の距離L2を使う場合、離れているものの影響が大きいので、例えばI2から他のデータへの距離の合計を考えると、D12やD23に比べD24ははるかに大きくなってD24の影響は小さくなり、D12やD23の影響が大きくなる。そのため、データの密集しているI1,I2,I3の位置関係を中心にして評価値が定まることとなり、外れ値を除いた、データの性質をよく表す代表特徴が選ばれることになる。 As described above, when the normal distance L 2 is used, since the influence of the distance is large, for example, when considering the total distance from I 2 to other data, D 24 compared to D 12 and D 23. Becomes much larger and the influence of D 24 becomes smaller, and the influence of D 12 and D 23 becomes larger. Therefore, the evaluation value is determined centering on the positional relationship between I 1 , I 2 , and I 3 where the data is dense, and representative features that express the properties of the data excluding outliers are selected. .
[実施例4]
次に実施例4について説明する。実施例4は、実施例1と同様のものであるが、実施例3に示した生起分布記憶部16をさらに備え、評価値計算部24では実施例3における評価値計算部13と同様の手順で距離が算出され評価値が求められる点で、実施例1のものとは相違している。図18は、このような実施例4における代表特徴抽出システムの構成を示している。
[Example 4]
Next, Example 4 will be described. The fourth embodiment is the same as the first embodiment, but further includes the occurrence
生起分布記憶部16は、入力が想定される特徴量の生起分布を記憶している。また、実施例1と同様に、入力データは複数の階層の部分データ群に分割されてデータは階層的に処理される。すなわちデータ分割部22は、入力データを複数の部分データ群に階層的に分割し、評価値計算、データ選択を階層的に行えるようにしている。評価値計算部24及びデータ選択部25は、階層ごとの各部分データ群の中の各データについて、その部分データ群の中の他のデータとの類似度を表す距離を計算し、その距離を用いて各データの評価値を求める。ここでの距離は、生起分布記憶部16に記憶されている生起分布から仮想的にパターンを発生させた場合に、そのパターンの値が比較しようとしている二つのデータの値の間の値となる確率とするものである。データ集約部26は、部分データ群ごとの代表データを集め、それに基づいて次の階層の部分データ群を作成することで、評価値計算及びデータ選択を階層的に行えるようにする。
The occurrence
このような実施例4は、実施例1に基づく階層的な代表特徴選択と実施例3に基づく生起分布に基づく評価値算出とを組み合わせたものであるため、両方の実施例に基づく効果を合わせ持つ。 In the fourth embodiment, since the hierarchical representative feature selection based on the first embodiment and the evaluation value calculation based on the occurrence distribution based on the third embodiment are combined, the effects based on both the embodiments are combined. Have.
具体的には、本実施例によれば、階層構造を用いることにより、外れ値を含むデータや性質の異なる少数のデータの影響が下位の階層から上位の階層に伝播することがないので、実施例1の場合と同様に、外れ値や性質の異なる少数のデータの影響を受けずに代表特徴を抽出することができる。階層構造を用いることのほかに、生起分布から仮想的にパターンを発生させたとして現在の比較対象の2つのデータの値の間の値をそのパターンが取る確率を用いることにより、実施例3と同様に、外れ値や性質の異なる少数のデータの影響をより受けにくくなる。 Specifically, according to the present embodiment, by using a hierarchical structure, the influence of data including outliers or a small number of data having different properties is not propagated from a lower hierarchy to an upper hierarchy. As in the case of Example 1, the representative feature can be extracted without being affected by a small number of data having different outliers and properties. In addition to using a hierarchical structure, the probability that the pattern takes a value between two values of the current comparison target data as a virtual pattern generated from the occurrence distribution is used. Similarly, it is less likely to be affected by a small number of data with different outliers and properties.
階層的に計算し、かつ距離の総和によって代表特徴を求めることにより、実施例1と同様に、データ数が少なくても代表特徴を求めることができ、また、高速に代表特徴を求めることができる。 By calculating hierarchically and obtaining the representative feature by the sum of distances, the representative feature can be obtained even when the number of data is small, and the representative feature can be obtained at high speed, as in the first embodiment. .
生起分布から仮想的にパターンを発生させたとして現在の比較対象の2つのデータの値の間の値をそのパターンが取る確率を用いることにより、実施例3と同様に、特徴が高次元になっても安定して代表特徴を求めることができる
なお、実施例4においては、実施例2と同様に、クラスタリング部とクラスタ代表抽出部を追加することも可能である。その場合には、入力画像が異なった性質を有する複数の領域からなる場合にも安定して代表特徴を抽出できるようになる。
By using the probability that the pattern takes a value between the two values of the current comparison target, assuming that the pattern is virtually generated from the occurrence distribution, the feature becomes high-dimensional as in the third embodiment. However, in the fourth embodiment, a clustering unit and a cluster representative extraction unit can be added as in the second embodiment. In that case, the representative feature can be stably extracted even when the input image is composed of a plurality of regions having different properties.
本発明は、例えば、画像・音声・スペクトルパターン・行動パターン等から代表特徴を抽出して、異常検知やデータ圧縮、分類等を行う技術分野に適用できる。 The present invention can be applied to a technical field in which, for example, representative features are extracted from images, sounds, spectrum patterns, behavior patterns, etc., and abnormality detection, data compression, classification, and the like are performed.
11,21 入力部
12 データ群格納部
13,24 評価値計算部
14,25 データ選択部
15,27 出力部
16 生起分布記憶部
22 データ分割部
23 部分データ群格納部
26 データ集約部
28 クラスタリング部
29 クラスタ代表抽出部
11, 21
Claims (16)
前記入力データを階層的に複数の部分データ群に分割する分割手段と、
処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群において当該部分データ群に含まれるデータごとに当該データから当該部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求める評価値算出手段と、
前記処理階層の各部分データ群について、当該部分データ群に含まれる前記データの中で前記評価値が最小のものを代表データとして選択するデータ選択手段と、
前記処理階層が最上位の階層であれば前記データ選択手段が選択した前記代表データを前記入力データに対する前記代表特徴とし、前記処理階層が最上位の階層以外の階層であるときには、前記データ選択手段が選択した前記代表データを集約して前記処理階層より1階層上の階層の部分データ群を生成する集約手段と、
入力が想定される特徴量についての生起分布を記憶する生起分布記憶手段と、
を有し、
前記評価値計算手段は、2つのデータ間の距離を、前記生起分布によって仮想的にパターンを発生させた場合に当該パターンによるデータ値が前記2つのデータの値の間に存在する確率として求める、代表特徴抽出システム。 A representative feature extraction system that selects representative features from input data,
Dividing means for dividing the input data hierarchically into a plurality of partial data groups;
The distance from the data to other data included in the partial data group for each data included in the partial data group in each partial data group of the processing hierarchy, with the lowest hierarchy among the unprocessed hierarchies An evaluation value calculating means for calculating an evaluation value by calculating a sum of
For each partial data group of the processing hierarchy, data selection means for selecting, as representative data, the one with the smallest evaluation value among the data included in the partial data group;
If the processing hierarchy is the highest hierarchy, the representative data selected by the data selection means is the representative feature for the input data, and if the processing hierarchy is a hierarchy other than the highest hierarchy, the data selection means Aggregating means for aggregating the representative data selected by and generating a partial data group in a hierarchy one layer higher than the processing hierarchy;
An occurrence distribution storage means for storing an occurrence distribution of a feature quantity assumed to be input;
I have a,
The evaluation value calculation means obtains a distance between two data as a probability that a data value according to the pattern exists between the two data values when a pattern is virtually generated by the occurrence distribution. Representative feature extraction system.
前記クラスタごとに代表特徴を抽出するクラスタ代表抽出手段と、
さらを有する、請求項1に記載の代表特徴抽出システム。 Clustering means for dividing the representative feature obtained by the aggregation means into clusters;
Cluster representative extraction means for extracting representative features for each cluster;
The representative feature extraction system of claim 1 further comprising:
前記部分データ群を格納する格納手段と、
前記代表特徴を出力する出力手段と、
さらに備える請求項1乃至5のいずれか1項に記載の代表特徴抽出システム。 Input means for reading the input data;
Storage means for storing the partial data group;
An output means for outputting the representative feature;
The representative feature extraction system according to any one of claims 1 to 5 , further comprising:
前記入力データを階層的に複数の部分データ群に分割することと、
処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群において当該部分データ群に含まれるデータごとに当該データから当該部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求め、前記評価値が最小のものを当該部分データ群の代表データとして選択することと、
前記処理階層が最上位の階層であれば前記選択された代表データを前記入力データに対する前記代表特徴とすることと、
前記処理階層が最上位の階層以外の階層であるときには、前記選択された代表データを集約して前記処理階層より1階層上の階層の部分データ群を生成し、前記評価値を求めることと前記代表データを選択することとを繰り返すことと、
を有し、
前記2つのデータ間の距離は、入力が想定される特徴量についての予め用意された生起分布によって仮想的にパターンを発生させた場合に当該パターンによるデータ値が前記2つのデータの値の間に存在する確率として表される、代表特徴抽出方法。 A representative feature extraction method for selecting a representative feature from input data,
Dividing the input data hierarchically into a plurality of partial data groups;
The distance from the data to other data included in the partial data group for each data included in the partial data group in each partial data group of the processing hierarchy, with the lowest hierarchy among the unprocessed hierarchies To calculate an evaluation value, selecting the smallest evaluation value as representative data of the partial data group,
If the processing hierarchy is the highest hierarchy, the selected representative data is the representative feature for the input data;
When the processing hierarchy is a hierarchy other than the highest hierarchy, the selected representative data is aggregated to generate a partial data group of a hierarchy one level higher than the processing hierarchy, and to obtain the evaluation value; Repeating representative data selection,
I have a,
The distance between the two data is such that when a pattern is virtually generated by an occurrence distribution prepared in advance for a feature quantity that is assumed to be input, the data value of the pattern is between the values of the two data. A representative feature extraction method expressed as a probability of existence .
前記クラスタごとに代表特徴を抽出することと、
をさらに有する、請求項7に記載の代表特徴抽出方法。 Clustering the representative features into clusters;
Extracting representative features for each cluster;
The representative feature extraction method according to claim 7 , further comprising:
入力データを階層的に複数の部分データ群に分割する処理と、
処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群において当該部分データ群に含まれるデータごとに当該データから当該部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求め、前記評価値が最小のものを当該部分データ群の代表データとして選択するデータ選択処理と、
前記処理階層が最上位の階層であれば前記選択された代表データを前記入力データに対する前記代表特徴とする処理と、
前記処理階層が最上位の階層以外の階層であるときには、前記選択された代表データを集約して前記処理階層より1階層上の階層の部分データ群を生成して前記データ選択処理を繰り返させる処理と、
を実行させ、
前記2つのデータ間の距離は、入力が想定される特徴量についての予め用意された生起分布によって仮想的にパターンを発生させた場合に当該パターンによるデータ値が前記2つのデータの値の間に存在する確率として表される、プログラム。 On the computer,
A process of hierarchically dividing the input data into a plurality of partial data groups;
The distance from the data to other data included in the partial data group for each data included in the partial data group in each partial data group of the processing hierarchy, with the lowest hierarchy among the unprocessed hierarchies A data selection process for calculating an evaluation value by calculating the sum of the above, selecting the smallest evaluation value as representative data of the partial data group,
If the processing hierarchy is the highest hierarchy, the selected representative data is the representative feature for the input data; and
When the processing hierarchy is a hierarchy other than the highest hierarchy, a process of aggregating the selected representative data to generate a partial data group of a hierarchy one level higher than the processing hierarchy and repeating the data selection process When,
Was executed,
The distance between the two data is such that when a pattern is virtually generated by an occurrence distribution prepared in advance for a feature quantity that is assumed to be input, the data value of the pattern is between the values of the two data. A program expressed as a probability of existence .
前記代表特徴をクラスタに分割するクラスタリングする処理と、
前記クラスタごとに代表特徴を抽出する処理と、
をさらに実行させる、請求項15に記載のプログラム。 In the computer,
Clustering to divide the representative features into clusters;
Processing for extracting representative features for each cluster;
The program according to claim 15 , further executing:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009156830A JP5391876B2 (en) | 2009-07-01 | 2009-07-01 | Representative feature extraction system, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009156830A JP5391876B2 (en) | 2009-07-01 | 2009-07-01 | Representative feature extraction system, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011013886A JP2011013886A (en) | 2011-01-20 |
JP5391876B2 true JP5391876B2 (en) | 2014-01-15 |
Family
ID=43592709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009156830A Expired - Fee Related JP5391876B2 (en) | 2009-07-01 | 2009-07-01 | Representative feature extraction system, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5391876B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5668157B1 (en) * | 2014-02-05 | 2015-02-12 | 佐鳥 新 | Object search device, object search program, and lifesaving search system |
JP6443393B2 (en) * | 2016-06-01 | 2018-12-26 | トヨタ自動車株式会社 | Action recognition device, learning device, method and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04247585A (en) * | 1991-02-04 | 1992-09-03 | Seiko Epson Corp | Pattern recognizing method |
JP3494306B2 (en) * | 1994-01-31 | 2004-02-09 | ソニー株式会社 | Motion amount detection method and motion amount detection device |
KR100378351B1 (en) * | 2000-11-13 | 2003-03-29 | 삼성전자주식회사 | Method and apparatus for measuring color-texture distance, and method and apparatus for sectioning image into a plurality of regions using the measured color-texture distance |
-
2009
- 2009-07-01 JP JP2009156830A patent/JP5391876B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011013886A (en) | 2011-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5333589B2 (en) | Representative feature extraction system and method | |
US10019657B2 (en) | Joint depth estimation and semantic segmentation from a single image | |
US8594385B2 (en) | Predicting the aesthetic value of an image | |
US8675974B2 (en) | Image processing apparatus and image processing method | |
US20170220864A1 (en) | Method for Implementing a High-Level Image Representation for Image Analysis | |
US9443314B1 (en) | Hierarchical conditional random field model for labeling and segmenting images | |
JP6378855B1 (en) | Image search system, image search method and program | |
JP6798619B2 (en) | Information processing equipment, information processing programs and information processing methods | |
Varnousfaderani et al. | Weighted color and texture sample selection for image matting | |
WO2010035659A1 (en) | Information processing apparatus for selecting characteristic feature used for classifying input data | |
JP7058941B2 (en) | Dictionary generator, dictionary generation method, and program | |
JP5591178B2 (en) | Method for classifying objects in test images | |
US9449395B2 (en) | Methods and systems for image matting and foreground estimation based on hierarchical graphs | |
JP5408139B2 (en) | Anomaly detection system, anomaly detection method and anomaly detection program | |
JP5180922B2 (en) | Image search system and image search method | |
CN113658100A (en) | Three-dimensional target object detection method and device, electronic equipment and storage medium | |
JP2015099563A (en) | Image processing apparatus, image processing method, and program | |
US20150356350A1 (en) | unsupervised non-parametric multi-component image segmentation method | |
CN115048969A (en) | Visual analysis system for evaluating, understanding and improving deep neural networks | |
JP5391876B2 (en) | Representative feature extraction system, method and program | |
JP6546385B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM | |
JP4434868B2 (en) | Image segmentation system | |
CN114565752A (en) | Image weak supervision target detection method based on class-agnostic foreground mining | |
JP2009193183A (en) | Device, method and program for image dictionary generation, and recording medium therefor | |
CN111768214A (en) | Product attribute prediction method, system, device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120611 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130917 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5391876 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |