JP5391876B2 - Representative feature extraction system, method and program - Google Patents

Representative feature extraction system, method and program Download PDF

Info

Publication number
JP5391876B2
JP5391876B2 JP2009156830A JP2009156830A JP5391876B2 JP 5391876 B2 JP5391876 B2 JP 5391876B2 JP 2009156830 A JP2009156830 A JP 2009156830A JP 2009156830 A JP2009156830 A JP 2009156830A JP 5391876 B2 JP5391876 B2 JP 5391876B2
Authority
JP
Japan
Prior art keywords
data
representative
hierarchy
partial
representative feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009156830A
Other languages
Japanese (ja)
Other versions
JP2011013886A (en
Inventor
啓 門田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009156830A priority Critical patent/JP5391876B2/en
Publication of JP2011013886A publication Critical patent/JP2011013886A/en
Application granted granted Critical
Publication of JP5391876B2 publication Critical patent/JP5391876B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、複数のデータからなるデータ群から当該データ群を代表する特徴データを抽出する代表特徴抽出システム、方法およびプログラムに関する。   The present invention relates to a representative feature extraction system, method, and program for extracting feature data representing a data group from a data group consisting of a plurality of data.

多数のデータからなるデータ群の中から、そのデータ群を代表する特徴を抽出する代表特徴抽出技術は、画像処理、画像認識、データマイニングなどの幅広い分野に応用される技術である。例えば、画像データから、画像全体や部分画像の性質をよく表す代表特徴を抽出し、代表特徴とその代表特徴に対する差分として画像を表現することで、画像を圧縮することができる。また、海面を上空から撮影した画像から、海面の画素値を代表する画素を抽出して代表特徴とし、さらに、代表特徴とは異なる画素を検出することにより、溺れた人や漂流物等を検出し、海難救助等へ応用することも可能である。さらにまた、それぞれが似通った行動パターンとなるように一連の行動パターンを部分パターンに分割し、各部分パターンごとにその部分パターンを代表する特徴を抽出することによって、代表特徴を用いて行動を解析する行動マイニング等への応用も可能である。   A representative feature extraction technique for extracting features representative of a data group from a large number of data groups is a technique applied to a wide range of fields such as image processing, image recognition, and data mining. For example, it is possible to compress an image by extracting representative features that well represent the characteristics of the entire image or partial image from the image data, and expressing the image as a difference between the representative feature and the representative feature. In addition, pixels that represent the pixel values of the sea surface are extracted from the image taken from the sky and used as representative features, and by detecting pixels that are different from the representative features, drowning people and drifting objects are detected. However, it can also be applied to maritime rescue. Furthermore, the behavior is analyzed using representative features by dividing the series of behavior patterns into partial patterns so that each becomes a similar behavior pattern, and extracting features that represent the partial patterns for each partial pattern. Application to action mining is also possible.

代表特徴抽出を行うものの例として特許文献1(特開2007−142883号公報)に記載された画像処理装置では、動きが似通ったグループに動きベクトルをグルーピングし、各グループごとに平均ベクトルを求めることによって、各グループを代表する代表ベクトルを求めている。特許文献2(特開平11−167634号公報)に記載の画像の領域分割方法では、画像の各画素のRGB値をヒストグラム化することによってその画像を色の似通った領域に分割し、各領域ごとに、平均色もしくは最頻色を求め代表色としている。特許文献3(特開2008−065803号公報)に記載の画像処理装置では、色空間でのヒストグラムの極大値を選択して代表色とし、代表色でもって表現することにより、入力画像中で使用されている色数を低減する限定色化の処理を行っている。   As an example of representative feature extraction, the image processing apparatus described in Patent Document 1 (Japanese Patent Application Laid-Open No. 2007-142883) groups motion vectors into groups with similar motions, and obtains an average vector for each group. Thus, a representative vector representing each group is obtained. In the image segmentation method described in Patent Document 2 (Japanese Patent Laid-Open No. 11-167634), the RGB values of each pixel of the image are histogrammed to divide the image into regions of similar colors, and for each region. The average color or the most frequent color is obtained as the representative color. In the image processing apparatus described in Patent Document 3 (Japanese Patent Application Laid-Open No. 2008-066583), a local maximum value of a histogram in a color space is selected as a representative color, and is expressed in the representative color, thereby being used in the input image. Limited color processing is performed to reduce the number of colors that are used.

なお、関連技術におけるデータの階層化に関するものとして、特許文献4(特開平9−294277号公報)に記載の予測符号化画像データ管理システムでは、画像データ列をそのデータ構造に応じて階層に分離し、分離された階層からその画像データが持つ物理的特徴を抽出し、画像を特徴づける特徴ベクトルを生成している。また、特徴ベクトルの類似度を算出し、類似度に応じて映像を構造化している。特許文献5(特開2006−338298号公報)に記載のマルチデータの分割管理方法では、メモリにおける小容量データの管理の効率化のために、分割データを階層化して管理している。特許文献6(特開平7−219968号公報)に記載の文書保存検索装置では、入力された文書データを視覚的な観点に基づいて複数の階層に分離して格納することにより、ページめくり形態で文書データを表示させる際に、目的とするページを高速で見つけ出せるようにしている。   As for data hierarchization in the related art, in the predictive encoded image data management system described in Patent Document 4 (Japanese Patent Laid-Open No. 9-294277), an image data string is separated into hierarchies according to the data structure. Then, a physical feature of the image data is extracted from the separated hierarchy, and a feature vector that characterizes the image is generated. Also, the similarity of the feature vectors is calculated, and the video is structured according to the similarity. In the multi-data division management method described in Patent Document 5 (Japanese Patent Laid-Open No. 2006-338298), division data is managed in a hierarchy in order to improve the efficiency of management of small-capacity data in a memory. In the document storage / retrieval apparatus described in Patent Document 6 (Japanese Patent Laid-Open No. 7-219968), the input document data is separated into a plurality of hierarchies and stored in a page turning form based on a visual viewpoint. When displaying document data, the target page can be found at high speed.

特開2007−142883号公報JP 2007-142883 A 特開平11−167634号公報JP-A-11-167634 特開2008−065803号公報JP 2008-0665803 A 特開平9−294277号公報JP-A-9-294277 特開2006−338298号公報JP 2006-338298 A 特開平7−219968号公報Japanese Patent Application Laid-Open No. 7-219968

上述した関連技術における代表特徴抽出技術のうち、特許文献1及び2には、特徴量の平均を求めて代表特徴とする方法が記載されている。しかしながら平均を用いて代表特徴を抽出する技術では、特徴量に外れ値がある場合に対応できない、という課題がある。外れ値とは、ノイズなどの影響によって本来の値から大きく外れてしまった値のことである。平均に対しては、その平均から距離の離れた特徴量の影響が大きく寄与するため、特徴量に外れ値がある場合に、特徴量の平均に基づいて適切な代表値を求めることができなくなる。   Of the representative feature extraction techniques in the related art described above, Patent Documents 1 and 2 describe a method of obtaining an average of feature amounts to obtain a representative feature. However, the technique of extracting representative features using an average has a problem that it cannot cope with a feature value having an outlier. An outlier is a value that deviates significantly from the original value due to the influence of noise or the like. For the average, the influence of the feature amount that is far from the average greatly contributes, and therefore, when there is an outlier in the feature amount, an appropriate representative value cannot be obtained based on the feature amount average. .

特許文献2,3には、ヒストグラムでの極大値や最大値を求めて代表特徴とする方法が記載されている。しかしながらヒストグラムを用いる方法では、データが疎の場合には対応できない、という課題がある。データが疎であり、同じ値をとるデータが少ない場合には、ヒストグラムを作成することができない。特に、特徴の次元が高い場合、相対的にデータは疎となるため、高次元の特徴を用いる場合には、ヒストグラムを作成することが困難となることが多い。   Patent Documents 2 and 3 describe methods for obtaining a maximum value and a maximum value in a histogram and using them as representative features. However, the method using the histogram has a problem that it cannot cope with sparse data. If the data is sparse and few data have the same value, a histogram cannot be created. In particular, when the dimension of the feature is high, the data is relatively sparse, and it is often difficult to create a histogram when using a high-dimensional feature.

そこで本発明の目的は、特徴量に外れ値がある場合に、あるいはデータが疎である場合にも対応できる代表特徴抽出システムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a representative feature extraction system that can cope with a case where there is an outlier in a feature amount or a case where data is sparse.

本発明の別の目的は、特徴量に外れ値がある場合に、あるいはデータが疎である場合にも対応できる代表特徴抽出方法を提供することにある。   Another object of the present invention is to provide a representative feature extraction method that can cope with the case where there is an outlier in the feature amount or the case where data is sparse.

本発明の代表特徴抽出システムは、入力データから代表特徴を選択する代表特徴抽出システムであって、入力データを階層的に複数の部分データ群に分割する分割手段と、処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群においてその部分データ群に含まれるデータごとにそのデータからその部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求める評価値算出手段と、処理階層の各部分データ群について、その部分データ群に含まれるデータの中で評価値が最小のものを代表データとして選択するデータ選択手段と、処理階層が最上位の階層であればデータ選択手段が選択した代表データを入力データに対する代表特徴とし、処理階層が最上位の階層以外の階層であるときには、データ選択手段が選択した代表データを集約して処理階層より1階層上の階層の部分データ群を生成する集約手段と、を有する。   The representative feature extraction system of the present invention is a representative feature extraction system that selects representative features from input data, and includes a dividing unit that hierarchically divides input data into a plurality of partial data groups, and a hierarchy that has not been processed. Using the lowest hierarchy as the processing hierarchy, for each partial data group in the processing hierarchy, for each data contained in the partial data group, the sum of distances from that data to other data contained in the partial data group is calculated and evaluated An evaluation value calculation means for obtaining a value, a data selection means for selecting, as representative data, the data with the smallest evaluation value among the data included in the partial data group for each partial data group in the processing hierarchy; If it is an upper hierarchy, the representative data selected by the data selection means is the representative feature for the input data, and the processing hierarchy is a hierarchy other than the highest hierarchy. Data selection means having a aggregation means for generating a partial data group is selected representative data aggregation and processing hierarchy than one layer on the hierarchy.

本発明の代表特徴抽出方法は、入力データから代表特徴を選択する代表特徴抽出方法であって、入力データを階層的に複数の部分データ群に分割することと、処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群においてその部分データ群に含まれるデータごとにそのデータからその部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求め、評価値が最小のものをその部分データ群の代表データとして選択することと、処理階層が最上位の階層であれば選択された代表データを入力データに対する代表特徴とすることと、処理階層が最上位の階層以外の階層であるときには、選択された代表データを集約して処理階層より1階層上の階層の部分データ群を生成し、評価値を求めることと代表データを選択することとを繰り返すことと、を有する。   The representative feature extraction method of the present invention is a representative feature extraction method for selecting a representative feature from input data. The representative feature extraction method divides input data hierarchically into a plurality of partial data groups and The evaluation value is calculated by calculating the sum of the distance from the data to the other data included in the partial data group for each data included in the partial data group in each partial data group of the processing hierarchy with the lower hierarchy as the processing hierarchy Selecting the one with the smallest evaluation value as the representative data of the partial data group, and if the processing hierarchy is the highest hierarchy, making the selected representative data the representative feature for the input data, and processing When the hierarchy is a hierarchy other than the highest hierarchy, the selected representative data is aggregated to generate a partial data group one hierarchy above the processing hierarchy and obtain an evaluation value Having a repeating and selecting the representative data.

本発明によれば、特徴量に外れ値がある場合にも代表特徴を安定して選択できるようになる。その理由は、各データ群内の他のデータとの距離の合計が最小となるデータを各データ群を代表するデータとすることを階層的に行っているからである。外れ値を含むデータは下位の階層において選択から外されるので、上位の階層では、外れ値を含まないデータから代表特徴を選択することになる。また本発明では、データが疎であっても代表特徴を求めることができる。その理由は、他のデータとの距離の合計を最小にするデータは、データ数にかかわりなく、必らず求めることができるからである。   According to the present invention, the representative feature can be stably selected even when the feature amount has an outlier. The reason is that the data having the minimum distance to other data in each data group is hierarchically set as data representing each data group. Since the data including outliers is excluded from the selection in the lower hierarchy, the representative feature is selected from the data including no outliers in the upper hierarchy. In the present invention, the representative feature can be obtained even if the data is sparse. The reason is that the data that minimizes the total distance to other data can always be obtained regardless of the number of data.

本発明の第1の例示実施形態の代表特徴抽出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the representative feature extraction system of the 1st exemplary embodiment of this invention. 図1に示すシステムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the system shown in FIG. 本発明の第2の例示実施形態の代表特徴抽出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the representative feature extraction system of the 2nd exemplary embodiment of this invention. 図3に示すシステムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the system shown in FIG. 本発明の第3の例示実施形態の代表特徴抽出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the representative feature extraction system of the 3rd exemplary embodiment of this invention. 図5に示すシステムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the system shown in FIG. 本発明の第4の例示実施形態の代表特徴抽出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the representative feature extraction system of the 4th exemplary embodiment of this invention. 図7に示すシステムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the system shown in FIG. 本発明のさらに別の例示実施形態の代表特徴抽出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the representative feature extraction system of another example embodiment of this invention. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. 分割方法の一例を示す図である。It is a figure which shows an example of the division | segmentation method. 階層構造の一例を示す図である。It is a figure which shows an example of a hierarchical structure. 処理対象の一例を示す図である。It is a figure which shows an example of a process target. 処理対象の一例を示す図である。It is a figure which shows an example of a process target. クラスタリング結果の一例を示す図である。It is a figure which shows an example of a clustering result. 部分画像ごとの代表データの一例を示す図である。It is a figure which shows an example of the representative data for every partial image. 処理対象の一例を示す図である。It is a figure which shows an example of a process target. 実施例4での代表特徴抽出システムの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a representative feature extraction system according to a fourth embodiment.

次に、発明を実施するための形態について、図面を参照して詳細に説明する。   Next, embodiments for carrying out the invention will be described in detail with reference to the drawings.

図1に示す本発明の第1の例示実施形態の代表特徴抽出システムは、処理対象のデータ群を読み込む入力部11と、読み込まれたデータ群を格納するデータ群格納部12と、データ群格納部12に格納されたデータ群の中の各データについて評価値を求める評価値計算部13と、データ群格納部12に格納されたデータ群の各データの中から、評価値計算部13で計算された評価値が最小のデータをデータ群の代表特徴として選択するデータ選択部14と、データ選択部14で選択されたデータをデータ群の代表特徴として外部に出力する出力部15と、を備えている。ここで評価値計算部13は、データ群中の各データについて、データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。入力部11、データ群格納部12、評価値計算部13、データ選択部14及び出力部15は、それぞれ、入力手段、格納手段、評価値計算手段、データ選択手段及び出力手段として機能する。   The representative feature extraction system of the first exemplary embodiment of the present invention shown in FIG. 1 includes an input unit 11 that reads a data group to be processed, a data group storage unit 12 that stores the read data group, and a data group storage. The evaluation value calculation unit 13 for obtaining an evaluation value for each data in the data group stored in the unit 12 and the evaluation value calculation unit 13 from among the data in the data group stored in the data group storage unit 12 A data selection unit 14 that selects the data having the smallest evaluation value as a representative feature of the data group, and an output unit 15 that outputs the data selected by the data selection unit 14 to the outside as the representative feature of the data group. ing. Here, the evaluation value calculation unit 13 calculates a distance representing the degree of similarity with other data in the data group for each data in the data group, and obtains an evaluation value of each data using the total of the distances. The input unit 11, the data group storage unit 12, the evaluation value calculation unit 13, the data selection unit 14, and the output unit 15 function as an input unit, a storage unit, an evaluation value calculation unit, a data selection unit, and an output unit, respectively.

次に、図1に示した代表特徴抽出システムの動作について、図2のフローチャートを説明する。   Next, the flowchart of FIG. 2 is demonstrated about operation | movement of the representative feature extraction system shown in FIG.

まず、ステップA1において入力部11が処理対象のデータ群を読みこみ、それをデータ群格納部12内に格納する。次に評価値計算部13は、ステップA2において、データ群格納部12内のデータ群の中の各データについて、データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。その後、ステップA3においてデータ選択部14は、データ群格納部12内のデータ群の中の各データについて、ステップA2で得られた評価値が最小のものをデータ群の代表特徴として選択する。ステップA4において、出力部15は、ステップA3で選択されたデータを代表特徴として出力する。後述するように、評価値は、例えば他のデータとの距離の合計が小さいほど小さくなるように定められ、これによって、距離の合計が小さい、すなわち、データ群中の他のデータとの類似度が大きいデータが代表特徴として選択されることになる。   First, in step A 1, the input unit 11 reads a data group to be processed and stores it in the data group storage unit 12. Next, in step A2, the evaluation value calculation unit 13 calculates a distance representing the degree of similarity of each data in the data group in the data group storage unit 12 with other data in the data group. The evaluation value of each data is obtained using the total. Thereafter, in step A3, the data selection unit 14 selects, as the representative feature of the data group, the data having the smallest evaluation value obtained in step A2 for each data in the data group in the data group storage unit 12. In step A4, the output unit 15 outputs the data selected in step A3 as a representative feature. As will be described later, for example, the evaluation value is determined so as to be smaller as the total distance to other data is smaller. Thus, the total distance is small, that is, the degree of similarity with other data in the data group. Data having a large value is selected as a representative feature.

第1の例示実施形態の代表特徴抽出システムは、パーソナルコンピュータやワークステーションなどのコンピュータを用い、それらのコンピュータ上でプログラムを実行することによっても実現できる。それらのコンピュータは、カメラなどが入力部11として接続され、ディスプレイなどが出力部15として接続されたものであり、一般に、中央処理ユニット(CPU)と、プログラムやデータを格納するためのハードディスク装置と、主メモリと、コマンド等を入力するためのキーボードやマウスなどの入力装置と、CD−ROM等の記録媒体を読み取る読み取り装置と、外部ネットワークとの接続に用いられるインタフェースなどを備えている。主メモリあるいはハードディスク装置上に記憶領域を確保することによってデータ群格納部12が構成されることになる。そして、上述の評価値計算部13及びデータ選択部14の機能を実現するためのコンピュータプログラムをそのコンピュータに読み込ませて実行させることにより、第1の例示実施形態の代表特徴抽出システムがコンピュータによって実現されたことになる。プログラムは、CD−ROMなどの記録媒体から、あるいネットワークを介して、コンピュータに読み込まれる。   The representative feature extraction system of the first exemplary embodiment can also be realized by using a computer such as a personal computer or a workstation and executing a program on the computer. These computers have a camera or the like connected as an input unit 11 and a display or the like connected as an output unit 15, and generally have a central processing unit (CPU) and a hard disk device for storing programs and data. And an input device such as a keyboard and a mouse for inputting commands and the like, a reading device for reading a recording medium such as a CD-ROM, and an interface used for connection to an external network. The data group storage unit 12 is configured by securing a storage area on the main memory or the hard disk device. Then, the computer implements the representative feature extraction system of the first exemplary embodiment by causing the computer to read and execute the computer program for realizing the functions of the evaluation value calculation unit 13 and the data selection unit 14 described above. It will be done. The program is read into a computer from a recording medium such as a CD-ROM or via a network.

次に、本発明の第2の例示実施形態の代表特徴抽出システムについて説明する。第2の例示実施形態は、データを階層的に複数の部分データ群に分割し、各部分データ群で、その部分データ群内の他のデータとの距離の合計が最小となるデータをその部分データ群を代表するデータとし、このような代表データを選択する処理を階層的に実行して代表特徴を選択することを特徴とするものである。   Next, a representative feature extraction system according to a second exemplary embodiment of the present invention will be described. In the second exemplary embodiment, the data is hierarchically divided into a plurality of partial data groups, and each partial data group has the data having the smallest total distance from other data in the partial data group This is characterized in that data representing a data group is selected, and a representative feature is selected by hierarchically executing a process of selecting such representative data.

図3に示す第2の例示実施形態の代表特徴抽出システムは、処理対象のデータ(入力データ)を読み込む入力部21と、入力データを複数の部分データ群に階層的に分割するデータ分割部22と、階層ごとの部分データ群を格納する部分データ群格納部23と、階層ごとに各部分データ群の中の各データについて評価値を求める評価値計算部24と、階層ごとに各部分データ群の代表データを選択するデータ選択部25と、データ選択部25で選択されたデータを集約するデータ集約部26と、データ集約部26により入力データに対する代表特徴とされたデータを外部に出力する出力部27と、を備えている。ここで評価値計算部24は、部分データ群格納部23に格納された処理対象の階層の各部分データ群中の各データについて、その部分データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。データ選択部25は、部分データ群格納部23に格納された処理対象の階層の各部分データ群のデータの中から、評価値計算部24による評価値が最小のデータをその部分データ群の代表データとして選択する。データ集約部26は、データ選択部25によって選択された代表データが最上位階層のものであれば、その代表データを入力データに対する代表特徴とし、最上位以外の階層のものであるときは、その代表データから当該階層より1階層上の階層の部分データ群を生成して部分データ群格納部23に格納する。   The representative feature extraction system of the second exemplary embodiment shown in FIG. 3 includes an input unit 21 that reads data to be processed (input data), and a data division unit 22 that hierarchically divides the input data into a plurality of partial data groups. A partial data group storage unit 23 for storing a partial data group for each layer, an evaluation value calculation unit 24 for obtaining an evaluation value for each data in each partial data group for each layer, and each partial data group for each layer The data selection unit 25 for selecting the representative data, the data aggregating unit 26 for aggregating the data selected by the data selection unit 25, and the output that outputs to the outside data representative of the input data by the data aggregating unit 26 Part 27. Here, the evaluation value calculation unit 24 represents the degree of similarity of each data in each partial data group of the processing target hierarchy stored in the partial data group storage unit 23 with other data in the partial data group. The distance is calculated, and the evaluation value of each data is obtained using the total distance. The data selection unit 25 represents the data with the smallest evaluation value by the evaluation value calculation unit 24 from the data of each partial data group of the processing target hierarchy stored in the partial data group storage unit 23 and represents the partial data group. Select as data. If the representative data selected by the data selection unit 25 is in the highest hierarchy, the data aggregating unit 26 uses the representative data as a representative feature for the input data, and if the representative data is in a hierarchy other than the highest, A partial data group of a hierarchy one level higher than the hierarchy is generated from the representative data and stored in the partial data group storage unit 23.

この構成においては、入力部21、データ分割部22、部分データ群格納部23、評価値計算部24、データ選択部25、データ集約部26及び出力部27は、それぞれ、入力手段、分割手段、格納手段、評価値計算手段、データ選択手段、集約手段及び出力手段として機能する。   In this configuration, the input unit 21, the data division unit 22, the partial data group storage unit 23, the evaluation value calculation unit 24, the data selection unit 25, the data aggregation unit 26, and the output unit 27 are respectively input means, division means, It functions as storage means, evaluation value calculation means, data selection means, aggregation means, and output means.

次に、図3に示した代表特徴抽出システムの動作について、図4のフローチャートを説明する。   Next, the flowchart of FIG. 4 is demonstrated about operation | movement of the representative feature extraction system shown in FIG.

まず、ステップB1において入力部21が処理対象のデータ(入力データ)を読みこみ、ステップB2においてデータ分割部22が入力データを複数の部分データ群に階層的に分割して部分データ群格納部23内に格納する。そして評価値計算部24は、ステップB3において、複数の階層のうちその時点で未処理となっている階層で最も下位の階層を処理階層として、部分データ群格納部23内のその処理階層の各部分データ群ごとにその部分データ群中の各データについて、当該部分データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。ここでいう未処理の階層とは、評価値計算や以下に述べるデータ選択の処理がその時点で完了していない階層のことである。その後、ステップB4においてデータ選択部25は、部分データ群格納部23内のその時点での処理階層の各部分データ群について、ステップB3で得られた評価値が最小のデータをその部分データ群の代表データとして選択する。ステップB5において、データ集約部26は、現在の処理階層が最上位の階層かどうかを判断する。ステップB5において最上位の階層である場合と判断した場合には、データ集約部26は、その処理階層での代表データを入力データに対する代表特徴とし、出力部27がステップB7においてその代表特徴を外部に出力する。一方、ステップB5において最上位の階層でないと判断した場合には、ステップB6において、データ集約部26は、現在の処理階層の各部分データ群の代表データを集約することにより、現在の処理階層より1階層上の階層に属する部分データ群を生成して部分データ群格納部23に格納する。その後、現在の処理階層より1階層上の階層を対象として上述した処理を繰り返すために、ステップB3からの処理が繰り返される。したがって、データ集約部26が生成した1階層上の階層の部分データ群が、評価値計算部24による次の評価値算出の対象となる。   First, in step B1, the input unit 21 reads data to be processed (input data), and in step B2, the data dividing unit 22 hierarchically divides the input data into a plurality of partial data groups, and a partial data group storage unit 23. Store in. Then, in step B3, the evaluation value calculation unit 24 sets the lowest hierarchy among the plurality of hierarchies that have not been processed at that time as the processing hierarchy, and sets each processing hierarchy in the partial data group storage unit 23. For each partial data group, for each data in the partial data group, a distance representing similarity to other data in the partial data group is calculated, and an evaluation value of each data is obtained using the total distance. The unprocessed hierarchy here is a hierarchy in which evaluation value calculation and data selection processing described below are not completed at that time. Thereafter, in step B4, the data selection unit 25, for each partial data group of the processing hierarchy at that time in the partial data group storage unit 23, the data with the smallest evaluation value obtained in step B3 is assigned to the partial data group. Select as representative data. In step B5, the data aggregation unit 26 determines whether the current processing hierarchy is the highest hierarchy. If it is determined in step B5 that the layer is the highest layer, the data aggregation unit 26 sets the representative data in the processing layer as the representative feature for the input data, and the output unit 27 sets the representative feature as the external feature in step B7. Output to. On the other hand, if it is determined in step B5 that it is not the highest hierarchy, in step B6, the data aggregating unit 26 aggregates representative data of each partial data group of the current processing hierarchy, so that the current processing hierarchy A partial data group belonging to a hierarchy one level above is generated and stored in the partial data group storage unit 23. Thereafter, the processing from step B3 is repeated in order to repeat the above-described processing for a layer one layer higher than the current processing layer. Therefore, the partial data group of the hierarchy one level generated by the data aggregation unit 26 is a target of the next evaluation value calculation by the evaluation value calculation unit 24.

このように第2の例示実施形態では、入力データを階層的に複数の部分データ群に分割するデータ分割部22と、階層ごとの各部分データ群を格納する部分データ群格納部23と、階層ごとに各部分データ群の代表データを集めて次の階層の部分データ群を作成するデータ集約部26とを設けることにより、評価値計算及び代表データのためのデータ選択を階層的に行えるようになる。評価値計算部24及びデータ選択部25は、各部分データ群に対し、第1の例示実施形態における評価値計算部13及びデータ選択部14と同様の処理を行うことによって、各部分データ群ごとに代表データを選択する。   As described above, in the second exemplary embodiment, the data dividing unit 22 that hierarchically divides input data into a plurality of partial data groups, the partial data group storage unit 23 that stores each partial data group for each hierarchy, By providing a data aggregating unit 26 that collects representative data of each partial data group and creates a partial data group of the next hierarchy for each, so that evaluation value calculation and data selection for representative data can be performed hierarchically. Become. The evaluation value calculation unit 24 and the data selection unit 25 perform the same processing as the evaluation value calculation unit 13 and the data selection unit 14 in the first exemplary embodiment on each partial data group, thereby making each partial data group Select representative data.

このような第2の例示実施形態では、評価値計算を階層的な部分データ群ごとに行うことで、全体の計算量を削減することができる。また、下位の階層を処理している段階で、外れ値を含むデータを除去することができるため、外れ値の影響を少なくし、安定して代表特徴を選択することができる。   In such a second exemplary embodiment, the overall calculation amount can be reduced by performing evaluation value calculation for each hierarchical partial data group. In addition, since the data including outliers can be removed at the stage of processing the lower hierarchy, the influence of the outliers can be reduced and the representative feature can be selected stably.

第2の例示実施形態の代表特徴抽出システムも、第1の例示実施形態の場合と同様に、コンピュータ上でプログラムを実行することによっても実現できる。その場合、コンピュータの主メモリあるいはハードディスク装置上に記憶領域を確保することによって部分データ群格納部23が構成されることになる。また、コンピュータで実行されるプログラムは、上述のデータ分割部22、評価値計算部24、データ選択部25及びデータ集約部26の機能を実現するプログラムである。   The representative feature extraction system of the second exemplary embodiment can also be realized by executing a program on a computer, as in the case of the first exemplary embodiment. In this case, the partial data group storage unit 23 is configured by securing a storage area on the main memory or hard disk device of the computer. The program executed by the computer is a program that realizes the functions of the data dividing unit 22, the evaluation value calculating unit 24, the data selecting unit 25, and the data aggregating unit 26 described above.

次に、本発明の第3の例示実施形態の代表特徴抽出システムについて説明する。図5に示す第3の例示実施形態の代表特徴抽出システムは、図1に示した第1の例示実施形態のシステムにおいて、入力が想定される特徴量の生起分布を記憶する生起分布記憶部15を設け、生起分布記憶部15から特徴量の生起分布が評価値計算部13に与えられるようにしたものである。生起分布記憶部15は、生起分布記憶手段として機能するものである。   Next, a representative feature extraction system according to a third exemplary embodiment of the present invention will be described. The representative feature extraction system of the third exemplary embodiment shown in FIG. 5 is an occurrence distribution storage unit 15 that stores an occurrence distribution of feature quantities assumed to be input in the system of the first exemplary embodiment shown in FIG. And the occurrence distribution of the feature quantity is given to the evaluation value calculation unit 13 from the occurrence distribution storage unit 15. The occurrence distribution storage unit 15 functions as an occurrence distribution storage unit.

本例示実施形態では、評価値計算部13は、入力が想定される特徴量の生起分布を用いて、評価値を計算する。入力が想定される特徴量の生起分布とは、入力部12に入力されるデータ群において各データがとると予想される値の分布のことである。具体的には第1の例示実施形態の場合と同様に、データ群中の各データについて、データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。その際、2つのデータの距離値を、生起分布記憶部15に記憶されている生起分布に基づいて仮想的にデータを発生させたとしてその仮想的に発生させたデータが現在比較している二つのデータの間のものとなる確率で表すものとする。言いかえれば、特徴量の生起分布から仮想的にパターンを発生させたとして、データ群内のあるデータAから当該データ群内の他のデータBへの距離を、データAから見てデータBよりも近いパターンが観測される確率とする。そして評価値計算部13は、この距離値あるいはその合計をそのまま評価値とする。あるいは評価値計算部13は、距離値が大きければ評価値が大きくなるような適宜の関数を用いて、距離値から評価値を定める。   In the present exemplary embodiment, the evaluation value calculation unit 13 calculates an evaluation value using the occurrence distribution of the feature amount assumed to be input. The occurrence distribution of the feature quantity assumed to be input is a distribution of values that each data is expected to take in the data group input to the input unit 12. Specifically, as in the case of the first exemplary embodiment, for each data in the data group, a distance representing the similarity to the other data in the data group is calculated, and the total of the distances is used to calculate each distance. Find the evaluation value of the data. At this time, it is assumed that the distance value between the two data is virtually generated based on the occurrence distribution stored in the occurrence distribution storage unit 15, and the virtually generated data is currently compared. It is expressed by the probability of being between two data. In other words, assuming that a pattern is virtually generated from the occurrence distribution of the feature amount, the distance from one data A in the data group to another data B in the data group is greater than the data B when viewed from the data A. Is the probability that a close pattern will be observed. Then, the evaluation value calculation unit 13 directly uses this distance value or the sum thereof as an evaluation value. Alternatively, the evaluation value calculation unit 13 determines the evaluation value from the distance value using an appropriate function that increases the evaluation value if the distance value is large.

次に、図5に示した代表特徴抽出システムの動作について、図6のフローチャートを説明する。   Next, the flowchart of FIG. 6 is demonstrated about operation | movement of the representative feature extraction system shown in FIG.

まず、ステップA1において入力部11が処理対象のデータ群を読みこみ、それをデータ群格納部12内に格納する。次に評価値計算部13は、生起分布記憶部15に記憶されている生起分布を使用して、ステップA2aにおいて、データ群格納部12内のデータ群の中の各データについて、データ群の中の他のデータとの類似度を表す距離値を上述のようにして求めし、距離の合計を用いて各データの評価値を求める。その後、ステップA3においてデータ選択部14は、データ群格納部12内のデータ群の中の各データについて、ステップA2で得られた評価値が最小のものをデータ群の代表特徴として選択する。ステップA4において、出力部15は、ステップA3で選択されたデータを代表特徴として出力する。   First, in step A 1, the input unit 11 reads a data group to be processed and stores it in the data group storage unit 12. Next, the evaluation value calculation unit 13 uses the occurrence distribution stored in the occurrence distribution storage unit 15, and in step A <b> 2 a, for each data in the data group in the data group storage unit 12, A distance value representing the degree of similarity with other data is obtained as described above, and an evaluation value of each data is obtained using the total distance. Thereafter, in step A3, the data selection unit 14 selects, as the representative feature of the data group, the data having the smallest evaluation value obtained in step A2 for each data in the data group in the data group storage unit 12. In step A4, the output unit 15 outputs the data selected in step A3 as a representative feature.

このような第3の例示実施形態によれば、特徴量における生起分布を考慮していることにより、あるデータから見て、外れ値を含むデータよりも生起分布から仮想的に生成したパターンの方が近いデータとなる確率は大きくなり、1に近くなる。すなわち、あるデータから見て、外れ値を含むデータは他のデータよりも遠くなる。特徴量の生起分布の本来的な意味を考えれば、確率1とは、その特徴がない場合と同じ評価である。したがって、外れ値が他のデータの評価値へ与える影響が小さくなる。そのため、データの特徴量に外れ値が含まれていても、本例示実施形態の処理を行うことによって、さらに適切な代表特徴抽出を行うことができる。   According to the third exemplary embodiment, the occurrence distribution in the feature quantity is taken into consideration, so that the pattern virtually generated from the occurrence distribution is more than the data including outliers as seen from some data. The probability of being close to data increases and approaches 1. That is, when viewed from some data, data including outliers is farther than other data. Considering the original meaning of the occurrence distribution of the feature amount, the probability 1 is the same evaluation as when there is no feature. Therefore, the influence of outliers on the evaluation values of other data is reduced. For this reason, even if an outlier is included in the feature amount of the data, more appropriate representative feature extraction can be performed by performing the processing of the present exemplary embodiment.

第3の例示実施形態の代表特徴抽出システムも、第1の例示実施形態の場合と同様に、コンピュータ上でプログラムを実行することによっても実現できる。この場合、コンピュータの主メモリあるいはハードディスク装置上に記憶領域を確保することによって、データ群格納部12及び生起分布記憶部16が構成されることになる。   The representative feature extraction system of the third exemplary embodiment can also be realized by executing a program on a computer, as in the case of the first exemplary embodiment. In this case, the data group storage unit 12 and the occurrence distribution storage unit 16 are configured by securing a storage area on the main memory or hard disk device of the computer.

次に、本発明の第4の例示実施形態の代表特徴抽出システムについて説明する。図7に示す第4の例示実施形態の代表特徴抽出システムは、図3に示した第2の例示実施形態のシステムに対し、クラスタリング部28とクラスタ代表抽出部29とを付加したものである。クラスタリング部28及びクラスタ代表抽出部29は、それぞれ、クラスタリング手段及びクラスタ代表抽出手段として機能するものである。クラスタリング部28は、データ集約部26の出力側に設けられ、部分データ群の代表特徴として選択された代表特徴を、その性質が似通った複数のクラスタに分割する。クラスタ代表抽出部29は、クラスタリング部28によって分割されたクラスタから、各クラスタを代表する代表特徴を抽出し、出力部29に送る。その結果、出力部29は、各クラスタを代表する代表特徴を、入力データの代表特徴として出力することになる。   Next, a representative feature extraction system according to a fourth exemplary embodiment of the present invention will be described. The representative feature extraction system of the fourth exemplary embodiment shown in FIG. 7 is obtained by adding a clustering unit 28 and a cluster representative extraction unit 29 to the system of the second exemplary embodiment shown in FIG. The clustering unit 28 and the cluster representative extraction unit 29 function as clustering means and cluster representative extraction means, respectively. The clustering unit 28 is provided on the output side of the data aggregation unit 26 and divides the representative feature selected as the representative feature of the partial data group into a plurality of clusters having similar properties. The cluster representative extraction unit 29 extracts representative features representing each cluster from the clusters divided by the clustering unit 28, and sends them to the output unit 29. As a result, the output unit 29 outputs the representative feature representing each cluster as the representative feature of the input data.

次に、図7に示した代表特徴抽出システムの動作について、図8のフローチャートを説明する。   Next, the operation of the representative feature extraction system shown in FIG. 7 will be described with reference to the flowchart of FIG.

ステップB1からステップB6までは、図4に示したものと同様に処理が実行される。そして、ステップB5の実行後、その時点での処理階層が最上位階層であるときに、ステップC1において、クラスタリング部28は、そこへの入力データを特徴量の似通ったクラスタに分割(クラスタリング)する。そしてステップC2において、クラスタ代表抽出部29は、クラスタリング部28で作成されたクラスタごとに代表特徴を抽出する。その後、ステップC3において出力部27は、ステップC2で抽出された代表特徴を外部に出力する。   From step B1 to step B6, processing is executed in the same manner as shown in FIG. Then, after the execution of step B5, when the processing hierarchy at that time is the highest hierarchy, in step C1, the clustering unit 28 divides (clusters) the input data into clusters having similar feature values. . In step C2, the cluster representative extraction unit 29 extracts a representative feature for each cluster created by the clustering unit 28. Thereafter, in step C3, the output unit 27 outputs the representative feature extracted in step C2 to the outside.

このような第4の例示実施形態によれば、クラスタリングの手法を用いることにより、入力データが複数の性質のデータ群からなる場合に、各データ群に対応する代表特徴を選択することができるようになる。   According to the fourth exemplary embodiment as described above, by using the clustering technique, it is possible to select the representative feature corresponding to each data group when the input data is composed of data groups having a plurality of properties. become.

第4の例示実施形態の代表特徴抽出システムも、第1の例示実施形態の場合と同様に、コンピュータ上でプログラムを実行することによっても実現できる。その場合、コンピュータの主メモリあるいはハードディスク装置上に記憶領域を確保することによって部分データ群格納部23が構成されることになる。また、コンピュータで実行されるプログラムは、上述のデータ分割部22、評価値計算部24、データ選択部25、データ集約部26、クラスタリング部28及びクラスタ代表抽出部29の機能を実現するプログラムである。   Similarly to the case of the first exemplary embodiment, the representative feature extraction system of the fourth exemplary embodiment can also be realized by executing a program on a computer. In this case, the partial data group storage unit 23 is configured by securing a storage area on the main memory or hard disk device of the computer. A program executed by the computer is a program that realizes the functions of the data dividing unit 22, the evaluation value calculating unit 24, the data selecting unit 25, the data aggregating unit 26, the clustering unit 28, and the cluster representative extracting unit 29 described above. .

図9は本発明のさらに別の例示実施形態の代表特徴抽出システムの構成を示すブロック図である。   FIG. 9 is a block diagram showing a configuration of a representative feature extraction system of still another exemplary embodiment of the present invention.

図9に示す代表特徴抽出システムは、図3に示した第2の例示実施形態の代表特徴抽出システムと同様のものであるが、入力部21、部分データ群格納部23及び出力部27が設けられていない点で、図3に示したものと相違する。すなわちこの構成は、入力データを複数の部分データ群に階層的に分割するデータ分割部22と、階層ごとに各部分データ群の中の各データについて評価値を求める評価値計算部24と、階層ごとに各部分データ群の代表データを選択するデータ選択部25と、データ選択部25で選択されたデータを集約するデータ集約部26と、を備えている。データ分割部22は、最下位の階層の各部分データ群を評価値計算部24に与える。評価値計算部24は、処理対象の階層の各部分データ群中の各データについて、その部分データ群の中の他のデータとの類似度を表す距離を計算し、距離の合計を用いて各データの評価値を求める。データ選択部25は、処理対象の階層の各部分データ群のデータの中から、評価値計算部24による評価値が最小のデータをその部分データ群の代表データとして選択する。データ集約部26は、データ選択部25によって選択された代表データが最上位階層のものであれば、その代表データを入力データに対する代表特徴として出力し、最上位以外の階層のものであるときは、その代表データから当該階層より1階層上の階層の部分データ群を生成して評価値計算部24に出力する。この構成においても第2の例示実施形態と同様の手順によって代表特徴の抽出が行われる。   The representative feature extraction system shown in FIG. 9 is the same as the representative feature extraction system of the second exemplary embodiment shown in FIG. 3, but includes an input unit 21, a partial data group storage unit 23, and an output unit 27. This is different from that shown in FIG. That is, this configuration includes a data dividing unit 22 that hierarchically divides input data into a plurality of partial data groups, an evaluation value calculating unit 24 that obtains an evaluation value for each data in each partial data group for each hierarchy, A data selection unit 25 that selects representative data of each partial data group and a data aggregation unit 26 that aggregates the data selected by the data selection unit 25 are provided. The data dividing unit 22 gives each partial data group of the lowest hierarchy to the evaluation value calculating unit 24. The evaluation value calculation unit 24 calculates, for each data in each partial data group in the hierarchy to be processed, a distance representing the similarity to other data in the partial data group, and uses each sum of distances to calculate each distance. Find the evaluation value of the data. The data selection unit 25 selects data having the smallest evaluation value by the evaluation value calculation unit 24 as representative data of the partial data group from the data of each partial data group of the processing target hierarchy. If the representative data selected by the data selection unit 25 is in the highest hierarchy, the data aggregating unit 26 outputs the representative data as a representative feature for the input data. Then, a partial data group in a hierarchy one level higher than the representative hierarchy is generated from the representative data and output to the evaluation value calculation unit 24. In this configuration as well, representative features are extracted by the same procedure as in the second exemplary embodiment.

図9に示した例示実施形態の代表特徴抽出システムも、上述の各例示実施形態の場合と同様に、コンピュータ上で、上述のデータ分割部22、評価値計算部24、データ選択部25及びデータ集約部26の機能を実現するプログラムを実行することによっても実現できる。   The representative feature extraction system of the exemplary embodiment shown in FIG. 9 also has the above-described data dividing unit 22, evaluation value calculating unit 24, data selecting unit 25, and data on the computer in the same manner as in the exemplary embodiments described above. This can also be realized by executing a program that realizes the function of the aggregation unit 26.

次に、具体的な実施例を用いて上述した例示実施形態の動作を説明する。   Next, the operation of the above-described exemplary embodiment will be described using specific examples.

[実施例1]
実施例1は、上述の第2の例示実施形態に対応するものである。
[Example 1]
Example 1 corresponds to the second exemplary embodiment described above.

実施例1は、ハイパースペクトルカメラによって海面を撮像した画像から海面自体を表す特徴を抽出し、人や漂流物などの海面ではない画素を検出することにより溺者や漂流者等の要救助者を探す海難救助システムに対し、第2の例示実施形態を適用したものである。具体的には、海面のデータを表す特徴を抽出する際に、第2の例示実施形態の代表特徴抽出システムを使用する。   In the first embodiment, features representing the sea surface itself are extracted from an image obtained by imaging the sea surface with a hyperspectral camera, and pixels that are not the sea surface, such as people and drifting objects, are detected. The second exemplary embodiment is applied to the marine rescue system to be searched. Specifically, the representative feature extraction system of the second exemplary embodiment is used when extracting features representing sea level data.

ハイパースペクトルカメラとは、高い波長分解能により対象物のスペクトルを細かく計測する機能を有するカメラであり、例えば、各画素に対して、数nm〜数十nmのバンド幅で、数十〜数百バンドのバンド数でスペクトル強度を計測することができる。各画素の情報は、バンド数をDとすると、D個のスペクトル強度からなるD次元ベクトルのデータとして表現できる。画像の画素数をNとすると、全画像の情報は、D次元ベクトルのN個のデータの集まり(データ列)として表現できる。   A hyperspectral camera is a camera that has a function of finely measuring the spectrum of an object with high wavelength resolution. For example, for each pixel, a bandwidth of several nanometers to several tens of nanometers, and several tens to several hundreds of bands. Spectral intensity can be measured with the number of bands. The information of each pixel can be expressed as D-dimensional vector data composed of D spectral intensities, where D is the number of bands. If the number of pixels of an image is N, the information of all the images can be expressed as a collection (data string) of N data of D-dimensional vectors.

本実施例では、N個のデータ列の中から、全体の特徴をよく表すK個の代表特徴を抽出し、これらK個の代表特徴とは性質の異なるデータを異常データとして検知することで、海面を撮像した画像から海面ではない画素を検出し、溺者等の要救助者を検出する。例えば図10で示すように、対象画像のほとんどが海の領域であってその中に溺者がいる場合に、画像のほとんどを占める海面自体の特徴ベクトルを参照データとし、参照データとは異なる画素を見つけることで溺者を検出し、救助活動の助けとすることができる。   In the present embodiment, K representative features that well represent the overall features are extracted from the N data strings, and data different in nature from these K representative features is detected as abnormal data. A pixel that is not the sea surface is detected from an image of the sea surface, and a rescuer such as a deaf person is detected. For example, as shown in FIG. 10, when most of the target image is a sea region and there is a deaf person, the feature vector of the sea surface itself that occupies most of the image is used as reference data, and the pixel is different from the reference data. Detecting deaf people can help with rescue activities.

本実施例では、入力部21としてハイパースペクトルカメラ、出力部27としてディスプレイを使用し、また、データ分割部22、評価値計算部24、データ選択部25及びデータ集約部26は、コンピュータ上でプログラムを実行することによりソフトウェアによって実現されている。部分データ群格納部23としては、コンピュータの記憶装置が用いられている。   In the present embodiment, a hyperspectral camera is used as the input unit 21, a display is used as the output unit 27, and the data dividing unit 22, the evaluation value calculating unit 24, the data selecting unit 25, and the data aggregating unit 26 are programmed on a computer. Is implemented by software. As the partial data group storage unit 23, a computer storage device is used.

入力部21としてのハイパースペクトルカメラから、画像の情報を入力する。画像は2次元であり、画素iの情報をIiとし、全入力データの集合をG={I1,I2,…,IN}とする。各画素の情報は、スペクトル強度を特徴量とし、D個の特徴量からなるD次元ベクトルとして、Ii=(vi (1),vi (2),…,vi (D))と表現される。 Image information is input from the hyperspectral camera as the input unit 21. The image is two-dimensional, the information of pixel i is I i, and the set of all input data is G = {I 1 , I 2 ,..., I N }. The information of each pixel has a spectral intensity as a feature quantity, and a D-dimensional vector composed of D feature quantities, I i = (v i (1) , v i (2) ,..., V i (D) ) Expressed.

データ分割部22は、入力データG={Ii}を複数の部分データ群に分割する。部分データ群への分割は図11で示すように、2次元の格子状に分割し、図12で示すような階層構造にする。これは、空間的に近い領域は近いスペクトルの性質を持つであろうと考えられるため、空間的に近い領域を同じ部分データ群とするためである。 The data dividing unit 22 divides the input data G = {I i } into a plurality of partial data groups. As shown in FIG. 11, the division into partial data groups is divided into a two-dimensional lattice pattern to form a hierarchical structure as shown in FIG. This is because the spatially close regions are considered to have close spectral properties, and thus the spatially close regions are set as the same partial data group.

例えば入力画像が256×256画素(=65536データ)であって、出力する代表特徴の数kが1の場合で、各階層では、1階層下の2×2の領域のデータが1つのデータとなるように階層構造に分割する場合、256=28であるので、
G=(G1 (1),G2 (1),G3 (1),G4 (1))
i (1)=(Gi,1 (2),Gi,2 (2),Gi,3 (2),Gi,4 (2))
i,j (2)=(Gi,j,1 (3),Gi,j,2 (3),Gi,j,3 (3),Gi,j,4 (3))

i,,k (7)=(Gi,,k,1 (8),Gi,,k,2 (8),Gi,,k,3 (8),Gi,,k,4 (8))
と、8階層に階層分割することができ、各階層を2×2の部分データ群に分割することができる。分割が終わるとこれらの部分データ群は部分データ群格納部23に格納される。
For example, when the input image is 256 × 256 pixels (= 65536 data) and the number k of representative features to be output is 1, in each layer, the data in the 2 × 2 region one layer below is one data. In order to divide into a hierarchical structure, since 256 = 2 8 ,
G = (G 1 (1) , G 2 (1) , G 3 (1) , G 4 (1) )
G i (1) = (G i, 1 (2) , G i, 2 (2) , G i, 3 (2) , G i, 4 (2) )
G i, j (2) = (G i, j, 1 (3) , G i, j, 2 (3) , G i, j, 3 (3) , G i, j, 4 (3) )
...
G i, ..., k (7 ) = (G i, ..., k, 1 (8), G i, ..., k, 2 (8), G i, ..., k, 3 (8), G i, … , K, 4 (8) )
And can be divided into 8 hierarchies, and each hierarchy can be divided into 2 × 2 partial data groups. When the division ends, these partial data groups are stored in the partial data group storage unit 23.

次に評価値計算部24は、複数の階層のうちその時点で未処理となっている階層で最も下位の階層を処理階層として、処理階層の部分データ群を部分データ群格納部23から取り出し、取り出された各部分データ群内の各データについて、当該部分データ群内の他のデータとの距離を計算する。部分データ群に対する処理は、階層ごとに実行されるが、一番最初には、評価値計算部24は、データ分割部22から部分データ群格納部23を介して渡された、最下位の階層に属する部分データ群に対して評価値算出の処理を実行する。   Next, the evaluation value calculation unit 24 takes out the partial data group of the processing hierarchy from the partial data group storage unit 23, with the lowest hierarchy among the plurality of hierarchies currently unprocessed as the processing hierarchy, For each piece of data in each extracted partial data group, a distance from other data in the partial data group is calculated. The processing for the partial data group is executed for each hierarchy, but first, the evaluation value calculation unit 24 is the lowest hierarchy passed from the data dividing unit 22 via the partial data group storage unit 23. The evaluation value calculation process is executed for the partial data group belonging to.

画素Iaと画素Ibの距離としては、式(1)で表されるL2距離や、式(2)で表されるL1距離など任意の距離基準を用いることができる。なお、L2距離は、2次元ユークリッド空間での距離の定義に基づくものであって、一般的に距離として用いられているものである。 As the distance between the pixel I a and the pixel I b , any distance reference such as the L 2 distance represented by the expression (1) or the L 1 distance represented by the expression (2) can be used. The L 2 distance is based on the definition of the distance in the two-dimensional Euclidean space and is generally used as a distance.

Figure 0005391876
Figure 0005391876

Figure 0005391876
Figure 0005391876

評価値計算部24は、部分データ群内の各データについて、部分データ群内の他のデータとの距離の合計として、各データの評価値を求める。例えば、部分データ群が{(Ii,Ij,Ik,Il)}の4つのデータからなる場合、IaとIbの距離をDabとして、Iiの評価値ViThe evaluation value calculation unit 24 obtains an evaluation value of each data as the sum of the distances from other data in the partial data group for each data in the partial data group. For example, partial data group {(I i, I j, I k, I l)} If consisting of four data, a distance of I a and I b as D ab, the evaluation value V i of I i

Figure 0005391876
Figure 0005391876

として求め、同様にVj,Vk,Vlも他のデータとの距離の合計として求める。 Similarly, V j , V k , and V l are also obtained as the sum of distances from other data.

このようにして処理階層の各部分データ群の中の各データに対して評価値が算出されると、次にデータ選択部25は、部分データ群ごとにその部分データ群のデータの中から、評価値が最小のものを選択する。例えば、ある部分データ群が{(Ii,Ij,Ik,Il)}の4つのデータからなり、各データの評価値が{(Vi,Vj,Vk,Vl)}であるとし、{(Vi,Vj,Vk,Vl)}のうち最小のものがViであったとすると、データ選択部25は、この部分データ群の代表データをIiとする。 When the evaluation value is calculated for each data in each partial data group in the processing hierarchy in this way, the data selection unit 25 next selects the data of the partial data group for each partial data group. Select the one with the smallest evaluation value. For example, a partial data group consists of four data {(I i , I j , I k , I l )}, and the evaluation value of each data is {(V i , V j , V k , V l )}. If the minimum of {(V i , V j , V k , V l )} is V i , the data selection unit 25 sets the representative data of this partial data group as I i . .

処理階層の各部分データ群に関して代表データが選択されると、データ集約部26は、現在の処理階層が、予め定められている最上位の階層か否かを判定する。最上位の階層であった場合、データ集約部26はその代表データを出力部27へ通知する。一方、最上位でなかった場合、データ集約部26は、現在の処理階層より一つ上の階層について、部分データ群を作成する。上の階層の部分データ群は、データ選択部25により選択された現在の処理階層に属する代表データをいくつか集めたものからなる。上の階層の部分データ群を作成すると、データ集約部26はその作成した各部分データ群を部分データ群格納部22に格納することによって評価値計算部24に供給する。   When representative data is selected for each partial data group of the processing hierarchy, the data aggregating unit 26 determines whether or not the current processing hierarchy is a predetermined highest hierarchy. In the case of the highest hierarchy, the data aggregation unit 26 notifies the output unit 27 of the representative data. On the other hand, if it is not the highest level, the data aggregating unit 26 creates a partial data group for a hierarchy one level higher than the current processing hierarchy. The partial data group in the upper hierarchy is a collection of some representative data belonging to the current processing hierarchy selected by the data selection unit 25. When the partial data group of the upper hierarchy is created, the data aggregation unit 26 stores the created partial data group in the partial data group storage unit 22 and supplies it to the evaluation value calculation unit 24.

例えば入力画像が256×256画素(=65536データ)であって、出力する代表特徴の数kが1であり、各階層では1階層下の2×2のデータが1データとなるようにして、入力データを階層構造に分割する場合、1番下の階層には、それぞれが2×2のデータからなる部分データ群が16384(=128×128)個存在することになる。下から2番目の階層に対しては、最下位の階層の128×128個の代表データに基づいて、4096(=64×64)個の部分データ群が作成される。この処理を8階層にわたって行うことで、最上位の階層では、2×2個の部分データ群から1つの代表データを選ぶことになる。最上位の階層で目的の1つの代表データが得られるので、最終的にデータ集約部26は、この代表データを出力部27へ通知することになる。   For example, the input image is 256 × 256 pixels (= 65536 data), the number k of representative features to be output is 1, and in each layer, 2 × 2 data one layer below is one data, When the input data is divided into hierarchical structures, there are 16384 (= 128 × 128) partial data groups each consisting of 2 × 2 data in the lowest hierarchy. For the second layer from the bottom, 4096 (= 64 × 64) partial data groups are created based on 128 × 128 representative data of the lowest layer. By performing this process over 8 hierarchies, one representative data is selected from 2 × 2 partial data groups in the highest hierarchy. Since one target representative data is obtained at the highest hierarchy, the data aggregation unit 26 finally notifies the output unit 27 of this representative data.

出力部27として設けられているディスプレイは、代表データを表示する。   A display provided as the output unit 27 displays representative data.

この実施例1では、評価値計算部24において、各データの評価値として部分データ群内の他のデータとの距離の合計を計算し、データ選択部25では、部分データ群ごとに、その部分データ群のデータの中から、評価値が最小のものを選択するようにしている。そのため、代表値をヒストグラムを求めることで定める方法と異なり、データ数に比べて特徴の次元が高い場合であっても、確実に代表データを求めることができる。   In the first embodiment, the evaluation value calculation unit 24 calculates the total distance from other data in the partial data group as the evaluation value of each data, and the data selection unit 25 calculates the portion for each partial data group. The data with the smallest evaluation value is selected from the data in the data group. Therefore, unlike the method of determining the representative value by obtaining the histogram, the representative data can be obtained reliably even when the feature dimension is higher than the number of data.

ヒストグラムを求めて代表データを定める場合、ヒストグラムにおける一つの区切りに十分な数のデータが入るだけのデータがなければ、正しく代表データを求めることができない。例えばデータ数が少なく、一つの区切りに入るデータの数が1つとか2つになった場合、たまたまデータが2つ入った区切りが代表として選ばれてしまい、全体を代表するものとはならない。このことは特徴の次元が多くなると顕著となる。なぜならば、次元の数のべき乗に比例して区切りの数が増えるからである。一つの特徴を100に区切る場合、1次元の特徴であれば100個の区切りができるが、60次元の特徴であれば10060個(=10120個)の区切りができることになる。 When the representative data is determined by obtaining the histogram, the representative data cannot be obtained correctly if there is not enough data to contain a sufficient number of data at one segment in the histogram. For example, when the number of data is small and the number of data that falls within one segment is one or two, the segment that happens to contain two data is selected as a representative and does not represent the whole. This becomes more prominent as the feature dimension increases. This is because the number of breaks increases in proportion to the power of the number of dimensions. When one feature is divided into 100, one-dimensional features can be divided into 100 pieces, but 60-dimensional features can be divided into 100 60 pieces (= 10 120 pieces).

ヒストグラムを用いる方法と比べ、実施例1の方法であれば、特徴量における次元が高くても必らず代表データを求めることが可能である。   Compared with the method using the histogram, the method according to the first embodiment can always obtain representative data even if the dimension of the feature amount is high.

また本実施例では、評価値計算部24が各データの評価値として部分データ群内の他のデータとの距離の合計を計算し、データ選択部25が部分データ群ごとにその部分データ群のデータの中から評価値が最小のものを選択する、ということを階層的に行うようにしている。そのため、データに外れ値が含まれていても、安定して代表特徴を抽出することができる。   Further, in this embodiment, the evaluation value calculation unit 24 calculates the total distance from other data in the partial data group as the evaluation value of each data, and the data selection unit 25 calculates the partial data group for each partial data group. The data having the smallest evaluation value is selected from the data in a hierarchical manner. Therefore, even if outliers are included in the data, representative features can be extracted stably.

これに対して平均値を代表特徴とする場合、平均値には外れ値の影響が含まれることになる。通常、平均値を計算する場合、平均を求めるという操作そのものの性質から、距離の離れたものの影響が大きくなるので、外れ値の影響がどうしても大きくなってしまうという問題がある。   On the other hand, when the average value is used as a representative feature, the average value includes the influence of an outlier. Usually, when calculating an average value, the influence of the distance is increased due to the nature of the operation itself of obtaining the average, so that there is a problem that the influence of the outlier is inevitably increased.

本実施例の場合、例えば、図13に示すように最下層の部分データ群が{(I1,I2,I3,I4)}の4つのデータからなるとし、I4はノイズの影響による外れ値を含んでいるデータとする。各データ間の距離をDijとする。I4は外れ値を含んでいるデータであるので、距離D14,D24,D34は、距離D12,D13,D23と比べ大きくなる。よって、他のデータとの距離の合計である各データの評価値(V1,V2,V3,V4)のうちV4は、その他の評価値(V1,V2,V3)に比べて大きくなる。評価値が小さいものを代表データとするので、この場合、データI4が代表データとして選ばれることはない。そのため、本実施例によれば、外れ値を含むデータが代表データとして上の階層に伝播する可能性は非常に低い。このような選択を階層的に行うことにより、実施例1によれば、ノイズ等の影響を受けて外れ値を含むようなデータが上位の階層のデータに含まれることがなくなり、安定して代表特徴を抽出することができる。 In the case of the present embodiment, for example, as shown in FIG. 13, it is assumed that the lowermost partial data group consists of four data of {(I 1 , I 2 , I 3 , I 4 )}, and I 4 is the influence of noise. It is assumed that the data contains outliers. Let D ij be the distance between each data. Since I 4 is data including outliers, the distances D 14 , D 24 , and D 34 are larger than the distances D 12 , D 13 , and D 23 . Therefore, among the evaluation values (V 1 , V 2 , V 3 , V 4 ) of each data, which is the total distance from other data, V 4 is the other evaluation values (V 1 , V 2 , V 3 ). Larger than In this case, the data I 4 is not selected as the representative data because the data having a small evaluation value is used as the representative data. Therefore, according to the present embodiment, there is a very low possibility that data including outliers will be propagated to the upper hierarchy as representative data. By performing such selection hierarchically, according to the first embodiment, data that includes an outlier due to the influence of noise or the like is not included in the data of the higher hierarchy, and can be represented stably. Features can be extracted.

さらに本実施例には、ノイズ等による外れ値だけでなく、性質の異なる極小数のデータの影響も受けないという効果もある。例えば、海面を撮影した画像から溺れている人を探すために、海面自体のスペクトルを代表特徴として抽出する場合、単純に平均をとると、海面だけではなく、検出対象の溺れた人などの海面自体以外のものも含めた平均を代表特徴としてしまうことになる。この実施例によれば、階層的にデータを選別し、下の階層で性質の異なるものを排除することで、最終的に性質の異なるものを含めずに代表特徴を選択することができる。   Furthermore, this embodiment has an effect that it is not affected by not only outliers due to noise or the like, but also a minimum number of data having different properties. For example, in order to search for a drowning person from an image of the sea surface, when the spectrum of the sea surface itself is extracted as a representative feature, simply taking the average, not only the sea surface but also the sea surface of a drowning person or the like to be detected The average including things other than itself will be the representative feature. According to this embodiment, by selecting data hierarchically and excluding those having different properties in the lower hierarchy, it is possible to finally select representative features without including those having different properties.

さらに本実施例には、高速に代表特徴を選択できるという効果もある。   Furthermore, this embodiment also has an effect that the representative feature can be selected at high speed.

例えば、入力データがN=a×b個のデータからなるとする。階層化することなくデータごとに他のデータとの距離を全て求めるとすると、ab(ab−1)/2回の距離計算が必要となる。   For example, it is assumed that the input data consists of N = a × b data. If all distances to other data are obtained for each data without hierarchization, ab (ab-1) / 2 distance calculation is required.

これに対し、n=a×b個のデータをそれぞれがb個のデータからなるa個の部分データ群へと1階層に分割するものとする。b個のデータからなる部分データ群内の距離計算の回数がb(b−1)/2回であり、これがa個の部分データ群のそれぞれごとに実行するので、1階層目の距離計算は全部でab(b−1)/2回である。2階層目の距離計算は、a個のデータ内の距離計算であるので、a(a−1)/2回である。よって、階層化することで、ab(b−1)/2+a(a−1)/2回の計算で済むことなる。階層化しない場合と階層化する場合とでの距離計算回数の差はa(b2−1)(a−1)となる。ここでa,bは1より大きいので、階層化により必らず計算量は削減されることになる。ここでは1階層に分割する場合の計算量を示したが、複数の階層に分割すると、計算量についてのより大きな削減効果を得ることができる。 On the other hand, it is assumed that n = a × b data is divided into one partial data group each consisting of b data. The number of distance calculations in the partial data group composed of b data is b (b-1) / 2 times, and this is executed for each of the a partial data groups. The total is ab (b-1) / 2 times. The distance calculation in the second layer is a (a-1) / 2 times because it is a distance calculation within a data. Therefore, by hierarchizing, calculation of ab (b-1) / 2 + a (a-1) / 2 is sufficient. The difference in the number of distance calculations between the case of not hierarchizing and the case of hierarchization is a (b 2 −1) (a−1). Here, since a and b are larger than 1, the calculation amount is inevitably reduced by hierarchization. Here, the calculation amount in the case of dividing into one layer is shown, but if it is divided into a plurality of layers, a larger reduction effect on the calculation amount can be obtained.

上述の実施例1では、最終的に求める代表特徴の数Kを1とし、全体を一つの特徴で象徴させるようにしているが、Kを1よりも大きな値とし、複数あるいは多数の代表特徴を抽出してもよい。例えば、画像を4×4画素ごとに区切った領域ごとに代表特徴を選択することで、画像を16分の1に縮小した圧縮画像とすることもできる。入力データが異なる性質を有する複数の要素からなることが想定される場合には、全体を一つの特徴で代表させるよりも、複数の代表特徴を求め、性質の異なる複数の要素をそれぞれ代表させるようにする方が好ましい。   In the first embodiment, the number K of representative features to be finally obtained is set to 1, and the whole is symbolized by one feature. However, K is set to a value larger than 1, and a plurality of representative features or a plurality of representative features are represented. It may be extracted. For example, by selecting a representative feature for each area obtained by dividing the image into 4 × 4 pixels, the image can be reduced to 1/16. If the input data is assumed to consist of multiple elements with different properties, rather than representing the whole as a single feature, obtain multiple representative features and represent each of multiple elements with different properties. Is preferable.

上述の説明では、部分データ群を求めるために2次元空間を連続する正方格子状に分割したが、例えば長方形格子や、三角形格子、六角形格子など、他の形状を用いて2次元空間を階層的に分割することも可能である。あるいは所定数の画素おきに分割するなど、空間的に不連続に分割することも可能である。   In the above description, in order to obtain the partial data group, the two-dimensional space is divided into continuous square lattices, but the two-dimensional space is hierarchized using other shapes such as a rectangular lattice, a triangular lattice, and a hexagonal lattice. It is also possible to divide automatically. Alternatively, it is possible to divide spatially discontinuously, such as dividing every predetermined number of pixels.

本実施例では、分割に際しては、隙間なくかつ重なりなく分割したが、隙間や重なりがあるように分割することも可能である。隙間があって全てのデータを利用しない場合であっても、あるいは重なりがある場合であって、全体の特徴を求めることはできる。例えば、一般に2のべき乗に分割するとコンピュータでの実装が容易であるため、入力データ数が2の巾乗でない場合には、端数を含めないようにすることも可能である。同様に、入力データにある程度の一様性が仮定できるのであれば、重なりがあっても影響は少ない。   In this embodiment, the division is performed without gaps and without overlapping, but it is also possible to divide so that there are gaps or overlaps. Even if there is a gap and not all data is used, or there is an overlap, it is possible to obtain the overall characteristics. For example, in general, division into powers of 2 makes it easy to implement on a computer. Therefore, when the number of input data is not a power of 2, it is possible to exclude fractions. Similarly, if a certain degree of uniformity can be assumed in the input data, there is little influence even if there is an overlap.

上述の実施例1では、入力手段としてはハイパースペクトルカメラを用い、このカメラからコンピュータに対して画像データを直接入力したが、カメラとコンピュータとをネットワークを介して接続された別の場所に配置することも可能である。例えば航空機にカメラを積み、カメラからのデータを無線ネットワークを介して地上の管制基地に送信し、地上の管制基地のコンピュータによって代表特徴抽出を行うように構成することもできる。また、カメラからその場の画像をコンピュータに直接入力してリアルタイムで処理を行うように構成することもできるし、データを記憶装置に保存しておき、例えば問題発生後の事後調査のように、データ採取と代表特徴抽出とを別のタイミングで行うこともできる。   In the first embodiment described above, a hyperspectral camera is used as the input means, and image data is directly input from the camera to the computer. However, the camera and the computer are arranged in different locations connected via a network. It is also possible. For example, a camera may be mounted on an aircraft, data from the camera may be transmitted to a ground control base via a wireless network, and representative feature extraction may be performed by a computer on the ground control base. In addition, it can be configured to directly input the image from the camera to the computer for processing in real time, and the data is stored in the storage device, for example, a post-survey after a problem occurs, Data collection and representative feature extraction can be performed at different timings.

代表特徴の出力方法としては、本実施例で説明したディスプレイに代表特徴を表示するものだけでなく、ネットワークを通して電子的に他の装置へ代表特徴を通知する、あるいはハードディスク装置やUSB(Universal Serial Bus)メモリ等の記録媒体に代表特徴を記録するなど、任意の方法を用いることができる。   As a representative feature output method, not only the representative feature is displayed on the display described in this embodiment, but the representative feature is electronically notified to other devices through a network, or a hard disk device or USB (Universal Serial Bus) is used. ) Any method can be used, such as recording a representative feature on a recording medium such as a memory.

本実施例では、海面の画像から溺者や漂流物を検出するシステムのために代表特徴抽出システムを使用する場合を説明したが、土砂災害現場の画像から土砂ではないものを検出するために土砂を代表する特徴を抽出するシステムや、砂漠の画像からオアシスを検出するために砂漠を代表する特徴を抽出するシステムへも本実施例を同様に応用することができる。また、代表特徴の抽出の対象となるデータとしては、本実施例で用いたハイパースペクトルカメラによるスペクトルデータだけではなく、任意のデータを用いることができる。例えば、移動速度、滞在時間などの行動を表現する複数の特徴量を用いて行動を表現し、一連の行動履歴から代表的な行動を抽出し、代表的な行動と比較して異常な行動を検知し、障害発生などを検出する障害検知システムなどに本実施例を応用することができる。さらに、一語の発話音声を多次元ベクトルとして表現し、一連の会話から、通常の会話にみられる発話を代表特徴として検出して、代表特徴と異なる会話を検出することで、犯罪捜査等にも本実施例を応用することもできる。さらにまた、通常ではないデータを検出する異常検知のための代表特徴選択だけでなく、画像を圧縮するために、その画像の特徴をよく表す代表画素を選択することにも本実施例は応用可能である。本実施例は、代表特徴を用いてデータの分類を行うことにも応用できる。   In this embodiment, the case where the representative feature extraction system is used for a system for detecting a deaf person or a drifting object from an image of the sea surface has been described. However, in order to detect non-sediment from an image of a sediment disaster site, The present embodiment can be similarly applied to a system that extracts a feature that represents a desert, and a system that extracts a feature that represents a desert in order to detect an oasis from a desert image. In addition, as the data from which representative features are extracted, not only spectral data obtained by the hyperspectral camera used in this embodiment but also arbitrary data can be used. For example, a behavior is expressed using a plurality of feature quantities expressing behavior such as moving speed and staying time, representative behavior is extracted from a series of behavior history, and abnormal behavior is compared with typical behavior. The present embodiment can be applied to a failure detection system that detects and detects the occurrence of a failure. Furthermore, by expressing speech speech of one word as a multidimensional vector, detecting utterances found in normal conversation as a representative feature from a series of conversations, and detecting conversations that differ from the representative feature, for criminal investigations, etc. The present embodiment can also be applied. Furthermore, this embodiment can be applied not only to selecting representative features for detecting abnormalities that detect unusual data, but also to selecting representative pixels that well represent the features of the image in order to compress the image. It is. The present embodiment can also be applied to classify data using representative features.

[実施例2]
実施例2は上述した第4の例示実施形態に対応するものである。この実施例2は、実施例1と同様のものであるが、図7に示すようにクラスタリング部28及びクラスタ代表抽出部29を備えている点で実施例1とは異なっている。また入力データについても異なる性質を有する複数の要素からなることが想定されるとし、最終的に求める代表特徴の数は複数とする。また、また代表データ数Kも2以上であるとする。
[Example 2]
Example 2 corresponds to the fourth exemplary embodiment described above. The second embodiment is similar to the first embodiment, but differs from the first embodiment in that a clustering unit 28 and a cluster representative extraction unit 29 are provided as shown in FIG. Also, it is assumed that the input data is composed of a plurality of elements having different properties, and the number of representative features to be finally obtained is a plurality. The number of representative data K is also 2 or more.

例えば、画像を8×8画素ごとに区切った領域ごとに代表データを選択するものとすると、実施例1と同様の処理を行うことにより、クラスタリング部28へ入力されるデータは、入力画像を64分の1に縮小した代表データ(圧縮画像)となる。クラスタリング部28では、そこへの入力画像を特徴量の似通った部分画像(クラスタ)に分割する。例えば処理対象の画像が図14に示すように海の領域と砂浜の領域からなるとすると、クラスタリング部28は、入力画像全体をクラスタリング処理し、図15に示すように、海の領域と、砂浜の領域とに対応する2つの部分画像1,2に入力画像を分割する。クラスタリング処理には、例えばk−平均法(k-means)などの任意の方法を用いることができる。   For example, assuming that representative data is selected for each region obtained by dividing the image into 8 × 8 pixels, by performing the same processing as in the first embodiment, the data input to the clustering unit 28 is the input image of 64. The representative data (compressed image) is reduced to a factor of one. The clustering unit 28 divides the input image into partial images (clusters) having similar feature amounts. For example, if the image to be processed is composed of a sea area and a sand beach area as shown in FIG. 14, the clustering unit 28 performs a clustering process on the entire input image, and as shown in FIG. 15, the sea area and the sand beach area. The input image is divided into two partial images 1 and 2 corresponding to the area. For the clustering process, for example, an arbitrary method such as a k-means can be used.

このようにクラスタが生成されたとしてクラスタ代表抽出部29は、作成されたクラスタごとに代表特徴を抽出する。例えば、図15に示すように海の領域と砂浜の領域とを示す二つのクラスタ(部分画像1,2)が作成された場合、図16においてスペクトル曲線で示すように、海を表すクラスタの代表値と砂浜を表すクラスタの代表値を求める。   As described above, the cluster representative extraction unit 29 extracts a representative feature for each created cluster, assuming that a cluster is generated. For example, when two clusters (partial images 1 and 2) indicating a sea area and a sand beach area are created as shown in FIG. 15, as shown by the spectrum curve in FIG. The representative value of the cluster representing the value and the sandy beach is obtained.

クラスタの代表値の求め方としては、評価値計算部24及びデータ選択部25での処理と同様に、他のデータまでの距離の合計が最小となるデータを代表値とする方法がある。あるいは、クラスタ内のデータの平均値として代表値を求めることもできる。本実施例の場合、クラスタリングを行う前に階層的に代表特徴を選択しており、外れ値のデータや少数の性質の異なるデータは予め除かれている。また、似た性質を持つクラスタへ分割されている。そのため、1つのクラスタ内にはほぼ同じ性質を持つデータのみが存在するたので、ここで平均を求めても、外れ値や性質の異なるデータに影響されることはない。   As a method of obtaining the representative value of the cluster, there is a method in which data having the minimum total distance to other data is used as the representative value, as in the processing in the evaluation value calculation unit 24 and the data selection unit 25. Alternatively, a representative value can be obtained as an average value of data in the cluster. In the present embodiment, representative features are selected hierarchically before clustering, and outlier data and a small number of data with different properties are excluded in advance. It is also divided into clusters with similar properties. For this reason, since only data having substantially the same property exists in one cluster, even if the average is obtained here, it is not affected by data having different outliers or properties.

クラスタリングとしては、空間的な連続性を用いて似た領域に分割する方法を用いてよいし、空間的な連続性は用いずにスペクトルの類似性だけで似た領域に分割する方法を用いてもよい。図16で示すような、入力画像が空間的に区別できる複数の領域からなる場合には、空間的な連続性を用いて似た領域に分割する方が、好ましい代表特徴を選択することができる。一方、森の中から部分的に土が見えているような画像を入力画像とする場合には、空間的な連続性を用いずにスペクトルの類似性だけに着目することで、入力画像を森の木と土のそれぞれにクラスタリングすることができる。   For clustering, a method of dividing into similar regions using spatial continuity may be used, or a method of dividing into similar regions using only spectral similarity without using spatial continuity. Also good. When the input image is composed of a plurality of regions that can be spatially distinguished as shown in FIG. 16, it is possible to select a representative feature that is preferable to divide into similar regions using spatial continuity. . On the other hand, when the input image is an image in which the soil is partially visible from the forest, the input image is converted into the forest by focusing only on the spectral similarity without using spatial continuity. Can be clustered on each tree and soil.

このような実施例2によれば、特徴量の似通ったクラスタに入力画像を分割し、各クラスタに対して代表特徴抽出を行うことで、入力画像がいくつかの異なった性質を持つ複数の領域からなる場合にも対応できるようになる。   According to the second embodiment, the input image is divided into clusters having similar feature amounts, and representative feature extraction is performed on each cluster, so that the input image has a plurality of regions having several different properties. It will be possible to cope with the case of consisting of.

本実施例では、クラスタリングの前に階層的な選択を行っているので、入力画像を高速に処理することが可能となる。階層的な選択を行わずに入力データに対してクラスタリングを直接行うことも考えられる。しかしながら、k−平均法などのクラスタリングアルゴリズムは繰り返し演算を使用するので、非常に処理時間のかかるアルゴリズムである。したがって階層的な選択をあらかじめ行い、クラスタリング対象のデータ数を減らしておくことで、大幅な高速化が実現できる。   In this embodiment, since hierarchical selection is performed before clustering, an input image can be processed at high speed. It is also conceivable to perform clustering directly on input data without performing hierarchical selection. However, since a clustering algorithm such as the k-means method uses repetitive operations, it is an extremely time-consuming algorithm. Therefore, significant speedup can be realized by performing hierarchical selection in advance and reducing the number of data to be clustered.

[実施例3]
実施例3は、図5を用いて説明した第3の例示実施形態に対応するものである。
[Example 3]
Example 3 corresponds to the third exemplary embodiment described with reference to FIG.

生起分布記憶部16は、各データIiの生起分布Q(X)=(q(1)(x),q(2)(x),…,q(D)(x))、つまり各特徴量vi (j)の生起分布q(j)(x)を記憶している。例えば、第j成分の特徴量の分布は、平均がm(j)であって分散がσ(j)である正規分布であるとか、あるいは、[min(j),max(j)]の間の一様分布である、といったことが生起分布記憶部16に記憶されている。特徴量vi (j)は生起分布記憶部16に記憶された分布に従って生起するとする。撮影対象についての事前知識に基づいて平均や分散等のパラメータを含めて事前に生起分布を与えることもできるし、分布の形状だけは既知であるとした上で、平均や分散等のパラメータを実際に入力されたデータから求めることにより生起分布を与えることもできる。さらに、生起分布についての事前知識が得られない場合や、事前知識から生起分布を定められない場合には、一様分布を仮定し、その一様分布の最大値max(j)、最小値min(j)を実際に入力された全ての画像のデータの第j成分の最大値、最小値から定めることもできる。 The occurrence distribution storage unit 16 has an occurrence distribution Q (X) = (q (1) (x), q (2) (x),..., Q (D) (x)) of each data I i , that is, each feature. The occurrence distribution q (j) (x) of the quantity v i (j ) is stored. For example, the distribution of the feature quantity of the j-th component is a normal distribution with an average of m (j) and a variance of σ (j) , or between [min (j) and max (j) ]. Is stored in the occurrence distribution storage unit 16. It is assumed that the feature quantity v i (j) occurs according to the distribution stored in the occurrence distribution storage unit 16. Based on prior knowledge about the object to be photographed, the occurrence distribution can be given in advance including parameters such as mean and variance, and only the shape of the distribution is known, and the parameters such as mean and variance are actually The occurrence distribution can also be given by obtaining from the data input to. Furthermore, when prior knowledge about the occurrence distribution cannot be obtained or when the occurrence distribution cannot be determined from the prior knowledge, a uniform distribution is assumed, and the maximum value max (j) and the minimum value min of the uniform distribution are assumed. It is also possible to determine (j) from the maximum value and the minimum value of the j-th component of all image data actually input.

評価値計算部13は、生起分布記憶部16に記憶されている生起分布Q(x)を用いて仮想的に生成した値がデータIaとIbの間の値となる確率P(Ia,Ib)として、これらのデータIaとIbの距離を定義する。第j成分の生起分布がq(j)(x)であるので、生起分布から仮想的に生成されるパターンの第j成分の値がデータIaの第j成分の値va (j)とIbの第j成分の値vb (j)の間の値となる確率p(va (j),Ib (j))は、式(4)で表される。よって、仮想的に生成した値がIaとIbの間の値となる確率P(Ia,Ib)は、各成分の生起分布が独立であるとすると、式(5)によって表される。通常の場合、距離についてその値が大きいほど二つのデータは異なっており、値が小さいほど二つのデータが近いと言える。式(5)で定義した確率も、その値が小さいということは、二つの値の間にあたる値を取る事象がめったに起こらない、つまり二つのデータの間が距離が短く、二つのデータが類似していることを表している。逆に確率値が大きいということは、二つのデータの値の間の値を取る事象が珍しくない、つまり二つのデータの間が距離が長く、二つのデータが非類似であることを表わしている。 The evaluation value calculation unit 13 uses a probability P (I a that a value virtually generated using the occurrence distribution Q (x) stored in the occurrence distribution storage unit 16 is a value between the data I a and I b. , I b ), the distance between these data I a and I b is defined. Since occurrence distribution of the j component is q (j) (x), the value v a value of the j component of the pattern to be virtually generated from the occurrence distribution is the j-th component of data I a (j) values become probability p between the value of the j component of I b v b (j) ( v a (j), I b (j)) is represented by the formula (4). Therefore, the value produced virtually the I a and I b value become probability P (I a, I b) during shall be occurrence distribution of each component is independently represented by the formula (5) The In a normal case, the two data are different as the distance is larger, and the two data are closer as the value is smaller. The probability defined by Equation (5) is also small, meaning that an event that takes a value between two values rarely occurs, that is, the distance between the two data is short, and the two data are similar. It represents that. On the other hand, a large probability value indicates that it is not uncommon for an event to take a value between two data values, that is, the distance between the two data is long and the two data are dissimilar. .

Figure 0005391876
Figure 0005391876

Figure 0005391876
Figure 0005391876

iとIRの距離D(Ii,IR)として、この確率pの対数をとることで、式(6)のようにすることもできる。対数関数(log)は単調増加関数であるため、対数をとっても距離としての性質に変化はない。 By taking the logarithm of this probability p as the distance D (I i , I R ) between I i and I R , it is also possible to obtain equation (6). Since the logarithmic function (log) is a monotonically increasing function, even if the logarithm is taken, the property as a distance does not change.

Figure 0005391876
Figure 0005391876

ここで、式(1)で表される一般的な距離を用いる場合と比較し、本実施例で規定するような距離を用いることの効果について、図17を用いて説明する。 Here, as compared with the case of using the general distance represented by Expression (1), the effect of using the distance as defined in this embodiment will be described with reference to FIG.

例えば第d成分に相当するセンサに欠損が生じたり、ノイズの影響で外れ値をとったりすることで、本来、IiとIRは似たデータであるにもかかわらず、それらのデータにおける第d成分の差(vi (d)−vR (d))が大きな値になったとする。図17において、横軸が第n成分を示し、縦軸が第n成分の特徴量の値を示している。データISはIRと同じ対象のデータであるが、ISの第d成分にノイズが入り、特徴量vS (d)が外れ値となっている。データITはIRとは別の対象のデータであり、IRとは全体的に異なる特徴量となっている。しかしながら、通常の距離L2を用いる場合には、vS (d)が外れ値であるため、(vS (d)−vR (d)2が非常に大きな値となり、第d成分以外の特徴量がほぼ同じ値であるにもかかわらず、距離L2(IS,IR)は大きな値となり、その結果、データISとIRは似ていないと判定されてしまう。一方、ITとIRは全体的に少しずつ異なるが、大きな差のある成分がないため、距離L2(IT,IR)はそれほど大きくならず、ITとIRは、ISとIRより似ていると判断されてしまう。 For example, when a sensor corresponding to the d-th component is lost or an outlier is taken under the influence of noise, I i and I R are originally similar data, but the d-th data in those data is similar. It is assumed that the component difference (v i (d) −v R (d) ) becomes a large value. In FIG. 17, the horizontal axis indicates the nth component, and the vertical axis indicates the value of the feature amount of the nth component. The data I S is the same target data as I R , but noise enters the d-th component of I S , and the feature value v S (d) is an outlier. Data I T is the data of another subject and I R, has a totally different characteristic amount from the I R. However, when the normal distance L 2 is used, since v S (d) is an outlier, (v S (d) −v R (d) ) 2 becomes a very large value, except for the d-th component. The distance L 2 (I S , I R ) is a large value even though the feature values of are substantially the same, and as a result, it is determined that the data I S and I R are not similar. On the other hand, although I T and I R are slightly different as a whole, since there is no component having a large difference, the distance L 2 (I T , I R ) is not so large, and I T and I R are I S It would be judged to be similar than I R and.

一方、本実施例で用いる式(6)で示される距離の場合、第d成分の寄与を考えると、外れ値のためvS (d)とvR (d)の差が大きくなったときにp(vS (d),vR (d))が1に近くなり、式(6)の第d成分の対数値log(p(vS (d),vR (d)))は0に近くなる。そのため、外れ値を含む第d成分の全体への寄与は小さくなる。それ以外の外れ値を含まない第i成分(i≠d)については、vS (i)とvR (i)の差が小さく、p(vS (i),vR (i))は0に近くなり、式(6)の第i成分の対数値log(p(vS (i),vR (i)))は小さな値(絶対値が大きな負の値)となる。外れ値を含む第d成分が0で、外れ値を含まない成分が絶対値の大きな負の値であるため、その合計D(IS,IR)は絶対値の大きな負の値となり、本実施例で定義する距離としては小さな値となる。したがってデータISとIRは似ていると判断される。一方、ITとIRは全体的に異なるため、全ての成分についてp(vT (i),vR (i))が1に近い値となり、式(6)の各成分の対数値log(p(vT (i),vR (i)))はいずれも0に近くなる。0に近い値を加えてもやはり0に近い値となるため、D(IT,IR)は0に近い値となる。式(6)で表される距離は、0が最大値であるので、データITとIRの距離は大きな値となる。 On the other hand, in the case of the distance represented by the equation (6) used in the present embodiment, when the contribution of the d-th component is considered, when the difference between v S (d) and v R (d) increases due to an outlier. p (v S (d) , v R (d) ) becomes close to 1, and the logarithmic value log (p (v S (d) , v R (d) )) of the d-th component in equation (6) is 0. Close to. For this reason, the contribution to the entire d-th component including outliers is reduced. For the i-th component (i ≠ d) that does not include any other outlier, the difference between v S (i) and v R (i) is small, and p (v S (i) , v R (i) ) is The logarithmic value log (p (v S (i) , v R (i) )) of the i-th component of Equation (6) becomes a small value (a negative value with a large absolute value). Since the d-th component including outliers is 0 and the component not including outliers is a negative value having a large absolute value, the sum D (I S , I R ) is a negative value having a large absolute value. The distance defined in the embodiment is a small value. Thus data I S and I R are determined to be similar. On the other hand, since I T and I R are totally different, p (v T (i) , v R (i) ) becomes a value close to 1 for all components, and logarithmic value log of each component in Equation (6) (p (v T (i) , v R (i) )) are both close to zero. Even if a value close to 0 is added, it is also close to 0, so D (I T , I R ) is close to 0. Distance represented by the formula (6), since 0 is the maximum value, the distance data I T and I R becomes a large value.

式(6)で示す距離の持つこの性質により、特徴量の一部に欠損や外れ値がある場合にもそのことの影響を受けにくくなる。したがって実施例3の手法は、入力データに外れ値が含まれていても安定して代表特徴を抽出することができるという性質を有する。   Due to this property of the distance shown in Equation (6), even if there is a deficiency or outlier in a part of the feature amount, it is less susceptible to that. Therefore, the method of the third embodiment has a property that a representative feature can be stably extracted even if an outlier is included in input data.

同様に、式(6)で示す距離の持つ、差が大きな成分の全体に対する寄与は小さくなるという性質により、本実施例の手法は、特徴の次元が高い場合でも安定して代表特徴を抽出することができるという性質を有する。   Similarly, due to the property that the contribution of the component having a large difference with the distance represented by Equation (6) is small, the method of this embodiment stably extracts representative features even when the feature dimension is high. It has the property that it can.

これに対して式(1)に示す通常の距離L2を用いる場合には、特徴の次元が高くなると安定して代表特徴を抽出できなくなる。一般に、通常の距離L2を用いる場合には、次元が高くなるとデータの近さの判定が不安定となると言われている。高次元では通常の距離による近さの判定が不安定になることの原因は、通常の距離尺度では、Dが大きな自然数であるとして、D次元パターンの各成分のうち、距離が小さい成分の寄与が、距離が大きい成分の寄与に比べてはるかに小さくなることにある。距離が小さい成分の寄与よりも、外れ値のような距離が大きい成分の微小変化の影響の方が大きくなり、近さの判定の不安定性を引き起こしている。また、次元Dが大きくなると距離が大きい成分が現れる確率が高くなるため、高次元パターンではこのような近傍判定の不安定性が生じる確率が高くなる。 On the other hand, when the normal distance L 2 shown in the equation (1) is used, the representative feature cannot be extracted stably when the feature dimension becomes high. In general, when the normal distance L 2 is used, it is said that the determination of data proximity becomes unstable as the dimension increases. The reason why the determination of the proximity based on the normal distance becomes unstable in the high dimension is that the normal distance scale assumes that D is a large natural number, and among the components of the D-dimensional pattern, the contribution of the component with the smaller distance Is much smaller than the contribution of components with large distances. The influence of a minute change of a component with a large distance, such as an outlier, is greater than the contribution of a component with a small distance, causing instability in proximity determination. In addition, since the probability that a component having a large distance will appear as the dimension D increases, the probability that such instability of neighborhood determination will occur in a high-dimensional pattern increases.

これに対して本実施例にように任意パターンの特徴量の生起分布から仮想的にパターンを発生させた場合に、各データごとに、各データの特徴量よりも正常データに近いパターンとなる確率は、特徴量の差の大きな成分については1に近くなる。1に近いほど影響が小さいので、特徴量の差の大きな成分の他の成分への影響が小さくなり、このため、他の成分が似ていれば二つのパターン間の距離は小さくなる。このように、次元が高くなっても、本実施例の方法によれば、距離が不安定となることはない。   On the other hand, when a pattern is virtually generated from the occurrence distribution of the feature quantity of an arbitrary pattern as in the present embodiment, the probability that the pattern is closer to normal data than the feature quantity of each data for each data Is close to 1 for components with large differences in feature quantities. The closer the value is to 1, the smaller the influence is. Therefore, the influence of the component having a large feature amount difference on the other component is reduced. For this reason, if the other components are similar, the distance between the two patterns is reduced. Thus, even if the dimension is increased, according to the method of this embodiment, the distance does not become unstable.

ここでは、特徴が複数の特徴量からなる高次元ベクトルとして表せる場合で、複数の特徴量のうちのある特徴量に外れ値が含まれる場合に対する効果を示した。次に、複数のデータのうちに異常なデータが含まれる場合に対する本実施例の効果を説明する。   Here, an effect is shown in the case where the feature can be expressed as a high-dimensional vector composed of a plurality of feature amounts, and an outlier is included in a certain feature amount of the plurality of feature amounts. Next, the effect of the present embodiment for the case where abnormal data is included in a plurality of data will be described.

図13に示すように、{(I1,I2,I3,I4)}の4つのデータから代表値を選ぶ場合に、I4はノイズの影響による外れ値を含んでいるデータであるとする。各データ間の距離をDijとする。I4は外れ値を含んでいるデータであるので、距離D14,D24,D34は距離D12,D13,D23と比べて大きくなる。 As shown in FIG. 13, when a representative value is selected from four data of {(I 1 , I 2 , I 3 , I 4 )}, I 4 is data including an outlier due to the influence of noise. And Let D ij be the distance between each data. Since I 4 is data including outliers, the distances D 14 , D 24 , and D 34 are larger than the distances D 12 , D 13 , and D 23 .

先に述べたように、通常の距離L2を使う場合、離れているものの影響が大きいので、例えばI2から他のデータへの距離の合計を考えると、D12やD23に比べD24ははるかに大きくなってD24の影響は小さくなり、D12やD23の影響が大きくなる。そのため、データの密集しているI1,I2,I3の位置関係を中心にして評価値が定まることとなり、外れ値を除いた、データの性質をよく表す代表特徴が選ばれることになる。 As described above, when the normal distance L 2 is used, since the influence of the distance is large, for example, when considering the total distance from I 2 to other data, D 24 compared to D 12 and D 23. Becomes much larger and the influence of D 24 becomes smaller, and the influence of D 12 and D 23 becomes larger. Therefore, the evaluation value is determined centering on the positional relationship between I 1 , I 2 , and I 3 where the data is dense, and representative features that express the properties of the data excluding outliers are selected. .

[実施例4]
次に実施例4について説明する。実施例4は、実施例1と同様のものであるが、実施例3に示した生起分布記憶部16をさらに備え、評価値計算部24では実施例3における評価値計算部13と同様の手順で距離が算出され評価値が求められる点で、実施例1のものとは相違している。図18は、このような実施例4における代表特徴抽出システムの構成を示している。
[Example 4]
Next, Example 4 will be described. The fourth embodiment is the same as the first embodiment, but further includes the occurrence distribution storage unit 16 shown in the third embodiment, and the evaluation value calculation unit 24 has the same procedure as the evaluation value calculation unit 13 in the third embodiment. This is different from the first embodiment in that the distance is calculated and the evaluation value is obtained. FIG. 18 shows the configuration of a representative feature extraction system according to the fourth embodiment.

生起分布記憶部16は、入力が想定される特徴量の生起分布を記憶している。また、実施例1と同様に、入力データは複数の階層の部分データ群に分割されてデータは階層的に処理される。すなわちデータ分割部22は、入力データを複数の部分データ群に階層的に分割し、評価値計算、データ選択を階層的に行えるようにしている。評価値計算部24及びデータ選択部25は、階層ごとの各部分データ群の中の各データについて、その部分データ群の中の他のデータとの類似度を表す距離を計算し、その距離を用いて各データの評価値を求める。ここでの距離は、生起分布記憶部16に記憶されている生起分布から仮想的にパターンを発生させた場合に、そのパターンの値が比較しようとしている二つのデータの値の間の値となる確率とするものである。データ集約部26は、部分データ群ごとの代表データを集め、それに基づいて次の階層の部分データ群を作成することで、評価値計算及びデータ選択を階層的に行えるようにする。   The occurrence distribution storage unit 16 stores an occurrence distribution of feature quantities assumed to be input. Similarly to the first embodiment, the input data is divided into a plurality of hierarchical partial data groups, and the data is processed hierarchically. That is, the data dividing unit 22 divides input data into a plurality of partial data groups in a hierarchical manner so that evaluation value calculation and data selection can be performed in a hierarchical manner. The evaluation value calculation unit 24 and the data selection unit 25 calculate, for each data in each partial data group for each hierarchy, a distance representing the similarity with other data in the partial data group, and the distance is calculated. To evaluate the evaluation value of each data. The distance here is a value between two data values to be compared when the pattern is virtually generated from the occurrence distribution stored in the occurrence distribution storage unit 16. Probability. The data aggregating unit 26 collects representative data for each partial data group and creates a partial data group of the next hierarchy based on the collected data, thereby enabling evaluation value calculation and data selection to be performed hierarchically.

このような実施例4は、実施例1に基づく階層的な代表特徴選択と実施例3に基づく生起分布に基づく評価値算出とを組み合わせたものであるため、両方の実施例に基づく効果を合わせ持つ。   In the fourth embodiment, since the hierarchical representative feature selection based on the first embodiment and the evaluation value calculation based on the occurrence distribution based on the third embodiment are combined, the effects based on both the embodiments are combined. Have.

具体的には、本実施例によれば、階層構造を用いることにより、外れ値を含むデータや性質の異なる少数のデータの影響が下位の階層から上位の階層に伝播することがないので、実施例1の場合と同様に、外れ値や性質の異なる少数のデータの影響を受けずに代表特徴を抽出することができる。階層構造を用いることのほかに、生起分布から仮想的にパターンを発生させたとして現在の比較対象の2つのデータの値の間の値をそのパターンが取る確率を用いることにより、実施例3と同様に、外れ値や性質の異なる少数のデータの影響をより受けにくくなる。   Specifically, according to the present embodiment, by using a hierarchical structure, the influence of data including outliers or a small number of data having different properties is not propagated from a lower hierarchy to an upper hierarchy. As in the case of Example 1, the representative feature can be extracted without being affected by a small number of data having different outliers and properties. In addition to using a hierarchical structure, the probability that the pattern takes a value between two values of the current comparison target data as a virtual pattern generated from the occurrence distribution is used. Similarly, it is less likely to be affected by a small number of data with different outliers and properties.

階層的に計算し、かつ距離の総和によって代表特徴を求めることにより、実施例1と同様に、データ数が少なくても代表特徴を求めることができ、また、高速に代表特徴を求めることができる。   By calculating hierarchically and obtaining the representative feature by the sum of distances, the representative feature can be obtained even when the number of data is small, and the representative feature can be obtained at high speed, as in the first embodiment. .

生起分布から仮想的にパターンを発生させたとして現在の比較対象の2つのデータの値の間の値をそのパターンが取る確率を用いることにより、実施例3と同様に、特徴が高次元になっても安定して代表特徴を求めることができる
なお、実施例4においては、実施例2と同様に、クラスタリング部とクラスタ代表抽出部を追加することも可能である。その場合には、入力画像が異なった性質を有する複数の領域からなる場合にも安定して代表特徴を抽出できるようになる。
By using the probability that the pattern takes a value between the two values of the current comparison target, assuming that the pattern is virtually generated from the occurrence distribution, the feature becomes high-dimensional as in the third embodiment. However, in the fourth embodiment, a clustering unit and a cluster representative extraction unit can be added as in the second embodiment. In that case, the representative feature can be stably extracted even when the input image is composed of a plurality of regions having different properties.

本発明は、例えば、画像・音声・スペクトルパターン・行動パターン等から代表特徴を抽出して、異常検知やデータ圧縮、分類等を行う技術分野に適用できる。   The present invention can be applied to a technical field in which, for example, representative features are extracted from images, sounds, spectrum patterns, behavior patterns, etc., and abnormality detection, data compression, classification, and the like are performed.

11,21 入力部
12 データ群格納部
13,24 評価値計算部
14,25 データ選択部
15,27 出力部
16 生起分布記憶部
22 データ分割部
23 部分データ群格納部
26 データ集約部
28 クラスタリング部
29 クラスタ代表抽出部
11, 21 Input unit 12 Data group storage unit 13, 24 Evaluation value calculation unit 14, 25 Data selection unit 15, 27 Output unit 16 Occurrence distribution storage unit 22 Data division unit 23 Partial data group storage unit 26 Data aggregation unit 28 Clustering unit 29 Cluster representative extractor

Claims (16)

入力データから代表特徴を選択する代表特徴抽出システムであって、
前記入力データを階層的に複数の部分データ群に分割する分割手段と、
処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群において当該部分データ群に含まれるデータごとに当該データから当該部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求める評価値算出手段と、
前記処理階層の各部分データ群について、当該部分データ群に含まれる前記データの中で前記評価値が最小のものを代表データとして選択するデータ選択手段と、
前記処理階層が最上位の階層であれば前記データ選択手段が選択した前記代表データを前記入力データに対する前記代表特徴とし、前記処理階層が最上位の階層以外の階層であるときには、前記データ選択手段が選択した前記代表データを集約して前記処理階層より1階層上の階層の部分データ群を生成する集約手段と、
入力が想定される特徴量についての生起分布を記憶する生起分布記憶手段と、
を有し、
前記評価値計算手段は、2つのデータ間の距離を、前記生起分布によって仮想的にパターンを発生させた場合に当該パターンによるデータ値が前記2つのデータの値の間に存在する確率として求める、代表特徴抽出システム。
A representative feature extraction system that selects representative features from input data,
Dividing means for dividing the input data hierarchically into a plurality of partial data groups;
The distance from the data to other data included in the partial data group for each data included in the partial data group in each partial data group of the processing hierarchy, with the lowest hierarchy among the unprocessed hierarchies An evaluation value calculating means for calculating an evaluation value by calculating a sum of
For each partial data group of the processing hierarchy, data selection means for selecting, as representative data, the one with the smallest evaluation value among the data included in the partial data group;
If the processing hierarchy is the highest hierarchy, the representative data selected by the data selection means is the representative feature for the input data, and if the processing hierarchy is a hierarchy other than the highest hierarchy, the data selection means Aggregating means for aggregating the representative data selected by and generating a partial data group in a hierarchy one layer higher than the processing hierarchy;
An occurrence distribution storage means for storing an occurrence distribution of a feature quantity assumed to be input;
I have a,
The evaluation value calculation means obtains a distance between two data as a probability that a data value according to the pattern exists between the two data values when a pattern is virtually generated by the occurrence distribution. Representative feature extraction system.
前記集約手段によって得られた前記代表特徴をクラスタに分割するクラスタリング手段と、
前記クラスタごとに代表特徴を抽出するクラスタ代表抽出手段と、
さらを有する、請求項1に記載の代表特徴抽出システム。
Clustering means for dividing the representative feature obtained by the aggregation means into clusters;
Cluster representative extraction means for extracting representative features for each cluster;
The representative feature extraction system of claim 1 further comprising:
前記クラスタ代表抽出手段は、前記評価値計算手段で用いられる距離基準とは異なる距離基準を用いて前記クラスタから代表特徴を抽出する、請求項2に記載の代表特徴抽出システム。   The representative feature extraction system according to claim 2, wherein the cluster representative extraction unit extracts a representative feature from the cluster using a distance reference different from the distance reference used in the evaluation value calculation unit. 前記分割手段は、前記入力データにおける空間的な連続性を用いて前記入力データを部分データ群へ分割する、請求項1乃至3のいずれか1項に記載の代表特徴抽出システム。   The representative feature extraction system according to claim 1, wherein the dividing unit divides the input data into partial data groups using spatial continuity in the input data. 記クラスタ代表抽出手段は、クラスタ内のデータの平均を前記代表特徴とする、請求項に記載の代表特徴抽出システム。 Before SL cluster representative extraction unit, and the representative feature an average of the data in the cluster, the representative feature extraction system according to claim 2. 前記入力データを読み込む入力手段と、
前記部分データ群を格納する格納手段と、
前記代表特徴を出力する出力手段と、
さらに備える請求項1乃至のいずれか1項に記載の代表特徴抽出システム。
Input means for reading the input data;
Storage means for storing the partial data group;
An output means for outputting the representative feature;
The representative feature extraction system according to any one of claims 1 to 5 , further comprising:
入力データから代表特徴を選択する代表特徴抽出方法であって、
前記入力データを階層的に複数の部分データ群に分割することと、
処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群において当該部分データ群に含まれるデータごとに当該データから当該部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求め、前記評価値が最小のものを当該部分データ群の代表データとして選択することと、
前記処理階層が最上位の階層であれば前記選択された代表データを前記入力データに対する前記代表特徴とすることと、
前記処理階層が最上位の階層以外の階層であるときには、前記選択された代表データを集約して前記処理階層より1階層上の階層の部分データ群を生成し、前記評価値を求めることと前記代表データを選択することとを繰り返すことと、
を有し、
前記2つのデータ間の距離は、入力が想定される特徴量についての予め用意された生起分布によって仮想的にパターンを発生させた場合に当該パターンによるデータ値が前記2つのデータの値の間に存在する確率として表される、代表特徴抽出方法。
A representative feature extraction method for selecting a representative feature from input data,
Dividing the input data hierarchically into a plurality of partial data groups;
The distance from the data to other data included in the partial data group for each data included in the partial data group in each partial data group of the processing hierarchy, with the lowest hierarchy among the unprocessed hierarchies To calculate an evaluation value, selecting the smallest evaluation value as representative data of the partial data group,
If the processing hierarchy is the highest hierarchy, the selected representative data is the representative feature for the input data;
When the processing hierarchy is a hierarchy other than the highest hierarchy, the selected representative data is aggregated to generate a partial data group of a hierarchy one level higher than the processing hierarchy, and to obtain the evaluation value; Repeating representative data selection,
I have a,
The distance between the two data is such that when a pattern is virtually generated by an occurrence distribution prepared in advance for a feature quantity that is assumed to be input, the data value of the pattern is between the values of the two data. A representative feature extraction method expressed as a probability of existence .
前記代表特徴をクラスタに分割するクラスタリングすることと、
前記クラスタごとに代表特徴を抽出することと、
をさらに有する、請求項に記載の代表特徴抽出方法。
Clustering the representative features into clusters;
Extracting representative features for each cluster;
The representative feature extraction method according to claim 7 , further comprising:
前記クラスタごとに代表特徴を抽出する際に用いられる距離基準は、前記データ間の距離を求める際の距離基準とは異なる、請求項に記載の代表特徴抽出方法。 9. The representative feature extraction method according to claim 8 , wherein a distance reference used when extracting a representative feature for each cluster is different from a distance reference used when obtaining a distance between the data. 前記入力データにおける空間的な連続性を用いて前記入力データが前記部分データ群に分割される、請求項乃至のいずれか1項に記載の代表特徴抽出方法。 Wherein said input data using a spatial continuity in the input data is divided into the partial data group, the representative feature extraction method according to any one of claims 7 to 9. 記クラスタ内のデータの平均を前記クラスタから抽出される代表特徴とする、請求項に記載の代表特徴抽出方法。 The average of the data before Symbol cluster as a representative features extracted from the cluster, the representative feature extraction method according to claim 8. 前記特徴量の生起分布として、入力データにおける最大値と最小値の間の一様分布を用いることを特徴とする、請求項に記載の代表特徴抽出方法。 The representative feature extraction method according to claim 7 , wherein a uniform distribution between a maximum value and a minimum value in the input data is used as the occurrence distribution of the feature amount. ハイパースペクトルカメラのスペクトルデータを多次元データとしたものを前記入力データとする、請求項乃至12のいずれか1項に記載の代表特徴抽出方法。 The representative feature extraction method according to any one of claims 7 to 12 , wherein spectrum data of a hyperspectral camera is converted into multidimensional data as the input data. 前記入力データから前記代表特徴を抽出した後、代表特徴とは異なるデータを異常なデータとして検出することをさらに有する、請求項乃至13のいずれか1項に記載の代表特徴抽出方法。 After extracting the representative feature from said input data, representative feature further comprising detecting as abnormal data data different from the representative feature extraction method according to any one of claims 7 to 13. コンピュータに、
入力データを階層的に複数の部分データ群に分割する処理と、
処理済みでない階層のうちで最も下位の階層を処理階層として、処理階層の各部分データ群において当該部分データ群に含まれるデータごとに当該データから当該部分データ群に含まれる他のデータまでの距離の和を算出して評価値を求め、前記評価値が最小のものを当該部分データ群の代表データとして選択するデータ選択処理と、
前記処理階層が最上位の階層であれば前記選択された代表データを前記入力データに対する前記代表特徴とする処理と、
前記処理階層が最上位の階層以外の階層であるときには、前記選択された代表データを集約して前記処理階層より1階層上の階層の部分データ群を生成して前記データ選択処理を繰り返させる処理と、
実行させ
前記2つのデータ間の距離は、入力が想定される特徴量についての予め用意された生起分布によって仮想的にパターンを発生させた場合に当該パターンによるデータ値が前記2つのデータの値の間に存在する確率として表される、プログラム。
On the computer,
A process of hierarchically dividing the input data into a plurality of partial data groups;
The distance from the data to other data included in the partial data group for each data included in the partial data group in each partial data group of the processing hierarchy, with the lowest hierarchy among the unprocessed hierarchies A data selection process for calculating an evaluation value by calculating the sum of the above, selecting the smallest evaluation value as representative data of the partial data group,
If the processing hierarchy is the highest hierarchy, the selected representative data is the representative feature for the input data; and
When the processing hierarchy is a hierarchy other than the highest hierarchy, a process of aggregating the selected representative data to generate a partial data group of a hierarchy one level higher than the processing hierarchy and repeating the data selection process When,
Was executed,
The distance between the two data is such that when a pattern is virtually generated by an occurrence distribution prepared in advance for a feature quantity that is assumed to be input, the data value of the pattern is between the values of the two data. A program expressed as a probability of existence .
前記コンピュータに、
前記代表特徴をクラスタに分割するクラスタリングする処理と、
前記クラスタごとに代表特徴を抽出する処理と、
をさらに実行させる、請求項15に記載のプログラム。
In the computer,
Clustering to divide the representative features into clusters;
Processing for extracting representative features for each cluster;
The program according to claim 15 , further executing:
JP2009156830A 2009-07-01 2009-07-01 Representative feature extraction system, method and program Expired - Fee Related JP5391876B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009156830A JP5391876B2 (en) 2009-07-01 2009-07-01 Representative feature extraction system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009156830A JP5391876B2 (en) 2009-07-01 2009-07-01 Representative feature extraction system, method and program

Publications (2)

Publication Number Publication Date
JP2011013886A JP2011013886A (en) 2011-01-20
JP5391876B2 true JP5391876B2 (en) 2014-01-15

Family

ID=43592709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009156830A Expired - Fee Related JP5391876B2 (en) 2009-07-01 2009-07-01 Representative feature extraction system, method and program

Country Status (1)

Country Link
JP (1) JP5391876B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5668157B1 (en) * 2014-02-05 2015-02-12 佐鳥 新 Object search device, object search program, and lifesaving search system
JP6443393B2 (en) * 2016-06-01 2018-12-26 トヨタ自動車株式会社 Action recognition device, learning device, method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04247585A (en) * 1991-02-04 1992-09-03 Seiko Epson Corp Pattern recognizing method
JP3494306B2 (en) * 1994-01-31 2004-02-09 ソニー株式会社 Motion amount detection method and motion amount detection device
KR100378351B1 (en) * 2000-11-13 2003-03-29 삼성전자주식회사 Method and apparatus for measuring color-texture distance, and method and apparatus for sectioning image into a plurality of regions using the measured color-texture distance

Also Published As

Publication number Publication date
JP2011013886A (en) 2011-01-20

Similar Documents

Publication Publication Date Title
JP5333589B2 (en) Representative feature extraction system and method
US10019657B2 (en) Joint depth estimation and semantic segmentation from a single image
US8594385B2 (en) Predicting the aesthetic value of an image
US8675974B2 (en) Image processing apparatus and image processing method
US20170220864A1 (en) Method for Implementing a High-Level Image Representation for Image Analysis
US9443314B1 (en) Hierarchical conditional random field model for labeling and segmenting images
JP6378855B1 (en) Image search system, image search method and program
JP6798619B2 (en) Information processing equipment, information processing programs and information processing methods
Varnousfaderani et al. Weighted color and texture sample selection for image matting
WO2010035659A1 (en) Information processing apparatus for selecting characteristic feature used for classifying input data
JP7058941B2 (en) Dictionary generator, dictionary generation method, and program
JP5591178B2 (en) Method for classifying objects in test images
US9449395B2 (en) Methods and systems for image matting and foreground estimation based on hierarchical graphs
JP5408139B2 (en) Anomaly detection system, anomaly detection method and anomaly detection program
JP5180922B2 (en) Image search system and image search method
CN113658100A (en) Three-dimensional target object detection method and device, electronic equipment and storage medium
JP2015099563A (en) Image processing apparatus, image processing method, and program
US20150356350A1 (en) unsupervised non-parametric multi-component image segmentation method
CN115048969A (en) Visual analysis system for evaluating, understanding and improving deep neural networks
JP5391876B2 (en) Representative feature extraction system, method and program
JP6546385B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP4434868B2 (en) Image segmentation system
CN114565752A (en) Image weak supervision target detection method based on class-agnostic foreground mining
JP2009193183A (en) Device, method and program for image dictionary generation, and recording medium therefor
CN111768214A (en) Product attribute prediction method, system, device and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130917

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130930

R150 Certificate of patent or registration of utility model

Ref document number: 5391876

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees