JP2006079326A - Classification support map preparation method, program for executing the method, and classification support map preparation device - Google Patents
Classification support map preparation method, program for executing the method, and classification support map preparation device Download PDFInfo
- Publication number
- JP2006079326A JP2006079326A JP2004262228A JP2004262228A JP2006079326A JP 2006079326 A JP2006079326 A JP 2006079326A JP 2004262228 A JP2004262228 A JP 2004262228A JP 2004262228 A JP2004262228 A JP 2004262228A JP 2006079326 A JP2006079326 A JP 2006079326A
- Authority
- JP
- Japan
- Prior art keywords
- map
- unlearned
- learning
- pseudo
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2137—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
Abstract
Description
本発明は、分類支援マップ作成方法および分類支援マップ作成装置に関し、特に、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法およびそれを実行するためのプログラムならびに分類支援マップ作成装置に関する。 The present invention relates to a classification support map creation method and a classification support map creation apparatus, and more particularly to a classification support map creation method for creating a classification support map that supports classification of unknown data composed of vector data, and a method for executing the same. The present invention relates to a program and a classification support map creation device.
従来、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法が知られている。また、上記の分類支援マップとして、たとえば、T.Kohonen氏が提案した自己組織化マップ(SOM:Self−Organizing Maps)が知られている。そして、この自己組織化マップ(SOM)の作成方法として、従来、種々の作成方法が提案されている(たとえば、特許文献1参照)。 Conventionally, a classification support map creation method for creating a classification support map that supports classification of unknown data composed of vector data is known. As the above classification support map, for example, T.M. A self-organizing map (SOM: Self-Organizing Map) proposed by Mr. Kohonen is known. As a method for creating this self-organizing map (SOM), various creation methods have been conventionally proposed (for example, see Patent Document 1).
上記特許文献1に提案された自己組織化マップ(SOM)の作成方法では、未学習のベクトルデータを有する複数のセルからなる未学習マップの各セルに学習データを学習させることによって自己組織化マップを作成している。なお、未学習マップの各セルに学習データを学習させる際には、未学習マップの中から学習データを構成するベクトルデータとのベクトル間距離(ユークリッド距離)が最も小さいベクトルデータを有する単一のセルを選択するとともに、選択したセルおよびその近傍領域のセルに対して学習データを学習させている。
In the method of creating a self-organizing map (SOM) proposed in
しかしながら、上記特許文献1に提案された自己組織化マップの作成方法では、学習データを学習させる毎に、選択したセルおよびその近傍領域のセルのベクトルデータが変化されるので、学習データを学習させるべきセルを順次選択する際に、前の学習データの未学習マップへの学習状況によって選択されるセルが異なる場合があるという不都合がある。このため、学習データを学習させる順番によって、得られる自己組織化マップが異なる場合があるという問題点がある。したがって、上記特許文献1の自己組織化マップの作成方法では、学習データを学習させる順番によっては、未知データを正しく分類することができる未知データの分類に有用な分類支援マップが作成できない場合があるという問題点がある。
However, in the method of creating a self-organizing map proposed in
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、学習データを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することが可能な分類支援マップ作成方法を提供することである。 The present invention has been made to solve the above-described problems, and one object of the present invention is to detect unknown data that can correctly classify unknown data regardless of the order of learning data. To provide a classification support map creation method capable of creating a classification support map useful for classification.
上記目的を達成するために、この発明の第1の局面における分類支援マップ作成方法は、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法であって、それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを準備するステップと、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを準備するステップと、ベクトルデータからなる学習データを擬似マップに学習させるステップと、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるステップとを備えている。なお、本発明における「未学習」は、全く学習データを学習させていない場合のみならず、複数の学習データがある場合に、1つ以上の学習データを学習させたが、全ての学習データの学習は完了していない場合も含む。 In order to achieve the above object, a classification support map creation method according to a first aspect of the present invention is a classification support map creation method for creating a classification support map that supports classification of unknown data composed of vector data. A step of preparing an unlearned map including a plurality of unlearned cells each having unlearned vector data, and a pseudo map corresponding to the plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data A step of learning the learning data composed of vector data in a pseudo map, and a step of reflecting the vector data held by the pseudo cell of the learned pseudo map in an unlearned cell corresponding to the pseudo cell of the unlearned map And. Note that “unlearned” in the present invention is not only when learning data is not learned at all, but when there is a plurality of learning data, one or more learning data is learned. This includes cases where learning has not been completed.
この第1の局面による分類支援マップ作成方法では、上記のように、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップに、ベクトルデータからなる学習データを学習させた後、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させることによって、複数の学習データを順次学習させる場合に、全ての学習データを擬似マップに学習させる間は、未学習マップの各未学習セルのベクトルデータは変化されない。これにより、未学習マップで学習データを学習させるべきセルを選択した後、その選択された未学習マップのセルに対応する擬似マップのセルに学習データを学習させるようにすれば、未学習マップで学習データを学習させるべきセルを選択する際に、未学習マップのセルのベクトルデータは変化しないので、学習データを学習させる順番によって、未学習マップの選択されるセルが異なるという不都合が生じない。これにより、複数の学習データを学習させる場合にも、学習データを学習させる順番によって、得られる自己組織化マップが異なるのを抑制することができる。したがって、学習データを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。 In the classification support map creating method according to the first aspect, as described above, learning data consisting of vector data in a pseudo map corresponding to a plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data. When learning a plurality of pieces of learning data sequentially by reflecting the vector data held by the pseudo cells of the learned pseudo map to the unlearned cells corresponding to the pseudo cells of the unlearned map, While the learning data is learned by the pseudo map, the vector data of each unlearned cell of the unlearned map is not changed. As a result, if a cell in which learning data is to be learned in the unlearned map is selected and then learning data is learned in a cell in the pseudo map corresponding to the cell in the selected unlearned map, Since the vector data of the cells in the unlearned map does not change when selecting the cells in which the learning data is to be learned, there is no inconvenience that the cells selected in the unlearned map differ depending on the order in which the learning data is learned. Thereby, also when learning several learning data, it can suppress that the self-organization map obtained differs by the order which learns learning data. Therefore, a classification support map useful for classification of unknown data that can correctly classify unknown data can be created regardless of the order of learning data.
上記第1の局面による分類支援マップ作成方法において、好ましくは、未学習マップから未学習セルの集合体からなる第1ブロックを選択するステップをさらに備え、学習データを擬似マップに学習させるステップは、未学習マップの第1ブロックに対応する擬似マップの第2ブロックに含まれる擬似セルに学習データを学習させるステップを含む。このように構成すれば、学習データに対応する第2ブロックに含まれる複数の擬似セルに学習データを学習させることができるので、学習データに対応する単一のセルとその近傍領域のセルに対して学習データを学習させる場合と異なり、学習データを学習させる近傍領域の範囲を設定するための近傍関数を設定する必要がない。これにより、近傍関数の設定に熟練していない者でも、容易に、学習データを学習させることができるので、容易に、分類支援マップを作成することができる。 In the classification support map creation method according to the first aspect, preferably, the method further includes a step of selecting a first block including a collection of unlearned cells from the unlearned map, and the step of causing the pseudo map to learn the learning data. Learning the learning data in a pseudo cell included in the second block of the pseudo map corresponding to the first block of the unlearned map. With this configuration, the learning data can be learned in a plurality of pseudo cells included in the second block corresponding to the learning data. Therefore, for a single cell corresponding to the learning data and a cell in the vicinity region thereof, Unlike the case of learning the learning data, there is no need to set a neighborhood function for setting the range of the neighborhood region for learning the learning data. Thereby, even a person who is not skilled in setting the neighborhood function can easily learn the learning data, so that the classification support map can be easily created.
この場合において、好ましくは、未学習マップから第1ブロックを選択するステップは、未学習マップから抽出される、未学習セルの集合体からなる複数のブロック毎に、ブロックに含まれる複数の未学習セルの未学習のベクトルデータに基づいて、ブロックのベクトルデータとしてのブロックデータを算出するステップと、学習データを複数のブロックのブロックデータと比較して、複数のブロックの中から学習データに対応するブロックデータを有する第1ブロックを選択するステップとを含む。このように構成すれば、容易に、未学習マップから学習データに対応する第1ブロックを選択することができる。 In this case, preferably, the step of selecting the first block from the unlearned map includes a plurality of unlearned items included in the block for each of a plurality of blocks made up of a collection of unlearned cells extracted from the unlearned map. A step of calculating block data as vector data of a block based on unlearned vector data of a cell, and comparing learning data with block data of a plurality of blocks, corresponding to learning data from a plurality of blocks Selecting a first block having block data. If comprised in this way, the 1st block corresponding to learning data can be easily selected from an unlearned map.
上記第2ブロックに含まれる擬似セルに学習データを学習させるステップを含む構成において、好ましくは、第2ブロックに含まれる擬似セルに学習データを学習させるステップは、第2ブロックに含まれる全ての擬似セルの有するベクトルデータに、学習データに基づくベクトルデータをそれぞれ加算するステップを含む。このように構成すれば、容易に、第2ブロックに含まれる全ての擬似セルに学習データを学習させることができる。 In the configuration including the step of causing the pseudo cell included in the second block to learn the learning data, preferably, the step of causing the pseudo cell included in the second block to learn the learning data includes all the pseudo cells included in the second block. A step of adding vector data based on the learning data to the vector data of the cell. If comprised in this way, learning data can be easily learned by all the pseudo cells contained in a 2nd block.
この場合において、好ましくは、学習データに基づくベクトルデータを加算するステップは、第2ブロックに含まれる擬似セルの有するベクトルデータをwaとし、学習データをxとし、第2ブロックに含まれる擬似セルの数をcとした場合に、wa+x/cで表される式に基づいて、第2ブロックに含まれる擬似セルの有するベクトルデータに学習データに基づくベクトルデータをそれぞれ加算するステップを含む。このように構成すれば、容易に、第2ブロックに含まれる全ての擬似セルの有するベクトルデータに、学習データに基づくベクトルデータをそれぞれ加算することができる。 In this case, preferably, the step of adding the vector data based on the training data, the vector data included in the pseudo cells included in the second block and w a, the learning data is x, the pseudo cells included in the second block And adding the vector data based on the learning data to the vector data of the pseudo cell included in the second block, based on the formula represented by w a + x / c, where c is the number of. If comprised in this way, the vector data based on learning data can be easily added to the vector data which all the pseudo cells contained in a 2nd block have, respectively.
上記第2ブロックに含まれる擬似セルに学習データを学習させるステップを含む構成において、好ましくは、第2ブロックに含まれる擬似セルに学習データを学習させるステップは、第2ブロックに含まれる全ての擬似セルの有するベクトルデータに、学習データと第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータをそれぞれ加算するステップを含む。このように構成すれば、容易に、第2ブロックに含まれる擬似セルに学習データを学習させることができる。 In the configuration including the step of causing the pseudo cell included in the second block to learn the learning data, preferably, the step of causing the pseudo cell included in the second block to learn the learning data includes all the pseudo cells included in the second block. Adding vector data based on the difference between the learning data and the unlearned vector data of the unlearned cell of the first block to the vector data of the cell. If comprised in this way, learning data can be easily learned by the pseudo cell contained in a 2nd block.
この場合において、好ましくは、学習データと第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータを加算するステップは、第2ブロックに含まれる擬似セルの有するベクトルデータをwaとし、定数をtとし、学習データをxとし、第1ブロックの未学習セルが有する未学習のベクトルデータをwbとし、第2ブロックに含まれる擬似セルの数をcとした場合に、wa+t・(x−wb)/cで表される式に基づいて、第2ブロックに含まれる擬似セルの有するベクトルデータに、学習データと第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータをそれぞれ加算するステップを含む。このように構成すれば、容易に、第2ブロックに含まれる全ての擬似セルの有するベクトルデータに、学習データと第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータをそれぞれ加算することができる。 In this case, preferably, the step of adding the vector data based on the difference between the learning data and the unlearned vector data included in the unlearned cell of the first block includes the vector data included in the pseudo cell included in the second block. When w a is set, t is a constant, learning data is x, unlearned vector data of an unlearned cell in the first block is w b, and the number of pseudo cells included in the second block is c , W a + t · (x−w b ) / c Based on the expression represented by the pseudo cell included in the second block, the learning data and the unlearned cell which the unlearned cell of the first block have Adding vector data based on the difference from the vector data. If comprised in this way, the vector data based on the difference of learning data and the unlearned vector data which the unlearned cell of the 1st block will have in the vector data which all the pseudo cells contained in the 2nd block easily have Can be added respectively.
上記第2ブロックを含む構成において、好ましくは、学習データを擬似マップに学習させるステップは、擬似セルに対する学習データの学習の度合いを表す学習負荷率をdivとし、第2ブロックに含まれる擬似セルの数をcとした場合に、div+1/cで表される式に基づいて、学習負荷率の積算値を算出するステップを含み、擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるステップは、学習データが学習された擬似マップの擬似セルが有するベクトルデータを学習負荷率の積算値で割ることにより、学習データが学習された擬似セルが有するベクトルデータを反映させた未学習セルのベクトルデータを算出するステップを含む。このように構成すれば、容易に、学習データが学習された擬似マップの擬似セルが有するベクトルデータを、未学習マップの対応する未学習セルに反映させることができる。 In the configuration including the second block, preferably, in the step of learning the learning data in the pseudo map, a learning load factor indicating a learning degree of the learning data with respect to the pseudo cell is set to div, and the pseudo cell included in the second block When the number is c, it includes a step of calculating an integrated value of the learning load factor based on an expression represented by div + 1 / c, and the vector data included in the pseudo cell of the pseudo map is converted into a pseudo cell of the unlearned map. The step of reflecting in the corresponding unlearned cell is the vector data of the pseudo cell in which the learning data has been learned by dividing the vector data of the pseudo cell of the pseudo map in which the learning data has been learned by the integrated value of the learning load factor. And calculating vector data of an unlearned cell reflecting the above. If comprised in this way, the vector data which the pseudo cell of the pseudo map by which learning data was learned can be easily reflected in the corresponding unlearned cell of an unlearned map.
上記第1の局面による分類支援マップ作成方法において、好ましくは、学習データを擬似マップに学習させるステップを全ての学習データについて実行した後に、擬似マップのベクトルデータを未学習マップに反映させるステップを実行する。このように構成すれば、容易に、全ての学習データを学習させた擬似セルのベクトルデータを未学習マップの未学習セルに反映することができる。 In the classification support map creation method according to the first aspect, preferably, after the step of learning the learning data in the pseudo map is executed for all the learning data, the step of reflecting the vector data of the pseudo map in the unlearned map is executed. To do. If comprised in this way, the vector data of the pseudo cell which learned all the learning data can be easily reflected in the unlearned cell of an unlearned map.
上記ブロックデータを算出するステップと、第1ブロックを選択するステップと、第1ブロックに対応する第2ブロックに含まれる擬似セルに学習データを学習させるステップと、擬似マップのベクトルデータを未学習マップに反映させるステップとを含む構成において、好ましくは、未学習マップから抽出されるM個以上の未学習セルの集合体からなる複数の第3ブロック毎に、ブロックデータを算出するステップと、複数の第3ブロックの中から第1ブロックを選択するステップと、第1ブロックに対応する第2ブロックに含まれる擬似セルに学習データを学習させるステップと、擬似マップのベクトルデータを未学習マップに反映させるステップとが実行された後、未学習マップから抽出されるN個(N<M)以上の未学習セルの集合体からなる複数の第4ブロック毎に、ブロックデータを算出するステップと、複数の第4ブロックの中から第1ブロックを選択するステップと、第1ブロックに対応する第2ブロックに含まれる擬似セルに学習データを学習させるステップと、擬似マップのベクトルデータを未学習マップに反映させるステップとが実行される。このように構成すれば、M個以上の擬似セルを含む比較的大きな第2ブロック毎に、比較的粗く学習データを学習させた後、N個(N<M)以上の擬似セルを含む比較的小さな第2ブロック毎にも、比較的細かく学習データを学習させることができる。これにより、最初から比較的小さな第2ブロック毎に学習データを学習させる場合と異なり、類似したベクトルデータを有する複数の擬似セルからなる領域が擬似マップ上に局所的な固まりを有した状態で複数に分散して形成されるのを抑制することができる。このため、分類支援マップ上に類似したベクトルデータを有する複数のセルからなる領域が局所的な固まりを有した状態で複数に分散して形成されるのを抑制することができる。 A step of calculating the block data; a step of selecting a first block; a step of learning learning data in a pseudo cell included in a second block corresponding to the first block; and vector data of the pseudo map as an unlearned map Preferably, the step of calculating block data for each of a plurality of third blocks composed of a set of M or more unlearned cells extracted from the unlearned map, Selecting a first block from among the third blocks, causing a pseudo cell included in a second block corresponding to the first block to learn learning data, and reflecting vector data of the pseudo map in the unlearned map After the step is executed, a set of N (N <M) or more unlearned cells extracted from the unlearned map Calculating a block data for each of a plurality of fourth blocks, a step of selecting a first block from the plurality of fourth blocks, and a pseudo cell included in a second block corresponding to the first block. A step of learning the learning data and a step of reflecting the vector data of the pseudo map in the unlearned map are executed. According to this configuration, after learning data is relatively coarsely learned for each relatively large second block including M or more pseudo cells, a relatively large number of N (N <M) or more pseudo cells is included. The learning data can be learned relatively finely for each small second block. Thus, unlike the case where learning data is learned for each relatively small second block from the beginning, a plurality of regions made up of a plurality of pseudo cells having similar vector data have local clusters on the pseudo map. It is possible to suppress the dispersion and formation. For this reason, it can suppress that the area | region which consists of a several cell which has similar vector data on a classification | category assistance map is distributed and formed in multiple in the state with a local mass.
この発明の第2の局面における分類支援マップ作成装置は、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成装置であって、それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを記憶する未学習マップ記憶手段と、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを記憶する擬似マップ記憶手段と、 ベクトルデータからなる学習データを擬似マップに学習させる擬似マップ学習手段と、 学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させる未学習マップ反映手段とを備えている。 A classification support map creating apparatus according to a second aspect of the present invention is a classification support map creating apparatus for creating a classification support map for supporting classification of unknown data consisting of vector data, each of which is unlearned vector data And an unlearned map storage means for storing an unlearned map including a plurality of unlearned cells, and a pseudo for storing a pseudo map corresponding to the plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data Map storage means, pseudo-map learning means for learning learning data composed of vector data in a pseudo map, and vector data of a pseudo-cell of a learned pseudo map reflected in an unlearned cell corresponding to a pseudo-cell of an unlearned map And an unlearned map reflecting means.
この第2の局面による分類支援マップ作成装置では、上記のように、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップに、 ベクトルデータからなる学習データを学習させた後、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させることによって、複数の学習データを順次学習させる場合に、全ての学習データを擬似マップに学習させる間は、未学習マップの各未学習セルのベクトルデータは変化されない。これにより、未学習マップで学習データを学習させるべきセルを選択した後、その選択された未学習マップのセルに対応する擬似マップのセルに学習データを学習させるようにすれば、未学習マップで学習データを学習させるべきセルを選択する際に、未学習マップのセルのベクトルデータは変化しないので、学習データを学習させる順番によって、未学習マップの選択されるセルが異なるという不都合が生じない。これにより、複数の学習データを学習させる場合にも、学習データを学習させる順番によって、得られる自己組織化マップが異なるのを抑制することができる。したがって、学習データを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。 In the classification support map creating apparatus according to the second aspect, as described above, learning data consisting of vector data is included in a pseudo map corresponding to a plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data. When learning a plurality of pieces of learning data sequentially by reflecting the vector data held by the pseudo cells of the learned pseudo map to the unlearned cells corresponding to the pseudo cells of the unlearned map, While the learning data is learned by the pseudo map, the vector data of each unlearned cell of the unlearned map is not changed. As a result, if a cell in which learning data is to be learned in the unlearned map is selected and then learning data is learned in a cell in the pseudo map corresponding to the cell in the selected unlearned map, Since the vector data of the cells in the unlearned map does not change when selecting the cells in which the learning data is to be learned, there is no inconvenience that the cells selected in the unlearned map differ depending on the order in which the learning data is learned. Thereby, also when learning several learning data, it can suppress that the self-organization map obtained differs by the order which learns learning data. Therefore, a classification support map useful for classification of unknown data that can correctly classify unknown data can be created regardless of the order of learning data.
上記第2の局面による分類支援マップ作成装置において、好ましくは、未学習マップから未学習セルの集合体からなる第1ブロックを選択するブロック選択手段をさらに備え、擬似マップ学習手段は、未学習マップの第1ブロックに対応する擬似マップの第2ブロックに含まれる擬似セルに学習データを学習させる擬似セル学習手段を含む。このように構成すれば、学習データに対応する第2ブロックに含まれる複数の擬似セルに学習データを学習させることができるので、学習データに対応する単一のセルとその近傍領域のセルに対して学習データを学習させる場合と異なり、学習データを学習させる近傍領域の範囲を設定するための近傍関数を設定する必要がない。これにより、近傍関数の設定に熟練していない者でも、容易に、学習データを学習させることができるので、容易に、分類支援マップを作成することができる。 The classification support map creating apparatus according to the second aspect preferably further comprises block selection means for selecting a first block made up of a collection of unlearned cells from the unlearned map, and the pseudo-map learning means comprises an unlearned map Pseudo-cell learning means for causing the pseudo-cell included in the second block of the pseudo-map corresponding to the first block to learn learning data. With this configuration, the learning data can be learned in a plurality of pseudo cells included in the second block corresponding to the learning data. Therefore, for a single cell corresponding to the learning data and a cell in the vicinity region thereof, Unlike the case of learning the learning data, there is no need to set a neighborhood function for setting the range of the neighborhood region for learning the learning data. Thereby, even a person who is not skilled in setting the neighborhood function can easily learn the learning data, so that the classification support map can be easily created.
この場合において、好ましくは、ブロック選択手段は、未学習マップから抽出される、未学習セルの集合体からなる複数のブロック毎に、ブロックに含まれる複数の未学習セルの未学習のベクトルデータに基づいて、ブロックのベクトルデータとしてのブロックデータを算出するブロックデータ算出手段と、学習データを複数のブロックのブロックデータと比較して、複数のブロックの中から学習データに対応するブロックデータを有する第1ブロックを選択するブロックデータ比較選択手段とを含む。このように構成すれば、容易に、未学習マップから学習データに対応する第1ブロックを選択することができる。 In this case, it is preferable that the block selection unit outputs unlearned vector data of a plurality of unlearned cells included in the block for each of a plurality of blocks made up of a collection of unlearned cells extracted from the unlearned map. A block data calculating means for calculating block data as vector data of the block, and comparing the learning data with the block data of the plurality of blocks, and having block data corresponding to the learning data from the plurality of blocks. Block data comparison and selection means for selecting one block. If comprised in this way, the 1st block corresponding to learning data can be easily selected from an unlearned map.
この発明の第3の局面における分類支援マップ作成方法を実行するためのプログラムは、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法を実行するためのプログラムであって、それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを読み出すステップと、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを読み出すステップと、ベクトルデータからなる学習データを擬似マップに学習させるステップと、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるステップとを備えている。 A program for executing a classification support map creating method according to a third aspect of the present invention is for executing a classification support map creating method for creating a classification support map that supports classification of unknown data consisting of vector data. A step of reading an unlearned map including a plurality of unlearned cells each having unlearned vector data, and a plurality of pseudo cells corresponding to the plurality of unlearned cells and having predetermined vector data A step of reading out a pseudo map including the step of learning the learning data composed of vector data in the pseudo map, and reflecting the vector data included in the pseudo cell of the learned pseudo map in the unlearned cell corresponding to the pseudo cell of the unlearned map And a step of causing.
この第3の局面による分類支援マップ作成方法を実行するためのプログラムでは、上記のように、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップに、ベクトルデータからなる学習データを学習させた後、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させることによって、複数の学習データを順次学習させる場合に、全ての学習データを擬似マップに学習させる間は、未学習マップの各未学習セルのベクトルデータは変化されない。これにより、未学習マップで学習データを学習させるべきセルを選択した後、その選択された未学習マップのセルに対応する擬似マップのセルに学習データを学習させるようにすれば、未学習マップで学習データを学習させるべきセルを選択する際に、未学習マップのセルのベクトルデータは変化しないので、学習データを学習させる順番によって、未学習マップの選択されるセルが異なるという不都合が生じない。これにより、複数の学習データを学習させる場合にも、学習データを学習させる順番によって、得られる自己組織化マップが異なるのを抑制することができる。したがって、学習データを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。 In the program for executing the classification support map creation method according to the third aspect, as described above, a pseudo map that corresponds to a plurality of unlearned cells and includes a plurality of pseudo cells having predetermined vector data, After learning the learning data consisting of vector data, the learning data is sequentially learned by reflecting the vector data of the pseudo cell of the learned pseudo map to the unlearned cell corresponding to the pseudo cell of the unlearned map. In this case, the vector data of each unlearned cell in the unlearned map is not changed while all the learning data is learned in the pseudo map. As a result, if a cell in which learning data is to be learned in the unlearned map is selected and then learning data is learned in a cell in the pseudo map corresponding to the cell in the selected unlearned map, Since the vector data of the cells in the unlearned map does not change when selecting the cells in which the learning data is to be learned, there is no inconvenience that the cells selected in the unlearned map differ depending on the order in which the learning data is learned. Thereby, also when learning several learning data, it can suppress that the self-organization map obtained differs by the order which learns learning data. Therefore, a classification support map useful for classification of unknown data that can correctly classify unknown data can be created regardless of the order of learning data.
以下、本発明の実施形態を図面に基づいて説明する。なお、以下の実施形態の説明では、本発明による分類支援マップ作成方法および分類支援マップ作成装置の一例としての自己組織化マップ作成方法および自己組織化マップ作成装置を例にとって説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description of the embodiments, a self-organizing map creating method and a self-organizing map creating device as an example of a classification support map creating method and a classification support map creating device according to the present invention will be described as an example.
(第1実施形態)
図1は、本発明の第1実施形態による自己組織化マップ作成方法に用いる自己組織化マップ作成装置の構成を説明するための模式図である。まず、図1を参照して、第1実施形態の自己組織化マップ作成方法に用いる自己組織化マップ作成装置について説明する。
(First embodiment)
FIG. 1 is a schematic diagram for explaining a configuration of a self-organizing map creating apparatus used in the self-organizing map creating method according to the first embodiment of the present invention. First, a self-organizing map creating apparatus used in the self-organizing map creating method of the first embodiment will be described with reference to FIG.
第1実施形態の自己組織化マップ作成方法に用いる自己組織化マップ作成装置1は、図1に示すように、未学習マップ記憶部2aと、擬似マップ記憶部2bと、ブロック選択部2cと、擬似マップ学習部2dと、未学習マップ反映部2eとを含んでいる。また、ブロック選択部2cは、ブロック重みデータ算出部2fと、ブロック重みデータ比較選択部2gとを含んでおり、擬似マップ学習部2dは、擬似セル学習部2hを含んでいる。
As shown in FIG. 1, the self-organizing
また、未学習マップ記憶部2aは、後述する未学習マップを記憶するために設けられている。また、擬似マップ記憶部2bは、後述する擬似マップを記憶するために設けられている。また、ブロック選択部2cは、未学習マップから学習データに対応する、未学習セルの集合体からなるブロックを選択するために設けられている。また、擬似マップ学習部2dは、擬似マップに学習データを学習させるために設けられている。また、未学習マップ反映部2eは、学習データが学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるために設けられている。また、ブロック重みデータ算出部2fは、未学習マップから抽出される複数の抽出ブロック毎に、抽出ブロックに含まれる複数の未学習セルのベクトルデータに基づいて、抽出ブロックのベクトルデータとしてのブロック重みデータを算出するために設けられている。また、ブロック重みデータ比較選択部2gは、学習データを未学習マップの複数の抽出ブロックのブロック重みデータと比較して、複数の抽出ブロックの中から学習データとのベクトル間距離が最も小さいブロック重みデータを有する抽出ブロックを選択するために設けられている。また、擬似セル学習部2hは、擬似マップの後述する学習対象ブロックに含まれる擬似セルに学習データを学習させるために設けられている。
The unlearned
また、第1実施形態による自己組織化マップ作成方法は、未学習マップに学習データを学習させて自己組織化マップ(SOM)を作成する学習アルゴリズムと、自己組織化マップを構成するセルのクラス分けを行うクラス分けアルゴリズムとによって構成されている。また、第1実施形態による自己組織化マップの作成方法では、図2に示すような自己組織化マップ(SOM)3を作成する。この自己組織化マップ3は、マス目状に配置された複数のセル3aによって構成されている。この複数のセル3aは、縦横に複数同数ずつ(第1実施形態では、10個ずつ)配置されている。また、各セル3aは、複数の要素(第1実施形態では、4つの要素)からなるベクトルデータを有することが可能なように構成されている。
The self-organizing map creation method according to the first embodiment includes a learning algorithm for creating learning data in an unlearned map and creating a self-organizing map (SOM), and classification of cells constituting the self-organizing map. And a classification algorithm for performing In the self-organizing map creation method according to the first embodiment, a self-organizing map (SOM) 3 as shown in FIG. 2 is created. The self-organizing
図3〜図8は、本発明の第1実施形態による自己組織化マップ作成方法の学習アルゴリズムを説明するための図である。図9〜図13は、本発明の第1実施形態による自己組織化マップ作成方法のクラス分けアルゴリズムを説明するための図である。まず、図3〜図8を参照して、第1実施形態による自己組織化マップ作成方法の学習アルゴリズムについて説明する。 3 to 8 are diagrams for explaining a learning algorithm of the self-organizing map creation method according to the first embodiment of the present invention. 9 to 13 are diagrams for explaining a classification algorithm of the self-organizing map creation method according to the first embodiment of the present invention. First, a learning algorithm of the self-organizing map creation method according to the first embodiment will be described with reference to FIGS.
(学習アルゴリズム)
第1実施形態による学習アルゴリズムは、図3に示すように、ステップS1〜ステップS9によって構成されている。まず、ステップS1において、未学習マップの準備を行う。ここで、未学習マップとは、それぞれが未学習のベクトルデータを有する複数の未学習セルからなるマップである。未学習マップの準備では、まず、ベクトルデータを全く有していない複数のセルからなるマップを準備する。そして、図4に示すように、ベクトルデータを全く有していないセルからなるマップの各セルに対して、乱数表を用いて所定のベクトルデータを割り付ける。なお、第1実施形態では、要素1〜要素4の4つの要素からなるベクトルデータを各セルに割り付ける。これにより、所定の未学習のベクトルデータを有する複数の未学習セルからなる未学習マップが準備される。また、第1実施形態では、未学習マップは、n×n(第1実施形態では10×10)の未学習セルからなるとする。
(Learning algorithm)
As shown in FIG. 3, the learning algorithm according to the first embodiment includes steps S1 to S9. First, in step S1, an unlearned map is prepared. Here, the unlearned map is a map composed of a plurality of unlearned cells each having unlearned vector data. In preparing an unlearned map, first, a map composed of a plurality of cells having no vector data is prepared. Then, as shown in FIG. 4, predetermined vector data is assigned to each cell of the map made up of cells having no vector data using a random number table. In the first embodiment, vector data consisting of four
次に、ステップS2以降のグローバルエリア学習段階に進む。グローバルエリア学習段階では、擬似マップから比較的大きなブロックを抽出してその抽出ブロック毎に学習データを学習させることにより擬似マップに学習データを比較的粗く学習させる。そして、その後、学習させた擬似マップの各擬似セルのベクトルデータを未学習マップの各未学習セルに反映させる。なお、擬似マップとは、未学習マップの複数の未学習セルに対応する複数の擬似セルからなるマップである。これにより、第1実施形態による擬似マップは、未学習マップに対応してn×n(第1実施形態では10×10)の擬似セルからなる。また、擬似マップの各擬似セルは、それぞれがベクトルデータからなる学習積算値wa(wa1,wa2,wa3,wa4)を有するように構成されている。なお、学習積算値waは、擬似マップに学習データxが学習されるのに伴って変化する値である。 Next, it progresses to the global area learning stage after step S2. In the global area learning stage, a relatively large block is extracted from the pseudo map, and learning data is learned for each extracted block, thereby causing the pseudo map to learn learning data relatively coarsely. Thereafter, the vector data of each pseudo cell of the learned pseudo map is reflected on each unlearned cell of the unlearned map. The pseudo map is a map composed of a plurality of pseudo cells corresponding to a plurality of unlearned cells of the unlearned map. As a result, the pseudo map according to the first embodiment includes n × n (10 × 10 in the first embodiment) pseudo cells corresponding to the unlearned map. In addition, each pseudo cell of the pseudo map is configured to have a learning integrated value w a (wa 1 , w a2 , w a3 , w a4 ) each including vector data. The learning integrated value w a is a value that varies with the pseudo-map to learning data x is learned.
ステップS2では、未学習マップおよび擬似マップから抽出する抽出ブロックの大きさの設定および量子化誤差errの「0」への初期化を行う。このステップS2では、比較的大きなブロック毎に学習データを学習させるために、抽出ブロックをm×m=m2個(=M個)以上のセルによって構成するとともに、m=n/2(5=10/2)に設定する。すなわち、第1実施形態では、未学習マップおよび擬似マップが10×10のセルからなるので、抽出ブロックを5×5(m×m)以上のセルを有する比較的大きなブロックに設定する。また、量子化誤差errは、学習データx(x1,x2,x3,x4)と、後述する未学習マップから選択される選択ブロックのブロック重みデータとの誤差であり、学習データx(x1,x2,x3,x4)が選択ブロックにどの程度反映されるかを示す指標となる値である。なお、ブロック重みデータは、ブロックを構成する全てのセルのベクトルデータの平均値である。 In step S2, the size of the extracted block extracted from the unlearned map and the pseudo map is set, and the quantization error err is initialized to “0”. In this step S2, in order to learn learning data for each relatively large block, the extraction block is composed of m × m = m 2 (= M) or more cells, and m = n / 2 (5 = 10/2). That is, in the first embodiment, since the unlearned map and the pseudo map are composed of 10 × 10 cells, the extracted block is set to a relatively large block having 5 × 5 (m × m) or more cells. The quantization error err is an error between the learning data x (x 1 , x 2 , x 3 , x 4 ) and the block weight data of the selected block selected from the unlearned map described later. It is a value that serves as an index indicating how much (x 1 , x 2 , x 3 , x 4 ) is reflected in the selected block. Note that the block weight data is an average value of vector data of all cells constituting the block.
次に、ステップS3において、直前量子化誤差err(before)に対して、ステップS2で「0」に設定した量子化誤差errの値のコピー(err(before)=err)を行うことにより、直前量子化誤差err(before)を0に初期化した後、量子化誤差errを「0」に初期化(err=0)する。そして、サブルーチンを呼び出す。なお、直前量子化誤差err(before)とは、ステップS3〜S5を1回の学習サイクルとして、その学習サイクルを繰り返し実行する場合に、前回の学習サイクルの最後の学習データxによる学習演算の際に算出される量子化誤差を意味する。また、上記ステップS3の処理により、1回目の学習サイクルでは、直前量子化誤差err(before)=0となる。 Next, in step S3, the value of the quantization error err set to “0” in step S2 is copied to the previous quantization error err (before) (err (before) = err). After the quantization error err (before) is initialized to 0, the quantization error err is initialized to “0” (err = 0). Then, a subroutine is called. Note that the immediately preceding quantization error err (before) means that the learning operation is performed with the last learning data x of the previous learning cycle when steps S3 to S5 are set as one learning cycle and the learning cycle is repeatedly executed. Means the quantization error calculated in Further, with the processing in step S3, the immediately previous quantization error err (before) = 0 in the first learning cycle.
次に、ステップS4のサブルーチンは、図5に示すように、ステップS11〜ステップS17によって構成されている。このサブルーチンでは、ステップS11において、未学習マップから5×5=52個(=25個)以上の縦横に同数の未学習セルを有する全ての比較的大きなブロックを抽出するとともに、その抽出した全ての比較的大きなブロック(抽出ブロック)についてブロック重みデータBiを算出する。このブロック重みデータBiの算出は、抽出ブロックに含まれる各未学習セルのベクトルデータを要素毎に合計した後、抽出ブロックに含まれる未学習セルの合計数で割ることによって行う。これにより、抽出ブロックに含まれる全ての未学習セルの各要素毎の重みの平均値であるブロック重みデータBiが算出される。たとえば、図6に示すように、未学習マップ4から5×5=25個の未学習セル4aからなる抽出ブロック50を抽出した場合には、以下の式(1)〜式(4)に示すようにブロック重みデータBi(bi1,bi2,bi3,bi4)を算出する。また、以下の式(1)〜式(4)において、a11〜a125と、a21〜a225と、a31〜a325と、a41〜a425とは、それぞれ、抽出ブロック50に含まれる各未学習セル4aの要素1〜要素4の値である。
Next, as shown in FIG. 5, the subroutine of step S4 includes steps S11 to S17. In this subroutine, at step S11, extracts the all relatively large block having the same number of unlearned cells 5 × 5 = 5 2 pieces (= 25) or aspect from unlearned map, all that the extracted Block weight data B i is calculated for a relatively large block (extracted block). The calculation of the block weight data B i is performed by adding the vector data of each unlearned cell included in the extracted block for each element and then dividing by the total number of unlearned cells included in the extracted block. Thereby, block weight data B i which is an average value of weights for each element of all the unlearned cells included in the extracted block is calculated. For example, as shown in FIG. 6, when an
ブロック重みデータbi1=(a11+a12+a13+・・・・+a125)/25・・・(1)
ブロック重みデータbi2=(a21+a22+a23+・・・・+a225)/25・・・(2)
ブロック重みデータbi3=(a31+a32+a33+・・・・+a325)/25・・・(3)
ブロック重みデータbi4=(a41+a42+a43+・・・・+a425)/25・・・(4)
次に、ステップS12において、図7に示すように、擬似マップ5の準備を行うとともに、擬似マップ5を構成する各擬似セル5aの学習積算値wa(wa1,wa2,wa3,wa4)の「0」への初期化((wa1,wa2,wa3,wa4)=(0,0,0,0))を行う。次に、ステップS13において、上記した未学習マップのm×m(5×5)以上の未学習セルからなる比較的大きな抽出ブロックの中から学習データx(x1,x2,x3,x4)とのベクトル間距離が最も小さいブロック重みデータBiを有する抽出ブロックを選択する。たとえば、図6に示すように、未学習マップ4から抽出し得る5×5以上のセルからなる全ての抽出ブロックの中で、5×5の抽出ブロック50が学習データxとのベクトル間距離が最も小さいブロック重みデータBiを有する場合には、この抽出ブロック50を選択ブロックとして選択する。また、この選択ブロックのブロック重みデータは、Bs(bs1,bs2,bs3,bs4)とする。
Block weight data b i1 = (a1 1 + a1 2 + a1 3 +... + A1 25 ) / 25 (1)
Block weight data b i2 = (a2 1 + a2 2 + a2 3 +... + A2 25 ) / 25 (2)
Block weight data b i3 = (a3 1 + a3 2 + a3 3 +... + A3 25 ) / 25 (3)
Block weight data b i4 = (a4 1 + a4 2 + a4 3 +... + A4 25 ) / 25 (4)
Next, in step S12, as shown in FIG. 7, preparation of the pseudo map 5 is performed, and learning integrated values w a (w a1 , w a2 , w a3 , w of each
次に、ステップS14において、量子化誤差errの算出を行う。この量子化誤差errの算出は、以下の式(5)によって行う。なお、1個目の学習データxの学習演算の際には、以下の式(5)において、ステップS3(図3参照)で設定したように、直前量子化誤差err(before)=0となる。 Next, in step S14, a quantization error err is calculated. The calculation of the quantization error err is performed by the following equation (5). In the learning calculation of the first learning data x, in the following equation (5), as set in step S3 (see FIG. 3), the immediately preceding quantization error err (before) = 0. .
量子化誤差err=err(before)+{(x1−bs1)2+(x2−bs2)2+(x3−bs3)2+(x4−bs4)2}1/2・・・(5)
次に、ステップS15において、擬似マップの学習対象ブロックを構成する全ての擬似セルに対して学習データx(x1,x2,x3,x4)を学習させるための学習演算を行う。なお、学習対象ブロックとは、擬似マップから選択されるとともに、学習データxが学習されるブロックであり、ステップS13において選択した選択ブロックに対応するブロックである。すなわち、図6に示すように、未学習マップ4から選択ブロックとして抽出ブロック50を選択した場合には、図8に示すように、抽出ブロック50に対応する擬似マップ5のブロック51が学習対象ブロックとなる。また、学習演算は、wa=wa(before)+x/cで表される式を用いて、学習対象ブロックに含まれる擬似セルの有する学習前の学習積算値wa(before)に学習データxに基づくベクトルデータ(x/c)を加算することにより擬似セルの学習積算値waを算出することによって行う。そして、この学習演算を学習対象ブロックに含まれる全ての擬似セルについて行うことにより、学習対象ブロックに含まれる全ての擬似セルの学習積算値waを算出する。なお、上記の式において、cは、学習対象ブロックに含まれる擬似セルの数である。
Quantization error err = err (before) + {(x 1 −b s1 ) 2 + (x 2 −b s2 ) 2 + (x 3 −b s3 ) 2 + (x 4 −b s4 ) 2 } 1/2 ... (5)
Next, in step S15, a learning operation for learning the learning data x (x 1 , x 2 , x 3 , x 4 ) is performed on all the pseudo cells constituting the learning target block of the pseudo map. The learning target block is a block that is selected from the pseudo map and from which the learning data x is learned, and corresponds to the selected block selected in step S13. That is, as shown in FIG. 6, when the
たとえば、図8に示すように、5×5(=25個)の擬似セル5aからなる学習対象ブロック(ブロック51)において、学習前の学習積算値wa(before)(wab1,wab2,wab3,wab4)を有する擬似セル52に対して学習データx(x1,x2,x3,x4)の学習演算を行う場合には、以下の式(6)〜式(9)に示すように、擬似セル52の学習積算値wa(wa1,wa2,wa3,wa4)を算出する。なお、1個目の学習データxに対応する学習積算値waの演算では、ステップS12(図5参照)の処理により、以下の式(6)〜(9)においてwab1〜wab4は全て「0」となる。
For example, as shown in FIG. 8, in a learning target block (block 51) made up of 5 × 5 (= 25)
学習積算値wa1(要素1)=wab1+x1/25・・・(6)
学習積算値wa2(要素2)=wab2+x2/25・・・(7)
学習積算値wa3(要素3)=wab3+x3/25・・・(8)
学習積算値wa4(要素4)=wab4+x4/25・・・(9)
また、ステップS15において、学習対象ブロックの各擬似セルに対する学習データxの学習の度合いを表す学習負荷率divの積算値(diva)の算出も行う。この学習負荷率の積算値divaの算出は、擬似セルが有する学習演算前の学習負荷率をdiv(before)とし、学習対象ブロックに含まれる擬似セルの数をcとした場合に、diva=div(before)+1/cで表される式を用いて行う。すなわち、この学習負荷率の積算値divaは、学習データxを学習対象ブロックに学習させる毎に、その学習対象ブロックに含まれる擬似セルの数cの逆数を積算した値となる。具体的には、図8に示すように、5×5(=25個)の擬似セル5aからなる学習対象ブロック(ブロック51)に含まれる擬似セル52について学習負荷率の積算値divaを算出する場合には、以下の式(10)に示すように算出する。なお、1個目の学習データxに対応する学習負荷率の積算値divaの演算では、学習演算前の学習負荷率div(before)は「0」であるので、以下の式(10)においてdiv(before)=0となる。
Learning integrated value w a1 (element 1) = w ab1 + x 1 /25 ··· (6)
Learning integrated value w a2 (element 2) = w ab2 + x 2 /25 ··· (7)
Learning integrated value w a3 (element 3) = w ab3 + x 3 /25 ··· (8)
Learning integrated value w a4 (element 4) = w ab4 + x 4 /25 ··· (9)
In step S15, the integrated value (div a ) of the learning load factor div indicating the degree of learning of the learning data x for each pseudo cell of the learning target block is also calculated. Calculation of the integrated value div a of the learning load factor, the learning load factor before learning calculation pseudo cell having a div (before), the number of pseudo cells included in the learning target block when the c, div a = Div (before) + 1 / c. That is, the learning load factor integrated value div a is a value obtained by integrating the reciprocal of the number c of pseudo cells included in the learning target block every time the learning target block learns the learning data x. Specifically, as shown in FIG. 8, the integrated value div a of the learning load factor is calculated for the
学習負荷率の積算値diva=div(before)+1/25・・・(10)
次に、ステップS16において、学習データxの個数分(全ての学習データx)の学習演算が終了したかどうかが判断される。学習データxの個数分の学習演算が終了した場合には、次のステップS17に進む。一方、学習データxの個数分の学習演算が終了していない場合には、上記したステップS13〜S16を繰り返し実行する。
Integrated value of learning load factor div a = div (before) +1/25 (10)
Next, in step S16, it is determined whether or not the learning calculation for the number of learning data x (all the learning data x) has been completed. When the learning calculation for the number of learning data x is completed, the process proceeds to the next step S17. On the other hand, when the learning calculation for the number of learning data x has not been completed, the above steps S13 to S16 are repeatedly executed.
次に、ステップS17において、未学習マップを構成する全ての未学習セルのベクトルデータに擬似マップの擬似セルが有する学習積算値waを反映させるための演算を行う。この演算では、ステップS15で算出した学習積算値wa(wa1,wa2,wa3,wa4)および学習負荷率の積算値divaを用いてw=wa/divaで表される式により、擬似セルの学習積算値waを反映させた未学習セルのベクトルデータw(w1,w2,w3,w4)を算出する。具体的には、以下の式(11)〜(14)に示すように学習積算値waを反映させた未学習セルのベクトルデータw(w1,w2,w3,w4)を算出する。 Next, in step S < b > 17, an operation is performed to reflect the learning integrated value w a included in the pseudo cell of the pseudo map in the vector data of all the unlearned cells that form the unlearned map. This operation is represented by w = w a / div a using learning integrated value w a (w a1, w a2 , w a3, w a4) and the integrated value div a learning load factor calculated in step S15 The vector data w (w 1 , w 2 , w 3 , w 4 ) of the unlearned cell reflecting the learning integrated value w a of the pseudo cell is calculated by the equation. Specifically, vector data w (w 1 , w 2 , w 3 , w 4 ) of the unlearned cell reflecting the learning integrated value w a is calculated as shown in the following equations (11) to (14). To do.
学習積算値wa1を反映させた未学習セルのベクトルデータw1=wa1/diva・・・(11)
学習積算値wa2を反映させた未学習セルのベクトルデータw2=wa2/diva・・・(12)
学習積算値wa3を反映させた未学習セルのベクトルデータw3=wa3/diva・・・(13)
学習積算値wa4を反映させた未学習セルのベクトルデータw4=wa4/diva・・・(14)
上記式(11)〜式(14)により、たとえば、学習データX1(0.03,3.1,0.2,2.8)が学習された5×5の学習対象ブロックと、学習データX2(0.4,2.9,0.2,2.7)が学習された3×3の学習対象ブロックと、学習データX3(0.01,3.2,0.1,2.9)が学習された4×4の学習対象ブロックとに含まれた所定の擬似セルが有する学習積算値waを未学習セルのベクトルデータに反映させる場合には、その未学習セルのベクトルデータw(w1,w2,w3,w4)は、以下の式(15)〜式(18)のように算出される。
Vector data w 1 = w a1 / div a of the unlearned cell reflecting the learning integrated value w a1 (11)
Vector data w 2 = wa 2 / div a of the unlearned cell reflecting the learning integrated value w a2 (12)
Vector data w 3 = w a3 / div a of the unlearned cell reflecting the learning integrated value w a3 (13)
Vector data w 4 = w a4 / div a (14) of an unlearned cell reflecting the learning integrated value w a4
From the above formulas (11) to (14), for example, a 5 × 5 learning target block in which the learning data X1 (0.03, 3.1, 0.2, 2.8) is learned, and the learning
w1=(0.03×1/25+0.4×1/9+0.01×1/16)/(1/25+1/9+1/16)=0.22・・・(15)
w2=(3.1×1/25+2.9×1/9+3.2×1/16)/(1/25+1/9+1/16)=3.03・・・(16)
w3=(0.2×1/25+0.2×1/9+0.1×1/16)/(1/25+1/9+1/16)=0.17・・・(17)
w4=(2.8×1/25+2.7×1/9+2.9×1/16)/(1/25+1/9+1/16)=2.78・・・(18)
なお、学習積算値waを学習負荷率の積算値divaで割ることにより、未学習セルのベクトルデータwを求めるのは、以下の理由による。すなわち、学習積算値waは、学習データxを学習対象ブロックに含まれる擬似セルの数cで割ったベクトルデータx/cを積算することによって求められるので、学習積算値waは、学習対象ブロックに含まれる擬似セルの数cの逆数1/cの要素が蓄積された値になる。このため、学習積算値waに蓄積された1/cの要素を除去して未学習セルのベクトルデータwを算出するために、学習積算値waを1/cの積算値である学習負荷率の積算値divaで割ることにより未学習セルのベクトルデータwを求めている。なお、この場合にも、学習対象ブロックに含まれる擬似セルの数cに対応する各学習データxの学習度合い(学習データxの影響の割合)の要素は残しながら、未学習セルのベクトルデータwが求められる。すなわち、上記式(15)を式変形することにより、以下の式(19)のように表すことができる。
w 1 = (0.03 × 1/25 + 0.4 × 1/9 + 0.01 × 1/16) / (1/25 + 1/9 + 1/16) = 0.22 (15)
w 2 = (3.1 × 1/25 + 2.9 × 1/9 + 3.2 × 1/16) / (1/25 + 1/9 + 1/16) = 3.03 (16)
w 3 = (0.2 × 1/25 + 0.2 × 1/9 + 0.1 × 1/16) / (1/25 + 1/9 + 1/16) = 0.17 (17)
w 4 = (2.8 × 1/25 + 2.7 × 1/9 + 2.9 × 1/16) / (1/25 + 1/9 + 1/16) = 2.78 (18)
The vector data w of the unlearned cell is determined by dividing the learning integrated value w a by the learning load factor integrated value div a for the following reason. That is, since the learning integrated value w a is obtained by integrating the vector data x / c obtained by dividing the learning data x by the number c of pseudo cells included in the learning target block, the learning integrated value w a The value of the
w1=(144×0.03+400×0.4+225×0.01)/769・・・(19)
この式(19)により、3つの学習データ(0.03、0.4および0.01)にそれぞれかかる係数の中で、3×3の擬似セルからなる学習対象ブロックに学習される0.4の学習データにかかる係数(400)が最も大きいとともに、4×4の擬似セルからなる学習対象ブロックに学習される0.01の学習データにかかる係数(225)がその次に大きいとともに、5×5の擬似セルからなる学習対象ブロックに学習される0.03の学習データにかかる係数(144)が最も小さいことが判る。これにより、3×3の最も小さい学習対象ブロックから、4×4および5×5へ学習対象ブロックの大きさが大きくなるにつれて、学習データxの影響の割合(学習の度合い)が小さくなるように、未学習セルのベクトルデータwが算出されることが判る。
w 1 = (144 × 0.03 + 400 × 0.4 + 225 × 0.01) / 769 (19)
According to this equation (19), 0.4 learned in a learning target block composed of 3 × 3 pseudo cells among the coefficients corresponding to the three learning data (0.03, 0.4 and 0.01), respectively. And the coefficient (225) for 0.01 learning data learned by the learning target block composed of 4 × 4 pseudo cells is the next largest, and the coefficient (400) for the learning data of 5 × 5 × It can be seen that the coefficient (144) applied to the learning data of 0.03 learned by the learning target block consisting of 5 pseudo cells is the smallest. As a result, as the size of the learning target block increases from the smallest 3 × 3 learning target block to 4 × 4 and 5 × 5, the influence ratio (degree of learning) of the learning data x decreases. It can be seen that the vector data w of the unlearned cell is calculated.
上記式(11)〜(14)により、擬似マップを構成する全ての擬似セルに対応する未学習マップの全ての未学習セルについてそれぞれ学習積算値waを反映させたベクトルデータwを算出する。そして、算出したベクトルデータwによって各未学習セルの有するベクトルデータを書き換える。 By the above equations (11) to (14), vector data w reflecting the learning integrated value w a is calculated for all the unlearned cells of the unlearned map corresponding to all the pseudo cells constituting the pseudo map. Then, the vector data of each unlearned cell is rewritten with the calculated vector data w.
次に、図3のステップS5において、学習回数が予め設定された規定値D1に達したか、または、量子化誤差errと直前量子化誤差err(before)との差が予め設定された規定値D2よりも小さいかが判断される。なお、学習回数とは、ステップS3〜S5による学習サイクルが実行された回数を意味する。学習回数が規定値D1に達したか、または、量子化誤差errと直前量子化誤差err(before)との差が規定値D2よりも小さい場合には、次のステップS6に進む。一方、学習回数が規定値D1に達しておらず、かつ、量子化誤差errと直前量子化誤差err(before)との差が規定値D2以上の場合には、ステップS3〜S5による学習サイクルを繰り返し実行する。 Next, in step S5 in FIG. 3, the learning count has reached a preset specified value D1, or the difference between the quantization error err and the previous quantization error err (before) is set to a preset specified value. It is determined whether it is smaller than D2. The number of learnings means the number of times that the learning cycle in steps S3 to S5 has been executed. If the learning count has reached the prescribed value D1, or if the difference between the quantization error err and the previous quantization error err (before) is smaller than the prescribed value D2, the process proceeds to the next step S6. On the other hand, if the number of learnings has not reached the prescribed value D1, and the difference between the quantization error err and the previous quantization error err (before) is not less than the prescribed value D2, the learning cycle in steps S3 to S5 is performed. Run repeatedly.
次に、ステップS6以降では、学習の後半段階である通常学習段階に進む。通常学習段階は、ステップS6〜S9によって構成されている。この通常学習段階では、グローバルエリア学習段階に比べて小さなブロックまでを対象として学習データxを学習させる。これにより、通常学習段階では、グローバルエリア学習段階に比べて、より細かく擬似マップに学習データxが学習される。ステップS6における抽出ブロック(m×m)の大きさの設定では、擬似マップから抽出し得る全てのブロックを対象として学習データxを学習させるために、m=2に設定する。これにより、サブルーチンのステップS11(図5参照)において、2×2=4個(=N個)以上のセルからなる全てのブロックが抽出ブロックとして未学習マップから抽出される。そして、抽出した全ての抽出ブロックについてブロック重みデータを算出するとともに、全ての抽出ブロックの中から学習データxとのベクトル間距離が最も小さいブロック重みデータを有するブロックを選択ブロックとして選択する。そして、選択した選択ブロックに対応する擬似マップの学習対象ブロックに対して学習データxの学習演算を行う。そして、この学習演算によって算出した学習対象ブロックに含まれる各擬似セルの学習積算値waを未学習マップの各未学習セルが有するベクトルデータに反映させる。 Next, after step S6, the process proceeds to the normal learning stage, which is the latter half of learning. The normal learning stage includes steps S6 to S9. In the normal learning stage, the learning data x is learned up to a block smaller than the global area learning stage. Thereby, in the normal learning stage, the learning data x is learned in the pseudo map more finely than in the global area learning stage. In the setting of the size of the extracted block (m × m) in step S6, m = 2 is set so that the learning data x is learned for all the blocks that can be extracted from the pseudo map. As a result, in step S11 of the subroutine (see FIG. 5), all blocks composed of 2 × 2 = 4 (= N) or more cells are extracted from the unlearned map as extracted blocks. Then, the block weight data is calculated for all the extracted blocks, and the block having the block weight data having the smallest inter-vector distance from the learning data x is selected as a selected block from all the extracted blocks. Then, the learning calculation of the learning data x is performed on the learning target block of the pseudo map corresponding to the selected block. Then, to reflect the vector data each unlearned cell unlearned map learning integrated value w a of each pseudo cell included in the learning target block calculated by the learning calculation has.
また、通常学習段階では、ステップS9(図3参照)において、学習回数が予め設定された規定値D3に達したか、または、量子化誤差errと直前量子化誤差err(before)との差が予め設定された規定値D4よりも小さいかを判断する。これにより、ステップS7〜S9からなる学習サイクルは、学習回数が規定値D3に達するか、または、量子化誤差errと直前量子化誤差err(before)との差が規定値D4よりも小さくなるまで行われる。なお、通常学習段階における学習回数の規定値D3は、グローバルエリア学習段階における学習回数の規定値D1よりも大きい値に設定する。これにより、通常学習段階では、グローバルエリア学習段階よりも多くの学習サイクルが実行される。また、通常学習段階における量子化誤差errと直前量子化誤差err(before)との差の規定値D4は、グローバルエリア学習段階における量子化誤差errと直前量子化誤差err(before)との差の規定値D2よりも小さい値に設定する。これにより、通常学習段階では、グローバルエリア学習段階よりも量子化誤差errと直前量子化誤差err(before)との差が小さくなるまで学習サイクルが実行される。ステップS6〜S9からなる通常学習段階の上記以外の処理方法は、上記したステップS2〜S5からなるグローバルエリア学習段階の処理方法と同様である。 In the normal learning stage, in step S9 (see FIG. 3), the number of times of learning has reached a predetermined value D3 set in advance, or the difference between the quantization error err and the previous quantization error err (before) is It is determined whether the value is smaller than a predetermined value D4 set in advance. Thereby, in the learning cycle composed of steps S7 to S9, the number of times of learning reaches the specified value D3, or the difference between the quantization error err and the previous quantization error err (before) becomes smaller than the specified value D4. Done. Note that the prescribed value D3 of the number of learnings in the normal learning stage is set to a value larger than the prescribed value D1 of the number of learnings in the global area learning stage. Thus, more learning cycles are executed in the normal learning stage than in the global area learning stage. Also, the prescribed value D4 of the difference between the quantization error err and the previous quantization error err (before) in the normal learning stage is the difference between the quantization error err and the previous quantization error err (before) in the global area learning stage. A value smaller than the prescribed value D2 is set. Thereby, in the normal learning stage, the learning cycle is executed until the difference between the quantization error err and the previous quantization error err (before) is smaller than in the global area learning stage. The processing method other than the above in the normal learning stage consisting of steps S6 to S9 is the same as the processing method in the global area learning stage consisting of steps S2 to S5 described above.
上記のようにして、擬似マップに学習データxを学習させるとともに、学習させた擬似マップの擬似セルが有する学習積算値waを未学習マップの未学習セルが有するベクトルデータに反映させることにより自己組織化マップを作成する。 As described above, the learning data x is learned in the pseudo map, and the learning integrated value w a included in the pseudo cell of the learned pseudo map is reflected in the vector data included in the unlearned cell of the unlearned map. Create an organizational map.
第1実施形態では、上記のように、複数の未学習セル4aに対応するとともに、学習前の学習積算値wa(before)を有する複数の擬似セル5aを含む擬似マップ5に、学習データxを学習させた後、学習された擬似マップ5の擬似セル5aが有する学習積算値waを未学習マップ4の擬似セル5aに対応する未学習セル4aに反映させることによって、複数の学習データxを順次学習させる場合に、全ての学習データxを擬似マップ5に学習させる間は、未学習マップ4の各未学習セル4aのベクトルデータは変化されない。これにより、未学習マップ4で学習データxを学習させるべき未学習セル4aを選択した後、その選択された未学習マップ4の未学習セル4a(選択ブロック)に対応する擬似マップ5の擬似セル5a(学習対象ブロック)に学習データxを学習させることによって、未学習マップ4で学習データxを学習させるべき未学習セル4aを選択する際に、未学習マップ4の未学習セル4aのベクトルデータは変化しないので、学習データxを学習させる順番によって、未学習マップ4の選択される未学習セル4aが異なるという不都合が生じない。これにより、複数の学習データxを学習させる場合にも、学習データxを学習させる順番によって得られる自己組織化マップ3が異なるのを抑制することができる。したがって、学習データxを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。
In the first embodiment, as described above, the learning data x corresponds to the plurality of
また、第1実施形態では、未学習マップ4の抽出ブロックの中から学習データxに対応する選択ブロックを選択するとともに、選択ブロックに対応する擬似マップ5の学習対象ブロックに含まれる擬似セル5aに学習データxを学習させることによって、学習データxに対応する単一のセルとその近傍領域のセルに対して学習データxを学習させる場合と異なり、学習データxを学習させる近傍領域の範囲を設定するための近傍関数を設定する必要がない。これにより、近傍関数の設定に熟練していない者でも、容易に、学習データxを学習させることができるので、容易に、自己組織化マップ3を作成することができる。
In the first embodiment, the selected block corresponding to the learning data x is selected from the extracted blocks of the
また、第1実施形態では、5×5=25個(M個)以上の擬似セル5aからなる学習対象ブロック毎に、学習対象ブロックに含まれる各擬似セル5aに学習データxを学習させるとともに、擬似マップ5の各擬似セル5aが有する学習積算値waを未学習マップ4の各未学習セル4aに反映させた後、2×2=4個(N個(N<M))以上の擬似セル5aからなる学習対象ブロック毎に、学習対象ブロックに含まれる各擬似セル5aに学習データxを学習させるとともに、擬似マップ5の各擬似セル5aが有する学習積算値waを未学習マップ4の各未学習セル4aに反映させることによって、25個以上の擬似セル5aを含む比較的大きな学習対象ブロック毎に、比較的粗く学習データxを学習させた後、4個以上の擬似セル5aを含む比較的小さな学習対象ブロック毎にも、比較的細かく学習データxを学習させることができる。これにより、最初から比較的小さな学習対象ブロック毎に学習データxを学習させる場合と異なり、類似した学習積算値waを有する複数の擬似セル5aからなる領域が擬似マップ5上に局所的な固まりを有した状態で複数に分散して形成されるのを抑制することができる。このため、擬似マップ5の学習積算値5aを未学習マップ4に反映させて作成する自己組織化マップ3上に、類似したベクトルデータを有する複数のセル3aからなる領域が局所的な固まりを有した状態で複数に分散して形成されるのを抑制することができる。
In the first embodiment, for each learning target block including 5 × 5 = 25 (M) or more
次に、図9〜図13を参照して、第1実施形態による自己組織化マップ作成方法のクラス分けアルゴリズムについて説明する。 Next, a classification algorithm of the self-organizing map creation method according to the first embodiment will be described with reference to FIGS.
(クラス分けアルゴリズム)
このクラス分けアルゴリズムでは、上記学習アルゴリズムによって作成した自己組織化マップを構成するセルのクラス分けを行う。なお、クラスとは、学習データxを分類するために各学習データxに与えられた分類名である。第1実施形態では、各学習データxがα、β、γの3つのクラスのいずれか1つに分類されているとともに、自己組織化マップを構成するセルをα、β、γの3つのクラスに分類する場合について説明する。また、自己組織化マップを構成する各セルは、各クラスに属する可能性割合を示すクラス所属値Rcを有している。第1実施形態では、各セルは3つのクラス所属値(Rα、RβおよびRγ)を有している。
(Classification algorithm)
In this classification algorithm, the cells constituting the self-organizing map created by the learning algorithm are classified. The class is a classification name given to each learning data x in order to classify the learning data x. In the first embodiment, each learning data x is classified into one of three classes of α, β, and γ, and the cells constituting the self-organizing map are classified into three classes of α, β, and γ. The case of classifying into 2 will be described. Further, each of the cells constituting the self-organizing map includes a class affiliation values R c indicating the likelihood ratio belonging to each class. In the first embodiment, each cell has three class membership values (R α , R β and R γ ).
まず、図9に示すように、ステップS21において、自己組織化マップ3(図10参照)を構成する全てのセル3aのクラス所属値Rcを「0」に初期化する。すなわち、図10に示すように、自己組織化マップ3を構成する全てのセル3aのα、βおよびγクラスに対応するクラス所属値Rα、RβおよびRγを「0」に設定する。
First, as shown in FIG. 9, in step S21, it initializes the class affiliation value R c to "0" in all
次に、ステップS22において、自己組織化マップ3から2×2以上の縦横に同数のセル3aが配置された全てのブロックを抽出するとともに、その抽出した全てのブロック(抽出ブロック)についてブロック重みデータBj(bj1,bj2,bj3,bj4)を算出する。このブロック重みデータBjは、上記学習アルゴリズムによるブロック重みデータBi(式(1)〜式(4)参照)と同様にして算出する。すなわち、図11に示すように、2×2=4個のセル3aからなる抽出ブロック53を抽出した場合には、以下の式(20)〜式(23)に示すようにブロック重みデータBj(bj1,bj2,bj3,bj4)を算出する。なお、以下の式(20)〜式(23)において、a11〜a14と、a21〜a24と、a31〜a34と、a41〜a44とは、それぞれ、抽出ブロック53に含まれる各セル3aの要素1〜要素4の値である。
Next, in step S22, all the blocks in which the same number of
ブロック重みデータbj1=(a11+a12+a13+a14)/4・・・(20)
ブロック重みデータbj2=(a21+a22+a23+a24)/4・・・(21)
ブロック重みデータbj3=(a31+a32+a33+a34)/4・・・(22)
ブロック重みデータbj4=(a41+a42+a43+a44)/4・・・(23)
次に、ステップS23において、クラス分けの対象となるクラス分け対象ブロックの決定を行う。このクラス分け対象ブロックの決定は、上記の2×2以上のセル3aからなる全ての抽出ブロックの中から学習データx(x1,x2,x3,x4)とのベクトル間距離が最も小さいブロック重みデータBjを有するブロックを選択することにより行う。たとえば、図12に示すように、自己組織化マップ3から抽出し得る全ての抽出ブロックの中で、3×3のブロック54が学習データxとのベクトル間距離が最も小さいブロック重みデータBjを有する場合には、このブロック54をクラス分け対象ブロックに決定する。
Block weight data b j1 = (a1 1 + a1 2 + a1 3 + a1 4 ) / 4 (20)
Block weight data b j2 = (a2 1 + a2 2 + a2 3 + a2 4 ) / 4 (21)
Block weight data b j3 = (a3 1 + a3 2 + a3 3 + a3 4 ) / 4 (22)
Block weight data b j4 = (a4 1 + a4 2 + a4 3 + a4 4 ) / 4 (23)
Next, in step S23, a classification target block to be classified is determined. This classification target block is determined by determining that the distance between vectors with the learning data x (x 1 , x 2 , x 3 , x 4 ) is the largest among all the extracted blocks made up of the above 2 × 2
次に、ステップS24において、クラス分け対象ブロックに含まれる全てのセル3aのクラス所属値Rdを算出する。このクラス所属値Rdの算出は、以下の式(24)による演算によって行う。なお、以下の式(24)において、Rdの「d」は、上記ステップS23において用いた学習データxの所属クラスである。つまり、式(24)の演算は、学習データxの所属クラスについてのみ行う。また、Rd(before)は、演算前のセル3aのdクラスに対応するクラス所属値である。また、uは、係数であり、たとえば、u=1/(dクラスに属する学習データxの個数)によって求められる。また、bnは、クラス分け対象ブロックを構成するセル3aの数である。
Next, in step S24, and calculates the class affiliation values R d of all
Rd=Rd(before)+u(1/bn)・・・(24)
具体的には、図12に示すように、αクラスに属する学習データxに対応して3×3=9個のセルからなるブロック54をクラス分け対象ブロックに決定するとともに、そのクラス分け対象ブロック(ブロック54)中の9個のセル55のクラス所属値Rαを算出する場合には、以下の式(25)により算出する。なお、1個目の学習データxに対応するクラス所属値の演算では、ステップS21の処理により、以下の式(25)において、Rα(before)=0となる。
R d = R d (before) + u (1 / b n ) (24)
Specifically, as shown in FIG. 12, a
Rα=Rα(before)+u(1/9)・・・(25)
全ての学習データxについて、クラス分け対象ブロックを決定するとともに、そのクラス分け対象ブロックに含まれる全てのセル3aについて各学習データxの所属クラス(α、βまたはγ)のクラス所属値Rdを上記した式(24)の演算により求める。このようなクラス所属値Rdの演算処理により各セル3aのそれぞれについて、各クラスα、β、γのクラス所属値Rα、Rβ、Rγが算出される。
R α = R α (before) + u (1/9) (25)
Classifying target blocks are determined for all learning data x, and the class belonging value R d of the class (α, β, or γ) to which each learning data x belongs is assigned to all
次に、ステップS25において、学習データxの個数分(全ての学習データx)のクラス所属値Rdの演算が終了したかどうかが判断される。学習データxの個数分のクラス所属値Rdの演算が終了した場合には、次のステップS26に進む。一方、学習データxの個数分のクラス所属値Rdの演算が終了していない場合には、ステップS22〜S25を繰り返し実行する。 Next, in step S25, whether the calculation of the class affiliation values R d to the number of all learning data x (all learning data x) has been finished is determined. When the operation to the number of all classes belonging values R d of the learning data x is completed, the process proceeds to the next step S26. On the other hand, when the operation corresponding to the number of all classes belonging values R d of the learning data x is not finished, repeatedly executes the steps S22 to S25.
次に、ステップS26において、自己組織化マップ3を構成する全てのセル3aの所属クラスを決定する。この所属クラスの決定では、各セル3aの有するクラス所属値Rd(Rα、Rβ、Rγ)の中で最大の値を有するクラスをそのセル3aの所属クラスに決定する。たとえば、図13に示すように、セル56がRα=3、Rβ=0.1、Rγ=0.4のクラス所属値をそれぞれ有している場合には、αクラスのクラス所属値Rαが最大であるので、セル56の所属クラスは、αクラスに決定する。このようにして、図13に示すように、全てのセル3aの所属クラスを決定することによって、自己組織化マップ3を構成する全てのセル3aのクラス分けを行う。
Next, in step S26, the affiliation class of all the
(第2実施形態)
図14は、本発明の第2実施形態による自己組織化マップ作成方法の学習アルゴリズムのサブルーチンを説明するためのフローチャートである。次に、図14を参照して、本発明の第2実施形態による自己組織化マップ作成方法の学習アルゴリズムについて説明する。
(Second Embodiment)
FIG. 14 is a flowchart for explaining a subroutine of the learning algorithm of the self-organizing map creation method according to the second embodiment of the present invention. Next, a learning algorithm of the self-organizing map creation method according to the second embodiment of the present invention will be described with reference to FIG.
第2実施形態による自己組織化マップ作成方法の学習アルゴリズムでは、上記第1実施形態による自己組織化マップ作成方法の学習アルゴリズムと異なり、学習対象ブロックに含まれる擬似セルに対する学習演算の際に、学習対象ブロックに含まれる全ての擬似セルが有する学習前の学習積算値wa(before)に、学習データxと選択ブロックに含まれる未学習セルが有するベクトルデータwbとの差に基づくベクトルデータをそれぞれ加算する。これにより、学習対象ブロックに含まれる擬似セルの学習積算値waが算出される。すなわち、第2実施形態では、図14に示すように、ステップS25において、wa=wa(before)+t・(x−wb)/cで表される式を用いて、学習対象ブロックに含まれる擬似セルの有する学習前の学習積算値wa(before)に、学習データxと選択ブロックに含まれる未学習セルが有するベクトルデータwbとの差に基づくベクトルデータ(t・(x−wb)/c)を加算することにより擬似セルの学習積算値waを算出する。そして、この学習演算を学習対象ブロックに含まれる全ての擬似セルについて行うことにより、学習対象ブロックに含まれる全ての擬似セルの学習積算値waを算出する。なお、上記の式において、tは、学習データxを擬似セルに学習させる度合いを表す定数であり、cは、学習対象ブロックに含まれる擬似セルの数である。 In the learning algorithm of the self-organizing map creation method according to the second embodiment, unlike the learning algorithm of the self-organization map creation method according to the first embodiment, learning is performed at the time of learning calculation for the pseudo cell included in the learning target block. Vector data based on the difference between learning data x and vector data w b of unlearned cells included in the selected block is added to the learning integrated value w a (before) of all the pseudo cells included in the target block. Add each. Thus, the learning integrated value w a of the pseudo cells included in the learning target block is calculated. That is, in the second embodiment, as shown in FIG. 14, in step S25, using the formula represented by w a = w a (before) + t · (x-w b) / c, the learning target block The accumulated learning value w a (before) of the included pseudo cell before learning is calculated based on the difference between the learning data x and the vector data w b of the unlearned cell included in the selected block (t · (x− The learning integrated value w a of the pseudo cell is calculated by adding w b ) / c). Then, by performing this learning calculation for all the pseudo cells included in the learning target block, the learning integrated value w a of all the pseudo cells included in the learning target block is calculated. In the above equation, t is a constant representing the degree to which the learning data x is learned by the pseudo cell, and c is the number of pseudo cells included in the learning target block.
具体的には、5×5(=25個)の擬似セル5a(図8参照)からなる学習対象ブロック(ブロック51)において、学習前の学習積算値wa(before)(wab1,wab2,wab3,wab4)を有する擬似セル52に対して学習データx(x1,x2,x3,x4)の学習演算を行う場合には、以下の式(26)〜式(29)に示すように、擬似セル52の学習積算値wa(wa1,wa2,wa3,wa4)を算出する。なお、この際、擬似セル52に対応する未学習マップ4(図6参照)の選択ブロック(抽出ブロック50)内の未学習セルは、ベクトルデータwb(wb1,wb2,wb3,wb4)を有しているとする。
Specifically, in the learning target block (block 51) composed of 5 × 5 (= 25)
学習積算値wa1(要素1)=wab1+t・(x1−wb1)/25・・・(26)
学習積算値wa2(要素2)=wab2+t・(x2−wb2)/25・・・(27)
学習積算値wa3(要素3)=wab3+t・(x3−wb3)/25・・・(28)
学習積算値wa4(要素4)=wab4+t・(x4−wb4)/25・・・(29)
また、第2実施形態では、ステップ27の未学習マップを構成する全ての未学習セルのベクトルデータに対して擬似マップの擬似セルが有する学習積算値waを反映させるための演算において、w=wb+v・waで表される式により、擬似セルの学習積算値waを反映させた未学習セルのベクトルデータw(w1,w2,w3,w4)を算出する。なお、この式において、vは係数である。具体的には、以下の式(30)〜式(33)に示すように学習積算値waを反映させた未学習セルのベクトルデータw(w1,w2,w3,w4)を算出する。
Integrated learning value w a1 (element 1) = w ab1 + t · (x 1 −w b1 ) / 25 (26)
Integrated learning value w a2 (element 2) = w ab2 + t · (x 2 −w b2 ) / 25 (27)
Integrated learning value w a3 (element 3) = w ab3 + t · (x 3 −w b3 ) / 25 (28)
Learning integrated value w a4 (element 4) = w ab4 + t · (x 4 −w b4 ) / 25 (29)
In the second embodiment, in the calculation for reflecting the learning integrated value w a of the pseudo cell of the pseudo map to the vector data of all the unlearned cells constituting the unlearned map in step 27, w = the formula represented by w b + v · w a, and calculates the vector data w unlearned cells reflecting the learned integration value w a
学習積算値wa1を反映させた未学習セルのベクトルデータw1=wb1+v・wa1・・・(30)
学習積算値wa2を反映させた未学習セルのベクトルデータw2=wb2+v・wa2・・・(31)
学習積算値wa3を反映させた未学習セルのベクトルデータw3=wb3+v・wa3・・・(32)
学習積算値wa4を反映させた未学習セルのベクトルデータw4=wb4+v・wa4・・・(33)
なお、第2実施形態では、上記第1実施形態と異なり、学習負荷率の積算値divaを求めないとともに、学習対象ブロックに含まれる擬似セルの数cの逆数1/cが蓄積された学習積算値waを学習負荷率の積算値divaで割ることなく、未学習セルのベクトルデータwを求める。
Vector data w 1 = w b1 + v · w a1 (30) of the unlearned cell reflecting the learning integrated value w a1
Vector data w 2 = w b2 + v · w a2 of the unlearned cell reflecting the learning integrated value w a2 (31)
Vector data w 3 = w b3 + v · w a3 (32) of the unlearned cell reflecting the learning integrated value w a3
Vector data w 4 = w b4 + v · w a4 (33) of the unlearned cell reflecting the learning integrated value w a4
In the second embodiment, unlike the first embodiment, the learning load factor integrated value div a is not obtained, and learning in which the
上記式(30)〜式(33)により、たとえば、学習データX1(0.03,3.1,0.2,2.8)が学習された5×5の学習対象ブロックと、学習データX2(0.4,2.9,0.2,2.7)が学習された3×3の学習対象ブロックと、学習データX3(0.01,3.2,0.1,2.9)が学習された4×4の学習対象ブロックとに含まれた所定の擬似セルが有する学習積算値waをベクトルデータ(0.02,2.9,0.22,2.7)を有する未学習セルに反映させる場合には、その未学習セルのベクトルデータw(w1,w2,w3,w4)は、以下の式(34)〜式(37)のように算出される。なお、この場合、係数v=1とする。
From the above equations (30) to (33), for example, a 5 × 5 learning target block in which the learning data X1 (0.03, 3.1, 0.2, 2.8) is learned, and the learning
w1=0.02+1×(1×(0.03−0.02)/25+1×(0.4−0.02)/9+1×(0.01−0.02)/16)=0.06・・・(34)
w2=2.9+1×(1×(3.1−2.9)/25+1×(2.9−2.9)/9+1×(3.2−2.9)/16)=2.93・・・(35)
w3=0.22+1×(1×(0.2−0.22)/25+1×(0.2−0.22)/9+1×(0.1−0.22)/16)=0.21・・・(36)
w4=2.7+1×(1×(2.8−2.7)/25+1×(2.7−2.7)/9+1×(2.9−2.7)/16)=2.72・・・(37)
上記式(30)〜(33)により、擬似マップを構成する全ての擬似セルに対応する未学習マップの全ての未学習セルについて、それぞれ学習積算値waを反映させたベクトルデータwを算出する。そして、算出したベクトルデータwによって各未学習セルの有するベクトルデータを書き換える。第2実施形態による自己組織化マップ作成方法の上記以外の処理方法は、上記第1実施形態による自己組織化マップ作成方法の処理方法と同様である。
w 1 = 0.02 + 1 × (1 × (0.03-0.02) / 25 + 1 × (0.4−0.02) / 9 + 1 × (0.01−0.02) / 16) = 0.06 ... (34)
w 2 = 2.9 + 1 × (1 × (3.1-2.9) / 25 + 1 × (2.9-2.9) / 9 + 1 × (3.2-2.9) / 16) = 2.93 ... (35)
w 3 = 0.22 + 1 × (1 × (0.2−0.22) / 25 + 1 × (0.2−0.22) / 9 + 1 × (0.1−0.22) / 16) = 0.21 ... (36)
w 4 = 2.7 + 1 × (1 × (2.8-2.7) / 25 + 1 × (2.7-2.7) / 9 + 1 × (2.9-2.7) / 16) = 2.72 ... (37)
By the above equations (30) to (33), vector data w reflecting the learning integrated value w a is calculated for all unlearned cells of the unlearned map corresponding to all the pseudo cells constituting the pseudo map. . Then, the vector data of each unlearned cell is rewritten with the calculated vector data w. The other processing methods of the self-organizing map creating method according to the second embodiment are the same as the processing methods of the self-organizing map creating method according to the first embodiment.
第2実施形態では、上記のように、複数の未学習セル4aに対応するとともに、学習前の学習積算値wa(before)を有する複数の擬似セル5aを含む擬似マップ5に、学習データxを学習させた後、学習された擬似マップ5の擬似セル5aが有する学習積算値waを未学習マップ4の擬似セル5aに対応する未学習セル4aに反映させることによって、複数の学習データxを順次学習させる場合に、全ての学習データxを擬似マップ5に学習させる間は、未学習マップ4の各未学習セル4aのベクトルデータは変化されない。これにより、未学習マップ4で学習データxを学習させるべき未学習セル4aを選択した後、その選択された未学習マップ4の未学習セル4a(選択ブロック)に対応する擬似マップ5の擬似セル5a(学習対象ブロック)に学習データxを学習させることによって、未学習マップ4で学習データxを学習させるべき未学習セル4aを選択する際に、未学習マップ4の未学習セル4aのベクトルデータは変化しないので、学習データxを学習させる順番によって、未学習マップ4の選択される未学習セル4aが異なるという不都合が生じない。これにより、複数の学習データxを学習させる場合にも、学習データxを学習させる順番によって得られる自己組織化マップ3が異なるのを抑制することができる。したがって、学習データxを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。
In the second embodiment, as described above, the learning data x corresponds to the plurality of
第2実施形態による上記以外の効果は、上記第1実施形態による効果と同様である。 The effects of the second embodiment other than those described above are the same as the effects of the first embodiment.
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and further includes all modifications within the meaning and scope equivalent to the scope of claims for patent.
たとえば、上記実施形態では、本発明の分類支援マップ作成方法およびそれを実行するためのプログラムならびに分類支援マップ作成装置の一例としての自己組織化マップ作成方法およびそれを実行するためのプログラムならびに自己組織化マップ作成装置について説明したが、本発明はこれに限らず、自己組織化マップ作成方法およびそれを実行するためのプログラムならびに自己組織化マップ作成装置以外の分類支援マップ作成方法およびそれを実行するためのプログラムならびに分類支援マップ作成装置についても本発明を適用することができる。 For example, in the above embodiment, the classification support map creation method of the present invention, the program for executing the method, the self-organization map creation method as an example of the classification support map creation apparatus, the program for executing the program, and the self-organization Although the present invention is not limited to this, the present invention is not limited to this, and a self-organizing map creating method, a program for executing the method, a classification support map creating method other than the self-organizing map creating device, and the same are executed. The present invention can also be applied to a program for the above and a classification support map creating apparatus.
また、上記実施形態では、学習アルゴリズムにおいて、ベクトルデータを全く有していないセルからなるマップの各セルに対して、乱数表を用いて所定のベクトルデータを割り付けることにより、未学習マップの準備を行ったが、本発明はこれに限らず、上記以外の方法を用いて未学習マップの準備を行ってもよい。たとえば、ベクトルデータを全く有していないセルからなるマップの全てのセルに対して、全ての要素が「0」からなるベクトルデータを割り付けることなどにより、未学習マップの準備を行ってもよい。 In the above embodiment, the learning algorithm prepares an unlearned map by assigning predetermined vector data using a random number table to each cell of a map made up of cells having no vector data. However, the present invention is not limited to this, and an unlearned map may be prepared using a method other than the above. For example, an unlearned map may be prepared by assigning vector data having all elements of “0” to all cells of a map including cells having no vector data.
また、上記第2実施形態では、学習積算値waを学習負荷率の積算値divaで割ることなく未学習セルのベクトルデータwを求めたが、本発明はこれに限らず、上記第2実施形態による学習データxと未学習セルのベクトルデータとの差分を積算することにより学習積算値waを求める方法の場合にも、学習積算値waを学習負荷率の積算値divaで割ることにより未学習セルのベクトルデータwを求めるようにしてもよい。 In the second embodiment, the unlearned cell vector data w is obtained without dividing the learning integrated value w a by the learning load factor integrated value div a . However, the present invention is not limited to this, and the second If the method of obtaining the learned integration value w a by integrating the difference between the vector data of the learning data x and unlearned cell according to the embodiment also divides the learning integrated value w a learning load factor integration value div a Thus, the vector data w of the unlearned cell may be obtained.
また、上記実施形態では、マップを構成する各セルをマス目によって表したが、本発明はこれに限らず、各セルをマス目以外の種々の形状によって表してもよい。たとえば、各セルを円や点などによって表してもよい。 Moreover, in the said embodiment, although each cell which comprises a map was represented by the grid, this invention is not restricted to this, You may represent each cell by various shapes other than a grid. For example, each cell may be represented by a circle or a point.
また、上記実施形態では、自己組織化マップの各セルをα、βおよびγの3つのクラスにクラス分けした例について説明したが、本発明はこれに限らず、自己組織化マップの各セルを3つ以外のクラスにクラス分けする場合にも、本発明を適用することができる。 In the above embodiment, an example in which each cell of the self-organizing map is classified into three classes of α, β, and γ has been described. However, the present invention is not limited to this, and each cell of the self-organizing map is The present invention can also be applied to classification into classes other than three.
また、上記実施形態では、ベクトルデータとして4個の要素からなるベクトルデータを用いたが、本発明はこれに限らず、2個以上の要素からなるベクトルデータであればよい。 In the above embodiment, vector data composed of four elements is used as vector data. However, the present invention is not limited to this, and any vector data composed of two or more elements may be used.
また、上記実施形態では、ブロックデータとしてブロックに含まれる全てのセルの各要素の重みの平均値を用いたが、本発明はこれに限らず、ブロックデータとしてブロックに含まれる全てのセルの各要素の重みの標準偏差などを用いてもよい。 In the above embodiment, the average value of the weight of each element of all cells included in the block is used as the block data. However, the present invention is not limited to this, and each cell of all cells included in the block as block data is used. A standard deviation of element weights may be used.
また、上記実施形態では、未学習マップおよび擬似マップとして、縦横に同数のセルが配置されたマップを使用した例について説明したが、本発明はこれに限らず、未学習マップおよび擬似マップとして、縦横で配置されたセルの数が異なるマップを使用してもよい。 In the above embodiment, an example in which a map in which the same number of cells are arranged vertically and horizontally is used as an unlearned map and a pseudo map, but the present invention is not limited thereto, and as an unlearned map and a pseudo map, Maps with different numbers of cells arranged vertically and horizontally may be used.
1 自己組織化マップ作成装置
2a 未学習マップ記憶部(未学習マップ記憶手段)
2b 擬似マップ記憶部(擬似マップ記憶手段)
2c ブロック選択部(ブロック選択手段)
2d 擬似マップ学習部(擬似マップ学習手段)
2e 未学習マップ反映部(未学習マップ反映手段)
2f ブロック重みデータ算出部(ブロックデータ算出手段)
2g ブロック重みデータ比較選択部(ブロックデータ比較選択手段)
2h 擬似セル学習部(擬似セル学習手段)
3 自己組織化マップ(分類支援マップ)
3a セル
4 未学習マップ
4a 未学習セル
5 擬似マップ
5a 擬似セル
50 抽出ブロック(ブロック、第3ブロック)
1 Self-organizing
2b Pseudo map storage unit (pseudo map storage means)
2c Block selection unit (block selection means)
2d pseudo map learning unit (pseudo map learning means)
2e Unlearned map reflection unit (unlearned map reflection means)
2f Block weight data calculation unit (block data calculation means)
2g block weight data comparison / selection unit (block data comparison / selection means)
2h Pseudo cell learning unit (pseudo cell learning means)
3 Self-organizing map (Classification support map)
Claims (14)
それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを準備するステップと、
前記複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを準備するステップと、
ベクトルデータからなる学習データを前記擬似マップに学習させるステップと、
学習された前記擬似マップの擬似セルが有するベクトルデータを前記未学習マップの前記擬似セルに対応する未学習セルに反映させるステップとを備えた、分類支援マップ作成方法。 A classification support map creation method for creating a classification support map for supporting classification of unknown data composed of vector data,
Providing an unlearned map including a plurality of unlearned cells each having unlearned vector data;
Preparing a pseudo map that corresponds to the plurality of unlearned cells and includes a plurality of pseudo cells having predetermined vector data;
Learning learning data composed of vector data in the pseudo map;
Reflecting the vector data of the learned pseudo cell of the pseudo map to an unlearned cell corresponding to the pseudo cell of the unlearned map.
前記学習データを擬似マップに学習させるステップは、前記未学習マップの前記第1ブロックに対応する前記擬似マップの第2ブロックに含まれる前記擬似セルに前記学習データを学習させるステップを含む、請求項1に記載の分類支援マップ作成方法。 Selecting a first block consisting of a collection of the unlearned cells from the unlearned map;
The step of causing the pseudo map to learn the learning data includes the step of causing the pseudo cell included in the second block of the pseudo map corresponding to the first block of the unlearned map to learn the learning data. A method for creating a classification support map according to 1.
前記未学習マップから抽出される、前記未学習セルの集合体からなる複数のブロック毎に、前記ブロックに含まれる複数の前記未学習セルの未学習のベクトルデータに基づいて、前記ブロックのベクトルデータとしてのブロックデータを算出するステップと、
前記学習データを前記複数のブロックのブロックデータと比較して、前記複数のブロックの中から前記学習データに対応する前記ブロックデータを有する第1ブロックを選択するステップとを含む、請求項2に記載の分類支援マップ作成方法。 Selecting a first block from the unlearned map comprises:
The vector data of the block is extracted from the unlearned map, for each of a plurality of blocks made up of a collection of the unlearned cells, based on the unlearned vector data of the plurality of unlearned cells included in the block. Calculating block data as:
The learning data is compared with the block data of the plurality of blocks, and a first block having the block data corresponding to the learning data is selected from the plurality of blocks. Classification support map creation method.
前記擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるステップは、前記学習データが学習された前記擬似マップの擬似セルが有するベクトルデータを前記学習負荷率の積算値で割ることにより、前記学習データが学習された前記擬似セルが有するベクトルデータを反映させた前記未学習セルのベクトルデータを算出するステップを含む、請求項2〜7のいずれか1項に記載の分類支援マップ作成方法。 The step of learning the learning data in a pseudo map is performed when the learning load factor indicating the degree of learning of the learning data with respect to the pseudo cell is div and the number of pseudo cells included in the second block is c. calculating an integrated value of the learning load factor based on an expression represented by div + 1 / c;
The step of reflecting the vector data included in the pseudo cell of the pseudo map to the unlearned cell corresponding to the pseudo cell of the unlearned map includes the vector data included in the pseudo cell of the pseudo map in which the learning data has been learned. 8. The method according to claim 2, further comprising: calculating vector data of the unlearned cell reflecting the vector data of the pseudo cell in which the learning data has been learned by dividing by an integrated value of the rate. Classification support map creation method as described in the item.
前記未学習マップから抽出されるN個(N<M)以上の前記未学習セルの集合体からなる複数の第4ブロック毎に、前記ブロックデータを算出するステップと、前記複数の第4ブロックの中から前記第1ブロックを選択するステップと、前記第1ブロックに対応する前記第2ブロックに含まれる擬似セルに学習データを学習させるステップと、前記擬似マップのベクトルデータを未学習マップに反映させるステップとが実行される、請求項2〜9のいずれか1項に記載の分類支援マップ作成方法。 Calculating the block data for each of a plurality of third blocks comprising a set of M or more of the unlearned cells extracted from the unlearned map; and the first of the plurality of third blocks. The steps of selecting a block, causing the pseudo cell included in the second block corresponding to the first block to learn learning data, and reflecting the pseudo map vector data in the unlearned map are executed. After
Calculating the block data for each of a plurality of fourth blocks made up of a set of N (N <M) or more unlearned cells extracted from the unlearned map; and Selecting the first block from among the steps, causing the pseudo cell included in the second block corresponding to the first block to learn learning data, and reflecting the pseudo map vector data in the unlearned map The classification support map creation method according to claim 2, wherein the step is executed.
それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを記憶する未学習マップ記憶手段と、
前記複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを記憶する擬似マップ記憶手段と、
ベクトルデータからなる学習データを前記擬似マップに学習させる擬似マップ学習手段と、
学習された前記擬似マップの擬似セルが有するベクトルデータを前記未学習マップの前記擬似セルに対応する未学習セルに反映させる未学習マップ反映手段とを備えた、分類支援マップ作成装置。 A classification support map creation device for creating a classification support map that supports classification of unknown data consisting of vector data,
Unlearned map storage means for storing an unlearned map including a plurality of unlearned cells each having unlearned vector data;
Pseudo map storage means for storing a pseudo map corresponding to the plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data;
Pseudo map learning means for causing the pseudo map to learn learning data composed of vector data;
A classification support map creating apparatus comprising: an unlearned map reflecting unit that reflects vector data of a learned pseudo cell of the pseudo map to an unlearned cell corresponding to the pseudo cell of the unlearned map.
前記擬似マップ学習手段は、前記未学習マップの前記第1ブロックに対応する前記擬似マップの第2ブロックに含まれる前記擬似セルに前記学習データを学習させる擬似セル学習手段を含む、請求項11に記載の分類支援マップ作成装置。 Further comprising a block selection means for selecting a first block composed of a collection of the unlearned cells from the unlearned map;
The pseudo map learning means includes pseudo cell learning means for causing the pseudo cell included in the second block of the pseudo map corresponding to the first block of the unlearned map to learn the learning data. Classification support map creation device of description.
前記未学習マップから抽出される、前記未学習セルの集合体からなる複数のブロック毎に、前記ブロックに含まれる複数の前記未学習セルの未学習のベクトルデータに基づいて、前記ブロックのベクトルデータとしてのブロックデータを算出するブロックデータ算出手段と、
前記学習データを前記複数のブロックのブロックデータと比較して、前記複数のブロックの中から前記学習データに対応する前記ブロックデータを有する第1ブロックを選択するブロックデータ比較選択手段とを含む、請求項12に記載の分類支援マップ作成装置。 The block selection means includes
The vector data of the block is extracted from the unlearned map, for each of a plurality of blocks made up of a collection of the unlearned cells, based on the unlearned vector data of the plurality of unlearned cells included in the block. Block data calculating means for calculating block data as:
Block data comparison and selection means for comparing the learning data with block data of the plurality of blocks and selecting a first block having the block data corresponding to the learning data from the plurality of blocks. Item 13. The classification support map creation device according to Item 12.
それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを読み出すステップと、
前記複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを読み出すステップと、
ベクトルデータからなる学習データを前記擬似マップに学習させるステップと、
学習された前記擬似マップの擬似セルが有するベクトルデータを前記未学習マップの前記擬似セルに対応する未学習セルに反映させるステップとを備えた、分類支援マップ作成方法を実行するためのプログラム。 A program for executing a classification support map creating method for creating a classification support map for supporting classification of unknown data consisting of vector data,
Reading an unlearned map that includes a plurality of unlearned cells each having unlearned vector data;
Reading a pseudo map that corresponds to the plurality of unlearned cells and includes a plurality of pseudo cells having predetermined vector data;
Learning learning data composed of vector data in the pseudo map;
Reflecting a vector data of a learned pseudo cell of the pseudo map to an unlearned cell corresponding to the pseudo cell of the unlearned map, for executing a classification support map creating method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004262228A JP2006079326A (en) | 2004-09-09 | 2004-09-09 | Classification support map preparation method, program for executing the method, and classification support map preparation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004262228A JP2006079326A (en) | 2004-09-09 | 2004-09-09 | Classification support map preparation method, program for executing the method, and classification support map preparation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006079326A true JP2006079326A (en) | 2006-03-23 |
Family
ID=36158738
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004262228A Pending JP2006079326A (en) | 2004-09-09 | 2004-09-09 | Classification support map preparation method, program for executing the method, and classification support map preparation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006079326A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008047774A1 (en) * | 2006-10-17 | 2008-04-24 | Toa Corporation | Moving image processing device, moving image processing method, and moving image processing program |
JP2011248484A (en) * | 2010-05-24 | 2011-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Character string vector conversion device, character string vector conversion method, program, and computer readable storage medium storing program |
-
2004
- 2004-09-09 JP JP2004262228A patent/JP2006079326A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008047774A1 (en) * | 2006-10-17 | 2008-04-24 | Toa Corporation | Moving image processing device, moving image processing method, and moving image processing program |
JP2008102589A (en) * | 2006-10-17 | 2008-05-01 | Toa Corp | Moving image processor, moving image processing method and moving image processing program |
JP2011248484A (en) * | 2010-05-24 | 2011-12-08 | Nippon Telegr & Teleph Corp <Ntt> | Character string vector conversion device, character string vector conversion method, program, and computer readable storage medium storing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106485353B (en) | Air pollutant concentration forecasting procedure and system | |
Song et al. | New chaotic PSO-based neural network predictive control for nonlinear process | |
CN109584178A (en) | Image repair method, device and storage medium | |
CN110782015A (en) | Training method and device for network structure optimizer of neural network and storage medium | |
CN107391512B (en) | Method and device for predicting knowledge graph | |
JP6646234B2 (en) | Program generation device, program generation method, and generation program | |
CN105320804A (en) | Material property predictor for cast aluminum alloys | |
CN105354873B (en) | For the pattern density function analogy method of porous media three-dimensionalreconstruction | |
CN112163520B (en) | MDSSD face detection method based on improved loss function | |
CN109284860A (en) | A kind of prediction technique based on orthogonal reversed cup ascidian optimization algorithm | |
Leong et al. | Robust cluster expansion of multicomponent systems using structured sparsity | |
WO2020012523A1 (en) | Information processing device, information processing method, and information processing program | |
CN113011529B (en) | Training method, training device, training equipment and training equipment for text classification model and readable storage medium | |
CN108764741B (en) | For determining the method and device of the layout of the production equipment in factory set region | |
CN109961129A (en) | A kind of Ocean stationary targets search scheme generation method based on improvement population | |
CN112182819B (en) | Structure topology optimization method and system based on weighted graph and readable storage medium | |
KR101273646B1 (en) | Method and system for indexing and searching in multi-modality data | |
CN109508820A (en) | Campus electricity demand forecasting modeling method based on differentiation modeling | |
JP2006079326A (en) | Classification support map preparation method, program for executing the method, and classification support map preparation device | |
CN113450344B (en) | Strip steel surface defect detection method and system | |
Rodionov et al. | Framework for biologically inspired graph optimization | |
CN113221964B (en) | Single sample image classification method, system, computer device and storage medium | |
CN114781014A (en) | Object processing method, device, equipment and computer readable storage medium | |
CN114494893A (en) | Remote sensing image feature extraction method based on semantic reuse context feature pyramid | |
JP6713099B2 (en) | Learned model integration method, device, program, IC chip, and system |