JP2006079326A - Classification support map preparation method, program for executing the method, and classification support map preparation device - Google Patents

Classification support map preparation method, program for executing the method, and classification support map preparation device Download PDF

Info

Publication number
JP2006079326A
JP2006079326A JP2004262228A JP2004262228A JP2006079326A JP 2006079326 A JP2006079326 A JP 2006079326A JP 2004262228 A JP2004262228 A JP 2004262228A JP 2004262228 A JP2004262228 A JP 2004262228A JP 2006079326 A JP2006079326 A JP 2006079326A
Authority
JP
Japan
Prior art keywords
map
unlearned
learning
pseudo
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004262228A
Other languages
Japanese (ja)
Inventor
Nobuyuki Matsui
伸之 松井
Naotake Kamiura
尚武 上浦
Teijiro Isogawa
悌次郎 礒川
Akitsugu Otsuka
晃嗣 大塚
Minoru Okamoto
稔 岡本
Naoki Minamide
直城 南出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sysmex Corp
Original Assignee
Sysmex Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sysmex Corp filed Critical Sysmex Corp
Priority to JP2004262228A priority Critical patent/JP2006079326A/en
Publication of JP2006079326A publication Critical patent/JP2006079326A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2137Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps

Abstract

<P>PROBLEM TO BE SOLVED: To provide a classification support map preparation method capable of preparing a classification support map useful for the classification of unknown data for correctly classifying unknown data regardless of the learning sequence of learning data. <P>SOLUTION: This classification support map preparation method as a self-organization map preparation method for preparing a self-organization map 3 for supporting the classification of unknown data constituted of vector data comprises a step for preparing an non-learning map 4 including a plurality of non-learning cells 4a which are respectively provided with non-learning vector data, a step for preparing a pseudo map 5 including a plurality of pseudo cells 5a having learning integral values corresponding to the plurality of non-learning cells 4a, a step for making the pseudo map 5 learn the learning data constituted of the vector data and a step for reflecting the learning integral values owned by the pseudo cells 5a of the pseudo map 5 which has learned on the vector data owned by the non-learning cells 4a of the non-learning map 4. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、分類支援マップ作成方法および分類支援マップ作成装置に関し、特に、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法およびそれを実行するためのプログラムならびに分類支援マップ作成装置に関する。   The present invention relates to a classification support map creation method and a classification support map creation apparatus, and more particularly to a classification support map creation method for creating a classification support map that supports classification of unknown data composed of vector data, and a method for executing the same. The present invention relates to a program and a classification support map creation device.

従来、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法が知られている。また、上記の分類支援マップとして、たとえば、T.Kohonen氏が提案した自己組織化マップ(SOM:Self−Organizing Maps)が知られている。そして、この自己組織化マップ(SOM)の作成方法として、従来、種々の作成方法が提案されている(たとえば、特許文献1参照)。   Conventionally, a classification support map creation method for creating a classification support map that supports classification of unknown data composed of vector data is known. As the above classification support map, for example, T.M. A self-organizing map (SOM: Self-Organizing Map) proposed by Mr. Kohonen is known. As a method for creating this self-organizing map (SOM), various creation methods have been conventionally proposed (for example, see Patent Document 1).

上記特許文献1に提案された自己組織化マップ(SOM)の作成方法では、未学習のベクトルデータを有する複数のセルからなる未学習マップの各セルに学習データを学習させることによって自己組織化マップを作成している。なお、未学習マップの各セルに学習データを学習させる際には、未学習マップの中から学習データを構成するベクトルデータとのベクトル間距離(ユークリッド距離)が最も小さいベクトルデータを有する単一のセルを選択するとともに、選択したセルおよびその近傍領域のセルに対して学習データを学習させている。   In the method of creating a self-organizing map (SOM) proposed in Patent Document 1, a self-organizing map is obtained by causing each cell of an unlearned map including a plurality of cells having unlearned vector data to learn learning data. Have created. When learning data is learned in each cell of the unlearned map, a single vector data having the smallest inter-vector distance (Euclidean distance) from the vector data constituting the learned data from the unlearned map is used. In addition to selecting a cell, learning data is learned for the selected cell and cells in the vicinity thereof.

特開2001−229362号公報JP 2001-229362 A

しかしながら、上記特許文献1に提案された自己組織化マップの作成方法では、学習データを学習させる毎に、選択したセルおよびその近傍領域のセルのベクトルデータが変化されるので、学習データを学習させるべきセルを順次選択する際に、前の学習データの未学習マップへの学習状況によって選択されるセルが異なる場合があるという不都合がある。このため、学習データを学習させる順番によって、得られる自己組織化マップが異なる場合があるという問題点がある。したがって、上記特許文献1の自己組織化マップの作成方法では、学習データを学習させる順番によっては、未知データを正しく分類することができる未知データの分類に有用な分類支援マップが作成できない場合があるという問題点がある。   However, in the method of creating a self-organizing map proposed in Patent Document 1, each time learning data is learned, the vector data of the selected cell and cells in its vicinity are changed, so that the learning data is learned. When sequentially selecting power cells, there is an inconvenience that the selected cells may differ depending on the learning status of the previous learning data to the unlearned map. For this reason, there exists a problem that the self-organization map obtained may differ with the order which learns learning data. Therefore, in the method for creating a self-organizing map of Patent Document 1, a classification support map useful for classification of unknown data that can correctly classify unknown data may not be created depending on the order in which learning data is learned. There is a problem.

この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、学習データを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することが可能な分類支援マップ作成方法を提供することである。   The present invention has been made to solve the above-described problems, and one object of the present invention is to detect unknown data that can correctly classify unknown data regardless of the order of learning data. To provide a classification support map creation method capable of creating a classification support map useful for classification.

課題を解決するための手段および発明の効果Means for Solving the Problems and Effects of the Invention

上記目的を達成するために、この発明の第1の局面における分類支援マップ作成方法は、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法であって、それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを準備するステップと、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを準備するステップと、ベクトルデータからなる学習データを擬似マップに学習させるステップと、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるステップとを備えている。なお、本発明における「未学習」は、全く学習データを学習させていない場合のみならず、複数の学習データがある場合に、1つ以上の学習データを学習させたが、全ての学習データの学習は完了していない場合も含む。   In order to achieve the above object, a classification support map creation method according to a first aspect of the present invention is a classification support map creation method for creating a classification support map that supports classification of unknown data composed of vector data. A step of preparing an unlearned map including a plurality of unlearned cells each having unlearned vector data, and a pseudo map corresponding to the plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data A step of learning the learning data composed of vector data in a pseudo map, and a step of reflecting the vector data held by the pseudo cell of the learned pseudo map in an unlearned cell corresponding to the pseudo cell of the unlearned map And. Note that “unlearned” in the present invention is not only when learning data is not learned at all, but when there is a plurality of learning data, one or more learning data is learned. This includes cases where learning has not been completed.

この第1の局面による分類支援マップ作成方法では、上記のように、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップに、ベクトルデータからなる学習データを学習させた後、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させることによって、複数の学習データを順次学習させる場合に、全ての学習データを擬似マップに学習させる間は、未学習マップの各未学習セルのベクトルデータは変化されない。これにより、未学習マップで学習データを学習させるべきセルを選択した後、その選択された未学習マップのセルに対応する擬似マップのセルに学習データを学習させるようにすれば、未学習マップで学習データを学習させるべきセルを選択する際に、未学習マップのセルのベクトルデータは変化しないので、学習データを学習させる順番によって、未学習マップの選択されるセルが異なるという不都合が生じない。これにより、複数の学習データを学習させる場合にも、学習データを学習させる順番によって、得られる自己組織化マップが異なるのを抑制することができる。したがって、学習データを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。   In the classification support map creating method according to the first aspect, as described above, learning data consisting of vector data in a pseudo map corresponding to a plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data. When learning a plurality of pieces of learning data sequentially by reflecting the vector data held by the pseudo cells of the learned pseudo map to the unlearned cells corresponding to the pseudo cells of the unlearned map, While the learning data is learned by the pseudo map, the vector data of each unlearned cell of the unlearned map is not changed. As a result, if a cell in which learning data is to be learned in the unlearned map is selected and then learning data is learned in a cell in the pseudo map corresponding to the cell in the selected unlearned map, Since the vector data of the cells in the unlearned map does not change when selecting the cells in which the learning data is to be learned, there is no inconvenience that the cells selected in the unlearned map differ depending on the order in which the learning data is learned. Thereby, also when learning several learning data, it can suppress that the self-organization map obtained differs by the order which learns learning data. Therefore, a classification support map useful for classification of unknown data that can correctly classify unknown data can be created regardless of the order of learning data.

上記第1の局面による分類支援マップ作成方法において、好ましくは、未学習マップから未学習セルの集合体からなる第1ブロックを選択するステップをさらに備え、学習データを擬似マップに学習させるステップは、未学習マップの第1ブロックに対応する擬似マップの第2ブロックに含まれる擬似セルに学習データを学習させるステップを含む。このように構成すれば、学習データに対応する第2ブロックに含まれる複数の擬似セルに学習データを学習させることができるので、学習データに対応する単一のセルとその近傍領域のセルに対して学習データを学習させる場合と異なり、学習データを学習させる近傍領域の範囲を設定するための近傍関数を設定する必要がない。これにより、近傍関数の設定に熟練していない者でも、容易に、学習データを学習させることができるので、容易に、分類支援マップを作成することができる。   In the classification support map creation method according to the first aspect, preferably, the method further includes a step of selecting a first block including a collection of unlearned cells from the unlearned map, and the step of causing the pseudo map to learn the learning data. Learning the learning data in a pseudo cell included in the second block of the pseudo map corresponding to the first block of the unlearned map. With this configuration, the learning data can be learned in a plurality of pseudo cells included in the second block corresponding to the learning data. Therefore, for a single cell corresponding to the learning data and a cell in the vicinity region thereof, Unlike the case of learning the learning data, there is no need to set a neighborhood function for setting the range of the neighborhood region for learning the learning data. Thereby, even a person who is not skilled in setting the neighborhood function can easily learn the learning data, so that the classification support map can be easily created.

この場合において、好ましくは、未学習マップから第1ブロックを選択するステップは、未学習マップから抽出される、未学習セルの集合体からなる複数のブロック毎に、ブロックに含まれる複数の未学習セルの未学習のベクトルデータに基づいて、ブロックのベクトルデータとしてのブロックデータを算出するステップと、学習データを複数のブロックのブロックデータと比較して、複数のブロックの中から学習データに対応するブロックデータを有する第1ブロックを選択するステップとを含む。このように構成すれば、容易に、未学習マップから学習データに対応する第1ブロックを選択することができる。   In this case, preferably, the step of selecting the first block from the unlearned map includes a plurality of unlearned items included in the block for each of a plurality of blocks made up of a collection of unlearned cells extracted from the unlearned map. A step of calculating block data as vector data of a block based on unlearned vector data of a cell, and comparing learning data with block data of a plurality of blocks, corresponding to learning data from a plurality of blocks Selecting a first block having block data. If comprised in this way, the 1st block corresponding to learning data can be easily selected from an unlearned map.

上記第2ブロックに含まれる擬似セルに学習データを学習させるステップを含む構成において、好ましくは、第2ブロックに含まれる擬似セルに学習データを学習させるステップは、第2ブロックに含まれる全ての擬似セルの有するベクトルデータに、学習データに基づくベクトルデータをそれぞれ加算するステップを含む。このように構成すれば、容易に、第2ブロックに含まれる全ての擬似セルに学習データを学習させることができる。   In the configuration including the step of causing the pseudo cell included in the second block to learn the learning data, preferably, the step of causing the pseudo cell included in the second block to learn the learning data includes all the pseudo cells included in the second block. A step of adding vector data based on the learning data to the vector data of the cell. If comprised in this way, learning data can be easily learned by all the pseudo cells contained in a 2nd block.

この場合において、好ましくは、学習データに基づくベクトルデータを加算するステップは、第2ブロックに含まれる擬似セルの有するベクトルデータをwとし、学習データをxとし、第2ブロックに含まれる擬似セルの数をcとした場合に、w+x/cで表される式に基づいて、第2ブロックに含まれる擬似セルの有するベクトルデータに学習データに基づくベクトルデータをそれぞれ加算するステップを含む。このように構成すれば、容易に、第2ブロックに含まれる全ての擬似セルの有するベクトルデータに、学習データに基づくベクトルデータをそれぞれ加算することができる。 In this case, preferably, the step of adding the vector data based on the training data, the vector data included in the pseudo cells included in the second block and w a, the learning data is x, the pseudo cells included in the second block And adding the vector data based on the learning data to the vector data of the pseudo cell included in the second block, based on the formula represented by w a + x / c, where c is the number of. If comprised in this way, the vector data based on learning data can be easily added to the vector data which all the pseudo cells contained in a 2nd block have, respectively.

上記第2ブロックに含まれる擬似セルに学習データを学習させるステップを含む構成において、好ましくは、第2ブロックに含まれる擬似セルに学習データを学習させるステップは、第2ブロックに含まれる全ての擬似セルの有するベクトルデータに、学習データと第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータをそれぞれ加算するステップを含む。このように構成すれば、容易に、第2ブロックに含まれる擬似セルに学習データを学習させることができる。   In the configuration including the step of causing the pseudo cell included in the second block to learn the learning data, preferably, the step of causing the pseudo cell included in the second block to learn the learning data includes all the pseudo cells included in the second block. Adding vector data based on the difference between the learning data and the unlearned vector data of the unlearned cell of the first block to the vector data of the cell. If comprised in this way, learning data can be easily learned by the pseudo cell contained in a 2nd block.

この場合において、好ましくは、学習データと第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータを加算するステップは、第2ブロックに含まれる擬似セルの有するベクトルデータをwとし、定数をtとし、学習データをxとし、第1ブロックの未学習セルが有する未学習のベクトルデータをwとし、第2ブロックに含まれる擬似セルの数をcとした場合に、w+t・(x−w)/cで表される式に基づいて、第2ブロックに含まれる擬似セルの有するベクトルデータに、学習データと第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータをそれぞれ加算するステップを含む。このように構成すれば、容易に、第2ブロックに含まれる全ての擬似セルの有するベクトルデータに、学習データと第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータをそれぞれ加算することができる。 In this case, preferably, the step of adding the vector data based on the difference between the learning data and the unlearned vector data included in the unlearned cell of the first block includes the vector data included in the pseudo cell included in the second block. When w a is set, t is a constant, learning data is x, unlearned vector data of an unlearned cell in the first block is w b, and the number of pseudo cells included in the second block is c , W a + t · (x−w b ) / c Based on the expression represented by the pseudo cell included in the second block, the learning data and the unlearned cell which the unlearned cell of the first block have Adding vector data based on the difference from the vector data. If comprised in this way, the vector data based on the difference of learning data and the unlearned vector data which the unlearned cell of the 1st block will have in the vector data which all the pseudo cells contained in the 2nd block easily have Can be added respectively.

上記第2ブロックを含む構成において、好ましくは、学習データを擬似マップに学習させるステップは、擬似セルに対する学習データの学習の度合いを表す学習負荷率をdivとし、第2ブロックに含まれる擬似セルの数をcとした場合に、div+1/cで表される式に基づいて、学習負荷率の積算値を算出するステップを含み、擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるステップは、学習データが学習された擬似マップの擬似セルが有するベクトルデータを学習負荷率の積算値で割ることにより、学習データが学習された擬似セルが有するベクトルデータを反映させた未学習セルのベクトルデータを算出するステップを含む。このように構成すれば、容易に、学習データが学習された擬似マップの擬似セルが有するベクトルデータを、未学習マップの対応する未学習セルに反映させることができる。   In the configuration including the second block, preferably, in the step of learning the learning data in the pseudo map, a learning load factor indicating a learning degree of the learning data with respect to the pseudo cell is set to div, and the pseudo cell included in the second block When the number is c, it includes a step of calculating an integrated value of the learning load factor based on an expression represented by div + 1 / c, and the vector data included in the pseudo cell of the pseudo map is converted into a pseudo cell of the unlearned map. The step of reflecting in the corresponding unlearned cell is the vector data of the pseudo cell in which the learning data has been learned by dividing the vector data of the pseudo cell of the pseudo map in which the learning data has been learned by the integrated value of the learning load factor. And calculating vector data of an unlearned cell reflecting the above. If comprised in this way, the vector data which the pseudo cell of the pseudo map by which learning data was learned can be easily reflected in the corresponding unlearned cell of an unlearned map.

上記第1の局面による分類支援マップ作成方法において、好ましくは、学習データを擬似マップに学習させるステップを全ての学習データについて実行した後に、擬似マップのベクトルデータを未学習マップに反映させるステップを実行する。このように構成すれば、容易に、全ての学習データを学習させた擬似セルのベクトルデータを未学習マップの未学習セルに反映することができる。   In the classification support map creation method according to the first aspect, preferably, after the step of learning the learning data in the pseudo map is executed for all the learning data, the step of reflecting the vector data of the pseudo map in the unlearned map is executed. To do. If comprised in this way, the vector data of the pseudo cell which learned all the learning data can be easily reflected in the unlearned cell of an unlearned map.

上記ブロックデータを算出するステップと、第1ブロックを選択するステップと、第1ブロックに対応する第2ブロックに含まれる擬似セルに学習データを学習させるステップと、擬似マップのベクトルデータを未学習マップに反映させるステップとを含む構成において、好ましくは、未学習マップから抽出されるM個以上の未学習セルの集合体からなる複数の第3ブロック毎に、ブロックデータを算出するステップと、複数の第3ブロックの中から第1ブロックを選択するステップと、第1ブロックに対応する第2ブロックに含まれる擬似セルに学習データを学習させるステップと、擬似マップのベクトルデータを未学習マップに反映させるステップとが実行された後、未学習マップから抽出されるN個(N<M)以上の未学習セルの集合体からなる複数の第4ブロック毎に、ブロックデータを算出するステップと、複数の第4ブロックの中から第1ブロックを選択するステップと、第1ブロックに対応する第2ブロックに含まれる擬似セルに学習データを学習させるステップと、擬似マップのベクトルデータを未学習マップに反映させるステップとが実行される。このように構成すれば、M個以上の擬似セルを含む比較的大きな第2ブロック毎に、比較的粗く学習データを学習させた後、N個(N<M)以上の擬似セルを含む比較的小さな第2ブロック毎にも、比較的細かく学習データを学習させることができる。これにより、最初から比較的小さな第2ブロック毎に学習データを学習させる場合と異なり、類似したベクトルデータを有する複数の擬似セルからなる領域が擬似マップ上に局所的な固まりを有した状態で複数に分散して形成されるのを抑制することができる。このため、分類支援マップ上に類似したベクトルデータを有する複数のセルからなる領域が局所的な固まりを有した状態で複数に分散して形成されるのを抑制することができる。   A step of calculating the block data; a step of selecting a first block; a step of learning learning data in a pseudo cell included in a second block corresponding to the first block; and vector data of the pseudo map as an unlearned map Preferably, the step of calculating block data for each of a plurality of third blocks composed of a set of M or more unlearned cells extracted from the unlearned map, Selecting a first block from among the third blocks, causing a pseudo cell included in a second block corresponding to the first block to learn learning data, and reflecting vector data of the pseudo map in the unlearned map After the step is executed, a set of N (N <M) or more unlearned cells extracted from the unlearned map Calculating a block data for each of a plurality of fourth blocks, a step of selecting a first block from the plurality of fourth blocks, and a pseudo cell included in a second block corresponding to the first block. A step of learning the learning data and a step of reflecting the vector data of the pseudo map in the unlearned map are executed. According to this configuration, after learning data is relatively coarsely learned for each relatively large second block including M or more pseudo cells, a relatively large number of N (N <M) or more pseudo cells is included. The learning data can be learned relatively finely for each small second block. Thus, unlike the case where learning data is learned for each relatively small second block from the beginning, a plurality of regions made up of a plurality of pseudo cells having similar vector data have local clusters on the pseudo map. It is possible to suppress the dispersion and formation. For this reason, it can suppress that the area | region which consists of a several cell which has similar vector data on a classification | category assistance map is distributed and formed in multiple in the state with a local mass.

この発明の第2の局面における分類支援マップ作成装置は、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成装置であって、それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを記憶する未学習マップ記憶手段と、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを記憶する擬似マップ記憶手段と、 ベクトルデータからなる学習データを擬似マップに学習させる擬似マップ学習手段と、 学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させる未学習マップ反映手段とを備えている。   A classification support map creating apparatus according to a second aspect of the present invention is a classification support map creating apparatus for creating a classification support map for supporting classification of unknown data consisting of vector data, each of which is unlearned vector data And an unlearned map storage means for storing an unlearned map including a plurality of unlearned cells, and a pseudo for storing a pseudo map corresponding to the plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data Map storage means, pseudo-map learning means for learning learning data composed of vector data in a pseudo map, and vector data of a pseudo-cell of a learned pseudo map reflected in an unlearned cell corresponding to a pseudo-cell of an unlearned map And an unlearned map reflecting means.

この第2の局面による分類支援マップ作成装置では、上記のように、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップに、 ベクトルデータからなる学習データを学習させた後、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させることによって、複数の学習データを順次学習させる場合に、全ての学習データを擬似マップに学習させる間は、未学習マップの各未学習セルのベクトルデータは変化されない。これにより、未学習マップで学習データを学習させるべきセルを選択した後、その選択された未学習マップのセルに対応する擬似マップのセルに学習データを学習させるようにすれば、未学習マップで学習データを学習させるべきセルを選択する際に、未学習マップのセルのベクトルデータは変化しないので、学習データを学習させる順番によって、未学習マップの選択されるセルが異なるという不都合が生じない。これにより、複数の学習データを学習させる場合にも、学習データを学習させる順番によって、得られる自己組織化マップが異なるのを抑制することができる。したがって、学習データを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。   In the classification support map creating apparatus according to the second aspect, as described above, learning data consisting of vector data is included in a pseudo map corresponding to a plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data. When learning a plurality of pieces of learning data sequentially by reflecting the vector data held by the pseudo cells of the learned pseudo map to the unlearned cells corresponding to the pseudo cells of the unlearned map, While the learning data is learned by the pseudo map, the vector data of each unlearned cell of the unlearned map is not changed. As a result, if a cell in which learning data is to be learned in the unlearned map is selected and then learning data is learned in a cell in the pseudo map corresponding to the cell in the selected unlearned map, Since the vector data of the cells in the unlearned map does not change when selecting the cells in which the learning data is to be learned, there is no inconvenience that the cells selected in the unlearned map differ depending on the order in which the learning data is learned. Thereby, also when learning several learning data, it can suppress that the self-organization map obtained differs by the order which learns learning data. Therefore, a classification support map useful for classification of unknown data that can correctly classify unknown data can be created regardless of the order of learning data.

上記第2の局面による分類支援マップ作成装置において、好ましくは、未学習マップから未学習セルの集合体からなる第1ブロックを選択するブロック選択手段をさらに備え、擬似マップ学習手段は、未学習マップの第1ブロックに対応する擬似マップの第2ブロックに含まれる擬似セルに学習データを学習させる擬似セル学習手段を含む。このように構成すれば、学習データに対応する第2ブロックに含まれる複数の擬似セルに学習データを学習させることができるので、学習データに対応する単一のセルとその近傍領域のセルに対して学習データを学習させる場合と異なり、学習データを学習させる近傍領域の範囲を設定するための近傍関数を設定する必要がない。これにより、近傍関数の設定に熟練していない者でも、容易に、学習データを学習させることができるので、容易に、分類支援マップを作成することができる。   The classification support map creating apparatus according to the second aspect preferably further comprises block selection means for selecting a first block made up of a collection of unlearned cells from the unlearned map, and the pseudo-map learning means comprises an unlearned map Pseudo-cell learning means for causing the pseudo-cell included in the second block of the pseudo-map corresponding to the first block to learn learning data. With this configuration, the learning data can be learned in a plurality of pseudo cells included in the second block corresponding to the learning data. Therefore, for a single cell corresponding to the learning data and a cell in the vicinity region thereof, Unlike the case of learning the learning data, there is no need to set a neighborhood function for setting the range of the neighborhood region for learning the learning data. Thereby, even a person who is not skilled in setting the neighborhood function can easily learn the learning data, so that the classification support map can be easily created.

この場合において、好ましくは、ブロック選択手段は、未学習マップから抽出される、未学習セルの集合体からなる複数のブロック毎に、ブロックに含まれる複数の未学習セルの未学習のベクトルデータに基づいて、ブロックのベクトルデータとしてのブロックデータを算出するブロックデータ算出手段と、学習データを複数のブロックのブロックデータと比較して、複数のブロックの中から学習データに対応するブロックデータを有する第1ブロックを選択するブロックデータ比較選択手段とを含む。このように構成すれば、容易に、未学習マップから学習データに対応する第1ブロックを選択することができる。   In this case, it is preferable that the block selection unit outputs unlearned vector data of a plurality of unlearned cells included in the block for each of a plurality of blocks made up of a collection of unlearned cells extracted from the unlearned map. A block data calculating means for calculating block data as vector data of the block, and comparing the learning data with the block data of the plurality of blocks, and having block data corresponding to the learning data from the plurality of blocks. Block data comparison and selection means for selecting one block. If comprised in this way, the 1st block corresponding to learning data can be easily selected from an unlearned map.

この発明の第3の局面における分類支援マップ作成方法を実行するためのプログラムは、ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法を実行するためのプログラムであって、それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを読み出すステップと、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを読み出すステップと、ベクトルデータからなる学習データを擬似マップに学習させるステップと、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるステップとを備えている。   A program for executing a classification support map creating method according to a third aspect of the present invention is for executing a classification support map creating method for creating a classification support map that supports classification of unknown data consisting of vector data. A step of reading an unlearned map including a plurality of unlearned cells each having unlearned vector data, and a plurality of pseudo cells corresponding to the plurality of unlearned cells and having predetermined vector data A step of reading out a pseudo map including the step of learning the learning data composed of vector data in the pseudo map, and reflecting the vector data included in the pseudo cell of the learned pseudo map in the unlearned cell corresponding to the pseudo cell of the unlearned map And a step of causing.

この第3の局面による分類支援マップ作成方法を実行するためのプログラムでは、上記のように、複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップに、ベクトルデータからなる学習データを学習させた後、学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させることによって、複数の学習データを順次学習させる場合に、全ての学習データを擬似マップに学習させる間は、未学習マップの各未学習セルのベクトルデータは変化されない。これにより、未学習マップで学習データを学習させるべきセルを選択した後、その選択された未学習マップのセルに対応する擬似マップのセルに学習データを学習させるようにすれば、未学習マップで学習データを学習させるべきセルを選択する際に、未学習マップのセルのベクトルデータは変化しないので、学習データを学習させる順番によって、未学習マップの選択されるセルが異なるという不都合が生じない。これにより、複数の学習データを学習させる場合にも、学習データを学習させる順番によって、得られる自己組織化マップが異なるのを抑制することができる。したがって、学習データを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。   In the program for executing the classification support map creation method according to the third aspect, as described above, a pseudo map that corresponds to a plurality of unlearned cells and includes a plurality of pseudo cells having predetermined vector data, After learning the learning data consisting of vector data, the learning data is sequentially learned by reflecting the vector data of the pseudo cell of the learned pseudo map to the unlearned cell corresponding to the pseudo cell of the unlearned map. In this case, the vector data of each unlearned cell in the unlearned map is not changed while all the learning data is learned in the pseudo map. As a result, if a cell in which learning data is to be learned in the unlearned map is selected and then learning data is learned in a cell in the pseudo map corresponding to the cell in the selected unlearned map, Since the vector data of the cells in the unlearned map does not change when selecting the cells in which the learning data is to be learned, there is no inconvenience that the cells selected in the unlearned map differ depending on the order in which the learning data is learned. Thereby, also when learning several learning data, it can suppress that the self-organization map obtained differs by the order which learns learning data. Therefore, a classification support map useful for classification of unknown data that can correctly classify unknown data can be created regardless of the order of learning data.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下の実施形態の説明では、本発明による分類支援マップ作成方法および分類支援マップ作成装置の一例としての自己組織化マップ作成方法および自己組織化マップ作成装置を例にとって説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description of the embodiments, a self-organizing map creating method and a self-organizing map creating device as an example of a classification support map creating method and a classification support map creating device according to the present invention will be described as an example.

(第1実施形態)
図1は、本発明の第1実施形態による自己組織化マップ作成方法に用いる自己組織化マップ作成装置の構成を説明するための模式図である。まず、図1を参照して、第1実施形態の自己組織化マップ作成方法に用いる自己組織化マップ作成装置について説明する。
(First embodiment)
FIG. 1 is a schematic diagram for explaining a configuration of a self-organizing map creating apparatus used in the self-organizing map creating method according to the first embodiment of the present invention. First, a self-organizing map creating apparatus used in the self-organizing map creating method of the first embodiment will be described with reference to FIG.

第1実施形態の自己組織化マップ作成方法に用いる自己組織化マップ作成装置1は、図1に示すように、未学習マップ記憶部2aと、擬似マップ記憶部2bと、ブロック選択部2cと、擬似マップ学習部2dと、未学習マップ反映部2eとを含んでいる。また、ブロック選択部2cは、ブロック重みデータ算出部2fと、ブロック重みデータ比較選択部2gとを含んでおり、擬似マップ学習部2dは、擬似セル学習部2hを含んでいる。   As shown in FIG. 1, the self-organizing map creating apparatus 1 used in the self-organizing map creating method of the first embodiment includes an unlearned map storage unit 2a, a pseudo map storage unit 2b, a block selection unit 2c, A pseudo map learning unit 2d and an unlearned map reflection unit 2e are included. The block selection unit 2c includes a block weight data calculation unit 2f and a block weight data comparison selection unit 2g, and the pseudo map learning unit 2d includes a pseudo cell learning unit 2h.

また、未学習マップ記憶部2aは、後述する未学習マップを記憶するために設けられている。また、擬似マップ記憶部2bは、後述する擬似マップを記憶するために設けられている。また、ブロック選択部2cは、未学習マップから学習データに対応する、未学習セルの集合体からなるブロックを選択するために設けられている。また、擬似マップ学習部2dは、擬似マップに学習データを学習させるために設けられている。また、未学習マップ反映部2eは、学習データが学習された擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるために設けられている。また、ブロック重みデータ算出部2fは、未学習マップから抽出される複数の抽出ブロック毎に、抽出ブロックに含まれる複数の未学習セルのベクトルデータに基づいて、抽出ブロックのベクトルデータとしてのブロック重みデータを算出するために設けられている。また、ブロック重みデータ比較選択部2gは、学習データを未学習マップの複数の抽出ブロックのブロック重みデータと比較して、複数の抽出ブロックの中から学習データとのベクトル間距離が最も小さいブロック重みデータを有する抽出ブロックを選択するために設けられている。また、擬似セル学習部2hは、擬似マップの後述する学習対象ブロックに含まれる擬似セルに学習データを学習させるために設けられている。   The unlearned map storage unit 2a is provided for storing an unlearned map described later. The pseudo map storage unit 2b is provided to store a pseudo map described later. The block selection unit 2c is provided for selecting a block made up of an unlearned cell aggregate corresponding to the learning data from the unlearned map. The pseudo map learning unit 2d is provided for causing the pseudo map to learn learning data. The unlearned map reflection unit 2e is provided to reflect the vector data included in the pseudo cell of the pseudo map in which the learning data has been learned to the unlearned cell corresponding to the pseudo cell of the unlearned map. Further, the block weight data calculation unit 2f, for each of the plurality of extracted blocks extracted from the unlearned map, based on the vector data of the plurality of unlearned cells included in the extracted block, the block weight as the vector data of the extracted block It is provided to calculate data. The block weight data comparison / selection unit 2g compares the learning data with the block weight data of the plurality of extracted blocks of the unlearned map, and the block weight having the smallest inter-vector distance from the plurality of extracted blocks to the learning data. It is provided to select an extraction block having data. Further, the pseudo cell learning unit 2h is provided for causing a pseudo cell included in a later-described learning target block of the pseudo map to learn learning data.

また、第1実施形態による自己組織化マップ作成方法は、未学習マップに学習データを学習させて自己組織化マップ(SOM)を作成する学習アルゴリズムと、自己組織化マップを構成するセルのクラス分けを行うクラス分けアルゴリズムとによって構成されている。また、第1実施形態による自己組織化マップの作成方法では、図2に示すような自己組織化マップ(SOM)3を作成する。この自己組織化マップ3は、マス目状に配置された複数のセル3aによって構成されている。この複数のセル3aは、縦横に複数同数ずつ(第1実施形態では、10個ずつ)配置されている。また、各セル3aは、複数の要素(第1実施形態では、4つの要素)からなるベクトルデータを有することが可能なように構成されている。   The self-organizing map creation method according to the first embodiment includes a learning algorithm for creating learning data in an unlearned map and creating a self-organizing map (SOM), and classification of cells constituting the self-organizing map. And a classification algorithm for performing In the self-organizing map creation method according to the first embodiment, a self-organizing map (SOM) 3 as shown in FIG. 2 is created. The self-organizing map 3 is composed of a plurality of cells 3a arranged in a grid pattern. The plurality of cells 3a are arranged in the same number in the vertical and horizontal directions (10 in the first embodiment). Each cell 3a is configured to be able to have vector data composed of a plurality of elements (four elements in the first embodiment).

図3〜図8は、本発明の第1実施形態による自己組織化マップ作成方法の学習アルゴリズムを説明するための図である。図9〜図13は、本発明の第1実施形態による自己組織化マップ作成方法のクラス分けアルゴリズムを説明するための図である。まず、図3〜図8を参照して、第1実施形態による自己組織化マップ作成方法の学習アルゴリズムについて説明する。   3 to 8 are diagrams for explaining a learning algorithm of the self-organizing map creation method according to the first embodiment of the present invention. 9 to 13 are diagrams for explaining a classification algorithm of the self-organizing map creation method according to the first embodiment of the present invention. First, a learning algorithm of the self-organizing map creation method according to the first embodiment will be described with reference to FIGS.

(学習アルゴリズム)
第1実施形態による学習アルゴリズムは、図3に示すように、ステップS1〜ステップS9によって構成されている。まず、ステップS1において、未学習マップの準備を行う。ここで、未学習マップとは、それぞれが未学習のベクトルデータを有する複数の未学習セルからなるマップである。未学習マップの準備では、まず、ベクトルデータを全く有していない複数のセルからなるマップを準備する。そして、図4に示すように、ベクトルデータを全く有していないセルからなるマップの各セルに対して、乱数表を用いて所定のベクトルデータを割り付ける。なお、第1実施形態では、要素1〜要素4の4つの要素からなるベクトルデータを各セルに割り付ける。これにより、所定の未学習のベクトルデータを有する複数の未学習セルからなる未学習マップが準備される。また、第1実施形態では、未学習マップは、n×n(第1実施形態では10×10)の未学習セルからなるとする。
(Learning algorithm)
As shown in FIG. 3, the learning algorithm according to the first embodiment includes steps S1 to S9. First, in step S1, an unlearned map is prepared. Here, the unlearned map is a map composed of a plurality of unlearned cells each having unlearned vector data. In preparing an unlearned map, first, a map composed of a plurality of cells having no vector data is prepared. Then, as shown in FIG. 4, predetermined vector data is assigned to each cell of the map made up of cells having no vector data using a random number table. In the first embodiment, vector data consisting of four elements 1 to 4 is assigned to each cell. Thereby, an unlearned map including a plurality of unlearned cells having predetermined unlearned vector data is prepared. In the first embodiment, it is assumed that the unlearned map includes n × n (10 × 10 in the first embodiment) unlearned cells.

次に、ステップS2以降のグローバルエリア学習段階に進む。グローバルエリア学習段階では、擬似マップから比較的大きなブロックを抽出してその抽出ブロック毎に学習データを学習させることにより擬似マップに学習データを比較的粗く学習させる。そして、その後、学習させた擬似マップの各擬似セルのベクトルデータを未学習マップの各未学習セルに反映させる。なお、擬似マップとは、未学習マップの複数の未学習セルに対応する複数の擬似セルからなるマップである。これにより、第1実施形態による擬似マップは、未学習マップに対応してn×n(第1実施形態では10×10)の擬似セルからなる。また、擬似マップの各擬似セルは、それぞれがベクトルデータからなる学習積算値w(wa1,wa2,wa3,wa4)を有するように構成されている。なお、学習積算値wは、擬似マップに学習データxが学習されるのに伴って変化する値である。 Next, it progresses to the global area learning stage after step S2. In the global area learning stage, a relatively large block is extracted from the pseudo map, and learning data is learned for each extracted block, thereby causing the pseudo map to learn learning data relatively coarsely. Thereafter, the vector data of each pseudo cell of the learned pseudo map is reflected on each unlearned cell of the unlearned map. The pseudo map is a map composed of a plurality of pseudo cells corresponding to a plurality of unlearned cells of the unlearned map. As a result, the pseudo map according to the first embodiment includes n × n (10 × 10 in the first embodiment) pseudo cells corresponding to the unlearned map. In addition, each pseudo cell of the pseudo map is configured to have a learning integrated value w a (wa 1 , w a2 , w a3 , w a4 ) each including vector data. The learning integrated value w a is a value that varies with the pseudo-map to learning data x is learned.

ステップS2では、未学習マップおよび擬似マップから抽出する抽出ブロックの大きさの設定および量子化誤差errの「0」への初期化を行う。このステップS2では、比較的大きなブロック毎に学習データを学習させるために、抽出ブロックをm×m=m個(=M個)以上のセルによって構成するとともに、m=n/2(5=10/2)に設定する。すなわち、第1実施形態では、未学習マップおよび擬似マップが10×10のセルからなるので、抽出ブロックを5×5(m×m)以上のセルを有する比較的大きなブロックに設定する。また、量子化誤差errは、学習データx(x,x,x,x)と、後述する未学習マップから選択される選択ブロックのブロック重みデータとの誤差であり、学習データx(x,x,x,x)が選択ブロックにどの程度反映されるかを示す指標となる値である。なお、ブロック重みデータは、ブロックを構成する全てのセルのベクトルデータの平均値である。 In step S2, the size of the extracted block extracted from the unlearned map and the pseudo map is set, and the quantization error err is initialized to “0”. In this step S2, in order to learn learning data for each relatively large block, the extraction block is composed of m × m = m 2 (= M) or more cells, and m = n / 2 (5 = 10/2). That is, in the first embodiment, since the unlearned map and the pseudo map are composed of 10 × 10 cells, the extracted block is set to a relatively large block having 5 × 5 (m × m) or more cells. The quantization error err is an error between the learning data x (x 1 , x 2 , x 3 , x 4 ) and the block weight data of the selected block selected from the unlearned map described later. It is a value that serves as an index indicating how much (x 1 , x 2 , x 3 , x 4 ) is reflected in the selected block. Note that the block weight data is an average value of vector data of all cells constituting the block.

次に、ステップS3において、直前量子化誤差err(before)に対して、ステップS2で「0」に設定した量子化誤差errの値のコピー(err(before)=err)を行うことにより、直前量子化誤差err(before)を0に初期化した後、量子化誤差errを「0」に初期化(err=0)する。そして、サブルーチンを呼び出す。なお、直前量子化誤差err(before)とは、ステップS3〜S5を1回の学習サイクルとして、その学習サイクルを繰り返し実行する場合に、前回の学習サイクルの最後の学習データxによる学習演算の際に算出される量子化誤差を意味する。また、上記ステップS3の処理により、1回目の学習サイクルでは、直前量子化誤差err(before)=0となる。   Next, in step S3, the value of the quantization error err set to “0” in step S2 is copied to the previous quantization error err (before) (err (before) = err). After the quantization error err (before) is initialized to 0, the quantization error err is initialized to “0” (err = 0). Then, a subroutine is called. Note that the immediately preceding quantization error err (before) means that the learning operation is performed with the last learning data x of the previous learning cycle when steps S3 to S5 are set as one learning cycle and the learning cycle is repeatedly executed. Means the quantization error calculated in Further, with the processing in step S3, the immediately previous quantization error err (before) = 0 in the first learning cycle.

次に、ステップS4のサブルーチンは、図5に示すように、ステップS11〜ステップS17によって構成されている。このサブルーチンでは、ステップS11において、未学習マップから5×5=5個(=25個)以上の縦横に同数の未学習セルを有する全ての比較的大きなブロックを抽出するとともに、その抽出した全ての比較的大きなブロック(抽出ブロック)についてブロック重みデータBを算出する。このブロック重みデータBの算出は、抽出ブロックに含まれる各未学習セルのベクトルデータを要素毎に合計した後、抽出ブロックに含まれる未学習セルの合計数で割ることによって行う。これにより、抽出ブロックに含まれる全ての未学習セルの各要素毎の重みの平均値であるブロック重みデータBが算出される。たとえば、図6に示すように、未学習マップ4から5×5=25個の未学習セル4aからなる抽出ブロック50を抽出した場合には、以下の式(1)〜式(4)に示すようにブロック重みデータB(bi1,bi2,bi3,bi4)を算出する。また、以下の式(1)〜式(4)において、a1〜a125と、a2〜a225と、a3〜a325と、a4〜a425とは、それぞれ、抽出ブロック50に含まれる各未学習セル4aの要素1〜要素4の値である。 Next, as shown in FIG. 5, the subroutine of step S4 includes steps S11 to S17. In this subroutine, at step S11, extracts the all relatively large block having the same number of unlearned cells 5 × 5 = 5 2 pieces (= 25) or aspect from unlearned map, all that the extracted Block weight data B i is calculated for a relatively large block (extracted block). The calculation of the block weight data B i is performed by adding the vector data of each unlearned cell included in the extracted block for each element and then dividing by the total number of unlearned cells included in the extracted block. Thereby, block weight data B i which is an average value of weights for each element of all the unlearned cells included in the extracted block is calculated. For example, as shown in FIG. 6, when an extraction block 50 including 5 × 5 = 25 unlearned cells 4a is extracted from the unlearned map 4, the following equations (1) to (4) are obtained. Thus, block weight data B i (b i1 , b i2 , b i3 , b i4 ) is calculated. In the following formulas (1) to (4), a1 1 to a1 25 , a2 1 to a2 25 , a3 1 to a3 25 , and a4 1 to a4 25 are respectively included in the extraction block 50. It is the value of element 1 to element 4 of each unlearned cell 4a included.

ブロック重みデータbi1=(a1+a1+a1+・・・・+a125)/25・・・(1)
ブロック重みデータbi2=(a2+a2+a2+・・・・+a225)/25・・・(2)
ブロック重みデータbi3=(a3+a3+a3+・・・・+a325)/25・・・(3)
ブロック重みデータbi4=(a4+a4+a4+・・・・+a425)/25・・・(4)
次に、ステップS12において、図7に示すように、擬似マップ5の準備を行うとともに、擬似マップ5を構成する各擬似セル5aの学習積算値w(wa1,wa2,wa3,wa4)の「0」への初期化((wa1,wa2,wa3,wa4)=(0,0,0,0))を行う。次に、ステップS13において、上記した未学習マップのm×m(5×5)以上の未学習セルからなる比較的大きな抽出ブロックの中から学習データx(x,x,x,x)とのベクトル間距離が最も小さいブロック重みデータBを有する抽出ブロックを選択する。たとえば、図6に示すように、未学習マップ4から抽出し得る5×5以上のセルからなる全ての抽出ブロックの中で、5×5の抽出ブロック50が学習データxとのベクトル間距離が最も小さいブロック重みデータBを有する場合には、この抽出ブロック50を選択ブロックとして選択する。また、この選択ブロックのブロック重みデータは、B(bs1,bs2,bs3,bs4)とする。
Block weight data b i1 = (a1 1 + a1 2 + a1 3 +... + A1 25 ) / 25 (1)
Block weight data b i2 = (a2 1 + a2 2 + a2 3 +... + A2 25 ) / 25 (2)
Block weight data b i3 = (a3 1 + a3 2 + a3 3 +... + A3 25 ) / 25 (3)
Block weight data b i4 = (a4 1 + a4 2 + a4 3 +... + A4 25 ) / 25 (4)
Next, in step S12, as shown in FIG. 7, preparation of the pseudo map 5 is performed, and learning integrated values w a (w a1 , w a2 , w a3 , w of each pseudo cell 5a constituting the pseudo map 5 are prepared. a4 ) is initialized to “0” ((w a1 , w a2 , w a3 , w a4 ) = (0, 0, 0, 0)). Next, in step S13, learning data x (x 1 , x 2 , x 3 , x from among relatively large extracted blocks composed of unlearned cells of m × m (5 × 5) or more of the unlearned map described above. 4 ) The extracted block having the block weight data B i having the smallest inter-vector distance is selected. For example, as shown in FIG. 6, among all extraction blocks composed of 5 × 5 or more cells that can be extracted from the unlearned map 4, the 5 × 5 extraction block 50 has a vector-to-vector distance from the learning data x. When it has the smallest block weight data B i , this extraction block 50 is selected as the selected block. The block weight data of the selected block is B s (b s1 , b s2 , b s3 , b s4 ).

次に、ステップS14において、量子化誤差errの算出を行う。この量子化誤差errの算出は、以下の式(5)によって行う。なお、1個目の学習データxの学習演算の際には、以下の式(5)において、ステップS3(図3参照)で設定したように、直前量子化誤差err(before)=0となる。   Next, in step S14, a quantization error err is calculated. The calculation of the quantization error err is performed by the following equation (5). In the learning calculation of the first learning data x, in the following equation (5), as set in step S3 (see FIG. 3), the immediately preceding quantization error err (before) = 0. .

量子化誤差err=err(before)+{(x−bs1+(x−bs2+(x−bs3+(x−bs41/2・・・(5)
次に、ステップS15において、擬似マップの学習対象ブロックを構成する全ての擬似セルに対して学習データx(x,x,x,x)を学習させるための学習演算を行う。なお、学習対象ブロックとは、擬似マップから選択されるとともに、学習データxが学習されるブロックであり、ステップS13において選択した選択ブロックに対応するブロックである。すなわち、図6に示すように、未学習マップ4から選択ブロックとして抽出ブロック50を選択した場合には、図8に示すように、抽出ブロック50に対応する擬似マップ5のブロック51が学習対象ブロックとなる。また、学習演算は、w=w(before)+x/cで表される式を用いて、学習対象ブロックに含まれる擬似セルの有する学習前の学習積算値w(before)に学習データxに基づくベクトルデータ(x/c)を加算することにより擬似セルの学習積算値wを算出することによって行う。そして、この学習演算を学習対象ブロックに含まれる全ての擬似セルについて行うことにより、学習対象ブロックに含まれる全ての擬似セルの学習積算値wを算出する。なお、上記の式において、cは、学習対象ブロックに含まれる擬似セルの数である。
Quantization error err = err (before) + {(x 1 −b s1 ) 2 + (x 2 −b s2 ) 2 + (x 3 −b s3 ) 2 + (x 4 −b s4 ) 2 } 1/2 ... (5)
Next, in step S15, a learning operation for learning the learning data x (x 1 , x 2 , x 3 , x 4 ) is performed on all the pseudo cells constituting the learning target block of the pseudo map. The learning target block is a block that is selected from the pseudo map and from which the learning data x is learned, and corresponds to the selected block selected in step S13. That is, as shown in FIG. 6, when the extraction block 50 is selected as the selected block from the unlearned map 4, as shown in FIG. 8, the block 51 of the pseudo map 5 corresponding to the extraction block 50 is the learning target block. It becomes. Further, the learning operation, w a = w a (before ) + x / using the formula represented by c, the learning data in the learning before the learning with the pseudo cells included in the target block learning integrated value w a (before) It carried out by calculating the learned integration value w a of the pseudo cell by adding the vector data (x / c) based on x. Then, by performing this learning calculation for all the pseudo cells included in the learning target block, the learning integrated value w a of all the pseudo cells included in the learning target block is calculated. In the above formula, c is the number of pseudo cells included in the learning target block.

たとえば、図8に示すように、5×5(=25個)の擬似セル5aからなる学習対象ブロック(ブロック51)において、学習前の学習積算値w(before)(wab1,wab2,wab3,wab4)を有する擬似セル52に対して学習データx(x,x,x,x)の学習演算を行う場合には、以下の式(6)〜式(9)に示すように、擬似セル52の学習積算値w(wa1,wa2,wa3,wa4)を算出する。なお、1個目の学習データxに対応する学習積算値wの演算では、ステップS12(図5参照)の処理により、以下の式(6)〜(9)においてwab1〜wab4は全て「0」となる。 For example, as shown in FIG. 8, in a learning target block (block 51) made up of 5 × 5 (= 25) pseudo cells 5a, a learning integrated value w a (before) (w ab1 , w ab2 , When learning operation of learning data x (x 1 , x 2 , x 3 , x 4 ) is performed on the pseudo cell 52 having w ab3 , w ab4 ), the following equations (6) to (9) As shown, the learning integrated value w a (wa 1 , w a2 , w a3 , w a4 ) of the pseudo cell 52 is calculated. In the calculation of the learning integrated value w a corresponding to the first learning data x, w ab1 to w ab4 are all expressed in the following formulas (6) to (9) by the process of step S12 (see FIG. 5). “0”.

学習積算値wa1(要素1)=wab1+x/25・・・(6)
学習積算値wa2(要素2)=wab2+x/25・・・(7)
学習積算値wa3(要素3)=wab3+x/25・・・(8)
学習積算値wa4(要素4)=wab4+x/25・・・(9)
また、ステップS15において、学習対象ブロックの各擬似セルに対する学習データxの学習の度合いを表す学習負荷率divの積算値(div)の算出も行う。この学習負荷率の積算値divの算出は、擬似セルが有する学習演算前の学習負荷率をdiv(before)とし、学習対象ブロックに含まれる擬似セルの数をcとした場合に、div=div(before)+1/cで表される式を用いて行う。すなわち、この学習負荷率の積算値divは、学習データxを学習対象ブロックに学習させる毎に、その学習対象ブロックに含まれる擬似セルの数cの逆数を積算した値となる。具体的には、図8に示すように、5×5(=25個)の擬似セル5aからなる学習対象ブロック(ブロック51)に含まれる擬似セル52について学習負荷率の積算値divを算出する場合には、以下の式(10)に示すように算出する。なお、1個目の学習データxに対応する学習負荷率の積算値divの演算では、学習演算前の学習負荷率div(before)は「0」であるので、以下の式(10)においてdiv(before)=0となる。
Learning integrated value w a1 (element 1) = w ab1 + x 1 /25 ··· (6)
Learning integrated value w a2 (element 2) = w ab2 + x 2 /25 ··· (7)
Learning integrated value w a3 (element 3) = w ab3 + x 3 /25 ··· (8)
Learning integrated value w a4 (element 4) = w ab4 + x 4 /25 ··· (9)
In step S15, the integrated value (div a ) of the learning load factor div indicating the degree of learning of the learning data x for each pseudo cell of the learning target block is also calculated. Calculation of the integrated value div a of the learning load factor, the learning load factor before learning calculation pseudo cell having a div (before), the number of pseudo cells included in the learning target block when the c, div a = Div (before) + 1 / c. That is, the learning load factor integrated value div a is a value obtained by integrating the reciprocal of the number c of pseudo cells included in the learning target block every time the learning target block learns the learning data x. Specifically, as shown in FIG. 8, the integrated value div a of the learning load factor is calculated for the pseudo cell 52 included in the learning target block (block 51) composed of 5 × 5 (= 25) pseudo cells 5a. If so, the calculation is performed as shown in the following equation (10). In the calculation of the integrated value div a of the learning load factor corresponding to the first learning data x, the learning load factor div (before) before the learning calculation is “0”, so in the following equation (10) Div (before) = 0.

学習負荷率の積算値div=div(before)+1/25・・・(10)
次に、ステップS16において、学習データxの個数分(全ての学習データx)の学習演算が終了したかどうかが判断される。学習データxの個数分の学習演算が終了した場合には、次のステップS17に進む。一方、学習データxの個数分の学習演算が終了していない場合には、上記したステップS13〜S16を繰り返し実行する。
Integrated value of learning load factor div a = div (before) +1/25 (10)
Next, in step S16, it is determined whether or not the learning calculation for the number of learning data x (all the learning data x) has been completed. When the learning calculation for the number of learning data x is completed, the process proceeds to the next step S17. On the other hand, when the learning calculation for the number of learning data x has not been completed, the above steps S13 to S16 are repeatedly executed.

次に、ステップS17において、未学習マップを構成する全ての未学習セルのベクトルデータに擬似マップの擬似セルが有する学習積算値wを反映させるための演算を行う。この演算では、ステップS15で算出した学習積算値w(wa1,wa2,wa3,wa4)および学習負荷率の積算値divを用いてw=w/divで表される式により、擬似セルの学習積算値wを反映させた未学習セルのベクトルデータw(w,w,w,w)を算出する。具体的には、以下の式(11)〜(14)に示すように学習積算値wを反映させた未学習セルのベクトルデータw(w,w,w,w)を算出する。 Next, in step S < b > 17, an operation is performed to reflect the learning integrated value w a included in the pseudo cell of the pseudo map in the vector data of all the unlearned cells that form the unlearned map. This operation is represented by w = w a / div a using learning integrated value w a (w a1, w a2 , w a3, w a4) and the integrated value div a learning load factor calculated in step S15 The vector data w (w 1 , w 2 , w 3 , w 4 ) of the unlearned cell reflecting the learning integrated value w a of the pseudo cell is calculated by the equation. Specifically, vector data w (w 1 , w 2 , w 3 , w 4 ) of the unlearned cell reflecting the learning integrated value w a is calculated as shown in the following equations (11) to (14). To do.

学習積算値wa1を反映させた未学習セルのベクトルデータw=wa1/div・・・(11)
学習積算値wa2を反映させた未学習セルのベクトルデータw=wa2/div・・・(12)
学習積算値wa3を反映させた未学習セルのベクトルデータw=wa3/div・・・(13)
学習積算値wa4を反映させた未学習セルのベクトルデータw=wa4/div・・・(14)
上記式(11)〜式(14)により、たとえば、学習データX1(0.03,3.1,0.2,2.8)が学習された5×5の学習対象ブロックと、学習データX2(0.4,2.9,0.2,2.7)が学習された3×3の学習対象ブロックと、学習データX3(0.01,3.2,0.1,2.9)が学習された4×4の学習対象ブロックとに含まれた所定の擬似セルが有する学習積算値wを未学習セルのベクトルデータに反映させる場合には、その未学習セルのベクトルデータw(w,w,w,w)は、以下の式(15)〜式(18)のように算出される。
Vector data w 1 = w a1 / div a of the unlearned cell reflecting the learning integrated value w a1 (11)
Vector data w 2 = wa 2 / div a of the unlearned cell reflecting the learning integrated value w a2 (12)
Vector data w 3 = w a3 / div a of the unlearned cell reflecting the learning integrated value w a3 (13)
Vector data w 4 = w a4 / div a (14) of an unlearned cell reflecting the learning integrated value w a4
From the above formulas (11) to (14), for example, a 5 × 5 learning target block in which the learning data X1 (0.03, 3.1, 0.2, 2.8) is learned, and the learning data X2 3 × 3 learning target blocks learned (0.4, 2.9, 0.2, 2.7) and learning data X3 (0.01, 3.2, 0.1, 2.9) There if to reflect the learned integration value w a having a predetermined pseudo cells included in the learning object 4 × 4 block learned into vector data unlearned cell, vector data w of the unlearned cells ( w 1 , w 2 , w 3 , w 4 ) are calculated as in the following equations (15) to (18).

=(0.03×1/25+0.4×1/9+0.01×1/16)/(1/25+1/9+1/16)=0.22・・・(15)
=(3.1×1/25+2.9×1/9+3.2×1/16)/(1/25+1/9+1/16)=3.03・・・(16)
=(0.2×1/25+0.2×1/9+0.1×1/16)/(1/25+1/9+1/16)=0.17・・・(17)
=(2.8×1/25+2.7×1/9+2.9×1/16)/(1/25+1/9+1/16)=2.78・・・(18)
なお、学習積算値wを学習負荷率の積算値divで割ることにより、未学習セルのベクトルデータwを求めるのは、以下の理由による。すなわち、学習積算値wは、学習データxを学習対象ブロックに含まれる擬似セルの数cで割ったベクトルデータx/cを積算することによって求められるので、学習積算値wは、学習対象ブロックに含まれる擬似セルの数cの逆数1/cの要素が蓄積された値になる。このため、学習積算値wに蓄積された1/cの要素を除去して未学習セルのベクトルデータwを算出するために、学習積算値wを1/cの積算値である学習負荷率の積算値divで割ることにより未学習セルのベクトルデータwを求めている。なお、この場合にも、学習対象ブロックに含まれる擬似セルの数cに対応する各学習データxの学習度合い(学習データxの影響の割合)の要素は残しながら、未学習セルのベクトルデータwが求められる。すなわち、上記式(15)を式変形することにより、以下の式(19)のように表すことができる。
w 1 = (0.03 × 1/25 + 0.4 × 1/9 + 0.01 × 1/16) / (1/25 + 1/9 + 1/16) = 0.22 (15)
w 2 = (3.1 × 1/25 + 2.9 × 1/9 + 3.2 × 1/16) / (1/25 + 1/9 + 1/16) = 3.03 (16)
w 3 = (0.2 × 1/25 + 0.2 × 1/9 + 0.1 × 1/16) / (1/25 + 1/9 + 1/16) = 0.17 (17)
w 4 = (2.8 × 1/25 + 2.7 × 1/9 + 2.9 × 1/16) / (1/25 + 1/9 + 1/16) = 2.78 (18)
The vector data w of the unlearned cell is determined by dividing the learning integrated value w a by the learning load factor integrated value div a for the following reason. That is, since the learning integrated value w a is obtained by integrating the vector data x / c obtained by dividing the learning data x by the number c of pseudo cells included in the learning target block, the learning integrated value w a The value of the inverse 1 / c of the number c of pseudo cells included in the block is accumulated. Therefore, in order to calculate the vector data w learning integrated value w a to the accumulated 1 / c element unlearned cell to remove the, is an integrated value of 1 / c a learned integration value w a learning load The vector data w of the unlearned cell is obtained by dividing by the integrated value div a of the rate. In this case as well, the vector data w of the unlearned cell remains while the element of the learning degree of each learning data x (ratio of the influence of the learning data x) corresponding to the number c of pseudo cells included in the learning target block remains. Is required. That is, by changing the above formula (15), it can be expressed as the following formula (19).

=(144×0.03+400×0.4+225×0.01)/769・・・(19)
この式(19)により、3つの学習データ(0.03、0.4および0.01)にそれぞれかかる係数の中で、3×3の擬似セルからなる学習対象ブロックに学習される0.4の学習データにかかる係数(400)が最も大きいとともに、4×4の擬似セルからなる学習対象ブロックに学習される0.01の学習データにかかる係数(225)がその次に大きいとともに、5×5の擬似セルからなる学習対象ブロックに学習される0.03の学習データにかかる係数(144)が最も小さいことが判る。これにより、3×3の最も小さい学習対象ブロックから、4×4および5×5へ学習対象ブロックの大きさが大きくなるにつれて、学習データxの影響の割合(学習の度合い)が小さくなるように、未学習セルのベクトルデータwが算出されることが判る。
w 1 = (144 × 0.03 + 400 × 0.4 + 225 × 0.01) / 769 (19)
According to this equation (19), 0.4 learned in a learning target block composed of 3 × 3 pseudo cells among the coefficients corresponding to the three learning data (0.03, 0.4 and 0.01), respectively. And the coefficient (225) for 0.01 learning data learned by the learning target block composed of 4 × 4 pseudo cells is the next largest, and the coefficient (400) for the learning data of 5 × 5 × It can be seen that the coefficient (144) applied to the learning data of 0.03 learned by the learning target block consisting of 5 pseudo cells is the smallest. As a result, as the size of the learning target block increases from the smallest 3 × 3 learning target block to 4 × 4 and 5 × 5, the influence ratio (degree of learning) of the learning data x decreases. It can be seen that the vector data w of the unlearned cell is calculated.

上記式(11)〜(14)により、擬似マップを構成する全ての擬似セルに対応する未学習マップの全ての未学習セルについてそれぞれ学習積算値wを反映させたベクトルデータwを算出する。そして、算出したベクトルデータwによって各未学習セルの有するベクトルデータを書き換える。 By the above equations (11) to (14), vector data w reflecting the learning integrated value w a is calculated for all the unlearned cells of the unlearned map corresponding to all the pseudo cells constituting the pseudo map. Then, the vector data of each unlearned cell is rewritten with the calculated vector data w.

次に、図3のステップS5において、学習回数が予め設定された規定値D1に達したか、または、量子化誤差errと直前量子化誤差err(before)との差が予め設定された規定値D2よりも小さいかが判断される。なお、学習回数とは、ステップS3〜S5による学習サイクルが実行された回数を意味する。学習回数が規定値D1に達したか、または、量子化誤差errと直前量子化誤差err(before)との差が規定値D2よりも小さい場合には、次のステップS6に進む。一方、学習回数が規定値D1に達しておらず、かつ、量子化誤差errと直前量子化誤差err(before)との差が規定値D2以上の場合には、ステップS3〜S5による学習サイクルを繰り返し実行する。   Next, in step S5 in FIG. 3, the learning count has reached a preset specified value D1, or the difference between the quantization error err and the previous quantization error err (before) is set to a preset specified value. It is determined whether it is smaller than D2. The number of learnings means the number of times that the learning cycle in steps S3 to S5 has been executed. If the learning count has reached the prescribed value D1, or if the difference between the quantization error err and the previous quantization error err (before) is smaller than the prescribed value D2, the process proceeds to the next step S6. On the other hand, if the number of learnings has not reached the prescribed value D1, and the difference between the quantization error err and the previous quantization error err (before) is not less than the prescribed value D2, the learning cycle in steps S3 to S5 is performed. Run repeatedly.

次に、ステップS6以降では、学習の後半段階である通常学習段階に進む。通常学習段階は、ステップS6〜S9によって構成されている。この通常学習段階では、グローバルエリア学習段階に比べて小さなブロックまでを対象として学習データxを学習させる。これにより、通常学習段階では、グローバルエリア学習段階に比べて、より細かく擬似マップに学習データxが学習される。ステップS6における抽出ブロック(m×m)の大きさの設定では、擬似マップから抽出し得る全てのブロックを対象として学習データxを学習させるために、m=2に設定する。これにより、サブルーチンのステップS11(図5参照)において、2×2=4個(=N個)以上のセルからなる全てのブロックが抽出ブロックとして未学習マップから抽出される。そして、抽出した全ての抽出ブロックについてブロック重みデータを算出するとともに、全ての抽出ブロックの中から学習データxとのベクトル間距離が最も小さいブロック重みデータを有するブロックを選択ブロックとして選択する。そして、選択した選択ブロックに対応する擬似マップの学習対象ブロックに対して学習データxの学習演算を行う。そして、この学習演算によって算出した学習対象ブロックに含まれる各擬似セルの学習積算値wを未学習マップの各未学習セルが有するベクトルデータに反映させる。 Next, after step S6, the process proceeds to the normal learning stage, which is the latter half of learning. The normal learning stage includes steps S6 to S9. In the normal learning stage, the learning data x is learned up to a block smaller than the global area learning stage. Thereby, in the normal learning stage, the learning data x is learned in the pseudo map more finely than in the global area learning stage. In the setting of the size of the extracted block (m × m) in step S6, m = 2 is set so that the learning data x is learned for all the blocks that can be extracted from the pseudo map. As a result, in step S11 of the subroutine (see FIG. 5), all blocks composed of 2 × 2 = 4 (= N) or more cells are extracted from the unlearned map as extracted blocks. Then, the block weight data is calculated for all the extracted blocks, and the block having the block weight data having the smallest inter-vector distance from the learning data x is selected as a selected block from all the extracted blocks. Then, the learning calculation of the learning data x is performed on the learning target block of the pseudo map corresponding to the selected block. Then, to reflect the vector data each unlearned cell unlearned map learning integrated value w a of each pseudo cell included in the learning target block calculated by the learning calculation has.

また、通常学習段階では、ステップS9(図3参照)において、学習回数が予め設定された規定値D3に達したか、または、量子化誤差errと直前量子化誤差err(before)との差が予め設定された規定値D4よりも小さいかを判断する。これにより、ステップS7〜S9からなる学習サイクルは、学習回数が規定値D3に達するか、または、量子化誤差errと直前量子化誤差err(before)との差が規定値D4よりも小さくなるまで行われる。なお、通常学習段階における学習回数の規定値D3は、グローバルエリア学習段階における学習回数の規定値D1よりも大きい値に設定する。これにより、通常学習段階では、グローバルエリア学習段階よりも多くの学習サイクルが実行される。また、通常学習段階における量子化誤差errと直前量子化誤差err(before)との差の規定値D4は、グローバルエリア学習段階における量子化誤差errと直前量子化誤差err(before)との差の規定値D2よりも小さい値に設定する。これにより、通常学習段階では、グローバルエリア学習段階よりも量子化誤差errと直前量子化誤差err(before)との差が小さくなるまで学習サイクルが実行される。ステップS6〜S9からなる通常学習段階の上記以外の処理方法は、上記したステップS2〜S5からなるグローバルエリア学習段階の処理方法と同様である。   In the normal learning stage, in step S9 (see FIG. 3), the number of times of learning has reached a predetermined value D3 set in advance, or the difference between the quantization error err and the previous quantization error err (before) is It is determined whether the value is smaller than a predetermined value D4 set in advance. Thereby, in the learning cycle composed of steps S7 to S9, the number of times of learning reaches the specified value D3, or the difference between the quantization error err and the previous quantization error err (before) becomes smaller than the specified value D4. Done. Note that the prescribed value D3 of the number of learnings in the normal learning stage is set to a value larger than the prescribed value D1 of the number of learnings in the global area learning stage. Thus, more learning cycles are executed in the normal learning stage than in the global area learning stage. Also, the prescribed value D4 of the difference between the quantization error err and the previous quantization error err (before) in the normal learning stage is the difference between the quantization error err and the previous quantization error err (before) in the global area learning stage. A value smaller than the prescribed value D2 is set. Thereby, in the normal learning stage, the learning cycle is executed until the difference between the quantization error err and the previous quantization error err (before) is smaller than in the global area learning stage. The processing method other than the above in the normal learning stage consisting of steps S6 to S9 is the same as the processing method in the global area learning stage consisting of steps S2 to S5 described above.

上記のようにして、擬似マップに学習データxを学習させるとともに、学習させた擬似マップの擬似セルが有する学習積算値wを未学習マップの未学習セルが有するベクトルデータに反映させることにより自己組織化マップを作成する。 As described above, the learning data x is learned in the pseudo map, and the learning integrated value w a included in the pseudo cell of the learned pseudo map is reflected in the vector data included in the unlearned cell of the unlearned map. Create an organizational map.

第1実施形態では、上記のように、複数の未学習セル4aに対応するとともに、学習前の学習積算値w(before)を有する複数の擬似セル5aを含む擬似マップ5に、学習データxを学習させた後、学習された擬似マップ5の擬似セル5aが有する学習積算値wを未学習マップ4の擬似セル5aに対応する未学習セル4aに反映させることによって、複数の学習データxを順次学習させる場合に、全ての学習データxを擬似マップ5に学習させる間は、未学習マップ4の各未学習セル4aのベクトルデータは変化されない。これにより、未学習マップ4で学習データxを学習させるべき未学習セル4aを選択した後、その選択された未学習マップ4の未学習セル4a(選択ブロック)に対応する擬似マップ5の擬似セル5a(学習対象ブロック)に学習データxを学習させることによって、未学習マップ4で学習データxを学習させるべき未学習セル4aを選択する際に、未学習マップ4の未学習セル4aのベクトルデータは変化しないので、学習データxを学習させる順番によって、未学習マップ4の選択される未学習セル4aが異なるという不都合が生じない。これにより、複数の学習データxを学習させる場合にも、学習データxを学習させる順番によって得られる自己組織化マップ3が異なるのを抑制することができる。したがって、学習データxを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。 In the first embodiment, as described above, the learning data x corresponds to the plurality of unlearned cells 4a and includes the plurality of pseudo cells 5a having the learning integrated value w a (before) before learning. , The learned integrated value w a included in the pseudo cell 5a of the learned pseudo map 5 is reflected in the unlearned cell 4a corresponding to the pseudo cell 5a of the unlearned map 4, whereby a plurality of learning data x Are sequentially learned, the vector data of each unlearned cell 4a of the unlearned map 4 is not changed while all the learning data x is learned by the pseudo map 5. Thereby, after selecting the unlearned cell 4a in which the learning data x is to be learned in the unlearned map 4, the pseudo cell of the pseudo map 5 corresponding to the unlearned cell 4a (selected block) of the selected unlearned map 4 Vector data of the unlearned cell 4a of the unlearned map 4 when selecting the unlearned cell 4a in which the learned data x should be learned in the unlearned map 4 by learning the learned data x in 5a (learning target block). Therefore, there is no inconvenience that the unlearned cell 4a selected in the unlearned map 4 differs depending on the order of learning the learning data x. Thereby, also when learning the some learning data x, it can suppress that the self-organization map 3 obtained by the order which learns the learning data x differs. Therefore, a classification support map useful for classification of unknown data that can correctly classify unknown data can be created regardless of the order in which the learning data x is learned.

また、第1実施形態では、未学習マップ4の抽出ブロックの中から学習データxに対応する選択ブロックを選択するとともに、選択ブロックに対応する擬似マップ5の学習対象ブロックに含まれる擬似セル5aに学習データxを学習させることによって、学習データxに対応する単一のセルとその近傍領域のセルに対して学習データxを学習させる場合と異なり、学習データxを学習させる近傍領域の範囲を設定するための近傍関数を設定する必要がない。これにより、近傍関数の設定に熟練していない者でも、容易に、学習データxを学習させることができるので、容易に、自己組織化マップ3を作成することができる。   In the first embodiment, the selected block corresponding to the learning data x is selected from the extracted blocks of the unlearned map 4, and the pseudo cell 5a included in the learning target block of the pseudo map 5 corresponding to the selected block is selected. Unlike the case where learning data x is learned for a single cell corresponding to learning data x and a cell in the vicinity area by learning learning data x, the range of the neighboring area where learning data x is learned is set. There is no need to set a neighborhood function to Thereby, even a person who is not skilled in setting the neighborhood function can easily learn the learning data x, so the self-organizing map 3 can be easily created.

また、第1実施形態では、5×5=25個(M個)以上の擬似セル5aからなる学習対象ブロック毎に、学習対象ブロックに含まれる各擬似セル5aに学習データxを学習させるとともに、擬似マップ5の各擬似セル5aが有する学習積算値wを未学習マップ4の各未学習セル4aに反映させた後、2×2=4個(N個(N<M))以上の擬似セル5aからなる学習対象ブロック毎に、学習対象ブロックに含まれる各擬似セル5aに学習データxを学習させるとともに、擬似マップ5の各擬似セル5aが有する学習積算値wを未学習マップ4の各未学習セル4aに反映させることによって、25個以上の擬似セル5aを含む比較的大きな学習対象ブロック毎に、比較的粗く学習データxを学習させた後、4個以上の擬似セル5aを含む比較的小さな学習対象ブロック毎にも、比較的細かく学習データxを学習させることができる。これにより、最初から比較的小さな学習対象ブロック毎に学習データxを学習させる場合と異なり、類似した学習積算値wを有する複数の擬似セル5aからなる領域が擬似マップ5上に局所的な固まりを有した状態で複数に分散して形成されるのを抑制することができる。このため、擬似マップ5の学習積算値5aを未学習マップ4に反映させて作成する自己組織化マップ3上に、類似したベクトルデータを有する複数のセル3aからなる領域が局所的な固まりを有した状態で複数に分散して形成されるのを抑制することができる。 In the first embodiment, for each learning target block including 5 × 5 = 25 (M) or more pseudo cells 5a, each pseudo cell 5a included in the learning target block learns the learning data x, after learning integrated value w a to each pseudo cell 5a pseudo map 5 has is reflected in the unlearned cell 4a unlearned map 4, 2 × 2 = 4 pieces (N pieces (N <M)) or pseudo For each learning target block composed of the cells 5a, each of the pseudo cells 5a included in the learning target block learns the learning data x, and the learning integrated value w a of each pseudo cell 5a of the pseudo map 5 is stored in the unlearned map 4. By reflecting each unlearned cell 4a, the learning data x is relatively coarsely learned for each relatively large learning target block including 25 or more pseudo cells 5a, and then 4 or more pseudo cells 5a are included. ratio Specifically small learning object blocks also each, it is possible to learn the relatively fine learning data x. Thus, unlike the case where learning data x is learned for each relatively small learning target block from the beginning, a region composed of a plurality of pseudo cells 5 a having similar learning integrated values w a is locally clustered on the pseudo map 5. It is possible to suppress the formation of a plurality of particles dispersed in the state of having. For this reason, on the self-organizing map 3 created by reflecting the learning integrated value 5a of the pseudo map 5 on the unlearned map 4, a region composed of a plurality of cells 3a having similar vector data has a local cluster. In this state, it is possible to suppress the formation of a plurality of dispersed particles.

次に、図9〜図13を参照して、第1実施形態による自己組織化マップ作成方法のクラス分けアルゴリズムについて説明する。   Next, a classification algorithm of the self-organizing map creation method according to the first embodiment will be described with reference to FIGS.

(クラス分けアルゴリズム)
このクラス分けアルゴリズムでは、上記学習アルゴリズムによって作成した自己組織化マップを構成するセルのクラス分けを行う。なお、クラスとは、学習データxを分類するために各学習データxに与えられた分類名である。第1実施形態では、各学習データxがα、β、γの3つのクラスのいずれか1つに分類されているとともに、自己組織化マップを構成するセルをα、β、γの3つのクラスに分類する場合について説明する。また、自己組織化マップを構成する各セルは、各クラスに属する可能性割合を示すクラス所属値Rを有している。第1実施形態では、各セルは3つのクラス所属値(Rα、RβおよびRγ)を有している。
(Classification algorithm)
In this classification algorithm, the cells constituting the self-organizing map created by the learning algorithm are classified. The class is a classification name given to each learning data x in order to classify the learning data x. In the first embodiment, each learning data x is classified into one of three classes of α, β, and γ, and the cells constituting the self-organizing map are classified into three classes of α, β, and γ. The case of classifying into 2 will be described. Further, each of the cells constituting the self-organizing map includes a class affiliation values R c indicating the likelihood ratio belonging to each class. In the first embodiment, each cell has three class membership values (R α , R β and R γ ).

まず、図9に示すように、ステップS21において、自己組織化マップ3(図10参照)を構成する全てのセル3aのクラス所属値Rを「0」に初期化する。すなわち、図10に示すように、自己組織化マップ3を構成する全てのセル3aのα、βおよびγクラスに対応するクラス所属値Rα、RβおよびRγを「0」に設定する。 First, as shown in FIG. 9, in step S21, it initializes the class affiliation value R c to "0" in all cells 3a constituting the self-organizing map 3 (see FIG. 10). That is, as shown in FIG. 10, class membership values R α , R β and R γ corresponding to the α, β and γ classes of all the cells 3a constituting the self-organizing map 3 are set to “0”.

次に、ステップS22において、自己組織化マップ3から2×2以上の縦横に同数のセル3aが配置された全てのブロックを抽出するとともに、その抽出した全てのブロック(抽出ブロック)についてブロック重みデータB(bj1,bj2,bj3,bj4)を算出する。このブロック重みデータBは、上記学習アルゴリズムによるブロック重みデータB(式(1)〜式(4)参照)と同様にして算出する。すなわち、図11に示すように、2×2=4個のセル3aからなる抽出ブロック53を抽出した場合には、以下の式(20)〜式(23)に示すようにブロック重みデータB(bj1,bj2,bj3,bj4)を算出する。なお、以下の式(20)〜式(23)において、a1〜a1と、a2〜a2と、a3〜a3と、a4〜a4とは、それぞれ、抽出ブロック53に含まれる各セル3aの要素1〜要素4の値である。 Next, in step S22, all the blocks in which the same number of cells 3a are arranged in the vertical and horizontal directions of 2 × 2 or more are extracted from the self-organizing map 3, and the block weight data for all the extracted blocks (extraction blocks) B j (b j1 , b j2 , b j3 , b j4 ) is calculated. The block weight data B j is calculated in the same manner as the block weight data B i (see formula (1) to formula (4)) based on the learning algorithm. That is, as shown in FIG. 11, when the extraction block 53 consisting of 2 × 2 = 4 cells 3a is extracted, the block weight data B j as shown in the following equations (20) to (23) : (B j1 , b j2 , b j3 , b j4 ) are calculated. In the following formulas (20) to (23), a1 1 to a1 4 , a2 1 to a2 4 , a3 1 to a3 4 , and a4 1 to a4 4 are respectively included in the extraction block 53. It is the value of element 1 to element 4 of each included cell 3a.

ブロック重みデータbj1=(a1+a1+a1+a1)/4・・・(20)
ブロック重みデータbj2=(a2+a2+a2+a2)/4・・・(21)
ブロック重みデータbj3=(a3+a3+a3+a3)/4・・・(22)
ブロック重みデータbj4=(a4+a4+a4+a4)/4・・・(23)
次に、ステップS23において、クラス分けの対象となるクラス分け対象ブロックの決定を行う。このクラス分け対象ブロックの決定は、上記の2×2以上のセル3aからなる全ての抽出ブロックの中から学習データx(x,x,x,x)とのベクトル間距離が最も小さいブロック重みデータBを有するブロックを選択することにより行う。たとえば、図12に示すように、自己組織化マップ3から抽出し得る全ての抽出ブロックの中で、3×3のブロック54が学習データxとのベクトル間距離が最も小さいブロック重みデータBを有する場合には、このブロック54をクラス分け対象ブロックに決定する。
Block weight data b j1 = (a1 1 + a1 2 + a1 3 + a1 4 ) / 4 (20)
Block weight data b j2 = (a2 1 + a2 2 + a2 3 + a2 4 ) / 4 (21)
Block weight data b j3 = (a3 1 + a3 2 + a3 3 + a3 4 ) / 4 (22)
Block weight data b j4 = (a4 1 + a4 2 + a4 3 + a4 4 ) / 4 (23)
Next, in step S23, a classification target block to be classified is determined. This classification target block is determined by determining that the distance between vectors with the learning data x (x 1 , x 2 , x 3 , x 4 ) is the largest among all the extracted blocks made up of the above 2 × 2 cells 3a. This is done by selecting a block having small block weight data Bj . For example, as shown in FIG. 12, among all the extracted blocks that can be extracted from the self-organizing map 3, the 3 × 3 block 54 has the block weight data B j having the smallest inter-vector distance from the learning data x. If so, this block 54 is determined as a classification target block.

次に、ステップS24において、クラス分け対象ブロックに含まれる全てのセル3aのクラス所属値Rを算出する。このクラス所属値Rの算出は、以下の式(24)による演算によって行う。なお、以下の式(24)において、Rの「d」は、上記ステップS23において用いた学習データxの所属クラスである。つまり、式(24)の演算は、学習データxの所属クラスについてのみ行う。また、R(before)は、演算前のセル3aのdクラスに対応するクラス所属値である。また、uは、係数であり、たとえば、u=1/(dクラスに属する学習データxの個数)によって求められる。また、bは、クラス分け対象ブロックを構成するセル3aの数である。 Next, in step S24, and calculates the class affiliation values R d of all cells 3a included in the classification target block. Calculation of this class belongs value R d is carried out by calculation according to formula (24) below. In the following equation (24), “d” of R d is the class to which the learning data x used in step S23 belongs. That is, the calculation of Expression (24) is performed only for the class to which the learning data x belongs. R d (before) is a class belonging value corresponding to the d class of the cell 3a before calculation. U is a coefficient, and is obtained, for example, by u = 1 / (the number of learning data x belonging to the d class). Further, b n is the number of cells 3a constituting the classification target block.

=R(before)+u(1/b)・・・(24)
具体的には、図12に示すように、αクラスに属する学習データxに対応して3×3=9個のセルからなるブロック54をクラス分け対象ブロックに決定するとともに、そのクラス分け対象ブロック(ブロック54)中の9個のセル55のクラス所属値Rαを算出する場合には、以下の式(25)により算出する。なお、1個目の学習データxに対応するクラス所属値の演算では、ステップS21の処理により、以下の式(25)において、Rα(before)=0となる。
R d = R d (before) + u (1 / b n ) (24)
Specifically, as shown in FIG. 12, a block 54 consisting of 3 × 3 = 9 cells corresponding to learning data x belonging to the α class is determined as a classification target block, and the classification target block When calculating the class affiliation value R α of the nine cells 55 in (block 54), it is calculated by the following equation (25). In the calculation of the class affiliation value corresponding to the first learning data x, R α (before) = 0 in the following equation (25) by the processing of step S21.

α=Rα(before)+u(1/9)・・・(25)
全ての学習データxについて、クラス分け対象ブロックを決定するとともに、そのクラス分け対象ブロックに含まれる全てのセル3aについて各学習データxの所属クラス(α、βまたはγ)のクラス所属値Rを上記した式(24)の演算により求める。このようなクラス所属値Rの演算処理により各セル3aのそれぞれについて、各クラスα、β、γのクラス所属値Rα、Rβ、Rγが算出される。
R α = R α (before) + u (1/9) (25)
Classifying target blocks are determined for all learning data x, and the class belonging value R d of the class (α, β, or γ) to which each learning data x belongs is assigned to all cells 3a included in the classifying target block. It is obtained by the calculation of the above equation (24). The class belonging values R α , R β , and R γ of each class α, β, and γ are calculated for each cell 3 a by the calculation processing of the class belonging value R d as described above.

次に、ステップS25において、学習データxの個数分(全ての学習データx)のクラス所属値Rの演算が終了したかどうかが判断される。学習データxの個数分のクラス所属値Rの演算が終了した場合には、次のステップS26に進む。一方、学習データxの個数分のクラス所属値Rの演算が終了していない場合には、ステップS22〜S25を繰り返し実行する。 Next, in step S25, whether the calculation of the class affiliation values R d to the number of all learning data x (all learning data x) has been finished is determined. When the operation to the number of all classes belonging values R d of the learning data x is completed, the process proceeds to the next step S26. On the other hand, when the operation corresponding to the number of all classes belonging values R d of the learning data x is not finished, repeatedly executes the steps S22 to S25.

次に、ステップS26において、自己組織化マップ3を構成する全てのセル3aの所属クラスを決定する。この所属クラスの決定では、各セル3aの有するクラス所属値R(Rα、Rβ、Rγ)の中で最大の値を有するクラスをそのセル3aの所属クラスに決定する。たとえば、図13に示すように、セル56がRα=3、Rβ=0.1、Rγ=0.4のクラス所属値をそれぞれ有している場合には、αクラスのクラス所属値Rαが最大であるので、セル56の所属クラスは、αクラスに決定する。このようにして、図13に示すように、全てのセル3aの所属クラスを決定することによって、自己組織化マップ3を構成する全てのセル3aのクラス分けを行う。 Next, in step S26, the affiliation class of all the cells 3a constituting the self-organizing map 3 is determined. In the determination of the belonging class, the class having the maximum value among the class belonging values R d (R α , R β , R γ ) possessed by each cell 3a is determined as the belonging class of the cell 3a. For example, as shown in FIG. 13, when the cell 56 has class belonging values of R α = 3, R β = 0.1, and R γ = 0.4, respectively, the class belonging value of the α class Since is the maximum, the class to which the cell 56 belongs is determined to be the α class. In this way, as shown in FIG. 13, by classifying all the cells 3a, the classification of all the cells 3a constituting the self-organizing map 3 is performed.

(第2実施形態)
図14は、本発明の第2実施形態による自己組織化マップ作成方法の学習アルゴリズムのサブルーチンを説明するためのフローチャートである。次に、図14を参照して、本発明の第2実施形態による自己組織化マップ作成方法の学習アルゴリズムについて説明する。
(Second Embodiment)
FIG. 14 is a flowchart for explaining a subroutine of the learning algorithm of the self-organizing map creation method according to the second embodiment of the present invention. Next, a learning algorithm of the self-organizing map creation method according to the second embodiment of the present invention will be described with reference to FIG.

第2実施形態による自己組織化マップ作成方法の学習アルゴリズムでは、上記第1実施形態による自己組織化マップ作成方法の学習アルゴリズムと異なり、学習対象ブロックに含まれる擬似セルに対する学習演算の際に、学習対象ブロックに含まれる全ての擬似セルが有する学習前の学習積算値w(before)に、学習データxと選択ブロックに含まれる未学習セルが有するベクトルデータwとの差に基づくベクトルデータをそれぞれ加算する。これにより、学習対象ブロックに含まれる擬似セルの学習積算値wが算出される。すなわち、第2実施形態では、図14に示すように、ステップS25において、w=w(before)+t・(x−w)/cで表される式を用いて、学習対象ブロックに含まれる擬似セルの有する学習前の学習積算値w(before)に、学習データxと選択ブロックに含まれる未学習セルが有するベクトルデータwとの差に基づくベクトルデータ(t・(x−w)/c)を加算することにより擬似セルの学習積算値wを算出する。そして、この学習演算を学習対象ブロックに含まれる全ての擬似セルについて行うことにより、学習対象ブロックに含まれる全ての擬似セルの学習積算値wを算出する。なお、上記の式において、tは、学習データxを擬似セルに学習させる度合いを表す定数であり、cは、学習対象ブロックに含まれる擬似セルの数である。 In the learning algorithm of the self-organizing map creation method according to the second embodiment, unlike the learning algorithm of the self-organization map creation method according to the first embodiment, learning is performed at the time of learning calculation for the pseudo cell included in the learning target block. Vector data based on the difference between learning data x and vector data w b of unlearned cells included in the selected block is added to the learning integrated value w a (before) of all the pseudo cells included in the target block. Add each. Thus, the learning integrated value w a of the pseudo cells included in the learning target block is calculated. That is, in the second embodiment, as shown in FIG. 14, in step S25, using the formula represented by w a = w a (before) + t · (x-w b) / c, the learning target block The accumulated learning value w a (before) of the included pseudo cell before learning is calculated based on the difference between the learning data x and the vector data w b of the unlearned cell included in the selected block (t · (x− The learning integrated value w a of the pseudo cell is calculated by adding w b ) / c). Then, by performing this learning calculation for all the pseudo cells included in the learning target block, the learning integrated value w a of all the pseudo cells included in the learning target block is calculated. In the above equation, t is a constant representing the degree to which the learning data x is learned by the pseudo cell, and c is the number of pseudo cells included in the learning target block.

具体的には、5×5(=25個)の擬似セル5a(図8参照)からなる学習対象ブロック(ブロック51)において、学習前の学習積算値w(before)(wab1,wab2,wab3,wab4)を有する擬似セル52に対して学習データx(x,x,x,x)の学習演算を行う場合には、以下の式(26)〜式(29)に示すように、擬似セル52の学習積算値w(wa1,wa2,wa3,wa4)を算出する。なお、この際、擬似セル52に対応する未学習マップ4(図6参照)の選択ブロック(抽出ブロック50)内の未学習セルは、ベクトルデータw(wb1,wb2,wb3,wb4)を有しているとする。 Specifically, in the learning target block (block 51) composed of 5 × 5 (= 25) pseudo cells 5a (see FIG. 8), the learning integrated value w a (before) (w ab1 , w ab2 ) before learning. , W ab3 , w ab4 ), when learning operation of learning data x (x 1 , x 2 , x 3 , x 4 ) is performed on the pseudo cell 52, the following formulas (26) to (29) ), The learning integrated value w a (wa 1 , w a2 , w a3 , w a4 ) of the pseudo cell 52 is calculated. At this time, the unlearned cell in the selected block (extraction block 50) of the unlearned map 4 (see FIG. 6) corresponding to the pseudo cell 52 is represented by vector data w b (w b1 , w b2 , w b3 , w b4 ).

学習積算値wa1(要素1)=wab1+t・(x−wb1)/25・・・(26)
学習積算値wa2(要素2)=wab2+t・(x−wb2)/25・・・(27)
学習積算値wa3(要素3)=wab3+t・(x−wb3)/25・・・(28)
学習積算値wa4(要素4)=wab4+t・(x−wb4)/25・・・(29)
また、第2実施形態では、ステップ27の未学習マップを構成する全ての未学習セルのベクトルデータに対して擬似マップの擬似セルが有する学習積算値wを反映させるための演算において、w=w+v・wで表される式により、擬似セルの学習積算値wを反映させた未学習セルのベクトルデータw(w,w,w,w)を算出する。なお、この式において、vは係数である。具体的には、以下の式(30)〜式(33)に示すように学習積算値wを反映させた未学習セルのベクトルデータw(w,w,w,w)を算出する。
Integrated learning value w a1 (element 1) = w ab1 + t · (x 1 −w b1 ) / 25 (26)
Integrated learning value w a2 (element 2) = w ab2 + t · (x 2 −w b2 ) / 25 (27)
Integrated learning value w a3 (element 3) = w ab3 + t · (x 3 −w b3 ) / 25 (28)
Learning integrated value w a4 (element 4) = w ab4 + t · (x 4 −w b4 ) / 25 (29)
In the second embodiment, in the calculation for reflecting the learning integrated value w a of the pseudo cell of the pseudo map to the vector data of all the unlearned cells constituting the unlearned map in step 27, w = the formula represented by w b + v · w a, and calculates the vector data w unlearned cells reflecting the learned integration value w a pseudo cell (w 1, w 2, w 3, w 4). In this equation, v is a coefficient. Specifically, the vector data w (w 1 , w 2 , w 3 , w 4 ) of the unlearned cell reflecting the learning integrated value w a is expressed as shown in the following equations (30) to (33). calculate.

学習積算値wa1を反映させた未学習セルのベクトルデータw=wb1+v・wa1・・・(30)
学習積算値wa2を反映させた未学習セルのベクトルデータw=wb2+v・wa2・・・(31)
学習積算値wa3を反映させた未学習セルのベクトルデータw=wb3+v・wa3・・・(32)
学習積算値wa4を反映させた未学習セルのベクトルデータw=wb4+v・wa4・・・(33)
なお、第2実施形態では、上記第1実施形態と異なり、学習負荷率の積算値divを求めないとともに、学習対象ブロックに含まれる擬似セルの数cの逆数1/cが蓄積された学習積算値wを学習負荷率の積算値divで割ることなく、未学習セルのベクトルデータwを求める。
Vector data w 1 = w b1 + v · w a1 (30) of the unlearned cell reflecting the learning integrated value w a1
Vector data w 2 = w b2 + v · w a2 of the unlearned cell reflecting the learning integrated value w a2 (31)
Vector data w 3 = w b3 + v · w a3 (32) of the unlearned cell reflecting the learning integrated value w a3
Vector data w 4 = w b4 + v · w a4 (33) of the unlearned cell reflecting the learning integrated value w a4
In the second embodiment, unlike the first embodiment, the learning load factor integrated value div a is not obtained, and learning in which the inverse 1 / c of the number c of pseudo cells included in the learning target block is accumulated is stored. The vector data w of the unlearned cell is obtained without dividing the integrated value w a by the integrated value div a of the learning load factor.

上記式(30)〜式(33)により、たとえば、学習データX1(0.03,3.1,0.2,2.8)が学習された5×5の学習対象ブロックと、学習データX2(0.4,2.9,0.2,2.7)が学習された3×3の学習対象ブロックと、学習データX3(0.01,3.2,0.1,2.9)が学習された4×4の学習対象ブロックとに含まれた所定の擬似セルが有する学習積算値wをベクトルデータ(0.02,2.9,0.22,2.7)を有する未学習セルに反映させる場合には、その未学習セルのベクトルデータw(w,w,w,w)は、以下の式(34)〜式(37)のように算出される。なお、この場合、係数v=1とする。 From the above equations (30) to (33), for example, a 5 × 5 learning target block in which the learning data X1 (0.03, 3.1, 0.2, 2.8) is learned, and the learning data X2 3 × 3 learning target blocks learned (0.4, 2.9, 0.2, 2.7) and learning data X3 (0.01, 3.2, 0.1, 2.9) The learning integrated value w a included in the predetermined pseudo cell included in the 4 × 4 learning target block in which the learning is performed has the vector data (0.02, 2.9, 0.22, 2.7). When reflecting in the learning cell, the vector data w (w 1 , w 2 , w 3 , w 4 ) of the unlearned cell is calculated as in the following equations (34) to (37). In this case, the coefficient v = 1.

=0.02+1×(1×(0.03−0.02)/25+1×(0.4−0.02)/9+1×(0.01−0.02)/16)=0.06・・・(34)
=2.9+1×(1×(3.1−2.9)/25+1×(2.9−2.9)/9+1×(3.2−2.9)/16)=2.93・・・(35)
=0.22+1×(1×(0.2−0.22)/25+1×(0.2−0.22)/9+1×(0.1−0.22)/16)=0.21・・・(36)
=2.7+1×(1×(2.8−2.7)/25+1×(2.7−2.7)/9+1×(2.9−2.7)/16)=2.72・・・(37)
上記式(30)〜(33)により、擬似マップを構成する全ての擬似セルに対応する未学習マップの全ての未学習セルについて、それぞれ学習積算値wを反映させたベクトルデータwを算出する。そして、算出したベクトルデータwによって各未学習セルの有するベクトルデータを書き換える。第2実施形態による自己組織化マップ作成方法の上記以外の処理方法は、上記第1実施形態による自己組織化マップ作成方法の処理方法と同様である。
w 1 = 0.02 + 1 × (1 × (0.03-0.02) / 25 + 1 × (0.4−0.02) / 9 + 1 × (0.01−0.02) / 16) = 0.06 ... (34)
w 2 = 2.9 + 1 × (1 × (3.1-2.9) / 25 + 1 × (2.9-2.9) / 9 + 1 × (3.2-2.9) / 16) = 2.93 ... (35)
w 3 = 0.22 + 1 × (1 × (0.2−0.22) / 25 + 1 × (0.2−0.22) / 9 + 1 × (0.1−0.22) / 16) = 0.21 ... (36)
w 4 = 2.7 + 1 × (1 × (2.8-2.7) / 25 + 1 × (2.7-2.7) / 9 + 1 × (2.9-2.7) / 16) = 2.72 ... (37)
By the above equations (30) to (33), vector data w reflecting the learning integrated value w a is calculated for all unlearned cells of the unlearned map corresponding to all the pseudo cells constituting the pseudo map. . Then, the vector data of each unlearned cell is rewritten with the calculated vector data w. The other processing methods of the self-organizing map creating method according to the second embodiment are the same as the processing methods of the self-organizing map creating method according to the first embodiment.

第2実施形態では、上記のように、複数の未学習セル4aに対応するとともに、学習前の学習積算値w(before)を有する複数の擬似セル5aを含む擬似マップ5に、学習データxを学習させた後、学習された擬似マップ5の擬似セル5aが有する学習積算値wを未学習マップ4の擬似セル5aに対応する未学習セル4aに反映させることによって、複数の学習データxを順次学習させる場合に、全ての学習データxを擬似マップ5に学習させる間は、未学習マップ4の各未学習セル4aのベクトルデータは変化されない。これにより、未学習マップ4で学習データxを学習させるべき未学習セル4aを選択した後、その選択された未学習マップ4の未学習セル4a(選択ブロック)に対応する擬似マップ5の擬似セル5a(学習対象ブロック)に学習データxを学習させることによって、未学習マップ4で学習データxを学習させるべき未学習セル4aを選択する際に、未学習マップ4の未学習セル4aのベクトルデータは変化しないので、学習データxを学習させる順番によって、未学習マップ4の選択される未学習セル4aが異なるという不都合が生じない。これにより、複数の学習データxを学習させる場合にも、学習データxを学習させる順番によって得られる自己組織化マップ3が異なるのを抑制することができる。したがって、学習データxを学習させる順番にかかわらず、未知データを正しく分類することができる未知データの分類に有用な分類支援マップを作成することができる。 In the second embodiment, as described above, the learning data x corresponds to the plurality of unlearned cells 4a and includes the plurality of pseudo cells 5a having the learning integrated value w a (before) before learning. , The learned integrated value w a included in the pseudo cell 5a of the learned pseudo map 5 is reflected in the unlearned cell 4a corresponding to the pseudo cell 5a of the unlearned map 4, whereby a plurality of learning data x Are sequentially learned, the vector data of each unlearned cell 4a of the unlearned map 4 is not changed while all the learning data x is learned by the pseudo map 5. Thereby, after selecting the unlearned cell 4a in which the learning data x is to be learned in the unlearned map 4, the pseudo cell of the pseudo map 5 corresponding to the unlearned cell 4a (selected block) of the selected unlearned map 4 Vector data of the unlearned cell 4a of the unlearned map 4 when selecting the unlearned cell 4a in which the learned data x should be learned in the unlearned map 4 by learning the learned data x in 5a (learning target block). Therefore, there is no inconvenience that the unlearned cell 4a selected in the unlearned map 4 differs depending on the order of learning the learning data x. Thereby, also when learning the some learning data x, it can suppress that the self-organization map 3 obtained by the order which learns the learning data x differs. Therefore, a classification support map useful for classification of unknown data that can correctly classify unknown data can be created regardless of the order in which the learning data x is learned.

第2実施形態による上記以外の効果は、上記第1実施形態による効果と同様である。   The effects of the second embodiment other than those described above are the same as the effects of the first embodiment.

なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and further includes all modifications within the meaning and scope equivalent to the scope of claims for patent.

たとえば、上記実施形態では、本発明の分類支援マップ作成方法およびそれを実行するためのプログラムならびに分類支援マップ作成装置の一例としての自己組織化マップ作成方法およびそれを実行するためのプログラムならびに自己組織化マップ作成装置について説明したが、本発明はこれに限らず、自己組織化マップ作成方法およびそれを実行するためのプログラムならびに自己組織化マップ作成装置以外の分類支援マップ作成方法およびそれを実行するためのプログラムならびに分類支援マップ作成装置についても本発明を適用することができる。   For example, in the above embodiment, the classification support map creation method of the present invention, the program for executing the method, the self-organization map creation method as an example of the classification support map creation apparatus, the program for executing the program, and the self-organization Although the present invention is not limited to this, the present invention is not limited to this, and a self-organizing map creating method, a program for executing the method, a classification support map creating method other than the self-organizing map creating device, and the same are executed. The present invention can also be applied to a program for the above and a classification support map creating apparatus.

また、上記実施形態では、学習アルゴリズムにおいて、ベクトルデータを全く有していないセルからなるマップの各セルに対して、乱数表を用いて所定のベクトルデータを割り付けることにより、未学習マップの準備を行ったが、本発明はこれに限らず、上記以外の方法を用いて未学習マップの準備を行ってもよい。たとえば、ベクトルデータを全く有していないセルからなるマップの全てのセルに対して、全ての要素が「0」からなるベクトルデータを割り付けることなどにより、未学習マップの準備を行ってもよい。   In the above embodiment, the learning algorithm prepares an unlearned map by assigning predetermined vector data using a random number table to each cell of a map made up of cells having no vector data. However, the present invention is not limited to this, and an unlearned map may be prepared using a method other than the above. For example, an unlearned map may be prepared by assigning vector data having all elements of “0” to all cells of a map including cells having no vector data.

また、上記第2実施形態では、学習積算値wを学習負荷率の積算値divで割ることなく未学習セルのベクトルデータwを求めたが、本発明はこれに限らず、上記第2実施形態による学習データxと未学習セルのベクトルデータとの差分を積算することにより学習積算値wを求める方法の場合にも、学習積算値wを学習負荷率の積算値divで割ることにより未学習セルのベクトルデータwを求めるようにしてもよい。 In the second embodiment, the unlearned cell vector data w is obtained without dividing the learning integrated value w a by the learning load factor integrated value div a . However, the present invention is not limited to this, and the second If the method of obtaining the learned integration value w a by integrating the difference between the vector data of the learning data x and unlearned cell according to the embodiment also divides the learning integrated value w a learning load factor integration value div a Thus, the vector data w of the unlearned cell may be obtained.

また、上記実施形態では、マップを構成する各セルをマス目によって表したが、本発明はこれに限らず、各セルをマス目以外の種々の形状によって表してもよい。たとえば、各セルを円や点などによって表してもよい。   Moreover, in the said embodiment, although each cell which comprises a map was represented by the grid, this invention is not restricted to this, You may represent each cell by various shapes other than a grid. For example, each cell may be represented by a circle or a point.

また、上記実施形態では、自己組織化マップの各セルをα、βおよびγの3つのクラスにクラス分けした例について説明したが、本発明はこれに限らず、自己組織化マップの各セルを3つ以外のクラスにクラス分けする場合にも、本発明を適用することができる。   In the above embodiment, an example in which each cell of the self-organizing map is classified into three classes of α, β, and γ has been described. However, the present invention is not limited to this, and each cell of the self-organizing map is The present invention can also be applied to classification into classes other than three.

また、上記実施形態では、ベクトルデータとして4個の要素からなるベクトルデータを用いたが、本発明はこれに限らず、2個以上の要素からなるベクトルデータであればよい。   In the above embodiment, vector data composed of four elements is used as vector data. However, the present invention is not limited to this, and any vector data composed of two or more elements may be used.

また、上記実施形態では、ブロックデータとしてブロックに含まれる全てのセルの各要素の重みの平均値を用いたが、本発明はこれに限らず、ブロックデータとしてブロックに含まれる全てのセルの各要素の重みの標準偏差などを用いてもよい。   In the above embodiment, the average value of the weight of each element of all cells included in the block is used as the block data. However, the present invention is not limited to this, and each cell of all cells included in the block as block data is used. A standard deviation of element weights may be used.

また、上記実施形態では、未学習マップおよび擬似マップとして、縦横に同数のセルが配置されたマップを使用した例について説明したが、本発明はこれに限らず、未学習マップおよび擬似マップとして、縦横で配置されたセルの数が異なるマップを使用してもよい。   In the above embodiment, an example in which a map in which the same number of cells are arranged vertically and horizontally is used as an unlearned map and a pseudo map, but the present invention is not limited thereto, and as an unlearned map and a pseudo map, Maps with different numbers of cells arranged vertically and horizontally may be used.

本発明の第1実施形態による自己組織化マップ作成方法に用いる自己組織化マップ作成装置の構成を説明するための模式図である。It is a schematic diagram for demonstrating the structure of the self-organization map preparation apparatus used for the self-organization map preparation method by 1st Embodiment of this invention. 図1に示した第1実施形態による自己組織化マップ作成装置によって作成される自己組織化マップの構成を示した図である。It is the figure which showed the structure of the self-organization map created by the self-organization map creation apparatus by 1st Embodiment shown in FIG. 本発明の第1実施形態による自己組織化マップ作成方法の学習アルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the learning algorithm of the self-organizing map creation method by 1st Embodiment of this invention. 本発明の第1実施形態による自己組織化マップ作成方法の学習アルゴリズムを説明するための図である。It is a figure for demonstrating the learning algorithm of the self-organizing map creation method by 1st Embodiment of this invention. 図3に示した第1実施形態による学習アルゴリズムのサブルーチンを説明するためのフローチャートである。It is a flowchart for demonstrating the subroutine of the learning algorithm by 1st Embodiment shown in FIG. 本発明の第1実施形態による自己組織化マップ作成方法の学習アルゴリズムを説明するための図である。It is a figure for demonstrating the learning algorithm of the self-organizing map creation method by 1st Embodiment of this invention. 本発明の第1実施形態による自己組織化マップ作成方法の学習アルゴリズムを説明するための図である。It is a figure for demonstrating the learning algorithm of the self-organizing map creation method by 1st Embodiment of this invention. 本発明の第1実施形態による自己組織化マップ作成方法の学習アルゴリズムを説明するための図である。It is a figure for demonstrating the learning algorithm of the self-organizing map creation method by 1st Embodiment of this invention. 本発明の第1実施形態による自己組織化マップ作成方法のクラス分けアルゴリズムを説明するためのフローチャートである。It is a flowchart for demonstrating the classification algorithm of the self-organizing map creation method by 1st Embodiment of this invention. 本発明の第1実施形態による自己組織化マップ作成方法のクラス分けアルゴリズムを説明するための図である。It is a figure for demonstrating the classification algorithm of the self-organization map creation method by 1st Embodiment of this invention. 本発明の第1実施形態による自己組織化マップ作成方法のクラス分けアルゴリズムを説明するための図である。It is a figure for demonstrating the classification algorithm of the self-organization map creation method by 1st Embodiment of this invention. 本発明の第1実施形態による自己組織化マップ作成方法のクラス分けアルゴリズムを説明するための図である。It is a figure for demonstrating the classification algorithm of the self-organization map creation method by 1st Embodiment of this invention. 本発明の第1実施形態による自己組織化マップ作成方法のクラス分けアルゴリズムを説明するための図である。It is a figure for demonstrating the classification algorithm of the self-organization map creation method by 1st Embodiment of this invention. 本発明の第2実施形態による自己組織化マップ作成方法の学習アルゴリズムのサブルーチンを説明するためのフローチャートである。It is a flowchart for demonstrating the subroutine of the learning algorithm of the self-organizing map creation method by 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 自己組織化マップ作成装置
2a 未学習マップ記憶部(未学習マップ記憶手段)
2b 擬似マップ記憶部(擬似マップ記憶手段)
2c ブロック選択部(ブロック選択手段)
2d 擬似マップ学習部(擬似マップ学習手段)
2e 未学習マップ反映部(未学習マップ反映手段)
2f ブロック重みデータ算出部(ブロックデータ算出手段)
2g ブロック重みデータ比較選択部(ブロックデータ比較選択手段)
2h 擬似セル学習部(擬似セル学習手段)
3 自己組織化マップ(分類支援マップ)
3a セル
4 未学習マップ
4a 未学習セル
5 擬似マップ
5a 擬似セル
50 抽出ブロック(ブロック、第3ブロック)
1 Self-organizing map creation device 2a Unlearned map storage unit (unlearned map storage means)
2b Pseudo map storage unit (pseudo map storage means)
2c Block selection unit (block selection means)
2d pseudo map learning unit (pseudo map learning means)
2e Unlearned map reflection unit (unlearned map reflection means)
2f Block weight data calculation unit (block data calculation means)
2g block weight data comparison / selection unit (block data comparison / selection means)
2h Pseudo cell learning unit (pseudo cell learning means)
3 Self-organizing map (Classification support map)
3a cell 4 unlearned map 4a unlearned cell 5 pseudo map 5a pseudo cell 50 extraction block (block, third block)

Claims (14)

ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法であって、
それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを準備するステップと、
前記複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを準備するステップと、
ベクトルデータからなる学習データを前記擬似マップに学習させるステップと、
学習された前記擬似マップの擬似セルが有するベクトルデータを前記未学習マップの前記擬似セルに対応する未学習セルに反映させるステップとを備えた、分類支援マップ作成方法。
A classification support map creation method for creating a classification support map for supporting classification of unknown data composed of vector data,
Providing an unlearned map including a plurality of unlearned cells each having unlearned vector data;
Preparing a pseudo map that corresponds to the plurality of unlearned cells and includes a plurality of pseudo cells having predetermined vector data;
Learning learning data composed of vector data in the pseudo map;
Reflecting the vector data of the learned pseudo cell of the pseudo map to an unlearned cell corresponding to the pseudo cell of the unlearned map.
前記未学習マップから前記未学習セルの集合体からなる第1ブロックを選択するステップをさらに備え、
前記学習データを擬似マップに学習させるステップは、前記未学習マップの前記第1ブロックに対応する前記擬似マップの第2ブロックに含まれる前記擬似セルに前記学習データを学習させるステップを含む、請求項1に記載の分類支援マップ作成方法。
Selecting a first block consisting of a collection of the unlearned cells from the unlearned map;
The step of causing the pseudo map to learn the learning data includes the step of causing the pseudo cell included in the second block of the pseudo map corresponding to the first block of the unlearned map to learn the learning data. A method for creating a classification support map according to 1.
前記未学習マップから第1ブロックを選択するステップは、
前記未学習マップから抽出される、前記未学習セルの集合体からなる複数のブロック毎に、前記ブロックに含まれる複数の前記未学習セルの未学習のベクトルデータに基づいて、前記ブロックのベクトルデータとしてのブロックデータを算出するステップと、
前記学習データを前記複数のブロックのブロックデータと比較して、前記複数のブロックの中から前記学習データに対応する前記ブロックデータを有する第1ブロックを選択するステップとを含む、請求項2に記載の分類支援マップ作成方法。
Selecting a first block from the unlearned map comprises:
The vector data of the block is extracted from the unlearned map, for each of a plurality of blocks made up of a collection of the unlearned cells, based on the unlearned vector data of the plurality of unlearned cells included in the block. Calculating block data as:
The learning data is compared with the block data of the plurality of blocks, and a first block having the block data corresponding to the learning data is selected from the plurality of blocks. Classification support map creation method.
前記第2ブロックに含まれる擬似セルに学習データを学習させるステップは、前記第2ブロックに含まれる全ての前記擬似セルの有するベクトルデータに、前記学習データに基づくベクトルデータをそれぞれ加算するステップを含む、請求項2または3に記載の分類支援マップ作成方法。   The step of learning the learning data in the pseudo cell included in the second block includes the step of adding vector data based on the learning data to the vector data of all the pseudo cells included in the second block. The method for creating a classification support map according to claim 2 or 3. 前記学習データに基づくベクトルデータを加算するステップは、前記第2ブロックに含まれる擬似セルの有するベクトルデータをwとし、前記学習データをxとし、前記第2ブロックに含まれる擬似セルの数をcとした場合に、w+x/cで表される式に基づいて、前記第2ブロックに含まれる擬似セルの有するベクトルデータに前記学習データに基づくベクトルデータをそれぞれ加算するステップを含む、請求項4に記載の分類支援マップ作成方法。 In the step of adding vector data based on the learning data, the vector data of the pseudo cell included in the second block is set as w a , the learning data is set as x, and the number of the pseudo cells included in the second block is determined as a step of adding the vector data based on the learning data to the vector data of the pseudo cell included in the second block based on an expression represented by w a + x / c, Item 5. The classification support map creation method according to Item 4. 前記第2ブロックに含まれる擬似セルに学習データを学習させるステップは、前記第2ブロックに含まれる全ての前記擬似セルの有するベクトルデータに、前記学習データと前記第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータをそれぞれ加算するステップを含む、請求項2または3に記載の分類支援マップ作成方法。   The step of causing the pseudo cell included in the second block to learn the learning data includes the vector data included in all the pseudo cells included in the second block and the unlearned cell of the first block. 4. The classification support map creation method according to claim 2, further comprising a step of adding vector data based on a difference from unlearned vector data. 前記学習データと前記第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータを加算するステップは、前記第2ブロックに含まれる擬似セルの有するベクトルデータをwとし、定数をtとし、前記学習データをxとし、前記第1ブロックの未学習セルが有する未学習のベクトルデータをwとし、前記第2ブロックに含まれる擬似セルの数をcとした場合に、w+t・(x−w)/cで表される式に基づいて、前記第2ブロックに含まれる擬似セルの有するベクトルデータに、前記学習データと前記第1ブロックの未学習セルが有する未学習のベクトルデータとの差に基づくベクトルデータをそれぞれ加算するステップを含む、請求項6に記載の分類支援マップ作成方法。 The step of adding the vector data based on the difference between the unlearned of vector data included in the unlearned cells of the first block and the training data, the vector data included in the pseudo cells included in the second block and w a, When the constant is t, the learning data is x, the unlearned vector data of the unlearned cells in the first block is w b, and the number of pseudo cells included in the second block is c, Based on the formula represented by w a + t · (x−w b ) / c, the vector data of the pseudo cell included in the second block has the learning data and the unlearned cell of the first block. The classification support map creation method according to claim 6, further comprising the step of adding vector data based on a difference from unlearned vector data. 前記学習データを擬似マップに学習させるステップは、前記擬似セルに対する前記学習データの学習の度合いを表す学習負荷率をdivとし、前記第2ブロックに含まれる擬似セルの数をcとした場合に、div+1/cで表される式に基づいて、前記学習負荷率の積算値を算出するステップを含み、
前記擬似マップの擬似セルが有するベクトルデータを未学習マップの擬似セルに対応する未学習セルに反映させるステップは、前記学習データが学習された前記擬似マップの擬似セルが有するベクトルデータを前記学習負荷率の積算値で割ることにより、前記学習データが学習された前記擬似セルが有するベクトルデータを反映させた前記未学習セルのベクトルデータを算出するステップを含む、請求項2〜7のいずれか1項に記載の分類支援マップ作成方法。
The step of learning the learning data in a pseudo map is performed when the learning load factor indicating the degree of learning of the learning data with respect to the pseudo cell is div and the number of pseudo cells included in the second block is c. calculating an integrated value of the learning load factor based on an expression represented by div + 1 / c;
The step of reflecting the vector data included in the pseudo cell of the pseudo map to the unlearned cell corresponding to the pseudo cell of the unlearned map includes the vector data included in the pseudo cell of the pseudo map in which the learning data has been learned. 8. The method according to claim 2, further comprising: calculating vector data of the unlearned cell reflecting the vector data of the pseudo cell in which the learning data has been learned by dividing by an integrated value of the rate. Classification support map creation method as described in the item.
前記学習データを擬似マップに学習させるステップを全ての学習データについて実行した後に、前記擬似マップのベクトルデータを未学習マップに反映させるステップを実行する、請求項1〜8のいずれか1項に記載の分類支援マップ作成方法。   The step of reflecting the vector data of the pseudo map on the unlearned map is executed after the step of learning the learning data in the pseudo map is executed for all the learning data. Classification support map creation method. 前記未学習マップから抽出されるM個以上の前記未学習セルの集合体からなる複数の第3ブロック毎に、前記ブロックデータを算出するステップと、前記複数の第3ブロックの中から前記第1ブロックを選択するステップと、前記第1ブロックに対応する前記第2ブロックに含まれる擬似セルに学習データを学習させるステップと、前記擬似マップのベクトルデータを未学習マップに反映させるステップとが実行された後、
前記未学習マップから抽出されるN個(N<M)以上の前記未学習セルの集合体からなる複数の第4ブロック毎に、前記ブロックデータを算出するステップと、前記複数の第4ブロックの中から前記第1ブロックを選択するステップと、前記第1ブロックに対応する前記第2ブロックに含まれる擬似セルに学習データを学習させるステップと、前記擬似マップのベクトルデータを未学習マップに反映させるステップとが実行される、請求項2〜9のいずれか1項に記載の分類支援マップ作成方法。
Calculating the block data for each of a plurality of third blocks comprising a set of M or more of the unlearned cells extracted from the unlearned map; and the first of the plurality of third blocks. The steps of selecting a block, causing the pseudo cell included in the second block corresponding to the first block to learn learning data, and reflecting the pseudo map vector data in the unlearned map are executed. After
Calculating the block data for each of a plurality of fourth blocks made up of a set of N (N <M) or more unlearned cells extracted from the unlearned map; and Selecting the first block from among the steps, causing the pseudo cell included in the second block corresponding to the first block to learn learning data, and reflecting the pseudo map vector data in the unlearned map The classification support map creation method according to claim 2, wherein the step is executed.
ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成装置であって、
それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを記憶する未学習マップ記憶手段と、
前記複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを記憶する擬似マップ記憶手段と、
ベクトルデータからなる学習データを前記擬似マップに学習させる擬似マップ学習手段と、
学習された前記擬似マップの擬似セルが有するベクトルデータを前記未学習マップの前記擬似セルに対応する未学習セルに反映させる未学習マップ反映手段とを備えた、分類支援マップ作成装置。
A classification support map creation device for creating a classification support map that supports classification of unknown data consisting of vector data,
Unlearned map storage means for storing an unlearned map including a plurality of unlearned cells each having unlearned vector data;
Pseudo map storage means for storing a pseudo map corresponding to the plurality of unlearned cells and including a plurality of pseudo cells having predetermined vector data;
Pseudo map learning means for causing the pseudo map to learn learning data composed of vector data;
A classification support map creating apparatus comprising: an unlearned map reflecting unit that reflects vector data of a learned pseudo cell of the pseudo map to an unlearned cell corresponding to the pseudo cell of the unlearned map.
前記未学習マップから前記未学習セルの集合体からなる第1ブロックを選択するブロック選択手段をさらに備え、
前記擬似マップ学習手段は、前記未学習マップの前記第1ブロックに対応する前記擬似マップの第2ブロックに含まれる前記擬似セルに前記学習データを学習させる擬似セル学習手段を含む、請求項11に記載の分類支援マップ作成装置。
Further comprising a block selection means for selecting a first block composed of a collection of the unlearned cells from the unlearned map;
The pseudo map learning means includes pseudo cell learning means for causing the pseudo cell included in the second block of the pseudo map corresponding to the first block of the unlearned map to learn the learning data. Classification support map creation device of description.
前記ブロック選択手段は、
前記未学習マップから抽出される、前記未学習セルの集合体からなる複数のブロック毎に、前記ブロックに含まれる複数の前記未学習セルの未学習のベクトルデータに基づいて、前記ブロックのベクトルデータとしてのブロックデータを算出するブロックデータ算出手段と、
前記学習データを前記複数のブロックのブロックデータと比較して、前記複数のブロックの中から前記学習データに対応する前記ブロックデータを有する第1ブロックを選択するブロックデータ比較選択手段とを含む、請求項12に記載の分類支援マップ作成装置。
The block selection means includes
The vector data of the block is extracted from the unlearned map, for each of a plurality of blocks made up of a collection of the unlearned cells, based on the unlearned vector data of the plurality of unlearned cells included in the block. Block data calculating means for calculating block data as:
Block data comparison and selection means for comparing the learning data with block data of the plurality of blocks and selecting a first block having the block data corresponding to the learning data from the plurality of blocks. Item 13. The classification support map creation device according to Item 12.
ベクトルデータからなる未知データの分類を支援する分類支援マップを作成するための分類支援マップ作成方法を実行するためのプログラムであって、
それぞれが未学習のベクトルデータを有する複数の未学習セルを含む未学習マップを読み出すステップと、
前記複数の未学習セルに対応するとともに、所定のベクトルデータを有する複数の擬似セルを含む擬似マップを読み出すステップと、
ベクトルデータからなる学習データを前記擬似マップに学習させるステップと、
学習された前記擬似マップの擬似セルが有するベクトルデータを前記未学習マップの前記擬似セルに対応する未学習セルに反映させるステップとを備えた、分類支援マップ作成方法を実行するためのプログラム。
A program for executing a classification support map creating method for creating a classification support map for supporting classification of unknown data consisting of vector data,
Reading an unlearned map that includes a plurality of unlearned cells each having unlearned vector data;
Reading a pseudo map that corresponds to the plurality of unlearned cells and includes a plurality of pseudo cells having predetermined vector data;
Learning learning data composed of vector data in the pseudo map;
Reflecting a vector data of a learned pseudo cell of the pseudo map to an unlearned cell corresponding to the pseudo cell of the unlearned map, for executing a classification support map creating method.
JP2004262228A 2004-09-09 2004-09-09 Classification support map preparation method, program for executing the method, and classification support map preparation device Pending JP2006079326A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004262228A JP2006079326A (en) 2004-09-09 2004-09-09 Classification support map preparation method, program for executing the method, and classification support map preparation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004262228A JP2006079326A (en) 2004-09-09 2004-09-09 Classification support map preparation method, program for executing the method, and classification support map preparation device

Publications (1)

Publication Number Publication Date
JP2006079326A true JP2006079326A (en) 2006-03-23

Family

ID=36158738

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004262228A Pending JP2006079326A (en) 2004-09-09 2004-09-09 Classification support map preparation method, program for executing the method, and classification support map preparation device

Country Status (1)

Country Link
JP (1) JP2006079326A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008047774A1 (en) * 2006-10-17 2008-04-24 Toa Corporation Moving image processing device, moving image processing method, and moving image processing program
JP2011248484A (en) * 2010-05-24 2011-12-08 Nippon Telegr & Teleph Corp <Ntt> Character string vector conversion device, character string vector conversion method, program, and computer readable storage medium storing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008047774A1 (en) * 2006-10-17 2008-04-24 Toa Corporation Moving image processing device, moving image processing method, and moving image processing program
JP2008102589A (en) * 2006-10-17 2008-05-01 Toa Corp Moving image processor, moving image processing method and moving image processing program
JP2011248484A (en) * 2010-05-24 2011-12-08 Nippon Telegr & Teleph Corp <Ntt> Character string vector conversion device, character string vector conversion method, program, and computer readable storage medium storing program

Similar Documents

Publication Publication Date Title
CN106485353B (en) Air pollutant concentration forecasting procedure and system
Song et al. New chaotic PSO-based neural network predictive control for nonlinear process
CN109584178A (en) Image repair method, device and storage medium
CN110782015A (en) Training method and device for network structure optimizer of neural network and storage medium
CN107391512B (en) Method and device for predicting knowledge graph
JP6646234B2 (en) Program generation device, program generation method, and generation program
CN105320804A (en) Material property predictor for cast aluminum alloys
CN105354873B (en) For the pattern density function analogy method of porous media three-dimensionalreconstruction
CN112163520B (en) MDSSD face detection method based on improved loss function
CN109284860A (en) A kind of prediction technique based on orthogonal reversed cup ascidian optimization algorithm
Leong et al. Robust cluster expansion of multicomponent systems using structured sparsity
WO2020012523A1 (en) Information processing device, information processing method, and information processing program
CN113011529B (en) Training method, training device, training equipment and training equipment for text classification model and readable storage medium
CN108764741B (en) For determining the method and device of the layout of the production equipment in factory set region
CN109961129A (en) A kind of Ocean stationary targets search scheme generation method based on improvement population
CN112182819B (en) Structure topology optimization method and system based on weighted graph and readable storage medium
KR101273646B1 (en) Method and system for indexing and searching in multi-modality data
CN109508820A (en) Campus electricity demand forecasting modeling method based on differentiation modeling
JP2006079326A (en) Classification support map preparation method, program for executing the method, and classification support map preparation device
CN113450344B (en) Strip steel surface defect detection method and system
Rodionov et al. Framework for biologically inspired graph optimization
CN113221964B (en) Single sample image classification method, system, computer device and storage medium
CN114781014A (en) Object processing method, device, equipment and computer readable storage medium
CN114494893A (en) Remote sensing image feature extraction method based on semantic reuse context feature pyramid
JP6713099B2 (en) Learned model integration method, device, program, IC chip, and system