JPH09147045A - Neural network - Google Patents

Neural network

Info

Publication number
JPH09147045A
JPH09147045A JP7324086A JP32408695A JPH09147045A JP H09147045 A JPH09147045 A JP H09147045A JP 7324086 A JP7324086 A JP 7324086A JP 32408695 A JP32408695 A JP 32408695A JP H09147045 A JPH09147045 A JP H09147045A
Authority
JP
Japan
Prior art keywords
learning
pattern
monitoring parameter
category
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7324086A
Other languages
Japanese (ja)
Inventor
Yoshiaki Matsuno
嘉明 松野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyo Electric Manufacturing Ltd
Original Assignee
Toyo Electric Manufacturing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyo Electric Manufacturing Ltd filed Critical Toyo Electric Manufacturing Ltd
Priority to JP7324086A priority Critical patent/JPH09147045A/en
Publication of JPH09147045A publication Critical patent/JPH09147045A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To correctly identify the categories by deleting the nodes corresponding to plural categories of an adaptive resonance theory(ART1) network execution means, using only the patterns resonant with the deleted nodes and performing the re-learning by means of a monitoring parameter of larger value. SOLUTION: The neural network 9 deletes the nodes corresponding to plural categories without changing the monitoring parameter which is used for the pattern identification processing. Then the network 9 takes out only the patterns that are resonant with the deleted nodes and performs the re-learning by means of a monitoring parameter of larger value. That is, a re-learning control means 7 sets the value of the monitoring parameter ρ at ρ+Δ (Δ>0). Then, the means 7 deletes the nodes corresponding to plural categories out of the output layer of an ART1 network execution means 2 and takes the patterns resonant with the deleted nodes out of a learning pattern storage means 1. These patterns are given to the means 2 for execution of the re-learning.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クの一種である適応共鳴理論(Adaptive Resonance The
ory )の内のバイナリー入力方式(以降ART1と略称
する)のパターン認識における認識率を向上させるため
の再学習方式に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to adaptive resonance theory (Adaptive Resonance Theory), which is a type of neural network.
ory) of the binary input method (hereinafter abbreviated as ART1) of pattern recognition, which relates to a re-learning method for improving the recognition rate.

【0002】[0002]

【従来の技術】一般に、ART1は、参考文献として、
Carpenter, Gail A. and Grossberg,Stephen : "A Mass
ively Parallel Architecture for a Self-Organizing
Neural Pattern Recognition Machine", Computer Visi
on, Graphics and ImageProcessing, vol.37, pp.54-11
5, 1987 )に掲載されているように、学習パターンに内
在する構造を、教師信号によらず、自律的に抽出、記憶
する優れた特性を持っている。ネットワークは、ビット
パターンを入力とし、入力層と出力層の2層からなり、
この2層間の結合が双方向であることが特徴である。漸
近学習を行ったときのART1の論理的な動作を簡略化
して示すと次のようになる。 (1)未知パターンと記憶パターンの1個を比較して、
類似度を求める。 (2)類似度は、未知パターンと記憶パターンの論理積
をとり、その論理積の1の数を未知パターンの1の数で
割ったものである。 (3)類似度が監視パラメータ(ρ:vigilance parame
ter )以上なら、その記憶パターンの番号(出力層のノ
ード番号)を出力する(共鳴)。 (4)類似度が監視パラメータ未満なら、次の記憶パタ
ーンと比較する。 (5)すべての記憶パターンと比較しても類似していな
い場合は、新規パターンとして記憶する。 (6)未知パターンと記憶パターンを比較する順序は類
似している可能性の高い順に決める。 (7)この可能性はネットワークの積和演算によって求
められる。
2. Description of the Related Art Generally, ART1 is used as a reference.
Carpenter, Gail A. and Grossberg, Stephen: "A Mass
collectively Parallel Architecture for a Self-Organizing
Neural Pattern Recognition Machine ", Computer Visi
on, Graphics and ImageProcessing, vol.37, pp.54-11
5, 1987), it has the excellent property of autonomously extracting and storing the structure inherent in the learning pattern, regardless of the teacher signal. The network has a bit pattern as an input and consists of two layers, an input layer and an output layer,
The feature is that the coupling between the two layers is bidirectional. The logical operation of the ART 1 when asymptotic learning is simplified is shown as follows. (1) Compare one of the unknown pattern and the memory pattern,
Find the similarity. (2) The degree of similarity is the logical product of the unknown pattern and the memory pattern, and the number of 1's in the logical product is divided by the number of 1's in the unknown pattern. (3) Similarity is a monitoring parameter (ρ: vigilance parame
ter) or more, the memory pattern number (node number of the output layer) is output (resonance). (4) If the similarity is less than the monitoring parameter, it is compared with the next storage pattern. (5) If it is not similar even if compared with all the stored patterns, it is stored as a new pattern. (6) The order in which the unknown pattern and the memory pattern are compared is determined in the order that is likely to be similar. (7) This possibility is obtained by the product sum operation of the network.

【0003】[0003]

【発明が解決しようとする課題】しかし、ART1の学
習方式は教師なし学習であるため、パターンのカテゴリ
ーを識別させるような場合、期待したようなカテゴリー
分類を生成しないことがある。相互に類似したカテゴリ
ーが存在すれば、出力層の1個のノードに複数のカテゴ
リーに属するパターンが共鳴してしまうという問題が起
こる。図4はその状態を示す複数カテゴリーと共鳴する
概念図であり、図4においては、出力層の1個のノード
に複数のカテゴリーに属するパターンが共鳴したとき
の、入力空間における出力層の各ノードに共鳴する範囲
を示している。なお、概念図であるので、共鳴する範囲
の形状や境界線の形状に意味はない。集合としての関係
にのみ意味がある。●はカテゴリーAに属する学習パタ
ーン、○はカテゴリーBに属する学習パターンを示す。
また、A1〜A3はカテゴリーAに属する学習パターン
が共鳴するノードに対応する共鳴範囲、B1〜B2はカ
テゴリーBに属する学習パターンが共鳴するノードに対
応する共鳴範囲である。また、CはカテゴリーAに属す
る学習パターン、カテゴリーBに属する学習パターンの
両方が共鳴するノードの共鳴範囲である。どの共鳴範囲
にも入らない領域は、このネットワークで識別できない
領域である。更に、DはカテゴリーAとカテゴリーBの
境界である。監視パラメータを大きくして学習しなおせ
ば、カテゴリー識別の能力は向上するが、今度はネット
ワークの汎化能力を損なってしまうという別な問題が起
こる。
However, since the learning method of ART1 is the unsupervised learning, the category classification as expected may not be generated when the pattern categories are identified. If there are categories similar to each other, there arises a problem that patterns belonging to a plurality of categories resonate with one node in the output layer. FIG. 4 is a conceptual diagram showing the state of resonance with a plurality of categories. In FIG. 4, each node of the output layer in the input space when a pattern belonging to a plurality of categories resonates with one node of the output layer. Shows the range that resonates with. Since it is a conceptual diagram, the shape of the resonating range and the shape of the boundary line have no meaning. Only the relationship as a set is meaningful. ● indicates a learning pattern belonging to category A, and ○ indicates a learning pattern belonging to category B.
Further, A1 to A3 are resonance ranges corresponding to the nodes in which the learning patterns belonging to the category A resonate, and B1 to B2 are resonance ranges corresponding to the nodes in which the learning pattern belonging to the category B resonate. Further, C is a resonance range of a node in which both the learning pattern belonging to category A and the learning pattern belonging to category B resonate. Regions that do not fall within any resonance range are regions that cannot be identified by this network. Further, D is the boundary between category A and category B. If the monitoring parameters are increased and the learning is performed again, the ability of category identification is improved, but this time another problem occurs that the generalization ability of the network is impaired.

【0004】図5は監視パラメータρを大きくして再学
習後を示し、図4と同一の学習パターンを用い、監視パ
ラメータを大きくして学習しなおした場合を示す概念図
であり、図5においては、1個のノードの共鳴範囲が小
さくなるために、識別できない領域が増えてしまう。な
お、A1〜A6はカテゴリーAに属する学習パターンが
共鳴するノードに対応する共鳴範囲、B1〜B5はカテ
ゴリーBに属する学習パターンが共鳴するノードに対応
する共鳴範囲であり、Cに相当する領域はA5とB3と
2つに分割され、カテゴリー識別の誤りはない。しか
し、個々の領域が小さくなっており、汎化能力が低下し
てしまっている。本発明は上述した点に鑑みて創案され
たもので、その目的とするところは、これらの欠点を解
決するためになされたもので、ART1ネットワーク実
行手段における複数のカテゴリーに対応しているノード
を削除し、そのノードと共鳴したパターンのみを使い、
より大きい値の監視パラメータを用いて再学習させて、
カテゴリー識別を正しく行えるようにするニューラルネ
ットワークを提供することにある。
FIG. 5 is a conceptual diagram showing a case after re-learning by increasing the monitoring parameter ρ, and using the same learning pattern as in FIG. 4 and re-learning by increasing the monitoring parameter. In FIG. However, since the resonance range of one node becomes small, the area that cannot be identified increases. In addition, A1 to A6 are resonance ranges corresponding to the nodes in which the learning patterns belonging to category A resonate, B1 to B5 are resonance ranges corresponding to the nodes in which the learning patterns belonging to category B resonate, and the region corresponding to C is It is divided into two, A5 and B3, and there is no category identification error. However, the individual areas have become smaller and the generalization ability has decreased. The present invention has been made in view of the above-mentioned points, and an object thereof is to solve these drawbacks, and to provide a node corresponding to a plurality of categories in ART1 network execution means. Delete it and use only the pattern that resonates with that node,
Relearn with a larger value of the monitoring parameter,
The purpose is to provide a neural network that enables correct category identification.

【0005】[0005]

【課題を解決するための手段】つまり、その目的を達成
するための手段は、 a)学習パターンとその属するカテゴリーの組を記憶す
るための学習パターン記憶手段、 b)前記学習パターンを入力とし、共鳴した出力層のノ
ード番号を出力するための適応共鳴理論(ART1)ネ
ットワーク実行手段、 c)前記適応共鳴理論ネットワーク実行手段の監視パラ
メータを制御するための監視パラメータ制御手段、 d)前記適応共鳴理論ネットワーク実行手段の出力する
共鳴した出力層のノード番号と学習パターンの組を記憶
する実行結果記憶手段、 e)前記学習パターン記憶手段と前記実行結果記憶手段
から、前記適応共鳴理論ネットワーク実行手段の出力す
る共鳴した出力層のノード番号とパターンのカテゴリー
の対応を得て、以後、前記適応共鳴理論ネットワーク実
行手段の出力する共鳴した出力層のノード番号からパタ
ーンのカテゴリーを決定するためのカテゴリー対応手
段、 f)ある監視パラメータの値ρのもと、前記適応共鳴理
論ネットワーク実行手段に前記学習パターン記憶手段に
記憶されている学習パターンを与えて学習させるための
学習制御手段、 g)前記学習の結果、複数のカテゴリーに対応づけられ
るノードが存在する場合、そのノードを削除し、前記監
視パラメータ制御手段によって一時的に監視パラメータ
の値を大きな値ρ+Δ(ただし、Δ>0)にしてより詳
細な識別ができるようにし、さらに前記実行結果記憶手
段からそのノードに共鳴した学習パターンを検索して、
これらの学習パターンのみによって再学習を行わせるた
めの再学習制御手段、 h)以上の各手段を制御して、監視パラメータの値ρで
の学習、複数のカテゴリーに対応づけられるノードが存
在した場合の監視パラメータの値ρ+Δでの再学習、再
学習終了後、もとの監視パラメータの値ρを用いての識
別処理を行わせるための制御手段、 を備えたものである。
[Means for Solving the Problems] That is, means for achieving the object are as follows: a) learning pattern storage means for storing a set of a learning pattern and a category to which the learning pattern belongs; Adaptive resonance theory (ART1) network execution means for outputting the node number of the resonated output layer, c) Monitoring parameter control means for controlling monitoring parameters of the adaptive resonance theory network execution means, d) The adaptive resonance theory Execution result storage means for storing a combination of a node number and a learning pattern of the output layer resonated by the network execution means, e) output from the adaptive resonance theory network execution means from the learning pattern storage means and the execution result storage means The node number of the resonated output layer and the pattern category are obtained, and then the Category correspondence means for determining the category of the pattern from the node number of the resonated output layer output from the resonance theory network execution means, f) Based on a certain monitoring parameter value ρ, the adaptive resonance theory network execution means performs the learning. Learning control means for giving learning by giving a learning pattern stored in the pattern storage means, g) As a result of the learning, when there is a node associated with a plurality of categories, the node is deleted and the monitoring parameter is set. The control means temporarily sets the value of the monitoring parameter to a large value ρ + Δ (where Δ> 0) so that more detailed identification can be performed, and the learning pattern resonating with the node is searched from the execution result storage means. ,
Re-learning control means for performing re-learning only with these learning patterns, h) Learning with the monitoring parameter value ρ by controlling the above means, and when there are nodes associated with multiple categories The control means is provided for re-learning with the monitoring parameter value ρ + Δ, and for performing the identification process using the original monitoring parameter value ρ after the re-learning.

【0006】[0006]

【作用】この発明によるニューラルネットワークは、パ
ターンの識別処理を行うときの監視パラメータの値は変
えずに、複数のカテゴリーに対応しているノードを削除
し、このノードに共鳴したパターンだけを取り出して、
より大きい値の監視パラメータを用いて再学習させる。
より大きい値の監視パラメータを用いて再学習させるた
め、これらの学習パターンのカテゴリー識別を正しく行
えるようになる。ART1ネットワークは監視パラメー
タρの値を小さくなる方へ変化させても、パターンが共
鳴するノードは変わらないという性質を持つため、再学
習時に用いた監視パラメータによるカテゴリー識別能力
は、もとの監視パラメータによるカテゴリー識別能力に
含まれる。すなわち、再学習時に正しく識別されるなら
ば、同じネットワークでもとの監視パラメータを用いた
とき、正しく識別されることが保証されている。また、
再学習時には複数のカテゴリーに対応するノードと共鳴
した学習パターンだけを使用するため、再学習にかかる
時間は少ない。
In the neural network according to the present invention, the node corresponding to a plurality of categories is deleted without changing the value of the monitoring parameter when performing pattern identification processing, and only the pattern resonating with this node is extracted. ,
Re-learn using a monitoring parameter with a larger value.
Re-learning is performed by using the monitoring parameter having a larger value, so that the category identification of these learning patterns can be correctly performed. The ART1 network has the property that the nodes in which the pattern resonates do not change even if the value of the monitoring parameter ρ is changed to a smaller value. Therefore, the category identification ability by the monitoring parameter used during re-learning is the same as the original monitoring parameter. It is included in the category identification ability by. That is, if it is correctly identified at the time of re-learning, it is guaranteed to be correctly identified when the original monitoring parameters are used in the same network. Also,
Since only learning patterns that resonate with nodes corresponding to a plurality of categories are used during re-learning, the time required for re-learning is short.

【0007】[0007]

【実施例】以下、本発明の実施例を図面に基づいて説明
する。図1は本発明の一実施例の構成図であり、図1に
おいては、1は学習パターン記憶手段、2は従来のノー
ド削除を行っていない場合の概念を示すART1ネット
ワーク実行手段、3は監視パラメータ制御手段、4は実
行結果記憶手段、5はカテゴリー対応手段、6は学習制
御手段、7は再学習制御手段、8は制御手段、9はニュ
ーラルネットワーク全体である。実線の矢印は学習時、
再学習時のデータの流れを示し、点線の矢印は未知デー
タを識別する場合のデータの流れを示す。学習パターン
記憶手段1は学習パターンとその属するカテゴリーの組
を記憶するための手段であり、ART1ネットワーク実
行手段2は学習パターン記憶手段1からの学習パターン
を入力とし、共鳴した出力層のノード番号を出力するた
めの手段、監視パラメータ制御手段3はART1ネット
ワーク実行手段2の監視パラメータを制御するための手
段である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of an embodiment of the present invention. In FIG. 1, 1 is a learning pattern storage means, 2 is an ART1 network execution means showing the concept when the conventional node deletion is not performed, and 3 is a monitor. Parameter control means, 4 is execution result storage means, 5 is category correspondence means, 6 is learning control means, 7 is relearning control means, 8 is control means, and 9 is the entire neural network. The solid arrow indicates when learning
A data flow at the time of re-learning is shown, and a dotted arrow shows a data flow when identifying unknown data. The learning pattern storage means 1 is a means for storing a set of a learning pattern and a category to which the learning pattern belongs, and the ART1 network execution means 2 receives the learning pattern from the learning pattern storage means 1 as an input and outputs the node number of the resonated output layer. The means for outputting and the monitoring parameter control means 3 are means for controlling the monitoring parameters of the ART1 network execution means 2.

【0008】実行結果記憶手段4はART1ネットワー
ク実行手段2の出力する共鳴した出力層のノード番号と
学習パターンの組を記憶するための手段、カテゴリー対
応手段5は学習パターン記憶手段1と実行結果記憶手段
4から,ART1ネットワーク実行手段2の出力する共
鳴した出力層のノード番号とパターンのカテゴリーの対
応を得て、以後、ART1ネットワーク実行手段2の出
力する共鳴した出力層のノード番号からパターンのカテ
ゴリーを決定するための手段、学習制御手段6はある監
視パラメータρのもと、ART1ネットワーク実行手段
2に学習パターン記憶手段1に記憶されている学習パタ
ーンを与えて学習させるための手段、再学習制御手段7
は学習制御手段6による学習の結果、複数のカテゴリー
に対応づけられるノードが存在する場合、そのノードを
削除し、監視パラメータ制御手段3によって一時的に監
視パラメータの値を大きくしてより詳細な識別ができる
ようにし、さらに実行結果記憶手段4からそのノードに
共鳴した学習パターンを検索して、これらの学習パター
ンのみによって再学習を行わせるための手段、制御手段
8は以上の各手段を制御して、監視パラメータの値ρで
の学習、複数のカテゴリーに対応づけられるノードが存
在した場合の監視パラメータの値ρ+Δでの再学習、再
学習終了後、もとの監視パラメータの値ρを用いての識
別処理を行わせるための手段である。
The execution result storage means 4 is a means for storing a set of the node number of the resonated output layer and the learning pattern output from the ART1 network execution means 2, and the category correspondence means 5 is the learning pattern storage means 1 and the execution result storage. From the means 4, the correspondence between the node number of the resonated output layer output from the ART1 network execution means 2 and the category of the pattern is obtained, and thereafter the category of the pattern is derived from the node number of the resonated output layer output from the ART1 network execution means 2. Learning control means 6 is a means for giving learning patterns stored in the learning pattern storage means 1 to the ART1 network execution means 2 for learning under a certain monitoring parameter ρ, and re-learning control. Means 7
As a result of learning by the learning control unit 6, when there is a node associated with a plurality of categories, the node is deleted, and the monitoring parameter control unit 3 temporarily increases the value of the monitoring parameter to make more detailed identification. In addition, the control means 8 controls each of the above means by retrieving a learning pattern that resonates with the node from the execution result storage means 4 and performing relearning only with these learning patterns. Then, learning with the monitoring parameter value ρ, re-learning with the monitoring parameter value ρ + Δ when there are nodes associated with multiple categories, and using the original monitoring parameter value ρ after re-learning Is a means for performing the identification processing of.

【0009】次に、かような構成からなるニューラルネ
ットワークの作用について、図3を参照して説明する。
図3は本発明の一実施例を示すフローチャートである。
学習制御手段6は学習パターン記憶手段1から学習パタ
ーンを取り出し、ART1ネットワーク実行手段2に与
える。ART1ネットワーク実行手段2は学習を行い、
その出力は結果記憶手段4に記憶される。学習制御手段
6は、カテゴリー対応手段5を制御し、学習パターン記
憶手段1と実行結果記憶手段4を比較し、ART1ネッ
トワーク実行手段2の出力する出力層のノード番号とカ
テゴリーの対応を作成させる(図3の10参照)。この
部分はART1の通常の動作である。カテゴリー対応手
段5を調べて再学習が不要なら、この学習パターンに対
するネットワークの学習処理は終了する。再学習が必要
なら、以下の処理を行う(図3の11参照)。再学習の
要不要は、複数のカテゴリーに対応するノードが存在す
るかどうかで判断できる。再学習制御手段7は監視パラ
メータ制御手段3を制御し、監視パラメータρの値をρ
+Δ(ただし、Δ>0)に設定する。ただし、同一のノ
ードが分割されないまま、再びこのステップに現れた場
合は、前回のΔより大きなΔを使用する必要がある(図
3の12参照)。再学習制御手段7はART1ネットワ
ーク実行手段2の出力層から複数のカテゴリーに対応す
るノードを削除する(図3の13参照)。再学習制御手
段7は学習パターン記憶手段1から削除したノードに共
鳴したパターンを取り出し、ART1ネットワーク実行
手段2に与えて、再学習を行わせる(図3の14参
照)。再学習制御手段7は監視パラメータ制御手段3を
制御し、監視パラメータの値をもとの値ρに戻す(図3
の15参照)。ここで、再学習の要不要を判断するステ
ップに戻る。
Next, the operation of the neural network having such a configuration will be described with reference to FIG.
FIG. 3 is a flowchart showing an embodiment of the present invention.
The learning control means 6 takes out the learning pattern from the learning pattern storage means 1 and gives it to the ART1 network execution means 2. ART1 network execution means 2 performs learning,
The output is stored in the result storage means 4. The learning control means 6 controls the category correspondence means 5, compares the learning pattern storage means 1 with the execution result storage means 4, and creates the correspondence between the node number of the output layer output from the ART1 network execution means 2 and the category ( (See 10 in FIG. 3). This part is the normal operation of ART1. If the category correspondence means 5 is checked and relearning is unnecessary, the network learning process for this learning pattern ends. If re-learning is necessary, the following processing is performed (see 11 in FIG. 3). Whether or not re-learning is necessary can be determined by whether or not there are nodes corresponding to a plurality of categories. The re-learning control means 7 controls the monitoring parameter control means 3 to change the value of the monitoring parameter ρ to ρ.
Set to + Δ (where Δ> 0). However, if the same node appears in this step again without being divided, it is necessary to use Δ larger than the previous Δ (see 12 in FIG. 3). The re-learning control means 7 deletes the nodes corresponding to a plurality of categories from the output layer of the ART1 network execution means 2 (see 13 in FIG. 3). The re-learning control means 7 takes out the pattern resonating with the deleted node from the learning pattern storage means 1 and gives it to the ART1 network execution means 2 to re-learn (see 14 in FIG. 3). The re-learning control means 7 controls the monitoring parameter control means 3 to return the value of the monitoring parameter to the original value ρ (FIG. 3).
15). Here, the process returns to the step of determining the necessity of re-learning.

【0010】図2は本発明による再学習の効果を示し、
図4の学習パターンを用い、本発明により再学習を行っ
たときの、入力空間における出力層の各ノードに共鳴す
る範囲を示す概念図であり、図4のCの範囲がカテゴリ
ーAに対応するCAとカテゴリーBに対応するCBに分
割されている。再学習中のCA、CBは図5のA5、B
3とそれぞれ同じノードに共鳴する範囲であるが、監視
パラメータをもとの値に戻しているので、より広くなっ
ている。CAとCBの境界線は図5のA5とB3の境界
線を含んでおり、その範囲で一致する。
FIG. 2 shows the effect of re-learning according to the present invention,
It is a conceptual diagram which shows the range which resonates with each node of the output layer in an input space when re-learning is performed using the learning pattern of FIG. 4, and the range of C of FIG. 4 corresponds to category A. It is divided into CA and CB corresponding to category B. CA and CB during re-learning are A5 and B in FIG.
3 is a range in which each node resonates with the same node, but it is wider because the monitoring parameter is returned to the original value. The boundary line between CA and CB includes the boundary line between A5 and B3 in FIG. 5, and they match in that range.

【0011】[0011]

【発明の効果】以上説明したように本発明によれば、A
RT1ネットワークの教師なし学習能力、汎化能力を損
なうことなく、再学習を行ってカテゴリー識別の能力を
向上させることができる。また、再学習に必要な時間は
少ない。
As described above, according to the present invention, A
It is possible to improve the category identification ability by re-learning without impairing the unsupervised learning ability and generalization ability of the RT1 network. Also, less time is required for re-learning.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は本発明の一実施例を示す構成図である。FIG. 1 is a configuration diagram showing one embodiment of the present invention.

【図2】図2は本発明による再学習の効果を示す概念図
である。
FIG. 2 is a conceptual diagram showing the effect of re-learning according to the present invention.

【図3】図3は本発明の一実施例を示すフローチャート
である。
FIG. 3 is a flowchart showing an embodiment of the present invention.

【図4】図4は出力層の1個のノードに複数のカテゴリ
ーに属するパターンが共鳴したときの入力空間における
出力層の各ノードに共鳴する範囲を示す概念図である。
FIG. 4 is a conceptual diagram showing a range of resonance in each node of the output layer in the input space when a pattern belonging to a plurality of categories resonates in one node of the output layer.

【図5】図5は監視パラメータを大きくして学習しなお
した場合を示す概念図である。
FIG. 5 is a conceptual diagram showing a case where a monitoring parameter is increased and learning is performed again.

【符号の説明】[Explanation of symbols]

1 学習パターン記憶手段 2 ART1ネットワーク実行手段 3 監視パラメータ制御手段 4 実行結果記憶手段 5 カテゴリー対応手段 6 学習制御手段 7 再学習制御手段 8 制御手段 9 ニューラルネットワーク全体 1 Learning Pattern Storage Means 2 ART1 Network Execution Means 3 Monitoring Parameter Control Means 4 Execution Result Storage Means 5 Category Corresponding Means 6 Learning Control Means 7 Relearning Control Means 8 Control Means 9 Overall Neural Network

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】a)学習パターンとその属するカテゴリー
の組を記憶するための学習パターン記憶手段、 b)前記学習パターンを入力とし、共鳴した出力層のノ
ード番号を出力するための適応共鳴理論(ART1)ネ
ットワーク実行手段、 c)前記適応共鳴理論ネットワーク実行手段の監視パラ
メータを制御するための監視パラメータ制御手段、 d)前記適応共鳴理論ネットワーク実行手段の出力する
共鳴した出力層のノード番号と学習パターンの組を記憶
する実行結果記憶手段、 e)前記学習パターン記憶手段と前記実行結果記憶手段
から、前記適応共鳴理論ネットワーク実行手段の出力す
る共鳴した出力層のノード番号とパターンのカテゴリー
の対応を得て、以後、前記適応共鳴理論ネットワーク実
行手段の出力する共鳴した出力層のノード番号からパタ
ーンのカテゴリーを決定するためのカテゴリー対応手
段、 f)ある監視パラメータの値ρのもと、前記適応共鳴理
論ネットワーク実行手段に前記学習パターン記憶手段に
記憶されている学習パターンを与えて学習させるための
学習制御手段、 g)前記学習の結果、複数のカテゴリーに対応づけられ
るノードが存在する場合、そのノードを削除し、前記監
視パラメータ制御手段によって一時的に監視パラメータ
の値を大きな値ρ+Δ(ただし、Δ>0)にしてより詳
細な識別ができるようにし、さらに前記実行結果記憶手
段からそのノードに共鳴した学習パターンを検索して、
これらの学習パターンのみによって再学習を行わせるた
めの再学習制御手段、 h)以上の各手段を制御して、監視パラメータの値ρで
の学習、複数のカテゴリーに対応づけられるノードが存
在した場合の監視パラメータの値ρ+Δでの再学習、再
学習終了後、もとの監視パラメータの値ρを用いての識
別処理を行わせるための制御手段、 から構成されたことを特徴とするニューラルネットワー
ク。
1. A) learning pattern storage means for storing a set of a learning pattern and a category to which the learning pattern belongs, b) an adaptive resonance theory for outputting a node number of a resonated output layer with the learning pattern as an input ( ART 1) network execution means, c) monitoring parameter control means for controlling monitoring parameters of the adaptive resonance theory network execution means, d) node number and learning pattern of the resonated output layer output from the adaptive resonance theory network execution means Execution result storage means for storing a set of e), e) Obtaining the correspondence between the node number of the resonated output layer output from the adaptive resonance theory network execution means and the category of the pattern from the learning pattern storage means and the execution result storage means. Then, the resonance of the output layer output from the adaptive resonance theory network execution means is output. Category corresponding means for determining the category of the pattern from the code number, f) the learning pattern stored in the learning pattern storage means is given to the adaptive resonance theory network execution means under a certain monitoring parameter value ρ. Learning control means for learning by means of: g) As a result of the learning, if there is a node associated with a plurality of categories, the node is deleted and the value of the monitoring parameter is temporarily increased by the monitoring parameter control means. The value ρ + Δ (where Δ> 0) is set to enable more detailed identification, and the learning pattern resonating with the node is searched from the execution result storage means,
Re-learning control means for performing re-learning only with these learning patterns, h) Learning with the monitoring parameter value ρ by controlling the above means, and when there are nodes associated with multiple categories The re-learning with the monitoring parameter value ρ + Δ, and the control means for performing the identification processing using the original monitoring parameter value ρ after the completion of the re-learning.
JP7324086A 1995-11-17 1995-11-17 Neural network Pending JPH09147045A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7324086A JPH09147045A (en) 1995-11-17 1995-11-17 Neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7324086A JPH09147045A (en) 1995-11-17 1995-11-17 Neural network

Publications (1)

Publication Number Publication Date
JPH09147045A true JPH09147045A (en) 1997-06-06

Family

ID=18162003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7324086A Pending JPH09147045A (en) 1995-11-17 1995-11-17 Neural network

Country Status (1)

Country Link
JP (1) JPH09147045A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258649A (en) * 2004-03-10 2005-09-22 Hitachi Ltd Data sorting method and device
JP2008276290A (en) * 2007-04-25 2008-11-13 Sony Corp Data processing apparatus, data processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258649A (en) * 2004-03-10 2005-09-22 Hitachi Ltd Data sorting method and device
JP2008276290A (en) * 2007-04-25 2008-11-13 Sony Corp Data processing apparatus, data processing method, and program

Similar Documents

Publication Publication Date Title
Mullick et al. Adaptive learning-based $ k $-nearest neighbor classifiers with resilience to class imbalance
US11087227B2 (en) Anomaly detection in spatial and temporal memory system
US5014327A (en) Parallel associative memory having improved selection and decision mechanisms for recognizing and sorting relevant patterns
Law et al. An adaptive nearest neighbor classification algorithm for data streams
US5799311A (en) Method and system for generating a decision-tree classifier independent of system memory size
US20030023593A1 (en) Real-time adaptive data mining system and method
Fahy et al. Scarcity of labels in non-stationary data streams: A survey
US5119438A (en) Recognizing apparatus
Do et al. Energy-based anomaly detection for mixed data
CN112836735B (en) Method for processing unbalanced data set by optimized random forest
Do et al. Associative classification with artificial immune system
US20020049720A1 (en) System and method of data mining
CN116318928A (en) Malicious traffic identification method and system based on data enhancement and feature fusion
Kaburlasos et al. Fuzzy lattice neurocomputing (FLN): a novel connectionist scheme for versatile learning and decision making by clustering
Deckert Incremental rule-based learners for handling concept drift: an overview
EP0709800B1 (en) Method for designing classification trees
CN113836806A (en) PHM model construction method, system, storage medium and electronic equipment
JPH09147045A (en) Neural network
Čavojský et al. Comparative Analysis of Feed-Forward and RNN Models for Intrusion Detection in Data Network Security with UNSW-NB15 Dataset
Lin et al. A new density-based scheme for clustering based on genetic algorithm
Venkumar et al. Fractional cell formation in group technology using modified ART1 neural networks
Frolov et al. Quality and efficiency of retrieval for Willshaw-like autoassociative networks. I. Correction
Wu et al. Fragmentary multi-instance classification
Wang et al. A discrete clonal selection algorithm for filter-based local feature selection
Vathana et al. A Survey On Feature Selection Algorithm For High Dimensional Data Using Fuzzy Logic