JPH0769894B2 - Learning method in neural network - Google Patents

Learning method in neural network

Info

Publication number
JPH0769894B2
JPH0769894B2 JP1153249A JP15324989A JPH0769894B2 JP H0769894 B2 JPH0769894 B2 JP H0769894B2 JP 1153249 A JP1153249 A JP 1153249A JP 15324989 A JP15324989 A JP 15324989A JP H0769894 B2 JPH0769894 B2 JP H0769894B2
Authority
JP
Japan
Prior art keywords
learning
neural network
equilibrium state
connection
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1153249A
Other languages
Japanese (ja)
Other versions
JPH0318964A (en
Inventor
和貴 城
Original Assignee
株式会社エイ・ティ・アール視聴覚機構研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール視聴覚機構研究所 filed Critical 株式会社エイ・ティ・アール視聴覚機構研究所
Priority to JP1153249A priority Critical patent/JPH0769894B2/en
Publication of JPH0318964A publication Critical patent/JPH0318964A/en
Publication of JPH0769894B2 publication Critical patent/JPH0769894B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明はニューラルネットにおける学習方法に関し、
特に、パターン認識で必要とされる複数なデータを認識
するのに有効な学習方法に関する。
The present invention relates to a learning method in a neural network,
In particular, it relates to a learning method effective for recognizing a plurality of data required for pattern recognition.

[従来の技術および発明が解決しようとする課題] 従来、多層パーセプトロン型ニューラルネットにおいて
バックプロパゲーション学習則を用いて学習を行なわせ
る場合、パターン認識などの学習させようとするデータ
が複雑なものになるほど学習は困難になる。このため、
特定の学習データを学習できないまま学習が平衡状態に
陥る事態(学習平衡状態)からの脱出が問題になってい
た。
[Problems to be Solved by Conventional Techniques and Inventions] Conventionally, when learning is performed using a backpropagation learning rule in a multilayer perceptron type neural network, data to be learned such as pattern recognition is complicated. Indeed, learning becomes difficult. For this reason,
Escape from the situation where learning falls into an equilibrium state (learning equilibrium state) without learning specific learning data has been a problem.

それゆえに、この発明の主たる目的は、バックプロパゲ
ーション学習則で学習途中のニューラルネットが学習平
衡状態に陥ったとき、迅速にその平衡状態を脱出し、学
習の高速な収束を促すことのできるようなニューラルネ
ットにおける学習方法を提供することである。
Therefore, a main object of the present invention is to allow a neural network in the middle of learning in a back-propagation learning rule to quickly escape from the equilibrium state when the learning net state falls into the learning equilibrium state, and to accelerate the rapid convergence of learning. It is to provide a learning method in a simple neural network.

[課題を解決するための手段] この発明は複数の入力層と複数の出力層とをそれぞれ接
続するコネクションの重みを変えて学習を行なう多層パ
ーセプトロン型ニューラルネットにおける学習方式であ
って、バックポロパゲーション学習則を用いて学習を行
なわせているとき、出力層のうちのいずれかに接続され
るコネクションの重みが小さくなり、対応の出力層が担
当すべき学習データの学習が困難となるような学習平衡
状態に陥ったとき、出力層の接続されているすべてのコ
ネクションの重みをゼロ・クリアした後、学習を継続さ
せるようにしたものである。
[Means for Solving the Problem] The present invention is a learning method in a multi-layer perceptron type neural network that performs learning by changing the weight of the connection connecting each of a plurality of input layers and a plurality of output layers. When learning is performed using the gation learning rule, the weight of the connection connected to one of the output layers becomes small, and it becomes difficult to learn the learning data that the corresponding output layer should be in charge of. When the learning equilibrium state is reached, the weights of all the connections connected to the output layer are cleared to zero, and then the learning is continued.

[作用] この発明にかかるニューラルネットの学習方式は、従来
の学習方式で学習平衡状態に陥った場合に、コネクショ
ンの重みを強制的に変更することにより、学習平衡状態
を迅速に脱出し、学習の高速な収束を促す。
[Operation] In the learning method of the neural network according to the present invention, when the learning equilibrium state is encountered by the conventional learning method, the weight of the connection is forcibly changed to quickly escape the learning equilibrium state and perform learning. Promote fast convergence of.

[発明の実施例] 第1図はこの発明が適用される多層パーセプトロン型ニ
ューラルネットを示す図である。第1図を参照して、ニ
ューラルネットは入力層2と中間層3と出力層4とを含
み、それぞれはコネクション1によって接続されてい
る。入力層2には学習させるデータが入力され、バック
プロパゲーション学習則によりコネクション1の重みを
変えて学習が行なわれる。
[Embodiment of the Invention] FIG. 1 is a diagram showing a multilayer perceptron type neural network to which the present invention is applied. Referring to FIG. 1, the neural network includes an input layer 2, an intermediate layer 3 and an output layer 4, which are connected by a connection 1. Data to be learned is input to the input layer 2, and learning is performed by changing the weight of the connection 1 according to the back propagation learning rule.

第2図はバックプロパゲーション学習則で学習を行なわ
せた結果、学習平衡状態に陥り、特定の学習データを認
識できない状態を示し、第3図はこの発明の一実施例に
よって学習平衡状態にあったニューラルネットの出力層
に接続されているコネクションをゼロ・クリアした状態
を示す図であり、第4図は学習平衡状態を脱出したこと
を示す図である。
FIG. 2 shows a state in which a learning equilibrium state is caused as a result of learning by the back-propagation learning rule, and specific learning data cannot be recognized. FIG. 3 shows a learning equilibrium state according to an embodiment of the present invention. FIG. 4 is a diagram showing a state in which the connections connected to the output layer of the neural network are zero-cleared, and FIG. 4 is a diagram showing that the learning equilibrium state is exited.

バックプロパゲーション学習則によりコレクション1の
重みを変えていく学習を行なった結果、第2図に示すよ
うに、出力層4の特定のユニットに接続されているコネ
クションの重みが非常に小さくなり、その結果、その出
力ユニットが担当すべき学習データが学習困難となるよ
うな学習平衡状態に陥ったとする。第2図に示した例で
は、出力層4の特定ユニット5に接続するコネクタの重
みがすべて小さすぎるため、ユニット5が発火不可能の
状態に陥っているような学習平衡状態の例である。この
とき、コネクション6の線の太さはコネクションの重み
を表わし、太いコネクションほど接続するユニットとの
関係が深いことを示している。
As a result of performing the learning in which the weight of the collection 1 is changed according to the back propagation learning rule, the weight of the connection connected to a specific unit of the output layer 4 becomes very small as shown in FIG. As a result, it is assumed that the learning equilibrium state in which the learning data to be handled by the output unit becomes difficult to learn. The example shown in FIG. 2 is an example of a learning equilibrium state in which the weights of the connectors connected to the specific unit 5 of the output layer 4 are all too small, so that the unit 5 is in a state where it cannot fire. At this time, the thickness of the line of the connection 6 represents the weight of the connection, and the thicker the connection, the deeper the relationship with the unit to be connected.

この状態でコネクション6の出力層4に接続されている
部分の重みを強制的にゼロにする(ゼロ・クリア)。第
3図は、その結果、出力層4に接続されているコネクシ
ョン7の重みがすべてゼロになっている様子を表わして
いる。このとき、コネクション1は入力層2と中間層3
だけの間でゼロでない重みを持ち、入力データの基本特
徴を抽出して、中間層3の各ユニットに分配するような
機能を有している。
In this state, the weight of the portion of the connection 6 connected to the output layer 4 is forcibly set to zero (zero clear). As a result, FIG. 3 shows that the weights of the connections 7 connected to the output layer 4 are all zero. At this time, the connection 1 is the input layer 2 and the intermediate layer 3
Has a non-zero weight, and has a function of extracting the basic feature of the input data and distributing it to each unit of the intermediate layer 3.

上述のごとくゼロ・クリアした後、すぐにバックプロパ
ゲーション学習則を継続する。このとき、一時的にニュ
ーラルネットの認識率は低下するが、数十回程度の学習
によりゼロ・クリア以前の状態まで回復し、そのまま学
習平衡状態を脱出する。そして、第4図に示すコネクシ
ョン8のように出力層4のすべてのユニットに適当なコ
ネクションの重みが割当てられる。
After zero-clearing as described above, the backpropagation learning rule continues immediately. At this time, the recognition rate of the neural network temporarily decreases, but the learning equilibrium state is left as it is by recovering to the state before the zero clear by the learning of several tens of times. Then, like the connection 8 shown in FIG. 4, all the units in the output layer 4 are assigned appropriate connection weights.

従来の方法では、第2図に示したような学習平衡状態に
陥った場合、数百,数千回の学習を繰返して学習平衡状
態から脱出を行なわなければならなかった。この発明で
は、数十回の学習で学習平衡状態からの脱出を行なうこ
とができる。
In the conventional method, when the learning equilibrium state as shown in FIG. 2 is encountered, the learning equilibrium state must be escaped by repeating hundreds or thousands of times of learning. In the present invention, it is possible to escape from the learning equilibrium state by learning several tens of times.

[発明の効果] 以上のように、この発明によれば、多層パーセプトロン
型ニューラルネットをバックプロパゲーション学習側で
学習させ、学習平衡状態に陥ってしまい、特定の学習デ
ータが学習できなくなった場合、出力層につながるコネ
クションの重みをゼロ・クリアするという簡単な操作だ
けで学習平衡状態を脱出することができ、ニューラルネ
ットの学習における高速な収束を行なわせることができ
る。
[Effects of the Invention] As described above, according to the present invention, when a multilayer perceptron type neural network is trained on the back propagation learning side and falls into a learning equilibrium state, and specific learning data cannot be learned, The learning equilibrium state can be escaped by a simple operation of clearing the weight of the connection connected to the output layer to zero, and fast convergence in learning of the neural network can be performed.

【図面の簡単な説明】[Brief description of drawings]

第1図は多層パーセプトロン型ニューラルネットの一例
として3層のニューラルネットを示す図である。第2図
は第1図に示したニューラルネットをバックプロパゲー
ション学習則で学習を行なわせた結果学習平衡状態に陥
り、特定の学習データを認識できない状態を示す図であ
る。第3図はこの発明の一実施例により、学習平衡状態
にあったニューラルネットの出力層に接続されているコ
ネクションをゼロ・クリアした状態を示す図である。第
4図は学習平衡状態を脱出したことを示す図である。 図において、1はコネクション、2は入力層、3は中間
層、4は出力層、5は学習平衡状態にあるニューラルネ
ットの出力層、6は学習平衡状態にあるニューラルネッ
トのコネクションの重み、7はこの発明を適用した直後
のコネクションの重み、8は学習平衡状態を脱出したニ
ューラルネットのコネクションの重みを示す。
FIG. 1 is a diagram showing a three-layer neural network as an example of the multilayer perceptron type neural network. FIG. 2 is a diagram showing a state in which specific learning data cannot be recognized because the neural network shown in FIG. 1 has fallen into a learning equilibrium state as a result of learning by the back propagation learning rule. FIG. 3 is a diagram showing a state in which the connections connected to the output layer of the neural network in the learning equilibrium state are zero-cleared according to the embodiment of the present invention. FIG. 4 is a diagram showing that the learning equilibrium state is exited. In the figure, 1 is a connection, 2 is an input layer, 3 is an intermediate layer, 4 is an output layer, 5 is an output layer of a neural network in a learning equilibrium state, 6 is a connection weight of the neural network in a learning equilibrium state, 7 Indicates the weight of the connection immediately after the application of the present invention, and 8 indicates the weight of the connection of the neural network that has left the learning equilibrium state.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】複数の入力層と複数の出力層とをそれぞれ
接続するコネクションの重みを変えて学習を行なう多層
パーセプトロン型ニューラルネットにおける学習方法に
おいて、 前記バックプロパゲーション学習則を用いて学習を行な
わせているとき、前記出力層のうちのいずれかに接続さ
れているコネクションの重みが小さくなり、対応の出力
層が担当すべき学習データの学習が困難となるような学
習平衡状態に陥ったとき、前記出力層に接続されている
すべてのコネクションの重みをゼロ・クリアした後、学
習を継続させるようにしたことを特徴とする、ニューラ
ルネットにおける学習方法。
1. A learning method in a multi-layer perceptron type neural network for performing learning by changing connection weights respectively connecting a plurality of input layers and a plurality of output layers, wherein learning is performed using the back propagation learning rule. In this case, when the weight of the connection connected to any of the output layers becomes small and the learning data to be handled by the corresponding output layer becomes difficult to learn, the learning equilibrium state occurs. A learning method in a neural network, wherein after the weights of all the connections connected to the output layer are zero-cleared, the learning is continued.
JP1153249A 1989-06-15 1989-06-15 Learning method in neural network Expired - Fee Related JPH0769894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1153249A JPH0769894B2 (en) 1989-06-15 1989-06-15 Learning method in neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1153249A JPH0769894B2 (en) 1989-06-15 1989-06-15 Learning method in neural network

Publications (2)

Publication Number Publication Date
JPH0318964A JPH0318964A (en) 1991-01-28
JPH0769894B2 true JPH0769894B2 (en) 1995-07-31

Family

ID=15558328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1153249A Expired - Fee Related JPH0769894B2 (en) 1989-06-15 1989-06-15 Learning method in neural network

Country Status (1)

Country Link
JP (1) JPH0769894B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04262453A (en) * 1991-02-15 1992-09-17 Hitachi Ltd Neurolearning control method and equipment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01271888A (en) * 1988-04-22 1989-10-30 Nec Corp Learning method for pattern recognition

Also Published As

Publication number Publication date
JPH0318964A (en) 1991-01-28

Similar Documents

Publication Publication Date Title
US5704016A (en) Temporal learning neural network
Mukherjee et al. Application of artificial neural networks in structural design expert systems
KR20160112186A (en) Method and apparatus for event-based learning in neural network
JPH05502531A (en) neural network
JPH0769894B2 (en) Learning method in neural network
Zhao et al. Auxiliary Fault Location on Commercial Equipment Based on Supervised Machine Learning
CN114548290A (en) Synaptic convolutional impulse neural network for event stream classification
US5157275A (en) Circuit employing logical gates for calculating activation function derivatives on stochastically-encoded signals
Wan et al. Introducing cost-sensitive neural networks
JPH11338844A (en) Ignition number control type neural circuit device
JPH06231106A (en) Method and device for learning recurrent type neural network
JPH0281160A (en) Signal processor
JP3262340B2 (en) Information processing device
EP0395112B1 (en) Neural network
Amin et al. Dynamically pruning output weights in an expanding multilayer perceptron neural network
Tetko et al. Simple heuristic methods for input parameters' estimation in neural networks
JPH0149985B2 (en)
JP3082530B2 (en) Neural network circuit
JPH0734227B2 (en) Hierarchical information processing circuit
Duong et al. Cascade error projection: A learning algorithm for hardware implementation
JP2000035955A (en) Constitution method for hierarchical neural network
Suliman et al. Neural networks applied to reliability analysis of fault-tolerant hardware
CN114626467A (en) Feature cross elevator trapping time series prediction model construction method based on deep learning, obtained model and prediction method
JPH0682354B2 (en) Learning method in neural network
JPH03218559A (en) Stochastic learning system for neural network

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees