JPH03240827A - Learning method for neural network - Google Patents

Learning method for neural network

Info

Publication number
JPH03240827A
JPH03240827A JP2037777A JP3777790A JPH03240827A JP H03240827 A JPH03240827 A JP H03240827A JP 2037777 A JP2037777 A JP 2037777A JP 3777790 A JP3777790 A JP 3777790A JP H03240827 A JPH03240827 A JP H03240827A
Authority
JP
Japan
Prior art keywords
learning
value
neural network
pattern
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2037777A
Other languages
Japanese (ja)
Inventor
Yasushi Ishizuka
康司 石塚
Fumio Togawa
外川 文雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2037777A priority Critical patent/JPH03240827A/en
Publication of JPH03240827A publication Critical patent/JPH03240827A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To prevent the excessive execution of the learning for a learning pattern by setting a weight changing constant for connection of a neural network which is used for the learning applying an error or stopping the learning of the learning pattern. CONSTITUTION:A neural network identifies the character images consisting of numeric characters 0 - 9. The comparison value is obtained between the output data obtained when a learning pattern is inputted to the neural network and the teacher data showing the category which includes the learning pattern. Based on the comparison value, a weight changing constant is set for connection of the neural network used for learning the learning pattern or the learning of the learning pattern is stopped.

Description

【発明の詳細な説明】 〈産業上の利用分野〉 この発明は、誤差を用いた学習によるニューラル・ネッ
トワークの学習方法に関する。
DETAILED DESCRIPTION OF THE INVENTION <Industrial Application Field> The present invention relates to a neural network learning method by learning using errors.

〈従来の技術〉 最近、誤差を用いた学習、例えば誤差逆伝播学習によっ
て学習する多層パーセブトロン型ニューラル・ネットワ
ークが音声認識の分野や文字認識の分野で(り用される
ようになってきた。
<Prior Art> Recently, multilayer persebutron-type neural networks that learn using errors, such as error backpropagation learning, have come to be used in the fields of speech recognition and character recognition.

従来、これらの分野においてよく用いられているニュー
ラル・ネットワークは3層パーセブトロン型ニューラル
・ネットワークである。この3層バーセブトロン型ニュ
ーラル・ネットワークは、第1図に示すように入力層1
.中間層2および出力層3の3層から構成されている。
Conventionally, a neural network commonly used in these fields is a three-layer persebutron type neural network. This three-layer bersebutron type neural network has an input layer 1 as shown in Figure 1.
.. It is composed of three layers: an intermediate layer 2 and an output layer 3.

上記入力層lには複数のノード5.5. を有し、中間
層2には複数のノーF 6 、6、−を有し、出力層3
には複数のノート7、.8を有する。そして、入力層l
の各ノート5.5. と中間層2の全ノード6.6. 
とはノナプス結合によって接続され、同様に中間層2の
各ノート6.6.−・と出力層3の全ノート7、.8と
はンナブス結合によって接続されてネットワークを構成
している。上記構成の3層パーセブトロノ型ニューラル
・ネットワークにおいて、入力層1の各ノード5.5゜
・に入力データが入力されると、このネットワークの構
造に応じた出力データを出力層3の各ノード7、・、8
から出力するのである。
The input layer l has a plurality of nodes 5.5. , the intermediate layer 2 has a plurality of no F 6 , 6, -, and the output layer 3
has multiple notes 7, . It has 8. And the input layer l
Each note of 5.5. and all nodes of middle tier 2 6.6.
are connected by nonapse connections, and similarly each note 6.6 . - and all notes 7 of output layer 3, . 8 and is connected to each other through nnabus connections to form a network. In the three-layer persebutronic neural network configured as described above, when input data is input to each node 5.5° of the input layer 1, output data corresponding to the structure of this network is sent to each node 7 of the output layer 3.・、8
It outputs from.

上記中間層2および出力層3を構成する各ノートは、他
のノードからの入力データを受は取る部分と、入力され
たデータを所定の規Illて変換する部分と、変換した
結果を出力する部分とかみ成る。
Each node that constitutes the intermediate layer 2 and output layer 3 has a part that receives and receives input data from other nodes, a part that converts the input data according to predetermined rules, and a part that outputs the converted results. Consists of parts.

そして、他のノートとのノナプス結合部には結合の強さ
を表す重みか付加されている。この重みは、ノート間の
結合の強さを表すものであり、この重みの値を変えると
ネットワークの構造か変わり、同し人力データに対して
異なる出力データを出力するようになるのである。上記
誤差逆伝播学習とは、あるカテゴリに属する学習パター
ンを表す学習データを入力層Iに入力した際に、出力層
3がら出力されるデータがこの学習パターンが属するカ
テゴリを表すような出力データになるように、各ノート
間の結合の重みの値を設定することである。したがって
、誤差逆伝播学習によって学習されたニューラル・ネッ
トワークは、入力層lに音声信号や文字画像の特徴パタ
ーンを表すデータが人力されると、その特徴パターンか
属するカテゴリを識別して識別結果を表すデータを出力
するのである。
A weight representing the strength of the connection is added to the nonapse connection with other notes. This weight represents the strength of the connection between notes, and changing the value of this weight changes the structure of the network, allowing it to output different output data for the same human data. The above-mentioned error backpropagation learning means that when learning data representing a learning pattern belonging to a certain category is input to the input layer I, the data output from the output layer 3 becomes output data representing the category to which this learning pattern belongs. The key is to set the weight of the connection between each note so that Therefore, when a neural network trained by error backpropagation learning is inputted with data representing a feature pattern of an audio signal or character image in the input layer l, it identifies the category to which the feature pattern belongs and displays the identification result. It outputs data.

上記誤差逆伝播学習は次のようにして実施される。入力
層lの各ノード5.5.・に学習パターンを表す学習デ
ータを入力する。さらに、出力層3の各ノード7、−.
8に上記学習パターンか属する力斗ゴリを表す教師デー
タを提示する。そうすると、中間層2および出力層3の
各ノードは、学習データに梧つく実際の出力データとそ
の学習データに対する望ましい出力データ(オなhら、
教師データ)の値との誤差を極小化するように、ノナプ
ス結合の重みを変化させるのである。このような学習過
程を種々の学習パターンにおける学習データと教師デー
タとのセットに対して繰り返し実行するのである。
The above error backpropagation learning is performed as follows. Each node of input layer l 5.5. - Input the learning data representing the learning pattern. Furthermore, each node 7 of the output layer 3, -.
In step 8, teacher data representing the Rikitogori to which the above learning pattern belongs is presented. Then, each node of the intermediate layer 2 and the output layer 3 has the actual output data that corresponds to the training data and the desired output data (such as
The weights of the nonapse connections are changed to minimize the error with the value of the training data). Such a learning process is repeatedly performed on sets of learning data and teacher data in various learning patterns.

第2図は多層パーセブトロン型ニューラル・ネットワー
クの誤差逆伝播学習による学習時におけるノードの出力
値およびンナブス結合の重みを示す。
FIG. 2 shows the output values of the nodes and the weights of the Nnabus connections during learning by error backpropagation learning of a multilayer persebutron type neural network.

第2図において、中間層におけるノードに付加された結
合の重みWは、学習データに基づく下段のノートからの
入力値Xと出力データOおよび教師データTに基づく学
習出力値δとによって変化する。その際における学習過
程毎のノナプス結合の重み賀の変化間は次のようなもの
である。
In FIG. 2, the connection weight W added to the node in the intermediate layer changes depending on the input value X from the lower note based on the learning data, the learning output value δ based on the output data O and the teacher data T. At that time, the changes in the weights of nonapse connections for each learning process are as follows.

α・△−N、N−1(n)・ (+) lコ ここで、 △−、N−1(n。1) 3 (n−1)回目の学習におけるN段 1番目のノートと(Ni)段j番目 のノードとの間における結合 の重みの変化量 △−・”(n): n回目の学習におけるN段i番1j 目のノードと(N−1)段j番目の ノードとの間における結合の 重みの変化量 δ8.N段1番目のノードの学習出力 値 xN−1・(N−1)段j番目のノートの出力コ 値 η:学習定数(例えばη−025) α、安定化定数(例えばα−0,9) すなわち、(n+1)回目の学習における重みの変化量
へw(n・1)は、(n−1)回目の学習における下段
のノートからの当該ノートへの入力値Xと当該ノートか
ら上記下段のノート−・の学習出力値δとの債の値の学
習定数η倍の値を、n回目の学習における市み、)変化
量Δm(n)のα倍の値に加算しLも、)である。した
か−て、n回目の学習における出力層3から出力されろ
出力データOと対応する教師データTとの誤差の値に基
づく学習出力値δの値か小さくなると、(n−1)回目
の学習時における重みの値Wの変化量△1が小さくなり
、学習は収束に向かうのである。
α・△−N, N−1(n)・(+) l Here, △−, N−1(n.1) 3 The first note of stage N in the (n−1)th study and ( Ni) Amount of change in connection weight between the j-th node of the stage and the node of the i-th node of the N-th stage and the j-th node of the (N-1) stage in the n-th learning Amount of change in connection weight between δ8.Learning output value of the 1st node in the Nth stage , a stabilizing constant (e.g. α-0,9) In other words, the amount of change in weight in the (n+1)th learning w(n・1) is the weight change amount from the lower note in the (n-1)th learning. The learning constant η times the value of the bond value between the input value L, which is added to the value multiplied by α, is also ).Thus, the learning output value is based on the error value between the output data O output from the output layer 3 in the n-th learning and the corresponding teacher data T. When the value of δ becomes smaller, the amount of change Δ1 in the weight value W during the (n-1)th learning becomes smaller, and the learning tends to converge.

上述のような誤差逆伝播学習の終了は次のようにして行
う。すなわち、出力層3における各ノード7、・・・、
8からの出力データ0と対応するノードに入力される教
師データTとの誤差の二乗和Eを計算する。
The error backpropagation learning described above is completed as follows. That is, each node 7 in the output layer 3,...
The sum of squares E of the errors between the output data 0 from 8 and the teacher data T input to the corresponding node is calculated.

二こで、OQ:出力層3における0番目のノードの出力
値 TQ:出力層3における4番目のノードに対する教師デ
ータの要素値 そして、総ての学習パターンに関する誤差の二乗和Eの
値の合計値(通常は誤差の二乗和を用いる)か所定の閾
値上り小さくなれば、この誤差逆伝播学習は収束したと
判断して誤差逆伝播学習を終了させるのである。
Here, OQ: the output value of the 0th node in the output layer 3 TQ: the element value of the teacher data for the 4th node in the output layer 3, and the sum of the values of the sum of squares E of errors for all learning patterns. When the value (usually using the sum of squared errors) becomes smaller than a predetermined threshold, it is determined that the error backpropagation learning has converged, and the error backpropagation learning is terminated.

〈発明が解決しようとする課題〉 上述のように、3層パーセプトロン型ニューラル・ネッ
トワークにおいては、総ての学習パターンに関ケる誤差
の二乗和Eの値の合計値が所定の閾値以下になるまで、
総ての学習パターンについて一定値の学凹定散ηを用い
て学習を継続するので次のような問題がある。
<Problem to be solved by the invention> As mentioned above, in a three-layer perceptron neural network, the total value of the sum of squares E of errors related to all learning patterns is less than or equal to a predetermined threshold. to,
Since learning is continued using a constant value of the constant value η for all learning patterns, the following problem arises.

すなわち、学習進行判断の尺度として用いる出力層3の
出力データと教師データとの誤差の値が小さくなるよう
に学習されfこにも拘わらず、その学習済みのニューラ
ル・不ブトワークによって識別対象となる新しい入カバ
ターンを正しく識別できない場合かめる。このよう戸問
題は、総ての学習パターンに関する誤差の二乗和Eの値
の合計値が所定の閾値以下にならない場合に、更に総て
の学習パターンに関する学習を続行するために発生する
のである。つまり、既に学習が収束している5る特定、
)学習パターンに関して更に必要以上に学習5れる場合
か生ずるのである。そのような場合には、学習定数ηの
値か所定値に設定されたままでめるl二め、本来学習す
べきカテゴリ間の差異の識別に関する学習は終了してい
るにら拘わらず更に同し進度で学習が進むのである。そ
うして、学習パターンに共通に見られる特定部分を必要
以上に学習する結果1.識別時において本来同一カテゴ
リに識別されるべき入カバターンが異なるカテゴリであ
ると識別されてしまうのである。その結果、学習パター
ン、に対する出力データと教師データとの誤差は小さく
なっても、入カバターンの識別能力は高くはならないの
である。
In other words, despite the fact that the error value between the output data of the output layer 3 and the teacher data, which are used as a measure of learning progress judgment, is small, it becomes a target for identification due to the learned neural and virtual work. If the new input cover pattern cannot be correctly identified, please try again. This problem occurs because learning for all learning patterns is continued when the sum of the squared sums E of errors for all learning patterns does not become equal to or less than a predetermined threshold. In other words, if the learning has already converged,
) There may be cases where the learning pattern is learned more than necessary. In such a case, the value of the learning constant η may remain set at a predetermined value. Second, even though the learning for identifying differences between categories that should have been learned has already been completed, Learning progresses at the rate of progress. As a result, the specific parts that are commonly seen in the learning pattern are learned more than necessary.1. At the time of identification, input patterns that should originally be identified in the same category end up being identified as being in different categories. As a result, even if the error between the output data and the teacher data for the learning pattern becomes small, the discrimination ability of the input pattern does not improve.

また、上述のように、総ての学習パターンに関する誤差
の二乗和Eの値の合計値が所定の閾値以下になるまで全
学習パターンを一様に学習するので、学習中に局所最適
解に陥る可能性が高く、旦局所最適解に陥るとその状態
から抜は出せない場合が多いという問題もある。
In addition, as mentioned above, all learning patterns are uniformly learned until the sum of the squared sums E of errors related to all learning patterns becomes equal to or less than a predetermined threshold, so it is possible to fall into a locally optimal solution during learning. There is also the problem that once a local optimal solution is reached, it is often impossible to get out of that state.

さらに、総ての学習パターンに関する誤差の二乗和Eの
値の合計値が所定の閾値以下になるまで全学習パターン
に対して学習をおこなうため、学習に時間が掛かるとい
う問題もある。
Furthermore, since learning is performed on all learning patterns until the total value of the sum of squares E of errors regarding all learning patterns becomes equal to or less than a predetermined threshold, there is also the problem that learning takes time.

そこで、この発明の目的は、特定の学習パターンが過剰
に学習されることを未然に防止して、入カバターンの識
別能力が高く、局所最適解からの脱出が容易で、収束ま
ての学習回数が少なくて短時間に学習を終了できるニュ
ーラル・ネットワークの学習方法を提供することにある
Therefore, the purpose of the present invention is to prevent a specific learning pattern from being over-trained, to have a high ability to identify input patterns, to easily escape from a locally optimal solution, and to reduce the number of learning times until convergence. An object of the present invention is to provide a learning method for a neural network that can complete learning in a short time with fewer errors.

く課題を解決するための手段〉 上記目的を達成するため、第1の発明は、誤差を用いた
学習によるニューラル・ネットワークの学習方法であっ
て、上記ニューラル・ネットワークに学習パターンを入
力した際の出力データと上記学習パターンか属するカテ
ゴリを表す教師データとの比較値を求め、上記比較値に
基づいて、上記学習パターンに係る学習の際に用いる上
記ニューラル・ネットワークの結合の重みの変化定数の
設定、あるいは、上記学習パターンに係る学習の停止を
行うことを特徴としている。
Means for Solving the Problems> In order to achieve the above object, a first invention is a method for learning a neural network by learning using errors, which provides a method for learning a neural network by learning a learning pattern into the neural network. A comparison value between the output data and training data representing the category to which the learning pattern belongs is obtained, and based on the comparison value, a change constant of the connection weight of the neural network used in learning regarding the learning pattern is set. Alternatively, the learning according to the learning pattern described above is stopped.

まlこ、第2の発明は、誤差を用いた学習によるニュー
ラル・ネットワークの学習方法であって、上記ニューラ
ル・ネットワークに学習パターンを入力しfこ際におけ
ろ出力データの各要素値を、12t、上記出力データの
要素値のうち、上記学習バタンか属するカテゴリを表す
要素値とその他の要素値の最大値との比を算出し、上記
比の値に基づいて、上記学習パターンに係る学習の際に
用いる上記ニューラル・ネットワークの結合の重みの変
化定数の設定、あるいは、上記学習パターンに係る学習
の停止を行うことを特徴としている。
The second invention is a learning method for a neural network by learning using errors, in which a learning pattern is input to the neural network, and each element value of the output data is 12t, among the element values of the output data, calculate the ratio between the element value representing the category to which the learning button belongs and the maximum value of the other element values, and based on the value of the ratio, perform learning related to the learning pattern. The present invention is characterized by setting a change constant of the connection weight of the neural network used in the above-mentioned case, or by stopping learning related to the above-mentioned learning pattern.

また、第3の発明は、誤差を用いた学習によるニューラ
ル・ネットワークの学習方法であって、上記ニューラル
・ネットワークに学習パターンを入力した際の出力デー
タと上記学習パターンか属するカテゴリを表す教師デー
タとの比較値を求め、上記比較値における同一カテゴリ
毎の平均値を求め、上記比較値の同一カテゴリ毎の平均
値に基づいて、上記同一カテゴリに属する学習パターン
に係る学習の際に用いる上記ニューラル・ネットワーク
の結合の重みの変化定数の設定、あるいは、当該学習パ
ターンに係る学習の停止を行うことを特徴としている。
Further, a third invention is a learning method for a neural network by learning using errors, which includes output data when a learning pattern is input to the neural network, and training data representing a category to which the learning pattern belongs. , calculate the average value for each same category in the above comparison values, and calculate the above neural neural It is characterized by setting a change constant for the weight of network connections or stopping learning related to the learning pattern.

〈実施例〉 以下、この発明を図示の実施例により詳細に説明する。<Example> Hereinafter, the present invention will be explained in detail with reference to illustrated embodiments.

第1図はこの発明に係る3層パーセプトロン型ニューラ
ル・ネットワークの概略構成図であり、このニューラル
・ネットワークの構造は上述の通りである。上記ニュー
ラル・ネットワークは、数字“0°〜“9”から成る文
字画像を識別するニューラル・ネットワークであり、入
力層lの各ノード5.5.・・には文字画像または既知
の手法で抽出された画像特徴量のパターンの要素値が入
力される。
FIG. 1 is a schematic diagram of a three-layer perceptron type neural network according to the present invention, and the structure of this neural network is as described above. The above neural network is a neural network that identifies character images consisting of the numbers "0° to "9", and each node 5.5 of the input layer l has a character image or a character image extracted by a known method. The element values of the image feature pattern are input.

したがって、入力層lのノード数は入力される文字画像
または画像特徴量のパターンの次元数に応じて設定すれ
ばよい。出力層3のノード7、・・、8は10個設けら
れて夫々“0“〜“9”の数字に割り付けられる。中間
層29ノード数は静的あるいは動的に任意に設定する。
Therefore, the number of nodes in the input layer l may be set according to the number of dimensions of the pattern of the input character image or image feature amount. Ten nodes 7, . . . , 8 of the output layer 3 are provided and assigned to numbers "0" to "9", respectively. The number of nodes in the middle layer 29 is arbitrarily set statically or dynamically.

以下、第1図に示す3層パーセプトロン型ニューラル・
ネットワークに係るこの発明の学習方法について、詳細
に述べる。
Below, we will discuss the three-layer perceptron-type neural system shown in Figure 1.
The learning method of the present invention relating to networks will be described in detail.

二の発明は、中間@2および出力、13の各ノードにお
いて、(1)式によって結合の重みWの変化量△★を算
出する際に用いる学習定数ηの値を学習の進行状況に応
して適宜に設定することによって、識別能力を高める学
習を効率良く行うものである。
The second invention is to adjust the value of the learning constant η used when calculating the amount of change △★ of the connection weight W using equation (1) at each intermediate @2 and output node 13 according to the progress of learning. By setting the information appropriately, learning to improve the discrimination ability can be performed efficiently.

〔実施例1〕 実施例1におけるニューラル・ネットワークの学習方法
は、出力層3からの出力データと教師データとの誤差の
値に応じて学習の進行を制御する方法である。
[Example 1] The learning method of the neural network in Example 1 is a method of controlling the progress of learning according to the error value between the output data from the output layer 3 and the teacher data.

実施例1a 本実施例においては、ある学習パターンに関する学習が
収束した場合には、その学習パターンに関する学習を終
了するのである。
Embodiment 1a In this embodiment, when learning for a certain learning pattern converges, learning for that learning pattern is terminated.

第1図に示すニューラル・ネットワークの入力11の各
ノード5.5.−に、属しているカテゴリ(“0°〜“
9”)か既知の文字画像の特徴パターンか学習パターン
として入力される。そうすると、中間層2および出力層
3の各ノードは(2)式に従って算出される値Xを出力
する。
Each node 5.5 of the input 11 of the neural network shown in FIG. −, the category to which it belongs (“0°~“
9"), a known character image characteristic pattern, or a learning pattern. Then, each node of the intermediate layer 2 and output layer 3 outputs a value X calculated according to equation (2).

ここで、い:N段1番目のノートの出力値(出力層のノ
ードの場合には出力値OQ に対応) fl・i番目のノードにおける出力関数(例えば、ング
モイド関数) u: N段i番目のノードの内部状態 その結果、出力層3の各ノード7、・・・、8からは出
力値0.、(1≦Q≦L)力咄力される。
Here, i: Output value of the first note in the N stage (corresponds to the output value OQ in the case of a node in the output layer) fl・Output function at the i-th node (for example, a ngmoid function) u: the i-th node in the N stage As a result, each node 7, . . . , 8 of the output layer 3 outputs an output value of 0. , (1≦Q≦L) is forced.

一方、出力層3の各ノード7、・・、8には、学習パタ
ーンが属しているカテゴリに割り付けられたノードに“
ピを与えると共に他のノードに“0°を与える教師デー
タTを入力して、誤差逆伝播学習が実施される。
On the other hand, each node 7,..., 8 of the output layer 3 has a "
Error backpropagation learning is performed by inputting teacher data T that gives "0°" to other nodes as well as "0°" to other nodes.

本実施例においては、その際に、上記出力データ0とそ
れに対応する教師データTとの比較値である誤差の二乗
和Eを(3)式によって算出する。
In this embodiment, at this time, the sum of squares of errors E, which is a comparison value between the output data 0 and the corresponding teacher data T, is calculated using equation (3).

そして、この誤差の二乗和Eの値か閾値nよj)小さけ
れば、その学習パター7に対する学習を終了オろように
するのである。
If the value of the sum of squares E of this error is smaller than the threshold value n, then the learning for that learning pattern 7 is terminated.

学習を終了させる方法としては種々あるが、例えば学習
定数ηの値を“0゛に設定すればよい。このように、学
習定数ηの値を“Ooに設定することによって(1)式
における右辺の項がσ・△w(n)の項のみとなり、安
定化定数α(〈1)の作用によって△v(n+1)は“
0”に向かうのである。その際に、α・△w(n)の項
に基つく学習が短期間だけ続行される。しかしながら、
α・△w(n)の項は前回までの学習の継続であるから
、この項に基づく学習が短期間継続されても学習の方向
が大きくずれることはないのである。
There are various ways to end the learning, but for example, the value of the learning constant η may be set to "0". In this way, by setting the value of the learning constant η to "Oo", the right-hand side of equation (1) becomes only the term σ・△w(n), and due to the action of the stabilizing constant α(<1), △v(n+1) becomes “
0". At that time, learning based on the term α・△w(n) continues for a short period of time. However,
Since the term α·Δw(n) is a continuation of the previous learning, even if learning based on this term is continued for a short period of time, the direction of learning will not deviate significantly.

こうすることによって、早く学習が収束した学習パター
ンに関する学習を速やかに終了して、過剰な学習を防止
できるのである。
By doing so, it is possible to promptly terminate learning for learning patterns for which learning has converged quickly, and to prevent excessive learning.

第3図は本実施例におけるニューラル・ネットワークの
学習における一つの学習サンプルに対する一回の学習手
順のフローチャートである。以下、第3図に従って、本
実施例における学習手順を説明する。
FIG. 3 is a flowchart of one learning procedure for one learning sample in neural network learning in this embodiment. The learning procedure in this embodiment will be described below with reference to FIG.

ステップS1で、X番目の学習パターンの学習データが
入力層!の3ノード5.5、・・・に入力される。
In step S1, the learning data of the Xth learning pattern is the input layer! are input to three nodes 5.5, . . .

ステップS2で、入力層lに入力されfこ学習データに
基づいて、中間層2の各ノード6.6.・および出力層
3の各ノード7゜・・、8における出力値が(2)式に
よって算出される。
In step S2, each node 6.6 . . . . and the output value at each node 7° . . . , 8 of the output layer 3 is calculated by equation (2).

ステップS3で、出力層3の各ノード7、・・・、8か
らの出力データOと対応する教師データTとの誤差の二
乗和Eの値が(3)式によって算出される。
In step S3, the value of the sum of squares E of the errors between the output data O from each node 7, . . . , 8 of the output layer 3 and the corresponding teacher data T is calculated using equation (3).

ステップS4で、上記ステップS3において算出された
誤差の二乗和Eの値が閾値ガより小さいか否かが判別さ
れる。その結果、閾値nより小さければステップS6に
進み、そうでなければステップS5に進む。
In step S4, it is determined whether the value of the sum of squares E of the errors calculated in step S3 is smaller than a threshold value . As a result, if it is smaller than the threshold value n, the process proceeds to step S6; otherwise, the process proceeds to step S5.

ステップS5て、出力層3の各ノード7、・・・、8に
教師データTか入力されて学習が実行される。
In step S5, the teacher data T is input to each node 7, . . . , 8 of the output layer 3, and learning is executed.

そうすると、出力層3の各ノード7、・・・、8からの
出力データ0と対応するノートに入力され几教師データ
Tと9誤差に基づいて得られる学習出力値δを用いて、
(1)式によってシナプス結合の重み%ノ変化量△★か
算出される。そして、この算出された変化量△Wに従っ
て結合の重みWの値か更新される。
Then, using the output data 0 from each node 7, .
The amount of change in the weight percentage of synaptic connections Δ★ is calculated by equation (1). Then, the value of the connection weight W is updated according to the calculated amount of change ΔW.

ステップS6で、X番目学習データに関する一回の学習
を終了する。
In step S6, one round of learning regarding the Xth learning data is completed.

このように、本実施例においては、総ての学習パターン
に関する誤差の二乗和Eの値の合計値が所定の閾値以下
になったときに総ての学習パターンに関する学習を一斉
に終了するのではなく、各学習パターン毎に誤差の二乗
和Eの値が閾値nより小さくなったときにその学習パタ
ーンにおける学習を終了するのである。
In this way, in this embodiment, learning for all learning patterns is terminated at once when the sum of the squared sums E of errors for all learning patterns becomes equal to or less than a predetermined threshold. Rather, for each learning pattern, when the value of the sum of squared errors E becomes smaller than the threshold value n, learning for that learning pattern is terminated.

すなわち、各学習パターン毎に、学習が収束した場合に
その学習バターノに関する学Mを終了するので、従来の
ように本来学習すべきカテゴリの識別に関する学習;よ
終了しているにも拘わらず過剰に学習か継続されること
がないのである。したかって、全学習パターンに対して
均等な学習か行われ、その結果、入カバターンの識別能
力を高めることができる。
In other words, for each learning pattern, when the learning converges, the study M for that learning Batano is completed, so that the learning related to the identification of the category that should have been learned as usual; Learning is not continued. Therefore, uniform learning is performed for all learning patterns, and as a result, the ability to identify input patterns can be improved.

まに、学習が収束した学習パターンに関する学旨は終了
させ、学習が未終了の学習パターンに関してのみ学習を
継続するので、学習を適当な方向に向かわせることがで
きる。したかって、学習が局所最適解に陥った場合に容
易に脱出てきると共に、学習回数を少なくてきる。
At the same time, the subject matter related to the learning pattern for which learning has converged is completed, and learning is continued only for the learning pattern for which learning has not been completed, so that learning can be directed in an appropriate direction. Therefore, if learning falls into a locally optimal solution, it is easy to escape, and the number of times of learning can be reduced.

さらに、上述のように学習回数か少ないのに加えて、学
習か進むに連れて学習パターンの数が減少するので、短
時間に学ざを終了できる。
Furthermore, in addition to the small number of learning patterns as described above, the number of learning patterns decreases as learning progresses, so learning can be completed in a short time.

上記実施例における閾値nの値は、例えば“O25”な
る一定値でもよいが、学習の進行状性等によl)動的に
変化するように設定してもよい。
The value of the threshold value n in the above embodiment may be a constant value such as "O25", but it may also be set to change dynamically depending on the progress of learning, etc.

実舟例1b 本実施例においては、学習時に結合の重みWの値の変化
量へ實の算出の際に用いる学習定数ηの値を、以下に述
へるようにして設定するのである。
Practical Example 1b In this embodiment, the value of the learning constant η used in calculating the amount of change in the value of the connection weight W during learning is set as described below.

実施例1aの場合と同様に、第1図に示すニュラル・ネ
ットワークの入力層1の各ノート5.5に学習Iくクー
ノか入力される。そうすると、中間層2の各ノー)” 
6 、6 、  および出力層3の谷ノー F’ 7、
−、8は(2)式によって出力値を算出するっその結果
、出力層3の各ノート7、.8からは出力値OQか出力
される。
As in the case of Embodiment 1a, the learning curve is input to each note 5.5 of the input layer 1 of the neural network shown in FIG. Then, each no of middle layer 2)
6, 6, and output layer 3 valley no F' 7,
-, 8 calculate the output value using equation (2).As a result, each note 7, . 8 outputs the output value OQ.

本実施例においては、その際に、上記出力データOと対
応する教師データTとの比較値である誤差の二乗和Eを
(3)式によって算出する。そして、出力層3の各ノー
ド7、・、8に教師データTが入力されて学とを実施す
る際に中間層2および出力層3の各ノードで用いる学習
定数ηを(4)式によって設定するのである。
In this embodiment, at that time, the sum of squares of errors E, which is a comparison value between the output data O and the corresponding teacher data T, is calculated using equation (3). Then, when the teaching data T is input to each node 7, . That's what I do.

η=n−E  ・ (4) こうすることによって、ニューラル・ネットワークの出
力データOと教師データTとの誤差の二乗和Eの値か小
さい場合には、学習定数ηの値を小さくして過剰な学習
を防止できるのである。
η=n-E ・ (4) By doing this, if the value of the sum of squares E of the error between the output data O of the neural network and the teacher data T is small, the value of the learning constant η is reduced to avoid excess This can prevent negative learning.

第4図は本実施例におけるニューラル・ネットワークの
学習における一つの学習パターンに対する一回の学習手
頓のフローチャートである。以下、第4図に従って、本
実施例における学習手順を説明する。
FIG. 4 is a flowchart of one learning procedure for one learning pattern in neural network learning in this embodiment. The learning procedure in this embodiment will be explained below with reference to FIG.

ステップSllで、X番目の学習パターンに係る学習デ
ータか入力層lの各ノート5,5. に入力される。
In step Sll, the learning data related to the X-th learning pattern is used for each note 5, 5 . is input.

ステップS12で、入力層1に人力さしに学習データに
基ついて、中間層2の各ノード6.6.−および出力層
3の各ノード7、・・、8における出力値か(2)式に
よって算出される。
In step S12, each node 6.6. - and the output value at each node 7, . . . , 8 of the output layer 3 is calculated by equation (2).

ステップS13で、出力層3の各ノード7、・・、8か
らの出力データ0と対応する教師データTとの誤差の二
乗和Eの値が(3)式によって算出される。
In step S13, the value of the sum of squares E of the errors between the output data 0 from each node 7, . . . , 8 of the output layer 3 and the corresponding teacher data T is calculated using equation (3).

ステップS14で、学習定数ηの値が“n−E”に設定
される。
In step S14, the value of the learning constant η is set to "n-E".

ステップ515で、出力層3の各ノード7、・・、8に
教師データTが入力される。そうすると、(1)式によ
ってノナプス結合の重みWの変化量△Wが算出さ7−る
。そして、この算出さシーf二変化竜△★に従って結合
の重みWの値が更新される。
In step 515, the teacher data T is input to each node 7, . . . , 8 of the output layer 3. Then, the amount of change ΔW in the weight W of the nonapse connection is calculated using equation (1). Then, the value of the connection weight W is updated in accordance with this calculated sea f two-change dragon Δ★.

こうして、結合の重み−の値か更新されると一つの学習
パターンに対する一回の学習か終了する。
In this way, when the value of the connection weight is updated, one learning process for one learning pattern is completed.

このように、本実施例において:よ、学習時におする結
合の重み1凌化量△★の算出に用いる学習定数ηを誤差
の二乗和Eに基ついて設定する。したがって、誤差の二
乗和Eの値か小さくなると(すなわち、学習が収束に向
かうと)、それに応して重み−の変化量△Wを小さくし
て、過度に学習か進行するのを防止できるのである。そ
の結果、全学習パターンに対して均等な学習が行われ、
入カバターンの識別能力を高めることができる。
As described above, in this embodiment, the learning constant η used to calculate the weight change Δ★ of the connections applied during learning is set based on the sum of squares E of the errors. Therefore, when the value of the sum of squares of errors E becomes smaller (that is, when learning moves towards convergence), the amount of change in weight - △W can be reduced accordingly to prevent learning from progressing excessively. be. As a result, uniform learning is performed for all learning patterns,
The ability to identify input patterns can be improved.

また、学習の進度に応じて学習定数ηの値を設定して、
学習が収束していない学習パターンを強調して学習する
ので、学習を適当な方向に向かわせることかできる。し
たかって、学習が局所最適解に陥った場合に容易に脱出
できると共に、学習回数を少なくでき、短時間に学習を
終了できる。
In addition, the value of the learning constant η is set according to the progress of learning,
Since learning patterns that have not converged are emphasized during learning, learning can be directed in an appropriate direction. Therefore, if learning falls into a locally optimal solution, it is possible to escape easily, the number of times of learning can be reduced, and learning can be completed in a short time.

上記実施例における閾値nの値は、例えば“0ビなる一
定値でもよいが、学習の進行状態等により動的に変化す
るように設定してしよい。
The value of the threshold value n in the above embodiment may be a constant value of, for example, 0, but may be set to dynamically change depending on the progress of learning, etc.

つ実施例2つ 実施例2におけるニューラル・ネットワークの学習方法
は、出力層3の各ノート7、・・、8からの出力値に応
して学習の進行を制御する方法である。
Two Embodiments The learning method of the neural network in the second embodiment is a method of controlling the progress of learning according to the output values from each of the notes 7, . . . , 8 of the output layer 3.

本実施例においては、学習時に結合の重みWの値の変化
量△Wを算出する際に用いる学習定数ηの値を、以下に
述べるようにして設定するのである。
In this embodiment, the value of the learning constant η used when calculating the amount of change ΔW in the value of the connection weight W during learning is set as described below.

第1図に示すニューラル・ネットワークの入力層lの各
ノード5.5. にあるカテゴリに属する学習サンプル
の学習パターンか入力される。そうすると、中間層2の
各ノート6.6.・・・および出力層3の各ノード7、
・・、8は(2)式によって出力値を算出する。その結
果、出力層3の各ノード7゜・・・、8からは出力値O
Q力咄力される。
Each node of the input layer l of the neural network shown in FIG. 1 5.5. A learning pattern of a learning sample belonging to a certain category is input. Then, each note 6.6 of middle layer 2. ...and each node 7 of the output layer 3,
..., 8 calculates the output value using equation (2). As a result, from each node 7°..., 8 of the output layer 3, the output value O
Q force is applied.

本実施例においては、その際に、出力層3における上記
学習パターンが属するカテゴリに割り付けられたノード
の出力値Orとその他のカテゴリに割り付けられ1ニア
ノードこ)出力値の最大値O,にとの比I]の値を(5
)式によって算出する。
In this embodiment, at that time, the output value Or of the node assigned to the category to which the learning pattern belongs in the output layer 3 and the maximum value O of the output value of the nearest node assigned to the other categories are determined. The value of ratio I] is set to (5
) is calculated using the formula.

H=Or70@ −(5) この場合、上述のようにニューラル・ネットワークの学
習に際しては、学習パターンか属するカテゴリ(例えば
、“9”)に割り付けられf二出力層3のノード(例え
ば、ノード8)からの出力値が“ビとなり、その他のノ
ードからの出力値が“0”となるように学習が行われて
いる。したがって、上記比Hの値が“ビより大きい場合
には正しいカテゴリに割り付けられたノードからの出力
値が最大であり、正しく学習が実施されていることにな
る。
H=Or70@-(5) In this case, as mentioned above, when learning the neural network, the learning pattern is assigned to the category to which it belongs (for example, "9") and the f2 output layer 3 node (for example, node 8 ) learning is performed so that the output value from ``Bi'' becomes ``Bi'' and the output value from other nodes becomes ``0''. Therefore, if the value of the ratio The output value from the assigned node is the maximum, which means that learning has been performed correctly.

すなわち、比Hの値は学習の進行の度合いを表している
ことになるのである。
In other words, the value of ratio H represents the degree of progress of learning.

そこで、本実施例においては、比Hの値が閾値1より大
きい場合には学習を終了する。一方、比Hの値が閾値m
以下の場合には、比Hの値に基づく学習の進行の度合い
に応じて学習定数ηの値を次のように設定するのである
。すなわち、例えばm=1.2の場合には、 学習定数η ! 2くH→  0 1.0<H≦1.2 − 0.08 08〈H≦1.0  → 0」O H≦0.8 − 0.12 こうすることによって、ニューラル・ネツトワ−りの出
力層3における学習パターンが属するカテゴリか割り付
けられたノードからの出力値Orが他のノードからの出
力値の最大値Ovより大きくなるに従って、学習定数η
の値を小さくでき、過学習を防止できるのである。
Therefore, in this embodiment, if the value of the ratio H is greater than the threshold value 1, learning is terminated. On the other hand, the value of the ratio H is the threshold m
In the following cases, the value of the learning constant η is set as follows depending on the degree of progress of learning based on the value of the ratio H. That is, for example, when m=1.2, the learning constant η! 2kuH → 0 1.0<H≦1.2 - 0.08 08〈H≦1.0 → 0''OH≦0.8 - 0.12 By doing this, the output of the neural network As the output value Or from the node assigned to the category to which the learning pattern in layer 3 belongs becomes larger than the maximum value Ov of the output values from other nodes, the learning constant η
The value of can be reduced, and overfitting can be prevented.

第5図は本実施例におけるニューラル・ネットワークの
学習における一つの学習パターンに対する一回の学習手
順のフローチャートである。以下、第5図に従って、本
実施例における学習手順を説明する。
FIG. 5 is a flowchart of one learning procedure for one learning pattern in neural network learning in this embodiment. The learning procedure in this embodiment will be explained below with reference to FIG.

ステップS21”iq、X番目の学習パターンに係る学
習データが入力層lの各ノード5..5.・・に入力さ
れる。
In step S21''iq, learning data related to the X-th learning pattern is input to each node 5..5 of the input layer l.

ステップS22て、入力層1に入力された学習データに
基ついて、中間層20各ノード6.6.・・および出力
13の各ノード7、・・・、8における出力値か(2)
式によって算出される。
In step S22, based on the learning data input to the input layer 1, each node 6.6. ...and the output value at each node 7, ..., 8 of output 13 (2)
Calculated by the formula.

ステ2・ブ523て、出力@3.)各ノード7、・・、
8がらの出力値に仄づいて、比Hの値か(5)式によっ
て算出ξれる。
Step 2 523 output @3. ) each node 7,...
Based on the output values of 8, the value of the ratio H is calculated by equation (5).

ステップS24で、上記ステップS23において算出さ
れた比Hの値に従って、上述のように学習定数ηの値が
設定される。
In step S24, the value of the learning constant η is set as described above according to the value of the ratio H calculated in step S23.

ステップS25で、出力層3の各ノード7、・・・、8
に教師データTが入力される。そうすると、(1)弐に
よってンナプス結合の重みWの変化量△Wが算出される
。そして、この算出されrこ変化量Δ智に従って結合の
重みWの値が更新される。
In step S25, each node 7, ..., 8 of the output layer 3
The teacher data T is input to the . Then, the amount of change ΔW in the weight W of the NNAPS connection is calculated by (1) 2. Then, the value of the connection weight W is updated according to the calculated amount of change Δ.

こうして、結合の重みWの値が更新されると一つの学習
サンプルに対する一回の学習が終了する。
In this way, when the value of the connection weight W is updated, one learning session for one learning sample is completed.

このように、本実施例においては、出力層3における学
習パターンが属するカテゴリが割り付けられたノードか
らの出力値とその他のノードからの出力値の最大値との
比Hを求める。そして、この比Hの値に応じて学習定数
ηの値を設定するのである。したがって、比Hの値が大
きくなると(すなわち、学習が収束に向かうと)、それ
に応して学習を終了しにり重み☆の変化量△Wを小さく
して、過変に学習か進行するのを防止できるのである。
In this manner, in this embodiment, the ratio H between the output value from the node to which the category to which the learning pattern belongs in the output layer 3 is assigned and the maximum value of the output values from other nodes is determined. Then, the value of the learning constant η is set according to the value of this ratio H. Therefore, when the value of the ratio H increases (that is, when learning tends to converge), the amount of change △W of the weight ☆ is decreased to terminate the learning accordingly, and the learning progresses in an overvariant manner. can be prevented.

その結果、全学!パターンに対して均等な学習か行われ
、入カバターンの識別能力を高めることができる。
As a result, the entire university! Uniform learning is performed on patterns, and the ability to identify input patterns can be improved.

また、学習か収束した学習パターンに関する学習は終了
させ、学習が未終了の学習パターンに関しては学旨の進
度に応じて学習定数ηの値を設定して学習が収束してい
ない学習パターンを強調して学習するので、学習を適当
な方向に向かわせることができる。したがって、学習が
局所最適解に陥った場合に容易に脱出できると共に、学
習回数を少なくできる。
In addition, learning for learning patterns that have converged is terminated, and for learning patterns for which learning has not yet been completed, the value of the learning constant η is set according to the progress of the subject to emphasize learning patterns for which learning has not converged. Since the students learn based on their own knowledge, they can direct their learning in an appropriate direction. Therefore, if learning falls into a local optimum solution, it is possible to easily escape from the problem and the number of times of learning can be reduced.

さらに、上述のように学習回数が少ないのに加えて、学
習か進むに連れて学習パターンの数が減少するので、短
時間に学習を終了できる。
Furthermore, in addition to the small number of times of learning as described above, the number of learning patterns decreases as learning progresses, so learning can be completed in a short time.

L記実施例にお1する閾値mの値は、例えばI 2”な
ろ一定値でしよいが、学習の進行状態等により動的に変
化するように設定してもよい。
The value of the threshold m used in the embodiment L may be a constant value, such as I2'', for example, but it may also be set to dynamically change depending on the progress of learning, etc.

上記実施例においては、比Hの値に応して学習定数ηの
値を段階的に変えるようにしているか、−の発明はこれ
に限定さメ−ものてはない。すなわち、閾値mによって
学習を終了するか続行するか(すなわち、η−=0かη
−ηI)の2段階に変えてもよい。また、学習定数ηを
連続的に変化させてもよい。
In the above embodiment, the value of the learning constant η is changed stepwise in accordance with the value of the ratio H, but the invention is not limited to this. In other words, whether learning is terminated or continued depending on the threshold m (i.e., η-=0 or η
-ηI). Further, the learning constant η may be changed continuously.

〔実施例3〕 実施例3におけるニューラル・ネットワークの学習方法
は、一つのカテゴリに属する総ての学習パターンに対す
る出力13からの出力データと教師データとの誤差の二
乗和の平均値に応じて、学習の進行を制御する方法であ
る。
[Example 3] The neural network learning method in Example 3 is based on the average value of the sum of squared errors between the output data from the output 13 and the teacher data for all learning patterns belonging to one category. It is a method of controlling the progress of learning.

本実施例においても、結合の重み1の変化量△Wを算出
する際に用いる学習定数ηの値を、以下に述べるように
して設定するのである。
Also in this embodiment, the value of the learning constant η used when calculating the amount of change ΔW in the connection weight 1 is set as described below.

第1図に示すニューラル・ネットワークの入力層!の各
ノード5.5.・にあるカテゴリに属する学習サンプル
の学習パターンが入力される。そうすると、中間層2の
各ノート6.6.・および出力層3の各ノード7、・、
8は(2)式によって出力値を算出する。その結果、出
力層3の各ノード7゜8からは出力値OQ力咄力される
The input layer of the neural network shown in Figure 1! Each node of 5.5. A learning pattern of a learning sample belonging to a certain category is input. Then, each note 6.6 of middle layer 2.・and each node 7 of the output layer 3, .
8 calculates the output value using equation (2). As a result, each node 7.8 of the output layer 3 outputs an output value OQ.

本実施例においては、その際に、上記出力データOと対
応する教師データTとの比較値である誤差の二乗和Eを
(3)式によって算出する。同様にして、同一カテゴリ
に属する総ての学習パターンにおける出力データOと教
師データの値Tとの誤差の二乗和Eの値を算出する。そ
して、同一のカテゴリに属する総ての学習パターンに関
する誤差の二乗和Eの平均値E。を算出する。そして、
中間層2および出力層3の各ノートで用いる学習定数η
の値を(6)式によって設定するのである。
In this embodiment, at that time, the sum of squares of errors E, which is a comparison value between the output data O and the corresponding teacher data T, is calculated using equation (3). Similarly, the value of the sum of squares E of the errors between the output data O and the value T of the teacher data for all learning patterns belonging to the same category is calculated. Then, the average value E of the sum of squared errors E for all learning patterns belonging to the same category. Calculate. and,
Learning constant η used for each note in hidden layer 2 and output layer 3
The value of is set using equation (6).

η:n−E0 ・(6) こうすることによって、誤差の二乗和Eの平均値E。の
値が小さい(すなわち、識別し易い)カテゴリに属する
学習パターンを学習する際には、学習定数ηの値を小さ
く設定して、過度に学旨か実行されるのを防止できるの
である。
η:n-E0 (6) By doing this, the average value E of the sum of squares E of errors. When learning a learning pattern that belongs to a category with a small value (that is, easy to identify), the value of the learning constant η can be set to a small value to prevent the gist from being carried out excessively.

第6図は本実施例におけるニューラル・ネットワークの
学習における一つの学習パターンに対する一回の学習手
順のフローチャートである。以下、第6図に従って、本
実施例にお(する学習手順を説明する。
FIG. 6 is a flowchart of one learning procedure for one learning pattern in neural network learning in this embodiment. The learning procedure for this embodiment will be described below with reference to FIG.

ステップ531で、同一カテゴリに属する学習サンプル
の番号を表すフラグXに“0”がセットされる。
At step 531, a flag X representing the number of learning samples belonging to the same category is set to "0".

ステップS32で、同一カテゴリに属するX番目の学習
パターンに係る学習データが入力層lの各ノード5,5
.・に入力される。
In step S32, the learning data related to the X-th learning pattern belonging to the same category is
..・Entered in

ステップS33て、入力層1に入力された学習データに
基づいて、中間層2の各ノード6.6.・・および出力
層3の各ノード7、・・、8における出力値が(2)に
よって算出される。
In step S33, based on the learning data input to the input layer 1, each node 6.6. ... and the output value at each node 7, ..., 8 of the output layer 3 is calculated by (2).

ステップS34で、出力層3の各ノード7、・・、8か
らの出力データOと対応する教師データTとの誤差の二
乗和Eの値か(3)式によって算出される。
In step S34, the value of the sum of squares E of the errors between the output data O from each node 7, . . . , 8 of the output layer 3 and the corresponding teacher data T is calculated using equation (3).

ステップS35で、フラグXの内容か同一カテゴリに属
する総ての学習パターン数“X”以上であるか否かか判
別される。その結果、“X”以上であればステップS3
7に進み、そうでなければステップS36に進む。
In step S35, it is determined whether the content of flag X is greater than or equal to the total number of learning patterns belonging to the same category "X". If the result is “X” or more, step S3
If not, the process proceeds to step S36.

ステップS36で、フラグXの内容がインクリメントさ
れてステップS32に戻る。
In step S36, the contents of flag X are incremented and the process returns to step S32.

ステップS37で、同一カテゴリに属する総ての学習パ
ターンにおける誤差の二乗和Eの平均値E0が算出され
る。
In step S37, the average value E0 of the sum of squares E of errors for all learning patterns belonging to the same category is calculated.

ステップS3gで、学習定数ηの値が“n−Eo”に設
定される。
In step S3g, the value of the learning constant η is set to "n-Eo".

ステップS39で、同一カテゴリに属する任意の学習パ
ターンの学習データが入力される。
In step S39, learning data of an arbitrary learning pattern belonging to the same category is input.

ステップS40で、上記ステップS39において入力さ
れた学習データに対応する教師データTが出力層3の各
ノード7、・・・、8に入力される。そうすると、(+
)式によってノナブス結合の重み1の変化量△1が算出
される。そして、この算出された変化量△1に従って結
合の重み1の値か更新される。
In step S40, the teacher data T corresponding to the learning data input in step S39 is input to each node 7, . . . , 8 of the output layer 3. Then, (+
) is used to calculate the amount of change Δ1 in the weight 1 of the nonabs connection. Then, the value of the connection weight 1 is updated according to the calculated amount of change Δ1.

こうして、結合の重み1の値が更新されると一つの学習
サンプルに対ずろ一回の学習か終了tろ。
In this way, when the value of the connection weight 1 is updated, the learning is completed once for each learning sample.

このように、本実施例において:ま、学習に先立って、
学習パターンに対する誤差の二乗和E、)カテゴリ毎の
・L均値E。を求め、学習の際に用いろ学習定数ηを学
習対象の学習パターンが属才るカテゴリにおけるEoを
用いてη−n−Eoと設定するようにしている。したが
って、学習パターンの識別し易さに応じて結合の重みW
の変化量△Wを設定でき、過度に学習が進行するのを防
止できるのである。その結果、全学習パターンに対して
均等な学習か行われ、入カバターンの識別能力を高める
ことができる。
In this way, in this example: Well, prior to learning,
Sum of squared errors for the learning pattern E,) L average value E for each category. The learning constant η used during learning is set to η−n−Eo using Eo in the category to which the learning pattern to be learned belongs. Therefore, the connection weight W depends on the ease of identifying the learning pattern.
This allows the amount of change ΔW to be set, and it is possible to prevent learning from progressing excessively. As a result, uniform learning is performed for all learning patterns, and the ability to identify input patterns can be improved.

ま1こ、カテゴリの識別し易さの程度に応じて学習定数
ηの値を設定して、識別しにくいカテゴリに属する学習
パターンを強調して学習するので、学習を適当な方向に
向かわせることができる。したがって、学習か局所最適
解に陥った場合に容易に脱出できると共に、学習回数を
少なくでき、短時間に学習を終了できる。
First, the value of the learning constant η is set according to the degree of ease of identifying the category, and learning patterns belonging to categories that are difficult to identify are emphasized during learning, so that learning can be directed in an appropriate direction. I can do it. Therefore, if learning becomes a locally optimal solution, it is easy to escape, the number of times of learning can be reduced, and learning can be completed in a short time.

上記実施例における閾値nの値は、例えば“0ビなる一
定値てしよいが、学習の進行状態等により動的に変化す
るように設定してもよい。
The value of the threshold value n in the above embodiment may be set to a constant value of, for example, 0, but it may also be set to dynamically change depending on the progress of learning, etc.

上記実施例においては、まず、ある一つのカテゴリに関
する誤差の二乗和Eの平均値E0を求めf二後、同一カ
テゴリに属する学習パターンの学習を行うようにしてい
る。しかしながら、この発明はこれに限定されるもので
はなく、予め総てのカテゴリにおける誤差の二乗和Eの
平均値E。を算出しても何等差し支えない。
In the embodiment described above, first, the average value E0 of the sum of squares E of errors related to a certain category is calculated f2, and then learning patterns belonging to the same category are performed. However, the present invention is not limited to this, and the average value E of the sum of squares E of errors in all categories is determined in advance. There is no problem in calculating.

上記実施例における誤差の二乗和Eの平均値E。Average value E of the sum of squares E of errors in the above embodiment.

よ、誤差の二乗和Eの合計値をも含む概念である。This concept also includes the total value of the sum of squares E of errors.

上記実施例1a、実施例1bおよび実施例3においては
、出力データOと教師データTとの比較値を両データの
対応する要素間の誤差の二乗和によって算出している。
In Example 1a, Example 1b, and Example 3, the comparison value between output data O and teacher data T is calculated by the sum of squares of errors between corresponding elements of both data.

しかしながら、この発明は、これに限定されるものでは
なく、例えば誤差の絶対値の平均値等によって算出して
もよい。
However, the present invention is not limited to this, and calculation may be performed using, for example, the average value of absolute values of errors.

上記各実施例は、単独で実施してもよいが幾つかを組み
合わせてもよい。すなわち、上記実施例Iaと実施例t
bとを組み合わせ、ニューラル・ネットワークの出力デ
ータOと教師データTとの誤差の二乗和Eの値に基づく
学習の収束の程度に応じて学習定数ηの値を制御し、−
上記Eの値が所定値以下に至ると学習を終了するように
してもよい。
Each of the above embodiments may be implemented alone, or some may be combined. That is, the above Example Ia and Example t
b, and control the value of the learning constant η according to the degree of convergence of learning based on the value of the sum of squares E of the error between the output data O of the neural network and the teacher data T, and -
Learning may be terminated when the value of E reaches a predetermined value or less.

同様に、実施例3において、学習パターンに対する誤差
の二乗和Eのカテゴリ毎の平均値E。に基づく学習定数
η= n−E 、か、所定値以下に至ると学習を終了す
るようにしてもよい。
Similarly, in Example 3, the average value E for each category of the sum of squares E of errors for the learning pattern. The learning may be terminated when the learning constant η=n-E or less than a predetermined value is reached.

上記各実施例においては、3層パーセプトロン型ニュー
ラル・ネットワークを用いているが、4層以上の多層パ
ーセブトロン型ニューラル・ネットワークであってもよ
い。
In each of the above embodiments, a three-layer perceptron neural network is used, but a multilayer perceptron neural network having four or more layers may be used.

また、この発明に係るニューラル・ネットワークは多層
パーセプトロン型ニューラル・ネットワークに限定され
るものではない。要は、用いられる学習量か誤差を用い
fこ学習であれば如何なる構造のニューラル・ネットワ
ークであってもよいのである。
Further, the neural network according to the present invention is not limited to a multilayer perceptron type neural network. In short, a neural network of any structure may be used as long as it can perform learning using the amount of learning or error used.

〈発明の効果〉 以上より明らかなように、上記各発明のニューラル・ネ
ットワークの学習方法においては、学習パターンに係る
出力データと教師データとの比較値に基づいて、あるい
は、出力データにおける要素値に係る比の値に基ついて
、あるいは、出力データと教師データとの比較値におけ
る同一カテゴリ毎の平均値に基ついて、当該学習パター
ンに関する誤差を用いた学習の際に用いる上記ニューラ
ル・ネットワークの結合の重みの変化定数の設定、ある
し1は、上記学習パターンに係る学習の停止を行うよう
にしているので、当該学習パターンに関する学習が過料
に実施されるのを防止できる。したかって、上記ニュー
ラル・ネットワークの学習か総ての学習パターンに対し
て均等に行われ、その結果ニューラル・ネットワークの
パターン識別能力が向上する。
<Effects of the Invention> As is clear from the above, in the neural network learning methods of the above-mentioned inventions, the learning method is based on the comparison value between the output data related to the learning pattern and the training data, or on the element value in the output data. Based on the value of the ratio, or the average value for each same category in the comparison value between the output data and the training data, the connection of the neural network used in learning using the error related to the learning pattern. Since the setting of the weight change constant or 1 is configured to stop the learning related to the learning pattern, it is possible to prevent the learning related to the learning pattern from being carried out unnecessarily. Therefore, the learning of the neural network is performed equally for all learning patterns, and as a result, the pattern discrimination ability of the neural network is improved.

ま1こ、学習未収束の学習パターンに関してのみ又は学
習未収束の学習パターンを強調して学習を実施できるの
で、学習の際に局所最適解に陥っても容易に脱出てき、
学習回数を少なくてきる。
First, learning can be carried out only for unconverged learning patterns or by emphasizing unconverged learning patterns, so even if you fall into a local optimal solution during learning, you can easily escape.
Reduce the number of times you study.

ざらに、L述のよ−)に学習回数を少なくてきるのに加
えて、学とか進むに連れて学習パターン数を減少できる
ので短時間に学習を終了できる。
Roughly speaking, in addition to reducing the number of times you learn as mentioned above, you can also reduce the number of learning patterns as you advance in learning, so you can finish learning in a short time.

【図面の簡単な説明】[Brief explanation of drawings]

m1図はこの発明に係るニューラル・ネットワーク、)
−′μ奄例を示す概略構成図、第2図は多層ペーセプト
ロノ型ニューラル・ネットワークにおける出力値および
ノナプス結合の重みの説明図、第3図乃至第6図は各実
施例における一つの学習サンプルによる一回の学習手順
を示すフローチャートである。 1・・人力層、         2・中間層、3 出
力層、      5,6,7.8  ・ノート。
Figure m1 is the neural network according to this invention.)
-'μ A schematic configuration diagram showing the example; Figure 2 is an explanatory diagram of the output values and nonapse connection weights in a multilayer pacetronic neural network; Figures 3 to 6 are based on one learning sample in each example. It is a flowchart showing a one-time learning procedure. 1. Human power layer, 2. Middle layer, 3. Output layer, 5, 6, 7.8 ・Note.

Claims (3)

【特許請求の範囲】[Claims] (1) 誤差を用いた学習によるニューラル・ネットワ
ークの学習方法であって、 上記ニューラル・ネットワークに学習パターンを入力し
た際の出力データと上記学習パターンが属するカテゴリ
を表す教師データとの比較値を求め、 上記比較値に基づいて、上記学習パターンに係る学習の
際に用いる上記ニューラル・ネットワークの結合の重み
の変化定数の設定、あるいは、上記学習パターンに係る
学習の停止を行うことを特徴とするニューラル・ネット
ワークの学習方法。
(1) A neural network learning method by learning using errors, which calculates a comparison value between output data when a learning pattern is input to the neural network and training data representing the category to which the learning pattern belongs. , a neural network characterized in that, based on the comparison value, a change constant of the connection weight of the neural network used during learning related to the learning pattern is set, or learning related to the learning pattern is stopped.・Network learning method.
(2) 誤差を用いた学習によるニューラル・ネットワ
ークの学習方法であって、 上記ニューラル・ネットワークに学習パターンを入力し
た際における出力データの各要素値を求め、 上記出力データの要素値のうち、上記学習パターンが属
するカテゴリを表す要素値とその他の要素値の最大値と
の比を算出し、 上記比の値に基づいて、上記学習パターンに係る学習の
際に用いる上記ニューラル・ネットワークの結合の重み
の変化定数の設定、あるいは、上記学習パターンに係る
学習の停止を行うことを特徴とするニューラル・ネット
ワークの学習方法。
(2) A neural network learning method by learning using errors, which calculates each element value of the output data when a learning pattern is input to the neural network, and calculates the Calculate the ratio between the element value representing the category to which the learning pattern belongs and the maximum value of other element values, and based on the value of the ratio, determine the connection weight of the neural network used during learning related to the learning pattern. A neural network learning method characterized by setting a change constant of or stopping learning related to the learning pattern.
(3) 誤差を用いた学習によるニューラル・ネットワ
ークの学習方法であって、 上記ニューラル・ネットワークに学習パターンを入力し
た際の出力データと上記学習パターンが属するカテゴリ
を表す教師データとの比較値を求め、上記比較値におけ
る同一カテゴリ毎の平均値を求め、上記比較値の同一カ
テゴリ毎の平均値に基づいて、上記同一カテゴリに属す
る学習パターンに係る学習の際に用いる上記ニューラル
・ネットワークの結合の重みの変化定数の設定、あるい
は、当該学習パターンに係る学習の停止を行うことを特
徴とするニューラル・ネットワークの学習方法。
(3) A neural network learning method by learning using errors, which calculates a comparison value between output data when a learning pattern is input to the neural network and training data representing the category to which the learning pattern belongs. , calculate the average value of the comparison values for each same category, and calculate the connection weight of the neural network used in learning for learning patterns belonging to the same category based on the average value of the comparison values for each same category. A neural network learning method characterized by setting a change constant of or stopping learning related to the learning pattern.
JP2037777A 1990-02-19 1990-02-19 Learning method for neural network Pending JPH03240827A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2037777A JPH03240827A (en) 1990-02-19 1990-02-19 Learning method for neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2037777A JPH03240827A (en) 1990-02-19 1990-02-19 Learning method for neural network

Publications (1)

Publication Number Publication Date
JPH03240827A true JPH03240827A (en) 1991-10-28

Family

ID=12506917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2037777A Pending JPH03240827A (en) 1990-02-19 1990-02-19 Learning method for neural network

Country Status (1)

Country Link
JP (1) JPH03240827A (en)

Similar Documents

Publication Publication Date Title
Udo Neural network performance on the bankruptcy classification problem
Kuo et al. Neural networks vs. conventional methods of forecasting
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
Mizutani et al. On derivation of MLP backpropagation from the Kelley-Bryson optimal-control gradient formula and its application
JPH03240827A (en) Learning method for neural network
JPH0451384A (en) Neural network and its construction method
JPH05101028A (en) Integral decision method for plural feature quantity
JPH04548A (en) Neural network equipment
JPH0430280A (en) Learning method for neural network
Figueiredo et al. Adaptive neuro-fuzzy modeling
US6625588B1 (en) Associative neuron in an artificial neural network
JP2674167B2 (en) Process control method using neural network model
JPH05204885A (en) Device and method for accelerating learning of neural network
JPH02231670A (en) Learning device for neural network
JP3262340B2 (en) Information processing device
JPH0492901A (en) Fuzzy controller by neural network
Larsen et al. Artificial neural networks for plasma x‐ray spectroscopic analysis
CN110110853A (en) A kind of deep neural network compression method, device and computer-readable medium
JPH01241667A (en) Dynamic neural network to have learning mechanism
JPH03218559A (en) Stochastic learning system for neural network
JPH11175494A (en) Neural network
JPH03273444A (en) Learning method for neural network
JPH09128360A (en) Method for learning time sequence data and device therefor
JP2607351B2 (en) Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network
JP2654686B2 (en) neural network