JPH07168799A - Learning device for neural network - Google Patents

Learning device for neural network

Info

Publication number
JPH07168799A
JPH07168799A JP6224386A JP22438694A JPH07168799A JP H07168799 A JPH07168799 A JP H07168799A JP 6224386 A JP6224386 A JP 6224386A JP 22438694 A JP22438694 A JP 22438694A JP H07168799 A JPH07168799 A JP H07168799A
Authority
JP
Japan
Prior art keywords
input
data
neural network
output
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6224386A
Other languages
Japanese (ja)
Inventor
Masanori Yamamoto
正典 山本
Haruyuki Matsumoto
晴幸 松本
Kazumi Yoshida
和美 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP6224386A priority Critical patent/JPH07168799A/en
Publication of JPH07168799A publication Critical patent/JPH07168799A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To enhance the efficiency of learning by providing a sensitivity representative value calculation means which finds the representative value of the sensitivity of output data when micro change is applied to the input data of teacher data and a recognition result correct answer degree calculation means which calculates the correct answer degree of a recognition result, and judging whether or not the learning for each teacher data should be continued based on the output of these means. CONSTITUTION:The sensitivity representative value calculation means 1 finds the representative value of sensitivity of the output data of a neural network when the micro change is applied to the sensitivity for respective teacher data i.e., the input data of the teacher data. The recognition result correct answer degree calculation means 2 calculates the correct answer degree of the recognition result for respective teacher data. The correction answer degree can be calculated by comparing the actual output value of an output layer neuron with the output data of the teacher data. Furthermore, a learning condition judging means 3 judges whether or not the learning for respective teacher data should be continued based on the output of the sensitivity representative value calculation means 1 and that of the recognition result correct answer degree calculation means 2.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えばパターン認識、
文字認識、或いは予測等を行うニューラルネットワーク
に係り、更に詳しくはニューラルネットワークに教師デ
ータを与え、その教師データを正しく認識できるように
ニューラルネットワークの内部の重みを更新させるニュ
ーラルネットワークの学習装置に関する。
BACKGROUND OF THE INVENTION The present invention relates to pattern recognition,
The present invention relates to a neural network that performs character recognition, prediction, or the like, and more specifically, to a learning device for a neural network that gives teacher data to a neural network and updates internal weights of the neural network so that the teacher data can be correctly recognized.

【0002】[0002]

【従来の技術】ニューラルネットワークは一般に複数個
のニューロンによって構成される。このニューロンそれ
ぞれは、一般に他のニューロン、または外部からの入力
を重み付けした後にその総和をとり、その総和xの関数
として出力yを得るものである。この関数としては一般
に次式で与えられるシグモイド関数が用いられることが
多い。
2. Description of the Related Art A neural network is generally composed of a plurality of neurons. Each of these neurons generally weights inputs from other neurons or external sources and then sums them to obtain an output y as a function of the sum x. As this function, a sigmoid function given by the following equation is generally used in many cases.

【0003】y=1/(1+exp(−x)) 図26はこのシグモイド関数の形を示す。この関数は飽
和特性を持つ非線形関数であるために、入力変化に対す
る出力の変化、すなわち出力の入力に対する感度が小さ
いところでは出力の値は0か1に近いことになる。この
ような性質はシグモイド関数に限定されず、飽和特性を
持つ非線形関数であれば同様の性質がある。
Y = 1 / (1 + exp (-x)) FIG. 26 shows the form of this sigmoid function. Since this function is a non-linear function having a saturation characteristic, the value of the output is close to 0 or 1 when the change of the output with respect to the change of the input, that is, the sensitivity of the input to the input is small. Such a property is not limited to the sigmoid function, and a non-linear function having a saturation characteristic has the same property.

【0004】図27は階層型ニューラルネットワークの
例を示す。同図においてネットワークは入力層、中間
層、および出力層によって構成され、一般に各層は複数
個のニューロンによって構成され、各層間でニューロン
は完全結合されている。一般に中間層は1層とは限ら
ず、複数層存在することもある。
FIG. 27 shows an example of a hierarchical neural network. In the figure, the network is composed of an input layer, an intermediate layer, and an output layer. Generally, each layer is composed of a plurality of neurons, and the neurons are completely connected between the layers. Generally, the intermediate layer is not limited to one layer, and there may be a plurality of layers.

【0005】このようなニューラルネットワークにパタ
ーン認識を行わせる場合には、代表的パターンの特徴値
を複数個選んで入力層ニューロンへの入力データとし、
認識すべきパターンのそれぞれについて出力層ユニット
を当てはめ、正しいパターンについては対応する出力層
ニューロンの出力値が1、それ以外の出力層ニューロン
の出力値は0となるように教師データを与え、学習を行
わせる。
When such a neural network is made to perform pattern recognition, a plurality of typical pattern feature values are selected and used as input data to the input layer neurons.
The output layer unit is applied to each of the patterns to be recognized, and for the correct pattern, teaching data is given such that the output value of the corresponding output layer neuron is 1, and the output value of the other output layer neurons is 0, and learning is performed. Let it be done.

【0006】教師データに対する学習が済めば、パター
ンが不明の入力データを入力層ニューロンに与え、出力
層ニューロンの出力値によって入力パターンの判定を行
うことができる。
After the learning of the teacher data is completed, input data of which pattern is unknown can be given to the input layer neuron and the input pattern can be judged by the output value of the output layer neuron.

【0007】ニューラルネットワークは入出力関係が明
らかでなく、数式で表すことが困難な場合に適用するこ
とが多い。このようなニューラルネットワークの学習に
関連して、先に出願の特開平3-118658 号( 発明の名
称:学習装置の機能解析装置)において、学習によって
定められた結合の重みに対応するニューラルネットワー
クの入出力関係を推定することができる機能解析装置が
開示された。これは3層階層型ニューラルネットワーク
の場合、各ニューロンの重みの行列をWn 、シグモイド
関数の代表値を微分した値の行列をSn とすると影響度
Oは、 O=W0011 となり、この影響度の大きさにより入出力関係を推定す
るものである。
Neural networks are often applied when the input / output relationship is not clear and it is difficult to represent them by mathematical expressions. Regarding the learning of such a neural network, in Japanese Patent Application Laid-Open No. 3-118658 (the title of the invention: a function analysis device of a learning device) previously filed, the neural network corresponding to the weight of the connection determined by learning is described. A functional analysis device capable of estimating the input / output relationship has been disclosed. In the case of a three-layer hierarchical neural network, if the weight matrix of each neuron is W n and the representative value of the sigmoid function is S n , the influence matrix is O = W 0 S 0 W 1 It becomes S 1 , and the input / output relationship is estimated by the magnitude of this influence.

【0008】また、特願平4-66200号(発明の名称:ニ
ューラルネットワークの学習方式)において、パターン
認識などのカテゴリ識別を行うニューラルネットワーク
において必ずしも全てのサンプルデータを学習させるこ
となく、代表データのみを学習させて学習を高速化させ
るニューラルネットワークの学習方式が開示されてい
る。
Further, in Japanese Patent Application No. 4-66200 (Title of Invention: Learning Method of Neural Network), all sample data are not necessarily learned in a neural network for category recognition such as pattern recognition. A learning method of a neural network that speeds up learning by learning is disclosed.

【0009】更に、ニューラルネットワークの入力層に
入力される入力項目の内、不必要な入力項目の削除を行
う方法として以下の方法が用いられていた。ニューラル
ネットワークが入力層ニューロン数m、中間層ニューロ
ン数l、出力層ニューロン数nの3層階層型ニューラル
ネットワークの場合、入力層i番目のニューロンから中
間層k番目のニューロンへの重みをW1(i,k)、中間層k
番目のニューロンから出力層j番目のニューロンへの重
みをW2(k,j)とすると、入力iから出力jへの逆写像R
ijは次式で求まる。
Further, the following method has been used as a method for deleting unnecessary input items from the input items input to the input layer of the neural network. In the case where the neural network is a three-layer hierarchical neural network in which the number of neurons in the input layer is m, the number of neurons in the intermediate layer is 1, and the number of neurons in the output layer is n, the weight from the i-th input layer neuron to the k-th intermediate layer neuron is W 1 ( i, k), intermediate layer k
If the weight from the n-th neuron to the j-th neuron in the output layer is W 2 (k, j), the inverse mapping R from the input i to the output j
ij is calculated by the following formula.

【0010】[0010]

【数1】 [Equation 1]

【0011】従来、この逆写像のような値を入出力関係
値とし、該入出力関係値の絶対値が小さい入力項目iを
不必要な入力項目と判断し、該入力項目を削除してい
た。
Conventionally, a value such as this inverse mapping is used as an input / output relation value, and an input item i having a small absolute value of the input / output relation value is judged as an unnecessary input item and the input item is deleted. .

【0012】[0012]

【発明が解決しようとする課題】従来、ニューラルネッ
トワークに学習を行わせる場合にどの時点で学習を打ち
切るべきかについては、例えば学習の回数がある設定値
を越えた場合、または認識誤差が一定値以下となった場
合、あるいはその両者の組合わせを用いて判断を行って
いた。
Conventionally, when the learning should be terminated when the neural network is made to perform learning, for example, when the number of times of learning exceeds a certain set value, or the recognition error is a constant value. The judgment was made in the following cases or using a combination of both.

【0013】また、一般に教師データは全て正しいもの
として学習を行わせるが、実際のデータは矛盾を含んで
いるものもあり、そのような場合には教師データを学習
するのに非常に時間がかかるという問題点があった。ま
た、教師データに対して正しい認識を示しても、教師デ
ータに微小な変化を与えた時には正しい認識が行えると
は限らないという問題点があった。
Further, generally, learning is performed assuming that all the teacher data is correct, but some actual data include inconsistencies. In such a case, it takes a very long time to learn the teacher data. There was a problem. In addition, there is a problem that even if the teacher data is correctly recognized, the correct recognition is not always possible when a slight change is given to the teacher data.

【0014】また、ニューラルネットワークの入力項目
は、人間の経験や勘によって決定されているために、学
習に用いられる入力項目が全て出力値に大きな影響を及
ぼしているとは限らない。従って、必要最低限の入力項
目数で最小の誤差になるように学習するためには、不必
要な入力項目の判定を行い入力項目数を減らす必要があ
る。
Since the input items of the neural network are determined by human experience and intuition, not all input items used for learning have a great influence on the output value. Therefore, in order to learn the minimum error with the minimum required number of input items, it is necessary to determine unnecessary input items and reduce the number of input items.

【0015】しかし、上記逆写像を用いて入力項目の削
除を行う場合、入出力関係値の絶対値が小さい入力項目
iを不必要な入力項目と判断し、該入力項目iを削除し
ていた。そのために、入出力関係値は小さいにも係わら
ず入力値が大きいために、出力への影響が大きい入力項
目に対しても削除が行われるという問題点があった。ま
た、逆に入出力関係値は大きいにも係わらず入力値が小
さいために、出力への影響が小さい入力項目が削除され
ずに残るという問題点があった。
However, in the case of deleting an input item by using the inverse mapping, the input item i having a small absolute value of the input / output relation value is judged as an unnecessary input item and the input item i is deleted. . Therefore, since the input value is large even though the input / output relation value is small, there is a problem that the input item having a large influence on the output is deleted. On the contrary, since the input value is small even though the input / output relation value is large, there is a problem that the input item having a small influence on the output remains without being deleted.

【0016】更には、ニューラルネットワークの入出力
の関係を数式で表すことが困難な場合には、ユーザは入
出力の関係を理解することができなかった。本発明は、
学習中に教師データとして不適当なものを除外し、学習
の効率化を図ることと、入力に加えられた雑音に強いニ
ューラルネットワークを構築するためのニューラルネッ
トワークの学習装置を提供することである。
Further, when it is difficult to express the input / output relationship of the neural network by a mathematical expression, the user could not understand the input / output relationship. The present invention is
An object of the present invention is to provide a neural network learning device for excluding inappropriate teaching data during learning to improve learning efficiency and for constructing a neural network resistant to noise added to an input.

【0017】また、本発明は不必要な入力項目を削除す
るためのニューラルネットワークの学習装置を提供する
と共に、ユーザに対して入出力関係を分かり易く表示し
て入力項目の削除の判断材料を提供し、更には学習状況
の判定を支援するための材料を提供することである。
Further, the present invention provides a learning device of a neural network for deleting unnecessary input items, and also provides a user with a display of input / output relations in an easy-to-understand manner to provide a material for determining input item deletion. Moreover, it is to provide materials for supporting the judgment of the learning situation.

【0018】[0018]

【課題を解決するための手段】図1は本発明の第1の原
理構成ブロック図である。同図はニューラルネットワー
クに教師データを与え、その教師データを正しく認識で
きるようにニューラルネットワークの内部の重みを更新
させるニューラルネットワークの学習装置の原理構成ブ
ロック図である。
FIG. 1 is a block diagram showing a first principle configuration of the present invention. FIG. 1 is a block diagram showing the principle configuration of a learning device for a neural network that gives training data to the neural network and updates the internal weights of the neural network so that the training data can be correctly recognized.

【0019】図1において感度代表値計算手段1は、そ
れぞれの教師データに対する感度、すなわち教師データ
の入力データを微小変化させた時のニューラルネットワ
ークの出力データの感度の代表値を求めるものである。
1つの教師データに対する感度の代表値は、例えば入力
層ニューロンへのそれぞれの入力データを微小変化させ
た場合の出力層ニューロンの出力の感度のうち、最大の
ものが用いられる。
In FIG. 1, the sensitivity representative value calculation means 1 calculates the sensitivity to each teacher data, that is, the representative value of the sensitivity of the output data of the neural network when the input data of the teacher data is slightly changed.
As the representative value of the sensitivity for one teacher data, for example, the maximum sensitivity of the outputs of the output layer neurons when each input data to the input layer neurons is slightly changed is used.

【0020】認識結果正答度計算手段2は、それぞれの
教師データについて認識結果の正答度を計算する。この
正答度は、例えば出力層ニューロンの実際の出力値と教
師データの出力データとを比較することによって算出さ
れる。
The recognition result correctness degree calculating means 2 calculates the correctness degree of the recognition result for each teacher data. This correctness degree is calculated, for example, by comparing the actual output value of the output layer neuron with the output data of the teacher data.

【0021】更に学習状況判定手段3は、感度代表値計
算手段1の出力と認識結果正答度計算手段2の出力とに
基づいて、各教師データについて学習を継続すべきか否
かを判定する。その判定においては、例えば感度の代表
値と正答度との値を0から1の範囲に正規化した場合、
0.5をそれぞれの境界値として判定が行われる。例えば
正答度が 0.5以上で感度の代表値が 0.5以下になった時
に、その教師データに対する学習は十分行われたものと
して、その教師データについての学習は終了させられ
る。
Further, the learning situation judging means 3 judges whether or not learning should be continued for each teacher data based on the output of the sensitivity representative value calculating means 1 and the output of the recognition result correct answer degree calculating means 2. In the determination, for example, when the values of the representative value of the sensitivity and the correct answer degree are normalized in the range of 0 to 1,
The judgment is performed with 0.5 as the respective boundary value. For example, when the degree of correct answer is 0.5 or more and the representative value of sensitivity is 0.5 or less, it is assumed that the learning for the teacher data has been sufficiently performed, and the learning for the teacher data is terminated.

【0022】図2は本発明の第2の原理構成ブロック図
である。同図はニューラルネットワークに教師データを
与え、その教師データを正しく認識できるようにニュー
ラルネットワークの内部の重みを更新させるニューラル
ネットワークの学習装置の原理構成ブロック図である。
FIG. 2 is a block diagram showing a second principle configuration of the present invention. FIG. 1 is a block diagram showing the principle configuration of a learning device for a neural network that gives training data to the neural network and updates the internal weights of the neural network so that the training data can be correctly recognized.

【0023】図2において基準入力値認識手段4は、基
準となる入力データが入力され、該入力データに対する
認識結果を出力するものである。基準入力値認識手段4
は、前記ニューラルネットワークと同じ層構成を有する
ニューラルネットワークから成り、前記重みと同じ重み
が各ニューロン間に与えられて認識を行う。
In FIG. 2, the reference input value recognizing means 4 receives input reference data and outputs a recognition result for the input data. Reference input value recognition means 4
Is composed of a neural network having the same layer structure as the neural network, and the same weight as the weight is given to each neuron for recognition.

【0024】入出力関係計算手段5は、基準となる入力
データ、教師データ、前記ニューラルネットワークに入
力された教師データの認識結果、基準入力値認識手段4
から出力された基準となるデータに対する認識結果、及
びニューラルネットワークの重みから、教師データの基
準となる入力値からの変化量に対する出力値の変化量を
計算する。
The input / output relationship calculation means 5 is a reference input data, a teacher data, a recognition result of the teacher data input to the neural network, and a reference input value recognition means 4.
The change amount of the output value with respect to the change amount from the reference input value of the teacher data is calculated from the recognition result for the reference data output from the neural network and the weight of the neural network.

【0025】入力項目判定手段6は、入出力関係計算手
段5で計算された出力の変化量に基づいて、入力項目を
削除するか否かを判定する。入力項目削除手段7は、入
力項目判定手段6の判定結果、即ち、入力項目の削除が
可能であると判定されたならば、教師データの該入力項
目に該当するデータの削除を行う。
The input item determination means 6 determines whether or not to delete the input item based on the amount of change in the output calculated by the input / output relationship calculation means 5. The input item deleting means 7 deletes the data corresponding to the input item of the teacher data when the judgment result of the input item judging means 6, that is, when it is judged that the input item can be deleted.

【0026】入出力関係表示手段8は、入出力関係計算
手段5に入出力される情報、即ち、基準となる入力デー
タ、教師データ、前記ニューラルネットワークに入力さ
れた教師データの認識結果、基準入力値認識手段4から
出力された基準となるデータに対する認識結果、ニュー
ラルネットワークの重み、或いは教師データの基準とな
る入力値からの変化量に対する出力値の変化量を表示し
て、ユーザに入力項目の削除の判定を促す。
The input / output relationship display means 8 receives information input / output to / from the input / output relationship calculation means 5, that is, reference input data, teacher data, recognition results of the teacher data input to the neural network, and reference input. The recognition result for the reference data output from the value recognition means 4, the weight of the neural network, or the change amount of the output value with respect to the change amount from the reference input value of the teacher data is displayed, and the input item is displayed to the user. Prompt for deletion decision.

【0027】削除項目入力手段9は、削除する入力項目
を入力するものであり、ユーザが入出力関係表示手段8
の表示内容を参照して入力する。入力項目削除手段7
は、更に、削除項目入力手段9によって入力された削除
すべき入力項目に該当するデータを教師データから削除
することも行う。
The deletion item input means 9 is for inputting an input item to be deleted, and the user inputs / outputs the relation display means 8.
Refer to the displayed contents of and enter. Input item deleting means 7
Also deletes the data corresponding to the input item to be deleted, which is input by the deletion item input means 9, from the teacher data.

【0028】また、請求項10において、有効範囲計算
手段は、各教師データを参照して入力項目毎の有効範囲
を求めて出力する。データ変更手段は、教師データの入
力項目のうち少なくとも1つを有効範囲内のデータに変
更する。データ変更手段は、有効範囲の上限値、或いは
下限値にデータを変更するのが一般的であるが、有効範
囲の任意の値に変更することも可能である。
Further, in claim 10, the effective range calculation means refers to each teacher data to obtain and output an effective range for each input item. The data changing means changes at least one of the input items of the teacher data to data within the valid range. The data changing means generally changes the data to the upper limit value or the lower limit value of the effective range, but it is also possible to change the data to any value within the effective range.

【0029】出力関係表示手段は、変更されたデータを
ニューラルネットワークに入力して得られた認識結果を
表示する。更には、請求項12において、入出力符号関
係計算手段は、教師データ、ニューラルネットワークの
重みから入力と出力の間の符号関係を計算して出力す
る。
The output relation display means displays the recognition result obtained by inputting the changed data to the neural network. Further, in claim 12, the input / output sign relation calculation means calculates and outputs the sign relation between the input and the output from the teacher data and the weight of the neural network.

【0030】定性的関係入力手段は、ニューラルネット
ワークに特有の入力と出力との関係である定性的関係を
入力するものであり、ユーザが該ニューラルネットワー
クに特有の値を入力する。
The qualitative relation input means is for inputting a qualitative relation which is a relation between an input and an output peculiar to the neural network, and the user inputs a value peculiar to the neural network.

【0031】学習状況判定手段は、入出力符号関係計算
手段で計算された符号関係と定性的関係入力手段によっ
て入力された定性的関係を比較して学習状況の判定を行
う。学習状況表示手段は、学習状況判定手段からの判定
結果を表示する。
The learning status determining means compares the code relationship calculated by the input / output code relationship calculating means with the qualitative relationship input by the qualitative relationship input means to determine the learning status. The learning status display means displays the determination result from the learning status determination means.

【0032】[0032]

【作用】本発明においては、ニューラルネットワークの
学習中に各教師データに対する学習継続必要性の有無が
判定される。図14で説明したように、出力層ニューロ
ンの出力が0か1に近い場合、すなわち感度が小さい場
合には入力を変化させても出力があまり変化しない、す
なわちそれ以上学習が進展しないことになり、この時認
識がほぼ正しく行われていればその教師データに対する
学習は終了してもよいことになる。
According to the present invention, it is determined during learning of the neural network whether or not it is necessary to continue learning for each teacher data. As described with reference to FIG. 14, when the output of the output layer neuron is close to 0 or 1, that is, when the sensitivity is low, the output does not change much even if the input is changed, that is, learning does not progress further. At this time, if the recognition is performed almost correctly, the learning for the teacher data may be finished.

【0033】すなわち、教師データの感度と認識結果の
正答度とを用いて、学習中の教師データを4つに分類す
ることができる。第1の場合は感度が小さく、かつ正答
度が大きい場合である。このような教師データはそれ以
上学習の余地がなく、完全に学習済みであると判定でき
る。
That is, the teacher data being learned can be classified into four using the sensitivity of the teacher data and the correct answer degree of the recognition result. In the first case, the sensitivity is low and the accuracy is high. Such teacher data has no room for further learning, and can be judged to have been completely learned.

【0034】第2の場合は感度が大きく、かつ正答度が
大きい場合である。このような場合には入力データの変
化によって出力値が大きく異なることになるために、更
に学習を継続すべきものと判定される。
In the second case, the sensitivity is high and the correct answer is high. In such a case, the output value greatly changes due to the change in the input data, and it is determined that the learning should be continued.

【0035】第3の場合は感度が小さく、かつ正答度が
小さい場合である。このようなデータに対してはそれ以
上学習が進展しないにもかかわらず、正しい結果が得ら
れない、すなわちすでに学習済みのデータと矛盾がある
ことを示しており、このようなデータをそれ以上学習す
べきでなく、矛盾があるかないかのチェックを行う必要
がある。
In the third case, the sensitivity is low and the correct answer degree is low. It shows that even if learning does not progress further on such data, correct results are not obtained, that is, it is inconsistent with the already trained data, and such data is trained further. It should not be done and you need to check for inconsistencies.

【0036】第4の場合は感度が大きく、かつ正答度が
小さい場合である。このような場合には学習が不十分な
ことを示しており、今後の学習によって感度が小さくな
り、かつ正答度が向上する可能性がある。
The fourth case is a case where the sensitivity is high and the correct answer degree is low. In such a case, it indicates that learning is insufficient, and there is a possibility that future learning will reduce the sensitivity and improve the correct answer rate.

【0037】以上のように本発明によれば、教師データ
の感度および認識結果の正答度を利用することによっ
て、教師データに対して学習を継続すべきか否か、すな
わちニューラルネットワークの学習状況を判定できるこ
とになる。
As described above, according to the present invention, by using the sensitivity of the teacher data and the correct answer degree of the recognition result, whether or not the learning should be continued with respect to the teacher data, that is, the learning status of the neural network is determined. You can do it.

【0038】また、本発明においては、ニューラルネッ
トワークに入力される教師データの入力項目の必要性が
判定される。基準となる入力データ、基準となる入力デ
ータに対する認識結果である出力データ、教師データ、
ニューラルネットワークに入力された教師データの認識
結果、及びニューラルネットワークの重みから計算され
た入力項目毎の各教師データの基準となる入力値からの
変化量に対する出力値の変化量の絶対値は、値が大きけ
れば出力に与える影響は大きいので、必要な入力項目と
見なされる。逆に出力値の変化量の絶対値が小さけれ
ば、出力に与える影響は小さいので、入力項目は不必要
であると見なされて教師データの該入力項目に該当する
データが削除される。
Further, in the present invention, the necessity of the input item of the teacher data input to the neural network is determined. Reference input data, output data which is a recognition result for the reference input data, teacher data,
The absolute value of the change amount of the output value with respect to the change amount from the reference input value of each teacher data for each input item calculated from the recognition result of the teacher data input to the neural network and the weight of the neural network is the value. Is large, it has a large effect on the output, so it is regarded as a necessary input item. On the contrary, if the absolute value of the change amount of the output value is small, the influence on the output is small, so that the input item is regarded as unnecessary and the data corresponding to the input item of the teacher data is deleted.

【0039】削除の判定方法としては、出力値の変化量
の絶対値の最大値と出力の実際の誤差の最大値とを加算
した値が、予め定められた許容誤差の範囲内であれば入
力項目は削除可能であると判定されて、教師データの該
入力項目に該当するデータが自動的に削除されて、教師
データの再編成が行われる。また、出力値の変化量の絶
対値の最大値と出力の実際の誤差の最大値とを加算した
値が、予め定められた許容誤差よりも大きければ入力項
目は削除不可能であると判定される。
As a method of judging deletion, if the value obtained by adding the maximum absolute value of the change amount of the output value and the maximum actual error of the output is within a predetermined allowable error range, the input is made. It is determined that the item can be deleted, the data corresponding to the input item of the teacher data is automatically deleted, and the teacher data is reorganized. Further, if the value obtained by adding the maximum absolute value of the change amount of the output value and the maximum actual error of the output is larger than the predetermined allowable error, it is determined that the input item cannot be deleted. It

【0040】また、別の削除の判定方法として、出力値
の変化量をユーザに対して表示して、ユーザが入力項目
を削除するか否かの判定を行う。ユーザが該入力項目を
削除すると判定した場合には、該入力項目の削除の指示
を出し、教師データの該入力項目に該当するデータが削
除されて、教師データの再編成が行われる。
As another deletion determination method, the amount of change in the output value is displayed to the user and it is determined whether the user deletes the input item. When the user determines to delete the input item, an instruction to delete the input item is issued, the data corresponding to the input item of the teacher data is deleted, and the teacher data is reorganized.

【0041】また、本発明においては、ニューラルネッ
トワークの学習に用いられる教師データから各入力項目
毎に有効範囲を求めて、教師データの1つの入力項目に
該当するデータを有効範囲の例えば上限値、下限値に置
き換えてニューラルネットワークに入力して認識を行
う。各教師データに対してデータを置き換えた後に認識
を行い、上限値、或いは下限値毎の認識結果のグラフを
作成して表示することによって、ユーザは各入力項目が
出力に与える影響を容易に把握することができるように
なる。
Further, in the present invention, the effective range is obtained for each input item from the teacher data used for learning of the neural network, and the data corresponding to one input item of the teacher data is set to, for example, the upper limit value of the effective range. The lower limit value is replaced and input to the neural network for recognition. The user can easily understand the effect of each input item on the output by performing recognition after replacing the data for each teacher data and creating and displaying a graph of the recognition result for each upper limit value or lower limit value. You will be able to.

【0042】更には、本発明においては、ニューラルネ
ットワークの感度、結合の重みから求められる逆写像等
の定性的関係を計算し、ユーザが入力した定性的関係と
比較することによって、学習に矛盾があるか否かを判定
している。
Further, in the present invention, the learning is inconsistent by calculating the qualitative relationship such as the inverse mapping obtained from the sensitivity of the neural network and the weight of the connection and comparing it with the qualitative relationship input by the user. It is determined whether or not there is.

【0043】[0043]

【実施例】図3は本発明のニューラルネットワークの学
習装置の第1の実施例の構成ブロック図である。同図に
おいて学習装置は教師データを記憶する教師データ記憶
部11、教師データを用いてニューラルネットワークの
学習を制御する学習制御部12、ニューラルネットワー
クの層構成、ニューロン間の結合の重みなどを記憶する
ニューラルネットワーク記憶部13、教師データ記憶部
11に記憶されている教師データとその教師データに対
してニューラルネットワーク記憶部13から出力される
認識結果を用いて認識結果の正答度を計算する正答度計
算部14、教師データの入力データに微小変化を与え、
それに対応するニューラルネットワークの出力を用いて
教師データに対する感度を計算する感度計算部15、正
答度計算部14、及び感度計算部15の出力を用いて教
師データの学習を継続すべきか否かを判定する学習状況
判定部16、および学習状況判定部16の判定結果に基
づいて学習データを変更し、その結果を教師データ記憶
部11、および学習制御部12に通知する学習データ変
更部17から構成されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 3 is a block diagram of the structure of a first embodiment of a learning device for a neural network according to the present invention. In the figure, the learning device stores a teacher data storage unit 11 for storing teacher data, a learning control unit 12 for controlling learning of a neural network using the teacher data, a layer structure of the neural network, a weight of connection between neurons, and the like. Correctness degree calculation for calculating the correctness degree of the recognition result using the teacher data stored in the neural network storage unit 13 and the teacher data storage unit 11 and the recognition result output from the neural network storage unit 13 for the teacher data Part 14, giving a slight change to the input data of the teacher data,
It is determined whether the learning of the teacher data should be continued using the outputs of the sensitivity calculation unit 15 that calculates the sensitivity to the teacher data using the output of the corresponding neural network, the correct answer degree calculation unit 14, and the sensitivity calculation unit 15. And a learning data changing unit 17 for changing learning data based on the judgment result of the learning condition judging unit 16 and notifying the learning data to the teacher data storage unit 11 and the learning control unit 12. ing.

【0044】学習状況判定部16は感度が小さく、かつ
認識結果の正答度が大きい場合には、その教師データに
対する学習を終了させると判定し、また感度が小さく、
認識結果の正答度も低いデータは矛盾があるものとみな
し、学習の対象から省くように学習データ変更部17に
伝達する。その他の場合には更に学習を継続するものと
判定し、学習データ変更部17を介して学習制御部12
にその教師データの学習を継続させる。
If the sensitivity is low and the correct answer degree of the recognition result is high, the learning situation judging section 16 judges that the learning for the teacher data should be ended, and the sensitivity is small,
Data having a low correct answer in the recognition result is regarded as having a contradiction, and is transmitted to the learning data changing unit 17 so as to be omitted from the learning target. In other cases, it is determined that the learning is to be continued, and the learning control unit 12 passes through the learning data changing unit 17.
To continue learning the teacher data.

【0045】図4はニューラルネットワークの学習装置
の第2の実施例の構成ブロック図である。同図を第1の
実施例を示す図3と比較すると、学習状況判定部16の
代わりに学習状況表示部18が用いられている点のみが
異なっている。この学習状況表示部は、学習状況判定部
に代わって、教師データの感度とその教師データに対す
る認識結果の正答度との関係を、例えばグラフを用いて
表示し、その教師データに対して学習を継続すべきか否
かのユーザの判定を支援するものである。ユーザは学習
状況表示部の表示に対応して学習状況を判定し、学習デ
ータ変更部17を介して学習データの変更、またはその
教師データの学習継続を制御させる。
FIG. 4 is a block diagram of the structure of a second embodiment of the learning device for the neural network. Comparing FIG. 3 with FIG. 3 showing the first embodiment, it is different only in that a learning status display unit 18 is used instead of the learning status determination unit 16. The learning status display unit, instead of the learning status determination unit, displays the relationship between the sensitivity of the teacher data and the correct answer degree of the recognition result for the teacher data using, for example, a graph, and the learning data is learned. It assists the user in determining whether or not to continue. The user determines the learning status in accordance with the display on the learning status display unit, and controls the learning data changing unit 17 to change the learning data or to continue the learning of the teacher data.

【0046】図5はニューラルネットワークの学習装置
の第3の実施例の構成ブロック図である。同図を第1の
実施例と比較すると、学習データ変更部17に代わって
未学習データ変更部20が設けられ、また新たに未学習
のデータ、すなわち教師データ記憶部11に記憶されて
いるデータと異なる未学習のデータを記憶する未学習デ
ータ記憶部19が設けられ、更に正答度計算部14が教
師データでなく、未学習データに対するニューラルネッ
トワークの認識結果の正答度を計算し、また感度計算部
15が同様に未学習データに対する感度を計算し、学習
状況判定部が未学習データの妥当性の判定を行う点が異
なっている。なお、図4の第2の実施例と同様に、学習
状況判定部16の代わりに学習状況表示部を設け、ユー
ザによる学習状況の判定を支援することも可能である。
FIG. 5 is a block diagram of the structure of the third embodiment of the learning device for the neural network. Comparing this figure with the first embodiment, an unlearned data changing unit 20 is provided in place of the learning data changing unit 17, and newly unlearned data, that is, data stored in the teacher data storage unit 11. An unlearned data storage unit 19 for storing unlearned data different from the above is provided, and the correct answer degree calculation unit 14 calculates the correct answer degree of the recognition result of the neural network for the unlearned data instead of the teacher data, and the sensitivity calculation. The difference is that the unit 15 similarly calculates the sensitivity to unlearned data, and the learning status determination unit determines the validity of unlearned data. Similar to the second embodiment of FIG. 4, it is possible to provide a learning status display unit instead of the learning status determination unit 16 to assist the user in determining the learning status.

【0047】次に本発明における学習状況の判定、すな
わちある教師データに対する学習継続必要性の判定のた
めの感度計算の方法について一般的に説明する。一回ま
たは複数回の学習を行ったあと、学習させた各教師デー
タに対して、出力値と感度を求める。ここで、x1,・
・・,xmは入力層ニューロンへの入力値、y1,・・
・,ynは出力層ニューロンからの出力値、f1,・・
・,fnは入出力関係の関数、s11,・・・,snm
は感度を、εは感度を求めるために、入力に加える摂動
を表す。
Next, a method of sensitivity calculation for determining the learning situation, that is, for determining the necessity of continuing learning with respect to certain teacher data will be generally described. After learning once or a plurality of times, the output value and sensitivity are obtained for each learned teacher data. Where x1, ...
.., xm are input values to the input layer neurons, y1, ..
,, yn are the output values from the output layer neurons, f1, ...
,, fn are input / output related functions, s11, ..., snm
Is the sensitivity, and ε is the perturbation applied to the input to obtain the sensitivity.

【0048】 y1=f1(x1, ・・・ ・・・, xm) : yn=fn(x1, ・・・ ・・・, xm) s11 =(f1(x1+ε,・・・ ・・・, xm)-f1(x1, ・・・ ・・・, xm))/ε : s1m =(f1(x1,・・・ ・・・, xm +ε)-f1(x1, ・・・ ・・・, xm))/ ε s21 =(f2(x1+ε,・・・ ・・・, xm)-f2(x1, ・・・ ・・・, xm))/ε : s2m =(f2(x1, ・・・ ・・・, xm +ε)-f2(x1,・・・ ・・・, xm))/ε : : sn1 =(fn(x1+ε,・・・ ・・・, xm)-fn(x1, ・・・ ・・・, xm))/ε : snm =(fn(x1, ・・・ ・・・, xm +ε)-fn(x1,・・・ ・・・, xm))/ε 本実施例ではこれらの感度s11,s12,・・・snmのう
ち絶対値が最大のものを感度の代表値として求める。た
だし、代表値として平均値や中央値を用いることも可能
である。なお、これらの感度を求めるための入出力関係
の関数f1 ,f 2 ,・・・fn は、必ずしもその式が明
らかとは限らないが、入力の値によって出力層ニューロ
ンの出力値が決定されることを表している。
Y1 = f1 (x1, ..., xm): yn = fn (x1, ..., xm) s11 = (f1 (x1 + ε, ..., xm) -f1 (x1, ・ ・ ・ ・ ・ ・, xm)) / ε: s1m = (f1 (x1, ・ ・ ・ ・ ・ ・, xm + ε) -f1 (x1, ・ ・ ・ ・ ・ ・, xm)) / ε s21 = (f2 (x1 + ε, ・ ・ ・ ・ ・ ・, xm) -f2 (x1, ・ ・ ・ ・ ・ ・, xm)) / ε s2m = (f2 (x1, ・ ・ ・ ・ ・ ・, xm + ε) -f2 (x1, ... ・ ・ ・, xm)) / ε :: sn1 = (fn (x1 + ε, ・ ・ ・ ・ ・ ・, xm) -fn (x1, ・ ・ ・ ・ ・ ・, xm)) / ε: snm = (fn (x1, ... ・ ・ ・, xm + ε) -fn (x1, ... ・ ・ ・, xm)) / ε In the present embodiment, these sensitivities s11, S12・ ・ ・ SnmNou
The one with the maximum absolute value is obtained as the representative value of sensitivity. Was
However, it is also possible to use the average or median as the representative value.
Is. Note that the input / output relationship for obtaining these sensitivities
Function f of1, F 2・ ・ ・ FnThe formula is not always clear
Depending on the value of the input, the output layer neuron
It indicates that the output value of the input is determined.

【0049】図6は教師データに対する感度計算処理の
フローチャートである。同図において処理が開始される
と、まずステップS21でその教師データに対するネッ
トワーク固有の感度の絶対値の最大値が求められる。こ
の最大値はネットワークによって定まる値であり、入力
データには依存しないものである。この最大値の求め方
については後述する。
FIG. 6 is a flow chart of sensitivity calculation processing for teacher data. When the process is started in the figure, first, in step S21, the maximum absolute value of the network-specific sensitivity to the teacher data is obtained. This maximum value is determined by the network and does not depend on input data. How to obtain this maximum value will be described later.

【0050】続いてS22で入力データの中のそれぞれ
の入力変数に対して加える微小変化、すなわち摂動の大
きさが決定され、S23で1つの教師データが選択さ
れ、S24で選択されたデータに対するネットワークの
出力が求められる。
Subsequently, in S22, the minute change to be applied to each input variable in the input data, that is, the magnitude of the perturbation is determined, one teacher data is selected in S23, and the network for the data selected in S24 is selected. Output is required.

【0051】次にS25で複数の入力変数のうち1つの
入力変数が選択され、S26で選択された入力変数の値
に摂動を加え、その結果の入力データに対するネットワ
ークの出力が求められ、S27で求められた出力値から
前述のS24で求められた出力値が差し引かれ、その差
が摂動の大きさで割られて、選択された入力に対する個
々の出力の感度が求められる。S25からS27までの
処理が複数の入力変数の全てについて繰り返され、全て
の入力変数に対する感度が求められた時点で、S28で
感度の代表値が求められる。ここでは絶対値が最大のも
のが選択されるものとする。最後にS29で全ての入力
変数に対して求められた感度の代表値が、S21で求め
られたネットワーク固有の感度の絶対値の最大値で割ら
れ、0から1の範囲に正規化され、その後S23からS
29までの処理が教師データの全てについて繰り返され
る。
Next, one input variable is selected from a plurality of input variables in S25, a perturbation is added to the value of the selected input variable in S26, and the output of the network for the resulting input data is obtained, and in S27. The output value obtained in S24 described above is subtracted from the obtained output value, and the difference is divided by the magnitude of the perturbation to obtain the sensitivity of each output with respect to the selected input. The process from S25 to S27 is repeated for all of the plurality of input variables, and when the sensitivities to all the input variables are obtained, the representative value of the sensitivity is obtained in S28. Here, it is assumed that the one having the largest absolute value is selected. Finally, the representative values of the sensitivities obtained for all the input variables in S29 are divided by the maximum absolute value of the sensitivity peculiar to the network obtained in S21, and normalized to the range of 0 to 1, S23 to S
The processes up to 29 are repeated for all the teacher data.

【0052】続いてネットワーク固有の感度の絶対値の
最大値について説明する。ここで固有の感度の絶対値の
最大値を求めるのは、前述の正規化においてこの最大値
を利用するためである。感度の最大値はニューラルネッ
トワークの構成によって異なる。図7に示す2層ネット
ワークについてまず説明する。
Next, the maximum absolute value of the sensitivity peculiar to the network will be described. Here, the maximum value of the absolute value of the inherent sensitivity is obtained in order to use this maximum value in the above-mentioned normalization. The maximum sensitivity depends on the configuration of the neural network. The two-layer network shown in FIG. 7 will be described first.

【0053】感度とは、入力x,出力yに対して、Sensitivity means that for input x and output y

【0054】[0054]

【数2】 [Equation 2]

【0055】を差分近似した、( y(x0+ε)−y (x
0))/εである。2層構造の場合、シグモイド関数を伝
達関数とすると、
(Y (x0 + ε) −y (x
0)) / ε. In the case of a two-layer structure, if the sigmoid function is the transfer function,

【0056】[0056]

【数3】 [Equation 3]

【0057】したがって、感度の絶対値の最大値は(1/
4) ・max |W1(i, j)|である。次に図7に示す3層ネ
ットワークについては次のようにして感度が求まる。
Therefore, the maximum absolute value of sensitivity is (1 /
4) • max | W1 (i, j) |. Next, for the three-layer network shown in FIG. 7, the sensitivity is obtained as follows.

【0058】[0058]

【数4】 [Equation 4]

【0059】(右辺の第1項は正の項のみの和、第2項
は負の項のみの和を表す。) 0<f′(uj)≦1/4 より、
(The first term on the right side represents the sum of only positive terms, and the second term represents the sum of only negative terms.) 0 <f '(uj) ≤1 / 4

【0060】[0060]

【数5】 [Equation 5]

【0061】同様に、Similarly,

【0062】[0062]

【数6】 [Equation 6]

【0063】である。したがって、感度の絶対値の最大
値は、
It is Therefore, the maximum absolute sensitivity is

【0064】[0064]

【数7】 [Equation 7]

【0065】をすべてのi,jについての最大を求めれ
ばよい。この値はネットワークによって定まる値で入力
には依存しない。教師データの感度の計算について具体
例を用いてより詳しく説明する。図9は教師データの具
体例である。同図において教師データのパターンとして
はA〜Dの4種類があり、入力はx1 〜x3 の3個、出
力はz1 およびz2 の2個であるとする。入力変数に加
えられる摂動の値としては教師データ全体に対してあま
り影響を与えない程度の小さい値を選ぶ必要があり、こ
こでは0.01とする前述のように教師データの全ての入力
について摂動を与えて感度を求め、その中で絶対値が最
大の感度の値をその教師データに対する感度の代表値と
して求め、ネットワーク固有の最大値によって割ること
により0〜1の範囲の代表値が求められる。
The maximum of all i and j should be obtained. This value is determined by the network and does not depend on the input. The calculation of the sensitivity of the teacher data will be described in more detail using a specific example. FIG. 9 is a specific example of teacher data. In the figure, there are four types of teacher data patterns A to D, three inputs x 1 to x 3 and two outputs z 1 and z 2 . As the perturbation value added to the input variable, it is necessary to select a small value that does not have much effect on the entire teacher data, and here it is set to 0.01. Then, the sensitivity value having the maximum absolute value is obtained as a representative value of the sensitivity with respect to the teacher data, and the representative value in the range of 0 to 1 is obtained by dividing by the maximum value peculiar to the network.

【0066】図9の教師データに対する感度計算は次の
手順1)〜5)によって行われる。 1) ネットワーク固有の感度の絶対値の最大値を求め
る。この計算方法は図7、8で説明した通りである。 2) 対象となる4パターンの内、まずパターンAに注
目して、ネットワークの出力f1(x1,x2,x
3),f2(x1,x2,x3)を求める。 3) x1にεを加えて出力f1(x1+ε,x2,x
3),f2(x1+ε,x2,x3)を求める。同様に
x2,x3についても、f1(x1,x2+ε,x
3),f2(x1,x2+ε,x3),f1(x1,x
2,x3+ε),f2(x1,x2,x3+ε)を求め
る。このとき、入力jから出力iへの感度s(A,i,
j)は次のように定まる。 s(A,1,1)=(f1(x1+ε,x2,x3)−
f1(x1,x2,x3))/ε s(A,1,2)=(f1(x1,x2+ε,x3)−
f1(x1,x2,x3))/ε s(A,1,3)=(f1(x1,x2,x3+ε)−
f1(x1,x2,x3))/ε s(A,2,1)=(f2(x1+ε,x2,x3)−
f2(x1,x2,x3))/ε s(A,2,2)=(f2(x1,x2+ε,x3)−
f2(x1,x2,x3))/ε s(A,2,3)=(f2(x1,x2,x3+ε)−
f2(x1,x2,x3))/ε 4) 6個の値から、パターンの感度の代表値を求める
ために、絶対値が最大値のものを取り出す。この絶対値
がパターンAのこのネットワークでの感度の代表値であ
る。言い換えると、パターンAの入力の微小変動が出力
に及ぼす影響の中で最大の値を求めていることに相当す
る。 5) 残りのパターンについても同様に感度の代表値を
求め、ネットワーク固有の感度の絶対値で割り、正規化
する。
The sensitivity calculation for the teacher data of FIG. 9 is performed by the following procedures 1) to 5). 1) Find the maximum absolute value of the sensitivity peculiar to the network. This calculation method is as described in FIGS. 2) Of the four target patterns, first pay attention to the pattern A, and output f1 (x1, x2, x
3) and f2 (x1, x2, x3) are calculated. 3) Add ε to x1 and output f1 (x1 + ε, x2, x
3), f2 (x1 + ε, x2, x3) is obtained. Similarly, for x2 and x3, f1 (x1, x2 + ε, x
3), f2 (x1, x2 + ε, x3), f1 (x1, x
2, x3 + ε), f2 (x1, x2, x3 + ε). At this time, the sensitivity s (A, i,
j) is determined as follows. s (A, 1,1) = (f1 (x1 + ε, x2, x3) −
f1 (x1, x2, x3)) / ε s (A, 1, 2) = (f1 (x1, x2 + ε, x3) −
f1 (x1, x2, x3)) / ε s (A, 1, 3) = (f1 (x1, x2, x3 + ε) −
f1 (x1, x2, x3)) / ε s (A, 2, 1) = (f2 (x1 + ε, x2, x3) −
f2 (x1, x2, x3)) / ε s (A, 2, 2) = (f2 (x1, x2 + ε, x3) −
f2 (x1, x2, x3)) / ε s (A, 2, 3) = (f2 (x1, x2, x3 + ε) −
f2 (x1, x2, x3)) / ε 4) In order to obtain the representative value of the sensitivity of the pattern from the six values, the one with the maximum absolute value is extracted. This absolute value is the representative value of the sensitivity of pattern A in this network. In other words, this corresponds to finding the maximum value among the influences of the minute fluctuation of the input of the pattern A on the output. 5) Similarly, for the remaining patterns, a representative value of sensitivity is obtained, divided by the absolute value of sensitivity unique to the network, and normalized.

【0067】図10は、図9のA〜Dの4種類のパター
ンに対する正規化前の感度の代表値と正規化後の代表値
を示す。ここでネットワーク固有の感度の絶対値の最大
値は1.34659 である。
FIG. 10 shows representative values of sensitivity before normalization and representative values after normalization for the four types of patterns A to D in FIG. Here, the maximum absolute sensitivity of the network is 1.34659.

【0068】次に教師データの認識結果に対する正答度
の求め方について説明する。出力層ニューロンの数をn
個とし、教師データに対する実際の出力値をy1
n 、教師データの出力値をz1 〜zn とすると、その
教師データに対する認識結果の正答度は次式で与えられ
る。
Next, how to obtain the correct answer degree with respect to the recognition result of the teacher data will be described. The number of output layer neurons is n
And the actual output value for the teacher data is y 1 ~
If y n and the output values of the teacher data are z 1 to z n , the correct answer degree of the recognition result for the teacher data is given by the following equation.

【0069】[0069]

【数8】 [Equation 8]

【0070】この正答度の値は実際のニューロンの出力
値yi と教師データの出力値zi (i=1,2,・・
・,n)が完全に一致した場合のみ1となり、実際の出
力値と教師データの出力値がずれるに従って0に近づ
く。正答度の求め方は次式の計算によってもよい。
[0070] The output value z i (i = 1,2 of the output value y i and the teacher data of this correct value of the degree of actual neuron, ...
, N) becomes 1 only when they completely match, and approaches 0 as the actual output value and the output value of the teacher data deviate. The accuracy of the correct answer may be calculated by the following formula.

【0071】[0071]

【数9】 [Equation 9]

【0072】これらの式の値も0から1の間の範囲にな
り、認識結果がよい程1に近い値となる。必ずしも0か
ら1の範囲でなくとも、認識結果の良、不良と大小関係
を持つ他の計算式を用いることも可能である。
The values of these expressions are also in the range between 0 and 1, and the closer the recognition result is, the closer to 1. It is possible to use other calculation formulas that have a magnitude relationship with goodness or badness of the recognition result, not necessarily in the range of 0 to 1.

【0073】図11は教師データの感度と認識結果の正
答度の関係による教師データの学習必要性の判定法の説
明図である。前述のように感度、正答度共に0から1の
範囲に正規化されており、一般的にそれぞれ 0.5を判定
の基準の境界値と考えることができる。正答度について
はニューラルネットワークによる認識対象がパターン認
識であり、各出力について最大 0.5の誤差が許されるも
のと考える。従って正答度の判定基準としては 0.5を用
いることにする。
FIG. 11 is an explanatory diagram of a method of determining the necessity of learning the teacher data based on the relationship between the sensitivity of the teacher data and the degree of correct answer of the recognition result. As described above, both the sensitivity and the degree of correct answer are normalized in the range of 0 to 1, and in general, 0.5 can be considered as the boundary value of the judgment criterion. Regarding the correct answer, it is considered that the recognition target by the neural network is pattern recognition, and an error of maximum 0.5 is allowed for each output. Therefore, 0.5 is used as the criterion for determining the correct answer.

【0074】前述のように感度が小さく、正答度が大き
い教師データ、すなわちのデータは学習済みと判定さ
れ、逆に感度が大きく、正答度が小さい教師データは未
学習、すなわち学習を継続すべきデータと判定される。
これに対して感度も正答度も小さいのデータは他の教
師データと矛盾があるものと判定され、また感度も正答
度も大きいデータは更に学習が必要なものと判定され
る。
As described above, the teacher data having a low sensitivity and a high degree of correct answer, that is, the data is judged to have been learned, and conversely, the teacher data having a high sensitivity and a small degree of correct answer is unlearned, that is, learning should be continued. Judged as data.
On the other hand, it is determined that the data having a small sensitivity and the accuracy of correct answers are inconsistent with other teacher data, and the data having a high sensitivity and the accuracy of correct answers are determined to require further learning.

【0075】図12は具体的な教師データに対する感度
と正答度を示す図である。同図において教師データとし
てパターンE〜Hの4種類が示され、それぞれ正規化後
の感度と、認識結果の正答度が示されている。前述のよ
うに判定の境界値が共に 0.5であるため、パターンEは
図10の、すなわち矛盾ありのデータに分類され、パ
ターンFはの未学習のデータ、パターンGはの学習
必要データ、パターンHはの学習済データに分類され
る。
FIG. 12 is a diagram showing specific sensitivities and correct answers to teacher data. In the figure, four types of patterns E to H are shown as teacher data, and the sensitivity after normalization and the correct answer degree of the recognition result are shown. As described above, since the boundary values of both determinations are 0.5, the pattern E is classified into the data of FIG. 10, that is, the data with contradiction, the pattern F is the unlearned data, the pattern G is the learning required data, and the pattern H. Is classified as trained data.

【0076】図13は図4の第2の実施例における学習
状況表示部18の表示結果の例である。同図において教
師データ1と教師データ2に対する学習中の感度と正答
度との関係の軌跡が与えられている。教師データ1に対
しては学習の進行に従って感度は小さくなり、正答度は
大きくなるために適切に学習が行われているものと判定
される。これに対して教師データ2に対しては学習の進
行につれて感度が低くなるが、認識結果の正答度も小さ
くなり、他の教師データに対して矛盾を持っているもの
と判定され、学習を継続させるのは不適当と判断され
る。このような学習状況が表示されることによりユーザ
の判定を支援することができる。
FIG. 13 is an example of the display result of the learning status display section 18 in the second embodiment of FIG. In the figure, the locus of the relationship between the sensitivity during learning and the degree of correct answer for the teacher data 1 and the teacher data 2 is given. With respect to the teacher data 1, the sensitivity decreases as the learning progresses, and the correct answer degree increases, so that it is determined that the learning is appropriately performed. On the other hand, with respect to the teacher data 2, the sensitivity decreases as the learning progresses, but the correct answer degree of the recognition result also decreases, and it is determined that there is a contradiction with other teacher data, and the learning is continued. It is judged to be unsuitable. Displaying such a learning status can assist the user in making a decision.

【0077】学習状況判定の基準としては感度、正答度
共に 0.5を用いるものとして説明したが、必要に応じて
この判定の基準を変更することも可能である。例えば出
力に高い精度が要求される場合には正答度の判定基準を
0.5より大きくし、また入力に大きな誤差が生じやすい
場合には感度の判定基準を 0.5より大きくすることが適
当である。
Although the sensitivity and the degree of correct answer of 0.5 are used as the criteria for the learning situation determination, the criteria for this determination can be changed if necessary. For example, when high accuracy is required for output, the criterion for the correct answer is
If it is larger than 0.5, and if a large error is likely to occur in the input, it is appropriate to make the sensitivity judgment standard larger than 0.5.

【0078】入力層のニューロンの個数が多い、すなわ
ち入力変数の数が多い時には感度の判定基準を 0.5より
小さくすることが適当である。その理由は、前述のネッ
トワーク固有の感度の最大値は全ての入力がある値にな
ることを条件として求められているために、一般に入力
の個数が増えればそれだけその最大値に近い値が実現さ
れにくくなるためである。
When the number of neurons in the input layer is large, that is, when the number of input variables is large, it is appropriate to set the sensitivity criterion to be smaller than 0.5. The reason is that the maximum value of the above-mentioned network-specific sensitivity is required on the condition that all inputs have a certain value. Therefore, in general, as the number of inputs increases, a value closer to that maximum value is realized. This is because it becomes difficult.

【0079】次に、図5の第3の実施例における未学習
データと教師データとの整合性の判定法について説明す
る。未学習データに対しても、図11で説明したように
感度が小さく、また正答度も低いものは教師データ記憶
部11に記憶されている教師データと矛盾しているもの
と判定される。ここでは図14に示す具体例を用いて教
師データとの整合性の判定を説明する。
Next, a method of determining the consistency between unlearned data and teacher data in the third embodiment shown in FIG. 5 will be described. As to the unlearned data, as described with reference to FIG. 11, the data having low sensitivity and low correct answer degree are determined to be inconsistent with the teacher data stored in the teacher data storage unit 11. Here, the determination of the consistency with the teacher data will be described using the specific example shown in FIG.

【0080】図14において上昇1,2、下降1,2の
4つのパターンは教師データ記憶部11に記憶されてい
るもので、すでに学習が行われているものとする。A〜
Dの4つのパターンは未学習データ記憶部19に記憶さ
れている未学習データであるものとし、これらの4つの
パターンについて正規化後の感度と正答度が図14に示
すように計算されたものとする。
In FIG. 14, four patterns of rising 1, 2 and falling 1, 2 are stored in the teacher data storage unit 11, and it is assumed that learning has already been performed. A ~
It is assumed that the four patterns of D are unlearned data stored in the unlearned data storage unit 19, and the sensitivity and the correct answer degree after normalization of these four patterns are calculated as shown in FIG. And

【0081】図14においてパターンAは図11の矛盾
あり、すなわちのデータに分類される。すなわちこの
パターンは入力データとして見る時は上昇1のパターン
に非常に近いにもかかわらず、出力データは下降1、ま
たは2と同じとなっており、これは教師データと矛盾し
ている。パターンBとCはの未学習に分類され、学習
させる教師データとして追加すべきものであると判定さ
れる。パターンDは学習済みのデータに分類され、こ
のパターンを教師データとして追加する必要はないもの
と判定される。図15は本発明のニューラルネットワー
クの学習装置の第4の実施例の構成ブロック図である。
同図において学習装置は教師データを記憶する教師デー
タ記憶部31、教師データを用いてニューラルネットワ
ークの学習を制御する教師データ学習部32、ニューラ
ルネットワークの層構成、ニューロン間の結合の重みな
どを記憶するニューラルネットワーク記憶部33、教師
データ記憶部31に記憶されている教師データをニュー
ラルネットワーク記憶部33の層構成、結合の重みによ
り認識を行う教師入力値認識部34、教師入力値認識部
34における認識結果を記憶する認識結果記憶部35、
基準となる入力値を記憶する基準入力値記憶部36、基
準入力値記憶部36に記憶されている基準入力値データ
をニューラルネットワーク記憶部33の層構成、結合の
重みにより認識を行う基準入力値認識部37、基準入力
値認識部37における認識結果を記憶する基準出力値記
憶部38、教師データ記憶部31に記憶された教師デー
タ、基準入力値記憶部36に記憶された基準入力値デー
タ、認識結果記憶部35に記憶された認識結果、基準出
力値記憶部38に記憶された認識結果、ニューラルネッ
トワーク記憶部33の層構成、結合の重みにより入力値
の変化量に対する出力値の変化量の関係を計算する入出
力関係計算部39、入出力関係計算部39の計算結果か
ら入力項目が削除すべき項目か否かを判定する入力項目
削除判定部40、入力項目削除判定部40の判定結果を
基に入力項目の削除を行う入力項目削除部41、入力項
目削除部41において削除された教師データの再編成を
行う教師データ再編成部42から構成されている。
In FIG. 14, the pattern A has the contradiction of FIG. 11, that is, it is classified as data. That is, although this pattern is very close to the pattern of rising 1 when viewed as input data, the output data is the same as that of falling 1 or 2, which is inconsistent with the teacher data. Patterns B and C are classified as unlearned, and it is determined that they should be added as teacher data to be learned. The pattern D is classified into learned data, and it is determined that it is not necessary to add this pattern as teacher data. FIG. 15 is a block diagram showing the configuration of a fourth embodiment of the learning device for the neural network of the present invention.
In the figure, the learning device stores a teacher data storage unit 31 that stores teacher data, a teacher data learning unit 32 that controls learning of a neural network using the teacher data, a layer structure of the neural network, a weight of connection between neurons, and the like. In the neural network storage unit 33, the teacher input value recognition unit 34 and the teacher input value recognition unit 34 that recognize the teacher data stored in the teacher data storage unit 31 by the layer structure of the neural network storage unit 33 and the weight of the connection. A recognition result storage unit 35 that stores the recognition result,
A reference input value storage unit 36 that stores a reference input value, a reference input value that recognizes the reference input value data stored in the reference input value storage unit 36 based on the layer structure of the neural network storage unit 33 and the weight of the connection. The recognition unit 37, the reference output value storage unit 38 that stores the recognition result in the reference input value recognition unit 37, the teacher data stored in the teacher data storage unit 31, the reference input value data stored in the reference input value storage unit 36, The recognition result stored in the recognition result storage unit 35, the recognition result stored in the reference output value storage unit 38, the layer structure of the neural network storage unit 33, and the change amount of the output value with respect to the change amount of the input value depending on the connection weight. An input / output relationship calculation unit 39 that calculates a relationship, an input item deletion determination unit 40 that determines whether or not an input item is an item to be deleted from the calculation result of the input / output relationship calculation unit 39, The input item deletion unit 41 deletes input items based on the determination result of the input item deletion determination unit 40, and the teacher data reorganization unit 42 reorganizes the teacher data deleted by the input item deletion unit 41. There is.

【0082】基準入力値記憶部36に記憶されている基
準入力値データは、教師データ記憶部31に入力される
各教師データに対して基準となるデータであり、各教師
データの平均値、或いは前回の学習において使用された
教師データ等である。
The reference input value data stored in the reference input value storage unit 36 is reference data for each teacher data input to the teacher data storage unit 31, and is an average value of each teacher data, or These are teacher data and the like used in the previous learning.

【0083】基準入力値認識部37は、教師データ学習
部32と同様のニューラルネットワークの層構成を有
し、教師データ学習部32における学習の結果得られた
結合の重みが、そのまま入力層ニューロン〜中間層ニュ
ーロン間、中間層〜中間層間、或いは中間層〜出力層間
の重みとして与えられる。基準入力値認識部37は、基
準入力値データと教師データ学習部32における学習の
結果得られた結合の重みを用いて基準出力値を求めて出
力する。
The reference input value recognizing unit 37 has a layer structure of a neural network similar to that of the teacher data learning unit 32, and the weight of the connection obtained as a result of the learning in the teacher data learning unit 32 is directly input layer neurons. It is given as a weight between the intermediate layer neurons, the intermediate layer to the intermediate layer, or the intermediate layer to the output layer. The reference input value recognition unit 37 obtains and outputs a reference output value by using the reference input value data and the weight of the connection obtained as a result of the learning in the teacher data learning unit 32.

【0084】次に、入出力関係計算部39における出力
値の変化量の計算方法、及び入力項目削除判定部40に
おける入力項目の削除判定方法を図20のフローチャー
トを用いて、以下に説明する。但し、教師入力値認識部
34及び基準入力値認識部37内のニューラルネットワ
ークは、入力層ニューロン数m、中間層ニューロン数
l、出力層ニューロン数nの3階層で構成されているも
のとする。
Next, a method of calculating the amount of change in the output value in the input / output relation calculating unit 39 and a method of judging the deletion of the input item in the input item deletion judging unit 40 will be described below with reference to the flowchart of FIG. However, it is assumed that the neural networks in the teacher input value recognition unit 34 and the reference input value recognition unit 37 are composed of three layers of the number of input layer neurons m, the number of intermediate layer neurons 1, and the number of output layer neurons n.

【0085】先ず、ステップS61でニューラルネット
ワークの入力層ニューロンiと出力層ニューロンjの逆
写像を求める。全ての入力項目に対する出力の逆写像を
求めるのであれば、逆写像Rijの計算を(m×n)回繰
り返すことになる。また、特定の入力項目に対する逆写
像を求めるのであれば、1つの入力項目に対してn個の
逆写像を求めれば良い。また、逆写像式を使用せずに、
前述した入力項目毎の感度の絶対値の最大値を用いても
良い。即ち、各教師データ毎に入力層ニューロンに対す
る出力層ニューロンの感度を求め、求められた感度の絶
対値の最大値を該入力層ニューロンに対する出力層ニュ
ーロンの感度の絶対値の最大値とする。入力層ニューロ
ンから出力層ニューロンへの全ての組み合わせ(m×
n)について感度の絶対値の最大値を求め、前述した逆
写像の代わりに用いるものである。
First, in step S61, the inverse mapping of the input layer neuron i and the output layer neuron j of the neural network is obtained. To obtain the inverse mapping of the output for all input items, the calculation of the inverse mapping R ij is repeated (m × n) times. Further, if the inverse mapping for a specific input item is to be obtained, it is only necessary to obtain n inverse mappings for one input item. Also, without using the inverse mapping formula,
The maximum absolute value of the sensitivity for each input item described above may be used. That is, the sensitivity of the output layer neuron to the input layer neuron is obtained for each teacher data, and the maximum absolute value of the obtained sensitivity is set to the maximum absolute value of the output layer neuron to the input layer neuron. All combinations (m × from input layer neurons to output layer neurons)
For n), the maximum absolute value of sensitivity is obtained and used instead of the above-mentioned inverse mapping.

【0086】次に、ステップS62において、基準入力
値記憶部36に記憶された基準入力値データI01〜I0m
を基準入力値認識部37に与え、基準となる出力データ
01〜O0nを求めて基準出力値記憶部38に格納する。
基準入力値認識部37は、教師入力値認識部34のニュ
ーラルネットワークと同じ層構成を有し、教師入力値認
識部34において学習した現時点での重み(ニューラル
ネットワーク記憶部33に格納されている情報)を用い
て計算を行う。但し、基準入力値認識部37は学習を行
わずに、基準入力値データと、ニューラルネットワーク
記憶部33に格納されている重みデータとから出力デー
タを計算して出力するものである。
Next, in step S62, the reference input value data I 01 to I 0m stored in the reference input value storage unit 36.
Is supplied to the reference input value recognition unit 37, reference output data O 01 to O 0n are obtained, and the reference output value storage unit 38 stores them.
The reference input value recognition unit 37 has the same layer structure as the neural network of the teacher input value recognition unit 34, and the weight at the present time learned by the teacher input value recognition unit 34 (information stored in the neural network storage unit 33). ) Is used to calculate. However, the reference input value recognition unit 37 calculates and outputs output data from the reference input value data and the weight data stored in the neural network storage unit 33 without performing learning.

【0087】続いて、ステップS63において、最初の
教師データである入力値I11〜I1mから出力値O11〜O
1nを求める。該入力値は教師入力値認識部34に入力さ
れて、該出力データが適正値になるように教師入力値認
識部34で学習を行う。従って、前ステップS62にお
いて基準入力値認識部37が使用する重みは、教師入力
値認識部34の学習の度に更新されることになる。該入
力値の学習が終了すれば、該出力値を認識結果記憶部3
5に格納する。
Subsequently, in step S63, the input values I 11 to I 1m, which are the first teacher data, to the output values O 11 to O.
Calculate 1n . The input value is input to the teacher input value recognition unit 34, and the teacher input value recognition unit 34 performs learning so that the output data has an appropriate value. Therefore, the weight used by the reference input value recognition unit 37 in the previous step S62 is updated every time the teacher input value recognition unit 34 learns. When the learning of the input value is completed, the output value is transferred to the recognition result storage unit 3
Store in 5.

【0088】次に、ステップS64において、入力デー
タI1iと、該入力データI1iに対応する出力データO1j
とから変化量Vijを次式を用いて求める。
Next, in step S64, the input data I 1i, output data O 1j corresponding to the input data I 1i
Then, the change amount V ij is calculated from the following equation.

【0089】[0089]

【数10】 [Equation 10]

【0090】入出力関係計算部39は、1つの教師デー
タに対して変化量Vijの計算を(m×n)回繰り返すこ
とになる。変化量Vijを求める式において、分母は基準
入力値データと教師データの入力データとの差に逆写像
を乗算したもの、即ち、入力の変化量に対する出力の変
化量の総和を出力層ニューロンjについて求めている。
分子は基準入力値データと教師データの入力データとの
差に逆写像を乗算したもの、即ち、入力層ニューロンi
の入力の変化量に対する出力層ニューロンjの出力の変
化量を求めている。従って、変化量Vijは入力項目iの
入力データの変化量が出力層ニューロンjの出力の変化
にどれだけ影響を与えているかを表していると言える。
The input / output relation calculation unit 39 repeats the calculation of the variation amount V ij for one teacher data (m × n) times. In the equation for obtaining the change amount V ij , the denominator is the product of the difference between the reference input value data and the input data of the teacher data multiplied by the inverse mapping, that is, the sum of the change amount of the output with respect to the change amount of the input is the output layer neuron j. Seeking for.
The numerator is obtained by multiplying the difference between the reference input value data and the input data of the teacher data by the inverse mapping, that is, the input layer neuron i
The amount of change in the output of the output layer neuron j with respect to the amount of change in the input is calculated. Therefore, it can be said that the change amount V ij represents how much the change amount of the input data of the input item i affects the change of the output of the output layer neuron j.

【0091】以上のステップS62〜S64の処理を、
教師データの数だけ繰り返す。次に、入出力関係計算部
39は、ステップS62〜S64で求められた各教師デ
ータの変化量Vijの中から、それぞれの最大値max
(Vij)を求める(ステップS65)。
The above steps S62 to S64 are executed as follows.
Repeat for the number of teacher data. Next, the input / output relationship calculation unit 39 selects the maximum value max of each of the change amounts V ij of the teacher data obtained in steps S62 to S64.
(V ij ) is calculated (step S65).

【0092】次に、入出力関係計算部39は、学習にお
ける出力jの誤差Ej (教師データの出力値と学習後の
出力値との差)を各教師データについて求め、誤差Ej
の最大値をmax(Ej )する(ステップS66)。
Next, the input / output relation calculation unit 39 obtains an error E j of the output j in learning (difference between the output value of the teacher data and the output value after learning) for each teacher data, and the error E j.
The maximum value of is max (E j ) (step S66).

【0093】最後に、ステップS67において、入力項
目iを削除するか否かの判定が行われる。出力jの許容
誤差をLj とすると、入力項目削除判定部40は、入力
項目iに対する全ての出力j(1≦j≦n)が、次式の
入出力関係を満せば入力項目iを削除と判定し、1つで
も満たさなければ入力項目iは削除しないと判定する。
Finally, in step S67, it is determined whether or not the input item i should be deleted. When the allowable error of the output j is L j , the input item deletion determination unit 40 determines the input item i if all the outputs j (1 ≦ j ≦ n) for the input item i satisfy the input / output relationship of the following equation. It is determined to be deleted, and it is determined that the input item i is not deleted if even one is not satisfied.

【0094】[0094]

【数11】 [Equation 11]

【0095】入力項目削除判定部40において、入力項
目iを削除と判定すれば、入力項目削除部41は入力項
目iを削除し、教師データ再編成部42は教師データの
入力項目i以外の教師データを再編成して新たな教師デ
ータを生成する。再編成された教師データは、教師デー
タ記憶部31に記憶され、教師入力値認識部34は再編
成された教師データに基づいて再学習を行う。
If the input item deletion determination unit 40 determines that the input item i is to be deleted, the input item deletion unit 41 deletes the input item i, and the teacher data reorganization unit 42 causes the teacher data other than the input item i of the teacher data to be deleted. Reorganize the data to generate new teacher data. The reorganized teacher data is stored in the teacher data storage unit 31, and the teacher input value recognition unit 34 relearns based on the reorganized teacher data.

【0096】図21は、教師データの一例を示す図であ
る。教師データの入力データとして、一定時間おきに温
度を3回測定して温度1、温度2、温度3とする。但
し、測定した温度は、例えば、最高温度を“1”、最低
温度を“0”として規格化した値を用いる。また、教師
データの出力データとして、測定した上記温度1、温度
2、温度3の温度変化が上昇傾向にあるか、下降傾向に
あるか、或いは変化なしであるかを、それぞれ“1.
0”、“0.0”、“0.5”とし教師データに付加す
る。教師データとして、データ1〜データ11の11種
類のデータが図21に示されており、温度1、温度2、
温度3、及び教師データの出力データのそれぞれの平均
値が最後に示されている。
FIG. 21 is a diagram showing an example of teacher data. As input data of the teacher data, the temperature is measured three times at regular intervals to obtain temperature 1, temperature 2, and temperature 3. However, as the measured temperature, for example, a value obtained by normalizing the maximum temperature as “1” and the minimum temperature as “0” is used. Further, as output data of the teacher data, whether the measured temperature changes of the temperature 1, the temperature 2, and the temperature 3 have an increasing tendency, a decreasing tendency, or no change is indicated by "1.
21 are added to the teacher data as 0 ”,“ 0.0 ”, and“ 0.5. ”As the teacher data, 11 kinds of data 1 to 11 are shown in FIG.
The respective average values of the temperature 3 and the output data of the teacher data are shown last.

【0097】図21の教師データを用いて認識を行った
認識結果の出力、誤差、及び変化量を求めて作成した表
を図22に示す。本実施例では、入力項目1から出力へ
の変化量の最大値max(V11)が“ 3.547842 ”、入
力項目2から出力への変化量の最大値max(V21)が
“ 0.035236 ”、入力項目3から出力への変化量の最大
値max(V31)が“ 3.51256 "となっており、入力項
目2の変化量が最小となっている。従って、入力項目2
が削除の判定対象として選ばれる。また、誤差の最大値
max(E1 )が“ 0.022505 ”である。教師データの
出力データは、“1.0”、“0.0”、“0.5”の
3種であるので、それぞれの値の最小の間隔の1/2を
許容誤差L1 とすると、L1 =0.25と設定できる。
従って、入出力関係値は、 max(V21)+max(E1 )= 0.057741 となり、許容誤差L1 より小さいので入力項目2(温度
2)は削除できる。
FIG. 22 shows a table created by obtaining the output, the error, and the change amount of the recognition result obtained by using the teacher data shown in FIG. In this embodiment, the maximum change amount max (V 11 ) from the input item 1 to the output is “3.547842”, and the maximum change amount max (V 21 ) from the input item 2 to the output is “0.035236”. The maximum value max (V 31 ) of the change amount from the item 3 to the output is “3.51256”, and the change amount of the input item 2 is the minimum. Therefore, input item 2
Is selected for deletion. Moreover, the maximum value max (E 1 ) of the error is “0.022505”. Since the output data of the teacher data is of three types of "1.0", "0.0", and "0.5", if 1/2 of the minimum interval of each value is defined as the allowable error L 1 , It can be set to L 1 = 0.25.
Therefore, the input / output relation value is max (V 21 ) + max (E 1 ) = 0.057741, which is smaller than the allowable error L 1 , and therefore the input item 2 (temperature 2) can be deleted.

【0098】図16はニューラルネットワークの学習装
置の第5の実施例の構成ブロック図である。同図を第4
の実施例を示す図15と比較すると、入力項目削除判定
部40の代わりに入出力関係表示部43が用いられてお
り、更に削除項目入力部44が追加されている点が異な
っている。この入出力関係表示部43は、入力項目削除
判定部40に代わって、入出力関係計算部39の入出力
データを、例えば、図23に示すようにグラフを用いて
表示し、入力項目を削除すべきか否かのユーザの判定を
支援するものである。ユーザは入出力関係表示部43の
表示に対応して入力項目の削除を判定し、削除項目入力
部44を介して削除すべき入力項目の入力を行う。以降
の処理は、図15に示す第4の実施例と同様である。
FIG. 16 is a block diagram of the fifth embodiment of the learning device of the neural network. 4th figure
15 is different from that of FIG. 15 in that the input item deletion determination unit 40 is replaced with the input / output relationship display unit 43, and the deletion item input unit 44 is added. The input / output relationship display unit 43 displays the input / output data of the input / output relationship calculation unit 39 in place of the input item deletion determination unit 40, for example, using a graph as shown in FIG. 23, and deletes the input item. It assists the user in determining whether or not to do it. The user determines the deletion of the input item in response to the display of the input / output relationship display unit 43, and inputs the input item to be deleted through the deletion item input unit 44. The subsequent processing is similar to that of the fourth embodiment shown in FIG.

【0099】図23は、入出力関係表示部43の表示例
を示しており、図23(a)はデータ11の認識結果を
傾向(出力)として、基準出力値を傾向(標準出力)と
してそれぞれ帯グラフで表示している。また、図23
(b)はデータ11の教師データの入力値、変化量を表
示し、温度1、温度2、温度3の変化量をそれぞれ帯グ
ラフにして表示している。従って、ユーザは変化量を参
照することによって、各入力項目の入力データの変化量
(基準入力と入力値との差)が出力の変化にどれだけ影
響を与えているかを把握できる。更には、各教師データ
の変化量を参照することによって、出力値の変化量が小
さい入力項目を見つけて、該入力項目の削除の判定を容
易に行うことが可能になる。
FIG. 23 shows a display example of the input / output relation display section 43. FIG. 23A shows the recognition result of the data 11 as a tendency (output) and the reference output value as a tendency (standard output). It is displayed as a band graph. Also, FIG.
In (b), the input value and change amount of the teacher data of the data 11 are displayed, and the change amounts of temperature 1, temperature 2, and temperature 3 are displayed as band graphs. Therefore, the user can understand how much the change amount of the input data of each input item (the difference between the reference input and the input value) influences the change of the output by referring to the change amount. Furthermore, by referring to the change amount of each teacher data, it is possible to find an input item having a small change amount of the output value and easily determine the deletion of the input item.

【0100】図17はニューラルネットワークの学習装
置の第6の実施例の構成ブロック図である。同図を第5
の実施例と比較すると、教師データ記憶部31、教師入
力値認識部34の代わりに、認識時の入力データを記憶
する入力データ記憶部45、入力データ記憶部45に記
憶されている入力データをニューラルネットワーク記憶
部33の層構成、結合の重みにより認識を行う入力デー
タ認識部46が用いられ、基準入力値記憶部36、基準
入力値認識部37、基準出力値記憶部38の代わりに、
基準入出力値記憶部47が用いられ、教師データ学習部
32、入力項目削除部41、教師データ再編成部42、
削除項目入力部44が削除されている点が異なってい
る。
FIG. 17 is a block diagram of the structure of the sixth embodiment of the learning device for the neural network. Figure 5
Compared with the embodiment described above, instead of the teacher data storage unit 31 and the teacher input value recognition unit 34, the input data storage unit 45 that stores the input data at the time of recognition, and the input data stored in the input data storage unit 45 An input data recognition unit 46 that recognizes the layer structure of the neural network storage unit 33 and the weight of connection is used. Instead of the reference input value storage unit 36, the reference input value recognition unit 37, and the reference output value storage unit 38,
The reference input / output value storage unit 47 is used, and the teacher data learning unit 32, the input item deletion unit 41, the teacher data reorganization unit 42,
The difference is that the deleted item input section 44 is deleted.

【0101】基準入出力値記憶部47には、基準入力値
と基準出力値とが格納されている。基準入力値は入力デ
ータ記憶部45に格納されている入力データの平均値、
特徴のある代表値、或いは前回の出力値の変化量の計算
に用いた入力データ等が用いられる。また、基準出力値
はニューラルネットワーク記憶部33に記憶されている
層構成、結合の重みにより認識を行った時の出力値が予
め計算されて基準入出力値記憶部47に格納されてい
る。
The reference input / output value storage section 47 stores a reference input value and a reference output value. The reference input value is the average value of the input data stored in the input data storage unit 45,
The characteristic representative value or the input data used for the calculation of the change amount of the previous output value is used. Further, as the reference output value, an output value at the time of recognition based on the layer structure and the connection weight stored in the neural network storage unit 33 is calculated in advance and stored in the reference input / output value storage unit 47.

【0102】入力データ認識部46は、入力データ記憶
部45に記憶されている入力データをニューラルネット
ワーク記憶部33の層構成、結合の重みにより認識を行
うが、学習は行わないので重みの更新は行わない。
The input data recognition section 46 recognizes the input data stored in the input data storage section 45 by the layer structure of the neural network storage section 33 and the weight of the connection, but since the learning is not performed, the weight is not updated. Not performed.

【0103】入出力関係計算部39は、入力データ記憶
部45に記憶された入力データ、基準入力値、及び基準
出力値に基づいて出力値の変化量の計算を行う。出力値
の変化量の計算方法は、第4実施例で説明した方法と同
じ方法によって求める。計算された出力値の変化量値
は、入出力関係表示部43によってユーザが理解できる
形式、例えば、図23に示すようにグラフを用いて表示
される。また、入力データ記憶部45に格納された入力
データを更新し、入力データ認識部46に入力すること
によって、新たな出力値の変化量値が計算されグラフに
表示されるので、ユーザは表示されたグラフからニュー
ラルネットワークの出力値の変化がどの入力値の変化に
よるものかを知ることができ、入出力の対応関係を理解
することができる。
The input / output relation calculation unit 39 calculates the change amount of the output value based on the input data, the reference input value, and the reference output value stored in the input data storage unit 45. The calculation method of the variation of the output value is obtained by the same method as that described in the fourth embodiment. The calculated change amount value of the output value is displayed by the input / output relationship display unit 43 in a format that the user can understand, for example, using a graph as shown in FIG. Further, by updating the input data stored in the input data storage unit 45 and inputting it to the input data recognition unit 46, a new change amount value of the output value is calculated and displayed on the graph. It is possible to know which input value change causes the change in the output value of the neural network from the graph and to understand the input-output correspondence.

【0104】第5実施例では教師データを入力する度に
学習が行われ、各ニューロン間の重みが変更されたが、
第6実施例では学習が既に終了したニューラルネットワ
ークに対して入力データを与え、出力値の変化量を求め
るものである。従って、既に学習が終了したニューラル
ネットワークに対する入出力の対応関係を、ユーザの経
験、知識と比較することによって入出力の関係が正しい
か否か、即ち、ニューラルネットワークが有効であるか
否かの判断が行われる。
In the fifth embodiment, learning is performed every time the teacher data is input, and the weight between the neurons is changed.
In the sixth embodiment, input data is given to a neural network for which learning has already been completed, and the amount of change in output value is obtained. Therefore, by comparing the input / output correspondence with the already learned neural network with the experience and knowledge of the user, it is determined whether the input / output relationship is correct, that is, whether the neural network is effective or not. Is done.

【0105】図18はニューラルネットワークの学習装
置の第7の実施例の構成ブロック図である。同図におい
て学習装置は教師データを記憶する教師データ記憶部3
1、教師データを用いてニューラルネットワークの学習
を制御する教師データ学習部32、ニューラルネットワ
ークの層構成、ニューロン間の結合の重みなどを記憶す
るニューラルネットワーク記憶部33、教師データの各
入力項目について有効範囲を求める有効範囲計算部4
8、教師データ記憶部31からの教師データの入力項目
の1つを、有効範囲計算部48から出力される有効範囲
の上限値、下限値に置き換えて、教師データをニューラ
ルネットワーク記憶部33の層構成、結合の重みにより
認識を行う認識部49、認識部49からの出力を、例え
ば、図24に示すようにグラフを用いて表示する出力関
係表示部50から構成されている。
FIG. 18 is a block diagram showing the configuration of the seventh embodiment of the learning device for the neural network. In the figure, the learning device is a teacher data storage unit 3 for storing teacher data.
1. A teacher data learning unit 32 that controls learning of a neural network using teacher data, a layer structure of the neural network, a neural network storage unit 33 that stores connection weights between neurons, etc., valid for each input item of teacher data Effective range calculation unit 4 for finding the range
8. One of the input items of the teacher data from the teacher data storage unit 31 is replaced with the upper limit value and the lower limit value of the effective range output from the effective range calculation unit 48, and the teacher data is stored in the layer of the neural network storage unit 33. The recognition unit 49 is configured to perform recognition based on the configuration and the weight of connection, and an output relationship display unit 50 that displays the output from the recognition unit 49 using a graph as shown in FIG. 24, for example.

【0106】有効範囲計算部48は、有効範囲として、
例えば、各入力項目毎の最大値、最小値を教師データか
ら求めて出力する。認識部49は、教師データ記憶部3
1からの教師データの入力項目iのデータを、有効範囲
計算部48で求めた入力項目iの最大値、或いは最小値
に置き換えて認識を行い、最大値を用いた出力値と最小
値を用いた出力値を出力する。また、認識部49は、入
力項目iの置き換えを行わずに認識を行い、認識結果を
実際値として出力する。同様に、各教師データについて
入力項目iのデータを置き換を行うか、或いは置き換え
を行わずに認識を行えば、それぞれの教師データについ
て最大値を用いた出力値、最小値を用いた出力値、実際
値の3種類の出力値を得ることができる。仮に、ニュー
ラルネットワークの出力が、入力値の増加に伴って出力
値が増加する単調増加、或いは入力値の減少に伴って出
力値が減少する単調減少であれば、出力関係表示部50
は各教師データに対する3種類の出力値を順に並べて表
示すると、図24に示すようにそれぞれの出力値がある
程度幅を持って表示される。ユーザは、出力されたグラ
フを参照することによって、入力項目iの出力に与える
影響を知ることができる。即ち、グラフの幅が大きけれ
ば入力項目iが出力に与える影響は大きいと判断し、逆
にグラフの幅が小さければ入力項目iが出力に与える影
響は小さいと判断することができる。
The effective range calculating section 48 determines that the effective range is
For example, the maximum value and the minimum value for each input item are obtained from the teacher data and output. The recognition unit 49 uses the teacher data storage unit 3
The data of the input item i of the teacher data from 1 is replaced with the maximum value or the minimum value of the input item i obtained by the effective range calculation unit 48 for recognition, and the output value and the minimum value using the maximum value are used. The output value that was output. Further, the recognition unit 49 performs recognition without replacing the input item i and outputs the recognition result as an actual value. Similarly, if the data of the input item i is replaced with respect to each teacher data or if recognition is performed without replacement, the output value using the maximum value and the output value using the minimum value for each teacher data. , Three kinds of output values of the actual value can be obtained. If the output of the neural network is a monotone increase in which the output value increases with an increase in the input value, or a monotone decrease in which the output value decreases with a decrease in the input value, the output relation display unit 50
When three kinds of output values for each teacher data are arranged and displayed in order, each output value is displayed with a certain width as shown in FIG. The user can know the influence on the output of the input item i by referring to the output graph. That is, if the width of the graph is large, it can be determined that the input item i has a large influence on the output, and conversely, if the width of the graph is small, it can be determined that the input item i has a small influence on the output.

【0107】図19はニューラルネットワークの学習装
置の第8の実施例の構成ブロック図である。同図におい
て学習装置は教師データを記憶する教師データ記憶部3
1、教師データを用いてニューラルネットワークの学習
を制御する教師データ学習部32、ニューラルネットワ
ークの層構成、ニューロン間の結合の重みなどを記憶す
るニューラルネットワーク記憶部33、入出力の符号関
係を求める入出力符号関係計算部51、入出力の定性的
関係を入力する定性的関係入力部52、入出力符号関係
計算部51からの出力と定性的関係入力部52からの出
力の比較を行い学習状況の判定を行う学習状況判定部5
3、学習状況判定部53からの出力を表示する学習状況
表示部54から構成されている。
FIG. 19 is a block diagram showing the structure of an eighth embodiment of the learning device for the neural network. In the figure, the learning device is a teacher data storage unit 3 for storing teacher data.
1. A teacher data learning unit 32 that controls learning of a neural network using teacher data, a layer structure of the neural network, a neural network storage unit 33 that stores the weights of connections between neurons, etc. The output sign relation calculation unit 51, the qualitative relation input unit 52 for inputting the qualitative relation between input and output, the output from the input / output sign relation calculation unit 51 and the output from the qualitative relation input unit 52 are compared to determine the learning status. Learning status determination unit 5 for making a determination
3. The learning status display unit 54 displays the output from the learning status determination unit 53.

【0108】入出力符号関係計算部51は、入力項目i
と出力jとの関係が符号で表せる符号関係、例えば、前
述した逆写像や第4実施例で説明した感度の最大値を計
算する。入力項目iと出力jとの相関が正の相関、或い
は負の相関のどちらか一方になることが明らかな場合、
ユーザはその相関関係の符号を定性的関係入力部52か
ら入力する。
The input / output code relation calculation unit 51 uses the input item i
And the output j are represented by a sign, for example, the inverse mapping described above and the maximum value of the sensitivity described in the fourth embodiment are calculated. When it is clear that the correlation between the input item i and the output j is either a positive correlation or a negative correlation,
The user inputs the code of the correlation from the qualitative relation input unit 52.

【0109】学習状況判定部53は、入出力符号関係計
算部51で計算された符号関係と、定性的関係入力部5
2から入力された符号とを比較し、符号が同じであれば
学習に矛盾がなく、符号が反対であれば学習に矛盾があ
ると判定する。或いは、符号が同じであってもその絶対
値が小さければ、学習に矛盾があると判定することも可
能である。学習状況表示部54は、例えば、入出力符号
関係計算部51で計算された符号関係、定性的関係入力
部52から入力された符号、及び判定結果を表示する。
The learning status determination unit 53 includes a qualitative relationship input unit 5 and the code relationship calculated by the input / output code relationship calculation unit 51.
The codes input from 2 are compared, and if the codes are the same, there is no contradiction in learning, and if the signs are opposite, it is determined that there is a contradiction in learning. Alternatively, even if the signs are the same, if the absolute value is small, it is possible to determine that the learning is inconsistent. The learning status display unit 54 displays, for example, the code relationship calculated by the input / output code relationship calculation unit 51, the code input from the qualitative relationship input unit 52, and the determination result.

【0110】図25は、学習状況表示部54の表示例を
示しており、トンネルの汚染度の予測に関するものであ
る。トンネルの換気量と自動車の通行量から、トンネル
内の空気の汚染度を予測するニューラルネットワークを
構成する。トンネルの換気量が大きければ汚染度は小さ
くなり、自動車の通行量が多ければ汚染度が大きくなる
のはユーザの経験から明らかである。
FIG. 25 shows a display example of the learning status display section 54, which relates to the prediction of the pollution degree of the tunnel. A neural network that predicts the degree of air pollution in the tunnel is constructed from the ventilation volume of the tunnel and the traffic volume of the vehicle. It is clear from the user's experience that the larger the ventilation volume of the tunnel, the smaller the pollution degree, and the larger the traffic volume of the vehicle, the larger the pollution degree.

【0111】そこで、トンネルの換気量と汚染度の関係
は負の相関関係、自動車の通行量と汚染度の関係は正の
相関関係があると定性的関係を設定する。そして、入出
力関係値、例えば、逆写像の値を求める。換気量の定性
的関係は“−”であるので、逆写像の値が正の数であれ
ば学習は正しく行われていないと判定され、逆写像の値
が負の数であれば学習は正しく行われていると判定され
る。
Therefore, a qualitative relationship is established that the relationship between the ventilation volume of the tunnel and the pollution degree has a negative correlation, and the relationship between the traffic volume of the vehicle and the pollution degree has a positive correlation. Then, the input / output relation value, for example, the value of the inverse mapping is obtained. Since the qualitative relationship of ventilation volume is "-", it is judged that the learning is not performed correctly if the value of the inverse mapping is positive, and the learning is correct if the value of the inverse mapping is negative. It is determined that it is being performed.

【0112】また、交通量の定性的関係は“+”である
ので、逆写像の値が正の数であれば学習は正しく行われ
ていると判定され、逆写像の値が負の数であれば学習は
正しく行われていないと判定される。学習が正しく行わ
れていないと判定された場合、学習回数が足りない、教
師データに誤りがある等が考えられる。
Further, since the qualitative relation of the traffic volume is "+", if the value of the inverse mapping is a positive number, it is judged that the learning is correctly performed, and the value of the inverse mapping is a negative number. If so, it is determined that the learning is not performed correctly. If it is determined that the learning is not performed correctly, it is possible that the number of times of learning is insufficient or the teacher data has an error.

【0113】[0113]

【発明の効果】以上詳細に説明したように、本発明によ
ればニューラルネットワークの学習中にある教師データ
の学習を継続すべきか否かの判定を行うことができ、学
習に必要な時間を短縮させることができる。また入力の
微小変化に強いニューラルネットワークを構築すること
ができ、例えばニューラルネットワークによるパターン
認識などの応用分野において実用性の向上に寄与すると
ころが大きい。
As described in detail above, according to the present invention, it is possible to determine whether or not to continue learning of the teacher data during learning of the neural network, thus shortening the time required for learning. Can be made. Further, it is possible to construct a neural network that is resistant to a slight change in input, and this greatly contributes to improvement in practicability in application fields such as pattern recognition by a neural network.

【0114】また、本発明によれば入力の変化に対する
出力の変化に基づいて変化量を求め、変化量から計算さ
れた入出力関係値に基づいて不必要な入力を削除するこ
とにより、ニューラルネットワークを単純化することが
可能になる。そのため、運用時の計算量及び記憶量が削
減され、ハードウェアのコストの削減、計算時間の短縮
が可能になる。
Further, according to the present invention, the change amount is obtained based on the change of the output with respect to the change of the input, and the unnecessary input is deleted based on the input / output relation value calculated from the change amount. Can be simplified. Therefore, the amount of calculation and the amount of storage during operation are reduced, and the cost of hardware and the calculation time can be shortened.

【0115】更には、変化量の値を表示することによ
り、ユーザはニューラルネットワークの構造を理解する
ことが可能になり、保守性に優れたシステムの構築が行
え、ニューラルネットワークの精度向上が可能になる。
Furthermore, by displaying the value of the amount of change, the user can understand the structure of the neural network, the system with excellent maintainability can be constructed, and the accuracy of the neural network can be improved. Become.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理構成ブロック図(その1)であ
る。
FIG. 1 is a block diagram (part 1) of the principle configuration of the present invention.

【図2】本発明の原理構成ブロック図(その2)であ
る。
FIG. 2 is a block diagram (part 2) of the principle configuration of the present invention.

【図3】ニューラルネットワークの学習装置の第1の実
施例の構成ブロック図である。
FIG. 3 is a configuration block diagram of a first embodiment of a learning device for a neural network.

【図4】ニューラルネットワークの学習装置の第2の実
施例の構成ブロック図である。
FIG. 4 is a configuration block diagram of a second embodiment of a learning device for a neural network.

【図5】ニューラルネットワークの学習装置の第3の実
施例の構成ブロック図である。
FIG. 5 is a configuration block diagram of a third embodiment of a learning device for a neural network.

【図6】教師データの感度の代表値計算処理のフローチ
ャートである。
FIG. 6 is a flowchart of a representative value calculation process of sensitivity of teacher data.

【図7】2層ニューラルネットワークの構造を示す図で
ある。
FIG. 7 is a diagram showing a structure of a two-layer neural network.

【図8】3層ニューラルネットワークの構造を示す図で
ある。
FIG. 8 is a diagram showing a structure of a three-layer neural network.

【図9】教師データの具体例を示す図である。FIG. 9 is a diagram showing a specific example of teacher data.

【図10】図8の教師データに対する感度の代表値を示
す図である。
10 is a diagram showing a representative value of sensitivity with respect to the teacher data of FIG.

【図11】教師データに対する感度と正答度の関係によ
る学習継続必要性の判定法を説明する図である。
FIG. 11 is a diagram illustrating a method of determining the necessity of continuing learning based on the relationship between the sensitivity to teacher data and the degree of correct answer.

【図12】教師データに対する感度の代表値と認識結果
の正答度の例を示す図である。
FIG. 12 is a diagram showing an example of a representative value of sensitivity for teacher data and a correct answer degree of a recognition result.

【図13】学習状況表示部の表示例を示す図である。FIG. 13 is a diagram showing a display example of a learning status display unit.

【図14】学習済みの教師データと未学習データの整合
性の判定を説明する図である。
FIG. 14 is a diagram for explaining determination of the consistency between learned teacher data and unlearned data.

【図15】ニューラルネットワークの学習装置の第4の
実施例の構成ブロック図である。
FIG. 15 is a configuration block diagram of a learning device for a neural network according to a fourth embodiment.

【図16】ニューラルネットワークの学習装置の第5の
実施例の構成ブロック図である。
FIG. 16 is a configuration block diagram of a fifth embodiment of a learning device for a neural network.

【図17】ニューラルネットワークの学習装置の第6の
実施例の構成ブロック図である。
FIG. 17 is a configuration block diagram of a sixth embodiment of a learning device for a neural network.

【図18】ニューラルネットワークの学習装置の第7の
実施例の構成ブロック図である。
FIG. 18 is a configuration block diagram of a seventh embodiment of a learning device for a neural network.

【図19】ニューラルネットワークの学習装置の第8の
実施例の構成ブロック図である。
FIG. 19 is a configuration block diagram of an eighth embodiment of a learning device for a neural network.

【図20】入力項目の削除判定方法のフローチャートで
ある。
FIG. 20 is a flowchart of an input item deletion determination method.

【図21】教師データの一例を示す図である。FIG. 21 is a diagram showing an example of teacher data.

【図22】各教師データに対する出力、誤差、及び変化
量を示す図である。
FIG. 22 is a diagram showing an output, an error, and a change amount for each teacher data.

【図23】入出力関係表示部の表示例を示す図である。FIG. 23 is a diagram showing a display example of an input / output relation display section.

【図24】第7の実施例の有効範囲を示す図である。FIG. 24 is a diagram showing an effective range of the seventh embodiment.

【図25】トンネルの汚染度の予測を示す図である。FIG. 25 is a diagram showing prediction of a pollution degree of a tunnel.

【図26】ニューロンの入出力関係を示す図である。FIG. 26 is a diagram showing an input / output relationship of neurons.

【図27】階層型ニューラルネットワークの例を示す図
である。
FIG. 27 is a diagram showing an example of a hierarchical neural network.

【符号の説明】[Explanation of symbols]

1 感度代表値計算手段 2 認識結果正答度計算手段 3 学習状況判定手段 4 標準入力値認識手段 5 入出力関係計算手段 6 入力項目判定手段 7 入力項目削除手段 8 入出力関係表示手段 9 削除項目入力手段 11 教師データ記憶部 12 学習制御部 13 ニューラルネットワーク記憶部 14 正答度計算部 15 感度計算部 16 学習状況判定部 17 学習データ変更部 18 学習状況表示部 19 未学習データ記憶部 20 未学習データ変更部 31 教師データ記憶部 32 教師データ学習部 33 ニューラルネットワーク記憶部 34 教師入力値認識部34 35 認識結果記憶部 36 基準入力値記憶部 37 基準入力値認識部 38 基準出力値記憶部 39 入出力関係計算部 40 入力項目削除判定部 41 入力項目削除部 42 教師データ再編成部 43 入出力関係表示部 44 削除項目入力部 45 入力データ記憶部 46 入力データ認識部 47 基準入出力値記憶部 48 有効範囲計算部 49 認識部 50 出力関係表示部 1 sensitivity representative value calculation means 2 recognition result correct answer degree calculation means 3 learning status determination means 4 standard input value recognition means 5 input / output relation calculation means 6 input item determination means 7 input item deletion means 8 input / output relation display means 9 deleted item input Means 11 Teacher data storage unit 12 Learning control unit 13 Neural network storage unit 14 Correct answer degree calculation unit 15 Sensitivity calculation unit 16 Learning status determination unit 17 Learning data change unit 18 Learning status display unit 19 Unlearned data storage unit 20 Unlearned data change Unit 31 Teacher data storage unit 32 Teacher data learning unit 33 Neural network storage unit 34 Teacher input value recognition unit 34 35 Recognition result storage unit 36 Reference input value storage unit 37 Reference input value recognition unit 38 Reference output value storage unit 39 Input / output relation Calculation part 40 Input item deletion judgment part 41 Input item deletion part 42 Teacher data reorganization Part 43 Input / output relation display unit 44 Deleted item input unit 45 Input data storage unit 46 Input data recognition unit 47 Reference input / output value storage unit 48 Effective range calculation unit 49 Recognition unit 50 Output relation display unit

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 ニューラルネットワークに教師データを
与え、該教師データを正しく認識できるように該ニュー
ラルネットワークの内部の重みを更新させるニューラル
ネットワークの学習装置において、 それぞれの教師データについて、該教師データの入力デ
ータを微小変化させた時の該ニューラルネットワークの
出力データの感度の代表値を求める感度代表値計算手段
と、 該各教師データについて、ニューラルネットワークの認
識結果の正答度を計算する認識結果正答度計算手段と、 該感度代表値計算手段の出力と認識結果正答度計算手段
の出力とに基づいて、該各教師データについて学習を継
続すべきか否かを判定する学習状況判定手段と、 を有することを特徴とするニューラルネットワークの学
習装置。
1. A learning device for a neural network, which applies training data to a neural network and updates internal weights of the neural network so that the training data can be correctly recognized. Sensitivity representative value calculation means for obtaining a representative value of sensitivity of output data of the neural network when data is slightly changed, and recognition result correct answer degree calculation for calculating the correct answer degree of the neural network recognition result for each of the teacher data. Means for learning, and based on the output of the sensitivity representative value calculating means and the output of the recognition result correct answer degree calculating means, learning status judging means for judging whether or not learning should be continued for each of the teacher data. A learning device for a characteristic neural network.
【請求項2】 前記教師データと異なる未学習のデータ
を記憶する未学習データ記憶手段を更に有し、 該未学習データに対する前記感度代表値計算手段の出力
と前記認識結果正答度計算手段の出力とに基づいて、前
記学習状況判定手段が該未学習データと前記教師データ
との整合性を判定すること、 を特徴とする請求項1に記載のニューラルネットワーク
の学習装置。
2. An unlearned data storage unit for storing unlearned data different from the teacher data, the output of the sensitivity representative value calculation unit and the output of the recognition result correct answer degree calculation unit for the unlearned data. The learning device for a neural network according to claim 1, wherein the learning status determination means determines the consistency between the unlearned data and the teacher data based on the following.
【請求項3】 ニューラルネットワークに教師データを
与え、該教師データを正しく認識できるように該ニュー
ラルネットワークの内部の重みを更新させるニューラル
ネットワークの学習装置において、 それぞれの教師データについて、該教師データの入力デ
ータを微小変化させた時の該ニューラルネットワークの
出力データの感度の代表値を求める感度代表値計算手段
と、 該各教師データについて、ニューラルネットワークの認
識結果の正答度を計算する認識結果正答度計算手段と、 該感度代表値計算手段が出力する感度代表値と該認識結
果正答度計算手段が出力する正答度との関係を表示する
学習状況表示手段と、 を有することを特徴とするニューラルネットワークの学
習装置。
3. A learning device of a neural network for giving teacher data to a neural network and updating internal weights of the neural network so that the teacher data can be correctly recognized. Sensitivity representative value calculation means for obtaining a representative value of sensitivity of output data of the neural network when data is slightly changed, and recognition result correct answer degree calculation for calculating the correct answer degree of the neural network recognition result for each of the teacher data. Means, and learning status display means for displaying the relationship between the sensitivity representative value output by the sensitivity representative value calculation means and the correct answer degree output by the recognition result correct answer degree calculation means. Learning device.
【請求項4】 前記教師データと異なる未学習のデータ
を記憶する未学習データ記憶手段を更に有し、 前記学習状況表示手段が該未学習データに対して前記感
度代表値計算手段が出力する感度代表値と前記認識結果
正答度計算手段が出力する正答度との関係を表示するこ
と、 を特徴とする請求項3に記載のニューラルネットワーク
の学習装置。
4. An unlearned data storage unit for storing unlearned data different from the teacher data, wherein the learning status display unit outputs the sensitivity to the unlearned data by the sensitivity representative value calculation unit. The neural network learning apparatus according to claim 3, wherein the relationship between the representative value and the correct answer degree output by the recognition result correct answer degree calculating means is displayed.
【請求項5】 ニューラルネットワークに教師データを
与え、該教師データを正しく認識できるように該ニュー
ラルネットワークの内部の重みを更新させるニューラル
ネットワークの学習装置において、 基準となる入力データの認識を行い結果を出力する基準
入力値認識手段と、 該基準となる入力データ、前記教師データ、前記ニュー
ラルネットワークに入力された該教師データの認識結
果、該基準入力値認識手段から出力された認識結果、及
び該ニューラルネットワークの重みから、教師データの
基準となる入力データからの変化量に対する出力値の変
化量を計算する入出力関係計算手段と、 該入出力関係計算手段で計算された出力値の変化量に基
づいて、入力項目を削除するか否かを判定する入力項目
判定手段と、 該入力項目判定手段の判定結果に基づいて前記教師デー
タの該入力項目に該当するデータを削除する入力項目削
除手段と、 を有することを特徴とするニューラルネットワークの学
習装置。
5. A learning device for a neural network, which applies training data to a neural network and updates internal weights of the neural network so that the training data can be correctly recognized, recognizes reference input data, and outputs the result. Reference input value recognition means for outputting, reference input data, the teacher data, recognition results of the teacher data input to the neural network, recognition results output from the reference input value recognition means, and the neural network. Based on the weight of the network, the input / output relation calculation means for calculating the change amount of the output value with respect to the change amount from the input data which is the reference of the teacher data, and And an input item determining means for determining whether or not to delete the input item, Learning device neural network and having an input item deleting means for deleting the data corresponding to the input item of the teacher data based on the determination result.
【請求項6】 前記基準入力値認識手段は、前記ニュー
ラルネットワークと同じ層構成、重みを有するニューラ
ルネットワークから成ること、 を特徴とする請求項5に記載のニューラルネットワーク
の学習装置。
6. The learning device for a neural network according to claim 5, wherein the reference input value recognizing means is a neural network having the same layer configuration and weight as the neural network.
【請求項7】 ニューラルネットワークに教師データを
与え、該教師データを正しく認識できるように該ニュー
ラルネットワークの内部の重みを更新させるニューラル
ネットワークの学習装置において、 基準となる入力データの認識を行い結果を出力する基準
入力値認識手段と、 該基準となる入力データ、前記教師データ、前記ニュー
ラルネットワークに入力された該教師データの認識結
果、該基準入力値認識手段から出力された認識結果、及
び該ニューラルネットワークの重みから、教師データの
基準となる入力データからの変化量に対する出力値の変
化量を計算する入出力関係計算手段と、 該入出力関係計算手段に入出力される情報を表示する入
出力関係表示手段と、 削除する入力項目を入力する削除項目入力手段と、 該削除項目入力手段の入力に基づいて前記教師データの
該入力項目に該当するデータを削除する入力項目削除手
段と、 を有することを特徴とするニューラルネットワークの学
習装置。
7. A learning device for a neural network, which applies teaching data to a neural network and updates internal weights of the neural network so that the teaching data can be correctly recognized, recognizes reference input data, and Reference input value recognition means for outputting, reference input data, the teacher data, recognition results of the teacher data input to the neural network, recognition results output from the reference input value recognition means, and the neural network. An input / output relation calculation means for calculating the change amount of the output value with respect to the change amount from the input data which is the reference of the teacher data from the weight of the network, and an input / output for displaying the information input / output to / from the input / output relation calculation means Relationship display means, deletion item input means for inputting input items to be deleted, and deletion item input Learning device neural network and having an input item deleting means for deleting the data corresponding to the input item of the teacher data based on the input stage, the.
【請求項8】 ニューラルネットワークに教師データを
与え、該教師データを正しく認識できるように該ニュー
ラルネットワークの内部の重みを更新させるニューラル
ネットワークの学習装置において、 入力データ、該ニューラルネットワークに入力された該
入力データの認識結果、基準となる入出力データ、及び
該ニューラルネットワークの重みから、教師データの基
準となる入力データからの変化量に対する出力値の変化
量を計算する入出力関係計算手段と、 該入出力関係計算手段に入出力される情報を表示する入
出力関係表示手段と、 を有することを特徴とするニューラルネットワークの学
習装置。
8. A learning device for a neural network, which applies teaching data to a neural network and updates internal weights of the neural network so that the teaching data can be correctly recognized, input data, the input data to the neural network. An input / output relation calculating means for calculating a change amount of the output value with respect to a change amount of the teacher data from the reference input data, based on the recognition result of the input data, the reference input / output data, and the weight of the neural network; An input / output relation display means for displaying information input / output to / from the input / output relation calculation means, and a learning device for a neural network.
【請求項9】 前記ニューラルネットワークに前記入力
データを入力して認識を行う際、前記重みを更新せずに
認識を行うこと、 を特徴とする請求項8に記載のニューラルネットワーク
の学習装置。
9. The learning device for a neural network according to claim 8, wherein when the input data is input to the neural network for recognition, the recognition is performed without updating the weight.
【請求項10】 ニューラルネットワークに教師データ
を与え、該教師データを正しく認識できるように該ニュ
ーラルネットワークの内部の重みを更新させるニューラ
ルネットワークの学習装置において、 該教師データに基づいて入力項目に対するデータの有効
範囲を求める有効範囲計算手段と、 該教師データの入力項目のデータのうち少なくとも1つ
を前記有効範囲内のデータに変更するデータ変更手段
と、 該変更されたデータを前記ニューラルネットワークに入
力して得られた認識結果を表示する出力関係表示手段
と、 を有することを特徴とするニューラルネットワークの学
習装置。
10. A learning device for a neural network, which applies teacher data to a neural network and updates internal weights of the neural network so that the teacher data can be correctly recognized. Effective range calculating means for obtaining an effective range, data changing means for changing at least one of the input item data of the teacher data to data within the effective range, and the changed data are input to the neural network. A learning device for a neural network, comprising: output relation display means for displaying a recognition result obtained by the above.
【請求項11】 前記データ変更手段は、有効範囲の上
限値、下限値に変更すること、 を特徴とする請求項10に記載のニューラルネットワー
クの学習装置。
11. The neural network learning apparatus according to claim 10, wherein the data changing unit changes the upper limit value and the lower limit value of the effective range.
【請求項12】 ニューラルネットワークに教師データ
を与え、該教師データを正しく認識できるように該ニュ
ーラルネットワークの内部の重みを更新させるニューラ
ルネットワークの学習装置において、 該教師データ、該ニューラルネットワークの重みから入
力と出力との間の符号関係を計算する入出力符号関係計
算手段と、 該ニューラルネットワークに特有の入力と出力との関係
である定性的関係を入力する定性的関係入力手段と、 該入出力符号関係計算手段で計算された符号関係と該定
性的関係を比較して学習状況を判定する学習状況判定手
段と、 該学習状況の判定結果を表示する学習状況表示手段と、 を有することを特徴とするニューラルネットワークの学
習装置。
12. A learning device for a neural network, which applies training data to a neural network and updates internal weights of the neural network so that the training data can be correctly recognized, wherein the learning data is input from the training data and the weight of the neural network. Input / output code relationship calculating means for calculating a code relationship between the input and output, qualitative relationship input means for inputting a qualitative relationship which is a relationship between the input and output peculiar to the neural network, and the input / output code A learning status judging means for judging a learning status by comparing the sign relation calculated by the relation calculating means with the qualitative relation; and a learning status displaying means for displaying a judgment result of the learning status. Neural network learning device.
JP6224386A 1993-09-22 1994-09-20 Learning device for neural network Withdrawn JPH07168799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6224386A JPH07168799A (en) 1993-09-22 1994-09-20 Learning device for neural network

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP5-236972 1993-09-22
JP23697293 1993-09-22
JP6224386A JPH07168799A (en) 1993-09-22 1994-09-20 Learning device for neural network

Publications (1)

Publication Number Publication Date
JPH07168799A true JPH07168799A (en) 1995-07-04

Family

ID=26526030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6224386A Withdrawn JPH07168799A (en) 1993-09-22 1994-09-20 Learning device for neural network

Country Status (1)

Country Link
JP (1) JPH07168799A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293732A (en) * 2006-04-27 2007-11-08 Hitachi High-Technologies Corp Inspecting device
JP2011169830A (en) * 2010-02-19 2011-09-01 Osaka Prefecture Univ Odor identification method
US8135653B2 (en) 2007-11-20 2012-03-13 Hitachi, Ltd. Power plant control device which uses a model, a learning signal, a correction signal, and a manipulation signal
JPWO2018011842A1 (en) * 2016-07-11 2019-04-25 株式会社Uei Arithmetic processing system using hierarchical network
WO2019176087A1 (en) * 2018-03-16 2019-09-19 三菱電機株式会社 Learning device and learning method
CN112534446A (en) * 2018-09-10 2021-03-19 日立汽车系统株式会社 Electronic control device and neural network updating system
JP2021055579A (en) * 2019-09-27 2021-04-08 トヨタ自動車株式会社 Device for determining presence/absence of accidental fire of internal combustion engine, device for determining degree of deterioration of catalyst provided in exhaust passage of internal combustion engine, device for determining presence/absence of abnormality in warming-up processing for catalyst provided in exhaust passage of internal combustion engine, device for determining pm accumulation amount collected by filter provided in exhaust passage of internal combustion engine, and device for determining presence/absence of abnormality of air-fuel ratio sensor provided in exhaust passage of internal combustion engine
CN113169927A (en) * 2018-12-12 2021-07-23 株式会社自动网络技术研究所 Determination device, determination program, determination method, and method for generating neural network model
JP2022120106A (en) * 2018-03-29 2022-08-17 富士フイルム株式会社 Winding defect level prediction value generator, winding condition generator, winding defect level prediction value generating method, and winding condition generating method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293732A (en) * 2006-04-27 2007-11-08 Hitachi High-Technologies Corp Inspecting device
US9183450B2 (en) 2006-04-27 2015-11-10 Hitachi High-Technologies Corporation Inspection apparatus
US8135653B2 (en) 2007-11-20 2012-03-13 Hitachi, Ltd. Power plant control device which uses a model, a learning signal, a correction signal, and a manipulation signal
US8554706B2 (en) 2007-11-20 2013-10-08 Hitachi, Ltd. Power plant control device which uses a model, a learning signal, a correction signal, and a manipulation signal
JP2011169830A (en) * 2010-02-19 2011-09-01 Osaka Prefecture Univ Odor identification method
JPWO2018011842A1 (en) * 2016-07-11 2019-04-25 株式会社Uei Arithmetic processing system using hierarchical network
WO2019176087A1 (en) * 2018-03-16 2019-09-19 三菱電機株式会社 Learning device and learning method
JPWO2019176087A1 (en) * 2018-03-16 2020-05-28 三菱電機株式会社 Learning device and learning method
CN111837143A (en) * 2018-03-16 2020-10-27 三菱电机株式会社 Learning device and learning method
JP2022120106A (en) * 2018-03-29 2022-08-17 富士フイルム株式会社 Winding defect level prediction value generator, winding condition generator, winding defect level prediction value generating method, and winding condition generating method
US11960992B2 (en) 2018-03-29 2024-04-16 Fujifilm Corporation Winding condition generating apparatus, winding apparatus, winding defect level prediction value generating apparatus, winding condition calculating method, winding method, and winding defect level prediction value generating method
CN112534446A (en) * 2018-09-10 2021-03-19 日立汽车系统株式会社 Electronic control device and neural network updating system
CN113169927A (en) * 2018-12-12 2021-07-23 株式会社自动网络技术研究所 Determination device, determination program, determination method, and method for generating neural network model
JP2021055579A (en) * 2019-09-27 2021-04-08 トヨタ自動車株式会社 Device for determining presence/absence of accidental fire of internal combustion engine, device for determining degree of deterioration of catalyst provided in exhaust passage of internal combustion engine, device for determining presence/absence of abnormality in warming-up processing for catalyst provided in exhaust passage of internal combustion engine, device for determining pm accumulation amount collected by filter provided in exhaust passage of internal combustion engine, and device for determining presence/absence of abnormality of air-fuel ratio sensor provided in exhaust passage of internal combustion engine

Similar Documents

Publication Publication Date Title
KR100243353B1 (en) Neural network system adapted for non-linear processing
JPH0535707A (en) Pattern sorting method/device using neural network
Yuan et al. A method for estimating the number of hidden neurons in feed-forward neural networks based on information entropy
Sevarac et al. Adaptive neuro-fuzzy pedagogical recommender
CN114678080B (en) Converter end point phosphorus content prediction model, construction method and phosphorus content prediction method
Kiliç et al. Comparison of different strategies of utilizing fuzzy clustering in structure identification
Elfelly et al. A new approach for multimodel identification of complex systems based on both neural and fuzzy clustering algorithms
Li Neural network models for intelligent support of mark‐up estimation
JPH0636061A (en) Learning system of hierarchic neural network
CN115186097A (en) Knowledge graph and reinforcement learning based interactive recommendation method
CN113407864A (en) Group recommendation method based on mixed attention network
JPH07168799A (en) Learning device for neural network
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
Reddy et al. Neural networks for prediction of loan default using attribute relevance analysis
Cao Evolutionary optimization of artificial neural network using an interactive phase-based optimization algorithm for chaotic time series prediction
WO2020085114A1 (en) Information processing device, information processing method, and program
Poczeta et al. Application of fuzzy cognitive maps with evolutionary learning algorithm to model decision support systems based on real-life and historical data
CN113392958B (en) Parameter optimization and application method and system of fuzzy neural network FNN
JPH08305855A (en) Method and device for pattern recognition of image
JPH05282269A (en) Method and device for learning/recollection
Gharajeh Behavior-based decision making: a tutorial
JP4267726B2 (en) Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device
CN115035712B (en) Urban traffic signal control scheme recommendation method, system, device and medium
JPH07160662A (en) Method for calculating reliability in predicted result of neural network
Kaur et al. Machine Learning and its Applications-A Review Study

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20011120