JPH0581230A - Learning device for neural network - Google Patents

Learning device for neural network

Info

Publication number
JPH0581230A
JPH0581230A JP27327291A JP27327291A JPH0581230A JP H0581230 A JPH0581230 A JP H0581230A JP 27327291 A JP27327291 A JP 27327291A JP 27327291 A JP27327291 A JP 27327291A JP H0581230 A JPH0581230 A JP H0581230A
Authority
JP
Japan
Prior art keywords
data
input data
input
new
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27327291A
Other languages
Japanese (ja)
Inventor
Naoki Arimoto
直樹 有元
Tomoya Kato
友也 加藤
Kazuya Hattori
和也 服部
Shiho Hattori
志保 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyoda Koki KK
Original Assignee
Toyoda Koki KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Koki KK filed Critical Toyoda Koki KK
Priority to JP27327291A priority Critical patent/JPH0581230A/en
Publication of JPH0581230A publication Critical patent/JPH0581230A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To properly execute the learning of a neural network(NN). CONSTITUTION:In the case of adding new input data and teacher data and executing updated learning in order to change the I/O characteristics of the NN, the new input data are compared with all old input data already stored (300). When the same old data exist, two corresponding teacher data are displayed (304) and either one of them is selected (306). When the old teacher data are selected, the new input data and the new teacher data are not added. When the new teacher data are selected, teacher data corresponding to the same old input data are deleted (310) and the new input and teacher data are added (312). Since the same input data do not exist in data to be used for learning, I/O characteristics obtained by properly approximating the combination of the input data and the teacher data are learned.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クの更新学習装置に関する。詳しくは、ニューラルネッ
トワークの入出力特性を変更させる必要があった場合
に、新たな入力データ及び新たな教師データの組みを入
出力特性を変更させる学習のためのデータに追加すべき
か否かを評価することにより、入出力特性が更新学習に
より不適切に変更されないようにした学習装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network update learning device. Specifically, when it is necessary to change the input / output characteristics of the neural network, it is evaluated whether a set of new input data and new teacher data should be added to the learning data for changing the input / output characteristics. By doing so, the present invention relates to a learning device in which the input / output characteristics are not inappropriately changed by update learning.

【0002】[0002]

【従来の技術】ニューラルネットワークは、理論的な解
析が困難な因果関係を結合係数の学習効果により直接的
に実現する回路網として知られている。即ち、ニューラ
ルネットワークは、予め、離散的な複数の入力に対し
て、それぞれの入力に対して最適な出力が得られるよう
に、ニューラルネットワークの結合係数を修正して、任
意の入力に対して妥当な出力が直接的に得られるように
した回路網である。
2. Description of the Related Art A neural network is known as a circuit network that directly realizes a causal relationship that is difficult to theoretically analyze by a learning effect of a coupling coefficient. That is, the neural network modifies the coupling coefficient of the neural network in advance so that the optimum output can be obtained for each of a plurality of discrete inputs, and the neural network is appropriate for any input. It is a circuit network that can directly obtain various outputs.

【0003】このようなニューラルネットワークは多数
の分野で応用されており、工作機械の分野においても、
多くの設定条件から要求された加工に最適な加工条件を
演算する場合に用いられている。
Such neural networks are applied in many fields, and also in the field of machine tools.
It is used when computing the optimum machining conditions for the machining required from many setting conditions.

【0004】このニューラルネットワークは多数の入力
データとその入力データに対応する出力の最適値、即
ち、教師データを用いて学習される。ある入力データと
対応する教師データの1つの組に対して、出力データが
教師データに近づく方向に全結合係数を補正するという
演算を、入力データと教師データの全ての組に対して実
行することにより、1回の学習演算が行われる。
This neural network is trained by using a large number of input data and optimum output values corresponding to the input data, that is, teacher data. For one set of teacher data corresponding to certain input data, an operation of correcting all coupling coefficients in a direction in which the output data approaches the teacher data is performed on all sets of the input data and the teacher data. Thus, one learning calculation is performed.

【0005】この学習演算を多数回繰り返し実行するこ
とで、全ての結合係数は全ての入力データに対して対応
する教師データが出力される方向に逐次補正されて、最
終的にある値に漸近する。このような学習の結果、ニュ
ーラルネットワークは所定の入出力特性を示すようにな
る。しかし、このニューラルネットワークを多くの入力
データに対して使用していく過程で、出力結果が適切で
ないという場合が起こり得る。
By repeating this learning operation a number of times, all the coupling coefficients are sequentially corrected in the direction in which the corresponding teacher data is output for all the input data, and finally approach a certain value. .. As a result of such learning, the neural network comes to exhibit a predetermined input / output characteristic. However, in the process of using this neural network for many input data, the output result may not be appropriate.

【0006】このような場合には、ニューラルネットワ
ークの入出力特性を修正する必要があり、そのために入
出力特性を修正するに必要な新たな入力データと新たな
教師データとの組みが更新学習のためのデータに追加さ
れる。
In such a case, it is necessary to correct the input / output characteristics of the neural network, and for this reason, the set of new input data and new teacher data necessary for correcting the input / output characteristics is used for update learning. To be added to the data.

【0007】[0007]

【発明が解決しようとする課題】ところが、ニューラル
ネットワークの入出力特性の修正においては、作業者等
によって学習させたい入力データと教師データの組みが
与えられる。この場合、おうおうにして既に与えられた
入力データに対応して教師データのみを修正することが
行われる。このような場合に、新たな入力データと新た
な教師データとをそのままデータ記憶手段に追加する
と、教師データが異なるにも拘わらず2つの入力データ
が全く等しくなる。
However, in modifying the input / output characteristics of the neural network, a set of input data and teacher data desired to be learned by an operator or the like is given. In this case, generally, only the teacher data is corrected corresponding to the input data already given. In such a case, if the new input data and the new teacher data are added to the data storage means as they are, the two input data become completely the same even though the teacher data are different.

【0008】しかし、教師データが異なるにも拘わらず
2つの入力データが等しいようなデータでニューラルネ
ットワークにバックプロパーゲション法で入出力特性を
学習させると、その入力データと教師データの組みに関
する適正な学習が実行されないばかりか、他の組みのデ
ータに関しても適正な学習が実行されない。
However, if the neural network is trained to learn the input / output characteristics by the backpropagation method with the data in which the two input data are equal to each other despite the different teacher data, the properness of the set of the input data and the teacher data is obtained. Learning is not executed, and proper learning is not executed for other sets of data.

【0009】即ち、今までに学習されたニューラルネッ
トワークの入出力特性が破壊され、その入出力特性は更
新学習のために付与されたデータの組みを近似しないも
のとなる。
That is, the input / output characteristics of the neural network learned so far are destroyed, and the input / output characteristics do not approximate the set of data given for the update learning.

【0010】本発明は上記課題を解決するために成され
たものであり、その目的は、新たな入力データ及び新た
な教師データを追加してニューラルネットワークの入出
力特性を更新学習させる場合に、付与された入力データ
と教師データの組みを良く近似した適正な学習が実行で
きるようにすることである。
The present invention has been made to solve the above problems, and an object thereof is to update and learn the input / output characteristics of a neural network by adding new input data and new teacher data. This is to make it possible to perform appropriate learning that closely approximates the set of input data and teacher data provided.

【0011】[0011]

【課題を解決するための手段】本発明は、図7に示すよ
うに、入力データと教師データとに基づいてニューラル
ネットワークX5に所定の入出力特性を更新学習させる学
習装置において、入力データと教師データの多数の組を
記憶したデータ記憶手段X1と、多数の入力データに対し
て、対応する教師データが出力されるようにニューラル
ネットワークX5の結合係数を逐次補正して、ニューラル
ネットワークX5に所定の入出力特性を学習させる学習手
段X2と、ニューラルネットワークの入出力特性を変更す
るために、新たな入力データ及び新たな教師データをデ
ータ記憶手段X1に追加するとき、新たな入力データをデ
ータ記憶手段X1に記憶されている全ての入力データと比
較して、新たな入力データと等しい入力データが存在す
るか否かを判定する判定手段X3と、新たな入力データと
等しい入力データが存在しないと判定された場合には、
新たな入力データ及びその新たな入力データに対応する
新たな教師データをデータ記憶手段に追加する第1デー
タ更新手段X4と、新たな入力データと等しい入力データ
が存在すると判定された場合には、その入力データに対
応する2つの教師データを表示する表示手段X6と、表示
された2つの教師データのうち何れか一方を選択する選
択手段X7と、新たな教師データが選択された場合には、
その新たな教師データ及び対応する新たな入力データを
データ記憶手段X1に追加し、選択されなかった方の教師
データ及び対応する入力データをデータ記憶手段X1から
削除し、新たな教師データが選択されなかった場合に
は、新たな教師データ及び対応する新たな入力データを
データ記憶手段に追加しない第2データ更新手段X8とを
設けたことである。
According to the present invention, as shown in FIG. 7, in a learning device for causing a neural network X5 to update and learn predetermined input / output characteristics based on input data and teacher data, the input data and teacher Data storage means X1 storing a large number of sets of data, and for a large number of input data, the coupling coefficient of the neural network X5 is sequentially corrected so that the corresponding teacher data is output, and the neural network X5 has a predetermined value. Learning means X2 for learning the input / output characteristics, and when new input data and new teacher data are added to the data storage means X1 to change the input / output characteristics of the neural network, the new input data is stored in the data storage means. Judgment is made by comparing all the input data stored in X1 to determine whether or not there is input data equal to the new input data. And means X3, when the input data is equal to the new input data is determined not to exist,
If it is determined that there is new input data and first data updating means X4 for adding new teacher data corresponding to the new input data to the data storage means, and input data equal to the new input data, Display means X6 for displaying two teacher data corresponding to the input data, selecting means X7 for selecting one of the two displayed teacher data, and new teacher data when selected.
The new teacher data and the corresponding new input data are added to the data storage means X1, and the teacher data and the corresponding input data that have not been selected are deleted from the data storage means X1, and the new teacher data is selected. If not, the second data updating means X8 that does not add new teacher data and corresponding new input data to the data storage means is provided.

【0012】[0012]

【作用】ニューラルネットワークの入出力特性を変更さ
せる場合には、新たな入力データと新たな教師データと
がデータ記憶手段に追加される候補となる。まず、新た
な入力データとデータ記憶手段に記憶されている全入力
データとが比較され、新たな入力データと同一の古い入
力データが存在するか否が判定される。同一の古い入力
データが存在しない場合には、新たな入力データと対応
する教師データとはデータ記憶手段に追加される。
When changing the input / output characteristics of the neural network, new input data and new teacher data are candidates for addition to the data storage means. First, the new input data is compared with all the input data stored in the data storage means to determine whether or not the same old input data as the new input data exists. If the same old input data does not exist, the new input data and the corresponding teacher data are added to the data storage means.

【0013】新たな入力データと同一の古い入力データ
がデータ記憶手段に存在する場合には、その新たな入力
データに対応する新たな教師データと古い入力データに
対応する教師データとが表示され、作業者はいずれの教
師データを採用するかを選択することができる。新たな
教師データが選択された場合には、同一の古い入力デー
タと対応する教師データがデータ記憶手段から削除さ
れ、その新たな入力データと新たな教師データとがデー
タ記憶手段に追加される。一方、古い教師データが選択
された場合には、新たな入力データと新たな教師データ
とはデータ記憶手段に追加されない。
If the same old input data as the new input data exists in the data storage means, new teacher data corresponding to the new input data and teacher data corresponding to the old input data are displayed. The operator can select which teacher data to employ. When new teacher data is selected, teacher data corresponding to the same old input data is deleted from the data storage means, and the new input data and new teacher data are added to the data storage means. On the other hand, when old teacher data is selected, new input data and new teacher data are not added to the data storage means.

【0014】[0014]

【発明の効果】このように、本発明は、新たな入力デー
タをデータ記憶手段に追加するに際して、同一の古い入
力データが存在する場合には、いずれか一方を選択さ
せ、選択された方の入力データ及び教師データのみを学
習のためのデータに採用するようにしている。
As described above, according to the present invention, when new input data is added to the data storage means, if the same old input data exists, one of them is selected and the selected one is selected. Only the input data and the teacher data are adopted as the data for learning.

【0015】従って、学習に使用されるデータにおい
て、教師データが異なるにもかかわらず、入力データが
同一であるということが排斥されるので、ニューラルネ
ットワークの入出力特性の学習において、入力データと
教師データの組を良く近似した入出力特性の適正な学習
が達成される。
Therefore, in the data used for learning, it is excluded that the input data is the same even though the teacher data is different. Therefore, in learning the input / output characteristics of the neural network, the input data and the teacher data are excluded. Appropriate learning of input / output characteristics that closely approximates the data set is achieved.

【0016】[0016]

【実施例】【Example】

1.学習装置の構成 本装置は、図4に示すように、CPU1、ROM2、R
AM3とから成るコンピュータシステムで構成されてい
る。ROM2には入力データと教師データの更新を管理
するデータ更新プログラムの記憶されたデータ更新プロ
グラム領域21とニューラルネットワークの演算プログ
ラムの記憶されたニューラルネットワーク領域22とニ
ューラルネットワークを学習させるためのプログラムの
記憶された学習プログラム領域23が形成されている。
又、RAM3には蓄積される入力データ及び教師データ
をそれぞれ記憶する入力データ記憶領域31及び教師デ
ータ領域32、ニューラルネットワークの結合係数を記
憶する結合係数領域33とが形成されている。又、CP
U1には入出力インタフェース5を介して、表示された
教師データの選択指令や各種の指令を与えるためのキー
ボード4と同一入力データに対応する2つの教師データ
を表示するCRT6が接続されている。
1. Structure of learning device This device, as shown in FIG.
It is composed of a computer system composed of AM3. The ROM 2 stores a data update program area 21 in which a data update program for managing updates of input data and teacher data, a neural network area 22 in which a neural network operation program is stored, and a program for learning a neural network are stored. The learned program area 23 is formed.
Further, the RAM 3 is formed with an input data storage area 31 and a teacher data area 32 for respectively storing the input data and the teacher data to be accumulated, and a coupling coefficient area 33 for storing the coupling coefficient of the neural network. Also, CP
The U1 is connected via an input / output interface 5 to a keyboard 4 for giving a selection command of displayed teacher data and various commands and a CRT 6 for displaying two teacher data corresponding to the same input data.

【0017】2.ニューラルネットワーク 本実施例のニューラルネットワーク10は、図1に示す
ように、入力層LI と出力層LO と中間層LM の3層構
造に構成されている。入力層LI はe個の入力素子を有
し、出力層LO はg個の出力素子を有し、中間層LM は
f個の出力素子を有している。多層構造のニューラルネ
ットワークは、一般的に、次の演算を行う装置として定
義される。
2. Neural Network As shown in FIG. 1, the neural network 10 of this embodiment has a three-layer structure of an input layer LI, an output layer LO and an intermediate layer LM. The input layer LI has e input elements, the output layer LO has g output elements, and the intermediate layer LM has f output elements. A multilayered neural network is generally defined as a device that performs the following operations.

【0018】第i 層の第j 番目の素子の出力Oi j は、次
式で演算される。但し、i ≧2 である。
The output O i j of the j-th element of the i-th layer is calculated by the following equation. However, i ≧ 2.

【数1】 Oi j =f(Ii j)
(1)
[Equation 1] O i j = f (I i j )
(1)

【数2】 [Equation 2]

【数3】 f(x)=1/{1+exp(-x)} (3)[Formula 3] f (x) = 1 / {1 + exp (-x)} (3)

【0019】但し、Vi j は第i 層の第j 番目の演算素子
のバイアス、Wi-1 k, i jは、第i-1 層の第k 番目の素子と
第i 層の第j 番目の素子間の結合係数、O1 j は第1 層の
第 j番目の素子の出力値を表す。即ち、第1 層であるか
ら演算を行うことなくそのまま入力を出力するので、入
力層(第1層)の第j 番目の素子の入力値でもある。
Where V i j is the bias of the j-th arithmetic element of the i- th layer, and W i-1 k, i j is the k-th element of the i-1 th layer and the j-th element of the i-th layer. The coupling coefficient between the th element, O 1 j , represents the output value of the j th element of the first layer. That is, since it is the first layer and the input is output as it is without performing any calculation, it is also the input value of the j-th element of the input layer (first layer).

【0020】次に、図1に示す3層構造のニューラルネ
ットワーク10の具体的な演算手順について図2を参照
して説明する。各素子の演算は、RAM3の結合係数記
憶領域33に記憶されている結合係数を参照しつつ、R
OM2のニューラルネットワーク領域22に記憶された
プログラムを実行することによって行われる。ステップ
100において、中間層(第2層)の第j 番目の素子
は、入力層(第1層)の各素子からの出力値O1 j (第1
層の入力データ)を入力して、(2)式を層番号と第1
層の素子数を用いて具体化した次式の積和演算を行な
う。
Next, a specific calculation procedure of the neural network 10 having the three-layer structure shown in FIG. 1 will be described with reference to FIG. For the calculation of each element, R is referred to while referring to the coupling coefficient stored in the coupling coefficient storage area 33 of the RAM 3.
This is performed by executing a program stored in the neural network area 22 of the OM2. In step 100, the j-th element of the intermediate layer (second layer) is the output value O 1 j ( first element) from each element of the input layer (first layer).
(Input data of layer), input the equation (2) with the layer number and the first
The product-sum operation of the following equation, which is embodied using the number of elements of layers, is performed.

【0021】[0021]

【数4】 [Equation 4]

【0022】次に、ステップ102において、次式によ
り、(4)式の入力値の積和関数値のシグモイド関数に
より、中間層(第2層)の各素子の出力が演算される。
第2層の第j 番目の素子の出力値は次式で演算される。
Next, in step 102, the output of each element of the intermediate layer (second layer) is calculated by the following equation using the sigmoid function of the product-sum function value of the input values of equation (4).
The output value of the j-th element in the second layer is calculated by the following equation.

【0023】[0023]

【数5】 O2 j=f(I2 j )=1/{1+exp(-I2 j) } (5) この出力値 O2 j は出力層(第3層)の各素子の入力値
となる。次に、ステップ104において、出力層(第3
層)の各素子の入力値の積和演算が実行される。
[Equation 5] O 2 j = f (I 2 j ) = 1 / {1 + exp (-I 2 j )} (5) This output value O 2 j is input to each element of the output layer (third layer) It becomes a value. Next, in step 104, the output layer (third layer
The sum of products operation of the input values of each element of the (layer) is executed.

【0024】[0024]

【数6】 次に、ステップ106において、(5)式と同様に、シ
グモイド関数により、出力層の各素子の出力値O3 jが演
算される。
[Equation 6] Next, in step 106, the output value O 3 j of each element of the output layer is calculated by the sigmoid function, similarly to the equation (5).

【0025】[0025]

【数7】 O3 j=f(I3 j)=1/{1+exp(-I3 j)} (7)[Equation 7] O 3 j = f (I 3 j ) = 1 / {1 + exp (-I 3 j )} (7)

【0026】3.入力データと教師データの構造 ニューラルネットワークの更新学習に使用されるデータ
は、図5に示すようなデータベースに構成されている。
入力データは、D1,…,Dn であり、対応する教師デー
タは、E1,…,En である。このn個の入力データ及び
教師データは、ニューラルネットワークの初期学習又は
初期学習後のニューラルネットワークを現実に使用した
過程で蓄積されたデータである。この入力データは、次
のように定義される。e個の入力素子のそれぞれに与え
るe個のデータを1組のデータとして考える。そして、
任意の第m番目の1組の入力データをDm で表し、その
組に属する第j番目の入力素子に対する入力データをd
mjで表す。Dm はベクトルを表し、dmjはそのベクトル
の成分である。即ち、Dm は次式で定義される。
3. Structures of input data and teacher data The data used for the update learning of the neural network is structured in a database as shown in FIG.
The input data are D 1, ..., D n , and the corresponding teacher data are E 1, ..., E n . The n pieces of input data and the teacher data are data accumulated in the process of actually using the initial learning of the neural network or the neural network after the initial learning. This input data is defined as follows. Consider the e pieces of data given to each of the e input elements as one set of data. And
An arbitrary m-th set of input data is represented by D m , and the input data for the j-th input element belonging to the set is d m.
Expressed as mj . D m represents a vector, and d mj is a component of the vector. That is, D m is defined by the following equation.

【0027】[0027]

【数8】 Dm =(dm1, m2, …,dme-1, me) (8) 又、n組の入力データはD1,2,…,Dn-1,n で表さ
れる。以下、全n組の入力データ群は、入力データ群D
と表記される。尚、入力データDm に対して(4)式を
用いる場合には、(4)式のO1 k に、成分dmk が代入さ
れる。
## EQU8 ## D m = (d m1, d m2, ..., d me-1, d me ) (8) Further, the n sets of input data are D 1, D 2, ..., D n-1, D n. It is represented by. Hereinafter, the input data group of all n sets is the input data group D
Is written. When the equation (4) is used for the input data D m , the component d mk is substituted into O 1 k of the equation (4).

【0028】同様に、E1,, n は、次のように定義
される。出力層LO に関して、g個の出力素子のそれぞ
れからの出力に対する教師データを1組のデータとして
考える。そして、任意の第m番目の1組の教師データを
m で表し、その組に属する第j番目の出力素子に対す
る教師データをemjで表す。Em はベクトルを表し、e
mjはそのベクトルの成分である。即ち、Em は次式で定
義される。
Similarly, E 1, ... , E n are defined as follows. For the output layer Lo, consider the teacher data for the output from each of the g output elements as a set of data. Then, an arbitrary m-th set of teacher data is represented by E m , and teacher data for the j-th output element belonging to that set is represented by em j. E m represents a vector, e
mj is the component of that vector. That is, E m is defined by the following equation.

【0029】[0029]

【数9】 Em =(em1, m2, …,emg-1, mg) (9) 又、n組の教師データはE1,2,…,En-1,n で表さ
れる。以下、全n組の教師データ群は、教師データ群E
と表記される。
[Equation 9] E m = (e m1, e m2, ..., E mg-1, e mg ) (9) Further, n sets of teacher data are E 1, E 2, ..., E n-1, E n. It is represented by. Hereinafter, the teacher data group E for all n sets is the teacher data group E.
Is written.

【0030】4.データの更新 ニューラルネットワーク10は初期の所定の入出力特性
が得られるように後述する手順により学習されている。
そして、この初期学習が行われたニューラルネットワー
クが現実に使用される際に、出力が不適切な場合にその
入力データとその入力データに対応する適切な教師デー
タとが新たに学習のためのデータに追加される。そし
て、これらのデータを用いて入出力特性を修正するため
にニューラルネットワークの更新学習が行われる。この
ような更新学習が逐次実施される。この更新学習に際
し、新たな入力データと新たな教師データを更新学習の
ためのデータに追加してもニューラルネットワークのい
ままでの学習傾向に反しないか否かの判断が成された上
でデータの追加が行われ、ニューラルネットワークの更
新学習が実施される。
4. Update of Data The neural network 10 is learned by the procedure described below so that the initial prescribed input / output characteristics can be obtained.
Then, when the neural network on which the initial learning is performed is actually used, when the output is inappropriate, the input data and the appropriate teacher data corresponding to the input data are newly added as data for learning. Added to. Then, update learning of the neural network is performed in order to correct the input / output characteristics using these data. Such update learning is sequentially performed. At the time of this update learning, it is judged whether adding new input data and new teacher data to the data for update learning does not violate the learning tendency of the neural network until now. Addition is performed, and update learning of the neural network is performed.

【0031】次にその手順について図6を参照して説明
する。ステップ300において、新たな入力データDn
とRAM3の入力データ記憶領域31に記憶されている
全ての古い入力データとが比較される。次に、ステップ
302において、新たな入力データと同一の古い入力デ
ータが存在するか否かが判定される。同一の入力データ
があると判定された場合には、ステップ304におい
て、同一の入力データが存在する旨の警告がCRT6に
表示されると共にその同一の入力データに対応する2つ
の教師データがCRT6に表示される。
Next, the procedure will be described with reference to FIG. In step 300, new input data D n
And all old input data stored in the input data storage area 31 of the RAM 3 are compared. Next, in step 302, it is determined whether or not there is old input data that is the same as the new input data. If it is determined that the same input data exists, a warning that the same input data exists is displayed on the CRT 6 in step 304, and two teacher data corresponding to the same input data are displayed on the CRT 6. Is displayed.

【0032】作業者はこのCRT6の表示を見て、何方
の教師データを更新学習に採用するかを決定し、何れか
一方の教師データを選択する。ステップ306では、キ
ーボード4からの指定により選択された教師データが決
定される。
Looking at the display of the CRT 6, the worker decides which teacher data is adopted for the update learning, and selects one of the teacher data. In step 306, the teacher data selected by the designation from the keyboard 4 is determined.

【0033】次に、ステップ308において、選択され
た教師データは新たな教師データEn か否かが判定さ
れ、判定結果がYES であれば、ステップ310におい
て、新たな入力データDn と同一の古い入力データ及び
対応する古い教師データが、それぞれ、RAM3の入力
データ記憶領域31と教師データ記憶領域32から削除
される。
Next, in step 308, it is judged whether or not the selected teacher data is new teacher data E n . If the judgment result is YES, in step 310, it is the same as the new input data D n . The old input data and the corresponding old teacher data are deleted from the input data storage area 31 and the teacher data storage area 32 of the RAM 3, respectively.

【0034】次に、ステップ312において、新たな入
力データDn 及び対応する新たな教師データEn が、そ
れぞれ、入力データ記憶領域31と教師データ記憶領域
32に追加される。
Next, in step 312, new input data D n and corresponding new teacher data E n are added to the input data storage area 31 and the teacher data storage area 32, respectively.

【0035】一方、選択されたデータが新たな教師デー
タEn でない、即ち、古い教師データである場合には、
新たな入力データDn 及び新たな教師データEn のRA
M3への追加を行うことなく、CPU1の処理は終了す
る。
On the other hand, when the selected data is not new teacher data E n , that is, old teacher data,
RA of new input data D n and new teacher data E n
The process of the CPU 1 ends without adding to M3.

【0036】又、ステップ302において、新たな入力
データDn と同一の古い入力データが入力データ領域3
1に存在しないと判定された場合には、ステップ312
へ移行して、新たな入力データDn 及び対応する新たな
教師データEn が、それぞれ、入力データ記憶領域31
と教師データ記憶領域32に追加される。
In step 302, the old input data identical to the new input data D n is input data area 3
If it is determined that the data does not exist in step 1, step 312
And the new input data D n and the corresponding new teacher data E n are respectively stored in the input data storage area 31.
Is added to the teacher data storage area 32.

【0037】このような処理手順により、入力データ記
憶領域31及び教師データ記憶領域32のデータの更新
が実行される。従って、ニューラルネットワークの更新
学習時において、入力データ記憶領域31に同一の入力
データが蓄積されることがないので、ニューラルネット
ワークの適正な学習が達成される。
The data in the input data storage area 31 and the teacher data storage area 32 are updated by the above processing procedure. Therefore, during the update learning of the neural network, the same input data is not stored in the input data storage area 31, so that the appropriate learning of the neural network is achieved.

【0038】5.ニューラルネットワークの学習 次に、ニューラルネットワークの更新学習の処理手順に
ついて説明する。このニューラルネットワークは、RO
M2の学習プログラム領域23に記憶された図3に示す
手順のプログラムが実行されることにより学習される。
結合係数の学習は良く知られたバックプロパーゲーショ
ン法により実行される。この学習は、各種の事象に関す
る多数の入力データに対して、それぞれの出力が、それ
ぞれの最適な教師データとなるように、繰り返し実行さ
れる。これらの入力データ及び教師データは、それぞ
れ、上述した手順により入力データ記憶領域31及び教
師データ記憶領域32に記憶されている。
5. Learning of Neural Network Next, the processing procedure of update learning of the neural network will be described. This neural network is RO
Learning is performed by executing the program of the procedure shown in FIG. 3 stored in the learning program area 23 of M2.
The learning of the coupling coefficient is performed by the well-known backpropagation method. This learning is repeatedly executed with respect to a large number of input data regarding various events so that each output becomes each optimum teacher data. These input data and teacher data are stored in the input data storage area 31 and the teacher data storage area 32, respectively, by the procedure described above.

【0039】図3のステップ200において、データ番
号iが初期値の1に設定され、出力素子の番号j(教師
データの成分番号j)が初期値の1に設定される。次
に、ステップ202へ移行して、第i番目の入力データ
i と第i番目の教師データEi が入力データ記憶領域
31と教師データ記憶領域32から抽出される。次に、
ステップ204において、次式により出力層のその成分
に対応した素子の学習データY が演算される。
In step 200 of FIG. 3, the data number i is set to the initial value 1, and the output element number j (teacher data component number j) is set to the initial value 1. Next, in step 202, the i-th input data D i and the i-th teacher data E i are extracted from the input data storage area 31 and the teacher data storage area 32. next,
In step 204, the learning data Y of the element corresponding to that component of the output layer is calculated by the following equation.

【0040】[0040]

【数10】 Y3 j=(eij- O3 j)・f'(I3 j) (10) 但し、Y3 j,O3 j,I3 jでは、データ番号iは省略されて
いる。f'(x) はシグモイド関数の導関数である。又、I3
jは、入力データDi の各成分を(4)式のO1 kに代入し
て、中間層の全ての素子に関しI2 k を求め、I2 k
(5)に代入して中間層の全ての素子に関し出力O2 k
求め、その全てのkに関してO2 kを(6)式に代入して求
められる。又、O3 j はI3 j を(7)式に代入して求めら
れる。
[Formula 10] Y 3 j = (e ij -O 3 j ) f ' (I 3 j ) (10) However, in Y 3 j , O 3 j , and I 3 j , the data number i is omitted. .. f ' (x) is the derivative of the sigmoid function. Also, I 3
j is obtained by substituting each component of the input data D i into O 1 k of the equation (4) to obtain I 2 k with respect to all the elements in the intermediate layer, and substituting I 2 k into (5). obtains an output O 2 k for all elements, obtained by substituting the O 2 k in (6) with respect to all the k. Further, O 3 j is obtained by substituting I 3 j into the equation (7).

【0041】次に、ステップ206において、全出力素
子について、学習データが演算されたか否かが判定さ
れ、判定結果がNOの場合には、ステップ208におい
て、素子番号jが1だけ増加され、ステップ204へ戻
り、次の出力素子に関する学習データが演算される。
Next, in step 206, it is judged whether or not the learning data has been calculated for all the output elements. If the judgment result is NO, the element number j is incremented by 1 in step 208, Returning to 204, the learning data regarding the next output element is calculated.

【0042】ステップ206で全出力素子に関する学習
データの演算が完了したと判定されると、ステップ21
0において、中間層の任意の第r番目の素子に関する学
習データY が次式で演算される。
When it is determined in step 206 that the calculation of the learning data for all output elements is completed, step 21
At 0, learning data Y 1 regarding an arbitrary r-th element in the intermediate layer is calculated by the following equation.

【数11】 このような学習データの演算が、中間層の全素子に関し
て実行される。
[Equation 11] The calculation of such learning data is executed for all the elements in the intermediate layer.

【0043】次に、ステップ212において、出力層の
各結合係数が補正される。補正量は次式で求められる。
Next, in step 212, each coupling coefficient of the output layer is corrected. The correction amount is calculated by the following equation.

【数12】 Δω2 i, 3 j(t)=P・Y3 j・f(I2 i)+Q・Δω2 i, 3 j(t-1) (12) 但し、Δω2 i, 3 j(t) は、出力層の第j 番目の素子と中
間層の第i 番目の素子との間の結合係数の第t 回目演算
の変化量である。又、Δω2 i, 3 j(t-1) は、その結合係
数の前回の補正量である。P,Q は比例定数である。よっ
て、
Δω 2 i, 3 j (t) = P · Y 3 j · f (I 2 i ) + Q · Δω 2 i, 3 j (t-1) (12) where Δω 2 i, 3 j (t) is the amount of change in the t-th calculation of the coupling coefficient between the j-th element in the output layer and the i-th element in the intermediate layer. Further, Δω 2 i, 3 j (t-1) is the previous correction amount of the coupling coefficient. P and Q are proportional constants. Therefore,

【0044】[0044]

【数13】 W2 i, 3 j+Δω2 i, 3 j(t) →W2 i, 3 j (13) により、補正された結合係数が求められる。The corrected coupling coefficient is obtained by W 2 i, 3 j + Δω 2 i, 3 j (t) → W 2 i, 3 j (13).

【0045】次に、ステップ214へ移行して、中間層
の各素の結合係数が補正される。その結合係数の補正量
は出力層の場合と同様に、次式で求められる。
Next, in step 214, the coupling coefficient of each element of the intermediate layer is corrected. The correction amount of the coupling coefficient is obtained by the following equation, as in the case of the output layer.

【0046】[0046]

【数14】 Δω1 i, 2 j(t)=P・Y2 j・f(I1 i)+Q・Δω1 i, 2 j(t-1) (14) よって、Δω 1 i, 2 j (t) = P · Y 2 j · f (I 1 i ) + Q · Δω 1 i, 2 j (t-1) (14) Therefore,

【数15】 W1 i, 2 j + Δω1 i, 2 j(t) →W1 i, 2 j (15) により、補正された結合係数が求められる。[Equation 15] The corrected coupling coefficient is obtained by W 1 i, 2 j + Δω 1 i, 2 j (t) → W 1 i, 2 j (15).

【0047】次に、ステップ216において、学習対象
のn個の入力データ及び教師データに対して1回の学習
が完了したか否が判定される。全ての入力データに対す
る学習が終了していない場合には、ステップ218へ移
行して、次の入力データとその入力データに対応する教
師データを入力データ記憶領域31と教師データ記憶領
域32から読み込むためにデータ番号iが1だけ加算さ
れ、成分番号jは初期値の1に設定される。そして、ス
テップ202へ戻り、次の入力データ及び教師データを
用いて上記した学習が実行される。
Next, at step 216, it is judged whether or not one learning is completed for the n input data and the teacher data to be learned. If learning for all input data has not been completed, the process proceeds to step 218 to read the next input data and the teacher data corresponding to the input data from the input data storage area 31 and the teacher data storage area 32. The data number i is incremented by 1, and the component number j is set to the initial value 1. Then, the process returns to step 202, and the above learning is executed using the next input data and the teacher data.

【0048】ステップ216でn個全部の入力データ及
び教師データに関して学習が完了したと判定されると、
学習回数が所定値に達したか否かが判定される。学習回
数が所定回数(例えば一万回)に達していない場合に
は、ステップ202に戻り、次の所定回数までの学習演
算が繰り返される。一方、学習回数が所定回数に達した
と判定された場合には、上記の学習演算は完了する。
If it is determined in step 216 that learning has been completed for all n input data and teacher data,
It is determined whether or not the number of learning times has reached a predetermined value. When the number of times of learning has not reached the predetermined number (for example, 10,000 times), the process returns to step 202, and the learning calculation up to the next predetermined number of times is repeated. On the other hand, when it is determined that the number of times of learning has reached the predetermined number of times, the above learning calculation is completed.

【0049】尚、上記実施例において、データ記憶手段
はRAM3の入力データ記憶領域31及び教師データ記
憶領域32で構成されており、学習手段はCPU1、R
OM2の学習プログラム領域23で構成され、その機能
は図3の処理手順により達成される。又、判定手段及び
第1データ更新手段は、CPU1、ROM2のデータ更
新プログラム領域21で構成されており、その機能は図
6のステップ300、302及びステップ312で、そ
れぞれ、達成される。又、表示手段は、CPU1、RO
M2のデータ更新プログラム領域21及びCRT6で構
成されており、その機能は図6のステップ304で達成
される。又、選択手段はCPU1、ROM2のデータ更
新プログラム領域21及びキーボード4で構成されてお
り、その機能は図6のステップ306で達成される。
又、第2データ更新手段はCPU1及びROM2のデー
タ更新プログラム領域21で構成されており、その機能
は図6のステップ308、310、312で達成され
る。
In the above embodiment, the data storage means is composed of the input data storage area 31 and the teacher data storage area 32 of the RAM 3, and the learning means is the CPU 1 and R.
It is constituted by the learning program area 23 of the OM 2, and its function is achieved by the processing procedure of FIG. Further, the judging means and the first data updating means are constituted by the data updating program area 21 of the CPU 1 and the ROM 2, and the functions thereof are achieved by the steps 300, 302 and 312 of FIG. 6, respectively. Further, the display means is the CPU 1, RO
It is composed of the data update program area 21 of M2 and the CRT 6, and its function is achieved in step 304 of FIG. The selection means is composed of the CPU 1, the data update program area 21 of the ROM 2 and the keyboard 4, and the function thereof is achieved in step 306 of FIG.
The second data updating means is composed of the CPU 1 and the data updating program area 21 of the ROM 2, and its function is achieved by steps 308, 310 and 312 of FIG.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の具体的な実施例に係る学習装置で使用
されるニューラルネットワークの構成を示した構成図。
FIG. 1 is a configuration diagram showing a configuration of a neural network used in a learning device according to a specific embodiment of the present invention.

【図2】ニューラルネットワークの演算手順を示したフ
ローチャート。
FIG. 2 is a flowchart showing a calculation procedure of a neural network.

【図3】ニューラルネットワークの学習手順を示したフ
ローチャート。
FIG. 3 is a flowchart showing a learning procedure of a neural network.

【図4】本発明の具体的な実施例に係る学習装置の構成
を示したブロック図。
FIG. 4 is a block diagram showing a configuration of a learning device according to a specific example of the present invention.

【図5】ニューラルネットワークの学習に用いられる入
力データと教師データを有するデータベースのデータ構
成を示した構成図。
FIG. 5 is a configuration diagram showing a data configuration of a database having input data and teacher data used for learning of a neural network.

【図6】CPUによる入力データと教師データの追加の
処理手順を示したフローチャート。
FIG. 6 is a flowchart showing a processing procedure for adding input data and teacher data by the CPU.

【図7】本発明の概念を示したブロック図。FIG. 7 is a block diagram showing the concept of the present invention.

【符号の説明】[Explanation of symbols]

10…ニューラルネットワーク LI …入力層 LM …中間層 LO …出力層 1…CPU(学習手段、判定手段、第1データ更新手
段、第2データ更新手段、表示手段、選択手段) 2…ROM 3…RAM(データ記憶手段) 4…キーボード(選択手段)9 6…CRT(表示手段) ステップ300、302…判定手段 ステップ304…表示手段 ステップ306…選択手段 ステップ312…第1データ更新手段、第2データ更新
手段 ステップ308、310…第2データ更新手段
10 ... Neural network LI ... Input layer LM ... Intermediate layer LO ... Output layer 1 ... CPU (learning means, determination means, first data updating means, second data updating means, display means, selecting means) 2 ... ROM 3 ... RAM (Data storage means) 4 ... Keyboard (selection means) 9 6 ... CRT (display means) Steps 300, 302 ... Judgment means Step 304 ... Display means Step 306 ... Selection means Step 312 ... First data update means, Second data update Means Steps 308, 310 ... Second data updating means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 服部 志保 愛知県刈谷市朝日町1丁目1番地 豊田工 機株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Shiho Hattori 1-1, Asahi-cho, Kariya city, Aichi prefecture Toyota Koki Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 入力データと教師データとに基づいてニ
ューラルネットワークに所定の入出力特性を更新学習さ
せる学習装置において、 前記入力データと前記教師データの多数の組を記憶した
データ記憶手段と、 多数の入力データに対して、対応する教師データが出力
されるようにニューラルネットワークの結合係数を逐次
補正して、ニューラルネットワークに所定の入出力特性
を学習させる学習手段と、 前記学習手段により学習された前記ニューラルネットワ
ークの前記入出力特性を変更するために、新たな入力デ
ータ及び新たな教師データを前記データ記憶手段に追加
するとき、前記新たな入力データを前記データ記憶手段
に記憶されている全ての入力データと比較して、前記新
たな入力データと等しい入力データが存在するか否かを
判定する判定手段と、 前記判定手段により新たな入力データと等しい入力デー
タが存在しないと判定された場合には、前記新たな入力
データ及びその新たな入力データに対応する新たな教師
データを前記データ記憶手段に追加する第1データ更新
手段と、 前記判定手段により新たな入力データと等しい入力デー
タが存在すると判定された場合には、その入力データに
対応する2つの教師データを表示する表示手段と、 前記表示手段により表示された2つの教師データのうち
何れか一方を選択する選択手段と、 前記選択手段により前記新たな教師データが選択された
場合には、その新たな教師データ及び対応する新たな入
力データを前記データ記憶手段に追加し、選択されなか
った方の教師データ及び対応する入力データを前記デー
タ記憶手段から削除し、前記新たな教師データが選択さ
れなかった場合には、新たな教師データ及び対応する新
たな入力データを前記データ記憶手段に追加しない第2
データ更新手段とを有するニューラルネットワークの学
習装置。
1. A learning device for causing a neural network to update and learn predetermined input / output characteristics based on input data and teacher data, comprising: a data storage means for storing a large number of sets of the input data and the teacher data; Learning means for sequentially correcting the coupling coefficient of the neural network so as to output corresponding teacher data for the input data of, and learning the predetermined input / output characteristics in the neural network, and the learning means. When new input data and new teacher data are added to the data storage means to change the input / output characteristics of the neural network, all the new input data stored in the data storage means are added. By comparing with the input data, it is determined whether or not the input data equal to the new input data exists. Determining means that determines the new input data and new teacher data corresponding to the new input data when the determination means determines that there is no input data equal to the new input data. First data updating means to be added to the storage means, and display means for displaying two teacher data corresponding to the input data when the determining means determines that there is input data equal to the new input data Selecting means for selecting one of the two teacher data displayed by the display means, and when the new teacher data is selected by the selecting means, the new teacher data and the corresponding new teacher data are selected. Input data is added to the data storage means, and the teacher data and the corresponding input data not selected are input to the data storage means. If the new teacher data is not selected and the new teacher data is not selected, new teacher data and corresponding new input data are not added to the data storage means.
A neural network learning device having data updating means.
JP27327291A 1991-09-24 1991-09-24 Learning device for neural network Pending JPH0581230A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27327291A JPH0581230A (en) 1991-09-24 1991-09-24 Learning device for neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27327291A JPH0581230A (en) 1991-09-24 1991-09-24 Learning device for neural network

Publications (1)

Publication Number Publication Date
JPH0581230A true JPH0581230A (en) 1993-04-02

Family

ID=17525529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27327291A Pending JPH0581230A (en) 1991-09-24 1991-09-24 Learning device for neural network

Country Status (1)

Country Link
JP (1) JPH0581230A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027238A (en) * 2006-07-21 2008-02-07 Hitachi Ltd Document attribute value imparting device and document attribute value imparting method thereof
JP2021071932A (en) * 2019-10-31 2021-05-06 横河電機株式会社 Apparatus, method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027238A (en) * 2006-07-21 2008-02-07 Hitachi Ltd Document attribute value imparting device and document attribute value imparting method thereof
JP2021071932A (en) * 2019-10-31 2021-05-06 横河電機株式会社 Apparatus, method and program

Similar Documents

Publication Publication Date Title
US20230268035A1 (en) Method and apparatus for generating chemical structure using neural network
JPH09319784A (en) Circuit dividing method and its device
US6658305B1 (en) Method for automatic synthesis of multi-variable controllers
JP2001290796A (en) Method and device for reordering matrix, and method and device for simulating electronic circuit
US5596681A (en) Method of determining an optimal number of neurons contained in hidden layers of a neural network
JPH0581230A (en) Learning device for neural network
JP3638310B2 (en) Case reasoning support device
JPH07121498A (en) Method for constructing neural network
US20030055797A1 (en) Neural network system, software and method of learning new patterns without storing existing learned patterns
JPH0554014A (en) Learning device for neural network
US5333238A (en) Method and apparatus for checking input-output characteristic of neural network
JP3232597B2 (en) Neural network learning device
CN113222358A (en) Logistics risk assessment model method, device, equipment and medium based on dynamic Bayesian network
JPH05197705A (en) Learning system for neural network
JPH0535711A (en) Learning data storage for neural network
JP2006172137A (en) Information processor and information processing method
JP4267726B2 (en) Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device
JPH0546585A (en) Learning method of neural network
JP5034041B2 (en) Data generation circuit and data generation method
JP3412700B2 (en) Neural network type pattern learning method and pattern processing device
JPH04299443A (en) Neural network learning method
CN111563548A (en) Data preprocessing method and system based on reinforcement learning and related equipment
JPH08235266A (en) Table calculation processing method
JPH11134314A (en) Simplified quasi-newton projection method arithmetic system, neural network learning system, recording medium, and signal processor
JP2021168042A (en) Information processing device, information processing method, and program