JPH0554013A - Learning device for neural network - Google Patents

Learning device for neural network

Info

Publication number
JPH0554013A
JPH0554013A JP24477391A JP24477391A JPH0554013A JP H0554013 A JPH0554013 A JP H0554013A JP 24477391 A JP24477391 A JP 24477391A JP 24477391 A JP24477391 A JP 24477391A JP H0554013 A JPH0554013 A JP H0554013A
Authority
JP
Japan
Prior art keywords
learning
error
neural network
data
continuation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP24477391A
Other languages
Japanese (ja)
Other versions
JP3232597B2 (en
Inventor
Takao Yoneda
孝夫 米田
Tomoya Kato
友也 加藤
Kazuya Hattori
和也 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyoda Koki KK
Original Assignee
Toyoda Koki KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyoda Koki KK filed Critical Toyoda Koki KK
Priority to JP24477391A priority Critical patent/JP3232597B2/en
Publication of JPH0554013A publication Critical patent/JPH0554013A/en
Application granted granted Critical
Publication of JP3232597B2 publication Critical patent/JP3232597B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To execute efficient learning of a neural network. CONSTITUTION:The learning device consists of a learning means X2 which allows the neural network to learn prescribed input/output relations, an error calculating means X3 which calculates learning error, an error deciding means X4 which deciding the extent of learning error, a frequency deciding means X5 which decides the frequency in learning in the case of learning error not smaller than a prescribed value, a learning error display means X6 which displays learning error, a continuation/stop command means X7 which commands continuation or stop of learning with a prescribed frequency at the time of completion of learning with the prescribed frequency, and a learning control means X8 which terminates learning in the case of learning error smaller than the prescribed value and continues learning with the designated prescribed frequency at the time of giving the continuation command and terminates learning at the time of giving the stop command. Since a worker recognizes the progress condition of learning and can obtain the learning result relatively to the learning time, he can command continuation or termination of learning.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
クの学習装置に関する。詳しくは、学習の進行状況に応
じて学習の継続か終了かを指令することにより、学習を
効果的に完了させるようにした装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning device for a neural network. More specifically, the present invention relates to a device that effectively completes learning by instructing whether to continue or end learning depending on the progress of learning.

【0002】[0002]

【従来の技術】ニューラルネットワークは、理論的な解
析が困難な因果関係を結合係数の学習効果により直接的
に実現する回路網として知られている。即ち、ニューラ
ルネットワークは、予め、離散的な複数の入力に対し
て、それぞれの入力に対して最適な出力が得られるよう
に、ニューラルネットワークの結合係数を学習してお
き、任意の入力に対して妥当な出力が直接的に得られる
ようにした回路網である。
2. Description of the Related Art A neural network is known as a circuit network that directly realizes a causal relationship that is difficult to theoretically analyze by a learning effect of a coupling coefficient. That is, the neural network learns the coupling coefficient of the neural network in advance so that an optimum output can be obtained for each of a plurality of discrete inputs, and for any input It is a circuit network that allows a proper output to be directly obtained.

【0003】このようなニューラルネットワークは多数
の分野で応用されており、工作機械の分野においても、
多くの設定条件から要求された加工に最適な加工条件を
演算するのに用いられている。
Such neural networks are applied in many fields, and also in the field of machine tools.
It is used to calculate the optimum machining conditions for the machining required from many setting conditions.

【0004】[0004]

【発明が解決しようとする課題】このニューラルネット
ワークは多数の入力データとその入力データに対応する
出力の最適値、即ち、教師データを用いて学習される。
ある入力データと対応する教師データの1つの組に対し
て、出力データが教師データに近づく方向に全結合係数
を補正するという演算を、入力データと教師データの全
ての組に対して実行するのが1回の学習演算となる。
This neural network is learned by using a large number of input data and optimum values of outputs corresponding to the input data, that is, teacher data.
For one set of teacher data corresponding to certain input data, an operation of correcting all coupling coefficients in a direction in which output data approaches the teacher data is executed for all sets of input data and teacher data. Is one learning operation.

【0005】この学習演算を多数回繰り返し実行するこ
とで、全ての結合係数は全ての入力データに対して対応
する教師データが出力される方向に逐次補正されて、最
終的にある値に漸近する。結合係数がある値に漸近する
までの学習回数は、学習させる入出力特性にもよるが、
数十万回から数百万回にも及ぶ。従って、学習演算の打
切りを結合係数がある値に漸近したことにより判定する
と、学習に長時間必要となる。
By repeating this learning operation a number of times, all the coupling coefficients are sequentially corrected in the direction in which the corresponding teacher data is output for all the input data, and finally approach a certain value. .. The number of learnings until the coupling coefficient approaches a certain value depends on the input / output characteristics to be learned,
It reaches hundreds of thousands to millions of times. Therefore, if the termination of the learning operation is determined by the coupling coefficient approaching a certain value, it takes a long time for learning.

【0006】加工条件を演算するためにニューラルネッ
トワークを用いている装置では、通常、ニューラルネッ
トワークを使用していく過程で、入力データとその入力
データに対応する最適な出力である教師データとを蓄積
しておき、ニューラルネットワークの出力が適性な出力
を示さなくなった場合に、適宜、ニューラルネットワー
クをその蓄積されたデータに基づいて学習させることが
行われている。
In an apparatus using a neural network to calculate a processing condition, normally, in the process of using the neural network, input data and teacher data which is an optimum output corresponding to the input data are accumulated. Incidentally, when the output of the neural network does not show an appropriate output, the neural network is appropriately trained based on the accumulated data.

【0006】この場合には、学習を必要とする度に、数
十万回から数百万回にも及ぶ学習演算が実行され、学習
の完了に長時間を必要とする。従って、学習をしている
間、数値制御装置が学習演算に占有されて、他の処理が
できないという問題がある。又、ニューラルネットワー
クの学習が完了するまでは、そのニューラルネットワー
クを用いた加工条件の演算が開始できないという問題が
ある。このように、長時間に渡る学習演算は作業性の低
下の原因となっていた。
[0006] In this case, every time learning is required, hundreds of thousands to several millions of learning operations are executed, and it takes a long time to complete the learning. Therefore, there is a problem that the numerical control device is occupied by the learning calculation during the learning and other processing cannot be performed. Further, there is a problem that the calculation of the processing conditions using the neural network cannot be started until the learning of the neural network is completed. As described above, the learning operation for a long time causes a decrease in workability.

【0007】本発明は上記課題を解決するために成され
たものであり、その目的は、学習演算の切上げを効率良
く行うようにすることである。
The present invention has been made to solve the above problems, and an object thereof is to efficiently round up learning operations.

【0008】[0008]

【課題を解決するための手段】本発明は、図7に示すよ
うに、入力データと教師データとに基づいてニューラル
ネットワークに学習させる学習装置において、入力デー
タと教師データの多数の組を記憶したデータ記憶手段X
1と、多数の入力データに対して、対応する教師データ
が出力されるようにニューラルネットワークの結合係数
を逐次補正して、ニューラルネットワークに所定の入出
力関係を学習させる学習手段X2と、学習の進行の程度
を表した学習誤差を演算する誤差演算手段X3と、学習
誤差が所定値より小さいか否を判定する誤差判定手段X
4と、学習回数が所定回数に達したか否かを判定する回
数判定手段X5と、学習誤差を表示する学習誤差表示手
段X6と、回数判定手段により所定回数の学習が完了し
たと判定された場合には、さらに、所定回数の学習を継
続するか否かを指令する継続有無指令手段X7と、誤差
判定手段により学習誤差が所定値より小さいと判定され
た場合には学習を終了させ、継続有無指令手段により継
続指令が付与された場合には、学習手段を起動してさら
に指定された所定回数の学習を継続し、継続有無指令手
段により非継続指令が付与された場合には学習を終了す
る学習制御手段X8とを設けたことである。
As shown in FIG. 7, the present invention stores a large number of sets of input data and teacher data in a learning device for making a neural network learn based on input data and teacher data. Data storage means X
1, learning means X2 for sequentially correcting the coupling coefficient of the neural network so as to output corresponding teacher data for a large number of input data, and allowing the neural network to learn a predetermined input / output relationship; An error calculating means X3 for calculating a learning error representing the degree of progress, and an error determining means X for judging whether or not the learning error is smaller than a predetermined value.
4, the number of times determining means X5 for determining whether or not the number of times of learning reaches a predetermined number, the learning error display means X6 for displaying the learning error, and the number of times determining means for determining that the predetermined number of times of learning is completed. In this case, further, the continuation presence / absence command means X7 for instructing whether or not to continue the learning a predetermined number of times, and if the error determining means determines that the learning error is smaller than the predetermined value, the learning is terminated and continued. When the continuation instruction is given by the presence / absence instruction means, the learning means is activated to continue the learning for the designated number of times, and when the continuation presence / absence instruction means gives the discontinuation instruction, the learning is ended. The learning control means X8 is provided.

【0009】[0009]

【作用】データ記憶手段に記憶されている入力データ及
び教師データに基づいて、学習手段により、結合係数の
補正による学習演算が実行される。この学習演算の進行
に伴って、学習の進行の程度を表した学習誤差が誤差演
算手段により演算され、誤差判定手段により学習誤差が
所定値よりも小さいか否かが判定される。学習誤差が所
定値より小さいならば、学習制御手段により学習終了と
なる。学習誤差が所定値よりも大きいならば、回数判定
手段により学習回数が所定値に達したか否かが判定され
る。学習誤差は学習誤差表示手段により表示される。作
業者はこの表示された学習誤差を判読して、学習を更に
継続するか許容される程度に学習誤差が零に収束して、
学習を打ち切っても良い場合には、継続有無指令手段に
より非継続の指令を付与し、継続学習が必要な場合には
継続指令を付与する。この結果、学習制御手段は継続指
令が付与された場合には、学習手段を起動して、さら
に、次の所定回数の学習演算を実行させる。
The learning means executes the learning operation by correcting the coupling coefficient based on the input data and the teacher data stored in the data storage means. As the learning calculation progresses, a learning error representing the degree of learning progress is calculated by the error calculating means, and the error determining means determines whether or not the learning error is smaller than a predetermined value. If the learning error is smaller than the predetermined value, the learning control means ends the learning. If the learning error is larger than the predetermined value, the number-of-times determining means determines whether or not the number of times of learning reaches the predetermined value. The learning error is displayed by the learning error display means. The operator deciphers the displayed learning error and continues the learning or the learning error converges to zero to an acceptable level,
When the learning can be discontinued, the continuation presence / absence instruction means gives a discontinuation instruction, and when continuation learning is necessary, a continuation instruction is given. As a result, when the continuation command is given, the learning control means activates the learning means to further execute the next predetermined number of learning calculations.

【0010】[0010]

【発明の効果】このように、学習誤差が所定値よりも大
きく、所定回数の学習演算が完了した時に、表示された
学習誤差の変動傾向を見て、学習を継続するか打ち切る
かの指令を与えることができる。従って、学習誤差の収
束が遅くなった時に、不必要に学習演算を繰り返すこと
がないので、効率の良い学習が達成される。
As described above, when the learning error is larger than the predetermined value and the learning operation is completed a predetermined number of times, the variation tendency of the displayed learning error is observed, and the instruction to continue or abort the learning is issued. Can be given. Therefore, when the convergence of the learning error is delayed, the learning operation is not unnecessarily repeated, and efficient learning is achieved.

【0011】[0011]

【実施例】【Example】

1.学習装置の構成 本装置は、図4に示すように、CPU1、ROM2、R
AM3とから成るコンピュータシステムで構成されてい
る。ROM2には入力データと教師データの蓄積を管理
する制御プログラムの記憶された制御プログラム領域2
1とニューラルネットワークの演算プログラムの記憶さ
れたニューラルネットワーク領域22とニューラルネッ
トワークを学習させるためのプログラムの記憶された学
習プログラム領域23が形成されている。又、RAM3
には蓄積される入力データ及び教師データをそれぞれ記
憶する入力データ記憶領域31及び教師データ領域3
2、ニューラルネットワークの結合係数を記憶する結合
係数領域33とが形成されている。又、CPU1には入
出力インタフェース5を介して学習を継続すべきか打ち
切るべきかの指令を与えるためのキーボード4と学習誤
差と学習回数との関係を表示するCRT6が接続されて
いる。
1. Structure of learning device This device, as shown in FIG.
It is composed of a computer system composed of AM3. The ROM 2 has a control program area 2 in which a control program for managing the storage of input data and teacher data is stored.
1 and a neural network area 22 in which a calculation program of the neural network is stored and a learning program area 23 in which a program for learning the neural network is stored. RAM3
In the input data storage area 31 and the teacher data area 3 for storing the input data and the teacher data, respectively.
2. A coupling coefficient area 33 for storing the coupling coefficient of the neural network is formed. The CPU 1 is also connected to the CPU 1 via the input / output interface 5 with a keyboard 4 for giving an instruction as to whether learning should be continued or aborted, and a CRT 6 for displaying the relationship between the learning error and the learning frequency.

【0012】2.ニューラルネットワーク 本実施例のニューラルネットワーク10は、図1に示す
ように、入力層LI と出力層LO と中間層LM の3層構
造に構成されている。入力層LI はe個の入力素子を有
し、出力層LO はg個の出力素子を有し、中間層LM は
f個の出力素子を有している。多層構造のニューラルネ
ットワークは、一般的に、次の演算を行う装置として定
義される。
2. Neural Network As shown in FIG. 1, the neural network 10 of this embodiment has a three-layer structure of an input layer LI, an output layer LO and an intermediate layer LM. The input layer LI has e input elements, the output layer LO has g output elements, and the intermediate layer LM has f output elements. A multilayered neural network is generally defined as a device that performs the following operations.

【0013】第i 層の第j 番目の素子の出力Oi j は、次
式で演算される。但し、i ≧2 である。
The output O i j of the j-th element in the i-th layer is calculated by the following equation. However, i ≧ 2.

【数1】 Oi j =f(Ii j) (1)[Equation 1] O i j = f (I i j ) (1)

【数2】 Ii j=ΣWi-1 k, i j・Oi-1 k +Vi j (2) k [Equation 2] I i j = ΣW i-1 k, i j · O i-1 k + V i j (2) k

【数3】 f(x)=1/{1+exp(-x)} (3)[Formula 3] f (x) = 1 / {1 + exp (-x)} (3)

【0014】但し、Vi j は第i 層の第j 番目の演算素子
のバイアス、Wi-1 k, i jは、第i-1 層の第k 番目の素子と
第i 層の第j 番目の素子間の結合係数、O1 j は第1 層の
第 j番目の素子の出力値を表す。即ち、第1 層であるか
ら演算を行うことなく、そのまま入力を出力するので、
入力層(第1層)の第j 番目の素子の入力値でもある。
Here, V i j is the bias of the j-th arithmetic element of the i- th layer, and W i-1 k, i j is the k-th element of the i-1-th layer and the j-th element of the i-th layer. The coupling coefficient between the th element, O 1 j , represents the output value of the j th element of the first layer. That is, since it is the first layer, the input is output as it is without performing any calculation.
It is also the input value of the j-th element of the input layer (first layer).

【0015】次に、図1に示す3層構造のニューラルネ
ットワーク10の具体的な演算手順について図2を参照
して説明する。各素子の演算は、RAM3の結合係数記
憶領域33に記憶されている結合係数を参照しつつ、R
OM2のニューラルネットワーク領域22に記憶された
プログラムを実行することによって行われる。ステップ
100において、中間層(第2層)の第j 番目の素子
は、入力層(第1層)の各素子からの出力値O1 j (第1
層の入力データ)を入力して、(2)式を層番号と第1
層の素子数を用いて具体化した次式の積和演算を行な
う。
Next, a specific calculation procedure of the neural network 10 having the three-layer structure shown in FIG. 1 will be described with reference to FIG. For the calculation of each element, R is referred to while referring to the coupling coefficient stored in the coupling coefficient storage area 33 of the RAM 3.
This is performed by executing a program stored in the neural network area 22 of the OM2. In step 100, the j-th element of the intermediate layer (second layer) is the output value O 1 j ( first element) from each element of the input layer (first layer).
(Input data of layer), input the equation (2) with the layer number and the first
The product-sum operation of the following equation, which is embodied using the number of elements of layers, is performed.

【0016】[0016]

【数4】 [Equation 4]

【0017】次に、ステップ102において、次式によ
り、(4)式の入力値の積和関数値のシグモイド関数に
より、中間層(第2層)の各素子の出力が演算される。
第2層の第j 番目の素子の出力値は次式で演算される。
Next, at step 102, the output of each element of the intermediate layer (second layer) is calculated by the following equation using the sigmoid function of the product-sum function value of the input values of equation (4).
The output value of the j-th element in the second layer is calculated by the following equation.

【0018】[0018]

【数5】 O2 j=f(I2 j )=1/{1+exp(-I2 j) } (5) この出力値 O2 j は出力層(第3層)の各素子の入力値
となる。次に、ステップ104において、出力層(第3
層)の各素子の入力値の積和演算が実行される。
[Equation 5] O 2 j = f (I 2 j ) = 1 / {1 + exp (-I 2 j )} (5) This output value O 2 j is input to each element of the output layer (third layer) It becomes a value. Next, in step 104, the output layer (third layer
The sum of products operation of the input values of each element of the (layer) is executed.

【0019】[0019]

【数6】 次に、ステップ106において、(5)式と同様に、
シグモイド関数により、出力層の各素子の出力値O3 j
演算される。
[Equation 6] Next, in step 106, as in equation (5),
The output value O 3 j of each element in the output layer is calculated by the sigmoid function.

【0020】[0020]

【数7】 O3 j=f(I3 j)=1/{1+exp(-I3 j)} (7)[Equation 7] O 3 j = f (I 3 j ) = 1 / {1 + exp (-I 3 j )} (7)

【0021】3.入力データと教師データの構造 ニューラルネットワークの更新学習に使用されるデータ
は、図5に示すようなデータベースに構成されている。
入力データは、D1,…,Dn であり、対応する教師デー
タは、E1,…,En である。このn個の入力データ及び
教師データは、ニューラルネットワークの初期学習又は
初期学習後のニューラルネットワークを現実に使用した
過程で蓄積されたデータである。この入力データは、次
のように定義される。e個の入力素子のそれぞれに与え
るe個のデータを1組のデータとして考える。そして、
任意の第m番目の1組の入力データをDm で表し、その
組に属する第j番目の入力素子に対する入力データをd
mjで表す。Dm はベクトルを表し、dmjはそのベクトル
の成分である。即ち、Dm は次式で定義される。
3. Structures of input data and teacher data The data used for update learning of the neural network is structured in a database as shown in FIG.
The input data are D 1, ..., D n , and the corresponding teacher data are E 1, ..., E n . The n pieces of input data and the teacher data are data accumulated in the process of actually using the initial learning of the neural network or the neural network after the initial learning. This input data is defined as follows. Consider the e pieces of data given to each of the e input elements as one set of data. And
An arbitrary m-th set of input data is represented by D m , and the input data for the j-th input element belonging to the set is d m.
Expressed as mj . D m represents a vector, and d mj is a component of the vector. That is, D m is defined by the following equation.

【0022】[0022]

【数8】 Dm =(dm1, m2, …,dme-1, me) (8) 又、n組の入力データはD1,2,…,Dn-1,n で表さ
れる。以下、全n組の入力データ群は、入力データ群D
と表記される。尚、入力データDm に対して(4)式を
用いる場合には、(4)式のO1 k に、成分dmk が代入さ
れる。
## EQU8 ## D m = (d m1, d m2, ..., d me-1, d me ) (8) Further, the n sets of input data are D 1, D 2, ..., D n-1, D n. It is represented by. Hereinafter, the input data group of all n sets is the input data group D
Is written. When the equation (4) is used for the input data D m , the component d mk is substituted into O 1 k of the equation (4).

【0023】同様に、E1,, n は、次のように定義
される。出力層LO に関して、g個の出力素子のそれぞ
れからの出力に対する教師データを1組のデータとして
考える。そして、任意の第m番目の1組の教師データを
m で表し、その組に属する第j番目の出力素子に対す
る教師データをemjで表す。Em はベクトルを表し、e
mjはそのベクトルの成分である。即ち、Em は次式で定
義される。
Similarly, E 1, ... , E n are defined as follows. For the output layer Lo, consider the teacher data for the output from each of the g output elements as a set of data. Then, an arbitrary m-th set of teacher data is represented by E m , and teacher data for the j-th output element belonging to that set is represented by em j. E m represents a vector, e
mj is the component of that vector. That is, E m is defined by the following equation.

【0024】[0024]

【数9】 Em =(em1, m2, …,emg-1, mg) (9) 又、n組の教師データはE1,2,…,En-1,n で表さ
れる。以下、全n組の教師データ群は、教師データ群E
と表記される。
[Equation 9] E m = (e m1, e m2, ..., E mg-1, e mg ) (9) Further, n sets of teacher data are E 1, E 2, ..., E n-1, E n. It is represented by. Hereinafter, the teacher data group E for all n sets is the teacher data group E.
Is written.

【0025】4.ニューラルネットワークの学習 このニューラルネットワークは、初期学習として、RO
M2の学習プログラム領域23に記憶された図3に示す
手順のプログラムが実行されることにより学習される。
結合係数の学習は良く知られたバックプロパーゲーショ
ン法により実行される。この学習は、各種の事象に関す
る多数の入力データに対して、それぞれの出力が、それ
ぞれの最適な教師データとなるように、繰り返し実行さ
れる。これらの入力データ及び教師データは、それぞ
れ、入力データ記憶領域31及び教師データ記憶領域3
2に記憶されている。
4. Learning of Neural Network This neural network uses RO for initial learning.
Learning is performed by executing the program of the procedure shown in FIG. 3 stored in the learning program area 23 of M2.
The learning of the coupling coefficient is performed by the well-known backpropagation method. This learning is repeatedly executed with respect to a large number of input data regarding various events so that each output becomes each optimum teacher data. These input data and teacher data are stored in the input data storage area 31 and the teacher data storage area 3, respectively.
It is stored in 2.

【0026】図3のステップ200において、データ番
号iが初期値の1に設定され、出力素子の番号j(教師
データの成分番号j)が初期値の1に設定される。次
に、ステップ202へ移行して、第i番目の入力データ
i と第i番目の教師データEi が入力データ記憶領域
31と教師データ記憶領域32から抽出される。次に、
ステップ204において、次式により出力層のその成分
に対応した素子の学習データY が演算される。
In step 200 of FIG. 3, the data number i is set to the initial value 1, and the output element number j (teaching data component number j) is set to the initial value 1. Next, in step 202, the i-th input data D i and the i-th teacher data E i are extracted from the input data storage area 31 and the teacher data storage area 32. next,
In step 204, the learning data Y of the element corresponding to that component of the output layer is calculated by the following equation.

【0027】[0027]

【数10】 Y3 j=(eij- O3 j)・f'(I3 j) (10) 但し、Y3 j,O3 j,I3 jでは、データ番号iは省略されて
いる。f'(x) はジグモイド関数の導関数である。又、I3
j は、入力データDi の各成分を(4)式のO1 kに代入
して、中間層の全ての素子に関しI2 k を求め、I2 k
(5)に代入して中間層の全ての素子に関し出力O2 k
求め、その全てのk に関してO2 kを(6)式に代入して
求められる。又、O3 j はI3 j を(7)式に代入して求め
られる。
[Formula 10] Y 3 j = (e ij -O 3 j ) f ' (I 3 j ) (10) However, in Y 3 j , O 3 j , and I 3 j , the data number i is omitted. .. f ' (x) is the derivative of the Zigmoid function. Also, I 3
j is obtained by substituting each component of the input data D i into O 1 k of the equation (4) to obtain I 2 k with respect to all the elements in the intermediate layer, and substituting I 2 k into (5). obtains an output O 2 k for all elements, obtained by substituting the O 2 k in (6) with respect to all the k. Further, O 3 j is obtained by substituting I 3 j into the equation (7).

【0028】次に、ステップ206において、全出力素
子について、学習データが演算されたか否かが判定さ
れ、判定結果がNOの場合には、ステップ208におい
て、素子番号jが1だけ増加され、ステップ204へ戻
り、次の出力素子に関する学習データが演算される。
Next, in step 206, it is determined whether or not learning data has been calculated for all output elements. If the determination result is NO, in step 208 the element number j is incremented by 1 and Returning to 204, the learning data regarding the next output element is calculated.

【0029】ステップ206で全出力素子に関する学習
データの演算が完了したと判定されると、ステップ21
0において、中間層の任意の第r番目の素子に関する学
習データY が次式で演算される。
When it is determined in step 206 that the calculation of the learning data for all output elements is completed, step 21
At 0, learning data Y 1 regarding an arbitrary r-th element in the intermediate layer is calculated by the following equation.

【数11】 このような学習データの演算が、中間層の全素子に関
して実行される。
[Equation 11] The calculation of such learning data is executed for all the elements in the intermediate layer.

【0030】次に、ステップ212において、出力層の
各結合係数が補正される。補正量は次式で求められる。
Next, at step 212, each coupling coefficient of the output layer is corrected. The correction amount is calculated by the following equation.

【数12】 Δω2 i, 3 j(t)=P・Y3 j・f(I2 i)+Q・Δω2 i, 3 j(t-1) (12) 但し、Δω2 i, 3 j(t) は、出力層の第j 番目の素子と中
間層の第i 番目の素子との間の結合係数の第t 回目演算
の変化量である。又、Δω2 i, 3 j(t-1) は、その結合係
数の前回の補正量である。P,Q は比例定数である。よっ
て、結合係数は、
Δω 2 i, 3 j (t) = P · Y 3 j · f (I 2 i ) + Q · Δω 2 i, 3 j (t-1) (12) where Δω 2 i, 3 j (t) is the amount of change in the t-th calculation of the coupling coefficient between the j-th element in the output layer and the i-th element in the intermediate layer. Further, Δω 2 i, 3 j (t-1) is the previous correction amount of the coupling coefficient. P and Q are proportional constants. Therefore, the coupling coefficient is

【0031】[0031]

【数13】 W2 i, 3 j+Δω2 i, 3 j(t) →W2 i, 3 j (13) により、補正された結合係数が求められる。The corrected coupling coefficient is obtained by W 2 i, 3 j + Δω 2 i, 3 j (t) → W 2 i, 3 j (13).

【0032】次に、ステップ214へ移行して、中間層
の各素の結合係数が補正される。その結合係数の補正量
は出力層の場合と同様に、次式で求められる。
Next, in step 214, the coupling coefficient of each element of the intermediate layer is corrected. The correction amount of the coupling coefficient is obtained by the following equation, as in the case of the output layer.

【0033】[0033]

【数14】 Δω1 i, 2 j(t)=P・Y2 j・f(I1 i)+Q・Δω1 i, 2 j(t-1) (14) よって、結合係数は、Δω 1 i, 2 j (t) = P · Y 2 j · f (I 1 i ) + Q · Δω 1 i, 2 j (t-1) (14) Therefore, the coupling coefficient is

【数15】 W1 i, 2 j + Δω1 i, 2 j(t) →W1 i, 2 j (15) により、補正された結合係数が求められる。[Equation 15] The corrected coupling coefficient is obtained by W 1 i, 2 j + Δω 1 i, 2 j (t) → W 1 i, 2 j (15).

【0034】次に、ステップ216において、学習対象
のn個の入力データ及び教師データに対して1回の学習
が完了したか否が判定される。全ての入力データに対す
る学習が終了していない場合には、ステップ218へ移
行して、次の入力データとその入力データに対応する教
師データを入力データ記憶領域31と教師データ記憶領
域32から読み込むためにデータ番号iが1だけ加算さ
れ、成分番号jは初期値の1に設定される。そして、ス
テップ202へ戻り、次の入力データ及び教師データを
用いて上記した学習が実行される。
Next, at step 216, it is judged whether or not one learning is completed for the n pieces of input data and the teacher data to be learned. If learning for all input data has not been completed, the process proceeds to step 218 to read the next input data and the teacher data corresponding to the input data from the input data storage area 31 and the teacher data storage area 32. The data number i is incremented by 1, and the component number j is set to the initial value 1. Then, the process returns to step 202, and the above learning is executed using the next input data and the teacher data.

【0035】ステップ216でn個全部の入力データ及
び教師データに関して学習が完了したと判定されると、
ステップ220に移行して、学習誤差ΔLが演算され
る。学習誤差ΔLは次式で演算される。
When it is determined in step 216 that learning has been completed for all n input data and teacher data,
In step 220, the learning error ΔL is calculated. The learning error ΔL is calculated by the following equation.

【数16】 ΔL=( W1 +W2 +…+Wn ) /n (16)ΔL = (W 1 + W 2 + ... + W n ) / n (16)

【数17】 Wi =(δi1 2 +δi2 2 +…+δig 2 1/2 (17)W i = (δ i1 2 + δ i2 2 + ... + δ ig 2 ) 1/2 (17)

【数18】 δij=Oij−eiJ (18) 但し、Wi は入力データDi に関する出力誤差の大き
さ、δijは入力データDi に関する出力誤差の第j成
分、即ち、出力層の第j番目の素子の出力誤差である。
ijは入力データDi に関する出力の第j成分、eiJ
その出力に関する教師データの第j成分である。nは入
力データ又は教師データの数、gは出力層の素子数であ
る。よって、学習誤差ΔLは、n個の入力データに関す
る出力誤差の平均値を表している。
Δ ij = O ij −e iJ (18) where W i is the magnitude of the output error with respect to the input data D i , and δ ij is the j-th component of the output error with respect to the input data D i , that is, the output layer. It is the output error of the j-th element of.
O ij is the j-th component of the output for the input data D i , and e iJ is the j-th component of the teacher data for the output. n is the number of input data or teacher data, and g is the number of elements in the output layer. Therefore, the learning error ΔL represents the average value of the output errors regarding the n pieces of input data.

【0036】次に、ステップ222において、学習誤差
ΔLが所定値より小さいか否かが判定される。学習誤差
ΔLが所定値よりも小さいならば、所定の学習効果が得
られたのであるから、学習終了となる。学習誤差ΔLが
所定値よりも大きいと判定された場合には、ステップ2
24へ移行して、学習回数が所定値に達したか否かが判
定される。学習回数が所定回数(例えば一万回)に達し
ていない場合には、ステップ202に戻り、次の所定回
数までの学習演算が繰り返される。
Next, at step 222, it is judged if the learning error ΔL is smaller than a predetermined value. If the learning error ΔL is smaller than the predetermined value, it means that the predetermined learning effect has been obtained, and thus the learning ends. If it is determined that the learning error ΔL is larger than the predetermined value, step 2
The process shifts to 24, and it is determined whether or not the number of times of learning has reached a predetermined value. When the number of times of learning has not reached the predetermined number (for example, 10,000 times), the process returns to step 202, and the learning calculation up to the next predetermined number of times is repeated.

【0037】一方、学習回数が所定回数に達したと判定
された場合には、CRT6に図6に示すような学習回数
に対する学習誤差ΔLの関係が表示される。作業者はこ
の表示の予測部分(塗られた部分)を見て、学習がかな
り収束しているか、未だ、学習する効果が残されている
か等の判断をする。そして、作業者は、時間を掛けて学
習を継続してもあまり学習効果は向上しないので学習を
打ち切っても良いと判定した場合には、キーボード4を
操作して非継続指令を与える。逆に、作業者は、さらに
時間を掛けても学習を継続した方がより学習効果が向上
すると判定した場合には、継続指令を与える。
On the other hand, when it is determined that the learning number has reached the predetermined number, the CRT 6 displays the relationship of the learning error ΔL with respect to the learning number as shown in FIG. The operator looks at the predicted portion (painted portion) of this display and judges whether the learning has considerably converged, whether the learning effect is still left, or the like. When the worker determines that the learning effect may not be improved even if the learning is continued for a long time and the learning may be terminated, the worker operates the keyboard 4 to give a discontinuation command. On the contrary, when the worker determines that the learning effect is improved by continuing the learning even if the time is further taken, the operator gives a continuation command.

【0038】CPU1は、ステップ228において、キ
ーボード4から継続指令又は非継続指令を読み込み、次
のステップ230でその指令が継続指令か否かを判定す
る。継続指令であれば、ステップ224で判定される次
の学習回数を判定するための所定学習回数が更新され
て、ステップ200に戻り、次の所定学習回数に向けて
上述した学習演算が繰り返される。
In step 228, the CPU 1 reads the continuation command or the non-continuation command from the keyboard 4, and in the next step 230, it determines whether or not the command is a continuation command. If it is a continuation command, the predetermined learning number for determining the next learning number determined in step 224 is updated, the process returns to step 200, and the above-described learning calculation is repeated toward the next predetermined learning number.

【0039】このようにして、作業者は、学習効果の収
束傾向を途中で見ることができ、さらに、時間をかけて
学習させるべきか、時間をかけて学習させるまでもない
かを判定することが可能となる。よって、無用に長時間
学習が継続実行されることがないので、有効な学習が達
成される。
In this way, the worker can see the convergence tendency of the learning effect on the way and further determine whether the learning should take time or not. Is possible. Therefore, since learning is not continuously executed unnecessarily for a long time, effective learning is achieved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の具体的な実施例に係るニューラルネッ
トワークの構成を示した構成図。
FIG. 1 is a configuration diagram showing a configuration of a neural network according to a specific embodiment of the present invention.

【図2】同実施例に係るニューラルネットワークの演算
手順を示したフローチャート。
FIG. 2 is a flowchart showing a calculation procedure of the neural network according to the embodiment.

【図3】同実施例に係るニューラルネットワークの学習
手順を示したフローチャート。
FIG. 3 is a flowchart showing a learning procedure of the neural network according to the embodiment.

【図4】本発明の学習装置の構成を示したプログラム
図。
FIG. 4 is a program diagram showing a configuration of a learning device of the present invention.

【図5】ニューラルネットワークの学習に用いられる入
力データと教師データを有するデータベースのデータ構
成を示した構成図。
FIG. 5 is a configuration diagram showing a data configuration of a database having input data and teacher data used for learning of a neural network.

【図6】CPUにより表示される学習誤差と学習回数と
の関係を示した説明図。
FIG. 6 is an explanatory diagram showing the relationship between the learning error displayed by the CPU and the number of times of learning.

【図7】本発明の概念を示したブロック図。FIG. 7 is a block diagram showing the concept of the present invention.

【符号の説明】[Explanation of symbols]

10…ニューラルネットワーク LI …入力層 LM…中間層 Lo …出力層 10 ... Neural network LI ... Input layer LM ... Intermediate layer Lo ... Output layer

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 入力データと教師データとに基づいてニ
ューラルネットワークに学習させる学習装置において、 前記入力データと前記教師データの多数の組を記憶した
データ記憶手段と、 多数の入力データに対して、対応する教師データが出力
されるようにニューラルネットワークの結合係数を逐次
補正して、ニューラルネットワークに所定の入出力関係
を学習させる学習手段と、 学習の進行の程度を表した学習誤差を演算する誤差演算
手段と、 前記学習誤差が所定値より小さいか否を判定する誤差判
定手段と、 学習回数が所定回数に達したか否かを判定する回数判定
手段と、 前記学習誤差を表示する学習誤差表示手段と、 前記回数判定手段により所定回数の学習が完了したと判
定された場合には、さらに、所定回数の学習を継続する
か否かを指令する継続有無指令手段と、 前記誤差判定手段により前記学習誤差が所定値より小さ
いと判定された場合には学習を終了させ、前記継続有無
指令手段により継続指令が付与された場合には、前記学
習手段を起動してさらに指定された所定回数の学習を継
続し、前記継続有無指令手段により非継続指令が付与さ
れた場合には学習を終了する学習制御手段とを設けたこ
とを特徴とするニューラルネットワークの学習装置。
1. A learning device for learning a neural network based on input data and teacher data, comprising: a data storage unit storing a large number of sets of the input data and the teacher data; Learning means for sequentially correcting the coupling coefficient of the neural network so that the corresponding teacher data is output, and learning means for learning the neural network to a predetermined input / output relationship, and an error for calculating a learning error representing the degree of progress of learning. A calculation unit, an error determination unit that determines whether or not the learning error is smaller than a predetermined value, a number determination unit that determines whether or not the number of times of learning reaches a predetermined number, and a learning error display that displays the learning error. And the number of times determination means determines that the predetermined number of learnings have been completed, whether to continue the predetermined number of learnings. If the continuation presence / absence command means for instructing whether or not the learning error is determined to be smaller than a predetermined value by the error determination means, the learning is terminated, and if the continuation instruction is given by the continuation presence / absence command means. A learning control means for activating the learning means, continuing the learning a predetermined number of times, and terminating the learning when a discontinuation instruction is given by the continuation presence / absence instruction means. Neural network learning device.
JP24477391A 1991-08-29 1991-08-29 Neural network learning device Expired - Fee Related JP3232597B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24477391A JP3232597B2 (en) 1991-08-29 1991-08-29 Neural network learning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24477391A JP3232597B2 (en) 1991-08-29 1991-08-29 Neural network learning device

Publications (2)

Publication Number Publication Date
JPH0554013A true JPH0554013A (en) 1993-03-05
JP3232597B2 JP3232597B2 (en) 2001-11-26

Family

ID=17123703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24477391A Expired - Fee Related JP3232597B2 (en) 1991-08-29 1991-08-29 Neural network learning device

Country Status (1)

Country Link
JP (1) JP3232597B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018118353A (en) * 2017-01-26 2018-08-02 ファナック株式会社 Control system provided with learning control function and control method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018118353A (en) * 2017-01-26 2018-08-02 ファナック株式会社 Control system provided with learning control function and control method
CN108356823A (en) * 2017-01-26 2018-08-03 发那科株式会社 Control system with learning control function and control method
US10300600B2 (en) 2017-01-26 2019-05-28 Fanuc Corporation Control system having learning control function and control method
CN108356823B (en) * 2017-01-26 2019-10-15 发那科株式会社 Control system and control method with learning control function

Also Published As

Publication number Publication date
JP3232597B2 (en) 2001-11-26

Similar Documents

Publication Publication Date Title
US11253999B2 (en) Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
US10807234B2 (en) Component supply device and machine learning device
US5313559A (en) Method of and system for controlling learning in neural network
US5596681A (en) Method of determining an optimal number of neurons contained in hidden layers of a neural network
JPH0554013A (en) Learning device for neural network
JP3214876B2 (en) Neural network configuration method and neural network construction support system
JPH07121498A (en) Method for constructing neural network
US20140006321A1 (en) Method for improving an autocorrector using auto-differentiation
JPH0554014A (en) Learning device for neural network
Lin et al. Neurofuzzy-model-following control of MIMO nonlinear systems
US6662169B2 (en) Controlling the self learning behavior of an autonomous agent
JPH0581230A (en) Learning device for neural network
JP2540654B2 (en) Learning device for neural network
JPH0546585A (en) Learning method of neural network
CN116954156B (en) Numerical control processing process route planning method, device, equipment and medium
JPH0660050A (en) Learning assistance device for neural network
JPH08129420A (en) Direction and position controller for tunnel robot and constitution method for n-dimensional linear discrete time system probability model
JPH117435A (en) Neural network
JPH0675934A (en) Neural network constitution method and equipment abnormality diagnosis method using the network
JP2732603B2 (en) Learning process monitoring device for network configuration data processing device
JP2021168042A (en) Information processing device, information processing method, and program
JPH05151373A (en) Fuzzy reverse diagnostic method using neural network
JPH04299443A (en) Neural network learning method
JPH0581031A (en) Output method for fuzzy inference state and fuzzy inference system
JPH0535711A (en) Learning data storage for neural network

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070921

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20080921

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 8

Free format text: PAYMENT UNTIL: 20090921

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees