JP6735862B1 - Learning method of neural network - Google Patents

Learning method of neural network Download PDF

Info

Publication number
JP6735862B1
JP6735862B1 JP2019022354A JP2019022354A JP6735862B1 JP 6735862 B1 JP6735862 B1 JP 6735862B1 JP 2019022354 A JP2019022354 A JP 2019022354A JP 2019022354 A JP2019022354 A JP 2019022354A JP 6735862 B1 JP6735862 B1 JP 6735862B1
Authority
JP
Japan
Prior art keywords
learning
value
output data
neural network
satisfied
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019022354A
Other languages
Japanese (ja)
Other versions
JP2020129323A (en
Inventor
徹 田仲
徹 田仲
牧野 倫和
倫和 牧野
葉狩 秀樹
秀樹 葉狩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019022354A priority Critical patent/JP6735862B1/en
Application granted granted Critical
Publication of JP6735862B1 publication Critical patent/JP6735862B1/en
Publication of JP2020129323A publication Critical patent/JP2020129323A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Abstract

【課題】誤差が小さくなる適切なタイミングで、ニューラルネットワークの学習の終了判定を行うことができるニューラルネットワークの学習方法を提供する。【解決手段】出力データの目標値と出力データの実値との誤差の絶対値が、誤差判定値を下回る第1条件、及び、前回の学習ステップの実行後の出力データの実値と今回の学習ステップの実行後の出力データの実値との変化量の絶対値が、変化量判定値を下回る第2条件の少なくとも一方が、教師付き学習データセットの全てのペアについて成り立つ場合に、学習終了条件が成立していると判定し、それ以外の場合は、学習終了条件が成立していないと判定するニューラルネットワークの学習方法。【選択図】図2PROBLEM TO BE SOLVED: To provide a learning method of a neural network capable of determining the end of learning of a neural network at an appropriate timing with which an error becomes small. SOLUTION: The first condition that the absolute value of the error between the target value of the output data and the actual value of the output data is less than the error judgment value, and the actual value of the output data after the execution of the previous learning step and the current value The learning ends when at least one of the second conditions in which the absolute value of the amount of change from the actual value of the output data after execution of the learning step is less than the amount of change determination value is satisfied for all pairs of the supervised learning data set. A learning method for a neural network, which determines that the condition is satisfied, and otherwise determines that the learning end condition is not satisfied. [Selection diagram] Figure 2

Description

本願は、ニューラルネットワークの学習方法に関する。 The present application relates to a learning method for a neural network.

下記特許文献1に、ニューラルネットワークの学習方法が開示されている。特許文献1の技術では、教師付き学習データセットを用いて、公知の誤差逆伝播法(バックプロパゲーション法)により、ニューラルネットワークの学習を行う。 The following Patent Document 1 discloses a learning method for a neural network. In the technique of Patent Document 1, the learning of a neural network is performed by a known back propagation method (back propagation method) using a learning data set with a teacher.

この時、学習終了の判定は、教師付き学習データの教師データ(ニューラルネットワークの出力データの目標値)と、ニューラルネットワークの出力データの実値との誤差が、教師付き学習データセットの全ての学習データについて、判定値を下回った場合に成立する。 At this time, the end of learning is determined by the difference between the teacher data of the supervised learning data (the target value of the output data of the neural network) and the actual value of the output data of the neural network when the learning of all the supervised learning data sets It holds when the data falls below the judgment value.

特許第3823554号公報Japanese Patent No. 3823554

前記の学習終了を判定する判定値は、許容誤差、ニューラルネットワークの構成、教師データの数値の範囲等から決められる。判定値を大きく設定した場合、学習終了条件は成立しやすくなるが、更に学習を継続していれば、誤差がより小さくできたが、その前に学習を終了してしまった、という、過少学習の場合が生じうる。一方で、判定値を小さく設定した場合は、学習が良好に進行する場合は、誤差の減少が期待できるが、ニューラルネットワークの汎化能力の限界に到達した場合は、誤差が減少しないため、学習終了条件が一向に成立せず、学習が継続され、計算資源の無駄な消費が起こりうる。このジレンマについて、具体例を用いて説明する。 The judgment value for judging the end of learning is determined from the allowable error, the configuration of the neural network, the numerical value range of the teacher data, and the like. If the judgment value is set to a large value, the learning end condition is likely to be met, but if learning is continued, the error could be made smaller, but learning was ended before that. The case may occur. On the other hand, if the judgment value is set to a small value, the error can be expected to decrease if the learning progresses well, but if the limit of the generalization ability of the neural network is reached, the error does not decrease. The termination condition is not satisfied at all, learning is continued, and useless consumption of computational resources may occur. This dilemma will be described using a specific example.

図8は、あるニューラルネットワークにおける、学習試行回数に対する誤差の挙動を示したものである。学習開始後から約1000試行回数までは誤差の絶対値が減少し、誤差の最大値及び最小値は0に向かって変化している。 FIG. 8 shows the behavior of an error with respect to the number of learning trials in a neural network. The absolute value of the error decreases from the start of learning to about 1000 trials, and the maximum and minimum values of the error change toward 0.

しかし、約1000試行回数以降は、誤差の絶対値は増減しながらも徐々に減少し、約5000試行回数で、誤差の絶対値が最も小さくなっている。しかし、「最も小さい」ことは、20000試行回数まで実施した結果、判明することで、この時点では、最も小さいかどうかは不明である。約5000試行回数以降、さらに学習を行うと、誤差の絶対値は、少し増加し、約9000試行回数以降、ほとんど変化しない状態になる。 However, after about 1000 trials, the absolute value of the error gradually decreases while increasing or decreasing, and the absolute value of the error becomes the smallest at about 5000 trials. However, the "smallest" is found as a result of performing up to 20000 trials, and it is unknown at this point whether or not it is the smallest. When learning is further performed after about 5,000 trials, the absolute value of the error slightly increases, and after about 9000 trials, the absolute value is almost unchanged.

図8において、学習終了判定の判定値を誤差の5%に設定すると、1000試行回数よりも前の段階で、学習終了条件が成立し、誤差が5%の学習済みニューラルネットワークが得られる。この場合は、学習の試行回数、すなわち計算量は少なくて済むが、誤差が最小になる前に、早々に学習を諦めてしまうことになる。すなわち、過少学習が発生している。 In FIG. 8, if the judgment value of the learning end judgment is set to 5% of the error, the learning end condition is satisfied and the learned neural network with the error of 5% is obtained before 1000 trials. In this case, the number of trials of learning, that is, the amount of calculation is small, but learning is promptly abandoned before the error is minimized. That is, underlearning has occurred.

一方、判定値を誤差の2%に設定すると、20000試行回数まで計算しても学習終了条件は成立しない。このような場合に備えて、従来から、学習試行回数が強制終了試行回数に到達した場合に、学習を強制的に終了するように構成されており、その強制終了試行回数を、例えば、10000に設定していると、10000試行回数で学習が強制終了される。すると、多くの計算資源を消費したにもかかわらず、最も小さな誤差ではない、誤差が約4%の学習済みニューラルネットワークしか得られない。 On the other hand, if the judgment value is set to 2% of the error, the learning end condition will not be satisfied even if the number of trials is calculated up to 20000. In preparation for such a case, conventionally, learning is configured to be forcibly terminated when the number of learning trials reaches the number of forced termination trials, and the number of forced termination trials is set to 10,000, for example. If set, learning is forcibly terminated after 10,000 trials. Then, despite consuming a large amount of computational resources, only a learned neural network with an error of about 4%, which is not the smallest error, can be obtained.

学習終了判定の判定値及び強制終了試行回数の判定値は、ニューラルネットワークの構成及び用意された教師付き学習データセットの影響を受ける。特に、教師付き学習データセットを、繰り返し収集又は生成しては学習する場合は、学習終了判定の判定値及び強制終了試行回数の判定値を、事前に最適な値に設定することは困難である。よって、上記のような過少学習又は無駄な計算資源消費がおきてしまう。 The judgment value of the learning end judgment and the judgment value of the forced termination trial number are influenced by the configuration of the neural network and the prepared learning data set with a teacher. Especially, when learning is performed by repeatedly collecting or generating a supervised learning data set, it is difficult to set the learning end determination value and the forced termination trial frequency determination value to optimal values in advance. .. Therefore, the above-mentioned under-learning or useless calculation resource consumption occurs.

本願は、誤差が小さくなる適切なタイミングで、ニューラルネットワークの学習の終了判定を行うことができるニューラルネットワークの学習方法を得ることを目的とする。 An object of the present application is to obtain a learning method of a neural network that can determine the end of learning of the neural network at an appropriate timing when the error becomes small.

本願の第2のニューラルネットワークの学習方法は、
ニューラルネットワークに入力される入力データと、前記入力データに対して前記ニューラルネットワークから出力される出力データの目標値とのペアの複数からなる教師付き学習データセットを用いて、前記ニューラルネットワークのパラメータを更新する学習ステップと、
学習終了条件が成立しているか否かを判定し、前記学習終了条件が成立していない場合は、前記学習ステップを再び実行させ、前記学習終了条件が成立している場合は、前記学習ステップの実行を終了させる学習終了判定ステップと、を備え、
前記学習終了判定ステップでは、前記出力データの目標値と前記ニューラルネットワークから出力された前記出力データの実値との誤差の絶対値と、前回の前記学習ステップの実行後の前記出力データの実値と今回の前記学習ステップの実行後の前記出力データの実値との変化量の絶対値とを乗算した乗算値が、乗算値判定値を下回る条件が、前記教師付き学習データセットの全てのペアについて成り立つ場合に、前記学習終了条件が成立していると判定し、それ以外の場合は、前記学習終了条件が成立していないと判定するものである。
The second neural network learning method of the present application is
Using a supervised learning data set composed of a plurality of pairs of input data input to the neural network and target values of output data output from the neural network for the input data, parameters of the neural network are set. A learning step to update,
It is determined whether or not a learning end condition is satisfied. If the learning end condition is not satisfied, the learning step is executed again. If the learning end condition is satisfied, the learning step A learning end determination step of ending the execution,
In the learning end determination step, the absolute value of the error between the target value of the output data and the actual value of the output data output from the neural network, and the actual value of the output data after execution of the previous learning step. And the multiplication value obtained by multiplying the absolute value of the amount of change between the actual value of the output data after the execution of the learning step this time is below the multiplication value determination value, all the pairs of the supervised learning data set. Is satisfied, it is determined that the learning end condition is satisfied, and in other cases, it is determined that the learning end condition is not satisfied.

本願の第3のニューラルネットワークの学習方法は、
ニューラルネットワークに入力される入力データと、前記入力データに対して前記ニューラルネットワークから出力される出力データの目標値とのペアの複数からなる教師付き学習データセットを用いて、前記ニューラルネットワークのパラメータを更新する学習ステップと、
学習終了条件が成立しているか否かを判定し、前記学習終了条件が成立していない場合は、前記学習ステップを再び実行させ、前記学習終了条件が成立している場合は、前記学習ステップの実行を終了させる学習終了判定ステップと、を備え、
前記学習終了判定ステップでは、前記教師付き学習データセットの各ペアについて、前記出力データの目標値と前記ニューラルネットワークから出力された前記出力データの実値との誤差の絶対値と、前回の前記学習ステップの実行後の前記出力データの実値と今回の前記学習ステップの実行後の前記出力データの実値との変化量の絶対値とを乗算した乗算値を算出し、全てのペアの前記乗算値を積算した積算値が、積算値判定値を下回る場合に、前記学習終了条件が成立していると判定し、それ以外の場合は、前記学習終了条件が成立していないと判定するものである。
The third neural network learning method of the present application is
Using a supervised learning data set composed of a plurality of pairs of input data input to the neural network and target values of output data output from the neural network for the input data, parameters of the neural network are set. A learning step to update,
It is determined whether or not a learning end condition is satisfied. If the learning end condition is not satisfied, the learning step is executed again. If the learning end condition is satisfied, the learning step A learning end determination step of ending the execution,
In the learning end determination step, for each pair of the learning data set with teacher, the absolute value of the error between the target value of the output data and the actual value of the output data output from the neural network, and the previous learning A multiplication value is calculated by multiplying the absolute value of the change amount between the actual value of the output data after the execution of the step and the actual value of the output data after the execution of the learning step this time, and the multiplication of all pairs is performed. When the integrated value obtained by integrating the values is less than the integrated value determination value, it is determined that the learning end condition is satisfied, and in other cases, it is determined that the learning end condition is not satisfied. is there.

出力データの実値の変化量の絶対値が小さいとは、学習試行回数を1つ進めても、出力データの実値が少ししか変化しないことである。この状態は、ニューラルネットワークの汎化能力が限界に近づいている、すなわち、これ以上の誤差の絶対値の減少は見込めない、誤差の最小値に近い状態、と判断できる。よって、出力データの実値の変化量の絶対値が小さいことを学習終了条件に加えることで、計算資源の無駄を抑制できる。 The small absolute value of the change amount of the actual value of the output data means that the actual value of the output data changes only a little even if the number of learning trials is advanced by one. In this state, it can be determined that the generalization ability of the neural network is approaching the limit, that is, the absolute value of the error cannot be further reduced and the error is close to the minimum value. Therefore, by adding to the learning end condition that the absolute value of the change amount of the actual value of the output data is small, it is possible to suppress the waste of calculation resources.

第2のニューラルネットワークの学習方法によれば、教師付き学習データセットの全てのペアについて、出力データの誤差の絶対値と出力データの実値の変化量の絶対値との乗算値が小さいこと、を判定しているため、誤差が十分に減少した状態、或いは、誤差の最小値に近い状態で、学習を終了できる。よって、計算資源の無駄を抑制しつつ、誤差が小さい適切なタイミングで学習を終了することができる。 According to the second learning method of the neural network, the multiplication value between the absolute value of the error of the output data and the absolute value of the change amount of the actual value of the output data is small for all pairs of the supervised learning data set, Therefore, the learning can be ended in a state where the error is sufficiently reduced or in a state close to the minimum value of the error. Therefore, learning can be ended at an appropriate timing with a small error while suppressing waste of calculation resources.

第3のニューラルネットワークの学習方法によれば、出力データの誤差の絶対値と出力データの実値の変化量の絶対値との乗算値の、全てのペアの和が小さいこと、を判定しているため、誤差が十分に減少した状態、或いは、誤差の最小値に近い状態で、学習を終了できる。よって、計算資源の無駄を抑制しつつ、誤差が小さい適切なタイミングで学習を終了することができる。 According to the third learning method of the neural network, it is determined that the sum of all pairs of the multiplied values of the absolute value of the error of the output data and the absolute value of the change amount of the actual value of the output data is small. Therefore, the learning can be ended in a state where the error is sufficiently reduced or in a state close to the minimum value of the error. Therefore, learning can be ended at an appropriate timing with a small error while suppressing waste of calculation resources.

実施の形態1に係るニューラルネットワークの概略構成図である。3 is a schematic configuration diagram of a neural network according to the first embodiment. FIG. 実施の形態1に係るニューラルネットワークの学習方法を説明するフローチャートである。5 is a flowchart illustrating a learning method of the neural network according to the first embodiment. 実施の形態1に係るニューラルネットワークの学習方法の一部を詳細に説明するフローチャートである。4 is a flowchart illustrating in detail a part of the learning method of the neural network according to the first embodiment. 実施の形態2に係るニューラルネットワークの学習方法を説明するフローチャートである。9 is a flowchart illustrating a learning method of the neural network according to the second embodiment. 実施の形態2に係るニューラルネットワークの学習方法の一部を詳細に説明するフローチャートである。7 is a flowchart for explaining in detail a part of the learning method of the neural network according to the second embodiment. 実施の形態3に係るニューラルネットワークの学習方法を説明するフローチャートである。9 is a flowchart illustrating a learning method of the neural network according to the third embodiment. 実施の形態3に係るニューラルネットワークの学習方法の一部を詳細に説明するフローチャートである。9 is a flowchart for explaining in detail a part of the learning method of the neural network according to the third embodiment. 本願の課題を説明するための図である。It is a figure for demonstrating the subject of this application.

1.実施の形態1
実施の形態1に係るニューラルネットワークの学習方法について図面を参照して説明する。
1. Embodiment 1
A learning method of the neural network according to the first embodiment will be described with reference to the drawings.

<ニューラルネットワーク>
本実施の形態では、図1に示すように、入力層から出力層に信号が伝達する順伝播型のニューラルネットワーク(FNN:Feedforward Neural Network、以下、FNNと称す)を用いる。FNNは、階層上に並べられたユニット(ノード、ニューロンとも言う)が隣接する層間で結合した構造を持ち、情報が入力側から出力側に向かって一方向に伝播するよう構成されているネットワークである。ユニットでは、前層の各ユニットから入力されてくる値に重みを掛け、更にバイアスを加えた値を活性化関数へ入力し、活性化関数の出力をユニットの出力とする。
<Neural network>
In the present embodiment, as shown in FIG. 1, a forward propagation type neural network (FNN: Feedforward Neural Network, hereinafter referred to as FNN) in which a signal is transmitted from an input layer to an output layer is used. FNN is a network in which units (also called nodes or neurons) arranged in a hierarchy are connected between adjacent layers, and information is propagated in one direction from an input side to an output side. is there. In the unit, the value input from each unit in the previous layer is weighted, and a value to which a bias is applied is input to the activation function, and the output of the activation function is used as the output of the unit.

FNNでは、1つ以上の入力データが入力層に入力され、1つ以上の中間層があり、出力層から1つ以上の出力データが出力される。なお、入力データの数、中間層の数、各中間層のユニットの数、出力データの数は、任意の数であってもよい。 In the FNN, one or more input data is input to the input layer, one or more intermediate layers are provided, and one or more output data is output from the output layer. The number of input data, the number of intermediate layers, the number of units in each intermediate layer, and the number of output data may be arbitrary numbers.

<ニューラルネットワークの学習>
FNNに入力される入力データに対してFNNから出力される出力データが、目標値に近づくように、FNNのパラメータ(本例では、ユニット間の重みと、ユニットのバイアス)を変更することを、学習と呼ぶ。学習を行うためには、入力データと、出力データの目標値とのペアの複数からなる教師付き学習データセットを用意する必要がある。また、学習には、公知の誤差逆伝播法(バックプロパゲーション法)等の学習方法が用いられる。
<Neural network learning>
Changing the parameters of the FNN (in this example, the weight between units and the bias of the units) so that the output data output from the FNN with respect to the input data input to the FNN approaches the target value. Call it learning. In order to perform learning, it is necessary to prepare a supervised learning data set including a plurality of pairs of input data and target values of output data. In addition, a learning method such as a known back propagation method (back propagation method) is used for learning.

図2及び図3は、本実施の形態に係るFNNの学習方法を説明するためのフローチャートである。FNNの学習方法の各ステップは、学習装置が備えた処理回路によって実行される。具体的には、学習装置は、処理回路として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等の演算処理装置(コンピュータ)、演算処理装置とデータのやり取りする記憶装置、演算処理装置と外部装置との間で信号を入出力する入出力回路等を備えている。記憶装置には、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク等の補助記憶装置等が備えられる。入出力回路には、通信装置、信号入出力装置等が備えられる。 2 and 3 are flowcharts for explaining the FNN learning method according to the present embodiment. Each step of the FNN learning method is executed by a processing circuit included in the learning device. Specifically, the learning device includes, as processing circuits, an arithmetic processing device (computer) such as a CPU (Central Processing Unit) and a DSP (Digital Signal Processor), a storage device that exchanges data with the arithmetic processing device, and an arithmetic processing device. An input/output circuit for inputting/outputting signals to/from an external device is provided. The storage device includes a RAM (Random Access Memory), a ROM (Read Only Memory), an auxiliary storage device such as a hard disk, and the like. The input/output circuit includes a communication device, a signal input/output device, and the like.

そして、FNNの学習方法の各ステップは、演算処理装置が、ROM、ハードディスク等の記憶装置に記憶されたソフトウェア(プログラム)を実行し、記憶装置、入出力回路等の学習装置の他のハードウェアと協働することにより実現される。なお、各ステップ等で用いられる、FNNのパラメータ、教師付き学習データセット、誤差、変化量等のデータは、RAM、ハードディスク等の記憶装置に記憶される。以下、FNNの学習方法の各ステップについて詳細に説明する。 In each step of the FNN learning method, the arithmetic processing unit executes software (program) stored in a storage device such as a ROM or a hard disk, and other hardware of the learning device such as the storage device or the input/output circuit. It is realized by cooperating with. Data such as FNN parameters, supervised learning data set, error, and variation used in each step are stored in a storage device such as a RAM or a hard disk. Hereinafter, each step of the learning method of FNN will be described in detail.

<学習ステップ>
学習ステップS1では、教師付き学習データセットを用いて、FNNのパラメータを更新する。教師付き学習データセットは、上述したように、入力データと出力データの目標値とのペアの複数からなる。本実施の形態では、学習ステップS1は、ステップS12からステップS16から構成される。まず、ステップS11では、一連の学習を開始する時に、学習試行回数Nをゼロに設定する(N=0)。例えば、ステップS11は、新たな教師付き学習データセットが用意され、学習を開始する時に実行される。
<Learning step>
In learning step S1, the parameters of FNN are updated using the supervised learning data set. As described above, the supervised learning data set includes a plurality of pairs of input data and target values of output data. In the present embodiment, the learning step S1 is composed of steps S12 to S16. First, in step S11, when starting a series of learning, the number N of learning trials is set to zero (N=0). For example, step S11 is executed when a new supervised learning data set is prepared and learning is started.

そして、ステップS12では、教師付き学習データセットの全てのペアを、未処理にセットする。そして、ステップS13では、教師付き学習データセットから未処理のペアを1つ選択し、処理データに設定する。 Then, in step S12, all pairs of the supervised learning data set are set unprocessed. Then, in step S13, one unprocessed pair is selected from the learning data set with teacher and set as the processed data.

ステップS14では、処理データに設定されたペア(以下、処理ペアと称す)の入力データを、FNNに入力し、直近に更新されたFNNのパラメータ(重み及びバイアス)を用いて、出力データの実値を算出する。そして、処理ペアの入力データに対してFNNから出力された出力データの実値と処理ペアの出力データの目標値との誤差を算出する。そして、誤差をもとに、公知の誤差逆伝播法(バックプロパゲーション法)等の学習方法が用いて、FNNのパラメータを更新、すなわち学習する。誤差逆伝播法(バックプロパゲーション法)等の学習方法は公知の技術であるため、説明を省略する。 In step S14, the input data of the pair set as the processing data (hereinafter referred to as the processing pair) is input to the FNN, and the output data is output by using the most recently updated parameters (weight and bias) of the FNN. Calculate the value. Then, for the input data of the processing pair, the error between the actual value of the output data output from the FNN and the target value of the output data of the processing pair is calculated. Then, based on the error, a known learning method such as an error back propagation method (back propagation method) is used to update, that is, learn the FNN parameters. A learning method such as an error back propagation method (back propagation method) is a known technique, and thus its description is omitted.

ステップS15で、全てのペアについて、ステップS14の学習が実施されたか否かを判定し、全てのペアについて実施されていないと判定した場合は、ステップS13に戻り、全てのペアについて学習が完了するまで、ステップS13からステップS14の処理を繰り返し実行させ、全てのペアについて実施されていると判定した場合は、ステップS16に進む。 In step S15, it is determined whether or not the learning in step S14 has been performed for all pairs. If it is determined that the learning has not been performed for all pairs, the process returns to step S13 and learning is completed for all pairs. Up to step S13, when the processes of steps S13 to S14 are repeatedly executed and it is determined that all the pairs have been executed, the process proceeds to step S16.

ステップS16では、教師付き学習データセットの全てのペアについて、1回だけFNNのパラメータが更新された状態になっている。そこで、学習試行回数Nを1つ増加させる(N←N+1)。 In step S16, the FNN parameters are updated only once for all pairs of the learning data set with teacher. Therefore, the number N of learning trials is increased by 1 (N←N+1).

ステップS21では、学習試行回数Nが、予め設定された強制終了回数J未満であるか否かを判定し、未満であると判定した場合は、ステップS22に進み、未満でないと判定した場合は、学習を強制終了する。強制終了回数Jは、学習に割り当てられる計算資源、演算にかかる時間などから学習試行回数に上限を与えるものである。 In step S21, it is determined whether or not the learning trial number N is less than a preset forced termination number J. If it is determined to be less than, the process proceeds to step S22. Kill learning. The number of forced terminations J gives an upper limit to the number of learning trials from the calculation resources allocated for learning, the time required for calculation, and the like.

<学習終了判定ステップ>
ステップS22が、学習終了判定ステップに相当する。ステップS22では、学習終了条件が成立しているか否かを判定し、学習終了条件が成立していない場合は、学習ステップS1を再び実行させ、学習終了条件が成立している場合は、学習ステップS1の実行を終了させる。
<Learning end determination step>
Step S22 corresponds to the learning end determination step. In step S22, it is determined whether or not the learning end condition is satisfied. If the learning end condition is not satisfied, the learning step S1 is executed again, and if the learning end condition is satisfied, the learning step is performed. The execution of S1 is ended.

ステップS22では、式(1)に示すように、今回(直前)の学習ステップS1の実行後において、出力データの目標値Otと出力データの実値Orとの誤差の絶対値|Oerr|が、誤差判定値JOerrを下回る第1条件、及び前回の学習ステップS1の実行後の出力データの実値Orと今回の学習ステップS1の実行後の出力データの実値Orとの変化量の絶対値|ΔOr|が、変化量判定値JOrを下回る第2条件の少なくとも一方が、教師付き学習データセットの全てのペアについて成り立つ場合に、学習終了条件が成立していると判定し、それ以外の場合は、学習終了条件が成立していないと判定する。式(1)では、ペアの番号iが、1からIendまであるものとし、各値の添え字のiが、ペアの番号を表しているものとする。また、今回(直前)の学習ステップS1の実行後(現在の学習試行回数N)に対応する各値を(N)で表し、前回の学習ステップS1の実行後(1つ前の学習試行回数N−1)に対応する各値を(N−1)で表している。 In step S22, as shown in equation (1), the absolute value |Oerr| of the error between the target value Ot of the output data and the actual value Or of the output data is The first value that is less than the error determination value JOerr, and the absolute value of the amount of change between the actual value Or of the output data after the execution of the previous learning step S1 and the actual value Or of the output data after the execution of the current learning step S1 | It is determined that the learning end condition is satisfied when at least one of the second conditions in which ΔOr| is smaller than the variation determination value JOr is satisfied for all pairs of the supervised learning data set, and otherwise, , It is determined that the learning end condition is not satisfied. In Expression (1), the pair number i is assumed to be from 1 to Iend, and the subscript i of each value represents the pair number. In addition, each value corresponding to after execution of the learning step S1 of this time (immediately before) (current learning trial count N) is represented by (N), and after execution of the previous learning step S1 (previous learning trial count N). Each value corresponding to (-1) is represented by (N-1).

i=1〜Iendについて、
|Oerr|=|Ot−Or(N)|
|ΔOr|=|Or(N−1)−Or(N)|
を算出し、
i=1〜Iendの全てについて、
|Oerr|<JOerr
及び
|ΔOr|<JOr
の少なくとも一方が成り立つ ・・・(1)
For i=1 to Iend,
|Oerr i |=|Ot i −O r i (N)|
|ΔOr i |=|Or i (N−1)−Or i (N)|
And calculate
For all i=1 to Iend,
|Oerr i |<JOerr
And |ΔOr i |<JOr
At least one of the above holds... (1)

このステップS22の処理を図3のフローチャートのように構成することができる。ステップS221で、ペアの番号iを1の初期値に設定する。 The process of step S22 can be configured as shown in the flowchart of FIG. In step S221, the pair number i is set to the initial value of 1.

ステップS222では、ペアの番号iの入力データを、FNNに入力し、今回の学習ステップS1によって更新されたFNNのパラメータ(重み及びバイアス)を用いて、今回の学習ステップS1の実行後の出力データの実値Or(N)を算出する。そして、式(1)に示すように、ペアの番号iの入力データに対してFNNから出力された出力データの実値Or(N)と、ペアの番号iの出力データの目標値Otとの誤差の絶対値|Oerr|を算出する。なお、算出した出力データの実値Or等の各演算値は、現在の学習試行回数N及びペアの番号i等と関連付けて、RAM等の記憶装置に記憶され、ステップS223等において利用される。 In step S222, the input data of the pair number i is input to the FNN, and the output data after execution of the current learning step S1 is performed using the FNN parameters (weight and bias) updated in the current learning step S1. The actual value Or i (N) of is calculated. Then, as shown in the equation (1), the actual value Or i (N) of the output data output from the FNN for the input data of the pair number i and the target value Ot i of the output data of the pair number i. The absolute value of the error between |Oerr i | is calculated. Each calculated value such as the calculated actual value Or i of the output data is stored in a storage device such as a RAM in association with the current learning trial number N and the pair number i, and is used in step S223 and the like. ..

ステップS223では、式(1)に示すように、ペアの番号iについて、前回の学習ステップS1の実行後の出力データの実値Or(N−1)と今回の学習ステップS1の実行後の出力データの実値Or(N)との変化量の絶対値|ΔOr|を算出する。 In step S223, for the pair number i, the actual value Or i (N−1) of the output data after the execution of the previous learning step S1 and the current value after the execution of this learning step S1 are performed, as shown in equation (1). The absolute value |ΔOr i | of the amount of change from the actual value Or i (N) of the output data is calculated.

ステップS224で、ステップS222で算出されたペアの番号iの出力データの誤差の絶対値|Oerr|が、誤差判定値JOerrを下回っているか否かを判定する。誤差判定値JOerrを下回っていると判定した場合は、ステップS225に進み、誤差判定値JOerrを下回っていないと判定した場合は、ステップS226に進む。ステップS226では、ステップS223で算出されたペアの番号iの出力データの実値の変化量の絶対値|ΔOr|が、変化量判定値JOrを下回っているか否かを判定する。変化量判定値JOrを下回っていると判定している場合は、ステップS225に進み、変化量判定値JOrを下回っていないと判定した場合は、ステップS229に進む。ステップS229では、今回のペアの番号iにおいて、誤差判定値JOerrを下回っておらず、変化量判定値JOrを下回っていないと判定されため、次のペアの番号iについて判定を継続せず、学習終了条件が成立していないと最終判定し、判定処理を終了する。 In step S224, it is determined whether the absolute value of the error |Oerr i | of the output data of the pair number i calculated in step S222 is less than the error determination value JOerr. If it is determined that the difference is below the error determination value JOerr, the process proceeds to step S225, and if it is determined that it is not below the error determination value JOerr, the process proceeds to step S226. In step S226, it is determined whether or not the absolute value |ΔOr i | of the change amount of the actual value of the output data of the pair number i calculated in step S223 is less than the change determination value JOr. If it is determined that it is below the change amount determination value JOr, the process proceeds to step S225, and if it is determined that it is not below the change amount determination value JOr, the process proceeds to step S229. In step S229, it is determined that the current pair number i is not below the error determination value JOerr and is not below the change amount determination value JOr, so the determination is not continued for the next pair number i, and learning is performed. The final determination is made that the termination condition is not satisfied, and the determination processing ends.

一方、今回のペアの番号iについて、ステップS224で誤差判定値JOerrを下回っている、又はステップS226で変化量判定値JOrを下回っていると判定されて場合は、ステップS225で、ペアの番号iが、最終ペア番号Iend未満であるか否かを判定し、最終ペア番号Iend未満である場合は、ステップS227で、ペアの番号iを1つ増加させた後、ステップS222に戻り、次のペアの番号iについて判定を継続する。一方、最終ペア番号Iend未満でない場合は、全てのペアについて、ステップS224又はステップS226が成り立っているので、ステップS228で学習終了条件が成立したと判定し、判定処理を終了する。 On the other hand, when it is determined that the current pair number i is below the error determination value JOerr in step S224 or below the change amount determination value JOr in step S226, the pair number i is determined in step S225. Is less than the final pair number Iend, and if it is less than the final pair number Iend, the pair number i is incremented by 1 in step S227, and then the process returns to step S222 to return to the next pair. The determination is continued for the number i of. On the other hand, if it is not less than the final pair number Iend, step S224 or step S226 is satisfied for all pairs, so it is determined in step S228 that the learning end condition is satisfied, and the determination process is ended.

FNNの汎化能力の限界に近づいている場合、出力データの誤差の絶対値|Oerr|が所望の誤差(誤差判定値JOerr)まで小さくならない場合がある。このため、出力データの誤差の絶対値|Oerr|と誤差判定値JOerrの比較だけで学習終了条件を判定すれば、上記の場合に学習が終了せず、計算資源の無駄が生じる。一方、FNNの汎化能力の限界に近づいている場合、出力データの実値の変化量の絶対値|ΔOr|が零に近づく。上記の構成によれば、各ペアについて、出力データの誤差の絶対値|Oerr|が十分に減少していない場合でも、出力データの実値の変化量の絶対値|ΔOr|が、変化量判定値JOrを下回っている場合は、学習結果が良好であると判定される。よって、全てのペアについて、出力データの誤差が十分に減少しているか、或いは、誤差が十分に減少していないが、FNNの汎化能力の限界に近づいている場合に、学習終了条件が成立したと判定することができる。よって、全てのペアについて、学習を適切に終了することができ、計算資源の無駄が生じることを抑制できる。 When the generalization capability of the FNN is approaching the limit, the absolute value of the error |Oerr| of the output data may not decrease to the desired error (error determination value JOerr). Therefore, if the learning end condition is determined only by comparing the absolute value |Oerr| of the error of the output data and the error determination value JOerr, the learning does not end in the above case, and the calculation resources are wasted. On the other hand, when the FNN generalization capability is approaching its limit, the absolute value |ΔOr| of the change amount of the actual value of the output data approaches zero. According to the above configuration, for each pair, even if the absolute value of output data error |Oerr| is not sufficiently reduced, the absolute value |ΔOr| When the value is less than the value JOr, it is determined that the learning result is good. Therefore, for all pairs, the error in the output data is sufficiently reduced, or the error is not sufficiently reduced, but the learning end condition is satisfied when the error is approaching the limit of the FNN generalization ability. It can be determined that it did. Therefore, it is possible to appropriately end learning for all pairs, and it is possible to suppress waste of calculation resources.

2.実施の形態2
次に、実施の形態2に係るニューラルネットワークの学習方法について説明する。上記の実施の形態1と同様の構成部分は説明を省略する。本実施の形態では、学習終了判定ステップにおける学習終了条件の成立条件が実施の形態1と異なる。
2. Embodiment 2
Next, a learning method of the neural network according to the second embodiment will be described. The description of the same components as those in the first embodiment is omitted. In the present embodiment, the condition for satisfying the learning end condition in the learning end determination step is different from that in the first embodiment.

図4及び図5は、本実施の形態に係るFNNの学習方法を説明するためのフローチャートである。図4の学習ステップS1(ステップS11からステップS16)は、実施の形態1の図2の学習ステップS1(ステップS11からステップS16)と同様であるので説明を省略する。 4 and 5 are flowcharts for explaining the FNN learning method according to the present embodiment. The learning step S1 (steps S11 to S16) of FIG. 4 is the same as the learning step S1 (steps S11 to S16) of FIG.

実施の形態1と同様に、ステップS31では、学習試行回数Nが、予め設定された強制終了回数J未満であるか否かを判定し、未満であると判定した場合は、ステップS32に進み、未満でないと判定した場合は、学習を強制終了する。 Similar to the first embodiment, in step S31, it is determined whether or not the learning trial number N is less than a preset forced termination number J, and if it is less than, the process proceeds to step S32. If it is determined that it is not less than, the learning is forcibly terminated.

<学習終了判定ステップ>
本実施の形態ではステップS32が、学習終了判定ステップに相当する。ステップS32では、学習終了条件が成立しているか否かを判定し、学習終了条件が成立していない場合は、学習ステップS1を再び実行させ、学習終了条件が成立している場合は、学習ステップS1の実行を終了させる。
<Learning end determination step>
In the present embodiment, step S32 corresponds to the learning end determination step. In step S32, it is determined whether or not the learning end condition is satisfied. If the learning end condition is not satisfied, the learning step S1 is executed again, and if the learning end condition is satisfied, the learning step is performed. The execution of S1 is ended.

ステップS32では、式(2)に示すように、今回(直前)の学習ステップS1の実行後において、出力データの目標値Otと出力データの実値Orとの誤差の絶対値|Oerr|と、前回の学習ステップS1の実行後の出力データの実値Orと今回の学習ステップの実行後の出力データの実値Orとの変化量の絶対値|ΔOr|との乗算値Mが、乗算値判定値Jmを下回る条件が、教師付き学習データセットの全てのペアについて成り立つ場合に、学習終了条件が成立していると判定し、それ以外の場合は、学習終了条件が成立していないと判定する。式(2)では、ペアの番号iが、1からIendまであるものとし、各値の添え字のiが、ペアの番号を表しているものとする。また、今回(直前)の学習ステップS1の実行後(現在の学習試行回数N)に対応する各値を(N)で表し、前回の学習ステップS1の実行後(1つ前の学習試行回数N−1)に対応する各値を(N−1)で表している。 In step S32, the absolute value |Oerr| of the error between the target value Ot of the output data and the actual value Or of the output data after execution of the learning step S1 of this time (immediately before), as shown in equation (2), The multiplication value M of the absolute value |ΔOr| of the change amount between the actual value Or of the output data after the execution of the previous learning step S1 and the actual value Or of the output data after the execution of the current learning step is the multiplication value determination. If the condition below the value Jm is satisfied for all pairs of the supervised learning data set, it is determined that the learning end condition is satisfied, and otherwise, it is determined that the learning end condition is not satisfied. .. In Expression (2), the pair number i is assumed to be from 1 to Iend, and the subscript i of each value represents the pair number. In addition, each value corresponding to after execution of the learning step S1 of this time (immediately before) (current learning trial count N) is represented by (N), and after execution of the previous learning step S1 (previous learning trial count N). Each value corresponding to (-1) is represented by (N-1).

i=1〜Iendについて、
|Oerr|=|Ot−Or(N)|
|ΔOr|=|Or(N−1)−Or(N)|
=|Oerr|×|ΔOr
を算出し、
i=1〜Iendの全てについて、
<Jm
が成り立つ ・・・(2)
For i=1 to Iend,
|Oerr i |=|Ot i −O r i (N)|
|ΔOr i |=|Or i (N−1)−Or i (N)|
M i =|Oerr i |×|ΔOr i |
And calculate
For all i=1 to Iend,
M i <Jm
Holds (2)

このステップS32の処理を図5のフローチャートのように構成することができる。ステップS321で、ペアの番号iを1の初期値に設定する。 The process of step S32 can be configured as shown in the flowchart of FIG. In step S321, the pair number i is set to the initial value of 1.

ステップS322では、ペアの番号iの入力データを、FNNに入力し、今回の学習ステップS1によって更新されたFNNのパラメータ(重み及びバイアス)を用いて、今回の学習ステップS1の実行後の出力データの実値Or(N)を算出する。そして、式(2)に示すように、ペアの番号iの入力データに対してFNNから出力された出力データの実値Or(N)と、ペアの番号iの出力データの目標値Otとの誤差の絶対値|Oerr|を算出する。なお、算出した出力データの実値Or等の各演算値は、現在の学習試行回数N及びペアの番号i等と関連付けて、RAM等の記憶装置に記憶され、ステップS323等において利用される。 In step S322, the input data of the pair number i is input to the FNN, and the output data after execution of the current learning step S1 is performed using the FNN parameters (weight and bias) updated in the current learning step S1. The actual value Or i (N) of is calculated. Then, as shown in Expression (2), the actual value Or i (N) of the output data output from the FNN with respect to the input data of the pair number i and the target value Ot i of the output data of the pair number i. The absolute value of the error between |Oerr i | is calculated. Each calculated value such as the calculated actual value Or i of the output data is stored in a storage device such as a RAM in association with the current learning trial number N and the pair number i, and is used in step S323 and the like. ..

ステップS323では、式(2)に示すように、ペアの番号iについて、前回の学習ステップS1の実行後の出力データの実値Or(N−1)と今回の学習ステップS1の実行後の出力データの実値Or(N)との変化量の絶対値|ΔOr|を算出する。 In step S323, as shown in equation (2), for the pair number i, the actual value Or i (N-1) of the output data after the execution of the previous learning step S1 and the current value after the execution of the learning step S1 this time are performed. The absolute value |ΔOr i | of the amount of change from the actual value Or i (N) of the output data is calculated.

ステップS324では、式(2)に示すように、ステップS322で算出されたペアの番号iの出力データの誤差の絶対値|Oerr|と、ステップS323で算出されたペアの番号iの出力データの実値の変化量の絶対値|ΔOr|との乗算値Mを算出する。 In step S324, the absolute value of the error |Oerr i | of the output data of the pair number i calculated in step S322 and the output data of the pair number i calculated in step S323 are calculated as shown in equation (2). The absolute value |ΔOr i | of the change amount of the actual value of is multiplied by M i .

ステップS325で、ステップS324で算出されたペアの番号iの乗算値Mが、乗算値判定値Jmを下回っているか否かを判定する。乗算値判定値Jmを下回っていると判定した場合は、ステップS326に進み、乗算値判定値Jmを下回っていないと判定した場合は、ステップS329に進む。ステップS329では、今回のペアの番号iにおいて、乗算値判定値Jmを下回っていないと判定されため、次のペアの番号iについて判定を継続せず、学習終了条件が成立していないと最終判定し、判定処理を終了する。 In step S325, it is determined whether the multiplication value M i of the pair number i calculated in step S324 is lower than the multiplication value determination value Jm. If it is determined that it is below the multiplication value determination value Jm, the process proceeds to step S326, and if it is determined that it is not below the multiplication value determination value Jm, the process proceeds to step S329. In step S329, it is determined that the multiplication value determination value Jm is not below the current pair number i, so the determination is not continued for the next pair number i and the final determination is made if the learning end condition is not satisfied. Then, the determination process ends.

一方、今回のペアの番号iについて、ステップS325で乗算値判定値Jmを下回っていると判定されて場合は、ステップS326で、ペアの番号iが、最終ペア番号Iend未満であるか否かを判定し、最終ペア番号Iend未満である場合は、ステップS327で、ペアの番号iを1つ増加させた後、ステップS322に戻り、次のペアの番号iについて判定を継続する。一方、最終ペア番号Iend未満でない場合は、全てのペアについて、ステップS325が成り立っているので、ステップS328で学習終了条件が成立したと判定し、判定処理を終了する。 On the other hand, if it is determined in step S325 that the current pair number i is less than the multiplication value determination value Jm, it is determined in step S326 whether the pair number i is less than the final pair number Iend. If it is determined that the number is smaller than the final pair number Iend, the pair number i is incremented by 1 in step S327, the process returns to step S322, and the determination is continued for the next pair number i. On the other hand, if it is not less than the final pair number Iend, step S325 is satisfied for all pairs, so it is determined in step S328 that the learning end condition is satisfied, and the determination process is ended.

FNNの汎化能力の限界に近づいている場合、出力データの誤差の絶対値|Oerr|が所望の誤差(誤差判定値JOerr)まで小さくならない場合がある。このため、出力データの誤差の絶対値|Oerr|と誤差判定値JOerrの比較だけで学習終了条件を判定すれば、上記の場合に学習が終了せず、計算資源の無駄が生じる。一方、FNNの汎化能力の限界に近づいている場合、出力データの実値の変化量の絶対値|ΔOr|が零に近づく。上記の構成によれば、各ペアについて、出力データの誤差の絶対値|Oerr|が十分に減少していない場合でも、汎化能力の限界に近付いている場合は、出力データの誤差の絶対値|Oerr|と出力データの実値の変化量の絶対値|ΔOr|との乗算値Mが減少し、乗算値Mが、乗算値判定値Jmを下回っている場合は、学習結果が良好であると判定される。よって、全てのペアについて、出力データの誤差が十分に減少しているか、或いは、誤差が十分に減少していないが、FNNの汎化能力の限界に近づいている場合に、学習終了条件が成立したと判定することができる。よって、全てのペアについて、学習を適切に終了することができ、計算資源の無駄が生じることを抑制できる。 When the generalization capability of the FNN is approaching the limit, the absolute value of the error |Oerr| of the output data may not decrease to the desired error (error determination value JOerr). Therefore, if the learning end condition is determined only by comparing the absolute value |Oerr| of the error of the output data and the error determination value JOerr, the learning does not end in the above case, and the calculation resources are wasted. On the other hand, when the FNN generalization capability is approaching its limit, the absolute value |ΔOr| of the change amount of the actual value of the output data approaches zero. According to the above configuration, for each pair, even if the absolute value of the error |Oerr| of the output data is not sufficiently decreased, the absolute value of the error of the output data is If the multiplication value M of |Oerr| and the absolute value |ΔOr| of the change amount of the actual value of the output data decreases and the multiplication value M is below the multiplication value determination value Jm, the learning result is good. Is determined. Therefore, for all pairs, the error in the output data is sufficiently reduced, or the error is not sufficiently reduced, but the learning end condition is satisfied when the error is approaching the limit of the FNN generalization ability. It can be determined that it did. Therefore, it is possible to appropriately end learning for all pairs, and it is possible to suppress waste of calculation resources.

3.実施の形態3
次に、実施の形態3に係るニューラルネットワークの学習方法について説明する。上記の実施の形態1と同様の構成部分は説明を省略する。本実施の形態では、学習終了判定ステップにおける学習終了条件の成立条件が実施の形態1と異なる。
3. Embodiment 3
Next, a learning method of the neural network according to the third embodiment will be described. The description of the same components as those in the first embodiment is omitted. In the present embodiment, the condition for satisfying the learning end condition in the learning end determination step is different from that in the first embodiment.

図6及び図7は、本実施の形態に係るFNNの学習方法を説明するためのフローチャートである。図6の学習ステップS1(ステップS11からステップS16)は、実施の形態1の図2の学習ステップS1(ステップS11からステップS16)と同様であるので説明を省略する。 6 and 7 are flowcharts for explaining the FNN learning method according to the present embodiment. The learning step S1 (steps S11 to S16) of FIG. 6 is the same as the learning step S1 (steps S11 to S16) of FIG.

実施の形態1と同様に、ステップS41では、学習試行回数Nが、予め設定された強制終了回数J未満であるか否かを判定し、未満であると判定した場合は、ステップS42に進み、未満でないと判定した場合は、学習を強制終了する。 Similar to the first embodiment, in step S41, it is determined whether or not the learning trial number N is less than a preset forced termination number J, and if it is less than, the process proceeds to step S42. If it is determined that it is not less than, the learning is forcibly terminated.

<学習終了判定ステップ>
本実施の形態ではステップS42が、学習終了判定ステップに相当する。ステップS42では、学習終了条件が成立しているか否かを判定し、学習終了条件が成立していない場合は、学習ステップS1を再び実行させ、学習終了条件が成立している場合は、学習ステップS1の実行を終了させる。
<Learning end determination step>
In the present embodiment, step S42 corresponds to the learning end determination step. In step S42, it is determined whether or not the learning end condition is satisfied. If the learning end condition is not satisfied, the learning step S1 is executed again, and if the learning end condition is satisfied, the learning step is performed. The execution of S1 is ended.

ステップS42では、式(3)に示すように、今回(直前)の学習ステップS1の実行後において、教師付き学習データセットの各ペアについて、出力データの目標値Otと出力データの実値Orとの誤差の絶対値|Oerr|と、前回の学習ステップS1の実行後の出力データの実値Orと今回の学習ステップの実行後の出力データの実値Orとの変化量の絶対値|ΔOr|との乗算値Mを算出し、全てのペアの乗算値Mを積算した積算値Mintが、積算値判定値Jintを下回る場合に、学習終了条件が成立していると判定し、それ以外の場合は、学習終了条件が成立していないと判定する。式(3)では、ペアの番号iが、1からIendまであるものとし、各値の添え字のiが、ペアの番号を表しているものとする。また、今回(直前)の学習ステップS1の実行後(現在の学習試行回数N)に対応する各値を(N)で表し、前回の学習ステップS1の実行後(1つ前の学習試行回数N−1)に対応する各値を(N−1)で表している。 In step S42, as shown in equation (3), after execution of the learning step S1 of this time (immediately before), the target value Ot of the output data and the actual value Or of the output data are set for each pair of the learning data set with teacher. Absolute value |Oerr| of the difference between the actual value Or of the output data after the execution of the previous learning step S1 and the actual value Or of the output data after the execution of the current learning step |ΔOr| If the integrated value Mint, which is calculated by multiplying the multiplied values M of all the pairs by and is less than the integrated value determination value Jint, determines that the learning end condition is satisfied, and otherwise Determines that the learning end condition is not satisfied. In Expression (3), the pair number i is assumed to be from 1 to Iend, and the subscript i of each value represents the pair number. In addition, each value corresponding to after execution of the learning step S1 of this time (immediately before) (current learning trial count N) is represented by (N), and after execution of the previous learning step S1 (previous learning trial count N). Each value corresponding to (-1) is represented by (N-1).

i=1〜Iendについて、
|Oerr|=|Ot−Or(N)|
|ΔOr|=|Or(N−1)−Or(N)|
=|Oerr|×|ΔOr
Mint=ΣM
を算出し、
Mint<Jint
が成り立つ ・・・(3)
For i=1 to Iend,
|Oerr i |=|Ot i −O r i (N)|
|ΔOr i |=|Or i (N−1)−Or i (N)|
M i =|Oerr i |×|ΔOr i |
Mint=ΣM i
And calculate
Mint<Jint
Holds (3)

このステップS42の処理を図7のフローチャートのように構成することができる。ステップS421で、ペアの番号iを1の初期値に設定する。ステップS422で、積算値Mintを0にリセットする。 The process of step S42 can be configured as shown in the flowchart of FIG. In step S421, the pair number i is set to the initial value of 1. In step S422, the integrated value Mint is reset to 0.

ステップS423では、ペアの番号iの入力データを、FNNに入力し、今回の学習ステップS1によって更新されたFNNのパラメータ(重み及びバイアス)を用いて、今回の学習ステップS1の実行後の出力データの実値Or(N)を算出する。そして、式(3)に示すように、ペアの番号iの入力データに対してFNNから出力された出力データの実値Or(N)と、ペアの番号iの出力データの目標値Otとの誤差の絶対値|Oerr|を算出する。なお、算出した出力データの実値Or等の各演算値は、現在の学習試行回数N及びペアの番号i等と関連付けて、RAM等の記憶装置に記憶され、ステップS424等において利用される。 In step S423, the input data of the pair number i is input to the FNN, and the output data after execution of the current learning step S1 is performed using the FNN parameters (weight and bias) updated in the current learning step S1. The actual value Or i (N) of is calculated. Then, as shown in Expression (3), the actual value Or i (N) of the output data output from the FNN for the input data of the pair number i and the target value Ot i of the output data of the pair number i. The absolute value of the error between |Oerr i | is calculated. Each calculated value such as the calculated actual value Or i of the output data is stored in a storage device such as a RAM in association with the current learning trial number N and the pair number i, and is used in step S424 and the like. ..

ステップS424では、式(3)に示すように、ペアの番号iについて、前回の学習ステップS1の実行後の出力データの実値Or(N−1)と今回の学習ステップS1の実行後の出力データの実値Or(N)との変化量の絶対値|ΔOr|を算出する。 In step S424, as shown in equation (3), for the pair number i, the actual value Or i (N-1) of the output data after the execution of the previous learning step S1 and the current value after the execution of this learning step S1 are performed. The absolute value |ΔOr i | of the amount of change from the actual value Or i (N) of the output data is calculated.

ステップS425では、式(3)に示すように、ステップS423で算出されたペアの番号iの出力データの誤差の絶対値|Oerr|と、ステップS424で算出されたペアの番号iの出力データの実値の変化量の絶対値|ΔOr|との乗算値Mを算出する。 In step S425, as shown in Expression (3), the absolute value of the error |Oerr i | of the output data of the pair number i calculated in step S423 and the output data of the pair number i calculated in step S424. The absolute value |ΔOr i | of the change amount of the actual value of is multiplied by M i .

ステップS426では、積算値Mintに、ペアの番号iの乗算値Mを積算する。ステップS427で、ペアの番号iが、最終ペア番号Iend未満であるか否かを判定し、最終ペア番号Iend未満である場合は、ステップS428で、ペアの番号iを1つ増加させた後、ステップS423に戻り、次のペアの番号iについて乗算値及び積算値の算出を継続し、最終ペア番号Iend未満でない場合は、ステップS429に進む。 In step S426, the integrated value Mint is integrated with the multiplied value M i of the pair number i. In step S427, it is determined whether or not the pair number i is less than the final pair number Iend. If it is less than the final pair number Iend, in step S428, the pair number i is incremented by 1, Returning to step S423, the calculation of the multiplication value and integrated value for the number i of the next pair is continued, and if it is not less than the final pair number Iend, the process proceeds to step S429.

ステップS429では、積算値Mintが、積算値判定値Jintを下回っているか否かを判定する。積算値判定値Jintを下回っていると判定した場合は、ステップS430に進み、学習終了条件が成立していると判定し、積算値判定値Jintを下回っていないと判定した場合は、ステップS431に進み、学習終了条件が成立していないと判定し、判定処理を終了する。 In step S429, it is determined whether the integrated value Mint is below the integrated value determination value Jint. If it is determined that it is below the integrated value determination value Jint, it proceeds to step S430, it is determined that the learning end condition is satisfied, and if it is determined that it is not below the integrated value determination value Jint, to step S431. Then, it is determined that the learning end condition is not satisfied, and the determination process ends.

FNNの汎化能力の限界に近づいている場合、出力データの誤差の絶対値|Oerr|が所望の誤差(誤差判定値JOerr)まで小さくならない場合がある。このため、出力データの誤差の絶対値|Oerr|と誤差判定値JOerrの比較だけで学習終了条件を判定すれば、上記の場合に学習が終了せず、計算資源の無駄が生じる。一方、FNNの汎化能力の限界に近づいている場合、出力データの実値の変化量の絶対値|ΔOr|が零に近づく。上記の構成によれば、各ペアについて、出力データの誤差の絶対値|Oerr|が十分に減少していない場合でも、汎化能力の限界に近付いている場合は、出力データの誤差の絶対値|Oerr|と出力データの実値の変化量の絶対値|ΔOr|との乗算値M及びその積算値Mintが減少し、積算値Mintが、積算値判定値Jintを下回っている場合は、学習結果が良好であると判定される。よって、全てのペアについて、出力データの誤差が十分に減少しているか、或いは、誤差が十分に減少していないが、FNNの汎化能力の限界に近づいている場合に、学習終了条件が成立したと判定することができる。よって、全てのペアについて、学習を適切に終了することができ、計算資源の無駄が生じることを抑制できる。 When the generalization capability of the FNN is approaching the limit, the absolute value of the error |Oerr| of the output data may not decrease to the desired error (error determination value JOerr). Therefore, if the learning end condition is determined only by comparing the absolute value |Oerr| of the error of the output data and the error determination value JOerr, the learning does not end in the above case, and the calculation resources are wasted. On the other hand, when the FNN generalization capability is approaching its limit, the absolute value |ΔOr| of the change amount of the actual value of the output data approaches zero. According to the above configuration, for each pair, even if the absolute value of the error |Oerr| of the output data is not sufficiently decreased, the absolute value of the error of the output data is If the multiplication value M of |Oerr| and the absolute value |ΔOr| of the change amount of the actual value of the output data and its integrated value Mint decrease and the integrated value Mint is below the integrated value determination value Jint, learning The result is judged to be good. Therefore, for all pairs, the error in the output data is sufficiently reduced, or the error is not sufficiently reduced, but the learning end condition is satisfied when the error is approaching the limit of the FNN generalization ability. It can be determined that it did. Therefore, it is possible to appropriately end learning for all pairs, and it is possible to suppress waste of calculation resources.

〔その他の実施の形態〕
(1)上記の各実施の形態では、ステップS21、ステップS31、ステップS41において、学習試行回数Nが、強制終了回数J未満であるか否かを判定し、未満であると判定した場合は、学習終了判定ステップに進み、未満でないと判定した場合は、学習を強制終了する場合を例に説明した。しかし、本願の実施の形態はこれに限定されない。すなわち、ステップS21、ステップS31、ステップS41が備えられていなくてもよい。
[Other Embodiments]
(1) In each of the above-described embodiments, it is determined in step S21, step S31, and step S41 whether or not the learning trial number N is less than the forced termination number J, and when it is determined to be less than, In the learning end determination step, the case where the learning is forcibly terminated when it is determined that the difference is not less than is described as an example. However, the embodiment of the present application is not limited to this. That is, step S21, step S31, and step S41 may not be provided.

(2)上記の各実施の形態では、ステップS222、ステップS322、ステップS423において、ペアの番号iの入力データを、FNNに入力し、今回の学習ステップS1によって更新されたFNNのパラメータ(重み及びバイアス)を用いて、今回の学習ステップS1の実行後の出力データの実値Or(N)を算出する場合を例に説明した。しかし、本願の実施の形態はこれに限定されない。すなわち、ステップS222、ステップS322、ステップS423において、FNNを用いた出力データの実値の算出が行われず、代わりに、今回の学習ステップS1のステップS14において算出された、出力データの実値が用いられてもよい。 (2) In each of the above embodiments, in step S222, step S322, and step S423, the input data of the pair number i is input to the FNN, and the FNN parameters (weight and The case has been described as an example in which the actual value Or i (N) of the output data after the execution of the learning step S1 of this time is calculated using (bias). However, the embodiment of the present application is not limited to this. That is, in step S222, step S322, and step S423, the actual value of the output data using FNN is not calculated. Instead, the actual value of the output data calculated in step S14 of this learning step S1 is used. You may be asked.

本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。 Although the present application describes various exemplary embodiments and examples, various features, aspects, and functions described in one or more of the embodiments are applicable to the particular embodiment. However, the present invention is not limited to the above, and can be applied to the embodiments alone or in various combinations. Therefore, innumerable variations not illustrated are envisioned within the scope of the technology disclosed herein. For example, it is assumed that at least one component is modified, added or omitted, and at least one component is extracted and combined with the components of other embodiments.

Oerr 出力データの実値と出力データの目標値との誤差、Iend 最終ペア番号、J 強制終了回数、JOerr 誤差判定値、JOr 変化量判定値、Jint 積算値判定値、Jm 乗算値判定値、M 乗算値、Mint 積算値、N 学習試行回数、Or 出力データの実値、Ot 出力データの目標値、S1 学習ステップ、S22、S32、S42 学習終了判定ステップ Oerr Error between actual value of output data and target value of output data, Iend final pair number, J forced termination count, JOerr error judgment value, JOr change amount judgment value, Jint integrated value judgment value, Jm multiplication value judgment value, M Multiply value, Mint integrated value, N number of learning trials, actual value of Or output data, target value of Ot output data, S1 learning step, S22, S32, S42 learning end determination step

Claims (2)

ニューラルネットワークに入力される入力データと、前記入力データに対して前記ニューラルネットワークから出力される出力データの目標値とのペアの複数からなる教師付き学習データセットを用いて、前記ニューラルネットワークのパラメータを更新する学習ステップと、
学習終了条件が成立しているか否かを判定し、前記学習終了条件が成立していない場合は、前記学習ステップを再び実行させ、前記学習終了条件が成立している場合は、前記学習ステップの実行を終了させる学習終了判定ステップと、を備えたニューラルネットワークの学習方法であって、
前記学習終了判定ステップでは、前記出力データの目標値と前記ニューラルネットワークから出力された前記出力データの実値との誤差の絶対値と、前回の前記学習ステップの実行後の前記出力データの実値と今回の前記学習ステップの実行後の前記出力データの実値との変化量の絶対値とを乗算した乗算値が、乗算値判定値を下回る条件が、前記教師付き学習データセットの全てのペアについて成り立つ場合に、前記学習終了条件が成立していると判定し、それ以外の場合は、前記学習終了条件が成立していないと判定するニューラルネットワークの学習方法。
Using a supervised learning data set consisting of a plurality of pairs of input data input to a neural network and target values of output data output from the neural network for the input data, parameters of the neural network are set. A learning step to update,
It is determined whether or not a learning end condition is satisfied. If the learning end condition is not satisfied, the learning step is executed again. If the learning end condition is satisfied, the learning step A learning method for a neural network, comprising: a learning end determination step of ending execution,
In the learning end determination step, the absolute value of the error between the target value of the output data and the actual value of the output data output from the neural network, and the actual value of the output data after execution of the previous learning step. And the multiplication value obtained by multiplying the absolute value of the amount of change between the actual value of the output data after the execution of the learning step this time is less than the multiplication value determination value, all the pairs of the supervised learning data set. A learning method for a neural network, which determines that the learning end condition is satisfied when the above condition is satisfied, and otherwise determines that the learning end condition is not satisfied.
ニューラルネットワークに入力される入力データと、前記入力データに対して前記ニューラルネットワークから出力される出力データの目標値とのペアの複数からなる教師付き学習データセットを用いて、前記ニューラルネットワークのパラメータを更新する学習ステップと、
学習終了条件が成立しているか否かを判定し、前記学習終了条件が成立していない場合は、前記学習ステップを再び実行させ、前記学習終了条件が成立している場合は、前記学習ステップの実行を終了させる学習終了判定ステップと、を備えたニューラルネットワークの学習方法であって、
前記学習終了判定ステップでは、前記教師付き学習データセットの各ペアについて、前記出力データの目標値と前記ニューラルネットワークから出力された前記出力データの実値との誤差の絶対値と、前回の前記学習ステップの実行後の前記出力データの実値と今回の前記学習ステップの実行後の前記出力データの実値との変化量の絶対値とを乗算した乗算値を算出し、全てのペアの前記乗算値を積算した積算値が、積算値判定値を下回る場合に、前記学習終了条件が成立していると判定し、それ以外の場合は、前記学習終了条件が成立していないと判定するニューラルネットワークの学習方法。
Using a supervised learning data set consisting of a plurality of pairs of input data input to a neural network and target values of output data output from the neural network for the input data, parameters of the neural network are set. A learning step to update,
It is determined whether or not a learning end condition is satisfied. If the learning end condition is not satisfied, the learning step is executed again. If the learning end condition is satisfied, the learning step A learning method for a neural network, comprising: a learning end determination step of ending execution,
In the learning end determination step, for each pair of the supervised learning data set, the absolute value of the error between the target value of the output data and the actual value of the output data output from the neural network, and the previous learning A multiplication value obtained by multiplying the absolute value of the change amount between the actual value of the output data after execution of the step and the actual value of the output data after execution of the learning step this time is calculated, and the multiplication of all pairs is performed. If the integrated value obtained by integrating the values is less than the integrated value determination value, it is determined that the learning end condition is satisfied, and otherwise, it is determined that the learning end condition is not satisfied. Learning method.
JP2019022354A 2019-02-12 2019-02-12 Learning method of neural network Active JP6735862B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019022354A JP6735862B1 (en) 2019-02-12 2019-02-12 Learning method of neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019022354A JP6735862B1 (en) 2019-02-12 2019-02-12 Learning method of neural network

Publications (2)

Publication Number Publication Date
JP6735862B1 true JP6735862B1 (en) 2020-08-05
JP2020129323A JP2020129323A (en) 2020-08-27

Family

ID=71892379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019022354A Active JP6735862B1 (en) 2019-02-12 2019-02-12 Learning method of neural network

Country Status (1)

Country Link
JP (1) JP6735862B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0738186B2 (en) * 1989-03-13 1995-04-26 シャープ株式会社 Self-expanding neural network
JPH0683792A (en) * 1991-06-12 1994-03-25 Hitachi Ltd Device for learning neural network and method for displaying learning pattern of neural network

Also Published As

Publication number Publication date
JP2020129323A (en) 2020-08-27

Similar Documents

Publication Publication Date Title
Wang et al. Event-based H∞ filtering for discrete-time Markov jump systems with network-induced delay
US20190220768A1 (en) Constructing topology for satisfying partition tolerance in consortium blockchain consensus
JP7058202B2 (en) Information processing method and information processing system
CN113572697A (en) Load balancing method based on graph convolution neural network and deep reinforcement learning
JP6735862B1 (en) Learning method of neural network
CN111243574A (en) Voice model adaptive training method, system, device and storage medium
CN112733863B (en) Image feature extraction method, device, equipment and storage medium
US20070143234A1 (en) Method and system for intelligent model-based optical proximity correction (OPC)
US20200050924A1 (en) Data Processing Method and Apparatus for Neural Network
CN108111630B (en) Zookeeper cluster system and connection method and system thereof
WO2018135515A1 (en) Information processing device, neural network design method, and recording medium
CN110930253B (en) Method and device for generating main key inside intelligent contract, computer equipment and storage medium
CN115358390A (en) Neural network training method and device, electronic equipment and storage medium
JP7415199B2 (en) Learning model optimization device, learning model optimization method, and learning model optimization program
Amadi et al. Collaborative adaptive filtering approach for the identification of complex-valued improper signals
CN112069323A (en) Recommendation method based on industrial knowledge graph
Li Event-triggered bipartite consensus of multi-agent systems in signed networks
CN111563598A (en) Method and system for predicting quantum computation simulation time
RU2169944C1 (en) Probabilistic automation
CN113596793B (en) Bluetooth low-power-consumption equipment control method and device
US20240119309A1 (en) Method for generating computer-executable code for implementing an artificial neural network
CN115423102A (en) Tensor data calculation inference-based virtual machine optimization method, device and equipment
CN112114972B (en) Data inclination prediction method and device
CN112953844B (en) Network traffic optimization method and device
JP3171164B2 (en) Terminal power control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200218

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200714

R151 Written notification of patent or utility model registration

Ref document number: 6735862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250