JPH0675935A - Multivariable system construction method and its device - Google Patents

Multivariable system construction method and its device

Info

Publication number
JPH0675935A
JPH0675935A JP4250803A JP25080392A JPH0675935A JP H0675935 A JPH0675935 A JP H0675935A JP 4250803 A JP4250803 A JP 4250803A JP 25080392 A JP25080392 A JP 25080392A JP H0675935 A JPH0675935 A JP H0675935A
Authority
JP
Japan
Prior art keywords
learning
sample
input
output
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4250803A
Other languages
Japanese (ja)
Inventor
Naohiro Fukumura
直博 福村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP4250803A priority Critical patent/JPH0675935A/en
Publication of JPH0675935A publication Critical patent/JPH0675935A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To decide the number of units in an intermediate layer without depending on experience and to obtain a multilayered perceptron with high versatility in a neural network using the multilayered perceptron. CONSTITUTION:The input/output sample 20 of an unknown system is divided into a learning sample 21 and an evaluation sample 22, and the multilayered perceptron 10 is caused to execute learning by using the input sample of the learning sample 21. Then, the input samples of the learning sample 21 and the evaluation sample 22 are inputted to the multilayered perceptron 10 after learning and respective operation results are obtained. The square average of the operation results and a difference between the output samples of the learning sample 21 and the evaluation sample 22 are compared, and it is detected that overlearning occurs in the multilayered perceptron 10. When overlearning is detected, one unit 130 in the intermediate layer 13 is removed, and the multilayered perceptron 10 is caused to execute learning by the learning sample 21. The learning and the detection of overlearning are repeated until overlearning is not detected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、多変数システムの構成
方法およびその装置、特にパーセプトロンを使用した多
変数システムの構成方法およびその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for constructing a multivariable system, and more particularly to a method and an apparatus for constructing a multivariable system using a perceptron.

【0002】[0002]

【従来の技術】入出力の関数関係が未知であるシステム
(未知のシステム)の入出力関係の同定方法として、従
来から、多層パーセプトロンを用い、誤差逆伝播法で学
習させる方法が知られている。
2. Description of the Related Art As a method of identifying an input / output relationship of a system (an unknown system) whose input / output functional relationship is unknown, a method using a multi-layer perceptron and learning by an error back propagation method has been conventionally known. .

【0003】多層パーセプトロンは、多入力1出力の単
位ユニットが、信号を伝達するリンクによって層状に多
数結合されたネットワークである。各々のリンクには結
合の強さを表すウェイトと呼ばれる係数が定義されてい
る。
The multi-layer perceptron is a network in which a large number of unit units each having multiple inputs and one output are connected in layers by links for transmitting signals. A coefficient called a weight that represents the strength of the connection is defined for each link.

【0004】各単位ユニットは、リンクによって入力側
に結合されている他のいくつかのユニットの出力にリン
クのウェイトを乗じたものを入力として受け取る。受け
取られた入力は加算され、入力の総和が計算される。こ
の入力の総和と単位ユニットの入出力関数に従ってその
単位ユニットの出力が決まる。この出力は出力側リンク
を通じて、次の単位ユニットへと伝えられてゆく。
Each unit receives as input the output of several other units coupled to the input by the link times the weight of the link. The inputs received are added and the sum of the inputs is calculated. The output of the unit is determined according to the sum of this input and the input / output function of the unit. This output is transmitted to the next unit unit through the output side link.

【0005】多層パーセプトロンにおいては、同じ層内
にある単位ユニット間のリンクやフィードバックリンク
はなく、信号の流れは、入力層→中間層→・・・→出力
層の入力層側から出力層側に一方向である。多層パーセ
プトロンとは、以上のような動作により、未知のシステ
ムの入出力間の関数関係を推定する等の用途に使用され
るものである。
In the multi-layer perceptron, there is no link or feedback link between unit units in the same layer, and the signal flow is from the input layer side to the intermediate layer → ... → The output layer side to the output layer side. One way. The multi-layer perceptron is used for the purpose of estimating the functional relationship between the input and output of an unknown system by the above operation.

【0006】以上述べたような多層パーセプトロンのウ
ェイトを教師信号と呼ばれる信号を用いて調整し、未知
のシステムの入出力関係を推定可能な状態にすること
を、学習するという。この学習に使用される教師信号
は、入出力関係を推定する未知のシステムの実際の入出
力データをサンプリングして使用する。
Learning to adjust the weights of the multi-layer perceptron as described above by using a signal called a teacher signal so that the input / output relationship of an unknown system can be estimated is called learning. The teacher signal used for this learning samples and uses actual input / output data of an unknown system for estimating the input / output relationship.

【0007】[0007]

【発明が解決しようとする課題】従来、多層パーセプト
ロンを用いた未知のシステムの入出力関係の同定方法は
以上に述べたように行われるので、以下に述べるような
問題点があった。中間層の単位ユニットを必要以上に多
く用意した場合、あるいは各層の結合の数に対して未知
のシステムの入出力値のサンプル数が少ない場合、学習
による調節の対象となる前記ウェイトの数が前記未知の
システムの入出力値のサンプル数に対して多過ぎること
となる。
Conventionally, since the method of identifying the input / output relation of an unknown system using the multilayer perceptron is performed as described above, there are the following problems. If more unit units of the middle layer are prepared than necessary, or if the number of samples of the input / output values of the unknown system is small with respect to the number of couplings of each layer, the number of weights to be adjusted by learning is It is too large for the number of samples of unknown system input / output values.

【0008】よって、学習に用いた前記入出力サンプル
に対して、誤差を過剰に減らすことになり、また、同定
した関数が過剰に複雑になる。この結果、前記未知のシ
ステムに対する前記入力サンプル以外の入力値に対応す
る出力値を、同定した関数を使用して推定しようとする
場合、全く妥当でない推定値を出力するという現象が起
きるという問題点があった。この現象は過学習と呼ばれ
るものである。
Therefore, the error is excessively reduced with respect to the input / output samples used for learning, and the identified function becomes excessively complicated. As a result, when an output value corresponding to an input value other than the input sample to the unknown system is to be estimated using the identified function, a phenomenon that a completely invalid estimated value is output occurs. was there. This phenomenon is called overlearning.

【0009】この過学習を防ぐためには、中間層の単位
ユニット数を適正にし、これにより各層に含まれるユニ
ット間の結合を減らし、この結合のパラメータであるウ
ェイトを減らす必要がある。しかし、多層パーセプトロ
ンの中間層のユニット数の決定方法(多変数システム構
成方法)はこれまで経験的なものが多く、適正な単位ユ
ニット数を求めることは困難であるという問題点があっ
た。
In order to prevent this over-learning, it is necessary to make the number of unit units in the intermediate layer appropriate, reduce the coupling between units included in each layer, and reduce the weight which is a parameter of this coupling. However, there have been many empirical methods for determining the number of units in the middle layer of the multi-layer perceptron (methods for constructing a multivariable system), and there has been a problem that it is difficult to obtain an appropriate number of unit units.

【0010】本発明は以上に述べたような問題点に鑑み
てなされたものであり、経験によらず適正な多層パーセ
プトロンの中間層の単位ユニット数を決定することがで
き、汎化性のよい多変数システム構成方法およびその装
置を提供することを目的とする。
The present invention has been made in view of the above-mentioned problems, and can appropriately determine the number of unit units of the intermediate layer of the multilayer perceptron regardless of experience, and has good generalization. An object of the present invention is to provide a multivariable system configuration method and its apparatus.

【0011】[0011]

【課題を解決するための手段】以上述べた目的を達成す
るために、本発明の多変数システム構成方法は、独立し
た1つの信号入力に対して第一の演算を行い、複数の演
算処理結果を出力し、これらの演算結果に対して第二の
演算を行い、複数の演算処理結果を出力し、前記第二の
演算結果に対して第三の演算を行い、複数の演算処理結
果を出力する多層パーセプトロンを使用し、該多層パー
セプトロン内の複数ノードのそれぞれに、独立した入力
信号として学習用サンプルと評価用サンプルとを印加
し、該サンプル印加手段からのサンプル、および、上記
多層パーセプトロンから演算結果を入力して多層パーセ
プトロン内の中間処理手段における過学習を検出し、過
学習を検出した場合、前記中間処理手段の中間ノードに
おける第二の演算手段を修正して所定の中間ノードを減
少させて学習および評価を行う。
In order to achieve the above-mentioned object, the multivariable system configuration method of the present invention performs a first operation on one independent signal input, and outputs a plurality of operation processing results. To perform a second operation on these operation results, output a plurality of operation processing results, perform a third operation on the second operation results, and output a plurality of operation processing results A multi-layer perceptron is used, a learning sample and an evaluation sample are applied as independent input signals to each of a plurality of nodes in the multi-layer perceptron, and the sample from the sample applying means and the calculation from the multi-layer perceptron are performed. When the result is input to detect over-learning in the intermediate processing means in the multi-layer perceptron, and when over-learning is detected, the second operator in the intermediate node of the intermediate processing means is detected. Correct the reduce the predetermined intermediate node for learning and evaluation.

【0012】また、上記中間処理手段内の中間ノードは
1段であり、上記第二の演算にウェイトを用い、上記学
習・評価手段は過学習が検出されたときに上記ウェイト
を調節することを特徴とする。
Further, the intermediate node in the intermediate processing means has one stage, a weight is used for the second operation, and the learning / evaluation means adjusts the weight when overlearning is detected. Characterize.

【0013】また、上記学習・評価手段はサンプルと多
層パーセプトロンの演算結果との差の緩和、もしくは差
の2乗の総和が訂正値以上のとき過学習として検出す
る。
Further, the learning / evaluation means detects the difference between the sample and the calculation result of the multi-layer perceptron, or detects it as overlearning when the sum of squares of the difference is equal to or larger than the correction value.

【0014】また、上記学習・評価手段は過学習が検出
されたとき、最大の誤差を生じさせる事を特徴とする。
Further, the learning / evaluation means is characterized by causing a maximum error when overlearning is detected.

【0015】また、独立した1つの信号入力に対して第
一の演算を行い、複数の演算処理結果を出力する入力ノ
ードを複数個有する入力処理手段と、該入力処理手段内
の複数の入力ノードから複数の演算結果を入力して第二
の演算を行い、複数の演算処理結果を出力する少なくと
も1段の中間ノードを複数個有する中間処理手段と、該
中間処理手段内の複数の中間ノードから複数の演算処理
結果を入力して第三の演算を行い、1つの出力信号を出
力する複数の出力ノードを有する出力処理手段とを有す
る多層パーセプトロンを有し、該多層パーセプトロン内
の複数ノードのそれぞれに、独立した入力信号として学
習用サンプルと評価用サンプルとを印加するサンプル印
加手段と、該サンプル印加手段からのサンプル、およ
び、上記多層パーセプトロンから演算結果を入力して多
層パーセプトロン内の中間処理手段における過学習を検
出し、過学習を検出した場合、前記中間処理手段の中間
ノードにおける第二の演算手段を修正して所定の中間ノ
ードを減少させる学習・評価手段とを有する。
Further, an input processing means having a plurality of input nodes for performing a first calculation on one independent signal input and outputting a plurality of calculation processing results, and a plurality of input nodes in the input processing means. From a plurality of intermediate nodes in the intermediate processing means having a plurality of at least one intermediate node for outputting a plurality of arithmetic processing results and outputting a plurality of arithmetic processing results A multilayer perceptron having an output processing means having a plurality of output nodes for inputting a plurality of arithmetic processing results and performing a third arithmetic operation and outputting one output signal, each of the plurality of nodes in the multilayer perceptron In addition, sample applying means for applying the learning sample and the evaluation sample as independent input signals, the sample from the sample applying means, and the multilayer parser. When the over-learning in the intermediate processing means in the multi-layer perceptron is detected by inputting the operation result from the thoron, and when the over-learning is detected, the second operation means in the intermediate node of the intermediate processing means is modified to a predetermined intermediate node. And learning / evaluation means for reducing

【0016】また、上記中間処理手段内の中間ノードは
1段であり、上記第二の演算にウェイトを用い、上記学
習・評価手段は過学習が検出されたときに上記ウェイト
を調節することを特徴とする。
Further, the intermediate node in the intermediate processing means has one stage, weights are used for the second operation, and the learning / evaluation means adjusts the weights when overlearning is detected. Characterize.

【0017】また、上記学習・評価手段はサンプルと多
層パーセプトロンの演算結果との差の緩和、もしくは差
の2乗の総和が訂正値以上のとき過学習として検出す
る。
Further, the learning / evaluation means detects the difference between the sample and the calculation result of the multi-layer perceptron, or detects it as overlearning when the sum of squares of the difference is equal to or larger than the correction value.

【0018】また、上記学習・評価手段は過学習が検出
されたとき、最大の誤差を生じさせることを特徴とす
る。
Further, the learning / evaluation means is characterized by causing a maximum error when overlearning is detected.

【0019】[0019]

【作用】まず、未知のシステムの入出力値のサンプルは
学習用入出力サンプルと評価用入出力サンプルに分類さ
れる。この学習用入出力サンプルについて学習を行った
多層パーセプトロンについて、上記学習用入力サンプル
と上記評価用入力サンプルをそれぞれ入力した際の出力
と、それに対応する出力サンプルの誤差を比較すること
により、多層パーセプトロンにおける過学習の発生を検
出する。
First, the samples of input / output values of the unknown system are classified into learning input / output samples and evaluation input / output samples. Regarding the multi-layer perceptron trained on this learning input / output sample, the multi-layer perceptron is compared by comparing the output when the learning input sample and the evaluation input sample are input and the error of the corresponding output sample. Detect the occurrence of over-learning in.

【0020】過学習の発生が検出された場合、中間層の
単位ユニット数を減らし、再び学習用入出力サンプルに
ついて多層パーセプトロンに学習を行わせる。この過学
習の際の学習および単位ユニット数を減らす操作と上記
過学習の発生の検出を、評価用入力サンプルに対する出
力サンプルの誤差が学習用入力サンプルに対する出力サ
ンプルの誤差よりも少なくなるまで繰り返し行うことに
より適正な中間層の単位ユニットの数を求める。
When the occurrence of overlearning is detected, the number of unit units in the intermediate layer is reduced, and the multilayer perceptron is made to perform learning again on the input / output samples for learning. The learning during the over-training and the operation of reducing the number of unit units and the detection of the occurrence of the over-learning are repeated until the error of the output sample with respect to the evaluation input sample becomes smaller than the error of the output sample with respect to the learning input sample. By doing so, an appropriate number of unit units in the intermediate layer is obtained.

【0021】[0021]

【実施例】以下、本発明の多変数システム(ニューラル
ネットワーク)構成方法およびその装置について説明す
る。図1は本発明の多変数システム構成方法に適用され
る多層パーセプトロン10の構成を示す図である。図1
において、多層パーセプトロン10は、入力層11、中
間層13、出力層15から構成され、各層間が図1に示
すような結合関係(入力層と中間層の結合12、および
中間層と出力層の結合14)を有する3層パーセプトロ
ンである。入力層11、中間層13、および出力層15
は、それぞれk個、m個、n個の単位ユニット(ノー
ド)110a〜110k、130a〜130m、150
a〜150nから構成される階層である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A multivariable system (neural network) construction method and apparatus of the present invention will be described below. FIG. 1 is a diagram showing a configuration of a multilayer perceptron 10 applied to a multivariable system configuration method of the present invention. Figure 1
1, the multilayer perceptron 10 is composed of an input layer 11, an intermediate layer 13, and an output layer 15, and the respective layers have a coupling relationship as shown in FIG. 1 (a coupling 12 between the input layer and the intermediate layer, and a coupling between the intermediate layer and the output layer). A three-layer perceptron with a bond 14). Input layer 11, middle layer 13, and output layer 15
Are k, m, and n unit units (nodes) 110a to 110k, 130a to 130m, and 150, respectively.
It is a hierarchy composed of a to 150n.

【0022】ここで、入力層11に含まれる単位ユニッ
ト110数は同定を行う未知の関数の入力変数の数であ
り、出力層15に含まれる単位ユニット150の数は出
力変数の数である。中間層13に含まれる単位ユニット
130の初期の数は任意である。また、単位ユニット1
10a〜110k、130a〜130m、150a〜1
50nは、それぞれ計算機(図示せず)上において、ソ
フトウェアで構成されるものである。
Here, the number of unit units 110 included in the input layer 11 is the number of input variables of the unknown function for identification, and the number of unit units 150 included in the output layer 15 is the number of output variables. The initial number of the unit units 130 included in the mid layer 13 is arbitrary. Also, unit unit 1
10a to 110k, 130a to 130m, 150a to 1
50n is configured by software on a computer (not shown).

【0023】以下、多層パーセプトロン10の動作につ
いて説明する。入力層11と中間層13は入力層と中間
層の結合12の矢印で示されるような結合関係を有し、
中間層13と出力層15は中間層と出力層の結合14の
矢印で示されるような結合関係を有している。
The operation of the multi-layer perceptron 10 will be described below. The input layer 11 and the intermediate layer 13 have a coupling relationship as indicated by an arrow of the coupling 12 of the input layer and the intermediate layer,
The intermediate layer 13 and the output layer 15 have a coupling relationship as indicated by an arrow of the coupling 14 between the intermediate layer and the output layer.

【0024】ここで、中間層13に含まれる単位ユニッ
ト130i(i=1、2、...m)について動作を説
明する。単位ユニット130iは、入力層11に含まれ
る単位ユニット110j(j=1、2、...k)の出
力Yj に、単位ユニット110jと単位ユニット130
iの結合の強さを表す数値、ウェイトWijを乗算した値
の総和を入力とし、その入力に対してある非線形関数f
を施した値Yi を出力する。つまり、単位ユニット13
0の出力Yi と単位ユニット110の出力Yj には、
The operation of the unit unit 130i (i = 1, 2, ... M) included in the intermediate layer 13 will be described. The unit unit 130i includes the unit unit 110j and the unit unit 130 in the output Y j of the unit unit 110j (j = 1, 2, ..., K) included in the input layer 11.
A numerical value representing the coupling strength of i, the sum of the values obtained by multiplying the weights W ij are input, and a certain nonlinear function f is applied to the input.
The value Y i subjected to is output. That is, the unit unit 13
The output Y j 0 of the output Y i and basic unit 110,

【数1】 の関係が成り立つ。[Equation 1] The relationship is established.

【0025】中間層13に含まれる単位ユニット130
iと出力層15に含まれる単位ユニット150h の間に
も同様の関係が成り立つ。つまり、単位ユニット150
hの出力Yh (h=1、2、...n)と単位ユニット
130の出力Yi には、
A unit unit 130 included in the intermediate layer 13
The same relationship holds between i and the unit unit 150 h included in the output layer 15. That is, the unit unit 150
The output Y h of h (h = 1, 2, ..., N) and the output Y i of the unit unit 130 are:

【数2】 の関係が成り立つ。ここで、関数gは、上記関数fに対
応する非線形関数であり、通常g=fである。また、W
hiは、上記ウェイトWijに対応する結合の強さを表す数
値である。
[Equation 2] The relationship is established. Here, the function g is a non-linear function corresponding to the above-mentioned function f, and usually g = f. Also, W
hi is a numerical value representing the strength of the bond corresponding to the weight W ij .

【0026】未知のシステムの入力値と出力値の組み合
わせのサンプルが充分多数存在する場合、以上述べた多
層パーセプトロン10に前記未知のシステムの入力値の
サンプルを入力し、この入力値に対する多層パーセプト
ロン10の出力と、対応する未知のシステムの出力値の
サンプルを比較し、多層パーセプトロン10の出力と未
知のシステムの出力値のサンプルの値が一致するように
上記ウェイトWijおよびウェイトWijを調節する(以
下、これを学習するという)。この操作を充分な回数繰
り返すことにより、多層パーセプトロン10は未知のシ
ステムの入出力関係の同定を行う。
When a sufficient number of samples of combinations of input values and output values of an unknown system exist, the multilayer perceptron 10 described above is input with the samples of the input values of the unknown system, and the multilayer perceptron 10 corresponding to the input values is input. an output of comparing the samples of the output values of the corresponding unknown system, adjusting the weight W ij and the weight W ij as the value of the sample of the output and the output value of the unknown system of the multi-layer perceptron 10 matches (Hereafter, this is called learning). By repeating this operation a sufficient number of times, the multilayer perceptron 10 identifies the input / output relationship of the unknown system.

【0027】多層パーセプトロン10の形式において、
3層以上の階層を有するパーセプトロンについては、中
間層(3層以上の多層パーセプトロンにおいて、入力層
と出力層以外の階層)の単位ユニット数を充分に数多く
用意すれば、あらゆる未知のシステムの入出力の関数関
係が任意の精度で近似できることが知られている。
In the form of a multilayer perceptron 10,
For perceptrons with three or more layers, if the number of unit units in the middle layer (layers other than the input layer and output layer in a multilayer perceptron of three or more layers) is sufficiently large, the input / output of any unknown system It is known that the functional relation of can be approximated with arbitrary accuracy.

【0028】また、多層パーセプトロン10に上記学習
をさせる方法としては、誤差逆伝播法と呼ばれる方法が
有力なものとして知られている。誤差逆伝播法は、未知
のシステムのp番目の出力サンプルZp ’と多層パーセ
プトロン10の出力Zp の誤差の2乗の総和を最小にす
る方法である。この2乗誤差の総和を損失関数Eとす
る。損失関数Eは、
As a method for causing the multilayer perceptron 10 to perform the learning, a method called an error back propagation method is known to be effective. Backpropagation method is a method that minimizes the sum of squares of the errors in the output Z p of the p-th output sample Z p 'and multilayer perceptron 10 of the unknown system. The sum of the squared errors is a loss function E. The loss function E is

【数3】 ただし、(式3)においてwは入力サンプル数である。
と表すことができる。
[Equation 3] However, in (Equation 3), w is the number of input samples.
It can be expressed as.

【0029】この各ウェイトWhi、Wijに関する各勾配
(gradient)方向に各ウェイトWhi、Wijを修
正する。この方法は、最急降下法に相当する。つまり、
学習前のウェイトWhi、Whiと学習後のウェイト
hi’、Wij’は、
[0029] Each weight W hi, each weight in each gradient (gradient) direction about W ij W hi, to modify the W ij. This method corresponds to the steepest descent method. That is,
Weights W hi and W hi before learning and weights W hi 'and W ij ' after learning are

【数4】 [Equation 4]

【数5】 および、[Equation 5] and,

【数6】 [Equation 6]

【数7】 のような関係となる。[Equation 7] It becomes a relationship like.

【0030】図2は、本発明の多変数システム構成方法
のおよびその装置を実現する学習/評価ソフトウェア1
の構成を示す図である。図2において、多層パーセプト
ロン10は3層のパーセプトロンである。学習/評価部
30は、各層の結合のウェイトWhi、Wijを調節する部
分である。
FIG. 2 is a learning / evaluation software 1 for implementing the multivariable system configuration method and apparatus of the present invention.
It is a figure which shows the structure of. In FIG. 2, the multilayer perceptron 10 is a three-layer perceptron. The learning / evaluation unit 30 is a unit that adjusts the weights W hi and W ij of the coupling of each layer.

【0031】入出力値のサンプル(入出力サンプル)2
0は、ある未知のシステム(図示せず)に与えられた
(u+v)組の入力値および、これに対する前記未知の
システムの出力値のサンプルデータである。学習用サン
プル21は、入出力サンプル20のうち、多層パーセプ
トロン10の学習に使用されるu(u=整数)組の入力
値および出力値のサンプルデータである。評価用サンプ
ル22は、入出力サンプル20のうち、多層パーセプト
ロン10の評価に使用されるv(v=整数)組の入力値
および出力値のサンプルデータである。なお、学習用サ
ンプル21と評価用サンプル22は、なるべく双方のサ
ンプルデータの内容に偏りが生じないように入出力サン
プル20を2分割したものである。以上述べた図2中に
示される各部分は、計算機(図示せず)上にソフトウェ
アまたはデータの形で存在するものである。
Input / output value sample (input / output sample) 2
0 is sample data of (u + v) sets of input values given to an unknown system (not shown) and output values of the unknown system corresponding thereto. The learning sample 21 is sample data of input values and output values of u (u = integer) set used for learning of the multilayer perceptron 10 among the input / output samples 20. The evaluation sample 22 is sample data of v (v = integer) sets of input values and output values used for evaluation of the multilayer perceptron 10 among the input / output samples 20. The learning sample 21 and the evaluation sample 22 are obtained by dividing the input / output sample 20 into two so that the contents of both sample data are not biased. The above-mentioned respective parts shown in FIG. 2 exist in the form of software or data on a computer (not shown).

【0032】以下、学習/評価ソフトウェア1の動作に
ついて説明する。まず、学習/評価部30は未知のシス
テムから入出力サンプル20を得る。この入出力サンプ
ル20のうち、学習用サンプル21の入力サンプルI
21p (p=1、2、...u)を多層パーセプトロン1
0に入力し、多層パーセプトロン10での演算結果出力
20p ’を得る。これを全ての入力サンプルI21p につ
いて行う。ここで、多層パーセプトロン10の各単位ユ
ニットで行われる演算は、上述したものと同じである。
The operation of the learning / evaluation software 1 will be described below. First, the learning / evaluation unit 30 obtains the input / output sample 20 from an unknown system. Of the input / output samples 20, the input sample I of the learning sample 21
21p (p = 1,2, ... u) with multi-layer perceptron 1
0 to obtain the calculation result output Z 20p 'in the multilayer perceptron 10. This is done for all input samples I 21p . Here, the calculation performed in each unit of the multilayer perceptron 10 is the same as that described above.

【0033】次に、学習/評価部30は、入出力サンプ
ル20の出力サンプルZ21p と演算結果Z21p ’に基づ
き多層パーセプトロン10の学習を行う。つまり、ウェ
イトWhiおよびWijをウェイトWhi’およびWijに置換
し、ウェイトの調節を行う。つまり、損失関数Eを
Next, the learning / evaluation unit 30 learns the multilayer perceptron 10 based on the output sample Z 21p of the input / output sample 20 and the calculation result Z 21p ′. That is, the weights W hi and W ij are replaced with the weights W hi 'and W ij to adjust the weights. That is, the loss function E is

【数8】 により算出し、すべてのウェイトWhiおよびWijについ
て、(式4)、(式5)および、(式6)、(式7)の
演算を行う。 ただし、i=1、2、...m j=1、2、...k h=1、2、...n である。
[Equation 8] And the weights W hi and W ij are calculated according to (Equation 4), (Equation 5), (Equation 6), and (Equation 7). However, i = 1, 2 ,. . . m j = 1, 2 ,. . . kh = 1, 2 ,. . . n.

【0034】次に、学習/評価部30は上記の学習を行
った後の多層パーセプトロン10に評価用サンプル22
の入力サンプルI22p を入力し、多層パーセプトロン1
0での演算結果Z22p ’を得る。これを全ての評価用サ
ンプル22の入力サンプルについて行う。
Next, the learning / evaluation unit 30 adds an evaluation sample 22 to the multilayer perceptron 10 after the above learning.
Input the input sample I 22p of Multilayer Perceptron 1
The calculation result Z 22p 'at 0 is obtained. This is performed for all input samples of the evaluation sample 22.

【0035】学習/評価部30はこの各演算結果
22p ’と評価用サンプル22の出力サンプルZ22p
2乗平均E22を演算する。つまり、
The learning / evaluation unit 30 calculates the root mean square E 22 of each of the calculation results Z 22p 'and the output sample Z 22p of the evaluation sample 22. That is,

【数9】 の演算を行う。[Equation 9] Is calculated.

【0036】また同様に、学習/評価部30は、学習用
サンプル21の入力サンプルI21pを再度多層パーセプ
トロン10に入力し、演算結果Z21p ’と学習用サンプ
ル21の出力サンプルZ21p の2乗平均E21を演算す
る。つまり、
Similarly, the learning / evaluation unit 30 inputs the input sample I 21p of the learning sample 21 to the multilayer perceptron 10 again, and squares the calculation result Z 21p ′ and the output sample Z 21p of the learning sample 21. Calculate the average E 21 . That is,

【数10】 の演算を行う。[Equation 10] Is calculated.

【0037】学習/評価部30は、上記2つの2乗平均
21およびE22により、多層パーセプトロン10で過学
習が発生していることを検出する。つまり、ここで2乗
平均E22がE21よりも大きい値(E22>E21)である場
合、過学習が起こっていると判断する。また、ここで2
乗平均E22がE21と同値、または小さい値(E22
21)である場合、過学習は起こっていないと判断し、
処理を終了する。
The learning / evaluation unit 30 detects the occurrence of over-learning in the multilayer perceptron 10 based on the above two root mean squares E 21 and E 22 . That is, if the root mean square E 22 is larger than E 21 (E 22 > E 21 ), it is determined that overlearning has occurred. Also here 2
Multiply the average E 22 is E 21 and the equivalent or a small value, (E 22
If it is E 21 ), it is judged that over-learning has not occurred,
The process ends.

【0038】過学習が起こっていると判断された場合、
中間層13の単位ユニット130iを一つ減らす。どの
単位ユニット130iを取り去るかは任意であるが、こ
こでは例えば、添字の最も大きい単位ユニット130i
から取り去るものとする。つまり、単位ユニット130
iを減らす場合、単位ユニット130m、130m−
1、130m−2、...の順番に取り去られる。
If it is determined that over-learning is occurring,
The unit unit 130i of the intermediate layer 13 is reduced by one. It is arbitrary which unit unit 130i is removed, but here, for example, the unit unit 130i having the largest subscript is removed.
Shall be removed from. That is, the unit unit 130
When i is reduced, unit units 130m, 130m-
1, 130 m-2 ,. . . Are removed in order.

【0039】次に、学習/評価部30は学習用サンプル
21を用いて、再び多層パーセプトロン10の学習を行
う。多層パーセプトロン10の学習の手順は上記した手
順と同様である。この多層パーセプトロン10の学習の
後、学習/評価部30は再び多層パーセプトロン10の
過学習の検出を行う。過学習が検出された場合、学習/
評価部30は単位ユニット130iを減らす手順を行
う。学習/評価部30は、上記過学習の検出および単位
ユニット130iを減らす手順を過学習が検出されなく
なるまで繰り返す。以上で多層パーセプトロン10の学
習、つまりウェイトWhiおよびWijの最適化を終了す
る。
Next, the learning / evaluation unit 30 uses the learning sample 21 to perform the learning of the multilayer perceptron 10 again. The learning procedure of the multilayer perceptron 10 is the same as the above-mentioned procedure. After the learning of the multi-layer perceptron 10, the learning / evaluation unit 30 detects over-learning of the multi-layer perceptron 10 again. If overlearning is detected, learn /
The evaluation unit 30 performs a procedure of reducing the unit unit 130i. The learning / evaluation unit 30 repeats the procedure of detecting over-learning and reducing the unit unit 130i until no over-learning is detected. This completes the learning of the multilayer perceptron 10, that is, the optimization of the weights W hi and W ij .

【0040】この実施例では、過学習の検出条件とし
て、上記2乗平均E21、E22の値を比較し、2乗平均E
21がE22より大きいことをもって過学習が発生している
と判断したが、判定条件はこれに限らず、例えば2乗平
均E21をE22で除算した商が一定範囲、例えば1.3〜
0.7であることを判定条件としてもよい。また、学習
用サンプル21を使用した際の誤差に比べ評価用サンプ
ル22を使用した際の誤差が大きくなり過ぎた場合、再
び単位ユニット130iを増加させるように構成しても
よい。また、過学習の判定に使用する数値は2乗平均に
限らず、例えば絶対値の平均であってもかまわない。
In this embodiment, as the over-learning detection condition, the values of the root mean squares E 21 and E 22 are compared, and the root mean square E
Although it is determined that overlearning has occurred when 21 is larger than E 22 , the determination condition is not limited to this. For example, the quotient obtained by dividing the mean square E 21 by E 22 is in a certain range, for example, 1.3 to
The determination condition may be 0.7. Further, when the error when the evaluation sample 22 is used becomes too large as compared with the error when the learning sample 21 is used, the unit unit 130i may be increased again. Further, the numerical value used for the over-learning determination is not limited to the root mean square, and may be, for example, the average of absolute values.

【0041】図3は上述した学習/評価ソフトウェア1
の動作を示すフローチャートである。図3において、ス
テップ00(S00)において、学習/評価部30は未
知のシステムから入出力サンプル20を得る。ステップ
01(S01)において、学習/評価部30は入出力サ
ンプル20を学習用サンプル21と評価用サンプル22
に2分割する。ステップ02(S02)において、学習
/評価部30は学習用サンプル21を使用し、多層パー
セプトロン10の学習を行う。
FIG. 3 shows the learning / evaluation software 1 described above.
3 is a flowchart showing the operation of FIG. In FIG. 3, in step 00 (S00), the learning / evaluation unit 30 obtains the input / output sample 20 from an unknown system. In step 01 (S01), the learning / evaluation unit 30 sets the input / output sample 20 to the learning sample 21 and the evaluation sample 22.
Divide into two. In step 02 (S02), the learning / evaluation unit 30 uses the learning sample 21 to learn the multilayer perceptron 10.

【0042】ステップ03(S03)において、学習/
評価部30は学習用サンプル21および評価用サンプル
22を使用し、それぞれについての2乗平均を演算す
る。ステップ04(S04)において、学習/評価部3
0はS03で得た2乗平均の値から過学習の検出を行
う。過学習が検出された場合、S05の処理に進み、過
学習が検出されない場合、処理を終了する。ステップ0
5(S04)において、学習/評価部30は中間層13
の単位ユニット130iを1つ取り去る。
In step 03 (S03), learning /
The evaluation unit 30 uses the learning sample 21 and the evaluation sample 22, and calculates the root mean square of each of them. In step 04 (S04), the learning / evaluation unit 3
For 0, overlearning is detected from the root mean square value obtained in S03. If overlearning is detected, the process proceeds to S05, and if overlearning is not detected, the process ends. Step 0
5 (S04), the learning / evaluation unit 30 determines that the middle class 13
One unit unit 130i of is removed.

【0043】以下、この実施例の多変数システム構成方
法および装置を実際に未知のシステムの入出力関係の同
定に適用した結果について説明する。ここでは、未知の
システムAとして射出成形用機械を例にとり、この機械
に与える10種類の設定値を入力値とし、1種類の出力
値を得ている。
The results of applying the multivariable system construction method and apparatus of this embodiment to the identification of the input / output relation of an actually unknown system will be described below. Here, an injection molding machine is taken as an example of the unknown system A, and ten kinds of set values given to this machine are used as input values to obtain one kind of output value.

【0044】従って、多層パーセプトロン10の入力層
11に含まれる単位ユニット110の数は10個、出力
層15に含まれる単位ユニット150の数は1個であ
る。また、中間層13に含まれる単位ユニット130の
初期の数は5個とした。この多層パーセプトロン10に
学習/評価ソフトウェア1を適用することにより中間層
13に含まれる単位ユニット130の数は3個まで減少
した。また、非線形関数f、gとして、シグモイド関数
Therefore, the number of unit units 110 included in the input layer 11 of the multilayer perceptron 10 is 10, and the number of unit units 150 included in the output layer 15 is 1. Further, the initial number of the unit units 130 included in the intermediate layer 13 is set to five. By applying the learning / evaluation software 1 to the multilayer perceptron 10, the number of unit units 130 included in the intermediate layer 13 was reduced to three. In addition, as the non-linear functions f and g, sigmoid functions

【数11】 ただし、(式11)において、xは非線形関数fにおい
ては、
[Equation 11] However, in (Equation 11), x is a nonlinear function f,

【数12】 非線形関数gにおいては、[Equation 12] In the non-linear function g,

【数13】 である。[Equation 13] Is.

【0045】図4は、多層パーセプトロン10により、
学習/評価ソフトウェア1を使用せずに未知のシステム
Aの入出力関係の同定を行った結果を示す図である。図
5は、この実施例で説明した学習/評価ソフトウェア1
により、未知のシステムAについて入出力関係の同定を
行った結果を示す図である。
FIG. 4 shows the multi-layer perceptron 10
It is a figure which shows the result of having identified the input-output relationship of unknown system A, without using learning / evaluation software 1. FIG. 5 shows the learning / evaluation software 1 described in this embodiment.
FIG. 6 is a diagram showing a result of identification of an input / output relationship for an unknown system A by.

【0046】学習/評価部30は未知のシステムAにつ
いて、100組の入出力サンプル20を得た。この10
0組の入出力サンプル20の内、5サンプルおきに評価
用サンプル22とし、その他を学習用サンプル21にす
るよう分割した。つまり、100組の入出力サンプル2
0を80組の学習用サンプル21と20組の評価用サン
プル22に2分割したことになる。
The learning / evaluation unit 30 obtained 100 sets of input / output samples 20 for the unknown system A. This 10
Of the 0 sets of input / output samples 20, the evaluation sample 22 was set every 5 samples, and the others were divided into learning samples 21. That is, 100 sets of input / output samples 2
This means that 0 is divided into 80 sets of learning samples 21 and 20 sets of evaluation samples 22.

【0047】図4において、横軸は入出力サンプル20
の入力サンプルに対する未知のシステムAの出力値であ
る。縦軸は上記80組の学習用サンプル21により学習
済の多層パーセプトロン10における、入出力サンプル
20の入力サンプルに対する多層パーセプトロン10の
出力の値である。
In FIG. 4, the horizontal axis represents the input / output sample 20.
Output values of unknown system A for input samples of The vertical axis represents the value of the output of the multilayer perceptron 10 with respect to the input sample of the input / output sample 20 in the multilayer perceptron 10 that has been learned by the 80 sets of learning samples 21.

【0048】図5において、横軸は入出力サンプル20
の入力サンプルに対する未知のシステムAの出力値であ
る。縦軸はこの実施例の学習/評価ソフトウェア1を適
用した多層パーセプトロン10における、入出力サンプ
ル20の入力サンプルに対する多層パーセプトロン10
の出力の値である。
In FIG. 5, the horizontal axis represents the input / output sample 20.
Output values of unknown system A for input samples of The vertical axis represents the multilayer perceptron 10 for the input sample of the input / output sample 20 in the multilayer perceptron 10 to which the learning / evaluation software 1 of this embodiment is applied.
Is the output value of.

【0049】図4、図5において、白丸は評価用サンプ
ル22の入力サンプルに対する多層パーセプトロン10
の出力を示し、黒丸は学習用サンプル21の入力サンプ
ルに対する多層パーセプトロン10の出力を示す。ま
た、多層パーセプトロン10が正しく未知のシステムA
を同定している場合、図中に示す斜線上に各点が乗るこ
とになる。つまり、この斜線に近い点ほど誤差が少ない
ということができる。
In FIGS. 4 and 5, white circles represent the multilayer perceptron 10 for the input sample of the evaluation sample 22.
And the black circles represent the output of the multilayer perceptron 10 with respect to the input sample of the learning sample 21. In addition, the system A in which the multilayer perceptron 10 is correctly unknown
In the case where is identified, each point is placed on the diagonal line shown in the figure. That is, it can be said that a point closer to the diagonal line has a smaller error.

【0050】図4においては、多層パーセプトロン10
の中間層13に含まれる単位ユニット130の数が減少
していないため、学習用サンプル21の入力サンプルに
対する多層パーセプトロン10の出力は誤差はごく少な
くなっている。しかし、評価用サンプル22の入力サン
プルに対する多層パーセプトロン10の出力は全く妥当
性を欠く値となっている。
In FIG. 4, the multilayer perceptron 10 is shown.
Since the number of unit units 130 included in the intermediate layer 13 has not decreased, the error of the output of the multilayer perceptron 10 with respect to the input sample of the learning sample 21 is extremely small. However, the output of the multilayer perceptron 10 with respect to the input sample of the evaluation sample 22 has a value that is completely invalid.

【0051】図5においては、学習用サンプル21およ
び評価用サンプル22のそれぞれの入力サンプルに対す
る多層パーセプトロン10の出力値の誤差の分布がほぼ
同じになっている。このような場合が、多層パーセプト
ロン10において最も良い未知のシステムAの同定をし
た場合に相当する。よって、この際の多層パーセプトロ
ン10は未知のシステムA最適なモデルとみなすことが
できる。
In FIG. 5, the error distributions of the output values of the multilayer perceptron 10 with respect to the input samples of the learning sample 21 and the evaluation sample 22 are almost the same. Such a case corresponds to the case where the best unknown system A in the multilayer perceptron 10 is identified. Therefore, the multilayer perceptron 10 at this time can be regarded as an unknown system A optimal model.

【0052】本発明の多変数システム構成方法および装
置の学習/評価ソフトウェア1を適用し、中間層13に
含まれる単位ユニット130iの数を決定したモデル
(多層パーセプトロン10)は、未知のシステムAにつ
いての未学習のデータ(学習用サンプル21)に対して
も妥当な出力が得られている。よって、これ以外の未知
のシステムついての未学習のデータに対しても妥当な出
力が期待できる、汎化性のよいモデルになっていること
が予想される。
The model (multilayer perceptron 10) in which the number of unit units 130i included in the intermediate layer 13 is determined by applying the learning / evaluation software 1 for the multivariable system configuration method and apparatus of the present invention is for an unknown system A. A reasonable output is obtained for the unlearned data (learning sample 21). Therefore, it is expected that the model has a good generalization, which can expect a reasonable output even for unlearned data about other unknown systems.

【0053】以上述べた実施例においては、多層パーセ
プトロンとして3層の多層パーセプトロンを例にして説
明したが、中間層をさらに有する、例えば5層の多層パ
ーセプトロンについても同様に本発明の多変数システム
構成方法およびその装置を適用することが可能である。
また、多層パーセプトロンは同一計算機上にソフトウェ
ア的に構成されるものに限らず、例えば、各単位ユニッ
トを別の計算機上に構成し、それぞれの計算機を接続し
た、いわゆるマルチプロセッサ多変数システムにより構
成されていてもよい。本発明の多変数システム構成方法
およびその装置は、以上述べた他に種々の構成をとるこ
とができる。以上述べた実施例は例示である。
In the above-mentioned embodiments, the multi-layer perceptron has been described by taking a three-layer multi-layer perceptron as an example, but a multi-variable system configuration of the present invention is similarly applied to a multi-layer perceptron having an intermediate layer, for example. It is possible to apply the method and its apparatus.
Further, the multi-layer perceptron is not limited to being configured as software on the same computer, but for example, is configured by a so-called multiprocessor multivariable system in which each unit is configured on another computer and each computer is connected. May be. The multivariable system configuration method and apparatus of the present invention can take various configurations other than those described above. The embodiments described above are merely examples.

【0054】[0054]

【発明の効果】以上述べたように、本発明の多変数シス
テム構成方法およびその装置によれば、経験によらず適
正な多層パーセプトロンの中間層の単位ユニット数を決
定することができ、汎化性のよい多変数システム構成方
法およびその装置を提供することができる。
As described above, according to the method and apparatus for constructing a multivariable system of the present invention, it is possible to determine an appropriate number of unit units in the intermediate layer of a multilayer perceptron regardless of experience, and to perform generalization. It is possible to provide a multivariable system configuration method and device having good performance.

【図面の簡単な説明】[Brief description of drawings]

【図1】多層パーセプトロンの構成を示す図である。FIG. 1 is a diagram showing a configuration of a multi-layer perceptron.

【図2】本発明の多変数システム(多変数システム)の
構成方法およびその装置を実現する学習/評価ソフトウ
ェアの構成を示す図である。
FIG. 2 is a diagram showing a configuration of learning / evaluation software that realizes a configuration method of a multivariable system (multivariable system) and an apparatus thereof according to the present invention.

【図3】本発明の多変数システム構成方法およびその装
置を実現する学習/評価ソフトウェアの動作を示すフロ
ーチャートである。
FIG. 3 is a flowchart showing the operation of learning / evaluation software for implementing the multivariable system configuration method and apparatus of the present invention.

【図4】従来の技術の多層パーセプトロンにより、未知
のシステムの入出力関係の同定を行った結果を示す図で
ある。
FIG. 4 is a diagram showing a result of identifying an input / output relationship of an unknown system by a conventional multi-layer perceptron.

【図5】本発明の多変数システム構成方法およびその装
置を実現する学習/評価ソフトウェアを適用した多層パ
ーセプトロンにより、未知のシステムについて入出力関
係の同定を行った結果を示す図である。
FIG. 5 is a diagram showing a result of identification of input / output relations of an unknown system by a multi-layer perceptron to which learning / evaluation software for realizing the multivariable system configuration method and apparatus of the present invention is applied.

【符号の説明】[Explanation of symbols]

1・・・学習/評価ソフトウェア 10・・・多層パーセプトロン 11・・・入力層 12・・・入力層と中間層の結合 13・・・中間層 14・・・中間層と出力層の結合 15・・・出力層 20・・・入出力サンプル 21・・・学習用サンプル 22・・・評価用サンプル 30・・・学習/評価部 1 ... Learning / evaluation software 10 ... Multi-layer perceptron 11 ... Input layer 12 ... Coupling of input layer and intermediate layer 13 ... Intermediate layer 14 ... Coupling of intermediate layer and output layer 15. ..Output layer 20 ... Input / output sample 21 ... Learning sample 22 ... Evaluation sample 30 ... Learning / evaluation unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】独立した1つの信号入力に対して第一の演
算を行い、複数の演算処理結果を出力し、これらの演算
結果に対して第二の演算を行い、複数の演算処理結果を
出力し、前記第二の演算結果に対して第三の演算を行
い、複数の演算処理結果を出力する多層パーセプトロン
を使用し、 該多層パーセプトロン内の複数ノードのそれぞれに、独
立した入力信号として学習用サンプルと評価用サンプル
とを印加し、 該サンプル印加手段からのサンプル、および、上記多層
パーセプトロンから演算結果を入力して多層パーセプト
ロン内の中間処理手段における過学習を検出し、過学習
を検出した場合、前記中間処理手段の中間ノードにおけ
る第二の演算手段を修正して所定の中間ノードを減少さ
せて学習および評価を行う多変数システム構成方法。
1. A first operation is performed on one independent signal input, a plurality of operation processing results are output, a second operation is performed on these operation results, and a plurality of operation processing results are obtained. A multi-layer perceptron that outputs and performs a third calculation on the second calculation result and outputs a plurality of calculation processing results is learned as an independent input signal to each of the plurality of nodes in the multi-layer perceptron. The sample for evaluation and the sample for evaluation are applied, and the sample from the sample applying means and the calculation result from the multilayer perceptron are input to detect overlearning in the intermediate processing means in the multilayer perceptron and detect overlearning. In this case, a multivariable system configuration method in which the second computing means in the intermediate node of the intermediate processing means is modified to reduce a predetermined intermediate node for learning and evaluation. .
【請求項2】請求項1記載の多変数システム構成方法に
おいて、 上記中間処理手段内の中間ノードは1段であり、 上記第二の演算にウェイトを用い、 上記学習・評価手段は過学習が検出されたときに上記ウ
ェイトを調節することを特徴とする多変数システム構成
方法。
2. The multivariable system configuration method according to claim 1, wherein the intermediate node in the intermediate processing means has one stage, a weight is used for the second operation, and the learning / evaluation means is not overlearned. A method for constructing a multivariable system, characterized in that the weight is adjusted when detected.
【請求項3】請求項1、または請求項2記載の多変数シ
ステム構成方法において、 上記学習・評価手段はサンプルと多層パーセプトロンの
演算結果との差の総和、もしくは差の2乗の総和が訂正
値以上のとき過学習として検出する多変数システム構成
装置。
3. The multivariable system configuration method according to claim 1 or 2, wherein the learning / evaluation means corrects a sum of differences between a sample and a calculation result of a multilayer perceptron, or a sum of squares of the differences. A multi-variable system constituent device that detects over-learning when the value is greater than or equal to the value.
【請求項4】請求項3記載の多変数システム構成方法に
おいて、 上記学習・評価手段は過学習が検出されたとき、最大の
誤差を生じさせることを特徴とする多変数システム構成
方法。
4. The multivariable system configuring method according to claim 3, wherein the learning / evaluating means causes a maximum error when overlearning is detected.
【請求項5】独立した1つの信号入力に対して第一の演
算を行い、複数の演算処理結果を出力する入力ノードを
複数個有する入力処理手段と、該入力処理手段内の複数
の入力ノードから複数の演算結果を入力して第二の演算
を行い、複数の演算処理結果を出力する少なくとも1段
の中間ノードを複数個有する中間処理手段と、該中間処
理手段内の複数の中間ノードから複数の演算処理結果を
入力して第三の演算を行い、1つの出力信号を出力する
複数の出力ノードを有する出力処理手段とを有する多層
パーセプトロンを有し、 該多層パーセプトロン内の複数ノードのそれぞれに、独
立した入力信号として学習用サンプルと評価用サンプル
とを印加するサンプル印加手段と、 該サンプル印加手段からのサンプル、および、上記多層
パーセプトロンから演算結果を入力して多層パーセプト
ロン内の中間処理手段における過学習を検出し、過学習
を検出した場合、前記中間処理手段の中間ノードにおけ
る第二の演算手段を修正して所定の中間ノードを減少さ
せる学習・評価手段とを有する多変数システム構成装
置。
5. An input processing means having a plurality of input nodes for performing a first calculation on one independent signal input and outputting a plurality of calculation processing results, and a plurality of input nodes in the input processing means. From a plurality of intermediate nodes in the intermediate processing means having a plurality of at least one intermediate node for outputting a plurality of arithmetic processing results and outputting a plurality of arithmetic processing results A multi-layer perceptron having an output processing means having a plurality of output nodes for inputting a plurality of operation processing results and performing a third operation and outputting one output signal; and each of the plurality of nodes in the multi-layer perceptron. In addition, sample applying means for applying the learning sample and the evaluation sample as independent input signals, the sample from the sample applying means, and the multilayer percept When the over-learning in the intermediate processing means in the multi-layer perceptron is detected by inputting the operation result from the computer, and when the over-learning is detected, the second operation means in the intermediate node of the intermediate processing means is modified and the predetermined intermediate node And a multi-variable system constituent device having learning / evaluation means for reducing.
【請求項6】請求項5記載の多変数システム構成装置に
おいて、 上記中間処理手段内の中間ノードは1段であり、 上記第二の演算にウェイトを用い、 上記学習・評価手段は過学習が検出されたときに上記ウ
ェイトを調節することを特徴とする多変数システム構成
装置。
6. The multivariable system configuration device according to claim 5, wherein the intermediate node in the intermediate processing means is one stage, weight is used for the second operation, and the learning / evaluation means is not overlearned. A multivariable system constituent device, characterized in that the weight is adjusted when detected.
【請求項7】請求項5、または請求項6記載の多変数シ
ステム構成装置において、 上記学習・評価手段はサンプルと多層パーセプトロンの
演算結果との差の総和、もしくは差の2乗の総和が訂正
値以上のとき過学習として検出する多変数システム構成
装置。
7. The multivariable system configuration apparatus according to claim 5 or 6, wherein the learning / evaluation means corrects a sum of differences between a sample and a calculation result of a multilayer perceptron, or a sum of squares of the differences. A multi-variable system constituent device that detects over-learning when the value is greater than or equal to the value.
【請求項8】請求項7記載の多変数システム構成装置に
おいて、 上記学習・評価手段は過学習が検出されたとき、最大の
誤差を生じさせる事を特徴とする多変数システム構成装
置。
8. The multivariable system constituent device according to claim 7, wherein said learning / evaluation means causes a maximum error when overlearning is detected.
JP4250803A 1992-08-26 1992-08-26 Multivariable system construction method and its device Pending JPH0675935A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4250803A JPH0675935A (en) 1992-08-26 1992-08-26 Multivariable system construction method and its device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4250803A JPH0675935A (en) 1992-08-26 1992-08-26 Multivariable system construction method and its device

Publications (1)

Publication Number Publication Date
JPH0675935A true JPH0675935A (en) 1994-03-18

Family

ID=17213285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4250803A Pending JPH0675935A (en) 1992-08-26 1992-08-26 Multivariable system construction method and its device

Country Status (1)

Country Link
JP (1) JPH0675935A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257140A (en) * 2009-04-23 2010-11-11 Canon Inc Apparatus and method for processing information
WO2019135274A1 (en) * 2018-01-04 2019-07-11 株式会社Abeja Data processing system comprising neural network
US10937176B2 (en) 2018-05-31 2021-03-02 Toyota Jidosha Kabushiki Kaisha Object recognition apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257140A (en) * 2009-04-23 2010-11-11 Canon Inc Apparatus and method for processing information
WO2019135274A1 (en) * 2018-01-04 2019-07-11 株式会社Abeja Data processing system comprising neural network
JPWO2019135274A1 (en) * 2018-01-04 2020-12-17 株式会社Abeja Data processing system with neural network
US10937176B2 (en) 2018-05-31 2021-03-02 Toyota Jidosha Kabushiki Kaisha Object recognition apparatus

Similar Documents

Publication Publication Date Title
US4914603A (en) Training neural networks
US5107454A (en) Pattern associative memory system
US4912653A (en) Trainable neural network
JPH0675935A (en) Multivariable system construction method and its device
Yu et al. A modified hidden weight optimization algorithm for feedforward neural networks
JPH08272759A (en) Method for execution speedup of neural network for correlation signal processing
JPH0451384A (en) Neural network and its construction method
JP2825939B2 (en) Neural network learning device
KR20200108173A (en) A neuromorphic processor for reducing the amount of computation for spiking neural network
JPH05101028A (en) Integral decision method for plural feature quantity
CN113820954A (en) Fault-tolerant control method of complex nonlinear system under generalized noise
EP0567983B1 (en) Learning type waveform recognizer
JPH02231670A (en) Learning device for neural network
US5438645A (en) Neural network which uses a monitor
JP2021012600A (en) Method for diagnosis, method for learning, learning device, and program
JPH0281160A (en) Signal processor
JPH04264664A (en) Neural circuit-type pattern processor
JPH06243273A (en) Learning system for neural network
JPH05204885A (en) Device and method for accelerating learning of neural network
CN114491400A (en) Method for solving time-varying Siemens equation by noise suppression adaptive coefficient zero-ization neural network based on error norm
JPH05181825A (en) Method and device for estimating unknown quantity
Nikravesh et al. Process control of nonlinear time variant processes via artificial neural network
Asaduzzaman et al. Making use of damped noisy gradient in training neural network
JPH03201158A (en) Learning processor
JPH0675936A (en) Method and device for sampling teacher signal in multivariable system