JPH04305785A - Method for evaluating neural network - Google Patents

Method for evaluating neural network

Info

Publication number
JPH04305785A
JPH04305785A JP3070004A JP7000491A JPH04305785A JP H04305785 A JPH04305785 A JP H04305785A JP 3070004 A JP3070004 A JP 3070004A JP 7000491 A JP7000491 A JP 7000491A JP H04305785 A JPH04305785 A JP H04305785A
Authority
JP
Japan
Prior art keywords
equation
neural network
input
output
math
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3070004A
Other languages
Japanese (ja)
Other versions
JP3132027B2 (en
Inventor
Masahide Nomura
野村 正英
Hisanori Miyagaki
宮垣 久典
Eiji Toyama
栄二 遠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP03070004A priority Critical patent/JP3132027B2/en
Publication of JPH04305785A publication Critical patent/JPH04305785A/en
Application granted granted Critical
Publication of JP3132027B2 publication Critical patent/JP3132027B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To obtain a method for evaluating cause and effect relation between the input and output of a neural network. CONSTITUTION:The I/O functions of units in the neural network constituted of the hierarchical connection of units using respective neurons as models are developed by series and the network is expressed by a non-linear regression expression based upon the developed expression to attain the evaluation. Thus the cause and effect relation between the I/O of the neural network can be cleared by expressing the network by the non-linear regression expression.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、ニューラル・ネットワ
ークの評価方法に係り、特に、階層型ニューラル・ネッ
トワークの入出力間の因果関係を評価するに好適なニュ
ーラル・ネットワークの評価方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network evaluation method, and more particularly to a neural network evaluation method suitable for evaluating causal relationships between inputs and outputs of a hierarchical neural network.

【0002】0002

【従来の技術】階層型ニューラル・ネットワークは、ニ
ューロンをモデル化したユニットの階層状結合により構
成され、入力信号を非線形変換でき、この非線形変換の
関数形を学習により構築できる特徴がある。このため、
この特徴を利用して、“ニューラル・コンピュータ”(
東京電気大学出版局、昭和63−4)、“ニューラル・
ネットワーク情報処理”(産業図書、昭和63−7)に
記載されているように、種々の分野への応用が試みられ
ている。
2. Description of the Related Art Hierarchical neural networks are constructed by hierarchical combinations of units modeled on neurons, and are capable of nonlinear transformation of input signals, and are characterized by the ability to construct the functional form of this nonlinear transformation through learning. For this reason,
Taking advantage of this feature, “neural computers” (
Tokyo Denki University Press, 1986-4), “Neural
As described in "Network Information Processing" (Sangyo Tosho, 1986-7), attempts have been made to apply it to various fields.

【0003】階層型ニューラル・ネットワークの構成例
及びユニットの構成を、それぞれ図1,図2に示す。前
記非線形変換の機能は、ユニットの入出力関数f(x)
の非線形性に依存しており、次式で表わされる関数が一
般的に使用されている。
An example of the configuration of a hierarchical neural network and a unit configuration are shown in FIGS. 1 and 2, respectively. The function of the nonlinear transformation is the input/output function f(x) of the unit.
The function expressed by the following equation is generally used.

【0004】0004

【数1】[Math 1]

【0005】ここで、x:入力 θ:しきい値 この入出力関数f(x)の非線形性及びネットワークの
非線形変換機能については、“ニューラル・ネットワー
クによる連続写像の近似実現について”(電子情報通信
学会技術研究報告,MBE88−9,1988−4),
“ニューラル・ネットワークのcapabilityに
ついて”(電子情報通信学会技術研究報告、MBE88
−52,1988−7)に記載されているように、数学
理論の面から検討され、階層型ニューラル・ネットワー
クが連続写像の実現機構としてある種の万能性を持って
いることが証明されている。
Here, x: Input θ: Threshold Regarding the nonlinearity of this input/output function f(x) and the nonlinear transformation function of the network, please refer to "About Realization of Approximation of Continuous Mapping by Neural Network" (Electronic Information and Communication Academic Technical Research Report, MBE88-9, 1988-4),
“About the capability of neural networks” (IEICE technical research report, MBE88
52, 1988-7), it has been studied from the perspective of mathematical theory and it has been proven that hierarchical neural networks have a certain degree of versatility as a mechanism for realizing continuous mapping. .

【0006】[0006]

【発明が解決しようとする課題】上記従来技術は、階層
型ニューラル・ネットワークが連続写像の実現機構とし
てある種の万能性を持っていることを証明しているが、
ある連続写像を近似する階層型ニューラル・ネットワー
クの設計について、具体的な方法を提供していない。ま
た、学習により形成されたネットワークから入出力関係
の構造を抽出するための理論的背景も与えられていない
。このため、従来は、ネットワークは、ブラック・ボッ
クスとして扱われていた。
[Problem to be Solved by the Invention] The above-mentioned prior art proves that hierarchical neural networks have a certain degree of versatility as a mechanism for realizing continuous mapping.
It does not provide a specific method for designing a hierarchical neural network that approximates a certain continuous mapping. Furthermore, no theoretical background has been provided for extracting the structure of input-output relationships from networks formed through learning. For this reason, networks have traditionally been treated as black boxes.

【0007】本発明の目的は、ニューラル・ネットワー
クの入出力間の因果関係を評価する方法を提供するにあ
る。
An object of the present invention is to provide a method for evaluating causal relationships between inputs and outputs of a neural network.

【0008】[0008]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、ニューロンをモデル化したユニットの階
層状結合により構成したニューラル・ネットワークの応
用システムにおいて、ユニットの入出力関数を級数展開
し、この展開式を用いて、ネットワークを非線形回帰式
で表わすようにした。
[Means for Solving the Problems] In order to achieve the above object, the present invention provides a neural network application system configured by hierarchically connecting units modeled on neurons, in which the input/output functions of the units are expanded into a series. Then, using this expansion formula, the network was expressed by a nonlinear regression formula.

【0009】[0009]

【作用】ニューラル・ネットワークを非線形回帰式で表
わすことにより、ネットワークの入出力間の因果関係が
明確になる。
[Operation] By expressing the neural network using a nonlinear regression equation, the causal relationship between the input and output of the network becomes clear.

【0010】0010

【実施例】以下、本発明の一実施例を図3により説明す
る。本実施例は、対象システム1の入出力特性をニュー
ラル・ネットワークに学習させる学習システム2,学習
後のニューラル・ネットワークにより対象システム1の
入出力特性を推定する推定システム3,学習後のニュー
ラル・ネットワークを評価する評価システム4、から構
成される。
[Embodiment] An embodiment of the present invention will be described below with reference to FIG. This embodiment includes a learning system 2 that causes a neural network to learn the input/output characteristics of the target system 1, an estimation system 3 that estimates the input/output characteristics of the target system 1 using the neural network after learning, and a neural network after learning. The system consists of an evaluation system 4 that evaluates.

【0011】対象システム1は、プラント等のように入
力に対して出力が対応付けられるものであれば、どのよ
うなものでもよい。
The target system 1 may be any type of system, such as a plant, as long as outputs can be associated with inputs.

【0012】推定システム3は、階層型ニューラル・ネ
ットワークを用いて、対象システム1の入力x(ベクト
ル)に対する出力y(ベクトル)を推定する。この関係
は、次式で表わされる。
The estimation system 3 estimates the output y (vector) of the target system 1 for the input x (vector) using a hierarchical neural network. This relationship is expressed by the following equation.

【0013】[0013]

【数2】[Math 2]

【0014】ここで、g:非線形関係(ベクトル)y:
出力yの推定値(ベクトル) 階層型ニューラル・ネットワークは、図1に示すように
、図2に示すユニットの階層状結合により構成される。 各層のユニットの入出力関係は、次式で表わされる。
Here, g: nonlinear relationship (vector) y:
Estimated value (vector) of output y A hierarchical neural network, as shown in FIG. 1, is constructed by a hierarchical combination of units shown in FIG. 2. The input/output relationship of the units in each layer is expressed by the following equation.

【0015】[0015]

【数3】[Math 3]

【0016】[0016]

【数4】[Math 4]

【0017】ここで、uj(k):第k層の第jユニッ
トへの入力の総和 vj(k):第k層の第jユニットの出力wij(k−
1,k):第(k−1)層の第iユニットから第k層の
第jユニットへの結合の重み係数f:各ユニットの入出
力関数を与える関数(入出力関数) なお、第1層(入力層)の各ユニットは、ユニットの入
力と同じものを出力する。数2の非線形関数gの特性は
、層の個数,各層のユニットの個数、重み係数wij(
k−1,k)が変わると変化する。したがって、これら
を調整することにより、対象システム1の入出力特性を
表わす非線形関数gが得られる。特に、この重み係数w
ij(k−1,k)の調整は、学習により実現できる。
Here, uj(k): sum of inputs to the j-th unit of the k-th layer vj(k): output wij(k-
1, k): Weighting coefficient for coupling from the i-th unit of the (k-1)th layer to the j-th unit of the k-th layer f: Function that provides the input/output function of each unit (input/output function) Each unit in the layer (input layer) outputs the same thing as the unit's input. The characteristics of the nonlinear function g in Equation 2 are the number of layers, the number of units in each layer, and the weighting coefficient wij (
k-1, k) changes. Therefore, by adjusting these, a nonlinear function g representing the input/output characteristics of the target system 1 can be obtained. In particular, this weighting factor w
Adjustment of ij (k-1, k) can be realized by learning.

【0018】学習システム2は、対象システム1の入出
力特性を表わす非線形関数gを学習により構築する。次
に、この学習のアルゴリズムについて説明する。
The learning system 2 constructs a nonlinear function g representing the input/output characteristics of the target system 1 through learning. Next, this learning algorithm will be explained.

【0019】先ず、学習用データとして入出力の組(x
t,yt)が与えられたとき、次式に示す誤差の2乗和
を損失関数rとして定義する。
First, an input/output set (x
t, yt) is given, the sum of squared errors shown in the following equation is defined as the loss function r.

【0020】[0020]

【数5】[Math 5]

【0021】ここで、w:ニューラル・ネットワークの
結合の重み係数をすべてまとめたもの vj(m)(w,xt):入力xt と重みwから総合
的に得られる第n層(出力層)の第jユニットの出力w
の修正量Δwは、損失関数rのwについての勾配(gr
adient)から求められ、次式で表わされる。
Here, w: A collection of all the weighting coefficients of connections in the neural network vj (m) (w, xt): The nth layer (output layer) obtained comprehensively from the input xt and the weight w. Output of j-th unit w
The correction amount Δw is the gradient (gr
adient) and is expressed by the following formula.

【0022】[0022]

【数6】[Math 6]

【0023】数6の右辺の▽r の各成分は、次式のよ
うに変形できる。
Each component of ▽r on the right side of equation 6 can be transformed as shown in the following equation.

【0024】[0024]

【数7】[Math 7]

【0025】数7に数4を代入して整理すると、次式が
導かれる。
By substituting the equation 4 into the equation 7 and sorting it out, the following equation is derived.

【0026】[0026]

【数8】[Math. 8]

【0027】k≠mのとき、数8の右辺の∂r/∂uj
(k)は、次式により求められる。
When k≠m, ∂r/∂uj on the right side of equation 8
(k) is obtained by the following equation.

【0028】[0028]

【数9】[Math. 9]

【0029】数9に数3,数4を代入して、整理すると
次式が得られる。
By substituting Equation 3 and Equation 4 into Equation 9 and rearranging, the following equation is obtained.

【0030】[0030]

【数10】[Math. 10]

【0031】ここで、f′:fの導関数∂r/∂uj(
k)=dj(k)とおくと、数6,数10は、次式で表
わされる。
Here, f': derivative of f ∂r/∂uj(
k)=dj(k), Equations 6 and 10 are expressed by the following equations.

【0032】[0032]

【数11】[Math. 11]

【0033】[0033]

【数12】[Math. 12]

【0034】また、k=mのとき、∂r/∂uj(m)
=dj(m)は、数5より次式で求められる。
[0034] Also, when k=m, ∂r/∂uj(m)
=dj(m) is obtained from Equation 5 using the following equation.

【0035】[0035]

【数13】[Math. 13]

【0036】数11,数12,数13を用いると、結合
の重み係数wij(k−1,k)の修正が、k=mから
k=2に向って、再帰的に計算できる。すなわち、出力
層での理想出力と実際の出力との誤差が、出力層から入
力層の方向へ、信号の伝播と逆の方向にwil(k,k
+1)で重み付けた和をとりながら伝播していく。これ
が、誤差逆伝播学習アルゴリズムである。
Using Equations 11, 12, and 13, the modification of the connection weighting coefficient wij(k-1,k) can be calculated recursively from k=m to k=2. In other words, the error between the ideal output and the actual output at the output layer is wil(k, k
+1) and propagates while calculating the weighted sum. This is the error backpropagation learning algorithm.

【0037】入出力関数fがすべてのユニットに共通で
、数1で与えられる場合、f′は次式で表わされる。
When the input/output function f is common to all units and is given by equation 1, f' is expressed by the following equation.

【0038】[0038]

【数14】[Math. 14]

【0039】数3と数14より、次式が導かれる。From Equations 3 and 14, the following equation is derived.

【0040】[0040]

【数15】[Math. 15]

【0041】なお、学習を滑らかに速く収束させるため
に、数11は次式のように修正することができる。
Note that in order to converge the learning smoothly and quickly, equation 11 can be modified as shown in the following equation.

【0042】[0042]

【数16】[Math. 16]

【0043】ここで、α:小さな正の定数(α=1−ε
としてもよい) t:修正の回数(あるいは時刻(離散))評価システム
4は、学習後のニューラル・ネットワークを評価する。 すなわち、学習により対象システム1の入出力特性を表
わすニューラル・ネットワークが得られるが、このニュ
ーラル・ネットワークを評価する。このために、ユニッ
トの入出力関数を級数展開し、この展開式を用いて、ネ
ットワークを非線形回帰式で表わし、この非線形回帰式
を用いて、ネットワークを評価する。以下、これについ
て、詳細に説明する。なお、評価システム4は、学習後
のニューラル・ネットワークの解析評価のみならずニュ
ーラル・ネットワークの設計にも利用できる。
Here, α: a small positive constant (α=1−ε
) t: number of corrections (or time (discrete)) The evaluation system 4 evaluates the neural network after learning. That is, a neural network representing the input/output characteristics of the target system 1 is obtained through learning, and this neural network is evaluated. For this purpose, the input/output function of the unit is expanded into a series, the network is expressed by a nonlinear regression equation using this expansion, and the network is evaluated using this nonlinear regression equation. This will be explained in detail below. Note that the evaluation system 4 can be used not only for analysis and evaluation of neural networks after learning, but also for designing neural networks.

【0044】関数の級数展開の1つの方法として、テイ
ラー展開があり、これを利用すると、入出力関数f(x
)は、次式により表わされる。
One method of series expansion of a function is Taylor expansion, and when this is used, the input/output function f(x
) is expressed by the following formula.

【0045】[0045]

【数17】[Math. 17]

【0046】数1に示す入出力関数f(x)の導関数は
、次式で表わされ、次数が高くなると急激に式が複雑に
なる。
The derivative of the input/output function f(x) shown in Equation 1 is expressed by the following equation, and as the order increases, the equation becomes rapidly complicated.

【0047】[0047]

【数18】[Math. 18]

【0048】この数18で表わされる導関数のx=x0
 における値を数17に代入すると、f(x)のテイラ
ー展開式が得られる。
x=x0 of the derivative expressed by this number 18
By substituting the value in Equation 17, the Taylor expansion of f(x) is obtained.

【0049】上記f(x)のテイラー展開式の基本式は
、x0 =0における入出力関数f(x)のテイラー展
開式、すなわちマクローリン展開式であり、これについ
て誤差評価する。数17にx0 =0を代入すると、次
式が得られる。
The basic formula of the above Taylor expansion of f(x) is the Taylor expansion of the input/output function f(x) at x0 = 0, that is, the Maclaurin expansion, and errors are evaluated for this. By substituting x0 = 0 into Equation 17, the following equation is obtained.

【0050】[0050]

【数19】[Math. 19]

【0051】また、数18にx=0を代入すると、次式
が導かれる。
Further, by substituting x=0 into Equation 18, the following equation is derived.

【0052】[0052]

【数20】[Math. 20]

【0053】この数20を整理すると、x=0における
入出力関数f(x)の6次までの導関数の値は、次式で
表わされる。
Rearranging this number 20, the value of the derivative up to the sixth order of the input/output function f(x) at x=0 is expressed by the following equation.

【0054】[0054]

【数21】[Math. 21]

【0055】この数21において、しきい値θ=0を代
入すると次式が得られる。
By substituting the threshold value θ=0 into Equation 21, the following equation is obtained.

【0056】[0056]

【数22】[Math. 22]

【0057】また、数21において、しきい値θ=0.
5 及び1を代入すると次式が得られる。
In addition, in Equation 21, the threshold value θ=0.
By substituting 5 and 1, the following formula is obtained.

【0058】[0058]

【数23】[Math. 23]

【0059】[0059]

【数24】[Math. 24]

【0060】数19において、7次以上の項を省略して
、数22,数23,数24を代入すると、次式が導かれ
る。
In Equation 19, by omitting the terms of order 7 or higher and substituting Equation 22, Equation 23, and Equation 24, the following equation is derived.

【0061】[0061]

【数25】[Math. 25]

【0062】[0062]

【数26】[Math. 26]

【0063】[0063]

【数27】[Math. 27]

【0064】ここで、fn(x):f(x)のn次近似
式数25より、しきい値θが零の場合、入出力関数f(
x)のx=0でのテイラー展開式は、奇数次の項のみに
より表わされることが予想される。これに対して、数2
6,数27より、しきい値θが非零の場合、このテイラ
ー展開式は、奇数次及び偶数次の項により表わされるこ
とが分かる。
Here, fn(x): From the n-th approximation formula of f(x) (25), when the threshold value θ is zero, the input/output function f(
The Taylor expansion of x) at x=0 is expected to be expressed only by odd-order terms. On the other hand, the number 2
6. From Equation 27, it can be seen that when the threshold value θ is non-zero, this Taylor expansion equation is expressed by odd-order and even-order terms.

【0065】しきい値θ=0の場合について、入出力関
数f(x)のn次近似式fn(x)数25で求めた近似
値と真値との比較結果を表1及び図4に示す。この表及
び図から、f(x)の値がほぼ0.1〜0.9となるx
の範囲、
For the case where the threshold value θ=0, Table 1 and FIG. show. From this table and figure, it can be seen that x where the value of f(x) is approximately 0.1 to 0.9
range of,

【0066】[0066]

【表1】[Table 1]

【0067】−2≦x≦2において、近似の次数が大き
くなる程精度が良くなることが分かる。すなわち、1次
,3次,5次近似式で、それぞれ、±12%,±5%,
±2%の誤差内の近似値が得られている。
It can be seen that when -2≦x≦2, the accuracy increases as the order of approximation increases. In other words, the first, third, and fifth approximations are ±12%, ±5%, respectively.
Approximate values within ±2% error have been obtained.

【0068】また、しきい値θ=0.5 及び1の場合
について、入出力関数f(x)の6次近似式f6(x)
(数26及び数27で求めた近似値と真値との比較結果
を表2、図5及び表3,図6に示す。これらの表及び図
から、xの範囲が−2≦x≦2において、θ=0.5,
1 の場合の誤差が、それぞれ、±50%,±140%
となり、しきい値θが大きくなる程精度が悪くなること
が分かる。
In addition, for the cases where the threshold value θ=0.5 and 1, the sixth-order approximation formula f6(x) of the input/output function f(x)
(Table 2, Figure 5, Table 3, and Figure 6 show the comparison results between the approximate values and true values obtained using Equations 26 and 27. From these tables and figures, the range of x is -2≦x≦2. , θ=0.5,
1, the error is ±50% and ±140%, respectively.
It can be seen that the larger the threshold value θ, the worse the accuracy.

【0069】[0069]

【表2】[Table 2]

【0070】[0070]

【表3】[Table 3]

【0071】次に、入出力関数f(x)のテイラー展開
式の特性について説明する。
Next, the characteristics of the Taylor expansion of the input/output function f(x) will be explained.

【0072】しきい値θが零の場合、入出力関数f(x
)のx=0でのテイラー展開式は、奇数次の項のみによ
り表わされ、しきい値θが非零の場合は、奇数次及び偶
数次の項により表わされると先に述べたが、先ず、これ
について説明する。
When the threshold value θ is zero, the input/output function f(x
) at x=0 is expressed by only odd-order terms, and when the threshold θ is non-zero, it is expressed by odd-order and even-order terms, First, this will be explained.

【0073】関数g(x)を次式により定義する。The function g(x) is defined by the following equation.

【0074】[0074]

【数28】[Math. 28]

【0075】数28に−xを代入すると、次式が導かれ
る。
By substituting -x into Equation 28, the following equation is derived.

【0076】[0076]

【数29】[Math. 29]

【0077】また、数28の両辺に−1を掛けると、次
式が得られる。
Further, by multiplying both sides of Equation 28 by -1, the following equation is obtained.

【0078】[0078]

【数30】[Math. 30]

【0079】数29,数30より次式が成立つ。From Equations 29 and 30, the following equation holds true.

【0080】[0080]

【数31】[Math. 31]

【0081】数31は、関数g(x)が奇関数であるこ
とを示している。したがって、関数g(x)は、次式で
表わされる。
Equation 31 shows that the function g(x) is an odd function. Therefore, the function g(x) is expressed by the following equation.

【0082】[0082]

【数32】[Math. 32]

【0083】ここで、a2n+1:係数一方、数1と数
28から、次式が成立つ。
Here, a2n+1: Coefficient On the other hand, from Equation 1 and Equation 28, the following equation holds true.

【0084】[0084]

【数33】[Math. 33]

【0085】ここで、h(x):入出力関数f(x)に
おいて、θ=0としたときの関数この数33に数32を
代入すると、次式が得られる。
Here, h(x): Input/output function f(x), function when θ=0. Substituting equation 32 into equation 33, the following equation is obtained.

【0086】[0086]

【数34】[Math. 34]

【0087】数34より、しきい値θが零の場合、入出
力関数f(x)のx=0でのテイラー展開式が奇数次の
項のみにより表わされることが分かる。
From Equation 34, it can be seen that when the threshold value θ is zero, the Taylor expansion of the input/output function f(x) at x=0 is expressed by only odd-order terms.

【0088】次に、数28から次式が導かれる。Next, the following equation is derived from Equation 28.

【0089】[0089]

【数35】[Math. 35]

【0090】数1と数35より、次式が得られる。From equations 1 and 35, the following equation is obtained.

【0091】[0091]

【数36】[Math. 36]

【0092】数36に数32を代入すると、次式が導か
れる。
By substituting the number 32 into the number 36, the following equation is derived.

【0093】[0093]

【数37】[Math. 37]

【0094】数37を変形すると、次式が得られる。By transforming Equation 37, the following equation is obtained.

【0095】[0095]

【数38】[Math. 38]

【0096】ここで、bi :係数(θの関数)数38
より、しきい値θが非零の場合、入出力関数f(x)の
x=0でのテイラー展開式が、奇数次及び偶数次の項に
より表示されることが分かる。
Here, bi: coefficient (function of θ) number 38
From this, it can be seen that when the threshold value θ is non-zero, the Taylor expansion equation of the input/output function f(x) at x=0 is expressed by odd-order and even-order terms.

【0097】さらに、先に、しきい値θが零の場合、入
出力関数f(x)のx=0でのテイラー展開式でxの6
次の項まで使用すると、かなり精度の良い近似値が得ら
れるが、しきい値θが非零の場合は、精度が悪いことが
分かった。しかし、この問題は、容易に解決できる。す
なわち、数33と数1から次式が導かれる。
Furthermore, first, when the threshold value θ is zero, the Taylor expansion of the input/output function f(x) at x=0 is
It was found that if the following terms are used, a fairly accurate approximation value can be obtained, but if the threshold value θ is non-zero, the accuracy is poor. However, this problem can be easily solved. That is, the following equation is derived from Equation 33 and Equation 1.

【0098】[0098]

【数39】[Math. 39]

【0099】数39は、h(x)をθだけ平行移動する
と、f(x)となることを示している。したがって、し
きい値θが非零の場合、入出力関数f(x)のテイラー
展開式で良い精度を得るには、θ=0の場合のf(x)
のx=0でのテイラー展開式をθだけ平行移動し、これ
を使用すればよい。
Equation 39 shows that when h(x) is translated by θ, it becomes f(x). Therefore, when the threshold θ is non-zero, in order to obtain good accuracy with the Taylor expansion of the input/output function f(x), f(x) when θ=0
It is sufficient to translate the Taylor expansion equation at x=0 by θ and use this.

【0100】先に、テイラー展開式を利用して、入出力
関数f(x)の非線形性について検討できることを示し
た。引続いて、このテイラー展開式を利用して、階層型
ニューラル・ネットワークの非線形変換機能について検
討できることを示す。なお、階層型ネットワークのうち
で基本となるのは、3層型ネットワークであり、これを
対象にして説明する。
Previously, it was shown that the nonlinearity of the input/output function f(x) can be studied using the Taylor expansion equation. Next, we show that this Taylor expansion can be used to study the nonlinear transformation function of hierarchical neural networks. Note that the basic type of hierarchical network is a three-layer network, and this will be explained below.

【0101】3層型ネットワークのうちで、比較的単純
な2入力1出力のネットワークについて検討する。図7
にその構成を示す。なお、展開を簡単にするために、入
出力関数f(x)は、全てのユニットで同じ関数を使用
するものとする。
Among the three-layer networks, a relatively simple two-input one-output network will be considered. Figure 7
The structure is shown below. Note that in order to simplify the expansion, it is assumed that the same input/output function f(x) is used in all units.

【0102】先ず、入力層のユニットの出力vj(1)
(j=1,2)は、ネットワークの定義より次式で与え
られる。
First, the output vj(1) of the input layer unit
(j=1, 2) is given by the following equation from the network definition.

【0103】[0103]

【数40】[Math. 40]

【0104】次に、中間層のユニットへの入力の総和u
j(2)(j=1,2,3,…,N)は、次式で与えら
れる。
Next, the sum of inputs to the units in the middle layer u
j(2) (j=1, 2, 3,..., N) is given by the following equation.

【0105】[0105]

【数41】[Math. 41]

【0106】また、中間層のユニットの出力vj(2)
(j=1,2,3,…,N)は、数38で用いると次式
で表わされる。
[0106] Also, the output vj (2) of the unit in the middle layer
(j=1, 2, 3, . . . , N) is expressed by the following equation when used in Equation 38.

【0107】[0107]

【数42】[Math. 42]

【0108】出力層のユニットへの入力の総和uj(3
)(j=1)は、次式で与えられる。
The sum of inputs to the output layer unit uj(3
) (j=1) is given by the following equation.

【0109】[0109]

【数43】[Math. 43]

【0110】また、出力層のユニットの出力vj(3)
(j=1)は、数38を用いると次式で表わされる。
[0110] Also, the output vj (3) of the output layer unit
(j=1) is expressed by the following equation using Equation 38.

【0111】[0111]

【数44】[Math. 44]

【0112】数44に数42を代入すると、次式が得ら
れる。
By substituting equation 42 into equation 44, the following equation is obtained.

【0113】[0113]

【数45】[Math. 45]

【0114】この数45に数40を代入すると、v1(
3)をyと表わすと、次式が導かれる。
[0114] Substituting the number 40 into this number 45, v1(
If 3) is expressed as y, the following equation is derived.

【0115】[0115]

【数46】[Math. 46]

【0116】数46を展開して整理すると共に、次式が
得られる。
By expanding and rearranging Equation 46, the following equation is obtained.

【0117】[0117]

【数47】[Math. 47]

【0118】ここで、bmn:bi ,wij(k,l
)の関数数47より、図7に示すニューラル・ネットワ
ークは、中間層のユニットの個数Nを増加させると、重
み係数w1i(1,2),w2i(1,2),wi1(
2,3)(i=1,2,3,…,N)の個数が増加して
調整の自由度が増加し、より高次で複雑な非線関数を近
似できることが分かる。
Here, bmn:bi, wij(k, l
), the neural network shown in FIG. 7 has weighting coefficients w1i (1, 2), w2i (1, 2), wi1 (
2, 3) (i=1, 2, 3, . . . , N) increases, the degree of freedom of adjustment increases, and it is possible to approximate higher-order and more complex nonlinear functions.

【0119】次に、しきい値ユニットの機能について、
f(x)のテイラー展開式を利用して検討できることを
示す。
Next, regarding the function of the threshold unit,
We will show that it can be studied using the Taylor expansion formula of f(x).

【0120】しきい値ユニットは、常に1を出力し、階
層型ニューラル・ネットワークの各ユニットの入出力関
数のしきい値をユニット毎に変化させる機能がある。す
なわち、これによりユニット毎に入出力関数の平行移動
量を変化させることができる。このしきい値ユニットを
組込んだ2入力1出力ネットワークについて以下検討す
る。図8にその構成を示す。なお、ここでは、入力層の
しきい値ユニットは、入力の個数から除外している。ま
た、展開を簡単にするために、入出力関数f(x)は、
全てのユニットで同じ関数を使用するものとする。
The threshold unit always outputs 1 and has a function of changing the threshold value of the input/output function of each unit of the hierarchical neural network for each unit. That is, this allows the amount of parallel movement of the input/output function to be changed for each unit. A two-input one-output network incorporating this threshold unit will be discussed below. Figure 8 shows its configuration. Note that here, the threshold unit of the input layer is excluded from the number of inputs. Also, to simplify the expansion, the input/output function f(x) is
The same function shall be used in all units.

【0121】先ず、入力層のユニットの出力vj(1)
(j=0,1,2)は、ネットワークの定義より次式で
与えられる。
First, the output vj(1) of the input layer unit
(j=0, 1, 2) is given by the following equation from the network definition.

【0122】[0122]

【数48】[Math. 48]

【0123】次に、中間層のユニットへの入力の総和u
j(2)(j=0,1,2,3,…,N)は次式で与え
られる。
Next, the sum of inputs to the units in the middle layer u
j(2) (j=0, 1, 2, 3,..., N) is given by the following equation.

【0124】[0124]

【数49】[Math. 49]

【0125】[0125]

【数50】[Number 50]

【0126】このとき、中間層のユニットの出力vj(
2)(j=0,1,2,3,…,N)は、数38を用い
ると次式で表わされる。
At this time, the output vj(
2) (j=0, 1, 2, 3,..., N) can be expressed by the following equation using Equation 38.

【0127】[0127]

【数51】[Math. 51]

【0128】また、出力層のユニットへの総和uj(3
)(j=1)は、次式で与えられる。
[0128] Also, the summation uj(3
) (j=1) is given by the following equation.

【0129】[0129]

【数52】[Math. 52]

【0130】このとき、出力層のユニットの出力vj(
3)(j=1)は、数38を用いると次式で表わされる
At this time, the output vj(
3) (j=1) can be expressed by the following equation using Equation 38.

【0131】[0131]

【数53】[Math. 53]

【0132】数53に数51を代入すると、次式が得ら
れる。
By substituting equation 51 into equation 53, the following equation is obtained.

【0133】[0133]

【数54】[Math. 54]

【0134】この数54に数48を代入すると共に、v
1(3)をyと表わすと、次式が導かれる。
[0134] While substituting the number 48 into this number 54, v
If 1(3) is expressed as y, the following equation is derived.

【0135】[0135]

【数55】[Math. 55]

【0136】数55を展開して整理すると、数46を展
開して得られる数47と同形の式が導かれる。この場合
、しきい値ユニットを導入したことにより、数46より
数47の方がw01(2,3),w0i(1,2)(i
=1,2,3,…,N)の分だけ重み係数の個数が増加
し、入出力関数のテイラー展開式を平行移動させる自由
度が増加する。これにより高次で複雑な非線形関数の近
似に大きい調整の自由度が生じて、近似精度が向上する
ことが分かる。
When formula 55 is expanded and rearranged, an expression having the same form as formula 47 obtained by expanding formula 46 is derived. In this case, by introducing the threshold unit, number 47 is better than number 46 with w01 (2, 3), w0i (1, 2) (i
=1, 2, 3, . . . , N), the number of weighting coefficients increases, and the degree of freedom for translating the Taylor expansion of the input/output function increases. It can be seen that this allows a large degree of freedom in adjustment in the approximation of high-order, complex nonlinear functions, and improves the approximation accuracy.

【0137】先に、入出力関数f(x)の非線形性及び
階層型ニューラル・ネットワークの非線形変換機能につ
いてf(x)のテイラー展開式を利用して検討できるこ
とを示した。引続いて、以下の項目について説明する。
Previously, it was shown that the nonlinearity of the input/output function f(x) and the nonlinear transformation function of the hierarchical neural network can be studied using the Taylor expansion equation of f(x). Next, the following items will be explained.

【0138】(1)入出力関数f(x)の高次導関数値
の簡易導出法 (2)ニューラル・ネットワークの他の構成法(3)ニ
ューラル・ネットワークの構造決定の1方法先ず、入出
力関数f(x)の高次導関数値の簡易導出法について説
明する。先に、入出力関数f(x)の6次までの導関数
を導出し、x=0における導関数の値を求めた。 しかしながら、導関数の次数が高くなると急激に式が複
雑になり、式の導出及び値の計算に非常に時間が掛かる
という問題がある。この問題を解決する方法について、
以下、説明する。
(1) A simple method for deriving the higher-order derivative value of the input/output function f(x) (2) Other methods for constructing a neural network (3) One method for determining the structure of a neural network First, input/output A simple method for deriving the higher-order derivative value of the function f(x) will be explained. First, derivatives up to the sixth order of the input/output function f(x) were derived, and the value of the derivative at x=0 was determined. However, there is a problem in that as the order of the derivative increases, the equation rapidly becomes more complex, and it takes a very long time to derive the equation and calculate the value. For information on how to resolve this issue,
This will be explained below.

【0139】先ず、入出力関数f(x)において、θ=
0のときの関数h(x)は、先に説明したように数33
で表わされる。この関数h(x)のマクローリン展開式
は、次式で与えられる。
First, in the input/output function f(x), θ=
The function h(x) when 0 is, as explained earlier, the number 33
It is expressed as The Maclaurin expansion of this function h(x) is given by the following equation.

【0140】[0140]

【数56】[Number 56]

【0141】数56は、次式のように変形できる。[0141] Equation 56 can be transformed as shown in the following equation.

【0142】[0142]

【数57】[Math. 57]

【0143】[0143]

【数58】[Number 58]

【0144】また、数33は、次式のように変形できる
[0144] Furthermore, Equation 33 can be transformed as shown in the following equation.

【0145】[0145]

【数59】[Math. 59]

【0146】[0146]

【数60】[Number 60]

【0147】この数60を数59に代入して整理すると
、次式が導かれる。
By substituting this number 60 into number 59 and rearranging it, the following equation is derived.

【0148】[0148]

【数61】[Number 61]

【0149】数57と数61が等しいとして整理すると
、次式が得られる。
If we rearrange the equations 57 and 61 as being equal, we obtain the following equation.

【0150】[0150]

【数62】[Number 62]

【0151】数62において、両辺のxのn次の係数が
一致するためには、次式が成立つ必要がある。
In Equation 62, in order for the n-th coefficients of x on both sides to match, the following equation must hold.

【0152】[0152]

【数63】[Number 63]

【0153】この数63の一般化式は、次式で表わされ
る。
The generalized equation of number 63 is expressed by the following equation.

【0154】[0154]

【数64】[Number 64]

【0155】さらに数39と数57より、入出力関数f
(x)は、次式で表わされる。
Furthermore, from equations 39 and 57, the input/output function f
(x) is expressed by the following formula.

【0156】[0156]

【数65】[Number 65]

【0157】数64を用いて、cn (n=0,1,…
,14)を求めると、表4に示すようになり、次数nが
大きくなる程係数cn が急速に小さくなることが分か
る。
[0157] Using Equation 64, cn (n=0, 1,...
, 14) as shown in Table 4, and it can be seen that the coefficient cn decreases rapidly as the order n increases.

【0158】[0158]

【表4】[Table 4]

【0159】また、これらの値を用いて、入出力関数f
(x)でθ=0のときの関数h(x)のマクローリン展
開式数57において、n次で打切ったときの近似式、す
なわちn次近似式fn(x)の推定値を求めると表5及
び図9に示すようになる。
[0159] Also, using these values, the input/output function f
In Maclaurin expansion formula number 57 of function h(x) when θ = 0 in 5 and FIG. 9.

【0160】[0160]

【表5】[Table 5]

【0161】この表及び図から、f(x)の値がほぼ0
.1〜0.9となるxの範囲、−2≦x≦2において、
7次,9次,11次,13次近似式で、それぞれ、±0
.78%,±0.32%,±0.13%,±0.05%
の誤差内の近似値が得られることが分かる。すなわち、
近似の打切り次数が大きくなる程精度が良くなることが
分かる。ただ、xの範囲が、−3≦x≦3の場合、7次
,9次,11次,13次近似式でも、それぞれ、±22
%,±20%,±18%,±16.7% の誤差内の近
似値となり、−2≦x≦2の場合と比較して誤差がかな
り大きい。このことから、入出力関数f(x)は、xの
範囲が広がる程非線形度が急激に大きく、非常に高次の
近似式でも誤差は小さくならないことが分かる。
[0161] From this table and figure, the value of f(x) is almost 0.
.. In the range of x from 1 to 0.9, -2≦x≦2,
±0 for 7th, 9th, 11th, and 13th approximations, respectively.
.. 78%, ±0.32%, ±0.13%, ±0.05%
It can be seen that an approximate value within the error of can be obtained. That is,
It can be seen that the larger the truncation order of approximation, the better the accuracy. However, when the range of x is -3≦x≦3, even the 7th, 9th, 11th, and 13th approximations are ±22
%, ±20%, ±18%, ±16.7%, and the error is considerably larger than in the case of -2≦x≦2. From this, it can be seen that the degree of nonlinearity of the input/output function f(x) increases rapidly as the range of x widens, and the error does not decrease even with a very high-order approximation formula.

【0162】次に、ニューラル・ネットワークの他の構
成法について、f(x)のテイラー展開式を利用して検
討できることを説明する。
Next, it will be explained that another method of constructing a neural network can be studied using the Taylor expansion formula of f(x).

【0163】先に、図7に示す3層型ニューラル・ネッ
トワークを対象にして、非線形変換処理機能について検
討できることを説明した。
[0163] Earlier, it was explained that the nonlinear transformation processing function can be studied using the three-layer neural network shown in Fig. 7 as a target.

【0164】このネットワークは、入力層,中間層,出
力層からなり、それぞれの層で、線形,非線形,非線形
の変換を行っている。このため、この構成を線形−非線
形−非線形構成と呼ぶことにする。この構成は、ニュー
ラル・ネットワークの基本構成であるが、他の構成とし
て、(1)線形−非線形−線形構成,(2)線形−線形
−非線形構成も考えられる。f(x)のテイラー展開式
を利用すると、これらの構成についても検討できること
を以下説明する。
[0164] This network consists of an input layer, an intermediate layer, and an output layer, and each layer performs linear, nonlinear, and nonlinear transformations. Therefore, this configuration will be referred to as a linear-nonlinear-nonlinear configuration. This configuration is the basic configuration of a neural network, but other configurations include (1) linear-nonlinear-linear configuration and (2) linear-linear-nonlinear configuration. It will be explained below that these configurations can also be studied by using the Taylor expansion of f(x).

【0165】先ず、線形−非線形−線形構成の場合であ
るが、図10にこの線形−非線形−線形構成のニューラ
ル・ネットワークを示す。なお、入出力の個数は、2入
力1出力とする。また、展開を簡単にするために、入出
力関数f(x)は、全てのユニットで同じ関数を使用す
るものとする。
First, in the case of a linear-nonlinear-linear configuration, FIG. 10 shows a neural network with this linear-nonlinear-linear configuration. Note that the number of inputs and outputs is 2 inputs and 1 output. Furthermore, in order to simplify the expansion, it is assumed that the same input/output function f(x) is used in all units.

【0166】入力層のユニットの出力vj(1)(j=
1,2)は、図7に示す線形−非線形−線形構成と同様
、数40で与えられ、また、中間層のユニットの入力の
総和uj(2)(j=1,2,3,…,N)及び出力v
j(2)(j=1,2,3,…,N)も、それぞれ数4
1及び数42に与えられる。さらに、出力層のユニット
への火力の総和uj(3)(j=1)も、同様に数43
で表わされる。ただし出力層のユニットの出力vj(3
)(j=1)は、次式に示すように、入力の総和uj(
3)(j=1)をそのまま出力した値として求められる
[0166] Output vj (1) of input layer unit (j=
1, 2) is given by equation 40, similar to the linear-nonlinear-linear configuration shown in FIG. N) and output v
j(2) (j=1, 2, 3,..., N) is also the number 4
1 and number 42. Furthermore, the summation uj(3) (j=1) of the firepower to the units in the output layer is similarly expressed as Equation 43.
It is expressed as However, the output vj (3
) (j=1) is the sum of inputs uj(
3) It is obtained as a value that is output as is (j=1).

【0167】[0167]

【数66】[Number 66]

【0168】数42を数66に代入すると、次式が得ら
れる。
By substituting equation 42 into equation 66, the following equation is obtained.

【0169】[0169]

【数67】[Number 67]

【0170】数40を数67に代入すると共に、v1(
3)をyで表わすと、次式が導かれる。
[0170] While substituting the number 40 into the number 67, v1(
When 3) is expressed by y, the following equation is derived.

【0171】[0171]

【数68】[Number 68]

【0172】数68を展開して整理すると、数46を展
開した数47と同形の式が得られる。これより、図10
に示す構成の階層型ネットワークも、図7に示す線形−
非線形−非線形構成のネットワークと同様、中間層のユ
ニットの個数を増加させると、重み係数w1i(1,2
),w2i(1,2),wi1(2,3)(i=1,2
,3,…,N)の個数が増加して調整の自由度が増加し
、より高次で複雑な非線形関数を近似できることが分か
る。ただ、数68より数46の方が、非線形変換を2回
行う分、より非線形度の高い関数を近似できる。
When formula 68 is expanded and rearranged, an expression having the same form as formula 47 obtained by expanding formula 46 is obtained. From this, Figure 10
The hierarchical network with the configuration shown in FIG.
Similar to a network with a nonlinear-nonlinear configuration, when the number of units in the hidden layer increases, the weighting coefficient w1i (1, 2
), w2i (1, 2), wi1 (2, 3) (i=1, 2
, 3, . However, Equation 46 can approximate a function with a higher degree of nonlinearity than Equation 68 because the nonlinear transformation is performed twice.

【0173】次に、線形−線形−非線形構成の場合であ
るが、図11に線形−線形−非線形構成のニューラル・
ネットワークを示す。なお、この場合も、入出力の個数
は、2入力1出力とする。また、展開を簡単にするため
に入出力関数は、全てのユニットで同じ関数を使用する
ものとする。
Next, in the case of a linear-linear-nonlinear configuration, FIG.
Show network. In this case as well, the number of inputs and outputs is 2 inputs and 1 output. Also, in order to simplify the expansion, it is assumed that the same input/output functions are used in all units.

【0174】入力層のユニットの出力vj(1)(j=
1,2)は、図7に示す線形−非線形−非線形構成と同
様、数40で与えられ、中間層のユニットの入力の総和
uj(2)(j=1,2,3,…,N)は、数41で与
えられる。このとき、中間層のユニットの出力vj(2
)(j=1,2,3,…,N)は、次式に示すように入
力の総和uj(2)(j=1,2,3,…,N)をその
まま出力した値として求められる。
Output vj (1) (j=
1, 2) is given by Equation 40, similar to the linear-nonlinear-nonlinear configuration shown in FIG. is given by equation 41. At this time, the output vj(2
) (j = 1, 2, 3, ..., N) is obtained as the value obtained by outputting the input summation uj (2) (j = 1, 2, 3, ..., N) as is, as shown in the following formula. .

【0175】[0175]

【数69】[Number 69]

【0176】また、出力層のユニットへの入力層の総和
uj(3)(j=1)は、図7に示す線形−非線形−非
線形構成と同様数43で与えられる。さらに、出力層の
ユニットの出力vj(3)(j=1)は、同様に数44
で表わされる。数69を数44に代入すると、次式が得
られる。
Further, the summation uj(3) (j=1) of the input layer to the unit of the output layer is given by Equation 43 as in the linear-nonlinear-nonlinear configuration shown in FIG. Furthermore, the output vj(3) (j=1) of the unit in the output layer is similarly expressed by the equation 44.
It is expressed as By substituting the number 69 into the number 44, the following equation is obtained.

【0177】[0177]

【数70】[Number 70]

【0178】数40を数70に代入すると共に、v1(
3)をyと表わすと、次式が導かれる。
[0178] While substituting the number 40 into the number 70, v1(
If 3) is expressed as y, the following equation is derived.

【0179】[0179]

【数71】[Math. 71]

【0180】数71は、展開して整理すると、数46を
展開した数47と同形の式が得られる。しかしながら、
この場合は、数46と違って、中間層のユニットの個数
を増加させても非線形関数の近似の自由度は増加せず、
任意の高次非線形関数の近似は難しい。すなわち、数7
1は、次式のように変形できる。
When Equation 71 is expanded and rearranged, an expression having the same form as Equation 47 obtained by expanding Equation 46 is obtained. however,
In this case, unlike Equation 46, increasing the number of units in the intermediate layer does not increase the degree of freedom in approximating the nonlinear function.
Approximating arbitrary high-order nonlinear functions is difficult. In other words, number 7
1 can be transformed as shown in the following equation.

【0181】[0181]

【数72】[Number 72]

【0182】[0182]

【数73】[Number 73]

【0183】数72のパラメータは、実質W1,W2の
2個であり、中間層のユニットの個数を2個以上にして
も、自由度はユニット1個の場合と同じである。
There are actually two parameters, W1 and W2, in Equation 72, and even if the number of units in the intermediate layer is two or more, the degree of freedom is the same as in the case of one unit.

【0184】次に、ニューラル・ネットワークの構造決
定の1方法について、f(x)のテイラー展開式を利用
して検討できることを説明する。
Next, it will be explained that one method for determining the structure of a neural network can be studied using the Taylor expansion formula of f(x).

【0185】階層型ネットワークにより実現される非線
形関数の特性は、層の個数,各層のユニットの個数,重
み係数が変わると変化する。したがって、これらを調整
することにより、目的に適合する特性を持った非線形関
数が得られる。このうち、重み係数の調整は、学習によ
り実現できる。しかしながら、層の個数,各層のユニッ
トの個数の調整は、試行錯誤的に実施している。ここで
は、これらのうち中間層のユニットの個数決定のための
1つの方法を提案する。
The characteristics of the nonlinear function realized by the hierarchical network change when the number of layers, the number of units in each layer, and the weighting coefficient change. Therefore, by adjusting these, a nonlinear function with characteristics suitable for the purpose can be obtained. Of these, adjustment of the weighting coefficients can be realized by learning. However, the number of layers and the number of units in each layer are adjusted by trial and error. Here, we propose one method for determining the number of units in the middle layer.

【0186】説明を簡単にするために、図12に示す線
形−非線形−線形構成の1入力1出力系を考える。この
とき、入力xと出力yの関係は、数68から導かれ、次
式で表わされる。
To simplify the explanation, consider a one-input, one-output system with a linear-nonlinear-linear configuration shown in FIG. At this time, the relationship between the input x and the output y is derived from Equation 68 and is expressed by the following equation.

【0187】[0187]

【数74】[Number 74]

【0188】数74を書下すと、次式が得られる。By writing down Equation 74, the following equation is obtained.

【0189】[0189]

【数75】[Number 75]

【0190】図12に示すニューラル・ネットワークで
模擬する関数として、次式で表わされる関数を考える。
As a function to be simulated by the neural network shown in FIG. 12, consider a function expressed by the following equation.

【0191】[0191]

【数76】[Number 76]

【0192】ここで、di :係数 数75と数76を一致させるには、次式が成立つ必要が
ある。
Here, di : In order to match the number of coefficients 75 and 76, the following equation needs to hold true.

【0193】[0193]

【数77】[Number 77]

【0194】数76で表わされる関数のxの6次以上の
係数が零(d6=d7=d8=…=0)の場合、数77
は、7個の式から成る連立方程式となる。ただし、この
範囲として、入出力関数f(x)で6次以上の係数の影
響が小さい範囲を考える。この連立方程式は、中間層の
ユニットの個数により未知数(重み係数)の個数が変化
し、それにより解決が求まるかどうかが決まる。
[0194] When the coefficient of the sixth order or higher of x of the function expressed by Equation 76 is zero (d6=d7=d8=...=0), Equation 77
is a simultaneous equation consisting of seven equations. However, as this range, consider a range in which the influence of coefficients of order 6 or higher is small in the input/output function f(x). In this simultaneous equation, the number of unknowns (weighting coefficients) changes depending on the number of units in the intermediate layer, and this determines whether or not a solution can be found.

【0195】[0195]

【表6】[Table 6]

【0196】この関数を表6に示す。この表から分かる
よう、中間層のユニットの個数が3個以下の場合は、未
知数(重み係数)の個数が6個以下となり、式の個数よ
り未知数の個数が小さいので解は求まらない。ところが
、中間層のユニットの個数が4個以上の場合は、未知数
(重み係数)の個数が8個以上となり、式の個数より未
知の個数が大きくなり解は求まる。ただ、未知数の個数
と式の個数の差だけ自由度があり、この差の個数分の未
知数を任意に指定できる。このことは、誤差逆伝播学習
アルゴリズムにより重み係数を決定する場合、初期値に
より重み係数の収束値が異なることと対応している。
This function is shown in Table 6. As can be seen from this table, when the number of units in the intermediate layer is 3 or less, the number of unknowns (weighting coefficients) is 6 or less, and the number of unknowns is smaller than the number of equations, so a solution cannot be found. However, when the number of units in the intermediate layer is four or more, the number of unknowns (weighting coefficients) is eight or more, and the number of unknowns becomes larger than the number of equations, and a solution can be found. However, there is a degree of freedom equal to the difference between the number of unknowns and the number of equations, and you can arbitrarily specify as many unknowns as this difference. This corresponds to the fact that when weighting coefficients are determined by an error backpropagation learning algorithm, the convergence value of the weighting coefficients differs depending on the initial value.

【0197】[0197]

【発明の効果】本発明によれば、入出力関数の級数展開
式を利用して、ニューラル・ネットワークを非線形回帰
式で表わすことにより、ネットワークの入出力間の因果
関係が明瞭になる。
According to the present invention, by expressing a neural network as a nonlinear regression equation using a series expansion equation of an input/output function, the causal relationship between the input and output of the network becomes clear.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】階層型ニューラル・ネットワークの一例を示す
構成図である。
FIG. 1 is a configuration diagram showing an example of a hierarchical neural network.

【図2】階層型ニューラル・ネットワークのユニットの
一例を示す構成図である。
FIG. 2 is a configuration diagram showing an example of a unit of a hierarchical neural network.

【図3】本発明の一実施例を示す図である。FIG. 3 is a diagram showing an embodiment of the present invention.

【図4】入出力関数と近似式とを比較したグラフである
FIG. 4 is a graph comparing input/output functions and approximate expressions.

【図5】他の入出力関数と近似式とを比較したグラフで
ある。
FIG. 5 is a graph comparing other input/output functions and approximate expressions.

【図6】他の入出力関数と近似式とを比較したグラフで
ある。
FIG. 6 is a graph comparing other input/output functions and approximate expressions.

【図7】2入力1出力の3層型ネットワークの一例を示
す構成図である。
FIG. 7 is a configuration diagram showing an example of a three-layer network with two inputs and one output.

【図8】しきい値ユニットを組込んだ2入力1出力の3
層型ネットワークの一例を示す構成図である。
[Figure 8] 2-input 1-output 3 with built-in threshold unit
FIG. 1 is a configuration diagram showing an example of a layered network.

【図9】入出力関数と近似式とを比較したグラフである
FIG. 9 is a graph comparing input/output functions and approximate expressions.

【図10】2入力1出力の3層型ネットワークの別の例
を示す構成図である。
FIG. 10 is a configuration diagram showing another example of a three-layer network with two inputs and one output.

【図11】2入力1出力の3層型ネットワークの別の例
を示す構成図である。
FIG. 11 is a configuration diagram showing another example of a three-layer network with two inputs and one output.

【図12】1入力1出力の3層型ネットワークの一例を
示す構成図である。
FIG. 12 is a configuration diagram showing an example of a three-layer network with one input and one output.

【符号の説明】[Explanation of symbols]

f(x)…入出力関数。 f(x)...input/output function.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】ニューロンをモデル化したユニットの階層
状結合により構成したニューラル・ネットワークの応用
システムにおいて、前記ユニットの入出力関数を級数展
開し、この展開式を用いて、ネットワークを非線形回帰
式で表わすことを特徴とするニューラル・ネットワーク
の評価方法。
Claim 1: An application system of a neural network configured by a hierarchical combination of units modeled on neurons, in which the input/output functions of the units are expanded into a series, and this expansion formula is used to form the network using a nonlinear regression formula. A method for evaluating neural networks characterized by the representation of neural networks.
【請求項2】請求項1において、ユニットの入出力関数
としてシグモイド状関数を使用することを特徴とするニ
ューラル・ネットワークの評価方法。
2. A neural network evaluation method according to claim 1, characterized in that a sigmoidal function is used as an input/output function of the unit.
【請求項3】請求項1において、ユニットの入出力関数
の級数展開式としてテイラー展開式を使用することを特
徴とするニューラル・ネットワークの評価方法。
3. A neural network evaluation method according to claim 1, characterized in that a Taylor expansion is used as a series expansion of the input/output function of the unit.
【請求項4】請求項1において、ニューラル・ネットワ
ークの非線形回帰式表現をニューラル・ネットワークの
解析に使用することを特徴とするニューラル・ネットワ
ークの評価方法。
4. A method for evaluating a neural network according to claim 1, characterized in that a nonlinear regression expression of the neural network is used for analysis of the neural network.
【請求項5】請求項1において、ニューラル・ネットワ
ークの非線形回帰式表現をニューラル・ネットワークの
設計に使用することを特徴とするニューラル・ネットワ
ークの評価方法。
5. A method for evaluating a neural network according to claim 1, characterized in that a nonlinear regression expression of the neural network is used in designing the neural network.
【請求項6】請求項1において、ニューラル・ネットワ
ークの非線形回帰表現をニューラル・ネットワークから
の知識獲得に使用することを特徴とするニューラル・ネ
ットワークの評価方法。
6. The neural network evaluation method according to claim 1, wherein a nonlinear regression expression of the neural network is used to acquire knowledge from the neural network.
JP03070004A 1991-04-02 1991-04-02 Evaluation method of neural network Expired - Lifetime JP3132027B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03070004A JP3132027B2 (en) 1991-04-02 1991-04-02 Evaluation method of neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03070004A JP3132027B2 (en) 1991-04-02 1991-04-02 Evaluation method of neural network

Publications (2)

Publication Number Publication Date
JPH04305785A true JPH04305785A (en) 1992-10-28
JP3132027B2 JP3132027B2 (en) 2001-02-05

Family

ID=13419030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03070004A Expired - Lifetime JP3132027B2 (en) 1991-04-02 1991-04-02 Evaluation method of neural network

Country Status (1)

Country Link
JP (1) JP3132027B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020535569A (en) * 2017-09-25 2020-12-03 日産自動車株式会社 Machine vision system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020535569A (en) * 2017-09-25 2020-12-03 日産自動車株式会社 Machine vision system

Also Published As

Publication number Publication date
JP3132027B2 (en) 2001-02-05

Similar Documents

Publication Publication Date Title
Malek et al. Numerical solution for high order differential equations using a hybrid neural network—optimization method
Chen et al. Regularized orthogonal least squares algorithm for constructing radial basis function networks
Kůrková et al. Representations and rates of approximation of real-valued Boolean functions by neural networks
Ujang et al. Split quaternion nonlinear adaptive filtering
Asady et al. Utilizing artificial neural network approach for solving two-dimensional integral equations
Janczak Neural network approach for identification of Hammerstein systems
Carroll Adding filters to improve reservoir computer performance
JP3374476B2 (en) Neural network construction method
JP2862337B2 (en) How to build a neural network
JPH07191951A (en) Neural network circuit
JPH04305785A (en) Method for evaluating neural network
Neville et al. Transformations of sigma–pi nets: obtaining reflected functions by reflecting weight matrices
JPH04229362A (en) Learning machine
Davidson et al. Template learning in morphological neural nets
Horváth et al. CMAC neural network with improved generalization property for system modeling
Shi et al. OSNet: A neural network implementation of order statistic filters
Banakar et al. Generalized Wavelet Neural Network Model and its Application in Time Series Prediction
Huang et al. Solving linear simultaneous equations by constraining learning neural networks
Khalaf et al. A cascade form predictor of neural and FIR filters and its minimum size estimation based on nonlinearity analysis of time series
Chen Representation, approximation, and identification
Neretin On the correspondence between boson Fock space and the L2 space with respect to Poisson measure
Vai A massively parallel reverse modeling approach for semiconductor devices and circuits
JP3328953B2 (en) Nonlinear synaptic neuron, device thereof and prediction method using the same
JPH04505678A (en) Parallel distributed processing network featuring information storage matrix
Cincotti Approximation properties of a PWL circuit model of hysteresis

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071124

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091124

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 11