JP3132027B2 - ニューラル・ネットワークの評価方法 - Google Patents

ニューラル・ネットワークの評価方法

Info

Publication number
JP3132027B2
JP3132027B2 JP03070004A JP7000491A JP3132027B2 JP 3132027 B2 JP3132027 B2 JP 3132027B2 JP 03070004 A JP03070004 A JP 03070004A JP 7000491 A JP7000491 A JP 7000491A JP 3132027 B2 JP3132027 B2 JP 3132027B2
Authority
JP
Japan
Prior art keywords
equation
input
output
neural network
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP03070004A
Other languages
English (en)
Other versions
JPH04305785A (ja
Inventor
正英 野村
久典 宮垣
栄二 遠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP03070004A priority Critical patent/JP3132027B2/ja
Publication of JPH04305785A publication Critical patent/JPH04305785A/ja
Application granted granted Critical
Publication of JP3132027B2 publication Critical patent/JP3132027B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラル・ネットワ
ークの評価方法に係り、特に、階層型ニューラル・ネッ
トワークの入出力信号間の因果関係を明確にし、階層型
ニューラル・ネットワークの評価するに好適なニューラ
ル・ネットワークの評価方法に関する。
【0002】
【従来の技術】階層型ニューラル・ネットワークは、ニ
ューロンをモデル化したユニットの階層状結合により構
成され、入力信号を非線形変換でき、この非線形変換の
関数形を学習により構築できる特徴がある。このため、
この特徴を利用して、“ニューラル・コンピュータ”
(東京電気大学出版局、昭和63−4)、“ニューラル
・ネットワーク情報処理”(産業図書、昭和63−7)
に記載されているように、種々の分野への応用が試みら
れている。
【0003】階層型ニューラル・ネットワークの構成例
及びユニットの構成を、それぞれ図1,図2に示す。前
記非線形変換の機能は、ユニットの入出力関数f(x)
の非線形性に依存しており、次式で表わされる関数が一
般的に使用されている。
【0004】
【数1】
【0005】ここで、x:入力 θ:しきい値 この入出力関数f(x)の非線形性及びネットワークの
非線形変換機能については、“ニューラル・ネットワー
クによる連続写像の近似実現について”(電子情報通信
学会技術研究報告,MBE88−9,1988−4),
“ニューラル・ネットワークのcapabilityについて”
(電子情報通信学会技術研究報告、MBE88−52,
1988−7)に記載されているように、数学理論の面
から検討され、階層型ニューラル・ネットワークが連続
写像の実現機構としてある種の万能性を持っていること
が証明されている。
【0006】
【発明が解決しようとする課題】上記従来技術は、階層
型ニューラル・ネットワークが連続写像の実現機構とし
てある種の万能性を持っていることを証明しているが、
ある連続写像を近似する階層型ニューラル・ネットワー
クの設計について、具体的な方法を提供していない。ま
た、学習により形成されたネットワークから入出力関係
の構造を抽出するための理論的背景も与えられていな
い。このため、従来は、ネットワークは、ブラック・ボ
ックスとして扱われていた。
【0007】本発明の目的は、階層状に結合された夫々
のユニットの入出力関数を級数展開し、この級数展開さ
れた入出力関数の式を用い、階層型ニューラル・ネット
ワークを非線形回帰式で表し、入出力信号間の因果関係
を明瞭にし、階層型ニューラル・ネットワークを評価す
るニューラル・ネットワークの評価方法を提供すること
にある。
【0008】
【課題を解決するための手段】本発明のニューラル・ネ
ットワークの評価方法は、ニューロンをモデル化したユ
ニットの階層状結合により構成し、対象システムの入出
力特性を表す階層型ニューラル・ネットワークを評価す
るニューラル・ネットワークの評価方法において、 階層
状に結合された夫々のユニットの入出力関数を級数展開
し、この級数展開された入出力関数の式に基づき階層型
ニューラル・ネットワークの入出力信号間の因果関係を
非線形回帰式で表わし、この非線形回帰式により階層型
ニューラル・ネットワークを評価することを特徴とす
る。
【0009】
【作用】ニューロンをモデル化したユニットの階層状結
合により構成し、対象システムの入出力特性を表す階層
型ニューラル・ネットワークを評価するニューラル・ネ
ットワークの評価方法において、階層状に結合された夫
々のユニットの入出力関数を級数展開し、この級数展開
された入出力関数の式に基づき階層型ニューラル・ネッ
トワークの入出力信号間の因果関係を非線形回帰式で表
わし、この非線形回帰式により階層型ニューラル・ネッ
トワークを評価することにより、階層状に結合された夫
々のユニットの入出力関数を級数展開し、この級数展開
された入出力関数の式を用い、階層型ニューラル・ネッ
トワークを非線形回帰式で表し、入出力信号間の因果関
係を明瞭にし、階層型ニューラル・ネットワークを評価
するニューラル・ネットワークの評価方法を提供するこ
とができる。
【0010】
【実施例】以下、本発明の一実施例を図3により説明す
る。本実施例は、対象システム1の入出力特性をニュー
ラル・ネットワークに学習させる学習システム2,学習
後のニューラル・ネットワークにより対象システム1の
入出力特性を推定する推定システム3,学習後のニュー
ラル・ネットワークを評価する評価システム4、から構
成される。
【0011】対象システム1は、プラント等のように入
力に対して出力が対応付けられるものであれば、どのよ
うなものでもよい。
【0012】推定システム3は、階層型ニューラル・ネ
ットワークを用いて、対象システム1の入力x(ベクト
ル)に対する出力y(ベクトル)を推定する。この関係
は、次式で表わされる。
【0013】
【数2】
【0014】ここで、g:非線形関係(ベクトル) y:出力yの推定値(ベクトル) 階層型ニューラル・ネットワークは、図1に示すよう
に、図2に示すユニットの階層状結合により構成され
る。各層のユニットの入出力関係は、次式で表わされ
る。
【0015】
【数3】
【0016】
【数4】
【0017】ここで、uj(k):第k層の第jユニッ
トへの入力の総和 vj(k):第k層の第jユニットの出力 wij(k−1,k):第(k−1)層の第iユニットか
ら第k層の第jユニットへの結合の重み係数 f:各ユニットの入出力関数を与える関数(入出力関
数) なお、第1層(入力層)の各ユニットは、ユニットの入
力と同じものを出力する。数2の非線形関数gの特性
は、層の個数,各層のユニットの個数、重み係数w
ij(k−1,k)が変わると変化する。したがって、こ
れらを調整することにより、対象システム1の入出力特
性を表わす非線形関数gが得られる。特に、この重み係
数wij(k−1,k)の調整は、学習により実現でき
る。
【0018】学習システム2は、対象システム1の入出
力特性を表わす非線形関数gを学習により構築する。次
に、この学習のアルゴリズムについて説明する。
【0019】先ず、学習用データとして入出力の組(x
t,yt)が与えられたとき、次式に示す誤差の2乗和を
損失関数rとして定義する。
【0020】
【数5】
【0021】ここで、w:ニューラル・ネットワークの
結合の重み係数をすべてまとめたもの vj(m)(w,xt):入力xt と重みwから総合的に
得られる第n層(出力層)の第jユニットの出力 wの修正量Δwは、損失関数rのwについての勾配(gr
adient)から求められ、次式で表わされる。
【0022】
【数6】
【0023】数6の右辺の▽r の各成分は、次式のよう
に変形できる。
【0024】
【数7】
【0025】数7に数4を代入して整理すると、次式が
導かれる。
【0026】
【数8】
【0027】k≠mのとき、数8の右辺の∂r/∂u
j(k)は、次式により求められる。
【0028】
【数9】
【0029】数9に数3,数4を代入して、整理すると
次式が得られる。
【0030】
【数10】
【0031】ここで、f′:fの導関数 ∂r/∂uj(k)=dj(k)とおくと、数6,数10
は、次式で表わされる。
【0032】
【数11】
【0033】
【数12】
【0034】また、k=mのとき、∂r/∂uj(m)=
j(m)は、数5より次式で求められる。
【0035】
【数13】
【0036】数11,数12,数13を用いると、結合
の重み係数wij(k−1,k)の修正が、k=mからk
=2に向って、再帰的に計算できる。すなわち、出力層
での理想出力と実際の出力との誤差が、出力層から入力
層の方向へ、信号の伝播と逆の方向にwil(k,k+
1)で重み付けた和をとりながら伝播していく。これ
が、誤差逆伝播学習アルゴリズムである。
【0037】入出力関数fがすべてのユニットに共通
で、数1で与えられる場合、f′は次式で表わされる。
【0038】
【数14】
【0039】数3と数14より、次式が導かれる。
【0040】
【数15】
【0041】なお、学習を滑らかに速く収束させるため
に、数11は次式のように修正することができる。
【0042】
【数16】
【0043】ここで、α:小さな正の定数(α=1−ε
としてもよい) t:修正の回数(あるいは時刻(離散)) 評価システム4は、学習後のニューラル・ネットワーク
を評価する。すなわち、学習により対象システム1の入
出力特性を表わすニューラル・ネットワークが得られる
が、このニューラル・ネットワークを評価する。このた
めに、ユニットの入出力関数を級数展開し、この展開式
を用いて、ネットワークを非線形回帰式で表わし、この
非線形回帰式を用いて、ネットワークを評価する。以
下、これについて、詳細に説明する。なお、評価システ
ム4は、学習後のニューラル・ネットワークの解析評価
のみならずニューラル・ネットワークの設計にも利用で
きる。
【0044】関数の級数展開の1つの方法として、テイ
ラー展開があり、これを利用すると、入出力関数f
(x)は、次式により表わされる。
【0045】
【数17】
【0046】数1に示す入出力関数f(x)の導関数
は、次式で表わされ、次数が高くなると急激に式が複雑
になる。
【0047】
【数18】
【0048】この数18で表わされる導関数のx=x0
における値を数17に代入すると、f(x)のテイラー
展開式が得られる。
【0049】上記f(x)のテイラー展開式の基本式は、
0 =0における入出力関数f(x)のテイラー展開式、
すなわちマクローリン展開式であり、これについて誤差
評価する。数17にx0 =0を代入すると、次式が得ら
れる。
【0050】
【数19】
【0051】また、数18にx=0を代入すると、次式
が導かれる。
【0052】
【数20】
【0053】この数20を整理すると、x=0における
入出力関数f(x)の6次までの導関数の値は、次式で
表わされる。
【0054】
【数21】
【0055】この数21において、しきい値θ=0を代
入すると次式が得られる。
【0056】
【数22】
【0057】また、数21において、しきい値θ=0.
5 及び1を代入すると次式が得られる。
【0058】
【数23】
【0059】
【数24】
【0060】数19において、7次以上の項を省略し
て、数22,数23,数24を代入すると、次式が導か
れる。
【0061】
【数25】
【0062】
【数26】
【0063】
【数27】
【0064】ここで、fn(x):f(x)のn次近似式 数25より、しきい値θが零の場合、入出力関数f
(x)のx=0でのテイラー展開式は、奇数次の項のみ
により表わされることが予想される。これに対して、数
26,数27より、しきい値θが非零の場合、このテイ
ラー展開式は、奇数次及び偶数次の項により表わされる
ことが分かる。
【0065】しきい値θ=0の場合について、入出力関
数f(x)のn次近似式fn(x)数25で求めた近似値
と真値との比較結果を表1及び図4に示す。この表及び
図から、f(x)の値がほぼ0.1〜0.9となるxの範
囲、
【0066】
【表1】
【0067】−2≦x≦2において、近似の次数が大き
くなる程精度が良くなることが分かる。すなわち、1
次,3次,5次近似式で、それぞれ、±12%,±5
%,±2%の誤差内の近似値が得られている。
【0068】また、しきい値θ=0.5 及び1の場合に
ついて、入出力関数f(x)の6次近似式f6(x)(数
26及び数27で求めた近似値と真値との比較結果を表
2、図5及び表3,図6に示す。これらの表及び図か
ら、xの範囲が−2≦x≦2において、θ=0.5,1
の場合の誤差が、それぞれ、±50%,±140%とな
り、しきい値θが大きくなる程精度が悪くなることが分
かる。
【0069】
【表2】
【0070】
【表3】
【0071】次に、入出力関数f(x)のテイラー展開
式の特性について説明する。
【0072】しきい値θが零の場合、入出力関数f
(x)のx=0でのテイラー展開式は、奇数次の項のみ
により表わされ、しきい値θが非零の場合は、奇数次及
び偶数次の項により表わされると先に述べたが、先ず、
これについて説明する。
【0073】関数g(x)を次式により定義する。
【0074】
【数28】
【0075】数28に−xを代入すると、次式が導かれ
る。
【0076】
【数29】
【0077】また、数28の両辺に−1を掛けると、次
式が得られる。
【0078】
【数30】
【0079】数29,数30より次式が成立つ。
【0080】
【数31】
【0081】数31は、関数g(x)が奇関数であるこ
とを示している。したがって、関数g(x)は、次式で
表わされる。
【0082】
【数32】
【0083】ここで、a2n+1:係数 一方、数1と数28から、次式が成立つ。
【0084】
【数33】
【0085】ここで、h(x):入出力関数f(x)に
おいて、θ=0としたときの関数この数33に数32を
代入すると、次式が得られる。
【0086】
【数34】
【0087】数34より、しきい値θが零の場合、入出
力関数f(x)のx=0でのテイラー展開式が奇数次の
項のみにより表わされることが分かる。
【0088】次に、数28から次式が導かれる。
【0089】
【数35】
【0090】数1と数35より、次式が得られる。
【0091】
【数36】
【0092】数36に数32を代入すると、次式が導か
れる。
【0093】
【数37】
【0094】数37を変形すると、次式が得られる。
【0095】
【数38】
【0096】ここで、bi :係数(θの関数) 数38より、しきい値θが非零の場合、入出力関数f
(x)のx=0でのテイラー展開式が、奇数次及び偶数次
の項により表示されることが分かる。
【0097】さらに、先に、しきい値θが零の場合、入
出力関数f(x)のx=0でのテイラー展開式でxの6次
の項まで使用すると、かなり精度の良い近似値が得られ
るが、しきい値θが非零の場合は、精度が悪いことが分
かった。しかし、この問題は、容易に解決できる。すな
わち、数33と数1から次式が導かれる。
【0098】
【数39】
【0099】数39は、h(x)をθだけ平行移動する
と、f(x)となることを示している。したがって、しき
い値θが非零の場合、入出力関数f(x)のテイラー展開
式で良い精度を得るには、θ=0の場合のf(x)のx=
0でのテイラー展開式をθだけ平行移動し、これを使用
すればよい。
【0100】先に、テイラー展開式を利用して、入出力
関数f(x)の非線形性について検討できることを示し
た。引続いて、このテイラー展開式を利用して、階層型
ニューラル・ネットワークの非線形変換機能について検
討できることを示す。なお、階層型ネットワークのうち
で基本となるのは、3層型ネットワークであり、これを
対象にして説明する。
【0101】3層型ネットワークのうちで、比較的単純
な2入力1出力のネットワークについて検討する。図7
にその構成を示す。なお、展開を簡単にするために、入
出力関数f(x)は、全てのユニットで同じ関数を使用す
るものとする。
【0102】先ず、入力層のユニットの出力vj(1)(j
=1,2)は、ネットワークの定義より次式で与えられ
る。
【0103】
【数40】
【0104】次に、中間層のユニットへの入力の総和u
j(2)(j=1,2,3,…,N)は、次式で与えられ
る。
【0105】
【数41】
【0106】また、中間層のユニットの出力vj(2)(j
=1,2,3,…,N)は、数38で用いると次式で表
わされる。
【0107】
【数42】
【0108】出力層のユニットへの入力の総和uj(3)
(j=1)は、次式で与えられる。
【0109】
【数43】
【0110】また、出力層のユニットの出力vj(3)(j
=1)は、数38を用いると次式で表わされる。
【0111】
【数44】
【0112】数44に数42を代入すると、次式が得ら
れる。
【0113】
【数45】
【0114】この数45に数40を代入すると、v
1(3)をyと表わすと、次式が導かれる。
【0115】
【数46】
【0116】数46を展開して整理すると共に、次式が
得られる。
【0117】
【数47】
【0118】ここで、bmn:bi ,wij(k,l)の関数 数47より、図7に示すニューラル・ネットワークは、
中間層のユニットの個数Nを増加させると、重み係数w
1i(1,2),w2i(1,2),wi1(2,3)(i=1,
2,3,…,N)の個数が増加して調整の自由度が増加
し、より高次で複雑な非線関数を近似できることが分か
る。
【0119】次に、しきい値ユニットの機能について、
f(x)のテイラー展開式を利用して検討できることを示
す。
【0120】しきい値ユニットは、常に1を出力し、階
層型ニューラル・ネットワークの各ユニットの入出力関
数のしきい値をユニット毎に変化させる機能がある。す
なわち、これによりユニット毎に入出力関数の平行移動
量を変化させることができる。このしきい値ユニットを
組込んだ2入力1出力ネットワークについて以下検討す
る。図8にその構成を示す。なお、ここでは、入力層の
しきい値ユニットは、入力の個数から除外している。ま
た、展開を簡単にするために、入出力関数f(x)は、全
てのユニットで同じ関数を使用するものとする。
【0121】先ず、入力層のユニットの出力vj(1)(j
=0,1,2)は、ネットワークの定義より次式で与え
られる。
【0122】
【数48】
【0123】次に、中間層のユニットへの入力の総和u
j(2)(j=0,1,2,3,…,N)は次式で与えられ
る。
【0124】
【数49】
【0125】
【数50】
【0126】このとき、中間層のユニットの出力v
j(2)(j=0,1,2,3,…,N)は、数38を用い
ると次式で表わされる。
【0127】
【数51】
【0128】また、出力層のユニットへの総和uj(3)
(j=1)は、次式で与えられる。
【0129】
【数52】
【0130】このとき、出力層のユニットの出力v
j(3)(j=1)は、数38を用いると次式で表わされ
る。
【0131】
【数53】
【0132】数53に数51を代入すると、次式が得ら
れる。
【0133】
【数54】
【0134】この数54に数48を代入すると共に、v
1(3)をyと表わすと、次式が導かれる。
【0135】
【数55】
【0136】数55を展開して整理すると、数46を展
開して得られる数47と同形の式が導かれる。この場
合、しきい値ユニットを導入したことにより、数46よ
り数47の方がw01(2,3),w0i(1,2)(i=1,
2,3,…,N)の分だけ重み係数の個数が増加し、入
出力関数のテイラー展開式を平行移動させる自由度が増
加する。これにより高次で複雑な非線形関数の近似に大
きい調整の自由度が生じて、近似精度が向上することが
分かる。
【0137】先に、入出力関数f(x)の非線形性及び階
層型ニューラル・ネットワークの非線形変換機能につい
てf(x)のテイラー展開式を利用して検討できることを
示した。引続いて、以下の項目について説明する。
【0138】(1)入出力関数f(x)の高次導関数値の簡
易導出法 (2)ニューラル・ネットワークの他の構成法 (3)ニューラル・ネットワークの構造決定の1方法 先ず、入出力関数f(x)の高次導関数値の簡易導出法に
ついて説明する。先に、入出力関数f(x)の6次までの
導関数を導出し、x=0における導関数の値を求めた。
しかしながら、導関数の次数が高くなると急激に式が複
雑になり、式の導出及び値の計算に非常に時間が掛かる
という問題がある。この問題を解決する方法について、
以下、説明する。
【0139】先ず、入出力関数f(x)において、θ=0
のときの関数h(x)は、先に説明したように数33で表
わされる。この関数h(x)のマクローリン展開式は、次
式で与えられる。
【0140】
【数56】
【0141】数56は、次式のように変形できる。
【0142】
【数57】
【0143】
【数58】
【0144】また、数33は、次式のように変形でき
る。
【0145】
【数59】
【0146】
【数60】
【0147】この数60を数59に代入して整理する
と、次式が導かれる。
【0148】
【数61】
【0149】数57と数61が等しいとして整理する
と、次式が得られる。
【0150】
【数62】
【0151】数62において、両辺のxのn次の係数が
一致するためには、次式が成立つ必要がある。
【0152】
【数63】
【0153】この数63の一般化式は、次式で表わされ
る。
【0154】
【数64】
【0155】さらに数39と数57より、入出力関数f
(x)は、次式で表わされる。
【0156】
【数65】
【0157】数64を用いて、cn (n=0,1,…,
14)を求めると、表4に示すようになり、次数nが大
きくなる程係数cn が急速に小さくなることが分かる。
【0158】
【表4】
【0159】また、これらの値を用いて、入出力関数f
(x)でθ=0のときの関数h(x)のマクローリン展開式
数57において、n次で打切ったときの近似式、すなわ
ちn次近似式fn(x)の推定値を求めると表5及び図9
に示すようになる。
【0160】
【表5】
【0161】この表及び図から、f(x)の値がほぼ0.
1〜0.9となるxの範囲、−2≦x≦2において、7
次,9次,11次,13次近似式で、それぞれ、±0.
78%,±0.32%,±0.13%,±0.05%の誤
差内の近似値が得られることが分かる。すなわち、近似
の打切り次数が大きくなる程精度が良くなることが分か
る。ただ、xの範囲が、−3≦x≦3の場合、7次,9
次,11次,13次近似式でも、それぞれ、±22%,
±20%,±18%,±16.7% の誤差内の近似値と
なり、−2≦x≦2の場合と比較して誤差がかなり大き
い。このことから、入出力関数f(x)は、xの範囲が広
がる程非線形度が急激に大きく、非常に高次の近似式で
も誤差は小さくならないことが分かる。
【0162】次に、ニューラル・ネットワークの他の構
成法について、f(x)のテイラー展開式を利用して検討
できることを説明する。
【0163】先に、図7に示す3層型ニューラル・ネッ
トワークを対象にして、非線形変換処理機能について検
討できることを説明した。
【0164】このネットワークは、入力層,中間層,出
力層からなり、それぞれの層で、線形,非線形,非線形
の変換を行っている。このため、この構成を線形−非線
形−非線形構成と呼ぶことにする。この構成は、ニュー
ラル・ネットワークの基本構成であるが、他の構成とし
て、(1)線形−非線形−線形構成,(2)線形−線形−非
線形構成も考えられる。f(x)のテイラー展開式を利用
すると、これらの構成についても検討できることを以下
説明する。
【0165】先ず、線形−非線形−線形構成の場合であ
るが、図10にこの線形−非線形−線形構成のニューラ
ル・ネットワークを示す。なお、入出力の個数は、2入
力1出力とする。また、展開を簡単にするために、入出
力関数f(x)は、全てのユニットで同じ関数を使用する
ものとする。
【0166】入力層のユニットの出力vj(1)(j=1,
2)は、図7に示す線形−非線形−線形構成と同様、数
40で与えられ、また、中間層のユニットの入力の総和
j(2)(j=1,2,3,…,N)及び出力vj(2)(j
=1,2,3,…,N)も、それぞれ数41及び数42
に与えられる。さらに、出力層のユニットへの火力の総
和uj(3)(j=1)も、同様に数43で表わされる。た
だし出力層のユニットの出力vj(3)(j=1)は、次式
に示すように、入力の総和uj(3)(j=1)をそのまま
出力した値として求められる。
【0167】
【数66】
【0168】数42を数66に代入すると、次式が得ら
れる。
【0169】
【数67】
【0170】数40を数67に代入すると共に、v
1(3)をyで表わすと、次式が導かれる。
【0171】
【数68】
【0172】数68を展開して整理すると、数46を展
開した数47と同形の式が得られる。これより、図10
に示す構成の階層型ネットワークも、図7に示す線形−
非線形−非線形構成のネットワークと同様、中間層のユ
ニットの個数を増加させると、重み係数w1i(1,2),
2i(1,2),wi1(2,3)(i=1,2,3,…,
N)の個数が増加して調整の自由度が増加し、より高次
で複雑な非線形関数を近似できることが分かる。ただ、
数68より数46の方が、非線形変換を2回行う分、よ
り非線形度の高い関数を近似できる。
【0173】次に、線形−線形−非線形構成の場合であ
るが、図11に線形−線形−非線形構成のニューラル・
ネットワークを示す。なお、この場合も、入出力の個数
は、2入力1出力とする。また、展開を簡単にするため
に入出力関数は、全てのユニットで同じ関数を使用する
ものとする。
【0174】入力層のユニットの出力vj(1)(j=1,
2)は、図7に示す線形−非線形−非線形構成と同様、
数40で与えられ、中間層のユニットの入力の総和u
j(2)(j=1,2,3,…,N)は、数41で与えられ
る。このとき、中間層のユニットの出力vj(2)(j=
1,2,3,…,N)は、次式に示すように入力の総和
j(2)(j=1,2,3,…,N)をそのまま出力した
値として求められる。
【0175】
【数69】
【0176】また、出力層のユニットへの入力層の総和
j(3)(j=1)は、図7に示す線形−非線形−非線形
構成と同様数43で与えられる。さらに、出力層のユニ
ットの出力vj(3)(j=1)は、同様に数44で表わさ
れる。数69を数44に代入すると、次式が得られる。
【0177】
【数70】
【0178】数40を数70に代入すると共に、v
1(3)をyと表わすと、次式が導かれる。
【0179】
【数71】
【0180】数71は、展開して整理すると、数46を
展開した数47と同形の式が得られる。しかしながら、
この場合は、数46と違って、中間層のユニットの個数
を増加させても非線形関数の近似の自由度は増加せず、
任意の高次非線形関数の近似は難しい。すなわち、数7
1は、次式のように変形できる。
【0181】
【数72】
【0182】
【数73】
【0183】数72のパラメータは、実質W1,W2の2
個であり、中間層のユニットの個数を2個以上にして
も、自由度はユニット1個の場合と同じである。
【0184】次に、ニューラル・ネットワークの構造決
定の1方法について、f(x)のテイラー展開式を利用し
て検討できることを説明する。
【0185】階層型ネットワークにより実現される非線
形関数の特性は、層の個数,各層のユニットの個数,重
み係数が変わると変化する。したがって、これらを調整
することにより、目的に適合する特性を持った非線形関
数が得られる。このうち、重み係数の調整は、学習によ
り実現できる。しかしながら、層の個数,各層のユニッ
トの個数の調整は、試行錯誤的に実施している。ここで
は、これらのうち中間層のユニットの個数決定のための
1つの方法を提案する。
【0186】説明を簡単にするために、図12に示す線
形−非線形−線形構成の1入力1出力系を考える。この
とき、入力xと出力yの関係は、数68から導かれ、次
式で表わされる。
【0187】
【数74】
【0188】数74を書下すと、次式が得られる。
【0189】
【数75】
【0190】図12に示すニューラル・ネットワークで
模擬する関数として、次式で表わされる関数を考える。
【0191】
【数76】
【0192】ここで、di :係数 数75と数76を一致させるには、次式が成立つ必要が
ある。
【0193】
【数77】
【0194】数76で表わされる関数のxの6次以上の
係数が零(d6=d7=d8=…=0)の場合、数77は、
7個の式から成る連立方程式となる。ただし、この範囲
として、入出力関数f(x)で6次以上の係数の影響が小
さい範囲を考える。この連立方程式は、中間層のユニッ
トの個数により未知数(重み係数)の個数が変化し、そ
れにより解決が求まるかどうかが決まる。
【0195】
【表6】
【0196】この関数を表6に示す。この表から分かる
よう、中間層のユニットの個数が3個以下の場合は、未
知数(重み係数)の個数が6個以下となり、式の個数よ
り未知数の個数が小さいので解は求まらない。ところ
が、中間層のユニットの個数が4個以上の場合は、未知
数(重み係数)の個数が8個以上となり、式の個数より
未知の個数が大きくなり解は求まる。ただ、未知数の個
数と式の個数の差だけ自由度があり、この差の個数分の
未知数を任意に指定できる。このことは、誤差逆伝播学
習アルゴリズムにより重み係数を決定する場合、初期値
により重み係数の収束値が異なることと対応している。
【0197】
【発明の効果】本発明によると、階層状に結合された夫
々のユニットの入出力関数を級数展開し、この級数展開
された入出力関数の式を用い、階層型ニューラル・ネッ
トワークを非線形回帰式で表し、入出力信号間の因果関
係を明瞭にし、階層型ニューラル・ネットワークを評価
するニューラル・ネットワークの評価方法を提供するこ
とができるという効果を奏する。
【図面の簡単な説明】
【図1】階層型ニューラル・ネットワークの一例を示す
構成図である。
【図2】階層型ニューラル・ネットワークのユニットの
一例を示す構成図である。
【図3】本発明の一実施例を示す図である。
【図4】入出力関数と近似式とを比較したグラフであ
る。
【図5】他の入出力関数と近似式とを比較したグラフで
ある。
【図6】他の入出力関数と近似式とを比較したグラフで
ある。
【図7】2入力1出力の3層型ネットワークの一例を示
す構成図である。
【図8】しきい値ユニットを組込んだ2入力1出力の3
層型ネットワークの一例を示す構成図である。
【図9】入出力関数と近似式とを比較したグラフであ
る。
【図10】2入力1出力の3層型ネットワークの別の例
を示す構成図である。
【図11】2入力1出力の3層型ネットワークの別の例
を示す構成図である。
【図12】1入力1出力の3層型ネットワークの一例を
示す構成図である。
【符号の説明】
f(x)…入出力関数。
フロントページの続き (56)参考文献 電子情報通信学会技術報告 vol. 90 no.280 1990年10月26日発行 p7〜14、「汎関数級数表現における非 線形システムの同定精度」横田康成 他 2名 著 (58)調査した分野(Int.Cl.7,DB名) G06G 7/60 G06F 15/18

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】ニューロンをモデル化したユニットの階層
    状結合により構成し、対象システムの入出力特性を表す
    階層型ニューラル・ネットワークを評価するニューラル
    ・ネットワークの評価方法において、 階層状に結合された夫々のユニットの入出力関数を級数
    展開し、 この級数展開された入出力関数の式に基づき階層型ニュ
    ーラル・ネットワークの入出力信号間の因果関係を非線
    形回帰式で表わし、この非線形回帰式により階層型ニュ
    ーラル・ネットワークを評価する ことを特徴とするニュ
    ーラル・ネットワークの評価方法。
  2. 【請求項2】 ニューロンをモデル化したユニットの階層
    状結合により構成し、対象システムの入出力特性を表す
    階層型ニューラル・ネットワークを評価するニューラル
    ・ネットワークの評価方法において、 階層状に結合された夫々のユニットの入出力関数を級数
    展開し、 該夫々のユニットの入出力関数のしきい値をユニット毎
    に変化させ、 この級数展開された入出力関数の式に基づき階層型ニュ
    ーラル・ネットワークの入出力信号間の因果関係を非線
    形回帰式で表わし、この非線形回帰式により階層型ニュ
    ーラル・ネットワークを評価することを特徴とするニュ
    ーラル・ネットワークの評価方法。
JP03070004A 1991-04-02 1991-04-02 ニューラル・ネットワークの評価方法 Expired - Lifetime JP3132027B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03070004A JP3132027B2 (ja) 1991-04-02 1991-04-02 ニューラル・ネットワークの評価方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03070004A JP3132027B2 (ja) 1991-04-02 1991-04-02 ニューラル・ネットワークの評価方法

Publications (2)

Publication Number Publication Date
JPH04305785A JPH04305785A (ja) 1992-10-28
JP3132027B2 true JP3132027B2 (ja) 2001-02-05

Family

ID=13419030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03070004A Expired - Lifetime JP3132027B2 (ja) 1991-04-02 1991-04-02 ニューラル・ネットワークの評価方法

Country Status (1)

Country Link
JP (1) JP3132027B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2570433A (en) * 2017-09-25 2019-07-31 Nissan Motor Mfg Uk Ltd Machine vision system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会技術報告 vol.90 no.280 1990年10月26日発行 p7〜14、「汎関数級数表現における非線形システムの同定精度」横田康成 他2名 著

Also Published As

Publication number Publication date
JPH04305785A (ja) 1992-10-28

Similar Documents

Publication Publication Date Title
Tutunji Parametric system identification using neural networks
CN111967679A (zh) 基于tcn模型的电离层总电子含量预报方法
JP2747104B2 (ja) ニューラルネットワーク
Pei et al. Analysis and modification of Volterra/Wiener neural networks for the adaptive identification of non-linear hysteretic dynamic systems
Nayak et al. Comparison of modified teaching–learning-based optimization and extreme learning machine for classification of multiple power signal disturbances
Asady et al. Utilizing artificial neural network approach for solving two-dimensional integral equations
Löhner et al. Deep learning or interpolation for inverse modelling of heat and fluid flow problems?
Postavaru An efficient numerical method based on Fibonacci polynomials to solve fractional differential equations
JP3374476B2 (ja) ニューラルネットワーク構築方法
JP3132027B2 (ja) ニューラル・ネットワークの評価方法
JP2862337B2 (ja) ニューラルネットワークの構築方法
JPH05197701A (ja) ニューラルネットワークを用いた情報処理装置
CN115481816A (zh) 基于互补集成经验模分解的时空卷积短时交通流预测方法
CN113283986B (zh) 算法交易系统及基于该系统的算法交易模型的训练方法
Wang et al. A Hammerstein-Wiener recurrent neural network with universal approximation capability
JPH07210534A (ja) ニューラルネットワーク
Xia et al. Echo state networks for multidimensional data: Exploiting noncircularity and widely linear models
CN114548400A (zh) 一种快速灵活全纯嵌入式神经网络广域寻优训练方法
Kanaan et al. Nonlinear time-domain macromodeling using proper orthogonal decomposition and feedforward neural networks
Kuroe et al. A learning method of nonlinear mappings by neural networks with considering their derivatives
Belfore et al. ANN inverse mapping technique applied to electromagnetic design
Adhira et al. Exponential extended dissipative performance for delayed discrete-time neural networks under memoryless resilient-based observer design
Vai A massively parallel reverse modeling approach for semiconductor devices and circuits
CN114492212B (zh) 低压配电网动态增容方法、装置、终端及存储介质
Krusienski et al. Comparative analysis of neural network filters and adaptive Volterra filters

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071124

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081124

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091124

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101124

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111124

Year of fee payment: 11