JPH03122754A - Learning method for neural network model - Google Patents

Learning method for neural network model

Info

Publication number
JPH03122754A
JPH03122754A JP1261078A JP26107889A JPH03122754A JP H03122754 A JPH03122754 A JP H03122754A JP 1261078 A JP1261078 A JP 1261078A JP 26107889 A JP26107889 A JP 26107889A JP H03122754 A JPH03122754 A JP H03122754A
Authority
JP
Japan
Prior art keywords
neural network
layer
same
synapse
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1261078A
Other languages
Japanese (ja)
Other versions
JP2544489B2 (en
Inventor
Shigenori Matsuoka
松岡 成典
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Facom Corp
Original Assignee
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Facom Corp filed Critical Fuji Facom Corp
Priority to JP1261078A priority Critical patent/JP2544489B2/en
Publication of JPH03122754A publication Critical patent/JPH03122754A/en
Application granted granted Critical
Publication of JP2544489B2 publication Critical patent/JP2544489B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To easily attain application control by regarding the weight of synapses as the expression of impulse response functions and allowing synapse groups having the same time relation which are the synapse groups corresponding to the same impulse response function to learn so as to be the value of the same weight. CONSTITUTION:The synapse groups A1,A2,A3..., B1,B2,B3..., C1,C2,C3..., corresponding to the same impulse response function are the synapse 3 group having the same time relation. Respective synapses 3 having the same time relation are repeatedly learned so as to have the same weight. Consequently, the weight of the synapses 3 can be automatically determined and a process model can easily be identified by a neural network model.

Description

【発明の詳細な説明】[Detailed description of the invention]

〔目次〕 概要 産業上の利用分野 従来の技術(第7図〜第9図) 発明が解決しようとする課題 課題を解決するための手段(第1図) 作用 実施例(第2図〜第6図) 発明の効果 〔table of contents〕 overview Industrial applications Conventional technology (Figures 7 to 9) Problems that the invention aims to solve Means to solve the problem (Figure 1) action Example (Figures 2 to 6) Effect of the invention

【概要〕【overview〕

ニューラルネットワークモデルの学習方法に関し、 ニューラルネットワークのシナプスの重み付けの意味を
明確にして、重み付けの学習制御を容易にすると共に、
時系列データの処理を可能とし、適用制御の容易なニュ
ーラルネットワークを実現することを目的とし、 時系列データがそれぞれ入力する複数の入力層ユニット
から成る入力層と、入力層ユニットとそれぞれシナプス
により結合され、中間の時系列データが入力する複数の
中間層ユニットから成る中間層と、中間層ユニットとそ
れぞれシナプスにより結合された出力層ユニットとから
成り、各シナプスを、因果律に基づいて結線したニュー
ラルネットワークモデルの学習方法において、シナプス
の重みを、インパルス応答関数の表現とみなし、同じイ
ンパルス応答関数に対応するシナプス群である同じ時間
関係にあるシナプス群を同じ重みの値となるように学習
させるように構成する。 〔産業上の利用分野〕 本発明はニューラルネットワークモデルの学習方法に関
し、更に詳しくいえば、各種の制御や情報処理等の分野
において用いられ、特に、インパルス応答モデルをニュ
ーラルネットワークで実現した場合、シナプス群の学習
により、容易にシナプスの重み付けができるようにした
ニューラルネットワークモデルの学習方法に関する。 〔従来の技術〕 従来、ニューラルネットワークは、人間の脳を真似たネ
ットワークとして知られている。 このようなニューラルネットワークの個々の構成要素は
、人間の神経細胞にニューロン)と僚た機能を持つ。 そして、神経細胞、すなわちニューロンを基本単位とし
、それらが密に結合してニューラルネットワークが形成
され、ニューロンからニューロンへの信号伝達は、シナ
プス(Synapse)により行われる。 第7図は、従来のニューラルネットワーク(中間層の無
い例)を示した図であり、1は入力層(入力層群)、2
は出力層(出力層群)、3はシナプスを示す。 入力層1には、多数の入力信号(入カバターン)が入力
し、シナプス3を介して出力層2へ伝達され、出力信号
(出カバターン)となるものである。 この場合、上記入力信号としては、空間データが与えら
れ、シナプス3の結合により、所定の処理(変換)がな
される。 このような中間層の無いネットワークは、バーセブトロ
ン型ネットワークとも呼ばれている。 第8図は、従来のニューラルネットワーク(中間層が1
つある例)であり、第7図と同符号は同一のものを示す
。図において、4は中間層(中間層群)を示す。 このニューラルネットワークは、入力層1と出力層2と
の間に中間層4を1M介在させたネットワークであり、
入力層1と中間層4の間、及び中間層4と出力層2との
間はシナプス3で接続される。 この場合も、入力信号(入カバターン)は、入力層1へ
入力した後、シナプス3を通り、中間層4へ伝達され、
更に、シナプス3を通って出力層2へ出力して出力信号
(出カバターン)となる。 また、上記入力信号としては、空間データが与えられる
。 第9図は、従来のニューラルネットワーク(2つの中間
層がある例)であり、第8図と同符号は同一のものを示
す。 この例では、入力層1と出力層2との間に2つの中間層
4が設けられており、それぞれ、入力層1、中間層4、
及び出力層2の間をシナプス3により結合したものであ
る。 なお、上記の中間層4は、2Nに限らずそれ以上の層が
介在していてもよい。 上記のような中間層4を有する階層ネットワーク構造の
場合、階層ネットワークにおける各ユニントは、入力層
lから中間層4、中間層4から出力層2という向きに結
合しており(前向き)、各層内での結合、及び出力層2
から入力層1に向かう結合は存在しない。 各層のユニ・ノド間の結合の重み付けは、例えば、バッ
クプロパゲーション法のような学習により決定され、こ
の重みから決定される一定の変換規則を入力信号(入カ
バターン)に適用し、出力層2にその変換した出力信号
(出カバターン)を出力する。 〔発明が解決しようとする課題〕 上記のような従来のものにおいては次のような欠点があ
った。 (1)従来のニューラルネットワークでは、学習結果に
ついて、そのシナプスの重みの説明がうまくできないと
されていた(シナプスの重みから、ルールベースを作る
研究はある)。 (2)従来のニューラルネットワークでは、空間データ
だけを扱っており、時系列データを扱うものはなかった
。 即ち、入力データ(入力信号)としては、入力データを
多次元空間の値とみなし、空間データとして扱っていた
。 そして、こ0空間データを、ニューラルネットワークに
より出力データに写像し、似たものを分類するものとし
てニューラルネットワークを使用していた。 例え、時系列データを扱う場合でも、これを空間データ
と考え、上記のように処理していた。 その例として、例えば、過去の10個のデータが、上り
ぎみ、下りぎみ、平坦等の状態を判別する場合とか、制
御の目標値に対し、それを実現する操作量を決定する場
合(これは、ニューラルネットワークにより、制御対象
の逆モデルを作ることに対応する)等である。 本発明は、このような従来の欠点を解消し、ニューラル
ネットワークのシナプスの重み付けの意味を明確にして
、重み付けの学習制御を容易にすると共に、時系列デー
タの処理を可能とし、適用制御の容易なニューラルネッ
トワークを実現することを目的とする。 〔課題を解決するための手段〕 第1図は本発明の原理図であり、lは入力層、2は出力
層、3はシナプス(シナプス群)、4は中間層を示す。 また、1−1.1−2.1−3・・・・は入力層の各ユ
ニット、2−1.2−2−は出力層2の各ユニット、4
−1.4−2.4−3・−は中間層の各ユニット、uz
(t−1)、u1(t−2)。 u l(t −3)−は時系列の入力データ、M t 
(t−1)、M+(t−2)、 M1(t−3)・・・
・・−は中間層の時系列データ、y s (t)、 y
 * (t)・〜は出力データを示す。 図のニューラルネットワークモデルは、入力層1と出力
層2との間に中間層4を有し、各層間は、シナプス3に
より結合されたネットワークであり、入力層lの各ユニ
ット1−1.1−2.1−3−には、それぞれ時系列デ
ータであるu1(t  1)。 u z(t−2)、u +(t−3) ・・・・−が人
力する。 ここでtは時刻を示し、u s (t −2)はu1(
t−1)よりも過去のデータ、111 (t −3)は
ul(t−2)よりも過去のデータを示し、M t (
t −1)、−=M t (t −2)−・・・・・に
ついても同様の関係を示す。 本発明では、上記時系列データu1(t−1)+us(
t−2)、u 1(t−3) −はそのまま時系列デー
タ(時間データ)と見なし、更に、ニューラルネットワ
ークの重みは、現代の制御理論のインパルス応答関数と
見なすことにより、インパルス応答モデルをニューラル
ネットワークで実現するものであり、その学習方法を次
のようにする。 即ち、シナプスの結合は、上記制御理論のインパルス応
答における因果律に基づいて結線し、ニューラルネット
ワークのシナプス3の重みを、インパルス応答関数の表
現と見なし、学習により決定する。 この学習おおいて、同じインパルス応答関数に対応する
シナプス群(同じ時間関係にあるシナプス群)を同じ重
みの値となるように学習させるものである。 例えば、図のA!、At、A3− は同じインパルス応
答関数に対応するシナプスであり、同じ時間関係にある
(ul(t−1)とM1(t−1)、Ul(t−2)と
M1(t−2)・・・・−は同時刻のデータで同じ時間
関係)。 また、Bx、Bx−も同じインパルス応答関数に対応す
るシナプスであり、同じ時間関係にある(u−1(t−
2)とM s (t −1)は、M1(t  1)から
見ればul(t−2)は1つ前の時刻のデータ、ur(
t−3)とM1(t  2)の関係もM1(t−2)か
ら見ればul(t−3)は1つ前の時刻のデータであり
、同じ時間関係にある)。 従って、A 1.A s + A S・・・・−を同じ
重みにし、Bl、B2.B3・−を同じ重みにし、以下
同様にして同じ時間関係にあるユニット間のシナプスを
同じ重み(平均値、あるいは最大値等)となるように学
習させる。 〔作用〕 本発明は上記のように、ニューラルネットワークモデル
において、そのシナプス結合の意味付けを、インパルス
応答関数と見なすことで学習の内容を明確にしたもので
ある。 この学習においては、同じインパルス応答関数に対応す
るシナプス群について、出力データの平均値、あるいは
最大値を求め、全て同じ重みの値となるように繰返し学
習させるものである。 上記同じインパルス応答関数に対応するシナプス群は、
図示のA1.At、As・・・・・から成るシナプス群
、Bx、Bx・・・・から成るシナプス群、Ct。 C2・・・・−から成るシナプス群・・・・−等であり
、これらはそれぞれ同じ時間関係にあるシナプス群であ
る。 そして、これら、それぞれ同じ時間関係にあるシナプス
は同じ重みになるように繰返して学習させる。 このようにして学習を行えば、自動的にシナプスの重み
が決定でき、ニューラルネットワークモデルによるプロ
セスモデルの同定が容易に行える。 〔実施例〕 以下、本発明の実施例を図面に基づいて説明する。 第2図は、本発明の1実施例に係るニューラルネットワ
ークモデルの全体図であり、lは入力層、2は出力層、
3はシナプス、4は出力層を示す。 ’ I + u g −−−131は、入力層へ入力す
る時系列データのベクトル、Ml 、 、 Ml t−
J @は中間層4の時系列データのベクトル、’/ l
+ ’I z−’/nは出力層2の時系列データのベク
トルを示す。 上記ベクトル’ l + u z−134は、それぞれ
複数の時系列データ、u r(t−1)、u 1(t−
2)、u 1(t−3)+u 1(t−4) −u 1
(t−1)、u t(を−2)+u 5(t−a)+u
 *(t−4) −u s(t −1)、u s (t
 −2)−−−uz(t −1)、u (t −2) 
−−−−−から成り、また、ベクトルMI+ 、 MI
t −’PI/111m1Y11 Y z−−−’/n
についても同様である。 入力層1と中間層4、及び中間層4と出力層2の間は、
シナプス3により接続されるが、これらの結線は、因果
律に従って結線される。 第3図は、第2図に示したニューラルネットワークモデ
ルの一部詳細図である。 第2図で示したベクトルu I + u Zは、図示の
ように、時系列データu 1(t −IL u t (
t  2L ul(t−3Cu 1(t−4)−u +
(t−k)、u 1(t−k −1)−−−u s (
t −i)、u 1(t −1)+u 2(t −2)
−−−u 1(t   j )から成り、ベクトルMl
l。 Mltは、時系列データM 1(t −1)、M t 
(t  2)。 Ms(t−3)、M1(t    4)、−−M1(t
−に+1)。 Ml(t−k)、M1(t−1)、−Ma(t−1)か
ら成っている。 これらの時系列データは、そのまま時系列データとして
扱い、ニューラルネットワークのシナプスの重みは、イ
ンパルス応答関数(現代制御理論上の関数)と見なすこ
とにより、学習で決定する。 また、その結線は、インパルス応答における因果律に基
づいて決定する。その結果、図示のように、入力側から
見て過去のものとは結線せず、時間関係が同じユニット
間のシナプスは同じ重みに決定する。 例えば、us(t−1)とM t (t −2)間、U
1(t −2)とM1(t−3)間のように、入力側か
らみて、時間的に過去のものとは接続しない(中間層を
基準にすれば、未来の入力とは結線しない)。 また、us(t−1)とM 1(t −1)間、uIC
L−2)とM 1 (t −2)間等は、同じ時間関係
なので同じ重みにする(図示の平行なシナプス同志は全
て同じ重みにする)。 更に、ur(t−2)とMl(t−1)間、ul(を−
3)とMl(t  2)間−等も同じ重みにする。 なお、入力時系列データu1が中間層の時系列データM
に対し、T時間しか影響しないなら、t=に+Tであり
、ul(L−j)はMx(t−j)から(但しj>kな
らばMr(t−k)から)Ml(t−j+T)まで(但
しj−T≦0ならMx(tl)まで)を結線すればよい
。 なお、本発明は、上記の例に限らず、中間層が複数ある
場合でも適用可能である。 第4図〜第6図は、ニューラルネットワークの学習方法
の説明図である。 本発明では、上記のように、入力データである時系列デ
ータu x(t−t)+u 1(t−2Cu 1(t−
3)、ux(t  4)・・・・−は、そのまま時系列
データと見なし1.更に、ニューラルネットワークの重
みは、現代制御理論のインパルス応答関数と見なすこと
により、インパルス応答モデルをニューラルネットワー
クで実現したものである。 即ち、ニューラルネットワークのシナプスの重みを、イ
ンパルス応答関数の表現と見なし、学習により決定する
。 また、シナプスの結合は、上記制御理論のインパルス応
答における因果律に基づいて結線する。 このようにしたニューラルネットワークモデルでは、学
習内容の説明が可能になるから、シナプスの結合の仕方
を時系列データに対応させて制約(既定)する。 先ず、ニューラルネットワークモデルにおいて、同じイ
ンパルス応答関数に対応するシナプス群は、学習時に同
じ値になるように学習させる。 この学習には、例えば第4図に示したようなバンクプロ
パゲーション法を用いる。 この方法は、図示のような入力層、中間層、出力層から
成る階層ネットワークに、誤差フィードバックを導入し
、この誤差フィードバック(ネットワークの出力と教師
信号との誤差Eをフィードバックする)に基づいて、シ
ナプスの重み(結合の重み)を調節し、その結果、ネッ
トワークは、入力信号(入カバターン)と出力信号(出
カバターン)との連合を学習し、適切なデータ処理を実
現できるようにするものである。 以上のバックプロパゲーション法の他、公知の種々の学
習方法が適用可能である。 上記の学習方法を適用するに際し、第5図に示すように
、入力層と中間層の間のシナプスで同じ時間関係にある
ものを次のように符号で表わす。 (1)  ul(t  1)とM l(t −1)間、
uI(t−2)とM+(t−2)間、u t (t −
3)とMl(t−3)間、ul(t−4)とM l(t
 −4)間、u1(t−5)とM ! (t −5)間
・−のシナプスをそれぞれA 1 、  A ! 、 
 A s 、  A 4.  A s −(これらをま
とめてAとする)。 (2)  us(t−2)とMl(t−1)間、ul(
t−3)とM1(t−2)間、us(t−4)とM s
 (を−3)間、ux4t−5)とMx(t−4)間・
−のシナプスをそれぞれBl、Bl、Bs、B4・・・
・(これらをまとめてBとする)。 (3)  ul(t−3)とMl(t−1)間、ul(
t4)とM t (t −2)間、ux(t−5)とM
s(を−3)間−のシナプスをCI、CI、C3−(こ
れらをまとめてCとする)。 以下同様にして同じ時間関係にあるものをDI。 D2.Ds・・・・、E皿* E * 、’−のように
する。 上記のA(As、A含+As・−) 、B (B t。 131、Bl−−−) 、C(Cs、C2,C3−) 
、D(D I+ DI、 Ds−) 、E (E 1.
 E!、 Es・−)・・・・−をそれぞれ時系列デー
タで一般的に表現すれば、次のようになる。 A : u i (t−n)−*M i (t−n) 
   n xl、l’−−−1(。 B : u 1(t−n)−+M 1(t−n+ 1)
 n=2.3’=−k。 C: u 1(t−n)−+Mi(t−n+2)n=3
.4・−k。 D : u 1(t−n)→Mi(t−n+3)n=4
+5−−に+E : u 1(t−n)−+Mi(t−
n+4)  n=5.6−−−k。 以下同様にして、F、G・−とする(但しi=1゜2.
3−)。 例えばi=1とすれば(入力層の第1群)、それぞれ、 A : u t (t −n)−M i (t−n) 
   n=1+2−k。 B : u 1(t−n)−eM】(t−n+1) n
=2+3−k。 C:ul(t−n)=Mx(t  n+2)n=3+4
−−−にのようになり、i=2とすれば、 A: u2(t−n)→M*(t−n)    n=1
.2°−k 。 B: u1(t−n)−+M!I(t−n+1)n=2
+3−LC: us(t−n)−M*(t−n+2)n
”3.4−k。 となる。 第6図は、入力層と出力層との間におけるインパルス応
答関数の説明図である。 図の曲線は、入力Wiuと中間層Mのインパルス応答関
数を示し、図示(7)ft、fs、fs、f4・・・・
−は、それぞれインパルス応答関数の要素を示す。 図示のように、入力層と中間層と各ユニット間で、同じ
時間関係にあるシナプスA、B、C,・・・・(図示の
平行線)は、同じインパルス応答関数の要素となる。即
ち、Aはflに対応し、Bはflに対応し、Cはfsに
対応する。 従って、上記ニューラルネットワークモデルにおいて、
同じインパルス関数に対応するシナプス群を、バンクプ
ロパゲーション法等により学習する時に、上記のA(A
 s、Ai、A3−)、B(Bs。 B含、  B s−)、C(Cs 、  C2、C3−
) −は、それぞれ同じ値になるように学習させる。 この場合、それぞれ同じインパルス応答関数に対応する
(同じ時間関係にある)シナプスの重みは、得られた値
の平均値、あるいは最大値等を用いて、同じ値になるよ
うに学習させるものである。 〔発明の効果〕 以上説明したように、本発明によれば次のような効果が
ある。 (1)  ニューラルネットワークによるプロセスモデ
ルを作れば、後は、学習により自動的に、インパルス応
答関数、即ちシナプスの重み(パラメータ)が決まる。 (2)  シナプス結合の意味付けを、インパルス応答
関数と見なすことで学習内容の説明ができる(シナプス
の説明ができる)。 (3)  シナプスをランダムに接続した従来のニュー
ラルネットワークに比べて、学習の収束性も保証できる
(定性モデルを修正することで対応)。 (4)  ニューラルネットワークによるプロセスモデ
ルの同定が容易にできる。 (5)時系列データを扱うニューラルネットワークモデ
ルが容易に実現できる。
Regarding the learning method of neural network models, we will clarify the meaning of synapse weighting in neural networks, facilitate learning control of weighting, and
The purpose is to realize a neural network that enables processing of time series data and easy application control.The input layer consists of multiple input layer units each input with time series data, and is connected to each input layer unit by a synapse. A neural network consists of an intermediate layer consisting of multiple intermediate layer units to which intermediate time-series data is input, and an output layer unit connected to each intermediate layer unit by a synapse, and each synapse is connected based on causality. In the model learning method, synaptic weights are regarded as expressions of impulse response functions, and synaptic groups that correspond to the same impulse response function and have the same time relationship are trained so that they have the same weight value. Configure. [Industrial Application Field] The present invention relates to a learning method for neural network models, and more specifically, it is used in various fields of control and information processing. This invention relates to a learning method for neural network models that allows synaptic weighting to be easily performed through group learning. [Prior Art] Neural networks have traditionally been known as networks that imitate the human brain. The individual components of such a neural network have functions similar to those of human nerve cells (neurons). Nerve cells, that is, neurons are the basic unit, and these are tightly connected to form a neural network, and signal transmission from neuron to neuron is performed by synapses. Figure 7 is a diagram showing a conventional neural network (an example without a middle layer), where 1 is an input layer (input layer group), 2
indicates an output layer (output layer group), and 3 indicates a synapse. A large number of input signals (input signals) are input to the input layer 1, and are transmitted to the output layer 2 via the synapse 3 to become output signals (output signals). In this case, spatial data is given as the input signal, and predetermined processing (conversion) is performed by the connection of the synapse 3. Such a network without an intermediate layer is also called a bersebutron type network. Figure 8 shows a conventional neural network (with one middle layer).
(one example), and the same reference numerals as in FIG. 7 indicate the same things. In the figure, 4 indicates an intermediate layer (intermediate layer group). This neural network is a network in which 1M intermediate layers 4 are interposed between an input layer 1 and an output layer 2,
A synapse 3 is connected between the input layer 1 and the intermediate layer 4 and between the intermediate layer 4 and the output layer 2. In this case as well, the input signal (input signal) is input to the input layer 1, passes through the synapse 3, and is transmitted to the intermediate layer 4.
Furthermore, it is outputted to the output layer 2 through the synapse 3 and becomes an output signal (output pattern). Furthermore, spatial data is given as the input signal. FIG. 9 shows a conventional neural network (an example with two intermediate layers), and the same reference numerals as in FIG. 8 indicate the same parts. In this example, two intermediate layers 4 are provided between the input layer 1 and the output layer 2, respectively.
and the output layer 2 are connected by a synapse 3. Note that the above-mentioned intermediate layer 4 is not limited to 2N, but may include layers of more than 2N. In the case of the hierarchical network structure having the intermediate layer 4 as described above, each unit in the hierarchical network is connected in the direction from the input layer l to the intermediate layer 4 and from the intermediate layer 4 to the output layer 2 (forward), and within each layer and output layer 2
There are no connections from to input layer 1. The weighting of the connections between uni nodes in each layer is determined, for example, by learning such as the backpropagation method, and a certain conversion rule determined from this weight is applied to the input signal (input cover pattern), and the output layer 2 The converted output signal (output signal) is output. [Problems to be Solved by the Invention] The conventional devices as described above have the following drawbacks. (1) Conventional neural networks have been thought to be unable to adequately explain the learning results of synaptic weights (there are studies that create rule bases from synaptic weights). (2) Conventional neural networks handle only spatial data; none handle time-series data. That is, input data (input signals) are regarded as values in a multidimensional space and treated as spatial data. Then, this 0 space data is mapped to output data by a neural network, and the neural network is used to classify similar items. Even when dealing with time-series data, it is considered spatial data and processed as described above. For example, when 10 pieces of past data are used to determine conditions such as uphill, downhill, flat, etc., or when determining the amount of operation to achieve a control target value (this is , which corresponds to creating an inverse model of the controlled object using a neural network). The present invention eliminates these conventional drawbacks, clarifies the meaning of synapse weighting in neural networks, facilitates learning control of weighting, enables processing of time series data, and facilitates application control. The purpose of this study is to realize a neural network. [Means for Solving the Problems] FIG. 1 is a diagram showing the principle of the present invention, where l indicates an input layer, 2 indicates an output layer, 3 indicates a synapse (synapse group), and 4 indicates an intermediate layer. In addition, 1-1.1-2.1-3... is each unit of the input layer, 2-1.2-2- is each unit of the output layer 2, 4
-1.4-2.4-3・- is each unit of the middle layer, uz
(t-1), u1 (t-2). u l(t −3)− is time series input data, M t
(t-1), M+(t-2), M1(t-3)...
...- is the time series data of the middle layer, y s (t), y
*(t)・〜indicates output data. The neural network model shown in the figure has an intermediate layer 4 between an input layer 1 and an output layer 2, and each layer is a network connected by synapses 3, and each unit 1-1.1 of the input layer l. -2.1-3- respectively have time series data u1 (t1). u z (t-2), u + (t-3) ...- is done manually. Here, t indicates time, and u s (t −2) is u1(
t-1), 111 (t-3) indicates data older than ul(t-2), and M t (
The same relationship is shown for t −1), −=M t (t −2)−. In the present invention, the time series data u1(t-1)+us(
t-2), u 1(t-3) - are regarded as time series data (time data), and the weights of the neural network are regarded as impulse response functions of modern control theory, thereby creating an impulse response model. This is achieved using a neural network, and its learning method is as follows. That is, the synapses are connected based on the causal law in the impulse response of the control theory described above, and the weight of the synapse 3 of the neural network is regarded as an expression of the impulse response function, and is determined by learning. In this learning, groups of synapses corresponding to the same impulse response function (groups of synapses having the same time relationship) are trained to have the same weight value. For example, A in the figure! , At, A3- are synapses corresponding to the same impulse response function and have the same time relationship (ul(t-1) and M1(t-1), Ul(t-2) and M1(t-2) ...- is data at the same time and has the same time relationship). Furthermore, Bx and Bx- are also synapses corresponding to the same impulse response function and have the same time relationship (u-1(t-
2) and M s (t -1), when viewed from M1 (t 1), ul (t - 2) is the data at the previous time, and ur (
When viewed from M1 (t-2), ul (t-3) is data at the previous time, and they have the same time relationship). Therefore, A1. A s + A S...- are given the same weight, Bl, B2 . B3.- are given the same weight, and the synapses between units having the same time relationship are learned in the same way so that they have the same weight (average value, maximum value, etc.). [Operation] As described above, the present invention clarifies the content of learning by regarding the meaning of synaptic connections in a neural network model as an impulse response function. In this learning, the average value or maximum value of output data is determined for synapse groups corresponding to the same impulse response function, and learning is repeated so that all the synapses have the same weight value. The synapse group corresponding to the same impulse response function above is
A1. A synapse group consisting of At, As..., a synapse group consisting of Bx, Bx..., Ct. A synapse group consisting of C2...-, etc., and these are synapse groups having the same time relationship. Then, these synapses having the same time relationship are repeatedly trained so that they have the same weight. If learning is performed in this manner, synaptic weights can be automatically determined, and process models can be easily identified using a neural network model. [Example] Hereinafter, an example of the present invention will be described based on the drawings. FIG. 2 is an overall diagram of a neural network model according to an embodiment of the present invention, where l is an input layer, 2 is an output layer,
3 indicates a synapse, and 4 indicates an output layer. ' I + u g ---131 is a vector of time series data input to the input layer, Ml, , Ml t-
J@ is the vector of time series data of the middle layer 4, '/l
+'Iz-'/n indicates a vector of time-series data of the output layer 2. The above vector ' l + u z-134 is a plurality of time series data, u r (t-1), u 1 (t-
2), u 1 (t-3) + u 1 (t-4) - u 1
(t-1), u t(-2)+u 5(t-a)+u
*(t-4) −u s(t −1), u s (t
-2) ---uz (t -1), u (t -2)
−−−−, and the vectors MI+, MI
t −'PI/111m1Y11 Y z---'/n
The same applies to Between the input layer 1 and the middle layer 4, and between the middle layer 4 and the output layer 2,
They are connected by synapses 3, and these connections are made according to the law of cause and effect. FIG. 3 is a partially detailed diagram of the neural network model shown in FIG. 2. The vector u I + u Z shown in FIG. 2 is the time series data u 1 (t − IL ut (
t 2L ul(t-3Cu 1(t-4)-u +
(t-k), u 1 (t-k -1)---u s (
t −i), u 1 (t −1) + u 2 (t −2)
---u 1(t j ), vector Ml
l. Mlt is time series data M 1 (t −1), M t
(t2). Ms(t-3), M1(t4), --M1(t
+1). It consists of Ml(t-k), M1(t-1), -Ma(t-1). These time series data are treated as time series data as they are, and the synaptic weights of the neural network are determined by learning by considering them as impulse response functions (functions based on modern control theory). Moreover, the connection is determined based on the causal law in impulse response. As a result, as shown in the figure, synapses between units with the same time relationship are determined to have the same weight without being connected to the past ones when viewed from the input side. For example, between us (t-1) and M t (t-2), U
As between 1(t-2) and M1(t-3), from the input side, there is no connection to anything in the past in time (based on the middle layer, there is no connection to future input) . Also, between us(t-1) and M1(t-1), uIC
L-2) and M 1 (t-2) have the same time relationship, so they are given the same weight (all parallel synapses shown in the figure are given the same weight). Furthermore, between ur(t-2) and Ml(t-1), ul(-
3) and Ml(t2), etc. are also given the same weight. Note that the input time series data u1 is the time series data M of the middle layer.
On the other hand, if only time T is affected, t = +T, and ul(L-j) is calculated from Mx(t-j) (if j>k, from Mr(t-k)) Ml(t- It is sufficient to connect up to j+T) (however, if j-T≦0, up to Mx(tl)). Note that the present invention is applicable not only to the above example but also to cases where there are a plurality of intermediate layers. 4 to 6 are explanatory diagrams of a neural network learning method. In the present invention, as described above, time series data u x(t-t)+u 1(t-2Cu 1(t-
3), ux(t4)...- are treated as time series data as is.1. Furthermore, the weights of the neural network are considered as impulse response functions of modern control theory, and the impulse response model is realized by the neural network. That is, the synaptic weights of the neural network are regarded as expressions of impulse response functions, and are determined by learning. Furthermore, synaptic connections are made based on the causal law in the impulse response of the control theory described above. In such a neural network model, since it is possible to explain the learning content, the way synapses are connected is constrained (default) in correspondence with time-series data. First, in the neural network model, synapse groups corresponding to the same impulse response function are trained to have the same value during learning. For this learning, for example, a bank propagation method as shown in FIG. 4 is used. This method introduces error feedback into a hierarchical network consisting of an input layer, intermediate layer, and output layer as shown in the figure, and based on this error feedback (feeding back the error E between the output of the network and the teacher signal), It adjusts the synaptic weights (connection weights) so that the network learns the association between the input signal (input cover turn) and the output signal (output cover turn) and achieves appropriate data processing. be. In addition to the above-described backpropagation method, various known learning methods can be applied. When applying the above learning method, as shown in FIG. 5, synapses between the input layer and the intermediate layer that have the same time relationship are represented by the following symbols. (1) Between ul(t 1) and M l(t −1),
Between uI(t-2) and M+(t-2), u t (t -
3) and Ml(t-3), between ul(t-4) and Ml(t
-4) between u1(t-5) and M! The synapses between (t-5) and - are A 1 and A !, respectively. ,
A s, A 4. A s - (these are collectively referred to as A). (2) Between us(t-2) and Ml(t-1), ul(
between t-3) and M1 (t-2), between us (t-4) and M s
(-3), between ux4t-5) and Mx(t-4)
- synapses Bl, Bl, Bs, B4...
・(These are collectively referred to as B). (3) Between ul(t-3) and Ml(t-1), ul(
t4) and M t (t -2), between ux (t-5) and M
The synapses between s (-3) are CI, CI, and C3- (these are collectively referred to as C). In the same way, DI items that have the same time relationship. D2. Ds..., E plate * E *, '-. The above A (As, A +As・-), B (B t. 131, Bl---), C (Cs, C2, C3-)
, D (DI+ DI, Ds-), E (E 1.
E! , Es. A: u i (t-n)-*M i (t-n)
n xl, l'---1(. B: u 1(t-n)-+M 1(t-n+ 1)
n=2.3'=-k. C: u 1(t-n)-+Mi(t-n+2)n=3
.. 4.-k. D: u1(t-n)→Mi(t-n+3)n=4
+E to +5−−: u 1(t−n)−+Mi(t−
n+4) n=5.6---k. Similarly, F, G・- (however, i=1°2.
3-). For example, if i = 1 (first group of input layer), then A: ut (t - n) - M i (t - n)
n=1+2-k. B: u 1(t-n)-eM】(t-n+1) n
=2+3-k. C:ul(t-n)=Mx(t n+2)n=3+4
---, and if i=2, then A: u2(t-n)→M*(t-n) n=1
.. 2°−k. B: u1(t-n)-+M! I(t-n+1)n=2
+3-LC: us(t-n)-M*(t-n+2)n
"3.4-k." Figure 6 is an explanatory diagram of the impulse response function between the input layer and the output layer. The curve in the figure shows the impulse response function of the input Wiu and the intermediate layer M. , Illustrated (7) ft, fs, fs, f4...
- indicates each element of the impulse response function. As shown in the figure, synapses A, B, C, . . . (parallel lines in the figure) that have the same time relationship between the input layer, the intermediate layer, and each unit become elements of the same impulse response function. That is, A corresponds to fl, B corresponds to fl, and C corresponds to fs. Therefore, in the above neural network model,
When learning synapse groups corresponding to the same impulse function using the bank propagation method, etc., the above A (A
s, Ai, A3-), B (Bs. B included, B s-), C (Cs, C2, C3-)
) - are trained so that they each have the same value. In this case, synapses that correspond to the same impulse response function (with the same time relationship) are trained to have the same weight by using the average value or maximum value of the obtained values. . [Effects of the Invention] As explained above, the present invention has the following effects. (1) Once a process model is created using a neural network, the impulse response function, that is, the synaptic weights (parameters) are automatically determined through learning. (2) Learning content can be explained by considering the meaning of synaptic connections as an impulse response function (synapses can be explained). (3) Compared to conventional neural networks in which synapses are randomly connected, the convergence of learning can also be guaranteed (this can be done by modifying the qualitative model). (4) Process models can be easily identified using neural networks. (5) A neural network model that handles time-series data can be easily realized.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明に係るニューラルネットワークモデルの
学習方法の原理図、 第2図乃至第6図は本発明の1実施例を示した図であり
、 第2図はニューラルネットワークモデルの全体図、 第3図はニューラルネットワークモデルの一部詳細図、 第4図はバンクプロパゲーション法による学習の例、 第5図は学習方法の説明図(シナプスの説明)、第6図
は学習方法の説明図(インパルス応答関数の説明)であ
る。 第7図〜第9図は従来のニューラルネットワークを示し
た図であり、 第7図は中間層が無い例、 第8図は中間層が1つある例、 第9図は中間層が2つある例を示した図である。 ■・・・・・入力層   2−出力層 3・・・・シナプス  4−中間層
FIG. 1 is a diagram showing the principle of the neural network model learning method according to the present invention, FIGS. 2 to 6 are diagrams showing one embodiment of the present invention, and FIG. 2 is an overall diagram of the neural network model. Figure 3 is a partial detailed diagram of the neural network model, Figure 4 is an example of learning using the bank propagation method, Figure 5 is an explanatory diagram of the learning method (explanation of synapses), and Figure 6 is an explanatory diagram of the learning method. (Explanation of impulse response function). Figures 7 to 9 are diagrams showing conventional neural networks. Figure 7 is an example with no intermediate layer, Figure 8 is an example with one intermediate layer, and Figure 9 is an example with two intermediate layers. It is a figure showing a certain example. ■...Input layer 2-Output layer 3...Synapse 4-Middle layer

Claims (1)

【特許請求の範囲】 時系列データ{u_1(t−1)、u_1(t−2)・
・・・)がそれぞれ入力する複数の入力層ユニット(1
−1、1−2、1−3・・・・)から成る入力層(1)
と、前記入力層ユニット(1−1、1−2・・・・)と
それぞれシナプス(3)により結合され、中間の時系列
データ{M_1(t−1)、M_1(t−2)、M_1
(t−3)・・・・}が入力する複数の中間層ユニット
(4−1、4−2、4−3・・・・)から成る中間層(
4)と、 前記中間層ユニット(4−1、4−2・・・・)とそれ
ぞれシナプス(3)により結合された出力層ユニット(
2)とから成り、 上記各シナプス(3)を、因果律に基づいて結線したニ
ューラルネットワークモデルの学習方法において、 上記シナプス(3)の重みを、インパルス応答関数の表
現とみなし、 同じインパルス応答関数に対応するシナプス群である同
じ時間関係にあるシナプス群を同じ重みの値となるよう
に(「A_1、A_2、A_3・・・・」、「B_1、
B_2、・・・・」、「C_1・・・・」・・・・をそ
れぞれ同じ重みにする)学習させることを特徴とするニ
ューラルネットワークモデルの学習方法。
[Claims] Time series data {u_1(t-1), u_1(t-2).
...) respectively input a plurality of input layer units (1
-1, 1-2, 1-3...) input layer (1)
are connected to the input layer units (1-1, 1-2...) through synapses (3), and intermediate time series data {M_1(t-1), M_1(t-2), M_1
(t-3)...} consists of a plurality of middle layer units (4-1, 4-2, 4-3...) input
4), and an output layer unit (4-1, 4-2, . . . ) connected to each of the intermediate layer units (4-1, 4-2, etc.) by a synapse (3).
2), in a learning method for a neural network model in which each of the synapses (3) above are connected based on the law of causality, the weight of the synapse (3) above is regarded as an expression of an impulse response function, and Corresponding synapse groups that have the same time relationship are given the same weight value ("A_1, A_2, A_3...", "B_1,
A method for learning a neural network model, characterized in that learning is performed by giving the same weight to each of "B_2, . . ." and "C_1 . . .".
JP1261078A 1989-10-05 1989-10-05 Learning method of neural network model Expired - Lifetime JP2544489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1261078A JP2544489B2 (en) 1989-10-05 1989-10-05 Learning method of neural network model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1261078A JP2544489B2 (en) 1989-10-05 1989-10-05 Learning method of neural network model

Publications (2)

Publication Number Publication Date
JPH03122754A true JPH03122754A (en) 1991-05-24
JP2544489B2 JP2544489B2 (en) 1996-10-16

Family

ID=17356775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1261078A Expired - Lifetime JP2544489B2 (en) 1989-10-05 1989-10-05 Learning method of neural network model

Country Status (1)

Country Link
JP (1) JP2544489B2 (en)

Also Published As

Publication number Publication date
JP2544489B2 (en) 1996-10-16

Similar Documents

Publication Publication Date Title
Hinton et al. Learning representations by recirculation
de Jesús Rubio USNFIS: uniform stable neuro fuzzy inference system
RU2406105C2 (en) Method of processing information in neural networks
Sun et al. Solving multiple objective programming problems using feed-forward artificial neural networks: The interactive FFANN procedure
Zhao et al. Synchronization of coupled memristive competitive BAM neural networks with different time scales
Widrow et al. The Hebbian-LMS learning algorithm
Singh Mathematical explanation to solution for Ex-NOR problem using MLFFN
Stamova et al. Artificial intelligence in the digital age
JPH03122754A (en) Learning method for neural network model
Phillips et al. Systematicity: Psychological evidence with connectionist implications
Betere et al. Investigation of multi-layer neural network performance evolved by genetic algorithms
Tagliarini et al. Learning in systematically designed networks
JPH03100858A (en) Neuron network
Jamal Neural network and cellular manufacturing
de Figueiredo Optimal interpolating and smoothing functional artificial neural networks (FANNs) based on a generalized Fock space framework
Chan et al. Fuzzy neural logic network and its learning algorithms
Ishida Control by a policy-and-experience-driven neural network
Stepanyan Evolutionary Operations of Interneuron Synaptic Structure for Feed-Forward Multilayer Networks
Kaushik et al. Semantic Network is Completely Reconstructed
JPH03257658A (en) Dynamic system modeling method for neural network
Lin et al. A low-cost neural sorting network with O (1) time complexity
Shankam et al. A neural network implementation for expert systems
JPH08249303A (en) Signal processor
Walid et al. Performance Evaluation of Extended Backpropagation Rule for Generating Networks of Connectionist Expert Systems
McCullough A neural network adaptive controller for a class of nonlinear systems

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090725

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090725

Year of fee payment: 13

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090725

Year of fee payment: 13

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100725

Year of fee payment: 14

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100725

Year of fee payment: 14