JP2544489B2 - ニュ―ラルネットワ―クモデルの学習方法 - Google Patents
ニュ―ラルネットワ―クモデルの学習方法Info
- Publication number
- JP2544489B2 JP2544489B2 JP1261078A JP26107889A JP2544489B2 JP 2544489 B2 JP2544489 B2 JP 2544489B2 JP 1261078 A JP1261078 A JP 1261078A JP 26107889 A JP26107889 A JP 26107889A JP 2544489 B2 JP2544489 B2 JP 2544489B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- layer
- input
- synapse
- same
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Description
を明確にして、重み付けの学習制御を容易にすると共
に、時系列データの処理を可能とし、適用制御の容易な
ニューラルネットワークを実現することを目的とし、 時系列データがそれぞれ入力する複数の入力層ユニッ
トから成る入力層と、入力層ユニットとそれぞれシナプ
スにより結合され、中間の時系列データが入力する複数
の中間層ユニットから成る中間層と、中間層ユニットと
それぞれシナプスにより結合された出力層ユニットとか
ら成り、各シナプスを、上記各層の時間遅れの因果律に
基づいて結線したニューラルネットワークモデルの学習
方法において、シナプスの重みを、インパルス応答関数
の表現とみなし、同じインパルス応答関数に対応するシ
ナプス群である同じ時間関係にあるシナプス群を同じ重
みの値となるように学習させるように構成する。
関し、更に詳しくいえば、各種の制御や情報処理等の分
野において用いられ、特に、インパルス応答モデルをニ
ューラルネットワークで実現した場合、シナプス群の学
習により、容易にシナプスの重み付けができるようにし
たニューラルネットワークモデルの学習方法に関する。
ネットワークとして知られている。
は、人間の神経細胞(ニューロン)と似た機能を持つ。
し、それらが密に結合してニューラルネットワークが形
成され、ニューロンからニューロンへの信号伝達は、シ
ナプス(Synapse)により行われる。
無い例)を示した図であり、1は入力層(入力層群)、
2は出力層(出力層群)、3はシナプスを示す。
力し、シナプス3を介して出力層2へ伝達され、出力信
号(出力パターン)となるものである。
られ、シナプス3の結合により、所定の処理(変換)が
なされる。
ロン型ネットワークとも呼ばれている。
1つある例)であり、第7図と同符号は同一のものを示
す。図において、4は中間層(中間層群)を示す。
との間に中間層4を1層介在させたネットワークであ
り、入力層1と中間層4の間、及び中間層4と出力層2
との間はシナプス3で接続される。
へ入力した後、シナプス3を通り、中間層4へ伝達さ
れ、更に、シナプス3を通って出力層2へ出力して出力
信号(出力パターン)となる。また、上記入力信号とし
ては、空間データが与えられる。
間層がある例)であり、第8図と同符号は同一のものを
示す。
層4が設けられており、それぞれ、入力層1、中間層
4、及び出力層2の間をシナプス3により結合したもの
である。
が介在していてもよい。
の場合、階層ネットワークにおける各ユニットは、入力
層1から中間層4、中間層4から出力層2という向きに
結合しており(前向き)、各層内での結合、及び出力層
2から入力層1に向かう結合は存在しない。
クプロパゲーション法のような学習により決定され、こ
の重みから決定される一定の変換規則を入力信号(入力
パターン)に適用し、出力層2にその変換した出力信号
(出力パターン)を出力する。
あった。
について、そのシナプスの重みの説明がうまくできない
とされていた(シナプスの重みから、ルールベースを作
る研究はある)。
タだけを扱っており、時系列データを扱うものはなかっ
た。
を多次元空間の値とみなし、空間データとして扱ってい
た。
により出力データに写像し、似たものを分類するものと
してニューラルネットワークを使用していた。
タと考え、上記のように処理していた。
ぎみ、下りぎみ、平坦等の状態を判別する場合とか、制
御の目標値に対し、それを実現する操作量を決定する場
合(これは、ニューラルネットワークにより、制御対象
の逆モデルを作ることに対応する)等である。
ルネットワークのシナプスの重み付けの意味を明確にし
て、重み付けの学習制御を容易にすると共に、時系列デ
ータの処理を可能とし、適用制御の容易なニューラルネ
ットワークを実現することを目的とする。
力層、3はシナプス(シナプス群)、4は中間層を示
す。また、1−1,1−2,1−3…は入力層の各ユニット、
2−1,2−2…は出力層2の各ユニット、4−1,4−2,4
−3…は中間層の各ユニット、u1(t−1),u1(t−
2),u1(t−3)…は時系列の入力データ、M1(t−
1),M1(t−2),M1(t−3)…は中間層の時系列デ
ータ、y1(t),y2(t)…は出力データを示す。
力層2との間に中間層4を有し、各層間は、シナプス3
により結合されたネットワークであり、入力層1の各ユ
ニット1−1,1−2,1−3…には、それぞれ時系列データ
であるu1(t−1),u1(t−2),u1(t−3)…が入
力する。
よりも過去のデータ、u1(t−3)はu1(t−2)より
も過去のデータを示し、M1(t−1),…M1(t−2)
…についても同様の関係を示す。
−2),u1(t−3)…はそのまま時系列データ(時間
データ)と見なし、更に、ニューラルネットワークの重
みは、制御理論のインパルス応答関数と見なすことによ
り、インパルス応答モデルをニューラルネットワークで
実現するものであり、その学習方法を次のようにする。
律に基づいて(上記各層の入力と出力の時間遅れを考慮
して)結線し、ニューラルネットワークのシナプス3の
重みを、インパルス応答関数の表現と見なし、学習によ
り決定する。
るシナプス群(同じ時間関係にあるシナプス群)を同じ
重みの値となるように学習させるものである。
対応するシナプスであり、同じ時間関係にある{u1(t
−1)とM1(t−1)、u1(t−2)とM1(t−2)…
は同時刻のデータで同じ時間関係}。
シナプスであり、同じ時間関係にある{u1(t−2)と
M1(t−1)は、M1(t−1)から見ればu1(t−2)
は1つ前の時刻のデータ、u1(t−3)とM1(t−2)
の関係もM1(t−2)から見ればu1(t−3)は1つの
前の時刻のデータであり、同じ時間関係にある}。
じ重みにし以下同様にして同じ時間関係にあるユニット
間のシナプスを同じ重み(平均値、あるいは最大値等)
となるように学習させる。
ルにおいて、そのシナプス結合の意味付けを、インパル
ス応答関数と見なすことで学習の内容を明確にしたもの
である。
するシナプス群について、出力データの平均値、あるい
は最大値を求め、全て同じ重みの値となるように繰返し
学習させるものである。
は、図示のA1,A2,A3…から成るシナプス群、B1,B2…か
ら成るシナプス群、C1,C2…から成るシナプス群…等で
あり、これらはそれぞれ同じ時間関係にあるシナプス群
である。そして、これら、それぞれ同じ時間関係にある
シナプスは同じ重みになるように繰返して学習させる。
みが決定でき、ニューラルネットワークモデルによるプ
ロセスモデルの同定が容易に行える。
ワークモデルの全体図であり、1は入力層、2は出力
層、3はシナプス、4は出力層は示す。
1(t−2),u1(t−3),u1(t−4)…u2(t−
1),u2(t−2),u2(t−3),u2(t−4)…u
3(t−1),u3(t−2)…ul(t−1),u(t−2)
…から成り、また、ベクトル についても同様である。
は、シナプス3により接続されるが、これらの結線は、
上記各層の時間遅れの因果律に基づいて(上記各層の入
力と出力の時間遅れを考慮して)結線される。
デルの一部詳細図である。
−2),u1(t−3),u1(t−4)…u1(t−k),u1
(t−k−1)…u1(t−i),u2(t−1),u2(t−
2)…u2(t−j)から成り、ベクトル は、時系列データM1(t−1),M1(t−2),M1(t−
3),M1(t−4),…M1(t−k+1),M1(t−
k),M2(t−1),…M2(t−l)から成っている。
て扱い、ニューラルネットワークのシナプスの重みは、
インパルス応答関数(制御理論上の関数)と見なすこと
により、学習で決定する。
基づいて決定する。その結果、図示のように、入力側か
ら見て過去のものとは結線せず、時間関係が同じユニッ
ト間のシナプスは同じ重みに決定する。
2)とM1(t−3)間のように、入力側からみて、時間
的に過去のものとは接続しない(中間層を基準にすれ
ば、未来の入力とは結線しない)。
とM1(t−2)間等は、同じ時間関係なので同じ重みに
する(図示の平行なシナプス同志は全て同じ重みにす
る)。
とM1(t−2)間…等も同じ重みにする。
に対し、T時間しか影響しないなら、t=k+Tであ
り、u1(t−j)はM1(t−j)から{但しj>kなら
ばM1(t−k)から}M1(t−j+T)まで{但しj−
T≦0ならM1(t−1)まで}を結線すればよい。
る場合でも適用可能である。
法の説明図である。
データu1(t−1),u1(t−2),u1(t−3),u
1(t−4)…は、そのまま時系列データと見なし、更
に、ニューラルネットワークの重みは、制御理論のイン
パルス応答関数と見なすことにより、インパルス応答モ
デルをニューラルネットワークで実現したものである。
インパルス応答関数の表現と見なし、学習により決定す
る。
応答における因果律に基づいて結線する。
学習内容の説明が可能になるから、シナプスの結合の仕
方を時系列データに対応させて制約(既定)する。
インパルス応答関数に対応するシナプス群は、学習時に
同じ値になるように学習させる。
ロパゲーション法を用いる。
ら成る階層ネットワークに、誤差フィードバックを導入
し、この誤差フィードバック(ネットワークの出力と教
師信号との誤差Eをフィードバックする)に基づいて、
シナプスの重み(結合の重み)を調節し、その結果、ネ
ットワークは、入力信号(入力パターン)と出力信号
(出力パターン)との連合を学習し、適切なデータ処理
を実現できるようにするものである。
学習方法が適用可能である。
に、入力層と中間層の間のシナプスで同じ時間関係にあ
るものを次のように符号で表わす。
とM1(t−2)間、u1(t−3)とM1(t−3)間、u1
(t−4)とM1(t−4)間、u1(t−5)とM1(t−
5)間…のシナプスをそれぞれA1,A2,A3,A4,A5…(これ
らをまとめてAとする)。
とM1(t−2)間、u1(t−4)とM1(t−3)間、u1
(t−5)とM1(t−4)間…のシナプスをそれぞれ
B1,B2,B3,B4…(これらをまとめてBとする)。
とM1(t−2)間、u1(t−5)とM1(t−3)間…の
シナプスをC1,C2,C3…(これらをまとめてCとする)。
3…,E1,E2,…のようにする。
(C1,C2,C3…)、D(D1,D2,D3…)、E(E1,E2,E3…)
…をそれぞれ時系列データで一般的に表現すれば、次の
ようになる。
れ、 A:u1(t−n)→M1(t−n) n=1,2……k, B:u1(t−n)→M1(t−n+1) n=2,3……k, C:u1(t−n)→M1(t−n+2) n=3,4……k, のようになり、i=2とすれば、 A:u2(t−n)→M2(t−n) n=1,2……k, B:u2(t−n)→M2(t−n+1) n=2,3……k, C:u2(t−n)→M2(t−n+2) n=3,4……k, となる。
応答関数の説明図である。
数を示し、図示のf1,f2,f3,f4…は、それぞれインパル
ス応答関数の要素を示す。
じ時間関係にあるシナプスA,B,C…(図示の平行線)
は、同じインパルス応答関数の要素となる。即ち、Aは
f1に対応し、Bはf2に対応し、Cはf3に対応する。
て、同じインパルス関数に対応するシナプス群を、バッ
クプロパゲーション法等により学習する時に、上記のA
(A1,A2,A3…)、B(B1,B2,B3…)、C(C1,C2,C3…)
…は、それぞれ同じ値になるように学習させる。
る(同じ時間関係にある)シナプスの重みは、得られた
値の平均値、あるいは最大値等を用いて、同じ値になる
ように学習させるものである。
=1,2,…)をf1、B1(i=1,2,…)をf2、C1(i=1,2,
…)をf3と対応するように、インパルス応答関数の単位
時間当たりの値を図5に示したニューラルネットワーク
の結線に対応させたものである。すなわち、シナプス
は、上記各層の時間遅れの因果律に基づいて結線したも
のである。但し、前記インパルス応答関数の単位時間当
たりの値は、未学習時はディフォルト値(例えば、0.
5)であり、インパルス応答関数になっていないため前
記学習により決定する。
がある。
を作れば、後は、学習により自動的に、インパルス応答
関数、即ちシナプスの重み(パラメータ)が決まる。
数と見なすことで学習内容の説明ができる(シナプスの
説明ができる)。
ルネットワークに比べて、学習の収束性も保証できる
(定性モデルを修正することで対応)。
の固定が容易にできる。
デルが容易に実現できる。
学習方法の原理図、 第2図乃至第6図は本発明の1実施例を示した図であ
り、 第2図はニューラルネットワークモデルの全体図、 第3図はニューラルネットワークモデルの一部詳細図、 第4図はバックプロパゲーション法による学習の例、 第5図は学習方法の説明図(シナプスの説明)、 第6図は学習方法の説明図(インパルス応答関数の説
明)である。 第7図〜第9図は従来のニューラルネットワークを示し
た図であり、 第7図は中間層が無い例、 第8図は中間層が1つある例、 第9図は中間層が2つある例を示した図である。 1……入力層、2……出力層 3……シナプス、4……中間層
Claims (1)
- 【請求項1】時系列データ{u1(t−1),u1(t−
2)…}がそれぞれ入力する複数の入力層ユニット(1
−1,1−2,1−3…)から成る入力層(1)と、 前記入力層ユニット(1−1,1−2…)とそれぞれシナ
プス(3)により結合され、中間の時系列データ{M
1(t−1),M1(t−2),M1(t−3)…}が入力す
る複数の中間層ユニット(4−1,4−2,4−3…)から成
る中間層(4)と、 前記中間層ユニット(4−1,4−2…)とそれぞれシナ
プス(3)により結合された出力層ユニット(2)とか
ら成り、 上記シナプス(3)を、上記各層の時間遅れの因果律に
基づいて結線したニューラルネットワークモデルの学習
方法において、 上記シナプス(3)の重みを、インパルス応答関数の表
現とみなし、 同じインパルス応答関数に対応するシナプス群である同
じ時間関係にあるシナプス群を同じ重みの値となるよう
に(「A1,A2,A3…」、「B1,B2,…」「C1…」…をそれぞ
れ同じ重みにする)学習させることを特徴とするニュー
ラルネットワークモデルの学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1261078A JP2544489B2 (ja) | 1989-10-05 | 1989-10-05 | ニュ―ラルネットワ―クモデルの学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1261078A JP2544489B2 (ja) | 1989-10-05 | 1989-10-05 | ニュ―ラルネットワ―クモデルの学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH03122754A JPH03122754A (ja) | 1991-05-24 |
JP2544489B2 true JP2544489B2 (ja) | 1996-10-16 |
Family
ID=17356775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1261078A Expired - Lifetime JP2544489B2 (ja) | 1989-10-05 | 1989-10-05 | ニュ―ラルネットワ―クモデルの学習方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2544489B2 (ja) |
-
1989
- 1989-10-05 JP JP1261078A patent/JP2544489B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH03122754A (ja) | 1991-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2615422B2 (ja) | 時系列学習神経回路素子およびそれを用いた時系列学習神経回路 | |
CN112529166A (zh) | 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备 | |
JPH06266868A (ja) | ニューロン素子 | |
Solazzi et al. | Regularising neural networks using flexible multivariate activation function | |
EP0444878B1 (en) | Neural network | |
JPH07282168A (ja) | カオスリカレント神経回路網とその学習方法 | |
JPH0264787A (ja) | 階層構造ニューラルネット | |
JP2544489B2 (ja) | ニュ―ラルネットワ―クモデルの学習方法 | |
JPH05197701A (ja) | ニューラルネットワークを用いた情報処理装置 | |
Beerhold et al. | Pulse-processing neural net hardware with selectable topology and adaptive weights and delays | |
Stamova et al. | Artificial intelligence in the digital age | |
JP3168204B2 (ja) | ネットワーク構成データ処理装置 | |
Betere et al. | Investigation of multi-layer neural network performance evolved by genetic algorithms | |
de Figueiredo | Optimal interpolating and smoothing functional artificial neural networks (FANNs) based on a generalized Fock space framework | |
JPH0492901A (ja) | ニューラルネットワークによるファジイ制御器 | |
Chun-Yan et al. | Combining rough set theory with neural network theory for pattern recognition | |
JPH07113942B2 (ja) | ニューロチップによる結合器 | |
JPH03257658A (ja) | ニューラルネットワークの動的システムモデル化方法 | |
JPH03100858A (ja) | ニューラルネットワーク | |
JP2517662B2 (ja) | 連鎖制御装置 | |
Chan et al. | Fuzzy neural logic network and its learning algorithms | |
JPH03265077A (ja) | フィードバック神経細胞モデル | |
Galushkin et al. | Neural network expert system | |
JPH08249303A (ja) | 信号処理装置 | |
JP3393511B2 (ja) | 文字認識装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090725 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090725 Year of fee payment: 13 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090725 Year of fee payment: 13 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100725 Year of fee payment: 14 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100725 Year of fee payment: 14 |