JPH05324599A - 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法 - Google Patents
非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法Info
- Publication number
- JPH05324599A JPH05324599A JP4132897A JP13289792A JPH05324599A JP H05324599 A JPH05324599 A JP H05324599A JP 4132897 A JP4132897 A JP 4132897A JP 13289792 A JP13289792 A JP 13289792A JP H05324599 A JPH05324599 A JP H05324599A
- Authority
- JP
- Japan
- Prior art keywords
- linear
- synapse
- function
- nonlinear
- neuron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
将来の信号値あるいは未知座標の値を予測する非線形シ
ナプスニューロン。 【構成】 入力信号に対して、非線形重み付けが与えら
れ、これらの重み付けが付与された信号を加算して予測
値を出力する。非線形シナプスの重み付けは複数回の学
習によって定められ、このために、非線形シナプスは多
次多項式あるいはファジィ推論回路から構成される。多
次多項式はf(x)=a0 +a1 x+a2 x2 +a3 x
3 … an xn で示される可変関数からなる。また、
非線形シナプスをファジィ推論で決定する場合、複数の
相補型メンバシップ関数手段と各メンバシップ関数のグ
レードによって重み付けの度合いが決定される重み付け
回路が用いられる。
Description
ン、特に音声信号、画像信号等の信号予測を効果的に実
行するための非線形シナプスニューロンに関するもので
ある。
な信号処理として用いるニューラルネットワークがパタ
ーン認識、信号処理あるいは知識処理等に利用され、脳
のニューロンに対応したユニットが複数個複雑に接続さ
れ、各ユニットの動作及びユニット間の接続形態を適当
に定めることによってパターン認識機能、知識処理機能
を実行することができる。
ワークの構造からパターン伝送型と自動伝送型に分類さ
れ、前者は入力パターンをある出力パターンに変換する
ネットワークを形成し、また後者は入力パターンに最も
近いパターンを出力するネットワークを形成する。
クでは、各ユニット(ニューロン)を入力層、中間層、
出力層に階層化し、各ユニットは入力層から出力層に向
け接続され、この結果、入力ユニットと出力ユニットと
は独立している。そして、演算機能や画像情報は各ユニ
ット間の接続形態や接続の強さとして記憶され、得られ
た出力と望ましい出力との差を用いて結合の強さが任意
に変化される。このときの結合の強さは結合系数あるい
はシナプスの重みとして所定のパラメータを形成してい
る。
においては、入力ユニットと出力ユニットとは共通であ
り、ネットワーク内の全てのユニットが互いに相互接続
され、前記結合の強さ(シナプスの重み)は似通った入
力パターンを識別するために用いられている。
てパターン認識が行われるが、周知のように、このニュ
ーラルネットワークを効果的に作動させるためには、バ
ックプロパゲーション等として知られる学習アルゴリズ
ムが用いられ、前述したパターン認識、音声認識、音声
合成、信号処理あるいは知識処理等の広範囲の信号予測
適用分野でニューラルネットワークを作用させるために
は、このバックプロパゲーション等の学習が極めて効果
的である。
層、中間層そして出力層という階層構造をとり、この中
間層は隠れ層として知られており、パターン伝送型ニュ
ーラルネットワークにおいては、学習過程において入力
データの処理(前向き)と逆に学習のデータを入力した
ときに結果のエラーを減らすように(後ろ向き)シナプ
ス結合の記述を変え、これが収束するまで学習アルゴリ
ズムを繰返す。
ションアルゴリズム等の学習機能が付加されたニューラ
ルネットワークにて各種のパターン認識その他の信号予
測が成果をあげている。
うな従来におけるニューラルネットワークでは、最適予
測作用を行うために、多数回の学習作用を必要とし、こ
のためにパラメータが多い場合には学習自体に多大な時
間が費やされるという問題があった。
ークにおいては、入力層と中間層及び中間層と出力層と
の間は全てのシナプス間が結合され、この結果、学習に
必要な演算回数が極端に増大するという問題があった。
そして出力層に7素子のニューラルネットワークを想定
すると、入力層と中間層との間で30個の結合組み合わ
せ数が生じ、同様に中間層と出力層間には42個の結合
組が必要となる。
スは線形特性を有しており、この結果、前記全ての組み
合わせを同時に機能させながら学習を行う必要があり、
この結果、前記想定した比較的単純なネットワークにお
いても、その全組み合わせ数が1260個の組み合わせ
数となり、このような多数の結合組に対して所望のパラ
メータを設定するために、多大の演算時間が必要となっ
ていた。
のであり、その目的は、少ない回数の学習によってシナ
プスの結合係数を最適値に設定収斂することができる高
速学習型であり、かつ、極めて高い予測精度の非線形シ
ナプスニューロン、そのデバイス及びそれを用いた予測
方法を提供することにある。
に、本発明は、本発明に係る非線形シナプスニューロン
及びデバイスは、複数の入力信号のそれぞれに所望の重
み付けを与えるための複数の非線形シナプス手段(回
路)と、各非線形シナプスの出力を加算する加算手段
(器)と、を含み、前記非線形シナプス手段(回路)
は、入力信号xに対して可変重み係数(a0 ,a1 ,a
2 , … ,an )を有する非線形関数{f(x)=a
0 +a1 x+a2 x2 +a3 x3 … an xn }で示
される可変関数手段(回路)、を含むことを特徴とす
る。
ロン及びデバイスは、複数の入力信号のそれぞれに所望
の重み付けを与えるための複数の非線形シナプス手段
(回路)と、各非線形シナプスの出力を加算する加算手
段(器)と、を含み、前記非線形シナプス手段(回路)
は、入力信号レベルに応じて区間分けされ、順次前件部
の一部が重複して並列接続された複数の相補型メンバシ
ップ関数手段(回路)と、各メンバシップ関数手段(回
路)に接続され対応するメンバシップ関数のグレードで
学習の度合が定められる複数の可変重み付け手段(回
路)と、を含むことを特徴とする。
ロン及びデバイスは、サンプリングされた時系列信号を
受け入れる直列接続された遅延手段(回路)と、前記遅
延された時系列信号のそれぞれに所望の重み付けを与え
るための複数の非線形シナプス手段(回路)と、各非線
形シナプスの出力を加算する加算手段(器)と、を含
み、前記非線形シナプス手段(回路)は、入力信号レベ
ルに応じて区間分けされ、順次前件部の一部が重複して
並列接続された複数の相補型メンバシップ関数手段(回
路)と、各メンバシップ関数手段(回路)に接続され対
応するメンバシップ関数のグレードで学習の度合が定め
られる複数の可変重み付け手段(回路)と、を含むこと
を特徴とする。
ロン及びデバイスは、空間的に異なる座標位置の複数の
信号のそれぞれに所望の重み付けを与えるための複数の
非線形シナプス手段(回路)と、各非線形シナプスの出
力を加算する加算手段(器)と、を含み、前記非線形シ
ナプス手段(回路)は、入力信号レベルに応じて区間分
けされ、順次前件部の一部が重複して並列接続された複
数の相補型メンバシップ関数手段(回路)と、各メンバ
シップ関数手段(回路)に接続され対応するメンバシッ
プ関数のグレードで学習の度合が定められる複数の可変
重み付け手段(回路)と、を含むことを特徴とする。
れぞれに非線形シナプスで所望の重み付けを与え、各非
線形シナプスの出力を加算し、前記非線形シナプスは、
入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)=a0 +
a1 x+a2 x2 +a3 x3 … an xn }で示され
る可変関数を有するので、各非線形シナプスの結合係数
は、他のシナプスとは独立して決定され、その学習時に
おいても各シナプスの重み付けは極めてわずかな回数、
例えば入力信号を変化させた数回の学習によって収斂
し、誤差値を少なくして高精度の結合係数を設定するこ
とが可能となる。
それぞれに非線形シナプスで所望の重み付けを与え、各
非線形シナプスの出力を加算し、前記非線形シナプス
は、入力信号がレベルに応じて区間分けされ、順次前件
部の一部が重複して並列接続された複数の相補型メンバ
シップ関数のグレードに応じて可変重み付けを与えたの
で、各非線形シナプスの結合係数は、他のシナプスとは
独立して決定され、その学習時においても各シナプスの
重み付けは極めてわずかな回数、例えば入力信号を変化
させた数回の学習によって収斂し、誤差値を少なくして
高精度の結合係数を設定することが可能となる。
た時系列信号を受け入れる所定量の遅延手段を与え、前
記遅延された時系列信号のそれぞれに非線形シナプスで
所望の重み付けを与え、各非線形シナプスの出力を加算
し、前記非線形シナプスは、入力信号がレベルに応じて
区間分けされ、順次前件部の一部が重複して並列接続さ
れた複数の相補型メンバシップ関数のグレードに応じて
可変重み付けを与えたので、各非線形シナプスの結合係
数は、他のシナプスとは独立して決定され、その学習時
においても各シナプスの重み付けは極めてわずかな回
数、例えば入力信号を変化させた数回の学習によって収
斂し、誤差値を少なくして高精度の結合係数を設定する
ことが可能となる。
標位置の複数の信号のそれぞれに非線形シナプスで所望
の重み付けを与え、各非線形シナプスの出力を加算し、
前記非線形シナプスは、入力信号がレベルに応じて区間
分けされ、順次前件部の一部が重複して並列接続された
複数の相補型メンバシップ関数のグレードに応じて可変
重み付けを与えたので、各非線形シナプスの結合係数
は、他のシナプスとは独立して決定され、その学習時に
おいても各シナプスの重み付けは極めてわずかな回数、
例えば入力信号を変化させた数回の学習によって収斂
し、誤差値を少なくして高精度の結合係数を設定するこ
とが可能となる。
ン、そのデバイス及びそれを用いた予測方法について実
施例に基づいて詳細に説明する。
ューロンの好適な実施例が概略的な全体図として示さ
れ、このニューロンは4つのシナプス10−1〜10−
4を有し、これらの各シナプスは本発明において非線形
シナプスからなることを特徴とする。
11−1〜11−4に入力信号x0,x1 ,x2 ,x3
が供給され、非線形シナプス10において各複数の入力
信号xのそれぞれに所望の重み付けが与えられる。
加算手段12に供給され、各出力が加算された後出力端
子19から出力信号yとして出力される。前記各非線形
シナプス10において、その内容は可変関数f0 ,
f1 ,f2 ,f3 で示され、この結果、非線形シナプス
ニューロンの入出力関係は次式で与えられる。
が非線形となり、この結果、時系列信号あるいは空間信
号からシステムを同定する場合に、システムの非線形性
が強い場合においても、本発明の非線形シナプスを用い
ることによって高精度の非線形近似を行うことが可能と
なる。
プス10の可変関数f(x)を学習によって定めれば入
力信号xに対して極めて高精度に予測信号yを得ること
ができる。
変関数f(x)は以下の(2)式に示される多次多項式
によって表わされる。
めれば、入力信号に最適な非線形シナプスを設定するこ
とができる。
ス10の構造を更に詳細に説明する。
と以下の(3)式にて表わされる。 f(x)=a0 +a1 x+a2 x2 +a3 x3 +a4 x4 =a0 +x[a1 +x{a2 +x(a3 +a4 x)}] (3)式 そして、この(3)式は、図2の縦属接続された積和回
路にて構成することができる。
4個の縦属接続された積和回路13−1〜13−4を含
み、各積和回路13はそれぞれ乗算器14及び加算器1
5からなる。積和回路13−1において、乗算器14−
1は入力信号xと前段の積和回路13−2から得られた
出力f-1(x)が供給されており、この両信号の乗算出
力が加算器15−1において係数a0 と加算されてい
る。
-n(x)と入力信号xとの積算値に各係数an を加算す
る構成からなる。
回路により、前述した(3)式が実現されていることが
理解される。
路は、IC回路から構成してもよく、またこれをソフト
ウェアで実現してもよい。
シナプス10を構成すると、図1における各シナプス1
0はそれぞれ独立して構成され、もはや従来のニューラ
ルネットワークのように、全ての入力信号に対して線形
シナプス群をネットワーク状に組み合わせる必要がなく
なり、これによって前述した各シナプス10の結合係数
an を学習することが極めて容易となる。
た積和回路13はその下流側、即ち積和回路13−1の
係数a0 が定数成分の決定に係わり、順次高次シナプス
係数an が信号の高次成分を表わすこととなる。この結
果、本実施例においては、順次定数成分から高次成分に
向かって各シナプス係数を学習によって定めることが好
適であり、これによって少ない回数により簡単に各係数
を最適値に決定することができる。
3に示すような(x1 ,y1 ),(x2 ,y2 ),…,
(x5 ,y5 ),(x6 ,y6 ),…と5個以上のデー
タが必要である。これは、(3)式において、a0 〜a
4 の全ての係数を決定するのに、(x,f(x) )に関す
る5個のデータを(3)式に代入し、a0 〜a4 に関す
る5元連立方程式を解くことに類似している。5個未満
の(x,f(x) )のデータでは全てのa0 〜a4 が決定
できないのである。
y2 ),…,(x6 ,y6 )の6個のデータを用いた学
習によってa0 〜a4 を決定する手順について述べる。
る。
−yi )2 (i=1〜6)を計算する。
ばan (t+1) =an (t) −G,δε2 (t)  ̄/δa
n (t) <0ならばan (t+1) =an (t) +Gとする。但
し、ここでGは定数。
ε2 (t) より小さければ(例えば図4の曲線上のBの
ように)、このan (t+1) をan (t) として上記(2)
に戻る。もし、ε2 (t+1)  ̄がε2 (t)  ̄より大きけれ
ば(例えば図4の曲線上のCのように)、上記(3)
におけるGを半分にして(3)を実行する。このときε
2 (t+1)  ̄はDとなる。このようにして得たan (t+1)
における二乗平均誤差ε2 (t+1)  ̄がε2 (t)  ̄よりも
小さくなるまで何度もGを半減する。かくして、ε2 (t
+1)  ̄が、図4中のEのようにAよりも低くなるまで続
ける。以下(3)に戻る。
ε2 (t+1)  ̄−ε2 (t)  ̄|がある値より小さくなった
ら、そのan (t) の学習は一時停止し、次はan+1 (t)
について(2)〜(5)と同様の学習を行なう。
ると、1回の学習が終了したとみなす。
で、上記(2)〜(6)を繰り返す。
0 〜an を求めるために、数回の学習で十分に高精度の
学習が可能であった。また、3次多項式を満たす5個の
データ(x1 ,y1 ),(x2 ,y2 ),…,(x5 ,
y5 )を用いて、上記の方法でa0 〜a4 を求めたとこ
ろ、当然のことながらa4 =0となった。
合係数を多次多項式モデルで同定すれば所望の入力信号
に対して高精度の予測値を得ることができる。
路13に用いられている乗算器14−1や加算器15−
1は高精度である必要はない。すなわち、非線形性の高
い乗算器や加算器であっても、これを含めた形で、学習
により、次数(an の数)や係数a0 〜an を定め、ε
2  ̄を小さくすることができる。このことは、デバイス
を構成する際に極めて都合がよい。
ては、時系列信号あるいは空間的な信号として取り扱う
ことができ、以下に時系列信号を入力信号として処理す
る場合の本発明の他の実施例を説明する。
スニューロンは遅延素子との組み合わせによってダイナ
ミカルシステムの同定が行われる。
ロンの好適な実施例が全体的な概略図として示されてい
る。
号yn は入力端子21から直列接続された実施例におい
ては4個の遅延回路20−1〜20−4に入力される。
路20を通って1サンプリング周期ごとに順次非線形シ
ナプス10−1〜10−4に供給されることとなる。従
って、本実施例によれば、4個の時系列信号がサンプリ
ングされて入力されたとき、全ての非線形シナプス10
が機能することとなる。
式で与えられたとき、 X=(x0 ,x1 ,x2 ,x3 ) (4)式 各非線形シナプス10への入力信号x0 〜x3 の集合を
入力ベクトルXi と呼ぶ。この入力ベクトルXi =(x
0 ,x1 ,x2 ,x3 )は時系列信号Xを初期値から順
に遅延素子20を通して各非線形シナプス10の入力端
子に供給される。
との関係を用いて本実施例における学習動作と予測動作
とを説明する。
トルはX0 からX2 までが入力された状態で、この3ス
テップでは、各遅延回路20に対して、4個の遅延回路
20全てを動作することができず、実際のモードにおい
ては予備動作として取り扱われる。即ち、本実施例にお
いては各非線形シナプス10の結合係数を求めるための
学習動作は図6において入力ベクトルX3 からXn-1 ま
での複数回において行われ、この時にはいずれも4個の
入力信号x0 〜x3 が各遅延回路20から非線形シナプ
ス10に供給されている。
れらの各入力信号に応じて各シナプス10の結合係数a
を求めることができる。この状態は図6において符号1
02で示されている。
るX3 からXn-1 までの各入力ベクトルに対して順次学
習が進められ、k番目の入力ベクトルXk に対して、本
実施例の学習は以下に示す(5)式の評価関数が極小に
なるように行われる。
信号であり、またyk+ 1 ^は時系列信号が入力された時
の予測値を示す。
εk を得るまでの収斂学習回数は数回で十分であった。
従って、本発明によれば、従来のニューラルネットワー
クに比してその学習回数が著しく減少していることが理
解される。
各非線形シナプス10の結合係数が決定された後に、入
力ベクトルXn が入力端子21に供給されたときの1サ
ンプリング時刻先の予測動作を示しており、入力ベクト
ルXn は各非線形シナプス10によって所望の重み付が
与えられ、その加算値がxn+1 ^として求められてい
る。
号のサンプリング入力信号とすることによって常に1時
刻先の予測値を正確に得ることが可能となる。
測を行うためには、図6の符号104で示されるよう
に、入力ベクトルXn に対してその出力であるy
n+1 ^,yn+ 2 ^,yn+3 ^…を順次入力端子21へ戻
し、本発明に係る非線形ニューロンを繰り返し動作させ
ることにより、所望の将来予測値を得ることが可能とな
る。
ューロンにて実際の時系列信号の同定を行った例を以下
に説明する。
習シミュレーションを行うために、以下の(6)式で示
す時系列信号を考える。
aが以下の値である多次多項式からなることが理解され
る。
信号を本実施例における非線形シナプスニューロンにて
同定した結果を以下に示す。
多次多項式に標準変量G=0.01、学習回数200回
で本実施例を用いて学習したときの同定された関数が破
線で示されている。なお、この標準変量Gは、各学習時
における係数aの標準的な変化幅を示す。図7から明ら
かなように、この関数は元の実線で示された時系列信号
とほとんど重なってしまい、前述した条件における本実
施例の同定が極めて高精度で行われていることが理解さ
れる。
のサンプリングデータであり、以下にその座標値を示
す。
の学習とともに誤差が修正されている様子を示し、平均
二乗誤差の平方根が学習回数とともに急速に減少してお
り、誤差1%となるのに116回の学習で十分なことを
示す。
項式の係数a0 〜a5 の学習による収束状態を示してお
り、実験で用いた200回の学習によってほぼ各係数が
収束していることが理解される。
いずれの場合も、各係数の収束状態は同様であったが、
その学習時間はもちろんGの大きい順に高速化してい
た。
の時系列係数をシステム同定した場合の例を示す。
非整数指数の多次多項式をシステム同定することもでき
ることを示す。
このように非整数指数を有する入力信号に対しても、本
実施例によれば、整数指数をもった非線形関数のシナプ
ス手段によって破線で示されるように極めて近似したシ
ステム同定が可能なことが理解される。
ングデータを用い、1000回学習して前述した破線の
システム同定結果が得られている。
っていかなる減少挙動を示すかを示し、急峻な誤差減少
が示されている。
たときの非線形シナプスの非線形関数係数a0 〜a5 が
どのように収斂するかを示しており、1000回の学習
によってほぼ各係数が所定値に収斂している様子が理解
される。
シナプスの重み付けは多次多項式によって定められてい
たが、このような非線形シナプスは本発明において、フ
ァジィルールを用いて表現することも可能である。
好適な実施例が示され、前述した図1のニューロン構造
の非線形シナプス10をメンバシップ関数手段と重み付
け手段とによって構成した実施例が示されている。図に
おいて、非線形シナプス10−4のみが例示されている
が、他の非線形シナプス10−1,10−2,10−3
も同様に複数のメンバシップ関数手段とこれに対応して
設けられた複数の重み付け手段とから構成されている。
ベルの数を5個とした非線形シナプスf(x)の構造か
らなり、並列接続された5個のメンバシップ関数回路3
0−1〜30−5に入力信号xが供給される。これらの
各メンバシップ関数回路30は、図24中のμ1 〜μ5
にみられるように順次前件部の一部が重複して並列接続
され、更に隣接する2個のメンバシップ関数が互いに相
補型に構成されている。
ず、5個のメンバシップ関数回路30のうち2個のメン
バシップ関数によってのみそのグレードが定められ、更
に両グレードの総計値は常に「1」となるような相補型
に設定されている。
により各メンバシップ関数回路30に接続されている重
み付け回路31−1〜31−5の重みは対応するメンバ
シップ関数のグレードでその学習の度合いが定められる
こととなる。
は加算器32を経て前述した加算器12に供給される
が、本発明においては、必ずしも非線形シナプス10内
の加算器32は設ける必要がない。即ち、重み付け回路
31の各出力を直接加算器12へ供給しても同様の効果
が得られるからである。
グレードμに重みwを乗じた値の総和が非線形シナプス
10の入出力関係を示す。
出力関係は、以下の(8)式にて示される。
関数のグレードμに依存することが理解される。
との関係が図22に示されている。図14において、入
力信号xは最小値xminとxmaxとの間を変動し、
時刻tに従った時系列信号を形成している。
4で区切られた4区間に分け、図においてx01,x12,
x23,x34に区分けする。
バシップ関数は前記区間ごとに隣接するメンバシップ関
数が互いに相補型にそのグレード総計を常に「1」とす
るようにメンバシップ関数が設定される。この結果、メ
ンバシップ関数μ1 は実線で示されるように区間x01に
対してのみ与えられる。そして、メンバシップ関数μ2
は区間x01とx12において、同様にメンバシップ関数μ
3 は区間x12とx23、メンバシップ関数μ4 は区間x23
とx34について表れ、メンバシップ関数μ5 は区間x34
についてのみ与えられている。
2個のメンバシップ関数のみが相補的に機能してそれら
のグレード総計は常に「1」となり、例えば時刻t1 に
おいては、メンバシップ関数μ2 とμ3 とが働く。
3個のメンバシップ関数μ1 ,μ4,μ5 は全て「0」
であるため、これらのメンバシップ関数のグレードにて
度合いが定まる重み付けは機能しないことが明らかであ
る。従って、時刻t1 においては、メンバシップ関数μ
2 ,μ3 のグレードに応じて重み付けw2 とw3 とが学
習し、その他のw1 ,w4 ,w5 の学習は行われない、
これは、区間x12の全てにおいて同様であり、区間x12
ではそれぞれのメンバシップ関数にて定まるグレードμ
2 ,μ3 の度合いに応じた重みw2 ,w3 のみの学習が
行われることとなる。他の区間においても、同様の作用
が得られる。
プ関数をその前件部において重複させ、相補型に用いる
ことにより、前述したように全てのレベルにおいてグレ
ードの総数は「1」となり、この結果、重み付け加算を
した後のデータをそのまま非線形シナプス10の出力と
して用いることができるという利点がある。即ち、仮に
これらのグレード統計値が「1」でない場合には、加算
後に割り算その他のディファジフィケーションを行う必
要があり、回路あるいは処理システムを著しく複雑にす
るが、本発明においては前記相補型メンバシップ関数を
用いることによってこのような不都合を確実に防止する
ことができる。
シナプス10−3の重み付け係数を求める手順が示され
ている。
で示され、このときの励起されるメンバシップ関数はμ
2 とμ3 であり、これら各メンバシップ関数μ2 ,μ3
のそれぞれのグレードはμ2 (t1 )及びμ3 (t1 )
で示される。従って、これらのグレードに合わせて、そ
れぞれ重みw2 ,w3 の比率が定まり、その平均がw
(t1 )として求められる。
ら平均的に求められた重みw(t1)を示す。
用いることによって本発明によれば、分母が常に「1」
となり後段において割り算器等のディファジフィケーシ
ョンを必要とすることがない。
ジィ推論を用いて非線形シナプスの重み付けを決定する
ことができ、前述した多次多項式と同様に各非線形シナ
プスはそれぞれ独立しているので、これらの重み付けを
定めるための学習回数は極めて僅かでよく、簡単に最適
なシナプスの重み付け決定を行うことができる。
作られたカオス的信号が示され、この時系列信号は以下
の(10)式で示される。
50個のデータで示され、縦軸のXの値は±3.0の間
をカオス的に変動する。
来予測不能な時系列信号に対して非線形シナプスを用い
てわずかな回数の学習により予測可能であることを示
す。
のカオス的な信号を1〜5次の各モデルで同定した。
に係る非線形シナプスニューロンが示されている。
ロンによって図16におけるカオス的信号を同定したと
きの平均二乗誤差が示されている。
ナミカルシステムは3次の時系列信号であるが、ニュー
ロンで同定する時の各次数のマッピング関数は折れ線近
似となるので、3次ニューロンモデルよりも4次及び5
次ニューロンモデルの方が高次シナプスで補正できるた
めに、良好な結果が得られていることが理解される。図
19〜23には前述した5次ニューロンモデルによって
3次の時系列信号をシステム同定するときの各次のマッ
ピング関数が示されている。各図において、実線は図1
6のカオス的信号を作るのに用いた3次ダイナミカルシ
ステムの各次数におけるマッピング関数を示し、破線は
5次ニューロンモデルで同定した場合の各次のマッピン
グ関数を示す。
験例によれば、3次のダイナミカルシステムを5次ニュ
ーロンモデルで同定しているので、3次までの折れ線近
似誤差が4次及び5次の非線形シナプスで補正可能であ
ることを示す。
予測動作が示され、前述したごとく重み付け学習された
5次ニューロンモデルを用いて、順次入力信号で学習を
し、係数を更新しながら、将来発生する時系列信号の予
測を行っている。
でもあるいは所定の任意の将来時刻における予測でもよ
い。
のカオス的信号を再掲した実線で示す真の値に対する1
時刻先の予測値を示す。従って、図24から、本実施例
によれば、従来予測不能であったカオス的信号に対して
も十分追従する予測作用を行えることが理解される。
てシステム同定した本実施例における5次のニューロン
モデルに出力から入力へのフィードバックを施し、固定
的に与えられた5個の時系列信号からその後に発生する
予測値を順次予測した状態を示すものであり、前記図2
4と同様に実線が真の値、そして破線がフィードバック
から得られた将来の予測値を示す。
いる5個の時系列信号のみから将来に渡る予測作用を行
うものであり、図24と異なり、先の予測ほど誤差を含
むことは当然である。
ても、図25からは少なくとも5〜10同時刻先の予測
に対しては極めて一致度の高い予測作用が得られている
ことが理解される。
用いた時の学習時におけるゲイン定数αを変化させたと
きの学習回数と平均二乗誤差との関係を示す。
て実験したところ、 α=0.02 α=0.2 α=0.56 α=0.57 α=0.2の時に極めて良好なシステム同定が行われて
いることが理解される。
き最も早く学習が完了し、図27から明らかなように、
10回程度の学習回数で十分に高精度の同定が行われ、
従来と比し100〜1000分の1程度の極めて僅かな
回数で本発明における非線形シナプスニューロンがシス
テム同定できることを示す。
線形シナプス10は前述した多次多項式による非線形シ
ナプスと同様に、入力される複数の時系列信号から順
次、次の時刻あるいは将来の所定時間先の時刻における
値を順次予測することができ、入力時系列信号を順次更
新することによって常に所定量先の予測値を得ることが
できる。
のニューロンモデルに供給すれば、順次先の時刻を予測
することができる。即ち、入力信号は一定時刻において
固定しているが、次の時刻の予測値を出力した時にこれ
を入力端子にフィードバックし、次々にこのフィードバ
ックされた予測値を用いながら、更に先の将来における
予測値を順次更新することができる。
た場合においても、実験によれば5〜10回の学習によ
って十分な高精度でシステムを同定することができ、従
来の線形シナプスによる同定と異なり、極めて短時間で
学習を完了することができる利点がある。
ロンはその入力信号として時系列信号ばかりでなく、空
間信号も処理可能であり、この与えられた空間の外の予
測値を得る場合にも用いることができる。
が示されており、x軸方向に等間隔で分布したx1 〜x
5 そして、x7 が既知である。この場合、本発明に係る
非線形シナプスニューロンに(x1 ,x2 ,x3 ,
x4 )時のyの値(y1 ,y2 ,y3 ,y4 )を入力
し、出力yがy7 となるように前記各非線形シナプス1
0のf(x)を学習で求める。勿論、通常の既知データ
としては、前述した4個のデータyのみではなく、y1
〜y50の多数のデータを4個ずつシリアルに入力して前
記学習を行うことが好適である。
次に(x2 ,x3 ,x4 ,x5 )のyの値(y2 ,
y3 ,y4 ,y5 )を入力すると本発明に係る非線形ニ
ューロンからは座標x8 に対応する値y8 を予想するこ
とが可能である。
信号ばかりでなく、空間的な信号を用いて未知の座標を
外挿することができる。
非線形シナプスの重みを多次多項式あるいはファジィ推
論にて求め、これらのシナプスは互いに干渉することな
く互いに独立した構成から成るので極めて簡単に少ない
学習回数で所望の重み付けあるいは結合係数を得ること
が可能となり、特に、本発明の多次多項式及び本発明に
おける相補型メンバシップ関数を用いた非線形シナプス
によれば、簡単な構造によって極めて確度の高い予測を
行えるという利点がある。
的な構成を示す説明図である。
構成した実施例を示すブロック回路図である。
係数を求めるための平均二乗誤差を最小にする説明図で
ある。
係数と平均二乗誤差の関係を示すグラフの上でan (t)
からan (t+1) を求める説明図である。
を介して非線形シナプスに並列的に入力するニューロン
の好適な実施例を示す説明図である。
を示す説明図である。
てシステム同定したときの入力信号とシステム同定した
結果とを示す説明図である。
二乗誤差の収束状態を示す説明図である。
の多次多項式の各係数の収束状態を示す説明図である
号をシステム同定したときの入力信号とシステム同定結
果を示す説明図である。
差の収束状態を示す説明図である。
多項式の各係数の収束状態を示す説明図である。
ァジィ推論を用いた場合の好適な実施例を示す説明図で
ある。
関数を示す説明図である。
シップ関数と重み付け係数との関係を示す説明図であ
る。
ステム同定を行うためのカオス的信号を示す説明図であ
る。
図16のカオス的信号をシステム同定するための1次〜
5次のニューロンモデルを示す説明図である。
システム同定時の平均二乗誤差を示す説明図である。
グ関数を示す説明図である。
数を示す説明図である。
数を示す説明図である。
数を示す説明図である。
数を示す説明図である。
シナプスニューロンに順次時系列信号を供給して1時刻
先を予測する時の真の信号と予測信号との関係を示す説
明図である。
特定時刻における時系列信号を用いて順次予測値をフィ
ードバックしながら将来の予測を行う時の真の信号と予
測信号との関係を示す説明図である。
学習回数と誤差との関係を示す説明図である。
習回数と誤差との関係を示す説明図である。
学習回数と誤差との関係を示す説明図である。
学習回数と誤差との関係を示す説明図である。
用を示す説明図である。
Claims (18)
- 【請求項1】 複数の入力信号のそれぞれに所望の重み
付けを与えるための複数の非線形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)=a0 +
a1 x+a2 x2 +a3 x3 … an xn }で示され
る可変関数手段、 を含むことを特徴とする非線形シナプスニューロン。 - 【請求項2】 複数の入力信号のそれぞれに所望の重み
付けを与えるための複数の非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)=a0 +
a1 x+a2 x2 +a3 x3 … an xn }で示され
る可変関数回路、 を含むことを特徴とする非線形シナプスニューロンデバ
イス。 - 【請求項3】 複数の入力信号のそれぞれに非線形シナ
プスで所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)y=a0
+a1 x+a2 x2 +a3 x3 … an xn}で示さ
れる可変関数を有することを特徴とする非線形シナプス
ニューロンを用いた予測方法。 - 【請求項4】 複数の入力信号のそれぞれに所望の重み
付けを与えるための複数の非線形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号レベルに応じて区間分けされ、順次前件部の一
部が重複して並列接続された複数の相補型メンバシップ
関数手段と、 各メンバシップ関数手段に接続され対応するメンバシッ
プ関数のグレードで学習の度合が定められる複数の可変
重み付け手段と、 を含むことを特徴とする非線形シナプスニューロン。 - 【請求項5】 複数の入力信号のそれぞれに所望の重み
付けを与えるための複数の非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号レベルに応じて区間分けされ、順次前件部の一
部が重複して並列接続された複数の相補型メンバシップ
関数回路列と、 各メンバシップ関数回路に接続され対応するメンバシッ
プ関数のグレードで学習の度合が定められる複数の可変
重み付け回路と、 を含むことを特徴とする非線形シナプスニューロンデバ
イス。 - 【請求項6】 複数の入力信号のそれぞれに非線形シナ
プスで所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号がレベルに応じて区間分けされ、順次前件部の
一部が重複して並列接続された複数の相補型メンバシッ
プ関数のグレードに応じて可変重み付けを与えたことを
特徴とする非線形シナプスニューロンを用いた予測方
法。 - 【請求項7】 サンプリングされた時系列信号を受け入
れる直列接続された遅延手段と、 前記遅延された時系列信号のそれぞれに所望の重み付け
を与えるための複数の非線形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)=a0 +
a1 x+a2 x2 +a3 x3 … an xn }で示され
る可変関数手段、 を含むことを特徴とする非線形シナプスニューロン。 - 【請求項8】 サンプリングされた時系列信号を受け入
れる直列接続された遅延回路と、 前記遅延された時系列信号のそれぞれに所望の重み付け
を与えるための複数の非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)=a0 +
a1 x+a2 x2 +a3 x3 … an xn }で示され
る可変関数回路、 を含むことを特徴とする非線形シナプスニューロンデバ
イス。 - 【請求項9】 サンプリングされた時系列信号を受け入
れ所定の遅延を与え、前記遅延された時系列信号のそれ
ぞれに非線形シナプスで所望の重み付を与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)y=a0
+a1 x+a2 x2 +a3 x3 … an xn}で示さ
れる可変関数を有することを特徴とする非線形シナプス
ニューロンを用いた予測方法。 - 【請求項10】 サンプリングされた時系列信号を受け
入れる直列接続された遅延手段と、 前記遅延された時系列信号のそれぞれに所望の重み付け
を与えるための複数の非線形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号レベルに応じて区間分けされ、順次前件部の一
部が重複して並列接続された複数の相補型メンバシップ
関数手段と、 各メンバシップ関数手段に接続され対応するメンバシッ
プ関数のグレードで学習の度合が定められる複数の可変
重み付け手段と、 を含むことを特徴とする非線形シナプスニューロン。 - 【請求項11】 サンプリングされた時系列信号を受け
入れる直列接続された遅延回路と、 前記遅延された時系列信号のそれぞれに所望の重み付け
を与えるための複数の非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号レベルに応じて区間分けされ、順次前件部の一
部が重複して並列接続された複数の相補型メンバシップ
関数回路列と、 各メンバシップ関数回路に接続され対応するメンバシッ
プ関数のグレードで学習の度合が定められる複数の可変
重み付け回路と、 を含むことを特徴とする非線形シナプスニューロンデバ
イス。 - 【請求項12】 サンプリングされた時系列信号を受け
入れ所定量の遅延を与え、 前記遅延された時系列信号のそれぞれに非線形シナプス
で所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号がレベルに応じて区間分けされ、順次前件部の
一部が重複して並列接続された複数の相補型メンバシッ
プ関数のグレードに応じて可変重み付けを与えたことを
特徴とする非線形シナプスニューロンを用いた予測方
法。 - 【請求項13】 空間的に異なる座標位置の複数の信号
のそれぞれに所望の重み付けを与えるための複数の非線
形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)=a0 +
a1 x+a2 x2 +a3 x3 … an xn }で示され
る可変関数手段、 を含むことを特徴とする非線形シナプスニューロン。 - 【請求項14】 空間的に異なる座標位置の複数の入力
信号のそれぞれに所望の重み付けを与えるための複数の
非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)=a0 +
a1 x+a2 x2 +a3 x3 … an xn }で示され
る可変関数回路、 を含むことを特徴とする非線形シナプスニューロンデバ
イス。 - 【請求項15】 空間的に異なる座標位置の複数の信号
のそれぞれに非線形シナプスで所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号xに対して可変重み係数(a0 ,a1 ,a2 ,
… ,an )を有する非線形関数{f(x)y=a0
+a1 x+a2 x2 +a3 x3 … an xn}で示さ
れる可変関数を有することを特徴とする非線形シナプス
ニューロンを用いた予測方法。 - 【請求項16】 空間的に異なる座標位置の複数の信号
のそれぞれに所望の重み付けを与えるための複数の非線
形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号レベルに応じて区間分けされ、順次前件部の一
部が重複して並列接続された複数の相補型メンバシップ
関数手段と、 各メンバシップ関数手段に接続され対応するメンバシッ
プ関数のグレードで学習の度合が定められる複数の可変
重み付け手段と、 を含むことを特徴とする非線形シナプスニューロン。 - 【請求項17】 空間的に異なる座標位置の複数の信号
のそれぞれに所望の重み付けを与えるための複数の非線
形シナプス回路と、 各非線形シナプスの出力を加算する加算回路と、 を含み、 前記非線形シナプス回路は、 入力信号レベルに応じて区間分けされ、順次前件部の一
部が重複して並列接続された複数の相補型メンバシップ
関数回路列と、 各メンバシップ関数回路に接続され対応するメンバシッ
プ関数のグレードで学習の度合が定められる複数の可変
重み付け回路と、 を含むことを特徴とする非線形シナプスニューロンデバ
イス。 - 【請求項18】 空間的に異なる座標位置の複数の信号
のそれぞれに非線形シナプスで所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号がレベルに応じて区間分けされ、順次前件部の
一部が重複して並列接続された複数の相補型メンバシッ
プ関数のグレードに応じて可変重み付けを与えたことを
特徴とする非線形シナプスニューロンを用いた予測方
法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13289792A JP3328953B2 (ja) | 1992-05-25 | 1992-05-25 | 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP13289792A JP3328953B2 (ja) | 1992-05-25 | 1992-05-25 | 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH05324599A true JPH05324599A (ja) | 1993-12-07 |
JP3328953B2 JP3328953B2 (ja) | 2002-09-30 |
Family
ID=15092106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP13289792A Expired - Fee Related JP3328953B2 (ja) | 1992-05-25 | 1992-05-25 | 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3328953B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017511948A (ja) * | 2014-03-06 | 2017-04-27 | プログレス インコーポレイテッドProgress,Inc. | ニューラルネットワーク及びニューラルネットワークのトレーニング方法 |
WO2021079235A1 (ja) * | 2019-10-25 | 2021-04-29 | 株式会社半導体エネルギー研究所 | 演算回路、半導体装置、及び電子機器 |
-
1992
- 1992-05-25 JP JP13289792A patent/JP3328953B2/ja not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017511948A (ja) * | 2014-03-06 | 2017-04-27 | プログレス インコーポレイテッドProgress,Inc. | ニューラルネットワーク及びニューラルネットワークのトレーニング方法 |
WO2021079235A1 (ja) * | 2019-10-25 | 2021-04-29 | 株式会社半導体エネルギー研究所 | 演算回路、半導体装置、及び電子機器 |
Also Published As
Publication number | Publication date |
---|---|
JP3328953B2 (ja) | 2002-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lin et al. | A neural fuzzy system with linguistic teaching signals | |
US5606646A (en) | Recurrent neural network-based fuzzy logic system | |
US5828812A (en) | Recurrent neural network-based fuzzy logic system and method | |
EP0454037A2 (en) | Neural network for processing a plurality of informations and learning method | |
US5630023A (en) | Signal processor | |
Khan et al. | Neufuz: Neural network based fuzzy logic design algorithms | |
US5455890A (en) | Method for structuring an expert system utilizing one or more neural networks | |
Kumar | A Lyapunov-stability-based context-layered recurrent pi-sigma neural network for the identification of nonlinear systems | |
JPH06266868A (ja) | ニューロン素子 | |
EP0384709B1 (en) | Learning Machine | |
EP0646878A1 (en) | Method for converting an existing expert system into one utilizing one or more neural networks | |
JPH05324599A (ja) | 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法 | |
Shabri | A novel hybrid ensemble learning paradigm for tourism forecasting | |
Yen et al. | Principal components, B-splines, and fuzzy system reduction | |
EP0460642A2 (en) | A method and system for adjusting fuzzy inference parameters | |
JPH0895938A (ja) | 時系列データの学習方法及び時系列データの学習装置 | |
Thomas et al. | From batch to recursive outlier-robust identification of non-linear dynamic systems with neural networks | |
EP0567983B1 (en) | Learning type waveform recognizer | |
Baisch et al. | A neural fuzzy system to evaluate software development productivity | |
JPH0490076A (ja) | 医用画像特徴抽出方法 | |
JPH06175998A (ja) | 時系列予測方法 | |
JP3396489B2 (ja) | ネットワーク型情報処理システム | |
KR101790319B1 (ko) | 상호연결된 시간 지연 시스템의 최소 예측 기반 분산 제어를 위한 장치 및 방법 | |
Ankenbrand et al. | Forecasting financial multivariate time series with neural networks | |
Adlemo et al. | Semi-Automatic Generation of a Fuzzy Inference System in a Reshoring Context |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080719 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080719 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090719 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100719 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110719 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110719 Year of fee payment: 9 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110719 Year of fee payment: 9 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |