JPH05324599A - 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法 - Google Patents

非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法

Info

Publication number
JPH05324599A
JPH05324599A JP4132897A JP13289792A JPH05324599A JP H05324599 A JPH05324599 A JP H05324599A JP 4132897 A JP4132897 A JP 4132897A JP 13289792 A JP13289792 A JP 13289792A JP H05324599 A JPH05324599 A JP H05324599A
Authority
JP
Japan
Prior art keywords
linear
synapse
function
nonlinear
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4132897A
Other languages
English (en)
Other versions
JP3328953B2 (ja
Inventor
Retsu Yamakawa
烈 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP13289792A priority Critical patent/JP3328953B2/ja
Publication of JPH05324599A publication Critical patent/JPH05324599A/ja
Application granted granted Critical
Publication of JP3328953B2 publication Critical patent/JP3328953B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 既知の時系列信号あるいは空間座標信号から
将来の信号値あるいは未知座標の値を予測する非線形シ
ナプスニューロン。 【構成】 入力信号に対して、非線形重み付けが与えら
れ、これらの重み付けが付与された信号を加算して予測
値を出力する。非線形シナプスの重み付けは複数回の学
習によって定められ、このために、非線形シナプスは多
次多項式あるいはファジィ推論回路から構成される。多
次多項式はf(x)=a0 +a1 x+a2 2 +a3
3 … an n で示される可変関数からなる。また、
非線形シナプスをファジィ推論で決定する場合、複数の
相補型メンバシップ関数手段と各メンバシップ関数のグ
レードによって重み付けの度合いが決定される重み付け
回路が用いられる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は非線形シナプスニューロ
ン、特に音声信号、画像信号等の信号予測を効果的に実
行するための非線形シナプスニューロンに関するもので
ある。
【0002】
【従来の技術】人間の脳を真似たネットワークを電気的
な信号処理として用いるニューラルネットワークがパタ
ーン認識、信号処理あるいは知識処理等に利用され、脳
のニューロンに対応したユニットが複数個複雑に接続さ
れ、各ユニットの動作及びユニット間の接続形態を適当
に定めることによってパターン認識機能、知識処理機能
を実行することができる。
【0003】これらのニューラルネットワークはネット
ワークの構造からパターン伝送型と自動伝送型に分類さ
れ、前者は入力パターンをある出力パターンに変換する
ネットワークを形成し、また後者は入力パターンに最も
近いパターンを出力するネットワークを形成する。
【0004】前記パターン伝送型ニューラルネットワー
クでは、各ユニット(ニューロン)を入力層、中間層、
出力層に階層化し、各ユニットは入力層から出力層に向
け接続され、この結果、入力ユニットと出力ユニットと
は独立している。そして、演算機能や画像情報は各ユニ
ット間の接続形態や接続の強さとして記憶され、得られ
た出力と望ましい出力との差を用いて結合の強さが任意
に変化される。このときの結合の強さは結合系数あるい
はシナプスの重みとして所定のパラメータを形成してい
る。
【0005】一方、自動伝送型ニューラルネットワーク
においては、入力ユニットと出力ユニットとは共通であ
り、ネットワーク内の全てのユニットが互いに相互接続
され、前記結合の強さ(シナプスの重み)は似通った入
力パターンを識別するために用いられている。
【0006】このようなニューラルネットワークによっ
てパターン認識が行われるが、周知のように、このニュ
ーラルネットワークを効果的に作動させるためには、バ
ックプロパゲーション等として知られる学習アルゴリズ
ムが用いられ、前述したパターン認識、音声認識、音声
合成、信号処理あるいは知識処理等の広範囲の信号予測
適用分野でニューラルネットワークを作用させるために
は、このバックプロパゲーション等の学習が極めて効果
的である。
【0007】通常、ニューラルネットワークは、入力
層、中間層そして出力層という階層構造をとり、この中
間層は隠れ層として知られており、パターン伝送型ニュ
ーラルネットワークにおいては、学習過程において入力
データの処理(前向き)と逆に学習のデータを入力した
ときに結果のエラーを減らすように(後ろ向き)シナプ
ス結合の記述を変え、これが収束するまで学習アルゴリ
ズムを繰返す。
【0008】従って、従来において、バックプロパゲー
ションアルゴリズム等の学習機能が付加されたニューラ
ルネットワークにて各種のパターン認識その他の信号予
測が成果をあげている。
【0009】
【発明が解決しようとする課題】しかしながら、このよ
うな従来におけるニューラルネットワークでは、最適予
測作用を行うために、多数回の学習作用を必要とし、こ
のためにパラメータが多い場合には学習自体に多大な時
間が費やされるという問題があった。
【0010】即ち、従来の一般的なニューラルネットワ
ークにおいては、入力層と中間層及び中間層と出力層と
の間は全てのシナプス間が結合され、この結果、学習に
必要な演算回数が極端に増大するという問題があった。
【0011】例えば、入力層に5素子、中間層に6素子
そして出力層に7素子のニューラルネットワークを想定
すると、入力層と中間層との間で30個の結合組み合わ
せ数が生じ、同様に中間層と出力層間には42個の結合
組が必要となる。
【0012】従来のネットワークにおいては、各シナプ
スは線形特性を有しており、この結果、前記全ての組み
合わせを同時に機能させながら学習を行う必要があり、
この結果、前記想定した比較的単純なネットワークにお
いても、その全組み合わせ数が1260個の組み合わせ
数となり、このような多数の結合組に対して所望のパラ
メータを設定するために、多大の演算時間が必要となっ
ていた。
【0013】本発明は上記従来の課題に鑑みなされたも
のであり、その目的は、少ない回数の学習によってシナ
プスの結合係数を最適値に設定収斂することができる高
速学習型であり、かつ、極めて高い予測精度の非線形シ
ナプスニューロン、そのデバイス及びそれを用いた予測
方法を提供することにある。
【0014】
【課題を解決するための手段】上記目的を達成するため
に、本発明は、本発明に係る非線形シナプスニューロン
及びデバイスは、複数の入力信号のそれぞれに所望の重
み付けを与えるための複数の非線形シナプス手段(回
路)と、各非線形シナプスの出力を加算する加算手段
(器)と、を含み、前記非線形シナプス手段(回路)
は、入力信号xに対して可変重み係数(a0 ,a1 ,a
2 , … ,an )を有する非線形関数{f(x)=a
0 +a1 x+a2 2 +a3 3 … an n }で示
される可変関数手段(回路)、を含むことを特徴とす
る。
【0015】また、本発明に係る非線形シナプスニュー
ロン及びデバイスは、複数の入力信号のそれぞれに所望
の重み付けを与えるための複数の非線形シナプス手段
(回路)と、各非線形シナプスの出力を加算する加算手
段(器)と、を含み、前記非線形シナプス手段(回路)
は、入力信号レベルに応じて区間分けされ、順次前件部
の一部が重複して並列接続された複数の相補型メンバシ
ップ関数手段(回路)と、各メンバシップ関数手段(回
路)に接続され対応するメンバシップ関数のグレードで
学習の度合が定められる複数の可変重み付け手段(回
路)と、を含むことを特徴とする。
【0016】更に、本発明に係る非線形シナプスニュー
ロン及びデバイスは、サンプリングされた時系列信号を
受け入れる直列接続された遅延手段(回路)と、前記遅
延された時系列信号のそれぞれに所望の重み付けを与え
るための複数の非線形シナプス手段(回路)と、各非線
形シナプスの出力を加算する加算手段(器)と、を含
み、前記非線形シナプス手段(回路)は、入力信号レベ
ルに応じて区間分けされ、順次前件部の一部が重複して
並列接続された複数の相補型メンバシップ関数手段(回
路)と、各メンバシップ関数手段(回路)に接続され対
応するメンバシップ関数のグレードで学習の度合が定め
られる複数の可変重み付け手段(回路)と、を含むこと
を特徴とする。
【0017】更に、本発明に係る非線形シナプスニュー
ロン及びデバイスは、空間的に異なる座標位置の複数の
信号のそれぞれに所望の重み付けを与えるための複数の
非線形シナプス手段(回路)と、各非線形シナプスの出
力を加算する加算手段(器)と、を含み、前記非線形シ
ナプス手段(回路)は、入力信号レベルに応じて区間分
けされ、順次前件部の一部が重複して並列接続された複
数の相補型メンバシップ関数手段(回路)と、各メンバ
シップ関数手段(回路)に接続され対応するメンバシッ
プ関数のグレードで学習の度合が定められる複数の可変
重み付け手段(回路)と、を含むことを特徴とする。
【0018】
【作用】従って、本発明によれば、複数の入力信号のそ
れぞれに非線形シナプスで所望の重み付けを与え、各非
線形シナプスの出力を加算し、前記非線形シナプスは、
入力信号xに対して可変重み係数(a0 ,a1 ,a2
… ,an )を有する非線形関数{f(x)=a0
1 x+a2 2 +a3 3 … an n }で示され
る可変関数を有するので、各非線形シナプスの結合係数
は、他のシナプスとは独立して決定され、その学習時に
おいても各シナプスの重み付けは極めてわずかな回数、
例えば入力信号を変化させた数回の学習によって収斂
し、誤差値を少なくして高精度の結合係数を設定するこ
とが可能となる。
【0019】また、本発明によれば、複数の入力信号の
それぞれに非線形シナプスで所望の重み付けを与え、各
非線形シナプスの出力を加算し、前記非線形シナプス
は、入力信号がレベルに応じて区間分けされ、順次前件
部の一部が重複して並列接続された複数の相補型メンバ
シップ関数のグレードに応じて可変重み付けを与えたの
で、各非線形シナプスの結合係数は、他のシナプスとは
独立して決定され、その学習時においても各シナプスの
重み付けは極めてわずかな回数、例えば入力信号を変化
させた数回の学習によって収斂し、誤差値を少なくして
高精度の結合係数を設定することが可能となる。
【0020】更に、本発明によれば、サンプリングされ
た時系列信号を受け入れる所定量の遅延手段を与え、前
記遅延された時系列信号のそれぞれに非線形シナプスで
所望の重み付けを与え、各非線形シナプスの出力を加算
し、前記非線形シナプスは、入力信号がレベルに応じて
区間分けされ、順次前件部の一部が重複して並列接続さ
れた複数の相補型メンバシップ関数のグレードに応じて
可変重み付けを与えたので、各非線形シナプスの結合係
数は、他のシナプスとは独立して決定され、その学習時
においても各シナプスの重み付けは極めてわずかな回
数、例えば入力信号を変化させた数回の学習によって収
斂し、誤差値を少なくして高精度の結合係数を設定する
ことが可能となる。
【0021】更に、本発明によれば、空間的に異なる座
標位置の複数の信号のそれぞれに非線形シナプスで所望
の重み付けを与え、各非線形シナプスの出力を加算し、
前記非線形シナプスは、入力信号がレベルに応じて区間
分けされ、順次前件部の一部が重複して並列接続された
複数の相補型メンバシップ関数のグレードに応じて可変
重み付けを与えたので、各非線形シナプスの結合係数
は、他のシナプスとは独立して決定され、その学習時に
おいても各シナプスの重み付けは極めてわずかな回数、
例えば入力信号を変化させた数回の学習によって収斂
し、誤差値を少なくして高精度の結合係数を設定するこ
とが可能となる。
【0022】
【実施例】以下、本発明に係る非線形シナプスニューロ
ン、そのデバイス及びそれを用いた予測方法について実
施例に基づいて詳細に説明する。
【0023】図1には、本発明に係る非線形シナプスニ
ューロンの好適な実施例が概略的な全体図として示さ
れ、このニューロンは4つのシナプス10−1〜10−
4を有し、これらの各シナプスは本発明において非線形
シナプスからなることを特徴とする。
【0024】各非線形シナプス10には、その入力端子
11−1〜11−4に入力信号x0,x1 ,x2 ,x3
が供給され、非線形シナプス10において各複数の入力
信号xのそれぞれに所望の重み付けが与えられる。
【0025】そして、各非線形シナプス10の出力は、
加算手段12に供給され、各出力が加算された後出力端
子19から出力信号yとして出力される。前記各非線形
シナプス10において、その内容は可変関数f0
1 ,f2 ,f3 で示され、この結果、非線形シナプス
ニューロンの入出力関係は次式で与えられる。
【0026】 y=f0 (x0 )+f1 (x1 )+f2 (x2 )+f3 (x3 ) (1)式 従って、本発明において、各シナプスはその入出力関係
が非線形となり、この結果、時系列信号あるいは空間信
号からシステムを同定する場合に、システムの非線形性
が強い場合においても、本発明の非線形シナプスを用い
ることによって高精度の非線形近似を行うことが可能と
なる。
【0027】従って、本実施例において、各非線形シナ
プス10の可変関数f(x)を学習によって定めれば入
力信号xに対して極めて高精度に予測信号yを得ること
ができる。
【0028】本実施例において、前記シナプス10の可
変関数f(x)は以下の(2)式に示される多次多項式
によって表わされる。
【0029】 f(x)=a0 +a1 x+a2 2 +a3 3 + … an n (2)式 従って、上記(2)式の係数an の値を学習によって定
めれば、入力信号に最適な非線形シナプスを設定するこ
とができる。
【0030】以下に、前述したいずれかの非線形シナプ
ス10の構造を更に詳細に説明する。
【0031】前記(2)式は4次可変関数として考える
と以下の(3)式にて表わされる。 f(x)=a0 +a1 x+a2 2 +a3 3 +a4 4 =a0 +x[a1 +x{a2 +x(a3 +a4 x)}] (3)式 そして、この(3)式は、図2の縦属接続された積和回
路にて構成することができる。
【0032】即ち、図2に示した非線形シナプス10は
4個の縦属接続された積和回路13−1〜13−4を含
み、各積和回路13はそれぞれ乗算器14及び加算器1
5からなる。積和回路13−1において、乗算器14−
1は入力信号xと前段の積和回路13−2から得られた
出力f-1(x)が供給されており、この両信号の乗算出
力が加算器15−1において係数a0 と加算されてい
る。
【0033】同様に、順次各積和回路13は前段出力f
-n(x)と入力信号xとの積算値に各係数an を加算す
る構成からなる。
【0034】従って、この図2に示した非線形シナプス
回路により、前述した(3)式が実現されていることが
理解される。
【0035】勿論、このような非線形シナプス10の回
路は、IC回路から構成してもよく、またこれをソフト
ウェアで実現してもよい。
【0036】以上のようにして、本発明において非線形
シナプス10を構成すると、図1における各シナプス1
0はそれぞれ独立して構成され、もはや従来のニューラ
ルネットワークのように、全ての入力信号に対して線形
シナプス群をネットワーク状に組み合わせる必要がなく
なり、これによって前述した各シナプス10の結合係数
n を学習することが極めて容易となる。
【0037】図2から明らかなように、各縦属接続され
た積和回路13はその下流側、即ち積和回路13−1の
係数a0 が定数成分の決定に係わり、順次高次シナプス
係数an が信号の高次成分を表わすこととなる。この結
果、本実施例においては、順次定数成分から高次成分に
向かって各シナプス係数を学習によって定めることが好
適であり、これによって少ない回数により簡単に各係数
を最適値に決定することができる。
【0038】a0 〜a4 の5個の係数を定めるには、図
3に示すような(x1 ,y1 ),(x2 ,y2 ),…,
(x5 ,y5 ),(x6 ,y6 ),…と5個以上のデー
タが必要である。これは、(3)式において、a0 〜a
4 の全ての係数を決定するのに、(x,f(x) )に関す
る5個のデータを(3)式に代入し、a0 〜a4 に関す
る5元連立方程式を解くことに類似している。5個未満
の(x,f(x) )のデータでは全てのa0 〜a4 が決定
できないのである。
【0039】以下に、(x1 ,y1 ),(x2
2 ),…,(x6 ,y6 )の6個のデータを用いた学
習によってa0 〜a4 を決定する手順について述べる。
【0040】(1)まず、係数a1 〜a4 を0に設定す
る。
【0041】(2)ε2 (t)  ̄≧1/6Σ(yi (t) ^
−yi 2 (i=1〜6)を計算する。
【0042】(3)δε2 (t)  ̄/δan (t) ≧0なら
ばan (t+1) =an (t) −G,δε2 (t)  ̄/δa
n (t) <0ならばan (t+1) =an (t) +Gとする。但
し、ここでGは定数。
【0043】(4)an (t+1) におけるε2 (t+1)  ̄が
ε2 (t) より小さければ(例えば図4の曲線上のBの
ように)、このan (t+1) をan (t) として上記(2)
に戻る。もし、ε2 (t+1)  ̄がε2 (t)  ̄より大きけれ
ば(例えば図4の曲線上のCのように)、上記(3)
におけるGを半分にして(3)を実行する。このときε
2 (t+1)  ̄はDとなる。このようにして得たan (t+1)
における二乗平均誤差ε2 (t+1)  ̄がε2 (t)  ̄よりも
小さくなるまで何度もGを半減する。かくして、ε2 (t
+1)  ̄が、図4中のEのようにAよりも低くなるまで続
ける。以下(3)に戻る。
【0044】(5)上記(3),(4)を繰り返し、|
ε2 (t+1)  ̄−ε2 (t)  ̄|がある値より小さくなった
ら、そのan (t) の学習は一時停止し、次はan+1 (t)
について(2)〜(5)と同様の学習を行なう。
【0045】(6)a0 〜a4 の値を一通り学習で定め
ると、1回の学習が終了したとみなす。
【0046】(7)ε2 (t)  ̄がある値以下になるま
で、上記(2)〜(6)を繰り返す。
【0047】実験によれば、前記所望のシナプス係数a
0 〜an を求めるために、数回の学習で十分に高精度の
学習が可能であった。また、3次多項式を満たす5個の
データ(x1 ,y1 ),(x2 ,y2 ),…,(x5
5 )を用いて、上記の方法でa0 〜a4 を求めたとこ
ろ、当然のことながらa4 =0となった。
【0048】以上のようにして、非線形シナプスの各結
合係数を多次多項式モデルで同定すれば所望の入力信号
に対して高精度の予測値を得ることができる。
【0049】なお、本実施例において、図2中の積和回
路13に用いられている乗算器14−1や加算器15−
1は高精度である必要はない。すなわち、非線形性の高
い乗算器や加算器であっても、これを含めた形で、学習
により、次数(an の数)や係数a0 〜an を定め、ε
2  ̄を小さくすることができる。このことは、デバイス
を構成する際に極めて都合がよい。
【0050】本発明において、このような入力信号とし
ては、時系列信号あるいは空間的な信号として取り扱う
ことができ、以下に時系列信号を入力信号として処理す
る場合の本発明の他の実施例を説明する。
【0051】本実施例において、本発明の非線形シナプ
スニューロンは遅延素子との組み合わせによってダイナ
ミカルシステムの同定が行われる。
【0052】図5にはこのような非線形シナプスニュー
ロンの好適な実施例が全体的な概略図として示されてい
る。
【0053】図5においてサンプリングされた時系列信
号yn は入力端子21から直列接続された実施例におい
ては4個の遅延回路20−1〜20−4に入力される。
【0054】従って、前記入力信号yn は順次各遅延回
路20を通って1サンプリング周期ごとに順次非線形シ
ナプス10−1〜10−4に供給されることとなる。従
って、本実施例によれば、4個の時系列信号がサンプリ
ングされて入力されたとき、全ての非線形シナプス10
が機能することとなる。
【0055】いま、4個の時系列信号Xが以下の(4)
式で与えられたとき、 X=(x0 ,x1 ,x2 ,x3 ) (4)式 各非線形シナプス10への入力信号x0 〜x3 の集合を
入力ベクトルXi と呼ぶ。この入力ベクトルXi =(x
0 ,x1 ,x2 ,x3 )は時系列信号Xを初期値から順
に遅延素子20を通して各非線形シナプス10の入力端
子に供給される。
【0056】従って、図6の入力ベクトルと動作モード
との関係を用いて本実施例における学習動作と予測動作
とを説明する。
【0057】符号101で示される状態では、入力ベク
トルはX0 からX2 までが入力された状態で、この3ス
テップでは、各遅延回路20に対して、4個の遅延回路
20全てを動作することができず、実際のモードにおい
ては予備動作として取り扱われる。即ち、本実施例にお
いては各非線形シナプス10の結合係数を求めるための
学習動作は図6において入力ベクトルX3 からXn-1
での複数回において行われ、この時にはいずれも4個の
入力信号x0 〜x3 が各遅延回路20から非線形シナプ
ス10に供給されている。
【0058】従って、前述した図2で示したように、こ
れらの各入力信号に応じて各シナプス10の結合係数a
を求めることができる。この状態は図6において符号1
02で示されている。
【0059】本実施例においては、符号102で示され
るX3 からXn-1 までの各入力ベクトルに対して順次学
習が進められ、k番目の入力ベクトルXk に対して、本
実施例の学習は以下に示す(5)式の評価関数が極小に
なるように行われる。
【0060】 ε2 k =(yk+1 ^−yk+1 2 (5)式 (5)式において、yk+1 は時刻k+1における時系列
信号であり、またyk+ 1 ^は時系列信号が入力された時
の予測値を示す。
【0061】本実施例において、十分に使用可能な誤差
εk を得るまでの収斂学習回数は数回で十分であった。
従って、本発明によれば、従来のニューラルネットワー
クに比してその学習回数が著しく減少していることが理
解される。
【0062】図6の符号103は前述した学習によって
各非線形シナプス10の結合係数が決定された後に、入
力ベクトルXn が入力端子21に供給されたときの1サ
ンプリング時刻先の予測動作を示しており、入力ベクト
ルXn は各非線形シナプス10によって所望の重み付が
与えられ、その加算値がxn+1 ^として求められてい
る。
【0063】従って、入力ベクトルXn を順次時系列信
号のサンプリング入力信号とすることによって常に1時
刻先の予測値を正確に得ることが可能となる。
【0064】また、1サンプリング時刻より更に先の予
測を行うためには、図6の符号104で示されるよう
に、入力ベクトルXn に対してその出力であるy
n+1 ^,yn+ 2 ^,yn+3 ^…を順次入力端子21へ戻
し、本発明に係る非線形ニューロンを繰り返し動作させ
ることにより、所望の将来予測値を得ることが可能とな
る。
【0065】前述した本実施例に係る非線形シナプスニ
ューロンにて実際の時系列信号の同定を行った例を以下
に説明する。
【0066】いま、1つの非線形シナプスについての学
習シミュレーションを行うために、以下の(6)式で示
す時系列信号を考える。
【0067】 f(x)=2−2x2 +x4 (6)式 すなわち、上記(6)式は、前述した(2)式の各係数
aが以下の値である多次多項式からなることが理解され
る。
【0068】 a0 = 2 a1 = 0 a2 =−2 a3 = 0 a4 = 1 a5 = 0 図7には、前記多次多項式が実線で示され、この時系列
信号を本実施例における非線形シナプスニューロンにて
同定した結果を以下に示す。
【0069】図7には、前記実線で示される(6)式の
多次多項式に標準変量G=0.01、学習回数200回
で本実施例を用いて学習したときの同定された関数が破
線で示されている。なお、この標準変量Gは、各学習時
における係数aの標準的な変化幅を示す。図7から明ら
かなように、この関数は元の実線で示された時系列信号
とほとんど重なってしまい、前述した条件における本実
施例の同定が極めて高精度で行われていることが理解さ
れる。
【0070】なお、前記学習に用いられたデータは8個
のサンプリングデータであり、以下にその座標値を示
す。
【0071】 (−1.0,1.0) (−0.8,1.1296) (−0.5,1.5625) (−0.1,1.9801) ( 0.0,2.0) ( 0.2,1.9216) ( 0.4,1.7456) ( 1.0,1.0) 図8は本実施例における学習過程をエラー√(ε2  ̄)
の学習とともに誤差が修正されている様子を示し、平均
二乗誤差の平方根が学習回数とともに急速に減少してお
り、誤差1%となるのに116回の学習で十分なことを
示す。
【0072】また、図9には、本実施例で用いた多次多
項式の係数a0 〜a5 の学習による収束状態を示してお
り、実験で用いた200回の学習によってほぼ各係数が
収束していることが理解される。
【0073】ここで、G=0.01,0.1,1.0の
いずれの場合も、各係数の収束状態は同様であったが、
その学習時間はもちろんGの大きい順に高速化してい
た。
【0074】図10〜12は、本実施例を用いて更に他
の時系列係数をシステム同定した場合の例を示す。
【0075】この実験では、以下の(7)式に示される
非整数指数の多次多項式をシステム同定することもでき
ることを示す。
【0076】 f(x)=2−2x2.5 +x3.5 (7)式 図10の実線は、本実施例で取り扱う入力信号を示し、
このように非整数指数を有する入力信号に対しても、本
実施例によれば、整数指数をもった非線形関数のシナプ
ス手段によって破線で示されるように極めて近似したシ
ステム同定が可能なことが理解される。
【0077】この第2の実験によれば、5個のサンプリ
ングデータを用い、1000回学習して前述した破線の
システム同定結果が得られている。
【0078】図11は平均二乗誤差の平方根が学習によ
っていかなる減少挙動を示すかを示し、急峻な誤差減少
が示されている。
【0079】更に、図12は、本実施例において学習し
たときの非線形シナプスの非線形関数係数a0 〜a5
どのように収斂するかを示しており、1000回の学習
によってほぼ各係数が所定値に収斂している様子が理解
される。
【0080】以上説明した各実施例においては、非線形
シナプスの重み付けは多次多項式によって定められてい
たが、このような非線形シナプスは本発明において、フ
ァジィルールを用いて表現することも可能である。
【0081】図13には本発明のファジィ理論を用いた
好適な実施例が示され、前述した図1のニューロン構造
の非線形シナプス10をメンバシップ関数手段と重み付
け手段とによって構成した実施例が示されている。図に
おいて、非線形シナプス10−4のみが例示されている
が、他の非線形シナプス10−1,10−2,10−3
も同様に複数のメンバシップ関数手段とこれに対応して
設けられた複数の重み付け手段とから構成されている。
【0082】図13において各非線形シナプス10はラ
ベルの数を5個とした非線形シナプスf(x)の構造か
らなり、並列接続された5個のメンバシップ関数回路3
0−1〜30−5に入力信号xが供給される。これらの
各メンバシップ関数回路30は、図24中のμ1 〜μ5
にみられるように順次前件部の一部が重複して並列接続
され、更に隣接する2個のメンバシップ関数が互いに相
補型に構成されている。
【0083】従って、入力信号xはその値にかかわら
ず、5個のメンバシップ関数回路30のうち2個のメン
バシップ関数によってのみそのグレードが定められ、更
に両グレードの総計値は常に「1」となるような相補型
に設定されている。
【0084】従って、このメンバシップ関数のグレード
により各メンバシップ関数回路30に接続されている重
み付け回路31−1〜31−5の重みは対応するメンバ
シップ関数のグレードでその学習の度合いが定められる
こととなる。
【0085】実施例において、重み付け回路31の出力
は加算器32を経て前述した加算器12に供給される
が、本発明においては、必ずしも非線形シナプス10内
の加算器32は設ける必要がない。即ち、重み付け回路
31の各出力を直接加算器12へ供給しても同様の効果
が得られるからである。
【0086】図13の構造において、入力xに対する各
グレードμに重みwを乗じた値の総和が非線形シナプス
10の入出力関係を示す。
【0087】従って、この非線形シナプスf(x)の入
出力関係は、以下の(8)式にて示される。
【0088】 f(x)=Σwj μj (x) (j=0〜4) (8)式 (8)式から、各重みwはこれに対応するメンバシップ
関数のグレードμに依存することが理解される。
【0089】前述したメンバシップ関数μと入力信号x
との関係が図22に示されている。図14において、入
力信号xは最小値xminとxmaxとの間を変動し、
時刻tに従った時系列信号を形成している。
【0090】信号レベルxを実施例においてはx〜x
で区切られた4区間に分け、図においてx01,x12
23,x34に区分けする。
【0091】そして、メンバシップ関数回路30のメン
バシップ関数は前記区間ごとに隣接するメンバシップ関
数が互いに相補型にそのグレード総計を常に「1」とす
るようにメンバシップ関数が設定される。この結果、メ
ンバシップ関数μ1 は実線で示されるように区間x01
対してのみ与えられる。そして、メンバシップ関数μ2
は区間x01とx12において、同様にメンバシップ関数μ
3 は区間x12とx23、メンバシップ関数μ4 は区間x23
とx34について表れ、メンバシップ関数μ5 は区間x34
についてのみ与えられている。
【0092】従って、いずれの信号レベル値においても
2個のメンバシップ関数のみが相補的に機能してそれら
のグレード総計は常に「1」となり、例えば時刻t1
おいては、メンバシップ関数μ2 とμ3 とが働く。
【0093】そして、この時刻定t1 においては、他の
3個のメンバシップ関数μ1 ,μ4,μ5 は全て「0」
であるため、これらのメンバシップ関数のグレードにて
度合いが定まる重み付けは機能しないことが明らかであ
る。従って、時刻t1 においては、メンバシップ関数μ
2 ,μ3 のグレードに応じて重み付けw2 とw3 とが学
習し、その他のw1 ,w4 ,w5 の学習は行われない、
これは、区間x12の全てにおいて同様であり、区間x12
ではそれぞれのメンバシップ関数にて定まるグレードμ
2 ,μ3 の度合いに応じた重みw2 ,w3 のみの学習が
行われることとなる。他の区間においても、同様の作用
が得られる。
【0094】本発明において互いに隣接するメンバシッ
プ関数をその前件部において重複させ、相補型に用いる
ことにより、前述したように全てのレベルにおいてグレ
ードの総数は「1」となり、この結果、重み付け加算を
した後のデータをそのまま非線形シナプス10の出力と
して用いることができるという利点がある。即ち、仮に
これらのグレード統計値が「1」でない場合には、加算
後に割り算その他のディファジフィケーションを行う必
要があり、回路あるいは処理システムを著しく複雑にす
るが、本発明においては前記相補型メンバシップ関数を
用いることによってこのような不都合を確実に防止する
ことができる。
【0095】図15には、前記時刻t1 における非線形
シナプス10−3の重み付け係数を求める手順が示され
ている。
【0096】時刻t1 における入力信号値はx(t1
で示され、このときの励起されるメンバシップ関数はμ
2 とμ3 であり、これら各メンバシップ関数μ2 ,μ3
のそれぞれのグレードはμ2 (t1 )及びμ3 (t1
で示される。従って、これらのグレードに合わせて、そ
れぞれ重みw2 ,w3 の比率が定まり、その平均がw
(t1 )として求められる。
【0097】(9)式は前記相補型メンバシップ関数か
ら平均的に求められた重みw(t1)を示す。
【0098】 w(t1 )={w2 ×μ2 (t1 )+w3 ×μ3 (t1 )}/{μ2 (t1 ) +μ3 (t1 )} =w2 ×μ2 (t1 )+w3 ×μ3 (t1 ) (9)式 (9)式から明らかなように相補型メンバシップ関数を
用いることによって本発明によれば、分母が常に「1」
となり後段において割り算器等のディファジフィケーシ
ョンを必要とすることがない。
【0099】以上のようにして、本発明によれば、ファ
ジィ推論を用いて非線形シナプスの重み付けを決定する
ことができ、前述した多次多項式と同様に各非線形シナ
プスはそれぞれ独立しているので、これらの重み付けを
定めるための学習回数は極めて僅かでよく、簡単に最適
なシナプスの重み付け決定を行うことができる。
【0100】図16には3次のダイナミカルシステムで
作られたカオス的信号が示され、この時系列信号は以下
の(10)式で示される。
【0101】 yn+1 =f(yn )+ayn-1 +byn-2 (10)式 すなわち、 yn+1 =f(yn )+pn +qnn+1 =aynn+1 =bpn =byn-1 なる関係を有する。
【0102】図16において、時系列信号は0〜49の
50個のデータで示され、縦軸のXの値は±3.0の間
をカオス的に変動する。
【0103】従って、本発明においては、このような従
来予測不能な時系列信号に対して非線形シナプスを用い
てわずかな回数の学習により予測可能であることを示
す。
【0104】本実施例を用いた実験においては、図16
のカオス的な信号を1〜5次の各モデルで同定した。
【0105】図17はこの1〜5次までの5個の本発明
に係る非線形シナプスニューロンが示されている。
【0106】そして、図18にはこれらの5個のニュー
ロンによって図16におけるカオス的信号を同定したと
きの平均二乗誤差が示されている。
【0107】図18から明らかなように、図16のダイ
ナミカルシステムは3次の時系列信号であるが、ニュー
ロンで同定する時の各次数のマッピング関数は折れ線近
似となるので、3次ニューロンモデルよりも4次及び5
次ニューロンモデルの方が高次シナプスで補正できるた
めに、良好な結果が得られていることが理解される。図
19〜23には前述した5次ニューロンモデルによって
3次の時系列信号をシステム同定するときの各次のマッ
ピング関数が示されている。各図において、実線は図1
6のカオス的信号を作るのに用いた3次ダイナミカルシ
ステムの各次数におけるマッピング関数を示し、破線は
5次ニューロンモデルで同定した場合の各次のマッピン
グ関数を示す。
【0108】図19〜23により明らかなように、本実
験例によれば、3次のダイナミカルシステムを5次ニュ
ーロンモデルで同定しているので、3次までの折れ線近
似誤差が4次及び5次の非線形シナプスで補正可能であ
ることを示す。
【0109】図24には5次ニューロンモデルにおける
予測動作が示され、前述したごとく重み付け学習された
5次ニューロンモデルを用いて、順次入力信号で学習を
し、係数を更新しながら、将来発生する時系列信号の予
測を行っている。
【0110】この予測は、現在の入力信号より1時刻先
でもあるいは所定の任意の将来時刻における予測でもよ
い。
【0111】図24に示した予測値(破線)は、図16
のカオス的信号を再掲した実線で示す真の値に対する1
時刻先の予測値を示す。従って、図24から、本実施例
によれば、従来予測不能であったカオス的信号に対して
も十分追従する予測作用を行えることが理解される。
【0112】図25は前述したように重み付け学習をし
てシステム同定した本実施例における5次のニューロン
モデルに出力から入力へのフィードバックを施し、固定
的に与えられた5個の時系列信号からその後に発生する
予測値を順次予測した状態を示すものであり、前記図2
4と同様に実線が真の値、そして破線がフィードバック
から得られた将来の予測値を示す。
【0113】この図25における予測は現在与えられて
いる5個の時系列信号のみから将来に渡る予測作用を行
うものであり、図24と異なり、先の予測ほど誤差を含
むことは当然である。
【0114】しかしながら、このような将来予測に対し
ても、図25からは少なくとも5〜10同時刻先の予測
に対しては極めて一致度の高い予測作用が得られている
ことが理解される。
【0115】図26から図29にはそれぞれ本実施例を
用いた時の学習時におけるゲイン定数αを変化させたと
きの学習回数と平均二乗誤差との関係を示す。
【0116】実施例においては、αを以下の4種類にし
て実験したところ、 α=0.02 α=0.2 α=0.56 α=0.57 α=0.2の時に極めて良好なシステム同定が行われて
いることが理解される。
【0117】即ち、ゲイン定数αを0.2に設定したと
き最も早く学習が完了し、図27から明らかなように、
10回程度の学習回数で十分に高精度の同定が行われ、
従来と比し100〜1000分の1程度の極めて僅かな
回数で本発明における非線形シナプスニューロンがシス
テム同定できることを示す。
【0118】また、ファジィ推論によって定められた非
線形シナプス10は前述した多次多項式による非線形シ
ナプスと同様に、入力される複数の時系列信号から順
次、次の時刻あるいは将来の所定時間先の時刻における
値を順次予測することができ、入力時系列信号を順次更
新することによって常に所定量先の予測値を得ることが
できる。
【0119】また、一定数の入力信号をシステム同定済
のニューロンモデルに供給すれば、順次先の時刻を予測
することができる。即ち、入力信号は一定時刻において
固定しているが、次の時刻の予測値を出力した時にこれ
を入力端子にフィードバックし、次々にこのフィードバ
ックされた予測値を用いながら、更に先の将来における
予測値を順次更新することができる。
【0120】ファジィ推論による非線形シナプスを用い
た場合においても、実験によれば5〜10回の学習によ
って十分な高精度でシステムを同定することができ、従
来の線形シナプスによる同定と異なり、極めて短時間で
学習を完了することができる利点がある。
【0121】また、本発明による非線形シナプスニュー
ロンはその入力信号として時系列信号ばかりでなく、空
間信号も処理可能であり、この与えられた空間の外の予
測値を得る場合にも用いることができる。
【0122】図24にはこのような空間的な信号の一例
が示されており、x軸方向に等間隔で分布したx1 〜x
5 そして、x7 が既知である。この場合、本発明に係る
非線形シナプスニューロンに(x1 ,x2 ,x3
4 )時のyの値(y1 ,y2 ,y3 ,y4 )を入力
し、出力yがy7 となるように前記各非線形シナプス1
0のf(x)を学習で求める。勿論、通常の既知データ
としては、前述した4個のデータyのみではなく、y1
〜y50の多数のデータを4個ずつシリアルに入力して前
記学習を行うことが好適である。
【0123】このようにして、システム同定が行われ、
次に(x2 ,x3 ,x4 ,x5 )のyの値(y2
3 ,y4 ,y5 )を入力すると本発明に係る非線形ニ
ューロンからは座標x8 に対応する値y8 を予想するこ
とが可能である。
【0124】このようにして、本発明によれば、時系列
信号ばかりでなく、空間的な信号を用いて未知の座標を
外挿することができる。
【0125】
【発明の効果】以上説明したように、本発明によれば、
非線形シナプスの重みを多次多項式あるいはファジィ推
論にて求め、これらのシナプスは互いに干渉することな
く互いに独立した構成から成るので極めて簡単に少ない
学習回数で所望の重み付けあるいは結合係数を得ること
が可能となり、特に、本発明の多次多項式及び本発明に
おける相補型メンバシップ関数を用いた非線形シナプス
によれば、簡単な構造によって極めて確度の高い予測を
行えるという利点がある。
【図面の簡単な説明】
【図1】本発明に係る非線形シナプスニューロンの全体
的な構成を示す説明図である。
【図2】本発明における非線形シナプスを多次多項式で
構成した実施例を示すブロック回路図である。
【図3】多次多項式からなる非線形シナプスの重み付け
係数を求めるための平均二乗誤差を最小にする説明図で
ある。
【図4】多次多項式からなる非線形シナプスの重み付け
係数と平均二乗誤差の関係を示すグラフの上でan (t)
からan (t+1) を求める説明図である。
【図5】本発明において、時系列信号を複数の遅延回路
を介して非線形シナプスに並列的に入力するニューロン
の好適な実施例を示す説明図である。
【図6】本発明における重み付け学習動作及び予測動作
を示す説明図である。
【図7】本発明に係る非線形シナプスニューロンを用い
てシステム同定したときの入力信号とシステム同定した
結果とを示す説明図である。
【図8】本実施例を用いてシステム同定したときの平均
二乗誤差の収束状態を示す説明図である。
【図9】同じく本実施例を用いてシステム同定したとき
の多次多項式の各係数の収束状態を示す説明図である
【図10】本実施例を用いて非整数指数を有する入力信
号をシステム同定したときの入力信号とシステム同定結
果を示す説明図である。
【図11】この実施例でのシステム同定時の平均二乗誤
差の収束状態を示す説明図である。
【図12】本実施例を用いたシステム同定における多次
多項式の各係数の収束状態を示す説明図である。
【図13】本発明に係る非線形シナプスニューロンにフ
ァジィ推論を用いた場合の好適な実施例を示す説明図で
ある。
【図14】図13に示した実施例の相補型メンバシップ
関数を示す説明図である。
【図15】図13に示した実施例における相補型メンバ
シップ関数と重み付け係数との関係を示す説明図であ
る。
【図16】本発明に係る非線形シナプスニューロンでシ
ステム同定を行うためのカオス的信号を示す説明図であ
る。
【図17】本発明の非線形シナプスニューロンを用いて
図16のカオス的信号をシステム同定するための1次〜
5次のニューロンモデルを示す説明図である。
【図18】図17に示した各次ニューロンモデルによる
システム同定時の平均二乗誤差を示す説明図である。
【図19】前記システム同定時における1次のマッピン
グ関数を示す説明図である。
【図20】システム同定時における2次のマッピング関
数を示す説明図である。
【図21】システム同定時における3次のマッピング関
数を示す説明図である。
【図22】システム同定時における4次のマッピング関
数を示す説明図である。
【図23】システム同定時における5次のマッピング関
数を示す説明図である。
【図24】システム同定された本実施例における非線形
シナプスニューロンに順次時系列信号を供給して1時刻
先を予測する時の真の信号と予測信号との関係を示す説
明図である。
【図25】本実施例におけるニューロンモデルを用いて
特定時刻における時系列信号を用いて順次予測値をフィ
ードバックしながら将来の予測を行う時の真の信号と予
測信号との関係を示す説明図である。
【図26】学習時のゲイン定数αを0.02とした時の
学習回数と誤差との関係を示す説明図である。
【図27】学習時のゲイン定数αを0.2とした時の学
習回数と誤差との関係を示す説明図である。
【図28】学習時のゲイン定数αを0.56とした時の
学習回数と誤差との関係を示す説明図である。
【図29】学習時のゲイン定数αを0.57とした時の
学習回数と誤差との関係を示す説明図である。
【図30】本発明を空間信号に用いた場合の外挿予測作
用を示す説明図である。
【符号の説明】
10 非線形シナプス 11 入力端子 12 加算器 13 積和回路 14 乗算器 15 加算器 19 出力端子 20 遅延回路 30 メンバシップ関数回路 31 重み付け回路

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 複数の入力信号のそれぞれに所望の重み
    付けを与えるための複数の非線形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2
    … ,an )を有する非線形関数{f(x)=a0
    1 x+a2 2 +a3 3 … an n }で示され
    る可変関数手段、 を含むことを特徴とする非線形シナプスニューロン。
  2. 【請求項2】 複数の入力信号のそれぞれに所望の重み
    付けを与えるための複数の非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2
    … ,an )を有する非線形関数{f(x)=a0
    1 x+a2 2 +a3 3 … an n }で示され
    る可変関数回路、 を含むことを特徴とする非線形シナプスニューロンデバ
    イス。
  3. 【請求項3】 複数の入力信号のそれぞれに非線形シナ
    プスで所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号xに対して可変重み係数(a0 ,a1 ,a2
    … ,an )を有する非線形関数{f(x)y=a0
    +a1 x+a2 2 +a3 3 … an n}で示さ
    れる可変関数を有することを特徴とする非線形シナプス
    ニューロンを用いた予測方法。
  4. 【請求項4】 複数の入力信号のそれぞれに所望の重み
    付けを与えるための複数の非線形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号レベルに応じて区間分けされ、順次前件部の一
    部が重複して並列接続された複数の相補型メンバシップ
    関数手段と、 各メンバシップ関数手段に接続され対応するメンバシッ
    プ関数のグレードで学習の度合が定められる複数の可変
    重み付け手段と、 を含むことを特徴とする非線形シナプスニューロン。
  5. 【請求項5】 複数の入力信号のそれぞれに所望の重み
    付けを与えるための複数の非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号レベルに応じて区間分けされ、順次前件部の一
    部が重複して並列接続された複数の相補型メンバシップ
    関数回路列と、 各メンバシップ関数回路に接続され対応するメンバシッ
    プ関数のグレードで学習の度合が定められる複数の可変
    重み付け回路と、 を含むことを特徴とする非線形シナプスニューロンデバ
    イス。
  6. 【請求項6】 複数の入力信号のそれぞれに非線形シナ
    プスで所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号がレベルに応じて区間分けされ、順次前件部の
    一部が重複して並列接続された複数の相補型メンバシッ
    プ関数のグレードに応じて可変重み付けを与えたことを
    特徴とする非線形シナプスニューロンを用いた予測方
    法。
  7. 【請求項7】 サンプリングされた時系列信号を受け入
    れる直列接続された遅延手段と、 前記遅延された時系列信号のそれぞれに所望の重み付け
    を与えるための複数の非線形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2
    … ,an )を有する非線形関数{f(x)=a0
    1 x+a2 2 +a3 3 … an n }で示され
    る可変関数手段、 を含むことを特徴とする非線形シナプスニューロン。
  8. 【請求項8】 サンプリングされた時系列信号を受け入
    れる直列接続された遅延回路と、 前記遅延された時系列信号のそれぞれに所望の重み付け
    を与えるための複数の非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2
    … ,an )を有する非線形関数{f(x)=a0
    1 x+a2 2 +a3 3 … an n }で示され
    る可変関数回路、 を含むことを特徴とする非線形シナプスニューロンデバ
    イス。
  9. 【請求項9】 サンプリングされた時系列信号を受け入
    れ所定の遅延を与え、前記遅延された時系列信号のそれ
    ぞれに非線形シナプスで所望の重み付を与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号xに対して可変重み係数(a0 ,a1 ,a2
    … ,an )を有する非線形関数{f(x)y=a0
    +a1 x+a2 2 +a3 3 … an n}で示さ
    れる可変関数を有することを特徴とする非線形シナプス
    ニューロンを用いた予測方法。
  10. 【請求項10】 サンプリングされた時系列信号を受け
    入れる直列接続された遅延手段と、 前記遅延された時系列信号のそれぞれに所望の重み付け
    を与えるための複数の非線形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号レベルに応じて区間分けされ、順次前件部の一
    部が重複して並列接続された複数の相補型メンバシップ
    関数手段と、 各メンバシップ関数手段に接続され対応するメンバシッ
    プ関数のグレードで学習の度合が定められる複数の可変
    重み付け手段と、 を含むことを特徴とする非線形シナプスニューロン。
  11. 【請求項11】 サンプリングされた時系列信号を受け
    入れる直列接続された遅延回路と、 前記遅延された時系列信号のそれぞれに所望の重み付け
    を与えるための複数の非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号レベルに応じて区間分けされ、順次前件部の一
    部が重複して並列接続された複数の相補型メンバシップ
    関数回路列と、 各メンバシップ関数回路に接続され対応するメンバシッ
    プ関数のグレードで学習の度合が定められる複数の可変
    重み付け回路と、 を含むことを特徴とする非線形シナプスニューロンデバ
    イス。
  12. 【請求項12】 サンプリングされた時系列信号を受け
    入れ所定量の遅延を与え、 前記遅延された時系列信号のそれぞれに非線形シナプス
    で所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号がレベルに応じて区間分けされ、順次前件部の
    一部が重複して並列接続された複数の相補型メンバシッ
    プ関数のグレードに応じて可変重み付けを与えたことを
    特徴とする非線形シナプスニューロンを用いた予測方
    法。
  13. 【請求項13】 空間的に異なる座標位置の複数の信号
    のそれぞれに所望の重み付けを与えるための複数の非線
    形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2
    … ,an )を有する非線形関数{f(x)=a0
    1 x+a2 2 +a3 3 … an n }で示され
    る可変関数手段、 を含むことを特徴とする非線形シナプスニューロン。
  14. 【請求項14】 空間的に異なる座標位置の複数の入力
    信号のそれぞれに所望の重み付けを与えるための複数の
    非線形シナプス回路と、 各非線形シナプスの出力を加算する加算器と、 を含み、 前記非線形シナプス回路は、 入力信号xに対して可変重み係数(a0 ,a1 ,a2
    … ,an )を有する非線形関数{f(x)=a0
    1 x+a2 2 +a3 3 … an n }で示され
    る可変関数回路、 を含むことを特徴とする非線形シナプスニューロンデバ
    イス。
  15. 【請求項15】 空間的に異なる座標位置の複数の信号
    のそれぞれに非線形シナプスで所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号xに対して可変重み係数(a0 ,a1 ,a2
    … ,an )を有する非線形関数{f(x)y=a0
    +a1 x+a2 2 +a3 3 … an n}で示さ
    れる可変関数を有することを特徴とする非線形シナプス
    ニューロンを用いた予測方法。
  16. 【請求項16】 空間的に異なる座標位置の複数の信号
    のそれぞれに所望の重み付けを与えるための複数の非線
    形シナプス手段と、 各非線形シナプスの出力を加算する加算手段と、 を含み、 前記非線形シナプス手段は、 入力信号レベルに応じて区間分けされ、順次前件部の一
    部が重複して並列接続された複数の相補型メンバシップ
    関数手段と、 各メンバシップ関数手段に接続され対応するメンバシッ
    プ関数のグレードで学習の度合が定められる複数の可変
    重み付け手段と、 を含むことを特徴とする非線形シナプスニューロン。
  17. 【請求項17】 空間的に異なる座標位置の複数の信号
    のそれぞれに所望の重み付けを与えるための複数の非線
    形シナプス回路と、 各非線形シナプスの出力を加算する加算回路と、 を含み、 前記非線形シナプス回路は、 入力信号レベルに応じて区間分けされ、順次前件部の一
    部が重複して並列接続された複数の相補型メンバシップ
    関数回路列と、 各メンバシップ関数回路に接続され対応するメンバシッ
    プ関数のグレードで学習の度合が定められる複数の可変
    重み付け回路と、 を含むことを特徴とする非線形シナプスニューロンデバ
    イス。
  18. 【請求項18】 空間的に異なる座標位置の複数の信号
    のそれぞれに非線形シナプスで所望の重み付けを与え、 各非線形シナプスの出力を加算し、 前記非線形シナプスは、 入力信号がレベルに応じて区間分けされ、順次前件部の
    一部が重複して並列接続された複数の相補型メンバシッ
    プ関数のグレードに応じて可変重み付けを与えたことを
    特徴とする非線形シナプスニューロンを用いた予測方
    法。
JP13289792A 1992-05-25 1992-05-25 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法 Expired - Fee Related JP3328953B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13289792A JP3328953B2 (ja) 1992-05-25 1992-05-25 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13289792A JP3328953B2 (ja) 1992-05-25 1992-05-25 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法

Publications (2)

Publication Number Publication Date
JPH05324599A true JPH05324599A (ja) 1993-12-07
JP3328953B2 JP3328953B2 (ja) 2002-09-30

Family

ID=15092106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13289792A Expired - Fee Related JP3328953B2 (ja) 1992-05-25 1992-05-25 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法

Country Status (1)

Country Link
JP (1) JP3328953B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017511948A (ja) * 2014-03-06 2017-04-27 プログレス インコーポレイテッドProgress,Inc. ニューラルネットワーク及びニューラルネットワークのトレーニング方法
WO2021079235A1 (ja) * 2019-10-25 2021-04-29 株式会社半導体エネルギー研究所 演算回路、半導体装置、及び電子機器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017511948A (ja) * 2014-03-06 2017-04-27 プログレス インコーポレイテッドProgress,Inc. ニューラルネットワーク及びニューラルネットワークのトレーニング方法
WO2021079235A1 (ja) * 2019-10-25 2021-04-29 株式会社半導体エネルギー研究所 演算回路、半導体装置、及び電子機器

Also Published As

Publication number Publication date
JP3328953B2 (ja) 2002-09-30

Similar Documents

Publication Publication Date Title
Lin et al. A neural fuzzy system with linguistic teaching signals
US5606646A (en) Recurrent neural network-based fuzzy logic system
US5828812A (en) Recurrent neural network-based fuzzy logic system and method
EP0454037A2 (en) Neural network for processing a plurality of informations and learning method
US5630023A (en) Signal processor
Khan et al. Neufuz: Neural network based fuzzy logic design algorithms
US5455890A (en) Method for structuring an expert system utilizing one or more neural networks
Kumar A Lyapunov-stability-based context-layered recurrent pi-sigma neural network for the identification of nonlinear systems
JPH06266868A (ja) ニューロン素子
EP0384709B1 (en) Learning Machine
EP0646878A1 (en) Method for converting an existing expert system into one utilizing one or more neural networks
JPH05324599A (ja) 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
Shabri A novel hybrid ensemble learning paradigm for tourism forecasting
Yen et al. Principal components, B-splines, and fuzzy system reduction
EP0460642A2 (en) A method and system for adjusting fuzzy inference parameters
JPH0895938A (ja) 時系列データの学習方法及び時系列データの学習装置
Thomas et al. From batch to recursive outlier-robust identification of non-linear dynamic systems with neural networks
EP0567983B1 (en) Learning type waveform recognizer
Baisch et al. A neural fuzzy system to evaluate software development productivity
JPH0490076A (ja) 医用画像特徴抽出方法
JPH06175998A (ja) 時系列予測方法
JP3396489B2 (ja) ネットワーク型情報処理システム
KR101790319B1 (ko) 상호연결된 시간 지연 시스템의 최소 예측 기반 분산 제어를 위한 장치 및 방법
Ankenbrand et al. Forecasting financial multivariate time series with neural networks
Adlemo et al. Semi-Automatic Generation of a Fuzzy Inference System in a Reshoring Context

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080719

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080719

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090719

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100719

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110719

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110719

Year of fee payment: 9

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110719

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees