JPH02309447A - 相互結合型ニューラルネットワークの学習方法 - Google Patents

相互結合型ニューラルネットワークの学習方法

Info

Publication number
JPH02309447A
JPH02309447A JP1130921A JP13092189A JPH02309447A JP H02309447 A JPH02309447 A JP H02309447A JP 1130921 A JP1130921 A JP 1130921A JP 13092189 A JP13092189 A JP 13092189A JP H02309447 A JPH02309447 A JP H02309447A
Authority
JP
Japan
Prior art keywords
learning
elements
output
input
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1130921A
Other languages
English (en)
Inventor
Fumio Matsunari
松成 文夫
Masuji Oshima
満寿治 大嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP1130921A priority Critical patent/JPH02309447A/ja
Publication of JPH02309447A publication Critical patent/JPH02309447A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 【産業上の利用分野】
本発明は、画像認識、音声認識等のパターン認識及びエ
キスパートシステムの推論、検索等への応用を意図した
人間の神経回路網を模擬した相互結合型のニューラルネ
ットワークによる連想記憶のための学習方法に関係する
【従来技術】
人間の記憶・情報処理機能を模擬したニューラルネット
ワークモデルとし、現在、第2図の階層型ニューラルネ
ットワークと第1図の相互結合型のニューラルネットワ
ークが提案されている。これらのネットワークは、神経
網のニューロンに相当する素子1.、1.、 L、 )
1.、 Fl、、 H,、0,、O,、O,と、各素子
間を結ぶ神経網のシナプスに相当する結合経路り、、L
、、  −、L、から構成されている。そして、各素子
では、その素子に接続されている各結合経路はその結合
経路によって直接接続されている素子の出力値に各結合
経路毎に設定される所定の係数、即ち、結合係数を掛け
た値がそれぞれの素子の入力値きなる。又、それらの入
力値の和の所定の関数値がその素子の出力値となる。こ
の出力値は、素子の状態を表した量、即ち、状態量とし
て定義することができる。したがって、以下、素子の出
力値と素子の状態量とは同一の意味で使用する。 このように、ニューラルネットワークの特性は、全入力
値からその出力値、即ち、素子の状態量を決定する入出
力関数と、結合係数とによって決定され、パターン認識
等における特徴的情報の記憶は、結合経路の結合係数の
値によって行われる。 i番目の素子の出力値、即ち、状態量x1は、第3図に
示すように、素子の非線型特性(入出力関数)をfとす
ると、 結合係数(W I J )を決めることを学習と呼ぶが
、第2図の階層型ネットワークでは、最終出力の誤差の
二乗和を最小に警る方式として、近年逆伝搬法が考案さ
れ、画像認識、音声認識等のパターン認識等に広く利用
されている。しかし、階層型ニューラルネットワークで
は、ネットワーク構成の自由度が低く、また、素子の相
互間の情報を利用しておらず、単に、入出力変換装置と
しての機能しか持っていない。 一方、第1図の相互結合型のニューラルネットワークは
、素子間の結合を自由にとることができネットワーク構
成の自由度が高い。ホップフィールドは、この系のエネ
ルギーを E=  EE Ws)・XI” XJ  曲(2)2 
日 によって定義した。 ここで、X L、 X Jはそれぞれの素子の出力値(
状態量)であり、WIJは、各素子間の結合係数である
。又、各結合路は、双方向性が成立し、W、、==W、
、が成立するとしている。 又、各素子の状態量は、(1)式によって表される。 そして、素子の状態量Xを変化させることにより、(2
)式のエネルギーEは単調に減少し、最終的には、平衡
点として、エネルギーの最小(極小)値に落ち着くこと
が示されている。 相互結合型のニューラルネットワークの学習方式として
は、従来、相関学習と呼ばれるW = E X k” 
’W t、I””””  (3)で、結合係数W(行列
)を求める学習方式が採用されている。 但し、kは記憶パターンの数であり、×に、 y tk
は、それぞれ、入力ベクトル、出力ベクトルであり、W
は結合係数行列である。また、xkは縦ベクトル、X□
は、xkを転置して得られる横ベクトルである。この場
合に個のパターン行列X、。 ×2.パ、X、が相互に略直交している場合には、×。 を入力ベクトルとした場合の出力値W −x pはW−
x 、= V p  I  Xs ! ”      
 −−−(4)で表される。しかし、これは各×、が直
交している場合に限られ、直交ベクトルでない場合には
、望ましい出力が得られず、例えば、入力ベクトルを1
.−1のランダム・ベクトルを用いる等の工夫が成され
るが、基本的な問題は解決せず、余り精度の良くない学
習方式である。 一方、近年、ボルツマン・マシンとして、素子の出力を
確率的に求める方式が提案されている。 これは′5(1)式に相当する に従って、Qiを素子iの状態量が1となる確率分布と
見做し、この確率分布に従って、素子lの状態量X、を
具体的に0又は1に割り当てる。なお、(5)式のTは
温度と呼び、時間経過と共に、高温から低温に推移させ
る。又、ボルツマン・マシンの学習方式は、学習、反学
習の2段階を設定し、ΔWIJ=ε(Q” l J−Q
−t J)          −(6)で結合係数の
補正量を求め、多数回の学習により結合係数を微小量Δ
Wl、だけ補正するものである。 ここで、0+、は学習時の平衡状態における素子l。 jの期待値の積であり、Q−、□は反学習時の平衡状態
における素子l、jの期待値の積である。又、εは十分
小さな値に設定する必要がある。
【発明が解決しようとする問題点】
このように、ボルツマン・マシンの学習方式では、素子
の状態量は、0又はlに2値化されており、アナログ量
のデータ処理には対応できない。 又、素子の0か1かの状態量を確率分布で求めているた
め、(6)式の期待値の計算に時間がかかるという問題
もある。 そこで、本発明者らは、相互結合型ニューラルネットワ
ークの平衡点をホップフィールドのエネルギーの極小点
として求め、学習方式として学習−反学習の考えを用い
、その期待値に平衡点での値を用いることを着想した。
【問題点を解決するための手段】   ・上記課題を解
決するための発明の構成は、相互結合型ニューラルネッ
トワークにおける結合係数の学習方法において、 前記結合係数を所定の値に初期設定する初期設定過程と
、 入力素子及び出力素子の状態量を、学習対象に応じて前
記;ユーラルネットワークにおける所定の入力値及びそ
の入力値に対する所定の出力値に固定して、全素子の状
態量が平衡状態に達した時の全素子の状態量を所定の入
出力関数によって求める学習過程と、 前記入出力素子の一部の素子の状態量のみ学習対象に応
じて前記ニューラルネットワークにおける所定の入力値
又は出力値に固定して、全素子の状態量が平衡状態に達
した時の全素子の状態量を所定の入出力関数によって求
める反学習過程と、前記各結合係数の修正に当たり、そ
の1つの結合係数により結合されている2つの素子にお
いて、前記学習過程で得られたその2つの素子の状態量
の積と、前記反学習過程で得られた2つの素子の状態量
の積との差に応じた量だけ、その結合係数を補正すると
いう処理を全結合係数について行う結合係数修正過程と
、 1つの学習対象に対して、前記学習過程と前記反学習過
程と前記結合係数修正過程とを実行して、結合係数を学
習させ、他の学習対象に対し、更に、上記処理を繰り返
して、全ての学習対象に対して、前記ニューラルネット
ワークを学習させる過程とで構成される。 次に、上記学習方法の基本原理について説明する。 前述の(2)式で表現されるエネルギーを用いて学習、
反学習時のエネルギー差を G (1!l)= S P (r)・(E ”(r) 
−E−(r))    −(7)とする。ここでP (
r)はrのパターンの与えられる確率、E ” (r)
、 E −(r)は学習、反学習時に得られる(2)式
のエネルギーである。 反学習時には学習時よりも素子の自由度が高いことから E”(r)≧E−b)             −・
(8)の関係がある。すなわち G (W)≧O−(9) の関係があり、(2)式を(7)式に代入して、その(
7)式を微分すると、 −x I−(r)・x j−(r) )       
 0口である。そして、 とおいて、各学習パターンに対して、 X、”Xj”= X、−XJ−−・σりの時に、(7)
式は極小値を持つ。 従って、 ΔW、、=ε(Xt”Xj”  XI−XJ−)   
   −αJだけ、結合係数を学習の度に補正すること
で、最小エネルギーの系、即ち、学習の完了した二二一
ラルネットワークが得られる。 このように、本発明では、ボルツマンマシンのように確
率論的にではなく、決定論的な学習方式として、学習、
反学習の概念が適用できることになる。 次に、詳細な構成について説明する。 ■相互結合型ニューラルネットワーク 第1図に示した相互結合型ニューラルネットワークはニ
ューロンに相当する素子と、素子間を結ぶシナプス相当
の結合経路から構成される。各素子は第3図に示される
ように、その素子に結合している他の素子の出力に結合
係数倍された線型和を入力とし、シグモイド関数、ステ
ップ関数等の有界の関数を介して出力とする。結合経路
の重み係数(結合係数)は双方向でありWIJ=Wjt
の関係があるとする。 素子の種別としては、入力素子、隠れ素子、出力素子の
3種とするが、入力素子、出力素子は必ずしも特定の素
子に限定されるのではなく、学習時の教示パターンに応
じて、任意に設定される。 ■学習方式 上記相互結合型ニューラルネットワークの結合係数を決
めるための学習方式を流れ図として第4図に示す。この
流れ図は次の内容から構成される。 tloxl、ニューラルネットワークの結合係数の初期
化 Box2.学習のための学習パターンを選定する。 Box3. Box2の学習パターンとニューラルネッ
トワークの入力素子■、出力素子0の対応を付け、隠れ
素子Hの状態量X+、l(出力値)を求める。隠れ素子
を設定しない場合は、入力素子■と出力素子0の対応付
は及びそれぞれの状態量X“1. X −0の設定のみ
となる。この段階を学習と呼ぶ。 BOX4.BOX30入力素子、出力素子の一部の状態
量を設定せず、自由な状態として、この自由な状態の入
出力素子、及び隠れ素子の状態量を求める。 この段階での各素子の状態量をx −!、 x−0,X
−0とする。この段階をBox3に対比させて反学習と
呼ぶ。 BOX5、Box3、BOX4で得られた各素子の状態
量から0式で定義されるように、素子間の相関X−・X
J+とXt−・XJ−の差に比例した値を学習補正量Δ
W1.とする。 Box6. Box5の学習補正量を用いて、確率的降
下法に従ってニューラルネットワークの結合係数を若干
量修正する。 Box6.収束判定を行い、未収束ならば、Box2へ
行き次のパターンにより学習を繰り返す。
【作用】
■ネットワークの素子の状態量の生成作用Box3の隠
れ素子の状態量の生成、また、Box4の初期状態で乱
数で自由に設定された入出力素子、及び隠れ素子の状態
量の生成には、(1)式が用いられる。これは(2)式
のエネルギーの極小点として得られる。この条件として
は入出力関数fが有界である。2素子間の結合係数間に
W、=W、tの関係があるのみで良く、状態量として、
アナログ値を扱う場合にはシグモイド関数が、また(0
.1)の2値の場合にはステップ関数が使える等、入出
力関数の選定に、問題に応じた自由度がある。 ■学習−反学習による学習方式 Box3の学習過程での状態量X”、BOX4での反学
習過程での状態量X−から学習補正量としてα罎式を使
うことにより(4)式の相関学習に比して精度の向上が
計られる。例えばab式にみられるように平衡状態でB
ox3を教示データとみれば教示データ間の相関と、B
ox4での想起時の相関が等しく直交学習に近い精度が
得られる。 また、ボルツマン・マシンでは(5)式の確率分布から
得られる素子の期待値を用い(6)式により結合係数を
補正しているのに対し、本発明では(1)、(2)式に
より、平衡点の値として、素子の状態量を求め、αつ式
で結合係数を補正しているので、計算時間の短縮が計ら
れる。 ■確率的降下法 0式を直接つかうことにより、階層型のニューラルネッ
トワークの逆伝搬法等で用いられている確率的降下法 ΔW、1”’=a−ΔWIJ’+1: (X l”X 
、+−xl−”X j−)−・・0荀 W 、 、k” ’ == W I J’+ΔWIJk
+1      ・−(X!9を用いることができる。 ここでα、εは、0から1までの数で問題に応じて適当
に選ばれる。 αΔWIJkは慣性項と呼ばれ、解の収束を早めるため
に使われる。特に、シグモイド関数を用いてアナログ量
を扱う場合にこの効果は大きい。 ■相互結合型ニューラルネットワーク 第1図の相互結合型ニューラルネットワークで、第4図
の流れ図に従って学習を行う場合、特定の二つのi、j
素子を学習、反学習時に固定として、X l+=X l
−+  X j”= X j−とすると、αり式からΔ
WIj=0であり、l+J素子間の結合は学習されない
。 口0×4の自由にする素子には自由度があり、通常入力
素子I又は出力素子0等を自由にして使用される。入力
素子Iを自由にすると入力データ間の相関が得られ、ア
ナログデータの相関解析に用いられる。又、出力素子0
を自由にすると、出力データ間の排反関係が得られ、認
識問題の場合に認識精度をあげることができる。又、両
方必要な場合には、入力素子Iを自由にした場合と出力
素子0を自由にした場合を交互に反学習のデータとして
用いることができる。
【実施例】
上記の学習方法はハードウェアで構戊される二二−ラル
ネットワークの結合係数を学習させる方法として用いる
ことができるが、そのニューラルネットワーク及び結合
係数の決定をコンピュータによってショレーションした
結果を以下実施例として説明する。 実施例1:論理演算回路の設計 素子の入出力関数として第7図(b)に示すステップ関
数 r (u)=1 、  u> 0 =0. u≦O・°αe を用いてAND、OR,排他ORの論理回路の設計を行
った。 初期の相互結合型ニューラル・ネットを第5図に示す。 第4図の学習方式に従って教示パターンを第6図の4組
を採り、ランダムに選択して逐次教示パターンとした。 学習段階では、入出力素子を固定とし、隠れ素子を自由
とした。反学習段階では入力素子のみを固定とし、出力
素子、隠れ素子を自由とした。結合係数は学習の初期に
は零とし、学習、反学習時の学習補正量03式を求め、
α乃αつ式から結合係数を修正する。なお、α◇式で、
α=0.ε=1とした。これを1回の学習とし、更に、
第6図のパターンから一つを選択して、学習を繰り返し
た。約2000程度で収束した。結果として、第7図(
a)を得た。第7図(a)は隠れ素子も不要であり、入
出力素子のみで構戊される最小構成の論理回路であると
いえる。 実施例2:正弦波の係数推定 素子の入出力関数として、シグモイド関数f (u) 
= 1 / (1+ exp(−u) )     −
−α1を用いて振動波形としての正弦波の振幅の推定を
行った。初期の相互結合型ニューラルネットワークを第
8図に示す。教示正弦波としては、P(θ)=a−si
nθとし、Δθ=4/10間隔で11点の関数値を入力
素子の入力値とし、振幅aを出力素子の出力値とした。 教示パターンは、振幅aをランダムに発生し、それに対
応する正弦波形の各点の値を求めた。学習方式は実施例
1と同じく学習段階では入出力素子を固定とし、隠れ素
子のみを自由とし、反学習段階では、入力素子のみを固
定とし、出力素子、隠れ素子を自由とした。aa式の係
数として、α=0.8.  ε:0.2を用いた。50
00回程度0学習で略収束した。その時に構成されたネ
ットワークを第9図に示す。第10図は正弦波を入力し
たときの振幅aの推定誤差を示し、路線型の関係を得て
いる。第11図は、結合係数が相関といろ形で得られ W+w、ot+t=/ f(a)’f(a’staθ、
)da!=Isinθ、−f f(a)−a−da  
      −α桓で略正弦波形に近い形で得られる。 この実施例の場合には本学習方式は、(3)式の単純な
相関学習ではないが、結合係数が相関という非常に分か
り易い形で得られるのが一つの特徴である。これはデー
タ分析機能を持ったエキスパート・システム構築を可能
とするものである。 実施例3:数字のパターン認識 素子の入出力関数として、60式のステップ関数を用い
て第12図に示す数字のパターン認識を行った。各数字
は3X5の要素パターンで表現し、これを入力素子に対
応する入力値とした。出力素子は、各数字に対応する1
0種を準備した。この入出力素子及び隠れ素子で構成し
た相互結合型ニューラルネットワークを第13図に示す
。 入出力関数としては、ステップ関数を用いた。 学習方式は実施例1.2と同じく学習時には入出力素子
を固定とし隠れ素子を自由とし、反学習時には入力素子
を固定とし出力素子、隠れ素子を自由とした。c4)式
の係数としてはα=0.ε=1を用いた。この学習方式
で得られた学習結果としての各数字に対応した出力素子
と、その出力素子と入力素子との結合係数を第14図に
示す。各数字パターンの要素の特徴を示す部位の結合係
数が大きくなっており、本学習方式で数字を分離Ui識
する際の特徴が抽出されたことになる。 第15図に、テストパターンの認識結果を示す。 複数記述しであるのは、両方の可能性ありと認識したも
のである。完全な間違いは6個であり、人間にも難しい
程度の認識をある程度実施したことになる。実際の応用
に際しては、更に、学習データの工夫、学習カリキユラ
ムの工夫次第で、更に精度の向上は可能と思われる。 上記実施例で、本発明の学習方法が具体的に示されたが
、上記実施例に限らず、もっと種々の分野に適用可能で
ある。又、上記各実施例に関し次の変形例がある。 変形例1:論理演算回路の設計 実施例1では、入出力関数として用いたステップ関数の
代わりに、シグモイド関数を用いて得られた結合係数と
、それから構成されるネットワークを第16図(a)に
、また各結合係数を第16図(b)に示す。実施例1と
は異なり、アナログ演算を行っている為に、隠れ素子と
して、状態量1の素子を必要としている。又、逆に、演
算に必要な隠れ素子が自動的に生成されることが、本学
習方式の主要な特徴である。 変形例2: 実施例2では、正弦波の振幅の推定を行ったが振幅に限
らず学習時に出力素子の状態量として何を教示するかに
よって信号波形に含まれる各種のパラメータを推定する
ことができる。第17図及び第18図に入力波形として
、F(θ)=sin(θ+τ)。 P(θ)=sin(ωθ)とした場合の位相(τ)及び
周波数(ω)の推定曲線を示す。ともにほぼ線型の関係
を得ている。 変形例3: 実施例3で入出力関数として用いたステップ関数の代わ
りにシグモイド関数を用いて、テストパターンを認識し
た結果を第19図に示す。第19図には入力された各数
字パターンと対応する出力素子の数字及びその出力値を
示している。 実施例1に比してアナログ量のため、認識精度が向上し
、全熱認識できなかったのは2例のみである。
【発明の効果】
本発明は、相互結合型二二−ラルネットワークにおける
結合係数の学習方法に右いて、入力素子及び出力素子の
状態量を、学習対象に応じた入力値及び出力値に固定し
て、全素子の状態量が平衡状態に達した時の全素子の状
態量を所定の入出力関数によって求める学習過程と、入
出力素子の一部の素子の状態量のみ学習対象に応じた入
力値又は出力値に固定して、全素子の状態量が平衡状態
に達した時の全素子の状態量を所定の入出力関数によっ
て求める反学習過程と、任意の結合係数において、その
結合係数で結合されている2つの素子の学習過程で得ら
れた状態量の積と、反学習過程で得られた状態量の積と
の差に応じた量だけ、その結合係数を補正するという処
理を全結合係数について行う結合係数修正過程を、他の
学習対象についても繰り返し実行して結合係数を学習さ
せるようにしたものである。従って、学習、反学習時の
平衡状態の状態量を直接、学習の補正量に用いているた
め、学習速度が速いという効果を有する。また、平衡状
態の状態量を用いているため、誤差二乗和を減少させる
という学習法に比較して、学習回数が少なくて済むとい
う効果をも持つ。 また、入出力関数として、2値問題のためのステップ関
数のみでなく、連続量としてのシグモイド関数を問題に
応じて選択することができるために、2値を用いたパタ
ーン&2[よりも、アナログ処理により、認識精度を向
上させることができる等の効果を持つとともに、さらに
は各素子を連続量で扱うことが可能であるので、連続量
を入力、出力とするデータ処理の分野にも本ニューラル
ネットワークは応用できる。
【図面の簡単な説明】
第1図は相互結合型ニューラルネッヮークの構造図、第
2図は階層型ニューラルネッヮークの構造図、第3図は
1つの素子の入出力関係を示した説明図、第4図は本発
明の学習方法を示したフローチャート、第5図は第1実
施例に係る論理演算回路の設計に関する相互結合型ニュ
ーラルネッヮークの初期構造を示した構造図、第6図は
第1実施例に係る論理演算回路の設計に関する教示デー
タを示した説明図、第7図は第1実施例において学習の
結果得られた最終の二二一うルネッヮークの構造と入出
力関数とを示した説明図、第8図は第2実施例に係る正
弦波の振幅推定のためのニューラルネットワークの初期
構造を示した構造図、第9図は第2実施例において学習
の結果得られた最終のニューラルネッヮークの構造を示
した構造図、第10図は第2実施例において学習回数と
振幅推定の誤差との関係を示した特性図、第11図は第
2実施例の学習の結果得られた最終の結合係数を示した
説明図、第12図は第3実施例におけるパターン認識の
教示用データを示した説明図、第13図は第3実施例の
パターン認識のためのニューラルネットワークの構造図
、第14図は第3実施例で学習された最終の結合係数を
示した説明図、第15図は第3実施例で学習されたニュ
ーラルネットワークによるパターン認識におけるパター
ンと認識結果を示した説明図、第16図は第1変形例に
おいて得られた最終の二二−ラルネットワークの構造と
その結合係数を示した説明図、第17図は第2変形例に
おける学習回数と位相推定の誤差との関係を示した特性
図、第18図は第2変形例における学習回数と周波数推
定の誤差との関係を示した特性図、第19図は第3変形
例において学習されたニューラルネットワークによるパ
ターン認識におけるパターンと認識結果を示した説明図
である。 !1〜I 、−人力素子 01〜0.°出力素子 ■、〜H5−隠れ素子

Claims (1)

  1. 【特許請求の範囲】  相互結合型ニューラルネットワークにおける結合係数
    の学習方法において、 前記結合係数を所定の値に初期設定する初期設定過程と
    、 入力素子及び出力素子の状態量を、学習対象に応じて前
    記ニューラルネットワークにおける所定の入力値及びそ
    の入力値に対する所定の出力値に固定して、全素子の状
    態量が平衡状態に達した時の全素子の状態量を所定の入
    出力関数によって求める学習過程と、 前記入出力素子の一部の素子の状態量のみ学習対象に応
    じて前記ニューラルネットワークにおける所定の入力値
    又は出力値に固定して、全素子の状態量が平衡状態に達
    した時の全素子の状態量を所定の入出力関数によって求
    める反学習過程と、前記各結合係数の修正に当たり、そ
    の1つの結合係数により結合されている2つの素子にお
    いて、前記学習過程で得られたその2つの素子の状態量
    の積と、前記反学習過程で得られた2つの素子の状態量
    の積との差に応じた量だけ、その結合係数を補正すると
    いう処理を全結合係数について行う結合係数修正過程と
    、 1つの学習対象に対して、前記学習過程と前記反学習過
    程と前記結合係数修正過程とを実行して、結合係数を学
    習させ、他の学習対象に対し、更に、上記処理を繰り返
    して、全ての学習対象に対して、前記ニューラルネット
    ワークを学習させる過程とから成る相互結合型ニューラ
    ルネットワークの学習方法。
JP1130921A 1989-05-24 1989-05-24 相互結合型ニューラルネットワークの学習方法 Pending JPH02309447A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1130921A JPH02309447A (ja) 1989-05-24 1989-05-24 相互結合型ニューラルネットワークの学習方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1130921A JPH02309447A (ja) 1989-05-24 1989-05-24 相互結合型ニューラルネットワークの学習方法

Publications (1)

Publication Number Publication Date
JPH02309447A true JPH02309447A (ja) 1990-12-25

Family

ID=15045852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1130921A Pending JPH02309447A (ja) 1989-05-24 1989-05-24 相互結合型ニューラルネットワークの学習方法

Country Status (1)

Country Link
JP (1) JPH02309447A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495430A (en) * 1991-12-13 1996-02-27 Kabushiki Kaisha Toyota Chuo Kenkyusho Process time estimating apparatus
US6226544B1 (en) 1997-06-13 2001-05-01 Nec Corporation Living body internal active source estimation apparatus
JP2004030627A (ja) * 2002-05-10 2004-01-29 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP2007251354A (ja) * 2006-03-14 2007-09-27 Saitama Univ マイクロホン、音声生成方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495430A (en) * 1991-12-13 1996-02-27 Kabushiki Kaisha Toyota Chuo Kenkyusho Process time estimating apparatus
US6226544B1 (en) 1997-06-13 2001-05-01 Nec Corporation Living body internal active source estimation apparatus
JP2004030627A (ja) * 2002-05-10 2004-01-29 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP2007251354A (ja) * 2006-03-14 2007-09-27 Saitama Univ マイクロホン、音声生成方法

Similar Documents

Publication Publication Date Title
Patra et al. Nonlinear dynamic system identification using Legendre neural network
Xia An inverse model of MR damper using optimal neural network and system identification
US5781701A (en) Neural network and method of using same
Guan et al. Robust adaptive tracking control for manipulators based on a TSK fuzzy cerebellar model articulation controller
US5299285A (en) Neural network with dynamically adaptable neurons
Juang et al. Circuit implementation of data-driven TSK-type interval type-2 neural fuzzy system with online parameter tuning ability
Waheeb et al. Nonlinear autoregressive moving-average (narma) time series forecasting using neural networks
Ayala et al. Efficient hardware implementation of radial basis function neural network with customized-precision floating-point operations
de Angulo et al. On-line learning with minimal degradation in feedforward networks
Yang et al. A neural network learning algorithm of chemical process modeling based on the extended Kalman filter
Mohammadi et al. Fault diagnosis of analog circuits with tolerances by using RBF and BP neural networks
JPH02309447A (ja) 相互結合型ニューラルネットワークの学習方法
EP0661645A2 (en) Neural network
Kinzel Theory of interacting neural networks
Tarassenko et al. On-chip learning with analogue VLSI neural networks
CN116134415A (zh) 用于更新交叉阵列的脉冲生成
Khodabandehlou et al. Training recurrent neural networks via dynamical trajectory-based optimization
Son et al. Black-box modeling of nonlinear system using evolutionary neural NARX model
JPH05128082A (ja) 階層ネツトワーク構成データ処理装置とその学習処理方法
Achkar et al. Prediction of football matches’ results using neural networks
JPH04291662A (ja) 階層ネットワーク構成演算素子
JPH0644207A (ja) ニューラルネットワーク及びその構成方法
Hache et al. Control-Oriented Neural State-Space Models for State-Feedback Linearization and Pole Placement
Cao et al. A local search based learning method for multiple-valued logic networks
Kim Applying Conjugate Gradient Method Based Backpropagation Algorithm to Chemical Processing System