JPH02309447A - 相互結合型ニューラルネットワークの学習方法 - Google Patents
相互結合型ニューラルネットワークの学習方法Info
- Publication number
- JPH02309447A JPH02309447A JP1130921A JP13092189A JPH02309447A JP H02309447 A JPH02309447 A JP H02309447A JP 1130921 A JP1130921 A JP 1130921A JP 13092189 A JP13092189 A JP 13092189A JP H02309447 A JPH02309447 A JP H02309447A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- elements
- output
- input
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000013016 learning Effects 0.000 title claims abstract description 109
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 42
- 230000008569 process Effects 0.000 claims abstract description 29
- 238000012937 correction Methods 0.000 claims abstract description 13
- 230000008878 coupling Effects 0.000 claims description 57
- 238000010168 coupling process Methods 0.000 claims description 57
- 238000005859 coupling reaction Methods 0.000 claims description 57
- 230000006870 function Effects 0.000 claims description 38
- 238000012986 modification Methods 0.000 claims description 7
- 230000004048 modification Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 17
- 238000003909 pattern recognition Methods 0.000 description 10
- 239000013598 vector Substances 0.000 description 8
- 230000000694 effects Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- -1 Box3 Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101100272668 Notophthalmus viridescens BOX5 gene Proteins 0.000 description 1
- 101100063510 Notophthalmus viridescens DLX3 gene Proteins 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
本発明は、画像認識、音声認識等のパターン認識及びエ
キスパートシステムの推論、検索等への応用を意図した
人間の神経回路網を模擬した相互結合型のニューラルネ
ットワークによる連想記憶のための学習方法に関係する
。
キスパートシステムの推論、検索等への応用を意図した
人間の神経回路網を模擬した相互結合型のニューラルネ
ットワークによる連想記憶のための学習方法に関係する
。
人間の記憶・情報処理機能を模擬したニューラルネット
ワークモデルとし、現在、第2図の階層型ニューラルネ
ットワークと第1図の相互結合型のニューラルネットワ
ークが提案されている。これらのネットワークは、神経
網のニューロンに相当する素子1.、1.、 L、 )
1.、 Fl、、 H,、0,、O,、O,と、各素子
間を結ぶ神経網のシナプスに相当する結合経路り、、L
、、 −、L、から構成されている。そして、各素子
では、その素子に接続されている各結合経路はその結合
経路によって直接接続されている素子の出力値に各結合
経路毎に設定される所定の係数、即ち、結合係数を掛け
た値がそれぞれの素子の入力値きなる。又、それらの入
力値の和の所定の関数値がその素子の出力値となる。こ
の出力値は、素子の状態を表した量、即ち、状態量とし
て定義することができる。したがって、以下、素子の出
力値と素子の状態量とは同一の意味で使用する。 このように、ニューラルネットワークの特性は、全入力
値からその出力値、即ち、素子の状態量を決定する入出
力関数と、結合係数とによって決定され、パターン認識
等における特徴的情報の記憶は、結合経路の結合係数の
値によって行われる。 i番目の素子の出力値、即ち、状態量x1は、第3図に
示すように、素子の非線型特性(入出力関数)をfとす
ると、 結合係数(W I J )を決めることを学習と呼ぶが
、第2図の階層型ネットワークでは、最終出力の誤差の
二乗和を最小に警る方式として、近年逆伝搬法が考案さ
れ、画像認識、音声認識等のパターン認識等に広く利用
されている。しかし、階層型ニューラルネットワークで
は、ネットワーク構成の自由度が低く、また、素子の相
互間の情報を利用しておらず、単に、入出力変換装置と
しての機能しか持っていない。 一方、第1図の相互結合型のニューラルネットワークは
、素子間の結合を自由にとることができネットワーク構
成の自由度が高い。ホップフィールドは、この系のエネ
ルギーを E= EE Ws)・XI” XJ 曲(2)2
日 によって定義した。 ここで、X L、 X Jはそれぞれの素子の出力値(
状態量)であり、WIJは、各素子間の結合係数である
。又、各結合路は、双方向性が成立し、W、、==W、
、が成立するとしている。 又、各素子の状態量は、(1)式によって表される。 そして、素子の状態量Xを変化させることにより、(2
)式のエネルギーEは単調に減少し、最終的には、平衡
点として、エネルギーの最小(極小)値に落ち着くこと
が示されている。 相互結合型のニューラルネットワークの学習方式として
は、従来、相関学習と呼ばれるW = E X k”
’W t、I”””” (3)で、結合係数W(行列
)を求める学習方式が採用されている。 但し、kは記憶パターンの数であり、×に、 y tk
は、それぞれ、入力ベクトル、出力ベクトルであり、W
は結合係数行列である。また、xkは縦ベクトル、X□
は、xkを転置して得られる横ベクトルである。この場
合に個のパターン行列X、。 ×2.パ、X、が相互に略直交している場合には、×。 を入力ベクトルとした場合の出力値W −x pはW−
x 、= V p I Xs ! ”
−−−(4)で表される。しかし、これは各×、が直
交している場合に限られ、直交ベクトルでない場合には
、望ましい出力が得られず、例えば、入力ベクトルを1
.−1のランダム・ベクトルを用いる等の工夫が成され
るが、基本的な問題は解決せず、余り精度の良くない学
習方式である。 一方、近年、ボルツマン・マシンとして、素子の出力を
確率的に求める方式が提案されている。 これは′5(1)式に相当する に従って、Qiを素子iの状態量が1となる確率分布と
見做し、この確率分布に従って、素子lの状態量X、を
具体的に0又は1に割り当てる。なお、(5)式のTは
温度と呼び、時間経過と共に、高温から低温に推移させ
る。又、ボルツマン・マシンの学習方式は、学習、反学
習の2段階を設定し、ΔWIJ=ε(Q” l J−Q
−t J) −(6)で結合係数の
補正量を求め、多数回の学習により結合係数を微小量Δ
Wl、だけ補正するものである。 ここで、0+、は学習時の平衡状態における素子l。 jの期待値の積であり、Q−、□は反学習時の平衡状態
における素子l、jの期待値の積である。又、εは十分
小さな値に設定する必要がある。
ワークモデルとし、現在、第2図の階層型ニューラルネ
ットワークと第1図の相互結合型のニューラルネットワ
ークが提案されている。これらのネットワークは、神経
網のニューロンに相当する素子1.、1.、 L、 )
1.、 Fl、、 H,、0,、O,、O,と、各素子
間を結ぶ神経網のシナプスに相当する結合経路り、、L
、、 −、L、から構成されている。そして、各素子
では、その素子に接続されている各結合経路はその結合
経路によって直接接続されている素子の出力値に各結合
経路毎に設定される所定の係数、即ち、結合係数を掛け
た値がそれぞれの素子の入力値きなる。又、それらの入
力値の和の所定の関数値がその素子の出力値となる。こ
の出力値は、素子の状態を表した量、即ち、状態量とし
て定義することができる。したがって、以下、素子の出
力値と素子の状態量とは同一の意味で使用する。 このように、ニューラルネットワークの特性は、全入力
値からその出力値、即ち、素子の状態量を決定する入出
力関数と、結合係数とによって決定され、パターン認識
等における特徴的情報の記憶は、結合経路の結合係数の
値によって行われる。 i番目の素子の出力値、即ち、状態量x1は、第3図に
示すように、素子の非線型特性(入出力関数)をfとす
ると、 結合係数(W I J )を決めることを学習と呼ぶが
、第2図の階層型ネットワークでは、最終出力の誤差の
二乗和を最小に警る方式として、近年逆伝搬法が考案さ
れ、画像認識、音声認識等のパターン認識等に広く利用
されている。しかし、階層型ニューラルネットワークで
は、ネットワーク構成の自由度が低く、また、素子の相
互間の情報を利用しておらず、単に、入出力変換装置と
しての機能しか持っていない。 一方、第1図の相互結合型のニューラルネットワークは
、素子間の結合を自由にとることができネットワーク構
成の自由度が高い。ホップフィールドは、この系のエネ
ルギーを E= EE Ws)・XI” XJ 曲(2)2
日 によって定義した。 ここで、X L、 X Jはそれぞれの素子の出力値(
状態量)であり、WIJは、各素子間の結合係数である
。又、各結合路は、双方向性が成立し、W、、==W、
、が成立するとしている。 又、各素子の状態量は、(1)式によって表される。 そして、素子の状態量Xを変化させることにより、(2
)式のエネルギーEは単調に減少し、最終的には、平衡
点として、エネルギーの最小(極小)値に落ち着くこと
が示されている。 相互結合型のニューラルネットワークの学習方式として
は、従来、相関学習と呼ばれるW = E X k”
’W t、I”””” (3)で、結合係数W(行列
)を求める学習方式が採用されている。 但し、kは記憶パターンの数であり、×に、 y tk
は、それぞれ、入力ベクトル、出力ベクトルであり、W
は結合係数行列である。また、xkは縦ベクトル、X□
は、xkを転置して得られる横ベクトルである。この場
合に個のパターン行列X、。 ×2.パ、X、が相互に略直交している場合には、×。 を入力ベクトルとした場合の出力値W −x pはW−
x 、= V p I Xs ! ”
−−−(4)で表される。しかし、これは各×、が直
交している場合に限られ、直交ベクトルでない場合には
、望ましい出力が得られず、例えば、入力ベクトルを1
.−1のランダム・ベクトルを用いる等の工夫が成され
るが、基本的な問題は解決せず、余り精度の良くない学
習方式である。 一方、近年、ボルツマン・マシンとして、素子の出力を
確率的に求める方式が提案されている。 これは′5(1)式に相当する に従って、Qiを素子iの状態量が1となる確率分布と
見做し、この確率分布に従って、素子lの状態量X、を
具体的に0又は1に割り当てる。なお、(5)式のTは
温度と呼び、時間経過と共に、高温から低温に推移させ
る。又、ボルツマン・マシンの学習方式は、学習、反学
習の2段階を設定し、ΔWIJ=ε(Q” l J−Q
−t J) −(6)で結合係数の
補正量を求め、多数回の学習により結合係数を微小量Δ
Wl、だけ補正するものである。 ここで、0+、は学習時の平衡状態における素子l。 jの期待値の積であり、Q−、□は反学習時の平衡状態
における素子l、jの期待値の積である。又、εは十分
小さな値に設定する必要がある。
このように、ボルツマン・マシンの学習方式では、素子
の状態量は、0又はlに2値化されており、アナログ量
のデータ処理には対応できない。 又、素子の0か1かの状態量を確率分布で求めているた
め、(6)式の期待値の計算に時間がかかるという問題
もある。 そこで、本発明者らは、相互結合型ニューラルネットワ
ークの平衡点をホップフィールドのエネルギーの極小点
として求め、学習方式として学習−反学習の考えを用い
、その期待値に平衡点での値を用いることを着想した。
の状態量は、0又はlに2値化されており、アナログ量
のデータ処理には対応できない。 又、素子の0か1かの状態量を確率分布で求めているた
め、(6)式の期待値の計算に時間がかかるという問題
もある。 そこで、本発明者らは、相互結合型ニューラルネットワ
ークの平衡点をホップフィールドのエネルギーの極小点
として求め、学習方式として学習−反学習の考えを用い
、その期待値に平衡点での値を用いることを着想した。
【問題点を解決するための手段】 ・上記課題を解
決するための発明の構成は、相互結合型ニューラルネッ
トワークにおける結合係数の学習方法において、 前記結合係数を所定の値に初期設定する初期設定過程と
、 入力素子及び出力素子の状態量を、学習対象に応じて前
記;ユーラルネットワークにおける所定の入力値及びそ
の入力値に対する所定の出力値に固定して、全素子の状
態量が平衡状態に達した時の全素子の状態量を所定の入
出力関数によって求める学習過程と、 前記入出力素子の一部の素子の状態量のみ学習対象に応
じて前記ニューラルネットワークにおける所定の入力値
又は出力値に固定して、全素子の状態量が平衡状態に達
した時の全素子の状態量を所定の入出力関数によって求
める反学習過程と、前記各結合係数の修正に当たり、そ
の1つの結合係数により結合されている2つの素子にお
いて、前記学習過程で得られたその2つの素子の状態量
の積と、前記反学習過程で得られた2つの素子の状態量
の積との差に応じた量だけ、その結合係数を補正すると
いう処理を全結合係数について行う結合係数修正過程と
、 1つの学習対象に対して、前記学習過程と前記反学習過
程と前記結合係数修正過程とを実行して、結合係数を学
習させ、他の学習対象に対し、更に、上記処理を繰り返
して、全ての学習対象に対して、前記ニューラルネット
ワークを学習させる過程とで構成される。 次に、上記学習方法の基本原理について説明する。 前述の(2)式で表現されるエネルギーを用いて学習、
反学習時のエネルギー差を G (1!l)= S P (r)・(E ”(r)
−E−(r)) −(7)とする。ここでP (
r)はrのパターンの与えられる確率、E ” (r)
、 E −(r)は学習、反学習時に得られる(2)式
のエネルギーである。 反学習時には学習時よりも素子の自由度が高いことから E”(r)≧E−b) −・
(8)の関係がある。すなわち G (W)≧O−(9) の関係があり、(2)式を(7)式に代入して、その(
7)式を微分すると、 −x I−(r)・x j−(r) )
0口である。そして、 とおいて、各学習パターンに対して、 X、”Xj”= X、−XJ−−・σりの時に、(7)
式は極小値を持つ。 従って、 ΔW、、=ε(Xt”Xj” XI−XJ−)
−αJだけ、結合係数を学習の度に補正すること
で、最小エネルギーの系、即ち、学習の完了した二二一
ラルネットワークが得られる。 このように、本発明では、ボルツマンマシンのように確
率論的にではなく、決定論的な学習方式として、学習、
反学習の概念が適用できることになる。 次に、詳細な構成について説明する。 ■相互結合型ニューラルネットワーク 第1図に示した相互結合型ニューラルネットワークはニ
ューロンに相当する素子と、素子間を結ぶシナプス相当
の結合経路から構成される。各素子は第3図に示される
ように、その素子に結合している他の素子の出力に結合
係数倍された線型和を入力とし、シグモイド関数、ステ
ップ関数等の有界の関数を介して出力とする。結合経路
の重み係数(結合係数)は双方向でありWIJ=Wjt
の関係があるとする。 素子の種別としては、入力素子、隠れ素子、出力素子の
3種とするが、入力素子、出力素子は必ずしも特定の素
子に限定されるのではなく、学習時の教示パターンに応
じて、任意に設定される。 ■学習方式 上記相互結合型ニューラルネットワークの結合係数を決
めるための学習方式を流れ図として第4図に示す。この
流れ図は次の内容から構成される。 tloxl、ニューラルネットワークの結合係数の初期
化 Box2.学習のための学習パターンを選定する。 Box3. Box2の学習パターンとニューラルネッ
トワークの入力素子■、出力素子0の対応を付け、隠れ
素子Hの状態量X+、l(出力値)を求める。隠れ素子
を設定しない場合は、入力素子■と出力素子0の対応付
は及びそれぞれの状態量X“1. X −0の設定のみ
となる。この段階を学習と呼ぶ。 BOX4.BOX30入力素子、出力素子の一部の状態
量を設定せず、自由な状態として、この自由な状態の入
出力素子、及び隠れ素子の状態量を求める。 この段階での各素子の状態量をx −!、 x−0,X
−0とする。この段階をBox3に対比させて反学習と
呼ぶ。 BOX5、Box3、BOX4で得られた各素子の状態
量から0式で定義されるように、素子間の相関X−・X
J+とXt−・XJ−の差に比例した値を学習補正量Δ
W1.とする。 Box6. Box5の学習補正量を用いて、確率的降
下法に従ってニューラルネットワークの結合係数を若干
量修正する。 Box6.収束判定を行い、未収束ならば、Box2へ
行き次のパターンにより学習を繰り返す。
決するための発明の構成は、相互結合型ニューラルネッ
トワークにおける結合係数の学習方法において、 前記結合係数を所定の値に初期設定する初期設定過程と
、 入力素子及び出力素子の状態量を、学習対象に応じて前
記;ユーラルネットワークにおける所定の入力値及びそ
の入力値に対する所定の出力値に固定して、全素子の状
態量が平衡状態に達した時の全素子の状態量を所定の入
出力関数によって求める学習過程と、 前記入出力素子の一部の素子の状態量のみ学習対象に応
じて前記ニューラルネットワークにおける所定の入力値
又は出力値に固定して、全素子の状態量が平衡状態に達
した時の全素子の状態量を所定の入出力関数によって求
める反学習過程と、前記各結合係数の修正に当たり、そ
の1つの結合係数により結合されている2つの素子にお
いて、前記学習過程で得られたその2つの素子の状態量
の積と、前記反学習過程で得られた2つの素子の状態量
の積との差に応じた量だけ、その結合係数を補正すると
いう処理を全結合係数について行う結合係数修正過程と
、 1つの学習対象に対して、前記学習過程と前記反学習過
程と前記結合係数修正過程とを実行して、結合係数を学
習させ、他の学習対象に対し、更に、上記処理を繰り返
して、全ての学習対象に対して、前記ニューラルネット
ワークを学習させる過程とで構成される。 次に、上記学習方法の基本原理について説明する。 前述の(2)式で表現されるエネルギーを用いて学習、
反学習時のエネルギー差を G (1!l)= S P (r)・(E ”(r)
−E−(r)) −(7)とする。ここでP (
r)はrのパターンの与えられる確率、E ” (r)
、 E −(r)は学習、反学習時に得られる(2)式
のエネルギーである。 反学習時には学習時よりも素子の自由度が高いことから E”(r)≧E−b) −・
(8)の関係がある。すなわち G (W)≧O−(9) の関係があり、(2)式を(7)式に代入して、その(
7)式を微分すると、 −x I−(r)・x j−(r) )
0口である。そして、 とおいて、各学習パターンに対して、 X、”Xj”= X、−XJ−−・σりの時に、(7)
式は極小値を持つ。 従って、 ΔW、、=ε(Xt”Xj” XI−XJ−)
−αJだけ、結合係数を学習の度に補正すること
で、最小エネルギーの系、即ち、学習の完了した二二一
ラルネットワークが得られる。 このように、本発明では、ボルツマンマシンのように確
率論的にではなく、決定論的な学習方式として、学習、
反学習の概念が適用できることになる。 次に、詳細な構成について説明する。 ■相互結合型ニューラルネットワーク 第1図に示した相互結合型ニューラルネットワークはニ
ューロンに相当する素子と、素子間を結ぶシナプス相当
の結合経路から構成される。各素子は第3図に示される
ように、その素子に結合している他の素子の出力に結合
係数倍された線型和を入力とし、シグモイド関数、ステ
ップ関数等の有界の関数を介して出力とする。結合経路
の重み係数(結合係数)は双方向でありWIJ=Wjt
の関係があるとする。 素子の種別としては、入力素子、隠れ素子、出力素子の
3種とするが、入力素子、出力素子は必ずしも特定の素
子に限定されるのではなく、学習時の教示パターンに応
じて、任意に設定される。 ■学習方式 上記相互結合型ニューラルネットワークの結合係数を決
めるための学習方式を流れ図として第4図に示す。この
流れ図は次の内容から構成される。 tloxl、ニューラルネットワークの結合係数の初期
化 Box2.学習のための学習パターンを選定する。 Box3. Box2の学習パターンとニューラルネッ
トワークの入力素子■、出力素子0の対応を付け、隠れ
素子Hの状態量X+、l(出力値)を求める。隠れ素子
を設定しない場合は、入力素子■と出力素子0の対応付
は及びそれぞれの状態量X“1. X −0の設定のみ
となる。この段階を学習と呼ぶ。 BOX4.BOX30入力素子、出力素子の一部の状態
量を設定せず、自由な状態として、この自由な状態の入
出力素子、及び隠れ素子の状態量を求める。 この段階での各素子の状態量をx −!、 x−0,X
−0とする。この段階をBox3に対比させて反学習と
呼ぶ。 BOX5、Box3、BOX4で得られた各素子の状態
量から0式で定義されるように、素子間の相関X−・X
J+とXt−・XJ−の差に比例した値を学習補正量Δ
W1.とする。 Box6. Box5の学習補正量を用いて、確率的降
下法に従ってニューラルネットワークの結合係数を若干
量修正する。 Box6.収束判定を行い、未収束ならば、Box2へ
行き次のパターンにより学習を繰り返す。
■ネットワークの素子の状態量の生成作用Box3の隠
れ素子の状態量の生成、また、Box4の初期状態で乱
数で自由に設定された入出力素子、及び隠れ素子の状態
量の生成には、(1)式が用いられる。これは(2)式
のエネルギーの極小点として得られる。この条件として
は入出力関数fが有界である。2素子間の結合係数間に
W、=W、tの関係があるのみで良く、状態量として、
アナログ値を扱う場合にはシグモイド関数が、また(0
.1)の2値の場合にはステップ関数が使える等、入出
力関数の選定に、問題に応じた自由度がある。 ■学習−反学習による学習方式 Box3の学習過程での状態量X”、BOX4での反学
習過程での状態量X−から学習補正量としてα罎式を使
うことにより(4)式の相関学習に比して精度の向上が
計られる。例えばab式にみられるように平衡状態でB
ox3を教示データとみれば教示データ間の相関と、B
ox4での想起時の相関が等しく直交学習に近い精度が
得られる。 また、ボルツマン・マシンでは(5)式の確率分布から
得られる素子の期待値を用い(6)式により結合係数を
補正しているのに対し、本発明では(1)、(2)式に
より、平衡点の値として、素子の状態量を求め、αつ式
で結合係数を補正しているので、計算時間の短縮が計ら
れる。 ■確率的降下法 0式を直接つかうことにより、階層型のニューラルネッ
トワークの逆伝搬法等で用いられている確率的降下法 ΔW、1”’=a−ΔWIJ’+1: (X l”X
、+−xl−”X j−)−・・0荀 W 、 、k” ’ == W I J’+ΔWIJk
+1 ・−(X!9を用いることができる。 ここでα、εは、0から1までの数で問題に応じて適当
に選ばれる。 αΔWIJkは慣性項と呼ばれ、解の収束を早めるため
に使われる。特に、シグモイド関数を用いてアナログ量
を扱う場合にこの効果は大きい。 ■相互結合型ニューラルネットワーク 第1図の相互結合型ニューラルネットワークで、第4図
の流れ図に従って学習を行う場合、特定の二つのi、j
素子を学習、反学習時に固定として、X l+=X l
−+ X j”= X j−とすると、αり式からΔ
WIj=0であり、l+J素子間の結合は学習されない
。 口0×4の自由にする素子には自由度があり、通常入力
素子I又は出力素子0等を自由にして使用される。入力
素子Iを自由にすると入力データ間の相関が得られ、ア
ナログデータの相関解析に用いられる。又、出力素子0
を自由にすると、出力データ間の排反関係が得られ、認
識問題の場合に認識精度をあげることができる。又、両
方必要な場合には、入力素子Iを自由にした場合と出力
素子0を自由にした場合を交互に反学習のデータとして
用いることができる。
れ素子の状態量の生成、また、Box4の初期状態で乱
数で自由に設定された入出力素子、及び隠れ素子の状態
量の生成には、(1)式が用いられる。これは(2)式
のエネルギーの極小点として得られる。この条件として
は入出力関数fが有界である。2素子間の結合係数間に
W、=W、tの関係があるのみで良く、状態量として、
アナログ値を扱う場合にはシグモイド関数が、また(0
.1)の2値の場合にはステップ関数が使える等、入出
力関数の選定に、問題に応じた自由度がある。 ■学習−反学習による学習方式 Box3の学習過程での状態量X”、BOX4での反学
習過程での状態量X−から学習補正量としてα罎式を使
うことにより(4)式の相関学習に比して精度の向上が
計られる。例えばab式にみられるように平衡状態でB
ox3を教示データとみれば教示データ間の相関と、B
ox4での想起時の相関が等しく直交学習に近い精度が
得られる。 また、ボルツマン・マシンでは(5)式の確率分布から
得られる素子の期待値を用い(6)式により結合係数を
補正しているのに対し、本発明では(1)、(2)式に
より、平衡点の値として、素子の状態量を求め、αつ式
で結合係数を補正しているので、計算時間の短縮が計ら
れる。 ■確率的降下法 0式を直接つかうことにより、階層型のニューラルネッ
トワークの逆伝搬法等で用いられている確率的降下法 ΔW、1”’=a−ΔWIJ’+1: (X l”X
、+−xl−”X j−)−・・0荀 W 、 、k” ’ == W I J’+ΔWIJk
+1 ・−(X!9を用いることができる。 ここでα、εは、0から1までの数で問題に応じて適当
に選ばれる。 αΔWIJkは慣性項と呼ばれ、解の収束を早めるため
に使われる。特に、シグモイド関数を用いてアナログ量
を扱う場合にこの効果は大きい。 ■相互結合型ニューラルネットワーク 第1図の相互結合型ニューラルネットワークで、第4図
の流れ図に従って学習を行う場合、特定の二つのi、j
素子を学習、反学習時に固定として、X l+=X l
−+ X j”= X j−とすると、αり式からΔ
WIj=0であり、l+J素子間の結合は学習されない
。 口0×4の自由にする素子には自由度があり、通常入力
素子I又は出力素子0等を自由にして使用される。入力
素子Iを自由にすると入力データ間の相関が得られ、ア
ナログデータの相関解析に用いられる。又、出力素子0
を自由にすると、出力データ間の排反関係が得られ、認
識問題の場合に認識精度をあげることができる。又、両
方必要な場合には、入力素子Iを自由にした場合と出力
素子0を自由にした場合を交互に反学習のデータとして
用いることができる。
上記の学習方法はハードウェアで構戊される二二−ラル
ネットワークの結合係数を学習させる方法として用いる
ことができるが、そのニューラルネットワーク及び結合
係数の決定をコンピュータによってショレーションした
結果を以下実施例として説明する。 実施例1:論理演算回路の設計 素子の入出力関数として第7図(b)に示すステップ関
数 r (u)=1 、 u> 0 =0. u≦O・°αe を用いてAND、OR,排他ORの論理回路の設計を行
った。 初期の相互結合型ニューラル・ネットを第5図に示す。 第4図の学習方式に従って教示パターンを第6図の4組
を採り、ランダムに選択して逐次教示パターンとした。 学習段階では、入出力素子を固定とし、隠れ素子を自由
とした。反学習段階では入力素子のみを固定とし、出力
素子、隠れ素子を自由とした。結合係数は学習の初期に
は零とし、学習、反学習時の学習補正量03式を求め、
α乃αつ式から結合係数を修正する。なお、α◇式で、
α=0.ε=1とした。これを1回の学習とし、更に、
第6図のパターンから一つを選択して、学習を繰り返し
た。約2000程度で収束した。結果として、第7図(
a)を得た。第7図(a)は隠れ素子も不要であり、入
出力素子のみで構戊される最小構成の論理回路であると
いえる。 実施例2:正弦波の係数推定 素子の入出力関数として、シグモイド関数f (u)
= 1 / (1+ exp(−u) ) −
−α1を用いて振動波形としての正弦波の振幅の推定を
行った。初期の相互結合型ニューラルネットワークを第
8図に示す。教示正弦波としては、P(θ)=a−si
nθとし、Δθ=4/10間隔で11点の関数値を入力
素子の入力値とし、振幅aを出力素子の出力値とした。 教示パターンは、振幅aをランダムに発生し、それに対
応する正弦波形の各点の値を求めた。学習方式は実施例
1と同じく学習段階では入出力素子を固定とし、隠れ素
子のみを自由とし、反学習段階では、入力素子のみを固
定とし、出力素子、隠れ素子を自由とした。aa式の係
数として、α=0.8. ε:0.2を用いた。50
00回程度0学習で略収束した。その時に構成されたネ
ットワークを第9図に示す。第10図は正弦波を入力し
たときの振幅aの推定誤差を示し、路線型の関係を得て
いる。第11図は、結合係数が相関といろ形で得られ W+w、ot+t=/ f(a)’f(a’staθ、
)da!=Isinθ、−f f(a)−a−da
−α桓で略正弦波形に近い形で得られる。 この実施例の場合には本学習方式は、(3)式の単純な
相関学習ではないが、結合係数が相関という非常に分か
り易い形で得られるのが一つの特徴である。これはデー
タ分析機能を持ったエキスパート・システム構築を可能
とするものである。 実施例3:数字のパターン認識 素子の入出力関数として、60式のステップ関数を用い
て第12図に示す数字のパターン認識を行った。各数字
は3X5の要素パターンで表現し、これを入力素子に対
応する入力値とした。出力素子は、各数字に対応する1
0種を準備した。この入出力素子及び隠れ素子で構成し
た相互結合型ニューラルネットワークを第13図に示す
。 入出力関数としては、ステップ関数を用いた。 学習方式は実施例1.2と同じく学習時には入出力素子
を固定とし隠れ素子を自由とし、反学習時には入力素子
を固定とし出力素子、隠れ素子を自由とした。c4)式
の係数としてはα=0.ε=1を用いた。この学習方式
で得られた学習結果としての各数字に対応した出力素子
と、その出力素子と入力素子との結合係数を第14図に
示す。各数字パターンの要素の特徴を示す部位の結合係
数が大きくなっており、本学習方式で数字を分離Ui識
する際の特徴が抽出されたことになる。 第15図に、テストパターンの認識結果を示す。 複数記述しであるのは、両方の可能性ありと認識したも
のである。完全な間違いは6個であり、人間にも難しい
程度の認識をある程度実施したことになる。実際の応用
に際しては、更に、学習データの工夫、学習カリキユラ
ムの工夫次第で、更に精度の向上は可能と思われる。 上記実施例で、本発明の学習方法が具体的に示されたが
、上記実施例に限らず、もっと種々の分野に適用可能で
ある。又、上記各実施例に関し次の変形例がある。 変形例1:論理演算回路の設計 実施例1では、入出力関数として用いたステップ関数の
代わりに、シグモイド関数を用いて得られた結合係数と
、それから構成されるネットワークを第16図(a)に
、また各結合係数を第16図(b)に示す。実施例1と
は異なり、アナログ演算を行っている為に、隠れ素子と
して、状態量1の素子を必要としている。又、逆に、演
算に必要な隠れ素子が自動的に生成されることが、本学
習方式の主要な特徴である。 変形例2: 実施例2では、正弦波の振幅の推定を行ったが振幅に限
らず学習時に出力素子の状態量として何を教示するかに
よって信号波形に含まれる各種のパラメータを推定する
ことができる。第17図及び第18図に入力波形として
、F(θ)=sin(θ+τ)。 P(θ)=sin(ωθ)とした場合の位相(τ)及び
周波数(ω)の推定曲線を示す。ともにほぼ線型の関係
を得ている。 変形例3: 実施例3で入出力関数として用いたステップ関数の代わ
りにシグモイド関数を用いて、テストパターンを認識し
た結果を第19図に示す。第19図には入力された各数
字パターンと対応する出力素子の数字及びその出力値を
示している。 実施例1に比してアナログ量のため、認識精度が向上し
、全熱認識できなかったのは2例のみである。
ネットワークの結合係数を学習させる方法として用いる
ことができるが、そのニューラルネットワーク及び結合
係数の決定をコンピュータによってショレーションした
結果を以下実施例として説明する。 実施例1:論理演算回路の設計 素子の入出力関数として第7図(b)に示すステップ関
数 r (u)=1 、 u> 0 =0. u≦O・°αe を用いてAND、OR,排他ORの論理回路の設計を行
った。 初期の相互結合型ニューラル・ネットを第5図に示す。 第4図の学習方式に従って教示パターンを第6図の4組
を採り、ランダムに選択して逐次教示パターンとした。 学習段階では、入出力素子を固定とし、隠れ素子を自由
とした。反学習段階では入力素子のみを固定とし、出力
素子、隠れ素子を自由とした。結合係数は学習の初期に
は零とし、学習、反学習時の学習補正量03式を求め、
α乃αつ式から結合係数を修正する。なお、α◇式で、
α=0.ε=1とした。これを1回の学習とし、更に、
第6図のパターンから一つを選択して、学習を繰り返し
た。約2000程度で収束した。結果として、第7図(
a)を得た。第7図(a)は隠れ素子も不要であり、入
出力素子のみで構戊される最小構成の論理回路であると
いえる。 実施例2:正弦波の係数推定 素子の入出力関数として、シグモイド関数f (u)
= 1 / (1+ exp(−u) ) −
−α1を用いて振動波形としての正弦波の振幅の推定を
行った。初期の相互結合型ニューラルネットワークを第
8図に示す。教示正弦波としては、P(θ)=a−si
nθとし、Δθ=4/10間隔で11点の関数値を入力
素子の入力値とし、振幅aを出力素子の出力値とした。 教示パターンは、振幅aをランダムに発生し、それに対
応する正弦波形の各点の値を求めた。学習方式は実施例
1と同じく学習段階では入出力素子を固定とし、隠れ素
子のみを自由とし、反学習段階では、入力素子のみを固
定とし、出力素子、隠れ素子を自由とした。aa式の係
数として、α=0.8. ε:0.2を用いた。50
00回程度0学習で略収束した。その時に構成されたネ
ットワークを第9図に示す。第10図は正弦波を入力し
たときの振幅aの推定誤差を示し、路線型の関係を得て
いる。第11図は、結合係数が相関といろ形で得られ W+w、ot+t=/ f(a)’f(a’staθ、
)da!=Isinθ、−f f(a)−a−da
−α桓で略正弦波形に近い形で得られる。 この実施例の場合には本学習方式は、(3)式の単純な
相関学習ではないが、結合係数が相関という非常に分か
り易い形で得られるのが一つの特徴である。これはデー
タ分析機能を持ったエキスパート・システム構築を可能
とするものである。 実施例3:数字のパターン認識 素子の入出力関数として、60式のステップ関数を用い
て第12図に示す数字のパターン認識を行った。各数字
は3X5の要素パターンで表現し、これを入力素子に対
応する入力値とした。出力素子は、各数字に対応する1
0種を準備した。この入出力素子及び隠れ素子で構成し
た相互結合型ニューラルネットワークを第13図に示す
。 入出力関数としては、ステップ関数を用いた。 学習方式は実施例1.2と同じく学習時には入出力素子
を固定とし隠れ素子を自由とし、反学習時には入力素子
を固定とし出力素子、隠れ素子を自由とした。c4)式
の係数としてはα=0.ε=1を用いた。この学習方式
で得られた学習結果としての各数字に対応した出力素子
と、その出力素子と入力素子との結合係数を第14図に
示す。各数字パターンの要素の特徴を示す部位の結合係
数が大きくなっており、本学習方式で数字を分離Ui識
する際の特徴が抽出されたことになる。 第15図に、テストパターンの認識結果を示す。 複数記述しであるのは、両方の可能性ありと認識したも
のである。完全な間違いは6個であり、人間にも難しい
程度の認識をある程度実施したことになる。実際の応用
に際しては、更に、学習データの工夫、学習カリキユラ
ムの工夫次第で、更に精度の向上は可能と思われる。 上記実施例で、本発明の学習方法が具体的に示されたが
、上記実施例に限らず、もっと種々の分野に適用可能で
ある。又、上記各実施例に関し次の変形例がある。 変形例1:論理演算回路の設計 実施例1では、入出力関数として用いたステップ関数の
代わりに、シグモイド関数を用いて得られた結合係数と
、それから構成されるネットワークを第16図(a)に
、また各結合係数を第16図(b)に示す。実施例1と
は異なり、アナログ演算を行っている為に、隠れ素子と
して、状態量1の素子を必要としている。又、逆に、演
算に必要な隠れ素子が自動的に生成されることが、本学
習方式の主要な特徴である。 変形例2: 実施例2では、正弦波の振幅の推定を行ったが振幅に限
らず学習時に出力素子の状態量として何を教示するかに
よって信号波形に含まれる各種のパラメータを推定する
ことができる。第17図及び第18図に入力波形として
、F(θ)=sin(θ+τ)。 P(θ)=sin(ωθ)とした場合の位相(τ)及び
周波数(ω)の推定曲線を示す。ともにほぼ線型の関係
を得ている。 変形例3: 実施例3で入出力関数として用いたステップ関数の代わ
りにシグモイド関数を用いて、テストパターンを認識し
た結果を第19図に示す。第19図には入力された各数
字パターンと対応する出力素子の数字及びその出力値を
示している。 実施例1に比してアナログ量のため、認識精度が向上し
、全熱認識できなかったのは2例のみである。
本発明は、相互結合型二二−ラルネットワークにおける
結合係数の学習方法に右いて、入力素子及び出力素子の
状態量を、学習対象に応じた入力値及び出力値に固定し
て、全素子の状態量が平衡状態に達した時の全素子の状
態量を所定の入出力関数によって求める学習過程と、入
出力素子の一部の素子の状態量のみ学習対象に応じた入
力値又は出力値に固定して、全素子の状態量が平衡状態
に達した時の全素子の状態量を所定の入出力関数によっ
て求める反学習過程と、任意の結合係数において、その
結合係数で結合されている2つの素子の学習過程で得ら
れた状態量の積と、反学習過程で得られた状態量の積と
の差に応じた量だけ、その結合係数を補正するという処
理を全結合係数について行う結合係数修正過程を、他の
学習対象についても繰り返し実行して結合係数を学習さ
せるようにしたものである。従って、学習、反学習時の
平衡状態の状態量を直接、学習の補正量に用いているた
め、学習速度が速いという効果を有する。また、平衡状
態の状態量を用いているため、誤差二乗和を減少させる
という学習法に比較して、学習回数が少なくて済むとい
う効果をも持つ。 また、入出力関数として、2値問題のためのステップ関
数のみでなく、連続量としてのシグモイド関数を問題に
応じて選択することができるために、2値を用いたパタ
ーン&2[よりも、アナログ処理により、認識精度を向
上させることができる等の効果を持つとともに、さらに
は各素子を連続量で扱うことが可能であるので、連続量
を入力、出力とするデータ処理の分野にも本ニューラル
ネットワークは応用できる。
結合係数の学習方法に右いて、入力素子及び出力素子の
状態量を、学習対象に応じた入力値及び出力値に固定し
て、全素子の状態量が平衡状態に達した時の全素子の状
態量を所定の入出力関数によって求める学習過程と、入
出力素子の一部の素子の状態量のみ学習対象に応じた入
力値又は出力値に固定して、全素子の状態量が平衡状態
に達した時の全素子の状態量を所定の入出力関数によっ
て求める反学習過程と、任意の結合係数において、その
結合係数で結合されている2つの素子の学習過程で得ら
れた状態量の積と、反学習過程で得られた状態量の積と
の差に応じた量だけ、その結合係数を補正するという処
理を全結合係数について行う結合係数修正過程を、他の
学習対象についても繰り返し実行して結合係数を学習さ
せるようにしたものである。従って、学習、反学習時の
平衡状態の状態量を直接、学習の補正量に用いているた
め、学習速度が速いという効果を有する。また、平衡状
態の状態量を用いているため、誤差二乗和を減少させる
という学習法に比較して、学習回数が少なくて済むとい
う効果をも持つ。 また、入出力関数として、2値問題のためのステップ関
数のみでなく、連続量としてのシグモイド関数を問題に
応じて選択することができるために、2値を用いたパタ
ーン&2[よりも、アナログ処理により、認識精度を向
上させることができる等の効果を持つとともに、さらに
は各素子を連続量で扱うことが可能であるので、連続量
を入力、出力とするデータ処理の分野にも本ニューラル
ネットワークは応用できる。
第1図は相互結合型ニューラルネッヮークの構造図、第
2図は階層型ニューラルネッヮークの構造図、第3図は
1つの素子の入出力関係を示した説明図、第4図は本発
明の学習方法を示したフローチャート、第5図は第1実
施例に係る論理演算回路の設計に関する相互結合型ニュ
ーラルネッヮークの初期構造を示した構造図、第6図は
第1実施例に係る論理演算回路の設計に関する教示デー
タを示した説明図、第7図は第1実施例において学習の
結果得られた最終の二二一うルネッヮークの構造と入出
力関数とを示した説明図、第8図は第2実施例に係る正
弦波の振幅推定のためのニューラルネットワークの初期
構造を示した構造図、第9図は第2実施例において学習
の結果得られた最終のニューラルネッヮークの構造を示
した構造図、第10図は第2実施例において学習回数と
振幅推定の誤差との関係を示した特性図、第11図は第
2実施例の学習の結果得られた最終の結合係数を示した
説明図、第12図は第3実施例におけるパターン認識の
教示用データを示した説明図、第13図は第3実施例の
パターン認識のためのニューラルネットワークの構造図
、第14図は第3実施例で学習された最終の結合係数を
示した説明図、第15図は第3実施例で学習されたニュ
ーラルネットワークによるパターン認識におけるパター
ンと認識結果を示した説明図、第16図は第1変形例に
おいて得られた最終の二二−ラルネットワークの構造と
その結合係数を示した説明図、第17図は第2変形例に
おける学習回数と位相推定の誤差との関係を示した特性
図、第18図は第2変形例における学習回数と周波数推
定の誤差との関係を示した特性図、第19図は第3変形
例において学習されたニューラルネットワークによるパ
ターン認識におけるパターンと認識結果を示した説明図
である。 !1〜I 、−人力素子 01〜0.°出力素子 ■、〜H5−隠れ素子
2図は階層型ニューラルネッヮークの構造図、第3図は
1つの素子の入出力関係を示した説明図、第4図は本発
明の学習方法を示したフローチャート、第5図は第1実
施例に係る論理演算回路の設計に関する相互結合型ニュ
ーラルネッヮークの初期構造を示した構造図、第6図は
第1実施例に係る論理演算回路の設計に関する教示デー
タを示した説明図、第7図は第1実施例において学習の
結果得られた最終の二二一うルネッヮークの構造と入出
力関数とを示した説明図、第8図は第2実施例に係る正
弦波の振幅推定のためのニューラルネットワークの初期
構造を示した構造図、第9図は第2実施例において学習
の結果得られた最終のニューラルネッヮークの構造を示
した構造図、第10図は第2実施例において学習回数と
振幅推定の誤差との関係を示した特性図、第11図は第
2実施例の学習の結果得られた最終の結合係数を示した
説明図、第12図は第3実施例におけるパターン認識の
教示用データを示した説明図、第13図は第3実施例の
パターン認識のためのニューラルネットワークの構造図
、第14図は第3実施例で学習された最終の結合係数を
示した説明図、第15図は第3実施例で学習されたニュ
ーラルネットワークによるパターン認識におけるパター
ンと認識結果を示した説明図、第16図は第1変形例に
おいて得られた最終の二二−ラルネットワークの構造と
その結合係数を示した説明図、第17図は第2変形例に
おける学習回数と位相推定の誤差との関係を示した特性
図、第18図は第2変形例における学習回数と周波数推
定の誤差との関係を示した特性図、第19図は第3変形
例において学習されたニューラルネットワークによるパ
ターン認識におけるパターンと認識結果を示した説明図
である。 !1〜I 、−人力素子 01〜0.°出力素子 ■、〜H5−隠れ素子
Claims (1)
- 【特許請求の範囲】 相互結合型ニューラルネットワークにおける結合係数
の学習方法において、 前記結合係数を所定の値に初期設定する初期設定過程と
、 入力素子及び出力素子の状態量を、学習対象に応じて前
記ニューラルネットワークにおける所定の入力値及びそ
の入力値に対する所定の出力値に固定して、全素子の状
態量が平衡状態に達した時の全素子の状態量を所定の入
出力関数によって求める学習過程と、 前記入出力素子の一部の素子の状態量のみ学習対象に応
じて前記ニューラルネットワークにおける所定の入力値
又は出力値に固定して、全素子の状態量が平衡状態に達
した時の全素子の状態量を所定の入出力関数によって求
める反学習過程と、前記各結合係数の修正に当たり、そ
の1つの結合係数により結合されている2つの素子にお
いて、前記学習過程で得られたその2つの素子の状態量
の積と、前記反学習過程で得られた2つの素子の状態量
の積との差に応じた量だけ、その結合係数を補正すると
いう処理を全結合係数について行う結合係数修正過程と
、 1つの学習対象に対して、前記学習過程と前記反学習過
程と前記結合係数修正過程とを実行して、結合係数を学
習させ、他の学習対象に対し、更に、上記処理を繰り返
して、全ての学習対象に対して、前記ニューラルネット
ワークを学習させる過程とから成る相互結合型ニューラ
ルネットワークの学習方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1130921A JPH02309447A (ja) | 1989-05-24 | 1989-05-24 | 相互結合型ニューラルネットワークの学習方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1130921A JPH02309447A (ja) | 1989-05-24 | 1989-05-24 | 相互結合型ニューラルネットワークの学習方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02309447A true JPH02309447A (ja) | 1990-12-25 |
Family
ID=15045852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1130921A Pending JPH02309447A (ja) | 1989-05-24 | 1989-05-24 | 相互結合型ニューラルネットワークの学習方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH02309447A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5495430A (en) * | 1991-12-13 | 1996-02-27 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Process time estimating apparatus |
US6226544B1 (en) | 1997-06-13 | 2001-05-01 | Nec Corporation | Living body internal active source estimation apparatus |
JP2004030627A (ja) * | 2002-05-10 | 2004-01-29 | Sony Corp | 情報処理装置および方法、プログラム格納媒体、並びにプログラム |
JP2007251354A (ja) * | 2006-03-14 | 2007-09-27 | Saitama Univ | マイクロホン、音声生成方法 |
-
1989
- 1989-05-24 JP JP1130921A patent/JPH02309447A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5495430A (en) * | 1991-12-13 | 1996-02-27 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Process time estimating apparatus |
US6226544B1 (en) | 1997-06-13 | 2001-05-01 | Nec Corporation | Living body internal active source estimation apparatus |
JP2004030627A (ja) * | 2002-05-10 | 2004-01-29 | Sony Corp | 情報処理装置および方法、プログラム格納媒体、並びにプログラム |
JP2007251354A (ja) * | 2006-03-14 | 2007-09-27 | Saitama Univ | マイクロホン、音声生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Patra et al. | Nonlinear dynamic system identification using Legendre neural network | |
Xia | An inverse model of MR damper using optimal neural network and system identification | |
US5781701A (en) | Neural network and method of using same | |
Guan et al. | Robust adaptive tracking control for manipulators based on a TSK fuzzy cerebellar model articulation controller | |
US5299285A (en) | Neural network with dynamically adaptable neurons | |
Juang et al. | Circuit implementation of data-driven TSK-type interval type-2 neural fuzzy system with online parameter tuning ability | |
Waheeb et al. | Nonlinear autoregressive moving-average (narma) time series forecasting using neural networks | |
Ayala et al. | Efficient hardware implementation of radial basis function neural network with customized-precision floating-point operations | |
de Angulo et al. | On-line learning with minimal degradation in feedforward networks | |
Yang et al. | A neural network learning algorithm of chemical process modeling based on the extended Kalman filter | |
Mohammadi et al. | Fault diagnosis of analog circuits with tolerances by using RBF and BP neural networks | |
JPH02309447A (ja) | 相互結合型ニューラルネットワークの学習方法 | |
EP0661645A2 (en) | Neural network | |
Kinzel | Theory of interacting neural networks | |
Tarassenko et al. | On-chip learning with analogue VLSI neural networks | |
CN116134415A (zh) | 用于更新交叉阵列的脉冲生成 | |
Khodabandehlou et al. | Training recurrent neural networks via dynamical trajectory-based optimization | |
Son et al. | Black-box modeling of nonlinear system using evolutionary neural NARX model | |
JPH05128082A (ja) | 階層ネツトワーク構成データ処理装置とその学習処理方法 | |
Achkar et al. | Prediction of football matches’ results using neural networks | |
JPH04291662A (ja) | 階層ネットワーク構成演算素子 | |
JPH0644207A (ja) | ニューラルネットワーク及びその構成方法 | |
Hache et al. | Control-Oriented Neural State-Space Models for State-Feedback Linearization and Pole Placement | |
Cao et al. | A local search based learning method for multiple-valued logic networks | |
Kim | Applying Conjugate Gradient Method Based Backpropagation Algorithm to Chemical Processing System |