JPH04340157A - 連想学習方式 - Google Patents

連想学習方式

Info

Publication number
JPH04340157A
JPH04340157A JP3067558A JP6755891A JPH04340157A JP H04340157 A JPH04340157 A JP H04340157A JP 3067558 A JP3067558 A JP 3067558A JP 6755891 A JP6755891 A JP 6755891A JP H04340157 A JPH04340157 A JP H04340157A
Authority
JP
Japan
Prior art keywords
associative
learning
associative memory
input
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3067558A
Other languages
English (en)
Inventor
Yukio Hayashi
幸雄 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP3067558A priority Critical patent/JPH04340157A/ja
Publication of JPH04340157A publication Critical patent/JPH04340157A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像・音声パターンや
キーワード等によるデータベース等の連想記憶検索を動
的に行う連想記憶モデルの記憶辞書と記憶項目間の関係
の、学習方式に関するものである。
【0002】
【従来の技術】従来の連想記憶検索では、メモリアドレ
スと記憶項目を対にして蓄える内容番付け記憶方式とし
て、キーワードからアドレスを算出するハッシュ・コー
ド法や、入力データの線形変換から出力データを想起す
る相互想起連想記憶方式等が知られている((1) T
.Kohonen:“Associative Mem
ory, A System−Theoretical
 Approach”,Springer−Verla
g,’77 )。これらのうち、記憶項目の衝突がない
線形相互想起連想記憶モデルでは、入出力層間の結合重
み値を入出力パターンの相関行列で設定する相関型連想
記憶モデルより、一般逆行列で設定した直交射影型連想
記憶モデルの方が高い連想能力を持つことが知られてい
る。一般逆行列の計算を効率的な局所演算で実現する方
法に関しては、松岡氏が図10に示すような相互抑制結
合の中間層を持つ3層モデルを提案している((2) 
K.Matsuoka:“A Model of Or
thogonal Auto−Assosiative
 Networks”,Biol Cybern 62
,pp.243−248,’90、(3) K.Mat
suoka:“An Associative Net
work with Cross Inhibitor
y Connections”,Biol Cyber
n 62,pp.393−399,’90、(4) 松
岡(九工大):“直交射影型連想記憶回路の種々の構造
について”,電子情報通信学会論文誌,Vol.J73
−DII,No.4,PP.641−647,Apri
l,90.参照)。これは、複雑な一般逆行列の計算を
簡単なネット構造の回路で実現するのみならず、記憶辞
書である結合重み値の学習もプロトタイプパターンの付
加によって簡単に実現できるのでLSI化にも適してい
る。
【0003】従来の連想記憶モデルでは、図11に示す
ように、画像等の分散的なパターン同士の連想を直接行
うように素子間の結合がなされている。すなわち図11
の例の場合、各項目例えば色信号の項目の入出力層およ
び中間層は、他の項目である形信号の項目および香り信
号の項目の各入力層および出力層に対する直接的な結合
を有している。関連する連想項目が多いと項目間の結合
重みである記憶辞書が膨大になってしまうという問題点
があった。また、このような連想記憶モデルは、記憶辞
書の静的なプロトタイプパターンからの記憶・想起を示
すもので、現実的な変形パターンの連想想起には十分と
は言えなかった。すなわち、図9の(a)に示すような
記憶パターン以外の変形入力に対しては同図(b)のよ
うにノイズ成分が残ってしまい、この入力に関連する連
想記憶項目を正しく想起するには、非常に沢山の変形パ
ターンを記憶しなければならなかった。
【0004】このような問題を解決するために、本発明
者は、図3に示すような中間層に相互抑制結合を持つ3
層フィードバック連想記憶モデルを、図4に示すように
中間層を通じて複数接続して、変動のある分散的な入力
パターンから変動成分を除去しながら、圧縮表現された
概念・記号的な中間層出力パターンに動的に変換して、
入力に関連する種々の記憶項目を連想想起する連想記憶
モデルを発明した(この連想記憶モデルは本願と同日付
けで、本出願人により出願された)。
【0005】
【発明が解決しようとする課題】本発明は、上述の図4
に示す連想記憶モデルにおいて、学習用パターン組提示
毎に、各連想記憶モデルの記憶辞書としきい値、および
他の連想記憶モデルとの記憶項目間の関係の学習を容易
かつ効率的に行うことのできる連想記憶学習方式を提供
することを目的とするものである。
【0006】
【問題を解決するための手段】本発明は、中間層に相互
抑制結合を持つフィードバック連想記憶モデルを素子数
の少ない中間層において複数接続し、変動のある分散的
な入力パターンから概念・記号的中間層出力パターンに
動的に変換しながら、入力に関連する種々の記憶項目を
連想想起する連想記憶モデル(図4)の連想学習方式で
あって、学習用パターン組の提示毎に、記憶辞書(W)
とフィードバック入力パターン(Wf(y,a))との
差分によって、各連想記憶モデルの記憶辞書(W)とし
きい値(a/2)を除々に学習しながら、他の連想記憶
モデルとの中間層間の結合重み(V)をも学習すること
を特徴とする。
【0007】
【作用】本発明の連想学習方式の適用によって学習され
る中間層に相互抑制結合を持つ3層フィードバック連想
記憶モデルでは、パターン分離能力の高い一般的行列の
近似計算が中間層の相互抑制結合によって行うとともに
、入力パターンが出力層に再現されてフィードバックす
る時、中間層の非線形関数でノイズ除去が行われる。 さらに、互いに異なる概念を表現する複数の連想記憶モ
デルを圧縮表現された中間層を通じて接続したことによ
り結合数を少なくできるという利点がある。本発明の連
想学習方式は、上記のように連想記憶モデルに対して、
自動的な学習が可能であることを見出した。すなわち、
この方式は、学習用パターン組の提示毎に、記憶辞書と
フィードバック入力パターンとの差分によって、各連想
記憶モデルの記憶辞書としきい値を除々に学習しさせる
とともに、他の連想記憶モデルとの中間層間の結合重み
をも学習するということによって、自動的な学習を容易
に行うことが可能となった。本発明の連想学習方式によ
れば、学習パターン提示毎に、各連想記憶モデルでは、
たとえば後述する(1)’〜(5)式に従って、各記憶
辞書Wとしきい値aj/2が若干修正される。この学習
では、記憶辞書とフィードバック入力パターンとの差分
の確率近似最小化によって、提示した入力パターンに辞
書を若干近づけながら、発火する素子についてはしきい
値を下げてより発火しやすくし、発火しない素子はしき
い値を上げてより発火しないように、各中間層素子のし
きい値が調整される。これと同時に、他の連想記憶モデ
ルとの結合重み値が、たとえば(6)式に示されるよう
な相関学習に従って修正される。すなわち、他の連想記
憶モデルとの互いに関連する連想項目がより想起されや
すいように学習が行われる。
【0008】
【実施例】
(本発明の学習方式を適用する連想記憶方式)まず、本
発明の学習方式を適用する対象である連想記憶方式につ
いて説明する。図4は本発明の学習方式の適用対象であ
る連想記憶モデルの一例を示す図である。この連想記憶
モデルは、中間層に相互抑制結合を持つ複数の3層フィ
ードバック連想記憶モデル11,12,13と、それぞ
れの中間層の素子どうしを結合する結合部14とからな
っている。この例では3個の3層フィードバック連想記
憶モデル11,12,13はそれぞれ色信号x(1)、
形信号x(2)、香り信号x(3)の3つの連想項目の
入出力に割り当てられている。なお、図4には結合部1
4は、各連想記憶モデルの中間層素子の出力がそれぞれ
節点に接続され、節点どうしを相互接続するように図示
されているが、結合関係を分り易くするために節点を示
したものであって、実際は直接に中間層素子どうしが接
続される。
【0009】図3は、図4において簡略的に示されてい
る各3層フィードバック連想記憶モデルの1個の構成を
より詳細に示す図である。ただし、図中には、着目した
中間層素子kへの結合のみが示されている。このモデル
において、中間層素子kは入力層からの結合の外に、他
の中間層素子からの出力がしきい関数を介して抑制信号
Rとして入力される抑制結合を有している。この抑制結
合は他の中間素子についても同様である。また、入力パ
ターンが出力層に再現される。
【0010】図5は図4に示すような連想記憶モデルの
システム構成の一例を示すものである。各3層フィード
バック連想記憶モデル11,12,13は、それぞれ入
力パターンx(m)またはフィードバック出力x’(t
)により更新された値を保持する入出力レジスタ111
,121,131と、微小時間後の入力層の状態の変化
分Δxすなわち後述する(2)式におけるdxi(t)
を求めるとともに、その変化分Δxを入出力レジスタ1
11,121,131の値に加算して更新する差分加算
状態更新器112,122,132と、後述する(1)
式におけるΣiWijxi(t)を演算する積和演算器
113,123,133と、(2)式におけるΣjWi
jfj(yj,aj)すなわちフィードバック信号を求
める積和演算器114,124,134と、微小時間後
の中間層の状態を求めるとともにその変化分Δyすなわ
ち後述する(1)式におけるdyj(t)を求め、その
変化分Δyを非線形処理部116,126,136のレ
ジスタに保持されている非線形処理結果yjに加算して
更新する差分加算状態更新器115,125,135と
、更新されたyjに(1)式における非線形処理fj(
yj,aj)を施しその結果をレジスタに保持する非線
形処理器116,126,136と、相互抑制結合成分
である(1)式におけるΣkRkjfk(yk,ak)
を演算する積和演算器117,127,137とからな
る。また、各3層フィードバック連想記憶モデルを相互
に結合し、統合するための演算ΣlI(l)を行う積和
演算器14を有している。図5に示す実施例の装置の各
演算器は、連続時間を離散化することにより汎用の計算
機上でのプログラムや、専用のアナログまたはディジタ
ル演算回路で実現することができる。各層の素子の状態
は、それぞれのレジスタに記憶され、結合重み値は積和
演算器のメモリに記憶される。
【0011】図6と図7は、それぞれ本実施例における
各連想記憶モデルの連想想起処理と連想記憶モデルの複
数接続時の連想想起処理手順を示すフローチャートであ
る。以下では、まず記憶辞書である結合重み値と入力の
許容変動範囲を規定する中間層素子のしきい値a/2が
既に設定されているとして、一つの連想記憶モデルの連
想想起処理の例を説明した後に、複数接続時の連想想起
処理の例について説明する。図6のフローチャートに従
って、図3に示す本発明における連想記憶モデルの連想
想起処理を説明する。まず、下記の(3)式に示す初期
設定をする(Step0)。概念(カテゴリ)mに属す
る入力パターンx(m)を入出力レジスタ111に設定
する。 そして、次の(1)式と(2)式に従って、微小時間Δ
t後の変化量Δx,Δyの計算をする(Step1)。
【0012】 τydyj(t)/dt=−fj(yj,aj)+Σk
Rkjfk(yk,ak)+ΣiWijxi(t)  
                         
                         
  (1)τxdxi(t)/dt=−xi(t)+Σ
jWijfj(yj,aj)            
                         
                         
  (2)x(0)=x(m) y(0)=0                          
                         
              (3)ここで、R=−W
WT+IM, 辞書行列:W=[x(1),x(2),……x(M)]
T,各概念の辞書パターン:x(i)={x(i)1,
……x(i)N} とし、IMはM次元単位行列で、Tは転置行列を表す。 非線形関数fj(yj,aj)は、 fj(0,aj)=0, fj(1,aj)=1, fj(aj/2,aj)=aj/2, fj(yj,aj)<yj(yj<aj/2),fj(
yj,aj)>yj(yj>aj/2).の条件を満足
するものとする。
【0013】(1)式に従って、中間層の相互抑制結合
Rによって一般逆行列が近似的に計算され、(2)式の
非線形関数とフィードバック信号でノイズ除去が行われ
る。(1)式における−fj(yj,aj)は図3の非
線形処理器161によって処理される。図8は中間層出
力yにしきい値処理を施すための非線形関数の一例を示
す図である。非線形処理器116はこの非線形関数に従
って出力を決定する。また、(1)式におけるΣkRk
jfk(yk,ak)の演算は積和演算器117によっ
て行われる。また、(1)式におけるΣiWijxi(
t)の演算は積和演算器113によって行われる。また
、フィードバック出力(再現入力)である(2)式にお
けるΣjWijfj(yj,aj)の演算は、積和演算
器114により行われる。
【0014】これらの演算結果を基に、微小時間Δt後
の状態更新を行う(Step2) x(t+Δt)=x(t)+Δx y(t+Δt)=y(t)+Δy すなわち、Δyは、差分加算状態更新器115を用いた
(1)式の右辺の前記のように既に計算した全部の項の
加算すなわち非線形処理器116、積和演算器113お
よび差分加算状態更新器117の各出力の和により求め
られる。そして、差分加算状態更新器115はその求め
たΔyと非線形処理器161に内蔵されるレジスタに保
持されているΔt時間前の非線形処理された中間層出力
の値yとの加算を行って、そのyの値を更新するまた、
(2)式全体の演算すなわちΔxの演算と、フィードバ
ックされる再現入力の演算は、差分加算状態更新器11
2により行われる。そして、差分加算状態更新器151
はその求めたΔxと入出力るレジスタ111に保持され
ているΔt時間前のxのとの加算を行って、その入出力
レジスタ111の値を更新する。この時、中間層出力f
j(yj,aj)の全ての要素が誤差εの範囲で0か1
に収束しているか否かを判定し、Yesであれば、処理
を終了する。そうでなければ、(1)式と(2)式の処
理を同様に繰り返す。(1)式と(2)式の処理の繰り
返しによって、出力層の再現入力パターンは除々に該当
する記憶辞書パターンに近づいて、その概念を表す中間
層素子が発火(値1に収束)する。なお、各概念は複数
の中間層素子で分散的に表現しても良い。すなわち2以
上の中間層素子の発火により一つの概念を表すようにし
てもよい。以上の動作の説明においては、一つの連想記
憶モデル11について説明したが、他の連想記憶モデル
12,13も同様の動作をする。
【0015】次に図7のフローチャートに従って、図1
に示す本発明の複数接続時の連想想起処理を説明する。 まず、いくつかの連想記憶モデル(部分的で良い)にそ
れぞれ異なる概念の初期入力パターンを与える(Ste
p0)。次に、各連想記憶モデルにおいて(1)式と(
2)式による微小時間Δt後の状態の更新を行う(St
ep1)。これは図6により前述した通りであり、ここ
では説明を省略する。
【0016】この時、下記の(1)’式に従って各中間
層出力は重み付けられて他の連想記憶モデルの中間層へ
の入力I(l)として相互に入力される(Step2)
。この(1)’式における入力I(l)の総和ΣlI(
l)jは、図5の積和演算器14によって計算される。 そして、(1)’式、(2)式による微小時間Δt後の
状態更新をする(Step3)。その後、連想記憶モデ
ルにおいてそれぞれの(1)’式と(2)式の処理が収
束されるまで繰り返される。
【0017】 τydyj(t)/dt=−fj(yj,aj)+Σk
Rkjfk(yk,ak)+ΣiWijxi(t)+Σ
lI(l)j                          
                         
    …(1)’但し、I(l)jは他の連想記憶モ
デルlの各中間層出力からの重みつき入力を表す。
【0018】図4および図5に示す構成では、互いに異
なる概念を表現する複数の連想記憶モデルを接続する例
を示したが、トリー状や階層的な接続で、系列的な連想
想起を行うような構成としても良い。
【0019】(連想学習方式)以上に説明した図5の構
成の連想記憶方式における記憶辞書およびしきい値を学
習する本発明による連想学習方式の実施例について説明
する。図1はその実施例の構成を示す図である。この学
習処理のシステムは、前述の図5に示す連想記憶方式の
構成に学習のために必要なその他の構成を付加した構成
を有する。すなわち、この学習処理システムは、図5の
構成にさらに差分加算状態更新器15,118,119
,128,129,138,139が図1に示すような
結合関係で付加されている。差分加算状態更新器118
,128,138は後述する(4)式の演算を行うこと
により結合重みの差分ΔWを得て、辞書である結合重み
値Wを更新するものである。差分加算状態更新器119
,129,139は後述する(5)式の演算を行うこと
により差分Δaを得て、先のしきい値a/2を更新する
ものである。差分加算状態更新器15は後述する(6)
式の演算を行うことにより各連想記憶モデル間の中間素
子の結合重みの差分ΔVを演算し、異なる連想記憶モデ
ルの中間素子間の結合重みを更新するものである。
【0020】図2は、以上に述べた学習システムによる
学習の処理手順を示すフローチャートである。このフロ
ーチャートに従って本発明の学習処理を説明する。まず
、図3に示す各連想記憶モデルの記憶辞書を学習パター
ンの平均値のようなプロトタイプパターンかまたはラン
ダムパターンで、図4に示す異なる連想記憶モデルの中
間層素子間の関係を記述する重み値をランダムに初期設
定する。この時、各連想記憶モデルの中間層素子のしき
い値(0<aj(l)/2<1)も初期設定する(St
ep0)。
【0021】次に図4において、いくつかの連想記憶モ
デル(部分的でも良い)にそれぞれ異なる概念の入力パ
ターンが学習用の入力パターンとして与えられたとする
(Step1)。
【0022】ここで、一定時間の学習処理が行われ、結
合重みW(l),中間層抑制結合重みR(l)としきい
値a(l)/2を修正する(Step2)。すなわち、
まず、各連想記憶モデルにおいて下記の(1)式と(2
)式による連想想起処理が行われる(なお、下記の(1
)式、(1)’式および(2)式には右肩に(l)の添
え字があるが、これはl番目の連想記憶モデルであるこ
とを表しており、実質的には前述の(1)式および(2
)式と同じものである)。この(1)式および(2)式
による連想想起処理は、図6により前に説明したのと同
じであり、ここではその説明を省略する。また、同時に
、(1)’式に従って各中間層出力は重み付けられて他
の連想記憶モデルの中間層に相互に入力され、(2)式
によってフィードバック入力が計算される。(1)’に
よる連想想起処理も図7により前に説明したのと同じで
あり、ここではこれらの式による説明も省略する。これ
と同時に、各連想記憶モデルで(4)式と(5)式によ
って記憶辞書ときい値、および中間層素子間の結合重み
R(R=−WWT+IM)が学習によって修正され、(
6)式の相関学習によって関連する他の連想記憶モデル
との関係を表す結合重みが修正される。その後、それぞ
れ(1)’〜(6)式の処理が収束するまで繰り返され
る。
【0023】 τydyj(l)(t)/dt=−fj(yj(l),
aj(l))+ΣkRkj(l)fk(yk(l),a
k(l))+ΣiWij(l)xi(t)      
                         
                         
    …(1)τydyj(l)(t)/dt=−f
j(yj(l),aj(l))+ΣkRkj(l)fk
(yk(l),ak(l))+ΣiWij(l)xi(
t)+Σ(p)mVmj(p)(l)fm(p)   
                         
                         
       …(1)’τxdxi(l)(t)/d
t=−xi(l)(t)+ΣjWij(l)fj(yj
(l),aj(l))               
                         
                    …(2)x
(l)(0)=(初期入力パターン),y(l)(0)
=0                       
                         
            …(3)τwdWij(l)
(t)/dt=−γWij+{xi(l)−ΣsWis
(l)fs(ys(l),as(l))}fj(yj(
l),aj(l))                
                         
                   …(4)τa
daj(l)(t)/dt=τy(drfj(yj(l
),aj(l))/draj(l))(dyj(l)(
t)/dt)                          
                         
          …(5)τVdVmj(p)(l
)(t)/dt=−γVmj(p)(l)+ym(p)
(t)yj(l)(t)              
                         
                       …(
6)ここで各連想記憶モデル(l)について、中間層素
子間の抑制結合重み:R=−W(l)W(l)T+IM
(l), 辞書行列:W(l)=[x(1)(l),x(2)(l
),……x(M)(l)]T, 各カテゴリの辞書パターン:x(i)(l)={x(i
)1(l),……,x(i)N(l)}とし、IM(l
)はM次元単位行列で、Tは転置行列、Vmj(p)(
l)は各連想記憶モデル(p−1)間の中間層素子(m
とj)の結合重みを表し、τa,τw>>τx>τyと
する。 非線形関数fj(yj(l),aj(l))は、fj(
0,aj(l))=0, fj(1,aj(l))=1, fj(aj(l)/2,aj(l))=aj(l)/2
,  fj(yj(l),aj(l))<yj(l) 
     (yj(l)<aj(l)/2),  fj
(yj(l),aj(l))>yj(l)      
(yj(l)>aj(l)/2),の条件を満足するも
のとする。なお、(5)式のdrは偏微分の記号として
用いている。
【0024】学習パターン提示毎に、各連想記憶モデル
では(1)’〜(5)式に従って各記憶辞書Wとしきい
値aj/2が若干修正される。すなわち、この学習では
、(4)式に示すように、記憶辞書Wijとフィードバ
ック入力パターンとの差分の確率近似最小化によって、
提示した入力パターンに辞書を若干近づける。この(4
)式の演算は、差分加算状態更新器118、128、1
38により行われる。差分加算状態更新器118は辞書
メモリ(この辞書メモリは図示されていない。積和演算
器113,114,117,118からアクセスできる
ように設ければよい)からの記憶辞書である結合重み値
Wijと、非線形処理器116からの中間層素子出力f
(y,a)に基づいて(4)式を演算し、結合重み値の
変化分を求め、その変化分により辞書メモリ内の辞書W
ijを更新する。他の差分加算状態更新器128,13
8も同様に動作する。それと共に、(5)式に示すよう
に発火する素子についてはしきい値を下げてより発火し
やすくし、発火しない素子はしきい値を上げてより発火
しないように、各中間層素子のしきい値が調整される。 (5)式の演算は、差分加算状態更新器119、129
、139により行われる。差分加算状態更新器119は
非線形処理器116からのしきい処理された中間層素子
出力f(y,a)およびしきい値a/2に基づいて(5
)式を演算し、しきい値の変化分を求め、その変化分に
より非線形処理器116内のしきい値を更新する。 他の差分加算状態更新器129,139も同様に動作す
る。これと同時に、他の連想記憶モデルとの結合重み値
が(6)式の相関学習に従って修正される。すなわち、
他の連想記憶モデルとの互いに関連する連想項目がより
想起されやすいように学習が行われる。以上に説明した
Step1〜Step2の学習処理は学習用のすべての
パターンについて繰返し行われる。
【0025】学習用の全てのパターンについてStep
1〜Step2の学習処理が終ったら、学習した辞書お
よびしきい値を用いて、(1)’〜(3)式により、連
想想起処理を行う(Step3)。学習パターンが正し
く想起できるまで、再度入力パターンを順に提示して、
以上に説明した操作を繰り返す(Step4)。図9の
(c)は、本実施例の連想学習方式により記憶辞書およ
びしきい値を学習後に、同図(a)のような変形パター
ンの入力に対して連想想起処理を行ったときの認識結果
を示すもので、かなり変形した曖昧なパターンでもノイ
ズが除去され、正確なパターンが再現されていることが
分る。上記の学習・認識処理を行う図1の装置の各演算
部は、連続時間を離散化することで汎用の計算機上での
プログラムや、専用のアナログ(またはディジタル)演
算回路で実現できる。なお、各層の素子の状態は、それ
ぞれのレジスタに記憶され、結合重み値は積和演算器に
よってアクセス可能なメモリに記憶される。
【0026】
【発明の効果】本発明は、学習用パターン組の提示毎に
、記憶辞書とフィードバック入力パターンとの差分によ
って、各連想記憶モデルの記憶辞書としきい値を除々に
学習しながら、他の連想記憶モデルとの中間層間の結合
重みをも学習するようにしたので、各連想記憶モデルの
記憶辞書としきい値、および他の連想記憶モデルとの記
憶項目間の関係の学習を容易かつ効率的に行うことがで
きる。
【図面の簡単な説明】
【図1】  本発明の学習処理を行うためのシステム構
成の1実施例を示すものである。
【図2】  本発明の実施例の学習処理の概略を示すフ
ローチャートである。
【図3】  本発明の各連想記憶モデルを示す図である
【図4】  本発明の学習処理が適用される連想記憶モ
デルすなわち中間層を通じて接続された複数の連想記憶
モデルの構成例を示すものである。
【図5】  本発明の学習処理が適用される連想記憶モ
デルのシステム構成の1例を示す図である。
【図6】  各連想記憶モデルの連想想起処理を示すフ
ローチャートである。
【図7】  複数接続時の連想想起処理を示すフローチ
ャートである。
【図8】  中間層出力にしきい値処理を施すための非
線形関数の一例を示す図である。
【図9】  ノイズ入力(a)に対する各連想記憶モデ
ルの従来モデルの連想想起結果(再現入力パターン)(
b)と本発明の連想想起結果(再現入力パターン)(c
)を示す図である。
【図10】  従来の直交射影型フィードフォワード連
想記憶モデルを示す図である。
【図11】  複数の異なる概念項目を想起するための
、従来の連想記憶モデルによる構成例を示す図である。 但し、図中には注目した中間層素子への結合のみが示さ
れている。
【符号の説明】
11,12,13…中間層に相互抑制結合を持つ3層フ
ィードバック連想記憶モデル、  111,121,1
31…入出力レジスタ、  112,122,132…
差分加算状態更新器、  113,123,133…積
和演算器、114,124,134…積和演算器、11
5,125,135…差分加算状態更新器、116,1
26,136…非線形処理器、  117,127,1
37…積和演算器、118,128,138…差分加算
状態更新器、119,129,139…差分加算状態更
新器、14…積和演算器、  15…差分加算状態更新
器。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】  中間層に相互抑制結合を持つフィード
    バック連想記憶モデルを素子数の少ない中間層において
    複数接続し、変動のある分散的な入力パターンから概念
    ・記号的中間層出力パターンに動的に変換しながら、入
    力に関連する種々の記憶項目を連想想起する連想記憶モ
    デルの連想学習方式であって、学習用パターン組の提示
    毎に、記憶辞書とフィードバック入力パターンとの差分
    によって、各連想記憶モデルの記憶辞書としきい値を除
    々に学習しながら、他の連想記憶モデルとの中間層間の
    結合重みも学習することを特徴とする連想学習方式。
JP3067558A 1991-03-08 1991-03-08 連想学習方式 Pending JPH04340157A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3067558A JPH04340157A (ja) 1991-03-08 1991-03-08 連想学習方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3067558A JPH04340157A (ja) 1991-03-08 1991-03-08 連想学習方式

Publications (1)

Publication Number Publication Date
JPH04340157A true JPH04340157A (ja) 1992-11-26

Family

ID=13348415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3067558A Pending JPH04340157A (ja) 1991-03-08 1991-03-08 連想学習方式

Country Status (1)

Country Link
JP (1) JPH04340157A (ja)

Similar Documents

Publication Publication Date Title
Hagan et al. Training feedforward networks with the Marquardt algorithm
Yam et al. A new method in determining initial weights of feedforward neural networks for training enhancement
Zhang et al. FAT-DeepFFM: Field attentive deep field-aware factorization machine
Shynk et al. Convergence properties and stationary points of a perceptron learning algorithm
Yam et al. Determining initial weights of feedforward neural networks based on least squares method
JPH07210534A (ja) ニューラルネットワーク
JPH04340157A (ja) 連想学習方式
JPH07121498A (ja) ニューラルネットワーク構築方法
JPH04340156A (ja) 連想記憶方式
Li et al. A cascaded recurrent neural network for real-time nonlinear adaptive filtering
JP3114276B2 (ja) 階層型ニューラルネットワークの学習方法
JPH05165987A (ja) 信号処理装置
JP3082530B2 (ja) ニューラルネットワーク回路
JP2860057B2 (ja) ニューラルネットワークシステム
Wan et al. Introducing cost-sensitive neural networks
JPH0612396A (ja) パターン認識・学習方式
Bermak et al. VLSI implementation of a neural network classifier based on the saturating linear activation function
Kukich Backpropagation topologies for sequence generation
JP3328953B2 (ja) 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
JP3271186B2 (ja) 学習処理装置
JPH04112355A (ja) 自己学習型アナログ方式ニューロン回路
Browne et al. Variable binding in a neural network using a distributed representation
JPH02264354A (ja) データ処理装置
Erdem et al. MAN: mass attraction network
Kwan et al. A multilayer feedforward neural network model for digital hardware implementation