JPH04340156A - 連想記憶方式 - Google Patents

連想記憶方式

Info

Publication number
JPH04340156A
JPH04340156A JP3067557A JP6755791A JPH04340156A JP H04340156 A JPH04340156 A JP H04340156A JP 3067557 A JP3067557 A JP 3067557A JP 6755791 A JP6755791 A JP 6755791A JP H04340156 A JPH04340156 A JP H04340156A
Authority
JP
Japan
Prior art keywords
associative
layer
models
associative memory
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3067557A
Other languages
English (en)
Inventor
Yukio Hayashi
幸雄 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP3067557A priority Critical patent/JPH04340156A/ja
Publication of JPH04340156A publication Critical patent/JPH04340156A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像や音声のパターン
の検索や、キーワードによるデータベース等の検索を、
連想記憶検索により動的に行う連想記憶方式に関するも
のである。
【0002】
【従来の技術】従来の連想記憶検索では、メモリアドレ
スと記憶項目を対にして蓄える内容番付け記憶方式とし
て、キーワードからアドレスを算出するハッシュ・コー
ド法や、入力データの線形変換から出力データを想起す
る相互想起連想記憶方式等が知られている((1) T
.Kohonen:“Associative Mem
ory, A System−Theoretical
 Approach”,Springer−Verla
g,’77 )。これらのうち、記憶項目の衝突がない
線形相互想起連想記憶モデルでは、入出力層間の結合重
み値を入出力パターンの相関行列で設定する相関型連想
記憶モデルより、一般逆行列で設定した直交射影型連想
記憶モデルの方が高い連想能力を持つことが知られてい
る。一般逆行列の計算を効率的な局所演算で実現する方
法に関しては、松岡氏が図8に示すような相互抑制結合
の中間層を持つ3層モデルを提案している((2) K
.Matsuoka:“A Model of Ort
hogonal Auto−AssosiativeN
etworks”,Biol Cybern 62,p
p.243−248,’90、(3) K.Matsu
oka:“An Associative Netwo
rk with Cross Inhibitory 
Connections”,Biol Cybern 
62,pp.393−399,’90、(4) 松岡(
九工大):“直交射影型連想記憶回路の種々の構造につ
いて”,電子情報通信学会論文誌,Vol.J73−D
II,No.4,PP.641−647,April,
90)。これは、複雑な一般逆行列の計算を簡単なネッ
ト構造の回路で実現するのみならず、記憶辞書である結
合重み値の学習もプロトタイプパターンの付加によって
簡単に実現できるのでLSI化にも適している。
【0003】
【発明が解決しようとする課題】従来の連想記憶モデル
では、図9に示すように、画像等の分散的なパターン同
士の連想を直接行うように素子間の結合がなされている
。すなわち図9の例の場合、各項目例えば色信号の項目
の入出力層および中間層は、他の項目である形信号の項
目および香り信号の項目の各入力層および出力層に対す
る直接的な結合を有している。関連する連想項目が多い
と項目間の結合重みである記憶辞書が膨大になってしま
うという問題点があった。また、このような連想記憶モ
デルは、記憶辞書の静的なプロトタイプパターンからの
記憶・想起を示すもので、現実的な変形パターンの連想
想起には十分とは言えなかった。すなわち、図7の(a
)に示すような記憶パターン以外の変形入力に対しては
同図(b)のようにノイズ成分が残ってしまい、この入
力に関連する連想記憶項目を正しく想起するには、非常
に沢山の変形パターンを記憶しなければならなかった。
【0004】本発明は、このような従来技術の問題点を
解消することを目的とするものである。すなわち、本発
明は記憶辞書の容量を増大させることなく、入力に関連
する連想記憶項目を正しく想起することのできる連想記
憶方式を提供することを目的とするものである。
【0005】
【問題を解決するための手段】本発明は、図1に示すよ
うに、中間層に相互抑制結合を持つ複数の3層フィード
バック連想記憶モデル(11,12,13)と、その複
数の3層フィードバック連想記憶モデル相互間を、それ
らの中間層同士の重みを有する結合により、結合する結
合部(14)とを備えたことを特徴とする。
【0006】
【作用】この連想記憶方式に用いる各3層フィードバッ
ク連想記憶モデルは、パターン分離能力の高い一般逆行
列の近似計算が中間層の相互抑制結合によって行われる
。また、入力パターンが出力層に再現されてフィードバ
ックする時、中間層の非線形関数でノイズ除去が行われ
る。そして、この連想記憶方式は、互いに異なる概念(
カテゴリ)を表現する上記の複数の3連想記憶モデルを
中間層において接続し、変動のある分散的な入力パター
ンから概念・記号的な中間層出力パターンに動的に変換
しながら、入力に関連する種々の記憶項目を連想想起す
る。各3層フィードバック連想記憶モデルを相互接続す
る結合部は、圧縮表現された中間層により行われるので
、結合数を少なくすることができ、したがって、結合重
みである記憶辞書の容量も大きくなることはない。従っ
て、本発明によれば、記憶パターンからは変形している
曖昧な入力パターンにも柔軟に機能する連想記憶検索を
効率的に実現することができる。
【0007】
【実施例】図1は本発明による中間層を通じて複数接続
された連想記憶モデルの一例を示す図である。この連想
記憶モデルは、中間層に相互抑制結合を持つ複数の3層
フィードバック連想記憶モデル11,12,13と、そ
れぞれの中間層の素子同士を結合する結合部14とから
なっている。この例では、3個の3層フィードバック連
想記憶モデル11,12,13はそれぞれ色信号、形信
号、香り信号の3つの連想項目の入出力に割り当てられ
ている。なお、図1には結合部14は、各連想記憶モデ
ルの中間層素子の出力がそれぞれ節点に接続され、節点
同士を相互接続するように図示されているが、結合関係
を分り易くするために節点を示したものであって、実際
は直接に中間層素子同士が接続される。
【0008】図2は、図1において簡略的に示されてい
る各3層フィードバック連想記憶モデルの1個の構成を
より詳細に示す図である。ただし、図中には、着目した
中間層素子kへの結合のみが示されている。このモデル
において、中間層素子kは入力層からの結合の外に、他
の中間層素子からの出力がしきい関数を介して抑制信号
Rとして入力される抑制結合を有している。この抑制結
合は他の中間素子についても同様である。また、入力パ
ターンが出力層に再現されてフィードバックする恒等写
像が近似的に実現される。
【0009】図3は図1に示すような本発明の連想記憶
モデルのシステム構成の一実施例を示すものである。各
3層フィードバック連想記憶モデル11,12,13は
、それぞれ入力パターンx(m)またはフィードバック
出力x’(t)により更新された値を保持する入出力レ
ジスタ311,312,313と、微小時間後の入力層
の状態の変化分Δxすなわち後述する(2)式における
dxi(t)を求めるとともに、その変化分Δxを入出
力レジスタ311,312,313の値に加算して更新
する差分加算状態更新器321,322,323と、後
述する(1)式におけるΣiWijxi(t)を演算す
る積和演算器331,332,333と、(2)式にお
けるΣjWijfj(yj,aj)すなわちフィードバ
ック信号を求める積和演算器341,342,343と
、微小時間後の中間層の状態を求めるとともにその変化
分Δyすなわち後述する(1)式におけるdyj(t)
を求め、その変化分Δyを非線形処理部361,362
,363のレジスタに保持されている非線型処理結果y
jに加算して更新する差分加算状態更新器351,35
2,353と、更新されたyjに(1)式における非線
形処理fj(yj,aj)を施しその結果をレジスタに
保持する非線形処理器361,362,363と、相互
抑制結合成分である(1)式におけるΣkRkjfk(
yk,ak)を演算する積和演算器371,372,3
73とからなる。 また、各3層フィードバック連想記憶モデルを相互に結
合し、統合するための演算ΣlI(l)を行う積和演算
器38を有している。図3に示す実施例の装置の各演算
器は、連続時間を離散化することにより汎用の計算機上
でのプログラムや、専用のアナログまたはディジタル演
算回路で実現することができる。各層の素子の状態は、
それぞれのレジスタに記憶され、結合重み値は積和演算
器のメモリに記憶される。
【0010】図4と図5は、それぞれ本実施例における
各連想記憶モデルの連想想起処理と連想記憶モデルの複
数接続時の連想想起処理手順を示すフローチャートであ
る。以下では、まず記憶辞書である結合重み値と入力の
許容変動範囲を規定する中間層素子のしきい値f(y)
が既に設定されているとして、単一の連想記憶モデルの
連想想起処理の例を説明した後に、複数接続時の連想想
起処理の例について説明する。図4のフローチャートに
従って、図2に示す本発明における連想記憶モデルの連
想想起処理を説明する。まず、下記の(3)式に示す初
期設定をする(Step0)。概念mに属する入力パタ
ーンx(m)を入出力レジスタ311に設定する。そし
て、次の(1)式と(2)式に従って、微小時間Δt後
の変化量Δx,Δyの計算をする(Step1)。
【0011】 τydyj(t)/dt=−fj(yj,aj)+Σk
Rkjfk(yk,ak)+ΣiWijxi(t)  
                         
                         
  (1)τxdxi(t)/dt=−xi(t)+Σ
jWijfj(yj,aj)            
                         
                         
  (2)x(0)=x(m) y(0)=0                          
                         
              (3)ここで、R=−W
WT+IM, 辞書行列:W=[x(1),x(2),……x(M)]
T,各概念の辞書パターン:x(i)={x(i)1,
……x(i)N} とし、IMはM次元単位行列で、Tは転置行列を表す。 非線形関数fj(yj,aj)は、 fj(0,aj)=0, fj(1,aj)=1, fj(aj/2,aj)=aj/2, fj(yj,aj)<yj(yj<aj/2),fj(
yj,aj)>yj(yj>aj/2).の条件を満足
するものとする。
【0012】(1)式に従って、中間層の相互抑制結合
Rによって一般逆行列が近似的に計算され、(2)式の
非線形関数とフィードバック信号でノイズ除去が行われ
る。(1)式における−fj(yj,aj)は図3の非
線形処理器361によって処理される。図6は中間層出
力yにしきい値処理を施すための非線形関数の一例を示
す図である。非線形処理器361はこの非線形関数に従
って出力を決定する。また、(1)式におけるΣkRk
jfk(yk,ak)の演算は積和演算器371によっ
て行われる。また、(1)式におけるΣiWijxi(
t)の演算は積和演算器331によって行われる。また
、フィードバック出力(再現入力)である(2)式にお
けるΣjWijfj(yj,aj)の演算は、積和演算
器341により行われる。
【0013】これらの演算結果を基に、微小時間Δt後
の状態更新を行う(Step2) x(t+Δt)=x(t)+Δx y(t+Δt)=y(t)+Δy すなわち、Δyは、差分加算状態更新器351を用いた
(1)式の右辺の前記のように既に計算した全部の項の
加算すなわち非線形処理器361、積和演算器331お
よび差分加算状態更新器371の各出力の和により求め
られる。  そして、差分加算状態更新器351はその
求めたΔyと非線形処理器361に内蔵されるレジスタ
に保持されているΔt時間前の非線形処理された中間層
出力の値yとの加算を行って、そのyの値を更新するま
た、(2)式全体の演算すなわちΔxの演算と、フィー
ドバックされる再現入力の演算は、差分加算状態更新器
321により行われる。そして、差分加算状態更新器3
51はその求めたΔxと入出力るレジスタ311に保持
されているΔt時間前のxのとの加算を行って、その入
出力レジスタ311の値を更新する。この時、中間層出
力fj(yj,aj)の全ての要素が誤差εの範囲で0
か1に収束しているか否かを判定し、Yesであれば、
処理を終了する。そうでなければ、(1)式と(2)式
の処理を同様に繰り返す。(1)式と(2)式の処理の
繰り返しによって、出力層の再現入力パターンは除々に
該当する記憶辞書パターンに近づいて、その概念を表す
中間層素子が発火(値1に収束)する。なお、各概念は
複数の中間層素子で分散的に表現しても良い。すなわち
2以上の中間層素子の発火により概念を表すようにして
もよい。以上の動作の説明においては、ひとつの連想記
憶モデル11について説明したが、他の連想記憶モデル
12,13も同様の動作をする。
【0014】次に図5のフローチャートに従って、図1
に示す本発明の複数接続時の連想想起処理を説明する。 まず、いくつかの連想記憶モデル(部分的で良い)にそ
れぞれ異なる概念の初期入力パターンを与える(Ste
p0)。次に、各連想記憶モデルにおいて(1)式と(
2)式による微小時間Δt後の状態の更新を行う(St
ep1)。これは図4により前述した通りであり、ここ
では説明を省略する。
【0015】この時、下記の(1)’式に従って各中間
層出力は重み付けられて他の連想記憶モデルの中間層へ
の入力I(l)として相互に入力される(Step2)
。この(1)’式における入力I(l)の総和ΣlI(
l)jは、図3の積和演算器38によって計算される。 そして、(1)’式、(2)式による微小時間Δt後の
状態更新をする(Step3)。その後、連想記憶モデ
ルにおいてそれぞれの(1)’式と(2)式の処理が収
束されるまで繰り返される。
【0016】 τydyj(t)/dt=−fj(yj,aj)+Σk
Rkjfk(yk,ak)+ΣiWijxi(t)+Σ
lI(l)j.                          
                         
        (1)’但し、I(l)jは他の連想
記憶モデルlの各中間層出力からの重みつき入力を表す
【0017】図1、図3に示す構成では、互いに異なる
概念を表現する複数の連想記憶モデルを接続する例を示
したが、トリー状や階層的な接続で、系列的な連想想起
を行うような構成としても良い。
【0018】
【発明の効果】本発明のの連想記憶方式は、互いに異な
る概念を表現する複数の3連想記憶モデルを中間層にお
いて接続し、変動のある分散的な入力パターンから概念
・記号的な中間層出力パターンに動的に変換しながら、
入力に関連する種々の記憶項目を連想想起する。各3層
フィードバック連想記憶モデルを相互接続する結合部は
、圧縮表現された中間層により行われるので、結合数を
少なくすることができ、結合重みである記憶辞書の容量
も大きくなることはない。従って、本発明によれば、記
憶パターンからは変形している曖昧な入力パターンにも
柔軟に機能する連想記憶検索を効率的に実現することが
できる。
【図面の簡単な説明】
【図1】  本発明の中間層を通じて接続された複数の
連想記憶モデルよる構成例を示すものである。
【図2】  本発明の各連想記憶モデルを示す図である
。 但し、図中には注目した中間層素子への結合のみが示さ
れている。
【図3】  本発明の学習処理を行うためのシステム構
成の1実施例を示すものである。
【図4】  本発明の実施例の各連想記憶モデルの連想
想起処理を示すフローチャートである。
【図5】  本発明の実施例における複数接続時の連想
想起処理を示すフローチャートである。
【図6】  中間層出力にしきい値処理を施すための非
線形関数の例を示す図である。
【図7】  ノイズ入力(a)に対する各連想記憶モデ
ルの従来モデルの連想想起結果(再現入力パターン)(
b)と本発明の連想想起結果(再現入力パターン)(c
)を示す図である。
【図8】  従来の直交射影型フィードフォワード相互
想起連想記憶モデルを示す図である。
【図9】  複数の異なる概念項目を想起するための、
従来の連想記憶モデルによる構成例を示す図である。
【符号の説明】
11,12,13…中間層に相互抑制結合を持つ3層フ
ィードバック連想記憶モデル、  311,312,3
13…入出力レジスタ、  321,321,323…
差分加算状態更新器、  331,332,333…積
和演算器、341,342,343…積和演算器、  
351,352,353…差分加算状態更新器、  3
61,362,363…非線形処理器、  371,3
72,373…積和演算器、  38…積和演算器。

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】中間層に相互抑制結合を持つ複数の3層フ
    ィードバック連想記憶モデルと、その複数の3層フィー
    ドバック連想記憶モデル相互間を、それらの中間層同士
    の重みを有する結合により、結合する結合部とを備えた
    ことを特徴とする連想記憶方式。
JP3067557A 1991-03-08 1991-03-08 連想記憶方式 Pending JPH04340156A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3067557A JPH04340156A (ja) 1991-03-08 1991-03-08 連想記憶方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3067557A JPH04340156A (ja) 1991-03-08 1991-03-08 連想記憶方式

Publications (1)

Publication Number Publication Date
JPH04340156A true JPH04340156A (ja) 1992-11-26

Family

ID=13348388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3067557A Pending JPH04340156A (ja) 1991-03-08 1991-03-08 連想記憶方式

Country Status (1)

Country Link
JP (1) JPH04340156A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134733A (ja) * 2003-12-09 2009-06-18 Emc Corp 時間的に近接して記憶システムに書き込まれたデータユニットを示すコンテンツアドレスの生成方法およびその装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134733A (ja) * 2003-12-09 2009-06-18 Emc Corp 時間的に近接して記憶システムに書き込まれたデータユニットを示すコンテンツアドレスの生成方法およびその装置

Similar Documents

Publication Publication Date Title
Robinson An iterative method of solving a game
JP2663996B2 (ja) ニューラル・ネットワーク用の仮想ニューロコンピュータ・アーキテクチュア
JP2575565B2 (ja) Spin:順次パイプライン式ニューロコンピュータ
Du et al. Exponential stability for stochastic Cohen–Grossberg BAM neural networks with discrete and distributed time-varying delays
Zhang et al. FAT-DeepFFM: Field attentive deep field-aware factorization machine
JPH04340156A (ja) 連想記憶方式
JPH07210534A (ja) ニューラルネットワーク
Wang et al. A modified bidirectional decoding strategy based on the BAM structure
US5259039A (en) Method of separating specific patterns from pattern space and apparatus therefor
JPH04340157A (ja) 連想学習方式
JPH05145379A (ja) 適応フイルタ装置における係数更新方法
Ayoubi et al. Efficient mapping algorithm of multilayer neural network on torus architecture
JP3114276B2 (ja) 階層型ニューラルネットワークの学習方法
JP3271186B2 (ja) 学習処理装置
JP2860057B2 (ja) ニューラルネットワークシステム
JP3082530B2 (ja) ニューラルネットワーク回路
Bermak et al. VLSI implementation of a neural network classifier based on the saturating linear activation function
JP3235713B2 (ja) ベクトル量子化法及びその符号帳
Lin et al. Identification of dynamic systems using recurrent fuzzy neural network
Paielli Simulation tests of the optimization method of Hopfield and Tank using neural networks
Zhu et al. A parallel implementation of the p-version of the finite element method
Kuo et al. A structured adaptive neural network for pattern recognition VLSI
Song et al. Implementation of two-dimensional systolic algorithms for multi-layered neural networks
Ayoubi et al. Fault tolerant Hopfield associative memory on torus
Biederman et al. Design of a neural network-based digital multiplier