JPH06131468A - パターン記憶装置およびパターン記憶方法 - Google Patents

パターン記憶装置およびパターン記憶方法

Info

Publication number
JPH06131468A
JPH06131468A JP27892292A JP27892292A JPH06131468A JP H06131468 A JPH06131468 A JP H06131468A JP 27892292 A JP27892292 A JP 27892292A JP 27892292 A JP27892292 A JP 27892292A JP H06131468 A JPH06131468 A JP H06131468A
Authority
JP
Japan
Prior art keywords
correlation matrix
layer
pattern
neural network
integrated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27892292A
Other languages
English (en)
Inventor
Naoki Imazaki
直樹 今崎
Toru Yamaguchi
亨 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP27892292A priority Critical patent/JPH06131468A/ja
Publication of JPH06131468A publication Critical patent/JPH06131468A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】すでに記憶済みのパターンに影響を及ぼすこと
なく、新たなパターンの追加や素子の追加が容易に行え
る連想記憶型神経回路網のパターン記憶装置およびパタ
ーン記憶方法を得ることにある。 【構成】各対について相関行列を演算し、この演算した
全ての相関行列を足し合わせた統合の相関行列を演算す
る相関行列演算手段21と、この相関行列演算手段2で
統合した相関行列の最大要素の2分の1倍以上の値にマ
イナス符号を付加して用意するバイアス行列を、統合し
た相関行列に足し合わせると共に、最大要素の正数倍以
上の逆数として用意するスケール係数を乗算することに
より拡張された相関行列を作成する正規化手段22と、
正規化手段22により得られた拡張された相関行列の各
要素を前記第1層に属する全ての素子と第2層に属する
全ての素子との間に結合の重みを設定する重み設定手段
23を具備したもの。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、すでに記憶済みのパタ
ーンに影響を及ぼすことなく、新たなパターンの追加や
素子の追加が容易に行える連想記憶型神経回路網のパタ
ーン記憶装置およびパターン記憶方法に関する。
【0002】
【従来の技術】この種の従来のパターン認識装置の一例
として、図4のように構成されたものがある。連想記憶
装置10は、マンマシンインタェース11が設けられ、
このマンマシンインタェース11にはキーボード1、C
RTディスプレイ2等の入出力装置が接続され、内部的
には入出力装置からのマンマシンインタェース11を介
してパターンが格納されるパターン格納部12と、この
パターン格納部12のパターンを受けて学習によりパタ
ーンを記憶する双方向連想記憶型神経回路網(ニューラ
ルネットワーク、以下単に神経回路網と称する)13
と、この神経回路網13の学習によって得られた結合係
数を格納するシナプス荷重格納部14と、マンマシンイ
ンタェース11から送られてくる例えば入力信号をスケ
ール変換して、例えば−1〜1間の連続量よりなる被連
想用パターンを得る前処理部15と、この前処理部15
によって変換された被連想用パターンが神経回路網13
に入力され、この神経回路網13によってシナプス荷重
格納部14の結合係数を用いて類推連想によって得られ
る出力パターンを処理しやすい形のデータに変換してマ
ンマシンインタェース11に送出する後処理部16とに
より構成されている。
【0003】神経回路網13は、外部信号が入出力可能
な端子を持つ複数個の素子17,17,…,1
、18,18,…,18からなる第1層17
および第2層18を持ち、第1層17に属する素子17
〜17と第2層18に属する素子18〜18
間に所定の重みで重み付けし、この重み付けされた信号
が双方向に流れるリンク(結合)19を有している。
【0004】第1層17は、前処理部部15から入力さ
れる被連想用パターンを信号変換して第2層18へ送出
する。この第2層18は、第1層17からの出力信号を
取込んで信号変換して後処理部16へ送出する。この場
合、第2層18では被連想用パターンを識別させるため
に都合のよい形の信号に変換する。
【0005】このような構成の双方向連想記憶型神経回
路網13は、各要素が{0,1}の値からなるベクトル
の対P=(X,Y)を記憶させるのに用いられる。この
記憶させるベクトルの対(以下パターンと称する)が1
組に限らず、複数個の記憶が可能である。この記憶後
は、2層17,18の内のいずれかの層に、あるパター
ンを入力すると、信号が2層間を連続的に往復し、記憶
済みの1パターンが次第に両層に現れる。双方向連想記
憶型神経回路網13の特徴は、層状ネットでありながら
信号の流れが、1方向に限られていないことである。
【0006】普通、双方向連想記憶型神経回路網13へ
のパターンの記憶は、バイポーラ化と呼ばれる工程を経
て生成される相関行列の重ね合わせで実現する。すなわ
ち、、第1層17がm次元、第2層18がn次元である
双方向連想記憶型神経回路網13であるとき、N組のパ
ターン、 P1 =(X1 ,Y1 ),P2 =(X2 ,Y2 ),…,PN =(XN ,YN ) …(1) となり、以下これらの記憶について、図5のフローチャ
ートを参照して説明する。すなわち、ステップ(以下単
にS)41で動作が開始され、S42でパターンカウン
タiを初期化する。S43でパターンカウンタiをイン
クリメントし、S44でパターンのバイポーラ化を行
う。
【0007】すなわち、パターンPi =(Xi ,Yi
の各要素Xij(1≦j≦m)およびYik(1≦k≦n)
を、次の(2),(3)式に従い{0,1}から{−
1,1}に変換する。
【0008】
【数1】 S45において、各パターンPi (i =1,…, N )の
【数2】 を、S44で変換したパターンについて演算する。
【0009】Mi =Y' i X' i T
…(4) S47で全てのパ
ターンについて相関行列を演算したかをチェックし、演
算済みであれば、S48に進み、演算が済んでいなけれ
ばS43に戻る。
【0010】S46で、(5)式のように、S45で演
算した全ての相関行列M1 ,M2 ,…,MN を足し合わ
せて、全体としての相関行列Mを得る。
【0011】
【数3】 S48で、第1層17の第j素子および第2層18の第
k素子間の荷重wkjを相関行列Mの第k行j列要素の値
に設定する。ただし、j =m,…, n 、k =1 ,…, n
)。S49でパターン記憶手順が終了する。
【0012】このようにしてパターンを記憶した双方向
連想型神経回路網は、いかなる入力に対してもある局所
的安定点に達する性質を有している。次元の新しい新た
なパターンP(N +1)=[X(N + 1 ),Y(N +1)]
を追加する場合には、既にできあがっている相関行列M
上に、前述の手順S44、S45と同様にして演算され
る当該パターンP(N +1)の相関行列M(N + 1 )を重
ね合わせるだけでよい。
【0013】また、m,nより小さな次元q,r(0<
q≦m,0<r≦n)の新たなパターンQ=(XQ,Y
Q)を追加する場合には、前処理としてパターンQを
m,n次元のパターンPQ=(XPQ,YPQ)に拡張
する。すなわち、(6),(7)式によりパターンPQ
の要素を求める。
【0014】
【数4】 その後、前述の手順のS44,S45と同様にして演算
されるパターンPQの相関行列Mに重ね合わせればよ
い。以上のように双方向連想型神経回路網においては、
容易にパターンの記憶、追加を行うことができる。
【0015】
【発明が解決しようとする課題】しかながら、現在の連
想記憶の次元m,nより大きな次元μ,ν(m≦μ,n
≦ν)を持つ新たなパターンを追加する場合には、連想
記憶自体の素子数を増やす必要がある。ここで、従来の
パターン記憶方法では、素子数を増やした後、既に記憶
していたパターンP1 , P2 , …, PN の次元を(6)
式および(7)式と同様にして擬似的に増やし、改めて
前述のS41〜S49により相関行列をし直す必要があ
る。すなわち、N +1個のパターンの相関行列を全て演算
し直す手間が生じるという問題点がある。
【0016】本発明は、すでに記憶済みのパターンに影
響を及ぼすことなく、新たなパターンの追加や素子の追
加が容易に行える連想記憶型神経回路網のパターン記憶
装置およびパターン記憶方法を提供することを目的とす
る。
【0017】
【課題を解決するための手段】前記目的を達成するた
め、請求項1に対応する発明は、外部信号が入出力可能
な端子を持つ複数個の素子からなる第1層および第2層
を持ち、前記第1層に属する素子と前記第2層に属する
素子の間に所定の重みで重み付けし、この重み付けされ
た信号が双方向に流れる結合を有する連想記憶型神経回
路網に、0ないし1の信号でなる第1層の出力ベクトル
および第2層の出力ベクトルの対を複数個記憶させるパ
ターン記憶装置において、前記各対について相関行列を
演算し、この演算した全ての相関行列を足し合わせた統
合の相関行列を演算する相関行列演算手段と、この相関
行列演算手段で統合した相関行列の最大要素の2分の1
倍以上の値にマイナス符号を付加して用意するバイアス
行列を、統合した相関行列に足し合わせると共に、最大
要素の正数倍以上の逆数として用意するスケール係数を
乗算することにより拡張された相関行列を作成する正規
化手段と、この正規化手段により得られた拡張された相
関行列の各要素を前記第1層に属する全ての素子と前記
第2層に属する全ての素子との間に結合の重みを設定す
る重み設定手段とを具備した連想記憶型神経回路網のパ
ターン記憶装置である。
【0018】前記目的を達成するため、請求項2に対応
する発明は、外部信号が入出力可能な端子を持つ複数個
の素子からなる第1および第2の層を持ち、前記第1層
に属する素子と前記第2層に属する素子の間に所定の重
みで重み付けし、この重み付けされた信号が双方向に流
れる結合を有する連想記憶型神経回路網に、0ないし1
の信号でなる第1層の出力ベクトルおよび第2層の出力
ベクトルの対を複数個記憶させる場合、前記各対につい
て相関行列を演算し、この演算した全ての相関行列を足
し合わせた統合の相関行列を演算する第1ステップと、
この第1ステップで統合した相関行列の最大要素の2分
の1倍以上の値にマイナス符号を付加して用意するバイ
アス行列を、統合した相関行列に足し合わせると共に、
最大要素の正数倍以上の逆数として用意するスケール係
数を乗算することにより拡張された相関行列を作成する
第2ステップと、この第2ステップにより得られた拡張
された相関行列の各要素を前記第1層に属する全ての素
子と前記第2層に属する全ての素子との間に結合の重み
を設定する第3ステップと、を含んだ連想記憶型神経回
路網のパターン記憶方法である。
【0019】
【作用】請求項1および請求項2に対応する発明によれ
ば、記憶するパターンをバイポーラ化せずに相関行列を
演算し、各演算結果を足し合わせて得られた相関行列
に、別途用意されるバイアス行列を加算し、スケール係
数を乗算したものを、連想記憶型神経回路網に設定する
ようにしたので、全てのパターンが相殺されることなく
残るため、新たなパターンを追加する際にも、この相関
行列に新たな相関行列を足し合わせ、スケール係数およ
びバイアス行列を再設定するだけでよく、相関行列の演
算が一度ですむ。特に、新たなパターンがすでに記憶済
みのパターンと異なる次元を持っていても同様な処理が
可能である。
【0020】
【実施例】以下、図面を参照して本発明の実施例につい
て説明する。図1は本発明の概略構成を示すブロック図
であり、マンマシンインタフェース11が設けられ、こ
のマンマシンインタフェース11にはキーボード1、C
RTディスプレイ2等の入出力装置が接続され、内部的
には入出力装置からのマンマシンインタフェース11を
介してパターンが格納されるパターン格納部12と、こ
のパターン格納部12のパターンを受けて学習によりパ
ターンを記憶する双方向連想記憶型神経回路網(ニュー
ラルネットワーク)13と、この神経回路網13の学習
によって得られた結合係数を格納するシナプス荷重格納
部14と、マンマシンインタフェース11から送られて
くる例えば入力信号をスケール変換して、例えば−1〜
1間の連続量よりなる被連想用パターンを得る前処理部
15と、この前処理部15によって変換された被連想用
パターンが神経回路網13に入力され、この神経回路網
13によってシナプス荷重格納部14の結合係数を用い
て類推連想によって得られる出力パターンを処理しやす
い形のデータに変換してマンマシンインタフェース11
に送出する後処理部16とにより構成されている。
【0021】神経回路網13は、外部信号が入出力可能
な端子を持つm個の素子UX1 〜UXm からなる第1層
UXおよびn個の素子UY1 〜UYn からなる第2層U
Yを持ち、第1層UXと第2層UYは、
【数5】 で表される荷重値をもつリンク19で結合されている。
すなわち、第1層UXの第i素子および第2層UYの第
j素子間のリンク荷重wjiは、 wji=Mj,i …(8) である。全素子UX1 〜UXm 、UY1 〜UYn は、
(9)式のような出力関数fを有している。
【0022】 f(x)=x …(9) 神経回路網13は、後述する推論過程およびパターン記
憶処理時には、以下のように動作する。神経回路網13
にある入力X(0)が与えられたとき、第2層UYに
は、 Y(0)=M・X(0)
…(10)なる信号が現れる。
【0023】次に、第1層UXには、 X(1)=MT ・Y(0)=MT ・M・X(0) …(11) のような信号が現れる。引続き信号は(12)式、(1
3)式のように第1層UXと第2層UYを往復する。
【0024】 Y(i)=M・X(i) …(12) X(i+1)=MT ・Y(i) …(13) その結果、両層UX,UYの出力はある値X(T),Y
(T)に収束する。この値が推論結果である。
【0025】また、神経回路網13のパターン記憶処理
は、以下のように行われる。N組のパターンの場合、 P1 =(X1 ,Y1 ),P2 =(X2 ,Y2 ),…,PN =(XN ,YN ) …(14) の記憶を、図2のフローチャートのように行われる。
【0026】本発明は、以上のような機能を実施するた
め、次に述べる構成を具備している。すなわち、各対に
ついて相関行列を演算し、この演算した全ての相関行列
を足し合わせた統合の相関行列を演算する相関行列演算
手段21と、この相関行列演算手段21で統合した相関
行列の最大要素の2分の1倍以上の値にマイナス符号を
付加して用意するバイアス行列を、統合した相関行列に
足し合わせると共に、最大要素の整数倍以上の逆数とし
て用意するスケール係数aを乗算することにより拡張さ
れた相関行列を作成する正規化手段22と、正規化手段
22により得られた拡張された相関行列の各要素を前記
第1層に属する全ての素子と第2層に属する全ての素子
との間に結合の重みを設定する重み設定手段23を具備
したものである。
【0027】以下、このように構成されたパターン記憶
装置の動作について、図2および図3のフローチャート
を参照して説明するが、初めにパターン記憶処理につい
て図2を参照して説明する。S1で開始し、S2でパタ
ーンカウンタiの初期化を行い、次に、S3でパターン
カウンタiのインクリメントする。S4で、各パターン
i (i=1,…, N )の
【数6】 をパターンXi ,Yi について演算する。
【0028】 Mi =Yi i T …(15) S5で全てのパターンについて相関行列を演算したかを
チェックし、演算済みであれば、S6に進み、演算が済
んでいなければ、S3に戻る。S6において、S4で演
算した全ての相関行列M1,…,MNを足し合わせて、
統合した相関行列Mを演算する。
【0029】
【数7】 S7で、スケール係数aおよびバイアス行列Bを演算、
例えば
【数8】 で演算される。
【0030】S8で拡張された相関行列MEを、(2
0)式により演算する。
【0031】 ME=a(M+B) …(20) S9で、第1層第j素子および第2層第k素子間の荷重
kjを拡張された相関行列MEの第k行j列要素の値に
設定する。S10で終了するが、通常は、S7で処理を
終了し、神経回路網13は、バイポーラ化せず、演算し
統合された相関行列M、スケール係数aおよびバイアス
行列Bを保存する。そして、実際に推論を行う際に、S
8、S9を実行し、重みを設定するようにする。
【0032】次に、図3のフローチャートを参照してパ
ターン追加処理について説明する。神経回路網13にお
いて、記憶済みのパターンP1 ,P2 ,…,PN に、新
たなパターンPπ=(Xπ,Yπ)を追加して記憶させ
る方法について述べる。S21において開始し、S22
では記憶済みパターンを現す相関行列Mの拡張を行う。
【0033】すなわち、拡張後の相関行列M0 の次元を
0 ×m0 とすると、これらは、(21),(22)式
で演算される。
【0034】 m0 =max(mπ,m) …(21) n0 =max(nπ,n) …(22) ここで、拡張は(23)式に基づいて行う。
【0035】
【数9】 S23で新たなパターンPπの拡張を行う。すなわち、
拡張後のXπ,Yπの次元は、それぞれS22で求めた
0 およびn0 に等しい。拡張された新たなパターン
を、Pπ0 =(Xπ0 ,Yπ0 )とすると、これらは
(24)式、(25)で)演算される。
【0036】
【数10】 S24は新たなパターンに関する相関行列演算を行う。
すなわち、S23で求めた拡張された新たなパターンP
π0 より、相関行列Mπを(26)式のように演算す
る。
【0037】 Mπ=Yπ・(XπT …(26) S25で新たな相関行列M0 Pを(27)式により演算
する。
【0038】 M0 P=M0 π+Mπ …(27) S26で連想記憶の拡張をを行う。すなわち、新たな相
関行列Mo Pに合わせて、連想記憶の素子数を調節す
る。
【0039】S27で連想記憶への記憶を行う。すなわ
ち、S7へ戻り、S25で得られたM0 Pを、統合され
た相関行列Mとする。
【0040】以上述べた第1の実施例によれば、パター
ンを追加する場合、相関行列の演算を1度で済ませるこ
とができる。また、追加するパターンと次元が異なって
いてもよい。特に、追加するパターンが記憶済みパター
ンより大きな次元を持っていても全く同様に処理でき
る。
【0041】本発明は、以上述べた実施例に限らず、例
えば以下のように変形して実施できる。
【0042】1)前述の実施例では、スケール係数aお
よびバイアス行列Bの演算に、(18)式および(1
9)式を用いたが、これに限らず、(19)式のcより
も大きくもよい。また、(18)式中のcのバイアスを
十分に大きくとれば、図2に示すパターン記憶手順中の
S7は最初の一度でよい。
【0043】2)前述の実施例では、図4の双方向連想
記憶回路を構成する素子17,…,17,18
…,18の出力関数としてf(x)=xの線形関数を
用いたが、f(x)=1÷(1+e-x)等のシグモイド
型の関数を用いてもよい。
【0044】3)前述実施例においては、新たなパター
ン追加について述べたが、本発明はこれに限らず、すで
に記憶したパターンの一部を引算、すなわち1回の−M
iとして加算してもよい。
【0045】
【発明の効果】本発明によれば、すでに記憶済みのパタ
ーンに影響を及ぼすことなく、新たなパターンの追加や
素子の追加が容易に行える連想記憶型神経回路網のパタ
ーン記憶装置およびパターン記憶方法を提供することが
できる。
【図面の簡単な説明】
【図1】本発明の連想記憶型神経回路網のパターン記憶
装置装置の一実施例の概略構成を示すブロック図。
【図2】本発明の連想記憶型神経回路網のパターン記憶
方法の一実施例を示すフローチャート。
【図3】図2における追加パターンの処理手順を示すフ
ローチャート。
【図4】従来の連想記憶型神経回路網の概略構成を示す
ブロック図。
【図5】従来の連想記憶型神経回路網におけるパターン
記憶手順を示すフローチャート。
【符号の説明】
1…キーボード、2…CRT表示器、11…マンマシン
インタェース、12…パターン格納部、14…荷重格納
部、15…前処理部、16…後処理部、21…相関行列
演算手段、22…正規化手段、23…重み設定手段。

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 外部信号が入出力可能な端子を持つ複数
    個の素子からなる第1および第2層を持ち、前記第1層
    に属する素子と前記第2層に属する素子の間に所定の重
    みで重み付けし、この重み付けされた信号が双方向に流
    れるリンクを有する連想記憶型神経回路網に、0ないし
    1の信号でなる第1層の出力ベクトルおよび第2層の出
    力ベクトルの対を複数個記憶させるパターン記憶装置に
    おいて、 前記各対について相関行列を演算し、この演算した全て
    の相関行列を足し合わせた統合の相関行列を演算する相
    関行列演算手段と、 この相関行列演算手段で統合した相関行列の最大要素の
    2分の1倍以上の値にマイナス符号を付加して用意する
    バイアス行列を、統合した相関行列に足し合わせると共
    に、最大要素の正数倍以上の逆数として用意するスケー
    ル係数を乗算することにより拡張された相関行列を作成
    する正規化手段と、 この正規化手段により得られた拡張された相関行列の各
    要素を前記第1層に属する全ての素子と前記第2層に属
    する全ての素子との間に結合の重みを設定する重み設定
    手段と、 を具備した連想記憶型神経回路網のパターン記憶装置。
  2. 【請求項2】外部信号が入出力可能な端子を持つ複数個
    の素子からなる第1層および第2層を持ち、前記第1層
    に属する素子と前記第2層に属する素子の間に所定の重
    みで重み付けし、この重み付けされた信号が双方向に流
    れるリンクを有する連想記憶型神経回路網に、0ないし
    1の信号でなる第1層の出力ベクトルおよび第2層の出
    力ベクトルの対を複数個記憶させる場合、 前記各対について相関行列を演算し、この演算した全て
    の相関行列を足し合わせた統合の相関行列を演算する第
    1ステップと、 この第1ステップで統合した相関行列の最大要素の2分
    の1倍以上の値にマイナス符号を付加して用意するバイ
    アス行列を、統合した相関行列に足し合わせると共に、
    最大要素の正数倍以上の逆数として用意するスケール係
    数を乗算することにより拡張された相関行列を作成する
    第2ステップと、 この第2ステップにより得られた拡張された相関行列の
    各要素を前記第1層に属する全ての素子と前記第2層に
    属する全ての素子との間に結合の重みを設定する第3ス
    テップと、 を含んだ連想記憶型神経回路網のパターン記憶方法。
JP27892292A 1992-10-16 1992-10-16 パターン記憶装置およびパターン記憶方法 Pending JPH06131468A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27892292A JPH06131468A (ja) 1992-10-16 1992-10-16 パターン記憶装置およびパターン記憶方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27892292A JPH06131468A (ja) 1992-10-16 1992-10-16 パターン記憶装置およびパターン記憶方法

Publications (1)

Publication Number Publication Date
JPH06131468A true JPH06131468A (ja) 1994-05-13

Family

ID=17603958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27892292A Pending JPH06131468A (ja) 1992-10-16 1992-10-16 パターン記憶装置およびパターン記憶方法

Country Status (1)

Country Link
JP (1) JPH06131468A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012101933A1 (ja) * 2011-01-24 2012-08-02 日本電気株式会社 運用管理装置、運用管理方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012101933A1 (ja) * 2011-01-24 2012-08-02 日本電気株式会社 運用管理装置、運用管理方法、及びプログラム
JP5532150B2 (ja) * 2011-01-24 2014-06-25 日本電気株式会社 運用管理装置、運用管理方法、及びプログラム
US8930757B2 (en) 2011-01-24 2015-01-06 Nec Corporation Operations management apparatus, operations management method and program

Similar Documents

Publication Publication Date Title
Gelenbe et al. Function approximation with spiked random networks
CN107679582A (zh) 一种基于多模态分解模型进行可视问答的方法
JPH06509195A (ja) 分散型比較ニューラル・ネットワーク
US6446054B1 (en) Fuzzy inference system or adaptive neuro-fuzzy inference system, and intelligent agent for the dynamic generation and retrieval of user interface software modules
CN115222566A (zh) 国际金融与金融计量学教学用学习方法及其系统
CN113516133B (zh) 一种多模态图像分类方法及系统
CN112818764A (zh) 一种基于特征重建模型的低分辨率图像人脸表情识别方法
Fokina et al. Growing axons: greedy learning of neural networks with application to function approximation
CN113298235A (zh) 一种多分支深度自注意力变换网络的神经网络架构及实现方法
JPH07191951A (ja) ニューラルネットワーク回路
JP3374476B2 (ja) ニューラルネットワーク構築方法
JP3043539B2 (ja) ニューラル・ネットワーク
JPH06131468A (ja) パターン記憶装置およびパターン記憶方法
CN113283986B (zh) 算法交易系统及基于该系统的算法交易模型的训练方法
CN116542315A (zh) 一种基于张量分解的大规模神经网络参数压缩方法及系统
Rafik et al. Learning and Predictive Energy Consumption Model based on LSTM recursive neural networks
Davidson et al. Template learning in morphological neural nets
JPH01114899A (ja) ダイナミックなニューラルネットワーク
JPH096881A (ja) ニューラルネットワーク
JP2020030702A (ja) 学習装置、学習方法及び学習プログラム
JP3491317B2 (ja) フィードフォワード型ニューラルネットワークの構築方法
JP3082530B2 (ja) ニューラルネットワーク回路
Reddy Self-Replicating AI: Integrating New Neural Networks Through a Natural Selection Process
JP3289517B2 (ja) 連想記憶装置及び思考模擬装置
Imai et al. Chaotic analog associative memory