JPH01223559A - N次元クーロン神経ネットワーク - Google Patents

N次元クーロン神経ネットワーク

Info

Publication number
JPH01223559A
JPH01223559A JP1010983A JP1098389A JPH01223559A JP H01223559 A JPH01223559 A JP H01223559A JP 1010983 A JP1010983 A JP 1010983A JP 1098389 A JP1098389 A JP 1098389A JP H01223559 A JPH01223559 A JP H01223559A
Authority
JP
Japan
Prior art keywords
network
layer
cell
connection
cells
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1010983A
Other languages
English (en)
Inventor
Christopher L Scofield
クリストファー・エル・スコフィールド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nestor Inc
Original Assignee
Nestor Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nestor Inc filed Critical Nestor Inc
Publication of JPH01223559A publication Critical patent/JPH01223559A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、N次元クーロンネットワークを用いた累積学
習方法及び装置に関する。
〔従来の技術〕
多層神経ネットワークの一般的学習アルゴリズムが詳細
に研究され始めたのはごく最近である。この分野におけ
る最近の研究は多層ボルツマン機械で始まった。コンピ
ュータ視覚パターン認識に関するIEEE会、報448
−453 (1983)のヒントン・ジー・イーおよび
セジノウスキー著「最適知覚推測」(Hinton、 
G、E、、 and Sejnow−ski :Opt
imal Perceptual Inference
、” Proce−edings of  the I
EEE Conference on Compute
rVision Pattern Recogniti
on、 448−453 (1983))  1、カー
ネギ−メロン大学技術レポートCM[l−C5−84−
119(1984年5月)のヒントン・ジー・イー、セ
ジノウスキー・ティー・ジエイ、アラクレー・デイ−・
エイチ著「ボルツマン機械:学習する制約サチフアクシ
ョンネットワークJ  ()linton、 G。
E、、 Sejnowski、 T、J、+ Ackl
ey、 D、H,:”Boltz−mann Mach
ines: Con5traint 5atifact
ion Netw−orks that Learn”
、 Tech、 Report CM[l−C5−84
−119、Carnegie−Mellon Univ
ersity (May 1984))等がある。ヒン
トンとセジノウスキーは彼らのシステム用に多層ネット
ワークの学習アルゴリズムが記述できることを見いだし
た。しかし、このシステムはシナプス状態の集束が遅い
ことがら、彼らおよび他の研究者は代替の多層学習シス
テムを求めた。ルメルハート、ヒントンおよびウィリア
ムス(Rumelhart、 Hinton and 
 Williams)はデルタルールの概括が多層フィ
ードフォーワードネットワークにおける学習を記述でき
ることを見いだした。ネイチャー誌、 323、533
−536 (1986)のルメルハート・デイ−・イー
、ヒントン・ジー・イーおよびウィリアムス・アール・
ジエイ著「逆転ばん誤りによる表示の学習J  (Ru
melhart、 D、E、+ Hinton、 G、
E、、 and Williams、 R+J、: ”
Learning Representat−i。
ns by Back Propagating Er
rors”、 Nature、 323、533−53
6 (1986))。このデルタルールはパーカーによ
って独立的に開発された。マサチューセッツ工科大学経
済経営科学計算研究所(1985)のパーカー・デイ−
・ビー著「学習−ロシック(TR−47) J  (P
arker、 D、B、:Learn i −ng−1
ogic (TR−47)+”Massachuset
ts In5tituteof Technology
、 Center for Computationa
lResearch in Economics an
d Management 5cien−ce、 (1
985) )。昨今では「逆転ばん」としばしば呼ばれ
るこのシステムはボルツマン機械よりずっと速く、ミン
スキーおよびペイパート(Minsky and Pa
pert )によって最初に取り上げられた従来問題の
多くを解決するように思ゎれる内部シナプス状態を自動
的に得ることができる。MITプレス(1969)のミ
ンスキー・エムおよびペイパート・ニス著「パーセプト
ロン」(Minsky、 M、 and Papert
、 S、: Perceptrons。
MIT Press (1969)) 、これら複雑な
内部状態はパターン環境の「内部表示」と呼ばれている
MITプレス、31B−364(1986)のデイ−・
イー・ルメルハートおよびジエイ・エル・マクジーラン
ド(編集者)の「並列分散処理」におけるルメルハート
・デイ−・イー、ヒントン・ジー・イーおよびウィリア
ムス・アール・ジエイ著「誤り伝ばんによる内部表示の
学習」(Rumelhart+ D、E、、 Hint
on、 G、E、+ and Williams、 R
,J。
:”Learning Internal Repre
sentations by Err−or Prop
agation、” in D、E、 Rumelha
rt and J、L。
McClelland (Eds、) Paralle
l Distributed Pro−cessing
、 MIT Press、 318−364 (198
6) ) 、しかし、このシステムはシナプス状態の集
束速度がネットワークの層の数に線形的な場合よりずっ
と遅いことが判明した。第6回人工知能全国会議会報、
1.279−284 (1987)のバラード・デイ−
・エイチ著「神経ネットワークにおけるモジューラ学習
」(Ballard、 D、H,:”Modular 
Le、a−rning in Neural Netw
orks’” Proceedings ofthe 
5ixth National Conference
 on ArtificialIntelligenc
e、 1.279−284 (1987) ) 、この
特性は、大規模な実在の問題にそのようなネットワーク
をスケーリングすることに対してかなりの制約になると
考えられるので「スケーリング問題」と呼ばれている。
第6回人工知能全国会議、チュートリアルプログラムM
P−2(1987)のヒントン・ジー・イーおよびセジ
ノウスキー著「人工知能用神経ネットワーク構造」(H
inton。
G、E−+ and Sejnowski: ”Neu
’ral Network Archi−tectur
es for AID” 5ixth Nationa
l Conferenc−e on Artifici
al Intelligence、 Tutorial
 Pro−gram MP−2(1987)) 、上述
の「モジューラ学習」の記事の中でバラードは、自動結
合ユニットを積み重ねることによってスケーリング問題
に対処する方法を提案している。この方法はフィードフ
ォーワード構造に反するが、システムは実際に多層の学
習時間を短縮するようである。
ボルツマン機械は単層反復ネットワークに関するホップ
フィールドの研究の延長であった。
米国科学アカデミ−会報79.2554−2558 (
1982年4月)のホップフィールド・ジエイ・ジエイ
著「エマージェント集合計算能力をもった神経ネットワ
ークと物理システム」、および米国科学アカデミ−会報
81.2088−3092 (1984年5月)のホッ
プフィールド・ジエイ・ジエイ著「グレーディッドレス
ポンスをもったニューロンは二状態ニューロンのような
集合計算能力を有する」(Hopfield、 J、J
、:”Neural Networks and Ph
y−sical Systems with Emer
gent Co11ective Com−putat
ional Abilities、” Proc、 N
atl、 Acad。
Sci、 USA 79.2554−2558 (Ap
ril 19B2)、 andHopfield、 J
、J、:”Neurons with Graded 
Re5po−nse Have Co11ective
 Computational Properti−e
s Like Those of Two−State
 Neurons、”Proc。
Natl、 Acad、 Sci、 USA 81,2
088−3092 (May1984) ) 、ホップ
フィールドは反復ネットワークの活性度を安定させる分
析の方法を導入した。
この方法はネットワークを「エネルギー」と呼ばれるグ
ローバル関数(実際はネットワークの状態を記述する自
律システムのリアプノフ関数)が定義できる動的システ
ムとして定義した。このエネルギーはシステムの状態空
間に於ける固定ポイントを含んでいた。ホップフィール
ドは、反復結合のマトリックスが一定の条件を満たせば
状態空間の流れが常に動的システムの固定ポイントに向
かうことを示した。ホップフィールドはこの特性で固定
ポイントをネットワーク活性度に関する複数のメモリー
サイトとして定義、することができた。
ホップフィールドのネットワークは、それより古いネッ
トワークと同様、記憶容量に限界があった。記憶密度の
増加によるメモリーリコールの劣化は流れの溜りとして
作用する不用な局部的極小が状態空間に存在することに
直接関係する。
〔発明が解決しようとする課題〕
バックマン、クーパー、デンボおよびザイトウニ(Ba
chmann、 Cooper+ Dembo and
 Zeitouni)はホップフィールドのネットワー
クとあまり違わないシステムを研究したが、極小の位置
が明確で、不用な局部的極小のないことが証明できる動
的システムの定義に焦点を当てた。米国科学アカデミ−
会報Vo1.84、No、 21. pI)、 752
9−7531 (1987) 、バックマン・シー・エ
ム、クーパー・エル・エヌ、デンボ・エイおよびザイト
ウニ・オー著「高密度記憶メモリーの緩和モデル」(B
achmann+ C,M、+ Cooper、 L、
N、+ Dembo。
A、、 and Zeitouni、 0.:A Re
1axation Modelfor Memory 
with High Density Storage
、” Pr−oc、 Natl、 Acad、 Sci
、 USA、 Vol、 84+ No、 21pp、
 7529−7531 (1987))。特に、彼らは
以下の式で与えられるリアプノフ関数をもったシステム
を選んだ。
ξ−−1/LΣQjlμ xjl−L    (1)こ
のN次元クーロンエネルギー関数はチャージ(メモリー
)サイトXjに位置する固定ポイントに対して引力を持
つm個の溜りを正確に定義する。NとLの適正な選択の
ため、最も近い判明メモリーへの集束は記憶されるメモ
リーの数mにかかわらず保証される。ブラウン大学神経
科学センター、プロピデンス、アール・アイのデンボ・
エイ、サイトウニ・オー著rAR0技術レポート」(D
embo、 A、、 Zeitouni、 0.:”A
ROTechnical Report、’ Brow
n University。
Center for Neural 5cience
、 Providence、R,1,)。
バックマン他(Backmann et at、)はこ
のシステムのネットワーク実施を行ったが、それは厳密
には局部的で、分配されたホップフィールド表示のいく
つかの望ましい特性を備えていない。
本発明の目的は、上述した従来欠点を解消する点にある
〔課題を達成するための手段及び作用〕本発明は、単層
および多層ネットワークに適用できて、分配された表示
を生成するN次元、クーロンネットワーク用の学習アル
ゴリズムを提供する。その中心となる考え方はメモリー
サイトの集合のポテンシャルエネルギーを定義すること
にある。各メモリーサイトはテストパターンだけでなく
他のメモリーサイトの吸引子である。メモリーサイト間
の吸引および反発ポテンシャルを適正に定義することに
よって、メモリーの集合のエネルギーを最小化できる。
この方法により、多層ネットワークのトレーニング時間
は層の数の線形関数となる。
セルの層に既に記録されたイベントのメモリーの表示の
統合方法を先ず考慮する。入力および出力(ないし分類
)パターンの対が順次ネットワークに与えられる管理さ
れた学習パラディムにこの方法が適用できる。そして、
その結果生じる学習手順が、入力部に最も近い層から出
力層へインクレメンタルに内部表示を展開する。
〔効 果] このようにして、本発明は全ての目的を達成し、所期の
効果をもたらすN次元クーロンネットワークの新規な学
習アルゴリズムを提供する。
〔実施例〕
N次元クーロンネットワークにおける学習:ネットワー
ク応答空間RNにおけるmメモリーサイトX11108
、肌のシステムを例にとる。
特定のクラスCと結びつけたメモリーサイトをX= (
C)とする。テストチャージμにバックマン他(Bac
hmann et al)のエネルギーξ−−1/LΣ
QJ1μmXjl−L   (2)を使用する。テスト
チャージがない場合、メモリーサイトの配列の静電位エ
ネルギーは、先ず、同クラスのメモリーサイト間の吸引
ポテンシャルエネルギーと、異クラスのメモリーサイト
間の反発ポテンシャルエネルギーを定義する。そして、
Q、を次のように定義する。
s ign (Q + (c) )≠sign(Q+(
c’)) for c = c’ 。
sign(Q+(c))=sign(Q+(c’)) 
for c f−c’  (4)この場合、ψはRNの
サイトχ11000、XMに位置する同じまたは異なっ
た符号のチャージの集合の静電位エネルギーを示す。そ
して、チャージを電気力学の法則に従って展開させるこ
とによって、mメモリーサイトがRNに固定されるとい
う制約を緩めることができる。直感的に言って、同クラ
スのメモリーサイト(ペア的には符号の異なるチャージ
だが)互いに吸引され、異クラスのメモリーサイト(同
じ符号のチャージ)は互いに反発しあう。次のように定
義づける。
x、=Σe、%Σω、、 f si        (
5)    m 式中、e7はn番セルを示す単位ベクトル、ωア、は活
性度μをもつセル層に対する導入シナプスのマトリック
ス、f 、、iはメモリーXiとしてコピーされた導入
シナプスである。簡単にするため表記法を変えると、 R+j= x 、−x J(6) そして、 Ri j ”ΣΣe、、(L)、(fmi−fmj) 
 (7) m または、 ψ= ここで、セル層に対するシナプスの導入マトリックスω
における変化の結果、セル層の活性化空間のメモリーサ
イトの動きが発生する。チャージの集合(メモリーサイ
トに相当する)の静電エネルギーψを最小にするにはマ
トリックスωをどう調整するかを知りたい、従って、重
みω、に対するポテンシャルエネルギーの勾配を通常の
方法で計算すると、 δωnm=aψ/aωnm =−1/(2L) ΣΣQitllj lΣΣe、lω
、1訊fmt−fm、)l−(L・1)ij     
 nm そこで、 = CR+t/ l Rlj + 3 61.δm、e
 e Jfpt−ftJ)または、 δω、= =1/2ΣΣQ、Qjl R=、 l −(L”ゝR4
Je、、(fm=−fmJ)  (10)ij 従って、ネットワークのn番のセルについて導入した重
みベクトルω7=[ω1..、・・・ωlk]は以下に
従って展開する。
δω=−1/2ΣΣQ、QJl R,、しくし”’ (
xi−xJ)x(fm−fJ) (11)ij 式(11)にもとづくメモリーサイトの緩和は、ψの最
小化で同クラスのメモリーサイトの結合と異クラスのメ
モリーサイトの分離を可能にする。
つまり、マツピングωはクラス差異を増長させながらR
NOクラスの表示を崩壊させるよう展開する。
しかし、各セルの活性度がセルの重みベクトルの内積に
線形依存するため、多層ネットワークは単層以上の結合
を達成できない。ネイチャー誌、323.533−53
6 (1986)のルメルハート・デイ−・イー、ヒン
トン・ジー・イーおよびウィリアムス・アール・ジェイ
著「逆転ばん誤りによる表示の学習J (Rumelh
art、 D、E、、 Hinton+G、E、、 a
nd Williams、 R,J、:Learnin
g Represe−ntations by Bac
k Propagating Errors’、 Na
tu−re、 323.533−536 (1986)
 )に開示されたルメルハート他(Rumelhart
 et al)の方法に従って、セルの活性度をシグモ
イド関数Fを使って表すと、 F(Σ(L) ++sf+ai) ” (l+e−””
’ (Σ(L)3@f+si+θ))−1(12)m 
                    mそして、 x、=ΣeaF*(Σωg+sfa、)n      
 m そして次の通り容易に証明できる。
明θω5.χr=e nF n (1−F J f x
i従って、     7 R1、a/aω1%IIRij = (F、 (f t)−(F−(f J)) (F−
(f t) (1−F−(f t) f−t−F、(f
 j) (1−F−(f t) f−j)整理すると、 RL= a/ a(+) n+eR8J:EΔn* (
f t+ f t)そして、最終的に、n番のセルのm
番シナプスの展開は以下の通りになる。
δ ω+ta−4/2壬 ΣQ五Q、 I R五、  
l  −ILI2)  Δ、(f直歯)    (13
)ij 式(13)によるマトリックスωの展開は、反対の符号
(同クラス)のチャージが互いに吸引しあい、同じ符号
(反対のクラス)のチャージが反発しあうことを許すこ
とにより、mチャージの集合の静電位エネルギーを最小
にする。言い方を代えれば、これがMクラスのm判明メ
モリーを有する入力空間RNからMクラスの n (n <m)判明メモリーを有する空間RNまでの
非線形マツピング発生のアルゴリズムである。つまり、
マツピングはパターン環境のクラス構造を保存するが、
環境の表示を固定させる。
式(13)のネットワーク実現の可能性は興味深い。記
載されたアルゴリズムはメモリーのペア同士の相互作用
に依存する。従って、ネットワークの各ノードは、差異
R1jが計算できるように、その活性度空間におけるメ
モリーの位置を「記憶」しなければならない。この実現
の形は不可能ではないが、神経ネットワークで通常考え
られる以上に複雑なノードの使用を必要とする。このア
ルゴリズムの別のネットワーク実現として、前回与えら
れたパターンの活性度合いだけ記憶すればよいノードを
必要とするものが考えられる。この方法は管理された(
あるいは管理されない)学習を介して実現し得る。
管理された学習: 式(13)に記載のアルゴリズムはメモリーがまだ存在
しないシステムに容易に援用できる。つまり、これはパ
ターン環境りから表示を学習するアルゴリズムと見なす
ことができる。ここではDからのパターンをネットワー
クに与え、ネットワークがそのインプットの出力ベクト
ルまたは分類を生成するといった標準管理学習手順を採
用する。トレーニングとして、正確な出力分類を達成す
るためシナプスの状態ωを調節する。
式(13)はメモリーの対同士の相互作用を記載し、こ
の式のひとつの項はパターンからの因子iとjを含んで
いる。N2項の経時累積で式(13)を概算したいと考
える。最後に見たパターンに対する層の応答を記憶し、
それを次のパターンに対する応答と比較できるシステム
を定義しなければならない、つまり、パターンf (t
)およびf (t+1)がセル層の入力ラインに現れる
と仮定する。パターンf (t)に応答した活性度パタ
ーンは次のように定義される。
x(t)=Σe、lFm(Σ(L) +taL(t))
 =Σe、F 、 (f (t) )n      m
           nそして、前述のようにωの緩
和手順を定義できるが、ここでは環境におけるパターン
を原因とする活性度の関数として定義する。後続のパタ
ーンは、 δω−= (+/−) l x(t)−x(t+1) 
l −LL”’Δ、、(f(t)、r(t+1)) (
14)ここで、同クラスの後続パターンはプラスの符号
に、異クラスのパターンはマイナスの符号にする。
式(14)は表示ωを得るための非常に簡単なきまりで
ある。2つのパターンが同クラスの場合、応答空間(R
’)内でのそれらの位置は互いに近づき、2つのパター
ンが異クラスの場合、2つのパターン応答が互いから離
れるようωを調節する。
式(14)と環境りの構造との関係をよく理解するだめ
には、Dをより詳細に定義しなければならない。仮に、
パターン環境がm判明パターン:D=[fm1.、、 
f 、]からなるとする、しかし、経時的に見てパター
ン間に現れる頻度の差があり、例えばパターン[1が確
率Pzで現れるとする。そこで、式(14)をパターン
環境全体にわたって平均すると、 くδω−> l o=−(1/2)P4Σp= l R
t、1−(L″1Δ、、a(fl、f4) (15)つ
まり、パターンf+に応答したシステムの展開はNパタ
ーンのセット全体の平均で計算しなければならない。こ
れは各パターンについてN項の計算を必要とする。従っ
て、環境全体についてのシステムの展開は環境に対する
式(15)の平均を必要とする。
δω、、> l D=−(1/2)ΣΣptp、IR,
l −CL−4)Δ、、、(fm、fm) (16)j 式(13)と(16)を比較することによって、チャー
ジQ、を位置Xiにおける応答を生じさセるパターンの
確率piとして識別できる。この識別は直感的に明確で
ある0式(1)で定義されたエネルギーにおけるメモリ
ーの周囲の吸引溜りの大きさはメモリーサイトのチャー
ジの量の関数である。Dにおいて非常に頻繁なイベント
のメモリーはR’でより大きな吸引溜りを形成し、従っ
て新しいイベントμの識別子となり得る。
多層ネットワークの各層についてのエネルギーを式(3
)に従って定義できる。そして、各層のエネルギーを、
システムの他の層に独立的に式(13)に従って(また
は式(16)によって同様に)最小化できる。δωは複
数の層を介して伝ばんされる誤りに依存しない。内部表
示への集束はインプットに最も近い層からアウトプット
に最も近い層へと進行する。このシステムは層ごとの内
部表示を構成する。
式(16)のネットワークの実現は、ネットワークの各
セルが現在の活性度F、(fj)を前回与えられたパタ
ーンの活性度F、(rt)(量Δ、、1(f+、fj)
に暗黙にある)と比較することを必要とする。これはペ
ア間の相互作用のためにN2項の計算を必要とする。従
ってくインブットに最も近い層のトレーニング時間は環
境内のパターンの数の平方に比例する。しかし、判明活
性度合いの数は出力層に近づくに従って環境内のイベン
トの判明クラスの数に減少するから多層ネットワークの
深部の層程はそのトレーニング時間がずっと短くなる。
更に、式(16)は各セルが量IRtjlにアクセスで
きることを必要とする。この因子は異なったパターンに
ついてのネットワーク状態間の距離の大きさである。こ
の大きさは全てのセルに共通で、これはあたかも−個の
実質セルが後続のネットワーク状態間の活性度空間にお
ける距離を計算して、ネットワーク全体にその量を伝え
ているかのようである。
面白いことに、このメカニズムは、1987年コロラド
州デンバーでの「神経情報処理システム−自然および合
成」に関するI EEE会議に提出されたスコツイール
ド・シー・エル著「視覚皮層の層IVのミーンフィール
ド理論とその人工神経ネットワークに対する適用」(S
cofield。
C,L、:”A Mean Field Theory
 of Layer IV ofVisual  Co
rtex and  its  Applicatio
n  to Artif−icial  Neural
  Networks、:  Presented  
at  theIEEE  Conference  
on  ”Neural  Information 
 Pro−cessing 5yste+ws  −N
atural  and 5yntheti’c”。
Denver+ Co1orado (1987))で
報告された視覚皮層のミーンフィールド理論に関連があ
る。哺乳動物の皮相に対する視覚入力の目標層について
のクーパーおよびスコツイールド(Cooperand
 5cofield )の最近の研究で、詳細な皮相活
性度パターンのミーンフィールド概算が視覚学習に対す
る実験的に観察された喪失の効果を再生するに十分であ
ることが判明した。周期的な皮相結合性は、平均皮相活
性度を計算してネットワークの全てのセルに信号を送る
一個の「実効」セルで置換できる。同様に、因子1Ri
jlは一個の実効セルによって計算され、ネットワーク
の各セルに帰されることができる。
この状態が第1図に示されている。
シミュレーション結果: このシステムがひとつの層から次に層へひとつの内部表
示をインクレメンタルに展開させることを調べるために
は展開する表示を詳細に検討する必要がある。先ず、必
要な取り決めから始める。セルのi番の層に対する活性
度パターンの環境をD8とする。セルω、のi番のシナ
プスのマトリックスが環境Diを活性度パターンD′+
1に変換する。
D i + 1 =ω、(D + )        
 (17)XOR問題が一般化されたデルタルールで詳
細に研究されているので、これを考察する。先ず、第2
図に示された簡単な二層ネットワークから始める。この
ネットワークにおいて、入力層はパターン環境り、源で
マトリックスω1を介して2個のセルの第2層へ延びて
いる。(簡明化のために1Ridの計算のミーンフィー
ルド結合性は第2〜6図に示されていない。)環境はセ
ット”= [fl(a)、fz (a)。
fm(b)、fm(b)]からなり、tl(a)とfz
(a)がクラス゛a゛に属し、ri(b)とf4 (b
)がクラス”b“に属する。
f+ (a)= [1,O]” fz (a)= [0,1]” fz (a)= [0,01’ f4(a)=[1,1]”   − R2の入力空間(層1)のメモリーサイトからのこれら
4つのパターンは単位スクエアの角に位置し、第3図に
示されている。
層2のセルの活性度空間におけるこれらメモリーの位置
はマトリックスω1の初期値によって決まる。式(13
)または(14)にもとづくω1の展開によって層2の
活性度空間におけるメモリーサイトはメモリーの形状の
ポテンシャルエネルギーが最小になるまで移動する。第
4a図はパターンセットD1についてのN2の活性度の
最終形状を示す。
入力空間における2つのシナプス状態ω1′およびω2
1の位置も示されている。層2のニセル構造の制約のた
め同クラスの全てのメモリーが活性度の単一位置に収ま
ることが不可能であった。その代わり、2つのメモリー
サイトがひとつの位置に崩壊し、他のクラスのメモリー
サイトがこの位置から分離することによってψが最小に
なった。
次に、層2の活性度空間における位置に対応する3つの
判明メモリーの活性度パターンは考え得る第3層のセル
のパターンセットD2を形成する(第4b図)。
第4aおよび4b図は変換ω’ (D’)の結果生じる
メモリー形状が直線的に分離可能であることを示してい
る。簡単な線形二値しきい値ユニントでクラス”a”の
メモリーサイトがクラス11 bllのメモリーサイト
から分離できる。マトリックスω2を(第5.6図に示
すようなネットワークにおける)層3の単一セルに加え
ることによって変換D:l=ωZ CD”)= [’ 
 a’ 。
゛ b“、]=[1,0]が行われる。
この結果生じる三層ネットワークを調べると、2つの変
換ω1およびω2が一般化デルタデータによって生じた
ものと同一の単一内部表示である ω(D’) =ω2(Dz) =(L)” (ω’ (
D’) )  (19)を形成することが判る。しかし
、ここでは最終変換がωlからω2ヘインクルメンタル
につくられたのである。これは、トレーニング時間がネ
ットワークの層の数の単純な線形関数であるので逆転ば
ん法と比較してかなり有利である。
ひとつの層の集束の平均時間をtcとすれば、L個の層
のネットワークの集束の時間は単にLtcである。つま
り、多層ネットワークの集束時間はネットワーク中の層
の故によって線形に決定される。
結果の考察:単一および多層ネットワークに適用でき、
分配された表示を生成するN次元クーロンネットワーク
の学習アルゴリズムについて述べた。この方法は種々の
メモリー間の吸引および反発ポテンシャルと、メモリー
サイトの集合の静電位エネルギーの定義づけに依存する
ネットワークのシナプス状態の調節でこのエネルギーを
最小にすることによって、層の数の線形関数である多層
ネットワークのトレーニング時間が生成される。従って
、−膜化デルタルールと異なり、この方法は問題のサイ
ズに十分対応できると思われる。
この本発明の方法はネットワークの管理されたトレーニ
ングに適用できる。この方法の場合、パターン環境の土
台となる統計は吸引の溜りと明白な関連がある。管理さ
れないトレーニングは、全てのパターンが同じ符号のチ
ャージとして扱われ、互いに反発するメモリーサイトを
生成するといったわずかな延長である。クラスタリング
はパターン環境の統計によって定義された相対チャージ
規模の当然な結果である。
実施: 式(14)による本発明の学習アルゴリズムはN次元ク
ーロン神経ネットワークに直接実施できる。次に、簡単
な単層反復ネットワークを示す第7図を参照して説明す
る。
第7図のネットワークはいくつかの異なる種類の部材か
らなり、それらは異なる種類の記号で示されている。ネ
ットワークの作用の要旨を先ず説明し、次にその詳細を
説明する。
パターンは第7図の上部左側のラインからネットワーク
に入る。これらの活性度パターンf+ (t) 、’、
、、f*(t)100.fk(t)(0から1までの範
囲の実数)がネットワークに入り、同図上部の小さ(て
黒く丸い交点に修正可能な結合ω11を形成する。大き
い円10.。
no、、Nはネットワークのセルで、それらの入力ライ
ン(同図中、セル「体」から上方に延びている)上の活
性度を合計する。これらセルは活性度合いX+ (t)
 1.、、Xrt (t) 1.−。
xN(t)(これらも0から1までの範囲の実数)をそ
れぞれ生成する。これらの活性度合いが大きな陰をつけ
た円で示された「実効」セルにインプットされ、同図の
下部右側のラインを通って回路から出て行く。実効セル
は状態空間正規距離l x(t)−x(t+1) lを
計算し、それをこの層の全てのセルに伝える。
次に、回路の種々の作用を詳細に考察するが、先ず、本
発明の学習アルゴリズムに従って修正される結合強さω
、7を表す小さな黒いディスク状の結合に焦点をあてる
。回路外からの信号fm(t)は左側のラインから入力
される。これらの信号はラインmとセルnの間の結合強
さω、7によって重みを付けられる。重みを付けられた
信号はセル体に送られ、そこで合計されて、以下の式に
もとづいてセル活性度に変換される。
式中、x (t)は実数活性度XI  (t)1.、。
Xn(t)2.、、xN(t)からなるベクトル、e、
、は単位ベクトルである。
更に、結合強さω、7をもつ各結合は前記式(14)の
計算に使用するため前回の信号fm、(t)を保持しな
ければならない。
第7図下部に示す小さな四角は信号x+(t)、。
、、xR(t) 1.、、xN(t)を受け取る結合で
ある。これらの信号は結合に記憶され、時間(t+1)
における後続信号と比較される。そして、例えばn番の
四角の結合が差異 (X fi (t )−X fi(t +1) ) ”
  を計算する。
実効セルがN2差異項を累積し、正規N次元ベクトル差
異である状態空間路1iii 1 x(t)−x(t+
1) lを計算し、その後、逆累乗 l  x  +l (tLx  R(t+1ン l  
−LL”(式中、LはN−2以上の整数)である状態空
間差異の関数を計算する。具体的には、((x+ (t
)−XI (t+1))2+8.。
+ (XN (t)  XN (t +1) ) z)
 −””実効セルは状態空間差異の関数をネットワーク
のこの層の全てのNセルに伝える。これら各セルは修正
可能な結合に対する最新項を計算しく式(14)) 、
m節のためこの項を結合にフィードバックする。最新項
は量 l X 、、(t)−xn (t+1) 1−LL″l
とΔ□(f(t)、 f(t+1))の積であり、後者
の量は以下の式で定義される。
Δ、、、(r  (t)、  f  (t+1))=(
F、、(f  (t))−F、l(r  (t+1))
)x  (F、(f  (t))  (1−F、(f 
 (t)))fm(t)−Ffi(f  (t+1))
  (1−F、(f  (t+1)))fm(f+1)
) 式中、F、(f(t))はχ7(t)と定義されている
この量の計算にあたって、 F、 (f(t))−Ffi(f(t+1))と以下の
個々の因子を計算するために次回の活性度合いと比較す
るため各セルは前回の活性度合いのコピーを保持しなけ
ればならない。
l x (t)−x (t+1)l−””Fl (t)
、Fl (t+i) 更に、各結合ω□は前回具た信号fm(t)のコピーを
保持しなければならない。これらの量は組み合わされて
Δ□(f(t)、 f(t+1))または以下を形成す
るために結合ω□に用意されている必要がある。
1  x  (t)  −x  (t+1)  1−(
L、Z)F、(t)、F、(t+1) fm(t)、  fm、(t+1) 第7図の回路はアナログ回路でもデジタル回路でも実施
できる。各部材(結合ω□のネットワークセル、実効セ
ルへの出力結合、および実効セル自体)が専用のデジタ
ルハードウェアで構成されることが最適であるかも知れ
ない。N次元ネットワークはパラレル処理コンピュータ
のソフトウェアで実施、シミュレートできる。
以上、単層N次元ネットワークについて説明したが、ひ
とつの層が表示できるように集束されれば他の層を追加
できる。実際、多層N次元クーロン神経ネットワークに
おいて、このような多N構造は層ごとに独立して同時的
に構築できる。
これまで述べた実施例が発明の範囲内で種々の改変が可
能で、その用途も多岐にわたることは当業者に理解され
よう。
【図面の簡単な説明】
第1図はN次元クーロンエネルギーのネットワーク実現
を示す神経ネットワークの略図である。メモリー距離の
計算は「実効」セルによって行われ、図中白の円で示す
修正不可能なシナプスを介して伝えられる。 第2図は第1マツピングDz−ω’ (D’)の展開用
の二層神経ネットワークの略図である。 反復結合性は示されていない。 第3図はXOR問題のパターン環境D1を示す略図であ
る。2つのパターンクラスが層1の活性度(ないし応答
)空間内の単位スクエアの角に位置する。 第4a図は層1の応答空間にプロットされた、パターン
セットD2を生成する初期マツピングω’ (D’)を
示す略図である。 第4b図は層2の応答空間内の判明パターンクラスタ3
個のみからなるパターンセットDzを示す略図である。 第5図は全マツピングD3 =ω” (Dり =ω2(
ω’ (D’))用の三層神経ネットワークを示す略図
である。 第6a、6b、60図は第5図の神経ネットワークの層
1からN3の各マツピング及び応答空間を示す略図であ
る。この場合、2つの非線形マツピングω’ (D’)
およびω”CD”)は別別に学習されている。 第7図は本発明の学習アルゴリズムの典型的な実施例を
示す単層N次元クーロン神経ネットワークの略図である
。 第8図は眉間の結合性を示す、第7図に示す種類の多層
神経ネットワークの略図である。 FIG、  1 FIG、6G

Claims (1)

  1. 【特許請求の範囲】 (a)複数個Kの入力ターミナルで、各ターミナル(m
    )がK入力信号f_m(t)のひとつを受け取る手段と
    、 (b)複数個Nの神経セルで、各神経セル(n)がK入
    力部と1個の出力部を有し、入力部に与えられたK信号
    表示の合計を表す第1出力信号X_n(t)を出力部で
    生成する手段と、 (c)複数個N_xKの入力結合子で、各入力結合子(
    mn)が前記入力ターミナル(m)のひとつを前記神経
    セル(n)のひとつに連結し、入力ターミナルに現れる
    信号f_m(t)と素子結合強さω_m_nに従って各
    入力ターミナル(m)から各神経セル(n)へ情報の伝
    達を行う手段と、 (d)複数個Nの出力結合子で、各出力結合子(n)が
    各神経セル(n)の出力部に連結され、(1)対応する
    神経セル(n)の第1出力信号X_n(t)を記憶する
    手段と(2)前回記憶された第1出力信号X_n(t)
    から次回に記憶された第1出力信号X_n(t+1)を
    減算して、その差の2乗を表す第2出力信号(X_n(
    t)−X_n(t+1))2を生成する手段とを含み、 (e)前記出力結合子に連結して第2出力信号を受け、
    状態空間距離の関数 [(X_1(t)−X_1(t+1))^2+…(X_
    n(t)−X_N(t+1))^2+…(X_N(t)
    −X_N(t+1))^2]^−^(^L^+^2^)
    式中LはN−2以上の整数、を計算して、 これを示す第3出力信号を生成する手段を有し、 各神経セルが、 δω_n_m= (+/−)|X(t)−X(t+1)|^−^(^L^
    +^2^)Δ_n_m(f(t),f(t+1))式中
    Δ_n_m(f(t)、f(t+1))はΔ_n_m(
    f(t),f(t+1))= (F_n(f(t))−F_n(f(t+1)))X(
    F_n(f(t))(1−F_n(f(t)))f_m
    (t)−F_n(f(t+1))(1−F_n(f(t
    +1)))f_m(t+1))によって与えられる式に
    従って結合強さ (ω_m_n)を調節することを特徴とするN次元クー
    ロン神経ネットワーク。
JP1010983A 1988-01-19 1989-01-19 N次元クーロン神経ネットワーク Pending JPH01223559A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US145,630 1988-01-19
US07/145,630 US4897811A (en) 1988-01-19 1988-01-19 N-dimensional coulomb neural network which provides for cumulative learning of internal representations

Publications (1)

Publication Number Publication Date
JPH01223559A true JPH01223559A (ja) 1989-09-06

Family

ID=22513922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1010983A Pending JPH01223559A (ja) 1988-01-19 1989-01-19 N次元クーロン神経ネットワーク

Country Status (4)

Country Link
US (1) US4897811A (ja)
EP (1) EP0325119B1 (ja)
JP (1) JPH01223559A (ja)
DE (1) DE68924078D1 (ja)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5293459A (en) * 1988-12-23 1994-03-08 U.S. Philips Corporation Neural integrated circuit comprising learning means
JP2676397B2 (ja) * 1989-01-05 1997-11-12 株式会社エイ・ティ・アール視聴覚機構研究所 動的システムの運動軌道生成方法
US5140530A (en) * 1989-03-28 1992-08-18 Honeywell Inc. Genetic algorithm synthesis of neural networks
US5553196A (en) * 1989-04-05 1996-09-03 Yozan, Inc. Method for processing data using a neural network having a number of layers equal to an abstraction degree of the pattern to be processed
US5195171A (en) * 1989-04-05 1993-03-16 Yozan, Inc. Data processing system
US5253328A (en) * 1989-11-17 1993-10-12 Microelectronics & Computer Technology Corp. Neural-network content-addressable memory
US5067164A (en) * 1989-11-30 1991-11-19 At&T Bell Laboratories Hierarchical constrained automatic learning neural network for character recognition
US5130563A (en) * 1989-11-30 1992-07-14 Washington Research Foundation Optoelectronic sensory neural network
US5167006A (en) * 1989-12-29 1992-11-24 Ricoh Company, Ltd. Neuron unit, neural network and signal processing method
EP0441176B1 (en) * 1990-01-25 1994-03-30 Mitsubishi Jidosha Kogyo Kabushiki Kaisha System for controlling the output power of motor vehicle
US5371835A (en) * 1990-02-02 1994-12-06 Kabushikikaisha Wacom Inductively coupled neural network
US5134685A (en) * 1990-02-06 1992-07-28 Westinghouse Electric Corp. Neural node, a netowrk and a chaotic annealing optimization method for the network
KR950001601B1 (ko) * 1990-07-09 1995-02-27 니폰 덴신 덴와 가부시끼가시야 뉴-럴 네트워크 회로
NO302481B1 (no) 1990-10-16 1998-03-09 Takeda Chemical Industries Ltd Polymer for et preparat med forlenget frigjöring, samt preparat med forlenget frigjöring
FR2671207B1 (fr) * 1991-01-02 1993-04-16 Abin Claude Reseau neuronal a operateurs binaires et procedes pour sa realisation.
EP0567557A1 (en) * 1991-01-15 1993-11-03 Trustees Of Boston University Vector associative map system
US5440742A (en) * 1991-05-10 1995-08-08 Siemens Corporate Research, Inc. Two-neighborhood method for computing similarity between two groups of objects
US5485621A (en) * 1991-05-10 1996-01-16 Siemens Corporate Research, Inc. Interactive method of using a group similarity measure for providing a decision on which groups to combine
US5317741A (en) * 1991-05-10 1994-05-31 Siemens Corporate Research, Inc. Computer method for identifying a misclassified software object in a cluster of internally similar software objects
US5428788A (en) * 1991-05-10 1995-06-27 Siemens Corporate Research, Inc. Feature ratio method for computing software similarity
US5438676A (en) * 1991-05-10 1995-08-01 Siemens Corporate Research, Inc. Method for adapting a similarity function for identifying misclassified software objects
EP0513652A2 (en) * 1991-05-10 1992-11-19 Siemens Aktiengesellschaft Method for modelling similarity function using neural network
WO1993010500A1 (en) * 1991-11-13 1993-05-27 Iowa State University Research Foundation, Inc. Improved memory capacity neural network
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
KR950012359B1 (ko) * 1992-08-28 1995-10-17 엘지전자주식회사 신경회로망 구조와 학습방법
US5371834A (en) * 1992-08-28 1994-12-06 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Adaptive neuron model--an architecture for the rapid learning of nonlinear topological transformations
US5412670A (en) * 1992-11-30 1995-05-02 Ricoh Corporation N-bit parity neural network encoder
JP3058774B2 (ja) * 1993-01-29 2000-07-04 株式会社河合楽器製作所 映像合成装置及び映像合成方法
US5479574A (en) * 1993-04-01 1995-12-26 Nestor, Inc. Method and apparatus for adaptive classification
US6167390A (en) * 1993-12-08 2000-12-26 3M Innovative Properties Company Facet classification neural network
US5837281A (en) 1995-03-17 1998-11-17 Takeda Chemical Industries, Ltd. Stabilized interface for iontophoresis
US5822741A (en) * 1996-02-05 1998-10-13 Lockheed Martin Corporation Neural network/conceptual clustering fraud detection architecture
DE19706576A1 (de) * 1997-02-20 1998-08-27 Alsthom Cge Alcatel Vorrichtung und Verfahren zur umgebungsadaptiven Klassifikation von Objekten
US6249775B1 (en) * 1997-07-11 2001-06-19 The Chase Manhattan Bank Method for mortgage and closed end loan portfolio management
US7096192B1 (en) * 1997-07-28 2006-08-22 Cybersource Corporation Method and system for detecting fraud in a credit card transaction over a computer network
US7403922B1 (en) 1997-07-28 2008-07-22 Cybersource Corporation Method and apparatus for evaluating fraud risk in an electronic commerce transaction
US6032136A (en) 1998-11-17 2000-02-29 First Usa Bank, N.A. Customer activated multi-value (CAM) card
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US7062462B1 (en) 1999-07-26 2006-06-13 The Chase Manhattan Bank On-line higher education financing system
US6366897B1 (en) 1999-07-26 2002-04-02 Hnc Software, Inc. Cortronic neural networks with distributed processing
US6505168B1 (en) * 1999-08-16 2003-01-07 First Usa Bank, Na System and method for gathering and standardizing customer purchase information for target marketing
US7542921B1 (en) 1999-09-30 2009-06-02 Jpmorgan Chase Bank, N.A. Network-based financial planning system and method
US7599879B2 (en) * 2000-03-24 2009-10-06 Jpmorgan Chase Bank, National Association Syndication loan administration and processing system
US7212996B1 (en) 2000-04-20 2007-05-01 Jpmorgan Chase Bank, N.A. System and method for dynamic, multivariable comparison of financial products
US7031935B1 (en) * 2000-07-31 2006-04-18 J.P. Morgan Advisory Services Inc. Method and system for computing path dependent probabilities of attaining financial goals
US7831467B1 (en) 2000-10-17 2010-11-09 Jpmorgan Chase Bank, N.A. Method and system for retaining customer loyalty
US6904408B1 (en) * 2000-10-19 2005-06-07 Mccarthy John Bionet method, system and personalized web content manager responsive to browser viewers' psychological preferences, behavioral responses and physiological stress indicators
US7295999B1 (en) 2000-12-20 2007-11-13 Jpmorgan Chase Bank, N.A. System and method for determining eligibility and enrolling members in various programs
US7472088B2 (en) * 2001-01-19 2008-12-30 Jpmorgan Chase Bank N.A. System and method for offering a financial product
US7895098B2 (en) 2001-03-01 2011-02-22 Jpmorgan Chase Bank, N.A. System and method for measuring and utilizing pooling analytics
US7865427B2 (en) 2001-05-30 2011-01-04 Cybersource Corporation Method and apparatus for evaluating fraud risk in an electronic commerce transaction
US7756896B1 (en) 2002-03-11 2010-07-13 Jp Morgan Chase Bank System and method for multi-dimensional risk analysis
US20030172017A1 (en) * 2002-03-11 2003-09-11 Vincent Feingold High performance multi-dimensional risk engines for enterprise wide market risk management
AU2003230751A1 (en) * 2002-03-29 2003-10-13 Bank One, Delaware, N.A. System and process for performing purchase transaction using tokens
US7606756B2 (en) * 2002-08-02 2009-10-20 Jpmorgan Chase Bank, N.A. Synthetic funds having structured notes
US20040148241A1 (en) * 2003-01-24 2004-07-29 Qi Thomas J. Method of evaluating a portfolio of leased items
US20040148566A1 (en) * 2003-01-24 2004-07-29 Jp Morgan Chase Bank Method to evaluate project viability
US20040236647A1 (en) * 2003-05-23 2004-11-25 Ravi Acharya Electronic checkbook register
US7668777B2 (en) 2003-07-25 2010-02-23 Jp Morgan Chase Bank System and method for providing instant-decision, financial network-based payment cards
US7624068B1 (en) * 2003-08-18 2009-11-24 Jpmorgan Chase Bank, N.A. Method and system for dynamically adjusting discount rates for a card transaction
US7953663B1 (en) 2003-09-04 2011-05-31 Jpmorgan Chase Bank, N.A. System and method for financial instrument pre-qualification and offering
US8175908B1 (en) 2003-09-04 2012-05-08 Jpmorgan Chase Bank, N.A. Systems and methods for constructing and utilizing a merchant database derived from customer purchase transactions data
US20050060252A1 (en) * 2003-09-11 2005-03-17 Andrew Doddington Graphical software tool for modeling financial products
US20050182713A1 (en) * 2003-10-01 2005-08-18 Giancarlo Marchesi Methods and systems for the auto reconsideration of credit card applications
US20090313163A1 (en) * 2004-02-13 2009-12-17 Wang ming-huan Credit line optimization
US7702767B2 (en) * 2004-03-09 2010-04-20 Jp Morgan Chase Bank User connectivity process management system
US8429006B1 (en) 2004-06-18 2013-04-23 Jpmorgan Chase Bank, N.A. System and method for offer targeting
US7974895B1 (en) 2004-07-16 2011-07-05 Jp Morgan Chase Bank System and method for developing finance rate information
US8533030B1 (en) 2004-08-30 2013-09-10 Jpmorgan Chase Bank, N.A. In-bound telemarketing system for processing customer offers
US7844518B1 (en) 2004-11-30 2010-11-30 Jp Morgan Chase Bank Method and apparatus for managing credit limits
US7480631B1 (en) 2004-12-15 2009-01-20 Jpmorgan Chase Bank, N.A. System and method for detecting and processing fraud and credit abuse
US20110161958A1 (en) * 2005-01-03 2011-06-30 Jp Morgan Chase Bank Method and system for managing business calculations using multi-dimensional data
US7890343B1 (en) 2005-01-11 2011-02-15 Jp Morgan Chase Bank System and method for generating risk management curves
US7925578B1 (en) 2005-08-26 2011-04-12 Jpmorgan Chase Bank, N.A. Systems and methods for performing scoring optimization
US8489497B1 (en) 2006-01-27 2013-07-16 Jpmorgan Chase Bank, N.A. Online interactive and partner-enhanced credit card
US7962396B1 (en) 2006-02-03 2011-06-14 Jpmorgan Chase Bank, N.A. System and method for managing risk
US7707192B1 (en) 2006-05-23 2010-04-27 Jp Morgan Chase Bank, N.A. Confidence index for assets
US8478637B1 (en) 2008-04-08 2013-07-02 Jpmorgan Chase Bank, N.A. Index for assessing discount potential
US10235686B2 (en) 2014-10-30 2019-03-19 Microsoft Technology Licensing, Llc System forecasting and improvement using mean field

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4719591A (en) * 1985-11-07 1988-01-12 American Telephone And Telegraph Company, At&T Bell Labs. Optimization network for the decomposition of signals
US4752906A (en) * 1986-12-16 1988-06-21 American Telephone & Telegraph Company, At&T Bell Laboratories Temporal sequences with neural networks
US4796199A (en) * 1987-02-24 1989-01-03 Oregon Graduate Center Neural-model, information-handling architecture and method

Also Published As

Publication number Publication date
US4897811A (en) 1990-01-30
EP0325119A2 (en) 1989-07-26
EP0325119B1 (en) 1995-09-06
EP0325119A3 (en) 1990-12-05
DE68924078D1 (de) 1995-10-12

Similar Documents

Publication Publication Date Title
JPH01223559A (ja) N次元クーロン神経ネットワーク
KR102571104B1 (ko) 신경망 하드웨어 가속기 아키텍처 및 그 동작 방법
Hecht-Nielsen Theory of the backpropagation neural network
Kung et al. A unified systolic architecture for artificial neural networks
Neocleous et al. Artificial neural network learning: A comparative review
Mühlenbein Limitations of multi-layer perceptron networks-steps towards genetic neural networks
JP2021518008A (ja) 重み更新回路および推論回路を別個に有する抵抗型処理ユニット・アーキテクチャ
Pfeifer et al. Beyond rationalism: Symbols, patterns and behavior
Hung et al. Training neural networks with the GRG2 nonlinear optimizer
Valle-Lisboa et al. Multiplicative processing in the modeling of cognitive activities in large neural networks
Licata Are neural networks imitations of mind
Fornarelli et al. Adaptive particle swarm optimization for CNN associative memories design
Dadios et al. Application of neural networks to the flexible pole-cart balancing problem
Lara Artificial neural networks: An introduction
JP3171897B2 (ja) 知識情報処理装置
Lukes et al. Expectation driven learning with an associative memory
Kasabov et al. Spatial-temporal adaptation in evolving fuzzy neural networks for on-line adaptive phoneme recognition
Marks et al. The performance of convex set projection based neural networks
Van der Spiegel et al. Artificial neural networks: principles and VLSI implementation
Ren et al. Toward robust visual cognition through brain-inspired computing
Deepthi et al. A new hierarchical pattern recognition method using mirroring neural networks
Yadav Neural Network based Analog-To-Digital Converter-Design, Simulation and Implementation
Olafsson Some dynamical properties of neural networks
Mayoraz Benchmark of some learning algorithms for single layer and Hopfield networks
Christianson Hessian-Free Optimization and its applications to Neural Networks