JP3043539B2 - ニューラル・ネットワーク - Google Patents

ニューラル・ネットワーク

Info

Publication number
JP3043539B2
JP3043539B2 JP5124869A JP12486993A JP3043539B2 JP 3043539 B2 JP3043539 B2 JP 3043539B2 JP 5124869 A JP5124869 A JP 5124869A JP 12486993 A JP12486993 A JP 12486993A JP 3043539 B2 JP3043539 B2 JP 3043539B2
Authority
JP
Japan
Prior art keywords
output
input
intermediate state
layer perceptron
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5124869A
Other languages
English (en)
Other versions
JPH06111038A (ja
Inventor
承 権 安
普 賢 王
碩 培 高
潤 根 李
Original Assignee
エルジー電子株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エルジー電子株式会社 filed Critical エルジー電子株式会社
Publication of JPH06111038A publication Critical patent/JPH06111038A/ja
Application granted granted Critical
Publication of JP3043539B2 publication Critical patent/JP3043539B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、新しいニューラル・ネ
ットワーク(neural Network)及びその操作方法に関す
る。
【0002】
【従来の技術】一般的に、ニューラル・ネットワークと
は、生物の脳の構造および動作原理を工学的に具現化し
たネットワークを意味する。
【0003】一般的にニューラル・ネットワークの構造
は、図1(a)に示すように複数の層により構成され、
各層は有限個の神経細胞(neuron)で構成される。
【0004】1個の層の一つの神経細胞は、隣接する他
の層の各神経細胞と連結されており、この連結特性は連
結強度という値でモデル化される。ニューラル・ネット
ワークの主な機能は、与えられた関数が所望の精度に近
づき或いは所望の精度以上となるように、連結強度を変
化させることにある。
【0005】このように特定の入力に対して特定の出力
が得られるように連結強度を定める方法を、学習法則と
いう。
【0006】図1(b)は、図1(a)の領域kの拡大
図で、1個の層の一つの神経細胞が隣接する他の層の各
神経細胞に相互に異なる連結強度で連結された状態を示
したものである。
【0007】図1(b)において、xi (x1 ,x2
…xn )は各神経細胞に入力される入力値を示し、wi
(w1 ,w2 ,…wn )は各神経細胞と各入力値xi
の連結強度を示し、また、神経細胞内の記号はしきい値
(threshold )を示す。ここで、nは正の整数である。
【0008】これにより、ニューラル・ネットワーク
は、その連結強度wi を変化させることによって、与え
られた入力値に対する所望の出力値を得る。
【0009】初期のニューラル・ネットワークの研究に
おいて、ニューラル・ネットワークの一種として、単層
パーセップトロン(single layered perceptron )とい
われる基本的なモデルが提案された。
【0010】この単層パーセップトロンは、図2(a)
に示すように、1個の入力層(input layer )と1個の
出力層(output layer)とからなる。この時、連結強度
(以下、加重値:weight)は単層である。この連結強度
(すなわち加重値)を調節するには最小平均自乗(Leas
t Mean Square )学習法が主に用いられる。
【0011】以下、単層パーセップトロンのオペレーテ
ィング過程を図6を参照して説明する。まず、図2
(a)に示す単層パーセップトロンについて考える。こ
の場合、入力データはn次元ベクトルXi =[x1 ,x
2 ,…xn ]であり、出力データはp次元ベクトルYi
=[y1 ,y2 ,…yp ]である。
【0012】出力側i番目の神経細胞と入力層j番目の
神経細胞とを連結する連結強度(すなわち加重値)はw
ijと表現できる。
【0013】したがって、Xi という入力を単層パーセ
ップトロンに供給した時に得られる出力はベクトル行列
の掛け算および合算により下記の式(1)で表現でき
る。 ここで、fは非線形函数である。
【0014】入力値Xi および出力値Yi に対してあた
えられたm個の学習(learning)データ(X1
1 ),(X2 ,Y2 ),…,(Xm ,Ym )を単層パ
ーセップトロンで学習するためには、下記式(2)で示
す最小平均自乗法により連結強度(すなわち加重値)を
調整しなければならない。 wij (k+1)=wij(k) +η(yi (k) −di (k) )xj (k) ………(2) ここで、di (k)は所望する出力であり、yi (k)
は実際の出力である。上記の式(2)によれば、学習デ
ータの内、1つの入力xi が印加された時、単層パーセ
ップトロンは、先に、所望する出力yi より実際の出力
i を減算して出力誤差を検出する。そしてこの出力誤
差を利用して入力層と出力層間の加重値を変化させた
後、出力誤差が所望する程減少したか否かをチャックし
て、減少したと判断すると、学習を終了し、減少しなか
ったと判断すると、出力誤差を検出する過程に復帰す
る。
【0015】上述のように、図2(a)の単層パーセッ
プトロンによれば、入力層および各神経細胞が出力層の
各神経細胞に独立的な連結強度(すなわち加重値)を有
して互に直接連結されるので、速い速度で正確に学習を
行うことができるという長所はあるが、線形分離問題
(Linearly seperable problem)を解決することしかで
きないという短所を有する。
【0016】単層パーセップトロンのように、入力(X
1 )および出力(Yi )を直接連結する構造(X1 ,Y
i )を直接連想(direct association)という。
【0017】したがって、単層パーセップトロンのよう
なニューラル・ネットワークは、連想記憶装置(Associ
ative Memory)の役割を行う内容参照メモリ(Content
Addressable Memory; 以下“CAM”という)ことがで
きる。
【0018】一般に、連想記憶装置またはCAMは、入
力があたえられた時、これより連想される出力を行な
う。位置参照メモリ(location addressable memory: L
AM)に対応する概念に照らして見れば、CAMは、部分
的な表現のみからでも、記憶された情報を類推できると
いう長所を有する。
【0019】一方、いくつかのパターン認識問題(Patt
ern recognition problem )をn次元の空間におけるn
−1次元の高次平面(Hyper plain )によって正確に分
けることができる場合、その問題を線形分離問題とい
う。
【0020】図3(a)は2次元の空間における線型分
離問題の一例を示す説明図である。すなわち、図3
(a)によれば、2次元の空間上のAおよびBの正確な
線型分離が可能である。また、線型分離問題に属しない
パターン認識問題を非線型分離問題(Nonlinearly Sepe
rble Problem)という。
【0021】図3(b)は2次元の空間における非線型
分離問題の一例を示す説明図である。すなわち、図3
(b)によれば、2次元空間上のXとOは直線により分
離できない。したがって非線型分離問題は図3(c)の
真理表に示すようにEXOR、すなわち排他的論理和に
該当するとするべきである。
【0022】しかし、パターン認識問題は、図5に示す
ように、ごく少数のもののみが線型分離問題に属し、大
部分のものが非線型分離問題に属する。
【0023】したがって、直接連想の概念を具現した単
層パーセップトロンは、MinskyおよびPapert(M. L. Mi
nsky and S. A. Papert, peceptron : An introduction
tocomputational Geometry. Cambridge, MA., MIT Pre
ss, expended edition, 1988.)による指摘の通り、回
路網の自身の表現能力(representation Capability)
が制限されることに起因して図3(b)に示すような非
線型分離問題を解決することができなかったので、ニュ
ーラル・ネットワークの他の種類として単層パーセップ
トロンの直列に連結させた多層パーセップトロン(Mult
i-layered perceptron)が提案された。
【0024】すなわち、単層パーセップトロンは線型分
離問題のみを解決することができる多層パーセップトロ
ンの短所を補完するためのもので、図2(b)に示すよ
うに、1つの入力層、1つの出力層、および、入力層と
出力層間に備えられた隠れ層(hidden layer)からな
る、3層以上の層を備えたニューラル・ネットワークで
ある。
【0025】多層パーセップトロンは、入力状態
(Xi )および出力状態(Yi )を中間状態(Zi )を
通じて間接的に連結させることにより、間接連想(indi
rect association)概念を具現化したものである。
【0026】すなわち、図4に示すように、直接連想
(Xi ,Yi )が論理的に1つのIF−THEN RU
LE(IF Xi ,THEN Yi )に該当すると、間
接連想(Xi ,Zi ,Yi )は三段論法(IF Xi
THEN Zi ,and IF Zi ,THEN Yi )に
該当する。
【0027】結局、直接連想をさらに容易に行うため
に、入力(Xi )と出力(Yi )間に中間段階(Zi
を挿入してZi ,Xi ,Yi で構成したものを間接連想
といい、論理学的な観点からは、間接連想は2つの直接
連想からなると解釈することができる。
【0028】換元すれば、間接連想は「Xi であれば、
i である」というルール及び「Zi であればYi であ
る」というルールで表現される三段論法であり、「Xi
であればZi である」、「Zi であればYi である」と
表現される2個の直接連想のルールに分離させることが
可能である。
【0029】このように分離されることにより、1つの
隠れ層を有する多層パーセップトロンは、2つの多層パ
ーセップトロンが直列に連結された構造であるというこ
とができる。多層パーセップトロンの学習方法(learni
ng method )としては、誤差逆伝搬(error back propa
gation)学習方法が広く用いられている。
【0030】この誤差逆伝搬学習方法によれば、充分な
個数の神経細胞が確保されれば、どのような函数であっ
てもある程度以上の正確度で近似化できることが、Horn
ik (K. Hornik, M. Stinchcomb, and H. White, “Mult
ilayer feed forward networks are universal approxi
mators”,Neual networks, Vol. 2. no. 5, pp. 359-3
66, 1989. )によって立証された。
【0031】この誤差逆伝搬学習方法は、図4に示した
間接連想の概念に照らして見れば、あたえられた入力デ
ータ(X1 )および出力データ(y1 )に対して線型分
離の可能の中間状態(Z1 )を自動的に探す方法である
と解釈される。
【0032】この誤差逆伝搬学習の原理は次の通りであ
る。学習データの内、1つの入力を与える場合、所望す
る出力(desired output)と実際の出力(actual outpu
t )との誤差(error )を利用して隠れ層と出力層との
間の加重値(以下、第2加重値という)すなわち第2連
結強度を変化させ、この第2加重値に関連させて入力層
と隠れ層との間の加重値(以下、第1加重値という)す
なわち第1連結強度を変化させる。
【0033】以下、多層パーセップトロンの動作を多層
パーセップトロンの漸減法である誤差逆伝搬学習過程を
示す図7および誤差伝搬学習の順序を示す図8を参照し
て説明する。
【0034】ここでは、図2(b)に示す多層パーセッ
プトロンについて考える。多層パーセップトロンに隠れ
層を追加した多層パーセップトロンの構造は、ニューラ
ル・ネットワークを用いて非線型分離問題を解決するこ
とができる可能性を提供する。
【0035】しかしながら、上述のような隠れ層の追加
により、多層パーセップトロンを学習させる際に使用し
た最小平均自乗法が、多層パーセップトロンでは使用す
ることができなくなるので、新しい態様の学習法則が要
求される。
【0036】この要求に応じる学習法則が、誤差逆伝搬
学習である。この誤差逆伝搬学習は下記の式(3)で表
現できる。 wij(k+1)=wij(k)+ηδijpj ………(3) ここで、wijはi番目の神経細胞とj番目の神経細胞と
の間の連結強度(すなわち加重値)であり、ηは学習常
数を示す。また式(3)でδijはp番目の入力を加えた
場合にj番目の神経細胞から得られる誤差項であって、
出力層に対しては下記式(4)で、また隠れ層に対して
は下記式(5)で表現できる。 δpj=KOpj(1−Opj)(dpj−Opj) ………(4) δpj=KOpj(1−Opj)Σ(δpjjk) ………(5) 式(4)(5)において、δpjはj番目の神経細胞の実
際の出力値であり、d ijはj番目の神経細胞について所
望される出力値である。またKは学習回数を示し、i,
j,p,kはすべての正の整数を示す。
【0037】図9(a)は最小平均自乗法により加重値
を調節する場合を示すエネルギーグラフで、加重値が最
小値(M)に収斂されると学習が終了する。
【0038】図9(b)は誤差逆伝搬学習により加重値
を調節する場合を示すエネルギーグラフで、加重値が曲
形の最小値(GM)に収斂されると学習が終了される。
【0039】上記式(3)、(4)、(5)によれば、
学習データの中1つの入力が供給される際、多層パーセ
ップトロンは、先に、所望する出力より実際の出力を減
算して出力誤差を検出する。この出力誤差を利用して隠
れ層と出力層間の第2加重値を変化させた後、第2加重
値に比例させて入力層と隠れ層間の第1加重値を変化さ
せる。
【0040】ついで出力誤差が所望する程減少したか否
かをチャックして、減少したと判断されると学習を終了
し、減少しなかったと判断されると出力誤差を検出する
過程に復帰する。
【0041】しかし、この誤差逆伝搬学習を用いた多層
パーセップトロンは、上述のように、非線型分離問題を
解決することができるという長所を有する。
【0042】
【発明が解決しようとする課題】しかしながら、このよ
うなニューラル・ネットワークには、Hornikによっても
提示されたように、次のような問題点を有する。 1.図9(b)に示すように、局所極少点(local erro
r minima : LM )に収斂し易い。 2.あたえられたm個の連想U(Xi ,Yi )に対して
適当なm個の間接連想U(Xi ,Zi ,Yi )を作る中
間状態(intermediate state)(Zi )を漸減法(grad
ient descent)により自動的に探す際や各層の加重値を
調整する際に出力層の誤差のみを用いるので、学習時間
が非常に長くなる。 3.図9(b)に示すように、加重値の初期の学習性能
に敏感に影響を受ける。換言すれば、初期加重値をどの
ように選択するかにしたがって学習性能が変化する。し
たがって学習性能の一定性が保障されない。例えば、図
9(b)において初期の加重値W(O)がそれぞれA,
B,C,Dに位置する場合、学習性能は下記の式(6)
のような順序を有する。 A>B>C>D ………(6) 4.学習データの適用順序にしたがって学習能率が異な
ることとなる。
【0043】このような4つの問題点によれば、上述し
た間接連想の概念に照らしてみれば、ニューラル・ネッ
トワークすなわち多層パーセップトロンが適切な中間状
態(Zi )を探すことができないことを意味する。
【0044】本発明の第1目的は、上述した単層パーセ
ップトロンおよび多層パーセップトロンの欠点を除去す
るためのもので、間接連想の概念を導入することによっ
て学習速度を向上させるとともに構成を単純化させるこ
とができる内容−位置−内容参照メモリ(Content-Loca
tion-Content Addressable Memory )で構成された新し
いニューラル・ネットワーク及びその操作方法を提供す
ることにある。
【0045】本発明の他の目的は、間接連想の概念を導
入することによって、学習速度を向上させるとともに構
成を単純化させることができる位置−内容参照混成メモ
リ(Hybrid Location-Content Addressable Memory)で
構成された新しいニューラル・ネットワーク及びその操
作方法を提供することにある。
【0046】
【課題を解決するための手段】上記の目的を達成するた
めの本発明の一つの態様によれば、まず、間接連想コー
ド発生手段は、入力データ(Xi )および出力データ
(Yi )に対応させて、線型分離が可能な第1中間状態
1iおよび第2中間状態Z2iを求め、これにより、この
間接連想の概念に対応する2種類の直接連想(Xi ,Z
1i)および(Z2i,Yi )を得る。
【0047】入力側の単層パーセップトロンは、あたえ
られた入力情報Xi および第1中間状態Z1iに対する線
形分離問題である直接連想(Xi ,Z1i)を具現化し、
位置参照メモリのアドレスとして第1中間状態Z1iを出
力する。
【0048】一方、学習手段は、2つの直接連想
(Xi ,Z1i),(Xi ,Z2i)についての訓練を、最
小平均自乗法を用いて行なう。位置参照メモリは、入力
側単層パーセップトロンに対する第1中間状態Z1iをア
ドレスとして記憶し、出力側単層パーセップトロンに対
する第2中間状態Z2iをアドレスに相応する内容として
記憶する。すなわち、第1中間状態Z1iと第2中間状態
2iとを直列連結する。
【0049】本発明の他の態様によれば、間接連想コー
ド発生手段は、間接連想による入力データ(Xi)およ
び出力データ(Yi)に対応させて、線型分離が可能な
中間状態Ziを求め、これにより、1つの直接連想
(Xi,Yi)から2種類の直接連想(Xi ,Zi),
(Zi,Yi)を得る。
【0050】単層パーセップトロンは、あたえられた入
力データXi および中間状態Zi に対する線形分離問題
についての直接連想(Xi ,Zi )を具現化し、位置参
照メモリのアドレスとしてその中間状態Zi を出力す
る。
【0051】学習手段は、前記直接連想(Xi ,Zi
を、単層パーセップトロンから最小平均自乗法を用いて
訓練させる。位置参照メモリは、単層パーセップトロン
より出力される中間状態Zi をアドレスとして入力し、
各アドレスに対応してあたえられた出力データYi を所
望する出力データとして格納する。
【0052】前述の第1の態様および第2の態様によれ
ば、構造が簡単でかつ学習速度が速いニューラル・ネッ
トワークを提供することが可能となる。
【0053】
【実施例】以下、添付された図面を参照して本発明の第
1実施例および第2実施例を詳細に説明する。第1実施例 本発明の第1実施例によるニューラル・ネットワーク
と、その操作方法を説明する前に、すでに上述したが、
本発明の理解のためにいろいろな先行技術を要約して再
度説明する。
【0054】ニューラル・ネットワークは、連想記憶装
置の役割をする内容参照メモリである。連想記憶装置
は、入力があたえられた時、このあたえられた入力より
連想される出力を引き出す。
【0055】単層パーセップトロンは直接連想概念を具
現するが、多層パーセップトロンは間接連想概念を具現
化する。
【0056】論理学的な観点から、間接連想は2つの直
接連想であると解釈することができる。換言すれば、間
接連想は、下記式(7)で表現される三段論法である。
この三段論法は下記式(8),(9)で表現されるよう
な2つのルールで表現される2つの直接連想に分離する
ことが可能である。 XであればZであり、ZであればYである ………(7) XであればZである ………(8) ZであればYである ………(9) このような分離により、1つの隠れ層を有する多層パー
セップトロンは、2つの単層パーセップトロンが直列連
結された構造であるとみなされる。
【0057】先行技術において説明した誤差逆伝搬の学
習は、あたえられたm個の連想U(Xi ,Zi )に対し
て適合するm個の間接連想を作るための中間状態Zを漸
減法(gradient descent method )により自動的に探す
ものである。
【0058】しかし、この時、すでに説明したように、
4つの重大な問題が発生する。これらの問題点を解決す
るために、第1実施例のニューラル・ネットワークで
は、間接連想U(Xi ,Zi ,Yi )から分離されてな
る2つの直接連想U(Xi ,Zi ),U(Zi ,Yi
を線形分離問題に導入するための2つの中間状態Z1i
2iを、使用者が直接探す。分離された直接連想U(X
i ,Zi ),U(Zi ,Yi )は最小平均自乗法で学習
され、中間状態Z1i,Z2iは位置参照メモリ(Location
Addressable Memory : LAM )により連結される。
【0059】上述のように、第1実施例により提案され
る新しい態様のニューラル・ネットワークは、2つの独
立した直接連想で構成され、2つの中間状態が連結され
なければならないので、図10および図11のような新
しいネットワーク構造が要請される。
【0060】図10は本発明の第1実施例による新しい
ニューラル・ネットワークの概念的な構成ブロック図
で、あたえられた入力Xi と、使用者により求められた
第1中間状態Z1iに対する線形分離問題である直接連想
(Xi ,Z1i)を具現化する入力側単層パーセップトロ
ン(10)と、あたえられた出力Yi と使用者により求
められた第2中間状態Z2iに対して線形分離問題である
直接連想(Z2i,Yi )を具現化する出力側単層パーセ
ップトロン(20)と、第1中間状態Z1iと第2中間状
態Z2iとを連結させるための位置参照メモリ(30)が
含まれる。
【0061】ここで、位置参照メモリ(30)は、一般
的なメモリ素子で、アドレスディコーディング部分(3
0a)、各アドレスに該当する内容を格納する内容部分
(30b)およびデータ出力部分(30c)で構成され
る。
【0062】図10において第1単層パーセップトロン
(10)および第2単層パーセップトロン(20)は、
上述のように内容参照メモリといわれる。本発明の第1
実施例によるニューラル・ネットワークは図10に示す
ように、2つの内容参照メモリと、それらの間に設けら
れる位置参照メモリで構成されるので、内容−位置−内
容参照メモリ(CLCAM)といわれる。
【0063】一方、外部よりあたえられたm個の直接連
想(Xi ,Zi )を図10のCLCAMに学習させるた
めには、間接連想の概念によってあたえられた直接連想
(Xi ,Yi )より分離される直接連想U(Xi
1i),U(Z2i,Yi )がそれぞれ線形分離の問題に
なるようにするための第1中間状態Z1iおよび第2中間
状態Z2iを簡単かつ体系的に求める方法が必要となる。
【0064】この問題を間接連想コード発生問題(inde
rect association code generationproblem)といい、
この問題を解決するための種々の方法の内、第1実施例
においては補数関係データ(Complement data )の幾何
学的な配置に基づいた解決方法を提案する。
【0065】また、あたえられたm個の連想U(Xi
i )に対する間接連想問題の解として、第1中間状態
1iおよび第2中間状態Z2iが求められると、第1実施
例では、最終的に、最小平均自乗法を利用して入力側の
内容参照メモリ(例えば単層パーセップトロン)および
出力側の内容参照メモリ(例えば単層パーセップトロ
ン)の学習を行なう。
【0066】したがって、図10に示すCLCAMは図
11に示すように、さらに具体的に構成され得る。
【0067】すなわち、図11のCLCAMは、あたえ
られた入力データXi および出力情報Yi により線形分
離が可能な第1中間状態Z1iおよび第2中間状態Z2i
作る間接連想コード発生装置(40)と、あたえられた
入力情報Xi および第1中間状態Z1iに対して線形分離
問題である直接連想(Xi ,Z1i)を具現化する入力側
単層パーセップトロン(50)と、あたえられた出力Y
i および第2中間状態Z2iに対して線形分離問題である
直接連想(Z2i,Yi )を具現化する出力側単層パーセ
ップトロン(60)と、かつ直接連想(Xi ,Z1i
(Z2i,Yi )を最小平均自乗法で学習させるための学
習装置(70)と、入力側単層パーセップトロン(5
0)の第1中間状態Z1iと出力側単層パーセップトロン
(60)の第2中間状態Z2iとを直接連結する位置参照
メモリ(80)を備える。
【0068】図10と同様、入力側単層パーセップトロ
ン(50)および出力側単層パーセップトロン(60)
は、それぞれ内容参照メモリで構成される。
【0069】また、位置参照メモリ(80)は、一般的
なメモリ素子として、アドレスデコートディング部(8
0a)、内容部(80b)およびデータ出力部(80
c)からなる。
【0070】以下、図11によるCLCAMの操作過程
を説明する。CLCAMの操作過程は、大別して図12
(a)のような学習過程と図12(b)のような連想過
程とに区分される。
【0071】学習過程は、図12(a)に示したよう
に、あたえられた入力データXi を利用し、間接連想コ
ード発生装置(40)用いて、線形分離問題を作る第1
中間状態Z1iを求める第1学習過程と、図12(a)の
ようにあたえられた出力データYi を利用し、間接連想
コード発生装置(40)を用いて、線形分離問題を作る
第2中間状態Z2iを求める第2学習過程と、図12
(b)のように第1学習過程および第2学習過程を通じ
て得られた2つの直接連想、すなわち入力データXi
よび第2中間状態Z1iに対する直接連想(Xi ,Z1i
と、第2中間状態およびZ2i出力データYi に対する直
接連想(Z2i,Yi )とを、それぞれ入力側単層パーセ
ップトロン(50)および出力側単層パーセップトロン
(60)から最小平均自乗法で訓練(training)させる
第3学習過程と、からなる。 ◎ 第1学習過程 図13に示すように、あたえられた入力データXi に対
して線形分離にあるコード(code)、すなわち第1中間
状態Z1iを、補数関数データの幾何学的な配置に基づい
た方法を利用して下記のような段階を通じて作る。 i) あたえられた二進数の入力データXi を、大きさの
順序通り配列する。 ii)最左方のビットが‘0’であるか‘1’であるかに
よって、2つの集合に分ける。
【0072】この時、第1ビットが‘0’の入力データ
i からなる集合をAと定義し、第1ビットが‘1’の
入力データXi からなる集合をBと定義する。
【0073】もし、あたえられた入力データXi の第1
ビットがすべて‘0’であればBは空集合になり、あた
えられた入力データXi の第1ビットがすべて‘1’で
あればAは空集合になる。 iii) 図14(a)に示すように、集合Aの要素から、
補数が集合Bの要素となるものをすべて探す。 iv) 段階(iii)で探す要素をX1 と定義すると、この
場合、X1 はAの要素となり、X1 はBの要素とな
る。X1 を集合Bに移し、Xi と補数関係にある要素X
1 を集合Aに移した後、集合Aに属するすべての要素
に‘0’を割当て、集合Bに属するすべての要素に
‘1’を割当てる。このような過程をコーディングとい
う。i番目のコーディングにより得られた二進数のベク
トル(vector)をgi とする。 v) gi ={g1 ,g2 ,…gs }が、あたえられた入
力データXi のベクトルgi をすべて区分することがで
きれば、コーディングを終了する。
【0074】もし、区分することができなければ、区分
が可能する時までコーディングを繰り返す。 vi) 図14(b)に示すように、交換しようとする補
数要素Xi がなければ、集合Aの要素を1ビットだけ
変化させて得た仮想要素の補数となるすべての要素を、
集合Bから探す。もし、該当する要素が存在すれば、そ
の要素を1つずつ交換しながら、入力データのベクトル
をすべて区分することができるまで、コーディングを遂
行する。 vii) 段階(vi)のコーディングについてもあたえられ
た入力データXi をすべて区分することができなけれ
ば、図14(c)に示すように、集合Aと集合Bの要素
を1つずつ反対側の集合に移しながら、入力データのベ
クトルをすべて区分することができる時まで、コーディ
ングを遂行する。 viii) 図15に示すような、他と区別できるすべての
入力データのベクトルgi ={g1 ,g2 ,…,gs
を、図11に示した位置参照メモリ(80)のアドレス
を示す第1中間状態Z1iとして、格納する。 ◎ 第2学習過程 あたえられた出力データYi に対して線形分離している
コード、すなわち第2中間状態Z2iを、間接連想コード
発生装置(40)を通じて作る。
【0075】図16に示すように、このコード生成方法
は、出力データYi が‘1’である場合には‘00’を
割当て、出力データYi が‘0’である場合には、‘1
1’を割当てて、あたえられた出力データYi に対して
線形分離している間接コードを作り、位置参照メモリ
(80)の内容として記憶させる。‘00’の代わりに
‘01’または‘10’のいずれかを用いることができ
る。 ◎ 第3学習過程 第1学習過程および第2学習過程から求めた線形分離問
題にある第1中間状態Z1i、第2中間状態Z2i、あたえ
られた入力データXi および出力データYi に対して具
現化される線形分離問題の直接連想(Xi ,Z1i)およ
び直接連想(Z2i,Yi )を、それぞれ入力側内容参照
メモリ(すなわち単層パーセップトロン(50))およ
び出力側内容参照メモリ(すなわち単層パーセップトロ
ン(60))から、図11の学習手段(70)により最
小平均自乗法で学習させる。 ◎ 連想過程 この連想過程は、第1連想過程と第2連想過程とからな
る。 i) あたえられた入力データXi が前記学習過程を通じ
て学習された図11のCLCAMの入力側単層パーセッ
プトロン(50)に入力されると、入力側単層パーセッ
プトロン(50)は位置参照メモリ(80)のアドレス
として使用される線形分離が可能な第1中間状態Z1i
出力する。 ii) 位置参照メモリ(80)は入力されるアドレスに
該当する内容、すなわち学習過程における内容として格
納された線形分離可能な第2中間状態Z2iを出力する。
この第2中間状態Z2iは出力側単層パーセップトロン
(60)の入力となる。この時、出力側単層パーセップ
トロン(60)から得られた出力が、所望する出力とな
る。
【0076】上述のように、本発明の第1実施例は、間
接連想概念という思想に立脚して新しい種類のニューラ
ル・ネットワーク及びその操作方法を提案する。
【0077】本発明は、上述した範囲に限定されるもの
ではなく、間接連想を具現化するための間接連想コード
発生方法を変更することにより、図11のCLCAMで
使用された内容参照メモリ(すなわち単層パーセップト
ロン)の数を増加させることができる。
【0078】例えば、特定の種類のパターン認識問題を
解くためには、図11に示すようなCLCAMを、複数
個階層的(直列に)連結して、ニューラル・ネットワー
クを構成することもできる。
【0079】また、特定の種類の問題を解くためには、
図9に示すようなCLCAMを複数個並列に連結してニ
ューラル・ネットワークを構成することもできる。
【0080】さらに、もし、あたえられた入力データX
i および出力データYi が実数ベクトル(real-valued
vector)であれば、CLCAMと共にq‐レベル変換器
(Q-level quantizer)またはアナログ‐ディジタル変換
器を用いてニューラル・ネットワークを構成することも
できる。
【0081】第1実施例のCLCAMによれば、従来の
ような誤差逆伝搬学習方法を用いる多層パーセップトロ
ンと比べて、次のような効果がある。 1. 学習時間が速くなる。 2. 局所極小点に落ちないので、どのようなデータが
与えられても学習が可能である。 3. どのような初期加重値を選択しても、優れた学習
性能が保障される。 4. 学習データを加える順序とは関係なく、学習性能
を保障することができる。 5. 同一の複雑度を有する他のニューラル・ネットワ
ークと比べて多量の情報を記憶することができ、また学
習させることができる。 6. 大容量の単語を記憶する映像認識、音声認識、文
書認識、画像認識、神経制御網、予測システムおよび推
論システムのようなパターン認識システムにおいて、高
い認識率を保障することができる。 7. 雑音が多い場合にも、高い認識率を保障すること
ができる。 8. ニューラル・ネットワークにおける、高い制御性
能を保障することができる。
【0082】上述のCLCAMは、多層パーセップトロ
ンに比べて優れた効果を有する。しかしCLCAMの構
成の内、出力側単層パーセップトロンは、位置参照メモ
リに故障がないという仮定下においては、CLCAMの
一般的な能力に特別な影響をあたえないので、必須不可
欠な要素ではない。
【0083】第2実施例 第2実施例は第1実施例によるCLCAMと同様の性能
を保持すると共に、CLCAMの構造を単純化させるこ
とができ、かつ学習速度を向上させることができる、改
善されたニューラル・ネットワーク及びその操作方法を
提供するためのものである。
【0084】図17は第2実施例に係るニューラル・ネ
ットワークの概念的な構成ブロック図で、あたえられた
入力Xi と、使用者により人為的な線形分離を行うこと
ができるように求められる中間状態Zi に対して線形分
離問題となる直接連想(Xi,Zi )を具現化する単層
パーセップトロン(110)と、単層パーセップトロン
(110)より出力される中間状態Zi をアドレスとし
て入力し、あたえられた出力データYi をアドレスに対
応させて、所望する出力値として格納する位置参照メモ
リ(120)とを備える。
【0085】ここで、位置参照メモリ(120)は、一
般的なメモリの構成と同一であり、アドレスディコーデ
ィング部(120a)、各アドレスに該当する内容を格
納する内容部(120b)およびデータ出力部(120
c)で構成される。
【0086】第1実施例で説明したように、単層パーセ
ップトロンは内容参照メモリと言われる。
【0087】図17のニューラル・ネットワークは図1
8に示すように、さらに具体的に構成することができ
る。
【0088】図18のニューラル・ネットワークは、あ
たえられた入力データXi より線形分離が可能な第1中
間状態Zi を作る間接連想コード発生装置(130)
と、あたえられた入力データXi およびあたえられた中
間状態Zi に対する直接連想(Xi ,Zi )を具現化す
る単層パーセップトロン(140)と、直接連想
(Xi,Zi )を最小平均自乗法で単層パーセップトロ
ン(140)において学習させるための学習装置(15
0)と、単層パーセップトロン(140)より出力され
る中間状態Zi をアドレスとして入力し、各アドレスに
対してあたえられた出力データYi を、所望する出力デ
ータYi として格納する位置参照メモリ(160)とか
らなる。
【0089】図17と同様に、位置参照メモリ(16
0)は、一般的なメモリ素子の構造であり、アドレスデ
ィコーディング部(160a)、あたえられた出力デー
タYiを各アドレスに該当する内容として格納する内容
部(160b)およびデータ出力部(160c)で構成
される。
【0090】図18のニューラル・ネットワークによれ
ば、直接連想(Xi ,Yi )を間接連想に相応する2つ
の直接連想(Xi ,Zi ),(Zi ,Yi )に変換し、
前者の直接連想(Xi ,Zi )のみを線形分離が可能と
なるように作った後、単層パーセップトロン(140)
から学習させる。
【0091】後者の直接連想(Zi ,Yi )は直接位置
参照メモリ(160)に記憶させる。この時、後者の直
接連想(Zi ,Yi )は、直接位置参照メモリ(16
0)に記憶されるので、線形分離が可能となるようにす
る必要がない。
【0092】すなわち、出力側に対して、中間状態に該
当する間接連想コードをさらに作る必要がないので、第
1実施例によるCLCAMに比べて間接連想コード生成
時間が短縮され、後者の単層パーセップトロンを除去す
ることができるので、ニューラル・ネットワークの構成
が簡略化できる。
【0093】図17のニューラル・ネットワークは、1
つの内容参照メモリ(すなわち、単層パーセップトロ
ン)と、1つの位置参照メモリとで構成されるので、位
置‐内容参照が可能なメモリ(Hybrid Location-Conten
t Addressable Memory : HyLCAM)と言われる。
【0094】外部よりあたえられたm個の直接連想(X
i,Zi)を図17のHyLCAMに学習させるために
は、あたえられた直接連想(Xi,Yi )より分離され
る直接連想(Xi,Zi)が線形分離の問題となるように
するための中間状態を体系的に求められるような方法を
使用することが必須である。
【0095】この問題を間接連想コード発生問題(indi
rect association code generationproblem)という。
【0096】第2実施例では、種々の解決方法の中で、
自己複製法(auto-association)および補数関係データ
(Complement data)の幾何学的な配置に基づいたコーデ
ィング方法を利用する。
【0097】この方法の効率は、あたえられた入力デー
タXi の数mとこの入力データXiに対する補数データ
i の数sと、入力データXi の大きさnによって決
定される。
【0098】もし、n>m−s−1であれば、自己複製
法の方が効率的であり、n>m−s−1でなければ、補
数関係データの方が効率的である。
【0099】自己複製法とは、入力データXi をそのま
ま単層パーセップトロン(140)の出力、すなわち中
間状態Zi として使用する方法である。この方法では間
接連想コードを作る必要がなく、補数関係データの幾何
学的な配置による間接連想コード生成方法と比較して図
18に示した間接連想コード発生装置(130)の構造
をさらに簡略に構成することができるという長所があ
る。
【0100】この補数関係データの幾何学的な配置に基
づいて間接的な線形分離が可能であることはすでに証明
されており、これは下記のHyLCAMの操作による補
数関係データの幾何学的な配置を根拠とした間接連想コ
ード生成方法や、やはり下記のHyLCAMの操作の説
明とともに、詳細に説明する。
【0101】図18に示したHyLCAMの操作過程
は、大別して図19(a)に示した学習過程と、図19
(b)に示した連想過程とに区分される。
【0102】図19(a)に示すように、学習過程は、
あたえられた入力データXi および出力データYi を利
用して、間接連想コード発生装置によりあたえられた入
力データXi に対して線形分離が可能な間接連想コード
を、1つの中間状態Zi として求める第1学習過程と、
間接連想概念にしたがって第1学習過程から求めた中間
状態Zi およびあたえられた入力データXi に対する直
接連想(Xi ,Zi )を単層パーセップトロンから最小
平均自乗法で訓練させ、中間状態Zi を位置参照メモリ
のアドレスディコーディング部(160a)に記憶さ
せ、あたえられた出力データYi を位置参照メモリ(1
60)の内容部(160b)に記憶させる第2学習過程
と、からなる。 ◎ 第1学習過程 第1学習方法は、上述のように、2つの方法、すなわち
自己複製方法と補数関係データの幾何学的な配置に基づ
いた方法とにより遂行される。
【0103】以下、これらを図20を参照して説明す
る。 ◎ 自己複製法 もし、n>m−s−1であれば、間接連想コード発生方
法として、自己複製法を使用する。
【0104】この方法は、あたえられた入力データXi
を、図17および図18の単層パーセップトロンの出力
(または中間状態Zi )として使用する。
【0105】すなわち、Zi =Xi である。この間接連
想コード発生方法は、すべての自己複製(auto-associa
tion)(X1 ,X1 ),(X2 ,Y2 )…(Xm
m )は、線形分離が可能であるという事実に基づくも
のである。
【0106】ここで、Xi はn次元のベクトルである。
また、Zi =Xi であるので、生成された直接連想(X
i ,Zi )は線形分離が可能であり、中間状態Zi を表
現するベクトルの大きさは入力ベクトルの大きさと同一
である。
【0107】すなわちh=nである。この自己複製法
は、剰余(redundant)データを根拠とする間接連想コー
ド生成方法と呼ばれ、これを定理(theorem)と証明(pr
oof)および系(corollary)の順に詳細に説明する。
【0108】この方法は剰余データの対(pairs)が、線
形分離可能であることを示す、次の定理から得られる。 定理1:剰余データ対(X1 ,X1 )…(Xm ,Xm
は各入力データXi がn次元(dimensional)の二進ベク
トルである場合、線形分離が可能である。 証明:nを特定の値とした場合の証明を、一般的な場合
すなわちnを任意の値とした場合にまで拡張することは
容易であるので、まずn=3と仮定する。
【0109】そして、m=2n =8の場合を考える。
【0110】あたえられたスイッチング関数としての自
己複製は、1つの真理テーブル(truth table)で表すこ
とができる。
【0111】このことは、デーブル1の1番目および2
番目のコラム(column)に示されている。
【0112】 テーブル1:自己複製の真理テーブルおよびこれに対応する不等式 1 2 3 1 2 3 不等式 0 0 0 0 0 0 0<T 0 0 1 0 0 1 W3 <T 0 1 0 0 1 0 W2 <T 0 1 1 0 1 1 W2 +W3 <T 1 0 0 1 0 0 W1 >T 1 0 1 1 0 1 W1 +W3 >T 1 1 0 1 1 0 W1 +W2 >T 1 1 1 1 1 1 W1 +W2 +W3 >T
【0113】 テーブル2:f2 の線形分離を評価するためのテーブル 1 2 3 2 不等式 0 0 0 0 0<T 0 0 1 0 W1 <T 0 1 0 0 W3 <T 0 1 1 0 W1 +W3 <T 1 0 0 1 W2 >T 1 0 1 1 W1 +W2 >T 1 1 0 1 W2 +W3 >T 1 1 1 1 W1 +W2 +W3 >T ついで、スイッチング関数f1 の線形分離問題を考え
る。スイッチング関数の理論(theory)に基づいて8個
の不等式が構成されてテーブル1の3番目のコラムに記
載さている。上方から4番目の列までは矛盾(contradi
ction)がないことが容易に発見される。
【0114】矛盾がないということは、その不等式を満
足する加重値W1 が存在することを意味する。下方から
4番目の列(bottom four rows)までは利得項(gain t
erm)W1 を加算し、上方から4番目の列に対して不等号
を反対にすることにより容易に得られるので、それには
どんな矛盾もないということが注目される。
【0115】上方および下方の式は、共通のパターンを
有するので、下記式(10),(11),(12),
(13)のように、結合して示すことができる。 T’≦0 <T ………(10) T’≦W3 <T ………(11) T’≦W2 <T ………(12) T’≦W2 +W3 <T ………(13) ここで、T’=T−W1 である。式(10)〜(13)
を満足するW1 ,TおよびT’を探すことは保障されて
いる。したがって、スイッチング関数f1 は線形分離が
可能であると結論できる。スイッチング関数f2 の線形
分離は、テーブル2に示すように、真理テーブルを再作
成する方法により立証することができる。
【0116】これに対応する不等式は、スイッチング関
数f1 を用いて作った式と同じパターンのものであり、
添字が異なるだけである。
【0117】スイッチング関数f1 の線形分離を証明す
る場合と同じの理由により、スイッチング関数f2 も線
形分離が可能であると結論できる。
【0118】スイッチング関数f3 の線形分離も、同様
の手順で確められる。
【0119】最後に、m<2n の場合を考える。この場
合は、考慮しない項(Don't care terms)としてみるこ
とのできる欠落項が存在することを意味する。
【0120】非矛盾式(noncontradictory equations)
の部分集合は、常に非矛盾であるので、考慮しない項は
スイッチング関数の線形分離には影響をあたえない。
【0121】この証明は、常に非矛盾不等式を作る真理
テーブル内において共通パターンとして存在するものと
することを考慮することにより、任意の数nに対して容
易に拡張することができる。系1:単層パーセップトロ
ンは、各入力データXi がn次元二進ベクトル(binary
vector)である場合において、常に自己複製(Xi ),
(Xi )…(Xm ),(Xm )を表し、学習することが
できる。証明:定理1およびRosenblattによるパーセッ
プトロンカンバーゼンス(convergence)定理(F.Rosenb
latt, Principles of Neurodynamics, NewYork, Sparta
nBooks, 1959 。)により証明される。
【0122】定理1および系1は、自己複製の使用が間
接コード生成問題に対する簡単な解答を提供することが
できることを意味する。この場合において、中間状態Z
i の次数は上述のように入力状態のそれと同一である
(h=n)。 ◎ 補数関係データの幾何学的な配置に基づく間接コー
ド生成方法 n≦m−s−1であれば、前記自己複製方法を適用せ
ず、入力データXi に対して線形分離となる間接連想コ
ードを、補数関係データの幾何学的な配置に基づくコー
ド生成法を使用して作る。
【0123】この間接連想コードの生成方法は、第1実
施例において第1中間状態Zi として使用された間接コ
ード生成方法と類似している。
【0124】理解のために、この方法を図20を参照し
て、以下のように、段階別に再度説明する。 i) あたえられた二進数の入力データXi を大きさの順
序通り配列し、最左方のビットが‘0’であるものと
‘1’であるものとの2つの集合に分ける。
【0125】この時、第1ビットが‘0’である入力デ
ータの集合をAとし、第1ビットが‘1’である入力デ
ータの集合をBとする。
【0126】もし、あたえられた入力データXi の第1
ビットがすべて‘0’であるとBは空集合になり、あた
えられた入力データXi の第1ビットがすべて‘1’で
あるとAは空集合になる。 ii) k=0と設定する。
【0127】集合Aの要素に‘0’を割当て、集合Bの
要素に‘1’を割当てて、gk を作る。 iii) 集合Aの要素から、補数が集合Bの要素となるも
のをすべて探す。
【0128】これにより探したデータの数をsとする。
もし、s=0であれば、ステップ(iv)に移行する。 iv) k=k+1と設定する。
【0129】Xi がAの要素であり、Xi がBの要素
であるXi を考える。Xi を集合Bに移し、Xi に補数
関係がある要素Xi を集合Aに移した後、これにより
作った集合をAk およびBk とする。
【0130】集合Ak に属するすべての要素に‘0’を
割当て、集合Bk に属するすべての要素に‘1’を割当
ててgk を作る。 v) {g1 ,g2 ,…gk }を列ベクトルとする行列G
を考える。
【0131】この時、Gの行ベクトルは中間状態Zi
なり、この中間状態Zi が入力ベクトルをすべて区分す
ることができれば、ステップ(vii)に移行する。
【0132】もし、区分することができなければ、k=
sとなるまでステップ(vi)を繰り返す。 vi) k=0と設定する。
【0133】集合Aの要素の補数が集合Bに存在しない
場合は、この要素を集合Bに移し、これにより作った集
合をAs+k およびBs+k とする。集合As+k のすべての
要素に‘0’を割当て、集合Bs+k のすべての要素に
‘1’を割当てることにより、ベクトルgs+k を求め
る。 vii) 二進ベクトルgs+k を列ベクトルとする行列を考
えると、その行列の行ベクトルを中間状態Zi として定
め、求めた中間状態Zi があたえられた入力ベクトルを
すべて区分することができるようになるまで、ステップ
(vi)を繰り返す。 viii) コード生成を終了する。 ◎ 第2学習過程 第2学習過程は、第1学習過程から作られた中間状態Z
i を利用して求めた2つの直接連想(Xi ,Zi )(Z
i ,Yi )の内で、前者の直接連想(Xi ,Zi )を図
18に示す単層パーセップトロンから最小平均自乗法で
学習させる段階と、後者の直接連想(Zi ,Yi )を図
18の位置参照メモリ(160)にアドレスおよび内容
として格納する段階とからなる。 ◎ 連想過程 HyLCAMの連想作用は、次の通りである。図19
(b)に示すように、学習された図18のHyLCAM
にあたえられた入力データXi が入力されると、多層パ
ーセップトロンは位置参照メモリのアドレスとして中間
状態Xi を出力する過程と、位置参照メモリは単層パー
セップトロンにより出力されたアドレスに該当する内容
すなわちあたえられた出力データYi を出力する過程と
らかなる。
【0134】上述のように、第2実施例では間接連想概
念の思想に立脚して新しいニューラル・ネットワーク及
びその操作方法を提供した。
【0135】間接連想を具現化するために、また他の間
接連想コード合成方法を使用することにより、HyLC
AMから使用される単層パーセップトロンの数を増加さ
せることができる。
【0136】特定の種類の問題を解するためには、図1
7、図18に示すようなHyLCAMの多数を直列に連
結してニューラル・ネットワークを構成することもでき
る。
【0137】また、特定の種類の問題を解するために
は、いくつのHyLCAMを並列的に連結してニューラ
ル・ネットワークを構成することもできる。
【0138】また、あたえられた入出力データが実数ベ
クトル(real-valued vector)であれば、q‐レベル量
子化器(Q-level quantizer)またはアナログ‐ディジタ
ル変換器(A/D Converter)をHyLCAMと共に用いて
ニューラル・ネットワークを構成することもできる。
【0139】以上説明したように、本発明の第2実施例
によれば、HyLCAMは、第1実施例のCLCAMと
比較して出力側単層パーセップトロンが除去されるの
で、ニューラル・ネットワークの構造が簡単となり、自
己複製法による間接コード(すなわち、中間状態)の生
成により学習時間が短縮されるという効果を有する。
【0140】もちろん、HyLCAMは従来の多層パー
セップトロンと比較して第1実施例で説明したCLCA
Mのすべての長所を同様に有する。
【0141】上述した第2実施例として提案したHyL
CAMの性能を評価するために、n個の入力に1つの出
力を有する簡単なEXORの問題の例をあげる。
【0142】この問題の興味深いのは、すでにPDP
Group(D.E.Rumelhart, G.E.Hinton, and R.J.wil
liams,“Learning internal representations by error
propagation”in parallel Distributed Processing.
Cambridge, MA; MIT press,1988, pp.318〜362 .)が
提示したように、誤差逆伝搬により学習された多層パー
セップトロンがこの問題に対して局所極小点に収斂され
る場合があるためである。
【0143】まず、HyLCAMの学習を考える。どの
ようなnに対してもn<m−s−1であるので、適当な
中間状態を探すために自己複製方法を利用する。テーブ
ル3は、3つの入力を有するEXOR問題に対する中間
状態を示す。
【0144】ついで、得られた直接連想(Xi ,Zi
(Zi ,Yi )を、図18に示すようにHyLCAMの
単層パーセップトロンおよび位置参照メモリにそれぞれ
記憶させる。
【0145】また、学習速度の比較のために、誤差逆伝
搬によって学習した多層パーセップトロンとの比較実験
を行う。
【0146】公正な比較のために、多層パーセップトロ
ンの隠れ層の数は、HyLCAMの中間状態Zi の大き
さと同一にした。
【0147】図21は、入力データを2個から5個に変
化させる場合の学習回数の変化を示す。多層パーセップ
トロンの学習回数は、入力データXi の数に指数関数的
に比例して増加した反面、提案されたHyLCAMはほ
とんど線形的に変化することが理解できる。
【0148】すなわち、提案されたHyLCAMには、
MinskyおよびPapertが指摘したscaling-up
問題がみられないことが理解できる。
【0149】最終的に、24回の学習中、図2(b)の
多層パーセップトロンでは局所極小点に収斂される回数
が4回である反面、図18のHyLCAMでは全く収斂
されなかったことを確認した。
【0150】したがって、図21のようにHyLCAM
の解が保証されていることに伴う速い学習速度を確認し
た。
【0151】テーブル3.3個の入力を有するEXOR
および形成された中間状態
【図面の簡単な説明】 【図1】(a)は一般的なニューラル・ネットワークの
構造を示すダイヤグラムであり、(b)は図1(a)の
領域kに対する拡大図である。 【図2】(a)は単層パーセップトロンの構造を示すダ
イヤグラムであり、(b)は多層単層パーセップトロン
の構造を示すダイヤグラムである。 【図3】(a)〜(c)ともに線形分離問題を示す説明
図である。 【図4】間接連想の概念を説明するためのダイヤグラム
である。 【図5】全てのパターン認識問題領域の中、線形分離問
題の領域と非線形分離問題の領域との関係を示すダイヤ
グラムである。 【図6】単層パーセップトロンの学習過程を説明するダ
イヤグラムである。 【図7】多層パーセップトロンの学習過程を説明するダ
イヤグラムである。 【図8】多層パーセップトロンの漸減法を説明するダイ
ヤグラムである。 【図9】(a)は多層パーセップトロンにおいて最小平
均自乗法により加重値を調節する場合を示すエネルギー
グラフであり、(b)は多層パーセップトロンにおいて
誤差伝搬学習により加重値を調節する場合を示すエネル
ギーグラフである。 【図10】本発明の第1実施例によるCLCAMの概念
的な構成ブロック図である。 【図11】本発明の第1実施例によるCLCAMの具体
的な構成ブロック図である。 【図12】(a)は本発明の第1実施例によるCLCA
Mの学習過程を示すダイヤグラムであり、(b)は本発
明の第1実施例によるCLCAMの連想過程を示すダイ
ヤグラムである。 【図13】第1実施例にしたがってあたえられた入力デ
ータXi に対して線形分離可能な第1中間状態Z1iとし
ての間接連想コードを生成する過程を示すフローチャー
トダである。 【図14】(a)〜(c)ともに、補数関係データの幾
何学的配置に基づいた方法により第1中間状態Z1iに該
当する間接連想コードを生成する段階を示すフローチャ
ートである。 【図15】入力データのベルトルを示す図である。 【図16】第1実施例にしたがってあたえられた出力デ
ータYi に対して線形分離が可能な第2中間状態Z2i
しての間接連想コードを生成する方法を示すダイヤグラ
ムである。 【図17】本発明の第2実施例によるHyLCAMの概
念的な構成ブロック図である。 【図18】本発明の第2実施例によるHyLCAMの具
体的な構成ブロック図である。 【図19】(a)は本発明の第2実施例によるHyLC
AMの学習過程を示すダイヤグラムであり、(b)は本
発明の第2実施例によるHyLCAMの連想過程を示す
ダイヤグラムである。 【図20】第2実施例にしたがってあたえられた入力デ
ータXi に対して線形分離が可能な中間状態Zi として
の間接連想コードの生成過程を示すフローチャートであ
る。 【図21】多層パーセップトロンとHyLCAMの学習
速度とを比較したグラフである。 【符号の説明】 10,20,50,60,110,140 単層パーセ
ップトロン 30,80,120,160 位置参照メモリ 40,130 間接連想コード発生装置 70,150 学習装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 李 潤 根 大韓民国ソウル特別市九老区九老洞住公 アパートメント、117−302 (56)参考文献 松本元・大津展之共編 脳とコンピュ ータ2 ニューロコンピューティングの 周辺 培風館 1991年7月10日 初版発 行 p43−80 (58)調査した分野(Int.Cl.7,DB名) G06G 7/60 G05B 13/02 G06N 3/02 JICSTファイル(JOIS) WPI(DIALOG)

Claims (7)

    (57)【特許請求の範囲】
  1. 【請求項1】あたえられた入力Xi と、使用者により求
    められた第1中間状態Z1iに対する線形分離問題である
    直接連想(Xi ,Z1i)を具現化する入力側単層パーセ
    ップトロンと、 あたえられた出力Yi と使用者により求められた第2中
    間状態Z2iに対する線形分離問題である直接連想
    (Z2i,Yi )を具現化する出力側単層パーセップトロ
    ンと、 第1中間状態Z1iと第2中間状態Z2iとを連結させるた
    めの位置参照メモリと、 を備えることを特徴とするニューラル・ネットワーク。
  2. 【請求項2】入力側単層パーセップトロンおよび出力側
    単層パーセップトロンは、内容参照メモリで構成するこ
    とを特徴とする請求項1記載のニューラル・ネットワー
    ク。
  3. 【請求項3】特定の種類の問題の解を出力するために、
    前記入力側単層パーセップトロン、前記出力側単層パー
    セップトロン、前記位置参照メモリのいずれかが直列に
    連結されることを特徴とする請求項1記載のニューラル
    ・ネットワーク。
  4. 【請求項4】特定の種類の問題を解するために、前記入
    力側単層パーセップトロン、前記出力側単層パーセップ
    トロン、前記位置参照メモリのいずれかが並列に連結さ
    れることを特徴とする請求項1記載のニューラル・ネッ
    トワーク。
  5. 【請求項5】入力データXi および出力データYi が実
    数ベクトルであれば、これらを処理するために、アナロ
    グ−ディジタル変換器を含むことを特徴とする請求項1
    〜4のいずれかに記載のニューラル・ネットワーク。
  6. 【請求項6】入力データXi および出力データYi が実
    数ベクトルである場合には、これらを処理するために、
    q(正の整数)量子化器を含むことを特徴とする請求項
    1〜4のいずれに記載のニューラル・ネットワーク。
  7. 【請求項7】あたえられた入力Xiおよびあたえられた
    出力Yiより、線形分離が可能な第1中間状態Z1iおよ
    び第2中間状態Z2iを作るための間接連想コード発生手
    段と、 あたえられた入力情報Xiおよび第1中間状態Z1iに対
    する線形分離問題である直接連想(Xi 1i )を具現
    化する入力側単層パーセップトロンと、 あたえられた出力Yi および第2中間状態Z2iに対する
    線形分離問題である直接連想(Z2i ,Yi )を具現化
    する出力側単層パーセップトロンと、 前記直接連想(Xi,Z1i)(Z2i,Yi)を最小平均自
    乗法で学習させるための学習手段と、 入力側単層パーセップトロンに対する第1中間状態Z1i
    と出力側単層パーセップトロンに対する第2中間状態Z
    2iとを直列連結する位置参照メモリと、 を備えることを特徴とするニューラル・ネットワーク。
JP5124869A 1992-08-28 1993-04-28 ニューラル・ネットワーク Expired - Fee Related JP3043539B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR15553/1992 1992-08-28
KR920015553 1992-08-28
KR761/1993 1993-01-21
KR1019930000761A KR950012359B1 (ko) 1992-08-28 1993-01-21 신경회로망 구조와 학습방법

Publications (2)

Publication Number Publication Date
JPH06111038A JPH06111038A (ja) 1994-04-22
JP3043539B2 true JP3043539B2 (ja) 2000-05-22

Family

ID=26629237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5124869A Expired - Fee Related JP3043539B2 (ja) 1992-08-28 1993-04-28 ニューラル・ネットワーク

Country Status (3)

Country Link
US (2) US5493632A (ja)
JP (1) JP3043539B2 (ja)
KR (1) KR950012359B1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6347309B1 (en) * 1997-12-30 2002-02-12 International Business Machines Corporation Circuits and method for shaping the influence field of neurons and neural networks resulting therefrom
US7035834B2 (en) * 2002-05-15 2006-04-25 Caterpillar Inc. Engine control system using a cascaded neural network
EP1691572B8 (en) * 2005-02-09 2019-09-11 Oticon A/s Method and system for training a hearing aid using a self-organising map
US20080005108A1 (en) * 2006-06-28 2008-01-03 Microsoft Corporation Message mining to enhance ranking of documents for retrieval
KR101780049B1 (ko) * 2013-07-01 2017-09-19 한국전자통신연구원 레이저 용접 비드 검사 장치 및 방법
WO2015178944A1 (en) * 2014-05-23 2015-11-26 Hewlett-Packard Development Company, L.P. Using location addressed storage as content addressed storage
CN111079895B (zh) * 2014-10-16 2024-05-28 谷歌有限责任公司 增强具有外部存储器的神经网络
US10235994B2 (en) * 2016-03-04 2019-03-19 Microsoft Technology Licensing, Llc Modular deep learning model
US11195096B2 (en) * 2017-10-24 2021-12-07 International Business Machines Corporation Facilitating neural network efficiency
KR20200086581A (ko) 2019-01-09 2020-07-17 삼성전자주식회사 뉴럴 네트워크 양자화를 위한 방법 및 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4995088A (en) * 1987-04-09 1991-02-19 Trustees Of The University Of Pennsylvania Super resolution
US5023833A (en) * 1987-12-08 1991-06-11 California Institute Of Technology Feed forward neural network for unary associative memory
US4897811A (en) * 1988-01-19 1990-01-30 Nestor, Inc. N-dimensional coulomb neural network which provides for cumulative learning of internal representations
JPH087789B2 (ja) * 1988-08-15 1996-01-29 工業技術院長 パターン連想記憶方法および装置
FI894021A (fi) * 1988-08-31 1990-03-01 Fujitsu Ltd Neuronstruktur.
US5222195A (en) * 1989-05-17 1993-06-22 United States Of America Dynamically stable associative learning neural system with one fixed weight
US5253328A (en) * 1989-11-17 1993-10-12 Microelectronics & Computer Technology Corp. Neural-network content-addressable memory
JP3178884B2 (ja) * 1992-03-30 2001-06-25 株式会社東芝 ニューラルネットワーク装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
松本元・大津展之共編 脳とコンピュータ2 ニューロコンピューティングの周辺 培風館 1991年7月10日 初版発行 p43−80

Also Published As

Publication number Publication date
JPH06111038A (ja) 1994-04-22
KR950012359B1 (ko) 1995-10-17
US5634063A (en) 1997-05-27
US5493632A (en) 1996-02-20
KR940004463A (ko) 1994-03-15

Similar Documents

Publication Publication Date Title
Liu et al. Evolutionary design of artificial neural networks with different nodes
US6009418A (en) Method and apparatus for neural networking using semantic attractor architecture
US5214746A (en) Method and apparatus for training a neural network using evolutionary programming
KR100351480B1 (ko) 패시트분류형신경망
US7016886B2 (en) Artificial neurons including weights that define maximal projections
Feng et al. A fuzzy deep model based on fuzzy restricted Boltzmann machines for high-dimensional data classification
Alvear-Sandoval et al. On building ensembles of stacked denoising auto-encoding classifiers and their further improvement
Ganivada et al. Fuzzy rough granular neural networks, fuzzy granules, and classification
CN111027619B (zh) 一种基于忆阻器阵列的K-means分类器及其分类方法
Aliev et al. Genetic algorithm-based learning of fuzzy neural networks. Part 1: feed-forward fuzzy neural networks
JP3043539B2 (ja) ニューラル・ネットワーク
CN110991601A (zh) 一种基于多用户行为的神经网络推荐方法
Mitra et al. Evolutionary modular design of rough knowledge-based network using fuzzy attributes
JPH11510936A (ja) コンピュータによるファジィルールの最適化方法
US6490571B1 (en) Method and apparatus for neural networking using semantic attractor architecture
Howells et al. An exploration of a new paradigm for weightless RAM-based neural networks
Sarumathi et al. Comparative Analysis of Classification Techniques for Credit Card Fraud Detection
Silaparasetty et al. Neural Network Collection
Chimatapu et al. Enhanced Deep Type-2 Fuzzy Logic System For Global Interpretability
Yoo Symbolic rule extraction from artificial neural networks
Lee et al. Inductive learning of fuzzy rule-based classifier with self-constructing clustering
JP2001142867A (ja) 学習型認識判断装置
Chia et al. Neural logic network learning using genetic programming
Nuppnau et al. Guided Evolution of Dense Blocks with Attention for CheXpert with Cultural Algorithms
Huang Interpretations of Deep Learning by Forests and Haar Wavelets

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000201

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees