JPH06111038A - ニューラル・ネットワーク及びその操作方法 - Google Patents
ニューラル・ネットワーク及びその操作方法Info
- Publication number
- JPH06111038A JPH06111038A JP5124869A JP12486993A JPH06111038A JP H06111038 A JPH06111038 A JP H06111038A JP 5124869 A JP5124869 A JP 5124869A JP 12486993 A JP12486993 A JP 12486993A JP H06111038 A JPH06111038 A JP H06111038A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- neural network
- perseptron
- output
- given
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 81
- 238000011017 operating method Methods 0.000 title abstract description 6
- 239000002356 single layer Substances 0.000 claims abstract description 101
- 230000015654 memory Effects 0.000 claims abstract description 82
- 238000000034 method Methods 0.000 claims description 156
- 230000008569 process Effects 0.000 claims description 75
- 238000000926 separation method Methods 0.000 claims description 50
- 239000013598 vector Substances 0.000 claims description 48
- 230000000295 complement effect Effects 0.000 claims description 23
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000005192 partition Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000000638 solvent extraction Methods 0.000 claims 2
- 230000007935 neutral effect Effects 0.000 abstract 1
- 239000010410 layer Substances 0.000 description 49
- 238000010586 diagram Methods 0.000 description 20
- 210000002569 neuron Anatomy 0.000 description 18
- 230000006870 function Effects 0.000 description 14
- 238000003909 pattern recognition Methods 0.000 description 7
- 230000003247 decreasing effect Effects 0.000 description 6
- 230000007786 learning performance Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000003767 neural control Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
- G06N3/065—Analogue means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
(57)【要約】
【目的】 間接連想の概念を導入するこにより、学習速
度を向上させ、構成を単純化させることができる内容−
位置−内容参照メモリの態様を有する新しいニューラル
・ネットワーク及び操作方法を提供する。 【構成】 あたえられた入力Xi と、使用者により求め
られた第1中間状態Z1iに封する線形分離問題である直
接連想(Xi ,Z1i)を具備化する入力側単層パーセッ
プトロンと、あたえられた出力Yi と使用者により求め
られた第2中間状態Z2iとに封する線形分離問題である
直接連想(Z2i,Y1 )を具備化する出力側単層パーセ
ップトロンと、第1中間状態Z1iと第2中間状態Z2iと
を連結させるための位置参照メモリを備える。
度を向上させ、構成を単純化させることができる内容−
位置−内容参照メモリの態様を有する新しいニューラル
・ネットワーク及び操作方法を提供する。 【構成】 あたえられた入力Xi と、使用者により求め
られた第1中間状態Z1iに封する線形分離問題である直
接連想(Xi ,Z1i)を具備化する入力側単層パーセッ
プトロンと、あたえられた出力Yi と使用者により求め
られた第2中間状態Z2iとに封する線形分離問題である
直接連想(Z2i,Y1 )を具備化する出力側単層パーセ
ップトロンと、第1中間状態Z1iと第2中間状態Z2iと
を連結させるための位置参照メモリを備える。
Description
【0001】
【産業上の利用分野】本発明は、新しいニューラル・ネ
ットワーク(neural Network)及びその操作方法に関す
る。
ットワーク(neural Network)及びその操作方法に関す
る。
【0002】
【従来の技術】一般的に、ニューラル・ネットワークと
は、生物の脳の構造および動作原理を工学的に具現化し
たネットワークを意味する。
は、生物の脳の構造および動作原理を工学的に具現化し
たネットワークを意味する。
【0003】一般的にニューラル・ネットワークの構造
は、図1(a)に示すように複数の層により構成され、
各層は有限個の神経細胞(neuron)で構成される。
は、図1(a)に示すように複数の層により構成され、
各層は有限個の神経細胞(neuron)で構成される。
【0004】1個の層の一つの神経細胞は、隣接する他
の層の各神経細胞と連結されており、この連結特性は連
結強度という値でモデル化される。ニューラル・ネット
ワークの主な機能は、与えられた関数が所望の精度に近
づき或いは所望の精度以上となるように、連結強度を変
化させることにある。
の層の各神経細胞と連結されており、この連結特性は連
結強度という値でモデル化される。ニューラル・ネット
ワークの主な機能は、与えられた関数が所望の精度に近
づき或いは所望の精度以上となるように、連結強度を変
化させることにある。
【0005】このように特定の入力に対して特定の出力
が得られるように連結強度を定める方法を、学習法則と
いう。
が得られるように連結強度を定める方法を、学習法則と
いう。
【0006】図1(b)は、図1(a)の領域kの拡大
図で、1個の層の一つの神経細胞が隣接する他の層の各
神経細胞に相互に異なる連結強度で連結された状態を示
したものである。
図で、1個の層の一つの神経細胞が隣接する他の層の各
神経細胞に相互に異なる連結強度で連結された状態を示
したものである。
【0007】図1(b)において、xi (x1 ,x2 ,
…xn )は各神経細胞に入力される入力値を示し、wi
(w1 ,w2 ,…wn )は各神経細胞と各入力値xi と
の連結強度を示し、また、神経細胞内の記号はしきい値
(threshold )を示す。ここで、nは正の整数である。
…xn )は各神経細胞に入力される入力値を示し、wi
(w1 ,w2 ,…wn )は各神経細胞と各入力値xi と
の連結強度を示し、また、神経細胞内の記号はしきい値
(threshold )を示す。ここで、nは正の整数である。
【0008】これにより、ニューラル・ネットワーク
は、その連結強度wi を変化させることによって、与え
られた入力値に対する所望の出力値を得る。
は、その連結強度wi を変化させることによって、与え
られた入力値に対する所望の出力値を得る。
【0009】初期のニューラル・ネットワークの研究に
おいて、ニューラル・ネットワークの一種として、単層
パーセップトロン(single layered perceptron )とい
われる基本的なモデルが提案された。
おいて、ニューラル・ネットワークの一種として、単層
パーセップトロン(single layered perceptron )とい
われる基本的なモデルが提案された。
【0010】この単層パーセップトロンは、図2(a)
に示すように、1個の入力層(input layer )と1個の
出力層(output layer)とからなる。この時、連結強度
(以下、加重値:weight)は単層である。この連結強度
(すなわち加重値)を調節するには最小平均自乗(Leas
t Mean Square )学習法が主に用いられる。
に示すように、1個の入力層(input layer )と1個の
出力層(output layer)とからなる。この時、連結強度
(以下、加重値:weight)は単層である。この連結強度
(すなわち加重値)を調節するには最小平均自乗(Leas
t Mean Square )学習法が主に用いられる。
【0011】以下、単層パーセップトロンのオペレーテ
ィング過程を図6を参照して説明する。まず、図2
(a)に示す単層パーセップトロンについて考える。こ
の場合、入力データはn次元ベクトルXi =[x1 ,x
2 ,…xn ]であり、出力データはp次元ベクトルYi
=[y1 ,y2 ,…yp ]である。
ィング過程を図6を参照して説明する。まず、図2
(a)に示す単層パーセップトロンについて考える。こ
の場合、入力データはn次元ベクトルXi =[x1 ,x
2 ,…xn ]であり、出力データはp次元ベクトルYi
=[y1 ,y2 ,…yp ]である。
【0012】出力側i番目の神経細胞と入力層j番目の
神経細胞とを連結する連結強度(すなわち加重値)はw
ijと表現できる。
神経細胞とを連結する連結強度(すなわち加重値)はw
ijと表現できる。
【0013】したがって、Xi という入力を単層パーセ
ップトロンに供給した時に得られる出力はベクトル行列
の掛け算および合算により下記の式(1)で表現でき
る。 ここで、fは非線形函数である。
ップトロンに供給した時に得られる出力はベクトル行列
の掛け算および合算により下記の式(1)で表現でき
る。 ここで、fは非線形函数である。
【0014】入力値Xi および出力値Yi に対してあた
えられたm個の学習(learning)データ(X1 ,
Y1 ),(X2 ,Y2 ),…,(Xm ,Ym )を単層パ
ーセップトロンで学習するためには、下記式(2)で示
す最小平均自乗法により連結強度(すなわち加重値)を
調整しなければならない。 wij (k+1)=wij(k) +η(yi (k) −di (k) )xj (k) ………(2) ここで、di (k)は所望する出力であり、yi (k)
は実際の出力である。上記の式(2)によれば、学習デ
ータの内、1つの入力xi が印加された時、単層パーセ
ップトロンは、先に、所望する出力yi より実際の出力
di を減算して出力誤差を検出する。そしてこの出力誤
差を利用して入力層と出力層間の加重値を変化させた
後、出力誤差が所望する程減少したか否かをチャックし
て、減少したと判断すると、学習を終了し、減少しなか
ったと判断すると、出力誤差を検出する過程に復帰す
る。
えられたm個の学習(learning)データ(X1 ,
Y1 ),(X2 ,Y2 ),…,(Xm ,Ym )を単層パ
ーセップトロンで学習するためには、下記式(2)で示
す最小平均自乗法により連結強度(すなわち加重値)を
調整しなければならない。 wij (k+1)=wij(k) +η(yi (k) −di (k) )xj (k) ………(2) ここで、di (k)は所望する出力であり、yi (k)
は実際の出力である。上記の式(2)によれば、学習デ
ータの内、1つの入力xi が印加された時、単層パーセ
ップトロンは、先に、所望する出力yi より実際の出力
di を減算して出力誤差を検出する。そしてこの出力誤
差を利用して入力層と出力層間の加重値を変化させた
後、出力誤差が所望する程減少したか否かをチャックし
て、減少したと判断すると、学習を終了し、減少しなか
ったと判断すると、出力誤差を検出する過程に復帰す
る。
【0015】上述のように、図2(a)の単層パーセッ
プトロンによれば、入力層および各神経細胞が出力層の
各神経細胞に独立的な連結強度(すなわち加重値)を有
して互に直接連結されるので、速い速度で正確に学習を
行うことができるという長所はあるが、線形分離問題
(Linearly seperable problem)を解決することしかで
きないという短所を有する。
プトロンによれば、入力層および各神経細胞が出力層の
各神経細胞に独立的な連結強度(すなわち加重値)を有
して互に直接連結されるので、速い速度で正確に学習を
行うことができるという長所はあるが、線形分離問題
(Linearly seperable problem)を解決することしかで
きないという短所を有する。
【0016】単層パーセップトロンのように、入力(X
1 )および出力(Yi )を直接連結する構造(X1 ,Y
i )を直接連想(direct association)という。
1 )および出力(Yi )を直接連結する構造(X1 ,Y
i )を直接連想(direct association)という。
【0017】したがって、単層パーセップトロンのよう
なニューラル・ネットワークは、連想記憶装置(Associ
ative Memory)の役割を行う内容参照メモリ(Content
Addressable Memory; 以下“CAM”という)ことがで
きる。
なニューラル・ネットワークは、連想記憶装置(Associ
ative Memory)の役割を行う内容参照メモリ(Content
Addressable Memory; 以下“CAM”という)ことがで
きる。
【0018】一般に、連想記憶装置またはCAMは、入
力があたえられた時、これより連想される出力を行な
う。位置参照メモリ(location addressable memory: L
AM)に対応する概念に照らして見れば、CAMは、部分
的な表現のみからでも、記憶された情報を類推できると
いう長所を有する。
力があたえられた時、これより連想される出力を行な
う。位置参照メモリ(location addressable memory: L
AM)に対応する概念に照らして見れば、CAMは、部分
的な表現のみからでも、記憶された情報を類推できると
いう長所を有する。
【0019】一方、いくつかのパターン認識問題(Patt
ern recognition problem )をn次元の空間におけるn
−1次元の高次平面(Hyper plain )によって正確に分
けることができる場合、その問題を線形分離問題とい
う。
ern recognition problem )をn次元の空間におけるn
−1次元の高次平面(Hyper plain )によって正確に分
けることができる場合、その問題を線形分離問題とい
う。
【0020】図3(a)は2次元の空間における線型分
離問題の一例を示す説明図である。すなわち、図3
(a)によれば、2次元の空間上のAおよびBの正確な
線型分離が可能である。また、線型分離問題に属しない
パターン認識問題を非線型分離問題(Nonlinearly Sepe
rble Problem)という。
離問題の一例を示す説明図である。すなわち、図3
(a)によれば、2次元の空間上のAおよびBの正確な
線型分離が可能である。また、線型分離問題に属しない
パターン認識問題を非線型分離問題(Nonlinearly Sepe
rble Problem)という。
【0021】図3(b)は2次元の空間における非線型
分離問題の一例を示す説明図である。すなわち、図3
(b)によれば、2次元空間上のXとOは直線により分
離できない。したがって非線型分離問題は図3(c)の
真理表に示すようにEXOR、すなわち排他的論理和に
該当するとするべきである。
分離問題の一例を示す説明図である。すなわち、図3
(b)によれば、2次元空間上のXとOは直線により分
離できない。したがって非線型分離問題は図3(c)の
真理表に示すようにEXOR、すなわち排他的論理和に
該当するとするべきである。
【0022】しかし、パターン認識問題は、図5に示す
ように、ごく少数のもののみが線型分離問題に属し、大
部分のものが非線型分離問題に属する。
ように、ごく少数のもののみが線型分離問題に属し、大
部分のものが非線型分離問題に属する。
【0023】したがって、直接連想の概念を具現した単
層パーセップトロンは、MinskyおよびPapert(M. L. Mi
nsky and S. A. Papert, peceptron : An introduction
tocomputational Geometry. Cambridge, MA., MIT Pre
ss, expended edition, 1988.)による指摘の通り、回
路網の自身の表現能力(representation Capability)
が制限されることに起因して図3(b)に示すような非
線型分離問題を解決することができなかったので、ニュ
ーラル・ネットワークの他の種類として単層パーセップ
トロンの直列に連結させた多層パーセップトロン(Mult
i-layered perceptron)が提案された。
層パーセップトロンは、MinskyおよびPapert(M. L. Mi
nsky and S. A. Papert, peceptron : An introduction
tocomputational Geometry. Cambridge, MA., MIT Pre
ss, expended edition, 1988.)による指摘の通り、回
路網の自身の表現能力(representation Capability)
が制限されることに起因して図3(b)に示すような非
線型分離問題を解決することができなかったので、ニュ
ーラル・ネットワークの他の種類として単層パーセップ
トロンの直列に連結させた多層パーセップトロン(Mult
i-layered perceptron)が提案された。
【0024】すなわち、単層パーセップトロンは線型分
離問題のみを解決することができる多層パーセップトロ
ンの短所を補完するためのもので、図2(b)に示すよ
うに、1つの入力層、1つの出力層、および、入力層と
出力層間に備えられた隠れ層(hidden layer)からな
る、3層以上の層を備えたニューラル・ネットワークで
ある。
離問題のみを解決することができる多層パーセップトロ
ンの短所を補完するためのもので、図2(b)に示すよ
うに、1つの入力層、1つの出力層、および、入力層と
出力層間に備えられた隠れ層(hidden layer)からな
る、3層以上の層を備えたニューラル・ネットワークで
ある。
【0025】多層パーセップトロンは、入力状態
(Xi )および出力状態(Yi )を中間状態(Zi )を
通じて間接的に連結させることにより、間接連想(indi
rect association)概念を具現化したものである。
(Xi )および出力状態(Yi )を中間状態(Zi )を
通じて間接的に連結させることにより、間接連想(indi
rect association)概念を具現化したものである。
【0026】すなわち、図4に示すように、直接連想
(Xi ,Yi )が論理的に1つのIF−THEN RU
LE(IF Xi ,THEN Yi )に該当すると、間
接連想(Xi ,Zi ,Yi )は三段論法(IF Xi ,
THEN Zi ,and IF Zi ,THEN Yi )に
該当する。
(Xi ,Yi )が論理的に1つのIF−THEN RU
LE(IF Xi ,THEN Yi )に該当すると、間
接連想(Xi ,Zi ,Yi )は三段論法(IF Xi ,
THEN Zi ,and IF Zi ,THEN Yi )に
該当する。
【0027】結局、直接連想をさらに容易に行うため
に、入力(Xi )と出力(Yi )間に中間段階(Zi )
を挿入してZi ,Xi ,Yi で構成したものを間接連想
といい、論理学的な観点からは、間接連想は2つの直接
連想からなると解釈することができる。
に、入力(Xi )と出力(Yi )間に中間段階(Zi )
を挿入してZi ,Xi ,Yi で構成したものを間接連想
といい、論理学的な観点からは、間接連想は2つの直接
連想からなると解釈することができる。
【0028】換元すれば、間接連想は「Xi であれば、
Zi である」というルール及び「Zi であればYi であ
る」というルールで表現される三段論法であり、「Xi
であればZi である」、「Zi であればYi である」と
表現される2個の直接連想のルールに分離させることが
可能である。
Zi である」というルール及び「Zi であればYi であ
る」というルールで表現される三段論法であり、「Xi
であればZi である」、「Zi であればYi である」と
表現される2個の直接連想のルールに分離させることが
可能である。
【0029】このように分離されることにより、1つの
隠れ層を有する多層パーセップトロンは、2つの多層パ
ーセップトロンが直列に連結された構造であるというこ
とができる。多層パーセップトロンの学習方法(learni
ng method )としては、誤差逆伝搬(error back propa
gation)学習方法が広く用いられている。
隠れ層を有する多層パーセップトロンは、2つの多層パ
ーセップトロンが直列に連結された構造であるというこ
とができる。多層パーセップトロンの学習方法(learni
ng method )としては、誤差逆伝搬(error back propa
gation)学習方法が広く用いられている。
【0030】この誤差逆伝搬学習方法によれば、充分な
個数の神経細胞が確保されれば、どのような函数であっ
てもある程度以上の正確度で近似化できることが、Horn
ik (K. Hornik, M. Stinchcomb, and H. White, “Mult
ilayer feed forward networks are universal approxi
mators”,Neual networks, Vol. 2. no. 5, pp. 359-3
66, 1989. )によって立証された。
個数の神経細胞が確保されれば、どのような函数であっ
てもある程度以上の正確度で近似化できることが、Horn
ik (K. Hornik, M. Stinchcomb, and H. White, “Mult
ilayer feed forward networks are universal approxi
mators”,Neual networks, Vol. 2. no. 5, pp. 359-3
66, 1989. )によって立証された。
【0031】この誤差逆伝搬学習方法は、図4に示した
間接連想の概念に照らして見れば、あたえられた入力デ
ータ(X1 )および出力データ(y1 )に対して線型分
離の可能の中間状態(Z1 )を自動的に探す方法である
と解釈される。
間接連想の概念に照らして見れば、あたえられた入力デ
ータ(X1 )および出力データ(y1 )に対して線型分
離の可能の中間状態(Z1 )を自動的に探す方法である
と解釈される。
【0032】この誤差逆伝搬学習の原理は次の通りであ
る。学習データの内、1つの入力を与える場合、所望す
る出力(desired output)と実際の出力(actual outpu
t )との誤差(error )を利用して隠れ層と出力層との
間の加重値(以下、第2加重値という)すなわち第2連
結強度を変化させ、この第2加重値に関連させて入力層
と隠れ層との間の加重値(以下、第1加重値という)す
なわち第1連結強度を変化させる。
る。学習データの内、1つの入力を与える場合、所望す
る出力(desired output)と実際の出力(actual outpu
t )との誤差(error )を利用して隠れ層と出力層との
間の加重値(以下、第2加重値という)すなわち第2連
結強度を変化させ、この第2加重値に関連させて入力層
と隠れ層との間の加重値(以下、第1加重値という)す
なわち第1連結強度を変化させる。
【0033】以下、多層パーセップトロンの動作を多層
パーセップトロンの漸減法である誤差逆伝搬学習過程を
示す図7および誤差伝搬学習の順序を示す図8を参照し
て説明する。
パーセップトロンの漸減法である誤差逆伝搬学習過程を
示す図7および誤差伝搬学習の順序を示す図8を参照し
て説明する。
【0034】ここでは、図2(b)に示す多層パーセッ
プトロンについて考える。多層パーセップトロンに隠れ
層を追加した多層パーセップトロンの構造は、ニューラ
ル・ネットワークを用いて非線型分離問題を解決するこ
とができる可能性を提供する。
プトロンについて考える。多層パーセップトロンに隠れ
層を追加した多層パーセップトロンの構造は、ニューラ
ル・ネットワークを用いて非線型分離問題を解決するこ
とができる可能性を提供する。
【0035】しかしながら、上述のような隠れ層の追加
により、多層パーセップトロンを学習させる際に使用し
た最小平均自乗法が、多層パーセップトロンでは使用す
ることができなくなるので、新しい態様の学習法則が要
求される。
により、多層パーセップトロンを学習させる際に使用し
た最小平均自乗法が、多層パーセップトロンでは使用す
ることができなくなるので、新しい態様の学習法則が要
求される。
【0036】この要求に応じる学習法則が、誤差逆伝搬
学習である。この誤差逆伝搬学習は下記の式(3)で表
現できる。 wij(k+1)=wij(k)+ηδijOpj ………(3) ここで、wijはi番目の神経細胞とj番目の神経細胞と
の間の連結強度(すなわち加重値)であり、ηは学習常
数を示す。また式(3)でδijはp番目の入力を加えた
場合にj番目の神経細胞から得られる誤差項であって、
出力層に対しては下記式(4)で、また隠れ層に対して
は下記式(5)で表現できる。 δpj=KOpj(1−Opj)(dpj−Opj) ………(4) δpj=KOpj(1−Opj)Σ(δpjWjk) ………(5) 式(4)(5)において、δpjはj番目の神経細胞の実
際の出力値であり、d ijはj番目の神経細胞について所
望される出力値である。またKは学習回数を示し、i,
j,p,kはすべての正の整数を示す。
学習である。この誤差逆伝搬学習は下記の式(3)で表
現できる。 wij(k+1)=wij(k)+ηδijOpj ………(3) ここで、wijはi番目の神経細胞とj番目の神経細胞と
の間の連結強度(すなわち加重値)であり、ηは学習常
数を示す。また式(3)でδijはp番目の入力を加えた
場合にj番目の神経細胞から得られる誤差項であって、
出力層に対しては下記式(4)で、また隠れ層に対して
は下記式(5)で表現できる。 δpj=KOpj(1−Opj)(dpj−Opj) ………(4) δpj=KOpj(1−Opj)Σ(δpjWjk) ………(5) 式(4)(5)において、δpjはj番目の神経細胞の実
際の出力値であり、d ijはj番目の神経細胞について所
望される出力値である。またKは学習回数を示し、i,
j,p,kはすべての正の整数を示す。
【0037】図9(a)は最小平均自乗法により加重値
を調節する場合を示すエネルギーグラフで、加重値が最
小値(M)に収斂されると学習が終了する。
を調節する場合を示すエネルギーグラフで、加重値が最
小値(M)に収斂されると学習が終了する。
【0038】図9(b)は誤差逆伝搬学習により加重値
を調節する場合を示すエネルギーグラフで、加重値が曲
形の最小値(GM)に収斂されると学習が終了される。
を調節する場合を示すエネルギーグラフで、加重値が曲
形の最小値(GM)に収斂されると学習が終了される。
【0039】上記式(3)、(4)、(5)によれば、
学習データの中1つの入力が供給される際、多層パーセ
ップトロンは、先に、所望する出力より実際の出力を減
算して出力誤差を検出する。この出力誤差を利用して隠
れ層と出力層間の第2加重値を変化させた後、第2加重
値に比例させて入力層と隠れ層間の第1加重値を変化さ
せる。
学習データの中1つの入力が供給される際、多層パーセ
ップトロンは、先に、所望する出力より実際の出力を減
算して出力誤差を検出する。この出力誤差を利用して隠
れ層と出力層間の第2加重値を変化させた後、第2加重
値に比例させて入力層と隠れ層間の第1加重値を変化さ
せる。
【0040】ついで出力誤差が所望する程減少したか否
かをチャックして、減少したと判断されると学習を終了
し、減少しなかったと判断されると出力誤差を検出する
過程に復帰する。
かをチャックして、減少したと判断されると学習を終了
し、減少しなかったと判断されると出力誤差を検出する
過程に復帰する。
【0041】しかし、この誤差逆伝搬学習を用いた多層
パーセップトロンは、上述のように、非線型分離問題を
解決することができるという長所を有する。
パーセップトロンは、上述のように、非線型分離問題を
解決することができるという長所を有する。
【0042】
【発明が解決しようとする課題】しかしながら、このよ
うなニューラル・ネットワークには、Hornikによっても
提示されたように、次のような問題点を有する。 1.図9(b)に示すように、局所極少点(local erro
r minima : LM )に収斂し易い。 2.あたえられたm個の連想U(Xi ,Yi )に対して
適当なm個の間接連想U(Xi ,Zi ,Yi )を作る中
間状態(intermediate state)(Zi )を漸減法(grad
ient descent)により自動的に探す際や各層の加重値を
調整する際に出力層の誤差のみを用いるので、学習時間
が非常に長くなる。 3.図9(b)に示すように、加重値の初期の学習性能
に敏感に影響を受ける。換言すれば、初期加重値をどの
ように選択するかにしたがって学習性能が変化する。し
たがって学習性能の一定性が保障されない。例えば、図
9(b)において初期の加重値W(O)がそれぞれA,
B,C,Dに位置する場合、学習性能は下記の式(6)
のような順序を有する。 A>B>C>D ………(6) 4.学習データの適用順序にしたがって学習能率が異な
ることとなる。
うなニューラル・ネットワークには、Hornikによっても
提示されたように、次のような問題点を有する。 1.図9(b)に示すように、局所極少点(local erro
r minima : LM )に収斂し易い。 2.あたえられたm個の連想U(Xi ,Yi )に対して
適当なm個の間接連想U(Xi ,Zi ,Yi )を作る中
間状態(intermediate state)(Zi )を漸減法(grad
ient descent)により自動的に探す際や各層の加重値を
調整する際に出力層の誤差のみを用いるので、学習時間
が非常に長くなる。 3.図9(b)に示すように、加重値の初期の学習性能
に敏感に影響を受ける。換言すれば、初期加重値をどの
ように選択するかにしたがって学習性能が変化する。し
たがって学習性能の一定性が保障されない。例えば、図
9(b)において初期の加重値W(O)がそれぞれA,
B,C,Dに位置する場合、学習性能は下記の式(6)
のような順序を有する。 A>B>C>D ………(6) 4.学習データの適用順序にしたがって学習能率が異な
ることとなる。
【0043】このような4つの問題点によれば、上述し
た間接連想の概念に照らしてみれば、ニューラル・ネッ
トワークすなわち多層パーセップトロンが適切な中間状
態(Zi )を探すことができないことを意味する。
た間接連想の概念に照らしてみれば、ニューラル・ネッ
トワークすなわち多層パーセップトロンが適切な中間状
態(Zi )を探すことができないことを意味する。
【0044】本発明の第1目的は、上述した単層パーセ
ップトロンおよび多層パーセップトロンの欠点を除去す
るためのもので、間接連想の概念を導入することによっ
て学習速度を向上させるとともに構成を単純化させるこ
とができる内容−位置−内容参照メモリ(Content-Loca
tion-Content Addressable Memory )で構成された新し
いニューラル・ネットワーク及びその操作方法を提供す
ることにある。
ップトロンおよび多層パーセップトロンの欠点を除去す
るためのもので、間接連想の概念を導入することによっ
て学習速度を向上させるとともに構成を単純化させるこ
とができる内容−位置−内容参照メモリ(Content-Loca
tion-Content Addressable Memory )で構成された新し
いニューラル・ネットワーク及びその操作方法を提供す
ることにある。
【0045】本発明の他の目的は、間接連想の概念を導
入することによって、学習速度を向上させるとともに構
成を単純化させることができる位置−内容参照混成メモ
リ(Hybrid Location-Content Addressable Memory)で
構成された新しいニューラル・ネットワーク及びその操
作方法を提供することにある。
入することによって、学習速度を向上させるとともに構
成を単純化させることができる位置−内容参照混成メモ
リ(Hybrid Location-Content Addressable Memory)で
構成された新しいニューラル・ネットワーク及びその操
作方法を提供することにある。
【0046】
【課題を解決するための手段】上記の目的を達成するた
めの本発明の一つの態様によれば、まず、間接連想コー
ド発生手段は、入力データ(Xi )および出力データ
(Yi )に対応させて、線型分離が可能な第1中間状態
Z1iおよび第2中間状態Z2iを求め、これにより、この
間接連想の概念に対応する2種類の直接連想(Xi ,Z
1i)および(Z2i,Yi )を得る。
めの本発明の一つの態様によれば、まず、間接連想コー
ド発生手段は、入力データ(Xi )および出力データ
(Yi )に対応させて、線型分離が可能な第1中間状態
Z1iおよび第2中間状態Z2iを求め、これにより、この
間接連想の概念に対応する2種類の直接連想(Xi ,Z
1i)および(Z2i,Yi )を得る。
【0047】入力側の単層パーセップトロンは、あたえ
られた入力情報Xi および第1中間状態Z1iに対する線
形分離問題である直接連想(Xi ,Z1i)を具現化し、
位置参照メモリのアドレスとして第1中間状態Z1iを出
力する。
られた入力情報Xi および第1中間状態Z1iに対する線
形分離問題である直接連想(Xi ,Z1i)を具現化し、
位置参照メモリのアドレスとして第1中間状態Z1iを出
力する。
【0048】一方、学習手段は、2つの直接連想
(Xi ,Z1i),(Xi ,Z2i)についての訓練を、最
小平均自乗法を用いて行なう。位置参照メモリは、入力
側単層パーセップトロンに対する第1中間状態Z1iをア
ドレスとして記憶し、出力側単層パーセップトロンに対
する第2中間状態Z2iをアドレスに相応する内容として
記憶する。すなわち、第1中間状態Z1iと第2中間状態
Z2iとを直列連結する。
(Xi ,Z1i),(Xi ,Z2i)についての訓練を、最
小平均自乗法を用いて行なう。位置参照メモリは、入力
側単層パーセップトロンに対する第1中間状態Z1iをア
ドレスとして記憶し、出力側単層パーセップトロンに対
する第2中間状態Z2iをアドレスに相応する内容として
記憶する。すなわち、第1中間状態Z1iと第2中間状態
Z2iとを直列連結する。
【0049】本発明の他の態様によれば、間接連想コー
ド発生手段は、間接連想による入力データ(Xi )およ
び出力データ(Yi )に対応させて、線型分離が可能な
中間状態Z1iを求め、これにより、1つの直接連想(X
i ,Yi )から2種類の直接連想(Xi ,Zi ),(Z
i ,Yi )を得る。
ド発生手段は、間接連想による入力データ(Xi )およ
び出力データ(Yi )に対応させて、線型分離が可能な
中間状態Z1iを求め、これにより、1つの直接連想(X
i ,Yi )から2種類の直接連想(Xi ,Zi ),(Z
i ,Yi )を得る。
【0050】単層パーセップトロンは、あたえられた入
力データXi および中間状態Zi に対する線形分離問題
についての直接連想(Xi ,Zi )を具現化し、位置参
照メモリのアドレスとしてその中間状態Zi を出力す
る。
力データXi および中間状態Zi に対する線形分離問題
についての直接連想(Xi ,Zi )を具現化し、位置参
照メモリのアドレスとしてその中間状態Zi を出力す
る。
【0051】学習手段は、前記直接連想(Xi ,Zi )
を、単層パーセップトロンから最小平均自乗法を用いて
訓練させる。位置参照メモリは、単層パーセップトロン
より出力される中間状態Zi をアドレスとして入力し、
各アドレスに対応してあたえられた出力データYi を所
望する出力データとして格納する。
を、単層パーセップトロンから最小平均自乗法を用いて
訓練させる。位置参照メモリは、単層パーセップトロン
より出力される中間状態Zi をアドレスとして入力し、
各アドレスに対応してあたえられた出力データYi を所
望する出力データとして格納する。
【0052】前述の第1の態様および第2の態様によれ
ば、構造が簡単でかつ学習速度が速いニューラル・ネッ
トワークを提供することが可能となる。
ば、構造が簡単でかつ学習速度が速いニューラル・ネッ
トワークを提供することが可能となる。
【0053】
【実施例】以下、添付された図面を参照して本発明の第
1実施例および第2実施例を詳細に説明する。第1実施例 本発明の第1実施例によるニューラル・ネットワーク
と、その操作方法を説明する前に、すでに上述したが、
本発明の理解のためにいろいろな先行技術を要約して再
度説明する。
1実施例および第2実施例を詳細に説明する。第1実施例 本発明の第1実施例によるニューラル・ネットワーク
と、その操作方法を説明する前に、すでに上述したが、
本発明の理解のためにいろいろな先行技術を要約して再
度説明する。
【0054】ニューラル・ネットワークは、連想記憶装
置の役割をする内容参照メモリである。連想記憶装置
は、入力があたえられた時、このあたえられた入力より
連想される出力を引き出す。
置の役割をする内容参照メモリである。連想記憶装置
は、入力があたえられた時、このあたえられた入力より
連想される出力を引き出す。
【0055】単層パーセップトロンは直接連想概念を具
現するが、多層パーセップトロンは間接連想概念を具現
化する。
現するが、多層パーセップトロンは間接連想概念を具現
化する。
【0056】論理学的な観点から、間接連想は2つの直
接連想であると解釈することができる。換言すれば、間
接連想は、下記式(7)で表現される三段論法である。
この三段論法は下記式(8),(9)で表現されるよう
な2つのルールで表現される2つの直接連想に分離する
ことが可能である。 XであればZであり、ZであればYである ………(7) XであればZである ………(8) ZであればYである ………(9) このような分離により、1つの隠れ層を有する多層パー
セップトロンは、2つの単層パーセップトロンが直列連
結された構造であるとみなされる。
接連想であると解釈することができる。換言すれば、間
接連想は、下記式(7)で表現される三段論法である。
この三段論法は下記式(8),(9)で表現されるよう
な2つのルールで表現される2つの直接連想に分離する
ことが可能である。 XであればZであり、ZであればYである ………(7) XであればZである ………(8) ZであればYである ………(9) このような分離により、1つの隠れ層を有する多層パー
セップトロンは、2つの単層パーセップトロンが直列連
結された構造であるとみなされる。
【0057】先行技術において説明した誤差逆伝搬の学
習は、あたえられたm個の連想U(Xi ,Zi )に対し
て適合するm個の間接連想を作るための中間状態Zを漸
減法(gradient descent method )により自動的に探す
ものである。
習は、あたえられたm個の連想U(Xi ,Zi )に対し
て適合するm個の間接連想を作るための中間状態Zを漸
減法(gradient descent method )により自動的に探す
ものである。
【0058】しかし、この時、すでに説明したように、
4つの重大な問題が発生する。これらの問題点を解決す
るために、第1実施例のニューラル・ネットワークで
は、間接連想U(Xi ,Zi ,Yi )から分離されてな
る2つの直接連想U(Xi ,Zi ),U(Zi ,Yi )
を線形分離問題に導入するための2つの中間状態Z1i,
Z2iを、使用者が直接探す。分離された直接連想U(X
i ,Zi ),U(Zi ,Yi )は最小平均自乗法で学習
され、中間状態Z1i,Z2iは位置参照メモリ(Location
Addressable Memory : LAM )により連結される。
4つの重大な問題が発生する。これらの問題点を解決す
るために、第1実施例のニューラル・ネットワークで
は、間接連想U(Xi ,Zi ,Yi )から分離されてな
る2つの直接連想U(Xi ,Zi ),U(Zi ,Yi )
を線形分離問題に導入するための2つの中間状態Z1i,
Z2iを、使用者が直接探す。分離された直接連想U(X
i ,Zi ),U(Zi ,Yi )は最小平均自乗法で学習
され、中間状態Z1i,Z2iは位置参照メモリ(Location
Addressable Memory : LAM )により連結される。
【0059】上述のように、第1実施例により提案され
る新しい態様のニューラル・ネットワークは、2つの独
立した直接連想で構成され、2つの中間状態が連結され
なければならないので、図10および図11のような新
しいネットワーク構造が要請される。
る新しい態様のニューラル・ネットワークは、2つの独
立した直接連想で構成され、2つの中間状態が連結され
なければならないので、図10および図11のような新
しいネットワーク構造が要請される。
【0060】図10は本発明の第1実施例による新しい
ニューラル・ネットワークの概念的な構成ブロック図
で、あたえられた入力Xi と、使用者により求められた
第1中間状態Z1iに対する線形分離問題である直接連想
(Xi ,Z1i)を具現化する入力側単層パーセップトロ
ン(10)と、あたえられた出力Yi と使用者により求
められた第2中間状態Z2iに対して線形分離問題である
直接連想(Z2i,Yi )を具現化する出力側単層パーセ
ップトロン(20)と、第1中間状態Z1iと第2中間状
態Z2iとを連結させるための位置参照メモリ(30)が
含まれる。
ニューラル・ネットワークの概念的な構成ブロック図
で、あたえられた入力Xi と、使用者により求められた
第1中間状態Z1iに対する線形分離問題である直接連想
(Xi ,Z1i)を具現化する入力側単層パーセップトロ
ン(10)と、あたえられた出力Yi と使用者により求
められた第2中間状態Z2iに対して線形分離問題である
直接連想(Z2i,Yi )を具現化する出力側単層パーセ
ップトロン(20)と、第1中間状態Z1iと第2中間状
態Z2iとを連結させるための位置参照メモリ(30)が
含まれる。
【0061】ここで、位置参照メモリ(30)は、一般
的なメモリ素子で、アドレスディコーディング部分(3
0a)、各アドレスに該当する内容を格納する内容部分
(30b)およびデータ出力部分(30c)で構成され
る。
的なメモリ素子で、アドレスディコーディング部分(3
0a)、各アドレスに該当する内容を格納する内容部分
(30b)およびデータ出力部分(30c)で構成され
る。
【0062】図10において第1単層パーセップトロン
(10)および第2単層パーセップトロン(20)は、
上述のように内容参照メモリといわれる。本発明の第1
実施例によるニューラル・ネットワークは図10に示す
ように、2つの内容参照メモリと、それらの間に設けら
れる位置参照メモリで構成されるので、内容−位置−内
容参照メモリ(CLCAM)といわれる。
(10)および第2単層パーセップトロン(20)は、
上述のように内容参照メモリといわれる。本発明の第1
実施例によるニューラル・ネットワークは図10に示す
ように、2つの内容参照メモリと、それらの間に設けら
れる位置参照メモリで構成されるので、内容−位置−内
容参照メモリ(CLCAM)といわれる。
【0063】一方、外部よりあたえられたm個の直接連
想(Xi ,Zi )を図10のCLCAMに学習させるた
めには、間接連想の概念によってあたえられた直接連想
(Xi ,Yi )より分離される直接連想U(Xi ,
Z1i),U(Z2i,Yi )がそれぞれ線形分離の問題に
なるようにするための第1中間状態Z1iおよび第2中間
状態Z2iを簡単かつ体系的に求める方法が必要となる。
想(Xi ,Zi )を図10のCLCAMに学習させるた
めには、間接連想の概念によってあたえられた直接連想
(Xi ,Yi )より分離される直接連想U(Xi ,
Z1i),U(Z2i,Yi )がそれぞれ線形分離の問題に
なるようにするための第1中間状態Z1iおよび第2中間
状態Z2iを簡単かつ体系的に求める方法が必要となる。
【0064】この問題を間接連想コード発生問題(inde
rect association code generationproblem)といい、
この問題を解決するための種々の方法の内、第1実施例
においては補数関係データ(Complement data )の幾何
学的な配置に基づいた解決方法を提案する。
rect association code generationproblem)といい、
この問題を解決するための種々の方法の内、第1実施例
においては補数関係データ(Complement data )の幾何
学的な配置に基づいた解決方法を提案する。
【0065】また、あたえられたm個の連想U(Xi ,
Yi )に対する間接連想問題の解として、第1中間状態
Z1iおよび第2中間状態Z2iが求められると、第1実施
例では、最終的に、最小平均自乗法を利用して入力側の
内容参照メモリ(例えば単層パーセップトロン)および
出力側の内容参照メモリ(例えば単層パーセップトロ
ン)の学習を行なう。
Yi )に対する間接連想問題の解として、第1中間状態
Z1iおよび第2中間状態Z2iが求められると、第1実施
例では、最終的に、最小平均自乗法を利用して入力側の
内容参照メモリ(例えば単層パーセップトロン)および
出力側の内容参照メモリ(例えば単層パーセップトロ
ン)の学習を行なう。
【0066】したがって、図10に示すCLCAMは図
11に示すように、さらに具体的に構成され得る。
11に示すように、さらに具体的に構成され得る。
【0067】すなわち、図11のCLCAMは、あたえ
られた入力データXi および出力情報Yi により線形分
離が可能な第1中間状態Z1iおよび第2中間状態Z2iを
作る間接連想コード発生装置(40)と、あたえられた
入力情報Xi および第1中間状態Z1iに対して線形分離
問題である直接連想(Xi ,Z1i)を具現化する入力側
単層パーセップトロン(50)と、あたえられた出力Y
i および第2中間状態Z2iに対して線形分離問題である
直接連想(Z2i,Yi )を具現化する出力側単層パーセ
ップトロン(60)と、かつ直接連想(Xi ,Z1i)
(Z2i,Yi )を最小平均自乗法で学習させるための学
習装置(70)と、入力側単層パーセップトロン(5
0)の第1中間状態Z1iと出力側単層パーセップトロン
(60)の第2中間状態Z2iとを直接連結する位置参照
メモリ(80)を備える。
られた入力データXi および出力情報Yi により線形分
離が可能な第1中間状態Z1iおよび第2中間状態Z2iを
作る間接連想コード発生装置(40)と、あたえられた
入力情報Xi および第1中間状態Z1iに対して線形分離
問題である直接連想(Xi ,Z1i)を具現化する入力側
単層パーセップトロン(50)と、あたえられた出力Y
i および第2中間状態Z2iに対して線形分離問題である
直接連想(Z2i,Yi )を具現化する出力側単層パーセ
ップトロン(60)と、かつ直接連想(Xi ,Z1i)
(Z2i,Yi )を最小平均自乗法で学習させるための学
習装置(70)と、入力側単層パーセップトロン(5
0)の第1中間状態Z1iと出力側単層パーセップトロン
(60)の第2中間状態Z2iとを直接連結する位置参照
メモリ(80)を備える。
【0068】図10と同様、入力側単層パーセップトロ
ン(50)および出力側単層パーセップトロン(60)
は、それぞれ内容参照メモリで構成される。
ン(50)および出力側単層パーセップトロン(60)
は、それぞれ内容参照メモリで構成される。
【0069】また、位置参照メモリ(80)は、一般的
なメモリ素子として、アドレスデコートディング部(8
0a)、内容部(80b)およびデータ出力部(80
c)からなる。
なメモリ素子として、アドレスデコートディング部(8
0a)、内容部(80b)およびデータ出力部(80
c)からなる。
【0070】以下、図11によるCLCAMの操作過程
を説明する。CLCAMの操作過程は、大別して図12
(a)のような学習過程と図12(b)のような連想過
程とに区分される。
を説明する。CLCAMの操作過程は、大別して図12
(a)のような学習過程と図12(b)のような連想過
程とに区分される。
【0071】学習過程は、図12(a)に示したよう
に、あたえられた入力データXi を利用し、間接連想コ
ード発生装置(40)用いて、線形分離問題を作る第1
中間状態Z1iを求める第1学習過程と、図12(a)の
ようにあたえられた出力データYi を利用し、間接連想
コード発生装置(40)を用いて、線形分離問題を作る
第2中間状態Z2iを求める第2学習過程と、図12
(b)のように第1学習過程および第2学習過程を通じ
て得られた2つの直接連想、すなわち入力データXiお
よび第2中間状態Z1iに対する直接連想(Xi ,Z1i)
と、第2中間状態およびZ2i出力データYi に対する直
接連想(Z2i,Yi )とを、それぞれ入力側単層パーセ
ップトロン(50)および出力側単層パーセップトロン
(60)から最小平均自乗法で訓練(training)させる
第3学習過程と、からなる。 ◎ 第1学習過程 図13に示すように、あたえられた入力データXi に対
して線形分離にあるコード(code)、すなわち第1中間
状態Z1iを、補数関数データの幾何学的な配置に基づい
た方法を利用して下記のような段階を通じて作る。 i) あたえられた二進数の入力データXi を、大きさの
順序通り配列する。 ii)最左方のビットが‘0’であるか‘1’であるかに
よって、2つの集合に分ける。
に、あたえられた入力データXi を利用し、間接連想コ
ード発生装置(40)用いて、線形分離問題を作る第1
中間状態Z1iを求める第1学習過程と、図12(a)の
ようにあたえられた出力データYi を利用し、間接連想
コード発生装置(40)を用いて、線形分離問題を作る
第2中間状態Z2iを求める第2学習過程と、図12
(b)のように第1学習過程および第2学習過程を通じ
て得られた2つの直接連想、すなわち入力データXiお
よび第2中間状態Z1iに対する直接連想(Xi ,Z1i)
と、第2中間状態およびZ2i出力データYi に対する直
接連想(Z2i,Yi )とを、それぞれ入力側単層パーセ
ップトロン(50)および出力側単層パーセップトロン
(60)から最小平均自乗法で訓練(training)させる
第3学習過程と、からなる。 ◎ 第1学習過程 図13に示すように、あたえられた入力データXi に対
して線形分離にあるコード(code)、すなわち第1中間
状態Z1iを、補数関数データの幾何学的な配置に基づい
た方法を利用して下記のような段階を通じて作る。 i) あたえられた二進数の入力データXi を、大きさの
順序通り配列する。 ii)最左方のビットが‘0’であるか‘1’であるかに
よって、2つの集合に分ける。
【0072】この時、第1ビットが‘0’の入力データ
Xi からなる集合をAと定義し、第1ビットが‘1’の
入力データXi からなる集合をBと定義する。
Xi からなる集合をAと定義し、第1ビットが‘1’の
入力データXi からなる集合をBと定義する。
【0073】もし、あたえられた入力データXi の第1
ビットがすべて‘0’であればBは空集合になり、あた
えられた入力データXi の第1ビットがすべて‘1’で
あればAは空集合になる。 iii) 図14(a)に示すように、集合Aの要素から、
補数が集合Bの要素となるものをすべて探す。 iv) 段階(iii)で探す要素をX1 と定義すると、この
場合、X1 はAの要素となり、X1 cはBの要素とな
る。X1 を集合Bに移し、Xi と補数関係にある要素X
1 cを集合Aに移した後、集合Aに属するすべての要素
に‘0’を割当て、集合Bに属するすべての要素に
‘1’を割当てる。このような過程をコーディングとい
う。i番目のコーディングにより得られた二進数のベク
トル(vector)をgi とする。 v) gi ={g1 ,g2 ,…gs }が、あたえられた入
力データXi のベクトルgi をすべて区分することがで
きれば、コーディングを終了する。
ビットがすべて‘0’であればBは空集合になり、あた
えられた入力データXi の第1ビットがすべて‘1’で
あればAは空集合になる。 iii) 図14(a)に示すように、集合Aの要素から、
補数が集合Bの要素となるものをすべて探す。 iv) 段階(iii)で探す要素をX1 と定義すると、この
場合、X1 はAの要素となり、X1 cはBの要素とな
る。X1 を集合Bに移し、Xi と補数関係にある要素X
1 cを集合Aに移した後、集合Aに属するすべての要素
に‘0’を割当て、集合Bに属するすべての要素に
‘1’を割当てる。このような過程をコーディングとい
う。i番目のコーディングにより得られた二進数のベク
トル(vector)をgi とする。 v) gi ={g1 ,g2 ,…gs }が、あたえられた入
力データXi のベクトルgi をすべて区分することがで
きれば、コーディングを終了する。
【0074】もし、区分することができなければ、区分
が可能する時までコーディングを繰り返す。 vi) 図14(b)に示すように、交換しようとする補
数要素Xi cがなければ、集合Aの要素を1ビットだけ
変化させて得た仮想要素の補数となるすべての要素を、
集合Bから探す。もし、該当する要素が存在すれば、そ
の要素を1つずつ交換しながら、入力データのベクトル
をすべて区分することができるまで、コーディングを遂
行する。 vii) 段階(vi)のコーディングについてもあたえられ
た入力データXi をすべて区分することができなけれ
ば、図14(c)に示すように、集合Aと集合Bの要素
を1つずつ反対側の集合に移しながら、入力データのベ
クトルをすべて区分することができる時まで、コーディ
ングを遂行する。 viii) 図15に示すような、他と区別できるすべての
入力データのベクトルgi ={g1 ,g2 ,…,gs }
を、図11に示した位置参照メモリ(80)のアドレス
を示す第1中間状態Z1iとして、格納する。 ◎ 第2学習過程 あたえられた出力データYi に対して線形分離している
コード、すなわち第2中間状態Z2iを、間接連想コード
発生装置(40)を通じて作る。
が可能する時までコーディングを繰り返す。 vi) 図14(b)に示すように、交換しようとする補
数要素Xi cがなければ、集合Aの要素を1ビットだけ
変化させて得た仮想要素の補数となるすべての要素を、
集合Bから探す。もし、該当する要素が存在すれば、そ
の要素を1つずつ交換しながら、入力データのベクトル
をすべて区分することができるまで、コーディングを遂
行する。 vii) 段階(vi)のコーディングについてもあたえられ
た入力データXi をすべて区分することができなけれ
ば、図14(c)に示すように、集合Aと集合Bの要素
を1つずつ反対側の集合に移しながら、入力データのベ
クトルをすべて区分することができる時まで、コーディ
ングを遂行する。 viii) 図15に示すような、他と区別できるすべての
入力データのベクトルgi ={g1 ,g2 ,…,gs }
を、図11に示した位置参照メモリ(80)のアドレス
を示す第1中間状態Z1iとして、格納する。 ◎ 第2学習過程 あたえられた出力データYi に対して線形分離している
コード、すなわち第2中間状態Z2iを、間接連想コード
発生装置(40)を通じて作る。
【0075】図16に示すように、このコード生成方法
は、出力データYi が‘1’である場合には‘00’を
割当て、出力データYi が‘0’である場合には、‘1
1’を割当てて、あたえられた出力データYi に対して
線形分離している間接コードを作り、位置参照メモリ
(80)の内容として記憶させる。‘00’の代わりに
‘01’または‘10’のいずれかを用いることができ
る。 ◎ 第3学習過程 第1学習過程および第2学習過程から求めた線形分離問
題にある第1中間状態Z1i、第2中間状態Z2i、あたえ
られた入力データXi および出力データYi に対して具
現化される線形分離問題の直接連想(Xi ,Z1i)およ
び直接連想(Z2i,Yi )を、それぞれ入力側内容参照
メモリ(すなわち単層パーセップトロン(50))およ
び出力側内容参照メモリ(すなわち単層パーセップトロ
ン(60))から、図11の学習手段(70)により最
小平均自乗法で学習させる。 ◎ 連想過程 この連想過程は、第1連想過程と第2連想過程とからな
る。 i) あたえられた入力データXi が前記学習過程を通じ
て学習された図11のCLCAMの入力側単層パーセッ
プトロン(50)に入力されると、入力側単層パーセッ
プトロン(50)は位置参照メモリ(80)のアドレス
として使用される線形分離が可能な第1中間状態Z1iを
出力する。 ii) 位置参照メモリ(80)は入力されるアドレスに
該当する内容、すなわち学習過程における内容として格
納された線形分離可能な第2中間状態Z2iを出力する。
この第2中間状態Z2iは出力側単層パーセップトロン
(60)の入力となる。この時、出力側単層パーセップ
トロン(60)から得られた出力が、所望する出力とな
る。
は、出力データYi が‘1’である場合には‘00’を
割当て、出力データYi が‘0’である場合には、‘1
1’を割当てて、あたえられた出力データYi に対して
線形分離している間接コードを作り、位置参照メモリ
(80)の内容として記憶させる。‘00’の代わりに
‘01’または‘10’のいずれかを用いることができ
る。 ◎ 第3学習過程 第1学習過程および第2学習過程から求めた線形分離問
題にある第1中間状態Z1i、第2中間状態Z2i、あたえ
られた入力データXi および出力データYi に対して具
現化される線形分離問題の直接連想(Xi ,Z1i)およ
び直接連想(Z2i,Yi )を、それぞれ入力側内容参照
メモリ(すなわち単層パーセップトロン(50))およ
び出力側内容参照メモリ(すなわち単層パーセップトロ
ン(60))から、図11の学習手段(70)により最
小平均自乗法で学習させる。 ◎ 連想過程 この連想過程は、第1連想過程と第2連想過程とからな
る。 i) あたえられた入力データXi が前記学習過程を通じ
て学習された図11のCLCAMの入力側単層パーセッ
プトロン(50)に入力されると、入力側単層パーセッ
プトロン(50)は位置参照メモリ(80)のアドレス
として使用される線形分離が可能な第1中間状態Z1iを
出力する。 ii) 位置参照メモリ(80)は入力されるアドレスに
該当する内容、すなわち学習過程における内容として格
納された線形分離可能な第2中間状態Z2iを出力する。
この第2中間状態Z2iは出力側単層パーセップトロン
(60)の入力となる。この時、出力側単層パーセップ
トロン(60)から得られた出力が、所望する出力とな
る。
【0076】上述のように、本発明の第1実施例は、間
接連想概念という思想に立脚して新しい種類のニューラ
ル・ネットワーク及びその操作方法を提案する。
接連想概念という思想に立脚して新しい種類のニューラ
ル・ネットワーク及びその操作方法を提案する。
【0077】本発明は、上述した範囲に限定されるもの
ではなく、間接連想を具現化するための間接連想コード
発生方法を変更することにより、図11のCLCAMで
使用された内容参照メモリ(すなわち単層パーセップト
ロン)の数を増加させることができる。
ではなく、間接連想を具現化するための間接連想コード
発生方法を変更することにより、図11のCLCAMで
使用された内容参照メモリ(すなわち単層パーセップト
ロン)の数を増加させることができる。
【0078】例えば、特定の種類のパターン認識問題を
解くためには、図11に示すようなCLCAMを、複数
個階層的(直列に)連結して、ニューラル・ネットワー
クを構成することもできる。
解くためには、図11に示すようなCLCAMを、複数
個階層的(直列に)連結して、ニューラル・ネットワー
クを構成することもできる。
【0079】また、特定の種類の問題を解くためには、
図9に示すようなCLCAMを複数個並列に連結してニ
ューラル・ネットワークを構成することもできる。
図9に示すようなCLCAMを複数個並列に連結してニ
ューラル・ネットワークを構成することもできる。
【0080】さらに、もし、あたえられた入力データX
i および出力データYi が実数ベクトル(real-valued
vector)であれば、CLCAMと共にq‐レベル変換器
(Q-level quantizer)またはアナログ‐ディジタル変換
器を用いてニューラル・ネットワークを構成することも
できる。
i および出力データYi が実数ベクトル(real-valued
vector)であれば、CLCAMと共にq‐レベル変換器
(Q-level quantizer)またはアナログ‐ディジタル変換
器を用いてニューラル・ネットワークを構成することも
できる。
【0081】第1実施例のCLCAMによれば、従来の
ような誤差逆伝搬学習方法を用いる多層パーセップトロ
ンと比べて、次のような効果がある。 1. 学習時間が速くなる。 2. 局所極小点に落ちないので、どのようなデータが
与えられても学習が可能である。 3. どのような初期加重値を選択しても、優れた学習
性能が保障される。 4. 学習データを加える順序とは関係なく、学習性能
を保障することができる。 5. 同一の複雑度を有する他のニューラル・ネットワ
ークと比べて多量の情報を記憶することができ、また学
習させることができる。 6. 大容量の単語を記憶する映像認識、音声認識、文
書認識、画像認識、神経制御網、予測システムおよび推
論システムのようなパターン認識システムにおいて、高
い認識率を保障することができる。 7. 雑音が多い場合にも、高い認識率を保障すること
ができる。 8. ニューラル・ネットワークにおける、高い制御性
能を保障することができる。
ような誤差逆伝搬学習方法を用いる多層パーセップトロ
ンと比べて、次のような効果がある。 1. 学習時間が速くなる。 2. 局所極小点に落ちないので、どのようなデータが
与えられても学習が可能である。 3. どのような初期加重値を選択しても、優れた学習
性能が保障される。 4. 学習データを加える順序とは関係なく、学習性能
を保障することができる。 5. 同一の複雑度を有する他のニューラル・ネットワ
ークと比べて多量の情報を記憶することができ、また学
習させることができる。 6. 大容量の単語を記憶する映像認識、音声認識、文
書認識、画像認識、神経制御網、予測システムおよび推
論システムのようなパターン認識システムにおいて、高
い認識率を保障することができる。 7. 雑音が多い場合にも、高い認識率を保障すること
ができる。 8. ニューラル・ネットワークにおける、高い制御性
能を保障することができる。
【0082】上述のCLCAMは、多層パーセップトロ
ンに比べて優れた効果を有する。しかしCLCAMの構
成の内、出力側単層パーセップトロンは、位置参照メモ
リに故障がないという仮定下においては、CLCAMの
一般的な能力に特別な影響をあたえないので、必須不可
欠な要素ではない。
ンに比べて優れた効果を有する。しかしCLCAMの構
成の内、出力側単層パーセップトロンは、位置参照メモ
リに故障がないという仮定下においては、CLCAMの
一般的な能力に特別な影響をあたえないので、必須不可
欠な要素ではない。
【0083】第2実施例 第2実施例は第1実施例によるCLCAMと同様の性能
を保持すると共に、CLCAMの構造を単純化させるこ
とができ、かつ学習速度を向上させることができる、改
善されたニューラル・ネットワーク及びその操作方法を
提供するためのものである。
を保持すると共に、CLCAMの構造を単純化させるこ
とができ、かつ学習速度を向上させることができる、改
善されたニューラル・ネットワーク及びその操作方法を
提供するためのものである。
【0084】図17は第2実施例に係るニューラル・ネ
ットワークの概念的な構成ブロック図で、あたえられた
入力Xi と、使用者により人為的な線形分離を行うこと
ができるように求められる中間状態Zi に対して線形分
離問題となる直接連想(Xi,Zi )を具現化する単層
パーセップトロン(110)と、単層パーセップトロン
(110)より出力される中間状態Zi をアドレスとし
て入力し、あたえられた出力データYi をアドレスに対
応させて、所望する出力値として格納する位置参照メモ
リ(120)とを備える。
ットワークの概念的な構成ブロック図で、あたえられた
入力Xi と、使用者により人為的な線形分離を行うこと
ができるように求められる中間状態Zi に対して線形分
離問題となる直接連想(Xi,Zi )を具現化する単層
パーセップトロン(110)と、単層パーセップトロン
(110)より出力される中間状態Zi をアドレスとし
て入力し、あたえられた出力データYi をアドレスに対
応させて、所望する出力値として格納する位置参照メモ
リ(120)とを備える。
【0085】ここで、位置参照メモリ(120)は、一
般的なメモリの構成と同一であり、アドレスディコーデ
ィング部(120a)、各アドレスに該当する内容を格
納する内容部(120b)およびデータ出力部(120
c)で構成される。
般的なメモリの構成と同一であり、アドレスディコーデ
ィング部(120a)、各アドレスに該当する内容を格
納する内容部(120b)およびデータ出力部(120
c)で構成される。
【0086】第1実施例で説明したように、単層パーセ
ップトロンは内容参照メモリと言われる。
ップトロンは内容参照メモリと言われる。
【0087】図17のニューラル・ネットワークは図1
8に示すように、さらに具体的に構成することができ
る。
8に示すように、さらに具体的に構成することができ
る。
【0088】図18のニューラル・ネットワークは、あ
たえられた入力データXi より線形分離が可能な第1中
間状態Zi を作る間接連想コード発生装置(130)
と、あたえられた入力データXi およびあたえられた中
間状態Zi に対する直接連想(Xi ,Zi )を具現化す
る単層パーセップトロン(140)と、直接連想
(Xi,Zi )を最小平均自乗法で単層パーセップトロ
ン(140)において学習させるための学習装置(15
0)と、単層パーセップトロン(140)より出力され
る中間状態Zi をアドレスとして入力し、各アドレスに
対してあたえられた出力データYi を、所望する出力デ
ータYi として格納する位置参照メモリ(160)とか
らなる。
たえられた入力データXi より線形分離が可能な第1中
間状態Zi を作る間接連想コード発生装置(130)
と、あたえられた入力データXi およびあたえられた中
間状態Zi に対する直接連想(Xi ,Zi )を具現化す
る単層パーセップトロン(140)と、直接連想
(Xi,Zi )を最小平均自乗法で単層パーセップトロ
ン(140)において学習させるための学習装置(15
0)と、単層パーセップトロン(140)より出力され
る中間状態Zi をアドレスとして入力し、各アドレスに
対してあたえられた出力データYi を、所望する出力デ
ータYi として格納する位置参照メモリ(160)とか
らなる。
【0089】図17と同様に、位置参照メモリ(16
0)は、一般的なメモリ素子の構造であり、アドレスデ
ィコーディング部(160a)、あたえられた出力デー
タYiを各アドレスに該当する内容として格納する内容
部(160b)およびデータ出力部(160c)で構成
される。
0)は、一般的なメモリ素子の構造であり、アドレスデ
ィコーディング部(160a)、あたえられた出力デー
タYiを各アドレスに該当する内容として格納する内容
部(160b)およびデータ出力部(160c)で構成
される。
【0090】図18のニューラル・ネットワークによれ
ば、直接連想(Xi ,Yi )を間接連想に相応する2つ
の直接連想(Xi ,Zi ),(Zi ,Yi )に変換し、
前者の直接連想(Xi ,Zi )のみを線形分離が可能と
なるように作った後、単層パーセップトロン(140)
から学習させる。
ば、直接連想(Xi ,Yi )を間接連想に相応する2つ
の直接連想(Xi ,Zi ),(Zi ,Yi )に変換し、
前者の直接連想(Xi ,Zi )のみを線形分離が可能と
なるように作った後、単層パーセップトロン(140)
から学習させる。
【0091】後者の直接連想(Zi ,Yi )は直接位置
参照メモリ(160)に記憶させる。この時、後者の直
接連想(Zi ,Yi )は、直接位置参照メモリ(16
0)に記憶されるので、線形分離が可能となるようにす
る必要がない。
参照メモリ(160)に記憶させる。この時、後者の直
接連想(Zi ,Yi )は、直接位置参照メモリ(16
0)に記憶されるので、線形分離が可能となるようにす
る必要がない。
【0092】すなわち、出力側に対して、中間状態に該
当する間接連想コードをさらに作る必要がないので、第
1実施例によるCLCAMに比べて間接連想コード生成
時間が短縮され、後者の単層パーセップトロンを除去す
ることができるので、ニューラル・ネットワークの構成
が簡略化できる。
当する間接連想コードをさらに作る必要がないので、第
1実施例によるCLCAMに比べて間接連想コード生成
時間が短縮され、後者の単層パーセップトロンを除去す
ることができるので、ニューラル・ネットワークの構成
が簡略化できる。
【0093】図17のニューラル・ネットワークは、1
つの内容参照メモリ(すなわち、単層パーセップトロ
ン)と、1つの位置参照メモリとで構成されるので、位
置‐内容参照が可能なメモリ(Hybrid Location-Conten
t Addressable Memory : HyLCAM)と言われる。
つの内容参照メモリ(すなわち、単層パーセップトロ
ン)と、1つの位置参照メモリとで構成されるので、位
置‐内容参照が可能なメモリ(Hybrid Location-Conten
t Addressable Memory : HyLCAM)と言われる。
【0094】外部よりあたえられたm個の直接連想(X
i ,Zi )を図17のHyLCAMに学習させるために
は、あたえられた直接連想(Xi ,Yi )より分離され
る直接連想(Xi ,Z1i)が線形分離の問題となるよう
にするための中間状態を体系的に求められるような方法
を使用することが必須である。
i ,Zi )を図17のHyLCAMに学習させるために
は、あたえられた直接連想(Xi ,Yi )より分離され
る直接連想(Xi ,Z1i)が線形分離の問題となるよう
にするための中間状態を体系的に求められるような方法
を使用することが必須である。
【0095】この問題を間接連想コード発生問題(indi
rect association code generationproblem)という。
rect association code generationproblem)という。
【0096】第2実施例では、種々の解決方法の中で、
自己複製法(auto-association)および補数関係データ
(Complement data)の幾何学的な配置に基づいたコーデ
ィング方法を利用する。
自己複製法(auto-association)および補数関係データ
(Complement data)の幾何学的な配置に基づいたコーデ
ィング方法を利用する。
【0097】この方法の効率は、あたえられた入力デー
タXi の数mとこの入力データXiに対する補数データ
Xi cの数sと、入力データXi の大きさnによって決
定される。
タXi の数mとこの入力データXiに対する補数データ
Xi cの数sと、入力データXi の大きさnによって決
定される。
【0098】もし、n>m−s−1であれば、自己複製
法の方が効率的であり、n>m−s−1でなければ、補
数関係データの方が効率的である。
法の方が効率的であり、n>m−s−1でなければ、補
数関係データの方が効率的である。
【0099】自己複製法とは、入力データXi をそのま
ま単層パーセップトロン(140)の出力、すなわち中
間状態Zi として使用する方法である。この方法では間
接連想コードを作る必要がなく、補数関係データの幾何
学的な配置による間接連想コード生成方法と比較して図
18に示した間接連想コード発生装置(130)の構造
をさらに簡略に構成することができるという長所があ
る。
ま単層パーセップトロン(140)の出力、すなわち中
間状態Zi として使用する方法である。この方法では間
接連想コードを作る必要がなく、補数関係データの幾何
学的な配置による間接連想コード生成方法と比較して図
18に示した間接連想コード発生装置(130)の構造
をさらに簡略に構成することができるという長所があ
る。
【0100】この補数関係データの幾何学的な配置に基
づいて間接的な線形分離が可能であることはすでに証明
されており、これは下記のHyLCAMの操作による補
数関係データの幾何学的な配置を根拠とした間接連想コ
ード生成方法や、やはり下記のHyLCAMの操作の説
明とともに、詳細に説明する。
づいて間接的な線形分離が可能であることはすでに証明
されており、これは下記のHyLCAMの操作による補
数関係データの幾何学的な配置を根拠とした間接連想コ
ード生成方法や、やはり下記のHyLCAMの操作の説
明とともに、詳細に説明する。
【0101】図18に示したHyLCAMの操作過程
は、大別して図19(a)に示した学習過程と、図19
(b)に示した連想過程とに区分される。
は、大別して図19(a)に示した学習過程と、図19
(b)に示した連想過程とに区分される。
【0102】図19(a)に示すように、学習過程は、
あたえられた入力データXi および出力データYi を利
用して、間接連想コード発生装置によりあたえられた入
力データXi に対して線形分離が可能な間接連想コード
を、1つの中間状態Zi として求める第1学習過程と、
間接連想概念にしたがって第1学習過程から求めた中間
状態Zi およびあたえられた入力データXi に対する直
接連想(Xi ,Zi )を単層パーセップトロンから最小
平均自乗法で訓練させ、中間状態Zi を位置参照メモリ
のアドレスディコーディング部(160a)に記憶さ
せ、あたえられた出力データYi を位置参照メモリ(1
60)の内容部(160b)に記憶させる第2学習過程
と、からなる。 ◎ 第1学習過程 第1学習方法は、上述のように、2つの方法、すなわち
自己複製方法と補数関係データの幾何学的な配置に基づ
いた方法とにより遂行される。
あたえられた入力データXi および出力データYi を利
用して、間接連想コード発生装置によりあたえられた入
力データXi に対して線形分離が可能な間接連想コード
を、1つの中間状態Zi として求める第1学習過程と、
間接連想概念にしたがって第1学習過程から求めた中間
状態Zi およびあたえられた入力データXi に対する直
接連想(Xi ,Zi )を単層パーセップトロンから最小
平均自乗法で訓練させ、中間状態Zi を位置参照メモリ
のアドレスディコーディング部(160a)に記憶さ
せ、あたえられた出力データYi を位置参照メモリ(1
60)の内容部(160b)に記憶させる第2学習過程
と、からなる。 ◎ 第1学習過程 第1学習方法は、上述のように、2つの方法、すなわち
自己複製方法と補数関係データの幾何学的な配置に基づ
いた方法とにより遂行される。
【0103】以下、これらを図20を参照して説明す
る。 ◎ 自己複製法 もし、n>m−s−1であれば、間接連想コード発生方
法として、自己複製法を使用する。
る。 ◎ 自己複製法 もし、n>m−s−1であれば、間接連想コード発生方
法として、自己複製法を使用する。
【0104】この方法は、あたえられた入力データXi
を、図17および図18の単層パーセップトロンの出力
(または中間状態Zi )として使用する。
を、図17および図18の単層パーセップトロンの出力
(または中間状態Zi )として使用する。
【0105】すなわち、Zi =Xi である。この間接連
想コード発生方法は、すべての自己複製(auto-associa
tion)(X1 ,X1 ),(X2 ,Y2 )…(Xm ,
Xm )は、線形分離が可能であるという事実に基づくも
のである。
想コード発生方法は、すべての自己複製(auto-associa
tion)(X1 ,X1 ),(X2 ,Y2 )…(Xm ,
Xm )は、線形分離が可能であるという事実に基づくも
のである。
【0106】ここで、Xi はn次元のベクトルである。
また、Zi =Xi であるので、生成された直接連想(X
i ,Zi )は線形分離が可能であり、中間状態Zi を表
現するベクトルの大きさは入力ベクトルの大きさと同一
である。
また、Zi =Xi であるので、生成された直接連想(X
i ,Zi )は線形分離が可能であり、中間状態Zi を表
現するベクトルの大きさは入力ベクトルの大きさと同一
である。
【0107】すなわちh=nである。この自己複製法
は、剰余(redundant)データを根拠とする間接連想コー
ド生成方法と呼ばれ、これを定理(theorem)と証明(pr
oof)および推論(corollary)の順に詳細に説明する。
は、剰余(redundant)データを根拠とする間接連想コー
ド生成方法と呼ばれ、これを定理(theorem)と証明(pr
oof)および推論(corollary)の順に詳細に説明する。
【0108】この方法は剰余データの対(pairs)が、線
形分離可能であることを示す、次の定理から得られる。 定理1:剰余データ対(X1 ,X1 )…(Xm ,Xm )
は各入力データXi がn次元(dimensional)の二進ベク
トルである場合、線形分離が可能である。 証明:nを特定の値とした場合の証明を、一般的な場合
すなわちnを任意の値とした場合にまで拡張することは
容易であるので、まずn=3と仮定する。
形分離可能であることを示す、次の定理から得られる。 定理1:剰余データ対(X1 ,X1 )…(Xm ,Xm )
は各入力データXi がn次元(dimensional)の二進ベク
トルである場合、線形分離が可能である。 証明:nを特定の値とした場合の証明を、一般的な場合
すなわちnを任意の値とした場合にまで拡張することは
容易であるので、まずn=3と仮定する。
【0109】そして、m=2n =8の場合を考える。
【0110】あたえられたスイッチング関数としての自
己複製は、1つの真理テーブル(truth table)で表すこ
とができる。
己複製は、1つの真理テーブル(truth table)で表すこ
とができる。
【0111】このことは、デーブル1の1番目および2
番目のコラム(column)に示されている。
番目のコラム(column)に示されている。
【0112】 テーブル1:自己複製の真理テーブルおよびこれに対応する不等式 X1 X2 X3 f1 f2 f3 不等式 0 0 0 0 0 0 0<T 0 0 1 0 0 1 W3 <T 0 1 0 0 1 0 W2 <T 0 1 1 0 1 1 W2 +W3 <T 1 0 0 1 0 0 W1 >T 1 0 1 1 0 1 W1 +W3 >T 1 1 0 1 1 0 W1 +W2 >T 1 1 1 1 1 1 W1 +W2 +W3 >T
【0113】 テーブル2:f2 の線形分離を評価するためのテーブル X1 X2 X3 f2 不等式 0 0 0 0 0<T 0 0 1 0 W1 <T 0 1 0 0 W3 <T 0 1 1 0 W1 +W3 <T 1 0 0 1 W2 >T 1 0 1 1 W1 +W2 >T 1 1 0 1 W2 +W3 >T 1 1 1 1 W1 +W2 +W3 >T ついで、スイッチング関数f1 の線形分離問題を考え
る。スイッチング関数の理論(theory)に基づいて8個
の不等式が構成されてテーブル1の3番目のコラムに記
載さている。上方から4番目の列までは矛盾(contradi
ction)がないことが容易に発見される。
る。スイッチング関数の理論(theory)に基づいて8個
の不等式が構成されてテーブル1の3番目のコラムに記
載さている。上方から4番目の列までは矛盾(contradi
ction)がないことが容易に発見される。
【0114】矛盾がないということは、その不等式を満
足する加重値W1 が存在することを意味する。下方から
4番目の列(bottom four rows)までは利得項(gain t
erm)W1 を加算し、上方から4番目の列に対して不等号
を反対にすることにより容易に得られるので、それには
どんな矛盾もないということが注目される。
足する加重値W1 が存在することを意味する。下方から
4番目の列(bottom four rows)までは利得項(gain t
erm)W1 を加算し、上方から4番目の列に対して不等号
を反対にすることにより容易に得られるので、それには
どんな矛盾もないということが注目される。
【0115】上方および下方の式は、共通のパターンを
有するので、下記式(10),(11),(12),
(13)のように、結合して示すことができる。 T’≦0 <T ………(10) T’≦W3 <T ………(11) T’≦W2 <T ………(12) T’≦W2 +W3 <T ………(13) ここで、T’=T−W1 である。式(10)〜(13)
を満足するW1 ,TおよびT’を探すことは保障されて
いる。したがって、スイッチング関数f1 は線形分離が
可能であると結論できる。スイッチング関数f2 の線形
分離は、テーブル2に示すように、真理テーブルを再作
成する方法により立証することができる。
有するので、下記式(10),(11),(12),
(13)のように、結合して示すことができる。 T’≦0 <T ………(10) T’≦W3 <T ………(11) T’≦W2 <T ………(12) T’≦W2 +W3 <T ………(13) ここで、T’=T−W1 である。式(10)〜(13)
を満足するW1 ,TおよびT’を探すことは保障されて
いる。したがって、スイッチング関数f1 は線形分離が
可能であると結論できる。スイッチング関数f2 の線形
分離は、テーブル2に示すように、真理テーブルを再作
成する方法により立証することができる。
【0116】これに対応する不等式は、スイッチング関
数f1 を用いて作った式と同じパターンのものであり、
添字が異なるだけである。
数f1 を用いて作った式と同じパターンのものであり、
添字が異なるだけである。
【0117】スイッチング関数f1 の線形分離を証明す
る場合と同じの理由により、スイッチング関数f2 も線
形分離が可能であると結論できる。
る場合と同じの理由により、スイッチング関数f2 も線
形分離が可能であると結論できる。
【0118】スイッチング関数f3 の線形分離も、同様
の手順で確められる。
の手順で確められる。
【0119】最後に、m<2n の場合を考える。この場
合は、考慮しない項(Don't care terms)としてみるこ
とのできる欠落項が存在することを意味する。
合は、考慮しない項(Don't care terms)としてみるこ
とのできる欠落項が存在することを意味する。
【0120】非矛盾式(noncontradictory equations)
の部分集合は、常に非矛盾であるので、考慮しない項は
スイッチング関数の線形分離には影響をあたえない。
の部分集合は、常に非矛盾であるので、考慮しない項は
スイッチング関数の線形分離には影響をあたえない。
【0121】この証明は、常に非矛盾不等式を作る真理
テーブル内において共通パターンとして存在するものと
することを考慮することにより、任意の数nに対して容
易に拡張することができる。 推論1:単層パーセップトロンは、各入力データXi が
n次元二進ベクトル(binary vector)である場合におい
て、常に自己複製(Xi ),(Xi )…(Xm ),(X
m )を表し、学習することができる。 証明:定理1およびRosenblattによるパーセップトロン
カンバーゼンス(convergence)定理(F.Rosenblatt, Pr
inciples of Neurodynamics, NewYork, SpartanBooks,
1959 。)により証明される。
テーブル内において共通パターンとして存在するものと
することを考慮することにより、任意の数nに対して容
易に拡張することができる。 推論1:単層パーセップトロンは、各入力データXi が
n次元二進ベクトル(binary vector)である場合におい
て、常に自己複製(Xi ),(Xi )…(Xm ),(X
m )を表し、学習することができる。 証明:定理1およびRosenblattによるパーセップトロン
カンバーゼンス(convergence)定理(F.Rosenblatt, Pr
inciples of Neurodynamics, NewYork, SpartanBooks,
1959 。)により証明される。
【0122】定理1および推論1は、自己複製の使用が
間接コード生成問題に対する簡単な解答を提供すること
ができることを意味する。この場合において、中間状態
Ziの次数は上述のように入力状態のそれと同一である
(h=n)。 ◎ 補数関係データの幾何学的な配置に基づく間接コー
ド生成方法 n≦m−s−1であれば、前記自己複製方法を適用せ
ず、入力データXi に対して線形分離となる間接連想コ
ードを、補数関係データの幾何学的な配置に基づくコー
ド生成法を使用して作る。
間接コード生成問題に対する簡単な解答を提供すること
ができることを意味する。この場合において、中間状態
Ziの次数は上述のように入力状態のそれと同一である
(h=n)。 ◎ 補数関係データの幾何学的な配置に基づく間接コー
ド生成方法 n≦m−s−1であれば、前記自己複製方法を適用せ
ず、入力データXi に対して線形分離となる間接連想コ
ードを、補数関係データの幾何学的な配置に基づくコー
ド生成法を使用して作る。
【0123】この間接連想コードの生成方法は、第1実
施例において第1中間状態Zi として使用された間接コ
ード生成方法と類似している。
施例において第1中間状態Zi として使用された間接コ
ード生成方法と類似している。
【0124】理解のために、この方法を図20を参照し
て、以下のように、段階別に再度説明する。 i) あたえられた二進数の入力データXi を大きさの順
序通り配列し、最左方のビットが‘0’であるものと
‘1’であるものとの2つの集合に分ける。
て、以下のように、段階別に再度説明する。 i) あたえられた二進数の入力データXi を大きさの順
序通り配列し、最左方のビットが‘0’であるものと
‘1’であるものとの2つの集合に分ける。
【0125】この時、第1ビットが‘0’である入力デ
ータの集合をAとし、第1ビットが‘1’である入力デ
ータの集合をBとする。
ータの集合をAとし、第1ビットが‘1’である入力デ
ータの集合をBとする。
【0126】もし、あたえられた入力データXi の第1
ビットがすべて‘0’であるとBは空集合になり、あた
えられた入力データXi の第1ビットがすべて‘1’で
あるとAは空集合になる。 ii) k=0と設定する。
ビットがすべて‘0’であるとBは空集合になり、あた
えられた入力データXi の第1ビットがすべて‘1’で
あるとAは空集合になる。 ii) k=0と設定する。
【0127】集合Aの要素に‘0’を割当て、集合Bの
要素に‘1’を割当てて、gk を作る。 iii) 集合Aの要素から、補数が集合Bの要素となるも
のをすべて探す。
要素に‘1’を割当てて、gk を作る。 iii) 集合Aの要素から、補数が集合Bの要素となるも
のをすべて探す。
【0128】これにより探したデータの数をsとする。
もし、s=0であれば、ステップ(iv)に移行する。 iv) k=k+1と設定する。
もし、s=0であれば、ステップ(iv)に移行する。 iv) k=k+1と設定する。
【0129】Xi がAの要素であり、Xi cがBの要素
であるXi を考える。Xi を集合Bに移し、Xi に補数
関係がある要素Xi cを集合Aに移した後、これにより
作った集合をAk およびBk とする。
であるXi を考える。Xi を集合Bに移し、Xi に補数
関係がある要素Xi cを集合Aに移した後、これにより
作った集合をAk およびBk とする。
【0130】集合Ak に属するすべての要素に‘0’を
割当て、集合Bk に属するすべての要素に‘1’を割当
ててgk を作る。 v) {g1 ,g2 ,…gk }を列ベクトルとする行列G
を考える。
割当て、集合Bk に属するすべての要素に‘1’を割当
ててgk を作る。 v) {g1 ,g2 ,…gk }を列ベクトルとする行列G
を考える。
【0131】この時、Gの行ベクトルは中間状態Zi と
なり、この中間状態Zi が入力ベクトルをすべて区分す
ることができれば、ステップ(vii)に移行する。
なり、この中間状態Zi が入力ベクトルをすべて区分す
ることができれば、ステップ(vii)に移行する。
【0132】もし、区分することができなければ、k=
sとなるまでステップ(vi)を繰り返す。 vi) k=0と設定する。
sとなるまでステップ(vi)を繰り返す。 vi) k=0と設定する。
【0133】集合Aの要素の補数が集合Bに存在しない
場合は、この要素を集合Bに移し、これにより作った集
合をAs+k およびBs+k とする。集合As+k のすべての
要素に‘0’を割当て、集合Bs+k のすべての要素に
‘1’を割当てることにより、ベクトルgs+k を求め
る。 vii) 二進ベクトルgs+k を列ベクトルとする行列を考
えると、その行列の行ベクトルを中間状態Zi として定
め、求めた中間状態Zi があたえられた入力ベクトルを
すべて区分することができるようになるまで、ステップ
(vi)を繰り返す。 viii) コード生成を終了する。 ◎ 第2学習過程 第2学習過程は、第1学習過程から作られた中間状態Z
i を利用して求めた2つの直接連想(Xi ,Zi )(Z
i ,Yi )の内で、前者の直接連想(Xi ,Zi )を図
18に示す単層パーセップトロンから最小平均自乗法で
学習させる段階と、後者の直接連想(Zi ,Yi )を図
18の位置参照メモリ(160)にアドレスおよび内容
として格納する段階とからなる。 ◎ 連想過程 HyLCAMの連想作用は、次の通りである。図19
(b)に示すように、学習された図18のHyLCAM
にあたえられた入力データXi が入力されると、多層パ
ーセップトロンは位置参照メモリのアドレスとして中間
状態Xi を出力する過程と、位置参照メモリは単層パー
セップトロンにより出力されたアドレスに該当する内容
すなわちあたえられた出力データYi を出力する過程と
らかなる。
場合は、この要素を集合Bに移し、これにより作った集
合をAs+k およびBs+k とする。集合As+k のすべての
要素に‘0’を割当て、集合Bs+k のすべての要素に
‘1’を割当てることにより、ベクトルgs+k を求め
る。 vii) 二進ベクトルgs+k を列ベクトルとする行列を考
えると、その行列の行ベクトルを中間状態Zi として定
め、求めた中間状態Zi があたえられた入力ベクトルを
すべて区分することができるようになるまで、ステップ
(vi)を繰り返す。 viii) コード生成を終了する。 ◎ 第2学習過程 第2学習過程は、第1学習過程から作られた中間状態Z
i を利用して求めた2つの直接連想(Xi ,Zi )(Z
i ,Yi )の内で、前者の直接連想(Xi ,Zi )を図
18に示す単層パーセップトロンから最小平均自乗法で
学習させる段階と、後者の直接連想(Zi ,Yi )を図
18の位置参照メモリ(160)にアドレスおよび内容
として格納する段階とからなる。 ◎ 連想過程 HyLCAMの連想作用は、次の通りである。図19
(b)に示すように、学習された図18のHyLCAM
にあたえられた入力データXi が入力されると、多層パ
ーセップトロンは位置参照メモリのアドレスとして中間
状態Xi を出力する過程と、位置参照メモリは単層パー
セップトロンにより出力されたアドレスに該当する内容
すなわちあたえられた出力データYi を出力する過程と
らかなる。
【0134】上述のように、第2実施例では間接連想概
念の思想に立脚して新しいニューラル・ネットワーク及
びその操作方法を提供した。
念の思想に立脚して新しいニューラル・ネットワーク及
びその操作方法を提供した。
【0135】間接連想を具現化するために、また他の間
接連想コード合成方法を使用することにより、HyLC
AMから使用される単層パーセップトロンの数を増加さ
せることができる。
接連想コード合成方法を使用することにより、HyLC
AMから使用される単層パーセップトロンの数を増加さ
せることができる。
【0136】特定の種類の問題を解するためには、図1
7、図18に示すようなHyLCAMの多数を直列に連
結してニューラル・ネットワークを構成することもでき
る。
7、図18に示すようなHyLCAMの多数を直列に連
結してニューラル・ネットワークを構成することもでき
る。
【0137】また、特定の種類の問題を解するために
は、いくつのHyLCAMを並列的に連結してニューラ
ル・ネットワークを構成することもできる。
は、いくつのHyLCAMを並列的に連結してニューラ
ル・ネットワークを構成することもできる。
【0138】また、あたえられた入出力データが実数ベ
クトル(real-valued vector)であれば、q‐レベル量
子化器(Q-level quantizer)またはアナログ‐ディジタ
ル変換器(A/D Converter)をHyLCAMと共に用いて
ニューラル・ネットワークを構成することもできる。
クトル(real-valued vector)であれば、q‐レベル量
子化器(Q-level quantizer)またはアナログ‐ディジタ
ル変換器(A/D Converter)をHyLCAMと共に用いて
ニューラル・ネットワークを構成することもできる。
【0139】以上説明したように、本発明の第2実施例
によれば、HyLCAMは、第1実施例のCLCAMと
比較して出力側単層パーセップトロンが除去されるの
で、ニューラル・ネットワークの構造が簡単となり、自
己複製法による間接コード(すなわち、中間状態)の生
成により学習時間が短縮されるという効果を有する。
によれば、HyLCAMは、第1実施例のCLCAMと
比較して出力側単層パーセップトロンが除去されるの
で、ニューラル・ネットワークの構造が簡単となり、自
己複製法による間接コード(すなわち、中間状態)の生
成により学習時間が短縮されるという効果を有する。
【0140】もちろん、HyLCAMは従来の多層パー
セップトロンと比較して第1実施例で説明したCLCA
Mのすべての長所を同様に有する。
セップトロンと比較して第1実施例で説明したCLCA
Mのすべての長所を同様に有する。
【0141】上述した第2実施例として提案したHyL
CAMの性能を評価するために、n個の入力に1つの出
力を有する簡単なEXORの問題の例をあげる。
CAMの性能を評価するために、n個の入力に1つの出
力を有する簡単なEXORの問題の例をあげる。
【0142】この問題の興味深いのは、すでにPDP
Group(D.E.Rumelhart, G.E.Hinton, and R.J.wil
liams,“Learning internal representations by error
propagation”in parallel Distributed Processing.
Cambridge, MA; MIT press,1988, pp.318〜362 .)が
提示したように、誤差逆伝搬により学習された多層パー
セップトロンがこの問題に対して局所極小点に収斂され
る場合があるためである。
Group(D.E.Rumelhart, G.E.Hinton, and R.J.wil
liams,“Learning internal representations by error
propagation”in parallel Distributed Processing.
Cambridge, MA; MIT press,1988, pp.318〜362 .)が
提示したように、誤差逆伝搬により学習された多層パー
セップトロンがこの問題に対して局所極小点に収斂され
る場合があるためである。
【0143】まず、HyLCAMの学習を考える。どの
ようなnに対してもn<m−s−1であるので、適当な
中間状態を探すために自己複製方法を利用する。テーブ
ル3は、3つの入力を有するEXOR問題に対する中間
状態を示す。
ようなnに対してもn<m−s−1であるので、適当な
中間状態を探すために自己複製方法を利用する。テーブ
ル3は、3つの入力を有するEXOR問題に対する中間
状態を示す。
【0144】ついで、得られた直接連想(Xi ,Zi )
(Zi ,Yi )を、図18に示すようにHyLCAMの
単層パーセップトロンおよび位置参照メモリにそれぞれ
記憶させる。
(Zi ,Yi )を、図18に示すようにHyLCAMの
単層パーセップトロンおよび位置参照メモリにそれぞれ
記憶させる。
【0145】また、学習速度の比較のために、誤差逆伝
搬によって学習した多層パーセップトロンとの比較実験
を行う。
搬によって学習した多層パーセップトロンとの比較実験
を行う。
【0146】公正な比較のために、多層パーセップトロ
ンの隠れ層の数は、HyLCAMの中間状態Zi の大き
さと同一にした。
ンの隠れ層の数は、HyLCAMの中間状態Zi の大き
さと同一にした。
【0147】図21は、入力データを2個から5個に変
化させる場合の学習回数の変化を示す。多層パーセップ
トロンの学習回数は、入力データXi の数に指数関数的
に比例して増加した反面、提案されたHyLCAMはほ
とんど線形的に変化することが理解できる。
化させる場合の学習回数の変化を示す。多層パーセップ
トロンの学習回数は、入力データXi の数に指数関数的
に比例して増加した反面、提案されたHyLCAMはほ
とんど線形的に変化することが理解できる。
【0148】すなわち、提案されたHyLCAMには、
MinskyおよびPapertが指摘したscaling-up
問題がみられないことが理解できる。
MinskyおよびPapertが指摘したscaling-up
問題がみられないことが理解できる。
【0149】最終的に、24回の学習中、図2(b)の
多層パーセップトロンでは局所極小点に収斂される回数
が4回である反面、図18のHyLCAMでは全く収斂
されなかったことを確認した。
多層パーセップトロンでは局所極小点に収斂される回数
が4回である反面、図18のHyLCAMでは全く収斂
されなかったことを確認した。
【0150】したがって、図21のようにHyLCAM
の解が保証されていることに伴う速い学習速度を確認し
た。
の解が保証されていることに伴う速い学習速度を確認し
た。
【0151】テーブル3.3個の入力を有するEXOR
および形成された中間状態
および形成された中間状態
【図面の簡単な説明】 【図1】(a)は一般的なニューラル・ネットワークの
構造を示すダイヤグラムであり、(b)は図1(a)の
領域kに対する拡大図である。 【図2】(a)は単層パーセップトロンの構造を示すダ
イヤグラムであり、(b)は多層単層パーセップトロン
の構造を示すダイヤグラムである。 【図3】(a)〜(c)ともに線形分離問題を示す説明
図である。 【図4】間接連想の概念を説明するためのダイヤグラム
である。 【図5】全てのパターン認識問題領域の中、線形分離問
題の領域と非線形分離問題の領域との関係を示すダイヤ
グラムである。 【図6】単層パーセップトロンの学習過程を説明するダ
イヤグラムである。 【図7】多層パーセップトロンの学習過程を説明するダ
イヤグラムである。 【図8】多層パーセップトロンの漸減法を説明するダイ
ヤグラムである。 【図9】(a)は多層パーセップトロンにおいて最小平
均自乗法により加重値を調節する場合を示すエネルギー
グラフであり、(b)は多層パーセップトロンにおいて
誤差伝搬学習により加重値を調節する場合を示すエネル
ギーグラフである。 【図10】本発明の第1実施例によるCLCAMの概念
的な構成ブロック図である。 【図11】本発明の第1実施例によるCLCAMの具体
的な構成ブロック図である。 【図12】(a)は本発明の第1実施例によるCLCA
Mの学習過程を示すダイヤグラムであり、(b)は本発
明の第1実施例によるCLCAMの連想過程を示すダイ
ヤグラムである。 【図13】第1実施例にしたがってあたえられた入力デ
ータXi に対して線形分離可能な第1中間状態Z1iとし
ての間接連想コードを生成する過程を示すフローチャー
トダである。 【図14】(a)〜(c)ともに、補数関係データの幾
何学的配置に基づいた方法により第1中間状態Z1iに該
当する間接連想コードを生成する段階を示すフローチャ
ートである。 【図15】入力データのベルトルを示す図である。 【図16】第1実施例にしたがってあたえられた出力デ
ータYi に対して線形分離が可能な第2中間状態Z2iと
しての間接連想コードを生成する方法を示すダイヤグラ
ムである。 【図17】本発明の第2実施例によるHyLCAMの概
念的な構成ブロック図である。 【図18】本発明の第2実施例によるHyLCAMの具
体的な構成ブロック図である。 【図19】(a)は本発明の第2実施例によるHyLC
AMの学習過程を示すダイヤグラムであり、(b)は本
発明の第2実施例によるHyLCAMの連想過程を示す
ダイヤグラムである。 【図20】第2実施例にしたがってあたえられた入力デ
ータXi に対して線形分離が可能な中間状態Zi として
の間接連想コードの生成過程を示すフローチャートであ
る。 【図21】多層パーセップトロンとHyLCAMの学習
速度とを比較したグラフである。 【符号の説明】 10,20,50,60,110,140 単層パーセ
ップトロン 30,80,120,160 位置参照メモリ 40,130 間接連想コード発生装置 70,150 学習装置
構造を示すダイヤグラムであり、(b)は図1(a)の
領域kに対する拡大図である。 【図2】(a)は単層パーセップトロンの構造を示すダ
イヤグラムであり、(b)は多層単層パーセップトロン
の構造を示すダイヤグラムである。 【図3】(a)〜(c)ともに線形分離問題を示す説明
図である。 【図4】間接連想の概念を説明するためのダイヤグラム
である。 【図5】全てのパターン認識問題領域の中、線形分離問
題の領域と非線形分離問題の領域との関係を示すダイヤ
グラムである。 【図6】単層パーセップトロンの学習過程を説明するダ
イヤグラムである。 【図7】多層パーセップトロンの学習過程を説明するダ
イヤグラムである。 【図8】多層パーセップトロンの漸減法を説明するダイ
ヤグラムである。 【図9】(a)は多層パーセップトロンにおいて最小平
均自乗法により加重値を調節する場合を示すエネルギー
グラフであり、(b)は多層パーセップトロンにおいて
誤差伝搬学習により加重値を調節する場合を示すエネル
ギーグラフである。 【図10】本発明の第1実施例によるCLCAMの概念
的な構成ブロック図である。 【図11】本発明の第1実施例によるCLCAMの具体
的な構成ブロック図である。 【図12】(a)は本発明の第1実施例によるCLCA
Mの学習過程を示すダイヤグラムであり、(b)は本発
明の第1実施例によるCLCAMの連想過程を示すダイ
ヤグラムである。 【図13】第1実施例にしたがってあたえられた入力デ
ータXi に対して線形分離可能な第1中間状態Z1iとし
ての間接連想コードを生成する過程を示すフローチャー
トダである。 【図14】(a)〜(c)ともに、補数関係データの幾
何学的配置に基づいた方法により第1中間状態Z1iに該
当する間接連想コードを生成する段階を示すフローチャ
ートである。 【図15】入力データのベルトルを示す図である。 【図16】第1実施例にしたがってあたえられた出力デ
ータYi に対して線形分離が可能な第2中間状態Z2iと
しての間接連想コードを生成する方法を示すダイヤグラ
ムである。 【図17】本発明の第2実施例によるHyLCAMの概
念的な構成ブロック図である。 【図18】本発明の第2実施例によるHyLCAMの具
体的な構成ブロック図である。 【図19】(a)は本発明の第2実施例によるHyLC
AMの学習過程を示すダイヤグラムであり、(b)は本
発明の第2実施例によるHyLCAMの連想過程を示す
ダイヤグラムである。 【図20】第2実施例にしたがってあたえられた入力デ
ータXi に対して線形分離が可能な中間状態Zi として
の間接連想コードの生成過程を示すフローチャートであ
る。 【図21】多層パーセップトロンとHyLCAMの学習
速度とを比較したグラフである。 【符号の説明】 10,20,50,60,110,140 単層パーセ
ップトロン 30,80,120,160 位置参照メモリ 40,130 間接連想コード発生装置 70,150 学習装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 高 碩 培 大韓民国ソウル特別市恩平区鷹岩洞242− 264、富一住宅ビー105 (72)発明者 李 潤 根 大韓民国ソウル特別市九老区九老洞住公ア パートメント、117−302
Claims (35)
- 【請求項1】あたえられた入力Xi と、使用者により求
められた第1中間状態Z1iに対する線形分離問題である
直接連想(Xi ,Z1i)を具現化する入力側単層パーセ
ップトロンと、 あたえられた出力Yi と使用者により求められた第2中
間状態Z2iに対する線形分離問題である直接連想
(Z2i,Yi )を具現化する出力側単層パーセップトロ
ンと、 第1中間状態Z1iと第2中間状態Z2iとを連結させるた
めの位置参照メモリと、 を備えることを特徴とするニューラル・ネットワーク。 - 【請求項2】入力側単層パーセップトロンおよび出力側
単層パーセップトロンは、内容参照メモリで構成するこ
とを特徴とする請求項1記載のニューラル・ネットワー
ク。 - 【請求項3】特定の種類の問題の解を出力するために、
前記入力側単層パーセップトロン、前記出力側単層パー
セップトロン、前記位置参照メモリのいずれかが直列に
連結されることを特徴とする請求項1記載のニューラル
・ネットワーク。 - 【請求項4】特定の種類の問題を解するために、前記入
力側単層パーセップトロン、前記出力側単層パーセップ
トロン、前記位置参照メモリのいずれかが並列に連結さ
れることを特徴とする請求項1記載のニューラル・ネッ
トワーク。 - 【請求項5】入力データXi および出力データYi が実
数ベクトルであれば、これらを処理するために、アナロ
グ−ディジタル変換器を含むことを特徴とする請求項1
〜4のいずれかに記載のニューラル・ネットワーク。 - 【請求項6】入力データXi および出力データYi が実
数ベクトルである場合には、これらを処理するために、
q(正の整数)量子化器を含むことを特徴とする請求項
1〜4のいずれに記載のニューラル・ネットワーク。 - 【請求項7】あたえられた入力Xi およびあたえられた
出力Yi より、線形分離が可能な第1中間状態Z1iおよ
び第2中間状態Z2iを作るための間接連想コード発生手
段と、 あたえられた入力情報Xi および第1中間状態Z1iに対
する線形分離問題である直接連想(Xi ,Zi )を具現
化する入力側単層パーセップトロンと、 あたえられた出力Yi および第2中間状態Z2iに対する
線形分離問題である直接連想(Z2i,Yi )を具現化す
る出力側単層パーセップトロンと、 前記直接連想(Xi ,Z1i)(Z2i,Yi )を最小平均
自乗法で学習させるための学習手段と、 入力側単層パーセップトロンに対する第1中間状態Z1i
と出力側単層パーセップトロンに対する第2中間状態Z
2iとを直列連結する位置参照メモリと、 を備えることを特徴とするニューラル・ネットワーク。 - 【請求項8】入力側単層パーセップトロンおよび出力側
単層パーセップトロンは、それぞれ内容参照メモリで構
成することを特徴とする請求項7記載のニューラル・ネ
ットワーク。 - 【請求項9】特定の種類の問題を解するために、前記間
接コード発生手段、前記入力側単層パーセップトロン、
前記学習手段、前記位置参照メモリのいずれかが直列に
連結されることを特徴とする請求項7記載のニューラル
・ネットワーク。 - 【請求項10】特定の問題を解するために、前記間接コ
ード発生手段、前記入力側単層パーセップトロン、前記
学習手段、前記位置参照メモリのいずれかが並列に連結
されることを特徴とする請求項7記載のニューラル・ネ
ットワーク。 - 【請求項11】入力データXi および出力データYi が
実数ベクトルであれば、これらを処理するために、アナ
ログ−ディジタル変換器を含むことを特徴とする請求項
〜10記載のいずれかに記載のニューラル・ネットワー
ク。 - 【請求項12】入力データXi および出力データYi が
実数ベクトルである場合には、これらを処理するため
に、q(正の整数)量子化器を含むことを特徴とする請
求項7〜10のいずれかに記載のニューラル・ネットワ
ーク。 - 【請求項13】入力側単層パーセップトロン、出力側単
層パーセップトロンおよび位置参照メモリを備えたニュ
ーラル・ネットワークにおいて、 (a)あたえられた入力データXi および出力データY
i より、あたえられた入力データXi に対して線形分離
が可能な第1中間状態Z1iとしての間接連想コードを生
成し、これを位置参照メモリのアドレスとして記憶させ
る第1学習過程と、 (b)あたえられた入力データXi および出力データY
i より、あたえられた入力データXi に対して線形分離
が可能な第2中間状態Z2iとしての間接連想コードを生
成し、これを前記アドレスに相応する位置参照メモリの
内容として記憶させる第2学習過程と、 (c)前記第1中間状態Z1iおよび第2中間状態Z2iに
対して得られる直接連想(Xi ,Z1i)および(Z2i,
Yi )を、それぞれ入力単層パーセップトロンおよび出
力単層パーセップトロンから最小平均自乗法で訓練させ
る第3学習過程と、 (d)学習された前記ニューラル・ネットワークに、あ
たえられた入力データXi が入力されると、前記入力側
単層パーセップトロンにより、第1中間状態Z1iをアド
レスとして出力する第1連想過程と、 (e)前記アドレスが入力されると、前記位置参照メモ
リは、そのアドレスに相応する内容としての第2中間状
態Z2iを出力側単層パーセップトロンに入力させ、出力
側単層パーセップトロンより所望する出力を得る第2連
想過程と、 からなることを特徴とするニューラル・ネットワークの
操作方法。 - 【請求項14】第1学習過程は、 (a)あたえられた二進法の入力データXi を大さの順
序通り配列する段階と、 (b)最左方のビットが、‘0’または‘1’である場
合の2つの集合に分け、第1ビットが‘0’の入力デタ
ーXi からなる集合をAに、第1ビットが‘1’の入力
データXi からなる集合をBに定義する段階と、 (c)集合Aの元素に補数関係にある要素が、集合Bの
要素となる集合Aの要素をすべて探す段階と、 (d)段階(c)から探す要素Xを集合Bに移し、要素
Xと補数関係にある要素X1 cを集合Aに移した後、コ
ーディング過程として集合Aに属するすべての要素に
‘0’を割当て、集合Bに属するすべての要素に‘1’
を割当てる段階と、 (e)段階(d)のコーディングから得られた二進数ベ
クトルgi が、あたえられた入力データXi のベクトル
gi をすべて区分することができればコーディングを終
了し、区分することができなければ区分が可能となる時
までコーディングを継続して、その結果得られた二進数
ベクトルgi を位置参照メモリのアドレスとして使用さ
れるための間接連想コードとして記憶する段階と、 からなることを特徴とする請求項13記載のニューラル
・ネットワークの操作方法。 - 【請求項15】段階(c)において変換すべき変数要素
X1 cがなければ、集合Aの要素より1ビットを変化さ
せた1個の仮想要素と補数関係にある値を、集合Bに属
するすべての該当要素について探した後、その要素を1
つずつ変換しながら、入力データXi のベクトルをすべ
て区分することができる時までコーディングして得られ
た二進数ベクトルを、位置参照メモリのアドレスとして
使用されるための間接連想コードとして記憶する段階を
含むことを特徴とする請求項14記載のニューラル・ネ
ットワークの操作方法。 - 【請求項16】集合Aの要素より1ビットを変化させた
1個の仮想要素に補数関係にある値が集合Bに属する該
当要素になければ、集合Aと集合Bの要素を1つずつ相
対する集合に送りつつ、入力ベクトルをすべて区分する
ことができる時までコーディングして、その結果を、位
置参照メモリのアドレスとして使用されるためのコード
として記憶させる段階を含むことを特徴とする請求項1
5記載のニューラル・ネットワークの操作方法。 - 【請求項17】コーディング過程としてあたえられた出
力データYi が‘1’である場合には‘00’を割当
し、あたえられた出力データYi が‘0’である場合に
は‘11’を割当することを特徴とする請求項13記載
のニューラル・ネットワークの操作方法。 - 【請求項18】‘11’代わりに‘01’または‘1
0’のいずれかを用いることを特徴とする請求項17記
載のニューラル・ネットワークの操作方法。 - 【請求項19】あたえられた入力Xi と、使用者により
人為的に求めた中間状態Zi に対する線形分離問題とな
る直接連想(Xi ,Zi )を具現化する単層パーセップ
トロンと、 単層パーセップトロンより出力される中間状態Zi をア
ドレスとして入力し、あたえられた出力データYi を入
力された各アドレスに対応して所望する出力値として格
納する位置参照メモリと、で構成されることを特徴とす
るニューラル・ネットワーク。 - 【請求項20】単層パーセップトロンは、内容参照メモ
リで構成することを特徴とする請求項19記載のニュー
ラル・ネットワーク。 - 【請求項21】特定の種類の問題を解するために、前記
単層パーセップトロンまたは前記位置参照メモリが直列
に連結されることを特徴とする請求項19記載のニュー
ラル・ネットワーク。 - 【請求項22】特定の種類の問題を解するために、前記
単層パーセップトロンまたは位置参照メモリが並列に連
結されることを特徴とする請求項19記載のニューラル
・ネットワーク。 - 【請求項23】入力データXi および出力データYi が
実数ベクトルであれば、これらを処理するために、アナ
ログ−ディジタル変換器を含むことを特徴とする請求項
17〜20記載のいずれかに記載のニューラル・ネット
ワーク。 - 【請求項24】入力データXi および出力データYi が
実数ベクトルである場合には、これらを処理するため
に、q(正の整数)量子化器を含むことを特徴とする請
求項17〜20のいずれかに記載のニューラル・ネット
ワーク。 - 【請求項25】あたえられた入力データXi およびあた
えられた出力データYi より、線形分離が可能な中間状
態Zi を作る間接連想コード発生手段と、 あたえられた入力データXi および求めた中間状態Zi
に対する直接連想(Xi ,Z1i)を具現化する単層パー
セップトロンと、 直接連想(Xi ,Zi )を最小平均自乗法として前記単
層パーセップトロンに学習させるための学習手段と、 単層パーセップトロンと出力される中間状態Zi をアド
レスとして記憶し、各アドレスに対応してあたえられた
出力データYi を所望する出力テデータとして格納する
位置参照メモリと、で構成されることを特徴とするニュ
ーラル・ネットワーク。 - 【請求項26】側単層パーセップトロンは、内容参照メ
モリで構成することを特徴とする請求項25記載のニュ
ーラル・ネットワーク。 - 【請求項27】特定の種類の問題の解を出力するため
に、前記間接連想コード発生手段、前記単層パーセップ
トロン、前記学習手段、前記位置参照メモリのいずれか
が直列に連結されることを特徴とする請求項25記載の
ニューラル・ネットワーク。 - 【請求項28】特定の問題の解を出力するために、前記
間接連想コード発生手段、前記単層パーセップトロン、
前記学習手段、前記位置参照メモリのいずれかが並列に
連結されることを特徴とする請求項25記載のニューラ
ル・ネットワーク。 - 【請求項29】ニューラル・ネットワークは、入力デー
タXi および出力データYi が実数ベクトルであれば、
これらを処理するために、アナログ−ディジタル変換器
を含むことを特徴とする請求項7〜25のいずれかに記
載のニューラル・ネットワーク。 - 【請求項30】入力データXi および出力データYi が
実数ベクトルである場合には、これらを処理するため
に、q(正の整数)量子化器を含むことを特徴とする請
求項25〜28のいずれかに記載のニューラル・ネット
ワーク。 - 【請求項31】単層パーセップトロンおよび位置参照メ
モリを添えたニューラル・ネットワークにおいて、 (a)あたえられた入力データXi および出力データY
i より、あたえられた入力データXi に対して線形分離
の可能の中間状態Zi としての間接連想コードを求める
第1学習過程と、 (b)前記中間状態Zi および入力データXi に対する
直接連想(Xi ,Zi)を前記単層パーセップトロンか
ら最小平均自乗法で訓練させ、中間状態Zi は前記位置
参照メモリのアドレスとして記憶させ、あたえられた出
力データYi を位置参照メモリの内容として記憶させる
第2学習過程と、 (c)学習されたニューラル・ネットワークにあたえら
れた入力データXi が入力されると、前記単層パーセッ
プトロンが中間状態Zi を前記位置参照メモリのアドレ
スとして出力する第1連想過程と (d)位置参照メモリが、入力されたアドレスに該当す
るあたえられた出力データYi を所望する出力値として
出力する第2連想過程と、 からなることを特徴とするニューラル・ネットワークの
操作方法。 - 【請求項32】nがあたえられた入力データXi の大
さ、Sが補数データXi cの数、かつmがあたえられた
入力データXi の数とする場合、n>m−s−1であれ
ば、第1学習過程(a)は入力データXi をそのまま中
間状態Zi として使用する段階からなることを特徴とす
る請求項31記載のニューラル・ネットワークの操作方
法。 - 【請求項33】nがあたえられた入力データXi の大
さ、Sが補数データXi cの数、かつmがあたえられた
入力データXi の数とする場合、n≦m−s−1である
場合には、前記第1学習過程は、 (a)あたえられた二進法の入力データXi を大さの順
序通り配列し、これらを最左方のビットが‘0’である
場合の集合Aおよび‘1’である場合の集合Bに分ける
段階と、 (b)kを‘0’に設定した後、集合Aのすべての要素
に‘0’を、集合Bのすべての要素に‘1’を割当して
gk を作る段階と、 (c)集合Aの元素に補数関係にある要素が、集合Bの
要素となる集合Aの要素をすべて探す段階と、 (d)kをk+1に設定した後、段階(c)から探す集
合Aの要素Xを集合Bに移し、X1 に補数関係にある集
合Bの要素X1 cを、集合Aに移すことにより、集合A
kおよび集合Bkを作る段階と、 (e)コーディング過程として集合Akに属するすべて
の要素に‘0’を割当て、集合Bkに‘1’を割当てベ
クトルgk を作る段階と、 (f)二進行ベクトルgk を列(row )ベクトルとする
1つの行列として仮定する時、その行列のベクトルを中
間状態Zi とし、この中間状態Zi がすべての入力デー
タXi を区分することができれば段階(e)のコード生
成過程を終了し、区分することができなければ段階
(e)のコード生成過程を繰り返す段階と、 からなることを特徴とする請求項31記載のニューラル
・ネットワークの操作方法。 - 【請求項34】段階(f)は、求められた中間状態Zi
が、すべての入力データのベクトルを求めることができ
なければ、K=S(Sは段階(c)において探した集合
Aの要素)である時まで、段階(e)を行うことを特徴
とする請求項33記載のニューラル・ネットワークの操
作方法。 - 【請求項35】段階(c)から探した集合Aの要素の数
Sが0である場合、K=1に設定し、集合Aの要素の補
数が集合Bに存在しない要素を集合Bに移す段階と、 それ以前の段階により作られた集合をAs+k およびB
s+k とする場合、コーディング過程として、集合As+k
のすべての要素に‘00’を割当て、集合Bs+kのすべ
ての要素に‘1’を割当てて二進ベクトルgs+k を求め
る段階と、 二進ベクトルgs+k を列(row )ベクトルとする行列
(matrix)を考える場合、その行列の行(column)ベク
トルを中間状態Zi として決め、中間状態Zi があたえ
られた入力データXi のベクトルをすべて区分する時ま
で、それ以前の段階のコーディング過程を繰り返す段階
と、 が含まれることを特徴とする請求項33記載のニューラ
ル・ネットワークの操作方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR920015553 | 1992-08-28 | ||
KR15553/1992 | 1993-01-21 | ||
KR1019930000761A KR950012359B1 (ko) | 1992-08-28 | 1993-01-21 | 신경회로망 구조와 학습방법 |
KR761/1993 | 1993-01-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06111038A true JPH06111038A (ja) | 1994-04-22 |
JP3043539B2 JP3043539B2 (ja) | 2000-05-22 |
Family
ID=26629237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP5124869A Expired - Fee Related JP3043539B2 (ja) | 1992-08-28 | 1993-04-28 | ニューラル・ネットワーク |
Country Status (3)
Country | Link |
---|---|
US (2) | US5493632A (ja) |
JP (1) | JP3043539B2 (ja) |
KR (1) | KR950012359B1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6347309B1 (en) * | 1997-12-30 | 2002-02-12 | International Business Machines Corporation | Circuits and method for shaping the influence field of neurons and neural networks resulting therefrom |
US7035834B2 (en) * | 2002-05-15 | 2006-04-25 | Caterpillar Inc. | Engine control system using a cascaded neural network |
DK1691572T3 (da) * | 2005-02-09 | 2019-10-21 | Oticon As | Fremgangsmåde og system til at træne et høreapparat ved anvendelse af en selvorganiserende kortlægning |
US20080005108A1 (en) * | 2006-06-28 | 2008-01-03 | Microsoft Corporation | Message mining to enhance ranking of documents for retrieval |
KR101780049B1 (ko) * | 2013-07-01 | 2017-09-19 | 한국전자통신연구원 | 레이저 용접 비드 검사 장치 및 방법 |
WO2015178944A1 (en) * | 2014-05-23 | 2015-11-26 | Hewlett-Packard Development Company, L.P. | Using location addressed storage as content addressed storage |
CN111079895B (zh) * | 2014-10-16 | 2024-05-28 | 谷歌有限责任公司 | 增强具有外部存储器的神经网络 |
US10235994B2 (en) * | 2016-03-04 | 2019-03-19 | Microsoft Technology Licensing, Llc | Modular deep learning model |
US11195096B2 (en) * | 2017-10-24 | 2021-12-07 | International Business Machines Corporation | Facilitating neural network efficiency |
KR20200086581A (ko) | 2019-01-09 | 2020-07-17 | 삼성전자주식회사 | 뉴럴 네트워크 양자화를 위한 방법 및 장치 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4995088A (en) * | 1987-04-09 | 1991-02-19 | Trustees Of The University Of Pennsylvania | Super resolution |
US5023833A (en) * | 1987-12-08 | 1991-06-11 | California Institute Of Technology | Feed forward neural network for unary associative memory |
US4897811A (en) * | 1988-01-19 | 1990-01-30 | Nestor, Inc. | N-dimensional coulomb neural network which provides for cumulative learning of internal representations |
JPH087789B2 (ja) * | 1988-08-15 | 1996-01-29 | 工業技術院長 | パターン連想記憶方法および装置 |
FI894021A (fi) * | 1988-08-31 | 1990-03-01 | Fujitsu Ltd | Neuronstruktur. |
US5222195A (en) * | 1989-05-17 | 1993-06-22 | United States Of America | Dynamically stable associative learning neural system with one fixed weight |
US5253328A (en) * | 1989-11-17 | 1993-10-12 | Microelectronics & Computer Technology Corp. | Neural-network content-addressable memory |
JP3178884B2 (ja) * | 1992-03-30 | 2001-06-25 | 株式会社東芝 | ニューラルネットワーク装置 |
-
1993
- 1993-01-21 KR KR1019930000761A patent/KR950012359B1/ko not_active IP Right Cessation
- 1993-04-28 JP JP5124869A patent/JP3043539B2/ja not_active Expired - Fee Related
- 1993-08-27 US US08/112,364 patent/US5493632A/en not_active Expired - Lifetime
-
1995
- 1995-11-20 US US08/560,636 patent/US5634063A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
KR940004463A (ko) | 1994-03-15 |
US5493632A (en) | 1996-02-20 |
JP3043539B2 (ja) | 2000-05-22 |
US5634063A (en) | 1997-05-27 |
KR950012359B1 (ko) | 1995-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | A geometrical representation of McCulloch-Pitts neural model and its applications | |
US5214746A (en) | Method and apparatus for training a neural network using evolutionary programming | |
Mitra et al. | Self-organizing neural network as a fuzzy classifier | |
Liu et al. | Evolutionary design of artificial neural networks with different nodes | |
JPH06111038A (ja) | ニューラル・ネットワーク及びその操作方法 | |
Hassoun et al. | High performance recording algorithm for Hopfield model associative memories | |
Kumara et al. | Use of associative memory and self-organization in conceptual design | |
CN115661546A (zh) | 一种特征选择与分类器联合设计的多目标优化分类方法 | |
Van Truong et al. | A Coevolutionary approach for classification problems: Preliminary results | |
Chang et al. | Polynomial and standard higher order neural network | |
Starzyk et al. | Software simulation of a self-organizing learning array system | |
JP3310009B2 (ja) | ニューラルネットワークシステム | |
JP4696529B2 (ja) | 多層ニューラルネットワーク装置とそのソフトウェア | |
Giordano et al. | An evolutionary approach for optimizing weightless neural networks. | |
WO2023203775A1 (ja) | ニューラルネットワーク生成方法 | |
JPH03125257A (ja) | ニューラル・ネットワーク及び適応推論システム | |
Owens et al. | A multi-output-layer perceptron | |
JPH0855098A (ja) | ニューラルネットワーク・クラシファイアおよびニューラルネットワークの構成法 | |
Gera et al. | Genetic Algorithm with Gradient Based Tuning for Constructing Fuzzy Rules | |
JP2001142867A (ja) | 学習型認識判断装置 | |
Wang et al. | Parallel compact integration in handwritten Chinese character recognition | |
CN113469271A (zh) | 一种基于Echo State Network的图像分类方法 | |
Huang | Interpretations of Deep Learning by Forests and Haar Wavelets | |
Cios et al. | Classes of fuzzy neural networks | |
KR0136077B1 (ko) | 하이브리드 위치-내용-참조 메모리(HyLCAM)의 코드 생성 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20000201 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |