JPH03168861A - 入力情報を学習して自己組織化を行う人工神経回路網 - Google Patents
入力情報を学習して自己組織化を行う人工神経回路網Info
- Publication number
- JPH03168861A JPH03168861A JP1310347A JP31034789A JPH03168861A JP H03168861 A JPH03168861 A JP H03168861A JP 1310347 A JP1310347 A JP 1310347A JP 31034789 A JP31034789 A JP 31034789A JP H03168861 A JPH03168861 A JP H03168861A
- Authority
- JP
- Japan
- Prior art keywords
- artificial
- artificial neural
- updating
- self
- organization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000001537 neural effect Effects 0.000 title abstract 4
- 210000002569 neuron Anatomy 0.000 claims description 57
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 238000000034 method Methods 0.000 claims description 26
- 239000013598 vector Substances 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 11
- 230000002401 inhibitory effect Effects 0.000 claims description 7
- 230000002964 excitative effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 abstract description 21
- 238000005457 optimization Methods 0.000 abstract description 14
- 239000000203 mixture Substances 0.000 abstract description 4
- 230000007246 mechanism Effects 0.000 abstract description 3
- 238000012545 processing Methods 0.000 abstract description 2
- 210000003061 neural cell Anatomy 0.000 abstract 2
- 238000004364 calculation method Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 238000007906 compression Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 206010011732 Cyst Diseases 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 208000031513 cyst Diseases 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 238000001338 self-assembly Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分野]
本発明は.入力情報を学習して自己組織化を行うことが
できる人工神経回路網に関するもので..この人工神経
回路網は.例えば電子回路で実現できる.そして.この
人工神経回路網の自己組織化の過程を利用して.数学的
な組合わせ最適化問題の真の解,または極めて良好な近
似解を得ることができる.また,自己組織化された人工
神経回路網を標準パターン集合として利用することによ
り,パターン認識や情報圧縮を行うことができる. [用語の説明] あらかじめ.発明の名称と特許請求の範囲に記載の事項
における用語の意味するところを明示しておく. 本発明における人工神経細胞とは,複数種類の入力端子
と,1種類多分岐の出力端子と.内部状態ベクトルとを
もつ計算素子で,入力端子に与えられる入力に対して.
コスト関数の意味で入力データとの整合性を計算できる
計算素子である. 人工神経回路網とは.上のような人工神経細胞の集合を
いう. 人工神経回路網の位相とは.各人工神経細胞に対して,
別の人工神経細胞の結合がどのような形態であり.どの
ような近傍系を有しているかの様子をいう.例えば,2
次元配列や円周配列がある. 優位人工神経細胞とは,コスト関数を最小にすることが
できる人工神経細胞のことである.各人工神経細胞は.
相互に影響しあうことが許されており,これを相互結合
という.興奮性結合とは.ff位人工神経#I胞が.他
の人工神経細胞の内部状態ベクトルを,自分の状態ベク
トルに近ずける働きをもっていることを意味する.抑制
性結合とは,優位人工神経細胞が.他の人工神経細胞の
内部状態ベクトルを,自分の状態ベクトルよりも遠ざけ
る働きをもっていることを意味する. 人工神経回路網における学習の形態の一つである自己組
織化とは,入力が与えられる度に各々の入工神経細胞の
状態ベクトルが修正され,これを繰り返すうちに修正量
が十分に少なくなり.最終的な人工神経細胞の状態ベク
トルの集合としての人工神経回路網が得られることであ
る. [従来の技術] 個々の人工神経細胞のもつ計算能力は低いがそれらを多
数個用いて集団効果を発揮させ計算の困難な問題を解が
せようという発惣は.■980年代に入ってからいくつ
が例示されている.それらの代表的なものがJ.Hop
fieldによる人工神経細胞を用いた巡回セールスマ
ン問題の解決である.これは相当数のパラメータを有す
るコスト関数の最小化の問題に.解くべき問題を置き直
し,次いで正しい答えが出るようにパラメータを調整し
た後,計算実行を行うという方式である.この方法は,
かなり広範な種類の複雑な組合わせ最適化問題を高速に
解けるが,組合わせの対象となる要素数を増加していく
と解を見つけうるコスト関数のパラメータ領域が極めて
小さくなり.実際の計算に先立って見つけることができ
なくなるという欠点を有している.これは,用いる人工
神経回路網に学習する機能がないからである. パターン認識や情報圧縮の分野においては.標準パター
ンを自己組織化する方法がいくつが提案されている.こ
れらは,各入力ベクトルが与えられるごとに標準パター
ン集合を更新する逐次更新型と,すべての入力ベクトル
を一度に読み込み,その後標準パターン集合を更新する
一括更新型とに分けられる.このとき標準パターン集合
中の各要素は,人工神経細胞の内部状態ベクトルに相当
するものと解釈できる.しかしながら,一括更新型にお
いては,人工神経細胞間の位相と相互結合を与える方法
が得られていなかった.また.逐次更新型においては.
入力データをコスト最適化の意味でグループ化するとい
う過程が落ちており,さらに人工神経細胞の状態ベクト
ルについても,性質の異なるものの直積形が許されてい
ない.そして自己組織化のアルゴリズム自体が直感に依
存しているため,コスト関数の種類や更新法.そして人
工神経細胞の相互結合に著しい制約があり人工神経回路
網としては.F:カが極めて限られていた. [発明が解決しようとする課MJ 人工神経回路網を用いて複雑度の高い組合わせ最適化問
題を解がせようとする場合,学習機能のない人工神経回
路網においては,用いるコスト関数におけるパラメータ
ベクトルの存在領域が,問題の複雑度の上昇とともに急
激に小さくなり,パラメータ選択に名人芸を要する.こ
れは,ニューロコンピュータの実用性の向上にとって大
きな障害である. また,パターン認識や情報圧縮において,実質的には人
工神経細胞の内部状態の一部と等価な役割を演ずる標準
パターン集合を,自己#Im化により求める問題におい
ては.一括更新型の自己組織化法では,人工神経細胞に
結合と位相を手える方法が欠けており,学習結果を利用
する際に人工神経細胞を総当りで探索する必要がある.
そして何よりも結合と位相を利用する組合わせ最適化問
題に対しては,まったく無力である.また.もう一方の
逐次更新型の自己組織化法においては,入力データをコ
スト関数が非増加となるようにグループ化する部分と内
部状態ベクトルの直積化の機能が欠落している.加うる
に,理論の欠如のため.対象としうるコスト関数とそれ
に対応した人工神経細胞の内部状態の更新法が,ただ一
種類になっており.問題の適用範囲を著しく狭めている
. 本発明は.標準パターン集合を作成する従来の自己組織
化法の能力を有し.かつ組合わせ最適化問題も解くこと
ができる相互結合と位相をを有し,逐次更新と一括更新
の混在を許す形の自己組織化を行うことができる人工神
経回路網を得ることを目的としている. [課題を解決するための手段] 上記目的を達成するために,本発明の人工神経回路網に
おいては,以下で説明するような自己組織化を行う.た
だし,説明において不必要な繁雑さを避けるために,ま
ず逐次更新型について記述し.次いで一括更新型との結
合法について説明する. 本発明における人工神経回路網の自己組織化法は.逐次
更新のみを用いる場合,次のような写1象スケジューラ
に管理された時間的に順序性のある繰り返し演算を行う
. 「写像スゲジューラ』 写像スケジューラは,次のような規則を有しており,
Stepl〜Step5における各種のパラメータ調節
や選択を行う. ●グループ化写像選択規則:与えられたコスト関数を非
増加とするグループ化写像の集合Φの中から写像を1つ
選ぶ.ただし.最適グループ化写像そのもの.あるいは
その近似写像の有限集合 Φ.の中の各要素は無限回出
現するように計画されているものとする. ●入工神経細胞の位相二位相とは人工神経細胞どうしが
結合されているときの近傍系の形態である. ●結合の定義:人工神経細胞間の興奮性および抑制性結
合の形態と強さで.これは,重みを更新できる有向グラ
フ L と等価である.●更新近傍縮小J!則:各人工
神経細胞の更新近傍とその縮小規則. ●更新確率の変更規則:各人工神経細胞の状態を更新す
る確率の変更規則. ●公正競争バイアスの変更規則:コスト関数最適化によ
る優位人工神経細胞を選ぶときに,優位性を確保した回
数に応じて与えるハンディキャップとしての余分なコス
トに関する変更規則?学習率の減少規IIl:学習率と
は.人工神経細胞の内部状態の更新を行うときのQ個の
小さな正の数値s”[old], (q■0,−,Q−
1)をいい,繰り返しのたびにそれを小さくする. ●繰り返し回数:学習を繰り返す回数Kmmmmスケジ
ューラは次の6つのステップを司る.Stepl (初
期状態: k=0) 次のような初期値が与えられている. ●人工神経回路網の初期状態:これは.集合の直積の形
をしていて. n .C ”’[oldlと表される.
n,とは,q−0がらQ−1までの直積を意味するもの
とする. ●グループ化パターン:これは入力データをグループ化
してベクトルを作るもので, u[old]で表す. ●人工神経回路網の位相:これは.各人工神経細胞が有
する近傍系の定義で, 0 ”’ (Cs lml 《Q’ [old],[
oldl),n(q)=0,−,N.−1: q=0
,一.Q−1で表される* Ca il+1 ”’ [
oldlは,人工神経細胞の状態の集合C ”’[ol
dlの要素である.●近傍中の人工神経細胞の更新確率
:これは,優位人工神経細胞としてCIll@l”’が
選ばれたときに,その近傍中の人工神経細胞1,+ql
が,自分自身の状態を更新することを認める確率pl@
l (blml .Q l@l (c,ol′+1
[01d] .[oldl),n(q)=O.−,N.
,−1; q=O,−+Q−1をいう. ●人工神経細胞の優位回数 これは, h,,,,”’[oldl=0, n((1)=0,−
,N*−1; Q:0.−.Q−1のように設定される
.これらの集合をH [oldlで表す. ●結合量:これは,興奮性および抑制性結合の様式とそ
の量で.αL[oldlで表す.以上の設定をした後,
Step2へ行く.Step2 (グループ化, k
:=k+1)スケジューラは,Φの中から写像φを選択
し( n ,C ”’ [o1d],u[oldl)に
適用してu[newlを得る.このときのグループ化に
より,入力データは, v7,(j;0,−,J−1)
というベクトル集合として表される. Step3 (停止判定》 k=K...になっていれば終了し,Uとn @c ”
’を得る. Step4 (優位人工神経細胞の選出と更新〉Ste
p4. 1 (優位人工神経細胞の選出)d(・・)を
コスト関数とし, fm(x.iは.k4@でXに近ず
く関数とする.このとき. d.”’(・.rl .C ”’[old])=fk(
d(−, n ,C ”’ [old]),H[old
])を用いてv,[new],(j=0,−,J−1)
に対する優位人工神経細胞rl qewJ”’ [ol
dlを求める.そして,h, +111 ”’ [ne
W]=}latel ”’ [old]+1を行う. Step4.2 ( F1位人工神経細胞とその近傍系
の更M) 次の計算を行う. C・l @ l [ ne w ] =c.) ”’ [old]+g” [oldlr”’
(v,,c.J[old])これを確率 p《鴫’ (CvJ ”’ [oldl,Q l喝’
(c.,”’ [old] ,(oldl ),q=
0,−,Q−1で実行する.ここに, r3ml(,・
)は.コスト関数を減少させる方向のベクトルである.
近傍系については,すべての b” [new]f三〇 ”’ (c., ”
’ [oldl. [oldl)に対して, b ′″’ [newl =b” [old]+c” [old]r”’ (v3
,b,,[old])を確率 p”’ (b”’ [oldl, O ”’ (b1′
l’ [old], [old])),(q=0,−.
Q−1)で実行する. Step4.3 (興奮性および抑制性結合をもつ人工
神経細胞とその近傍系の更新》 e”’ [old]は, c.4”’[new]と興奮
性または抑制性結合が決められているとする.このとき
,次のような更新を行う. b”’ [oldlFO ”’ (e”’ [old]
, (oldl)に対して.b”’[newl =b” [oldl±t ” [old]s”’ (V
J ,b” [old])ここに g l q 1 (
・.・〉は,コストを減少させる方向のベクトルである
.これを,確率αL[oldlxp”’(b”’(ol
dl,O lt+l( b+1−ν [oldl.
[oldl ))で行う.αL[old3F (0
, l )は.結合の強さである+t ” [old]
は興奮性結合を, −g”’[oldlは抑制性結合を
意味する. 次に, Step5へ行く. Step5 (各種変更規則の実行〉 ?O ”’(.[oldl)を近傍縮小規則に従って変
更し ■ t′I+(.,[newl)とする.●更新
確率を変更規則に従って調節する。
できる人工神経回路網に関するもので..この人工神経
回路網は.例えば電子回路で実現できる.そして.この
人工神経回路網の自己組織化の過程を利用して.数学的
な組合わせ最適化問題の真の解,または極めて良好な近
似解を得ることができる.また,自己組織化された人工
神経回路網を標準パターン集合として利用することによ
り,パターン認識や情報圧縮を行うことができる. [用語の説明] あらかじめ.発明の名称と特許請求の範囲に記載の事項
における用語の意味するところを明示しておく. 本発明における人工神経細胞とは,複数種類の入力端子
と,1種類多分岐の出力端子と.内部状態ベクトルとを
もつ計算素子で,入力端子に与えられる入力に対して.
コスト関数の意味で入力データとの整合性を計算できる
計算素子である. 人工神経回路網とは.上のような人工神経細胞の集合を
いう. 人工神経回路網の位相とは.各人工神経細胞に対して,
別の人工神経細胞の結合がどのような形態であり.どの
ような近傍系を有しているかの様子をいう.例えば,2
次元配列や円周配列がある. 優位人工神経細胞とは,コスト関数を最小にすることが
できる人工神経細胞のことである.各人工神経細胞は.
相互に影響しあうことが許されており,これを相互結合
という.興奮性結合とは.ff位人工神経#I胞が.他
の人工神経細胞の内部状態ベクトルを,自分の状態ベク
トルに近ずける働きをもっていることを意味する.抑制
性結合とは,優位人工神経細胞が.他の人工神経細胞の
内部状態ベクトルを,自分の状態ベクトルよりも遠ざけ
る働きをもっていることを意味する. 人工神経回路網における学習の形態の一つである自己組
織化とは,入力が与えられる度に各々の入工神経細胞の
状態ベクトルが修正され,これを繰り返すうちに修正量
が十分に少なくなり.最終的な人工神経細胞の状態ベク
トルの集合としての人工神経回路網が得られることであ
る. [従来の技術] 個々の人工神経細胞のもつ計算能力は低いがそれらを多
数個用いて集団効果を発揮させ計算の困難な問題を解が
せようという発惣は.■980年代に入ってからいくつ
が例示されている.それらの代表的なものがJ.Hop
fieldによる人工神経細胞を用いた巡回セールスマ
ン問題の解決である.これは相当数のパラメータを有す
るコスト関数の最小化の問題に.解くべき問題を置き直
し,次いで正しい答えが出るようにパラメータを調整し
た後,計算実行を行うという方式である.この方法は,
かなり広範な種類の複雑な組合わせ最適化問題を高速に
解けるが,組合わせの対象となる要素数を増加していく
と解を見つけうるコスト関数のパラメータ領域が極めて
小さくなり.実際の計算に先立って見つけることができ
なくなるという欠点を有している.これは,用いる人工
神経回路網に学習する機能がないからである. パターン認識や情報圧縮の分野においては.標準パター
ンを自己組織化する方法がいくつが提案されている.こ
れらは,各入力ベクトルが与えられるごとに標準パター
ン集合を更新する逐次更新型と,すべての入力ベクトル
を一度に読み込み,その後標準パターン集合を更新する
一括更新型とに分けられる.このとき標準パターン集合
中の各要素は,人工神経細胞の内部状態ベクトルに相当
するものと解釈できる.しかしながら,一括更新型にお
いては,人工神経細胞間の位相と相互結合を与える方法
が得られていなかった.また.逐次更新型においては.
入力データをコスト最適化の意味でグループ化するとい
う過程が落ちており,さらに人工神経細胞の状態ベクト
ルについても,性質の異なるものの直積形が許されてい
ない.そして自己組織化のアルゴリズム自体が直感に依
存しているため,コスト関数の種類や更新法.そして人
工神経細胞の相互結合に著しい制約があり人工神経回路
網としては.F:カが極めて限られていた. [発明が解決しようとする課MJ 人工神経回路網を用いて複雑度の高い組合わせ最適化問
題を解がせようとする場合,学習機能のない人工神経回
路網においては,用いるコスト関数におけるパラメータ
ベクトルの存在領域が,問題の複雑度の上昇とともに急
激に小さくなり,パラメータ選択に名人芸を要する.こ
れは,ニューロコンピュータの実用性の向上にとって大
きな障害である. また,パターン認識や情報圧縮において,実質的には人
工神経細胞の内部状態の一部と等価な役割を演ずる標準
パターン集合を,自己#Im化により求める問題におい
ては.一括更新型の自己組織化法では,人工神経細胞に
結合と位相を手える方法が欠けており,学習結果を利用
する際に人工神経細胞を総当りで探索する必要がある.
そして何よりも結合と位相を利用する組合わせ最適化問
題に対しては,まったく無力である.また.もう一方の
逐次更新型の自己組織化法においては,入力データをコ
スト関数が非増加となるようにグループ化する部分と内
部状態ベクトルの直積化の機能が欠落している.加うる
に,理論の欠如のため.対象としうるコスト関数とそれ
に対応した人工神経細胞の内部状態の更新法が,ただ一
種類になっており.問題の適用範囲を著しく狭めている
. 本発明は.標準パターン集合を作成する従来の自己組織
化法の能力を有し.かつ組合わせ最適化問題も解くこと
ができる相互結合と位相をを有し,逐次更新と一括更新
の混在を許す形の自己組織化を行うことができる人工神
経回路網を得ることを目的としている. [課題を解決するための手段] 上記目的を達成するために,本発明の人工神経回路網に
おいては,以下で説明するような自己組織化を行う.た
だし,説明において不必要な繁雑さを避けるために,ま
ず逐次更新型について記述し.次いで一括更新型との結
合法について説明する. 本発明における人工神経回路網の自己組織化法は.逐次
更新のみを用いる場合,次のような写1象スケジューラ
に管理された時間的に順序性のある繰り返し演算を行う
. 「写像スゲジューラ』 写像スケジューラは,次のような規則を有しており,
Stepl〜Step5における各種のパラメータ調節
や選択を行う. ●グループ化写像選択規則:与えられたコスト関数を非
増加とするグループ化写像の集合Φの中から写像を1つ
選ぶ.ただし.最適グループ化写像そのもの.あるいは
その近似写像の有限集合 Φ.の中の各要素は無限回出
現するように計画されているものとする. ●入工神経細胞の位相二位相とは人工神経細胞どうしが
結合されているときの近傍系の形態である. ●結合の定義:人工神経細胞間の興奮性および抑制性結
合の形態と強さで.これは,重みを更新できる有向グラ
フ L と等価である.●更新近傍縮小J!則:各人工
神経細胞の更新近傍とその縮小規則. ●更新確率の変更規則:各人工神経細胞の状態を更新す
る確率の変更規則. ●公正競争バイアスの変更規則:コスト関数最適化によ
る優位人工神経細胞を選ぶときに,優位性を確保した回
数に応じて与えるハンディキャップとしての余分なコス
トに関する変更規則?学習率の減少規IIl:学習率と
は.人工神経細胞の内部状態の更新を行うときのQ個の
小さな正の数値s”[old], (q■0,−,Q−
1)をいい,繰り返しのたびにそれを小さくする. ●繰り返し回数:学習を繰り返す回数Kmmmmスケジ
ューラは次の6つのステップを司る.Stepl (初
期状態: k=0) 次のような初期値が与えられている. ●人工神経回路網の初期状態:これは.集合の直積の形
をしていて. n .C ”’[oldlと表される.
n,とは,q−0がらQ−1までの直積を意味するもの
とする. ●グループ化パターン:これは入力データをグループ化
してベクトルを作るもので, u[old]で表す. ●人工神経回路網の位相:これは.各人工神経細胞が有
する近傍系の定義で, 0 ”’ (Cs lml 《Q’ [old],[
oldl),n(q)=0,−,N.−1: q=0
,一.Q−1で表される* Ca il+1 ”’ [
oldlは,人工神経細胞の状態の集合C ”’[ol
dlの要素である.●近傍中の人工神経細胞の更新確率
:これは,優位人工神経細胞としてCIll@l”’が
選ばれたときに,その近傍中の人工神経細胞1,+ql
が,自分自身の状態を更新することを認める確率pl@
l (blml .Q l@l (c,ol′+1
[01d] .[oldl),n(q)=O.−,N.
,−1; q=O,−+Q−1をいう. ●人工神経細胞の優位回数 これは, h,,,,”’[oldl=0, n((1)=0,−
,N*−1; Q:0.−.Q−1のように設定される
.これらの集合をH [oldlで表す. ●結合量:これは,興奮性および抑制性結合の様式とそ
の量で.αL[oldlで表す.以上の設定をした後,
Step2へ行く.Step2 (グループ化, k
:=k+1)スケジューラは,Φの中から写像φを選択
し( n ,C ”’ [o1d],u[oldl)に
適用してu[newlを得る.このときのグループ化に
より,入力データは, v7,(j;0,−,J−1)
というベクトル集合として表される. Step3 (停止判定》 k=K...になっていれば終了し,Uとn @c ”
’を得る. Step4 (優位人工神経細胞の選出と更新〉Ste
p4. 1 (優位人工神経細胞の選出)d(・・)を
コスト関数とし, fm(x.iは.k4@でXに近ず
く関数とする.このとき. d.”’(・.rl .C ”’[old])=fk(
d(−, n ,C ”’ [old]),H[old
])を用いてv,[new],(j=0,−,J−1)
に対する優位人工神経細胞rl qewJ”’ [ol
dlを求める.そして,h, +111 ”’ [ne
W]=}latel ”’ [old]+1を行う. Step4.2 ( F1位人工神経細胞とその近傍系
の更M) 次の計算を行う. C・l @ l [ ne w ] =c.) ”’ [old]+g” [oldlr”’
(v,,c.J[old])これを確率 p《鴫’ (CvJ ”’ [oldl,Q l喝’
(c.,”’ [old] ,(oldl ),q=
0,−,Q−1で実行する.ここに, r3ml(,・
)は.コスト関数を減少させる方向のベクトルである.
近傍系については,すべての b” [new]f三〇 ”’ (c., ”
’ [oldl. [oldl)に対して, b ′″’ [newl =b” [old]+c” [old]r”’ (v3
,b,,[old])を確率 p”’ (b”’ [oldl, O ”’ (b1′
l’ [old], [old])),(q=0,−.
Q−1)で実行する. Step4.3 (興奮性および抑制性結合をもつ人工
神経細胞とその近傍系の更新》 e”’ [old]は, c.4”’[new]と興奮
性または抑制性結合が決められているとする.このとき
,次のような更新を行う. b”’ [oldlFO ”’ (e”’ [old]
, (oldl)に対して.b”’[newl =b” [oldl±t ” [old]s”’ (V
J ,b” [old])ここに g l q 1 (
・.・〉は,コストを減少させる方向のベクトルである
.これを,確率αL[oldlxp”’(b”’(ol
dl,O lt+l( b+1−ν [oldl.
[oldl ))で行う.αL[old3F (0
, l )は.結合の強さである+t ” [old]
は興奮性結合を, −g”’[oldlは抑制性結合を
意味する. 次に, Step5へ行く. Step5 (各種変更規則の実行〉 ?O ”’(.[oldl)を近傍縮小規則に従って変
更し ■ t′I+(.,[newl)とする.●更新
確率を変更規則に従って調節する。
●結合量αL[old]を調節して,αL[new]を
得る.●学習率t ( s l [ Ol d ]を調
節してt’ c”[new]を得る。
得る.●学習率t ( s l [ Ol d ]を調
節してt’ c”[new]を得る。
* [oldlト[newlとし, Step2へ戻る
.上で説明した人工神回路網の自己組織化法は,写像φ
を適用する度に生戒されるグループ化済ベクトルV,を
1つ得て,それにより人工神経細胞の状態更新を行うも
のである.これに対して,複数個あるいは全てのグルー
プ化済みのベクトルVJ. (j・O,−.J−1)を
用いる一括更新も可能である.このときは,更新すべき
人工神経細胞毎にコストの意味で最隣接となるV,を集
め,更新における修正量の平均値を用いる.あるいは,
最隣接となるV,の集合に対する重心を求めそれを更新
された人工神経細胞の状態ベクトルとする.この場合.
公正競争のバイアスに関連するha +*l ”’ [
neW]は,h++ l−Ql [newl =h* l@)[oldl+(c.i.)”’ [ol
d]に対するfIi合中の要票数〉により計算を行う.
ただし2この分割には,c.1.1 ”’[old]と
結合している人工神経細胞が代表点となっている分割集
合中にある人工神経細胞を,確率αL.[01d]pl
*+で加えておく.これが.相互結合を意味する. 写像スゲジューラは,このようないくつかのグループ化
済みベクトルV,が与えられた後での人工神経細胞の値
の修正を,一括更新に置き替えるか.あるいは逐次更新
と一括更新の混合を許すようにすることができる. [作用] 上記のような構成と自己組織化法をもつ人工神経回路網
においては,必要に応じて性質の異なる状態を直積とし
て分離できる構造があること.逐次更新と一括更新の混
合が可能であること.人工神経細胞間の位相と相互結合
があること,公正競争バイアスがあること.そして確率
性があること,多様なコスト関数を扱えることといった
豊富な性質を備えており,自己組織化をする人工神経回
路網としては広範な学習能力を有している. このため,従来から行われているパターン認識や情報圧
縮のための標準パターン集合の作成だけではなくて,自
己組織化の学習過程を利用して,計算機科学に数多く見
受けられる複雑度の高い組合わせ最適化に対する真の解
または良好な近似解を得ることができる. [実施例] 実施例について,図面を参照して説明する.第l図は.
人工神経回路網の自己組織化を実現する一実施回路を表
している.lで示される部分は.自己組織化の過程を司
るスゲジューラである.2で示される部分は学習に用い
られるデータの入力端子である.これは3で表される入
力層に蓄積され,スゲジューラ内の計算機構によりグル
ープ化され.ベクトルを作る.情報経路7は.このとき
に用いられる.次いで,1で示されるスゲジューラから
8で示される経路を通じて送られる情報により,4で逐
次更新か一括更新が選ばれ.5で示される部分で人工神
経細胞の更新計算を行う.この過程は9で示される情報
経路を用いて,lで示されるスケジューラに監視される
.更新計算された人工神経細胞は.6で示される人工神
経回路網として保存される.この内容は.10で示され
る情報経路により,lで示されるスゲジューラが入手で
きるようになっている.この情報は.3で示される入力
層でのデータのグループ化に用いられる.第2図は,「
課題を解決するための手段」において与えておいた人工
神経回路網の自己組織化法を表すフローチャートである
. 11で示される部分はスゲジューラである, 12
は,初期化を行う部分である. 13で示される部分で
データのグループ化を行い,14で示される部分で人工
神経細胞の状態を更新する, 15で示される部分は学
習Ji IIに従ってパラメータや結合と近傍系,そし
て確率を更新する部分である.そして,再びl3で示さ
れる部分へ戻る.この繰り返しは.自己組織化終了の判
定条件が満たされたとき.l6で示される終了の部分に
移る.破線17. 1B.19. 20は,スケジュー
ラ11の支配化にあることを意味している. [発明の効果] 本発明は,以上説明したように構成されているので,以
下に記載されるような効果をもたらす. まず.自己組織化という学習の過程を利用する場合には
.直列処理計算機では極めて困難となる組合わせ最適化
問題に対して,速やかに真の解または良好な近似解を得
ることができる計算機として使用することができる. これは.解くべき問題ごとに.その組合わせ最適化問題
をコスト関数の最適化に置き直して.本発明による自己
組織化をおこなうものである. 一方,自己組織化された結果としての人工神経回路網を
利用することも可能である.この場合,入力に対してグ
ループ化を行い,そのとき生成された各ベクトルに対し
て,優位人工神経細胞をを求める.これは.パターンマ
ッチングに相当する.各人工神経細胞を指定する情報量
は.入力データの情報量よりずっと少ないのでデータ圧
縮にもなっている.この過程は,人工神経回路網を連想
メモリとして用いていることに相当する.
.上で説明した人工神回路網の自己組織化法は,写像φ
を適用する度に生戒されるグループ化済ベクトルV,を
1つ得て,それにより人工神経細胞の状態更新を行うも
のである.これに対して,複数個あるいは全てのグルー
プ化済みのベクトルVJ. (j・O,−.J−1)を
用いる一括更新も可能である.このときは,更新すべき
人工神経細胞毎にコストの意味で最隣接となるV,を集
め,更新における修正量の平均値を用いる.あるいは,
最隣接となるV,の集合に対する重心を求めそれを更新
された人工神経細胞の状態ベクトルとする.この場合.
公正競争のバイアスに関連するha +*l ”’ [
neW]は,h++ l−Ql [newl =h* l@)[oldl+(c.i.)”’ [ol
d]に対するfIi合中の要票数〉により計算を行う.
ただし2この分割には,c.1.1 ”’[old]と
結合している人工神経細胞が代表点となっている分割集
合中にある人工神経細胞を,確率αL.[01d]pl
*+で加えておく.これが.相互結合を意味する. 写像スゲジューラは,このようないくつかのグループ化
済みベクトルV,が与えられた後での人工神経細胞の値
の修正を,一括更新に置き替えるか.あるいは逐次更新
と一括更新の混合を許すようにすることができる. [作用] 上記のような構成と自己組織化法をもつ人工神経回路網
においては,必要に応じて性質の異なる状態を直積とし
て分離できる構造があること.逐次更新と一括更新の混
合が可能であること.人工神経細胞間の位相と相互結合
があること,公正競争バイアスがあること.そして確率
性があること,多様なコスト関数を扱えることといった
豊富な性質を備えており,自己組織化をする人工神経回
路網としては広範な学習能力を有している. このため,従来から行われているパターン認識や情報圧
縮のための標準パターン集合の作成だけではなくて,自
己組織化の学習過程を利用して,計算機科学に数多く見
受けられる複雑度の高い組合わせ最適化に対する真の解
または良好な近似解を得ることができる. [実施例] 実施例について,図面を参照して説明する.第l図は.
人工神経回路網の自己組織化を実現する一実施回路を表
している.lで示される部分は.自己組織化の過程を司
るスゲジューラである.2で示される部分は学習に用い
られるデータの入力端子である.これは3で表される入
力層に蓄積され,スゲジューラ内の計算機構によりグル
ープ化され.ベクトルを作る.情報経路7は.このとき
に用いられる.次いで,1で示されるスゲジューラから
8で示される経路を通じて送られる情報により,4で逐
次更新か一括更新が選ばれ.5で示される部分で人工神
経細胞の更新計算を行う.この過程は9で示される情報
経路を用いて,lで示されるスケジューラに監視される
.更新計算された人工神経細胞は.6で示される人工神
経回路網として保存される.この内容は.10で示され
る情報経路により,lで示されるスゲジューラが入手で
きるようになっている.この情報は.3で示される入力
層でのデータのグループ化に用いられる.第2図は,「
課題を解決するための手段」において与えておいた人工
神経回路網の自己組織化法を表すフローチャートである
. 11で示される部分はスゲジューラである, 12
は,初期化を行う部分である. 13で示される部分で
データのグループ化を行い,14で示される部分で人工
神経細胞の状態を更新する, 15で示される部分は学
習Ji IIに従ってパラメータや結合と近傍系,そし
て確率を更新する部分である.そして,再びl3で示さ
れる部分へ戻る.この繰り返しは.自己組織化終了の判
定条件が満たされたとき.l6で示される終了の部分に
移る.破線17. 1B.19. 20は,スケジュー
ラ11の支配化にあることを意味している. [発明の効果] 本発明は,以上説明したように構成されているので,以
下に記載されるような効果をもたらす. まず.自己組織化という学習の過程を利用する場合には
.直列処理計算機では極めて困難となる組合わせ最適化
問題に対して,速やかに真の解または良好な近似解を得
ることができる計算機として使用することができる. これは.解くべき問題ごとに.その組合わせ最適化問題
をコスト関数の最適化に置き直して.本発明による自己
組織化をおこなうものである. 一方,自己組織化された結果としての人工神経回路網を
利用することも可能である.この場合,入力に対してグ
ループ化を行い,そのとき生成された各ベクトルに対し
て,優位人工神経細胞をを求める.これは.パターンマ
ッチングに相当する.各人工神経細胞を指定する情報量
は.入力データの情報量よりずっと少ないのでデータ圧
縮にもなっている.この過程は,人工神経回路網を連想
メモリとして用いていることに相当する.
第1図は,自己組織化を行うことができる人工神経回路
網の一実施回路図,第2図は,本発明における人工神経
回路網の自己組織化の過程で行われる計算のステップを
.フローチャートとして表したものである.1−スケジ
ューラ,2一人カデータ.3一人力層,4一逐次更新型
と一括更新型とのスイッチ,5一人工神経細胞の状態の
更新計算機構,6一自己組織化される人工神経回路網.
7.8,9.10−スゲジューラとの問の情報経路.
11−スゲジューラ. 12一初期値設定部分. 13
−グループ化計算. 14一人工神経繕胞の更新計算.
15−パラメータ.近傍系,確率の更新 16一自己組織化された人工神経回路網を採用し2 計算を終了する部分, 17. 18, 19, 20
網の一実施回路図,第2図は,本発明における人工神経
回路網の自己組織化の過程で行われる計算のステップを
.フローチャートとして表したものである.1−スケジ
ューラ,2一人カデータ.3一人力層,4一逐次更新型
と一括更新型とのスイッチ,5一人工神経細胞の状態の
更新計算機構,6一自己組織化される人工神経回路網.
7.8,9.10−スゲジューラとの問の情報経路.
11−スゲジューラ. 12一初期値設定部分. 13
−グループ化計算. 14一人工神経繕胞の更新計算.
15−パラメータ.近傍系,確率の更新 16一自己組織化された人工神経回路網を採用し2 計算を終了する部分, 17. 18, 19, 20
Claims (1)
- 1 与えられたコスト関数が増加しないように入力デー
タを分割した後、得られた分割要素の一つ一つを入力ベ
クトルとし、そのコスト関数を最適化する意味で最も優
れた人工神経細胞を選び、その人工神経細胞の内部状態
を意味する数値ベクトルをコスト関数が非増加となるよ
うに更新し、さらにその人工神経細胞と相互結合してい
る他の人工神経細胞の内部状態を、興奮性結合の場合に
は自分に近ずけるように、そして抑制性結合の場合には
遠ざけるように更新してから再び入力データの分割に戻
り、これを反復することにより人工神経細胞群の自己組
織化を行う人工神経回路網。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1310347A JPH03168861A (ja) | 1989-11-29 | 1989-11-29 | 入力情報を学習して自己組織化を行う人工神経回路網 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1310347A JPH03168861A (ja) | 1989-11-29 | 1989-11-29 | 入力情報を学習して自己組織化を行う人工神経回路網 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03168861A true JPH03168861A (ja) | 1991-07-22 |
Family
ID=18004140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1310347A Pending JPH03168861A (ja) | 1989-11-29 | 1989-11-29 | 入力情報を学習して自己組織化を行う人工神経回路網 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH03168861A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176002A (ja) * | 1992-07-25 | 1994-06-24 | Boehringer Mannheim Gmbh | 医学的試料中の成分の分析法 |
US7606775B2 (en) | 2003-06-20 | 2009-10-20 | Lg Electronics Inc. | Mobile communication terminal using MOBP learning |
-
1989
- 1989-11-29 JP JP1310347A patent/JPH03168861A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06176002A (ja) * | 1992-07-25 | 1994-06-24 | Boehringer Mannheim Gmbh | 医学的試料中の成分の分析法 |
US7606775B2 (en) | 2003-06-20 | 2009-10-20 | Lg Electronics Inc. | Mobile communication terminal using MOBP learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mérida-Casermeiro et al. | An efficient multivalued Hopfield network for the traveling salesman problem | |
Gelenbe et al. | Dynamical random neural network approach to the traveling salesman problem | |
Dogaru et al. | Universal CNN cells | |
Meir et al. | Exact solution of a layered neural network model | |
Han et al. | Self-organization of a recurrent RBF neural network using an information-oriented algorithm | |
Hocaoglu et al. | Planning multi-paths using speciation in genetic algorithms | |
JPH03168861A (ja) | 入力情報を学習して自己組織化を行う人工神経回路網 | |
Erdem et al. | A new family of multivalued networks | |
CN114202063A (zh) | 一种基于遗传算法优化的模糊神经网络温室温度预测方法 | |
Zhao et al. | Learning multi-agent communication with policy fingerprints for adaptive traffic signal control | |
CN106981874A (zh) | 基于和声算法的配电网重构避免不可行解的编码方法 | |
Tagliarini et al. | Learning in systematically designed networks | |
JP2690702B2 (ja) | 自己組織化装置 | |
Sofronova | Evolutionary computations for traffic signals optimization | |
Dixon et al. | Using the Hopfield neural network with mean field annealing to solve the shortest path problem in a communication network | |
Siqueira et al. | A recurrent neural network to traveling salesman problem | |
CN110143293A (zh) | 一种可变构微纳卫星形态拓扑重建和变构方法 | |
Guo et al. | A parallel search genetic algorithm based on multiple peak values and multiple rules | |
Melsa et al. | A neural network solution for call routing with preferential call placement | |
Cai et al. | Type-2 GA-TSK fuzzy neural network | |
Goudreau et al. | Neural network routing for random multistage interconnection networks | |
JPH08272760A (ja) | 非線形最適化並列処理方法 | |
Smeda et al. | Application of Hopfield neural network in routing for computer networks | |
Dixon et al. | A neural network shortest path algorithm for routing in packet-switched communication networks | |
Quagliarella et al. | Hybrid genetic algorithms as tools for complex optimisation problems |