JPH03167655A - ニューラルネットワーク - Google Patents

ニューラルネットワーク

Info

Publication number
JPH03167655A
JPH03167655A JP1306510A JP30651089A JPH03167655A JP H03167655 A JPH03167655 A JP H03167655A JP 1306510 A JP1306510 A JP 1306510A JP 30651089 A JP30651089 A JP 30651089A JP H03167655 A JPH03167655 A JP H03167655A
Authority
JP
Japan
Prior art keywords
neuron
neurons
output
neural network
weight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1306510A
Other languages
English (en)
Inventor
Shigeru Koyanagi
滋 小柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP1306510A priority Critical patent/JPH03167655A/ja
Priority to EP19900312856 priority patent/EP0430638A3/en
Priority to US07/618,884 priority patent/US5438645A/en
Publication of JPH03167655A publication Critical patent/JPH03167655A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明は組合せ最適化問題を効率良く解くためのニュー
ラルネットワークに関する。
(従来の技術) 最近、人間の右脳に似た情報処理能力を実現する方法と
して、ニューラルネットワークが注目されている。ニュ
ーラルネットワークでは神経細胞をモデルとし、入力信
号の重みつき総和をとり、これに非線型関数を作用させ
ることにより出力を生成するニューロンが多数個結合さ
れたものである。
第8図はニューラルネノトワークの概略構成図である。
81はニューロンで実際にはプロセッサが割り当てられ
、入力された重みつき総和信号から所定の値を減算し、
これの関数値を出力する機能を有する。(アナログ値を
扱うニューロンの場合は可変の膜電位を有する)82は
シナプスで実際には乗算器が割り当てられ、2つのニュ
ーロン間の結合重みを夫々有する。ここでは入力信号と
自身の重みを乗じてこれに接続されているニューロン8
1へ出力する機能を有する。ニューラルネットワークは
組み合せ最適化問題を解くのに適していると云われる。
組合せ最適化問題とは、決められた条件下でコスト最小
となる種々の方法を決定するもので、たとえば巡回セー
ルスマン問題(n個の都市を1人のセールスマンがいか
に最小の労力で訪問するか),LSIレイアウト問題(
回路をカット数が最小となるように分割する)等が該当
する。
ここでニューラルネットワークを用いて組合せ最適化問
題を解く手法として、}Iopfieldの提案する手
法が知られている。このHopfieldの手法を計算
機上でシミュレートする方法には、デジタル値を扱う確
率的離散モデルとアナログ値を扱う決定的連続モデルの
2つが存在する。
確率的離散モデルでは、ニューロンの出力値は通常1あ
るいは0の2状態のみをとり,確率的にサンプリングさ
れたニューロンが次の式に従って出力値を決定する。
?.=f(ΣTijV■−IJ) f(・)=(AH壱こ ただし、 ニューロンiの出力値をvエ,ニューロンl
yj間の結合を重みをTよ,,ニューロンiの外部入力
をIエと表している。
一方、決定的連続モデルでは、ニューロンの出力値は通
常lから0の連続値をとり,全てのニューロンが並列に
次の式に従って出方値を計算する。
d u l  =K(ΣTijVj  I 、u i)
dt       j ■よ= f (uエ) タタし、 ニューロンiの膜電位をulとし、fはOか
ら1の範囲をとる単調増加関数(通常はsigmoid
関数)とし,Kは定数である。
いずれの方式についても、ニューラルネット全体は エ F=−,ΣΣTijViVj+ΣIiVi   −・・
■で表わされるエルネギーの極小値に向かって収束する
ことが知られている。従ってこの式からTエj,■、を
求めれば、 これより最適化問題の解が得られる。
具体的な例として、第9図に示すグラフの2分割問題に
ついて説明する。本問題はLSIのレイアウトの基本ア
ルゴリズムのYつであり、回路をカット数が最小となる
ように2分割することに対応する。グラフの各ノードは
回路を構成するモジュールに相当し、グラフのリンクは
モジュール間の接続に相当する。グラフの各ノードXに
は面積Sえが与えれ、 ノードXとノードy間のリンク
には接続本数CXyが与えられるとする。また、LS■
の外部ピンに対応して、グラフのノードXと外部との接
続本数をUX,LXとする。ただしグラフは上下に2分
割するものとし,各ノードと上端との接続本数をUXで
、下端との接続本数をLXで表わす。
ここでは、確率的離散モデルについて説明する。
ニューロンは出力{あるいは−1をとるものとし、各ノ
ードが夫々割り当てられる。すなわちニューロンvXの
出力が1ならばノードXは上側に属し、一{ならばノー
ドXは下側に属するとする。
この問題のエネルギー関数は次のように表わせる。
右辺第1項は回路を2分割したときのカノト数を表わす
項である。VxVy”1  (すなわちvXとvyが同
一グループに属する)のときにはφとなり,VxVy=
−1(すなわち■ウとvyが事なるグループに属する)
のときにはcxyがXr’/間のカット数を表わし、そ
の総和を表わしている。
右辺第2項は2つのグループ間の面積の差の2乗を表わ
している。2つのグループが等面積のとき、この項はφ
となる。
右辺第3項は回路と外部ピンとの接続によるカット数を
表わす項である。vx=1のとき上側,VX=−1  
のとき下側のグループに属すると考え1 ると2 U x ( I  V x )は下側のグルー
プに属するモジュールと上端との結合により生じるカッ
ト数1 を表わし、TLX(v,+1)は上側のグループに属す
るモジュールと下端との結合により生じるカット数であ
る。
これら■式が最小となるような分割が最も望ましい分割
と考えられる。ここで■式を変形すると?, ”4−『(Ux  Lx)Vx+[定数項コとなるため
、これを■式と係数比較することによりニューロン間の
重みTijと外部入力エ■はTxy”’K1Cxy−2
K2SxSy        ・・・■と設定すれば、
 これはHopfel.dモデルで表現できるよことに
なる。この中でKエ, K,, K,は定数であり、K
1とK,はカット数を表わす評価関数に相当し、K2は
面積均等の制約条件に相当する。
従来のHopfeldモデルでは定数K,, K., 
K,を適当に決めて重みを設定するが,この決め方が非
常に困難であり,制約条件を満たさない解を出力するこ
とが多いという欠点があった。 また、K2を充分大き
くとると、制約条件は満たすが解の質が悪いという欠点
があった。
ここで第9図のグラフに対し、これの2分割について詳
しく説明する。このグラフは4つのノードA,B,C,
Dにより構成されている。A,B,C,Dの各々の面積
を1とし、第9図に示すような接続の強さをもつとする
。外部との接続がないとするとき、このグラフを2分割
するためのニュ〜ロン間の重みは■式より次のように与
えられる。
ここで前述のように定数K,,K2の値を適当に設定す
ることによりニューラルネットワークを用いて本問題を
解くことができる。
第lO図はニューラルネットワークが確率的離散モデル
を扱う際の従来のフローチャートである。
従来方式では各シナプスに付与される重みが予め設定さ
れている。ここでは先ずニューロンの出力値Vjを初期
化する(ステップ101)。次に乱数を用いてランダム
に選択したニューロンについてΣTよIj の値を計算
しくステップ102, 103)、その値が外部入カエ
、以上であればニューロンの出力値を1とし、さもなけ
れば出力を一工とする(ステップ104, 105, 
]06) . ,mれを数回繰り返し、各ニューロンの
出力値が変化しなくなった時、系が収束状態になったと
見なし、終了と判定する(ステップ107) .このフ
ローチャートに従い、■式でK2” 2 , K z 
= 0.5として計算を行う例を第11図に示す。
第l1図では乱数によりiを選ぶ代わりにiを1から4
の順に設定している。各々の場合についてΣT i j
 V jの計算を行い、その結果によりv1を1か−1
に設定している。この場合,4回のくり返し後にニュー
ロンの出力値は(−1  −1  −1  1)となり
、この後は何回くり返しても変化しない。
すなわち収束状態である。これはA,B,CとDの2組
に分割したことを表わしている。明らかに本問題では面
積が均等となることを制約条件としているが,K2の値
が小さかったため、制約条件を満たさない解に収束した
ことを表わしている。
次に、K.=2,K.=8とした場合の計算例を第12
図に示す。
第12図でも同様に乱数の代わりにiをlから4の順に
設定している。この場合、初期値(1−11−1)で安
定となり、この後何回くり返しても変化しない。これは
AとC,BとDの2組に分割したことを表わしている。
この場合カット数は6となるが,AとB,CとDの2組
に分割した時の最適のカット数4に比κで大きい。すな
わちK2の値が大き過ぎたため、制約条件は満たしてい
るが評価関数の最小でない所に収束したことを表わして
いる。このようにKエ,K2を適当な値に設定すること
は困難であり、 K2が小さ過ぎると制約条件を満たさ
ない解を出力することが多く、 K2が大き過ぎると評
価関数の質が低い解を出力することが多いという欠点が
ある。
(発明が解決しようとする課題) 以上述べた様にニューラルネットワークで組合せ最適化
問題を解く場合には、制約条件と評価関数の和の形でエ
ネルギー関数を表現してニューロン間の重みを求めるた
め、評価関数に対応する係数(K1)及び制約条件に対
応する係数(K2)の決め方が難しい。
つまり係数の決め方によっては制約条件を満たさない解
を出力したり、評価関数の質が低い解を出力するという
欠点があった。
本発明の目的は、ニューロン間の重みを求めるための上
述の係数を効率良く決定して最適化問題の解を得るニュ
ーラルネットワークを提供することにある。
〔発明の構或〕
(課題を解決するための手段) 本発明は最適化問題を解く際に、制約条件と評価関数の
和の形で表わされたエネルギー関数よりニューロン間の
重みを決定するニューラルネットワークにおいて、各ニ
ューロンの出力値を監視するモニタ素子及びこのモニタ
素子の指示により各ニューロン間の重みを変更する重み
計算部を有する。
モニタ素子はニューロンの出力値を監視しており、その
出力値の分布が制約条件を満足しない等の不当な状態と
なったとき、重み計算部に指示を出す。重み計算部はこ
の指示を受ける毎に、例えば制約条件に対応する係数を
2倍する等してニューロン間の重みを変更する。
つまり本発明によるニューラルネットワークは,ニュー
ロンの出力値の分布状況に応じて各ニューロン間の重み
を動的に変更する機能を有するものである。
(作用) 本発明では制約条件と評価関数の和の形でエネルギー関
数を表現してニューロン間の重みを求める際、例えば最
初は制約条件に対応する係数を評価関数に対応する係数
に比べて小さくしておく。
そしてニューロンの出力値の分布が不当な状態に収束す
ると制約条件に対応する係数を大きくして再びニューロ
ンから出力値を得る。この動作を各ニューロンの出力値
の分布が満足できる状態に収束するまで繰り返す。
つまり本発明は最初は制約条件の弱い状態で自由度を与
えて良質な解を探索し,次第に制約条件を強くすること
により或る程度良質であって且つ制約条件を満足する解
を求めるものである。
(実施例) 以下、本発明の実施例を図面を参照して説明する。
第i図は本発明の一実施例の概略構或図である。
ここではN個のニューロン11,これら各ニューロン間
の重みが設定されるN2個のシナプス12から成る構或
は従来のものと同様であるが、これにモ二夕素子13,
重み計算部14を備えている事が特徴である。モニタ素
子13はN個のニューロン11からの出力値を監視して
おり、これら出力値の分布が不当な状態(制約条件を満
足しない等)に収束したとき,重み計算部14に指示信
号を与える。重み計算部14ではこの指示信号を受ける
と、後述する様に制約条件に対応する係数を大きくして
各ニューロン間の重みを計算し、これら変更された重み
をシナプスl2に再設定するものである。この重み変更
動作はニューロンl1の出力値の分布が満足できる状態
に収束するまで繰り返し行なわれる。
第2図は本発明を確率的離散モデルに適用した場合のフ
ローチャートである。ここでは先ず各シナプス12に付
与すべき重みTi,を初期設定すると共に各ニューロン
1■の出力値を初期化する(ステップ21. 22)。
ここでTエ,の決定方法として上述した様トこ,制約条
件と評価関数の和の形でエネルギー関数を表現し、制約
条件の係数K2を評価関数の係数Kエより小さく設定す
ることによりTよ,の初期値を求める。次に出力値を得
るべきニューロンiを乱数により決定し(ステップ23
),そのニューロンiについて全ニューロンからの初期
LB力信号の重みつき総和を得る(ステップ24)。得
られた重みつき総和を該ニューロンiへ外部から与えら
れる入力信号Iエと比較し(ステップ25),この値以
上のときは該ニューロンiからの出力値■、を1とし、
値より小のときはVエをーlとする(ステッフ26. 
27)。これを各ニューロンについて繰り返して行ない
、全ニューロンからの出力値の分布が不変となったとき
系が収束したと見て終了と判定する(ステップ28)。
この収束状態の出力値が制約条件を満足しているか否か
チェックし(ステップ29),満足していなければ制約
条件の係数K2を大きくしてTエJを新たに計算し, 
これをシナプス12に再設定する(ステップ30. 3
1) .これを各ニューロンからの収束した出力値分布
が制約条件を満足するまで繰り返し行なう。
次に確率的離散モデルについ.て具体的数値を用いて本
発明の処理例を第3図により説明する。ここでは第9図
に示したグラフの2分割について先ずK2をKエより小
さい値で開始し、出力値が収束した時点で制約条件を満
たしているか否かチェノクし、満たしていない場合にK
2を2倍して重みTエjを再計算してニューラルネット
ワークの処理を繰り返すものである。先ず第3図(a)
に示す様にKエ=2,K.=0.5として重みTエ,を
求め開始する。第1図の場合と同様にこれは7回の繰り
返しによりニューロンの出力信号V=(−1,−1,−
1.1)なって収束する。つまり4つのノードA,B.
C,DはA,B,CとDの2組に分割される。
この収束状態はグラフを等しく2分割するという制約条
件を満たしていない。よってモニタ素子の指示により重
み計算部は第3図(b)に示す様にK.=上 として重
みTijを再計算してこれを各シナプスに再設定する。
又各ニューロンの出力信号は第3図(a)の収束状態の
出力信号V=(−1,−1,−1.1)を初期値として
処理を継続する。
ここでも4回の繰り返しで収束した出力値がV=(一↓
,−1,−1.1)で第3図(a)の状態と変っていな
い。そこで重み計算部は第3図(c)に示す様にK2=
2 として重みTエ,を再計算してこれを各シナプスに
再設定する。又,ニューロンの出力信号は第3図(b)
の収束状態の出力信号V=(−1.−1,−1.1)を
初期値として処理を継続する。
ここでも4回の繰り返しで収束値に変化がない。
従って重み計算部は第3図(d)に示す様にK2=4と
して重みを再計算し、同様にして処理を継続する。ここ
では6回の繰り返しにより収束値■=(−1,−1.1
,l)が得られる。 これはグラフがAとB,CとDの
2組へ分割されており制約条件を満たしている。又、分
割箇所の接続線カット数も4と最小である。
このようにK2の値を徐々に増やすことにより制約条件
を満たす良質の解を得ることができる。
以上は確率的離散モデルについての説明であったが、決
定的連続モデルについても同様の手法を用いることがで
きる。
このニューラルネットワークの構或は第l図と同様であ
るが、各ニューロンiが自身の膜電位Vエを有している
。 ここで各シナプスijは対応するニューロンの出力
Vj に白身の重みTLjを乗算した結果T i j 
V jを対応するニューロン■、へ送る。
?のニューロンVエはシナプス演算の総和ΣT■jVj
 を入力し、その値に基いて自身の膜電位V■を変位さ
せ、 この変位後の膜電位に従って出力値を決定するも
のである。この構或は従来通りであるが、本発明によれ
ばここでも確率的離散モデルと同様にモニタ素子及び重
み計算部を有する。その処理手順を第4図のフローチャ
ートを用いて説明する。先ず各シナプスの重みTLJを
初期設定すると共に各ニューロンのvX電位を初期化す
る(ステップ41. 42)。次にt番目のニューロン
を指定しこの膜電位をシナプス演算の総和ΣTL.VJ
,外部からの入力信号Iエに基いて変化させる(ステノ
プ43, 44)。ここで膜電位の変化率 ?戊i 二K (ΣTエ,4V,H − I L − 
vエ)dt をオイラー法により解くため、変位後のサ■はヅエ←(
1−δ)Vエ+δ(ΣTよjVj−I■)として表わさ
れる。この変位後の膜電位に関数を作用させることによ
り出力信号■、が得られる(ステップ45)。この処理
をN個のニューロン全てについて行なう(ステップ46
)。これを数回繰り返すうちに全ての出力信号が収束し
てくれば(つまり前回と今回の出力信号の差が殆ど無く
なれば)制約条件を満たすか否かチェックする(ステッ
プ47. 48)。満たしていない場合は確率的離散モ
デルと同様にK2の値を大きくして重みTエ,を再計算
し、シナプスに再設定する(ステップ49)。そして再
度ステップ42からの処理を繰り返す。この繰り返し後
に、得られた収束値の分布が制約条件を満たしていれば
終了する。
第8図はこのフローチャートに従って決定的連続モデル
を処理した具体的数値例である。ここでも第lO図のグ
ラフの2分割を組合せ最適化問題として扱っている。先
ず評価関数の係数Kよ=2に対し制約条件の係数K2=
0.5としてTijを初期設定する。そしてニューロン
AからDまで順番に膜電位を変化させつつ出力信号Vエ
を得る。 これを数回繰り返し夫々のニューロンの前回
と今回との出力信号の差が殆ど無くなった時点で収束し
たと見なし終了判定する。ここでの出力信号は第5図に
示す様にV A =  0 . 9 9 , V B 
=  0 . 9 9 H V c = −0.92,
 V,=0.75であるが、正のものl個と負のもの3
個で制約条件を満たしていない。従ってK2=1として
2回目のTIJを計算して再設定する。そして上述の処
理を行なうと収束値が正1個,負3個で制約条件を未だ
満たしていない。従ってK2=2として3回目のTエ,
を計算して再設定する。そして上述の処理を行なうと収
束値が依然として正1個,負3個で制約条件を満たして
いない。
(ここでニューロンCの収束値は−0.33となって正
に近づいており、 K2の増加が効を奏していることが
分る)そこでK2=4として4回目のTエJを計算して
上述の処理を行なうと、収束値が正2個,負2個となっ
て制約条件を満たす。これはグラフがAとB,CとDの
2組へ分割され、接続線カット数も4となる事を示して
いる。
上述した決定的連続モデルを扱う実施例の変形として、
ニューロンの出力値が収束していない時点で制約条件を
満たしているか否かをチェックする方法も考えられ,以
下これを説明する。
第6図はその処理フローチャートである。ここではニュ
ーロンの出力信号の絶対値が一定値以上になればその収
束値を予測できる事に着目し、モニタ素子が毎回のニュ
ーロンの出力値を監視するものである。先ず各シナプス
の重みTよ,を初期設定すると共に各ニューロンの膜電
位を初期化する(ステップ61. 62)。次にr番目
のニューロンに対し1この膜電位をシナプス演算の総和
ΣT .. V j,外部からの入力信号■、に基づい
て変化させる(ステノプ63. 64)。この変位後の
膜電位に関数を作用させて出力イ直を求め(ステソプ6
5),これを全ニューロンに対して順番に行なう (ス
テッフ66)。
ここまでの処理は上述した第4図のフローチャートと同
一である5次に出揃った全ニューロンの出力値に対しモ
ニタ素子が制約条件を満たしているか否かのチェックを
行ない(ステップ67)、満たしていれば制約条件の係
数K2 を大きくしててよ,を計算し直し、各シナプス
に′再設定する(ステップ68)。このときニューロン
の膜電位も初期化する(ステップ69)。例えば現在の
viの膜電位の半分にする等が考えられる。これは?7
iを一度にO近辺へ初期化するよりも、各ニューロンに
現在の状態の影響を或る程度残した方が後の収束効率が
向上するためである。こうしてステップ63〜66の処
理を繰り返し、全ニューロンの2回目の出力値を得ると
,再び制約条件のチェックを行なう。
ここでも制約条件を満たさなければ、制約条件の係数K
2 を更に大きくしてTよ,,ニューロンの膜電位を再
設定し,上述の処理を行なう。こうして第n回目の全ニ
ューロンの出力値が制約条件を満たし。その絶対値が一
定値以上であれば、Tエ,,膜電位は変化せずにステソ
プ63〜67の処理を行なう(ステップ70)。これを
繰り返すと最終的な全ニューロンの出力は1,−1のい
ずれかとなって?了となる。
本例の具体的数値を用いた処理例を第7図を参照して説
明する。初期設定としてKエ=2,K2=0.5として
重みTエ」を決定し、 1回目の全ニューロンノ出力V
A=−0.2, v,=o.t, V。=0.1, v
.=0.2が得られるが、これらは制約条件を満足して
いない。従って.K,=2,K,=1として重みTij
を決定し、2回目の全ニューロンの出力を得るが、これ
も満足していない。この処理を繰り返した後、n回目の
全ニューロンの出力がvA=0 . 6 , V B 
”  0 . 5 + V C= 0 . 5 , V
 ■=0 . 6が得られる。これは制約条件を満足す
ると共に夫々の絶対値が予め定められたしきい値0.5
以上であるため、このままTエ,を放置しても出力値が
1,−1と収束すると予測される.従って以後はK1,
 K.を変える事無く全ニューロンの出力処理を繰り返
させて最終的な収束状態へ遷移させる。
尚、この例ではモニタ素子が全ニューロンの出力信号を
毎回監視する方法を採っているが、適当な時間間隔を予
め設定し、この一定時間毎に出力信号を監視する方式を
採っても良い。
更に本発明では制約条件の係数K2 を評価関数の係数
Kエよりも小さく初期設定し、徐々に増大させる方式を
採っているが、K2をKエより大きく初期設定して徐々
に減少させる方式を採っても良い。この場合には最初の
数回は制約条件が強く効いているため制約条件を満足す
る解が得られる。
従って制約条件を満足しない解が生じた時点で、直前に
得られた制約条件を満たす解のみを選択すれば良い。(
この場合は制約条件を強い状態から徐々に弱くするため
、上記直前に得られた制約条件を満たす解が相対的に評
価関数の最も高いものとなる。) 〔発明の効果〕 以上述べた様に本発明によれば、ニューロンの出力値を
モニタ素子が監視し、この結果に基いて重み計算部が各
ニューロン間の重みを動的に変更する構成を有し、特に
重みの変更方法として組合せ最適化問題の制約条件の係
数を順次変える方法を採っている。従って或る程度良質
であって且つ制約条件を満足する解を得る事が効率良く
出来るため、ニューラルネットワークを用いて組合せ最
適化問題を解く際の実用的利点が格段に向上する。
【図面の簡単な説明】
第1図は本発明のニューラルネットワークの概略構或図
、第2図は本発明による確率的離散モデルの処理フロー
チャート,第3図は本発明の一実施例によるグラフ2分
割の計算例を示す図、第4図は本発明による決定的連続
モデルの処理フローチャート、第5図は第4図のフロー
チャートに従った具体的数値例を示す図、第6図は本発
明による決定的連続モデルの他の処理フローチャート第
7図は第6図のフローチャートに従った具体的数値例を
示す図、第8図は従来のニューラルネットワークの概略
構成図、第9図はグラフ2分割の組合せ最適化問題の例
を示す図、第10図は従来の確率的離散モデルのフロー
チャート、第11図・第12図は第10図のフローチャ
ートに従った具体的数値例を示す図である。 11, 81・・・ニューロン、 12, 82・・・シナプス l3・・・モニタ素子、 14・・・重み計算部

Claims (15)

    【特許請求の範囲】
  1. (1)夫々が入力信号に対応した信号を出力する複数個
    のニューロンと、これらニューロンの出力信号に対し各
    ニューロンに対応した重みを演算処理した信号を該ニュ
    ーロンへ出力するシナプスと、前記ニューロンの出力信
    号を監視するモニタ手段と、このモニタ手段の監視結果
    に基いて前記シナプスの各ニューロンに対応した重みを
    変更する重み計算手段とを備えたことを特徴とするニュ
    ーラルネットワーク。
  2. (2)夫々が入力信号に対応したデジタル信号を出力す
    るN個のニューロンと、これらN個のニューロン夫々に
    N個づつ接続され夫々が前記N個のニューロンの出力信
    号夫々に対し出力元のニューロン及び接続先のニューロ
    ンに対応した重みを乗算した結果を接続先のニューロン
    へ出力するN^2個のシナプスと、前記N個のニューロ
    ンの出力信号夫々がほぼ変化しなくなったときこれらが
    制約条件を満たすか否か判定し満たさない場合に指示信
    号を出力するモニタ手段と、このモニタ手段の指示信号
    に呼応して前記シナプスの出力元のニューロン及び接続
    先のニューロンに対応した重みを変更する重み計算手段
    とを備えたことを特徴とするニューラルネットワーク。
  3. (3)夫々が入力信号に基いて膜電位を変化させると共
    にアナログ信号を出力するN個のニューロンと、これら
    N個のニューロン夫々に対しN個づつ接続され夫々が前
    記N個のニューロンの出力信号夫々に対し出力元のニュ
    ーロン及び接続先のニューロンに対応した重みを乗算し
    た結果を接続先のニューロンへ出力するN^2個のシナ
    プスと、前記N個のニューロンの出力信号夫々がほぼ変
    化しなくなったときこれらが制約条件を満たすか否か判
    定し満たさない場合に指示信号を出力するモニタ手段と
    、このモニタ手段の指示信号に呼応して前記シナプスの
    出力元のニューロン及び接続先のニューロンに対応した
    重みを変更すると共に前記ニューロンの膜電位を初期化
    する重み計算手段とを備えたことを特徴とするニューラ
    ルネットワーク。
  4. (4)重み計算手段は与えられた組合せ最適化問題に対
    し制約条件及び評価関数の係数和の形でニューロンの出
    力信号を変数としたエネルギー関数で表現し、Hopf
    ieldモデルと比較することにより前記シナプスの重
    みを決定するものである請求項1乃至3記載のニューラ
    ルネットワーク。
  5. (5)重み計算手段は前記シナプスの重みを決定すると
    き、制約条件に対応する係数を評価関数に対応する係数
    より小さくしたものを初期値とし、前記モニタ手段より
    指示信号を入力する毎に制約条件に対応する係数を順次
    増大させるものである請求項4記載のニューラルネット
    ワーク。
  6. (6)重み計算手段は前記シナプスの重みを決定すると
    き、制約条件に対応する係数を評価関数に対応する係数
    より大きくしたものを初期値とし、前記モニタ手段より
    指示信号を入力する毎に制約条件に対応する係数を順次
    減少させるものである請求項4記載のニューラルネット
    ワーク。
  7. (7)ニューロンは自身に接続されたN個のシナプスよ
    り入力された乗算結果の総和と外部からの入力信号を比
    較することにより1又は−1のデジタル信号を出力する
    ものである請求項2記載のニューラルネットワーク。
  8. (8)ニューロンは自身に接続されたN個のシナプスよ
    り入力した乗算結果の総和及び外部からの入力信号の差
    と自身の膜電位とを係数加算することにより膜電位を変
    化させ、これの関数値に従って出力信号を決定するもの
    である請求項3記載のニューラルネットワーク。
  9. (9)シナプスからの乗算結果に従ってデジタル信号を
    出力すべきニューロンは、乱数により指定されるもので
    ある請求項2記載のニューラルネットワーク。
  10. (10)シナプスから乗算結果に従って膜電位を変化さ
    せると共にアナログ信号を出力すべきニューロンは、順
    番にN個まで指定されるものである請求項3記載のニュ
    ーラルネットワーク。
  11. (11)モニタ手段は前記N個のニューロンからの出力
    信号が全て出揃う毎にこれらが制約条件を満足するか否
    かを判定するものである請求項10記載のニューラルネ
    ットワーク。
  12. (12)モニタ手段は前記N個のニューロンからの出力
    信号に対し一定時間毎にこれらが制約条件を満足するか
    否かを判定するものである請求項10記載のニューラル
    ネットワーク。
  13. (13)重み計算手段は前記ニューロンの膜電位を初期
    化するとき、該時点の膜電位のほぼ半分に設定するもの
    である請求項第3項記載のニューラルネットワーク。
  14. (14)モニタ手段は前記重み計算手段により前記シナ
    プスの重みが変更されてこれに伴なう前記N個のニュー
    ロンの出力信号がほぼ変化しなくなる毎にこれらが制約
    条件を満たすか否か判定し、最初に制約条件を満たすN
    個の出力信号を解とするものである請求項5記載のニュ
    ーラルネットワーク。
  15. (15)モニタ手段は前記重み計算手段により前記シナ
    プスの重みが変更されてこれに伴う前記N個のニューロ
    ンの出力信号がほぼ変化しなくなる毎にこれらが制約条
    件を満たすか否か判定し、最初に制約条件を満たさなく
    なったときに直前に制約条件を満たしたN個の出力信号
    を解とするものである請求項6記載のニューラルネット
    ワーク。
JP1306510A 1989-11-28 1989-11-28 ニューラルネットワーク Pending JPH03167655A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP1306510A JPH03167655A (ja) 1989-11-28 1989-11-28 ニューラルネットワーク
EP19900312856 EP0430638A3 (en) 1989-11-28 1990-11-27 Neural network
US07/618,884 US5438645A (en) 1989-11-28 1990-11-28 Neural network which uses a monitor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1306510A JPH03167655A (ja) 1989-11-28 1989-11-28 ニューラルネットワーク

Publications (1)

Publication Number Publication Date
JPH03167655A true JPH03167655A (ja) 1991-07-19

Family

ID=17957897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1306510A Pending JPH03167655A (ja) 1989-11-28 1989-11-28 ニューラルネットワーク

Country Status (3)

Country Link
US (1) US5438645A (ja)
EP (1) EP0430638A3 (ja)
JP (1) JPH03167655A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5436697A (en) * 1992-11-30 1995-07-25 Ricoh Company, Ltd. Image potential control system and image forming apparatus using the same
US20190204794A1 (en) * 2017-12-29 2019-07-04 Fujitsu Limited Optimization apparatus and optimization apparatus control method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6259824B1 (en) * 1991-03-12 2001-07-10 Canon Kabushiki Kaisha Image processing apparatus utilizing a neural network to improve printed image quality
JPH07200512A (ja) * 1993-09-13 1995-08-04 Ezel Inc 最適化問題解決装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3103648A (en) * 1961-08-22 1963-09-10 Gen Electric Adaptive neuron having improved output
US3308441A (en) * 1963-09-06 1967-03-07 Rca Corp Information processing apparatus
US3374466A (en) * 1965-05-10 1968-03-19 Ibm Data processing system
US3950733A (en) * 1974-06-06 1976-04-13 Nestor Associates Information processing system
JPS59157810A (ja) * 1983-02-28 1984-09-07 Sony Corp デジタル信号の再生方法
US4660166A (en) * 1985-01-22 1987-04-21 Bell Telephone Laboratories, Incorporated Electronic network for collective decision based on large number of connections between signals
US4885757A (en) * 1987-06-01 1989-12-05 Texas Instruments Incorporated Digital adaptive receiver employing maximum-likelihood sequence estimation with neural networks
US4807168A (en) * 1987-06-10 1989-02-21 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Hybrid analog-digital associative neural network
US4858147A (en) * 1987-06-15 1989-08-15 Unisys Corporation Special purpose neurocomputer system for solving optimization problems
WO1988010474A1 (en) * 1987-06-18 1988-12-29 University Of West Virginia State analog neural network and method of implementing same
US4866645A (en) * 1987-12-23 1989-09-12 North American Philips Corporation Neural network with dynamic refresh capability
US4943931A (en) * 1988-05-02 1990-07-24 Trw Inc. Digital artificial neural processor
US5014219A (en) * 1988-05-06 1991-05-07 White James A Mask controled neural networks
US4926064A (en) * 1988-07-22 1990-05-15 Syntonic Systems Inc. Sleep refreshed memory for neural network
JPH087789B2 (ja) * 1988-08-15 1996-01-29 工業技術院長 パターン連想記憶方法および装置
US4951239A (en) * 1988-10-27 1990-08-21 The United States Of America As Represented By The Secretary Of The Navy Artificial neural network implementation
US4912655A (en) * 1988-12-14 1990-03-27 Gte Laboratories Incorporated Adjusting neural networks
KR920007504B1 (ko) * 1989-02-02 1992-09-04 정호선 신경회로망을 이용한 이진 가산기
JPH0660826B2 (ja) * 1989-02-07 1994-08-10 動力炉・核燃料開発事業団 プラントの異常診断方法
JP2760543B2 (ja) * 1989-02-10 1998-06-04 株式会社東芝 多重帰還回路
US5195169A (en) * 1989-03-03 1993-03-16 Sharp Kabushiki Kaisha Control device for controlling learning of a neural network
JPH0738186B2 (ja) * 1989-03-13 1995-04-26 シャープ株式会社 自己拡張形ニユーラル・ネットワーク
US5056037A (en) * 1989-12-28 1991-10-08 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Analog hardware for learning neural networks

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5436697A (en) * 1992-11-30 1995-07-25 Ricoh Company, Ltd. Image potential control system and image forming apparatus using the same
US20190204794A1 (en) * 2017-12-29 2019-07-04 Fujitsu Limited Optimization apparatus and optimization apparatus control method

Also Published As

Publication number Publication date
EP0430638A3 (en) 1993-04-21
EP0430638A2 (en) 1991-06-05
US5438645A (en) 1995-08-01

Similar Documents

Publication Publication Date Title
JP2747104B2 (ja) ニューラルネットワーク
KR102396447B1 (ko) 파이프라인 구조를 가지는 인공신경망용 연산 가속 장치
JPH06266868A (ja) ニューロン素子
JPH03167655A (ja) ニューラルネットワーク
Lavaei et al. Dynamic analysis of structures using neural networks
Elomda et al. Fuzzy cognitive map with linguistic values
Singh et al. Kohonen neural network model reference for nonlinear discrete time systems
JPH04182769A (ja) デジタル・ニューロプロセッサ
JP3130326B2 (ja) 階層ネットワーク構成演算素子
Lin et al. Learning long-term dependencies is not as difficult with NARX networks
Pavlidou et al. A delay-based reservoir computing model for chaotic series prediction
JPH09185596A (ja) パルス密度型信号処理回路網における結合係数更新方法
JPH07334478A (ja) パルス密度型信号処理回路網における結合係数更新方法 並びに結合係数更新装置
JP3417574B2 (ja) ファジィ論理演算用ニューロン素子
JP2559883B2 (ja) ファジィ制御器
JPH02201586A (ja) ニューロチップによる結合器
JP2559879B2 (ja) ファジィ制御器
RU104349U1 (ru) Система прогнозирования финансовых временных рядов
JP2559881B2 (ja) ファジィ制御器
JP2763371B2 (ja) 階層ネットワーク構成ファジィ制御器
JP2559880B2 (ja) ファジィ制御器
JP2559882B2 (ja) ファジィ制御器
Tsoi et al. Building MLP networks by construction
Tawfiq et al. Influence Activation Function in Approximate Periodic Functions Using Neural Networks
JP2763370B2 (ja) 階層ネットワーク構成ファジィ制御器