JPH0476659A - Neural network - Google Patents

Neural network

Info

Publication number
JPH0476659A
JPH0476659A JP2183985A JP18398590A JPH0476659A JP H0476659 A JPH0476659 A JP H0476659A JP 2183985 A JP2183985 A JP 2183985A JP 18398590 A JP18398590 A JP 18398590A JP H0476659 A JPH0476659 A JP H0476659A
Authority
JP
Japan
Prior art keywords
neuron
neural network
neuron elements
elements
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2183985A
Other languages
Japanese (ja)
Inventor
Kouki Yamada
貢己 山田
Toshiaki Tanaka
俊明 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2183985A priority Critical patent/JPH0476659A/en
Publication of JPH0476659A publication Critical patent/JPH0476659A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To reduce a calculation quantity up to the end of repetitive calculation by setting a train of the update of the states of respective neuron elements by referring to information regarding coupling between respective neuron elements. CONSTITUTION:This neural network consists of the neuron elements 1, coupling parts 5, and a train setting means 7 and when this neural network is in operation, there are inputs I1 - I5 and outputs O1 - O5. Coupling loads wij are defined at the coupling parts 5 information on the coupling loads wij is sent from the coupling parts 5 to the train setting means 7; and order or a series is determined according to the information on the coupling loads wij and the neural network is put in operation according to the information on the order or train.

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明は、最適化問題や連想記憶メモリ等に応用するこ
とが可能なニューラルネットに関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Field of Industrial Application) The present invention relates to a neural network that can be applied to optimization problems, associative memory, and the like.

(従来の技術) 近年、ニューラルネットを用いた情報処理の有効性が見
直され、各所で研究が活発になっている。ニューラルネ
ットの応用分野は、その並列性を活かした最適組合せ問
題への適用やニューラルネットの学習機能を利用したパ
ターン認識など、幅広い分野にまたがっている。
(Prior Art) In recent years, the effectiveness of information processing using neural networks has been reconsidered, and research has become active in various places. Applications of neural networks span a wide range of fields, including applications to optimal combinatorial problems that take advantage of their parallel nature, and pattern recognition that utilizes the learning function of neural networks.

ニューラルネットの構成は第4図(a)に示す全結合タ
イプのネットワーク(いわゆるホップフィールド(l1
opr Ic1d)型ネット)、第4図(b)に示す階
層ネット、第4図(c)に示すランダム結合ネット等が
主に利用される。
The configuration of the neural network is a fully connected type network (so-called Hopfield (l1
(opr Ic1d) type net), a hierarchical net shown in FIG. 4(b), a random connection net shown in FIG. 4(c), etc. are mainly used.

これらニューラルネットを構成する各ニューロン索子間
の結合には、例えば第1番目のニューロン素子と第j番
目のニューロン素子との間に結合荷重W1.が定義され
る。
For example, a connection weight W1. is defined.

具体的には、第5図(a)、(b)に示すように、入力
信号X l +  2 + ・・・+  xNがニュー
ロン素子101に与えられるとき、入出力関数f、閾値
θとして、 y+−f(ΣWIIXI−θ1) に従って演算処理を行うもので、第5図(b)。
Specifically, as shown in FIGS. 5(a) and 5(b), when the input signal X l + 2 + ... + xN is given to the neuron element 101, the input/output function f and the threshold value θ are as follows. The arithmetic processing is performed according to y+-f(ΣWIIXI-θ1), as shown in FIG. 5(b).

(c)に示すような入出力特性を有する。そしてこれら
ニューロン素子は前記第4図に示す入力l、を与えて得
られる出力0.で最適組合せ問題の解を表現したり、パ
ターンの識別などを行う。
It has input/output characteristics as shown in (c). These neuron elements output an output 0.0.0 which is obtained by applying the input l shown in FIG. Express solutions to optimal combinatorial problems and identify patterns.

ニューラルネットの最適化問題や連想記憶メモリ等への
応用(J、J、flopfield and DJ、T
ank:旧o1、Cyberr+、52141(198
5))には、相互結合した素子で構成される全結合ネッ
トやランダム結合ネットが利用されることが多く、また
各ニューロン素子の状態の更新は同期させて行われたり
、あるいは非同期で行われたりする。
Application of neural networks to optimization problems and associative memory (J, J, flopfield and DJ, T
ank: Old o1, Cyberr+, 52141 (198
5)), a fully connected net or a randomly connected net consisting of mutually connected elements is often used, and the state of each neuron element is updated either synchronously or asynchronously. or

各ニューロン素子の状態の更新を同期させる方法は、並
列性を活かせ、また数学的には行列の積として扱えるこ
とから解析しやすいという点で優れてはいるものの、ニ
ューロン素子の状態が極小解に収束するということが保
証されず振動を起こす危険性を持つなどの欠点も有して
いる。
Although the method of synchronizing the update of the state of each neuron element is superior in that it takes advantage of parallelism and is easier to analyze because it can be treated mathematically as a product of matrices, It also has drawbacks such as the fact that convergence is not guaranteed and there is a risk of vibration.

一方、非同期的に各ニューロン素子の状態を更新させる
方法は、並列性の面からは劣るものの、並列計算のでき
ない一般の計算機を使用して上記の処理をさせる場合に
おいては、処理速度の面で対等であり、また今後非同期
的に並列処理を行うことができる計算機が開発されるこ
とになれば並列性の面での欠点は克服されると考えられ
る。
On the other hand, although the method of updating the state of each neuron element asynchronously is inferior in terms of parallelism, it is effective in terms of processing speed when performing the above processing using a general computer that cannot perform parallel calculations. If a computer that can perform parallel processing asynchronously is developed in the future, it is thought that the drawbacks in terms of parallelism will be overcome.

さらにこの非同期的に各ニューロン素子の状態を更新さ
せる方法は極小解への収束が理論的に保証されていると
いう利点を有している。
Furthermore, this method of asynchronously updating the state of each neuron element has the advantage that convergence to a minimum solution is theoretically guaranteed.

しかしながら、非同期的に各ニューロン素子の状態を更
新させる場合、各ニューロン素子をどのような順番で更
新させるか、すなわち、反復計算させるかということ、
に関しては、現在明確な指針が存在せず、通常は互いに
等しい確率で、例えば乱数を用いて任意の一つのニュー
ロン素子を選択し、定められた規則に従ってそのニュー
ロン素子の状態を更新し、次のニューロン素子の選択に
移行して同しことを繰り返すという手続きをすることが
一般的である。
However, when updating the state of each neuron element asynchronously, in what order to update each neuron element, that is, to perform repeated calculations,
Currently, there are no clear guidelines for this, and usually one selects any one neuron element with equal probability using, for example, random numbers, updates the state of that neuron element according to a set rule, and then selects the next neuron element with equal probability. It is common to move on to selecting a neuron element and repeat the same process.

しかしながら、一般的にこのような乱数による選択の方
法では、安定してしまっているニューロン素子について
も他のニューロン素子と同し確率で選択されてしまうた
めに、多くの不要なス1算を強いられることがある。ま
た、他のニューロン素子に対して絶対的な影響を与える
性格を持ったニューロン素子が存在する場合にも、該ニ
ューロン素子を特別扱いしないため、偶然にそのニュー
ロン素子が遅い段階で選択された場合に、それまでの反
復計算が無駄になることがある。
However, in general, this selection method using random numbers requires many unnecessary calculations because even stable neuron elements are selected with the same probability as other neuron elements. It may happen. Furthermore, even if there is a neuron element that has the characteristic of having an absolute influence on other neuron elements, this neuron element is not treated specially, so if that neuron element is accidentally selected at a late stage, In some cases, previous iterative calculations may be wasted.

すなわち、乱数を用いて状態を更新するニューロン素子
を選択する場合には、当該ニューラルネットを特徴付け
る結合荷重などのパラメータからの情報が全く利用され
ないからである。
That is, when selecting neuron elements whose states are to be updated using random numbers, information from parameters such as connection weights that characterize the neural network is not used at all.

(発明が解決しようとする課Jalll)上述したよう
に非同期的にニューロン素子の状態を更新する従来のニ
ューラルネットにおいては、ニューロン素子の状態を更
新する際に、結合荷重などのパラメータからの情報を利
用することなく、乱数などを用いてニューロン素子の選
択を行なうため不要な計算を強いられることがあった。
(Problem to be solved by the invention) As mentioned above, in conventional neural networks that update the states of neuron elements asynchronously, when updating the states of neuron elements, information from parameters such as connection weights is used. Since neuron elements are selected using random numbers without being used, unnecessary calculations are sometimes forced.

本発明は、このような欠点を解決するためニューラルネ
ットの結合荷重の性質に応じて適切なニューロン素子の
順序或は系列を設定し、それに従ってニューロン素子の
更新を行わせることで、反復計算が終了するまでの計算
量を軽減するようにしたニューラルネットを提供するも
のである。
In order to solve these drawbacks, the present invention sets an appropriate order or sequence of neuron elements according to the nature of the connection weights of the neural network, and updates the neuron elements accordingly, thereby reducing repetitive calculations. This provides a neural network that reduces the amount of calculations required until completion.

〔発明のtδ成〕[tδ formation of the invention]

(課題を解決するための手段) 本発明のニューラルネットは、相互に結合される複数の
ニューロン素子の状態が非同期的に更新されるニューラ
ルネットであって、前記各ニューロン索子間の結合に係
る情報を参照して、各ニューロン素子の状態の更新の系
列を設定する系列設定手段を有することを要旨とする。
(Means for Solving the Problems) The neural network of the present invention is a neural network in which the states of a plurality of neuron elements connected to each other are updated asynchronously, and the neural network is a neural network in which the states of a plurality of neuron elements connected to each other are updated asynchronously. The gist of the present invention is to include a sequence setting means for setting a sequence for updating the state of each neuron element by referring to the information.

(作用) 本発明のニューラルネットによれば、非同期的に更新さ
れるニューロン素子の状態を更新する際に、相互に結合
される複数のニューロン素子間の結合に係る情報を参照
して、各ニューロン素子の状態の更新が行われる。
(Operation) According to the neural network of the present invention, when updating the states of neuron elements that are updated asynchronously, each neuron is The state of the element is updated.

尚、極小解に収束するというこのニューラルネットの性
質は更新させるニューロン素子の順序を操作しても保た
れることが理論的に保証されている。
Note that it is theoretically guaranteed that the property of this neural network to converge to a minimum solution is maintained even if the order of the neuron elements to be updated is manipulated.

(実施例) 以下、本発明の一実施例について、図面を参照して説明
する。
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.

第1図は本発明の第1の実施例に係るニューラルネット
の概念図である。
FIG. 1 is a conceptual diagram of a neural network according to a first embodiment of the present invention.

このニューラルネットはニューロン素子1、結合部5と
系列設定手段7とから成り、当該ニューラルネットの動
作の際には入力11〜 I5及び出力01〜05を伴う
This neural network consists of a neuron element 1, a coupling section 5, and a sequence setting means 7, and when the neural network operates, it is accompanied by inputs 11-I5 and outputs 01-05.

また、結合部5には結合荷重Wllが定義され、結合部
5からの結合荷重Wll等の情報が系列設定手段7に伝
えられ、この結合荷重Wllの情報に応じて順序或は系
列を決定し、その順序或は系列の情報をもとにニューラ
ルネットを動作させる。
Further, a joint load Wll is defined in the joint 5, and information such as the joint load Wll from the joint 5 is transmitted to the series setting means 7, which determines the order or series according to the information on the joint load Wll. , the neural network is operated based on the order or sequence information.

以下、具体的に説明する。This will be explained in detail below.

ます、ニューラルネット全体のエネルギーEを次式によ
って定義する。
First, the energy E of the entire neural network is defined by the following equation.

子についても同様。)とニューロン素子jとの間の結合
荷重、■、はニューロン素子iの状態、θ1はニューロ
ン素子iの持つ閾値である。
The same goes for children. ) and the neuron element j, ■ is the state of the neuron element i, and θ1 is the threshold value of the neuron element i.

Vlは、 ■1−±1            ・・・(2)の2
値を取り、結合荷重WIIは、 Wli”o。
Vl is ■1-±1...(2) 2
The joint load WII is Wli”o.

W 1wm W 11 ただし、(i、j−1,・・・、N)     ・・・
(3)という性質を持つ。
W 1wm W 11 However, (i, j-1,..., N)...
It has the property (3).

今、VlがΔV、たけ変化したときのエネルギーEの変
化量ΔEは、 であるから、 V、(t+1.) 2+−11−1’−’   ・・・ (1)ただし、W
、は第1番目のニューロン素子(以下、ニューロン素子
iと呼ぶ。他のニューロン素に従って時刻tのニューロ
ン素子の状態Vl  (t)(i−1,・・・、N)を
更新すればエネルギーEの変化量は必ず負または0にす
ることができる。
Now, when Vl changes by ΔV, the amount of change ΔE in energy E is as follows: V, (t+1.) 2+-11-1'-' (1) However, W
, is the first neuron element (hereinafter referred to as neuron element i). If the state Vl (t) (i-1, ..., N) of the neuron element at time t is updated according to other neuron elements, the energy E The amount of change in can always be negative or zero.

このことは即ち第(5)式に従ってニューロン素子の状
態を更新させれば必ずエネルギーEの極小に至るという
ことを意味している。
This means that if the state of the neuron element is updated according to equation (5), the energy E will always reach its minimum.

本実施例においては結合荷重に関して、W、、1 ≧a、   a≧1       ・・・(6)ただし
、 W、=Σ 1wzl         ・・・(7)と
いう性質がある場合を考える。即ちWlの値の小さい順
に並べたときに、隣合うもの同士を比べると、大きいも
のが小さいもののa倍に等しいかそれより大きい場合で
ある。また、ニューロン素子につける番号は任意に変換
することができるので、−殺性を失わずに第(6)式を
仮定することができる。
In this embodiment, a case will be considered with respect to the joint load, where there are the following properties: W,, 1≧a, a≧1 (6), where W,=Σ 1wzl (7). That is, when the values of Wl are arranged in descending order of decreasing value, when comparing adjacent values, the larger value is equal to or larger than a times the smaller value. Furthermore, since the numbers assigned to the neuron elements can be arbitrarily converted, equation (6) can be assumed without losing the killing effect.

また、強い結合によって結ばれているニューロン素子は
ど他のニューロン素子へ影響を及ぼし易いと考えられる
ので、Wlの値の大きい順にニューロン素子を選択して
その状態の更新を行わせることがニューラルネットの動
作の初期においては有効である。
In addition, it is thought that neuron elements that are connected by strong connections are likely to affect other neuron elements, so it is possible to select neuron elements in descending order of Wl value and update their states. This is effective at the initial stage of operation.

従って、1−0を初期状態とし、Tをある適当な数にと
り、1≦t≦Tの時期ではWlの値の大きい順にニュー
ロン素子を選択し、そのニューロン素子の状態の更新を
行わせて、Vlの値を更新し、またそれ以降のt>Tの
時期においてはランダムにニューロン素子の選択を行う
ことが本実施例における有効な手法の一つとなる。
Therefore, the initial state is 1-0, T is set to a certain appropriate number, and at the time of 1≦t≦T, neuron elements are selected in descending order of the value of Wl, and the state of the neuron elements is updated. One of the effective methods in this embodiment is to update the value of Vl and to randomly select neuron elements in the subsequent period when t>T.

次に、 a−1,41421356゜ θ +−0(t−1,・・・、 N)。next, a-1,41421356゜ θ +-0 (t-1,..., N).

−N の場合を例に説明する。尚、このとき、a≧1であれば
同様な手法が適用できる。
The case of -N will be explained as an example. Note that at this time, if a≧1, a similar method can be applied.

第2図にN−100の場合のE対tのグラフを示す。こ
れは初期状態と結合荷重の初期値を、定められた条件を
満たす範囲内でランダムに選定し、10回の試行につい
て、エネルギーEを平均したグラフである。実線が本実
施例に基づく手法によるものであり、点線がランダムに
ニューロン素子を選択する従来の手法によるものである
。同図からも明らかなように実線が点線に比べて、エネ
ルギーEの減少が速く、収束も速いことが判る。
FIG. 2 shows a graph of E versus t in the case of N-100. This is a graph in which the initial state and the initial value of the bonding load are randomly selected within a range that satisfies predetermined conditions, and the energy E is averaged over 10 trials. The solid line is based on the method based on this embodiment, and the dotted line is based on the conventional method of randomly selecting neuron elements. As is clear from the figure, the energy E decreases faster and converges faster in the solid line than in the dotted line.

なお、両者ともランダムにニューロン素子を選択する際
に、計算機のプログラム中にリスト配列(1ist[!
]−(iをNで割った余り) +1 (i−1,−3N
))を用意し、その配列の内容を乱数にて並べ替えたも
のを予め作り、この配列に従ってニューロン素子を選択
するものとした。これにより、各回ごとに乱数によって
ニューロン素子を選択する場合に比べて、どのニューロ
ン素子も必ず順番がいつかは回ってくるという効果があ
り、優れる。
In both cases, when randomly selecting neuron elements, a list array (1ist[!
]-(remainder when i is divided by N) +1 (i-1,-3N
)), the contents of the array were rearranged using random numbers, and neuron elements were selected according to this array. This is superior to the case where neuron elements are selected using random numbers each time, since each neuron element will always have its turn at some point.

次に、本発明に係る第2の実施例について説明する。Next, a second embodiment of the present invention will be described.

この第2の実施例においても、前記第1の実施例におけ
る第(1)式〜(7)式が成立するものとする。ただし
、当該第2の実施例は、第1の実施例とは異なり、単純
にW、の大きいものから順に行うのものではない。
In this second embodiment as well, it is assumed that equations (1) to (7) in the first embodiment are satisfied. However, unlike the first embodiment, the second embodiment does not simply perform operations in descending order of W.

すなわち、ある特定の結合荷重の絶対値1wの大きさが
極端に大きい場合には、その両側のニューロン素子のど
ちらか一方を1回選択して更新させてしまうことによっ
て、これら両側端のニューロン素子の状態が確定してし
まい二度と変化しないので、それ以降はこれら2個のニ
ューロン素子は除外して反復計算を進めることができる
In other words, if the absolute value 1w of a particular connection weight is extremely large, by selecting one of the neuron elements on both sides and updating it once, the neuron elements on both sides can be updated. Since the state of is fixed and will never change again, it is possible to proceed with the iterative calculation by excluding these two neuron elements from then on.

このような結合荷重の性質を図示するために、第3図(
a)、〜 (f)における記号をそれぞれ定義する。
To illustrate the nature of such joint loads, Figure 3 (
Define the symbols in a) and (f), respectively.

まず、ニューロン素子jへの結合が、 という性質をもつとき、第3図(a)に示したようにニ
ューロン素子iからニューロン素子jに向かう実線の矢
印[−]を描くものとする。
First, when the connection to neuron element j has the following properties, a solid arrow [-] is drawn from neuron element i to neuron element j as shown in FIG. 3(a).

尚、上記第8式において、Σは、k−1、〜Nの和をと
る際に、その中でに−iだけを除外することを表す。従
って、もし第(8)式が成り立っていれば、ニューロン
素子jの状態はニューロン素子iの状態だけに依存しほ
かのニューロン素子の影響は受けない。
In the eighth equation above, Σ represents excluding only -i when calculating the sum of k-1 and .about.N. Therefore, if equation (8) holds true, the state of neuron element j depends only on the state of neuron element i and is not influenced by other neuron elements.

第(8)式に加えてさらにニューロン素子iに関しても
、 が成立していれば第3図(b)に示したように矢印は双
方向に描かれるが、このときこのニューロン素子iとニ
ューロン素子jは2個のニューロン素子から成るクラス
タを形成し、他のニューロン素子からは独立した振舞い
をする。従って、図中ではクラスタを細い実線で囲まれ
た領域として表す。
In addition to equation (8), if the following holds for neuron element i, arrows will be drawn in both directions as shown in Figure 3(b), but in this case, between neuron element i and neuron element j forms a cluster consisting of two neuron elements and behaves independently from other neuron elements. Therefore, in the figure, clusters are represented as areas surrounded by thin solid lines.

次に、 I W+++  l + I Wl121 +−+ I
 Wz。
Next, I W+++ l + I Wl121 +-+ I
Wz.

〉  Σ  I w + + l  (n < N )
1〜11.−・、l* ・・・(10) が成り立つとき、第3図(c)に示すようにニューロン
素子J++ 〜、joからニューロン素子iに向かう9
本の点線の矢印を描く。この点線の矢印の描き方は−通
りではない。例えば、この場合、ニューロン素子iの状
態はニューロン素子j〜、j0の状態が決まれば決定さ
れてしまい、他からは影響を受けないことが多い。
〉 Σ I w + + l (n < N)
1-11. -・, l* ... (10) When the following holds true, as shown in FIG.
Draw a dotted arrow on the book. There are many different ways to draw this dotted arrow. For example, in this case, the state of neuron element i is determined once the states of neuron elements j~, j0 are determined, and is often not influenced by others.

上記で定義された2種類の矢印を用いてニューロン素子
間の結合荷重の様子を図示したときに、外に向かう矢印
が存在しないような領域はクラスタを形成し、その内部
の状態が落ち着いてしまえば、もう外部からの影響を受
けない場合が多い。
When the two types of arrows defined above are used to illustrate the state of connection weights between neuron elements, regions where there are no outward arrows form clusters, and the internal state of the clusters becomes stable. For example, in many cases they are no longer subject to external influences.

そこで、このような性質を本実施例において活用するこ
とができる。例えば第3図(d)に示されるようなりラ
スタがニューラルネットの一部に形成されているときは
、同図におけるCI、C2゜・・・、C32の順番でニ
ューロン素子の状態の更新を1回ずつ行わせれば、この
クラスタの状態は確定し、それ以降の反復計算はこのク
ラスタに含まれるニューロン素子を除外して行わせるこ
とができる。
Therefore, such properties can be utilized in this embodiment. For example, when a raster is formed as a part of a neural network as shown in FIG. 3(d), the states of neuron elements are updated in the order of CI, C2°, ..., C32 in the same figure. If the calculation is performed once at a time, the state of this cluster is determined, and subsequent iterative calculations can be performed by excluding neuron elements included in this cluster.

このとき、C1とC7はどちらが一方だけ更新すればよ
く、またC 3 r 〜、C9は互いに順番を入れ換え
てもよい。すなわち、クラスタ内で矢印がループを形成
していなければ、更新させる順番は矢印の向きに反しな
いように任意に設定することができる。
At this time, only one of C1 and C7 needs to be updated, and the order of C 3 r to C9 may be changed. That is, if the arrows do not form a loop within the cluster, the order of updating can be arbitrarily set so as not to contradict the direction of the arrows.

また、例えば第3図(e)に示されるようなりラスタが
ある場合は同図におけるCI r  C2r ・・・C
7の順番で更新を1回行わせればよい。この場合もC2
+ 〜、C7は順番を入れ換えてもよい。
For example, if there is a raster as shown in FIG. 3(e), CI r C2r . . . C in the same figure
It is sufficient to update once in the order of 7. In this case also C2
The order of + to C7 may be changed.

さらに、第3図(f)に示されるような点線の矢印で構
成されるクラスタがある場合はその中の状態が確定する
までは従来の方法を採用するが、確定した後はそれらを
除外してニューラルネットを動作させることができる。
Furthermore, if there is a cluster consisting of dotted arrows as shown in Figure 3(f), the conventional method is applied until the state within it is determined, but once it is determined, they are excluded. It is possible to operate a neural network using

上述してきたように、本実施例によればニューラルネッ
トを動作させる前に結合荷重の性質を調査し、それをも
とに適当なニューロン素子の順序或は系列を用意するた
め、結合荷重の性質がらの情報を利用してニューラルネ
ットを動作させることができる。例えば、最初の1回目
の状態の更新を経過してしまった後はもはやこれ以上状
態が変化しないことが明らかであるような特定のニュー
ロン素子、或は変化しない可能性が高いことが予想され
る特定のニューロン素子の両者に対しては、−旦選択さ
れた後はそれを選択しないという方法をとることができ
、従来の乱数による等確率の選択を行っていたときには
見過ごされてきた不要な計算を省いて計算量を節約する
ことができる。
As described above, according to this embodiment, the properties of the connection weights are investigated before operating the neural network, and an appropriate sequence or sequence of neuron elements is prepared based on the properties of the connection weights. Neural networks can be operated using information from other people. For example, after the first state update, it is clear that the state of a certain neuron element will not change any more, or it is expected that there is a high possibility that the state will not change. For both specific neuron elements, it is possible to take a method of not selecting them once they have been selected, which eliminates unnecessary calculations that were overlooked when conventional equal probability selection was performed using random numbers. can be omitted to save the amount of calculation.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、ニューラルネットの動作におけるニュ
ーロン素子の選択の際に各ニューロン素子間の結合に係
る情報を参照するようにしたので、適切なニューロン素
子の順序或は系列を設定することができ、それに従って
ニューロン素子の更新を行わせることで、反復計算が終
了するまでの=1算量を軽減することができる。
According to the present invention, information regarding connections between each neuron element is referred to when selecting neuron elements in the operation of a neural network, so an appropriate order or series of neuron elements can be set. , by updating the neuron elements accordingly, it is possible to reduce the amount of calculation by =1 until the iterative calculation is completed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の概念図、第2図はニューラルネットの
エネルギーの極小値への収束のようすを本発明と従来手
法とを比較して描いたグラフ、第3図は本発明に係る第
2の実施例においてニューラルネット結合荷重の性質を
表す概念図、第4図は従来の各種形式のニューラルネッ
トの結線図、第5図はニューロン素子同士の結合法の原
理説明図である。 1・・・ニューロン素子 5・・・結合部 7・・・系列設定手段
Figure 1 is a conceptual diagram of the present invention, Figure 2 is a graph comparing the present invention and the conventional method to show how the energy of a neural network converges to the minimum value, and Figure 3 is a diagram of the method according to the present invention. FIG. 4 is a conceptual diagram showing the properties of the neural network connection weight in the second embodiment, FIG. 4 is a connection diagram of various types of conventional neural networks, and FIG. 5 is a diagram explaining the principle of the method of connecting neuron elements. 1...Neuron element 5...Coupling unit 7...Sequence setting means

Claims (1)

【特許請求の範囲】[Claims] 相互に結合される複数のニューロン素子の状態が非同期
的に更新されるニューラルネットであって、前記各ニュ
ーロン素子間の結合に係る情報を参照して、各ニューロ
ン素子の状態の更新の系列を設定する系列設定手段を有
することを特徴とするニューラルネット。
A neural network in which the states of a plurality of neuron elements connected to each other are updated asynchronously, and a series of updates of the state of each neuron element is set by referring to information regarding the connections between the neuron elements. A neural network characterized in that it has a sequence setting means.
JP2183985A 1990-07-13 1990-07-13 Neural network Pending JPH0476659A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2183985A JPH0476659A (en) 1990-07-13 1990-07-13 Neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2183985A JPH0476659A (en) 1990-07-13 1990-07-13 Neural network

Publications (1)

Publication Number Publication Date
JPH0476659A true JPH0476659A (en) 1992-03-11

Family

ID=16145302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2183985A Pending JPH0476659A (en) 1990-07-13 1990-07-13 Neural network

Country Status (1)

Country Link
JP (1) JPH0476659A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269593A (en) * 2007-03-28 2008-11-06 Saga Univ Hopfield network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269593A (en) * 2007-03-28 2008-11-06 Saga Univ Hopfield network

Similar Documents

Publication Publication Date Title
Pham et al. Column networks for collective classification
US11164080B2 (en) Unsupervised, supervised and reinforced learning via spiking computation
Storkey Increasing the capacity of a hopfield network without sacrificing functionality
Sader et al. General decay synchronization of delayed BAM neural networks via nonlinear feedback control
Yu et al. Distributed-delay-dependent exponential stability of impulsive neural networks with inertial term
Barbosa et al. Symmetry-aware reservoir computing
Zilouchian Fundamentals of neural networks
Castillo et al. Simulation and forecasting complex economic time series using neural networks and fuzzy logic
Castillo et al. Simulation and forecasting complex financial time series using neural networks and fuzzy logic
Rujan et al. A geometric approach to learning in neural networks
Galán-Marın et al. Modelling competitive Hopfield networks for the maximum clique problem
Khan et al. A Methodology for Developing Adaptive Fuzzy Cognitive Maps for Decision Support.
JP3229624B2 (en) Multilayer neural network and circuit design method thereof
Hattori et al. Multimodule associative memory for many-to-many associations
Hattori et al. Associative memory for intelligent control
JPH0476659A (en) Neural network
Farahani et al. A comparison of combined overlap block fuzzy cognitive maps (COBFCM) and combined overlap block neutrosophic cognitive map (COBNCM) in finding the hidden patterns and indeterminacies in psychological causal models: case study of ADHD
Tang et al. Modeling and optimization of a class of networked evolutionary games with random entrance and time delays
Vai et al. Representing knowledge by neural networks for qualitative analysis and reasoning
Samanta et al. Rit2fis: A recurrent interval type 2 fuzzy inference system and its rule base estimation
Bartlett Analysis of chaotic population dynamics using artificial neural networks
JPH09185596A (en) Coupling coefficient updating method in pulse density type signal processing network
Tsoi et al. Building MLP networks by construction
Inoue et al. Back Propagation Learning Using a Super Stable Motion
CLEE Neural networks with memory for intelligent computations