JPH07152715A - Pattern learning device using hopfield type neural network and pattern recollecting device - Google Patents

Pattern learning device using hopfield type neural network and pattern recollecting device

Info

Publication number
JPH07152715A
JPH07152715A JP5300709A JP30070993A JPH07152715A JP H07152715 A JPH07152715 A JP H07152715A JP 5300709 A JP5300709 A JP 5300709A JP 30070993 A JP30070993 A JP 30070993A JP H07152715 A JPH07152715 A JP H07152715A
Authority
JP
Japan
Prior art keywords
pattern
energy
neuro
neural network
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5300709A
Other languages
Japanese (ja)
Inventor
Akira Kuratsume
亮 倉爪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5300709A priority Critical patent/JPH07152715A/en
Publication of JPH07152715A publication Critical patent/JPH07152715A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To easily and simultaneously learn many patterns by adjusting connection load between respective neuro-elements so that the energy value of a network has a certain specified external value on an energy curve. CONSTITUTION:In a Hopfield type neural network connecting each neuro-element to all neuro-elements other than itself, a connection load omegaif between respective neuro-elements is adjusted and learned so that the energy value E of the network to each learning pattern (p) has a certain specified energy external value Etp on an energy curve. Where the internal state, threshold and output of an i-th neuro-element are expressed respectively by mui, thetai and nui, a connection load between two neuro-elements i, j by omegaij; and when alpha1, alpha2 and alpha3 are defined as respective coefficients, an energy value and an error function at the time of presenting a pattern (p) to a current network are respectively expressed as EP and Ei.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、各ニューロ素子が自分
以外の全てのニューロ素子にシナプス接続しているホッ
プフィールド型ニューラルネットワークを用いたパター
ン学習装置,及び、パターン想起装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern learning device and a pattern recalling device using a Hopfield type neural network in which each neuro element is synapse-connected to all neuro elements other than itself.

【0002】上記ホップフィールド型ニューラルネット
ワークやボルツマンマシンに代表される相互結合型ニュ
ーラルネットワークは、組み合わせ最適化問題, パター
ン認識, 連想記憶などに対して、優れた能力を持ってい
ることが文献等で示されている。
It is known in the literature that the interconnected neural network represented by the Hopfield neural network or the Boltzmann machine has excellent ability for combinatorial optimization problems, pattern recognition, associative memory, and the like. It is shown.

【0003】然しながら、これまで提案されている相互
結合型ニューラルネットワークに対する相関学習などの
学習方法は、学習能力が低く、学習可能なパターン数
も、理論的な限界に比べて、遙かに低い値に留まってい
るのが現状であり、効果的な学習装置が必要とされる。
However, the learning methods such as the correlation learning for the mutual coupling type neural networks which have been proposed so far have a low learning ability, and the number of patterns that can be learned is a value much lower than the theoretical limit. The current situation is that there is a need for an effective learning device.

【0004】[0004]

【従来の技術】図9〜図11は、ホップフィールド型ニ
ューラルネットワークを説明する図であって、図9(a)
は、ホップフィールド型ニューラルネットワークの構成
例を示し、図9(b) は、該ホップフィールド型ニューラ
ルネットワークを構成している各ニューロ素子iの内部
状態ui,閾値θi,出力vi , ニューロ素子iとニューロ
素子jの結合荷重wijの関係を示し, 図9(c) は、関数
f(ui ) の例である段階関数を示し、図10(a) は、該
ニューラルネットワークの状態を表す指標としてのエネ
ルギーEを式で示し、図10(b) は、ホップフィールド
の学習方法を示し、図11(a),(b) は、相関学習法を示
している。
9 to 11 are diagrams for explaining a Hopfield type neural network, and FIG.
9B shows an example of the configuration of the Hopfield type neural network, and FIG. 9B shows the internal state u i, the threshold value θ i, the output v i, and the neuron of each neuro element i forming the Hopfield type neural network. shows the relationship between the coupling weight w ij of the element i and neuro device j, FIG. 9 (c) shows a step function is an example of the function f (u i), FIG. 10 (a), the state of the neural network 10 (b) shows the learning method of the Hopfield, and FIGS. 11 (a) and 11 (b) show the correlation learning method.

【0005】上記ホップフィールド型ニューラルネット
ワークについては、例えば、「“ニューラルネットワー
ク情報処理 (−コネクショニズム入門あるいは柔らかな
記号に向けて−),1.3 相互結合ネットワーク,Hop field
のネットワーク,P20〜P27,麻生英樹著, 産業図書株式会
社, 昭和63年7月8日第2刷」に詳しいが、該ホップフ
ィールド型ニューラルネットワークは、図9(a) に示さ
れているように、各ニューロ素子 (○印で示す) が自分
以外の全てのニューロ素子にシナプス接続し、他のニュ
ーロ素子の状態により決定される内部状態ui , 及び、
自らの閾値θiにより、非同期的に、その出力を変化さ
せるものである。
Regarding the above-mentioned Hopfield type neural network, for example, "Neural network information processing (-introduction to connectionism or toward soft symbols-), 1.3 interconnection network, Hop field
Network, P20-P27, Hideki Aso, Sangyo Tosho Co., Ltd., 2nd edition, July 8, 1988 ”, but the Hopfield neural network is as shown in Fig. 9 (a). , Each neuro element (indicated by a circle) synapse-connects to all neuro elements other than itself, and the internal state u i , which is determined by the states of the other neuro elements, and
The output is asynchronously changed by its own threshold value θ i .

【0006】即ち、図9(a) に示したn個のニューロ素
子からなるホップフィールド型ニューラルネットワーク
において、i番目のニューロ素子の内部状態をui,閾値
をθ i,出力をvi とし、ニューロ素子iとニューロ素子
jの結合荷重wijとすると、各ニューロ素子の状態は、
図9(b) に示した式(1),(2) とで表される。但し、f(u
i ) は、適当な決定関数で、通常は、図9(c) に示した
段階関数が用いられる。
That is, the n neuroelements shown in FIG.
Hopfield neural network consisting of children
Where u is the internal state of the i-th neuro elementi,Threshold
Θ i,Output viAnd the neuro element i and the neuro element
coupling weight w of jijThen, the state of each neuro element is
It is expressed by the equations (1) and (2) shown in FIG. 9 (b). However, f (u
i) Is an appropriate decision function, usually shown in Fig. 9 (c).
A step function is used.

【0007】又、ホップフィールド型ニューラルネット
ワークの性質を決定する重要な仮定条件として、上記ニ
ューロ素子iとニューロ素子jの間の結合荷重は等し
い。つまり、 wij=wji 式(3) であるとする。
Further, as an important assumption for determining the properties of the Hopfield type neural network, the coupling weights between the neuro element i and the neuro element j are equal. That is, it is assumed that w ij = w ji formula (3).

【0008】又、該ホップフィールド型ニューラルネッ
トワークの状態を表す指標として、図10(a) の式(4)
で与えられる量を、該ネットワークのエネルギーとい
う。ここで、図9(a),(b),(c),図10(a) を参照して、
上記ホップフィールド型ニューラルネットワークでの学
習法について、図10(b) によって、説明する。該ホッ
プフィールド型ニューラルネットワークでの学習は、該
ホップフィールド型ニューラルネットワークを構成して
いる各ニューロ素子に、所定のパターン (例えば、2値
パターン)を教師信号として与えて、各ニューロ素子間
の上記結合荷重wijを決定することによって行われる。
As an index showing the state of the Hopfield type neural network, the equation (4) in FIG. 10 (a) is used.
The amount given by is called the energy of the network. Here, referring to FIGS. 9 (a), (b), (c), and FIG. 10 (a),
A learning method in the Hopfield neural network will be described with reference to FIG. The learning in the Hopfield neural network is performed by giving a predetermined pattern (for example, a binary pattern) as a teacher signal to each neuro element that constitutes the Hopfield neural network, and This is done by determining the coupling weight w ij .

【0009】即ち、図9(b) の式(1) において、各ニュ
ーロ素子間の結合荷重wijを、適当な値に設定すること
により、該ホップフィールド型ニューラルネットワーク
にある望みの2値パターンを学習させることができる。
この結合荷重wijを決定する手法は、これまでにも、幾
つか提案されているが、ここでは、先ず、ホップフィー
ルドによって提案された手法、及び、最も一般的な学習
方法である相関学習法について説明する。
That is, in the equation (1) of FIG. 9 (b), by setting the coupling weight w ij between the neuro elements to an appropriate value, the desired binary pattern in the Hopfield type neural network can be obtained. Can be learned.
Several methods for determining the connection weight w ij have been proposed so far, but here, first, the method proposed by Hopfield and the correlation learning method, which is the most general learning method, are used. Will be described.

【0010】1) ホップフィールドの学習方法:先ず、
1982年に、ホップフィールド自身によって提案された自
己想起型連想記憶法を示す。但し、ネットワークに学習
させたいP個のパターンが、該ネットワークの各ニュー
ロ素子iの出力vi (0,1) で示されとして、該P個のパ
ターンを図10(b) の式(5) で表すことにする。
1) Hopfield learning method: First,
In 1982, we present the self-associative associative memory method proposed by Hopfield himself. However, assuming that the P patterns to be learned by the network are represented by the output v i (0,1) of each neuro element i of the network, the P patterns are expressed by the equation (5) in FIG. 10 (b). Will be represented by.

【0011】本学習法では、先ず、各ニューロ素子は、
0,1 の2値を取るものとした場合、各ニューロ素子間の
結合荷重wij, 及び、閾値θi を、図10(b) の式(6),
(7)とするものである。但し、このとき、パターンpと
パターンqとの間には、図10(b) の式(8) で示した関
係がなくてはならない。
In this learning method, first, each neuron element is
When the binary values of 0 and 1 are taken, the coupling load w ij between the neuro elements and the threshold value θ i are expressed by the equation (6) in FIG. 10 (b),
(7). However, at this time, there must be a relationship between the pattern p and the pattern q shown in the equation (8) of FIG. 10 (b).

【0012】上記式(6) については、前述の「“ニュー
ラルネットワーク情報処理 (−コネクショニズム入門あ
るいは柔らかな記号に向けて−),1.3 相互結合ネットワ
ーク,Hop fieldのネットワーク,P20〜P27,麻生英樹著,
産業図書株式会社, 昭和63年7月8日第2刷」の式1.7
に示されているものと同じである。
Regarding the above equation (6), "Neural network information processing (-Introduction to connectionism or toward soft symbols-), 1.3 Mutual interconnection network, Hop field network, P20-P27, by Hideki Aso" ,
Sangyo Tosho Co., Ltd., July 8, 1988, 2nd edition ”formula 1.7
Is the same as that shown in.

【0013】この方法では、上記図10(b) の式(8) で
示した条件式が制約条件となるため学習能力が低くなる
という問題がある。 2) 相関学習法:次に、ホップフィールド型ニューラル
ネットワークの最も一般的な学習方法である、相関学習
法について、図11(a),(b) によって説明する。
This method has a problem that the learning ability becomes low because the conditional expression shown by the expression (8) in FIG. 10 (b) becomes a constraint condition. 2) Correlation learning method: Next, the correlation learning method, which is the most general learning method of the Hopfield neural network, will be described with reference to FIGS. 11 (a) and 11 (b).

【0014】この相関学習法では、前述のネットワーク
のエネルギーEに着目し、該エネルギーEの最急降下法
という視点で、該相関学習法を導くことを試みる。前述
の図10(a) の式(4) に示されているように、該ホップ
フィールド型ニューラルネットワークのエネルギーE
は、図11(a) の式(9) で与えられる。ここで、このエ
ネルギーEを、結合荷重wijで偏微分すると、図11
(a) の式(10)が得られる。
In this correlation learning method, attention is paid to the energy E of the network, and an attempt is made to derive the correlation learning method from the viewpoint of the steepest descent method of the energy E. As shown in the above equation (4) of FIG. 10 (a), the energy E of the Hopfield neural network is
Is given by equation (9) in FIG. 11 (a). Here, when this energy E is partially differentiated by the coupling load w ij , FIG.
Equation (10) of (a) is obtained.

【0015】従って、P個のパターンを学習するよう
に、結合荷重wijに対して、ネットワークのエネルギー
P について、最急降下法、具体的には、上記エネルギ
ーEが提示されたパターンにおいて、結合荷重wijに対
する極値を持つ方向に、上記式(1O)で示した偏微分係数
に基づいて、上記結合荷重wijを変更する。この過程を
図11(b) に示す。
Therefore, as to learn P patterns, with respect to the connection weight w ij, for the energy E P of the network, the steepest descent method, specifically, in the pattern in which the energy E is presented, the connection is performed. in a direction having an extreme value with respect to the load w ij, based on the partial differential coefficients shown by the formula (1O), to change the connection weights w ij. This process is shown in FIG. 11 (b).

【0016】即ち、上記ネットワークのエネルギーEに
ついて最急降下法を施すと、該結合荷重wijは、図11
(b) のドットwijとして示した式(11)となり、該式(11)
に添付してあるエネルギーEと結合荷重wijとの関係を
示した図{図11(b) }にも示されているように、該エ
ネルギーEについて最急降下法を施し、該結合荷重w ij
の値を、該エネルギーEが提示されたパターンにおい
て、結合荷重wijに対する極値を持つ方向に変更してい
くと、ネットワークのエネルギーEが、提示されたパタ
ーンと結合荷重wijの関数であることから、提示された
パターンに対するエネルギーEP が低い方向に移動す
る。又、同様にして、閾値についても、式(12)で示した
ドットθi となる。但し、αは係数である。
That is, the energy E of the network is
When the steepest descent method is applied, the coupling load wijIs shown in FIG.
(b) dot wijEquation (11) shown as
Energy E and coupling load w attached toijRelationship with
As shown in the figure shown in FIG. 11 (b),
The steepest descent method is applied to the energy E, and the coupling load w ij
Value of the energy E in the pattern presented
And the joint load wijIs changing to have extreme values for
The energy E of the network is
And the combined load wijSince it is a function of
Energy E for the patternPMoves in the lower direction
It Further, similarly, the threshold value is also expressed by the equation (12).
Dot θiBecomes However, α is a coefficient.

【0017】上記式(11), 式(12)は、一般に、相関学習
法と呼ばれている方法であるが、このように、ネットワ
ークのエネルギーEに着目すると、本手法は、各パター
ンに対するエネルギーEp に対して、エネルギーの曲面
での穴 (即ち、極値) を堀り続ける「穴堀り法」として
考えることができる。
The above equations (11) and (12) are generally called the correlation learning method. Thus, when focusing on the energy E of the network, this method shows that the energy for each pattern is It can be thought of as a "drilling method" in which holes (that is, extreme values) on the curved surface of energy are continuously dug with respect to E p .

【0018】[0018]

【発明が解決しようとする課題】前述のように、上記ホ
ップフィールドの学習方法では、パターンpとパターン
qとの間に、図10(b) の式(8) で示した関係の条件が
起因して、複数個のパターンを学習する能力が低いとい
う問題があった。本願出願人も、この点について、図
6,図7(a) で後述するように、該条件を満たすパター
ン{図6参照}については、学習できるが、該条件を満
たさないパターン{図7(a) 参照}については、学習能
力が低いことを、パターン想起のシミュレーションによ
って確認している。
As described above, in the learning method of the Hopfield described above, the condition of the relationship shown in the equation (8) of FIG. 10 (b) is caused between the pattern p and the pattern q. Then, there is a problem that the ability to learn a plurality of patterns is low. As will be described later with reference to FIGS. 6 and 7 (a), the applicant of the present application can learn patterns (see FIG. 6) that satisfy the condition, but patterns that do not satisfy the condition {see FIG. Regarding (a) reference}, it is confirmed by a simulation of pattern recall that the learning ability is low.

【0019】又、上記相関学習法は、図11(b) にも示
したように、提示されたパターンに対するネットワーク
のエネルギーEP を限りなく低くする方法であり、学習
後のネットワークを用いて、所定のパターンを想起する
場合、該想起すべきパターンのエネルギー値は、エネル
ギー関数の曲面で、極値 (極小値) を持つことが予想さ
れる。
Further, as shown in FIG. 11 (b), the above correlation learning method is a method for making the energy E P of the network for the presented pattern as low as possible, and using the network after learning, When recalling a predetermined pattern, the energy value of the pattern to be recalled is expected to have an extreme value (minimum value) on the curved surface of the energy function.

【0020】従って、相関学習法で学習したネットワー
クに対して、エネルギーが高い状態からエネルギーが減
少するように、上記結合荷重を変化させた場合、ネット
ワークの状態がエネルギー曲面のある極値、即ち、ある
学習パターンに収束することになり、この手法により、
学習したパターンを想起することができる。
Therefore, in the case of the network learned by the correlation learning method, when the coupling weight is changed so that the energy decreases from the high energy state, the state of the network is an extreme value with an energy curved surface, that is, It will converge to a certain learning pattern, and by this method,
Recall the learned patterns.

【0021】然しながら、上記相関学習法は、前述のよ
うに、式(11)に基づいて、結合荷重wijを変化させて、
指示されたパターンに対する該ネットワークのエネルギ
ーE P の極値を限りなく低くする方法であるから、学習
を行うにつれて、該結合荷重や閾値が低い値になった
り、各パターンのエネルギー極値の差が相対的に小さく
なるため、多くのパターンを、同時に学習することが困
難であるという問題があった。
However, the above-mentioned correlation learning method has been described above.
Then, based on equation (11), the coupling load wijBy changing
Energy of the network for the indicated pattern
-E PSince it is a method to make the extreme value of
The binding load and the threshold became lower as
The difference in the energy extremes of each pattern is relatively small
Therefore, it is difficult to learn many patterns at the same time.
There was a problem that it was difficult.

【0022】又、学習済みのネットワークを使用して、
所定のパターンを想起する場合、想起するパターンは、
ネットワークの初期値に依存するため、学習したパター
ンを選択的に想起することができないという問題があっ
た。即ち、想起したきパターンに近い初期値を入力し
て、パターンを想起する場合には、該所定のパターンを
想起することができても、差(後述のハミング距離)の
大きいパターンを初期値として入力した場合には、該パ
ターンを想起することができないという問題があった。
Also, using a trained network,
When recalling a given pattern, the recalled pattern is
There is a problem that the learned pattern cannot be recalled selectively because it depends on the initial value of the network. That is, in the case of recalling a pattern by inputting an initial value close to the recalled pattern, even if the predetermined pattern can be recalled, a pattern with a large difference (hamming distance described later) is used as the initial value. When inputting, there is a problem that the pattern cannot be recalled.

【0023】尚、上記ホップフィールド型ニューラルネ
ットワークでのパターンの想起は、学習済みの結合荷重
ijを持つネットワークに対して、図10(a) に示した
n個のニューロ素子iの内部状態ui に、初期値のデー
タを入力した後、該n個のニューロ素子の一つをランダ
ムに選択 (このランダムな選択動作を非同期動作とい
う) して、該ニューロ素子の内部状態ui , 及び出力v
i を計算することを、複数回繰り返すことにより、各ニ
ューロ素子の出力vi が、上記与えられた初期値から、
想起したいパターンに対応する出力に収束する過程をい
う。
The recall of the pattern in the above Hopfield type neural network is the same as the internal state u of the n neuro elements i shown in FIG. 10A for the network having the learned connection weight w ij . After inputting initial value data to i , one of the n neuro elements is randomly selected (this random selection operation is called asynchronous operation), and the internal state u i of the neuro element and the output v
By repeating the calculation of i a plurality of times, the output v i of each neuron is calculated from the given initial value
The process of converging on the output corresponding to the pattern you want to recall.

【0024】本発明は上記従来の欠点に鑑み、ホップフ
ィールド型ニューラルネットワークを用いた学習問題に
おいて、各学習パターンに対するネットワークのエネル
ギー値が、エネルギー曲面において、余り低いエネルギ
ー極値を持たないように、ある指定された極値Etpを持
つように、各ニューロ素子の結合荷重を調整することに
より、従来よりも多くのパターンを同時に学習させるこ
とができるホップフィールド型ニューラルネットワーク
を提供すること、又、上記のようにして学習した学習済
みのホップフィールド型ニューラルネットワークに対し
て、該ネットワークのエネルギー値が、想起したいパタ
ーンのエネルギー値と等しくなるように、上記想起動作
を行わせることで、指定されたパターンを選択的に想起
することができるホップフィールド型ニューラルネット
ワークを提供することを目的とするものである。
In view of the above-mentioned conventional drawbacks, the present invention provides a learning problem using a Hopfield neural network so that the energy value of the network for each learning pattern does not have a too low energy extreme value on the energy curved surface. Providing a Hopfield neural network capable of simultaneously learning more patterns than before by adjusting the connection weight of each neuro element so as to have a specified extreme value E tp , and It is specified by causing the learned Hopfield neural network learned as described above to perform the above-mentioned starting action so that the energy value of the network becomes equal to the energy value of the pattern to be recalled. Can selectively recall patterns It is an object to provide a-up field type neural network.

【0025】[0025]

【課題を解決するための手段】図1〜図3は、本発明の
原理説明図であり、図1,図2は、エネルギー学習法の
原理を示し、図3は、パターン想起法の原理を示してい
る。上記の問題点は下記の如くに構成したホップフィー
ルド型ニューラルネットワークによって解決される。
1 to 3 are diagrams for explaining the principle of the present invention, FIGS. 1 and 2 show the principle of the energy learning method, and FIG. 3 shows the principle of the pattern recall method. Shows. The above problems are solved by the Hopfield type neural network configured as follows.

【0026】(1) 各ニューロ素子が自分以外の全てのニ
ューロ素子にシナプス接続しているホップフィールド型
ニューラルネットワークを用いたパターン学習装置であ
って、各学習パターンに対するネットワークのエネルギ
ー値(E) が、エネルギー曲面上で、ある指定されたエネ
ルギー極値(EtP) を持つように、各ニューロ素子間の結
合加重(wij) を調整して学習を行うように構成する。
(1) A pattern learning device using a Hopfield neural network in which each neuro element is synapse-connected to all neuro elements other than itself, and the energy value (E) of the network for each learning pattern is , On the energy surface, adjust the coupling weight (w ij ) between each neuron so that it has a specified energy extremum (E tP ), and perform learning.

【0027】(2) 各ニューロ素子が自分以外の全てのニ
ューロ素子にシナプス接続しているホップフィールド型
ニューラルネットワークを用いたパターン想起装置であ
って、上記(1) 項に記載の学習装置で学習済みのホップ
フィールド型ニューラルネットワークに対して、ニュー
ラルネットワークのエネルギー値(E) と、想起したいパ
ターンのエネルギー値(Erp) が一致するように、ニュー
ラルネットワークを動作させ、上記指定されたパターン
を選択的に想起するように構成する。
(2) A pattern recall device using a Hopfield type neural network in which each neuro element is synapse-connected to all neuro elements other than itself, and is learned by the learning device described in the above item (1). Operates the neural network so that the energy value (E) of the neural network matches the energy value (E rp ) of the pattern you want to recall, and selects the specified pattern above. It is configured so that it can be recalled.

【0028】[0028]

【作用】図1〜図3は、本発明の原理説明図である。図
1,図2によって、エネルギー学習法の作用動作を説明
する。
1 to 3 are explanatory views of the principle of the present invention. The action and operation of the energy learning method will be described with reference to FIGS.

【0029】前述の式(4) より、ホップフィールド型ニ
ューラルネットワークのエネルギーEは、図1の式(13)
で与えられる。ここで、あるパターンpに対する、該ネ
ットワークのエネルギーの目標極値をEtpとし、現在の
該ネットワークにパターンpを提示したときのエネルギ
ー値をEp とする。
From the above equation (4), the energy E of the Hopfield type neural network is calculated by the equation (13) in FIG.
Given in. Here, the target extreme value of the energy of the network for a certain pattern p is E tp, and the energy value when the pattern p is currently presented to the network is E p .

【0030】そして、本発明においては、誤差関数Ee
として、全ての学習パターンに対する上記エネルギーの
目標極値Etpと、現在のエネルギー値Ep との差の二乗
,及び、該ネットワークのエネルギーが、所定のパタ
ーンpで極値を持つための条件を考え、上記誤差関数E
e を、式(14)に示したように定義する。
In the present invention, the error function E e
Is the sum of squares of the difference between the target extreme value E tp of the above energy for all learning patterns and the current energy value E p , and the condition for the energy of the network to have an extreme value in a predetermined pattern p. And the above error function E
Define e as shown in equation (14).

【0031】ここで、式(14)の右辺第一項E1 を、結合
荷重wijで偏微分すると、式(15)が得られる。又、式(1
4)の右偏第二項E2 は、前述の式(1) に基づいて式(16)
となるから、この式(16)を結合荷重wijで偏微分する
と、式(17)が得られる。
Here, when the first term E 1 on the right side of the equation (14) is partially differentiated by the coupling load w ij , the equation (15) is obtained. Also, the formula (1
The right-handed second term E 2 of 4) is expressed by the equation (16) based on the above equation (1).
Therefore, when this equation (16) is partially differentiated by the connection weight w ij , equation (17) is obtained.

【0032】従って、結合荷重wijに対する上記誤差関
数Ee について、最急降下法を施すと、式(18)が得ら
れ、同様にして、閾値θi については、式(19)が得られ
る。上記式(18)において、右辺の第1項は、ネットワー
クのエネルギー値Ep を、パターンpに対するネットワ
ークの目標エネルギー値Etpとする為の条件であり、該
右辺の第2項は、該ネットワークの目標エネルギー値E
tpが、パターンpで極値となるようにする条件を示して
{図2のエネルギー値Eと結合荷重wijの図を参照}い
るので、上記式(18)を満たす方向に、各ニューロ素子間
の結合荷重w ijを変更することで、該パターンpに対す
る結合荷重wijを得て、該パターンpを学習することが
できる。
Therefore, the coupling load wijThe above error relation to
Number EeThen, the steepest descent method is applied to
And the threshold θiEquation (19) is obtained for
It In the above equation (18), the first term on the right side is the network
Energy value E of KupTo the pattern p
Target energy value EtpIs a condition for
The second term on the right side is the target energy value E of the network.
tpShows the condition that makes the pattern p extreme
{Energy value E and coupling load w in FIG. 2ijSee the figure}
Therefore, in the direction that satisfies the above equation (18),
Coupling load w ijTo the pattern p by changing
Coupling load wijTo learn the pattern p
it can.

【0033】同様にして、他のパターンq, 〜に対する
エネルギーの目標極値Etq, 〜を提示することを繰り返
すことにより、複数のパターンに対する学習を行うこと
が容易となる。
Similarly, it is easy to learn a plurality of patterns by repeatedly presenting the target extremums of energy E tq , -for the other patterns q,-.

【0034】次に、図3によって、上記のようにして複
数個のパターンを学習したホップフィールド型ニューラ
ルネットワークにある、特定のパターンを想起させたい
場合の手段を説明する。
Next, the means for recalling a specific pattern in the Hopfield type neural network in which a plurality of patterns are learned as described above will be described with reference to FIG.

【0035】先ず、想起させたいパターンpのエネルギ
ー値をErpとし、ネットワークの現在のエネルギー値を
Eとし、このエネルギーの差Eerを、図3の式(20)で定
義する。
First, the energy value of the pattern p to be recalled is E rp , the current energy value of the network is E, and this energy difference E er is defined by the equation (20) in FIG.

【0036】この式(20)を、ランダムに選択したニュー
ロ素子jの内部状態uj を決定する変数(ニューロ素子
iの出力値)vi で偏微分すると、式(21)となる。式(2
1)のエネルギーEに対するvi による偏微分値は、前述
の式(1) から、式(22)となるから、結局、式(21)は、式
(23)に示すものとなり、ニューロ素子iの出力vi に対
するエネルギー誤差Eerに対して、前述の最急降下法を
施すと、式(24)を得る。
The expression (20) is partially differentiated by a variable (output value of the neuro element i) v i that determines the internal state u j of the neuro element j selected at random, and the expression (21) is obtained. Expression (2
Partial differential value by v i to the energy E 1) from equation (1) described above, from the equation (22), after all, equation (21), wherein
As shown in (23), when the above-mentioned steepest descent method is applied to the energy error E er with respect to the output v i of the neuro element i, the formula (24) is obtained.

【0037】従って、特定のパターンを想起する場合に
は、ランダムに選択したニューロ素子iの出力vi を、
前述の式(2) の代わりに、式(24)に基づいて算出するこ
とを、上記ランダムに選択される複数個のニューロ素子
について繰り返すことにより、予め、想起させたいパタ
ーンのエネルギー値Erpを設定することで、該エネルギ
ー値Erpをもつパターンを選択的に想起することができ
る。
Therefore, when recalling a specific pattern, the output v i of the randomly selected neuro element i is
The energy value E rp of the pattern to be recalled is previously obtained by repeating the calculation based on the equation (24) instead of the above equation (2) for the plurality of neuro elements randomly selected. By setting, the pattern having the energy value E rp can be selectively recalled.

【0038】即ち、本発明によるホップフィールド型ニ
ューラルネットワークを使用したエネルギー学習法は、
該ホップフィールド型ニューラルネットワークに対し
て、各学習パターンに対するネットワークのエネルギー
値が、エネルギー曲面上で、ある指定された極値を持つ
ように学習を行う手法である。従って、予め、各パター
ンのエネルギー極値を指定することができるので、学習
を続けても、従来の相関学習法のように、結合荷重や閾
値が、非常に低い値になったり、各パターンのエネルギ
ーの極値の差が小さくなることがないため、従来の相関
学習法に比較して、より多くのパターンを学習すること
ができる。
That is, the energy learning method using the Hopfield type neural network according to the present invention is
This is a method for performing learning on the Hopfield neural network so that the energy value of the network for each learning pattern has a specified extreme value on the energy curved surface. Therefore, since the energy extreme value of each pattern can be specified in advance, even if the learning is continued, the coupling weight or the threshold value becomes a very low value like the conventional correlation learning method, Since the difference between the extreme values of energy does not become small, more patterns can be learned as compared with the conventional correlation learning method.

【0039】又、本発明によるパターン想起法は、上記
のように、特定のパターンを想起する場合には、ランダ
ムに選択したニューロ素子iの出力vi を、前述の式
(2) の代わりに、式(24)に基づいて算出することを、上
記ランダムに選択される複数個のニューロ素子について
繰り返すことにより、予め、想起させたいパターンのエ
ネルギー値Erpを設定することで、該エネルギー値Erp
をもつパターンを選択的に想起することができる。
Further, in the pattern recall method according to the present invention, when recalling a specific pattern, as described above, the output v i of the neuro element i selected at random is expressed by the above equation.
Instead of (2), it is possible to set the energy value E rp of the pattern to be recalled in advance by repeating the calculation based on the equation (24) for the plurality of randomly selected neuro elements. And the energy value E rp
Patterns with can be selectively recalled.

【0040】[0040]

【実施例】以下本発明の実施例を図面によって詳述す
る。前述の図1〜図3は、本発明の原理説明図であり、
図4〜図8は、本発明の一実施例を示した図であって、
図4(a) は、実施例に用いた、ホップフィールド型ニュ
ーラルネットワークを模式的に示した図であり、図5
(b) は、学習パターンの例を示しており、図6(a) は、
他の学習パターンの例を示し、図6(b) は、図6(a) で
示した学習パターンをホップフィールドの学習方法で学
習した場合のシミュレーション結果を示し、図7,図8
は、前述の図5(b) に示した学習パターンで、各学習方
法での学習結果のシミュレーション結果を示している。
Embodiments of the present invention will be described in detail below with reference to the drawings. 1 to 3 described above are explanatory views of the principle of the present invention.
4 to 8 are views showing an embodiment of the present invention,
FIG. 4A is a diagram schematically showing the Hopfield neural network used in the embodiment.
(b) shows an example of the learning pattern, and FIG. 6 (a) shows
An example of another learning pattern is shown, and FIG. 6 (b) shows a simulation result when the learning pattern shown in FIG. 6 (a) is learned by the Hopfield learning method.
Shows the simulation result of the learning result in each learning method in the learning pattern shown in FIG.

【0041】本発明においては、ホップフィールド型ニ
ューラルネットワークに対して、各学習パターンに対す
るネットワークのエネルギー値が、エネルギー曲面上
で、ある指定された極値を持つように学習を行う手段、
及び、特定のパターンを想起する場合には、ランダムに
選択したニューロ素子iの出力vi を、前述の式(2) の
代わりに、式(24)に基づいて算出することを、上記ラン
ダムに選択される複数個のニューロ素子について繰り返
す手段が、本発明を実施するのに必要な手段である。
尚、全図を通して同じ符号は同じ対象物を示している。
In the present invention, means for performing learning for the Hopfield neural network so that the energy value of the network for each learning pattern has a specified extreme value on the energy curved surface,
Further, in the case of recalling a specific pattern, calculating the output v i of the randomly selected neuro element i based on the equation (24) instead of the above equation (2) is performed randomly. The means for repeating the plurality of selected neuro elements is the means necessary for carrying out the present invention.
The same reference numerals indicate the same objects throughout the drawings.

【0042】以下、図1〜図3を参照しながら、図4〜
図8によって、本発明によるエネルギー学習法の性能を
評価する。即ち、計算機の主記憶上に、図4(a) に示し
た、10×10=100のニューロ素子(unit 1,1 〜un
it 10,10) からなるホップフィールド型ニューラルネッ
トワークを構築し、所定の学習パターンpを、各ニュー
ロ素子に入力して、該ホップフィールド型ニューラルネ
ットワークを構成している上記各ニューロ素子間の結合
荷重wijに対する誤差関数Ee について、最急降下法を
施し、該ネットワークが目標としたエネルギー値Etp
極値となるように、図1に示した計算式、式(13)〜式(1
8)に基づいて、式(18)を満たす方向に、該各ニューロ素
子間の結合荷重wijを変更する計算をシミュレーション
することで、本発明のエネルギー学習法を評価する。こ
のとき、各ニューロ素子iが取り得る出力vi は(-1,1)
の2値であるとし、又、学習させるパターンは、図6
(a) で示したパターン, 及び、図5(b) に示した5つの
文字A,B,C,D,Eであるとする。
Hereinafter, referring to FIGS. 1 to 3, FIGS.
FIG. 8 evaluates the performance of the energy learning method according to the present invention. That is, in the main memory of the computer, 10 × 10 = 100 neuro elements (units 1,1 to un) shown in FIG.
(10, 10) is constructed, a predetermined learning pattern p is input to each neuro element, and the connection weight between the neuro elements constituting the Hop field neural network is constructed. The error function E e with respect to w ij is subjected to the steepest descent method so that the energy value E tp targeted by the network becomes an extreme value, the formulas (13) to (1) shown in FIG.
Based on 8), the energy learning method of the present invention is evaluated by simulating a calculation for changing the coupling load w ij between the neuro elements in a direction satisfying the expression (18). At this time, the output v i that each neuro element i can take is (-1,1)
6 and the learning pattern is shown in FIG.
It is assumed that the pattern shown in (a) and the five characters A, B, C, D, and E shown in FIG.

【0043】先ず、従来のホップフィールドの学習方法
でのシミュレーション結果について説明する。この場合
には、図6(a) に示した学習パターンを、上記図4(a)
に示したホップフィールド型ニューラルネットワークの
各ニューロ素子に入力し、各ニューロ素子間の結合荷重
ijを、前述の図10(b) の式(6) で計算して学習する
と、該学習パターンは、図10(b) の式(8) で示す条件
を満たしており、このパターンに対しては、従来のホッ
プフィールドの学習方法でも、学習が可能であることが
分かる。
First, the simulation results of the conventional Hopfield learning method will be described. In this case, the learning pattern shown in FIG.
By inputting to each neuro element of the Hopfield type neural network shown in (4) and calculating the coupling weight w ij between each neuro element by the equation (6) of FIG. 10 (b) described above, the learning pattern is , The condition shown by the equation (8) in FIG. 10 (b) is satisfied, and it can be seen that the conventional Hopfield learning method can be used to learn this pattern.

【0044】然しながら、図5(b) に示した5つのパタ
ーンを学習された場合には、各学習パターンは、上記の
条件式(8) を満たしていない為、上記従来のホップフィ
ールドの学習方法では、図7(a) にシミュレーション結
果で示したように、全く学習できないことが分かる。こ
のように、従来のホップフィールドの学習能力はかなり
低いと考えられるが、これは、図10(b) の式(7) に示
されているように、各ニューロ素子が持つ閾値の効果を
全く考慮していないことに起因しているものと思われ
る。
However, when the five patterns shown in FIG. 5 (b) are learned, each learning pattern does not satisfy the above conditional expression (8), so that the conventional Hopfield learning method is used. Then, as shown in the simulation result in FIG. 7 (a), it can be seen that the learning cannot be performed at all. As described above, the learning ability of the conventional Hopfield is considered to be considerably low, but as shown in the equation (7) of FIG. It seems that it is due to not considering.

【0045】そこで、図4,図5,図7,図8によっ
て、上記の相関学習法、本発明のエネルギー学習法によ
るシミュレーション結果について説明する。該シミュレ
ーションは、先ず、上記図4(a) に示したホップフィー
ルド型ニューラルネットワークの各ニューロ素子に、図
5(b) に示した5つの各パターンを、それぞれ、500
回提示して学習させる。
Then, the simulation results by the above correlation learning method and the energy learning method of the present invention will be described with reference to FIGS. 4, 5, 7, and 8. In the simulation, first, each neuro element of the Hopfield type neural network shown in FIG. 4 (a) is provided with 500 patterns of each of the five patterns shown in FIG. 5 (b).
Present and learn once.

【0046】具体的には、5つのパターンを学習するよ
うに、各ニューロ素子i,j間の結合荷重wijに対し
て、最急降下法を施し、該ネットワークのエネルギー値
が極値を持つ方向に、該結合荷重wijの値を変えること
を繰り返す。
Specifically, the steepest descent method is applied to the coupling weight w ij between the neuro elements i and j so that the five patterns are learned, and the energy value of the network has the extreme value. Then, changing the value of the coupling load w ij is repeated.

【0047】従来の相関学習法では、該結合荷重wij
算出値は、図11(b) の式(11)で示したものであり、本
発明のエネルギー学習法では、図1の式(18)で示したも
のとなる。同じようにして、各ニューロ素子iの閾値に
ついても、それぞれ、図11(b) の式(12)、図1の式(1
9)で示した計算式に基づいて、該ネットワークのエネル
ギー値が極値を持つ方向に、該閾値θi の値を変える計
算を行う。
In the conventional correlation learning method, the calculated value of the coupling weight w ij is shown by the equation (11) in FIG. 11B, and in the energy learning method of the present invention, the equation (1) in FIG. It becomes the one shown in 18). Similarly, for the threshold value of each neuro element i, the equation (12) in FIG. 11 (b) and the equation (1) in FIG.
Based on the calculation formula shown in 9), the value of the threshold θ i is changed so that the energy value of the network has an extreme value.

【0048】上記の学習を行った後、該学習パターンか
ら1つのパターンをランダムに選択し、そのパターンか
ら50ハミング距離だけ離れた状態(100個のニュー
ロ素子の内、50個のニューロ素子に入力するパターン
の値として、学習パターンの値を反転した値を入力した
状態)を初期値として、ネットワークを1000回動作
させる。具体的には、前述のように、ランダムに選択し
たニューロ素子iの内部状態ui を計算する際、前述の
式(24)に基づいて、ネットワークの出力vi を変化させ
て計算する。
After performing the above learning, one pattern is randomly selected from the learning patterns, and the pattern is separated by 50 hamming distances from the pattern (input to 50 neuro elements out of 100 neuro elements). As a pattern value to be set, a value obtained by inverting the value of the learning pattern is input), and the network is operated 1000 times. Specifically, as described above, when the internal state u i of the randomly selected neuro element i is calculated, the output v i of the network is changed based on the above equation (24).

【0049】このようにして、相関学習法によるネット
ワークの学習能力は、図7(b) に、そのシミュレーショ
ン結果を示したように、上記ホップフィールドの学習方
法の手法{図7(a) 参照}に比較すると、大幅に改善さ
れていることが分かるが、未だ、全てのパターンを想起
するまでにはいたっていない。
In this way, the learning ability of the network by the correlation learning method, as shown in the simulation result of FIG. 7 (b), is the method of the Hopfield learning method (see FIG. 7 (a)). Compared to the above, it can be seen that it is greatly improved, but it is not enough to recall all the patterns.

【0050】本発明のエネルギー学習法の場合のシミュ
レーションによる想起結果を図5(c) に示す。図8(c)
に示した例では、各文字に対応して設定した目標エネル
ギーの極値(Etp) を、A=-20000,B=-22000,C=-24000,D
=-26000,E=-28000とした場合を示しているが、図8(c)
に示したシミュレーション結果からも明らかなように、
全パターンのほゞ完全な想起が可能であり、本発明によ
るエネルギー学習法は、上記の学習法に比較して、大き
な学習能力があることが分かる。
FIG. 5 (c) shows the result of recall by simulation in the case of the energy learning method of the present invention. Figure 8 (c)
In the example shown in, the extreme value (E tp ) of the target energy set for each character is A = -20000, B = -22000, C = -24000, D
= -26000, E = -28000 is shown, but Fig. 8 (c)
As is clear from the simulation results shown in
It can be seen that all patterns can be recalled almost completely, and that the energy learning method according to the present invention has a large learning ability as compared with the above learning method.

【0051】このように、本発明のホップフィールド型
ニューラルネットワークを用いた学習装置, 及び、想起
装置は、各学習パターンに対するネットワークのエネル
ギー値(E) が、エネルギー曲面上で、ある指定された極
値(EtP) を持つように、各ニューロ素子間の結合加重を
調整して学習を行う。又、上記の学習済みホップフィー
ルド型ニューラルネットワークに対して、ネットワーク
のエネルギー値(E) と、想起したいパターンのエネルギ
ー値(Erp) が一致するようにニューラルネットワークを
動作させて、指定されたパターンを選択的に想起させる
ようにしたところに特徴がある。
As described above, in the learning device and the recollecting device using the Hopfield type neural network of the present invention, the energy value (E) of the network for each learning pattern is a specified pole on the energy curved surface. Learning is performed by adjusting the coupling weight between each neuron so that it has a value (E tP ). In addition, for the learned Hopfield neural network described above, operate the neural network so that the energy value (E) of the network matches the energy value (E rp ) of the pattern you want to recall, and specify the specified pattern. It is characterized by selectively recalling.

【0052】[0052]

【発明の効果】以上、詳細に説明したように、本発明に
よれば、ホップフィールド型ニューラルネットワークに
対して、各学習パターンに対するネットワークのエネル
ギー値が、エネルギー曲面上で、ある指定された極値(E
tP) を持つように学習を行う手法である。従って、予
め、各パターンのエネルギー極値(EtP) を指定すること
ができるので、学習を続けても、従来の相関学習法のよ
うに、結合荷重や閾値が、非常に低い値になったり、各
パターンのエネルギーの極値の差が小さくなることがな
いため、従来の相関学習法に比較して、より多くのパタ
ーンを学習することができる。
As described above in detail, according to the present invention, for a Hopfield neural network, the energy value of the network for each learning pattern is a specified extremum on the energy curved surface. (E
It is a method to perform learning so as to have tP ). Therefore, since the energy extreme value (E tP ) of each pattern can be specified in advance, even if the learning is continued, the coupling weight and the threshold value become very low as in the conventional correlation learning method. Since the difference between the extreme values of the energies of the respective patterns does not become small, it is possible to learn more patterns as compared with the conventional correlation learning method.

【0053】又、本発明によるパターン想起法は、上記
のように、特定のパターンを想起する場合には、ランダ
ムに選択したニューロ素子iの出力vi を、前述の式
(2) の代わりに、式(24)に基づいて算出することを、上
記ランダムに選択される複数個のニューロ素子について
繰り返すことにより、予め、想起させたいパターンのエ
ネルギー値Erpを設定することで、該エネルギー値Erp
をもつパターンを選択的に想起することができる効果が
ある。
Further, in the pattern recall method according to the present invention, when recalling a specific pattern, as described above, the output v i of the neuro element i selected at random is expressed by the above equation.
Instead of (2), it is possible to set the energy value E rp of the pattern to be recalled in advance by repeating the calculation based on the equation (24) for the plurality of randomly selected neuro elements. And the energy value E rp
There is an effect that a pattern having a can be selectively recalled.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理説明図(その1)FIG. 1 is an explanatory diagram (1) of the principle of the present invention.

【図2】本発明の原理説明図(その2)FIG. 2 is an explanatory diagram of the principle of the present invention (No. 2)

【図3】本発明の原理説明図(その3)FIG. 3 is an explanatory diagram of the principle of the present invention (No. 3)

【図4】本発明の一実施例を示した図(その1)FIG. 4 is a diagram showing an embodiment of the present invention (No. 1).

【図5】本発明の一実施例を示した図(その2)FIG. 5 is a diagram showing an embodiment of the present invention (part 2).

【図6】本発明の一実施例を示した図(その3)FIG. 6 is a diagram showing an embodiment of the present invention (part 3).

【図7】本発明の一実施例を示した図(その4)FIG. 7 is a diagram showing an embodiment of the present invention (Part 4).

【図8】本発明の一実施例を示した図(その5)FIG. 8 is a diagram showing an embodiment of the present invention (No. 5).

【図9】ホップフィールド型ニューラルネットワークを
説明する図(その1)
FIG. 9 is a diagram (1) explaining a Hopfield neural network.

【図10】ホップフィールド型ニューラルネットワーク
を説明する図(その2)
FIG. 10 is a diagram for explaining the Hopfield neural network (No. 2).

【図11】ホップフィールド型ニューラルネットワーク
を説明する図(その3)
FIG. 11 is a diagram (No. 3) explaining the Hopfield neural network.

【符号の説明】[Explanation of symbols]

i ニューロ素子の内部状態 θi 閾値 vi ニューロ素子の出力 wij ニューロ素子iとニューロ素子jの結合荷重 E ホップフィールド型ニューラルネットワークの
エネルギー ドットwij パターンPを学習するように、ネット
ワークのエネルギーEに結合荷重wijに関する最急降下
法を施したときの偏微分値 ドットθi パターンPを学習するように、ネット
ワークのエネルギーEに結合荷重θi に関する最急降下
法を施したときの偏微分値
u i to learn the energy dot w ij pattern P connection weights E Hopfield neural network output w ij neuro device i and neuro device j of the internal state theta i threshold v i neuro device of neuro device, network energy Partial differential value when E is subjected to the steepest descent method with respect to the connection weight w ij A partial differential value is obtained when the steepest descent method with respect to the coupling load θ i is applied to the energy E of the network so as to learn the dot θ i pattern P.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】各ニューロ素子が自分以外の全てのニュー
ロ素子にシナプス接続しているホップフィールド型ニュ
ーラルネットワークを用いたパターン学習装置であっ
て、 各学習パターンに対するネットワークのエネルギー値
(E) が、エネルギー曲面上で、ある指定されたエネルギ
ー極値(EtP) を持つように、各ニューロ素子間の結合荷
重(wij) を調整して学習を行うことを特徴とするホップ
フィールド型ニューラルネットワークを用いたパターン
学習装置。
1. A pattern learning device using a Hopfield neural network in which each neuro element is synapse-connected to all neuro elements other than itself, and the energy value of the network for each learning pattern.
A hop characterized by adjusting the coupling weights (w ij ) between each neuron so that (E) has a specified energy extremum (E tP ) on the energy surface. Pattern learning device using field type neural network.
【請求項2】各ニューロ素子が自分以外の全てのニュー
ロ素子にシナプス接続しているホップフィールド型ニュ
ーラルネットワークを用いたパターン想起装置であっ
て、 上記請求項1に記載の学習装置で学習済みのホップフィ
ールド型ニューラルネットワークに対して、ニューラル
ネットワークのエネルギー値(E) と、想起したいパター
ンのエネルギー値(Erp) が一致するように、ニューラル
ネットワークを動作させ、上記指定されたパターンを選
択的に想起することを特徴とするホップフィールド型ニ
ューラルネットワークを用いたパターン想起装置。
2. A pattern recalling device using a Hopfield type neural network in which each neuro element is synapse-connected to all neuro elements other than itself, which has already been learned by the learning device according to claim 1. For the Hopfield neural network, operate the neural network so that the energy value (E) of the neural network matches the energy value (E rp ) of the pattern you want to recall, and select the specified pattern above. A pattern recalling device using a Hopfield neural network characterized by recalling.
JP5300709A 1993-12-01 1993-12-01 Pattern learning device using hopfield type neural network and pattern recollecting device Withdrawn JPH07152715A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5300709A JPH07152715A (en) 1993-12-01 1993-12-01 Pattern learning device using hopfield type neural network and pattern recollecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5300709A JPH07152715A (en) 1993-12-01 1993-12-01 Pattern learning device using hopfield type neural network and pattern recollecting device

Publications (1)

Publication Number Publication Date
JPH07152715A true JPH07152715A (en) 1995-06-16

Family

ID=17888152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5300709A Withdrawn JPH07152715A (en) 1993-12-01 1993-12-01 Pattern learning device using hopfield type neural network and pattern recollecting device

Country Status (1)

Country Link
JP (1) JPH07152715A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216187A (en) * 2004-01-30 2005-08-11 Fuji Xerox Co Ltd Data analyzing apparatus
JP2008269593A (en) * 2007-03-28 2008-11-06 Saga Univ Hopfield network

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005216187A (en) * 2004-01-30 2005-08-11 Fuji Xerox Co Ltd Data analyzing apparatus
JP4543687B2 (en) * 2004-01-30 2010-09-15 富士ゼロックス株式会社 Data analyzer
JP2008269593A (en) * 2007-03-28 2008-11-06 Saga Univ Hopfield network

Similar Documents

Publication Publication Date Title
US5832466A (en) System and method for dynamic learning control in genetically enhanced back-propagation neural networks
Charalambous Conjugate gradient algorithm for efficient training of artificial neural networks
Ramesh et al. Concurrent tolerance allocation using an artificial neural network and continuous ant colony optimisation
Pavelka et al. Algorithms for initialization of neural network weights
US11514327B2 (en) Apparatus and method for utilizing a parameter genome characterizing neural network connections as a building block to construct a neural network with feedforward and feedback paths
Krogh et al. A cost function for internal representations
Wienholt Minimizing the system error in feedforward neural networks with evolution strategy
US5845051A (en) Learning method for multilayer perceptron neural network with N-bit data representation
KR100850914B1 (en) method for controlling game character
Dunyak et al. Fuzzy number neural networks
JPH07152715A (en) Pattern learning device using hopfield type neural network and pattern recollecting device
Wen et al. Self-generating vs. self-organizing, what's different?
Kinzel Theory of interacting neural networks
JPH05342189A (en) Learning system for network type information processor
Lindsay et al. A novel way of training a neural network with reinforcement learning and without back propagation
US5157275A (en) Circuit employing logical gates for calculating activation function derivatives on stochastically-encoded signals
Zhang et al. Hybrid adaptive learning control of nonlinear system
JP3310009B2 (en) Neural network system
Gunaseeli et al. A constructive approach of modified standard backpropagation algorithm with optimum initialization for feedforward neural networks
Hassan et al. Integrating neural network with genetic algorithms for the classification plant disease
Jula et al. Application of artificial neural networks in interactive simulation
Jou et al. Parallel distributed processing with multiple one-output back-propagation neural networks
Jansen Introduction to Artificial Neural Networking
JP3288066B2 (en) Learning processing method and system for network configuration data processing device
Estevez et al. Max-min propagation nets: Learning by delta rule for the Chebyshev norm

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010206