JPH07182433A - Time series learning method for neuro circuit - Google Patents

Time series learning method for neuro circuit

Info

Publication number
JPH07182433A
JPH07182433A JP5345321A JP34532193A JPH07182433A JP H07182433 A JPH07182433 A JP H07182433A JP 5345321 A JP5345321 A JP 5345321A JP 34532193 A JP34532193 A JP 34532193A JP H07182433 A JPH07182433 A JP H07182433A
Authority
JP
Japan
Prior art keywords
input
time
learning
neural circuit
coupling coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5345321A
Other languages
Japanese (ja)
Other versions
JPH07109609B2 (en
Inventor
Seiji Shigematsu
征史 重松
Hajime Matsumoto
元 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
Agency of Industrial Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology filed Critical Agency of Industrial Science and Technology
Priority to JP5345321A priority Critical patent/JPH07109609B2/en
Publication of JPH07182433A publication Critical patent/JPH07182433A/en
Publication of JPH07109609B2 publication Critical patent/JPH07109609B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To process the information to a high degree by increasing or reducing the coupling coefficient or the transmission efficiency for each input based on the result of comparison carried out between the input time history and the internal state of a neuro circuit element and by storing the before-after relation of the input and output times. CONSTITUTION:A neuro circuit element holds the input time history for each input and increases and reduces the coupling coefficiency (or the transmission efficiency) Wji received from (j) when the input history value Hji (t) is larger than a learning level G1 and when the Hji (t) is set between the learning levels G1 and G2 respectively. In other words, the coupling is increased as a significant input path when the time difference is small between the input and the ignition. Meanwhile the coupling is reduced as a less related path when the considerable time difference is confirmed. In such a learning way, the flow of a time series event is accurately learnt in the coupling coefficient of the neuro circuit element and then can be read out. Thus a neuro circuit network of a high degree is attained and can treat a dynamic phenomenon in terms of time. Then the information can be processed at a higher degree.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力信号に対応して出
力する出力信号の内容を学習する神経回路(ニューラル
ネットワークス)素子の学習方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning method of a neural circuit (neural networks) element for learning the contents of an output signal output corresponding to an input signal.

【0002】[0002]

【従来の技術】従来の神経回路の学習方法について説明
する。バッププロパケーション(BP)法では入力に対
して神経回路が出力すべき出力を教師信号として予め定
め、入力信号に応答して神経回路から出力される出力と
教師信号との自乗誤差を求める。この自乗誤差が少なく
なるよう神経回路の結合係数を調整する。この方法は複
雑な計算を必要とし学習に要する時間も長くかかる。さ
らに、時間を固定した上での理論であるため時系列の学
習はできない。そのため時系列なデータを取り扱うため
には、回路のフィードバック部分を付け加えた再帰結合
型の神経回路が情報処理に用いられている。その再帰結
合型回路が学習するためにBP法を適応することは、よ
り複雑な回路となるため実用的な理論は完成されていな
い。
2. Description of the Related Art A conventional learning method for a neural circuit will be described. In the Bop Propagation (BP) method, the output to be output by the neural circuit with respect to the input is predetermined as a teacher signal, and the squared error between the output output from the neural circuit and the teacher signal is obtained in response to the input signal. The coupling coefficient of the neural circuit is adjusted so that this squared error is reduced. This method requires complicated calculation and takes a long time for learning. Furthermore, since the theory is based on fixed time, it is not possible to learn time series. Therefore, in order to handle time-series data, a recursive coupling type neural circuit with a feedback part of the circuit is used for information processing. Adapting the BP method for the recursive coupling circuit to learn results in a more complicated circuit, so a practical theory has not been completed.

【0003】他の学習方法としてHebbの学習法が知
られている。この方法では大きな出力がある時に関係し
た入力の結合係数を増強する。この方法は非常に単純で
あるが、効率の良い正しい学習ができるという保証はな
く、時間が固定されたものであるため再帰結合のための
特殊な回路を加えなければ、時系列の学習をすることが
できない点は上述のBP法と同様である。さらに、再帰
結合型の学習の場合、読み出し出力を同じタイミングで
再生するため、入力の時間間隔が拘束される欠点を持
つ。
A Hebb learning method is known as another learning method. This method enhances the coupling coefficient of the inputs involved when there is a large output. Although this method is very simple, there is no guarantee that efficient and correct learning can be done, and time is fixed unless a special circuit for recursive coupling is added because the time is fixed. The point that it cannot be performed is the same as the above-mentioned BP method. Further, in the case of the recursive coupling type learning, since the read output is reproduced at the same timing, there is a drawback that the time interval of input is restricted.

【0004】生物にとっては、時系列情報は重要なもの
であり、その一部は、条件付け学習として古くから知ら
れている。すなわち、ブザー刺激入力の後、電気ショッ
ク入力を与えることを数回繰り返すと、ブザー入力のみ
で次の電気ショックを予想した先行行動をとることであ
る。この学習の仕組みを説明する試みは多くなされた
が、未だ満足できるものはない。
Time-series information is important for living things, and part of it has been known as conditioning learning for a long time. That is, if the electric shock input is repeated several times after the buzzer stimulus input, the preceding action that predicts the next electric shock is taken only by the buzzer input. Many attempts have been made to explain the mechanism of this learning, but none are still satisfactory.

【0005】例えば、時系列に関係する生理的な神経細
胞のシナプス・モデルとして従来提案されている方法
は、次のような方法である。すなわち、先の信号入力に
より受ける側の内部電位が上昇したところに次の入力が
あると後からの入力の結合係数が増強されるという受け
側の電位に依存して結合係数の変化する学習法である。
これを図5で見ると、入力1によりAが大きな出力を出
した後、入力2によりBが大きな出力を出したとする。
このとき結合係数が増強されるのは、電位が上昇したと
ころに入力するBからAへの結合である。このような学
習をすると入力2から入力1を連想する学習となり、時
間的に逆の強化学習になってしまう。時系列学習として
は、先の入力1から次の来る入力2を連想する結合、す
なわちAからBへの結合係数を増強する学習ができなけ
ればならないが、この方法が今まで見つかって無かっ
た。
For example, the method conventionally proposed as a synapse model of physiological nerve cells related to time series is the following method. In other words, the learning method in which the coupling coefficient changes depending on the potential of the receiving side that the coupling coefficient of the subsequent input is enhanced when the next input exists where the internal potential of the receiving side rises due to the previous signal input. Is.
Looking at this in FIG. 5, it is assumed that the input 1 produces a large output of A and then the input 2 produces a large output of B.
At this time, the coupling coefficient is enhanced by the coupling from B to A input when the potential rises. When such learning is performed, the learning is associated with the input 2 to the input 1, and the reinforcement learning reverses in time. As time-series learning, it is necessary to be able to perform a coupling that associates the input 1 with the input 2 that comes next, that is, the learning that enhances the coupling coefficient from A to B, but this method has not been found until now.

【0006】[0006]

【発明が解決しようとする課題】以上のように、時系列
情報処理に関して、神経回路素子自体の性能不足も含め
充分に対処できる学習・記憶の方法はなかった。そこで
本発明は、 (a)事象の時間の前後関係を、正しく学習し記憶する
回路を構成する。
As described above, there has been no learning / memory method for time-series information processing that can sufficiently cope with the insufficient performance of the neural circuit element itself. Therefore, the present invention configures (a) a circuit for correctly learning and storing the context of time of an event.

【0007】(b)事象の発生時間間隔に関係なく読み
出し再生ができ高速である。
(B) The reading and reproduction can be performed at high speed regardless of the event occurrence time interval.

【0008】(c)複雑な回路であっても、単純でメモ
リも節約した簡単な計算ができる。
(C) Even with a complicated circuit, simple calculation can be performed with a simple structure and saving memory.

【0009】(d)学習に結合係数の強化と減衰を持ち
バランスある回路を自己組織する。
(D) Self-organizing a balanced circuit that has coupling coefficient enhancement and attenuation for learning.

【0010】(e)一つの要素素子を複数の意味に用い
ることにより記憶容量を向上する。
(E) The storage capacity is improved by using one element element for a plurality of meanings.

【0011】ことの可能な神経回路の学習方法を提供す
ることを目的とする。
It is an object of the present invention to provide a learning method of a neural circuit capable of doing the above.

【0012】[0012]

【課題を解決するための手段】このような目的を達成す
るために、請求項1の発明は、多数入力を持つ神経回路
素子で各々の入力毎に入力の時間経歴を保持し、該時間
経歴の値と前記神経回路素子の内部状態とを比較し、そ
の比較結果に基づき各入力毎の結合係数または伝達効率
を前記時間経歴に従って強化または減衰する学習を実行
し、入力と出力の時間の前後関係を前記結合係数または
伝達効率の内に記憶することを特徴とする。
In order to achieve such an object, the invention of claim 1 holds a time history of inputs for each input in a neural circuit element having a large number of inputs, and the time history of the inputs is maintained. And the internal state of the neural circuit element are compared, and based on the comparison result, learning is performed to strengthen or attenuate the coupling coefficient or the transmission efficiency for each input according to the time history, and before and after the input and output times. The relationship is stored in the coupling coefficient or the transmission efficiency.

【0013】請求項2の発明は、実際の発生時間間隔よ
り高速な読み出し再生を可能とするために請求項1の神
経回路素子を複数組み合わせることにより、時間の流れ
に従って発生した事象の順序を時間的に飛び越した先回
り学習を実行することを特徴とする。
According to the invention of claim 2, a plurality of neural circuit elements according to claim 1 are combined in order to enable reading and reproduction faster than an actual occurrence time interval, so that the sequence of events occurring according to the flow of time can be changed. It is characterized by executing a proactive learning that jumps over.

【0014】請求項3の発明は、時系列の連想記憶要素
の交差または干渉を可能とするために請求項2の神経回
路素子の組み合わせの中に前記要素として使用する神経
回路素子に複数の意味を持たせ、神経回路全体の記憶容
量を増加させることを特徴とする。
The invention of claim 3 has a plurality of meanings for the neural circuit elements used as the elements in the combination of neural circuit elements of claim 2 for enabling crossing or interference of time-series associative memory elements. And increase the memory capacity of the entire neural circuit.

【0015】[0015]

【作用】本発明は、神経回路素子各入力の履歴の値を保
持して、受け側が大きな応答をした時に入力の履歴値が
大きいとその結合係数を増強し、履歴値が比較的小さい
と減衰するという入力の履歴値に依存した神経回路素子
の新しい学習方法である。この学習法でどうして正しい
時間順序が記憶されるかを図5で説明する。入力1によ
りA素子が大きな出力を出すと、B素子の入力のA素子
からの結合部分に大きな履歴値が保持される。次に入力
2によりB素子が大きな出力を出すと、その影響が各入
力結合部に伝わり大きな履歴値をもつ結合係数が強化さ
れる。このようにAからBへの結合係数が強化されるの
で、正しい時系列の学習ができることになる。
According to the present invention, the history value of each input of the neural circuit element is held and the coupling coefficient is enhanced when the input history value is large when the receiving side makes a large response, and attenuated when the history value is relatively small. This is a new learning method for neural circuit elements that depends on the history value of the input. How this learning method stores the correct temporal order is explained in FIG. When the A element outputs a large output by the input 1, a large history value is held in the coupling portion of the input of the B element from the A element. Next, when the B element produces a large output by the input 2, the influence is transmitted to each input coupling portion and the coupling coefficient having a large hysteresis value is strengthened. In this way, since the coupling coefficient from A to B is strengthened, correct time series learning can be performed.

【0016】請求項1の発明では、この入力の履歴値に
依存して時系列的に入力と出力の関係を学習し、また、
この学習計算は一つの素子の入力と出力の関係のみで簡
単に学習できる。
According to the first aspect of the invention, the relationship between the input and the output is learned in time series depending on the history value of the input, and
This learning calculation can be easily learned only by the relationship between the input and output of one element.

【0017】素子の入力の履歴値はN個の各素子毎が全
ての入力履歴値(N×N個)を保持する必要はなく、各
素子での出力の履歴値として保持した値(N個)を次の
入力の履歴値として計算に共通に用いることができメモ
リも節約できる。
The input history values of the elements are not required to hold all the input history values (N × N pieces) for each N pieces of elements, but the values held as the output history values of each element (N pieces) ) Can be commonly used for the calculation as the history value of the next input, and the memory can be saved.

【0018】請求項2の発明では、学習は結合係数の増
強と減衰による自己組織化により進められ、時系列の記
憶は結合係数内に記憶されているので再生読み出しは学
習時の時間とは関係なく高速に再生でき、先まわりした
予測再生もできる。
According to the second aspect of the present invention, the learning is advanced by self-organization by increasing and decreasing the coupling coefficient, and the memory of the time series is stored in the coupling coefficient. Therefore, the reproduction and reading are related to the learning time. It can be played at high speed without the need for advanced prediction playback.

【0019】請求項3の発明では二つの事象入力の時系
列から、その先の入力3,4との関係にまで拡張する
と、さらに高次元の時系列学習となり、一つの素子で複
数の意味を持つ働きを実現することができる。
According to the invention of claim 3, when the time series of two event inputs is expanded to the relationship with the inputs 3 and 4 ahead of them, the learning becomes higher dimensional time series, and one element can realize a plurality of meanings. You can realize the work you have.

【0020】[0020]

【実施例】以下、図面を用いて本発明の実施例を詳細に
説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0021】ここで扱う要素回路または素子として、入
出力がアナログのものを用いて実現することもできる
が、特徴を分かり易くするために入力でデジタル的なパ
ルス波形(2値)を集積し、内部でアナログ演算をして
内部ポテンシャルが閾値以上の時発火してパルス出力を
出す神経回路素子を用いて説明する。この素子は時間情
報が扱える上に、ある時間幅を設定して同期した計算が
できるので、計算機で神経回路を模擬するのに都合が良
いためでもある。なお、この素子は「神経回路素子」と
して特願平4−254189号(平成4年8月28日出
願)により提案されている。本実施例にて、まず神経回
路素子を説明する。
The element circuits or elements handled here can be realized by using analog ones for input and output, but in order to make the features easy to understand, digital pulse waveforms (binary) are integrated, An explanation will be given by using a neural circuit element which internally performs an analog operation and fires when the internal potential exceeds a threshold value to output a pulse output. This is because this element can handle time information and can perform a synchronized calculation by setting a certain time width, which is convenient for simulating a neural circuit with a computer. This element is proposed as a "neural circuit element" in Japanese Patent Application No. 4-254189 (filed on August 28, 1992). In this embodiment, the neural circuit element will be described first.

【0022】神経回路素子の入力と出力の関係を図6に
示す。多数の入力のパルスは結合部を通して神経回路素
子内に集積される。内部ポテンシャルの減衰値aVが本
発明の残留値として以前から引継がれ、集積された入力
に加わり最終的な集積値Uとなる。この集積値Uが閾値
Tより大きいと、出力にビット値“H”を出し、集積値
Uからある定数pを引いたものが内部ポテンシャルVと
なる。
The relationship between the input and output of the neural circuit element is shown in FIG. Multiple input pulses are integrated into the neural circuit element through the coupling. The decay value aV of the internal potential is inherited as the residual value of the present invention from before and is added to the integrated input to become the final integrated value U. When the integrated value U is larger than the threshold value T, a bit value "H" is output and the integrated value U minus a constant p becomes the internal potential V.

【0023】集積値Uが閾値Tよりも小さいと出力はビ
ット値“L”であり、内部ポテンシャル(本発明の残留
値)Vとして集積値Uがそのまま引継がれる。入出力の
ビット値“H”,“L”は、2値論理の値で、それぞれ
“1”,“0”であったり、“1”,“−1”であった
りするが、ここでは“1”,“0”を用いて説明する。
When the integrated value U is smaller than the threshold value T, the output has the bit value "L", and the integrated value U is directly taken over as the internal potential (residual value of the present invention) V. The input / output bit values “H” and “L” are binary logic values, which are “1” and “0”, or “1” and “−1”, respectively. This will be described using 1 ”and“ 0 ”.

【0024】以上の動作を各離散時間毎の動作処理式で
示すと次式となる。
The above operation can be expressed as the following expression by an operation processing expression for each discrete time.

【0025】[0025]

【数1】 [Equation 1]

【0026】入力のパルスがビット“1”であるもので
だけ、各結合係数Wが加算されて数3の右辺の第1項と
なる。右辺の第2項は以前の時間からの残留内部ポテン
シャルを示し、定数a(0<a<1)でVが時間と共に
減衰して行くことを表わす。このときの出力Xiは集積
値Uiと閾値Tにより次のように決められる。
Only when the input pulse is the bit "1", the respective coupling coefficients W are added to form the first term on the right side of the equation (3). The second term on the right side shows the residual internal potential from the previous time, and indicates that V decreases with time at a constant a (0 <a <1). The output Xi at this time is determined as follows by the integrated value Ui and the threshold value T.

【0027】[0027]

【数2】Ui(t) ≧T ならば、Xi(t) =1 および Vi(t)=
Ui(t) −p Ui(t) <T ならば、Xi(t) =0 および Vi(t)=Ui(t) ここで、pは定数でTにほぼ等しいとする。
## EQU00002 ## If Ui (t) .gtoreq.T, Xi (t) = 1 and Vi (t) =
If Ui (t) -p Ui (t) <T, then Xi (t) = 0 and Vi (t) = Ui (t) where p is a constant and approximately equal to T.

【0028】以上の演算処理を各神経回路素子毎に並列
に繰返して実行する。このような神経回路素子を組み合
わせてニューラルネットワーク(神経回路網)を構成し
て情報処理をする。デジタル回路で図6の神経回路素子
を実現する例は前記の特許で示されている。
The above arithmetic processing is repeatedly executed in parallel for each neural circuit element. Information processing is performed by combining such neural circuit elements to form a neural network (neural network). An example of realizing the neural circuit element of FIG. 6 with a digital circuit is shown in the above patent.

【0029】次に、この神経回路素子に本特許の時系列
学習法を付加することについて説明する。図1のように
神経回路素子の入力の履歴値Hji(t)は、漏洩を持
つ積分器のようなものを用いてjからの入力がある度に
パルス値が加わり、図2のように時間経過に従って減衰
するものとする。入力jにより神経回路素子iが必ずし
も発火出力を出すとは限らないが、入力が大きくて内部
ポテンシャルVi(t)が閾値よりも大きいと発火出力
を出す。
Next, adding the time series learning method of this patent to this neural circuit element will be described. As shown in FIG. 1, the history value Hji (t) of the input of the neural circuit element is added with a pulse value every time there is an input from j by using an integrator having leakage, and as shown in FIG. It shall decay over time. Although the neural circuit element i does not always output the ignition output by the input j, it outputs the ignition output when the input is large and the internal potential Vi (t) is larger than the threshold value.

【0030】その時の履歴値Hji(t)が図3のよう
に学習レベルG1よりも大きいとjからの結合係数(伝
達効率と呼ばれることもある)Wjiは増強され、学習
レベルG1とG2の間の値のときWjiは減衰されるよ
うに神経回路素子は学習する。図2と図3から時間経過
と結合係数の変化の関係をまとめると図4のようにな
る。すなわち、入力から発火までの時間差が小さい場合
に意味ある入力経路として結合が増強され、ある程度時
間差があると関係が薄い経路として結合が減衰する学習
が行われることを示している。
If the history value Hji (t) at that time is larger than the learning level G1 as shown in FIG. 3, the coupling coefficient Wjj from j (also called the transmission efficiency) is increased to be between the learning levels G1 and G2. The neural network element learns so that Wji is attenuated when the value is. The relationship between the passage of time and the change in the coupling coefficient is summarized from FIG. 2 and FIG. 3 as shown in FIG. That is, it is shown that when the time difference from the input to the firing is small, the coupling is enhanced as a meaningful input path, and when there is a time difference to some extent, the learning is performed as the path having a weak relationship and the coupling is attenuated.

【0031】履歴値Hji(t)に関して、神経回路網
全体の素子数をN個とすると受け側の神経回路素子毎に
入力の履歴値を計算し保持しなければならないので、全
ての履歴値Hji(t)のためにN×N個の多数のメモ
リを必要とするように思われる。しかしながら、各素子
の出力の履歴値Hj(t)を計算しそれを各々の素子の
学習時に共通して使うことによりメモリもN個で済ます
ことができる。
With respect to the history value Hji (t), if the number of elements in the entire neural network is N, the history value of the input must be calculated and held for each neural circuit element on the receiving side. It appears that it requires N × N multiple memories for (t). However, the number of memories can be N by calculating the history value Hj (t) of the output of each element and using it in common during learning of each element.

【0032】履歴値H(t)の計算式として、As a calculation formula of the history value H (t),

【0033】[0033]

【数3】Hj(t) =d・Hj(t−1)+q・Xj(t) を用いる。ただし、dはHの減衰時定数(d<1)、q
はパルス出力の履歴値定数とする。神経回路の出力は、
出力が有り(Xj(t)=1)か、無し(Xj(t)=
0)であるため、発火出力のときのみqを加えることを
意味する。より簡便な方法として、Hが等差的に減衰す
ると、
## EQU3 ## Hj (t) = d.Hj (t-1) + q.Xj (t) is used. Where d is the decay time constant of H (d <1), q
Is the history value constant of pulse output. The output of the neural circuit is
There is output (Xj (t) = 1) or no output (Xj (t) =
Since it is 0), it means that q is added only at the ignition output. As a simpler method, if H decays differentially,

【0034】[0034]

【数4】Hj(t) =Hj(t−1)−do+q・Xj(t) ただし、doは時間毎の減衰定数とする。これは乗算を
使うことなく履歴値を計算できて、その値の経時変化は
図2の点線のようになる。さらに、発火の度にHj
(t)=qとリセットしてその後の履歴値の減衰のみを
用いることでより履歴値の計算に簡便化した方法もとれ
る。
## EQU00004 ## Hj (t) = Hj (t-1) -do + q.Xj (t) where do is the damping constant for each time. This allows the history value to be calculated without using multiplication, and the change with time of the value becomes as shown by the dotted line in FIG. In addition, Hj
A simpler method for calculating the history value can be obtained by resetting (t) = q and using only the subsequent attenuation of the history value.

【0035】結合係数Wの学習に関して、普通の場合に
は結合係数Wはの最大Wmaxと最小Wminとの間で
学習を行う。図3に示すように結合係数Wの変化分ΔW
が増加する閾値G1,減少する閾値G2とする。今、H
j(t)がG1よりも大きいと係数が増強され、
Regarding the learning of the coupling coefficient W, in the usual case, the coupling coefficient W is learned between the maximum Wmax and the minimum Wmin of. As shown in FIG. 3, the variation ΔW of the coupling coefficient W
Is set to a threshold value G1 that increases and a threshold value G2 that decreases. H now
When j (t) is larger than G1, the coefficient is enhanced,

【0036】[0036]

【数5】ΔWji =k1・(Wmax−Wji)・ (Hj(t)−G1) Hj(t)がG1とG2の間の値の時には係数が減衰し
[Expression 5] ΔWji = k1 · (Wmax-Wji) · (Hj (t) -G1) When Hj (t) is a value between G1 and G2, the coefficient is attenuated.

【0037】[0037]

【数6】 ΔWji = k2・(Wmin −Wji)・(Hj(t) −G1)・(Hj(t)−G2) のように計算される。ただし、k1とk2は学習の速度
定数で図3に示す。結合係数の増減関数を図3の点線の
ように単純化すると、数式5,6の時系列学習に関する
式は次のような単純な計算式、
[Equation 6] ΔWji = k2 · (Wmin −Wji) · (Hj (t) −G1) · (Hj (t) −G2) is calculated. However, k1 and k2 are learning rate constants and are shown in FIG. If the increase / decrease function of the coupling coefficient is simplified as shown by the dotted line in FIG. 3, the equations related to the time series learning in Equations 5 and 6 are the following simple calculation equations,

【0038】[0038]

【数7】ΔWji = k・(Wm−Wji) とできる。ただし、Hj(t)>G1ならばk=k1,
Wm=Wmaxとし、G1>Hj(t)>G2ならばk
=k2,Wm=Wminとして計算する。
[Formula 7] ΔWji = k · (Wm−Wji) However, if Hj (t)> G1, then k = k1,
If Wm = Wmax and G1> Hj (t)> G2, then k
= K2, Wm = Wmin.

【0039】最終的には、入力があってから神経回路素
子が発火するまでの時間間隔と結合係数の学習による増
減関係は図4のように要約される。すなわち、本実施例
の学習方法では入力があった時点か短時間の内に受け側
の神経回路素子に発火出力があると結合係数は増強さ
れ、入力があってからしばらくして神経回路素子が発火
すると結合係数が減衰することを特徴とする。先に示し
た学習レベルG1,G2は履歴の減衰時定数dと関連し
て、入力の影響がどれくらいの時間間隔続くかを決める
ものとなる。学習レベルが変化すると増減の時間間隔幅
が変化する。例えば、学習レベルを小さくすることで時
系列の影響を前方の2次,3次の段階にまで関係を広げ
たり、学習レベルを大きくして1次ののみの短時間の関
係に限ったりすることで学習法の調整ができる。この結
合係数の関係を図4に示す。
Finally, the time interval from the input to the firing of the neural circuit element and the increase / decrease relationship due to the learning of the coupling coefficient are summarized as shown in FIG. That is, in the learning method of the present embodiment, the coupling coefficient is enhanced when the neural network element on the receiving side has an ignition output at the time of input or within a short time, and the neural circuit element is activated after a while after the input. It is characterized in that the coupling coefficient is attenuated when ignited. The learning levels G1 and G2 shown above are related to the decay time constant d of the history, and determine how long the effect of the input lasts. When the learning level changes, the increase / decrease time interval width changes. For example, by decreasing the learning level, the influence of the time series can be extended to the forward second and third order, or the learning level can be increased to limit the relationship to only the first order for a short time. You can adjust the learning method with. The relationship of this coupling coefficient is shown in FIG.

【0040】実際に計算機上で図7のような神経回路素
子(D,E,R,S…)が相互結合を持つ神経回路網を
作り、入力を神経回路網に与えて、数式1と数式2によ
る応答の計算と数式3と数式7による時系列学習の計算
を繰り返しした後、時系列の連想記憶の読み出しがどの
ように実現できたかを確認した。
Actually, on a computer, a neural network having neural circuit elements (D, E, R, S ...) As shown in FIG. 7 is mutually connected, and an input is given to the neural network, and the mathematical expressions 1 and After repeating the calculation of the response by 2 and the calculation of the time series learning by the formulas 3 and 7, it was confirmed how the time series associative memory could be read.

【0041】計算に用いた20個の神経回路素子は、そ
れぞれ内部ポテンシャルの減衰時定数a=0.7、閾値
T=1000、発火減衰定数P=1000とし、相互の
結合係数Wjiの初期値を零に近い値とした。学習後の
結合係数は最大値をWmax=500、最小値をWmi
n=−50とした。履歴値の出力時の加算定数はq=1
000、減衰時定数はd=0.6、学習レベルはG1=
200、G2=20と定めて計算をした。
The 20 neural circuit elements used in the calculation have the decay time constant a of the internal potential a = 0.7, the threshold T = 1000, and the firing decay constant P = 1000, and the initial value of the mutual coupling coefficient Wji is set. The value is close to zero. The maximum coupling coefficient after learning is Wmax = 500, and the minimum coupling coefficient is Wmi.
It was set to n = -50. The addition constant when outputting history values is q = 1
000, damping time constant d = 0.6, learning level G1 =
The calculation was performed by setting 200 and G2 = 20.

【0042】学習には、時系列のパターン、例えば図9
中の符号で示すと、(L−I−O−N),(T−I−G
−E−R),(D−E−S−K)等の組み合わせのパタ
ーンを一つずつ入力して結合係数を変更する時系列学習
をした。学習の仕方は、まず最初にスタートに相当する
神経回路素子を発火させ、次に符号Lの神経回路素子を
発火し、符号Iの神経回路素子、符号Oの神経回路素
子、符号Nの神経回路素子の順に発火してそれぞれの時
点で結合係数変更の学習をした。学習の速度定数kをk
1=0.05,k2=0.01にすると、約80回の学
習で十分な学習ができた。
For learning, a time-series pattern, for example, FIG. 9 is used.
Indicated by the symbols inside are (L-I-O-N) and (T-I-G).
-E-R), (D-E-S-K) and other combinations of patterns are input one by one to perform time-series learning in which the coupling coefficient is changed. The learning method is as follows. First, the neural circuit element corresponding to the start is fired, then the neural circuit element of code L is fired, the neural circuit element of code I, the neural circuit element of code O, and the neural circuit of code N. The elements were fired in order and the coupling coefficient change was learned at each time point. Learning rate constant k
When 1 = 0.05 and k2 = 0.01, about 80 times of learning was sufficient for learning.

【0043】パターンそれぞれの学習が終了したあと、
時系列の読み出しを行った。読み出しには、スタートの
神経回路素子とL,T,Dなどパターンの先頭に位置す
る一つの神経回路素子を発火させると、その後、それに
続く神経回路素子がたとえば(L−I−O−N)のよう
に次々と発火して時系列の正しい連想ができることを実
証した。結合係数の内部構造を見ると、スタートの神経
回路素子と符号L,T,Dの素子の結合、符号Lから符
号I,符号Iから符号O,符号Oから符号Nの神経回路
素子の結合のように順方向の順序に従った結合の増強が
できていることが確かめられた。この読み出しは、従来
の再帰結合の連想回路とは異なり学習時の経過時間には
関係なく、入力の強さと結合係数にのみ関係するため高
速な読み出しが可能であった。
After the learning of each pattern is completed,
The time series was read out. For reading, the neural circuit element of the start and one neural circuit element located at the beginning of the pattern such as L, T, and D are fired, and then the neural circuit element following it is, for example, (L-I-O-N). It has been proved that time series can be correctly associated by firing one after another. Looking at the internal structure of the coupling coefficient, the connection of the neural circuit element of the start and the elements of the symbols L, T, D, the coupling of the code L to the code I, the code I to the code O, and the code O to the code N are shown. Thus, it was confirmed that the binding was enhanced in the forward order. Unlike the conventional recursive coupling associative circuit, this reading is not related to the elapsed time during learning, but is related to only the strength of the input and the coupling coefficient, so that high-speed reading is possible.

【0044】人間の記憶を考えても順方向に記憶内容を
読み出すこととは簡単にできても、逆方向に読み出すこ
とは困難であることや、事象どうしの時間間隔はあやふ
やであるが、事象の前後関係は時間スケールには関係な
く明確に思い出せることと非常に類似する。このことか
ら、この時系列学習法はより自然な方法と考えられる。
Considering human memory, it is easy to read the stored contents in the forward direction, but it is difficult to read the stored contents in the backward direction, and the time interval between events is uncertain. The context of is very similar to what you can remember clearly regardless of time scale. From this, this time series learning method is considered to be a more natural method.

【0045】以上の説明は、ある事象とその次に起こる
(一次)事象の関係のみを学習するための例(請求項1
の発明に対応)であるが、実際の連想では次の次の(二
次)事象にも関係を持つ連想学習が普通である。この時
系列学習法では学習レベルを調節することによって図4
の関連時間幅を広げ二次,三次事象との時系列連想の高
次の関係を学習させることが簡単にできる。実際には、
上述の説明に用いたパラメータでは三次事象までを連想
する関係となっていて、その結合係数は図8に示すよう
な結合関係が形成できた。このように高次の時系列関係
を学習できることから(L−I−O−N)の途中のO素
子が欠けたときでも、L→IからNへとOを飛び越した
読み出しができ、非常に柔軟性のある連想記憶の特性を
持つことができた。これは学習のタイミングに関係なく
高速な読み出しができることと共に、請求項2の発明に
対応する。
The above description is an example for learning only the relationship between an event and the next (primary) event (claim 1).
However, in actual association, associative learning that is related to the next (secondary) event is common. In this time series learning method, by adjusting the learning level, the
It is possible to easily learn the high-order relationship of time series association with secondary and tertiary events by expanding the related time width of. actually,
The parameters used in the above description have a relation that associates up to a third-order event, and the coupling coefficient can form a coupling relationship as shown in FIG. Since the higher-order time series relationship can be learned in this way, even when the O element in the middle of (LION) is missing, it is possible to read O skipping from L → I to N, which is very It was able to have the property of flexible associative memory. This corresponds to the invention of claim 2 as well as the high-speed reading can be performed regardless of the learning timing.

【0046】さらに、図8に示す高次学習方法により、
三次の時系列関係を神経回路網に形成することによっ
て、どのような特徴が実現できたかを、以下に示す。ま
ず、図7のパターン(L−I−O−N),(T−I−G
−E−R)の中の符号Iの神経回路素子のように異なる
系列に含まれる共通の要素(神経回路素子)がある時で
も、符号Tの神経回路素子で始まれば(T−I−G−E
−R)のパターン、符号Lで始まれば(L−I−O−
N)のパターンのように交差した読み出しができた。パ
ターン(D−E−S−K)と(T−I−G−E−R)の
符号Eの神経回路素子も同様に再生できた。また、スタ
ートの素子を置くことにより(G−A−M−E)のよう
に、他の系列の途中から始まる系列でも正しく再生でき
た。このことにより、同じ神経回路素子を複数の系列に
共通に異なる意味で用いることができ、メモリ容量を増
すことが可能となる新しい特徴を備えることができた。
この例が請求項3の発明に対応する。
Further, by the high-order learning method shown in FIG.
What features were realized by forming a third-order time series relationship in the neural network is shown below. First, the patterns (L-I-O-N) and (T-I-G) of FIG.
Even if there is a common element (neural circuit element) included in different series like the neural circuit element with the code I in (E-R), if it starts with the neural circuit element with the code T (T-I-G) -E
-R) pattern, starting with the code L (L-I-O-
It was possible to read out crossing like the pattern of N). The neural circuit element with the code E of the patterns (D-E-S-K) and (T-I-G-E-R) could be reproduced in the same manner. Further, by placing the start element, it was possible to correctly reproduce even a series starting from the middle of other series such as (GAME). As a result, the same neural circuit element can be commonly used in a plurality of series with different meanings, and it is possible to provide a new feature capable of increasing the memory capacity.
This example corresponds to the invention of claim 3.

【0047】今までの説明では一つの事象には一つの素
子を対応させて説明したが、記憶には様々な感覚器官か
らの刺激も同時に入力してその事象と関連づけされ、複
数の素子の発火パターンの流れとして連想学習して行
く。この時系列学習法では、同時に起こる事象どうしの
結合係数も増強し、それらの複数素子の発火パターンと
して関連づけて連想学習できる。生体の神経組織では、
神経の集合が何層も積み重なった構造をしているので、
人工の神経回路網でも多層構造をとって、各層内の結合
と層間の結合をこの時系列学習法により時間、空間の連
想記憶回路を自己組織することが実現できる。したがっ
て、空間的・時間的連想記憶が統一して形成できること
がこの大きな特徴となる。
In the above description, one element is associated with one event, but memory also inputs stimuli from various sensory organs at the same time and is associated with the event, and the firing of multiple elements. Associative learning is carried out as a flow of patterns. In this time series learning method, associative learning can be performed by increasing the coupling coefficient between events that occur at the same time and associating them with the firing pattern of these multiple elements. In the nervous tissue of the living body,
Because the structure of nerves is stacked in layers,
It is possible to realize a self-organization of the associative memory circuit in time and space by using the time series learning method for the connection in each layer and the connection between layers by adopting a multilayer structure even in the artificial neural network. Therefore, it is a great feature that spatial and temporal associative memories can be formed in a unified manner.

【0048】[0048]

【発明の効果】以上、説明したように、本発明は、非常
に単純で、生理学的にも可能性をもつ自然な学習の方法
である。請求項1の発明により、時系列の事象の流れを
神経回路素子の結合係数の中に正確に学習し、読み出す
方法が実現できるので、時間的ダイナミックな現象を取
り扱うことのできる高度な神経回路網を実現する効果を
もたらす。すなわち、請求項1の発明では神経回路網の
中に、時間的な因果関係を導入した論理回路も構築する
ことができ、より高度な情報処理が可能となる。
As described above, the present invention is a very simple and naturally physiological learning method. According to the invention of claim 1, a method of accurately learning and reading out a time-series event flow in the coupling coefficient of a neural circuit element can be realized, and thus a high-level neural network capable of handling a temporal dynamic phenomenon. Bring the effect of realizing. That is, according to the first aspect of the present invention, it is possible to construct a logic circuit in which a temporal causal relationship is introduced in the neural network, which enables more advanced information processing.

【0049】請求項2の発明により時系列が結合係数の
中に学習され、時間間隔に関係なく読み出しされること
により、高速な読み出しができる。このことは、学習し
た経験に基づき先の事象を予想した行動を取ることので
きる自動化機器の実現を可能とする。
According to the second aspect of the present invention, the time series is learned in the coupling coefficient and read out regardless of the time interval, so that high-speed reading can be performed. This makes it possible to realize an automated device that can take action in anticipation of the previous phenomenon based on the learned experience.

【0050】請求項3の発明により一つの素子が複数の
系列の中で共通に使うことができるので、メモリ容量の
増加をもたらし、素子の結合係数のもつ位置に多様性を
持たせることができ、ヒトの記憶により近い機能を実現
できる。さらにいくつもの事象が空間的に同時に、また
時間順序を追って起こる場合のような複雑な学習・記憶
を統一的に扱う新しい情報処理を実現することができ
る。
According to the invention of claim 3, one element can be commonly used in a plurality of series, so that the memory capacity can be increased, and the position of the coupling coefficient of the element can be made diverse. , It is possible to realize a function closer to human memory. Furthermore, it is possible to realize new information processing that handles complicated learning and memory in a unified manner, such as when several events occur spatially at the same time or in time sequence.

【図面の簡単な説明】[Brief description of drawings]

【図1】時系列学習方法の内容を示す構成図である。FIG. 1 is a block diagram showing the contents of a time series learning method.

【図2】入力の履歴Hj(t)と時間経過Δtとの間の
関係を示す説明図である。
FIG. 2 is an explanatory diagram showing a relationship between an input history Hj (t) and a lapse of time Δt.

【図3】入力の履歴Hj(t)と学習レベルによる結合
係数の増減ΔWの関係を示す説明図である。
FIG. 3 is an explanatory diagram showing a relationship between an input history Hj (t) and an increase / decrease ΔW of a coupling coefficient depending on a learning level.

【図4】入力からの時間経過Δtと結合係数の増減ΔW
の関係を示す説明図である。
FIG. 4 is a graph showing a change Δt in time and a coupling coefficient increase / decrease ΔW from input.
It is explanatory drawing which shows the relationship of.

【図5】事象の時系列の学習と結合係数の関係を示す構
成図である。
FIG. 5 is a configuration diagram showing a relationship between time series learning of events and a coupling coefficient.

【図6】神経回路素子の内容を示す構成図である。FIG. 6 is a configuration diagram showing the contents of a neural circuit element.

【図7】時系列を学習する神経回路の構成を示す構成図
である。
FIG. 7 is a configuration diagram showing a configuration of a neural circuit for learning a time series.

【図8】結合係数と高次時系列の関係を示す説明図であ
る。
FIG. 8 is an explanatory diagram showing a relationship between a coupling coefficient and a high-order time series.

【符号の説明】[Explanation of symbols]

Xj(t−1) 時間t−1のj素子の出力(時間tで
は他の素子へのj素子からの入力となる) Xi(t) 時間tのときのi素子の出力 Vi(t) 時間tのときのi素子の内部ポテンシャル Hj(t) 時間tのときのj素子からの入力の履歴値 Wji j素子からi素子への結合係数または伝達効率 G1 Wの変化分が正となる閾値 G2 Wの変化分が負となる閾値(G1>G2) K1 Wの変化分が正のときの学習速度定数(K1>
0) K2 Wの変化分が負のときの学習速度定数(K2<
0)
Xj (t-1) j-element output at time t-1 (becomes an input from another j-element at time t) Xi (t) i-element output at time t Vi (t) time Internal potential Hj (t) of i element at time t History value of input from j element at time t Wji j Coupling coefficient from j element to i element or transfer efficiency G1 Threshold value for positive change of G2 Threshold value for negative change in W (G1> G2) K1 Learning rate constant when change in W is positive (K1>
0) Learning rate constant (K2 <when K2 W change is negative)
0)

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 多数入力を持つ神経回路素子で各々の入
力毎に入力の時間経歴を保持し、 該時間経歴の値と前記神経回路素子の内部状態とを比較
し、その比較結果に基づき各入力毎の結合係数または伝
達効率を前記時間経歴に従って強化または減衰する学習
を実行し、 入力と出力の時間の前後関係を前記結合係数または伝達
効率の内に記憶することを特徴とする神経回路の時系列
学習方法。
1. A neural circuit element having a large number of inputs holds an input time history for each input, compares the value of the time history with an internal state of the neural circuit element, and based on the comparison result, A neural circuit characterized by executing learning for strengthening or damping the coupling coefficient or transmission efficiency for each input according to the time history, and storing the context of input and output times within the coupling coefficient or transmission efficiency. Time series learning method.
【請求項2】 実際の発生時間間隔より高速な読み出し
再生を可能とするために請求項1の神経回路素子を複数
組み合わせることにより、時間の流れに従って発生した
事象の順序を時間的に飛び越した先回り学習を実行する
ことを特徴とする神経回路の時系列学習方法。
2. A combination of a plurality of neural circuit elements according to claim 1 for enabling read-out and reproduction at a higher speed than the actual occurrence time interval, whereby a sequence of events that occur according to the flow of time jumps ahead in time. A time series learning method for a neural circuit characterized by executing learning.
【請求項3】 時系列の連想記憶要素の交差または干渉
を可能とするために請求項2の神経回路素子の組み合わ
せの中に前記要素として使用する神経回路素子に複数の
意味を持たせ、神経回路全体の記憶容量を増加させるこ
とを特徴とする神経回路の時系列学習方法。
3. A neural circuit element used as said element in a combination of neural circuit elements according to claim 2 for enabling crossing or interference of time-series associative memory elements, has a plurality of meanings. A time series learning method for a neural circuit, characterized by increasing the memory capacity of the entire circuit.
JP5345321A 1993-12-21 1993-12-21 Neural network time series learning method Expired - Lifetime JPH07109609B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5345321A JPH07109609B2 (en) 1993-12-21 1993-12-21 Neural network time series learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5345321A JPH07109609B2 (en) 1993-12-21 1993-12-21 Neural network time series learning method

Publications (2)

Publication Number Publication Date
JPH07182433A true JPH07182433A (en) 1995-07-21
JPH07109609B2 JPH07109609B2 (en) 1995-11-22

Family

ID=18375806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5345321A Expired - Lifetime JPH07109609B2 (en) 1993-12-21 1993-12-21 Neural network time series learning method

Country Status (1)

Country Link
JP (1) JPH07109609B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167132A (en) * 1995-09-04 2001-06-22 Matsushita Electric Ind Co Ltd Information filter device and information filtering method
US7664714B2 (en) 2004-10-21 2010-02-16 Honda Motor Co., Ltd. Neural network element with reinforcement/attenuation learning
JP2021047530A (en) * 2019-09-17 2021-03-25 株式会社東芝 Processing apparatus and inference system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9289024B2 (en) 2007-04-16 2016-03-22 Riddell, Inc. Protective sports helmet
US8209784B2 (en) 2007-10-31 2012-07-03 Kranos Ip Corporation Helmet with an attachment mechanism for a faceguard

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167132A (en) * 1995-09-04 2001-06-22 Matsushita Electric Ind Co Ltd Information filter device and information filtering method
US7664714B2 (en) 2004-10-21 2010-02-16 Honda Motor Co., Ltd. Neural network element with reinforcement/attenuation learning
JP2021047530A (en) * 2019-09-17 2021-03-25 株式会社東芝 Processing apparatus and inference system
US11526738B2 (en) 2019-09-17 2022-12-13 Kabushiki Kaisha Toshiba Processing apparatus and inference system
US11893476B2 (en) 2019-09-17 2024-02-06 Kabushiki Kaisha Toshiba Processing apparatus and inference system

Also Published As

Publication number Publication date
JPH07109609B2 (en) 1995-11-22

Similar Documents

Publication Publication Date Title
Lee et al. Identification and control of dynamic systems using recurrent fuzzy neural networks
KR101582061B1 (en) Methods and apparatus for unsupervised neural replay, learning refinement, association and memory transfer: structural plasticity and structural constraint modeling
Plagianakos et al. Parallel evolutionary training algorithms for “hardware-friendly” neural networks
KR20140092879A (en) Methods and apparatus for unsupervised neural replay, learning refinement, association and memory transfer: neural associative learning, pattern completion, separation, generalization and hierarchical replay
KR101755082B1 (en) Methods, apparatus and computer readable storage medium for neural component memory transfer
US11514327B2 (en) Apparatus and method for utilizing a parameter genome characterizing neural network connections as a building block to construct a neural network with feedforward and feedback paths
JPH07114524A (en) Signal processor
JPH07182433A (en) Time series learning method for neuro circuit
Dhahri et al. Hierarchical learning algorithm for the beta basis function neural network
Greve et al. Evolving neural turing machines
JP3508783B2 (en) Coupling coefficient updating method and coupling coefficient updating apparatus in pulse density type signal processing network
JPH09185596A (en) Coupling coefficient updating method in pulse density type signal processing network
JP3310009B2 (en) Neural network system
CN110782006A (en) Method and system for generating complex neural network based on cross
Ludermir Logical networks capable of computing weighted regular languages
JPH0421060A (en) Sequential learning system for group unit of coupling in neural network
Eisele et al. Hidden markov model of cortical synaptic plasticity: Derivation of the learning rule
JPH07175773A (en) Teacher signal imparting method for signal processing circuit network
Tang et al. A model of neurons with unidirectional linear response
KR20230144326A (en) System and method for imitation learning
JPH04353963A (en) Device and method for constructing neural circuit network
JP3255425B2 (en) Signal processing method
Papageorgiou et al. The challenge of using unsupervised learning algorithms for fuzzy cognitive maps
Jansen Introduction to Artificial Neural Networking
JPH06301663A (en) Learning system for serial connection type recurrent neural network

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term