JPH03129487A - Optimizing method for data processor - Google Patents

Optimizing method for data processor

Info

Publication number
JPH03129487A
JPH03129487A JP1254712A JP25471289A JPH03129487A JP H03129487 A JPH03129487 A JP H03129487A JP 1254712 A JP1254712 A JP 1254712A JP 25471289 A JP25471289 A JP 25471289A JP H03129487 A JPH03129487 A JP H03129487A
Authority
JP
Japan
Prior art keywords
value
processing device
neuron
threshold
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1254712A
Other languages
Japanese (ja)
Inventor
Ryohei Kumagai
熊谷 良平
Sunao Takatori
直 高取
Makoto Yamamoto
誠 山本
Koji Matsumoto
幸治 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TAKAYAMA KK
Original Assignee
TAKAYAMA KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TAKAYAMA KK filed Critical TAKAYAMA KK
Priority to EP90110384A priority Critical patent/EP0405174B1/en
Priority to DE69032111T priority patent/DE69032111T2/en
Priority to KR1019900008130A priority patent/KR0166970B1/en
Publication of JPH03129487A publication Critical patent/JPH03129487A/en
Priority to US07/989,503 priority patent/US5633988A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To escape a local minimum without fail by forcedly changing the threshold value of a neuron generating a significant output at a certain time point to be once increased to a maximum value and afterwards decreased to the value at the above mentioned time point, and adjusting weight during this period to forcedly change the threshold value. CONSTITUTION:A threshold value theta of the neuron fired by association at a certain time point t0 in a learning process is increased to a maximum value thetamax (infinitely, for example) during a following fixed period ta. The learning is continued even during this absolute inactive period and a change is applied to the weight of the neuron. Then, the neuron to be applied this change of the weight is the neuron not to be fired to the input before the t0. After the lapse of the period ta, the threshold value is gradually decreased to a value theta0 at the time point t0. In such a relative inactive period tr, the neuron not to be fired at the time point t0 is gradually ignited as well and well-balanced correction learning is gradually executed concerning a whole neural network as well. Thus, the local minimum value can be escaped without fail.

Description

【発明の詳細な説明】 〔産業上の利用分野] この発明は、入力されたデータに所定の重みを乗じた総
和と閾値との比較結果に応じてデータを出力するニュー
ロンが複数設けられたデータ処理装置において、前記重
みを適正化するための方法に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention provides a data processing system that is provided with a plurality of neurons that output data according to a comparison result between the sum of input data multiplied by a predetermined weight and a threshold value. The present invention relates to a method for optimizing the weights in a processing device.

〔従来の技術〕[Conventional technology]

この種のデータ処理装置の学習過程において、ある程度
適正な入出力相関が生じ、その相関が強められた時、以
後データ処理装置がその状態から脱出できず、最適化が
不可能となる場合がある。
During the learning process of this type of data processing device, a certain degree of proper input-output correlation occurs, and when that correlation becomes stronger, the data processing device may be unable to escape from that state and optimization may become impossible. .

これはローカルミニマムへの落ち込みと表現され、例え
ばボルツマンマシン(David H,Ackley、
 Geoffrey B、 Hinton、 and 
Terrence J、 5ejnoWski:A l
earning a1goritb+w for Bo
lzman machines:Cognitive 
5cience 9.1989.147 169 )で
は、ニューラルネットワークのエネルギ式 に注目し、このエネルギ式の局所的ローカルミニマムか
ら脱出して大局的ローカルミニマムに到達するために、
−時的に前記エネルギを所定の高レベルにジャンプさせ
る。しかし入出力の最適相関と前記エネルギの大局的ロ
ーカルミニマムの状態とは必ずしも一致するものではな
い。また一般に局所的ローカルミニマムの深さは不明で
あり、エネルギレベルを所定値だけ高めた時に、確実に
局所的ローカルミニマムから脱出し得るという保証はな
く、エネルギの大局的ローカルミニマムに到達し得ると
いう保証すらない。さらにエネルギを一時的にジャンプ
するということ自体、生体系の機能との整合性はない。
This is expressed as a fall to a local minimum, for example, a Boltzmann machine (David H, Ackley,
Geoffrey B., Hinton, and
Terrence J, 5ejnoWski: Al
learning a1goritb+w for Bo
lzman machines: Cognitive
5science 9.1989.147 169), we focused on the energy formula of neural networks, and in order to escape from the local local minimum of this energy formula and reach the global local minimum,
- jump the energy to a predetermined high level from time to time; However, the optimum correlation between input and output does not necessarily match the state of the global local minimum of energy. In addition, the depth of the local minimum is generally unknown, and there is no guarantee that the energy level will definitely escape from the local minimum when the energy level is increased by a predetermined value, and that the global local minimum of energy can be reached. There's not even a guarantee. Furthermore, a temporary jump in energy itself is inconsistent with the functioning of biological systems.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

この発明は前記従来の問題点を解消すべく創案されたも
ので、学習過程における局所的ローカルミニマムへの落
ち込みを確実に防止し得るデータ処理装置の適正化方法
を提供することを目的とする。
The present invention was devised to solve the above-mentioned conventional problems, and an object of the present invention is to provide a method for optimizing a data processing device that can reliably prevent a fall to a local minimum during the learning process.

〔課題を解決するための手段〕[Means to solve the problem]

本発明に係るデータ処理装置の適正化方法は、データ処
理装置に一定の入力を与えつつ、ある時点で有意な出力
を生したニューロンの閾値を、一旦最大値まで高めた後
に前記時点での値まで減少させるように強制的に変化さ
せ、この閾値の強制的変化の期間に前記重みを調整する
ものである。
A method for optimizing a data processing device according to the present invention is to increase the threshold value of a neuron that has produced a significant output at a certain point in time to the maximum value while giving a constant input to the data processing device, and then increase the threshold value at that point in time. The weight is forcibly changed so as to decrease the threshold value, and the weight is adjusted during the period of this forced change of the threshold value.

また本発明に係るデータ処理装置の適正化方法は、初期
状態でニューロンの閾値分布に滑らかな勾配の偏りを与
え、その後、データ処理装置に一定の入力を与えつつ、
ある時点で有意な出力を生じたニューロンの閾値を、一
旦最大値まで高めた後に前記時点での値まで減少させる
ように強制的に変化させ、この閾値の強制的変化の期間
に前記重みを調整するものである。
Further, the method for optimizing a data processing device according to the present invention provides a smooth gradient bias to the threshold distribution of neurons in an initial state, and then, while giving a constant input to the data processing device,
The threshold of a neuron that produced a significant output at a certain point in time is forcibly changed so that it increases to a maximum value and then decreases to the value at that point, and the weight is adjusted during the period of this forced change in the threshold. It is something to do.

〔作用〕[Effect]

この発明に係るデータ処理装置の適正化方法によれば、
生体系の機能に則したメカニズムにより確実に局所的極
小値から脱出し得る。
According to the method for optimizing a data processing device according to the present invention,
It is possible to escape from the local minimum value reliably by a mechanism that conforms to the function of biological systems.

〔実施例〕〔Example〕

以下図示実施例により本発明を説明する。 The present invention will be explained below with reference to illustrated embodiments.

ここで、学習の効果を示す指標として下記標準−数置T
Pを定義しておく。
Here, as an indicator of learning effectiveness, the following standard - number T
Let us define P.

ただし、ここで n   :入力事象の数 i、j:入力事象の番号 Pi、j:3番目の入力事象によるニューラルネットワ
ーク出力と、j番目の人 力事象によるニューラルネットワー ク出力との一致度(一致ビット数) 上記標準−数置TPは、ニユーラルネソトワ−りにおけ
る入力事象の識別能力の指標であり、TPが低い程識別
能力が高いことを示す。そして、全く学習が為されてい
ないニューラルネットワークでは一般にTP=100%
であり、その後の学習によりTPは単調減少していく。
However, here, n: number of input events i, j: number of input events Pi, j: degree of coincidence between the neural network output due to the third input event and the neural network output due to the jth human event (number of matching bits) ) The above-mentioned standard numerical value TP is an index of the discriminative ability of input events in neural networking, and the lower the TP, the higher the discriminative ability. In a neural network that has not been trained at all, TP = 100%.
, and TP monotonically decreases with subsequent learning.

(第1図)しかし、学習方法が不適切であった場合には
、学習効果を逆に阻害することもあり、第2図に示すよ
うに、一旦低下したTPが再び上昇することもある。
(Fig. 1) However, if the learning method is inappropriate, the learning effect may be adversely affected, and as shown in Fig. 2, the TP that once decreased may rise again.

ソシて前述のように局所的ローカルミニマムへの落ち込
みが生じたときには、第3図に示すようにTPが高い値
で飽和してしまう。
Therefore, when a drop to a local minimum occurs as described above, TP becomes saturated at a high value as shown in FIG.

この局所的ローカルミニマムへの落ち込みは、前記エネ
ルギ式(1)とは無関係であり、例えばある事象の特徴
の重みに偏りがあり、特定の特徴が強調された結果複数
の事象の混同を生じることを肯定する学習が為された結
果と考えることができる。
This local drop to the local minimum is unrelated to the energy equation (1) above, and may be caused by, for example, bias in the weight of the features of a certain event, and a certain feature is emphasized, resulting in confusion of multiple events. This can be thought of as the result of learning to affirm .

これを模式的に表現すれば、第4図に示すように、ある
入力ビット■4の影響が強いため、ニューロンの発火分
布が偏ったものとなり、この状態が強化され続け、他の
ニューロンが発火し難くなる2考えることができる。な
お、この図において発ノしたニューロンは黒い丸により
示されている。
Expressing this schematically, as shown in Figure 4, because the influence of a certain input bit 4 is strong, the firing distribution of neurons becomes biased, and this state continues to be strengthened, causing other neurons to fire. I can think of two things that make it difficult to do. In this figure, fired neurons are indicated by black circles.

この状態を脱却するためには、他の入力ビット1、〜1
..I、に対するニューロンの関与を白化する必要があ
る。
In order to escape from this state, other input bits 1, ~1
.. .. It is necessary to whiten the neuronal involvement in I.

ここで発明者等は生体系のニューラルネットワークにお
ける絶対不応期、相対不応期に注目したこれら不応期は
生体系のニューラルネットワークにおいて、興音波の伝
播の抑制、制御に寄与しているといわれている。(せ利
俊−著:神経回路絹の数理−脳の情報処理様式−;産業
図書)これに対して、発明者等は、これら不応期が入力
データの各特徴の影響のバランスを一時的に変化させる
要因ととらえ、ある入力に対して発火したニューロンの
閾値に対し、第5図に示すような変化を与え、絶対不応
期および相対不応期と同等の効果を与えた。
Here, the inventors focused on the absolute refractory period and the relative refractory period in the neural network of the biological system.These refractory periods are said to contribute to the suppression and control of the propagation of sound waves in the neural network of the biological system. . (Toshi Seri: Mathematics of Neural Circuits - Information Processing Style of the Brain -; Sangyo Tosho) On the other hand, the inventors believe that these refractory periods temporarily balance the effects of each feature of the input data. Considering this as a changing factor, we changed the threshold of a neuron firing in response to a certain input as shown in Figure 5, giving the same effect as the absolute refractory period and the relative refractory period.

すなわち、学習過程におけるある時点toの連想で発火
したニューロンの閾値θをその後一定期間taの間最大
値θmax(例えば無限大)まで高める。これは絶対不
応期に対応する。この絶対不応期においても学習を続行
し、ニューロンの重みに変化を与える。このとき重み変
化が与えられるニューロンは、to以前には、その入力
に対して発火しなかったニューロンである。期間taの
経過後、閾値をto時点での値θ0まで漸減させる。こ
の漸減の期間は相対不応期に対応し、この期間をtrと
する。
That is, the threshold value θ of a neuron fired by association at a certain time point to in the learning process is then increased to the maximum value θmax (for example, infinity) for a certain period of time ta. This corresponds to the absolute refractory period. Even during this absolute refractory period, learning continues and changes the weights of neurons. The neuron to which the weight change is applied at this time is a neuron that did not fire in response to that input before to. After the period ta has elapsed, the threshold value is gradually decreased to the value θ0 at time to. This period of gradual decline corresponds to the relative refractory period, and this period is designated as tr.

絶対不応期においては、to時点で発火しなかったニュ
ーロンのみが重みを強化され、偏ったニューロン分布に
ついて学習が行われるが、相対不応期においては、to
時点で発火したニューロンも徐々に発火するようになり
、徐々にニューラルネットワーク全体についてバランス
のとれた修正学習が行われる。
In the absolute refractory period, only the neurons that did not fire at time to have their weight strengthened, and learning is performed about the biased neuron distribution, but in the relative refractory period,
The neurons that fired at that point also gradually start firing, and balanced corrective learning is gradually performed for the entire neural network.

この結果いわゆるローカルミニマムからの脱出が実現さ
れ、標準−装置を最適値(大局的ローカルくニマム)に
到らしめるような学習が行われる。
As a result, escape from the so-called local minimum is realized, and learning is performed to bring the standard device to the optimum value (global local minimum).

なお第6図に示す第2実施例のように、前記不応期のサ
イクルを複数回与えることにより、局所的ローカルミニ
マムからの脱出がより確実になる。
Note that, as in the second embodiment shown in FIG. 6, by giving the refractory period a plurality of cycles, escape from the local minimum becomes more reliable.

但し、不応期サイクル回数が多過ぎたときには、かえっ
て、学習の収束が阻害され、また学習終期において不応
期サイクルを与えた時にも学習の収束が阻害される。
However, if the number of refractory period cycles is too large, the convergence of learning will be hindered, and the convergence of learning will also be inhibited when refractory period cycles are given at the end of learning.

すなわち不応期サイクルは、学習の比較的初期において
適正回数与える必要がある。
That is, the refractory cycle needs to be given an appropriate number of times at a relatively early stage of learning.

また絶対不応期の期間ta、相対不応期の期間tr、お
よび両者のバランスについても最適化を考慮する必要が
ある。
It is also necessary to consider optimization of the absolute refractory period ta, the relative refractory period tr, and the balance between the two.

第7図は第3実施例における閾値変化を示す。FIG. 7 shows threshold changes in the third embodiment.

この実施例において、絶対不応期は設けられておらず、
相対不応期のみが設けられる。すなわち、toにおいて
閾値θは最大値θmaχをとり、その後、直ちに漸減し
て期間taの間に元の値θ0まで戻る。この実施例によ
れば、発火したニューロン分布に極端な偏りがない場合
において、絶対不応期がない分だけ早く学習を終了させ
ることが可能になる。
In this example, no absolute refractory period is provided;
Only a relative refractory period is provided. That is, the threshold value θ takes the maximum value θmaχ at to, and then immediately decreases gradually and returns to the original value θ0 during the period ta. According to this embodiment, when there is no extreme bias in the distribution of firing neurons, it is possible to terminate learning earlier because there is no absolute refractory period.

第8図は、第4実施例における閾値変化を示し、この実
施例では、第7図のような相対不応期のみのサイクルが
複数回与えられる。
FIG. 8 shows threshold changes in the fourth embodiment, in which a cycle of only the relative refractory period as shown in FIG. 7 is given a plurality of times.

第9図は第5実施例における閾値変化を示す。FIG. 9 shows threshold changes in the fifth embodiment.

この実施例においては、閾値が漸増する相対不応期のみ
が設けられ、すなわち閾値はto時点から期間tsの間
漸増して最大値θmaxに至り、すぐに元の値θ0に戻
る。この実施例によっても、ニューラルネットワーク全
体についてバランスのとれた修正学習が期待される。
In this embodiment, only a relative refractory period in which the threshold value gradually increases is provided, that is, the threshold value gradually increases for a period ts from time to to reach the maximum value θmax, and immediately returns to the original value θ0. With this embodiment as well, balanced corrective learning for the entire neural network is expected.

第10図は、第6実施例における閾値変化を示し、この
実施例では、第9図に示す閾値が漸増する相対不応期の
みのサイクルが複数回与えられる。
FIG. 10 shows threshold changes in the sixth embodiment, in which a cycle of only the relative refractory period in which the threshold value shown in FIG. 9 gradually increases is given a plurality of cycles.

第11図は第7実施例における閾値変化を示す。FIG. 11 shows threshold changes in the seventh embodiment.

この実施例においては、閾値が漸増する相対不応期と、
閾値が漸減する相対不応期とが設けられる。
In this example, a relative refractory period in which the threshold gradually increases;
A relative refractory period is provided in which the threshold value gradually decreases.

すなわち閾値はto時点から期間tsの間漸増して最大
値θmaxに至り、すぐに漸減して期間Lrの後に元の
値θ0に戻る。この実施例によっても、前記各実施例と
同様な効果が期待される。
That is, the threshold value gradually increases from the time to to reach the maximum value θmax during the period ts, and then immediately decreases gradually and returns to the original value θ0 after the period Lr. This embodiment is also expected to provide the same effects as those of the embodiments described above.

第12図は、第8実施例における閾値変化を牙し、この
実施例では、第1O図に示すような、限値が漸増する相
対不応期と漸減する相対不応期とが繰り返して実行され
る。
FIG. 12 shows the threshold value change in the eighth embodiment, and in this embodiment, a relative refractory period in which the limit value gradually increases and a relative refractory period in which the limit value gradually decreases are repeatedly executed as shown in FIG. 1O. .

第13図は第9実施例における閾値変化を示すこの実施
例においては、相対不応期は設けられず絶対不応期のみ
が設けられる。すなわち閾値はto時点から期間taの
間最大値θmaxを取り、その後光の値θ0に戻る。こ
の実施例によっても短期間の間にニューラルネットワー
ク全体についてのバランスのとれた修正学習が可能であ
る。
FIG. 13 shows threshold changes in the ninth embodiment. In this embodiment, no relative refractory period is provided, but only an absolute refractory period. That is, the threshold value takes the maximum value θmax for a period ta from time to, and then returns to the light value θ0. This embodiment also allows balanced corrective learning for the entire neural network in a short period of time.

第14図は、第10実施例における閾(a変化を示し、
この実施例では、第13図に示すような、絶対不応期が
繰り返して実行される。
FIG. 14 shows the threshold (a change) in the tenth embodiment,
In this embodiment, an absolute refractory period as shown in FIG. 13 is repeatedly executed.

第15図は第11実施例における閾値変化を示す。この
実施例においては、閾値が漸増する相対不応期と、絶対
不応期と、閾値が漸減する相対不応期とが設けられる。
FIG. 15 shows threshold changes in the eleventh embodiment. In this embodiment, there are provided a relative refractory period in which the threshold value gradually increases, an absolute refractory period, and a relative refractory period in which the threshold value gradually decreases.

すなわち閾値は、to時点から期間tsの間漸増して最
大値θmaxに至り期間toの間最大値θmaxを維持
し、その後、期間trの間漸減して元の値θ0に戻る。
That is, the threshold value gradually increases for a period ts from the time to, reaches the maximum value θmax, maintains the maximum value θmax for the period to, and then gradually decreases for a period tr, returning to the original value θ0.

この実施例によっても、ニューラルネットワーク全体に
ついてのバランスのとれた修正学習が可能である。
This embodiment also allows balanced corrective learning for the entire neural network.

第16図は、第12実施例における閾値変化を示し、こ
の実施例では、第15図に示すような、不応期サイクル
が繰り返して実行される。
FIG. 16 shows threshold changes in the twelfth embodiment, in which a refractory period cycle as shown in FIG. 15 is repeatedly executed.

次に、以上の適正化方法をさらに効果的なものとするた
めに学習初期において実施される適正化方法について説
明する。
Next, in order to make the above optimization method even more effective, a description will be given of an optimization method that is implemented at the initial stage of learning.

第17図において、データ処理装置は、複数のニューロ
ンNを並列に設けてなるニューラルレイヤNLを複数有
し、ニューラルレイヤは、あるニューラルレイヤの出力
が次段のニューラルレイヤの入力となるように1$、さ
れている。
In FIG. 17, the data processing device has a plurality of neural layers NL each having a plurality of neurons N arranged in parallel, and the neural layers are arranged so that the output of one neural layer becomes the input of the next neural layer. $, has been.

このような構成においてはニヱーラルネットワークのト
ポロジを定義でき、各ニューロンについて、第17図に
示すように座標を特定し得る。
In such a configuration, the topology of the neural network can be defined, and the coordinates of each neuron can be specified as shown in FIG. 17.

ここで入力側から出力側向かう方向にX軸をとり、各ニ
ューラルレイヤの幅方向にY軸をとる。
Here, the X-axis is taken in the direction from the input side to the output side, and the Y-axis is taken in the width direction of each neural layer.

そしてデータ処理装置の初期状態におけるニューロンの
閾値分布を第18図のように設定する。すなわち、この
図は初期の閾値分布の第1の例を示し、この実施例にお
いて同一ニューラルレイヤのニューロンの閾値θは同一
とし、後段のニューラルレイヤになる程閾値θを高めて
おく。この閾値の増大の勾配は滑らかなものとする。通
常学習過程においては、正しい入力に対して有意なシナ
プス入力が入力されたシナプスの重みを高めるが、第1
8図の閾値分布では、当初は入力側寄りのニューロンの
みが発火し、徐々に後段のニューロンに発火の範囲が広
がる。この過程において、前述の閾値の最大値化のプロ
セスを導入すると、各ニューラルレイヤでの一定人カに
対する発火ニューロンを増加させる効果があり、最終段
のニューラルレイヤが発火するようになった時点では多
くのニューロンがデータ処理に関与するようになり、偏
った発火パターンに収束することはない。従ってローカ
ルミニマムへの落ち込みを防止することができる。
Then, the threshold distribution of neurons in the initial state of the data processing device is set as shown in FIG. That is, this figure shows a first example of the initial threshold value distribution. In this embodiment, the threshold values θ of neurons in the same neural layer are set to be the same, and the threshold value θ is increased as the neural layer becomes later. The gradient of increase in this threshold value is assumed to be smooth. In the normal learning process, the weight of synapses that receive significant synaptic input is increased in response to correct input;
In the threshold distribution shown in Figure 8, initially only neurons closer to the input side fire, and the range of firing gradually expands to later neurons. In this process, introducing the process of maximizing the threshold described above has the effect of increasing the number of firing neurons for a certain number of people in each neural layer, and by the time the final neural layer starts firing, many neurons are fired. neurons become involved in data processing and do not converge to a biased firing pattern. Therefore, it is possible to prevent a drop to the local minimum.

第19図は初期閾値分布の第2の例を示し、ここでは、
データ処理装置の中央のニューロンの閾値を高め、この
中央ニューロンがら遠ざかる程閾値を低下させている。
Figure 19 shows a second example of the initial threshold distribution, where:
The threshold value of the central neuron of the data processing device is increased, and the threshold value is decreased as the distance from this central neuron increases.

このようなデータ処理装置では、学習初期には閾値の麗
を回り込むように発火パターンが生じる。しかし、前述
の閾値の最大値化を行ったとき、発火パターンに隣接し
て比較的閾値の低いニューロンが存在するため、発火ニ
ューロンの分布は閾値の頂上に向かって徐々に広がって
いく。これによって学習終期には、多くのニューロンが
データ処理に関与するようになり、偏った発火パターン
に収束することはない。従ってローカルもニマムへの落
ち込みを防止することができる。
In such a data processing device, a firing pattern occurs around the threshold value in the initial stage of learning. However, when the threshold is maximized as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons gradually expands toward the top of the threshold. As a result, many neurons become involved in data processing at the end of learning, and the firing pattern does not converge to a biased one. Therefore, locals can also avoid falling into Nimam.

第20図は初′#J4閾値の分布の第3の例を示し、こ
こでは、Y座標中央値のニューロンの閾値を最低とし、
Y座標の最大値、最小値に向かって滑らかな勾配で閾値
を高めている。このようなデータ処理装置では、学習初
期にはY座標中央値付近を貫通する発火パターンが生じ
る。しかし、前述の閾値の最大値化を行ったとき、発火
パターンに隣接して比較的閾値の低いニューロンが存在
するため、発火ニューロンの分布はY座標の最大値、最
小値両方に向かって広がっていく。これによって学習終
期には、多くのニューロンがデータ処理に関与すること
になり、偏った発火パターンに収束することはない。し
たがってローカルミニマムへの落ち込みを防止し得る。
FIG. 20 shows a third example of the distribution of initial '#J4 thresholds, where the threshold of the neuron at the median Y coordinate is set as the lowest,
The threshold value is increased with a smooth gradient toward the maximum and minimum values of the Y coordinate. In such a data processing device, a firing pattern that passes through the vicinity of the median Y coordinate occurs in the initial stage of learning. However, when maximizing the threshold as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons expands toward both the maximum and minimum Y coordinates. go. As a result, many neurons are involved in data processing at the end of learning, and the firing pattern does not converge to a biased one. Therefore, a drop to the local minimum can be prevented.

〔発明の効果] 以上のように本発明に係るデータ処理装置の適正化方法
は、ある時点で有意な出力を生したニューロンの閾値を
一旦最大値まで高めた後に前記時点の値まで減少させる
ように強制的に変化させ、この閾値の強制的変化の期間
に、前記重みを調整するので、確実に局所的ローカルミ
ニマムを脱出し得るという優れた効果を有する。
[Effects of the Invention] As described above, the method for optimizing a data processing device according to the present invention increases the threshold value of a neuron that has produced a significant output at a certain point in time to the maximum value, and then decreases it to the value at the said point in time. Since the weight is forcibly changed during the period of this forced change of the threshold value, it has the excellent effect of reliably escaping the local minimum.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は適正な学習が行われたときの標準−成度の変化
を示すグラフ、 第2図は不適正な学習が行われたときの標準−政変の変
化を示すグラフ、 第3図は学習過程で局所的ローカルごニマムに落ち込ん
だときの標準−政変の変化を示すグラフ、第4図は局所
的ローカルミニマムに落ち込んだニューラルネットワー
クの発火状態の例を示す概念図、 第5図は本発明方法の第1実施例による閾値変化を示す
グラフ、 第6図は第2実施例における閾値変化を示すグラフ、 第7図は第3実施例による閾値変化を示すグラフ、 第8図は第4実施例における閾値変化を示すグラフ、 第9図は第5実施例による閾値変化を示すグラフ、 第1O図は第6実施例における閾値変化を示すグラフ、 第11図は第7実施例による閾値変化を示すグラフ、 第12図は第8実施例における閾値変化を示すグラフ、 第13図は第9実施例による閾値変化を示すグラフ、 第14図は第10実施例における閾値変化を示すグラフ
、 第15図は第11実施例による閾値変化を示すグラフ、 第16図は第12実施例における閾値変化を示すグラフ
、 第17図はデータ処理装置の構成の一例を示す概念図、 第18図は初期閾値分布の第1の例を示すグラフ、 第19図は初期閾値分布の第2の例を示すグラフ、 第20図は初!tIl閾値分布の第3の例を示すグラフ
である。 学習回数 第 図 学習回数 学習回数 第 図 第 4 図 七〇 学習回数 第 図 0 学習回数 第 図 学習回数 第 図 第 図 学習回数 第 0 図 第 1 図 学習回数 第 2 図 七〇 学習回数 第 3 図 学習回数 第 5 図 学習回数 第 7 図 第 8 図 第 9 図
Figure 1 is a graph showing the change in standard-achievement when proper learning is carried out, Figure 2 is a graph showing the change in standard-political change when inappropriate learning is carried out, and Figure 3 is a graph showing the change in standard - political change when inappropriate learning is carried out. A graph showing the change from standard to political change when a local minimum is reached during the learning process, Figure 4 is a conceptual diagram showing an example of the firing state of a neural network that has fallen to a local minimum, and Figure 5 is a book FIG. 6 is a graph showing the threshold change according to the first embodiment of the invention method; FIG. 6 is a graph showing the threshold change according to the second embodiment; FIG. 7 is a graph showing the threshold change according to the third embodiment; FIG. Graph showing the threshold change in the example. FIG. 9 is a graph showing the threshold change in the fifth example. FIG. 1O is a graph showing the threshold change in the sixth example. FIG. 11 is a graph showing the threshold change in the seventh example. FIG. 12 is a graph showing threshold changes in the eighth embodiment. FIG. 13 is a graph showing threshold changes in the ninth embodiment. FIG. 14 is a graph showing threshold changes in the tenth embodiment. Fig. 15 is a graph showing threshold changes according to the 11th embodiment, Fig. 16 is a graph showing threshold changes according to the 12th embodiment, Fig. 17 is a conceptual diagram showing an example of the configuration of a data processing device, and Fig. 18 is an initial diagram. The graph showing the first example of the threshold distribution, Figure 19 is the graph showing the second example of the initial threshold distribution, and Figure 20 is the first example! It is a graph which shows the 3rd example of tIl threshold value distribution. Figure 70 Number of learning Figure 4 Number of learning Figure 70 Number of learning Figure 0 Number of learning Figure 1 Figure Number of learning Figure 2 Figure 70 Number of learning Figure 3 Number of learning times Figure 5 Number of learning times Figure 8 Figure 9

Claims (2)

【特許請求の範囲】[Claims] (1)入力されたデータに所定の重みを乗じた積の総和
と閾値との比較結果に応じたデータを出力するニューロ
ンが複数設けられたデータ処理装置の前記重みを適正化
するために、データ処理装置の最終出力を評価し、前記
重みを調整する、データ処理装置の適正化方法において
、データ処理装置に一定の入力を与えつつ、ある時点で
有意な出力を生じたニューロンの閾値を、一旦最大値ま
で高めた後に前記時点での値まで減少させるように強制
的に変化させ、この閾値の強制的変化の期間に前記重み
を調整することを特徴とする、データ処理装置の適正化
方法。
(1) In order to optimize the weights of a data processing device equipped with a plurality of neurons that output data according to the comparison result between the sum of products obtained by multiplying input data by a predetermined weight and a threshold value, In a method for optimizing a data processing device in which the final output of the processing device is evaluated and the weights are adjusted, the threshold value of a neuron that has produced a significant output at a certain point in time is set once while giving a constant input to the data processing device. A method for optimizing a data processing device, comprising: forcibly changing the weight so as to increase it to a maximum value and then decreasing it to the value at the point in time, and adjusting the weight during the period of the forced change of the threshold value.
(2)入力されたデータに所定の重みを乗じた積の総和
と閾値との比較結果に応じたデータを出力するニューロ
ンが複数設けられたデータ処理装置の前記重みを適正化
するために、データ処理装置の最終出力を評価し、前記
重みを調整する、データ処理装置の適正化方法において
、初期状態でニューロンの閾値分布に滑らかな勾配の偏
りを与え、その後、データ処理装置に一定の入力を与え
つつ、ある時点で有意な出力を生じたニューロンの閾値
を、一旦最大値まで高めた後に前記時点での値まで減少
させるように強制的に変化させ、この閾値の強制的変化
の期間に前記重みを調整することを特徴とする、データ
処理装置の適正化方法。
(2) In order to optimize the weights of a data processing device that is equipped with a plurality of neurons that output data according to the comparison result between the sum of products obtained by multiplying input data by a predetermined weight and a threshold value, In a data processing device optimization method that evaluates the final output of the processing device and adjusts the weights, a smooth gradient bias is given to the threshold distribution of neurons in the initial state, and then a constant input is applied to the data processing device. The threshold of a neuron that produced a significant output at a certain point in time is forcibly changed so that it increases to the maximum value and then decreases to the value at that point, and during the period of this forced change in threshold, the A method for optimizing a data processing device, the method comprising adjusting weights.
JP1254712A 1989-06-02 1989-09-29 Optimizing method for data processor Pending JPH03129487A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP90110384A EP0405174B1 (en) 1989-06-02 1990-05-31 Neuronal data processing system and adaptation method therefor
DE69032111T DE69032111T2 (en) 1989-06-02 1990-05-31 Neural data processing system and adaptation method
KR1019900008130A KR0166970B1 (en) 1989-06-02 1990-06-01 Adaptation method for data processing system
US07/989,503 US5633988A (en) 1989-06-02 1992-12-10 Adaptation method for data processing system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP14083489 1989-06-02
JP1-140834 1989-06-02
JP1-179658 1989-07-12
JP17965889 1989-07-12

Publications (1)

Publication Number Publication Date
JPH03129487A true JPH03129487A (en) 1991-06-03

Family

ID=26473238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1254712A Pending JPH03129487A (en) 1989-06-02 1989-09-29 Optimizing method for data processor

Country Status (1)

Country Link
JP (1) JPH03129487A (en)

Similar Documents

Publication Publication Date Title
KR101582061B1 (en) Methods and apparatus for unsupervised neural replay, learning refinement, association and memory transfer: structural plasticity and structural constraint modeling
KR101616660B1 (en) Methods, apparatus and computer redable storage medium for neural component replay
JP3178884B2 (en) Neural network device
JPH03288285A (en) Learning method for data processor
JPH03129487A (en) Optimizing method for data processor
Unal et al. A fuzzy finite state machine implementation based on a neural fuzzy system
JPH03129489A (en) Optimizing method for data processor
JPH0373056A (en) Data processor and rationalizing method for the same
JPH0378075A (en) Rationalizing method for data processor
JPH0373057A (en) Rationalizing method for data processor
JPH03129488A (en) Data processor and optimizing method for the same
JPH0451354A (en) Neural network learning device
JP2784497B2 (en) Data processing device and its optimization method
JPH0378073A (en) Data processor and rationalizing method for the same
JPH0378074A (en) Rationalizing method for data processor
KR0166970B1 (en) Adaptation method for data processing system
JPH0373058A (en) Rationalizing method for data processor
JPH0415860A (en) Method for making learning of neural network efficient
JPH03288258A (en) Learning method for data processor
KR100241359B1 (en) Adaptive learning rate and limited error signal
JPH04105160A (en) Neural network
JPH06161983A (en) Pattern matching system
Ishibashi et al. Theory of interaction of memory patterns in layered associative networks
JPH01271888A (en) Learning method for pattern recognition
AU2006100161A4 (en) A method to complement the training of an artificial neural network by making additions to its structure