JPH0373058A - Rationalizing method for data processor - Google Patents

Rationalizing method for data processor

Info

Publication number
JPH0373058A
JPH0373058A JP1208673A JP20867389A JPH0373058A JP H0373058 A JPH0373058 A JP H0373058A JP 1208673 A JP1208673 A JP 1208673A JP 20867389 A JP20867389 A JP 20867389A JP H0373058 A JPH0373058 A JP H0373058A
Authority
JP
Japan
Prior art keywords
neurons
weight
value
neural
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1208673A
Other languages
Japanese (ja)
Inventor
Makoto Yamamoto
誠 山本
Sunao Takatori
直 高取
Ryohei Kumagai
熊谷 良平
Koji Matsumoto
幸治 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ezel Inc
Original Assignee
Ezel Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ezel Inc filed Critical Ezel Inc
Priority to JP1208673A priority Critical patent/JPH0373058A/en
Publication of JPH0373058A publication Critical patent/JPH0373058A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To prevent a drop into a local minimum in a learning process by forcedly changing the weight of a neuron generating a significant output at a certain time point so as to be temporarily decreased to a minimum value and afterwards to be increased to the value at this time point, and adjusting the weight during the period of this change. CONSTITUTION:Plural neural layers NL are provided with plural neurons N parallelly provided and the neural layer is constituted so that the output of a certain neural layer can be the input of the neural layer in the next step. Threshold values theta of the neurons in the same neural layer are made same and the threshold value theta is increased toward the neural layer in the rear step and changed like a step. The weight of the neuron generating the significant output at a certain time point is forcedly changed so as to be temporarily decreased to a minimum value and afterwards to be increased to the value at this time point. Then, while applying fixed input data during the period for this forced change of the weight, the weight is corrected based on the evaluated result of the output. Thus, the drop into the local minimum can be prevented.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、入力されたデータに所定の重みを乗じた積の
総和と閾値との比較結果に応じたデータを出力するニュ
ーロンが複数設けられたデータ処理装置において、前記
重みを適正化するための方法に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention provides a plurality of neurons that output data according to a comparison result between the sum of products obtained by multiplying input data by a predetermined weight and a threshold value. The present invention relates to a method for optimizing the weights in a data processing device.

〔従来の技術] この種のデータ処理装置の学習過程において、ある程度
適正な入出力相関が生じ、その相関が強められたとき、
以後データ処理装置がその状態から脱出できず、最適化
が不可能となる場合がある。
[Prior Art] In the learning process of this type of data processing device, when a certain degree of appropriate input-output correlation occurs and that correlation is strengthened,
Thereafter, the data processing device may not be able to escape from this state, and optimization may become impossible.

これはローカルミニマムへの落ち込みと表現され、例え
ばボルツマンマシン(David H,Ackley、
 Geoffrey E、 Hinton+and T
errence J、 Sejnowski: Ale
arning algorithm for Bolz
man machines:Cognitive 5c
ience 9.1989.147−169)では、ニ
ューラルネットワークのエネルギ式 マムから脱出して大局的ローカルミニマムに到達するた
めに、一時的に前記エネルギを所定の高レベルにジャン
プさせる。しかし入出力の最適相関と前記エネルギの大
局的ローカルミニマムの状態とは必ずしも一致するもの
ではない。また一般に局所的ローカル逅ニマムの深さは
不明であり、エネルギレベルを所定値だけ高めたときに
、確実に局所的ローカルごニマムから脱出し得るという
保証はなく、エネルギの大局的ローカルミニマムに到達
し得るという保証すらない。さらにエネルギを一時的ジ
ャンプするということ自体、生体系の機能との整合性は
ない。
This is expressed as a fall to a local minimum, for example, a Boltzmann machine (David H, Ackley,
Geoffrey E, Hinton+and T
errence J, Sejnowski: Ale
Arning algorithm for Bolz
man machines: Cognitive 5c
ieence 9.1989.147-169), the energy is temporarily jumped to a predetermined high level in order to escape from the energy equation of the neural network and reach the global local minimum. However, the optimum correlation between input and output does not necessarily match the state of the global local minimum of energy. In addition, the depth of the local minimum is generally unknown, and there is no guarantee that when the energy level is increased by a predetermined value, it will be possible to escape from the local minimum, and the global local minimum of energy will be reached. There is no guarantee that it will even be possible. Furthermore, a temporary jump in energy itself is inconsistent with the functioning of biological systems.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

本発明は前記従来の問題点を解消すべく創案されたもの
で、学習過程における局所的ローカルミニマムへの落ち
込みを確実に防止し得るデータ処理装置の適正化方法を
提供することを目的とする。
The present invention was devised to solve the above-mentioned conventional problems, and it is an object of the present invention to provide a method for optimizing a data processing device that can reliably prevent a drop to a local minimum during the learning process.

〔課題を解決するための手段〕[Means to solve the problem]

本発明に係るデータ処理装置の適正化方法は、データ処
理装置に一定の入力を与えつつ、ある時点で有意な出力
を生じたニューロンの重みを、一時的に最小値まで減少
させた後に前記時点での値まで増加させるように強制的
に変化させ、この重みの強制的な変化の期間に、前記重
みを調整するものである。
A method for optimizing a data processing device according to the present invention is to temporarily reduce the weight of a neuron that has produced a significant output at a certain point in time to a minimum value while giving a constant input to the data processing device, and then The weight is forcibly changed so as to increase to the value , and the weight is adjusted during the period of this forced change of the weight.

〔作用] 本発明に係るデータ処理装置の適正化方法によれば、生
体系の機能に則したメカニズムにより確実に局所的極小
値から脱出し得る。
[Operation] According to the method for optimizing a data processing device according to the present invention, it is possible to reliably escape from a local minimum value using a mechanism that conforms to the function of the biological system.

〔実施例] 以下図示実施例により本発明を説明する。〔Example] The present invention will be explained below with reference to illustrated embodiments.

ここで、学習の効果を示す指標として下記標準−成度T
Pを定義しておく。
Here, as an indicator showing the effectiveness of learning, the following standard - maturity T
Let us define P.

ただし、ここで n   :入力事象の数 i、j:入力事象の番号 Pt、jsi番目の入力事象によるニューラルネットワ
ーク出力と、j番目の入 力事象によるニューラルネットワー ク出力との一致度(一致ビット数) 上記標準−成度TPは、ニューラルネットワークにおけ
る入力事象の識別能力の指標であり、TPが低い程識別
能力が高いことを示す。そして、全く学習が為されてい
ないニューラルネットワークでは一般にTP=100%
であり、その後の学習によりTPは単調減少していく。
However, here, n: number of input events i, j: number of input events Pt, degree of coincidence between the neural network output due to the jsi-th input event and the neural network output due to the j-th input event (number of matching bits) Standard-graded TP is an index of the discrimination ability of input events in a neural network, and the lower the TP, the higher the discrimination ability. In a neural network that has not been trained at all, TP = 100%.
, and TP monotonically decreases with subsequent learning.

(第1図)しかし、学習方法が不適切であった場合には
、学習効果を逆に阻害することもあり、第2図に示すよ
うに、−旦低下したTPが再び上昇することもある。
(Figure 1) However, if the learning method is inappropriate, it may actually impede the learning effect, and as shown in Figure 2, the TP that once decreased may rise again. .

そして前述のように局所的ローカルミニマムへの落ち込
みが生じたときには、第3図に示すようにTPが高い値
で飽和してしまう。
When a drop to the local minimum occurs as described above, TP becomes saturated at a high value as shown in FIG.

この局所的ローカルミニマムへの落ち込ミは、前記エネ
ルギ式(1)とは無関係であり、例えばある事象の特徴
の重みに偏りがあり、特定の特徴が強調された結果複数
の事象の混同を生じることを肯定する学習が為された結
果と考えることができる。
This local drop to the local minimum is unrelated to the energy equation (1). For example, the weight of the features of a certain event may be biased, and as a result of emphasizing a certain feature, confusion of multiple events may occur. This can be thought of as the result of learning to affirm what will happen.

これを模式的に表現すれば、第4図に示すように、ある
入力ビット■4の影響が強いため、ニューロンの発火分
布が偏ったものとなり、この状態が強化され続ける状態
と考えることができる。なお、この図において発火した
ニューロンは黒い丸により示されている。
Expressing this schematically, as shown in Figure 4, because the influence of a certain input bit 4 is strong, the firing distribution of neurons becomes biased, and this state can be considered as a state that continues to be strengthened. . In this figure, neurons that have fired are indicated by black circles.

この状態を脱却するためには、他の入力ビツト11〜I
i、Isに対するニューロンの関与を強化する必要があ
る。
In order to escape from this state, other input bits 11 to I
There is a need to strengthen neuronal involvement in i,Is.

ここで発明者等は生体系のニューラルネットワークにお
ける絶対不応期、相対不応期に注目した。
Here, the inventors focused on the absolute refractory period and relative refractory period in neural networks of biological systems.

これら不応期は生体系のニューラルネットワークにおい
て、興奮波の伝播の抑制、制御に寄与しているといわれ
ている。(せ利俊−著:神経回路網の数理−脳の情報処
理様式−;産業図書)これに対して、発明者等は、これ
ら不応期が入力データの各特徴の影響のバランスを一時
的に変化させる要因ととらえ、ある入力に対して発火し
たニューロンの重みに対し、第5図に示すような変化を
与え、絶対不応期および相対不応期と同等の効果を与え
た。
These refractory periods are said to contribute to suppressing and controlling the propagation of excitation waves in the neural networks of biological systems. (Toshi Seri: Mathematics of Neural Networks - Information Processing Style of the Brain -; Sangyo Tosho) On the other hand, the inventors believe that these refractory periods temporarily balance the effects of each feature of the input data. Considering this as a changing factor, we changed the weight of a neuron firing in response to a certain input as shown in Figure 5, giving the same effect as the absolute refractory period and the relative refractory period.

すなわち、学習過程におけるある時点toの連想で発火
したニューロンの各重みw1〜w、、をその後一定期間
tlの開展小値Wain(例えば0)まで減少させる。
That is, the respective weights w1 to w of the neurons fired by the association at a certain point to in the learning process are then reduced to a development small value Wain (for example, 0) for a certain period of time tl.

これは閾値が無限大となる絶対不応期に対応する。この
絶対不応期においても学習を続行し、ニューロンの重み
に変化を与える。このとき重み変化が与えられるニュー
ロンは、to以前には、その入力に対して発火しなかっ
たニューロンである。期間t、の経過後、各重みW〜w
7をto時点での値まで徐々に増加させる。
This corresponds to an absolute refractory period where the threshold value becomes infinite. Even during this absolute refractory period, learning continues and changes the weights of neurons. The neuron to which the weight change is applied at this time is a neuron that did not fire in response to that input before to. After the period t, each weight W~w
7 gradually increases to the value at time to.

この漸増の期間は、閾値θが漸減する相対不応期に対応
し、この期間をtlとする。
This period of gradual increase corresponds to a relative refractory period in which the threshold value θ gradually decreases, and this period is designated as tl.

絶対不応期においては、to時点で発火しなかったニュ
ーロンのみが重みを強化され、偏ったニューロン分布に
ついて学習が行われるが、相対不応期においては、to
時点で発火したニューロンも徐々に発火するようになり
、徐々にニューラルネットワーク全体についてバランス
のとれた修正学習が行われる。
In the absolute refractory period, only the neurons that did not fire at time to have their weight strengthened, and learning is performed about the biased neuron distribution, but in the relative refractory period,
The neurons that fired at that point also gradually start firing, and balanced corrective learning is gradually performed for the entire neural network.

この結果いわゆるローカルミニマムからの脱出が実現さ
れ、標準−政変を最適値(大局的ローカルミニマム)に
到らしめるような学習がおこなわれる。
As a result, an escape from the so-called local minimum is realized, and learning is performed to bring the standard-political change to the optimal value (global local minimum).

なお第6図に示すように、前記重み変化のサイクルを複
数回与えることにより、局所的ローカルミニマムからの
脱出がより確実になる。但し、重み変化サイクル回数が
多過ぎたときには、かえって学習の収束が阻害され、ま
た学習終期において重み変化サイクルを与えたときにも
学習の収束が阻害される。
Note that, as shown in FIG. 6, by applying the weight change cycle a plurality of times, escape from the local minimum becomes more reliable. However, if the number of weight change cycles is too large, the convergence of learning will be hindered, and the convergence of learning will also be hindered when a weight change cycle is given at the end of learning.

すなわち重み変化サイクルは、学習の比較的初期におい
て適正回数与える必要がある。また絶対不応期の期間t
a、相対不応期の期間t2、および両者のバランスにつ
いても最適化を考慮する必要がある。
In other words, the weight change cycle needs to be given an appropriate number of times at a relatively early stage of learning. Also, the absolute refractory period t
a, the period t2 of the relative refractory period, and the balance between the two also need to be optimized.

次に以上の適正化方法が効果的に実行されるデータ処理
装置について説明する。
Next, a data processing apparatus in which the above optimization method is effectively executed will be described.

第7図において、データ処理装置は、複数のニューロン
Nを並列に設けてなるニューラルレイヤNLを複数有し
、ニューラルレイヤは、あるニューラルレイヤの出力が
次段のニューラルレイヤの入力となるように構成されて
いる。
In FIG. 7, the data processing device has a plurality of neural layers NL each having a plurality of neurons N arranged in parallel, and the neural layers are configured such that the output of one neural layer becomes the input of the next neural layer. has been done.

このような槽底においてはニューラルネットワークのト
ポロジを定義でき、各ニューロンについて、第7図に示
すように座標を特定し得る。
In such a tank bottom, the topology of the neural network can be defined, and the coordinates of each neuron can be specified as shown in FIG.

ここで入力側から出力側向かう方向にX軸をとり、各ニ
ューラルレイヤの幅方向にY軸をとる。
Here, the X-axis is taken in the direction from the input side to the output side, and the Y-axis is taken in the width direction of each neural layer.

そしてデータ処理装置の初期状態におけるニューロンの
閾値分布を第8図のように設定する。すなわち同−ニュ
ーラルレイヤのニューロンの閾値θは同一とし、後段の
ニューラルレイヤになる程閾値θを高めておく。この閾
値の増大の勾配は階段状に変化するようなものとする。
Then, the threshold distribution of neurons in the initial state of the data processing device is set as shown in FIG. That is, the threshold value θ of neurons in the same neural layer is set to be the same, and the threshold value θ is increased as the neural layer becomes later. The gradient of increase in the threshold value is assumed to change stepwise.

すなわち閾値は、例えば3つの連続するニューラルレイ
ヤについて同し大きさを有し、3つ目のニューラルレイ
ヤ毎に増大する。この増大の割合は、ニューラルネット
ワーク全体にわたって均一でもよいが、第8図のように
後段はど大きくなるようなものでもよい。
That is, the threshold value has, for example, the same magnitude for three consecutive neural layers and increases for every third neural layer. The rate of increase may be uniform over the entire neural network, but it may be larger at later stages as shown in FIG.

通常学習過程においては、正しい入力に対して有意なシ
ナプス入力が入力されたシナプスの重みを高めるが、第
8図の閾値分布では、当初は入力側寄りのニューロンの
みが発火し、徐々に後段のニューロンに発火の範囲が広
がる。
In the normal learning process, the weight of synapses with significant synaptic input is increased in response to correct input, but in the threshold distribution shown in Figure 8, initially only neurons closer to the input side fire, and gradually later neurons fire. Neurons have a wider firing range.

この過程において、前述の重みの最小値化のプロセスを
導入すると、各ニューラルレイヤでの一定入力に対する
発火ニューロンを増加させる効果があり、最終段のニュ
ーラルレイヤが発火するようになった時点では多くのニ
ューロンがデータ処理に関与するようになり、偏った発
火パターンに収束することはない。従ってローカルミニ
マムへの落ち込みを防止することができる。
In this process, introducing the weight minimization process described above has the effect of increasing the number of firing neurons for a given input in each neural layer, and by the time the final neural layer starts firing, many neurons are fired. Neurons become involved in data processing and do not converge on a biased firing pattern. Therefore, it is possible to prevent a drop to the local minimum.

第9図は第2実施例の初期閾値分布を示し、この閾値分
布は、データ処理装置の中央のニューロンの閾値を高め
、この中央ニューロンから遠ざかる程閾値を階段状に低
下させている。このようなデータ処理装置では、学習初
期には閾値の麓を回り込むように発火パターンが生じる
。しかし、前述の重みの最小値化を行ったとき、発火パ
ターンに隣接して比較的閾値の低いニューロンが存在す
るため、発火ニューロンの分布は閾値の頂上に向かって
徐々に広がっていく。これによって学習終期には、多く
のニューロンがデータ処理に関与するようになり、偏っ
た発火パターンに収束することはない。従ってローカル
ミニマムへの落ち込みを防止することができる。
FIG. 9 shows an initial threshold distribution of the second embodiment, in which the threshold of the central neuron of the data processing device is increased, and the threshold is decreased stepwise as the distance from the central neuron increases. In such a data processing device, a firing pattern occurs around the base of the threshold value in the initial stage of learning. However, when the weights are minimized as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons gradually expands toward the top of the threshold. As a result, many neurons become involved in data processing at the end of learning, and the firing pattern does not converge to a biased one. Therefore, it is possible to prevent a drop to the local minimum.

第10図は初期閾値分布の第3実施例を示し、ここでは
Y座標の中央値のニューロンの閾値を最低とし、Y座標
の最大値、最小値に向かって階段状の勾配で閾値を高め
ている。このようなデータ処理装置では、学習初期には
Y座標中央値付近を貫通する発火パターンが生じる。し
かし、前述の重みの最小値化を行ったとき、発火パター
ンに隣接して比較的閾値の低いニューロンが存在するた
め、発火ニューロンの分布はY座標の最大値、最小値両
方に向かって広がっていく。これによって学習終期には
、多くのニューロンがデータ処理に関与することになり
、偏った発火パターンに収束することはない。従ってロ
ーカルミニマムへの落ち込みを防止し得る。
FIG. 10 shows a third example of the initial threshold distribution, in which the threshold of the neuron at the median Y coordinate is set to the lowest, and the threshold is increased in a step-like gradient toward the maximum and minimum values of the Y coordinate. There is. In such a data processing device, a firing pattern that passes through the vicinity of the median Y coordinate occurs in the initial stage of learning. However, when the weights are minimized as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons expands toward both the maximum and minimum values of the Y coordinate. go. As a result, many neurons are involved in data processing at the end of learning, and the firing pattern does not converge to a biased one. Therefore, falling to the local minimum can be prevented.

第11図は第4実施例を示す。この実施例は第8図に示
す第1実施例と異なり、同−Y座標においては全てのニ
ューラルレイヤのニューロンの閾値は同一であり、一方
、同一ニューラルレイヤにおいてはY座標が増加するほ
どニューロンの閾値θは高められる。この閾値の増大の
勾配は階段状とする。第i1図の閾値分布では、当初は
Y座標の大きいニューロンのみが発火し、徐々にY座標
の小さいニューロンに発火の範囲が広がる。ここで、前
述の重みの最小値化を行うと、発火パターンに隣接して
比較的閾値の低いニューロンが存在するため、発火ニュ
ーロンの分布は、さらにスムーズに広がる。これにより
学習終期には、多くのニューロンがデータ処理に関与す
ることになり、偏った発火パターンに収束することがな
くなってローカルミニマムへの落ち込みが防止される。
FIG. 11 shows a fourth embodiment. This embodiment differs from the first embodiment shown in FIG. 8 in that at the same -Y coordinate, the thresholds of neurons in all neural layers are the same, while in the same neural layer, as the Y coordinate increases, the neuron thresholds are the same. The threshold value θ is increased. The gradient of increase in this threshold value is stepwise. In the threshold distribution shown in FIG. i1, initially only neurons with large Y coordinates fire, and the firing range gradually expands to neurons with small Y coordinates. Here, when the weights are minimized as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons spreads even more smoothly. As a result, many neurons will be involved in data processing at the end of learning, preventing convergence to a biased firing pattern and preventing a drop to a local minimum.

第12図は第5実施例を示し、この実施例において、同
一のY座標においては全てのニューラルレイヤのニュー
ロンの閾値は同一であり、一方、同一ニューラルレイヤ
においては特定のY座標(例えば中央)Mにおける閾値
θが最大値をとり、Y座標がこれから遠ざかるほど閾値
θは階段状に減少する。第12図の閾値分布では、当初
はY座標の最大値および最小値側のニューロンが発火し
、徐々にY座標M側のニューロンに発火の範囲が広がる
。ここで、前述の重みの最小値化を行うと、発火パター
ンに隣接して比較的閾値の低いニューロンが存在するた
め、発火ニューロンの分布は、さらにスムーズに広がり
、ローカルミニマムへの落ち込みが防止される。
FIG. 12 shows a fifth embodiment, in which the thresholds of neurons in all neural layers are the same at the same Y coordinate, while at a specific Y coordinate (for example, the center) in the same neural layer. The threshold value θ in M takes the maximum value, and the threshold value θ decreases stepwise as the Y coordinate becomes further away from this value. In the threshold distribution shown in FIG. 12, neurons on the maximum and minimum Y coordinate side initially fire, and the range of firing gradually expands to neurons on the Y coordinate M side. Here, if the aforementioned weight minimization is performed, since there are neurons with relatively low thresholds adjacent to the firing pattern, the distribution of firing neurons will spread even more smoothly, and a drop to the local minimum will be prevented. Ru.

第13図は第6実施例を示す。この実施例では、ニュー
ロンの閾値θは、X座標およびY座標が小さいほど小さ
く、そしてX座標およびY座標が大き(なるほど階段状
に増加する。この閾値分布では、当初はX座標およびY
座標が小さい部分のニューロンが発火し、徐々にX座標
およびY座標が大きい側のニューロンに発火の範囲が広
がる。ここで、前述の重みの最小値化を行うと、発火パ
ターンに隣接して比較的閾値の低いニューロンが存在す
るため、発火ニューロンの分布は、さらにスムーズに広
がり、ローカル壽ニマムへの落ち込みが防止される。
FIG. 13 shows a sixth embodiment. In this example, the threshold value θ of the neuron decreases as the X and Y coordinates become smaller, and increases in a stepwise manner as the X and Y coordinates increase.In this threshold distribution, initially the
Neurons with smaller coordinates fire, and the firing range gradually expands to neurons with larger X and Y coordinates. Here, when the weights are minimized as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons spreads even more smoothly, preventing a drop to the local bias. be done.

第14図は第7実施例を示し、初期閾値分布として、中
央のニューロンの閾値を最小値とし、この中央ニューロ
ンから遠ざかる程閾値を増大させている。この実施例で
は、学習初期には中央のニューロンから発火パターンが
生じる。ここで、前述の重みの最小値化を行うと、発火
パターンに隣接して比較的閾値の低いニューロンが存在
するため、発火ニューロンの分布は周囲のニューロンに
向かって徐々に広がっていく。これによって学習終期に
は、多くのニューロンがデータ処理に関与するようにな
り、偏った発火パターンに収束することが防止されて、
ローカルごニマムへの落チ込みが防止される。
FIG. 14 shows a seventh embodiment, in which the initial threshold distribution is such that the threshold of the central neuron is the minimum value, and the threshold increases as the distance from the central neuron increases. In this example, a firing pattern is generated from the central neuron at the beginning of learning. Here, when the aforementioned weight minimization is performed, since there are neurons with relatively low thresholds adjacent to the firing pattern, the distribution of firing neurons gradually expands toward surrounding neurons. As a result, at the end of learning, many neurons become involved in data processing, preventing convergence to a biased firing pattern.
This will prevent you from becoming depressed about your local lifestyle.

第15図は第8実施例を示し、初期閾値分布として、Y
座標に関しては例えば中央はど高い閾値を有し、X座標
に関しては例えば中央はど低い閾値を有する。すなわち
、閾値分布は鞍型を呈しており、その分布の変化は階段
状である。この実施例によっても、上記各実施例と同様
な効果が得られる。
FIG. 15 shows the eighth embodiment, where Y is the initial threshold distribution.
Regarding the coordinates, for example, the center has a high threshold value, and regarding the X coordinate, for example, the center has a low threshold value. That is, the threshold distribution has a saddle shape, and the change in the distribution is step-like. This embodiment also provides the same effects as those of the above embodiments.

〔発明の効果〕〔Effect of the invention〕

以上のように本発明に係るデータ処理装置の適正化方法
によれば、確実に局所的ローカルミニマムを脱出し得る
という優れた効果を有する。
As described above, the method for optimizing a data processing device according to the present invention has the excellent effect of reliably escaping the local minimum.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は適正な学習が行われたときに標準−成度の変化
を示すグラフ、 第2図は不適正な学習が行われた時の標準−成度の変化
を示すグラフ、 第3図は学習過程で局所的ローカルミニマムに落ち込ん
だときの標準−成度の変化を示すグラフ、第4図は局所
的ローカルミニマムに落ち込んだニューラルネットワー
クの発火状態の例を示す概念図、 第5図は本発明方法の一実施例による重み変化を示すグ
ラフ、 第6図は他の実施例における重み変化を示すグラフ、 第7図はデータ処理装置のニューラルネットワークの一
例を示す概念図、 第8図は第1実施例の初期閾値分布を示すグラフ、 第9図は第2実施例の初期閾値分布を示すグラフ、 第10図は第3実施例の初期閾値分布を示すグラフ、 第11図は第4実施例の初期閾値分布を示すグラフ、 第12図は第5実施例の初期閾値分布を示すグラフ、 第13図は第6実施例の初期閾値分布を示すグラフ、 第14図は第7実施例の初期閾値分布を示すグラフ、 第15図は第8実施例の初期閾値分布を示すグラフであ
る。
Figure 1 is a graph showing the change in standard-achievement when appropriate learning is performed. Figure 2 is a graph showing the change in standard-achievement when inappropriate learning is performed. Figure 3. is a graph showing the change in standard-to-adult when it falls to a local minimum during the learning process, Figure 4 is a conceptual diagram showing an example of the firing state of a neural network that falls to a local minimum, and Figure 5 is A graph showing weight changes according to one embodiment of the method of the present invention, FIG. 6 a graph showing weight changes according to another embodiment, FIG. 7 a conceptual diagram showing an example of a neural network of a data processing device, and FIG. 9 is a graph showing the initial threshold distribution of the second embodiment. FIG. 10 is a graph showing the initial threshold distribution of the third embodiment. FIG. 12 is a graph showing the initial threshold distribution of the fifth embodiment. FIG. 13 is a graph showing the initial threshold distribution of the sixth embodiment. FIG. 14 is the seventh embodiment. FIG. 15 is a graph showing the initial threshold distribution of the eighth embodiment.

Claims (1)

【特許請求の範囲】[Claims] (1)入力データに所定の重みを乗じたものの総和と閾
値との比較結果に応じたデータを出力するニューロンが
複数設けられ、初期状態でニューロンの閾値が階段状に
変化する分布を有するデータ処理装置の適正化方法であ
って、ある時点で有意な出力を生じたニューロンの重み
を、一時的に最小値まで減少させた後に前記時点の値ま
で増加させるように強制的に変化させ、この重みの強制
的変化の期間内に、一定入力データを与えつつ出力の評
価結果に基づいて前記重みを修正することを特徴とする
データ処理装置の適正化方法。
(1) Data processing in which multiple neurons are provided that output data according to the comparison result of the sum of input data multiplied by a predetermined weight and a threshold value, and the threshold values of the neurons have a distribution that changes stepwise in the initial state. A method for optimizing a device in which the weight of a neuron that has produced a significant output at a certain point is forcibly changed so as to temporarily decrease to a minimum value and then increase to the value at that point. A method for optimizing a data processing apparatus, characterized in that the weights are corrected based on output evaluation results while giving constant input data within a period of forced change.
JP1208673A 1989-08-12 1989-08-12 Rationalizing method for data processor Pending JPH0373058A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1208673A JPH0373058A (en) 1989-08-12 1989-08-12 Rationalizing method for data processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1208673A JPH0373058A (en) 1989-08-12 1989-08-12 Rationalizing method for data processor

Publications (1)

Publication Number Publication Date
JPH0373058A true JPH0373058A (en) 1991-03-28

Family

ID=16560165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1208673A Pending JPH0373058A (en) 1989-08-12 1989-08-12 Rationalizing method for data processor

Country Status (1)

Country Link
JP (1) JPH0373058A (en)

Similar Documents

Publication Publication Date Title
EP0327817B1 (en) Associative pattern conversion system and adaptation method thereof
CN115100864B (en) Traffic signal control optimization method based on improved sparrow search algorithm
CN107707553B (en) Weak password scanning method and device and computer storage medium
US4912651A (en) Speeding learning in neural networks
EP0450522B1 (en) A learning method for a data processing system
Sharma Big data analytics using neural networks
JPH0373058A (en) Rationalizing method for data processor
Unal et al. A fuzzy finite state machine implementation based on a neural fuzzy system
JPH0373057A (en) Rationalizing method for data processor
JPH0378075A (en) Rationalizing method for data processor
US5239619A (en) Learning method for a data processing system having a multi-layer neural network
JPH0373056A (en) Data processor and rationalizing method for the same
JPH03129489A (en) Optimizing method for data processor
JPH0377161A (en) Data processor and its rationalization system
JPH0378074A (en) Rationalizing method for data processor
JPH03129487A (en) Optimizing method for data processor
JPH03129488A (en) Data processor and optimizing method for the same
US20220301293A1 (en) Model generation apparatus, model generation method, and recording medium
JPH0378073A (en) Data processor and rationalizing method for the same
Frosini et al. A modified fuzzy C-means algorithm for feature selection
KR0166970B1 (en) Adaptation method for data processing system
Barraza et al. Interval type 2 fuzzy fireworks algorithm for clustering
JPH07104848B2 (en) Neural network learning efficiency method
EP0405174B1 (en) Neuronal data processing system and adaptation method therefor
Fall et al. Neural networks with dynamic structure using a GA-based learning method