JPH0373056A - Data processor and rationalizing method for the same - Google Patents

Data processor and rationalizing method for the same

Info

Publication number
JPH0373056A
JPH0373056A JP1208671A JP20867189A JPH0373056A JP H0373056 A JPH0373056 A JP H0373056A JP 1208671 A JP1208671 A JP 1208671A JP 20867189 A JP20867189 A JP 20867189A JP H0373056 A JPH0373056 A JP H0373056A
Authority
JP
Japan
Prior art keywords
neurons
threshold value
threshold
data processing
neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1208671A
Other languages
Japanese (ja)
Inventor
Makoto Yamamoto
誠 山本
Sunao Takatori
直 高取
Ryohei Kumagai
熊谷 良平
Koji Matsumoto
幸治 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ezel Inc
Original Assignee
Ezel Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ezel Inc filed Critical Ezel Inc
Priority to JP1208671A priority Critical patent/JPH0373056A/en
Publication of JPH0373056A publication Critical patent/JPH0373056A/en
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Feedback Control In General (AREA)

Abstract

PURPOSE:To prevent a drop into a local minimum in a learning process by providing plural neurons to output data corresponding to the result of comparison between the total sum obtd. by multiplying prescribed weight to input data and a threshold value, and possessing distribution that the threshold value of the neuron is changed like a step in an initial state. CONSTITUTION:Plural neural layers NL, for which plural neurons N are provided parallelly, are provided and one neural layer is constituted so that the output of a certain neural layer can be the input of the neural layer in the next step. Threshold values theta of the neurons in the same neural layer are made same and the threshold value theta is increased toward the neural layer in the rear step and changed like a step. Normally in the learning process, only the neuron close to an input side is ignited in the beginning and the range of the ignition is gradually spread to the neurons in the rear steps. In such a process, a process for minimizing the threshold value is led in, a lot of neurons are related to data processing at a time point that the neural layer in the final step is ignited. Thus, the drop into the local minimum can be prevented.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、入力されたデータに所定の重みを乗じた総和
と閾値との比較結果に応じてデータを出力するニューロ
ンが複数設けられたデータ処理装置、および同データ処
理装置において前記重みを適正化するための方法に関す
る。
[Detailed Description of the Invention] [Industrial Application Field] The present invention provides a data processing system that is provided with a plurality of neurons that output data according to a comparison result between the sum of input data multiplied by a predetermined weight and a threshold value. The present invention relates to a processing device and a method for optimizing the weights in the data processing device.

〔従来の技術〕[Conventional technology]

この種のデータ処理装置の学習過程において、ある程度
適正な入出力相関が生じ、その相関が強められた時、以
後データ処理装置がその状態から脱出できず、最適化が
不可能となる場合がある。
During the learning process of this type of data processing device, a certain degree of proper input-output correlation occurs, and when that correlation becomes stronger, the data processing device may be unable to escape from that state and optimization may become impossible. .

これはローカルミニマムへの落ち込みと表現され、例え
ばポルツマンマシン(David H,Ackley、
 Geoffrey E、 Hinton+ and 
Terrence J、 Sejnowski:A l
earning a1gorithn+ for Bo
lzn+an machines:Cognitive
 5cfence 9+ 1989+ 147−169
 )では、ニューラルネットワークのエネルギ式 ムから脱出して大局的ローカルミニマムに到達するため
に、一時的に前記エネルギを所定の高レベルにジャンプ
させる。しかし入出力の最適相関と前記エネルギの大局
的ローカルくニマムの状態とは必ずしも一致するもので
はない。また一般に局所的ローカルミニマムの深さは不
明であり、エネルギレベルを所定値だけ高めた時に、確
実に局所的ローカルミニマムから脱出し得るという保証
はなく、エネルギの大局的ローカルミニマムに到達し得
るという保証すらない。さらにエネルギを一時的ジャン
プするということ自体、生体系の機能との整合性はない
This is expressed as a fall to a local minimum, for example, the Polzmann machine (David H, Ackley,
Geoffrey E, Hinton+ and
Terrence J, Sejnowski: Al
learning a1gorithn+ for Bo
lzn+an machines: Cognitive
5cfence 9+ 1989+ 147-169
), the energy is temporarily jumped to a predetermined high level in order to escape from the energy equation of the neural network and reach the global local minimum. However, the optimum correlation between input and output does not necessarily match the state of the global and local energy. In addition, the depth of the local minimum is generally unknown, and there is no guarantee that the energy level will definitely escape from the local minimum when the energy level is increased by a predetermined value, and that the global local minimum of energy can be reached. There's not even a guarantee. Furthermore, a temporary jump in energy itself is inconsistent with the functioning of biological systems.

[発明が解決しようとする課題〕 本発明は前記従来の問題点を解消すべく創案されたもの
で、学習過程における局所的ローカルミニマムへの落ち
込みを確実に防止し得るデータ処理装置およびその適正
化方法を提供することを目的とする。
[Problems to be Solved by the Invention] The present invention has been devised to solve the above-mentioned conventional problems, and provides a data processing device and its optimization that can reliably prevent a drop to a local minimum in the learning process. The purpose is to provide a method.

〔課題を解決するための手段〕[Means to solve the problem]

本発明に係るデータ処理装置は、初期状態でニューロン
の閾値分布に滑らかな勾配の偏りを与えたものであり、
また本発明に係る適正化方法は、データ処理装置に一定
の入力を与えつつ、ある時点で有意な出力を生じたニュ
ーロンの閾値を一旦最大値まで高めた後に前記時点での
値まで減少させるように強制的に変化させ、この閾値の
強制的な変化の期間に、前記重みを調整するものである
The data processing device according to the present invention gives a smooth gradient bias to the threshold distribution of neurons in an initial state,
Further, the optimization method according to the present invention is such that, while giving a constant input to the data processing device, the threshold value of a neuron that has produced a significant output at a certain point in time is raised to the maximum value, and then reduced to the value at the said point in time. The threshold value is forcibly changed, and the weight is adjusted during the period of this forced change of the threshold value.

〔作用〕[Effect]

本発明に係るデータ処理装置の適正化方法によれば、生
体系の機能に則したメカニズムにより確実に局所的極小
値から脱出し得る。また本発明に係るデータ処理装置は
、同適正化方法により効果的な適、歪化が可能である。
According to the method for optimizing a data processing device according to the present invention, it is possible to reliably escape from a local minimum value using a mechanism that conforms to the function of a biological system. Furthermore, the data processing device according to the present invention can perform effective optimization and distortion using the optimization method.

〔実施例〕〔Example〕

以下図示実施例により本発明を説明する。 The present invention will be explained below with reference to illustrated embodiments.

ここで、学習の効果を示す指標として下記標準−成度T
Pを定義しておく。
Here, as an indicator showing the effectiveness of learning, the following standard - maturity T
Let us define P.

(以下余白) ただし、ここで n   二入力事象の数 i、j:入力事象の番号 Pi、j:i番目の入力事象によるニューラルネットワ
ーク出力と、j番目の入 力事象によるニューラルネットワー ク出力との一致度(一致ビット数) 上記標準−成度TPは、ニューラルネットワークにおけ
る入力事象の識別能力の指標であり、TPが低い程識別
能力が高いことを示す。そして、全く学習が為されてい
ないニューラルネットワークでは一般にTP=100%
であり、その後の学習によりTPは単調減少していく。
(Left below) However, where n is the number of two-input events i, j: number of input events Pi, j: degree of match between the neural network output due to the i-th input event and the neural network output due to the j-th input event. (Number of matching bits) The above-mentioned standard-quality TP is an index of the discrimination ability of input events in the neural network, and the lower the TP, the higher the discrimination ability. In a neural network that has not been trained at all, TP = 100%.
, and TP monotonically decreases with subsequent learning.

(第1図)しかし、学習方法が不適切であった場合には
、学習効果を逆に阻害することもあり、第2図に示すよ
うに、−旦低下したTPが再び上昇することもある。
(Figure 1) However, if the learning method is inappropriate, it may actually impede the learning effect, and as shown in Figure 2, the TP that once decreased may rise again. .

そして前述のように局所的ローカルミニマムへの落ち込
みが生じたときには、第3図に示すようにTPが高い値
で飽和してしまう。
When a drop to the local minimum occurs as described above, TP becomes saturated at a high value as shown in FIG.

この局所的ローカルミニマムへの落ち込みは、前記エネ
ルギ式(1)とは無関係であり、例えばある事象の特徴
の重みに偏りがあり、特定の特徴が強調された結果複数
の事象の混同を生じることを肯定する学習が為された結
果と考えることができる。
This local drop to the local minimum is unrelated to the energy equation (1) above, and may be caused by, for example, bias in the weight of the features of a certain event, and a certain feature is emphasized, resulting in confusion of multiple events. This can be thought of as the result of learning to affirm .

これを模式的に表現すれば、第4図に示すように、ある
入力ビット■4の影響が強いため、ニューロンの発火分
布が偏ったものとなり、この状態が強化され続ける状態
と考えることができる。なお、この図において発火した
ニューロンは黒い丸により示されている。
Expressing this schematically, as shown in Figure 4, because the influence of a certain input bit 4 is strong, the firing distribution of neurons becomes biased, and this state can be considered as a state that continues to be strengthened. . In this figure, neurons that have fired are indicated by black circles.

この状態を脱却するためには、他の入力ビツト11〜I
s、Isに対するニューロンの関与を強化する必要があ
る。
In order to escape from this state, other input bits 11 to I
It is necessary to strengthen neuronal involvement in s, Is.

ここで発明者等は生体系のニューラルネットワークにお
ける絶対不応期、相対不応期に注目した。
Here, the inventors focused on the absolute refractory period and relative refractory period in neural networks of biological systems.

これら不応期は生体系のニューラルネットワークにおい
て、興音波の伝播の抑制、制御に寄与しているといわれ
ている。(せ利俊−著:神経回路網の数理−脳の情報処
理様式−;産業図書)これに対して、発明者等は、これ
ら不応期が入力データの各特徴の影響のバランスを一時
的に変化させる要因ととらえ、ある入力に対して発火し
たニューロンの閾値に対し、第5図に示すような変化を
与え、絶対不応期および相対不応期と同等の効果を与え
た。
These refractory periods are said to contribute to suppressing and controlling the propagation of sound waves in the neural networks of biological systems. (Toshi Seri: Mathematics of Neural Networks - Information Processing Style of the Brain -; Sangyo Tosho) On the other hand, the inventors believe that these refractory periods temporarily balance the effects of each feature of the input data. Considering this as a changing factor, we changed the threshold of a neuron firing in response to a certain input as shown in Figure 5, giving the same effect as the absolute refractory period and the relative refractory period.

すなわち、学習過程におけるある時点toの連想で発火
したニューロンの閾値θをその後一定期間toの間最大
値θmax(例えば無限大)まで高める。これは絶対不
応期に対応する。この絶対不応期においても学習を続行
し、ニューロンの重みに変化を与える。このとき重み変
化が与えられるニューロンは、to以前には、その入力
に対して発火しなかったニューロンである。期間taの
経過後、閾値を10時点での値θ0まで漸減させる。こ
の漸減の期間は相対不応期に対応し、この期間をtrと
する。
That is, the threshold value θ of a neuron fired by association at a certain time point to in the learning process is then increased to the maximum value θmax (for example, infinity) for a certain period of time to. This corresponds to the absolute refractory period. Even during this absolute refractory period, learning continues and changes the weights of neurons. The neuron to which the weight change is applied at this time is a neuron that did not fire in response to that input before to. After the period ta has elapsed, the threshold value is gradually decreased to the value θ0 at time 10. This period of gradual decline corresponds to the relative refractory period, and this period is designated as tr.

絶対不応期においては、10時点で発火しなかったニュ
ーロンのみが重みを強化され、偏ったニューロン分布に
ついて学習が行われるが、相対不応期においては、10
時点で発火したニューロンも徐々に発火するようになり
、徐々にニューラルネットワーク全体についてバランス
のとれた修正学習が行われる。
In the absolute refractory period, only neurons that did not fire at time 10 are weighted, and learning is performed on a biased neuron distribution, but in the relative refractory period,
The neurons that fired at that point also gradually start firing, and balanced corrective learning is gradually performed for the entire neural network.

この結果いわゆるローカルミニマムからの脱出が実現さ
れ、標準−政変を最適値(大局的ローカルミニマム)に
到らしめるような学習が行われる。
As a result, an escape from the so-called local minimum is realized, and learning is performed to bring the standard-political change to the optimal value (global local minimum).

なお第6図に示すように、前記不応期のサイクルを複数
回与えることにより、局所的ローカルミニマムからの脱
出がより確実になる。但し、不応期サイクルの回数が多
過ぎたときには、かえって、学習の収束が阻害され、ま
た学習終期において不応期サイクルを与えた時にも学習
の収束が阻害される。
As shown in FIG. 6, by giving the refractory period a plurality of cycles, escape from the local minimum becomes more reliable. However, if the number of refractory period cycles is too large, the convergence of learning will be hindered, and even if the refractory period cycles are given at the end of learning, the convergence of learning will be inhibited.

すなわち不応期サイクルは、学習の比較的初期において
適正回数与える必要がある。
That is, the refractory cycle needs to be given an appropriate number of times at a relatively early stage of learning.

また絶対不応期の期間ta、相対不応期の期間tr、お
よび両者のバランスについても最適化を考慮する必要が
ある。
It is also necessary to consider optimization of the absolute refractory period ta, the relative refractory period tr, and the balance between the two.

次に以上の適正化方法が効果的に実行されるデータ処理
装置について説明する。
Next, a data processing apparatus in which the above optimization method is effectively executed will be described.

第7図において、データ処理装置は、複数のニューロン
Nを並列に設けてなる複数のニューラルレイヤNLを複
数有し、ニューラルレイヤは、あるニューラルレイヤの
出力が次段のニューラルレイヤの入力となるように構成
されている。
In FIG. 7, the data processing device has a plurality of neural layers NL each having a plurality of neurons N arranged in parallel, and the neural layers are such that the output of one neural layer becomes the input of the next neural layer. It is composed of

このような構成においてはニューラルネットワークのト
ポロジを定義でき、各ニューロンについて、第7図に示
すように座標を特定し得る。
In such a configuration, the topology of the neural network can be defined, and the coordinates of each neuron can be specified as shown in FIG.

ここで入力側から出力側向かう方向にX軸をとり、各ニ
ューラルレイヤの幅方向にY軸をとる。
Here, the X-axis is taken in the direction from the input side to the output side, and the Y-axis is taken in the width direction of each neural layer.

そしてデータ処理装置の初期状態におけるニューロンの
閾値分布を第8図のように設定する。すなワチ同−二ュ
ーラルレイヤのニューロンの閾値θは同一とし、後段の
ニューラルレイヤになる程閾値θを高めておく。この閾
値の増大の勾配は階段状に変化するようなものとする。
Then, the threshold distribution of neurons in the initial state of the data processing device is set as shown in FIG. In other words, the threshold value θ of neurons in the neural layer is set to be the same, and the threshold value θ is set higher as the neural layer becomes later. The gradient of increase in the threshold value is assumed to change stepwise.

すなわち閾値は、例えば3つの連続するニューラルレイ
ヤについて同じ大きさを有し、3つ目のニューラルレイ
ヤ毎に増大する。この増大の割合は、ニューラルネット
ワーク全体にわたって均一でもよいが、第8図のように
後段はど大きくなるようなものでもよい。
That is, the threshold value has, for example, the same magnitude for three consecutive neural layers and increases for every third neural layer. The rate of increase may be uniform over the entire neural network, but it may be larger at later stages as shown in FIG.

通常学習過程においては、正しい入力に対して有意なシ
ナプス入力が入力されたシナプスの重みを高めるが、第
8図の閾値分布では、当初は入力側寄りのニューロンの
みが発火し、徐々に後段のニューロンに発火の範囲が広
がる。
In the normal learning process, the weight of synapses with significant synaptic input is increased in response to correct input, but in the threshold distribution shown in Figure 8, initially only neurons closer to the input side fire, and gradually later neurons fire. Neurons have a wider firing range.

この過程において、前述の閾値の最大値化のプロセスを
導入すると、各ニューラルレイヤでの一定入力に対する
発火ニューロンを増加させる効果があり、最終段のニュ
ーラルレイヤが発火するようになった時点では多くのニ
ューロンがデータ処理に関与するようになり、偏った発
火パターンに収束することはない。従ってローカルミニ
マムへの落ち込みを防止することができる。
In this process, introducing the threshold maximization process described above has the effect of increasing the number of firing neurons for a given input in each neural layer, and by the time the final neural layer starts firing, many Neurons become involved in data processing and do not converge on a biased firing pattern. Therefore, it is possible to prevent a drop to the local minimum.

第9図は第2実施例を示し、初期閾値分布として、デー
タ処理装置の中央のニューロンの閾値を高め、この中央
のニューロンから遠ざかる程閾値を階段状に低下させて
いる。このようなデータ処理装置では、学習初期には閾
値の麓を回り込むように発火パターンが生じる。しかし
、前述の閾値の最大値化を行ったとき、発火パターンに
隣接して比較的閾値の低いニューロンが存在するため、
発火ニューロンの分布は閾値の頂上に向かって徐々に広
がっていく。これによって学習終期には、多くのニュー
ロンがデータ処理に関与するようになり、偏った発火パ
ターンに収束することはない。
FIG. 9 shows a second embodiment, in which the initial threshold distribution is such that the threshold of a neuron at the center of the data processing device is increased, and the threshold is lowered stepwise as the distance from this central neuron increases. In such a data processing device, a firing pattern occurs around the base of the threshold value in the initial stage of learning. However, when maximizing the threshold as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so
The distribution of firing neurons gradually widens toward the top of the threshold. As a result, many neurons become involved in data processing at the end of learning, and the firing pattern does not converge to a biased one.

従ってローカルミニマムへの落ち込みを防止することが
できる。
Therefore, it is possible to prevent a drop to the local minimum.

第10図は第3実施例を示し、初期閾値の分布として、
Y座標中央値のニューロンの閾値を最低とし、Y座標の
最大値、最小値に向かって階段状の勾配で閾値を高めて
いる。このようなデータ処理装置では、学習初期にはY
座標中央値付近を貫通する発火パターンが生じる。しか
し、前述の閾値の最大値化を行ったとき、発火パターン
に隣接して比較的閾値の低いニューロンが存在するため
、発火ニューロンの分布はY座標の最大値、最小値両方
に向かって広がっていく。これによって学習終期には、
多くのニューロンがデータ処理に関与することになり、
偏った発火パターンに収束することはない。従ってロー
カルミニマムへの落ち込みを防止し得る。
FIG. 10 shows the third embodiment, and the initial threshold distribution is as follows:
The threshold value of the neuron at the median value of the Y coordinate is set to the lowest value, and the threshold value is increased in a step-like gradient toward the maximum value and the minimum value of the Y coordinate. In such a data processing device, at the beginning of learning, Y
A firing pattern occurs that penetrates around the coordinate median value. However, when maximizing the threshold as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons expands toward both the maximum and minimum Y coordinates. go. As a result, at the end of the study,
Many neurons will be involved in data processing,
It does not converge to a biased firing pattern. Therefore, falling to the local minimum can be prevented.

第11図は第4実施例を示す。この実施例は第8図に示
す第1実施例と異なり、同−Y座標においては全てのニ
ューラルレイヤのニューロンの閾値は同一であり、一方
、同−ニューラルレイヤにおいてはY座標が増加するほ
どニューロンの閾値θは高められる。この閾値の増大の
勾配は階段状とする。第I1図の閾値分布では、当初は
Y座標の大きいニューロンのみが発火し、徐々にY座標
ノ小すいニューロンに発火の範囲が広がる。ここで、前
述の閾値の最大値化を行うと、発火パターンに隣接して
比較的閾値の低いニューロンが存在するため、発火ニュ
ーロンの分布は、さらにスムーズに広がる。これにより
学習終期には、多くのニューロンがデータ処理に関与す
ることになり、偏った発火パターンに収束することがな
くなってローカルミニマムへの落ち込みが防止される。
FIG. 11 shows a fourth embodiment. This embodiment differs from the first embodiment shown in FIG. 8 in that the threshold values of neurons in all neural layers are the same at the same Y-coordinate, whereas in the same neural layer, the more the Y-coordinate increases, the more neurons The threshold value θ of is increased. The gradient of increase in this threshold value is stepwise. In the threshold distribution shown in FIG. I1, initially only neurons with large Y coordinates fire, and the firing range gradually expands to neurons with small Y coordinates. Here, when the threshold is maximized as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons spreads even more smoothly. As a result, many neurons will be involved in data processing at the end of learning, preventing convergence to a biased firing pattern and preventing a drop to a local minimum.

第12図は第5実施例を示し、この実施例において、同
一のY座標においては全てのニューラルレイヤのニュー
ロンの閾値は同一であり、一方、同−ニューラルレイヤ
においては特定のY座標(例えば中央)Mにおける閾値
θが最大値をとり、Y座標がこれから遠ざかるほど閾値
θは階段状に減少する。第12図の閾値分布では、当初
はY座標の最大値および最小値側のニューロンが発火し
、徐々にYFi標M側のニューロンに発火の範囲が広が
る。ここで、前述の閾値の最大値化を行うと、発火パタ
ーンに隣接して比較的閾値の低いニューロンが存在する
ため、発火ニューロンの分布は、さらにスムーズに広が
り、ローカル逅ニマムへの落ち込みが防止される。
FIG. 12 shows a fifth embodiment, in which the thresholds of neurons in all neural layers are the same at the same Y-coordinate, while at a particular Y-coordinate (e.g. central ) The threshold value θ at M takes the maximum value, and the threshold value θ decreases stepwise as the Y coordinate becomes further away from this value. In the threshold distribution shown in FIG. 12, neurons on the maximum and minimum Y coordinate side initially fire, and the range of firing gradually expands to neurons on the YFi mark M side. Here, when the threshold is maximized as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons spreads even more smoothly, preventing a drop to the local opportunism. be done.

第13図は第6実施例を示す。この実施例では、ニュー
ロンの閾値θは、X座標およびY座標が小さいほど小さ
く、そしてX座標およびY座標が大きくなるほど階段状
に増加する。この閾値分布では、当初はX座標およびY
座標が小さい部分のニューロンが発火し、徐々にX座標
およびY座標が大きい側のニューロンに発火の範囲が広
がる。ここで、前述の閾値の最大値化を行うと、発火パ
ターンに隣接して比較的閾値の低いニューロンが存在す
るため、発火ニューロンの分布は、さらにスムーズに広
がり、ローカルミニマムへの落ち込みが防止される。
FIG. 13 shows a sixth embodiment. In this example, the threshold value θ of the neuron decreases as the X and Y coordinates become smaller, and increases in a stepwise manner as the X and Y coordinates become larger. In this threshold distribution, initially the X coordinate and Y
Neurons with smaller coordinates fire, and the firing range gradually expands to neurons with larger X and Y coordinates. If the threshold is maximized as described above, there will be neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons will spread even more smoothly, and a drop to the local minimum will be prevented. Ru.

第14図は第7実施例を示し、初期閾値分布として、中
央のニューロンの閾値を最小値とし、この中央ニューロ
ンから遠ざかる程閾値を階段状に増大させている。この
実施例では、学習初期には中央のニューロンから発火パ
ターンが生じる。ここで、前述の閾値の最大値化を行う
と、発火パターンに隣接して比較的閾値の低いニューロ
ンが存在するため、発火ニューロンの分布は周囲のニュ
ーロンに向かって徐々に広がっていく。これによって学
習終期には、多くのニューロンがデータ処理に関与する
ようになり、偏った発火パターンに収束することが防止
されて、ローカルミニマムヘの落ち込みが防止される。
FIG. 14 shows a seventh embodiment, in which the initial threshold distribution is such that the threshold of the central neuron is the minimum value, and the threshold increases stepwise as the distance from the central neuron increases. In this example, a firing pattern is generated from the central neuron at the beginning of learning. Here, when the threshold is maximized as described above, there are neurons with relatively low thresholds adjacent to the firing pattern, so the distribution of firing neurons gradually expands toward surrounding neurons. As a result, many neurons become involved in data processing at the end of learning, preventing convergence to a biased firing pattern and preventing a drop to a local minimum.

第15図は第8実施例を示し、初期閾値分布として、Y
座標に関しては例えば中央はど高い閾値を有し、X座標
に関しては例えば中央はど低い閾値を有する。すなわち
、閾値分布は鞍型を呈しており、その分布の変化は階段
状である。この実施例によっても、上記各実施例と同様
な効果が得られる。
FIG. 15 shows the eighth embodiment, where Y is the initial threshold distribution.
Regarding the coordinates, for example, the center has a high threshold value, and regarding the X coordinate, for example, the center has a low threshold value. That is, the threshold distribution has a saddle shape, and the change in the distribution is step-like. This embodiment also provides the same effects as those of the above embodiments.

〔発明の効果] 以上のように本発明に係るデータ処理装置の適正化方法
によれば、確実に局所的ローカルミニマムを脱出し得る
という優れた効果を有する。
[Effects of the Invention] As described above, the method for optimizing a data processing device according to the present invention has an excellent effect of reliably escaping the local minimum.

また本発明に係るデータ処理装置によれば、初期閾値分
布に階段状の勾配の偏りが与えられるため、学習過程に
おいて逆にこの偏りを解消するような発火パターンの広
がりを生じ、結果的に偏った発火パターンへの収束が防
止される。
Furthermore, according to the data processing device of the present invention, since the initial threshold distribution is biased with a step-like gradient, the firing pattern spreads in a way that eliminates this bias during the learning process, and as a result, the bias is convergence to a certain firing pattern is prevented.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は適正な学習が行われたときに標準−政変の変化
を示すグラフ、 第2図は不適正な学習が行われた時の標準−政変の変化
を示すグラフ、 第3図は学習過程で局所的ローカル逅ニマムに落ち込ん
だときの標準−政変の変化を示すグラフ、第4図は局所
的ローカル果ニマムに落ち込んだニューラルネットワー
クの発火状態の例を示す概念図、 第5図は本発明方法の一実施例による閾値変化を示すグ
ラフ、 第6図は他の実施例における閾値変化を示すグラフ、 第7図は本発明に係るデータ処理装置の第1実施例を示
す概念図、 第8図は同実施例の初期閾値分布を示すグラフ、第9図
は第2実施例の初期閾値分布を示すグラフ、 第10図は第3実施例の初期閾値分布を示すグラフ、 第11図は第4実施例の初期閾値分布を示すグラフ、 第12図は第5実施例の初期閾値分布を示すグラフ、 第13図は第6実施例の初期閾値分布を示すグラフ、 第14図は第7実施例の初期閾値分布を示すグラフ、 第15図は第8実施例の初期閾値分布を示すグラフであ
る。 第1図 学習回数
Figure 1 is a graph showing the change from standard to political change when proper learning is carried out. Figure 2 is a graph showing the change from standard to political change when inappropriate learning is carried out. Figure 3 is a graph showing the change from standard to political change when inappropriate learning is carried out. A graph showing the change from standard to political change when the process falls to local control, Figure 4 is a conceptual diagram showing an example of the firing state of a neural network that falls to local control, and Figure 5 is the book. FIG. 6 is a graph showing threshold changes according to one embodiment of the invention method; FIG. 7 is a conceptual diagram showing a first embodiment of the data processing device according to the invention; FIG. FIG. 8 is a graph showing the initial threshold distribution of the same example, FIG. 9 is a graph showing the initial threshold distribution of the second example, FIG. 10 is a graph showing the initial threshold distribution of the third example, and FIG. 11 is a graph showing the initial threshold distribution of the third example. FIG. 12 is a graph showing the initial threshold distribution of the fifth embodiment. FIG. 13 is a graph showing the initial threshold distribution of the sixth embodiment. FIG. 14 is the graph showing the initial threshold distribution of the fifth embodiment. Graph showing the initial threshold distribution of the embodiment. FIG. 15 is a graph showing the initial threshold distribution of the eighth embodiment. Figure 1 Number of learning times

Claims (2)

【特許請求の範囲】[Claims] (1)入力データに所定の重みを乗じたものの総和と閾
値との比較結果に応じたデータを出力するニューロンが
複数設けられたデータ処理装置において、初期状態でニ
ューロンの閾値が階段状に変化する分布を有することを
特徴とするデータ処理装置。
(1) In a data processing device equipped with multiple neurons that output data according to the comparison result between the sum of input data multiplied by a predetermined weight and a threshold value, the threshold values of the neurons change in a stepwise manner in the initial state. A data processing device characterized by having a distribution.
(2)入力データに所定の重みを乗じたものの総和と閾
値との比較結果に応じたデータを出力するニューロンが
複数設けられ、初期状態でニューロンの閾値が階段状に
変化する分布を有するデータ処理装置の適正化方法であ
って、ある時点で有意な出力を生じたニューロンの閾値
を、一時的に最大値まで高めた後に前記時点の値まで減
少させるように強制的に変化させ、この閾値の強制的変
化の期間内に、一定入力データを与えつつ出力の評価結
果に基づいて前記重みを修正することを特徴とするデー
タ処理装置の適正化方法。
(2) Data processing in which multiple neurons are provided that output data according to the comparison result of the sum of input data multiplied by a predetermined weight and a threshold value, and the threshold value of the neuron has a distribution that changes stepwise in the initial state. This is a device optimization method in which the threshold of a neuron that has produced a significant output at a certain point is forcibly changed so that it temporarily increases to the maximum value and then decreases to the value at that point. A method for optimizing a data processing device, comprising: modifying the weights based on output evaluation results while giving constant input data within a period of forced change.
JP1208671A 1989-08-12 1989-08-12 Data processor and rationalizing method for the same Pending JPH0373056A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1208671A JPH0373056A (en) 1989-08-12 1989-08-12 Data processor and rationalizing method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1208671A JPH0373056A (en) 1989-08-12 1989-08-12 Data processor and rationalizing method for the same

Publications (1)

Publication Number Publication Date
JPH0373056A true JPH0373056A (en) 1991-03-28

Family

ID=16560132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1208671A Pending JPH0373056A (en) 1989-08-12 1989-08-12 Data processor and rationalizing method for the same

Country Status (1)

Country Link
JP (1) JPH0373056A (en)

Similar Documents

Publication Publication Date Title
EP0327817B1 (en) Associative pattern conversion system and adaptation method thereof
US4912647A (en) Neural network training tool
US4912652A (en) Fast neural network training
WO1992011604A1 (en) Rapid category learning and recognition system
US4912654A (en) Neural networks learning method
JPH03288285A (en) Learning method for data processor
US4912653A (en) Trainable neural network
JPH0373056A (en) Data processor and rationalizing method for the same
JPH03129488A (en) Data processor and optimizing method for the same
JPH03129487A (en) Optimizing method for data processor
JPH0377161A (en) Data processor and its rationalization system
JPH0373057A (en) Rationalizing method for data processor
JPH0373058A (en) Rationalizing method for data processor
JPH03129489A (en) Optimizing method for data processor
JPH0378073A (en) Data processor and rationalizing method for the same
KR0166970B1 (en) Adaptation method for data processing system
JPH0378075A (en) Rationalizing method for data processor
EP0405174B1 (en) Neuronal data processing system and adaptation method therefor
JPH0378074A (en) Rationalizing method for data processor
JP2736361B2 (en) Neural network configuration method
Muselli Sequential constructive techniques
JPH07104848B2 (en) Neural network learning efficiency method
Minghu et al. A fast hybrid algorithm of global optimization for feedforward neural networks
JPH03288258A (en) Learning method for data processor
Lammers et al. Identity authentication based on keystroke latencies using neural networks