JPH03226884A - Analog neural network learning device - Google Patents
Analog neural network learning deviceInfo
- Publication number
- JPH03226884A JPH03226884A JP2022430A JP2243090A JPH03226884A JP H03226884 A JPH03226884 A JP H03226884A JP 2022430 A JP2022430 A JP 2022430A JP 2243090 A JP2243090 A JP 2243090A JP H03226884 A JPH03226884 A JP H03226884A
- Authority
- JP
- Japan
- Prior art keywords
- weight
- learning
- neural network
- input
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 34
- 238000012937 correction Methods 0.000 claims abstract description 26
- 230000006870 function Effects 0.000 claims abstract description 23
- 238000011156 evaluation Methods 0.000 claims abstract description 19
- 238000002945 steepest descent method Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 2
- 210000000225 synapse Anatomy 0.000 description 20
- 210000002569 neuron Anatomy 0.000 description 16
- 230000008859 change Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- IOYNQIMAUDJVEI-BMVIKAAMSA-N Tepraloxydim Chemical group C1C(=O)C(C(=N/OC\C=C\Cl)/CC)=C(O)CC1C1CCOCC1 IOYNQIMAUDJVEI-BMVIKAAMSA-N 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
産業上の利用分野
本発明は、階層構造を有するアナログニューラルネット
ワークの学習装置に関するもので、文字認識、音声認識
、信号の符号化等に利用できる。DETAILED DESCRIPTION OF THE INVENTION Field of Industrial Application The present invention relates to a learning device for an analog neural network having a hierarchical structure, and can be used for character recognition, speech recognition, signal encoding, and the like.
従来の技術
ニューラルネットワークは、多数の入力を1出力に変換
して出力するニューロンと、前段のニューロンの出力に
重み付けをおこない後段のニューロンに出力するシナプ
スを多数結合したものである。ニューラルネットワーク
では、ある入カバターンに対する出カバターンが、その
入カバターンでの期待するパターン(これを教師パター
ンという。)になるようにシナプスの重みを変化させる
学習という操作を行う。以下では、重みを変化させる量
を、重みの修正量と呼ぶ。学習を全ての入カバターンに
ついて繰り返すことで、あるパターンの入力に対して、
その入カバターンでの期待する出カバターンを出すニュ
ーラルネットワークを構成することができる。ネットワ
ークを伝わる信号がアナログ量であるニューラルネット
ワークをアナログニューラルネットワークと呼ぶ。A conventional neural network is a combination of a neuron that converts a large number of inputs into a single output and outputs it, and a large number of synapses that weight the output of a previous neuron and output it to a subsequent neuron. A neural network performs an operation called learning that changes the weights of synapses so that an output pattern for a given input pattern becomes the expected pattern for that input pattern (this is called a teacher pattern). Hereinafter, the amount by which the weight is changed will be referred to as a weight modification amount. By repeating learning for all input patterns, for a certain input pattern,
It is possible to construct a neural network that generates the expected output pattern based on the input pattern. A neural network in which the signals transmitted through the network are analog quantities is called an analog neural network.
階層構造のニューラルネットワークは、第3図のように
入力層、出力層、及び複数の中間層から構成される。ニ
ューロン1間は、入力層から出力層に向かって、シナプ
ス2で結合されている。入力層に、ある入カバターンp
を入力したとき、第4図に示すように、ニューロンjで
は、前段のニューロンからの入力、すなわち、ニューロ
ンiからの出力02.と、ニューロ711間を結合する
シナプス2の重みW、1との積の総和(neto、ΣW
、10゜1)をとり、さらに入出力関数f (n、e
tp+)を通して、出力信号Opjを出す。A hierarchical neural network is composed of an input layer, an output layer, and a plurality of intermediate layers as shown in FIG. Neurons 1 are connected by synapses 2 from the input layer to the output layer. In the input layer, a certain input cover turn p
As shown in FIG. 4, neuron j receives the input from the previous neuron, that is, the output 02. from neuron i. and the weight W, 1 of the synapse 2 that connects the neuron 711 (neto, ΣW
, 10°1) and further input/output function f (n, e
tp+) to output an output signal Opj.
このような計算を各ニューロンで行い、最終的に出力層
からの出カバターンが望ましいパターンになるように、
シナプスの重みを修正する。These calculations are performed in each neuron, so that the output pattern from the output layer becomes the desired pattern.
Modify synaptic weights.
重みの修正量を決めるアルゴリズムとして、バック・プ
ロパゲーションが、従来より公知である。ここで、バッ
ク・プロパゲーションのアルゴリズムを簡単に説明する
。重みの修正量は、最小化問題に定式化することで求め
る。教師パターンと出カバターンとの誤差の二乗和を用
いて、Elllを以下のように定義する。Back propagation is conventionally known as an algorithm for determining the amount of weight modification. Here, the back propagation algorithm will be briefly explained. The amount of weight correction is determined by formulating it as a minimization problem. Ell is defined as follows using the sum of squares of errors between the teacher pattern and the output pattern.
Ep、= 1/2 (jp+ −o++) 2ここで、
t2、は入カバターンpに対する出力層のj番目の教師
パターンであり、O++1は出力層のj番目の出カバタ
ーンである。このE。Jを全ての出力層で、最小化する
。従って、ΣEpj(−E。)を評価関数として、この
評価関数を全ての入カバターンに対して、最小化するシ
ナプスの重みを決定するという最小化問題に定式化する
。この問題は、最急降下法で解く。入カバターンpのと
き、重みWl、の修正量Δ。WIIは、E、の勾配が最
も大きく、Epが小さくなるように与える。Ep, = 1/2 (jp+ -o++) 2Here,
t2 is the j-th teacher pattern of the output layer for the input cover turn p, and O++1 is the j-th output cover turn of the output layer. This E. Minimize J in all output layers. Therefore, using ΣEpj (-E.) as an evaluation function, this evaluation function is formulated into a minimization problem in which the weight of the synapse to be minimized is determined for all input patterns. This problem is solved using steepest descent method. When the input cover turn is p, the amount of correction Δ of the weight Wl. WII is given so that the gradient of E is the largest and Ep is the smallest.
Δ、W1.(Z−δEp/aWr+
バック・プロパゲーションは、この修正量をネットワー
クの出力および入出力関数から計算する。Δ, W1. (Z−δEp/aWr+ Back propagation calculates this modification amount from the output and input/output functions of the network.
Δ、W、1は次式で得られる。Δ, W, 1 are obtained by the following equation.
Δp W I i−ηδ2.O1
ただし、ニューロンjが、出力層のニューロンの場合は
、
δal=f ’ (ne tp+) (jp+
O,、t)であり、二ニーロンjが、中間層のニューロ
ンの場合は、
δpl= 0oj(10pj)ΣδpkWk。Δp W I i−ηδ2. O1 However, if neuron j is a neuron in the output layer, δal=f' (netp+) (jp+
O,,t), and if the two neurons j are neurons in the hidden layer, δpl=0oj(10pj)ΣδpkWk.
であり、fo 0はf Oの導関数であり、ηは比例定
数である。, where fo 0 is the derivative of f O and η is the proportionality constant.
バック・プロパゲーションのアルゴリズムでは、多数の
加算1乗算を必要とするため、通常、ディジタル計算機
で重みの修正量を求める。計算された修正量で重みをす
べて修正して、1回の学習が終わる。この学習を入カバ
ターンを変えながら何度も繰り返すことで、期待される
出カバターンを出すニューラルネットワークとなる。Since the back propagation algorithm requires a large number of additions and multiplications, the amount of weight correction is usually determined using a digital computer. One learning session is completed by correcting all the weights using the calculated correction amounts. By repeating this learning process many times while changing the input pattern, the neural network will produce the expected output pattern.
発明が解決しようとする課題
アナログニューラルネットワークでは、すべてのニュー
ロンの、完全並列動作が可能であり、ニューラルネット
ワークの入力から出力への前向きの信号処理にかかる時
間は短い。Problems to be Solved by the Invention In analog neural networks, fully parallel operation of all neurons is possible, and the time required for forward signal processing from the input to the output of the neural network is short.
ところで、バック・プロパゲーションのアルゴリズムに
よる学習では、重みの修正量を求めるディジタル計算機
が必要である。アナログニューラルネットワークのよう
に前向きの信号処理を高速に行える場合、学習にかかる
時間は、ネットワークの入出力の信号伝達にかかる時間
よりも、計算機処理にかかる時間が大部分を占める。By the way, learning using the back propagation algorithm requires a digital computer to calculate the amount of weight correction. When forward-looking signal processing can be performed at high speed, such as in an analog neural network, the time required for learning is mostly spent on computer processing rather than the time required for signal transmission between the input and output of the network.
以上のように、アナログニューラルネットワークの学習
に、ディジタル計算機を採用することは、学習時間のほ
とんどが計算機処理にかかることになり、アナログニュ
ーラルネットワークの特徴を十分に生かしていない。As described above, when a digital computer is used to train an analog neural network, most of the learning time is spent on computer processing, and the characteristics of the analog neural network are not fully utilized.
本発明では、従来のアナログニューラルネットワークの
学習装置の問題点を解決することを目的とし、アナログ
ニューラルネットワークに適した、高速に学習のできる
学習装置を、簡単な構成で提供する。The present invention aims to solve the problems of conventional analog neural network learning devices, and provides a learning device with a simple configuration that is suitable for analog neural networks and capable of high-speed learning.
課題を解決するための手段 本発明では、前記目的を、以下の学習装置で達成する。Means to solve problems In the present invention, the above object is achieved by the following learning device.
学習装置は、アナログニューラルネットワークと、重み
を変化させる装置と、評価関数を測定する装置と、重み
の修正量を求める装置から構成される。入カバターンp
をアナログニューラルネットワークに入力する。そして
、ネットワーク内の一つのシナプスに注目し、その重み
をW。The learning device includes an analog neural network, a device for changing weights, a device for measuring an evaluation function, and a device for determining the amount of weight correction. Entering cover turn p
is input into the analog neural network. Then, focus on one synapse in the network and set its weight to W.
とする。W、lを重みを変化させる装置により微小量Δ
W目だけ変化させ、他のシナプスの重みは変化させない
。重みW + + の微小変化ΔW」’+ の前後で、
ネットワークの出力を評価関数を測定する装置に入力し
、評価関数の変化量ΔE、、を計算する。shall be. Using a device that changes the weight of W and l, a minute amount Δ
Only the W eye is changed, and the weights of other synapses are not changed. Before and after the minute change ΔW''+ of the weight W + +,
The output of the network is input to a device that measures the evaluation function, and the amount of change ΔE, , in the evaluation function is calculated.
このΔW、1、およびΔE、の値から、注目しているシ
ナプスの重みW、1の修正量Δ、W、1は最急降下法か
ら、次式のように求める。From the values of ΔW, 1 and ΔE, the amount of correction Δ, W, 1 of the weight W, 1 of the synapse of interest is determined by the following equation using the steepest descent method.
ΔDW 、 、α−ΔE、/ΔW。ΔDW, , α−ΔE, /ΔW.
この修正量は、重みの修正量を求める装置で算出し、前
記修正量を周辺の記憶装置に記憶するとともに、微小変
化させたシナプスの重みを変化前と同じ値にもどす。こ
れは、重みを変化させる装置で行う。注目するシナプス
を順々にかえ、すべてのシナプスで、微小変化の操作を
行う。すべてのシナプスで、操作が完了するまで、入カ
バターンの入力は続ける。完了後、記憶した修正量だけ
、各シナプスの重みを修正し、1回の学習を終える。こ
の学習を入カバターンを変えながら繰り返すことで、期
待される出カバターンを出すアナログニューラルネット
ワークとなる。This amount of correction is calculated by a device that calculates the amount of weight correction, the amount of correction is stored in a peripheral storage device, and the weight of the synapse that has been slightly changed is returned to the same value as before the change. This is done with a device that changes the weights. Change the synapses of interest one after another, and perform small changes in all synapses. The incoming patterns continue to be input until the operation is completed at all synapses. After completion, the weight of each synapse is corrected by the memorized correction amount, and one learning session is completed. By repeating this learning while changing the input pattern, an analog neural network can be created that produces the expected output pattern.
作用
本発明では、重みを変化させる装置と、評価関数を測定
する装置と、重みの修正量を求める装置で、学習装置を
構成するため、非常に簡単である。Effects In the present invention, the learning device is configured by a device for changing weights, a device for measuring an evaluation function, and a device for determining the amount of modification of weights, so it is very simple.
また、本発明の学習装置では、アナログニューラルネッ
トワークの特徴である、前向きの信号処理を高速に行え
る点を生かせるようにしており、従来のようにディジタ
ル計算機を用いてバック・プロパゲーションにより計算
する場合と比べて、1回の学習に要する時間は著しく短
い。In addition, the learning device of the present invention takes advantage of the ability to perform forward-looking signal processing at high speed, which is a feature of analog neural networks. Compared to this, the time required for one learning session is significantly shorter.
実施例
以下、本発明を図面を用いて実施例により説明する。第
1図は本発明のアナログニューラルネットワーク学習装
置の一実施例のブロック図である。ネットワークの各シ
ナプスの重みは、重み記憶装置12に記憶されており、
重み記憶装置12の各内容は、アナログニューロネット
ワーク11の対応するシナプスに一定の周期で入力され
るようにする。このことにより重み記憶装置12の内容
を書き変えるだけで、シナプスの重みを変えることがで
きる。入カバターンを記憶しているパターン記憶装置1
8より読みだされたパターンpはアナログニューロネッ
トワーク11に入力される。アナログニューロネットワ
ーク11の出カバターンは評価関数測定装置13に入力
される。評価関数測定装置13には、このパターンに対
する教師パターンも入力され、教師パターンは教師パタ
ーン記憶装置19より発生する。評価関数測定装置13
で、評価関数を求め、これを記憶し、微小変化前の評価
関数を保持する。次に、微小変化させるシナプスの重み
W 、を、重み記憶装置12から、重み変化装置14に
入力する。重み変化装置14に転送された重みは、ここ
で、微小変化を受ける。重みを変化させる装置14は、
例えば、インクリメントおよびデクリメント操作のでき
るレジスタ等で構成する。重み変化装置14で、微小変
化後の重みは、重み記憶装置12に書き込まれる。ここ
でもう−度評価関数測定装置13により、評価関数を求
め、記憶しである前回の値との差ΔEpを計算する。Δ
Epは修正量を求める修正量計算装置15に入力され、
修正量計算装置15で、W i +の修正量Δp W
r +を次式により求める。EXAMPLES Hereinafter, the present invention will be explained by examples using the drawings. FIG. 1 is a block diagram of an embodiment of an analog neural network learning device of the present invention. The weight of each synapse of the network is stored in the weight storage device 12,
Each content of the weight storage device 12 is input to the corresponding synapse of the analog neural network 11 at a constant cycle. As a result, the weight of a synapse can be changed simply by rewriting the contents of the weight storage device 12. Pattern storage device 1 that stores input cover patterns
The pattern p read out from 8 is input to the analog neural network 11. The output pattern of the analog neural network 11 is input to the evaluation function measuring device 13. A teacher pattern for this pattern is also input to the evaluation function measuring device 13, and the teacher pattern is generated from the teacher pattern storage device 19. Evaluation function measuring device 13
Then, obtain the evaluation function, store it, and retain the evaluation function before the slight change. Next, the weight W of the synapse to be slightly changed is inputted from the weight storage device 12 to the weight change device 14 . The weights transferred to the weight change device 14 are now subjected to small changes. The device 14 for changing the weights is
For example, it is configured with a register that can perform increment and decrement operations. The weight after the slight change is written in the weight storage device 12 by the weight change device 14 . Here, the degree evaluation function measuring device 13 again obtains the evaluation function and calculates the difference ΔEp from the previous value which is stored. Δ
Ep is input to a correction amount calculation device 15 that calculates a correction amount,
The correction amount calculation device 15 calculates the correction amount Δp W of W i +
r+ is determined by the following formula.
Δp W r + =−ηΔE、/ΔW1ここで、ΔW
j+は、Δ’J+の変化量である。上式により求まる修
正量は、A/D変換器16で、デジタル量に変換後、重
み修正量記憶装置17に転送する。つぎに、重みを微小
変化する前の値にもどすために、修正量計算装置14で
、重みを微小変化する前の値に戻し、重み記憶装置12
に書き込む。微小変化させるシナプスを順々に変えて、
全てのシナプスで、上記の操作を行う。終了後、重み修
正量記憶装置17の内容と重み記憶装置12の内容の加
算を行う。Δp W r + =-ηΔE, /ΔW1 Here, ΔW
j+ is the amount of change in Δ'J+. The correction amount determined by the above equation is converted into a digital amount by the A/D converter 16 and then transferred to the weight correction amount storage device 17. Next, in order to return the weight to the value before the slight change, the correction amount calculation device 14 returns the weight to the value before the slight change, and the weight storage device 12
write to. By sequentially changing the synapses that undergo minute changes,
Perform the above operation on all synapses. After completion, the contents of the weight correction amount storage device 17 and the contents of the weight storage device 12 are added.
以上で、1回の学習が終わり、入力するパターンを変え
ながら学習を繰り返すことで、期待される出カバターン
を出すアナログニューラルネットワークとなる。This completes one round of learning, and by repeating the learning while changing the input patterns, an analog neural network that produces the expected output pattern is created.
この学習装置のフローチャートを第2図に示す。同図で
、学習完了と判定する評価関数E、の値をεとする。評
価関数が、εより小さくなると学習を終える。また、パ
ターン選択で、選択されたパターンは、パターン入力開
始から、パターン入力終了まで、継続して入力する。1
回の学習0
は、パターン入力開始から、重みの修正までである。A flowchart of this learning device is shown in FIG. In the figure, the value of the evaluation function E, which determines that learning is complete, is assumed to be ε. Learning ends when the evaluation function becomes smaller than ε. In addition, the pattern selected in pattern selection is input continuously from the start of pattern input until the end of pattern input. 1
The learning cycle 0 is from the start of pattern input to the time of weight correction.
発明の効果
本発明の学習装置の効果は、複雑なハードウェアを必要
としないこと、および、アナログニューラルネットワー
クの特徴である前向きの信号処理が高速であることを考
慮すると、−回の学習が高速に行えることである。また
、この学習装置では、ニューロンの入出力関数f Oが
未知のネットワークの学習も可能である。Effects of the Invention Considering that the learning device of the present invention does not require complicated hardware and that forward signal processing, which is a characteristic of analog neural networks, is fast, the learning device of the present invention can be learned quickly. This is something that can be done. Furthermore, this learning device is also capable of learning a network in which the input/output function fO of neurons is unknown.
第1図は本発明の一実施例におけるアナログニューラル
ネットワーク学習装置のブロック図、第2図は本発明の
学習装置のフローチャート、第3図は階層構造をもつニ
ューラルネットワークを説明する図、第4図はニューラ
ルネットワークを構成スるニューロン、シナプスの働き
を説明する図である。
11・・・・・・アナログニューラルネットワーク、1
2・・・・・・重み記憶装置、13・・・・・・評価関
数測定装置、14・・・・・・重み変化装置、15・・
・・・・修正量計算装置、16・・・・・・A/D変換
器、17・・・・・・重み修正量記憶装置、18・・・
・・・パターン記憶装置、19・・・・・・教師パター
ン記憶装置。FIG. 1 is a block diagram of an analog neural network learning device according to an embodiment of the present invention, FIG. 2 is a flowchart of the learning device of the present invention, FIG. 3 is a diagram explaining a neural network with a hierarchical structure, and FIG. 4 is a diagram explaining the functions of neurons and synapses that make up a neural network. 11...Analog neural network, 1
2... Weight storage device, 13... Evaluation function measuring device, 14... Weight changing device, 15...
... Correction amount calculation device, 16 ... A/D converter, 17 ... Weight correction amount storage device, 18 ...
. . . pattern storage device, 19 . . . teacher pattern storage device.
Claims (1)
重みを変化させる装置と、評価関数を測定する装置と、
重みの修正量を求める装置を備え、前記ネットワークの
重みを変化させて出力を測定することにより最急降下法
を用いて学習させることを特徴とするアナログニューラ
ルネットワーク学習装置。An analog neural network with a hierarchical structure,
A device for changing weights, a device for measuring an evaluation function,
An analog neural network learning device comprising a device for determining a weight correction amount, and learning using a steepest descent method by changing the weights of the network and measuring the output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022430A JPH03226884A (en) | 1990-02-01 | 1990-02-01 | Analog neural network learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022430A JPH03226884A (en) | 1990-02-01 | 1990-02-01 | Analog neural network learning device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH03226884A true JPH03226884A (en) | 1991-10-07 |
Family
ID=12082482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022430A Pending JPH03226884A (en) | 1990-02-01 | 1990-02-01 | Analog neural network learning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH03226884A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6844582B2 (en) | 2002-05-10 | 2005-01-18 | Matsushita Electric Industrial Co., Ltd. | Semiconductor device and learning method thereof |
WO2018138597A1 (en) * | 2017-01-26 | 2018-08-02 | 株式会社半導体エネルギー研究所 | Semiconductor device, and electronic apparatus |
-
1990
- 1990-02-01 JP JP2022430A patent/JPH03226884A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6844582B2 (en) | 2002-05-10 | 2005-01-18 | Matsushita Electric Industrial Co., Ltd. | Semiconductor device and learning method thereof |
WO2018138597A1 (en) * | 2017-01-26 | 2018-08-02 | 株式会社半導体エネルギー研究所 | Semiconductor device, and electronic apparatus |
US11509918B2 (en) | 2017-01-26 | 2022-11-22 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device, and electronic device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5220559A (en) | Neuron architecture | |
US5107454A (en) | Pattern associative memory system | |
JPH06266868A (en) | Neuron element | |
US5761384A (en) | Fuzzy neural network system | |
de Angulo et al. | On-line learning with minimal degradation in feedforward networks | |
CN106896724A (en) | For the tracking system and tracking of sun tracker | |
JPH09257553A (en) | Dead weight measuring device | |
Hines | A logarithmic neural network architecture for unbounded non-linear function approximation | |
JPH03226884A (en) | Analog neural network learning device | |
Bishop | A fast procedure for retraining the multilayer perceptron | |
JPH04229362A (en) | Learning machine | |
JPH076146A (en) | Parallel data processing system | |
JPH04237388A (en) | Neuro processor | |
JPH05128284A (en) | Neuro-processor | |
JPH02309447A (en) | Method for learning mutual connection type neural network | |
JPH0981535A (en) | Learning method for neural network | |
US5497448A (en) | Learning type waveform recognizer | |
JP3751982B2 (en) | Learning method of neural network | |
JPH05128285A (en) | Neuro-processor | |
US5528729A (en) | Neural network learning apparatus and learning method | |
JPH02100757A (en) | Parallel neural network learning system | |
JP2618470B2 (en) | Error absorption method by weight correction in neurocomputer. | |
JPH09138786A (en) | Learning device for neural network | |
CN113011572A (en) | Method and device for determining axial mutation amount and method and device for processing weight | |
JPH06508948A (en) | How to handle uncertainty in input data in neural networks |