JPH02222061A - Learning machine - Google Patents

Learning machine

Info

Publication number
JPH02222061A
JPH02222061A JP1043730A JP4373089A JPH02222061A JP H02222061 A JPH02222061 A JP H02222061A JP 1043730 A JP1043730 A JP 1043730A JP 4373089 A JP4373089 A JP 4373089A JP H02222061 A JPH02222061 A JP H02222061A
Authority
JP
Japan
Prior art keywords
error
weight
learning parameter
learning
minimum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1043730A
Other languages
Japanese (ja)
Other versions
JPH0736184B2 (en
Inventor
Shigeo Sakagami
茂生 阪上
Toshiyuki Koda
敏行 香田
Taiji Shimeki
メ木 泰治
Hideyuki Takagi
英行 高木
Hayato Togawa
戸川 隼人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP1043730A priority Critical patent/JPH0736184B2/en
Priority to EP93202797A priority patent/EP0579341A2/en
Priority to US07/481,330 priority patent/US5168550A/en
Priority to DE69027874T priority patent/DE69027874T2/en
Priority to EP90301825A priority patent/EP0385637B1/en
Priority to KR1019900002309A priority patent/KR920006792B1/en
Publication of JPH02222061A publication Critical patent/JPH02222061A/en
Publication of JPH0736184B2 publication Critical patent/JPH0736184B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To minimize an error with high efficiency and to shorten the learning time by obtaining the optimum value of a learning parameter in the minimum point searching direction of the error and at the same time changing the weight of a variable weight multiplier. CONSTITUTION:A learning parameter near the minimum point of an error set in its searching direction is extracted 18 after decision 16 of the searching direction of a point where the error is minimized in a weight space. The paraboloidal approximation is applied to the periphery of the minimum point of the error and an error produced at an apex of the paraboloid is extracted 19. Then the weight of each of variable weight multipliers 3 - 8 is changed 20 by means of a learning parameter obtained with the minimum error. Then the searching direction is obtained for a new minimum error point and the optimum value of the learning parameter obtained in the preceding search of the minimum point is reflected to set 17 the initial value of the learning parameter. The minimum error point between both searching direction is obtained and the weight is changed. An error minimizing circuit 21 of such a constitution searches continuously the minimum error points until the error is reduced down to a satisfactory level.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は学習機械に間するものである。[Detailed description of the invention] Industrial applications The present invention relates to learning machines.

従来の技術 従来の学習機械としては、例えばテーイイールンメルハ
料(D、E、Ruw+gwelhart)らによる”ラ
ーニシク゛レフ01セ゛ンテイシ]シ八−イ ハーツク
フ0011°ヶ′イティンク′エラー(Learnin
g  representations  by  b
ack−propagating  errors)”
、 ネイチ+−(Nature) Vol、323 N
o、9(1986)に示されている。
BACKGROUND OF THE INVENTION Conventional learning machines include, for example, the ``Learning'' error (Learning'' error) by Ruw+Gwelhart et al.
g representations by b
ack-propagating errors)”
, Naichi +- (Nature) Vol, 323 N
o, 9 (1986).

第9図はこの従来の学習機械の構成図を示すものであり
、51.52は入力端子、53、ヌ、55、団、訂、5
8は可変重み乗算器、59、印、61は飽和入出力特性
を持つ加算器、62は出力端子、63は教師信号発生部
、64は誤差算出部、65は探索方向決定部、66は重
み変更部である。第9図に示されるように、従来の学習
機械は飽和入出力特性を持つ加算器を階層状に接続し、
各層の加算器の間に可変重み乗算器を接続した構成とな
っている。
FIG. 9 shows a configuration diagram of this conventional learning machine, where 51.52 is an input terminal, 53 is an input terminal,
8 is a variable weight multiplier, 59 is a mark, 61 is an adder with saturation input/output characteristics, 62 is an output terminal, 63 is a teacher signal generation section, 64 is an error calculation section, 65 is a search direction determination section, 66 is a weight This is the change section. As shown in Figure 9, a conventional learning machine connects adders with saturated input/output characteristics in a hierarchical manner.
It has a configuration in which variable weight multipliers are connected between adders in each layer.

以上のように構成された従来の学習機械における加算器
別、60及び61の入出力特性を第10図に示す、第1
O図に示されるように加算器59.60及び61の入出
力特性は飽和特性を持つ。即ち、加算器の入出力特性は output[jl = func (Σ1nput[
il) ”(1)で表わすことができる。ここで、ou
tput[jlは第j番目の加算器の出力信号、1np
ut[ilは第j番目の加算器に入力される第i番目の
入力信号、funcOは飽和特性を持つ間数でシグモイ
ド間数furlc(x) =2 / (1+ exp(
−x) ) −1等で表される。
The input/output characteristics of adders 60 and 61 in the conventional learning machine configured as described above are shown in FIG.
As shown in Figure O, the input/output characteristics of adders 59, 60 and 61 have saturation characteristics. That is, the input/output characteristics of the adder are output[jl = func (Σ1nput[
il)” (1). Here, ou
tput[jl is the output signal of the j-th adder, 1np
ut[il is the i-th input signal input to the j-th adder, funcO is a sigmoid number with saturation characteristics furlc(x) = 2 / (1+ exp(
-x) ) -1 etc.

第9図に示されるように、加算器に入力される信号は、
前段の加算器の出力信号に重みを掛けたものになってい
る。即ち、 1nput[il =讐[L J]ネx[il・・・・
(2)ここに、x[:ilは前段の第i番目の加算器の
出力信号であり、%’[L Jlは前段の第i番目の加
算器の出力信号が第3番目の加算器に入力されるときに
可変重み乗算器で掛けられる重みである。
As shown in FIG. 9, the signal input to the adder is
The output signal of the adder in the previous stage is weighted. That is, 1nput[il = enemy[L J]nex[il...
(2) Here, x[:il is the output signal of the i-th adder in the previous stage, and %'[L Jl is the output signal of the i-th adder in the previous stage to the third adder. This is the weight that is multiplied by the variable weight multiplier when it is input.

従来の学習機械では、入力端子51及び52から入力さ
れる信号に応じて、教師信号発生部63が前記入力信号
に対する望ましい出力信号を教師信号として発生し、誤
差算出部64は出力端子62から出力される実際の出力
信号と前記教師信号との差から誤差Eを算出する。誤差
Eは E=0.5零ii (z[kl −t[kl) ”=E
(w)・・・・(3) で表される。ここに、2[klは出力層の第に番目の加
算器の出力信号、t[klは2[klに対する教師信号
、iは教師信号のパターン数に間する総和、ンは出力層
の加算器の数に関する総和、Wは前記可変重み乗算器の
重みのベクトル表現である。探索方向決定部65は重み
をベクトルで表現する重み空閏における誤差の最小点探
索方向を求める。探索方向は、最急降下方向であり、 で求まる。このようにして求まった探索方向をもとに、
重み変更部66は、各可変重み乗算器53.54.55
、団、57.58の重みの変更量を求め、重みを変更す
る0重みの変更量の求め方は、最急降下法及び加速法に
よるもので、 習パラメータと呼ばれる正の定数、αは加速パラメータ
と呼ばれる正の定数、ΔW”は前回の重み変更における
ΔWである。以上のように重みの変更量を求めることの
繰り返しにより、誤差を小さくしてゆき、誤差が十分に
小さくなると、出力信号が望ましい値に十分近くなった
ものとして、学習を終了する。
In the conventional learning machine, a teacher signal generator 63 generates a desired output signal for the input signal as a teacher signal in accordance with signals input from input terminals 51 and 52, and an error calculator 64 outputs a desired output signal from an output terminal 62. An error E is calculated from the difference between the actual output signal and the teacher signal. The error E is E=0.5 zeroii (z[kl −t[kl)”=E
(w)...(3) It is expressed as follows. Here, 2[kl is the output signal of the th adder in the output layer, t[kl is the teacher signal for 2[kl, i is the sum of the number of patterns of the teacher signal, and n is the output signal of the adder in the output layer. W is a vector representation of the weights of the variable weight multiplier. The search direction determination unit 65 determines the minimum point search direction of the error in the weight sky that expresses the weight as a vector. The search direction is the direction of steepest descent, and is determined by . Based on the search direction determined in this way,
The weight change unit 66 includes each variable weight multiplier 53, 54, 55.
, group, 57. Find the amount of change in the weight of 58 and change the weight. The method of finding the amount of change in 0 weight is based on the steepest descent method and the acceleration method. α is a positive constant called the Xi parameter, and α is the acceleration parameter. A positive constant called ΔW" is the ΔW at the previous weight change. By repeating the process of determining the amount of weight change as described above, the error becomes smaller, and when the error becomes sufficiently small, the output signal becomes Learning ends when the value is sufficiently close to the desired value.

発明が解決しようとする課題 しかしながら上記のような構成では、学習パラメータε
及び加速パラメータαは経験的に定められているので、
それらは必ずしも最適値ではなく、学習に要する時間が
長くなるという課題を有していた。
Problems to be Solved by the Invention However, in the above configuration, the learning parameter ε
and acceleration parameter α are determined empirically, so
These values are not necessarily optimal values, and there is a problem in that the time required for learning is long.

本発明はかかる点に鑑み、学習に要する時間の短い学習
機械を提供することを目的とする。
In view of this, an object of the present invention is to provide a learning machine that requires less time for learning.

課題を解決するための手段 本発明は、可変重み乗算器の重・みをベクトルで表現す
る重み空間における誤差の最小点探索方向を決定する探
索方向決定部と、誤差の最小点探索方向において学習パ
ラメータの値を次第に増加または減少させて誤差を求め
る学習パラメータ変化部と、誤差の最小点の近傍におけ
る誤差曲面を放物面で近似してその頂点における誤差を
求める放物面近似部と、それら誤差が最小となる点にお
ける学習パラメータを学習パラメータの最適値として各
可変重み乗算器の重みを変更する重み変更部と、前回の
誤差の最小点探索における学習パラメータの最適値を今
回の誤差の最小点探索における学習パラメータの初期値
に反映させる学習パラメータ初期化部と、前記探索方向
決定部と前記学習パラメータ初期化部と前記学習パラメ
ータ変化部と前記放物面近似部と前記重み変更部とを繰
り返し用いてと差を十分に小さくする誤差最小化回路と
を備えた学習機械である。
Means for Solving the Problems The present invention includes a search direction determination unit that determines the minimum error point search direction in a weight space that expresses the weight of a variable weight multiplier as a vector, and a search direction determination unit that determines the minimum error point search direction in the weight space that expresses the weight of a variable weight multiplier as a vector. A learning parameter changing section that calculates the error by gradually increasing or decreasing the parameter value; a paraboloid approximation section that approximates the error surface near the minimum point of the error with a paraboloid and calculates the error at the vertex; A weight change unit that changes the weight of each variable weight multiplier by using the learning parameter at the point where the error is minimum as the optimum value of the learning parameter, and a weight changing unit that changes the weight of each variable weight multiplier by using the learning parameter at the point where the error is minimum as the optimum value of the learning parameter. a learning parameter initialization unit that reflects the learning parameter in the initial value of the point search; the search direction determination unit; the learning parameter initialization unit; the learning parameter change unit; the paraboloid approximation unit; and the weight change unit. It is a learning machine equipped with an error minimization circuit that can be used repeatedly and minimize the difference sufficiently.

作用 本発明は前記した構成により、探索方向決定部で重み空
間において誤差が最小となる点の探索方向を決定した後
、学習パラメータ変化部で前記探索方向における誤差の
最小点の近傍の学習パラメータを求め、放物面近似部に
おいて誤差の最小点の近傍を放物面近似してその頂点に
おける誤差を求め、それら誤差が最小となる点を前記探
索方向における誤差最小の点として、その点における学
習パラメータを用いて重み変更部で各可変重み乗算器の
重みを変更する。次に、探索方向決定部で前記誤差最小
の点において新たに誤差最小の点の探索方向を求め、学
習パラメータ初期化部で前回の最小点探索における学習
パラメータの最適値を反映させて学習パラメータの初期
値を設定し、以下前回の誤差の最小点探索と同様に今回
の探索方向における誤差の最小点を求め重みを変更し、
誤差最小化回路によって誤差が十分に小さくなるまで誤
差最小点の探索を繰り返す。以上により、誤差の最小点
探索方向が決まるとその方向において最適な学習パラメ
ータが自動的に求まり、前回の探索における学習パラメ
ータの最適値を今回の探索の初期値に反映させることに
よって、常に最適の学習パラメータを効率良く求めなが
ら誤差を小さくして学習を進めるために、短い学習時間
で誤差が十分に小さくなり、学習を終了することができ
る。
According to the above-described configuration, the present invention determines the search direction of the point with the minimum error in the weight space in the search direction determining section, and then the learning parameter changing section changes the learning parameter near the point with the minimum error in the search direction. Then, in the paraboloid approximation section, approximate the neighborhood of the minimum error point to a paraboloid to obtain the error at the vertex, and set the point where these errors are minimum as the point with the minimum error in the search direction, and perform learning at that point. A weight change unit changes the weight of each variable weight multiplier using the parameter. Next, the search direction determination section calculates a new search direction for the point with the minimum error at the point with the minimum error, and the learning parameter initialization section reflects the optimal value of the learning parameter in the previous minimum point search to adjust the learning parameter. After setting the initial value, similarly to the previous search for the minimum error point, find the minimum error point in the current search direction and change the weight.
The error minimization circuit repeats the search for the minimum error point until the error becomes sufficiently small. As described above, once the minimum error point search direction is determined, the optimal learning parameters are automatically found in that direction, and by reflecting the optimal values of the learning parameters in the previous search in the initial values of the current search, the optimal In order to proceed with learning by reducing the error while efficiently determining the learning parameters, the error becomes sufficiently small and the learning can be completed in a short learning time.

実施例 以下に、本発明の実施例について図面を参照しながら説
明する。
Examples Examples of the present invention will be described below with reference to the drawings.

第1図は本発明の第1の実施例における学習機械の構成
図を示すものである。第1図において、■及び2は入力
端子、3.4.5.6.7及び8は可変重み乗算器、9
.10及び11は飽和入出力特性をもつ加算器、12は
出力端子、13は出力信号算出回路、14は教師信号発
生部、15は誤差算出部、I6は探索方向決定部、17
は学習パラメータ初期化部、18は学習パラメータ変化
部、19は放物面近似部、20は重み変更部、21は誤
差最小化回路である。
FIG. 1 shows a configuration diagram of a learning machine in a first embodiment of the present invention. In FIG. 1, ■ and 2 are input terminals, 3.4.5.6.7 and 8 are variable weight multipliers, and 9
.. 10 and 11 are adders with saturation input/output characteristics, 12 is an output terminal, 13 is an output signal calculation circuit, 14 is a teacher signal generation section, 15 is an error calculation section, I6 is a search direction determination section, 17
18 is a learning parameter initialization unit, 18 is a learning parameter change unit, 19 is a paraboloid approximation unit, 20 is a weight change unit, and 21 is an error minimization circuit.

第2図に可変重み乗算器の重みをベクトルで表す重み空
間における誤差曲面の等高線図を示す。
FIG. 2 shows a contour diagram of an error surface in a weight space in which the weights of the variable weight multiplier are represented by vectors.

第2図において、WE!s、j+]及びw[+pt J
2]は可変重み乗算器3.4.5.6.7及び8のうち
任意の2つの可変重み乗算器の重みである。本実施例の
学習機械の学習においては、第2図に示される誤差曲面
の出発点で表される可変重み乗算器の重みの初期値から
始めて、誤差曲面上を誤差の小さく触る方向に最小点探
索を繰り返し、誤差の大局的最小点に達することが目的
となる。可変重み乗算器3.4.5.6.7及び8は入
力信号に対して重みを掛けて出力する。加算器9.10
及び11は(1)式で表される飽和入出力特性を持つ、
出力信号算出回路13は入力端子1及び2から入力され
る人力信号の乗算及び加算によって出力信号を求める。
In Figure 2, WE! s, j+] and w[+pt J
2] are the weights of any two variable weight multipliers among variable weight multipliers 3.4.5.6.7 and 8. In the learning of the learning machine of this embodiment, starting from the initial value of the weight of the variable weight multiplier represented by the starting point of the error surface shown in FIG. The goal is to repeat the search and reach the global minimum point of error. The variable weight multipliers 3.4.5.6.7 and 8 multiply the input signals with weights and output the resultant signals. Adder 9.10
and 11 have saturation input/output characteristics expressed by equation (1),
The output signal calculation circuit 13 calculates an output signal by multiplying and adding human input signals input from input terminals 1 and 2.

教師信号発生部14は人力信号に対して望ましい出力信
号を教師信号として発生し、誤差算出部15は端子!2
から出力される実際の出力信号と前記教師信号とから(
3)式にしたがって誤差の最初の値を求める。探索方向
決定部16は可変重み乗算器の重みをベクトルで表す重
み空間における誤差の最小点探索方向を決定する。探索
方向は出発点における最急降下方向g即ち(4)式で求
められる。第3図に本実施例の初回の最小点探索におけ
る誤差最小化回路の動作説明図を示す。第3図に示す出
発点及びPIは第2図の出発点及びPiに一致しており
、第3図は第2図に示されている誤差曲面の出発点とP
Iとを結ぶ直線による断面の誤差曲線を示す。学習パラ
メータ初期化部17は、学習パラメータの初期値を、初
回の最小点探索ではεθとし、2回目以後の最小点探索
では前回の重み変更に用いた学習パラメータの値もしく
はε6のうち大きい方の値に決定し、前記学習パラメー
タの初期値に対する誤差を求める。ここにεeは正の定
数である。第3図に示す初回の最小点探索では、学習パ
ラメータの初期値はεBとなる。学習パラメータ変化部
18では、学習パラメータの初期値に対する誤差が、前
記誤差の最初の値より小さくなったときには、学習パラ
メータεの値を2倍にして誤差の値を求めるという動作
を誤差の値が増加に転するまで繰り返す。
The teacher signal generator 14 generates a desired output signal as a teacher signal for the human input signal, and the error calculator 15 outputs a terminal! 2
From the actual output signal output from and the teacher signal (
3) Find the first value of the error according to the formula. The search direction determination unit 16 determines the search direction for the minimum point of error in the weight space that represents the weight of the variable weight multiplier as a vector. The search direction is determined by the steepest descent direction g at the starting point, that is, by equation (4). FIG. 3 is an explanatory diagram of the operation of the error minimization circuit in the initial minimum point search of this embodiment. The starting point and PI shown in FIG. 3 coincide with the starting point and P i of FIG. 2, and FIG.
The error curve of the cross section by the straight line connecting I is shown. The learning parameter initialization unit 17 sets the initial value of the learning parameter to εθ in the first minimum point search, and sets the learning parameter value used for the previous weight change or ε6, whichever is larger, in the second and subsequent minimum point searches. The learning parameter is determined to have a value, and the error with respect to the initial value of the learning parameter is determined. Here, εe is a positive constant. In the first minimum point search shown in FIG. 3, the initial value of the learning parameter is εB. When the error with respect to the initial value of the learning parameter becomes smaller than the initial value of the error, the learning parameter changing unit 18 doubles the value of the learning parameter ε to obtain the error value. Repeat until it starts to increase.

即ち、 ε k  =  ε k−1ネ  2・・・・(6)と
して誤差を Eh   =  E(w   +   t  k  *
   g)・・・(7)として求める。第3図に示す初
回の最小点探索ではEs <Eorgなので学習パラメ
ータεの値を2倍にしていき、Eoro >EII>E
l > E2 (Esとなるため、学習パラメータ変化
部18はEsまで求める。なお学習パラメータの初期値
に対する誤差が、前記誤差の最初の値より増加したとき
には、学習パラメータ変化部18は学習パラメータの値
を1/2倍して誤差を求めるという動作を、誤差が前記
誤差の最初の値より小さくなるまで繰り返す。即ち、ε
に:εb−+ / 2・・・◆(8)として誤差を(7
)式で求める。放物面近似部19は、誤差最小点の近傍
を放物面で近似するもので、第3図において重み空間内
で重みの値が等間隔に変化する点での誤差を求めるため
に、まずε2.5 ” (ε2+ε3)/2 における誤差 を求める。第3図においてはE2.S < E2 < 
Es < Elなので、E2 * E2 、 s 、 
Esの3点を通る放物面で、誤差最小の点の近傍の誤差
曲面を近似し、その頂点における誤差を求める。即ち、 Ev = E(w+εv*g)・・・・(9)ただし 重み変更部20では、以上のようにして求まった誤差の
うちで最も小さい誤差に対する学習パラメータを用いて
、各可変重み乗算器の重みを変更する。
That is, ε k = ε k−1 ne 2 (6), and the error is Eh = E(w + t k *
g)...Calculate as (7). In the first minimum point search shown in Fig. 3, since Es < Eorg, the value of the learning parameter ε is doubled, and Eoro > EII > E
l > E2 (Es), so the learning parameter changing unit 18 calculates up to Es. Note that when the error with respect to the initial value of the learning parameter increases from the initial value of the error, the learning parameter changing unit 18 changes the value of the learning parameter. The operation of calculating the error by multiplying by 1/2 is repeated until the error becomes smaller than the initial value of the error. That is, ε
:εb-+/2...◆(8) and the error is (7
) is calculated using the formula. The paraboloid approximation unit 19 approximates the vicinity of the minimum error point with a paraboloid. In order to find the error at the points where the weight values change at equal intervals in the weight space in FIG. Find the error at ε2.5'' (ε2+ε3)/2. In Figure 3, E2.S < E2 <
Since Es < El, E2 * E2, s,
The error surface near the point with the minimum error is approximated by a paraboloid that passes through the three points of Es, and the error at its vertex is determined. That is, Ev = E(w+εv*g) (9) However, the weight change unit 20 uses the learning parameter for the smallest error among the errors determined as described above to change each variable weight multiplier. change the weight of

第3図ではEII E2. E2.S、 E3t Ev
のうちで最も小さい誤差であるEsに対応する学習パラ
メータε3をこの探索方向における学習パラメータの最
適値として、ε3を用いて各可変重み乗算器の重みを変
更する。
In Figure 3, EII E2. E2. S, E3t Ev
The learning parameter ε3 corresponding to Es having the smallest error among them is set as the optimum value of the learning parameter in this search direction, and the weight of each variable weight multiplier is changed using ε3.

変更された重みについて、出力信号算出回路13は出力
信号を算出し、教師信号発生部14が出力する教師信号
と出力信号との差をもとに誤差算出部15は(3)式で
与えられる誤差を算出する。初回の最小点探索の時と同
様にして、探索方向決定部16は重み空間における誤差
の最小点探索方向をPIにおける最急降下方向に決定す
る。第4図に本実施例の2回目の最小点探索における誤
差最小化回路の動作説明図を示す。第4図に示すPl及
びPlは第2図のPl及びPlに一致しており、第4図
は第2図の誤差曲面のptとPlとを結ぶ直線による断
面の誤差曲線を示す、学習パラメータ初期化部17は、
学習パラメータの初期値を、初回の最小点探索ではεB
とし、2回目以後の最小点探索では前回の重み変更に用
いた学習パラメータの値もしくはε8のうち大きい方の
値に決定し、前記学習パラメータの初期値に対する誤差
を求める。即ち、前回の学習パラメータの最適値がεB
よりも大きいときには前回の学習パラメータの最適値が
学習バラメ−タの初期値となり、前回の学習パラメータ
の最適値がεBよりも小さいときにはε8が学習パラメ
ータの初期値となる。これは前回の学習パラメータの最
適値を今回の探索における学習パラメータの初期値とす
ることにより今回の探索に最適な学習パラメータの設定
を効率良く行えるとともに、前回の学習パラメータの最
適値が小さくて、それを今回の最小点探索の学習パラメ
ータの初期値として用いると、誤差曲面の局所的最小点
から抜けられなくなることを防いでいる。第4図では、
前回の学習パラメータの最適値ε3がε8より大きいの
で、ε3を学習パラメータの初期値とする。
Regarding the changed weights, the output signal calculation circuit 13 calculates an output signal, and the error calculation unit 15 calculates the output signal based on the difference between the teacher signal outputted by the teacher signal generation unit 14 and the output signal, which is given by equation (3). Calculate the error. Similar to the first minimum point search, the search direction determining unit 16 determines the minimum point search direction of the error in the weight space to be the steepest descent direction in PI. FIG. 4 is an explanatory diagram of the operation of the error minimization circuit in the second minimum point search of this embodiment. Pl and Pl shown in Fig. 4 correspond to Pl and Pl in Fig. 2, and Fig. 4 shows the error curve of the cross section by the straight line connecting pt and Pl of the error surface in Fig. 2. The initialization unit 17
The initial value of the learning parameter is set to εB in the first minimum point search.
Then, in the second and subsequent minimum point searches, the larger value of the learning parameter value used for the previous weight change or ε8 is determined, and the error with respect to the initial value of the learning parameter is determined. That is, the optimal value of the previous learning parameter is εB
When it is larger than εB, the optimum value of the previous learning parameter becomes the initial value of the learning parameter, and when the optimum value of the previous learning parameter is smaller than εB, ε8 becomes the initial value of the learning parameter. This is because by setting the optimal value of the previous learning parameter as the initial value of the learning parameter for the current search, the optimal learning parameter for the current search can be set efficiently, and the optimal value of the previous learning parameter is small. If this is used as the initial value of the learning parameter for the current minimum point search, it is possible to prevent the local minimum point of the error surface from becoming stuck. In Figure 4,
Since the previous optimal value ε3 of the learning parameter is larger than ε8, ε3 is set as the initial value of the learning parameter.

第4図において、学習パラメータの初期値ε3に対する
誤差E3は誤差の最初の値Esより小さいので、学習パ
ラメータ変化部18は学習パラメータεの値を2倍にし
て誤差の値を求めるという動作を誤差の値が増加に転す
るまで繰り返す。第4図では、Es > E3 < E
aとなるので、Eaまで求める。放物面近似部19は誤
差最小点の近傍を放物面で近似する。
In FIG. 4, since the error E3 with respect to the initial value ε3 of the learning parameter is smaller than the initial value Es of the error, the learning parameter changing unit 18 doubles the value of the learning parameter ε to obtain the error value. Repeat until the value starts increasing. In Figure 4, Es > E3 < E
Since it becomes a, find up to Ea. The paraboloid approximation unit 19 approximates the vicinity of the minimum error point with a paraboloid.

第4図では、重み空間内で重みの値が学習パラメータの
値0.ε3.ε4で等間隔に変化しているので、これら
の点における誤差から誤差曲面を放物面近似して、その
頂点における誤差を(9)式で求める。ただし、 である。重み変更部20は、以上のようにして求まった
誤差E3. Ea、 Evのうちで最も小さい誤差Ev
に対する学習パラメータε9を2回目の探索の学習パラ
メータの最適値とし、それを用いて各可変重み乗算器の
重みを変更する。以下、誤差最小化回路21は、教師信
号発生部14と誤差算出部15と探索方向決定部16と
学習パラメータ初期化部17と学習パラメータ変化部1
8と放物面近似部19と重み変更部20とを繰り返し用
いて誤差を小さくする。この繰り返しを誤差が十分小さ
くなるまで行い、学習を終了する。
In FIG. 4, the weight value in the weight space is the learning parameter value 0. ε3. Since it changes at equal intervals with ε4, the error surface is approximated to a paraboloid from the errors at these points, and the error at the vertex is determined by equation (9). However, . The weight change unit 20 uses the error E3. The smallest error Ev among Ea and Ev
The learning parameter ε9 for the second search is set as the optimum value of the learning parameter for the second search, and is used to change the weight of each variable weight multiplier. Hereinafter, the error minimization circuit 21 includes a teacher signal generation section 14, an error calculation section 15, a search direction determination section 16, a learning parameter initialization section 17, and a learning parameter change section 1.
8, the paraboloid approximation section 19, and the weight change section 20 are repeatedly used to reduce the error. This process is repeated until the error becomes sufficiently small, and the learning is completed.

以上のように本実施例によれば、学習パラメータ初期化
部17、学習パラメータ変化部18及び放物面近似部1
9を設けることによって、誤差の最小点探索方向におけ
る学習パラメータの最適値を常に効率良く求めながら可
変重み乗算器の重みを変更していくので、誤差の最小化
を効率良く行うことができ、学習時間を短縮できる。
As described above, according to this embodiment, the learning parameter initialization section 17, the learning parameter changing section 18, and the paraboloid approximation section 1
9, the weight of the variable weight multiplier is changed while always efficiently finding the optimal value of the learning parameter in the direction of searching for the minimum point of error, so the error can be minimized efficiently, and the learning It can save time.

なお、本実施例において、探索方向決定部16は誤差の
最小点探索の方向を最急降下方向に決定したが、最小点
探索の方向を共役勾配方向にしてもよい。共役勾配方向
は、 p =g+β*p゛・・・・(12) で与えられる。ただし、gは最急降下方向でありであり
、p′は前回の最小点探索における共役勾配方向、g′
は前回の最小点探索における最急降下方向である。この
場合も初回の最小点探索方向は、最急降下方向に決定す
る。以上のように第1の実施例では、探索方向決定部1
6が誤差の最小点探索の方向を、最急降下の方向として
も、共役勾配の方向としても同様の効果が得られる。
In this embodiment, the search direction determining unit 16 determines the direction of the minimum error point search to be the steepest descent direction, but the direction of the minimum point search may be the conjugate gradient direction. The conjugate gradient direction is given by p=g+β*p゛ (12). However, g is the steepest descent direction, p' is the conjugate gradient direction in the previous minimum point search, and g'
is the steepest descent direction in the previous minimum point search. In this case as well, the initial minimum point search direction is determined to be the steepest descent direction. As described above, in the first embodiment, the search direction determining unit 1
6, the same effect can be obtained even if the direction of the search for the minimum point of error is the direction of the steepest descent or the direction of the conjugate gradient.

第5図は、本発明の第2の実施例の構成図である。第5
図において、22は最急降下方向決定部、23は学習パ
ラメータ最大値制限部、24は誤差最小化回路である。
FIG. 5 is a block diagram of a second embodiment of the present invention. Fifth
In the figure, 22 is a steepest descent direction determining section, 23 is a learning parameter maximum value limiting section, and 24 is an error minimization circuit.

本実施例においては、最急降下方向決定部22は誤差の
最小点探索方向を(4)式で表される最急降下方向に決
定する。学習のパラメータ初期化部17は、第1の実施
例と同様にして、学習パラメータの初期値を、初回の最
小点探索では8日とし、2回目以後の最小点探索では前
回の最小点探索における学習パラメータの最適値もしく
はεθのうち大きい方の値に決定し、前記学習パラメー
タの初期値に対する誤差を求める。学習パラメータ変化
部18では、学習パラメータの初期値に対する誤差が誤
差の最初の値よりも小さいときには、学習パラメータε
の値を2倍にして誤差の値を求めるという動作を誤差の
値が増加に転するまで繰り返すか、または学習パラメー
タの初期値に対する誤差が誤差の最初の値よりも増加し
たときには、学習パラメータεの値を 1/2倍にして
誤差の値を求めるという動作を誤差の値が誤差の最初の
値より小さくなるまで繰り返す。ただし、本実施例では
、学習パラメータεの値が適当な正の定数εsawを越
えても誤差が増加に転じないときには、その時点の学習
パラメータの値で各可変型み乗算器の重みを変更する。
In this embodiment, the steepest descent direction determination unit 22 determines the minimum error point search direction to be the steepest descent direction expressed by equation (4). Similarly to the first embodiment, the learning parameter initialization unit 17 sets the initial value of the learning parameter to 8 days for the first minimum point search, and sets the initial value of the learning parameter to 8 days for the second and subsequent minimum point searches. The optimum value of the learning parameter or the larger value of εθ is determined, and the error with respect to the initial value of the learning parameter is determined. In the learning parameter changing unit 18, when the error with respect to the initial value of the learning parameter is smaller than the initial value of the error, the learning parameter ε
The operation of calculating the error value by doubling the value of is repeated until the error value starts to increase, or when the error with respect to the initial value of the learning parameter increases more than the initial value of the error, the learning parameter ε The operation of multiplying the value by 1/2 to obtain the error value is repeated until the error value becomes smaller than the initial error value. However, in this embodiment, if the error does not increase even if the value of the learning parameter ε exceeds an appropriate positive constant εsaw, the weight of each variable multiplier is changed by the value of the learning parameter at that time. .

学習パラメータεの値がε、□を越えない範囲で誤差が
増加に転じた場合には、放物面近似部19及び重み変更
部20の動作は第1の実施例と同様である。本実施例で
は、誤差の最小点探索において、探索方向を最急降下方
向に決め、学習パラメータεの値が正の定数ε□8を越
えない範囲で学習パラメータを変化させる点で第1の実
施例と異なっている。第6図は本発明の第2の実施例の
効果の説明図である。第1の実施例によると、第6図に
おいて、初回の最小点探索において、出発点の最急降下
方向をもとにその探索方向における誤差最小の点を求め
ていたので、初回の最小点探索がPl′で終了し、2回
目の最小点探索がP2’で終了し、結局局所的最小点に
陥ってしまう。本実施例によれば、学習パラメータεの
値が正の定数ε11.xを越えない範囲で学習パラメー
タを変化させるので、初回の最小点探索は学習パラメー
タの最大値ε□8に対応する点P1で終了し、2回目の
最小点探索ではPLにおける最急降下方向をもとに最小
点探索方向を決定し、2回目の最小点探索は学習パラメ
ータの最大値ε、□に対応する点P2で終了する。同様
に3回目の最小点探索はP3で終了し、4回目の最小点
探索はP4で終了し、結局大局的最小点にたどり着くこ
とができる。以上のように、本実施例では、学習パラメ
ータの最大値を制限することによって、局所的最小点に
陥ることを防ぐことができる。
When the error starts to increase within a range where the value of the learning parameter ε does not exceed ε, □, the operations of the paraboloid approximation unit 19 and the weight change unit 20 are the same as in the first embodiment. In this embodiment, in the search for the minimum point of error, the search direction is determined to be the direction of steepest descent, and the learning parameter is varied within a range where the value of the learning parameter ε does not exceed a positive constant ε□8. It is different from FIG. 6 is an explanatory diagram of the effect of the second embodiment of the present invention. According to the first embodiment, in FIG. 6, in the initial minimum point search, the point with the minimum error in the search direction was found based on the steepest descent direction of the starting point, so the initial minimum point search was performed. The search ends at Pl', and the second minimum point search ends at P2', resulting in a local minimum point. According to this embodiment, the value of the learning parameter ε is a positive constant ε11. Since the learning parameters are changed within a range that does not exceed Then, the minimum point search direction is determined, and the second minimum point search ends at a point P2 corresponding to the maximum values ε and □ of the learning parameters. Similarly, the third minimum point search ends at P3, the fourth minimum point search ends at P4, and eventually the global minimum point can be reached. As described above, in this embodiment, by limiting the maximum value of the learning parameter, falling into a local minimum point can be prevented.

第7図は本発明の第3の実施例の構成図である。FIG. 7 is a block diagram of a third embodiment of the present invention.

第7図において、25は探索方向決定部、26は最急降
下方向決定部、27は誤差最小化回路である。本実施例
においては、探索方向決定部25は誤差の最小点探索方
向を初回の探索では(4)式で表される最急降下方向に
決定し、2回目以後の探索では(lコ)式で表される共
役勾配方向に決定する。学習のパラメータ初期化部17
は、第1及び第2の実施例と同様にして、学習パラメー
タの初期値を、初回の最小点探索ではε日とし、2回目
以後の最小点探索では前回の最小点探索における学習パ
ラメータの最適値もしくはε8のうち大きい方の値に決
定し、前記学習パラメータの初期値に対する誤差を求め
る。学習パラメータ変化部18では、学習パラメータの
初期値に対する誤差が誤差の最初の値よりも小さいとき
には、学習パラメータεの値を2倍にして誤差の値を求
めるという動作を誤差の値が増加に転するまで繰り返す
か、または学習パラメータの初期値に対する誤差が誤差
の最初の値よりも増加したときには、学習パラメータε
の値を1/2倍にして誤差の値を求めるという動作を誤
差の値が誤差の最初の値より小さくなるまで繰り返す。
In FIG. 7, 25 is a search direction determining section, 26 is a steepest descent direction determining section, and 27 is an error minimization circuit. In this embodiment, the search direction determination unit 25 determines the minimum error search direction to be the direction of steepest descent expressed by equation (4) in the first search, and in the second and subsequent searches by equation (l). Determine the expressed conjugate gradient direction. Learning parameter initialization unit 17
Similarly to the first and second embodiments, the initial value of the learning parameter is set to ε day in the first minimum point search, and the optimum value of the learning parameter in the previous minimum point search is set in the second and subsequent minimum point searches. or ε8, whichever is larger, and find the error with respect to the initial value of the learning parameter. When the error with respect to the initial value of the learning parameter is smaller than the initial value of the error, the learning parameter change unit 18 changes the operation of doubling the value of the learning parameter ε to obtain the error value so that the error value increases. The learning parameter ε is repeated until the learning parameter ε
The operation of multiplying the value by 1/2 to obtain the error value is repeated until the error value becomes smaller than the initial error value.

ただし、本実施例では、学習パラメータεの値を、適当
な正の定数ε1nより小さくしても誤差の値が誤差の最
初の値よりも小さくならないときには、最小点探索方向
を共役勾配方向から最急降下方向に切り替える。放物面
近似部19及び重み変更部20の動作は第1の実施例と
同様である。
However, in this embodiment, if the value of the error does not become smaller than the initial value of the error even if the value of the learning parameter ε is made smaller than an appropriate positive constant ε1n, the minimum point search direction is changed from the conjugate gradient direction to the maximum value. Switch to steep descent direction. The operations of the paraboloid approximation section 19 and the weight change section 20 are similar to those in the first embodiment.

本実施例では、2回目以後の誤差の最小点探索において
、探索方向を共役勾配方向に決め、学習パラメータεの
値が正の定数ε1nより小さくならない範囲で学習パラ
メータを変化させる点で第1の実施例と異なっている。
In this example, in the second and subsequent searches for the minimum point of error, the search direction is determined to be the conjugate gradient direction, and the first point is that the learning parameter is changed within a range where the value of the learning parameter ε does not become smaller than the positive constant ε1n. This is different from the example.

第8図は本発明の第3の実施例の効果の説明図である。FIG. 8 is an explanatory diagram of the effect of the third embodiment of the present invention.

第1の実施例によると、第8図において、初回の最小点
探索において、出発点の最急降下方向をもとにその探索
方向における誤差最小の点を求めて、初回の最小点探索
がPIで終了し、2回目の最小点探索はPiにおける共
役勾配方向を探索方向としてその方向で誤差が最小とな
る点を求めていたので、2回目の探索はP2’で終了し
ていた。本実施例によれば、学習パラメータεの値が正
の定数ε1.、lより小さくならない範囲で学習パラメ
ータを変化させるので、2回目の最小点探索において学
習パラメータεの値をε□。より小さくしても誤差が誤
差の最初の値より小さくならない場合には、共役勾配方
向の探索を打ち切り、探索方向を最急降下方向に切り替
え、2回目の最小点探索はP2で終了する。以1のよう
に、本実施例では、共役勾配方向に対する学習パラメー
タの値の最小値を制限し、それより小さくなるときには
探索方向を最急降下方向に切り替えることにより、大局
的最小点に効率良くたどり着くことができる。
According to the first embodiment, in FIG. 8, in the initial minimum point search, the point with the minimum error in the search direction is found based on the steepest descent direction of the starting point, and the initial minimum point search is performed at PI. The second minimum point search ended at P2' because the conjugate gradient direction in Pi was used as the search direction to find the point where the error was minimum in that direction. According to this embodiment, the value of the learning parameter ε is a positive constant ε1. , l. Therefore, in the second minimum point search, the value of the learning parameter ε is set to ε□. If the error does not become smaller than the initial value of the error even if it is made smaller, the search in the conjugate gradient direction is discontinued, the search direction is switched to the steepest descent direction, and the second minimum point search ends at P2. As described in 1 above, in this example, the minimum value of the learning parameter in the conjugate gradient direction is limited, and when the value becomes smaller than that, the search direction is switched to the direction of steepest descent, thereby efficiently reaching the global minimum point. be able to.

発明の詳細 な説明したように、本発明によれば、誤差の最小点探索
方向における学習パラメータの最適値を常に効率良く求
めながら可変重み乗算器の重みを変更していくので、誤
差の最小化を効率良く行うことができ、学習機械の学習
に要する時閉を短縮でき、その実用的効果は大きい。
As described in detail, according to the present invention, the weight of the variable weight multiplier is changed while always efficiently finding the optimal value of the learning parameter in the direction of searching for the minimum point of error, thereby minimizing the error. can be performed efficiently, and the time required for learning of a learning machine can be shortened, which has a great practical effect.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明における第1の実施例の学習機械のブロ
ック図、第2図は重み空間における誤差曲面の等高線図
、第3図は同実施例の初回の最小点探索における誤差最
小化回路の動作説明図、第4図は同実施例の初回の最小
点探索における誤差最小化回路の動作説明図、第5図は
本発明の第2の実施例の学習機械のブロック図、第6図
は同実施例の効果の説明図、第7図は本発明の第3の実
施例の学習機械のブロック図、第8図は同実施例の効果
の説明図、第9図は従来の学習機械のブロック図、第1
O図は加算器の入出力特性図である。 3.4.5.6.7.8・・・・可変重み乗算器、9.
1O111・・・・加算器、】4・・・・教師信号発生
部、I5・・・・誤差算出部、16.25・・・・探索
方向決定部、17・・・・学習パラメータ初期化部、1
8・・・・学習パラメータ変化部、19・・・・放物面
近似部、20・・・・重み変更部、n、26・・・・最
急降下方向決定部、23・・・・学習パラメータ最大値
制限部。 代理人の氏名 弁理士 粟野重孝はか1名1図 第3図 2図 第4図 IME L(r J 11 TQ/i″ζV“t 第 図 第 図 第 図 第 図
Fig. 1 is a block diagram of a learning machine according to a first embodiment of the present invention, Fig. 2 is a contour diagram of an error surface in a weight space, and Fig. 3 is an error minimization circuit in the first minimum point search of the same embodiment. FIG. 4 is an explanatory diagram of the operation of the error minimization circuit in the first minimum point search of the same embodiment. FIG. 5 is a block diagram of the learning machine of the second embodiment of the present invention. is an explanatory diagram of the effect of the same embodiment, FIG. 7 is a block diagram of a learning machine according to the third embodiment of the present invention, FIG. 8 is an explanatory diagram of the effect of the same embodiment, and FIG. 9 is a conventional learning machine. Block diagram, 1st
Figure O is an input/output characteristic diagram of the adder. 3.4.5.6.7.8...Variable weight multiplier, 9.
1O111...Adder, ]4...Teacher signal generation unit, I5...Error calculation unit, 16.25...Search direction determination unit, 17...Learning parameter initialization unit ,1
8... Learning parameter changing unit, 19... Paraboloid approximation unit, 20... Weight changing unit, n, 26... Steepest descent direction determining unit, 23... Learning parameter Maximum limit part. Name of agent Patent attorney Shigetaka Awano 1 person 1 Figure 3 Figure 2 Figure 4 IME L(r J 11 TQ/i″ζV”t Figure

Claims (3)

【特許請求の範囲】[Claims] (1)飽和入出力特性を持つ多入力一出力の加算器を各
層の前記加算器が次段の層の前記加算器と可変重み乗算
器を介して階層状に接続した出力信号算出回路と、入力
信号が入るたびに出力層の前記加算器の出力信号の望ま
しい値として教師信号を与える教師信号発生部と、出力
信号と前記教師信号との誤差を求める誤差算出部と、前
記可変重み乗算器の重みをベクトルで表現する重み空間
における前記誤差の最小点探索方向を決定する探索方向
決定部と、前記誤差の最小点探索方向において学習パラ
メータの値を次第に増加または減少させて前記誤差を求
める学習パラメータ変化部と、前記誤差の最小点の近傍
における誤差曲面を放物面で近似してその頂点における
誤差を求める放物面近似部と、それら誤差が最小となる
点における学習パラメータを学習パラメータの最適値と
して各可変重み乗算器の重みを変更する重み変更部と、
前回の前記誤差の最小点探索における学習パラメータの
最適値を今回の前記誤差の最小点探索における学習パラ
メータの初期値に反映させる学習パラメータ初期化部と
、前記教師信号発生部と前記誤差算出部と前記探索方向
決定部と前記学習パラメータ初期化部と前記学習パラメ
ータ変化部と前記放物面近似部と前記重み変更部とを繰
り返し用いて前記誤差を十分に小さくする誤差最小化回
路とを備えたことを特徴とする学習機械。
(1) an output signal calculation circuit in which multi-input one-output adders having saturation input/output characteristics are connected in a hierarchical manner, with the adder in each layer connected to the adder in the next layer via a variable weight multiplier; a teacher signal generator that provides a teacher signal as a desired value of the output signal of the adder in the output layer each time an input signal is input; an error calculator that calculates an error between the output signal and the teacher signal; and the variable weight multiplier. a search direction determination unit that determines a search direction for the minimum point of error in a weight space that expresses the weight of as a vector; and learning that determines the error by gradually increasing or decreasing the value of a learning parameter in the direction of searching for the minimum point of error. a parameter changing section, a paraboloid approximation section that approximates the error surface in the vicinity of the minimum error point with a paraboloid and calculates the error at the vertex, and a paraboloid approximation section that calculates the error at the point where the error is minimum. a weight changing unit that changes the weight of each variable weight multiplier as an optimal value;
a learning parameter initialization unit that reflects an optimal value of a learning parameter in the previous search for the minimum point of error to an initial value of the learning parameter in the current search for the minimum point of error; the teacher signal generation unit; and the error calculation unit; an error minimization circuit that repeatedly uses the search direction determining unit, the learning parameter initializing unit, the learning parameter changing unit, the paraboloid approximation unit, and the weight changing unit to sufficiently reduce the error. A learning machine characterized by:
(2)可変重み乗算器の重みをベクトルで表現する重み
空間における前記誤差の最小点探索方向を最急降下方向
に決定する最急降下方向決定部と、学習パラメータの最
大値を制限する学習パラメータ最大値制限部とを備えた
ことを特徴とする請求項1記載の学習機械。
(2) A steepest descent direction determining unit that determines the minimum point search direction of the error in a weight space that expresses the weight of the variable weight multiplier as a vector as the steepest descent direction, and a learning parameter maximum value that limits the maximum value of the learning parameter. The learning machine according to claim 1, further comprising a restriction section.
(3)可変重み乗算器の重みをベクトルで表現する重み
空間における前記誤差の最小点探索方向を共役勾配方向
に決定する共役勾配方向決定部と、学習パラメータをあ
る値より小さくしても誤差が減少しないときには最急降
下方向を前記誤差の最小点探索の方向とする探索方向変
更部とを備えたことを特徴とする請求項1記載の学習機
械。
(3) A conjugate gradient direction determining unit that determines the minimum point search direction of the error in the weight space that expresses the weight of the variable weight multiplier as a vector in the conjugate gradient direction; 2. The learning machine according to claim 1, further comprising: a search direction changing unit which sets the steepest descent direction as the direction for searching for the minimum point of the error when the error does not decrease.
JP1043730A 1989-02-23 1989-02-23 Learning machine Expired - Fee Related JPH0736184B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP1043730A JPH0736184B2 (en) 1989-02-23 1989-02-23 Learning machine
EP93202797A EP0579341A2 (en) 1989-02-23 1990-02-20 Learning machine with multi-input single output circuits connected in hierarchical structure
US07/481,330 US5168550A (en) 1989-02-23 1990-02-20 Neutral network with plural weight calculation methods and variation of plural learning parameters
DE69027874T DE69027874T2 (en) 1989-02-23 1990-02-20 Learning machine with multiple input-input circuits connected in a hierarchical structure
EP90301825A EP0385637B1 (en) 1989-02-23 1990-02-20 Learning machine with multi-input single output circuits connected in hierarchical structure
KR1019900002309A KR920006792B1 (en) 1989-02-23 1990-02-23 A learning machine having connection of layered multi input-output circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1043730A JPH0736184B2 (en) 1989-02-23 1989-02-23 Learning machine

Publications (2)

Publication Number Publication Date
JPH02222061A true JPH02222061A (en) 1990-09-04
JPH0736184B2 JPH0736184B2 (en) 1995-04-19

Family

ID=12671900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1043730A Expired - Fee Related JPH0736184B2 (en) 1989-02-23 1989-02-23 Learning machine

Country Status (1)

Country Link
JP (1) JPH0736184B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5390284A (en) * 1991-06-27 1995-02-14 Hitachi, Ltd. Learning method and apparatus for neural networks and simulator with neural network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5390284A (en) * 1991-06-27 1995-02-14 Hitachi, Ltd. Learning method and apparatus for neural networks and simulator with neural network

Also Published As

Publication number Publication date
JPH0736184B2 (en) 1995-04-19

Similar Documents

Publication Publication Date Title
Horner et al. Machine tongues XVI: Genetic algorithms and their application to FM matching synthesis
CN109784486B (en) Optical neural network processor and training method thereof
JPH0713949A (en) Neural network and its usage method
JPH08297716A (en) Adaptive weight adjusting circuit for neural network
CN111740575B (en) Inverter model parameter self-adaptive identification method based on steepest descent method
JPH04114263A (en) Learning machine
JPH02222061A (en) Learning machine
KR920006792B1 (en) A learning machine having connection of layered multi input-output circuit
JPH03247005A (en) Antenna system
Ardhenta et al. Adaptive control for buck converter in hybrid power system based on DMRAC method
JPH0451384A (en) Neural network and its construction method
JPWO2020247138A5 (en)
JPH03253966A (en) Neural network learning circuit
Kumar et al. Performance comparison of SVPWM and ANN based SVPWM technique for power quality improvement
Ghanayem et al. Excitation control of a synchronous generator using an online adaptive fuzzy logic controller structure
CN115951364B (en) Method for improving positioning accuracy of piezoelectric type rapid steering mirror platform
CN111669050B (en) Compensation method and device for Buck circuit and Buck circuit
JPH0644207A (en) Neural network and its constituting method
JPH06295292A (en) Learning recognition device
CN117200707A (en) Direct digital frequency synthesizer based on RBF neural network optimized by stages
Diaconu et al. Using Optimal Filters for Plug-in Type Repetitive Controllers for Periodic Inputs
Mamdoh Abdulatef et al. Improved LMS Performance for System Identification Application
JPH0367358A (en) Learning machine
CN116488202A (en) Wind power system oscillation source positioning method and device based on VSC converter
JPH0421155A (en) Learning machine

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees