JPH0424756A - Learning machine - Google Patents

Learning machine

Info

Publication number
JPH0424756A
JPH0424756A JP2125017A JP12501790A JPH0424756A JP H0424756 A JPH0424756 A JP H0424756A JP 2125017 A JP2125017 A JP 2125017A JP 12501790 A JP12501790 A JP 12501790A JP H0424756 A JPH0424756 A JP H0424756A
Authority
JP
Japan
Prior art keywords
output
weight change
learning
weight
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2125017A
Other languages
Japanese (ja)
Inventor
Shigeo Sakagami
茂生 阪上
Toshiyuki Koda
敏行 香田
〆木 泰治
Taiji Shimeki
Hideyuki Takagi
英行 高木
Hayato Togawa
戸川 隼人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2125017A priority Critical patent/JPH0424756A/en
Publication of JPH0424756A publication Critical patent/JPH0424756A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To reduce the learning time of a learning machine by dynamically selecting weight change direction from plural directions and changing the weight, and dynamically setting a learning parameter and an acceleration parameter where the error becomes the least. CONSTITUTION:An input signal is weighted and added at a hidden layer 22 and an output layer 22, an output signal is obtained by executing a non-linear processing, and the change direction of the weigh is decided at a weight change direction decision part to minimize the error between a desirable output signal outputted by an instruction signal generation part 13 and the output signal of the output layer. After that, the weight change amount to the plural learning parameter is obtained by a straight line location part 67, and while checking whether the learning is not in an inefficient state by an unsuitable learning state detection part, each weight is changed by adding a fixed amount times the weight change amount of the last time to the weight change amount to the learning parameter with the minimum error obtained by the straight line location part 67 at a weight change part 65. Thus, the error is made sufficiently small by repeating to the change direction of the weight. Thus, the error becomes sufficiently small in a short learning time, and the learning is ended.

Description

【発明の詳細な説明】 産業上の利用分野 本発明はデータ処理装置の学習機械に関するものである
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a learning machine for a data processing device.

従来の技術 従来の学習機械として4L  例えばり、 E、ランメ
ルハート(Rummelhart)らによる”ラーニン
グゝ リフ0リセ9ンテーシ式ンス1 へゝイ へ′ア
クア°ロへ°ケ′−ディンク’xラース’  (Lea
rning  representatlons  b
y  back−propagating  erro
rs)’、  ネイチャー(Nature) Vol、
323 No、9(1986)に示されている。第1O
図は従来の学習機械の一般的構成図を示すものであり、
201.202は入力端子、217は学習同区 21&
  219. 220は多入力−出力回肱221は出力
層222は隠れ層である。第10図に示されるよう番ミ
  学習機械は各人カー8力回路を階層状に接続した構
成によって、入力端子から入力された信号を処理して、
出力端子から出力する。このようへ 階層状に接続され
た多入力−出力回路のう板 出力信号を出力する多入力
−出力回路から成る層を出力層と呼び、それ以外の多入
力−出力回路から成る層を隠れ層と呼、G%  隠れ層
は 一つの層をなす多入力−出力回路によって構成され
ても良いし 複数の層をなす多入力−出力回路によって
構成されても良−一 第11図に従来の学習機械の構成図を示す。第11図に
おいて、201.202は入力端子、203. 204
. 205、20a、 207. 208は可変重み乗
算器 20宍 21o。
Conventional technology As a conventional learning machine, 4L, for example, "Learning" by E. Rummelhart et al. '(Lea
rning representativeons b
y back-propagating erro
rs)', Nature Vol.
323 No. 9 (1986). 1st O
The figure shows a general configuration diagram of a conventional learning machine.
201.202 are input terminals, 217 is the same learning area 21&
219. 220 is a multi-input-output circuit 221 is an output layer 222 is a hidden layer. As shown in Figure 10, the learning machine processes signals input from the input terminals using a configuration in which eight power circuits are connected in a hierarchical manner.
Output from the output terminal. In this way, a board of multi-input-output circuits connected in a hierarchical manner.The layer consisting of multi-input-output circuits that output output signals is called the output layer, and the other layers consisting of multi-input-output circuits are hidden layers. The hidden layer may be composed of multiple input-output circuits forming one layer, or may be composed of multiple input-output circuits forming multiple layers. Figure 11 shows the conventional learning method. The configuration diagram of the machine is shown. In FIG. 11, 201.202 are input terminals, 203. 204
.. 205, 20a, 207. 208 is a variable weight multiplier 20 and 21o.

211は飽和入出力特性を持つ加算器212は出力端子
、213は教師信号発生部214は誤差算出部215は
最急降下方向決定部216は重み変更a217は学習同
区 218.219.220は多入力−出力同区 22
1は出力@  222は隠れ層であも 第11図に示さ
れるよう圏 多入力−出力回路218.219および2
20は可変重み乗算器と飽和入出力特性を持つ加算器か
らなっていム 即板 第j番目の多入力−出力回路の出
力信号は y[jコ − fnc(Σ(W[lT  jコ 零 y
[iコ))−−−・(1)で表されa ここE  y[
x]は前段の層の第1番目の多入力−出力回路の出力信
号であり、w[i、 j]は前段の層の第1番目の多入
力−出力回路の出力信号が第j番目の多入力−出力回路
に人力される時に掛けられる重みである。fncOは飽
和特性を持つ関数でシグモイド関数 等で表される。
211 is an output terminal of an adder 212 having saturation input/output characteristics, 213 is a teacher signal generation section 214, an error calculation section 215, a steepest descent direction determining section 216 is a weight change a 217 is a learning same section, 218.219.220 is a multi-input terminal -Output same area 22
1 is the output @ 222 is the hidden layer Multi-input-output circuit 218, 219 and 2 as shown in Figure 11
20 consists of a variable weight multiplier and an adder with saturation input/output characteristics. Immediately, the output signal of the j-th multi-input-output circuit is y[j co - fnc(Σ(W[lT j co zero y
[i ko))-----(1) is expressed as a here E y[
x] is the output signal of the first multi-input-output circuit in the previous layer, and w[i, j] is the output signal of the first multi-input-output circuit in the previous layer. This is the weight applied when manually inputting data to a multi-input-output circuit. fncO is a function with saturation characteristics and is expressed as a sigmoid function or the like.

第12図級 前記のfncOで表されゑ 飽和入出力特
性を持つ加算器20Q、  210及び211の特性関
数のグラフを示す。学習機械は このような多入力−出
力回路を階層状に接続した構成になっており、学習にお
いては 入力信号に対して望ましい出力信号(以下、教
師信号と呼ぶ)を出力するように可変重み乗算器203
.204.205.206.207および208で掛け
られる重みを変更する。重みの変更量を求めるために 
まず教師信号と出力層の出力信号とか収 誤差 =  E  (w)  ・・・・(2)を求める。ここ
GQ  ya[J]は第9番目の入力信号に対する出力
層の第j番目の多入力−出力回路の出力信号ts[j]
はye[j]に対する教師信号 Σは全ての教師信号に
関する総祖 Σは出力層の全ての」 多入力−出力回路に関する総租 Wは重みw[i。
FIG. 12 shows a graph of the characteristic function of the adders 20Q, 210, and 211 having saturation input/output characteristics expressed by fncO. A learning machine has a structure in which multiple input-output circuits like this are connected in a hierarchical manner, and during learning, variable weight multiplication is performed to output a desired output signal (hereinafter referred to as a teacher signal) for the input signal. Vessel 203
.. 204.205.206.207 and 208 are changed. To find the amount of weight change
First, find the teacher signal, the output signal of the output layer, and the convergence error = E (w) (2). Here, GQ ya[J] is the output signal ts[j] of the j-th multi-input-output circuit of the output layer for the 9th input signal.
is the teacher signal for ye[j] Σ is the general rule for all the teacher signals Σ is the general rule for all the teacher signals in the output layer General summary for multi-input-output circuits W is the weight w[i.

j]を成分とするベクトル(以下Wを重みベクトルと呼
ぶ)であム(2)式で示されるように誤差Eは教師信号
と出力層の出力信号との差の2乗和で表され 重みベク
トルWの関数となム 学習では重みを変更し 教師信号
と実際の出力信号との基即ち誤差を最小化すも 重みの
変更量はE △ W  −−ε  零           +  
α  本  Δ W ° ・ ・・・(3)&W によって決定されも ここで、 εは学習パラメータと
呼ばれる正の定数 αはモーメンタムと呼ばれる正の定
数であり、 W (2)式で表される誤差Eの重みw[i、 j]による
微分を成分とするベクトルで、最急降下方向と呼ばれる
。ΔW′ζよ 前回の学習における重み変更量のベクト
ル表現である。
j] (hereinafter W is called a weight vector). As shown in equation (2), the error E is expressed as the sum of squares of the difference between the teacher signal and the output signal of the output layer. In learning, the weight is changed to minimize the base, or error, between the teacher signal and the actual output signal, but the amount of weight change is E △ W −−ε 0 +
α book Δ W ° ... (3) & W where ε is a positive constant called learning parameter α is a positive constant called momentum, and W is the error expressed by equation (2). A vector whose component is the differential of E by the weight w[i, j], and is called the direction of steepest descent. ΔW′ζ This is a vector representation of the amount of weight change in the previous learning.

第13図へ この従来の学習機械の学習回路217の構
成図を示す。第13図において、223は出力層出力の
入力端子、224は隠れ層出力の入力端子、225は入
力信号の入力端子、226は出力層の重みの出力端子、
227は隠れ層の重みの出力端子である。従来の学習機
械の学習回路217では 教師信号発生部213が入力
信号に対する教師信号(望ましい出力信号)to[j]
を発生する。誤差算出部214i上  教師信号L[j
]と出力層の出力信号y−[j]とか収(2)式で表さ
れる誤差Eを算出する。誤差算出部214は重みの変更
のために必要な教師信号と出力信号との差信号 te[j]  −ya[j] を、最急降下方向決定部215に出力する。最急降下方
向決定部215は前記差信号、出力層出力信号、隠れ層
比力信号 人力信号及び出力層の重みをもとに 重みを
ベクトルで表現する重み空間における誤差Eへ 最急降
下方向を求める。最急降下方向(よ で求まる。 (4)式の右辺(よ 誤差Eの重みによる
微分のベクトル表現であム 最急降下方向決定部215
4&  最急降下方向に学習パラメータを掛けて、重み
変更部216に出力する。重み変更部216は(3)式
によって重み変更量を求数 各可変型み乗算器203、
 204.205. 20a、  207および208
で掛ける重みを変更すム 以上のように最急降下法によ
って重みの変更量を求めることの繰り返しにより、誤差
を小さくしてゆき、誤差が十分に小さくなると、出力信
号が望ましい値に十分近くなったものとして、学習を終
了する。
13 shows a configuration diagram of the learning circuit 217 of this conventional learning machine. In FIG. 13, 223 is an input terminal for output layer output, 224 is an input terminal for hidden layer output, 225 is an input terminal for input signals, 226 is an output terminal for output layer weights,
227 is an output terminal for hidden layer weights. In the learning circuit 217 of the conventional learning machine, the teacher signal generator 213 generates the teacher signal (desired output signal) to[j] for the input signal.
occurs. On the error calculation unit 214i Teacher signal L[j
] and the output signal y-[j] of the output layer, and the error E expressed by equation (2) is calculated. The error calculation unit 214 outputs a difference signal te[j] −ya[j] between the teacher signal and the output signal necessary for changing the weight to the steepest descent direction determining unit 215. The steepest descent direction determination unit 215 determines the steepest descent direction to the error E in the weight space expressing the weights as vectors based on the difference signal, the output layer output signal, the hidden layer specific force signal, the human input signal, and the weight of the output layer. The steepest descent direction is determined by the right side of equation (4), which is a vector expression of the differential by the weight of the error E.
4 & Multiply the direction of steepest descent by the learning parameter and output to the weight changing unit 216. The weight change unit 216 calculates the weight change amount using equation (3). Each variable type multiplier 203,
204.205. 20a, 207 and 208
As described above, by repeatedly calculating the amount of weight change using the steepest descent method, the error becomes smaller, and when the error becomes small enough, the output signal becomes sufficiently close to the desired value. As a matter of fact, the study is completed.

第14図に 従来の学習機械の学習回路217の詳細ブ
ロック図を示す。第14図において、228は学習終了
判定K  229及び230は微係数算出訊231は出
力層微係数記憶部232はδ記憶部233はδ*Wバッ
ファ、234は隠れ層微係数記憶服235は入力信号記
憶ff1L  23a、  237.23&  239
及び240は乗算器241.24乙 243及び244
は加算器 245及び246は学習パラメータ乗算器2
47は出力層の重み記憶部248は隠れ層の重み記憶部
である。第14図を用いて、以下に学習回路217の動
作を詳細に説明する。最急降下方向決定部215が出力
する重み変更量はで表されも ここにw[i、 j]は
第3番目の多入力−出力回路に入力される前段の層の第
i番目の多入力−出力回路の出力信号に掛けられる重へ
 6w、[i、 j]はw[i、 j]の最急降下方向
に関する変更量、 εは学習パラメータである。 (5
)式は変形されて ・・・・(6) ただし nets[jコ − Σ(w[i、  jコ 本 yo
[xコ)であり、ys[i]は第9番目の人力信号に対
する前段の層の第i番目の多入力−出力回路の出力信号
である。(6)式はさらに変形されて △ws[i、  j]  =  ε  本 Σ (δ 
w*[j コ 本 yo[i]) ・・(7)ただし となも 以下、式の変形(よ 第3番目の多入力−出力
回路が出力層にあるときと、第3番目の多入力−出力回
路が隠れ層にあるときとで異なる。
FIG. 14 shows a detailed block diagram of the learning circuit 217 of a conventional learning machine. In FIG. 14, 228 is a learning completion determination K, 229 and 230 are differential coefficient calculation units, 231 is an output layer differential coefficient storage unit 232, a δ storage unit 233 is a δ*W buffer, and 234 is a hidden layer differential coefficient storage unit 235 is an input Signal memory ff1L 23a, 237.23 & 239
and 240 are multipliers 241.24 and 243 and 244
is an adder 245 and 246 are learning parameter multipliers 2
Reference numeral 47 denotes an output layer weight storage section 248 that is a hidden layer weight storage section. The operation of the learning circuit 217 will be explained in detail below using FIG. 14. The amount of weight change output by the steepest descent direction determination unit 215 is expressed as where w[i, j] is the third multi-input - the i-th multi-input of the previous layer input to the output circuit - The weight applied to the output signal of the output circuit is 6w, [i, j] is the amount of change in the direction of steepest descent of w[i, j], and ε is a learning parameter. (5
) expression is transformed...(6) where nets[j ko − Σ(w[i, j ko book yo
[x], and ys[i] is the output signal of the i-th multi-input-output circuit in the previous layer for the ninth human input signal. Equation (6) is further modified as △ws[i, j] = ε book Σ (δ
w*[j komoto yo[i]) ... (7) However, below is a modification of the equation (yo) When the third multi-input-output circuit is in the output layer, and when the third multi-input -Different when the output circuit is in the hidden layer.

・第3番目の多入力−出力回路が出力層にある時で表さ
れも ただしfnc(netp [j ])は出力層の
各多入力−出力回路の特性関数(= yp[j] )で
あも(2)式を用いて、この式はさらに変形されて、結
局・・・・(9) と表すことができも 第14図において、加算器241
が(9)式における(tp[j ]−yo[jコ)を計
算し 微係数係数記憶部231を介して、乗算器236
でが計算される。この値はδwp[j]なのでδ記憶部
232に記憶される。乗算器237でδW、cj:]と
隠れ層出力y、[i]との積を束数 乗算器245で学
習パラメータεを掛けて、(7)式で表される△w+[
i、j]を求めも(7)式の△wa[i、 j]に前回
の学習における重み変更量のα倍を加算して、(3)式
で表される重み変更量△w[i、j]を求へ 加算器2
43で変更前の重みとの和を求数 出力層の重み記憶部
247に記憶されている出力層の重みを変更すム ・第3番目の多入力−出力回路が隠れ層にある時6w 
s[jコ BE δnets [J ] で表されも ただし neto[kl−Σ(w[j、 kl 本y−[jl)
で、w[j、 klは第3番目の多入力−出力回路の出
力y*[jlが次段の層の多入力−出力回路に人力され
る時に掛けられる重みである。 (8)式を用t1で、
この式はさらに変形されて、結局 ・・・・(10) となる。第14図において、乗算器238力くδ記憶部
232の出力δwe[klと出力層の重みw[j、kl
との積を求ぬ δ*Wバッファ233と加算器242に
よってΣ(δw=[k]京w[j、kl)を求める。微
係数算出部23微係数記憶部234を介して乗算器23
9に入力され前記Σ(δw=[k]本w [j、 kl
)との積より(10)式のδwo[jlが求められも 
乗算器240で入力信号yp[i]と掛法 乗算器24
6で学習パラメータεとの積を求敢(ア)式で表される
△wJi、j]を求める。(7)式の△w a [i 
、 jlに前回の学習における重み変更量のα倍を加算
して、(3)式で表される重み変更量ΔW[i、jlを
束数 加算器244で変更前の重みとの和を束数 隠れ
層の重み記憶部248に記憶されている隠れ層の重みを
変更する。
・It can be expressed as when the third multi-input-output circuit is in the output layer. However, fnc(netp[j]) is the characteristic function (= yp[j]) of each multi-input-output circuit in the output layer. Using equation (2), this equation can be further transformed and finally expressed as (9).In FIG. 14, the adder 241
calculates (tp[j]-yo[j) in equation (9),
is calculated. Since this value is δwp[j], it is stored in the δ storage unit 232. The multiplier 237 multiplies the product of δW, cj: ] and the hidden layer output y, [i] by the bundle number. The multiplier 245 multiplies the learning parameter ε to obtain Δw+[
i, j] is calculated by adding α times the weight change amount in the previous learning to △wa[i, j] in equation (7) to obtain the weight change amount △w[i , j] Adder 2
Calculate the sum with the weight before change in 43. Change the output layer weight stored in the output layer weight storage unit 247. 6w when the third multi-input-output circuit is in the hidden layer.
s[j BE δnets [J] However, neto[kl−Σ(w[j, kl y−[jl)
Here, w[j, kl is the weight applied when the output y*[jl of the third multi-input-output circuit is input to the multi-input-output circuit in the next layer. Using equation (8), at t1,
This equation is further transformed and becomes...(10). In FIG. 14, the multiplier 238 outputs the output δwe[kl of the δ storage unit 232 and the output layer weight w[j, kl
Find the product of δ*W buffer 233 and adder 242 to find Σ(δw=[k]kyo w[j, kl). The multiplier 23 via the differential coefficient calculation unit 23 and the differential coefficient storage unit 234
9 and said Σ(δw=[k] books w [j, kl
) can be used to find δwo[jl in equation (10).
The multiplier 240 multiplies the input signal yp[i] and the multiplier 24
In step 6, △wJi,j], which is expressed by the equation (a), is obtained by multiplying the learning parameter ε by the equation (A). △w a [i
, jl is multiplied by α times the weight change amount in the previous learning, and the weight change amount ΔW [i, jl is a bundle number expressed by equation (3). Number Changes the hidden layer weight stored in the hidden layer weight storage unit 248.

以上のように 出力層の出力信号と教師信号との誤差を
減らすために 出力信号と教師信号との差信号か収 ま
ず出力層の重みの変更量を求へ出力層側から入力端に向
かって順次重みの変更量を求める。この学習アルゴリズ
ムは誤差逆伝搬法と呼ばれも 発明が解決しようとする課題 しかしながら上記のような構成では 学習パラメータε
は経験的に定められるかもしくは試行錯誤で求められた
固定の値が用いられているので、それらは必ずしも最適
値ではなく、学習に要する時間が長くなるという課題を
有していち また重みの変更量(よ 誤差Eの重みによ
る微分の一定の割合に前回の重み変更量の一定の割合を
加えた値としており、重みの変更量としては必ずしも最
適でないという課題を有してい九 また それ以上学習
を進めても誤差が減少しないという非効率的な状態に学
習が陥るという課題を有してい九本発明はかかる点に鑑
へ 教師信号(望ましい出力信号)と実際の出力信号と
の誤差を最小化する方法として、誤差を最小化する方向
を動的に設定しながら学習を進めることによって、学習
に要する時間の短い学習機械を提供することを目的とす
a 本発明のもう1つの目的(友 学習パラメータの最適値
を動的に設定し 前回の重み変更量を考慮して学習を進
めることによって、学習に要する時間が短い学習機械を
提供することである。
As described above, in order to reduce the error between the output signal of the output layer and the teacher signal, the difference signal between the output signal and the teacher signal is calculated. Find the amount of weight change sequentially. This learning algorithm is called the error backpropagation method, but the problem that the invention aims to solve is that the learning parameter ε
Since fixed values are used that are determined empirically or found through trial and error, they are not necessarily optimal values and have the problem of increasing the time required for learning, and changing the weights. The amount (Y) is a value obtained by adding a certain percentage of the previous weight change amount to a certain percentage of the differential by the weight of the error E, which has the problem that the amount of weight change is not necessarily optimal. There is a problem that learning falls into an inefficient state in which the error does not decrease even if the process is advanced.The present invention takes this into consideration and minimizes the error between the teacher signal (desired output signal) and the actual output signal. Another object of the present invention is to provide a learning machine that requires less time for learning by dynamically setting the direction that minimizes the error while proceeding with learning. The objective is to provide a learning machine that requires less time for learning by dynamically setting the optimal value of the learning parameter and proceeding with learning while taking into account the amount of previous weight change.

課題を解決するための手段 本発明は 人力信号の加重和に飽和特性を持つ特性関数
で非線形処理を施して出力する複数の多入力−出力回路
から成る隠れ層と、前記隠れ層の出力信号の加重和に飽
和特性を持つ特性関数で非線形処理を施して出力する多
入力−出力回路から成る出力層と、前記出力層の望まし
い出力信号を発生する教師信号発生部と、前記教師信号
発生部の出力と前記出力層の出力との誤差を最小化する
ための重み変更方向を複数の方向から選択して決定する
重み変更方向決定部と、重み変更方向に関して複数の学
習パラメータに対する重み変更量を出力する直線探索部
と、前記直線探索部で求められた重み変更量に前回の重
み変更量の定数倍を加えて重みを変更する重み変更部と
を備えた学習機械である。
Means for Solving the Problems The present invention provides a hidden layer consisting of a plurality of multi-input-output circuits that perform non-linear processing on a weighted sum of human input signals using a characteristic function having saturation characteristics and output the resultant signal, and an output signal of the hidden layer. an output layer consisting of a multi-input-output circuit that performs nonlinear processing on a weighted sum using a characteristic function having saturation characteristics and outputs the result, a teacher signal generation section that generates a desired output signal of the output layer, and a teacher signal generation section of the teacher signal generation section. a weight change direction determining unit that selects and determines a weight change direction from a plurality of directions to minimize the error between the output and the output of the output layer; and outputs weight change amounts for the plurality of learning parameters regarding the weight change direction. The learning machine is equipped with a straight line search unit that changes the weight by adding a constant times the previous weight change amount to the weight change amount found by the straight line search unit.

作用 本発明は前記した構成により、隠れ層及び出力層で人力
信号に重み付けをして加算し 非線形処理を施して出力
信号を求厭 教師信号発生部が出力する望ましい出力信
号と出力層の出力信号との誤差を最小化するために 重
み変更方向決定部で重みの変更方向を決定した後、直線
探索部で複数の学習パラメータに対する重み変更量を束
数 不適学習状態検出部で学習が不効率な状態に陥って
いないかどうか調べなが収 直線探索部で求めた誤差が
最小となる学習パラメータに対する重み変更量に 重み
変更部で前回の重み変更量の定数倍を加えて各重みを変
更すも 以下同様へ 重みの変更方向において誤差が最
小となる学習パラメータを用いて重みを変更する動作を
繰り返して誤差を十分に小さくする。以上により、重み
の変更方向が決まるとその方向において最適な学習パラ
メータを動的に設定し 最適な学習パラメータに対する
重み変更量に前回の重み変更量の定数倍を加えて、重み
を変更して誤差を小さくすることによって、短い学習時
間で誤差が十分に小さくなり、学習を終了することがで
きも 本発明でCt  誤差を最小化するためl’w  前記
した構成の重み変更方向決定部で、重みの変更方向を複
数の方向から選択して決定する。複数の重み変更方向と
しては 例えば最急降下方向および共役勾配方向から選
択してもよ(−重みの変更方向としてζ戴 最急降下方
向ζよ 現在の重みの値のごく近傍においては最も少な
い重みの変更量で最も誤差の減少量が大きいという意味
で、局所的には最も効率のよい方向である。それに対し
て、共役勾配方向は 前回までの学習における重みの変
更方向とは異なる方向に重みを変更するという意味で、
大局的にみて最も効率のよい方向である。したがって、
本発明では 重みの変更方向をこれら複数の重み変更方
向から選択して動的に決定し最適な重み変更方向を用い
ることによって、学習に要する時間を短縮する。
According to the above-described configuration, the present invention weights and adds human input signals in the hidden layer and the output layer, performs nonlinear processing, and obtains an output signal.A desired output signal outputted by the teacher signal generation section and an output signal of the output layer are obtained. In order to minimize the error between The weight change unit changes each weight by adding a constant times the previous weight change amount to the weight change amount for the learning parameter that minimizes the error found in the straight line search unit. The same goes for the rest. Repeat the operation of changing the weights using the learning parameters that minimize the error in the weight change direction to make the error sufficiently small. As described above, once the weight change direction is determined, the optimal learning parameters are dynamically set in that direction, and the weights are changed by adding a constant times the previous weight change amount to the weight change amount for the optimal learning parameter. By making Ct small, the error becomes sufficiently small and learning can be completed in a short learning time. Decide the direction of change by selecting from multiple directions. For example, the multiple weight change directions may be selected from the direction of steepest descent and the direction of conjugate gradient. It is locally the most efficient direction in the sense that the amount of error decreases the most.On the other hand, the conjugate gradient direction changes the weights in a direction different from the direction in which the weights were changed in the previous learning. In the sense of
This is the most efficient direction from a broader perspective. therefore,
In the present invention, the time required for learning is shortened by selecting and dynamically determining the weight change direction from among these multiple weight change directions and using the optimal weight change direction.

実施例 第1図は本発明の第1の実施例における学習機械の構成
図を示すものであa 第1図において、1及び2は入力
端子、&4,5.a、7及び8は可変重み乗算銖良10
及び11は飽和入出力特性をもつ加算器I2は出力端子
、13は教師信号発生部14は誤差算出肌15は最急降
下方向決定拡21は圧力[22は隠れ慝65は重み変更
部66は学習パラメータ初期化部67は直線探索部93
は学習回til&  94.95及び96は多入力−出
力回路である。
Embodiment FIG. 1 shows a configuration diagram of a learning machine in a first embodiment of the present invention.a In FIG. 1, 1 and 2 are input terminals, &4, 5 . a, 7 and 8 are variable weight multipliers 10
and 11 is an output terminal of an adder I2 having saturation input/output characteristics, 13 is a teacher signal generator 14 is an error calculation surface 15 is a steepest descent direction determination expansion 21 is a pressure [22 is a hidden limit 65 is a weight change unit 66 is a learning The parameter initialization unit 67 is a straight line search unit 93
94.95 and 96 are multiple input-output circuits.

本実施例の学習機械(よ 可変重み乗算器と飽和入出力
特性を持つ加算器からなる多入力−出力回路を、階層状
に接続した構成となっている。入力信号に対して、各多
入力−出力回路で重み付けして加算し 各加算器の特性
関数によって非線形処理を施して、出力信号を求める。
The learning machine of this embodiment has a configuration in which multiple input-output circuits consisting of variable weight multipliers and adders with saturation input/output characteristics are connected in a hierarchical manner. -The output circuit weights and adds the signals, and performs nonlinear processing using the characteristic function of each adder to obtain the output signal.

本実施例の学習機械の学習において(表 出力層21の
出力と教師信号発生部13の出力とが等しくなるよう番
へ  可変重み乗算器3,4,5,6.7および8で掛
けられる重みを変更する。これらの重みを成分とするベ
クトルを重みベクトルと呼ぶと、重みベクトルの変更量
をベクトルで表すことができる。この重みの変更ベクト
ルの向きを重みの変更方向と呼」竜 (2)式で表されるようへ 誤差Eは重みベクトルの関
数なので、可変重み乗算器3.4.5.6.7及び8の
重みをベクトルで表す重み空間における曲面として表す
ことができる。これを誤差曲面と呼J%第2図に本実施
例の動作を示す誤差曲面の等廃線の模式図を示す。第2
図において、w[i+、 j+]及びw[i2. ja
]は可変重み乗算器3.4.5.6.7及び8のうち任
意の2つの可変重み乗算器の重=7hw−は乱数で初期
化された重みの値のベクトル表承g・は初回の学習にお
ける最急降下力K  P、は初回の学習におけるgsの
方向に関する直線探索の誤差最小点、glはPlにおけ
る最急降下力KP2は第2回目の学習におけるg+の方
向に関する直線探索の誤差最小瓜 P2は第2回目の学
習後の重みの値を示す点である。本実施例の学習機械の
学習において(表 最初に全ての可変重み乗算器の重み
を乱数で初期化する力丈 これは第2図に示される誤差
曲面における出発点(W・)を乱数で設定することに相
当すム 学習の目的は 第2図の出発点から始めて、誤
差曲面上で誤差の小さくなる方向に重みを変更すること
によって、誤差最小点の探索を繰り返し 大局的誤差最
小点に達することであも 初回の学習では(4)式によ
って求めた最急降下方向g−を重みの変更方向とLg・
の方向において誤差が最小となる点を求めも これをg
・の方向に対する直線探索と呼属 学習パラメータ初期
化部66は直線探索における学習パラメータの初期値と
して適当な正の値を出力すも 第3図に誤差曲面の出発点とPlとの間の断面図を示す
。第3図において、ε1は学習パラメータ初期化部66
によって設定される学習パラメータの初期値であり、 ε k  −ε k−1本 2      (k>1)
 ・・・・(13)であり、Em(k≧0)は学習パラ
メータε歓に対する誤基 即ち E=  −E(w・+εに零g・)   (k≧0. 
ε・二〇 )・・(14)であり、 εVは誤差曲面を
近似した放物線の頂点における学習パラメータのtEν
は学習パラメータενに対する誤差である。第4図は本
実施例の学習機械の直線探索における動作を示すPAD
図(Problem Analysis Diagra
m)である。第4図に示されるように直線探索において
は まず学習パラメータの初期値ε1に対する誤差を求
める。直線探索部67は学習パラメータの初期値ε1に
最急降下方向を掛けて、学習パラメータの初期値ε1に
対する重みの変更量を束数 重み変更部65に出力する
。重み変更部65では 重み変更量と重みとの和を求へ
学習パラメータの初期値ε1に対する重みを出力する。
In the learning of the learning machine of this embodiment (table), the weights multiplied by the variable weight multipliers 3, 4, 5, 6. If the vector whose components are these weights is called a weight vector, the amount of change in the weight vector can be expressed as a vector.The direction of this weight change vector is called the weight change direction. ) Since the error E is a function of the weight vector, it can be expressed as a curved surface in the weight space where the weights of variable weight multipliers 3, 4, 5, 6, 7 and 8 are expressed as vectors. This is called the error surface J%. Figure 2 shows a schematic diagram of the iso-abandon line of the error surface showing the operation of this embodiment.
In the figure, w[i+, j+] and w[i2. ja
] is the weight of any two variable weight multipliers among variable weight multipliers 3.4.5.6.7 and 8=7hw− is a vector representation of the weight value initialized with a random number g. P is the minimum error point in the straight line search in the direction of gs in the first learning, and gl is the steepest descent force KP2 in Pl is the minimum error point in the straight line search in the direction of g+ in the second learning. P2 is a point indicating the value of the weight after the second learning. In the learning of the learning machine of this example (Table 1), first the weights of all variable weight multipliers are initialized with random numbers. The purpose of learning is to start from the starting point in Figure 2 and repeat the search for the minimum error point by changing the weights in the direction of decreasing the error on the error surface until the global minimum error point is reached. In the first learning, the steepest descent direction g- found by equation (4) is used as the weight change direction and Lg.
Find the point where the error is minimum in the direction of g
The learning parameter initialization unit 66 outputs an appropriate positive value as the initial value of the learning parameter in the straight line search. Show the diagram. In FIG. 3, ε1 is the learning parameter initialization unit 66
is the initial value of the learning parameter set by ε k −ε k−1 pieces 2 (k>1)
...(13), and Em (k≧0) is a false base for the learning parameter ε, that is, E= −E (zero g・ for w・+ε) (k≧0.
ε・20)...(14), and εV is the learning parameter tEν at the vertex of the parabola that approximates the error surface.
is the error for the learning parameter εν. Figure 4 is a PAD showing the operation of the learning machine of this example in a straight line search.
Diagram (Problem Analysis Diagram)
m). As shown in FIG. 4, in the straight line search, first find the error with respect to the initial value ε1 of the learning parameter. The straight line search unit 67 multiplies the initial value ε1 of the learning parameter by the direction of steepest descent, and outputs the weight change amount for the initial value ε1 of the learning parameter to the bundle number weight changing unit 65. The weight change unit 65 calculates the sum of the weight change amount and the weight and outputs the weight for the initial value ε1 of the learning parameter.

これらの重みを用いて出力層21で出力信号が求められ
 誤差算出部14で教師信号と出力信号とを比較して誤
差を求める。このようにして学習パラメータの初期値ε
1に対する誤差の初期値E1か求められる。第4図のP
AD図に示されるように直線探索部67は誤差の初期値
E1と誤差曲面の出発点における誤差E・との値の大き
さを比較り、  E。
An output signal is determined in the output layer 21 using these weights, and an error is determined in the error calculation section 14 by comparing the teacher signal and the output signal. In this way, the initial value ε of the learning parameter
The initial value E1 of the error relative to 1 is determined. P in Figure 4
As shown in the AD diagram, the straight line search unit 67 compares the initial error value E1 with the error E at the starting point of the error surface, and calculates E.

力<、 E−より小さくなったときにCt  もつと大
きな値の学習パラメータに対する誤差の方が小さいこと
が期待できるので、学習パラメータεの値を2倍にする
という動作を誤差の値が増加に転するまで繰り返す。第
3図に示す初回の学習ではEl <E−なので学習パラ
メータεの値を2倍にして誤差を求めるという動作を繰
り返すと、E・>El> Ee < Esとなるた数 
直線探索部67はε3に対する重み変更量まで求めも 
なお学習パラメータの初期値に対する誤差El力(誤差
の最初の値E。
If Ct becomes smaller than force <, E-, it can be expected that the error for a learning parameter with a large value will be smaller. Repeat until it turns. In the first learning shown in Figure 3, El < E-, so by repeating the operation of doubling the value of the learning parameter ε and calculating the error, the number becomes E・>El> Ee < Es.
The straight line search unit 67 also calculates the weight change amount for ε3.
Note that the error El force (initial value E of the error) with respect to the initial value of the learning parameter.

より増加したときにζよ もっと小さな値の学習パラメ
ータに対する誤差の方が小さいことが期待できるので、
直線探索部67は学習パラメータの値を1/2倍すると
いう動作を、誤差が誤差の最初の値E−より小さくなる
まで繰り返す。次に直線探索部67で慰 誤差最小点の
近傍を放物線で近似するために 重み空間内で重みの値
が等間隔に変化する点での誤差を求める。節水 εa、s −(ε2+ε3)/2・・・・(15)によ
って、 ε2−ε11ε26−ε2禦ε3−ε2.5 
とし ε2.6に対する誤差 E2.6 −  E(w  +  εa、s  零 g
@)  ・・・・(1’6)を求めも 第3図において
fi  E2.6 < Ee < Es〈Elなので、
これらのうちで誤差が最小となる3点を通る放物線で誤
差最小点の近傍の誤差曲面を近似し その頂点における
誤差を求める。節板 によって誤差曲面の放物線近似の頂点の学習パラメータ
を束数 最急降下方向gaとε、とを掛けて重み変更量
を求数 重み変更部65で学習パラメータεVに対する
重みの値を設定し 出力層21において出力信号を求数
 誤差算出部14において誤差EVを算出すも 直線探
索部67ζよ 以上のようにして求められた誤差Ev、
Ea、E2.s及びEsを比較しそれらの中で最も小さ
な誤差E2.5を与える学習パラメータε2.5に対す
る重みの変更量ε2.s零g・を求めて出力すム 重み
変更部65において、前記重み変更量εe、511g 
mと前回の重み変更量の定数倍と重みW−との和を求へ
 新たな重みとして記憶する。
When ζ increases, we can expect that the error for learning parameters with smaller values will be smaller.
The straight line search unit 67 repeats the operation of multiplying the learning parameter value by 1/2 until the error becomes smaller than the initial error value E-. Next, in order to approximate the vicinity of the minimum error point with a parabola, the straight line search unit 67 finds errors at points where the weight values change at equal intervals in the weight space. Water saving εa, s − (ε2 + ε3)/2 (15), ε2 − ε11 ε26 − ε2 ε3 − ε2.5
The error for ε2.6 is E2.6 − E(w + εa, s zero g
@) ...(1'6) is also found. In Figure 3, fi E2.6 < Ee < Es〈El, so
The error surface in the vicinity of the minimum error point is approximated by a parabola passing through the three points where the error is minimum among these points, and the error at the vertex is determined. The weight change amount is calculated by multiplying the learning parameter at the vertex of the parabolic approximation of the error surface by the bundle number, steepest descent direction ga, and ε using the node plate.The weight change unit 65 sets the weight value for the learning parameter εV, and the output layer 21, the output signal is calculated, and the error calculating section 14 calculates the error EV.
Ea, E2. The weight change amount ε2.5 for the learning parameter ε2.5 which compares s and Es and gives the smallest error E2.5 among them. The weight change unit 65 calculates and outputs the weight change amount εe, 511g.
The sum of m, a constant times the previous weight change amount, and the weight W- is calculated and stored as a new weight.

初回の重み変更では 前回の重み変更量は零なので、重
みが Wl ミ We + ε26零g・ に変更されも 初回の学習における重み変更量は△w+
”  ε2.S零g・ として記憶されも 以上が初回の学習である。第2回目
の学習では 重み空間においてWlで表される点P1に
おける最急降下方向g1を最急降下方向決定部15で束
数 2回目の学習における重みの変更方向とする。学習
パラメータ初期化部66(ヨ  学習パラメータの初期
値を、初回の学習ではε1とL 2回目以後の学習では
前回の重み変更に用いた学習パラメータの値もしくはε
1のうち大きい方の値に決定する。埋板 2回目以後の
学習で(友前回の学習パラメータの最適値がε1よりも
太きいときには前回の学習パラメータの最適値が学習パ
ラメータの初期値となり、前回の学習パラメータの最適
値がε1よりも小さいときにはε1が学習パラメータの
初期値とな4 これによって、前回の学習パラメータの
最適値を今回の学習における学習パラメータの初期値と
し 今回の学習に最適な学習パラメータの設定を効率良
く行うことができると同時番ミ  前回の学習パラメー
タの最適値が小さい場合へ それを今回の最小点探索の
学習パラメータの初期値として用いて、誤差曲面の局所
的最小点に陥り誤差曲面の大局的最小点に達することが
できなくなることを防ぐことができも直線探索部67で
はglの方向に対して学習パラメータを2倍もしくは1
72倍して、誤差が小さくなる重みの近傍おいて誤差曲
線を放物線近似して、glの方向において誤差が最小と
なる重みを求めて、第2回目の学習における誤差最小点
P膚゛を求めもこの時用いた誤差が最小となる学習パラ
メータの値をεoptとすると、 2回目の学習によっ
て重みはW2”Wl   十  ε o@t   本 
 gl   +  α  本  △ Wlに変更される
。ただし αはモーメンタムと呼ばれる正の定数であa
 2回目の学習における重み変更量は △ We   −ε 6−t  零  g 1  + 
 α  零  △ Wlとして記憶されも 以下同様に
誤差が十分に小さくなるまで、重み変更を繰り返す。こ
のよう&ミ本実施例の学習機械では 最急降下方向に対
する直線探索を繰り返して学習を進めることによって、
学習パラメータの最適値を動的に設定して誤差を小さく
してゆき、大局的誤差最小点に近づいてゆく。
In the first weight change, the previous weight change amount is zero, so even if the weight is changed to Wl Mi We + ε260g・, the weight change amount in the first learning is △w +
The above is the first learning. In the second learning, the steepest descent direction g1 at the point P1 represented by Wl in the weight space is determined by the steepest descent direction determination unit 15 by the bundle number. The learning parameter initialization unit 66 (Y) sets the initial values of the learning parameters to ε1 and L for the first learning, and the direction of the learning parameters used for the previous weight change for the second and subsequent learning. value or ε
The larger value of 1 is determined. In learning after the second time (friend) If the optimal value of the learning parameter from the previous time is thicker than ε1, the optimal value of the previous learning parameter becomes the initial value of the learning parameter; When it is small, ε1 becomes the initial value of the learning parameter.4 As a result, the optimal value of the previous learning parameter is used as the initial value of the learning parameter for the current learning, and the optimal learning parameter for the current learning can be set efficiently. At the same time, when the optimal value of the previous learning parameter is small, use it as the initial value of the learning parameter for the current minimum point search to reach the local minimum point of the error surface and reach the global minimum point of the error surface. However, in the straight line search unit 67, the learning parameter can be doubled or 1 in the direction of gl.
Multiply by 72, approximate the error curve to a parabola near the weight where the error is small, find the weight where the error is minimum in the direction of gl, and find the minimum error point P for the second learning. Also, if the value of the learning parameter used at this time that minimizes the error is εopt, the weights will be W2"Wl 10 ε o@t by the second learning.
gl + α book △ Changed to Wl. However, α is a positive constant called momentum, and a
The amount of weight change in the second learning is △ We −ε 6−t 0 g 1 +
Even if it is stored as α zero △ Wl, the weight changes are repeated in the same way until the error becomes sufficiently small. In this way, the learning machine of this embodiment advances learning by repeatedly searching for a straight line in the direction of steepest descent.
The optimal value of the learning parameter is dynamically set to reduce the error and approach the global minimum error point.

以上のように 本実施例によれば直線探索によって誤差
が最小となる学習パラメータが動的に設定される。前回
の重み変更量の定数倍を誤差が最小となる重み変更量に
加えることにより、誤差曲面の局所的な形状の情報だけ
でなく、より大局的な誤差曲面の形状の情報をもとに 
重み変更を行うた数 前回の重み変更量の定数倍を誤差
が最〕]事となる重み変更量に加えない場合に比べて、
少ない回数の重み変更で誤差が最小化されもなお本実施
例でC友  学習パラメータ初期化部66(よ 学習パ
ラメータの初期値を、初回の学習ではε1とL22回目
以後学習では前回の学習における学習パラメータの最適
値もしくはε1のうち大きい方の値に決定した力丈 学
習パラメータの初期値は常に固定の値ε1としてもよt
、X。
As described above, according to this embodiment, the learning parameters that minimize the error are dynamically set by straight line search. By adding a constant multiple of the previous weight change amount to the weight change amount that minimizes the error, the calculation is performed based on not only the local shape information of the error surface but also the more global shape information of the error surface.
Compared to the case where a constant times the previous weight change amount is not added to the weight change amount that would cause the largest error,
Even if the error is minimized by changing the weights a small number of times, the learning parameter initialization unit 66 (Y) in this embodiment sets the initial value of the learning parameter to ε1 for the first learning and L2 for the second and subsequent learnings. The strength is determined to be the larger value of the optimum value of the parameter or ε1.The initial value of the learning parameter may always be set to a fixed value ε1.
,X.

また 本実施例では 隠れ層22は人力信号を処理して
出力層に出力する多入力−出力回路から成っていた力丈
 階層状に接続された多入力−出力回路によって構成し
てもよしも また本実施例では2個の入力信号に対して
1個の出力信号を出力した力(これらの入出力信号の個
数は何個でもよ(−第5図は本発明の第2の実施例にお
ける学習機械の構成図を示すものである。第5図におい
て、16は共役勾配方向決定臥77は隠れ層積和記憶a
92は不適学習状態検出服97は学習回路であも本実施
例と第1の実施例との相違点は 重み変更方向を第1の
実施例では最急降下方向としていたのに対して、本実施
例では最急降下方向と共役勾配方向の2つの方向から選
択して決定する点にあa また本実施例では 隠れ層積
和記憶部77および不適学習状態検出部92を新たに設
けていも第6図に本実施例の学習回路97の構成図を示
す。
In this embodiment, the hidden layer 22 is composed of a multi-input-output circuit that processes human signals and outputs them to the output layer.However, it may also be composed of multi-input-output circuits connected in a hierarchical manner. In this embodiment, a force outputs one output signal for two input signals (the number of these input/output signals can be any number). This is a diagram showing the configuration of the machine. In FIG.
Reference numeral 92 indicates an unsuitable learning state detection circuit 97, which is a learning circuit.The difference between this embodiment and the first embodiment is that in the first embodiment, the direction of weight change is the direction of steepest descent, whereas in this embodiment In the example, the point is that the direction is selected from two directions, the steepest descent direction and the conjugate gradient direction. In this embodiment, the hidden layer sum of products storage section 77 and the unsuitable learning state detection section 92 are newly provided. The figure shows a configuration diagram of the learning circuit 97 of this embodiment.

第6図において、23は出力層出力の入力端子、24は
隠れ層出力の入力端子、25は入力信号の入力端子、2
6は出力層の重みの出力端子、27は隠れ層の重みの出
力端子、73及び74は加算器 75は重み記憶ii 
 84は隠れ層出力の出力端子、85.86及び87は
乗算器88は入力信号と変更方向との積和記憶部89は
入力信号と重みとの積和記憶a  90は加算器 旧は
非線形変換部である。本実施例の学習機械の学習回路9
7で6表 教師信号発生部13は人力信号に対する出力
層の出力として望ましい信号を教師信号として与え 誤
差算比部14は教師信号と実際の出力信号との差信号を
出力すも 共役勾配方向決定部16(ヨ  この差信号
をもとに重みの変更方向を最急降下方向もしくは共役勾
配方向に決定すム 直線探索部67は複数の学習パラメ
ータに対する重み変更量を束数 隠れ層積和記憶部77
は各学習パラメータに対する隠れ層の出力信号を束数誤
差算出部14は各学習パラメータに対する誤差を束数 
重み変更部65はこれらの誤差のうちで最小の誤差に対
する学習パラメータを用いて重みを変更すム 本実施例の学習機械で(よ 不適学習状態検出部92て
 重みの絶対値がある値よりも大きいことを検出すると
、それ以上学習を進めても効率的に誤差が減少しない状
態に学習が陥ったものと判断し重みを乱数で初期化しな
おして学習を再開する。
In FIG. 6, 23 is an input terminal for output layer output, 24 is an input terminal for hidden layer output, 25 is an input terminal for input signals, 2
6 is an output terminal for output layer weights, 27 is an output terminal for hidden layer weights, 73 and 74 are adders, 75 is a weight memory ii
84 is an output terminal of the hidden layer output, 85, 86 and 87 are multipliers 88 are the product-sum storage unit 89 of the input signal and the change direction, and the product-sum storage unit 89 is the product-sum storage a of the input signal and the weight. 90 is an adder. The old one is nonlinear conversion. Department. Learning circuit 9 of the learning machine of this embodiment
Table 7 and 6 The teacher signal generator 13 gives a desired signal as a teacher signal as the output of the output layer for the human input signal, and the error calculation unit 14 outputs a difference signal between the teacher signal and the actual output signal.Determine the conjugate gradient direction. Section 16 (Y) Based on this difference signal, the direction of weight change is determined to be the direction of steepest descent or the direction of conjugate gradient. Line search section 67 determines the amount of weight change for a plurality of learning parameters as a bundle number. Hidden layer sum-of-products storage section 77
is the output signal of the hidden layer for each learning parameter, and the bundle number error calculation unit 14 calculates the error for each learning parameter as the bundle number.
The weight change unit 65 changes the weight using the learning parameter for the smallest error among these errors. If a larger value is detected, it is determined that the learning has reached a state where the error cannot be efficiently reduced even if learning is continued further, and the weights are reinitialized with random numbers and learning is resumed.

本実施例で(よ 第6図に示したように 隠れ層積和記
憶部77を用いて隠れ層の出力信号を求める。
In this embodiment, as shown in FIG. 6, the hidden layer sum-of-products storage unit 77 is used to obtain the output signal of the hidden layer.

入力信号yp[i]に対する隠れ層の出力信号yt[j
lはyp[jl  =  fnc(Σ(w[i、  j
l 零 y−[11))−(18)で表される。ただL
  w[i、 jlは人力信号yp[i]が隠れ層の第
3番目の多入力−出力回路に入力されるとき掛けられる
重、1)、  fncmは隠れ層の加算器の特性関数で
、飽和特性をもつ非線形関数である。
The output signal yt[j of the hidden layer for the input signal yp[i]
l is yp[jl = fnc(Σ(w[i, j
It is expressed as l zero y-[11))-(18). Just L
w[i, jl is the weight multiplied when the human input signal yp[i] is input to the third multi-input-output circuit in the hidden layer, 1), fncm is the characteristic function of the adder in the hidden layer, and It is a nonlinear function with characteristics.

共役勾配方向決定部16で求めた重みの変更方向dのw
[i、 jlの変更量に対応する成分をd[i、 jl
で表すと、学習パラメータεに対する隠れ層の出力信号
ye[jlは ye[jl  =  fnc(Σ ((w[i、jコ+
ε 零d  [i、jl)零yJxコ))・・・・(1
9) となり、yp[jlを求める度く 人力信号数の2倍の
回数の乗算を行う必要かあa 本実施例で(よA e 
[Jコ = Σ (w[i、jl  客 yp[iコ)
−−−−(20)を、入力信号と重みとの積和記憶部8
9に記憶しBp[jl  −Σ (d[i、jl  本
 yp[iコ)・・・・(21)を、入力信号と変更方
向との積和記憶部88に記憶しておくことによって、学
習パラメータεに対する隠れ層の出力信号ys E j
 ]をyJj]    fnc(Σ ((w[i、jコ
+ε td  [i、jl)本3’f[i]))fnc
(Σ (w[i、j]意ys[iコ)十 ε零Σ(d[i、j]富yp[i]))−fnc(Ae
[j]+ε 寧B p[jl)・・−・(22)によっ
て求める。埋板 入力信号と変更方向との積和記憶部8
8の出力Be[j(に 乗算器87において学習パラメ
ータεを掛けて、加算器90で人力信号と重みとの積和
記憶部89の出力A、[jlとの和(Ap[j]+ε 
本Bp[jl)を求める。非線形変換部91で(よ 加
算器90の出力に隠れ層の加算器の特性関数fnc()
に等しい非線形変換を施L  (22)式で表されるy
a[J]を求める。これによって、重みの変更方向dに
対する直線探索において、演算回数を大幅に削減でき、
学習時間の短縮が図れる。
w of the weight change direction d determined by the conjugate gradient direction determination unit 16
The component corresponding to the amount of change in [i, jl is d[i, jl
Expressed as, the hidden layer output signal ye[jl for the learning parameter ε is ye[jl = fnc(Σ
ε zero d [i, jl) zero yJx co))...(1
9) Therefore, is it necessary to perform multiplication twice as many times as the number of human input signals each time yp[jl is calculated?a In this example, (YoA e
[J co = Σ (w[i, jl customer yp[i co)
---- (20) is stored in the product-sum storage unit 8 of the input signal and the weight.
By storing Bp[jl −Σ (d[i, jl yp[i ko) (21) in the product-sum storage unit 88 of the input signal and the change direction, Hidden layer output signal ys E j for learning parameter ε
] to yJj] fnc(Σ ((w[i, j + ε td [i, jl) Book 3'f[i])) fnc
(Σ (w [i, j] ys [i ko) ten ε zero Σ (d [i, j] wealth yp [i])) - fnc (Ae
[j]+ε Ning B p[jl)...-(22). Buried board Product-sum storage unit 8 for input signal and change direction
The multiplier 87 multiplies the output Be[j(of
Find the book Bp[jl). In the nonlinear transformation unit 91, the characteristic function fnc() of the adder of the hidden layer is applied to the output of the adder 90.
A nonlinear transformation equal to L is applied to y expressed by equation (22)
Find a[J]. As a result, the number of calculations can be significantly reduced in the straight line search in the weight change direction d,
The learning time can be shortened.

本実施例で(主 重みの変更方向として共役勾配方向を
用いる。共役勾配方向(よ d=g   + β  本  d ゛ で与えられる。たたLgは(4)式で与えられる最急降
下方向であり、βは g゛12 で与えられる定数であり、d′は前回の学習における共
役勾配方lK17’l  は前回の学習における最急降
下方向g′のベクトルのノルムであム なお初回の学習
における重み変更方向(主 最急降下方向に決定する。
In this example, the conjugate gradient direction is used as the direction in which the main weights are changed. , β is a constant given by g゛12, d' is the conjugate gradient direction in the previous learning, lK17'l is the norm of the vector in the direction of steepest descent g' in the previous learning, and weight change in the first learning. Direction (main: Determine the direction of steepest descent.

第7図に共役勾配方向決定部16の詳細ブロック図を示
す。第7図において、28は最急降下方向算出部29は
共役勾配方向算出ム30は重み変更方向決定部31は学
習回数計数部32は出力層の重みの入力端子、33は出
力層の重み変更方向の出力端子、34は隠れ層の重み変
更方向の出力端子、35は差信号の入力端子、36およ
び37は微係数算出眠38は出力層微係数記憶a、39
は隠れ層微係数記憶訊40はδ記憶訊41は今回の出力
層の最急降下方向記憶部42は前回の出力層の最急降下
方向記憶a 43はβ算出服44は前回の出力層重み変
更方向決定部 45.46.47.48.49.50及
び51は乗算器52は加算器 53はδ*Wバッファ、
54は入力信号記憶R,55は今回の隠れ層の最急降下
方向記憶部56は前回の隠れ層の最急降下方向記憶部5
8は前回の隠れ層重み変更方向記憶@  59および6
0は重み変更方向切替K  63および64は加算器で
ある。
FIG. 7 shows a detailed block diagram of the conjugate gradient direction determination unit 16. In FIG. 7, 28 is the steepest descent direction calculation unit 29 is the conjugate gradient direction calculation unit 30 is the weight change direction determination unit 31 is the learning number counting unit 32 is the input terminal for the weight of the output layer, and 33 is the weight change direction of the output layer. , 34 is an output terminal for the weight change direction of the hidden layer, 35 is an input terminal for the difference signal, 36 and 37 are for calculating differential coefficients, 38 is for output layer differential coefficient storage a, 39
40 is the hidden layer differential coefficient memory 40 is the δ memory 41 is the current output layer's steepest descent direction storage section 42 is the previous output layer's steepest descent direction memory a 43 is the β calculation unit 44 is the previous output layer weight change direction Decision unit 45, 46, 47, 48, 49, 50 and 51 are multipliers, 52 is an adder, 53 is a δ*W buffer,
54 is the input signal storage R, 55 is the steepest descent direction storage unit 56 of the current hidden layer, and the steepest descent direction storage unit 5 of the previous hidden layer.
8 is the previous hidden layer weight change direction memory @ 59 and 6
0 is weight change direction switching K. 63 and 64 are adders.

第7図を用いて、共役勾配方向決定部16の動作を詳細
に説明すも 最急降下方向算出部28(友  第14図
に示される従来の学習機械の最急降下方向決定部215
とほぼ同じ構成となっており、乗算器46が出力層の重
みに関する最急降下方向を出力し 乗算器50が隠れ層
の重みに関する最急降下方向を出力する。これらの最急
降下方向を表す信号(よ 重み変更方向決定部30の重
み変更方向切替部59及び60と、共役勾配方向算出部
29の今回の出力層の最急降下方向記憶部41及び今回
の隠れ層の最急降下方向記憶部55に出力されも 今回
の出力層の最急降下方向記憶部41及び今回の隠れ層の
最急降下方向記憶部55に記憶されている今回の学習に
おける最急降下方向と、前回の出力層の最急降下方向記
憶部42及び前回の隠れ層の最急降下方向記憶部56に
記憶されている前回の学習における最急降下方向とをも
とに β算出部43はβを求める。乗算器48及び51
は前回の学習の重み変更方向d′とβとの積を求へ 加
算器63及び64によって最急降下方向との和か求まり
、共役勾配方向として重み変更方向決定部30の重み変
更方向切替部59及び60に出力される。以上のように
して重み変更方向切替部59及び60に(友 最急降下
方向及び共役勾配方向か人力され4 −4  学習回数
計数部31は学習回数を数えており、重みの個数と等し
い回数に1回の学習では最急降下方向を重みの変更方向
とするように選択信号を出力する。本実施例では 可変
重み乗算器3,4,5,6.7および8で掛けられる重
みは6個あるので、 6回に1回の学習では最急降下方
向を重み変更方向とし それ以外の回数の学習では共役
勾配方向を重み変更方向とするように選択信号を出力す
る。この選択信号にしたがって、重み変更方向切替部5
9及び60は重みの変更方向を最急降下方向と共役勾配
方向とで切り替える。以上のようにして、共役勾配方向
決定部16で(よ 重みの変更方向を求めも 以上のように本実施例によれば 不適学習状態検出部9
2で、学習が非効率な状態に陥ったことを検出すると、
重みを調整しなおして学習を再開することにより、学習
が非効率的状態に陥ることを避け、学習に要する時間を
短縮す4 また 隠れ層積和記憶部77において、入力
信号と重みとの積和及び入力信号と隠れ層の重み変更方
向との積和を記憶しておくことによって、重みの変更方
向dに対する直線探索において、直線探索における演算
回数を大幅に削減でき、学習時間の短縮が図れる。本実
施例によると、直線探索部67で複数の学習パラメータ
に対する重みの変更量を束数 重み変更部65で誤差が
最小となる重み変更量に前回の重み変更量の定数倍を加
えて重みを変更することにより、重みの変更方向に対し
て最適な学習パラメータを動的に設定して重みを変更す
ることができるとともに 誤差曲面のより大局的な情報
をもとに重みを変更することにより、学習に要する時間
が短縮されも また 共役勾配方向決定部16で、共役
勾配方向もしくは最急降下方向を、重み変更方向として
求めることにより、学習に要する時間が短縮されも な耘 本実施例でζ友 共役勾配方向決定部16で、重
みの変更方向は求められた共役勾配方向もしくは最急降
下方向とした力(変更方向は常に最急降下方向としても
よl、%  また共役勾配方向決定部16で重みの変更
方向を、重みの個数と等しい回数に1回の学習では最急
降下方向とし それ以外の回数の学習では共役勾配方向
とした力交 重みの個数の半分に等しい回数に1回の学
習では最急降下方向とし それ以外の回数の学習では共
役勾配方向としてもよ(−また共役勾配方向に対する直
線探索において、重み変更量をある値より小さくしても
誤差が減少しないとき、重み変更方向を最急降下方向に
切り替えてもよu% また 本実施例では 不適学習検出部92は学習をそれ
以上進めても誤差が効率的に減少しない不適当な状態に
陥っていることを、重みの絶対値がある値よりも大きい
ことによって検出し 重みを乱数で初期化しなおして学
習を再開した力(全ての重みを一律に圧縮することによ
って重みを調整しても良いし 重みの絶対値が最も大き
な重みのみを圧縮してもよ0゜ また 本実施例で(よ 隠れ層22は人力信号を処理し
て出力層に出力する多入力−出力回路から成っていた力
交 階層状に接続された多入力−出力回路によって構成
してもよい。また本実施例で1よ2個の入力信号に対し
て1個の出力信号を出力した力交 これらの入出力信号
の個数は何個でもよps。
The operation of the conjugate gradient direction determination unit 16 will be explained in detail with reference to FIG.
The multiplier 46 outputs the direction of steepest descent regarding the weight of the output layer, and the multiplier 50 outputs the direction of steepest descent regarding the weight of the hidden layer. These signals representing the direction of steepest descent (i.e., the weight change direction switching units 59 and 60 of the weight change direction determining unit 30, the steepest descent direction storage unit 41 of the current output layer of the conjugate gradient direction calculation unit 29, and the current hidden layer) The steepest descent direction in the current learning stored in the steepest descent direction storage section 41 of the current output layer and the steepest descent direction storage section 55 of the current hidden layer is output to the steepest descent direction storage section 55 of the current output layer. The β calculation unit 43 calculates β based on the steepest descent direction in the previous learning stored in the output layer steepest descent direction storage unit 42 and the previous hidden layer steepest descent direction storage unit 56. Multiplier 48 and 51
is the product of the weight change direction d' of the previous learning and β.The adders 63 and 64 calculate the sum with the direction of steepest descent, and the weight change direction switching unit 59 of the weight change direction determining unit 30 determines the conjugate gradient direction. and output to 60. As described above, the weight change direction switching units 59 and 60 are manually operated in the steepest descent direction and conjugate gradient direction. In this learning, a selection signal is output so that the direction of steepest descent is the direction of weight change.In this example, there are six weights multiplied by variable weight multipliers 3, 4, 5, 6.7, and 8. , A selection signal is output so that the steepest descent direction is set as the weight change direction in learning once every six times, and the conjugate gradient direction is set as the weight change direction in other times of learning.According to this selection signal, the weight change direction is set as the direction of weight change. Switching section 5
9 and 60 switch the weight change direction between the steepest descent direction and the conjugate gradient direction. As described above, the conjugate gradient direction determination unit 16 determines the weight change direction.
In step 2, when it is detected that learning has fallen into an inefficient state,
By re-adjusting the weights and restarting learning, learning is prevented from falling into an inefficient state and the time required for learning is shortened. By storing the sum and the product sum of the input signal and the weight change direction of the hidden layer, the number of calculations in the line search for the weight change direction d can be significantly reduced, and the learning time can be shortened. . According to this embodiment, the straight line search unit 67 calculates the amount of weight change for a plurality of learning parameters in a bundle, and the weight change unit 65 calculates the weight by adding a constant times the previous weight change amount to the weight change amount that minimizes the error. By changing the weights, it is possible to dynamically set the optimal learning parameters for the direction of weight change and change the weights.By changing the weights based on more global information of the error surface, The time required for learning can be shortened. Also, the time required for learning can be shortened by determining the conjugate gradient direction or steepest descent direction as the weight change direction in the conjugate gradient direction determination unit 16. The conjugate gradient direction determining unit 16 sets the weight change direction to the determined conjugate gradient direction or the steepest descent direction (the changing direction may always be the steepest descent direction). The direction of change is set to the direction of steepest descent when learning is performed once every time equal to the number of weights, and is set to the conjugate gradient direction during learning other times.When the change direction is learned once every half of the number of weights, it is set to the direction of steepest descent. For other times of learning, the conjugate gradient direction may be used (-Also, in a straight line search for the conjugate gradient direction, if the error does not decrease even if the weight change amount is smaller than a certain value, the weight change direction may be set to the steepest descent direction. Also, in this embodiment, the inappropriate learning detection unit 92 detects that the error is in an inappropriate state where the error cannot be efficiently reduced even if the learning is further advanced by using a certain absolute value of the weight. The force is detected by re-initializing the weights with random numbers and restarting learning (you can adjust the weights by uniformly compressing all weights, or compress only the weight with the largest absolute value) Also, in this embodiment, the hidden layer 22 consists of a multi-input-output circuit that processes human input signals and outputs them to the output layer. In this embodiment, one output signal is output for one or two input signals.The number of these input/output signals may be any number.

第8図に本発明の第3の実施例における学習機械の構成
図を示す。第8図において、68はモーメンタム直線探
索部98は学習回路である。本実施例の特徴は 最急降
下方向に直線探索を行った後へ 前回の重み変更の方向
に関して直線探索を行((重み変更の大きさと同時に重
み変更の方向も動的に設定する点にある。
FIG. 8 shows a configuration diagram of a learning machine according to a third embodiment of the present invention. In FIG. 8, reference numeral 68 denotes a momentum straight line search unit 98, which is a learning circuit. The feature of this embodiment is that after performing a straight line search in the direction of the steepest descent, a straight line search is performed in the direction of the previous weight change ((The direction of the weight change is dynamically set at the same time as the magnitude of the weight change.

第9図に本実施例の動作を示す誤差曲面の等廃線の模式
図を示す。第9図において、△W1は初回の学習におけ
る重み変更IP+は初回の学習における最急降下方向に
関する直線探索の誤差最iJ)、asglはPlにおけ
る最急降下力K  P2°は第2回目の学習におけるg
lの方向に関する直線探索の誤差最小A PRはP2′
から初回の学習における重み変更方向(△W1の方向)
に関して直線探索したときの誤差最小点であム 本実施
例の学習回路98においては 初回の学習において(よ
 出発点における最急降下方向に関する直線探索によっ
て重み変更量△w1を求めも 第2回目の学習において
は まずPlにおける最急降下方向g1に関する直線探
索を行(\ 誤差最小の点P2°を求めも 次に Pa
’から前回の重み変更量ΔW1の方向に直線探索を行(
\ 誤差最小の点P2を求めも この時用いた最急降下
方向に関して誤差最小となる学習パラメータの値をε。
FIG. 9 is a schematic diagram of the iso-abandon line of the error surface showing the operation of this embodiment. In Fig. 9, △W1 is the weight change in the first learning, IP+ is the error maximum iJ of the straight line search regarding the steepest descent direction in the first learning, asgl is the steepest descent force K at Pl, and P2° is g in the second learning.
The minimum error A PR of the straight line search in the direction of l is P2'
The direction of weight change in the first learning from (direction of △W1)
In the learning circuit 98 of this embodiment, the weight change amount △w1 is determined by a straight line search regarding the steepest descent direction at the starting point. First, perform a straight line search regarding the direction of steepest descent g1 at Pl (\ Find the point P2° with the minimum error. Next, Pa
A straight line search is performed from ' in the direction of the previous weight change amount ΔW1 (
\ Find the point P2 with the minimum error.The value of the learning parameter that results in the minimum error with respect to the direction of steepest descent used at this time is ε.

Bt、  p2’から△W1の方向に関して誤差最小と
なるモーメンタムの値をαoptとすると、 2回目の
学習によって重みは W2”Wl   +  ε oot   本  gl 
  +  α o 11t  零  Δ Wlに変更さ
れも 2回目の学習における重み変更量は △W2”  εoptgg+  + αapt  本 
△W1として記憶される。以上の動作を第8図で説明す
ると、第2回目の学習において(友 まず直線探索部6
7が最急降下方向に関して複数の学習パラメータに対す
る重み変更量を出力し モーメンタム直線探索部68か
モーメンタムを零に設定し 隠れ層22および出力層2
1によってそれらの重み変更量に対する誤差を求へ そ
れら誤差のうちで最小となる重み変更量に対する誤差曲
面上の点P2’を求める。直線探索部67がP2′に相
当する重み変更量を出力L モーメンタム直線探索部6
8がその重み変更量に6w1のα倍(αはモーメンタム
)を加えて重み変更部65に出力し 隠れ層22および
出力層21によってそのモーメンタムに対する誤差を求
める。
If αopt is the momentum value that minimizes the error in the direction from Bt, p2' to △W1, the weight will be W2''Wl + ε oot by the second learning.
+ α o 11t zero Δ Even if it is changed to Wl, the amount of weight change in the second learning is △W2” εoptgg+ + αapt Book
It is stored as ΔW1. To explain the above operation with reference to FIG.
7 outputs the amount of weight change for a plurality of learning parameters regarding the steepest descent direction, the momentum straight line search unit 68 sets the momentum to zero, and the hidden layer 22 and output layer 2
1 to find the error for these weight change amounts. Find a point P2' on the error surface for the weight change amount that is the minimum among these errors. Straight line search unit 67 outputs the weight change amount corresponding to P2' L Momentum straight line search unit 6
8 adds α times 6w1 (α is momentum) to the weight change amount and outputs the result to the weight change unit 65, and the hidden layer 22 and output layer 21 calculate an error with respect to the momentum.

モーメンタム直線探索部68は複数のモーメンタムを設
定し それらのモーメンタムのうち誤差か最小となるモ
ーメンタムを求める。重み変更部65は誤差最小のモー
メンタムに対する重み変更量で、重みを変更すム 以下
同様に誤差が十分に小さくなるまで、重み変更を繰り返
す。このように 本実施例の学習機械で(よ 最急降下
方向に対する直線探索および前回の重み変更方向に関す
る直線探索を繰り返して学習を進めることによって、学
習パラメータおよびモーメンタムの最適値を動的に設定
して誤差を小さくしてゆく。
The momentum straight line search unit 68 sets a plurality of momentums and finds the momentum that minimizes the error among those momentums. The weight change unit 65 changes the weight by the weight change amount for the momentum with the minimum error.The weight change unit 65 repeats the weight change in the same manner until the error becomes sufficiently small. In this way, the learning machine of this example dynamically sets the optimal values of the learning parameters and momentum by repeating the straight line search for the steepest descent direction and the straight line search for the previous weight change direction. Reduce the error.

以上のようl−、本実施例によれば直線探索によって誤
差が最小となる学習パラメータおよびモーメンタムが動
的に設定される。最急降下方向に対して誤差最小となる
学習パラメータと、前回の重み変更方向に関して誤差最
小となるモーメンタムとを用いることにより、重み変更
の大きさおよび方向を動的に設定できるた数 従来の学
習機械に比べて、少ない回数の重み変更で誤差が最小化
される。
As described above, according to this embodiment, the learning parameters and momentum that minimize the error are dynamically set by the straight line search. Conventional learning machine Compared to , the error is minimized by changing the weights a small number of times.

な耘 本実施例では 隠れ層22は人力信号を処理して
出力層に出力する多久カー出力回路から成っていた力(
階層状に接続された多入力−出力回路によって構成して
もよい。また本実施例で(表2個の入力信号に対して1
個の出力信号を出力した力\ これらの入出力信号の個
数は何個でもよい。
In this embodiment, the hidden layer 22 is composed of a Takuker output circuit that processes human input signals and outputs them to the output layer.
It may also be configured with multiple input-output circuits connected in a hierarchical manner. In addition, in this embodiment (1 for the two input signals in the table)
The number of these input/output signals may be any number.

発明の詳細 な説明したように 本発明によれ(′L 重み変更方向
を複数の方向から動的に選択して重みを変更でき、誤差
が最小となる学習パラメータおよび加速パラメータを動
的に設定でき、誤差最小の学習パラメータ重み変更量に
前回の学習における重み変更量の一定の割合もしくは最
適な割合を加えて重みを変更でき、学習機械の学習時間
を短縮できる。
As described in detail, according to the present invention, it is possible to dynamically select the weight change direction from a plurality of directions to change the weights, and dynamically set the learning parameters and acceleration parameters that minimize the error. , the weight can be changed by adding a fixed ratio or an optimal ratio of the weight change amount in the previous learning to the learning parameter weight change amount with the minimum error, and the learning time of the learning machine can be shortened.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の第1の実施例における学習機械の構成
に 第2図は同実施例の動作を示す誤差曲面の等廃線の
模式医 第3図は同実施例の誤差曲面の出発点とPlと
の間の断面@ 第4図は本実施例の直線探索における動
作を示すPADI!  第5図は本発明の第2の実施例
における学習機械の構成久 第6図は同実施例の学習回
路97の構成医第7図は同実施例の共役勾配方向決定部
16の詳細ブロック医 第8図は本発明の第3の実施例
における学習機械の構成医 第9図は同実施例の動作を
示す誤差曲面の等廃線の模式匁 第10図は従来の学習
機械の一般的構成@ 第11図は従来の学習機械の構成
医 第12図は同従来例の加算器20λ 210及び2
11の特性関数のグラフ、第13図は同従来例の学習機
械の学習回路217の構成は 第14図は同従来例の学
習機械の学習回路217の詳細ブロック図である。 15・・・・最急降下方向決定風 16・・・・共役勾配方向決定部65・・・・重み変更
部67・・・・直線探索ム77・・・・隠れ層積和記憶
詠92・・・・不適学習状態検出乳 代理人の氏名 弁理士 粟野重孝 はか1名第 図 第 図 wl ” Wb ” ”1 第 図 圀 第 図 W[+2 jz+ J) 第1 2図 y[j l 第130
Fig. 1 shows the configuration of the learning machine according to the first embodiment of the present invention. Fig. 2 shows the operation of the same embodiment and is a schematic diagram of the iso-abandoned line of the error surface. Fig. 3 shows the starting point of the error surface of the same embodiment. Cross section between point and Pl @Figure 4 shows PADI! which shows the operation in straight line search of this embodiment! FIG. 5 shows the configuration of the learning machine according to the second embodiment of the present invention. FIG. 6 shows the configuration of the learning circuit 97 of the second embodiment. FIG. FIG. 8 shows the configuration of a learning machine according to the third embodiment of the present invention. FIG. 9 shows a schematic diagram of the iso-line of the error surface showing the operation of the third embodiment. FIG. 10 shows the general configuration of a conventional learning machine. @ Fig. 11 shows the configuration of the conventional learning machine. Fig. 12 shows the adder 20λ 210 and 2 of the conventional example.
FIG. 13 shows the configuration of the learning circuit 217 of the conventional learning machine. FIG. 14 is a detailed block diagram of the learning circuit 217 of the conventional learning machine. 15... Steepest descent direction determination wind 16... Conjugate gradient direction determining unit 65... Weight changing unit 67... Straight line search unit 77... Hidden layer sum of products memorization 92... ... Name of agent for detecting inappropriate learning state Patent attorney Shigetaka Awano 1 person Figure wl ” Wb ” ” 1 Figure 1 W[+2 jz+ J) 1 2 y[j l 130

Claims (14)

【特許請求の範囲】[Claims] (1)入力信号の加重和に飽和特性を持つ特性関数で非
線形処理を施して出力する複数の多入力−出力回路から
成る隠れ層と、前記隠れ層の出力信号の加重和に飽和特
性を持つ特性関数で非線形処理を施して出力する多入力
−出力回路から成る出力層と、前記出力層の望ましい出
力信号を発生する教師信号発生部と、前記教師信号発生
部の出力と前記出力層の出力との誤差を最小化するため
の重み変更方向を複数の方向から選択して決定する重み
変更方向決定部と、重み変更方向に関して複数の学習パ
ラメータに対する重み変更量を出力する直線探索部と、
前記直線探索部で求められた重み変更量に前回の重み変
更量の定数倍を加えて重みを変更する重み変更部とを備
えたことを特徴とする学習機械。
(1) A hidden layer consisting of multiple input-output circuits that performs nonlinear processing using a characteristic function that has a saturation characteristic on the weighted sum of input signals, and has a saturation characteristic on the weighted sum of the output signals of the hidden layer. an output layer consisting of a multi-input-output circuit that performs nonlinear processing using a characteristic function and outputs the output; a teacher signal generation section that generates a desired output signal of the output layer; an output of the teacher signal generation section; and an output of the output layer. a weight change direction determining unit that selects and determines a weight change direction from a plurality of directions to minimize the error between the weight change direction and a straight line search unit that outputs weight change amounts for a plurality of learning parameters regarding the weight change direction;
A learning machine comprising: a weight change unit that changes the weight by adding a constant times the previous weight change amount to the weight change amount found by the straight line search unit.
(2)入力信号の加重和に飽和特性を持つ特性関数で非
線形処理を施して出力する複数の多入力−出力回路から
成る隠れ層と、前記隠れ層の出力信号の加重和に飽和特
性を持つ特性関数で非線形処理を施して出力する多入力
−出力回路から成る出力層と、前記出力層の望ましい出
力信号を発生する教師信号発生部と、前記教師信号発生
部の出力と前記出力層の出力との誤差を最小化するため
の重み変更方向を複数の方向から選択して決定する重み
変更方向決定部と、重み変更方向に関して複数の学習パ
ラメータに対する重み変更量を出力する直線探索部と、
前記直線探索部で求められた重み変更量に前回の重み変
更量の定数倍を加えて重みを変更する重み変更部と、入
力信号と隠れ層の重みとの積和および入力信号と隠れ層
の重みの変更方向との積和を記憶する隠れ層積和記憶部
とを備えたことを特徴とする学習機械。
(2) A hidden layer consisting of multiple input-output circuits that performs nonlinear processing using a characteristic function that has a saturation characteristic on the weighted sum of input signals, and has a saturation characteristic on the weighted sum of the output signals of the hidden layer. an output layer consisting of a multi-input-output circuit that performs nonlinear processing using a characteristic function and outputs the output; a teacher signal generation section that generates a desired output signal of the output layer; an output of the teacher signal generation section; and an output of the output layer. a weight change direction determining unit that selects and determines a weight change direction from a plurality of directions to minimize the error between the weight change direction and a straight line search unit that outputs weight change amounts for a plurality of learning parameters regarding the weight change direction;
a weight change unit that changes the weight by adding a constant times the previous weight change amount to the weight change amount found by the straight line search unit; 1. A learning machine comprising: a hidden layer sum-of-products storage unit that stores sums of products with weight change directions.
(3)入力信号の加重和に飽和特性を持つ特性関数で非
線形処理を施して出力する複数の多入力−出力回路から
成る隠れ層と、前記隠れ層の出力信号の加重和に飽和特
性を持つ特性関数で非線形処理を施して出力する多入力
−出力回路から成る出力層と、前記出力層の望ましい出
力信号を発生する教師信号発生部と、前記教師信号発生
部の出力と前記出力層の出力との誤差を最小化するため
の重み変更方向を複数の方向から選択して決定する重み
変更方向決定部と、重み変更方向に関して複数の学習パ
ラメータに対する重み変更量を出力する直線探索部と、
前記直線探索部で求められた重み変更量に前回の重み変
更量の定数倍を加えて重みを変更する重み変更部と、学
習をそれ以上進めても誤差が効率的に減少しない不適当
な状態に陥っていることを検出する不適学習状態検出部
とを備えたことを特徴とする学習機械。
(3) A hidden layer consisting of multiple input-output circuits that performs nonlinear processing using a characteristic function that has a saturation characteristic on the weighted sum of input signals, and has a saturation characteristic on the weighted sum of the output signals of the hidden layer. an output layer consisting of a multi-input-output circuit that performs nonlinear processing using a characteristic function and outputs the output; a teacher signal generation section that generates a desired output signal of the output layer; an output of the teacher signal generation section; and an output of the output layer. a weight change direction determining unit that selects and determines a weight change direction from a plurality of directions to minimize the error between the weight change direction and a straight line search unit that outputs weight change amounts for a plurality of learning parameters regarding the weight change direction;
A weight change unit that changes the weight by adding a constant multiple of the previous weight change amount to the weight change amount found by the straight line search unit, and an inappropriate state in which the error is not efficiently reduced even if learning is further advanced. What is claimed is: 1. A learning machine comprising: an inappropriate learning state detecting unit that detects that the learning machine is falling into.
(4)入力信号の加重和に飽和特性を持つ特性関数で非
線形処理を施して出力する複数の多入力−出力回路から
成る隠れ層と、前記隠れ層の出力信号の加重和に飽和特
性を持つ特性関数で非線形処理を施して出力する多入力
−出力回路から成る出力層と、前記出力層の望ましい出
力信号を発生する教師信号発生部と、前記教師信号発生
部の出力と前記出力層の出力との誤差を最小化するため
の重み変更方向を複数の方向から選択して決定する重み
変更方向決定部と、重み変更方向に関して複数の学習パ
ラメータに対する重み変更量を出力する直線探索部と、
前記直線探索部で求められた重み変更量に前回の重み変
更量の定数倍を加えて重みを変更する重み変更部と、入
力信号と隠れ層の重みとの積和および入力信号と隠れ層
の重みの変更方向との積和を記憶する隠れ層積和記憶部
と、学習をそれ以上進めても誤差が効率的に減少しない
不適当な状態に陥っていることを検出する不適学習状態
検出部とを備えたことを特徴とする学習機械。
(4) A hidden layer consisting of a plurality of multi-input-output circuits that performs nonlinear processing using a characteristic function that has a saturation characteristic on the weighted sum of input signals and outputs the result, and a weighted sum of the output signals of the hidden layer that has a saturation characteristic. an output layer consisting of a multi-input-output circuit that performs nonlinear processing using a characteristic function and outputs the output; a teacher signal generation section that generates a desired output signal of the output layer; an output of the teacher signal generation section; and an output of the output layer. a weight change direction determining unit that selects and determines a weight change direction from a plurality of directions to minimize the error between the weight change direction and a straight line search unit that outputs weight change amounts for a plurality of learning parameters regarding the weight change direction;
a weight change unit that changes the weight by adding a constant times the previous weight change amount to the weight change amount found by the straight line search unit; A hidden layer sum-of-products storage unit that stores the sum of products with the weight change direction, and an inappropriate learning state detection unit that detects that the error is in an inappropriate state where the error does not decrease efficiently even if learning continues. A learning machine characterized by:
(5)入力信号の加重和に飽和特性を持つ特性関数で非
線形処理を施して出力する複数の多入力−出力回路から
成る隠れ層と、前記隠れ層の出力信号の加重和に飽和特
性を持つ特性関数で非線形処理を施して出力する多入力
−出力回路から成る出力層と、前記出力層の望ましい出
力信号を発生する教師信号発生部と、前記教師信号発生
部の出力と前記出力層の出力との誤差を最小化するため
の重み変更方向を複数の方向から選択して決定する重み
変更方向決定部と、重み変更方向に関して複数の学習パ
ラメータに対する重み変更量を出力する直線探索部と、
前記直線探索部で求められた重み変更量に加える前回の
重み変更量の比率を動的に設定し重みを変更する重み変
更部とを備えたことを特徴とする学習機械。
(5) A hidden layer consisting of a plurality of multi-input-output circuits that performs nonlinear processing using a characteristic function that has a saturation characteristic on the weighted sum of input signals and outputs the result, and a weighted sum of the output signals of the hidden layer that has a saturation characteristic. an output layer consisting of a multi-input-output circuit that performs nonlinear processing using a characteristic function and outputs the output; a teacher signal generation section that generates a desired output signal of the output layer; an output of the teacher signal generation section; and an output of the output layer. a weight change direction determining unit that selects and determines a weight change direction from a plurality of directions to minimize the error between the weight change direction and a straight line search unit that outputs weight change amounts for a plurality of learning parameters regarding the weight change direction;
A learning machine comprising: a weight changing unit that changes the weight by dynamically setting a ratio of a previous weight change amount to the weight change amount found by the straight line search unit.
(6)入力信号の加重和に飽和特性を持つ特性関数で非
線形処理を施して出力する複数の多入力−出力回路から
成る隠れ層と、前記隠れ層の出力信号の加重和に飽和特
性を持つ特性関数で非線形処理を施して出力する多入力
−出力回路から成る出力層と、前記出力層の望ましい出
力信号を発生する教師信号発生部と、前記教師信号発生
部の出力と前記出力層の出力との誤差を最小化するため
の重み変更方向を複数の方向から選択して決定する重み
変更方向決定部と、重み変更方向に関して複数の学習パ
ラメータに対する重み変更量を出力する直線探索部と、
前記直線探索部で求められた重み変更量に加える前回の
重み変更量の比率を動的に設定し重みを変更する重み変
更部と、入力信号と隠れ層の重みとの積和および入力信
号と隠れ層の重みの変更方向との積和を記憶する隠れ層
積和記憶部とを備えたことを特徴とする学習機械。
(6) A hidden layer consisting of a plurality of multi-input-output circuits that performs nonlinear processing using a characteristic function that has a saturation characteristic on the weighted sum of input signals, and has a saturation characteristic on the weighted sum of the output signals of the hidden layer. an output layer consisting of a multi-input-output circuit that performs nonlinear processing using a characteristic function and outputs the output; a teacher signal generation section that generates a desired output signal of the output layer; an output of the teacher signal generation section; and an output of the output layer. a weight change direction determining unit that selects and determines a weight change direction from a plurality of directions to minimize the error between the weight change direction and a straight line search unit that outputs weight change amounts for a plurality of learning parameters regarding the weight change direction;
a weight change unit that changes the weight by dynamically setting a ratio of the previous weight change amount to the weight change amount obtained by the straight line search unit; and a sum of products of the input signal and the weight of the hidden layer, and the input signal. 1. A learning machine comprising: a hidden layer sum-of-products storage unit that stores sum-of-products of the weights of the hidden layer and the changing direction of the weights of the hidden layer.
(7)入力信号の加重和に飽和特性を持つ特性関数で非
線形処理を施して出力する複数の多入力−出力回路から
成る隠れ層と、前記隠れ層の出力信号の加重和に飽和特
性を持つ特性関数で非線形処理を施して出力する多入力
−出力回路から成る出力層と、前記出力層の望ましい出
力信号を発生する教師信号発生部と、前記教師信号発生
部の出力と前記出力層の出力との誤差を最小化するため
の重み変更方向を複数の方向から選択して決定する重み
変更方向決定部と、重み変更方向に関して複数の学習パ
ラメータに対する重み変更量を出力する直線探索部と、
前記直線探索部で求められた重み変更量に加える前回の
重み変更量の比率を動的に設定し重みを変更する重み変
更部と、学習をそれ以上進めても誤差が効率的に減少し
ない不適当な状態に陥っていることを検出する不適学習
状態検出部とを備えたことを特徴とする学習機械。
(7) A hidden layer consisting of a plurality of multi-input-output circuits that performs nonlinear processing using a characteristic function that has a saturation characteristic on the weighted sum of input signals, and has a saturation characteristic on the weighted sum of the output signals of the hidden layer. an output layer consisting of a multi-input-output circuit that performs nonlinear processing using a characteristic function and outputs the output; a teacher signal generation section that generates a desired output signal of the output layer; an output of the teacher signal generation section; and an output of the output layer. a weight change direction determining unit that selects and determines a weight change direction from a plurality of directions to minimize the error between the weight change direction and a straight line search unit that outputs weight change amounts for a plurality of learning parameters regarding the weight change direction;
a weight change unit that dynamically sets the ratio of the previous weight change amount to the weight change amount found by the straight line search unit, and changes the weight; A learning machine comprising: an inappropriate learning state detection unit that detects that the learning machine is in an appropriate state.
(8)入力信号の加重和に飽和特性を持つ特性関数で非
線形処理を施して出力する複数の多入力−出力回路から
成る隠れ層と、前記隠れ層の出力信号の加重和に飽和特
性を持つ特性関数で非線形処理を施して出力する多入力
−出力回路から成る出力層と、前記出力層の望ましい出
力信号を発生する教師信号発生部と、前記教師信号発生
部の出力と前記出力層の出力との誤差を最小化するため
の重み変更方向を複数の方向から選択して決定する重み
変更方向決定部と、重み変更方向に関して複数の学習パ
ラメータに対する重み変更量を出力する直線探索部と、
前記直線探索部で求められた重み変更量に加える前回の
重み変更量の比率を動的に設定し重みを変更する重み変
更部と、入力信号と隠れ層の重みとの積和および入力信
号と隠れ層の重みの変更方向との積和を記憶する隠れ層
積和記憶部と、学習をそれ以上進めても誤差が効率的に
減少しない不適当な状態に陥っていることを検出する不
適学習状態検出部とを備えたことを特徴とする学習機械
(8) A hidden layer consisting of a plurality of multi-input-output circuits that performs nonlinear processing using a characteristic function that has a saturation characteristic on the weighted sum of input signals, and has a saturation characteristic on the weighted sum of the output signals of the hidden layer. an output layer consisting of a multi-input-output circuit that performs nonlinear processing using a characteristic function and outputs the output; a teacher signal generation section that generates a desired output signal of the output layer; an output of the teacher signal generation section; and an output of the output layer. a weight change direction determining unit that selects and determines a weight change direction from a plurality of directions to minimize the error between the weight change direction and a straight line search unit that outputs weight change amounts for a plurality of learning parameters regarding the weight change direction;
a weight change unit that changes the weight by dynamically setting a ratio of the previous weight change amount to the weight change amount obtained by the straight line search unit; and a sum of products of the input signal and the weight of the hidden layer, and the input signal. A hidden layer sum-of-products storage unit that stores the sum of products with the changing direction of the weight of the hidden layer, and inappropriate learning that detects when the error is in an inappropriate state where the error cannot be efficiently reduced even if learning continues. A learning machine characterized by comprising a state detection section.
(9)教師信号発生部の出力と前記出力層の出力との誤
差を最小化するための重み変更方向を最急降下方向もし
くは共役勾配方向に決定する重み変更方向決定部を備え
たことを特徴とする請求項1〜8のいずれかに記載の学
習機械。
(9) A weight change direction determining unit that determines a weight change direction to be the steepest descent direction or the conjugate gradient direction for minimizing the error between the output of the teacher signal generation unit and the output of the output layer. The learning machine according to any one of claims 1 to 8.
(10)教師信号発生部の出力と前記出力層の出力との
誤差を最小化するための重み変更方向を最急降下方向に
決定する重み変更方向決定部を備えたことを特徴とする
請求項1〜8のいずれかに記載の学習機械。
(10) The present invention further comprises a weight change direction determination unit that determines a weight change direction to be the direction of steepest descent for minimizing the error between the output of the teacher signal generation unit and the output of the output layer. 9. The learning machine according to any one of 8 to 8.
(11)学習をそれ以上進めても誤差が効率的に減少し
ない不適当な状態に陥っていることを、重みの絶対値が
ある値よりも大きいことによって、検出する不適学習状
態検出部を備えたことを特徴とする請求項3、4、7、
8、9または10のいずれかに記載の学習機械。
(11) An inappropriate learning state detection unit is provided which detects, by determining that the absolute value of the weight is larger than a certain value, that the error is in an inappropriate state in which the error is not efficiently reduced even if the learning is further progressed. Claims 3, 4, 7,
8. The learning machine according to any one of 8, 9, or 10.
(12)学習をそれ以上進めても誤差が効率的に減少し
ない不適当な状態に陥っていることを、重みの絶対値が
ある値よりも大きいことによって検出し、重みを乱数で
初期化しなおして学習を再開する不適学習状態検出部を
備えたことを特徴とする請求項3、4、7、8、9また
は10のいずれかに記載の学習機械。
(12) If the error is not efficiently reduced even if learning continues, it is detected that the absolute value of the weight is larger than a certain value, and the weight is re-initialized with a random number. The learning machine according to any one of claims 3, 4, 7, 8, 9, or 10, further comprising an inappropriate learning state detecting unit that restarts learning.
(13)学習をそれ以上進めても誤差が効率的に減少し
ない不適当な状態に陥っていることを、重みの絶対値が
ある値よりも大きいことによって検出し、全ての重みを
一律に圧縮して学習を再開する不適学習状態検出部を備
えたことを特徴とする請求項3、4、7、8、9または
10のいずれかに記載の学習機械。
(13) If the error is not efficiently reduced even if learning continues, it is detected by the absolute value of the weight being larger than a certain value, and all weights are uniformly compressed. The learning machine according to any one of claims 3, 4, 7, 8, 9, or 10, further comprising an inappropriate learning state detection unit that restarts learning after the learning has been completed.
(14)学習をそれ以上進めても誤差が効率的に減少し
ない不適当な状態に陥っていることを、重みの絶対値が
ある値よりも大きいことによって検出し、重みの絶対値
が最も大きい重みのみを一律に圧縮して学習を再開する
不適学習状態検出部を備えたことを特徴とする請求項3
、4、7、8、9または10のいずれかに記載の学習機
械。
(14) An inappropriate state in which the error cannot be efficiently reduced even if learning is continued is detected by the absolute value of the weight being larger than a certain value, and the absolute value of the weight is the largest. Claim 3, further comprising an inappropriate learning state detection unit that uniformly compresses only the weights and restarts learning.
, 4, 7, 8, 9 or 10.
JP2125017A 1990-05-15 1990-05-15 Learning machine Pending JPH0424756A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2125017A JPH0424756A (en) 1990-05-15 1990-05-15 Learning machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2125017A JPH0424756A (en) 1990-05-15 1990-05-15 Learning machine

Publications (1)

Publication Number Publication Date
JPH0424756A true JPH0424756A (en) 1992-01-28

Family

ID=14899800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2125017A Pending JPH0424756A (en) 1990-05-15 1990-05-15 Learning machine

Country Status (1)

Country Link
JP (1) JPH0424756A (en)

Similar Documents

Publication Publication Date Title
US5485547A (en) Recognition unit and recognizing and judging apparatus employing same
KR920006792B1 (en) A learning machine having connection of layered multi input-output circuit
JPH06161496A (en) Voice recognition system for recognition of remote- controlled instruction word of electric household appliance
JPH04114263A (en) Learning machine
JPH0424756A (en) Learning machine
JPH08286922A (en) Fuzzy neural network device
JPH0421155A (en) Learning machine
JP3262340B2 (en) Information processing device
JPH07325797A (en) Learning type recognition and judgment device
JPH0462658A (en) Learning machine
JP2762735B2 (en) Unit recognition unit and learning type recognition judgment device
JP2639028B2 (en) Neural circuit learning device and learning method
JP3332414B2 (en) Neural network learning device
JPH0683798A (en) Learning recognizing device
JPH0367358A (en) Learning machine
JPH09138786A (en) Learning device for neural network
JPH0233655A (en) Nerve circuit network type pattern processor
JPH04662A (en) Learning machine
JPH064676A (en) Recognition judgement device
Patyra et al. Processing of incomplete fuzzy data using artificial neural networks
JPH01241668A (en) Dynamic neural network to have learning mechanism
Bielinska et al. Comparison of different methods of bilinear time series prediction
JPH05233784A (en) Signature inspection system
JPH05233860A (en) Learning system for time sequential pattern
JPH06295292A (en) Learning recognition device