JPH0462658A - Learning machine - Google Patents
Learning machineInfo
- Publication number
- JPH0462658A JPH0462658A JP2173456A JP17345690A JPH0462658A JP H0462658 A JPH0462658 A JP H0462658A JP 2173456 A JP2173456 A JP 2173456A JP 17345690 A JP17345690 A JP 17345690A JP H0462658 A JPH0462658 A JP H0462658A
- Authority
- JP
- Japan
- Prior art keywords
- output
- weight
- learning
- weight change
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006870 function Effects 0.000 claims abstract description 13
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 abstract description 9
- 229920006395 saturated elastomer Polymers 0.000 abstract description 4
- 238000001514 detection method Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000000034 method Methods 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
産業上の利用分野
本発明はデータ処理装置などに用いる学習機械に関すム
従来の技術
従来の学習機械としては たとえばり、E、 Rumm
elhartらによる’Learning repre
sentations by back−propag
ating errors 、 Nature Vol
、323 No、9(1986)に示されている。第5
図は従来の学習機械の一般的構成を示すブロック図を示
すものであり構成要素として、(201)、(202)
は入力端子、(217)は学習回踪 (218)、(2
19)、(220)は多入力−出方回路 (221)は
多入力−出方回路(218)、(219)で構成される
出力! (222)は多入力−出力回路(220)で
構成される隠れ層である。つぎに上記構成要素のお互い
の関連動作について説明する。第5図に示されるようζ
ζ 学習機械は多入力−出力回路(218)、(219
)、(220)を階層状に接続した構成によって、入力
端子(201)、(202)から大刀された信号を処理
して、出力端子(212)から出力する。このよう艮階
層状に接続された多入力−出力回路(218)、(21
9)、(220’)のう板 出力信号を出力する多入力
−出力回路(220)から成る層を出力層(221)と
呼び、それ以外の多入力−出力回路(218)、(21
9)から成る層を隠れ層(222)と呼本 隠れ層(2
22)+よ −っの層をなす多入力−出力回路(220
)によって構成されても良いし 複数の層をなす多入力
−出力回路によって構成されても良L)iW6図にこの
従来の学習機械のさらに詳細な構成を示すブロック図を
示す。第6図に示すようζへ 構成要素として(203
)〜(208)は可変重み乗算器 (209)〜(21
1)は飽和人出力特性を持つ加算器 (213)は教師
信号発生区 (214)は誤差算出i (215)は
最急降下方向決定皿(216)は重み変更ff1L
(217)は学習回路である。つぎに上記構成要素のお
互いの関連動作について説明すも 第6図に示されるよ
うに 多入力−出力回路(218)、(219)および
(220)は可変重み乗算器(203)〜(208)と
飽和入出力特性を持つ加算器(209)〜(211)か
らなっている。すなわ板 第j番目の多入力−出力回路
の出力信号は
y[j] = fnc(Σ(w[i、j]本y[i])
)”(1)で表される。ここE y[i]は前段の層
の第1番目の多久カー出力回路の出方信号であり、w[
i、 j]は前段の層の第1番目の多久カー出力回路の
出力信号が第j番目の多入力−出力回路に大刀されると
きに掛けられる重みである。(1)式は飽和特性を持つ
関数でシグモイド関数であり、一般にfnc(x)とし
て
などで表される。第7図番へ 前記のシグモイド関数で
表されべ 飽和入出力特性を持つ加算器(2o9)、(
2IO)および(211)の特性関数のグラフを示す。[Detailed Description of the Invention] Industrial Application Field The present invention relates to a learning machine used in a data processing device, etc.Prior art As a conventional learning machine, for example, E, Rumm.
'Learning repre by Elhart et al.
sentations by back-propag
Ating errors, Nature Vol.
, 323 No. 9 (1986). Fifth
The figure shows a block diagram showing the general configuration of a conventional learning machine, and the constituent elements are (201), (202),
is an input terminal, (217) is a learning terminal (218), (2
19), (220) are multi-input-output circuits (221) are multi-input-output circuits (218), (219) are outputs! (222) is a hidden layer composed of multiple input-output circuits (220). Next, the relative operations of the above components will be explained. ζ as shown in Figure 5
ζ The learning machine is a multi-input-output circuit (218), (219
) and (220) are connected in a hierarchical manner, the signals received from the input terminals (201) and (202) are processed and output from the output terminal (212). In this way, the multi-input-output circuits (218) and (21) are connected in a hierarchical manner.
9), (220') plate The layer consisting of the multi-input-output circuit (220) that outputs the output signal is called the output layer (221), and the other multi-input-output circuits (218), (21
9) is called the hidden layer (222).
22) Multi-input-output circuit (220
) or a multi-input-output circuit having multiple layers. Figure 6 shows a block diagram showing a more detailed configuration of this conventional learning machine. As shown in Figure 6, to ζ as a component (203
) to (208) are variable weight multipliers (209) to (21
1) is an adder with saturated human output characteristics (213) is the teacher signal generation area (214) is the error calculation i (215) is the steepest descent direction determining plate (216) is the weight change ff1L
(217) is a learning circuit. Next, the related operations of the above-mentioned components will be explained. As shown in FIG. It consists of adders (209) to (211) having saturation input/output characteristics. In other words, the output signal of the j-th multi-input-output circuit is y[j] = fnc(Σ(w[i,j] y[i])
)” (1) where E y[i] is the output signal of the first Takuker output circuit in the previous layer, and w[
i, j] is a weight applied when the output signal of the first multi-input output circuit in the previous layer is applied to the j-th multi-input-output circuit. Equation (1) is a sigmoid function with saturation characteristics, and is generally expressed as fnc(x). Go to Figure 7 Adder (2o9) with saturated input/output characteristics, which should be expressed by the sigmoid function described above, (
2IO) and (211) are shown.
学習機械Cヨ このような多入力−出方回路を階層状
に接続した構成になっており、学習において(友人力信
号に対して望ましい出方信号(以下、教師信号と呼ぶ)
を出力するよう?Q 可変重み乗算器(203)〜(
208)で掛けられる重みを変更する。重みの変更方法
としてζよ まず教師信号と出力層(221)の出力信
号とか収 誤差
を求める。ここ+Q yp[j]は第9番目の入力信
号に対する出力層(,221)の第j番目の多入力−出
力回路の出力信号 tp[j]はyp[j]に対する教
師信号、Σは全ての教師信号に関する総祖 Σは出力層
の全」
ての多入力−出力回路に関する総iwは重みW[i、j
]を成分とするベクトル(以下Wを重みベクトルと呼ぶ
)である。(2)式で示されるように誤差Eは教師信号
と出力層の出力信号との差の2乗和で表され 重みベク
トルWの関数となる。学習では重みを変更し 教師信号
と実際の出が、言号との基すなわち誤差を最小化する。The learning machine C has a configuration in which multiple input and output circuits are connected in a hierarchical manner, and in learning (a desirable output signal (hereinafter referred to as a teacher signal) for the friend signal).
to output? Q variable weight multiplier (203) ~ (
208) to change the weight applied. To change the weights, first calculate the teacher signal, the output signal of the output layer (221), and the convergence error. Here, +Q yp[j] is the output signal of the j-th multi-input-output circuit of the output layer (,221) for the 9th input signal, tp[j] is the teacher signal for yp[j], and Σ is the output signal for all The total weight Σ for the teacher signal is the weight W[i, j
] (hereinafter W is referred to as a weight vector). As shown in equation (2), the error E is expressed as the sum of squares of the difference between the teacher signal and the output signal of the output layer, and is a function of the weight vector W. In learning, the weights are changed to minimize the difference between the teacher signal and the actual output, that is, the error.
重みの変更量はΔ W −−ε 零 g +
α 本 △ w’ ・ ・ ・・(3)によっ
て決定される。ここで、 εは学習率と呼ばれる正の定
数、αはモーメンタムと呼ばれる正の定数であり、△W
′は 前回の学習における重み変更量のベクトル表現で
あ4 gは
で表される誤差Eの重みw[i、 j]による微分を成
分とするベクトルで、最急降下方向と呼ばれる。The amount of weight change is Δ W −−ε 0 g +
α book △ w' ・ ・ ・ Determined by (3). Here, ε is a positive constant called learning rate, α is a positive constant called momentum, and △W
' is a vector representation of the weight change amount in the previous learning, and g is a vector whose component is the differential of the error E expressed by the weight w[i, j], which is called the direction of steepest descent.
第8図鳳 この従来の学習機械の学習回路(217)の
構成を示すブロック図を示す。第8図に示すように構成
要素として、(223)は出が、221)の層出力の入
力端子、(224)は隠れ層(222)の出力の入力端
子、(225)は入力信号の入力端子、(226)は出
力層(221)の重みの出力端子、(227)は隠れ層
(222)の重みの出力端子であも つぎに上記構成要
素のお互いの関連動作を説明すも 従来の学習機械の学
習回路(217)で(よ 教師信号発生部(213)が
入力信号に対する教師信号tp[j]を発生する。誤差
算出部(214N友 教師信号tp[j]と出力層(2
21)の出力信号yp[j]とから、 (2)式で表さ
れる誤差Eを算出する。FIG. 8 shows a block diagram showing the configuration of the learning circuit (217) of this conventional learning machine. As shown in FIG. 8, the components are as follows: (223) is an input terminal for the layer output of 221), (224) is an input terminal for the output of the hidden layer (222), and (225) is an input terminal for the input signal. The terminals (226) are the output terminals for the weights of the output layer (221), and (227) are the output terminals for the weights of the hidden layer (222). Next, we will explain the relative operations of the above components. In the learning circuit (217) of the learning machine, the teacher signal generator (213) generates the teacher signal tp[j] for the input signal.The error calculator (214N) generates the teacher signal tp[j] and the output layer (2
21) from the output signal yp[j], the error E expressed by equation (2) is calculated.
誤差算出部(214)は重みの変更のために必要な教師
信号と出力信号との差信号
to[j] −yJjコ・・・・(5)を、最急降下
方向決定部(215)に出力する。最急降下方向決定部
(215)は前記差信号 出力層出力信号隠れ層比力信
号 人力信号および出力層(221>の重みをもと番二
重みをベクトルで表現する重み空間における誤差Eへ
(4)式で求まる最急降下方向を求める。最急降下方
向決定部(215)l;L 最急降下方向に学習率を
掛けて、重み変更部(216)に出力する。The error calculation unit (214) outputs the difference signal to[j] −yJj (5) between the teacher signal and the output signal necessary for changing the weight to the steepest descent direction determination unit (215). do. The steepest descent direction determining unit (215) calculates the difference signal, the output layer output signal, the hidden layer specific force signal, the human input signal, and the weight of the output layer (221) and converts it to an error E in the weight space where the weight is expressed as a vector (4 ) Find the steepest descent direction determined by the formula.Steepest descent direction determination unit (215) l;L Multiply the steepest descent direction by the learning rate and output it to the weight change unit (216).
重み変更部(216)は(3)式によって重み変更量を
求へ 各可変型み乗算器(203)〜(208)で掛け
る重みを変更する。以上のように最急降下法によって重
みの変更量を求めることの繰り返しにより、誤差を小さ
くしてゆき、誤差が十分に小さくなると、出力信号が望
ましい値に十分近くなったものとして、学習を終了する
。The weight change unit (216) calculates the amount of weight change using equation (3) and changes the weight applied by each variable type multiplier (203) to (208). As described above, by repeatedly calculating the amount of weight change using the steepest descent method, the error is reduced, and when the error becomes sufficiently small, the output signal is assumed to be sufficiently close to the desired value, and learning is terminated. .
発明が解決しようとする課題
しかしながら上記のような構成では 重みが限定された
精度で表されるとき、重みが変更されないことがある。Problems to be Solved by the Invention However, in the above configuration, when the weights are expressed with limited accuracy, the weights may not be changed.
たとえ(L 重みが256階調の精度で表されるとき、
重みに対して重みの変更量が17256以下になると、
重みは変更されなしt −たん重みが変更されなくなる
と、次回の重み変更において叡 同じ重みに対する最急
降下方向を求ム 同じ重み変更量を求めることになるの
で、ふたたび重みに対して重みの変更量が1/256以
下になり、結局それ以降の学習では重みは変更されなく
なる。すなわ板 重みが限定された精度で表されるとき
、誤差が十分小さくならず、学習が終了しな(tまた
学習率εは経験的に定められる力\ もしくは試行錯誤
で求められた固定の値が用いられており、学習率が大き
いと誤差曲面の極小部を越えて重みが変更され 誤差が
増加し 学習に要する時間が長くなるという問題を有し
てい九本発明は上記問題に留意し 重みが変更され続1
す、すみやかに学習が終了する学習機械を提供すること
を目的とする。For example, when (L weight is expressed with an accuracy of 256 gradations,
When the amount of change in weight becomes 17256 or less,
The weight is not changed t - Once the weight is no longer changed, the next time the weight is changed, the direction of steepest descent for the same weight is determined.Since the same weight change amount is to be calculated, the weight change amount is again calculated for the weight. becomes 1/256 or less, and in the end, the weights are not changed in subsequent learning. In other words, when the weights are expressed with limited precision, the error is not small enough and the learning is not completed (t or
The learning rate ε is a force determined empirically, or a fixed value determined through trial and error.When the learning rate is large, the weights are changed beyond the minimum part of the error surface, increasing the error and causing a problem with learning. However, the present invention takes into consideration the above problem, and the weights are changed.Continued 1
The purpose is to provide a learning machine that can quickly complete learning.
課題を解決するための手段
本発明の上記目的を達成するためへ 重み変更方向決定
部の出力を入力とし 学習率を乗算して重み変更量を出
力する直線探索部を設け、重み変更量が所定の値以下の
とき重み変更部にて重み変更をせず、学習率を変更する
ものである。第2の発明として、直線探索部に出力層の
出力と教師信号発生部の出力との誤差を入力し 重み変
更により誤差が増加するとき(よ 学習率を低減するも
のであ4 構成として4表 人力信号の加重和に飽和特
性を持つ特性関数で非線形処理を施して出力する多入力
−出力回路から成る隠れ層と、前記隠れ層の出力信号の
加重和に飽和特性を持つ特性関数で非線形処理を施して
出力する多入力−出力回路から成る出力層と、前記出力
層の望ましい出力信号を発生する教師信号発生部と、前
記教師信号発生部の出力と前記出力層の出力との誤差を
最小化するための重み変更方向を決定する重み変更方向
決定部と、重み変更方向に関して学習率を動的に設定し
て重み変更量を出力する直線探索部と、前記直線探索部
で求められた重み変更量をもとに重みを変更する重み変
更部とを備えたことを特徴とする学習機械である。Means for Solving the Problems To achieve the above object of the present invention, a straight line search unit is provided which inputs the output of the weight change direction determining unit, multiplies the learning rate and outputs the weight change amount, and calculates the weight change amount to a predetermined value. When the value is less than or equal to , the weight changing section does not change the weight, but changes the learning rate. As a second invention, when the error between the output of the output layer and the output of the teacher signal generation section is input to the straight line search section, and the error increases due to weight change (as shown in Table 4), the learning rate is reduced. A hidden layer consisting of a multi-input-output circuit that performs nonlinear processing on the weighted sum of human input signals using a characteristic function that has a saturation characteristic, and outputs the nonlinear processing using a characteristic function that has a saturation characteristic on the weighted sum of the output signals of the hidden layer. an output layer consisting of a multi-input-output circuit that outputs a desired output signal from the output layer, a teacher signal generation section that generates a desired output signal of the output layer, and a teacher signal generation section that minimizes the error between the output of the teacher signal generation section and the output of the output layer. a weight change direction determination unit that determines the weight change direction for the weight change direction, a straight line search unit that dynamically sets a learning rate regarding the weight change direction and outputs the weight change amount, and a weight change direction determined by the straight line search unit. The learning machine is characterized by comprising a weight changing unit that changes the weight based on the amount of change.
作用
上記構成の本発明の学習機械は隠れ層および出力層で入
力信号に重み付けをして加算し 非線形処理を施して出
力信号を末成 教師信号発生部が出力する望ましい出力
信号と出力層の出力信号との誤差を最小化するために
重み変更方向決定部で重みの変更方向を決定した後、直
線探索部で重み変更方向に関して学習率を動的に設定し
て重み変更量を末成 重み変更部で各重みを変更する。Operation The learning machine of the present invention configured as described above weights and adds input signals in the hidden layer and the output layer, and performs nonlinear processing to obtain an output signal.The desired output signal output by the teacher signal generation unit and the output of the output layer To minimize the error with the signal
After the weight change direction determination unit determines the weight change direction, the linear search unit dynamically sets a learning rate regarding the weight change direction to determine the weight change amount.The weight change unit changes each weight.
以下同様に 重みの変更方向において学習率を動的に設
定し重みを変更する動作を繰り返して誤差を十分に小さ
くする。重みが限定された精度で表され 重み変更量が
重みの精度の最小単位より小さいために 重みが変更さ
れないときに(表 直線探索部において学習率を増加さ
せることによって重み変更量を増加させ、重みを変更す
る。これによって、重みが限定された精度で表されてい
るときで耘 重みが変更され続け、学習が終了する。In the same way, the learning rate is dynamically set in the direction of weight change and the operation of changing the weight is repeated to make the error sufficiently small. When the weights are expressed with limited accuracy and the weights are not changed because the amount of weight changes is smaller than the minimum unit of precision of the weights (Table This causes the weights to continue to change even when the weights are represented with limited precision, and the learning ends.
また 第2の発明は上記誤差が増加するときに(よ直線
探索部において学習率を減少させることによって重み変
更量を減少させる。これによって、設定された学習率が
大きいためへ 誤差曲面の極小部を越えて重みが変更さ
れることを防ぎミ 適切な学習率によって重みが変更さ
れ 短い時間で学習を終了することができる。In addition, the second invention reduces the amount of weight change by decreasing the learning rate in the straight line search section when the error increases. This prevents the weights from being changed beyond the specified learning rate and allows the learning to be completed in a short time.
実施例
第1図は本発明の第1の実施例における学習機械の構成
を示すブロック図を示すものである。第1図に示すよう
に構成要素として、 (1)および(2)は入力端子、
(3)〜(8)は可変重み乗算器(9)〜(11)は飽
和入出力特性をもつ加算器 (12)は出力端子、(1
3)は教師信号発生部(14)は誤差算出部(15)は
重み変更方向決定R,(21)は出力層 (22)は隠
れ胤(65)は重み変更! (67)は直線探索部(
93)は学習回a (94)〜(96)は多入力−出
力回路であも つぎに上記構成要素のお互いの関連動作
について説明すも 本実施例の学習機械Cヨ 可変重
み乗算器(3)〜(8)と飽和入出力特性を持つ加算器
(9)〜(11)からなる多入力−出力回路(94)〜
(96)を、階層状に接続した構成となっている。多入
力−出力回路(94)、 (95)、 (96)で(よ
入力信号に対して、重み付けして加算し 各加算器の
特性関数によって非線形処理を施して、出力信号を求め
る。Embodiment FIG. 1 is a block diagram showing the configuration of a learning machine in a first embodiment of the present invention. As shown in Figure 1, the components (1) and (2) are input terminals;
(3) to (8) are variable weight multipliers (9) to (11) are adders with saturation input/output characteristics (12) are output terminals, (1
3) is the teacher signal generation unit (14), the error calculation unit (15) is the weight change direction determination R, (21) is the output layer, (22) is the hidden seed (65) is the weight change! (67) is the straight line search part (
93) is a learning circuit A. (94) to (96) are multi-input-output circuits.Next, the related operations of the above components will be explained.The learning machine C of this embodiment is variable weight multiplier (3). ) to (8) and adders (9) to (11) with saturation input/output characteristics. Multi-input-output circuit (94) to
(96) are connected in a hierarchical manner. The multi-input/output circuits (94), (95), and (96) weight and add the input signals, and perform nonlinear processing using the characteristic function of each adder to obtain an output signal.
すなわ板 隠れ層(22)は入力信号を可変重み乗算器
(3)〜(6)で重み付けされ 飽和特性を持ス 第1
の特性関数で非線形処理する加算機(9)(10)で構
成され 出力層(21)は隠れ層(22)の出力信号を
可変重み乗算器(7)(8)で重み付けされ 飽和特性
を持つ第2の特性関数で非線形処理する加算器(11)
で構成されている。本実施例では入力信号に対する重み
付けCL 256階調の精度で表されている。In other words, the hidden layer (22) weights the input signal with the variable weight multipliers (3) to (6) and has saturation characteristics.
The output layer (21) weights the output signal of the hidden layer (22) with variable weight multipliers (7) and (8), and has saturation characteristics. Adder (11) that performs nonlinear processing using the second characteristic function
It consists of In this embodiment, the weighting CL for the input signal is expressed with an accuracy of 256 gradations.
学習回路(93)においてCL 出力層(21)の出
力と教師信号発生部(13)の出力とが等しくなるよう
番へ可変重み乗算器(3)〜(8)で掛けられる重みを
変更すム これらの重みを成分とするベクトルを重みベ
クトルと呼ぶと、重みベクトルの変更量をベクトルで表
すことができも この重み変更ベクトルの向きを重み変
更方向と呼、G% 本実施例でCL 重み変更方向
として(4)式で表される最急降下方向を用いる。教師
信号発生部(13)は望ましい出力信号すなわち教師信
号を誤差算出部(14)に対して出力す4 誤差算出部
(14)は実際の出力信号と教師信号との差信号((5
)式で表される)を重み変更方向決定部(15)に対し
て出力する。重み変更方向決定部(15)iL 隠れ
層(22)の出力信号と入力信号と出力層(21)の出
力信号と出力層(21)の重みとを用いて最急降下方向
gを束数 直線探索部(67)に対して出力する。In the learning circuit (93), the weights multiplied by the variable weight multipliers (3) to (8) are changed so that the output of the CL output layer (21) and the output of the teacher signal generator (13) are equal. If a vector having these weights as components is called a weight vector, the amount of change in the weight vector can be represented by a vector.The direction of this weight change vector is called the weight change direction, and G% In this example, CL weight change The direction of steepest descent expressed by equation (4) is used as the direction. The teacher signal generator (13) outputs a desired output signal, that is, the teacher signal, to the error calculator (14).The error calculator (14) outputs the difference signal ((5) between the actual output signal and the teacher signal
) is output to the weight change direction determining unit (15). Weight change direction determination unit (15) iL Performs bundle number straight line search to find the steepest descent direction g using the output signal of the hidden layer (22), the input signal, the output signal of the output layer (21), and the weight of the output layer (21) output to the section (67).
第2図に本実施例の学習機械の直線探索部(67)と重
み変更部(65)の構成を示すブロック図を示す。FIG. 2 shows a block diagram showing the configuration of the straight line search unit (67) and weight change unit (65) of the learning machine of this embodiment.
第2図に示すように構成要素として、(16)は学習率
設定! (17)は学習率乗算! (18)は重み
加算器(19)は重み記憶服(23)はモーメンタム乗
算撤(24)は前回の重み変更量記憶! (25)は
最急降下方向入力端子、(26)は重み出力端子である
。As shown in Figure 2, as a component, (16) is the learning rate setting! (17) is learning rate multiplication! (18) is a weight adder (19) is a weight memory (23) is a momentum multiplication remover (24) is a memory of the previous weight change amount! (25) is the steepest descent direction input terminal, and (26) is the weight output terminal.
重み変更方向決定部(15)で求められた最急降下方向
gカ(入力端子(25)から入力される。学習率設定部
(16)は学習率εを出力し 学習率乗算部(17)に
おいて、最急降下方向gと学習率εとの積を求めも こ
のように 直線探索部(67)は学習率とを設定し そ
の学習率とに応じた最急降下方向の重み変更量を出力す
も 重み記憶部(19)il 可変重み乗算器(3)
〜(8)で入力信号に乗算される重みの値W′を記憶し
ている。この重みの値は256階調の精度で表されてい
る。前回の重み変更量記憶部(24)ハ 前回の重み
変更における重みの変更量△W″を記憶している。モー
メンタム乗算部(23)i表前回の重み変更量△W′
とモーメンタムαとの積を出力す4 重み加算部(18
)で1よ まず直線探索部(67)が出力した最急降下
方向の重み変更量と、モーメンタム乗算部(23)が出
力する前回の重み変更量△W″とモーメンタムαとの積
とを加算し重み変更量△Wを求めも すなわち
△W 醪 ε 零 g +α本 △W ・・会・(6
)によって、重み変更量△Wを求める。つぎに重み加算
部(18)で、重み記憶部(19)に記憶されている変
更前の重みw’i;Q 重み変更量△Wを加算すもす
なわ叡
w ” w 十 △ W ・ ・ ・
・(7)によって重みを変更する。重みは256階調
の精度で表現されているので、重み変更量ΔWの成分が
重みW゛の精度の最小単位よりも小さいと、重みは実際
には変更されなl、% このようへ 誤差が十分に小
さくなっていないにもかかわらず、重みが変更されなけ
れ(i 重み加算部(18)は学習率設定部(16)に
対して重み無変更検出信号を出力する。学習率設定部(
16)41 重み無変更検出信号を入力されると学習
率εを2倍に設定する。学習率乗算部(17)が出力す
る学習率εと最急降下方向gとの積も2倍になも この
よう番へ 重み変更量△Wが小さいために重みが変更
されないときにζよ 学習率εを2倍にし ε 零gを
2倍にして、重み変更量△Wを太きくずも したがって
、重みが変更されるまで学習率は増加し 重み変更量も
増加する。The steepest descent direction g determined by the weight change direction determining unit (15) is input from the input terminal (25). The learning rate setting unit (16) outputs the learning rate ε, and the learning rate multiplier (17) outputs the learning rate ε. In this way, the straight line search unit (67) sets the learning rate and outputs the amount of weight change in the steepest descent direction according to the learning rate. Storage unit (19)il Variable weight multiplier (3)
The weight value W' by which the input signal is multiplied in steps (8) to (8) is stored. This weight value is expressed with an accuracy of 256 gradations. Previous weight change amount storage unit (24) c Stores the weight change amount △W'' in the previous weight change. Momentum multiplication unit (23) i Table Previous weight change amount △W'
and the momentum α.4 Weight adder (18
) is 1. First, add the weight change amount in the steepest descent direction output by the straight line search section (67) and the product of the previous weight change amount △W'' output from the momentum multiplier (23) and momentum α. Calculating the weight change amount △W, that is, △W ε 0 g + α book △W ・・(6
) to find the weight change amount ΔW. Next, the weight addition unit (18) adds the weight change amount △W to the weight w'i;Q weight change amount △W stored in the weight storage unit (19).・
- Change the weight according to (7). Since the weights are expressed with an accuracy of 256 gradations, if the component of the weight change amount ΔW is smaller than the minimum unit of accuracy of the weight W', the weights are not actually changed and the error becomes l,% like this. Even though the weight has not become sufficiently small, if the weight is not changed (i), the weight addition section (18) outputs a weight no change detection signal to the learning rate setting section (16).The learning rate setting section (
16) 41 When the weight-unchanged detection signal is input, the learning rate ε is set to double. The product of the learning rate ε output by the learning rate multiplier (17) and the direction of steepest descent g is also twice as much. ε is doubled, ε 0g is doubled, and the weight change amount ΔW is increased. Therefore, the learning rate increases and the weight change amount also increases until the weight is changed.
重みが変更されると、重み加算部(18)は学習率設定
部(16)に対しては重み無変更検出信号を出力せずへ
重み記憶部(19)に対して変更後の重みWを出力し
前回の重み記憶部(24)に対して重み変更量ΔWを
出力すム 重み記憶部(19)に記憶された重みは更新
され 重み出力端子(26)から可変重み乗算器(3)
〜(8)に対して出力される。以上によって重みが変更
され 重み変更の繰り返しによって(2)式によって表
される誤差を最小化し 本実施例の学習機械の出力信号
が望ましい出力信号に近づいていく。When the weight is changed, the weight addition unit (18) does not output a no-weight change detection signal to the learning rate setting unit (16), and outputs the changed weight W to the weight storage unit (19). The weight change amount ΔW is output to the previous weight storage unit (24).The weight stored in the weight storage unit (19) is updated and sent from the weight output terminal (26) to the variable weight multiplier (3).
~ (8) is output. As described above, the weights are changed, and by repeating the weight changes, the error expressed by equation (2) is minimized, and the output signal of the learning machine of this embodiment approaches the desired output signal.
以上のように本実施例によれば 重み加算部(18)に
おいて、重みW′に重み変更量△Wを加算し重みW”が
変更されないときには 学習率設定部(16)によって
学習率を2倍にし 重み変更量ΔWを増加することによ
り、重み変更量ΔWを重みW′が表現されている精度の
最小単位より大きくし重みを変更し続けることができる
。As described above, according to this embodiment, the weight addition unit (18) adds the weight change amount ΔW to the weight W', and when the weight W'' is not changed, the learning rate setting unit (16) doubles the learning rate. By increasing the weight change amount ΔW, it is possible to make the weight change amount ΔW larger than the minimum unit of accuracy in which the weight W' is expressed, and to continue changing the weight.
なお本実施例でC友 重み変更方向決定部(15)が
出力する重みの変更方向を最急降下方向としたが、重み
変更方向は共役勾配方向としてもよい。共役勾配方向(
よ
d=g + β 零 d ′ ・ ・ ・
・(8)で与えられも ただLgは(4)式で与えられ
る最急降下方向であり、βは
で与えられる定数であり、d′は前回の重み変更におけ
る共役勾配方向
は前回の重み変
更における最急降下方向g′のベクトルのノルムであ也
な耘 初回の重み変更においては重み変更方向(友
最急降下方向に決定する。また 重み変丈方向を最急降
下方向と共役勾配方向とで適応的に切り替えてもよL%
また 本実施例で(よ 隠れ層(22)は入力信号を処
理して出力層に出力する多入力−出力回路から成ってい
た力交 階層状に接続された多入力−出力回路によって
構成してもよl、% また本実施例でc友2個の人力
信号に対して1個の出力信号を出力したが これらの入
出力信号の個数は何個でもよu%また 出力層(21)
と隠れ層(22)に用いられる特性関数を第1.第2の
特性関数として区別して説明したが当然同一の特性関数
でL 本発明の効果は得られることは言うまでもな(も
第3図は本発明の第2の実施例における学習機械の構
成を示すブロック図を示すものである。第3図に示すよ
うに構成要素として(1)及び(2)は入力端子、(3
)〜(8)は可変重み乗算器(9)〜(11)は飽和入
出力特性をもつ加算S、 (12)は出力端子、(1
3)は教師信号発生! (15)は重み変更方向決定
! (20)は誤差算出! (21)は出力層 (
22)は隠れ恩 (68)は直線探索ff1L (6
9)は重み変更部(70)は学習同区(94)〜(96
)は多入力−出力回路である。つぎに上記構成要素のお
互いの関連動作について説明する。In this embodiment, the weight change direction output by the weight change direction determination unit (15) is set to be the steepest descent direction, but the weight change direction may be set to the conjugate gradient direction. Conjugate gradient direction (
Yod=g + β zero d′ ・ ・ ・
- Given by (8) However, Lg is the direction of steepest descent given by equation (4), β is a constant given by , and d' is the conjugate gradient direction of the previous weight change. This is the norm of the vector in the steepest descent direction g'.In the first weight change, the weight change direction (friend
Decide on the direction of steepest descent. In addition, the weight variation direction may be adaptively switched between the steepest descent direction and the conjugate gradient direction. -The output circuit may be configured by a multi-input-output circuit connected in a hierarchical manner.Also, in this embodiment, one output signal is output for two human input signals. However, the number of these input/output signals can be u% or output layer (21)
and the characteristic function used for the hidden layer (22) as the first. Although the description has been made separately as the second characteristic function, it goes without saying that the effects of the present invention can be obtained using the same characteristic function. As shown in Figure 3, the components (1) and (2) are input terminals, (3
) to (8) are variable weight multipliers (9) to (11) are addition S with saturation input/output characteristics, (12) is an output terminal, and (1
3) generates a teacher signal! (15) determines the weight change direction! (20) is an error calculation! (21) is the output layer (
22) is a hidden favor (68) is a straight line search ff1L (6
9), the weight change unit (70) is the learning area (94) to (96).
) is a multiple input-output circuit. Next, the relative operations of the above components will be explained.
本実施例の学習機械も第1の実施例の学習機械と同様に
可変重み乗算器(3)〜(8)と飽和入出力特性を持
つ加算器(9)〜(11)からなる多入力−出力回路(
94)〜(96)を、階層状に接続した構成となってい
も 学習回路(70)においては 出力層(21)の出
力と教師信号発生部(13)の出力とが等しくなるよう
に 可変重み乗算器(3)〜(8)で掛けられる重みを
変更する。本実施例で(よ 重み変更方向として(4)
式で表される最急降下方向を用いる。教師信号発生部(
13)は望ましい出力信号すなわち教師信号を誤差算出
部(20)に対して出力する。誤差算出部(20)は実
際の出力信号と教師信号との差信号((5)式で表され
る)を重み変更方向決定部(15)に対して出力L
(2)式で表される誤差を直線探索部(68)に対して
出力すa 重み変更方向決定部(15)4&隠れ層(2
2)の出力信号と入力信号と出力層(21)の出力信号
と出力層(21)の重みとを用いて最急降下方向gを木
取 直線探索部(68)に対して出力する。Similar to the learning machine of the first embodiment, the learning machine of this embodiment has multiple inputs consisting of variable weight multipliers (3) to (8) and adders (9) to (11) with saturated input/output characteristics. Output circuit (
Even if 94) to (96) are connected in a hierarchical manner, the learning circuit (70) uses variable weights so that the output of the output layer (21) and the output of the teacher signal generator (13) are equal. The weights multiplied by multipliers (3) to (8) are changed. In this example, (4)
Use the direction of steepest descent expressed by the formula. Teacher signal generator (
13) outputs a desired output signal, that is, a teacher signal, to the error calculation section (20). The error calculation unit (20) outputs the difference signal (expressed by equation (5)) between the actual output signal and the teacher signal to the weight change direction determination unit (15).
Output the error expressed by equation (2) to the straight line search unit (68) a Weight change direction determination unit (15) 4 & hidden layer (2)
Using the output signal of 2), the input signal, the output signal of the output layer (21), and the weight of the output layer (21), the steepest descent direction g is output to the Kitori straight line search unit (68).
第4図に本実施例の学習機械の直線探索部(68)と重
み変更部(69)の構成を示すブロック図を示す。FIG. 4 shows a block diagram showing the configuration of the straight line search section (68) and weight change section (69) of the learning machine of this embodiment.
第4図に示すように構成要素として、(27)は誤差増
加検出部(28)は誤差の初期値記憶部(29)は学習
率設定1K (30)は学習率乗算訊(31)はモー
メンタム乗算ff1L (32)は前回の重み変更量
記憶部(33)は重み加算K (34)は重み記憶部
(35)は誤差入力端子、(36)は最急降下方向入
力端子、(37)は重み出力端子である。誤差算出部(
20)で求められた誤差が誤差入力端子(35)から入
力され 重みを変更する前の誤差の値(よ 誤差の初期
値記憶部(28)に記憶されも 重み変更方向決定部(
15)で求められた最急降下方向gカ(入力端子(36
)から入力され 学習率設定部(29)で設定された学
習率εと最急降下方向gとの積を、学習率乗算部(3o
)が出力す4 このようにして、直線探索部(68)は
学習率設定部(29)で設定された学習率εに対する最
急降下方向の重み変更量ε*gを出力する。重み変更部
(69)の中の重み記憶部(34)は可変重み乗算器(
3)〜(8)で入力信号に乗算される重みの値Wを25
6階調の精度で記憶していも 重み加算部(33)は変
更前の重みW゛に最急降下方向の重み変更量ε*gを加
算して、重み出力端子(37)か仮 学習εに対する重
みを出力する。その重みに対する出力信号を、隠れ層(
22)および出力層(21)において求めも その出力
信号と教師信号発生部(13)の出力する教師信号か仮
誤差算出部(20)において、重み変更後の誤差を末
成 直線探索部(68)に出力すも 直線探索部(68
)では 誤差入力端子(35)から入力された誤差と、
誤差の初期値記憶部(28)に記憶されている重み変更
前の誤差とを、誤差増加検出部(27)で比較すa 重
み変更前の誤差に対して重み変更後の誤差が大きい場合
にJL 誤差増加検出部(27)が誤差増加検出信号
を、学習率設定部(29)に対して出力すa 学習率設
定部(29)ti 誤差増加検出信号を入力されると
、学習率を半分に設定し 学習率乗算部(30)は半分
に設定された学習率εと最急降下方向gとの積を出力す
る。この出力により、重み変更部(69)で重み変更を
行い重みを出力すム このようにして、直線探索部(6
8)で(よ 最急降下方向への重み変更後の誤差が、
重み変更前の誤差以下になるまて 学習率を減少し続1
す、その学習率εに対する最急降下方向の重み変更量ε
*gを出力する。最急降下方向への重み変更後の誤差が
重み変更前の誤差以下になったときに(よ 誤差増加検
出部(27)は学習率確定信号を重み加算部(33)に
対して出力する。重み加算部(33)gel 学習率
確定信号を入力されると、最急降下方向の重み変更量ε
*gと、モーメンタム乗算部31が出力するα*△w′
(△W′は前回の重み変更量 αはモーメンタム)と
を加算シ(6)式で表される重み変更量△Wを求嵌 さ
らに△Wを変更前の重みWoに加えて、(7)式で表さ
れる変更後の重みWを求める。As shown in Fig. 4, the components are as follows: (27) is the error increase detection unit (28), the error initial value storage unit (29) is the learning rate setting 1K, (30) is the learning rate multiplier, and (31) is the momentum Multiplication ff1L (32) is the previous weight change amount storage unit (33) is the weight addition K (34) is the weight storage unit (35) is the error input terminal, (36) is the steepest descent direction input terminal, (37) is the weight It is an output terminal. Error calculation section (
The error obtained in step 20) is input from the error input terminal (35), and the error value before changing the weight (28) is stored in the error initial value storage section (28).
15) The steepest descent direction g (input terminal (36)
) and set in the learning rate setting unit (29) and the steepest descent direction g, the learning rate multiplier (3o
) outputs S4 In this way, the straight line search unit (68) outputs the weight change amount ε*g in the steepest descent direction with respect to the learning rate ε set by the learning rate setting unit (29). The weight storage unit (34) in the weight change unit (69) includes a variable weight multiplier (
3) to (8), set the weight value W multiplied by the input signal to 25
Even if it is stored with an accuracy of 6 gradations, the weight addition unit (33) adds the weight change amount ε*g in the direction of steepest descent to the weight W' before change, and outputs the weight from the weight output terminal (37) to the temporary learning ε. Output the weights. The output signal for that weight is converted into a hidden layer (
22) and the output layer (21), the output signal and the teacher signal output from the teacher signal generator (13) are temporarily calculated.The error calculation unit (20) calculates the error after weight change. ) is output to the straight line search section (68
), the error input from the error input terminal (35) and
The error increase detection unit (27) compares the error before the weight change stored in the error initial value storage unit (28).a If the error after the weight change is larger than the error before the weight change JL The error increase detection section (27) outputs the error increase detection signal to the learning rate setting section (29)a Learning rate setting section (29)ti When the error increase detection signal is input, the learning rate is halved. The learning rate multiplier (30) outputs the product of the learning rate ε set to half and the direction of steepest descent g. Based on this output, the weight change unit (69) changes the weight and outputs the weight. In this way, the straight line search unit (69)
8), the error after changing the weight in the steepest descent direction is
Decrease the learning rate until the error is less than the error before changing the weights and continue 1
The weight change amount ε in the direction of steepest descent for the learning rate ε
* Output g. When the error after the weight change in the steepest descent direction becomes less than or equal to the error before the weight change, the error increase detection section (27) outputs a learning rate determination signal to the weight addition section (33). Addition unit (33) gel When the learning rate determination signal is input, the weight change amount ε in the steepest descent direction
*g and α*△w′ output by the momentum multiplier 31
(△W' is the previous weight change amount α is the momentum) to find the weight change amount △W expressed by equation (6).Furthermore, by adding △W to the weight Wo before the change, (7) The changed weight W expressed by the formula is determined.
この際 重み変更量△Wが重
みWoの精度の最小単位よりも小さいと、重み加算部(
33)は学習率設定部(29)に対して重み無変更検出
信号を出力し 学習率設定部(29)は学習率を2倍に
設定する。重み変更量△Wが重みWoの精度の最小単位
よりも大きくなるまで学習率εを増加する。重み変更量
△Wが重みWoの精度の最小単位よりも大きくなると、
重み加算部(33)は△Wを前回の重み変更量記憶部(
32)に対して出力し重み記憶部(34)に対して変更
後の重みWを出力する。以上によって重みが変更され
重み変更の繰り返しによって(2)式によって表される
誤差を最小化し 本実施例の学習機械の出力信号が望ま
しい出力信号に近づいていく。At this time, if the weight change amount △W is smaller than the minimum unit of accuracy of the weight Wo, the weight addition unit (
33) outputs an unchanged weight detection signal to the learning rate setting section (29), and the learning rate setting section (29) sets the learning rate to double. The learning rate ε is increased until the weight change amount ΔW becomes larger than the minimum unit of accuracy of the weight Wo. When the weight change amount △W becomes larger than the minimum unit of accuracy of the weight Wo,
The weight addition unit (33) stores △W in the previous weight change amount storage unit (
32), and outputs the changed weight W to the weight storage unit (34). The weights are changed by the above
By repeating weight changes, the error expressed by equation (2) is minimized, and the output signal of the learning machine of this embodiment approaches a desired output signal.
以上のように本実施例によれば 誤差増加検出部(27
)において、重み変更前の誤差の値と最急降下方向への
重み変更(変更量はε*g)後の誤差の値とを比較し
誤差が増加したときには学習率設定部(29)において
学習率を半分に設定することにより、設定された学習率
が大きすぎて、誤差曲面の極小部を越えて重みが変更さ
れることを防ぎ、適切な学習率によって重みが変更され
短い学習時間で学習を終了することができる。As described above, according to this embodiment, the error increase detection section (27
), compare the error value before changing the weight with the error value after changing the weight in the steepest descent direction (the amount of change is ε*g).
When the error increases, the learning rate is set to half in the learning rate setting section (29) to prevent the set learning rate from being too large and changing the weight beyond the minimum part of the error surface. The weights are changed depending on the appropriate learning rate, and learning can be completed in a short learning time.
なお本実施例でct 重み変更方向決定部(X5)が
出力する重みの変更方向を最急降下方向としたが、重み
変更方向は共役勾配方向としてもよt、Xo また重
み変更方向を最急降下方向と共役勾配方向とで適応的に
切り替えてもよ(t
また 本実施例で&ヨ隠れ層(22)は入力信号を処理
して出力層に出力する多入力−出力回路から成っていた
が、階層状に接続された多入力−出力回路によって構成
してもよl、Xo また本実施例では2個の入力信号
に対して1個の出力信号を出力したが、これらの人出力
信号の個数は何個でもよ(〜また本第1.第2の実施例
で(よ 学習率の変更割合をビット処理するのに都合の
良い2vまたは1/2’ (vは正の整数)のようにし
たがとくにこの割合で行わなくても同効果が得られるこ
とは言うまでもな(X。In this embodiment, the weight change direction output by the ct weight change direction determination unit (X5) is set to the steepest descent direction, but the weight change direction may also be set to the conjugate gradient direction. It is also possible to adaptively switch between the direction of the conjugate gradient and the direction of the conjugate gradient (t) In this embodiment, the &yo hidden layer (22) consists of a multi-input-output circuit that processes the input signal and outputs it to the output layer. It may also be configured with multiple input-output circuits connected in a hierarchical manner.In addition, in this embodiment, one output signal was output for two input signals, but the number of these human output signals can be as many as 2v or 1/2' (v is a positive integer), which is convenient for bit processing the learning rate change rate. However, it goes without saying that the same effect can be obtained even if it is not done at this ratio (X.
発明の詳細
な説明より明らかなように 本発明によれば学習機械に
おける学習の際の信号処理の重み付けを出力信号と望ま
しい出力信号との誤差の大小により、学習率を変えるこ
とにより、重みや重みの変更量が限定された精度で表さ
れるときでL 重みを変更し続けて学習を終了すること
ができる。As is clear from the detailed description of the invention, according to the present invention, the weighting of signal processing during learning in a learning machine is performed by changing the learning rate depending on the magnitude of the error between the output signal and the desired output signal. When the amount of change in L can be expressed with limited accuracy, learning can be completed by continuing to change the L weights.
また 学習率を経験や試行錯誤によって求める必要がな
く、短い時間で学習を終了することができる。Furthermore, there is no need to determine the learning rate through experience or trial and error, and learning can be completed in a short time.
第1図は本発明の第1の実施例における学習機械の構成
を示すブロック医 第2図は同実施例の直線探索部およ
び重み変更部の構成を示すブロック& 第3図は本発明
の第2の実施例における学習機械の構成を示すブロック
@ 第4図は同実施例の直線探索部および重み変更部の
構成を示すブロック医 第5図は従来の学習機械の一般
的構成を示すブロック図 第6図は従来の学習機械の構
械の学習回路の構成を示すブロック図である。
13・・・・教師信号発生皿15・・・・重み変更方向
決定@ 21・・・・出力恩 22・・・・隠れ恩6
5・・・・重み変更! 67・・・・直線探索訛
代理人の氏名 弁理士 粟野重孝 ほか1名第
図
+1v
第
図
■
駒7
図
第
図FIG. 1 is a block doctor showing the configuration of a learning machine according to a first embodiment of the present invention. FIG. Block diagram showing the configuration of the learning machine in the second embodiment @ Figure 4 is a block diagram showing the configuration of the straight line search unit and weight change unit in the same embodiment Figure 5 is a block diagram showing the general configuration of the conventional learning machine FIG. 6 is a block diagram showing the configuration of a learning circuit of a conventional learning machine. 13... Teacher signal generation plate 15... Weight change direction determination @ 21... Output signal 22... Hidden signal 6
5... Change weight! 67...Name of straight line search accent agent Patent attorney Shigetaka Awano and 1 other person Figure + 1v Figure ■ Piece 7 Figure Figure
Claims (7)
数で非線形処理を施して出力する多入力−出力回路から
なる隠れ層と、前記隠れ層の出力信号の加重和に飽和特
性を持つ第2の特性関数で非線形処理を施して出力する
多入力−出力回路からなる出力層と、前記出力層の望ま
しい出力信号を発生する教師信号発生部と、前記教師信
号発生部の出力と前記出力層の出力との誤差を最小化す
るための前記加重和のための重み変更方向を決定する重
み方向決定部と、前記重み変更方向決定部の出力と学習
率を乗算して重み変更量を出力する直線探索部と、前記
直線探索部で求められた前記重み変更量をもとに重みを
変更して出力する重み変更部とを具備し、前記重み変更
部が前記重み変更量が所定の値以下のときには重み変更
をせず前記直線探索部が学習率を変更するようにしてな
る学習機械。(1) A hidden layer consisting of a multi-input-output circuit that performs nonlinear processing using a first characteristic function that has a saturation characteristic on the weighted sum of input signals and outputs the result, and a hidden layer that has a saturation characteristic on the weighted sum of the output signals of the hidden layer. an output layer consisting of a multi-input-output circuit that performs nonlinear processing using a second characteristic function and outputs the output; a teacher signal generation section that generates a desired output signal of the output layer; a weight direction determination unit that determines a weight change direction for the weighted sum to minimize an error with the output of the output layer; and a weight change amount by multiplying the output of the weight change direction determination unit by a learning rate. a straight line search unit that outputs an output, and a weight change unit that changes and outputs a weight based on the weight change amount determined by the straight line search unit, and the weight change unit is configured to adjust the weight change amount to a predetermined value. The learning machine is configured such that the straight line search unit changes the learning rate without changing the weight when the weight is less than a value.
に 学習率を増加して、重み変更量を出力するようにし
てなる請求項1記載の学習機械。(2) The learning machine according to claim 1, wherein the linear section increases the learning rate and outputs the weight change amount when the weight change section does not change the weight.
正の整数)である請求項2記載の学習機械。(3) The learning machine according to claim 2, wherein the learning rate of the straight line search unit increases at a rate of 2^v (v is a positive integer).
重み変更が行われるまで、繰り返し行われるようにして
なる請求項2または3記載の学習機械。(4) The learning machine according to claim 2 or 3, wherein the learning rate of the straight line search unit is repeatedly increased until the weight change unit changes the weight.
出力との誤差が、重み変更部による重み変更により増加
したときには、学習率を低減するようにしてなる請求項
1記載の学習機械。(5) The learning according to claim 1, wherein the straight line search section reduces the learning rate when the error between the output of the teacher signal generation section and the output of the output layer increases due to weight change by the weight change section. machine.
vは正の整数)である請求項5記載の学習機械。(6) The rate of reduction in the learning rate of the straight line search unit is 1/2^v(
6. The learning machine according to claim 5, wherein v is a positive integer.
り減少するまで繰り返し行われるようにしてなる請求項
5または6記載の学習機械。(7) The learning machine according to claim 5 or 6, wherein the learning rate of the straight line search section is repeatedly reduced until the error is reduced by changing the weight.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2173456A JPH0462658A (en) | 1990-06-29 | 1990-06-29 | Learning machine |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2173456A JPH0462658A (en) | 1990-06-29 | 1990-06-29 | Learning machine |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0462658A true JPH0462658A (en) | 1992-02-27 |
Family
ID=15960812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2173456A Pending JPH0462658A (en) | 1990-06-29 | 1990-06-29 | Learning machine |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0462658A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5426480A (en) * | 1993-06-15 | 1995-06-20 | Hanshin Technical Laboratory, Ltd. | Photographic film processing apparatus |
US5528329A (en) * | 1993-06-15 | 1996-06-18 | Hanshin Technical Laboratory, Ltd. | Photographic film processing apparatus |
JP2008094486A (en) * | 2006-10-05 | 2008-04-24 | Toshio Hakata | Cushioning medium with pole for tablets and pills |
-
1990
- 1990-06-29 JP JP2173456A patent/JPH0462658A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5426480A (en) * | 1993-06-15 | 1995-06-20 | Hanshin Technical Laboratory, Ltd. | Photographic film processing apparatus |
US5528329A (en) * | 1993-06-15 | 1996-06-18 | Hanshin Technical Laboratory, Ltd. | Photographic film processing apparatus |
JP2008094486A (en) * | 2006-10-05 | 2008-04-24 | Toshio Hakata | Cushioning medium with pole for tablets and pills |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0618737A2 (en) | Neural network video image processor | |
US5519647A (en) | Apparatus for and method of generating an approximation function | |
JPH0713950A (en) | Artificial neuron and its usage method | |
JPH06509670A (en) | Neural network containing differential neurons | |
Huang et al. | Dilation method for finding close roots of polynomials based on constrained learning neural networks | |
JP3323894B2 (en) | Neural network learning method and apparatus | |
CN112634933A (en) | Echo cancellation method and device, electronic equipment and readable storage medium | |
Tominaga | Color notation conversion by neural networks | |
JPH09503602A (en) | Learning neural network and method thereof | |
KR920006792B1 (en) | A learning machine having connection of layered multi input-output circuit | |
US5376963A (en) | Neural network video image processor | |
JPH0462658A (en) | Learning machine | |
US5857178A (en) | Neural network apparatus and learning method thereof | |
JP2760170B2 (en) | Learning machine | |
JP2541044B2 (en) | Adaptive filter device | |
JPH0451384A (en) | Neural network and its construction method | |
JPH07210534A (en) | Neural network | |
JPS63258119A (en) | Apparatus for encoding signal by linear estimation with leroux-gueguen argolithm | |
Drioli et al. | Orthogonal least squares algorithm for the approximation of a map and its derivatives with a RBF network | |
JPH0474255A (en) | Learning machine | |
JP3262340B2 (en) | Information processing device | |
JPH0233655A (en) | Nerve circuit network type pattern processor | |
JPH02201586A (en) | Coupler by neuro-chip | |
JPS6022392B2 (en) | Coordinate conversion device | |
JP2912933B2 (en) | Data converter |