JPH06149767A - Neural network - Google Patents

Neural network

Info

Publication number
JPH06149767A
JPH06149767A JP4295775A JP29577592A JPH06149767A JP H06149767 A JPH06149767 A JP H06149767A JP 4295775 A JP4295775 A JP 4295775A JP 29577592 A JP29577592 A JP 29577592A JP H06149767 A JPH06149767 A JP H06149767A
Authority
JP
Japan
Prior art keywords
output
neural network
layer
function
neurons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4295775A
Other languages
Japanese (ja)
Inventor
Isao Horiba
勇夫 堀場
Kazuo Iketani
和夫 池谷
Kenji Suzuki
賢治 鈴木
Koji Ueda
浩次 上田
Muneo Yamada
宗男 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Electric Works Co Ltd
Original Assignee
Nagoya Electric Works Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Electric Works Co Ltd filed Critical Nagoya Electric Works Co Ltd
Priority to JP4295775A priority Critical patent/JPH06149767A/en
Publication of JPH06149767A publication Critical patent/JPH06149767A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To provide the neural network which precisely outputs an analog output and also outputs its extremal value speedily. CONSTITUTION:The neural network consists of an input layer I consisting of neurons I1-Ii, an intermediate layer H consisting of neurons H1-Hj, and an output layer L consisting of a neuron L1, and a linear function is used as the response characteristics of the output layer L.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、学習機能を有するニュ
ーラルネットワーク(神経回路網)に関するものであ
り、殊に、アナログ出力が精度よく得られると共に、ニ
ューロンの発火特性にみられるような極値1,0を速や
かに収束させ得る階層型のニューラルネットワークに係
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network (neural network) having a learning function, and in particular, an analog output can be obtained with high accuracy and an extreme value such as that found in the firing characteristics of neurons. The present invention relates to a hierarchical neural network that can quickly converge 1,0.

【0002】[0002]

【従来の技術】従来のニューラルネットワークについ
て、図5に基づいて説明する。同図は、階層型のニュー
ラルネットワークを示しており、Iは入力層、Hは中間
層、Oは出力層である。入力層I,中間層H,出力層O
は、それぞれI1 〜I i ,H1 〜Hj ,O1 〜Ok から
なるニューロンによって構成される。各々のニューロン
は、非線形的なシグモイド応答関数によって情報を伝達
して出力OK1〜OKnを得ている。
2. Description of the Related Art Conventional neural networks
Then, it demonstrates based on FIG. This figure shows a hierarchical new
It shows a Ral network, where I is the input layer and H is the middle.
Layer, O is an output layer. Input layer I, middle layer H, output layer O
Respectively I1~ I i, H1~ Hj, O1~ OkFrom
Is composed of neurons. Each neuron
Conveys information by a nonlinear sigmoid response function
And output OK1~ OKnIs getting

【0003】一方、出力層Oの各ニューロンO1 〜Ok
には、教師信号(正解事象)T1 〜Tk が入力され、バ
ックプロパゲーション法(逆伝搬学習法)により、矢印
Aに示すように信号の伝搬とは逆方向に進行する。中間
層Hから出力層Oへの結合重み係数Vjkと入力層Iから
中間層Hへの結合重み係数Wijを、教師信号T1 〜T k
が入力される毎に、出力Ok1〜Oknと、それに対応する
各教師信号T1 〜Tkとの誤差が最小となるように修正
される。
On the other hand, each neuron O in the output layer O1~ Ok
Is a teacher signal (correct event) T1~ TkIs entered,
By the back propagation method (back propagation learning method)
As indicated by A, the signal travels in the opposite direction to the signal propagation. Middle
Coupling weight coefficient V from layer H to output layer OjkAnd from input layer I
Coupling weight coefficient W to the intermediate layer HijIs the teacher signal T1~ T k
Output O each time is inputk1~ OknAnd corresponding
Each teacher signal T1~ TkCorrected to minimize the error between
To be done.

【0004】周知のように、このシグモイド応答関数
は、人間の神経応答を模擬的に表現した非線形な応答関
数である。この応答関数を用いたニューラルネットワー
クの動作は、入力層から中間層への結合によって、被認
識対象の特徴抽出が行われ、更に、中間層から出力層へ
の結合によって特徴表現がなされる。
As is well known, the sigmoid response function is a non-linear response function that simulates the human nerve response. In the operation of the neural network using this response function, the feature of the object to be recognized is extracted by the connection from the input layer to the intermediate layer, and the feature is expressed by the connection from the intermediate layer to the output layer.

【0005】このシグモイド応答関数は、図1(b)に
示された特性を有するものであり、次式のように表され
る。 f(X)=1/{ 1+exp(−2X/u0 )}…………(1) (1)式のu0 は、シグモイド関数の傾きを決定する正
のパラメータである。以下、本発明のニューラルネット
ワークの理解を容易とする為に、ニューラルネットワー
クの学習機能について説明する。(1)式をXについて
微分すると、次式が得られる。 f′(X)=2・f(X)・{1−f(X)}/u0 ………(2) 各層の出力Iin,Hjn,0knは、以下のように表され
る。
This sigmoid response function has the characteristics shown in FIG. 1 (b) and is expressed by the following equation. f (X) = 1 / {1 + exp (−2X / u 0 )} (1) u 0 in the equation (1) is a positive parameter that determines the slope of the sigmoid function. Hereinafter, in order to facilitate understanding of the neural network of the present invention, the learning function of the neural network will be described. Differentiating the expression (1) with respect to X, the following expression is obtained. f ′ (X) = 2 · f (X) · {1-f (X)} / u 0 (2) The outputs I in , H jn , and 0 kn of each layer are expressed as follows. .

【0006】[0006]

【数1】 [Equation 1]

【0007】(但し、θj は中間層Hのニューロンのオ
フセット,γk は出力層Oのニューロンのオフセット)
(Where θ j is the offset of neurons in the intermediate layer H and γ k is the offset of neurons in the output layer O)

【0008】又、出力層Oの出力OKnにおける教師信号
K との誤差をeK (=TK −OKn)とすると、この平
均2乗誤差EK は、次式のように表される。 EK =1/2・(TK −OKn2 ………………(5) ニューラルネットワークの平均2乗誤差Ek が最小とな
る状態が最適学習状態であり、繰り返し学習することに
よって平均2乗誤差Ek を結合重み係数Vjkに関して最
小化する。この平均2乗誤差Ek が最小となる様に結合
重み係数,オフセットを修正することがニューラルネッ
トワークにおける学習行為である。
If the error between the output O Kn of the output layer O and the teacher signal T K is e K (= T K −O Kn ), this mean square error E K is expressed by the following equation. It E K = 1 / 2 (T K −O Kn ) 2 ……………… (5) The state in which the mean square error E k of the neural network is the minimum is the optimal learning state. The mean squared error E k is minimized with respect to the combination weighting factor V jk . It is a learning action in the neural network to correct the coupling weight coefficient and the offset so that the mean square error E k is minimized.

【0009】一方、平均2乗誤差の関数は出力層Oの出
力OKnの関数であり、出力OKnは中間層Hの出力Hjn
の関数であるため、次式の関係が成り立つ。 ∂EK /∂Vjk=∂EK /∂OKn・∂OKn/∂Vjk ………(6) ∂EK /∂OKn=−(TK −OKn) ………………(7) ここで、(4)式を以下のように書き表す。
On the other hand, the function of the mean square error is a function of the output O Kn of the output layer O, and the output O Kn is a function of the output H jn of the intermediate layer H. Therefore , the following relation holds. ∂E K / ∂V jk = ∂E K / ∂O Kn・ ∂O Kn / ∂V jk ……… (6) ∂E K / ∂O Kn = - (T K −O Kn ) ……………… (7) Here, the equation (4) is written as follows.

【0010】[0010]

【数2】 [Equation 2]

【0011】SK をVjkについて微分すると、 ∂SK /∂Vjk=Hjn ………………(9) と表される。When S K is differentiated with respect to V jk, it is expressed as ∂S K / ∂V jk = H jn ............ (9).

【0012】結合重み係数Vjkの微少変化に対する出力
Knの変化は、以下のように表される。 ∂OKn/∂Vjk=∂OKn/∂SK ・∂SK /∂Vjk =f′(SK )・Hjn =2/u0 ・OKn・(1─OKn)・Hjn……(10)
A change in the output O Kn with respect to a slight change in the coupling weight coefficient V jk is expressed as follows. ∂O Kn / ∂V jk = ∂O Kn / ∂S K・ ∂S K / ∂V jk = f '(S K ) ・ H jn = 2 / u 0・ O Kn・ (1─O Kn ) ・ H jn …… (10)

【0013】従って、結合重み係数Vjkの微小変化に対
する平均2乗誤差EK の変化量は(7)式と(10)式
から次式のように表される。 ∂EK /∂Vjk=∂EK /∂OKn・∂OKn/∂Vjk =−Hjn・2/u0 ・(TK −OKn)・OKn・(1─OKn) =−δK ・Hjn ………………………………(11) (但し、δK =2/u0 ・(TK −OKn)・OKn・(1─OKn)とする。)
Therefore, the change amount of the mean square error E K with respect to the minute change of the coupling weight coefficient V jk is expressed by the following formula from the formulas (7) and (10). ∂E K / ∂V jk = ∂E K / ∂O Kn・ ∂O Kn / ∂V jk = −H jn・ 2 / u 0・ (T K −O Kn ) ・ O Kn・ (1─O Kn ) = -Δ K · H jn ………………………… (11) (where δ K = 2 / u 0 · (T K −O Kn ) · O Kn · (1 − O Kn ). And)

【0014】平均2乗誤差EK が減少する方向に結合重
み係数Vjkを修正する学習を繰り返すことによって、平
均2乗誤差EK は、極小値に達する。その修正量ΔVjk
は次式のように表される。 ΔVjk=−η1 (∂EK /∂Vjk ) =η1 ・δK ・Hjn ………………………(12) (但し、η1 は定数) 次に、同様な手法によって修正量ΔWijを求める。ここ
で、(3)式を以下のように書き表す。
The mean squared error E K reaches a minimum value by repeating the learning for modifying the coupling weight coefficient V jk in the direction in which the mean squared error E K decreases. The correction amount ΔV jk
Is expressed by the following equation. ΔV jk = −η 1 (∂E K / ∂V jk ) = η 1 · δ K · H jn …………………… (12) (where η 1 is a constant) Next, the same method The correction amount ΔW ij is calculated by Here, the formula (3) is written as follows.

【0015】[0015]

【数3】 [Equation 3]

【0016】結合重み係数Wijの微小変化に対する平均
2乗誤差EK の変化量は、以下のようになる。
The change amount of the mean square error E K with respect to the minute change of the coupling weight coefficient W ij is as follows.

【0017】[0017]

【数4】 [Equation 4]

【0018】従って、結合重み係数Wijの修正量ΔWij
は、次式のように表される。
[0018] Therefore, the correction amount ΔW ij of the coupling weight coefficient W ij
Is expressed by the following equation.

【0019】[0019]

【数5】 [Equation 5]

【0020】同様な手法により修正量Δγk ,Δθj
求めると、次式のように表される。 ∂EK /∂γk =∂EK /∂OKn・∂OKn/∂γk =2/u0 ・(Tk −Okn)・OKn・(1−OKn)=−δK 従って、修正量Δγk は、 ΔγK =−η3 ・(∂EK /∂γK ) =η3 ・δK …………………(16) (但し、η3 は定数)
When the correction amounts Δγ k and Δθ j are obtained by a similar method, they are expressed by the following equation. ∂E K / ∂γ k = ∂E K / ∂O Kn · ∂O Kn / ∂γ k = 2 / u 0 · (T k −O kn ) · O Kn · (1-O Kn ) = − δ K Therefore, the correction amount Δγ k is Δγ K = −η 3 · (∂E K / ∂γ K ) = η 3 · δ K …………………… (16) (where η 3 is a constant)

【0021】[0021]

【数6】 [Equation 6]

【0022】上記のη1 〜η4 は、修正量の大きさを制
御する学習係数である。
The above η 1 to η 4 are learning coefficients for controlling the magnitude of the correction amount.

【0023】[0023]

【発明が解決しようとする課題】上述の如きニューラル
ネットワークは、入力層I、中間層H及び出力層Oのニ
ューロンの応答関数として、(1)式に示すようなシグ
モイド関数が用いられている。シグモイド関数は指数関
数による応答関数であり、その出力f(X)を0又は1
とするためには、X=−∞,+∞としない限り出力され
ない。従って、出力f(X)が0,1に達するまでのそ
の演算回数は極めて多く、収束時間が多く掛かり、容易
に収束しないという欠点がある。即ち、各層のニューロ
ンの応答関数としてシグモイド関数を用いた場合、ニュ
ーロンの発火特性で重要である極値0,1の値が出力さ
れ難いという問題点がある。このことは、極値1,0を
学習させることが出来ないことを意味している。
In the neural network as described above, the sigmoid function as shown in the equation (1) is used as the response function of the neurons of the input layer I, the intermediate layer H and the output layer O. The sigmoid function is a response function based on an exponential function, and its output f (X) is 0 or 1
In order to satisfy the above, no output is made unless X = −∞ and + ∞. Therefore, there are disadvantages that the number of times the calculation is performed until the output f (X) reaches 0, 1 is extremely long, the convergence time is long, and the convergence is not easy. That is, when the sigmoid function is used as the response function of the neuron in each layer, there is a problem that it is difficult to output the extreme values 0 and 1 which are important in the firing characteristics of the neuron. This means that the extreme values 1 and 0 cannot be learned.

【0024】従来のニューラルネットワークにサイン関
数を学習させ、その加重加算された出力結果が図4
(a)に示されている。図4(a)の実線(イ)が期待
すべきサイン関数曲線を示しており、点線で示した曲線
(ロ)が5000回の学習に基づく出力結果を示してい
る。この出力結果から明らかなように、5000回の学
習にもかかわらず、曲線(ロ)で示した出力結果では、
極値1,0に収束していない。しかし、ニューラルネッ
トワークを用いたアナログ判断を必要とする情報処理装
置或いは制御装置では、この極値1,0を情報結果或い
は出力結果として頻繁に必要とする場合があり、従っ
て、極値1,0を速やかに収束させ得るニューラルネッ
トワークの開発が望まれる。
The sine function is learned by the conventional neural network, and the weighted addition output result is shown in FIG.
It is shown in (a). The solid line (a) in FIG. 4A shows the expected sine function curve, and the dotted curve (b) shows the output result based on 5000 times of learning. As is clear from this output result, despite the 5000 learnings, in the output result shown by the curve (b),
It has not converged to the extreme values 1 and 0. However, an information processing device or a control device that requires analog judgment using a neural network may frequently need the extreme values 1 and 0 as an information result or an output result. It is desired to develop a neural network that can quickly converge.

【0025】又、シグモイド関数の応答は非線形である
ので、図4(a)の曲線(ロ)から明らかなように
[0,1]の範囲のアナログ出力に対して偏りを持った
応答特性を示しており、これはその出力結果になんらか
の“くせ”を生じることを意味している。これらの問題
点によって、従来のシグモイド応答関数のみを用いたニ
ューラルネットワークは、特にアナログ的判断を必要と
する場合においては汎用性が低下する欠点がある。
Further, since the response of the sigmoid function is non-linear, it is clear from the curve (b) of FIG. 4 (a) that a response characteristic having a bias with respect to the analog output in the range of [0, 1] is obtained. It is shown, which means that there is some "habit" in the output result. Due to these problems, the conventional neural network using only the sigmoid response function has a drawback that the versatility is lowered particularly when analog judgment is required.

【0026】本発明は、上述のような問題点に鑑みなさ
れたものであって、アナログ出力が精度よく得られると
共に、その極値1,0が速やかに出力され得るニューラ
ルネットワークを提供することを目的とするものであ
る。
The present invention has been made in view of the above-mentioned problems, and it is an object of the present invention to provide a neural network in which an analog output can be accurately obtained and the extreme values 1 and 0 thereof can be quickly output. It is intended.

【0027】[0027]

【課題を解決するための手段】上記のような課題を解決
する為に本発明のニューラルネットワークは、学習機能
を有すると共に、そのニューラルネットワークの出力層
の応答関数としてリニア関数を用いたものである。
In order to solve the above problems, the neural network of the present invention has a learning function and uses a linear function as the response function of the output layer of the neural network. .

【0028】[0028]

【作用】本発明のニューラルネットワークでは、入力層
と中間層にはシグモイド応答関数によるニューロンを用
いて学習機能を維持すると共に、出力層のニューロンに
は応答関数としてリニア関数を用いることにより、偏り
のないアナログ出力が得られ、極値である1,0に速や
かに収束し得るようにして、汎用性を高めると共に、出
力層が単純な一次関数であるので学習時の演算速度を短
縮できるものである。
In the neural network of the present invention, the learning function is maintained by using the neurons of the sigmoid response function in the input layer and the intermediate layer, and the linear function is used as the response function in the neurons of the output layer. A non-analog output can be obtained and quickly converged to the extreme value of 1,0 to enhance versatility, and the output layer is a simple linear function, which can reduce the calculation speed during learning. is there.

【0029】[0029]

【実施例】以下、本発明のニューラルネットワークにつ
いて図に基づいて説明する。図1(a)は、本発明のニ
ューラルネットワークの一実施例を示しており、同図に
於いて、ニューラルネットワークは、ニューロンI1
i からなる入力層I、ニューロンH1 〜Hj からなる
中間層H、及びニューロンL1 からなる出力層Lから構
成される。入力層IのニューロンI1 〜Ii には、情報
信号IN1 〜INn が入力され、出力層Lから出力Lkn
が出力される。又、学習時は、出力層Lに教師信号(t
1 〜t13)が入力される。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A neural network of the present invention will be described below with reference to the drawings. FIG. 1A shows an embodiment of the neural network of the present invention. In FIG. 1A, the neural network includes neurons I 1 ...
The input layer I is composed of I i, the intermediate layer H is composed of neurons H 1 to H j , and the output layer L is composed of neurons L 1 . Information signals IN 1 to IN n are input to the neurons I 1 to I i of the input layer I, and output L kn from the output layer L.
Is output. Further, at the time of learning, the teacher signal (t
1 to t 13 ) is input.

【0030】入力層IのニューロンI1 〜Ii 及び中間
層HのニューロンH1 〜Hj は、図1(b)に示した
(1)式のシグモイド応答関数が用いられ、出力層Lの
ニューロンL1 には、図1(c)に示したg(X)=
1,0の範囲で線形応答特性を有するリニア関数が用い
られる。 g(X)=aX+b ………………(18) (18)式のaはリニア関数の傾きを決定するパラメー
タであり、図1(c)に示すようにパラメータaの大小
によってその勾配が変化する。尚、bは0.5の値をと
る。
The neurons I 1 to I i of the input layer I and the neurons H 1 to H j of the intermediate layer H use the sigmoid response function of the equation (1) shown in FIG. In the neuron L 1 , g (X) = shown in FIG.
A linear function having a linear response characteristic in the range of 1,0 is used. g (X) = aX + b (18) a in the equation (18) is a parameter that determines the slope of the linear function, and as shown in FIG. 1 (c), the slope depends on the magnitude of the parameter a. Change. In addition, b takes a value of 0.5.

【0031】又、図2は、本発明のニューラルネットワ
ークの他の実施例を示しており、中間層Hが複数の層か
らなるニューラルネットワークである。この実施例に於
いても、出力層LのニューロンL1 〜LK は、(18)
式に示した線形応答特性を有するリニア関数が用いら
れ、入力層IのニューロンI1 〜Ii 及び中間層Hのニ
ューロンHj1〜Hjnには、(1)式に示したシグモイド
応答関数が用いられる。T1 〜Tn は教師信号である。
FIG. 2 shows another embodiment of the neural network of the present invention, in which the intermediate layer H is a neural network composed of a plurality of layers. Also in this embodiment, the neurons L 1 to L K of the output layer L are (18)
The linear function having the linear response characteristic shown in the equation is used, and the neurons I 1 to I i of the input layer I and the neurons H j1 to H jn of the intermediate layer H have the sigmoid response function shown in the equation (1). Used. T 1 to T n are teacher signals.

【0032】以下、図1(a)の実施例にサイン関数を
学習させ、その学習機能とその出力結果ついて説明す
る。 (A)学習機能 ニューラルネットワークに於いて、その入力層Iのニュ
ーロンI1 〜In に角度θ等の情報信号IN1 〜INn
が入力され、出力層LのニューロンL1 には、教師信号
としての各角度θに対応したサイン関数値である教師デ
ータ(t1 〜t 13)が入力される。教師データ(t1
13)に基づいて、バックプロパゲーション法により、
図3(a)に示したX印の各点で図4(a)の出力結果
(ロ)に対比される5000回の学習を行う。又、教師
データ(t1 〜t13)は、図3(b)に示すように、角
度θ(0 ,30,50,…… 330,360 )に対応するサイン
関数値が出力層LのニューロンL1 に入力される。即
ち、角度θが0度のときは、サイン関数値t1 として
〔0.5000〕が教師データとして入力され、角度θ
が30度のときはサイン関数値t2 として〔0.750
0〕が入力されることになる。
Below, the sine function is applied to the embodiment of FIG.
Learn and explain its learning function and its output result
It (A) Learning function In the neural network, the input layer I
Ron I1~ InInformation signal IN such as angle θ1~ INn
Is input, the neuron L of the output layer L1The teacher signal
As the sine function value corresponding to each angle θ as
Data (t1~ T 13) Is entered. Teacher data (t1~
t13) Based on the backpropagation method,
The output result of FIG. 4A at each point of the X mark shown in FIG.
The learning is performed 5000 times as compared with (b). Also the teacher
Data (t1~ T13) Is a corner as shown in FIG.
Sign corresponding to the degree θ (0, 30, 50, ... 330, 360)
Neuron L whose function value is output layer L1Entered in. Immediately
When the angle θ is 0 degree, the sine function value t1As
[0.5000] is input as teacher data, and the angle θ
Is 30 degrees, the sine function value t2As [0.750
0] will be input.

【0033】教師データ(t1 〜t13)の各データは、
矢印8で示すように信号方向とは逆方向に出力層Lから
中間層Hそして入力層Iへと伝搬され、その出力Lk
対応する教師データ(t1 〜t13)との誤差が最小とな
るように各結合重み係数Wij,Ujkが自動的に修正され
る。尚、Wijは入力層Iから中間層Hへの結合重み係数
であり、Ujkは、中間層Hから出力層Lへの結合重み係
数である。
Each data of the teacher data (t 1 to t 13 ) is
As indicated by the arrow 8, the signal is propagated in the direction opposite to the signal direction from the output layer L to the intermediate layer H and then to the input layer I, and the error from the teacher data (t 1 to t 13 ) corresponding to the output L k is minimal The respective connection weight coefficients W ij and U jk are automatically corrected so that Note that W ij is a coupling weight coefficient from the input layer I to the intermediate layer H, and U jk is a coupling weight coefficient from the intermediate layer H to the output layer L.

【0034】以下、結合重み係数Wij、Ujkと、中間層
Hと出力層のニューロンのオフセットθj0,γk0の修正
量について説明する。各層の出力Hjn,Lknは、次式の
ように表される。
The correction amounts of the coupling weight coefficients W ij and U jk and the offsets θ j0 and γ k0 of the neurons in the intermediate layer H and the output layer will be described below. The outputs H jn and L kn of each layer are expressed by the following equation.

【0035】[0035]

【数7】 [Equation 7]

【0036】又、出力層Lの出力LKnにおける教師信号
Tとの誤差をδK0(=T−LKn)とすると、この平均2
乗誤差EK は、次式のように表される。 EK =1/2・(T−LKn2 ……………(21)
If the error between the output L Kn of the output layer L and the teacher signal T is δ K0 (= T−L Kn ), this average 2
The multiplication error E K is expressed by the following equation. E K = 1/2 ・ (T-L Kn ) 2 ……………… (21)

【0037】一方、平均2乗誤差Ek の関数は出力層L
の出力LK の関数であり、出力LKは中間層Hの出力H
jnとの関数であるため、次式の関係が成り立つ。 ∂EK /∂Ujk=∂EK /∂LKn・∂LKn/∂Ujk ………(22) ∂EK /∂LKn=−(T−LKn) ………………(23) ここで、(20)式を以下のように書き表す。
On the other hand, the function of the mean square error E k is the output layer L
Is a function of the output L K, the output L K output H of the intermediate layer H
Since it is a function with jn , the following relation holds. ∂E K / ∂U jk = ∂E K / ∂L Kn · ∂L Kn / ∂U jk ……… (22) ∂E K / ∂L Kn = - (T−L Kn ) ……………… (23) Here, the equation (20) is written as follows.

【0038】[0038]

【数8】 [Equation 8]

【0039】結合重み係数Ujkの微少変化に対する出力
K への影響は、以下のように表される。 ∂LKn/∂Ujk=∂LKn/∂SK ・∂SK /∂Ujk =g′(SK )・Hjn =a・Hjn ………………………(26)
The influence on the output L K with respect to the minute change of the coupling weight coefficient U jk is expressed as follows. ∂L Kn / ∂U jk = ∂L Kn / ∂S K・ ∂S K / ∂U jk = g '(S K ) ・ H jn = a ・ H jn …………………… (26)

【0040】従って、結合重み係数Ujkの微小変化に対
する平均2乗誤差EK の変化量は、(23)式と(2
6)式から次式のように表される。 ∂EK /∂Ujk=∂EK /∂LKn・∂LKn/∂Ujk =−a・(T−LKn)・Hjn =−δk ′・Hjn ………………………(27) (但し、δk ′=a・(T−LKn)) 平均2乗誤差EK が減少する方向に結合重み係数Ujk
修正する学習を繰り返すことによって、平均2乗誤差E
K は極小値に達する。その修正量ΔUjkは次式のように
表される。 ΔUjk=−η1 ′(∂EK /∂Ujk ) =η1 ′・δk ′・Hjn …………………(28) (但し、η1 ′は定数)
Therefore, the change amount of the mean square error E K with respect to the minute change of the coupling weight coefficient U jk is expressed by the equation (23) and (2)
From the equation (6), the following equation is obtained. ∂E K / ∂U jk = ∂E K / ∂L Kn · ∂L Kn / ∂U jk = -a · (T-L Kn) · H jn = -δ k '· H jn .................. (27) (where δ k ′ = a · (T−L Kn )) Mean square error is repeated by repeating learning to correct the coupling weight coefficient U jk in the direction of decreasing the mean square error E K. Error E
K reaches a local minimum. The correction amount ΔU jk is expressed by the following equation. ΔU jk = −η 1 ′ (∂E K / ∂U jk ) = η 1 ′ · δ k ′ · H jn …………………… (28) (However, η 1 ′ is a constant)

【0041】次に、同様な手法によって、修正量Δ
ij,Δγk0,Δθj0を求めると、次式のように表され
る。尚、γk0,θj0は出力層L及び中間層Hの各ニュー
ロンのオフセットを示している。以下、修正量ΔWij
求める。
Next, the correction amount Δ
When W ij , Δγ k0 , and Δθ j0 are obtained, they are expressed by the following equation. Note that γ k0 and θ j0 indicate the offsets of the neurons in the output layer L and the intermediate layer H. Hereinafter, the correction amount ΔW ij will be obtained.

【0042】[0042]

【数9】 [Equation 9]

【0043】次に、修正量Δγk0を求める。 ∂EK /∂γK0=∂EK /∂LKn・∂LKn/∂γK0 =−a(T−LKn)=−δK ′ ΔγK0=−η3 ′(∂EK /∂γK0) =η3 ′・δK ′ …………………(30) (但し、η3 ′は定数である。)Next, the correction amount Δγ k0 is obtained. ∂E K / ∂γ K0 = ∂E K / ∂L Kn・ ∂L Kn / ∂γ K0 = −a (T−L Kn ) = − δ K ′ Δγ K0 = −η 3 ′ (∂E K / ∂ γ K0 ) = η 3 ′ · δ K ′ ……………… (30) (However, η 3 ′ is a constant.)

【0044】[0044]

【数10】 [Equation 10]

【0045】但し、η1 ′〜η4 ′は、修正量の大きさ
を制御する学習係数である。上述の結果から明らかなよ
うに、ニューラルネットワークの出力層Lの応答関数と
してリニア関数を用いたとしても学習機能には全く支障
がないことを示している。
However, η 1 ′ to η 4 ′ are learning coefficients that control the magnitude of the correction amount. As is clear from the above results, even if a linear function is used as the response function of the output layer L of the neural network, there is no problem in the learning function.

【0046】(B)出力結果 図4(b)は、本発明のニューラルネットワークの出力
結果を示しており、実線で示したサイン関数曲線(イ)
は期待すべきサイン関数曲線を示し、点線で示した曲線
(ロ)が実施例の出力結果に基づくサイン関数曲線を示
している。入力層Iの各ニューロンI1 〜Ii には、角
度θ等の情報信号IN1 〜INnが入力され、出力層L
のニューロンL1 knからは、上記の学習によって得られ
た結合重み係数Wij,Ujkに基づいて加重加算された出
力Lknが、図4(b)の曲線(ロ)に示すようなサイン
関数曲線として出力される。
(B) Output Result FIG. 4 (b) shows the output result of the neural network of the present invention, which is the sine function curve (a) shown by the solid line.
Indicates a sine function curve to be expected, and the curve (b) indicated by a dotted line indicates a sine function curve based on the output result of the embodiment. Information signals IN 1 to IN n such as the angle θ are input to the neurons I 1 to I i of the input layer I, and the output layer L
From the neuron L 1 kn of FIG. 4, the output L kn weighted and added based on the connection weighting factors W ij and U jk obtained by the above learning is the sine sign as shown in the curve (b) of FIG. It is output as a function curve.

【0047】図4(b)から明らかなように、結合重み
係数Wij,Ujkに基づく出力結果は、実線(イ)のサイ
ン関数曲線と略一致したものとなっている。又、極値
1,0においても、図4(a)の点線(ロ)に比べてよ
く一致している。更に、[0,1]の範囲のアナログ出
力も図4(a)にみられたような偏りは発生していな
い。
As is apparent from FIG. 4 (b), the output result based on the coupling weight coefficients W ij and U jk is substantially in agreement with the sine function curve of the solid line (a). Further, even at the extreme values 1 and 0, the agreement is better than that of the dotted line (b) in FIG. Further, the analog output in the range of [0, 1] does not have the bias as seen in FIG.

【0048】この出力結果から、本発明のニューラルネ
ットワークは、出力層Lにリニア応答関数を用いること
で、極値1,0に収束することが実証された。又、シグ
モイド応答関数にみられるアナログ出力の偏りも解消さ
れ、従来のシグモイド関数のみを用いるニューラルネッ
トワークに比べて極値1,0に対する収束性が極めて高
く、種々の情報処理装置や制御装置への汎用性が高いこ
とが実証された。
From this output result, it was proved that the neural network of the present invention converges to the extreme values 1, 0 by using the linear response function in the output layer L. In addition, the bias of analog output seen in the sigmoid response function is eliminated, and the convergence to extreme values 1 and 0 is extremely high as compared with the conventional neural network using only the sigmoid function, and it can be applied to various information processing devices and control devices. It was proved to be highly versatile.

【0049】無論、本発明のニューラルネットワーク
は、コンピータによる演算処理によって等価的に実施し
てもよく、又、ニューロチップで実施してもよいことは
明らかであり、後者の場合、極めて小型で高性能な情報
処理装置や制御装置を提供できるものである。
Of course, it is obvious that the neural network of the present invention may be equivalently implemented by arithmetic processing by a computer, or may be implemented by a neurochip. In the latter case, it is extremely small and high. It is possible to provide a high-performance information processing device and control device.

【0050】[0050]

【発明の効果】本発明のニューラルネットワークによれ
ば、ニューラルネットワークの出力層のニューロンの応
答関数にリニア関数を用いることによって、ニューラル
ネットワークの出力として、極値1,0を無理なく出力
し得ると共に、[0,1]の範囲のアナログ出力も偏り
がなく高精度に出力し得る利点を有している。
According to the neural network of the present invention, by using a linear function as the response function of the neuron in the output layer of the neural network, the extreme values 1 and 0 can be reasonably output as the output of the neural network. , [0, 1] range also has the advantage that it can be output with high accuracy without bias.

【0051】又、出力層にリニア関数を用いることで、
収束性が高い為に演算回数を低減することができる利点
を有し、計算効率が図られる為に高速で処理結果を得る
ことができる効果を有する。更に、本発明のニューラル
ネットワークによれば、出力の極値1,0を、情報処理
装置や制御装置に利用することができ、ニューラルネッ
トワークの汎用性を高めることができる利点を有してい
る。
By using a linear function in the output layer,
Since the convergence is high, the number of calculations can be reduced, and the calculation efficiency is improved, so that the processing result can be obtained at high speed. Further, according to the neural network of the present invention, the extreme values 1 and 0 of the output can be used for the information processing device and the control device, and there is an advantage that the versatility of the neural network can be improved.

【0052】無論、学習過程においても各層間の結合重
み係数を修正する処理時間も短縮できる利点を有すると
共に、極値1,0を比較的高速に学習させることができ
るので学習回数も低減できる極めて効果的なものであ
る。
Of course, in the learning process as well, there is an advantage that the processing time for correcting the coupling weight coefficient between each layer can be shortened, and since the extreme values 1 and 0 can be learned relatively quickly, the number of times of learning can be extremely reduced. It is effective.

【図面の簡単な説明】[Brief description of drawings]

【図1】(a)は本発明のニューラルネットワークの一
実施例を示す図、(b)はシグモイド関数を示す図、
(c)はリニア関数を示す図である。
1A is a diagram showing an embodiment of a neural network of the present invention, FIG. 1B is a diagram showing a sigmoid function,
(C) is a figure which shows a linear function.

【図2】本発明のニューラルネットワークの他の実施例
を示す図である。
FIG. 2 is a diagram showing another embodiment of the neural network of the present invention.

【図3】(a)は学習機能を説明する為の図、(b)は
サイン関数の教師データを表に示した図である。
3A is a diagram for explaining a learning function, and FIG. 3B is a diagram showing teacher data of a sine function in a table.

【図4】(a)は従来のニューラルネットワークの出力
結果を示す図、(b)は本発明のニューラルネットワー
クの出力結果を示す図である。
4A is a diagram showing an output result of a conventional neural network, and FIG. 4B is a diagram showing an output result of the neural network of the present invention.

【図5】従来のニューラルネットワークの一例を示す図
である。
FIG. 5 is a diagram showing an example of a conventional neural network.

【符号の説明】[Explanation of symbols]

I 入力層 H 中間層 L 出力層 I1 〜Ii 入力層Iのニューロン H1 〜Hj 中間層Hのニューロン L1 〜Lk 出力層LのニューロンI input layer H intermediate layer L output layer I 1 to I i input layer I neuron H 1 to H j intermediate layer H neuron L 1 to L k output layer L neuron

───────────────────────────────────────────────────── フロントページの続き (72)発明者 上田 浩次 愛知県海部郡美和町大字篠田字面徳29−1 名古屋電機工業株式会社美和工場内 (72)発明者 山田 宗男 愛知県海部郡美和町大字篠田字面徳29−1 名古屋電機工業株式会社美和工場内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Koji Ueda 29-1, Mita, Miwa-cho, Kaifu-gun, Aichi Prefecture Mita Plant, Nagoya Electric Industry Co., Ltd. (72) Muneo Yamada, Shinoda, Miwa-cho, Kaifu-gun, Aichi Prefecture 29-1 Nagoya Electric Industry Co., Ltd. Miwa Plant

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ニューラルネットワークに於いて、該ニ
ューラルネットワークが学習機能を有し、その出力層の
応答関数としてリニア関数を用いたことを特徴とするニ
ューラルネットワーク。
1. A neural network, wherein the neural network has a learning function, and a linear function is used as a response function of its output layer.
JP4295775A 1992-11-05 1992-11-05 Neural network Pending JPH06149767A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4295775A JPH06149767A (en) 1992-11-05 1992-11-05 Neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4295775A JPH06149767A (en) 1992-11-05 1992-11-05 Neural network

Publications (1)

Publication Number Publication Date
JPH06149767A true JPH06149767A (en) 1994-05-31

Family

ID=17825004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4295775A Pending JPH06149767A (en) 1992-11-05 1992-11-05 Neural network

Country Status (1)

Country Link
JP (1) JPH06149767A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113125A (en) * 2009-11-24 2011-06-09 Fuji Xerox Co Ltd Apparatus and program for processing information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011113125A (en) * 2009-11-24 2011-06-09 Fuji Xerox Co Ltd Apparatus and program for processing information

Similar Documents

Publication Publication Date Title
Sibi et al. Analysis of different activation functions using back propagation neural networks
JPH06149767A (en) Neural network
Spall Developments in stochastic optimization algorithms with gradient approximations based on function measurements
Romanuke Boosting ensembles of heavy two-layer perceptrons for increasing classification accuracy in recognizing shifted-turned-scaled flat images with binary features
JP2907486B2 (en) Neural network device
JPH05208207A (en) Method for controlling hot rolling process
EP0442120B1 (en) Data processing device with neural network and adaptive learning method
Zeng et al. Identification of nonlinear dynamic systems using convex combinations of multiple adaptive radius basis function networks
Aracil et al. Stability Analysis of Fuzzy Control Systems Based on the Conicity Criterion.
JPH0635510A (en) Model norm adaptive controller using neural network
Wouwer et al. On the use of simultaneous perturbation stochastic approximation for neural network training
JPH09174128A (en) Method for controlling shape of rolled stock
JP2606317B2 (en) Learning processing device
JPH0981535A (en) Learning method for neural network
CN113359429B (en) Method and device for online identification of gap link characteristic parameters
Bucklew et al. The covering problem and/spl mu/-dependent adaptive algorithms
JPH0535899A (en) Learning device for frequency characteristic of neural network
Yumusak et al. Harmonic detection using neural networks with conjugate gradient algorithm
Timofeev et al. Can we learn gradients by Hamiltonian Neural Networks?
Bodyanskiy et al. Outliers resistant learning algorithm for radial-basis-fuzzy-wavelet-neural network in stomach acute injury diagnosis tasks
JPH09265463A (en) Device for learning neural network
JPH0696046A (en) Learning processor of neural network
JPH0527808A (en) Controller using neural network model
JPH07152716A (en) Method of learning neural network
JPH09230908A (en) Adaptive system using fuzzy logical function

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010321