JP3359074B2 - Learning method of neural network - Google Patents

Learning method of neural network

Info

Publication number
JP3359074B2
JP3359074B2 JP35686092A JP35686092A JP3359074B2 JP 3359074 B2 JP3359074 B2 JP 3359074B2 JP 35686092 A JP35686092 A JP 35686092A JP 35686092 A JP35686092 A JP 35686092A JP 3359074 B2 JP3359074 B2 JP 3359074B2
Authority
JP
Japan
Prior art keywords
cell
predetermined value
output
input
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35686092A
Other languages
Japanese (ja)
Other versions
JPH06195488A (en
Inventor
哲朗 連
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mikuni Corp
Original Assignee
Mikuni Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mikuni Corp filed Critical Mikuni Corp
Priority to JP35686092A priority Critical patent/JP3359074B2/en
Publication of JPH06195488A publication Critical patent/JPH06195488A/en
Application granted granted Critical
Publication of JP3359074B2 publication Critical patent/JP3359074B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、ニューラルネットワー
ク(以下NNと称す)の学習方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for learning a neural network (hereinafter referred to as NN).

【0002】[0002]

【従来の技術】ニューロコンピュータは、脳の基本素子
であるニューロン(神経細胞)に着目したものであり、
これらが結合した結果できるNNをヒントとして、脳と
同じような機能を達成しようとするものである。これら
NNの特徴は各ニューロン間の並列情報処理にあり、か
つ学習能力のある点である。そしてNN中はいくつかの
層からなる階層構成を有し、各層は適当な数のセルから
なり、同一層内の結合はなく、各層間の結合は入力層
(第1層)から出力層(最終層)へ向けて一方向の結合
としている。入力層を除く各層のセルは、前の層のセル
からの重み付き入力を受けて、その総和を計算し、それ
に適当な関数fをかけたものを出力としている。NNで
用いるセルの入出力関数としては、しきい関数,区分線
形関数,ロジスティック関数及び恒等関数等がある(参
考文献,産業図書発行,麻生英樹著「ニューラルネット
ワーク情報処理」P.13)。
2. Description of the Related Art Neurocomputers focus on neurons (neural cells), which are basic elements of the brain.
The idea is to achieve a function similar to that of the brain, using as a hint the NN that results from the combination of these. The feature of these NNs lies in the parallel information processing between the neurons and the ability to learn. The NN has a hierarchical structure composed of several layers, each layer is composed of an appropriate number of cells, there is no coupling in the same layer, and the coupling between each layer is from the input layer (first layer) to the output layer ( The connection is made in one direction toward the final layer). The cells of each layer except the input layer receive weighted inputs from the cells of the previous layer, calculate the sum thereof, and multiply the sum by an appropriate function f to output. Cell input / output functions used in the NN include a threshold function, a piecewise linear function, a logistic function, an identity function, and the like (references, published by Sangyo Tosho, Hideki Aso, "Neural Network Information Processing", page 13).

【0003】[0003]

【発明が解決しようとする課題】NNを構成するセルの
入出力関数として区間線形関数を用いれば、直線からな
るメンバーシップ関数をNNにて作成できる。そして直
線からなるメンバーシップ関数はハードウェアの実現が
容易であると言う利点を持つ。本発明は上記事情に鑑み
てなされたものであり、入力信号の加算結果のリミット
出力を出力するセルを有するファジィ推論のためのNN
を提供することを目的としている。
If an interval linear function is used as an input / output function of cells constituting the NN, a membership function composed of straight lines can be created by the NN. The membership function composed of straight lines has an advantage that hardware can be easily realized. SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has been developed for fuzzy inference having a cell for outputting a limit output of an addition result of an input signal.
It is intended to provide.

【0004】[0004]

【課題を解決するための手段】本発明の請求項1に係る
ニューラルネットワークの学習方法は、入力信号を出力
するセルと、前記入力信号を出力するセルの信号を所定
の結合係数を介して接続された複数の中間セルと、これ
らの中間セルが階層構成を有して複数の最終出力セルに
接続されたニューラルネットワークにおいて、前記中間
セルはある入力区間において出力が所定値で一定となる
リミット領域を少なくとも1つ有する区分線形関数を出
力するセルであって、入力端に結合される信号の加算結
果を前記区分線形関数に従って出力する手段を有し、誤
差逆伝播法を用いて結合係数を更新するに際し、前記中
間セルの出力信号が前記区分線形関数のリミット領域内
にあるとき誤差を伝播させないようにした。又、請求項
2に係るニューラルネットワークの学習方法は、入力信
号を出力するセルと、前記入力信号を出力するセルの信
号を所定の結合係数を介して接続された複数の中間セル
と、これらの中間セルが階層構成を有して複数の最終出
力セルに接続されたニューラルネットワークにおいて、
前記中間セルは下記3つの領域を有する区分線形関数を
出力するセルであって、入力端に結合される信号の加算
結果を前記区分線形関数に従って出力する手段を有し、
誤差逆伝播法を用いて結合係数を更新するに際し、前記
中間セルの出力信号が前記区分線形関数のいずれかの領
域内にあるとき、夫々決まった比率で誤差を伝播させる
ようにした。 記 1.セル入力が第1の所定値以下であり、セル出力が第
1の所定値で制限されるローリミット領域。 2.セル入力が前記第1の所定値と前記第1の所定値よ
り大きい第2の所定値との間であり、セル出力が前記第
1の所定値と前記第1の所定値より大きい第2の所定値
まで、所定の傾斜を有して1次関数的に増加するリニア
領域。 3.セル入力が第2の所定値以上であり、セル出力が前
記第2の所定値で制限されるハイリミット領域。
According to a first aspect of the present invention, there is provided a neural network learning method, comprising connecting a cell for outputting an input signal and a signal of a cell for outputting the input signal via a predetermined coupling coefficient. A plurality of intermediate cells and a neural network in which these intermediate cells have a hierarchical structure and are connected to a plurality of final output cells, wherein the intermediate cells have a limit area where the output is constant at a predetermined value in a certain input section. A cell that outputs a piecewise linear function having at least one of the following: a means for outputting an addition result of a signal coupled to an input end in accordance with the piecewise linear function, and updating a coupling coefficient using an error back propagation method At this time, when the output signal of the intermediate cell is within the limit area of the piecewise linear function, the error is not propagated. Further, the neural network learning method according to claim 2 includes a cell for outputting an input signal, a plurality of intermediate cells for connecting the signal of the cell for outputting the input signal via a predetermined coupling coefficient, and In a neural network in which intermediate cells have a hierarchical structure and are connected to a plurality of final output cells,
The intermediate cell is a cell that outputs a piecewise linear function having the following three regions, and has means for outputting an addition result of a signal coupled to an input terminal according to the piecewise linear function,
When the coupling coefficient is updated using the error backpropagation method, when the output signal of the intermediate cell is in any region of the piecewise linear function, the error is propagated at a predetermined ratio. Note 1. A low limit region in which the cell input is less than or equal to a first predetermined value and the cell output is limited by the first predetermined value. 2. A cell input is between the first predetermined value and a second predetermined value greater than the first predetermined value, and a cell output is a second power greater than the first predetermined value and the second predetermined value. A linear region that increases linearly with a predetermined slope to a predetermined value. 3. A high limit region in which the cell input is equal to or greater than a second predetermined value and the cell output is limited by the second predetermined value.

【0005】[0005]

【実施例】以下図面を参照して実施例を説明する。図1
は本発明によるNNの一実施例の構成図である。図1に
おいて、aは区分線形関数を出力するセル、O1〜O
jmxはセルaの入力端に結合するセルb(j=1〜
mx)の出力、W1〜Wjmxは結合係数である。この
時、セルaは入力の総和Iの値により、次式に示す値を
出力する。
An embodiment will be described below with reference to the drawings. FIG.
1 is a configuration diagram of an embodiment of an NN according to the present invention. In FIG. 1, a is a cell that outputs a piecewise linear function, O1 to O
jmx is a cell b j (j = 1 to 2) connected to the input terminal of the cell a.
Output of mx), W1~W jmx is the coupling coefficient. At this time, the cell a outputs a value represented by the following equation according to the value of the input sum I.

【数1】 このセルの入出力関数を図3に示す。なお、図3に示す
ようにセル入力Iの3つの区間、I<x1,x1≦I≦
x2,x2<Iを夫々ローリミット,リニア,ハイリミ
ット領域(y1≦y2の場合、y1>y2ではローリミ
ットとハイリミットが入れ替わる)と呼ぶ。なお、上記
各領域を一層明確にするため、下記のように文言にして
定義した。記 (イ)ローリミット領域 横軸をセル入力とし、これをx1,x2で3分割したと
き前記セル入力がx1以下であって、かつセル出力が所
定値y1で制限される領域。 (ロ)リニア領域 セル入力がx1とx2との間にあって、かつセル出力が
縦軸にあるy1からy2まで所定の傾斜を有して1次関
数的に増加する領域。 (ハ)ハイリミット領域 セル入力がx2以上であって、セル出力が縦軸の所定値
y2で制限される領域。
(Equation 1) The input / output function of this cell is shown in FIG. As shown in FIG. 3, three sections of the cell input I, I <x1, x1 ≦ I ≦
x2 and x2 <I are referred to as low limit, linear, and high limit areas, respectively (when y1 ≦ y2, the low limit and the high limit are switched when y1> y2). In addition, in order to further clarify each of the above-mentioned regions, the regions were defined as words as follows. (A) Low limit area An area where the horizontal axis is a cell input, and when the cell input is divided into three by x1 and x2, the cell input is equal to or less than x1 and the cell output is limited by a predetermined value y1. (B) Linear region A region where the cell input is between x1 and x2 and the cell output increases linearly with a predetermined slope from y1 to y2 on the vertical axis. (C) High limit area An area where the cell input is equal to or larger than x2 and the cell output is limited by a predetermined value y2 on the vertical axis.

【0006】次に、図2を用いてこのセルを用いた場合
の学習方法を説明する。ここで、Wi(k-1),j(k) はk−
1層i番目のセルとk層j番目のセルとの結合係数を示
し、Ij(k)はk層j番目のセルへの入力の総和を示し、
Oj(k)はk層j番目のセルの出力を示す。結合係数Wij
の更新には次式を用いる。
Next, a learning method using this cell will be described with reference to FIG. Here, Wi (k-1), j (k) is k-
The coupling coefficient between the i-th cell in the first layer and the j-th cell in the k-th layer is indicated.
Oj (k) indicates the output of the j-th cell in the k-th layer. Coupling coefficient Wij
The following equation is used for updating.

【数2】 通常のセル(セルへの入力の総和xとセルの出力yが、
微分可能な入出力関数y=f(x) の関係にあるセルを、
通常のセルと呼ぶことにする。具体的には参考文献(1)
のロジスティック関数や恒等関数がある)と本発明によ
るセルの誤差逆伝播法の違いを以下で説明する。
(Equation 2) A normal cell (sum x of the input to the cell and y of the cell is
A cell having a relation of a differentiable input / output function y = f (x) is represented by
Let's call it a normal cell. Specifically, reference (1)
The following is a description of the difference between the cell backpropagation method and the cell error backpropagation method according to the present invention.

【数3】 dj(k)は以下の場合で分かれる。(Equation 3) dj (k) is divided in the following cases.

【0007】(i) k層が出力層の場合(I) When the k-th layer is the output layer

【数4】 (Equation 4)

【0008】(ii) k層が中間層の場合(Ii) When the k-layer is an intermediate layer

【数5】 上式のdm(k+1)は、出力側から順にdj(k)と同様にして
求められる。
(Equation 5) Dm (k + 1) in the above equation is obtained in the same manner as dj (k) in order from the output side.

【数6】 よって、本発明によるセルを含むNNにおいても学習が
可能である。
(Equation 6) Therefore, learning is possible even in the NN including the cell according to the present invention.

【0009】[0009]

【発明の効果】以上説明したように、本発明によればN
Nを構成するセルに対して、入力信号の加算結果を区分
線形関数に従って出力する機能を付加したので、ソフト
ウェアのニューラルネットを直接ハードウェアに割り付
けるのに有効である。
As described above, according to the present invention, N
Since the function of outputting the addition result of the input signal according to the piecewise linear function is added to the cells constituting N, it is effective to directly assign a software neural net to hardware.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明によるNNの一実施例の構成図。FIG. 1 is a configuration diagram of an embodiment of an NN according to the present invention.

【図2】図1の学習方法を説明する図。FIG. 2 is a view for explaining the learning method of FIG. 1;

【図3】入出力関数を示す図。FIG. 3 is a diagram showing an input / output function.

【符号の説明】[Explanation of symbols]

a,b1 〜bjmx セル O1 〜Ojmx セルbj の出力 W1 〜Wjmx 結合係数a, b 1 to b jmx cell Output of O 1 to O jmx cell b j W 1 to W jmx coupling coefficient

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力信号を出力するセルと、前記入力信
号を出力するセルの信号を所定の結合係数を介して接続
された複数の中間セルと、これら中間セルが階層構成
を有して複数の最終出力セルに接続されたニューラルネ
ットワークにおいて、前記中間セルはある入力区間にお
いて出力が所定値で一定となるリミット領域を少なくと
も1つ有する区分線形関数を出力するセルであって、入
力端に結合される信号の加算結果を前記区分線形関数に
従って出力する手段を有し、誤差逆伝播法を用いて結合
係数を更新するに際し、前記中間セルの出力信号が前記
区分線形関数のリミット領域内にあるとき誤差を伝播さ
せないことを特徴とするニューラルネットワークの学習
方法。
And 1. A cell for outputting an input signal, a plurality of intermediate cells of the cell signal and outputting the input signal is connected through a predetermined coupling coefficient, these intermediate cells has a hierarchical structure in neural network connected to a plurality of final output cell, you said intermediate cell is input section
And the limit area where the output is constant at a predetermined value
A cell which outputs a piecewise linear function having at least one, and has means for outputting the addition result of the signal coupled to the input terminal in accordance with the piecewise linear function, and updates the coupling coefficient using the error back propagation method At this time, the output signal of the intermediate cell is
A method for learning a neural network, wherein an error is not propagated when the error is within a limit area of a piecewise linear function .
【請求項2】 入力信号を出力するセルと、前記入力信
号を出力するセルの信号を所定の結合係数を介して接続
された複数の中間セルと、これら中間セルが階層構成
を有して複数の最終出力セルに接続されたニューラルネ
ットワークにおいて、前記中間セルは下記3つの領域を
有する区分線形関数を出力するセルであって、入力端に
結合される信号の加算結果を前記区分線形関数に従って
出力する手段を有し、誤差逆伝播法を用いて結合係数を
更新するに際し、前記中間セルの出力信号が前記区分線
形関数のいずれかの領域内にあるとき、夫々決まった比
率で誤差を伝播させることを特徴とするニューラルネッ
トワークの学習方法。 記 1.セル入力が第1の所定値以下であり、セル出力が第
1の所定値で制限されるローリミット領域。 2.セル入力が前記第1の所定値と前記第1の所定値よ
り大きい第2の所定値との間であり、セル出力が前記第
1の所定値と前記第1の所定値より大きい第2の所定値
まで、所定の傾斜を有して1次関数的に増加するリニア
領域。 3.セル入力が第2の所定値以上であり、セル出力が前
記第2の所定値で制限されるハイリミット領域。
2. A cell for outputting an input signal, a plurality of intermediate cells of the cell signal and outputting the input signal is connected through a predetermined coupling coefficient, these intermediate cells has a hierarchical structure in connection neural network to a plurality of final output cell, the intermediate cell following three regions
A cell that outputs a piecewise linear function having a means for outputting the addition result of the signal coupled to the input terminal in accordance with the piecewise linear function, and when updating a coupling coefficient using an error back propagation method, The output signal of the intermediate cell is
A method for learning a neural network, wherein an error is propagated at a fixed ratio when it is in any region of a shape function . Note 1. The cell input is less than or equal to the first predetermined value and the cell output is
Low limit area limited by a predetermined value of 1. 2. The cell input is different from the first predetermined value and the first predetermined value.
Cell output is greater than the second predetermined value, and the cell output is
A predetermined value of 1 and a second predetermined value larger than the first predetermined value
Up to a linear function with a predetermined slope
region. 3. Cell input is greater than or equal to a second predetermined value and cell output is
The high limit area limited by the second predetermined value.
JP35686092A 1992-12-22 1992-12-22 Learning method of neural network Expired - Fee Related JP3359074B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35686092A JP3359074B2 (en) 1992-12-22 1992-12-22 Learning method of neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35686092A JP3359074B2 (en) 1992-12-22 1992-12-22 Learning method of neural network

Publications (2)

Publication Number Publication Date
JPH06195488A JPH06195488A (en) 1994-07-15
JP3359074B2 true JP3359074B2 (en) 2002-12-24

Family

ID=18451128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35686092A Expired - Fee Related JP3359074B2 (en) 1992-12-22 1992-12-22 Learning method of neural network

Country Status (1)

Country Link
JP (1) JP3359074B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005004032A1 (en) * 2003-07-02 2007-09-20 有限会社Advanced Logic Projects Function device
JP5504501B2 (en) * 2010-05-14 2014-05-28 国立大学法人岩手大学 Random number generation system and program

Also Published As

Publication number Publication date
JPH06195488A (en) 1994-07-15

Similar Documents

Publication Publication Date Title
US5249259A (en) Genetic algorithm technique for designing neural networks
Ikemoto et al. Noise-modulated neural networks as an application of stochastic resonance
WO1989009449A1 (en) Functional link neural net
JP2747104B2 (en) neural network
Wang Discrete-time convergence theory and updating rules for neural networks with energy functions
Setiono et al. On mapping decision trees and neural networks
US5274744A (en) Neural network for performing a relaxation process
JP3359074B2 (en) Learning method of neural network
JPH07282168A (en) Chaos-recurrent neuronetwork and its learning method
JP3343625B2 (en) Neural networks for fuzzy inference
JP3343626B2 (en) Neural networks for fuzzy inference
JP2907486B2 (en) Neural network device
Igelnik et al. Additional perspectives on feedforward neural-nets and the functional-link
JP3171897B2 (en) Knowledge information processing device
Sung-Kwun Genetically optimized hybrid fuzzy neural networks based on linear fuzzy inference rules
JP2936928B2 (en) Structure and learning method of neural network for elevator
Born et al. Designing neural networks by adaptively building blocks in cascades
JPH0991264A (en) Method and device for optimizing neural network structure
JPH0744195A (en) Recurrent neutral network for speech recognition
JP3393511B2 (en) Character recognition apparatus and method
Tanaka et al. An efficient algorithm for solving optimization problems on Hopfield‐type neural networks
JPH0652139A (en) Data structure for neural network
Tang et al. A model of neurons with unidirectional linear response
CN116050503A (en) Generalized neural network forward training method
JPH03265077A (en) Feedback neural cell model

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees