JP3137996B2 - Neural network using membership function and its learning method - Google Patents
Neural network using membership function and its learning methodInfo
- Publication number
- JP3137996B2 JP3137996B2 JP03039903A JP3990391A JP3137996B2 JP 3137996 B2 JP3137996 B2 JP 3137996B2 JP 03039903 A JP03039903 A JP 03039903A JP 3990391 A JP3990391 A JP 3990391A JP 3137996 B2 JP3137996 B2 JP 3137996B2
- Authority
- JP
- Japan
- Prior art keywords
- membership function
- neural network
- neuron
- layer
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Landscapes
- Feedback Control In General (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、ファジィ制御における
メンバシップ関数の計算をニューラルネットワークで構
成することを可能とするメンバシップ関数を用いたニュ
ーラルネットワーク及びその学習方式に関する。数式モ
デルを立てられないプラントの制御などの分野では、従
来、ファジィ制御が適用されてきたが、最近、ニューラ
ルネットワークによる制御が開発工数、精度、調整にし
やすさで注目されている。しかし、ニューラルネットワ
ークは学習によりメンバシップ関数に近似するニューロ
ン特性関数に調整する必要があり、学習に時間がかかる
問題があるので、この点の改善が望まれる。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network using a membership function which enables calculation of a membership function in fuzzy control by a neural network, and a learning method thereof. Conventionally, fuzzy control has been applied in fields such as plant control where mathematical models cannot be established. Recently, however, neural network control has attracted attention because of its man-hours, accuracy, and ease of adjustment. However, the neural network needs to be adjusted to a neuron characteristic function that approximates a membership function by learning, and there is a problem that learning takes time. Therefore, improvement in this point is desired.
【0002】[0002]
【従来の技術】ニューラルネットワークは、ニューロン
を模したユニットをネットワーク状に結合し構成されて
いる。このニューラルネットワークに、入力データとそ
れに対する望ましい教師データとを組にして学習パター
ンとして準備し、複数のパターンをネットワークに提示
して学習を行う。学習の方法として、ネットワークの実
際の出力値と教師データとの誤差の二乗和を最小にする
バックプロパゲーション法などがある。2. Description of the Related Art A neural network is configured by connecting units imitating neurons in a network. In this neural network, input data and desired teacher data for the input data are paired to prepare a learning pattern, and a plurality of patterns are presented to the network for learning. As a learning method, there is a back propagation method that minimizes the sum of squares of the error between the actual output value of the network and the teacher data.
【0003】図21はメンバシップ関数を実現するニュ
ーラルネットワークの学習に使用する学習パターンの一
例を示したもので、このような入出力関係の学習パター
ンを図22で示しすような入力層、中間層としての第1
及び第2層及び出力層の4層構造からなるニューラルネ
ットワークで学習させる。この場合の学習回数は429
1回であり、学習後の第1層、第2層及び出力層の各ニ
ューロンの重みと閾値は図23に示すようになる。FIG. 21 shows an example of a learning pattern used for learning of a neural network for realizing a membership function. Such an input / output relationship learning pattern is shown in FIG. First as a layer
And a neural network having a four-layer structure of a second layer and an output layer. The number of times of learning in this case is 429
This is one time, and the weights and thresholds of the neurons in the first layer, the second layer, and the output layer after learning are as shown in FIG.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、従来の
メンバシップ関数を実現するニューラルネットワークの
場合、層間の結線の重みは全結合しているので、結線の
重みの解析は複雑である。また、学習が完了するのに多
くの時間を費やすという問題がある。本発明は、このよ
うな従来の問題点に鑑みてなされたもので、学習が簡単
で且つ結線の重み解析も容易なメンバシップ関数を用い
たニューラルネットワーク及びその学習方式を提供する
ことを目的とする。However, in the case of a conventional neural network that realizes a membership function, the weight of the connection between the layers is fully connected, and the analysis of the weight of the connection is complicated. In addition, there is a problem that a lot of time is required to complete learning. The present invention has been made in view of such conventional problems, and it is an object of the present invention to provide a neural network using a membership function that is easy to learn and that can easily analyze connection weights, and a learning method thereof. I do.
【0005】[0005]
【課題を解決するための手段】図1は本発明の原理説明
図である。まず本発明は、入力を分岐する入力層10、
ニューロンを用いた中間層12と出力層14とからなる
階層構造を備えたニューラルネットワークを対象とす
る。に於いて、このようなニューラルネットワークにつ
き本発明にあっては、入力層10と中間層12との間に
非線形関数としてシグモイド関数をもつニューロンの第
1層18と、線形関数を持つニューロンの第2層20で
構成することによってメンバシップ関数を実現するメン
バシップ関数実現層16を加え、該メンバシップ関数実
現層16の部分のネットワーク結線の重みW及びニュー
ロンの閾値θを予め設定したことを特徴とするメンバシ
ップ関数を用いたニューラルネットワーク。FIG. 1 is a diagram illustrating the principle of the present invention. First, the present invention provides an input layer 10 for branching an input,
A neural network having a hierarchical structure including a hidden layer 12 and an output layer 14 using neurons is targeted. In the present invention, such a neural network is provided between the input layer 10 and the hidden layer 12.
A neuron with a sigmoid function as a nonlinear function
One layer 18 and a second layer 20 of neurons with linear functions
A membership function realizing layer 16 for realizing a membership function by configuring , and a network connection weight W and a neuron threshold value θ of a portion of the membership function realizing layer 16 are set in advance. Neural network using functions.
【0006】メンバシップ関数実現層16は、メンバシ
ップ関数ラージ(Large) を実現する非線形特性を有する
ニューロン、メンバシップ関数スモール(Small)を実現
する非線形特性を有するニューロンを備える。メンバシ
ップ関数ミディアム(Medium) を実現するネットワーク
としては、メンバシップ関数スモールを実現する非線形
特性を有する第1ニューロンと、メンバシップ関数ラー
ジを実現する非線形特性を有する第2ニューロンと、第
1及び第2のニューロンの出力の和から1を引いた値を
出力する線形特性を有する第3ニューロンとで構成す
る。またメンバシップ関数ミディアム(Medium) を実現
する他のネットワークとしては、メンバシップ関数スモ
ール(又はラージ)を実現する非線形特性を有する第1
ニューロンと、他のメンバシップ関数スモール(又はラ
ージ)を実現する非線形特性を有する第2ニューロン
と、第1及び第2のニューロンの出力の差を求める線形
特性を有する第3ニューロンとで構成してもよい。The membership function realizing layer 16 includes neurons having nonlinear characteristics for realizing a large membership function and neurons having non-linear characteristics for realizing a small membership function. The network for realizing the membership function Medium includes a first neuron having a non-linear characteristic for realizing a small membership function, a second neuron having a non-linear characteristic for realizing a large membership function, and first and second neurons. A third neuron having a linear characteristic that outputs a value obtained by subtracting 1 from the sum of outputs of two neurons. Another network that realizes a membership function medium is a first network having a nonlinear characteristic that realizes a membership function small (or large).
A neuron, a second neuron having a non-linear characteristic for realizing another membership function small (or large), and a third neuron having a linear characteristic for obtaining a difference between outputs of the first and second neurons. Is also good.
【0007】メンバシップ関数ラージは入力Xと出力Y
との間に、a,b(但しa<b)を定数として、 X≦aの時、 Y=0 a<X<bの時、Y=(X−a)/(b−a) b≦Xの時、 Y=1 の関係があり、このメンバシップ関数ラージをニューロ
ンで近似する際に、メンバシップ関数ラージとの誤差の
二乗の積分を最小とするようにニューロンの特性関数を
設定する。[0007] The large membership function consists of an input X and an output Y
Where a and b (where a <b) are constants, when X ≦ a, Y = 0, when a <X <b, Y = (X−a) / (ba) b ≦ At the time of X, there is a relationship of Y = 1, and when approximating this membership function large by a neuron, the characteristic function of the neuron is set so as to minimize the integral of the square of the error from the membership function large.
【0008】具体的にはニューロンの特性関数の最大傾
きをメンバシップ関数ラージの傾きである 1/(b−a) の1.3253倍とする。Specifically, the maximum gradient of the characteristic function of the neuron is set to 1.3253 times 1 / (ba) which is the gradient of the membership function large.
【0009】更に具体的にはニューロンの特性関数を、 Y=1/{1+exp(−wX+θ)} とする時、結線の重みw及び閾値θを w=5.3012/(b−a) θ=2.6506(a+b)/(b−a) に設定する。More specifically, when the characteristic function of the neuron is Y = 1 / {1 + exp (−wX + θ)}, the weight w of the connection and the threshold θ are given by: w = 5.3012 / (ba) θ = Set to 2.506 (a + b) / (ba).
【0010】またニューロンの特性関数を、 Y=0.5+0.5tanh(wX−θ) で近似した時には、結線の重み及び閾値θを、 w=2.6506/(b−a) θ=1.3253(a+b)/(b−a) に設定する。When the characteristic function of the neuron is approximated by Y = 0.5 + 0.5 tanh (wX-θ), the weight of the connection and the threshold θ are calculated as follows: w = 2.6506 / (ba) θ = 1. 3253 (a + b) / (ba).
【0011】一方、メンバシップ関数スモールは、入力
Xと出力Yとの間に、a,b(但しa<b)を定数とし
て、 X≦aの時、 Y=1 a<X<bの時、Y=−(X−a)/(b−a) b≦Xの時、 Y=0 の関係があり、このメンバシップ関数スモールをニュー
ロンで近似する際には、ニューロンの特性関数の絶対値
最大傾きをメンバシップ関数スモールの傾きである −1/(b−a) の1.3253倍とする。On the other hand, the small membership function is defined as follows: a, b (where a <b) is a constant between input X and output Y, when X ≦ a, Y = 1 when a <X <b , Y = − (X−a) / (ba) When b ≦ X, there is a relation of Y = 0. When approximating this membership function small by a neuron, the absolute value of the characteristic function of the neuron The maximum gradient is 1.3253 times the gradient of the small membership function, −1 / (ba).
【0012】具体的には、ニューロンの特性関数を、 Y=1/{1+exp(−wX+θ)} とする時、結線の重みw及び閾値θを w=−5.3012/(b−a) θ=−2.6506(a+b)/(b−a) に設定する。More specifically, when the characteristic function of the neuron is Y = 1 / {1 + exp (−wX + θ)}, the connection weight w and the threshold θ are w = −5.3012 / (ba) θ = −2.6506 (a + b) / (ba).
【0013】またニューロンの特性関数を、 Y=0.5+0.5tanh(wX−θ) で近似した時には、結線の重み及び閾値θを、 w=−2.6506/(b−a) θ=−1.3253(a+b)/(b−a) に設定すればよい。When the characteristic function of the neuron is approximated by Y = 0.5 + 0.5 tanh (wX-θ), the weight of the connection and the threshold value θ are calculated as follows: w = −2.6506 / (ba) θ = − 1.3253 (a + b) / (ba) may be set.
【0014】更にニューラルネットワークの学習方式と
しては、メンバシップ関数実現層16を除くネットワー
ク全体を学習するか、或いはメンバシップ関数実現層1
6を含めてネットワーク全体を学習する。Further, as a learning method of the neural network, the entire network except the membership function realizing layer 16 is learned, or the membership function realizing layer 1
6. Learn the entire network, including 6.
【0015】[0015]
【作用】このような構成を備えた本発明によるメンバシ
ップ関数を用いたニューラルネットワーク及びその学習
方式によれば、ニューラルネットワークの入力部分に、
ニューロンで構成したメンバシップ関数small,m
edium,largeを表わす層を設ける。このメン
バシップ関数実現層における各ニューロンの結線の重み
と閾値は、メンバシップ関数との誤差の二乗の積分を最
小とするように計算から求められて予め設定する(プリ
ワイヤ)。According to the neural network using the membership function and the learning method according to the present invention having such a configuration, the input portion of the neural network includes:
Membership function small, m composed of neurons
A layer representing edium and large is provided. The weight and threshold value of the connection of each neuron in the membership function realization layer are obtained by calculation and set in advance so as to minimize the integral of the square of the error with the membership function (pre-wire).
【0016】このようにネットワークの入力部分に、計
算で求めた重みと閾値をプリワイヤするので、この部分
についてバックプロパゲーション法による学習を行わな
くてよいので、ネットワーク全体の学習時間は少なくて
済む。また、入力層から出力層までのすべての層をバッ
クプロパゲーションにより学習したとしても、入力部分
での結線の重みと閾値は予めプリワイヤしてあるので、
学習時間は少なくてすむ。As described above, the weight and the threshold value obtained by calculation are pre-wired to the input portion of the network, so that the learning by the back propagation method does not need to be performed on this portion, so that the learning time of the entire network can be reduced. Also, even if all layers from the input layer to the output layer are learned by back propagation, the connection weights and thresholds at the input portion are pre-wired in advance,
Less learning time.
【0017】[0017]
【実施例】図2は本発明の一実施例を示した実施例構成
図である。図2において、ニューラルネットワークは、
分岐ユニットとしての入力層10と、ニューロンを用い
た2層構造の中間層12と出力層14を備える。本発明
にあっては、入力層10と中間層12との間に、メンバ
シップ関数実現層16を新たに設ける。メンバシップ関
数実現層16は、非線形関数としてシグモイド関数をも
つニューロンの第1層18と、線形関数をもつニューロ
ンの第2層20で構成される。尚、中間層12は第3層
22及び第4層24で構成されている。FIG. 2 is a block diagram showing an embodiment of the present invention. In FIG. 2, the neural network is
It has an input layer 10 as a branching unit, an intermediate layer 12 having a two-layer structure using neurons, and an output layer 14. In the present invention, a membership function realizing layer 16 is newly provided between the input layer 10 and the intermediate layer 12. The membership function realizing layer 16 includes a first layer 18 of neurons having a sigmoid function as a nonlinear function and a second layer 20 of neurons having a linear function. The intermediate layer 12 includes a third layer 22 and a fourth layer 24.
【0018】メンバシップ関数実現部16の各ニューロ
ンは、図3(a)(b)(c)に示すようなメンバシッ
プ関数small,medium,largeを近似す
る。図4は図2のメンバシップ関数実現部16で近似す
るメンバシップ関数の定義を示した説明図であり、 small medium 1 medium 2 large の4種類の基本的なメンバシップ関数が入力変数Xの値
を入力変数a,b,cによって定義される。Each neuron of the membership function realizing section 16 approximates the membership functions small, medium, and large as shown in FIGS. 3 (a), 3 (b) and 3 (c). FIG. 4 is an explanatory diagram showing a definition of a membership function approximated by the membership function realizing unit 16 of FIG. 2. The four basic membership functions of small medium 1 medium 2 large are the values of the input variable X. Are defined by input variables a, b, and c.
【0019】この内、メンバシップ関数small及び
largeについては、単一のニューロンにより近似で
きる。これに対しメンバシップ関数mediumについ
ては、図5又は図6に示すようにして近似される。図5
のメンバシップ関数mediumは、メンバシップ関数
smallとlargeとの和から1を引いた値として
得られたものである。また図6の場合は、特性の異なる
同種のメンバシップ関数smallの差として求めたも
のであるる。尚、図6の場合は、メンバシッ関数lar
ge同志の差でもよい。Of these, the membership functions small and large can be approximated by a single neuron. On the other hand, the membership function medium is approximated as shown in FIG. 5 or FIG. FIG.
Is obtained as a value obtained by subtracting 1 from the sum of the membership functions small and large. In the case of FIG. 6, the difference is obtained as the difference between the same type of membership functions small having different characteristics. In the case of FIG. 6, the membership function lar
Ge difference may be.
【0020】図2の実施例は図6の場合を例にとってお
り、このためメンバシップ関数medium1及びme
dium2を実現する第1層の2つのニューロンと第2
層の1つのニューロンとの間の結線の重みは、+1及び
−1に設定されている。図7は図2のメンバシップ関数
実現部16の各ニューロンに設定する結線の重みw及び
閾値thの値を示したもので、これらの値は、図6に示
したメンバシップ関数とニューロンのシクモイド関数と
の誤差の二乗の積分を最小とするように、具体的にはニ
ューロンの特性関数の最大の傾きをメンバシップ関数の
傾きの1.3253倍とするように計算により求められ
る。The embodiment of FIG. 2 takes the case of FIG. 6 as an example, so that the membership functions medium1 and me
two neurons of the first layer realizing the
The weights of the connections to one neuron of the layer are set to +1 and -1. FIG. 7 shows the values of the connection weight w and the threshold value th set to each neuron of the membership function realizing section 16 of FIG. 2. These values are the membership function and the neuron sigmoid shown in FIG. The calculation is performed so as to minimize the integration of the square of the error with the function, specifically, to set the maximum slope of the characteristic function of the neuron to 1.3253 times the slope of the membership function.
【0021】この図7の結果を得るための計算内容は次
のようになる。いま図8(b)に示したメンバシップ関
数largeの場合、即ち、入力Xと出力Yとの間に、
a,b(但しa<b)を定数として、 X≦aの時、 Y=0 a<X<bの時、Y=(X−a)/(b−a) (1) b≦Xの時、 Y=1 の関係があるメンバシップ関数を図8(a)のニューロ
ユニット30で近似する場合、シグモイド関数の傾きの
最大値がメンバシップ関数largeの傾き 1/(b−a) の1.3253倍となるように結線の重みw及び閾値θ
の値を決定する。The calculation contents for obtaining the result of FIG. 7 are as follows. Now, in the case of the membership function large shown in FIG. 8B, ie, between the input X and the output Y,
a, b (where a <b) is a constant, when X ≦ a, Y = 0, when a <X <b, Y = (X−a) / (ba) (1) When b ≦ X When the membership function having the relationship of Y = 1 is approximated by the neuro unit 30 in FIG. 8A, the maximum value of the slope of the sigmoid function is 1 of the slope 1 / (ba) of the membership function large. .3253 times, the connection weight w and the threshold θ
Determine the value of.
【0022】即ち、ニューロユニット30のシグモイド
関数を、 Y=1/{1+exp(−wX+θ)} (2) とする時、結線の重みw及び閾値θは w=5.3012/(b−a) (3) θ=2.6506(a+b)/(b−a) (4) に決められる。That is, when the sigmoid function of the neuro unit 30 is given by Y = 1 / {1 + exp (−wX + θ)} (2), the weight w of the connection and the threshold θ are w = 5.3012 / (ba). (3) θ = 2.6506 (a + b) / (ba) (4)
【0023】またニューロユニット30のシグモイド関
数は近似的に、 Y=0.5+0.5tanh(wX−θ) (5) と表現できる。この場合には、結線の重みw及び閾値θ
は、 w=2.6506/(b−a) (6) θ=1.3253(a+b)/(b−a) (7) と決められる。The sigmoid function of the neuro unit 30 can be approximately expressed as Y = 0.5 + 0.5 tanh (wX-θ) (5) In this case, the connection weight w and the threshold θ
Is determined as: w = 2.6506 / (ba) (6) θ = 1.253 (a + b) / (ba) (7)
【0024】一方、図9に示したメンバシップ関数sm
allの場合、即ち入力Xと出力Yとの間に、a,b
(但しa<b)を定数として、 X≦aの時、 Y=1 a<X<bの時、Y=−(X−a)/(b−a) (8) b≦Xの時、 Y=0 の関係があるメンバシップ関数をニューロユニット30
で近似する場合、ニューロユニット30の特性関数の絶
対値最大傾きがメンバシップ関数smallの傾きであ
る −1/(b−a) の1.3253倍となるように結線の重みw及び閾値θ
を決定する。On the other hand, the membership function sm shown in FIG.
all, ie, between input X and output Y, a, b
(Where a <b) is a constant, when X ≦ a, Y = 1 when a <X <b, Y = − (X−a) / (ba) (8) When b ≦ X, The membership function having the relationship of Y = 0 is set to the neuro unit 30.
, The connection weight w and the threshold θ are set so that the absolute value maximum slope of the characteristic function of the neuro unit 30 is 1.3253 times −1 / (ba), which is the slope of the membership function small.
To determine.
【0025】即ち、ニューロユニット30のシグモイド
関数を、 Y=1/{1+exp(−wX+θ)} (9) とする時、結線の重みw及び閾値θは w=−5.3012/(b−a) (10) θ=−2.6506(a+b)/(b−a) (11) として求められる。That is, when the sigmoid function of the neuro unit 30 is given by Y = 1 / {1 + exp (-wX + θ)} (9), the weight w of the connection and the threshold value θ are w = −5.3012 / (ba) (10) θ = −2.6506 (a + b) / (ba) (11)
【0026】またニューロユニット30のシグモイド関
数は近似的に、 Y=0.5+0.5tanh(wX−θ) (12) と表現できるので、この場合には、結線の重みw及び閾
値θは、 w=−2.6506/(b−a) (13) θ=−1.3253(a+b)/(b−a) (14) と決められる。The sigmoid function of the neuro unit 30 can be approximately expressed as Y = 0.5 + 0.5 tanh (wX-θ) (12). In this case, the weight w of the connection and the threshold value θ are expressed as w = −2.6506 / (ba) (13) θ = −1.3253 (a + b) / (ba) (14)
【0027】次に、シグモイド関数の絶対値最大傾きを
メンバシップ関数の1.3253倍とすることで、メン
バシップ関数に対するシグモイド関数の誤差の二乗の積
分を最小とできる理由を詳細に説明する。いまメンバシ
ップ関数largeをNext, the reason why the integral of the square of the error of the sigmoid function with respect to the membership function can be minimized by setting the absolute value maximum slope of the sigmoid function to 1.3253 times the membership function will be described in detail. Now the membership function large
【0028】[0028]
【数1】 (Equation 1)
【0029】 (15) とし、シグモイド関数; Y=tanh(wX) (16) で近似することを考える。(15) Let us consider approximation by the sigmoid function: Y = tanh (wX) (16)
【0030】図10に(15)式のメンバシップ関数と
(16)式のシグモイド関数のグラフを示す。FIG. 10 is a graph showing the membership function of equation (15) and the sigmoid function of equation (16).
【0031】図10において、メンバシップ関数に対す
るシグモイド関数の誤差の二乗の積分B(w)は、In FIG. 10, the integral B (w) of the square of the error of the sigmoid function with respect to the membership function is
【0032】[0032]
【数2】 (Equation 2)
【0033】 (17) となる。次に(17)式の誤差の二乗の積分の半分B
(w)を最小にする重みwを求める。(17) Next, half B of the integral of the square of the error of equation (17)
Find the weight w that minimizes (w).
【0034】[0034]
【数3】 (Equation 3)
【0035】となる。従って、dB(w)/dw=0と
なるwを小数点以下4桁までを有効として近似解法によ
り求めると、 w=1.3253 が得られる。## EQU1 ## Therefore, when w that satisfies dB (w) / dw = 0 is obtained by an approximate solution with four digits after the decimal point being valid, w = 1.2533 is obtained.
【0036】ここで図8のメンバシップ関数large
をf(x)とすると、Here, the membership function large in FIG.
Is f (x),
【0037】[0037]
【数4】 (Equation 4)
【0038】であり、ジクモイド関数f´(X)は、And the zigmoid function f '(X) is
【0039】[0039]
【数5】 (Equation 5)
【0040】である。よって両者を近似的に等しいとす
ると、メンバシップ関数f(x)は、Is as follows. Therefore, assuming that both are approximately equal, the membership function f (x) becomes
【0041】[0041]
【数6】 (Equation 6)
【0042】(18)となる。よって、メンバシップ関
数largeに対するtanhで表わされたメンバシッ
プ関数の誤差の二乗の積分を最小とするための結線の重
みw及び閾値θは、 w=2.6506/(b−a) θ=1.3253(a+b)/(b−a) と決めればよい。(18) Therefore, the connection weight w and the threshold value θ for minimizing the integral of the square of the error of the membership function represented by tanh with respect to the membership function large are: w = 2.6506 / (ba) θ = 1.3253 (a + b) / (ba) may be determined.
【0043】次にニューロユニット30のシグモイド関
数を前記(2)式に示したように Y=1/{1+exp(−wX+θ)} する場合も、同様に求められるが、簡単に求めるには、Next, when the sigmoid function of the neuro unit 30 is set to Y = 1 / {1 + exp (-wX + θ)} as shown in the above equation (2), the same can be obtained.
【0044】[0044]
【数7】 (Equation 7)
【0045】であることを利用して前記(18)式の結
果からメンバシップ関数largeに対するexpで表
わされたメンバシップ関数の誤差の二乗の積分を最小と
するための結線の重みw及び閾値θは、From the result of the above equation (18), the connection weight w and the threshold value for minimizing the integral of the square of the error of the membership function represented by exp with respect to the membership function large θ is
【0046】[0046]
【数8】 (Equation 8)
【0047】として求められる。よって、 w=5.3012/(b−a) θ=2.6506(a+b)/(b−a) と決めればよい。Is obtained as Therefore, it may be determined that w = 5.3012 / (ba) θ = 2.6506 (a + b) / (ba).
【0048】図11はメンバシップ関数largeにつ
き、 a=0.3 b=0.6 とし、これを前記(2)式のexpのシグモイド関数を
もつニューロユニット30で近似させるため、前記
(3)(4)式に基づき、 w=5.3012/(b−a)=17.6707 θ=2.6506(a+b)/(b−a)=7.952 を設定した時のメンバシップ関数largeとシグモイ
ド関数を示し、メンバシップ関数に対する誤差の二乗の
積分を最小とするシグモイド関数の近似関係が結線の重
みw及び閾値θの設定で一義的に実現できる。FIG. 11 shows that the membership function “large” is a = 0.3 b = 0.6. In order to approximate this by the neuro unit 30 having the exp sigmoid function of the above equation (2), Based on Equation (4), the membership function large when w = 5.3012 / (ba) = 17.6707 θ = 2.6506 (a + b) / (ba) = 7.952 is set A sigmoid function is shown, and an approximate relationship of the sigmoid function that minimizes the integral of the square of the error with respect to the membership function can be uniquely realized by setting the connection weight w and the threshold value θ.
【0049】一方、図9(b)に示したメンバシップ関
数smallの場合、即ち、入力Xと出力Yとの間に、
a,b(但しa<b)を定数として、 X≦aの時、 Y=1 a<X<bの時、Y=−(X−a)/(b−a) (19) b≦Xの時、 Y=0 の関係があるメンバシップ関数を、非線形の特性関数を
備えたニューロユニット30で近似する場合を説明す
る。このメンバシップ関数smallを近似するニュー
ロユニット30における閾値処理部14のシグモイド関
数は、 f(X)=1/{1+exp(−wX+θ)} (20) となる。このシグモイド関数でメンバシップ関数との誤
差の二乗の積分を最小とするように近似するにはメンバ
シップ関数smallの傾きである −1/(b−a) を1.3253倍とすればよい。On the other hand, in the case of the membership function small shown in FIG. 9B, ie, between the input X and the output Y,
When a and b (where a <b) are constants, when X ≦ a, Y = 1 when a <X <b, Y = − (X−a) / (ba) (19) b ≦ X In the following, a case will be described where a membership function having a relationship of Y = 0 is approximated by a neuro unit 30 having a nonlinear characteristic function. The sigmoid function of the threshold processing unit 14 in the neuro unit 30 that approximates the membership function small is f (X) = 1 / {1 + exp (−wX + θ)} (20). To approximate the sigmoid function such that the integral of the square of the error with the membership function is minimized, the slope of the membership function small, −1 / (ba), may be increased to 1.3253 times.
【0050】具体的には、(21)式のexpで表現さ
れたシグモイド関数で結線の重みw及び閾値θとして w=−5.3012/(b−a) (22) θ=−2.6506(a+b)/(b−a) (23) に設定すればよい。More specifically, as the weight w of the connection and the threshold value θ in the sigmoid function expressed by exp in the equation (21), w = −5.3012 / (ba) (22) θ = −2.6506 (A + b) / (ba) (23)
【0051】またメンバシップ関数smallをtan
hのシグモイド関数を近似的に f(X)=0.5+0.5tanh(wX−θ) (24) とした場合には、 f(X)=0.5+0.5tanh(wX−θ) =1/{1+exp(−2wX+2θ)} であることを利用し、 2w=−5.3012/(b−a) 2θ=−2.6506(a+b)/(b−a) が求められ。よって、重みw及び閾値θを、 w=−2.6506/(b−a) (24) θ=−1.3402(a+b)/(b−a) (25) を設定すればよい。The membership function small is changed to tan
If the sigmoid function of h is approximately f (X) = 0.5 + 0.5 tanh (wX−θ) (24), then f (X) = 0.5 + 0.5 tanh (wX−θ) = 1 / Using the fact that {1 + exp (−2wX + 2θ)}, 2w = −5.3012 / (ba) 2θ = −2.6506 (a + b) / (ba) Therefore, the weight w and the threshold θ may be set as follows: w = −2.6506 / (ba) (24) θ = −1.3402 (a + b) / (ba) (25)
【0052】図12は本発明でメンバシップ関数lar
ge及びsmallに対するシグモイド関数の誤差の二
乗の積分を最小とするように近似する際の重みwおよび
閾値θを求める処理フロー図を示す。図12において、
まずステップS1で係数Fを決める。係数Fは、シグモ
イド関数としてexpを使用する場合はF=2、tan
hを使う場合はF=1にセットする。続いてステップS
2でメンバシップ関数の属性を決める定数a,bを読み
込む。次にステップS3で重みwを算出し、更にステッ
プS4で重みθを算出して処理を終える。FIG. 12 shows a membership function lar according to the present invention.
FIG. 9 is a flowchart illustrating a process for obtaining a weight w and a threshold θ when approximation is performed so as to minimize integration of a square of an error of a sigmoid function with respect to “ge” and “small”. In FIG.
First, a coefficient F is determined in step S1. The coefficient F is F = 2, tan when exp is used as a sigmoid function.
To use h, set F = 1. Then step S
In step 2, constants a and b that determine the attribute of the membership function are read. Next, the weight w is calculated in step S3, and the weight θ is calculated in step S4, and the process ends.
【0053】勿論、メンバシップ関数mediumにつ
いては、図5及び図6に示したようにメンバシップ関数
small及び又はlargeに分解することで、同様
に閾値及び重みを計算して設定できる。このようにメン
バシップ関数実現部16を構成する第1層18及び第2
層20にする結線の重み及び閾値のプリワイヤが済んだ
ならば、本発明の学習モード1として、第3層22から
出力層14までをバックプロパゲーション法により学習
する。Of course, the membership function “medium” can be similarly calculated and set by calculating the membership function “small” and / or “large” as shown in FIGS. 5 and 6. Thus, the first layer 18 and the second layer 18 constituting the membership function realizing section 16 are described.
After the connection weight and the threshold value of the layer 20 have been pre-wired, the learning from the third layer 22 to the output layer 14 is performed by the back propagation method in the learning mode 1 of the present invention.
【0054】図13はモード1の学習を行った結果を示
し、学習回数は471回で済んだ。図14は学習結果と
して得られた結線の重みおよび閾値を示す。この結果か
ら本発明の学習回数は従来のネットワークに比べて約1
/10に減ったことがわかる。また学習後のメンバシッ
プ関数を図15に示し、学習後のニューラルネットワー
クによりメンバシップ関数の近似が正確に実現されてい
る。FIG. 13 shows the result of learning in mode 1, in which the number of times of learning was 471. FIG. 14 shows connection weights and threshold values obtained as learning results. From this result, the number of times of learning of the present invention is about 1 compared to the conventional network.
It can be seen that the number has decreased to / 10. FIG. 15 shows the membership function after learning, and the approximation of the membership function is accurately realized by the neural network after learning.
【0055】また本発明によるモード2の学習として、
メンバシップ関数実現層16を構成する第1層18と第
2層20にプリワイヤした状態で入力層10から出力層
14までのすべての層を学習する方法を行なった結果を
図16に示す。このモード2にあっては学習回数は25
7回であった。また、学習後のメンバシップ関数を図1
7に示す。このモード2の学習により、学習回数をさら
に減らすことができる。As learning of mode 2 according to the present invention,
FIG. 16 shows the result of performing a method of learning all the layers from the input layer 10 to the output layer 14 in a state where the first layer 18 and the second layer 20 constituting the membership function realizing layer 16 are pre-wired. In this mode 2, the number of times of learning is 25
Seven times. Figure 1 shows the membership function after learning.
FIG. By the learning in the mode 2, the number of times of learning can be further reduced.
【0056】ここで、図2に示した各ニューロユニット
の具体的な構成及びニューロユニットで構成される階層
ネットワーク、更にバックプロパゲーション法によるニ
ューラルネットワークの学習について説明すると次のよ
うになる。図18は本発明で用いるニューロユニットの
機能説明図である。図18において、30はニューロユ
ニットであり、5入力1出力を例にとっている。ニュー
ロユニット30には乗算処理部32が設けられ、乗算処
理部32は例えば入力信号X1〜X5に対し各々内部結
合の重みW1,W2,・・・W5を乗算する乗算部32
−1〜32−5を備える。33は累積処理部であり、乗
算処理部32から出力される全ての乗算結果X1W1〜
X5W5を加算する。Here, the specific configuration of each neuro unit shown in FIG. 2, the learning of the hierarchical network composed of the neuro units, and the learning of the neural network by the back propagation method will be described as follows. FIG. 18 is an explanatory diagram of functions of the neuro unit used in the present invention. In FIG. 18, reference numeral 30 denotes a neuro unit, taking 5 inputs and 1 output as an example. The neuro unit 30 is provided with a multiplication processing unit 32. The multiplication processing unit 32 multiplies the input signals X1 to X5 by weights W1, W2,.
-1 to 32-5. Numeral 33 denotes an accumulator, and all multiplication results X1W1 to X1W1 output from the multiplication processor 32
X5W5 is added.
【0057】34は閾値処理部であり、累積処理部33
からの累積値に例えばS字関数としてのシグモイド関数
を使用して非線形の閾値処理を行なう。尚、閾値処理部
34は用途に応じてシグモイド関数の代わりに他の関
数、例えば線形関数を使用することもできる。このニュ
ーロユニット30で行なわれる演算を数式で示すと次の
ようになる。まず、累積処理部33の出力Yは入力信号
をX1〜X5とすれば、 Y=X1W1+X2W2+・・・+XnWn となる。次に閾値処理部34の出力Zは、閾値をθとす
ると前記(2)式のようになる。Reference numeral 34 denotes a threshold processing unit,
, A non-linear threshold value process is performed using the sigmoid function, for example, as an S-shaped function on the accumulated value from. Note that the threshold processing unit 34 can use another function, for example, a linear function, instead of the sigmoid function depending on the application. The calculation performed by the neuro unit 30 is represented by the following equation. First, assuming that the input signals are X1 to X5, the output Y of the accumulation processing unit 33 is as follows: Y = X1W1 + X2W2 +... + XnWn. Next, the output Z of the threshold value processing unit 34 is as shown in the above equation (2), where θ is the threshold value.
【0058】図19は図18のニューロユニット30の
具体的な実施例構成図であり、対応する部分は同じ番号
を使用している。図19において、32は乗算型D/A
コンバータ、33は累積処理部であり、累積処理部33
はアナログ加算器33a及び保持回路33bを備える。
34は閾値処理部、35は出力保持部、36は出力スイ
ッチ部、37は入力スイッチ部、38は重み保持部、3
9は制御回路である。FIG. 19 is a block diagram of a specific embodiment of the neuro unit 30 of FIG. 18, and corresponding portions use the same numbers. In FIG. 19, 32 is a multiplication type D / A
The converter 33 is an accumulation processing unit.
Has an analog adder 33a and a holding circuit 33b.
34 is a threshold processing unit, 35 is an output holding unit, 36 is an output switch unit, 37 is an input switch unit, 38 is a weight holding unit,
9 is a control circuit.
【0059】入力スイッチ部37は入力信号X1〜X5
が順次入力されるものであり、この入力タイミングに同
期してオン制御される。また入力信号X1〜X5の入力
タイミングに同期して重み信号W1〜W5も伝達され、
具体的には制御回路39より重み入力制御信号が順次レ
シーバ40に出力され、レシーバ40を経由して重み信
号W1〜W5が重み保持部38に順次送出され、この結
果、乗算型D/Aコンバータ32においてX1W1〜X
5W5が順次演算される。The input switch section 37 has input signals X1 to X5.
Are sequentially input, and are turned on in synchronization with the input timing. Weight signals W1 to W5 are also transmitted in synchronization with the input timings of input signals X1 to X5,
Specifically, the weight input control signal is sequentially output from the control circuit 39 to the receiver 40, and the weight signals W1 to W5 are sequentially transmitted to the weight holding unit 38 via the receiver 40. As a result, the multiplying D / A converter 32, X1W1 to X
5W5 is sequentially calculated.
【0060】累積処理部33は初期状態で保持回路33
bが零にクリアされているため、最初の乗算値X1W1
と零がアナログ加算器33aで加算された後、保持回路
33bに保持される。次に乗算値X2W2が入力される
とアナログ加算器33aは保持回路33bに保持された
乗算値X1W1と新たに入力された乗算値X2W2を加
算し、この加算結果(X1W1+X2W2)を保持回路
33bに保持する。The accumulation processing unit 33 is initially in the holding circuit 33
Since b has been cleared to zero, the first multiplied value X1W1
And zero are added by the analog adder 33a, and then held in the holding circuit 33b. Next, when the multiplication value X2W2 is input, the analog adder 33a adds the multiplication value X1W1 held in the holding circuit 33b and the newly input multiplication value X2W2, and holds the addition result (X1W1 + X2W2) in the holding circuit 33b. I do.
【0061】このようにして累積値 Y=X1W1+X2W2+・・・+X5W5 が演算される。In this way, the cumulative value Y = X1W1 + X2W2 +... + X5W5 is calculated.
【0062】演算処理部33の演算処理が終了すると、
制御回路39は変換制御信号と出力制御信号を出力し、
変換制御信号に応じて閾値処理部34が累積値Yの閾値
処理を行ない、閾値処理部34から得られた出力Zを出
力保持部35で一時的に保持し、この状態で制御回路3
9からの出力制御信号による出力スイッチ36のオンで
出力保持部35に保持されたZが出力される。When the arithmetic processing of the arithmetic processing unit 33 is completed,
The control circuit 39 outputs a conversion control signal and an output control signal,
In response to the conversion control signal, the threshold processing unit 34 performs threshold processing on the accumulated value Y, and temporarily holds the output Z obtained from the threshold processing unit 34 in the output holding unit 35. In this state, the control circuit 3
When the output switch 36 is turned on by the output control signal from the switch 9, Z held in the output holding unit 35 is output.
【0063】図20は本発明で用いる階層ネットワーク
の具体的な実施例構成図を3層ネットワークを例にとっ
て示したもので、図19に示したニューロユニット30
を使用して構成する。図20において、50はアナログ
バスであり、入力層を構成するニューロユニット30
h、中間層を構成するニューロユニット30i、出力層
を構成するニューロユニット30jを図示のように接続
する。51は図19の重み保持部38に重み値を与える
重み出力回路、52は入力層を構成するニューロユニッ
ト30hに対する入力信号を保持する入力信号保持回
路、53はデータ転送の制御信号である同期制御信号を
伝送する同期制御信号線、54は階層ネットワークを総
合的に制御する主制御部である。FIG. 20 shows a specific embodiment of a hierarchical network used in the present invention, taking a three-layer network as an example. The neural unit 30 shown in FIG.
Configure using. In FIG. 20, reference numeral 50 denotes an analog bus, which is a neuro unit 30 constituting an input layer.
h, the neuro unit 30i constituting the intermediate layer and the neuro unit 30j constituting the output layer are connected as shown. Reference numeral 51 denotes a weight output circuit for giving a weight value to the weight holding unit 38 in FIG. 19; 52, an input signal holding circuit for holding an input signal to the neuro unit 30h constituting the input layer; A synchronization control signal line 54 for transmitting a signal is a main control unit that comprehensively controls the hierarchical network.
【0064】尚、入力層のニューロユニット30hの重
み値は1であり、このためニューロユニット30hの重
み出力回路51にはいずれも数値1が格納されている。
次に図20の階層ネットワークを例にとって重み値及び
閾値の学習処理を説明する。この学習処理のアルゴリズ
ムとしては、通常バックプロパゲーション法が使用され
る。バックプロパゲーション法は階層ネットワークの重
み値と閾値を誤差のフィードバックにより調整すること
で学習する。The weight value of the neuro unit 30h in the input layer is 1, and therefore, the numerical value 1 is stored in the weight output circuit 51 of the neuro unit 30h.
Next, the learning process of the weight value and the threshold value will be described using the hierarchical network of FIG. 20 as an example. As an algorithm for this learning process, a back propagation method is usually used. The back propagation method learns by adjusting the weight value and the threshold value of the hierarchical network by feedback of an error.
【0065】例えば図20の基本的な3層ネットワーク
を例にとると、予め準備した既知の入力信号X1,X
2,・・・Xnを入力層のニューロユニット30hに入
力し、このときの出力層のニューロユニット30jの各
出力Z1,Z2,・・・Znを、図示を省略した誤差比
較部により既知の教師信号D1,D2,・・・Dnと比
較し、その誤差 Δd1=D1−Z1 Δd2=D2−Z2 ・・・・ Δdn=Dn−Zn を求める。For example, taking the basic three-layer network of FIG. 20 as an example, the known input signals X1, X
,... Xn are input to the neuro unit 30h of the input layer, and the outputs Z1, Z2,. .. Dn, and an error Δd1 = D1-Z1 Δd2 = D2-Z2... Δdn = Dn−Zn is obtained.
【0066】次に、まず出力層の各ニューロユニット3
0jへの閾値θ及び重み値Wjiを誤差Δd1,Δd
2,・・・Δdnが小さくなるように調整し、続いて中
間層のニューロユニット30iへの閾値θ及び重み値W
ihを同様に調整する。このように一連の学習が終了す
ると第2の既知の入力信号X1´,X2´,・・・Xn
´を使用して、同様に教師信号との誤差を最小とするよ
うに閾値及び重み値を調整する。Next, first, each neuro unit 3 in the output layer
The threshold value θ and the weight value Wji to 0j are determined by errors Δd1 and Δd.
,... Δdn are reduced, and then the threshold value θ and the weight value W for the neuro unit 30i of the intermediate layer are adjusted.
Adjust ih similarly. When a series of learning is completed in this manner, the second known input signals X1 ', X2',.
Similarly, the threshold value and the weight value are adjusted so as to minimize the error from the teacher signal by using '.
【0067】以下、同様な学習を複数の入力信号と教師
信号を組にした学習パターンに基づき繰り返し行なうこ
とにより、学習パターンに使用した入出力データについ
ては勿論のこと、学習に使用しなかった入力データにつ
いても学習時と同じ出力結果もしくはその近似値を求め
ることができるように調整できる。尚、図2の実施例の
第2層20のニューロンには線形関数を用いているが、
これはシクモイド関数であっても構わない。Hereinafter, similar learning is repeatedly performed based on a learning pattern in which a plurality of input signals and a teacher signal are paired, so that not only the input / output data used for the learning pattern but also the input not used for the learning are input. The data can also be adjusted so that the same output result as at the time of learning or an approximate value thereof can be obtained. Although a linear function is used for the neurons in the second layer 20 in the embodiment of FIG.
This may be a sigmoid function.
【0068】[0068]
【発明の効果】以上説明したように本発明によれば、今
まで学習で決めていた重みとしきい値を、新たに入力部
分に設けたメンバシップ関数を実現する層に、メンバシ
ップ関数から計算で求めてプリワイヤした後に学習する
ことにより、学習の効率を大幅に向上することができ、
正確な近似結果が得られる。また、メンバシップ関数を
実現する入力部分はプリワイヤであるため、全体を学習
した結果から結線の重みを容易に解析できる。As described above, according to the present invention, the weights and thresholds determined so far in the learning are calculated from the membership functions in the layer for realizing the membership functions newly provided in the input portion. By learning after pre-wired in the search, the efficiency of learning can be greatly improved,
An accurate approximation result is obtained. Further, since the input part for realizing the membership function is pre-wired, the connection weight can be easily analyzed from the result of learning the whole.
【図1】本発明の原理説明図FIG. 1 is a diagram illustrating the principle of the present invention.
【図2】本発明の実施例構成図FIG. 2 is a configuration diagram of an embodiment of the present invention.
【図3】本発明で用いるメンバシップ関数を近似するニ
ューロンのユニット構成図FIG. 3 is a unit configuration diagram of a neuron approximating a membership function used in the present invention.
【図4】本発明で実現されるメンバシップ関数の定義を
示した説明図FIG. 4 is an explanatory diagram showing a definition of a membership function realized by the present invention.
【図5】本発明のメンバシップ関数mediumの構成
説明図FIG. 5 is a configuration explanatory diagram of a membership function medium of the present invention.
【図6】本発明のメンバシップ関数mediumの他の
構成説明図FIG. 6 is an explanatory diagram of another configuration of the membership function medium of the present invention.
【図7】本発明でプリワイヤする結線の重み及び閾値の
計算結果説明図FIG. 7 is an explanatory diagram of calculation results of connection weights and thresholds for pre-wiring according to the present invention.
【図8】本発明のメンバシップ関数largeを近似す
るニューロンの説明図FIG. 8 is an explanatory diagram of a neuron approximating a membership function large according to the present invention.
【図9】本発明のメンバシップ関数smallを近似す
るニューロンの説明図FIG. 9 is an explanatory diagram of a neuron approximating a membership function small according to the present invention.
【図10】本発明のメンバシップ関数とシグモイド関数
との近似関係を証明するための説明図FIG. 10 is an explanatory diagram for proving an approximate relationship between a membership function and a sigmoid function according to the present invention.
【図11】本発明のニューロンのシグモイド関数とメン
バシップ関数の近似結果の説明図FIG. 11 is an explanatory diagram of an approximation result of a sigmoid function and a membership function of a neuron of the present invention.
【図12】本発明による重み及び閾値の算出処理を示し
た処理フロー図FIG. 12 is a processing flowchart showing a calculation process of a weight and a threshold according to the present invention;
【図13】本発明のモード1による学習結果の説明図FIG. 13 is an explanatory diagram of a learning result according to mode 1 of the present invention.
【図14】図13の学習後の結線の重み及び閾値の説明
図FIG. 14 is an explanatory diagram of connection weights and threshold values after learning in FIG. 13;
【図15】図13の学習結果により得られたメンバシッ
プ関数の近似特性図FIG. 15 is an approximate characteristic diagram of a membership function obtained from the learning result of FIG.
【図16】本発明のモード2による学習結果の説明図FIG. 16 is an explanatory diagram of a learning result according to mode 2 of the present invention.
【図17】図16の学習結果により実現されたメンバシ
ップ関数の近似特性図FIG. 17 is an approximate characteristic diagram of a membership function realized based on the learning result of FIG. 16;
【図18】本発明のニューロユニットの実施例構成図FIG. 18 is a configuration diagram of an embodiment of a neuro unit of the present invention.
【図19】図18のニューロユニットの具体的な実施例
構成図FIG. 19 is a configuration diagram of a specific embodiment of the neuro unit of FIG. 18;
【図20】本発明で用いる階層ネットワークの実施例構
成図FIG. 20 is a configuration diagram of an embodiment of a hierarchical network used in the present invention.
【図21】従来の学習パターンの説明図FIG. 21 is an explanatory diagram of a conventional learning pattern.
【図22】従来のニューラルネットワークの説明図FIG. 22 is an explanatory diagram of a conventional neural network.
【図23】従来の学習結果の説明図FIG. 23 is an explanatory diagram of a conventional learning result.
10:入力層 12:中間層 14:出力層 16:メンバシップ関数実現層 18:第1層 20:第2層 22:第3層 24:第4層 30:ニューロユニット 10: input layer 12: intermediate layer 14: output layer 16: membership function realization layer 18: first layer 20: second layer 22: third layer 24: fourth layer 30: neuro unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 川村 旭 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 益岡 竜介 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 浅川 和雄 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 松岡 成典 東京都日野市富士町1番地 富士ファコ ム制御株式会社内 (72)発明者 岡田 浩之 東京都日野市富士町1番地 富士ファコ ム制御株式会社内 (56)参考文献 特開 平4−64132(JP,A) 特開 平4−275629(JP,A) 特開 平4−275634(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06G 7/60 G06F 15/18 G06N 3/00 540 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Asahi Kawamura 1015 Uedanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Inside Fujitsu Limited (72) Inventor Ryusuke Masuoka 1015 Kamikodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Fujitsu Limited ( 72) Inventor Kazuo Asakawa 1015 Uedanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Within Fujitsu Limited (72) Inventor Shigenori Matsuoka 1 Fujimachi, Hino-shi, Tokyo Fuji Facom Control Co., Ltd. (72) Inventor Hiroyuki Okada Tokyo No. 1, Fuji-cho, Hino-shi, Tokyo (56) References JP-A-4-64132 (JP, A) JP-A-4-275629 (JP, A) JP-A-4-275634 (JP, A) A) (58) Field surveyed (Int. Cl. 7 , DB name) G06G 7/60 G06F 15/18 G06N 3/00 540
Claims (15)
ロンを用いた中間層(12)と出力層(14)とからな
る階層構造を備えたニューラルネットワークに於いて、 前記入力層(10)と中間層(12)との間に非線形関
数としてシグモイド関数をもつニューロンの第1層(1
8)と、線形関数を持つニューロンの第2層(20)で
構成することによってメンバシップ関数を実現するメン
バシップ関数実現層(16)を加え、該メンバシップ関
数実現層(16)の部分のネットワーク結線の重み
(W)及びニューロンの閾値(θ)を予め設定したこと
を特徴とするメンバシップ関数を用いたニューラルネッ
トワーク。In a neural network having a hierarchical structure including an input layer (10) for branching an input, an intermediate layer (12) using neurons, and an output layer (14), the input layer (10) ) nonlinear function between the intermediate layer (12)
The first layer of neurons with sigmoid functions as numbers (1
8) and the second layer (20) of neurons with a linear function
A membership function realization layer (16) that realizes a membership function by being configured is added, and the weight (W) of the network connection and the threshold value (θ) of the neuron of the portion of the membership function realization layer (16) are preset. A neural network using a membership function characterized by the following.
ニューラルネットワークに於いて、前記メンバシップ関
数実現層(16)は、メンバシップ関数ラージを実現す
る非線形特性を有するニューロンを備えたことを特徴と
するメンバシップ関数を用いたニューラルネットワー
ク。2. A neural network using a membership function according to claim 1, wherein said membership function realizing layer (16) comprises a neuron having a non-linear characteristic for realizing a membership function large. Neural network using the membership function that is the feature.
ニューラルネットワークに於いて、前記メンバシップ関
数実現層(16)は、メンバシップ関数スモールを実現
する非線形特性を有するニューロンを備えたことを特徴
とするメンバシップ関数を用いたニューラルネットワー
ク。3. A neural network using a membership function according to claim 1, wherein said membership function realizing layer (16) includes a neuron having a non-linear characteristic for realizing a small membership function. Neural network using the membership function that is the feature.
ニューラルネットワークに於いて、 前記メンバシップ関数実現層(16)は、メンバシップ
関数スモールを実現する非線形特性を有する第1ニュー
ロンと、メンバシップ関数ラージを実現する非線形特性
を有する第2ニューロンと、第1及び第2のニューロン
の出力の和から1を引いた値を出力する線形特性を有す
る第3ニューロンとでなるメンバシップ関数ミディアム
を実現するネットワークを備えたことを特徴とするメン
バシップ関数を用いたニューラルネットワーク。4. A neural network using a membership function according to claim 1, wherein said membership function realizing layer (16) includes a first neuron having a non-linear characteristic for realizing a small membership function, and a member. A membership function medium consisting of a second neuron having a non-linear characteristic for realizing a large ship function and a third neuron having a linear characteristic for outputting a value obtained by subtracting 1 from the sum of outputs of the first and second neurons is represented by A neural network using a membership function, characterized in that the neural network includes a realizing network.
ニューラルネットワークに於いて、前記メンバシップ関
数実現層(16)は、メンバシップ関数スモールを実現
する非線形特性を有する第1ニューロンと、他のメンバ
シップ関数スモールを実現する非線形特性を有する第2
ニューロンと、第1及び第2のニューロンの出力の差を
求める線形特性を有する第3ニューロンとでなるメンバ
シップ関数ミディアムを実現するネットワークを備えた
ことを特徴とするメンバシップ関数を用いたニューラル
ネットワーク。5. A neural network using a membership function according to claim 1, wherein said membership function realizing layer (16) includes a first neuron having a non-linear characteristic for realizing a small membership function, and another. With a non-linear characteristic that realizes a small membership function of
A neural network using a membership function, comprising a network for realizing a membership function medium consisting of a neuron and a third neuron having a linear characteristic for obtaining a difference between outputs of the first and second neurons. .
ニューラルネットワークに於いて、前記メンバシップ関
数実現層(16)は、メンバシップ関数ラージを実現す
る非線形特性を有する第1ニューロンと、他のメンバシ
ップ関数ラージを実現する非線形特性を有する第2ニュ
ーロンと、第1及び第2のニューロンの出力の差を求め
る線形特性を有する第3ニューロンとでなるメンバシッ
プ関数ミディアムを実現するネットワークを備えたこと
を特徴とするメンバシップ関数を用いたニューラルネッ
トワーク。6. A neural network according to claim 1, wherein said membership function realizing layer (16) comprises a first neuron having a non-linear characteristic for realizing a membership function large, and a second neuron. And a network for realizing a membership function medium consisting of a second neuron having a non-linear characteristic for realizing a large membership function and a third neuron having a linear characteristic for obtaining a difference between outputs of the first and second neurons. A neural network using a membership function.
数を用いたニューラルネットワークに於いて、入力Xと
出力Yとの間に、a,b(但しa<b)を定数として、 X≦aの時、 Y=0 a<X<bの時、Y=(X−a)/(b−a) b≦Xの時、 Y=1 の関係があるメンバシップ関数ラージを前記ニューロン
で近似する際に、前記メンバシップ関数ラージとの誤差
の二乗の積分を最小とするように前記ニューロンの特性
関数を設定したことを特徴とするメンバシップ関数を用
いたニューラルネットワーク。7. A neural network using a membership function according to claim 2, 4 or 6, wherein a and b (where a <b) are constants between an input X and an output Y. When ≦ a, Y = 0 When a <X <b, Y = (X−a) / (ba) When b ≦ X, a membership function large having a relationship of Y = 1 is applied to the neuron. A neural network using a membership function, wherein a characteristic function of the neuron is set so as to minimize integration of a square of an error with the membership function large when approximation is performed.
ニューラルネットワーク於いて、前記ニューロンの特性
関数の最大傾きを前記メンバシップ関数ラージの傾きで
ある 1/(b−a) の1.3253倍としたことを特徴とするメンバシップ
関数を用いたニューラルネットワーク。8. A neural network using a membership function according to claim 7, wherein the maximum gradient of the characteristic function of the neuron is 1.3253 of 1 / (ba) which is the gradient of the membership function large. A neural network using a membership function characterized by being doubled.
ニューラルネットワークに於いて、 前記ニューロンの特性関数を、 Y=1/{1+exp(−wX+θ)} とする時、結線の重みw及び閾値θを w=5.3012/(b−a) θ=2.6506(a+b)/(b−a) に設定したことを特徴とするメンバシップ関数を用いた
ニューラルネットワーク。9. A neural network using a membership function according to claim 8 , wherein when the characteristic function of the neuron is Y = 1 / {1 + exp (−wX + θ)}, a connection weight w and a threshold value are set. A neural network using a membership function, wherein θ is set to w = 5.3012 / (ba) θ = 2.6506 (a + b) / (ba).
たニューラルネットワークに於いて、 前記ニューロンの特性関数を、 Y=0.5+0.5tanh(wX−θ) とする時、結線の重み及び閾値θを、 w=2.6506/(b−a) θ=1.3253(a+b)/(b−a) に設定したことを特徴とするメンバシップ関数を用いた
ニューラルネットワーク。10. A neural network using a membership function according to claim 8 , wherein when the characteristic function of the neuron is Y = 0.5 + 0.5 tanh (wX-θ), the weight of the connection and the threshold value A neural network using a membership function, wherein θ is set to w = 2.6506 / (ba) θ = 1.253 (a + b) / (ba).
関数を用いたニューラルネットワークに於いて、入力X
と出力Yとの間に、a,b(但しa<b)を定数とし
て、 X≦aの時、 Y=1 a<X<bの時、Y=−(X−a)/(b−a) b≦Xの時、 Y=0 の関係があるメンバシップ関数スモールをニューロンで
近似する際に、該ニューロンの特性関数の絶対値最大傾
きを前記メンバシップ関数スモールの傾きである −1/(b−a) の1.3253倍としたことを特徴とするメンバシップ
関数を用いたニューラルネットワーク。11. A neural network using a membership function according to claim 3, 4 or 5, wherein the input X
Where a and b (where a <b) are constants between Y and Y, when X ≦ a, Y = 1, when a <X <b, Y = − (X−a) / (b− a) When b ≦ X, when approximating the membership function small having the relationship of Y = 0 by a neuron, the absolute value maximum slope of the characteristic function of the neuron is the slope of the membership function small. A neural network using a membership function, which is 1.3253 times as large as (ba).
いたニューラルネットワークに於いて、前記ニューロン
の特性関数を、 Y=1/{1+exp(−wX+θ)} とする時、結線の重みw及び閾値θを w=−5.3012/(b−a) θ=−2.6506(a+b)/(b−a) に設定したことを特徴とするメンバシップ関数を用いた
ニューラルネットワーク。12. In a neural network using a membership function according to claim 11, when the characteristic function of the neuron is Y = 1 / {1 + exp (−wX + θ)}, the weight w of the connection and the threshold value are set. A neural network using a membership function, wherein θ is set to w = −5.3012 / (ba) θ = −2.6506 (a + b) / (ba)
いたニューラルネットワークに於いて、前記ニューロン
の特性関数を、 Y=0.5+0.5tanh(wX−θ) とする時、結線の重み及び閾値θを、 w=−2.6506/(b−a) θ=−1.3253(a+b)/(b−a) に設定したことを特徴とするメンバシップ関数を用いた
ニューラルネットワーク。13. A neural network using a membership function according to claim 11, wherein when the characteristic function of the neuron is Y = 0.5 + 0.5 tanh (wX-θ), the weight of the connection and the threshold value A neural network using a membership function, wherein θ is set as follows: w = −2.6506 / (ba) θ = −1.3253 (a + b) / (ba)
たニューラルネットワークに於いて、前記メンバシップ
関数実現層(16)を除くネットワーク全体を学習する
ことを特徴とするメンバシップ関数を用いたニューラル
ネットワークの学習方式。14. A neural network using a membership function according to claim 1, wherein the entire network except for the membership function realizing layer (16) is learned. Network learning method.
たニューラルネットワークに於いて、前記メンバシップ
関数実現層(16)を含めてネットワーク全体を学習す
ることを特徴とするメンバシップ関数を用いたニューラ
ルネットワークの学習方式。15. A neural network using a membership function according to claim 1, wherein the membership function realizing layer (16) is used to learn the entire network including the membership function. Learning method for neural networks.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03039903A JP3137996B2 (en) | 1991-03-06 | 1991-03-06 | Neural network using membership function and its learning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03039903A JP3137996B2 (en) | 1991-03-06 | 1991-03-06 | Neural network using membership function and its learning method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH056445A JPH056445A (en) | 1993-01-14 |
JP3137996B2 true JP3137996B2 (en) | 2001-02-26 |
Family
ID=12565920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03039903A Expired - Lifetime JP3137996B2 (en) | 1991-03-06 | 1991-03-06 | Neural network using membership function and its learning method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3137996B2 (en) |
-
1991
- 1991-03-06 JP JP03039903A patent/JP3137996B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH056445A (en) | 1993-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO1991014226A1 (en) | Neuro-fuzzy fusion data processing system | |
US5630023A (en) | Signal processor | |
US5473730A (en) | High efficiency learning network | |
US5845051A (en) | Learning method for multilayer perceptron neural network with N-bit data representation | |
EP0661645A2 (en) | Neural network | |
JP3137996B2 (en) | Neural network using membership function and its learning method | |
JPH07121498A (en) | Method for constructing neural network | |
JP3130326B2 (en) | Hierarchical network configuration arithmetic element | |
JP3328953B2 (en) | Nonlinear synaptic neuron, device thereof and prediction method using the same | |
JP2763371B2 (en) | Hierarchical network configuration fuzzy controller | |
JP3417574B2 (en) | Neuron element for fuzzy logic operation | |
JP2763369B2 (en) | How to tune fuzzy control rules | |
JP2763370B2 (en) | Hierarchical network configuration fuzzy controller | |
JP2763366B2 (en) | Hierarchical network configuration data processing device and data processing system | |
JPH07113942B2 (en) | Neurochip combiner | |
JPH0644207A (en) | Neural network and its constituting method | |
JP2559883B2 (en) | Fuzzy controller | |
JP2559881B2 (en) | Fuzzy controller | |
JP3137669B2 (en) | Hierarchical network configuration arithmetic element | |
JPH1091604A (en) | Function learning device | |
JPH04323763A (en) | Neural network learning method | |
JPH04275633A (en) | Construction system for membership function by neural network | |
JP2559880B2 (en) | Fuzzy controller | |
JPH04275634A (en) | Construction system for membership function by neural network | |
JPH04275631A (en) | Construction system for medium type membership function by neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20001107 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071208 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081208 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091208 Year of fee payment: 9 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091208 Year of fee payment: 9 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091208 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101208 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111208 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111208 Year of fee payment: 11 |