JPH04275633A - Construction system for membership function by neural network - Google Patents

Construction system for membership function by neural network

Info

Publication number
JPH04275633A
JPH04275633A JP3035985A JP3598591A JPH04275633A JP H04275633 A JPH04275633 A JP H04275633A JP 3035985 A JP3035985 A JP 3035985A JP 3598591 A JP3598591 A JP 3598591A JP H04275633 A JPH04275633 A JP H04275633A
Authority
JP
Japan
Prior art keywords
function
membership function
membership
neuron
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3035985A
Other languages
Japanese (ja)
Inventor
Nobuo Watabe
信雄 渡部
Akira Kawamura
旭 川村
Ryusuke Masuoka
竜介 益岡
Arimichi Oowada
大和田 有理
Kazuo Asakawa
浅川 和雄
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to JP3035985A priority Critical patent/JPH04275633A/en
Publication of JPH04275633A publication Critical patent/JPH04275633A/en
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

PURPOSE:To approximate a neuron characteristic function while minimizing the absolute value of the error against a membership function without performing learning by realizing the membership function in a fuzzy control with the neuron characteristic function. CONSTITUTION:The maximum gradient of the sigmoid function as a neuron characteristic function is set by obtaining the weight and threshold value with 1.3401 times of the gradient of the membership function large or small.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、ファジイ制御における
メンバシップ関数をニューロン特性関数で実現すること
を可能とするニューラルネットワークによるメンバシッ
プ関数の構成方式に関する。数式モデルを立てられない
プラント制御などの分野では、従来、ファジイ制御が適
用されてきたが、最近ニューラルネットワークによる制
御が開発工数、精度、調整のしやすさで注目されている
。しかし、ニューラルネットワークは学習によりメンバ
シップ関数を近似するニューロン特性関数に調整する必
要があり、学習に時間がかかると共に、バックプロパゲ
ーション法等の学習方法により関数近似の状態が決って
しまうので、このような学習法に制約されずにメンバシ
ップ関数を近似するニューロン特性関数を得ることが望
まれる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for configuring membership functions using a neural network, which makes it possible to realize membership functions in fuzzy control using neuron characteristic functions. Fuzzy control has traditionally been applied in fields such as plant control where mathematical models cannot be established, but control using neural networks has recently attracted attention due to its development time, accuracy, and ease of adjustment. However, neural networks need to be adjusted to a neuron characteristic function that approximates the membership function through learning, which takes time, and the state of function approximation is determined by learning methods such as backpropagation. It is desirable to obtain neuron characteristic functions that approximate membership functions without being constrained by such learning methods.

【0002】0002

【従来の技術】図8に、従来のファジイ制御の概略を示
す。ここでは、入力変数X1、X2と、出力変数Yを用
いる。 ルール1;if  X1  is  small  t
hen  Y  is  large ルール2;if  X2  is  large  t
hen  Y  is  small とすると、図8(a)のように、入力変数X1の実際の
値がsmall に属している割合(帰属度)をルール
1の適合度とし、図8(b)に示すように入力変数X2
の実際の値がlarge に属している割合をルール2
の適合度とする。また各ルール1,2に於ける出力変数
Yのメンバシップ関数を図8(c)(d)に示すように
、それぞれlarge,small とする。
2. Description of the Related Art FIG. 8 shows an outline of conventional fuzzy control. Here, input variables X1 and X2 and output variable Y are used. Rule 1; if X1 is small
hen Y is large Rule 2; if X2 is large
If hen Y is small, the proportion (degree of belonging) of the actual value of the input variable Input variable X2
Rule 2 shows the proportion of the actual value of large that belongs to large.
Let the fitness of Furthermore, the membership functions of the output variable Y in each rule 1 and 2 are set to be large and small, respectively, as shown in FIGS. 8(c) and 8(d).

【0003】従って、入力変数X1,X2の任意の入力
値に対するファジイ制御の出力は、図8(c)(d)の
large,small に図8(a)(b)のルール
1,2の適合度を乗じたものを重ね合わせてできた図8
(e)の図形の重心となる。
[0003] Therefore, the output of fuzzy control for arbitrary input values of input variables X1 and Figure 8 created by superimposing those multiplied by degrees
This is the center of gravity of the figure in (e).

【0004】0004

【発明が解決しようとする課題】ところで、ファジイ制
御は理解しやすい少数のルールで制御できるという長所
を有するが、反面、出来上がったものの調整が難しいと
いう問題がある。そこで、学習により自動調整が可能な
ニューラルネットワークにメンバシップ関数を置き換え
ることを考える。
[Problems to be Solved by the Invention] Fuzzy control has the advantage of being able to control with a small number of rules that are easy to understand, but on the other hand, it has the problem that it is difficult to adjust the finished product. Therefore, we consider replacing the membership function with a neural network that can automatically adjust through learning.

【0005】図9にニューロン1個によるメンバシップ
関数の表現例を示す。尚、図9は図8(c)のメンバシ
ップ関数large を表現したものである。このネッ
トワークは入力変数X1の実際の値を入力とし、入力変
数X1の値の帰属度を出力とする。メンバシップ関数を
ニューロンで表現するために従来用いられてきた手法は
、まずメンバシップ関数で多くの教師信号を作成し、教
師信号を使ってニューロンに、例えばバックプロパゲー
ションで学習させるというものであった。
FIG. 9 shows an example of representation of a membership function using one neuron. Note that FIG. 9 represents the membership function large in FIG. 8(c). This network takes the actual value of the input variable X1 as input, and outputs the degree of membership of the value of the input variable X1. The conventional method used to express membership functions in neurons is to first create many teacher signals using membership functions, and then use the teacher signals to make neurons learn, for example, by backpropagation. Ta.

【0006】図10に、入力変数Xを0.05きざみ取
った場合の入出力関係を示し、これを教師信号として用
いる。この入出力関係の教師信号は図11にプロットし
たメンバシップ関数から得られている。図10の教師信
号を10000回学習させた結果を図12に示す。図1
2の(11)(12)に示すように、10000回の学
習により w=17.740294 θ=7.982747となっている。
FIG. 10 shows the input/output relationship when the input variable X is taken in steps of 0.05, and this is used as a teacher signal. This input/output relationship teaching signal is obtained from the membership function plotted in FIG. FIG. 12 shows the results of learning the teacher signal in FIG. 10 10,000 times. Figure 1
As shown in (11) and (12) of 2, w=17.740294 θ=7.982747 after 10000 learnings.

【0007】尚、図12において、他の要素は次の内容
となる。 (1)ネットワーク構造が1層の1ニューロユニットで
あることを示す。 (2)学習定数ε=5を示す。 (3)モーメンタムα=0.4を示す。 (4)定数β=0を示す。
In FIG. 12, the other elements are as follows. (1) Indicates that the network structure is one layer of one neuron unit. (2) Indicates learning constant ε=5. (3) Indicates momentum α=0.4. (4) Indicates constant β=0.

【0008】(5)許容誤差=0.1を示す。 (6)学習可能最大回数10000回を示す。 (7)シグモイド関数として与えられる出力値の範囲0
〜1を示す。 (8)重み及び閾値を初期設定するための乱数表の表番
号を示す(実際には乱数発生関数を与えるseed)。
(5) Indicates tolerance = 0.1. (6) Indicates the maximum number of times that learning can be performed, 10,000 times. (7) Range of output values given as sigmoid function 0
~1 is shown. (8) Indicates the table number of a random number table for initializing weights and thresholds (actually, a seed that provides a random number generation function).

【0009】(9)学習で得られたニューロユニットの
重みwの値を示す。 (10)学習で得られたニューロユニットの−θの値を
示す。 (11)ニューロユニットの重み学習の有無を1,0で
示す。 (12)ニューロユニットの閾値学習の有無を1,0で
示す。 (13)学習を10000回数行ったことを示す。
(9) Indicates the value of the weight w of the neuro unit obtained through learning. (10) Shows the value of -θ of the neuro unit obtained through learning. (11) The presence or absence of weight learning of the neuro unit is indicated by 1 or 0. (12) The presence or absence of threshold learning of the neuro unit is indicated by 1 or 0. (13) Indicates that learning has been performed 10,000 times.

【0010】(14) 何回の学習毎にモニタするかを
示す。 図12の学習結果をグラフにすると、図13に示すよう
に、メンバシップ関数Aにニューロン特性関数Bが、よ
い近似となっていることが分かる。ところで、ニューロ
ンの学習に使用するバックプロパゲーション法は、教師
信号に対して誤差の二乗和を最小にする解を探索する。 しかし、メンバシップ関数を近似する際に、人間が望む
ものが誤差の二乗和最小とは限らない。例えば、入力の
変位に対する出力の変位の最大値をメンバシップ関数の
傾きに合わせたいとか、つまり感度の上限を明確にする
とか、誤差の和を最小にしたいとか、最大誤差を最小に
したいなどがある。
(14) Indicates how many times learning is to be monitored. When the learning results in FIG. 12 are graphed, it can be seen that the neuron characteristic function B is a good approximation to the membership function A, as shown in FIG. 13. By the way, the backpropagation method used for neuron learning searches for a solution that minimizes the sum of squared errors with respect to a teacher signal. However, when approximating a membership function, what humans desire is not necessarily the minimum sum of squared errors. For example, you may want to match the maximum value of the output displacement with respect to the input displacement to the slope of the membership function, in other words, you may want to clarify the upper limit of sensitivity, you may want to minimize the sum of errors, or you may want to minimize the maximum error. be.

【0011】しかし、バックプロパゲーション法では、
メンバシップ関数に対しニューロン特性関数を近似させ
る際の意味を様々に変えることができないという不具合
があった。またバックプロパゲーション法で誤差の二乗
和を最小とする近似を行う場合にも、10000回にも
及ぶ学習が必要であった。本発明は、このような従来の
問題点に鑑みてなされたもので、学習を必要とすること
なく、ニューロン特性関数のメンバシップ関数に対する
誤差の絶対値の和を最小にするように近似させることの
できるニューラルネットワークによるメンバシップ関数
構成方式を提供することを目的とする。
However, in the backpropagation method,
There was a problem in that it was not possible to vary the meaning when approximating the neuron characteristic function to the membership function. Also, when performing approximation to minimize the sum of squares of errors using the backpropagation method, as many as 10,000 learning sessions were required. The present invention has been made in view of such conventional problems, and it is an object of the present invention to approximate the neuron characteristic function so as to minimize the sum of the absolute values of errors with respect to the membership function without the need for learning. The purpose of this paper is to provide a membership function construction method using a neural network that can perform the following functions.

【0012】0012

【課題を解決するための手段】図1,図2は本発明の原
理説明図である。図1において、まず本発明は、図1(
b)に示すように、入力Xと出力Yとの間に、a,b(
但しa<b)を定数として、 X≦aの時、    Y=0 a<X<bの時、Y=(X−a)/(b−a)b≦Xの
時、    Y=1 の関係があるメンバシップ関数を、非線形の特性関数を
備えたニューロン1で近似するニューラルネットワーク
によるメンバシップ関数の構成方式を対象とする。
[Means for Solving the Problems] FIGS. 1 and 2 are diagrams explaining the principle of the present invention. In FIG. 1, the present invention first shows that FIG.
As shown in b), there are a, b(
However, when a<b) is a constant, when X≦a, Y=0 When a<X<b, Y=(X-a)/(ba-a) When b≦X, Y=1. This paper deals with a method of constructing a membership function using a neural network in which a certain membership function is approximated by a neuron 1 having a nonlinear characteristic function.

【0013】このような構成方式につき本発明にあって
は、図1(c)に示すように、メンバシップ関数との誤
差の和、より正確には誤差の絶対値の積分を最小とする
ようにニューロン1の特性関数を設定する。具体的には
、ニューロン1の特性関数の最大傾きをメンバシップ関
数の傾きである 1/(b−a) の1.3401とする。とする。
In the present invention, as shown in FIG. 1(c) for such a configuration method, the sum of the errors with the membership function, more precisely, the integral of the absolute value of the errors is minimized. Set the characteristic function of neuron 1 to . Specifically, the maximum slope of the characteristic function of neuron 1 is set to 1.3401, which is 1/(ba), which is the slope of the membership function. shall be.

【0014】実際には、ニューロン1の特性関数を、Y
=1/{1+exp(−wX+θ)}とする時、結線の
重みw及び閾値θを w=5.3605/(b−a) θ=2.6802(a+b)/(b−a)と決めること
によりメンバシップ関数をニューロンの特性関数で近似
する。
In reality, the characteristic function of neuron 1 is defined as Y
= 1/{1+exp(-wX+θ)}, determine the connection weight w and threshold θ as w=5.3605/(ba-a) θ=2.6802(a+b)/(ba-a) The membership function is approximated by the characteristic function of the neuron.

【0015】またニューロン1の特性関数を、Y=0.
5+0.5tanh(wX−θ)と表現することもでき
るので、この場合には、結線の重み及び閾値θを、 w=2.6802/(b−a) θ=1.3401(a+b)/(b−a)と決めること
によりメンバシップ関数をニューロンの特性関数で近似
する。
Further, the characteristic function of neuron 1 is defined as Y=0.
It can also be expressed as 5+0.5tanh(wX-θ), so in this case, the connection weight and threshold θ are w=2.6802/(ba-a) θ=1.3401(a+b)/( By determining ba), the membership function is approximated by the characteristic function of the neuron.

【0016】更に本発明は、図2(b)に示すように、
入力Xと出力Yとの間に、a,b(但しa<b)を定数
として、 X≦aの時、    Y=1 a<X<bの時、Y=−(X−a)/(b−a)b≦X
の時、    Y=0 の関係があるメンバシップ関数を、非線形の特性関数を
備えたニューロン1で近似するニューラルネットワーク
によるメンバシップ関数の構成方式を対象とし、ニュー
ロン1の特性関数の絶対値最大傾きをメンバシップ関数
の傾きである −1/(b−a) の1.3401倍とする。
Furthermore, the present invention, as shown in FIG. 2(b),
Between input b-a) b≦X
When , the membership function with the relationship Y=0 is approximated by neuron 1 with a nonlinear characteristic function. is 1.3401 times the slope of the membership function, -1/(ba).

【0017】この場合にも、ニューロン1の特性関数を
、 Y=1/{1+exp(−wX+θ)}とする時、結線
の重みw及び閾値θを w=−5.3605/(b−a) θ=−2.6802(a+b)/(b−a)と決めるこ
とによりメンバシップ関数をニューロンの特性関数で近
似する。
In this case as well, when the characteristic function of neuron 1 is Y=1/{1+exp(-wX+θ)}, the connection weight w and threshold θ are w=-5.3605/(b-a). By determining θ=-2.6802(a+b)/(ba-a), the membership function is approximated by the characteristic function of the neuron.

【0018】またニューロン1の特性関数を、Y=0.
5+0.5tanh(wX−θ)とすることができ、こ
の場合には結線の重みw及び閾値θを、 w=−2.6802/(b−a) θ=−1.3401(a+b)/(b−a)と決めるこ
とによりメンバシップ関数をニューロンの特性関数で近
似する。
Further, the characteristic function of neuron 1 is defined as Y=0.
5 + 0.5 tanh (w By determining ba), the membership function is approximated by the characteristic function of the neuron.

【0019】[0019]

【作用】このような構成を備えた本発明のニューラルネ
ットワークによるメンバシップ関数の構成方式によれば
、ニューロン特性関数であるシグモイド関数の絶対値最
大傾きをメンバシップ関数の傾きの1.3401倍とな
るように重みw及びθを決めて設定することで、メンバ
シップ関数に対するニューロン特性関数の誤差の和、よ
り正確には誤差の絶対値の積分を最小する近似を一義的
に求めることができる。
[Operation] According to the membership function construction method using the neural network of the present invention having such a configuration, the maximum slope of the absolute value of the sigmoid function, which is a neuron characteristic function, is 1.3401 times the slope of the membership function. By determining and setting the weights w and θ such that θ is equal to θ, it is possible to uniquely obtain an approximation that minimizes the sum of errors of the neuron characteristic function with respect to the membership function, or more precisely, the integral of the absolute value of the errors.

【0020】このためバックプロパゲーション法ではで
きない用途に合った近似ができ、更に、バックプロパゲ
ーション法のような学習を行わなくてよいので、計算量
を低減できる。
[0020] Therefore, it is possible to perform an approximation suitable for the purpose that cannot be achieved using the backpropagation method, and furthermore, since there is no need to perform learning as in the backpropagation method, the amount of calculation can be reduced.

【0021】[0021]

【実施例】図3は本発明で用いるニューロンを実現する
ニューロユニットの実施例構成図である。図3において
、ニューロユニット10は5入力1出力を例にとってい
る。ニューロユニット10には乗算処理部12が設けら
れ、乗算処理部22は例えば入力信号X1〜X5に対し
各々内部結合の重みw1,w2,・・・,w5を乗算す
る乗算部12−1〜12−5を備える。ここで本発明の
ニューロユニット10は、1入力1出力でメンバシップ
関数を近似することから、いずれか1つの入力結線及び
重みのみを有効とし、他は無視すればよい。例えば入力
信号X1のみを使用し、他の入力信号X2〜X5は全て
0に固定する。
Embodiment FIG. 3 is a block diagram of an embodiment of a neuron unit realizing a neuron used in the present invention. In FIG. 3, the neuro unit 10 has five inputs and one output as an example. The neuro unit 10 is provided with a multiplication processing section 12, and the multiplication processing section 22 multiplies the input signals X1 to X5 by internal connection weights w1, w2, . . . , w5, respectively. -5 is provided. Here, since the neuro unit 10 of the present invention approximates a membership function with one input and one output, it is sufficient to make only one input connection and weight valid and ignore the others. For example, only input signal X1 is used, and all other input signals X2 to X5 are fixed to 0.

【0022】13は累積処理部であり、乗算処理部12
から出力される全ての乗算結果X1w1〜X5w5を加
算する。14は閾値処理部であり、累積処理部13から
の累積値に例えばS字関数としてのシグモイド関数(ニ
ューロン特性関数)を使用して非線形の閾値処理を行う
。本発明にあっては、メンバシップ関数に対するシグモ
イド関数の誤差の絶対値の積分を最小とするように近似
する。例えば図1(b)に示したメンバシップ関数la
rgeの場合、即ち、入力Xと出力Yとの間に、a,b
(但しa<b)を定数として、                 X≦aの時、   
 Y=0                a<X<b
の時、Y=(X−a)/(b−a)        (
1)                b≦Xの時、 
   Y=1の関係があるメンバシップ関数をニューロ
ユニット10で近似する場合、シグモイド関数の傾きの
最大値がメンバシップ関数largeの傾き 1/(b−a) の1.3401倍となるように重みw及び閾値θの値を
決定する。
13 is an accumulation processing section, and a multiplication processing section 12
All the multiplication results X1w1 to X5w5 output from are added. Reference numeral 14 denotes a threshold processing section, which performs nonlinear threshold processing on the cumulative value from the accumulation processing section 13 using, for example, a sigmoid function (neuron characteristic function) as an S-shaped function. In the present invention, approximation is performed to minimize the integral of the absolute value of the error of the sigmoid function with respect to the membership function. For example, the membership function la shown in Figure 1(b)
In the case of rge, that is, between input X and output Y, a, b
(However, when a<b) is a constant, when X≦a,
Y=0 a<X<b
When , Y=(X-a)/(ba-a) (
1) When b≦X,
When approximating a membership function with a relationship of Y=1 using the neuro unit 10, the weight is set so that the maximum value of the slope of the sigmoid function is 1.3401 times the slope of the membership function large, 1/(ba). Determine the values of w and threshold θ.

【0023】即ち、ニューロユニット10のシグモイド
関数を、   Y=1/{1+exp(−wX+θ)}     
                       (2
)とする時、結線の重みw及び閾値θは   w=5.3605/(b−a)         
                         
  (3)  θ=2.6802(a+b)/(b−a
)                        
  (4)に決められる。
That is, the sigmoid function of the neuro unit 10 is expressed as Y=1/{1+exp(-wX+θ)}
(2
), the connection weight w and threshold θ are w=5.3605/(ba-a)

(3) θ=2.6802(a+b)/(ba-a
)
(4) is determined.

【0024】またニューロユニット10のシグモイド関
数は近似的に、   Y=0.5+0.5tanh(wX−θ)    
                      (5)
と表現できる。この場合には、結線の重み及び閾値θは
、   w=2.6802/(b−a)         
                         
  (6)  θ=1.3401(a+b)/(b−a
)                        
  (7)と決められる。
[0024] Furthermore, the sigmoid function of the neuro unit 10 is approximately as follows: Y=0.5+0.5tanh(wX-θ)
(5)
It can be expressed as In this case, the connection weight and threshold θ are w=2.6802/(ba-a)

(6) θ=1.3401(a+b)/(ba-a
)
(7) is determined.

【0025】一方、図2に示したメンバシップ関数sm
allの場合、即ち入力Xと出力Yとの間に、a,b(
但しa<b)を定数として、                 X≦aの時、   
 Y=1                a<X<b
の時、Y=−(X−a)/(b−a)      (8
)                b≦Xの時、  
  Y=0の関係があるメンバシップ関数をニューロユ
ニット10で近似する場合、ニューロユニット10の特
性関数の絶対値最大傾きがメンバシップ関数small
の傾きである −1/(b−a) の1.3401倍となるように重みw及び閾値θを決定
する。
On the other hand, the membership function sm shown in FIG.
In the case of all, that is, between input X and output Y, a, b(
However, when a<b) is a constant and X≦a,
Y=1 a<X<b
When , Y=-(X-a)/(ba-a) (8
) When b≦X,
When a membership function with a relationship of Y=0 is approximated by the neuro unit 10, the maximum slope of the absolute value of the characteristic function of the neuro unit 10 is the membership function small
The weight w and the threshold value θ are determined to be 1.3401 times the slope of −1/(ba).

【0026】即ち、ニューロユニット10のシグモイド
関数を、   Y=1/{1+exp(−wX+θ)}     
                       (9
)とする時、結線の重みw及び閾値θは   w=−5.3605/(b−a)        
                        (
10)  θ=−2.6802(a+b)/(b−a)
                      (11
)して求められる。
That is, the sigmoid function of the neuro unit 10 is expressed as Y=1/{1+exp(-wX+θ)}
(9
), the connection weight w and threshold θ are w=-5.3605/(b-a)
(
10) θ=-2.6802(a+b)/(ba-a)
(11
).

【0027】またニューロユニット10のシグモイド関
数は近似的に、   Y=0.5+0.5tanh(wX−θ)    
                    (12)と
表現できるので、この場合には、結線の重みw及び閾値
θは、   w=−2.6802/(b−a)        
                        (
13)  θ=−1.3401(a+b)/(b−a)
                      (14
)と決められる。
[0027] Furthermore, the sigmoid function of the neuro unit 10 is approximately as follows: Y=0.5+0.5tanh(wX-θ)
(12), so in this case, the connection weight w and threshold θ are w=-2.6802/(b-a)
(
13) θ=-1.3401(a+b)/(ba-a)
(14
) can be determined.

【0028】次に、シグモイド関数の最大傾きをメンバ
シップ関数の1.3401倍とすることで、メンバシッ
プ関数に対するシグモイド関数の誤差の絶対値の積分を
最小とできる理由を詳細に説明する。いまメンバシップ
関数largeを
Next, the reason why the integral of the absolute value of the error of the sigmoid function with respect to the membership function can be minimized by setting the maximum slope of the sigmoid function to 1.3401 times that of the membership function will be explained in detail. Now the membership function large

【0029】[0029]

【数1】[Math 1]

【0030】(15)とし、シグモイド関数を  Y=
tanh(wX)                 
                         
(16)で近似することを考える。図4に(15)式の
メンバシップ関数と(16)式のシグモイド関数のグラ
フを示す。
(15), and the sigmoid function is Y=
tanh(wX)

Consider approximation by (16). FIG. 4 shows a graph of the membership function of equation (15) and the sigmoid function of equation (16).

【0031】図4において、2つの関数の第1象限の交
点のX座標の値をsと置くと、 s=tanh(ws) となり、重みwは、
In FIG. 4, if s is the value of the X coordinate of the intersection of the first quadrant of the two functions, then s=tanh(ws), and the weight w is

【0032】[0032]

【数2】[Math 2]

【0033】(17)となる。そこで、メンバシップ関
数に対する誤差の絶対値の積分の半分B(w)は、
(17). Therefore, half B(w) of the integral of the absolute value of the error for the membership function is

【0
034】
0
034]

【数3】[Math 3]

【0035】(18)となる。次に(18)式の誤差の
積分の半分B(w)を最小にする重みwを求める。まず
(18)式右辺について、
(18). Next, find the weight w that minimizes half B(w) of the integral of the error in equation (18). First, regarding the right side of equation (18),

【0036】[0036]

【数4】[Math 4]

【0037】となる。これからdB(w)/dwを計算
すると次のようになる。
[0037] Calculating dB(w)/dw from this results in the following.

【0038】[0038]

【数5】[Math 5]

【0039】ここでdB(w)/dw=0となるsを求
めると、次のようになる。
[0039] Here, finding s such that dB(w)/dw=0 is as follows.

【0040】[0040]

【数6】[Math 6]

【0041】これを満たすsは、近似的にs=0.79
99 であり、従って(17)式より重みwは、小数点以下4
桁までを有効とすると、 w=1.3401 が求められる。
s that satisfies this is approximately s=0.79
99, therefore, from equation (17), the weight w is 4 decimal places.
If all digits are valid, w=1.3401 is obtained.

【0042】ここで図1のメンバシップ関数large
をf(x)とすると、
Here, the membership function large in FIG.
Let f(x) be,

【0043】[0043]

【数7】[Math 7]

【0044】であり、シグモイド関数f´(X)は、[0044] The sigmoid function f'(X) is


0045】
[
0045

【数8】[Math. 8]

【0046】である。よって両者を近似的に等しいとす
ると、メンバシップ関数f(x)は、
[0046] Therefore, assuming that both are approximately equal, the membership function f(x) is

【0047】[0047]

【数9】[Math. 9]

【0048】(19)となる。よって、メンバシップ関
数largeに対するtanhで表わされたメンバシッ
プ関数の誤差の絶対値の積分を最小とするための重みw
及び閾値θは、 w=2.6802/(b−a) θ=1.3401(a+b)/(b−a)と決めればよ
い。
(19). Therefore, the weight w to minimize the integral of the absolute value of the error of the membership function expressed by tanh for the membership function large.
And the threshold value θ may be determined as follows: w=2.6802/(ba-a) θ=1.3401(a+b)/(ba).

【0049】次にニューロユニット10のシグモイド関
数を前記(2)式に示したように Y=1/{1+exp(−wX+θ)}とする場合も、
同様に求められるが、簡単に求めるには、
Next, when the sigmoid function of the neuro unit 10 is set to Y=1/{1+exp(-wX+θ)} as shown in equation (2) above,
The same can be found, but to find it easier,

【0050】[0050]

【数10】[Math. 10]

【0051】であることを利用して前記(19)式の結
果からメンバシップ関数largeに対するexpで表
わされたメンバシップ関数の誤差の絶対値の積分を最小
とするための重みw及び閾値θは、
Using this fact, from the result of the above equation (19), the weight w and threshold θ are determined to minimize the integral of the absolute value of the error of the membership function expressed by exp for the membership function large. teeth,

【0052】[0052]

【数11】が求まる。よって、 w=5.3605/(b−a) θ=2.6802(a+b)/(b−a)と決めればよ
い。
[Formula 11] is obtained. Therefore, it is sufficient to determine w=5.3605/(ba-a) and θ=2.6802(a+b)/(ba-a).

【0053】図5はメンバシップ関数largeにつき
、 a=0.3 b=0.6 とし、これを前記(2)式のexpのシグモイド関数を
もつニューロユニット10で近似させるため、前記(3
)(4)式に基づき、 w=5.3605/(b−a)=17.8683θ=2
.6802(a+b)/(b−a)=8.406を設定
した時のメンバシップ関数largeとシグモイド関数
を示し、メンバシップ関数に対する誤差の絶対値の積分
を最小とするシグモイド関数の近似関係が重みw及び閾
値θの設定で一義的に実現できる。
In FIG. 5, for the membership function large, a=0.3 b=0.6, and in order to approximate this with the neuro unit 10 having a sigmoid function of exp in the above equation (2), the above (3)
) Based on equation (4), w=5.3605/(ba)=17.8683θ=2
.. 6802 (a + b) / (ba - a) = 8.406 is set, the membership function large and the sigmoid function are shown, and the approximate relationship of the sigmoid function that minimizes the integral of the absolute value of the error with respect to the membership function is the weight. This can be uniquely achieved by setting w and threshold value θ.

【0054】一方、図2(b)に示したメンバシップ関
数smallの場合、即ち、入力Xと出力Yとの間に、
a,b(但しa<b)を定数として、                 X≦aの時、   
 Y=1                a<X<b
の時、Y=−(X−a)/(b−a)    (20)
                b≦Xの時、   
 Y=0の関係があるメンバシップ関数を、非線形の特
性関数を備えたニューロユニット10で近似する場合を
説明する。このメンバシップ関数smallを近似する
ニューロユニット10における閾値処理部14のシグモ
イド関数は、   f(X)=1/{1+exp(−wX+θ)}  
                  (21)となる
。このシグモイド関数でメンバシップ関数との誤差の絶
対値の積分を最小とするように近似するにはメンバシッ
プ関数smallの傾きである −1/(b−a) を1.3401倍とすればよい。
On the other hand, in the case of the membership function small shown in FIG. 2(b), that is, between the input X and the output Y,
When a, b (however, a<b) are constants, and X≦a,
Y=1 a<X<b
When , Y=-(X-a)/(ba-a) (20)
When b≦X,
A case will be described in which a membership function having a relationship of Y=0 is approximated by the neuro unit 10 having a nonlinear characteristic function. The sigmoid function of the threshold processing unit 14 in the neuro unit 10 that approximates this membership function small is f(X)=1/{1+exp(-wX+θ)}
(21). In order to approximate the sigmoid function so that the integral of the absolute value of the error with the membership function is minimized, the slope of the membership function small, -1/(ba), should be multiplied by 1.3401. .

【0055】具体的には、(21)式のexpで表現さ
れたシグモイド関数の重みw及び閾値θとして  w=
−5.3605/(b−a)            
                    (22) 
 θ=−2.6802(a+b)/(b−a)    
                  (23)に設定
すればよい。
Specifically, as the weight w of the sigmoid function expressed by exp in equation (21) and the threshold value θ, w=
-5.3605/(b-a)
(22)
θ=-2.6802(a+b)/(ba-a)
(23) may be set.

【0056】またメンバシップ関数smallをtan
hのシグモイド関数で近似的に   f(X)=0.5+0.5tanh(wX−θ) 
                 (24)とした場
合には、 f(X)=0.5+0.5tanh(wX−θ)=1/
{1+exp(−2wX+2θ)}であることを利用し
、 2w=−5.3605/(b−a) 2θ=−2.6802(a+b)/(b−a)が求めら
れる。よって、重みw及び閾値θを、  w=−2.6
802/(b−a)                
                (25)  θ=−
1.3401(a+b)/(b−a)        
              (26)に設定すればよ
い。
[0056] Also, if the membership function small is tan
Approximately using the sigmoid function of h, f(X)=0.5+0.5tanh(wX-θ)
(24), f(X)=0.5+0.5tanh(wX-θ)=1/
Utilizing the fact that {1+exp(-2wX+2θ)}, 2w=-5.3605/(ba-a) 2θ=-2.6802(a+b)/(ba-a) can be obtained. Therefore, the weight w and threshold θ are w=-2.6
802/(b-a)
(25) θ=-
1.3401(a+b)/(ba-a)
(26) may be set.

【0057】図6は本発明でメンバシップ関数larg
e及びsmallに対するシグモイド関数の誤差の絶対
値の積分を最小とするように近似する際の重みwおよび
閾値θを求める処理フロー図を示す。図6において、ま
ずステップS1で係数Fを決める。係数Fは、シグモイ
ド関数としてexpを使用する場合はF=2、tanh
を使う場合はF=1にセットする。続いてステップS2
でメンバシップ関数の属性を決める定数a,bを読み込
む。次にステップS3で重みwを算出し、更にステップ
S4で重みθを算出して処理を終える。
FIG. 6 shows the membership function larg according to the present invention.
A process flow diagram for determining a weight w and a threshold value θ for approximation to minimize the integral of the absolute value of the error of a sigmoid function for e and small is shown. In FIG. 6, first, a coefficient F is determined in step S1. The coefficient F is F=2 when using exp as a sigmoid function, tanh
When using , set F=1. Then step S2
reads the constants a and b that determine the attributes of the membership function. Next, a weight w is calculated in step S3, and a weight θ is further calculated in step S4, and the process ends.

【0058】このような本発明のシグモイド関数でメン
バシップ関数を近似するニューロユニットは、ファジイ
制御を実現するニューラルネットワークのメンバシップ
関数を実現する層に1又は複数使用され、その後にネッ
トワーク全体を学習をすることで、学習効率を高めるこ
とが期待できる。図7は図3のニューロユニット10の
具体的な実施例構成図であり、対応する部分は同じ番号
を使用している。
One or more neural units that approximate a membership function using a sigmoid function according to the present invention are used in a layer that realizes a membership function of a neural network that realizes fuzzy control, and then the entire network is learned. By doing so, it is expected that learning efficiency will be improved. FIG. 7 is a block diagram of a specific embodiment of the neuro unit 10 shown in FIG. 3, and corresponding parts use the same numbers.

【0059】図7において、12は乗算型D/Aコンバ
ータ、13は累積処理部であり、アナログ加算器13a
及び保持回路13bを備える。14は閾値処理部、15
は出力保持部、16は出力スイッチ部、17は入力スイ
ッチ部、18は重み保持部、19は制御回路である。入
力スイッチ部17は入力信号X1〜X5が順次入力され
るもので、入力信号X1〜X5の入力タイミングに同期
してオン制御される。勿論、本発明のニューロユニット
は1入力1出力であることから、入力信号X1のみが有
効で他の入力信号X2〜X5は0である。
In FIG. 7, 12 is a multiplication type D/A converter, 13 is an accumulation processing section, and an analog adder 13a
and a holding circuit 13b. 14 is a threshold processing unit, 15
16 is an output holding section, 16 is an output switch section, 17 is an input switch section, 18 is a weight holding section, and 19 is a control circuit. The input switch section 17 receives the input signals X1 to X5 sequentially, and is controlled to be turned on in synchronization with the input timing of the input signals X1 to X5. Of course, since the neuro unit of the present invention has one input and one output, only the input signal X1 is valid and the other input signals X2 to X5 are 0.

【0060】また入力信号X1〜X5の入力タイミング
に応じて重み信号w1〜w5が伝達される。この内の有
効な重みW1は図6の処理フローに従って算出した値を
設定している。具体的には制御回路19により重み入力
制御信号が順次レシーバ20に出力され、レシーバ20
を経由して重み信号w1〜w5が重み保持部18に順次
送出される。その結果、乗算型D/Aコンバータ12に
おいて乗算値X1w1,X2w2,・・・X5w5が順
次演算される。
Weight signals w1 to w5 are also transmitted in accordance with the input timings of input signals X1 to X5. Among these, the effective weight W1 is set to a value calculated according to the processing flow shown in FIG. Specifically, the control circuit 19 sequentially outputs the weight input control signals to the receiver 20.
The weight signals w1 to w5 are sequentially sent to the weight holding unit 18 via. As a result, multiplication values X1w1, X2w2, . . . X5w5 are sequentially calculated in the multiplication type D/A converter 12.

【0061】累積処理部13の保持回路13bは初期状
態で零にクリアされているため、最初に得られた乗算値
X1w1が保持回路13bの零とアナログ加算器13a
で加算され、得られた加算値X1w1が保持される。次
に乗算値X2w2が入力されるとアナログ加算器13a
は保持回路13bに保持されたX1w1と新たに入力し
たX2w2を加算し加算値(X1w1+X2w2)を保
持回路に保持する。以下同様にして累積値YがY=X1
w1+X2w2+・・・X5w5として演算される。
Since the holding circuit 13b of the accumulation processing section 13 is cleared to zero in the initial state, the first obtained multiplication value X1w1 is the zero of the holding circuit 13b and the analog adder 13a.
The obtained addition value X1w1 is held. Next, when the multiplication value X2w2 is input, the analog adder 13a
adds X1w1 held in the holding circuit 13b and newly inputted X2w2, and holds the added value (X1w1+X2w2) in the holding circuit. Similarly, the cumulative value Y is Y=X1
It is calculated as w1+X2w2+...X5w5.

【0062】累積処理部13における累積処理か終了し
たとき、制御回路18は演算制御信号を出力し、これに
応じて閾値処理部14が図6の処理フローで算出された
閾値θの値を使用した累積値Yの閾値処理を行い、得ら
れた出力Yを出力保持部15で一時的に保持する。続い
て制御回路19は出力制御信号を出力し、出力スイッチ
16がオンして出力保持部15に保持された出力値Yが
外部に出力される。
When the accumulation processing in the accumulation processing section 13 is completed, the control circuit 18 outputs an arithmetic control signal, and in response to this, the threshold processing section 14 uses the value of the threshold θ calculated in the processing flow of FIG. The accumulated value Y is subjected to threshold processing, and the obtained output Y is temporarily held in the output holding unit 15. Subsequently, the control circuit 19 outputs an output control signal, the output switch 16 is turned on, and the output value Y held in the output holding section 15 is outputted to the outside.

【0063】尚、上記の実施例にあっては、ニューロン
特性関数の絶対値最大傾きを、メンバシップ関数の傾き
の1.3401倍とする場合を例にとっているが、精度
を要求しない場合には、1.34倍、1.3倍等と有効
数字を減らせばよく、また精度を上げたければ有効数字
を更に増せばよく、1.3401の値に限定されるもの
ではない。
In the above embodiment, the maximum slope of the absolute value of the neuron characteristic function is set to 1.3401 times the slope of the membership function, but if accuracy is not required, , 1.34 times, 1.3 times, etc., or if you want to increase the accuracy, you can further increase the number of significant figures, and the value is not limited to 1.3401.

【0064】[0064]

【発明の効果】以上説明したように本発明によれば、今
まで学習で決めていたメンバシップ関数のニューラルネ
ットワークによる近似を、重み及び閾値の設定で学習な
しに求めることができ、更に誤差の絶対値合計を最小と
する近似ができるので、有限個の点による学習と同程度
の精度を得ることができる。
[Effects of the Invention] As explained above, according to the present invention, it is possible to obtain an approximation by a neural network of a membership function that has been determined by learning, without learning, by setting weights and thresholds, and further reduces errors. Since it is possible to perform an approximation that minimizes the sum of absolute values, it is possible to obtain the same level of accuracy as learning using a finite number of points.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理説明図(その1)[Figure 1] Diagram explaining the principle of the present invention (Part 1)

【図2】本発明
の原理説明図(その2)
[Figure 2] Diagram explaining the principle of the present invention (Part 2)

【図3】本発明のニューロユニ
ットの実施例構成図
[Fig. 3] Example configuration diagram of the neuro unit of the present invention

【図4】本発明のメンバシップ関数
とシグモイド関数の近似関係を証明するための説明図
[Fig. 4] Explanatory diagram for proving the approximate relationship between the membership function and sigmoid function of the present invention

【図5】本発明のニューロユニットのシグモイド関数と
メンバシップ関数の近似結果の説明図
FIG. 5 is an explanatory diagram of the approximation results of the sigmoid function and membership function of the neurounit of the present invention

【図6】本発明による重み及び閾値の算出処理を示した
処理フロー図
FIG. 6 is a processing flow diagram showing weight and threshold calculation processing according to the present invention.

【図7】図3のニューロユニットの具体的な実施例構成
[Figure 7] Specific example configuration diagram of the neuro unit in Figure 3

【図8】従来のファジイ制御の概略説明図[Figure 8] Schematic diagram of conventional fuzzy control

【図9】ニュ
ーロンによるメンバシップ関数表現の説明図
[Figure 9] Explanatory diagram of membership function representation by neurons

【図10】メンバシップ関数から得られた教師信号の説
明図
[Figure 10] Explanatory diagram of the teacher signal obtained from the membership function

【図11】図9の教師信号を求めたメンバシップ関数の
説明図
[Figure 11] Explanatory diagram of the membership function that determined the teacher signal in Figure 9

【図12】ニューロンの学習結果を示した説明図[Figure 12] Explanatory diagram showing the learning results of neurons

【図1
3】メンバシップ関数と学習済みニューロンによる特性
関数の近似状態を示した説明図
[Figure 1
3] Explanatory diagram showing the approximate state of the characteristic function by the membership function and learned neurons

【符号の説明】[Explanation of symbols]

1;:ニューロン 10:ニューロユニット 12:乗算処理部(乗算型ADコンバータ)13:累積
処理部 14:閾値処理部 15:出力保持部 16:出力スイッチ部 17:入力スイッチ部 18:重み保持部 19:制御部 20:レシーバ
1: Neuron 10: Neuro unit 12: Multiplication processing section (multiplying AD converter) 13: Accumulation processing section 14: Threshold processing section 15: Output holding section 16: Output switch section 17: Input switch section 18: Weight holding section 19 :Control unit 20:Receiver

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】入力Xと出力Yとの間に、a,b(但しa
<b)を定数として、 X≦aの時、    Y=0 a<X<bの時、Y=(X−a)/(b−a)b≦Xの
時、    Y=1 の関係があるメンバシップ関数を、非線形の特性関数を
備えたニューロン(1)で近似するニューラルネットワ
ークによるメンバシップ関数の構成方式に於いて、前記
メンバシップ関数との誤差の絶対値の積分を最小とする
ように前記ニューロン(1)の特性関数を設定したこと
を特徴とするニューラルネットワークによるメンバシッ
プ関数の構成方式。
Claim 1: Between input X and output Y, a, b (however, a
<b) is a constant, when X≦a, Y=0 When a<X<b, Y=(X-a)/(ba-a) When b≦X, Y=1. In a method of constructing a membership function using a neural network in which the membership function is approximated by a neuron (1) having a nonlinear characteristic function, the integral of the absolute value of the error with the membership function is minimized. A method of configuring membership functions using a neural network, characterized in that a characteristic function of the neuron (1) is set.
【請求項2】請求項1記載のニューラルネットワークに
よるメンバシップ関数の構成方式に於いて、前記ニュー
ロン(1)の特性関数の最大傾きを前記メンバシップ関
数の傾きである 1/(b−a) の1.3401倍としたことを特徴とするニューラルネ
ットワークによるメンバシップ関数の構成方式。
2. In the method of configuring a membership function using a neural network according to claim 1, the maximum slope of the characteristic function of the neuron (1) is equal to the slope of the membership function, 1/(ba-a). A membership function construction method using a neural network, characterized in that the membership function is set to 1.3401 times as large as 1.3401.
【請求項3】請求項2記載のニューラルネットワークに
よるメンバシップ関数の構成方式に於いて、前記ニュー
ロン(1)の特性関数を、 Y=1/{1+exp(−wX+θ)}とする時、結線
の重みw及び閾値θを w=5.3605/(b−a) θ=2.6802(a+b)/(b−a)と決めること
により前記メンバシップ関数をニューロンの特性関数で
近似することを特徴とするニューラルネットワークによ
るメンバシップ関数の構成方式。
3. In the method of configuring membership functions using a neural network according to claim 2, when the characteristic function of the neuron (1) is Y=1/{1+exp(-wX+θ)}, the connection The membership function is approximated by a neuron characteristic function by determining the weight w and the threshold value θ as w=5.3605/(ba-a) θ=2.6802(a+b)/(ba-a). A method for constructing membership functions using a neural network.
【請求項4】請求項2記載のニューラルネットワークに
よるメンバシップ関数の構成方式に於いて、前記ニュー
ロン(1)の特性関数を、 Y=0.5+0.5tanh(wX−θ)とする時、結
線の重み及び閾値θを、 w=2.6802/(b−a) θ=1.3401(a+b)/(b−a)と決めること
により前記メンバシップ関数をニューロンの特性関数で
近似することを特徴とするニューラルネットワークによ
るメンバシップ関数の構成方式。
4. In the method of configuring a membership function using a neural network according to claim 2, when the characteristic function of the neuron (1) is Y=0.5+0.5tanh(wX−θ), the connection By determining the weight and threshold θ as w=2.6802/(ba-a) θ=1.3401(a+b)/(ba-a), it is possible to approximate the membership function with the characteristic function of the neuron. A method of constructing membership functions using a featured neural network.
【請求項5】入力Xと出力Yとの間に、a,b(但しa
<b)を定数として、 X≦aの時、    Y=1 a<X<bの時、Y=−(X−a)/(b−a)b≦X
の時、    Y=0 の関係があるメンバシップ関数を、非線形の特性関数を
備えたニューロン(1)で近似するニューラルネットワ
ークによるメンバシップ関数の構成方式に於いて、前記
ニューロン(1)の特性関数の絶対値最大傾きを前記メ
ンバシップ関数の傾きである −1/(b−a) の1.3401倍としたことを特徴とするニューラルネ
ットワークによるメンバシップ関数の構成方式。
Claim 5: Between the input X and the output Y, a, b (however, a
<b) as a constant, when X≦a, Y=1 When a<X<b, Y=-(X-a)/(ba-a) b≦X
In a method of constructing a membership function using a neural network in which a membership function with a relationship of Y=0 is approximated by a neuron (1) having a nonlinear characteristic function, the characteristic function of the neuron (1) is A method for constructing a membership function using a neural network, characterized in that the maximum slope of the absolute value of is set to 1.3401 times the slope of the membership function, -1/(ba).
【請求項6】請求項5記載のニューラルネットワークに
よるメンバシップ関数の構成方式に於いて、前記ニュー
ロン(1)の特性関数を、 Y=1/{1+exp(−wX+θ)}とする時、結線
の重みw及び閾値θを w=−5.3605/(b−a) θ=−2.6802(a+b)/(b−a)と決めるこ
とにより前記メンバシップ関数をニューロンの特性関数
で近似することを特徴とするニューラルネットワークに
よるメンバシップ関数の構成方式。
6. In the method of configuring a membership function using a neural network according to claim 5, when the characteristic function of the neuron (1) is Y=1/{1+exp(-wX+θ)}, the connection Approximate the membership function with a neuron characteristic function by determining the weight w and threshold θ as w=-5.3605/(ba-a) θ=-2.6802(a+b)/(ba-a) A method for constructing membership functions using a neural network.
【請求項7】請求項5記載のニューラルネットワークに
よるメンバシップ関数の構成方式に於いて、前記ニュー
ロン(1)の特性関数を、 Y=0.5+0.5tanh(wX−θ)とする時、結
線の重み及び閾値θを、 w=−2.6802/(b−a) θ=−1.3401(a+b)/(b−a)と決めるこ
とにより前記メンバシップ関数をニューロンの特性関数
で近似することを特徴とするニューラルネットワークに
よるメンバシップ関数の構成方式。
7. In the method of configuring a membership function using a neural network according to claim 5, when the characteristic function of the neuron (1) is Y=0.5+0.5tanh(wX−θ), the connection By determining the weight and threshold θ as w=-2.6802/(ba-a) θ=-1.3401(a+b)/(ba-a), the membership function is approximated by the characteristic function of the neuron. A method of constructing membership functions using a neural network, which is characterized by the following.
JP3035985A 1991-03-01 1991-03-01 Construction system for membership function by neural network Pending JPH04275633A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3035985A JPH04275633A (en) 1991-03-01 1991-03-01 Construction system for membership function by neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3035985A JPH04275633A (en) 1991-03-01 1991-03-01 Construction system for membership function by neural network

Publications (1)

Publication Number Publication Date
JPH04275633A true JPH04275633A (en) 1992-10-01

Family

ID=12457162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3035985A Pending JPH04275633A (en) 1991-03-01 1991-03-01 Construction system for membership function by neural network

Country Status (1)

Country Link
JP (1) JPH04275633A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241684A (en) * 2006-03-09 2007-09-20 Kyushu Institute Of Technology Function computing unit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241684A (en) * 2006-03-09 2007-09-20 Kyushu Institute Of Technology Function computing unit
JP4625961B2 (en) * 2006-03-09 2011-02-02 国立大学法人九州工業大学 Function calculator

Similar Documents

Publication Publication Date Title
Gotmare et al. Nonlinear system identification using a cuckoo search optimized adaptive Hammerstein model
JPH04290155A (en) Parallel data processing system
JPH04275633A (en) Construction system for membership function by neural network
JPH076146A (en) Parallel data processing system
JPH04275634A (en) Construction system for membership function by neural network
JPH04275630A (en) Construction system for membership function by neural network
JPH04275629A (en) Construction system for membership function by neural network
JPH04275632A (en) Construction system for medium type membership function by neural network
JP3137996B2 (en) Neural network using membership function and its learning method
JPH04275631A (en) Construction system for medium type membership function by neural network
JP2763371B2 (en) Hierarchical network configuration fuzzy controller
JP2763370B2 (en) Hierarchical network configuration fuzzy controller
JP3328953B2 (en) Nonlinear synaptic neuron, device thereof and prediction method using the same
JP3417574B2 (en) Neuron element for fuzzy logic operation
JPH02309447A (en) Method for learning mutual connection type neural network
JP2606663B2 (en) Common weight-sum-product calculation network and fuzzy inference apparatus using them
JP2559881B2 (en) Fuzzy controller
JP2559882B2 (en) Fuzzy controller
JPH03167655A (en) Neural network
JP2559877B2 (en) Fuzzy controller
JP2744313B2 (en) Network configuration data processing device
JP2517662B2 (en) Chain controller
JPH04330524A (en) Fuzzy control device using neural network
JPH04357528A (en) Fuzzy controller using neural network
JPH06161983A (en) Pattern matching system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010206