JPH04275632A - ニューラルネットワークによるミディアム型メンバシップ関数の構成方式 - Google Patents

ニューラルネットワークによるミディアム型メンバシップ関数の構成方式

Info

Publication number
JPH04275632A
JPH04275632A JP3035984A JP3598491A JPH04275632A JP H04275632 A JPH04275632 A JP H04275632A JP 3035984 A JP3035984 A JP 3035984A JP 3598491 A JP3598491 A JP 3598491A JP H04275632 A JPH04275632 A JP H04275632A
Authority
JP
Japan
Prior art keywords
neuron
layer
membership function
function
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3035984A
Other languages
English (en)
Inventor
Nobuo Watabe
信雄 渡部
Akira Kawamura
旭 川村
Ryusuke Masuoka
竜介 益岡
Arimichi Oowada
大和田 有理
Kazuo Asakawa
浅川 和雄
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to JP3035984A priority Critical patent/JPH04275632A/ja
Publication of JPH04275632A publication Critical patent/JPH04275632A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ファジイ制御における
ミディアム型のメンバシップ関数をニューロンの階層ネ
ットワークで実現することを可能とするニューラルネッ
トワークによるミディアム型メンバシップ関数の構成方
式に関する。数式モデルを立てられないプラント制御な
どの分野では、従来、ファジイ制御が適用されてきたが
、最近ニューラルネットワークによる制御が開発工数、
精度、調整のしやすさで注目されている。しかし、ニュ
ーラルネットワークは学習によりメンバシップ関数を近
似するニューロン特性関数に調整する必要があり、学習
に時間がかかると共に、バックプロゲーション法等の学
習方法により関数近似の状態が決ってしまうので、この
ような学習法に制約されずにメンバシップ関数を近似す
るニューロン特性関数を得ることが望まれる。
【0002】
【従来の技術】図13に、従来のミディアム型のメンバ
シップ関数を用いたファジイ制御の概略を示す。ここで
は、入力変数X1、X2と、出力変数Yを用いる。 ルール1;if  X1  is  medium  
then  Y  is  large ルール2;if  X2  is  large   
 then  Y  is  small とすると、図13(a)のように、入力変数X1の実際
の値がmediumに属している割合(帰属度)をルー
ル1の適合度とし、図13(b)に示すように入力変数
X2の実際の値がlarge に属している割合をルー
ル2の適合度とする。また各ルール1,2に於ける出力
変数Yのメンバシップ関数を図13(c)(d)に示す
ように、それぞれlarge,small とする。
【0003】従って、入力変数X1,X2の任意の入力
値に対するファジイ制御の出力は、図13(c)(d)
のメンバシップ関数large,small に図13
(a)(b)のルール1,2の各々の適合度を乗じたも
のを重ね合わせてできた図13(e)の図形の重心とな
る。
【0004】
【発明が解決しようとする課題】ところで、ファジイ制
御は理解しやすい少数のルールで制御できるという長所
を有するが、反面、出来上がったものの調整が難しいと
いう問題がある。そこで、学習により自動調整が可能な
ニューラルネットワークにメンバシップ関数を置き換え
ることを考える。
【0005】図14に図13(a)に示したメンバシッ
プ関数mediumのニューラルネットワークによる表
現例を示す。このネットワークは図14(a)に示すよ
うに、第1層の入力ユニット10、第2層の2つのニュ
ーロン20,21及び第3層のニューロン30で構成さ
れる。各ニューロンの特性は図14(c)に示すように
、第1層目の入力ユニット10は入力を2分岐してその
まま出力する。第2層目の2つのニューロン20,21
は非線形特性関数としてexp又はtanh表現された
シグモイド関数を有し、入力に非線形の閾値処理を施し
て出力する。第3層目は線形関数を有し、例えば第2層
目のニューロン20,21からの入力X1,X2の和か
ら1を引いた値を出力する。
【0006】このような3層ネットワークにより図14
(a)に示すように、入力変数Xの実際の値を入力し、
メンバシップ関数mediumを近似する帰属度Yを出
力する。図15はメンバシップ関数mediumを近似
するニューラルネットワークにおける各ニューロンの結
線の重み及び閾値を具体的に示す。図14(a)に示す
ように、第2,3層目のニューロン20,21,30に
次のように重み及び閾値が設定される。
【0007】                          
     重み          閾値  第2層目
ニューロン20    w1>0        θ1
>0  第2層目ニューロン21    w2<0  
      θ2<0  第3層目ニューロン30  
  w3=1        θ3=1       
                     w4=1
  即ち、ニューロン20は図15(b)に示すように
メンバシップ関数largeを近似し、またニューロン
21は破線のメンバシップ関数smallを近似する。 ニューロン20,21の出力はニューロン30で加算さ
れて図15(c)の特性となり、更に1を引くことで図
15(d)に示すメンバシップ関数mediumの近似
特性が得られる。
【0008】図16はメンバシップ関数mediumを
近似するニューラルネットワークの他の例を示す。この
図16(a)のネットワークにあっては、第2,3層目
のニューロン20,21,30に次のように重み及び閾
値が設定される。                          
     重み          閾値  第2層目
ニューロン20    w1>0        θ1
>0  第2層目ニューロン21    w2>0  
      θ2>0  第3層目ニューロン30  
  w3=1        θ3=0       
                     w4=−
1  図15と対比すると、図15の重みw1,w2及
び閾値θ1,θ2が異符号であるのに対し、図16では
同符号となっている。また図15でニューロン30は加
算であるのに対し図15では減算となっている。
【0009】即ち、図16(b)に示すように、ニュー
ロン20,21は特性の異なる同じメンバシップ関数s
mall−1,2(勿論、メンバシップ関数large
でもよい)を近似する。ニューロン20,21の出力は
ニューロン30で減算され、図16(c)に示すメンバ
シップ関数mediumの近似特性が得られる。メンバ
シップ関数をニューラルネットワークで表現するために
従来用いられてきた手法は、まずメンバシップ関数で多
くの教師信号を作成し、教師信号を使ってニューラルネ
ットワークに、例えばバックプロパゲーションで学習さ
せるというものであった。
【0010】図17に、入力変数Xを0.05きざみ取
った場合の入出力関係を示し、これを教師信号として用
いる。この入出力関係の教師信号は図18にプロットし
たメンバシップ関数mediumから得られている。図
17の教師信号を10万回学習させた結果を図19に示
す。図19の(11)(12)に示すように、10万回
の学習により 第2層目ニューロン20    w1=27.4287
11θ1=5.485722 第2層目ニューロン21    w2=−27.421
846θ2=−21.937473 となっている。
【0011】尚、図19において、他の要素は次の内容
となる。 (1)ネットワーク構造が1層の1ニューロユニットで
あることを示す。 (2)学習定数ε=5を示す。 (3)モーメンタムα=0.4を示す。 (4)定数β=0を示す。
【0012】(5)許容誤差=0.1を示す。 (6)学習可能最大回数100000回を示す。 (7)シグモイド関数として与えられる出力値の範囲0
〜1を示す。 (8)重み及び閾値を初期設定するための乱数表の表番
号を示す(実際には乱数発生関数に与えるseeds)
【0013】(9)学習で得られたニューロユニット2
0,21,30の重みwの値を示す。 (10)学習で得られたニューロユニット20,21,
30の−θの値を示す。 (11)ニューロユニットの重み学習の有無を1,0で
示す。 (12)ニューロユニットの閾値学習の有無を1,0で
示す。
【0014】(13)学習対象とする結線を示す。 (14)学習対象とする閾値を示す。 (15)シグモイド関数とするか、線形関数とするかと
するかを決める。 (16)学習を100000回数行ったことを示す。 (17) 何回の学習毎にモニタするかを示す。
【0015】図19の学習結果をグラフにすると、図2
0に示すように、メンバシップ関数mediumにネッ
トワーク特性関数が、よい近似となっていることが分か
る。ところで、ニューラルネットワークの学習に使用す
るバックプロパゲーション法は、教師信号に対して誤差
の二乗和を最小にする解を探索する。しかし、メンバシ
ップ関数を近似する際に、人間が望むものが誤差の二乗
和最小とは限らない。例えば、入力の変位に対する出力
の変位の最大値をメンバシップ関数の傾きに合わせたい
とか、つまり感度の上限を明確にするとか、誤差の絶対
値の和を最小にしたいとか、最大誤差を最小にしたいな
どがある。
【0016】しかし、バックプロパゲーション法では、
メンバシップ関数に対しニューロン特性関数を近似させ
る際の意味を様々に変えることができないという不具合
があった。またバックプロパゲーション法で誤差の二乗
和を最小とする近似を行う場合にも、10万回にも及ぶ
学習が必要であった。本発明は、このような従来の問題
点に鑑みてなされたもので、学習を必要とすることなく
、ニューラルネットワーク特性関数とミディアム型のメ
ンバシップ関数との最大誤差を最小とするように近似さ
せることのできるニューラルネットワークによるミディ
アム型メンバシップ関数構成方式を提供することを目的
とする。
【0017】
【課題を解決するための手段】図1は本発明の原理説明
図である。まず本発明は、入力Xと出力Yとの間に、a
,b,b,c,dを正の定数として、      X≦
a−b−cの時、          Y=0    
  a−b−c<X≦a−bの時、  Y={X−(a
−b−c)}/c      a−b<X≦a+dの時
、      Y=1      a+d<X≦a+d
+eの時、  Y=−{X−(a+d+e)}/e  
    a+d+e<Xの時、          Y
=0の関係があるメンバシップ関数mediumを、入
力値をそのまま2分岐して出力する第1層の1個の入力
ユニット10と、第1層の入力ユニット10からの入力
値に非線形特性関数(シグモイド関数特性)による閾値
処理を施して出力する第2層の2個のニューロン20,
21と、第2層のニューロン20,21の出力の和から
1を引いた値を出力する第3層の1個のニューロン30
とを備えた階層ネットワークで近似するニューラットワ
ークによるミディアム型メンバシップ関数の構成方式を
対象とする。
【0018】このニューラルネットワークはメンバシッ
プ関数largeとsmallの和から1を引いたメン
バシップ関数を近似する。このようなニューラルネット
ワークによるミディアム型メンバシップ関数の構成方式
につき本発明にあっては、階層ネットワークによる特性
関数とメンバシップ関数mediumとの最大誤差を最
小とするように第2層の第1及び第2ニューロン20,
21の特性関数を設定したことを特徴とする。
【0019】具体的には、第2層の第1ニューロン20
のシグモイド関数の最大の傾きをメンバシップ関数me
diumの一方の傾きである1/cの1.412倍にす
ると共に、第2ニューロン21のシグモイド関数の絶対
値最大傾きをメンバシップ関数mediumの他方の傾
きである−1/eの1.412倍とする。更に具体的に
に説明すると、第2層のニューロン20,21の特性関
数を、 Y=1/{1+exp(−wX+θ)}とする時、第1
ニューロン20の結線の重みw1及び閾値θ1を w1=5.468/c θ1=2.824(2a−2b−c)/cと決め、第2
ニューロン20の結線の重みw2及び閾値θ2を w2=−5.468/e θ2=−2.824(2a+2d+e)/eと決める。
【0020】また第2層のニューロン20,21の特性
関数は、 Y=0.5+0.5tanh(wX−θ)で近似できる
ことから、この時には第1ニューロン20の結線の重み
w1及び閾値θ1を w1=2.824/c θ1=1.412(2a−2b−c)/cと決め、第2
ニューロン21の結線の重みw2及び閾値θ2を w2=−2.824/e θ2=−1.412(2a+2d+e)/eと決める。
【0021】一方、入力Xと出力Yとの間に、a,b,
b,c,dを正の定数として、       X≦a−b−cの時、         
 Y=0      a−b−c<X≦a−bの時、 
 Y={X−(a−b−c)}/c      a−b
<X≦a+dの時、      Y=1      a
+d<X≦a+d+eの時、  Y=−{X−(a+d
+e)}/e      a+d+e<Xの時、   
       Y=0の関係があるメンバシップ関数を
、入力値をそのまま2分岐して出力する第1層の1個の
入力ユニット10と、第1層の入力ユニット10からの
入力値に非線形特性関数による閾値処理を施して出力す
る第2層の2個のニューロン20,21と、第2層のニ
ューロン20,21の出力の差を出力する第3層の1個
のニューロン30とを備えた階層ネットワークで近似す
るニューラットワークによるミディアム型メンバシップ
関数の構成方式をも対象とする。
【0022】このネットワークは特性の異なる2つのメ
ンバシップ関数small(largeでもよい)の差
で得られるメンバシップ関数mediumを近似するも
のである。この場合にも、階層ネットワークによる特性
関数とメンバシップ関数mediumとの最大誤差を最
小とするように第2層の第1及び第2ニューロン20,
21の特性関数を設定したことを特徴とする。
【0023】具体的には、第2層の第1ニューロン20
の特性関数の最大の傾きをメンバシップ関数mediu
mの一方の傾きである1/cの1.412倍にすると共
に、第2ニューロン21の特性関数の最大の傾きをメン
バシップ関数mediumの他方の傾きである1/eの
1.412倍に設定する。更に具体的に説明すると、第
2層のニューロン20,21の特性関数を、Y=1/{
1+exp(−wX+θ)}とする時、第1ニューロン
20の結線の重みw1及び閾値θ1を w1=5.468/c θ1=2.824(2a−2b−c)/cと決め、第2
ニューロン20の結線の重みw2及び閾値θ2を w2=5.468/e θ2=2.824(2a+2d+e)/eと決める。
【0024】また第2層のニューロン20,21のシグ
モイド関数は、 Y=0.5+0.5tanh(wX−θ)で近似できる
ことから、この時には第1ニューロン20の結線の重み
w1及び閾値θ1を w1=2.824/c θ1=1.412(2a−2b−c)/cと決め、第2
ニューロン21の結線の重みw2及び閾値θ2を w2=2.824/e θ2=1.412(2a+2d+e)/eと決める。
【0025】
【作用】このような構成を備えた本発明のニューラルネ
ットワークによるミディアム型メンバシップ関数の構成
方式によれば、メンバシップ関数mediumとネット
ワーク特性関数との最大誤差を最小とする近似を学習を
行うことなく一義的に得ることができる。
【0026】更に、バックプロパゲーション法のような
学習を行わなくてよいので、計算量を大幅に低減できる
【0027】
【実施例】図2はミディアム型メンバシップ関数を近似
する本発明の一実施例を示したニューラルネットワーク
の実施例構成図である。図2において、ニューラルネッ
トワークは第1層目の入力ユニット10と、第2層目の
2つのニューロン20,21(第1,第2のニューロン
)と、第3層目のニューロン30でなる階層ネットワー
クで構成される。第1層目の入力ユニット10は、入力
信号Xをそのまま2分岐して出力する。
【0028】2層目のニューロンは非線形関数としてシ
グモイド関数を有し、結線の重みw1,w2と閾値θ1
,θ2とに基づいた閾値処理を施す。具体的にはニュー
ロン20にはメンバシップ関数largeを近似するよ
うに重みw1と閾値θ1が設定され、またニューロン2
1にはメンバシップ関数smallを近似するように重
み−w2及び閾値−θ2が設定されている。ここでw1
,w2,θ1,θ2は正の値とする。
【0029】第3層目のニューロンは、w3=w4=1
及び閾値θ3=1とした線形関数を有する所謂線形ニュ
ーロンであり、第2層目からの2つの入力の和から1を
引いた信号Yを出力する。この図2の実施例によるメン
バシップ関数mediumの近似は、図15に示したの
と同じである。
【0030】図3は図2のニューラルネットワークで近
似するメンバシップ関数mediumの一例を示す。こ
のメンバシップ関数は入力変数Xの座標値aを基準とし
た各点の距離をb,c,d,eとすると、次のように表
現できる。但し、a〜eは正の定数である。       X≦a−b−cの時、         
 Y=0      a−b−c<X≦a−bの時、 
 Y={X−(a−b−c)}/c      a−b
<X≦a+dの時、      Y=1      a
+d<X≦a+d+eの時、  Y=−{X−(a+d
+e)}/e      a+d+e<Xの時、   
       Y=0  尚、図3のメンバシップ関数
mediumは、a点に対し左右が非対象となった場合
を示しているが、図4に示すように対象となった場合は
、d=b、e=cと置くことで、       X≦a−b−cの時、         
 Y=0      a−b−c<X≦a−bの時、 
 Y={X−(a−b−c)}/c      a−b
<X≦a+bの時、      Y=1      a
+b<X≦a+b+cの時、  Y=−{X−(a+b
+c)}/c      a+b+c<Xの時、   
       Y=0と表現できる。
【0031】このような図3のメンバシップ関数med
iumを本発明にあっては、図2のニューラルネットワ
ークの第2層のニューロン20,21に対する重みw1
,w2及び閾値θ1,θ2の設定で、学習を行うここと
なく一義的に近似することができる。即ち、本発明にあ
っては、第2層の第1ニューロン20のシグモイド関数
の最大傾きをメンバシップ関数mediumの上りの傾
きである1/cの1.412倍にすると共に、第2ニュ
ーロン21のシグモイド関数の最大の傾きをメンバシッ
プ関数mediumの下りの傾きである−1/eの1.
412倍に設定するように重みw1,w2と閾値θ1,
θ2を決める。
【0032】具体的には、第2層のニューロン20,2
1の特性関数を、   Y=1/{1+exp(−wX+θ)}     
                       (1
)とする時、ニューロン20の結線の重みw1及び閾値
θ1を   w1=5.468/c   θ1=2.824(2a−2b−c)/c    
                      (2)
と決める。またニューロン20の結線の重みw2及び閾
値θ2を   w2=−5.468/e   θ2=−2.824(2a+2d+e)/e   
                     (3)と
決める。また(1)式で示されるニューロン20,21
のメンバシップ関数は   Y=0.5+0.5tanh(wX−θ)    
                      (4)
と表現することができる。この時には、ニューロン20
の結線の重みw1及び閾値θ1を   w1=2.824/c   θ1=1.412(2a−2b−c)/c    
                      (5)
と決め、ニューロン21の結線の重みw2及び閾値θ2
を   w2=−2.824/e   θ2=−1.412(2a+2d+e)/e   
                     (6)と
決める。
【0033】次に、ネットワーク特性関数の最大傾きを
メンバシップ関数mediumの傾きの1.412倍と
することで両者の最大誤差を最小にできることを説明す
る。まずメンバシップ関数mediumにおける上り勾
配部分はメンバシップ関数largeで表現され、
【0
034】
【数1】
【0035】と表現できる。一方、シグモイド関数をY
=tanh(wX) で近似することを考える。これを図5に示す。図5にお
いて、2つの関数の第1象限の交点のx座標の値をsと
置くと、 s=tanh(ws) 、即ち、
【0036】
【数2】
【0037】である。ここで誤差が最大となる点は、変
曲点X0又は1のうちのどちらかである。但し、0<X
0<sである。ここでX=X0は、
【0038】
【数3】
【0039】を満たす点である。即ち、
【0040】
【数4】
【0041】で表わされる点である。この時の誤差は次
のようになる。
【0042】
【数5】
【0043】次にX=1の時の誤差は、1−atnh(
w) である。この2つの関数はw>0の範囲で前者が単調増
加、後者が単調減少であり、誤差が最小となるwは、

0044】
【数6】
【0045】で与えられる。従って、最大誤差を最小と
するwを小数点以下3桁までを有効として近似解法によ
り求めると、 w=1.412 が得られる。ここで図5のメンバシップ関数の上り坂の
部分をf(x)とすると、tanhとの間に次の近似関
係がある。
【0046】
【数7】
【0047】この関係からニューロン20に対する重み
及び閾値として、   w=2.824/c   θ=1.412(2a−2b−c)/c     
                     (7)が
求まる。また同様にしてメンバシップ関数の下り坂の部
分については次の近似関係がある。
【0048】
【数8】
【0049】一方、メンバシップ関数mediumを前
記(1)式のようにexpで表わした場合にも同様にし
て求められるが、簡単に求めるには、
【0050】
【数9】
【0051】であることを利用して、前記(7)式の結
果から、 w/2=(2×1.412)/c θ/2=1.412×(2a−2b−c)/cが得られ
、従って、ニューロン20の重み及び閾値として w=5.468/c θ=2.824(2a−2b−c)/cが求められる。
【0052】下り坂部分についても同様にしてw/2=
−(2×1.412)/e θ/2=−1.412×(2a+2d+e)/eが求め
られ、従って、ニューロン21の結線の重み及び閾値を w=−5.468/e θ=−2.824(2a+2d+e)/eが求められる
【0053】図6は、メンバシップ関数mediumに
対する図2のニューラルネットワークによる特性関数に
よる近似状態を示す。図6のメンバシップ関数medi
umの各定数は、 a=0.5 b=c=d=e=0.2 である。従って、第1ニューロン20の重み及び閾値は
、 w1=27.34 θ1=5.648 として設定され、第2ニューロン21の重み及び閾値は
、 w2=−27.34 θ2=−22.592 として設定される。このようなニューロン20,21に
対する重み及び閾値の設定により図6に示すように、メ
ンバシップ関数とニューラルネットワーク特性関数の最
大誤差を最小とする近似ができる。
【0054】図7は本発明でメンバシップ関数medi
umとネットワーク特性関数との最大誤差を最小とする
近似を行う際の重みw及び閾値θを求める処理フロー図
を示す。図7において、まずステップS1で係数Fを決
める。係数Fは、シグモイド関数としてexpを使用す
る場合はF=2、tanhを使う場合はF=1にセット
する。続いてステップS2でメンバシップ関数の属性を
決める正の定数a〜eを読み込む。
【0055】次にステップS3で第2層の第1ニューロ
ン20の重みw1を算出し、更にステップS4で第2層
の第2ニューロン21の重みw2を算出する。続いてス
テップS5で第2層目の第1ニューロン20の重みθ1
を算出し、最終的にステップS6で第2層目の第2ニュ
ーロン21の重みθ2を算出し、更にS7,S8,S9
でw3=1,w4=1及びθ3=1を設定して処理を終
える。
【0056】図8は本発明で用いるニューロンを実現す
るニューロユニットの実施例構成図である。図8におい
て、ニューロユニット100は5入力1出力を例にとっ
ている。ニューロユニット100には乗算処理部12が
設けられ、乗算処理部12は例えば入力信号X1〜X5
に対し各々内部結合の重みw1,w2,・・・,w5を
乗算する乗算部12−1〜12−5を備える。尚、入力
の選択は、使用する入力結線及び重みのみを有効とし、
他は無視すればよい。。
【0057】13は累積処理部であり、乗算処理部12
から出力される全ての乗算結果X1w1〜X5w5を加
算する。14は閾値処理部であり、累積処理部13から
の累積値に例えばS字関数としてのシグモイド関数(ニ
ューロン特性関数)を使用して非線形の閾値処理を行う
。図9は図8のニューロユニット100の具体的な実施
例構成図であり、対応する部分は同じ番号を使用してい
る。
【0058】図9において、12は乗算型D/Aコンバ
ータ、13は累積処理部であり、アナログ加算器13a
及び保持回路13bを備える。14は閾値処理部、15
は出力保持部、16は出力スイッチ部、17は入力スイ
ッチ部、18は重み保持部、19は制御回路である。入
力スイッチ部17は入力信号X1〜X5が順次入力され
るもので、入力信号X1〜X5の入力タイミングに同期
してオン制御される。
【0059】また入力信号X1〜X5の入力タイミング
に応じて重み信号w1〜w5が伝達される。具体的には
制御回路19により重み入力制御信号が順次レシーバ2
0に出力され、レシーバ22を経由して重み信号w1〜
w5が重み保持部18に順次送出される。その結果、乗
算型D/Aコンバータ12において乗算値X1w1,X
2w2,・・・X5w5が順次演算される。
【0060】累積処理部13の保持回路13bは初期状
態で零にクリアされているため、最初に得られた乗算値
X1w1が保持回路13bの零とアナログ加算器13a
で加算され、得られた加算値X1w1が保持される。次
に乗算値X2w2が入力されるとアナログ加算器13a
は保持回路13bに保持されたX1w1と新たに入力し
たX2w2を加算し加算値(X1w1+X2w2)を保
持回路に保持する。以下同様にして累積値YがY=X1
w1+X2w2+・・・X5w5として演算される。
【0061】累積処理部13における累積処理が終了し
たとき、制御回路18は演算制御信号を出力し、これに
応じて閾値処理部14が累積値Yの閾値処理を行い、得
られた出力Yを出力保持部15で一時的に保持する。続
いて制御回路19は出力制御信号を出力し、出力スイッ
チ16がオンして出力保持部15に保持された出力値Y
が外部に出力される。
【0062】図10は本発明で用いる階層ネットワーク
の具体的な実施例構成図を3層ネットワークを例にとっ
て示したもので、図9に示したニューロユニット100
を使用して構成する。図10において、110はアナロ
グバスであり、入力層を構成するニューロユニット10
0h、中間層を構成するニューロユニット100i、出
力層を構成するニューロユニット100jを図示のよう
に接続する。101は図9の重み保持部18に重み値を
与える重み出力回路、102は入力層を構成するニュー
ロユニット100hに対する入力信号を保持する入力信
号保持回路、103はデータ転送の制御信号である同期
制御信号を伝送する同期制御信号線、104は階層ネッ
トワークを総合的に制御する主制御部である。
【0063】尚、入力層のニューロユニット100hの
重み値は1であり、このためニューロユニット100h
の重み出力回路101にはいずれも数値1が格納されて
いる。このニューラルネットワークにつき本発明にあっ
ては、図2に示したように、第1層目の1つ、第2層目
の2つ、及び第3層目の1つのニューロユニットを使用
してメンバシップ関数mediumを近似する。
【0064】図11は本発明の他の実施例を示した実施
例構成図であり、第2層目の2つのニューロンで同じメ
ンバシップ関数large又はsmallを近似して最
終的にメンバシップ関数mediumを近似するように
したことを特徴とする。即ち、図11の実施例にあって
は、図2の実施例と同様に、ニューロン10,20,2
1,30でなる3層構造であり、第2層目の第1ニュー
ロン20と第2ニューロン21の重みw1,w2及び閾
値θ1,θ2は同符号となる。このネットワークは図1
5に示したようにしてメンバシップ関数mediumを
近似する。
【0065】図11の実施例において、図3に示したメ
ンバシップ関数とネットワーク特性関数の最大誤差を最
小とするには、第2層の第1ニューロン20の特性関数
の最大の傾きをメンバシップ関数mediumの昇りの
傾きである1/cの1.412倍にすると共に、第2ニ
ューロン21の特性関数の最大の傾きをメンバシップ関
数mediumの下り傾きである1/eの1.412倍
に設定する。
【0066】具体的には、第2層のニューロン20,2
1の特性関数を、 Y=1/{1+exp(−wX+θ)}とする時、第1
ニューロン20の結線の重みw1及び閾値θ1を   w1=5.468/c   θ1=2.824(2a−2b−c)/c    
                    (8)と決
め、第2ニューロン20の結線の重みw2及び閾値θ2
を   w2=5.468/e   θ2=2.824(2a+2d+e)/e    
                    (9)と決
める。
【0067】また第2層のニューロン20,21の特性
関数を、 Y=0.5+0.5tanh(wX−θ)で近似した場
合には、第1ニューロン20の結線の重みw1及び閾値
θ1を   w1=2.824/c   θ1=1.412(2a−2b−c)/c    
                    (10)と
決め、第2ニューロン21の結線の重みw2及び閾値θ
2を   w2=2.824/e   θ2=1.412(2a−2d−e)/e    
                    (11)と
決めればよい。
【0068】図12は図11の実施例でメンバシップ関
数mediumとネットワーク特性関数との最大誤差を
最小とする近似を行う際の重みw及び閾値θを求める処
理フロー図を示す。図12において、まずステップS1
で係数Fを決める。係数Fは、シグモイド関数としてe
xpを使用する場合はF=2、tanhを使う場合はF
=1にセットする。続いてステップS2でメンバシップ
関数の属性を決める正の定数a〜eを読み込む。
【0069】次にステップS3で第2層の第1ニューロ
ン20の重みw1を算出し、更にステップS4で第2層
の第2ニューロン21の重みw2を算出する。続いてス
テップS5で第2層目の第1ニューロン20の重みθ1
を算出し、最終的にステップS6で第2層目の第2ニュ
ーロン21の重みθ2を算出し、更にS7,S8,S9
でw3=1,w4=−1及びθ3=0を設定して処理を
終える。
【0070】尚、上記の実施例にあっては、ネットワー
ク特性関数の最大傾きをメンバシップ関数medium
の傾きの1.412倍とした場合を例にとっているが、
精度を要求しない場合には、1.41倍、1.4倍等と
有効数字を減らせばよく、また精度を上げたければ有効
数字を増やせばよく、1.412倍に限定されるもので
はない。
【0071】
【発明の効果】以上説明したように本発明によれば、今
まで学習で決めていたミディアム型のメンバシップ関数
のニユーラルネットワークによる近似を、重み及び閾値
の設定で学習なしに求めることができる。更に、メンバ
シップ関数medumiに対するネットワーク特性関数
の最大誤差を最小とする近似が簡単にできる。
【図面の簡単な説明】
【図1】本発明の原理説明図
【図2】本発明のニューラルネットワークの実施例構成
【図3】本発明で実現するメンバシップ関数mediu
mを示した説明図
【図4】本発明で実現する対象型のメンバシップ関数m
ediumを示した説明図
【図5】本発明による最大誤差を最小とする近似を証明
するための説明図
【図6】本発明のによる特性関数とメンバシップ関数の
近似結果の説明図
【図7】本発明による重み及び閾値の算出処理を示した
処理フロー図
【図8】本発明に用いるニューロユニットの実施例構成
【図9】図8のニューロユニットの具体的な実施例構成
【図10】本発明に用いる階層ネットワークの実施例構
成図
【図11】本発明のニューラルネットワークの他の実施
例構成図
【図12】図11の実施例による重み及び閾値の算出処
理を示した処理フロー図
【図13】従来のミディアム型メンバシップ関数を含む
ファジイ制御の概略説明図
【図14】ニューロンによるメンバシップ関数medi
umの表現説明図
【図15】図14を実現するネットワーク説明図
【図1
6】図14を実現する他のネットワーク説明図
【図17
】メンバシップ関数mediumから得られた教師信号
の説明図
【図18】図17の教師信号を求めたメンバシップ関数
mediumの説明図
【図19】ニューロンの学習結果を示した説明図
【図2
0】メンバシップ関数mediumと学習済みニューロ
ンによる特性関数の近似状態を示した説明図
【符号の説明】
10::入力ユニット(第1層目) 12:乗算処理部(乗算型ADコンバータ)13:累積
処理部 14:閾値処理部 15:出力保持部 16:出力スイッチ部 17:入力スイッチ部 18:重み保持部 19:制御部 20:第1ニューロン(第2層目) 21:第2ニューロン(第2層目) 22:レシーバ 30:ニューロン(第3層目) 100:ニューロユニット

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】入力Xと出力Yとの間に、a,b,b,c
    ,dを正の定数として、       X≦a−b−cの時、         
     Y=0      a−b−c<X≦a−bの時、 
     Y={X−(a−b−c)}/c      a−b
    <X≦a+dの時、      Y=1      a
    +d<X≦a+d+eの時、  Y=−{X−(a+d
    +e)}/e      a+d+e<Xの時、   
           Y=0の関係があるメンバシップ関数を
    、入力値をそのまま2分岐して出力する第1層の1個の
    入力ユニット(10)と、該第1層の入力ユニット(1
    0)からの入力値に非線形特性関数による閾値処理を施
    して出力する第2層の2個のニューロン(20,21)
    と、第2層のニューロン(20,21)の出力の和から
    1を引いた値を出力する第3層の1個のニューロン(3
    0)とを備えた階層ネットワークで近似するニューラル
    ネットワークによるミディアム型メンバシップ関数の構
    成方式に於いて、前記階層ネットワークによる特性関数
    と前記メンバシップ関数との最大誤差を最小とするよう
    に前記第2層の第1及び第2ニューロン(20,21)
    の特性関数を設定したことを特徴とするニューラルネッ
    トワークによるミディアム型メンバシップ関数の構成方
    式。
  2. 【請求項2】請求項1記載のニューラルネットワークに
    よるミディアム型メンバシップ関数の構成方式に於いて
    、前記第2層の第1ニューロン(20)の特性関数の最
    大の傾きを前記メンバシップ関数の一方の傾きである1
    /cの1.412倍にすると共に、第2ニューロン(2
    1)の特性関数の絶対値最大傾きを前記メンバシップ関
    数の他方の傾きである−1/eの1.412倍にしたこ
    とを特徴とするニューラルネットワークによるミディア
    ム型メンバシップ関数の構成方式。
  3. 【請求項3】請求項2記載のニューラルネットワークに
    よるミディアム型メンバシップ関数の構成方式に於いて
    、前記第2層のニューロン(20,21)の特性関数を
    、 Y=1/{1+exp(−wX+θ)}とする時、前記
    第1ニューロン(20)の結線の重みw1及び閾値θ1
    を w1=5.468/c θ1=2.824(2a−2b−c)/cと決め、前記
    第2ニューロン(20)の結線の重みw2及び閾値θ2
    を w2=−5.468/e θ2=−2.824(2a+2d+e)/eと決めたこ
    とを特徴とするニューラルネットワークによるミディア
    ム型メンバシップ関数の構成方式。
  4. 【請求項4】請求項1記載のニューラルネットワークに
    よるミディアム型メンバシップ関数の構成方式に於いて
    、前記第2層のニューロン(20,21)の特性関数を
    、 Y=0.5+0.5tanh(wX−θ)とする時、前
    記第1ニューロン(20)の結線の重みw1及び閾値θ
    1を w1=2.824/c θ1=1.412(2a−2b−c)/cと決め、前記
    第2ニューロン(21)の結線の重みw2及び閾値θ2
    を w2=−2.824/e θ2=−1.412(2a+2d+e)/eと決めたこ
    とを特徴とするニューラルネットワークによるミディア
    ム型メンバシップ関数の構成方式。
  5. 【請求項5】入力Xと出力Yとの間に、a,b,b,c
    ,dを正の定数として、       X≦a−b−cの時、         
     Y=0      a−b−c<X≦a−bの時、 
     Y={X−(a−b−c)}/c      a−b
    <X≦a+dの時、      Y=1      a
    +d<X≦a+d+eの時、  Y=−{X−(a+d
    +e)}/e      a+d+e<Xの時、   
           Y=0の関係があるメンバシップ関数を
    、入力値をそのまま2分岐して出力する第1層の1個の
    入力ユニット(10)と、該第1層の入力ユニット(1
    0)からの入力値に非線形特性関数による閾値処理を施
    して出力する第2層の2個のニューロン(20,21)
    と、第2層のニューロン(20,21)の出力の差を出
    力する第3層の1個のニューロン(30)とを備えた階
    層ネットワークで近似するニューラットワークによるミ
    ディアム型メンバシップ関数の構成方式に於いて、前記
    階層ネットワークによる特性関数と前記メンバシップ関
    数との最大誤差を最小とするように前記第2層の第1及
    び第2ニューロン(20,21)の特性関数を設定した
    ことを特徴とするニューラルネットワークによるミディ
    アム型メンバシップ関数の構成方式。
  6. 【請求項6】請求項5記載のニューラルネットワークに
    よるミディアム型メンバシップ関数の構成方式に於いて
    、前記第2層の第1ニューロン(20)の特性関数の最
    大の傾きを前記メンバシップ関数の一方の傾きである1
    /cの1.412倍にすると共に、第2ニューロン(2
    1)の特性関数の最大の傾きを前記メンバシップ関数の
    他方の傾きである−1/eの−1.412倍にしたこと
    を特徴とするニューラルネットワークによるミディアム
    型メンバシップ関数の構成方式。
  7. 【請求項7】請求項5記載のニューラルネットワークに
    よるミディアム型メンバシップ関数の構成方式に於いて
    、前記第2層のニューロン(20,21)の特性関数を
    、 Y=1/{1+exp(−wX+θ)}とする時、前記
    第1ニューロン(20)の結線の重みw1及び閾値θ1
    を w1=5.468/c θ1=2.824(2a−2b−c)/cと決め、前記
    第2ニューロン(20)の結線の重みw2及び閾値θ2
    を w2=5.468/e θ2=2.824(2a+2d+e)/eと決めたこと
    を特徴とするニューラルネットワークによるミディアム
    型メンバシップ関数の構成方式。
  8. 【請求項8】請求項5記載のニューラルネットワークに
    よるミディアム型メンバシップ関数の構成方式に於いて
    、前記第2層のニューロン(20,21)の特性関数を
    、 Y=0.5+0.5tanh(wX−θ)とする時、前
    記第1ニューロン(20)の結線の重みw1及び閾値θ
    1を w1=2.824/c θ1=1.412(2a−2b−c)/cと決め、前記
    第2ニューロン(21)の結線の重みw2及び閾値θ2
    を w2=2.824/e θ2=1.412(2a+2d+e)/eと決めたこと
    を特徴とするニューラルネットワークによるミディアム
    型メンバシップ関数の構成方式。
JP3035984A 1991-03-01 1991-03-01 ニューラルネットワークによるミディアム型メンバシップ関数の構成方式 Pending JPH04275632A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3035984A JPH04275632A (ja) 1991-03-01 1991-03-01 ニューラルネットワークによるミディアム型メンバシップ関数の構成方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3035984A JPH04275632A (ja) 1991-03-01 1991-03-01 ニューラルネットワークによるミディアム型メンバシップ関数の構成方式

Publications (1)

Publication Number Publication Date
JPH04275632A true JPH04275632A (ja) 1992-10-01

Family

ID=12457137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3035984A Pending JPH04275632A (ja) 1991-03-01 1991-03-01 ニューラルネットワークによるミディアム型メンバシップ関数の構成方式

Country Status (1)

Country Link
JP (1) JPH04275632A (ja)

Similar Documents

Publication Publication Date Title
KR950012380B1 (ko) 뉴로-퍼지 융합 데이터처리 시스템
CN111176758B (zh) 配置参数的推荐方法、装置、终端及存储介质
Carrillo-Santos et al. Wavenet identification of dynamical systems by a modified PSO algorithm
JPH04275632A (ja) ニューラルネットワークによるミディアム型メンバシップ関数の構成方式
JPH076146A (ja) 並列データ処理システム
JPH04275631A (ja) ニューラルネットワークによるミディアム型メンバシップ関数の構成方式
JPH04275633A (ja) メンバシップ関数の構成方法
JP2763370B2 (ja) 階層ネットワーク構成ファジィ制御器
JPH04275630A (ja) メンバシップ関数の構成方法
JP2763369B2 (ja) ファジィ制御ルールのチューニング方法
JP3137996B2 (ja) メンバシップ関数を用いたニューラルネットワーク及びその学習方式
JPH04291662A (ja) 階層ネットワーク構成演算素子
JP2744313B2 (ja) ネットワーク構成データ処理装置
JP2559877B2 (ja) ファジィ制御器
JP2559882B2 (ja) ファジィ制御器
JP2877413B2 (ja) 余剰ニューロン決定処理方式
JPH04275634A (ja) メンバシップ関数の構成方法
JPH05128082A (ja) 階層ネツトワーク構成データ処理装置とその学習処理方法
JPH04275629A (ja) メンバシップ関数の構成方法
JP2763366B2 (ja) 階層ネットワーク構成データ処理装置及びデータ処理システム
JPH02309447A (ja) 相互結合型ニューラルネットワークの学習方法
JP2763367B2 (ja) ファジィ制御ルールの生成方法
JPH04348453A (ja) ファジィ論理演算用ニューロン素子
JPH04357528A (ja) ニューラルネットワークを用いたファジィ制御装置
JPH04330524A (ja) ニューラルネットワークを用いたファジィ制御装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20010206