JPH0844569A - ファジィ・ニューラルネットワーク・システム - Google Patents

ファジィ・ニューラルネットワーク・システム

Info

Publication number
JPH0844569A
JPH0844569A JP6175805A JP17580594A JPH0844569A JP H0844569 A JPH0844569 A JP H0844569A JP 6175805 A JP6175805 A JP 6175805A JP 17580594 A JP17580594 A JP 17580594A JP H0844569 A JPH0844569 A JP H0844569A
Authority
JP
Japan
Prior art keywords
layer
input
rule
value
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6175805A
Other languages
English (en)
Other versions
JP3247803B2 (ja
Inventor
Takeshi Inoue
剛 井上
Teruhiko Matsuoka
輝彦 松岡
Takashi Aramaki
隆志 荒巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP17580594A priority Critical patent/JP3247803B2/ja
Priority to US08/451,977 priority patent/US5761384A/en
Publication of JPH0844569A publication Critical patent/JPH0844569A/ja
Application granted granted Critical
Publication of JP3247803B2 publication Critical patent/JP3247803B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/043Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Fuzzy Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】 【目的】 ニューラルネットワークにファジィ構造を取
り入れたファジィ・ニューラルネットワーク・システム
に関し、曖昧すぎる知識や、それから得られたファジィ
ルールにないサンプルデータを含んでいても正しく学習
ができるようなシステムを提供することにある。 【構成】 入力層と、メンバーシップ層前半部と、メン
バーシップ層後半部と、ルール層と、出力層とを備え、
入出力の項目数からネットワークを構築し、入力層およ
びメンバーシップ層は各入力値をそれぞれファジィ集合
の3領域に分割するように構成し、ルール層は3領域に
分割したものからそれぞれ1つづつを選びそれを2つの
入力項目のANDルールとするように構成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
クにファジィ構造を取り入れたファジィ・ニューラルネ
ットワーク・システムに関する。
【0002】
【従来の技術】従来のニューラルネットワークのシステ
ムは、例えば、図10に示すように、入力層I、中間層
H、出力層Oの3層からなる階層型ニューラルネットワ
ークを用いて、対象とする物の入力パターンPXと、そ
れに対応する出力パターンPYとで表されるサンプルデ
ータの入出力関係を正しくシミュレートできるように、
入力層Iおよび中間層H間の結合の重みWと、中間層H
および出力層O間の結合の重みVとを調整することを行
なっている。このような処理を行なうものとして代表的
なものにバックプロパゲーション法と呼ばれる処理方式
がある。
【0003】一方、ファジィ理論は、図11に示すよう
に、例えば「温度が27℃」であるという入力があった
とき、「温度が高い」、「温度が低い」といった人間の
曖昧な表現を数学的に表現する際に(図a)、従来の集
合では、ある閾値以上で温度が高く、別の閾値以下で温
度が低いというように「0」と「1」の2値でしか表現
できなかった(図b)。しかし、メンバーシップ関数を
導入したファジィ集合論を数学的基礎として「0」から
「1」までの実数で「温度が高い」度合い(例えば、
0.78)および「温度が低い」度合い(例えば、0.
27)を表現することで曖昧さを数値化するようにして
いる(図c)。
【0004】この理論を用いてファジィ制御というもの
が行われている。これは、例えばエキスパートの知識を
ファジィルールとして表し、様々な入力パターンからフ
ァジィ理論に基づいた計算により得られた出力値によっ
て制御を行うものである。
【0005】また、最近ではこれらを融合させたニュー
ロ・ファジィ融合システムが提案されている(例えば、
特開平5−224939号など)。これはエキスパート
の勘や経験から得られた知識をメンバーシップ関数とフ
ァジィルールの形式で抽出してファジィモデルを作成
し、ネットワークを構成するユニット間の結合やその結
合の重みをそのモデルに従って設定してニューラルネッ
トワークを構成するもので、例えば、図12に示すよう
な構成になっている。
【0006】ここでは、それぞれの入力に対してファジ
ィルールで使用するファジィ集合をネットワーク上に実
現している。この例では、前件部命題で入力値x1をB
ig,Middle ,Smallの3つのファジィ集合で表し、入
力値x2をBig,Smallの2つのファジィ集合で表して
いる。また、ルール部ではファジィルール数のユニット
を使用し、ファジィルールの前件部命題の出力をファジ
ィルールに沿って結合させている。この例ではルール1
として「x1がBigでx2がBigである」など、全部で
5つのルールを構成している。また、後件部命題に従い
ルールの出力値から後件部メンバーシップ関数を用いて
出力値を計算している。
【0007】
【発明が解決しようとする課題】従来のニューロ・ファ
ジィ融合システムでは、エキスパートの勘や経験から得
られた知識によってネットワークを構成するため、それ
が曖昧すぎる場合や間違っていた場合には、ネットワー
クが実際に欲している構造と違った構造になってしま
い、ニューラルネットワークの学習に時間がかかるだけ
でなく、うまく学習できなくなってしまうという不都合
がある。
【0008】また、学習させるサンプルデータが少ない
か、または局所的であり、そのサンプルデータが、構成
されたファジィルールにないようなデータの場合には学
習がうまくできないといった不都合がある。
【0009】本発明の目的は、このような曖昧すぎる知
識や、それから得られたファジィルールにないサンプル
データを含んでいても正しく学習ができるようなファジ
ィ・ニューラルネットワーク・システムを提供し、ま
た、そのネットワークの構造から曖昧な入出力関係を明
確にすることにある。
【0010】
【課題を解決するための手段】本発明によるファジィ・
ニューラルネットワーク・システムは、入力層と、メン
バーシップ層前半部と、メンバーシップ層後半部と、ル
ール層と、出力層とを備え、入出力の項目数からネット
ワークを構築する。
【0011】この場合、入力層およびメンバーシップ層
は、各入力値をそれぞれファジィ集合の3領域に分割す
るように構成し、ルール層は、3領域に分割したものか
らそれぞれ1つづつを選び、それを2つの入力項目のA
NDルールとするように構成する。
【0012】また、この場合、各層間の結合には全て重
みがあり、ネットワークの学習によって調整される重み
として、入力層とメンバーシップ層前半部との間の結合
の重み、メンバーシップ層前半部とメンバーシップ層後
半部との間の結合の重み、ルール層と出力層との間の結
合の重みがあり、他の結合の重みは全て固定値となるよ
うに構成する。
【0013】さらに、この場合、入力層とメンバーシッ
プ層前半部との間の結合の重みはメンバーシップ関数の
センター値であり、メンバーシップ層前半部とメンバー
シップ層後半部との間の結合の重みはメンバーシップ関
数の傾きであり、ルール層と出力層との間の結合の重み
は各ルールの重要度である。
【0014】
【作用】本発明は、対象物の入出力関係をファジィ集合
を持つ前件部命題と後件部命題とを有するファジィルー
ルと、これを定量化するために定義したメンバーシップ
関数との形で抽出してファジィモデルを作成すると共
に、ファジィモデルとは別に入出力の項目数だけからネ
ットワークを構成し、結合の重みをファジィモデルを基
に与えることによって構築されるファジィ・ニューラル
ネットワークを備えている。
【0015】したがって、本発明の構成によれば入出力
の項目数だけからネットワークを構成することが可能で
ある。そして、ネットワークを構成する際、各入力値を
Big,Middle ,Smallの3領域に分割するように構成
しているので、各入力値は必ず3つの領域のうち少なく
とも1つの領域には属することになる。これにより、エ
キスパートの知識から得たファジィルールにないような
サンプルデータが入ってきたときにも、ネットワーク上
のどこかのANDルールに必ず当てはまることになるの
で、ネットワークの学習により、そのサンプルデータに
対するルールの重要度がルール層から出力層への重みと
して表されるため、そのサンプルデータによって間違っ
た方向に学習を行い、誤差が大きくなるということを回
避できるだけでなく、サンプルデータからのファジィル
ールを得ることができる。
【0016】また、ネットワークの学習により、各入力
項目の寄与率がメンバーシップ関数の傾きを表す重みと
して表されるため、その重みから、どの入力項目の値を
振ると出力値が変化しやすいかがわかる。さらに、ネッ
トワークの学習により、各入力項目の正しい領域がメン
バーシップ関数のセンター値を表す重みとして表される
ため、その重みから、各入力項目の値を振るときにどの
範囲を振ると出力値が変化しやすいかがわかる。
【0017】また、複数の入力項目において、全入力項
目から2つを選び、それぞれの入力値から3つの領域分
割されたものより1領域づつを選んで、それらの論理積
を求めることによって2つの入力項目のANDルールを
構成するので、曖昧すぎるルールや間違ったルールが与
えられていたとしても、どこかのANDルールのユニッ
トが必ず適合する。
【0018】また、ネットワークの学習によって重みを
調整する際、メンバーシップ関数を実現している重みは
ANDルールの計算によって選択された方の重みのみを
修正するようにし、さらにMiddle を構成するメンバー
シップ関数の重みはMiddleのメンバーシップの出力に
関与したほうの重みのみを修正するような構成になって
いるため、学習すべき重みが選択されるので、計算量が
減る。
【0019】
【実施例】図1は、本発明によるファジィ・ニューラル
ネットワーク・システムの一実施例を示す構成図であ
る。このシステムは2つの入力項目から1つの出力項目
が得られる対象物に関して構築される2入力1出力のフ
ァジィ・ニューラルネットワークで、入力層1、メンバ
ーシップ層前半部2、メンバーシップ層後半部3、ルー
ル層4および出力層5の5つの層からなり、2層目と3
層目とを合わせてメンバーシップ層を構築している。
【0020】各層のユニットとユニット間の結合は次の
ようにして構成する。まず、入力層1は入力項目ごとに
2つのユニット11,12およびユニット13,14で
構成し、ユニット11,13にそれぞれ定数1を入力
し、ユニット12に入力値x1を入力し、ユニット14
に入力値x2を入力する。
【0021】次に、メンバーシップ層2,3であるが、
これは各入力項目ごとに、図2に示すように、Big,M
iddle ,Smallのメンバーシップ関数を構成するよう
に、まず、前半部2で各4つのユニット21〜24、2
5〜28を構成し、ユニット21〜24で定数1と入力
値x1を結合させ、ユニット25〜28で定数1と入力
値x2を結合させる。
【0022】後半部3で各3つのユニット31〜33、
34〜36を構成し、前半部2の1つまたは2つのユニ
ットを結合させる。1つのユニットを結合させる部分は
ユニット31,34でBigを構成する部分となり、ユニ
ット33,36でSmallを構成する部分となる。2つの
ユニットを結合させる部分はユニット32,35でMid
dle を構成する部分となる。これは、1入力項目ごとに
必ず構成されるユニットで、入力項目毎のユニット数は
固定である(前半部4つ、後半部3つ)。
【0023】次に、ルール層4であるが、入力値x1側
のユニット31に対して入力値x2側のユニット34〜
36のそれぞれと論理積を取るようにユニット41〜4
3を構成する。同様にして入力値x1側のユニット32
に対して入力値x2側のユニット34〜36のそれぞれ
と論理積を取るようにユニット44〜46を構成し、入
力値x1側のユニット33に対して入力値x2側のユニ
ット34〜36のそれぞれと論理積を取るようにユニッ
ト47〜49を構成する。もし、入力値x3があれば、
それらのBig,Middle ,Smallとも論理積を取るよう
に構成する。
【0024】最後に出力層5では、出力項目数に応じて
ユニット数を決定し、各ユニット毎にルール層4からの
出力をユニット51で全て結合し、出力値yとして出力
するように構成する。
【0025】このようにして構成されたネットワークの
ユニット間の結合部分には全てその結合ごとに重みがあ
る。まず、入力層1とメンバーシップ層前半部2との結
合部分では、図3に示すメンバーシップ関数のセンター
値(メンバーシップ関数の出力値が0.5となるときの
入力値)が重みWc1〜Wc8となっている。
【0026】すなわち、メンバーシップ関数は前述した
ように3種類あるが、それぞれのメンバーシップ関数の
センター値は各重みと一致している。例えば、入力値x
1のBigを表すメンバーシップ関数のセンター値の重み
はWc1であり、Middle を表すメンバーシップ関数の
センター値の重みはWc2とWc3であり、Smallを表
すメンバーシップ関数のセンター値の重みはWc4であ
る。Middle は、図4に示すように、,2つのメンバー
シップ関数の論理積の形になっているので2つのセンタ
ー値を持つ。
【0027】次に、メンバーシップ層の前半部2と後半
部3との結合部分では、図3に示すメンバーシップ関数
の傾きが重みWg1〜Wg8となっている。これも、セ
ンター値と同様それぞれのメンバーシップ関数の傾きが
各重みと一致している。例えば、入力値x1のBigを表
すメンバーシップ関数の傾きの重みはWg1であり、M
iddle を表すメンバーシップ関数の傾きの重みはWg2
およびWg3であり、Smallを表すメンバーシップ関数
の傾きの重みはWg4である。この場合もMiddle は2
つのメンバーシップ関数の論理積の形になっているので
2つの傾きを持つことになる。
【0028】最後に、ルール層4と出力層5との結合部
分では、エキスパートから得た知識が重みWf1〜Wf
9となっている。
【0029】次に、図5を参照しながら具体例を挙げて
説明する。まず、予めエキスパートから得た知識をルー
ルL1として作成しておく。この例では、「X1 is Big
thenY is Big.」、「X2 is Small then Y is Smal
l.」、「X1 is Big and X2 is Big then Y is Big.」の
3つである。次に、ネットワークのルール層4において
ANDルールA1〜A3を構成する。そして、エキスパ
ートのルールL1とルール層4のANDルールA1〜A
3の各ユニットの結合を比較し、重みの初期値を決定す
る。
【0030】ルールの初期値は最初は全て基準値として
ある値に設定しておく。ここでは例として0.1に設定
しておく。そして、エキスパートのルールL1の出力値
が増加するルールにあてはまる部分のANDルールから
出力への結合の重みにはネットワークの入力項目数を掛
ける。逆にエキスパートのルールL1の出力値が減少す
るルールにあてはまる部分のANDルールから出力への
結合の重みにはネットワークの入力項目数の逆数を掛け
る。
【0031】例えば、ANDルールA1において、入力
値x1がBigであるというのは、エキスパートの知識か
ら得たルールにあり、そのときの出力はBigなので、最
初の重みの初期値0.1に入力項目数2を掛ける。さら
に、入力値x2がSmallであるというのも、エキスパー
トの知識から得たルールであり、そのときの出力はSma
llなので、さらに重みの初期値「0.1×2」に入力項
目数2の逆数0.5を掛ける。これにより、ANDルー
ルA1の重みの初期値が決定される。同様にしてAND
ルールA2の重みは「0.1×2×2.0」のように決
定され、ANDルールA3の重みは「0.1×0.5」
のように決定される。これが学習前の重みの初期値であ
る。今述べた部分以外の結合の重みは1で固定である。
【0032】次に、各層の出力値を求める方法を数式を
用いて説明する。入力層1の出力値は入力値と同じであ
るので省略する。メンバーシップ層2,3は式1に示す
ように2層目でメンバーシップ関数のセンター値Wc1
〜Wc8(メンバーシップ関数の出力値が0.5となる
ときの入力値)を与える。
【0033】 H4(i-1)+j=xi+wcij (ただし、wcij<0) (1) ここで、xは入力層の出力値、wcはメンバーシップ関
数のセンター値、Hは2層目の出力値である。また、i
は各入力項目の数であり、jはBigのとき1、Middle
のとき2または3、Smallのとき4となっている。この
式が表しているのは、後に代入する式2に示すようなシ
グモイド関数の原点の位置をメンバーシップ関数のセン
ター値の位置に合わせていることである。
【0034】次に、式3に示すように3層目でメンバー
シップ関数の傾きを掛けてシグモイド関数に代入するこ
とにより、その入力値の各領域でのメンバーシップの出
力値を得ることになる。なお、Middle の場合は式3の
代わりに式3aを用いる。
【0035】
【数1】
【0036】ここで、wgはメンバーシップ関数の傾き
の値、f(x)はシグモイド関数、Mはメンバーシップ関
数の出力値、min{f(x1),f(x2)}はf(x1)とf(x2)の
論理積である。また、kはメンバーシップ層前半部2の
ユニットの番号であり、θはBigのとき1、Middle の
とき2、Smallのとき3となっている。また、式3aで
は論理積を計算することにより、min の括弧の中の2つ
の関数の値のうち、小さい方の値を選択することにな
る。
【0037】続いて、式4に示すように、ルール層4に
おいてANDルールの計算を行う。これは先に述べたよ
うに、全ての入力項目のうちから2つの項目を選び、そ
の選ばれた2つの入力項目の中で、それぞれ3つの領域
(Big、Middle、Small)から1つづつを選び、その2つ
のメンバーシップ出力値の論理積を計算することにな
る。
【0038】 R3(l-1)+m=min{Ml,Mm} (ただし、l<m) (4) ここで、RはANDルールの出力値であり、lとmはメ
ンバーシップ層後半部3のユニットの番号である。ま
た、ここでも論理積の計算により、min の括弧の中の2
つの関数の値のうち、小さい方の値を選択することにな
る。最後に、式5に示すように出力層5において出力値
を計算する。これは、ファジィルールの前件部命題
(例:x1がBigである)によって得られた各AND
ルールの出力値とそのルールからの結合の重みの値Wf
を掛け合わせ、それをルールの出力全体の合計値で割っ
たものの総和を取ることで計算される。
【0039】
【数2】 ここで、nはルール層のユニット番号である。
【0040】ここまでが、構成されたネットワークに入
力値を代入してから出力値を得るまでの計算の過程であ
る。初めにこのネットワークを構成したときには、初期
の重みの値は各層ごとに決まった値を持っており、入力
値を代入したとしても、出力値はでたらめな値であり、
対象物の入出力関係を正しくシミュレートできていな
い。そこで、正しくシミュレートするために重みの調整
を行う。これがネットワークの学習である。
【0041】次に、学習によりどのように修正して対象
物の入出力関係を正しくシミュレートできるようにする
かということについて述べる。まず、対象物の入出力関
係を表したサンプルデータの出力値を教師データTと置
く。そして、式6に示すようにこの教師データと、サン
プルデータの入力値(x1、x2、…xn)から式1〜
5によって得られた出力値yとの2乗誤差を求める。
【0042】
【数3】 ここでEは教師データと出力値との2乗誤差を表す。こ
の誤差を少なくすることによって対象物の入出力関係が
正しくシミュレートできているみなすことができる。簡
単のため式6は出力値が1つの場合の式を示している
が、多出力(q出力)の場合にも、式6aと式6bとに
よって2乗誤差を求め、1出力のときと同様の学習を行
えばよい。
【0043】この誤差を減らす方法として、ニューラル
ネットワークでよく用いられるバックプロパゲーション
法を基にした学習アルゴリズムを用いる。以下、学習ア
ルゴリズムについて式を用いて説明する。
【0044】まず、式7に示すように、式6をyにおい
て偏微分する。これが、誤差に対する出力値の影響であ
る。
【数4】 続いて、式8に示すように、式6をWfにおいて偏微分
する。このとき、式6のyに式5を代入する。
【0045】
【数5】 さらに、式9、式10に示すように式6をWg、Wcに
おいて偏微分する。このとき、式6に式5、式4、およ
び式3または式3a、式1を代入する。
【0046】
【数6】
【0047】この式8から式10が誤差に対するそれぞ
れの重みの影響である。ここで、式9および式10にお
けるrは修正すべきメンバーシップ関数を実現している
重みからANDルールの出力として選択された数だけ、
ルール層のユニットからの誤差の総和を取っている。
【0048】これらの影響が少なくなる方向に重みを修
正してやることによって、全体的に誤差を減らしてい
く。修正する量はそれぞれ次のようになる。
【数7】 ここで、αは学習パラメータと呼ばれるものであり、影
響を小さくする重みの修正量をどのくらいにするかを決
定するパラメータである。これを用いて式14から式1
6に表されるように修正を行う。
【0049】 wfp=wfp+Δwfp (14) wgkθ=wgkθ+Δwgkθ (15) wCij=wCij+ΔwCij (16)
【0050】以上のようなアルゴリズムに従い、繰り返
し学習を行い、重みを修正していくことにより誤差はあ
る程度まで小さくなる。そして、誤差の値が誤差の許容
値以下になった時点で学習を終了とする。この誤差の許
容値はあらかじめ決められている値で、対象物によって
誤差の許容値が違うことが予想されるため、その対象物
にあった誤差の許容値を決定する必要がある。
【0051】次に、このような学習によって調整された
重みがそれぞれ何を表しているかということについて述
べる。まず、wfであるが、先ほどの式8を見てみる
と、各wfの修正はRpの値のみが違い、後の値はどの
wfの修正でも同じ値を用いていることがわかる。つま
り、wfの修正はRpの値にのみ影響されることにな
る。このRpの値は各ルールの適合度を表しており、こ
の値が大きいと入力パラメータがそのルールにそれだけ
適合していることになる。
【0052】図6から、このとき教師データTが大きな
値であったときには、教師データTと出力値yとの誤差
を減らす方向に大きく修正するので出力値yが大きな値
となるような方向に重みwfを修正する(図中*1)。
同様に教師データTが小さな値であったときには、教師
データTと出力値yとの誤差を減らす方向に大きく修正
するので出力値が小さな値となるような方向に重みwf
を修正する(図中*2)。逆にRpの値が小さいときに
は入力パラメータがそのルールに合わないことを表し、
それぞれ小さく修正するので、入力パラメータがそのル
ールに合わない重みwfはそれほど修正しないようにな
る(図中*3)。
【0053】これにより、出力が大きくなるルール程大
きな重みになり、逆に出力が小さくなるルール程小さな
重みになる。また、重みがゼロになれば、そのルールは
出力に関係しないルールとなる。つまり、このルールの
重みwfを見ることによって出力が大きくなるルールや
出力が小さくなるルール、または出力に関係しないルー
ルなどを判断することができる。
【0054】次に、Wgであるが、先ほどの式9の中
で、式17に示す部分は、そのメンバーシップの出力値
を含むANDルールからの誤差の伝搬の総和を計算して
いる式である。
【0055】
【数8】 この式で各ルール毎に値が違うのはWfpだけである。
すなわち、重みの大きいルールが多いほどメンバーシッ
プ関数の傾きは大きく修正されることになる。また、式
9からシグモイド関数のx軸にあたる値Hの絶対値が大
きいほどメンバーシップ関数の傾きは大きく修正される
ことになる。重みの大きいルールが多いほど傾きを修正
して出力に合うようにすべきであるし、Hの絶対値が大
きなものほど傾きを大きく修正しないと修正の意味がな
いことからも、この式9による修正が妥当であるといえ
る。この関係を図7に示す。
【0056】これにより、傾きが急になるということは
出力が大きくなるルールに関係する入力値の微小変化に
対し、出力値が大きく変化することを表すことになる。
この関係を図8に示す。つまり、このメンバーシップ関
数の傾きを表す重みWgを見ることによって出力値に敏
感に反応する入力値はどれか、つまり出力に対して寄与
率が大きい入力はどれかを知ることができる。
【0057】最後にWcであるが、先ほどの式10の右
辺と式9の右辺との違いはHとWgだけである。式10
の右辺のWgは、そのメンバーシップ関数の傾きであ
り、傾きが急なものほどメンバーシップ関数のセンター
値を大きく修正することになる。傾きが急なメンバーシ
ップ関数ほどセンター値を大きく動かさないと修正して
も出力値の変化が見られないということになる。この関
係を図9に示す。出力の変化がみられないということ
は、修正前と誤差が変わらないということになり、修正
の意味がなくなってしまう。このことからも、式10に
よる修正が妥当であるといえる。
【0058】このメンバーシップ関数のセンター値を表
す重みWcもWgと同様に定着率に敏感に反応する入力
値はどれか、つまり定着率に対して寄与率が大きい入力
値はどれかを知ることができるとともに、重みWcを見
ることによって、それぞれの入力項目におけるBig,M
iddle ,Smallの範囲がどのあたりを示すのかを知るこ
とができる。
【0059】
【発明の効果】従来、エキスパートからの知識だけで構
築されていたファジィ・ニューラルネットワークでは、
エキスパートの勘や経験から得られた知識が曖昧すぎる
場合、または間違っていた場合、ネットワークが実際に
欲している構造と違った構造になってしまい、ニューラ
ルネットワークの学習に時間がかかるだけでなく、うま
く学習できなくなってしまうという不都合があった。
【0060】しかし、本発明によれば、エキスパートの
勘や経験より対象物の入出力関係をファジィ集合を持つ
前件部命題と後件部命題とを有するファジィルールとし
て作成すると共に、それとは別に入出力の項目数だけか
らニューラルネットワークを構成し、結合の重みを前記
ファジィモデルを基に与えるように構成することによ
り、エキスパートの勘や経験より得られた知識が曖昧す
ぎる場合、または間違っていた場合でも、必ずどこかの
ファジィルールにはあてはまるようにネットワークが構
成されているため、ネットワークが間違った構造になっ
てしまい、ニューラルネットワークの学習がうまくでき
なくなってしまうという不都合を回避できるという効果
がある。
【0061】また、入出力の関係からニューラルネット
ワークを構成する際に各入力値を全てBig,Middle ,
Smallの3つの領域に分割するように構成することによ
り、各入力項目の値は必ず3つの領域のうち少なくとも
1つの領域には属することになり、エキスパートの知識
からのファジィルールにないサンプルデータが入ってき
たときもニューラルネットワーク上で対応できるという
効果がある。
【0062】また、従来、ファジィルールが1または複
数と入り交じっていたため、特に複数の入力項目のAN
Dルールのときには計算が面倒になり、ネットワークを
構築するときも複雑になってしまうという不都合があっ
た。しかし、入出力の関係からニューラルネットワーク
を構成する際に全ての入力項目のうち2つを選び、その
2つの各入力値の3領域に分割したものからそれぞれ1
つづつを選び、それを2つの入力項目のANDルールと
するように構成することにより、簡単な2つの入力項目
間の関係だけとなるため、ネットワークの構成が簡単に
なるだけでなく、ANDルールの計算も必ず2つの入力
しかないため、全て同様の計算だけでよくなり簡単化さ
れるという効果がある。
【0063】また、従来はエキスパートの知識から得た
ファジィルールだけであったため、そのルールにない関
係には対応できないという不都合があったが、入出力の
関係からニューラルネットワークを構成する際に、AN
Dルールを、各入力項目の3つの領域に対し、他の全て
の入力項目の全ての領域との間で2つの組み合わせを求
めるように構成することによって、全ての2つの入力項
目の関係をカバーできるため、曖昧すぎるルールや間違
ったルールが与えられていたとしても、学習により正し
く修正することができるという効果がある。
【0064】また、従来、ファジィ・ニューラルネット
ワークの学習過程においては、ネットワークの結合され
ている部分の学習すべき重みは、全てバックプロパゲー
ション法などにより、微調整が行われてきたため、計算
量が膨大になり、学習時間もかなりかかるという不都合
があったが、ファジィ・ニューラルネットワークの学習
過程で、メンバーシップ関数を実現するネットワークの
重みの修正を、ANDルールで選択されたメンバーシッ
プ出力値の方の重みのみの修正、または、特にMiddle
の場合、傾きがお互い逆である2つのシグモイド関数の
うち、Middleのメンバーシップ出力値に関与したシグ
モイド関数の方の重みのみを修正することにより、関係
のある項目のみを修正するので学習速度を速くすること
ができるという効果がある。
【0065】また、従来、エキスパートの知識から得た
ファジィルールだけであったため、そのルールにない2
つの入力項目のある領域同士の関係(例えば、x1がS
mallでx2がBigである領域での入出力関係)には対応
できないという不都合があったが、ファジィ・ニューラ
ルネットワークの学習課程において、2つの入力項目に
対し、ANDルールにより9つに領域分割されたもの全
てを領域ごとに学習することにより、2つの入力項目の
関係が単調増加、単調減少の関係でなく、もっと複雑な
関係であったときにも、その関係を表現することができ
るという効果がある。
【0066】また、従来、学習によって修正された重み
は、入出力関係を正しくシミュレートさせるためだけの
ものであり、その意味付けまでは行われていなかった
が、式14に示す式を用いてネットワークの学習を行
い、重みWfを修正することにより学習終了後のファジ
ィ・ニューラルネットワークにおいて、ルール層と出力
層との結合の重みがそれぞれのルールの重要度を示すよ
うになるため、エキスパートの勘や経験より得られた知
識が曖昧すぎる場合、または間違っていた場合に、曖昧
な知識ははっきりとした知識として得られ、間違った知
識は本当はどのようなものが正しい知識なのかというこ
とを得るとができるという効果がある。
【0067】また、式15に示す式を用いてネットワー
クの学習を行い、重みWgを修正することにより、その
意味付けまでは行われていなかったが、学習終了後のフ
ァジィ・ニューラルネットワークにおいて、メンバーシ
ップ関数の傾きを表す重みが出力項目に対する入力項目
の寄与率を示すようになるため、出力値に対してよく効
く入力項目が得られ、どの入力項目の値を振れば、より
よい結果が得られるのかがわかるという効果がある。ま
た、式16に示す式を用いてネットワークの学習を行
い、重みWcを修正することにより、メンバーシップ関
数のセンター値がそれぞれの入力項目の正しい領域分割
を表すようになるため、各入力項目でエキスパートの経
験によりBig,Middle ,Smallというのは、どの範囲
を指すのかが明確になるという効果がある。
【図面の簡単な説明】
【図1】本発明の一実施例を示す構成図である。
【図2】メンバーシップ関数(Big,Middle,Small)を
示す図である。
【図3】シグモイド関数によるメンバーシップ関数の形
成方法を示す図である。
【図4】メンバーシップ関数(Middle)の構成方法を示
す図である。
【図5】ANDルールから出力への結合の重みの初期値
決定方法を示す図である。
【図6】ルール層と出力層との間の重みの修正方法を示
す図である。
【図7】メンバーシップ関数の傾きを表す重みの修正量
と出力値との違いを示す図である。
【図8】メンバーシップ関数の傾きを表す重みの修正量
と出力値との違いを示す図である。
【図9】メンバーシップ関数のセンター値を表す重みの
修正量と出力値との違いを示す図である。
【図10】従来のニューラルネットワークの一例を示す
構成図である。
【図11】ファジィ理論概略図である。
【図12】従来のニューロ・ファジィ融合システムの構
成図である。
【符号の説明】
1 入力層 2 メンバーシップ層前半部 3 メンバーシップ層後半部 4 ルール層 5 出力層 11〜14 入力層のユニット 21〜28 メンバーシップ層前半部のユニット 31〜36 メンバーシップ層後半部のユニット 41〜49 ルール層のユニット 51 出力層のユニット Wc1〜Wc8 入力層とメンバーシップ層前半部との
結合の重み Wg1〜Wg8 メンバーシップ層前半部と後半部との
結合の重み Wg1〜Wg8 ルールの重要度を表す重み

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 入力層と、メンバーシップ層前半部と、
    メンバーシップ層後半部と、ルール層と、出力層とを備
    え、入出力の項目数からネットワークを構築することを
    特徴とするファジィ・ニューラルネットワーク・システ
    ム。
  2. 【請求項2】 前記入力層および前記メンバーシップ層
    は、各入力値をそれぞれファジィ集合の3領域に分割す
    るように構成し、前記ルール層は、前記3領域に分割し
    たものからそれぞれ1つづつを選び、それを2つの入力
    項目のANDルールとするように構成することを特徴と
    する請求項1記載のファジィ・ニューラルネットワーク
    ・システム。
  3. 【請求項3】 前記各層間の結合には全て重みがあり、
    前記ネットワークの学習によって調整される重みとし
    て、前記入力層と前記メンバーシップ層前半部との間の
    結合の重み、前記メンバーシップ層前半部と前記メンバ
    ーシップ層後半部との間の結合の重み、前記ルール層と
    前記出力層との間の結合の重みがあり、他の結合の重み
    は全て固定値となるように構成することを特徴とする請
    求項1記載のファジィ・ニューラルネットワーク・シス
    テム。
  4. 【請求項4】 前記入力層と前記メンバーシップ層前半
    部との間の結合の重みはメンバーシップ関数のセンター
    値であり、前記メンバーシップ層前半部と前記メンバー
    シップ層後半部との間の結合の重みは前記メンバーシッ
    プ関数の傾きであり、前記ルール層と前記出力層との間
    の結合の重みは各ルールの重要度であることを特徴とす
    る請求項3記載のファジィ・ニューラルネットワーク・
    システム。
JP17580594A 1994-07-27 1994-07-27 ファジィ・ニューラルネットワーク・システム Expired - Fee Related JP3247803B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP17580594A JP3247803B2 (ja) 1994-07-27 1994-07-27 ファジィ・ニューラルネットワーク・システム
US08/451,977 US5761384A (en) 1994-07-27 1995-05-26 Fuzzy neural network system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17580594A JP3247803B2 (ja) 1994-07-27 1994-07-27 ファジィ・ニューラルネットワーク・システム

Publications (2)

Publication Number Publication Date
JPH0844569A true JPH0844569A (ja) 1996-02-16
JP3247803B2 JP3247803B2 (ja) 2002-01-21

Family

ID=16002552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17580594A Expired - Fee Related JP3247803B2 (ja) 1994-07-27 1994-07-27 ファジィ・ニューラルネットワーク・システム

Country Status (2)

Country Link
US (1) US5761384A (ja)
JP (1) JP3247803B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5819242A (en) * 1995-05-16 1998-10-06 Sharp Kabushiki Kaisha Fuzzy-neural network system and a learning method therein

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5943659A (en) * 1995-10-03 1999-08-24 Nec Research Institute, Inc. Deterministic encoding of fuzzy finite state automata in continuous recurrent neural networks
JP3825845B2 (ja) * 1996-09-27 2006-09-27 ヤマハ発動機株式会社 進化的制御方式
US6324529B1 (en) * 1996-09-27 2001-11-27 Yamaha Hatsudoki Kabushiki Kaisha Evolutionary controlling system
US6330553B1 (en) * 1997-04-09 2001-12-11 Yamaha Hatsudoki Kabushiki Kaisha Autonomic system for updating fuzzy neural network and control system using the fuzzy neural network
KR100343155B1 (ko) * 1998-04-30 2002-08-22 삼성전자 주식회사 퍼지네트워크를이용한사용자정보구조제공방법
US6349293B1 (en) * 1998-05-20 2002-02-19 Yamaha Hatsudoki Kabushiki Kaisha Method for optimization of a fuzzy neural network
DE102004028002A1 (de) * 2004-06-09 2006-01-05 Stockhausen Gmbh Verfahren zur Herstellung von hydrophilen Polymeren unter Verwendung eines rechnererzeugten Modells
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US20210034967A1 (en) * 2019-08-01 2021-02-04 Distech Controls Inc. Environment controller and methods for validating an estimated number of persons present in an area

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2747104B2 (ja) * 1990-10-22 1998-05-06 株式会社東芝 ニューラルネットワーク
JPH05224939A (ja) * 1992-02-10 1993-09-03 Fujitsu Ltd ファジィ集合処理方式
JPH06131188A (ja) * 1992-10-22 1994-05-13 Hitachi Ltd ファジィルール獲得方法およびファジィ推論システム
US5524176A (en) * 1993-10-19 1996-06-04 Daido Steel Co., Ltd. Fuzzy expert system learning network

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5819242A (en) * 1995-05-16 1998-10-06 Sharp Kabushiki Kaisha Fuzzy-neural network system and a learning method therein

Also Published As

Publication number Publication date
US5761384A (en) 1998-06-02
JP3247803B2 (ja) 2002-01-21

Similar Documents

Publication Publication Date Title
JPH0844569A (ja) ファジィ・ニューラルネットワーク・システム
JP2747104B2 (ja) ニューラルネットワーク
EP0444878B1 (en) Neural network
JPH04229362A (ja) 学習機械
US5355510A (en) Information process system
JP3417574B2 (ja) ファジィ論理演算用ニューロン素子
JPH0293940A (ja) メンバーシップ値生成装置
JPH04291662A (ja) 階層ネットワーク構成演算素子
WO2023203775A1 (ja) ニューラルネットワーク生成方法
JP2763371B2 (ja) 階層ネットワーク構成ファジィ制御器
JP2559883B2 (ja) ファジィ制御器
JP2763370B2 (ja) 階層ネットワーク構成ファジィ制御器
JP2559881B2 (ja) ファジィ制御器
JPH03260805A (ja) ファジィ制御ルールのチューニング方法
JP2559877B2 (ja) ファジィ制御器
JPH0831116B2 (ja) ニューラルネットワークにおける結合の学習調整方式
JPH04186402A (ja) フアジイ推論における学習方式
JPH0421060A (ja) ニューラルネットワークにおける結合のグループ単位逐次学習方式
JP2559882B2 (ja) ファジィ制御器
JP2559880B2 (ja) ファジィ制御器
JP3137996B2 (ja) メンバシップ関数を用いたニューラルネットワーク及びその学習方式
JPH06161983A (ja) パターンマッチング方式
JPH03268074A (ja) パターン認識方式および装置
JPH06259259A (ja) ファジィシステム
JPH06186064A (ja) システムモデリング装置

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081102

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091102

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091102

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees