JP3292495B2 - ニューロ・ファジィ融合システム - Google Patents

ニューロ・ファジィ融合システム

Info

Publication number
JP3292495B2
JP3292495B2 JP03105192A JP3105192A JP3292495B2 JP 3292495 B2 JP3292495 B2 JP 3292495B2 JP 03105192 A JP03105192 A JP 03105192A JP 3105192 A JP3105192 A JP 3105192A JP 3292495 B2 JP3292495 B2 JP 3292495B2
Authority
JP
Japan
Prior art keywords
input
fuzzy
value
neuron
output characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03105192A
Other languages
English (en)
Other versions
JPH05233583A (ja
Inventor
旭 川村
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP03105192A priority Critical patent/JP3292495B2/ja
Publication of JPH05233583A publication Critical patent/JPH05233583A/ja
Application granted granted Critical
Publication of JP3292495B2 publication Critical patent/JP3292495B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ファジィルールとニュ
ーラルネットワークとを用いたニューロ・ファジィ融合
システムに関し、特にニューラルネットワークにニュー
ロンの機能を解釈すべくニューロン素子の論理素子化装
置を備えたニューロ・ファジィ融合システムに関する。
【0002】
【従来の技術】ニューロンを用いた情報処理装置におい
ては、対象とするシステムの入力パターンとそれに対す
る望ましい出力パターンの組とを、例えば入力層、中間
層、出力層の3層からなる階層型ニューラルネットワー
クに提示して学習させ、適切な処理を行わせる。この処
理として特に、バックプロパゲーション法とよばれる処
理方式が、その実用性の高さから注目されている。
【0003】一方、ファジィ理論は、1960年代にZ
adehにより提案され、温度が「高い」とか「低い」
といった人間が行っている曖昧さに基づく思考や判断の
課程をモデル化する理論である。このファジィ理論は、
曖昧さを表すためにメンバシップ関数を導入したファジ
ィ集合論を数学的基礎としている。
【0004】この理論の応用として、1974年代にM
amdamがスチームエンジンの制御に用いて以来、フ
ァジィ制御が行われている。また、最近では、ニューロ
ンとファジィとを共に用いたニューロ・ファジィ融合シ
ステムがある(平成2年3月12日出願済みの特願平2
−60256,2−60257,2−60258,2−
60259,2−60260,2−60261)。
【0005】図25はこの種のニューロ・ファジィ融合
システムの概要図である。ニューロ・ファジィ融合シス
テムは、次のように動作する。 図25に示すように対象システム3に関しての専門家
の勘や経験やノウハウ等を含む知識を、ファジィモデル
作成部1にて、メンバシップ関数とファジィルールの形
式で抽出してファジィモデルを作成する。
【0006】次に、ファジィモデル作成部1にて作成
されたファジィモデルに従い、ニューラルネットワーク
2のプリワイヤを行う。すなわち、ファジィモデルを用
いて、ニューラルネットワーク2を構成するニューロン
間の結合や重み値を設定してニューラルネットワーク2
を構築する。
【0007】さらに、前記プリワイヤによって構築さ
れたニューラルネットワーク2を、実際の対象システム
3に適用する。 次に、対象システム3に付けられたセンサ等から、動
作中に学習用のデータを得て、ニューラルネットワーク
2にそれらを学習させることにより、ファジィモデルの
精度の向上を図る。
【0008】最後に、学習を行ったニューラルネット
ワーク2の結合状態や重み値を、ファジィモデルのファ
ジィルール、ファジィ論理演算、メンバシップ関数に対
応付けて解釈することにより、ニューラルネットワーク
2の内部動作を説明する。
【0009】なお、ファジィモデル作成部1でファジィ
モデルを作成する際に、ファジィルールを用いている。
このファジィルールでは、ファジィ推論を行なうため
に、ファジィ推論の推論規則として、if−then形式で記
述している。例えば if (X is small) and (Y is small) then z
is middle このif形式の後に続くファジィ命題を前件部命題とし、
thenの後に続くファジィ命題を後件部命題としている。
ここで、small,small,middleは、ファジィ集合である。
【0010】また、これらのファジィルールに用いられ
ている「X is small」等の曖昧な命題を定量化するた
めに、そのファジィ集合の個々の要素がどの程度その集
合に属しているかを表すメンバシップ関数を定義する。
入力変数Xに関する前件部メンバシップ関数あるいは出
力変数Zに関する後件部メンバシップ関数を定義してフ
ァジィ推論を行っている。
【0011】また、2つ以上のファジィ命題間のファジ
ィ論理演算として例えば積and,または和orを行な
う。このファジィ論理演算は、ニューラルネットワーク
における1つのニューロンを用いて実現している。
【0012】このようにニューロ・ファジィ融合システ
ムは、制御の精度を上げるためのメンバシップ関数やフ
ァジィルールの調節・変更が困難であるというファジィ
制御の問題点をニューラルネットワークの学習機能を用
いて解決し、また一方、そのままでは内部の情報処理が
理解し難いというニューラルネットワークの問題点をフ
ァジィモデルの枠組で解釈することによって説明するこ
とで解決できる。
【0013】
【発明が解決しようとする課題】従来のニューロ・ファ
ジィ融合システムにあっては、ニューラルネットワーク
2を学習させた後の各ルールに対応するニューロンの重
み値の変化に伴ってファジィ論理演算が変化している。
このファジィ論理演算の変化を解釈することについて、
重み値の変化が小さく、ファジィ論理演算の種類が同じ
であると解釈できる場合には、ニューロンの機能を解釈
できる。
【0014】しかしながら、重み値の変化が大きくな
り、ファジィ論理演算の種類が同じでなくなった場合に
は、ニューロンの機能を解釈することが困難であった。
本発明の目的は、ニューラルネットワークを学習させた
後の各ルールに対応するニューロンの重み値が大きく変
化した場合であっても、ニューロンの機能を解釈するこ
とのできるニューロン素子の論理素子化装置を備えたニ
ューロ・ファジィ融合システムを提供することにある。
【0015】
【課題を解決するための手段】本発明は、上記課題を達
成すべく次のような構成とした。図1は本発明の原理図
である。本発明は、ファジィモデル作成手段1により、
対象物3の入出力関係を、ファジィ集合をそれぞれに持
つ複数の命題間をファジィ論理演算14してなるファジ
ィルール12とこのファジィルール12の命題を定量化
すべく定義したメンバシップ関数13との形式で抽出し
てファジィモデルを作成し、作成されたファジィモデル
に従いニューロン素子20間の入力結線の重み値をニュ
ーラルネットワーク2により設定し、ニューラルネット
ワーク2に対象物3の入出力関係を学習させ、学習後の
重み値の変化に伴って少なくともファジィ論理演算14
を変化させる。
【0016】検出装置42で、ニューロン素子20のう
ちファジィ論理演算14に対応するニューロン素子24
の各入力結線の重み値の符号を検出し、調査装置43
で、検出装置42からの入力結線の重み値の符号に対応
した入力パターンの値をニューロン素子24に入力しそ
のときのニューロン素子24の出力を得ることでニュー
ロン素子24の入出力特性パターンを調査する。
【0017】判定装置44で、調査装置43からのニュ
ーロン素子入出力特性パターンと予め定めた各論理演算
毎の論理演算入出力特性パターンとの照合を行い論理演
算種を判定し、決定装置45で、検出装置42からの入
力結線の重み値の符号と前記判定装置44からの論理演
算種とに基づきニューロン素子24の機能に対応する論
理演算を決定するよう構成する。
【0018】より好適には以下のようにするのが望まし
い。すなわち、ニューロン素子24は、入力結線の重み
値が正の入力には偽に対応する値から真に対応する値ま
で変化する入力パターンを入力し、入力結線の重み値が
負の入力には真に対応する値から偽に対応する値まで変
化する入力パターンを入力する。
【0019】また、判定装置44は、ニューロン素子入
出力特性パターンと各論理演算入出力特性パターンとの
差の最大成分が最小となる論理演算種を選択する入出力
特性照合装置46を有するよう構成する。
【0020】さらに、判定装置44は、ニューロン素子
入出力特性パターンと各論理演算入出力特性パターンと
の差の2乗和が最小となる論理演算種を選択する入出力
特性照合装置46を有するよう構成する。
【0021】さらに、判定装置44は、ニューロン素子
入出力特性パターンと各論理演算入出力特性パターンと
の差の絶対値の和が最小となる論理演算種を選択する入
出力特性照合装置46を有するよう構成する。
【0022】
【作用】本発明によれば、検出装置でニューロン素子の
各入力結線の重み値の符号を検出し、調査装置で入力結
線の重み値の符号に対応した入力パターンの値をニュー
ロン素子に入力し得られたニューロン素子の出力からニ
ューロン素子の入出力特性パターンを調査し、判定装置
でニューロン素子入出力特性パターンと予め定めた各論
理演算毎の論理演算入出力特性パターンとの照合を行い
論理演算種を判定し、決定装置で検出装置からの入力結
線の重み値の符号と判定装置からの論理演算種とに基づ
きニューロン素子の機能に対応する論理演算を決定す
る。
【0023】従って、ニューラルネットワークを学習さ
せた後の各ルールを対応するニューロンの重み値が大き
く変化した場合にも、ニューロン素子を論理素子化する
ことによって、ニューロンの機能を解釈することが可能
となる。
【0024】また、ニューロン素子の入力結線の重み値
が負である場合、その入力値が増加すると、ニューロン
素子の出力値を減少させる。つまり、入力値の真に対応
する値から偽に対応する値までの変化は、ニューロン素
子の出力値を偽に対応する値から真に対応する値まで変
化させる働きをするから、その入力はニューロン素子に
対して否定の入力として扱われる。
【0025】したがって、入出力特性パターンを得るた
めの入力パターンとして、入力結線が正の入力へは偽に
対応する値から真に対応する値まで変化するパターンを
与えるのに対して、入力結線が負の入力へは真に対応す
る値から偽に対応する値まで変化するパターンを与える
必要がある。
【0026】また、対象とするニューロン素子と機能が
最も似ている論理演算種を判定する基準として、ニュー
ロン素子入出力特性パターンと各論理演算入出力特性パ
ターンとの差の最大成分が最小となる論理演算種、前記
両方のパターンの差の自乗和が最小となる論理演算種、
両方のパターンとの差の絶対値の和が最小となる論理演
算種を選択するようにしてもよい。
【0027】
【実施例】以下、本発明の実施例について説明する。図
2は本発明をニューロ・ファジィ融合システムに適用し
た実施例の概略構成を示す図である。本システムは、フ
ァジィモデル作成部1aと、これに接続されるニューラ
ルネットワーク2と、これに接続される対象システム3
とで構成されている。ファジィモデル作成部1a、ニュ
ーラルネットワーク2は、図示しない処理装置、例えば
CPU(中央処理装置)に設けられている。
【0028】次に各部について説明する。 (1)ファジィモデルの作成 ファジィモデル作成部1aは、対象システム3に関し
ての専門家の勘や経験やノウハウ等を含む知識を、メン
バシップ関数とファジィルールの形式で抽出し、ファジ
ィモデルを作成する。
【0029】ファジィモデル作成部1aでは、次のよう
に処理を行なう。対象システム3が図3に示すような入
出力関係を持っている場合を考える。ここで、XとYと
が入力変数であり、Zが出力変数である。図4は図3に
示す入出力関係をモデル化すべく作成したファジィルー
ルを示す図であり、ファジィモデル作成部1aは、この
ファジィルール12部を有している。図4に示すファジ
ィルール部12のルールは、入力変数X,Yの値の取り
得る範囲をおおまかに5つの領域に分け、その領域に於
ける出力変数Zのおおまかな値を3つの領域に分割した
ものである。
【0030】このファジィルールにおいて、Ifの後に続
くファジィ命題を前件部命題といい、thenの後に続くフ
ァジィ命題を後件部命題という。メンバシップ関数部1
3は、これらのファジィルール12に用いられている
「X is small」等の曖昧な命題を定量化するためにメ
ンバシップ関数を定義する。 図5は入力変数Xに関す
る前件部メンバシップ関数を示す図である。図7は出力
変数Zに関する後件部メンバシップ関数を示す図であ
る。図6はファジィ命題間のファジィ論理演算を示す図
である。図6においては、ファジィ論理演算ANDとし
て限界積を採用したものを示す。
【0031】図7に示す如くファジィ推論結果の非ファ
ジィ化には重心計算部15による重心計算法を採用し
た。以上のように、ファジィモデル作成部1aにより作
成したファジィモデルの入出力関係を図8に示す。
【0032】図8に示すファジィモデルの入出力関係
と、図3に示す対象システム3の入出力関係とのグラフ
と見比べると、前件部メンバシップ関数の領域の替り目
の付近に外れが生じているが、おおまかな特徴は捉えら
れている。
【0033】この様な外れが生じた原因は、入力値が前
件部メンバシップ関数の領域の替り目の値になった場
合、どの前件部命題もグレード値が約0.5となり、こ
れらのグレード値に対しては限界積は0.0に近い値を
とるためと考えられる。
【0034】以下、本システムにおいて採用したファジ
ィモデル作成部1aの詳細について説明する。ファジィ
モデル作成部1aは、前件部メンバシップ関数部13−
1、ファジィ論理演算部14、後件部メンバシップ関数
部13−2を有する。 (a)まず、前件部メンバシップ関数部13−1につい
て説明する。
【0035】図5に示すような入力変数Xに関する前件
部メンバシップ関数において、横軸は入力変数Xであ
り、縦軸はメンバシップ関数のグレード値である。これ
らのメンバシップ関数によって各ファジィ命題の意味を
表している。例えば、入力値がX=0.2のとき、ファ
ジィ命題「X is small」,「X is middle」,「X is
big」の確からしさを表すグレード値は、各々0.6,
0.4,0.0である。このように、ファジィ命題のグ
レード値は、0〜1の範囲の任意の値をとる。 (b)次にファジィ論理演算部14について説明する。
【0036】普通の論理演算においては、命題は真か偽
かのどちらか一方となる。即ち、命題のグレード値は、
1または0のどちらかの値をとる。したがって、論理演
算のANDの値は、2つの命題のとりうるグレード値の
4通りの組み合わせ(0,0),(0,1),(1,
0),(1,1)について定義すればよい。これらの定
義を図5に黒丸と白丸で示す。白丸はAND演算の結果
が真であることを示し、黒丸は偽であることを示してい
る。
【0037】これに対し、ファジィ命題のグレード値
は、0〜1の範囲の任意の値をとるから、ファジィ論理
演算ANDの値は、上記の4つの点だけでなく、2つの
ファジィ命題のとりうるグレード値の範囲すべてについ
て定義されなければならない。このようなAND演算の
拡張の一つが限界積であり、図6はその入出力関係を示
している。
【0038】このファジィ論理演算部14によって、
「(X is small)AND(Y is small)」等の複合命
題のグレード値が計算される。前件部の複合命題のグレ
ード値は、各ファジィルールの前提条件の成立の度合つ
まり適合度となる。 (c)さらに後件部メンバシップ関数部13−2につい
て説明する。
【0039】後件部命題のグレード値は、各ファジィ命
題を後件部に持つファジィルールの適合度の和として得
られる。このようにして得られた後件部命題「Z is sm
all」,「Z is middle」,「Z is big」のグレード値
が、各々0.75,0.25,0.05の場合の出力変
数Zの算出過程を図7に示す。ここで、横軸は出力変数
Zであり、縦軸はメンバシップ関数のグレード値であ
る。定義したメンバシップ関数を点線で示す。各々のメ
ンバシップ関数の高さは、対応する後件部命題のグレー
ド値に比例して縮小される。縮小されたメンバシップ関
数を実線で示す。それらの縮小されたメンバシップ関数
の和が推論結果のメンバシップ関数であり、図7に示す
塗りつぶされた部分である。
【0040】推論結果のメンバシップ関数から代表値を
求める非ファジィ化の計算は、重心計算によって行い、
0.33を得る。 (2)プリワイヤ このようにして作成されたファジィモデルに従い、ニ
ューラルネットワーク2aのプリワイヤを行う。すなわ
ち、ニューロン間の結合や重み値を設定してニューラル
ネットワーク2aを構築する。プリワイヤについて以下
に説明する。
【0041】ファジィモデル作成部1によって作成され
たファジィモデルに従い、プリワイヤによって構造化ニ
ューラルネットワーク2aを構築する。構築された構造
化ニューラルネットワーク2を図9に、ニューラルネッ
トワーク部2aを図10に示す。
【0042】構造化ニューラルネットワーク部2aは、
各層21〜27からなり、かつ各層間で相互に結合して
なる。各層21〜27は複数のニューロンを有し、各ニ
ューロンは各層間で相互に結合している。なお、各層内
部でのニューロン間では結合はないものとする。
【0043】これらのニューロンは、シグモイド関数ニ
ューロン22−1〜22−6,24−1〜24−5また
は線形関数ニューロン23−1〜23−5,25−1〜
25−3,26−1〜26−4,27−1〜27−2か
らなる。
【0044】この構造化ニューラルネットワーク部2a
においては、ファジィモデル作成部1によって作成され
たファジィモデルとの間に以下の対応関係がある。3層
目のニューロン23−1〜23−5は、各前件部命題に
対応している。4層目のニューロン24−1〜24−5
は、各ファジィルールに対応している。5層目のニュー
ロン25−1〜25−3は、各後件部命題に対応してい
る。
【0045】以下、プリワイヤによるファジィモデルの
実現方法の詳細について説明する。 (a)まず、ファジィルール部12とファジィ論理演算
部14の実現方法について説明する。
【0046】例えば、rule 1:if(X is small)and(Y i
s small)then Z is middleに対応したプリワイヤは次
の様に行う。図10に示すように、4層目のrule 1に対
応するニューロン24−1と3層目の「X is small」
と「Y is small」に対応するニューロン23−1,2
3−4とを結合させ、4層目のrule 1に対応するニュー
ロン24−1と5層目の「Z is middle」と対応するニ
ューロン25−2とを結合させる。図11(a)に示す
ように4層目のニューロン24と5層目のニューロン2
5との間の結合の重み値はすべて1.0に設定する。5
層目のニューロン25のしきい値はすべて0.0に設定
する。
【0047】図12はファジィ論理演算を実現するニュ
ーロンを示す図である。図12(a)に示すように、4
層目のrule 1に対応するニューロン24−1と3層目の
「Xis small」と「Y is small」に対応するニューロ
ン23−1,23−4との結合の重み値は各々7.0,
7.0に設定する。また、4層目のrule 1に対するニュ
ーロン24−1のしきい値は10.5に設定する。
【0048】この様にして、図12(a)に示すように
1個のニューロンを用いてファジィ楼理演算を実現す
る。このニューロンの入出力関係を図12(b)に示
す。この図12(b)に示す入出力関係を、図6に示す
限界積の入出力関係と比較すると、良い近似となってい
ることがわかる。 (b)次に前件部メンバシップ関数部13−1の実現方
法について説明する。
【0049】例えば、図11に示すような入力変数Xの
前件部メンバシップ関数に対応したプリワイヤは次のよ
うにして行なう。図11(a)において、ニューラルネ
ットワークは、入力変数Xを取り込むシグモイド関数ニ
ューロン24、このニューロン24に結合する線形関数
ニューロン25を有している。シグモイド関数ニューロ
ン24と線形関数ニューロン25との間の重みは、1.
0であり、ニューロン25のしきい値は0である。
【0050】small,big のように単調減少または単調増
加するメンバシップ関数については、1個のニューロン
のシグモイド関数を利用して実現する。middleのような
山形のメンバシップ関数については、2個のニューロン
を用い、2つのシグモイド関数の差によって実現する。 (c)次に後件部メンバシップ関数13−2の実現方法
について説明する。
【0051】図13は後件部メンバシップ関数を実現す
るニューラルネットワークを示す図である。図13に示
すように、出力変数Zの後件部メンバシップ関数に対応
したプリワイヤは、以下のようにして行なう。
【0052】6層目の各ニューロン26−1〜26−4
は、出力本数Zの座標上にとられた点に対応させる。5
層目のニューロン25−1〜25−3の一つから、6層
目の各ニューロン26−1〜26−4への結合の重み値
は、5層目のニューロン25−1〜25−3に対応する
後件部メンバシップ関数の、6層目の各ニューロン26
−1〜26−4に対応するZ座標上の点におけるグレー
ド値に設定する。例えば、Zがsmall のメンバシップ関
数のZ=0.0、0.33、0.67、1.0における
グレード値は、それぞれ1.0、0.0、0.0、0.
0である。
【0053】従って、5層目の1番目のニューロン25
−1(「Z is small 」に対応する)から6層目の各ニ
ューロン26−1〜26−4への結合の重み値は、1.
0、0.0、0.0、0.0に設定する。また、6層目
のニューロン26−1〜26−4のしきい値はすべて
0.0に設定する。
【0054】次に、このように構成されたニューラルネ
ットワーク部2aの内部動作を以下に説明する。ここ
で、5層目の1番目のニューロン25−1に注目する。
このニューロンの出力が1.0のとき、即ち「Z is sm
all 」=1.0のとき、6層目の各Z座標上の点に対応
するニューロンの入力値は、Z=0.0、0.33、
0.67、1.0における後件部メンバシップ関数smal
l のグレード値1.0、0.0、0.0、0.0と一致
する。これを図12の点線で示す。
【0055】そして、注目している5層目の1番目のニ
ューロン25−1の出力が、0.75のとき、即ち「Z
is small 」=0.75のとき、6層目の各Z座標上の
点に対応するニューロンの入力値は、0.75、0.
0、0.0、0.0となる。これを図13の実線で示
す。これは点線で示されるsmall のメンバシップ関数の
高さを、ファジィ命題「Z is small 」の値に比例させ
て縮小したこと、即ち0.75倍したことに相当する。
【0056】6層目のニューロン26−1〜26−4
は、線形ニューロンであるから、各ニューロン26−1
〜26−4の出力は、5層目の各ニューロン25−1〜
25−3からの入力の和である。
【0057】したがって、6層目の各ニューロン26−
1〜26−4の出力値は、対応するZ座標上の点におけ
る推論結果のメンバシップ関数のグレード値と一致す
る。例えば、「Z is small 」=0.75,「Z is mi
ddle」=0.25,「Z is big 」=0.05のときの
推論結果のメンバシップ関数を、図13の塗りつぶした
図形で示す。 (d)次に重心計算部15の実現方法について説明す
る。重心計算に対応したプリワイヤは次のように行な
う。図14は重心計算を実現するニューラルネットワー
クを示す図である。
【0058】図14において、6層目の各ニューロン2
6−1〜26−4から7層目の1番目のZaと名付けら
れたニューロン27−1への結合の重み値は、6層目の
ニューロン26−1に対応する点のZ座標値に設定され
る。また6層目の各ニューロン26−1〜26−4から
7層目の2番目のZbと名付けられたニューロン27−
2への結合の重み値は、6層目のニューロンに対応する
点のZ座標値−1が設定される。
【0059】このように構成されたニューラルネットワ
ーク部2aのコンポーネントの内部動作は以下のように
行われる。7層目のニューロン27−1(Za)の出力
値は、6層目の各ニューロン26−1〜26−4の出力
値(推論結果のメンバシップ関数の対応する点における
グレード値)の重み値(対応する点のZ座標値)荷重和
であるので、その値はZ=0.0における推論結果のメ
ンバシップ関数の回転モーメントと一致する。また、同
様に、ニューロン27−2(Zb)の値は、Z=1.0
における回転モーメントである。
【0060】これらの値から、Za/(Za−Zb)の
計算を行なうことにより、重心、例えばZ=0.23が
求められる。 (3)対象システムへの適用 前述したプリワイヤによって構築されたニューラルネ
ットワーク2を、実際の対象システム3に適用する。
【0061】プリワイヤによって構成されたニュラルネ
ットワーク2の入出力関係を図15に示す。ここで、
X,Yは入力変数であり、Zは出力変数である。プリワ
イヤ後のニューラルネットワーク2の入出力関係は、元
にしたファジィモデルの入出力関係と同様に細部につい
ては、対象システム3の入出力関係から外れているとこ
ろがあるが、おおまかな特徴は捉えられている。 (4)学習によるモデルの精度向上 プリワイヤによって構築されたニューラルネットワー
ク2に、図3に示す対象システム3の入出力関係を学習
させる。図3の格子(11×11)上の点のデータを教
師データとし、プリワイヤによって設定された重み値
(しきい値を含む。)を初期値として、ニューラルネッ
トワーク2の学習を行う。この学習は、図9に示す学習
部2bによって行われる。学習部2bは、学習結果の誤
差量によりバックプロパゲーション法に基づく重み値の
更新を行い、重み値格納部160へ出力する重み値変更
部161、対象物の入出力関係により定まる入力信号パ
ターンと出力信号パターンとの組からなる学習信号を格
納した学習信号格納部164、学習指示に従って学習信
号格納部164から学習信号を取り出し入力信号を階層
ネットワーク部2aの入力に与えるとともに教師信号を
重み値変更部161及び学習収束判定部163へ出力す
る学習信号提示部162、階層ネットワーク2aの出力
信号と学習信号提示部162から出力される教師信号と
を受けて階層ネットワーク部2aのデータ処理機能の誤
差が許容範囲に入ったか否かを判定してその判定結果を
学習信号提示部162に通知する学習収束判定部163
を備えている。
【0062】学習部2bにより、入力データを与えた時
の実際の出力値と、教師データとしての望ましい出力値
の差を減らすようにネットワーク中のすべての結合の重
みを変える。そして学習は、すべての学習データについ
て誤差がある設定値以下となるまで繰り返し行われ、学
習が収束する。
【0063】なお、図15に示したように、プリワイヤ
による初期値で、おおまかな調整は済んでいるので、微
調整だけを行えば良いので、学習は容易である。学習後
のニューラルネットワーク2の入出力関係を図19に示
す。図19をみればわかるように、図3に示す対象シス
テム3の入出力関係をほぼ再現することができた。 (5)学習後のニューラルネットワークの内部動作の説
明 学習後のニューラルネットワーク2の結合の重み値及
びしきい値の変化は以下のようにファジィルール及びメ
ンバシップ関数の変化として解釈される。 (a)学習後のファジィルールの比重の変化 学習後のファジィルールの比重の変化を図16に示す。
プリワイヤの時点では、各ファジィルールが同じ比重を
持って扱われることに対応して、4層目のニューロン2
4−1〜24−5と5層目のニューロン25−1〜25
−3との間の結合の重み値は、すべて同じ1に設定され
た。
【0064】図16(a)に示すように学習後のニュー
ロン24−1〜24−5とニューロン25−1〜25−
3との間の結合の重み値は、0.946、1.01、
1.10、0.933、0.995に変化している。図
16(b)に示すようにこの変化は、各ニューロン24
−1〜24−5に対応するファジィルール1〜5の比重
の変化として解釈される。 (b)学習後の前件部メンバシップ関数の変化 図17は学習による前件部メンバシップ関数の変化を示
す図である。図17(a)に示すように、学習前と学習
後での入力変数Xのメンバシップ関数に対応する部分の
重み値の変化を、メンバシップ関数の変化として捉えて
表示したものである。
【0065】図17(b)に示すように点線が学習前の
メンバシップ関数を示し、実線が学習後のメンバシップ
関数を示す。この変化は、メンバシップ関数の替り目に
おけるグレード値を0.5よりも大きくすることで、限
界積を用いることによる出力値の落込みを補償する働き
をしていると解釈される。 (c)学習後のファジィ論理演算の変化 図18は学習によるファジィ論理演算の変化を示す図で
ある。図18(a)では、学習後のrule 1に対応するニ
ューロン24−1の重み値の変化によるファジィ論理演
算の変化を示している。
【0066】図18(b)に示すように、rule 1にとっ
て「X is small」と「Y is small」とがほぼ等しい寄
与をすること、ファジィ論理演算がAND演算のままで
良いことが解釈される。 (6)実施例の特徴 次に、本実施例の特徴とする論理素子化装置4について
説明する。論理素子化装置4は、ニューラルネットワー
ク2aに接続され、次のように構成される。
【0067】ニューロン素子格納装置41は、ニューロ
ン20のうち、前述したファジィ論理演算に対応するニ
ューロン素子24を格納するものである。重み値正負検
出装置42は、ニューロン素子格納装置41に格納され
たニューロン素子24の各入力結線の重み値の正負を検
出し、この重み値の正負をニューロン素子入出力特性調
査装置43及び論理演算決定装置45に出力する。
【0068】ニューロン素子入出力特性調査装置43
は、重み値正負検出装置42からの入力結線の重み値の
正負に対応する入力パターンの値をニューロン素子格納
装置41に入力し、そのときのニューロン素子格納装置
41の出力パターンを得ることでニューロン素子の入出
力特性パターンを調査し、このニューロン素子24の入
出力特性パターンを論理演算種判定装置44に出力す
る。
【0069】論理演算種判定装置44は、各論理演算毎
の論理演算入出力特性パターンを格納する論理演算入出
力特性パターン格納装置47と、この論理演算入出力特
性パターン格納装置47に格納してある各論理演算毎の
論理演算入出力特性パターンとニューロン素子入出力特
性調査装置43からのニューロン素子入出力特性パター
ンとの照合を行う入出力特性パターン照合装置46とを
有し、照合によって論理演算種を判定する。
【0070】論理演算決定装置45は、論理演算種判定
装置44からの論理演算種と重み値正負検出装置42か
らの入力結線の重み値の正負とに基づき、対象とするニ
ューロン素子24の機能に対応する論理演算を決定す
る。
【0071】このように構成された論理素子化装置4の
動作について説明する。図21はニューロン素子の構成
を示す図である。図21に示すようにニューロン素子2
4は、複数の入力X1〜Xnに対して各入力結線でそれ
ぞれ重み値W1〜Wnだけ重み付けて、これらを加算器
201で加算し、この加算器201の出力をシグモイド
関数202に入力してシグモイド出力を得ている。
【0072】シグモイド関数は、 y=f(X1,X2,…Xn)=1/(1−e-(ΣWiXi-θ)) で表される。
【0073】図21はニューロン素子に2入力された場
合の重み値及びしきい値の設定を示す図である。ニュー
ロン素子24には、2つの入力結線を介して2つの入力
X,Yが入力するようになっており、このニューロン素
子24の出力は0〜1であるので、真に1、偽に0の値
を対応させる。
【0074】このニューロン素子24の重み値Wx,Wy
としきい値θの値は例えばそれぞれWx=−6.71,
Wy=6.55,θ=2.89とする。
【0075】ニューロン素子格納装置41には、対象と
するニューロン素子24の重み値Wx,Wyとしきい値θ
が格納される。重み値正負検出装置42により、ニュー
ロン素子格納装置41に格納されたニューロン素子24
の入力結線の重み値の正負が検出される。ここでは、入
力Xの入力結線の重み値Wxは負として、入力Yの入力
結線の重み値Wyは正として検出される。
【0076】次に、ニューロン素子入出力特性調査装置
43により、重み値正負検出装置42からの入力結線の
重み値が正の入力の場合には、偽(0)に対応する値か
ら真(1)に対応する値まで変化する入力パターンをニ
ューロン素子24に入力し、入力結線の重み値が負の入
力の場合には、真(1)に対応する値から偽(0)に対
応する値まで変化する入力パターンをニューロン素子2
4に入力して、そのときのニューロン素子24の出力を
得ることでニューロン素子24の入出力特性パターンを
調査する。
【0077】なお、前記入力パターンは次のようにして
決定される。ニューロン素子24の入力結線の重み値が
負である場合、その入力値が増加すると、ニューロン素
子24の出力値を減少させる。つまり、入力値の真
(1)に対応する値から偽(0)に対応する値まで変化
すると、ニューロン素子24の出力値を偽(0)に対応
する値から真(1)に対応する値まで変化させるから、
その入力はニューロン素子24に対して否定の入力とし
て扱われる。
【0078】したがって、入出力特性パターンを得るた
めの入力パターンとして、入力結線が正の入力へは偽
(0)に対応する値から真(1)に対応する値まで変化
するパターンを与えるのに対して、入力結線が負の入力
へは真(1)に対応する値から偽(0)に対応する値ま
で変化するパターンを与える必要がある。
【0079】ここでは、入力Xの入力結線の重み値Wx
の値が負であり、入力Yの入力結線の重み値Wyの値が
正であるから、入力パターンを以下のように与える。 X=(1−Ix);Ix=0.0,0.25,0.5,
0.75,1.0 Y=(1−Iy);Iy=0.0,0.25,0.5,
0.75,1.0 図23はニューロン素子入出力特性パターンを示す図で
あり、入力X,Yの入力パターンに対するニューロン素
子入出力特性パターンを示している。
【0080】一方、論理演算入出力特性パターン格納装
置47には、図24に示すように、X and Y(図
24(a))、X or Y(図24(b))、平均
(図24(c))、X(図24(d))、Y(図24
(e))、真(図24(f))、偽(図24(g))の
論理演算入出力特性パターンが格納されている。
【0081】次に、論理演算種判定装置44において、
入出力特性パターン照合装置46により図23に示すニ
ューロン素子入出力特性パターンと、図24に示す各論
理演算入力特性パターンとの照合を行い、対象とするニ
ューロン素子24と機能の最も似ている論理演算種を判
定する。
【0082】入出力特性パターン照合装置46における
照合方法として、例えば次の3つの方法がある。 (a)対象とするニューロン素子24と機能の最も似て
いる論理演算種を判定する基準として、ニューロン素子
入出力特性パターンと各論理演算入出力特性パターンと
の差の最大成分が最小となる論理演算種を選択する。 (b)また、ニューロン素子入出力特性パターンと各論
理演算入出力特性パターンとの差の2乗和が最小となる
論理演算種を選択する。 (c)さらに、ニューロン素子入出力特性パターンと各
論理演算入出力特性パターンとの差の絶対値の和が最小
となる論理演算種を選択する。
【0083】ここでは、(b)により差の2乗和の比較
によって照合を行った。その照合結果を図25に示す。
図25に示すように差の2乗和が最小となる論理演算種
はand論理演算であることがわかる。
【0084】その結果、and論理演算が選択されるの
で、論理演算決定装置45において、対象とするニュー
ロン素子24の入力結線の重み値が正の入力は肯定入力
であり、入力結線の重み値が負の入力は否定入力であ
り、判定結果の種類の論理演算を行う論理素子であるこ
とを決定する。
【0085】すなわち、与えられたニューロン素子20
を論理素子化すると、 X and Y となる。
【0086】従って、ニューラルネットワーク2aを学
習させた後の各ルールを対応するニューロンの重み値が
大きく変化した場合にも、ニューロン素子24を論理素
子化することによって、ニューロンの機能を解釈するこ
とが可能となる。
【0087】
【発明の効果】本発明によれば、ニューラルネットワー
クを学習させた後の各ルールを対応するニューロンの重
み値が大きく変化した場合にも、ニューロン素子を論理
素子化することによって、ニューロンの機能を解釈する
ことが可能となる。
【図面の簡単な説明】
【図1】本発明の原理図である。
【図2】本発明の実施例の構成を示す図である。
【図3】対象システムの入出力関係を示す図である。
【図4】ファジィルールを示す図である。
【図5】前件部メンバシップ関数を示す図である。
【図6】ファジィ論理演算を示す図である。
【図7】後件部メンバシップ関数と非ファジィ化を示す
図である。
【図8】ファジィルールの入出力関係を示す図である。
【図9】ファジィルールと対比した構造を有するニュー
ラルネットワークを示す図である。
【図10】ニューラルネットワーク部を示す図である。
【図11】前件部メンバシップ関数を実現するニューラ
ルネットワークを示す図である。
【図12】ファジィ論理演算を実現するニューロンを示
す図である。
【図13】後件部メンバシップ関数を実現するニューラ
ルネットワークを示す図である。
【図14】重心計算を実現するニューラルネットワーク
を示す図である。
【図15】プリワイヤ後のニューラルネットワークの入
出力関係を示す図である。
【図16】学習後のファジィルールの比重の変化を示す
図である。
【図17】学習による前件部メンバシップ関数の変化を
示す図である。
【図18】学習によるファジィ論理演算の変化を示す図
である。
【図19】学習後のニューラルネットワークの入出力関
係を示す図である。
【図20】論理素子化装置の構成ブロック図である。
【図21】ニューロン素子の構成を示す図である。
【図22】ニューロン素子への重み値及びしきい値の設
定を示す図である。
【図23】ニューロン素子入出力特性パターンを示す図
である。
【図24】論理演算入出力特性パターンを示す図であ
る。
【図25】入出力特性パターン照合結果を示す図であ
る。
【図26】従来のニューロ・ファジィ融合システムの概
略図である。
【符号の説明】
1・・ファジィモデル作成部 2・・ニューラルネットワーク 3・・対象システム 4・・論理素子化装置 21〜27・・各層 20,21−1〜27−2・・ニューロン 41・・ニューロン素子格納装置 42・・重み値正負検出装置 43・・ニューロン素子入出力特性調査装置 44・・論理演算種判定装置 45・・論理演算決定装置 46・・入出力特性パターン照合装置 47・・論理演算入出力特性パターン格納装置 X,Y・・入力変数 Z・・出力変数 2a・・ニューラルネットワーク部 2b・・学習部
フロントページの続き (56)参考文献 特開 平3−260860(JP,A) 川村旭・他,「ニューロ・ファジィ融 合システム」,情報処理学会研究報告, 日本,Vol.91、No.36(MIC− 66),1991年,pp.66.3.1−66. 3.8,(JICST資料番号:Z0031 B) 川村旭・他,「ニューロ・ファジィ融 合システムの試作」,第5回生体・生理 工学シンポジウム論文集,日本,1990 年,pp.197〜200,(JICST資料 番号:X0823A) (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/00 G06G 7/60 G06F 9/44 CSDB(日本国特許庁) JICSTファイル(JOIS)

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】 対象物の入出力関係を、ファジィ集合を
    それぞれに持つ複数の命題間をファジィ論理演算してな
    るファジィルールとこのファジィルールの命題を定量化
    すべく定義したメンバシップ関数との形式で抽出してフ
    ァジィモデルを作成するファジィモデル作成手段と、前
    記作成されたファジィモデルに従いニューロン素子間
    入力結線の重み値を設定するニューラルネットワークと
    を備え、ニューラルネットワークに前記対象物の入出力
    関係を学習させ、学習後の前記重み値の変化に伴って少
    なくとも前記ファジィ論理演算を変化させるニューロ・
    ファジィ融合システムであって、 前記ニューロン素子のうち前記ファジィ論理演算に対応
    するニューロン素子の各入力結線の重み値の符号を検出
    する検出装置と、この検出装置からの入力結線の重み値
    が正の入力の場合には偽に対応する値から真に対応する
    値まで変化する入力パターンを入力し、入力結線の重み
    値が負の入力の場合には真に対応する値から偽に対応す
    る値まで変化する入力パターンの値を前記ニューロン素
    子に入力しそのときのニューロン素子の出力を得ること
    でニューロン素子の入出力特性パターンを調査する調査
    置と、この調査装置からのニューロン素子入出力特性
    パターンと予め定めた各論理演算毎の論理演算入出力特
    性パターンとの照合を行い論理演算種を判定する判定装
    置と、前記検出装置からの入力結線の重み値の符号と前
    記判定装置からの論理演算種とに基づき前記ニューロン
    子の機能に対応する論理演算を決定する決定装置と
    有するニューロン素子の論理素子化装置を備えたことを
    特徴とするニューロ・ファジィ融合システム。
  2. 【請求項2】 前記判定装置は、前記ニューロン素子入
    出力特性パターンと前記各論理演算入出力特性パターン
    との差の最大成分が最小となる論理演算種を選択する入
    出力特性照合装置を有することを特徴とする請求項1記
    載のニューロ・ファジィ融合システム。
  3. 【請求項3】 前記判定装置は、前記ニューロン素子入
    出力特性パターンと各論理演算入出力特性パターンとの
    差の2乗和が最小となる論理演算種を選択する入出力特
    性照合装置を有することを特徴とする請求項1記載のニ
    ューロ・ファジィ融合システム。
  4. 【請求項4】 前記判定装置は、前記ニューロン素子入
    出力特性パターンと各論理演算入出力特性パターンとの
    差の絶対値の和が最小となる論理演算種を選択する入出
    力特性照合装置を有することを特徴とする請求項1記載
    のニューロ・ファジィ融合システム。
JP03105192A 1992-02-18 1992-02-18 ニューロ・ファジィ融合システム Expired - Fee Related JP3292495B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03105192A JP3292495B2 (ja) 1992-02-18 1992-02-18 ニューロ・ファジィ融合システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03105192A JP3292495B2 (ja) 1992-02-18 1992-02-18 ニューロ・ファジィ融合システム

Publications (2)

Publication Number Publication Date
JPH05233583A JPH05233583A (ja) 1993-09-10
JP3292495B2 true JP3292495B2 (ja) 2002-06-17

Family

ID=12320690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03105192A Expired - Fee Related JP3292495B2 (ja) 1992-02-18 1992-02-18 ニューロ・ファジィ融合システム

Country Status (1)

Country Link
JP (1) JP3292495B2 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2744321B2 (ja) * 1990-03-12 1998-04-28 富士通株式会社 適応型データ処理装置の解析処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
川村旭・他,「ニューロ・ファジィ融合システム」,情報処理学会研究報告,日本,Vol.91、No.36(MIC−66),1991年,pp.66.3.1−66.3.8,(JICST資料番号:Z0031B)
川村旭・他,「ニューロ・ファジィ融合システムの試作」,第5回生体・生理工学シンポジウム論文集,日本,1990年,pp.197〜200,(JICST資料番号:X0823A)

Also Published As

Publication number Publication date
JPH05233583A (ja) 1993-09-10

Similar Documents

Publication Publication Date Title
Jang et al. Neuro-fuzzy modeling and control
Kuo et al. An intelligent stock trading decision support system through integration of genetic algorithm based fuzzy neural network and artificial neural network
Babuška Fuzzy systems, modeling and identification
Chiang Choquet fuzzy integral-based hierarchical networks for decision analysis
Jain et al. Hybrid intelligent engineering systems
JP2747104B2 (ja) ニューラルネットワーク
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
Mishra et al. Neuro-fuzzy models and applications
US5347615A (en) Rule generating and verifying apparatus for fuzzy control using temporary exclusion of a selected rule
Lin et al. A recurrent fuzzy cellular neural network system with automatic structure and template learning
JP3354593B2 (ja) ネットワーク型情報処理装置の学習システム
JP3292495B2 (ja) ニューロ・ファジィ融合システム
Terziyska A distributed adaptive neuro-fuzzy network for chaotic time series prediction
Adamy et al. Equilibria of continuous-time recurrent fuzzy systems
Vai et al. Representing knowledge by neural networks for qualitative analysis and reasoning
JPH05224939A (ja) ファジィ集合処理方式
JPH0954764A (ja) モデルの汎化能力評価方法
JP3396489B2 (ja) ネットワーク型情報処理システム
Yasin Systematic methods for the design of a class of fuzzy logic controllers
Iyoda et al. Evolutionary design of neurofuzzy networks for pattern classification
JPH05150992A (ja) フアジイ推論のニユーラルネツトワークへの自動展開方法
Averkina et al. Rules Acquisition from Classic, Deep and Neuro-Fuzzy Systems
Tzouvaras et al. Knowledge refinement using fuzzy compositional neural networks
JP2761569B2 (ja) 重心決定要素出力装置の教師信号決定装置
JPH04170641A (ja) ファジィ制御装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020312

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080329

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090329

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100329

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees