JPH03291729A - ファジィ推論装置 - Google Patents

ファジィ推論装置

Info

Publication number
JPH03291729A
JPH03291729A JP2093632A JP9363290A JPH03291729A JP H03291729 A JPH03291729 A JP H03291729A JP 2093632 A JP2093632 A JP 2093632A JP 9363290 A JP9363290 A JP 9363290A JP H03291729 A JPH03291729 A JP H03291729A
Authority
JP
Japan
Prior art keywords
inference
output
unit
amount
consequent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2093632A
Other languages
English (en)
Inventor
Isao Hayashi
勲 林
Noboru Wakami
昇 若見
Hiroyoshi Nomura
博義 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2093632A priority Critical patent/JPH03291729A/ja
Priority to EP91105484A priority patent/EP0451742B1/en
Priority to DE69123623T priority patent/DE69123623T2/de
Publication of JPH03291729A publication Critical patent/JPH03291729A/ja
Priority to US08/265,617 priority patent/US5630018A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic
    • G06N7/04Physical realisation
    • G06N7/046Implementation by means of a neural network

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 産業上の利用分野 本発明は入力データから制御量等の推定量を決定したり
、パターン認識における帰属度を推定する推論装置に関
するものである。
従来の技術 まずミ ファジィ推論の基本概略について説明する。
人間の評価が関与するシステム系において、操作者が感
覚的に判定したあいまいな変量(例えば「大きい」、 
「中位」等)を用いて最終の推論操作量を決定する場合
がある。ファジィ推論を用いた推論装置ではIF・・・
THEN・・・形式の推論規則にあいまいな変量として
ファジィ変数を用いて記述する。
第5図にファジィ変数の一例を示す。ファジィ推論で(
よ 前件部(IF部)には必ずファジィ変数を記述する
力交 後件部(THEN部)ではファジィ変数、もしく
は方程式を記述する。推論過程は後件部がファジィ変数
の場合は 実数俵 あるいはファジイ数を入力すると前
件部のファジィ変数を表すメンバシップ関数との適合度
合を計算して、複数の適合度合の処理を経て後件部での
出力のファジイ数を決定している。実際の操作量は複数
の規則による出力のファジイ数の重心値等を取ることに
より得ることができる。また 後件部が方程式の場合に
(よ 重心を求める等の処理を経ることなく実際の操作
量を求めることができる。このファジィ推論を用いた従
来の推論方法としてはファジィモデリング等がある。例
えハ善根沢、菅野道夫、″ファジィモデリング′″、計
測自動制御学会論文集vow、、 23. no、 6
. pp、 650−652.1987)if−、に示
されている。
一方、ファジィモデリングにニューラルネットワークの
学習性を導入して、ファジイ数を表現するメンバシップ
関数と、推論ルールの形状を自動決定する手法、及び装
置がある(特願平1−83409号、特願昭63−12
4354号)。
この手法(瓜 ファジィモデリングの一種類ではある列
上 ニューラルネットワークの学習性を導入している点
が異なる。ニューラルネットワークとは脳神経細胞の結
合にヒントを得た数理ネットワークである。ネットワー
クを構成するユニット間の接続強度を逐次学習で決定す
ることにより、ニューラルネットワーク全体としては非
線形問題を解くことができる。
従来例の構成図の一例を第12図に示す。
第12図において、 1201〜120rは推論規則毎
の推論規則実行部分、 1203は推論規則毎に得られ
た推定値から最終的な推論操作量を決定する推論操作量
決定部である。各推論規則実行部は2つの部分から構成
さh  1211〜121rが推論規則の前件部を同定
するメンバシップ値推定訊 1221〜122rが推論
規則の後件部を同定する推論規則推定部である。
ここで、メンバシップ値推定81.211〜121r、
および、推論操作量推定部1221〜I22rは第9図
に示すような多段の回路網的構成をしている。第9図に
おいて、 91は多大カー多出力信号処理部を示し 9
2はニューラルネットワークモデル入力部を表している
。第12図のメンバシップ値推定部1211〜121 
r、  および、推論操作量推定部1221〜122r
は推論規則毎に前件部と後件部を構造同定し 与えられ
た入力値から前件部のメンバシップ値の推定値と後件部
の推論操作量を表わす関数式の変数を求める。
こうして得られた各推論規則に従って、最終的な推論操
作量を決定するのが推論操作量決定部1203である。
次に その操作例を示す。ここでは近藤瓜モデルの次数
を推定する改良形G M D H”  計測自動制御学
会論文集、 vol、 22. no、 9. pp、
 928−934.1986年に示されている数値例を
用いた場合について説明する。
計算処理アルゴリズムは次の通りである。
[ステップ 1] 観測値y+ 、 i=1.2.・・・、nに関連する入
力変数x+ j、 j=1.2.・・・1mを定める。
必要があれば人出力データ (xll、y+)の正規化
を行う。第6図に入出力データを示す。
[ステップ 2] 人出力データ (Xl、yl)をモデル推定の構造同定
用データ(以下、TRDと記す。lt個)と推定モデル
の評価用データ(以下、CHDと記す。no個)とに分
割する。ここで、n=Tlt+noである。第6図で(
よデータ番号1−20は構造同定用(TRD)であり、
データ番号21−40は評価用(CHD)である。した
がって、nt=20. no=20となっている。また
 m=4である。
[ステップ 3] TRDをクラスタリング手法を用いて最適なr分割を行
う。r分割された学習データの各組をR”、 s=1.
2.−−− 、r、  R”の学習データを(XI”、
71″′)。
i=1+2. ’−+(nt)″とする。ただL  (
nt)”は各RI+でのTRDのデータ数を示す。ここ
では入力変数の空間である4次元空間は2個にr分割さ
れることになる。
[ステップ 4] 前件部の構造の同定を行う。Xl を入力層の入力値に
割り付(す、出力層の出力値として、1 :XIがR”
に属する − 0:XIがR”に属さない for i=L ・−、n 、 s=1.− 、rを割
り付ける。学習によってW1″を推定するニューラルネ
ットワークを同定する。この時、各学習データ(xl、
y+’)の各R”に属する度合いW+’の推定値を前件
部のメンバシップ値と定義する。ニューラルネットワー
クは3層構造を用も\ 5000回学習して前件部のフ
ァジイ数を得る。この時のRI′に対する前件部のファ
ジイ数をAで表記する。
第7図にファジイ数Aのメンバシップ値を示i−。
[ステップ 5] ステップ4で得られたニューラルネットワー9− 0− りにCHDの各評価データ (x+、yl) 、i=1
.2.−+n。
を代入して、CHDのメンバシップ値を求める。
W1″’ =μ0a(x1+y+)+   i=1.2
. ・、n。
[ステップ 6] 後件部の構造の同定を行う。各規則毎の後件部構造モデ
ルをニューラルネットワークの人出力関係で表わす。T
RDの入力値xl+ 、 −、xln、 i=1.2゜
・・・、(nt)″と出力値y1を、そのニューラルネ
ットワークに割り付(す、出力値を推定する。学習され
たニューラルネットワークにCHDの入力値X11.・
・・、Xln、 i−1+2+・・’I”を代入し 誤
差二乗和e、を求める。
O3=Σ(yl −eyl )” ただり、  ey+ は推定値である。この○pを入力
変数、及びアルゴリズム停止側に用いる。
[ステップ 7] 変数減少法を用いて、入力変数を削減する。
各推論規則において、任意の1個の入力変数を取り除き
ステップ6と同様にTRDを用いてニューラルネットワ
ークを同定する。次r、’=  CHDを用いた場合1 の推論操作量の推定誤差二乗和elp・1を計算する。
この時、 ep>  ○D++           (1)とな
る場合には取り除いた入力変数Xの重要度は低いと考え
られるので、 Xを捨てる。
[ステップ 8] 以下、ステップ6〜ステツプ7を繰り返しく1)式が全
ての入力変数に対して成立しなくなった場合に計算を停
止する。eが最小となるモデルが最適なニューラルネッ
トワークである。得られたファジィ推論規則は R’ :  IF X=(XI、X2.X3) is 
A’THEN y’ = NNI(XI、X2.Xl)
R2:  IF x=(x+、x2.xs) is A
”THEN y2= NN2(X2.Xl)となる。た
だL  y=NN(x)は後件部の構造を同定する最に
用いた各規則毎のニューラルネットワークの入出力関係
である。
ステップ1〜ステツプ8により、各推論規則毎の前件部
と後件部が決定され ファジィモデル2− の構造同定が終了する。推論操作量311”は以下の式
により得られる。
i=1.2.  ・・・ 、n ただLmy+”はステップ7で得られた最適なニューラ
ルネットワークから得られる推定値である。
(2)式のyloを第8図に示す。
このように 従来のニューラルネットワークを用いたフ
ァジィ推論はニューラルネットワークの学習性を用いて
発見的方法を取ることもなく、容易に推論規則を得るこ
とができる。
しかしなが転 従来のニューラルネットを用いた推論装
置はファジィ推論規則の後件部が推論操作量推定部12
21〜122rで一定に固定されており、推論環境が変
化した場合にも状況に応じて推論操作量を変更させる機
能は持たな賎 また前件部 及び後件部の構造をニュー
ラルネットワークで同定するたム 全でのニューラルネ
ットワークの決定すべきパラメータの値を所有しなげれ
ばなら’?l″′、記憶容量が膨大に必要であっ?−0
発明が解決しようとする課題 上記のニューラルネットワークを用いたファジィ推論装
置では一度、前件部と後件部の構造がニューラルネット
ワークを用いて決定されると、推論環境の変化に対して
構造を再決定するアルゴリズムにはなっていない。その
た吹 構造を再決定するためにはもう一度アルゴリズム
を開始しなければならず、状況の変化に応じた推論操作
量を高速に決定することはできないでい九 更に 前件
部 及び後件部の構造をニューラルネットワークで同定
する装置であるたム 全てのニューラルネットワークの
決定すべきパラメータの値を所有しなければならず、記
憶容量が膨大に必要であった本発明はかかる点に鑑次 
後件部の構造を非線形探索アルゴリズムを用いて決定し
 推論環境が変化しても推論ルールが自動的にその環境
に追従し かつ、追従速度が高速 記憶容量の低減化を
可能にしたファジィ推論装置を提供することを目的とす
る。
3− 4− 特に 第1の発明は評価関数を頼りにして、推論ルール
を推論環境の変化に応じて学習するものである。
第2の発明は第1の発明と同様な方法で学習する力丈 
前件部の構成方法が異なっている。
第3の発明は正しい入出力データ(教師データ)を頼り
にして、推論ルールを推論環境の変化に応じて学習する
ものである。
第4の発明は第3の発明と同様な方法で学習する列上 
前件部の構成方法が異なっている。
課題を解決するための手段 第1の発明であるファジィ推論装置(よ 入力変数と出
力変数のデータから推論規則の個数を決定する推論規則
分割決定部と、前件部のメンバシップ値をニューラルネ
ットワークを用いて求める前件部ニューロ構底部と、初
期状態或は推論環境が変化した場合に後件部の推論量を
適応的に決定する状況変化処理部と、推論規則に従って
ファジィ推論を行ない推論操作量を決定する推論操作量
決定部と、評価基準にしたがって推論操作量の評価を行
う評価部と、状況変化処理部には初期値設定を行う初期
設定決定部と、後件部のパラメータを変化させ探索する
パラメータ探索部とを具備する。
第2の発明であるファジィ推論装置(よ 入力変数と出
力変数のデータから推論規則の個数を決定する推論規則
分割決定部と、前件部のメンバシップ値を空間距離を計
算して求める前件部数値処理決定部と、初期状態或は推
論環境が変化した場合に後件部の推論量を適応的に決定
する状況変化処理部と、推論規則に従ってファジィ推論
を行ない推論操作量を決定する推論操作量決定部と、評
価基準にしたがって推論操作量の評価を行う評価部と、
状況変化処理部には初期値設定を行う初期設定決定部と
、後件部のパラメータを変化させ探索するパラメータ探
索部とを具儀 また 第3の発明であるファジィ推論装置(よ入力変数
のデータから推論規則の個数を決定する推論規則分割決
定部と、前件部のメンバシップ値をニューラルネットワ
ークを用いて求める前件部ニューロ構成部と、出力デー
タを推論規則の個数5− 6− に分割する出力データ分割部と、初期状態或は推論環境
が変化した場合に後件部の推論量を適応的に決定する状
況変化処理部と、推論規則に従ってファジィ推論を行な
い推論操作量を決定する推論操作量決定部と、推論操作
量決定部の出力である推論操作量と出力データを比較し
て評価を行う評価部と、状況変化処理部には初期値設定
を行う初期設定決定部と、後件部のパラメータを変化さ
せ探索するパラメータ探索部とを具備する。
また 第4の発明であるファジィ推論装置(戴入力変数
のデータから推論規則の個数を決定する推論規則分割決
定部と、前件部のメンバシップ値を空間距離を計算して
求める前件部数値処理決定部と、出力データを推論規則
の個数に分割する出力データ分割部と、初期状態或は推
論環境が変化した場合に後件部の推論量を適応的に決定
する状況変化処理部と、推論規則に従ってファジィ推論
を行ない推論操作量を決定する推論操作量決定部と、推
論操作量決定部の出力である推論操作量と出力データを
比較して評価を行う評価部と、状況変化処理部には初期
値設定を行う初期設定決定部と、後件部のパラメータを
変化させ探索するパラメータ探索部とを具備する。
作用 本発明は前記した構成により、ニューラルネットワーク
の非線形特性を用いて、 rIF・・・THEN・・・
」形式で書かれたファジィ推論規則の前件部の構造を同
定し 後件部のパラメータを非線形探索法で決定し 推
論環境が変化しても高速に 低記憶容量で柔軟に適応で
きる推論操作量を提供できる。
実施例 以下に 本発明の実施例を図面を用いて説明する。
第1図は第1の発明のファジィ推論装置の一実施例の構
成国である。第1図において、 11は入力変数と出力
変数のデータを取り込み推論規則の個数を決定する推論
規則分割決定部 12は分割された入力変数と出力変数
のデータから特定の推論規則の前件部に相当するメンバ
シップ値をニューラルネットワークを用いて求める前件
部ニュー7− 口構成龜 13は初期状態或は推論環境が変化した場合
に後件部の推論量を適応的に決定する状況変化処理部 
14は前件部ニューロ構成部の出力と前記状況変化処理
部の出力とを入力し推論規則に従ってファジィ推論を行
ない推論操作量を決定する推論操作量決定部 15は推
論操作量決定部の出力である推論操作量を評価基準にし
たかって評価を行う評価a 13aは状況変化処理部に
あって、推論規則分割部の出力値を用いて後件部の推論
量の初期値設定を行う初期設定決定部13bは初期設定
決定部の出力から探索を開始して評価部の出力に従い後
件部のパラメータを変化させ探索するパラメータ探索部
である。
次に 第1の発明のファジィ推論装置について、その動
作過程を説明する。
[ステップ l] 観測値y+、 i=1.2.・・・、nに関連する入力
変数x]j、 j=1.2.・・・、kを定める。 1
1の推論規則分割決定部で次の処理をする。まずミ 変
数減少法を用いて必要な入力変数のみを決定し 入力変
数19= の個数をm個とする。また 全データをクラスタリング
手法を用いて最適なr分割にする。r分割された学習デ
ータの各組をR”、 s=1.2.−= 、rSR”の
データを(X1″’、3’l”)l i=1.2. ・
、nB とする。
ただl、、  n+1は各R”でのデータ数を示も[ス
テップ 2コ 12の前件部ニューロ構成部で、前件部のメンバシップ
値を同定する。 (x+ ” + yl” )を入力層
の入力値に割り付け、出力層の出力値として、1  :
 (x+、y+)がR” ニ属するW+” 0 ・(Xl、yl)がR1+に属さないfor i=
1.−、n 、 s=1. ・、rを割り付ける。学習
によってWl″を推定するニューラルネットワークを同
定する。このlI東  度合いW1″の推定値を前件部
のメンバシップ値として定義する。
[ステップ 3] 13の状況変化処理部の初期設定決定部13aを用いて
、後件部の実数値探索の初期値を与え一加一 る。例えば 推論規則分割決定部11で得られた各規則
毎の出力データの平均値を初期値とする。
ずなわ板 各規則Sの後件部の実数値の初期値をsz 
とすると、 sz”=(Σy−) /na 、  i=1.2.−、
naとなる。
[ステップ 4] 13bのパラメータ探索部で後件部実数値をある探索規
則に従い変化させ探索する。探索法は例えば パターン
探索法や回転方向法を用いる。
ここではパターン探索法について簡単に述べる。
パターン探索法は探索移動で現在の探索点の近(の目的
関数の様子を探って「谷」の方向の見当をつ(す、パタ
ーン移動でその方向に移動するという手続きを反復する
(1)探索移動 f(x+に+a1kd+) < f(xlk)、  i
=1.2.−、nならば 探索移動は成功でx+++に
’=x1に+a+kd+ とする。さもなくIf、  
a+に一−alk とおいて同じ手続きを行う。両方と
も失敗なら41  x+・Ik”Xlk とする。
ただり、fは評価関数であり、ここでは最小化問題を考
えている。ま?Q  x+bはに番目の探索であり、現
在、i番目のパラメータに注目している場合の探索点を
表す。さらに%  alk、 d+ はそれぞれ重み(
alk>0)、i番目が■である単位ベクトルを表して
いる。
(2)パターン探索 基点XB’からX−とX8に−1を結ぶ方向に同じ距離
だけ移動する。ずなわ板 戸 二 xak十(xak−xs” )とする。ここで
、基点X[Ikはに番目の探索が終了した時の探索点を
表1..  Xkは新たな探索点を示す。第10図にパ
ターン探索の概念図を示−!l−。
ここでのアルゴリズムでは評価関数fは第1図の15の
評価部に代入されている。また その評価関数fには1
4の推論量操作部で得られた推論操作量が代入され評価
値が得られる。その推論操作量はファジィ推論の結果の
推定値であり、 13bで探索されるパラメータ戸は後
件部の実数値となっている。
21− −館一 以上のような構成を用いて、まずミ 後件部の実数値が
設定され その実数値を用いてファジィ推論の推定値が
得られ その推定値を評価関数に代入して総合評価が得
られる。パラメータである後件部の実数値は評価値が良
くなるように学習されていく。結凰 推論ルールが適応
的に変更されファジィ推論が学習機能を持つことになる
。また後件部が非線形探索法を用いて学習されているの
で、ニューラルネット等を用いる学習法よりも速度が高
速であり、記憶容量の低減化も可能となる。
次に 第2の発明の実施例について説明する。
第2図は第2の発明のファジィ推論装置の一実施例の構
成図である。第1図において、 21は入力変数と出力
変数のデータを取り込み推論規則の個数を決定する推論
規則分割決定a  22は分割された入力変数と出力変
数のデータから特定の推論規則の前件部に相当するメン
バシップ値を空間距離を計算して求める前件部数値処理
決定!  23は初期状態或は推論環境が変化した場合
に後件部の推論量を適応的に決定する状況変化処理部 
2−開− 4は前件部ニューロ構成部の出力と前記状況変化処理部
の出力とを入力し推論規則に従ってファジィ推論を行な
い推論操作量を決定する推論操作量決定a  25は推
論操作量決定部の出力である推論操作量を評価基準にし
たがって評価を行う評価a 23aは状況変化処理部に
あって、推論規則分割部の出力値を用いて後件部の推論
量の初期値設定を行う初期設定決定%23bは初期設定
決定部の出力から探索を開始して評価部の出力に従い後
件部のパラメータを変化させ探索するパラメータ探索部
である。
次に 第2の発明のファジィ推論装置について、その動
作過程を説明する。
ステップ1、3及び4は第1の発明と動作過程が同じな
ので、ここでの説明は省略する。ステップ2のみを説明
する。
[ステップ 2] 22の前件部数値処理決定部で、前件部のメンバシップ
値を決定する。各推論規則の入出力データ (X−+ 
y+ ” )か転 クラスタリング手法で得ら一別一 れた各推論規則毎のコア(核)までの距離を求ムその値
を正規化する。正規化された度合をWI′とする。この
時、度合いW1″′を前件部のメンバシップ値として定
義する。
以上のような構成を用いて、推論ルールが適応的に変更
され ファジィ推論が学習機能を持つことになる。また
 前件部が統計処理を用いて決定され 後件部が非線形
探索法を用い探索法を用いて学習されているの玄 ニュ
ーラルネット等を用いる学習法よりも速度が高速であり
、記憶容量の低減化も可能となる。
吹成 第3の発明の実施例を図面を用いて説明する。
第3図は第3の発明のファジィ推論装置の一実施例の構
成図である。第3図において、 31は入力変数データ
を取り込み推論規則の個数を決定する推論規則分割決定
部 32は分割された入力変数のデータから特定の推論
規則の前件部に相当するメンバシップ値をニューラルネ
ットワークを用いて求める前件部ニューロ構成a36は
出力変数データを取り込み推論規則分割決定部の出力に
従って出力データを推論規則の個数に分割する出力デー
タ分割a  33は初期状態或は推論環境が変化した場
合に後件部の推論量を適応的に決定する状況変化処理a
  34は前件部ニューロ構成部の出力と状況変化処理
部の出力とを入力し推論規則に従ってファジィ推論を行
ない推論操作量を決定する推論操作量決定a  35は
推論操作量決定部の出力である推論操作量を出力データ
と比較して評価を行う評価a33aは状況変化処理部に
あって、出力データ分割部の出力値を用いて後件部の推
論量の初期値設定を行う初期設定決定部33bは初期設
定決定部の出力から探索を開始して評価部の出力に従い
後件部のパラメータを変化させ探索するパラメータ探索
部である。
次に 第3の発明のファジィ推論装置について、その動
作過程を説明する。
[ステップ 1] 観測値y1. i=1.2.・・・、nに関連する入力
変数xz、 j=1.2.・・・、kを定める。31の
推論規則−る− 肪− 分割決定部で次の処理をする。まず、変数減少法を用い
て必要な入力変数のみを決定し 入力変数の個数をm個
とする。ま?=  入力データのみをクラスタリング手
法を用いて最適なr分割にする。
r分割されたデータの各組をR”、 s=1.2.−、
 r。
R1′のデータをxI ” g 1=1121 ・・・
+ n”とする。ただj、、  nsは各R″′でのデ
ータ数を示す。分割した各規則の入力データを規則の組
ごとにして、 36の出力データ分割部に送る。
[ステップ 2コ 出力データ分割部36では各規則毎の入力データ番号か
ら出力データをr分割する。その各組の出力データをy
+・、 i=1.2.・・・、n″′とする。
[ステップ 3] 32の前件部ニューロ構成部で、前件部のメンバシップ
値を同定する。xlを入力層の入力値に割り付(す、出
力層の出力値として、 1 ・xlがR″′に属する W、8  = 0:xIがR1′に属さない for  i=1. −・−、n  、  s=1.−
、rを割り付ける。学習によってWI”を推定するニュ
ーラルネットワークを同定する。この時、度合いW−の
推定値を前件部のメンバシップ値として定義する。
[ステップ 4] 33の状況変化処理部の初期設定決定部33aを用いて
、後件部の実数値探索の初期値を与える。例えば 推論
規則分割決定部31で得られた各規則毎の出力データの
平均値を初期値とする。
すなわち、各規則Sの後件部の実数値の初期値をszと
すると、 sz’ = (Σy1″’) /nII、  i=1.
2.−、nsとなる。
[ステップ 5] 33bのパラメータ探索部で後件部実数値2をある探索
規則に従い変化させ、探索する。探索法は例えば 最急
降下法を用いる。最急降下法について簡単に述べる。こ
の方法は点xkにおける方向ベクトルdk として、 一胃一 一沼− dk  =  −tf(xk) をとる。ここで、t f(Xk )はXにおけるfの勾
配ベクトルを意味する。上記の方程式を用いるのはdk
の方向がfの減少率が最も大きくなるためである。ここ
でのアルゴリズムでは評価関数fとして次式を用いる。
E−Σ(yl−eyl)2/ま ただl、、  ey+ はファジィ推論の推定値である
後件部の実数値2を最適値に学習する方向を定める変化
量△がを求める。まず、Eを2で偏微分する。
dE/dz”−(dE/dey+)x (dey+/d
z”)ここで、 d E/ d ey+ =−(yl−ey+ )d e
y1/ d z6=W’/ΣW”から、 d F、/ d zl′= −(y+ −ey+ )W
’ 72w”となる。最急降下法から、 △z ”=−α(d E/ d z’)α(yl−ey
l)W’/Σw” となる方向に2を変化させれI′L zは適応的に学習
されて最適値に収束する。第11図に最急降下法の概念
図を示す。
ここでのアルゴリズムでは評価関数fは第3図の35の
評価部に代入されている。また その評価関数fには3
4の推論量操作部で得られた推論操作量と正確な出力値
が代入され評価値が得られる。推論操作量はファジィ推
論の結果の推定値であり、 33bで探索されるパラメ
ータxkは後件部の実数値となっている。
以上のような構成を用いて、まず、後件部の実数値が設
定され その実数値を用いてファジィ推論の推定値が得
られ その推定値を評価関数に代入して総合評価が得ら
れる。パラメータである後件部の実数値は評価値が良く
なるように学習されていく。結凰 推論ルールが適応的
に変更されファジィ推論が学習機能を持つことになる。
また後件部が非線形探索法を用いて学習されているので
、ニューラルネット等を用いる学習法よりも速度が高速
であり、記憶容量の低減化も可能となる。
29− −加一 次に 第4の発明の詳細な説明する。
第4図は第4の発明のファジィ推論装置の一実施例の構
成図である。第4図において、 41は入力変数データ
を取り込み推論規則の個数を決定する推論規則分割決定
a  42は分割された入力変数のデータから特定の推
論規則の前件部に相当するメンバシップ値を空間距離を
計算して求める前件部数値処理決定a  46は出力変
数データを取り込み推論規則分割決定部の出力に従って
出力データを推論規則の個数に分割する出力データ分割
訛 43は初期状態或は推論環境が変化した場合に後件
部の推論量を適応的に決定する状況変化処理部 44は
前件部ニューロ構成部の出力と状況変化処理部の出力と
を入力し推論規則に従ってファジィ推論を行ない推論操
作量を決定する推論操作量決定部 45は推論操作量決
定部の出力である推論操作量を出力データと比較して評
価を行う評価a43aは状況変化処理部にあって、出力
データ分割部の出力値を用いて後件部の推論量の初期値
設定を行う初期設定決定%43bは初期設定決定部の出
力から探索を開始して評価部の出力に従い後件部のパラ
メータを変化させ探索するパラメータ探索部である。
次に 第4の発明のファジィ推論装置について、その動
作過程を説明する。
ステップ1、2、4及び5は第3の発明と動作過程が同
じなので、ここでの説明は省略する。ステップ3のみを
説明する。
[ステップ 3] 42の前件部数値処理決定部で、前件部のメンバシップ
値を決定する。各推論規則の入出力データ (x+”、
y+’)から、クラスタリング手法で得られた各推論規
則毎のコア(核)までの距離を束数その値を正規化する
。正規化された度合をL”とする。この時、度合いWI
″を前件部のメンバシップ値として定義する。
以上のような構成を用いて、推論ルールが適応的に変更
され ファジィ推論が学習機能を持つことになる。また
 前件部が統計処理を用いて決定され 後件部が非線形
探索法を用い探索法を用い31 −舘− て学習されているので、ニューラルネット等を用いる学
習法よりも速度が高速であり、記憶容量の低減化も可能
となる。
前記のように 本実施例においてはニューラルネットワ
ークの非線形特性を用いて、ファジィ推論規則の前件部
の構造を同定し 後件部のパラメータは非線形探索法で
決定し 推論環境が変化しても高速に 低記憶容量で柔
軟に適応できる推論操作量を提供することにより、推論
機器の操作者が常に満足できる推論を可能にするファジ
ィ推論装置を構築できる。
な叙 第1、2の発明では後件部のパラメータ探索法は
真値の出力値が必要でなくても探索が可能なパターン探
索法 回転方向法を用いた力文 ランダム探索法 直行
方向探索法 切断平面法等を用いてもよ(1 ま瓢 第3、4の発明では後件部のパラメータ探索法は
誤差を用いて評価関数を作成することにより探索を可能
とする最急降下法を用いた列上 ニュートン法等を用い
てもよい。
発明の効果 本発明によれば 推論環境が変化しても自己学習機能に
より、ファジィ推論ルールを自動変更でき、更に後件部
のパラメータを非線形探索法で探索するので、推論環境
が変化しても高速に 低記憶容量で柔軟に適応できる推
論操作量を提供できる。
【図面の簡単な説明】
第1図は第1の発明の一実施例におけるファジィ推論装
置の構成を示すブロックは 第2図は第2の発明の一実
施例におけるファジィ推論装置の構成を示すブロックは
 第3図は第3の発明の一実施例におけるファジィ推論
装置の構成を示すブロック@ 第4図は第4の発明の一
実施例におけるファジィ推論装置の構成を示すブロック
阻 第5図はファジィ変数の説明は 第6図は従来例の
入出力データ構成阻 第7図は従来例の前件部の各学習
データのメンバシップ値説明阻 第8図は従来例の推論
操作量の推定結果は 第9図はニューラルネットワーク
の一実施構成阻 第10図は33− −異一 パターン探索法の概念阻 第11図は最急降下法の概念
阻 第12図は従来のファジィ推論装置の一実施例の構
成を示すブロック図である。

Claims (4)

    【特許請求の範囲】
  1. (1)前件部と後件部からなる推論規則に従って推論操
    作量を決定する推論装置において、入力変数と出力変数
    のデータを取り込み推論規則の個数を決定する推論規則
    分割決定部と、分割された入力変数と出力変数のデータ
    から特定の推論規則の前件部に相当するメンバシップ値
    を求める前件部ニューロ構成部と、初期状態或は推論環
    境が変化した場合に後件部の推論量を適応的に決定する
    状況変化処理部と、前記前件部ニューロ構成部の出力と
    前記状況変化処理部の出力とを入力し推論規則に従って
    ファジィ推論を行ない推論操作量を決定する推論操作量
    決定部と、前記推論操作量決定部の出力である推論操作
    量を評価基準にしたがって評価を行う評価部と、前記状
    況変化処理部には前記推論規則分割部の出力値を用いて
    後件部の推論量の初期値設定を行う初期設定決定部と、
    前記初期設定決定部の出力から探索を開始して前記評価
    部の出力に従い後件部のパラメータを探索するパラメー
    タ探索部とを具備することを特徴とするファジィ推論装
    置。
  2. (2)前件部と後件部からなる推論規則に従って推論操
    作量を決定する推論装置において、入力変数と出力変数
    のデータを取り込み推論規則の個数を決定する推論規則
    分割決定部と、分割された入力変数と出力変数のデータ
    から特定の推論規則の前件部に相当するメンバシップ値
    を求める前件部数値処理決定部と、初期状態或は推論環
    境が変化した場合に後件部の推論量を適応的に決定する
    状況変化処理部と、前記前件部数値処理決定部の出力と
    前記状況変化処理部の出力とを入力し推論規則に従って
    ファジィ推論を行ない推論操作量を決定する推論操作量
    決定部と、前記推論操作量決定部の出力である推論操作
    量を評価基準にしたがって評価を行う評価部と、前記状
    況変化処理部には前記推論規則分割部の出力値を用いて
    後件部の推論量の初期値設定を行う初期設定決定部と、
    前記初期設定決定部の出力から探索を開始して前記評価
    部の出力に従い後件部のパラメータを探索するパラメー
    タ探索部とを具備することを特徴とするファジィ推論装
    置。
  3. (3)前件部と後件部からなる推論規則に従って推論操
    作量を決定する推論装置において、入力変数データを取
    り込み推論規則の個数を決定する推論規則分割決定部と
    、分割された入力変数のデータから特定の推論規則の前
    件部に相当するメンバシップ値を求める前件部ニューロ
    構成部と、出力変数データを取り込み前記推論規則分割
    決定部の出力に従って出力データを推論規則の個数に分
    割する出力データ分割部と、初期状態或は推論環境が変
    化した場合に後件部の推論量を適応的に決定する状況変
    化処理部と、前記前件部ニューロ構成部の出力と前記状
    況変化処理部の出力とを入力し推論規則に従ってファジ
    ィ推論を行ない推論操作量を決定する推論操作量決定部
    と、前記推論操作量決定部の出力である推論操作量を出
    力データと比較して評価を行う評価部と、前記状況変化
    処理部には前記出力データ分割部の出力値を用いて後件
    部の推論量の初期値設定を行う初期設定決定部と、前記
    初期設定決定部の出力から探索を開始して前記評価部の
    出力に従い後件部のパラメータを探索するパラメータ探
    索部とを具備することを特徴とするファジィ推論装置。
  4. (4)前件部と後件部からなる推論規則に従って推論操
    作量を決定する推論装置において、入力変数データを取
    り込み推論規則の個数を決定する推論規則分割決定部と
    、分割された入力変数のデータから特定の推論規則の前
    件部に相当するメンバシップ値を求める前件部数値処理
    決定部と、出力変数データを取り込み前記推論規則分割
    決定部の出力に従って出力データを推論規則の個数に分
    割する出力データ分割部と、初期状態或は推論環境が変
    化した場合に後件部の推論量を適応的に決定する状況変
    化処理部と、前記前件部数値処理決定部の出力と前記状
    況変化処理部の出力とを入力し推論規則に従ってファジ
    ィ推論を行ない推論操作量を決定する推論操作量決定部
    と、前記推論操作量決定部の出力である推論操作量を出
    力データと比較して評価を行う評価部と、前記状況変化
    処理部には前記出力データ分割部の出力値を用いて後件
    部の推論量の初期値設定を行う初期設定決定部と、前記
    初期設定決定部の出力から探索を開始して前記評価部の
    出力に従い後件部のパラメータを探索するパラメータ探
    索部とを具備することを特徴とするファジィ推論装置。
JP2093632A 1990-04-09 1990-04-09 ファジィ推論装置 Pending JPH03291729A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2093632A JPH03291729A (ja) 1990-04-09 1990-04-09 ファジィ推論装置
EP91105484A EP0451742B1 (en) 1990-04-09 1991-04-06 Fuzzy inference device
DE69123623T DE69123623T2 (de) 1990-04-09 1991-04-06 Unscharfe Folgerungsanlage
US08/265,617 US5630018A (en) 1990-04-09 1994-06-24 Fuzzy inference device using neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2093632A JPH03291729A (ja) 1990-04-09 1990-04-09 ファジィ推論装置

Publications (1)

Publication Number Publication Date
JPH03291729A true JPH03291729A (ja) 1991-12-20

Family

ID=14087714

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2093632A Pending JPH03291729A (ja) 1990-04-09 1990-04-09 ファジィ推論装置

Country Status (3)

Country Link
EP (1) EP0451742B1 (ja)
JP (1) JPH03291729A (ja)
DE (1) DE69123623T2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5677609A (en) * 1994-07-28 1997-10-14 National Semiconductor Corporation Intelligent servomechanism controller
US5809487A (en) * 1993-07-13 1998-09-15 Siemens Aktiengesellschaft Arrangement for modeling a non-linear process
US5828812A (en) * 1993-03-24 1998-10-27 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system and method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4239270A1 (de) * 1992-11-23 1994-05-26 Siemens Ag Verfahren zur Stellgliedidentifizierung bei der Querprofil-Regelung einer kontinuierlich erzeugten Materialbahn

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0813127A3 (en) * 1988-05-20 1998-05-06 Matsushita Electric Industrial Co., Ltd. Inference rule determining method and inference device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5579439A (en) * 1993-03-24 1996-11-26 National Semiconductor Corporation Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems
US5594835A (en) * 1993-03-24 1997-01-14 National Semiconductor Corporation Neural-fuzzy logic control system with adjustable fuzzy logic membership functions
US5606646A (en) * 1993-03-24 1997-02-25 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system
US5828812A (en) * 1993-03-24 1998-10-27 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system and method
US5809487A (en) * 1993-07-13 1998-09-15 Siemens Aktiengesellschaft Arrangement for modeling a non-linear process
US5677609A (en) * 1994-07-28 1997-10-14 National Semiconductor Corporation Intelligent servomechanism controller

Also Published As

Publication number Publication date
EP0451742B1 (en) 1996-12-18
DE69123623D1 (de) 1997-01-30
DE69123623T2 (de) 1997-04-17
EP0451742A3 (en) 1993-06-09
EP0451742A2 (en) 1991-10-16

Similar Documents

Publication Publication Date Title
Angelov et al. Simpl_eTS: A simplified method for learning evolving Takagi-Sugeno fuzzy models
KR100243353B1 (ko) 뉴럴 네트워크 시스템
Kasabov ECOS: Evolving Connectionist Systems and the ECO Learning Paradigm.
CN109511277B (zh) 多状态连续动作空间的合作式方法及系统
CN109159785B (zh) 一种基于马尔可夫链与神经网络的汽车行驶工况预测方法
Werbos et al. Generalized maze navigation: SRN critics solve what feedforward or Hebbian nets cannot
JPH03291729A (ja) ファジィ推論装置
Senouci et al. Call admission control in cellular networks: a reinforcement learning solution
Dubrawski et al. Self-supervised neural system for reactive navigation
Kim A design of CMAC-based fuzzy logic controller with fast learning and accurate approximation
Shi et al. Efficient hierarchical policy network with fuzzy rules
US5630018A (en) Fuzzy inference device using neural network
CN114529010A (zh) 一种机器人自主学习方法、装置、设备及存储介质
Abtahi Intelligent identification of vehicle’s dynamics based on local model network
JP4267726B2 (ja) 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置
Schaefer et al. The Recurrent Control Neural Network.
Stonier et al. Intelligent hierarchical control for obstacle-avoidance
Chakraborty et al. Designing rule-based classifiers with on-line feature selection: a neuro-fuzzy approach
Otadi Simulation and evaluation of second-order fuzzy boundary value problems
Chang Designing and tuning of a fuzzy logic controller via genetic input/output mapping factors
Hu et al. Interpretable Goal Recognition for Path Planning with ART Networks
Mascioli et al. A constructive algorithm for fuzzy neural networks
Okuhara et al. Reproductive and competitive radial basis function networks adaptable to dynamical environments
Dominguez et al. Mutual Information and Topology 1: Asymmetric Neural Network
Lin et al. Fuzzy modeling and control based on maximum entropy self-organizing nets and cell state mapping