JP2813567B2 - 推論規則決定装置及び推論規則決定方法 - Google Patents

推論規則決定装置及び推論規則決定方法

Info

Publication number
JP2813567B2
JP2813567B2 JP8003532A JP353296A JP2813567B2 JP 2813567 B2 JP2813567 B2 JP 2813567B2 JP 8003532 A JP8003532 A JP 8003532A JP 353296 A JP353296 A JP 353296A JP 2813567 B2 JP2813567 B2 JP 2813567B2
Authority
JP
Japan
Prior art keywords
input
output
fuzzy
fuzzy inference
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP8003532A
Other languages
English (en)
Other versions
JPH08320792A (ja
Inventor
英行 高木
勲 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP8003532A priority Critical patent/JP2813567B2/ja
Publication of JPH08320792A publication Critical patent/JPH08320792A/ja
Application granted granted Critical
Publication of JP2813567B2 publication Critical patent/JP2813567B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は入力データに基づい
て、機器制御をしたり、エキスパートシステムでの推論
を行ったり、パターン認識を行ったりする場合の、推論
規則決定装置に関するものである。
【0002】
【従来技術】従来の技術を説明するに当たり、まず、フ
ァジィ推論の基本概略について機器制御等で用いられる
ファジィ制御を例にとって説明する。
【0003】人間の評価が関与する制御システムにおい
て、操作者が主観的・感覚的に判定した変量、たとえば
「大きい」、「中位」、「とても」、「少し」等の変量
(これをファジィ変数という)を用いて最終的な制御操
作量を決定する場合がある。この場合、操作者は自分の
経験から得た制御経験に基づいて入力変量から操作量を
決定している。ファジィ制御を用いた推論装置では「IF
・・・THEN・・・」形式の推論規則に従って、入力変量のファ
ジィ変数を推論規則のIF部に適用し、その推論規則を
どの程度満たしているかを示す割合(メンバーシップ
値)からTHEN部での出力のファジィ数を決定してい
る。実際の操作量は複数の規則による出力のファジィ数
の重心値等を取ることにより、得ることができる。
【0004】さて、このファジィ推論を用いた従来の制
御方法の一つにファジィモデリングがあり、例えば、姜
根沢、菅野道夫、”ファジィモデリング”、計測自動制
御学会文集 vol.23,no.6,pp.650-652,1987年、に示され
ている。ファジィモデリングを構成する制御規則におい
ては、IF部はファジィ命題からなり、THEN部は普
通の入出力の線形関係式からなっている。いま、例え
ば、一次遅れのタンクモデルを考えると制御偏差e、お
よびその変化率deと、制御出力(操作量)uの間の制
御規則は次のようになる。
【0005】If e is Zero and de is Positive Medium Then u = 0.25e + 1.5de 上記のような推論規則は複数個用意され、その全体を制
御規則と呼ぶ。Zero、Positive Medium などは規則の記
述に用いる入力のファジィ数を表すラベルであり、ファ
ジィ変数である。
【0006】図1にその一例を示す。図1において、NB
は Negative Big、NM は NegativeMedium、NS は Nega
tive Small、ZO は Zero、PS は Positive Small、PM
はPositive Medium、PB は Positive Big、を意味して
いる。ここで、X上のファジィ数Fを表す関数をメンバ
ーシップ関数μF( )と呼び、各x0の関数値をメンバー
シップ値μF(x0)と言う。上記の制御規則の一般形は
次式のようになる。
【0007】 Rs: If x1 is A1 s, x2 is A2 S, ・・・ ,xm is Am s Then ys = c0 s + c1 sx1 + c2 sx2 + ・・・ +cm sm ここで、Rs はs番目規則であることを示し、xj は入
力変数、Aj s はファジィ集合、ys はs番目規則からの
出力、cs はTHEN部パラメータである。ある入力(x1
0,x2 0,・・・,xm 0)に対する推論結果yは次式で求められ
る。
【0008】
【数1】
【0009】ここで、nは規則の数、wsは入力(x1 0,x
2 0,・・・,xm 0)がs番目規則のIF部に当てはまる割合で
ある。ファジィ集合AS のX0 におけるメンバーシップ値
をμAj S(Xj 0) と表すと、WS は次式で表される。
【0010】WS = ПμAj S (xj 0) ファジィモデルの同定は、IF部とTHEN部の構造同
定と、IF部とTHEN部のパラメータ同定との2段階
で構成される。従来の同定法は、(1) IF部のファジィ
命題を適当な命題に定める、(2) WS を一定に変化させ
る、(3) 変数減少法でTHEN部の入力変数の中から本
当に必要なものだけを捜す、(4) THEN部のパラメー
タを最小二乗法で求める、(5)以上の(2)〜(4)を繰り返
し、最適なパラメータを決める、(6) IF部のファジィ
命題を変える、(7) (2)へ戻り、新しいファジィ命題の
条件での最適なパラメータを繰り返し捜す、であった。
つまり、発見方法的な同定アルゴリズムであると言えよ
う。
【0011】また、従来の推論装置としては、例えば、
図2のブロック25図に示すようなファジィ推論装置があ
った。図2において、1aはデータ(計測値および人間
の評価値を含む)入力部、2aは表示指令部、3aはフ
ァジィ推論演算部、4aは推論結果出力部、5aは表示
部である。表示部2aはキーボードで構成され、ファジ
ィ推論演算部3aはデジタル計算機で構成されている。
データ入力部1aに入力されたデータはファジィ推論演
算部3aで推論演算が施された結果、推論結果を出力
し、同時に表示部5aに推論規則のリスト、ファジィ変
数のリストおよび各種推論規則の使用状況などが表示さ
れるようになっている。図2に示すような従来の推論装
置はファジィ推論規則の推論規則や入力データとしての
ファジィ変数はファジィ推論演算部3aで一定に固定さ
れており、ファジィ変数を変更する機能は持たない。
【0012】
【発明が解決しようとする課題】上記のファジィモデリ
ングに限らず従来の推論規則決定方法においては、メン
バーシップ関数の決定アルゴリズムが発見的解法に基づ
いているため、複雑でありかつ決定すべきパラメータ数
も非常に多い。従って、高速にかつ容易に最適な推論規
則を得られなかった。
【0013】また、上記のような図2の推論装置では、
推論規則の学習機能がないために、入力変数の特性が時
間と共に変化し、当所設定した推論規則では推論精度が
悪くなるという課題に対応できなかった。例えば、「暑
ければ○○に制御する」という推論規則があったとしよ
う。「暑い」という曖昧な概念は人によっても季節によ
っても異なるので、推論装置が学習機能を持ち、使用状
況に応じて適応的に推論規則を変更できなければ満足の
いく制御はできない。更に、実際には非線形な推論が必
要な場合が多く、従来例の説明で延べたような線形近似
を行う方法では推論精度向上に限界があった。
【0014】本発明は従来の問題点を解決するために、
学習機能を使い経験則に頼らずに、「IF・・・,THEN・・・」
形式で記述された推論規則中に含まれるファジィ数を自
動的に決定する推論規則決定装置を提供することを目的
とする。
【0015】
【課題を解決するための手段】本願発明は、IF部とT
HEN部からなるファジィ推論規則を内蔵するファジィ
推論演算部と、前記ファジィ推論演算部の出力と理想的
出力をそれぞれ入力しその誤差を計算する誤差計算部
と、前記ファジィ推論演算部への入力値と前記誤差計算
部の出力とを入力しそれらに基づいて前記ファジィ推論
規則の少なくともIF部における入力ファジィ変数を定
義するメンバーシップ関数を決定する神経回路網とを備
え、前記神経回路網は、学習データとして予め決められ
た入力値を前記ファジィ推論演算部に入力した場合の前
記理想出力値と前記ファジィ推論演算部の実際の出力と
を用いて前記誤差が最小になるように学習を行い、前記
メンバーシップ関数の形状を変化させることで最適な前
記メンバーシップ関数を決定することができるように構
成されていることを特徴とする推論規則決定装置であ
る。
【0016】
【発明の実施の形態】以下、本発明の実施の形態例につ
いて図面を参照して説明する。
【0017】本発明の方法の特徴は、学習機能でメンバ
ーシップ関数を逐次に決定する点にある。学習機能の実
現方法には色々考えられるが、第1の実施の形態では神
経回路網モデルの学習アルゴリズムを用いることにす
る。そこで、実施の形態の説明をする前に神経回路網モ
デルの説明と神経回路網モデルの学習アルゴリズムとを
説明する。
【0018】神経回路網モデルは脳神経細胞の結合にヒ
ントを得た数理ネットワークである。回路網を構成する
ユニット間の接続強度を逐次学習で決定することによ
り、経験に基づかないで推論規則を決定することができ
る。
【0019】図3の回路網は神経回路網モデルの1種で
ある。図3において、100は多入力一出力信号処理部
を示し、101は神経回路網モデルの入力部を表してい
る。図4に具体的な構成例を示す。図4は入力変数4個
を入力とし1個の出力値を推定する3段構成の神経回路
網モデルの例であり、各段内相互に結合がなく、かつ上
段の層にのみ信号が伝播される。このような神経回路網
モデルを構成する多入力一出力信号処理部100のう
ち、線形演算のみを基本とする線形信号処理部の構成を
具体的に示したものが図5である。図5において、10
01は多入力一出力信号処置部100の入力部、100
2は入力部1001からの複数入力を重みつける重み係
数を格納するメモリ、1003はメモリ1002の重み
係数と入力部1001からの入力を各々掛け合わせる乗
算器、1004は乗算器1003各々の出力を足し合わ
せる加算器である。つまり、図5に示す多入力一出力信
号処理部100は入力部1001への入力値をxi 、メ
モリ1002に格納されている重み係数をci とすれ
ば、 y= Σcixi を計算しているわけである。また、図6は、神経回路網
モデルを構成する多入力一出力信号処理部100のう
ち、非線形演算も行う非線形信号処理部の構成を具体的
に示したものである。図6において、1000は図5で
説明した線形信号処理部、2000は線形信号処理部の
出力を一定範囲の値に制限する閾値処理部である。閾値
処理部2000の入出力特性例を図7に示す。例えば、
出力を(0,1)の範囲に制限する閾値処理部2000
の入出力特性は OUT = 1 / (1 + exp(-IN)) と数式的に表現できる。ここで、IN と OUT は閾値処理
部2000の入力と出力である。
【0020】上記の神経回路網の入出力関係を(100)式
で表現する。
【0021】 y= NN(x) (100) なお、実施の形態の説明では、モデルの規模をk層[u
0×u1×・・・×uk]で表現するものとする。uiはそれ
ぞれ、入力層、中間層、出力層の神経細胞モデル数であ
る。以上が神経回路網モデルの一般的説明である。
【0022】次に神経回路網モデルの学習アルゴリズム
について述べる。学習アルゴリズムは色々提案されてお
り、その1つに、Backpropagation (D.E.Rumelhart, G.
E.Hinton and R.J.Williams, "Learning Representatio
ns by Back-Propagating Errors, "Nature, vol.323, p
p.533-536, Oct.9,1986) がある。数学的な証明・定式
化は参考文献に譲るが、基本的には次の通りである。ま
ず、学習データとして入力変数と、他の手段で推定した
各推論規則への所属割合値とを組にして多数用意してお
く。入力データを神経回路網モデルに入力する。初めは
メモリ1002には適当な値、例えば乱数値を入れてお
く。その時の神経回路網モデルの出力値と推論規則への
所属割合値との誤差を求める。この誤差はメモリ100
2の重み係数の関数になっているので誤差の重み微分方
向へ重み係数を修正する。つまり、最急降下法(Steepe
st Decent Method) に従って逐次に重みを修正すること
で誤差を最小にし学習を行うのである。これが Backpro
pagationアルゴリズムを用いた学習方法の概要である。
【0023】以上の神経回路網モデルおよび学習アルゴ
リズムを用いて、本発明の推論規則決定方法、および推
論量の計算方法を説明する。 [ステップ 1]推論値と高い相関がある入力変数のみ
を選択し、不要な入力変数を取り除く。例えば、神経回
路網モデルを用いてこの判定を行う場合は、まず、各入
力変数xj,j=1,2,・・・,k を神経回路網モデルへ入力し、
推論値yiになるよう学習する。次に入力変数を1つ減
らして同様の学習を行う。以下同様に、変数減少法を繰
り返す。これらの学習が完了した各神経回路網モデルの
出力と推論値yiとの差を 誤差二乗和を評価指標とし
て比較し、最も小さい誤差になった時の神経回路網モデ
ルの入力変数xj,j=1,2,・・・, m , m≦k のみを選択す
る。 [ステップ 2]入出力データ(xi,yi)を推論規則
の構造同定用データ(以下TRDと記す。nt個)と推論規
則の評価用データ(以下、CHDと記す。no個)とに分割
する。n=nt+noである。 [ステップ 3]TRDを通常のクラスタリング手法を用
いて最適なr分割を行う。r分割された学習データの各
組をRs, s=1,2,・・・,r、Rsの学習データを(xi s,yi
s),i=1,2,・・・,(nt)sとする。ただし、(nt)sは各Rs
のTRDのデータ数を示す。ここでm次元空間をr分割す
るということは推論規則数をr個にすることを意味して
いる。[ステップ 4]IF部構造の同定を行う。xi
を神経回路網モデルの入力層の入力値とし、出力層の出
力値を、
【0024】
【数2】
【0025】とする。そして各学習データ(xi,yi
の各Rsに属する割合wi s を推定するよう神経回路網モ
デルを学習する。学習後の神経回路網モデルが出力する
値をIF部のメンバーシップ値とする。即ち、メンバー
シップ関数を、
【0026】
【数3】
【0027】とする。μA S(xi,yi)>0となる学習
データを改めて、(xi s,yi s),i=1,2,・・・,(nt)sとす
る。 [ステップ 5]THEN部構造の同定を行う。各推論
規則のTHEN部構造モデルを神経回路網モデルの入出
力関係(100)式で表し、TRDの入力値xi s,・・・,xim s, i
=1,2,・・・,(nt)sと出力値yi sを割り付ける。学習によ
って推論量を推定する神経回路網モデルを同定する。次
に、得られた神経回路網モデルにCHDの入力値xi1 s,・・
・,xim s,i=1,2,・・・,(nt)sを代入し、誤差二乗和Θsを求
める。
【0028】
【数4】
【0029】[ステップ 6]変数減少法を用いて、各
推論規則のTHEN部の推論量推定式に寄与している入
力変数のみを選び出す。m個の入力変数の中で、任意に
1個の入力変数を取り除き、ステップ5と同様にTRDを
用いてTHEN部毎に神経回路網モデルを同定する。次
に、CHDを用いた場合の推論量の推定誤差二乗和Θm-1 sp
を計算する。
【0030】
【数5】
【0031】上式から、取り除いた入力変数がTHEN
部の決めるのにどの程度重要であるかがわかる。即ち、
次式(200) Θm s > Θm-1 sp (200) となる場合には取り除いた入力変数xpの重要度は低い
と考えられるので、xpを捨てる。 [ステップ 7]残りの入力変数の個数をm個としてス
テップ5と同様の操作を行う。以下、ステップ5〜ステ
ップ6を繰り返し、(200)式が全ての入力変数に対して
成立しなくなった場合に計算を停止する。Θsが最小と
なるモデルが最適な神経回路網モデルである。
【0032】ステップ1〜ステップ7により、各推論規
則毎のIF部とTHEN部が決定され、ファジィ推論規
則の構造同定が終了する。 [ステップ 8]推論量yi *は以下の式により得られ
る。
【0033】
【数6】
【0034】神経回路網モデルが図7のように非線形な
特性の集まりであれば、当然この学習によって自動的に
非線形対象の推論が可能になる。
【0035】このように、本発明の方法で推論規則を決
定すれば、推論対象が、非線形関係あるいはあいまいな
入出力関係であっても、学習機能を用いて逐次に推論規
則を決定して行くので、発見的方法を取ることもなく、
容易に、かつ正確に推論規則を得ることができる。
【0036】次に、具体的実験数値を用いて上述した本
発明の方法をわかりやすく説明しよう。ここでは近藤
正、”モデルの次数を推定する改良型GMDH”計測自
動制御学会論文集, vol.22,no.9,pp.928-934,1986年に
示されている簡単な数値例を用いて推論規則を決定し、
推論量を決定した。推論規則決定過程を以下に述べる。 [ステップ 1,2]図10に入出力データを示す。デ
ータ番号1-20は学習に用いる推論規則の構造決定用デー
タ (TRD) であり、データ番号21-40は評価用データ (CH
D) である。したがって、 nt=no=20, m=2 であ
る。3層[3×3×3×1]神経回路網モデルで15000
回学習して入力変数の選択を行った結果、表1の結果が
得られ
【0037】た。
【表1】
【0038】入力変数x4は加えても取り除いても誤差
二乗和に大した違いがない。従って、メンバーシップ関
数決定にはほとんど影響がないと判断し、以後の実験で
は用いない。 [ステップ 3]通常のクラスタリング手法を用いてTR
Dを分割する。クラスタリングの結果、各学習データは
表2のように2分割可能である。
【0039】
【表2】
【0040】[ステップ 4]学習データ(xi
i),i=1,2,・・・,20 のAsに属する割合wi s={0,1}
をwi s [0,1] の値で推定するために3層[3×3×
3×2] 神経回路網モデルを 5000回学習し、IF部の
ファジィ数A sを得た。この時の推論規則R1に対するI
F部のファジィ数A1を図11に示す。学習データはμR
1(xi,yi)=wi 1>0となる表2の入力データを用い
た。同様にR2に対してもIF部のファジィ数を得る。 [ステップ 5]各推論規則におけるTHEN部の推論
量推定式を求める。3層 [3×8×8×1] 神経回路
網モデルを20000回学習した後のΘ4 sは表3のように得
られた。
【0041】
【表3】
【0042】[ステップ 6,7]推論規則RsのTH
EN部の構造モデルから任意の1個の入力変数を取り除
いた場合のΘsを求める。3層 [2×8×8×1] 神
経回路網モデルを10000〜20000回学習した結果、推論規
則R1、R2に対して図12の誤差二乗和が得られた。各
推論規則毎にステップ5とステップ6を比較すると、 全てのΘ3 1 > Θ4 2 (=27.86) x1を取り除いた場合のΘ3 2 < Θ4 2 (=1.93) となっているので、推論規則1に対してはステップ5の
神経回路網モデルをTHEN部モデルとする。推論規則
2に対しては更に計算を続け、第2段階目の繰り返し計
算で終了する。(x2,x3)入力の神経回路網モデルを
THEN部モデルとする。得られたファジィモデルは となる。こうして得られた規則を実行する推論装置を用
いて、(300)式のy*を求めたものが図13である。
【0043】なお、この実施の形態では、ファジィ推論
の結果として得られる推論量を(300)式による重み付き
重心を採用したが、中心値や最大値などを取る方法を用
いてもよい。また、本実施の形態では、Wsの演算式で
代数積を用いたが代数積の代わりにmini演算等のファジ
ィ論理演算を用いてもよい。
【0044】上記の推論規則決定方法の手順の中で、特
に非線形メンバーシップ関数を自動的に決定する手順に
ついて更に具体的に説明しよう。
【0045】似通った入力データには同一推論規則が適
用されると考えるのは自然である。そこで、ステップ3
で学習データをクラスタリングする(図8(a))。これ
らのクラスが1つ1つの推論規則に対応している。例え
ば、「IF x1が小さく、かつ、x2が大きければ、THEN・
・・」といった推論規則である。図8(a)の場合、この推
論規則がR1〜R3の3個ある。これらのクラスの代表的
な点(入力データの組)では各推論規則にほぼ100%
従うが、境界に近づくにつれ、複数の推論規則の影響を
受けていくことになる。この割合の関数がメンバーシッ
プ関数であり、その形状は例えば図8(c)である。これ
は上から見たメンバーシップ関数の図で、斜線部はメン
バーシップ関数が交差している領域である。
【0046】さてこのようなメンバーシップ関数を作る
手順がステップ3・4である。即ち、図8(b)の神経回
路網モデルを用意し、入力にIF部の変数値(図の場合
1とx2)を割り当て、出力にその入力値が属する規則
番号に1、その他に0を割り当てて学習させる。神経回
路網モデルの重要な特徴の1つに、類似入力には類似出
力が対応する点がある。学習には図8(a)の×点のみが
使われたが、その近傍であれば同じ出力、つまり同じ推
論規則に従う旨出力してくる。更に、学習を終えた神経
回路網モデルは各推論規則の境界付近の入力データに対
しては、それぞれの推論規則に属する割合の最適バラン
ス値を出力することになる。これがメンバーシップ値
で、言い換えれば、この神経回路網モデルは各推論規則
の全てのメンバーシップ関数を内部に包含したといえ
る。
【0047】なお、本発明の方法の実施の形態に於いて
は神経回路網の学習アルゴリズムを用いてファジィ推論
規則のメンバーシップ関数を決定したが、もちろん他の
学習アルゴリズムであっても構わない。神経回路網のア
ルゴリズムで述べた Backpropagationアルゴリズムが古
典的な最急降下法に基づいていることからも容易に想像
がつくように、他の学習方法としては、ニュートン法や
共役傾斜法などの非線形最小化問題の分野で使われてい
る多くの学習アルゴリズムが容易に考えられる。また、
パターン認識の分野では認識に使う標準パターンを逐次
的に入力パターンに近づける学習方法を用いることは常
識になっており、このような逐次学習方法を用いてもよ
い。
【0048】また、実施の形態のステップ5ではTHE
N部も神経回路網で構成する場合を説明したが、THE
N部は他の方法で表現してもよい。例えば、従来の方法
で述べたようなファジィモデリングを使えば、非線形表
現という点で第1の実施の形態とは違いを生じるが、I
F部に神経回路網モデルのような学習機能を組み込んで
あれば、推論規則のファジィ数を学習機能で逐次に自動
決定するという本発明の本質は損なわれない。
【0049】また、本発明の実施の形態ではファジィ推
論規則のメンバーシップ関数の自動形成という表現を用
いている。この特殊な場合が古典的なエキスパートシス
テムで用いられているプロダクションルールの場合であ
る。この場合であれば、推論規則の信頼度を自動形成す
るという表現の方が理解しやすいであろう。しかし、こ
れも本発明の方法における実施の形態の特殊な場合に過
ぎない。
【0050】次に、本発明の方法で得られた推論規則に
基づいて推論を行う第2の発明についてその実施の形態
を述べる。図9は本発明の推論装置の第1の実施の形態
における構成図を示すものである。図1において、1は
各推論規則のIF部のメンバーシップ値を求めるメンバ
ーシップ値決定部、2は各推論規則のTHEN部で求め
るべき推論量を推定する個別推論量決定部、3は個別推
論量決定部2からの出力とメンバーシップ値決定部1の
出力から最終的な推論量を決定する最終推論量決定部で
ある。21〜2rは推論規則1〜推論規則rの各々に基
づいて推論量を決める個別推論量決定部21の内部構成
である。ここで、メンバーシップ値決定部1、および、
個別推論量決定部21〜2rは図3に示すような多段の
回路網的構成をしている。
【0051】入力値x1〜xnが本発明の推論装置に入力
されると、メンバーシップ値決定部1はこれらの入力値
が各推論規則を満たす割合を出力する。このメンバーシ
ップ値決定部1は予め本発明の推論規則決定方法で述べ
た手順に従って学習を済ませてある。また、個別推論量
決定部21はこれらの入力値が推論規則1に従うとした
場合の推論量を出力する。以下同様に、個別推論量決定
部21から2rは推論規則2〜rに従うとした場合の推
論量を出力する。最終推論量決定部3は、メンバーシッ
プ値決定部1と個別推論量決定部2から最終的な推論結
果を出力する。その決定方法は、例えば(300)式を用い
る。
【0052】図6および図7からも明らかなように、神
経回路網モデルを構成する多入力一出力信号処理部10
0の入出力関係は非線形である。従って、神経回路網モ
デルそのものも非線形推論を行うことができる。従って
本発明の推論装置は、線形近似ではできなかった高い推
論精度を実現することができる。
【0053】具体的応用例で本発明のこの高い推論精度
を示す。応用例は1976年4月〜1979年3月まで
大阪湾で測定した5個の測定パラメータからCOD(化
学的酸素要求量:Chemical Oxygen Demond)濃度を推定
する問題である。5個の測定パラメータとは(1)水温
(℃)、(2)透明度(m)、(3)DO濃度(ppm)、(4)塩
分濃度(%)、(5)濾過したCOD濃度(ppm)である。
これらのデータのうち、1976年4月から1978年
12月までの32組のデータを用いて学習し、残り12
個を学習後の評価用データとした。本発明が推定した結
果(実線)と実際のCOD濃度の測定値(点線)を図1
4に示す。大変よい推定結果と言えよう。
【0054】このように本発明の推論装置における第1
の実施の形態によれば、少なくともネットワーク接続さ
れた複数の多入力一出力信号処理部から構成されるメン
バーシップ値決定部と、同じく少なくともネットワーク
接続された複数の多入力一出力信号処理部から構成され
る個別推論量決定部とを設けることにより、学習機能を
持ち、入力変数に非線形に対応した推論量を決定するこ
とができる。
【0055】本発明の推論装置の第2の実施の形態とし
て、予め得られた神経回路網モデルの入出力関係をメモ
リに保持しておき、毎回直接神経回路網モデルを実行す
る代わりにメモリを参照することでも近似的な推論がで
きる。第1の実施の形態においてメンバーシップ値決定
部と個別推論量決定部は神経回路網モデルの構成をして
いるとしたが、事前に入力変数が明らかな場合や多少の
近似をしても構わないとするならば、学習アルゴリズム
で決定された神経回路網モデルから予め入出力の対応表
を作ることができる。推論規則実行時にこの対応表を参
照することでメンバーシップ値決定部または個別推論量
決定部の代用を行う第2の実施の形態では本発明の方法
を組み込んで学習機能を持たせることはできなくなる
が、図5のような回路構成が不要になるので安価で小型
の推論装置を実現することが可能になる。また、非線形
に対応した推論は本発明の推論装置の第1の実施の形態
と同様に行う事ができる。
【0056】このように第2の実施の形態によれば、少
なくともメンバーシップ値決定部または個別推論量決定
部が、少なくともネットワーク接続された複数の多入力
一出力信号処理部から構成される推論部の入出力特性を
予め保持したメモリとメモリ参照部とから構成されるこ
とにより、簡単な回路構成で、入力変数に非線形に対応
した推論量を決定することができる。
【0057】
【発明の効果】以上説明したように、本発明の装置によ
れば、学習機能を持ち自動的に推論規則を形成して最良
の推論を行う推論規則を作ることができる。
【図面の簡単な説明】
【図1】ファジィ変数の説明図
【図2】従来の推論装置の構成図
【図3】メンバーシップ値決定部および個別推論量決定
部を構成する神経回路網モデルの構成図
【図4】メンバーシップ値決定部および個別推論量決定
部を構成する神経回路網モデルの構成図
【図5】線形信号処理部の構成図
【図6】非線形信号処理部の構成図
【図7】閾値処理部の入出力特性図
【図8】神経回路網モデルを用いたメンバーシップ関数
の自動決定方法の説明図
【図9】本発明における一実施の形態の推論装置の構成
【図10】実施の形態1の動作を説明するための入出力
データ構成図
【図11】実施の形態1のIF部の各学習データのメン
バーシップ値説明図
【図12】入力変数を削減した場合の推論誤差図
【図13】実施の形態1の推論量の推定結果図
【図14】大阪湾のCOD濃度推定問題に応用したとき
の推定結果図
【符号の説明】
1 メンバーシップ値決定部 2 別推論量決定部 21〜2r 規則1〜規則rのための個別推論量決定部 3 最終推論量決定部 100 多入力ー出力信号処理部 101 メンバーシップ値決定部および個別推論量
決定部の入力部 1000 線形信号処理部 1001 多入力ー出力信号処理部の入力部 1002 メモリ 1003 乗算器 1004 加算器 2000 閾値処理部 1a データ入力部 2a 表示指令部 3a ファイジ推論演算部 4a 推論結果部 5a 表示部
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 「計測自動制御学会論文集」 VO L.24,NO.2 (1988−2) P. 85−91 「JOURNAL OF CYBER NETICS」 VOL.4,NO.2 (1974) P.83−103

Claims (11)

    (57)【特許請求の範囲】
  1. 【請求項1】IF部とTHEN部からなるファジィ推論
    規則を内蔵するファジィ推論演算部と、前記ファジィ推
    論演算部の出力と理想的出力をそれぞれ入力しその誤差
    を計算する誤差計算部と、前記ファジィ推論演算部への
    入力値と前記誤差計算部の出力とを入力しそれらに基づ
    いて前記ファジィ推論規則の少なくともIF部における
    入力ファジィ変数を定義するメンバーシップ関数を決定
    する神経回路網とを備え、前記神経回路網は、学習デー
    タとして予め決められた入力値を前記ファジィ推論演算
    部に入力した場合の前記理想出力値と前記ファジィ推論
    演算部の実際の出力とを用いて前記誤差が最小になるよ
    うに学習を行い、前記メンバーシップ関数の形状を変化
    させることで最適な前記メンバーシップ関数を決定する
    ことができるように構成されていることを特徴とする推
    論規則決定装置。
  2. 【請求項2】IF部とTHEN部からなるファジィ推論
    規則を内蔵するファジィ推論演算部と、前記ファジィ推
    論演算部の出力と理想的出力をそれぞれ入力しその誤差
    を計算する誤差計算部と、前記ファジィ推論演算部への
    入力値と前記誤差計算部の出力とを入力しそれらに基づ
    いて前記ファジィ推論規則の少なくともTHEN部の出
    力量を決定する定数または関数式またはファジィ変数を
    定義するメンバーシップ関数を決定する神経回路網とを
    備え、 前記神経回路網は、学習データとして予め決められた入
    力値を前記ファジィ推論演算部に入力した場合の前記理
    想出力値と前記ファジィ推論演算部の実際の出力とを用
    いて前記誤差が最小になるように学習を行い、前記定数
    または関数式を決定するかまたは前記メンバーシップ関
    数の形状を変化させることで最適な前記メンバーシップ
    関数を決定することができるように構成されていること
    を特徴とする推論規則決定装置。
  3. 【請求項3】IF部とTHEN部からなるファジィ推論
    規則を内蔵するファジィ推論演算部と、前記ファジィ推
    論演算部の出力と理想的出力をそれぞれ入力しその誤差
    を計算する誤差計算部と、前記ファジィ推論演算部への
    入力値と前記誤差計算部の出力とを入力しそれらに基づ
    いて前記ファジィ推論規則のIF部における入力ファジ
    ィ変数を定義するメンバーシップ関数と、THEN部の
    出力量を決定する定数または関数式またはファジィ変数
    を定義するメンバーシップ関数を決定する神経回路網と
    を備え、 前記神経回路網は、学習データとして予め決められた入
    力値を前記ファジィ推論演算部に入力した場合の前記理
    想出力値と前記ファジィ推論演算部の実際の出力とを用
    いて前記誤差が最小になるように学習を行い、メンバー
    シップ関数の形状を変化させることで最適な前記IF部
    のメンバーシップ関数を決定し、かつ、前記THEN部
    の定数または関数式を決定するかまたはメンバーシップ
    関数の形状を変化させることで最適な前記THEN部の
    メンバーシップ関数を決定することができるように構成
    されていることを特徴とする推論規則決定装置。
  4. 【請求項4】ファジィ推論規則が入力空間をファジィ分
    割するメンバーシップ値を神経回路網教師データと
    し、入力データと前記教師データの入出力関係を前記神
    経回路網学習させることによってIF部におけるファ
    ジィ変数を定義するメンバーシップ関数を決定すること
    を特徴とする請求項1または3記載の推論規則決定装
    置。
  5. 【請求項5】学習データとして予め決められた入力値を
    前記ファジィ推論演算部に入力した場合の前記理想出力
    値と前記ファジィ推論演算部の実際の出力とを用いて前
    記誤差が最小になるようにメンバーシップ関数の形状を
    定義するパラメータを変化させることで最適なメンバー
    シップ関数を決定することができるよう構成されている
    神経回路網を持つことを特徴とする請求項1または3記
    載の推論規則決定装置。
  6. 【請求項6】IF部とTHEN部からなるファジィ推論
    規則を内蔵するファジィ推論演算部からの出力と理想的
    出力をそれぞれ入力し、その誤差を誤差計算部により計
    算し、前記ファジィ推論演算部への入力値と前記誤差計
    算部の出力とを入力しそれらに基づいて前記ファジィ推
    論規則の少なくともIF部における入力ファジィ変数を
    定義するメンバーシップ関数を神経回路網により決定す
    るにあたり、前記神経回路網は、学習データとして予め
    決められた入力値を前記ファジィ推論演算部に入力した
    場合の前記理想出力値と前記ファジィ推論演算部の実際
    の出力とを用いて前記誤差が最小になるように学習を行
    い、前記メンバーシップ関数の形状を変化させることで
    最適な前記メンバーシップ関数を決定することを特徴と
    する推論規則決定方法。
  7. 【請求項7】IF部とTHEN部からなるファジィ推論
    規則を内蔵するファジィ推論演算部からの出力と理想的
    出力をそれぞれ入力し、その誤差を誤差計算部により計
    算し、前記ファジィ推論演算部への入力値と前記誤差計
    算部の出力とを入力しそれらに基づいて前記ファジィ推
    論規則の少なくともTHEN部の出力量を決定する定数
    または関数式またはファジィ変数を定義するメンバーシ
    ップ関数を神経回路網により決定するにあたり、前記神
    経回路網は、学習データとして予め決められた入力値を
    前記ファジィ推論演算部に入力した場合の前記理想出力
    値と前記ファジィ推論演算部の実際の出力とを用いて前
    記誤差が最小になるように学習を行い、前記定数または
    関数式を決定するかまたは前記メンバーシップ関数の形
    状を変化させることで最適な前記メンバーシップ関数を
    決定することを特徴とする推論規則決定方法。
  8. 【請求項8】IF部とTHEN部からなるファジィ推論
    規則を内蔵するファジィ推論演算部からの出力と理想的
    出力をそれぞれ入力し、その誤差を誤差計算部により計
    算し、前記ファジィ推論演算部への入力値と前記誤差計
    算部の出力とを入力しそれらに基づいて前記ファジィ推
    論規則のIF部における入力ファジィ変数を定義するメ
    ンバーシップ関数と、THEN部の出力量を決定する定
    数または関数式またはファジィ変数を定義するメンバー
    シップ関数とを神経回路網により決定するにあたり、前
    記神経回路網は、学習データとして予め決められた入力
    値を前記ファジィ推論演算部に入力した場合の前記理想
    出力値と前記ファジィ推論演算部の実際の出力とを用い
    て前記誤差が最小になるように学習を行い、メンバーシ
    ップ関数の形状を変化させることで最適な前記IF部の
    メンバーシップ関数を決定し、かつ、前記THEN部の
    定数または関数式を決定するかまたはメンバーシップ関
    数の形状を変化させることで最適な前記THEN部のメ
    ンバーシップ関数を決定することを特徴とする推論規則
    決定方法。
  9. 【請求項9】ファジィ推論規則が入力空間をファジィ分
    割するメンバーシップ値を神経回路網の教師データと
    し、入力データと前記教師データの入出力関係を前記神
    経回路網に学習させることによってIF部におけるファ
    ジィ変数を定義するメンバーシップ関数を決定すること
    を特徴とする請求項6または8記載の推論規則決定方
    法。
  10. 【請求項10】学習データとして予め決められた入力値
    を前記ファジィ推論演算部に入力した場合の前記理想出
    力値と前記ファジィ推論演算部の実際の出力とを用いて
    前記誤差が最小になるようにメンバーシップ関数の形状
    を定義するパラメータを変化させることで最適なメンバ
    ーシップ関数を決定することができるよう構成されてい
    る神経回路網を持つことを特徴とする請求項6または8
    記載の推論規則決定方法。
  11. 【請求項11】IF部とTHEN部からなるファジイ推
    論規則を用い、前記ファジイ推論規則の出力が理想的出
    力に近づくように少なくともIF部における入力ファジ
    イ変数を定義するメンバーシップ関数を神経回路網を用
    いて決定することを特徴とする推論規則決定方法。
JP8003532A 1988-05-20 1996-01-12 推論規則決定装置及び推論規則決定方法 Expired - Fee Related JP2813567B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8003532A JP2813567B2 (ja) 1988-05-20 1996-01-12 推論規則決定装置及び推論規則決定方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP63-124354 1988-05-20
JP12435488 1988-05-20
JP8003532A JP2813567B2 (ja) 1988-05-20 1996-01-12 推論規則決定装置及び推論規則決定方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP1505696A Division JP2553725B2 (ja) 1988-05-20 1989-05-19 推論装置

Publications (2)

Publication Number Publication Date
JPH08320792A JPH08320792A (ja) 1996-12-03
JP2813567B2 true JP2813567B2 (ja) 1998-10-22

Family

ID=26337135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8003532A Expired - Fee Related JP2813567B2 (ja) 1988-05-20 1996-01-12 推論規則決定装置及び推論規則決定方法

Country Status (1)

Country Link
JP (1) JP2813567B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4193760B2 (ja) * 2004-06-29 2008-12-10 日本電気株式会社 画像パターン補正方法、及びそれを適用した模擬画像生成方法、並びにパターン外観検査方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
「JOURNAL OF CYBERNETICS」 VOL.4,NO.2 (1974) P.83−103
「計測自動制御学会論文集」 VOL.24,NO.2 (1988−2) P.85−91

Also Published As

Publication number Publication date
JPH08320792A (ja) 1996-12-03

Similar Documents

Publication Publication Date Title
EP0813127A2 (en) Inference rule determining method and inference device
Castillo et al. Some applications of functional networks in statistics and engineering
Ishibuchi et al. Fuzzy regression using asymmetric fuzzy coefficients and fuzzified neural networks
JP2747104B2 (ja) ニューラルネットワーク
KR920702784A (ko) 뉴로-퍼지 융합 데이타처리 시스템
JPH11510936A (ja) コンピュータによるファジィルールの最適化方法
JP3247803B2 (ja) ファジィ・ニューラルネットワーク・システム
Abdelbar et al. HONEST: a new high order feedforward neural network
JP2813567B2 (ja) 推論規則決定装置及び推論規則決定方法
EP0661645A2 (en) Neural network
JP3354593B2 (ja) ネットワーク型情報処理装置の学習システム
JPH05128284A (ja) ニユーロプロセツサ
JP2553725B2 (ja) 推論装置
JP2002288625A (ja) 多目的最適化方法、プログラムおよびプラン立案装置
Mosleh Numerical solution of fuzzy differential equations under generalized differentiability by fuzzy neural network
JP2021012600A (ja) 診断方法、学習方法、学習装置およびプログラム
JP4267726B2 (ja) 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置
JP3029451B2 (ja) ファジィ制御装置
CN110334744A (zh) 一种基于跨通道级联卷积层的神经网络模型优化算法
Georgopoulos et al. Diagnosis support using fuzzy cognitive maps combined with genetic algorithms
JPH06119175A (ja) 階層ネットワーク構成ファジイモデル実行装置の構造変換方式およびファジィモデル抽出方式
JP3292495B2 (ja) ニューロ・ファジィ融合システム
JP3231860B2 (ja) 神経回路網を用いた故障診断装置
JP2906605B2 (ja) パターン認識装置
JP3396489B2 (ja) ネットワーク型情報処理システム

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees