JPH064503A - ファジィ推論ルールの抽出装置 - Google Patents

ファジィ推論ルールの抽出装置

Info

Publication number
JPH064503A
JPH064503A JP4159218A JP15921892A JPH064503A JP H064503 A JPH064503 A JP H064503A JP 4159218 A JP4159218 A JP 4159218A JP 15921892 A JP15921892 A JP 15921892A JP H064503 A JPH064503 A JP H064503A
Authority
JP
Japan
Prior art keywords
fuzzy inference
unit
input
model storage
fuzzy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4159218A
Other languages
English (en)
Inventor
Isao Hayashi
勲 林
Jun Ozawa
順 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP4159218A priority Critical patent/JPH064503A/ja
Publication of JPH064503A publication Critical patent/JPH064503A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 (修正有) 【目的】 CMACの学習機能を用いて、入出力関係を
その本質的な関係を表現するファジィ推論ルールと微調
整のファジィ推論ルールとに分離して、同定できるファ
ジィ推論の抽出装置を提供する。 【構成】 センサーからの情報やユーザの情報の入力部
21と、メンバシップ関数記憶部22と、複数の小脳モ
デル記憶部23と、前記複数の小脳モデル記憶部に重み
を考慮するための重み計算部24と、ファジィ推論ルー
ルの後件部を降下法により学習する降下法学習部25
と、重み計算部の重みを用いて決定したファジィ推論ル
ールの前件部及び前記降下法学習部で得られた後件部と
を用いて行うファジィ推論部26と、ファジィ推論の結
果と前記入力部からの出力値との誤差を判断する判断部
27と、前記判断部の判断に基づいて最も推論誤差が小
さくなる一つの小脳モデル記憶部を選択し残りの小脳モ
デル記憶部を用いた結果も表示する出力部28とを具備
する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は入力データから制御量等
の推定量を決定する制御装置に関するものである。
【0002】
【従来の技術】まず、ファジィ推論の基本的概略につい
て説明する。ファジィ推論では、if…then … 形式の推
論規則にあいまいな変量(例えば、「大きい」、「中
位」等)を用いて推論を実行する。ファジィ推論では、
前件部(IF部)には必ずファジィ変数を記述するが、後件
部(THEN部)ではファジィ変数、方程式、あるいは実数値
を記述する。推論の実行は次のように行う。
【0003】1)入力値に対して、前件部の各入力変数
のファジィ変数のメンバシップ値を計算する。
【0004】2)各入力変数に対するメンバシップ値を
統合する計算(min演算、乗算等)を施して、各ルールの
前件部の適合度合を計算する。
【0005】3)後件部のファジィ変数、あるいは実数
値(方程式を含む)のメンバシップ値と前件部の適合度合
との演算(min演算、乗算等)から、各ルールの結果を算
出する。
【0006】4)複数個のルールに対して、最終的な結
果を求める計算(max演算、和算等)を施し、最終結果を
得る。ただし、特に制御分野では、最終結果(ファジィ
数)の重心をとり、実数値として最終結果を算出してい
る。
【0007】より詳細な資料として、ファジィ制御(菅
野道夫著、日刊工業新聞社)がある。また、特願平2ー
233546号に示されているファジィ推論装置があ
る。
【0008】一方、ある入力データをファジィ推論装置
に入力した場合に、正しい出力値が推論されるように、
前件部のメンバシップ関数と後件部の実数値を調整する
種々の技術が提案されている。ファジィ推論ルールの調
整技術の構成図の一例を図5に示す。図5において、5
1はファジィ推論値を演算するファジィ推論演算部、5
2はファジィ推論に用いる推論規則を記憶している推論
規則記憶部、53は前件部のメンバーシップ関数の形状
を表わすパラメータを記憶している前件部メンバーシッ
プ関数記憶部、54は後件部の実数値を記憶している後
件部実数値記憶部、55はあらかじめ与えられた入出力
データとファジィ推論演算部から得られる推論結果から
推論誤差を検出するファジィ推論誤差演算部、56は推
論誤差演算部から得られた推論誤差を用いて、降下法に
より前件部のメンバシップ関数と後件部の実数値を調整
する降下法演算部である。
【0009】この方法では、非線形計画法の一手法であ
る降下法を用いることにより、ファジィ推論ルールの前
件部のメンバシップ関数と後件部の実数値を調整する。
しかしながら、メンバシップ関数や実数値は推論誤差が
小さくなる方向だけに調整されるので、入出力関係の微
妙な変動を表すメンバシップ関数を多く作成し、微妙な
変動を表すファジィ推論ルールを多く作成してしまう。
その結果、入出力関係の本質的な関係を表現する場合に
は、十分なファジィ推論ルールを得ることができないと
いった欠点があった。
【0010】
【発明が解決しようとする課題】本発明はかかる点に鑑
み、ファジィ推論ルールを調整するのではなく、CMA
Cの学習機能を用いて入出力データの挙動を大まかに表
現する推論ルールと微調整の推論ルールとの2種類のフ
ァジィ推論ルールを抽出して、ファジィ推論ルールを構
築する装置を提供することを目的とする。
【0011】
【課題を解決するための手段】第1の発明では、センサ
ーからの情報やユーザの情報を入力するための入力部
と、ファジィ推論のためのメンバシップ関数を記憶する
メンバシップ関数記憶部と、小脳モデルの構成要素であ
る顆粒細胞を記憶する複数の小脳モデル記憶部と、ファ
ジィ推論ルールの後件部を降下法により学習する降下法
学習部と、複数個の前記小脳モデル記憶部に配分して決
定したファジィ推論ルールの前件部及び前記降下法学習
部で得られた後件部とを用いてファジィ推論を行うファ
ジィ推論部と、ファジィ推論の結果と前記入力部からの
出力値との誤差を判断する判断部と、前記判断部の判断
に基づいて最も推論誤差が小さくなる一つの小脳モデル
記憶部を選択し残りの小脳モデル記憶部を用いた結果も
表示する出力部とを具備することを特徴とするファジィ
推論ルールの抽出装置である。
【0012】第2の発明では、センサーからの情報やユ
ーザの情報を入力するための入力部と、ファジィ推論の
ためのメンバシップ関数を記憶するメンバシップ関数記
憶部と、小脳モデルの構成要素である顆粒細胞を記憶す
る複数の小脳モデル記憶部と、前記複数の小脳モデル記
憶部に重みを考慮するための重み計算部と、ファジィ推
論ルールの後件部を降下法により学習する降下法学習部
と、複数個の前記小脳モデル記憶部に配分し前記重み計
算部の重みを用いて決定したファジィ推論ルールの前件
部及び前記降下法学習部で得られた後件部とを用いてフ
ァジィ推論を行うファジィ推論部と、ファジィ推論の結
果と前記入力部からの出力値との誤差を判断する判断部
と、前記判断部の判断に基づいて最も推論誤差が小さく
なる一つの小脳モデル記憶部を選択し残りの小脳モデル
記憶部を用いた結果も表示する出力部とを具備すること
を特徴とするファジィ推論ルールの抽出装置である。
【0013】第3の発明では、センサーからの情報やユ
ーザの情報を入力するための入力部と、ファジィ推論の
ためのメンバシップ関数を記憶するメンバシップ関数記
憶部と、小脳モデルの構成要素である顆粒細胞を記憶す
る複数の小脳モデル記憶部と、ファジィ推論ルールの後
件部を遺伝アルゴリズムにより学習する遺伝アルゴリズ
ム実行部と、前記遺伝アルゴリズム実行部のパラメータ
を記憶するパラメータ記憶部と、複数個の前記小脳モデ
ル記憶部に配分して決定したファジィ推論ルールの前件
部及び前記遺伝アルゴリズム実行部で得られた後件部と
を用いてファジィ推論を行うファジィ推論部と、ファジ
ィ推論の結果と前記入力部からの出力値との誤差を判断
する判断部と、前記判断部の判断に基づいて最も推論誤
差が小さくなる一つの小脳モデル記憶部を選択し残りの
小脳モデル記憶部を用いた結果も表示する出力部とを具
備することを特徴とするファジィ推論ルールの抽出装置
である。
【0014】第4の発明では、センサーからの情報やユ
ーザの情報を入力するための入力部と、ファジィ推論の
ためのメンバシップ関数を記憶するメンバシップ関数記
憶部と、小脳モデルの構成要素である顆粒細胞を記憶す
る複数の小脳モデル記憶部と、前記複数の小脳モデル記
憶部に重みを考慮するための重み計算部と、ファジィ推
論ルールの後件部を遺伝アルゴリズムにより学習する遺
伝アルゴリズム実行部と、前記遺伝アルゴリズム実行部
のパラメータを記憶するパラメータ記憶部と、複数個の
前記小脳モデル記憶部に配分し前記重み計算部の重みを
用いて決定したファジィ推論ルールの前件部及び前記遺
伝アルゴリズム実行部で得られた後件部とを用いてファ
ジィ推論を行うファジィ推論部と、ファジィ推論の結果
と前記入力部からの出力値との誤差を判断する判断部
と、前記判断部の判断に基づいて最も推論誤差が小さく
なる一つの小脳モデル記憶部を選択し残りの小脳モデル
記憶部を用いた結果も表示する出力部とを具備すること
を特徴とするファジィ推論ルールの抽出装置である。
【0015】
【作用】本発明は前記した構成により、CMACの学習
機能を用いて、入出力関係を同定し、ファジィ推論ルー
ルを抽出し、高速に、低記憶容量で出力量を提供でき
る。
【0016】
【実施例】まず、本特許で重要な概念である小脳モデル
アルゴリズム(Cerebellar Model A
rithmetic Computer : CMA
C)の基本概略について説明する。CMACは、J.
S.Albus (Brains, Behavior
and Robotics, McGraw Hil
ls (1981), (訳)小杉他:ロボティクス,啓学
出版(1984))によって提案され、生体の情報処理
機能を模倣するモデルとして構築された。複数個の顆粒
細胞モデルを構成し、これらのモデルが並列的に値を出
力し、出力値の和を求めることにより推論値を計算す
る。
【0017】CMACの基本構成について述べる。い
ま、n 入力1出力の入出力データ(X,y)=(x1,x2,・・・,
xn,y)が与えられたとする。ただし、xj, j=1,2,・・・,n
は j 番目の入力データ、y は出力データを示す。CM
ACは m層の階層構造からなり、各層では、1個のモデ
ル Fk, k=1,2,・・・,m が対応している。各層モデルFk
は、xj, j=1,2,・・・n軸での複数の区間を用いて、n 次元
空間を複数の部分空間に分割している。これらの部分空
間を顆粒細胞とよぶ。また、各顆粒細胞に値を割り付
け、この値を顆粒細胞値とよぶ。図6に n=2, m=4 から
なるCMACを示す。CMACは4層の層モデルから構
成され、モデル Fk は5×5の顆粒細胞により入力空間を
分割している。4層のモデルを重ね合わせることによ
り、よりきめ細かな領域に分割された入力空間を表現す
ることができる。
【0018】次に、CMACの逐次学習方法について述
べる。いま、層モデル Fk において、入力データXを含
む顆粒細胞での顆粒細胞値 W k は、次のように表され
る。
【0019】
【数1】
【0020】ただし、Fk(X)は層モデル Fk の入出力
関係を表す。CMACの逐次学習では、t 回目の学習に
より得られた顆粒細胞値を Wt k として、この Wt k によ
り推論値 yt c を計算する。
【0021】
【数2】
【0022】(t+1) 回目の Wt+1 k は、推論値 yt c を用
いて次のように計算される。
【0023】
【数3】
【0024】ただし、gは学習係数である。CMACの
逐次学習は、推論誤差と許容誤差εの関係が次式を満足
するとき終了する。
【0025】
【数4】
【0026】一方、複数個の入出力データが存在する場
合には、各入力データに対して1回の逐次学習を行い、
複数個の入出力データを繰り返し用いて全体の入出力デ
ータの学習を行う。この全体の学習が終了した場合の顆
粒細胞値を特に、Wlast kと記す。
【0027】CMACの学習則を数値例を用いて説明す
る。2入力1出力のデータ(x1,x2,y)=(6,4,10)に対し
て、t 回目の Wt k, k=1,2,・・・,4 を
【0028】
【数5】
【0029】とする。モデル F1 の Wt+1 1 は、(数2),
(数3) から次のように求められる。
【0030】
【数6】
【0031】
【数7】
【0032】ただし、g=1.0としている。同様にして W
t+1 2=3.5、Wt+1 3=3.5、Wt+1 4=1.5と計算できる。したが
って、(数2) により、
【0033】
【数8】
【0034】となる。この結果から、(t+1) 回目の推論
誤差は t回目よりも小さくなることがわかる。
【0035】次に、CMACの有用性を示す。次の非線
形方程式(菅野道夫:ファジィ制御,日刊工業新聞社(1
988))を考える。この方程式を用いて、x1,x2,x3を乱数
で与え、100個の入出力データ(xi,yi), i=1,2,・・・,100
を作成する。
【0036】
【数9】
【0037】作成したデータに対して、CMACの顆粒
細胞の層数を3層として、各層での顆粒細胞の分割数を
3個とした場合のCMACにより得られた結果を図7に
示す。
【0038】ただし、学習係数を0.1と設定し、推論精
度 C は次式により求める。
【0039】
【数10】
【0040】ここで、eyi はCMACの推定値である。
このように、CMACアルゴリズムを用いると入出力デ
ータの入出力関係を高精度で同定することができる。
【0041】本特許では、このCMACをファジィ推論
ルールの調整のために用いる。そのため、ファジィ推論
ルールのメンバシップ関数を顆粒細胞に導入する新たな
CMACを提案する。具体的には、各顆粒細胞がファジ
ィ推論のルールテーブルとなるように三角型のメンバシ
ップ関数を配置する。図8に、第k層目での顆粒細胞と
メンバシップ関数との関係を示す。ただし、メンバシッ
プ関数は隣のメンバシップ関数とはメンバシップ値が
0.5で交わるように構成する。また、斜線の顆粒細胞が
示すファジィ推論ルールも同時に表現する。ファジィ推
論ルールの前件部は、入力変数 x1 の2番目のメンバシ
ップ関数と入力変数 x2 の4番目のメンバシップ関数か
ら構成され、後件部ではCMACの顆粒細胞値が実数値
を表している。
【0042】いま、入出力データ(X,y)=(x1,x2,・・・,
xn,y) が与えられたとすると、推論値yt c はメンバシッ
プ関数を考慮することにより、(数2)を変形して次の
ように得られる。
【0043】
【数11】
【0044】ただし、μkj,q(xj)は、第 j 番目の入力
変数の第 q 番目のファジィ数のメンバシップ値を表
し、Q(J) は第 j 番目の入力変数に設定されたメンバシ
ップ関数の個数を表す。また、添字 p は第 k 層目にお
いて、入力Xを含む顆粒細胞の番号を示し、NK はその
対応する顆粒細胞の個数である。したがって、wt、p k
は第k 層目の第 p 番目の顆粒細胞の t 回目の値を示
す。
【0045】推論値 yt c を用いて (t+1) 回目の W
t+1、p k を次のように計算する。
【0046】
【数12】
【0047】ただし、gは学習係数である。(数12)の
学習式は、ファジィ推論ルールの調整法として有用な降
下法と同じであるが、前件部のメンバシップ関数を調整
するのではなく、後件部の実数値だけを調整している。
【0048】本特許の手法では、ファジィ推論ルールの
前件部のメンバシップ関数を固定として、各層の顆粒細
胞に割り付け、CMACの顆粒細胞値の学習則によりフ
ァジィ推論ルールの後件部の実数値を決定している。C
MACの構造を用いることで多層的なファジィ推論ルー
ルを設定することになり、メンバシップ関数を調整する
ことなく推論誤差を小さくできる。
【0049】次に、本発明の実施例を図面を用いて説明
する。図1は本発明の請求項1に記載のファジィ推論ル
ールの抽出装置の一実施例の構成図である。図1におい
て、11はセンサーからの情報やユーザの情報を入力す
るための入力部。12はファジィ推論のためのメンバシ
ップ関数を記憶するメンバシップ関数記憶部。13は小
脳モデルの構成要素である顆粒細胞を記憶する複数の小
脳モデル記憶部。14はファジィ推論ルールの後件部を
降下法により学習する降下法学習部。15は複数個の前
記小脳モデル記憶部に配分して決定したファジィ推論ル
ールの前件部及び前記降下法学習部で得られた後件部と
を用いてファジィ推論を行うファジィ推論部。16はフ
ァジィ推論の結果と前記入力部からの出力値との誤差を
判断する判断部。17は前記判断部の判断に基づいて最
も推論誤差が小さくなる一つの小脳モデル記憶部を選択
し残りの小脳モデル記憶部を用いた結果も表示する出力
部である。
【0050】次に、第1の発明のファジィ推論ルールの
抽出装置について、その動作過程を説明する。
【0051】[ステップ 1]観測値 yと入力変数 xj,
j=1,2, … ,n を定める。11の入力部からセンサー入
出力データ、あるいはユーザによる入出力データを入力
する。この時の全データ数を N 個とする。ここでは、
入出力データを (xi1,xi2,…,xin,yi), i=1,2,… ,N と
表す。
【0052】[ステップ 2]メンバシップ関数記憶部
12からメンバシップ関数を小脳モデル記憶部13に出
力し、ファジィ推論部15においてファジィ推論を実行
する。ただし、後件部の実数値を後件部学習部14にお
いて(数12)を用いて学習する。このために、小脳モデ
ル記憶部13とメンバシップ関数記憶部12とを接合さ
せるm個のスイッチ s1,…,sm を ON 状態にする。これ
により、ファジィ推論部15と降下法学習部14とを用
いて、入出力データ(xi1,xi2,…,xin,yi) の入出力関係
を推定する。ただし、この場合の顆粒細胞の層数mと各
層での顆粒細胞の分割数は、ユーザにより入力部11か
ら入力される。ここで、各層の顆粒細胞は、データの入
出力関係を大まかに捕らえるファジィ推論ルールを決定
するための要因となるので、詳細に分割するよりも多
少、大きめに設定する。
【0053】[ステップ 3]m 層の各層における推定
の出力値を計算し、判断部16において、最も推論誤差
の小さい層を選択する。選択された層を第 k 層とす
る。この第 k 層は、最も推論誤差が小さいので、m層
の中で最もデータの入出力関係を大まかに表現したルー
ルであるといえる。入出力データ(xi1,xi2,…,xin,yi)
を次のように変更する。
【0054】
【数13】
【0055】[ステップ 4]新たに設定した入出力デ
ータ (xi1,xi2,…,xin,yi) に対して、第 k 層目を取り
除いた小脳モデル記憶部を用いて、(数12)の学習を行
う。このために、小脳モデル記憶部13とメンバシップ
関数記憶部12とを接合させるm個のスイッチs1,…,sm
の中で、スイッチ sk を OFF 状態にして、残りのスイ
ッチを ON 状態にする。これにより、ファジィ推論部1
5と降下法学習部16とを用いて、入出力データ (xi1,
xi2,…,xin,yi) の入出力関係を推定する。この残りの
m-1 層から構成されるファジィ推論ルールは、第k層目
で入出力データの大まかな関係を表現した補正分を表現
していると考えられる。したがって、ここでは、この残
りのファジィ推論ルールを微調整の推論ルールと考え
る。
【0056】上記の装置により、大まかなファジィ推論
ルールを抽出する過程を図9に示し、微調整のファジィ
推論ルールを構成する過程を図10に示す。図9では、小
脳モデルは4層に分割されており、第1層目の層モデル
による推論値が最も出力データを表現している。したが
って、図10では、第1層目の層モデルでの学習を固定し
て、残りの3層の層モデルを用いて推論誤差を同定して
いる。また、1入力1出力のデータが与えられた場合の
ファジィ推論ルールの抽出装置による数値例を図11に示
す。それぞれ、(a)は与えられた1入力1出力データ、
(b)は大まかなファジィ推論ルールにより得られた入出
力関係、(c) は微調整のファジィ推論ルールにより得ら
れた入出力関係、(d) は大まかなファジィ推論ルールと
微調整のファジィ推論ルールを用いて得られた入出力関
係を表す。ただし、ここでは7層の層モデルと各層で3
種類のメンバシップ関数を設定している。
【0057】以上のような構成を用いて、まず、CMA
Cによる学習手法(降下法)を用いて、CMACの一つの
層を抽出することにより大まかなファジィ推論ルールを
抽出し、次に、残りの層を用いることにより推論誤差を
調整するための微調整のファジィ推論ルールを構成す
る。ファジィ推論ルールが調整されるのではなく、入出
力データの入出力関係を大まかに表すファジィ推論ルー
ルと微調整のファジィ推論ルールとを抽出により構成す
ることができるので、入出力関係の本質的な関係を容易
に表現することができる。
【0058】次に、第2の発明の実施例について説明す
る。図2は本発明の請求項2に記載のファジィ推論ルー
ルの抽出装置の一実施例の構成図である。図2におい
て、21はセンサーからの情報やユーザの情報を入力す
るための入力部。22はファジィ推論のためのメンバシ
ップ関数を記憶するメンバシップ関数記憶部。23は小
脳モデルの構成要素である顆粒細胞を記憶する複数の小
脳モデル記憶部。24は前記複数の小脳モデル記憶部に
重みを考慮するための重み計算部。25はファジィ推論
ルールの後件部を降下法により学習する降下法学習部。
26は複数個の前記小脳モデル記憶部に配分し前記重み
計算部の重みを用いて決定したファジィ推論ルールの前
件部及び前記降下法学習部で得られた後件部とを用いて
ファジィ推論を行うファジィ推論部。27はファジィ推
論の結果と前記入力部からの出力値との誤差を判断する
判断部。28は前記判断部の判断に基づいて最も推論誤
差が小さくなる一つの小脳モデル記憶部を選択し残りの
小脳モデル記憶部を用いた結果も表示する出力部であ
る。
【0059】次に、第2の発明のファジィ推論ルールの
抽出装置について、その動作過程を説明する。
【0060】ステップ1、3、4は第1の発明と動作過
程が同じなので、ここでの説明は省略する。ステップ2
のみを説明する。
【0061】[ステップ 2]メンバシップ関数記憶部
22からメンバシップ関数を小脳モデル記憶部23に出
力し、ファジィ推論部26においてファジィ推論を行
う。ただし、後件部の実数値を降下法学習部25におい
て学習する。ここで、入力部21から与えられたファジ
ィ推論ルールに対する重み(重視度合)から、各小脳モデ
ルに対する重み z 1,z2,…,zk,…,zm を、重み計算部2
4で次のように計算する。
【0062】
【数14】
【0063】ただし、Rs は第 s 番目のファジィ推論ル
ールを示し、NS はファジィ推論ルールの個数を表す。
また、G(Rs) はファジィ推論ルール Rs に与えられた
重みを示す。
【0064】この重み z1,z2,…,zm を用いて、小脳モ
デル記憶部23の学習を行う。
【0065】
【数15】
【0066】このために、小脳モデル記憶部23とメン
バシップ関数記憶部22とを接合させる m 個のスイッ
チ s1,…,sm を ON状態にする。これにより、ファジィ
推論部26と降下法学習部25とを用いて、入出力デー
タ(xi1,xi2,…,xin,yi) の入出力関係を推定する。ただ
し、この場合の顆粒細胞の層数mと各層での顆粒細胞の
分割数は、ユーザにより入力部21から入力される。こ
こで、各層の顆粒細胞は、データの入出力関係を大まか
に捕らえるファジィ推論ルールを決定するための要因と
なるので、詳細に分割するよりも多少、大きめに設定す
る。
【0067】以上のような構成を用いて、まず、各ファ
ジィ推論ルールに対する重みを推論誤差に乗算した上
で、CMACによる学習手法(降下法)を用いてCMAC
の一つの層を抽出することにより大まかなファジィ推論
ルールを抽出し、次に、残りの層を用いることにより推
論誤差を調整するための微調整のファジィ推論ルールを
構成する。入出力データの入出力関係を大まかに表すフ
ァジィ推論ルールと微調整のファジィ推論ルールとを抽
出できるので、入出力関係の本質的な関係を容易に表現
することができる。
【0068】次に、第3の発明の実施例を図面を用いて
説明する。図3は本発明の請求項3に記載のファジィ推
論ルールの抽出装置の一実施例の構成図である。図3に
おいて、31はセンサーからの情報やユーザの情報を入
力するための入力部。32はファジィ推論のためのメン
バシップ関数を記憶するメンバシップ関数記憶部。33
は小脳モデルの構成要素である顆粒細胞を記憶する複数
の小脳モデル記憶部。34はファジィ推論ルールの後件
部を遺伝アルゴリズムにより学習する遺伝アルゴリズム
実行部。35は前記遺伝アルゴリズム実行部のパラメー
タを記憶するパラメータ記憶部。36は複数個の前記小
脳モデル記憶部に配分して決定したファジィ推論ルール
の前件部及び前記遺伝アルゴリズム実行部で得られた後
件部とを用いてファジィ推論を行うファジィ推論部。3
7はファジィ推論の結果と前記入力部からの出力値との
誤差を判断する判断部。38は前記判断部の判断に基づ
いて最も推論誤差が小さくなる一つの小脳モデル記憶部
を選択し残りの小脳モデル記憶部を用いた結果も表示す
る出力部である。次に、第3の発明の入出力関係推定装
置について、その動作過程を説明する。
【0069】第3の発明では遺伝アルゴリズムを用いて
CMACの顆粒細胞の値を決定している。遺伝アルゴリ
ズム(Genetic Algorithm)とは1975年にJ.H.Holland(Ada
ptation in Natural and Artificial Systems, Ann Arb
on, The Univ. of MichiganPress)が提案した。以下
に、遺伝アルゴリズムの概略について説明する。概略は
須貝康雄、平田廣則(組合せ最適化アルゴリズムとその
応用、計測と制御、Vol.29, No.12, pp.1084-1091 (199
0))を参考にして述べる。
【0070】遺伝アルゴリズムとは生体の遺伝子や染色
体の成長過程を数理モデルに置き換えたものである。生
体が成長を遂げる過程をモデルとして構成することによ
り、最適化問題を解くことができる。遺伝アルゴリズム
では、最適化問題における関数E(x)を最小化する問題
を考える代わりに、適応度v(x)(>0) を最大化する問題
を考える。具体的には、E(x)に適当な変換を施してv
(x)を定義する。
【0071】いま、n 個の染色体から構成される遺伝子
を M 個考える。この M 個の遺伝子の個体群を X={x1,x
2,…,xM} と表す。xi, i=1,2,…,M の各遺伝子 xi j, j=
1,2,…,n は基本的には{0,1}の2種とする。アルゴリ
ズムは次のように表される。 1)第0世代(t=0)の個体群X(0)={x1(0),…,xM(0)}をラ
ンダムに選択し、X(0)の中の各 xi(0) に対して、v(x
i(0)) (適応度) を計算する。 2)X(t) 中の各 xi(0) に対して、つぎの選択確率 Pi s
(t) を計算する。
【0072】
【数16】
【0073】3)X(t) 中から2個体 xi(t) と xj(t)
をそれぞれ選択確率 Pi s(t), Pj s(t)に従い選択する。
【0074】(1) 2個体に対し、ある確率 Pc で cross
over(交配)を適用し、生じる2つの子孫の中から1つを
ランダムに選び、それを xk(t) とする。
【0075】(2) ある確率 Pi で inversion(逆転) を
xk(t) に適用し、それを新たな xk(t) とする。
【0076】(3) ある確率 Pm で xk(t) の各要素に mu
tation(突然変異)を適用し、それを再び xk(t) とす
る。
【0077】4)X(t) 中からある個体を 1/M の等確率
で選択し、それと xk(t)を入れ換える。
【0078】5)v(xk(t)) を計算する。 6)終了条件が満たされるまで世代 t を t=t+1 とし
て、2)から5)までを繰り返す。
【0079】次に、第3の発明のファジィ推論ルールの
抽出装置について、その動作過程を説明する。
【0080】ステップ1、3、4は第1の発明と動作過
程が同じなので、ここでの説明は省略する。ステップ2
のみを説明する。
【0081】[ステップ 2]メンバシップ関数記憶部
32からメンバシップ関数を小脳モデル記憶部33に出
力し、ファジィ推論部36においてファジィ推論を実行
する。ただし、後件部の実数値を遺伝アルゴリズム実行
部34において学習する。学習のため、パラメータ記憶
部35では顆粒細胞値(後件部の実数値)wt,p k を、次
のように染色体と遺伝子に変換する。
【0082】
【数17】
【0083】遺伝アルゴリズム実行部34において、遺
伝アルゴリズムを用いて各層モデルの顆粒細胞値(ファ
ジィ推論ルールの後件部の実数値)を求める。ただし、
適応度を次のように定義する。
【0084】
【数18】
【0085】顆粒細胞値を求めるために、小脳モデル記
憶部33とメンバシップ関数記憶部32とを接合させる
m 個のスイッチ s1,…,sm を ON状態にする。これによ
り、ファジィ推論部36と遺伝アルゴリズム実行部3
4、パラメータ記憶部35を用いて、入出力データ
(xi1,xi2,…,xin,yi) の入出力関係を推定する。ただ
し、この場合の顆粒細胞の層数mと各層での顆粒細胞の
分割数は、ユーザにより入力部31から入力される。こ
こで、各層の顆粒細胞は、データの入出力関係を大まか
に捕らえるファジィ推論ルールを決定するための要因と
なるので、詳細に分割するよりも多少、大きめに設定す
る。
【0086】以上のような構成を用いて、遺伝アルゴリ
ズムを用いて後件部の実数値を求め、CMACの一つの
層を抽出することにより大まかなファジィ推論ルールを
抽出し、残りの層を用いることにより推論誤差を調整す
るための微調整のファジィ推論ルールを構成する。入出
力データの入出力関係を大まかに表すファジィ推論ルー
ルと微調整のファジィ推論ルールとを抽出できるので、
入出力関係の本質的な関係を容易に表現することができ
る。
【0087】次に、第4の発明の実施例を図面を用いて
説明する。図4は本発明の請求項4に記載のファジィ推
論ルールの抽出装置の一実施例の構成図である。図4に
おいて、41はセンサーからの情報やユーザの情報を入
力するための入力部。42はファジィ推論のためのメン
バシップ関数を記憶するメンバシップ関数記憶部。43
は小脳モデルの構成要素である顆粒細胞を記憶する複数
の小脳モデル記憶部。44は前記複数の小脳モデル記憶
部に重みを考慮するための重み計算部。45はファジィ
推論ルールの後件部を遺伝アルゴリズムにより学習する
遺伝アルゴリズム実行部。46は前記遺伝アルゴリズム
実行部のパラメータを記憶するパラメータ記憶部。47
は複数個の前記小脳モデル記憶部に配分し前記重み計算
部の重みを用いて決定したファジィ推論ルールの前件部
及び前記遺伝アルゴリズム実行部で得られた後件部とを
用いてファジィ推論を行うファジィ推論部。48はファ
ジィ推論の結果と前記入力部からの出力値との誤差を判
断する判断部。49は前記判断部の判断に基づいて最も
推論誤差が小さくなる一つの小脳モデル記憶部を選択し
残りの小脳モデル記憶部を用いた結果も表示する出力部
である。
【0088】次に、第4の発明のファジィ推論ルールの
抽出装置について、その動作過程を説明する。
【0089】ステップ1、3、4は第1の発明と動作過
程が同じなので、ここでの説明は省略する。ステップ2
のみを説明する。
【0090】[ステップ 2]メンバシップ関数記憶部
42からメンバシップ関数を小脳モデル記憶部43に出
力し、ファジィ推論部47においてファジィ推論を実行
する。ただし、後件部の実数値を遺伝アルゴリズム実行
部45において学習する。ここで、入力部41から与え
られたファジィ推論ルールに対する重み(重視度合)か
ら、各小脳モデルに対する重みz1,z2,…,zk,…,zm を、
重み計算部44で(数14)を用いて計算する。また、学
習のため、パラメータ記憶部46では顆粒細胞値(後件
部の実数値)wt,p k を、(数17)を用いて染色体と遺伝
子に変換する。
【0091】遺伝アルゴリズム実行部45において、遺
伝アルゴリズムを用いて各層モデルの顆粒細胞値(ファ
ジィ推論ルールの後件部の実数値)を求める。ただし、
適応度は重み zk を用いて次のように定義する。
【0092】
【数19】
【0093】顆粒細胞値を求めるために、小脳モデル記
憶部33とメンバシップ関数記憶部42とを接合させる
m 個のスイッチ s1,…,sm を ON 状態にする。これに
より、ファジィ推論部47と遺伝アルゴリズム実行部4
5、パラメータ記憶部46を用いて、入出力データ
(xi1,xi2,…,xin,yi) の入出力関係を推定する。ただ
し、この場合の顆粒細胞の層数mと各層での顆粒細胞の
分割数は、ユーザにより入力部41から入力される。こ
こで、各層の顆粒細胞は、データの入出力関係を大まか
に捕らえるファジィ推論ルールを決定するための要因と
なるので、詳細に分割するよりも多少、大きめに設定す
る。
【0094】以上のような構成を用いて、遺伝アルゴリ
ズムを用いて後件部の実数値を求め、CMACの一つの
層を抽出することにより大まかなファジィ推論ルールを
抽出し、残りの層を用いることにより推論誤差を調整す
るための微調整のファジィ推論ルールを構成する。入出
力データの入出力関係を大まかに表すファジィ推論ルー
ルと微調整のファジィ推論ルールとを抽出できるので、
入出力関係の本質的な関係を容易に表現することができ
る。
【0095】なお、第1から第4の発明ではファジィ推
論ルールの後件部の実数値を決定するために、降下法や
遺伝アルゴリズムを用いたが、他の探索手法を用いても
よい。
【0096】
【発明の効果】以上説明したように、本発明によればC
MACの学習機能を用いて、入出力関係をその本質的な
関係を表現するファジィ推論ルールと微調整のファジィ
推論ルールとに分離して、同定できるので、その実用的
価値には大なるものがある。
【図面の簡単な説明】
【図1】本発明の第1の実施例の入出力関係推定装置を
示す図
【図2】本発明の第2の実施例の入出力関係推定装置を
示す図
【図3】本発明の第3の実施例の入出力関係推定装置を
示す図
【図4】本発明の第4の実施例の入出力関係推定装置を
示す図
【図5】従来例のファジィ推論ルールの構築装置を示す
【図6】本発明の第1から第4までのCMACの構成図
を示す図
【図7】本発明のCMACの数値例の結果を示す図
【図8】本発明の改良型CMACの顆粒細胞とメンバシ
ップ関数との関係を示す図
【図9】大まかなファジィ推論ルールを抽出する過程を
示す図
【図10】微調整のファジィ推論ルールを構成する過程
を示す図
【図11】本発明の第1の実施例の数値例を示す図
【符号の説明】
11 入力部 12 メンバシップ関数記憶部 13 小脳モデル記憶部 14 降下法学習部 15 ファジィ推論部 16 判断部 17 出力部 21 入力部 22 メンバシップ関数記憶部 23 小脳モデル記憶部 24 重み計算部 25 降下法学習部 26 ファジィ推論部 27 判断部 28 出力部 31 入力部 32 メンバシップ関数記憶部 33 小脳モデル記憶部 34 遺伝アルゴリズム実行部 35 パラメータ記憶部 36 ファジィ推論部 37 判断部 38 出力部 41 入力部 42 メンバシップ関数記憶部 43 小脳モデル記憶部 44 重み計算部 45 遺伝アルゴリズム実行部 46 パラメータ記憶部 47 ファジィ推論部 48 判断部 49 出力部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】センサーからの情報やユーザの情報を入力
    するための入力部と、ファジィ推論のためのメンバシッ
    プ関数を記憶するメンバシップ関数記憶部と、小脳モデ
    ルの構成要素である顆粒細胞を記憶する複数の小脳モデ
    ル記憶部と、ファジィ推論ルールの後件部を降下法によ
    り学習する降下法学習部と、複数個の前記小脳モデル記
    憶部に配分して決定したファジィ推論ルールの前件部及
    び前記降下法学習部で得られた後件部とを用いてファジ
    ィ推論を行うファジィ推論部と、ファジィ推論の結果と
    前記入力部からの出力値との誤差を判断する判断部と、
    前記判断部の判断に基づいて最も推論誤差が小さくなる
    一つの小脳モデル記憶部を選択し残りの小脳モデル記憶
    部を用いた結果も表示する出力部とを具備することを特
    徴とするファジィ推論ルールの抽出装置。
  2. 【請求項2】センサーからの情報やユーザの情報を入力
    するための入力部と、ファジィ推論のためのメンバシッ
    プ関数を記憶するメンバシップ関数記憶部と、小脳モデ
    ルの構成要素である顆粒細胞を記憶する複数の小脳モデ
    ル記憶部と、前記複数の小脳モデル記憶部に重みを考慮
    するための重み計算部と、ファジィ推論ルールの後件部
    を降下法により学習する降下法学習部と、複数個の前記
    小脳モデル記憶部に配分し前記重み計算部の重みを用い
    て決定したファジィ推論ルールの前件部及び前記降下法
    学習部で得られた後件部とを用いてファジィ推論を行う
    ファジィ推論部と、ファジィ推論の結果と前記入力部か
    らの出力値との誤差を判断する判断部と、前記判断部の
    判断に基づいて最も推論誤差が小さくなる一つの小脳モ
    デル記憶部を選択し残りの小脳モデル記憶部を用いた結
    果も表示する出力部とを具備することを特徴とするファ
    ジィ推論ルールの抽出装置。
  3. 【請求項3】センサーからの情報やユーザの情報を入力
    するための入力部と、ファジィ推論のためのメンバシッ
    プ関数を記憶するメンバシップ関数記憶部と、小脳モデ
    ルの構成要素である顆粒細胞を記憶する複数の小脳モデ
    ル記憶部と、ファジィ推論ルールの後件部を遺伝アルゴ
    リズムにより学習する遺伝アルゴリズム実行部と、前記
    遺伝アルゴリズム実行部のパラメータを記憶するパラメ
    ータ記憶部と、複数個の前記小脳モデル記憶部に配分し
    て決定したファジィ推論ルールの前件部及び前記遺伝ア
    ルゴリズム実行部で得られた後件部とを用いてファジィ
    推論を行うファジィ推論部と、ファジィ推論の結果と前
    記入力部からの出力値との誤差を判断する判断部と、前
    記判断部の判断に基づいて最も推論誤差が小さくなる一
    つの小脳モデル記憶部を選択し残りの小脳モデル記憶部
    を用いた結果も表示する出力部とを具備することを特徴
    とするファジィ推論ルールの抽出装置。
  4. 【請求項4】センサーからの情報やユーザの情報を入力
    するための入力部と、ファジィ推論のためのメンバシッ
    プ関数を記憶するメンバシップ関数記憶部と、小脳モデ
    ルの構成要素である顆粒細胞を記憶する複数の小脳モデ
    ル記憶部と、前記複数の小脳モデル記憶部に重みを考慮
    するための重み計算部と、ファジィ推論ルールの後件部
    を遺伝アルゴリズムにより学習する遺伝アルゴリズム実
    行部と、前記遺伝アルゴリズム実行部のパラメータを記
    憶するパラメータ記憶部と、複数個の前記小脳モデル記
    憶部に配分し前記重み計算部の重みを用いて決定したフ
    ァジィ推論ルールの前件部及び前記遺伝アルゴリズム実
    行部で得られた後件部とを用いてファジィ推論を行うフ
    ァジィ推論部と、ファジィ推論の結果と前記入力部から
    の出力値との誤差を判断する判断部と、前記判断部の判
    断に基づいて最も推論誤差が小さくなる一つの小脳モデ
    ル記憶部を選択し残りの小脳モデル記憶部を用いた結果
    も表示する出力部とを具備することを特徴とするファジ
    ィ推論ルールの抽出装置。
JP4159218A 1992-06-18 1992-06-18 ファジィ推論ルールの抽出装置 Pending JPH064503A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4159218A JPH064503A (ja) 1992-06-18 1992-06-18 ファジィ推論ルールの抽出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4159218A JPH064503A (ja) 1992-06-18 1992-06-18 ファジィ推論ルールの抽出装置

Publications (1)

Publication Number Publication Date
JPH064503A true JPH064503A (ja) 1994-01-14

Family

ID=15688916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4159218A Pending JPH064503A (ja) 1992-06-18 1992-06-18 ファジィ推論ルールの抽出装置

Country Status (1)

Country Link
JP (1) JPH064503A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104698851A (zh) * 2015-03-01 2015-06-10 深圳市波奇智能系统有限公司 基于cmac与pid的参量声源并行控制方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104698851A (zh) * 2015-03-01 2015-06-10 深圳市波奇智能系统有限公司 基于cmac与pid的参量声源并行控制方法

Similar Documents

Publication Publication Date Title
Casillas et al. Genetic feature selection in a fuzzy rule-based classification system learning process for high-dimensional problems
Matsubara et al. Deep energy-based modeling of discrete-time physics
EP2287785A1 (en) Fuzzy inference apparatus and methods, systems and apparatuses using such inference apparatus
EP0813127A2 (en) Inference rule determining method and inference device
CN107689224A (zh) 合理使用掩码的深度神经网络压缩方法
JP5353443B2 (ja) データ分類器作成装置、データ分類装置、データ分類器作成方法、データ分類方法、データ分類器作成プログラム、データ分類プログラム
Liu et al. Efficient learning algorithms for three-layer regular feedforward fuzzy neural networks
CN111723914A (zh) 一种基于卷积核预测的神经网络架构搜索方法
Ivakhnenko et al. Inductive sorting-out GMDH algorithms with polynomial complexity for active neurons of neural network
Cardinaux et al. Iteratively training look-up tables for network quantization
JPH11510936A (ja) コンピュータによるファジィルールの最適化方法
Fukuda et al. Structure organization of hierarchical fuzzy model using by genetic algorithm
JPH064503A (ja) ファジィ推論ルールの抽出装置
JP2907486B2 (ja) ニューラルネットワーク装置
Du et al. Evolutionary NAS in light of model stability for accurate continual learning
de Lacerda et al. A study of cross-validation and bootstrap as objective functions for genetic algorithms
JP3733711B2 (ja) 簡略化準ニュートン射影法演算システム、神経回路網学習システム、記録媒体および信号処理装置
JPH08320792A (ja) 推論規則決定装置及び推論規則決定方法
EP0635152B1 (en) Neural network/fuzzy conversion device
Li Probabilistic interpretations of fuzzy sets and systems
CN114503122A (zh) 深度神经网络的结构学习和简化方法
JPH06175999A (ja) ニューロコンピュータ
JP2553725B2 (ja) 推論装置
JP2021168042A (ja) 情報処理装置、情報処理方法及びプログラム
CN111340176A (zh) 神经网络的训练方法、装置及计算机存储介质