JPH04302328A - Device and method for fuzzy processing - Google Patents

Device and method for fuzzy processing

Info

Publication number
JPH04302328A
JPH04302328A JP3089386A JP8938691A JPH04302328A JP H04302328 A JPH04302328 A JP H04302328A JP 3089386 A JP3089386 A JP 3089386A JP 8938691 A JP8938691 A JP 8938691A JP H04302328 A JPH04302328 A JP H04302328A
Authority
JP
Japan
Prior art keywords
input
data
learning
output data
variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3089386A
Other languages
Japanese (ja)
Inventor
Toru Fujii
徹 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP3089386A priority Critical patent/JPH04302328A/en
Publication of JPH04302328A publication Critical patent/JPH04302328A/en
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Feedback Control In General (AREA)

Abstract

PURPOSE:To generate the optimum membership function and fuzzy rule not depending on supplied sample data. CONSTITUTION:When sample data consisting of input and output data is supplied, learning by a neural network is performed at a learning processing part 1, and the membership functions are generated on arbitrary input and output axes, and an unrequited input variable is deleted at an input decision processing part 2. Then, the optimum spread width of an antecedent part membership function is decided at a resolution decision processing part 4, and also, the antecedent part membership is generated. The representative value of a generated antecedent part membership function is supplied to the learning processing part 1 as input data, and a consequent part membership function and a rule can be generated at a conversion processing part 3 by obtained output data.

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】この発明はファジィ処理装置およ
び方法に関し,とくに学習によりメンバーシップ関数と
ルールとを作成するファジィ処理装置および方法に関す
る。この発明において,ファジィ処理装置および方法は
,ファジィ推論演算を行なうのみならず,ファジィ推論
のためのメンバーシップ関数およびルールを作成するこ
とにのみ用いられる,いわゆる支援装置および方法も含
むし,その一部を実行する装置および方法も含む。 【0002】 【従来の技術】ファジィ推論は,人間の定性的な知識を
反映することが容易で,かつ作成した知識(メンバーシ
ップ関数およびルール)が人間にわかりやすいという特
徴をもっている。一般にファジィ推論のための知識は専
門家のノウハウ等に基づいて作成される。 【0003】しかし一方では,人間の知識がなくても,
入出力関係の非線形性が強いシステムに対するファジィ
推論のための知識を事例学習により作成する方法が知ら
れている。これは,上記システムを作動させたときに得
られる入出力データをサンプル・データとしてこれを直
接に知識に反映させる方法である。 【0004】しかしながらこの方法では,メンバーシッ
プ関数およびルールは直接にサンプル・データに依存す
るので,サンプル・データが存在する点または領域につ
いてのみメンバーシップ関数およびルールが作成される
にすぎず,必ずしも妥当なメンバーシップ関数が得られ
るとは限らない。また,サンプル・データのばらつきに
よって精度が決ってしまうという問題がある。 【0005】このような問題点を解決するために,事例
学習の一種であるニューラル・ネットワークとファジィ
推論を融合し,事例学習のサンプル・データの質に左右
されないファジィ推論のための知識の作成方法が提案さ
れている(たとえば,林ら「ニューラルネット駆動型フ
ァジィ推論による倒立振子の学習制御」5th Fuz
zy System Symposium, Kobe
, June 2−3, 1989 )。 【0006】 【発明が解決しようとする課題】しかしながらこの方法
は,実システムに使用する場合,事例学習装置とファジ
ィ推論装置の両方のソフトウェアまたはハードウェアが
必要であるので処理速度が遅い,ファジィ推論装置のメ
ンバーシップ関数が,多次元の入力空間上でしか表せな
いので,学習後のファジィ推論装置の知識がわかりにく
いという問題点がある。 【0007】この発明は,処理速度が速い推論処理が可
能でかつ知識が分りやすいファジィ推論のためのルール
およびメンバーシップ関数を作成する装置および方法を
提供するものである。 【0008】 【課題を解決するための手段】この発明によるルールお
よびメンバーシップ関数を作成するためのファジィ処理
装置は,与えられた複数種類の入力変数についての入力
データとそれに対応する少なくとも一種類の出力変数に
ついての出力データとの組が複数組含まれて構成される
サンプル・データを用いて,学習により,複数種類の入
力変数に関する任意の入力データの組に対応する出力デ
ータが得られる構造を構築する学習手段,複数の入力変
数についての入力データの複数の組を発生し,これらを
上記学習手段に与えることによりそれらに対応する出力
データを得,各入力変数について,入力データの変化に
対する出力データの変化の大きさに応じた広がりをもつ
前件部メンバーシップ関数を作成する前件部作成手段,
ならびに上記前件部作成手段によって作成された前件部
メンバーシップ関数に対する入力代表値の複数の入力変
数についての組合せからなる入力データ組を上記学習手
段に与え,これに対応して上記学習手段から得られる出
力データに基づいて後件部メンバーシップ関数を作成し
,上記の入力データ組に含まれる入力代表値をもつ前件
部メンバーシップ関数とこれに対応して得られる後件部
メンバーシップ関数とからなるルールを作成するルール
作成手段を備えているものである。 【0009】この発明の一実施態様では,複数の入力変
数についての入力データの複数の組を発生し,これらを
上記学習手段に与えることによりそれらに対応する出力
データを得,これらの入力データと出力データとに基づ
いて,出力データに対する相関が所定値よりも小さい入
力変数があるかどうかを判定する入力決定手段がさらに
設けられる。 【0010】出力データに対する相関が所定値よりも小
さい入力変数が存在した場合にそれを削除すべき入力変
数と決定し,上記学習手段に与えるべきサンプル・デー
タから削除入力変数に関するデータを削除して上記学習
手段に与え,上記学習手段に再度学習処理を繰返させる
制御手段をさらに備えるとよい。 【0011】上記制御手段は,削除すべき入力変数が無
くなるまで,サンプル・データからの削除すべき入力変
数に関するデータの削除と学習とを繰返すよう制御する
ものであることが好ましい。 【0012】上記前件部作成手段およびルール作成手段
が,削除すべき入力変数が無くなった状態の上記学習手
段を用いるようにするとよい。 【0013】上記前件部作成手段およびルール作成手段
により作成された前件部メンバーシップ関数,後件部メ
ンバーシップ関数およびルールにしたがうファジィ推論
演算を行うファジィ推論手段をさらに設けるとよい。 【0014】この発明の他の実施態様では,上記前件部
作成手段およびルール作成手段により作成された前件部
メンバーシップ関数,後件部メンバーシップ関数および
ルールにしたがうファジィ推論演算を行うファジィ推論
手段,ならびに複数の入力変数についての入力データの
複数の組を発生し,これらを上記ファジィ推論手段に与
えることによりそれらに対応する出力データを得,これ
らの入力データと出力データとに基づいて,出力データ
に対する相関が所定値よりも小さい入力変数があるかど
うかを判定する入力決定手段がさらに設けられる。 【0015】出力データに対する相関が所定値よりも小
さい入力変数が存在した場合にそれを削除すべき入力変
数と決定し,上記学習手段に与えるべきサンプル・デー
タから削除入力変数に関するデータを削除して上記学習
手段に与え,上記学習手段に再度学習処理を繰返させる
制御手段をさらに備えるとよい。 【0016】上記制御手段は,削除すべき入力変数が無
くなるまで,サンプル・データからの削除すべき入力変
数に関するデータの削除と学習と前件部メンバーシップ
関数の作成とルールの作成とを繰返すよう制御するもの
であることが好ましい。 【0017】上記前件部作成手段およびルール作成手段
が,削除すべき入力変数が無くなった状態の上記学習手
段を用いるようにするとよい。 【0018】この発明によるルールおよびメンバーシッ
プ関数を作成するためのファジィ処理方法は,与えられ
た複数種類の入力変数についての入力データとそれに対
応する少なくとも一種類の出力変数についての出力デー
タとの組が複数組含まれて構成されるサンプル・データ
を用いて,学習により,複数種類の入力変数に関する任
意の入力データの組に対応する出力データが得られる学
習構造を構築し,複数の入力変数についての入力データ
の複数の組を発生し,これらを上記学習構造に与えるこ
とによりそれらに対応する出力データを得,各入力変数
について,入力データの変化に対する出力データの変化
の大きさに応じた広がりをもつ前件部メンバーシップ関
数を作成し,さらに作成された前件部メンバーシップ関
数に対する入力代表値の複数の入力変数についての組合
せからなる入力データ組を上記学習構造に与え,これに
対応して上記学習構造から得られる出力データに基づい
て後件部メンバーシップ関数を作成し,上記の入力デー
タ組に含まれる入力代表値をもつ前件部メンバーシップ
関数とこれに対応して得られる後件部メンバーシップ関
数とからなるルールを作成するものである。 【0019】この発明の一実施態様においては,複数の
入力変数についての入力データの複数の組を発生し,こ
れらを上記学習構造に与えることによりそれらに対応す
る出力データを得,これらの入力データと出力データと
に基づいて,出力データに対する相関が所定値よりも小
さい入力変数があるかどうかをさらに判定する。 【0020】そして,出力データに対する相関が所定値
よりも小さい入力変数が存在した場合にそれを削除すべ
き入力変数と決定し,上記学習構造に与えるべきサンプ
ル・データから削除入力変数に関するデータを削除して
上記学習構造に与え,上記学習構造に再度学習処理を繰
返させる。 【0021】また,削除すべき入力変数が無くなるまで
,サンプル・データからの削除すべき入力変数に関する
データの削除と学習とを繰返させる。そして,削除すべ
き入力変数が無くなった状態の上記学習構造を用いて前
件部メンバーシップ関数,後件部メンバーシップ関数お
よびルールを作成する。 【0022】この発明による他の実施態様では,複数の
入力変数についての入力データの複数の組を発生し,こ
れらを用いて,作成された前件部メンバーシップ関数,
後件部メンバーシップ関数およびルールにしたがうファ
ジィ推論演算を行うことにより対応する出力データを得
,これらの入力データと出力データとに基づいて,出力
データに対する相関が所定値よりも小さい入力変数があ
るかどうかを判定する。 【0023】そして,出力データに対する相関が所定値
よりも小さい入力変数が存在した場合にそれを削除すべ
き入力変数と決定し,上記学習構造に与えるべきサンプ
ル・データから削除入力変数に関するデータを削除して
上記学習構造に与え,上記学習構造に再度学習処理を繰
返させる。 【0024】また,削除すべき入力変数が無くなるまで
,サンプル・データからの削除すべき入力変数に関する
データの削除と学習と前件部メンバーシップ関数の作成
とルールの作成とを繰返させる。そして,削除すべき入
力変数が無くなった状態の上記学習構造を用いて前件部
メンバーシップ関数,後件部メンバーシップ関数および
ルールを作成する。 【0025】この発明による前件部メンバーシップ関数
を作成するための装置は,与えられた複数種類の入力変
数についての入力データとそれに対応する少なくとも一
種類の出力変数についての出力データとの組が複数組含
まれて構成されるサンプル・データを用いて,学習によ
り,複数種類の入力変数に関する任意の入力データの組
に対応する出力データが得られる構造を構築する学習手
段,複数の入力変数についての入力データの複数の組を
発生する入力生成手段,上記入力生成手段から与えられ
る入力データの組を上記学習手段に与え,上記学習手段
を動作させてそれに対応する出力データを得るよう制御
する手段,各入力変数について,入力データが一定値変
動したときに生じる出力データの変化量を算出する手段
,ならびに各入力変数について,出力データの変化量が
一定値を保つように入力データの変動幅を定め,この変
動幅ごとに一つの前件部メンバーシップ関数を割当てる
手段を備えている。 【0026】この発明による前件部メンバーシップ関数
を作成するための他の装置は,複数の入力変数について
の入力データの複数の組とこれらに対応する出力データ
とを記憶する手段,各入力変数について,上記入力デー
タが一定値変動したときに生じる上記出力データの変化
量を算出する手段,ならびに各入力変数について,上記
出力データの変化量が一定値を保つように上記入力デー
タの変動幅を定め,この変動幅ごとに一つの前件部メン
バーシップ関数を割当てる手段を備えている。 【0027】この発明による不要な入力変数を削除する
ための装置は,複数の入力変数についての入力データの
組を発生する入力生成手段,上記入力生成手段から与え
られる入力データの組に対応する出力データを生成して
出力する出力生成手段,各入力変数について,対象とな
る入力変数を除く他のすべての入力変数の入力データを
固定し,対象となる入力変数の入力データを変化させた
ときの出力データの分散の総和を算出する手段,ならび
に上記分散の総和と所定の基準値とを比較し,上記所定
の基準値よりも上記分散の総和が小さい入力変数を削除
すべきものと決定する手段を備えている。 【0028】上記出力生成手段は,与えられた複数種類
の入力変数についての入力データとそれに対応する少な
くとも一種類の出力変数についての出力データとの組が
複数組含まれて構成されるサンプル・データを用いて,
学習により,複数種類の入力変数に関する任意の入力デ
ータの組に対応する出力データが得られる構造を構築す
る学習手段であるか,またはあらかじめ設定された前件
部メンバーシップ関数,後件部メンバーシップ関数およ
びルールにしたがってファジィ推論演算を行うファジィ
推論手段である。 【0029】この発明による不要な入力変数を削除する
ための他の装置は,複数の入力変数についての入力デー
タの複数の組とこれらに対応する出力データとを記憶す
る手段,各入力変数について,対象となる入力変数を除
く他のすべての入力変数の入力データを固定し,対象と
なる入力変数の入力データを変化させたときの出力デー
タの分散の総和を算出する手段,ならびに上記分散の総
和と所定の基準値とを比較し,上記所定の基準値よりも
上記分散の総和が小さい入力変数を削除すべきものと決
定する手段を備えている。 【0030】この発明による前件部メンバーシップ関数
を作成するための方法は,与えられた複数種類の入力変
数についての入力データとそれに対応する少なくとも一
種類の出力変数についての出力データとの組が複数組含
まれて構成されるサンプル・データを用いて,学習によ
り,複数種類の入力変数に関する任意の入力データの組
に対応する出力データが得られる学習構造を構築し,複
数の入力変数についての入力データの複数の組を発生し
,発生した入力データの組を上記学習構造に与え,上記
学習構造を動作させてそれに対応する出力データを得る
よう制御し,各入力変数について,入力データが一定値
変動したときに生じる出力データの変化量を算出し,各
入力変数について,出力データの変化量が一定値を保つ
ように入力データの変動幅を定め,この変動幅ごとに一
つの前件部メンバーシップ関数を割当てることにより前
件部メンバーシップ関数を作成するものである。 【0031】この発明による前件部メンバーシップ関数
を作成するための他の方法は,複数の入力変数について
の入力データの複数の組とこれらに対応する出力データ
とをあらかじめ記憶しておき,各入力変数について,上
記入力データが一定値変動したときに生じる上記出力デ
ータの変化量を算出し,各入力変数について,上記出力
データの変化量が一定値を保つように上記入力データの
変動幅を定め,この変動幅ごとに一つの前件部メンバー
シップ関数を割当てることにより前件部メンバーシップ
関数を作成するものである。 【0032】この発明による不要な入力変数を削除する
ための方法は,複数の入力変数についての入力データの
組を発生し,発生した入力データの組に対応する出力デ
ータを生成し,各入力変数について,対象となる入力変
数を除く他のすべての入力変数の入力データを固定し,
対象となる入力変数の入力データを変化させたときの出
力データの分散の総和を算出し,上記分散の総和と所定
の基準値とを比較し,上記所定の基準値よりも上記分散
の総和が小さい入力変数を削除すべきものと決定するも
のである。 【0033】与えられた複数種類の入力変数についての
入力データとそれに対応する少なくとも一種類の出力変
数についての出力データとの組が複数組含まれて構成さ
れるサンプル・データを用いて,学習により,複数種類
の入力変数に関する任意の入力データの組に対応する出
力データが得られる学習構造を構築し,この学資融構造
に入力データの組を与えることにより出力データを生成
するか,または,あらかじめ設定された前件部メンバー
シップ関数,後件部メンバーシップ関数およびルールに
したがってファジィ推論演算を行うことにより出力デー
タを生成するとよい。 【0034】この発明による不要な入力変数を削除する
ための他の方法は,複数の入力変数についての入力デー
タの複数の組とこれらに対応する出力データとをあらか
じめ記憶しておき,各入力変数について,対象となる入
力変数を除く他のすべての入力変数の入力データを固定
し,対象となる入力変数の入力データを変化させたとき
の出力データの分散の総和を算出し,上記分散の総和と
所定の基準値とを比較し,上記所定の基準値よりも上記
分散の総和が小さい入力変数を削除すべきものと決定す
るものである。 【0035】 【作用】与えられた複数種類の入力変数についての入力
データとそれに対応する少なくとも一種類の出力変数に
ついての出力データとの組が複数組含まれて構成される
サンプル・データを用いて,学習により,複数種類の入
力変数に関する任意の入力データの組に対応する出力デ
ータが得られる学習構造が構築される。 【0036】複数の入力変数についての入力データの複
数の組を発生し,これらを上記学習手段に与えることに
よりそれらに対応する出力データが得られる。そして,
各入力変数について,入力データの変化に対する出力デ
ータの変化の大きさに応じた広がりをもつ前件部メンバ
ーシップ関数が作成される。 【0037】また,作成された前件部メンバーシップ関
数に対する入力代表値の複数の入力変数についての組合
せからなる入力データ組を上記学習手段に与え,これに
対応して上記学習手段から得られる出力データに基づい
て後件部メンバーシップ関数が作成されるとともに,上
記の入力データ組に含まれる入力代表値をもつ前件部メ
ンバーシップ関数とこれに対応して得られる後件部メン
バーシップ関数とからなるルールが作成される。 【0038】 【発明の効果】この発明によるメンバーシップ関数およ
びルールの作成装置および方法によると,与えられたサ
ンプル・データを用いて学習が行なわれているので,任
意の入力データに対する出力データが得られる。したが
って,任意の入,出力変数軸上に妥当な前,後件部のメ
ンバーシップ関数が作成できる。また,サンプル・デー
タにばらつきがあってもそのために精度が大幅に低下す
ることがない。 【0039】作成されたメンバーシップ関数およびルー
ルは任意のファジィ推論装置に設定できるので,ファジ
ィ推論装置はソフトウェアによってもハードウェアによ
っても実現でき,構成が簡素となるとともに処理速度が
速くなる。 【0040】さらにメンバーシップ関数は一軸(各入力
変数軸)上で表わされるので作成された知識が分りやす
くなっている。 【0041】この発明による前件部メンバーシップ関数
作成装置および方法によると,出力データの変動幅がほ
ぼ一定となるように前件部メンバーシップ関数の広がり
幅が定められているので,細かい処理が必要な範囲では
細い解像度で,粗い処理で充分な範囲では粗い解像度で
処理が可能となり,無駄がなく,最適な前件部メンバー
シップ関数が作成される。 【0042】この発明による不要な入力変数を削除する
装置および方法によると,不要な入力変数が削除され,
最終的なファジィ推論のためのルールに現われることが
ないので,無駄な処理が省かれ,処理速度を向上させる
ことができる。 【0043】 【実施例】第1実施例 この発明によるファジィ処理装置の第1実施例について
説明する。 【0044】図1はファジィ処理装置の機能ブロック図
,図2はその動作の概要を示すフロー・チャートである
。 【0045】ファジィ処理装置は,図1に示すように,
学習フェーズ処理部1,入力決定フェーズ処理部2,変
換フェーズ処理部3,解像度決定フェーズ処理部4およ
び実行フェーズ処理部5から構成されている。ファジィ
処理装置は具体的にはコンピュータ・システムにより構
成され,上述した各処理部1〜5は,このコンピュータ
・システムが後に詳述する動作を実行するようにプログ
ラムされることにより実現される。このプログラムは図
2に示すように,上述した各処理部1〜5の順に実行さ
れることになる。 【0046】以下に各処理部の構成およびその動作また
は機能についてそれぞれ詳しく説明する。この実施例で
は説明を簡単にするために,基本的に,入力変数を2つ
(入力1と入力2),出力変数を1つ(2入力1出力)
とする。 【0047】学習フェーズ処理部 学習フェーズ処理部1は,与えられたサンプル・データ
(入力データとそれに対応する期待出力データとからな
る)に基づいて学習を行い,任意の入力に対応する出力
が得られる構造を構築するものである。この実施例では
この構造は多数のニューロンを組合せることにより構築
されるニューラル・ネットワークである。 【0048】学習フェーズ処理部1の構成を示す機能ブ
ロック図が図3に示されている。学習フェーズ処理部1
は,サンプル・データ記憶部11,事例学習実行部12
および学習結果記憶部13から構成される。 【0049】サンプル・データ記憶部11には入力デー
タとそれに対応する期待出力データとからなるサンプル
・データが入力され,かつ記憶される。このサンプル・
データ記憶部11に記憶されるサンプル・データの一例
が表1に示されている。入力1についての入力データx
s1jと入力2についての入力データxs2jとそれに
対応する期待出力データdsj とが1つのサンプル・
データの組を構成する。このようなサンプル・データの
組がn組設定されている。 【0050】 【表1】 【0051】事例学習実行部12はニューラル・ネット
ワークにおける学習を実行するものである。サンプル・
データ記憶部11に記憶されているサンプル・データが
1組ずつ順次読出され,そのうちの入力データが事例学
習実行部12の入力側に,期待出力データが実行部12
の出力側にそれぞれ与えられる。 【0052】ニューラル・ネットワークは,よく知られ
ているように,多数のニューロンを組合せることにより
構成され,学習によってニューロン間の結合の重みが修
正されていく。この学習はたとえばバックプロパゲーシ
ョンの手法により行なわれる。入力データが与えられた
ときにニューラル・ネットワークから得られる出力デー
タと与えられた期待出力データとの差が小さくなるよう
に上記の重みが修正される。上記の差によって表現され
る評価関数(誤差2乗和)の値が所定値以下になるまで
,サンプル・データが一組ずつ順次与えられることによ
り学習が行なわれていく。 【0053】事例学習実行部12における学習が終了す
ると,その学習結果,すなわち事例学習実行部12の内
部状態が学習結果記憶部13に記憶される。上述のよう
にニューラル・ネットワークについての学習が実行され
た場合には,事例学習実行部12の内部状態はニューラ
ル・ネットワークの構造とニューロン間の結合の重みと
によって表わされる。このニューラル・ネットワークの
構造とニューロン間の結合の重みを表わすパラメータが
学習結果記憶部13に記憶されることになる。 【0054】このような学習の結果構築された構造(た
とえばニューラル・ネットワーク構造)を用いることに
よって,任意の入力に対する出力が得られることになる
。 【0055】図4は学習により得られた入力と出力との
関係を示している。×印はサンプル・データであり,実
線の曲線が学習結果の入出力関係を表わしている。 【0056】後述するところから分るように,ファジィ
・ルールを作成するために,入力変数に対する前件部の
メンバーシップ関数を設定する必要がある。メンバーシ
ップ関数を特徴づける1つのパラメータとして,その頂
点の座標(メンバーシップ関数値が最大値となる入力値
)(これを代表値または設定値という)がある。この設
定値がT1 ,T2 ,T3 ,…,Tj として図4
に示されている。 【0057】サンプル・データを構成する入力データが
常に設定値と一致していれば,その設定値に対応する出
力データはサンプル・データに含まれているからファジ
ィ・ルールは比較的容易に作成可能である。 【0058】しかしながら,サンプル・データ中の入力
データが常に設定値と一致するとは限らず,むしろ入力
データと最適なファジィ・ルールのための設定値とは異
なっていることが多い。 【0059】学習フェーズ処理部1における学習結果は
サンプル・データに対する補間機能をもっており,任意
の入力に対する出力が得られるので,任意の設定値に対
する出力データを得ることができる。このようにして,
適切なメンバーシップ関数の作成とそれを用いたルール
の作成が可能となる。 【0060】また,サンプル・データにばらつきがある
場合でも,上記の学習によって平均的な入出力関係が得
られるので,サンプル・データのばらつきによる出力誤
差が小さくなるという利点もある。 【0061】入力決定フェーズ処理部 入力決定フェーズ処理部2は,出力に対する相関が無い
入力変数または非常に小さい入力変数があるかどうかを
判断し,もしあればそのような入力変数を削除すること
により,必要な入力変数を最終的に決定するものである
。 【0062】この入力決定フェーズ処理は,とくに入力
変数の種類数が多い場合に有効である。ファジィ推論の
ためのルールを作成するにあたって,考えられうる入力
変数の種類(入力変数の候補)の数は一般に多い。しか
しながら,これらの入力変数の候補のすべてが所望の推
論結果(出力)を得るために有用なものとは限らない。 作成されたファジィ・ルールに含まれる入力変数の種類
数が多ければ多いほど,そのルールにしたがうファジィ
推論のための演算量が多くなり,演算時間もかかる。入
力決定フェーズ処理は,無用な入力変数を前もって除去
するものである。 【0063】入力決定フェーズ処理部2の構成が図5に
示されている。入力決定フェーズ処理部2は,入力変動
指示部21,出力分散監視部22および削除入力記憶部
23,ならびに上述した事例学習実行部12および学習
結果記憶部13から構成されている。 【0064】出力分散監視部22は表2に示すような入
出力マトリクスを作成するものである。 【0065】 【表2】 【0066】このような入出力マトリクスを作成するた
めに出力分散監視部22は,入力変動指示部21に対し
てすべての入力変数について入力データの生成を指示す
る。 入力変動指示部21はこの指示にしたがって,すべての
入力変数について入力データを作成し,その入力データ
を事例学習実行部12および出力分散監視部22に与え
る。入力データは等差線数を構成するものであることが
好ましい。また入力データはその入力変数のレンジの全
範囲をカバーするように作成される。 【0067】事例学習実行部12は入力変動指示部21
から入力データの組(すべての入力変数についての各1
つずつの入力データの組)が与えられると,学習結果記
憶部13に記憶されている学習結果を用いて,その入力
データの組に対する出力データを算出して,その出力デ
ータを出力分散監視部22に与える。出力データは入力
データのすべての組に対して作成される。 【0068】出力分散監視部22は,与えられる入力デ
ータの組とこれに対する出力データを用いて表2に示す
入出力マトリクスを作成するとともに,各入力について
の標準偏差(分散でもよい)σijとその合計値Si 
とを算出する。 【0069】ある入力変数についての標準偏差は,その
対象となる入力変数を除く他のすべての入力変数の入力
データを固定しておいて,対象となる入力変数の入力デ
ータを変化させたときに得られる出力データの標準偏差
として求められる。したがって,この標準偏差は固定さ
れた他の入力変数の入力データの組合せの数だけ得られ
る。このようにして求められた対象となる入力変数に関
するすべての標準偏差の総和がその合計値である。すな
わち,標準偏差σijは,2入力の場合,式1および式
2により求められ,その合計値Si は式3により求め
られる。 【0070】 【数1】 【0071】出力分散監視部22において,このように
して得られた各入力変数についての標準偏差の合計値と
,あらかじめ定められた入力削除の基準値aとが比較さ
れ,合計値が基準値aよりも小さい入力変数は削除すべ
きものであると決定される。 【0072】表3は入出力マトリクスの具体例を示して
いる。入力削除の基準値を10とすると,入力1につい
ての標準偏差の合計値8はこの基準値よりも小さいので
入力2が削除される。 【0073】ある入力変数についての標準偏差またはそ
の合計値が小さいということは,その入力変数について
の入力データをそのレンジの範囲内で変化させても出力
データが全く変化しないまたは変化が小さいことを意味
し,その入力変数は出力データには全く影響しないまた
は殆んど影響しないことを意味している。したがって,
その入力変数を考慮する必要が無いことになる。 【0074】このようにしてすべての入力変数について
の評価が行なわれる。もし削除すべき入力変数が発見さ
れたとすると,その入力変数は削除入力として削除入力
記憶部23に記憶される。 【0075】削除すべき入力変数があれば(図2ステッ
プ103 でYES ),この削除すべき入力変数が学
習フェーズ処理部1に通知させる。学習フェーズ処理部
1では,削除すべきと決定された入力変数についてのサ
ンプル・データを除外した上で,再び上述した学習が実
行される。学習が終了したのち,再び入力決定フェーズ
処理部2における処理が繰返えされる。 【0076】削除すべき入力変数が無ければ,または再
度もしくは3回以上の学習フェーズおよび入力決定フェ
ーズの処理が繰返されたのち削除すべき入力変数が無く
なると,次の解像度決定フェーズ処理に移る。 【0077】この入力決定フェーズ処理において,出力
と相関の低い入力変数が削除されるので,これ以降の処
理におけるタスク量が減少するとともに,ファジィ推論
ルールが簡潔になり,このルールにしたがう推論処理の
速度が向上する。 【0078】解像度決定フェーズ処理部解像度決定フェ
ーズ処理部4は,各入力変数について,入力データの変
化に対する出力データの変化の大きさを判定し,この大
きさに応じて上述した設定値を定めることにより,前件
部のメンバーシップ関数を作成するものである。 【0079】解像度決定フェーズ処理部4の構成が図6
に示されている。この解像度決定フェーズ処理部4は入
力生成部41,前件部メンバーシップ関数(MF)決定
部42,ならびに上述した事例学習実行部12および学
習結果記憶部13から構成されている。 【0080】前件部メンバーシップ関数決定部42は表
4に示すように入出力マトリクスを作成するものである
。 【0081】 【表4】 【0082】このような入出力マトリクスを作成するた
めに前件部メンバーシップ関数決定部42は,入力生成
部41に対してすべての入力変数について入力データの
生成を指示する。入力生成部41は,上述した入力変動
指示部21と同じように,この指示にしたがって,すべ
ての入力変数について入力データを作成し,その入力デ
ータを事例学習実行部12および前件部メンバーシップ
関数決定部42に与える。入力データは等差線数を構成
するものであることが好ましい。また入力データはその
入力変数のレンジの全範囲をカバーするように作成され
る。 【0083】事例学習実行部12は入力生成部41から
入力データの組(すべての入力変数についての各1つず
つの入力データの組)が与えられると,学習結果記憶部
13に記憶されている学習結果を用いて,その入力デー
タの組に対する出力データを算出して,その出力データ
を前件部メンバーシップ関数決定部42に与える。出力
データは入力データのすべての組に対して作成される。 【0084】前件部メンバーシップ関数決定部42は,
与えられる入力データの組とこれに対する出力データを
用いて表4に示す入出力マトリクスを作成するとともに
,各入力変数について,入力データが一定値変動したと
きに生じる出力データの変化量の最大値(これを階差の
最大値という)Kijを求める。 【0085】たとえば,表4に示すように入出力マトリ
クスがあった場合,入力1,入力2の階差の最大値K1
iおよびK2jは,式4および式5によりそれぞれ求め
られる。 【0086】 【数2】 【0087】前件部メンバーシップ関数決定部42は,
続いて,上述した各入力変数についての階差の最大値か
ら前件部のメンバーシップ関数の解像度を求め,メンバ
ーシップ関数を決定する。このとき,階差の最大値が大
きいほど(出力データの変化が大きいほど)メンバーシ
ップ関数が細かく(入力の解像度が細かく)設定され,
階差の最大値が小さいほど(出力データの変化が小さい
ほど)メンバーシップ関数が粗く(入力の解像度を粗く
)設定される。 【0088】図7に,ある入力変数について設定された
メンバーシップ関数の例が示されている。出力値の変化
量が大きい部分ではメンバーシップ関数の広がりが小さ
く,出力値の変化量が小さい部分ではメンバーシップ関
数の広がりが大きく設定されている。 【0089】作成するメンバーシップ関数が三角形状の
ものである場合に,このメンバーシップ関数決定の手順
を具体例をもって説明する。 【0090】三角形状メンバーシップ関数はその頂点の
座標(設定値)T1 ,T2 ,T3 ,…,Tj が
決定されると一義的に定められる。すなわち,メンバー
シップ関数は,設定値に頂点をもち,かつ隣接する設定
値を底点とする(ただし端に位置するものは除く)よう
に作成される。そして,三角形状メンバーシップ関数の
底辺の長さが,すべてのメンバーシップ関数(ただし端
に位置するものは除く)において等しくなるように,各
設定値が定められる。 【0091】表5に示すような入出力マトリクスが得ら
れたものとする。 【0092】 【表5】 【0093】入力1についてみると,階差の最大値は6
,9,7,…となっている。そこで,各メンバーシップ
関数の区間(底辺の長さ)に階差8に相当する長さを割
当てるものとする。 【0094】図8を参照して,入力1の値が1.0 〜
2.0 の間における階差の最大値は6,入力1の値が
2.0 〜3.0 の間における階差の最大値は9であ
る。入力1の値が1.0の位置を始点とする最初の区間
M1 に階差8を割当てるために,入力値1の値が2.
0 〜3.0 の間から階差2に相当する長さを求め,
この階差2を1.0 〜2.0 の間に加える。 【0095】このために,2.0 〜3.0 の間にお
いて,階差2に相当する長さを比例配分により求める。 2.0 〜3.0 の間は階差9であるから,この区間
M1 の終点Bは次のようにして求められる。 【0096】 【数3】     B=2.0 +(3.0 −2.0 )×(2
/9)              …式6【0097
】区間M1 の幅は次式で与えられる。 【0098】 【数4】     M1 =(2.0 −1.0 )+(3.0 
−2.0 )×(2/9)  …式7【0099】この
考え方を一般の場合に拡張すると,次のようなアルゴリ
ズムとなる。ここで各記号を次のように定義する。 【0100】   メンバーシップ関数の区間に割当てる階差:A  
メンバーシップ関数の区間幅      :M1 ,M
2 ,…,Me   階差を求めたときの入力データ 
   :x1 ,x2 ,…,xi ,…,xm   
入力データ間における階差の最大値:K1 ,K2 ,
…,Ki ,…,Km−1  【0101】また,このアルゴリズムの理解を助けるた
めの説明図が図9(A) ,(B) および(C) に
示されている。Tjsは区間の始点,Tjeは区間の終
点である(j=1〜e)。 【0102】まず,最初のメンバーシップ関数の区間M
1 を求める。図9(A) は式8の場合を示している
。 【0103】 【数5】 【0104】2つ目以降のメンバーシップ関数の区間M
j を求める。ただし,前回のメンバーシップ関数の区
間の終点が入力データxk とx(k+1) の間にあ
り,そのときの区間の残りの階差をBとする。図9(B
)は式11の場合を示している。 【0105】 【数6】 【0106】上記の動作を,B<Aになるまで繰返して
行なう。最後の残りの階差Bで,最後のメンバーシップ
関数(区間幅:Me )を構成する(図9(C) 参照
)。 【0107】 【数7】 Me =B                    
        …式14【0108】したがって,i
番目のメンバーシップ関数の始点Tjsと終点Tjeは
,次式で表わされる。 【0109】 【数8】 【0110】変換フェーズ処理部 変換フェーズ処理部3は,上述のようにして得られた前
件部のメンバーシップ関数を用いて後件部のメンバーシ
ップ関数を作成するとともに,一組のファジィ推論のた
めのルールを作成するものである。 【0111】変換フェーズ処理部3の構成が図10に示
されている。変換フェーズ処理部3は,前件部メンバー
シップ関数記憶部31,後件部メンバーシップ関数記憶
部32およびルール記憶部33,ならびに上述した前件
部メンバーシップ関数決定部42,学習結果記憶部13
および事例学習実行部12から構成される。 【0112】前件部メンバーシップ関数決定部42は,
上述のようにして得られたすべてのメンバーシップ関数
にラベル(メンバーシップ関数を特定するための一種の
記号で,言語情報で与えることが好ましい)を割当てる
。 ラベルの例としては,NL(Negative Lar
ge:負に大きい),NM(Negative Med
ium :負に中くらい),NS(Negative 
Small:負に小さい),ZR(Zero:ほぼ零)
,PS(Positive Small:正に小さい)
,PM(Positive Medium :正に中く
らい),PL(Positive Large:正に大
きい)等の言語情報でもよいし,MF11,MF12,
…,MFij等の単なる記号でもよい。 【0113】前件部メンバーシップ関数決定部42は,
各前件部メンバーシップ関数を表わすデータ(メンバー
シップ関数の頂点を示す設定値でもよいし,上述の区間
の始点,終点を表わす値でもよい;もっともこれらの設
定値と区間の始点,終点を表わす値とは同じものである
)をそれに割当てられたファジィ・ラベルとともに,前
件部メンバーシップ関数記憶部31およびルール記憶部
33に与える。これらの前件部メンバーシップ関数を表
わすデータとファジィ・ラベルはこれらの記憶部31,
33に記憶される。 【0114】前件部メンバーシップ関数決定部42はま
た,決定した前件部メンバーシップ関数の頂点に対応す
る設定値(入力データ)のすべての入力変数についての
組合せを作成して,順次,事例学習実行部12に与える
。 事例学習実行部12は与えられた入力データの組に対応
する出力データを出力し,後件部メンバーシップ関数記
憶部32およびルール記憶部33に与える。 【0115】事例学習実行部12から得られる出力デー
タによって後件部のメンバーシップ関数が表わされる。 後件部メンバーシップ関数は,たええば図12に示すよ
うにシングルトンで表わされ,出力データの位置に立つ
1本の棒(グレード1)によって表現される。図12に
は作成された後件部メンバーシップ関数の一部のみが示
されている。 【0116】もっとも後件部メンバーシップ関数を三角
形状の関数で実現してもよい。この場合には,三角形状
メンバーシップ関数は出力データの位置でグレード1の
値をとり,かつ適当な長さの底辺をもつように形成され
る。 【0117】このようにして作成された後件部メンバー
シップ関数は後件部メンバーシップ関数記憶部32に記
憶される。 【0118】ルール記憶部33は,与えられる前件部の
ファジィ・ラベルと出力データとにより一組のファジィ
・ルールを作成して記憶する。各ルールは,事例学習実
行部12に与えられる入力データの組によって表わされ
るメンバーシップ関数のラベルを前件部とし,それに対
応して実行部12から得られる出力データを後件部とし
て形成される。このようにして作成されたルールの一例
が図11に示されている。 【0119】図11は次のようなルールを表現している
。 【0120】 もし入力1がPLで入力2がNLならば出力を1.0 
とせよ。 もし入力1がPLで入力2がNMならば出力を5.0 
とせよ。 もし入力1がPLで入力2がNSならば出力を4.8 
とせよ。 もし入力1がPMで入力2がNLならば出力を2.3 
とせよ。 もし入力1がPMで入力2がNMならば出力を4.5 
とせよ。 もし入力1がPMで入力2がNSならば出力を5.6 
とせよ。 もし入力1がPSで入力2がNLならば出力を1.5 
とせよ。 もし入力1がPSで入力2がNMならば出力を3.2 
とせよ。 もし入力1がPSで入力2がNSならば出力を6.7 
とせよ。 【0121】実行フェーズ処理部 実行フェーズ処理部5は上述のようにして作成されたル
ールに基づいてファジィ推論演算を実行するものであり
,その構成は公知のものを採用しうる。 【0122】実行フェーズ処理部5は,図13に示すよ
うにファジィ演算実行部51と,上述した前件部メンバ
ーシップ関数記憶部31,後件部メンバーシップ関数記
憶部32およびルール記憶部33とから構成される。 【0123】入力データが与えられると,ルール記憶部
33に記憶されているルールにしたがう前件部メンバー
シップ関数が記憶部31から読出され,各メンバーシッ
プ関数に対する入力データの適合度が求められる。各ル
ールごとに適合度の最小値が算出される。一方,各ルー
ルの後件部メンバーシップ関数が後件部メンバーシップ
関数記憶部32から読出され,その高さが対応するルー
ルの適合度の最小値によって裁断される。すべてのルー
ルについて得られた演算結果(裁断された後件部メンバ
ーシップ関数)の重心演算が行なわれ,最終的な出力デ
ータが算出され,かつ出力される。 【0124】ファジィ推論演算は上述したMIN−MA
X ,重心演算以外に種々の方法があるのはいうまでも
ない。 【0125】このような実行フェーズ処理部5は,それ
自体を独立したファジィ推論装置としてもよいのはいう
までもない。 【0126】第2実施例 次に第2実施例について説明する。 【0127】図14は第2実施例のファジィ処理装置の
機能ブロック図,図15はその動作の概要を示すフロー
・チャートである。 【0128】図1および図2と図14および図15との
比較から分るように,第2実施例では,ファジィ・ルー
ルを作成したのちに,このファジィ・ルールにしたがう
ファジィ推論を行い,ファジィ推論の結果によって削除
すべき入力を決定している。 【0129】図14および図15において,図1および
図2に示すものと同一物には同一符号を付し説明を省略
する。 【0130】学習フェーズ処理部1,解像度決定フェー
ズ処理部4および変換フェーズ処理部3によって,与え
られたサンプル・データに基づいて,入力変数の削除処
理を行うことなく,前件部メンバーシップ関数,後件部
メンバーシップ関数およびファジィ・ルールが作成され
,これらは各記憶部31,32および33に記憶される
。 【0131】次に入力決定フェーズ処理部6における入
力変数の削除処理が行なわれる。入力決定フェーズ処理
部6の構成が図16に示されている。この図においても
,図5および図13に示すものと同一物には同一符号が
付されている。 【0132】出力分散監視部22の指示により,入力変
動指示部21がすべての入力変数の組合せからなる入力
データを順次生成し,実行フェーズ処理部5および出力
分散監視部22に与える。実行フェーズ処理部5は与え
られた入力データを用いて,各記憶部31,32および
33に記憶されている前件部メンバーシップ関数,後件
部メンバーシップ関数およびファジィ・ルールにしたが
ってファジィ推論を行い,対応する出力データを出力す
る。この出力データは出力分散監視部22に与える。 【0133】出力分散監視部22は与えられる入力デー
タおよび出力データを用いて表2または表3に示すよう
な入出力マトリクスを作成し,上述した第1実施例にお
けるやり方と同じようにして,出力と相関の小さい入力
変数を削除すべきことを決定する。削除されるべき入力
変数は削除入力記憶部23に記憶される。 【0134】削除すべき入力があると,再び学習フェー
ズ処理部1における処理に戻り(図15ステップ108
 から101 に戻る),削除すべき入力変数に関する
サンプル・データを除いたサンプル・データを用いて,
再び学習フェーズ処理部1,変換フェーズ処理部3およ
び解像度決定フェーズ処理部4によって,前件部メンバ
ーシップ関数,後件部メンバーシップ関数およびファジ
ィ・ルールが作成される。 【0135】削除すべき入力変数がなければ,実行フェ
ーズ処理部5による処理(この処理は必ずしも必要ない
が)に進む。
Description: FIELD OF THE INVENTION This invention relates to a fuzzy processing device and method, and more particularly to a fuzzy processing device and method for creating membership functions and rules through learning. In the present invention, the fuzzy processing device and method not only perform fuzzy inference operations, but also include so-called support devices and methods that are used only to create membership functions and rules for fuzzy inference. Also includes apparatus and methods for carrying out the procedures. [0002] Fuzzy inference has the characteristics that it is easy to reflect qualitative human knowledge and that the created knowledge (membership functions and rules) is easy to understand for humans. Generally, knowledge for fuzzy inference is created based on experts' know-how. [0003] However, on the other hand, even without human knowledge,
There is a known method of creating knowledge for fuzzy inference for systems with strong nonlinear input-output relationships through example learning. This is a method in which the input/output data obtained when the above system is operated is used as sample data and is directly reflected in knowledge. [0004] However, in this method, membership functions and rules directly depend on sample data, so membership functions and rules are created only for points or areas where sample data exists, and are not necessarily valid. It is not always possible to obtain a membership function that is Another problem is that accuracy is determined by variations in sample data. [0005] In order to solve these problems, we have developed a method for creating knowledge for fuzzy inference that is not affected by the quality of sample data for case learning by combining neural networks, which are a type of case learning, and fuzzy inference. has been proposed (for example, Hayashi et al. "Learning control of an inverted pendulum using neural network-driven fuzzy reasoning" 5th Fuz
zy System Symposium, Kobe
, June 2-3, 1989). [Problems to be Solved by the Invention] However, when this method is used in a real system, it requires software or hardware for both a case learning device and a fuzzy inference device, so the processing speed is slow and the fuzzy inference method is slow. Since the membership function of the device can only be expressed in a multidimensional input space, there is a problem that the knowledge of the fuzzy inference device after learning is difficult to understand. [0007] The present invention provides an apparatus and method for creating rules and membership functions for fuzzy inference that enable inference processing to be performed at a high processing speed and that are easy to understand. [Means for Solving the Problems] A fuzzy processing device for creating rules and membership functions according to the present invention processes input data regarding a plurality of given input variables and at least one type corresponding thereto. Using sample data that includes multiple pairs of output variables and output data, we can create a structure that allows output data corresponding to any set of input data regarding multiple types of input variables to be obtained through learning. The learning means to be constructed generates multiple sets of input data for multiple input variables, provides these to the learning means to obtain output data corresponding to them, and generates output data for each input variable in response to changes in input data. an antecedent part creation means for creating an antecedent membership function having a spread corresponding to the magnitude of change in data;
Also, an input data set consisting of a combination of input representative values for a plurality of input variables for the antecedent membership function created by the antecedent part creation means is given to the learning means, and correspondingly, the input data set is provided to the learning means. A consequent membership function is created based on the obtained output data, and an antecedent membership function with the input representative value included in the above input data set and a corresponding consequent membership function are created. The system is equipped with a rule creation means for creating a rule consisting of the following. [0009] In one embodiment of the present invention, a plurality of sets of input data regarding a plurality of input variables are generated, and output data corresponding to them is obtained by supplying these to the learning means, and these sets of input data and Further, input determining means is provided for determining whether there is an input variable whose correlation with the output data is smaller than a predetermined value based on the output data. [0010] If there is an input variable whose correlation with the output data is smaller than a predetermined value, it is determined as an input variable to be deleted, and data regarding the deleted input variable is deleted from the sample data to be given to the learning means. It is preferable to further include a control means which is applied to the learning means and causes the learning means to repeat the learning process again. [0011] It is preferable that the control means performs control such that data regarding the input variables to be deleted are repeatedly deleted from the sample data and learning is performed until there are no input variables to be deleted. [0012] It is preferable that the antecedent generation means and the rule generation means use the learning means in a state where there are no input variables to be deleted. [0013] It is preferable to further provide fuzzy inference means for performing fuzzy inference calculations according to the antecedent part membership function, consequent part membership function and rules created by the antecedent part creation means and rule creation means. [0014] In another embodiment of the present invention, fuzzy inference is performed to perform a fuzzy inference operation according to the antecedent part membership function, consequent part membership function, and rule created by the antecedent part creation means and rule creation means. generate a plurality of sets of input data regarding a means and a plurality of input variables, provide these to the fuzzy inference means to obtain corresponding output data, and based on these input data and output data, Input determining means is further provided for determining whether there is an input variable whose correlation with the output data is smaller than a predetermined value. [0015] If there is an input variable whose correlation with the output data is smaller than a predetermined value, it is determined as an input variable to be deleted, and data regarding the deleted input variable is deleted from the sample data to be given to the learning means. It is preferable to further include a control means which is applied to the learning means and causes the learning means to repeat the learning process again. [0016] The control means repeats the deletion of data regarding the input variables to be deleted from the sample data, the learning, the creation of the antecedent membership function, and the creation of rules until there are no input variables to be deleted. Preferably, it is controlled. [0017] It is preferable that the antecedent generation means and the rule generation means use the learning means in a state where there are no input variables to be deleted. The fuzzy processing method for creating rules and membership functions according to the present invention combines input data for a plurality of given input variables and corresponding output data for at least one type of output variable. Using sample data that includes multiple sets of Generate multiple sets of input data, give them to the above learning structure to obtain the corresponding output data, and for each input variable, calculate the spread according to the magnitude of change in output data with respect to change in input data. Create an antecedent membership function with Create a consequent membership function based on the output data obtained from the above learning structure, and create a consequent membership function with the input representative value included in the above input data set and the corresponding consequent membership function. This method creates rules consisting of subject membership functions. In one embodiment of the present invention, a plurality of sets of input data regarding a plurality of input variables are generated, output data corresponding to them is obtained by providing these to the learning structure, and these input data are and the output data, it is further determined whether there is an input variable whose correlation with the output data is smaller than a predetermined value. [0020] Then, if there is an input variable whose correlation with the output data is smaller than a predetermined value, it is determined as an input variable to be deleted, and data related to the deleted input variable is deleted from the sample data to be given to the above learning structure. is applied to the learning structure, and the learning structure is caused to repeat the learning process again. [0021] Further, the deletion of data regarding the input variables to be deleted from the sample data and the learning are repeated until there are no input variables to be deleted. Then, an antecedent membership function, a consequent membership function, and a rule are created using the above learning structure with no input variables to be deleted. In another embodiment of the present invention, a plurality of sets of input data for a plurality of input variables are generated, and the created antecedent membership function,
Corresponding output data is obtained by performing fuzzy inference operations according to the consequent membership function and rules, and based on these input data and output data, there is an input variable whose correlation with the output data is smaller than a predetermined value. Determine whether or not. [0023] Then, if there is an input variable whose correlation with the output data is smaller than a predetermined value, it is determined as an input variable to be deleted, and data regarding the deleted input variable is deleted from the sample data to be given to the learning structure. is applied to the learning structure, and the learning structure is caused to repeat the learning process again. [0024] Further, the deletion of data regarding the input variables to be deleted from the sample data, the learning, the creation of the antecedent membership function, and the creation of rules are repeated until there are no input variables to be deleted. Then, an antecedent membership function, a consequent membership function, and a rule are created using the above learning structure with no input variables to be deleted. [0025] The device for creating antecedent membership functions according to the present invention has a set of input data for a plurality of given input variables and corresponding output data for at least one type of output variable. A learning method for constructing a structure that can obtain output data corresponding to any set of input data regarding multiple types of input variables through learning using sample data that includes multiple sets, and regarding multiple input variables. an input generating means for generating a plurality of sets of input data; a means for controlling the learning means to supply the sets of input data given from the input generating means to the learning means to operate the learning means to obtain output data corresponding thereto; , means for calculating the amount of change in output data that occurs when input data fluctuates by a constant value for each input variable, and means for calculating the fluctuation range of input data so that the amount of change in output data maintains a constant value for each input variable. and means for allocating one antecedent membership function for each range of variation. Another apparatus for creating antecedent membership functions according to the invention includes means for storing a plurality of sets of input data for a plurality of input variables and their corresponding output data; means for calculating the amount of change in the output data that occurs when the input data fluctuates by a certain value, and for each input variable, the range of fluctuation of the input data so that the amount of change in the output data remains constant. and means for allocating one antecedent membership function for each range of variation. The device for deleting unnecessary input variables according to the present invention includes an input generating means for generating a set of input data regarding a plurality of input variables, and an output corresponding to the set of input data given from the input generating means. An output generation means that generates and outputs data, for each input variable, the input data of all other input variables except the target input variable are fixed, and the input data of the target input variable is changed. means for calculating the sum of variances of output data, and means for comparing the sum of variances with a predetermined reference value and determining that input variables whose sum of variances is smaller than the predetermined reference value should be deleted. We are prepared. [0028] The output generating means generates sample data that includes a plurality of sets of input data for a plurality of given types of input variables and corresponding output data for at least one type of output variable. Using,
Is it a learning method that constructs a structure in which output data corresponding to an arbitrary set of input data regarding multiple types of input variables can be obtained by learning, or is a learning method that uses preset antecedent membership functions and consequent membership functions? It is a fuzzy inference means that performs fuzzy inference operations according to functions and rules. Another apparatus for deleting unnecessary input variables according to the present invention includes means for storing a plurality of sets of input data for a plurality of input variables and output data corresponding thereto, for each input variable, Means for calculating the sum of the variances of output data when the input data of all input variables other than the target input variable are fixed and the input data of the target input variable is changed, and the total sum of the above variances and a predetermined reference value, and determines that input variables for which the sum of the variances is smaller than the predetermined reference value should be deleted. The method for creating an antecedent membership function according to the present invention is such that a set of input data for a plurality of given types of input variables and corresponding output data for at least one type of output variable is created. Using sample data that includes multiple sets, we construct a learning structure that can obtain output data corresponding to any set of input data regarding multiple types of input variables through learning. Generate multiple sets of input data, feed the generated sets of input data to the above learning structure, operate the above learning structure to obtain the corresponding output data, and keep the input data constant for each input variable. The amount of change in output data that occurs when the value fluctuates is calculated, and for each input variable, the fluctuation range of input data is determined so that the amount of change in output data remains constant, and one antecedent part is calculated for each of this fluctuation range. Antecedent membership functions are created by assigning membership functions. Another method for creating antecedent membership functions according to the present invention is to store in advance a plurality of sets of input data regarding a plurality of input variables and output data corresponding to these, and For the input variables, calculate the amount of change in the output data that occurs when the input data fluctuates by a constant value, and for each input variable, calculate the fluctuation range of the input data so that the amount of change in the output data remains constant. The antecedent membership function is created by assigning one antecedent membership function to each variation range. [0032] The method for deleting unnecessary input variables according to the present invention generates input data sets for a plurality of input variables, generates output data corresponding to the generated input data sets, and deletes each input variable. For, fix the input data of all input variables except the target input variable,
Calculate the total sum of variance of the output data when changing the input data of the target input variable, compare the sum of the variances with a predetermined reference value, and determine if the sum of the variances is greater than the predetermined reference value. It determines that small input variables should be deleted. [0033] Using sample data that includes multiple sets of input data for multiple types of given input variables and corresponding output data for at least one type of output variable, learning is performed using sample data. , construct a learning structure that can obtain output data corresponding to an arbitrary set of input data regarding multiple types of input variables, and generate output data by giving the set of input data to this academic financing structure, or generate the output data in advance. Output data may be generated by performing fuzzy inference calculations according to the set antecedent membership function, consequent membership function, and rules. Another method for deleting unnecessary input variables according to the present invention is to store in advance a plurality of sets of input data regarding a plurality of input variables and their corresponding output data, and , fix the input data of all other input variables except the target input variable, calculate the sum of the variance of the output data when the input data of the target input variable is changed, and calculate the sum of the above variances. is compared with a predetermined reference value, and it is determined that input variables for which the sum of the variances is smaller than the predetermined reference value are to be deleted. [Operation] Using sample data that includes a plurality of sets of input data for a plurality of given types of input variables and corresponding output data for at least one type of output variable. Through learning, a learning structure is constructed that can obtain output data corresponding to any set of input data regarding multiple types of input variables. By generating a plurality of sets of input data regarding a plurality of input variables and supplying them to the learning means, output data corresponding to them can be obtained. and,
For each input variable, an antecedent membership function is created whose spread corresponds to the magnitude of change in output data with respect to change in input data. Further, an input data set consisting of a combination of input representative values for a plurality of input variables for the created antecedent membership function is given to the learning means, and an output obtained from the learning means is correspondingly given to the learning means. A consequent membership function is created based on the data, and an antecedent membership function with an input representative value included in the above input data set and a corresponding consequent membership function are created. A rule consisting of is created. Effects of the Invention: According to the apparatus and method for creating membership functions and rules according to the present invention, since learning is performed using the given sample data, output data for arbitrary input data can be obtained. It will be done. Therefore, valid membership functions for the preceding and consequent parts can be created on arbitrary input and output variable axes. Furthermore, even if there are variations in the sample data, the accuracy will not be significantly reduced. Since the created membership functions and rules can be set in any fuzzy inference device, the fuzzy inference device can be realized by either software or hardware, which simplifies the configuration and increases processing speed. Furthermore, since the membership function is expressed on one axis (each input variable axis), the created knowledge is easy to understand. According to the antecedent membership function creation device and method according to the present invention, the spread range of the antecedent membership function is determined so that the fluctuation width of the output data is approximately constant, so that detailed processing can be performed easily. Processing can be performed at a fine resolution in the necessary range and at a coarse resolution in a range where coarse processing is sufficient, and an optimal antecedent membership function is created without waste. According to the device and method for deleting unnecessary input variables according to the present invention, unnecessary input variables are deleted;
Since it does not appear in the final fuzzy inference rules, unnecessary processing can be omitted and processing speed can be improved. Embodiments First Embodiment A first embodiment of the fuzzy processing apparatus according to the present invention will be described. FIG. 1 is a functional block diagram of the fuzzy processing device, and FIG. 2 is a flow chart showing an overview of its operation. [0045] As shown in FIG. 1, the fuzzy processing device
It is composed of a learning phase processing section 1, an input determination phase processing section 2, a conversion phase processing section 3, a resolution determination phase processing section 4, and an execution phase processing section 5. The fuzzy processing device is specifically constituted by a computer system, and each of the processing units 1 to 5 described above is realized by programming this computer system to execute operations to be described in detail later. As shown in FIG. 2, this program is executed in the order of the processing units 1 to 5 described above. The configuration and operation or function of each processing section will be explained in detail below. In order to simplify the explanation, this example basically has two input variables (input 1 and input 2) and one output variable (two inputs and one output).
shall be. Learning Phase Processing Unit The learning phase processing unit 1 performs learning based on given sample data (consisting of input data and expected output data corresponding to it), and obtains an output corresponding to any input. This is to build a structure that can be used. In this embodiment, this structure is a neural network constructed by combining a large number of neurons. A functional block diagram showing the configuration of the learning phase processing section 1 is shown in FIG. Learning phase processing unit 1
are a sample data storage unit 11 and a case learning execution unit 12.
and a learning result storage section 13. Sample data consisting of input data and expected output data corresponding thereto is input and stored in the sample data storage section 11. This sample
An example of sample data stored in the data storage section 11 is shown in Table 1. Input data x for input 1
s1j, input data xs2j for input 2, and the corresponding expected output data dsj are one sample.
Construct a data set. N sets of such sample data are set. [0050] [Table 1] [0051] The example learning execution unit 12 executes learning in the neural network. sample·
The sample data stored in the data storage unit 11 is sequentially read out one set at a time, the input data of which is input to the input side of the case learning execution unit 12, and the expected output data is input to the execution unit 12.
are given to the output side of each. As is well known, a neural network is constructed by combining a large number of neurons, and the weights of connections between neurons are modified through learning. This learning is performed, for example, by a backpropagation method. The weights are modified so that the difference between the output data obtained from the neural network given the input data and the given expected output data is reduced. Learning is performed by sequentially providing sample data one set at a time until the value of the evaluation function (sum of squared errors) expressed by the above difference becomes less than or equal to a predetermined value. When the learning in the case study execution unit 12 is completed, the learning result, that is, the internal state of the case study execution unit 12, is stored in the learning result storage unit 13. When learning about a neural network is executed as described above, the internal state of the example learning execution unit 12 is represented by the structure of the neural network and the weights of connections between neurons. Parameters representing the structure of this neural network and the weights of connections between neurons are stored in the learning result storage section 13. By using a structure constructed as a result of such learning (for example, a neural network structure), an output can be obtained for any input. FIG. 4 shows the relationship between input and output obtained through learning. The × marks are sample data, and the solid curve represents the input-output relationship of the learning results. As will be seen later, in order to create a fuzzy rule, it is necessary to set the membership function of the antecedent part for the input variable. One parameter that characterizes the membership function is the coordinates of its vertices (the input value at which the membership function value is the maximum value) (this is referred to as a representative value or set value). Assuming that these set values are T1, T2, T3,..., Tj, Figure 4
is shown. [0057] If the input data that constitutes the sample data always matches the set value, the output data corresponding to the set value is included in the sample data, so fuzzy rules can be created relatively easily. It is. However, the input data in the sample data does not always match the set value; rather, the input data and the set value for the optimal fuzzy rule often differ. The learning result in the learning phase processing section 1 has an interpolation function for sample data, and since an output can be obtained for any input, output data can be obtained for any set value. In this way,
It becomes possible to create appropriate membership functions and create rules using them. Furthermore, even if there are variations in sample data, an average input-output relationship can be obtained through the above learning, so there is an advantage that output errors due to variations in sample data are reduced. Input Decision Phase Processing Unit The input decision phase processing unit 2 determines whether there are input variables that have no correlation with the output or are very small, and deletes such input variables, if any. , which ultimately determines the necessary input variables. This input determination phase processing is particularly effective when there are many types of input variables. When creating rules for fuzzy inference, there are generally a large number of possible input variable types (input variable candidates). However, not all of these input variable candidates are useful for obtaining a desired inference result (output). The greater the number of types of input variables included in a created fuzzy rule, the greater the amount of computation required for fuzzy inference according to that rule, and the longer the computation time. The input decision phase process removes unnecessary input variables in advance. The configuration of the input determination phase processing section 2 is shown in FIG. The input determination phase processing section 2 includes an input variation instruction section 21, an output variance monitoring section 22, a deletion input storage section 23, and the above-mentioned example learning execution section 12 and learning result storage section 13. The output distribution monitoring section 22 creates an input/output matrix as shown in Table 2. [0065] In order to create such an input/output matrix, the output dispersion monitoring unit 22 instructs the input fluctuation instructing unit 21 to generate input data for all input variables. In accordance with this instruction, the input variation instruction section 21 creates input data for all input variables, and provides the input data to the example learning execution section 12 and the output variance monitoring section 22. Preferably, the input data constitutes an arithmetic line number. Input data is also created to cover the entire range of the input variable. [0067] The case learning execution unit 12 includes an input variation instruction unit 21.
A set of input data from (each one for all input variables)
When a set of input data (each set of input data) is given, output data for that set of input data is calculated using the learning results stored in the learning result storage unit 13, and the output data is sent to the output distribution monitoring unit. Give to 22. Output data is created for every set of input data. The output variance monitoring unit 22 creates the input/output matrix shown in Table 2 using the set of input data and the output data for this, and also calculates the standard deviation (or variance) σij for each input and its Total value Si
Calculate. [0069] The standard deviation for an input variable is determined by changing the input data of the target input variable while fixing the input data of all other input variables except the target input variable. It is determined as the standard deviation of the output data obtained. Therefore, this standard deviation can be obtained by the number of input data combinations of other fixed input variables. The sum of all the standard deviations regarding the target input variables determined in this way is the total value. That is, in the case of two inputs, the standard deviation σij is obtained by Equation 1 and Equation 2, and the total value Si is obtained by Equation 3. ##EQU1## In the output variance monitoring unit 22, the total value of standard deviations for each input variable obtained in this way is compared with a predetermined reference value a for input deletion. , the input variables whose total value is smaller than the reference value a are determined to be deleted. Table 3 shows a specific example of the input/output matrix. If the reference value for input deletion is 10, the total value of standard deviations for input 1, 8, is smaller than this reference value, so input 2 is deleted. [0073] The fact that the standard deviation or the total value of a certain input variable is small means that even if the input data for that input variable is changed within that range, the output data will not change at all or the change will be small. This means that the input variable has no or little effect on the output data. therefore,
There is no need to consider the input variables. In this way, all input variables are evaluated. If an input variable to be deleted is found, that input variable is stored in the deletion input storage unit 23 as a deletion input. If there is an input variable to be deleted (YES in step 103 in FIG. 2), the learning phase processing section 1 is notified of this input variable to be deleted. In the learning phase processing unit 1, the above-described learning is executed again after excluding sample data regarding the input variables determined to be deleted. After the learning is completed, the processing in the input determination phase processing section 2 is repeated again. If there are no input variables to be deleted, or if there are no input variables to be deleted after the learning phase and input determination phase processes are repeated again or three or more times, the process moves to the next resolution determination phase process. In this input decision phase processing, input variables with low correlation with the output are deleted, so the amount of tasks in subsequent processing is reduced, the fuzzy inference rules are simplified, and the inference processing according to these rules is simplified. Increases speed. Resolution Determination Phase Processing Unit The resolution determination phase processing unit 4 determines the magnitude of change in output data with respect to change in input data for each input variable, and determines the above-mentioned set value according to this magnitude. This creates a membership function for the antecedent part. The configuration of the resolution determination phase processing section 4 is shown in FIG.
is shown. The resolution determination phase processing section 4 is composed of an input generation section 41, an antecedent membership function (MF) determination section 42, and the above-mentioned example learning execution section 12 and learning result storage section 13. The antecedent membership function determination unit 42 creates an input/output matrix as shown in Table 4. [Table 4] In order to create such an input/output matrix, the antecedent membership function determination unit 42 instructs the input generation unit 41 to generate input data for all input variables. do. The input generation unit 41, like the input variation instruction unit 21 described above, creates input data for all input variables according to this instruction, and uses the input data to the case learning execution unit 12 and the antecedent membership function. It is given to the determining unit 42. Preferably, the input data constitutes an arithmetic line number. Input data is also created to cover the entire range of the input variable. When the case learning execution section 12 is given a set of input data (one set of input data for all input variables) from the input generation section 41, the case learning execution section 12 stores the set of input data in the learning result storage section 13. Using the learning results, output data for the set of input data is calculated, and the output data is provided to the antecedent membership function determining unit 42. Output data is created for every set of input data. [0084] The antecedent membership function determination unit 42 is
The input/output matrix shown in Table 4 is created using the given set of input data and the corresponding output data, and for each input variable, the maximum value ( This is called the maximum value of the difference). For example, if there is an input/output matrix as shown in Table 4, the maximum value of the difference between input 1 and input 2 K1
i and K2j are determined by Equation 4 and Equation 5, respectively. [Equation 2] The antecedent membership function determining unit 42 is
Next, the resolution of the membership function of the antecedent is determined from the maximum value of the difference for each of the input variables described above, and the membership function is determined. At this time, the larger the maximum value of the difference (the larger the change in the output data), the more finely the membership function is set (the finer the input resolution).
The smaller the maximum value of the difference (the smaller the change in output data), the coarser the membership function (the coarser the input resolution) is set. FIG. 7 shows an example of a membership function set for a certain input variable. The spread of the membership function is set to be small in areas where the amount of change in the output value is large, and the spread of the membership function is set to be large in areas where the amount of change in the output value is small. When the membership function to be created is triangular, the procedure for determining the membership function will be explained using a specific example. The triangular membership function is uniquely determined when the coordinates (setting values) T1, T2, T3, . . . , Tj of its vertices are determined. That is, the membership function is created such that it has a peak at a setting value and a bottom point at an adjacent setting value (excluding those located at the edges). Then, each setting value is determined so that the lengths of the bases of the triangular membership functions are equal for all membership functions (excluding those located at the ends). Assume that an input/output matrix as shown in Table 5 has been obtained. [Table 5] [0093] Looking at input 1, the maximum value of the difference is 6.
,9,7,... Therefore, a length corresponding to a difference of 8 is assigned to the interval (length of the base) of each membership function. Referring to FIG. 8, if the value of input 1 is 1.0 ~
The maximum value of the difference is 6 when the value of input 1 is between 2.0 and 3.0, and the maximum value of the difference is 9 when the value of input 1 is between 2.0 and 3.0. In order to assign a difference of 8 to the first section M1 starting from the position where the value of input 1 is 1.0, the value of input 1 is 2.
Find the length corresponding to a difference of 2 from between 0 and 3.0,
Add this difference 2 between 1.0 and 2.0. For this purpose, a length corresponding to a difference of 2 between 2.0 and 3.0 is determined by proportional distribution. Since the difference between 2.0 and 3.0 is 9, the end point B of this section M1 can be found as follows. [Equation 3] B=2.0 + (3.0 −2.0 )×(2
/9) ...Formula 6 0097
] The width of section M1 is given by the following equation. [Equation 4] M1 = (2.0 - 1.0 ) + (3.0
−2.0 )×(2/9) Equation 7 [0099] When this idea is extended to the general case, the following algorithm is obtained. Here, each symbol is defined as follows. Difference assigned to the interval of membership function: A
Membership function interval width: M1, M
2 ,...,Me Input data when calculating the difference
:x1,x2,...,xi,...,xm
Maximum value of difference between input data: K1 , K2 ,
. . , Ki , . Tjs is the start point of the section, and Tje is the end point of the section (j=1 to e). First, the interval M of the first membership function
Find 1. FIG. 9(A) shows the case of Equation 8. [Equation 5] [0104] Interval M of the second and subsequent membership functions
Find j. However, the end point of the section of the previous membership function is between the input data xk and x(k+1), and the remaining floor difference of the section at that time is assumed to be B. Figure 9 (B
) shows the case of Equation 11. ##EQU6## The above operation is repeated until B<A. The final remaining difference B constitutes the final membership function (interval width: Me) (see FIG. 9(C)). [Formula 7] Me =B
...Formula 14 [0108] Therefore, i
The starting point Tjs and ending point Tje of the th membership function are expressed by the following equation. [Equation 8] Conversion phase processing unit The conversion phase processing unit 3 uses the membership function of the antecedent obtained as described above to create a membership function of the consequent. , which creates a set of rules for fuzzy inference. The configuration of the conversion phase processing section 3 is shown in FIG. The conversion phase processing unit 3 includes an antecedent membership function storage unit 31, a consequent membership function storage unit 32, a rule storage unit 33, and the above-mentioned antecedent membership function determination unit 42 and learning result storage unit 13.
and a case study execution unit 12. [0112] The antecedent membership function determining unit 42 is
A label (a kind of symbol for identifying a membership function, preferably given as linguistic information) is assigned to all the membership functions obtained as described above. An example of a label is NL (Negative Lar).
ge: Negatively large), NM (Negative Med
ium: Medium negative), NS (Negative)
Small: Negatively small), ZR (Zero: Almost zero)
, PS (Positive Small)
, PM (Positive Medium), PL (Positive Large), etc. may be linguistic information, or MF11, MF12,
..., MFij, etc. may be used. [0113] The antecedent membership function determination unit 42 is
Data representing each antecedent membership function (may be a setting value indicating the vertex of the membership function, or a value representing the start point and end point of the above-mentioned interval; however, data representing these setting values and the start point and end point of the interval) value) is given to the antecedent membership function storage section 31 and the rule storage section 33 along with the fuzzy label assigned to it. Data representing these antecedent membership functions and fuzzy labels are stored in these storage units 31,
33. [0114] The antecedent membership function determining unit 42 also creates combinations for all input variables of setting values (input data) corresponding to the vertices of the determined antecedent membership function, and sequentially calculates the combinations of the set values (input data) for all input variables. It is given to the learning execution unit 12. The case learning execution section 12 outputs output data corresponding to the given set of input data, and provides the output data to the consequent membership function storage section 32 and the rule storage section 33. The membership function of the consequent part is represented by the output data obtained from the case learning execution unit 12. The consequent membership function is represented by a singleton, as shown in FIG. 12, and is represented by one bar (grade 1) standing at the position of the output data. FIG. 12 shows only a part of the created consequent membership function. However, the consequent membership function may be realized by a triangular function. In this case, the triangular membership function is formed to take a value of grade 1 at the position of the output data and to have a base of an appropriate length. The consequent membership function created in this manner is stored in the consequent membership function storage section 32. The rule storage unit 33 creates and stores a set of fuzzy rules based on the fuzzy label of the given antecedent part and the output data. Each rule has a label of a membership function represented by a set of input data given to the case learning execution unit 12 as an antecedent part, and a corresponding output data obtained from the execution unit 12 as a consequent part. . An example of the rule created in this way is shown in FIG. FIG. 11 expresses the following rules. If input 1 is PL and input 2 is NL, set the output to 1.0
Let it be. If input 1 is PL and input 2 is NM, set the output to 5.0
Let it be. If input 1 is PL and input 2 is NS, the output is 4.8
Let it be. If input 1 is PM and input 2 is NL, set the output to 2.3
Let it be. If input 1 is PM and input 2 is NM, the output is 4.5
Let it be. If input 1 is PM and input 2 is NS, the output is 5.6
Let it be. If input 1 is PS and input 2 is NL, set the output to 1.5
Let it be. If input 1 is PS and input 2 is NM, the output is 3.2
Let it be. If input 1 is PS and input 2 is NS, the output is 6.7
Let it be. Execution Phase Processing Unit The execution phase processing unit 5 executes fuzzy inference calculations based on the rules created as described above, and its configuration may be of a known type. As shown in FIG. 13, the execution phase processing unit 5 includes a fuzzy operation execution unit 51, the aforementioned antecedent membership function storage unit 31, consequent membership function storage unit 32, and rule storage unit 33. It consists of When input data is given, the antecedent membership functions according to the rules stored in the rule storage section 33 are read out from the storage section 31, and the degree of compatibility of the input data with each membership function is determined. The minimum fitness value is calculated for each rule. On the other hand, the consequent membership function of each rule is read out from the consequent membership function storage unit 32, and its height is determined by the minimum value of the fitness of the corresponding rule. A centroid calculation is performed on the calculation results (cut consequent membership functions) obtained for all rules, and final output data is calculated and output. [0124] The fuzzy inference operation is the MIN-MA described above.
It goes without saying that there are various methods other than calculating the center of gravity. It goes without saying that such execution phase processing section 5 may itself be an independent fuzzy inference device. Second Embodiment Next, a second embodiment will be explained. FIG. 14 is a functional block diagram of the fuzzy processing device of the second embodiment, and FIG. 15 is a flow chart showing an outline of its operation. As can be seen from the comparison of FIGS. 1 and 2 with FIGS. 14 and 15, in the second embodiment, after creating fuzzy rules, fuzzy inference is performed according to the fuzzy rules, and the fuzzy The inputs to be deleted are determined based on the results of the inference. In FIGS. 14 and 15, the same components as those shown in FIGS. 1 and 2 are denoted by the same reference numerals, and the explanation thereof will be omitted. The learning phase processing unit 1, resolution determination phase processing unit 4, and conversion phase processing unit 3 calculate the antecedent membership function, Consequent membership functions and fuzzy rules are created and stored in each of the storage units 31, 32 and 33. Next, input variable deletion processing is performed in the input determination phase processing section 6. The configuration of the input determination phase processing section 6 is shown in FIG. In this figure as well, the same components as those shown in FIGS. 5 and 13 are given the same reference numerals. [0132] In response to instructions from the output variance monitoring unit 22, the input fluctuation instructing unit 21 sequentially generates input data consisting of combinations of all input variables, and provides the input data to the execution phase processing unit 5 and the output variance monitoring unit 22. The execution phase processing unit 5 uses the given input data to perform fuzzy inference according to the antecedent membership function, consequent membership function, and fuzzy rules stored in each storage unit 31, 32, and 33. and output the corresponding output data. This output data is given to the output distribution monitoring section 22. [0133] The output distribution monitoring unit 22 creates an input/output matrix as shown in Table 2 or Table 3 using the input data and output data provided, and outputs it in the same manner as in the first embodiment described above. It is decided that input variables that have a small correlation with the input variables should be deleted. The input variables to be deleted are stored in the deletion input storage section 23. [0134] When there is an input to be deleted, the process returns to the learning phase processing section 1 again (step 108 in Fig. 15).
(return to 101), using the sample data excluding the sample data related to the input variables to be deleted,
Again, the learning phase processing section 1, the conversion phase processing section 3, and the resolution determination phase processing section 4 create an antecedent part membership function, a consequent part membership function, and a fuzzy rule. If there is no input variable to be deleted, the process proceeds to the execution phase processing unit 5 (although this process is not necessarily required).

【図面の簡単な説明】[Brief explanation of drawings]

【図1】第1の実施例によるファジィ処理装置の構成を
示す機能ブロック図である。
FIG. 1 is a functional block diagram showing the configuration of a fuzzy processing device according to a first embodiment.

【図2】第1の実施例によるファジィ処理装置の動作を
示すフロー・チャートである。
FIG. 2 is a flow chart showing the operation of the fuzzy processing device according to the first embodiment.

【図3】学習フェーズ処理等の構成を示す機能ブロック
図である。
FIG. 3 is a functional block diagram showing the configuration of learning phase processing and the like.

【図4】学習により得られる入力と出力との関係を示す
グラフである。
FIG. 4 is a graph showing the relationship between input and output obtained through learning.

【図5】入力決定フェーズ処理部の構成を示す機能ブロ
ック図である。
FIG. 5 is a functional block diagram showing the configuration of an input determination phase processing section.

【図6】解像度決定フェーズ処理部の構成を示す機能ブ
ロック図である。
FIG. 6 is a functional block diagram showing the configuration of a resolution determination phase processing section.

【図7】出力の変化量によって作成されるメンバーシッ
プ関数の区間の幅が変化する様子を示すグラフである。
FIG. 7 is a graph showing how the width of the section of the membership function created changes depending on the amount of change in output.

【図8】前件部メンバーシップ関数の区間の幅を決定す
る様子を示すものである。
FIG. 8 shows how the width of the interval of the antecedent membership function is determined.

【図9】(A) ,(B) および(C) は前件部メ
ンバーシップ関数の区間を決定するアルゴリズムにした
がう処理を説明するものである。
FIGS. 9A, 9B, and 9C illustrate processing according to an algorithm for determining the interval of the antecedent membership function.

【図10】変換フェーズ処理部の構成を示す機能ブロッ
ク図である。
FIG. 10 is a functional block diagram showing the configuration of a conversion phase processing section.

【図11】作成されたファジィ・ルールの例を示すテー
ブルである。
FIG. 11 is a table showing an example of created fuzzy rules.

【図12】シングルトンで表わされる後件部メンバーシ
ップ関数を示すグラフである。
FIG. 12 is a graph showing a consequent membership function represented by a singleton.

【図13】実行フェーズ処理部の構成を示す機能ブロッ
ク図である。
FIG. 13 is a functional block diagram showing the configuration of an execution phase processing section.

【図14】第2実施例によるファジィ処理装置の構成を
示す機能ブロック図である。
FIG. 14 is a functional block diagram showing the configuration of a fuzzy processing device according to a second embodiment.

【図15】第2実施例によるファジィ処理装置の動作を
示すフロー・チャートである。
FIG. 15 is a flow chart showing the operation of the fuzzy processing device according to the second embodiment.

【図16】入力決定フェーズ処理部の構成を示す機能ブ
ロック図である。
FIG. 16 is a functional block diagram showing the configuration of an input determination phase processing section.

【符号の説明】[Explanation of symbols]

1  学習フェーズ処理部 2,6  入力決定フェーズ処理部 3  変換フェーズ処理部 4  解像度決定フェーズ処理部 5  実行フェーズ処理部 1 Learning phase processing section 2, 6 Input decision phase processing unit 3 Conversion phase processing section 4 Resolution determination phase processing unit 5 Execution phase processing unit

【表3】[Table 3]

Claims (40)

【特許請求の範囲】[Claims] 【請求項1】  与えられた複数種類の入力変数につい
ての入力データとそれに対応する少なくとも一種類の出
力変数についての出力データとの組が複数組含まれて構
成されるサンプル・データを用いて,学習により,複数
種類の入力変数に関する任意の入力データの組に対応す
る出力データが得られる構造を構築する学習手段,複数
の入力変数についての入力データの複数の組を発生し,
これらを上記学習手段に与えることによりそれらに対応
する出力データを得,各入力変数について,入力データ
の変化に対する出力データの変化の大きさに応じた広が
りをもつ前件部メンバーシップ関数を作成する前件部作
成手段,ならびに上記前件部作成手段によって作成され
た前件部メンバーシップ関数に対する入力代表値の複数
の入力変数についての組合せからなる入力データ組を上
記学習手段に与え,これに対応して上記学習手段から得
られる出力データに基づいて後件部メンバーシップ関数
を作成し,上記の入力データ組に含まれる入力代表値を
もつ前件部メンバーシップ関数とこれに対応して得られ
る後件部メンバーシップ関数とからなるルールを作成す
るルール作成手段,を備えたファジィ処理装置。
[Claim 1] Using sample data that includes a plurality of sets of input data for a plurality of given types of input variables and corresponding output data for at least one type of output variable, A learning means for constructing a structure in which output data corresponding to an arbitrary set of input data regarding a plurality of types of input variables can be obtained by learning, generating a plurality of sets of input data for a plurality of input variables,
By giving these to the above learning means, output data corresponding to them is obtained, and for each input variable, an antecedent membership function is created whose spread corresponds to the magnitude of change in output data with respect to change in input data. An antecedent part creation means and an input data set consisting of a combination of input representative values for a plurality of input variables for the antecedent membership function created by the antecedent part creation means are provided to the learning means, and the input data set is provided to the learning means. A consequent membership function is created based on the output data obtained from the above learning means, and an antecedent membership function having the input representative value included in the above input data set and the corresponding antecedent membership function are created. A fuzzy processing device comprising a rule creation means for creating a rule consisting of a consequent membership function.
【請求項2】  複数の入力変数についての入力データ
の複数の組を発生し,これらを上記学習手段に与えるこ
とによりそれらに対応する出力データを得,これらの入
力データと出力データとに基づいて,出力データに対す
る相関が所定値よりも小さい入力変数があるかどうかを
判定する入力決定手段,をさらに備えた請求項1に記載
のファジィ処理装置。
[Claim 2] Generate a plurality of sets of input data regarding a plurality of input variables, provide these to the learning means to obtain output data corresponding to them, and based on these input data and output data, 2. The fuzzy processing device according to claim 1, further comprising input determining means for determining whether there is an input variable whose correlation with output data is smaller than a predetermined value.
【請求項3】  出力データに対する相関が所定値より
も小さい入力変数が存在した場合にそれを削除すべき入
力変数と決定し,上記学習手段に与えるべきサンプル・
データから削除入力変数に関するデータを削除して上記
学習手段に与え,上記学習手段に再度学習処理を繰返さ
せる制御手段,をさらに備えた請求項2に記載のファジ
ィ処理装置。
[Claim 3] If there is an input variable whose correlation with the output data is smaller than a predetermined value, it is determined as an input variable to be deleted, and the sample or sample to be given to the learning means is determined.
3. The fuzzy processing apparatus according to claim 2, further comprising control means for deleting data regarding the deleted input variables from the data and providing the data to the learning means, and causing the learning means to repeat the learning process again.
【請求項4】  上記制御手段は,削除すべき入力変数
が無くなるまで,サンプル・データからの削除すべき入
力変数に関するデータの削除と学習とを繰返すよう制御
するものである請求項3に記載のファジィ処理装置。
4. The control means according to claim 3, wherein the control means performs control to repeatedly delete data regarding input variables to be deleted from the sample data and learning until there are no input variables to be deleted. Fuzzy processing device.
【請求項5】  上記前件部作成手段およびルール作成
手段は,削除すべき入力変数が無くなった状態の上記学
習手段を用いる,請求項4に記載のファジィ処理装置。
5. The fuzzy processing device according to claim 4, wherein the antecedent part creation means and the rule creation means use the learning means in a state where there are no input variables to be deleted.
【請求項6】  上記前件部作成手段およびルール作成
手段により作成された前件部メンバーシップ関数,後件
部メンバーシップ関数およびルールにしたがうファジィ
推論演算を行うファジィ推論手段を備えた請求項1に記
載のファジィ処理装置。
6. Claim 1, further comprising fuzzy inference means for performing fuzzy inference operations in accordance with the antecedent part membership function, the consequent part membership function, and the rules created by the antecedent part creation means and the rule creation means. Fuzzy processing device described in.
【請求項7】  上記前件部作成手段およびルール作成
手段により作成された前件部メンバーシップ関数,後件
部メンバーシップ関数およびルールにしたがうファジィ
推論演算を行うファジィ推論手段,ならびに複数の入力
変数についての入力データの複数の組を発生し,これら
を上記ファジィ推論手段に与えることによりそれらに対
応する出力データを得,これらの入力データと出力デー
タとに基づいて,出力データに対する相関が所定値より
も小さい入力変数があるかどうかを判定する入力決定手
段,をさらに備えた請求項1に記載のファジィ処理装置
7. Fuzzy inference means for performing fuzzy inference operations according to the antecedent part membership function, consequent part membership function and rules created by the antecedent part creation means and rule creation means, and a plurality of input variables. Generate multiple sets of input data for , provide these to the fuzzy inference means to obtain corresponding output data, and based on these input data and output data, the correlation for the output data is a predetermined value. 2. The fuzzy processing device according to claim 1, further comprising input determining means for determining whether there is an input variable smaller than .
【請求項8】  出力データに対する相関が所定値より
も小さい入力変数が存在した場合にそれを削除すべき入
力変数と決定し,上記学習手段に与えるべきサンプル・
データから削除入力変数に関するデータを削除して上記
学習手段に与え,上記学習手段に再度学習処理を繰返さ
せる制御手段,をさらに備えた請求項7に記載のファジ
ィ処理装置。
[Claim 8] If there is an input variable whose correlation with the output data is smaller than a predetermined value, it is determined as an input variable to be deleted, and the sample or sample to be given to the learning means is determined.
8. The fuzzy processing apparatus according to claim 7, further comprising control means for deleting data regarding the deleted input variables from the data and providing the data to the learning means to cause the learning means to repeat the learning process again.
【請求項9】  上記制御手段は,削除すべき入力変数
が無くなるまで,サンプル・データからの削除すべき入
力変数に関するデータの削除と学習と前件部メンバーシ
ップ関数の作成とルールの作成とを繰返すよう制御する
ものである請求項8に記載のファジィ処理装置。
9. The control means deletes data regarding input variables to be deleted from sample data, learns, creates antecedent membership functions, and creates rules until there are no input variables to be deleted. 9. The fuzzy processing device according to claim 8, wherein the fuzzy processing device performs repeated control.
【請求項10】  上記前件部作成手段およびルール作
成手段は,削除すべき入力変数が無くなった状態の上記
学習手段を用いる,請求項9に記載のファジィ処理装置
10. The fuzzy processing apparatus according to claim 9, wherein the antecedent part creation means and the rule creation means use the learning means in a state where there are no input variables to be deleted.
【請求項11】  上記学習手段が,サンプル・データ
を記憶する第1の記憶手段と,サンプル・データが与え
られることにより学習を行うニューラル・ネットワーク
手段と,ニューラル・ネットワーク手段による学習結果
を記憶する第2の記憶手段と,からなる,請求項1に記
載のファジィ処理装置。
11. The learning means includes a first storage means for storing sample data, a neural network means for performing learning by being given the sample data, and a learning result by the neural network means. The fuzzy processing device according to claim 1, comprising: second storage means.
【請求項12】  上記前件部作成手段が,複数の入力
変数についての入力データの複数の組を発生する入力生
成手段と,上記入力生成手段から与えられる入力データ
の組に対応する出力データを算出して出力する上記学習
手段と,各入力変数について,入力データが一定値変動
したときに生じる出力データの変化量を算出する手段と
,各入力変数について,出力データの変化量が一定値を
保つように入力データの変動幅を定め,この変動幅ごと
に一つの前件部メンバーシップ関数を割当てる手段と,
から構成される請求項1に記載のファジィ処理装置。
12. The antecedent generating means includes input generating means for generating a plurality of sets of input data regarding a plurality of input variables, and output data corresponding to the sets of input data given from the input generating means. the above-mentioned learning means for calculating and outputting; means for calculating the amount of change in output data that occurs when input data fluctuates by a constant value for each input variable; means for determining a fluctuation range of the input data so as to maintain the same, and assigning one antecedent membership function to each of the fluctuation ranges;
The fuzzy processing device according to claim 1, comprising:
【請求項13】  上記入力決定手段が,複数の入力変
数についての入力データの複数の組を発生する入力生成
手段と,上記入力生成手段から与えられる入力データの
組に対応する出力データを算出して出力する上記学習手
段と,各入力変数について,対象となる入力変数を除く
他のすべての入力変数の入力データを固定し,対象とな
る入力変数の入力データを変化させたときの出力データ
の分散の総和を算出する手段と,上記分散の総和と所定
の基準値とを比較し,上記所定の基準値よりも上記分散
の総和が小さい入力変数を削除すべきものと決定する手
段と,から構成される請求項2に記載のファジィ処理装
置。
13. The input determining means includes input generating means for generating a plurality of sets of input data regarding a plurality of input variables, and output data corresponding to the sets of input data given from the input generating means. For each input variable, the input data of all other input variables except the target input variable are fixed, and the output data when the input data of the target input variable is changed. consisting of means for calculating the sum of variances, and means for comparing the sum of variances with a predetermined reference value and determining that input variables for which the sum of the variances is smaller than the predetermined reference value should be deleted. The fuzzy processing device according to claim 2.
【請求項14】  上記入力決定手段が,複数の入力変
数についての入力データの複数の組を発生する入力生成
手段と,上記入力生成手段により発生する入力データの
組を上記ファジィ推論手段に与え,これに対応して上記
ファジィ推論手段から得られる出力データを取込み,各
入力変数について,対象となる入力変数を除く他のすべ
ての入力変数の入力データを固定し,対象となる入力変
数の入力データを変化させたときの出力データの分散の
総和を算出する手段と,上記分散の総和と所定の基準値
とを比較し,上記所定の基準値よりも上記分散の総和が
小さい入力変数を削除すべきものと決定する手段と,か
ら構成される請求項7に記載のファジィ処理装置。
14. The input determination means includes an input generation means for generating a plurality of sets of input data regarding a plurality of input variables, and provides the set of input data generated by the input generation means to the fuzzy inference means, Correspondingly, the output data obtained from the above fuzzy inference means is taken in, and for each input variable, the input data of all other input variables except the target input variable are fixed, and the input data of the target input variable is means for calculating the sum of the variances of the output data when changing the value, and comparing the sum of the variances with a predetermined reference value, and deleting input variables for which the sum of the variances is smaller than the predetermined reference value. 8. The fuzzy processing device according to claim 7, further comprising: means for determining that the fuzzy processing device is a kimono.
【請求項15】  与えられた複数種類の入力変数につ
いての入力データとそれに対応する少なくとも一種類の
出力変数についての出力データとの組が複数組含まれて
構成されるサンプル・データを用いて,学習により,複
数種類の入力変数に関する任意の入力データの組に対応
する出力データが得られる構造を構築する学習手段,複
数の入力変数についての入力データの複数の組を発生す
る入力生成手段,上記入力生成手段から与えられる入力
データの組を上記学習手段に与え,上記学習手段を動作
させてそれに対応する出力データを得るよう制御する手
段,各入力変数について,入力データが一定値変動した
ときに生じる出力データの変化量を算出する手段,なら
びに各入力変数について,出力データの変化量が一定値
を保つように入力データの変動幅を定め,この変動幅ご
とに一つの前件部メンバーシップ関数を割当てる手段,
を備えたファジィ処理装置。
[Claim 15] Using sample data that includes a plurality of sets of input data for a plurality of given types of input variables and corresponding output data for at least one type of output variable, Learning means for constructing a structure capable of obtaining output data corresponding to arbitrary sets of input data regarding multiple types of input variables through learning; input generating means for generating multiple sets of input data regarding multiple input variables; means for supplying the set of input data given from the input generation means to the learning means and controlling the learning means to operate and obtain output data corresponding thereto; for each input variable, when the input data fluctuates by a constant value; A means for calculating the amount of change in output data that occurs, and a range of variation in input data for each input variable so that the amount of change in output data remains constant, and one antecedent membership function for each range of variation. means of allocating
A fuzzy processing device equipped with
【請求項16】  複数の入力変数についての入力デー
タの複数の組とこれらに対応する出力データとを記憶す
る手段,各入力変数について,上記入力データが一定値
変動したときに生じる上記出力データの変化量を算出す
る手段,ならびに各入力変数について,上記出力データ
の変化量が一定値を保つように上記入力データの変動幅
を定め,この変動幅ごとに一つの前件部メンバーシップ
関数を割当てる手段,を備えたファジィ処理装置。
16. Means for storing a plurality of sets of input data regarding a plurality of input variables and output data corresponding thereto, a means for storing a plurality of sets of input data regarding a plurality of input variables, and a means for storing the output data that occurs when the input data fluctuates by a constant value for each input variable. For each input variable and the means for calculating the amount of change, determine the range of variation of the input data so that the amount of change in the output data remains constant, and assign one antecedent membership function to each range of variation. A fuzzy processing device equipped with means.
【請求項17】  複数の入力変数についての入力デー
タの組を発生する入力生成手段,上記入力生成手段から
与えられる入力データの組に対応する出力データを生成
して出力する出力生成手段,各入力変数について,対象
となる入力変数を除く他のすべての入力変数の入力デー
タを固定し,対象となる入力変数の入力データを変化さ
せたときの出力データの分散の総和を算出する手段,な
らびに上記分散の総和と所定の基準値とを比較し,上記
所定の基準値よりも上記分散の総和が小さい入力変数を
削除すべきものと決定する手段,を備えたファジィ処理
装置。
17. Input generation means for generating a set of input data regarding a plurality of input variables, output generation means for generating and outputting output data corresponding to the set of input data given from the input generation means, and each input. Regarding variables, means for calculating the sum of variances of output data when the input data of all input variables other than the target input variable is fixed and the input data of the target input variable is changed, and the above. A fuzzy processing device comprising means for comparing a total sum of variances with a predetermined reference value and determining that input variables for which the sum of the variances is smaller than the predetermined reference value should be deleted.
【請求項18】  上記出力生成手段が,与えられた複
数種類の入力変数についての入力データとそれに対応す
る少なくとも一種類の出力変数についての出力データと
の組が複数組含まれて構成されるサンプル・データを用
いて,学習により,複数種類の入力変数に関する任意の
入力データの組に対応する出力データが得られる構造を
構築する学習手段である請求項17に記載のファジィ処
理装置。
18. A sample in which the output generation means includes a plurality of sets of input data for a plurality of given types of input variables and corresponding output data for at least one type of output variable. 18. The fuzzy processing device according to claim 17, wherein the fuzzy processing device is a learning means that uses data to construct, through learning, a structure that can obtain output data corresponding to a set of arbitrary input data regarding a plurality of types of input variables.
【請求項19】  上記出力生成手段が,あらかじめ設
定された前件部メンバーシップ関数,後件部メンバーシ
ップ関数およびルールにしたがってファジィ推論演算を
行うファジィ推論手段である請求項17に記載のファジ
ィ処理装置。
19. The fuzzy processing according to claim 17, wherein the output generation means is a fuzzy inference means that performs fuzzy inference calculations according to preset antecedent part membership functions, consequent part membership functions, and rules. Device.
【請求項20】  複数の入力変数についての入力デー
タの複数の組とこれらに対応する出力データとを記憶す
る手段,各入力変数について,対象となる入力変数を除
く他のすべての入力変数の入力データを固定し,対象と
なる入力変数の入力データを変化させたときの出力デー
タの分散の総和を算出する手段,ならびに上記分散の総
和と所定の基準値とを比較し,上記所定の基準値よりも
上記分散の総和が小さい入力変数を削除すべきものと決
定する手段,を備えたファジィ処理装置。
20. Means for storing a plurality of sets of input data regarding a plurality of input variables and output data corresponding to these, and for each input variable, inputting of all other input variables except the target input variable. Means for calculating the sum of variance of output data when the data is fixed and input data of a target input variable is changed, and comparing the sum of the variance with a predetermined reference value, a fuzzy processing device, comprising: means for determining that input variables for which the sum of the variances is smaller than , are to be deleted;
【請求項21】  与えられた複数種類の入力変数につ
いての入力データとそれに対応する少なくとも一種類の
出力変数についての出力データとの組が複数組含まれて
構成されるサンプル・データを用いて,学習により,複
数種類の入力変数に関する任意の入力データの組に対応
する出力データが得られる学習構造を構築し,複数の入
力変数についての入力データの複数の組を発生し,これ
らを上記学習構造に与えることによりそれらに対応する
出力データを得,各入力変数について,入力データの変
化に対する出力データの変化の大きさに応じた広がりを
もつ前件部メンバーシップ関数を作成し,さらに作成さ
れた前件部メンバーシップ関数に対する入力代表値の複
数の入力変数についての組合せからなる入力データ組を
上記学習構造に与え,これに対応して上記学習構造から
得られる出力データに基づいて後件部メンバーシップ関
数を作成し,上記の入力データ組に含まれる入力代表値
をもつ前件部メンバーシップ関数とこれに対応して得ら
れる後件部メンバーシップ関数とからなるルールを作成
する,ファジィ処理方法。
[Claim 21] Using sample data that includes a plurality of sets of input data for a plurality of given types of input variables and corresponding output data for at least one type of output variable, Through learning, a learning structure is constructed in which output data corresponding to an arbitrary set of input data regarding multiple types of input variables can be obtained, multiple sets of input data regarding multiple input variables are generated, and these are combined into the above learning structure. For each input variable, we created an antecedent membership function whose spread corresponds to the magnitude of the change in the output data with respect to the change in the input data. An input data set consisting of a combination of input representative values for a plurality of input variables for the antecedent membership function is given to the above learning structure, and the consequent member is correspondingly determined based on the output data obtained from the above learning structure. A fuzzy processing method that creates a ship function and creates a rule consisting of an antecedent membership function with an input representative value included in the above input data set and a corresponding consequent membership function. .
【請求項22】  複数の入力変数についての入力デー
タの複数の組を発生し,これらを上記学習構造に与える
ことによりそれらに対応する出力データを得,これらの
入力データと出力データとに基づいて,出力データに対
する相関が所定値よりも小さい入力変数があるかどうか
をさらに判定する請求項21に記載のファジィ処理方法
[Claim 22] Generating a plurality of sets of input data regarding a plurality of input variables, providing these to the learning structure to obtain output data corresponding to them, and based on these input data and output data. 22. The fuzzy processing method according to claim 21, further comprising determining whether there is an input variable whose correlation with the output data is smaller than a predetermined value.
【請求項23】  出力データに対する相関が所定値よ
りも小さい入力変数が存在した場合にそれを削除すべき
入力変数と決定し,上記学習構造に与えるべきサンプル
・データから削除入力変数に関するデータを削除して上
記学習構造に与え,上記学習構造に再度学習処理を繰返
させる請求項22に記載のファジィ処理方法。
[Claim 23] If there is an input variable whose correlation with the output data is smaller than a predetermined value, it is determined as an input variable to be deleted, and data regarding the deleted input variable is deleted from the sample data to be given to the learning structure. 23. The fuzzy processing method according to claim 22, wherein the learning process is applied to the learning structure and the learning process is repeated again.
【請求項24】  削除すべき入力変数が無くなるまで
,サンプル・データからの削除すべき入力変数に関する
データの削除と学習とを繰返す請求項23に記載のファ
ジィ処理方法。
24. The fuzzy processing method according to claim 23, wherein the deletion of data regarding the input variables to be deleted from the sample data and the learning are repeated until there are no input variables to be deleted.
【請求項25】  削除すべき入力変数が無くなった状
態の上記学習構造を用いて前件部メンバーシップ関数,
後件部メンバーシップ関数およびルールを作成する,請
求項24に記載のファジィ処理方法。
[Claim 25] Using the above learning structure with no input variables to be deleted, the antecedent membership function,
25. The fuzzy processing method according to claim 24, further comprising creating a consequent membership function and a rule.
【請求項26】  作成された前件部メンバーシップ関
数,後件部メンバーシップ関数およびルールにしたがう
ファジィ推論演算を行う請求項21に記載のファジィ処
理方法。
26. The fuzzy processing method according to claim 21, wherein fuzzy inference calculations are performed according to the created antecedent part membership function, consequent part membership function and rules.
【請求項27】  複数の入力変数についての入力デー
タの複数の組を発生し,これらを用いて,作成された前
件部メンバーシップ関数,後件部メンバーシップ関数お
よびルールにしたがうファジィ推論演算を行うことによ
り対応する出力データを得,これらの入力データと出力
データとに基づいて,出力データに対する相関が所定値
よりも小さい入力変数があるかどうかを判定する請求項
21に記載のファジィ処理方法。
[Claim 27] Generate multiple sets of input data regarding multiple input variables, and use these to perform fuzzy inference operations according to the created antecedent membership function, consequent membership function, and rules. 22. The fuzzy processing method according to claim 21, wherein corresponding output data is obtained by performing the above steps, and based on these input data and output data, it is determined whether there is an input variable whose correlation with the output data is smaller than a predetermined value. .
【請求項28】  出力データに対する相関が所定値よ
りも小さい入力変数が存在した場合にそれを削除すべき
入力変数と決定し,上記学習構造に与えるべきサンプル
・データから削除入力変数に関するデータを削除して上
記学習構造に与え,上記学習構造に再度学習処理を繰返
させる請求項27に記載のファジィ処理方法。
[Claim 28] If there is an input variable whose correlation with the output data is smaller than a predetermined value, it is determined as an input variable to be deleted, and data regarding the deleted input variable is deleted from the sample data to be given to the learning structure. 28. The fuzzy processing method according to claim 27, wherein the learning process is applied to the learning structure and the learning process is repeated again.
【請求項29】  削除すべき入力変数が無くなるまで
,サンプル・データからの削除すべき入力変数に関する
データの削除と学習と前件部メンバーシップ関数の作成
とルールの作成とを繰返す請求項28に記載のファジィ
処理方法。
[Claim 29] According to claim 28, the deletion of data regarding the input variables to be deleted from the sample data, the learning, the creation of the antecedent membership function, and the creation of the rules are repeated until there are no input variables to be deleted. Fuzzy processing method described.
【請求項30】  削除すべき入力変数が無くなった状
態の上記学習構造を用いて前件部メンバーシップ関数,
後件部メンバーシップ関数およびルールを作成する,請
求項29に記載のファジィ処理方法。
[Claim 30] Using the above learning structure with no input variables to be deleted, the antecedent membership function,
30. The fuzzy processing method according to claim 29, further comprising creating a consequent membership function and a rule.
【請求項31】  上記学習構造を,サンプル・データ
が与えられることにより学習を行うニューラル・ネット
ワークにより構成する請求項21に記載のファジィ処理
方法。
31. The fuzzy processing method according to claim 21, wherein the learning structure is constituted by a neural network that performs learning by being given sample data.
【請求項32】  複数の入力変数についての入力デー
タの複数の組を発生し,発生した入力データの組を上記
学習構造に与えることによりこれらに対応する出力デー
タを算出させ,各入力変数について,入力データが一定
値変動したときに生じる出力データの変化量を算出し,
各入力変数について,出力データの変化量が一定値を保
つように入力データの変動幅を定め,この変動幅ごとに
一つの前件部メンバーシップ関数を割当てることにより
前件部メンバーシップの関数を作成する,請求項21に
記載のファジィ処理方法。
[Claim 32] Generate a plurality of sets of input data for a plurality of input variables, give the generated sets of input data to the learning structure to calculate output data corresponding to these, and for each input variable, Calculate the amount of change in output data that occurs when input data fluctuates by a certain value,
For each input variable, the variation range of the input data is determined so that the amount of change in the output data remains constant, and one antecedent membership function is assigned to each variation range to calculate the antecedent membership function. 22. The fuzzy processing method according to claim 21.
【請求項33】  複数の入力変数についての入力デー
タの複数の組を発生し,発生した入力データの組を上記
学習構造に与えることによりこれに対応する出力データ
を算出させ,各入力変数について,対象となる入力変数
を除く他のすべての入力変数の入力データを固定し,対
象となる入力変数の入力データを変化させたときの出力
データの分散の総和を算出し,上記分散の総和と所定の
基準値とを比較し,上記所定の基準値よりも上記分散の
総和が小さい入力変数を削除すべきものと決定する,請
求項22に記載のファジィ処理方法。
33. Generate a plurality of sets of input data for a plurality of input variables, provide the generated sets of input data to the learning structure to calculate corresponding output data, and for each input variable, The input data of all other input variables except the target input variable are fixed, and the sum of the variances of the output data when the input data of the target input variable is changed is calculated, and the sum of the above variances and the predetermined value are calculated. 23. The fuzzy processing method according to claim 22, wherein input variables having a total sum of variances smaller than the predetermined reference value are determined to be deleted.
【請求項34】  複数の入力変数についての入力デー
タの複数の組を発生し,発生した入力データの組を用い
,作成された前件部メンバーシップ関数,後件部メンバ
ーシップ関数およびルールにしたがうファジィ推論演算
を行うことにより出力データを得,各入力変数について
,対象となる入力変数を除く他のすべての入力変数の入
力データを固定し,対象となる入力変数の入力データを
変化させたときの出力データの分散の総和を算出し,上
記分散の総和と所定の基準値とを比較し,上記所定の基
準値よりも上記分散の総和が小さい入力変数を削除すべ
きものと決定する,請求項27に記載のファジィ処理方
法。
[Claim 34] Generating a plurality of sets of input data regarding a plurality of input variables, using the generated sets of input data, and following the created antecedent membership function, consequent membership function, and rule. When output data is obtained by performing fuzzy inference operations, and for each input variable, the input data of all other input variables except the target input variable is fixed, and the input data of the target input variable is changed. A total of the variances of the output data is calculated, the total variance is compared with a predetermined reference value, and it is determined that an input variable whose total variance is smaller than the predetermined reference value is to be deleted. The fuzzy processing method described in 27.
【請求項35】  与えられた複数種類の入力変数につ
いての入力データとそれに対応する少なくとも一種類の
出力変数についての出力データとの組が複数組含まれて
構成されるサンプル・データを用いて,学習により,複
数種類の入力変数に関する任意の入力データの組に対応
する出力データが得られる学習構造を構築し,複数の入
力変数についての入力データの複数の組を発生し,発生
した入力データの組を上記学習構造に与え,上記学習構
造を動作させてそれに対応する出力データを得るよう制
御し,各入力変数について,入力データが一定値変動し
たときに生じる出力データの変化量を算出し,各入力変
数について,出力データの変化量が一定値を保つように
入力データの変動幅を定め,この変動幅ごとに一つの前
件部メンバーシップ関数を割当てることにより前件部メ
ンバーシップ関数を作成する,ファジィ処理方法。
[Claim 35] Using sample data that includes a plurality of sets of input data for a plurality of given types of input variables and corresponding output data for at least one type of output variable, Through learning, we construct a learning structure that can obtain output data corresponding to any set of input data regarding multiple types of input variables, generate multiple sets of input data regarding multiple input variables, and calculate the output data of the generated input data. The set is given to the learning structure, the learning structure is operated and controlled to obtain the corresponding output data, and for each input variable, the amount of change in the output data that occurs when the input data fluctuates by a certain value is calculated, For each input variable, determine the variation range of the input data so that the amount of change in the output data remains constant, and create an antecedent membership function by assigning one antecedent membership function to each variation range. Fuzzy processing method.
【請求項36】  複数の入力変数についての入力デー
タの複数の組とこれらに対応する出力データとをあらか
じめ記憶しておき,各入力変数について,上記入力デー
タが一定値変動したときに生じる上記出力データの変化
量を算出し,各入力変数について,上記出力データの変
化量が一定値を保つように上記入力データの変動幅を定
め,この変動幅ごとに一つの前件部メンバーシップ関数
を割当てることにより前件部メンバーシップ関数を作成
する,ファジィ処理方法。
[Claim 36] A plurality of sets of input data for a plurality of input variables and output data corresponding to these are stored in advance, and for each input variable, the above-mentioned output that occurs when the above-mentioned input data fluctuates by a certain value The amount of change in the data is calculated, and for each input variable, the range of variation in the input data is determined so that the amount of change in the output data remains constant, and one antecedent membership function is assigned to each range of variation. A fuzzy processing method that creates antecedent membership functions by
【請求項37】  複数の入力変数についての入力デー
タの組を発生し,発生した入力データの組に対応する出
力データを生成し,各入力変数について,対象となる入
力変数を除く他のすべての入力変数の入力データを固定
し,対象となる入力変数の入力データを変化させたとき
の出力データの分散の総和を算出し,上記分散の総和と
所定の基準値とを比較し,上記所定の基準値よりも上記
分散の総和が小さい入力変数を削除すべきものと決定す
る,ファジィ処理方法。
[Claim 37] Generate a set of input data for a plurality of input variables, generate output data corresponding to the generated set of input data, and for each input variable, calculate the output data for all other input variables except the target input variable. The input data of the input variable is fixed, and the sum of the variances of the output data when the input data of the target input variable is changed is calculated, the sum of the variances is compared with a predetermined reference value, and the sum of the variances of the output data is calculated. A fuzzy processing method that determines that input variables whose total sum of variance is smaller than a reference value should be deleted.
【請求項38】  与えられた複数種類の入力変数につ
いての入力データとそれに対応する少なくとも一種類の
出力変数についての出力データとの組が複数組含まれて
構成されるサンプル・データを用いて,学習により,複
数種類の入力変数に関する任意の入力データの組に対応
する出力データが得られる学習構造を構築し,この学習
構造に入力データの組を与えることにより出力データを
生成する請求項37に記載のファジィ処理方法。
[Claim 38] Using sample data that includes a plurality of sets of input data for a plurality of given types of input variables and corresponding output data for at least one type of output variable, Claim 37: constructing a learning structure that can obtain output data corresponding to an arbitrary set of input data regarding a plurality of types of input variables through learning, and generating output data by giving the set of input data to this learning structure. Fuzzy processing method described.
【請求項39】  あらかじめ設定された前件部メンバ
ーシップ関数,後件部メンバーシップ関数およびルール
にしたがってファジィ推論演算を行うことにより出力デ
ータを生成する請求項37に記載のファジィ処理方法。
39. The fuzzy processing method according to claim 37, wherein the output data is generated by performing fuzzy inference calculations according to preset antecedent part membership functions, consequent part membership functions, and rules.
【請求項40】  複数の入力変数についての入力デー
タの複数の組とこれらに対応する出力データとをあらか
じめ記憶しておき,各入力変数について,対象となる入
力変数を除く他のすべての入力変数の入力データを固定
し,対象となる入力変数の入力データを変化させたとき
の出力データの分散の総和を算出し,上記分散の総和と
所定の基準値とを比較し,上記所定の基準値よりも上記
分散の総和が小さい入力変数を削除すべきものと決定す
る,ファジィ処理方法。
[Claim 40] A plurality of sets of input data regarding a plurality of input variables and output data corresponding to these are stored in advance, and for each input variable, all other input variables except the target input variable are stored. Calculate the sum of the variances of the output data when the input data of the target input variable is fixed and change the input data of the target input variable, compare the sum of the variances with a predetermined reference value, and calculate the sum of the variances of the output data when the input data of the target input variable is changed. A fuzzy processing method that determines that input variables for which the sum of the above variances is smaller than are to be deleted.
JP3089386A 1991-03-29 1991-03-29 Device and method for fuzzy processing Pending JPH04302328A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3089386A JPH04302328A (en) 1991-03-29 1991-03-29 Device and method for fuzzy processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3089386A JPH04302328A (en) 1991-03-29 1991-03-29 Device and method for fuzzy processing

Publications (1)

Publication Number Publication Date
JPH04302328A true JPH04302328A (en) 1992-10-26

Family

ID=13969229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3089386A Pending JPH04302328A (en) 1991-03-29 1991-03-29 Device and method for fuzzy processing

Country Status (1)

Country Link
JP (1) JPH04302328A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2504837C1 (en) * 2012-05-15 2014-01-20 Федеральное государственное военное образовательное учреждение высшего профессионального образования Военная академия Ракетных войск стратегического назначения имени Петра Великого МО РФ Associative recognition device
JP2017142593A (en) * 2016-02-09 2017-08-17 日本電信電話株式会社 Optimization device, optimization method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2504837C1 (en) * 2012-05-15 2014-01-20 Федеральное государственное военное образовательное учреждение высшего профессионального образования Военная академия Ракетных войск стратегического назначения имени Петра Великого МО РФ Associative recognition device
JP2017142593A (en) * 2016-02-09 2017-08-17 日本電信電話株式会社 Optimization device, optimization method, and program

Similar Documents

Publication Publication Date Title
Jones et al. Survey of job shop scheduling techniques
Er et al. Online tuning of fuzzy inference systems using dynamic fuzzy Q-learning
JP5183732B2 (en) Method for controlling and / or adjusting a technical system with computer assistance
Pappis et al. Fuzzy reasoning
Sun et al. Multi-agent reinforcement learning: weighting and partitioning
Agarwal Combining neural and conventional paradigms for modelling, prediction and control
JP2007500379A (en) Software optimization device for intelligent control system
Protalinskii et al. Analysis and modelling of complex engineering systems based on the component approach
Yeh A systematic method for design of multivariable fuzzy logic control systems
JPH04302328A (en) Device and method for fuzzy processing
Renders et al. Genetic algorithms for process control: A survey
Prabhu et al. Fuzzy-logic-based reinforcement learning of admittance control for automated robotic manufacturing
Santharam et al. A reinforcement learning neural network for adaptive control of Markov chains
Hong et al. Generalized neurofuzzy network modeling algorithms using Bezier-Bernstein polynomial functions and additive decomposition
Balachandran et al. Use of knowledge in selection and control of optimization algorithms
Koivisto A practical approach to model based neural network control
Eaton et al. Stability of neural net based model predictive control
Chen Design of stable fuzzy control systems using Lyapunov's method in fuzzy hypercubes
Ayyub et al. Control of Construction Activities: III. Fuzzy-Based Controller
Montes et al. Interpretable Fuzzy Models from Data and Adaptive Fuzzy Control: A New Approach
JPH0588900A (en) Learning type fuzzy controller and control method
Zojaji et al. Adaptive reinforcement-based genetic algorithm for combinatorial optimization
JPH08180034A (en) Information processor
Busoniu et al. Consistency of fuzzy model-based reinforcement learning
Ellis Multi-agent path finding with reinforcement learning