JPH05265512A - 学習型制御装置およびファジィ推論装置 - Google Patents

学習型制御装置およびファジィ推論装置

Info

Publication number
JPH05265512A
JPH05265512A JP4060047A JP6004792A JPH05265512A JP H05265512 A JPH05265512 A JP H05265512A JP 4060047 A JP4060047 A JP 4060047A JP 6004792 A JP6004792 A JP 6004792A JP H05265512 A JPH05265512 A JP H05265512A
Authority
JP
Japan
Prior art keywords
fuzzy
membership function
parameter
learning
fuzzy inference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4060047A
Other languages
English (en)
Inventor
Akira Maeda
章 前田
Seiju Funabashi
誠壽 船橋
Toshihiko Nakano
利彦 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4060047A priority Critical patent/JPH05265512A/ja
Publication of JPH05265512A publication Critical patent/JPH05265512A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 学習により制御性能を向上する学習型制御装
置を提供する。 【構成】 ファジィ制御モデル803におけるファジィ
推論の手順を計算ネットワークにより表現し、その計算
ネットワークの出力側から入力側にノードをたどりなが
らパラメータを微小変化させたときの「対象モデル80
2の出力値v’と望ましい出力値Yt の誤差」の変化量
を求め、この変化量に基づいて、前記誤差を小さくする
ようにファジィ制御モデル803のパラメータを変化さ
せる。 【効果】 オンライン的・リアルタイム的な学習が可能
となる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、学習型制御装置および
ファジィ推論装置に関する。さらに詳しくは、学習によ
り精度のよい制御性能を得ることのできる学習型制御装
置および学習によって刻々変化するファジィ知識の状態
を視覚的に理解するのに好適なファジィ推論装置に関す
る。
【0002】
【従来の技術】ファジィ推論を用いて制御を行うファジ
ィ制御装置において学習によりパラメータの調節を行う
従来技術が、例えば計測自動制御学会論文集第24巻第
2号(1984年)第191頁から第197頁における
「自己調整ファジィコントローラ」と題する文献(文献
1)に記載されている。また、第6回ファジィシステム
シンポジウム講演論文集(1990年)第423頁から
第426頁における「最急降下法によるファジィ推論の
自動チューニングと障害物回避への応用」と題する文献
(文献2)に記載されている。
【0003】また、ニューラルネットを用いて制御を行
うニューロ制御装置において学習によりパラメータの調
節を行う従来技術が、例えば計測自動制御学会「計測と
制御」第30巻第4号(1991年)第302頁から第
308頁における「ニューラルネットワークにおける学
習・適応制御」と題する文献(文献3)に記載されてい
る。また、コントロールシステムズマガジン第10巻第
3号(1990年)の第18頁から第23頁(IEEE Con
trol Systems Magazine,Vol.10,No.3,pp.18-23,Ap
r.1990 )における「自己学習型制御システムのための
ニューラルネット(Neural Networks for Self-Learnin
g Control Systems)」と題する文献(文献4)に記載
されている。
【0004】一方、ファジィルールやメンバシップ関数
定義などの情報からなるファジィ知識を表示する従来技
術が、例えば日本ファジィ学会誌第2巻第2号(199
0年)第13頁から第20頁における「エキスパートシ
ステム構築ツールES/KERNEL/Wのファジィ推
論」と題する文献(文献5)に記載されている。
【0005】
【発明が解決しようとする課題】上記文献1に記載の従
来技術(従来技術1)では、パラメータ調節の対象とな
るのは入力および出力変数のスケーリングファクタと出
力変数に対応した出力メンバシップ関数の形状だけであ
り、入力変数に対応した入力メンバシップ関数の形状は
パラメータ調節の対象となっていない。このため、学習
の効果に限界がある問題点があった。また、パラメータ
をどう調節するかを決定するルールを作成する必要があ
るが、このルールの作成が困難である問題点があった。
上記文献2の従来技術(従来技術2)では、最急降下法
によるパラメータ調節を行うために特殊な形のファジィ
推論法に制限しており、Mamdaniの推論法など他
のファジィ推論法には適用できない問題点があった。ま
た、人間による操作を制御の正解値(教師データ)とし
ており、このような教師データが利用できない場合には
適用することができない問題点があった。
【0006】上記文献3に記載の従来技術(従来技術
3)および文献4に記載の従来技術(従来技術4)で
は、ニューラルネットワークの学習アルゴリズムを用い
てパラメータを調節する。しかし、一般に、ニューラル
ネットワークでは、学習後のニューラルネットワークの
動作について、なぜそのような動作をしたのか理解でき
ず、ブラックボックスとして扱わざるを得ない問題点が
あった。また、予め先験的に分っている知識をニューラ
ルネットワークに反映させるのが難しく、ゼロから学習
するため、学習に要する時間が長くなる問題点があっ
た。
【0007】上記文献5に記載の従来技術(従来技術
5)では、オフライン的な処理によりファジィ知識の表
示を行うが、オンライン的・リアルタイム的にファジィ
知識の表示を行うことは出来ない。このため、オンライ
ン的・リアルタイム的に学習を行うファジィ制御におい
てファジィ知識を表示するのには適用できない問題点が
あった。
【0008】そこで、本発明の第1の目的は、入力メン
バシップ関数もパラメータ調節の対象とし、ニューラル
ネットの場合と同様に学習でき、なぜそのような動作を
したのかを解明でき、さらに、学習に要する時間が短い
学習型制御装置を提供することにある。
【0009】また、本発明の第2の目的は、ファジィ知
識の状態をオンライン的・リアルタイム的に表示するこ
とが出来るファジィ推論装置を提供することにある。
【0010】
【課題を解決するための手段】第1の観点では、本発明
は、ファジィ推論を用いて制御対象の制御を行うファジ
ィ制御装置において、一つまたは複数個のパラメータを
含むファジィ推論の手順を、一つまたは複数の入力値か
ら所定の手順により出力値を計算する複数個のノード
と,該ノード間の結合関係を表す一つまたは複数個のリ
ンクとからなる計算ネットワークにより表現し、その計
算ネットワークの出力側から入力側にノードをたどりな
がらパラメータを微小変化させたときの「制御対象の出
力値と望ましい出力値の誤差」の変化量を求め、この変
化量に基づいて、前記誤差を小さくするようにファジィ
推論のパラメータを変化させるパラメータ調節手段を具
備したことを特徴とする学習型制御装置を提供する。
【0011】第2の観点では、本発明は、ファジィ推論
を用いて制御対象の制御を行うファジィ制御装置におい
て、一つまたは複数個のパラメータを含むファジィ推論
の手順を、一つまたは複数の入力値から所定の手順によ
り出力値を計算する複数個のノードと,該ノード間の結
合関係を表す一つまたは複数個のリンクとからなる計算
ネットワークにより表現し、その計算ネットワークの出
力側から入力側にノードをたどりながらパラメータを微
小変化させたときの「外部入力操作量に対する制御対象
の出力を入力されたときのファジィ制御装置の出力と前
記外部入力操作量の誤差」の変化量を求め、この変化量
に基づいて、前記誤差を小さくするようにファジィ推論
のパラメータを変化させるパラメータ調節手段を具備し
たことを特徴とする学習型制御装置を提供する。
【0012】第3の観点では、本発明は、ファジィ推論
を用いて制御対象の制御を行うファジィ制御装置におい
て、制御対象と並列に設置され、制御対象の振舞いを近
似する対象モデルと、一つまたは複数個のパラメータを
含むファジィ推論の手順を、一つまたは複数の入力値か
ら所定の手順により出力値を計算する複数個のノード
と,該ノード間の結合関係を表す一つまたは複数個のリ
ンクとからなる計算ネットワークにより表現し、その計
算ネットワークの出力側から入力側にノードをたどりな
がらパラメータを微小変化させたときの「対象モデルの
出力値と望ましい出力値の誤差」の変化量を求め、この
変化量に基づいて、前記誤差を小さくするようにファジ
ィ推論のパラメータを変化させるパラメータ調節手段と
を具備したことを特徴とする学習型制御装置を提供す
る。
【0013】第4の観点では、本発明は、制御対象と並
列に設置され制御対象の振舞いを近似する対象モデルを
有する制御装置において、対象モデルは、ファジィ推論
を用いて制御対象の振舞いを近似するファジィ対象モデ
ルであり、一つまたは複数個のパラメータを含むファジ
ィ推論の手順を、一つまたは複数の入力値から所定の手
順により出力値を計算する複数個のノードと,該ノード
間の結合関係を表す一つまたは複数個のリンクとからな
る計算ネットワークにより表現し、その計算ネットワー
クの出力側から入力側にノードをたどりながらパラメー
タを微小変化させたときの「同一の入力に対する対象モ
デルの出力値と制御対象の出力値の誤差」の変化量を求
め、この変化量に基づいて、前記誤差を小さくするよう
にファジィ推論のパラメータを変化させるパラメータ調
節手段とを具備したことを特徴とする学習型制御装置を
提供する。
【0014】第5の観点では、本発明は、外部変数およ
び内部変数に基づいて制御量を生成する制御装置におい
て、ある外部変数と内部変数とを与えたときの制御量と
望ましい制御量の誤差を小さくするように内部変数を変
化させる内部変数調節手段を具備したことを特徴とする
学習型制御装置を提供する。
【0015】第6の観点では、本発明は、一つまたは複
数個のメンバシップ関数を含むファジィ推論装置におい
て、ファジィ推論の出力値と望ましい出力値の誤差を小
さくするようにメンバシップ関数形状を変更するメンバ
シップ関数形状変更手段と、変更されたメンバシップ関
数の一部または全部の形状を表示するメンバシップ関数
形状表示手段とを設けたことを特徴とするファジィ推論
装置を提供する。
【0016】
【作用】ファジィ推論過程は計算ネットワークに信号を
前向きに流すことで行なうが、このファジィ推論過程を
通じて、計算ネットワークの各ノードの入力と出力の関
係が定まる。一方、推論結果として実際に出力された値
と望ましい出力値の誤差を、計算ネットワークを逆に伝
播させれば、各ノードの誤差が定まる。各ノードの入力
と出力の関係および誤差が定まれば、パラメータを微小
変化させたときの誤差の変化量が定まる。この変化量か
ら、誤差を小さくするためにパラメータをどのように変
化させればよいかが分る。以上により、上記第1の観点
から第4の観点による学習型制御装置では、パラメータ
を自動的に調節するので、制御性能を向上させることが
出来る。また、計算ネットワークを用いるため、学習に
要する時間が少なくて済む。さらに、制御と並行してリ
アルタイム的に学習できるので、制御対象の特性の時間
変化に適応する制御性能を得ることが出来る。
【0017】上記第5の観点による学習型制御装置で
は、上記と同様に、適応型制御を行う場合の内部変数の
値を、教師データを用いた学習により、自動的に調節す
る。従って、制御性能を向上させることが出来る。
【0018】上記第6の観点によるファジィ推論装置で
は、パラメータが変更されたメンバシップ関数の形状を
表示するが、メンバシップ関数は人間の知識に近い表現
であるため、これを見ることにより、オペレータは、制
御モデルの現在の特性を直接的に理解しやすい。そこ
で、オペレータは、推論結果の異常や妥当性をより的確
に判断できるようになる。
【0019】
【実施例】以下、図に示す実施例により本発明を詳細に
説明する。なお、これにより本発明が限定されるもので
はない。
【0020】−前提説明− 図1から図5により、本発明の前提となる「計算ネット
ワークを用いたファジィ推論パラメータの調節方法」に
ついて説明する。この「計算ネットワークを用いたファ
ジィ推論パラメータの調節方法」については、情報処理
学会マイクロコンピュータとワークステーション研究会
予稿集(91−MIC−66−5)における「ファジィ
メンバシップ関数の高速学習方法について」と題する文
献に詳細な説明がある。
【0021】図1は、ファジィ推論パラメータの調節の
全体構成図である。ファジィ推論機構101は、入力x
=(x1,x2,…,xn)から出力yをファジィ推論により
計算する。調節アルゴリズム102は、出力yと,与え
られた望ましい出力ytの差を最も小さくするようにフ
ァジィ推論機構101に含まれるパラメータを調節す
る。調節するパラメータとしては、メンバシップ関数の
形状やルールの重要度を表す重みなどがある。
【0022】ファジィ推論機構101で実行されるファ
ジィ推論方法には、いくつかの異なる定義があるが、こ
こでは、最も一般的なものとして、例えば「情報処理第
30巻8号第942頁から第947頁(1989年)」
に記載の方法を例にとって説明する。もちろん、これに
より本発明の適用範囲が限定されるものではない。
【0023】まず、ファジィルールは次式のように表現
できる。すなわち、 if x1 is A11 and x2 is A21 and … and xn is An1 then y = B1 if x1 is A12 and x2 is A22 and … and xn is An1 then y = B2 : : if x1 is A1m and x2 is A2m and … and xn is Anm then y = Bm ここで、nは入力変数の数、mは出力変数yに関するフ
ァジィルールの数である。また、Aij は第j番目のファ
ジィルールにおける第i番目の入力変数xi に対するメ
ンバシップ関数、Bjは第j番目のファジィルールにおけ
る出力変数yに対するメンバシップ関数である。Aij,B
j の定義域はそれぞれの独立変数の変域全体、値域は
[0,1]である。
【0024】上式で、ある入力変数xi が無関係な場合
は、その入力変数xi に対するメンバシップ関数Aij
「常に値“1”をとる関数である」と考えればよい。ま
た、異なるファジィルールに現れるメンバシップ関数が
同一のメンバシップ関数であってもよい。
【0025】さて、ある入力変数xiの値がXiの時(xi
=Xiの時)のファジィ推論過程は次のようになる。ま
ず、各ファジィルールの適合度Wj を、 Wj = min(A1j(X1),A2j(X2),…,Anj(Xn)) により算出する。次に、出力変数yのメンバシップ関数
B(y)を、 B(y)= max(W1*B1,W2*B2, ,Wm*Bm) により算出する。最後に、出力値(推論結果)Yを、 Y = ∫y B(y)dy / ∫B(y)dy により算出する。実際には、離散的に、 Y = Σk yk B(yk)/ Σk B(yk) により算出する。ここで、yk(k=0,1,…,K)は、出
力変数yの定義域を適当に分割した代表値である。図2
は、ファジィ推論過程を図示したものである。なお、各
ファジィルールの適合度Wj に重みVjを付けてもよ
い。この場合、 Wj = min(A1j(X1),A2j(X2),…,Anj(Xn))×
Vj となる。
【0026】図3は、ファジィ推論過程を計算ネットワ
ークで表現したものである。301は、入力値に対応す
るノードである。303は、入力変数に関するメンバシ
ップ関数に対応するノードである。304は、min演
算(論理積演算)に対応するノードである。305は、
出力変数に対応するノードである。306は、出力変数
に関するメンバシップ関数に対応するノードである。3
07は、代数積演算に対応するノードである。308
は、max演算(論理和演算)に対応するノードであ
る。309は、乗算演算および加算演算に対応するノー
ドである。310は、加算演算に対応するノードであ
る。311は、除算演算に対応するノードである。Y
は、出力値である。
【0027】次に、調節アルゴリズム102(図1)に
ついて説明する。ここでは、望ましい出力値Yt と実際
の出力値Yの2乗誤差を最小化するようにパラメータ調
節を行うものとする。すなわち、目的関数をE=(Yt−
Y)2とし、Δα∝−∂E/∂αとして最急降下法により
パラメータαの調節を行なう。
【0028】図4は、上記調節アルゴリズムを実現する
処理のフローチャートである。ステップ501では、ス
テップ502〜512を繰り返す。ステップ502で
は、学習データすなわち入力変数値とそれに対する望ま
しい出力値Yt を読み込む。ステップ503では、ステ
ップ502で読み込んだ入力変数値に基づいてファジィ
推論を行ない、図3の計算ネットワークの全てのノード
の出力値Zi を求める。
【0029】ステップ504では、計算ネットワークの
全てのノードを出力側から入力側へたどる。現在到達し
たノードの番号をiとする。ステップ505では、ノー
ドiが計算ネットワークの最後尾にあたる出力ノードか
どうかを判定し、出力ノードならばステップ506を実
行し、そうでなければステップ507を実行する。
【0030】ステップ506では、出力ノードiの出力
Yによる目的関数Eの微分係数δiを求める。すなわ
ち、 δi =∂E/∂Y =−2(yt−y) である。
【0031】ステップ507では、出力ノード以外のノ
ードiの出力Zi による目的関数Eの微分係数δi を求
める。すなわち、 δi =∂E/∂Zi =Σj δj (∂Zj/∂Zi) である。ここで、jは、ノードiの出力Zi を入力にも
つノードである。ノードを出力側から入力側へたどって
いるため、δj は計算済である。
【0032】ステップ508では、全てのパラメータα
に対して、ステップ509とステップ510を実行す
る。ステップ509では、パラメータαを含むノードi
の出力Zi のパラメータαに対する偏微分∂Zi/∂α
を算出する。パラメータαは、ノードiにおける入出力
関係を定めるものであるから、この偏微分は容易に求め
ることが出来る。
【0033】ステップ510では、パラメータαの変更
量Δαを、 Δα=−η (∂E/∂α) −η (∂E/∂Zi)(∂Zi/∂α) −η δi (∂Zi/∂α) により求める。ここで、ηは、適当な比例係数である。
そして、パラメータαの値を、 α=α+Δα により変更する。
【0034】ステップ511では、予め定められた終了
条件が成立するか判定する。例えば、予め定められた回
数だけ上記ステップが実行されたかを判定する。また
は、誤差(Y−Yt )が所定値εより小さくなったかを
判定する。終了条件が成立した場合のみ、ステップ51
2を実行する。ステップ512では、ステップ501の
無限ループから抜け、処理を終了する。
【0035】上記学習処理によりパラメータαの変更量
Δαを求めれば、パラメータαを1つづつ微小変化させ
てファジィ推論を行っていく方法に比べて大幅に計算量
を削減できる。また、この学習処理によれば、ファジィ
推論を多段に組み合わせた多段ファジィ推論においても
同様な学習が可能である。
【0036】図5は、上記学習処理を実行する計算機シ
ステムの構成図である。CPU601は、プログラムに
より定められた手順にしたがって図4で説明した学習処
理を実行する。メモリ602は、プログラムやデータを
記憶する。入力装置603は、キーボードやマウスなど
であり、作業者からのコマンドを受け付ける。表示装置
604は、図4の学習処理の結果などを表示する。以上
の計算機システムは、具体的には、パーソナルコンピュ
ータ,ワークステーション,制御用ミニコンピュータ,
大型汎用計算機などで実現できる。
【0037】−第1実施例− 図6は、本発明の第1実施例の制御システム600の構
成図である。この制御システム600において、601
は、制御対象である。602は、ファジィ制御装置であ
る。まず、ファジィルールおよび初期値としてのメンバ
シップ関数のパラメータをファジィ制御装置602に設
定する。そして、目標Yt を適当な方法により生成し、
ファジィ制御モデル装置602に入力する。この状態
で、目標Yt と制御対象601の出力vを一致させるよ
うに図4の学習処理を実行し、ファジィ制御装置602
のパラメータを調節する。
【0038】これにより、ファジィ制御装置602は、
制御対象601の出力が目標Yt に等しくなるような操
作量uを制御対象601に入力するようになる。従っ
て、目標Yt に追随する制御が行われることとなる。
【0039】制御対象601の特性が時間的に変化する
場合、制御を実行しながら特性の変化に追従するように
ファジィ制御装置602のパラメータを調節することも
出来る(オンライン的学習)。
【0040】−第2実施例− 図7は、本発明の第2実施例の制御システム700の構
成図である。本実施例は、前記従来技術3において 「g
eneral learning architecture」と呼ばれるものに対応
している。この制御システム700において、701
は、制御対象である。702は、ファジィ制御装置であ
る。703は、ファジィ制御装置702の入力を切り替
えるセレクタである。
【0041】まず、ファジィルールおよび初期値として
のメンバシップ関数のパラメータをファジィ制御装置7
02に設定する。また、制御対象701の出力vをファ
ジィ制御装置702に入力する側にセレクタ703をセ
ットしておく。そして、操作量uを適当な方法により生
成し、制御対象701に入力する。
【0042】この状態で、ファジィ制御装置702の出
力yと操作量uを一致させるように図4の学習処理を実
行し、パラメータを調節する。以上の学習をいくつかの
適当な操作量uに対して繰り返すことにより、ファジィ
制御装置702は、制御対象701の逆モデルになる。
【0043】そこで、セレクタ703を目標vt を入力
する側に切り替え、目標vt を入力する。すると、ファ
ジィ制御装置702は、制御対象701の出力が目標v
t に等しくなるような操作量uを制御対象701に入力
する。従って、目標vt に追随する制御が行われること
となる。
【0044】なお、制御対象701を計算機によるシミ
ュレーションモデルに置き換えてもよい。
【0045】制御対象701の特性が時間的に変化する
場合、制御を実行しながら特性の変化に追従するように
ファジィ制御装置702のパラメータを調節することも
出来る。この場合は次のようにする。目標vt をファジ
ィ制御装置702に入力し、制御対象701を制御す
る。この時の制御対象701の出力vをファジィ制御装
置702に入力し、制御対象701を制御する。目標v
t をファジィ制御装置702に入力した時のファジィ制
御装置702の出力yと,出力vをファジィ制御装置7
02に入力した時のファジィ制御装置702の出力y’
の誤差(y−y’)に基づいて図4の学習処理を行う。
但し、オンライン学習においては、応答時間を確保する
ように、図4のステップ511の終了条件を設定しなけ
ればならない。例えば応答時間を最小にするため1回だ
け学習のループを実行することが考えられる。1回だけ
では学習が不十分の可能性があるが、制御対象701の
特性の時間変化が緩やかであれば、徐々に特性変化に追
従させることが出来る。以上の第2実施例のファジィ制
御装置702によれば、最適のメンバシップ関数の決定
を学習処理により自動的に行うことが出来るので、設計
に要する時間を大幅に短縮できる。また、計算ネットワ
ーク表現を用いることにより高速な学習ができるので、
学習に要する計算時間を短縮できる。さらに、オンライ
ン的学習も可能となるので、制御対象の特性が時間的に
変化する場合にも、その変化に追従する制御装置を構成
することが可能となる。また、計算ネットワーク表現に
よる学習の高速化により、オンライン的学習において
も、特性変化への追従が速やかになる効果もある。
【0046】−第3実施例− 図8は、本発明の第3実施例の制御システム800の構
成図である。この制御システム800において、801
は、制御対象である。802は、制御対象801の特性
を模擬するためのファジィ対象モデルである。803
は、制御のためのファジィ制御モデルである。まず、フ
ァジィルールおよび初期値としてのメンバシップ関数の
パラメータをファジィ対象モデル802およびファジィ
制御モデル803に設定する。そして、操作量uを適当
な方法により生成し、制御対象801に入力する。
【0047】この状態で、制御対象801の出力vとフ
ァジィ対象モデル802の出力v’を一致させるように
図4の学習処理を実行し、ファジィ対象モデル802の
パラメータを調節する。以上の学習をいくつかの適当な
操作量uに対して繰り返すことにより、ファジィ対象モ
デル802は、制御対象801の振舞を真似たモデルに
なる。
【0048】次に、ファジィ制御モデル803とファジ
ィ対象モデル802を直列につないだ多段のファジィ推
論システムとする。そして、目標Yt を適当な方法によ
り生成し、ファジィ制御モデル803に入力する。この
状態で、目標Yt とファジィ制御モデル802の出力
v’を一致させるように図4の学習処理を実行し、ファ
ジィ制御モデル803のパラメータを調節する。
【0049】最後に、ファジィ制御モデル803と制御
対象801を直列に接続し、目標Yt を入力する。する
と、ファジィ制御モデル803は、制御対象801の出
力が目標Yt に等しくなるような操作量uを制御対象8
01に入力する。従って、目標Yt に追随する制御が行
われることとなる。
【0050】第3実施例においても、第2実施例で述べ
たオンライン学習が可能である。すなわち、制御対象8
01を動作させるのと並行してファジィ対象モデル80
2も動作させ、制御対象801の出力vとファジィ対象
モデル802の出力v’の誤差(v−v’)に基づいて
ファジィ対象モデル802に含まれるパラメータの学習
を行う。また、これと同時に、目標Yt とファジィ対象
モデル802の出力v’の誤差(Yt −v’)に基づい
てファジィ制御モデル803に含まれるパラメータの学
習を行う。
【0051】なお、ファジィ対象モデル802とファジ
ィ制御モデル803のどちらかをニューラルネットワー
クモデルに置換してもよい。但し、両方をニューラルネ
ットワークモデルにしたものは、本発明の適用外であ
り、従来技術4に記載されている。
【0052】−第4実施例− 図9は、高速道路のトンネル換気制御システムにおい
て、トンネル内の汚染状況を予測するシステムの概念図
である。大型車台数変化,小型車台数変化,車速変化,
車速,自然風変化,自然風,換気操作量変化および現在
汚染量を入力変数とし、ファジィ推論により、汚染量変
化および将来(予測)汚染量を出力変数とする。そし
て、将来(予測)汚染値に基づいてトンネル内のジェッ
トファンや集塵機などの換気装置の制御を行う。
【0053】このモデルにファジィ推論を用いることの
有用性は、第5回産業システムシンポジウム(1988
年)予稿集第23頁から第26頁における「定性的推論
を用いた道路トンネルの換気制御」と題する文献にて実
証されている。
【0054】さて、この例において特徴的なことは、ト
ンネル内の汚染発生機構が記憶効果を持っていることを
考慮し、「汚染貯留量」という内部変数を導入している
ことである。内部変数は、外部からは観測不可能な量で
あり、観測可能な入力変数から求める必要がある。従っ
て、入力変数から内部変数を求め、入力変数と内部変数
から出力変数を求めるということになる。
【0055】図10は、入力変数からファジィ推論によ
って内部変数を求め、入力変数と内部変数とからファジ
ィ推論によって出力変数を求める学習型ファジィ制御装
置1000の構成図である。この学習型ファジィ制御装
置1000において、入力変数uは、大型車台数変化な
どである。内部変数1002は、汚染貯留量である。出
力変数yは、将来(予測)汚染量である。1004は、
入力変数uから内部変数xの変化Δxを求めるファジィ
推論機構である。1005は、入力変数uと内部変数x
とから出力変数yを求めるファジィ推論機構である。
【0056】2つのファジィ推論機構1004,100
5に含まれるパラメータを図4の学習処理により調節で
きるが、ここではそれらパラメータは固定とし、内部変
数xを変えることにより精度のよい制御を行う場合を説
明する。
【0057】図11は、処理のフローチャートである。
ステップ1101では、入力変数u(t)の値を計測す
る。ステップ1102では、ファジィ推論機構1004
により、内部変数変化Δx(t)を算出する。内部変数
変化Δx(t)が得られると、 x(t)=x(t−Δt)+Δx(t) により内部変数x(t)が得られる。ステップ1103
では、ファジィ推論機構1005により、入力変数u
(t)および内部変数x(t)から出力変数y(t+Δ
t)を求める。ステップ1104では、出力変数y(t
+Δt)すなわち将来(予測)汚染量に基づいて換気装
置の制御を行う。
【0058】ステップ1105では、時刻(t+Δt)
における実際の汚染量の計測が可能になるまでウェイト
する。ステップ1106では、時刻(t+Δt)におけ
る現在汚染量を計測する。これをy’(t+Δt)とす
る。ステップ1107では、時刻tにおけるファジィ推
論機構1005の出力y(t+Δt)が実際に計測され
た現在汚染量y’(t+Δt)に近づくように内部変数
x(t)を調節する。この処理の詳細は図11により後
述する。ステップ1108では、時刻を単位ステップ進
めるため、 t←t+Δt x(t+Δt)←x(t) とする。
【0059】図12は、図11のステップ1107の詳
細フローチャートである。ステップ1201では、ダミ
ー内部変数x’の初期値をxとする。ステップ1202
では、ステップ1203〜1206を繰り返す。ステッ
プ1203では、ファジィ推論機構1005に入力変数
u(t)とダミー内部変数x’を入力してファジィ推論
を行い、出力yを求める。ステップ1204では、図4
と同様の処理により誤差(y−y’)の逆伝播を行い、
ダミー内部変数x’による出力yの偏微分係数∂y/∂
x’を求める。
【0060】ステップ1205では、 x’←x’−η(y−y’)(∂y/∂x’) とし、ダミー内部変数x’を更新する。ステップ120
6では、終了条件が成立すればステップ1202のルー
プを脱出してステップ1207を実行する。そうでなけ
ればステップ1203に戻って処理を繰り返す。終了条
件としては、例えばη(y−y’)∂y/∂x’が予め
定められた値よりも小さくなったかが考えられる。ステ
ップ1207では、内部変数xにダミー内部変数x’を
入れて処理を終了する。以上の処理により、出力yが計
測値y’に一致するような内部変数xが求められること
になり、いわば逆ファジィ推論が実行されることにな
る。
【0061】図11および図12の処理を繰り返しなが
ら制御を行うことにより、内部変数の値xが正しい値に
近づいていくことが期待され、その結果精度のよい出力
が得られるようになる。また、制御を行いながら制御対
象の時間変化に適応した制御が可能になる。具体的に
は、「汚染量の予測」−「実際の汚染量の計測」のサイ
クルを繰り返しながら汚染貯留量を適正化し、次第に正
確な予測ができるようになる。
【0062】なお、ファジィ推論機構1004,100
5を学習の対象としてもよい。また、ファジィ推論機構
1004,1005のいずれか又は両方をニューラルネ
ットワークで置き換えてもよい。
【0063】−第5実施例− 図13は、本発明の第5実施例のプラントなどの監視シ
ステム1300の構成図である。このプラントなどの監
視システム1300は、オンライン的に学習するファジ
ィ対象モデル1302によってプラントなどの制御対象
1301の状態監視を行う。制御装置1303は、目標
量と制御対象1301の出力vとにより操作量uを出力
し、制御対象1301を制御している。ファジィ対象モ
デル1302は、従来公知のファジィシステム構築支援
ツールを利用して構築された後、先述の第2実施例と同
様にオンライン的に学習し、制御対象1301を正確に
モデリングする。なお、プラントの定常運転と並行して
学習を行えるなら、数学的最適化手法などの一般的な学
習アルゴリズムを用いて学習を行ってもよい。
【0064】オペレータコンソール1304は、学習に
よって変化したメンバシップ関数形状を表示する。この
表示は、学習における処理サイクルと同期し、プラント
の状態変化に追従して時々刻々と変化する。また、オペ
レータコンソール1304は、メンバシップ関数形状を
チェックし、制約条件にひっかかる場合はアラーム情報
を報知し、オペレータの注意を喚起する。
【0065】図14は、処理のフローチャートである。
ステップ1401では、オペレータコンソール1304
におけるメンバシップ関数表示領域の確保,初期値とし
てのメンバシップ関数形状パラメータの読み込み,表示
対象メンバシップ関数の登録,アラーム情報を報知する
制約条件の登録などの初期化処理を行う。ステップ14
02では、ステップ1403〜ステップ1409を繰り
返す。
【0066】ステップ1404では、図4の学習処理に
よりファジィ対象モデル1302に含まれるメンバシッ
プ関数の学習を行う。リアルタイムにメンバシップ関数
形状を表示するため、図4のステップ511における終
了条件は、「ステップ501のループが所定回数実行さ
れたこと」とする。ステップ1405では、学習によっ
て変化したメンバシップ関数形状をオペレータコンソー
ル1304に表示する。
【0067】ステップ1406では、学習によって変化
したメンバシップ関数形状パラメータが制約条件にひっ
かかるかチェックする。制約条件にひっかかる場合、ス
テップ1407を実行する。制約条件にひっかからない
場合、ステップ1408を実行する。ステップ1407
では、制約条件にひっかかるメンバシップ関数形状,そ
のメンバシップ関数を含むファジィルール,対応する変
数名をオペレータコンソール1304に表示する。ま
た、テキストまたはベル音またはコンソール上の点滅図
形などによりアラームメッセージを報知する。ステップ
1408では、オペレータの指示がなされたか判定す
る。オペレータの指示がなされた場合、ステップ140
9を実行する。オペレータの指示がなされなかった場
合、ステップ1404に戻る。ステップ1409では、
オペレータの指示に対応した処理を実行する。例えば、
制御を自動からマニュアルに変更したり,プラントの状
態の監視モードに移行したり,プラントを緊急停止した
り,表示するメンバシップ関数またはファジィルールを
変更するなどである。
【0068】図15は、指定されたファジィルールに関
係する複数のメンバシップ関数形状を表示する例であ
る。この例では、ルール番号15の「If 小型車台数
が大きい かつ 車速変化 が 小さい ならば 汚
染量変化 は やや大きい」というファジィルールが指
定されている。図15の上段には、ファジィルールの前
件部に対応するメンバシップ関数形状を表示する。点線
は初期値として設定されたメンバシップ関数形状であ
り、実線は現在のメンバシップ関数形状である。図14
のステップ1402のループが実行されるたびに実線の
メンバシップ関数形状が変化する。点線と実線のメンバ
シップ関数形状を比較することにより、現在のプラント
状態がどうなっているか,どういう方向に変化しつつあ
るかが容易に把握できる。なお、点線のメンバシップ関
数形状として、例えば1時間前のメンバシップ関数形状
を用いたり,毎日のプラント立ち上げ時のメンバシップ
関数形状を用いてもよい。図15の下段には、ファジィ
ルールの後件部に対応するメンバシップ関数形状を表示
する。点線は基準メンバシップ関数形状であり、実線は
現在のメンバシップ関数形状である。
【0069】図16は、指定された変数に対応するメン
バシップ関数形状を表示する例である。この例では、変
数番号3の入力変数「小型車台数」が指定されている。
点線は初期値として設定されたメンバシップ関数形状で
あり、実線は現在のメンバシップ関数形状である。「小
さい」「普通」「大きい」という複数のメンバシップ関
数を同一座標軸上に表示するため、輝度やカラーを変え
て異なるメンバシップ関数を識別しやすくする。なお、
図6のファジィ制御装置602や,図7のファジィ制御
装置702や,図8のファジィ対象モデル802または
ファジィ制御モデル508に対しても、同様にして、メ
ンバシップ関数形状の表示やアラーム情報の報知を行う
ことが出来る。
【0070】−第6実施例− 図17は、本発明の第6実施例のトレーディングサポー
トシステム1600の構成図である。但し、図17は、
システム全体の中で本発明に関わる部分を抜きだした要
部である。トレーディングサポートシステムについて
は、従来技術5に全般的な説明がある。
【0071】ファジィによる株価予測モデル1701
は、現在および過去の株価,株価の移動平均値,取引高
などの観測値In(観測時刻tn)を入力とし、将来の株
価の予測値On+k(将来時刻tn+k)を出力する。このフ
ァジィによる株価予測モデル1701の構築に関して
は、従来技術5に説明されている。バッファ1702
は、k個前の予測値Onすなわち現在時刻tnについての
予測値Onまで蓄えている。ファジィによる株価予測モ
デル1701は、現在時刻tn における実際の株価Tn
と,予測値Onとの誤差を用いて学習を行う。これによ
り、経済状況の変化に追随する精度のよいトレーディン
グサポートシステム1600が得られる。
【0072】ワークステーション1703は、ファジィ
による株価予測モデル1701のメンバシップ関数形状
を表示する。これにより、ディーラーは、現在の株価予
測モデルがどのような状態にあるかを直観的に把握する
ことが可能になるため、予測値On+kをどう解釈すべき
かを容易に且つ的確に判断できるようになる。
【0073】図18は、ファジィによる株価予測モデル
1701の処理のフローチャートである。ステップ18
01では、各種の初期設定を行う。また、添字n=0と
する。
【0074】ステップ1802では、ステップ1803
〜1809を適当な終了条件が成立するまで繰り返す。
【0075】ステップ1803では、時刻tnにおける
観測値Inをオンライン的に又は過去の観測値を格納し
たデータベースから入力する。ステップ1804では、
ファジィによる株価予測モデル1701によって時刻t
n+kにおける予測値On+kを出力する。
【0076】ステップ1805では、バッファ1702
中に過去の時点において予測された現在時刻tnにおけ
る予測値Onがあるか調べる。あるならば、ステップ1
806〜1808を実行する。なければ、ステップ18
09を実行する。ステップ1806では、実測値Tnと
予測値Onの誤差を減少させるようにファジィによる株
価予測モデル1701に含まれるメンバシップ関数のパ
ラメータを変更する。この学習処理には、図4の学習処
理を用いればよいが、リアルタイム性を満足する処理速
度が得られるなら、一般的な学習処理を用いてもよい。
【0077】ステップ1807では、「学習により最も
大きく変化したメンバシップ関数」を選択する。ここ
で、「最も大きく変化したメンバシップ関数」の一つの
例は、初期値として設定されたメンバシップ関数形状パ
ラメータをα0i(i=1,2,…)とし、時刻tn における
メンバシップ関数形状パラメータをαniとしたとき、変
化率δi=(αni−α0i)/α0i が最大となるパラメー
タαni を含むメンバシップ関数である。また、他の例
は、mステップ前の時刻tn-m でのメンバシップ関数形
状パラメータをα(nーm)iとし、時刻tn におけるメンバ
シップ関数形状パラメータをαniとしたとき、変化率δ
i=(αni−α(nーm)i)/α(nーm)i が最大となるパラメ
ータαni を含むメンバシップ関数である。ステップ1
808では、選択されたメンバシップ関数の形状をワー
クステーション1703に表示する。ステップ1809
では、添字n=n+1として時刻を1ステップ進め、次
の予測処理に備える。
【0078】以上のトレーディングサポートシステム1
600によれば、予測値の精度が向上すると共に、現在
どのメンバシップ関数またはどのファジィルールがどの
ように変化しているかが一目で理解できるため、ディー
ラーの判断を支援する上で非常に有効となる。なお、予
測モデルをニューラルネットワークで実現した場合、学
習によってニューラルネットワークの状態がどう変化し
たかを理解することは困難である。
【0079】−第7実施例− 図19は、表示するメンバシップ関数を選択するための
画面例である。画面の下段の表は、図17のファジィに
よる株価予測モデル1701に含まれるファジィルール
の一覧表である。各行がそれぞれファジィルールに対応
し、各列がそれぞれ変数に対応している。画面の上段の
ルーラーは、コマンドボタンである。
【0080】下段の表中のルール番号ボックス1801
をマウスでクリックすれば、そのファジィルールが指定
されたことになり、そのファジィルールに関連するメン
バシップ関数が選択されて表示される(図15)。ま
た、下段の表中の変数名ボックス1802をマウスでク
リックすれば、その変数名が指定されたことになり、そ
の変数に関連するメンバシップ関数が選択されて表示さ
れる(図16)。このように表形式の画面を利用すれ
ば、表示するメンバシップ関数の選択が容易になる。
【0081】−第8実施例− 図20は、メンバシップ関数を定義するための画面例で
ある。領域2001には、メンバシップ関数の型を入力
する。ここでは8種類の型が用意されているので、その
中から選ぶ。領域2002には、メンバシップ関数の定
義域最小値を入力する。領域2003には、メンバシッ
プ関数の定義域最大値を入力する。領域2004には、
メンバシップ関数形状を表示したり,デファジィ処理の
際の重心計算を行うのに必要な定義域分割数を入力す
る。
【0082】領域2005には、定義中のメンバシップ
関数形状が表示される。この領域2005中の任意の位
置をマウスでクリックすれば、その位置がパラメータと
して設定される。黒丸は、パラメータが設定されている
位置である。領域2006には、設定されたパラメータ
の値が表示されている。この領域2006をマウスでク
リックした後、キーボードを用いて値を変化させれば、
パラメータの値を変更できる。領域2005と2006
は連動しており、一方を変更すると他方も変化する。領
域2007には、パラメータの上限値と下限値を入力す
る。値が未設定の場合は、限界値なしとみなす。なお、
上限値または下限値を設定する代りに、変動許容比率
(%)を設定してもよい。
【0083】−第9実施例− 図21,図22は、メンバシップ関数表示の画面例であ
る。これらが図15,図16の例と異なる点は、パラメ
ータが黒丸で明示的に表示されると共に、制約条件がハ
ッチングで表示されている点である。なお、図21のハ
ッチングはパラメータが存在し得る範囲を示し、図22
のハッチングはパラメータが存在し得えない範囲を示し
ている。このような表示をすることにより、現在のメン
バシップ関数形状が制約条件とどういう関係にあるかを
容易に理解できるようになる。また、カラー表示すれ
ば、さらに視認性を向上させることが出来る。
【0084】なお、通常のメンバシップ関数表示は図1
5,図16の例のように行い、アラームメッセージを報
知する時に当該アラームにかかるメンバシップ関数につ
いて図21,図22の例のように表示してもよい。
【0085】
【発明の効果】本発明の学習型ファジィ制御装置および
ファジィ知識表示方法によれば、ファジィ推論を応用し
た制御装置におけるメンバシップ関数のパラメータを、
教師データを用いた学習により、自動的に調節すること
が出来るので、容易に制御性能を向上させることが出来
る。また、計算ネットワークを用いて高速に学習できる
ため、学習に要する時間が少なくて済む。さらに、制御
と並行してオンライン的・リアルタイム的に学習を行う
ことが出来るので、制御対象の特性の時間変化に適応す
る制御性能を得ることが出来る。
【0086】また、適応型制御を行う場合の内部変数の
値を、教師データを用いた学習により、自動的に調節す
ることが出来るので、容易に制御性能を向上させること
が出来る。
【0087】さらに、オンライン的な学習により変化す
るメンバシップ関数を刻々と表示することにより、現在
のファジィ知識の状態およびファジィ知識がどの方向に
変化しつつあるかを知ることが出来るので、システムの
利用者のさまざまな判断を効果的に支援することが可能
になる。
【図面の簡単な説明】
【図1】ファジィ推論パラメータを調節するシステムの
ブロック図。
【図2】ファジィ推論の説明図。
【図3】計算ネットワークによるファジィ推論の表現
図。
【図4】ファジィ推論パラメータの学習処理のフロー
図。
【図5】図4の学習処理を実行する計算機システムの構
成図。
【図6】本発明の第1実施例の構成図。
【図7】本発明の第2実施例の構成図。
【図8】本発明の第3実施例の構成図。
【図9】トンネル換気制御システムの説明図。
【図10】本発明の第4実施例の構成図。
【図11】本発明の第4実施例における学習処理のフロ
ー図。
【図12】図11におけるステップ1107の詳細なフ
ロー図。
【図13】本発明の第5実施例の構成図。
【図14】本発明の第5実施例における処理のフロー
図。
【図15】ルール指定によるメンバシップ関数形状の表
示の例示図。
【図16】変数指定によるメンバシップ関数形状の表示
の例示図。
【図17】本発明の第6実施例の構成図。
【図18】本発明の第6実施例における処理のフロー
図。
【図19】本発明の第7実施例におけるメンバシップ関
数選択画面の例示図。
【図20】本発明の第8実施例におけるメンバシップ関
数定義画面の例示図。
【図21】メンバシップ関数形状と制約条件を同時に表
示した画面の例示図。
【図22】メンバシップ関数形状と制約条件を同時に表
示した画面の例示図。
【符号の説明】
301,302…入力変数に対応するノード、 303…メンバシップ関数に対応するノード、 304…適合度を求めるノード 601…制御対象、602…ファジィ制御装置 701…制御対象、702…ファジィ制御装置、801
…制御対象、 802…ファジィ対象モデル、803…ファジィ制御モ
デル 1004,1005…ファジィ推論機構、x…内部変数 1302…ファジィ対象モデル 1304…オペレータコンソール 1701…ファジィによる株価予測モデル 1703…ワークステーショ

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 ファジィ推論を用いて制御対象の制御を
    行うファジィ制御装置において、 一つまたは複数個のパラメータを含むファジィ推論の手
    順を、一つまたは複数の入力値から所定の手順により出
    力値を計算する複数個のノードと,該ノード間の結合関
    係を表す一つまたは複数個のリンクとからなる計算ネッ
    トワークにより表現し、その計算ネットワークの出力側
    から入力側にノードをたどりながらパラメータを微小変
    化させたときの「制御対象の出力値と望ましい出力値の
    誤差」の変化量を求め、この変化量に基づいて、前記誤
    差を小さくするようにファジィ推論のパラメータを変化
    させるパラメータ調節手段を具備したことを特徴とする
    学習型制御装置。
  2. 【請求項2】 ファジィ推論を用いて制御対象の制御を
    行うファジィ制御装置において、 一つまたは複数個のパラメータを含むファジィ推論の手
    順を、一つまたは複数の入力値から所定の手順により出
    力値を計算する複数個のノードと,該ノード間の結合関
    係を表す一つまたは複数個のリンクとからなる計算ネッ
    トワークにより表現し、その計算ネットワークの出力側
    から入力側にノードをたどりながらパラメータを微小変
    化させたときの「外部入力操作量に対する制御対象の出
    力を入力された場合のファジィ制御装置の出力と前記外
    部入力操作量の誤差」の変化量を求め、この変化量に基
    づいて、前記誤差を小さくするようにファジィ推論のパ
    ラメータを変化させるパラメータ調節手段を具備したこ
    とを特徴とする学習型制御装置。
  3. 【請求項3】 ファジィ推論を用いて制御対象の制御を
    行うファジィ制御装置において、 制御対象と並列に設置され、制御対象の振舞いを近似す
    る対象モデルと、 一つまたは複数個のパラメータを含むファジィ推論の手
    順を、一つまたは複数の入力値から所定の手順により出
    力値を計算する複数個のノードと,該ノード間の結合関
    係を表す一つまたは複数個のリンクとからなる計算ネッ
    トワークにより表現し、その計算ネットワークの出力側
    から入力側にノードをたどりながらパラメータを微小変
    化させたときの「対象モデルの出力値と望ましい出力値
    の誤差」の変化量を求め、この変化量に基づいて、前記
    誤差を小さくするようにファジィ推論のパラメータを変
    化させるパラメータ調節手段とを具備したことを特徴と
    する学習型制御装置。
  4. 【請求項4】 請求項3に記載の学習型制御装置におい
    て、 対象モデルは、ファジィ推論を用いて制御対象の振舞い
    を近似するファジィ対象モデルであり、一つまたは複数
    個のパラメータを含むファジィ推論の手順を、一つまた
    は複数の入力値から所定の手順により出力値を計算する
    複数個のノードと,該ノード間の結合関係を表す一つま
    たは複数個のリンクとからなる計算ネットワークにより
    表現し、その計算ネットワークの出力側から入力側にノ
    ードをたどりながらパラメータを微小変化させたときの
    「同一の入力に対する対象モデルの出力値と制御対象の
    出力値の誤差」の変化量を求め、この変化量に基づい
    て、前記誤差を小さくするようにファジィ推論のパラメ
    ータを変化させるパラメータ調節手段とを具備したこと
    を特徴とする学習型制御装置。
  5. 【請求項5】 制御対象と並列に設置され制御対象の振
    舞いを近似する対象モデルを有する制御装置において、 対象モデルは、ファジィ推論を用いて制御対象の振舞い
    を近似するファジィ対象モデルであり、一つまたは複数
    個のパラメータを含むファジィ推論の手順を、一つまた
    は複数の入力値から所定の手順により出力値を計算する
    複数個のノードと,該ノード間の結合関係を表す一つま
    たは複数個のリンクとからなる計算ネットワークにより
    表現し、その計算ネットワークの出力側から入力側にノ
    ードをたどりながらパラメータを微小変化させたときの
    「同一の入力に対する対象モデルの出力値と制御対象の
    出力値の誤差」の変化量を求め、この変化量に基づい
    て、前記誤差を小さくするようにファジィ推論のパラメ
    ータを変化させるパラメータ調節手段とを具備したこと
    を特徴とする学習型制御装置。
  6. 【請求項6】 請求項1から請求項5のいずれかに記載
    の学習型制御装置において、 パラメータ調節手段は、制御対象の制御の実行と並行し
    てパラメータ調節を行うことを特徴とする学習型制御装
    置。
  7. 【請求項7】 外部変数および内部変数に基づいて制御
    量を生成する制御装置において、 ある外部変数と内部変数とを与えたときの制御量と望ま
    しい制御量の誤差を小さくするように内部変数を変化さ
    せる内部変数調節手段を具備したことを特徴とする学習
    型制御装置。
  8. 【請求項8】 外部変数および内部変数に基づいてファ
    ジィ推論により制御量を生成するファジィ制御装置にお
    いて、 一つまたは複数個のパラメータを含むファジィ推論の手
    順を、一つまたは複数の入力値から所定の手順により出
    力値を計算する複数個のノードと,該ノード間の結合関
    係を表す一つまたは複数個のリンクとからなる計算ネッ
    トワークにより表現し、その計算ネットワークの出力側
    から入力側にノードをたどりながらパラメータを微小変
    化させたときの「制御対象の出力値と望ましい出力値の
    誤差」の変化量を求め、この変化量に基づいて、前記誤
    差を小さくするように内部変数を変化させる内部変数調
    節手段を具備したことを特徴とする学習型制御装置。
  9. 【請求項9】 請求項8に記載の学習型制御装置におい
    て、 制御対象の出力値と望ましい出力値の誤差を小さくする
    ようにファジィ推論のパラメータを変化させるパラメー
    タ調節手段をさらに具備したことを特徴とする学習型制
    御装置。
  10. 【請求項10】 一つまたは複数個のメンバシップ関数
    を含むファジィ推論装置において、 ファジィ推論の出力値と望ましい出力値の誤差を小さく
    するようにメンバシップ関数形状を変更するメンバシッ
    プ関数形状変更手段と、 変更されたメンバシップ関数の一部または全部の形状を
    表示するメンバシップ関数形状表示手段とを設けたこと
    を特徴とするファジィ推論装置。
  11. 【請求項11】 請求項10に記載のファジィ推論装置
    において、 メンバシップ関数形状表示手段は、変更されたメンバシ
    ップ関数形状の中から変更の度合いが大きいものを選択
    して表示することを特徴とするファジィ推論装置。
  12. 【請求項12】 請求項10または請求項11に記載の
    ファジィ推論装置において、 メンバシップ関数形状表示手段は、メンバシップ関数形
    状の表示と同時に、該メンバシップ関数形状の変更範囲
    に対する制約条件を表示することを特徴とするファジィ
    推論装置。
  13. 【請求項13】 請求項10から請求項12のいずれか
    に記載のファジィ推論装置において、 メンバシップ関数形状表示手段は、メンバシップ関数形
    状の変更範囲に対する制約条件にひっかかる変更がなさ
    れた場合にそのメンバシップ関数形状を表示することを
    特徴とするファジィ推論装置。
  14. 【請求項14】 請求項13に記載のファジィ推論装置
    において、 メンバシップ関数形状表示手段は、メンバシップ関数形
    状の変更範囲に対する制約条件にひっかかる変更がなさ
    れた場合にアラームメッセージを報知することを特徴と
    するファジィ推論装置。
  15. 【請求項15】 請求項10から請求項14のいずれか
    に記載のファジィ推論装置において、 メンバシップ関数形状表示手段は、基準となるメンバシ
    ップ関数形状に重ねて現在のメンバシップ関数形状を表
    示することを特徴とするファジィ推論装置。
JP4060047A 1992-03-17 1992-03-17 学習型制御装置およびファジィ推論装置 Pending JPH05265512A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4060047A JPH05265512A (ja) 1992-03-17 1992-03-17 学習型制御装置およびファジィ推論装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4060047A JPH05265512A (ja) 1992-03-17 1992-03-17 学習型制御装置およびファジィ推論装置

Publications (1)

Publication Number Publication Date
JPH05265512A true JPH05265512A (ja) 1993-10-15

Family

ID=13130782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4060047A Pending JPH05265512A (ja) 1992-03-17 1992-03-17 学習型制御装置およびファジィ推論装置

Country Status (1)

Country Link
JP (1) JPH05265512A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007526568A (ja) * 2004-03-04 2007-09-13 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト プロセス制御システム
JP2012024877A (ja) * 2010-07-22 2012-02-09 Toshiba Corp ロボット制御装置
JP2012522307A (ja) * 2009-03-31 2012-09-20 東京エレクトロン株式会社 ツール性能劣化およびミスマッチの検出のための方法およびシステム
WO2015173842A1 (ja) * 2014-05-12 2015-11-19 三菱電機株式会社 パラメータ学習装置およびパラメータ学習方法
WO2019224909A1 (ja) 2018-05-22 2019-11-28 富士通株式会社 パラメータ選択方法、パラメータ選択プログラム、及び情報処理装置
CN115648227A (zh) * 2022-12-27 2023-01-31 珞石(北京)科技有限公司 一种机器人运动轨迹神经网络模糊控制优化方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007526568A (ja) * 2004-03-04 2007-09-13 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト プロセス制御システム
JP2012522307A (ja) * 2009-03-31 2012-09-20 東京エレクトロン株式会社 ツール性能劣化およびミスマッチの検出のための方法およびシステム
JP2012024877A (ja) * 2010-07-22 2012-02-09 Toshiba Corp ロボット制御装置
WO2015173842A1 (ja) * 2014-05-12 2015-11-19 三菱電機株式会社 パラメータ学習装置およびパラメータ学習方法
JPWO2015173842A1 (ja) * 2014-05-12 2017-04-20 三菱電機株式会社 パラメータ学習装置およびパラメータ学習方法
WO2019224909A1 (ja) 2018-05-22 2019-11-28 富士通株式会社 パラメータ選択方法、パラメータ選択プログラム、及び情報処理装置
CN115648227A (zh) * 2022-12-27 2023-01-31 珞石(北京)科技有限公司 一种机器人运动轨迹神经网络模糊控制优化方法

Similar Documents

Publication Publication Date Title
Tian et al. A consensus process based on regret theory with probabilistic linguistic term sets and its application in venture capital
CN108284442B (zh) 一种基于模糊神经网络的机械臂柔性关节控制方法
US11573541B2 (en) Future state estimation device and future state estimation method
JP3637412B2 (ja) 時系列データ学習・予測装置
Castro-Camilo et al. A spliced gamma-generalized Pareto model for short-term extreme wind speed probabilistic forecasting
CN105787587A (zh) 一种基于多元回归的电网系统应急物资需求预测方法
KR950007882B1 (ko) 퍼지 추론 시스템용 멤버쉽 함수 및 퍼지 추론 규정을 자동적으로 발생시키는 장치 및 방법
JPH05265512A (ja) 学習型制御装置およびファジィ推論装置
KR970004105B1 (ko) 계량 경제 모델 시뮬레이션 시스템
JP3214876B2 (ja) ニューラルネットワークの構成方法およびニューラルネットワーク構築支援システム
Lavrov et al. The Methodology of Managed Functional Networks for Organizing Effective and Adaptive Human-Machine Dialogue in Automated Systems.
Fan et al. Survey of the selection and evaluation for dispatching rules in dynamic job shop scheduling problem
Pellegrino THE APPLICATION OF DRIVERS'COGNITIVE RELIABILITY USING FUZZY TECHNIQUES
CN113065686B (zh) 排程数据优化处理方法及装置、设备
JPH08314892A (ja) 計量経済モデルにニューラルネットを適用した金利予測システム
Zuviria et al. SAPM: ANFIS based prediction of student academic performance metric
JP2643295B2 (ja) ファジィ制御演算装置およびファジィ推論方法
Stativko Use of Neuro-Fuzzy Approach in Assessing the Quality of Knowledge
Guzika et al. Organisation of Fuzzy Cognitive Maps Considering Real Parameters of Simulated Systems
Sawaragi et al. An interactive system for modeling and decision support–Shinayakana system approach
WO2023233858A1 (ja) ニューラルネットワークの計算装置及び計算方法
Perry et al. Exploring design space in embodiment design with consideration of models accuracy
JPH06290163A (ja) シミュレーション方法及びシステム
JPH07334070A (ja) プロセスシミュレータ
JP3047990B2 (ja) 知識の評価,更新方法およびそのシステム