JP2553725B2 - Reasoning device - Google Patents

Reasoning device

Info

Publication number
JP2553725B2
JP2553725B2 JP1505696A JP50569689A JP2553725B2 JP 2553725 B2 JP2553725 B2 JP 2553725B2 JP 1505696 A JP1505696 A JP 1505696A JP 50569689 A JP50569689 A JP 50569689A JP 2553725 B2 JP2553725 B2 JP 2553725B2
Authority
JP
Japan
Prior art keywords
inference
input
output
value
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1505696A
Other languages
Japanese (ja)
Inventor
英行 高木
勲 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP1505696A priority Critical patent/JP2553725B2/en
Application granted granted Critical
Publication of JP2553725B2 publication Critical patent/JP2553725B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】 技術分野 本発明は入力データに基づいて、機器制御をしたり、
エキスパートシステムでの推論を行ったり、パターン認
識を行ったりする場合の推論装置に関するものである。
TECHNICAL FIELD The present invention controls equipment based on input data,
The present invention relates to an inference device for performing inference by an expert system or pattern recognition.

背景技術 従来の技術を説明するに当たり、まず、ファジィ推論
の基本概略について機器制御等で用いられるファジィ制
御を例にとって説明する。
2. Description of the Related Art In describing conventional technology, first, a basic outline of fuzzy inference will be described by taking fuzzy control used in device control or the like as an example.

人間の評価が関与する制御システムにおいて、操作者
が主観的・感覚的に判定した変量、たとえば「大き
い」、「中位」、「とても」、「少し」等の変量(これ
をファジィ変数と言う)を用いて最終的な制御操作量を
決定する場合がある。この場合、操作者は自分の経験か
ら得た制御経験に基づいて入力変量から操作量を決定し
ている。ファジィ制御を用いた推論装置では「IF…THEN
…」形式の推論規則に従って、入力変量のファジィ変数
を推論規則のIF部に適用し、その推論規則をどの程度満
たしているかを示す場合(メンバーシップ値)から、TH
EN部での出力のファジィ数を決定している。実際の操作
量は複数の規則による出力のファジイ数の重心値等を取
ることにより、得ることができる。
In a control system involving human evaluation, variables that the operator subjectively and sensorily judge, such as "large,""medium,""very,""little" variables (called fuzzy variables) ) May be used to determine the final control manipulated variable. In this case, the operator determines the operation amount from the input variable based on the control experience obtained from his own experience. In the inference device using fuzzy control, “IF… THEN
Applying a fuzzy variable of an input variable to the IF part of an inference rule according to an inference rule of the form "..." and showing how much the inference rule is satisfied (membership value), TH
The fuzzy number of the output in the EN section is determined. The actual manipulated variable can be obtained by taking the barycentric value of the fuzzy numbers output by a plurality of rules.

さて、このファジィ推論を用いた従来の制御方法の一
つにファジィモデリングがあり、例えば、姜根沢、菅野
道夫、“ファジィモデリング”、計測自動制御学会論文
集vol.23,no.6,pp.650−652,1987年、に示されている。
ファジィモデリングを構成する制御規則においては、IF
部はファジィ命題からなり、THEN部は普通の入出力の線
形関係式からなっている。いま、例えば、一次遅れのタ
ンクモデルを考えると制御偏差e、およびその変化率de
と、制御出力(操作量)uの間の制御規則は次のように
なる。
Now, one of the conventional control methods using this fuzzy inference is fuzzy modeling. For example, Kanezawa, Michio Sugano, "Fuzzy Modeling", Transactions of the Society of Instrument and Control Engineers vol.23, no.6, pp. .650-652, 1987.
In the control rules that make up fuzzy modeling, the IF
The part consists of fuzzy propositions, and the THEN part consists of ordinary linear relations of input and output. Now, for example, considering a first-order lag tank model, the control deviation e and its change rate de
And the control rule between the control output (operation amount) u is as follows.

If e is Zero and de is Positive Medium Then u=0.25e+1.5de 上記のような推論規則は複数個用意され、その全体を
制御規則と呼ぶ。Zero、Positive Mediumなどは規則の
記述に用いる入力のファジィ数を表わすラベルであり、
ファジィ変数である。第1図にその一例を示す。第1図
において、NBはNegative Big、NMはNegative Medium、N
SはNegative Small、Z0はZero、PSはPositive Small、P
MはPositive Medium、PBはPositive Big、を意味してい
る。ここで、X上のファジィ数Fを表わす関数をメンバ
ーシップ関数μ()と呼び、各x0の関数値をメンバー
シップ値μ(x0)と言う。上記の制御規則の一般形は
次式のようになる。
If e is Zero and de is Positive Medium Then u = 0.25e + 1.5de A plurality of inference rules as described above are prepared, and the whole is called a control rule. Zero, Positive Medium, etc. are labels that represent the fuzzy number of inputs used to describe rules,
It is a fuzzy variable. FIG. 1 shows an example thereof. In Figure 1, NB is Negative Big, NM is Negative Medium, N
S is Negative Small, Z0 is Zero, PS is Positive Small, P
M means Positive Medium, PB means Positive Big. Here, the function expressing the fuzzy number F on X is called a membership function μ F (), and the function value of each x 0 is called a membership value μ F (x 0 ). The general form of the above control rule is as follows.

ここで、Rsはs番目規則であることを示し、xjは入力
変数、Aj sはファジィ集合、ysはs番目規則からの出
力、csはTHEN部パラメータである。ある入力(x1 0,x2 0,
…,xm 0)に対する推論結果yは次式で求められる。
Here, R s indicates the sth rule, x j is an input variable, A j s is a fuzzy set, y s is an output from the sth rule, and c s is a THEN part parameter. Some input (x 1 0 , x 2 0 ,
,, x m 0 ), the inference result y is obtained by the following equation.

ここで、nは規則の数、Wsは入力(x1 0,x2 0,…,xm 0
がs番目規則のIF部に当てはまる割合である。ファジィ
集合Asのx0におけるメンバーシップ値を と表わすとWsは次式で表される。
Where n is the number of rules and W s is the input (x 1 0 , x 2 0 , ..., x m 0 ).
Is the ratio that applies to the IF part of the sth rule. The membership value at x 0 of the fuzzy set A s W s is expressed by the following equation.

ファジィモデルの同定は、IF部とTHEN部の構造同定
と、IF部とTHEN部のパラメータ同定との2段階で構成さ
れる。従来の同定法は、(1)IF部のファジィ命題を適
当な命題に定める、(2)Wsを一定に変化させる、
(3)変数減少法でTHEN部の入力変数の中から本当に必
要なものだけを捜す、(4)THEN部のパラメータを最小
二乗法で求める、(5)以上の(2)〜(4)を繰り返
し、最適なパラメータを決める、(6)IF部のファジィ
命題を変える、(7)(2)へ戻り、新しいファジィ命
題の条件での最適なパラメータを繰り返し捜す、であっ
た。つまり、発見方法的な同定アルゴリズムであると言
えよう。
The fuzzy model identification consists of two steps: structure identification of the IF and THEN parts and parameter identification of the IF and THEN parts. In the conventional identification method, (1) the fuzzy proposition of the IF part is set to an appropriate proposition, (2) W s is changed constantly,
(3) Search for only really needed input variables in the THEN part by the variable reduction method, (4) Obtain parameters in the THEN part by the least squares method, (5) and above (2) to (4) Repeatedly, the optimum parameters were determined, (6) changing the fuzzy proposition in the IF section, returning to (7) (2), and repeatedly searching for the optimum parameters under the conditions of the new fuzzy proposition. In other words, it can be said that this is a heuristic identification algorithm.

また、従来の推論装置としては、例えば、第2図のブ
ロック25図に示すようなファジィ推論装置があった。第
2図において、1aはデータ(計測値および人間の評価値
を含む)入力部、2aは表示指示部、3aはファジィ推論演
算部、4aは推論結果出力部、5aは表示部である。表示部
2aはキーボードで構成され、ファジィ推論演算部3aはデ
ジタル計算機で構成されている。データ入力部1aに入力
されたデータはファジィ推論演算部3aで推論演算が施さ
れた結果、推論結果を出力し、同時に表示部5aに推論規
則のリスト、ファジィ変数のリストおよび各種推論規則
の使用状況などが表示されるようになっている。第2図
に示すような従来の推論装置はファジィ推論規則の推論
規則や入力データとしてのファジィ変数はファジィ推論
演算部3aで一定に固定されており、ファジィ変数を変更
する機能は持たない。
As a conventional inference device, for example, there is a fuzzy inference device as shown in block 25 of FIG. In FIG. 2, 1a is a data (including measurement value and human evaluation value) input unit, 2a is a display instruction unit, 3a is a fuzzy inference operation unit, 4a is an inference result output unit, and 5a is a display unit. Display
2a is composed of a keyboard, and the fuzzy inference operation unit 3a is composed of a digital computer. The data input to the data input unit 1a is subjected to the inference operation in the fuzzy inference operation unit 3a, and the inference result is output. At the same time, the display unit 5a uses the inference rule list, the fuzzy variable list and various inference rules. The status is displayed. In the conventional inference apparatus as shown in FIG. 2, the inference rules of the fuzzy inference rules and the fuzzy variables as input data are fixed at the fuzzy inference operation unit 3a, and there is no function to change the fuzzy variables.

上記のファジィモデリングに限らず従来の推論規則決
定方法においては、メンバーシップ関数の決定アルゴリ
ズムが発見的解法に基づいているため、複雑でありかつ
決定すべきパラメータ数も非常に多い。従って、高速に
かつ容易に最適な推論規則を得られなかった。
Not only in the above fuzzy modeling but also in the conventional inference rule determination method, the membership function determination algorithm is based on the heuristic solution method, so it is complicated and the number of parameters to be determined is very large. Therefore, the optimum inference rule cannot be obtained quickly and easily.

また、上記のような第2図の推論装置では、推論規則
の学習機能がないために、入力変数の特性が時間と共に
変化し、当初設定した推論規則では推論精度が悪くなる
という課題に対応できなかった。例えば、「暑ければ○
○に制御する」という推論規則があったしよう。「暑
い」という曖昧な概念は人によっても季節によっても異
なるので、推論装置が学習機能を持ち、使用状況に応じ
て適応的に推論規則を変更できなければ満足のいく制御
はできない。更に、実際には非線形な推論が必要な場合
が多く、従来例の説明で述べたような線形近似を行う方
法では推論精度向上に限界があった。
Further, in the inference apparatus of FIG. 2 as described above, since there is no learning function of the inference rule, the characteristic of the input variable changes with time, and it is possible to cope with the problem that the inference precision becomes worse with the initially set inference rule. There wasn't. For example, "If it's hot, ○
There must be an inference rule that "controls to ○". Since the vague concept of "hot" varies depending on the person and the season, satisfactory control cannot be performed unless the inference device has a learning function and can adaptively change the inference rule according to the usage situation. Further, in reality, non-linear inference is often required, and the method of performing linear approximation as described in the description of the conventional example has a limit in improving inference accuracy.

発明の開示 本発明は従来の問題点を解決するため、神経回路網モ
デルの非線形性を利用して推論装置が非線形の場合にも
高速に対応可能な推論装置を提供することを目的とす
る。 また、神経回路網モデルの非線形性を利用して推
論問題が非線形の場合にも高速に対応可能な推論装置を
提供することを目的とする。この推論装置においては、
神経回路網構成をしたメンバーシップ値決定部が、各推
論規則のIF部に相当するメンバーシップ値を入力変数か
ら推定する。また、この推論装置の個別推論量決定部
が、推論規則のTHEN部に相当する推論量を入力変数から
推定する。そして、最終推論量決定部が入力変数に対す
る各規則毎に推定されたメンバーシップ値と推論量とか
ら総合判断し最終的な推論量を求める。本発明はこのよ
うに動作する推論装置である。
DISCLOSURE OF THE INVENTION In order to solve the conventional problems, it is an object of the present invention to provide an inference apparatus that can cope with a high speed even when the inference apparatus is nonlinear by utilizing the nonlinearity of a neural network model. Another object of the present invention is to provide an inference device that can deal with inference problems at high speed by utilizing the nonlinearity of a neural network model. In this reasoning device,
The membership value decision unit, which has a neural network structure, estimates the membership value corresponding to the IF part of each inference rule from the input variable. Moreover, the individual inference amount determination unit of this inference device estimates the inference amount corresponding to the THEN part of the inference rule from the input variable. Then, the final inference amount determination unit comprehensively judges from the membership value and the inference amount estimated for each rule for the input variable to obtain the final inference amount. The present invention is an inference device that operates in this way.

図面の簡単な説明 第1図はファジィ変数の説明図、第2図は従来の推論
装置の構成図、第3図および第4図はメンバーシップ値
決定部および個別推論量決定部を構成する神経回路網モ
デルの構成図、第5図は線形信号処理部の構成図、第6
図は非線形信号処理部の構成図、第7図は閾値処理部の
入出力特性図、第8図は神経回路網モデルを用いたメン
バーシップ関数の自動決定方法の説明図、第9図は本発
明における一実施例の推論装置の構成図、第10図は実施
例1の動作を説明するための入出力データ構成図、第11
図は実施例1のIF部の各学習データのメンバーシップ値
説明図、第12図は入力変数を削減した場合の推論誤差
図、第13図は実施例1の推論量の推定結果図、第14図は
本発明を大阪湾のCOD濃度推定問題に応用したときの推
定結果図である。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an explanatory diagram of fuzzy variables, FIG. 2 is a block diagram of a conventional inference apparatus, and FIGS. 3 and 4 are nerves constituting a membership value determination unit and an individual inference amount determination unit. FIG. 5 is a configuration diagram of a circuit network model, FIG. 5 is a configuration diagram of a linear signal processing unit, and FIG.
Fig. 7 is a block diagram of the non-linear signal processing unit, Fig. 7 is an input / output characteristic diagram of the threshold value processing unit, Fig. 8 is an explanatory diagram of an automatic determination method of a membership function using a neural network model, and Fig. 9 is a book. FIG. 10 is a configuration diagram of an inference apparatus according to an embodiment of the invention, FIG. 10 is an input / output data configuration diagram for explaining the operation of the first embodiment, and
FIG. 12 is a diagram for explaining the membership value of each learning data in the IF section of the first embodiment, FIG. 12 is an inference error diagram when the input variables are reduced, and FIG. 13 is a result diagram for estimating the inference amount of the first embodiment. FIG. 14 is an estimation result diagram when the present invention is applied to the COD concentration estimation problem in Osaka Bay.

発明を実施するための最良の形態 ここで用いる推論規則決定方法の特徴は、学習機能で
メンバーシップ関数を逐次に決定する点にある。学習機
能の実現方法には色々考えられるが、ここでの一実施例
としては、神経回路網モデルの学習アルゴリズムを用い
ることにする。そこで、実施例の説明をする前に神経回
路網モデルの説明と神経回路網モデルの学習アルゴリズ
ムとを説明する。
BEST MODE FOR CARRYING OUT THE INVENTION A feature of the inference rule determination method used here is that the learning function sequentially determines the membership function. There are various methods for realizing the learning function, but as an example here, a learning algorithm of a neural network model is used. Therefore, the description of the neural network model and the learning algorithm of the neural network model will be described before the description of the embodiment.

神経回路網モデルは脳神経細胞の結合にヒントを得た
数理ネットワークである。回路網を構成するユニット間
の接続強度を逐次学習で決定することにより、経験に基
づかないで推論規則を決定することができる。
The neural network model is a mathematical network inspired by the connection of brain neurons. By determining the connection strength between the units forming the network by sequential learning, it is possible to determine the inference rule without empirical learning.

第3図の回路網は神経回路網モデルの1種類である。
第3図において、100は多入力一出力信号処理部を示
し、101は神経回路網モデルの入力部を表わしている。
第4図に具体的な構成例を示す。第4図は入力変数4個
を入力とし1個の出力値を推定する3段構成の神経回路
網モデルの例であり、各段内相互に結合がなく、かつ上
段の層にのみ信号が伝播される。このような神経回路網
モデルを構成する多入力一出力信号処理部100のうち、
線形演算のみを基本とする線形信号処理部の構成を具体
的に示したものが第5図である。第5図において、1001
は多入力一出力信号処理部100の入力部、1002は入力部1
001からの複数入力を重み付ける重み係数を格納するメ
モリ、1003はメモリ1002の重み係数と入力部1001からの
入力を各々掛け合わせる乗算器、1004は乗算器1003各々
の出力を足し合わせる加算器である。つまり、第5図に
示す多入力一出力信号処理部100は入力部1001への入力
値をx1、メモリ1002に格納されている重み係数をc1とす
れば、 y=Σc1x1 を計算しているわけである。また、第6図は、神経回路
網モデルを構成する多入力一出力信号処理部100のう
ち、非線形演算も行う非線形信号処理部の構成を具体的
に示したものである。第6図において、1000は第5図で
説明した線形信号処理部、2000は線形信号処理部の出力
を一定範囲の値に制限する閾値処理部である。閾値処理
部2000の入出力特性例を第7図に示す。例えば、出力を
(0,1)の範囲に制限する閾値処理部2000の入出力特性
は OUT=1/(1+exp(−IN)) と数式的に表現できる。ここで、INとOUTは閾値処理部2
000の入力と出力である。
The network of FIG. 3 is one type of neural network model.
In FIG. 3, reference numeral 100 represents a multi-input / single-output signal processing unit, and 101 represents an input unit of the neural network model.
FIG. 4 shows a specific configuration example. FIG. 4 is an example of a neural network model with a three-stage configuration in which four input variables are input and one output value is estimated. There is no mutual connection in each stage and the signal propagates only to the upper layer. To be done. Of the multi-input one-output signal processing unit 100 that constitutes such a neural network model,
FIG. 5 specifically shows the configuration of the linear signal processing unit based only on the linear operation. In FIG. 5, 1001
Is the input section of the multi-input / single-output signal processing section 100, and 1002 is the input section 1
A memory that stores a weighting coefficient for weighting a plurality of inputs from 001, 1003 is a multiplier that multiplies the weighting coefficient of the memory 1002 and the input from the input unit 1001, respectively, and 1004 is an adder that adds the outputs of the multipliers 1003. is there. That is, in the multi-input one-output signal processing unit 100 shown in FIG. 5, if the input value to the input unit 1001 is x 1 and the weighting coefficient stored in the memory 1002 is c 1 , then y = Σc 1 x 1 It is calculated. Further, FIG. 6 concretely shows the configuration of the non-linear signal processing unit which also performs non-linear operation in the multi-input one-output signal processing unit 100 constituting the neural network model. In FIG. 6, 1000 is the linear signal processing unit described in FIG. 5, and 2000 is a threshold processing unit that limits the output of the linear signal processing unit to a value within a certain range. FIG. 7 shows an example of the input / output characteristics of the threshold processing unit 2000. For example, the input / output characteristic of the threshold processing unit 2000 that limits the output to the range of (0,1) can be expressed mathematically as OUT = 1 / (1 + exp (−IN)). Here, IN and OUT are threshold processing units 2
000 inputs and outputs.

上記の神経回路網の入出力関係を(1)式で表現す
る。
The input / output relationship of the above neural network is expressed by equation (1).

y=NH(x) (1) なお、実施例の説明では、モデルの規模をk層[u0×
u1×…×uk]で表現するものとする。u1はそれぞれ、入
力層、中間層、出力層の神経細胞モデル数である。以上
が神経回路網モデルの一般的説明である。
y = NH (x) (1) In the description of the embodiment, the scale of the model is k layers [u 0 ×
u 1 × ... × u k ]. u 1 is the number of nerve cell models in the input layer, the intermediate layer, and the output layer, respectively. The above is a general description of the neural network model.

次に神経回路網モデルの学習アルゴリズムについて述
べる。学習アルゴリズムは色々提案されており、その1
つに、backpropagation(D.E.Rumelhart,G.E.Hinton an
d R.J.Williams,“Learning Representations by Back
−Propagating Errors,"Nature,vol.323,pp.533−536,O
ct.9,1986)がある。数学的な証明・定式化は参考文献
に譲るが、基本的には次の通りである。まず、学習デー
タとして入力変数と、他の手段で推定した各推論規則へ
の所属割合値とを組にして多数用意しておく。入力デー
タを神経回路網モデルに入力する。初めはメモリ1002に
は適当な値、例えば乱数値を入れておく。その時の神経
回路網モデルの出力値と推論規則への所属割合値との誤
差を求める。この誤差はメモリ1002の重み係数の関数に
なっているので誤差の重み微分方向へ重み係数を修正す
る。つまり、最急降下法(Steepest Decent Method)に
従って逐次に重みを修正することで誤差を最小にし学習
を行うのである。これがBackpropagationアルゴリズム
を用いた学習方法の概要である。
Next, the learning algorithm of the neural network model will be described. Various learning algorithms have been proposed, part 1
Backpropagation (DERumelhart, GEHinton an
d RJWilliams, “Learning Representations by Back
-Propagating Errors, "Nature, vol.323, pp.533-536, O
ct.9, 1986). The mathematical proof / formulation is given in the reference, but basically it is as follows. First, a large number of input variables and a belonging ratio value to each inference rule estimated by another means are prepared as a set as learning data. Input data into the neural network model. Initially, an appropriate value, for example, a random number value is stored in the memory 1002. The error between the output value of the neural network model at that time and the belonging ratio value to the inference rule is calculated. Since this error is a function of the weighting coefficient of the memory 1002, the weighting coefficient is modified in the weight differential direction of the error. That is, learning is performed by minimizing the error by sequentially correcting the weight according to the steepest decent method. This is an outline of the learning method using the Backpropagation algorithm.

以上の神経回路網モデルおよび学習アルゴリズムを用
いて、推論規則決定方法、および推論量の計算方法を説
明する。
An inference rule determination method and an inference amount calculation method will be described using the above neural network model and learning algorithm.

[ステップ 1] 推論値と高い相関がある入力変数のみを選択し、不要
な入力変数を取り除く。例えば、神経回路網モデルを用
いてこの判定を行う場合は、まず、各入力変数xj,j=1,
2,…,kを神経回路網モデルへ入力し、推論値yiになるよ
う学習する。次に入力変数を1つ減らして同様の学習を
行う。以下同様に、変数減少法を繰り返す。これらの学
習が完了した各神経回路網モデルの出力と推論値yiとの
差を誤差二乗和を評価指標として比較し、最も小さい誤
差になった時の神経回路網モデルの入力変数xj,j=1,2,
…,m,m≦kのみを選択する。
[Step 1] Select only input variables that have a high correlation with the inferred value, and remove unnecessary input variables. For example, when making this determination using a neural network model, first, each input variable x j , j = 1,
Input 2, ..., k to the neural network model and learn so that the inference value becomes y i . Next, the input variable is decreased by one and the same learning is performed. Similarly, the variable reduction method is repeated thereafter. The difference between the output of each neural network model after completion of these learnings and the inference value y i is compared using the error sum of squares as an evaluation index, and the input variable x j of the neural network model when the smallest error is obtained, j = 1,2,
, M, m ≦ k only is selected.

[ステップ 2] 入出力データ(xi,yi)を推論規則の構造同定用デー
タ(以下、TRDと記す。nt個)と推論規則の評価用デー
タ(以下,CHDと記す。no個)とに分割する。n=nt+no
である。
[Step 2] Input / output data (x i , y i ) is data for structure identification of inference rules (hereinafter referred to as TRD. N t pieces) and evaluation data for inference rules (hereinafter referred to as CHD. N o pieces) ) And split. n = n t + n o
Is.

[ステップ 3] TRDを通常のクラスタリング手法を用いて最適なr分
割を行う。r分割された学習データの各組をRs,s=1,2,
…,r、Rsの学習データを とする。ただし、(ntは各RsでのTRDのデータ数を
示す。ここでm次元空間をr分割するということは推論
規則数をr個にすることを意味している。
[Step 3] TRD is subjected to optimum r division using a normal clustering method. R s , s = 1,2,
…, R, R s learning data And However, (n t ) s indicates the number of TRD data at each R s . Here, dividing the m-dimensional space into r means making the number of inference rules r.

[ステップ 4] IF部構造の同定を行う。xiを神経回路網モデルの入力
層の入力値とし、出力層の出力値を、 とする。そして各学習データ(xi,yi)の各Rsに属する
割合wi sを推定するよう神経回路網モデルを学習する。
学習後の神経回路網モデルが出力する値をIF部のメンバ
ーシップ値とする。
[Step 4] Identify the IF structure. Let x i be the input value of the input layer of the neural network model, and the output value of the output layer be And Then, the neural network model is learned so as to estimate the proportion w i s of each learning data (x i , y i ) belonging to each R s .
The value output by the learned neural network model is the membership value of the IF section.

即ち、メンバーシップ関数を、 とする。That is, the membership function is And

となる学習データを改めて、 とする。 The learning data that becomes And

[ステップ 5] THEN部構造の同定を行う。各推論規則のTHEN部構造モ
デルを神経回路網モデルの入出力関係(1)式で表わ
し、TRDの入力値 と出力値yi sを割り付ける。学習によって推論量を推定
する神経回路網モデルを同定する。次に、得られた神経
回路網モデルにCHDの入力値 を代入し、誤差二乗和Θを求める。
[Step 5] The structure of the THEN part is identified. The THEN part structural model of each inference rule is expressed by the input / output relation (1) of the neural network model, and the input value of TRD And output value y i s . A neural network model that estimates the inference amount by learning is identified. Next, input the value of CHD to the obtained neural network model. To obtain the error sum of squares Θ s .

[ステップ 6] 変数減少法を用いて、各推論規則のTHEN部の推論量推
定式に寄与している入力変数のみを選び出す。m個の入
力変数の中で、任意の1個の入力変数を取り除き、ステ
ップ5と同様にTRDを用いてTHEN部毎に神経回路網モデ
ルを同定する。次に、CHDを用いた場合の推論量の推定
誤差二乗和Θm-1 spを計算する。
[Step 6] Using the variable reduction method, only the input variables that contribute to the inference amount estimation formula in the THEN part of each inference rule are selected. An arbitrary one input variable is removed from the m input variables, and the TRD is used to identify the neural network model for each THEN portion as in step 5. Next, the estimation error sum of squares Θ m-1 sp of the inference amount when CHD is used is calculated.

上式から、取り除いた入力変数がTHEN部の決めるのに
どの程度重要であるかがわかる。即ち、 となる場合には取り除いた入力変数xpの重要度は低いと
考えられるので、xpを捨てる。
From the above equation, we can see how important the removed input variables are in determining the THEN part. That is, If so, the input variable x p removed is considered to be of low importance, so x p is discarded.

[ステップ 7] 残りの入力変数の個数をm個としてステップ5と同様
の操作を行う。以下、ステップ5〜ステップ6を繰り返
し、(2)式が全ての入力変数に対して成立しなくなっ
た場合に計算を停止する。Θが最小となるモデルが最
適な神経回路網モデルである。
[Step 7] The same operation as in step 5 is performed with the number of remaining input variables set to m. Hereinafter, steps 5 to 6 are repeated, and when the expression (2) is not satisfied for all input variables, the calculation is stopped. The model with the smallest Θ s is the optimal neural network model.

ステップ1〜ステップ7により、各推論規則毎のIF部
とTHEN部が決定され、ファジィ推論規則の構造同定が終
了する。
Through steps 1 to 7, the IF part and THEN part for each inference rule are determined, and the structural identification of the fuzzy inference rule is completed.

[ステップ 8] 推論量yi は以下の式により得られる。[Step 8] The inference amount y i * is obtained by the following equation.

ysはステップ7で得られた最適な神経回路網モデルにCH
Dを代入した推定値を示す。
y s is the CH in the optimal neural network model obtained in step 7.
The estimated value with D substituted is shown.

神経回路網モデルが第7図のように非線形な特性の集
まりであれば、当然この学習によって自動的に非線形対
象の推論が可能になる。
If the neural network model is a collection of nonlinear characteristics as shown in FIG. 7, it is naturally possible to infer a nonlinear object automatically by this learning.

このように、上記推論規則決定方法で推論規則を決定
すれば、推論対象が非線形関係あるいはあいまいな入出
力関係であっても、学習機能を用いて逐次に推論規則を
決定して行くので、発見的方法を取ることもなく、容易
に、かつ正確に推論規則を得ることができる。
In this way, if the inference rule is determined by the above inference rule determination method, the inference rule is sequentially determined using the learning function even if the inference target is a non-linear relation or ambiguous input / output relation. It is possible to easily and accurately obtain the inference rules without using a specific method.

次に、具体的実験数値を用いて上述した上記推論規則
決定の方法を分かりやすく説明しよう。ここでは近藤
正、“モデルの次数を推定する改良形GMDH"、計測自動
制御学会論文集,vol.22,no.9,pp.928−934,1986年に示
されている簡単な数値例を用いて推論規則を決定し,推
論量を決定した。推論規則決定過程を以下に述べる。
Next, the method of determining the above-mentioned inference rules will be explained in an easy-to-understand manner using concrete experimental numerical values. Here, Tadashi Kondo, “Improved GMDH for estimating model order”, A simple numerical example shown in the Society of Instrument and Control Engineers, vol.22, no.9, pp.928-934, 1986. The inference rule was determined by using this and the inference amount was determined. The inference rule decision process is described below.

[ステップ 1,2] 第10図に入出力データを示す。データ番号1−20は学
習に用いる推論規則の構造決定用データ(TRD)であ
り、データ番号21−40は評価用データ(CHD)である。
したがって、nt=no=20,m=2である。3層[3×3×
3×1]神経回路網モデルで15000回学習して入力変数
の選択を行なった結果、表1の結果が得られた。
[Steps 1 and 2] Figure 10 shows the input and output data. The data numbers 1-20 are structure determination data (TRD) of the inference rules used for learning, and the data numbers 21-40 are evaluation data (CHD).
Therefore, n t = n o = 20, m = 2. 3 layers [3x3x
As a result of learning the 3 × 1] neural network model 15,000 times and selecting input variables, the results shown in Table 1 were obtained.

入力変数x4は加えても取り除いても誤差二乗和に大し
た違いがない。従って、メンバーシップ関数決定にはほ
とんど影響がしないと判断し、以後の実施例では用いな
い。
There is not much difference in the sum of squared errors when the input variable x 4 is added or removed. Therefore, it is determined that the membership function determination is hardly affected, and will not be used in the following examples.

[ステップ 3] 通常のクラスタリング手法を用いてTRDを分割する。
クラスタリングの結果、各学習データは表2のように2
分割可能である。
[Step 3] The TRD is divided using a normal clustering method.
As a result of clustering, each learning data is 2 as shown in Table 2.
It can be divided.

[ステップ 4] 学習データ(xi,yi),i=1,2,…,20のAsに属する割合 をwi s[0,1]の値で推定するために3層[3×3×3×
2]神経回路網モデルを5000回学習し、IF部のファジィ
数Asを得た。この時の推論規則R1に対するIF部のファジ
ィ数A1を第11図に示す。学習データは となる表2の入力データを用いた。
[Step 4] Proportion of learning data (x i , y i ), i = 1,2, ..., 20 belonging to A s To estimate w i s [0,1] with three layers [3 × 3 × 3 ×
2] the neural network model to learn 5000 times to obtain a fuzzy number A s of the IF section. Figure 11 shows the fuzzy number A 1 in the IF part for the inference rule R 1 at this time. The learning data is The input data shown in Table 2 below was used.

同様に、R2に対してもIF部のファジィ数を得る。Similarly, the fuzzy number of the IF part is obtained for R 2 .

[ステップ 5] 各推論規則におけるTHEN部の推論量推定式を求める。
3層[3×8×8×1]神経回路網モデルを20000回学
習した後のΘ4 sは表3のように得られた。
[Step 5] Obtain the inference amount estimation formula of the THEN part in each inference rule.
Θ 4 s after learning the three-layer [3 × 8 × 8 × 1] neural network model 20000 times was obtained as shown in Table 3.

[ステップ 6,7] 推論規則RsのTHEN部の構造モデルから任意の1個の入
力変数を取り除いた場合のΘを求める。3層[2×8
×8×1]神経回路網モデルを10000〜20000回学習した
結果、推論規則R1、R2に対して第12図の誤差二乗和が得
られた。各推論規則毎にステップ5とステップ6を比較
すると 全ての x1を取り除いた場合の となっているので、推論規則1に対してはステップ5の
神経回路網モデルをTHEN部モデルとする。推論規則2に
対しては更に計算を続け、第2段階目の繰り返し計算で
終了する。(x2,x3)入力の神経回路網モデルをTHEN部
モデルとする。得られたファジィモデルは R1: FI x=(x1,x2,x3)is A1 THEN y1=NH1(x1,x2,x3) R2: IF x=(x1,x2,x3)is A2 THEN y2=NN2(x2,x3) となる。こうして得られた規則を実行する推論装置を用
いて、(3)式のyを求めたものが第13図である。
[Steps 6 and 7] Θ s is obtained when an arbitrary one input variable is removed from the structural model of the THEN part of the inference rule R s . 3 layers [2 × 8
× 8 × 1] As a result of learning the neural network model 10000 to 20000 times, the error sum of squares of FIG. 12 was obtained for the inference rules R 1 and R 2 . If you compare step 5 and step 6 for each inference rule, with x 1 removed Therefore, for the inference rule 1, the neural network model of step 5 is used as the THEN part model. The calculation is further continued for the inference rule 2, and the second iteration calculation is completed. Let the neural network model of (x 2 , x 3 ) input be the THEN model. The obtained fuzzy model is R 1 : FI x = (x 1 , x 2 , x 3 ) is A 1 THEN y 1 = NH 1 (x 1 , x 2 , x 3 ) R 2 : IF x = (x 1 , x 2 , x 3 ) is A 2 THEN y 2 = NN 2 (x 2 , x 3 ). FIG. 13 shows y * obtained by the equation (3) using the inference device that executes the rule thus obtained.

なお、この実施例では、ファジィ推論の結果として得
られる推論量を(3)式による重み付き重心を採用した
が、中心値や最大値などを取る方法を用いてもよい。ま
た、本実施例では、Wsの演算式で代数積を用いたが代数
積の代わりにmini演算等のファジィ論理演算を用いても
よい。
In this embodiment, the weighted center of gravity based on the equation (3) is adopted as the inference amount obtained as a result of the fuzzy inference, but a method of taking a central value or a maximum value may be used. Further, in the present embodiment, algebraic products are used in the arithmetic expression of W s , but fuzzy logic operations such as mini arithmetic may be used instead of algebraic products.

上記の推論規則決定方法の手順の中で、特に非線形メ
ンバーシップ関数を自動的に決定する手順について更に
具体的に説明しよう。
In the procedure of the inference rule determination method described above, the procedure for automatically determining the nonlinear membership function will be described more specifically.

似通った入力データには同一推論規則が適用されると
考えるのは自然である。そこで、ステップ3で学習デー
タをクラスラリングする(第8図(a))。これらのク
ラスが1つ1つの推論規則に対応している。例えば、
「IF x1が小さく、かつ、x2が大きければ、THEN…」と
いった推論規則である。第8図(a)の場合この推論規
則がR1〜R3の3個ある。これらのクラスの代表的な点
(入力データの組)では各推論規則にほぼ100%従う
が、境界に近付くにつれ、複数の推論規則の影響を受け
ていくことになる。この割合の関数がメンバーシップ関
数であり、その形状は例えば第8図(c)である。これ
は上から見たメンバーシップ関数の図で斜線部はメンバ
ーシップ関数が交差している領域である。
It is natural to think that the same inference rule applies to similar input data. Therefore, in step 3, the learning data is subjected to the crustraling (FIG. 8 (a)). These classes correspond to each inference rule. For example,
It is an inference rule such as "if IF x 1 is small and x 2 is large, then ...". In the case of FIG. 8 (a), there are three inference rules R 1 to R 3 . The typical point of these classes (input data set) is to follow each inference rule almost 100%, but as it approaches the boundary, it will be influenced by multiple inference rules. The function of this ratio is a membership function, and its shape is, for example, FIG. 8 (c). This is a diagram of the membership function seen from above, and the shaded area is the region where the membership functions intersect.

さてこのようなメンバーシップ関数を作る手順がステ
ップ3・4である。即ち、第8図(b)の神経回路網モ
デルを用意し、入力にIF部の変数値(図の場合x1とx2
を割り当て、出力にその入力値が属する規則番号に1、
その他に0を割り当てて学習させる。神経回路網モデル
の重要な特長の1つに、類似入力には類似出力が対応す
る点がある。学習には、第8図(a)の×点にのみが使
われたが、その近傍であれば同じ出力、つまり同じ推論
規則に従う旨出力してくる。更に、学習を終えた神経回
路網モデルは各推論規則の境界近傍の入力データに対し
ては、それぞれの推論規則に属する割合の最適バランス
値を出力することになる。これがメンバーシップ値で、
言い代えれば、この神経回路網モデルは各推論規則の全
てのメンバーシップ関数を内部に包含したといえる。
The procedure for creating such a membership function is steps 3 and 4. That is, the neural network model of FIG. 8 (b) is prepared, and the variable values of the IF section are input (x 1 and x 2 in the figure).
To the rule number to which the input value belongs to the output,
In addition, 0 is assigned and learned. One of the important features of the neural network model is that similar inputs correspond to similar inputs. Although only the point x in FIG. 8 (a) was used for learning, if it is in the vicinity, the same output, that is, the fact that the same inference rule is followed, is output. Further, the learned neural network model outputs the optimum balance value of the proportions belonging to the respective inference rules with respect to the input data near the boundary of each inference rule. This is the membership value,
In other words, it can be said that this neural network model internally includes all membership functions of each inference rule.

なお、上記推論規則決定の方法の実施例においては神
経回路網の学習アルゴリズムを用いてファジィ推論規則
のメンバーシップ関数を決定したが、もちろん他の学習
アルゴリズムであっても構わない。神経回路網のアルゴ
リズムで述べたBackpropagationアルゴリズムが古典的
な最急降下法に基づいていることからも容易に想像がつ
くように、他の学習方法としては、ニュートン法や共役
傾斜法などの非線形最小化問題の分野で使われている多
くの学習アルゴリズムが容易に考えられる。また、パタ
ーン認識の分野では認識に使う標準パターンを逐次的に
入力パターンに近づける学習方法を用いることは常識に
なっており、このような逐次学習方法を用いてもよい。
Although the membership function of the fuzzy inference rule is determined by using the learning algorithm of the neural network in the embodiment of the method of determining the inference rule, other learning algorithms may be used. As can be easily imagined from the fact that the Backpropagation algorithm described in the neural network algorithm is based on the classical steepest descent method, other learning methods include nonlinear minimization such as Newton method and conjugate gradient method. Many learning algorithms used in the problem domain are easily conceivable. Further, in the field of pattern recognition, it is common knowledge to use a learning method in which a standard pattern used for recognition is sequentially brought close to an input pattern, and such a successive learning method may be used.

また、実施例のステップ5ではTHEN部も神経回路網で
構成する場合も説明したが、THEN部は他の方法で表現し
てもよい。例えば、従来の方法で述べたようなファジィ
モデリングを使えば、非線形表現という点で第1の実施
例とは違い生じるが、IF部に神経回路網モデルのような
学習機能を組み込んであれば、推論規則のファジィ数を
学習機能で逐次に自動決定するという本質は損なわれな
い。
Further, in the step 5 of the embodiment, the case where the THEN part is also constituted by the neural network has been described, but the THEN part may be expressed by another method. For example, if the fuzzy modeling as described in the conventional method is used, it is different from the first embodiment in the point of nonlinear expression, but if a learning function such as a neural network model is incorporated in the IF part, The essence of sequentially and automatically determining the fuzzy number of the inference rule by the learning function is not impaired.

また、上記実施例ではファジィ推論規則のメンバーシ
ップ関数の自動形成という表現を用いている。この特殊
な場合が古典的なエキスパートシステムで用いられてい
るプロダクションルールの場合である。この場合であれ
ば、推論規則の信頼度を自動形成するという表現の方が
理解しやすいであろう。しかし、これも上記推論規則決
定の方法における実施例の特殊な場合に過ぎない。
Further, in the above embodiment, the expression of automatically forming the membership function of the fuzzy inference rule is used. This special case is the case of production rules used in classical expert systems. In this case, it may be easier to understand the expression of automatically forming the reliability of the inference rule. However, this is also only a special case of the embodiment in the method of determining the inference rule.

次に、上記推論規則決定方法で得られた推論規則に基
づいて推論を行う本発明についてその実施例を述べる。
第9図は本発明の推論装置の第1の実施例における構成
図を示すものである。第1図において、1は各推論規則
のIF部のメンバーシップ値を求めるメンバーシップ値決
定部、2は各推論規則のTHEN部で求めるべき推論量を決
定する個別推論量決定部、3は個別推論量決定部2から
の出力とメンバーシップ値決定部1の出力から最終的な
推論量を決定する最終推論量決定部である。21〜2rは推
論規則1〜推論規則rの各々に基づいて推論量を決める
個別推論量決定部21の内部構成である。ここで、メンバ
ーシップ値決定部1、および、個別推論量決定部21〜2r
は第3図に示すような多段の回路網的構成をしている。
Next, an embodiment of the present invention that performs inference based on the inference rule obtained by the above inference rule determination method will be described.
FIG. 9 shows a block diagram of a first embodiment of the inference apparatus of the present invention. In FIG. 1, 1 is a membership value determination unit that determines the membership value of the IF portion of each inference rule, 2 is an individual inference amount determination unit that determines the inference amount that should be obtained in the THEN portion of each inference rule, and 3 is an individual It is a final inference amount determination unit that determines the final inference amount from the output from the inference amount determination unit 2 and the output from the membership value determination unit 1. 21 to 2r are internal configurations of the individual inference amount determination unit 21 which determines the inference amount based on each of the inference rules 1 to r. Here, the membership value determination unit 1 and the individual inference amount determination units 21 to 2r
Has a multistage circuit network structure as shown in FIG.

入力値xi〜xmが本発明の推論装置に入力されると、メ
ンバーシップ値決定部1はこれらの入力値が各推論規則
を満たす割合を出力する。このメンバーシップ値決定部
1は予め上記推論規則決定方法で述べた手順に従って学
習を済ませてある。また、個別推論量決定部21はこれら
の入力値が推論規則1に従うとした場合の推論量を出力
する。以下同様に、個別推論量決定部21〜2rは推論規則
2〜rに従うとした場合の推論量を出力する。最終推論
量決定部3は、メンバーシップ値決定部1と個別推論量
決定部2から最終的な推論結果を出力する。その決定方
法は、例えば、(3)式を用いる。
When the input values x i to x m are input to the inference apparatus of the present invention, the membership value determination unit 1 outputs the ratio of these input values satisfying each inference rule. The membership value determining unit 1 has already learned in accordance with the procedure described in the inference rule determining method. Further, the individual inference amount determination unit 21 outputs the inference amount when these input values follow the inference rule 1. Similarly, the individual inference amount determining units 21 to 2r output the inference amount when the inference rules 2 to r are followed. The final inference amount determination unit 3 outputs the final inference result from the membership value determination unit 1 and the individual inference amount determination unit 2. For the determination method, for example, equation (3) is used.

第6図および第7図からも明らかなように、神経回路
網モデルを構成する多入力一出力信号処理部100の入出
力関係は非線形である。従って、神経回路網モデルその
ものも非線形推論を行なうことができる。従って本発明
の推論装置は、線形近似ではできなかった高い推論精度
を実現することができる。
As is clear from FIGS. 6 and 7, the input / output relationship of the multi-input / output signal processing unit 100 forming the neural network model is non-linear. Therefore, the neural network model itself can also perform non-linear inference. Therefore, the inference apparatus of the present invention can realize high inference accuracy that cannot be achieved by linear approximation.

具体的応用例で本発明のこの高い推論精度を示す。応
用例は1976年4月〜1979年3月まで大阪湾で測定した5
個の測定パラメータからCOD(化学的酸素要求量:Chemic
al Oxygen Demond)濃度を推定する問題である。
A concrete application example demonstrates this high inference accuracy of the present invention. Application example was measured in Osaka Bay from April 1976 to March 1979. 5
COD (Chemical oxygen demand: Chemic
al Oxygen Demond) This is a problem of estimating the concentration.

5個の測定パラメータとは(1)水温(℃)、(2)
透明度(m)、(3)DO濃度(ppm)、(4)塩分濃度
(%)、(5)濾過したCOD濃度(ppm)である。これら
のデータのうち、1976年4月から1978年12月までの32組
のデータを用いて学習し、残り12個を学習後の評価用デ
ータとした。本発明が推定した結果(実線)と実際のCO
D濃度の測定値(点線)を第14図に示す。大変よい推定
結果と言えよう。
The five measurement parameters are (1) water temperature (° C), (2)
It is transparency (m), (3) DO concentration (ppm), (4) salt concentration (%), and (5) filtered COD concentration (ppm). Of these data, 32 sets of data from April 1976 to December 1978 were used for learning, and the remaining 12 were used as evaluation data after learning. Results estimated by the present invention (solid line) and actual CO
The measured D concentration (dotted line) is shown in FIG. This is a very good estimation result.

このように本発明の推論装置における第1の実施例に
よれば、少なくともネットワーク接続された複数の多入
力一出力信号処理部から構成されるメンバーシップ値決
定部と、同じく少なくともネットワーク接続された複数
の多入力一出力信号処理部から構成される個別推論量決
定部とを設けることにより、学習機能を持ち、入力変数
に非線形に対応した推論量を決定することができる。
As described above, according to the first embodiment of the inference apparatus of the present invention, the membership value determination unit including at least a plurality of network-connected multiple-input / one-output signal processing units, and at least the network-connected plurality of membership value determination units. By providing the individual inference amount determination unit composed of the multi-input / one-output signal processing unit, the inference amount having a learning function and capable of nonlinearly corresponding to the input variable can be determined.

本発明の推論装置の第2の実施例としては、予め得ら
れた神経回路網モデルの入出力関係をメモリに保持して
おき、毎回直接神経回路網モデルを実行する代わりにメ
モリを参照することでも近似的な推論ができる。第1の
実施例においてメンバーシップ値決定部と個別推論量決
定部は神経回路網モデルの構成をしているとしたが、事
前に入力変数が明らかな場合や多少の近似をしても構わ
ないとするならば、学習アルゴリズムで決定された神経
回路網モデルから予め入出力の対応表を作ることができ
る。推論規則実行時にこの対応表を参照することでメン
バーシップ値決定部または個別推論量決定部の代用を行
なう第2の実施例では上記推論規則決定方法を組み込ん
で学習機能を持たせることはできなくなるが、第5図の
ような回路構成が不要になるので安価で小型の推論装置
を実現することが可能になる。また、非線形に対応した
推論は本発明の推論装置の第1の実施例と同様に行なう
事ができる。
As a second embodiment of the inference apparatus of the present invention, the input / output relationship of the neural network model obtained in advance is held in the memory, and the memory is referred to instead of directly executing the neural network model each time. But approximate reasoning is possible. In the first embodiment, the membership value deciding unit and the individual inference amount deciding unit are configured as the neural network model. However, when the input variables are known in advance or some approximation may be made. Then, the input / output correspondence table can be created in advance from the neural network model determined by the learning algorithm. In the second embodiment, which substitutes the membership value deciding unit or the individual inference amount deciding unit by referring to this correspondence table at the time of executing the inference rule, it becomes impossible to incorporate the above-mentioned inference rule deciding method to have a learning function. However, since the circuit configuration as shown in FIG. 5 is unnecessary, it is possible to realize an inexpensive and small inference device. Further, the inference corresponding to the non-linearity can be performed in the same manner as in the first embodiment of the inference apparatus of the present invention.

このように第2の実施例によれば、少なくともメンバ
ーシップ値決定部または個別推論量決定部が、少なくと
もネットワーク接続された複数の多入力一出力信号処理
部から構成される推論部の入出力特性を予め保持したメ
モリとメモリ参照部とから構成されることにより、簡単
な回路構成で、入力変数に非線形に対応した推論量を決
定することができる。
As described above, according to the second embodiment, at least the membership value determining unit or the individual inference amount determining unit includes at least the input / output characteristics of the inference unit including a plurality of network-connected multiple input / output signal processing units. By including the memory that holds in advance and the memory reference unit, it is possible to determine the inference amount that nonlinearly corresponds to the input variable with a simple circuit configuration.

産業上の利用分野 以上説明したように、本発明の推論装置によれば、推
論対象が非線形であっても精度良く推論ができるので、
これらの実用的価値には大なるものがある。
INDUSTRIAL APPLICABILITY As described above, according to the inference apparatus of the present invention, inference can be performed accurately even if the inference target is nonlinear.
The practical value of these is enormous.

フロントページの続き (56)参考文献 前田、村上゛自己調整ファジイコント ローラ″計測自動制御学会論文集、Vo l.24,No.2,PP.191−197 林、高木゛神経回路網モデルによるフ ァジイ推論定式化″第4回ファジイシス テムシンポジウム、PP.50−60 (1988) H.Takagi゛NN−drive n Fazzy Reasonin g,″Int’l J.of Appr oximate Reasoning (Special Issue of IIZUKA’88)Vol.5,No. 3,PP.191−212(1991)Continuation of the front page (56) References Maeda, Murakami "Self-adjusting Fuzzy Controller" Proceedings of the Society of Instrument and Control Engineers, Vol. Fuzzy Reasoning Formulation "4th Fuzzy System Symposium, PP. 50-60 (1988) H.M. Takagi NN-drive Fuzzy Reasoning, "Int'l J. of Approximate Reasoning (Special Issue of IIZUKA'88) Vol. 5, No. 3, 991-212.

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】ファジィ推論規則のIF部に相当するメンバ
ーシップ関数の値を入力値から決定するメンバーシップ
値決定部と、 前記ファジィ推論規則のTHEN部出力に相当する操作量を
求める個別推定量決定部と、 前記メンバーシップ値決定部の出力と前記個別推定量決
定部の出力とを統合して最終的な制御操作量を決定する
最終推定量決定部とを備え、 前記メンバーシップ値決定部は、所望の入出力関数に基
づき学習されたネットワーク接続からなる複数の多入力
一出力信号処理部から構成される神経回路網であること
を特徴とする推論装置。
1. A membership value deciding unit for deciding a value of a membership function corresponding to an IF part of a fuzzy inference rule from an input value, and an individual estimator for obtaining an operation amount corresponding to an output of a THEN part of the fuzzy inference rule. And a final estimation amount determination unit that integrates the output of the membership value determination unit and the output of the individual estimated amount determination unit to determine a final control operation amount, the membership value determination unit Is a neural network composed of a plurality of multi-input / single-output signal processing units having network connections learned based on desired input / output functions.
【請求項2】ファジィ推論規則のIF部に相当するメンバ
ーシップ関数の値を入力値から決定するメンバーシップ
値決定部と、 前記ファジィ推論規則のTHEN部出力に相当する操作量を
求める個別推定量決定部と、 前記メンバーシップ値決定部の出力と前記個別推定量決
定部の出力とを統合して最終的な制御操作量を決定する
最終推定量決定部とを備え、 前記個別推定量決定部は、所望の入出力関数に基づき学
習されたネットワーク接続からなる複数の多入力一出力
信号処理部から構成される神経回路網であることを特徴
とする推論装置。
2. A membership value deciding unit for deciding a value of a membership function corresponding to an IF part of a fuzzy inference rule from an input value, and an individual estimator for obtaining an operation amount corresponding to an output of a THEN part of the fuzzy inference rule. A final estimation amount determination unit that integrates the output of the membership value determination unit and the output of the individual estimation amount determination unit to determine the final control operation amount, and the individual estimation amount determination unit Is a neural network composed of a plurality of multi-input / single-output signal processing units having network connections learned based on desired input / output functions.
【請求項3】ファジィ推論規則のIF部に相当するメンバ
ーシップ関数の値を入力値から決定するメンバーシップ
値決定部と、 前記ファジィ推論規則のTHEN部出力に相当する操作量を
求める個別推定量決定部と、 前記メンバーシップ値決定部の出力と前記個別推定量決
定部の出力とを統合して最終的な制御操作量を決定する
最終推定量決定部とを備え、 前記メンバーシップ値決定部と前記個別推定量決定部と
は、所望の入出力関数に基づき学習されたネットワーク
接続からなる複数の多入力一出力信号処理部から構成さ
れる神経回路網であることを特徴とする推論装置。
3. A membership value deciding unit for deciding a membership function value corresponding to the IF part of the fuzzy inference rule from an input value, and an individual estimator for obtaining an operation amount corresponding to the output of the THEN part of the fuzzy inference rule. And a final estimation amount determination unit that integrates the output of the membership value determination unit and the output of the individual estimated amount determination unit to determine a final control operation amount, the membership value determination unit And the individual estimation amount determining unit is a neural network composed of a plurality of multi-input / single-output signal processing units having network connections learned based on a desired input / output function.
【請求項4】任意のメンバーシップ値決定部または個別
推定量決定部は、所望の入出力関数に基づき学習された
ネットワーク接続からなる複数の多入力一出力信号処理
部から構成される神経回路網の入出力関係を予め計算し
て記憶しておいたメモリを参照することを特徴とする請
求項1〜3のいずれかに記載の推論装置。
4. A neural network composed of a plurality of multi-input / single-output signal processing units, each of which has a network connection learned based on a desired input / output function. The inference apparatus according to any one of claims 1 to 3, wherein a memory in which the input / output relation of is calculated and stored in advance is referred to.
JP1505696A 1988-05-20 1989-05-19 Reasoning device Expired - Fee Related JP2553725B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1505696A JP2553725B2 (en) 1988-05-20 1989-05-19 Reasoning device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP63-124354 1988-05-20
JP12435488 1988-05-20
JP1505696A JP2553725B2 (en) 1988-05-20 1989-05-19 Reasoning device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP8003532A Division JP2813567B2 (en) 1988-05-20 1996-01-12 Inference rule determination apparatus and inference rule determination method

Publications (1)

Publication Number Publication Date
JP2553725B2 true JP2553725B2 (en) 1996-11-13

Family

ID=26461039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1505696A Expired - Fee Related JP2553725B2 (en) 1988-05-20 1989-05-19 Reasoning device

Country Status (1)

Country Link
JP (1) JP2553725B2 (en)

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
H.Takagi゛NN−driven Fazzy Reasoning,″Int’l J.of Approximate Reasoning(Special Issue of IIZUKA’88)Vol.5,No.3,PP.191−212(1991)
前田、村上゛自己調整ファジイコントローラ″計測自動制御学会論文集、Vol.24,No.2,PP.191−197
林、高木゛神経回路網モデルによるファジイ推論定式化″第4回ファジイシステムシンポジウム、PP.50−60(1988)

Similar Documents

Publication Publication Date Title
EP0813127A2 (en) Inference rule determining method and inference device
Boussabaine The use of artificial neural networks in construction management: a review
US5398300A (en) Neural network having expert system functionality
Obaidat et al. A multilayer neural network system for computer access security
Nie et al. Rule-based modeling: Fast construction and optimal manipulation
Verma et al. Gas turbine diagnostics using a soft computing approach
JPH04266153A (en) Neural network
US5255344A (en) Inference rule determining method and inference device
Maeda et al. A fuzzy decision-making method and its application to a company choice problem
Gupta et al. Fuzzy neuro-computational technique and its application to modelling and control
EP0444878B1 (en) Neural network
Yang et al. Analysis and prediction of chaotic time series based on deep learning neural networks
Leng et al. A hybrid learning algorithm with a similarity-based pruning strategy for self-adaptive neuro-fuzzy systems
US20030065633A1 (en) Configuration of interconnected arithmetic elements, and method for the computer-aided determination of a second state of a system in a first state space from a first state of the system in the first state space
JP2553725B2 (en) Reasoning device
JP2813567B2 (en) Inference rule determination apparatus and inference rule determination method
Mosleh Numerical solution of fuzzy differential equations under generalized differentiability by fuzzy neural network
Slim Neuro-fuzzy network based on extended Kalman filtering for financial time series
JPH05128284A (en) Neuro-processor
JP2021012600A (en) Method for diagnosis, method for learning, learning device, and program
USRE36823E (en) Inference rule determining method and inference device
JP2564405B2 (en) Knowledge acquisition method and process operation support method
JP4267726B2 (en) Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device
JP3276035B2 (en) A sequential accelerated learning method for neural network models
JPH0293940A (en) Fuzzy computer

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees