JPH0695882A - Inference device provided with learning function - Google Patents
Inference device provided with learning functionInfo
- Publication number
- JPH0695882A JPH0695882A JP4187022A JP18702292A JPH0695882A JP H0695882 A JPH0695882 A JP H0695882A JP 4187022 A JP4187022 A JP 4187022A JP 18702292 A JP18702292 A JP 18702292A JP H0695882 A JPH0695882 A JP H0695882A
- Authority
- JP
- Japan
- Prior art keywords
- inference
- input
- membership function
- distribution coefficient
- input data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は、学習機能を有する推
論装置に関し、その推論精度の向上に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an inference device having a learning function, and to improvement of inference accuracy.
【0002】[0002]
【従来の技術】従来、ファジイ推論装置のパラメータ
(メンバシップ関数など)を設計する方法として事例ベ
ースの学習方法がある。事例ベースの学習方法とは、推
論の希望出力(教師データ)にファジイ推論装置の出力
を近づけるように学習することにより、パラメータを設
計する学習方法をいう。2. Description of the Related Art Conventionally, there is a case-based learning method as a method for designing parameters (membership function, etc.) of a fuzzy inference device. The case-based learning method is a learning method for designing parameters by learning so that the output of the fuzzy inference apparatus approaches the desired output of inference (teaching data).
【0003】この学習機能を有する推論装置は、教師デ
ータとして与えられた理想的な入力データを学習し、自
動的に推論パラメータの修正を行なう。The inference apparatus having this learning function learns ideal input data given as teacher data and automatically corrects inference parameters.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、従来の
学習機能を有する推論装置においては次のような問題点
があった。However, the inference device having the conventional learning function has the following problems.
【0005】入力データは、そのまま教師データとして
利用されるため、入力データにノイズが含まれている場
合には、不正確な学習となり推論精度が悪くなるという
問題点があった。Since the input data is used as the teacher data as it is, when the input data contains noise, there is a problem that the learning becomes inaccurate and the inference accuracy deteriorates.
【0006】この発明は上記問題を解決し、ノイズの影
響を考慮して学習することによって推論精度を向上させ
ることができる学習機能を有する推論装置を提供するこ
とを目的とする。An object of the present invention is to solve the above problems and to provide an inference apparatus having a learning function capable of improving the inference accuracy by learning in consideration of the influence of noise.
【0007】[0007]
【課題を解決するための手段】請求項1の学習機能を有
する推論装置は、データを入力する入力手段、入力され
たデータが分布の中心からどの程度離れているかを分布
係数として出力する入力分布係数出力手段、メンバシッ
プ関数を記憶するメンバシップ関数記憶手段、ルールを
記憶するルール記憶手段、メンバシップ関数,ルールに
基づいて入力データに対する推論を行なう推論手段、教
師信号を入力する教師信号入力手段、教師信号と推論結
果との誤差および入力分布係数の出力に基づいて、メン
バシップ関数記憶手段に記憶されているメンバシップ関
数を調整するメンバシップ関数調整手段、を備えたこと
を特徴としている。An inference device having a learning function according to claim 1 is an input means for inputting data, and an input distribution for outputting how far the input data is from the center of the distribution as a distribution coefficient. Coefficient output means, membership function storage means for storing membership functions, rule storage means for storing rules, membership functions, inference means for inferring input data based on rules, teacher signal input means for inputting teacher signals , Membership function adjusting means for adjusting the membership function stored in the membership function storage means based on the error between the teacher signal and the inference result and the output of the input distribution coefficient.
【0008】請求項2に係る学習機能を有する推論装置
は、請求項1に係る学習機能を有する推論装置におい
て、入力分布係数の出力に基づいて、入力データがノイ
ズであるか否かを判別するノイズ判別装置、を備えたこ
とを特徴としている。An inference device having a learning function according to a second aspect is the inference device having a learning function according to the first aspect, and determines whether or not the input data is noise based on the output of the input distribution coefficient. It is characterized by including a noise discrimination device.
【0009】を特徴としている。It is characterized by
【0010】[0010]
【作用】この学習機能を有する推論装置は、入力分布係
数出力手段が、入力されたデータが分布の中心からどの
程度離れているかを分布係数として出力する。推論手段
は、メンバシップ関数,ルールに基づいて入力データに
対する推論を行なう。教師信号入力手段は教師信号を入
力する。メンバシップ関数調整手段は、教師信号と推論
結果との誤差および入力分布係数の出力に基づいて、メ
ンバシップ関数記憶手段に記憶されているメンバシップ
関数を調整する。従って、教師信号と推論結果との誤差
だけでなく、入力データの分布係数に対応するノイズの
影響を考慮して学習することができる。In the inference device having this learning function, the input distribution coefficient output means outputs, as a distribution coefficient, how far the input data is from the center of the distribution. The inference means infers the input data based on the membership function and the rule. The teacher signal input means inputs a teacher signal. The membership function adjusting means adjusts the membership function stored in the membership function storage means based on the error between the teacher signal and the inference result and the output of the input distribution coefficient. Therefore, not only the error between the teacher signal and the inference result but also the influence of noise corresponding to the distribution coefficient of the input data can be considered for learning.
【0011】さらに、ノイズ判別装置は、入力分布係数
の出力に基づいて、入力データがノイズであるか否かを
判別する。従って、ノイズの影響が高い入力データの学
習を排除することができる。Further, the noise discriminating device discriminates whether or not the input data is noise based on the output of the input distribution coefficient. Therefore, it is possible to exclude learning of input data that is highly influenced by noise.
【0012】[0012]
【実施例】図1に、この発明の一実施例による学習機能
を有する推論装置の構成を示す。入力手段10はデータ
を入力する。入力分布係数出力手段12は、入力された
データが分布の中心からどの程度離れているかを分布係
数として出力する。メンバシップ関数記憶手段14はメ
ンバシップ関数を記憶する。ルール記憶手段16はルー
ルを記憶する。推論手段18は、メンバシップ関数,ル
ールに基づいて入力データに対する推論を行なう。教師
信号入力手段20は教師信号を入力する。メンバシップ
関数調整手段22は、前記教師信号と推論結果との誤差
および前記入力分布係数の出力に基づいて、メンバシッ
プ関数記憶手段14に記憶されているメンバシップ関数
を調整する。1 shows the structure of an inference apparatus having a learning function according to an embodiment of the present invention. The input means 10 inputs data. The input distribution coefficient output means 12 outputs, as a distribution coefficient, how far the input data is from the center of the distribution. The membership function storage means 14 stores the membership function. The rule storage means 16 stores a rule. The inference means 18 infers the input data based on the membership function and the rule. The teacher signal input means 20 inputs a teacher signal. The membership function adjusting means 22 adjusts the membership function stored in the membership function storage means 14 based on the error between the teacher signal and the inference result and the output of the input distribution coefficient.
【0013】図2に、図1の各手段をCPUによって構
成する場合の、具体的ハードウエアの一例を示す。CP
U30には、ROM32,RAM34,データ入力装置
36,入力分布係数出力装置38,推論出力装置40,
教師信号入力装置42が接続されている。ROM32に
は、推論手段,メンバシップ関数調整手段であるCPU
30の制御プログラムが格納されている。CPU30は
この制御プログラムにしたがって各部を制御する。RA
M34はメンバシップ関数,ルールおよび入力データの
分布係数を記憶している。FIG. 2 shows an example of concrete hardware when each means of FIG. 1 is constituted by a CPU. CP
In U30, ROM 32, RAM 34, data input device 36, input distribution coefficient output device 38, inference output device 40,
The teacher signal input device 42 is connected. The ROM 32 includes a CPU which is an inference means and a membership function adjusting means.
30 control programs are stored. The CPU 30 controls each unit according to this control program. RA
M34 stores membership functions, rules, and distribution coefficients of input data.
【0014】以下、この装置を描かれた数字「1」,
「2」,「3」,・・を判別する装置に適用した場合に
ついて説明する。図4aに、識別の対象の一例として
「1」を示す。この装置は、識別領域を図4aに示すよ
うに領域(A)〜(D)に4分割し、各領域の濃度によ
り数字を判別するものである。図4bに、数字「1」を
4つの領域に分割した場合の(A)領域を示す。この領
域の濃度を計算すると、 (A)領域の濃度=斜線部分の面積/(A)領域の面積 =10(斜線部分のマス目)/64(全マス目) =0.16 同様に、他の(B),(C),(D)領域についても濃
度を計算する。この例では、識別対象を4分割した各領
域の濃度を入力データとする。In the following, the number "1" on which this device is drawn,
The case where the present invention is applied to a device for discriminating "2", "3", ... In FIG. 4a, "1" is shown as an example of the identification target. This device divides the identification area into four areas (A) to (D) as shown in FIG. 4a, and discriminates the number based on the density of each area. FIG. 4b shows the area (A) when the number “1” is divided into four areas. When the density of this area is calculated, the density of the area (A) = area of the shaded area / area of the area (A) = 10 (squares in the shaded area) / 64 (total squares) = 0.16 Concentrations are also calculated for the areas (B), (C), and (D) of. In this example, the density of each area obtained by dividing the identification target into four is used as input data.
【0015】この装置の動作を図3にフローチャートで
示す。まず、データ入力装置36は、領域(A)〜
(D)の濃度データを入力する(ステップS1)。次
に、CPU(推論装置)30は、RAM34に記憶され
ているメンバシップ関数,ルールに基づいて入力データ
に対する推論を行なう(ステップS2)。このCPU
(推論装置)30の推論動作を以下に説明する。The operation of this device is shown in the flow chart of FIG. First, the data input device 36 includes the areas (A) to
The density data of (D) is input (step S1). Next, the CPU (inference device) 30 infers the input data based on the membership function and rules stored in the RAM 34 (step S2). This CPU
The inference operation of the (inference device) 30 will be described below.
【0016】まず、RAM34に記憶されているルール
(イ),(ロ),・・の例を次のように示す。なお、
(A)領域の濃度をx1,(B)領域の濃度をx2,
(C)領域の濃度をx3,(D)領域の濃度をx4とし、
出力をyとする。First, an example of rules (a), (b), ... Stored in the RAM 34 is shown as follows. In addition,
The density of the area (A) is x 1 , the density of the area (B) is x 2 ,
The density of the area (C) is x 3 , the density of the area (D) is x 4, and
Let the output be y.
【0017】 if x1=L,x2=L,x3=L,x4=L then y=「1」 (イ) if x1=L,x2=M,x3=M,x4=L then y=「2」 (ロ) if x1=L,x2=M,x3=M,x4=L then y=「3」 (ハ) if x1=H,x2=L,x3=M,x4=M then y=「4」 (ニ) ・・・ RAM34に記憶されているメンバシップ関数の例を図
5に示す。メンバシップ関数の各節点は、ラベルL(濃
度小)が0.0,0.0,0.2,0.5、ラベルM
(濃度中)が0.2,0.5,0.5,0.7、ラベル
H(濃度大)が0.5,0.7,1.0,1.0のよう
に記憶されている。If x 1 = L, x 2 = L, x 3 = L, x 4 = L then y = “1” (b) if x 1 = L, x 2 = M, x 3 = M, x 4 = L then y = “2” (b) if x 1 = L, x 2 = M, x 3 = M, x 4 = L then y = “3” (c) if x 1 = H, x 2 = L , X 3 = M, x 4 = M theny = “4” (d) ... An example of the membership function stored in the RAM 34 is shown in FIG. Each node of the membership function has a label L (small density) of 0.0, 0.0, 0.2, 0.5 and a label M.
(Medium density) is stored as 0.2, 0.5, 0.5, 0.7, and label H (large density) is stored as 0.5, 0.7, 1.0, 1.0. .
【0018】次に、CPU(推論装置)30は、メンバ
シップ関数の各ラベルの適合度の平均を、そのルールの
適合度とする。同様に、各ルールについて適合度を演算
し、演算結果から適合度の1番高いものを最終的な結果
とする。以上のように、CPU(推論装置)30は推論
動作を行なう。次に、この結果を推論出力装置40から
出力する(ステップS3)。Next, the CPU (reasoning device) 30 takes the average of the goodness of fit of each label of the membership function as the goodness of fit of the rule. Similarly, the goodness of fit is calculated for each rule, and the one with the highest goodness of fit is determined as the final result from the calculation results. As described above, the CPU (inference device) 30 performs the inference operation. Next, this result is output from the inference output device 40 (step S3).
【0019】例えば、ルール(イ)において、「x1=
L」の適合度が0.5,「x2=L」の適合度が0.
8,「x3=L」の適合度が0.9,「x4=L」の適合
度が0.8であるときは、y=「1」である適合度は、
(0.5+0.8+0.9+0.8)/4=0.75に
より0.75になる。同様に、y=「2」である適合度
が0.2,y=「3」である適合度が0.2,y=
「4」である適合度が0.8,・・というように、すべ
ての数字についてその適合度を算出する。これらの適合
度の中で一番高いものを認識結果として選択する。例え
ば、y=「4」の適合度が一番高かったとすれば、y=
「4」が最終的な結果として推論出力装置40から出力
される。For example, in rule (a), "x 1 =
L ”has a goodness of fit of 0.5, and“ x 2 = L ”has a goodness of fit of 0.
8. When the goodness of fit of "x 3 = L" is 0.9 and the goodness of fit of "x 4 = L" is 0.8, the goodness of fit with y = "1" is
(0.5 + 0.8 + 0.9 + 0.8) /4=0.75 gives 0.75. Similarly, the goodness of fit with y = “2” is 0.2, the goodness of fit with y = “3” is 0.2, y =
The suitability for “4” is calculated as 0.8, ... The highest matching score is selected as the recognition result. For example, if the goodness of fit of y = “4” is the highest, y =
“4” is output from the inference output device 40 as the final result.
【0020】ところで、図4aに示すように、認識対象
が「1」であるにもかかわらず、上記のように誤って
「4」であると出力する場合がある。このような場合に
は、教師信号を与え、メンバシップ関数の修正を行なう
必要がある。このような操作を学習と呼んでいる。By the way, as shown in FIG. 4a, although the recognition target is "1", it may be erroneously output as "4" as described above. In such a case, it is necessary to give a teacher signal and correct the membership function. Such an operation is called learning.
【0021】例えば、上記においては次に、教師信号入
力装置42から教師信号として「1」が入力される(ス
テップS4)。仮に、完全な推論が行なわれれば、y=
「1」(ルール(イ))の適合度は1.0となるはずで
ある。次に、CPU30は、これを受けて、推論したy
=「1」(ルール(イ))の適合度0.75と1.0と
の差を推論出力の誤差として演算する(ステップS
5)。For example, in the above, next, "1" is input as a teacher signal from the teacher signal input device 42 (step S4). If perfect inference is made, y =
The suitability of "1" (rule (a)) should be 1.0. Next, the CPU 30 receives this and infers y
= "1" (rule (a)), the difference between the goodness of fit 0.75 and 1.0 is calculated as the error of the inference output (step S
5).
【0022】この推論出力の誤差は、ルール(イ)全体
としての誤差である。ここで、ルール(イ)の前件部の
各条件についての適合度を見てみる。「x1=L」の適
合度は0.5,「x2=L」の適合度は0.8,「x3=
L」の適合度は0.9,「x4=L」の適合度は0.8
であったとする。従って、各条件についての誤差は「x
1=L」が1−0.5=0.5,「x2=L」が1−0.
8=0.2,「x3=L」が1−0.9=0.1,「x4
=L」が1−0.8=0.2となる。この中で一番誤差
の大きいもの「x1=L」が結論の誤差に与えた影響度
が高いと考えられる。ここで、この「x1=L」の誤差
が結論に与える影響度αは、 α=P1/(P1+P2+P3+P4) ここで、P1は0.5,P2は0.2,P3は0.1,P4
は0.2である。The error of this inference output is the error of rule (a) as a whole. Now, let's look at the degree of conformance for each condition in the antecedent part of rule (a). "X 1 = L" has a goodness of fit of 0.5, "x 2 = L" has a goodness of fit of 0.8, and "x 3 = L"
The suitability of "L" is 0.9, and the suitability of "x 4 = L" is 0.8.
It was. Therefore, the error for each condition is "x
1 = L 'is 1-0.5 = 0.5, "x 2 = L" is 1-0.
8 = 0.2, “x 3 = L” is 1−0.9 = 0.1, “x 4
= L ”becomes 1-0.8 = 0.2. It is considered that the one with the largest error, “x 1 = L”, has a high influence on the error of the conclusion. Here, the degree of influence α of the error of “x 1 = L” on the conclusion is α = P 1 / (P 1 + P 2 + P 3 + P 4 ), where P 1 is 0.5 and P 2 is 0. .2, P 3 is 0.1, P 4
Is 0.2.
【0023】従って、 α=0.5/(0.5+0.2+0.1+0.2) =0.5 従って、推論出力に対して「x1=L」が与えた誤差Q1
は、 Q1=Q×α ここで、Qは推論出力の誤差で0.25である。Therefore, α = 0.5 / (0.5 + 0.2 + 0.1 + 0.2) = 0.5 Therefore, the error Q 1 given by "x 1 = L" to the inference output
Q 1 = Q × α where Q is the error of the inference output and is 0.25.
【0024】従って、 Q1=0.5×0.25 =0.125 このように算出された誤差Q1に基づいて、従来はx1に
関するラベルLのメンバシップ関数の修正を行なってい
た。この実施例では、さらに、入力されたデータの入力
分布も考慮に入れてメンバシップ関数の調整を行なうよ
うにしている。以下、この操作について説明する。Therefore, based on the error Q 1 calculated as above, Q 1 = 0.5 × 0.25 = 0.125, the membership function of the label L with respect to x 1 has been conventionally corrected. In this embodiment, the membership function is adjusted in consideration of the input distribution of the input data. Hereinafter, this operation will be described.
【0025】まず、入力分布係数出力装置38は、RA
M34に記憶されている入力データの分布係数βを出力
する(ステップS6)。この入力データの分布係数βは
次のような意味を持つ。First, the input distribution coefficient output device 38 uses the RA
The distribution coefficient β of the input data stored in M34 is output (step S6). The distribution coefficient β of this input data has the following meaning.
【0026】図6に、数字「1」の各サンプルデータに
ついて、各領域の濃度を計算して濃度の分布状態を表わ
したグラフを示す。例えば(A)領域は、中心濃度をx
1=0.16とした分布状態になっている。濃度x1=
0.16のとき分布係数βは1である。中心から濃度が
離れるにしたがって、分布係数βも小さくなっている。
例えば、(A)領域において、x1=0.2の濃度の
入力データD0.2を学習するとする。このときの分布係
数βは0.4である。この場合、図7に示すように、入
力データの(A)領域にノイズNを含んでいるため、濃
度が高くなっていると考えられる。すなわち、図6の入
力データの濃度の分布状態から、入力データの濃度が中
心値より離れて高い場合は、入力データはノイズの影響
を強く受けて分布係数が低くなり、逆に、濃度が中心値
に近い場合は、ノイズの影響は低く分布係数が高くなる
と考えられる。FIG. 6 is a graph showing the distribution state of the densities calculated by calculating the densities of the respective areas for each sample data of numeral "1". For example, in the area (A), the central density is x
The distribution is 1 = 0.16. Concentration x 1 =
When it is 0.16, the distribution coefficient β is 1. The distribution coefficient β also decreases as the concentration increases from the center.
For example, in the area (A), it is assumed that the input data D 0.2 having a density of x 1 = 0.2 is learned. The distribution coefficient β at this time is 0.4. In this case, as shown in FIG. 7, since the noise N is included in the (A) area of the input data, it is considered that the density is high. That is, from the distribution state of the density of the input data in FIG. 6, when the density of the input data is higher than the central value, the input data is strongly affected by noise and the distribution coefficient becomes low. When the value is close to the value, it is considered that the influence of noise is low and the distribution coefficient is high.
【0027】従って、ノイズの影響を強く受けて分布係
数が低い入力データは、理想的なデータではないので学
習に反映させないこととし、ノイズの影響が低く分布係
数が高い入力データは学習に反映させることにする。す
なわち、分布係数βは、入力データがノイズの影響を受
けた度合に応じて、入力データを学習に反映させる係数
の意味を持つものである。Therefore, input data that is strongly influenced by noise and has a low distribution coefficient is not ideal data and is not reflected in learning. Input data that is low in noise and has a high distribution coefficient is reflected in learning. I will decide. That is, the distribution coefficient β has the meaning of a coefficient that reflects the input data in learning according to the degree to which the input data is affected by noise.
【0028】こうして、CPU(メンバシップ関数調整
装置)30は、推論出力の誤差Q1に分布係数βを乗算
して、RAM34に記憶されているメンバシップ関数を
調整する(ステップS7)。従って、入力データD0.2
を学習するときのメンバシップ関数の調整量Wは、 W=Q1×β ここで、「x1=L」が与えた誤差Q1は0.125で、
βは0.4である。In this way, the CPU (membership function adjusting device) 30 multiplies the error Q1 of the inference output by the distribution coefficient β to adjust the membership function stored in the RAM 34 (step S7). Therefore, input data D 0.2
The adjustment amount W of the membership function when learning is W = Q 1 × β where the error Q 1 given by “x 1 = L” is 0.125,
β is 0.4.
【0029】従って、 W=0.4×0.125 =0.05 この調整量Wに基づいて、RAM34に記憶されている
ラベルLのメンバシップ関数μを調整する状態を図8に
示す。適合度0.5におけるメンバシップ関数μの位置
をW=0.05上げる。これにより、メンバシップ関数
μの節点a1は節点a2に移動し、メンバシップ関数μは
μ′に調整される。これに伴って、ラベルMのメンバシ
ップ関数も節点b1を節点b2に移動して調整される。Therefore, W = 0.4 × 0.125 = 0.05 A state in which the membership function μ of the label L stored in the RAM 34 is adjusted based on this adjustment amount W is shown in FIG. The position of the membership function μ at the goodness of fit of 0.5 is increased by W = 0.05. As a result, the node a 1 of the membership function μ moves to the node a 2 and the membership function μ is adjusted to μ ′. Along with this, the membership function of the label M is also adjusted by moving the node b 1 to the node b 2 .
【0030】このメンバシップ関数の調整方法は一例で
あり、他の調整方法(例えば、メンバシップ関数を左右
に平行移動する方法。メンバシップ関数の頂点位置はそ
のままで底辺をずらす方法。ある評価関数を最適にする
ようにメンバシップ関数を調整する方法)により調整し
てもよい。This method of adjusting the membership function is an example, and another adjustment method (for example, a method of moving the membership function in parallel to the left or right. A method of shifting the base of the membership function without changing the vertex position). May be adjusted to optimize the membership function).
【0031】次に、図9に、他の実施例による学習機能
を有する推論装置を示す。この装置は、図1に加えてノ
イズ判別手段24を備えている。ノイズ判別手段24
は、入力分布係数に基づいて入力データがノイズである
か否かを判別する。Next, FIG. 9 shows an inference apparatus having a learning function according to another embodiment. This apparatus is provided with a noise discriminating means 24 in addition to FIG. Noise discrimination means 24
Determines whether the input data is noise based on the input distribution coefficient.
【0032】図10の入力データの入力分布状態におい
て、ノイズ判別手段24は、入力データの濃度が中心値
から一定値(例えば0.3)以上離れる(斜線部S)場
合はノイズが含まれていると判別する。この判別された
入力データは、ノイズの影響度が高いと判断されて学習
に用いられないことになる。In the input distribution state of the input data shown in FIG. 10, the noise discrimination means 24 includes noise when the density of the input data deviates from the central value by a certain value (for example, 0.3) or more (hatched portion S). Determine that there is. The determined input data is not used for learning because it is determined that the degree of influence of noise is high.
【0033】このように、この装置は、入力分布係数出
力手段が、入力されたデータが分布の中心からどの程度
離れているかを分布係数として出力する。推論手段は、
メンバシップ関数,ルールに基づいて入力データに対す
る推論を行なう。メンバシップ関数調整手段は、教師信
号と推論結果との誤差および前記入力分布係数の出力に
基づいて、メンバシップ関数記憶手段に記憶されている
メンバシップ関数を調整する。従って、教師信号と推論
結果との誤差だけでなく、入力データの分布係数に対応
するノイズの影響を考慮して学習することができる。As described above, in this apparatus, the input distribution coefficient output means outputs, as a distribution coefficient, how far the input data is from the center of the distribution. The reasoning means is
Infers input data based on membership functions and rules. The membership function adjusting means adjusts the membership function stored in the membership function storage means based on the error between the teacher signal and the inference result and the output of the input distribution coefficient. Therefore, not only the error between the teacher signal and the inference result but also the influence of noise corresponding to the distribution coefficient of the input data can be considered for learning.
【0034】さらに、ノイズ判別装置は、入力分布係数
の出力に基づいて、入力データがノイズであるか否かを
判別する。従って、ノイズの影響が高い入力データの学
習を排除することができる。Further, the noise discrimination device discriminates whether or not the input data is noise based on the output of the input distribution coefficient. Therefore, it is possible to exclude learning of input data that is highly influenced by noise.
【0035】[0035]
【発明の効果】請求項1の学習機能を有する推論装置
は、入力手段がデータを入力する。入力分布係数出力手
段は、入力されたデータが分布の中心からどの程度離れ
ているかを分布係数として出力する。メンバシップ関数
記憶手段はメンバシップ関数を記憶する。ルール記憶手
段はルールを記憶する。推論手段は、メンバシップ関
数,ルールに基づいて入力データに対する推論を行な
う。教師信号入力手段は教師信号を入力する。メンバシ
ップ関数調整手段は、前記教師信号と推論結果との誤差
および前記入力分布係数の出力に基づいて、メンバシッ
プ関数記憶手段に記憶されているメンバシップ関数を調
整する。従って、教師信号と推論結果との誤差だけでな
く、入力データの分布係数に対応するノイズの影響を考
慮して学習することができる。これにより、ノイズの影
響を考慮して学習することによって推論精度を向上させ
る学習機能を有する推論装置を提供することができる。According to the inference device having the learning function of the first aspect, the input means inputs data. The input distribution coefficient output means outputs, as a distribution coefficient, how far the input data is from the center of the distribution. The membership function storage means stores the membership function. The rule storage means stores a rule. The inference means infers the input data based on the membership function and the rule. The teacher signal input means inputs a teacher signal. The membership function adjusting means adjusts the membership function stored in the membership function storage means based on the error between the teacher signal and the inference result and the output of the input distribution coefficient. Therefore, not only the error between the teacher signal and the inference result but also the influence of noise corresponding to the distribution coefficient of the input data can be considered for learning. As a result, it is possible to provide an inference device having a learning function of improving the inference accuracy by learning in consideration of the influence of noise.
【0036】請求項2の学習機能を有する推論装置は、
さらに、ノイズ判別装置が、入力分布係数の出力に基づ
いて、入力データがノイズであるか否かを判別する。従
って、ノイズの影響が高い入力データの学習を排除する
ことができる。An inference device having a learning function according to claim 2 is
Further, the noise discrimination device discriminates whether or not the input data is noise based on the output of the input distribution coefficient. Therefore, it is possible to exclude learning of input data that is highly influenced by noise.
【図1】この発明の一実施例による学習機能を有する推
論装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of an inference device having a learning function according to an embodiment of the present invention.
【図2】この発明の一実施例による学習機能を有する推
論装置のブロック図を示す。FIG. 2 shows a block diagram of an inference device having a learning function according to an embodiment of the present invention.
【図3】この発明の一実施例による学習機能を有する推
論装置のフローチャートを示す図である。FIG. 3 is a diagram showing a flowchart of an inference device having a learning function according to an embodiment of the present invention.
【図4】数字「1」の識別の一例を示す図である。FIG. 4 is a diagram showing an example of identification of a numeral “1”.
【図5】メンバシップ関数を示す図である。FIG. 5 is a diagram showing a membership function.
【図6】入力データの分布状態の一例を示す図である。FIG. 6 is a diagram showing an example of a distribution state of input data.
【図7】ノイズを示す図である。FIG. 7 is a diagram showing noise.
【図8】メンバシップ関数のノイズの影響を考慮した調
整を示す図である。FIG. 8 is a diagram showing adjustment in consideration of the influence of noise on a membership function.
【図9】他の実施例による学習機能を有する推論装置の
構成を示す図である。FIG. 9 is a diagram showing a configuration of an inference device having a learning function according to another embodiment.
【図10】入力データの分布状態の一例を示す図であ
る。FIG. 10 is a diagram showing an example of a distribution state of input data.
10・・・入力手段 12・・・入力分布係数出力手段 14・・・メンバシップ関数記憶手段 16・・・ルール記憶手段 18・・・推論手段 20・・・教師信号入力手段 22・・・メンバシップ関数調整手段 10 ... Input means 12 ... Input distribution coefficient output means 14 ... Membership function storage means 16 ... Rule storage means 18 ... Inference means 20 ... Teacher signal input means 22 ... Member Ship function adjusting means
Claims (2)
かを分布係数として出力する入力分布係数出力手段、 メンバシップ関数を記憶するメンバシップ関数記憶手
段、 ルールを記憶するルール記憶手段、 メンバシップ関数,ルールに基づいて入力データに対す
る推論を行なう推論手段、 教師信号を入力する教師信号入力手段、 前記教師信号と推論結果との誤差および前記入力分布係
数の出力に基づいて、メンバシップ関数記憶手段に記憶
されているメンバシップ関数を調整するメンバシップ関
数調整手段、 を備えたことを特徴とする学習機能を有する推論装置。1. Input means for inputting data, input distribution coefficient output means for outputting as a distribution coefficient how far the input data is from the center of distribution, membership function storage means for storing membership functions, Rule storage means for storing rules, membership function, inference means for inferring input data based on rules, teacher signal input means for inputting a teacher signal, error between the teacher signal and the inference result, and the input distribution coefficient An inference device having a learning function, comprising: membership function adjusting means for adjusting the membership function stored in the membership function storage means based on the output.
いて、 入力分布係数に基づいて入力データがノイズであるか否
かを判別するノイズ判別装置、 を備えたことを特徴とする学習機能を有する推論装置。2. The inference device having the learning function according to claim 1, further comprising a noise discriminating device for discriminating whether or not the input data is noise based on the input distribution coefficient. Reasoning device having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4187022A JPH0695882A (en) | 1992-07-14 | 1992-07-14 | Inference device provided with learning function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4187022A JPH0695882A (en) | 1992-07-14 | 1992-07-14 | Inference device provided with learning function |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0695882A true JPH0695882A (en) | 1994-04-08 |
Family
ID=16198829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4187022A Pending JPH0695882A (en) | 1992-07-14 | 1992-07-14 | Inference device provided with learning function |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0695882A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140313683A1 (en) * | 2011-11-09 | 2014-10-23 | Lg Innotek Co., Ltd. | Tape carrier package and method of manufacturing the same |
-
1992
- 1992-07-14 JP JP4187022A patent/JPH0695882A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140313683A1 (en) * | 2011-11-09 | 2014-10-23 | Lg Innotek Co., Ltd. | Tape carrier package and method of manufacturing the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Suh | Designing-in of quality through axiomatic design | |
Salgado et al. | Modified least squares algorithm incorporating exponential resetting and forgetting | |
US5606646A (en) | Recurrent neural network-based fuzzy logic system | |
Jantzen | Neurofuzzy modelling | |
KR100877457B1 (en) | Signal processing device and method and recording medium for recording signal processing program | |
Obradovic | On-line training of recurrent neural networks with continuous topology adaptation | |
EP1477929B1 (en) | Signal processing | |
US5719999A (en) | Fuzzy control apparatus in which rules can be changed, method of operating same, control system in which changeover is controlled by fuzzy reasoning, and method of controlling the same | |
US6853991B1 (en) | Fuzzy logic system with evolutionary variables rules | |
JPH0695882A (en) | Inference device provided with learning function | |
US5572629A (en) | High performance fuzzy logic processing method | |
JPH0785277A (en) | Data classification system | |
JP2680419B2 (en) | Character recognition device | |
US5895458A (en) | Apparatus and method in which control rules can be changed during fuzzy reasoning operations and control system and method in which changeover is controlled by fuzzy reasoning | |
JPH06231245A (en) | Method for constituting picture processing filter | |
JP2908553B2 (en) | Immunological reaction pattern determination device | |
Novikov et al. | The method for automated determination of certainty coefficients values of initial facts in decision-making systems based on fuzzy approximate reasoning networks | |
JPH06242804A (en) | Fuzzy controller | |
Williams et al. | Expert assisted, adaptive, and robust fusion architecture | |
JPH07200302A (en) | Tuning device for membership function | |
JPH06119176A (en) | Fuzzy arithmetic unit | |
JPH0573323A (en) | Knowledge acquisition and refining processor | |
JPH0293905A (en) | Controller considering history of manipulated variable | |
Inoue et al. | Multimodal pattern classifiers with feedback of class memberships | |
JPH05233583A (en) | Neurofuzzy harmonizing system |