JPH04536A - 近似推論装置 - Google Patents
近似推論装置Info
- Publication number
- JPH04536A JPH04536A JP10145490A JP10145490A JPH04536A JP H04536 A JPH04536 A JP H04536A JP 10145490 A JP10145490 A JP 10145490A JP 10145490 A JP10145490 A JP 10145490A JP H04536 A JPH04536 A JP H04536A
- Authority
- JP
- Japan
- Prior art keywords
- event
- conclusion
- knowledge
- clarity
- calculates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006870 function Effects 0.000 abstract description 20
- 230000003068 static effect Effects 0.000 abstract description 17
- 230000002194 synthesizing effect Effects 0.000 abstract description 2
- 230000006978 adaptation Effects 0.000 abstract 4
- 238000003786 synthesis reaction Methods 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
Landscapes
- Devices For Executing Special Programs (AREA)
- Feedback Control In General (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
発明の要約
入力データをメンバーシッフ関数により適合度に変換し
、その適合度を用いて事象ごとの情報量を求め、この適
合度と情報量を用いて結論の可能性を求める。という構
成の近似推論装置。これにより、データが入力された時
点での正確な情報量を加味して、識別能力が高い推論結
果が得られ発明の背景 技術分野 この発明は近似推論装置に関する。
、その適合度を用いて事象ごとの情報量を求め、この適
合度と情報量を用いて結論の可能性を求める。という構
成の近似推論装置。これにより、データが入力された時
点での正確な情報量を加味して、識別能力が高い推論結
果が得られ発明の背景 技術分野 この発明は近似推論装置に関する。
従来技術
推論結果を、その推論結果を導くために使用した事象の
情報量によって修正または変更する方式の近似推論が知
られている(たとえば、 Zhang)1ongmin
AN EXPERT SYSTEM WITHTH
INKING INIMAGES”、 Preprjn
ts of 5econd IPSA Congres
s。
情報量によって修正または変更する方式の近似推論が知
られている(たとえば、 Zhang)1ongmin
AN EXPERT SYSTEM WITHTH
INKING INIMAGES”、 Preprjn
ts of 5econd IPSA Congres
s。
Tokyo、 July 20−25.1987. P
、765 )。
、765 )。
この近似推論方式は、事象に対して結論ごとに与えられ
たメンバーシッフ関数を用いて、事象ごとの情報量(す
なわち事象の情報識別能力)を算出し、推論結果(すな
わち結論が成り立つ可能性)を、その結論を導くために
使用した事象の情報量によって修正または変更する(可
能性と情報量の積をとる)ことによって、推論結果の識
別能力を高めようとするものである。
たメンバーシッフ関数を用いて、事象ごとの情報量(す
なわち事象の情報識別能力)を算出し、推論結果(すな
わち結論が成り立つ可能性)を、その結論を導くために
使用した事象の情報量によって修正または変更する(可
能性と情報量の積をとる)ことによって、推論結果の識
別能力を高めようとするものである。
しかしながらこの方式では、事象の情報量として、事象
ごとに計算して求めた固定値である平均情報量を使用し
ているため、たとえメンバーシッフ関数の識別能力が高
い領域にデータが入力されても、平均情報量が低い場合
は、推論結果である可能性も低くなり、ひいては推論結
果の識別能力を低下させるという問題点かあった。
ごとに計算して求めた固定値である平均情報量を使用し
ているため、たとえメンバーシッフ関数の識別能力が高
い領域にデータが入力されても、平均情報量が低い場合
は、推論結果である可能性も低くなり、ひいては推論結
果の識別能力を低下させるという問題点かあった。
発明の概要
この発明は、データが入力されるそのつど、入力された
データに従って事象の情報量を算出することにより識別
能力を高めるようにするものである。
データに従って事象の情報量を算出することにより識別
能力を高めるようにするものである。
この発明による近似推論装置は、入力されたデータをメ
ンバーシッフ関数を用いて適合度に変換する適合度演算
手段、この適合度を用いて事象ごとの動的情報量を求め
る動的情報量演算手段。
ンバーシッフ関数を用いて適合度に変換する適合度演算
手段、この適合度を用いて事象ごとの動的情報量を求め
る動的情報量演算手段。
および上記適合度と動的情報量とを用いて結論の可能性
を求める可能性演算手段を備えていることを特徴とする
。
を求める可能性演算手段を備えていることを特徴とする
。
この発明によると、推論に使用した事象に関して、デー
タか入力された時点でのより正確な動的情報量を加味し
て結論の可能性を求めているので、識別能力の高い推論
結果を得ることができる。
(以下、余白)実施例の説明 (1)近似推論装置の全体構成 第1図に近似推論装置の全体構成の一例が示されている
。近似推論装置は、知識記憶装置11.知識合成装置1
21合成後知識記憶装置13.事象値入力装置14.適
合度演算装置15.動的情報量演算装置16.可能性演
算装置17.可能性表示装置18.静的情報量演算装置
19.明瞭性演算装置20.明瞭性記憶装置21.明瞭
性加算装置22および明瞭性表示装置23から構成され
ている。
タか入力された時点でのより正確な動的情報量を加味し
て結論の可能性を求めているので、識別能力の高い推論
結果を得ることができる。
(以下、余白)実施例の説明 (1)近似推論装置の全体構成 第1図に近似推論装置の全体構成の一例が示されている
。近似推論装置は、知識記憶装置11.知識合成装置1
21合成後知識記憶装置13.事象値入力装置14.適
合度演算装置15.動的情報量演算装置16.可能性演
算装置17.可能性表示装置18.静的情報量演算装置
19.明瞭性演算装置20.明瞭性記憶装置21.明瞭
性加算装置22および明瞭性表示装置23から構成され
ている。
以下に、これらの装置について詳述する。
(2)知識記憶装置
知識記憶装置11は、専門家等が入力した知識を、事象
と結論との関係を示す形式で記憶する装置である。この
装置は複数の専門家の知識を記憶することができる。
と結論との関係を示す形式で記憶する装置である。この
装置は複数の専門家の知識を記憶することができる。
知識記憶装置11に記憶されている2名の専門家exl
、 ex2の知識の例を規則の形式で以下に示す。
、 ex2の知識の例を規則の形式で以下に示す。
専門家ex1 :
H20≦f1≦60.0≦r2≦40. then
cl=il)1f 40≦f1≦80. 60≦r2
≦100.then c2−(2)専門家ex2 : if 30≦f1≦50.10≦f2≦30. th
en cl=13)1r50≦f1≦70.70≦r
2≦90. then c2=−(4)rl、 f2
は事象であり、これらをそれぞれ事象1、事象2と呼ぶ
ことがある。cl、 c2は結論であり、これらをそれ
ぞれ結論1,2と呼ぶことがある。
cl=il)1f 40≦f1≦80. 60≦r2
≦100.then c2−(2)専門家ex2 : if 30≦f1≦50.10≦f2≦30. th
en cl=13)1r50≦f1≦70.70≦r
2≦90. then c2=−(4)rl、 f2
は事象であり、これらをそれぞれ事象1、事象2と呼ぶ
ことがある。cl、 c2は結論であり、これらをそれ
ぞれ結論1,2と呼ぶことがある。
また、a≦r1≦bのように表わされたa、bをそれぞ
れ最小値、最大値と呼ぶ。
れ最小値、最大値と呼ぶ。
上述の規則を、専門家ごとに表(テーブル)の形式で表
現すると次のようになる。
現すると次のようになる。
(以下、余白)
第1表
第2表
て、複数の専門家の平均値と標準偏差を計算する。
上述した2名の専門家の事象f1から結論C1を導く知
識を例にとって知識合成処理について以下に説明する。
識を例にとって知識合成処理について以下に説明する。
上述の規則(第(1)式、第(3)式)から、事象1
(rl)から結論1 (cl)を求める規則を抽出する
と次のように表わされる。
(rl)から結論1 (cl)を求める規則を抽出する
と次のように表わされる。
専門家ext : if 20≦f1≦80 th
en cl−(5)専門家ex2 : if 30
≦f1≦50 then cl−(6)最小値の平
均値m 、および最大値の平均値Dln (3)知識合成装置 知識合成装置12は、知識記憶装置11に記憶された複
数の専門家の知識を合成して、1つの知識にまとめる装
置である。
en cl−(5)専門家ex2 : if 30
≦f1≦50 then cl−(6)最小値の平
均値m 、および最大値の平均値Dln (3)知識合成装置 知識合成装置12は、知識記憶装置11に記憶された複
数の専門家の知識を合成して、1つの知識にまとめる装
置である。
知識の合成方法は種々あるが、ここでは、各結論に関与
している各事象の最大値と最小値につい最小値の標準偏
差σ 、および、最大値の標準NIn このような専門家の知識の合成演算を、上述した規則(
第(1)式〜第(4)式)について、各結論に関与して
いる各事象の最小値と最大値のすべてについて行なうと
1次のような表(テーブル)が得られる。
している各事象の最大値と最小値につい最小値の標準偏
差σ 、および、最大値の標準NIn このような専門家の知識の合成演算を、上述した規則(
第(1)式〜第(4)式)について、各結論に関与して
いる各事象の最小値と最大値のすべてについて行なうと
1次のような表(テーブル)が得られる。
第3表
一般に、近似推論においては、事象に対してメンバーシ
ッフ関数が与えられる。ここでは、−例として、上述の
ようにして合成された専門家の知識を用いてガウス分布
によりメンバーシッフ関数を求める方法について説明す
る。
ッフ関数が与えられる。ここでは、−例として、上述の
ようにして合成された専門家の知識を用いてガウス分布
によりメンバーシッフ関数を求める方法について説明す
る。
最小値の平均値m 、最大値の平均値”a+ax’k
in 最小値の標準偏差σ、、最大値の標準偏差匝1n σ を用いて、メンバーシッフ関数は次式によax り表わされる。
in 最小値の標準偏差σ、、最大値の標準偏差匝1n σ を用いて、メンバーシッフ関数は次式によax り表わされる。
・・・(11)
たたし。
X :事象への入力データの値
Φ(X)二人力データXが事象に適合する程度(適合度
) Gauss(x) :入力Xにおけるガウス分布の値で
ある。
) Gauss(x) :入力Xにおけるガウス分布の値で
ある。
第2図にガウス分布の一例を示す。このガウス分布にお
いてメンバーシッフ関数の作成のために左半分のみが使
用される。Φ(x)−0,5におけるXの位置はm 、
またはm によって決定さ■1 n
filaXれ、傾きはσ 、またはσ に
よって決定されmin IIa
Xる。
いてメンバーシッフ関数の作成のために左半分のみが使
用される。Φ(x)−0,5におけるXの位置はm 、
またはm によって決定さ■1 n
filaXれ、傾きはσ 、またはσ に
よって決定されmin IIa
Xる。
一例として、事象f1から結論c1を求めるためのメン
バーシッフ関数は、第(7)式から第(10)式により
算出した値を用いて第3a図から第3C図のようにして
作成される。この場合、第(11)式は次のようになる
。
バーシッフ関数は、第(7)式から第(10)式により
算出した値を用いて第3a図から第3C図のようにして
作成される。この場合、第(11)式は次のようになる
。
項を、第3b図は第(11)式または第(12)式の右
辺第2項を、第3c図は上記第1項から第2項を減算し
た結果、すなわち第(11)式または第(12)式で表
わされるメンバーシッフ関数を表わしている。
辺第2項を、第3c図は上記第1項から第2項を減算し
た結果、すなわち第(11)式または第(12)式で表
わされるメンバーシッフ関数を表わしている。
第3表に示す合成された知識に基づいて作成された各事
象fl、 f2について、結論cl、 c2を求めるた
めのメンバーシッフ関数の例を、第4a図および第4b
図に示す。
象fl、 f2について、結論cl、 c2を求めるた
めのメンバーシッフ関数の例を、第4a図および第4b
図に示す。
(4)合成後知識記憶装置
合成後知識記憶装置13には、知識合成装置12によっ
て算出された平均値と標準偏差が、第3表のような形式
で記憶される。知識の合成は推論の都度性なう必要はな
いため、このようにあらかじめ計算した結果を記憶して
おく。そして推論の都度二の記憶装置13内の値を読み
出して使用することによって推論処理の高速化を図るこ
とができる。
て算出された平均値と標準偏差が、第3表のような形式
で記憶される。知識の合成は推論の都度性なう必要はな
いため、このようにあらかじめ計算した結果を記憶して
おく。そして推論の都度二の記憶装置13内の値を読み
出して使用することによって推論処理の高速化を図るこ
とができる。
(5)事象値入力装置
事象値入力装置I4はキーボード、通信インタフェイス
装置、メモリ、ファイルなどから、事象ごとに入力され
る入力データを読み込む装置である。入力されたデータ
は適合度演算装置15に与えられるとともに、各事象の
データが入力されたがどうかの情報か明瞭性加算装置2
2に与えられる。
装置、メモリ、ファイルなどから、事象ごとに入力され
る入力データを読み込む装置である。入力されたデータ
は適合度演算装置15に与えられるとともに、各事象の
データが入力されたがどうかの情報か明瞭性加算装置2
2に与えられる。
(6)適合度演算装置
適合度演算装置15は、事象値入力装置I4がら入力さ
れたデータの各メンバーシッフ関数(または結論)に対
する適合度を算出するものである。具体的には適合度は
、第(11)式の右辺の変数Xとして入力データを代入
することによりΦ(X)として求められる。もちろんこ
のような演算式を必ずしも用いなくてもよい。
れたデータの各メンバーシッフ関数(または結論)に対
する適合度を算出するものである。具体的には適合度は
、第(11)式の右辺の変数Xとして入力データを代入
することによりΦ(X)として求められる。もちろんこ
のような演算式を必ずしも用いなくてもよい。
(7)動的情報量演算装置と静的情報量演算装置事象f
lの事象値(入力データ)をxl、事象r2の事象値を
x2とする。これらのデータは事象値入力装置14から
入力される。
lの事象値(入力データ)をxl、事象r2の事象値を
x2とする。これらのデータは事象値入力装置14から
入力される。
第5a図および第5b図に示すように各適合度”11’
”12’ 21’ m22を次のように定める
。
”12’ 21’ m22を次のように定める
。
m11:入力データx1の結論C1に対する適合度m1
2:入力データx1の結論c2に対する適合度m2、:
入力データx2の結論c1に対する適合度m22:入力
データx2の結論C2に対する適合度これらの適合度は
入力データxi、 x2が与えられたときに適合度演算
装置15によって算出される。
2:入力データx1の結論c2に対する適合度m2、:
入力データx2の結論c1に対する適合度m22:入力
データx2の結論C2に対する適合度これらの適合度は
入力データxi、 x2が与えられたときに適合度演算
装置15によって算出される。
ここでファジィ・エントロピという概念を考える。
入力x1が与えられたときのファジィ・エントロこのフ
ァジィ・エントロピは、情報識別能力の指標の一種で、
入力データx1を与えたときに、結論が明確に識別でき
るほど小さい値となり、結論があいまいにしか識別でき
ないほど大きい値となる。つまり、入力データxiの結
論c1に対する適合度m1□と入力データXiの結論c
2に対する適合度”L2との差が大きいほど小さい値と
なり、差が小さいほど大きい値となる。
ァジィ・エントロピは、情報識別能力の指標の一種で、
入力データx1を与えたときに、結論が明確に識別でき
るほど小さい値となり、結論があいまいにしか識別でき
ないほど大きい値となる。つまり、入力データxiの結
論c1に対する適合度m1□と入力データXiの結論c
2に対する適合度”L2との差が大きいほど小さい値と
なり、差が小さいほど大きい値となる。
同じようにして、入力x2が与えられたときのファジィ
・エントロピEf’2は次式によって与えらファジィ・
エントロピEfの取り得る値の範囲は以下に示すものと
なる。
・エントロピEf’2は次式によって与えらファジィ・
エントロピEfの取り得る値の範囲は以下に示すものと
なる。
0≦Ef≦log(n )
n:事象上の結論数
この例では、事象1 m>上の結論数は2 (cl。
c2)であるので、ファジィ・エントロピEfの最大値
は、log(2)となる。
は、log(2)となる。
次に、このファジィ・エントロピErlを使用して、入
力データx1が与えられたときの動的情報量1flD(
xi)を求める。ここで、動的情報量Ir橢(XI)と
は、推論を行なうときにおける結論を確定するための事
象の識別能力で、入力データx1の結論CIに対する適
合度m1□と入力データx1の結論C2に対する適合度
m12の差が大きいほど大きい値をとり、差が小さいほ
ど小さい値となるものとする。
力データx1が与えられたときの動的情報量1flD(
xi)を求める。ここで、動的情報量Ir橢(XI)と
は、推論を行なうときにおける結論を確定するための事
象の識別能力で、入力データx1の結論CIに対する適
合度m1□と入力データx1の結論C2に対する適合度
m12の差が大きいほど大きい値をとり、差が小さいほ
ど小さい値となるものとする。
そこで、事象flについての動的情報量+rxD(xt
)を、最大ファジィ・エントロピから、入力データx1
か与えられたときのファジィ・エントロピEfl同じよ
うに、事象f2について入力データx2が与えられたと
きの動的情報量を次のように定義する。
(以下、余白)動的情報量演算装置16
は、適合度演算装置15で得られた適合度を用いて、第
(15)式および第(16)式にしたかって事象ごとに
動的情報量を算出する。
)を、最大ファジィ・エントロピから、入力データx1
か与えられたときのファジィ・エントロピEfl同じよ
うに、事象f2について入力データx2が与えられたと
きの動的情報量を次のように定義する。
(以下、余白)動的情報量演算装置16
は、適合度演算装置15で得られた適合度を用いて、第
(15)式および第(16)式にしたかって事象ごとに
動的情報量を算出する。
動的情報量は上述のように入力データxi x2に依
存する。これに対して、静的情報量は入力データに依存
しないものであって、最大ファジィ・エントロピから、
事象のレンジ幅の中のファジィ・エントロピの平均を引
いたものを、事象全体の静的情報量とする。たとえば、
事象1についての静的情報量は次式で与えられる。
存する。これに対して、静的情報量は入力データに依存
しないものであって、最大ファジィ・エントロピから、
事象のレンジ幅の中のファジィ・エントロピの平均を引
いたものを、事象全体の静的情報量とする。たとえば、
事象1についての静的情報量は次式で与えられる。
・・・ (17ン
同じように事象2についての静的情報量は次式%式%
mtt(x) :事象r1についての入力データXの
結論c1に対する適合度 m12(x):事象f1についての入力データXの結論
c2に対する適合度 事象r2についての入力データXの結 論c1に対する適合度 m22(x) :事象f2についての入力データXの
結論c2に対する適合度 m21(x) : において、Xをδ間隔で変化 させ、それぞれのXについて のファジィ・エントロビラ計 算して、それらの平均を求め る演算(ただし0くδ≦100) 第(17)式および第(18)式から分るように、事象
のメンバーシッフ関数間の重なりが大きいほど。
結論c1に対する適合度 m12(x):事象f1についての入力データXの結論
c2に対する適合度 事象r2についての入力データXの結 論c1に対する適合度 m22(x) :事象f2についての入力データXの
結論c2に対する適合度 m21(x) : において、Xをδ間隔で変化 させ、それぞれのXについて のファジィ・エントロビラ計 算して、それらの平均を求め る演算(ただし0くδ≦100) 第(17)式および第(18)式から分るように、事象
のメンバーシッフ関数間の重なりが大きいほど。
事象の静的情報量は小さく、事象のメンバーシッフ関数
間の重なりが小さいほど、事象の静的情報量は大きい。
間の重なりが小さいほど、事象の静的情報量は大きい。
つまり、静的情報量は、事象のメンバーシッフ関数が結
論を識別する能力を示している。
論を識別する能力を示している。
静的情報量演算装置19は1合成された知識により得ら
れるメンバーシッフ関数から、上述した第(17)式お
よび第(18)式にしたがって、事象ごとに、静的情報
量を演算して記憶する。静的情報量は入力データには依
存しないので、1回のみ算出されればよい。
れるメンバーシッフ関数から、上述した第(17)式お
よび第(18)式にしたがって、事象ごとに、静的情報
量を演算して記憶する。静的情報量は入力データには依
存しないので、1回のみ算出されればよい。
(8)可能性演算装置
各結論ごとに、その結論に関与する事象の情報量の総和
が1になり、かつそれらの事象の情報量の相対強度は変
化しないような事象の情報量を算出する。この算出した
情報量を重みという。
が1になり、かつそれらの事象の情報量の相対強度は変
化しないような事象の情報量を算出する。この算出した
情報量を重みという。
たとえば上述した動的情報量を用いると各重みは次のよ
うになる。
うになる。
結論1に対する事象1の重み:Wf1□−If’l (
xi)/ [Irl (xi)+If2.(x2)]
−(19)D D 結論1に対する事象2の重み: V’/ fl 2I
f’2 (x2)/ [Iff (xi) + 1r2
D(x2)] −(20)D
D 結論2に対する事象1の重み: Wf21−1f’l
(xi)/ [lf’l (xi)+ lf
2.(x2)コ −(21)D
D 結論2に対する事象2の重み: vv f2゜−If
’2 (x2)/ [!f’l (xi)+1f2D(
x2)] −(22)D D 次に、これらの重みと適合度との積を計算し。
xi)/ [Irl (xi)+If2.(x2)]
−(19)D D 結論1に対する事象2の重み: V’/ fl 2I
f’2 (x2)/ [Iff (xi) + 1r2
D(x2)] −(20)D
D 結論2に対する事象1の重み: Wf21−1f’l
(xi)/ [lf’l (xi)+ lf
2.(x2)コ −(21)D
D 結論2に対する事象2の重み: vv f2゜−If
’2 (x2)/ [!f’l (xi)+1f2D(
x2)] −(22)D D 次に、これらの重みと適合度との積を計算し。
それを結論ごとに合計したものを、結論の可能性として
算出する。
算出する。
たとえば上記の例では
結論1の可能性−wf xm +wf Xm
・=(23)結論2の可能性−wf Xm
+wf Xm −(24)となる。
・=(23)結論2の可能性−wf Xm
+wf Xm −(24)となる。
可能性演算装置17は上述した演算を行ない結論ごとの
可能性を算出する。
可能性を算出する。
(9)可能性表示装置
この可能性表示装置18は、可能性演算装置17て算出
された可能性を結論ごとに表示するものである。この可
能性の表示は、すべての結論について表示するようにし
てもよいし、可能性か高い結論を1個または複数個表示
するものでもよい。また1通信によって可能性を他の装
置に伝送したり、可能性をメモリやファイルに記憶して
もよい。
された可能性を結論ごとに表示するものである。この可
能性の表示は、すべての結論について表示するようにし
てもよいし、可能性か高い結論を1個または複数個表示
するものでもよい。また1通信によって可能性を他の装
置に伝送したり、可能性をメモリやファイルに記憶して
もよい。
(10)明瞭性演算装置
明瞭性演算装置20は、各結論ごとに、各事象の明瞭性
を演算する装置である。ここで、各結論ごとの各事象の
明瞭性とは、ある結論を確定する時の各事象の相対的な
識別能力を示すものである。
を演算する装置である。ここで、各結論ごとの各事象の
明瞭性とは、ある結論を確定する時の各事象の相対的な
識別能力を示すものである。
したがって、この明瞭性により、ある結論を確定するた
めの、複数の事象の識別能力を比較することができ、ど
の事象が高い識別能力を持っているか(多くの情報量を
持っているか)が分る。明瞭性の算出法について以下に
述べる。
めの、複数の事象の識別能力を比較することができ、ど
の事象が高い識別能力を持っているか(多くの情報量を
持っているか)が分る。明瞭性の算出法について以下に
述べる。
まず、結論および事象と静的情報量の関係を第4表に示
す。
す。
第4表
第4表から分るように静的情報量によっても。
各結論を確定するための複数の事象の識別能力を比較す
ることはできる。しかし、このままでは相対的な識別能
力が直観的に分りにくいので、下表に示すように各結論
ごとに静的情報量を正規化して、その正規化した値を各
結論ごとの各事象の明瞭性Cpとする。
ることはできる。しかし、このままでは相対的な識別能
力が直観的に分りにくいので、下表に示すように各結論
ごとに静的情報量を正規化して、その正規化した値を各
結論ごとの各事象の明瞭性Cpとする。
第5表
ただし
C,9−Cll −1fl / (lff8+ 1
f28)11 12 S CD −C1) −1r2 / (Ifls+
Ir2s)21 22 S である。
f28)11 12 S CD −C1) −1r2 / (Ifls+
Ir2s)21 22 S である。
このようにして、明瞭性演算装置20において各結論ご
とに各事象の明瞭性が算出される。
とに各事象の明瞭性が算出される。
(11)明瞭性記憶装置
明瞭性記憶装置21は、明瞭性演算装置20て算出され
た各結論ごとの各事象の明瞭性を記憶する装置である。
た各結論ごとの各事象の明瞭性を記憶する装置である。
明瞭性の演算は、推論のたびに行なう必要はない。そこ
で、知識を合成したときに算出した明瞭性を明瞭性記憶
装置21に記憶しておき。
で、知識を合成したときに算出した明瞭性を明瞭性記憶
装置21に記憶しておき。
推論を行なうたびに明瞭性記憶装置21に記憶している
値を読み出すようにする。これにより、推論処理の高速
化が図れる。
値を読み出すようにする。これにより、推論処理の高速
化が図れる。
(12)明瞭性加算装置
明瞭性加算装置22は、データが実際に入力された事象
の明瞭性を演算する装置である。ここでは、実際に行な
われる推論のために、データが入力された事象の明瞭性
の総和をとる。この明瞭性の総和は、推論結果の明瞭性
を示す。この明瞭性か高いほど、推論結果を導くための
情報量力曵多0といえる。したがって明瞭性は推論結果
自体の信頼性を判断する指標に使用することができる。
の明瞭性を演算する装置である。ここでは、実際に行な
われる推論のために、データが入力された事象の明瞭性
の総和をとる。この明瞭性の総和は、推論結果の明瞭性
を示す。この明瞭性か高いほど、推論結果を導くための
情報量力曵多0といえる。したがって明瞭性は推論結果
自体の信頼性を判断する指標に使用することができる。
推論結果に対する明瞭性は次のようにして算出される。
a)事象1 (fl)のみについてデータが入力された
場合 ・結論1 (cl)の推論結果に対する明瞭性Cg1−
”11 ・結論2 (c2)の推論結果に対する明瞭性CΩ2−
”12 b)事象2 (f2)のみについてデータが入力された
場合 ・結論1 (cl)の推論結果に対する明瞭性C,O1
−”21 ・推論2 (c2)の推論結果に対する明瞭性c、p2
−”22 C)事象1 (fl)および事象2 (r2)の両方に
ついてデータ入力された場合 ・結論1 (cl)の推論結果に対する明瞭性C,C1
−Cg + R21−1−0 ・結論2 (c2)の推論結果に対する明瞭性CI、、
−CΩ 十 CΩ22 −1 、0推論結果の
明瞭性Cgのとり得る範囲は。
場合 ・結論1 (cl)の推論結果に対する明瞭性Cg1−
”11 ・結論2 (c2)の推論結果に対する明瞭性CΩ2−
”12 b)事象2 (f2)のみについてデータが入力された
場合 ・結論1 (cl)の推論結果に対する明瞭性C,O1
−”21 ・推論2 (c2)の推論結果に対する明瞭性c、p2
−”22 C)事象1 (fl)および事象2 (r2)の両方に
ついてデータ入力された場合 ・結論1 (cl)の推論結果に対する明瞭性C,C1
−Cg + R21−1−0 ・結論2 (c2)の推論結果に対する明瞭性CI、、
−CΩ 十 CΩ22 −1 、0推論結果の
明瞭性Cgのとり得る範囲は。
0.0 ≦ Cg ≦1.0
である。つまり、推論を行なう前に与えられた知識の中
で、ある結論を導くために使用することがテキる事象の
すべてについてデータを入力して推論を行なった場合、
その結論の明瞭性は1.0になる。また、ある結論を導
くために使用することができる事象の中で、一部の事象
のみについて。
で、ある結論を導くために使用することがテキる事象の
すべてについてデータを入力して推論を行なった場合、
その結論の明瞭性は1.0になる。また、ある結論を導
くために使用することができる事象の中で、一部の事象
のみについて。
データを入力した場合、明瞭性は0.0から1.0の間
の値となる。このとき、使用することができる事象の中
で、明瞭性の高い事象を多く使用すれば、結論の明瞭性
も高くなり、信頼性が高い推論結果が得られると言える
。
の値となる。このとき、使用することができる事象の中
で、明瞭性の高い事象を多く使用すれば、結論の明瞭性
も高くなり、信頼性が高い推論結果が得られると言える
。
(13)明瞭性表示装置
明瞭性表示装置23は、明瞭性加算装置22で算出した
推論結果(−例として上述した可能性)に対する明瞭性
を表示する装置である。明瞭性は推論結果と共に表示し
てもよいし、また明瞭性を他の装置に伝送したり、メモ
リやファイルへ記憶するようにしてもよい。
推論結果(−例として上述した可能性)に対する明瞭性
を表示する装置である。明瞭性は推論結果と共に表示し
てもよいし、また明瞭性を他の装置に伝送したり、メモ
リやファイルへ記憶するようにしてもよい。
この明瞭性の表示は、推論結果の全ての結論について表
示する。したがって結論が複数存在する場合には、それ
ぞれの結論に対応する明瞭性か表示される。
示する。したがって結論が複数存在する場合には、それ
ぞれの結論に対応する明瞭性か表示される。
このようにして、データが入力されるたびに。
入力されたデータが属する事象の情報量を演算し、推論
結果に対する明瞭性を表示することにより、推論結果に
対する信頼性をユーザが判断てきるようになる。
結果に対する明瞭性を表示することにより、推論結果に
対する信頼性をユーザが判断てきるようになる。
上述した各装置11〜23はメモリおよび表示装置を含
むコンピュータによって実現できるのはいうまでもない
。たとえば知識合成装置12.各種演算装置15.16
.17.19.20.22はプログラムにしたがって動
作するCPUによって好適に実現される。
むコンピュータによって実現できるのはいうまでもない
。たとえば知識合成装置12.各種演算装置15.16
.17.19.20.22はプログラムにしたがって動
作するCPUによって好適に実現される。
第1図は近似推論装置の全体構成の一例を示すブロック
図である。 第2図はガウス分布を示すグラフである。 第3a図から第3c図はメンバーシッフ関数が形成され
る様子を示すグラフである。 第4a図および第4b図は、各事象ごとに得られたメン
バーシッフ関数を示すグラフである。 第5a図および第5b図は適合度を求める様子を示すグ
ラフである。 11・・・知識記憶装置。 12・・・知識合成装置。 13・・・合成後知識記憶装置。 14・・・事象値入力装置。 15・・・適合度演算装置。 16・・・動的情報量演算装置。 17・・・可能性演算装置。 18・・・可能性表示装置。 19・・・静的情報量演算装置。 20・・・明瞭性演算装置。 21・・・明瞭性記憶装置。 22・・・明瞭性加算装置。 23・・・明瞭性表示装置。
図である。 第2図はガウス分布を示すグラフである。 第3a図から第3c図はメンバーシッフ関数が形成され
る様子を示すグラフである。 第4a図および第4b図は、各事象ごとに得られたメン
バーシッフ関数を示すグラフである。 第5a図および第5b図は適合度を求める様子を示すグ
ラフである。 11・・・知識記憶装置。 12・・・知識合成装置。 13・・・合成後知識記憶装置。 14・・・事象値入力装置。 15・・・適合度演算装置。 16・・・動的情報量演算装置。 17・・・可能性演算装置。 18・・・可能性表示装置。 19・・・静的情報量演算装置。 20・・・明瞭性演算装置。 21・・・明瞭性記憶装置。 22・・・明瞭性加算装置。 23・・・明瞭性表示装置。
Claims (1)
- 【特許請求の範囲】 入力されたデータをメンバーシッフ関数を用いて適合度
に変換する適合度演算手段、 この適合度を用いて事象ごとの動的情報量を求める動的
情報量演算手段、および 上記適合度と動的情報量とを用いて結論の可能性を求め
る可能性演算手段、 を備えた近似推論装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10145490A JPH04536A (ja) | 1990-04-17 | 1990-04-17 | 近似推論装置 |
EP19910105868 EP0452824A3 (en) | 1990-04-17 | 1991-04-12 | Approximate reasoning apparatus |
US08/047,367 US5353380A (en) | 1990-04-17 | 1993-04-19 | Approximate reasoning apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10145490A JPH04536A (ja) | 1990-04-17 | 1990-04-17 | 近似推論装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH04536A true JPH04536A (ja) | 1992-01-06 |
Family
ID=14301143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10145490A Pending JPH04536A (ja) | 1990-04-17 | 1990-04-17 | 近似推論装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH04536A (ja) |
-
1990
- 1990-04-17 JP JP10145490A patent/JPH04536A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dutta et al. | Partitioned Bonferroni mean based on linguistic 2-tuple for dealing with multi-attribute group decision making | |
Xu | Approaches to multi-stage multi-attribute group decision making | |
Efstathiou et al. | Multiattribute decisionmaking using a fuzzy heuristic approach | |
CN109242593B (zh) | 一种基于案例推理的服装推荐方法、装置和存储介质 | |
US5253332A (en) | Approximate reasoning apparatus with knowledge synthesizing/revising and clarity computing | |
JPH04536A (ja) | 近似推論装置 | |
JPH04537A (ja) | 近似推論のための明瞭性出力装置 | |
Ashraf et al. | Extension of TOPSIS method under single-valued neutrosophic N-soft environment | |
JPH09245085A (ja) | 商品選択方法 | |
JP3211237B2 (ja) | 近似推論装置 | |
JPH0458332A (ja) | 近似推論装置 | |
EP0660228B1 (en) | An adaptation degree operation method and apparatus of membership function data | |
JP3211235B2 (ja) | 近似推論装置と人間とのインターフェイス装置 | |
JP3049738B2 (ja) | 近似推論装置と人間とのインターフェイス装置 | |
Kułakowski et al. | Tender with success–the pairwise comparisons approach | |
CN113313554A (zh) | 一种服装尺码的推荐方法、装置、设备和存储介质 | |
JP3211236B2 (ja) | 近似推論のための知識自動修正装置 | |
JPS5917656A (ja) | 生命保険見積用電卓 | |
JPH0484331A (ja) | 近似推論装置 | |
Azizi et al. | Ranking two-stage production units in data envelopment analysis | |
JP2019164398A (ja) | 在庫管理システムおよびプログラム | |
Seikh et al. | Solution of Matrix Games With Pay‐Offs of Single‐Valued Neutrosophic Numbers and Its Application to Market Share Problem | |
JPH0484221A (ja) | 近似推論装置 | |
JPH04329438A (ja) | 近似推論装置およびその動作方法 | |
US20240320661A1 (en) | Secure computing system, method, storage medium, and information processing system |