JPH0486921A - Method and device for preparing knowledge base for approximate inference - Google Patents

Method and device for preparing knowledge base for approximate inference

Info

Publication number
JPH0486921A
JPH0486921A JP20144990A JP20144990A JPH0486921A JP H0486921 A JPH0486921 A JP H0486921A JP 20144990 A JP20144990 A JP 20144990A JP 20144990 A JP20144990 A JP 20144990A JP H0486921 A JPH0486921 A JP H0486921A
Authority
JP
Japan
Prior art keywords
conclusion
event
knowledge
clarity
conclusions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP20144990A
Other languages
Japanese (ja)
Inventor
Taiji Yoshikawa
泰司 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP20144990A priority Critical patent/JPH0486921A/en
Publication of JPH0486921A publication Critical patent/JPH0486921A/en
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

PURPOSE:To enable an efficient approximate inference by storing temporarily the knowledge of an expert which indicates a relation between set phenomena and conclusions, calculating the legibility of each phenomenon at every conclusion by using this, and checking the value. CONSTITUTION:The knowledge of the expert is temporarily stored in a knowledge storing device 11, and synthesized in a knowledge synthesizing device 12. Then, a legibility Clij of each phenomenon at every conclusion is calculated by both a still information content arithmetic unit 19 and a legibility arithmetic unit 20. This calculated legibility Clij is applied to a knowledge base restructing device 31, in order to rearrange the value Clij of the legibility in order of the small one after relating it with the phenomenon at every conculusion cj and prepare a legibility table. The process is repeated in order of the small value of the legibility about entire phenomena concerning the resolution cl, and this process is operated for entire resolutions. Like this, the relation between the conculusion and the phenomenon whose legibility is very low (that is, they are not operated effectively for the approximate inference), can be released, and the knowledge stored in the knowledge storing device 11 is arranged.

Description

【発明の詳細な説明】 発明の要約 事象と結論との関係を表わす専門家の知識データからな
る近似推論のための知識ベースを一旦設定したのち、こ
れを再構築するための方法および装置である。結論ごと
の各事象の明瞭性の値、または事象ごとの2つの結論間
の静的情報量の値を用いて、相互関連性かきわめて低い
事象と結論との関連性を解除することにより、知識ベー
スから不要なデータを削除し、知識ベースを簡潔なもの
とする。これにより、知識ベース・ファイルの容量を最
小限におさえかつ短時間で近似推論の結果か得られるよ
うになる。
[Detailed Description of the Invention] A method and apparatus for reconstructing a knowledge base for approximate inference, which is made up of expert knowledge data representing the relationship between summary events and conclusions of an invention, once set. . By using the clarity value of each event for each conclusion or the static information amount value between two conclusions for each event to remove the association between events and conclusions that have very low correlation, knowledge Make the knowledge base concise by removing unnecessary data from the base. This makes it possible to minimize the size of the knowledge base file and obtain approximate inference results in a short time.

発明の背景 技術分野 この発明は、事象と結論との関係を表わす専門家の知識
を用いて推論を行なう近似推論のための知識ベースの形
成方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for forming a knowledge base for approximate reasoning that uses expert knowledge representing the relationship between events and conclusions.

従来技術 推論結果を、その推論結果を導くために使用した事象の
情報量によって修正または変更する方式の近似推論が知
られている(たとえば、 ZhangHongIIin
  AN EXPERT SYSTEM WITHTl
(INKING INIMAGES’ 、 Prepr
ints of’ 5econd IFSA Cong
ress。
Prior Art Approximate inference is known in which the inference result is modified or changed depending on the amount of information about the event used to derive the inference result (for example, ZhangHongIIin
AN EXPERT SYSTEM WITH
(INKING INIMAGES', Prepr
ints of' 5econd IFSA Cong
ress.

Tokyo、July  20−25. 1987. 
 P、785  )  。
Tokyo, July 20-25. 1987.
P, 785).

この近似推論方式は、事象に対して結論ごとに与えられ
たメンバーシップ関数を用いて、事象ごとの情報量(す
なわち事象の情報識別能力)を算出し、推論結果(すな
わち結論が成り立つ可能性)を、その結論を導くために
使用した事象の情報量によって修正または変更する(可
能性と情報量の積をとる)ことによって、推論結果の識
別能力を高めようとするものである。
This approximate inference method calculates the amount of information for each event (i.e., information identification ability of the event) using a membership function given to each conclusion for the event, and calculates the inference result (i.e., the probability that the conclusion holds true). The aim is to improve the discriminative ability of inference results by modifying or changing the information based on the amount of information of the event used to draw the conclusion (by multiplying the probability and the amount of information).

このような近似推論方式においては、事象と結論との関
係を表わす知識データからなる知識ベースがあらかじめ
設定されている。そして、事象データを入力し、この事
象データを知識ベースにあてはめることにより結論の可
能性が導き出される。
In such an approximate reasoning method, a knowledge base consisting of knowledge data representing a relationship between an event and a conclusion is set in advance. Then, by inputting event data and applying this event data to the knowledge base, possible conclusions are derived.

このような知識ベースにおいて、ある結論に対して情報
量の高い事象が適当個数関連している場合にはいくつか
の事象データを入力すれば信頼性の高い結論が得られ、
効率の良い事象データ入力が可能である。しかしながら
情報量の低い事象が多く含まれかつある結論に関連して
いるような場合には、すべての事象に対してデータを入
力することが必要であり、そうであっても信頼性の高い
結論が得られるとは限らない。たとえば故障診断のよう
に短時間で正確な結論を出したい場合には非常に不便で
あった。
In such a knowledge base, if a certain number of events with a high amount of information are related to a certain conclusion, a highly reliable conclusion can be obtained by inputting several event data,
Efficient event data input is possible. However, if many events with low information content are included and are related to a certain conclusion, it is necessary to enter data for all events, and even if this is the case, it is necessary to enter data for all events, so that a reliable conclusion can be drawn. is not necessarily obtained. For example, this is very inconvenient when it is desired to reach an accurate conclusion in a short period of time, such as when diagnosing a fault.

また、専門家の過去の経験により入力されたデータによ
り作成された知識ベースの場合、経験者の個性、経験の
度合いによって入力された知識データにばらつきか生じ
るという問題点があった。
Furthermore, in the case of a knowledge base created from data input from experts' past experiences, there is a problem in that the input knowledge data varies depending on the individuality and level of experience of the expert.

発明の概要 発明の目的 この発明は、効率のよい近似推論が可能となるように、
−旦設定された知識ベースを再構築する方法および装置
を提供することを目的とする。
Summary of the Invention Purpose of the Invention This invention aims to enable efficient approximate inference.
- Aims to provide a method and apparatus for reconstructing a knowledge base once established.

発明の構成1作用および効果 この発明による近似推論のための知識ベース形成方法は
、設定された事象と結論の関係を表わす専門家の知識を
一旦記憶し、記憶した知識を用いて結論ごとに各事象の
明瞭性を演算し、結論ごとに、各事象の明瞭性の値をチ
ェックすることにより小さい値の明瞭性をもつ事象を検
出し、検出した事象の対応する結論との関連付けを解除
することを特徴とする。
Structure of the Invention 1 Operation and Effect The knowledge base formation method for approximate reasoning according to the present invention temporarily stores expert knowledge representing the relationship between a set event and a conclusion, and uses the stored knowledge to create a knowledge base for each conclusion. Calculate the clarity of the event, check the clarity value of each event for each conclusion, detect the event with a small value of clarity, and disassociate the detected event from the corresponding conclusion. It is characterized by

関係するすべての事象との関連付けが解除された結論を
削除するようにするとよい。
It is advisable to delete conclusions that are no longer associated with all related events.

この発明による近似推論のための知識ベース形成装置は
、設定された事象と結論との関係を表わす専門家の知識
を記憶する手段、上記記憶手段に記憶されている知識を
用いて結論ごとに各事象の明瞭性を算出する明瞭性演算
手段、および結論ごとに、小さい値の明瞭性をもつ事象
の対応する結論との関連付けを解除する手段を備えてい
る。
The knowledge base forming device for approximate reasoning according to the present invention includes a means for storing expert knowledge representing the relationship between a set event and a conclusion, and a means for storing expert knowledge representing the relationship between a set event and a conclusion. The apparatus includes a clarity calculation means for calculating the clarity of an event, and a means for disassociating an event having a clarity of a small value from a corresponding conclusion for each conclusion.

人間とのインターフェイスとして、上記明瞭性演算手段
により算出された明瞭性を表示する表示手段と、解除確
認または解除指令を入力するための入力手段とを設ける
とよい。この場合には上記解除手段は上記入力手段から
の入力に応答して事象と結論との関連付けを解除するよ
うに動作する。
As an interface with humans, it is preferable to provide a display means for displaying the clarity calculated by the clarity calculating means and an input means for inputting a cancellation confirmation or a cancellation command. In this case, the canceling means operates to cancel the association between the event and the conclusion in response to the input from the input means.

事象と結論との関連付けの解除を自動的に行なわせるよ
うにすることもできる。この場合には。
It is also possible to automatically cancel the association between an event and a conclusion. In this case.

上記解除手段は、上記明瞭性演算手段により算出された
明瞭性の値をチェックし、所定値以下の明瞭性をもつ事
象を検出し、検出した事象の対応する結論との関連付け
を解除するように構成される。上記解除手段にさらに、
関連するすべての事象との関連付けが解除された結論を
削除する機能をもたせるとよい。
The canceling means checks the clarity value calculated by the clarity calculation means, detects an event with clarity equal to or less than a predetermined value, and cancels the association of the detected event with the corresponding conclusion. configured. In addition to the above release means,
It would be good to have a function to delete conclusions that are no longer associated with all related events.

この発明による近似推論のための知識ベース形成方法は
、設定された事象と結論の関係を表わす専門家の知識を
一旦記憶し、記憶した知識を用いて、事象ごとに、2つ
の結論間の静的情報量を演算し、事象ごとに、2つの結
論間の静的情報量が小さいものを抽出し、その結論間静
的情報量に関連する2つの結論のうち他の結論との結論
間静的情報量が小さい方の結論について対応する事象と
の関連付けを解除することを特徴とする。
The knowledge base formation method for approximate reasoning according to the present invention temporarily stores expert knowledge representing the relationship between set events and conclusions, and uses the stored knowledge to determine the relationship between two conclusions for each event. For each event, calculate the amount of static information between two conclusions, extract the one with the smallest amount of static information between two conclusions, and calculate the amount of static information between two conclusions related to the amount of static information between the two conclusions. The method is characterized in that the conclusion with the smaller amount of information is disassociated from the corresponding event.

関係するすべての結論との関連付けが解除された事象を
削除するとよい。
It is a good idea to delete events that are no longer associated with all related conclusions.

この発明による近似推論のための知識ベース形成装置は
、設定された事象と結論との関係を表わす専門家の知識
を記憶する手段、上記記憶手段に記憶されている知識を
用いて、事象ごとに、2つの結論間の静的情報量を算出
する結論間静的情報量演算手段、および事象ごとに、小
さい値の結論間静的情報量に関連する2つの結論のうち
他の結論との結論間静的情報量が小さい方の結論につい
て対応する事象との関連付けを解除する手段を備えてい
る。
The knowledge base forming device for approximate reasoning according to the present invention includes means for storing expert knowledge representing the relationship between set events and conclusions, and using the knowledge stored in the storage means, for each event. , an inter-conclusion static information amount calculation means for calculating the amount of static information between two conclusions, and a conclusion between two conclusions related to a small value of inter-conclusion static information amount for each event with another conclusion. A means is provided for disassociating the conclusion with the smaller amount of static information from the corresponding event.

人間とのインターフェイスとして、上記結論間静的情報
量演算手段により算出された結論間静的情報量を表示す
る表示手段と、解除確認または解除指令を入力するため
の入力手段とを設けるとよい。この場合に上記解除手段
は上記入力手段からの入力に応答して結論と事象との関
連付けを解除するように動作する。
As an interface with humans, it is preferable to provide display means for displaying the inter-conclusion static information amount calculated by the inter-conclusion static information amount calculation means, and input means for inputting cancellation confirmation or cancellation command. In this case, the canceling means operates to cancel the association between the conclusion and the event in response to the input from the input means.

自動的に事象と結論との関連付けを解除する構成とする
こともできる。この場合に上記解除手段は、上記結論間
静的情報量演算手段により算出された結論間静的情報量
の値をチェックし、所定値以下の結論間静的情報量に関
連する2つの結論を抽出する機能をもつ。
It is also possible to have a configuration that automatically releases the association between an event and a conclusion. In this case, the canceling means checks the value of the inter-conclusion static information amount calculated by the inter-conclusion static information amount calculation means, and selects two conclusions related to the inter-conclusion static information amount less than a predetermined value. It has the function of extracting.

上記解除手段はさらに、関連するすべての結論との関連
付けが解除された事象を削除する機能をもたせるとよい
The canceling means may further have a function of deleting an event whose association with all related conclusions has been canceled.

以上のようにしてこの発明によると、情報量の低い事象
との関連付けを多く持っている結論、事象との関連付け
は多く持っているけれども情報量の低い事象が多く含ま
れている知識において、推論に有効でない結論と事象と
の関連付けが解除されることにより、知識ベースが再構
築され、必要最小限の事象と結論の関係が形成される。
As described above, according to the present invention, inferences can be made in conclusions that have many associations with events with a low amount of information, and in knowledge that has many associations with events but include many events with a low amount of information. By removing the association between conclusions and events that are not valid, the knowledge base is rebuilt and the minimum necessary relationship between events and conclusions is formed.

したかって効率的で信頼性の高い近似推論を短時間で行
なうことが可能となる。また、再構築を行なうことによ
って知識記憶データ容量を最小限におさえることができ
、データ格納装置の容量が少なくてすむ。
Therefore, efficient and reliable approximate inference can be performed in a short time. Furthermore, by performing the reconstruction, the knowledge storage data capacity can be kept to a minimum, and the capacity of the data storage device can be reduced.

実施例の説明 (1)近似推論装置の全体構成 第1図は第1の実施例による近似推論装置の全体構成を
示すものである。第8図は第2の実施例による近似推論
装置の全体構成を示すものである。これら両実施例に共
通の要素として、近似推論装置は、知識記憶装置11.
知識合成装置121合成後知識記憶装置13.事象値入
力装置14.適合度演算装置15.動的情報量演算装置
1B、可能性演算装置17.可能性表示装置18.静的
情報量演算装置19、明瞭性演算装置20.明瞭性記憶
装置21.明瞭性加算装置22および明瞭性表示装置2
3を備えている。
Description of Embodiments (1) Overall configuration of approximate inference device FIG. 1 shows the overall configuration of an approximate inference device according to a first embodiment. FIG. 8 shows the overall configuration of an approximate inference device according to the second embodiment. As a common element in both of these embodiments, the approximate reasoning device includes a knowledge storage device 11.
Knowledge synthesis device 121 Post-synthesis knowledge storage device 13. Event value input device 14. Fitness calculation device 15. Dynamic information amount calculation device 1B, possibility calculation device 17. Possibility display device 18. Static information amount calculation device 19, clarity calculation device 20. Clarity storage 21. Clarity addition device 22 and clarity display device 2
It has 3.

第1実施例(第1図)の近似推論装置はさらに知識ベー
ス再構築装置811表示装置32および入力装置33を
備えている。第2実施例(第8図)の近似推論装置はさ
らに、知識ベース再構築装置41゜表示装置42.入力
装置43および結論間静的情報量演算装置44を備えて
いる。
The approximate inference device of the first embodiment (FIG. 1) further includes a knowledge base reconstruction device 811, a display device 32, and an input device 33. The approximate inference device of the second embodiment (FIG. 8) further includes a knowledge base reconstruction device 41.display device 42. It includes an input device 43 and an inter-conclusion static information amount calculation device 44.

まず両実施例に共通の要素について説明し、その後各実
施例に特有の構成および動作について説明する。
First, elements common to both embodiments will be explained, and then configurations and operations specific to each embodiment will be explained.

(2)知識記憶装置 知識記憶装置11は、専門家等が人力した知識を、事象
と結論との関係を示す形式で記憶する装置である。この
装置は複数の専門家の知識を記憶することができる。
(2) Knowledge storage device The knowledge storage device 11 is a device that stores knowledge manually created by experts and the like in a format that shows the relationship between events and conclusions. This device can store the knowledge of multiple experts.

知識記憶装置11に記憶されている2名の専門家exl
 、 ex2の知識の例を規則の形式で以下に示す。
Two experts exl stored in the knowledge storage device 11
, ex2 knowledge example is shown below in the form of a rule.

専門家exl : if’  20≦f’l≦60. 0 ≦f2≦40゜
−、a  ≦fi≦b  、・then  cltl 
    il ・・・(1) if  40≦f1≦80. 60≦f2≦100゜”
” ai2≦f’i≦b12゜ then ・・・(2) if−、a、−≦f’i≦b   、−then  c
jlコ        1j ・・・(3) 専門家ex2 + H30≦f1≦50.10≦f2≦30゜−、a  ≦
fi≦b  、−thenll     il I ・・・(4) if   50≦fL≦70. 70≦f2≦90゜−
、a  ≦f’f≦b12”’ then   c2 ・・・(5) if ・・・ 、a 0.≦fi≦ b 1.、・・・13 
      1コ then   Cj ・・・(6) 上述の規則を、専門家ごとに表(テーブル)の形式で表
現すると次のようになる。
Expert exl: if'20≦f'l≦60. 0≦f2≦40゜-, a≦fi≦b,・then cltl
il...(1) if 40≦f1≦80. 60≦f2≦100゜”
” ai2≦f'i≦b12゜then...(2) if-, a, -≦f'i≦b, -then c
jlko 1j...(3) Expert ex2 + H30≦f1≦50.10≦f2≦30°-, a≦
fi≦b, -thenll I...(4) if 50≦fL≦70. 70≦f2≦90゜-
, a ≦f'f≦b12''' then c2 ... (5) if ... , a 0.≦fi≦ b 1., ...13
1 then Cj...(6) The above rules are expressed in the form of a table for each expert as follows.

第  1 表 専門家exl fl、 f’2. fiは事象であり、これらをそれぞ
れ事象1.事象2.事象iと呼ぶことがある。事象の添
字iは1〜mの範囲の値をとる。cl、 c2. cj
は結論であり、これらをそれぞれ結論1.結論2゜結論
jと呼ぶことかある。結論の添字jは1〜nの範囲の値
をとる。
Table 1 Expert exl fl, f'2. fi is an event, and these are respectively event 1. Event 2. Sometimes called event i. The event index i takes a value in the range 1 to m. cl, c2. cj
are the conclusions, and these are respectively the conclusions 1. It is sometimes called conclusion 2゜conclusion j. The subscript j of the conclusion takes a value in the range of 1 to n.

また、al、≦fi≦b1.のように表わされたal、
Also, al, ≦fi≦b1. al expressed as,
.

1.1        1,1           
          1Jb、、をそれぞれ最小値、最
大値と呼ぶ。
1.1 1,1
1Jb, are called the minimum value and maximum value, respectively.

J 専門家ex2 第  2 表 (3〉知識合成装置 知識合成装置12は、知識記憶装置11に記憶された複
数の専門家の知識を合成して、1つの知識にまとめる装
置である。
J Expert ex2 Table 2 (3> Knowledge synthesis device The knowledge synthesis device 12 is a device that synthesizes the knowledge of a plurality of experts stored in the knowledge storage device 11 and combines it into one knowledge.

知識の合成方法は種々あるが、ここでは、各結論に関与
している各事象の最大値と最小値について、複数の専門
家の平均値と標準偏差を計算する。
There are various ways to synthesize knowledge, but here we calculate the average value and standard deviation of multiple experts for the maximum and minimum values of each event involved in each conclusion.

上述した2名の専門家の事象f1から結論c1を導く知
識を例にとって知識合成処理について以下に説明する。
The knowledge synthesis process will be described below, taking as an example the knowledge of the two experts described above that leads to the conclusion c1 from the event f1.

上述の規則(第(1)式、第(4)式)から、事象1 
(fl)から結論1 (cl)を求める規則を抽出する
と次のように表わされる。
From the above rules (Equations (1) and (4)), event 1
The rule for obtaining conclusion 1 (cl) from (fl) is extracted as follows.

専門家ext : if  20≦f1≦80  th
en  cl−(7)専門家ex2 : if  30
≦rl≦50  then  cl−(8)最小値の平
均値m、および最大値の平均値1!In m  が算出される。
Expert ext: if 20≦f1≦80 th
en cl-(7) expert ex2: if 30
≦rl≦50 then cl-(8) Average value m of the minimum value and average value 1 of the maximum value! In m is calculated.

+5aX 20+ 30  = 25.、、 (9゜m  、  
 ■ iln     2 ” n+ax 80+50 ・・・(10) 最小値の標準偏差σ 、および。
+5aX 20+ 30 = 25. ,, (9゜m,
■iln 2 ” n+ax 80+50 (10) Standard deviation σ of the minimum value, and.

111口 偏差σ  が算出される。111 mouths The deviation σ is calculated.

a+aX 最大値の標準 このような専門家の知識の合成演算を、上述した規則(
第(1)式〜第(6)式)について、各結論に関与して
いる各事象の最小値と最大値のすべてについて行なうと
1次のような表(テーブル)が得られる。
a + a
For equations (1) to (6), if all the minimum and maximum values of each event involved in each conclusion are examined, a table as shown below is obtained.

(以下余白) 第  3 表 一般に、近似推論においては、事象に対してメンバーシ
ップ関数が与えられる。ここでは、−例として、上述の
ようにして合成された専門家の知識を用いてガウス分布
によりメンバーシップ関数を求める方法について説明す
る。
(Left below) Table 3 Generally, in approximate reasoning, a membership function is given to an event. Here, as an example, a method for determining membership functions using Gaussian distribution using expert knowledge synthesized as described above will be described.

最小値の平均値m 、、最大値の平均値mmax’l1
ln 最小値の標準偏差σ、、最大値の標準偏差11n σ  を用いて、メンバーシップ関数は次式によIIa
x り表わされる。
Average value of the minimum value m ,, average value of the maximum value mmax'l1
Using the standard deviation ln of the minimum value σ, and the standard deviation of the maximum value 11n σ, the membership function is calculated by the following formula IIa
x

・・・(13) たたし X  :事象への入力データの値 Φ(X)二人力データXか事象に適合する程度(適合度
) Gauss(x) :入力Xにおけるガウス分布の値で
ある。
...(13) TachiX: Value of input data to the event Φ(X) Degree to which two-person data X fits the event (degree of fit) Gauss(x): Value of Gaussian distribution at input X .

第2図にガウス分布の一例を示す。このガウス分布にお
いてメンバーシップ関数の作成のために左半分のみが使
用される。Φ(x)−0,5におけるXの位置はm 、
 またはm  によって決定さff1ln      
      IIaXれ、傾きはσ 、 またはσ  
によって決定され111n            1
naXる。
Figure 2 shows an example of a Gaussian distribution. Only the left half of this Gaussian distribution is used to create the membership function. The position of X at Φ(x)-0,5 is m,
or m determined by ff1ln
IIaX, the slope is σ or σ
determined by 111n 1
NaXru.

一例として、事象f1から結論c1を求めるためのメン
バーシップ関数は、第(9)式から第〈12)式により
算出した値を用いて第3a図から第3c図のようにして
作成される。この場合、第(13)式は次のようになる
As an example, the membership function for determining the conclusion c1 from the event f1 is created as shown in FIGS. 3a to 3c using the values calculated by equations (9) to (12). In this case, equation (13) becomes as follows.

・・・(14) 第3a図は第(13)式または第(14)式の右辺第1
項を、第3b図は第り13)式または第(14)式の右
辺第2項を、第3C図は上記第1項から第2項を減算し
た結果、すなわち第(13)式または第(14)式で表
わされるメンバーシップ関数を表わしている。
...(14) Figure 3a is the first right-hand side of equation (13) or equation (14).
Figure 3b shows the second term on the right side of equation 13) or equation (14), and Figure 3C shows the result of subtracting the second term from the first term, that is, equation (13) or equation (14). It represents the membership function expressed by equation (14).

第3表に示す合成された知識に基づいて作成された各事
象fl、 f’2. fiについて、結論cL、 c2
. cjを求めるためのメンバーシップ関数の例を、第
4a図、第4b図および第4c図に示す。
Each event fl, f'2. created based on the synthesized knowledge shown in Table 3. For fi, the conclusion cL, c2
.. Examples of membership functions for determining cj are shown in FIGS. 4a, 4b and 4c.

(4)合成後知識記憶装置 合成後知識記憶装置13には、知識合成装置12によっ
て算出された平均値と標準偏差が、第3表のような形式
で記憶される。知識の合成は推論の都度行なう必要はな
いため、このようにあらかじめ計算した結果を記憶して
おく。そして推論の都度この記憶装置13内の値を読み
出して使用することによって推論処理の高速化を図るこ
とができる。
(4) Post-synthesis knowledge storage device The post-synthesis knowledge storage device 13 stores the average value and standard deviation calculated by the knowledge synthesis device 12 in the format shown in Table 3. Since it is not necessary to synthesize knowledge every time an inference is made, the results calculated in advance in this way are memorized. By reading out and using the values in the storage device 13 each time an inference is made, it is possible to speed up the inference process.

(5)事象値入力装置 事象値入力装置14はキーボード、通信インターフェイ
ス装置、メモリ、ファイルなどから、事象ごとに入力さ
れる入力データを読み込む装置である。入力されたデー
タは適合度演算装置15に与えられるとともに、各事象
のデータか入力されたかどうかの情報か明瞭性加算装置
22に与えられる。
(5) Event value input device The event value input device 14 is a device that reads input data input for each event from a keyboard, communication interface device, memory, file, etc. The input data is given to the fitness computing device 15, and the data of each event or information on whether or not it has been input is given to the clarity adding device 22.

事象値は確定値のみならず言語値やメンバーシップ関数
で与えてもよい。
The event value may be given not only as a definite value but also as a linguistic value or a membership function.

(6)適合度演算装置 適合度演算装置15は、事象値入力装置14から入力さ
れたデータの各メンバーシップ関数(または結論)に対
する適合度を算出するものである。具体的には適合度は
、入力データが確定値の場合には第(13〉式の右辺の
変数Xとして入力データを代入することによりΦ(X)
として求められる。もちろんこのような演算式を必ずし
も用いなくてもよい。入力データが言語値やメンバーシ
ップ関数の場合には、たとえば旧N−MAX演算を用い
て適合度が算出されよう。
(6) Fitness calculation device The fitness calculation device 15 calculates the fitness of the data input from the event value input device 14 for each membership function (or conclusion). Specifically, when the input data is a definite value, the goodness of fit can be calculated by substituting the input data as the variable X on the right side of equation (13).
It is required as. Of course, such an arithmetic expression does not necessarily have to be used. If the input data is a linguistic value or a membership function, the goodness of fit may be calculated using, for example, the old N-MAX operation.

(7〉動的情報量演算装置と静的情報量演算装置事象r
1の事象値(入力データ)をXl、事象r2の事象値を
x2.事象rjの事象値をxiとする。これらのデータ
は事象値入力装置14から入力される。
(7> Dynamic information calculation device and static information calculation device event r
The event value of event r2 (input data) is Xl, and the event value of event r2 is x2. Let the event value of event rj be xi. These data are input from the event value input device 14.

第5a図および第5b図に示すように各適合度1112
° lj   21  22°m2jを次0ように定め
る。
As shown in FIGS. 5a and 5b, each degree of fitness 1112
° lj 21 22°m2j is determined as follows.

m11:入力データx1の結論c1のメンバーシップ関
数に対する適合度 m12:入力データx1の結論c2のメンバーシップ関
数に対する適合度 mLj ’入力データx1の結論cjのメンバーシップ
関数に対する適合度 m21:人力データx2の結論C1のメンバーシップ関
数に対する適合度 m22:入力データx2の結論C2のメンバーシップ関
数に対する適合度 m2j’入力データx2の結論cjのメンバーシップ関
数に対する適合度 一般に、第5c図に示すように、適合度m1.を】J 入力データ(事象値) xlの結論cjのメンバーシッ
プ関数に対する適合度とする。
m11: Degree of suitability of input data x1 to the membership function of conclusion c1 m12: Degree of suitability of input data x1 to the membership function of conclusion c2 mLj ' Degree of suitability of input data x1 to the membership function of conclusion cj m21: Human data x2 The goodness of fit of the input data x2 to the membership function of the conclusion C1 m22: The goodness of fit of the input data x2 to the membership function of the conclusion C2 m2j' The goodness of fit of the input data x2 to the membership function of the conclusion cj Generally, as shown in FIG. 5c, goodness of fit m1. ]J is the fitness of the input data (event value) xl to the membership function of the conclusion cj.

これらの適合度、iは入力データxi、 x2. xi
か与えられたときに適合度演算装置15によって算出さ
れる。
These fitness degrees, i, are input data xi, x2. xi
It is calculated by the fitness computing device 15 when a given value is given.

ここでファジィ串エントロピという概念を考える。Here we consider the concept of fuzzy skewer entropy.

入力xiが与えられたときのファジィ・エントロピEf
iを次のように定義する。
Fuzzy entropy Ef when input xi is given
Define i as follows.

Eft−−、: + (m、/ M、 ) IOg (
m、/M、 ) 1・・・(15) ここで M、 −Σ m、、                
 ・・・(16)1     ノー+     lj このファジィψエントロピは1情報識別能力の指標の一
種で、入力データxiを与えたときに、結論が明確に識
別できるほど小さい値となり、結論があいまいにしか識
別できないほど大きい値となる。
Eft--,: + (m, / M, ) IOg (
m, /M, ) 1...(15) where M, -Σ m,,
...(16) 1 no + lj This fuzzy ψ entropy is a type of index of information discrimination ability, and when input data xi is given, the value is small enough that the conclusion can be clearly identified, and the conclusion is only ambiguous. The value is so large that it cannot be identified.

ファジィ・エントロピEfの取り得る値の範囲は以下に
示すものとなる。
The range of values that the fuzzy entropy Ef can take is as shown below.

0≦Ef≦log(n ) n:事象上の結論数 次に、このファジィ・エントロピEftを使用して、入
力データxiか与えられたときの動的情報量If’i 
(xi)を求める。ここで、動的情報量1fiD(y;
i)とは、推論を行なうときにおける結論を確定するだ
めの事象の識別能力である。
0≦Ef≦log(n) n: number of conclusions on the event Next, using this fuzzy entropy Eft, the dynamic information amount If'i when input data xi is given
Find (xi). Here, the dynamic information amount 1fiD(y;
i) is the ability to identify events that determine a conclusion when making inferences.

そこで、事象fiについての動的情報量1ftp(xt
)を、最大ファジィ・エントロピから、入力データx1
が与えられたときのファジィ・エントロピEftを引い
たものと定義する。
Therefore, the dynamic information amount 1ftp(xt
) from the maximum fuzzy entropy, input data x1
is defined as minus the fuzzy entropy Eft when is given.

IffD(xi)=log(n)+、X l(mlj/
M、 ) l og (mij/M1) 1・・・(1
7) 入力データx1が与えられなかった事象f1の動的情報
量は零となる。
IfD(xi)=log(n)+,X l(mlj/
M, ) log (mij/M1) 1...(1
7) The dynamic information amount of event f1 to which input data x1 is not given becomes zero.

動的情報量演算装置16は、適合度演算装置工5で得ら
れた適合度を用いて、第(17)式にしたがって事象ご
とに動的情報量を算出する。
The dynamic information amount calculating device 16 calculates the dynamic information amount for each event according to equation (17) using the degree of suitability obtained by the degree of suitability calculating device 5.

動的情報量は上述のように入力データxiに依存する。The amount of dynamic information depends on the input data xi as described above.

これに対して、静的情報量は入力データに依存しないも
のであって、最大ファジィ・エントロピから、事象のレ
ンジ幅の中のファジィΦエントロピーの平均を引いたも
のを、事象全体の静的情報量とする。事象iについての
静的情報量は次式%式% mij(xik):事象fiについての入力データXl
kの結論cjのメンバーシップ 関数に対する適合度 静的情報量を求めるときには、第4c図に示すように、
事象flのレンジ幅x1□〜X l pをδ間隔て(p
−1)個に分割している。第(18)式の(1/p)[
>Th  、、、]は各xikについてファジィ・エン
トロピを計算してそれらの平均を求める演算を表わして
いる。
On the other hand, the amount of static information does not depend on the input data, and the static information of the entire event is calculated by subtracting the average fuzzy Φ entropy within the range of the event from the maximum fuzzy entropy. Quantity. The amount of static information about event i is expressed by the following formula % mij (xik): Input data Xl about event fi
When calculating the fitness static information amount for the membership function of the conclusion cj of k, as shown in Figure 4c,
The range width x1□~X l p of the event fl is set at intervals of δ (p
-1) It is divided into pieces. (1/p) of equation (18) [
>Th , , ] represents an operation for calculating the fuzzy entropy for each xik and finding their average.

第(18)式および第(19)式から分るように、事象
のメンバーシップ関数間の重なりが大きいほど。
As can be seen from equations (18) and (19), the greater the overlap between the event membership functions.

事象の静的情報量は小さく、事象のメンバーシップ関数
間の重なりが小さいほど、事象の静的情報量は大きい。
The amount of static information of an event is small, and the smaller the overlap between the membership functions of an event, the larger the amount of static information of an event.

つまり、静的情報量は、事象のメンバーシップ関数が結
論を識別する能力を示している。
In other words, the amount of static information indicates the ability of an event's membership function to identify a conclusion.

静的情報量演算装置19は2合成された知識により得ら
れるメンバーシップ関数から、上述した第(18)式お
よび第(19)式にしたがって、事象ごとに、静的情報
量を演算して記憶する。静的情報量は入力データには依
存しないので、1回のみ算出されればよい。
The static information amount calculating device 19 calculates and stores the amount of static information for each event from the membership function obtained from the two combined knowledges according to the above-mentioned equations (18) and (19). do. Since the static information amount does not depend on input data, it only needs to be calculated once.

(8)可能性演算装置 各結論ごとに、その結論に関与する事象の情報量の総和
が1になり、かつそれらの事象の情報量の相対強度は変
化しないような事象の情報量を算出する。この算出した
情報量を重みという。
(8) Possibility calculation device For each conclusion, calculates the amount of information of events such that the sum of the amount of information of events involved in that conclusion is 1, and the relative strength of the amount of information of those events does not change. . This calculated amount of information is called a weight.

たとえば上述した動的情報量を用いると事象fiごとの
重みwiは次のようになる。
For example, if the amount of dynamic information described above is used, the weight wi for each event fi will be as follows.

wi −1f’i (xi)/ 、)RIffD(xi
)     −(20)次に、これらの重みと適合度と
の積を計算し。
wi −1f'i (xi)/ , )RIffD(xi
) - (20) Next, calculate the product of these weights and fitness.

それを結論ごとに合計したものを、各結論cjの可能性
Pr、として算出する。
The total sum for each conclusion is calculated as the probability Pr of each conclusion cj.

たとえば上記の例では Pr、  −Σ  (vix m 、、)      
    −(21)j     +−+       
    IJ可能性演算装置17は上述した演算を行な
い結論ごとの可能性を算出する。
For example, in the above example, Pr, −Σ (vix m,,)
−(21)j +−+
The IJ possibility calculation device 17 performs the above-mentioned calculations to calculate the probability for each conclusion.

(9)可能性表示装置 この可能性表示装置18は、可能性演算装置17て算出
された可能性を結論ごとに表示するものである。この可
能性の表示は、すべての結論について表示するようにし
てもよいし、可能性が高い結論を1個または複数個表示
するものでもよい。また1通信によって可能性を他の装
置に伝送したり、可能性をメモリやファイルに記憶して
もよい。
(9) Possibility Display Device This possibility display device 18 displays the possibilities calculated by the possibility calculation device 17 for each conclusion. The possibility may be displayed for all conclusions, or one or more highly probable conclusions may be displayed. Also, the possibility may be transmitted to another device through one communication, or the possibility may be stored in a memory or a file.

(10)明瞭性演算装置 明瞭性演算装置20は、各結論ごとに、各事象の明瞭性
を演算する装置である。ここで、各結論ごとの各事象の
明瞭性とは、ある結論の可能性を評価する時の各事象の
相対的な識別能力を示すものである。したがって、この
明瞭性により、ある結論を確定するための、複数の事象
の識別能力を比較することができ、どの事象が高い識別
能力を持っているか(多くの情報量を持っているか)が
分る。
(10) Clarity calculation device The clarity calculation device 20 is a device that calculates the clarity of each event for each conclusion. Here, the clarity of each event for each conclusion indicates the relative discernment ability of each event when evaluating the possibility of a certain conclusion. Therefore, this clarity makes it possible to compare the discriminative ability of multiple events in order to establish a certain conclusion, and to understand which event has a high discriminative ability (contains a large amount of information). Ru.

結論ごとの各事象の明瞭性は次式により求められる。The clarity of each event for each conclusion is determined by the following formula.

ただし。however.

Ao、−Σ m、(xi) 1コ    k−113k すなわち。Ao, -Σ m, (xi) 1 piece k-113k Namely.

・・・(23) 事象fiに結論cjのメンバーシップ関数が存在すれば
A、、>O j 事象riに結論cjのメンバーシップ関数が存在しなけ
ればA 、、−0 J 結論ごとの各事象の明瞭性を表わす第(22)式の分母
は、結論cjのメンバーシップ関数か存在する事象fi
についてのみその静的情報量1fxsの総和をとるもの
である。
...(23) If the membership function of the conclusion cj exists in the event fi, A,, > O j If the membership function of the conclusion cj does not exist in the event ri, A,, -0 J Each event for each conclusion The denominator of equation (22) expressing the clarity of is the membership function of the conclusion cj or the existing event fi
The total sum of the static information amount 1fxs is calculated only for .

明瞭性は静的情報量を第(22)式によって正規化した
ものであるので、相対的な識別能力が直観的に分りやす
くなっている。
Since clarity is obtained by normalizing the amount of static information using equation (22), it is easy to intuitively understand the relative discrimination ability.

このようにして、明瞭性演算装置20において。In this way, in the clarity calculation device 20.

各結論ごとに各事象の明瞭性が算出される。The clarity of each event is calculated for each conclusion.

(11)明瞭性記憶装置 明瞭性記憶装置21は、明瞭性演算装置20で算出され
た各結論ごとの各事象の明瞭性を記憶する装置である。
(11) Clarity Storage Device The clarity storage device 21 is a device that stores the clarity of each event for each conclusion calculated by the clarity calculation device 20.

明瞭性の演算は、推論のたびに行なう必要はない。そこ
で、知識を合成したときに算出した明瞭性を明瞭性記憶
装置21に記憶しておき。
Clarity calculations do not need to be performed every time an inference is made. Therefore, the clarity calculated when knowledge is synthesized is stored in the clarity storage device 21.

推論を行なうたびに明瞭性記憶装置21に記憶している
値を読み出すようにする。これにより、推論処理の高速
化が図れる。
The value stored in the clarity storage device 21 is read out every time an inference is made. This makes it possible to speed up the inference processing.

(12)明瞭性加算装置 明瞭性加算装置22は、データが実際に入力された事象
の明瞭性を結論ごとに演算する装置である。ここでは、
実際に行なわれる推論のために。
(12) Clarity Addition Device The clarity addition device 22 is a device that calculates the clarity of an event to which data is actually input for each conclusion. here,
for the inferences that are actually made.

データが入力された事象の明瞭性の結論ごとの総和をと
る。この明瞭性の総和は、推論結果の明瞭性を示す。こ
の明瞭性が高いほど、推論結果(結論)を導くための情
報量が多いといえる。したがって明瞭性は推論結果自体
の信頼性を判断する指標に使用することができる。
Take the summation for each conclusion of the clarity of the events for which data has been entered. The sum of this clarity indicates the clarity of the inference result. It can be said that the higher the clarity, the greater the amount of information for deriving the inference result (conclusion). Therefore, clarity can be used as an indicator to judge the reliability of the inference result itself.

推論結果に対する(すなわち、結論ごとの)明瞭性は次
式にしたがって算出される。
The clarity for the inference results (that is, for each conclusion) is calculated according to the following formula.

cn、−1子+C11J           ・・・
(24)ただし、第(24)式において入力データxi
が与えられなかった事象fiの明瞭性Cρ5.はOとし
て取J 扱う。すなわち、入力データxjか与えられた事象の明
瞭性cn、、についてのみ第(24)式の加算が行J なわれる。
cn, -1 child + C11J...
(24) However, in equation (24), input data xi
The clarity of the event fi for which Cρ5. is treated as O. That is, the addition of equation (24) is performed in row J only for the input data xj or the clarity cn of the given event.

推論結果の明瞭性C1,のとり得る範囲は。What is the possible range of clarity C1 of the inference result?

0.0 ≦Cg、≦1.0 である。つまり、推論を行なう前に与えられた知識の中
で、ある結論を導くために使用することができる事象の
すべてについてデータを入力して推論を行なった場合、
その結論の明瞭性は1.0になる。また、ある結論を導
くために使用することかできる事象の中で、一部の事象
のみについて。
0.0≦Cg, ≦1.0. In other words, if you make an inference by inputting data about all the events that can be used to draw a certain conclusion within the knowledge given before making the inference,
The clarity of the conclusion will be 1.0. Also, only some of the events that can be used to draw a certain conclusion.

データを入力した場合、明瞭性は0.0から1.0の間
の値となる。このとき、使用することができる事象の中
で、明瞭性の高い事象を多く使用すれば、結論の明瞭性
も高くなり、信頼性が高い推論結果が得られると言える
If the data is entered, clarity will be a value between 0.0 and 1.0. At this time, it can be said that if a large number of events with high clarity are used among the events that can be used, the clarity of the conclusion will also be increased, and a highly reliable inference result can be obtained.

(13)明瞭性表示装置 明瞭性表示装置23は、明瞭性加算装置22で算出した
推論結果(−例として上述した可能性)に対する明瞭性
を表示する装置である。明瞭性は推論結果と共に表示し
てもよいし、また明瞭性を他の装置に伝送したり、メモ
リやファイルへ記憶するようにしてもよい。
(13) Clarity Display Device The clarity display device 23 is a device that displays the clarity of the inference result (-the possibility mentioned above as an example) calculated by the clarity addition device 22. The clarity may be displayed along with the inference results, or the clarity may be transmitted to another device or stored in memory or a file.

この明瞭性の表示は、推論結果の全ての結論について表
示する。したがって結論が複数存在する場合には、それ
ぞれの結論に対応する明瞭性が表示される。
This clarity display displays all conclusions of the inference results. Therefore, if there are multiple conclusions, the clarity corresponding to each conclusion is displayed.

このようにして、データが入力されるたびに。In this way, every time data is entered.

入力されたデータが属する事象の情報量を演算し、推論
結果に対する明瞭性を表示することにより、推論結果に
対する信頼性をユーザが判断できるようになる。
By calculating the information amount of the event to which the input data belongs and displaying the clarity of the inference result, the user can judge the reliability of the inference result.

(14)第1実施例 第1図を参照して、第1実施例の近似推論装置は知識ベ
ース再構築装置311表示装置32および入力装置33
を備えている。第1実施例では、専門家の知識が一旦知
識記憶装置11に蓄えられ、知識合成装置12でそれら
が合成されたのち、静的情報量演算装置19および明瞭
性演算装置20で、結論ごとの各事象の明瞭性Cρ1j
が算出される。この算出された明瞭性Cg1.が知識ベ
ース再構築装置31にJ 与えられることにより、知識ベース再構築装置31によ
って知識記憶装置11に記憶された知識および知識合成
装置12で合成された知識のうち不要なものが削除され
、これらの知識ベースの再構築が行なわれる。
(14) First Embodiment Referring to FIG. 1, the approximate inference device of the first embodiment includes a knowledge base reconstruction device 311, a display device 32, and an input device 33.
It is equipped with In the first embodiment, the knowledge of experts is once stored in the knowledge storage device 11, and after being synthesized in the knowledge synthesis device 12, the static information amount calculation device 19 and the clarity calculation device 20 are used to calculate the results for each conclusion. Clarity of each event Cρ1j
is calculated. This calculated clarity Cg1. By giving J to the knowledge base reconstruction device 31, unnecessary pieces of knowledge stored in the knowledge storage device 11 and knowledge synthesized by the knowledge synthesis device 12 are deleted by the knowledge base reconstruction device 31, and these The knowledge base will be rebuilt.

知識ベース再構築装置31は明瞭性演算装置20から結
論ごとの各事象の明瞭性の値cn、、を受取るJ と、これらを第6図に示すように、結論cjごとに、明
瞭性の値CI1.をその小さい順番に事象とJ 関連付けて並びかえ、明瞭性テーブルをつくる。
The knowledge base reconstruction device 31 receives the clarity value cn, , of each event for each conclusion from the clarity calculation device 20, and converts these into a clarity value for each conclusion cj, as shown in FIG. CI1. Create a clarity table by associating and arranging J with events in descending order.

第6図において、横方向の並びは結論を表わし。In FIG. 6, the horizontal alignment represents the conclusion.

縦方向の並びは明瞭性の値CD、、の大きさの順番J を表わしている。各欄において、上側のfi(cj)は
結論cjに関連する事象f1を表わし、下側の数字(0
,034、0,076等)は明瞭性の値CD、、を示し
1コ ている。下から2番目の列の事象数は各結論に関連付け
られている事象の数を表わす。最下段の列は明瞭性の値
の合計を示し、明瞭性は結論ごとに正規化されているか
ら、それらの結論ごとの合計値は必ず1となる。
The vertical arrangement represents the order of magnitude J of the clarity values CD, . In each column, the upper fi(cj) represents the event f1 related to the conclusion cj, and the lower number (0
, 034, 0,076, etc.) indicates the clarity value CD, . The number of events in the second column from the bottom represents the number of events associated with each conclusion. The bottom column shows the sum of clarity values, and since clarity is normalized for each conclusion, the total value for each conclusion is always 1.

知識ベース再構築装置31は第6図に示す明瞭性テーブ
ルを参照して第7図に示す処理を行なう。
The knowledge base reconstruction device 31 refers to the clarity table shown in FIG. 6 and performs the processing shown in FIG. 7.

まず一番目の結論C1について次のような処理を行なう
。最も小さい明瞭性の値(第6図では0.006 )が
所定値(たとえば0.01程度に設定される)以下かど
うかを判断しくステップ53)、そうであれば、知識記
憶装置11において、所定値以下の明瞭性の値をもつ事
象(第6図ではfl(cl))と結論c1との関連付け
を解除する(ステップ54)。
First, the following processing is performed for the first conclusion C1. It is determined whether the smallest clarity value (0.006 in FIG. 6) is less than a predetermined value (for example, set to about 0.01) (step 53), and if so, in the knowledge storage device 11, The association between the event having a clarity value less than or equal to a predetermined value (fl(cl) in FIG. 6) and the conclusion c1 is canceled (step 54).

事象r1と結論CIとの関連付けを解除するとは、たと
えば上述した第(1)式または第(4)式において、結
論c1についての事象f1に関する知識20≦r1≦6
0または30≦f1≦50を削除することを意味する。
To disassociate event r1 from conclusion CI means, for example, in the above-mentioned equation (1) or equation (4), knowledge regarding event f1 regarding conclusion c1 is 20≦r1≦6.
This means to delete 0 or 30≦f1≦50.

第(1)式または第(4)式において、、結論CIと他
の事象f2. f’i等との関係はそのまま保持される
。上記事象f1が結論C1とのみ関係し、他の事象とは
全く関係していない場合にはこの事象f1そのものを削
除してしまってもよい。明瞭性の値が所定値以下でなけ
れば結論と事象との関連付は解除処理は行なわれない。
In equation (1) or equation (4), conclusion CI and other events f2. The relationship with f'i, etc. is maintained as is. If the event f1 is related only to the conclusion C1 and has no relation to other events, the event f1 itself may be deleted. Unless the clarity value is less than or equal to a predetermined value, the association between the conclusion and the event is not removed.

結論c1に関連するすべての事象について、その明瞭性
の小さい順にステップ53.54の処理が繰返される(
ステップ52)。
The processes of steps 53 and 54 are repeated for all events related to conclusion c1 in descending order of clarity (
Step 52).

そして 結論C1についてステップ52〜54の処理が
終了したら次に結論C2について同様の処理を行なう。
When the processing of steps 52 to 54 is completed for the conclusion C1, the same processing is performed for the conclusion C2.

このようにして、すべての結論について順番にステップ
52〜54の処理を行なっていく(ステップ51)。
In this way, steps 52 to 54 are performed in order for all conclusions (step 51).

上述した結論と事象との関連付は解除処理を繰返すこと
により、関連していた事象のすべてがその結論との関連
付けを解除されてしまったような結論かありうる。そこ
で、このようなすべての事象との関連付けが無くなって
しまった結論は知識記憶装置11から削除される(ステ
ップ56.57)。
By repeating the above-mentioned process of canceling the association between the conclusion and the event, there may be a conclusion in which all the related events are disassociated from the conclusion. Conclusions that are no longer associated with all such events are then deleted from the knowledge storage 11 (steps 56 and 57).

この処理はすべての結論について行なわれる(ステップ
55)。
This process is performed for all conclusions (step 55).

以上のようにして、明瞭性の非常に低い(すなわち近似
推論に有効に働くことかない)結論と事象との関連付け
が解除され、知識記憶装置11内に記憶されている知識
か整理される。
As described above, the association between a conclusion with very low clarity (that is, it does not work effectively for approximate reasoning) and an event is canceled, and the knowledge stored in the knowledge storage device 11 is organized.

結論と事象との関連付けの解除処理において。In the process of canceling the association between a conclusion and an event.

所定値よりも小さい明瞭性の値をもつ事象名をその明瞭
性の値とともに表示装置32に表示し、および/または
その事象の明瞭性の値は所定値よりも小さいので解除す
べき旨を表示装置32に表示し。
Displaying an event name having a clarity value smaller than a predetermined value on the display device 32 together with its clarity value, and/or displaying a message that the event should be canceled because its clarity value is smaller than the predetermined value. displayed on the device 32.

人間による解除確認または解除指令が入力装置33から
入力されたことに応答して、知識記憶装置11における
その事象と結論との関連付けを解除するようにしてもよ
い。
The association between the event and the conclusion in the knowledge storage device 11 may be canceled in response to a human input of cancellation confirmation or cancellation instruction from the input device 33.

結論の削除処理についても同様である。The same applies to the conclusion deletion process.

第7図の処理では事象と結論との関連付けの解除または
結論の削除は知識記憶装置11の知識について行なわれ
ているが1合成後知識記憶装置13に記憶されている合
成後知識について行なうようにしてもよい。
In the process shown in FIG. 7, the cancellation of the association between an event and a conclusion or the deletion of a conclusion is carried out for the knowledge in the knowledge storage device 11, but it is also done for the post-synthesis knowledge stored in the post-synthesis knowledge storage device 13. You can.

以上のようにして、知識記憶装置11内に記憶されてい
る知識(知識ベース)か整理されると、知識ベース再構
築装置31は知識合成装置12を起動して、整理後の知
識の再合成処理を行なわせる。この再合成処理は上述し
た合成処理と同じようにして行なわれる。知識の再合成
指令は知識ベース再構築装置31か第7図に示す処理終
了後に自動的に出力するようにしてもよいし9人力装置
33からの人間の入力に応答して出力してもよい。
When the knowledge (knowledge base) stored in the knowledge storage device 11 is organized as described above, the knowledge base reconstruction device 31 starts the knowledge synthesis device 12 to resynthesize the organized knowledge. Let it process. This recombining process is performed in the same manner as the above-described combining process. The knowledge resynthesis command may be output automatically after the knowledge base reconstruction device 31 completes the processing shown in FIG. 7, or may be output in response to human input from the human-powered device 33. .

再合成された知識は合成後知識記憶装置13に記憶され
るとともに静的情報量演算装置19に与えられ、静的情
報量および明瞭性の再演算か行なわれる。
The resynthesized knowledge is stored in the post-synthesis knowledge storage device 13 and is also provided to the static information amount calculation device 19, where the static information amount and clarity are recalculated.

そして、必要ならば再演算後の明瞭性が再び知識ベース
再構築装置31に与えられ、第7図に示す知識ベース再
構築処理が再度行なわれる。この知識ベース再構築処理
は必要に応じて何回でも繰返し行なうことかできるのは
いうまでもない。
Then, if necessary, the clarity after the recalculation is given again to the knowledge base reconstruction device 31, and the knowledge base reconstruction process shown in FIG. 7 is performed again. It goes without saying that this knowledge base reconstruction process can be repeated as many times as necessary.

このようにして、最終的に信頼性の高い知識ベースが得
られる。
In this way, a reliable knowledge base is finally obtained.

知識ベース再構築処理によって知識ベースが確定したの
ちに、適合度、動的情報量、結論の可能性、明瞭性加算
等を含む近似推論演算か、入力する事象データに応答し
て行なわれる。
After the knowledge base is determined by the knowledge base reconstruction process, approximate inference calculations including relevance, dynamic information amount, possibility of conclusion, clarity addition, etc. are performed, or in response to input event data.

(15)第2実施例 第8図を参照して、第2実施例の近似推論装置は知識ベ
ース再構築装置412表示装置42.入力装置43およ
び結論間静的情報量演算装置44を備えている。第2実
施例では知識ベース再構築のために結論間静的情報量と
いう概念か用いられる。
(15) Second Embodiment Referring to FIG. 8, the approximate inference device of the second embodiment includes the knowledge base reconstruction device 412 display device 42. It includes an input device 43 and an inter-conclusion static information amount calculation device 44. In the second embodiment, the concept of inter-conclusion static information amount is used for knowledge base reconstruction.

事象1についての静的情報量は上述したように第(18
)式で表わされ、その事象1に関係するすべての結論を
導くためのメンバーシップ関数を用いて演算される。
As mentioned above, the amount of static information regarding event 1 is
), and is calculated using a membership function to derive all conclusions related to the event 1.

これに対して結論間静的情報量Iri  は、あるlt 事象lに関係する2つの結論cs、 ctを導くための
メンバーシップ関数を用いて9次式にしたがって演算さ
れる。ここでs、tは結論を特定する添字で1〜nの値
をとる。
On the other hand, the inter-conclusion static information amount Iri is calculated according to a 9th order equation using a membership function for deriving two conclusions cs and ct related to a certain lt event l. Here, s and t are subscripts specifying the conclusion, and take values of 1 to n.

・・・(25) 事象iに関係する結論か3個以上ある場合には、それら
の結論の中から2つの結論を組合せる組合せの数の半数
だけその事象iに関して結論間静的情報量が得られる。
...(25) If there are three or more conclusions related to event i, the amount of inter-conclusion static information regarding that event i is equal to half the number of combinations of two conclusions among those conclusions. can get.

結論間静的情報量もまた。2つの結論のメンバーシップ
関数間の重なりが大きいほど小さな値となり(情報量が
小さい)1重なりが小さいほど大きな値となる(情報量
か大きい)。
Also the amount of static information between conclusions. The larger the overlap between the membership functions of two conclusions, the smaller the value (the smaller the amount of information), and the smaller the overlap, the larger the value (the larger the amount of information).

結論間静的情報量演算装置44は、知識合成装置12か
ら得られる合成後の知識を用いて、事象ごとに、結論間
静的情報量を演算して第9図に示すような情報量テーブ
ルを作成する。第9図は事象1についての情報量テーブ
ルであり、事象1について結論cl、 c3. csお
よびetが関連している場合において、これらの結論の
中から2つの結論を組合せたときの結論間静的情報量を
示している(たたし結論C3とeSとの間の結論間静的
情報量Ifi3Sおよび結論c1とeSとの間の結論間
静的情報量If1Sは図示されていない)。このような
情報量テーブルは知識ベース再構築装置41に与えられ
る。
The inter-conclusion static information amount calculation device 44 uses the synthesized knowledge obtained from the knowledge synthesis device 12 to calculate the inter-conclusion static information amount for each event and creates an information amount table as shown in FIG. Create. FIG. 9 is an information amount table for event 1, and conclusions cl, c3. In the case where cs and et are related, it shows the amount of inter-conclusion static information when two of these conclusions are combined (and the inter-conclusion static information between conclusion C3 and eS). (The static information amount Ifi3S and the inter-conclusion static information amount If1S between the conclusions c1 and eS are not shown). Such an information amount table is given to the knowledge base reconstruction device 41.

知識ベース再構築装置41は情報量テーブルを参照して
第10図に示す処理を実行する。
The knowledge base reconstruction device 41 refers to the information amount table and executes the process shown in FIG. 10.

ある事象fiについて結論間静的情報量を情報量テーブ
ルから取出し、各結論間静的情報量か所定値以下かどう
かをそれぞれ判断する(ステップ62、63)。所定値
以下の結論間静的情報量がある場合には、その結論間静
的情報量に関係する2つの結論のうちのどちらを削除す
べきかを判断する。そのために、2つの結論のそれぞれ
について、その結論が関係している結論間静的情報量の
合計値を算出しくステップB4)1合計値の小さい方の
結論について事象fiとの関連付けを知識記憶装置11
において解除する(ステップ65.86)。
The inter-conclusion static information amount for a certain event fi is taken out from the information amount table, and it is determined whether each inter-conclusion static information amount is less than a predetermined value (steps 62, 63). If there is an inter-conclusion static information amount that is less than a predetermined value, it is determined which of the two conclusions related to the inter-conclusion static information amount should be deleted. To do this, for each of the two conclusions, calculate the total value of the inter-conclusion static information amount that the conclusion is related to.Step B4) 1) For the conclusion with the smaller total value, associate it with the event fi in the knowledge storage device. 11
(step 65.86).

たとえば第9図において結論csとctの間の静的情報
量Iff  か所定値よりも小さいと判断されたt 場合には、結論csが関連する他の結論間静的情報量の
合計IF  と、結論ctが関連する他の結輪間静的情
報量の合計IP、とが算出される。すなわち、結論cs
が関連する他の結論間静的情報量はIfi  とl r
 ] 3 SであるのでIF8− Iff、 + lf
f3Ss となる。同様にIF  −lN1t+1fi3tとなる
。もしIP  >IP  ならば結論etの事象「iと
の関連付けs       t が解除され、 IP  <IFtならば結論aSの事象
fiとの関連付けが解除される。
For example, in FIG. 9, if the static information amount Iff between the conclusions cs and ct is determined to be smaller than a certain value, then the sum IF of the static information amounts between other conclusions to which the conclusion cs is related, The total IP of other inter-ring static information amounts to which the conclusion ct is related is calculated. That is, the conclusion cs
The amount of static information between other conclusions related to is Ifi and l r
] 3 S, so IF8- If, + lf
It becomes f3Ss. Similarly, IF -lN1t+1fi3t. If IP > IP, the association s t of the conclusion et with the event "i" is canceled, and if IP < IFt, the association of the conclusion aS with the event fi is canceled.

上記の処理は事象r1からrolについて順番に行なわ
れる(ステップ61)。
The above processing is performed sequentially for events r1 to rol (step 61).

最後に、関連していたすべての結論との関連付けが解除
されてしまった事象があるかどうかがチェックされ、も
しあればその事象が知識記憶装置11から削除される(
ステップ68.69)。
Finally, it is checked whether there are any events that are no longer associated with all the conclusions that they were associated with, and if so, they are deleted from the knowledge storage 11 (
Step 68.69).

以上のようにして、結論間静的情報量が非常に低い(す
なわち近似推論に有効に働くことがない)2つの結論の
うちの一方の結論と事象との関連付けか解除され、知識
記憶装置11内に記憶されている知識が整理される。
As described above, the association between one of the two conclusions with a very low inter-conclusion static information amount (that is, it does not work effectively for approximate reasoning) and the event is released, and the knowledge storage device 11 The knowledge stored within is organized.

事象と結論との関連付けの解除処理において。In the process of canceling the association between an event and a conclusion.

所定値よりも小さい結論間静的情報量の2つの結論、お
よびこれらの2つの結論がそれぞれ関連する他の結論間
静的情報量の合計を表示装置42に表示し、および/ま
たはある結論の結論間静的情報量および上記合計は小さ
いので解除すべき旨を表示装置42に表示し2人間によ
る解除確認または解除指令が入力装置43から入力され
たことに応答して8知識記憶装置11におけるその結論
と事象との関連付けを解除するようにしてもよい。
Two conclusions with an inter-conclusion static information amount smaller than a predetermined value and the sum of other inter-conclusion static information amounts to which these two conclusions are respectively related are displayed on the display device 42, and/or a certain conclusion's The amount of static information between the conclusions and the above-mentioned total are small, so the display device 42 displays that the cancellation should be made, and in response to two people confirming the cancellation or inputting a cancellation command from the input device 43, the knowledge storage device 11 The association between the conclusion and the event may be canceled.

事象の削除処理についても同様である。The same applies to event deletion processing.

第10図の処理では結論と事象との関連付けの解除また
は事象の削除は知識記憶装置11の知識について行なわ
れているが1合成後知識記憶装置13に記憶されている
合成後知識について行なうようにしてもよい。
In the process shown in FIG. 10, the cancellation of the association between a conclusion and an event or the deletion of an event is performed for the knowledge in the knowledge storage device 11, but it is now done for the post-synthesis knowledge stored in the post-synthesis knowledge storage device 13. You can.

以上のようにして、知識記憶装置11内に記憶されてい
る知識(知識ベース)が整理されると、知識ベース再構
築装置41は知識合成装置12を起動して、整理後の知
識の再合成処理を行なわせる。この再合成処理は上述し
た合成処理と同じようにして行なわれる。知識の再合成
指令は知識ベース再構築装置41が第10図に示す処理
終了後に自動的に出力するようにしてもよいし、入力装
置43からの人間の入力に応答して出力してもよい。
When the knowledge (knowledge base) stored in the knowledge storage device 11 is organized as described above, the knowledge base reconstruction device 41 starts the knowledge synthesis device 12 to resynthesize the organized knowledge. Let it process. This recombining process is performed in the same manner as the above-described combining process. The knowledge resynthesis command may be output automatically after the knowledge base reconstruction device 41 completes the processing shown in FIG. 10, or may be output in response to human input from the input device 43. .

そして、必要ならば合成後の知識が再び結論間静的情報
量演算装置44に与えられ、同じようにして事象ごとに
結論間静的情報量か算出され、この情報量データが知識
ベース再構築装置41に与えられ、第10図に示す知識
ベース再構築処理か再度行なわれる。この知識ベース再
構築処理は必要に応じて何回でも繰返し行なうことかで
きるのはいうまでもない。
Then, if necessary, the synthesized knowledge is given again to the inter-conclusion static information calculation unit 44, and in the same way, the inter-conclusion static information amount is calculated for each event, and this information amount data is used to reconstruct the knowledge base. The knowledge base reconstruction process shown in FIG. 10 is performed again. It goes without saying that this knowledge base reconstruction process can be repeated as many times as necessary.

このようにして、最終的に信頼性の高い知識ベースが得
られる。
In this way, a reliable knowledge base is finally obtained.

知識ベース再構築処理によって知識ベースか確定したの
ち、再構築(再合成)された知識は合成後知識記憶装置
13に記憶されるとともに静的情報量演算装置19に与
えられ、静的情報量および明瞭性の演算が行なわれる。
After the knowledge base is determined by the knowledge base reconstruction process, the reconstructed (resynthesized) knowledge is stored in the post-synthesis knowledge storage device 13 and given to the static information amount calculation device 19, and the static information amount and A clarity calculation is performed.

また9合成後知識記憶装置13に記憶された知識に基づ
いて、装置15.16゜17、22等によって適合度、
動的情報量、結論の可能性、明瞭性加算等を含む近似推
論演算が、入力する事象データに応答して行なわれる。
Also, based on the knowledge stored in the post-synthesis knowledge storage device 13, the degree of fitness is determined by the devices 15, 16, 17, 22, etc.
Approximate inference operations including dynamic information content, conclusion probability, clarity addition, etc. are performed in response to input event data.

上述した各装置11〜23.31〜33.41〜44は
メモリおよび表示装置を含むコンピュータによって実現
できるのはいうまでもない。たとえば知識合成装置12
.各種演算装置15.16.17.19.20.223
1、41.44はプログラムにしたがって動作するCP
Uによって好適に実現される。
It goes without saying that each of the above-mentioned devices 11-23, 31-33, 41-44 can be realized by a computer including a memory and a display device. For example, the knowledge synthesis device 12
.. Various calculation devices 15.16.17.19.20.223
1, 41.44 is a CP that operates according to the program
This is suitably realized by U.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は第1の実施例による近似推論装置の全体構成を
示すブロック図である。 第2図はガウス分布を示すグラフである。 第3a図から第3C図はメンバーシップ関数が形成され
る様子を示すグラフである。 第4a図、第4b図および第4C図は、各事象ごとに得
られたメンバーシップ関数を示すグラフである。 第5a図、第5b図および第5C図は適合度を求める様
子を示すグラフである。 第6図は明瞭性テーブルを示す図である。 第7図は知識ベース再構築処理を示すフロー・チャート
である。 第8図は第2の実施例による近似推論装置の全体構成を
示すブロック図である。 第9図は情報量テーブルを示す図である。 第10図は知識ベース再構築処理を示すフロー・チャー
トである。 11・・・知識記憶装置。 12・・・知識合成装置。 13・・・合成後知識記憶装置。 14・・・事象値入力装置。 15・・・適合度演算装置。 16・・・動的情報量演算装置。 17・・・可能性演算装置。 18・・・可能性表示装置。 19・・・静的情報量演算装置。 20・・・明瞭性演算装置。 21・・・明瞭性記憶装置。 22・・・明瞭性加算装置。 23・・・明瞭性表示装置。 31、41・・・知識ベース再構築装置。 32、42・・・表示装置。 33、43・・・入力装置。 44・・・結論間静的情報量演算装置。 第2図 mmim m1nス 第4a図 事象f 第4b図 事象f2 第4c図 事東f 第5a図 秋月 第5b図 事像f2 第5C図 事象f 第 図 第 図 ce]D 第9図
FIG. 1 is a block diagram showing the overall configuration of an approximate inference device according to a first embodiment. FIG. 2 is a graph showing a Gaussian distribution. Figures 3a to 3c are graphs showing how membership functions are formed. Figures 4a, 4b and 4c are graphs showing the membership functions obtained for each event. FIGS. 5a, 5b, and 5c are graphs showing how the goodness of fit is determined. FIG. 6 is a diagram showing a clarity table. FIG. 7 is a flow chart showing the knowledge base reconstruction process. FIG. 8 is a block diagram showing the overall configuration of an approximate inference device according to the second embodiment. FIG. 9 is a diagram showing an information amount table. FIG. 10 is a flow chart showing the knowledge base reconstruction process. 11...Knowledge storage device. 12...Knowledge synthesis device. 13... Post-synthesis knowledge storage device. 14...Event value input device. 15...Fitness calculation device. 16...Dynamic information amount calculation device. 17... Possibility calculation device. 18... Possibility display device. 19... Static information amount calculation device. 20... Clarity calculation device. 21... Clarity memory. 22... Clarity addition device. 23... Clarity display device. 31, 41...Knowledge base reconstruction device. 32, 42...Display device. 33, 43... Input device. 44... Inter-conclusion static information amount calculation device. Fig. 2mmim m1nsu Fig. 4a Event f Fig. 4b Event f2 Fig. 4c Fig. East f Fig. 5a Akizuki Fig. 5b Fig. Image f2 Fig. 5C Event f Fig. Fig. ce] D Fig. 9

Claims (14)

【特許請求の範囲】[Claims] (1)設定された事象と結論の関係を表わす専門家の知
識を一旦記憶し、 記憶した知識を用いて結論ごとに各事象の明瞭性を演算
し、 結論ごとに、各事象の明瞭性の値をチェックすることに
より小さい値の明瞭性をもつ事象を検出し、検出した事
象の対応する結論との関連付けを解除する、 近似推論のための知識ベース形成方法。
(1) Temporarily memorize the expert knowledge that represents the relationship between set events and conclusions, use the memorized knowledge to calculate the clarity of each event for each conclusion, and calculate the clarity of each event for each conclusion. A knowledge base formation method for approximate reasoning that detects events with a small value of clarity by checking the values, and disassociates the detected events from the corresponding conclusion.
(2)関係するすべての事象との関連付けが解除された
結論を削除する、 請求項(1)に記載の近似推論のための知識ベース形成
方法。
(2) The method for forming a knowledge base for approximate inference according to claim (1), wherein a conclusion that has been disassociated from all related events is deleted.
(3)設定された事象と結論との関係を表わす専門家の
知識を記憶する手段、 上記記憶手段に記憶されている知識を用いて結論ごとに
各事象の明瞭性を算出する明瞭性演算手段、および 結論ごとに、小さい値の明瞭性をもつ事象の対応する結
論との関連付けを解除する手段、 を備えた近似推論のための知識ベース形成装置。
(3) means for storing expert knowledge representing the relationship between set events and conclusions; and clarity calculation means for calculating the clarity of each event for each conclusion using the knowledge stored in the storage means. , and means for disassociating, for each conclusion, an event with a small value of clarity with a corresponding conclusion.
(4)上記明瞭性演算手段により算出された明瞭性を表
示する表示手段と、解除確認または解除指令を入力する
ための入力手段とを備え、上記解除手段は上記入力手段
からの入力に応答して事象と結論との関連付けを解除す
る、 請求項(3)に記載の近似推論のための知識ベース形成
装置。
(4) A display means for displaying the clarity calculated by the clarity calculation means, and an input means for inputting a cancellation confirmation or a cancellation command, and the cancellation means responds to the input from the input means. The knowledge base forming device for approximate inference according to claim (3), wherein the association between an event and a conclusion is canceled by using the method.
(5)上記解除手段は、上記明瞭性演算手段により算出
された明瞭性の値をチェックし、所定値以下の明瞭性を
もつ事象を検出し、検出した事象の対応する結論との関
連付けを解除する、 請求項(3)に記載の近似推論のための知識ベース形成
装置。
(5) The cancellation means checks the clarity value calculated by the clarity calculation means, detects an event with clarity equal to or less than a predetermined value, and releases the association of the detected event with the corresponding conclusion. The knowledge base formation device for approximate inference according to claim (3).
(6)上記解除手段はさらに、関連するすべての事象と
の関連付けが解除された結論を削除する、請求項(5)
に記載の近似推論のための知識ベース形成装置。
(6) Claim (5), wherein the canceling means further deletes the conclusion whose association with all related events has been canceled.
A knowledge base formation device for approximate inference described in .
(7)同一事象、同一結論に関して複数の知識がある場
合にこれらを合成する手段をさらに備えている請求項(
3)から(6)に記載の近似推論のための知識ベース形
成装置。
(7) A claim further comprising means for synthesizing multiple pieces of knowledge regarding the same event and the same conclusion (
The knowledge base forming device for approximate inference described in 3) to (6).
(8)設定された事象と結論の関係を表わす専門家の知
識を一旦記憶し、 記憶した知識を用いて、事象ごとに、2つの結論間の静
的情報量を演算し、 事象ごとに、2つの結論間の静的情報量が小さいものを
抽出し、その結論間静的情報量に関連する2つの結論の
うち他の結論との結論間静的情報量が小さい方の結論に
ついて対応する事象との関連付けを解除する、 近似推論のための知識ベース形成方法。
(8) Once the expert's knowledge representing the relationship between set events and conclusions is memorized, the memorized knowledge is used to calculate the amount of static information between two conclusions for each event, and for each event, Extract the two conclusions that have a smaller amount of static information between them, and respond to the conclusion that has a smaller amount of static information between them and the other conclusion among the two conclusions related to the amount of static information between the conclusions. A knowledge base formation method for approximate inference that removes associations with events.
(9)関係するすべての結論との関連付けが解除された
事象を削除する、 請求項(8)に記載の近似推論のための知識ベース形成
方法。
(9) The knowledge base formation method for approximate inference according to claim (8), further comprising deleting events that are no longer associated with all related conclusions.
(10)設定された事象と結論との関係を表わす専門家
の知識を記憶する手段、 上記記憶手段に記憶されている知識を用いて、事象ごと
に、2つの結論間の静的情報量を算出する結論間静的情
報量演算手段、および 事象ごとに、小さい値の結論間静的情報量に関連する2
つの結論のうち他の結論との結論間静的情報量が小さい
方の結論について対応する事象との関連付けを解除する
手段、 を備えた近似推論のための知識ベース形成装置。
(10) A means for storing expert knowledge representing the relationship between a set event and a conclusion, using the knowledge stored in the storage means to calculate the amount of static information between two conclusions for each event. The inter-conclusion static information amount calculation means to be calculated, and for each event, the 2
A knowledge base forming device for approximate inference, comprising means for disassociating a conclusion with a smaller amount of inter-conclusion static information from a corresponding event among two conclusions.
(11)上記結論間静的情報量演算手段により算出され
た結論間静的情報量を表示する表示手段と、解除確認ま
たは解除指令を入力するための入力手段とを備え、上記
解除手段は上記入力手段からの入力に応答して結論と事
象との関連付けを解除する、 請求項(10)に記載の近似推論のための知識ベース形
成装置。
(11) A display means for displaying the inter-conclusion static information amount calculated by the inter-conclusion static information amount calculating means, and an input means for inputting a cancellation confirmation or a cancellation command, and the cancellation means is configured as described above. The knowledge base forming device for approximate reasoning according to claim 10, wherein the knowledge base forming device for approximate reasoning cancels the association between the conclusion and the event in response to an input from the input means.
(12)上記解除手段は、上記結論間静的情報量演算手
段により算出された結論間静的情報量の値をチェックし
、所定値以下の結論間静的情報量に関連する2つの結論
を抽出する、 請求項(10)に記載の近似推論のための知識ベース形
成装置。
(12) The canceling means checks the value of the inter-conclusion static information amount calculated by the inter-conclusion static information amount calculation means, and selects two conclusions related to the inter-conclusion static information amount less than a predetermined value. The knowledge base forming device for approximate inference according to claim 10, wherein the knowledge base forming device extracts.
(13)上記解除手段はさらに、関連するすべての結論
との関連付けが解除された事象を削除する、請求項(1
2)に記載の近似推論のための知識ベース形成装置。
(13) The canceling means further deletes the event whose association with all related conclusions is canceled.
2) A knowledge base forming device for approximate inference.
(14)同一事象、同一結論に関して複数の知識がある
場合にこれらを合成する手段をさらに備えている請求項
(10)から(13)に記載の近似推論のための知識ベ
ース形成装置。
(14) The knowledge base forming device for approximate inference according to claims (10) to (13), further comprising means for synthesizing a plurality of pieces of knowledge regarding the same event and the same conclusion.
JP20144990A 1990-07-31 1990-07-31 Method and device for preparing knowledge base for approximate inference Pending JPH0486921A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20144990A JPH0486921A (en) 1990-07-31 1990-07-31 Method and device for preparing knowledge base for approximate inference

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20144990A JPH0486921A (en) 1990-07-31 1990-07-31 Method and device for preparing knowledge base for approximate inference

Publications (1)

Publication Number Publication Date
JPH0486921A true JPH0486921A (en) 1992-03-19

Family

ID=16441274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20144990A Pending JPH0486921A (en) 1990-07-31 1990-07-31 Method and device for preparing knowledge base for approximate inference

Country Status (1)

Country Link
JP (1) JPH0486921A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100783096B1 (en) * 1998-11-03 2007-12-07 키에시 파르마슈티시 엣스. 피. 에이. A process for the preparation of suspensions of drug particles for inhalation delivery and micronised and sterilized beclomethasone dipropionate

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100783096B1 (en) * 1998-11-03 2007-12-07 키에시 파르마슈티시 엣스. 피. 에이. A process for the preparation of suspensions of drug particles for inhalation delivery and micronised and sterilized beclomethasone dipropionate

Similar Documents

Publication Publication Date Title
Bagnoli et al. The theory of fuzz logic and its application to real estate valuation
Hunter Factorial ecology: A critique and some suggestions
JPH0486921A (en) Method and device for preparing knowledge base for approximate inference
CN112883698A (en) Chart generation method and device, computer equipment and storage medium
CN112819510A (en) Fashion trend prediction method, system and equipment based on clothing multi-attribute recognition
Kamyab et al. Cost efficiency in three stage network DEA-R processes
JP3186086B2 (en) Rule grouping method and apparatus, and fuzzy inference method and apparatus according to grouped rules
JP2701442B2 (en) Expert system with knowledge base by fuzzy expression
Keeves The Effects of the Conditions of Learning in the Schools on Educational Achievement.
JPH0458332A (en) Approximate inference device
JPH0488429A (en) Approximate inference device
JP3147836B2 (en) Knowledge acquisition device, knowledge acquisition method, and storage medium storing knowledge acquisition program
JP3049738B2 (en) Approximate reasoning device and human interface device
JPS5968041A (en) Card image processing data processor with line retrieving function
JP3129342B2 (en) Knowledge learning device
JP2913782B2 (en) A learning device for approximate inference
Dhiman et al. 2 Behavior exploration of a rice manufacturing plant under fuzzy environment
JPH0731309Y2 (en) Information processing device having simulation function
JP3482651B2 (en) Data processing device
Terawaki Framework for supporting decision making in learning management system selection
CN110363505A (en) A kind of enterprise&#39;s quasi- battalion e window does service platform
JP2500448B2 (en) Table processing method and its equipment
JPH10320373A (en) Method and device for analyzing number of data and storage medium stored with number-of-data analyzing program
Levine China's Economy in Global Perspective. By A. Doak Barnett. Washington, DC: Brookings Institution, 1981. xxiv, 752 pp. Appendix, Notes, Index. 16.95
JPH04329431A (en) Software development scale summing-up system