JPH08278901A - Diagnostic device using decision tree type diagnostic knowledge - Google Patents

Diagnostic device using decision tree type diagnostic knowledge

Info

Publication number
JPH08278901A
JPH08278901A JP10160395A JP10160395A JPH08278901A JP H08278901 A JPH08278901 A JP H08278901A JP 10160395 A JP10160395 A JP 10160395A JP 10160395 A JP10160395 A JP 10160395A JP H08278901 A JPH08278901 A JP H08278901A
Authority
JP
Japan
Prior art keywords
value
decision tree
case
pseudo
diagnostic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10160395A
Other languages
Japanese (ja)
Other versions
JP3453922B2 (en
Inventor
Toru Asami
徹 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
Kokusai Denshin Denwa KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kokusai Denshin Denwa KK filed Critical Kokusai Denshin Denwa KK
Priority to JP10160395A priority Critical patent/JP3453922B2/en
Publication of JPH08278901A publication Critical patent/JPH08278901A/en
Application granted granted Critical
Publication of JP3453922B2 publication Critical patent/JP3453922B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing And Monitoring For Control Systems (AREA)
  • Test And Diagnosis Of Digital Computers (AREA)

Abstract

PURPOSE: To eliminate misinput of data, decrease the workload, and obtain a diagnostic result in a short time by providing a learning data generation processing means and a decision tree generation processing means. CONSTITUTION: A decision tree reconstructing device 56 is equipped with a learning data generation processing part 56a which generates learning data for decision tree reconstruction from decision tree data, diagnostic instance data, and suspicious diagnostic instance data, a decision tree generation processing part 56b which generates an intermediate decision tree from the learning data by utilizing learning algorithm, and a learning data pruning processing part 56c which pruns the learning data generated by the processing part 56a by using the intermediate decision tree generated by the processing part 56b. Consequently, even when inspection items (attribute) increase in a diagnosis period, the diagnostic order can be optimized by applying the learning algorithm, and then the decision tree can automatically be reconstituted in a short time without any human intervention.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば通信システム、
医療システム、及びプラントシステム等の診断作業を決
定木形式の診断知識を用いて行う診断装置に関する。
BACKGROUND OF THE INVENTION The present invention relates to a communication system,
The present invention relates to a diagnostic device that performs diagnostic work on a medical system, a plant system, and the like by using diagnostic knowledge in a decision tree format.

【0002】[0002]

【従来の技術】機械装置の故障等の診断作業を専門家の
知識を利用して支援する診断装置(診断型エキスパート
システム)は、既に実用化されている。診断知識を決定
木の形式で構成したこの種の診断装置の従来例が図1に
概略的に示されている。
2. Description of the Related Art A diagnostic device (diagnostic type expert system) for assisting a diagnostic work such as a failure of a mechanical device by utilizing the knowledge of an expert has already been put into practical use. A prior art example of this type of diagnostic device in which the diagnostic knowledge is constructed in the form of a decision tree is shown schematically in FIG.

【0003】同図において10は端末装置であり、この
端末装置10から例えば診断の要求が入力されると、診
断装置は以下の診断動作を実施する。まず、この端末装
置10から会話形式によって診断に必要な情報を受取
り、決定木データメモリ11に格納されている決定木を
参照して診断を行い、その結論を端末装置10へ報告す
る。さらに、その診断の過程を診断事例データとして診
断事例データメモリ14に保存し、端末装置10から表
示要求があればその診断事例を履歴管理部15を介して
表示する。
In the figure, 10 is a terminal device, and when a request for diagnosis is input from this terminal device 10, the diagnostic device carries out the following diagnostic operation. First, information necessary for diagnosis is received from the terminal device 10 in a conversational manner, the decision tree stored in the decision tree data memory 11 is referred to for diagnosis, and the conclusion is reported to the terminal device 10. Further, the diagnosis process is stored as diagnosis case data in the diagnosis case data memory 14, and if there is a display request from the terminal device 10, the diagnosis case is displayed via the history management unit 15.

【0004】イベント解析部12は、端末装置10と本
装置所要の処理部である履歴管理部15及び推論制御部
13との間のデータの授受を制御し、端末装置10から
推論の要求を受け取ったら推論制御部13にそのデータ
をわたす。推論制御部13は、決定木データメモリ11
に格納されている決定木を参照して最適な診断を選択す
る。履歴管理部15は、診断が終了すると診断の観測値
と結論を診断事例データとして診断事例データメモリ1
4に保存し、診断事例の表示要求があればその診断事例
を出力する。
The event analysis unit 12 controls the exchange of data between the terminal device 10 and the history management unit 15 and the inference control unit 13, which are required processing units of this device, and receives an inference request from the terminal device 10. Then, the data is passed to the inference control unit 13. The inference control unit 13 uses the decision tree data memory 11
The optimal diagnosis is selected by referring to the decision tree stored in. When the diagnosis is completed, the history management unit 15 uses the observation values and conclusions of the diagnosis as diagnosis case data and the diagnosis case data memory 1
4. If there is a request to display the diagnosis case, the diagnosis case is output.

【0005】決定木は決定木生成装置内の決定木生成部
16によって生成される。決定木生成部16は、診断事
例データメモリ14に格納されている診断事例を入力と
し、それから決定木を生成して、決定木データメモリ1
1に格納する。ただしこの決定木生成部16は、診断事
例全体に対しての平均検査回数を最小にする決定木を生
成するために、診断事例を構成する診断系列のすべての
検査に対して観測値が与えられている場合に適用可能な
学習アルゴリズムからなっている。
The decision tree is generated by the decision tree generator 16 in the decision tree generator. The decision tree generation unit 16 receives a diagnosis case stored in the diagnosis case data memory 14 as an input, generates a decision tree from the diagnosis case, and outputs the decision tree data memory 1
Store in 1. However, in order to generate a decision tree that minimizes the average number of examinations for the entire diagnostic case, the decision tree generator 16 is given observation values for all examinations in the diagnostic series that make up the diagnostic case. It consists of learning algorithms applicable to

【0006】[0006]

【発明が解決しようとする課題】診断知識を決定木の形
式で「順序づけられた検査系列」として管理するこの種
の診断装置では、診断効率を向上させるために、最小限
の検査回数によって結論に達する(平均検査回数を最小
にする)ように検査順序の最適化を行うことが必要であ
る。このような検査順序の最適化を従来の学習アルゴリ
ズムを用いて行う場合、次のごとき問題が生じる。
In order to improve the diagnostic efficiency, this type of diagnostic device, which manages diagnostic knowledge in the form of a decision tree as an "ordered test sequence", makes a conclusion with a minimum number of tests. It is necessary to optimize the inspection order so that the number of inspections is reached (the average number of inspections is minimized). When the optimization of the inspection order is performed by using the conventional learning algorithm, the following problems occur.

【0007】即ち、診断事例データメモリ14に格納さ
れている診断事例は、例えば図2に示すように、検査の
観測値と結論との組で表される診断事例を集めたもので
あるが、各々の事例の診断では、その時点で既知の種類
の検査だけで結論に達する。このため、事例を集めるの
に伴って一般に新たな種類の検査が加わるため、最初か
ら検査の種類を固定数に決めて事例を集めることが困難
になる。このため、例えば事例1の検査B、C、及びD
に示すごとく、観測値が未観測(「−」で示す)である
ものをも含んでいる。このように、診断開始から結論に
至るまでの検査系列として定義される診断事例には必ず
観測値が与えられない未検査部分が含まれることとな
り、従来提案されていた学習アルゴリズムを適用して検
査順序を最適化することができない。
That is, the diagnostic cases stored in the diagnostic case data memory 14 are a collection of diagnostic cases represented by a set of observation values and conclusions of the test, as shown in FIG. In diagnosing each case, conclusions are reached only with tests of the type known at the time. For this reason, a new type of inspection is generally added as the cases are collected, and it is difficult to collect cases by fixing the type of inspection to a fixed number from the beginning. Therefore, for example, inspections B, C, and D in case 1
As shown in (3), some of the observed values are unobserved (indicated by "-"). In this way, the diagnostic cases defined as the test series from the start of diagnosis to the conclusion always include the untested part for which the observed value is not given, and the previously proposed learning algorithm is applied to test. The order cannot be optimized.

【0008】このように、診断を行った過程から得られ
た診断事例を利用して決定木再構成を自動的に行うこと
ができないので、診断装置の機能追加又は変更の過程に
おいて決定木の再構成を行うには、人手で適切な検査か
らなる事例の選択を行なうほかなく、修正や修正試行を
効率よく行うことができなかった。
As described above, since the decision tree cannot be automatically reconstructed by utilizing the diagnosis case obtained from the process of making the diagnosis, the decision tree is not reconstructed in the process of adding or changing the function of the diagnostic device. In order to make the configuration, it was not possible to make corrections and correction trials efficiently, except to manually select cases that consisted of appropriate inspections.

【0009】従って本発明は、診断事例収集中に検査の
種類が増加したために生じる検査の未観測部分を有する
診断事例に対しても、学習アルゴリズムを適用して検査
順序を最適化できる決定木再構成方式を用いた診断装置
を提供するものである。
Therefore, the present invention applies a learning algorithm to a decision tree reconstructing method that can optimize a test order even for a diagnostic case having an unobserved part of the test caused by an increase in the types of tests during the collection of diagnostic cases. A diagnostic device using a configuration method is provided.

【0010】[0010]

【課題を解決するための手段及び作用】本発明によれ
ば、決定木の形式で定義された検査系列の決定木データ
を蓄積する第1の蓄積手段と、診断事例データを蓄積す
る第2の蓄積手段と、第1の蓄積手段からの決定木によ
り新事例を診断する診断手段と、新事例の診断が終端ノ
ードにおいて誤っていた場合、第2の蓄積手段からの診
断事例データを参照し、新事例が新属性を持つ場合は、
抽出した検査系列内で分類される既存の診断事例の該当
検査の観測値として新事例の該当観測値以外の値を示す
第1の疑似観測値を与え、該当検査系列外で分類される
既存の診断事例の該当検査の観測値には値域内の任意の
値を示す第2の疑似観測値を与えることによって、未知
の観測値が存在しない検査系列を学習データとして出力
する学習データ生成処理手段と、該学習データ生成処理
手段からの学習データに対して学習アルゴリズムを適用
して新たな決定木を再構成する決定木生成処理手段と、
生成決定木により学習データを削減する学習データ枝刈
り処理手段を備えた診断装置が提供される。
According to the present invention, a first storage means for storing decision tree data of a test sequence defined in the form of a decision tree and a second storage means for accumulating diagnostic case data are provided. The accumulating means, the diagnosing means for diagnosing the new case by the decision tree from the first accumulating means, and the diagnosis case data from the second accumulating means when the diagnosis of the new case is wrong at the terminal node, If a new case has a new attribute,
The first pseudo-observed value indicating a value other than the corresponding observed value of the new case is given as the observed value of the corresponding examination of the existing diagnosis case classified within the extracted examination series, and the existing existing cases classified outside the applicable examination series are given. Learning data generation processing means for outputting, as learning data, a test sequence in which an unknown observation value does not exist by giving a second pseudo observation value indicating an arbitrary value within the range to the observation value of the relevant inspection of the diagnosis case. A decision tree generation processing means for reconstructing a new decision tree by applying a learning algorithm to the learning data from the learning data generation processing means,
There is provided a diagnostic device including learning data pruning processing means for reducing learning data by a generated decision tree.

【0011】未診断部分を持つ診断事例に対して学習ア
ルゴリズムを適用するため、各事例の未検査部分の取り
得る値に関して、既知の事例から疑似観測値を求め、事
例集合を生成する。
In order to apply the learning algorithm to a diagnostic case having an undiagnosed portion, a pseudo observation value is obtained from a known case for a possible value of the uninspected portion of each case, and a case set is generated.

【0012】本発明の一実施態様では、上述の診断手段
が、終端ノード到達以前のノードにおける検査項目が新
事例の観測値に対応する値を持たず、診断不能になった
場合、該当観測値以外の値から作られた第1の疑似観測
値に対応するアークがある場合は、そのアークに沿って
診断を進め、そうでない場合は新事例の観測値に対応し
たアークを作って終端ノードを作成する診断手段であ
る。
In one embodiment of the present invention, when the above-mentioned diagnostic means does not have a value corresponding to the observation value of the new case in the inspection item in the node before reaching the terminal node, and the diagnosis becomes impossible, the corresponding observation value is detected. If there is an arc corresponding to the first pseudo-observed value created from values other than, proceed with diagnosis along that arc, and if not, create an arc corresponding to the observed value of the new case and set the terminal node. It is a diagnostic means to be created.

【0013】本発明の一実施態様では、上述の学習デー
タ生成処理手段が、既存検査項目の場合、抽出した診断
系列内で分類される既存の診断事例の該当検査項目の値
で第2の疑似観測値を持つ場合、新事例の該当観測値以
外の値を示す第1の疑似観測値を与え、第1の疑似観測
値を持つ場合、新事例の該当観測値も除外対象であるこ
とを示す第1の疑似観測値を与える学習データ生成処理
手段である。
In one embodiment of the present invention, in the case where the above-mentioned learning data generation processing means is an existing inspection item, the value of the corresponding inspection item of the existing diagnosis case classified in the extracted diagnosis series is used as a second pseudo value. If there is an observed value, give the first pseudo-observed value that indicates a value other than the corresponding observed value of the new case, and if it has the first simulated observed value, indicate that the corresponding observed value of the new case is also excluded. It is a learning data generation processing means for giving a first pseudo observation value.

【0014】本発明の一実施態様では、上述の学習デー
タ枝刈り処理手段が、終端ノードまで全ての検査が観測
値で分岐した検査系列で診断された診断事例で検査結果
に疑似観測値を持つものがある場合、該検査結果に観測
値を持つ診断事例がその検査系列内に他にあれば疑似観
測値を持つ診断事例を削除し、終端ノードまでの検査で
疑似観測値で分岐したものがある場合、その疑似観測値
分割後の事例数の分岐前の事例数に占める割合があるし
きい値以下であればその疑似観測値分割後の事例数を全
て削除する学習データ枝刈り処理手段である。
In one embodiment of the present invention, the above-mentioned learning data pruning processing means has a pseudo observation value in the inspection result in a diagnosis case in which all the inspections are branched by the observation value up to the terminal node. If there is a diagnostic case that has an observation value in the test result if there is another in the test series, the diagnostic case that has the pseudo observation value is deleted, and the one that branches to the pseudo observation value in the inspection up to the terminal node. In some cases, if the ratio of the number of cases after the pseudo observation value division to the number of cases before branching is less than or equal to a threshold value, learning data pruning processing means that deletes all the number of cases after the pseudo observation value division is there.

【0015】診断事例データへの疑似観測値の過度な混
入を避ける場合の措置として、診断系列に疑似観測値が
現われず、かつ疑似観測値を持つ当該事例の全ての検査
に対して実際収集された観測値を持つ事例がその診断系
列に属した診断事例の中に少なくとも一つある場合、当
該診断事例を診断事例データから削除する。
As a measure for avoiding excessive mixing of pseudo-observed values in diagnostic case data, pseudo-observed values do not appear in the diagnostic series and are actually collected for all examinations of the case having pseudo-observed values. When there is at least one case having the observed value among the diagnosis cases belonging to the diagnosis series, the diagnosis case is deleted from the diagnosis case data.

【0016】実施例の説明を行う前に本発明の原理につ
いて説明する。ここで用いる用語は学習アルゴリズムを
説明する際に一般に用いられるものであり、診断装置や
決定木の説明に係わる用語との対応関係は次のようであ
る。
Before describing the embodiments, the principle of the present invention will be described. The terms used here are generally used when explaining the learning algorithm, and the correspondence with the terms related to the explanation of the diagnostic device and the decision tree is as follows.

【0017】「属性」は、決定木における非終端ノード
に、診断の作業においては診断結果に到達するための各
検査に対応している。
The "attribute" corresponds to each check for reaching the non-terminal node in the decision tree and reaching the diagnosis result in the work of diagnosis.

【0018】「属性名」は、各属性に付けられたユニー
クな名称であり、決定木においてはノード名に対応して
いる。
The "attribute name" is a unique name given to each attribute and corresponds to the node name in the decision tree.

【0019】「属性値」は、各属性の持つ値又は各検査
で得られる観測結果を示している。決定木においてはノ
ードから延びるアークと対応している。
The “attribute value” indicates the value of each attribute or the observation result obtained in each inspection. In the decision tree, it corresponds to the arc extending from the node.

【0020】「終端ノード」は決定木に基づいて診断を
実施した際の診断結果と対応している。
The "terminal node" corresponds to the diagnosis result when the diagnosis is performed based on the decision tree.

【0021】「クラス」は、診断結果の種類と対応して
いる。
"Class" corresponds to the type of diagnostic result.

【0022】「第1の疑似属性値」not(VS)は、
値の集合VSに含まれない値であることを示す疑似的な
値である。
The "first pseudo attribute value" not (VS) is
It is a pseudo value indicating that the value is not included in the set of values VS.

【0023】「第2の属性値」*は、その属性の値域の
全ての値が可能であることを示す疑似的な値である。
The "second attribute value" * is a pseudo value indicating that all values in the value range of the attribute are possible.

【0024】また、診断事例の表現は次のとおりとす
る。先ず、A、Cを、それぞれm個の属性の集合{A
1,A2,...,Am}及びp個の分類クラスの集合
{C1,C2,...,Cp}とし、ある属性Aiの取
り得る値の集合をRange(Ai)と呼ぶ。
The expression of the diagnostic case is as follows. First, let A and C be a set of m attributes {A
1, A2 ,. . . , Am} and a set of p classification classes {C1, C2 ,. . . , Cp}, and a set of possible values of a certain attribute Ai is called Range (Ai).

【0025】また、あるノードでの事例の集合をSと呼
び、ルートノードでの事例の集合をSφと呼ぶ。このと
き、
The set of cases at a certain node is called S, and the set of cases at the root node is called Sφ. At this time,

【数1】 とすると、Sの中の各診断事例をm+1−tupleの
〈V1,V2,...,Vm,Ck〉で表す。
[Equation 1] Then, each diagnosis case in S is represented by m + 1-tuple <V1, V2 ,. . . , Vm, Ck>.

【0026】また、本発明では、終端ノードに含まれる
診断事例に付随する重みの和が、その検査系列の発生頻
度に対応する。
Further, in the present invention, the sum of the weights associated with the diagnostic cases included in the terminal node corresponds to the frequency of occurrence of the test sequence.

【0027】決定木の再構成 診断を進める過程で属性集合が拡大する場合、未知属性
を含む診断事例の集合からの決定木の導出方法について
述べる。ここで提示するのは、終端ノードの例題集合S
Lの中で、値が未定の属性に対して疑似属性値(疑似観
測値)を割り当てて新たな事例集合を作成し、以下の手
続きにより決定木を作り直す方式である。
A method for deriving a decision tree from a set of diagnostic cases including unknown attributes when an attribute set expands in the process of reconstructing a decision tree will be described. What is presented here is an example set S of terminal nodes.
This is a method in which a pseudo attribute value (pseudo observation value) is assigned to an attribute whose value is undecided in L to create a new case set, and a decision tree is recreated by the following procedure.

【0028】事例集合の生成 (1)各新事例En=〈V1,V2,...,Vm,C
k〉について、既存の決定木でそれが分類されたとし、
終端ノードをL、その事例集合をSLとする。 (i) EnのクラスCkがLのクラスに等しければEn
をS0に加える。 (ii)そうでないとき、EnをS0に加え、以下の処理
を行う。 (a)ルートノードからLまでで未使用のEnの属性A
k(属性値Vi)が新属性であるとき、SL中の既存事
例についてはVi以外を示す第1の疑似属性値not
({Vi})を与え、SL以外のS0中の既存事例につ
いては第2の疑似属性値*を与える。 (b)ルートノードからLまでで未使用のEnの属性A
kが既知属性であるとき、SL中の既存事例にViを属
性値に持つものがあれば、SL内の既存事例の属性Ak
の値に操作を加えない。 (c)(b)においてSL中の既存事例に第1の疑似属
性値not(VS)を持つものがあれば、ViをVSに
加えて、Vi以外であることも示す第1の疑似属性値n
ot(VS)に書き換える。 (d)(b)においてSL中の既存事例に第2の疑似属
性値*を持つものがあれば、Vi以外であることも示す
第1の疑似属性値not({Vi})に書き換える。 (2)各事例En=〈V1,V2,...,Vm,C
k〉について、既存の決定木でそれを分類する際、ある
非終端ノードの検査属性AkにおいてEnの属性値Vi
に対応するアークがない場合。 (i) Vi以外から作られた第1の属性値に対応するア
ークがあれば、そのアークを選択して診断を進める。 (ii)そうでないとき、Viに対応するアークと、それ
に接続したEnだけを事例集合に持つ終端ノードを作
り、EnをS0に加える。
Generation of Case Set (1) Each new case En = <V1, V2 ,. . . , Vm, C
For k>, if it is classified by the existing decision tree,
The terminal node is L and its case set is SL. (I) If the class Ck of En is equal to the class of L, then En
To S0. (Ii) If not, En is added to S0 and the following processing is performed. (A) Attribute A of unused En from root node to L
When k (attribute value Vi) is a new attribute, the first pseudo attribute value not indicating other than Vi for the existing case in SL.
({Vi}) is given, and the second pseudo attribute value * is given for existing cases in S0 other than SL. (B) Unused En attribute A from root node to L
When k is a known attribute, if there is an existing case in SL that has Vi as an attribute value, the attribute Ak of the existing case in SL
Do not operate on the value of. (C) If there is an existing case in SL having the first pseudo attribute value not (VS) in (b), the first pseudo attribute value indicating that it is other than Vi in addition to Vi n
Rewrite to ot (VS). In (d) and (b), if there is an existing case in SL having the second pseudo attribute value *, it is rewritten to the first pseudo attribute value not ({Vi}) that also indicates other than Vi. (2) Each case En = <V1, V2 ,. . . , Vm, C
When k> is classified by the existing decision tree, the attribute value Vi of En in the check attribute Ak of a certain non-terminal node
If there is no corresponding arc. (I) If there is an arc corresponding to the first attribute value made from other than Vi, select the arc and proceed with the diagnosis. (Ii) If not, create an end node having only the arc corresponding to Vi and En connected to it in the case set, and add En to S0.

【0029】決定木の生成 S0を用いて、下記の計算方式により、特定の<属性
名、属性値、クラス名>の組み合わせに対する診断事例
の数を求め、ID3系の学習アルゴリズムにより、次の
決定木T0′を作る。 (1)各属性Aiに対して、疑似属性以外の値Vi,j
を持ち、かつクラスCkに属す事例Enの重みWl,n
の和n(k,i,j)を求め、N(k,i,j)に代入
する。 (2)属性Aiが第1の疑似属性not(VS)を持つ
事例を調べ、事例数メモリへの寄与計算をしていないも
のがあれば、以下の処理を行う。 (i) VSに含まれる値の集合と、Range(Ai)
が一致していればN(k,i,d)にWl,nを加え
る。ここで、dをnot(VS)に対応するインデック
スとする。 (ii)そうでなければ、Range(Ai)に含まれ、
VSに含まれない属性値Vi,j全てに対して、N
(k,i,j)を下記の(A)式で計算する。
Using the decision tree generation S0, the number of diagnostic cases for a specific <attribute name, attribute value, class name> combination is obtained by the following calculation method, and the next decision is made by the learning algorithm of the ID3 system. Make a tree T0 '. (1) For each attribute Ai, a value Vi, j other than the pseudo attribute
And the weight Wl, n of the case En that belongs to the class Ck
Then, the sum n (k, i, j) of N is calculated and substituted into N (k, i, j). (2) The case where the attribute Ai has the first pseudo attribute not (VS) is checked, and if there is a case where the contribution calculation to the number-of-cases memory is not calculated, the following processing is performed. (I) A set of values included in VS and Range (Ai)
If they match, Wl, n is added to N (k, i, d). Here, let d be an index corresponding to not (VS). (Ii) Otherwise, included in Range (Ai),
N for all attribute values Vi, j not included in VS
(K, i, j) is calculated by the following equation (A).

【0030】[0030]

【数2】 [Equation 2]

【0031】観測値からなる検査系列における事例集合
の枝刈り 図3は、終端ノードまで全ての検査が観測値で分岐した
検査系列で診断された診断事例で検査結果に疑似観測値
を持つものがあった場合、該検査結果に観測値を持つ診
断事例がその検査系列内に他にあると、疑似観測値を持
つ診断事例を削除する例である。図3において、n0は
検査項目A2が0以外であることを示す第1の疑似観測
値(疑似属性値)、*は検査項目A3が値域内の任意の
値でよいことを示す第2の疑似観測値(疑似属性値)で
ある。診断事例E1は、検査A2で疑似観測値を持つ
が、同一の検査系列のE2は当該検査でも観測値1を持
っているため、E1は削除できる。また、診断事例E3
は、検査系列に含まれない検査A3で疑似観測値を持つ
が、診断事例E4が当該検査でも観測値1を持っている
ため、E3は削除できる。
A set of cases in a test series consisting of observation values
Pruning of FIG. 3 shows that when there is a diagnostic case in which all the tests up to the terminal node are diagnosed by a test sequence that is branched by the observed value, and the test result has a pseudo observed value, the test result has the observed value. This is an example of deleting a diagnostic case having a pseudo observation value when another diagnostic case exists in the test sequence. In FIG. 3, n0 is a first pseudo observation value (pseudo attribute value) indicating that the inspection item A2 is other than 0, and * is a second pseudo observation value indicating that the inspection item A3 may be any value within the range. It is an observed value (pseudo attribute value). The diagnosis case E1 has a pseudo observation value in the examination A2, but since E2 of the same examination series also has the observation value 1 in the examination, E1 can be deleted. Also, diagnosis case E3
Has a pseudo observation value in the test A3 that is not included in the test series, but the diagnosis case E4 also has the observation value 1 in the test, so E3 can be deleted.

【0032】疑似観測値を持つ検査系列における事例集
合の枝刈り 図4は、終端ノードまでのある分岐A2で、疑似観測値
n1(1でない)に対応するアークの先の診断事例数が
2(E1とE2)、分岐前の診断事例数が6であるた
め、前者の後者に占める割合が2/6である。このと
き、しきい値が1/3以上、例えば0.4であった場
合、E1とE2を診断事例集合から削除する。
A collection of cases in a test series with pseudo observations
Pruning Figure 4 case is a branch A2 with to the end node, the diagnostic case number of previous corresponding arc pseudo observations n1 (not 1) is 2 (E1 and E2), the diagnostic case number before branching Since it is 6, the ratio of the former to the latter is 2/6. At this time, if the threshold value is 1/3 or more, for example, 0.4, E1 and E2 are deleted from the diagnostic case set.

【0033】[0033]

【実施例】以下図面を参照し本発明を実施例によって詳
細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail below with reference to the accompanying drawings.

【0034】図5は本発明による診断装置の一実施例の
構成を概略的に示すブロック図である。
FIG. 5 is a block diagram schematically showing the configuration of an embodiment of the diagnostic apparatus according to the present invention.

【0035】同図において、50は端末装置であり、5
1はこの端末装置50にイベント解析部52及び推論制
御部53を介して接続された決定木データメモリであ
り、54はこの端末装置50にイベント解析部52及び
履歴管理部55を介して接続された診断事例データメモ
リである。決定木データメモリ51及び診断事例データ
メモリ54には決定木再構成装置56が接続されてお
り、また、この決定木再構成装置56には疑似診断事例
データメモリ57が接続されている。
In the figure, 50 is a terminal device, and 5
Reference numeral 1 is a decision tree data memory connected to this terminal device 50 via an event analysis unit 52 and an inference control unit 53, and 54 is connected to this terminal device 50 via an event analysis unit 52 and a history management unit 55. It is a diagnostic case data memory. A decision tree reconstructing device 56 is connected to the decision tree data memory 51 and the diagnostic case data memory 54, and a pseudo diagnostic case data memory 57 is connected to the decision tree reconstructing device 56.

【0036】決定木データメモリ51は決定木の形式で
定義された検査系列のデータを格納するメモリであり、
診断事例データメモリ54は診断装置運用の結果蓄積さ
れた診断事例を格納するメモリであり、疑似診断事例デ
ータメモリ57は現在の決定木を産み出した疑似診断事
例を全て格納するメモリである。
The decision tree data memory 51 is a memory for storing the data of the test sequence defined in the decision tree format.
The diagnosis case data memory 54 is a memory for storing diagnosis cases accumulated as a result of the operation of the diagnosis apparatus, and the pseudo diagnosis case data memory 57 is a memory for storing all the pseudo diagnosis cases that have produced the current decision tree.

【0037】決定木再構成装置56は、決定木データ、
診断事例データ、及び疑似診断事例データから決定木再
構成のための学習データを生成する学習データ生成処理
部56aと、学習アルゴリズムを利用して学習データか
ら中間決定木を生成する決定木生成処理部56bと、決
定木生成処理部56bにて生成された中間決定木を用い
て、学習データ生成処理部56aが生成した学習データ
を枝刈りする学習データ枝刈り処理部56cとを具備し
ている。
The decision tree reconstructing device 56 uses the decision tree data,
A learning data generation processing unit 56a that generates learning data for reconstruction of a decision tree from the diagnosis case data and the pseudo diagnosis case data, and a decision tree generation processing unit that generates an intermediate decision tree from the learning data by using a learning algorithm. 56b and a learning data pruning processing unit 56c for pruning the learning data generated by the learning data generation processing unit 56a using the intermediate decision tree generated by the decision tree generation processing unit 56b.

【0038】端末装置50から診断の要求が入力される
と、この診断装置は以下の診断動作を実施する。まず、
この端末装置50から会話形式によって診断に必要な情
報を受取り、決定木データメモリ51に格納されている
決定木を参照して診断を行い、その結論を端末装置50
へ報告する。さらに、その診断の過程を診断事例データ
として診断事例データメモリ54に保存し、端末装置5
0から表示要求があればその診断事例を履歴管理部55
を介して表示する。
When a diagnosis request is input from the terminal device 50, this diagnosis device carries out the following diagnosis operation. First,
Information necessary for diagnosis is received from the terminal device 50 in a conversational manner, the diagnosis is performed by referring to the decision tree stored in the decision tree data memory 51, and the conclusion is determined.
Report to Further, the diagnosis process is stored in the diagnosis case data memory 54 as diagnosis case data, and the terminal device 5
If there is a display request from 0, the history management unit 55 shows the diagnosis case.
View through.

【0039】イベント解析部52は、端末装置50と本
装置所要の処理部である履歴管理部55及び推論制御部
53との間のデータの授受を制御し、端末装置50から
推論の要求を受け取ったら推論制御部53にそのデータ
をわたす。推論制御部53は、決定木データメモリ51
に格納されている決定木を参照して最適な診断を選択す
る。履歴管理部55は、診断が終了すると診断の観測値
と結論を診断事例データとして診断事例データメモリ5
4に保存し、診断事例の表示要求があればその診断事例
を出力する。
The event analysis unit 52 controls the exchange of data between the terminal device 50 and the history management unit 55 and the inference control unit 53 which are required processing units of this device, and receives an inference request from the terminal device 50. Then, the data is passed to the inference control section 53. The inference control unit 53 uses the decision tree data memory 51.
The optimal diagnosis is selected by referring to the decision tree stored in. When the diagnosis is completed, the history management unit 55 uses the observation values and conclusions of the diagnosis as diagnosis case data and the diagnosis case data memory 5
4. If there is a request to display the diagnosis case, the diagnosis case is output.

【0040】決定木は決定木再構成装置56によって再
構成可能である。図6は、この決定木再構成装置56に
おける学習データ生成処理部56aの動作を説明するた
めのフローチャートである。
The decision tree can be reconstructed by the decision tree reconstructing device 56. FIG. 6 is a flowchart for explaining the operation of the learning data generation processing unit 56a in the decision tree reconstructing device 56.

【0041】まず、ステップS61において、診断事例
データメモリ54に格納されている新診断事例の診断を
行い、ステップS62へ進む。ステップS62におい
て、終端ノードまで達していた場合は、ステップS67
へ進み、図7に示す終端ノード到達時の疑似事例集合生
成処理を行った後、ステップS66へ進む。ステップS
62において、終端ノードに到達できていなかったとき
はステップS63へ進む。
First, in step S61, a new diagnosis case stored in the diagnosis case data memory 54 is diagnosed, and the flow advances to step S62. If the terminal node is reached in step S62, step S67.
Then, the process proceeds to step S66 after performing the pseudo case set generation process when reaching the terminal node shown in FIG. Step S
If the terminal node is not reached at 62, the process proceeds to step S63.

【0042】ステップS63において、検査続行不能に
なったノードのアークを調べ、新診断事例の属性値Vx
以外から作られた第1の疑似属性値に対応するものがあ
るか調べた後、S64へ進む。ステップS64におい
て、そのようなアークがあった場合は、ステップS65
へ進んでそのアークに沿った診断を続行し、ステップS
62に戻る。
In step S63, the arc of the node in which the inspection cannot be continued is examined, and the attribute value Vx of the new diagnosis case is examined.
After checking whether there is a value corresponding to the first pseudo attribute value created from other than the above, the process proceeds to S64. If there is such an arc in step S64, step S65
Go to and continue the diagnosis along the arc, step S
Return to 62.

【0043】ステップS64において、新診断事例の属
性値Vx以外から作られた第1の疑似属性値に対応する
ものがなかった場合、ステップS66へ進む。
In step S64, if there is no one corresponding to the first pseudo attribute value created from other than the attribute value Vx of the new diagnosis case, the process proceeds to step S66.

【0044】ステップS66において、新診断事例とそ
の重み1を疑似診断事例データメモリに追加した後、エ
ンドへ進む。
In step S66, the new diagnosis case and its weight 1 are added to the pseudo diagnosis case data memory, and then the process proceeds to END.

【0045】図7は、終端ノード到達時の疑似事例生成
処理の動作を説明するためのフローチャートである。
FIG. 7 is a flow chart for explaining the operation of the pseudo case generation process when the end node is reached.

【0046】まず、ステップS71において、診断事例
データメモリ54に格納されている新診断事例の診断を
行い、新診断事例が正しく診断された場合は、エンドへ
進む。診断結果が正しくなければ、ステップS72へ進
む。
First, in step S71, the new diagnosis case stored in the diagnosis case data memory 54 is diagnosed. If the new diagnosis case is correctly diagnosed, the process proceeds to END. If the diagnosis result is not correct, the process proceeds to step S72.

【0047】次のステップS72では、新診断事例の検
査項目(属性)で診断に未使用の属性があるかどうかチ
ェックする。次のステップS73では、診断に未使用の
属性全てに関してステップS74からステップS76d
の処理を行ったかチェックし、行っていればエンドへ進
む。行っていなければ、そのような属性で最初に見つけ
た属性Axとその属性値Vxを持ってステップS74へ
進む。
In the next step S72, it is checked whether or not there is an unused attribute for diagnosis in the inspection item (attribute) of the new diagnosis case. In the next step S73, steps S74 to S76d are performed for all attributes not used for diagnosis.
Check whether or not the process has been performed, and if so, proceed to the end. If not, the process proceeds to step S74 with the attribute Ax found first with such an attribute and its attribute value Vx.

【0048】ステップS74では、未使用属性Axが初
めて現われた属性かどうかチェックし、そうであればス
テップS75へ進んで、新事例以外のその検査系列(終
端ノード)に属す診断事例の属性Axとして、Vx以外
の値であることを示す第1の疑似属性値not({V
x})を与える。その検査系列(終端ノード)以外に属
す診断事例の属性Axとしては、値域内の任意の値であ
ることを示す第2の疑似属性値*を与える。次いでステ
ップS73へ戻る。
In step S74, it is checked whether or not the unused attribute Ax appears for the first time, and if so, the process proceeds to step S75, and as an attribute Ax of the diagnosis case other than the new case, belonging to the inspection series (terminal node). , Vx, the first pseudo attribute value not ({V
x}) is given. As the attribute Ax of the diagnostic case belonging to other than the inspection series (terminal node), the second pseudo attribute value * indicating that it is an arbitrary value within the range is given. Then, the process returns to step S73.

【0049】ステップS74で未使用属性Axが既出の
属性であった場合は、ステップS76aへ進む。
If the unused attribute Ax is the already-explained attribute in step S74, the process proceeds to step S76a.

【0050】ステップS76aでは、その検査系列(終
端ノード)に、新診断事例以外で属性Axに属性値Vx
を持つ診断事例が他にあるかどうかチェックし、あれば
ステップS73へ戻る。なければ、ステップS76bへ
進む。
In step S76a, the attribute value Vx is assigned to the attribute Ax in the inspection sequence (terminal node) other than the new diagnosis case.
It is checked whether or not there is another diagnostic case having, and if there is, a return is made to step S73. If not, the process proceeds to step S76b.

【0051】ステップS76bでは、その検査系列(終
端ノード)に、新診断事例以外で属性Axに第1の疑似
属性値not(VS)を持つ診断事例があるかどうかチ
ェックし、あればステップS76cへ進み、VSにVx
を追加し、また属性Axに第2の疑似属性値*を持つ診
断事例に対しては、Axに第1の疑似属性値not
({Vx})を与えた後、ステップS73へ戻る。
In step S76b, it is checked whether or not the inspection series (terminal node) has a diagnosis case having the first pseudo attribute value not (VS) in the attribute Ax other than the new diagnosis case, and if there is, it proceeds to step S76c. Go on, VS to Vx
Is added, and for the diagnosis case having the second pseudo attribute value * in the attribute Ax, the first pseudo attribute value not is added in Ax.
After giving ({Vx}), the process returns to step S73.

【0052】ステップS76bで、その検査系列(終端
ノード)に、新診断事例以外で属性Axに第1の疑似属
性値not(VS)を持つ診断事例がない場合は、ステ
ップS76dへ進み、属性Axに第2の疑似属性値*を持
つ診断事例に対して、Axに第1の疑似属性値not
({Vx})を与えた後、ステップS73へ戻る。
If it is determined in step S76b that there is no diagnostic case having the first pseudo attribute value not (VS) in the attribute Ax other than the new diagnostic case in the inspection sequence (terminal node), the process proceeds to step S76d and the attribute Ax is determined. For the diagnosis case having the second pseudo attribute value * in Ax, the first pseudo attribute value not in Ax
After giving ({Vx}), the process returns to step S73.

【0053】決定木の生成は決定木生成処理部56bに
よって再構成可能である。図8は、この決定木再構成装
置56における決定木生成処理部56bの動作を説明す
るためのフローチャートである。
The generation of the decision tree can be reconfigured by the decision tree generation processing unit 56b. FIG. 8 is a flowchart for explaining the operation of the decision tree generation processing unit 56b in the decision tree reconstructing device 56.

【0054】ステップS81において、学習データ生成
処理部56aによって生成された学習データを、疑似診
断事例データメモリから、読み込む。次のステップS8
2では、この事例集合を用いてID3系の学習アルゴリ
ズムにより中間決定木を生成する。ステップS83にお
いて、決定木を最初に作ったか又は前回に作った決定木
と異なった中間決定木の場合は、ステップS85へ進ん
で、その中間決定木と学習データを図5の56cに示す
学習データ枝刈り部へ引き渡す。前回に作った決定木と
同じ場合は、中間決定木を出力し、決定木データメモリ
に書き込む。
In step S81, the learning data generated by the learning data generation processing unit 56a is read from the pseudo diagnosis case data memory. Next step S8
In 2, the intermediate decision tree is generated by the learning algorithm of the ID3 system using this case set. In step S83, when the decision tree is first created or an intermediate decision tree different from the previously created decision tree, the process proceeds to step S85, and the intermediate decision tree and the learning data are shown as learning data 56c in FIG. Hand over to the pruning section. If it is the same as the previously created decision tree, the intermediate decision tree is output and written in the decision tree data memory.

【0055】図9は、決定木生成処理部56bにて中間
決定木を構成する際に利用される、各分割対象ノードL
に属す学習データの中でクラスCkに属し、属性Ai=
Vi,jとなる事例の数N(k,i,j)の計算手続き
を説明するためのフローチャートである。
FIG. 9 shows each division target node L which is used when the decision tree generation processing unit 56b constructs an intermediate decision tree.
Belonging to the class Ck among the learning data belonging to the attribute Ai =
9 is a flowchart for explaining a calculation procedure of the number N (k, i, j) of cases of Vi, j.

【0056】ステップS91にて、そのノードL におい
て、クラスCkに属し、属性Ai=Vi,jとなる事例
の重みの和N(k,i,j)を、全属性Aiに対して、
計算完了したか調べ、完了していなければステップS9
2へ、完了していればエンドへ進む。
In step S91, the sum N (k, i, j) of the weights of the cases belonging to the class Ck and having the attribute Ai = Vi, j is calculated for all the attributes Ai in the node L.
It is checked whether the calculation is completed, and if not, step S9.
Go to 2 and end if completed.

【0057】ステップS92にて、属性Aiが疑似属性
以外の値Vi,jを持ち、かつクラスCkに属す事例E
nの重みWl,nの和n(k,i,j)を求め、事例数
メモリN(k,i,j)に格納する。ステップS92に
進んで、属性Aiが第1の疑似属性not(VS)を持
つ事例を調べ、事例数メモリへの寄与計算をしていない
ものがあれば、事例Enを持ってステップS94へ進
む。全て処理済みならばステップS91へ戻る。
In step S92, a case E in which the attribute Ai has a value Vi, j other than the pseudo attribute and belongs to the class Ck
The sum n (k, i, j) of the weights Wl, n of n is obtained and stored in the number-of-cases memory N (k, i, j). In step S92, the case in which the attribute Ai has the first pseudo attribute not (VS) is checked, and if there is a case in which the contribution calculation to the number-of-cases memory is not calculated, the case En is held and the process proceeds to step S94. If all have been processed, the process returns to step S91.

【0058】ステップS94にて、VSに含まれる値の
集合と、Range(Ai)が一致しているかどうか調
べ、一致していればステップS95にてN(k,i,
d)にWl,nを加え、ステップS91に戻る。ここ
で、dをnot(VS)に対応するインデックスとす
る。一致していなければ、ステップS96へ進んで、R
ange(Ai)に含まれ、VSに含まれない属性値V
i,j全てに対して、N(k,i,j)を下記の(B)
式で計算し、エンドへ進む。
In step S94, it is checked whether the set of values included in VS and Range (Ai) match, and if they match, N (k, i, N) in step S95.
Wl, n is added to d), and the process returns to step S91. Here, let d be an index corresponding to not (VS). If they do not match, the process proceeds to step S96 and R
Attribute value V included in range (Ai) but not included in VS
For all i and j, N (k, i, j) is given in (B) below.
Calculate with the formula and go to the end.

【0059】[0059]

【数3】 (Equation 3)

【0060】図10は、図9で示した、各分割対象ノー
ドL に属す学習データの中でクラスCkに属し、属性A
i=Vi,jとなる事例の数N(k,i,j)の計算で
用いられる各事例に割り振られた重みの計算手続きを説
明するためのフローチャートであり、分割ノードに属し
ていた各事例Enの重みを、ノード分割後に生じる各ア
ークの先の子ノードに割り振る手続きを示している。
FIG. 10 shows that the learning data belonging to each division target node L shown in FIG.
9 is a flowchart for explaining a calculation procedure of weights assigned to each case used in the calculation of the number N (k, i, j) of cases where i = Vi, j, and each case belonging to a split node The procedure of assigning the weight of En to the child node at the end of each arc generated after the node division is shown.

【0061】ステップS101では、分割ノードに含ま
れる全事例に対して、分割後のノードに含まれる重みを
計算完了したかどうか調べ、完了していればエンドへ、
そうでなければステップS102へ進む。
In step S101, it is checked whether or not the weights included in the nodes after the division have been calculated for all the cases included in the division node, and if the calculation has been completed, the process ends.
If not, the process proceeds to step S102.

【0062】ステップS102では、未計算の事例En
(重さWl,n)の分割属性Aiの値Vi,tが疑似属
性値であるかどうか調べ、疑似属性値でなければステッ
プS103でVi,tに対応するアークの先のノードに
占めるEnの重さをWl,n、それ以外のアークの先の
ノードに占めるEnの重さを0とし、ステップS101
へ戻る。ステップS102で疑似属性値であった場合
は、ステップS104へ進む。
In step S102, an uncalculated case En
It is checked whether the value Vi, t of the division attribute Ai of (weight Wl, n) is a pseudo attribute value, and if it is not the pseudo attribute value, in step S103, the value of En occupying the node ahead of the arc corresponding to Vi, t The weight is set to Wl, n, and the weight of En occupying the other nodes ahead of the arc is set to 0, and step S101 is performed.
Return to. If it is the pseudo attribute value in step S102, the process proceeds to step S104.

【0063】ステップS104で、事例Enの分割属性
Aiの値が第1の疑似属性値not(VS)であり、R
ange(Ai)=VSであれば、ステップS105で
Aiで分割後not(VS)に対応するアークの先のノ
ードに占めるEnの重さをWl,n、それ以外のアーク
の先のノードに占めるEnの重さを0とし、ステップS
101へ戻る。そうでなければ、ステップS106でA
iで分割後Ai=Ai,jに対応するアークの先のノー
ドに占めるEnの重さを下記の(C)式で求めたP
(i,j)を用いてP(i,j)Wl,nとしてステッ
プS101へ戻る。
In step S104, the value of the division attribute Ai of the case En is the first pseudo attribute value not (VS), and R
If ange (Ai) = VS, the weight of En occupying the node ahead of the arc corresponding to not (VS) after division by Ai in step S105 is Wl, n, and the node ahead of the other arcs. Setting the weight of En to 0, step S
Return to 101. If not, A in step S106
After division by i, the weight of En occupying the node at the tip of the arc corresponding to Ai = Ai, j is calculated by the following equation (C).
Using (i, j), P (i, j) Wl, n is set, and the process returns to step S101.

【0064】[0064]

【数4】 [Equation 4]

【0065】学習データ枝刈り処理部56cにおいて
は、図11に示す終端ノード単位の枝刈りと、図12に
示す非終端ノードでの枝刈りを行う。図11において、
まずステップS111で全ての終端ノードでの枝刈りが
完了したか調べ、完了していればエンドへ、そうでなけ
ればステップS112へ進む。ステップS112では、
枝刈り未処理の終端ノードに至る検査系列に疑似属性値
に対応するアークがあるか調べ、あればステップS11
8で図12に示す非終端ノードでの枝刈りを行った後、
ステップS111へ進む。なければステップS113へ
進む。
The learning data pruning processor 56c performs pruning on a terminal node basis shown in FIG. 11 and pruning at a non-terminal node shown in FIG. In FIG.
First, in step S111, it is checked whether or not pruning in all the end nodes is completed. If completed, the process proceeds to END, and if not, the process proceeds to step S112. In step S112,
It is checked whether or not there is an arc corresponding to the pseudo attribute value in the check sequence reaching the terminal node that has not been pruned, and if there is, step S11.
After pruning at the non-terminal node shown in FIG.
It proceeds to step S111. If not, the process proceeds to step S113.

【0066】ステップS113では、その終端ノードで
枝刈り処理検査を全ての事例について行ったかどうか調
べ、完了していればステップS111へ、そうでなけれ
ばステップS114へ進む。ステップS114におい
て、枝刈り未処理の事例Enが検査系列中の属性Aiに
疑似属性値を持ち、かつ他の事例でAiに実際の観測値
を持つものがあるどうかか調べ、あればステップS11
5で事例Enをその終端ノードに含まれる疑似診断事例
集合から削除し、ステップS113へ進む。なければ、
ステップS116へ進む。
In step S113, it is checked whether or not the pruning process inspection has been performed on all the cases at the terminal node, and if completed, the process proceeds to step S111, and if not, the process proceeds to step S114. In step S114, it is checked whether or not the unencumbered case En has a pseudo attribute value in the attribute Ai in the test sequence, and there is another case in which Ai has an actual observation value.
In case 5, the case En is deleted from the pseudo diagnosis case set included in the terminal node, and the process proceeds to step S113. If not,
It proceeds to step S116.

【0067】ステップS116では、枝刈り未処理の事
例Enが検査系列外の属性Aiに疑似属性値を持ち、か
つ他の事例でAiに実際の観測値を持つものがあるかど
うか調べ、あればステップS117で事例Enをその終
端ノードに含まれる疑似診断事例集合から削除し、ステ
ップS113へ進む。なければ直接、ステップS113
へ進む。
In step S116, it is checked whether or not the unencumbered case En has a pseudo attribute value in the attribute Ai outside the test sequence, and there is another case in which Ai has an actual observation value. In step S117, the case En is deleted from the pseudo diagnosis case set included in the terminal node, and the process proceeds to step S113. If not, step S113 is directly performed.
Go to.

【0068】学習データ枝刈り処理部56cの非終端ノ
ードにおける枝刈り処理手続きを、図12に示す。ステ
ップS121で、その検査系列上の疑似属性値を持つ全
てのアークに関して枝刈り処理を行ったかどうか調べ、
行っていればエンドへ進み、そうでなければステップS
122へ進んで未だ未処理のアークに関して分割後のノ
ードに含まれる事例数Ndを求める。
FIG. 12 shows the pruning processing procedure in the non-terminal node of the learning data pruning processing unit 56c. In step S121, it is checked whether or not pruning processing has been performed for all arcs having pseudo attribute values on the check sequence,
If yes, go to end, else step S
Proceeding to 122, the number Nd of cases included in the node after the division regarding the arc which has not been processed yet is obtained.

【0069】次のステップS123では、分割前のノー
ドに含まれる事例数Naを求め、ステップS124でN
dのNaに対する比Nd/Naが予め定めたしきい値T
hより小さいかどうか調べ、そうであれば疑似属性値に
対応するアークの先に含まれる全ての事例を削除し、ス
テップS121へ戻る。そうでなければ、直接ステップ
S121へ戻る。
In the next step S123, the number of cases Na included in the node before the division is calculated, and N is calculated in step S124.
The ratio Nd / Na of d to Na is a predetermined threshold value T
It is checked if it is smaller than h, and if so, all the cases included at the end of the arc corresponding to the pseudo attribute value are deleted, and the process returns to step S121. If not, the process directly returns to step S121.

【0070】以上述べたように、本実施例では、決定木
再構成装置56が診断事例のうち未検査部分の取り得る
値に関して、決定木の形式で定義された診断系列で新診
断事例を分類する過程で疑似観測値を求め、かつその学
習データを用いて生成した中間決定木を用いて、学習デ
ータを削減させ、その時点までに収集した診断事例を診
断するための適切な決定木を再構成しているので、人手
を介さずに自動的に決定木を再構成できる。そのため、
決定木最適化のデータの入力ミスがなく、決定木最適化
の作業も削減できる。
As described above, in the present embodiment, the decision tree reconstructing device 56 classifies the new diagnosis cases by the diagnosis series defined in the form of the decision tree regarding the possible values of the unexamined part of the diagnosis cases. In the process of obtaining the pseudo observation value, the learning data is reduced by using the intermediate decision tree generated by using the learning data, and the appropriate decision tree for diagnosing the diagnostic cases collected up to that point is reconstructed. Since it is configured, the decision tree can be automatically reconfigured without human intervention. for that reason,
There is no input error in the decision tree optimization data, and the work of decision tree optimization can be reduced.

【0071】以上述べた実施例は全て本発明を例示的に
示すものであって限定的に示すものではなく、本発明は
他の種々の変形態様及び変更態様で実施することができ
る。従って本発明の範囲は特許請求の範囲及びその均等
範囲によってのみ規定されるものである。
The embodiments described above are merely illustrative of the present invention and not restrictive, and the present invention can be implemented in various other modified modes and modified modes. Therefore, the scope of the present invention is defined only by the claims and their equivalents.

【0072】[0072]

【発明の効果】以上詳細に説明したように本発明によれ
ば、決定木の形式で定義された検査系列の決定木データ
を蓄積する第1の蓄積手段と、診断事例データを蓄積す
る第2の蓄積手段と、第1の蓄積手段からの決定木によ
り新事例を診断する診断手段と、新事例の診断が終端ノ
ードにおいて誤っていた場合、第2の蓄積手段からの診
断事例データを参照し、新事例が新検査項目を持つ場合
は、抽出した検査系列内で分類される既存の診断事例の
該当検査項目の値に新事例の該当検査項目の値以外の値
を示す第1の疑似観測値を与え、検査系列外で分類され
る既存の診断事例の該当検査項目の値には検査項目の値
域内の任意の値を示す第2の疑似観測値を与えることに
よって、未知の観測値が存在しない検査系列を学習デー
タとして出力する学習データ生成処理手段と、学習デー
タ生成処理手段からの学習データに対して学習アルゴリ
ズムを適用して新たな決定木を再構成する決定木生成処
理手段とを備えているため、診断期間中に検査項目(属
性)が増加する場合に対しても、学習アルゴリズムを適
用して診断順序を最適化することができる。その結果、
人手を介さずに短時間で自動的に決定木を再構成できる
ため、データの入力ミスがなくかつ作業量の削減化を図
ることができ、短時間で診断結果を得ることが可能な診
断装置を得ることができる。
As described in detail above, according to the present invention, the first accumulating means for accumulating decision tree data of a test sequence defined in the form of a decision tree and the second accumulating means for accumulating diagnostic case data. Storage means, a diagnosis means for diagnosing a new case by the decision tree from the first storage means, and if the diagnosis of the new case is wrong at the terminal node, the diagnosis case data from the second storage means is referred to. , If the new case has a new test item, the first pseudo observation that indicates a value other than the value of the corresponding test item of the new case in the value of the corresponding test item of the existing diagnostic case classified in the extracted test series. By giving a value and giving a second pseudo observation value indicating an arbitrary value within the range of the inspection item to the value of the corresponding inspection item of the existing diagnosis case classified outside the inspection series, the unknown observation value Output nonexistent test series as training data Since the learning data generation processing means and the decision tree generation processing means for reconstructing a new decision tree by applying a learning algorithm to the learning data from the learning data generation processing means are provided, the inspection is performed during the diagnosis period. Even when the number of items (attributes) increases, the learning algorithm can be applied to optimize the diagnosis order. as a result,
Since a decision tree can be automatically reconstructed in a short time without human intervention, there is no data input error and the amount of work can be reduced, and a diagnostic result can be obtained in a short time. Can be obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】従来の診断装置の構成を概略的に示すブロック
図である。
FIG. 1 is a block diagram schematically showing a configuration of a conventional diagnostic device.

【図2】診断事例データメモリに格納されている診断事
例を表す図である。
FIG. 2 is a diagram showing a diagnostic case stored in a diagnostic case data memory.

【図3】観測値からなる検査系列における事例集合の枝
刈りを表す図である。
FIG. 3 is a diagram illustrating pruning of a set of cases in a test sequence of observation values.

【図4】疑似観測値を持つ検査系列における事例集合の
枝刈りを表す図である。
FIG. 4 is a diagram illustrating pruning of a set of cases in a test sequence having pseudo observation values.

【図5】本発明の一実施例における診断装置の構成を概
略的に示すブロック図である。
FIG. 5 is a block diagram schematically showing a configuration of a diagnostic device according to an embodiment of the present invention.

【図6】決定木再構成装置における学習データ生成処理
部フローの一例を示す図である。
FIG. 6 is a diagram showing an example of a learning data generation processing unit flow in the decision tree reconstruction device.

【図7】学習データ生成処理部の終端ノード到達時の疑
似事例生成処理の動作を説明するためのフローチャート
である。
FIG. 7 is a flowchart for explaining an operation of a pseudo case generation process when the learning data generation processing unit arrives at a terminal node.

【図8】決定木生成処理部の動作を説明するためのフロ
ーチャートである。
FIG. 8 is a flowchart for explaining the operation of the decision tree generation processing unit.

【図9】決定木生成処理部で使用するクラス名、属性
名、属性値の組の出現数を計算する動作を説明するため
のフローチャートである。
FIG. 9 is a flowchart for explaining the operation of calculating the number of appearances of a class name, attribute name, and attribute value pair used in the decision tree generation processing unit.

【図10】ノード分割前後の事例の重みの計算手続きを
説明するためのフローチャートである。
FIG. 10 is a flowchart for explaining a procedure for calculating weights of cases before and after node division.

【図11】学習データ枝刈り部の終端ノード単位の枝刈
り手続きを説明するためのフローチャートである。
FIG. 11 is a flowchart for explaining a pruning procedure for each terminal node of the learning data pruning unit.

【図12】学習データ枝刈り部の非終端ノード単位の枝
刈り手続きを説明するためのフローチャートである。
FIG. 12 is a flowchart for explaining a pruning procedure for each non-terminal node of the learning data pruning unit.

【符号の説明】[Explanation of symbols]

50 端末装置 51 決定木データメモリ 52 イベント解析部 53 推論制御部 54 診断事例データメモリ 55 履歴管理部 56 決定木再構成装置 56a 学習データ生成処理部 56b 決定木生成処理部 56c 学習データ枝刈り処理部 57 疑似診断事例データメモリ 50 terminal device 51 decision tree data memory 52 event analysis unit 53 inference control unit 54 diagnostic case data memory 55 history management unit 56 decision tree reconstruction device 56a learning data generation processing unit 56b decision tree generation processing unit 56c learning data pruning processing unit 57 Pseudo diagnosis case data memory

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 決定木形式の診断知識を用いた診断装置
であって、決定木の形式で定義された検査系列の決定木
データを蓄積する第1の蓄積手段と、診断事例データを
蓄積する第2の蓄積手段と、前記第1の蓄積手段からの
決定木により新事例を診断する診断手段と、新事例の診
断が終端ノードにおいて誤っていた場合、前記第2の蓄
積手段からの診断事例データを参照し、新事例が新検査
項目を持つ場合は、抽出した検査系列内で分類される既
存の診断事例の該当検査項目の値に新事例の該当検査項
目の値以外の値を示す第1の疑似観測値を与え、検査系
列外で分類される既存の診断事例の該当検査項目の値に
は検査項目の値域内の任意の値を示す第2の疑似観測値
を与えることによって、未知の観測値が存在しない検査
系列を学習データとして出力する学習データ生成処理手
段と、該学習データ生成処理手段からの学習データに対
して学習アルゴリズムを適用して新たな決定木を再構成
する決定木生成処理手段と、生成決定木により学習デー
タを削減する学習データ枝刈り処理手段を備えたことを
特徴とする決定木形式の診断知識を用いた診断装置。
1. A diagnostic device using diagnostic knowledge in the form of a decision tree, the first accumulating means for accumulating decision tree data of a test sequence defined in the form of a decision tree, and diagnostic case data. The second accumulating means, the diagnosing means for diagnosing the new case by the decision tree from the first accumulating means, and the diagnosis case from the second accumulating means when the diagnosis of the new case is wrong at the terminal node. If the new case has a new inspection item by referring to the data, the value of the applicable inspection item of the existing diagnostic case classified in the extracted inspection series indicates a value other than the value of the applicable inspection item of the new case. By giving a pseudo-observed value of 1 and giving a second pseudo-observed value indicating an arbitrary value within the range of the inspection item to the value of the relevant inspection item of the existing diagnosis case classified outside the inspection series, The test sequence with no observed value of Learning data generation processing means for outputting the learning data, and decision tree generation processing means for reconstructing a new decision tree by applying a learning algorithm to the learning data from the learning data generation processing means, and learning by the generation decision tree A diagnostic device using diagnostic knowledge in a decision tree format, characterized by comprising learning data pruning processing means for reducing data.
【請求項2】 前記診断手段が、終端ノード到達以前の
ノードにおける検査項目が新事例の観測値に対応する値
を持たず、診断不能になった場合、該当観測値以外の値
から作られた第1の疑似観測値に対応するアークがある
場合は、そのアークに沿って診断を進め、そうでない場
合は新事例の観測値に対応したアークを作って終端ノー
ドを作成する診断手段であることを特徴とする請求項1
に記載の診断装置。
2. When the diagnosis item in the node before reaching the terminal node does not have a value corresponding to the observation value of the new case and the diagnosis cannot be made, it is made from a value other than the corresponding observation value. If there is an arc corresponding to the first pseudo observation value, the diagnosis is advanced along the arc, and if not, it is a diagnostic means for creating an arc corresponding to the observation value of the new case and creating a terminal node. Claim 1 characterized by the above.
A diagnostic device according to claim 1.
【請求項3】 前記学習データ生成処理手段が、既存検
査項目の場合、抽出した診断系列内で分類される既存の
診断事例の該当検査項目の値で第2の疑似観測値を持つ
場合、新事例の該当観測値以外の値を示す第1の疑似観
測値を与え、第1の疑似観測値を持つ場合、新事例の該
当観測値も除外対象であることを示す第1の疑似観測値
を与える学習データ生成処理手段であることを特徴とす
る請求項1又は2に記載の診断装置。
3. If the learning data generation processing means has a second pseudo observation value in the case of an existing inspection item and the value of the inspection item of the existing diagnosis case classified in the extracted diagnosis series has a second pseudo observation value, If a first pseudo observation value indicating a value other than the corresponding observation value of the case is given and the first pseudo observation value is included, the first pseudo observation value indicating that the corresponding observation value of the new case is also excluded The diagnostic device according to claim 1 or 2, which is a learning data generation processing unit to be given.
【請求項4】 前記学習データ枝刈り処理手段が、終端
ノードまで全ての検査が観測値で分岐した検査系列で診
断された診断事例で検査結果に疑似観測値を持つものが
ある場合、該検査結果に観測値を持つ診断事例がその検
査系列内に他にあれば疑似観測値を持つ診断事例を削除
し、終端ノードまでの検査で疑似観測値で分岐したもの
がある場合、その疑似観測値分割後の事例数の分岐前の
事例数に占める割合があるしきい値以下であればその疑
似観測値分割後の事例数を全て削除する学習データ枝刈
り処理手段であることを特徴とする請求項1から3のい
ずれか1項に記載の診断装置。
4. The learning data pruning processing means, if all the tests up to the terminal node are diagnosed by a test sequence in which all the tests are branched by the observation values, and there is a pseudo observation value in the inspection result, the inspection is performed. If there are other diagnostic cases with observed values in the test sequence, delete the diagnostic cases with pseudo observed values, and if there is a branch with pseudo observed values in the inspection up to the terminal node, that pseudo observed value. If the ratio of the number of cases after division to the number of cases before branching is less than or equal to a threshold value, it is learning data pruning processing means for deleting all the number of cases after the pseudo observation value division. Item 4. The diagnostic device according to any one of items 1 to 3.
JP10160395A 1995-04-04 1995-04-04 Diagnostic device using decision tree-type diagnostic knowledge Expired - Fee Related JP3453922B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10160395A JP3453922B2 (en) 1995-04-04 1995-04-04 Diagnostic device using decision tree-type diagnostic knowledge

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10160395A JP3453922B2 (en) 1995-04-04 1995-04-04 Diagnostic device using decision tree-type diagnostic knowledge

Publications (2)

Publication Number Publication Date
JPH08278901A true JPH08278901A (en) 1996-10-22
JP3453922B2 JP3453922B2 (en) 2003-10-06

Family

ID=14304973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10160395A Expired - Fee Related JP3453922B2 (en) 1995-04-04 1995-04-04 Diagnostic device using decision tree-type diagnostic knowledge

Country Status (1)

Country Link
JP (1) JP3453922B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007052327A1 (en) * 2005-10-31 2007-05-10 Fujitsu Limited Performance failure analysis device, method, program, and performance failure analysis device analysis result display method
JP2021071823A (en) * 2019-10-30 2021-05-06 富士通株式会社 Forecasting model explanation method and forecasting model explanation program and forecasting model explanation device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007052327A1 (en) * 2005-10-31 2007-05-10 Fujitsu Limited Performance failure analysis device, method, program, and performance failure analysis device analysis result display method
US7970584B2 (en) 2005-10-31 2011-06-28 Fujitsu Limited Performance abnormality analysis apparatus, method, and program, and analysis result display method for performance abnormality analysis apparatus
JP4983604B2 (en) * 2005-10-31 2012-07-25 富士通株式会社 Performance abnormality analyzer, method and program, and analysis result display method of performance abnormality analyzer
JP2021071823A (en) * 2019-10-30 2021-05-06 富士通株式会社 Forecasting model explanation method and forecasting model explanation program and forecasting model explanation device

Also Published As

Publication number Publication date
JP3453922B2 (en) 2003-10-06

Similar Documents

Publication Publication Date Title
Van Der Gaag Bayesian belief networks: odds and ends
KR100794516B1 (en) System and method for diagnosis and clinical test selection using case based machine learning inference
Forsyth et al. An ant system for bus driver scheduling
US11852686B2 (en) Fault diagnosis method and system for high-voltage generator
CN109086215A (en) A kind of embedded software unit testing case generation method and system
Atzmueller et al. Subgroup mining for interactive knowledge refinement
CN113160190A (en) Method, equipment, device and storage medium for detecting abnormity of fastener of contact network
EP0632372A2 (en) Methods and apparatus for optimizing decision making
JP3453922B2 (en) Diagnostic device using decision tree-type diagnostic knowledge
JP3848749B2 (en) Image search device
JP7365747B1 (en) Disease treatment process abnormality identification system based on hierarchical neural network
JPH0855029A (en) Inference device for cause
Klingberg et al. Machine learning methods applied on dental fear and behavior management problems in children
Jonnavithula et al. Topological analysis in bulk power system reliability evaluation
Van Der Gaag et al. Sensitivity analysis for threshold decision making with Bayesian belief networks
Saptawijaya et al. Towards practical tabled abduction usable in decision making
Druzdzel Five useful properties of probabilistic knowledge representations from the point of view of intelligent systems
Füßl et al. An Inferential Knowledge Model for the Digitalisation and Automation of Business Process Analysis.
JPH06139073A (en) Diagnostic device using diagnostic knowledge of decision tree form
Liu et al. Eliciting Architectural Decisions from Requirements using a Rule-based Framework.
Tucker et al. Spatial operators for evolving dynamic Bayesian networks from spatio-temporal data
CN117133459B (en) Machine learning-based postoperative intracranial infection prediction method and system
Melis et al. Employing external reasoners in proof planning
Kates et al. Prospects for clinical decision support in breast cancer based on neural network analysis of clinical survival data
Nordbø et al. METAKREK: Knowledge acquisition as modeling

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030624

LAPS Cancellation because of no payment of annual fees