JP3761238B2 - 判断規則修正装置と判断規則修正方法 - Google Patents

判断規則修正装置と判断規則修正方法 Download PDF

Info

Publication number
JP3761238B2
JP3761238B2 JP01122096A JP1122096A JP3761238B2 JP 3761238 B2 JP3761238 B2 JP 3761238B2 JP 01122096 A JP01122096 A JP 01122096A JP 1122096 A JP1122096 A JP 1122096A JP 3761238 B2 JP3761238 B2 JP 3761238B2
Authority
JP
Japan
Prior art keywords
decision tree
determination
case
rule
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01122096A
Other languages
English (en)
Other versions
JPH09204310A (ja
Inventor
茂明 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP01122096A priority Critical patent/JP3761238B2/ja
Priority to US08/788,271 priority patent/US5890143A/en
Publication of JPH09204310A publication Critical patent/JPH09204310A/ja
Application granted granted Critical
Publication of JP3761238B2 publication Critical patent/JP3761238B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Fuzzy Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、各種製造業における機器制御、各種サービス業における需要予測、機器の故障原因を推定する故障診断等の諸分野において適用され、与えられたデータを評価するための決定木形式の判断規則を修正する判断規則修正装置と判断規則修正方法に関する。
【0002】
【従来の技術】
計算機上で、与えられたデータを評価するために用いられる判断規則の表現方法のひとつに決定木がある。この決定木は、データの性質を表す属性の割り当てられた分岐ノードと、データに与えられる判断を表す分類クラスの割り当てられた末端ノードと、ノードとノードを結び付ける属性値の条件をラベル付けした枝とから構成される。
【0003】
決定木形式の判断規則を学習する方法としては、参考文献「田中幸吉/淵一博監訳、人工知能ハンドブック、第3巻(1984年)、共立出版株式会社発行、第 529頁」に記載のΙD3アルゴリズムがある。ID3アルゴリズムは、相互情報量を基準とした属性の選択を行い、選択した属性を用いて事例集合を分割する。また、分割した部分事例集合と元の事例集合に対応するノードを結ぶことにより、決定木形式の判断規則を成長させる。また、ΙD3アルゴリズムは生成した決定木に評価対象を与えることにより、評価対象の特徴量を推定することもできる。しかしながら、ΙD3アルゴリズムは決定木を修正する機能を備えていない。このため、新たに獲得した事例を反映させた決定木を学習するには、決定木を学習するのに利用した事例集合と新たに獲得した事例集合の両方を用いて決定木を再学習しなければならない。したがって、決定木の再学習を行うためには、膨大な事例集合を保存しておくための大容量のメモリが必要になる。また、再学習において過去の学習結果が使用されることがないため、再学習に時間がかかるという問題もある。
【0004】
また、決定木形式の判断規則を学習する他の方法としては、参考文献「P.E.Utgoff,Incremental Induction of Decision Trees,(1989年),Machine Learning,4,161-186」に記載のID5Rアルゴリズムがある。このID5Rアルゴリズムは、新たな事例が与えられた時に、分岐ノードに割り当てられている属性が適当かどうかを判定する評価値を計算し、最もよい評価値を持つ属性が分岐ノードに割り当てられていない場合に、当該分岐ノ−ドに割り当てられている属性を最もよい評価値を持つ属性に変更し、当該分岐ノ一ド以下の部分決定木を更新する。すなわち、ID5Rアルゴリズムは、以前の学習結果を用いて決定木を修正するため、ID3アルゴリズムに比べれば再学習時の時間的な問題は改善される。
【0005】
しかしながら、ID5Rアルゴリズムにおける決定木の修正は、事例が漸進的に与えられるという状況を想定している。このため、決定木を利用することにより、与えられた評価対象に割り当てるべき特徴量は推定できるものの、評価結果を利用して決定木を修正することはできなかった。また、分岐ノードに割り当てられている属性が適当かどうかを判定する際に、決定木を学習するのに使用した事例集合を必要とするため、ID3アルゴリズムの場合と同様に膨大な事例集合を保存するための大容量メモリが必要となる。
【0006】
【発明が解決しようとする課題】
このように、事例から決定木形式の判断規則を学習する従来の各技術の共通の課題は、決定木形式の判断規則を用いた評価を実施しながらその決定木形式の判断規則の修正は行えない点と、新たに獲得した事例を用いて再学習を行う場合に以前に利用した事例集合を保持していないと再学習は行えず、このため膨大な事例を保持するための大容量メモリを必要とする点にあった。
【0007】
本発明はこのような課題を解決するためのもので、決定木形式の判断規則による評価を実施しつつ判断規則の不完全部分を最適に修正することができ、且つその判断規則の修正する際に用いられる事例集合を蓄えるのに必要なメモリを低減することのできる判断規則修正装置と判断規則修正方法の提供を目的とする。
【0008】
【課題を解決するための手段】
第1の発明は、評価対象を評価するための、分岐ノード、末端ノード及びこれらのノードを連結する枝を有して構成される決定木形式の判断規則を予め格納する決定木格納手段と、前記評価対象とこの評価対象に与えられた判断結果である特徴量とからなる事例を、前記決定木形式の判断規則を構成する個々の前記ノード毎に割り当てて格納する事例格納手段と、与えられた評価対象に対する特徴量を前記決定木格納手段に格納された決定木形式の判断規則を用いて推定する決定木評価手段と、前記決定木評価手段によって前記特徴量が推定できたか否かを判定する判定手段と、この判定手段によって前記特徴量が推定されたと判断された場合、各末端ノードについて事例の密度を求め、事例の密度が所定のしきい値よりも小さい末端ノードを修正対象とし、前記与えられた評価対象が前記修正対象の末端ノードに伝播すると、前記決定木評価手段によって推定された特徴量の精度が良くないと判定する特徴量判定手段と、 前記特徴量判定手段によって特徴量の精度が良くないと判定された評価対象または前記判定手段によって特徴量を推定できなかったと判定された評価対象を専門家に提示する提示手段と、この提示手段の提示に対して前記専門家により入力された真の特徴量を受け、前記特徴量の精度が良くないと判定された評価対象または前記特徴量を推定できなかったと判定された評価対象と前記真の特徴量とからなる新たな事例を生成し、この新たな事例を前記特徴量の精度が良くないと判定された評価対象または前記特徴量を推定できなかったと判定された評価対象が到達した最後のノードに割り当てて前記事例格納手段に格納する事例生成手段と、前記事例格納手段に新たな事例が格納された後、前記決定木形式の判断規則の中で修正すべき判断規則を判定する第1の修正規則判定手段と、前記第1の修正規則判定手段によって判定された修正対象判断規則を、前記事例格納手段に格納されている、当該修正対象判断規則に関連する事例を入力として、帰納学習アルゴリズムに基づいて前記決定木形式の判断規則を部分的に再構成する決定木修正手段と、前記決定木修正手段による修正後の決定木形式の判断規則の中から修正すべき判断規則を判定する第2の修正規則判定手段と、前記第2の修正規則判定手段によって修正対象判断規則でないと判定された判断規則の前記末端ノードに格納されている事例を前記事例格納手段より削除する事例削除手段とを具備することを特徴とする判断規則修正装置である。
【0009】
第2の発明は、評価対象を評価するための、分岐ノード、末端ノード及びこれらのノードを連結する枝を有して構成される決定木形式の判断規則を予め格納する決定木格納手段と、前記評価対象とこの評価対象に与えられた判断結果である特徴量とからなる事例を、前記決定木形式の判断規則を構成する個々の前記ノード毎に割り当てて格納する事例格納手段と、を備える判断規則修正装置に適用される判断規則修正方法であって、与えられた評価対象に対する特徴量を前記決定木格納手段に格納された決定木形式の判断規則を用いて推定する決定木評価ステップと、前記決定木評価ステップによって前記特徴量が推定できたか否かを判定する判定ステップと、この判定ステップによって前記特徴量が推定されたと判断された場合、各末端ノードについて事例の密度を求め、事例の密度が所定のしきい値よりも小さい末端ノードを修正対象とし、前記与えられた評価対象が前記修正対象の末端ノードに伝播すると、前記決定木評価ステップによって推定された特徴量の精度が良くないと判定する特徴量判定ステップと、前記特徴量判定ステップによって特徴量の精度が良くないと判定された評価対象または前記判定ステップによって特徴量を推定できなかったと判定された評価対象を専門家に提示する提示ステップと、この提示ステップの提示に対して前記専門家により入力された真の特徴量を受け、前記特徴量の精度が良くないと判定された評価対象または前記特徴量を推定できなかったと判定された評価対象と前記真の特徴量とからなる新たな事例を生成し、この新たな事例を前記特徴量の精度が良くないと判定された評価対象または前記特徴量を推定できなかったと判定された評価対象が到達した最後のノードに割り当てて前記事例格納手段に格納する事例生成ステップと、前記事例格納手段に新たな事例が格納された後、前記決定木形式の判断規則の中で修正すべき判断規則を判定する第1の修正規則判定ステップと、前記第1の修正規則判定ステップによって判定された修正対象判断規則を、前記事例格納手段に格納されている、当該修正対象判断規則に関連する事例を入力として、帰納学習アルゴリズムに基づいて前記決定木形式の判断規則を部分的に再構成する決定木修正ステップと、前記決定木修正ステップによる修正後の決定木形式の判断規則の中から修正すべき判断規則を判定する第2の修正規則判定ステップと、前記第2の修正規則判定ステップによって修正対象判断規則でないと判定された判断規則の前記末端ノードに格納されている事例を前記事例格納手段より削除する事例削除ステップとを具備することを特徴とする判断規則修正方法である。
【0017】
【発明の実施の形態】
以下、本発明にかかる実施の形態を図面を参照しつつ説明する。
【0018】
図1は本実施形態である判断規則修正装置の構成を示すブロック図である。
【0019】
同図に示す判断規則修正装置は、決定木評価部X1、事例生成部X2、事例格納部X3、決定木格納部X4、決定木修正部X5、決定木修正対象判定部X6、保存事例判定部X7、特徴量判定部X8から構成される。
【0020】
決定木格納部X4は、評価対象を評価するための決定木形式の判断規則であるファジイ決定木を格納する部分である。
【0021】
事例格納部X3は、ファジイ決定木の各末端ノードに割り当てられている事例を格納する部分である。格納される事例は、評価対象とこの評価対象に与えられた判断結果である特徴量とからなる。
【0022】
決定木評価部X1は、入力された評価対象の特徴量を決定木格納部X4に格納されているファジイ決定木を用いて推定する。
【0023】
特徴量判定部X8は、決定木評価部X1によって推定された特徴量の信ぴょう性を判定する。
【0024】
事例生成部X2は、特徴量判定部X8によって特徴量の信ぴょう性に疑いがあると判定された評価対象または特徴量を推定できなかった評価対象に対する真の特徴量を専門家から受け取って、この評価対象と真の特徴量とからなる新たな事例を生成して事例格納部X3に格納する。
【0025】
決定木修正対象判定部X6は、ファジイ決定木の中で修正すべき対象を判定する。
【0026】
決定木修正部X5は、決定木修正対象判定部X6によって判定されたファジイ決定木中の修正対象を、事例生成部X2によって生成された新たな事例を含む事例を用いて修正する。
【0027】
保存事例判定部X7は、決定木修正対象判定部X6によって修正対象と判定されたファジイ決定木の末端ノードに割り当てられている事例以外の事例を事例格納部Xから削除する。
【0028】
図2はファジイ決定木の学習直後の判断規則修正装置の処理の流れを示すフローチャートである。但し、ファジイ決定木の学習直後においては、ファジイ決定木の修正を考えない場合を除いて、ファジイ決定木の学習に利用した事例集合がすべて末端ノ一ドに割り当てられているものとする。
【0029】
また、図3はファジイ決定木の学習直後でない場合に判断規則修正装置を使用した場合の処理の流れを示すフローチャートであり、このフローチャートは図2のフローチャートにおけるステップS3の決定木運用処理に相当する。
【0030】
すなわち、この判断規則修正装置においては、ファジイ決定木の学習に引き続いてファジイ決定木を運用する場合は図2のステップS1、S2に対応した前処理を行い、決定木運用処理を一旦終了して再度決定木運用処理を実施する場合は図2のステップS1、S2に対応した前処理を行う必要はない。
【0031】
以下、図3に示す、決定木の学習に引き続いて決定木運用処理を実施する場合について説明する。
【0032】
ここで、決定木の学習アルゴリズムとしては、例えば、参考文献「帰納学習手法によるファジイ決定木の生成、電気学会論文誌、Vol.113-c,No.7,488-494, 1993年」に記載のΙDFアルゴリズムを使用する。このIDFアルゴリズムは、離散属性、数値属性、ファジイ属性と分類クラスから構成される事例集合から、ファジイ決定木形式の判断規則を生成するアルゴリズムである。当該アルゴリズムは、数値属性、ファジイ属性に対して、属性領域をファジイ分割するファジイ分岐判断項目を生成し、分類クラスの識別力が最も高い属性を選択する。また、当該属性が離散属性の場合には、属性値を利用して事例集合を分割し、当該属性が数値属性、ファジイ属性の場合には、ファジイ分岐判断項目を利用して事例集合を分割する。さらに、当該属性分割手続きを、再帰的に実行することにより、ファジイ決定木を成長させる。
【0033】
例えば、IDFアルゴリズムを利用して図4のファジイ決定木が生成されたとする。図4において、ノードΒ1、B2、Β3は分岐ノードを表し、属性として各々「室温」「湿度」「面積」が各々割り当てられている。ノ一ドE1〜E6は末端ノードを表し、分類クラスとして「快適」「不快」が割り当てられ、各々に確信度が付されている。ノードとノードを結ぶ枝には、属性「室温」に対するファジイ分岐判断項目として「寒い」「適温」「暑い」が、属性「湿度」に対するファジイ分岐判断項目として「低い」「普通」「高い」が、属性「面積」に対するファジイ分岐判断項目として「小さい」「大きい」が各々割り当てられている。また、このファジイ決定木の各末端ノ一ドには、ファジイ決定木を生成するに利用した事例T1〜T400が割り当てられている。
【0034】
図2のフローチャートのステップS1においては、決定木修正対象判定部X6にて、ファジイ決定木の末端ノードを修正対象にするかどうかの判定を行う。すなわち、各末端ノ一ドについて事例の密度を求め、事例の密度がしきい値tよりも小さい末端ノ一ドを修正対象とする。一方、事例の密度がしきい値tよりも大きい末端ノードは修正対象としない。事例の密度は(1)式で求められる。
【0035】
事例の密度=(事例数)/(ファジイ分岐判断項目の面積)……(1)
例として、図4のファジイ決定木の末端ノードE3を修正の対象とするかどうかの判定を行ってみる。末端ノードE3においては、事例T100、T101という2つの事例が割り当てられているので、事例数は2となる。また、末端ノードE3は分岐ノードΒ2に割り当てられている属性「湿度」のファジイ分岐判断項目「普通」に対応したノ一ドである。このとき、「普通」に関するメンバーシップ関数がx軸と囲む領域の面積がファジイ分岐判断項目の面積となる。ここで、「普通」に関するメンバーシップ関数がx軸と囲む領域は台形であるため、その面積は(2)式より30となる。
【0036】
ファジイ分岐判断項目の面積=((60−40)+(70−30))×1/2=30…(2)
よって、末端ノードE3の事例の密度は1/15となる。ここで、修正対象の末端ノードにするかどうかの判定のためのしきい値tを0.09とすれば、末端ノードE3は修正対象となる。図4の場合、同様な判定を各末端ノードに行ったとすれば、末端ノードE6も修正対象になる。なお、末端ノードE1、E2、E4、E5に関しては、2つ以上の事例があるとしか図4には記述していないが、しきい値t(0.09)以上となる事例を各末端ノードが保持しているとする。したがって、各末端ノードは修正対象外となっている。
【0037】
図2のフローチャートのステップS2においては、保存事例判定部X7にて、修正対象になったファジイ決定木の末端ノードに割り当てられている事例以外の事例を事例格納部X3から削除する。図4の例の場合、末端ノードE3、E6が修正対象の末端ノードとなっているので、事例T100、T101、T400はそのまま事例格納部X3に保存され、その他の事例は事例格納部X3から削除される。事例格納部X3に格納する事例を図6に示す。
【0038】
以上の図2のフローチャートのステップS1、ステップS2の実行により、図4のファジイ決定木は図5に示すファジイ決定木に変更されて決定木格納部X4に格納される。ここで、末端ノードの網掛け表示は修正対象の末端ノードであることを表している。
【0039】
図2のフローチャートのステップS3においては、入力された評価対象の特徴量を決定木格納部X4に格納されているファジイ決定木を用いて推定し、推定できなかった評価対象及び推定精度が悪いと判定された評価対象と、その評価対象に対して専門家より与えられた真の特徴量との組を新たな事例として事例格納部X3に蓄積し、ファジイ決定木の修正を行う。この処理の詳細を図3のフローチャートに沿って説明する。
【0040】
図3のフローチャートのステップS4においては、評価対象を決定木評価部X1に入力する。また、評価対象が入力されない場合には判断規則修正装置の処理を終了する。ここで、評価対象とは、複数の属性から構成されている、分類クラスを持たないデータのことである。例えば、図7に示すような評価対象が決定木評価部X1に入力される。
【0041】
図3のフローチャートのステップS5においては、決定木評価部X1に入力された評価対象の特性量を決定木格納部X4に格納されているファジイ決定木を用いて評価する。
【0042】
例として、図5のファジイ決定木を利用して図7の評価対象V1を評価する場合を考える。ファジイ決定木の最上位のノードΒ1には、属性「室温」が割り当てられているので、まず属性「室温」に関して評価対象V1の評価を行う。評価対象V1の属性「室温」の属性値は「23度」と与えられているので、属性「室温」のファジイ分岐判断項目「寒い」「適温」「暑い」に対する各々の帰属度は図8から「0.0」「0.6」「0.4」と与えられる。そこで、帰属度を正規化することにより、確信度「0.0」の付いた評価対象V1が分岐ノ一ドΒ2に、確信度「0.4」の付いた評価対象V1が末端ノードE1に、確信度「0.6」の付いた評価対象V1が分岐ノードΒ3に各々伝播する。但し、確信度「0.0」の付いた評価対象V1は特徴量の推定に影響しないので、末端ノードE1と分岐ノードΒ3に伝播した評価対象についてのみ以降の評価を実施する。末端ノードΕ1には確信度「0.9」の分類クラス「快適」と確信度「0.1」の分類クラス「不快」が割り当てられているので、評価対象V1の確信度と末端ノードの分類クラスの確信度を掛けることにより、当該末端ノードE1からは、確信度「0.36」の分類クラス「快適」及び確信度「0.04」の分類クラス「不快」という結果が得られる。
【0043】
一方、分岐ノ一ドΒ3には属性「面積」が割り当てられているので、属性「面積」に関して評価対象V1が再度評価される。評価対象V1の「面積」の属性値は「20m」であるので、属性「面積」のファジイ分岐判断項目「小さい」「大きい」に対する帰属度は各々「1.0」「0.0」となる。これにより、確信度「0.6」を持つ評価対象V1は末端ノードE5に到達する。末端ノードE5には確信度「1.0」の分類クラス「快適」が割り当てられているので、評価対象V1の確信度と末端ノ一ドの分類クラスの確信度を掛けることにより、当該末端ノードE5からは確信度「0.6」の分類クラス「快適」という結果が得られる
その後、末端ノードE1、E5の結果を分類クラスごとに合計して、確信度「0.96」の分類クラス「快適」と確信度「0.04」の分類クラス「不快」という結果を得る。最終的には、確信度の高い分類クラス「快適」が、評価対象V1の特徴量として与えられる。
【0044】
また、図5のファジイ決定木を利用して図7の評価対象V2を評価する場合を考える。この場合、評価対象V2の属性「室温」の値は「30〜32度」と与えられているので、確信度「1.0」の付いた評価対象V2が分岐ノードB3に到達する。次に、属性「面積」について、評価対象V2を評価してみると、評価対象V2の属性「面積」の値は「60m2 」であるから、分岐ノードΒ2のファジイ分岐判断項目「小さい」「大きい」に対する帰属度はともに「0.0」となり、確信度の付いた評価対象V2を下位のノードに伝播させることができない。そこで、評価対象V2に対しては評価不能という結果を判定する。
【0045】
また、図5のファジイ決定木を利用して図7の評価対象V3を評価する場合を考える。この場合、評価対象V3は評価対象V1の場合と同様な評価を各ノードで実施することにより、まず分岐ノードB2に確信度「1.0」の付いた評価対象V3が伝播する。次に、属性「湿度」について評価対象V3を評価してみると、評価対象V3の属性「湿度」の値は「45%」であるから、分岐ノードΒ2のファジイ分岐判断項目「低い」「普通」「高い」に対する帰属度は各々「0.0」「1.0」「0.0」となり、分類クラス「快適」が評価対象V3の特徴量として推定される。
【0046】
図3のフローチャートのステップS6においては、決定木評価部X1による推定結果(特徴量)が得られたかどうかによって処理を分岐させる。すなわち、特徴量が推定された場合にはステップS7以降の処理を実施し、特徴量が推定されていない場合にはステップS9以降の処理を実施する。例えば、図7の評価対象V1、V3に対しては特徴量が得られているので、ステップS7以降の処理を実施する。一方、評価対象V2に対しては特徴量が得られていないので、ステップS9以降の処理を実施する。
【0047】
図3のフローチャートのステップS7においては、特徴量判定部X8にて、評価対象が伝播した末端ノ一ドが修正対象のノードかどうかを判定し、その判定結果から特徴量の精度が良いかどうかを判定し、その判定結果を基に処理を分岐させる。すなわち、評価対象が修正対象のノードに伝播しない場合には特徴量の精度が良いと判定し、ステップS8以降の処理を実施する。−方、評価対象が修正対象のノードに伝播する場合には特徴量の精度が良くないと判定し、ステップS9以降の処理を実施する。
【0048】
例えば、図7の評価対象V1についてステップS7の判定を行った場合、当該評価対象V1は修正対象でない末端ノードE1及びE5に伝播しているので、特徴量の精度が良いと判定して、ステップS8以降の処理を実施する。−方、評価対象V3についてステップS7の判定を行った場合、当該修正対象V3は修正対象の端末ノードΕ3に伝播しているので、特徴量の精度が良くないと判定して、ステップS9以降の処理を実施する。
【0049】
図3のフローチャートのステップS8においては、評価対象に対して決定木評価部X1が推定した特徴量を出力する。
【0050】
図3のフローチャートのステップS9においては、評価不能つまり特徴量を推定できなかった評価対象や特徴量の精度が良くないと推定された評価対象に対して、事例生成部X2が当該評価対象を専門家に提示し、専門家からの特徴量の入力を受け取る。例えば、図7の評価対象においては、評価対象V2、V3が当該ステップに到達するので、各評価対象の特徴量を専門家に入力させる。ここで、専門家により入力された特徴量として、V2に対しては「快適」、V3に対しては「不快」が各々入力されたとする。
【0051】
図3のフローチャートのステップS10においては、ステップS9において入力された特徴量と評価対象を組にした新たな事例を事例生成部X2にて生成し、評価対象が到達した最後のノードに、当該新たな事例を割り当てる。例えば、図7の評価対象の場合には、評価対象V2、V3に対して、図9に示すような新たな事例W1、W2を生成し、図10に示すように、事例W1を分岐ノードΒ3に割り当て、事例W2を末端ノードE3に各々割り当てる。
【0052】
図3のフローチャートのステップS11においては、決定木修正対象判定部X6にて、ファジイ決定木の中で修正すべき対象を判定するために、まず事例が蓄えられているノードに対して前記(1)式により事例の密度を計算する。次に、計算した事例の密度がしきい値tよりも大きいかどうかを判定し、その判定結果を基に処理を分岐させる。すなわち、当該しきい値tよりも事例の密度が大きい場合には、ステップS12以降の処理を実施する。−方、当該しきい値tよりも事例の密度が小さい場合には、ステップS4以降の処理を実施する。
【0053】
例えば、図10のファジイ決定木において、末端ノードE3について考えてみる。末端ノードE3の事例数は3、ファジイ分岐判断項目の面積が30と与えられている。このとき、事例の密度は0.1と与えられるので、しきい値tを0.09とすれば、この末端ノードE3は修正対象外であるとしてステップS4以降の処理を実施する。次に、分岐ノードΒ3について考えてみる。分岐ノードB3においては、事例W1はファジイ分岐判断項目に含まれていないので、最右端にあるファジイ分岐判断項目「大きい」の最大値と、事例W1の属性「面積」の属性値「60m2 」と、X軸と、帰属度「1.0」が囲む領域を対応する面積とする。これにより面積は10と与えられ、事例の密度は0.1となる。よって、分岐ノードΒ3も修正対象外であるとしてステップS4以降の処理を実施する。
【0054】
図3のフローチャートのステップS12においては、決定木修正対象判定部X6により修正対象である判定されたノードに対し、決定木修正部X5にて修正を実施する。ここで修正対象であるノードが末端ノードの場合には、まずこの末端ノードに連結している枝を削除し、次に、末端ノードに割り当てられている事例集合に対し、参考文献「帰納学習によるファジイ決定木の生成、電気学会論文誌、Vol.113-c,No.7,488-494, 1993年」に記載のIDFアルゴリズムを適用して部分ファジイ決定木を生成する。例えば、図10のファジイ決定木を利用して評価対象の特徴量を推定し続けることにより、末端ノ一ドE3の事例の密度がしきい値t(0.09)以上になったとする。この場合、分岐ノードB2と末端ノードE3を結ぶ枝を削除し、末端ノードE3に割り当てられている事例T100、T101、W2、…に対してIDFアルゴリズムに適用することによって図11に示すファジイ決定木を生成する。
【0055】
一方、修正対象のノードが分岐ノードの場合には、まず分岐ノードに割り当てられている事例集合を、この分岐ノードのファジイ分岐判断項目よりも小さい部分と大きい部分に分割し、次に、分割した事例集合ごとにIDFアルゴリズムを適用して部分ファジイ決定木を生成する。例えば、図11のファジイ決定木を利用して評価対象の特徴量を推定し続けることにより、分岐ノードB3の事例の密度がしきい値t(0.09)以上になったとする。また、分岐ノードB3に割り当てられている事例集合の属性「面積」の属性値は「50m2 」より大きいとする。このような場合には、属性「面積」のファジイ分岐判断項目よりも小さい部分に関しては、部分ファジイ決定木を生成する必要がないので、大きい部分に関してのみIDFアルゴリズムを適用し、部分ファジイ決定木を生成する。すなわち、図12のファジイ決定木を生成する。
【0056】
図3のフローチャートのステップS13においては、事例が割り当てられている末端ノードに対して、決定木修正対象判定部X6にて前記(1)式により事例の密度を再び計算する。このとき、事例の密度がしきい値t(0.09)よりも小さい場合には当該末端ノードを修正対象とする。−方、事例の密度がしきい値t(0.09)よりも大きい場合には当該末端ノードを修正対象外とする。例えば、図12のファジイ決定木の場合、末端ノードE9に対する事例の密度はしきい値t(0.09)以上となる。このため、末端ノードE9は修正対象とはならない。
【0057】
図3のフローチャートのステップS14においては、修正対象から削除された末端ノードの事例を保存事例判定部X7が事例格納部X3から削除する。例えば、図12のファジイ決定木の場合には、末端ノードE9が修正対象から外されたので、末端ノードE9に割り当てられている事例W1、…が事例格納部X3から削除される。
【0058】
このように本実施形態の判断規則修正装置においては、ファジイ決定木を用いた評価の実施中にファジイ決定木の不完全部分を判定してその不完全部分を修正することができ、また、ファジイ決定木の修正対象のノードに割り当てられた事例以外の不要な事例は事例格納部X3より自動的に削除されるので、事例格納部X3に必要なメモリを低減することができる。
【0059】
なお、本発明は上記の実施形態に限定されるものではない。例えば、本実施形態においては、ファジイ決定木をIDFアルゴリズムにより生成した後、引き続いて判断規則修正装置を用いてファジイ決定木の修正を行うものとしたが、外部で作成されたファジイ決定木を決定木格納部X4に格納すると共に、このファジイ決定木における修正対象のノードに割り当てられる事例を事例格納部X3に格納しておき、図3のフローチャートのステップS4以降を実施することによって、ファジイ決定木の修正を行うようにしてもよい。
【0060】
また、判断規則修正装置が扱う決定木形式の判断規則として、参考文献「田中幸吉/淵一博監訳、人工知能ハンドブック、第3巻(1984年)、共立出版株式会社発行、第 529頁」に記載の従来の決定木を利用することもできる。
【0061】
また、本実施形態においては、ファジイ決定木の修正を行うかどうかの判定を(1)式により定義される事例の密度を利用して行うものとしたが、専門家が指定したタイミングでファジイ決定木の修正を開始するようにしても構わない。
【0062】
さらに、ファジイ決定木の修正を行うかどうかの判定を自動的に行うとしても、一定数の評価対象を評価した際にファジイ決定木の修正を開始するといった方法を考えることもできる。
【0063】
また、本実施形態においては、評価ができなかった評価対象や特徴量の精度が良くないと推定された評価対象に対しては、評価対象を専門家に提示して特徴量を入力させていたが、この部分に関する知識ベースを予め準備しておき、その知識ベースを利用して評価対象の特徴量を推定するといった方法を考えることもできる。
【0064】
また、本実施形態においては、ファジイ決定木の属性として、離散属性を扱っていないが、ファジイ分岐判断項目の面積に対応した量を属性値に関して定義することにより、離散属性を扱うこともできる。
【0065】
【発明の効果】
以上のように本発明によれば、決定木形式の判断規則による評価の実施中に判断規則の不完全部分を判断してその不完全部分を修正することができ、また、修正対象判断規則を構成するノードに割り当てられた事例以外の不要な事例は事例格納手段より削除されるので、事例格納手段を構成するのに必要なメモリを低減することができる。
【図面の簡単な説明】
【図1】本発明の実施形態である判断規則修正装置の構成を示すブロック図
【図2】図1の判断規則修正装置におけるファジイ決定木の学習直後の処理の流れを示すフローチャート
【図3】図1の判断規則修正装置におけるファジイ決定木の学習直後でない場合の処理の流れを示すフローチャート
【図4】IDFアルゴリズムを用いて生成されたファジイ決定木を示す図
【図5】図2のステップS2にて修正対象の末端ノ一ドの事例以外の事例を削除したファジイ決定木を示す図
【図6】事例格納部に格納された事例の例を示す図
【図7】ファジイ決定木を用いて特徴量を評価する評価対象の例を示す図
【図8】属性「室温」のファジイ分岐判断項目「寒い」「適温」「暑い」に対する各々の帰属度を求める方法を示す図
【図9】ファジイ決定木の修正用に蓄積された新たな事例を示す図
【図10】図9の新たな事例W1、W2が割り当てられたファジイ決定木を示す図
【図11】末端ノードE3を修正したファジイ決定木を示す図
【図12】分岐ノードB3を修正したファジイ決定木を示す図
【符号の説明】
X1……決定木評価部
X2……事例生成部
X3……事例格納部
X4……決定木格納部
X5……決定木修正部
X6……決定木修正対象判定部
X7……保存事例判定部
X8……特徴量判定部
B1、B2、B3……ファジイ決定木の分岐ノード
E1〜E9……ファジイ決定木の末端ノード
T1〜T400……事例
V1、V2、V3……評価対象
W1、W2……新たな事例

Claims (2)

  1. 評価対象を評価するための、分岐ノード、末端ノード及びこれらのノードを連結する枝を有して構成される決定木形式の判断規則を予め格納する決定木格納手段と、
    前記評価対象とこの評価対象に与えられた判断結果である特徴量とからなる事例を、前記決定木形式の判断規則を構成する個々の前記ノード毎に割り当てて格納する事例格納手段と、
    与えられた評価対象に対する特徴量を前記決定木格納手段に格納された決定木形式の判断規則を用いて推定する決定木評価手段と、
    前記決定木評価手段によって前記特徴量が推定できたか否かを判定する判定手段と、
    この判定手段によって前記特徴量が推定されたと判断された場合、各末端ノードについて事例の密度を求め、事例の密度が所定のしきい値よりも小さい末端ノードを修正対象とし、前記与えられた評価対象が前記修正対象の末端ノードに伝播すると、前記決定木評価手段によって推定された特徴量の精度が良くないと判定する特徴量判定手段と、
    前記特徴量判定手段によって特徴量の精度が良くないと判定された評価対象または前記判定手段によって特徴量を推定できなかったと判定された評価対象を専門家に提示する提示手段と、
    この提示手段の提示に対して前記専門家により入力された真の特徴量を受け、前記特徴量の精度が良くないと判定された評価対象または前記特徴量を推定できなかったと判定された評価対象と前記真の特徴量とからなる新たな事例を生成し、この新たな事例を前記特徴量の精度が良くないと判定された評価対象または前記特徴量を推定できなかったと判定された評価対象が到達した最後のノードに割り当てて前記事例格納手段に格納する事例生成手段と、
    前記事例格納手段に新たな事例が格納された後、前記決定木形式の判断規則の中で修正すべき判断規則を判定する第1の修正規則判定手段と、
    前記第1の修正規則判定手段によって判定された修正対象判断規則を、前記事例格納手段に格納されている、当該修正対象判断規則に関連する事例を入力として、帰納学習アルゴリズムに基づいて前記決定木形式の判断規則を部分的に再構成する決定木修正手段と、
    前記決定木修正手段による修正後の決定木形式の判断規則の中から修正すべき判断規則を判定する第2の修正規則判定手段と、
    前記第2の修正規則判定手段によって修正対象判断規則でないと判定された判断規則の前記末端ノードに格納されている事例を前記事例格納手段より削除する事例削除手段とを具備することを特徴とする判断規則修正装置。
  2. 評価対象を評価するための、分岐ノード、末端ノード及びこれらのノードを連結する枝を有して構成される決定木形式の判断規則を予め格納する決定木格納手段と、前記評価対象とこの評価対象に与えられた判断結果である特徴量とからなる事例を、前記決定木形式の判断規則を構成する個々の前記ノード毎に割り当てて格納する事例格納手段と、を備える判断規則修正装置に適用される判断規則修正方法であって、
    与えられた評価対象に対する特徴量を前記決定木格納手段に格納された決定木形式の判断規則を用いて推定する決定木評価ステップと、
    前記決定木評価ステップによって前記特徴量が推定できたか否かを判定する判定ステップと、
    この判定ステップによって前記特徴量が推定されたと判断された場合、各末端ノードについて事例の密度を求め、事例の密度が所定のしきい値よりも小さい末端ノードを修正対象とし、前記与えられた評価対象が前記修正対象の末端ノードに伝播すると、前記決定木評価ステップによって推定された特徴量の精度が良くないと判定する特徴量判定ステップと、
    前記特徴量判定ステップによって特徴量の精度が良くないと判定された評価対象または前記判定ステップによって特徴量を推定できなかったと判定された評価対象を専門家に提示する提示ステップと、
    この提示ステップの提示に対して前記専門家により入力された真の特徴量を受け、前記特徴量の精度が良くないと判定された評価対象または前記特徴量を推定できなかったと判定された評価対象と前記真の特徴量とからなる新たな事例を生成し、この新たな事例を前記特徴量の精度が良くないと判定された評価対象または前記特徴量を推定できなかったと判定された評価対象が到達した最後のノードに割り当てて前記事例格納手段に格納する事例生成ステップと、
    前記事例格納手段に新たな事例が格納された後、前記決定木形式の判断規則の中で修正すべき判断規則を判定する第1の修正規則判定ステップと、
    前記第1の修正規則判定ステップによって判定された修正対象判断規則を、前記事例格納手段に格納されている、当該修正対象判断規則に関連する事例を入力として、帰納学習アルゴリズムに基づいて前記決定木形式の判断規則を部分的に再構成する決定木修正ステップと、
    前記決定木修正ステップによる修正後の決定木形式の判断規則の中から修正すべき判断規則を判定する第2の修正規則判定ステップと、
    前記第2の修正規則判定ステップによって修正対象判断規則でないと判定された判断規則の前記末端ノードに格納されている事例を前記事例格納手段より削除する事例削除ステップとを具備することを特徴とする判断規則修正方法。
JP01122096A 1996-01-25 1996-01-25 判断規則修正装置と判断規則修正方法 Expired - Fee Related JP3761238B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP01122096A JP3761238B2 (ja) 1996-01-25 1996-01-25 判断規則修正装置と判断規則修正方法
US08/788,271 US5890143A (en) 1996-01-25 1997-01-24 Apparatus for refining determination rule corresponding to probability of inference result of evaluation object, method thereof and medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01122096A JP3761238B2 (ja) 1996-01-25 1996-01-25 判断規則修正装置と判断規則修正方法

Publications (2)

Publication Number Publication Date
JPH09204310A JPH09204310A (ja) 1997-08-05
JP3761238B2 true JP3761238B2 (ja) 2006-03-29

Family

ID=11771894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01122096A Expired - Fee Related JP3761238B2 (ja) 1996-01-25 1996-01-25 判断規則修正装置と判断規則修正方法

Country Status (2)

Country Link
US (1) US5890143A (ja)
JP (1) JP3761238B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339529A (ja) * 2004-04-30 2005-12-08 Yoichiro Ito エキスパートシステム生成装置及びエキスパートシステム生成装置の実施方法
JP5572615B2 (ja) * 2004-04-30 2014-08-13 庸一郎 伊藤 エキスパートシステム生成装置及びエキスパートシステム生成装置の実施方法
GB0415143D0 (en) * 2004-07-06 2004-08-11 Attar Software Ltd Fuzzy decision tree based machine and process control/optimisation
US7599893B2 (en) * 2005-10-13 2009-10-06 Aureon Laboratories, Inc. Methods and systems for feature selection in machine learning based on feature contribution and model fitness
JP2007157058A (ja) * 2005-12-08 2007-06-21 Toshiba Corp 分類モデル学習装置、分類モデル学習方法、及び分類モデルを学習するためのプログラム
JP5293810B2 (ja) * 2009-03-30 2013-09-18 富士通株式会社 決定木生成プログラム,決定木生成方法及び決定木生成装置
US8904511B1 (en) 2010-08-23 2014-12-02 Amazon Technologies, Inc. Virtual firewalls for multi-tenant distributed services
CN106154209B (zh) * 2016-07-29 2018-11-30 国电南瑞科技股份有限公司 基于决策树算法的电能表故障预测方法
CN106768957A (zh) * 2016-12-28 2017-05-31 湖南坤宇网络科技有限公司 一种基于决策树系统的锅炉法兰截止阀故障预警方法
GB2573179B (en) * 2018-04-20 2020-04-22 Arm Ip Ltd Reliance control in networks of devices
US10832419B2 (en) * 2018-11-29 2020-11-10 International Business Machines Corporation Cognitive search analytics for multi-dimensional objects
US20230281310A1 (en) * 2022-03-01 2023-09-07 Meta Plataforms, Inc. Systems and methods of uncertainty-aware self-supervised-learning for malware and threat detection

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5222197A (en) * 1990-06-28 1993-06-22 Digital Equipment Corporation Rule invocation mechanism for inductive learning engine
US5481649A (en) * 1993-03-09 1996-01-02 The University Of Tennessee Research Corp. Method and apparatus using a decision tree in an adjunct system cooperating with another physical system

Also Published As

Publication number Publication date
JPH09204310A (ja) 1997-08-05
US5890143A (en) 1999-03-30

Similar Documents

Publication Publication Date Title
JP3761238B2 (ja) 判断規則修正装置と判断規則修正方法
JP2621658B2 (ja) ルール生成装置および方法
CN113011529B (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
JPH07168716A (ja) 意思決定装置とその動作自動的最適化法
US4899290A (en) System for specifying and executing protocols for using iterative analogy and comparative induction in a model-based computation system
CN114238078A (zh) 一种基于高阶函数的程序间依赖关系抽取方法
CN111539517A (zh) 基于图结构矩阵特征向量的图卷积神经网络生成方法
CN111291085A (zh) 层次化兴趣匹配方法、装置、计算机设备和存储介质
CN109697511B (zh) 数据推理方法、装置及计算机设备
CN115098482A (zh) 一种不完整数据的修正补录方法
CN112257977B (zh) 模糊工时下资源受限的物流项目工期优化方法及系统
JP2002032763A (ja) 画像の領域分割方法
JP3196749B2 (ja) 領域の属性モデルを用いる領域分割方法及び装置
CN117332543B (zh) 电网异构数据源的分布处理方法
JPH11143712A (ja) 知識獲得装置、知識獲得方法及び知識獲得用プログラムを記録した記憶媒体
CN117494045B (zh) 一种基于数据融合的数据集成智能管控系统及方法
JP3810575B2 (ja) 相関ルール抽出装置、および記録媒体
CN116306574B (zh) 应用于智慧风控任务分析的大数据挖掘方法及服务器
JPH11306216A (ja) 自動配置方法及び自動配置システム
Vanthienen et al. Restructuring and simplifying rule bases
JP3211240B2 (ja) 近似推論装置
JP3451983B2 (ja) 帳票回覧システム
CN118230136A (zh) 一种支持图像动态任务的个性化联邦学习训练方法和系统
CN115469814A (zh) 数据存储方法及装置
JPS58192161A (ja) 知識ベ−ス構成方式

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040716

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040722

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20040820

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060110

LAPS Cancellation because of no payment of annual fees