JP2000003282A - 分類規則学習装置 - Google Patents

分類規則学習装置

Info

Publication number
JP2000003282A
JP2000003282A JP10164984A JP16498498A JP2000003282A JP 2000003282 A JP2000003282 A JP 2000003282A JP 10164984 A JP10164984 A JP 10164984A JP 16498498 A JP16498498 A JP 16498498A JP 2000003282 A JP2000003282 A JP 2000003282A
Authority
JP
Japan
Prior art keywords
rule
classification
unit
classification rule
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10164984A
Other languages
English (en)
Inventor
Nobuhiro Yugami
伸弘 湯上
Aoshi Okamoto
青史 岡本
Tadako Oota
唯子 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP10164984A priority Critical patent/JP2000003282A/ja
Publication of JP2000003282A publication Critical patent/JP2000003282A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】 訓練事例を基に、分類効率が高く、かつ、分
類精度も高い分類規則を生成できる分類規則学習装置を
提供する。 【解決手段】 入力部10から属性値と所属クラスが与
えられた訓練事例の情報を規則学習部20に入力し、属
性値を属性値量子化部21により量子化した後、各訓練
事例に対して規則をそれぞれ生成する。規則の生成にあ
たり他の訓練事例にも共通する条件は該当する訓練事例
をまとめて共通に処理することにより生成時間を短縮す
る。生成された規則は、分類規則生成部30に入力さ
れ、訓練事例を正しく分類する規則の最小セット集合で
ある主分類規則とその他の補助分類規則とを分類規則と
して生成し、出力部50から出力する。主分類規則によ
り分類効率の高い分類処理が可能となり、補助分類規則
により分類精度の高い分類が可能となる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、エキスパートシス
テムなどにおける入力事例の分類処理を行うための分類
規則を自動的に生成する分類規則学習装置に関する。
【0002】
【従来の技術】近年の情報処理技術の発達により、コン
ピュータシステムにより、多種多様な情報処理が可能と
なっている。エキスパートシステムなどでは入力事例に
対する分類処理が重要な処理となっている。
【0003】分類処理はシステムに用意された分類規則
により実行される。入力事例を分類規則に照らし、条件
判断処理を実行して正しい所属クラスを決定することに
より分類する。このように、分類処理性能は、システム
に用意された分類規則に依存するため、如何に効率の良
い分類規則を生成して用意するかという点が重要な課題
となっている。ここで、効率の良い分類規則とは、より
少ない分類規則数、より少ない条件判断処理数により、
入力事例の所属クラスを正しく決定して分類できる規則
の集合を意味する。この分類規則の生成に関し、コンピ
ュータシステムにより自動的に学習させて生成する試み
が行われている。それは、属性値と正しい所属クラスが
与えられている訓練事例をコンピュータシステムに入力
し、準備した学習アルゴリズムにより分類規則を学習、
生成させ、自動的に分類規則を生成するものである。
【0004】既述したように分類処理効率は分類規則に
依存するため、従来の分類規則の学習アルゴリズムは処
理効率の高い分類規則の生成という観点から設計されて
いた。例えば、従来の分類規則学習装置で採用されてい
る学習アルゴリズムとしては、ID3、C4.5、AQ
などがある。これらの分類規則の学習アルゴリズムは、
いずれも与えられた訓練事例の分類を正しく行うことが
できる最小の規則集合を求めることが特徴であった。つ
まり、如何に少ない規則数、少ない条件判断処理数によ
り訓練事例を正しい所属クラスに分類するかという観点
から改良された分類規則学習アルゴリズムであった。
【0005】ID3によれば、一つの訓練事例は、二つ
以上の分類規則の条件部を満足するものはなく、一つの
分類規則により所属クラスへの分類が決定されている。
すなわち、他の分類規則によって既に分類が可能となっ
ている訓練事例のみを分類するような規則は、他の分類
規則と重複する冗長な分類規則であるので学習されな
い。この特徴により、より少ない分類規則数、条件判断
処理数による効率的な分類規則の学習、生成が可能とな
る。
【0006】
【発明が解決しようとする課題】上記従来の技術で述べ
たように、従来の分類規則学習装置は、如何に少ない規
則数、少ない条件判断処理数により訓練事例を正しい所
属クラスに分類するかという観点から改良された分類規
則学習アルゴリズムにより分類規則を生成していたが、
以下のような問題があった。
【0007】従来の分類規則学習装置によれば、分類規
則の分類効率の向上が図られている反面、分類精度の低
下を招くという問題があった。つまり、分類効率の向上
のため分類規則数を絞り込んだため、前提となった訓練
事例に対しては最適な分類処理が実行できるが、反面、
訓練事例以外の事例に対する適応性が失われていた。実
際の分類処理にあたって入力される事例は必ずしも訓練
事例に含まれていないために間違った分類処理や、事例
に有効に適用できる分類規則の不存在により分類不能と
なる割合が多くなるという問題が生じていた。
【0008】本発明は、上記従来の分類規則学習装置に
おける問題点に鑑み、訓練事例を基に、分類効率が高
く、かつ、分類精度も高い分類規則を生成できる分類規
則学習装置を提供することを目的とする。
【0009】
【課題を解決するための手段】上記課題を解決するため
に本発明にかかる分類規則学習装置は、入力部と、規則
学習部と、分類規則生成部と、出力部とを備え、前記入
力部により属性値と所属クラスがあらかじめ与えられて
いる訓練事例が入力され、前記規則学習部により前記入
力されたそれぞれの訓練事例の持つ各属性値と所属クラ
スの関係を表わす規則を生成し、前記分類規則生成部に
より前記生成されたそれぞれの規則の集合を分類規則と
して編集・生成することを特徴とする。
【0010】かかる構成により、訓練事例の持つ属性値
と所属クラスの関係を表わす情報のすべてを規則として
作成し、規則の集合を生成することで分類規則のカバー
できる事例の範囲を増加させることができる。
【0011】また、上記課題を解決するために本発明に
かかる分類規則学習装置は、入力部と、規則学習部と、
分類規則生成部と、出力部とを備え、前記入力部により
属性値と所属クラスがあらかじめ与えられている訓練事
例が入力され、前記規則学習部により前記入力されたそ
れぞれの訓練事例の持つ各属性値と所属クラスの関係を
表わす規則を生成し、前記分類規則生成部により、前記
生成された規則群の部分集合であってすべての訓練事例
を所属クラスに分類できる最小セットを主分類規則と
し、前記規則群のうち前記主分類規則以外の規則を補助
分類規則とし、分類規則を前記主分類規則と補助分類規
則から編集・生成することを特徴とする。
【0012】かかる構成により、効率的で高速な分類処
理を可能とする規則の最小セットである主分類規則と、
主分類規則で分類できない属性値を持つ事例を柔軟にカ
バーする補助分類規則とを備えた分類規則を生成するこ
とができ、分類処理において高速性、柔軟性、分類精度
の向上を図ることができる分類規則を生成することがで
きる。
【0013】次に、前記規則学習部が、前記入力された
訓練事例の属性のうち数値で表わされる属性に対する量
子化幅を設定する属性値量子化部を備え、前記規則学習
部が、前記属性値量子化部により設定された量子化幅で
量子化した訓練事例の属性値を基に規則を生成すること
が好ましい。
【0014】かかる構成により、訓練事例から生成する
分類規則が、設定した量子化幅に応じた属性値条件で表
現されることとなり、分類規則を属性値に関して量子化
したものとすることができる。
【0015】次に、前記規則学習部が、前記規則生成処
理において、規則を形成する条件連言のうちの一の条件
の設定にあたり、前記一の条件を満たすすべての訓練事
例に対してそれぞれの規則の条件連言に前記一の条件を
追加することにより、各訓練事例の規則の条件連言の生
成処理を共通に処理することが好ましい。
【0016】次に、前記規則学習部による前記規則生成
処理において、複数の属性の組み合わせによる条件を持
つ規則の生成も含むことが好ましい。かかる構成によ
り、訓練事例から複数の属性の組み合わせの条件により
記述できる規則も生成することができ、生成される規則
の数を低減でき、分類規則の生成処理を高速化すること
ができる。
【0017】次に、前記規則学習部が、学習量設定部を
備え、前記規則学習部は、規則の学習量が前記学習量設
定部の設定量に達すれば、学習を終了し、前記分類規則
生成部は、学習済みの規則を基に分類規則を編集・生成
することが好ましい。
【0018】かかる構成により、分類規則の学習を一定
量で終了させることができ、分類規則生成を効率的に行
うことができる。つまり、分類規則学習量として分類規
則数を採用して生成する分類規則数を一定数に制限する
と、一定の分類精度を得るとともに分類規則の生成に費
やす時間が短くなる。また、分類規則学習量として学習
時間を採用すると、設定時間内において分類規則の生成
が終了できるので時間的制約がある環境での分類規則生
成に有利である。
【0019】次に、前記規則学習部が、前記規則生成処
理において、規則を形成する条件連言のうちの一の条件
の設定にあたり、条件の持つエントロピーの大きさを評
価することにより条件設定の優先順位を付ける条件選択
部を備えることが好ましい。
【0020】かかる構成により、分類規則の生成におい
てエントロピーの大きな条件を優先して処理を実行する
ことができ、効率の良い条件連言からなる分類規則から
優先して生成することができる。分類規則学習において
時間的制約がある場合などに有効である。
【0021】次に、前記規則学習部が、分類規則重み設
定部を備え、前記規則学習部は、生成したそれぞれの規
則に対して重み付け処理を行い、重み付きの規則を前記
分類規則生成部へ出力することが好ましい。
【0022】かかる構成により、それぞれ生成された分
類規則に対する確信度を設定することができ、未知の事
例に対する分類処理に際して、より確信度の高い分類規
則を強く反映した分類処理とすることができ、分類精度
の向上を図ることができる。
【0023】次に、本発明にかかる分類規則学習装置
は、さらに、主分類規則記憶領域と補助分類記憶領域を
備えた分類規則記憶部と、分類処理部とを備え、前記分
類規則記憶部が、前記生成された主分類規則を前記主分
類規則記憶領域に記憶し、前記生成された補助分類規則
を前記補助分類規則記憶領域に記憶し、前記入力部によ
り各属性値を持つ事例が入力され、前記分類処理部によ
り、前記入力事例の所属クラスが前記記憶した主分類規
則により決定できる場合は当該クラスに分類し、前記入
力事例の所属クラスが前記記憶した主分類規則により決
定できないときは前記補助分類規則により所属クラスを
決定して分類することにより、入力事例の分類処理を実
行できることを特徴とすることを特徴とする。
【0024】かかる構成により、入力事例に対して主分
類規則を適用して分類処理を実行することにより効率的
で高速な分類処理が可能となり、かつ、主分類規則で分
類できない属性値を持つ事例に対して補助分類規則を適
用して分類処理を実行することにより柔軟で精度の良い
分類処理が可能となり、高速性と柔軟性を兼ね備えた分
類を実行することができる。
【0025】また、本発明にかかる分類規則学習装置を
実現する処理ステップを記録したコンピュータ読み取り
可能な記録媒体は、属性値と所属クラスがあらかじめ与
えられている訓練事例の入力を受け付ける処理ステップ
と、前記入力されたそれぞれの訓練事例の持つ各属性値
と所属クラスの関係を表わす規則を生成する処理ステッ
プと、前記生成されたそれぞれの規則の集合を分類規則
として編集・生成する処理ステップとを備えた処理プロ
グラム記録したことを特徴とする。
【0026】かかる構成により、コンピュータを利用し
て、訓練事例の持つ属性値と所属クラスの関係を表わす
情報のすべてを規則として作成し、規則の集合を生成す
ることで分類規則のカバーできる事例の範囲を増加させ
ることができる分類規則学習装置を実現することができ
る。
【0027】また、本発明にかかる分類規則学習装置を
実現する処理ステップを記録したコンピュータ読み取り
可能な記録媒体は、属性値と所属クラスがあらかじめ与
えられている訓練事例の入力を受け付ける処理ステップ
と、前記入力されたそれぞれの訓練事例の持つ各属性値
と所属クラスの関係を表わす規則を生成する処理ステッ
プと、前記生成された規則群の部分集合であってすべて
の訓練事例を所属クラスに分類できる最小セットを主分
類規則とし、前記規則群のうち前記主分類規則以外の規
則を補助分類規則とし、分類規則を前記主分類規則と補
助分類規則から編集・生成する処理ステップとを備えた
処理プログラムを記録したことを特徴とする。
【0028】かかる構成により、コンピュータを利用し
て、効率的で高速な分類処理を可能とする規則の最小セ
ットである主分類規則と、主分類規則で分類できない属
性値を持つ事例を柔軟にカバーする補助分類規則とを備
えた分類規則を生成する分類規則学習装置を実現するこ
とができる。
【0029】
【発明の実施の形態】以下、本発明の実施形態にかかる
分類規則学習装置について、図面を参照しながら説明す
る。
【0030】(実施形態1)実施形態1にかかる分類規
則学習装置は、属性値と所属クラスが与えられた訓練事
例の入力を基に、入力されたそれぞれの訓練事例から属
性とその値から導いた条件連言と所属クラスの関係を記
述した規則をそれぞれ生成し、規則の集合を分類規則と
して編集・生成するものである。本実施形態1では、分
類規則の生成にあたり、規則のうち、訓練事例を正しく
分類し得る最小セットの規則の集合を主分類規則とし、
規則のうち主分類規則以外のものの集合を補助分類規則
として分けて生成するものとする。これは、主分類規則
による分類処理の効率性、高速性の確保と、補助分類規
則による分類処理の柔軟性、精度の向上を図ることので
きる分類規則の生成を狙ったものである。
【0031】本実施形態1にかかる分類規則学習装置の
全体構成の概略と本装置による処理流れの全体像を図面
を参照しつつ説明する。図1は、本発明にかかる分類規
則学習装置の概略構成図、図2は、入力される訓練事例
の例を示す図、図3は、本装置による処理流れの全体像
を処理ステップとして表わしたフローチャート、図4
は、訓練事例から規則が生成される様子表わした図、図
5は、規則生成処理ステップの詳細を示したフローチャ
ート、図6は、生成された分類規則の主分類規則と補助
分類規則の関係を概念的に示した図、図7は、本発明の
分類規則学習装置により生成した分類規則と従来例の分
類規則学習装置により生成した分類規則の分類精度を比
較した図である。
【0032】図1に示すように、本実施形態1にかかる
分類規則学習装置は、大別して入力部10、規則学習部
20、分類規則生成部30、制御部40、出力部50と
を備えている。なお、図示していないが、システム全体
の制御処理に必要なメモリ、デバイス類は装備している
ものとする。
【0033】入力部10は、あらかじめ各属性値と所属
するクラスが与えられた訓練事例が入力される部分であ
る。ここで、入力される訓練事例の例を図2に示す。説
明を簡潔にするために、訓練事例の持つ属性はa1〜a
4までの4つとし、属性値は0または1の2値とし、所
属クラスはPかNの2クラスとして説明する。本来この
事例全体は、a1=1かつa2=1である、または、a
3=1ならばクラスPそれ以外ならクラスNという規則
を持ち、全体では図2に示す16個の事例が存在するも
のとする。ここでは、全16個のうち、訓練事例として
訓練事例1から訓練事例5までの5つが与えられたもの
として説明する。
【0034】規則学習部20は、属性値量子化部21
と、規則生成部22と、分類規則生成部30とを備えて
いる。ここで、属性値量子化部21は、入力部10から
入力された訓練事例の持つ各属性値を量子化する部分で
ある。これは、訓練事例の属性値をあらかじめ量子化し
ておくことにより生成される規則が必要以上に細かくな
らないようにする効果が得られる。なお、属性値量子化
部21の量子化幅は調整して設定できることが好まし
い。分類規則学習装置の細かいチューニングを可能とす
るためである。本実施形態1では、量子化幅は1に設定
されているものとするが、本実施形態1で例に挙げた訓
練事例は図2に示したようにその属性値は1か0の2値
であり、量子化の必要のないものが挙げられている。
【0035】規則生成部22は、訓練事例の属性値と所
属クラスの関係から規則を生成する部分である。この規
則は、各属性値の範囲を記述する条件の集合である条件
連言と、前記条件連言を満足する事例が所属するクラス
の情報を含んでいる。なお、条件連言を構成する各条件
は一つの属性に対するものに限られず、2つ以上の属性
の組み合わせに対する属性値の範囲を記述するものであ
っても構わない。この規則生成処理の詳細については後
述する。
【0036】分類規則生成部30は、規則生成部22に
より生成されたそれぞれの規則の集合を整理して分類規
則として生成する部分である。それぞれの規則の和集合
をとることにより分類規則として生成しても良いが、本
実施形態1では、生成した規則の集合群のうち、訓練事
例を正しく分類するための規則の最小セットである主分
類規則としてまとめ、その他の規則の集合を補助分類規
則としてまとめ、分類規則を主分類規則と補助分類規則
により生成するものとする。これは、生成する分類規則
として、効率的で少ない規則数からなる主分類規則のサ
ブセットにより分類処理の効率性と高速性を確保し、冗
長性がある故に柔軟性がありカバーできる事例範囲が広
い補助分類規則のサブセットにより分類処理精度の向上
を図るものである。
【0037】制御部40は、本分類規則学習装置の処理
全体を制御する部分である。出力部50は、本分類規則
学習装置により生成された分類規則を出力する部分であ
り、図1には図示されていないが、出力部50から出力
された分類規則は、実施形態5において後述する本発明
にかかる分類処理部200において利用され、効率的で
高速、かつ、柔軟性があり分類精度の高い分類処理部2
00を実現する。
【0038】本発明にかかる分類規則学習装置の処理の
流れの全体像は以下の通りである。まず、入力部10か
ら、訓練事例が入力される(ステップS301)。ここ
での説明では、図2に示した訓練事例1から訓練事例5
が入力されたとする。図2に示すように各訓練事例は、
属性a1から属性a4まで“0”または“1”の2値の
属性値を持ち、PまたはNのクラスに所属する。上記訓
練事例のデータに併せて、必要があれば他の情報も入力
しても良い。例えば、訓練事例集合の識別ID、後述す
る属性値量子化部21の量子化幅の設定値などである。
【0039】次に、入力された訓練事例の情報は、規則
学習部20に渡され、まず、属性値量子化部21におい
て属性値の量子化が行われる(ステップS302)。こ
こでは属性値量子化部21の設定は0を基点として量子
化幅が1に設定されたものとする。入力された訓練事例
1から訓練事例5の属性値はすべて“0”または“1”
であるので、ここでは量子化による属性値のまるめは行
われない。
【0040】次に、各訓練事例の情報は、規則生成部2
2に入力され、属性とその値から条件連言を導き、その
条件連言と分類処理結果となる所属クラスの関係を記述
した規則を導く(ステップS303)。ここで、条件連
言とは1または複数の条件により記述される条件の集合
を指し、例えば、各条件がAND条件で結ばれる。ま
た、原則として一つの訓練事例から一つの規則が生成さ
れる。
【0041】この規則の導出のステップS303を、図
4のツリー図と図5の処理フローチャートを参照しつつ
詳細に説明する。規則は各訓練事例ごとに独立して導出
しても良いが、条件連言の生成にあたり共通に処理でき
る条件部を共通に処理することが可能であり、本実施形
態1では、規則生成の高速化を図るため、共通条件を共
通に処理する方式を採用する。
【0042】図4は、訓練事例から規則が生成される様
子表わした図である。図4に示すように、ツリーには、
ノード(401〜407)とノードを結ぶ枝がある。各
ノードのステータスとして3つの情報[B,S,T]を
モニタする。ここで、Bとは、そのノードの現在の分類
規則の条件の集合であり、Sとは、条件集合Bにより得
られるノードに含まれる訓練事例の集合であり、Tと
は、条件集合Bを満足する全訓練事例の集合である。
【0043】図5は規則生成の処理ステップS303の
処理内容の詳細のフローチャートである。まず、ノード
のステータスを読み込む(ステップS501)。ここで
は、ルートノードであるので、そのステータスは[φ,
S{1〜5},T{1〜5}]である。
【0044】次に、Tに含まれる訓練事例の所属クラス
が一つか複数であるかを調べる(ステップS502)。
所属クラスが一つであれば、条件集合Bを規則の条件連
言として出力し(ステップS507)、複数あれば次の
ステップS503に進む。ここでは、訓練事例1,2,
4がP、訓練事例3,5がNであり、所属クラスが2つ
あるので、ステップS503に進む。
【0045】次に、Sに含まれる各訓練事例について、
各訓練事例の持つ属性とその値の関係を記述した全ての
条件を抽出し(ステップS503)、抽出した条件から
ノードを詳細化するための条件として一つの条件を選択
する(ステップS504)。つまり、訓練事例1に対し
ては、抽出される条件は、a1=1,a2=1,a3=
0,a4=1の4つであり、この4条件の中から、一つ
の条件を選択する。この選択は、例えば、条件の持つエ
ントロピーを評価してエントロピーが最大となるものを
選択する。つまり、分類の条件として訓練事例をもっと
も有効に拡散するものを選択するものとする。条件の持
つエントロピーの評価法としては、例えば、“informat
ion gain”、“gain ratio”、“gini index”、“カイ
自乗検定”などが知られているが、ここでは“informat
ion gain”を用いて説明する。
【0046】“information gain”の評価値は、以下の
(数1)で定義される。
【0047】
【数1】
【0048】ここで、N(X)は集合Xに含まれる事例の
数、T’はTに属する事例のうち、評価対象の条件を満
足する事例の集合、T”は評価対象の条件を満足しない
事例の集合を表わす。H(c,X)は、集合X中の、クラ
スc着目したときのエントロピーで、(数2)のように
定義される。
【0049】
【数2】H(c,X)=−p(c,X)log2p(c,X)−(1−p
(c,X))log2(1−p(c,X)) ただし、p(c,X)は、事例集合Xの中でクラスcの事例
が占める割合である。また、0log20は0であるとす
る。
【0050】ここで、上記の“information gain”の評
価値は,クラスcの割合が減少した場合にも大きな値を
とる。つまり条件tによってクラスcに属する事例が多
く省かれるものも評価値が大きくなる。この点は、クラ
スcに所属する事例を分類する規則の評価としては不適
切であるので、(数3)に示す条件を付加して評価す
る。
【0051】
【数3】
【0052】(数3)に示すように、クラスcの割合が
減少する場合には、符号を反転させたものを評価値と
し、評価値が最大の条件を選択する。なお、評価値が同
じ条件が複数ある場合には、基本的には、任意に選んで
も良いが、ここでは、属性の番号の若いものを選択する
こととする。
【0053】さて、訓練事例1の4条件、a1=1,a
2=1,a3=0,a4=1のそれぞれの“informatio
n gain”の評価値を求める。まず、a1=1について、
所属クラスがpであるので、 H(p,T)=−(3/5)・log2(3/5)−(2/5)・log
2(2/5)=0.970951 条件a1=1を満足する訓練事例集合T’は{1,2,
4,5}であり、満足しない訓練事例T”は{3}であ
るので、 H(p,T’)=−(3/4)・log2(3/4)−(1/4)・log
2(1/4)=0.811278 H(p,T”)=−(0/1)・log2(0/1)−(1/1)・log
2(1/1)=0 この条件a1=1は、クラスPの割合を増加させるの
で、 e(a1=1,P,T)=i.g(a1=1,P,T) =0.970951-{4/5・0.811278+1/5・0}=0.321928 以下、同様に他の条件a2=1,a3=0,a4=1に
ついても求めると、 e(a2=1,P,T)=0.321928 e(a3=0,P,T)=−0.419973 e(a4=1,P,T)=−0.170951 以上より、評価値は、条件a1=1と、a2=1が同じ
く一番大きい。ここでは属性の番号の若い属性に対する
条件a1=1を選択する。
【0054】上記の訓練事例1に対する処理と同様の処
理を残りの他の訓練事例について行う。訓練事例2から
条件a3=1、訓練事例3から条件a3=0、訓練事例
4から条件a3=1、訓練事例5から条件a3=0が選
択される。
【0055】なお、ここでは、各訓練事例から生成する
条件が一つの属性とその値から決まる条件を採り上げて
説明したが、必ずしも一つの属性に限る必要はなく、2
つ以上の属性とそれらの値の組み合わせから定まる条件
としても良い。
【0056】次に、ステップS505に進む。ステップ
S505では、各訓練事例から選択された条件の集合A
を生成する。ここでは、A={a1=1,a3=1,a
3=0}となる。ここで、注目すべき点は、5つの訓練
事例に対する条件連言の抽出過程において、それぞれ5
つの訓練事例から抽出した5つ条件の集合Aを作ること
により、個別に処理する場合に比べて、同一条件のもの
をまとめた結果、3つの条件となり、条件連言の生成が
共通に処理できる点である。
【0057】次に、ステップS505で生成した条件集
合Aの各条件に対応するノードを生成する(ステップS
506)。ステップS504において条件a1=1を選
択した訓練事例は訓練事例1であり、全訓練事例中、条
件a1=1を満足する訓練事例は1,2,4,5である
ので、図4に示すように、条件a1=1により詳細化さ
れたノード402が保持する情報は、({a1=1},
{1},{1,2,4,5})となる。同様に、条件a
3=1,a3=0により詳細化されたノード403、ノ
ード404が生成される。
【0058】ステップS506で生成された各ノードに
対して、上記のステップS501〜ステップS506を
繰り返して適用することにより、選択した条件によりノ
ードを詳細化して行く。ここで、選択された条件は、条
件の集合Bに逐次加えられて行く。
【0059】次に、ステップS502において、Tに含
まれる訓練事例の所属クラスが一つか複数であるかを調
べた結果、所属クラスが一つであり、条件集合Bを規則
の条件連言として出力するステップS507を説明す
る。
【0060】図4に示すように、ノード405、ノード
403、ノード406、ノード407にそれぞれ含まれ
る訓練事例集合Tの各事例は、すべて所属クラスがPま
たはNのいずれか一方である。例えば、ノード405の
訓練事例集合Tは、訓練事例1,2,4であり、3者と
も所属クラスがPである。従ってノード403の条件集
合B{(a1=1),(a2=1)}が規則の条件連言とし
て出力される。ここで条件連言と所属クラスの記述であ
る規則は、 if a1=1 & a2=1 then class=P のような形式で表現できる。
【0061】ノード403、406、407に対しても
同様に規則が出力され、規則生成処理が終了する。以上
のステップS501〜ステップS507により、以下の
規則が生成される。
【0062】 規則1:if a3=1 then class=P 規則2:if a1=1 & a2=1 then cla
ss=P 規則3:if a1=0 & a3=0 then cla
ss=N 規則4:if a2=0 & a3=1 then cla
ss=N 各規則がカバーする訓練事例は、以下のようになる。
【0063】 規則1:訓練事例2、訓練事例4 規則2:訓練事例1、訓練事例2、訓練事例4 規則3:訓練事例3 規則4:訓練事例5 さて、上記の規則生成処理ステップS501〜ステップ
S508により規則1〜4を生成した後(図3の処理ス
テップS303)、図3の処理ステップS304以降に
進む。
【0064】分類規則生成部30は、規則生成部22に
より生成されたそれぞれの規則の集合を整理して分類規
則として生成する。それぞれの規則の和集合をとること
により分類規則として生成しても良いが、本実施形態1
では、生成した規則の集合群のうち、訓練事例を正しく
分類するための規則の最小セットである主分類規則とし
てまとめ、その他の規則の集合を補助分類規則としてま
とめ、分類規則を主分類規則と補助分類規則により生成
する。
【0065】まず、分類規則生成部30は、規則1〜4
を読み込み、各規則をカバーする訓練事例を調べ、各訓
練事例を正しく分類するための最小セットを探索する
(ステップS304)。ここでは、訓練事例1から訓練
事例5のすべてが含まれる規則の最小セットは、規則
2,規則3,規則4の3つのセットであることが分か
る。
【0066】分類規則生成部30は、規則2,規則3,
規則4の集合を主分類規則とし、規則1を補助分類規則
として分類規則を生成する(ステップS305)。この
ように、主分類規則は、訓練事例の分類に対して最も少
ない規則数からなり効率的かつ高速な分類処理に利用す
ることのできる分類規則となっていることが分かる。ま
た、補助分類規則は、与えられた訓練事例のみの分類処
理にとっては冗長となる規則であるが、分類規則全体に
対して柔軟性を与え、カバーできる事例範囲を拡張する
ものであり、分類精度の向上を与えるものとなってい
る。
【0067】この様子を、概念的に表わした図が図6で
ある。図6は、生成された分類規則の主分類規則と補助
分類規則の関係を概念的に示した図である。図6から分
かるように、事例番号5、6、9、10、13、14
は、主分類規則では判別して分類できないが、補助分類
規則により正しく分類できることが分かる。このよう
に、主分類規則のみの場合に比べ、補助分類規則を加え
ることにより分類精度が向上することが分かる。
【0068】以上、生成した分類規則を出力部50から
出力し(ステップS306)、分類処理部200におい
て分類規則が利用される。ここで、本発明の分類規則学
習装置により生成した分類規則と従来例の分類規則学習
装置により生成した分類規則の分類精度を比較し、本発
明にかかる分類規則生成装置の効果を示す。従来の分類
規則学習装置で学習する規則として、広く用いられてい
るID3と比較する。ID3によれば、本実施形態で用
いた訓練事例1から訓練事例5により学習される分類規
則は、 ID3分類規則1:if a3=1 then clas
s=P ID3分類規則2:if a2=1 & a3=0 th
en class=P ID分類規則3:if a2=0 & a3=0 the
n class=N 以上の3つの規則が学習される。ID3と本発明の分類
規則学習装置で学習される分類規則を比較すると、分類
精度において、本装置で学習される分類規則の方がID
3より優れている。つまり、事例11、事例12に対し
ては、ID3が正しいクラスNに対して分類クラスがP
となっており、間違った分類がされてしまうが、本装置
で学習される分類規則は、事例11、12に対しては補
助分類規則が適用されて正しく分類されていることが分
かる。
【0069】高速性についても、規則数において、ID
3が3つ、本装置の分類規則のうち優先的に割り当てら
れる主分類規則の規則数が3つと同じであり、主分類規
則でカバーできない事例に対してのみ補助的に利用され
る補助分類規則数が1つであり、高速性については大差
がないと言える。
【0070】さらに、本装置により生成した分類規則
と、従来装置により生成した分類規則の分類精度比較の
結果を示す。図7は、分類規則の学習方式の評価で標準
的に用いられるベンチマーク問題において、ID3を用
いた学習装置である“C4.5”と本発明の分類規則学
習装置で生成される分類規則の分類精度の比較結果であ
る。なお、比較は“5 fold cross validation”の結果
である。なお、“5 fold cross validation”とは、事
例集合を5等分し、各部分集合に含まれる事例を、残り
の4つに含まれる事例から学習した結果で分類すること
により分類精度を求めるものである。図7から明らかな
ように、本発明にかかる分類規則学習装置で学習される
分類規則の分類精度は、従来の分類規則に比べて標準的
なベンチマークテストにおいても明らかに優れているこ
とが分かる。
【0071】以上のように、本実施形態1にかかる分類
規則学習装置は、分類規則として主分類規則と補助分類
規則を生成することにより、効率的で少ない規則数から
なる主分類規則により分類処理の効率性と高速性を確保
し、冗長性がある故に柔軟性がありカバーできる事例範
囲が広い補助分類規則により分類処理精度の向上を図る
ことができる分類規則を生成することができる。
【0072】(実施形態2)本実施形態2にかかる分類
規則学習装置は、実施形態1と同様、属性値と所属クラ
スが与えられた訓練事例の入力を基に、入力されたそれ
ぞれの訓練事例から属性とその値から導いた条件連言と
所属クラスの関係を記述した規則をそれぞれ生成し、規
則の集合を分類規則として生成するものであるが、本実
施形態2では、分類規則の学習にあたり、学習に用いる
規則の生成において制限を設けることを特徴とするもの
である。一般に、分類規則の学習において、時間的制約
など一定の制約環境下での実施となる一方、分類対象の
事例数がかなり大きい場合や、生成する条件が複雑であ
る場合があり、予定の分類規則の学習の完了が困難であ
る場合がある。本実施形態2にかかる分類規則学習装置
は、かかる問題を解決するものである。上記問題点を解
決するための構成以外のものは、実施形態1と同様のも
ので良く、ここでの説明は適宜省略するものとする。
【0073】本実施形態2にかかる分類規則学習装置の
全体構成の概略と本装置による処理流れの全体像を図面
を参照しつつ説明する。図8は、本実施形態2にかかる
分類規則学習装置の概略構成図、図9は、本装置による
処理流れの全体像を処理ステップとして表わしたフロー
チャートである。図8は、本実施形態2にかかる分類規
則学習装置の概略構成図を示している。図8に示すよう
に、本実施形態2は、規則学習部20に代え、規則学習
部20aを備えた構成になっている。規則学習部20a
は、実施形態1の規則学習部20に比べてさらに学習量
制御部23を備えていることが特徴である。規則学習部
20aを除いた各構成要素は、実施形態1で同じ番号を
付して説明した各構成要素と同様であるのでここでの説
明は省略し、規則学習部20aを中心に説明する。な
お、実施形態1と同様、図示していないが、システム全
体の制御処理に必要なメモリ、デバイス類などは装備し
ている。
【0074】規則学習部20aは、属性値量子化部2
1、規則生成部22、分類規則生成部30、学習量制御
部23を備えている。学習量制御部23は、分類規則学
習に対する制限を設定、保持する学習量設定部24と、
学習量モニタ部25と、学習終了指示部26を備えてい
る。
【0075】学習量設定部24は、利用者などによる装
置の分類規則学習に対する制限の設定を受け付け、保持
する部分であり、制限情報は、例えば、学習許容時間、
学習分類規則数などがある。制限情報の入力は、入力部
10から入力しても良く、学習量設定部24が別途入力
インタフェースを用意しても良い。
【0076】学習量モニタ部25は、規則生成部22に
よる規則の生成状況をモニタする部分で、制限情報が学
習許容時間ならば、タイマとして学習時間をモニタし、
制限情報が学習分類規則数ならば、生成されつつある規
則数をカウントすることにより学習分類規則数をモニタ
する。
【0077】学習終了指示部26は、学習量モニタ部2
5のモニタ量が、学習量設定部24の設定量に達したこ
とを検知すると、規則生成部22に対して直接に、また
は、制御部40を介して、規則生成部22の処理を終了
するように指示を出す部分である。
【0078】図9により学習量制御部23の動作を中心
とした処理ステップを説明する。ここでは実施形態1の
図3、図5のフローチャートで示した処理ステップと重
複する部分の説明は適宜省略する。
【0079】まず、入力部10から、訓練事例の情報が
入力される。ここでは、学習量設定部24に設定する学
習量の制限情報も併せて入力されるものとする。入力さ
れた学習量制限情報が学習量設定部24に設定される
(ステップS901)。ここでは、学習量の制限情報は
分類規則数とし、その数をnとする。なお、学習量設定
部24が入力部10以外に別途入力インタフェースを備
えている場合は、当該インタフェースから学習量の情報
が入力される。
【0080】次に、属性量子化部21により、訓練事例
の情報の属性値が量子化される(ステップS902)。
次に、規則生成部22により、規則の生成が開始され
る。学習量モニタ部25の学習量のモニタも開始される
(ステップS903)。なお、学習量モニタ部25のモ
ニタ値は初期化されていたことは言うまでもない。
【0081】実施形態1において説明した規則生成処理
と同様の処理が、規則生成部22の中で行われ、図4に
示したように、各ノードに含まれる訓練事例集合Tに含
まれる訓練事例すべての所属クラスが同じとなったもの
から順次、規則が出力され、分類規則生成部30に出力
され、学習量モニタ部25はその出力数をカウントする
(ステップS904)。
【0082】学習量モニタ部25は、カウント数がnに
達したか否かを調べ(ステップS905)、カウント数
がnに達した場合に、学習終了指示部26に制限条件が
満たされたことを通知し、通知を受けた学習終了指示部
26は、規則生成部22に対して規則生成処理の強制終
了を通知する(ステップS906)。なお、学習終了指
示部26による規則生成部22への直接の通知に代え、
制御部40を介した通知としても良い。
【0083】規則生成部22は、前記強制終了通知があ
ると、適切に強制終了処理を行い、分類規則生成部30
は、分類規則の編集を開始する(ステップS907)。
分類規則生成部30は、分類規則を生成後、出力部50
を介して生成した分類規則を出力する(ステップS90
8)。
【0084】以上、説明したように、分類規則学習に対
する制限がある環境下においても、本発明にかかる分類
規則生成装置を適用することができる。 (実施形態3)本実施形態3にかかる分類規則学習装置
は、実施形態1と同様、属性値と所属クラスが与えられ
た訓練事例の入力を基に、入力されたそれぞれの訓練事
例から属性とその値から導いた条件連言と所属クラスの
関係を記述した規則をそれぞれ生成し、規則の集合を分
類規則として生成するものであるが、本実施形態3で
は、分類規則の学習にあたり、学習に用いる規則に対し
て分類精度の高さを反映した重み付けを行い、学習する
分類規則の分類精度をより高めることを特徴とするもの
である。
【0085】規則の重み付けとしては、以下に示すよう
に、いくつかの方法がある。第一番目は、当該規則がカ
バーできる訓練事例の数に比例して重みを付ける方法で
ある。一般に、生成される規則の分類精度、つまりその
規則の持つ確信度は、訓練事例が偏りなく適切に選ばれ
たものであれば、当該規則が適用できる訓練事例の数に
およそ比例すると言える。
【0086】第二番目は、各訓練事例が規則の重みに与
える寄与を同一とし、重みはそれらの総和とするもので
ある。つまり、規則rにカバーされる訓練事例の集合を
I(r)、訓練事例iをカバーする規則の数をn(i)とす
ると、規則の重みW(r)は以下の(数4)で与えられ
る。
【0087】
【数4】
【0088】その他、規則の優劣を同等としてすべての
重みを同じするもの、規則の条件記述部分の複雑さによ
り重みをつけるものなど多数ある。ここでは、第二番目
の重み付け方法を採用して説明する。もっとも重み付け
の方法はこの方法に限らないことは言うまでもない。
【0089】なお、本実施形態3にかかる分類規則学習
装置は、重み付けに関する部分以外の構成は、実施形態
1と同様のもので良く、ここでの説明は適宜省略するも
のとする。
【0090】本実施形態3にかかる分類規則学習装置の
全体構成の概略と本装置による処理流れの全体像を図面
を参照しつつ説明する。図10は、本実施形態3にかか
る分類規則学習装置の概略構成図を示している。図10
に示すように、本実施形態3は、分類規則生成部20に
代え、規則学習部20bを備えた構成になっている。規
則学習部20bは、実施形態1の規則学習部20に比べ
てさらに重み付け処理部31を備えていることが特徴で
ある。規則学習部20bを除いた各構成要素は、実施形
態1で同じ番号を付して説明した各構成要素と同様であ
るのでここでの説明は省略し、規則学習部20bを中心
に説明する。なお、実施形態1と同様、図示していない
が、システム全体の制御処理に必要なメモリ、デバイス
類などは装備している。
【0091】規則学習部20bは、属性値量子化部2
1、規則生成部22、分類規則生成部30、重み付け処
理部31を備えている。重み付け処理部31は、規則生
成部22により生成されたそれぞれの規則に対する重み
付け処理を実行する部分である。重み付け処理後の規則
が分類規則生成部30において分類規則として編集され
る。
【0092】図11により重み付け処理部31の動作を
中心とした処理ステップを説明する。ここでは実施形態
1の図3、図5のフローチャートで示した処理ステップ
と重複する部分の説明は適宜省略する。
【0093】まず、入力部10から、訓練事例その他必
要な情報が入力される(ステップS1101)。ここで
は、実施形態1で用いた図2に示す訓練事例1〜5が入
力されたものとする。
【0094】次に、属性量子化部21により、訓練事例
の情報の属性値が量子化される(ステップS110
2)。次に、規則生成部22により、規則の生成が開始
される。実施形態1において説明した規則生成処理と同
様の処理が、規則生成部22の中で行われ、図4に示し
たように、各ノードに含まれる訓練事例集合Tに含まれ
る訓練事例すべての所属クラスが同じとなったものから
順次、規則が出力され、分類規則生成部30に出力され
る(ステップS1103)。ここでは、実施形態1と同
様、4つの規則が生成されたものとする。
【0095】次に、分類規則生成部30は、全ての規則
の入力が終了した時点で、重み付け処理部31に対し
て、入力された規則の重み量の算出を依頼する(ステッ
プS1104)。
【0096】重み付け処理部31は、各訓練事例ごと
に、各訓練事例が満足する規則の数を調べる(ステップ
S1105)。ここでは、訓練事例1、訓練事例3、訓
練事例5が満足する規則はそれぞれ1つのみであり、訓
練事例2と訓練事例4が満足する規則はそれぞれ2つあ
る。つまり、n(1)=n(3)=n(5)=1,n(2)=n
(4)=2である。
【0097】重み付け処理部31は、各規則の重み量を
計算する(ステップS1106)。ここでは、(数4)
に従って計算し、規則1〜4のそれぞれの重み量W(1)
〜W(4)として、以下の結果が得られる。
【0098】 W(1)=1/n(2)+1/n(4)=1 W(2)=1/n(1)+1/n(2)+1/n(4)=2 W(3)=1/n(3)=1 W(4)=1/n(5)=1 重み付け処理部31は、分類規則生成部30に対して、
計算した重み量を出力し、分類規則生成部30は、入力
された重み量をもって各規則に重み付けした後、分類規
則として編集する(ステップS1107)。
【0099】分類規則生成部30は、分類規則を生成
後、出力部50を介して生成した分類規則を出力する
(ステップS1108)。以上、説明したように、学習
する規則に適宜重み付けを施すことにより、分類規則を
チューニングすることができ、分類精度の向上を図るこ
とができる。
【0100】(実施形態4)本実施形態4は、本発明に
かかる分類規則学習装置が、学習した分類規則を用いて
分類処理を実行する分類処理部を備えたものである。実
施形態1〜実施形態3で示したような本発明にかかる分
類規則学習装置により生成した分類規則は、従来の分類
装置において読み込まれ、広く適用が可能であるが、こ
こでは特に、分類規則が主分類規則と補助分類規則を備
えたものである場合において本発明にかかる分類処理部
の特徴的な処理について説明する。
【0101】本実施形態4にかかる分類規則学習装置の
構成の概略と本装置による処理流れの全体像を図面を参
照しつつ説明する。図12は、本実施形態4にかかる分
類規則学習装置の概略構成図、図13は、本装置による
処理流れの全体像を処理ステップとして表わしたフロー
チャートである。
【0102】図12に示すように、本装置は、分類規則
学習装置100と分類処理部200を備えており、分類
規則学習装置100は、実施形態1〜実施形態3におい
て説明した分類規則学習装置と同様のものであり、分類
規則を学習、生成するものである。
【0103】分類処理部200は、入力部210、分類
規則記憶部220、分類処理部230、制御部240、
出力部250を備えている。なお、図示していないが、
システム全体の制御処理に必要なメモリ、デバイス類は
装備しているものとする。
【0104】入力部210は、データが入力される部分
であり、分類規則学習装置100により生成された分類
規則のデータが入力され、また、分類処理実行時には、
分類する事例のデータが入力される。
【0105】分類規則記憶部220は、分類規則学習装
置100により生成された分類規則を記憶保持する部分
であり、記憶領域として、主分類規則記憶領域221と
補助分類規則記憶領域222を備えている。
【0106】分類処理部230は、入力事例の分類処理
を行う部分であり、入力部10からの事例入力に対し
て、分類規則記憶部220に記憶された主分類規則、補
助分類規則に沿って分類処理を実行する。
【0107】制御部240は、本分類装置の処理全体を
制御する部分である。出力部250は、本分類装置によ
り分類処理された結果を出力する部分である。
【0108】本発明にかかる分類装置の処理の流れの全
体像は以下の通りである。まず、入力部210から、分
類規則が入力される(ステップS1301)。入力され
る分類規則は、主分類規則と補助分類規則を備えている
ものとする。ここでは、例として、実施形態1で説明し
た分類規則が入力されたものとする。つまり、主分類規
則として、規則2、3、4からなる分類規則の集合が与
えられ、補助分類規則として、規則1からなる分類規則
の集合が与えられる。
【0109】次に、入力された分類規則が、分類規則記
憶部220に記憶される。主分類規則が主分類規則記憶
領域221に記憶され、補助分類規則が補助分類規則記
憶領域222に記憶される(ステップS1302)。
【0110】以上のステップS1301〜ステップS1
302を、分類処理実行前に行っておくことが好まし
い。次に、分類処理実行の手順を説明する。まず、分類
処理する事例が入力部210より読み込まれる(ステッ
プS1303)。
【0111】分類処理部230は、まず、読み込まれた
事例の持つ属性とその値を読み、主分類規則記憶領域2
21に記憶されている主分類規則に照らし、条件を満足
する分類規則を探索する(ステップS1304)。
【0112】条件を満足する分類規則が見つかれば、そ
の分類規則が示すクラスに対してその事例を分類する
(ステップS1305)。もし見つからなければ、ステ
ップS1306に進み、補助分類規則記憶領域222に
記憶されている補助分類規則に照らし、条件を満足する
分類規則を探索する(ステップS1306)。
【0113】条件を満足する分類規則が見つかれば、そ
の分類規則が示すクラスに対してその事例を分類する
(ステップS1307)。もし見つからなければ、分類
不能時の処理を実行する(ステップS1308)。ここ
で、分類不能時の処理としては、分類不能という結果を
付す処理や、分類不能事例に対してあらかじめ決められ
たクラスに対して分類する処理などがある。
【0114】入力事例に対して、上記処理ステップS1
303〜ステップS1308を繰り返す。以上が本分類
規則学習装置の分類処理を中心とした処理の流れである
が、特徴的な部分は、入力事例に対して主分類規則によ
る条件判断を優先的に実行し、主分類規則により分類処
理ができないときに限り、補助分類規則による条件判断
を実行する点である。この処理により、訓練事例により
得られた分類規則としての最小セットである主分類規則
による高速かつ効率的な分類処理と、未知の事例に対す
る柔軟性と分類精度向上を提供する補助分類規則による
分類処理とを併せ持つ分類処理を実現することができ
る。
【0115】なお、上記実施形態4では、本発明にかか
る分類規則学習装置が、分類処理部200を備える構成
としたが、分類処理部200の構成部分を分類規則学習
装置とは別モジュール(別装置)として切り分けた構成
であっても良いことは言うまでもない。
【0116】(実施形態5)上記に説明した本発明にか
かる分類規則学習装置は、上記の構成を実現する処理ス
テップを記述したプログラムをコンピュータ読み取り可
能な記録媒体に記録して提供することにより、各種コン
ピュータを用いて構築することができる。
【0117】本発明にかかる分類規則学習装置を実現す
る処理ステップを備えたプログラムを記録した記録媒体
は、図14に図示した記録媒体の例に示すように、CD
−ROM302やフレキシブルディスク303等の可搬
型記録媒体301だけでなく、ネットワーク上にある記
録装置内の記録媒体300や、コンピュータのハードデ
ィスクやRAM等の記録媒体305のいずれであっても
良く、プログラム実行時には、プログラムはコンピュー
タ304上にローディングされ、主メモリ上で実行され
る。
【0118】
【発明の効果】本発明にかかる分類規則学習装置によれ
ば、高速で高効率な特徴と、柔軟性があり高精度な特徴
とを併せ持つ分類規則を学習し、かかる分類規則を提供
することができる。
【0119】また、本発明にかかる分類規則学習装置に
よれば、分類規則の学習量に対する制限を設けることが
でき、時間的制約がある環境での分類規則の学習など、
利用者の要望に沿った分類規則の学習を実現することが
できる。
【0120】また、本発明にかかる分類規則学習装置
は、規則に対して重み付けを行って分類規則を生成する
ことができ、分類精度を向上するように分類規則をチュ
ーニングすることができる。
【図面の簡単な説明】
【図1】 本発明の実施形態1にかかる分類規則学習装
置の概略構成図
【図2】 入力される訓練事例の例を示す図
【図3】 実施形態1にかかる分類規則学習装置の処理
流れの全体像を示したフローチャート
【図4】 訓練事例から規則が生成される様子表わした
【図5】 規則生成処理ステップの詳細を示したフロー
チャート
【図6】 生成された分類規則の主分類規則と補助分類
規則の関係を概念的に示した図
【図7】 本発明の分類規則学習装置により生成した分
類規則と従来例の分類規則学習装置により生成した分類
規則の分類精度を比較した図
【図8】 本発明の実施形態2にかかる分類規則学習装
置の概略構成図
【図9】 実施形態2にかかる分類規則学習装置の処理
流れの全体像を示したフローチャート
【図10】 本発明の実施形態3にかかる分類規則学習
装置の概略構成図
【図11】 実施形態3にかかる分類規則学習装置の処
理流れの全体像を示したフローチャート
【図12】 本発明の実施形態4にかかる分類規則学習
装置の概略構成図
【図13】 実施形態4にかかる分類規則学習装置の処
理流れの全体像を示したフローチャート
【図14】 記録媒体の例
【符号の説明】
10,210 入力部 20 規則学習部 21 属性値量子化部 22 規則生成部 23 学習量制御部 24 学習量設定部 25 学習量モニタ部 26 学習終了指示部 30 分類規則生成部 31 重み付け処理部 40,240 制御部 50,250 出力部 100 分類規則学習装置 200 分類処理部 220 分類規則記憶部 221 主分類規則記憶領域 222 補助分類規則記憶領域 230 分類処理部 300 回線先のハードディスク等の記録媒体 301 CD−ROMやフレキシブルディスク等の可搬
型記録媒体 302 CD−ROM 303 フレキシブルディスク 304 コンピュータ 305 コンピュータ上のRAM/ハードディスク等の
記録媒体
───────────────────────────────────────────────────── フロントページの続き (72)発明者 太田 唯子 神奈川県川崎市中原区上小田中4丁目1番 1号 富士通株式会社内

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 属性とクラスにより表わされる事例の入
    力に対して属性値を基に所属クラスを予測して分類する
    分類規則を生成する装置であって、 入力部と、規則学習部と、分類規則生成部と、出力部と
    を備え、前記入力部により属性値と所属クラスがあらか
    じめ与えられている訓練事例が入力され、前記規則学習
    部により前記入力されたそれぞれの訓練事例の持つ各属
    性値と所属クラスの関係を表わす規則を生成し、前記分
    類規則生成部により前記生成されたそれぞれの規則の集
    合を分類規則として編集・生成することを特徴とする分
    類規則学習装置。
  2. 【請求項2】 属性とクラスにより表わされる事例集合
    の入力に対して属性値を基に所属クラスを予測して分類
    する分類規則を生成する装置であって、 入力部と、規則学習部と、分類規則生成部と、出力部と
    を備え、前記入力部により属性値と所属クラスがあらか
    じめ与えられている訓練事例が入力され、前記規則学習
    部により前記入力されたそれぞれの訓練事例の持つ各属
    性値と所属クラスの関係を表わす規則を生成し、前記分
    類規則生成部により、前記生成された規則群の部分集合
    であってすべての訓練事例を所属クラスに分類できる最
    小セットを主分類規則とし、前記規則群のうち前記主分
    類規則以外の規則を補助分類規則とし、分類規則を前記
    主分類規則と補助分類規則から編集・生成することを特
    徴とする分類規則学習装置。
  3. 【請求項3】 前記規則学習部が、前記入力された訓練
    事例の属性のうち数値で表わされる属性に対する量子化
    幅を設定する属性値量子化部を備え、前記規則学習部
    が、前記属性値量子化部により設定された量子化幅で量
    子化した訓練事例の属性値を基に規則を生成する請求項
    1または2に記載の分類規則学習装置。
  4. 【請求項4】 前記規則学習部が、前記規則生成処理に
    おいて、規則を形成する条件連言のうちの一の条件の設
    定にあたり、前記一の条件を満たすすべての訓練事例に
    対してそれぞれの規則の条件連言に前記一の条件を追加
    することにより、各訓練事例の規則の条件連言の生成処
    理を共通に処理する請求項1または2に記載の分類規則
    学習装置。
  5. 【請求項5】 前記規則学習部による前記規則生成処理
    において、複数の属性の組み合わせによる条件を持つ規
    則の生成も含む請求項1または2に記載の分類規則学習
    装置。
  6. 【請求項6】 前記規則学習部が、学習量設定部を備
    え、 前記規則学習部は、規則の学習量が前記学習量設定部の
    設定量に達すれば、学習を終了し、前記分類規則生成部
    は、学習済みの規則を基に分類規則を編集・生成する請
    求項1または2に記載の分類規則学習装置。
  7. 【請求項7】 前記規則学習部が、前記規則生成処理に
    おいて、規則を形成する条件連言のうちの一の条件の設
    定にあたり、条件の持つエントロピーの大きさを評価す
    ることにより条件設定の優先順位を付ける条件選択部を
    備えた請求項1または2に記載の分類規則学習装置。
  8. 【請求項8】 前記規則学習部が、分類規則重み設定部
    を備え、 前記規則学習部は、生成したそれぞれの規則に対して重
    み付け処理を行い、重み付きの規則を前記分類規則生成
    部へ出力する請求項1または2に記載の分類規則学習装
    置。
  9. 【請求項9】 主分類規則記憶領域と補助分類記憶領域
    を備えた分類規則記憶部と、分類処理部とを備え、前記
    分類規則記憶部が、前記生成された主分類規則を前記主
    分類規則記憶領域に記憶し、前記生成された補助分類規
    則を前記補助分類規則記憶領域に記憶し、前記入力部に
    より各属性値を持つ事例が入力され、前記分類処理部に
    より、前記入力事例の所属クラスが前記記憶した主分類
    規則により決定できる場合は当該クラスに分類し、前記
    入力事例の所属クラスが前記記憶した主分類規則により
    決定できないときは前記補助分類規則により所属クラス
    を決定して分類することにより、入力事例の分類処理を
    実行できることを特徴とする請求項2に記載の分類規則
    学習装置。
  10. 【請求項10】 属性とクラスにより表わされる事例集
    合の入力に対して属性値を基に所属クラスを予測して分
    類する分類規則を生成する分類装置を実現する処理プロ
    グラムを記録したコンピュータ読み取り可能な記録媒体
    であって、 属性値と所属クラスがあらかじめ与えられている訓練事
    例の入力を受け付ける処理ステップと、前記入力された
    それぞれの訓練事例の持つ各属性値と所属クラスの関係
    を表わす規則を生成する処理ステップと、前記生成され
    たそれぞれの規則の集合を分類規則として編集・生成す
    る処理ステップとを備えた処理プログラム記録したこと
    を特徴とする記録媒体。
  11. 【請求項11】 属性とクラスにより表わされる事例集
    合の入力に対して属性値を基に所属クラスを予測して分
    類する分類規則を生成する分類装置を実現する処理プロ
    グラムを記録したコンピュータ読み取り可能な記録媒体
    であって、 属性値と所属クラスがあらかじめ与えられている訓練事
    例の入力を受け付ける処理ステップと、前記入力された
    それぞれの訓練事例の持つ各属性値と所属クラスの関係
    を表わす規則を生成する処理ステップと、前記生成され
    た規則群の部分集合であってすべての訓練事例を所属ク
    ラスに分類できる最小セットを主分類規則とし、前記規
    則群のうち前記主分類規則以外の規則を補助分類規則と
    し、分類規則を前記主分類規則と補助分類規則から編集
    ・生成する処理ステップとを備えた処理プログラムを記
    録したことを特徴とする記録媒体。
JP10164984A 1998-06-12 1998-06-12 分類規則学習装置 Withdrawn JP2000003282A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10164984A JP2000003282A (ja) 1998-06-12 1998-06-12 分類規則学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10164984A JP2000003282A (ja) 1998-06-12 1998-06-12 分類規則学習装置

Publications (1)

Publication Number Publication Date
JP2000003282A true JP2000003282A (ja) 2000-01-07

Family

ID=15803632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10164984A Withdrawn JP2000003282A (ja) 1998-06-12 1998-06-12 分類規則学習装置

Country Status (1)

Country Link
JP (1) JP2000003282A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7516368B2 (en) 2004-06-21 2009-04-07 Fujitsu Limited Apparatus, method, and computer product for pattern detection
JP2011113441A (ja) * 2009-11-30 2011-06-09 Fujitsu Ltd メッセージ分類用属性選択装置,メッセージ分類用属性選択プログラムおよびメッセージ分類用属性選択方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7516368B2 (en) 2004-06-21 2009-04-07 Fujitsu Limited Apparatus, method, and computer product for pattern detection
JP2011113441A (ja) * 2009-11-30 2011-06-09 Fujitsu Ltd メッセージ分類用属性選択装置,メッセージ分類用属性選択プログラムおよびメッセージ分類用属性選択方法

Similar Documents

Publication Publication Date Title
WO2020143320A1 (zh) 文本词向量获取方法、装置、计算机设备及存储介质
KR102264233B1 (ko) 문장, 문서 특징값 및 문장 가중치 간의 상관관계를 학습한 인공 신경망에 의해 생성된 설명이 부가된 문서 분류 방법
CN109408639A (zh) 一种弹幕分类方法、装置、设备和存储介质
JP6161266B2 (ja) 情報処理装置及びその制御方法及び電子デバイス及びプログラム及び記憶媒体
US11741363B2 (en) Computer-readable recording medium, method for learning, and learning device
US20180018392A1 (en) Topic identification based on functional summarization
US20230196812A1 (en) Document lineage management system
JP2000067057A (ja) 画像データ逐次表示装置、画像データ逐次表示方法及び記録媒体
CN115344805A (zh) 素材审核方法、计算设备及存储介质
JP2010061176A (ja) テキストマイニング装置、テキストマイニング方法、および、テキストマイニングプログラム
JPH1131226A (ja) 情報処理方法及び装置
US11960846B2 (en) Embedding inference
JP6439211B2 (ja) 説明文生成装置、説明文書作成方法およびプログラム
JP2000003282A (ja) 分類規則学習装置
CN115617978A (zh) 指标名称检索方法、装置、电子设备及存储介质
KR102529335B1 (ko) Ai 칩 연계 기반 온디바이스 ai 지원 방법
KR102221711B1 (ko) X-ray 이미지 최적화를 통해 판독률이 향상된 X-ray 판독시스템
US20200387811A1 (en) Systems and methods for neighbor frequency aggregation of parametric probability distributions with decision trees
CN111382793A (zh) 一种特征提取方法、装置和存储介质
CN112632229A (zh) 文本聚类方法及装置
US20220129250A1 (en) Method for application building
US20230118164A1 (en) Method and apparatus for data augmentation
EP4287075A1 (en) Training data generation device and method
JP7268069B2 (ja) 学習装置、学習方法、学習プログラム、評価装置、評価方法、および評価プログラム
JPH0962693A (ja) 確率モデルによる文書分類方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050906