JP5206196B2 - 規則学習方法、プログラム及び装置 - Google Patents

規則学習方法、プログラム及び装置 Download PDF

Info

Publication number
JP5206196B2
JP5206196B2 JP2008193067A JP2008193067A JP5206196B2 JP 5206196 B2 JP5206196 B2 JP 5206196B2 JP 2008193067 A JP2008193067 A JP 2008193067A JP 2008193067 A JP2008193067 A JP 2008193067A JP 5206196 B2 JP5206196 B2 JP 5206196B2
Authority
JP
Japan
Prior art keywords
learning
weight
learning case
feature
storage unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008193067A
Other languages
English (en)
Other versions
JP2010033213A (ja
Inventor
友哉 岩倉
青史 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008193067A priority Critical patent/JP5206196B2/ja
Priority to US12/505,529 priority patent/US8296249B2/en
Publication of JP2010033213A publication Critical patent/JP2010033213A/ja
Application granted granted Critical
Publication of JP5206196B2 publication Critical patent/JP5206196B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本技術は、 機械学習に関し、より詳しくは機械学習における規則学習の高速化技術に関する。
機械学習アルゴリズムには様々なものが知られているが、その中でもブースティング(Boosting)というアルゴリズムが存在している。ここでは、Boostingアルゴリズムの中でも以下で示す非特許文献3及び非特許文献4におけるAdaBoostという手法に基づく学習手法について検討する。以下、特に述べない限り、BoostingはAdaBoostを示すものとする。
Boostingでは、与えられた弱学習器を使って、異なる重みを持つ学習事例から複数の弱仮説(すなわち規則)を生成する。そして、事例の重みを変更しつつ、学習事例から繰り返し複数の弱仮説を生成して、最終的に、弱仮説の組み合わせである最終仮説を生成する。なお、今までに学習した弱仮説にて正しく分類できる事例には小さい重みを、正しく分類できない事例には大きい重みが割り当てられるようにする。
より具体的には、学習事例に対する誤り数(すなわちエラー数)であるトレーニングエラーの上限値を減らす方向で事例の重みを更新する。トレーニングエラーの上限値は、実際のトレーニングエラーより大きな値であり、Boostingにおける事例の重みの和である。このようなトレーニングエラーの上限値を下げてゆくことによって、トレーニングエラー自体も下げてゆく。
今回の説明では、弱学習器としてある規則学習器を扱うBoostingアルゴリズムに基づき説明を行う。また、以降、このアルゴリズムをBoostingアルゴリズムと記すことにする。まず、簡単なBoostingアルゴリズムについて図1を用いて説明する。まず、1又は複数の素性を含む素性集合xiと−1又は+1であるラベルyiとの組み合わせである事例をm個含む学習データS={(x1,y1),(x2,y2),...(xm,ym)}と、m個の事例に対応するm個の重みの初期値w1,i=1(1≦i≦m)と、繰り返し回数Nと、繰り返し回数をカウントするための変数t=1とを設定する(ステップS101)。
そして、事例の重みwt,iに従って学習データに含まれる各素性のスコア(ゲインとも呼ぶ)を算出し、当該スコアが最大となる素性を規則ftとして抽出する(ステップS103)。スコアの計算については、例えば、以下で述べる式(4)を用いる。なお、素性の数が10万程度で、学習データに含まれる事例の数も10万程度となる場合もあり、スコア計算に相当な時間がかかるが、選択される素性は1つのみである。
さらに、事例の重みwt,iを用いて規則ftの確信度ctを算出し、規則ft及び確信度ctをt番目の規則及び確信度として格納する(ステップS105)。確信度ctについては、例えば、以下で述べる式(2)又は(7)を用いる。
その後、事例の重みwt,iと規則ft及び確信度ctとにより、新たな重みwt+1,i(1≦i≦m)を算出し、更新登録する(ステップS107)。新たな重みwt+1,iについては、例えば、以下で述べる式(6)を用いる。
そして変数tの値を1インクリメントし(ステップS109)、tが繰り返し回数Nより小さい場合には(ステップS111:Yesルート)、ステップS103に戻る。一方、tが繰り返し回数Nに達した場合には(ステップS111:Noルート)、処理を終了する。
このような処理の結果得られた規則及び確信度の組み合わせを用いて、新たな入力について−1又は+1のいずれかを判断する。
上で述べたように、一度の繰り返しにおいて規則及び確信度の組み合わせ1つしか生成できないので、素性の数や学習事例の数が増加すると、処理時間が膨大になるという問題がある。
このため図1に示したBoostingアルゴリズムの高速版が考案された。これを図2に示す。1又は複数の素性を含む素性集合xiと−1又は+1であるラベルyiとの組み合わせである事例をm個含む学習データS={(x1,y1),(x2,y2),...(xm,ym)}と、m個の事例に対応するm個の重みの初期値w1,i=1(1≦i≦m)と、繰り返し回数Nと、一度に学習する規則数νと、繰り返し回数をカウントするための変数t=1とを設定する(ステップS151)。理解を促すため、図3に示すような学習データについて処理する例を説明する。図3では、3つの学習事例が含まれている。第1の学習事例は、素性a,b及びcを含む素性集合と+1のラベルを含み、当該学習事例の重みは1である。第2の学習事例は、素性a,b,c及びdを含む素性集合と−1のラベルを含み、当該学習事例の重みは1である。第3の学習事例は、素性a,b及びdを含む素性集合と+1のラベルを含み、当該学習事例の重みは1である。
次に、事例の重みwt,iに従って学習データに含まれる各素性のスコア(ゲインとも呼ぶ)を算出し、スコアの大きい順にν個の素性を規則f’j(1≦j≦ν)として抽出する(ステップS153)。スコアについては、例えば、以下で述べる式(4)を用いる。図3に示したデータからスコアを計算すると、図4に示すような結果が得られるものとする。すなわち、素性a及びbについてはスコア「0.414」となり、素性c及びdについてはスコア「0」となる。ここでν=3とすると、素性a,b及びcが選択されるものとする。
そして、事例の重みwt,iを用いて、ν個の規則f’jに対応するν個の確信度c’jを一括して算出する(ステップS155)。確信度c’tについては、例えば、以下で述べる式(2)又は(7)を用いる。本ステップでは、重みについては同じwt,iを用いてν個の確信度c’jを算出してしまう。上で述べた例では図5に示すように、規則a及びbの確信度が0.279と算出され、規則cの確信度は0と算出される。
ここでjを1に初期化し(ステップS157)、事例の重みwt,iと規則f’j及び確信度c’jとにより、新たな重みwt+1,i(1≦i≦m)を算出し、更新登録する(ステップS159)。新たな重みwt+1,iについては、例えば、以下で述べる式(6)を用いる。上で述べた例では、規則aについて重みの計算が行われ、図6に示すように、第1及び第3の学習事例の重みは0.75に更新され、第2の学習事例の重みは1.32に更新される。そして、規則f’j及び確信度c’jをt番目の規則及び確信度として登録する(ステップS161)。
そして変数tの値及び変数jの値をそれぞれ1インクリメントし(ステップS163)、jがν以下であるか判断する(ステップS165)。jがν以下である場合にはステップS159に移行する。
次に、j=2でステップS159を実行すると、上で述べた例では、規則bについて重みが計算され、図7に示すような新たな重みが更新登録される。すなわち、第1及び第3の学習事例の重みは0.56に更新され、第2の学習事例の重みは1.74に更新される。
さらに、j=3でステップS159を実行すると、規則cについて重みが計算され、図8に示すような新たな重みが更新登録される。但し、規則cの確信度が0であるので、図8は図7と同じになる。
一方、jがνを超えた場合には、tが繰り返し回数Nより小さいか判断し(ステップS167)、t<NであればステップS153に戻る。ステップS153に戻ってスコアを再計算すると、図9に示すような値が算出される。すなわち、規則a及びbについてはスコア「0.26」であり、規則c及びdについてはスコア「0.57」となる。
一方、tが繰り返し回数Nに達した場合には(ステップS167:Noルート)、処理を終了する。
このような処理の結果得られた規則及び確信度の組み合わせを用いて、新たな入力について−1又は+1のいずれかを判断する。
図2で示したような処理を行うことによって、一度の繰り返しにおいて規則及び確信度の組み合わせを複数生成することができるので、処理時間を短縮できる。
Y. Freund and L. Mason. The alternating decision tree learning algorithm,In Proc.of 16th ICML,pages124-133,1999 R. E. Schapire and Y. Singer. Improved boosting using confidence-rated predictions. Machine Learning,37(3):297-336,1999 R. E. Schapire and Y. Singer. Boostexter:A boosting-based system for text categorization. Machine Learning,39(2/3):135-168,2000
図2で示したような処理を実施する場合には、図1で示したような処理を行うより効率よく規則及び確信度の組み合わせを生成することができるが、図2の処理フローでは、スコアが上位所定数の規則を選択すると、一括して当該規則の確信度を同じ学習事例の重みを用いて算出してしまっている。このような処理を行うと、Boostingにおけるトレーニングエラーの上限値の増加が起こる可能性がある。Boostingのトレーニングエラーの上限値は、最小値を一点だけ有する関数であり、通常であれば、ある時点の事例の重みで、ある弱仮説に基づき上限値を最小化するための確信度を選択できる。しかしながら、図2の処理フローのように、一括して複数の規則に対応する確信度を同じ重みで算出して、それを繰り返すような処理を行う場合には、トレーニングエラーの上限値を必ず減少させるという保証はできなくなる。
従って、本技術の目的は、Boostingによる規則学習を高速化すると共に、トレーニングエラーの上限値の増加を防止することである。
本規則学習方法は、1又は複数の素性を含む素性集合と−1と+1のうちいずれかであるラベルとを含む学習事例と当該学習事例の重みとの組み合わせを複数格納する学習事例データ格納部に登録されている各素性について、確信度の算出を行うべき素性を選択するための評価値を学習事例のデータ及び当該学習事例の重みとを用いて算出し、素性に対応して評価値格納部に格納する評価値算出ステップと、評価値格納部に格納されている評価値の大きい順に所定個数の素性を選択する選択ステップと、選択された所定個数の素性のうち1つの素性について、学習事例データ格納部に登録されている学習事例のデータ及び当該学習事例の重みとを用いて確信度を算出して上記1つの素性と確信度の組を規則データ格納部に格納すると共に、学習事例のデータと当該学習事例の重みと当該1つの素性に対応する確信度とを用いて次の段階で用いるべき各学習事例の重みを算出し、学習事例データ格納部に格納されている重みを更新する更新ステップと、更新ステップを所定個数の素性のうち残余の素性について繰り返す繰り返しステップと、評価値算出ステップと選択ステップと更新ステップと繰り返しステップとを所定回数繰り返すステップとを含む。
Boostingによる規則学習を高速化すると共に、トレーニングエラーの上限値の増加を防止できるようになる。
[本技術の前提]
まず、Boostingアルゴリズムが扱う問題について述べる。ここでχを事例集合とし、扱うラベル集合をy={−1、+1}とする。また、学習の目的は、学習データS={(x1,y1),...,(xm,y1)}から、マッピングF:χ−>yを導出することである。
ここで、|x|を、事例x∈χに含まれる素性の種類とする。xi∈χ(1≦i≦m)とは、|xi|種類の素性から構成される素性集合とする。また、ここではk個の素性から構成される素性集合をk−素性集合と記する。さらに、yi∈yは、S中のi番目の素性集合のクラスレベルである。
FT={f1,f2,...,fM}をBoostingアルゴリズムが対象とするM種類の素性とする。各事例xiの各素性は、xi,j∈FT(1≦j≦|xi|)となる。本技術は、バイナリのベクトルを取り扱うことも可能であるが、以下で述べる例では、各素性は、文字列で表現されるものとする。
また、ある素性集合が他の素性集合を包含する場合を次に定義する。
定義1
二つの素性集合x、x’において、xが有する全ての素性をx’が有する場合には、xはx’の部分素性集合と呼び、次のように記す。
x⊆x’
さらに、本実施の形態では、背景技術の欄で示した4番目の非特許文献で用いられているreal-valued predictions and abstaining(RVPA)の考えを元に規則を定義する。RVPAでは、入力の素性集合が条件に合う場合、実数で表現される確信度を返し、条件に合わない場合は、「0」を返す。素性集合を分類するための弱仮説を次のように定義する。
定義2
素性集合fを規則、xを入力の素性集合とする。また、実数cを規則fの確信度としたとき、規則の適用を以下に定義する。
Figure 0005206196
Boostingに基づく規則学習は、T種類の規則素性集合とその確信度の組み合わせ(<f1,c1>,...,<fT,cT>)をT回のBoostingラウンドでの弱学習器による学習にて獲得し、以下に定義されるFを構築するものである。
Figure 0005206196
なお、ここでsign(x)は、xが0以上であれば1を、それ以外の場合には−1という関数を表す。
弱学習器は、学習データS{(xi,yi)}(1≦i≦m)と、t回目のBoostingラウンドの時点での各学習事例の重み{wt,1,...,wt,m}を用いて、規則ft及びその確信度ctを導出する。wt,i(0<wt,i)とは、i番目(1≦i≦m)の事例(xi,yi)のt回目(1≦t≦T)のBoostingラウンドの重みである。
弱学習器は、与えられた学習データと学習事例の重みを基に、規則として、以下の式を最小にする素性集合fとその確信度cを選択する。
Figure 0005206196
なお、[[π]]は、ある命題πが成り立つ場合に1、それ以外の場合に0とする。
式(1)を規則選択の基準として用いるのは、Boostingに基づく学習アルゴリズムのトレーニングエラーの上限値は、事例の重みの和に関連するためである。
式(1)を、ある規則fによって最小化する場合、その時の確信度cは以下のようになる。
Figure 0005206196
式(2)を式(1)に代入することで、以下の式が得られる。
Figure 0005206196
式(3)から、式(1)を最小化することは、以下に定義されるscoreを最大化する素性集合fを選択することと等価であることが分かる。
Figure 0005206196
次に、(ft,ct)を用いて、各事例の重みを更新する処理について説明する。なお、重みについては、全ての重みの和が1となるように正規化する場合と、そうでない場合とがある。
正規化する場合、t+1回目のラウンドでの重みwt+1,iは以下のように定義される。
Figure 0005206196
正規化しない場合には、以下のように定義される。
Figure 0005206196
なお、正規化する場合の重みの初期値w1,iは1/m(mは学習事例数)であり、正規化しない場合の重みの初期値w1,iは1とする。
また、素性の出現がスパース(わずかな事例にしか出現しないという意味)である場合には、Wt,+1(f)又はWt,-1(f)が非常に小さい値又は0になることが生ずる。これを避けるために、スムージングのための値εを導入する。
すなわち、式(2)を以下のように変形する。
Figure 0005206196
例えば、ε=1/mやε=1を用いる。
[実施の形態の具体的内容]
以上述べたような前提を元に、本技術の実施の形態を説明する。図10に本実施の形態におけるシステムの機能ブロック図を示す。本システムは、学習データなどの入力を行うための学習データ入力部1と、学習データ入力部1によって入力された学習データなどを格納する学習データ格納部3と、学習データ格納部3に格納されているデータを用いて本実施の形態における主要な処理を実施する規則学習部5と、規則学習部5の処理結果である規則データを格納する規則データ格納部7と、生成された規則を適用して分類を行う対象である分類データを入力するための分類データ入力部9と、分類データ入力部9によって入力された分類データを格納する分類データ格納部11と、規則データ格納部7に格納されている規則データを、分類データ格納部11に格納されている処理対象データに適用して、分類を行う規則適用部13と、規則適用部13の処理結果を格納する処理結果格納部15とを有する。
なお、本技術の前提において述べたマッピングF:χ−>yを実施するのが規則適用部13であり、χが分類データを表し、yが処理結果を表す。このように、規則適用部13の処理内容については従来と同じであり、規則データ格納部7に格納される規則データと、分類データ入力部9によって分類データ格納部11に格納されている分類データとが用意されれば、従来どおり処理が行われ、処理結果についても、同様に格納される。従って、以下では説明を省略する。
次に、図11乃至図21を用いて、本実施の形態における規則学習部5等の処理内容について説明する。
まず、学習データ入力部1は、例えばユーザからの指示に従って、1又は複数の素性を含む素性集合xiと−1又は+1であるラベルyiとの組み合わせである事例をm個含む学習データS={(x1,y1),(x2,y2),...(xm,ym)}と、m個の事例に対応するm個の重みの初期値w1,i=1(1≦i≦m)と、繰り返し回数Nと、一度に学習する規則数νと、繰り返し回数をカウントするための変数t=1とについての入力を受け付け、学習データ格納部3に格納する(ステップS1)。理解を促すため、図12に示すような学習データについて処理する例を説明する。図12では、3つの学習事例が含まれている。第1の学習事例は、素性a,b及びcを含む素性集合と+1のラベルを含み、当該学習事例の重みは1である。第2の学習事例は、素性a,b,c及びdを含む素性集合と−1のラベルを含み、当該学習事例の重みは1である。第3の学習事例は、素性a,b及びdを含む素性集合と+1のラベルを含み、当該学習事例の重みは1である。
次に、規則学習部5は、学習データ格納部3に格納されているデータを用いて、規則抽出処理を実施する(ステップS3)。規則抽出処理については、図14を用いて説明する。
まず、規則学習部5は、学習データSに含まれる未処理の素性を規則候補として抽出する(ステップS21)。例えば、図12の例では、素性aを抽出する。そして、学習データSと重みwt,iを用いて、規則候補についてのスコアを算出し、例えばメインメモリなどの記憶装置に設けるスコアテーブルに登録する(ステップS23)。スコアの算出は、上で述べた式(4)を用いる。式(4)の計算には式(1)の下に示しているWt,y(f)の定義式を用いて算出する。
図12の例で素性aについてのスコアを算出するためには、W1,+1(a)=1×[[a⊆(abc)∧(+1)=(+1)]]+1×[[a⊆(abcd)∧(−1)≠(+1)]]+1×[[a⊆(abd)∧(+1)=(+1)]]=1+0+1=2と、W1,-1(a)=1×[[a⊆(abc)∧(−1)≠(+1)]]+1×[[a⊆(abcd)∧(−1)=(−1)]]+1×[[a⊆(abd)∧(−1)≠(+1)]]=0+1+0=1とを算出する必要がある。従って、素性aのスコアは、|21/2−1|=0.414と計算される。
そして、規則学習部5は、全ての素性を処理したか判断する(ステップS25)。未処理の素性が存在する場合には、ステップS21に戻る。上で述べた例では、このような処理を繰り返すと、素性a,b,c及びdについてスコアが算出され、図13に示されるようなスコアテーブルが得られる。
一方、未処理の素性が存在しない場合には、規則学習部5は、スコアの大きい順にスコアテーブルのレコードをソートし、上位ν個の素性(規則候補)を規則f’j(1≦j≦ν)として選択する(ステップS27)。そして元の処理に戻る。例えば図13に示すようなスコアテーブルの場合に、ν=3とすると、素性a、b及びcを規則として選択する。
図12の処理の説明に戻って、規則学習部5は、jを1に初期化する(ステップS5)。そして、重みwt,i(1≦i≦m)を用いて1つの規則f’jに対応する1つの確信度c’jを算出し、例えばメインメモリなどの記憶装置に格納する(ステップS7)。式(7)に従って確信度c’jを算出する。例えば、ε=1/m(学習事例の数)=1/3とする。素性aの場合には、c’1=0.5ln((2+1/3)/(1+1/3))=0.279と算出される。
本実施の形態では、従来技術とは異なり、このように1つの規則f’jにつき、現在の重みwt,iを用いて1つの確信度c’jを算出する。
そして、規則学習部5は、重みwt,iと規則f’j及び確信度c’jとにより、新たな重みwt+1,iを算出し、学習データ格納部3に更新登録する(ステップS9)。
例えば図15に示すように、第1の学習事例の重み「0.75」に、第2の学習事例の重み「1.32」に、第3の学習事例の重み「0.75」に更新登録する。
そして、規則学習部5は、規則f’j及び確信度c’jをt番目の規則及び確信度として、規則データ格納部7に登録する(ステップS11)。
その後、規則学習部5は、t及びjをそれぞれ1インクリメントする(ステップS13)。そして、jがν以下であるか判断し(ステップS15)、jがν以下である場合にはステップS7に戻って、次の規則f’jについての処理を行う。
このように、本実施の形態では、規則f’jに対応する確信度c’jを算出する毎に、重みwt,iを更新することによって、トレーニングエラーの上限値が増加することを防止する。
上で述べた例では、ステップS7に戻って素性bについての処理を行うが、素性bの確信度cは0.054と算出される。この確信度cと図15の重みwt,iを用いて、次の計算に用いる重みwt+1,iを算出すると、図16に示すようになる。背景技術の欄で同じ学習事例Sについて学習する例を示していたが、図3、図4及び図6までの処理結果は図12、図13及び図15と同じであったが、図6の次の段階におけるの重みの算出結果である図7と、今回の図16とは異なる結果が得られることが分かる。
さらに、上で述べた例では、ステップS7に戻って素性cについての処理を行うが、素性cの確信度cは−0.249と算出される。この確信度cと図16の重みwt,iを用いて、次の計算に用いる重みwt+1,iを算出すると、図17に示すようになる。図16の場合と同様に、背景技術の欄で述べた図8の結果とは異なる結果が得られることが分かる。
一方、jがνを超えた場合には、tがNより小さいか判断する(ステップS17)。tがNより小さい場合にはステップS3に戻る。一方、tがN以上となった場合には、処理を終了する。
上で述べた例で、ステップS3に戻って、素性a,b,c及びdについてスコアを計算し直すと、図18に示すような結果が得られる。スコアの値が上位3つ選ばれるので、図18の例では、素性a、b及びcが選択されることになる。なお、背景技術の場合には、図9に示すような結果が得られるので選択される素性はc,d及びa(又はb)となり、異なるものが選択される。
図17に示す重みwt,iを用いると、素性aの確信度cは0.16と算出され、当該確信度及び図17に示す重みwt,iを用いると、次に用いる重みwt+1,iは図19に示すような値となる。
次に、図19に示すような重みwt,iを用いて、素性bの確信度cを算出すると、0.032が得られる。このような確信度cの値と図19に示す重みwt,iを用いると、次に用いる重みwt+1,iは図20に示すような値となる。
さらに、図20に示すような重みwt,iを用いて、素性dの確信度cを算出すると、−0.29が得られる。このような確信度cの値と図20に示す重みwt,iを用いると、次に用いる重みwt+1,iは図21に示すような値となる。
[付録]
A.BoosTexterにおけるAdaBoostの収束性
まず、非特許文献3のTheorem1にて証明されているAdaBoost(重みについて正規化を行うもの。以下、AdaBoost-normalizedと呼ぶ。)のトレーニングエラーの上限値について紹介する。このトレーニングエラーの上限値は各ラウンドでの事例の重みの積となることを示す。続いて、いかなる規則が追加された場合においても、トレーニングエラーの上限値は、一つ前のトレーニングエラーの上限値より減少するかあるいは同一となることを示す。
まず、非特許文献3及び4で提案されているAdaBoostに基づき導出されるT個の規則から構成されるFのトレーニングエラーの上限値が、
Figure 0005206196
となることが示されている(非特許文献3を参照のこと)。まず、このトレーニングエラーの上限値について説明する。
1,i=1/mとすると、重み更新規則を表す式(5)を展開することで、式(8)が得られる。
Figure 0005206196
さらに、F(xi)≠yiの場合、
Figure 0005206196
なので、
Figure 0005206196
従って、
Figure 0005206196
よって、式(8)及び(9)から上記のトレーニングエラーの上限値が得られる。
Figure 0005206196
続いて、AdaBoost-normalizedにより導出されるT−1個の規則に対し、新たな規則が追加される場合に、いかなる規則が追加されたとしても、T−1個の規則とT個の規則から得られるトレーニングエラーの上限値は次の関係を有することを示す。
Figure 0005206196
まず、T個の規則から得られるトレーニングエラーの上限値は次のように書きかえられる。
Figure 0005206196
ここで、ZTを、定義2を基に書きかえると、以下のようになる。
Figure 0005206196
ここでは、WT-1(¬f)が以下のように表されることを用いている。
Figure 0005206196
よって、
Figure 0005206196
から、ZTは、最終的に次のように書きかえられる。
Figure 0005206196
なお、AdaBoost-normalizedでは、T−1回目の重みの総和は1なので、次の式が得られる。
Figure 0005206196
以上、式(10)及び式(11)から、以下の関係が得られる。
Figure 0005206196
よって、いかなる規則が追加された場合においても、トレーニングエラーの上限値は、一つ前のトレーニングエラーの上限値より減少するかあるいは同一となる。
B.非特許文献1のdatrees学習アルゴリズムにおけるAdaBoostの収束性
非特許文献1におけるAdaTrees学習アルゴリズムで用いられているAdaBoost(重みを正規化しないもの。以下、AdaBoost-unnormalizedと呼ぶ。)のトレーニングエラーの上限値は、各ラウンドでの更新後の事例の重みの和となる。このことを、非特許文献3のTheorem1に基づき導出する。また、AdaTrees学習アルゴリズムで用いられているAdaBoostにおいて、いかなる規則が追加された場合においても、トレーニングエラーの上限値は、一つ前のトレーニングエラーの上限値より減少するかあるいは、最悪の場合でも同一となることを示す。
まず、Adatrees学習アルゴリズムで用いられているAdaBoostにより導出されるT個の規則から構成されるFはトレーニングエラーの上限値
Figure 0005206196
を持つことを示す。ここで、
Figure 0005206196
である。
重み更新規則である式(6)を展開することで、式(12)が得られる。
Figure 0005206196
さらに、F(xi)≠yiの場合、以下の関係が成り立つ。
Figure 0005206196
よって、
Figure 0005206196
従って、
Figure 0005206196
よって、式(12)及び(13)からトレーニングエラーの上限値が得られる。
Figure 0005206196
続いて、AdaTrees学習アルゴリズムで用いられているAdaBoostにより導出されるT−1個の規則に対し、新たな規則が追加される場合に、いかなる規則が追加されたとしてもT−1個の規則から得られるトレーニングエラーの上限値とT個の規則から得られるトレーニングエラーの上限値は、Z’T≦Z’T-1という関係を有することを示す。
定義2から、T個の規則から得られるトレーニングエラーの上限値は以下のように書き換えられる。
Figure 0005206196
ここでは、以下の式が用いられている。
Figure 0005206196
そして、
Figure 0005206196
から、T個の規則から得られるトレーニングエラーの上限値に対して、以下の関係が得られる。
Figure 0005206196
よって、いかなる規則が追加された場合においても、トレーニングエラーの上限値は、一つ前のトレーニングエラーの上限値より減少するかあるいは同一となる。
以上のような処理を行うことによって、規則と確信度の組み合わせが規則データ格納部7に登録され、従来と同じような分類処理が規則適用部13によって実施されるようになる。
ここで、図12に示したような学習データについて各ラウンド(すなわち図11の処理フローにおいてステップS3を実施する毎に)で3つの規則を学習する場合の効果について検討する。図22は、図2の処理フローを用い、確信度については式(2)を用いて学習を行う場合における、トレーニングエラーの上限値及びエラー数と学習回数の関係を表している。図22のグラフにおいて、横軸は学習回数を表し、縦軸はエラー数を表す。図22から分かるように、エラー数が上下して安定的にエラーが減るわけではなく、トレーニングエラーの上限値も増加することがある。これは上で述べた問題を示している。また、図23は、図2の処理フローを用い、確信度については式(7)でε=1/m(一度に学習する規則の数。ここでは3)を用いて学習を行う場合における、トレーニングエラーの上限値及びエラー数と学習回数の関係を表している。図23のグラフにおいて、横軸は学習回数を表し、縦軸はエラー数を表す。図23の場合においては、トレーニングエラーの上限値が増加することはないが、エラーの減り方が遅いことが分かる。一方、図24に、本実施の形態における方法を採用した場合における、トレーニングエラーの上限値及びエラー数と学習回数の関係を表している。図24のグラフにおいて、横軸は学習回数を表し、縦軸はエラー数を表す。図24の場合、トレーニングエラーの上限値は増加することもなく、その減少速度はエラー数の減少速度と同様に、図22に比して早いことが分かる。すなわち、問題を生じさせることなく、高速に収束することが分かる。
さらに、固有名詞か否かを判別する学習データ(12821単語のうち1340単語が固有名詞)を用いて、学習時間毎に、学習データに対してどれだけの精度で固有名詞を判別できるかを測定した結果を、図25に示す。図25のグラフにおいて、横軸は学習時間を表し、縦軸は精度を表す。精度Fは、以下の式で算出される。
F=2*Recall*Precision/(Recall+Precision)
Recall=正しく固有名詞と判別できた数/固有名詞の数
Precision=正しく固有名詞と判別できた数/固有名詞と答えた数
図1の処理フローより図2の処理フロー、図2の処理フローより本実施の形態における処理フローを採用した方が、明らかに早く精度が向上することが分かる。このように図2の処理フローと本実施の形態における処理フローとは、その構造が単に異なるだけではなく、学習速度も向上することが分かる。
以上、本技術の一実施の形態について説明したが、本技術はこれに限定されるものではない。例えば図10の機能ブロック図は、一例であって、必ずしもプログラムモジュールが上で述べたような構成となるわけではない。
また、本技術を他の弱学習器を扱うBoostingアルゴリズムにも適用可能である。例えば、他の弱学習器の例としては、C4.5というアルゴリズムが存在している(例えば、C4.5: Programs for Machine Learning (Morgan Kaufmann Series in Machine Learningを参照のこと)。C4.5は、Decision Tree(決定木)という形の弱仮説(すなわち、規則)を学習する。このC4.5に対して本技術を適用する場合には、Decision Tree を構成する最初のノードを学習する候補として、あるバケットに存在する素性だけを使うということで適用可能である。後は通常のC4.5のアルゴリズムと同じである。
さらに、木やグラフを分類する弱学習器を扱うBoostingアルゴリズムであっても最初に計算を開始する素性をあるバケットに存在するものと制限することで、同様に適用することができる。
例えば以下のような文献を参照のこと。
文献:Kudo, Taku, Matsumoto, Yuji. A Boosting Algorithm for Classification of Semi-Structured Text. 2004,. Proceedings of EMNLP 2004, 301-308.
文献:Taku Kudo, Eisaku Maeda, Yuji Matsumoto. An Application of Boosting to Graph Classification. 2004. Proceedings of NIPS 2004.
本技術の実施の形態をまとめると以下のとおりになる。
規則学習方法は、1又は複数の素性を含む素性集合と−1と+1のうちいずれかであるラベルとを含む学習事例と当該学習事例の重みとの組み合わせを複数格納する学習事例データ格納部に登録されている各素性について、確信度の算出を行うべき素性を選択するための評価値を学習事例のデータ及び当該学習事例の重みとを用いて算出し、素性に対応して評価値格納部に格納する評価値算出ステップと、評価値格納部に格納されている評価値の大きい順に所定個数の素性を選択する選択ステップと、選択された所定個数の素性のうち1つの素性について、学習事例データ格納部に登録されている学習事例のデータ及び当該学習事例の重みとを用いて確信度を算出して上記1つの素性と確信度の組を規則データ格納部に格納すると共に、学習事例のデータと当該学習事例の重みと当該1つの素性に対応する前記確信度とを用いて次の段階で用いるべき各学習事例の重みを算出し、学習事例データ格納部に格納されている重みを更新する更新ステップと、更新ステップを所定個数の素性のうち残余の素性について繰り返す繰り返しステップと、評価値算出ステップと選択ステップと更新ステップと繰り返しステップとを所定回数繰り返すステップとを含む。
このように、評価値の高い素性を複数個一度に抽出したとしても、複数個の素性に対応する確信度を一括して算出するのではなく、対応する確信度の算出及び重みの更新を上記複数個の素性の各々について行うことによって、トレーニングエラーの上限値を増加させることなく、高速に規則学習を実施することができるようになる。
なお、素性fと、素性集合xiと、ラベルyiと、学習事例の重みwiと、学習事例の件数mとから、評価値gが、
Figure 0005206196
([[π]]は、命題πが成り立つ時1で、それ以外の時に0であることを表す)
で算出されるようにしてもよい。
さらに、素性fと、素性集合xiと、ラベルyiと、学習事例の重みwiと、学習事例の件数mと、所定の調整値εとから、確信度cが、
Figure 0005206196
([[π]]は、命題πが成り立つ時1で、それ以外の時に0であることを表す)
で算出されるようにしてもよい。
また、t回目の処理における素性ft及び確信度ctと、素性集合xiと、ラベルyiと、t回目の処理における学習事例の重みwt,iと、学習事例の件数mとから、t+1回目の処理のための学習事例の重みwt+1,iが、
Figure 0005206196
又は、wt+1,iを以下のZtで除することによって算出される
Figure 0005206196
で算出されるようにしてもよい。
なお、本技術をコンピュータに実行させるためのプログラムを作成することができ、このプログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。また、ネットワークなどを介してデジタル信号として配信される場合もある。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。
なお、業務システム分析装置は、コンピュータ装置であって、図26に示すように、メモリ2501とCPU2503とハードディスク・ドライブ(HDD)2505と表示装置2509に接続される表示制御部2507とリムーバブル・ディスク2511用のドライブ装置2513と入力装置2515とネットワークに接続するための通信制御部2517とがバス2519で接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDD2505に格納されており、CPU2503により実行される際にはHDD2505からメモリ2501に読み出される。必要に応じてCPU2503は、表示制御部2507、通信制御部2517、ドライブ装置2513を制御して、必要な動作を行わせる。また、処理途中のデータについては、メモリ2501に格納され、必要があればHDD2505に格納される。本技術の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスク2511に格納されて頒布され、ドライブ装置2513からHDD2505にインストールされる。インターネットなどのネットワーク及び通信制御部2517を経由して、HDD2505にインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU2503、メモリ2501などのハードウエアとOS及び必要なアプリケーション・プログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。
(付記1)
1又は複数の素性を含む素性集合と−1と+1のうちいずれかであるラベルとを含む学習事例と当該学習事例の重みとの組み合わせを複数格納する学習事例データ格納部に登録されている各素性について、確信度の算出を行うべき素性を選択するための評価値を前記学習事例のデータ及び当該学習事例の重みとを用いて算出し、前記素性に対応して評価値格納部に格納する評価値算出ステップと、
前記評価値格納部に格納されている前記評価値の大きい順に所定個数の素性を選択する選択ステップと、
選択された前記所定個数の素性のうち1つの素性について、前記学習事例データ格納部に登録されている前記学習事例のデータ及び当該学習事例の重みとを用いて前記確信度を算出して前記1つの素性と前記確信度の組を規則データ格納部に格納すると共に、前記学習事例のデータと当該学習事例の重みと当該1つの素性に対応する前記確信度とを用いて次の段階で用いるべき各学習事例の重みを算出し、前記学習事例データ格納部に格納されている重みを更新する更新ステップと、
前記更新ステップを前記所定個数の素性のうち残余の素性について繰り返す繰り返しステップと、
前記評価値算出ステップと前記選択ステップと前記更新ステップと前記繰り返しステップとを所定回数繰り返すステップと、
を含み、コンピュータにより実行される規則学習方法。
(付記2)
前記素性fと、前記素性集合xiと、前記ラベルyiと、前記学習事例の重みwiと、前記学習事例の件数mとから、前記評価値gが、
Figure 0005206196
([[π]]は、命題πが成り立つ時1で、それ以外の時に0であることを表す)
で算出される付記1記載の規則学習方法。
(付記3)
前記素性fと、前記素性集合xiと、前記ラベルyiと、前記学習事例の重みwiと、前記学習事例の件数mと、所定の調整値εとから、前記確信度cが、
Figure 0005206196
([[π]]は、命題πが成り立つ時1で、それ以外の時に0であることを表す)
で算出される付記1記載の規則学習方法。
(付記4)
t回目の処理における前記素性ft及び前記確信度ctと、前記素性集合xiと、前記ラベルyiと、前記t回目の処理における前記学習事例の重みwt,iと、前記学習事例の件数mとから、t+1回目の処理のための前記学習事例の重みwt+1,iが、
Figure 0005206196
又は、前記wt+1,iを以下のZtで除することによって算出される
Figure 0005206196
で算出される付記1記載の規則学習方法。
(付記5)
1又は複数の素性を含む素性集合と−1と+1のうちいずれかであるラベルとを含む学習事例と当該学習事例の重みとの組み合わせを複数格納する学習事例データ格納部に登録されている各素性について、確信度の算出を行うべき素性を選択するための評価値を前記学習事例のデータ及び当該学習事例の重みとを用いて算出し、前記素性に対応して評価値格納部に格納する評価値算出ステップと、
前記評価値格納部に格納されている前記評価値の大きい順に所定個数の素性を選択する選択ステップと、
選択された前記所定個数の素性のうち1つの素性について、前記学習事例データ格納部に登録されている前記学習事例のデータ及び当該学習事例の重みとを用いて前記確信度を算出して前記1つの素性と前記確信度の組を規則データ格納部に格納すると共に、前記学習事例のデータと当該学習事例の重みと当該1つの素性に対応する前記確信度とを用いて次の段階で用いるべき各学習事例の重みを算出し、前記学習事例データ格納部に格納されている重みを更新する更新ステップと、
前記更新ステップを前記所定個数の素性のうち残余の素性について繰り返す繰り返しステップと、
前記評価値算出ステップと前記選択ステップと前記更新ステップと前記繰り返しステップとを所定回数繰り返すステップと、
を、コンピュータに実行させるための規則学習プログラム。
(付記6)
1又は複数の素性を含む素性集合と−1と+1のうちいずれかであるラベルとを含む学習事例と当該学習事例の重みとの組み合わせを複数格納する学習事例データ格納部と、
評価値格納部と、
前記学習事例データ格納部に登録されている各素性について、確信度の算出を行うべき素性を選択するための評価値を前記学習事例のデータ及び当該学習事例の重みとを用いて算出し、前記素性に対応して前記評価値格納部に格納する評価値算出手段と、
前記評価値格納部に格納されている前記評価値の大きい順に所定個数の素性を選択する選択手段と、
規則データ格納部と、
選択された前記所定個数の素性のうち1つの素性について、前記学習事例データ格納部に登録されている前記学習事例のデータ及び当該学習事例の重みとを用いて前記確信度を算出して前記1つの素性と前記確信度の組を前記規則データ格納部に格納すると共に、前記学習事例のデータと当該学習事例の重みと当該1つの素性に対応する前記確信度とを用いて次の段階で用いるべき各学習事例の重みを算出し、前記学習事例データ格納部に格納されている重みを更新する更新手段と、
を有し、
前記更新手段の処理を、前記所定個数の素性の各々について繰り返し実施させ、
前記評価値算出手段による処理と前記選択手段による処理と前記更新手段による処理を前記所定個数の素性の各々について繰り返させる処理とを所定回数繰り返させる
規則学習装置。
第1の公知技術の処理フローを示す図である。 第2の公知技術の処理フローを示す図である。 学習データの一例を示す図である。 第1ラウンドのスコアテーブルの一例を示す図である。 第1ラウンドで選択された規則(素性)の確信度を示す図である。 第1ラウンドにおける第1の重み更新処理の結果を示す図である。 第1ラウンドにおける第2の重み更新処理の結果を示す図である。 第1ラウンドにおける第3の重み更新処理の結果を示す図である。 第2ラウンドのスコアテーブルの一例を示す図である。 本技術の実施の形態におけるシステムの機能ブロック図である。 本技術のメインの処理フローを示す図である。 学習データの一例を示す図である。 第1ラウンドのスコアテーブルの一例を示す図である。 規則抽出処理の処理フローを示す図である。 第1ラウンドにおける第1の重み更新処理の結果を示す図である。 第1ラウンドにおける第2の重み更新処理の結果を示す図である。 第1ラウンドにおける第3の重み更新処理の結果を示す図である。 第2ラウンドのスコアテーブルの一例を示す図である。 第2ラウンドにおける第1の重み更新処理の結果を示す図である。 第2ラウンドにおける第2の重み更新処理の結果を示す図である。 第2ラウンドにおける第3の重み更新処理の結果を示す図である。 従来技術の処理フローを採用した場合における、エラー数及びトレーニングエラーの上限値と学習回数の関係の一例を示す図である。 従来技術の処理フローを採用した場合における、エラー数及びトレーニングエラーの上限値と学習回数の関係の第2の例を示す図である。 本実施の形態の処理フローを採用した場合における、エラー数及びトレーニングエラーの上限値と学習回数の関係の一例を示す図である。 学習時間と精度の関係の実験例(図1、図2及び本実施の形態の処理フローを採用した場合)を示す図である。 コンピュータの機能ブロック図である。
符号の説明
1 学習データ入力部 3 学習データ格納部
5 規則学習部 7 規則データ格納部
9 分類データ入力部 11 分類データ格納部
13 規則適用部 15 処理結果格納部

Claims (3)

  1. 1又は複数の素性を含む素性集合と−1と+1のうちいずれかであるラベルとを含む学習事例と当該学習事例の重みとの組み合わせを複数格納する学習事例データ格納部に登録されている各素性について、確信度の算出を行うべき素性を選択するための評価値を前記学習事例のデータ及び当該学習事例の重みとを用いて算出し、前記素性に対応して評価値格納部に格納する評価値算出ステップと、
    前記評価値格納部に格納されている前記評価値の大きい順に所定個数の素性を選択する選択ステップと、
    選択された前記所定個数の素性のうち1つの素性について、前記学習事例データ格納部に登録されている前記学習事例のデータ及び当該学習事例の重みとを用いて前記確信度を算出して前記1つの素性と前記確信度の組を規則データ格納部に格納すると共に、前記学習事例のデータと当該学習事例の重みと当該1つの素性に対応する前記確信度とを用いて次の段階で用いるべき各学習事例の重みを算出し、前記学習事例データ格納部に格納されている重みを更新する更新ステップと、
    前記更新ステップを前記所定個数の素性のうち残余の素性について繰り返す繰り返しステップと、
    前記評価値算出ステップと前記選択ステップと前記更新ステップと前記繰り返しステップとを所定回数繰り返すステップと、
    を含み、コンピュータにより実行される規則学習方法。
  2. 1又は複数の素性を含む素性集合と−1と+1のうちいずれかであるラベルとを含む学習事例と当該学習事例の重みとの組み合わせを複数格納する学習事例データ格納部に登録されている各素性について、確信度の算出を行うべき素性を選択するための評価値を前記学習事例のデータ及び当該学習事例の重みとを用いて算出し、前記素性に対応して評価値格納部に格納する評価値算出ステップと、
    前記評価値格納部に格納されている前記評価値の大きい順に所定個数の素性を選択する選択ステップと、
    選択された前記所定個数の素性のうち1つの素性について、前記学習事例データ格納部に登録されている前記学習事例のデータ及び当該学習事例の重みとを用いて前記確信度を算出して前記1つの素性と前記確信度の組を規則データ格納部に格納すると共に、前記学習事例のデータと当該学習事例の重みと当該1つの素性に対応する前記確信度とを用いて次の段階で用いるべき各学習事例の重みを算出し、前記学習事例データ格納部に格納されている重みを更新する更新ステップと、
    前記更新ステップを前記所定個数の素性のうち残余の素性について繰り返す繰り返しステップと、
    前記評価値算出ステップと前記選択ステップと前記更新ステップと前記繰り返しステップとを所定回数繰り返すステップと、
    を、コンピュータに実行させるための規則学習プログラム。
  3. 1又は複数の素性を含む素性集合と−1と+1のうちいずれかであるラベルとを含む学習事例と当該学習事例の重みとの組み合わせを複数格納する学習事例データ格納部と、
    評価値格納部と、
    前記学習事例データ格納部に登録されている各素性について、確信度の算出を行うべき素性を選択するための評価値を前記学習事例のデータ及び当該学習事例の重みとを用いて算出し、前記素性に対応して前記評価値格納部に格納する評価値算出手段と、
    前記評価値格納部に格納されている前記評価値の大きい順に所定個数の素性を選択する選択手段と、
    規則データ格納部と、
    選択された前記所定個数の素性のうち1つの素性について、前記学習事例データ格納部に登録されている前記学習事例のデータ及び当該学習事例の重みとを用いて前記確信度を算出して前記1つの素性と前記確信度の組を前記規則データ格納部に格納すると共に、前記学習事例のデータと当該学習事例の重みと当該1つの素性に対応する前記確信度とを用いて次の段階で用いるべき各学習事例の重みを算出し、前記学習事例データ格納部に格納されている重みを更新する更新手段と、
    を有し、
    前記更新手段の処理を、前記所定個数の素性の各々について繰り返し実施させ、
    前記評価値算出手段による処理と前記選択手段による処理と前記更新手段による処理を前記所定個数の素性の各々について繰り返させる処理とを所定回数繰り返させる
    規則学習装置。
JP2008193067A 2008-07-28 2008-07-28 規則学習方法、プログラム及び装置 Active JP5206196B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008193067A JP5206196B2 (ja) 2008-07-28 2008-07-28 規則学習方法、プログラム及び装置
US12/505,529 US8296249B2 (en) 2008-07-28 2009-07-20 Rule learning by updating training example and a remaining feature weights

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008193067A JP5206196B2 (ja) 2008-07-28 2008-07-28 規則学習方法、プログラム及び装置

Publications (2)

Publication Number Publication Date
JP2010033213A JP2010033213A (ja) 2010-02-12
JP5206196B2 true JP5206196B2 (ja) 2013-06-12

Family

ID=41569518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008193067A Active JP5206196B2 (ja) 2008-07-28 2008-07-28 規則学習方法、プログラム及び装置

Country Status (2)

Country Link
US (1) US8296249B2 (ja)
JP (1) JP5206196B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6127778B2 (ja) 2013-06-28 2017-05-17 富士通株式会社 モデル学習方法、モデル学習プログラム及びモデル学習装置
US20160127319A1 (en) * 2014-11-05 2016-05-05 ThreatMetrix, Inc. Method and system for autonomous rule generation for screening internet transactions
EP3371749A1 (en) * 2015-11-06 2018-09-12 Google LLC Regularizing machine learning models

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8108324B2 (en) * 2008-05-15 2012-01-31 Intel Corporation Forward feature selection for support vector machines

Also Published As

Publication number Publication date
JP2010033213A (ja) 2010-02-12
US20100023466A1 (en) 2010-01-28
US8296249B2 (en) 2012-10-23

Similar Documents

Publication Publication Date Title
US11604956B2 (en) Sequence-to-sequence prediction using a neural network model
WO2019169719A1 (zh) 文摘自动提取方法、装置、计算机设备及存储介质
US8918348B2 (en) Web-scale entity relationship extraction
JP4774073B2 (ja) 文書のクラスタリング又は範疇化のための方法
JP7293498B2 (ja) サンプル一致度評価による能動学習
Zaremba et al. Learning to discover efficient mathematical identities
Angeli et al. Stanford’s 2014 slot filling systems
US20210374350A1 (en) Information processing device, information processing method, and program
WO2014073206A1 (ja) 情報処理装置、及び、情報処理方法
KR20220024990A (ko) L2TL(Learning to Transfer Learn)을 위한 프레임워크
JP6172317B2 (ja) 混合モデル選択の方法及び装置
JP2019204214A (ja) 学習装置、学習方法、プログラム及び推定装置
Sadrfaridpour et al. Algebraic multigrid support vector machines
JP5206196B2 (ja) 規則学習方法、プログラム及び装置
CN110968693A (zh) 基于集成学习的多标签文本分类计算方法
US9348810B2 (en) Model learning method
Chen et al. Uncover the ground-truth relations in distant supervision: A neural expectation-maximization framework
Hosseini et al. Pool and accuracy based stream classification: a new ensemble algorithm on data stream classification using recurring concepts detection
JP5206197B2 (ja) 規則学習方法、プログラム及び装置
JP6770709B2 (ja) 機械学習用モデル生成装置及びプログラム。
JP5175585B2 (ja) 文書処理装置、電子カルテ装置および文書処理プログラム
JP2015225662A (ja) 人名ユニット辞書の拡張方法、人名言語の認識方法及び人名言語の認識装置
WO2021033515A1 (ja) 情報処理装置、方法及びプログラム
WO2022070105A1 (en) Systems and methods for enforcing constraints to predictions
JP2016197289A (ja) パラメタ学習装置、類似度算出装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5206196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150