JP2018026020A - 予測器学習方法、装置、及びプログラム - Google Patents
予測器学習方法、装置、及びプログラム Download PDFInfo
- Publication number
- JP2018026020A JP2018026020A JP2016158239A JP2016158239A JP2018026020A JP 2018026020 A JP2018026020 A JP 2018026020A JP 2016158239 A JP2016158239 A JP 2016158239A JP 2016158239 A JP2016158239 A JP 2016158239A JP 2018026020 A JP2018026020 A JP 2018026020A
- Authority
- JP
- Japan
- Prior art keywords
- predictor
- learning sample
- target
- node
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】予測器を構成する決定木が不必要に大きくならないように、予測器を学習することができるようにする。
【解決手段】事前予測器構成部24が、事前予測器集合を構成する。初期目標予測器設定部30が、初期状態の目標予測器集合を構成する。学習サンプル選択部32が、学習サンプル集合から、学習サンプルを選択する。目標予測器補正部34が、目標予測器集合、及び選択学習サンプルを用いて、学習サンプル付随情報に基づいて、目標予測器を構成する決定木に新たなノードを追加するか否かを判定し、選択学習サンプルに適合するように目標予測器集合を補正する。反復判定部36が、反復終了条件を満たすまで、学習サンプル選択部32及び目標予測器補正部34の処理を繰り返し実行させる。
【選択図】図1
【解決手段】事前予測器構成部24が、事前予測器集合を構成する。初期目標予測器設定部30が、初期状態の目標予測器集合を構成する。学習サンプル選択部32が、学習サンプル集合から、学習サンプルを選択する。目標予測器補正部34が、目標予測器集合、及び選択学習サンプルを用いて、学習サンプル付随情報に基づいて、目標予測器を構成する決定木に新たなノードを追加するか否かを判定し、選択学習サンプルに適合するように目標予測器集合を補正する。反復判定部36が、反復終了条件を満たすまで、学習サンプル選択部32及び目標予測器補正部34の処理を繰り返し実行させる。
【選択図】図1
Description
本発明は、予測器学習方法、装置、及びプログラムに関する。
Web、ソーシャルメディア、Machine to Machine (M2M)の普及により、様々な種類のデータが膨大に存在するビッグデータ時代に突入している。それら膨大なデータを処理するビッグデータ処理基盤の重要な構成要素として、データの背後に潜む法則や知識を導き出す機械学習技術への需要が高まっている。機械学習において、大量のデータを集めることは、求めるべき法則や知識を導き出す上で有利になる一方で、そのための計算量が増大するという問題を生じさせる。この計算量増大の問題を解決する一つのアプローチとして、保持する大量のデータをごく小規模の部分データに分割して、分割された部分データに対して逐次的に機械学習モデルを更新する、オンライン学習がある。このオンライン学習の導入により、非常に大規模なデータに対しても高速かつ省メモリでの機械学習が実現可能となる。
このオンライン学習技術として、非特許文献1に記載のMondrian Forestsが知られている。このMondrian Forestsは、機械学習における主要な問題の一つである分類問題に適した技術であり、決定木を弱学習器として用いるアンサンブル学習器として広く知られているrandom forestsを、オンラインで学習する方法を提供している。より具体的には、(1)決定木の各ノードが当該ノードに到達した学習サンプルが存在する範囲に関する情報を保持し(図13)、(2)与えられた部分データに適合するように決定木を更新する際に、決定木の構造をすべて更新するのではなく、学習サンプルに関する範囲情報を参照することで、更新が必要と判断されたノードとその周辺のみでノードを追加もしくは更新する(図14)。これにより、計算コストを抑えた効率的な学習手段を提供するものである。
Lakshminarayanan, Roy, and Teh , "Mondrian forests: Efficient online random forests," Advances in Neural Information Processing Systems, pp. 3140-3148, 2014.
しかし、非特許文献1に記載のMondrian Forestsは、ノードの追加更新が必要であるかどうかを判断する際に、分類問題の教師信号であるラベル情報を用いていない。そのため、ラベル情報を適切に把握できていれば追加更新が不要であったノードも追加更新が必要と判断されることになり、決定木が不必要に大きくなる問題が生じる(図15)。決定木が大きくなると、その保持のために必要となるメモリ量が増大するだけではなく、学習が完了したrandom forestsを分類に用いる際に、その計算コストが増大し、場合によっては分類性能も低下する。
本発明は、上記の事情を考慮してなされたものであり、予測器を構成する決定木が不必要に大きくならないように、予測器を学習することができる予測器学習方法、装置、及びプログラムを提供することにある。
本発明に係る予測器学習方法は、多次元ベクトルとして表現される学習サンプル特徴量と前記学習サンプル特徴量の付随情報である学習サンプル付随情報とで構成される学習サンプルの集合である学習サンプル集合から、前記多次元ベクトルと前記付随情報との関係性を表現する、決定木によって構成された予測器である出力予測器の集合である出力予測器集合を構築する予測器学習方法であって、事前予測器構成部が、前記出力予測器を構成するための初期的な予測器である事前予測器の集合である事前予測器集合を構成する、事前予測器構成ステップと、初期目標予測器設定部が、前記事前予測器集合から初期状態の目標予測器集合を構成する、初期目標予測器設定ステップと、学習サンプル選択部が、前記学習サンプル集合から、任意に学習サンプルを選択するか、もしくは与えられた順序で学習サンプルを選択する、学習サンプル選択ステップと、目標予測器補正部が、前記目標予測器集合、及び前記学習サンプル選択部によって選択された学習サンプルである選択学習サンプルを用いて、前記選択学習サンプルに適合するように前記目標予測器集合を補正する、目標予測器補正ステップと、反復判定部が、予め定められた反復終了条件を満たすまで、前記学習サンプル選択部による学習サンプル選択ステップ、及び前記目標予測器補正部による目標予測器補正ステップを繰り返し実行させる、反復判定ステップと、を含み、前記目標予測器補正ステップでは、前記目標予測器補正部が、前記選択学習サンプルに適合するように目標予測器を補正する際に、前記選択学習サンプルの前記学習サンプル付随情報に基づいて、前記目標予測器を構成する決定木に新たなノードを追加するか否かを判定し、新たなノードを追加すると判定された場合、前記目標予測器を構成する決定木に新たなノードを追加するように前記目標予測器を補正することを特徴とする。
本発明に係る予測器学習装置は、多次元ベクトルとして表現される学習サンプル特徴量と前記学習サンプル特徴量の付随情報である学習サンプル付随情報とで構成される学習サンプルの集合である学習サンプル集合から、前記多次元ベクトルと前記付随情報との関係性を表現する、決定木によって構成された予測器である出力予測器の集合である出力予測器集合を構築する予測器学習装置であって、前記出力予測器を構成するための初期的な予測器である事前予測器の集合である事前予測器集合を構成する、事前予測器構成部と、前記事前予測器集合から初期状態の目標予測器集合を構成する、初期目標予測器設定部と、前記学習サンプル集合から、任意に学習サンプルを選択するか、もしくは与えられた順序で学習サンプルを選択する、学習サンプル選択部と、前記目標予測器集合、及び前記学習サンプル選択部によって選択された学習サンプルである選択学習サンプルを用いて、前記選択学習サンプルに適合するように前記目標予測器集合を補正する、目標予測器補正部と、予め定められた反復終了条件を満たすまで、前記学習サンプル選択部による選択、及び前記目標予測器補正部による補正を繰り返し実行させる、反復判定部と、を含み、前記目標予測器補正部は、前記選択学習サンプルに適合するように目標予測器を補正する際に、前記選択学習サンプルの前記学習サンプル付随情報に基づいて、前記目標予測器を構成する決定木に新たなノードを追加するか否かを判定し、新たなノードを追加すると判定された場合、前記目標予測器を構成する決定木に新たなノードを追加するように前記目標予測器を補正することを特徴とする。
本発明に係るプログラムは、コンピュータに、上記の予測器学習方法の各ステップを実行させるためのプログラムである。
以上説明したように、本発明の予測器学習方法、装置、及びプログラムによれば、前記選択学習サンプルに適合するように目標予測器を補正する際に、前記選択学習サンプルの前記学習サンプル付随情報に基づいて、前記目標予測器を構成する決定木に新たなノードを追加するか否かを判定することにより、予測器を構成する決定木が不必要に大きくならないように、予測器を学習することができる、という効果が得られる。
以下、図面を参照して本発明の実施の形態を詳細に説明する。本発明の実施の形態では、多次元ベクトルとして表現される学習サンプル特徴量とその付随情報である学習サンプル付随情報とで構成される学習サンプルの集合である学習サンプル集合から、特徴量と付随情報との関連性を決定木によって表現する出力予測器の集合である出力予測器集合を構築する予測器学習装置に、本発明を適用した場合を例に説明する。
[第1の実施の形態]
<システム構成>
図1は、本発明の第1の実施の形態に係る予測器学習装置100を示すブロック図である。予測器学習装置100は、学習サンプル集合を入力し、出力予測器集合を学習する装置であり、具体的にはCPU(Central Processing Unit)と、RAMと、後述する予測器学習処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
<システム構成>
図1は、本発明の第1の実施の形態に係る予測器学習装置100を示すブロック図である。予測器学習装置100は、学習サンプル集合を入力し、出力予測器集合を学習する装置であり、具体的にはCPU(Central Processing Unit)と、RAMと、後述する予測器学習処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
予測器学習装置100は、入力部10、演算部20、及び出力部40を備えている。
入力部10は、多次元ベクトルとして表現される学習サンプル特徴量とその付随情報である学習サンプル付随情報とで構成される学習サンプルの集合である学習サンプル集合を受け付ける。
学習サンプル付随情報の具体的な内容は、目的とする予測器によって異なる。目的の予測器が分類器、すなわち多次元ベクトルからクラスラベルを予測する分類問題を解くための予測器を構築する場合には、学習サンプル付随情報にクラスラベルを含む必要がある。また、目的の予測器が回帰器、すなわち多次元ベクトルから目標値を予測する回帰問題を解くための予測器を構築する場合には、学習サンプル付随情報に目標値を含む必要がある。付随情報に含まれる情報はこの限りではなく、予測器を構築する上で有用な情報であればいかなる形態の情報も利用可能である。
演算部20は、事前予測器構成部24及び目標予測器構成部26を備えている。
事前予測器構成部24は、入力部10によって受け付けた学習サンプル集合を必要に応じて入力し、出力予測器を構成するための初期的予測器である事前予測器の集合である事前予測器集合を構成し、この事前予測器集合を出力する。
事前予測器集合を構成する方法は特に限定されるものではないが、以下では2通りの方法について述べる。
第1の方法は、学習サンプル集合を用いずに決定木を構成し、これを事前予測器とする方法である。例えば、ただ1つのノードで決定木を構成するなどの方法が考えられる。本実施形態における決定木のノードは、以下に示す分岐関数、学習サンプル存在範囲情報、及び学習サンプル関係性情報の3つの情報を保持する。
(1)分岐関数は、サンプルを当該ノードからその子ノードに移動させる際に、どちらの子ノードを選択するべきかを決定するための関数である。例えば、多次元ベクトルを入力とする識別関数
(ただし、tとmはそれぞれ決定木とノードのインデックス、Cはクラス数)が用いられ、多次元ベクトル
に対する識別関数の応答ft,m(x)が閾値θt,mより小さいときに左の子ノードに移動させ、そうでないときに右の子ノードに移動させる。
(ただし、tとmはそれぞれ決定木とノードのインデックス、Cはクラス数)が用いられ、多次元ベクトル
に対する識別関数の応答ft,m(x)が閾値θt,mより小さいときに左の子ノードに移動させ、そうでないときに右の子ノードに移動させる。
(2)学習サンプル存在範囲情報は、当該ノードに到達した学習サンプルが存在する範囲である。例えば、学習サンプル特徴量の各次元における最小値と最大値によって範囲が記述される。
(3)学習サンプル関係性情報は、当該ノードに到達した学習サンプルにおける多次元ベクトルと付随情報との関係性を記述した情報である。目的の予測器が分類器である場合には、例えば、当該ノードに到達した学習サンプルのクラスラベルの頻度を学習サンプル関係性情報として保持する。また、目的の予測器が回帰器である場合には、例えば、当該ノードに到達した学習サンプルに含まれる多次元ベクトルと目標値から学習した、多次元ベクトルから目標値を予測する回帰関数
を学習サンプル関係性情報として保持する。
を学習サンプル関係性情報として保持する。
また、決定木の各ノードは、それまでに当該ノードに到達した学習サンプルの履歴を保持する。
本方法では学習サンプル集合を用いずに事前予測器の決定木を構成するため、分岐関数及び学習サンプル存在範囲情報を設定せずに、学習サンプル関係性情報をランダムに決定するなどの方法で設定する。
第2の方法は、学習サンプル集合の一部を事前サンプル集合として抽出し、事前サンプル集合を用いて事前予測器を構成する方法である。具体的な構成方法は特に限定されるものではないが、例えば、目的の予測器が分類器の場合には非特許文献2の方法で事前予測器を構成でき、目的の予測器が回帰器の場合には非特許文献3に記載の方法で事前予測器を構成できる。
[非特許文献2]:Breiman, “Random forests,” Machine Learning, Vol.45, pp.5-32, 2001.
[非特許文献3]:Criminisi, Shotton and Konukoglu, “Decision forests: A unified framework for classification, regression, density estimation, manifold learning and semi-supervised learning,” Foundations and Trends in Computer Graphics and Vision, Vol.7, No.2-3, pp.81-237, 2012.
目標予測器構成部26は、学習サンプル集合及び事前予測器集合を入力し、学習サンプル集合に適合した予測器である目標予測器の集合である目標予測器集合を、事前予測器集合を基に構成し、この目標予測器集合を出力予測器集合として出力する。
目標予測器の構成方法は特に限定されるものではないが、本実施形態では、目標予測器構成部26が、初期目標予測器設定部30と、学習サンプル選択部32と、目標予測器補正部34と、反復判定部36とを含んで構成される場合を例に説明する。
初期目標予測器設定部30は、事前予測器集合を入力し、この事前予測器集合を用いて、目標予測器集合の初期状態を設定し、この目標予測器集合を出力する。
目標予測器集合の初期状態を設定する方法は特に限定されるものではないが、本実施形態では、事前予測器集合をそのまま目標予測器集合の初期状態とする。
学習サンプル選択部32は、学習サンプル集合を入力し、学習サンプル集合から任意に選択し、もしくは与えられた順序で学習サンプルを選択し、選択された学習サンプルである選択学習サンプルを出力する。
選択学習サンプルを選択する方法は特に限定されるものではないが、本実施形態では、実用上重要となる以下の2つの方法について述べる。
第1の方法は、学習サンプル集合にあらかじめ順序が定められており、その順序に従って選択学習サンプルを選ぶ方法である。本方法は、学習サンプル集合が最初からすべて与えられるのではなく、オンラインで順に入力される場合に適している。
第2の方法は、学習サンプル集合からランダムに選択する方法である。本方法は、学習サンプル集合がすべて与えられている場合に採用可能である。
目標予測器補正部34は、これまでに構成された目標予測器集合及び選択学習サンプルを入力し、選択学習サンプルに適合するように目標予測器集合を補正し、補正した目標予測器集合を出力する。
目標予測器集合を補正する方法は特に限定されるものではないが、本実施形態においては、図2に示すように、目標予測器補正部34が、選択学習サンプル入力部50と、新規ノード追加判定部52と、新規ノード追加部54と、注目ノード更新部56と、目標予測器更新部58とを含んで構成されている場合を例に説明する。
選択学習サンプル入力部50は、選択学習サンプル及び目標予測器集合を入力し、目標予測器集合の各目標予測器を構成する決定木の根ノードに選択学習サンプルを与え、選択学習サンプルが位置するノードを注目ノードとして設定し、目標予測器ごとに設定された注目ノードをまとめた集合である注目ノード集合を出力する。すなわち、選択学習サンプル入力部50の出力は、各目標予測器を構成する決定木の根ノードの集合となる。
新規ノード追加判定部52は、選択学習サンプル、目標予測器集合、及び注目ノード集合を入力し、注目ノードにおける学習サンプル存在範囲情報、及び学習サンプル関係性情報を参照することで、注目ノードの親もしくは子に新たなノードを追加するかどうかを判定し、目標予測器ごとに得られた判定結果であるノード追加判定結果をまとめた集合であるノード追加判定結果集合を出力する。
ノード追加の判定方法は特に限定されるものではないが、本実施形態においては、選択学習サンプルを構成する学習サンプル付随情報である選択学習サンプル付随情報と、注目ノードにおける学習サンプル存在範囲情報及び学習サンプル関係性情報とを利用した方法について述べる。非特許文献1に示す方法では、ノード追加の判定に学習サンプル存在範囲情報のみを利用していたが、本実施形態では、さらに、選択学習サンプル付随情報、及び学習サンプル関係性情報を利用することで、不必要に新規ノードを追加することを防ぐことが可能となる。
図3に、新規ノード追加判定部52による判定方法の概要を示す。
(1)まず、現在の注目ノードにおける学習サンプル存在範囲情報から、現在の選択学習サンプル特徴量が存在範囲の中にあるかどうかを判断する。選択学習サンプル特徴量が存在範囲の中にあるときには、「新規ノードを追加せず、注目ノードの情報も更新しない」ことを示すノード追加判定結果を出力する。
(2)存在範囲の外にある場合、さらに、現在の注目ノードの学習サンプル関係性情報を用いてノードを追加するかどうかを判定する。
(2−1)目的の予測器が分類器である場合、学習サンプル関係性情報から、現在の注目ノードにおける最頻クラスラベルを知ることができる。この最頻クラスラベルが選択学習サンプル付随情報、すなわち選択学習サンプルのクラスラベルと一致する場合には、「新規ノードは追加しないが、注目ノードの情報は更新する」ことを示すノード追加判定結果を出力する。一致しない場合には、「新規ノードを追加し、注目ノードの情報も更新する」ことを示すノード追加判定結果を出力する。
(2−2)目的の予測器が回帰器である場合、学習サンプル関係性情報から回帰関数gt,mが得られる。このとき、例えば、この回帰関数を用いて選択学習サンプル特徴量から推定した目標値と、選択学習サンプル付随情報を構成する目標値との差が、あらかじめ定められた閾値よりも大きくなる際に、「新規ノードを追加し、注目ノードの情報も更新する」ことを示すノード追加判定結果を出力する。そうでない場合には、「新規ノードは追加しないが、注目ノードの情報は更新する」ことを示すノード追加判定結果を出力する。
上述した新規ノード追加判定を目標予測器ごとに実行し、ノード追加判定結果集合を得る。
新規ノード追加部54は、選択学習サンプル、目標予測器集合、注目ノード集合、及びノード追加判定結果集合を入力し、ノード追加判定結果に応じて注目ノードが属する目標予測器に新規ノード(追加ノード)を追加すると共に、ノード追加判定結果に応じて、追加ノード、注目ノード、及びそれらの子ノードが保持する情報を更新し、更新された目標予測器集合を出力する。
新規ノードの追加及びノード情報の更新についての方法は、特に限定されるものではないが、本実施形態では、例えば以下のような方法を採用する。
まず、新規ノードの追加方法について述べる。ノード追加判定結果において新規ノードを追加すると判定された場合にのみ、新規ノードを追加し、そうでない場合には何もしない。
(1)まず、分岐関数ft,mと選択学習サンプル特徴量xを用いて、選択学習サンプルがどちらの子ノードに移動することになるかを判定する。判定方法は事前予測器構成部24と同様である。
(2)次に、移動先として指定された子ノードと注目ノードとの間に新規に追加ノードを追加する。以降の説明の便宜上、本追加ノードを追加ノードAと呼ぶ。すなわち、この追加ノードAは、注目ノードの子であり、移動先ノードの親となる。
(3)続いて、この追加ノードAの子に葉ノードを追加する。この葉ノードを追加ノードBと呼ぶ。ここまでの操作によって、追加ノードA及び追加ノードBの2個が追加され、更新前の目標予測器が二分決定木であれば更新後の予測器も二分決定木となる。
(4)さらに、二つの追加ノードに、分岐関数、学習サンプル存在範囲情報、及び学習サンプル関係性情報を設定する。追加ノードBは葉ノードであり、現在の選択学習サンプルのみが到達する。そのため、追加ノードBについては、分岐関数及び学習サンプル存在情報を設定せず、学習サンプル関係性情報を現在の選択学習サンプルのみから計算して設定する。一方、追加ノードAには、追加ノードBではない子ノードに到達したサンプルに加え、現在の選択学習サンプルが到達する。そのため、追加ノードAでは、分岐関数が追加ノードBではない子ノードに到達したサンプルと現在の選択学習サンプルとを識別するように設定され、学習サンプル存在範囲情報及び学習サンプル関係性情報が、追加ノードBではない子ノードに到達したサンプルと現在の選択学習サンプルとから計算される。
ノード追加判定結果において注目ノードを更新すると判定された場合には、注目ノードの分岐関数、学習サンプル存在範囲情報、及び学習サンプル関係性情報を更新する。
学習サンプル存在範囲情報は、現在の選択学習サンプルを含むように範囲を拡げることで更新する。学習サンプル関係性情報は、これまでに注目ノードに到達した学習サンプルに加えて、選択学習サンプルを含むように更新される。目的の予測器が分類器である場合には、注目ノードが保持していた学習サンプル関係性情報、すなわちクラスラベルの頻度分布に、現在の選択学習サンプル付随情報、すなわちクラスラベルを1つ追加することで更新できる。目的の予測器が回帰器である場合には、注目ノードに到達した学習サンプルと選択学習サンプルを合わせた集合から、回帰関数gt,mを予測し直すことで更新する。
分岐関数は、学習サンプル付随情報を考慮して更新する。非特許文献1に記載の方法では、学習サンプル付随情報を用いずに分岐関数を更新するため、目的の予測器を改善する分岐関数を設計できるとは限らない。それに対し本実施形態の方法では、学習サンプル付随情報を用いることでこの問題を解決する。具体的な方法は以下の通りである。
(1)まず、分岐関数の候補をランダムに複数生成する。このとき、分岐関数に利用する多次元ベクトルの次元の位置や個数に制約を設けることも可能である。
(2)次に、評価関数を用いてこれら生成した分岐関数候補を評価する。目的の予測器が分類器である場合には、以下の式に示す情報利得を評価関数とする。
ここで、SLは注目ノードの一方の子ノードに到達した学習サンプルの集合、SRは注目ノードのもう一方の子ノードに到達した学習サンプルの集合、E(S)は学習サンプル集合Sについての情報エントロピー、pc(S)はクラスラベルcを持つ学習サンプル集合S内のサンプル数の比率を、それぞれ表す。目的の予測器が回帰器である場合には、以下の式に示す、回帰偏差に関する評価関数を利用する。
ここで、y(s)は学習サンプルsを構成する学習サンプル付随情報、すなわち回帰の目標値である。
(3)そして、評価関数の出力値が最大となる分岐関数候補を分岐関数として決定する。
上記の通り、目標予測器ごとに新規ノードの追加及びノード情報の更新を行い、更新された目標予測器集合を出力する。
注目ノード更新部56は、目標予測器集合、選択学習サンプル、及び注目ノード集合を入力し、目標予測器ごとに、選択学習サンプル及び注目ノードの学習サンプル関係性情報を用いて、現在の注目ノードの子のいずれかに注目ノードを移動し、移動後の注目ノードをまとめた注目ノード集合を出力する。
注目ノードの更新方法は特に限定されるものではないが、本実施形態では、例えば、選択学習サンプル特徴量xを分岐関数ft,mに与えることで、選択学習サンプルをどちらの子ノードに移動させるかを決定し、移動先の子ノードを注目ノードとする方法が考えられる。
目標予測器更新部58は、新規ノード追加判定部52、新規ノード追加部54、及び注目ノード更新部56の各処理を、注目ノードが葉ノードに到達するまで繰り返し実行させ、最終的に注目ノードとなった葉ノードの学習サンプル存在範囲情報及び学習サンプル関係性情報を更新することで各目標予測器を更新し、更新された目標予測器をまとめた目標予測器集合を出力する。学習サンプル存在範囲情報及び学習サンプル関係性情報の更新方法は、新規ノード追加部54と同様である。
以上の方法により、目標予測器補正部34は、目標予測器集合を補正し、補正した目標予測器集合を出力する。
反復判定部36は、予め定められた反復終了条件を満たすまで、学習サンプル選択部32及び目標予測器補正部34の各処理を繰り返し実行させ、最終的な目標予測器集合を出力部40により出力する。
以上の方法により、目標予測器構成部26は、目標予測器集合を構成し、この目標予測器集合を出力予測器集合として出力する。
<予測器学習装置の作用>
次に、第1の実施の形態に係る予測器学習装置100の作用について説明する。まず、学習サンプル集合が、予測器学習装置100に入力されると、予測器学習装置100によって、図4に示す予測器学習処理ルーチンが実行される。
次に、第1の実施の形態に係る予測器学習装置100の作用について説明する。まず、学習サンプル集合が、予測器学習装置100に入力されると、予測器学習装置100によって、図4に示す予測器学習処理ルーチンが実行される。
まず、ステップS100において、事前予測器構成部24が、事前予測器集合を構成する。
ステップS102では、初期目標予測器設定部30が、上記ステップS100で構成された事前予測器集合を用いて、目標予測器集合の初期状態を設定する。
そして、ステップS104において、学習サンプル選択部32が、入力された学習サンプル集合を入力し、学習サンプル集合から任意にもしくは与えられた順序で学習サンプルを選択し、選択された学習サンプルである選択学習サンプルを出力する。
ステップS106では、目標予測器補正部34が、上記ステップS102で設定された、又はステップS106で前回補正された目標予測器集合、及び上記ステップS104で選択された選択学習サンプルを入力し、選択学習サンプルに適合するように目標予測器集合を補正し、補正した目標予測器集合を出力する。
ステップS108では、予め定められた反復終了条件を満たしたか否かを判定し、反復終了条件を満たしていない場合には、上記ステップS104へ戻り、ステップS104、S106の処理を繰り返す。一方、反復終了条件を満たした場合には、ステップS110において、最終的な目標予測器集合を出力部40により出力して、予測器学習処理ルーチンを終了する。
上記ステップS106は、目標予測器集合の各目標予測器について、図5に示す処理ルーチンを実行することにより実現される。
ステップS120において、選択学習サンプル入力部50は、上記ステップS104で選択された選択学習サンプル、及び上記ステップS102で設定された、又はステップS106で前回補正された当該目標予測器を入力し、当該目標予測器を構成する決定木の根ノードに選択学習サンプルを与え、選択学習サンプルが位置するノードを注目ノードとして設定する。
ステップS122では、新規ノード追加判定部52は、上記ステップS104で選択された選択学習サンプル、上記ステップS102で設定された、又はステップS106で前回補正された当該目標予測器、及び上記ステップS120又はステップS128で設定された注目ノードを入力し、注目ノードにおける学習サンプル存在範囲情報、及び学習サンプル関係性情報を参照することで、注目ノードの親もしくは子に新たなノードを追加するか否か、及び注目ノードの情報を更新するか否かを判定し、ノード追加判定結果を出力する。
「新規ノードを追加せず、注目ノードの情報も更新しない」と判定された場合には、ステップS128へ移行する。「新規ノードは追加しないが、注目ノードの情報は更新する」と判定された場合には、ステップS126へ移行する。
「新規ノードを追加し、注目ノードの情報も更新する」と判定された場合には、ステップS124へ移行する。
ステップS124では、新規ノード追加部54は、上記ステップS104で選択された選択学習サンプル、上記ステップS102で設定された、又はステップS106で前回補正された当該目標予測器、及び上記ステップS120又はステップS128で設定された注目ノードを入力し、注目ノードが属する目標予測器に新規ノード(追加ノード)を追加する。
ステップS126では、新規ノード追加部54は、上記ステップS104で選択された選択学習サンプル、上記ステップS102で設定された、又はステップS106で前回補正された当該目標予測器、及び上記ステップS120又はステップS128で設定された注目ノードを入力し、追加ノード、注目ノード、及びそれらの子ノードが保持する情報を更新して、更新された当該目標予測器を出力する。
ステップS128では、注目ノード更新部56が、上記ステップS106で補正された当該目標予測器、上記ステップS104で選択された選択学習サンプル、及び上記ステップS120又はステップS128で設定された注目ノードを入力し、選択学習サンプル及び注目ノードの学習サンプル関係性情報を用いて、現在の注目ノードの子のいずれかに注目ノードを移動し、注目ノードを設定する。
ステップS130では、目標予測器更新部58は、注目ノードが葉ノードに到達したか否かを判定し、注目ノードが葉ノードに到達していない場合には、上記ステップS122へ戻り、ステップS122〜ステップS128の処理を繰り返す。一方、注目ノードが葉ノードに到達した場合には、ステップS122〜ステップS128の処理の繰り返しを終了して、ステップS132へ移行し、最終的に注目ノードとなった葉ノードの学習サンプル存在範囲情報及び学習サンプル関係性情報を更新することで当該目標予測器を更新して、処理ルーチンを終了する。
以上説明したように、第1の実施の形態に係る予測器学習装置によれば、目標予測器集合の各目標予測器について、選択学習サンプルに適合するように目標予測器を補正する際に、選択学習サンプルの学習サンプル付随情報に基づいて、目標予測器を構成する決定木に新たなノードを追加するか否かを判定することにより、予測器を構成する決定木が不必要に大きくならないように、予測器を学習することができる。
また、本実施の形態では、Mondrian Forestsによるrandom forestsのオンライン学習において、新規ノード追加判定部52が、現在注目するノードの周辺でノードを追加もしくは更新する必要があるかどうかを、学習サンプル付随情報を考慮して決定し、新規ノード追加部54が、ノードを追加もしくは更新する際に、当該ノードに到達したサンプルがいずれの子ノードに進むべきかを決定するための分岐関数を、学習サンプル付随情報を考慮して決定することにより、ラベル情報を適切に考慮して、学習に要する計算コストを大幅に増大させることなく、決定木が不必要に大きくなることを防ぐことができる。
[第2の実施の形態]
<システム構成>
次に、本発明の第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
<システム構成>
次に、本発明の第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。
第2の実施の形態では、予測器集合を学習する処理を、並列分散処理により行う点が、第1の実施の形態と異なっている。
図6に示すように、第2の実施の形態に係る予測器学習装置200の演算部220は、学習サンプル集合記憶部22、事前予測器構成部24、初期目標予測器設定部230、学習サンプル分配部232、複数の目標予測器構成部226、目標予測器集約部227、及び目標予測器順次補正部228を備えている。
学習サンプル集合記憶部22には、入力部10によって受け付けた学習サンプル集合が格納される。
本実施形態では、学習サンプル集合は、出力予測器集合を構成する前に利用する事前サンプル集合と、出力予測器集合を構成するために利用する目標サンプル集合という、2つの異なるサンプル集合によって構成されるものとする。
事前予測器構成部24は、学習サンプル集合記憶部22に格納されている事前サンプル集合を必要に応じて入力し、出力予測器を構成するための初期的予測器である事前予測器の集合である事前予測器集合を構成し、この事前予測器集合を出力する。
事前予測器集合を構成する方法は特に限定されるものではないが、本実施形態では、第1の実施形態で説明した第2の方法、すなわち、事前サンプル集合を用いて事前予測器を構成する方法を採用する。
初期目標予測器設定部230は、目標予測器集合を所定の数だけ構成し、構成された目標予測器集合を、分配目標予測器集合と呼ぶこととする。なお、目標予測器集合を構成する方法は、第1の実施形態と同様である。なお、第1の実施形態と同様に目標予測器集合を1つ構成するようにしてもよい。
初期目標予測器設定部230は、2回目以降の場合、すなわち、目標予測器順次補正部228から戻る際、目標予測器集約部227で構成された目標予測器集合を分割あるいは複製することで、複数の分配目標予測器集合を構成する。
学習サンプル分配部232は、学習サンプル集合記憶部22に記憶されている学習サンプル集合を入力し、学習サンプル集合を複数の集合に分割し、この分割されたサンプル集合である分配学習サンプル集合を複数構成して出力する。
分配学習サンプル集合を構成する方法については、特に限定されるものではないが、例えば、目標サンプル集合を所定の数で分割する方法、目標サンプル集合の中から所定の数のサンプルを選択する方法などが考えられる。
複数の目標予測器構成部226は、並列分散処理により、複数の分配学習サンプル集合及び複数の分配目標予測器集合から、複数の分配目標予測器集合を構成する。目標予測器構成部226の各々は、分配学習サンプル集合及び分配目標予測器集合を入力し、分配目標予測器集合を基に、分配学習サンプル集合に適合するように分配目標予測器集合を構成し出力する。
目標予測器の構成方法は特に限定されるものではないが、本実施形態では、図7に示すように、目標予測器構成部226が、学習サンプル選択部32、目標予測器補正部34、及び反復判定部36を含んで構成されている場合を例に説明する。
学習サンプル選択部32は、第1の実施形態とほぼ同様であるが、分配学習サンプル集合を入力とする点、分配学習サンプル集合からサンプルを選択する点、この2点で異なる。本実施形態においては、学習サンプル選択部32が、分配学習サンプル集合からサンプル選択することから、選択されたサンプルを、分配選択学習サンプルと呼ぶこととする。
目標予測器補正部34は、これまでに構成された分配目標予測器集合及び分配選択学習サンプルを入力し、分配選択学習サンプルに適合するように分配目標予測器集合を補正し、補正した分配目標予測器集合を出力する。
目標予測器補正部34の構成は、入出力の名称が異なる以外は、第1の実施形態とほぼ同様であるが、以下の点に注意する必要がある。すなわち、分配学習サンプル集合が複数構成されることから、分配選択学習サンプルも複数選択される、という点である。これにより、分配目標予測器集合も複数構成され、異なる分配目標予測器集合は異なる分配選択学習サンプルにより更新される。初期目標予測器設定部230で分配目標予測器集合の初期状態を1つしか構成しない場合には、所定の数だけこの初期状態を複製して利用する。
反復判定部36は、第1の実施形態と同様に、予め定められた反復終了条件を満たすまで、学習サンプル選択部32及び目標予測器補正部34の各処理を繰り返し実行させ、最終的な分配目標予測器集合を出力する。
目標予測器集約部227は、複数の目標予測器構成部226から出力された複数の分配目標予測器集合を入力し、これらの分配目標予測器集合を集約することで目標予測器集合を構成し、この目標予測器集合を出力する。
複数の分配目標予測器集合を集約する方法は、特に限定されるものではないが、本実施形態では、以下の2つの方法について説明する。
第1の方法は、入力された複数の分配目標予測器集合を結合し、一つの予測器集合とする方法である。
第2の方法は、複数の分配目標予測器集合を結合した後に、予測性能の低い予測器を削除することで、目標予測器集合を構成する方法である。目的の予測器が分類器である場合には、例えば、非特許文献4に記載された、別途用意した評価用サンプルの事後確率に基づくスコア関数を用いる方法が利用可能である。目的の予測器が回帰器である場合にも類似の方法を適用することができ、事後確率に代えて、予測目標値と真の目標値との誤差に基づくスコア関数を用いれば良い。
[非特許文献4]:若山,木村,山下,山内,藤吉 “並列分散処理における共編量シフトを導入したRandom Forestsの学習,” 電子情報通信学会技術報告,PRMU2014-193,2015年.
目標予測器順次補正部228は、予め定められた反復終了条件を満たすまで、初期目標予測器設定部230、学習サンプル分配部232、複数の目標予測器構成部226、及び目標予測器集約部227の各処理を繰り返し実行させることにより、目標予測器集合を順次補正し、補正された目標予測器集合を出力部40により出力する。
<予測器学習装置の作用>
次に、第2の実施の形態に係る予測器学習装置200の作用について説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
次に、第2の実施の形態に係る予測器学習装置200の作用について説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。
まず、学習サンプル集合が、予測器学習装置200に入力されると、予測器学習装置200によって、入力された学習サンプル集合が、学習サンプル集合記憶部22へ格納される。そして、予測器学習装置200によって、図8に示す予測器学習処理ルーチンが実行される。
まず、ステップS100において、事前予測器構成部24が、事前予測器集合を構成する。
ステップS200では、初期目標予測器設定部230が、上記ステップS100で構成された事前予測器集合を用いて、複数の分配目標予測器集合の初期状態を設定する。
そして、ステップS202において、学習サンプル分配部232が、学習サンプル集合記憶部22に格納されている目標サンプル集合を入力し、複数の分配学習サンプル集合を構成する。
ステップS204では、複数の目標予測器構成部226が、上記ステップS200で設定された、又は後述するステップS210で構成された複数の分配目標予測器集合、及び上記ステップS202で構成された複数の分配学習サンプル集合を入力し、並列分散処理により、複数の分配目標予測器集合を構成する。
ステップS206では、目標予測器集約部227が、上記ステップS204で構成された複数の分配目標予測器集合を集約して、目標予測器集合を構成する。
ステップS208では、予め定められた反復終了条件を満たしたか否かを判定し、反復終了条件を満たしていない場合には、ステップS210において、上記ステップS206で構成された目標予測器集合を用いて、複数の分配目標予測器集合を構成して、上記ステップS202へ戻り、ステップS202〜S206の処理を繰り返す。一方、反復終了条件を満たした場合には、ステップS110において、最終的な目標予測器集合を出力部40により出力して、予測器学習処理ルーチンを終了する。
上記ステップS204は、複数の目標予測器構成部226の各々が、図9に示す処理ルーチンを実行することにより実現される。
ステップS104では、学習サンプル選択部32が、上記ステップS202で構成された分配学習サンプル集合を入力し、分配学習サンプル集合から任意にもしくは与えられた順序で学習サンプルを選択し、選択された学習サンプルである分配選択学習サンプルを出力する。
ステップS212では、目標予測器補正部34が、上記ステップS200で設定された、又は上記ステップS210で構成された、又は前回補正された分配目標予測器集合、及び上記ステップS104で選択された分配選択学習サンプルを入力し、分配選択学習サンプルに適合するように分配目標予測器集合を補正し、補正した分配目標予測器集合を出力する。
ステップS108では、予め定められた反復終了条件を満たしたか否かを判定し、反復終了条件を満たしていない場合には、上記ステップS104へ戻り、ステップS104、S212の処理を繰り返す。一方、反復終了条件を満たした場合には、ステップS214において、最終的な分配目標予測器集合を出力して、処理ルーチンを終了する。
上記ステップS212は、分配目標予測器集合の各目標予測器について、第1の実施の形態と同様に、上記図5に示す処理ルーチンを実行することにより実現される。
以上説明したように、第2の実施の形態に係る予測器学習装置によれば、複数の目標予測器構成部226が、並列分散処理により、複数の分配目標予測器集合を構成することにより、効率的に目標予測器集合を学習することができる。
<実験結果>
上述した第2の実施の形態の手法を検証するために、UCI Machine Learning Repositoryで配布されているデータセットの一つであるLetter Recognitionデータセットを用いた。このLetter Recognitionデータセットは、サンプル数20000、特徴次元数16、クラス数26の分類問題用のデータセットである。このデータセットのうち、事前サンプルとして所定の数(以降で別途定める)、目標サンプルとして9335個、評価用サンプルとして6000個のサンプルを、それぞれに選択して利用した。
上述した第2の実施の形態の手法を検証するために、UCI Machine Learning Repositoryで配布されているデータセットの一つであるLetter Recognitionデータセットを用いた。このLetter Recognitionデータセットは、サンプル数20000、特徴次元数16、クラス数26の分類問題用のデータセットである。このデータセットのうち、事前サンプルとして所定の数(以降で別途定める)、目標サンプルとして9335個、評価用サンプルとして6000個のサンプルを、それぞれに選択して利用した。
上記のように選択した事前サンプルと目標サンプルを用いて、(事前+目標)予測器の学習に要する計算時間と、学習した予測器を用いて評価用サンプルを分類した際の分類誤差を、いくつかの方法で計測して比較した。並列分散学習を行う際のワーカノードの数と分配学習サンプル集合の数は同一とし、1から10まで変化させて計算時間と分類誤差を計測した。
比較対象となる従来手法(RF)はいずれもrandom forestに基づく手法である。
従来手法(RF)は、Random forestを並列分散処理で学習する既存手法(非特許文献1、2など)に対応している。具体的には、以下のように学習した。目標予測器を構成する際には、学習サンプル分配部で各ワーカノードに分配された分配学習サンプル集合のみを用いて、通常のrandom forestを用いて目標予測器を構成する。予測器を集約する際には、各ワーカノードで構成した目標予測器を全て集めることで出力予測器集合を構成する。いずれの手順においても事前予測器集合を用いないため、事前予測器を構成する処理は省略でき、計算時間も分類誤差も事前サンプル集合の数に依存しない。
提案手法(TF2000)は、目標予測器構成部226で事前サンプルを2000個としたときの提案方法であり、提案手法(TF4000)は、目標予測器構成部226で事前サンプルを4000個としたときの提案方法である。
Random forestを構成するパラメータはいずれの手法においても同一とし、決定木の総数を50、決定木の深さを15とした。
計算時間及び分類誤差の比較を図10、図11に示す。図10、図11では、従来手法 (RF)と提案手法 (TF2000/4000)の比較を示している。図11の横軸がワーカノードの数、縦軸が各性能を示す。実線が予測器の学習に要した計算時間、破線が学習した予測器で評価用サンプルを分類した際の分類誤差を、それぞれ示す。
全体的な傾向として、ワーカノードの数を増やす(横軸を右に移動する)と、計算時間は減少し、分類誤差は悪化することが見て取れる。また、提案手法 (TF2000/4000)は、従来手法 (RF)と比較して、計算時間がやや増加するものの、その差はワーカノードの数を増やすことで減少し、分類誤差が数%改善することが見て取れる。提案手法のみで比較すると、ワーカノードの数が多くなるに従って、事前サンプル数による分類誤差の差がほとんどなくなることもわかる。
また、事前サンプル数を100,2000,4000,6000と変動させた際の計算時間と分類誤差を図12に示す。横軸がワーカノードの数、縦軸が各性能、実線が計算時間、破線が分類誤差である点は、図11と同様である。各線はそれぞれ、事前サンプル数が100, 2000, 4000, 6000としたときの性能をそれぞれ示す。
この図12から、事前サンプル数が多くなるほど、計算時間が短く、分類誤差が良くなる傾向があることがわかる。また、図11と比較することにより、事前サンプル数が極端に少ない場合(100)には、分類誤差が従来手法(RF)よりも悪化する場合もあることを示している。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、上記第2の実施の形態では、予測器学習装置の複数の目標予測器構成部226が、並列分散処理により、複数の分配目標予測器集合を構成する場合を例に説明したが、これに限定されるものではなく、複数の装置が、並列分散処理により、複数の分配目標予測器集合を構成するようにしてもよい。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 入力部
20、220 演算部
22 学習サンプル集合記憶部
24 事前予測器構成部
26 目標予測器構成部
30 初期目標予測器設定部
32 学習サンプル選択部
34 目標予測器補正部
36 反復判定部
40 出力部
50 選択学習サンプル入力部
52 新規ノード追加判定部
54 新規ノード追加部
56 注目ノード更新部
58 目標予測器更新部
100,200 予測器学習装置
226 目標予測器構成部
227 目標予測器集約部
228 目標予測器順次補正部
230 初期目標予測器設定部
232 学習サンプル分配部
20、220 演算部
22 学習サンプル集合記憶部
24 事前予測器構成部
26 目標予測器構成部
30 初期目標予測器設定部
32 学習サンプル選択部
34 目標予測器補正部
36 反復判定部
40 出力部
50 選択学習サンプル入力部
52 新規ノード追加判定部
54 新規ノード追加部
56 注目ノード更新部
58 目標予測器更新部
100,200 予測器学習装置
226 目標予測器構成部
227 目標予測器集約部
228 目標予測器順次補正部
230 初期目標予測器設定部
232 学習サンプル分配部
Claims (8)
- 多次元ベクトルとして表現される学習サンプル特徴量と前記学習サンプル特徴量の付随情報である学習サンプル付随情報とで構成される学習サンプルの集合である学習サンプル集合から、前記多次元ベクトルと前記付随情報との関係性を表現する、決定木によって構成された予測器である出力予測器の集合である出力予測器集合を構築する予測器学習方法であって、
事前予測器構成部が、前記出力予測器を構成するための初期的な予測器である事前予測器の集合である事前予測器集合を構成する、事前予測器構成ステップと、
初期目標予測器設定部が、前記事前予測器集合から初期状態の目標予測器集合を構成する、初期目標予測器設定ステップと、
学習サンプル選択部が、前記学習サンプル集合から、任意に学習サンプルを選択するか、もしくは与えられた順序で学習サンプルを選択する、学習サンプル選択ステップと、
目標予測器補正部が、前記目標予測器集合、及び前記学習サンプル選択部によって選択された学習サンプルである選択学習サンプルを用いて、前記選択学習サンプルに適合するように前記目標予測器集合を補正する、目標予測器補正ステップと、
反復判定部が、予め定められた反復終了条件を満たすまで、前記学習サンプル選択部による学習サンプル選択ステップ、及び前記目標予測器補正部による目標予測器補正ステップを繰り返し実行させる、反復判定ステップと、
を含み、
前記目標予測器補正ステップでは、前記目標予測器補正部が、前記選択学習サンプルに適合するように目標予測器を補正する際に、前記選択学習サンプルの前記学習サンプル付随情報に基づいて、前記目標予測器を構成する決定木に新たなノードを追加するか否かを判定し、新たなノードを追加すると判定された場合、前記目標予測器を構成する決定木に新たなノードを追加するように前記目標予測器を補正することを特徴とする、予測器学習方法。 - 前記目標予測器を構成する決定木の各ノードが、前記多次元ベクトルの各次元における最小値と最大値により決定される範囲情報である学習サンプル存在範囲情報、前記学習サンプルを当該ノードから子ノードへ移動させる際に、何れの子ノードへ移動させるかを決定するための分岐関数、及び当該ノードにおける前記学習サンプル特徴量と前記学習サンプル付随情報との関係性に関する情報である学習サンプル関係性情報を保持し、
前記目標予測器補正ステップは、
選択学習サンプル入力部が、各目標予測器に対し、前記目標予測器を構成する決定木の根ノードに前記選択学習サンプルを入力し、前記選択学習サンプルが位置するノードを注目ノードとして設定する、選択学習サンプル入力ステップと、
新規ノード追加判定部が、各目標予測器に対し、前記選択学習サンプル、前記注目ノードにおける前記学習サンプル存在範囲情報、及び前記学習サンプル関係性情報を用いて,前記注目ノードの親もしくは子に新たなノードを追加するか否かを判定する、新規ノード追加判定ステップと、
新規ノード追加部が、前記新規ノード追加判定部によって前記注目ノードの親もしくは子に新たなノードを追加すると判定された場合に、所定の位置にノードを追加すると共に、追加されたノードである追加ノード、前記注目ノード、並びに前記追加ノード及び前記注目ノードの子ノードの各々における前記学習サンプル存在範囲情報、前記分岐関数、及び前記学習サンプル関係性情報を更新する、新規ノード追加ステップと、
注目ノード更新部が、前記選択学習サンプル、及び前記注目ノードの分岐関数を用いて、現在の注目ノードの子ノードの何れかに注目ノードを移動する、注目ノード更新ステップと、
目標予測器更新部が、前記注目ノードが葉ノードに到達するまで、前記新規ノード追加判定部による新規ノード追加判定ステップ、前記新規ノード追加部による新規ノード追加ステップ、及び前記注目ノード更新部による注目ノード更新ステップを繰り返し実行させ、注目ノードとなった葉ノードの前記学習サンプル存在範囲情報及び前記学習サンプル関係性情報を更新することで、前記目標予測器を構成する決定木を更新する、目標予測器更新ステップと、
を含むことを特徴とする、請求項1に記載の予測器学習方法。 - 前記事前予測器構成ステップでは、前記学習サンプル集合の部分集合である事前サンプル集合を用いて前記事前予測器集合を構成し、
前記学習サンプル選択ステップでは、前記学習サンプル集合に代えて、前記事前サンプル集合とは異なる前記学習サンプルの部分集合である目標サンプル集合から、前記選択学習サンプルを選択することを特徴とする、請求項1又は2に記載の予測器学習方法。 - 学習サンプル分配部が、前記目標サンプル集合を分割して構成した部分集合である分配学習サンプル集合を複数構成する、目標サンプル分配ステップと、
目標予測器集約部が、前記分配学習サンプル集合の各々を用いて構成した目標予測器集合である分配目標予測器集合を入力とし、前記分配目標予測器集合を集約することで、目標予測器集合を構成する、目標予測器集約ステップと、
を更に含み、
前記初期目標予測器設定ステップでは、前記事前予測器集合から、複数の目標予測器集合である分配目標予測器集合を構成し、
前記学習サンプル選択ステップ、前記目標予測器補正ステップ、及び前記反復判定ステップの各々が、並列分散処理で実行され、
前記学習サンプル選択ステップでは、前記学習サンプル集合に代えて前記分配学習サンプル集合を用いて、前記分配学習サンプル集合から前記選択学習サンプルを選択し、
前記目標予測器補正ステップでは、前記目標予測器集合に代えて前記分配目標予測器集合を用いて、前記分配目標予測器集合を補正することを特徴とする、請求項3に記載の予測器学習方法。 - 目標予測器順次補正部が、予め定められた反復終了条件を満たすまで、前記学習サンプル分配部による目標サンプル分配ステップ、前記学習サンプル選択部による学習サンプル選択ステップ、前記目標予測器補正部による目標予測器補正ステップ、前記反復判定部による反復判定ステップ、及び前記目標予測器集約部による目標予測器集約ステップを繰り返し実行させ、
繰り返し実行する際に、前記目標予測器集約部によって構成された前記目標予測器集合から、複数の分配目標予測器集合を構成する目標予測器順次補正ステップを更に含む請求項4に記載の予測器学習方法。 - 前記出力予測器集合を構成する各予測器が、前記多次元ベクトルからクラスラベルを予測する分類予測器、又は前記多次元ベクトルから目標値を予測する回帰予測器である請求項1〜請求項5の何れか1項に記載の予測器学習方法。
- 多次元ベクトルとして表現される学習サンプル特徴量と前記学習サンプル特徴量の付随情報である学習サンプル付随情報とで構成される学習サンプルの集合である学習サンプル集合から、前記多次元ベクトルと前記付随情報との関係性を表現する、決定木によって構成された予測器である出力予測器の集合である出力予測器集合を構築する予測器学習装置であって、
前記出力予測器を構成するための初期的な予測器である事前予測器の集合である事前予測器集合を構成する、事前予測器構成部と、
前記事前予測器集合から初期状態の目標予測器集合を構成する、初期目標予測器設定部と、
前記学習サンプル集合から、任意に学習サンプルを選択するか、もしくは与えられた順序で学習サンプルを選択する、学習サンプル選択部と、
前記目標予測器集合、及び前記学習サンプル選択部によって選択された学習サンプルである選択学習サンプルを用いて、前記選択学習サンプルに適合するように前記目標予測器集合を補正する、目標予測器補正部と、
予め定められた反復終了条件を満たすまで、前記学習サンプル選択部による選択、及び前記目標予測器補正部による補正を繰り返し実行させる、反復判定部と、
を含み、
前記目標予測器補正部は、前記選択学習サンプルに適合するように目標予測器を補正する際に、前記選択学習サンプルの前記学習サンプル付随情報に基づいて、前記目標予測器を構成する決定木に新たなノードを追加するか否かを判定し、新たなノードを追加すると判定された場合、前記目標予測器を構成する決定木に新たなノードを追加するように前記目標予測器を補正することを特徴とする、予測器学習装置。 - コンピュータに、請求項1〜請求項6の何れか1項に記載の予測器学習方法の各ステップを実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016158239A JP2018026020A (ja) | 2016-08-10 | 2016-08-10 | 予測器学習方法、装置、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016158239A JP2018026020A (ja) | 2016-08-10 | 2016-08-10 | 予測器学習方法、装置、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018026020A true JP2018026020A (ja) | 2018-02-15 |
Family
ID=61193922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016158239A Pending JP2018026020A (ja) | 2016-08-10 | 2016-08-10 | 予測器学習方法、装置、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018026020A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020077070A (ja) * | 2018-11-05 | 2020-05-21 | 株式会社リコー | 学習装置および学習方法 |
JP2020077066A (ja) * | 2018-11-05 | 2020-05-21 | 株式会社リコー | 学習装置および学習方法 |
JP2020530607A (ja) * | 2018-03-13 | 2020-10-22 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | 非線形モデルをトレーニングする方法およびシステム |
JP6813231B1 (ja) * | 2019-10-21 | 2021-01-13 | 株式会社エイシング | 制御装置、方法、プログラム及びシステム |
JPWO2021064856A1 (ja) * | 2019-10-01 | 2021-04-08 | ||
JP2021197032A (ja) * | 2020-06-17 | 2021-12-27 | 株式会社エイシング | 制御装置、方法及びプログラム |
JP7502973B2 (ja) | 2020-11-19 | 2024-06-19 | 株式会社日立製作所 | 予測規則校正システム、および予測規則校正方法 |
-
2016
- 2016-08-10 JP JP2016158239A patent/JP2018026020A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020530607A (ja) * | 2018-03-13 | 2020-10-22 | ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド | 非線形モデルをトレーニングする方法およびシステム |
JP2020077070A (ja) * | 2018-11-05 | 2020-05-21 | 株式会社リコー | 学習装置および学習方法 |
JP2020077066A (ja) * | 2018-11-05 | 2020-05-21 | 株式会社リコー | 学習装置および学習方法 |
JP7196542B2 (ja) | 2018-11-05 | 2022-12-27 | 株式会社リコー | 学習装置および学習方法 |
JP7211020B2 (ja) | 2018-11-05 | 2023-01-24 | 株式会社リコー | 学習装置および学習方法 |
JPWO2021064856A1 (ja) * | 2019-10-01 | 2021-04-08 | ||
JP7331937B2 (ja) | 2019-10-01 | 2023-08-23 | 日本電気株式会社 | ロバスト学習装置、ロバスト学習方法、プログラム及び記憶装置 |
JP6813231B1 (ja) * | 2019-10-21 | 2021-01-13 | 株式会社エイシング | 制御装置、方法、プログラム及びシステム |
US11940787B2 (en) | 2019-10-21 | 2024-03-26 | Aising Ltd. | Control device, method, program, and system using machine learning technology |
JP2021197032A (ja) * | 2020-06-17 | 2021-12-27 | 株式会社エイシング | 制御装置、方法及びプログラム |
JP7502973B2 (ja) | 2020-11-19 | 2024-06-19 | 株式会社日立製作所 | 予測規則校正システム、および予測規則校正方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018026020A (ja) | 予測器学習方法、装置、及びプログラム | |
US11544536B2 (en) | Hybrid neural architecture search | |
US11669744B2 (en) | Regularized neural network architecture search | |
US20220076150A1 (en) | Method, apparatus and system for estimating causality among observed variables | |
KR102107378B1 (ko) | 하이퍼파라미터 자동 최적화 방법 및 그 장치 | |
CN106294684A (zh) | 词向量的文本分类方法及终端设备 | |
US20210073641A1 (en) | Learning device, learning system, and learning method | |
CN110110858B (zh) | 一种基于强化学习的自动化机器学习方法 | |
CN111406264A (zh) | 神经架构搜索 | |
CN111078876A (zh) | 一种基于多模型集成的短文本分类方法和系统 | |
Chatterjee et al. | On the generalization mystery in deep learning | |
CN102929906A (zh) | 基于内容特征和主题特征的文本分组聚类方法 | |
CN111414863B (zh) | 一种增强型集成遥感影像分类方法 | |
CN109074348A (zh) | 用于对输入数据集进行迭代聚类的设备和迭代方法 | |
CN114492601A (zh) | 资源分类模型的训练方法、装置、电子设备及存储介质 | |
Guo et al. | Reducing evaluation cost for circuit synthesis using active learning | |
CN115168326A (zh) | Hadoop大数据平台分布式能源数据清洗方法及系统 | |
CN111950579A (zh) | 分类模型的训练方法和训练装置 | |
CN116756536B (zh) | 数据识别方法、模型训练方法、装置、设备及存储介质 | |
JP6743902B2 (ja) | マルチタスク関係学習システム、方法およびプログラム | |
Huang et al. | Designing importance samplers to simulate machine learning predictors via optimization | |
CN105787296B (zh) | 一种宏基因组和宏转录组样本相异度的比较方法 | |
CN115544033B (zh) | 查重向量库更新、数据查重方法、装置、设备和介质 | |
WO2023273171A1 (zh) | 图像处理方法、装置、设备和存储介质 | |
Zafar et al. | An Optimization Approach for Convolutional Neural Network Using Non-Dominated Sorted Genetic Algorithm-II. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160812 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20160906 |