JP2005107743A - 学習システム - Google Patents

学習システム Download PDF

Info

Publication number
JP2005107743A
JP2005107743A JP2003338793A JP2003338793A JP2005107743A JP 2005107743 A JP2005107743 A JP 2005107743A JP 2003338793 A JP2003338793 A JP 2003338793A JP 2003338793 A JP2003338793 A JP 2003338793A JP 2005107743 A JP2005107743 A JP 2005107743A
Authority
JP
Japan
Prior art keywords
data
learning
processing device
candidate data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003338793A
Other languages
English (en)
Inventor
Yukiko Kuroiwa
由希子 黒岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2003338793A priority Critical patent/JP2005107743A/ja
Priority to US10/952,334 priority patent/US7698235B2/en
Publication of JP2005107743A publication Critical patent/JP2005107743A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

【課題】選択的にサンプリングして効率的に学習する方式を提供する。
【解決手段】 入力部21は、そのラベルが設定されたデータである学習データと終了条件とを力する。学習部21は、学習アルゴリズムを用いて、学習データを学習して仮説を生成する。記憶部33には、そのラベルが設定されていないデータである複数の候補データが格納されている。データ選択部23は、記憶部33を参照し、仮説を用いて、複数の候補データの各々に対するスコアを計算し、計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する。データ更新部24は、ユーザにより決定されたラベルを選択された第1候補データに設定し、選択された第1候補データを学習データに付加して学習部21に出力する。データ選択処理とデータ更新処理と学習処理とを終了条件を満たすまで繰り返す。
【選択図】図2

Description

本発明は、学習データを学習させる学習システムに関する。
コンピュータプログラムである学習アルゴリズムを用いて、学習データを学習させる方法として、能動学習と知識発見とが挙げられる。能動学習とは、与えられた学習データから受動学習するだけでなく、学習に有効なデータを能動的に提示することで、精度を向上させる技術のことである。従来の能動学習を利用した方法、もしくは選択的サンプリングを利用した方法は、特許文献1、非特許文献1、非特許文献2に記載されている。この従来の能動学習手法は、情報量が最も多い候補データ(以下、情報量最大の候補データと称する)を選択していた。この情報量最大の候補データは、境界だと予測されるデータである。また、知識発見とは、与えられた学習データから再学習を行う技術のことである。従来の知識発見を利用した方法は、特許文献2に記載されている。この従来の知識発見は、情報量最大の候補データを選択していた。
学習(能動学習や知識発見)では、クラスまたは関数値を含むラベルが用いられる。クラスは、ある事象の状態の有無を表し、関数値は、ある事象の状態を大きさとして数値で表したものである。能動学習である場合、ラベルは、学習データ、選択された候補データに設定され、知識発見である場合、ラベルは、学習データ、候補データに設定されている。
学習データを学習させるときに、アンサンブル学習が用いられる場合がある。アンサンブル学習とは、受動学習の精度を向上させるために、与えられた学習データから複数の仮説を生成し、これらの仮説を統合する技術のことである。代表的なアンサンブル学習手法として、バギング(Bagging)やブースティング(Boosting)などがあり、非特許文献3、非特許文献4に記載されている。
学習データを学習させるときに、属性選択を行う場合がある。属性選択とは、学習データの属性を絞ることで次元を減らし精度を向上させる技術のことであり、非特許文献5に記載されている。この従来の手法では、予め定めた確率に従ってそれぞれの属性を選択するか否かを決定することで属性を減らしている。
しかし、学習データを学習させるための従来の手法では、以下のような問題点がある。
まず、第1の問題点は、所望の結果を予測することができないことである。例えば、候補データがアンバランスなデータまたは価値の異なるデータの場合に効率的に学習(能動学習や知識発見)ができない。ここで、アンバランスなデータとは、例えばラベル(クラスや関数値)を着目した時に情報数の分布が一様分布からある程度隔たっているデータのことであり、例えば、クラス間の情報数が異なっているデータなどである。また、価値が異なるデータとは、データのラベル(クラスや関数値)を求めるコストが異なる場合や、特定のラベル(クラスあるいは関数値)が設定されたデータに価値がある場合のデータのことであり、そのような価値の高いデータを主に抽出したいような場合に利用される。
第1の問題点の理由としては、従来手法のように情報量最大の候補データを選択していると、情報数が少ない候補データが選択されないため、学習データのラベル(クラス、関数値)に属する多様な候補データが得られず、学習アルゴリズムによる学習が困難となるためである。それを防ぐためには、学習アルゴリズムでコストなどを設定する、あるいは候補データを増減させるなどの手法が考えられるが、学習前に適切なコストや適切な候補データの増減を決めるのは難しい。候補データの価値が異なる場合、価値の高い候補データを選択することにより、所望の結果を予測することができる学習システムが望まれる。
第2の問題点は、予測精度が安定しないことである。
第2の問題点の理由としては、候補データを選択するための基準が予めに決められている(情報量最大の候補データを選択する)ために、選択される候補データが偏ってしまい、候補データ全体から反映されるような仮説が生成されないためである。予測精度が安定する学習システムが望まれる。
第3の問題点は、上述のアンサンブル学習により属性選択を行う場合、適切な選択確率が予め定められないと予測精度が向上しないことである。
第3の問題点の理由としては、例えば属性の選択確率を0.5と予め定めた場合、選択される属性数はおよそ半分になるが、実際には不要な属性が多かった場合、対応できない。学習前に適切な属性数を決めるのは難しい。また、学習しながら、属性数を計算(選択確率)により決めるようにするとその計算に時間がかかり計算コストが膨大になる。予測精度が向上する学習システムが望まれる。
上記の問題点について、創薬のスクリーニングを例にして具体的に説明する。創薬のスクリーニングの場合、例えば、クラスは、ある事象の状態の有無として、ある化合物の結合の有無を表し、関数値は、ある事象の状態の大きさとして、ある化合物の結合能を数値で表したものである。
創薬のスクリーニングでは、活性化合物(正例)の数が非活性化合物(負例)の数に比べて非常に少ない。従って、情報量最大の候補データを選択していると、上記第2の問題点として、非活性化合物を多く選択してしまい、多様な活性化合物が得られない。
また、実験を通して薬物候補となる活性化合物を発見するために、活性化合物を如何に少ない実験回数で発見するかが重要である。情報量最大という基準では、上記第1の問題点として、効率的に学習(能動学習、知識発見)することができない。このため、より良い仮説を生成すること(所望の結果を予測すること)ができないことがある。
特開平11−316754号公報 特開2001−229026号公報 セング(Seung)著「クエリー バイ コミッティ(Query by Committee)」1992年発行の国際会議の予稿集「プロシーディングス オブ ザ フィフス アニュアル エーシーエム ワークショップ オン コンピューテーショナル ラーニング セオリー(Proceedings of the fifth annual ACM workshop on computational learning theory)」の287−294頁 ワームス(Warmuth)著「サポートベクタマシン フォア アクティブ ラーニング イン ザ ドラッグ ディスカバリー プロセス(Support Vector Machines for Active Learning in the Drug Discovery Process)」2003年発行の論文誌「ジャーナル オブ ケミカル インフォメーション サイエンス(Journal of Chemical Information Sciences)」43巻2号667−673頁 ブライマン(Breiman)著「バギング プレディクターズ(Bagging Predictors)」1996年発行の論文誌「マシンラーニング(Machine Learning)」24巻2号123−140頁 フロインド(Freund)とシャピレ(Shapire)著「ア ディシジョン セオレティック ジェネラライゼーション オブ オンライン ラーニング アンド アン アプリケーション トゥー ブースティング(A decision −thoretic generalization of on−line learning and an application to boosting)」1995年発行の国際会議予稿集「プロシーディングス オブ セカンド ヨーロピアン コンファランス オン コンピューテーショナル ラーニング セオリー(Proceedings of the second european conference on computational learning theory)」23−37頁 ホ(Ho)著「ザ ランダム サブスペース メソッド フォア コンストラクティング ディシジョン フォレスト(The Random Subspace Method for Constructing Decision Forests)」1998年発行の論文誌「アイトリプルイー トランザクションズ オン パタン アナリシス アンド マシン インテリジェンス(IEEE Transactions on Pattern Analysis and Machine Intelligence)」20巻8号832−844頁
本発明の課題は、所望の結果を予測することができる学習システムを提供することにある。
本発明の他の課題は、予測精度が安定する学習システムを提供することにある。
本発明の更に他の課題は、予測精度が向上する学習システムを提供することである。
以下に、[発明を実施するための最良の形態]で使用する番号・符号を用いて、課題を解決するための手段を説明する。これらの番号・符号は、[特許請求の範囲]の記載と[発明を実施するための最良の形態]の記載との対応関係を明らかにするために付加されたものであるが、[特許請求の範囲]に記載されている発明の技術的範囲の解釈に用いてはならない。
本発明の学習システム(50)は、入力装置(1)と処理装置(5)と記憶部(33)と出力装置(4)とを具備する。処理装置(5)は、コンピュータであり、コンピュータプログラムである入力部(21)と学習部(21)と計算部(23)と選択部(23)と設定部(24)とデータ更新部(24)と制御部(22)とを備えている。処理装置(5)は、以下に示すステップを実行する。
(a)ユーザの入力装置(1)の操作により、処理装置(5)の入力部(21)は、そのラベルが設定されたデータである学習データと終了条件とを入力する(S1)。
(b)処理装置(5)の学習部(21)は、学習アルゴリズムを用いて、学習データを学習して仮説を生成する(S24)。
記憶部(33)には、そのラベルが設定されていないデータである複数の候補データが格納されている。
(c)処理装置(5)の計算部(23)は、記憶部(33)を参照し、仮説を用いて、複数の候補データの各々に対するスコアを計算する(S4)。
(d)処理装置(5)の選択部(23)は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する(S4)。
(e)ユーザの入力装置(1)の操作により、処理装置(5)の設定部(24)は、ユーザにより決定されたラベルを上記選択された第1候補データに設定する(S5)。
(f)処理装置(5)のデータ更新部(24)は、上記選択された第1候補データを学習データに付加して学習部(21)に出力する(S5)。このとき、学習部(21)は、(b)ステップを実行する。
(g)終了条件が満たされないとき(S3−NO)、処理装置(5)の制御部(22)は、(c)ステップと(d)ステップと(e)ステップと(f)ステップとが実行されるように、学習部(21)と計算部(23)と選択部(23)と設定部(24)とデータ更新部(24)とを制御する。
(h)終了条件が満たされたとき(S3−YES)、処理装置(5)の制御部(22)は、(f)ステップにて学習部(21)により生成された仮説を出力装置(4)に出力する。
本発明の学習システム(50)は、入力装置(1)と処理装置(5)と記憶部(33)と出力装置(4)とを具備する。処理装置(5)は、コンピュータであり、コンピュータプログラムである入力部(21)と学習部(21)と計算部(23)と選択部(23)と設定部(24)とデータ更新部(24)と制御部(22)とを備えている。処理装置(5)は、以下に示すステップを実行する。
(a)ユーザの入力装置(1)の操作により、処理装置(5)の入力部(21)は、そのラベルが設定されたデータである学習データと終了条件とを入力する(S1)。
(b)処理装置(5)の学習部(21)は、学習アルゴリズムを用いて、アンサンブル学習により学習データを学習し複数の仮説を生成する(S21〜S26)。
記憶部(33)には、そのラベルが設定されていないデータである複数の候補データが格納されている。
(c)処理装置(5)の計算部(23)は、複数の仮説に対して重み付き平均を施し、記憶部(33)を参照し、複数の仮説を用いて、複数の候補データの各々に対するスコアを計算する(S4)。
(d)処理装置(5)の選択部(23)は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する(S4)。
(e)ユーザの入力装置(1)の操作により、処理装置(5)の設定部(24)は、ユーザにより決定されたラベルを上記選択された第1候補データに設定する(S5)。
(f)処理装置(5)のデータ更新部(24)は、上記選択された第1候補データを学習データに付加して学習部(21)に出力する(S5)。このとき、学習部(21)は、(b)ステップを実行する。
(g)終了条件が満たされないとき(S3−NO)、処理装置(5)の制御部(22)は、(c)ステップと(d)ステップと(e)ステップと(f)ステップとが実行されるように、学習部(21)と計算部(23)と選択部(23)と設定部(24)とデータ更新部(24)とを制御する。
(h)終了条件が満たされたとき(S3−YES)、処理装置(5)の制御部(22)は、(f)ステップにて学習部(21)により生成された複数の仮説を出力装置(4)に出力する。
本発明の学習システム(50)によれば、以上の構成により、能動学習を行う際に、所望の結果を予測することができる。例えば、複数の候補データが前述のアンバランスなデータまたは前述の価値の異なるデータの場合に効率的に能動学習を行うことができる。
複数の候補データが前述のアンバランスなデータである場合、本発明の学習システム(50)では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の学習システム(50)では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の学習システム(50)によれば、能動学習を行う際に、所望の結果を予測する予測精度が安定する。
本発明の学習システム(50)では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データが偏ることはない。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の学習システム(50)において、処理装置(5)の選択部(23)は、複数の候補データの中から第1候補データを選択するための、予め定められた選択関数を有することが好ましい。この選択関数は、指数的に減少する関数であることが好ましい。
本発明の学習システム(50)において、(b)ステップにて、学習部(21)は、アンサンブル学習により、学習データをリサンプリングして部分データを生成し(S22)、学習データの属性をリサンプリングして部分属性を生成し(S23)、部分データと部分属性とに基づいて学習データを学習する(S24)。
本発明の学習システム(50)によれば、能動学習を行う際に、アンサンブル学習により属性選択を行う場合、所望の結果を予測する予測精度が向上する。
本発明の学習システム(50)では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。このため、本発明の学習システム(50)では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
本発明の学習システム(60)は、入力装置(1)と処理装置(5)と記憶部(33)と出力装置(4)とを具備する。処理装置(5)は、コンピュータであり、コンピュータプログラムである入力部(21)と学習部(21)と計算部(23)と選択部(23)とデータ更新部(24)と制御部(22)とを備えている。処理装置(5)は、以下に示すステップを実行する。
(a)ユーザの入力装置(1)の操作により、処理装置(5)の入力部(21)は、そのラベルが設定されたデータである学習データと終了条件とを入力する(S1)。
(b)処理装置(5)の学習部(21)は、学習アルゴリズムを用いて、学習データを学習して仮説を生成する(S24)。
記憶部(33)には、そのラベルが設定されたデータである複数の候補データが格納されている。
(c)処理装置(5)の計算部(23)は、記憶部(33)を参照し、仮説を用いて、複数の候補データの各々に対するスコアを計算する(S4)。
(d)処理装置(5)の選択部(23)は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する(S4)。
(e)処理装置(5)のデータ更新部(24)は、上記選択された第1候補データを学習データとして学習部(21)に出力する(S6)。このとき、学習部(21)は、(b)ステップを実行する。
(f)終了条件が満たされないとき(S3−NO)、処理装置(5)の制御部(22)は、(c)ステップと(d)ステップと(e)ステップとが実行されるように、学習部(21)と計算部(23)と選択部(23)とデータ更新部(24)とを制御する。
(g)終了条件が満たされたとき(S3−YES)、処理装置(5)の制御部(22)は、(e)ステップにて学習部(21)により生成された仮説を出力装置(4)に出力する。
本発明の学習システム(60)は、入力装置(1)と処理装置(5)と記憶部(33)と出力装置(4)とを具備する。処理装置(5)は、コンピュータであり、コンピュータプログラムである入力部(21)と学習部(21)と計算部(23)と選択部(23)とデータ更新部(24)と制御部(22)とを備えている。処理装置(5)は、以下に示すステップを実行する。
(a)ユーザの入力装置(1)の操作により、処理装置(5)の入力部(21)は、そのラベルが設定されたデータである学習データと終了条件とを入力する(S1)。
(b)処理装置(5)の学習部(21)は、学習アルゴリズムを用いて、アンサンブル学習により学習データを学習し複数の仮説を生成する(S21〜S26)。
記憶部(33)には、そのラベルが設定されたデータである複数の候補データが格納されている。
(c)処理装置(5)の計算部(23)は、複数の仮説に対して重み付き平均を施し、記憶部(33)を参照し、複数の仮説を用いて、複数の候補データの各々に対するスコアを計算する(S4)。
(d)処理装置(5)の選択部(23)は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する(S4)。
(e)処理装置(5)のデータ更新部(24)は、上記選択された第1候補データを学習データとして学習部(21)に出力する(S6)。このとき、学習部(21)は、(b)ステップを実行する。
(f)終了条件が満たされないとき(S3−NO)、処理装置(5)の制御部(22)は、(c)ステップと(d)ステップと(e)ステップとが実行されるように、学習部(21)と計算部(23)と選択部(23)とデータ更新部(24)とを制御する。
(g)終了条件が満たされたとき(S3−YES)、処理装置(5)の制御部(22)は、(e)ステップにて学習部(21)により生成された複数の仮説を出力装置(4)に出力する。
本発明の学習システム(60)によれば、以上の構成により、知識発見を行う際に、所望の結果を予測することができる。例えば、複数の候補データが前述のアンバランスなデータまたは前述の価値の異なるデータの場合に効率的に知識発見を行うことができる。
複数の候補データが前述のアンバランスなデータである場合、本発明の学習システム(60)では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の学習システム(60)では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の学習システム(60)によれば、知識発見を行う際に、予測精度が安定する。
本発明の学習システム(60)では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データが偏ることはない。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の学習システム(60)において、処理装置(5)の選択部(23)は、複数の候補データの中から第1候補データを選択するための、予め定められた選択関数を有することが好ましい。この選択関数は、指数的に減少する関数であることが好ましい。
本発明の学習システム(60)において、(b)ステップにて、学習部(21)は、アンサンブル学習により、学習データをリサンプリングして部分データを生成し(S22)、学習データの属性をリサンプリングして部分属性を生成し(S23)、部分データと部分属性とに基づいて学習データを学習する(S24)。
本発明の学習システム(60)によれば、知識発見を行う際に、アンサンブル学習により属性選択を行う場合、所望の結果を予測する予測精度が向上する。
本発明の学習システム(60)では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。このため、本発明の学習システム(60)では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
本発明の学習システムは、所望の結果を予測することができる。
本発明の学習システムは、予測精度が安定する。
本発明の学習システムは、予測精度が向上する。
添付図面を参照して、本発明による学習システムを実施するための最良の形態を以下に説明する。
(第1実施形態)
図1は、本発明の第1実施形態に係る学習システムとして能動学習システム50の構成を示すブロック図である。本発明の能動学習システム50は、入力装置1と、データ処理装置5と、出力装置4とを具備する。データ処理装置5はコンピュータであり、データ処理装置5には、入力装置1と出力装置4とが接続されている。出力装置4としては表示装置、印刷装置が例示される。
データ処理装置5は、CPU(Central Processing Unit)6と、メモリ7と、メモリ7より容量が大きい大容量メモリとを具備する。メモリ7には、CPU6が実行するためのコンピュータプログラムであるデータ処理部2と、記憶部3とが格納されている。データ処理部2は、学習プログラムである学習部21と、制御プログラムである制御部22と、データ選択プログラムであるデータ選択部23と、データ更新プログラムであるデータ更新部24とを具備する。制御部22は、学習部21、データ選択部23、データ更新部24を制御するプログラムである。記憶部3は、リサンプリングデータ記憶部31、学習データ記憶部32を具備する。リサンプリングデータ記憶部31は、アンサンブル学習を行う場合に使われる。また、上記大容量メモリを候補データ記憶部33と称する。
図2は、図1の機能ロジックを示す図である。
ユーザの入力装置1の操作により、データ処理部2の学習部21は、学習データと下位学習アルゴリズムと終了条件とを入力する。学習データは、そのラベル(クラスまたは関数値)が設定されたデータである。学習データの詳細については後述する。下位学習アルゴリズムは、能動学習を行うためのコンピュータプログラムである。学習部21は、入力した学習データと終了条件とを学習データ記憶部32に格納する。本実施例では、下位学習アルゴリズムは、学習データと終了条件と共に入力されるが、予めに学習データ記憶部32に格納されていてもよい。
学習部21は、下位学習アルゴリズムを用いて学習処理を行う。アンサンブル学習により学習データのリサンプリングや属性選択を行う場合、学習部21は、下位学習アルゴリズムを用いて、アンサンブル学習を行う。学習部21は、アンサンブル学習により、学習データをリサンプリングして部分データを生成し、学習データの属性をリサンプリングして部分属性を生成し、部分データと部分属性とを含むリサンプリングデータをリサンプリングデータ記憶部31に格納する。リサンプリング、仮説についての詳細は後述する。学習部21は、リサンプリングデータ記憶部31を参照して、リサンプリングデータに基づいて、学習データを学習し仮説を生成する。本実施例では、リサンプリングも下位学習アルゴリズムで実現するようにプログラムを作成した場合には、リサンプリングデータ記憶部31は省略可能である。
アンサンブル学習を行う場合、学習部21は、予め決められたリサンプリング回数分だけ上記の学習処理を繰り返して複数の仮説を得る。
候補データ記憶部33には、複数の候補データが格納されている。複数の候補データの各々は、そのラベル(クラスまたは関数値)が設定されていないデータである。本実施例では、複数の候補データは、候補データ記憶部33に予めに格納されているが、更新あるいは変更することができる。また、複数の候補データは、学習データと下位学習アルゴリズムと終了条件と共に入力されてもよい。
本実施例では、候補データ記憶部33は、上記大容量メモリとしてメモリ7と分けられてデータ処理装置5に備えられているが、候補データの数が少ない場合、CPU6が高速に計算できるため、メモリ7内に設けられてもよい。この場合、メモリ7の記憶部3は、更に、候補データ記憶部33を具備する。
データ処理部2のデータ選択部23は、データ選択処理を行う。データ選択処理では、データ選択部23は、学習部21により生成された複数の仮説に対して、重み付き平均を施す。データ選択部23は、候補データ記憶部33を参照し、複数の仮説を用いて、複数の候補データの各々に対するスコアを計算する。データ選択部23は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する。このデータ選択部23(データ選択プログラム)には、複数の候補データの中から第1候補データを選択するための、予め定められた選択関数が記載されている。選択関数を用いて第1候補データを選択することについての詳細は後述する。
データ処理部2のデータ更新部24は、データ更新処理を行う。データ更新処理では、データ更新部24は、データ選択部23により選択された第1候補データを出力装置4に出力する。ユーザは、上記選択された第1候補データのラベル(クラスまたは関数値)を実験などで確定(決定)する。ユーザの入力装置1の操作により、データ更新部24は、ユーザにより決定されたラベル(クラスまたは関数値)を上記選択された第1候補データに設定する。データ更新部24は、上記選択された第1候補データを学習データに付加して学習部21に出力し、候補データ記憶部33に格納された第1候補データを削除する。
データ処理部2の制御部22は、学習データ記憶部32を参照して、終了条件が満たされないとき、上記の処理を実行するように学習部21、データ選択部23、データ更新部24を制御する。制御部22は、学習データ記憶部32を参照して、終了条件が満たされたとき、学習部21により生成された複数の仮説を出力装置4に出力する。
上記の学習データについて説明する。入力装置1によってデータ処理装置5に入力される学習データをSとし、そのデータ数をm(mは1以上の整数)としたとき、ラベル(クラスまたは関数値)が設定された学習データSは、数1のように表される。
Figure 2005107743
ここで、xは入力、yは出力値を示す。例えば、創薬の場合、xは化合物の表現、yは活性の有無などである。yは、y∈{0、1}でも、任意のクラスの集合でも、任意の関数値の集合でも構わない。ここでは、説明を簡単にするために、{0、1}とし、情報数が少ないクラス、もしくは価値の高いクラスを出力=1の正例として以下説明するが、複数の候補データが前述のアンバランスなデータや前述の価値の異なるデータの場合以外でも本発明は適用できる。また、多クラスあるいは関数値の場合も、出力=1の代わりに1つ以上のクラスあるいは関数値を割り当てることなどにより一般性を失わずに本発明を適用できる。または、多クラスの場合には、2クラスの分類を組み合わせることにより、分類を実現することもできる。
上記の下位学習アルゴリズムは、例えば、決定木、決定リスト、ニューラルネットワーク、ナイーブベイズ(Naive Bayes)、ベイジアンネットワーク、遺伝的アルゴリズム、回帰分析、サポートベクタマシンなどの何らかの表現形を用いて入出力データを学習するアルゴリズムであれば何でもよい。
ここでは、アンサンブル学習としてバギングを用いて説明を行うが、本発明はブースティングなどの他のアンサンブル学習に適用してもよい。アンサンブル学習を行う場合、リサンプリング回数をTとし、上記の学習処理をT回繰り返して複数の仮説としてT個の仮説を得る。
次に、本発明の能動学習システム50の動作としてアンサンブル学習を行う場合について詳細に説明する。図3は、本発明の能動学習システム50の動作を示すフローチャートである。
ユーザの入力装置1の操作により、データ処理部2の学習部21は、入力処理として、学習データと下位学習アルゴリズムと終了条件とを入力する(ステップS1)。このとき、学習部21は、終了条件を学習データ記憶部32に格納する。
次に、学習部21は、上記の学習処理として、学習データに対して、下位学習アルゴリズムを用いたアンサンブル学習を行う(ステップS2)。
まず、学習部21は、学習データを学習データ記憶部32に格納し、リサンプリング回数iを1にセットする(ステップS21)。
次に、学習部21は、アンサンブル学習により、学習データをリサンプリングして部分データを生成する(ステップS22)。ここで、リサンプリングとは、例えば、m個の学習データSに対して、所定回数だけ1からmまでの整数iをランダムに発生させ、その整数の番号の学習データ(x、y)をサンプリングすることなどである。
次いで、学習部21は、不要な属性を減らすために、アンサンブル学習により、学習データと同時に学習データの属性もリサンプリングして部分属性を生成する(ステップS23)。このとき、学習部21は、部分データと部分属性とを含むリサンプリングデータをリサンプリングデータ記憶部31に格納する。学習データの場合と異なり学習データの属性は同じ属性が存在しても意味が無いので同じ属性は削除する。適切な属性数の推定値に応じて予め決めた数だけ、属性をリサンプリングする。適切な属性数が推定できない場合には、元の属性数と同数だけリサンプリングする。なお、属性数が膨大過ぎるなどの場合には、この属性選択の前に既存の手法で予め決められた数だけ選択しておいてもよい。
次に、学習部21は、リサンプリングデータ記憶部31を参照して、リサンプリングデータに基づいて、下位学習アルゴリズムにより学習データを学習し仮説を生成する(ステップS24)。仮説とは、任意の入力xに対して、そのラベルを出力するような表現形である。
次いで、学習部21は、リサンプリング回数jをインクリメント(+1)する(ステップS25)。
次に、学習部21は、リサンプリング回数jと設定リサンプリング回数Tとを比較する(ステップS26)。リサンプリング回数jが設定リサンプリング回数T(Tは1以上の整数)を越えない場合(ステップS26−NO)、学習部21は、ステップS22〜S25を繰り返す。リサンプリング回数jが設定リサンプリング回数Tを越えた場合(ステップS26−YES)、学習部21は、T個の仮説を得る。
次に、データ処理部2の制御部22は、学習データ記憶部32を参照して、終了条件を満たしているか否かを判定する(ステップS3)。終了条件を満たしていなければ(ステップS3−NO)、制御部22は、データ選択処理、データ更新処理、学習処理を実行するようにデータ選択部23、データ更新部24、学習部21を制御する。
終了条件を満たしていない場合(ステップS3−NO)、データ処理部2のデータ選択部23は、データ選択処理を行う(ステップS4)。データ選択処理では、スコア計算処理と選択処理とを含む。
データ選択処理(ステップS4)のスコア計算処理では、データ選択部23は、学習部21により生成されたT個の仮説に対して、重み付き平均を施す。データ選択部23は、候補データ記憶部33を参照し、T個の仮説を用いて、複数の候補データの各々に対するスコアを計算する。スコアは、各候補データの正例らしさの数値である。表現形式が決定木の場合には、例えば、スコアとして、候補データをその決定木で分類する際の各葉の学習データでの部分的正例の割合として数2を用いることができる。
Figure 2005107743
ここで、Sを候補データと同じ葉で分類される学習データの集合とする。上付きtは階乗を表すものではなく、記号として用いられる。また、Sのうち、S を正例のクラスに属する学習データの集合とし、入力(x、y)が葉tに含まれる重み×個数をw とする。ニューラルネットワークの場合は、例えば、出力値を用いることができる。
または、上記部分的正例の割合をなました値として、例えば、数3を用いることができる。
Figure 2005107743
アンサンブル学習では、バギングの場合、例えば、各仮説のスコアの平均を用い、ブースティングの場合、例えば、各仮説のスコアの重み付きの値を用いる。
データ選択処理(ステップS4)の選択処理では、データ選択部23は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する。候補データ記憶部33に格納された候補データの数をR(Rは1以上の整数)とし、第1候補データの数をB(Bは1以上の整数)とする。最初に与えられた(入力した)学習データの数が十分多い場合(設定個数よりも多い場合)には、スコアが最大(スコア最大)の候補データから順にB個選択すればよい。これは、学習データの数が十分多いので、偏りが無いと考えられるためである。しかし、実際には、最初に与えられた(入力した)学習データの数は、候補データ記憶部33に格納された候補データの数に比べて少なく、スコア最大の候補データを選択することは、選択すべき候補データが偏ってしまい解が不安定になる可能性がある。そこで、データ選択部23は、上記の選択関数として以下に示すのような指数的に減少する関数に基づいて第1候補データを選択する。
まず、データ選択部23は、候補データ記憶部33に格納されたR個の候補データを、例えば、正例スコア(PS)の大きい順に並べる。あるいは、例えば、正例スコアに適当な定数で重み付けた正例スコアの分散もしくは標準偏差などを加えた値の大きい順に並べる。あるいは、例えば、|PS−0.5|の順に並べる。これは、前述のアンバランスなデータや前述の価値の異なるデータである場合に限らず通常の能動学習の場合に適した順番である。どのような順番で並べるかは、ユーザーが入力装置1を用いて選択関数のパラメータとして指定することができる。また、データ選択部23(データ選択プログラム)には、複数の選択関数が記載されていて、選択関数のパラメータを指定するのと同様に、ユーザーが入力装置1を用いて複数の選択関数の中から1つの選択関数を選択することができる。B個の第1候補データを選択する場合には、例えば、選択関数として指数関数f(z)=A・e(zは1以上の整数)が与えられ、数4が成り立つ定数Aを定める。
Figure 2005107743
図4に示されるように、数4は、z番目の第1候補データを所定範囲8(0から指数関数f(z)の値までの範囲)の中から選択することにより、R個の候補データからB個の第1候補データを選択した時に、ちょうどR個の候補データ全体9から選択されるように定数Aを定めるものである。数4の変形により、定数Aは以下のように求めることができる。
Figure 2005107743
データ選択部23は、R個の候補データをスコアの順に参照し、z番目に選択する第1候補データを、1/f(z)の確率で選択するものとする。選択確率1/f(z)が1に近い場合、スコア上位(スコア最大も含む)の第1候補データをほとんど選択し、選択確率1/f(z)が0に近い場合、第1候補データをまばらに選択する。
次に、データ処理部2のデータ更新部24は、データ更新処理を行う(ステップS5)。データ更新処理では、設定処理と更新処理とを含む。
データ更新処理(ステップS5)の設定処理では、データ更新部24は、データ選択部23により選択された第1候補データを出力装置4に出力する。ユーザは、上記選択された第1候補データのラベル(クラスまたは関数値)を実験などで確定(決定)する。ユーザの入力装置1の操作により、データ更新部24は、ユーザにより決定されたラベル(クラスまたは関数値)を上記選択された第1候補データに設定する。
データ更新処理(ステップS5)の更新処理では、データ更新部24は、上記選択された第1候補データを学習データに付加して学習部21に出力し、候補データ記憶部33に格納された第1候補データを削除する。その後、学習部21は、学習処理(ステップS2)を実行する。
次に、制御部22は、学習データ記憶部32を参照して、終了条件を満たしているか否かを判定する(ステップS3)。終了条件を満たしていれば(ステップS3−YES)、制御部22は、学習部21により生成されたT個の仮説を最終仮説として出力装置4に出力する。
終了条件としては、(A)条件、(B)条件、(C)条件、(D)条件、(E)条件のいずれか1つが挙げられる。(A)条件では、例えば、予め定めた反復回数Nを越えたら終了とする。(B)条件では、予め定めた数の正例が発見できれば終了とする。(C)条件では、学習データが十分多い場合には、学習データの一部を評価データとして学習に用いずに残しておき、評価データの予測精度が予め定めた値よりも高くなれば終了とする。(D)条件では、例えばバギングの場合には、推定した予測精度が予め定めた値よりも高くなれば終了とする。予測精度の推定方法は、各学習データに対して、その学習データが用いられなかった仮説でのバギング結果で予測する。これを全ての学習データに対して実行して予測精度を推定する。(E)条件では、予測精度の傾きが予め定めた値よりも小さくなれば終了とする。
例えば終了条件が(A)条件である場合、制御部22は、ステップS1にて反復回数Jを1にセットしておき、データ更新処理(ステップS5)が終了したときに反復回数Jをインクリメント(+1)にする。制御部22は、ステップS3にて反復回数Jと予め定めた反復回数Nとを比較し、反復回数Jが予め定めた反復回数Nを超えた場合、学習部21により生成されたT個の仮説を出力装置4に出力する。能動学習システム50では、終了条件を満たさなければ学習データSの数が(B×J)ずつ増える。
本発明の能動学習システム50の動作としてアンサンブル学習を行う場合について説明したが、アンサンブル学習を行わない場合では、上記のステップS21〜S23、S25、S26は不要である。この場合、ステップS2にて学習部21により生成される仮説の数は1つであるため、データ選択処理(ステップS4)のスコア計算処理にて、データ選択部23は、学習部21により生成された仮説に対して、重み付き平均を施す必要はない。
また、下位学習アルゴリズムによる学習は、アンサンブル学習としてバギングを用いる場合には独立に行うことができるので、並列に実行することも可能である。
また、学習データとして、属性が少な過ぎる、あるいは全ての属性が重要であると類推されているなど不要な属性を減らす必要が無い場合には、上記のステップS23を省くことができる。
次に、本発明の能動学習システム50の効果について説明する。
本発明の能動学習システム50によれば、能動学習を行う際に、所望の結果を予測することができる。例えば、複数の候補データが前述のアンバランスなデータまたは前述の価値の異なるデータの場合に効率的に能動学習を行うことができる。
複数の候補データが前述のアンバランスなデータである場合、本発明の能動学習システム50では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の能動学習システム50では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の能動学習システム50では、複数の候補データの中から、第1候補データを選択するときに、必ずしも情報量最大の候補データを選択するわけではない。本発明の能動学習システム50では、前述のアンバランスなデータ、前述の価値の異なるデータを含む第1候補データを選択する手法として、上述の選択関数(指数的な関数)を用いる。このため、データ空間から一様にデータが選択され、解の不安定さを防ぐことができる。学習データの数が少ないにも関わらず、最大スコアの候補データばかりを選択した場合、部分的に、例えば決定木で部分的に負例が不足して、より正確な仮説が生成できなくなる。このように、複数の候補データの中から、前述のアンバランスなデータ、前述の価値の異なるデータを含む第1候補データを選択するための選択関数を用いることが好ましい。
本発明の能動学習システム50によれば、能動学習を行う際に、所望の結果を予測する予測精度が安定する。
本発明の能動学習システム50では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データ(第1候補データ)が偏ることはない。つまり、学習がある程度進んで、候補データに対するスコアが類似してきた場合、予めに決められたスコアを選択したのでは、例えば決定木のある部分木のデータばかりが選択される可能性があるが、本発明の能動学習システム50では、確率的に選択しているので、適切にばらついて選択データ(選択される候補データ)が偏ることが無くデータ空間から一様にデータが選択され、解の不安定さを防ぐことができる。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の能動学習システム50によれば、能動学習を行う際に、アンサンブル学習により属性選択を行う場合、所望の結果を予測する予測精度が向上する。
本発明の能動学習システム50では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。これにより、データや不要な属性数に依存する最適な選択確率が幾つであっても、ある程度カバーすることができ、予測精度が向上する。また、属性数が少なくなることにより計算効率が向上するため、予測精度が向上する。元の属性数と同数だけリサンプリングすると、平均的には属性の約6割が選択されることになるが、前述した従来の手法のように5割などと予め定めて5割の属性をランダムに選択した場合よりも広く分散させることができる。
このように、本発明の能動学習システム50では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
本発明の能動学習システム50では、前述のアンバランスなデータや前述の価値の異なるデータで下位学習アルゴリズムに決定木や回帰木を使用する場合に、第1候補データに前述のアンバランスなデータ、前述の価値の異なるデータが含まれるように、スコアの計算に葉での正例の割合もしくはそれをなました値を用いる(数2、数3参照)。このため、本発明の能動学習システム50によれば、アンバランスなデータや価値の異なるデータを考慮して、より良い仮説を生成すること(所望の結果を予測すること)ができる。
次に、本発明の能動学習システム50の動作について具体的な例を用いて説明する。本発明の能動学習システム50として、創薬スクリーニングで、候補データ記憶部33から活性化合物を探索する問題に適用した場合を考える。この場合、活性化合物がデータ数の少ない価値の高い正例に相当し、非活性化合物がデータ数の多い価値の低い負例に相当する。また、下位学習アルゴリズムは決定木を学習するアルゴリズムとし、アンサンブル学習としてバギングを行うものとする。
学習部21は、ステップS1にて、活性の有無が明らかになっている学習データと、決定木を学習するアルゴリズム(下位学習アルゴリズム)と、終了条件とを受け取り、学習処理(ステップS2)にて、現時点のデータ、すなわち、学習データからサンプリングにより生成した複数の部分サンプルを、決定木の下位学習アルゴリズムに学習させ、複数の決定木を得る。
次に、制御部22は、ステップS3にて終了条件を満たしているかを判定し、満たしているなら、得られた複数の決定木を出力装置4に出力し、終了する。
満たしていなければ、データ選択部23は、データ選択処理(ステップS4)にて、候補データ記憶部33に格納された複数の候補データに対して、得られた複数の決定木の各々の正例スコアを上述した手法で計算し平均を取る。こうして計算された複数の候補データに対するスコアに応じて予め定めた選択関数に従って選択する第1候補データを決める。
選択された第1候補データのラベルが化合物の活性実験などで確定された場合、データ更新部25は、データ更新処理(ステップS5)にて、入力装置1から入力されたラベルを第1候補データに設定する。データ更新部25は、そのラベル付き選択データ(第1候補データ)を学習データに追加し、候補データ記憶部33からその選択データを削除する。学習部21は、第1候補データが追加された学習データにより能動学習を続行する。
(第2実施形態)
本発明の第2実施形態に係る学習システムでは、本発明の第1実施形態に係る学習システム(能動学習システム50)と重複する説明を省略する。図5は、本発明の第2実施形態に係る学習システムとして知識発見システム60の構成を示すブロック図である。知識発見システム60のデータ処理部2は、能動学習システム50のデータ処理部2のデータ更新部24に代えて、データ更新部25を具備する。
図6は、図5の機能ロジックを示す図である。
候補データ記憶部33には、複数の候補データが格納されている。知識発見システム60の場合、複数の候補データの各々は、そのラベル(クラスまたは関数値)が設定されたデータである。
データ処理部2のデータ更新部25は、データ更新処理を行う。知識発見システム60の場合、データ更新処理では、データ更新部25は、データ選択部23により選択された第1候補データを学習データとして学習部21に出力し、候補データ記憶部33に格納された第1候補データを削除する。
次に、本発明の知識発見システム60の動作としてアンサンブル学習を行う場合について詳細に説明する。図7は、本発明の知識発見システム60の動作を示すフローチャートである。
データ処理部2は、能動学習システム50と同様にステップS1〜S4を実行する。
次に、データ処理部2のデータ更新部25は、データ更新処理を行う(ステップS6)。
データ更新処理(ステップS6)では、データ更新部25は、データ選択部23により選択された第1候補データを学習データとして学習部21に出力し、候補データ記憶部33に格納された第1候補データを削除する。その後、学習部21は、学習処理(ステップS2)を実行する。
本発明の知識発見システム60の動作としてアンサンブル学習を行う場合について説明したが、アンサンブル学習を行わない場合では、能動学習システム50の場合と同様に上記のステップS21〜S23、S25、S26は不要である。この場合、ステップS2にて学習部21により生成される仮説の数は1つであるため、データ選択処理(ステップS4)のスコア計算処理にて、データ選択部23は、学習部21により生成された仮説に対して、重み付き平均を施す必要はない。
次に、本発明の知識発見システム60の効果について説明する。本発明の知識発見システム60の効果については、能動学習システム50とほぼ同様である。
本発明の知識発見システム60によれば、知識発見を行う際に、所望の結果を予測することができる。例えば、複数の候補データが前述のアンバランスなデータまたは前述の価値の異なるデータの場合に効率的に再学習(知識発見)を行うことができる。
複数の候補データが前述のアンバランスなデータである場合、本発明の知識発見システム60では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の知識発見システム60では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の知識発見システム60では、複数の候補データの中から、第1候補データを選択するときに、必ずしも情報量最大の候補データを選択するわけではない。本発明の知識発見システム60では、前述のアンバランスなデータ、前述の価値の異なるデータを含む第1候補データを選択する手法として、上述の選択関数(指数的な関数)を用いる。このため、データ空間から一様にデータが選択され、解の不安定さを防ぐことができる。学習データの数が少ないにも関わらず、最大スコアの候補データばかりを選択した場合、部分的に、例えば決定木で部分的に負例が不足して、より正確な仮説が生成できなくなる。このように、複数の候補データの中から、前述のアンバランスなデータ、前述の価値の異なるデータを含む第1候補データを選択するための選択関数を用いることが好ましい。
本発明の知識発見システム60によれば、知識発見を行う際に、所望の結果を予測する予測精度が安定する。
本発明の知識発見システム60では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データ(第1候補データ)が偏ることはない。つまり、学習がある程度進んで、候補データに対するスコアが類似してきた場合、予めに決められたスコアを選択したのでは、例えば決定木のある部分木のデータばかりが選択される可能性があるが、本発明の知識発見システム60では、確率的に選択しているので、適切にばらついて選択データ(選択される候補データ)が偏ることが無くデータ空間から一様にデータが選択され、解の不安定さを防ぐことができる。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の知識発見システム60によれば、知識発見を行う際に、アンサンブル学習により属性選択を行う場合、所望の結果を予測する予測精度が向上する。
本発明の知識発見システム60では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。これにより、データや不要な属性数に依存する最適な選択確率が幾つであっても、ある程度カバーすることができ、予測精度が向上する。また、属性数が少なくなることにより計算効率が向上するため、予測精度が向上する。元の属性数と同数だけリサンプリングすると、平均的には属性の約6割が選択されることになるが、前述した従来の手法のように5割などと予め定めて5割の属性をランダムに選択した場合よりも広く分散させることができる。
このように、本発明の知識発見システム60では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
本発明の知識発見システム60では、前述のアンバランスなデータや前述の価値の異なるデータで下位学習アルゴリズムに決定木や回帰木を使用する場合に、第1候補データに前述のアンバランスなデータ、前述の価値の異なるデータが含まれるように、スコアの計算に葉での正例の割合もしくはそれをなました値を用いる(数2、数3参照)。このため、本発明の知識発見システム60によれば、アンバランスなデータや価値の異なるデータを考慮して、より良い仮説を生成すること(所望の結果を予測すること)ができる。
次に、本発明の知識発見システム60の動作について具体的な例を用いて説明する。本発明の知識発見システム60として、創薬スクリーニングで、候補データ記憶部33から活性化合物を探索する問題に適用した場合を考える。この場合、活性化合物がデータ数の少ない価値の高い正例に相当し、非活性化合物がデータ数の多い価値の低い負例に相当する。また、下位学習アルゴリズムは決定木を学習するアルゴリズムとし、アンサンブル学習としてバギングを行うものとする。
学習部21は、ステップS1にて、活性の有無が明らかになっている学習データと、決定木を学習するアルゴリズム(下位学習アルゴリズム)と、終了条件とを受け取り、学習処理(ステップS2)にて、現時点のデータ、すなわち、学習データからサンプリングにより生成した複数の部分サンプルを、決定木の下位学習アルゴリズムに学習させ、複数の決定木を得る。
次に、制御部22は、ステップS3にて終了条件を満たしているかを判定し、満たしているなら、得られた複数の決定木を出力装置4に出力し、終了する。
満たしていなければ、データ選択部23は、データ選択処理(ステップS4)にて、候補データ記憶部33に格納された複数の候補データに対して、得られた複数の決定木の各々の正例スコアを上述した手法で計算し平均を取る。こうして計算された複数の候補データに対するスコアに応じて予め定めた選択関数に従って選択する第1候補データを決める。
能動学習システム50とは異なり、複数の候補データのラベルは既に既知である。このため、第1候補データのラベルも既に既知である。データ更新部25は、データ更新処理(ステップS5)にて、そのラベル付き選択データ(第1候補データ)を学習データとし、候補データ記憶部33からその選択データを削除する。学習部21は、学習データ(第1候補データ)により知識発見を続行する。
本発明の学習システムは、例えば、創薬スクリーニングで活性化合物を探索するなどのバイオインフォマティクスといった用途に適用できる。特に、本発明の学習システムは、前述のアンバランスなデータや前述の価値の異なるデータを含む複数の候補データから第1候補データを選択するようなデータマイニングといった用途に適用可能である。
図1は、本発明の第1実施形態に係る学習システムとして能動学習システムの構成を示すブロック図である。 図2は、図1の機能ロジックを示す図である。 図3は、本発明の第1実施形態に係る学習システムとして能動学習システムの動作を示すフローチャートである。 図4は、本発明の学習システムに適用される選択関数として数4を説明するための図である。 図5は、本発明の第2実施形態に係る学習システムとして知識発見システムの構成を示すブロック図である。 図6は、図5の機能ロジックを示す図である。 図7は、本発明の第2実施形態に係る学習システムとして知識発見システムの動作を示すフローチャートである。
符号の説明
1 入力装置
2 データ処理部
3 記憶部
4 出力装置
5 データ処理装置
6 CPU
7 メモリ
21 学習部
22 制御部
23 データ選択部
24 データ更新部
25 データ更新部
31 リサンプリングデータ記憶部
32 学習データ記憶部
33 候補データ記憶部

Claims (21)

  1. そのラベルが設定されたデータである学習データと終了条件とを入力する入力部と、
    学習アルゴリズムを用いて、前記学習データを学習して仮説を生成する学習部と、
    そのラベルが設定されていないデータである複数の候補データが格納された記憶部と、
    前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算する計算部と、
    前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択する選択部と、
    ユーザにより決定されたラベルを前記選択された第1候補データに設定する設定部と、
    前記選択された第1候補データを前記学習データに付加して前記学習部に出力するデータ更新部と、
    出力装置と、
    前記終了条件が満たされたとき、前記学習部により生成された前記仮説を前記出力装置に出力する制御部と
    を具備する学習システム。
  2. そのラベルが設定されたデータである学習データと終了条件とを入力する入力部と、
    学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成する学習部と、
    そのラベルが設定されていないデータである複数の候補データが格納された記憶部と、
    前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算する計算部と、
    前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択する選択部と、
    ユーザにより決定されたラベルを前記選択された第1候補データに設定する設定部と、
    前記選択された第1候補データを前記学習データに付加して前記学習部に出力するデータ更新部と、
    出力装置と、
    前記終了条件が満たされたとき、前記学習部により生成された前記複数の仮説を前記出力装置に出力する制御部と
    を具備する学習システム。
  3. そのラベルが設定されたデータである学習データと終了条件とを入力する入力部と、
    学習アルゴリズムを用いて、前記学習データを学習して仮説を生成する学習部と、
    そのラベルが設定されたデータである複数の候補データが格納された記憶部と、
    前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算する計算部と、
    前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択する選択部と、
    前記選択された第1候補データを前記学習データとして前記学習部に出力するデータ更新部と、
    出力装置と、
    前記終了条件が満たされたとき、前記学習部により生成された前記仮説を前記出力装置に出力する制御部と
    を具備する学習システム。
  4. そのラベルが設定されたデータである学習データと終了条件とを入力する入力部と、
    学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成する学習部と、
    そのラベルが設定されたデータである複数の候補データが格納された記憶部と、
    前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算する計算部と、
    前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択する選択部と、
    前記選択された第1候補データを前記学習データとして前記学習部に出力するデータ更新部と、
    出力装置と、
    前記終了条件が満たされたとき、前記学習部により生成された前記複数の仮説を前記出力装置に出力する制御部と
    を具備する学習システム。
  5. 前記学習部は、前記アンサンブル学習により、前記学習データをリサンプリングして部分データを生成し、前記学習データの属性をリサンプリングして部分属性を生成し、前記部分データと前記部分属性とに基づいて前記学習データを学習する
    請求項2又は4に記載の学習システム。
  6. 前記選択部は、
    前記複数の候補データの中から前記第1候補データを選択するための、予め定められた選択関数を有する
    請求項1〜5のいずれか一項に記載の学習システム。
  7. 前記選択関数は、指数的に減少する関数である
    請求項6に記載の学習システム。
  8. 入力装置と処理装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる学習方法であって、
    (a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
    (b)前記処理装置が、学習アルゴリズムを用いて、前記学習データを学習して仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
    (c)前記処理装置が、前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
    (d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
    (e)ユーザの前記入力装置の操作により前記処理装置が、ユーザにより決定されたラベルを前記選択された第1候補データに設定するステップと、
    (f)前記処理装置が、前記選択された第1候補データを前記学習データに付加し、前記(b)ステップを実行するステップと、
    (g)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップと前記(f)ステップとを実行するステップと、
    (h)前記終了条件が満たされたとき、前記処理装置が、前記(f)ステップにより生成された前記仮説を前記出力装置に出力するステップと
    を具備する学習方法。
  9. 入力装置と処理装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる学習方法であって、
    (a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
    (b)前記処理装置が、学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
    (c)前記処理装置が、前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
    (d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
    (e)ユーザの前記入力装置の操作により前記処理装置が、ユーザにより決定されたラベルを前記選択された第1候補データに設定するステップと、
    (f)前記処理装置が、前記選択された第1候補データを前記学習データに付加し、前記(b)ステップを実行するステップと、
    (g)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップと前記(f)ステップとを実行するステップと、
    (h)前記終了条件が満たされたとき、前記処理装置が、前記(f)ステップにより生成された前記複数の仮説を前記出力装置に出力するステップと
    を具備する学習方法。
  10. 入力装置と処理装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる学習方法であって、
    (a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
    (b)前記処理装置が、学習アルゴリズムを用いて、前記学習データを学習して仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
    (c)前記処理装置が、前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
    (d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
    (e)前記処理装置が、前記選択された第1候補データを前記学習データとして前記(b)ステップを実行するステップと、
    (f)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップとを実行するステップと、
    (g)前記終了条件が満たされたとき、前記処理装置が、前記(e)ステップにより生成された前記仮説を前記出力装置に出力するステップと
    を具備する学習方法。
  11. 入力装置と処理装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる学習方法であって、
    (a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
    (b)前記処理装置が、学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
    (c)前記処理装置が、前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
    (d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
    (e)前記処理装置が、前記選択された第1候補データを前記学習データとして前記(b)ステップを実行するステップと、
    (f)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップとを実行するステップと、
    (g)前記終了条件が満たされたとき、前記処理装置が、前記(e)ステップにより生成された前記複数の仮説を前記出力装置に出力するステップと
    を具備する学習方法。
  12. 前記(b)ステップは、前記アンサンブル学習により、前記学習データをリサンプリングして部分データを生成し、前記学習データの属性をリサンプリングして部分属性を生成し、前記部分データと前記部分属性とに基づいて前記学習データを学習する
    請求項9又は11に記載の学習方法。
  13. 前記処理装置は、
    前記複数の候補データの中から前記第1候補データを選択するための、予め定められた選択関数を有する
    請求項8〜12のいずれか一項に記載の学習方法。
  14. 前記選択関数は、指数的に減少する関数である
    請求項13に記載の学習方法。
  15. 入力装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる方法を、前記コンピュータに実行させる学習プログラムであって、
    (a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
    (b)前記処理装置が、学習アルゴリズムを用いて、前記学習データを学習して仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
    (c)前記処理装置が、前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
    (d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
    (e)ユーザの前記入力装置の操作により前記処理装置が、ユーザにより決定されたラベルを前記選択された第1候補データに設定するステップと、
    (f)前記処理装置が、前記選択された第1候補データを前記学習データに付加し、前記(b)ステップを実行するステップと、
    (g)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップと前記(f)ステップとを実行するステップと、
    (h)前記終了条件が満たされたとき、前記処理装置が、前記(f)ステップにより生成された前記仮説を前記出力装置に出力するステップと
    を前記コンピュータに実行させる学習プログラム。
  16. 入力装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる方法を、前記コンピュータに実行させる学習プログラムであって、
    (a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
    (b)前記処理装置が、学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
    (c)前記処理装置が、前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
    (d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
    (e)ユーザの前記入力装置の操作により前記処理装置が、ユーザにより決定されたラベルを前記選択された第1候補データに設定するステップと、
    (f)前記処理装置が、前記選択された第1候補データを前記学習データに付加し、前記(b)ステップを実行するステップと、
    (g)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップと前記(f)ステップとを実行するステップと、
    (h)前記終了条件が満たされたとき、前記処理装置が、前記(f)ステップにより生成された前記複数の仮説を前記出力装置に出力するステップと
    を前記コンピュータに実行させる学習プログラム。
  17. 入力装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる方法を、前記コンピュータに実行させる学習プログラムであって、
    (a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
    (b)前記処理装置が、学習アルゴリズムを用いて、前記学習データを学習して仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
    (c)前記処理装置が、前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
    (d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
    (e)前記処理装置が、前記選択された第1候補データを前記学習データとして前記(b)ステップを実行するステップと、
    (f)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップとを実行するステップと、
    (g)前記終了条件が満たされたとき、前記処理装置が、前記(e)ステップにより生成された前記仮説を前記出力装置に出力するステップと
    を前記コンピュータに実行させる学習プログラム。
  18. 入力装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる方法を、前記コンピュータに実行させる学習プログラムであって、
    (a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
    (b)前記処理装置が、学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
    (c)前記処理装置が、前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
    (d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
    (e)前記処理装置が、前記選択された第1候補データを前記学習データとして前記(b)ステップを実行するステップと、
    (f)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップとを実行するステップと、
    (g)前記終了条件が満たされたとき、前記処理装置が、前記(e)ステップにより生成された前記複数の仮説を前記出力装置に出力するステップと
    を前記コンピュータに実行させる学習プログラム。
  19. 前記(b)ステップは、前記アンサンブル学習により、前記学習データをリサンプリングして部分データを生成し、前記学習データの属性をリサンプリングして部分属性を生成し、前記部分データと前記部分属性とに基づいて前記学習データを学習する
    請求項16又は18に記載の学習プログラム。
  20. 前記処理装置は、
    前記複数の候補データの中から前記第1候補データを選択するための、予め定められた選択関数を有する
    請求項15〜19のいずれか一項に記載の学習プログラム。
  21. 前記選択関数は、指数的に減少する関数である
    請求項20に記載の学習プログラム。
JP2003338793A 2003-09-29 2003-09-29 学習システム Pending JP2005107743A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003338793A JP2005107743A (ja) 2003-09-29 2003-09-29 学習システム
US10/952,334 US7698235B2 (en) 2003-09-29 2004-09-28 Ensemble learning system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003338793A JP2005107743A (ja) 2003-09-29 2003-09-29 学習システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009170637A Division JP5126694B2 (ja) 2009-07-21 2009-07-21 学習システム

Publications (1)

Publication Number Publication Date
JP2005107743A true JP2005107743A (ja) 2005-04-21

Family

ID=34373326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003338793A Pending JP2005107743A (ja) 2003-09-29 2003-09-29 学習システム

Country Status (2)

Country Link
US (1) US7698235B2 (ja)
JP (1) JP2005107743A (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309485A (ja) * 2005-04-28 2006-11-09 Nec Corp 能動学習方法および能動学習システム
JP2007304782A (ja) * 2006-05-10 2007-11-22 Nec Corp データセット選択装置および実験計画システム
JP2007304783A (ja) * 2006-05-10 2007-11-22 Nec Corp 実験計画方法および実験計画システム
JP2008117343A (ja) * 2006-11-08 2008-05-22 Nec Corp 学習処理装置
WO2008072459A1 (ja) 2006-12-11 2008-06-19 Nec Corporation 能動学習システム、能動学習方法、及び能動学習用プログラム
JP2009301557A (ja) * 2009-07-21 2009-12-24 Nec Corp 学習システム
JP2010122918A (ja) * 2008-11-19 2010-06-03 Toshiba Corp 最適部分波形データ生成装置及び方法ならびにロープ状態判定装置及び方法
JP2020052783A (ja) * 2018-09-27 2020-04-02 株式会社東芝 学習装置、学習方法及びプログラム
JP2020064476A (ja) * 2018-10-18 2020-04-23 コニカミノルタ株式会社 情報処理装置及びプログラム
US11580146B2 (en) 2017-05-11 2023-02-14 Nec Corporation Inference system

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060155540A1 (en) * 2005-01-07 2006-07-13 Peilin Chou Method for data training
US7394393B2 (en) * 2005-08-02 2008-07-01 Gm Global Technology Operations, Inc. Adaptive driver workload estimator
US7840504B2 (en) * 2006-05-22 2010-11-23 The Board Of Trustees Of The Leland Stanford Junior University Learning enhanced simulated annealing
WO2008102255A1 (en) * 2007-02-23 2008-08-28 Gioacchino La Vecchia System and method for routing tasks to a user in a workforce
US8180713B1 (en) 2007-04-13 2012-05-15 Standard & Poor's Financial Services Llc System and method for searching and identifying potential financial risks disclosed within a document
US8086549B2 (en) * 2007-11-09 2011-12-27 Microsoft Corporation Multi-label active learning
US8583524B2 (en) * 2008-05-06 2013-11-12 Richrelevance, Inc. System and process for improving recommendations for use in providing personalized advertisements to retail customers
US8108329B2 (en) * 2008-05-06 2012-01-31 Richrelevance, Inc. System and process for boosting recommendations for use in providing personalized advertisements to retail customers
US8019642B2 (en) * 2008-05-06 2011-09-13 Richrelevance, Inc. System and process for receiving boosting recommendations for use in providing personalized advertisements to retail customers
US8364528B2 (en) * 2008-05-06 2013-01-29 Richrelevance, Inc. System and process for improving product recommendations for use in providing personalized advertisements to retail customers
US9047562B2 (en) * 2010-01-06 2015-06-02 Nec Corporation Data processing device, information storage medium storing computer program therefor and data processing method
JP5465689B2 (ja) * 2011-02-28 2014-04-09 株式会社日立製作所 高精度な類似検索システム
WO2014189521A1 (en) * 2013-05-24 2014-11-27 Nokia Siemens Networks Oy Automatic correlation and prevention of improper user plane traffic wireless networks
US10558935B2 (en) * 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
US10535014B2 (en) 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US9858534B2 (en) 2013-11-22 2018-01-02 California Institute Of Technology Weight generation in machine learning
US10783537B1 (en) 2015-03-30 2020-09-22 Groupon, Inc. Apparatus and method for enhanced message targeting
US10528889B2 (en) 2016-03-25 2020-01-07 Futurewei Technologies, Inc. Stereoscopic learning for classification
US11816539B1 (en) * 2016-06-14 2023-11-14 SurgeonCheck LLC Selection system for machine learning module for determining target metrics for evaluation of health care procedures and providers
US10832162B2 (en) 2016-09-08 2020-11-10 International Business Machines Corporation Model based data processing
TWI612433B (zh) 2016-11-17 2018-01-21 財團法人工業技術研究院 整體式學習預測裝置與方法、以及非暫存電腦可讀的儲存媒介
US20190079957A1 (en) * 2017-09-12 2019-03-14 Linkedin Corporation Centralized feature management, monitoring and onboarding
US11270228B2 (en) * 2017-11-17 2022-03-08 Panasonic Intellectual Property Management Co., Ltd. Information processing method and information processing system
US11810340B2 (en) 2017-11-29 2023-11-07 International Business Machines Corporation System and method for consensus-based representation and error checking for neural networks
US11663515B2 (en) 2018-08-09 2023-05-30 Servicenow, Inc. Machine learning classification with model quality prediction
USD881879S1 (en) 2018-11-20 2020-04-21 Andrew Jay KELLER Headwear
US10884499B2 (en) 2018-11-20 2021-01-05 Andrew Jay KELLER Headware for computer control
US11551437B2 (en) 2019-05-29 2023-01-10 International Business Machines Corporation Collaborative information extraction
US10999146B1 (en) * 2020-04-21 2021-05-04 Cisco Technology, Inc. Learning when to reuse existing rules in active labeling for device classification
USD929991S1 (en) 2020-06-17 2021-09-07 Neurosity, Inc. Headwear
US11747903B2 (en) 2020-07-01 2023-09-05 Neurosity, Inc. Headware for computer control
EP4099142A4 (en) 2021-04-19 2023-07-05 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND METHOD OF OPERATION
USD972735S1 (en) 2021-06-04 2022-12-13 Neurosity, Inc. Headwear

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11316754A (ja) * 1998-05-06 1999-11-16 Nec Corp 実験計画法及び実験計画プログラムを記録した記録媒体
JP2001229026A (ja) * 1999-12-09 2001-08-24 Nec Corp 知識発見方式

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05257694A (ja) 1992-03-11 1993-10-08 Toshiba Corp ファジイ知識獲得装置
JPH06180773A (ja) 1992-10-16 1994-06-28 Toshiba Corp パターン認識装置
JPH08129488A (ja) 1994-09-05 1996-05-21 Toshiba Corp 推論方法及び推論システム
JPH09297686A (ja) 1996-05-07 1997-11-18 Mitsubishi Electric Corp データマイニング装置
JPH10293756A (ja) 1997-04-18 1998-11-04 Nec Corp 組合せ最適化方法
JPH11259447A (ja) 1998-03-06 1999-09-24 Toshiba Corp 属性選択装置、属性評価装置、属性選択方法、属性評価方法
JP4530235B2 (ja) 1999-06-11 2010-08-25 富士通株式会社 知識発見方法
US20030033436A1 (en) * 2001-05-14 2003-02-13 Weiss Sholom M. Method for statistical regression using ensembles of classification solutions
US20020184169A1 (en) * 2001-05-31 2002-12-05 Opitz David William Method and device for creating a sequence of hypotheses

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11316754A (ja) * 1998-05-06 1999-11-16 Nec Corp 実験計画法及び実験計画プログラムを記録した記録媒体
JP2001229026A (ja) * 1999-12-09 2001-08-24 Nec Corp 知識発見方式

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309485A (ja) * 2005-04-28 2006-11-09 Nec Corp 能動学習方法および能動学習システム
JP4645288B2 (ja) * 2005-04-28 2011-03-09 日本電気株式会社 能動学習方法および能動学習システム
JP2007304782A (ja) * 2006-05-10 2007-11-22 Nec Corp データセット選択装置および実験計画システム
JP2007304783A (ja) * 2006-05-10 2007-11-22 Nec Corp 実験計画方法および実験計画システム
JP2008117343A (ja) * 2006-11-08 2008-05-22 Nec Corp 学習処理装置
WO2008072459A1 (ja) 2006-12-11 2008-06-19 Nec Corporation 能動学習システム、能動学習方法、及び能動学習用プログラム
JP2010122918A (ja) * 2008-11-19 2010-06-03 Toshiba Corp 最適部分波形データ生成装置及び方法ならびにロープ状態判定装置及び方法
JP2009301557A (ja) * 2009-07-21 2009-12-24 Nec Corp 学習システム
US11580146B2 (en) 2017-05-11 2023-02-14 Nec Corporation Inference system
JP2020052783A (ja) * 2018-09-27 2020-04-02 株式会社東芝 学習装置、学習方法及びプログラム
US11210566B2 (en) 2018-09-27 2021-12-28 Kabushiki Kaisha Toshiba Training apparatus, training method and recording medium
JP7005463B2 (ja) 2018-09-27 2022-01-21 株式会社東芝 学習装置、学習方法及びプログラム
JP2020064476A (ja) * 2018-10-18 2020-04-23 コニカミノルタ株式会社 情報処理装置及びプログラム
JP7196529B2 (ja) 2018-10-18 2022-12-27 コニカミノルタ株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
US7698235B2 (en) 2010-04-13
US20050071301A1 (en) 2005-03-31

Similar Documents

Publication Publication Date Title
JP2005107743A (ja) 学習システム
KR102107378B1 (ko) 하이퍼파라미터 자동 최적화 방법 및 그 장치
US8700548B2 (en) Optimization technique using evolutionary algorithms
Aydin et al. Learning sparse models for a dynamic Bayesian network classifier of protein secondary structure
US20070011127A1 (en) Active learning method and active learning system
EP2083379B1 (en) Active studying system, method and program
JP7215077B2 (ja) 予測プログラム、予測方法及び予測装置
Corus et al. Fast artificial immune systems
JP2005276225A (ja) テーブルを使用したツリーの学習
Faerman et al. Lasagne: Locality and structure aware graph node embedding
Lu et al. Path planning of mobile robot with path rule mining based on GA
Mensi et al. A novel anomaly score for isolation forests
KR100537415B1 (ko) 앙상블 서포트 벡터 머신을 이용한 인터넷 환경의 웹 정보예측 시스템 및 방법
Xiong et al. Recursive learning for sparse Markov models
JP5126694B2 (ja) 学習システム
Cano et al. Learning classification rules with differential evolution for high-speed data stream mining on GPU s
JP5187635B2 (ja) 能動学習システム、能動学習方法、及び能動学習用プログラム
JP5555238B2 (ja) ベイジアンネットワーク構造学習のための情報処理装置及びプログラム
WO2022166125A1 (en) Recommendation system with adaptive weighted baysian personalized ranking loss
Ni et al. Models and algorithm for the orienteering problem in a fuzzy environment
JP6889087B2 (ja) 行列分解装置及び行列分解方法
Tanaka et al. An adaptation of binary relevance for multi-label classification applied to functional genomics
Krol Distributed Monte Carlo feature selection: Extracting informative features out of multidimensional problems with linear speedup
Kalyankar Effect of training set size in decision tree construction by using GATree and J48 algorithm
JP3364274B2 (ja) タスク割り当て装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101001