JP2005107743A - 学習システム - Google Patents
学習システム Download PDFInfo
- Publication number
- JP2005107743A JP2005107743A JP2003338793A JP2003338793A JP2005107743A JP 2005107743 A JP2005107743 A JP 2005107743A JP 2003338793 A JP2003338793 A JP 2003338793A JP 2003338793 A JP2003338793 A JP 2003338793A JP 2005107743 A JP2005107743 A JP 2005107743A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning
- processing device
- candidate data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
【解決手段】 入力部21は、そのラベルが設定されたデータである学習データと終了条件とを力する。学習部21は、学習アルゴリズムを用いて、学習データを学習して仮説を生成する。記憶部33には、そのラベルが設定されていないデータである複数の候補データが格納されている。データ選択部23は、記憶部33を参照し、仮説を用いて、複数の候補データの各々に対するスコアを計算し、計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する。データ更新部24は、ユーザにより決定されたラベルを選択された第1候補データに設定し、選択された第1候補データを学習データに付加して学習部21に出力する。データ選択処理とデータ更新処理と学習処理とを終了条件を満たすまで繰り返す。
【選択図】図2
Description
学習(能動学習や知識発見)では、クラスまたは関数値を含むラベルが用いられる。クラスは、ある事象の状態の有無を表し、関数値は、ある事象の状態を大きさとして数値で表したものである。能動学習である場合、ラベルは、学習データ、選択された候補データに設定され、知識発見である場合、ラベルは、学習データ、候補データに設定されている。
第1の問題点の理由としては、従来手法のように情報量最大の候補データを選択していると、情報数が少ない候補データが選択されないため、学習データのラベル(クラス、関数値)に属する多様な候補データが得られず、学習アルゴリズムによる学習が困難となるためである。それを防ぐためには、学習アルゴリズムでコストなどを設定する、あるいは候補データを増減させるなどの手法が考えられるが、学習前に適切なコストや適切な候補データの増減を決めるのは難しい。候補データの価値が異なる場合、価値の高い候補データを選択することにより、所望の結果を予測することができる学習システムが望まれる。
第2の問題点の理由としては、候補データを選択するための基準が予めに決められている(情報量最大の候補データを選択する)ために、選択される候補データが偏ってしまい、候補データ全体から反映されるような仮説が生成されないためである。予測精度が安定する学習システムが望まれる。
第3の問題点の理由としては、例えば属性の選択確率を0.5と予め定めた場合、選択される属性数はおよそ半分になるが、実際には不要な属性が多かった場合、対応できない。学習前に適切な属性数を決めるのは難しい。また、学習しながら、属性数を計算(選択確率)により決めるようにするとその計算に時間がかかり計算コストが膨大になる。予測精度が向上する学習システムが望まれる。
創薬のスクリーニングでは、活性化合物(正例)の数が非活性化合物(負例)の数に比べて非常に少ない。従って、情報量最大の候補データを選択していると、上記第2の問題点として、非活性化合物を多く選択してしまい、多様な活性化合物が得られない。
また、実験を通して薬物候補となる活性化合物を発見するために、活性化合物を如何に少ない実験回数で発見するかが重要である。情報量最大という基準では、上記第1の問題点として、効率的に学習(能動学習、知識発見)することができない。このため、より良い仮説を生成すること(所望の結果を予測すること)ができないことがある。
(a)ユーザの入力装置(1)の操作により、処理装置(5)の入力部(21)は、そのラベルが設定されたデータである学習データと終了条件とを入力する(S1)。
(b)処理装置(5)の学習部(21)は、学習アルゴリズムを用いて、学習データを学習して仮説を生成する(S24)。
記憶部(33)には、そのラベルが設定されていないデータである複数の候補データが格納されている。
(c)処理装置(5)の計算部(23)は、記憶部(33)を参照し、仮説を用いて、複数の候補データの各々に対するスコアを計算する(S4)。
(d)処理装置(5)の選択部(23)は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する(S4)。
(e)ユーザの入力装置(1)の操作により、処理装置(5)の設定部(24)は、ユーザにより決定されたラベルを上記選択された第1候補データに設定する(S5)。
(f)処理装置(5)のデータ更新部(24)は、上記選択された第1候補データを学習データに付加して学習部(21)に出力する(S5)。このとき、学習部(21)は、(b)ステップを実行する。
(g)終了条件が満たされないとき(S3−NO)、処理装置(5)の制御部(22)は、(c)ステップと(d)ステップと(e)ステップと(f)ステップとが実行されるように、学習部(21)と計算部(23)と選択部(23)と設定部(24)とデータ更新部(24)とを制御する。
(h)終了条件が満たされたとき(S3−YES)、処理装置(5)の制御部(22)は、(f)ステップにて学習部(21)により生成された仮説を出力装置(4)に出力する。
(a)ユーザの入力装置(1)の操作により、処理装置(5)の入力部(21)は、そのラベルが設定されたデータである学習データと終了条件とを入力する(S1)。
(b)処理装置(5)の学習部(21)は、学習アルゴリズムを用いて、アンサンブル学習により学習データを学習し複数の仮説を生成する(S21〜S26)。
記憶部(33)には、そのラベルが設定されていないデータである複数の候補データが格納されている。
(c)処理装置(5)の計算部(23)は、複数の仮説に対して重み付き平均を施し、記憶部(33)を参照し、複数の仮説を用いて、複数の候補データの各々に対するスコアを計算する(S4)。
(d)処理装置(5)の選択部(23)は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する(S4)。
(e)ユーザの入力装置(1)の操作により、処理装置(5)の設定部(24)は、ユーザにより決定されたラベルを上記選択された第1候補データに設定する(S5)。
(f)処理装置(5)のデータ更新部(24)は、上記選択された第1候補データを学習データに付加して学習部(21)に出力する(S5)。このとき、学習部(21)は、(b)ステップを実行する。
(g)終了条件が満たされないとき(S3−NO)、処理装置(5)の制御部(22)は、(c)ステップと(d)ステップと(e)ステップと(f)ステップとが実行されるように、学習部(21)と計算部(23)と選択部(23)と設定部(24)とデータ更新部(24)とを制御する。
(h)終了条件が満たされたとき(S3−YES)、処理装置(5)の制御部(22)は、(f)ステップにて学習部(21)により生成された複数の仮説を出力装置(4)に出力する。
複数の候補データが前述のアンバランスなデータである場合、本発明の学習システム(50)では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の学習システム(50)では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の学習システム(50)では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データが偏ることはない。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の学習システム(50)では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。このため、本発明の学習システム(50)では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
(a)ユーザの入力装置(1)の操作により、処理装置(5)の入力部(21)は、そのラベルが設定されたデータである学習データと終了条件とを入力する(S1)。
(b)処理装置(5)の学習部(21)は、学習アルゴリズムを用いて、学習データを学習して仮説を生成する(S24)。
記憶部(33)には、そのラベルが設定されたデータである複数の候補データが格納されている。
(c)処理装置(5)の計算部(23)は、記憶部(33)を参照し、仮説を用いて、複数の候補データの各々に対するスコアを計算する(S4)。
(d)処理装置(5)の選択部(23)は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する(S4)。
(e)処理装置(5)のデータ更新部(24)は、上記選択された第1候補データを学習データとして学習部(21)に出力する(S6)。このとき、学習部(21)は、(b)ステップを実行する。
(f)終了条件が満たされないとき(S3−NO)、処理装置(5)の制御部(22)は、(c)ステップと(d)ステップと(e)ステップとが実行されるように、学習部(21)と計算部(23)と選択部(23)とデータ更新部(24)とを制御する。
(g)終了条件が満たされたとき(S3−YES)、処理装置(5)の制御部(22)は、(e)ステップにて学習部(21)により生成された仮説を出力装置(4)に出力する。
(a)ユーザの入力装置(1)の操作により、処理装置(5)の入力部(21)は、そのラベルが設定されたデータである学習データと終了条件とを入力する(S1)。
(b)処理装置(5)の学習部(21)は、学習アルゴリズムを用いて、アンサンブル学習により学習データを学習し複数の仮説を生成する(S21〜S26)。
記憶部(33)には、そのラベルが設定されたデータである複数の候補データが格納されている。
(c)処理装置(5)の計算部(23)は、複数の仮説に対して重み付き平均を施し、記憶部(33)を参照し、複数の仮説を用いて、複数の候補データの各々に対するスコアを計算する(S4)。
(d)処理装置(5)の選択部(23)は、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択する(S4)。
(e)処理装置(5)のデータ更新部(24)は、上記選択された第1候補データを学習データとして学習部(21)に出力する(S6)。このとき、学習部(21)は、(b)ステップを実行する。
(f)終了条件が満たされないとき(S3−NO)、処理装置(5)の制御部(22)は、(c)ステップと(d)ステップと(e)ステップとが実行されるように、学習部(21)と計算部(23)と選択部(23)とデータ更新部(24)とを制御する。
(g)終了条件が満たされたとき(S3−YES)、処理装置(5)の制御部(22)は、(e)ステップにて学習部(21)により生成された複数の仮説を出力装置(4)に出力する。
複数の候補データが前述のアンバランスなデータである場合、本発明の学習システム(60)では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の学習システム(60)では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の学習システム(60)では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データが偏ることはない。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の学習システム(60)では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。このため、本発明の学習システム(60)では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
(第1実施形態)
図1は、本発明の第1実施形態に係る学習システムとして能動学習システム50の構成を示すブロック図である。本発明の能動学習システム50は、入力装置1と、データ処理装置5と、出力装置4とを具備する。データ処理装置5はコンピュータであり、データ処理装置5には、入力装置1と出力装置4とが接続されている。出力装置4としては表示装置、印刷装置が例示される。
アンサンブル学習を行う場合、学習部21は、予め決められたリサンプリング回数分だけ上記の学習処理を繰り返して複数の仮説を得る。
本実施例では、候補データ記憶部33は、上記大容量メモリとしてメモリ7と分けられてデータ処理装置5に備えられているが、候補データの数が少ない場合、CPU6が高速に計算できるため、メモリ7内に設けられてもよい。この場合、メモリ7の記憶部3は、更に、候補データ記憶部33を具備する。
ここでは、アンサンブル学習としてバギングを用いて説明を行うが、本発明はブースティングなどの他のアンサンブル学習に適用してもよい。アンサンブル学習を行う場合、リサンプリング回数をTとし、上記の学習処理をT回繰り返して複数の仮説としてT個の仮説を得る。
また、下位学習アルゴリズムによる学習は、アンサンブル学習としてバギングを用いる場合には独立に行うことができるので、並列に実行することも可能である。
また、学習データとして、属性が少な過ぎる、あるいは全ての属性が重要であると類推されているなど不要な属性を減らす必要が無い場合には、上記のステップS23を省くことができる。
複数の候補データが前述のアンバランスなデータである場合、本発明の能動学習システム50では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の能動学習システム50では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の能動学習システム50では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データ(第1候補データ)が偏ることはない。つまり、学習がある程度進んで、候補データに対するスコアが類似してきた場合、予めに決められたスコアを選択したのでは、例えば決定木のある部分木のデータばかりが選択される可能性があるが、本発明の能動学習システム50では、確率的に選択しているので、適切にばらついて選択データ(選択される候補データ)が偏ることが無くデータ空間から一様にデータが選択され、解の不安定さを防ぐことができる。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の能動学習システム50では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。これにより、データや不要な属性数に依存する最適な選択確率が幾つであっても、ある程度カバーすることができ、予測精度が向上する。また、属性数が少なくなることにより計算効率が向上するため、予測精度が向上する。元の属性数と同数だけリサンプリングすると、平均的には属性の約6割が選択されることになるが、前述した従来の手法のように5割などと予め定めて5割の属性をランダムに選択した場合よりも広く分散させることができる。
このように、本発明の能動学習システム50では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
学習部21は、ステップS1にて、活性の有無が明らかになっている学習データと、決定木を学習するアルゴリズム(下位学習アルゴリズム)と、終了条件とを受け取り、学習処理(ステップS2)にて、現時点のデータ、すなわち、学習データからサンプリングにより生成した複数の部分サンプルを、決定木の下位学習アルゴリズムに学習させ、複数の決定木を得る。
次に、制御部22は、ステップS3にて終了条件を満たしているかを判定し、満たしているなら、得られた複数の決定木を出力装置4に出力し、終了する。
満たしていなければ、データ選択部23は、データ選択処理(ステップS4)にて、候補データ記憶部33に格納された複数の候補データに対して、得られた複数の決定木の各々の正例スコアを上述した手法で計算し平均を取る。こうして計算された複数の候補データに対するスコアに応じて予め定めた選択関数に従って選択する第1候補データを決める。
選択された第1候補データのラベルが化合物の活性実験などで確定された場合、データ更新部25は、データ更新処理(ステップS5)にて、入力装置1から入力されたラベルを第1候補データに設定する。データ更新部25は、そのラベル付き選択データ(第1候補データ)を学習データに追加し、候補データ記憶部33からその選択データを削除する。学習部21は、第1候補データが追加された学習データにより能動学習を続行する。
本発明の第2実施形態に係る学習システムでは、本発明の第1実施形態に係る学習システム(能動学習システム50)と重複する説明を省略する。図5は、本発明の第2実施形態に係る学習システムとして知識発見システム60の構成を示すブロック図である。知識発見システム60のデータ処理部2は、能動学習システム50のデータ処理部2のデータ更新部24に代えて、データ更新部25を具備する。
次に、データ処理部2のデータ更新部25は、データ更新処理を行う(ステップS6)。
複数の候補データが前述のアンバランスなデータである場合、本発明の知識発見システム60では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、情報数が少ない候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
複数の候補データが前述の価値の異なるデータである場合、本発明の知識発見システム60では、仮説を用いて複数の候補データの各々に対するスコアを計算し、上記計算されたスコアに基づいて、複数の候補データの中から、第1候補データを選択するため、価値の高い候補データを選択することができ、学習データのラベル(クラス、関数値)に属する多様な候補データを得ることができる。このため、より良い仮説を生成すること(所望の結果を予測すること)ができる。
本発明の知識発見システム60では、第1候補データを選択するための基準が予めに決められているわけではない(必ずしも情報量最大の候補データを選択するわけではない)ために、選択される候補データ(第1候補データ)が偏ることはない。つまり、学習がある程度進んで、候補データに対するスコアが類似してきた場合、予めに決められたスコアを選択したのでは、例えば決定木のある部分木のデータばかりが選択される可能性があるが、本発明の知識発見システム60では、確率的に選択しているので、適切にばらついて選択データ(選択される候補データ)が偏ることが無くデータ空間から一様にデータが選択され、解の不安定さを防ぐことができる。このため、候補データ全体から反映されるような仮説を生成することができ、予測精度が安定する。
本発明の知識発見システム60では、学習データをリサンプリングすることに加えて、学習データの属性もリサンプリングするため、不要な属性を除くことができる。これにより、データや不要な属性数に依存する最適な選択確率が幾つであっても、ある程度カバーすることができ、予測精度が向上する。また、属性数が少なくなることにより計算効率が向上するため、予測精度が向上する。元の属性数と同数だけリサンプリングすると、平均的には属性の約6割が選択されることになるが、前述した従来の手法のように5割などと予め定めて5割の属性をランダムに選択した場合よりも広く分散させることができる。
このように、本発明の知識発見システム60では、部分データと不要な属性を除いた部分属性とにより学習データを学習し複数の仮説を生成した場合、従来の手法よりも迅速に所望の結果を予測することができ、予測精度が向上する。
学習部21は、ステップS1にて、活性の有無が明らかになっている学習データと、決定木を学習するアルゴリズム(下位学習アルゴリズム)と、終了条件とを受け取り、学習処理(ステップS2)にて、現時点のデータ、すなわち、学習データからサンプリングにより生成した複数の部分サンプルを、決定木の下位学習アルゴリズムに学習させ、複数の決定木を得る。
次に、制御部22は、ステップS3にて終了条件を満たしているかを判定し、満たしているなら、得られた複数の決定木を出力装置4に出力し、終了する。
満たしていなければ、データ選択部23は、データ選択処理(ステップS4)にて、候補データ記憶部33に格納された複数の候補データに対して、得られた複数の決定木の各々の正例スコアを上述した手法で計算し平均を取る。こうして計算された複数の候補データに対するスコアに応じて予め定めた選択関数に従って選択する第1候補データを決める。
能動学習システム50とは異なり、複数の候補データのラベルは既に既知である。このため、第1候補データのラベルも既に既知である。データ更新部25は、データ更新処理(ステップS5)にて、そのラベル付き選択データ(第1候補データ)を学習データとし、候補データ記憶部33からその選択データを削除する。学習部21は、学習データ(第1候補データ)により知識発見を続行する。
2 データ処理部
3 記憶部
4 出力装置
5 データ処理装置
6 CPU
7 メモリ
21 学習部
22 制御部
23 データ選択部
24 データ更新部
25 データ更新部
31 リサンプリングデータ記憶部
32 学習データ記憶部
33 候補データ記憶部
Claims (21)
- そのラベルが設定されたデータである学習データと終了条件とを入力する入力部と、
学習アルゴリズムを用いて、前記学習データを学習して仮説を生成する学習部と、
そのラベルが設定されていないデータである複数の候補データが格納された記憶部と、
前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算する計算部と、
前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択する選択部と、
ユーザにより決定されたラベルを前記選択された第1候補データに設定する設定部と、
前記選択された第1候補データを前記学習データに付加して前記学習部に出力するデータ更新部と、
出力装置と、
前記終了条件が満たされたとき、前記学習部により生成された前記仮説を前記出力装置に出力する制御部と
を具備する学習システム。 - そのラベルが設定されたデータである学習データと終了条件とを入力する入力部と、
学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成する学習部と、
そのラベルが設定されていないデータである複数の候補データが格納された記憶部と、
前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算する計算部と、
前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択する選択部と、
ユーザにより決定されたラベルを前記選択された第1候補データに設定する設定部と、
前記選択された第1候補データを前記学習データに付加して前記学習部に出力するデータ更新部と、
出力装置と、
前記終了条件が満たされたとき、前記学習部により生成された前記複数の仮説を前記出力装置に出力する制御部と
を具備する学習システム。 - そのラベルが設定されたデータである学習データと終了条件とを入力する入力部と、
学習アルゴリズムを用いて、前記学習データを学習して仮説を生成する学習部と、
そのラベルが設定されたデータである複数の候補データが格納された記憶部と、
前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算する計算部と、
前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択する選択部と、
前記選択された第1候補データを前記学習データとして前記学習部に出力するデータ更新部と、
出力装置と、
前記終了条件が満たされたとき、前記学習部により生成された前記仮説を前記出力装置に出力する制御部と
を具備する学習システム。 - そのラベルが設定されたデータである学習データと終了条件とを入力する入力部と、
学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成する学習部と、
そのラベルが設定されたデータである複数の候補データが格納された記憶部と、
前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算する計算部と、
前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択する選択部と、
前記選択された第1候補データを前記学習データとして前記学習部に出力するデータ更新部と、
出力装置と、
前記終了条件が満たされたとき、前記学習部により生成された前記複数の仮説を前記出力装置に出力する制御部と
を具備する学習システム。 - 前記学習部は、前記アンサンブル学習により、前記学習データをリサンプリングして部分データを生成し、前記学習データの属性をリサンプリングして部分属性を生成し、前記部分データと前記部分属性とに基づいて前記学習データを学習する
請求項2又は4に記載の学習システム。 - 前記選択部は、
前記複数の候補データの中から前記第1候補データを選択するための、予め定められた選択関数を有する
請求項1〜5のいずれか一項に記載の学習システム。 - 前記選択関数は、指数的に減少する関数である
請求項6に記載の学習システム。 - 入力装置と処理装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる学習方法であって、
(a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
(b)前記処理装置が、学習アルゴリズムを用いて、前記学習データを学習して仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
(c)前記処理装置が、前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
(d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
(e)ユーザの前記入力装置の操作により前記処理装置が、ユーザにより決定されたラベルを前記選択された第1候補データに設定するステップと、
(f)前記処理装置が、前記選択された第1候補データを前記学習データに付加し、前記(b)ステップを実行するステップと、
(g)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップと前記(f)ステップとを実行するステップと、
(h)前記終了条件が満たされたとき、前記処理装置が、前記(f)ステップにより生成された前記仮説を前記出力装置に出力するステップと
を具備する学習方法。 - 入力装置と処理装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる学習方法であって、
(a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
(b)前記処理装置が、学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
(c)前記処理装置が、前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
(d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
(e)ユーザの前記入力装置の操作により前記処理装置が、ユーザにより決定されたラベルを前記選択された第1候補データに設定するステップと、
(f)前記処理装置が、前記選択された第1候補データを前記学習データに付加し、前記(b)ステップを実行するステップと、
(g)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップと前記(f)ステップとを実行するステップと、
(h)前記終了条件が満たされたとき、前記処理装置が、前記(f)ステップにより生成された前記複数の仮説を前記出力装置に出力するステップと
を具備する学習方法。 - 入力装置と処理装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる学習方法であって、
(a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
(b)前記処理装置が、学習アルゴリズムを用いて、前記学習データを学習して仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
(c)前記処理装置が、前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
(d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
(e)前記処理装置が、前記選択された第1候補データを前記学習データとして前記(b)ステップを実行するステップと、
(f)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップとを実行するステップと、
(g)前記終了条件が満たされたとき、前記処理装置が、前記(e)ステップにより生成された前記仮説を前記出力装置に出力するステップと
を具備する学習方法。 - 入力装置と処理装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる学習方法であって、
(a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
(b)前記処理装置が、学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
(c)前記処理装置が、前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
(d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
(e)前記処理装置が、前記選択された第1候補データを前記学習データとして前記(b)ステップを実行するステップと、
(f)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップとを実行するステップと、
(g)前記終了条件が満たされたとき、前記処理装置が、前記(e)ステップにより生成された前記複数の仮説を前記出力装置に出力するステップと
を具備する学習方法。 - 前記(b)ステップは、前記アンサンブル学習により、前記学習データをリサンプリングして部分データを生成し、前記学習データの属性をリサンプリングして部分属性を生成し、前記部分データと前記部分属性とに基づいて前記学習データを学習する
請求項9又は11に記載の学習方法。 - 前記処理装置は、
前記複数の候補データの中から前記第1候補データを選択するための、予め定められた選択関数を有する
請求項8〜12のいずれか一項に記載の学習方法。 - 前記選択関数は、指数的に減少する関数である
請求項13に記載の学習方法。 - 入力装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる方法を、前記コンピュータに実行させる学習プログラムであって、
(a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
(b)前記処理装置が、学習アルゴリズムを用いて、前記学習データを学習して仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
(c)前記処理装置が、前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
(d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
(e)ユーザの前記入力装置の操作により前記処理装置が、ユーザにより決定されたラベルを前記選択された第1候補データに設定するステップと、
(f)前記処理装置が、前記選択された第1候補データを前記学習データに付加し、前記(b)ステップを実行するステップと、
(g)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップと前記(f)ステップとを実行するステップと、
(h)前記終了条件が満たされたとき、前記処理装置が、前記(f)ステップにより生成された前記仮説を前記出力装置に出力するステップと
を前記コンピュータに実行させる学習プログラム。 - 入力装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる方法を、前記コンピュータに実行させる学習プログラムであって、
(a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
(b)前記処理装置が、学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
(c)前記処理装置が、前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
(d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
(e)ユーザの前記入力装置の操作により前記処理装置が、ユーザにより決定されたラベルを前記選択された第1候補データに設定するステップと、
(f)前記処理装置が、前記選択された第1候補データを前記学習データに付加し、前記(b)ステップを実行するステップと、
(g)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップと前記(f)ステップとを実行するステップと、
(h)前記終了条件が満たされたとき、前記処理装置が、前記(f)ステップにより生成された前記複数の仮説を前記出力装置に出力するステップと
を前記コンピュータに実行させる学習プログラム。 - 入力装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる方法を、前記コンピュータに実行させる学習プログラムであって、
(a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
(b)前記処理装置が、学習アルゴリズムを用いて、前記学習データを学習して仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
(c)前記処理装置が、前記記憶部を参照し、前記仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
(d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
(e)前記処理装置が、前記選択された第1候補データを前記学習データとして前記(b)ステップを実行するステップと、
(f)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップとを実行するステップと、
(g)前記終了条件が満たされたとき、前記処理装置が、前記(e)ステップにより生成された前記仮説を前記出力装置に出力するステップと
を前記コンピュータに実行させる学習プログラム。 - 入力装置と記憶部と出力装置とを具備するコンピュータを用いて、そのラベルが設定されたデータである学習データを学習させる方法を、前記コンピュータに実行させる学習プログラムであって、
(a)ユーザの前記入力装置の操作により前記処理装置が、前記学習データと終了条件とを入力するステップと、
(b)前記処理装置が、学習アルゴリズムを用いて、アンサンブル学習により前記学習データを学習し複数の仮説を生成するステップと、前記記憶部には、そのラベルが設定されていないデータである複数の候補データが格納され、
(c)前記処理装置が、前記複数の仮説に対して重み付き平均を施し、前記記憶部を参照し、前記複数の仮説を用いて、前記複数の候補データの各々に対するスコアを計算するステップと、
(d)前記処理装置が、前記計算されたスコアに基づいて、前記複数の候補データの中から、第1候補データを選択するステップと、
(e)前記処理装置が、前記選択された第1候補データを前記学習データとして前記(b)ステップを実行するステップと、
(f)前記終了条件が満たされないとき、前記処理装置が、前記(c)ステップと前記(d)ステップと前記(e)ステップとを実行するステップと、
(g)前記終了条件が満たされたとき、前記処理装置が、前記(e)ステップにより生成された前記複数の仮説を前記出力装置に出力するステップと
を前記コンピュータに実行させる学習プログラム。 - 前記(b)ステップは、前記アンサンブル学習により、前記学習データをリサンプリングして部分データを生成し、前記学習データの属性をリサンプリングして部分属性を生成し、前記部分データと前記部分属性とに基づいて前記学習データを学習する
請求項16又は18に記載の学習プログラム。 - 前記処理装置は、
前記複数の候補データの中から前記第1候補データを選択するための、予め定められた選択関数を有する
請求項15〜19のいずれか一項に記載の学習プログラム。 - 前記選択関数は、指数的に減少する関数である
請求項20に記載の学習プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003338793A JP2005107743A (ja) | 2003-09-29 | 2003-09-29 | 学習システム |
US10/952,334 US7698235B2 (en) | 2003-09-29 | 2004-09-28 | Ensemble learning system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003338793A JP2005107743A (ja) | 2003-09-29 | 2003-09-29 | 学習システム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009170637A Division JP5126694B2 (ja) | 2009-07-21 | 2009-07-21 | 学習システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005107743A true JP2005107743A (ja) | 2005-04-21 |
Family
ID=34373326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003338793A Pending JP2005107743A (ja) | 2003-09-29 | 2003-09-29 | 学習システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US7698235B2 (ja) |
JP (1) | JP2005107743A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006309485A (ja) * | 2005-04-28 | 2006-11-09 | Nec Corp | 能動学習方法および能動学習システム |
JP2007304783A (ja) * | 2006-05-10 | 2007-11-22 | Nec Corp | 実験計画方法および実験計画システム |
JP2007304782A (ja) * | 2006-05-10 | 2007-11-22 | Nec Corp | データセット選択装置および実験計画システム |
JP2008117343A (ja) * | 2006-11-08 | 2008-05-22 | Nec Corp | 学習処理装置 |
WO2008072459A1 (ja) | 2006-12-11 | 2008-06-19 | Nec Corporation | 能動学習システム、能動学習方法、及び能動学習用プログラム |
JP2009301557A (ja) * | 2009-07-21 | 2009-12-24 | Nec Corp | 学習システム |
JP2010122918A (ja) * | 2008-11-19 | 2010-06-03 | Toshiba Corp | 最適部分波形データ生成装置及び方法ならびにロープ状態判定装置及び方法 |
JP2020052783A (ja) * | 2018-09-27 | 2020-04-02 | 株式会社東芝 | 学習装置、学習方法及びプログラム |
JP2020064476A (ja) * | 2018-10-18 | 2020-04-23 | コニカミノルタ株式会社 | 情報処理装置及びプログラム |
US11580146B2 (en) | 2017-05-11 | 2023-02-14 | Nec Corporation | Inference system |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060155540A1 (en) * | 2005-01-07 | 2006-07-13 | Peilin Chou | Method for data training |
US7394393B2 (en) * | 2005-08-02 | 2008-07-01 | Gm Global Technology Operations, Inc. | Adaptive driver workload estimator |
US7840504B2 (en) * | 2006-05-22 | 2010-11-23 | The Board Of Trustees Of The Leland Stanford Junior University | Learning enhanced simulated annealing |
US8099311B2 (en) * | 2007-02-23 | 2012-01-17 | CrowdEngineering, Inc. | System and method for routing tasks to a user in a workforce |
US8180713B1 (en) | 2007-04-13 | 2012-05-15 | Standard & Poor's Financial Services Llc | System and method for searching and identifying potential financial risks disclosed within a document |
US8086549B2 (en) * | 2007-11-09 | 2011-12-27 | Microsoft Corporation | Multi-label active learning |
US8583524B2 (en) * | 2008-05-06 | 2013-11-12 | Richrelevance, Inc. | System and process for improving recommendations for use in providing personalized advertisements to retail customers |
US8364528B2 (en) * | 2008-05-06 | 2013-01-29 | Richrelevance, Inc. | System and process for improving product recommendations for use in providing personalized advertisements to retail customers |
US8019642B2 (en) * | 2008-05-06 | 2011-09-13 | Richrelevance, Inc. | System and process for receiving boosting recommendations for use in providing personalized advertisements to retail customers |
US8108329B2 (en) * | 2008-05-06 | 2012-01-31 | Richrelevance, Inc. | System and process for boosting recommendations for use in providing personalized advertisements to retail customers |
JP5786717B2 (ja) * | 2010-01-06 | 2015-09-30 | 日本電気株式会社 | データ処理装置、そのコンピュータプログラムおよびデータ処理方法 |
JP5465689B2 (ja) * | 2011-02-28 | 2014-04-09 | 株式会社日立製作所 | 高精度な類似検索システム |
WO2014189521A1 (en) * | 2013-05-24 | 2014-11-27 | Nokia Siemens Networks Oy | Automatic correlation and prevention of improper user plane traffic wireless networks |
US9953271B2 (en) | 2013-11-22 | 2018-04-24 | California Institute Of Technology | Generation of weights in machine learning |
US9858534B2 (en) | 2013-11-22 | 2018-01-02 | California Institute Of Technology | Weight generation in machine learning |
US10558935B2 (en) * | 2013-11-22 | 2020-02-11 | California Institute Of Technology | Weight benefit evaluator for training data |
US10535014B2 (en) | 2014-03-10 | 2020-01-14 | California Institute Of Technology | Alternative training distribution data in machine learning |
US10438216B1 (en) | 2015-03-30 | 2019-10-08 | Groupon, Inc. | Apparatus and method for enhanced message targeting |
US10528889B2 (en) | 2016-03-25 | 2020-01-07 | Futurewei Technologies, Inc. | Stereoscopic learning for classification |
US11816539B1 (en) * | 2016-06-14 | 2023-11-14 | SurgeonCheck LLC | Selection system for machine learning module for determining target metrics for evaluation of health care procedures and providers |
US10832162B2 (en) | 2016-09-08 | 2020-11-10 | International Business Machines Corporation | Model based data processing |
TWI612433B (zh) | 2016-11-17 | 2018-01-21 | 財團法人工業技術研究院 | 整體式學習預測裝置與方法、以及非暫存電腦可讀的儲存媒介 |
US20190079957A1 (en) * | 2017-09-12 | 2019-03-14 | Linkedin Corporation | Centralized feature management, monitoring and onboarding |
US11270228B2 (en) * | 2017-11-17 | 2022-03-08 | Panasonic Intellectual Property Management Co., Ltd. | Information processing method and information processing system |
US11810340B2 (en) | 2017-11-29 | 2023-11-07 | International Business Machines Corporation | System and method for consensus-based representation and error checking for neural networks |
US11663515B2 (en) | 2018-08-09 | 2023-05-30 | Servicenow, Inc. | Machine learning classification with model quality prediction |
US10884499B2 (en) | 2018-11-20 | 2021-01-05 | Andrew Jay KELLER | Headware for computer control |
USD881879S1 (en) | 2018-11-20 | 2020-04-21 | Andrew Jay KELLER | Headwear |
US11551437B2 (en) | 2019-05-29 | 2023-01-10 | International Business Machines Corporation | Collaborative information extraction |
US10999146B1 (en) * | 2020-04-21 | 2021-05-04 | Cisco Technology, Inc. | Learning when to reuse existing rules in active labeling for device classification |
USD929991S1 (en) | 2020-06-17 | 2021-09-07 | Neurosity, Inc. | Headwear |
US11747903B2 (en) | 2020-07-01 | 2023-09-05 | Neurosity, Inc. | Headware for computer control |
EP4099142A4 (en) | 2021-04-19 | 2023-07-05 | Samsung Electronics Co., Ltd. | ELECTRONIC DEVICE AND METHOD OF OPERATION |
USD972735S1 (en) | 2021-06-04 | 2022-12-13 | Neurosity, Inc. | Headwear |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11316754A (ja) * | 1998-05-06 | 1999-11-16 | Nec Corp | 実験計画法及び実験計画プログラムを記録した記録媒体 |
JP2001229026A (ja) * | 1999-12-09 | 2001-08-24 | Nec Corp | 知識発見方式 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05257694A (ja) | 1992-03-11 | 1993-10-08 | Toshiba Corp | ファジイ知識獲得装置 |
JPH06180773A (ja) | 1992-10-16 | 1994-06-28 | Toshiba Corp | パターン認識装置 |
JPH08129488A (ja) | 1994-09-05 | 1996-05-21 | Toshiba Corp | 推論方法及び推論システム |
JPH09297686A (ja) | 1996-05-07 | 1997-11-18 | Mitsubishi Electric Corp | データマイニング装置 |
JPH10293756A (ja) | 1997-04-18 | 1998-11-04 | Nec Corp | 組合せ最適化方法 |
JPH11259447A (ja) | 1998-03-06 | 1999-09-24 | Toshiba Corp | 属性選択装置、属性評価装置、属性選択方法、属性評価方法 |
JP4530235B2 (ja) | 1999-06-11 | 2010-08-25 | 富士通株式会社 | 知識発見方法 |
US20030033436A1 (en) * | 2001-05-14 | 2003-02-13 | Weiss Sholom M. | Method for statistical regression using ensembles of classification solutions |
US20020184169A1 (en) * | 2001-05-31 | 2002-12-05 | Opitz David William | Method and device for creating a sequence of hypotheses |
-
2003
- 2003-09-29 JP JP2003338793A patent/JP2005107743A/ja active Pending
-
2004
- 2004-09-28 US US10/952,334 patent/US7698235B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11316754A (ja) * | 1998-05-06 | 1999-11-16 | Nec Corp | 実験計画法及び実験計画プログラムを記録した記録媒体 |
JP2001229026A (ja) * | 1999-12-09 | 2001-08-24 | Nec Corp | 知識発見方式 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006309485A (ja) * | 2005-04-28 | 2006-11-09 | Nec Corp | 能動学習方法および能動学習システム |
JP4645288B2 (ja) * | 2005-04-28 | 2011-03-09 | 日本電気株式会社 | 能動学習方法および能動学習システム |
JP2007304783A (ja) * | 2006-05-10 | 2007-11-22 | Nec Corp | 実験計画方法および実験計画システム |
JP2007304782A (ja) * | 2006-05-10 | 2007-11-22 | Nec Corp | データセット選択装置および実験計画システム |
JP2008117343A (ja) * | 2006-11-08 | 2008-05-22 | Nec Corp | 学習処理装置 |
WO2008072459A1 (ja) | 2006-12-11 | 2008-06-19 | Nec Corporation | 能動学習システム、能動学習方法、及び能動学習用プログラム |
JP2010122918A (ja) * | 2008-11-19 | 2010-06-03 | Toshiba Corp | 最適部分波形データ生成装置及び方法ならびにロープ状態判定装置及び方法 |
JP2009301557A (ja) * | 2009-07-21 | 2009-12-24 | Nec Corp | 学習システム |
US11580146B2 (en) | 2017-05-11 | 2023-02-14 | Nec Corporation | Inference system |
JP2020052783A (ja) * | 2018-09-27 | 2020-04-02 | 株式会社東芝 | 学習装置、学習方法及びプログラム |
US11210566B2 (en) | 2018-09-27 | 2021-12-28 | Kabushiki Kaisha Toshiba | Training apparatus, training method and recording medium |
JP7005463B2 (ja) | 2018-09-27 | 2022-01-21 | 株式会社東芝 | 学習装置、学習方法及びプログラム |
JP2020064476A (ja) * | 2018-10-18 | 2020-04-23 | コニカミノルタ株式会社 | 情報処理装置及びプログラム |
JP7196529B2 (ja) | 2018-10-18 | 2022-12-27 | コニカミノルタ株式会社 | 情報処理装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US7698235B2 (en) | 2010-04-13 |
US20050071301A1 (en) | 2005-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005107743A (ja) | 学習システム | |
KR102107378B1 (ko) | 하이퍼파라미터 자동 최적화 방법 및 그 장치 | |
Dang et al. | Self-adaptation of mutation rates in non-elitist populations | |
US8700548B2 (en) | Optimization technique using evolutionary algorithms | |
Aydin et al. | Learning sparse models for a dynamic Bayesian network classifier of protein secondary structure | |
US20070011127A1 (en) | Active learning method and active learning system | |
JP7215077B2 (ja) | 予測プログラム、予測方法及び予測装置 | |
WO2022166115A1 (en) | Recommendation system with adaptive thresholds for neighborhood selection | |
EP2083379B1 (en) | Active studying system, method and program | |
Wagner et al. | SexualGA: Gender-specific selection for genetic algorithms | |
Faerman et al. | Lasagne: Locality and structure aware graph node embedding | |
KR100537415B1 (ko) | 앙상블 서포트 벡터 머신을 이용한 인터넷 환경의 웹 정보예측 시스템 및 방법 | |
JP5126694B2 (ja) | 学習システム | |
Bouzbita et al. | Hidden Markov model classifier for the adaptive ACS-TSP Pheromone parameters | |
Cano et al. | Learning classification rules with differential evolution for high-speed data stream mining on GPU s | |
WO2022166125A1 (en) | Recommendation system with adaptive weighted baysian personalized ranking loss | |
JP5187635B2 (ja) | 能動学習システム、能動学習方法、及び能動学習用プログラム | |
Wang et al. | Lnetwork: an efficient and effective method for constructing phylogenetic networks | |
Hiwa et al. | Novel search scheme for multi-objective evolutionary algorithms to obtain well-approximated and widely spread Pareto solutions | |
WO2011016281A2 (ja) | ベイジアンネットワーク構造学習のための情報処理装置及びプログラム | |
Tanaka et al. | An adaptation of binary relevance for multi-label classification applied to functional genomics | |
Prabha et al. | A HM Ant Miner using evolutionary algorithm | |
Krol | Distributed Monte Carlo feature selection: Extracting informative features out of multidimensional problems with linear speedup | |
Kalyankar | Effect of training set size in decision tree construction by using GATree and J48 algorithm | |
JP3364274B2 (ja) | タスク割り当て装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100913 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101001 |