JP2010092266A - 学習装置、学習方法及びプログラム - Google Patents

学習装置、学習方法及びプログラム Download PDF

Info

Publication number
JP2010092266A
JP2010092266A JP2008261597A JP2008261597A JP2010092266A JP 2010092266 A JP2010092266 A JP 2010092266A JP 2008261597 A JP2008261597 A JP 2008261597A JP 2008261597 A JP2008261597 A JP 2008261597A JP 2010092266 A JP2010092266 A JP 2010092266A
Authority
JP
Japan
Prior art keywords
learning
importance
prediction model
function
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008261597A
Other languages
English (en)
Inventor
Norihito Teramoto
礼仁 寺本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008261597A priority Critical patent/JP2010092266A/ja
Publication of JP2010092266A publication Critical patent/JP2010092266A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】予測モデルの学習の計算手順を簡潔化し、計算時間を要さない学習装置を提供する。
【解決手段】訓練サンプルデータの入力データである訓練データと、テストデータとの生成確率の比である重要度に基づき、テストデータの出力を予測するための予測モデルを学習する学習装置1であって、重要度を考慮した損失関数である重要度重み付き損失関数を用いて予測モデルの学習を行う学習部12を有する。
【選択図】図1

Description

本発明は、学習装置、学習方法及びプログラムに関し、特に、訓練データとテストデータとの確率分布が異なる学習装置、学習方法及びプログラムに関する。
人間が行っている"学習" 学習能力と同様の機能をコンピュータ" コンピュータで実現させるための機械学習のアルゴリズムの一つである教師あり学習では、学習に用いる訓練データと、学習した結果の評価に用いるテストデータとが同じ確率分布に従うことを前提として学習を行う。なお、教師あり学習の目的は、入力データと出力データとのペア(訓練サンプルデータ)が与えられた場合に、その訓練サンプルデータに基づいて新しい入力(テストデータ)に対する正しい出力を予測することである。このように、訓練サンプルデータが与えられることから教師あり学習と呼ばれる。以降、訓練サンプルデータのうち入力データのことを訓練データといい、テストデータの出力のことをテストデータのラベルという。
現実には、訓練データとテストデータとが同じ確率分布に従うとは限らない。例えば、訓練データを取得したときと異なる日時や状況下で取得されたテストデータは、必ずしも訓練データと同じ確率分布とならない。
訓練データとテストデータとが異なる確率分布に従っている場合、訓練データとテストデータとの確率分布の違いを考慮して学習を行うことが望ましい。なお、このような訓練データとテストデータとが異なる確率分布に従う状況は共変量シフトと呼ばれている。
共変量シフトの状況においてテストデータのラベルをより高い精度で予測するためには、テストデータの確率分布に応じた学習が有効である。具体的には、テストデータの密度が高い領域の訓練データの学習における寄与度を大きくし、テストデータの密度が低い領域の訓練データの寄与度を小さくする適応的な学習が有効であると考えられる。
ここで、訓練データに重み付けを行うことによって訓練データ毎に学習における寄与度を変え、その寄与度に従った学習をする手法が例えば、特許文献1に開示されている。しかし、特許文献1に開示された手法では、テストデータを考慮しておらず、共変量シフトの状況ではテストデータのラベルをより高い精度で予測するのは難しい。
一方、テストデータの密度が高い領域の訓練データの学習における寄与度を大きくし、テストデータの密度が低い領域の訓練データの寄与度を小さくする適応的な学習を実現する手法として、訓練データとテストデータとの生成確率の比を求めて教師あり学習を行う手法が非特許文献1,2に開示されている。以降、訓練データとテストデータとの生成確率の比のことを重要度という。
非特許文献1に開示された手法は、重要度を推定するのに適当な非線形の基底関数を導入し、尤度交差確認法によって重要度を推定することを特徴としている。
非特許文献2に開示された手法においても、非特許文献1に開示された手法と同様の手法を用いているが、対数線形モデルを用いて大規模なデータを扱えるように拡張している。
また、非特許文献2では、訓練データとテストデータとにそれぞれクラスラベル+1,−1を与えて学習を行い、その確率的な予測値から重要度を推定する方法も提案されている。なお、非特許文献1,2に開示された手法はともに、その妥当性及び性能の向上が計算機実験によって確認されている。なお、機械学習において性能とは、予測精度のことをいう。
特開2006−251955号公報 Sugiyama, M., Nakajima, S., Kashima, H., Bunau, P., Kawanabe, M. Direct importance estimation with model selection and its application to covariate shift adaptation. Advances in Neural Information Processing Systems (NIPS), 2007. Tsuboi, Y., Kashima S., Hido, S., Bickel S., Sugiyama, M. Direct density ratio estimation for large-scale covariate shift adaptation. Proceeding of the eighth SIAM International Conference on Data Mining. 2008, 443-454.
しかしながら、非特許文献1,2に開示されている手法では、以下に示すような課題がある。
まず、非特許文献1に開示されている手法では、尤度交差確認法によって重要度を推定するため、重要度の推定に計算時間を要するという課題がある。
また、重要度を決定した後に分類学習や回帰学習を行うため、アルゴリズムが複雑となり、予測モデルの学習の計算手順が煩雑になるという課題がある。
次に、非特許文献2に開示されている方法は、非特許文献1に開示されている手法を高速化することに目的としており、基本的な枠組みは非特許文献1に開示されている手法と同一である。ただし、上述したように、訓練データとテストデータとにそれぞれクラスラベル+1,−1を与えて学習を行い、その予測結果から重要度を決定するため、重要度の推定に尤度交差確認法を必要としない。しかし、この場合でも学習パラメータの決定に交差確認法を必要とするため計算時間を要するという課題がある。なお、交差確認法とは、サンプルデータを複数のサブセットに分割し、その分割されたサブセットの1つを解析して仮説を構築し、残りのサブセットをその"仮説検定" 仮説の検証に用いる統計学の手法のことである。
本発明は、性能を担保しつつ、上述した課題のいずれかを解決する学習装置、学習方法及びプログラムを提供することを目的とする。
上記目的を達成するために本発明は、
訓練サンプルデータの入力データである訓練データと、テストデータとの生成確率の比である重要度に基づき、前記テストデータの出力を予測するための予測モデルを学習する学習装置であって、
前記重要度を考慮した損失関数である重要度重み付き損失関数を用いて前記予測モデルの学習を行う学習部を有する。
また、訓練サンプルデータの入力データである訓練データと、テストデータとの生成確率の比である重要度に基づき、前記テストデータの出力を予測するための予測モデルを学習する学習方法であって、
前記重要度を考慮した損失関数である重要度重み付き損失関数を用いて前記予測モデルの学習を行う処理を有する。
また、訓練サンプルデータの入力データである訓練データと、テストデータとの生成確率の比である重要度に基づき、前記テストデータの出力を予測するための予測モデルを学習する学習装置に、
前記重要度を考慮した損失関数である重要度重み付き損失関数を用いて前記予測モデルの学習を行う機能を実現させる。
本発明は以上説明したように構成されているので、予測モデルの学習の計算手順を簡潔化でき、計算時間を要することがない。
以下に、本発明の実施の形態について図面を参照して説明する。
本発明では、訓練データとテストデータとが異なる確率分布に従っている場合に、訓練データとテストデータとの生成確率の比である重要度を考慮した重要度重み付き損失関数を用いた勾配ブースティングによって分類器を構成する。なお、損失関数とは、予測値と、正しい値や望ましい値との違いを定義した関数のことである。また、ブースティングとは、あまり精度のよくない学習アルゴリズムを基にして精度の高い学習アルゴリズムを構成する手法のことであり、勾配ブースティングとは、損失関数の勾配を利用したブースティングのことである。
図1は、本発明の学習装置の実施の一形態の構成を示すブロック図である。
本実施形態の学習装置1は図1に示すように、プログラム制御により動作するデータ処理装置10と、データを記憶する記憶装置20とを備えている。
また、図1に示す学習装置1には、ユーザが操作することによって学習装置1への入力を行うキーボードやマウス等の入力装置30と、ディスプレイやプリンタ等の出力装置40とが接続されている。
データ処理装置10は、重要度推定部11と、学習部12と、判別部13とを備えている。
記憶装置20は、訓練サンプルデータ及びテストデータと、重要度推定部11が計算した重要度とを記憶するデータ記憶部21と、予測モデルを記憶するモデル記憶部22とを備えている。
以下にデータ処理装置10の各部の機能を説明する。
重要度推定部11は、データ記憶部21に記憶されている訓練サンプルデータとテストデータとを取得し、取得した訓練サンプルデータとテストデータとから教師あり学習によって各訓練データ点における重要度の計算を行う。そして、計算した各訓練データ点における重要度をデータ記憶部21に出力して記憶させる。
学習部12は、データ記憶部21から取得した各訓練データ点における重要度と、訓練サンプルデータとを用いて勾配ブースティングによる予測モデルの学習を行う。具体的には、重要度を考慮した重要度重み付き損失関数を定義し、その重要度重み付き損失関数が減少する方向への勾配の計算を繰り返すことによって予測モデルの学習を行う。そして、学習した予測モデルをモデル記憶部22に出力して記憶させる。
判別部13は、データ記憶部21から取得したテストデータと、モデル記憶部22から取得した予測モデルとを用いてテストデータのラベルを予測する。
以下に、上記のように構成された学習装置1において、テストデータのラベルを予測する動作について説明する。
まず、図1に示した重要度推定部11が重要度を計算する動作について説明する。
図2は、図1に示した重要度推定部11が重要度を計算する動作を説明するためのフローチャートである。
まず、入力装置30を操作するユーザによって重要度を計算する動作の実行指示が入力される。
ユーザによる重要度を計算する動作の実行指示を受け付けた入力装置30は、その旨を示した通知をデータ処理装置10の重要度推定部11へ送信する。
入力装置30から送信された通知を受信した重要度推定部11は、データ記憶部21から訓練サンプルデータとテストデータとを取得する(ステップS1)。
次に、重要度推定部11は、訓練データ及びテストデータのそれぞれにクラスラベル−1,+1を付与する(ステップS2)。
次に、重要度推定部11は、付与されたクラスラベルとその属性とを用いた分類学習を教師あり学習によって行う(ステップS3)。なお、分類学習の学習アルゴリズムとしては、確率的な予測値を求めることができる教師あり学習を用いることが可能である。ここでは、教師あり学習のアルゴリズムの1つであるランダムフォレストによって分類学習を行う。
ランダムフォレストとは、多くの決定木(デシジョンツリー)から構成され、個々の決定木による出力の最頻値を最終的な出力値とする分類器のことである。なお、ランダムフォレストの学習アルゴリズムの詳細は、「Breiman, L. Random Forests. Machine Learning. 2001, 5-32.」に記載されている。また、ランダムフォレストは、上述したように教師あり学習のアルゴリズムの1つであり、本形態のようにクラスラベルとして訓練データ及びテストデータを与えることは、これまでなされた事例のない全く新しい方法である。
次に、重要度推定部11は、分類学習によって得られた予測モデルを用いて、各訓練データ点における訓練データ及びテストデータがそれぞれのクラスに帰属する確率を計算する(ステップS4)。
ランダムフォレストの場合、テストデータに帰属する確率P(δ=+1|x)は、以下に示す(1)式によって計算できる。
Figure 2010092266
上記の(1)式において、Bはブートストラップ回数を示している。また、I[δ=+1,x]は、各ブートストラップサンプルによって学習したモデルにおいて、入力データxのラベルがy=1と予測された場合に1となり、それ以外の場合は0となる指示関数である。なお、ブートストラップとは、サンプルデータからリサンプリングを繰り返すことをいう。
また、訓練データに帰属する確率値P(δ=−1|x)は、確率の定義により、以下に示す(2)式によって計算できる。
Figure 2010092266
次に、重要度推定部11は、上記のテストデータに帰属する確率と、訓練データに帰属する確率とから各訓練データ点における重要度を計算する(ステップS5)。訓練データとテストデータとの生成確率比である重要度w(x)は、ベイズの定理を用いることにより、以下に示す(3)式によって求めることができる。
Figure 2010092266
上記の(3)式において、p(δ=−1)/p(δ=+1)は、訓練データ数/テストデータ数によって求めることができる。
そして、重要度の計算を行った重要度推定部11は、計算した各訓練データ点における重要度をデータ記憶部21に記憶させる(ステップS6)。
次に、図1に示した学習部12が学習を行う動作について説明する。
図3は、図1に示した学習部12が学習を行う動作を説明するためのフローチャートである。
まず、学習部12は、データ記憶部21から訓練サンプルデータと、各訓練データ点における重要度とを取得する(ステップS21)。
次に、学習部12は、判別関数F0を0とし、学習の繰り返し回数である反復回数の指示数mを1とする(ステップS22)。以降、判別関数Fは、上記反復回数の指示数mに応じてFmのように標記する。なお、判別関数とは、サンプルデータが属するグループを判別するための直線や曲線のことをいう。
次に、学習部12は、クラスラベル及びその属性を用いたランダムフォレストによって予測モデルの基となるモデルT1の学習を行う(ステップS23)。以降、モデルTは、上記反復回数の指示数mに応じてTmのように標記する。なお、ここでは、ランダムフォレストによって学習を行うが、ランダムフォレスト以外にもサポートベクターマシンやニューラルネットワーク、決定木などの教師あり学習によって学習を行うことができる。
次に、学習部12は、学習したモデルT1を判別関数F1とする(ステップS24)。
次に、学習部12は、反復回数の指示数mに1を加える(ステップS25)。
次に、学習部12は、重要度重み付き損失関数を判別関数Fm-1によって偏微分し、重要度重み付き損失関数が減少する方向への勾配を計算する(ステップS26)。
ステップS26の動作において学習部12は、まず、重要度重み付き損失関数Lを以下の(4)式のように定義する。
Figure 2010092266
上記の(4)式において、Nはサンプルデータの総数を示しており、ここでは、訓点データ点の数となる。また、yiはクラスラベル+1,−1を示しており、F(xi)は判別関数Fを示している。また、w(xi)は、上述したステップS5において重要度推定部11によって計算された各訓練データ点における重要度である。
上記の(4)式の重要度重み付き損失関数Lにより、それぞれの訓練データのうちテストデータにおける生成確率が高い訓練データの重み付けが大きくなり、テストデータのラベルの性能向上を図ることができる。
そして、ステップS26の動作において学習部12は、それぞれの訓練データ点の勾配γiを以下の(5)式に示すように、上記の重要度重みつき損失関数Lを判別関数F(xi)で偏微分することによって計算する。
Figure 2010092266
次に、学習部12は、勾配をラベルと見なしてランダムフォレストによってモデルTmを学習する(ステップS27)。
次に、学習部12は、学習したモデルTmによって判別関数Fm=Fm-1+Tmと更新し(ステップS28)、学習した結果を判別関数に反映させる。
次に、学習部12は、反復回数の指示数mが予め設定された回数と等しいかどうかを判定する(ステップS29)。
ステップS29における判定の結果、反復回数の指示数mが予め設定された回数よりも少ない場合、学習部12は、ステップS25に戻って指示数mに1を加える。そして、反復回数の指示数mが予め設定された回数と等しくなるまで、上述したステップS25〜S29の動作が繰り返される。この勾配ブースティングによってモデルTmの学習アルゴリズムの性能が向上していく。なお、勾配ブースティングでは、損失関数を勾配法によって最適化する学習アルゴリズムとなっている。勾配ブースティングの詳細については、「Friedman, J. H., Hastie, T., Tibshirani, R. Additive logistic regression: a statistical view of boosting. Ann. Statist., 2000, 337-40.」に記載されている。
一方、ステップS29における判定の結果、反復回数の指示数mが予め設定された回数と等しい場合には、学習部12は、学習したモデルTmを予測モデルとしてモデル記憶部22に出力して記憶させる(ステップS30)。
そして、判別部13は、モデル記憶部22から学習部12において学習した予測モデルTmを取得し、データ記憶部21から取得したテストデータのラベルを予測モデルTmに基づいて予測する。また、判別部13が予測したラベルは、出力装置40から出力される。
なお、上記の(4)式の重要度重み付き損失関数Lは、2クラス分類のための損失関数であるが、多クラス分類や回帰のための損失関数も容易に設計できる。また、重要度重み付き損失関数Lは凸関数であればよく、上記の(4)式の関数形に限定されるものではない。なお、凸関数とは、グラフ上の二点をとった場合、その二点間においてグラフがその二点を結ぶ線分の下方にある関数のことである。
また、ラベルの情報としては医学・生物学分野の場合、疾患や薬効の有無、病態の進行度の他に生存時間などを用いることができる。
また、ラベル付きデータに正例・負例がある場合は、ラベルのベクトルyの要素として、+1、−1を用いることができる。
このように本形態においては、重要度推定部11が行う重要度の計算にランダムフォレストを適用するだけでよく、煩雑なパラメータ最適化等の計算手続きは全く必要ない。従って、重要度の推定に計算時間を要することがない。
また、学習部12が行う学習において勾配ブースティングの反復回数は、交差確認法により最適化すべきパラメータであるが、上記の「Friedman, J. H., Hastie, T., Tibshirani, R. Additive logistic regression: a statistical view of boosting. Ann. Statist., 2000, 337-40.」によれば経験的に100回程度でよく、この程度の回数でも性能に影響を及ぼすことはない。従って、学習においても計算手順が著しく簡潔化され、計算時間を要することがない。
なお、本発明においては、学習装置内の処理は上述の専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを学習装置にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを学習装置に読み込ませ、実行するものであっても良い。学習装置にて読取可能な記録媒体とは、フロッピーディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、学習装置に内蔵されたHDDなどを指す。
本発明の学習装置の実施の一形態の構成を示すブロック図である。 図1に示した重要度推定部が重要度を計算する動作を説明するためのフローチャートである。 図1に示した学習部が学習を行う動作を説明するためのフローチャートである。
符号の説明
1 学習装置
10 データ処理装置
11 重要度推定部
12 学習部
13 判別部
20 記憶装置
21 データ記憶部
22 モデル記憶部
30 入力装置
40 出力装置

Claims (27)

  1. 訓練サンプルデータの入力データである訓練データと、テストデータとの生成確率の比である重要度に基づき、前記テストデータの出力を予測するための予測モデルを学習する学習装置であって、
    前記重要度を考慮した損失関数である重要度重み付き損失関数を用いて前記予測モデルの学習を行う学習部を有する学習装置。
  2. 請求項1に記載の学習装置において、
    前記学習部は、ブースティングによって前記予測モデルの学習を行う学習装置。
  3. 請求項2に記載の学習装置において、
    前記学習部は、前記訓練サンプルデータと前記重要度とを用いたランダムフォレストによって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う学習装置。
  4. 請求項2に記載の学習装置において、
    前記学習部は、前記訓練サンプルデータと前記重要度とを用いた決定木によって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う学習装置。
  5. 請求項2に記載の学習装置において、
    前記学習部は、前記訓練サンプルデータと前記重要度とを用いたサポートベクターマシンによって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う学習装置。
  6. 請求項2に記載の学習装置において、
    前記学習部は、前記訓練サンプルデータと前記重要度とを用いたニューラルネットワークによって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う学習装置。
  7. 請求項1乃至6のいずれか1項に記載の学習装置において、
    前記訓練サンプルデータと前記テストデータとを用いた教師あり学習によって求めたクラスラベルの確率的な予測値の比を前記重要度とする重要度推定部を有する学習装置。
  8. 請求項7に記載の学習装置において、
    前記重要度推定部は、前記訓練サンプルデータと前記テストデータとを用いたランダムフォレストによる教師あり学習によって求めたクラスラベルの確率的な予測値の比を前記重要度とする学習装置。
  9. 請求項1乃至8のいずれか1項に記載の学習装置において、
    前記重要度重み付き損失関数が凸関数である学習装置。
  10. 訓練サンプルデータの入力データである訓練データと、テストデータとの生成確率の比である重要度に基づき、前記テストデータの出力を予測するための予測モデルを学習する学習方法であって、
    前記重要度を考慮した損失関数である重要度重み付き損失関数を用いて前記予測モデルの学習を行う処理を有する学習方法。
  11. 請求項10に記載の学習方法において、
    ブースティングによって前記予測モデルの学習を行う処理を有する学習方法。
  12. 請求項11に記載の学習方法において、
    前記訓練サンプルデータと前記重要度とを用いたランダムフォレストによって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う処理を有する学習方法。
  13. 請求項11に記載の学習方法において、
    前記訓練サンプルデータと前記重要度とを用いた決定木によって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う処理を有する学習方法。
  14. 請求項11に記載の学習方法において、
    前記訓練サンプルデータと前記重要度とを用いたサポートベクターマシンによって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う処理を有する学習方法。
  15. 請求項11に記載の学習方法において、
    前記訓練サンプルデータと前記重要度とを用いたニューラルネットワークによって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う処理を有する学習方法。
  16. 請求項10乃至15のいずれか1項に記載の学習方法において、
    前記訓練サンプルデータと前記テストデータとを用いた教師あり学習によって求めたクラスラベルの確率的な予測値の比を前記重要度とする処理を有する学習方法。
  17. 請求項16に記載の学習方法において、
    前記訓練サンプルデータと前記テストデータとを用いたランダムフォレストによる教師あり学習によって求めたクラスラベルの確率的な予測値の比を前記重要度とする処理を有する学習方法。
  18. 請求項10乃至17のいずれか1項に記載の学習方法において、
    前記重要度重み付き損失関数が凸関数である学習方法。
  19. 訓練サンプルデータの入力データである訓練データと、テストデータとの生成確率の比である重要度に基づき、前記テストデータの出力を予測するための予測モデルを学習する学習装置に、
    前記重要度を考慮した損失関数である重要度重み付き損失関数を用いて前記予測モデルの学習を行う機能を実現させるためのプログラム。
  20. 請求項19に記載のプログラムにおいて、
    ブースティングによって前記予測モデルの学習を行う機能を実現させるためのプログラム。
  21. 請求項20に記載のプログラムにおいて、
    前記訓練サンプルデータと前記重要度とを用いたランダムフォレストによって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う機能を実現させるためのプログラム。
  22. 請求項20に記載のプログラムにおいて、
    前記訓練サンプルデータと前記重要度とを用いた決定木によって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う機能を実現させるためのプログラム。
  23. 請求項20に記載のプログラムにおいて、
    前記訓練サンプルデータと前記重要度とを用いたサポートベクターマシンによって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う機能を実現させるためのプログラム。
  24. 請求項20に記載のプログラムにおいて、
    前記訓練サンプルデータと前記重要度とを用いたニューラルネットワークによって学習した判別関数と、前記重要度重み付き損失関数とを用いたブースティングによって前記予測モデルの学習を行う機能を実現させるためのプログラム。
  25. 請求項19乃至24のいずれか1項に記載のプログラムにおいて、
    前記訓練サンプルデータと前記テストデータとを用いた教師あり学習によって求めたクラスラベルの確率的な予測値の比を前記重要度とする機能を実現させるためのプログラム。
  26. 請求項25に記載のプログラムにおいて、
    前記訓練サンプルデータと前記テストデータとを用いたランダムフォレストによる教師あり学習によって求めたクラスラベルの確率的な予測値の比を前記重要度とする機能を実現させるためのプログラム。
  27. 請求項19乃至26のいずれか1項に記載のプログラムにおいて、
    前記重要度重み付き損失関数が凸関数であるプログラム。
JP2008261597A 2008-10-08 2008-10-08 学習装置、学習方法及びプログラム Pending JP2010092266A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008261597A JP2010092266A (ja) 2008-10-08 2008-10-08 学習装置、学習方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008261597A JP2010092266A (ja) 2008-10-08 2008-10-08 学習装置、学習方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2010092266A true JP2010092266A (ja) 2010-04-22

Family

ID=42254914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008261597A Pending JP2010092266A (ja) 2008-10-08 2008-10-08 学習装置、学習方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2010092266A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018358A (ja) * 2014-07-08 2016-02-01 富士通株式会社 データ分類方法、データ分類プログラム、及び、データ分類装置
WO2016125500A1 (ja) * 2015-02-06 2016-08-11 日本電気株式会社 特徴変換装置、認識装置、特徴変換方法及びコンピュータ読み取り可能記録媒体
JP2017500637A (ja) * 2013-11-22 2017-01-05 カリフォルニア インスティテュート オブ テクノロジー 訓練データに関する重み利益エバリュエータ
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
KR101864380B1 (ko) * 2017-12-28 2018-06-04 (주)휴톰 수술영상데이터 학습시스템
CN108875776A (zh) * 2018-05-02 2018-11-23 北京三快在线科技有限公司 模型训练方法和装置、业务推荐的方法和装置、电子设备
WO2019049688A1 (ja) * 2017-09-06 2019-03-14 日本電信電話株式会社 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム
KR20190088375A (ko) * 2017-12-28 2019-07-26 (주)휴톰 수술영상데이터 학습시스템
JP2019170359A (ja) * 2018-03-28 2019-10-10 国立大学法人名古屋大学 植物栽培結果予測システム
US10535014B2 (en) 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
JP2020035042A (ja) * 2018-08-28 2020-03-05 株式会社豊田中央研究所 データ判定装置、方法、及びプログラム
JP2020194336A (ja) * 2019-05-28 2020-12-03 パナソニックIpマネジメント株式会社 不良品の発生に寄与する装置特定のための製造条件計算装置、製造条件計算方法及び製造条件計算プログラム
JP2022524662A (ja) * 2019-03-22 2022-05-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合
US11334813B2 (en) 2016-06-22 2022-05-17 Fujitsu Limited Method and apparatus for managing machine learning process
WO2024070169A1 (ja) * 2022-09-29 2024-04-04 日本碍子株式会社 試作条件提案システム、試作条件提案方法
JP7501151B2 (ja) 2019-09-06 2024-06-18 富士通株式会社 モデルの正確性及びロバスト性の推定方法及びその装置
US12086697B2 (en) 2018-06-07 2024-09-10 Nec Corporation Relationship analysis device, relationship analysis method, and recording medium for analyzing relationship between a plurality of types of data using kernel mean learning

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017500637A (ja) * 2013-11-22 2017-01-05 カリフォルニア インスティテュート オブ テクノロジー 訓練データに関する重み利益エバリュエータ
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US10558935B2 (en) 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
US10535014B2 (en) 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
JP2016018358A (ja) * 2014-07-08 2016-02-01 富士通株式会社 データ分類方法、データ分類プログラム、及び、データ分類装置
US10482351B2 (en) 2015-02-06 2019-11-19 Nec Corporation Feature transformation device, recognition device, feature transformation method and computer readable recording medium
WO2016125500A1 (ja) * 2015-02-06 2016-08-11 日本電気株式会社 特徴変換装置、認識装置、特徴変換方法及びコンピュータ読み取り可能記録媒体
US11334813B2 (en) 2016-06-22 2022-05-17 Fujitsu Limited Method and apparatus for managing machine learning process
WO2019049688A1 (ja) * 2017-09-06 2019-03-14 日本電信電話株式会社 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム
US11467570B2 (en) 2017-09-06 2022-10-11 Nippon Telegraph And Telephone Corporation Anomalous sound detection apparatus, anomaly model learning apparatus, anomaly detection apparatus, anomalous sound detection method, anomalous sound generation apparatus, anomalous data generation apparatus, anomalous sound generation method and program
JPWO2019049688A1 (ja) * 2017-09-06 2020-10-01 日本電信電話株式会社 異常音検知装置、異常モデル学習装置、異常検知装置、異常音検知方法、異常音生成装置、異常データ生成装置、異常音生成方法、およびプログラム
KR20190088375A (ko) * 2017-12-28 2019-07-26 (주)휴톰 수술영상데이터 학습시스템
KR102298412B1 (ko) 2017-12-28 2021-09-06 (주)휴톰 수술영상데이터 학습시스템
KR101864380B1 (ko) * 2017-12-28 2018-06-04 (주)휴톰 수술영상데이터 학습시스템
JP2019170359A (ja) * 2018-03-28 2019-10-10 国立大学法人名古屋大学 植物栽培結果予測システム
CN108875776A (zh) * 2018-05-02 2018-11-23 北京三快在线科技有限公司 模型训练方法和装置、业务推荐的方法和装置、电子设备
CN108875776B (zh) * 2018-05-02 2021-08-20 北京三快在线科技有限公司 模型训练方法和装置、业务推荐的方法和装置、电子设备
US12086697B2 (en) 2018-06-07 2024-09-10 Nec Corporation Relationship analysis device, relationship analysis method, and recording medium for analyzing relationship between a plurality of types of data using kernel mean learning
JP2020035042A (ja) * 2018-08-28 2020-03-05 株式会社豊田中央研究所 データ判定装置、方法、及びプログラム
JP2022524662A (ja) * 2019-03-22 2022-05-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合
JP7470476B2 (ja) 2019-03-22 2024-04-18 インターナショナル・ビジネス・マシーンズ・コーポレーション 蒸留を用いたそれぞれのターゲット・クラスを有するモデルの統合
US12046023B2 (en) 2019-03-22 2024-07-23 International Business Machines Corporation Unification of models having respective target classes with distillation
JP7281708B2 (ja) 2019-05-28 2023-05-26 パナソニックIpマネジメント株式会社 不良品の発生に寄与する装置特定のための製造条件計算装置、製造条件計算方法及び製造条件計算プログラム
JP2020194336A (ja) * 2019-05-28 2020-12-03 パナソニックIpマネジメント株式会社 不良品の発生に寄与する装置特定のための製造条件計算装置、製造条件計算方法及び製造条件計算プログラム
JP7501151B2 (ja) 2019-09-06 2024-06-18 富士通株式会社 モデルの正確性及びロバスト性の推定方法及びその装置
WO2024070169A1 (ja) * 2022-09-29 2024-04-04 日本碍子株式会社 試作条件提案システム、試作条件提案方法

Similar Documents

Publication Publication Date Title
JP2010092266A (ja) 学習装置、学習方法及びプログラム
CN111356997B (zh) 具有颗粒化注意力的层次神经网络
JP2021184816A5 (ja)
JP5943358B2 (ja) 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム
JP7342242B2 (ja) 学習を転移させるための学習のためのフレームワーク
JP5164209B2 (ja) 分類モデル生成装置、分類装置、分類モデル生成方法、分類方法、分類モデル生成プログラム、分類プログラムおよび記録媒体
US11823058B2 (en) Data valuation using reinforcement learning
CN106471525A (zh) 增强神经网络以生成附加输出
Viaene et al. Cost-sensitive learning and decision making revisited
JP6066086B2 (ja) データ判別装置、方法及びプログラム
CN114467095A (zh) 基于强化学习的局部可解释模型
Koropoulis et al. Detecting positive selection in populations using genetic data
Hung Penalized blind kriging in computer experiments
CN111160959B (zh) 一种用户点击转化预估方法及装置
CN112116957A (zh) 基于小样本的疾病亚型预测方法、系统、装置及介质
JP7207540B2 (ja) 学習支援装置、学習支援方法、及びプログラム
WO2020218246A1 (ja) 最適化装置、最適化方法、及びプログラム
Montserrat et al. Adversarial attacks on genotype sequences
Gill et al. Combining kinetic orders for efficient S-System modelling of gene regulatory network
JP7331938B2 (ja) 学習装置、推定装置、学習方法及び学習プログラム
Wagner Monet: An open-source Python package for analyzing and integrating scRNA-Seq data using PCA-based latent spaces
Zheng Boosting based conditional quantile estimation for regression and binary classification
CN115715415A (zh) 变体致病性评分和分类及其用途
Tenne A computational intelligence algorithm for simulation-driven optimization problems
Jia et al. Deep learning for quantile regression under right censoring: DeepQuantreg