JP2009237923A - 学習方法およびシステム - Google Patents
学習方法およびシステム Download PDFInfo
- Publication number
- JP2009237923A JP2009237923A JP2008083563A JP2008083563A JP2009237923A JP 2009237923 A JP2009237923 A JP 2009237923A JP 2008083563 A JP2008083563 A JP 2008083563A JP 2008083563 A JP2008083563 A JP 2008083563A JP 2009237923 A JP2009237923 A JP 2009237923A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- data
- cost
- boosting
- prediction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】ラベルの事前分布の偏りをコストに直接反映したブースティングを行うことで、ラベルに偏りがあるデータに対する高精度の分類器を構成できる学習システムを提供する。
【解決手段】ラベルの分布が異なるデータの学習方法において、データを用いて学習する第1の工程と、データの事前分布にしたがってコストを求める第2の工程と、コストと第1の工程で得られた学習結果とを考慮して学習する第3の工程と、を設ける。
【選択図】図2
【解決手段】ラベルの分布が異なるデータの学習方法において、データを用いて学習する第1の工程と、データの事前分布にしたがってコストを求める第2の工程と、コストと第1の工程で得られた学習結果とを考慮して学習する第3の工程と、を設ける。
【選択図】図2
Description
本発明は、機械学習に関し、特に、ラベルの事前分布に基づき、かつ事前分布における偏りを考慮したコスト考慮型学習により予測精度の高い学習を可能にする学習方法およびシステムに関する。
一般に、分類器に対する教師あり学習では、訓練データでの正例と負例のラベルは、同数分布することが前提となっている。しかしながら現実には、訓練データでのラベルの分布が一方に極端に偏っている場合もある。例えば、疾患診断に関するデータを訓練データとする場合、対象疾患の患者(正例)よりも健常者(負例)のサンプル数の方が圧倒的に多い場合がある。
このようにラベルにおける分布に偏りがある場合、ラベルの分布が均一と仮定する関連技術での学習方法では少数ラベルの予測が困難であるので、ラベルの事前分布を考慮した学習方法が有効であると考えられる。例えば、正例と負例とが割合で正例が5%、負例が95%である場合、全サンプルを負例と予測すれば正解率は95%になるが、これでは正しいラベルの予測は行われていないため、正例に対してより大きなコストを与えて学習を行う必要がある。
コスト考慮型学習では、上記のように少数ラベルに対して大きなコストを与えることで、この問題に取り組んでいる。コスト考慮型学習としては、ブースティング(boosting)の枠組みで実現されているものが多く、例えば非特許文献1,2に記載されている。非特許文献1に記載の方法では、偽陽性と偽陰性のコストを予め設定することで、平均コストを最小化することを実現している。非特許文献2に記載の方法では、ブースティングの手法の一つであるAdaboostをコスト考慮型学習に拡張している。Adaboostについては、非特許文献3に記載されている。
本発明に関連するものとして、特許文献1には、学習用データ(訓練データ)からモデルを作成する際に、モデルを表すパラメータである重み付けパラメータの事前分布としてラプラス分布を仮定し、事前分布と学習用データから算出されるモデルの尤度(事後確率)が最大となるように重み付けパラメータや事前分布を決定してモデルを作成することが開示されている。特許文献2には、能動学習を行う際に正例と負例の数に偏りがある場合に、仮説を用いて複数の候補データの各々に対するスコアを計算し、計算されたスコアに基づき、かつ指数的な関数である選択関数を用いて、少数側のデータも第1候補データとして選択できるようにすることが開示されている。特許文献3には、入出力データ間に少なくとも近似的に成り立つ関数関係の推定を行う能動学習法において、データの初期分布を入力して学習予測誤差計算と判定とを行うことが開示されている。特許文献4には、勾配降下法を用いて3層の学習機械を学習させ最適化することが開示されている。特許文献5には、ニューラルネットワークなどに対して学習を行う際に、少ないデータ例に対して過学習を引き起こすことを防ぐために、対数尤度の代わりに、入出力データの例を含み所定の幅を有する密度分布に基づく尤度を用いることが開示されている。
特開2008−9548号公報(段落0031)
特開2005−107343号公報(段落0043、0056、0077)
特開2005−258480号公報(段落0036、0038)
特開2005−182785号公報(段落0042、0043)
特開平6−332879号公報(段落0024、0031)
Masnadi-Shirazi, H., Vasconcelos, N., "Asymmetric Boosting," Proceeding of the 24-th International Conference on Machine Learning, pp. 609-616, 2007
Sun, Y., Kamel, M. S., Wong, A. K. C., Wang, Y., "Cost-sensitive boosting for classification of imbalanced data," PATTERN RECOGNITION, Vol. 40, pp. 3358-3378, 2007
Freund, Y., Schapire, R. E., "A decision-theoretic generalization of on-line learning and an application to boosting," Journal of Computer and System Sciences, pp. 23-27, 1997 (Proceedings of the Second European Conference on Computational Learning Theory, pp. 1-15, 1995)
Friedman, J., Hastie, T., Tibshirani, R., "Additive logistic regression: a statistical view of boosting," Ann. Statist., Vol. 28, pp. 337-407, 2000
Shi, T., Seligson, D., Belldegrun, S. A., Palotie, A., Horvath, S., "Tumor classification by tissue microarray profiling: random forest clustering applied to renal cell carcinoma," Modern Pathology, Vol. 18, pp. 547-557, 2005.
正例と負例との間に偏りがある場合に対処する学習方法としては、上述したもののようにいくつか知られているが、中でも、ラベルの事前分布を考慮し、かつ、少数ラベルに対して大きなコストを与えるコスト考慮型学習が最も有効であると考えられている。しかしながら、非特許文献1,2に記載されたコスト考慮型学習方法では、以下に示すような問題点がある。
まずこれらの非特許文献に記載のものでは、コストは、問題に応じて許容される偽陽性と偽陰性のトレードオフの関係から設定されるものである。そのため、ラベルの事前分布を直接考慮した学習を行えるようにはなっていない。これでは、適切な偽陽性と偽陰性のコストを決定するために試行錯誤する必要があり、これには時間と労力を要する。また、そのコストの決定、学習アルゴリズムの導出、予測性能について、理論的な正当性が与えられておらず、経験的にコストを決定するしかない問題がある。その上、非特許文献2に記載のものは、Adaboostを拡張しているので、回帰学習などへの拡張を容易に行うことができない。
本発明の目的は、上述した課題に鑑み、ラベルの事前分布の偏りをコストに直接反映させたブースティングを行うことで、ラベルに偏りがあるデータに対して高精度かつ汎用的な分類器を提供することができる学習方法及びシステムを提供することにある。
本発明の学習方法は、ラベルの分布が異なるデータの学習方法において、データを用いて学習する第1の工程と、データの事前分布にしたがってコストを求める第2の工程と、コストと第1の工程で得られた学習結果とを考慮して学習する第3の工程と、を有することを特徴とする。
本発明の学習システムは、ラベルの分布が異なるデータによる学習を行う学習システムにおいて、データを格納するデータ記憶部と、データ記憶部に格納されたデータを用いて初期学習を行い、さらにデータとコストと初期学習で得られた学習結果とを考慮して予測モデル学習を行う学習実行部と、データの事前分布にしたがってコストを求めるコスト計算部と、を有することを特徴とする。
本発明は、ラベルの事前分布の偏りをコストに直接反映したブースティングを行うことが可能となり、ラベルに偏りがあるデータに対して高精度の分類器の構成が可能になるという効果がある。
次に、本発明の実施の形態について、図面を参照して説明する。本実施形態に基づく学習方法は、ラベルの事前分布の偏りをコストに直接反映したブースティングを行うことで、ラベルに偏りがあるデータに対して高精度の分類器を構成する新規の方法である。
図1は、このような学習方法を実行するために用いられる学習システムの構成の一例を示している。この学習システムは、大別すると、キーボードなどの入力装置1と、プログラム制御により動作するデータ処理装置2と、情報を記憶する記憶装置3と、ディスプレイ装置や印刷装置などの出力装置4から構成されている。
データ処理装置2は、本発明に基づいてデータから予測モデルの学習を行う学習部21と、学習部21で学習された予測モデルを用いてテストデータのラベルを予測する判別部22と、を含んでいる。記憶装置3は、訓練データやテストデータなどのデータを格納するデータ記憶部31と、学習部21で学習された予測モデルを格納するモデル記憶部32と、を含んでいる。
次に、図示された学習システムの動作について説明する。図2は、学習システムにおける学習部21での処理を示すフローチャートである。
この学習システムの動作は、大まかに言えば、入力装置1によってデータ処理装置2に実行指示が与えられると、データ処理装置2の学習部21が、記憶装置3のデータ記憶部31からデータを読み込んでそのデータを用いた学習を行い、学習結果である予測モデルをモデル記憶部32に記憶し、その後、データ処理装置2の判別部22が、データ記憶部31からテストデータを読み込み、モデル記憶部32から予測モデルを読み込み、予測モデルを使用してテストデータのラベルを予測し結果を出力装置4に出力する、というものである。判別部22によるラベルの予測自体は、分類器として一般的な学習機械において実行されるものと同様のものである。そこで、以下では、学習部21での処理について詳しく説明する。
ステップA1において、データ記憶部31から学習部21に訓練データが入力されると、学習部21は、ステップA2において、判別関数F0を0、反復回数mを1に初期化し、ステップA3において、正例・負例の事前分布を割合から計算する。ここでは、正例を少数データ、負例を多数データとし、それぞれの事前分布をp(y=1),p(y=−1)とする。引き続いて学習部21は、ステップA4において、訓練データに関してラベルと属性とに基づいて決定木による学習を行う。ここでは、この学習システムに対する下位学習機械として決定木を用いているが、下位学習機械としては、決定木以外にも、サポートベクターマシン(SVM)やニューラルネットワークなどの教師あり学習による学習機械を用いることができる。ステップA4での学習は、訓練データを用いて学習する第1の工程(初期学習工程)に相当する。その後、ステップA5において、判別関数F1に、学習した決定木のモデルT1を代入する。
次に学習部21は、ステップA6において、それぞれ偽陽性及び偽陰性の重み付けに用いられる重み係数であるコスト
を算出する。この例ではこれらのコストは、ラベルの事前分布の逆数の半分としてあらわされている。ステップA3、A6によって、データの事前分布にしたがってコストを求める第2の工程が実施されたことになる。
次に学習部21は、ステップA7において、判別関数F1とラベルから勾配を計算する。勾配は以下のように求めることができる。まず、判別関数をFとすると、
を最小化する判別関数Fは、期待値をFで微分し、その微分値を0となる条件を求めることで、下記の(1)式のように与えられる。ここで、各指数関数内でy・Fに乗算されている重み係数は、上述したようにコストである。
ここで、s,tは、
であり、I()は、括弧内が成立するとき1となる指示関数である。p(y=1|x),p(y=−1|x)は、データxが与えられたときにラベルy(それぞれ正例及び負例)となる条件付き確率である。損失関数の期待値の式において指数関数に乗算されるコストすなわち重み係数は、上述したもののように、ラベルの事前分布の逆数に比例するものであればよい。ここで示す例では損失関数Lは、2クラス分類であるため、2項分布の対数尤度の期待値から、ラベルに依存した非対称な凸関数であり、(2)式のように求めることができる。すなわち損失関数Lの期待値は2項分布となっている。
ここで
である。これから、勾配φはラベル1、−1の場合、それぞれ(3),(4)式のように求めることができる。
多クラス分類の場合は、損失関数の期待値が多項分布であるようにすればよい。ラベルが+1、−1となるのが等確率の場合、
となり、上記の期待値や判別関数Fは、ブースティングの一手法であるLogitBoostでの損失関数と同一の損失関数となる。すなわち、上記の損失関数は、LogitBoostの損失関数にラベルの事前分布を直接考慮した形になっていることが分かる。LogitBoostについては、非特許文献4に記載されている。
次にステップA8において学習部21は、勾配をラベルと見なして、決定木によりTmを学習し、ステップA9において、更新された判別関数とラベルとを用いて勾配を計算する。その後、ステップA10において、判別関数FmをFm-1+νTmにより更新する。ここで、νは正則化項であり、0<ν<1である。例えば、0.01といった小さい値のνを用いると、過学習を避けることが可能になる。同時に反復回数を表す変数mに1を加算する。
次に、ステップA11において、反復回数mが予め設定された回数Mに達したかどうかが判断され、達していない場合には、学習部21の処理はステップA8に戻り、達している場合には学習部21は、ステップA12において、それまでの処理によって学習された予測モデルをモデル記憶部32に格納し、その後、処理を終了する。
以上説明したステップA7〜A11の処理により、コストと第1の工程で得られた学習結果とを考慮して学習する第3の工程であって、正例と負例とではコストが異なるブースティングあるいは勾配ブースティングによる学習を行う工程が実施されたことになる。
ステップA12においてモデル記憶部32に記憶された予測モデルに対し、判別部32は、その予測モデルとテストデータとを読み込み、予測モデルを使用してテストデータのラベルを予測し、結果を出力装置4に出力する
以上説明した処理を実行する学習部21は、図3に示すように、データ記憶部32に格納された訓練データを用いて初期学習(ステップA4)を行い、さらに訓練データとコストと初期学習で得られた学習結果とを考慮して予測モデル学習(ステップA7〜A11)を行う学習実行部25と、正例・負例の事前分布の計算(ステップA3)を行い、データの事前分布にしたがってコストを求める(ステップA6)コスト計算部26と、データの入出力(ステップA1,A12)や初期化(ステップA2,A5)、反復学習でのループの制御などを行う制御部27と、を備えている。制御部27は、学習部21全体の動作を制御する機能も有している。
以上説明した処理を実行する学習部21は、図3に示すように、データ記憶部32に格納された訓練データを用いて初期学習(ステップA4)を行い、さらに訓練データとコストと初期学習で得られた学習結果とを考慮して予測モデル学習(ステップA7〜A11)を行う学習実行部25と、正例・負例の事前分布の計算(ステップA3)を行い、データの事前分布にしたがってコストを求める(ステップA6)コスト計算部26と、データの入出力(ステップA1,A12)や初期化(ステップA2,A5)、反復学習でのループの制御などを行う制御部27と、を備えている。制御部27は、学習部21全体の動作を制御する機能も有している。
本実施形態において、ラベル情報としては、医学・生物学分野への適用の場合、疾患や薬効の有無、病態の進行度の他に生存時間などを用いることができる。すなわち、ラベルとして、連続値、順位またはクラスを用いることができる。また、ラベル付きデータに正例・負例がある場合は、ラベルのベクトルyの要素として、1,−1を用いることができる。その場合、ラベル情報に応じて損失関数の形が異なるため、損失関数に応じて勾配を求める。例えば、回帰学習の場合は、損失関数Lは
を用いることができる。ここで、p(y)はラベルyの事前分布であり、カーネル密度推定法などで求めることができる。勾配φは
で求めることができる。
以上説明した学習システムは、それを実現するためのコンピュータプログラムを、パーソナルコンピュータ(PC)やサーバ用コンピュータなどのコンピュータに読み込ませ、そのプログラムを実行させることによっても実現できる。上述した手順で学習を行うためのプログラムは、CD−ROMなどの記録媒体によって、あるいはネットワークを介して、コンピュータに読み込まれる。
以下、上述した学習システムによって上述した実施形態の学習方法を実施した例を説明する。
腎細胞癌の組織マイクロアレイデータをインターネット(http://www.genetics.ucla.edu/labs/horvath/RFclustering/RFclustering.htm)から取得した。このデータは、8種類の蛋白質の発現データと腎細胞癌のグレード(グレード1〜4)に関する情報を含んでいる。このデータを用いた論文として、非特許文献5がある。ト
病理診察された297人の患者の8種類の蛋白質の発現データに基づき、腎細胞癌の組織のグレードに対する性能評価を行った。グレード1と診断された者は34人、グレード2〜4と診断された者は263人である。癌のグレードは、病理医によって分類される癌の悪性度のことであり、グレード1の場合はその患者の予後は良いことが知られている。グレードが上がるのにしたがって、予後が悪くなる。詳細については非特許文献5に記載されている。
病理診察された297人の患者の8種類の蛋白質の発現データに基づき、腎細胞癌の組織のグレードに対する性能評価を行った。グレード1と診断された者は34人、グレード2〜4と診断された者は263人である。癌のグレードは、病理医によって分類される癌の悪性度のことであり、グレード1の場合はその患者の予後は良いことが知られている。グレードが上がるのにしたがって、予後が悪くなる。詳細については非特許文献5に記載されている。
本実施例では、パラメータとして、ν=0.01と設定し、反復回数Mについては、50,100,200の3通りを用いた。また、この実施例に対する対照となる比較例として、正例と負例とで事前分布が同一であるとしてブースティングによる学習を行った。
性能評価は、グレード1の患者を正例、その他のグレード3〜4の患者を負例として、各クラスから半分のサンプルを訓練データとして、残りをテストデータとして無作為にサンプリングを行う操作を50回繰り返し、F-measure,G-mean,ROC(受信者動作特性:receiver operating characteristic)曲線下の面積(AUC:Area Under Curve)の平均を評価基準とした。結果を表1に示す。F-measure,G-mean,AUCは、正例・負例の数が大きく異なる場合に適切な評価基準として知られており、それらの定義は非特許文献2に記載されている。F-measure,G-mean,AUCは値が大きければ大きいほど、性能が高いことを示している。特に表1において下線を付した、実施例でのM=200における結果は、極めてよい結果を示している。
上記の結果から、上述した実施形態による方法を用いることによって、従来法と比較して、性能が大幅に向上することが分かる。
1 入力装置
2 データ処理装置
3 記憶装置
4 出力装置
21 学習部
22 判別部
25 学習実行部
26 コスト算出部
27 制御部
31 データ記憶部
32 モデル記憶部
2 データ処理装置
3 記憶装置
4 出力装置
21 学習部
22 判別部
25 学習実行部
26 コスト算出部
27 制御部
31 データ記憶部
32 モデル記憶部
Claims (15)
- ラベルの分布が異なるデータの学習方法において、
前記データを用いて学習する第1の工程と、
前記データの事前分布にしたがってコストを求める第2の工程と、
前記コストと前記第1の工程で得られた学習結果とを考慮して学習する第3の工程と、
を有することを特徴とする学習方法。 - 前記第3の工程で得られた学習結果からテストデータを判別する第4の工程を有することを特徴とする請求項1に記載の学習方法。
- 前記第3の工程での学習のアルゴリズムが、正例と負例とではコストが異なるブースティングあるいは勾配ブースティングであることを特徴とする請求項1または2に記載の学習方法。
- 前記ブースティングまたは前記勾配ブースティングの下位学習機械に、決定木、サポートベクターマシンおよびニューラルネットワークの中から選ばれた1種類以上の教師付き学習機械を用いることを特徴とする請求項3に記載の学習方法。
- 前記データが有するラベルが、連続値、順位及びクラスのうちのいずれかであることを特徴とする請求項1乃至4のいずれか一項に記載の学習方法。
- 前記学習で用いる損失関数が、前記ラベルに依存した非対称な凸関数であることを特徴とする請求項1乃至5のいずれか一項に記載の学習方法。
- 前記コストが、前記データの前記事前分布の逆数に比例することを特徴とする請求項1乃至6いずれか一項に記載の学習方法。
- 前記クラスが2クラス分類である場合には損失関数の期待値が2項分布であり、前記クラスが多クラス分類である場合には前記損失関数の期待値が多項分布であることを特徴とする請求項6に記載の学習方法。
- 前記第3の工程での学習が、正則化項を有することを特徴とする請求項1乃至9のいずれか一項に記載の学習方法。
- ラベルの分布が異なるデータによる学習を行う学習システムにおいて、
前記データを格納するデータ記憶部と、
前記データ記憶部に格納された前記データを用いて初期学習を行い、さらに前記データとコストと前記初期学習で得られた学習結果とを考慮して予測モデル学習を行う学習実行部と、
前記データの事前分布にしたがって前記コストを求めるコスト計算部と、
を有することを特徴とする学習システム。 - 前記予測モデル学習の結果として得られた予測モデルを格納するモデル記憶部と、
前記モデル記憶部から前記予測モデルを読み出し、当該予測モデルに基づいてテストデータを判別する判別部と、
をさらに有することを特徴とする、請求項10に記載の学習システム。 - 前記予測モデル学習のアルゴリズムが、正例と負例とではコストが異なるブースティングあるいは勾配ブースティングであることを特徴とする請求項10または11に記載の学習システム。
- 前記ブースティングまたは前記勾配ブースティングの下位学習機械に、決定木、サポートベクターマシンおよびニューラルネットワークの中から選ばれた1種類以上の教師付き学習機械を用いることを特徴とする請求項12に記載の学習システム。
- 前記コストが、前記データの前記事前分布の逆数に比例することを特徴とする請求項10乃至13いずれか一項に記載の学習システム。
- コンピュータに、請求項1乃至9のいずれか一項に記載の学習方法を実施させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008083563A JP2009237923A (ja) | 2008-03-27 | 2008-03-27 | 学習方法およびシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008083563A JP2009237923A (ja) | 2008-03-27 | 2008-03-27 | 学習方法およびシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009237923A true JP2009237923A (ja) | 2009-10-15 |
Family
ID=41251791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008083563A Pending JP2009237923A (ja) | 2008-03-27 | 2008-03-27 | 学習方法およびシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009237923A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101864380B1 (ko) * | 2017-12-28 | 2018-06-04 | (주)휴톰 | 수술영상데이터 학습시스템 |
WO2018109806A1 (ja) * | 2016-12-12 | 2018-06-21 | 三菱電機株式会社 | モデル学習装置及びモデル学習方法 |
KR20190088375A (ko) * | 2017-12-28 | 2019-07-26 | (주)휴톰 | 수술영상데이터 학습시스템 |
JP2019160256A (ja) * | 2018-03-16 | 2019-09-19 | 株式会社リコー | 学習識別装置および学習識別方法 |
JP2020149377A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社リコー | 学習装置および学習方法 |
JP2020149378A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社リコー | 学習装置および学習方法 |
JP2022527536A (ja) * | 2019-04-08 | 2022-06-02 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 強化学習を通じた公平性の改善 |
EP4254273A1 (en) | 2022-03-28 | 2023-10-04 | Fujitsu Limited | Machine learning program, machine learning apparatus, and machine learning method |
-
2008
- 2008-03-27 JP JP2008083563A patent/JP2009237923A/ja active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018109806A1 (ja) * | 2016-12-12 | 2018-06-21 | 三菱電機株式会社 | モデル学習装置及びモデル学習方法 |
JPWO2018109806A1 (ja) * | 2016-12-12 | 2019-06-24 | 三菱電機株式会社 | モデル学習装置及びモデル学習方法 |
CN110073374A (zh) * | 2016-12-12 | 2019-07-30 | 三菱电机株式会社 | 模型学习装置和模型学习方法 |
KR102298412B1 (ko) | 2017-12-28 | 2021-09-06 | (주)휴톰 | 수술영상데이터 학습시스템 |
KR20190088375A (ko) * | 2017-12-28 | 2019-07-26 | (주)휴톰 | 수술영상데이터 학습시스템 |
KR101864380B1 (ko) * | 2017-12-28 | 2018-06-04 | (주)휴톰 | 수술영상데이터 학습시스템 |
JP7069898B2 (ja) | 2018-03-16 | 2022-05-18 | 株式会社リコー | 学習識別装置および学習識別方法 |
JP2019160256A (ja) * | 2018-03-16 | 2019-09-19 | 株式会社リコー | 学習識別装置および学習識別方法 |
JP2020149378A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社リコー | 学習装置および学習方法 |
JP2020149377A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社リコー | 学習装置および学習方法 |
JP7200766B2 (ja) | 2019-03-13 | 2023-01-10 | 株式会社リコー | 学習装置および学習方法 |
JP7200765B2 (ja) | 2019-03-13 | 2023-01-10 | 株式会社リコー | 学習装置および学習方法 |
JP2022527536A (ja) * | 2019-04-08 | 2022-06-02 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 強化学習を通じた公平性の改善 |
EP4254273A1 (en) | 2022-03-28 | 2023-10-04 | Fujitsu Limited | Machine learning program, machine learning apparatus, and machine learning method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Maleki et al. | A k-NN method for lung cancer prognosis with the use of a genetic algorithm for feature selection | |
Erion et al. | Learning explainable models using attribution priors | |
Nilashi et al. | Coronary heart disease diagnosis through self-organizing map and fuzzy support vector machine with incremental updates | |
Tabakhi et al. | Gene selection for microarray data classification using a novel ant colony optimization | |
Yan et al. | Protein fold recognition based on multi-view modeling | |
Lord et al. | Using the stability of objects to determine the number of clusters in datasets | |
Baştanlar et al. | Introduction to machine learning | |
Masethe et al. | Prediction of heart disease using classification algorithms | |
JP2009237923A (ja) | 学習方法およびシステム | |
Reza et al. | Multi-fractal texture features for brain tumor and edema segmentation | |
Atban et al. | Traditional machine learning algorithms for breast cancer image classification with optimized deep features | |
WO2016017533A1 (ja) | 識別装置および識別方法 | |
Zhu et al. | Gravitational fixed radius nearest neighbor for imbalanced problem | |
Dharmarajan et al. | Applications of partition based clustering algorithms: A survey | |
Yue et al. | Attention-driven cascaded network for diabetic retinopathy grading from fundus images | |
Kumar et al. | Future of machine learning (ML) and deep learning (DL) in healthcare monitoring system | |
Houssein et al. | A modified weighted mean of vectors optimizer for Chronic Kidney disease classification | |
Wibowo et al. | An in-depth performance analysis of the oversampling techniques for high-class imbalanced dataset | |
Hamad et al. | Feature selection of pre-trained shallow CNN using the QLESCA optimizer: COVID-19 detection as a case study | |
Bhardwaj et al. | Computational biology in the lens of CNN | |
WO2023148733A1 (en) | Method and system for predicting drug-drug interactions | |
Mukherji et al. | Recent landscape of deep learning intervention and consecutive clustering on biomedical diagnosis | |
Knudsen et al. | Artificial intelligence in pathomics and genomics of renal cell carcinoma | |
Nimitha et al. | An improved deep convolutional neural network architecture for chromosome abnormality detection using hybrid optimization model | |
Wang et al. | A systematic evaluation of computational methods for cell segmentation |