JP2019159835A - 学習プログラム、学習方法および学習装置 - Google Patents
学習プログラム、学習方法および学習装置 Download PDFInfo
- Publication number
- JP2019159835A JP2019159835A JP2018045961A JP2018045961A JP2019159835A JP 2019159835 A JP2019159835 A JP 2019159835A JP 2018045961 A JP2018045961 A JP 2018045961A JP 2018045961 A JP2018045961 A JP 2018045961A JP 2019159835 A JP2019159835 A JP 2019159835A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- feature
- training data
- data
- estimator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】推定結果の精度劣化を抑制することを課題とする。【解決手段】学習装置は、ラベルが付された訓練データ、および、テストデータを入力し特徴量を生成する特徴生成器と、特徴生成器で生成された特徴量のデータを入力し推定結果を出力する推定器と、特徴生成器で生成された特徴量のデータを入力し訓練データとテストデータとの分類結果を出力する鑑定器を有する。推定器は、訓練データに対する推定結果の精度が上がるように、訓練データにそれぞれ付されたラベルを用いて学習される。鑑定器は、訓練データとテストデータとを分類できるように学習する。特徴生成器は、推定器の精度が上がり、かつ、鑑定器の精度が下がるように学習される。【選択図】図4
Description
本発明は、学習プログラム、学習方法および学習装置に関する。
機械学習による分類や回帰を行う際、あらかじめ用意した訓練データで学習を行い、推定対象であるテストデータの推定を行うことが一般的である。例えば、手書き文字と文字種の対を含む訓練データで学習を行い、新たな手書き文字のラベルを推定する。また、シミュレータの入力とその結果の対を含む訓練データで学習を行い、実世界の観測値等の新たな入力に対する結果を推定する。
しかしながら、訓練データとテストデータとの間でデータの性質が異なる場合に、推定結果の精度が低下することがある。例えば、手書き文字のテストデータに環境によるコントラストの違い、影、ノイズ等の差異が存在する場合や訓練データのシミュレーションの入力には存在しない範囲のデータが実世界の観測値には存在する場合に、推定精度が低下する。
この対策として、訓練データとテストデータを比較し、差異が存在すると確認できる場合は学習前に差異が小さくなるようにデータを加工することが行われている。ところが、データの種類や状態によってさまざまな差異が存在することから、加工方法が自明な分野の手法であるとは限らない。また、加工を行ったとしても、加工方法が妥当であるかどうかがテストデータを実際に適用してみるまで判断できない。
一つの側面では、推定結果の精度劣化を抑制することができる学習プログラム、学習方法および学習装置を提供することを目的とする。
第1の案では、学習プログラムは、ラベルが付された訓練データ、および、テストデータを特徴生成器に入力して特徴量を生成し、記特徴生成器で生成された特徴量のデータを推定器に入力し推定結果を出力し、前記特徴生成器で生成された特徴量のデータを鑑定器に入力し訓練データとテストデータとの分類結果を出力する処理をコンピュータに実行させる。前記推定結果を出力する処理は、前記訓練データに対する推定結果の精度が上がるように、前記訓練データにそれぞれ付されたラベルを用いて、前記推定器を学習する。前記分類結果を出力する処理は、前記訓練データと前記テストデータとを分類できるように、前記鑑定器を学習する。前記特徴量を生成する処理は、前記推定器の精度が上がり、かつ、前記鑑定器の精度が下がるように、前記特徴生成器を学習する。
一実施形態によれば、推定結果の精度劣化を抑制することができる。
以下に、本願の開示する学習プログラム、学習方法および学習装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[学習装置の説明]
図1は、実施例1にかかる学習装置を説明する図である。図1に示す学習装置は、サーバやパーソナルコンピュータなどのコンピュータ装置であり、特徴生成器と推定器と鑑定器の3つの学習器を有する。各学習器は、ニューラルネットワーク等の微分可能なモデルを使用することができ、勾配法やランダムサーチなどの様々な学習手法を採用できる。
図1は、実施例1にかかる学習装置を説明する図である。図1に示す学習装置は、サーバやパーソナルコンピュータなどのコンピュータ装置であり、特徴生成器と推定器と鑑定器の3つの学習器を有する。各学習器は、ニューラルネットワーク等の微分可能なモデルを使用することができ、勾配法やランダムサーチなどの様々な学習手法を採用できる。
図1に示す学習装置は、これらの学習器を用いて、訓練データとテストデータの差異による推定の失敗を軽減する。具体的には、特徴生成器は、推定器の精度が上がり、鑑定器の精度が下がるように学習する。推定器は、訓練データに対する推定結果の精度が上がるように学習する。鑑定器は、訓練データかテストデータか分類できるように学習する。
ここで、一般的な手法による差異解消のための対策について説明する。一般的には、管理者等が、訓練データとテストデータを比較し、差異が存在すると確認できる場合は、学習前に差異が小さくなるように、管理者等が手作業でデータを加工する。
図2は、一般的な事前処理の加工方法を説明する図である。図2に示すように、訓練データに対して、コントラストが異なるテストデータ1、ノイズがあるテストデータ2、データが欠損しているテストデータ3が存在する場合、管理者は、事前処理を行ってモデル(学習器)に投入する。具体的には、テストデータ1に対してはコントラスト補正を行い、テストデータ2に対してはノイズ除去を行い、テストデータ3に対しては欠損補間を行う。
このように、テストデータについては、データの種類や状態によってさまざまな差異が存在するが、必ずしも図2に示すような簡単にわかる加工方法とは限らない。加工方法がわからない場合、管理者による試行錯誤が行われることから、時間的コストや人的コストがかかる。このため、各コストを削減するために、テストデータに対する事前の加工を省略することが考えられる。しかし、加工を省略するとテストデータに対する精度が悪くなる。
図3は、テストデータの加工を省略した場合の特徴量の分布を示す図である。図3では、特徴量は2次元とし、正例(+)と負例(−)を直線で分離する線形学習器を例にして説明する。図3に示すように、訓練データを用いて学習した結果、正例(+)と負例(−)を分離する直線αが学習されたとする。このような学習装置に、訓練データと性質が異なるテストデータを適用した場合、図3に示すように、テストデータの正例も負例も直線αの負例側に分類される場合がある。つまり、判別や回帰に使用する特徴量の分布がテストデータと訓練データで異なるため、訓練データで学習したモデル(学習モデル)が訓練データに過適合してしまう。いわゆる外挿問題が発生する。
このように、訓練データを用いて学習した結果をテストデータに適用しても、性質の異なるデータを用いた学習結果であることから、テストデータの分類精度がよくない。したがって、コストを削減するために、事前加工を省略すると、コストは削減できるが、学習精度が劣化する。一方で、加工方法の試行錯誤を繰り返した上で事前加工を行う場合は、学習精度の劣化をある程度抑制できることが期待できるが、コストが大きくなる。すなわち、コストと学習精度とがトレードオフの関係にあり、人為的に処理することは難しい。
そこで、実施例1にかかる学習装置は、機械学習において、訓練データとテストデータの差異によって生じる推定の失敗を、人手による差異吸収のための事前処理の手間をかけずに軽減する。具体的には、学習装置は、訓練データとテストデータに共通する特徴量を自動的に生成し学習に使用する。そして、学習装置は、使用する特徴量が訓練データとテストデータに共通する特徴量かどうかを判別するために、特徴量をもとに訓練データとテストデータを分類する分類器(鑑定器)を使用する。また、学習装置は、訓練データとテストデータの差異を見つける学習器も同時に学習し、この学習器が判別できない特徴量を使用して本来の目的の学習を行う。このようにして、学習装置は、データの事前処理の簡略化と人的コスト等の削減との両立を実現する。
[学習装置の機能構成]
図4は、実施例1にかかる学習装置10の機能構成を示す機能ブロック図である。図4に示すように、学習装置10は、訓練データDB11、テストデータDB12、推定結果DB13、特徴生成器14、推定器15、鑑定器16を有する。なお、訓練データDB11、テストデータDB12、推定結果DB13は、メモリやハードディスクなどに記憶される。特徴生成器14、推定器15、鑑定器16は、プロセッサなどが実行するプロセスによって実現することもできる。
図4は、実施例1にかかる学習装置10の機能構成を示す機能ブロック図である。図4に示すように、学習装置10は、訓練データDB11、テストデータDB12、推定結果DB13、特徴生成器14、推定器15、鑑定器16を有する。なお、訓練データDB11、テストデータDB12、推定結果DB13は、メモリやハードディスクなどに記憶される。特徴生成器14、推定器15、鑑定器16は、プロセッサなどが実行するプロセスによって実現することもできる。
訓練データDB11は、ラベルが付与される、学習対象の訓練データを記憶するデータベースである。具体的には、訓練データDB11は、「入力(x)、ラベル(y)」が対応付けられた複数のデータ群を訓練データとして記憶する。
テストデータDB12は、ラベルが付与されない、推定対象であるテストデータを記憶するデータベースである。具体的には、テストデータDB12は、ラベルがわからない少なくとも1つの「入力(x´)」を記憶するデータベースである。
推定結果DB13は、後述する推定器15の推定結果を記憶するデータベースである。例えば、推定結果DB13は、入力(x)を入力した際の推定結果であるラベル(y´)を記憶する。
特徴生成器14は、訓練データとテストデータを使って学習する学習器であり、各種データから特徴量を生成し、訓練データとテストデータに共通する特徴量を生成するように学習する。なお、特徴量の一例としては、学習対象が画像の場合は、画像内のエッジ、コントラスト、画像内の目や鼻の位置などが挙げられる。
例えば、特徴生成器14は、訓練データDB11に記憶される訓練データ(x、y)の特徴量(z)を生成して、推定器15と鑑定器16に出力する。また、特徴生成器14は、テストデータDB12に記憶されるテストデータ(x)の特徴量(z´)を生成して、推定器15と鑑定器16に出力する。そして、特徴生成器14は、後述する推定器15の精度が上がり、鑑定器16の精度が下がるように、訓練データとテストデータを使って学習する。このとき、特徴生成器14は、特徴量に対する鑑定器16と推定器15の誤差の勾配を利用することができる。
推定器15は、訓練データを使って学習する学習器であり、特徴量から分類や回帰を学習する。例えば、推定器15は、訓練データ(x、y)の特徴量(z)とテストデータ(x)の特徴量(z´)とを用いて、訓練データ(入力(x)、ラベル(y))の入力(x)を入力して、そのときのラベル(y´)を推定して、推定結果DB13に格納する。そして、推定器15は、既知であるラベル(y)と推定結果のラベル(y´)との誤差が小さくなるように学習する。すなわち、推定器15は、入力(x)から正しい(y)が復元できるように学習する。
鑑定器16は、訓練データとテストデータを使って学習する学習器であり、訓練データかテストデータか分類できるように学習する。具体的には、鑑定器16は、推定器15が使用する特徴量が訓練データとテストデータに共通する特徴量かどうかを判別するために、各特徴量をもとに訓練データとテストデータを分類する。例えば、鑑定器16は、訓練データ(x、y)の特徴量(z)とテストデータ(x)の特徴量(z´)を受け付けて、特徴量(z)と特徴量(z´)の類似度などによって、各特徴量間の差異を検出する。そして、鑑定器16による各特徴量間の差異の検出精度が悪化するように、特徴量の学習が実行される。すなわち、鑑定器16が訓練データの特徴量とテストデータの特徴量とを正確に分類できないように、特徴量の学習が実行される。
なお、特徴生成器14、推定器15、鑑定器16のそれぞれは、リアルタイム処理などで学習時間に制限がある場合は、予め指定した所定の回数、訓練データとテストデータとを用いた学習処理を繰り返す。また、特徴生成器14、推定器15、鑑定器16のそれぞれは、学習時間に制限がない場合は、推定器15の精度が向上し、鑑定器16の分類精度が十分低下するまで繰り返す。
例えば、推定器15による推定結果が基準値以上となるまで学習を繰り返す。より詳細には、既知であるラベル(y)と推定結果ラベル(y´)の誤差が閾値以下となるまで学習処理を繰り返したり、ラベル(y´)とラベル(y)とが一致する回数または誤差が閾値以下となる回数が規定数以上となるまで学習処理を繰り返したりする。
また、鑑定器16の分類精度が基準値を下回るまで学習を繰り返す。より詳細には、鑑定器16が算出した特徴量(z)と特徴量(z´)の類似度が閾値以下となるまで、訓練データとテストデータとを用いた学習処理を繰り返す。なお、訓練データとテストデータのそれぞれについては、データの使いまわしは行わず、学習ごとに違うデータを用いることもできる。
[学習遷移]
図5は、実施例1にかかる学習装置の学習遷移を説明する図である。図5では、図3と同様、特徴量は2次元とし、正例(+)と負例(−)を直線で分離する線形学習器を例にして説明する。
図5は、実施例1にかかる学習装置の学習遷移を説明する図である。図5では、図3と同様、特徴量は2次元とし、正例(+)と負例(−)を直線で分離する線形学習器を例にして説明する。
図5に示すように、学習初期では、特徴生成器14が共通する特徴量を生成するように学習をはじめた段階であることから、訓練データの特徴量とテストデータの特徴量とがお互いに関係なく生成される。このため、訓練データもテストデータもともに正例と負例とに分類されない。
そして、学習途中では、特徴生成器14が共通する特徴量を生成するように学習を行っているので、訓練データとテストデータとで共通する特徴量に近い特徴量が生成されつつある。このため、訓練データもテストデータもともに正例と負例とに徐々に分類されていく。
その後、学習が終了すると、特徴生成器14が共通する特徴量を生成できるので、訓練データとテストデータとで共通する特徴量が生成される。このため、図3と比較しても訓練データとテストデータとの間の特徴量の分布が従来よりも近くなり、訓練データもテストデータもともに正例と負例とに精度よく分類できる。したがって、学習装置10は、分類の境界となる位置(直線)を学習することができる。
図6は、学習精度の向上を説明する図である。ここでは、訓練データとテストデータの性質が異なり、事前処理が必要であるが、テストデータに対して事前処理が実行されていない場合を想定する。また、正例(+)と負例(−)を直線で分離する線形学習器を例にして説明する。
図6に示すように、訓練データに対する学習精度は、実施例1の手法を用いた場合と一般的な手法(従来)を用いた場合とでは、あまり大きな差はない。なお、実施例1の学習装置は、訓練データの単純な特徴量ではなく、訓練データとテストデータで共通する特徴量を生成するように、従来手法と比較すると、若干精度が低下するが、精度に影響が出る程ではない。
一方、テストデータの場合、従来手法では、訓練データとは性質が異なるテストデータであることから、訓練データの学習結果をそのまま用いても分類精度は悪く、学習回数を長くしても精度は向上しない。これに対して、実施例1の手法では、学習回数が増えるについて、鑑定器16による分類精度が悪化するように学習されるので、訓練データとテストデータで共通する特徴量が生成されるようになる。このため、訓練データおよびテストデータを含めた学習が実行されるので、訓練データとは性質が異なるテストデータであっても、分類精度は徐々に向上する。つまり、訓練データとテストデータの違いによる精度悪化が軽減される。
[処理の流れ]
図7は、学習処理の流れを示すフローチャートである。図7に示すように、学習装置10は、特徴生成器14、推定器15、鑑定器16を初期化する(S101)。ここでの初期化は、公知の学習処理の一般的な初期化である。
図7は、学習処理の流れを示すフローチャートである。図7に示すように、学習装置10は、特徴生成器14、推定器15、鑑定器16を初期化する(S101)。ここでの初期化は、公知の学習処理の一般的な初期化である。
続いて、学習装置10は、訓練データを使って推定器15を学習し(S102)、訓練データとテストデータとを使って鑑定器16を学習する(S103)。そして、学習装置10は、訓練データとテストデータを使って特徴生成器14を学習する(S104)。
その後、学習装置10は、推定器15の誤差が低く、鑑定器16の誤差が大きい場合(S105:Yes)、処理を終了する。例えば、学習装置10は、推定器15の誤差が第1閾値以下かつ鑑定器16の誤差が第2閾値以上の場合に、学習処理を終了し、学習結果を用いてテストデータの分類を実行する。なお、各閾値は任意に設定できる。
一方、学習装置10は、推定器15の誤差が高く、鑑定器16の誤差が低い場合(S105:No)、繰り返し回数が規定の回数に到達したか否かを判定する(S106)。ここで、学習装置10は、繰り返し回数が規定の回数に到達した場合(S106:Yes)、学習処理を終了し、繰り返し回数が規定の回数に到達していない場合(S106:No)、S102以降を繰り返す。
[効果]
上述したように、学習装置10は、訓練データとテストデータの差異を見つける鑑定器16を学習し、この鑑定器16が判別できない特徴量を使用して本来の目的の学習を行う。このため、学習装置10は、いわゆる外挿問題を解消しつつ、正確な学習を実行できる。したがって、学習装置10は、ニューラルネットワークを使った決定問題や回帰問題に対して、訓練データとテストデータの差異による推定の失敗を軽減することができる。また、学習装置10は、訓練データとテストデータの種別等が異なる場合であっても、管理者等による事前処理を省略した上で学習精度も向上させることができるので、データの事前処理の簡略化と人的コスト等の削減との両立を実現できる。
上述したように、学習装置10は、訓練データとテストデータの差異を見つける鑑定器16を学習し、この鑑定器16が判別できない特徴量を使用して本来の目的の学習を行う。このため、学習装置10は、いわゆる外挿問題を解消しつつ、正確な学習を実行できる。したがって、学習装置10は、ニューラルネットワークを使った決定問題や回帰問題に対して、訓練データとテストデータの差異による推定の失敗を軽減することができる。また、学習装置10は、訓練データとテストデータの種別等が異なる場合であっても、管理者等による事前処理を省略した上で学習精度も向上させることができるので、データの事前処理の簡略化と人的コスト等の削減との両立を実現できる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施例を説明する。
[誤差表示]
学習装置10は、推定器15と鑑定器16の精度を提示することで、加工の妥当性を判断するための情報を提供する表示制御部を有することもできる。例えば、学習装置10の表示制御部は、鑑定器16による訓練データかテストデータの分類結果、各特徴量の差異、各特徴量の類似度、推定器15による推定結果、図5に示す学習遷移のプロット図などをディスプレイに表示したり、管理者端末に送信したりすることができる。この結果、管理者が鑑定器16の精度を確認することで、外挿問題の影響を見積もることができるようになる。なお、表示するタイミングは、学習処理ごとに表示することもでき、数回の学習処理ごとに表示することもできる。
学習装置10は、推定器15と鑑定器16の精度を提示することで、加工の妥当性を判断するための情報を提供する表示制御部を有することもできる。例えば、学習装置10の表示制御部は、鑑定器16による訓練データかテストデータの分類結果、各特徴量の差異、各特徴量の類似度、推定器15による推定結果、図5に示す学習遷移のプロット図などをディスプレイに表示したり、管理者端末に送信したりすることができる。この結果、管理者が鑑定器16の精度を確認することで、外挿問題の影響を見積もることができるようになる。なお、表示するタイミングは、学習処理ごとに表示することもでき、数回の学習処理ごとに表示することもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。なお、上記推定器15、鑑定器16、特徴生成器14、表示制御部のそれぞれは、推定器、鑑定器、特徴生成器、表示制御部の一例である。また、上記各閾値や基準値は、任意に設定変更することができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。なお、上記推定器15、鑑定器16、特徴生成器14、表示制御部のそれぞれは、推定器、鑑定器、特徴生成器、表示制御部の一例である。また、上記各閾値や基準値は、任意に設定変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア構成]
図8は、ハードウェア構成例を示す図である。図8に示すように、学習装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ0dを有する。
図8は、ハードウェア構成例を示す図である。図8に示すように、学習装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ0dを有する。
通信インタフェース10aは、他の装置の通信を制御するネットワークインタフェースカードなどである。HDD10bは、プログラムやデータなどを記憶する記憶装置の一例である。
メモリ10cの一例としては、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。プロセッサ10dの一例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、PLD(Programmable Logic Device)等が挙げられる。
また、学習装置10は、プログラムを読み出して実行することで学習方法を実行する情報処理装置として動作する。つまり、学習装置10は、特徴生成器14、推定器15、鑑定器16と同様の機能を実行するプログラムを実行する。この結果、学習装置10は、特徴生成器14、推定器15、鑑定器16と同様の機能を実行するプロセスを実行することができる。なお、この他の実施例でいうプログラムは、学習装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 学習装置
11 訓練データDB
12 テストデータDB
13 推定結果DB
14 特徴生成器
15 推定器
16 鑑定器
11 訓練データDB
12 テストデータDB
13 推定結果DB
14 特徴生成器
15 推定器
16 鑑定器
Claims (5)
- ラベルが付された訓練データ、および、テストデータを特徴生成器に入力して特徴量を生成し、
前記特徴生成器で生成された特徴量のデータを推定器に入力し推定結果を出力し、
前記特徴生成器で生成された特徴量のデータを鑑定器に入力し訓練データとテストデータとの分類結果を出力する処理をコンピュータに実行させ、
前記推定結果を出力する処理は、前記訓練データに対する推定結果の精度が上がるように、前記訓練データにそれぞれ付されたラベルを用いて、前記推定器を学習し、
前記分類結果を出力する処理は、前記訓練データと前記テストデータとを分類できるように、前記鑑定器を学習し、
前記特徴量を生成する処理は、前記推定器の精度が上がり、かつ、前記鑑定器の精度が下がるように、前記特徴生成器を学習する、学習プログラム。 - 前記推定器、前記鑑定器、前記特徴生成器のそれぞれを、学習時間に制限がある場合は、予め指定した所定の回数、学習処理を繰り返し、学習時間に制限がない場合は、前記推定器の精度が基準値より向上し、前記鑑定器の分類精度が基準値を下回るまで繰り返す処理を前記コンピュータに実行させる請求項1に記載の学習プログラム。
- 前記学習時間内で実行される学習処理ごと、または、所定回数の学習処理ごとに、前記推定器による推定結果または前記鑑定器による分類結果を表示する処理を前記コンピュータに実行させる請求項2に記載の学習プログラム。
- ラベルが付された訓練データ、および、テストデータを特徴生成器に入力して特徴量を生成し、
前記特徴生成器で生成された特徴量のデータを推定器に入力し推定結果を出力し、
前記特徴生成器で生成された特徴量のデータを鑑定器に入力し訓練データとテストデータとの分類結果を出力する処理をコンピュータが実行し、
前記推定結果を出力する処理は、前記推定器を、訓練データに対する推定結果の精度が上がるように、前記訓練データにそれぞれ付されたラベルを用いて学習し、
前記分類結果を出力する処理は、前記鑑定器を、前記訓練データと前記テストデータとを分類できるように学習し、
前記特徴量を生成する処理は、前記特徴生成器を、前記推定器の精度が上がり、かつ、前記鑑定器の精度が下がるように学習する、学習方法。 - ラベルが付された訓練データ、および、テストデータを入力し特徴量を生成する特徴生成器と、
前記特徴生成器で生成された特徴量のデータを入力し推定結果を出力する推定器と、
前記特徴生成器で生成された特徴量のデータを入力し訓練データとテストデータとの分類結果を出力する鑑定器と、を有し、
前記推定器は、訓練データに対する推定結果の精度が上がるように、前記訓練データにそれぞれ付されたラベルを用いて学習され、
前記鑑定器は、前記訓練データと前記テストデータとを分類できるように学習し、
前記特徴生成器は、前記推定器の精度が上がり、かつ、前記鑑定器の精度が下がるように学習される、学習装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018045961A JP2019159835A (ja) | 2018-03-13 | 2018-03-13 | 学習プログラム、学習方法および学習装置 |
US16/295,850 US20190287016A1 (en) | 2018-03-13 | 2019-03-07 | Computer-readable recording medium, learning method, and learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018045961A JP2019159835A (ja) | 2018-03-13 | 2018-03-13 | 学習プログラム、学習方法および学習装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019159835A true JP2019159835A (ja) | 2019-09-19 |
Family
ID=67905794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018045961A Pending JP2019159835A (ja) | 2018-03-13 | 2018-03-13 | 学習プログラム、学習方法および学習装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190287016A1 (ja) |
JP (1) | JP2019159835A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021095680A1 (ja) * | 2019-11-14 | 2021-05-20 | オムロン株式会社 | 推定システム、推定装置および推定方法 |
CN117390522A (zh) * | 2023-12-12 | 2024-01-12 | 华南师范大学 | 基于过程与结果融合的在线深度学习等级预测方法及装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11562297B2 (en) * | 2020-01-17 | 2023-01-24 | Apple Inc. | Automated input-data monitoring to dynamically adapt machine-learning techniques |
-
2018
- 2018-03-13 JP JP2018045961A patent/JP2019159835A/ja active Pending
-
2019
- 2019-03-07 US US16/295,850 patent/US20190287016A1/en not_active Abandoned
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021095680A1 (ja) * | 2019-11-14 | 2021-05-20 | オムロン株式会社 | 推定システム、推定装置および推定方法 |
JP2021081794A (ja) * | 2019-11-14 | 2021-05-27 | オムロン株式会社 | 推定システム、推定装置および推定方法 |
JP7286091B2 (ja) | 2019-11-14 | 2023-06-05 | オムロン株式会社 | 推定システム、推定装置および推定方法 |
CN117390522A (zh) * | 2023-12-12 | 2024-01-12 | 华南师范大学 | 基于过程与结果融合的在线深度学习等级预测方法及装置 |
CN117390522B (zh) * | 2023-12-12 | 2024-03-29 | 华南师范大学 | 基于过程与结果融合的在线深度学习等级预测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20190287016A1 (en) | 2019-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110852983B (zh) | 用于检测半导体装置中的缺陷的方法 | |
US10803398B2 (en) | Apparatus and method for information processing | |
CN109271958B (zh) | 人脸年龄识别方法及装置 | |
JP7047498B2 (ja) | 学習プログラム、学習方法および学習装置 | |
CN113222883B (zh) | 处理异常检测的装置及方法 | |
KR102370910B1 (ko) | 딥러닝 기반 소수 샷 이미지 분류 장치 및 방법 | |
JP2019159835A (ja) | 学習プログラム、学習方法および学習装置 | |
KR102042168B1 (ko) | 시계열 적대적인 신경망 기반의 텍스트-비디오 생성 방법 및 장치 | |
CN112613543A (zh) | 增强策略验证方法、装置、电子设备及存储介质 | |
JP2019159576A (ja) | 学習プログラム、学習方法および学習装置 | |
KR20210044080A (ko) | 머신러닝 기반 결함 분류 장치 및 방법 | |
CN111783812B (zh) | 违禁图像识别方法、装置和计算机可读存储介质 | |
CN113468905B (zh) | 图形码识别方法、装置、计算机设备和存储介质 | |
JPWO2019180868A1 (ja) | 画像生成装置、画像生成方法および画像生成プログラム | |
US20220261690A1 (en) | Computer-readable recording medium storing determination processing program, determination processing method, and information processing apparatus | |
US11074507B1 (en) | Method for performing adjustable continual learning on deep neural network model by using selective deep generative replay module and device using the same | |
JP7264272B2 (ja) | 検出方法、検出プログラム及び検出装置 | |
KR20180082680A (ko) | 분류기를 학습시키는 방법 및 이를 이용한 예측 분류 장치 | |
JP7192873B2 (ja) | 情報処理プログラム、情報処理方法および学習装置 | |
Jameel et al. | Automatic test oracle for image processing applications using support vector machines | |
CN112446428A (zh) | 一种图像数据处理方法及装置 | |
JP2020129322A (ja) | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム | |
JP7266075B2 (ja) | データ選別支援装置、データ選別支援方法及びデータ選別支援プログラム | |
US20220245395A1 (en) | Computer-readable recording medium storing determination program, determination method, and determination device | |
JP7507172B2 (ja) | 情報処理方法、情報処理システム及び情報処理装置 |