JP6773618B2 - 学習装置、情報処理装置、学習方法およびプログラム - Google Patents

学習装置、情報処理装置、学習方法およびプログラム Download PDF

Info

Publication number
JP6773618B2
JP6773618B2 JP2017169448A JP2017169448A JP6773618B2 JP 6773618 B2 JP6773618 B2 JP 6773618B2 JP 2017169448 A JP2017169448 A JP 2017169448A JP 2017169448 A JP2017169448 A JP 2017169448A JP 6773618 B2 JP6773618 B2 JP 6773618B2
Authority
JP
Japan
Prior art keywords
learning
model
objective function
model parameter
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017169448A
Other languages
English (en)
Other versions
JP2019046236A (ja
Inventor
健太郎 高木
健太郎 高木
康太 中田
康太 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017169448A priority Critical patent/JP6773618B2/ja
Priority to US15/899,599 priority patent/US20190073587A1/en
Publication of JP2019046236A publication Critical patent/JP2019046236A/ja
Application granted granted Critical
Publication of JP6773618B2 publication Critical patent/JP6773618B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明の実施形態は、学習装置、情報処理装置、学習方法およびプログラムに関する。
機械学習に関して、高精度な分類器や回帰を学習するために、モデルのハイパーパラメータを自動チューニングする技術、および、目的関数に正則化項を加える技術が提案されている。
特表2016−523402号公報
Takeru Miyato1, Shin-ichi Maeda1, Masanori Koyama1, Ken Nakae1 & Shin Ishii,"DISTRIBUTIONAL SMOOTHING WITH VIRTUAL ADVERSARIAL TRAINING",arXiv:1507.00677v9,11 Jun 2016.
しかしながら、従来技術では、ハイパーパラメータを決定するための計算コストが高いという問題があった。
実施形態の学習装置は、算出部と、学習部と、を備える。算出部は、モデルの出力の局所分布の滑らかさを表す平滑度を含み、モデルを定める第1モデルパラメータを推定するための第1目的関数の値と、第1目的関数を利用してモデルを学習する学習方法のハイパーパラメータを第2モデルパラメータとして、学習データの距離スケールにより近い第2モデルパラメータを推定するための第2目的関数の値と、を算出する。学習部は、第1目的関数の値および第2目的関数の値を最適化するように第1モデルパラメータおよび第2モデルパラメータを更新する。
第1の実施形態にかかる学習装置を含む情報処理装置のブロック図。 第1の実施形態における学習処理のフローチャート。 算出部による算出処理のフローチャート。 第2の実施形態にかかる学習装置を含む情報処理装置のブロック図。 第2の実施形態における算出処理のフローチャート。 第3の実施形態にかかる学習装置を含む情報処理装置のブロック図。 第1から第3の実施形態にかかる装置のハードウェア構成図。
以下に添付図面を参照して、この発明にかかる学習装置の好適な実施形態を詳細に説明する。
ハイパーパラメータは、設定可能な範囲が広く、精度への影響も大きい場合がある。このため、従来は、グリッドサーチおよびベイズ最適化等によりハイパーパラメータが決定されていた。このような方法では、複数回、学習が実行され、その結果により最適なハイパーパラメータが決定される。このため、ハイパーパラメータを決定するための計算コストが高くなる。
以下の各実施形態では、ハイパーパラメータに関する目的関数を導入してモデルの学習と同時にハイパーパラメータを学習する。これにより、ハイパーパラメータを手動で設定する必要がなくなる。また、例えば1回のモデルの学習で同時にハイパーパラメータも学習できるため、ハイパーパラメータを決定するための計算コストが低減できる。また、より精度が高いモデルを学習することが可能となる。
以下に説明する本実施形態は、機械学習モデルとしてニューラルネットワークを利用し、VAT(Virtual Adversarial Training)法によりモデルを学習する場合を例に説明する。適用可能なモデルは、ニューラルネットワークに限られるものではない。また適用可能な学習方法は、VAT法に限られるものではない。例えば、勾配ブースティングなどの他の学習方法を用いてもよい。例えば、SVM(サポートベクターマシン)などを用いてもよい。
(第1の実施形態)
図1は、第1の実施形態にかかる学習装置100を含む情報処理装置200の構成の一例を示すブロック図である。情報処理装置200は、学習装置100により学習されたモデルを用いた情報処理を実行する装置の例である。情報処理は、モデルを用いた処理であればどのような処理であってもよい。例えば情報処理は、モデルを用いた音声認識、画像認識、および、文字認識などの認識処理であってもよい。また情報処理は、装置の異常予測、および、センサの値(室温など)の予測などの予測処理であってもよい。
図1に示すように、情報処理装置200は、学習装置100と、制御部201と、を備えている。学習装置100は、学習データ記憶部121と、モデルパラメータ記憶部122と、算出部101と、学習部102と、を備えている。
学習データ記憶部121は、機械学習の学習データとして利用される予め用意されたデータセットを記憶する。データセットは、N個(Nは1以上の整数)の入力データx(i=1,2,・・・,N)と、入力データに対する出力y(i=1,2,・・・,N)と、を含む。例えば画像の分類問題を考える場合、xは画像であり、yは画像に対する分類ラベルである。
モデルパラメータ記憶部122は、機械学習モデルの学習により推定するモデルパラメータφを記憶する。例えばニューラルネットワークの場合、モデルパラメータφは、重み、および、バイアスなどである。例えば、3層のニューラルネットワークF(x)は、l層の重みw(l)、バイアスb(l)を用いて以下の(1)式で表される。ここでa(l)は、l層の活性化関数を表す。
F(x)=a(3)(w(3)(2)(w(2)(2)(w(1)x+b(1))+b(2))+b(3)) ・・・(1)
この場合のモデルパラメータは、{w(l),b(l);l=1,2,3}である。すなわち、モデルパラメータφは以下の(2)式で表される。
φ={w(l),b(l);l=1,2,3} ・・・(2)
第1の実施形態では、VATの学習挙動を制御するハイパーパラメータεを学習により推定する。このため、モデルパラメータ記憶部122は、さらにハイパーパラメータεをモデルパラメータとして記憶する。従って本実施形態のモデルパラメータは{φ,ε}となる。なおここでのφは式(2)で表される。
なおVATでは、モデル出力の局所分布の滑らかさを表す平滑度が正則化項として追加される。ハイパーパラメータεは、平滑度を算出するためのハイパーパラメータである。より具体的には、ハイパーパラメータεは、平滑度を算出するときの摂動の上限を示すハイパーパラメータである。VATの詳細は後述する。
モデルパラメータ記憶部122に記憶するモデルパラメータφ、εの初期値は、ニューラルネットワークのパラメータに対する一般的な初期化方法で初期化する。例えば、モデルパラメータは、定数値、正規分布、および、一様分布等で初期化する。
算出部101は、学習時に用いられる目的関数の値(出力値)を算出する。本実施形態では、算出部101は、VATで用いられる目的関数(第1目的関数)の値に加え、モデルパラメータとしてのハイパーパラメータを推定するための目的関数(第2目的関数)の値を算出する。
第1目的関数は、モデルの出力の局所分布の滑らかさを表す平滑度を含み、モデルを定めるモデルパラメータ(第1モデルパラメータ)を推定するための目的関数である。第2目的関数は、VAT(第1目的関数を利用してモデルを学習する学習方法)のハイパーパラメータεをモデルパラメータ(第2モデルパラメータ)とする目的関数である。また、第2目的関数は、学習データの距離スケールにより近い第2モデルパラメータを推定するための目的関数である。
学習部102は、学習データを用いてモデル(ニューラルネットワーク)を学習し、モデルパラメータを更新する。例えば学習部102は、第1目的関数の値および第2目的関数の値を最適化するように、第1モデルパラメータおよび第2モデルパラメータを学習して更新する。
制御部201は、学習されたモデルを用いた情報処理を制御する。例えば制御部201は、更新された第1モデルパラメータにより定められるモデル(ニューラルネットワーク)を用いた情報処理を制御する。
上記各部(算出部101、学習部102、および、制御部201)は、例えば、1または複数のプロセッサにより実現される。例えば上記各部は、CPU(Central Processing Unit)などのプロセッサにプログラムを実行させること、すなわちソフトウェアにより実現してもよい。上記各部は、専用のIC(Integrated Circuit)などのプロセッサ、すなわちハードウェアにより実現してもよい。上記各部は、ソフトウェアおよびハードウェアを併用して実現してもよい。複数のプロセッサを用いる場合、各プロセッサは、各部のうち1つを実現してもよいし、各部のうち2以上を実現してもよい。
学習データ記憶部121、および、モデルパラメータ記憶部122は、HDD(Hard Disk Drive)、光ディスク、メモリカード、RAM(Random Access Memory)などの一般的に利用されているあらゆる記憶媒体により構成することができる。記憶部は、物理的に異なる記憶媒体としてもよいし、物理的に同一の記憶媒体の異なる記憶領域として実現してもよい。さらに記憶部のそれぞれは、物理的に異なる複数の記憶媒体により実現してもよい。
情報処理装置200は、例えば、CPUなどのプロセッサを備えるサーバ装置などにより実現してもよい。情報処理装置200のうち制御部201をCPUなどを用いたソフトウェアにより実現し、学習装置100をハードウェア回路により実現してもよい。情報処理装置200の全体をハードウェア回路により実現してもよい。
次に、このように構成された第1の実施形態にかかる学習装置100による学習処理について図2を用いて説明する。図2は、第1の実施形態における学習処理の一例を示すフローチャートである。
学習装置100は、学習データを受け付け、学習データ記憶部121に記憶する(ステップS101)。また学習装置100は、初期値を設定したモデルパラメータをモデルパラメータ記憶部122に記憶する(ステップS102)。
算出部101は、記憶されたモデルパラメータおよび学習データを利用して、目的関数の値を算出する(ステップS103)。図3は、算出部101による算出処理の一例を示すフローチャートである。
算出部101は、機械学習のタスクに応じた目的関数Ltaskの値を算出する(ステップS201)。例えば、機械学習のタスクが多クラス分類問題の場合、算出部101は、交差エントロピーを目的関数Ltaskの値として算出する。
次に算出部101は、VATで追加される正則化項であるモデル出力の局所分布の滑らかさを表す平滑度L advを算出する(ステップS202)。平滑度L advは、例えば以下の(3)式〜(5)式により算出される。
Figure 0006773618
Figure 0006773618
Figure 0006773618
f(x)はニューラルネットワークの出力である。VATを用いる場合、算出部101の出力L(φ)は以下の(6)式により表される。
Figure 0006773618
ステップS201およびステップS202で算出される目的関数Ltaskの値、および、平滑度L advは、VATで用いられる目的関数(第1目的関数)に相当する。
上述のように、本実施形態では、算出部101は、モデルパラメータとしてのハイパーパラメータεを推定するための目的関数(第2目的関数)の値をさらに算出する。例えば算出部101は、まず、距離スケールlを以下の(7)式により算出する(ステップS203)。
Figure 0006773618
は、x以外の入力データ(第2学習データ)を表す。minは、入力データx(第1学習データ)ごとに求められる各xとの距離のうち最小値を表す。記号“<>”は、各xに対して求められた最小値の平均を表す。xは、入力されたデータのうちx以外の全データでもよいし、一部のデータでもよい。例えば学習部102での更新がミニバッチ単位で実施される場合は、ミニバッチのデータのうちx以外のデータをxとしてもよい。このように、距離スケールlは、各入力データ(x)の隣接点(x)との距離の最小値に基づき算出される。
算出部101は、距離スケールlの値とハイパーパラメータεの値が近くなるように、ハイパーパラメータεに対する目的関数Lεを以下の(8)式で算出する(ステップS204)。目的関数Lεの値は、距離スケールlとハイパーパラメータεとのずれに相当する。
Figure 0006773618
算出部101の出力L(φ,ε)は、以下の(9)式で表される。
Figure 0006773618
算出部101は、(9)式のL(φ,ε)の出力値を算出し、目的関数の値として出力し、算出処理を終了する。
図2に戻り、学習部102は、算出された目的関数の値を利用して、モデルパラメータを更新する(ステップS104)。例えば学習部102は、確率勾配降下法等を利用して、目的関数L(φ,ε)の値が小さくなるようにモデルパラメータを更新する。確率勾配降下法を利用した場合の具体的な更新の式は、以下の(10)式および(11)式で表される。ここで、γは確率勾配降下法の学習率を表し、添字tおよびt−1は更新後、更新前を表す。
Figure 0006773618
Figure 0006773618
学習部102は、更新したモデルパラメータを例えばモデルパラメータ記憶部122に記憶する。学習部102は、例えばモデルを用いた処理を実行する外部装置などの、モデルパラメータ記憶部122以外の構成部に更新したモデルパラメータを出力してもよい。
その後、学習部102は、更新を終了するか(学習を終了するか)否かを判定する(ステップS105)。更新を終了するかは、例えば、モデルパラメータの値が収束したかなどにより判定される。
更新を続ける場合(ステップS105:No)、ステップS103に戻り処理が繰り返される。更新を終了する場合(ステップS105:Yes)、学習部102は、モデルパラメータφおよびεを出力し、学習処理を終了する。
このように、第1の実施形態によれば、ユーザが手動で適切なハイパーパラメータ(εなど)の値を決める必要がなくなり、安定的に精度の高いモデルを学習することが可能となる。
(第2の実施形態)
第1の実施形態では、平滑度は入力データ空間上での変化に対するモデルの出力の滑らかさを表す。一方、入力データ空間よりも射影空間(例えばニューラルネットワークの場合、中間層の出力)の方が空間的に良い性質を持っていることが知られている。第2の実施形態では、平滑度を射影空間上での変化に対するモデル出力の滑らかさとして算出する。
図4は、第2の実施形態にかかる学習装置100−2を含む情報処理装置200−2の構成の一例を示すブロック図である。図4に示すように、情報処理装置200−2は、学習装置100−2と、制御部201と、を備えている。学習装置100−2は、学習データ記憶部121と、モデルパラメータ記憶部122と、算出部101−2と、学習部102と、を備えている。
第2の実施形態では、算出部101−2の機能が第1の実施形態と異なっている。その他の構成および機能は、第1の実施形態にかかる学習装置100のブロック図である図1と同様であるので、同一符号を付し、ここでの説明は省略する。
算出部101−2は、射影空間上での入力データの平滑度を算出する点が、第1の実施形態の算出部101と異なっている。算出部101−2は、例えば以下の(12)〜(14)式により、平滑度L advを算出する。
Figure 0006773618
Figure 0006773618
Figure 0006773618
ここでg(x)はニューラルネットワークの中間層(例えば最後の中間層)の出力であり、f(g(x))はニューラルネットワークの出力である。
g(x)はニューラルネットワークの中間層の出力に限られず、どのような写像であってもよい。例えば、g(x)は主成分分析の写像としてもよい。またニューラルネットワークの中間層の出力とする場合、中間層は1つであってもよいし、複数であってもよい。例えば、複数の中間層の出力の和、および、複数の中間層の出力の重み付け和などをg(x)として用いてもよい。
次に、このように構成された第2の実施形態にかかる学習装置100−2の算出部101−2による算出処理について図5を用いて説明する。図5は、第2の実施形態における算出処理の一例を示すフローチャートである。なお、学習部102による学習処理の全体の流れは第1の実施形態の学習処理を示す図2と同様であるため説明を省略する。
ステップS301およびステップS302は、第1の実施形態にかかる学習装置100におけるステップS201およびステップS202と同様の処理なので、その説明を省略する。
第2の実施形態の算出部101−2は、距離スケールの算出(ステップS304)の前に、射影空間上での入力データxの位置g(x)を算出する(ステップS303)。次に算出部101−2は、射影空間上での入力データxと隣接点xとの距離スケールlを以下の(15)式により算出する(ステップS304)。
Figure 0006773618
学習部102は、距離スケールlとハイパーパラメータεが近くなるようにハイパーパラメータεに対する目的関数Lεを、上述の(8)式で算出する(ステップS305)。
第2の実施形態によれば、射影空間上でのデータ点の近傍距離が未知であっても、ユーザが手動でハイパーパラメータεを設定することなしに、精度の高いモデルを学習することができる。
(第3の実施形態)
第1および第2の実施形態では、すべての学習データに対して適切なハイパーパラメータεが学習される。一方、学習データの密度が異なる場合には、データ点ごとに近傍の距離が大きく異なることが予想される。そこで、第3の実施形態では、データ点ごとに定められるハイパーパラメータεを用いる。
なお、以下では第2の実施形態をもとにデータ点ごとのハイパーパラメータを用いるように変更した例を説明する。第1の実施形態に対しても同様の変更を適用できる。
図6は、第3の実施形態にかかる学習装置100−3を含む情報処理装置200−3の構成の一例を示すブロック図である。図6に示すように、情報処理装置200−3は、学習装置100−3と、制御部201と、を備えている。学習装置100−3は、学習データ記憶部121と、モデルパラメータ記憶部122と、算出部101−3と、学習部102−3と、を備えている。
第3の実施形態では、算出部101−3および学習部102−3の機能が第2の実施形態と異なっている。その他の構成および機能は、第2の実施形態にかかる学習装置100−2のブロック図である図4と同様であるので、同一符号を付し、ここでの説明は省略する。
算出部101−3は、以下の(16)〜(18)式により平滑度L advを算出する点が、第2の実施形態の算出部101−2と異なっている。
Figure 0006773618
Figure 0006773618
Figure 0006773618
このように算出することで、本実施形態ではr の大きさがデータ点ごとで異なる。算出部101−3は、ハイパーパラメータεに対する目的関数の値を、以下の手順で算出する。まず算出部101−3は、各データ点の射影空間上での位置g(x)を算出する。算出部101−3は、データ点ごとの隣接点との距離スケールl を以下の(19)式で算出する。
Figure 0006773618
算出部101−3は、ハイパーパラメータεに対する目的関数L εの値を以下の(20)式で算出する。
Figure 0006773618
第3の実施形態において算出部101−3の出力L(φ、ε)は、以下の(21)式で表される。
Figure 0006773618
学習部102−3は、確率勾配降下法等を利用して、目的関数L(φ,ε)の値が小さくなるようにモデルパラメータを更新する。確率勾配降下法を利用した場合の具体的な更新の式は、以下の(22)式および(23)式で表される。
Figure 0006773618
Figure 0006773618
なお、学習部102−3による学習処理の全体の流れ、および、算出部101−3による算出処理の全体の流れは、第1の実施形態の学習処理を示す図2、および、第2の実施形態の算出処理を示す図5と同様であるため説明を省略する。
第3の実施形態によれば、データが局所的に密集している場合など、データごとに適切な近傍距離が異なる場合でも、ユーザが手動でハイパーパラメータを設定することなしに精度の高いモデルを学習することができる。
以上説明したとおり、第1から第3の実施形態によれば、ハイパーパラメータを決定するための計算コストが低減可能となる。
次に、第1から第3の実施形態にかかる装置(情報処理装置、学習装置)のハードウェア構成について図7を用いて説明する。図7は、第1から第3の実施形態にかかる装置のハードウェア構成例を示す説明図である。
第1から第3の実施形態にかかる装置は、CPU51などの制御装置と、ROM(Read Only Memory)52やRAM53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
第1から第3の実施形態にかかる装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
第1から第3の実施形態にかかる装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供されるように構成してもよい。
さらに、第1から第3の実施形態にかかる装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、第1から第3の実施形態にかかる装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
第1から第3の実施形態にかかる装置で実行されるプログラムは、コンピュータを上述した装置の各部として機能させうる。このコンピュータは、CPU51がコンピュータ読取可能な記憶媒体からプログラムを主記憶装置上に読み出して実行することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100、100−2、100−3 学習装置
101、101−2、101−3 算出部
102、102−3 学習部
121 学習データ記憶部
122 モデルパラメータ記憶部
200、200−2、200−3 情報処理装置
201 制御部

Claims (10)

  1. モデルの出力の局所分布の滑らかさを表す平滑度を含み、前記モデルを定める第1モデルパラメータを推定するための第1目的関数の値と、前記第1目的関数を利用して前記モデルを学習する学習方法のハイパーパラメータを第2モデルパラメータとして、学習データの距離スケールにより近い前記第2モデルパラメータを推定するための第2目的関数の値と、を算出する算出部と、
    前記第1目的関数の値および前記第2目的関数の値を最適化するように前記第1モデルパラメータおよび前記第2モデルパラメータを更新する学習部と、
    を備える学習装置。
  2. 前記距離スケールは、予め定められた射影空間上での距離スケールである、
    請求項1に記載の学習装置。
  3. 前記モデルは、ニューラルネットワークであり、
    前記距離スケールは、前記ニューラルネットワークの中間層の出力を示す射影空間上での距離スケールである、
    請求項2に記載の学習装置。
  4. 前記距離スケールは、複数の第1学習データそれぞれと、複数の学習データのうち他の学習データより前記第1学習データに距離が近い第2学習データと、の間の距離の平均である、
    請求項1に記載の学習装置。
  5. 前記距離スケールは、学習データごとに求められる、
    請求項1に記載の学習装置。
  6. 前記ハイパーパラメータは、前記平滑度を算出するためのハイパーパラメータである、
    請求項1に記載の学習装置。
  7. 前記モデルは、ニューラルネットワークである、
    請求項1に記載の学習装置。
  8. 請求項1から請求項7のいずれか1項に記載の学習装置と、
    更新された前記第1モデルパラメータにより定められる前記モデルを用いた情報処理を制御する制御部と、
    を備える情報処理装置。
  9. モデルの出力の局所分布の滑らかさを表す平滑度を含み、前記モデルを定める第1モデルパラメータを推定するための第1目的関数の値と、前記第1目的関数を利用して前記モデルを学習する学習方法のハイパーパラメータを第2モデルパラメータとして、学習データの距離スケールにより近い前記第2モデルパラメータを推定するための第2目的関数の値と、を算出する算出ステップと、
    前記第1目的関数の値および前記第2目的関数の値を最適化するように前記第1モデルパラメータおよび前記第2モデルパラメータを更新する学習ステップと、
    を含む学習方法。
  10. コンピュータを、
    モデルの出力の局所分布の滑らかさを表す平滑度を含み、前記モデルを定める第1モデルパラメータを推定するための第1目的関数の値と、前記第1目的関数を利用して前記モデルを学習する学習方法のハイパーパラメータを第2モデルパラメータとして、学習データの距離スケールにより近い前記第2モデルパラメータを推定するための第2目的関数の値と、を算出する算出部と、
    前記第1目的関数の値および前記第2目的関数の値を最適化するように前記第1モデルパラメータおよび前記第2モデルパラメータを更新する学習部、
    として機能させるためのプログラム。
JP2017169448A 2017-09-04 2017-09-04 学習装置、情報処理装置、学習方法およびプログラム Active JP6773618B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017169448A JP6773618B2 (ja) 2017-09-04 2017-09-04 学習装置、情報処理装置、学習方法およびプログラム
US15/899,599 US20190073587A1 (en) 2017-09-04 2018-02-20 Learning device, information processing device, learning method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169448A JP6773618B2 (ja) 2017-09-04 2017-09-04 学習装置、情報処理装置、学習方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019046236A JP2019046236A (ja) 2019-03-22
JP6773618B2 true JP6773618B2 (ja) 2020-10-21

Family

ID=65517588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169448A Active JP6773618B2 (ja) 2017-09-04 2017-09-04 学習装置、情報処理装置、学習方法およびプログラム

Country Status (2)

Country Link
US (1) US20190073587A1 (ja)
JP (1) JP6773618B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6965206B2 (ja) 2018-05-09 2021-11-10 株式会社東芝 クラスタリング装置、クラスタリング方法およびプログラム
JP7059166B2 (ja) * 2018-11-29 2022-04-25 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP2020181265A (ja) * 2019-04-23 2020-11-05 日鉄ソリューションズ株式会社 情報処理装置、システム、情報処理方法及びプログラム
WO2021066504A1 (ko) * 2019-10-02 2021-04-08 한국전자통신연구원 심층 신경망 구조 학습 및 경량화 방법
CN112651510B (zh) * 2019-10-12 2024-09-06 华为技术有限公司 模型更新方法、工作节点及模型更新系统
CN113159080A (zh) * 2020-01-22 2021-07-23 株式会社东芝 信息处理装置、信息处理方法以及存储介质
TWI831016B (zh) * 2020-06-05 2024-02-01 宏達國際電子股份有限公司 機器學習方法、機器學習系統以及非暫態電腦可讀取媒體
WO2022113171A1 (ja) * 2020-11-24 2022-06-02 株式会社KPMG Ignition Tokyo Ocrアプリケーション用のインテリジェントな前処理

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529855B1 (en) * 1999-07-28 2003-03-04 Ncr Corporation Produce recognition system and method
US8254669B2 (en) * 2007-09-19 2012-08-28 Ricoh Company, Ltd. Data processing apparatus, computer program product, and data processing method for predicting an optimum function based on a case database and image feature values calculated by a feature-value calculating unit
KR20210021147A (ko) * 2013-05-30 2021-02-24 프레지던트 앤드 펠로우즈 오브 하바드 칼리지 베이지안 최적화를 수행하기 위한 시스템 및 방법

Also Published As

Publication number Publication date
JP2019046236A (ja) 2019-03-22
US20190073587A1 (en) 2019-03-07

Similar Documents

Publication Publication Date Title
JP6773618B2 (ja) 学習装置、情報処理装置、学習方法およびプログラム
US11062215B2 (en) Using different data sources for a predictive model
US11544743B2 (en) Digital content control based on shared machine learning properties
US20190114151A1 (en) Application Digital Content Control using an Embedded Machine Learning Module
JP6965206B2 (ja) クラスタリング装置、クラスタリング方法およびプログラム
JP5768834B2 (ja) プラントモデル管理装置及び方法
JP6610278B2 (ja) 機械学習装置、機械学習方法及び機械学習プログラム
US11120333B2 (en) Optimization of model generation in deep learning neural networks using smarter gradient descent calibration
JP7095599B2 (ja) 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム
JP6712644B2 (ja) 音響モデル学習装置、その方法、及びプログラム
CN113095129B (zh) 姿态估计模型训练方法、姿态估计方法、装置和电子设备
JP6299759B2 (ja) 予測関数作成装置、予測関数作成方法、及びプログラム
US20210073635A1 (en) Quantization parameter optimization method and quantization parameter optimization device
JP2020181240A (ja) データ生成装置、データ生成方法およびプログラム
CN111967917A (zh) 预测用户流失的方法以及设备
JPWO2018088277A1 (ja) 予測モデル生成システム、方法およびプログラム
CN103782290A (zh) 建议值的生成
JP7021132B2 (ja) 学習装置、学習方法およびプログラム
JP2015060237A (ja) 予測モデル学習装置、予測モデル学習方法およびコンピュータプログラム
JP7512229B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020119108A (ja) データ処理装置、データ処理方法、データ処理プログラム
JP7235246B2 (ja) 情報処理装置、方法、プログラム、icチップ及び学習済モデル
JP2021082014A (ja) 推定装置、訓練装置、推定方法、訓練方法、プログラム及び非一時的コンピュータ可読媒体
JP6877666B1 (ja) 分類装置、分類方法およびプログラム
CN117556745B (zh) 空间自适应流体仿真方法、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201001

R151 Written notification of patent or utility model registration

Ref document number: 6773618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151