JP2018067039A - 学習装置、学習方法および学習プログラム - Google Patents

学習装置、学習方法および学習プログラム Download PDF

Info

Publication number
JP2018067039A
JP2018067039A JP2016203546A JP2016203546A JP2018067039A JP 2018067039 A JP2018067039 A JP 2018067039A JP 2016203546 A JP2016203546 A JP 2016203546A JP 2016203546 A JP2016203546 A JP 2016203546A JP 2018067039 A JP2018067039 A JP 2018067039A
Authority
JP
Japan
Prior art keywords
learning
parameter
gradient
rnn
singular value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016203546A
Other languages
English (en)
Other versions
JP6713903B2 (ja
Inventor
関利 金井
Sekitoshi Kanai
関利 金井
靖宏 藤原
Yasuhiro Fujiwara
靖宏 藤原
飯田 恭弘
Takahiro Ida
恭弘 飯田
岩村 相哲
Soutetsu Iwamura
相哲 岩村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016203546A priority Critical patent/JP6713903B2/ja
Publication of JP2018067039A publication Critical patent/JP2018067039A/ja
Application granted granted Critical
Publication of JP6713903B2 publication Critical patent/JP6713903B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】RNNを用いた学習において、調整パラメータを容易に調整できるとともに、急激な勾配の増加を防いで安定的に学習を進めることができる。【解決手段】学習装置10は、RNN(Recurrent Neural Network)のモデルを用いて学習を行う学習装置であって、RNNのモデルのパラメータである重み行列による損失関数の勾配を計算する勾配計算部12と、勾配を用いてパラメータを更新するとともに、重み行列を特異値分解し、該分解した特異値に制約を加えて学習を進めるパラメータ更新部13と、を有する。【選択図】図2

Description

本発明は、学習装置、学習方法および学習プログラムに関する。
自然言語処理や音声認識などの分野において時系列データをRNN(リカレントニューラルネットワーク:Recurrent Neural Network)(例えば、非特許文献1参照)によってモデリングする方法が研究されている(例えば、非特許文献2参照)。このRNNは、多層ニューラルネットワークの一種であり、中間層のニューロンに再帰的な結合を持つ。そして、RNNでは、この再帰的な結合により、入力単語列の頭から直前に読み込んだ単語までの全文脈を中間層の活性度ベクトルに蓄えることができ、より長い文脈に依存する言語確率を算出することができる。
このRNNを用いて時系列データをモデリングする手法では、文章中の単語をRNNへ順々に入力していき、次の単語を予測するタスクや音声データをRNNへ入力し、その文章を出力するといったタスクを行う。
RNNによる時系列データ処理において、時系列データとモデルとの差を表現した損失関数を最小にするRNNのパラメータをどのように探索するかということが重要である。この処理は、学習と呼ばれており、通常は、損失関数の勾配を使ったBack Propagation Through Time(BPTT)によって行われる。BPTTでは、現在のパラメータでの損失関数の勾配、すなわち、それぞれのパラメータで損失関数を微分した値を計算し、その値を使って損失関数の減少する方向へパラメータを更新する。ただし、BPTTを使ったRNNの学習は、勾配が爆発的に大きくなることが知られており、この現象によって損失関数が減少せず学習が失敗する。
このため、学習失敗を防ぐ方法として、Gradient Clippingという手法(例えば、非特許文献3参照)が提案されている。また、RNNの性能の一つとして長期記憶性能があり、長期に記憶できるRNNの構造の一つとして、GRU(Gated Recurrent Unit)が研究されている(例えば、非特許文献4参照)。
Jeffrey L. Elman, "Finding Structure in Time", Cognitive science14, 179-211, 1990 Alex Graves, Abdel-rahman Mohamed, and Geoffrey Hinton, "Speech Recognition with Deep Recurrent Neural Networks", In proceedings of IEEE international conference on acoustics, speech and signal processing, 2013 Razvan Pascanu, Tomas Mikolov, and Yoshua Bengio, "On the difficulty of training recurrent neural networks", In proceedings of ICML, 2013 Kyunghyun Cho, Bart van Merrienboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio, "Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation", In proceedings of EMNLP, 2014
このように、RNNは、勾配を使って学習する。しかしながら、RNNでは、勾配が爆発的に増加して学習が失敗してしまい、所望の性能の時系列データのモデルが得られないという問題がある。
これに対し、勾配の爆発的増加を防ぐGradient Clippingでは、調整パラメータとして閾値を設けている。しかしながら、Gradient Clippingでは、この調整パラメータに上限がなく、定性的な意味合いが薄いため、調整が難しく、チューニングコストが増加するという問題があった。
本発明は、上記に鑑みてなされたものであって、RNNを用いた学習において、調整パラメータを容易に調整できるとともに、急激な勾配の増加を防いで安定的に学習を進めることができる学習装置、学習方法および学習プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る学習装置は、RNNのモデルを用いて学習を行う学習装置であって、RNNのモデルのパラメータである重み行列による損失関数の勾配を計算する勾配計算部と、勾配を用いてパラメータを更新するとともに、重み行列を特異値分解し、該分解した特異値に制約を加えて学習を進めるパラメータ更新部と、を有することを特徴とする。
本発明によれば、RNNを用いた学習において、調整パラメータを容易に調整できるとともに、急激な勾配の増加を防いで安定的に学習を進めることができる。
図1は、RNNモデルの一例を示す図である。 図2は、本発明の実施の形態に係る学習装置の構成の一例を示すブロック図である。 図3は、図2に示すパラメータ更新部が行うパラメータ更新処理の処理手順を示すフローチャートである。 図4は、図3に示す置換処理の処理手順を示すフローチャートである。 図5は、図2に示すパラメータ更新部が行うパラメータ更新処理の他の処理手順を示すフローチャートである。 図6は、プログラムが実行されることにより、学習装置が実現されるコンピュータの一例を示す図である。
以下、図面を参照して、本発明の一実施の形態を詳細に説明する。なお、この実施の形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[従来の数理的背景]
まず、従来の背景知識について述べる。なお、以後の(1)式〜(17)式において、大文字は行列を、小文字は列ベクトルを表し、行ベクトルは転置を使って表現する。RNNを用いたデータ処理では、与えられた入力と出力との時系列データに対してデータの分類や次の値の予想、クラスタリングなどのタスクに応じて損失関数を設定し、この関数が最小となるようにRNNのパラメータを更新する。この学習済みのRNNを用いて、新たに得られた入力データに対して上記のようなタスクを行う出力を計算する。
図1は、RNNモデルの一例を示す図である。図1に示すように、RNNは、ユニットの出力が次の時刻の入力となるような状態を持つニューラルネットワークである。時刻tにおける入力を、列ベクトルx(x∈R)とし、状態を、列ベクトルh(h∈R)とし、出力を列ベクトルy(y∈R)とすると、RNNは、一般的に、以下の(1)式及び(2)式で表現できる。
Figure 2018067039
Figure 2018067039
ただし、行列W(W∈Rn×m)、行列W(W∈Rn×n)、行列W(W∈Rp×n)は、RNNのパラメータである重み行列である。また、f,gは、なんらかのベクトル値関数でRNNのモデルによって異なる。
学習は、あるデータに対しBPTTを使って勾配を計算し、確率的勾配降下法(SGD:Stochastic Gradient Descent)によって重み行列を更新する。本実施の形態では、学習するパラメータ(行列W、行列W、行列Wの全要素)を並べたベクトルをθ∈Rとし、データに対する誤差を評価する損失関数をL(θ)とし、(3)式によってパラメータを更新する。
Figure 2018067039
ただし、τは、τステップ目の更新であることを示し、ηは、学習率と呼ばれる学習の更新量を調整するパラメータである。BPTTを使ったRNNの学習は、ある不動点が分岐(bifurcation)を生じたときに勾配が急増することが知られている。ただし不動点とは、(4)式となるような状態h であり、分岐とはパラメータの変化によって不動点近傍のhの時間変化の流れが変わることをいう。
Figure 2018067039
そして、RNNに求められる性能の一つである長期記憶性能を持つモデルがGRUである。n次元の状態を持ち、バイアスを0としたGRUのモデル構造は、(5−1)式〜(5−4)式で表せる。
Figure 2018067039
ただし、列ベクトルw(w∈R)は、時刻tにおける入力であり、列ベクトルh(h∈R)は、状態であり、h は、hのi番目の要素を示す。学習するパラメータは、(6)式及び(7)式に示す重み行列である。
Figure 2018067039
Figure 2018067039
「*」には、(5)式のxr,hr,xz,hz,xh,hhが入り、それに従い、k,lは、異なる値をとる。GRUは、ゲートのような構造を持つことで状態の保持と忘却を制御しており、この構造によって長期記憶性能を実現する。
[実施の形態の数理的背景]
続いて、本実施の形態の数理的背景について説明する。なお、以下の説明では、議論を簡潔にするため、まずは、特に、1層のGRUに焦点を絞って説明を行う。もちろん、多層のGRUにおいても同様の手続きによって安定的な学習が実現される。
本実施の形態では、学習中に分岐が起こる条件を求め、分岐によって勾配が急増して学習が失敗することを防止する。なお、本実施の形態では、簡単のため安定性の変化する分岐を生じる条件を求める。ここで、不動点近傍で安定性が変化する分岐の条件は不動点近傍で線形に近似したシステムの固有値の絶対値の最大値(スペクトル半径)を調べることで求められる。
まず、本実施の形態では、バイアスのないGRUのモデルは、原点を不動点に持つため、GRUの原点近傍における線形近似モデルについて述べる。この不動点近傍において、安定から不安定に変化する分岐を起こす条件を求める。そして、入力を0としたときの原点まわりのヤコビ行列を計算すると、(8)式となる。
Figure 2018067039
Iは、n×nの単位行列である。この行列のスペクトル半径|λ(J)|が、|λ(J)|<1から|λ(J)|>1へと変化するとき、或いは、|λ(J)|>1から|λ(J)|<1へと変化するときに、不動点の安定性が変化する分岐が起きる。そして、(8)式より、学習時の重み行列Whhのスペクトル半径が、|λ(J)|<2から|λ(J)|>2へと変化するとき、或いは、|λ(J)|>2から|λ(J)|<2へ変化するときに、分岐し、勾配が爆発すると考えられる。また、スペクトル半径|λ(W)|と、最大特異値σ(W)とには、以下の(9)式で示す関係がある。
Figure 2018067039
この(9)式の関係を基に、本実施の形態では、重み行列Whhの最大特異値に対して制約を加えて学習させる。
なお、多層の場合には、1層の場合と同様の分岐解析を行い、重み行列の特異値に制約を加えればよい。
[特異値に制約を加えた学習]
本実施の形態における学習方法、すなわち、特異値に制約を加えた学習方法について説明する。まず、本実施の形態では、従来と同じように重み行列Whhを(10)式によって更新する。
Figure 2018067039
続いて、本実施の形態では、(11)式〜(13)式に示す演算処理を行うことによって、特異値が閾値以下となるように、重み行列を修正する。
Figure 2018067039
Figure 2018067039
Figure 2018067039
ここで、(11)式は、特異値分解である。また、(12)式に示すaは、安定性に関係する閾値である。本実施の形態では、分岐解析の結果から、0<a<2の範囲で、適当な値をaとして調整する。本実施の形態では、(11)式〜(13)式を用いた演算処理を繰り返し行うことによって、特異値が閾値以下に抑えられたままの状態でRNNを学習できる。
このため、本実施の形態では、このアルゴリズムによってパラメータが分岐点へ近づくことなく学習できる。また、本実施の形態として説明した以上の制約付き最小化は、モデルに適当な制約を加えることによって、学習用のデータに過学習することを防ぎ、新たなデータに対しても高精度に予測などを行うことができる。なお、過学習とは、RNNの学習に使用したデータに対して損失関数を最小化した結果、新たに得られたデータに対して損失関数が大きくなる現象を指す。
もちろん、本実施の形態では、GRUを重ねた多層のGRUに対しても同様の手続きで安定的な学習を実現できる。具体的には、l層のGRUのj層目を(14−1)式〜(14−4)式とする。
Figure 2018067039
同様に、入力0としたときの原点近傍のヤコビ行列は(15)式となる。
Figure 2018067039
このヤコビ行列はブロック三角行列となっており、その固有値は、対角にあるブロック行列と一致する。したがって、それぞれの対角ブロック行列を(16)式で示す。
Figure 2018067039
この場合には、(16)式で示す、それぞれの対角ブロック行列の固有値について考えればよく、1層の場合と同様に重み行列Whh (j)の特異値に対し、閾値以下となるように制約を加えた学習を行えばよい。
[実施の形態]
上記の実施の形態の数理的背景を踏まえ、本実施の形態に係る学習装置などについて説明する。なお、以下の実施の形態は、一例を示すに過ぎない。
[学習装置の構成]
図2は、本発明の実施の形態に係る学習装置10の構成の一例を示すブロック図である。学習装置10は、RNNを用いて学習を行う。図2に示すように、学習装置10は、パラメータを初期化する初期化部11、現在のパラメータで損失関数の勾配を計算する勾配計算部12、及び、勾配計算部12が計算した損失関数の勾配を基にパラメータを更新するパラメータ更新部13を有する。
パラメータ更新部13は、時系列データとモデルとの差を表現した損失関数を最小にするRNNのパラメータを前述のように探索する。すなわち、パラメータ更新部13は、勾配計算部12が計算した勾配を用いて、パラメータを更新する。そして、パラメータ更新部13は、分岐に関わる重み行列に対して特異値分解を行う。
続いて、パラメータ更新部13は、重み行列を特異値分解し、該分解した特異値に制約を加えて学習を進める。具体的には、パラメータ更新部13は、勾配を用いてパラメータを更新するとともに、重み行列を特異値分解する。そして、パラメータ更新部13は、該分解した特異値と所定の閾値との大小を比較する。パラメータ更新部13は、分解した特異値のうち、所定の閾値を超える特異値の全てを閾値に置換する。続いて、パラメータ更新部13は、閾値に置換後の特異値を対角に並べた行列に対し、特異値分解で得られた左特異ベクトル、右特異ベクトルを使って重み行列を再構成する。そして、パラメータ更新部13は、再度パラメータ更新処理に戻り、学習を行う。
[パラメータ更新処理の処理手順]
次に、パラメータ更新部13が行うパラメータ更新処理の処理手順について説明する。図3は、図2に示すパラメータ更新部13が行うパラメータ更新処理の処理手順を示すフローチャートである。
まず、勾配計算部12は、重み行列による損失関数の勾配を、確率的勾配降下法を用いて計算する。そして、図3に示すように、パラメータ更新部13は、勾配計算部12が計算した損失関数の勾配を使って、パラメータを更新する(ステップS1)。そして、パラメータ更新部13は、分岐に関わる重み行列に対して特異値分解を行う(ステップS2)。続いて、パラメータ更新部13は、所定の閾値を超える特異値の全てを閾値に置換する置換処理を行う(ステップS3)。そして、パラメータ更新部13は、特異値分解で得られた左特異ベクトル、右特異ベクトルを使って重み行列を再構成する(ステップS4)。
[置換処理の処理手順]
次に、図3に示す置換処理(ステップS3)の処理手順について説明する。図4は、図3に示す置換処理の処理手順を示すフローチャートである。
図4に示すように、パラメータ更新部13は、特異値の番号を示すiを初期化し、i=1とする(ステップS11)。そして、パラメータ更新部13は、i番目の特異値と所定の閾値とを比較し、i番目の特異値が所定の閾値よりも大きいか否かを判断する(ステップS12)。
パラメータ更新部13は、i番目の特異値が所定の閾値以下であると判断した場合(ステップS12:No)、以降の特異値も閾値よりも大きくはならないと判断できるため、本置換処理を終了する。
一方、パラメータ更新部13は、i番目の特異値が所定の閾値よりも大きいと判断した場合(ステップS12:Yes)、i番目の特異値を閾値に置き換える(ステップS13)。そして、パラメータ更新部13は、次の特異値について処理を行うため、iに1を加算する(ステップS14)。そして、パラメータ更新部13は、iが重み行列のサイズよりも大きいか否かを判断する(ステップS15)。
パラメータ更新部13は、iが重み行列のサイズよりも小さいと判断した場合(ステップS15:No)、ステップS12に戻り、i番目の特異値と所定の閾値との比較を行う。パラメータ更新部13は、iが重み行列のサイズよりも大きいと判断した場合(ステップS15:Yes)、置換処理を終了する。
[実施の形態の効果]
このように、本実施の形態では、RNNのモデルを用いて学習を行う際に、特異値分解を行い取得した特異値に制約を加えて学習を進める。このため、本実施の形態では、このアルゴリズムによってパラメータが分岐点へ近づくことなく学習できる。すなわち、本実施の形態によれば、RNNを用いた学習において、急激な勾配の増加を防いで安定的に学習を進めることができる。
また、本実施の形態では、RNNを用いた学習において、従来技術に係るGradient Clippingの上限のないパラメータの代わりに、上限が明確な調整パラメータを用いるため、パラメータの調整が容易となり、チューニングコストの増加を防止することができる。
また、本実施の形態では、RNNのモデルに適当な制約を加えることによって、学習用のデータが過学習することを防ぎ、新たな未知データに対しても高精度に推定することができる。
[変形例]
本実施の形態の変形例について説明する。本変形例では、パラメータ更新部13は、RNNを用いた学習において、勾配計算部12が計算した勾配を用いて、パラメータを更新し、重み行列に対して特異値分解を行う。そして、パラメータ更新部13は、重み行列を特異値の最大値で除算することによって、特異値に制約を加えて学習を進める。
具体的には、パラメータ更新部13は、従来と同じように重み行列Whhを(10)式によって更新する。そして、パラメータ更新部13は、(11)式を用いて、特異値分解を実行した後、(17)式を用いた演算処理を行う。すなわち、パラメータ更新部13は、重み行列を特異値の最大値σで除算する。
Figure 2018067039
図5は、図2に示すパラメータ更新部13が行うパラメータ更新処理の他の処理手順を示すフローチャートである。図5に示すステップS21及びステップS22は、図3に示すステップS1及びステップS2である。パラメータ更新部13は、重み行列を特異値の最大値によって除算する(ステップS23)。
本変形例のように重み行列を特異値の最大値で除算する場合も、RNNを用いた学習において、特異値に制約を加えて学習を進めることができるため、実施の形態と同様の効果を奏する。
[実施形態のシステム構成について]
図2に示した学習装置10の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、学習装置10の機能の分散および統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散または統合して構成することができる。
また、学習装置10においておこなわれる各処理は、全部または任意の一部が、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及び、CPU,GPUにより解析実行されるプログラムにて実現されてもよい。また、学習装置10においておこなわれる各処理は、ワイヤードロジックによるハードウェアとして実現されてもよい。
また、実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的に行うこともできる。もしくは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上述および図示の処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて適宜変更することができる。
[プログラム]
図6は、プログラムが実行されることにより、学習装置10が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、学習装置10の各処理を規定するプログラムは、コンピュータ1000により実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、学習装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
また、上述した実施の形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN、WAN等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施の形態について説明したが、本実施の形態による本発明の開示の一部をなす記述及び図面により本発明は限定されることはない。すなわち、本実施の形態に基づいて当業者等によりなされる他の実施の形態、実施例及び運用技術等は全て本発明の範疇に含まれる。
10 学習装置
11 初期化部
12 勾配計算部
13 パラメータ更新部

Claims (5)

  1. RNN(Recurrent Neural Network)のモデルを用いて学習を行う学習装置であって、
    前記RNNのモデルのパラメータである重み行列による損失関数の勾配を計算する勾配計算部と、
    前記勾配を用いてパラメータを更新するとともに、前記重み行列を特異値分解し、該分解した特異値に制約を加えて学習を進めるパラメータ更新部と、
    を有することを特徴とする学習装置。
  2. 前記パラメータ更新部は、前記分解した特異値のうち、所定の閾値を超える前記特異値を前記閾値に置換し、該置換した特異値と前記特異値分解で得られた左右の特異ベクトルを用いて重み行列を再構成することを特徴とする請求項1に記載の学習装置。
  3. 前記パラメータ更新部は、前記重み行列を前記特異値の最大値で除算することを特徴とする請求項1に記載の学習装置。
  4. RNNのモデルを用いて学習を行う学習装置が行う学習方法であって、
    前記RNNのモデルのパラメータである重み行列による損失関数の勾配を計算する工程と、
    前記勾配を用いてパラメータを更新する工程と、
    前記重み行列を特異値分解する工程と、
    前記分解した特異値に制約を加えて学習を進める工程と、
    を含んだことを特徴とする学習方法。
  5. RNNのモデルのパラメータである重み行列による損失関数の勾配を計算するステップと、
    前記勾配を用いてパラメータを更新するステップと、
    前記重み行列を特異値分解するステップと、
    前記分解した特異値に制約を加えて学習を進めるステップと、
    をコンピュータに実行させるための学習プログラム。
JP2016203546A 2016-10-17 2016-10-17 学習装置、学習方法および学習プログラム Active JP6713903B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016203546A JP6713903B2 (ja) 2016-10-17 2016-10-17 学習装置、学習方法および学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016203546A JP6713903B2 (ja) 2016-10-17 2016-10-17 学習装置、学習方法および学習プログラム

Publications (2)

Publication Number Publication Date
JP2018067039A true JP2018067039A (ja) 2018-04-26
JP6713903B2 JP6713903B2 (ja) 2020-06-24

Family

ID=62086220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016203546A Active JP6713903B2 (ja) 2016-10-17 2016-10-17 学習装置、学習方法および学習プログラム

Country Status (1)

Country Link
JP (1) JP6713903B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886206A (zh) * 2019-02-21 2019-06-14 电子科技大学中山学院 一种三维物体识别方法及设备
CN110069985A (zh) * 2019-03-12 2019-07-30 北京三快在线科技有限公司 基于图像的目标点位置检测方法、装置、电子设备
JP2019200068A (ja) * 2018-05-14 2019-11-21 日新電機株式会社 部分放電診断装置
JP2019212121A (ja) * 2018-06-06 2019-12-12 株式会社Nttドコモ 機械学習システム
CN111079977A (zh) * 2019-11-18 2020-04-28 中国矿业大学 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法
CN112446487A (zh) * 2019-08-29 2021-03-05 佳能株式会社 神经网络模型的训练和应用方法、装置、系统及存储介质
US11977972B2 (en) 2019-03-27 2024-05-07 Sanofi Residual semi-recurrent neural networks
US12020136B2 (en) 2018-09-28 2024-06-25 Samsung Electronics Co., Ltd. Operating method and training method of neural network and neural network thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236904A (ja) * 2001-02-08 2002-08-23 Sony Corp データ処理装置および方法、記録媒体、並びにプログラム
US20160299685A1 (en) * 2015-04-10 2016-10-13 Google Inc. Neural network for keyboard input decoding

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002236904A (ja) * 2001-02-08 2002-08-23 Sony Corp データ処理装置および方法、記録媒体、並びにプログラム
US20160299685A1 (en) * 2015-04-10 2016-10-13 Google Inc. Neural network for keyboard input decoding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LO, HENRY Z. ET AL., SCALE NORMALIZATION, vol. v1, JPN6019047312, 26 April 2016 (2016-04-26), pages 1 - 4, ISSN: 0004168450 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200068A (ja) * 2018-05-14 2019-11-21 日新電機株式会社 部分放電診断装置
JP2019212121A (ja) * 2018-06-06 2019-12-12 株式会社Nttドコモ 機械学習システム
JP7021010B2 (ja) 2018-06-06 2022-02-16 株式会社Nttドコモ 機械学習システム
US12020136B2 (en) 2018-09-28 2024-06-25 Samsung Electronics Co., Ltd. Operating method and training method of neural network and neural network thereof
CN109886206A (zh) * 2019-02-21 2019-06-14 电子科技大学中山学院 一种三维物体识别方法及设备
CN109886206B (zh) * 2019-02-21 2021-09-14 电子科技大学中山学院 一种三维物体识别方法及设备
CN110069985A (zh) * 2019-03-12 2019-07-30 北京三快在线科技有限公司 基于图像的目标点位置检测方法、装置、电子设备
US11977972B2 (en) 2019-03-27 2024-05-07 Sanofi Residual semi-recurrent neural networks
CN112446487A (zh) * 2019-08-29 2021-03-05 佳能株式会社 神经网络模型的训练和应用方法、装置、系统及存储介质
CN111079977A (zh) * 2019-11-18 2020-04-28 中国矿业大学 基于svd算法的异构联邦学习矿井电磁辐射趋势跟踪方法

Also Published As

Publication number Publication date
JP6713903B2 (ja) 2020-06-24

Similar Documents

Publication Publication Date Title
JP6713903B2 (ja) 学習装置、学習方法および学習プログラム
US11928600B2 (en) Sequence-to-sequence prediction using a neural network model
US20220383126A1 (en) Low-Rank Adaptation of Neural Network Models
US10817669B2 (en) Automatic classification of adverse event text fragments
KR20200123544A (ko) 동의어 추출 방법
US10586165B1 (en) Distributable clustering model training system
US20210073633A1 (en) Neural network rank optimization device and optimization method
US20220366040A1 (en) Deep learning based detection of malicious shell scripts
KR102362678B1 (ko) 생체신호 분석 방법
US11429815B2 (en) Methods, systems, and media for deep neural network interpretation via rule extraction
JP6495814B2 (ja) 言語確率算出方法、言語確率算出装置および言語確率算出プログラム
US20240028898A1 (en) Interpreting convolutional sequence model by learning local and resolution-controllable prototypes
WO2023030322A1 (en) Methods, systems, and media for robust classification using active learning and domain knowledge
CN115699041A (zh) 利用专家模型的可扩展迁移学习
US11488007B2 (en) Building of custom convolution filter for a neural network using an automated evolutionary process
US11914672B2 (en) Method of neural architecture search using continuous action reinforcement learning
WO2022012347A1 (en) Predictive models having decomposable hierarchical layers configured to generate interpretable results
US20220138425A1 (en) Acronym definition network
Song et al. A data-efficient reinforcement learning method based on local Koopman operators
US10867253B1 (en) Distributable clustering model training system
Al-Shedivat et al. Personalized survival prediction with contextual explanation networks
Hu et al. Neural-PDE: a RNN based neural network for solving time dependent PDEs
JP4543687B2 (ja) データ分析装置
Zwanenburg Feature selection methods
US20210304046A1 (en) Information processing apparatus and method and program for identifying coadapted nodes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200604

R150 Certificate of patent or registration of utility model

Ref document number: 6713903

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150