JP6810092B2 - 学習装置、学習方法及び学習プログラム - Google Patents

学習装置、学習方法及び学習プログラム Download PDF

Info

Publication number
JP6810092B2
JP6810092B2 JP2018083488A JP2018083488A JP6810092B2 JP 6810092 B2 JP6810092 B2 JP 6810092B2 JP 2018083488 A JP2018083488 A JP 2018083488A JP 2018083488 A JP2018083488 A JP 2018083488A JP 6810092 B2 JP6810092 B2 JP 6810092B2
Authority
JP
Japan
Prior art keywords
function
learning
parameters
calculation unit
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018083488A
Other languages
English (en)
Other versions
JP2019191899A (ja
Inventor
優 大屋
優 大屋
安俊 井田
安俊 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018083488A priority Critical patent/JP6810092B2/ja
Priority to PCT/JP2019/015874 priority patent/WO2019208248A1/ja
Priority to US17/049,343 priority patent/US20210192341A1/en
Publication of JP2019191899A publication Critical patent/JP2019191899A/ja
Application granted granted Critical
Publication of JP6810092B2 publication Critical patent/JP6810092B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Description

本発明は、学習装置、学習方法及び学習プログラムに関する。
ディープニューラルネットワークは画像や音声認識をはじめ様々な分野で用いられるモデルである。モデルは多層のニューラルネットワークで構成され、ニューラルネットワークは複数のパーセプトロンで構成される。このパーセプトロンは複数の入力信号に対しそれぞれ重みと呼ばれるパラメータと積和することで1つの値を得る。
さらに、パーセプトロンは次の層の入力信号を与えるために、活性化関数と呼ばれる非線形な関数で得られた値を射影し、その信号値を出力する。この計算を入力層から出力層に掛けて順に行い、信号を伝えることで予測値を得ることができる。これが順伝播である。
高い予測性能を得るためには最適な重み値を用意する必要がある。そこで、ディープニューラルネットワークは、重みをパラメータとした最適化問題として解くことができる。具体的には、解きたい問題の誤差関数を最小化するようにモデルを観測データから学習する。この最小化には確率的勾配降下法が用いられる。この確率的勾配降下法は、あるパラメータに対する誤差の勾配(傾き)を求めることで、パラメータがどちらの方向に更新すれば誤差が小さくなるのかが分かる。これが誤差逆伝播である。
従来、ディープニューラルネットワークのパラメータ及び信号の値を、+1又は−1の符号情報に二値化し、計算機のメモリ消費量を圧縮する手法が知られている(例えば、非特許文献1を参照)。
また、順伝播の際にステップ関数を用いて二値化を行うと、パラメータに対する誤差関数の勾配が0になってしまうため、誤差逆伝播を用いたパラメータの更新を行うことができなくなる場合がある。これに対し、順伝播の際に用いられたステップ関数とは異なる別の関数を用いたものとみなして、誤差逆伝播を行う手法が知られている(例えば、非特許文献2を参照)。
I. Hubara, M. Courbariaux, D. Soudry, R. El-Yaniv, and Y. Bengio, Binarized Neural Networks, "Advances in Neural Information Processing Systems", pp.4107-4115, 2016. Y. Bengio, N. Leonard, and A. Courville, Estimating or propagating gradients through stochastic neurons for conditional computation, "arXiv preprint arXiv:1308.3432", 2013.
しかしながら、従来の手法には、ディープニューラルネットワークにおいて、順伝播の際にパラメータ及び出力信号を離散化しつつ、学習の精度を高くすることが困難な場合があるという問題がある。
例えば、引用文献2の手法では、順伝播時にはステップ関数が用いられているが、逆伝播の際には、順伝播時に当該ステップ関数とは異なる別の関数を用いたものとみなして勾配の計算を行っているため、パラメータの最適化が適切に行えず、学習の精度を高めることができない場合がある。
上述した課題を解決し、目的を達成するために、本発明の学習装置は、パラメータをステップ関数によって離散化させた後、ニューラルネットワークの各層の出力信号を計算する第1の計算部と、前記ステップ関数を近似した連続関数を用いて、前記ニューラルネットワークの各層について、前記パラメータに対する前記出力信号の誤差関数の勾配を計算する第2の計算部と、前記第2の計算部によって計算された勾配を基に前記パラメータを更新する更新部と、を有することを特徴とする。
本発明によれば、ディープニューラルネットワークにおいて、順伝播の際にパラメータ及び出力信号を離散化しつつ、学習の精度を高くすることができる。
図1は、第1の実施形態に係る学習装置の構成の一例を示す図である。 図2は、第1の実施形態に係る学習処理のアルゴリズムを説明するための図である。 図3は、第1の実施形態に係る学習処理の流れを示すフローチャートである。 図4は、第1の実施形態に係る順伝播処理の流れを示すフローチャートである。 図5は、第1の実施形態に係る逆伝播処理の流れを示すフローチャートである。 図6は、学習プログラムを実行するコンピュータの一例を示す図である。
以下に、本願に係る学習装置、学習方法及び学習プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
[第1の実施形態の構成]
まず、図1を用いて、第1の実施形態に係る学習装置の構成について説明する。図1は、第1の実施形態に係る学習装置の構成の一例を示す図である。図1に示すように、学習装置10は、記憶部11及び制御部12を有する。
記憶部11は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部11は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部11は、学習装置10で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部11は、プログラムの実行で用いられる各種情報を記憶する。また、記憶部11は、学習処理に用いられるパラメータの情報であるパラメータ情報111を記憶する。
パラメータ情報111には、ニューラルネットワークの各層の重みを決定するためのパラメータ、後述するステップ関数や連続関数のパラメータ、及び学習の際に用いられるハイパーパラメータ等が含まれる。
制御部12は、学習装置10全体を制御する。制御部12は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部12は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部12は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部12は、第1の計算部121、第2の計算部122及び更新部123を有する。
第1の計算部121は、ニューラルネットワークの順伝播部分の計算を行う。第1の計算部121は、パラメータをステップ関数によって離散化させた後、ニューラルネットワークの各層の出力信号を計算する。また、第1の計算部121は、パラメータの平均偏差を上限とし、平均偏差を負にした値を下限とするステップ関数によって離散化を行うことができる。なお、以降の説明では、第1の計算部121によって離散化されたパラメータを重みと呼ぶ場合がある。
第2の計算部122は、ニューラルネットワークの逆伝播部分の処理を行う。第2の計算部122は、ステップ関数を近似した連続関数を用いて、ニューラルネットワークの各層について、パラメータに対する出力信号の誤差関数の勾配を計算する。また、第2の計算部122は、ステップ関数を、1から−1までを出力値の区間とする連続関数にパラメータの平均偏差を掛けた関数に近似することができる。さらに、第2の計算部は、ステップ関数を、パラメータの平均偏差を上限とし、平均偏差を負にした値を下限とする連続関数に近似する。
更新部123は、第2の計算部122によって計算された勾配を基にパラメータを更新する。このように、学習装置10は、順伝播処理、逆伝播処理及びパラメータの更新処理を行うことによって、ニューラルネットワークの学習を行う。
ここで、順伝播処理、逆伝播処理及びパラメータの更新処理について詳細に説明する。まず、順伝播処理において、第1の計算部121は、第(l−1)層から入力された信号z(l−1)に対して、重みとの積和を計算する。その際、第1の計算部121は、第l層のパラメータw(l)を、ステップ関数f(・)で離散化することで、第l層の重みb(l)を計算する。つまり、第1の計算部121は、b(l)=f(w(l))により重みを計算する。また、順伝播処理で用いられるステップ関数は、+1及び−1のような二値化を行うものであってもよいし、3以上の複数の値を出力値とするものであってもよい。
第1の計算部121は、式(1−1)及び式(1−2)により第l層の出力信号z(l)を計算する。
Figure 0006810092
なお、h(l)は、ニューラルネットワークの内部状態である。また、i及びjは、それぞれ第l−1層のユニット及び第l層のユニットを識別する値である。つまり、bji (l)は、第l−1層のi番目のユニットと第l層のj番目のユニットとの間の重みである。また、z (l)は、第l層のj番目のユニットの出力信号である。
次に、逆伝播処理において、第2の計算部122は、式(2−1)及び式(2−2)により、ニューラルネットワークの各層について、パラメータw(l)に対する誤差関数Eの勾配を計算する。
Figure 0006810092
このとき、第2の計算部122は、順伝播で用いられたステップ関数f(・)を、式(3)のような連続関数に近似した上で勾配を計算する。
Figure 0006810092
ここで、式(3)の定数aは、1近傍値をarctanh関数に与えた時のハイパーパラメータである。また、m(l)は、第l層内のパラメータw(l)の平均偏差である。なお、平均偏差とは、パラメータに絶対値を取った時の平均値である。また、連続関数は、式(3)のものに限られない。
ここで、非特許文献1に記載されているように、パラメータ等を離散化することで計算機メモリの消費量を抑えることができる。しかしながら、パラメータ等を離散化した場合、本来のパラメータ等を離散化せずに連続値のまま用いた場合と比べて内部状態に差が生じるため、精度の低下が起きてしまう。
そこで、本実施形態の学習装置10は、式(3)のように、ステップ関数を連続関数に近似することにより、パラメータを離散化した場合の内部状態Σ(bji (l) (l−1))と、パラメータを離散化しなかった場合のΣ(wji (l) (l−1))との差を小さくすることができる。
また、第1の計算部121は、スパース正則化を導入し、平均偏差が0に漸近するように、ステップ関数を式(4)のように設定する。このとき、第1の計算部121は、b(l)=g(w(l))により重みを計算する。
Figure 0006810092
[第1の実施形態のアルゴリズム]
図2を用いて、学習装置10によって行われる各処理のアルゴリズムを説明する。図2は、第1の実施形態に係る学習処理のアルゴリズムを説明するための図である。
図2に示すように、学習装置10には、観測データX、正解ベクトルD、学習率λ、層の数L、更新前のパラメータW、任意の定数a(ただし、aは1近傍かつ1より小さい)が入力され、更新後のパラメータWt+1が出力される。なお、図2では、iは各層を識別する値であるものとする。
まず、第1の計算部121は、第1層から第L層までの出力信号を計算する(1.順伝播部分、1行目−6行目)。ここで、第1の計算部121は、第1層の出力信号を観測データXとする(1行目)。また、第1の計算部121は、ステップ関数two_step(・)により、各層の更新前のパラメータW (i)を離散化する(3行目)。
ステップ関数two_step(・)は、式(4)のg(・)であってよい。また、第1の計算部121は、内部状態H(i)をステップ関数sign(・)で離散化した値を出力信号Z(i)とする(5行目)。
次に、第2の計算部122は、第L層から第1層までの誤差関数を計算する(2.逆伝播部分、7行目−16行目)。ここで、第2の計算部122は、第L層、すなわち最終層の誤差関数を、正解ベクトルD及び最終層の出力信号Z(L)から計算する(7行目)。
そして、第2の計算部122は、ステップ関数two_step(・)を連続関数に近似して置き換えた上で、各層の∂B(i)/∂W (i)の計算を行う(13行目−14行目)。このとき、連続関数は、式(3)のf(・)であってよい。さらに、第2の計算部122は、パラメータに対する誤差関数の勾配∇W (i)を計算する(15行目)。
そして、更新部123は、第1層から第L層までのパラメータを更新する(3.更新部分、17行目−19行目)。具体的には、更新部123は、更新前のパラメータW (i)から、更新量λ∇W (i)を引くことで更新後のパラメータWt+1 (i)を計算する。
[第1の実施形態の処理]
図3を用いて、学習装置10の処理の流れについて説明する。図3は、第1の実施形態に係る学習処理の流れを示すフローチャートである。図3に示すように、まず、学習装置10は、ステップ関数を用いた順伝播処理(後に、図4を用いて詳述)を行う(ステップS10)。次に、学習装置10は、ステップ関数を近似した連続関数を用いた逆伝播処理(後に、図5を用いて詳述)を行う(ステップS20)。そして、学習装置10は、逆伝播処理の結果得られる誤差関数の勾配を基に、パラメータの更新を行う(ステップS30)。
図4を用いて、順伝播処理の流れについて説明する。図4は、第1の実施形態に係る順伝播処理の流れを示すフローチャートである。図4に示すように、まず、第1の計算部121は、第1層に観測データを入力する(ステップS101)。次に、第1の計算部121は、iに2を代入する(ステップS102)。
そして、第1の計算部121は、ステップ関数を用いて、第i−1層の出力信号を基に第i層の出力信号を計算する(ステップS103)。ここで、第1の計算部121は、iを1だけ増加させる(ステップS104)。
ここで、iが層の数より大きい場合(ステップS105、Yes)、第1の計算部121は、順伝播処理を終了する。一方、iが層の数より大きくない場合(ステップS105、No)、第1の計算部121は、ステップS103に戻り処理を繰り返す。
図5を用いて、逆伝播処理の流れについて説明する。図5は、第1の実施形態に係る逆伝播処理の流れを示すフローチャートである。図5に示すように、まず、第2の計算部122は、iに層の数を代入する(ステップS201)。
ここで、iが層の数である場合(ステップS202、Yes)、第2の計算部122は、正解ベクトルを基に第i層の誤差関数を更新する(ステップS203)。なお、この場合の第i層は最終層である。一方、iが層の数でない場合(ステップS202、No)、第2の計算部122は、更新された第i+1層の誤差関数を基に第i層の誤差関数を更新する(ステップS204)。
そして、第2の計算部122は、ステップ関数を近似した連続関数を用いて、第i層の誤差関数の勾配を計算する(ステップS205)。さらに、第2の計算部122は、iを1だけ減少させる(ステップS206)。
ここで、iが2より小さい場合(ステップS207、Yes)、第2の計算部122は、逆伝播処理を終了する。一方、iが2より小さくない場合(ステップS207、No)、第2の計算部122は、ステップS202に戻り処理を繰り返す。
[第1の実施形態の効果]
本実施形態において、第1の計算部121は、パラメータをステップ関数によって離散化させた後、ニューラルネットワークの各層の出力信号を計算する。また、第2の計算部122は、ステップ関数を近似した連続関数を用いて、ニューラルネットワークの各層について、パラメータに対する出力信号の誤差関数の勾配を計算する。また、更新部123は、第2の計算部122によって計算された勾配を基にパラメータを更新する。このように、順伝播で用いられたステップ関数を近似した連続関数に置き換えた上で誤差逆伝播を行うことで、順伝播の際にパラメータ及び出力信号を離散化しつつ、学習の精度を高くすることができる。
第1の計算部121は、パラメータの平均偏差を上限とし、平均偏差を負にした値を下限とするステップ関数によって離散化を行うことができる。また、このとき、第2の計算部は、ステップ関数を、パラメータの平均偏差を上限とし、平均偏差を負にした値を下限とする連続関数に近似することができる。これにより、連続関数のスケールを、パラメータの範囲に合わせたものとすることができるようになる。
また、この場合、パラメータの初期値を微小値に設定しておくことで、連続関数を用いる場合と、離散関数を用いる場合と、及びいずれの関数も用いない場合とで、出力信号の差を極力小さくすることができる。なお、いずれの関数も用いない場合とは、パラメータをそのまま重みとして用いる場合である。また、これにより、順伝播時にはg(・)を、誤差逆伝播時にはf(・)を用いるStraight-through estimator(非特許文献2を参照)について、最適化への影響を小さくすることができる。
また、このとき、第2の計算部122は、ステップ関数を、1から−1までを出力値の区間とする連続関数にパラメータの平均偏差を掛けた関数に近似することができる。これにより、近似関数として有用なtanh等を利用して連続関数を設定することができるようになる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、学習装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の学習処理を実行する学習プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の学習プログラムを情報処理装置に実行させることにより、情報処理装置を学習装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
また、学習装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の学習処理に関するサービスを提供する学習サーバ装置として実装することもできる。例えば、学習サーバ装置は、更新前のパラメータを入力とし、更新後のパラメータを出力とする学習サービスを提供するサーバ装置として実装される。この場合、学習サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の学習処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。
図6は、学習プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、学習装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、学習装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSDにより代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 学習装置
11 記憶部
111 パラメータ情報
12 制御部
121 第1の計算部
122 第2の計算部
123 更新部

Claims (4)

  1. パラメータをステップ関数によって離散化させた後、ニューラルネットワークの各層の出力信号を計算する第1の計算部と、
    前記ステップ関数を近似した連続関数を用いて、前記ニューラルネットワークの各層について、前記パラメータに対する前記出力信号の誤差関数の勾配を計算する第2の計算部と、
    前記第2の計算部によって計算された勾配を基に前記パラメータを更新する更新部と、
    を有し、
    前記第1の計算部は、前記パラメータの平均偏差を上限とし、前記平均偏差を負にした値を下限とするステップ関数によって離散化を行い、
    前記第2の計算部は、前記ステップ関数を、前記パラメータの平均偏差を上限とし、前記平均偏差を負にした値を下限とする連続関数に近似することを特徴とする学習装置。
  2. 前記第2の計算部は、前記ステップ関数を、1から−1までを出力値の区間とする連続関数に前記パラメータの平均偏差を掛けた関数に近似することを特徴とする請求項に記載の学習装置。
  3. コンピュータによって実行される学習方法であって、
    パラメータをステップ関数によって離散化させた後、ニューラルネットワークの各層の出力信号を計算する第1の計算工程と、
    前記ステップ関数を近似した連続関数を用いて、前記ニューラルネットワークの各層について、前記パラメータに対する前記出力信号の誤差関数の勾配を計算する第2の計算工程と、
    前記第2の計算工程によって計算された勾配を基に前記パラメータを更新する更新工程と、
    を含み、
    前記第1の計算工程は、前記パラメータの平均偏差を上限とし、前記平均偏差を負にした値を下限とするステップ関数によって離散化を行い、
    前記第2の計算工程は、前記ステップ関数を、前記パラメータの平均偏差を上限とし、前記平均偏差を負にした値を下限とする連続関数に近似することを特徴とする学習方法。
  4. コンピュータを、請求項1又は2に記載の学習装置として機能させるための学習プログラム。
JP2018083488A 2018-04-24 2018-04-24 学習装置、学習方法及び学習プログラム Active JP6810092B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018083488A JP6810092B2 (ja) 2018-04-24 2018-04-24 学習装置、学習方法及び学習プログラム
PCT/JP2019/015874 WO2019208248A1 (ja) 2018-04-24 2019-04-11 学習装置、学習方法及び学習プログラム
US17/049,343 US20210192341A1 (en) 2018-04-24 2019-04-11 Learning device, learning method, and learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018083488A JP6810092B2 (ja) 2018-04-24 2018-04-24 学習装置、学習方法及び学習プログラム

Publications (2)

Publication Number Publication Date
JP2019191899A JP2019191899A (ja) 2019-10-31
JP6810092B2 true JP6810092B2 (ja) 2021-01-06

Family

ID=68295296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018083488A Active JP6810092B2 (ja) 2018-04-24 2018-04-24 学習装置、学習方法及び学習プログラム

Country Status (3)

Country Link
US (1) US20210192341A1 (ja)
JP (1) JP6810092B2 (ja)
WO (1) WO2019208248A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7341387B2 (ja) * 2020-07-30 2023-09-11 オムロン株式会社 モデル生成方法、探索プログラム及びモデル生成装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5261035A (en) * 1991-05-31 1993-11-09 Institute Of Advanced Study Neural network architecture based on summation of phase-coherent alternating current signals
KR0170505B1 (ko) * 1995-09-15 1999-03-30 양승택 다층퍼셉트론 신경회로망의 n비트 데이타 표현에 의한 학습방법
US9194484B2 (en) * 2013-04-11 2015-11-24 GM Global Technology Operations LLC System and method for detecting lash in a transmission and controlling an engine and/or a motor based on lash detections
US10222869B2 (en) * 2015-08-03 2019-03-05 Intel Corporation State machine based tracking system for screen pointing control

Also Published As

Publication number Publication date
JP2019191899A (ja) 2019-10-31
US20210192341A1 (en) 2021-06-24
WO2019208248A1 (ja) 2019-10-31

Similar Documents

Publication Publication Date Title
Wang et al. A mesh-free method for interface problems using the deep learning approach
CN109120462B (zh) 机会网络链路的预测方法、装置及可读存储介质
US20180181867A1 (en) Artificial neural network class-based pruning
US20210034955A1 (en) Quantizing neural networks using approximate quantization function
WO2019111118A1 (en) Robust gradient weight compression schemes for deep learning applications
CN111523640B (zh) 神经网络模型的训练方法和装置
US20220147877A1 (en) System and method for automatic building of learning machines using learning machines
US20200151545A1 (en) Update of attenuation coefficient for a model corresponding to time-series input data
US20180144266A1 (en) Learning apparatus and method for learning a model corresponding to real number time-series input data
Koziel et al. Surrogate-based optimization
JP2019040414A (ja) 学習装置及び学習方法
CN110825589A (zh) 用于微服务系统的异常检测方法及其装置和电子设备
JP6810092B2 (ja) 学習装置、学習方法及び学習プログラム
CN113448821B (zh) 一种识别工程缺陷的方法和装置
CN110489435B (zh) 基于人工智能的数据处理方法、装置、及电子设备
US11188454B2 (en) Reduced memory neural network training
WO2021117162A1 (ja) 検査装置、検査方法及び検査プログラム
CN110689117A (zh) 基于神经网络的信息处理方法和装置
CN111553324B (zh) 人体姿态预测值校正方法、装置,服务器及存储介质
JP7077746B2 (ja) 学習装置、学習方法及び学習プログラム
JP2019067062A (ja) 学習装置、学習方法、および、学習プログラム
CN113361701A (zh) 神经网络模型的量化方法和装置
CN114925821B (zh) 一种神经网络模型的压缩方法及相关系统
KR102534888B1 (ko) 피처-임베딩 뉴럴 프로세스를 이용한 결측값 예측 방법
WO2022070342A1 (ja) 学習装置、学習方法及び学習プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201210

R150 Certificate of patent or registration of utility model

Ref document number: 6810092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150