JP2019191868A - 学習装置、学習方法及び学習プログラム - Google Patents

学習装置、学習方法及び学習プログラム Download PDF

Info

Publication number
JP2019191868A
JP2019191868A JP2018083122A JP2018083122A JP2019191868A JP 2019191868 A JP2019191868 A JP 2019191868A JP 2018083122 A JP2018083122 A JP 2018083122A JP 2018083122 A JP2018083122 A JP 2018083122A JP 2019191868 A JP2019191868 A JP 2019191868A
Authority
JP
Japan
Prior art keywords
function
output
learning
softmax
output signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018083122A
Other languages
English (en)
Other versions
JP7077746B2 (ja
Inventor
関利 金井
Sekitoshi Kanai
関利 金井
靖宏 藤原
Yasuhiro Fujiwara
靖宏 藤原
友貴 山中
Tomoki Yamanaka
友貴 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018083122A priority Critical patent/JP7077746B2/ja
Priority to US17/045,765 priority patent/US20210056418A1/en
Priority to PCT/JP2019/017094 priority patent/WO2019208523A1/ja
Publication of JP2019191868A publication Critical patent/JP2019191868A/ja
Application granted granted Critical
Publication of JP7077746B2 publication Critical patent/JP7077746B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/556Logarithmic or exponential functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Image Analysis (AREA)

Abstract

【課題】表現能力が向上した深層学習を効率的に行う。【解決手段】計算部121は、ニューラルネットワークの出力層の出力信号について、softmaxに含まれる指数関数を指数関数とパラメータを持たない所定の関数との積に置き換えた出力関数であって、対数尤度関数が非線形である出力関数を計算する。また、更新部122は、出力信号に基づいて、出力関数の対数尤度関数が最適化されるように、ニューラルネットワークのパラメータを更新する。【選択図】図2

Description

本発明は、学習装置、学習方法及び学習プログラムに関する。
例えば、ニューラルネットワークを多層にした深層学習を用いて、画像に写っている物体のクラス(車、犬等)の確率を出力する手法が知られている。このような深層学習の手法においては、全要素の和が1、各値が[0;1]の中になるようなベクトルを出力する出力関数を用いることで、各クラスの確率を表現している。特に、学習時に用いられる交差エントロピーとの相性から、出力関数としてsoftmaxが用いられる場合がある(例えば、非特許文献1を参照)。さらに、深層学習の表現能力を向上せるため、複数のsoftmaxを混合させるmixture of softmax(Mos)という手法が知られている(例えば、非特許文献2を参照)。
Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Deep learning. MIT press, 2016. Zhilin Yang et al. Breaking the softmax bottleneck: a high-rank RNN language model. In: arXivpreprint arXiv:1711.03953 (2017).
しかしながら、従来の手法には、表現能力が向上した深層学習を効率的に行うことが困難な場合があるという問題がある。例えば、非特許文献2に記載の手法を用いて学習を行う場合、softmaxを用いる場合に比べ、学習するパラメータ及び調整するパラメータを追加で設定する必要があるため、効率が低下することがある。
上述した課題を解決し、目的を達成するために、本発明の学習装置は、ニューラルネットワークの出力層の出力信号を変数とする出力関数であって、対数尤度関数が非線形である出力関数を計算する計算部と、前記出力信号に基づいて、前記出力関数の対数尤度関数が最適化されるように、前記ニューラルネットワークのパラメータを更新する更新部と、を有することを特徴とする。
本発明によれば、表現能力が向上した深層学習を効率的に行うことができる。
図1は、深層学習のモデルを説明するための図である。 図2は、第1の実施形態に係る学習装置の構成の一例を示す図である。 図3は、第1の実施形態に係る学習処理の流れを示すフローチャートである。 図4は、第1の実施形態に係る学習処理の流れを示すフローチャートである。 図5は、学習プログラムを実行するコンピュータの一例を示す図である。
以下に、本願に係る学習装置、学習方法及び学習プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
[従来の深層学習の出力]
まず、図1を用いて深層学習について説明する。図1は、深層学習のモデルを説明するための図である。ここでは、特に、クラスの分類を行うためのモデルについて説明する。図1に示すように、深層学習のモデルは、入力層、1つ以上の中間層及び出力層を有する。
入力層には入力データが入力される。また、出力層からは各クラスの確率が出力される。例えば、入力データは、所定の形式で表現された画像データである。また、例えば、クラスが車、船、犬、猫についてそれぞれ設定されている場合、出力層からは、入力データの元になった画像に写っているものが車である確率、船である確率、犬である確率及び猫である確率がそれぞれ出力される。
従来、出力層から確率を出力するために、softmaxが用いられている。ここで、最後の中間層である第L中間層の出力信号をu∈R´とすると、出力層からは、softmaxを使った式(1)のy∈Rが出力される。
Figure 2019191868
式(1)の行列Wは、深層学習において学習される重みと呼ばれるパラメータである。
[y]はベクトルyのi番目の要素である。式(1)において、softmaxは、重み計算後のベクトルWuに対する指数関数を使った非線形変換を行っている。また、出力ベクトルyのi番目の要素[y]は、例えば入力がクラスiである確率を表している。
また、式(1)の右辺の分母は、各要素の指数関数の和であるため、各要素[y]は1以下である。また、指数関数が0以上の値をとることから、出力の各要素[y]は[0,1]の範囲である。このため、式(1)は、確率を表現することができる。
しかしながら、softmaxには表現能力の限界が存在する。まず、softmaxの対数をとったlog softmaxについて考える。log softmaxは、softmaxの対数尤度関数に含まれる。log softmax:fは、R→Rのベクトル値関数である。f(x)のi番目の要素は、式(2)のように表される。
Figure 2019191868
ここで、モデルに入力されたベクトルuがNサンプルあると仮定し、i番目の入力をu(i)とする。このとき、全ての入力u(1),…,u(N)が張る空間U=span(u(1),…,u(N))の次元がrであるとする。つまり、モデルに入力された入力の中には、一次独立な入力がr個存在するとする。すると、ベクトルWu(i)(i=1,…,N)が張る空間について、式(3)が成り立つ。
Figure 2019191868
ここで、log softmaxの出力空間Yについて考える。まず、対数と割り算の関係から、式(2)は式(4)のようになる。
Figure 2019191868
また、f(x)は、式(5)のようになる。
Figure 2019191868
よって、y(i)は、式(6)のようになる。
Figure 2019191868
一次独立なL個の入力Wu(i)に対する出力の張る空間Y=span(y(1),…,y(N))は、式(7)のようになる。
Figure 2019191868
このため、Yの次元は、式(8)のようになる。
Figure 2019191868
以上より、出力yの張る空間は、式(9)のようになる。
Figure 2019191868
式(9)より、もし、真の出力ベクトルの張る空間がm>min(rank(W),r)+1であったとすると、log softmaxでは表現することができないことがいえる。このように、従来のsoftmaxを使った深層学習では、出力関数の対数尤度関数が線形であることによって表現能力が制限されている。
そこで、実施形態では、対数尤度関数が非線形であるような出力関数を用いることで、深層学習の表現能力を向上させる。さらに、実施形態で使用する出力関数のパラメータは、従来のsoftmaxと同じものとすることができるため、新たな学習パラメータの設定等は不要である。
[第1の実施形態の構成]
まず、図2を用いて、第1の実施形態に係る学習装置の構成について説明する。図2は、第1の実施形態に係る学習装置の構成の一例を示す図である。図2に示すように、学習装置10は、記憶部11及び制御部12を有する。
記憶部11は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部11は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部11は、学習装置10で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部11は、プログラムの実行で用いられる各種情報を記憶する。また、記憶部11は、深層学習のモデルのパラメータを記憶する。
制御部12は、学習装置10全体を制御する。制御部12は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部12は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部12は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部12は、計算部121及び更新部122を有する。
計算部121は、ニューラルネットワークの出力層の出力信号を変数とする出力関数であって、対数尤度関数が非線形である出力関数を計算する。例えば、計算部121は、ニューラルネットワークの出力層の出力信号について、softmaxに含まれる指数関数を指数関数とパラメータを持たない所定の関数との積に置き換えた出力関数であって、対数尤度関数が非線形である出力関数を計算する。ここでは、計算部121は、softmaxに含まれる指数関数を指数関数とシグモイド関数との積に置き換えた出力関数を計算する。
前述の通り、従来のsoftmaxを使った深層学習では、出力関数の対数をとった式(5)が非線形要素を有しておらず、もとの入力ベクトルWuと1ベクトルのスカラー倍の和になっているため、表現能力が制限されていた。
そこで、実施形態の学習装置10は、softmaxに含まれる指数関数を、指数関数とシグモイド関数との積に置き換えた関数を出力関数として使用する。実施形態の出力関数は、式(10)のg(x)である。また、シグモイド関数は、式(10)のσ([x])である。
Figure 2019191868
このように、計算部121は、出力層においては、出力信号のみを変数とする出力関数の計算を行う。このため、本実施形態では出力関数のための学習パラメータは不要であり、計算部121は、ニューラルネットワークの出力層の出力信号のみを変数とする、パラメータを持たない出力関数を計算する。
また、式(11)に示すように、出力関数g(x)の対数は、非線形要素−log(1+exp(x))を有する。−log(1+exp(x))は、非線形変換を行うベクトル値関数である。
Figure 2019191868
このように、実施形態の深層学習のモデルにおいては、出力関数の対数尤度関数が非線形であるため、出力の空間が入力の次元によって制限されず、表現能力が制限されない。また、式(10)は、従来のsoftmaxである式(2)と同じパラメータのみを使って構成されている。
また、更新部122は、出力信号に基づいて、出力関数の対数尤度関数が最適化されるように、ニューラルネットワークのパラメータを更新する。例えば、更新部122は、記憶部11に記憶されたパラメータの行列Wを更新する。
ここまで、計算部121が、softmaxに含まれる指数関数を指数関数とシグモイド関数との積に置き換えた出力関数を計算する場合について説明した。一方で、出力関数は、これまでに説明したものに限られず、対数が非線形性を有する関数であって、softmaxの指数関数を他の関数に置き換えた関数であってよい。例えば、計算部121は、式(12)に示すような、softmaxの指数関数をシグモイド関数に置き換えた関数を出力関数とすることができる。
Figure 2019191868
また、計算部121は、式(13)に示すような、softmaxの指数関数をsoftplusに置き換えた関数を出力関数とすることができる。つまり、計算部121は、softmaxに含まれる指数関数を、指数関数とシグモイド関数との積、シグモイド関数及びsoftplusのいずれかに置き換えた出力関数を計算することができる。
Figure 2019191868
[第1の実施形態の処理]
図3を用いて、学習装置10の処理の流れについて説明する。図3は、第1の実施形態に係る学習処理の流れを示すフローチャートである。図3に示すように、まず、学習装置10は、入力層への入力データの入力を受け付ける(ステップS10)。
次に、学習装置10は、入力層の出力信号を計算する(ステップS20)。そして、学習装置10は、iを1に設定し(ステップS30)、i=Lになるまで(ステップS50、No)、iを1ずつ増加させながら(ステップS60)、第i層の出力信号を計算する(ステップS40)。つまり、学習装置10は、第1層から第L層までの中間層の出力信号を計算し、第L層の出力信号を得る。そして、学習装置10は、出力層の処理を行う(ステップS70)。
図4を用いて、学習装置10の出力層の処理について説明する。図4に示すように、学習装置10は、まず、最後の中間層である第L層の出力信号に重みを掛けて、出力層の出力信号を計算する(ステップS701)。例えば、第L中間層の出力信号をベクトルu、重みを行列Wで表すとすると、学習装置10はWuを計算する。
次に、学習装置10は、出力信号を変数とする指数関数及びシグモイド関数を計算する(ステップS702)。例えば、出力信号をベクトルxとすると、学習装置10は、ベクトルxの第i要素について、指数関数exp([x])及びシグモイド関数σ([x])を計算する。なお、σ()は、式(10)に示す通りである。
そして、学習装置10は、要素として指数関数とシグモイド関数の積を計算する(ステップS703)。学習装置10は、計算した全要素の和を計算し(ステップS704)、要素を和で割って各クラスの確率を計算する(ステップS705)。
[第1の実施形態の効果]
本実施形態において、計算部121は、ニューラルネットワークの出力層の出力信号を変数とする出力関数であって、対数尤度関数が非線形である出力関数を計算する。更新部122は、出力信号に基づいて、出力関数の対数尤度関数が最適化されるように、ニューラルネットワークのパラメータを更新する。
このように、本実施形態の学習装置10は、softmaxを基に、パラメータを追加することなく作成された関数を出力関数として学習を行う。また、当該出力関数は、対数尤度関数が非線形であるため、入力の次元によって出力の表現能力が制限されない。このため、本実施形態によれば、表現能力が向上した深層学習を効率的に行うことができる。
また、計算部121は、softmaxに含まれる指数関数を指数関数とパラメータを持たない所定の関数との積に置き換えた出力関数であって、対数尤度関数が非線形である出力関数を計算する。例えば、計算部121は、softmaxに含まれる指数関数を指数関数とシグモイド関数との積、シグモイド関数及びsoftplusのいずれかに置き換えた出力関数を計算することができる。これらの置き換えられた関数の対数は、非線形性を有する。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散及び統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、学習装置10は、パッケージソフトウェアやオンラインソフトウェアとして上記の学習処理を実行する学習プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の学習プログラムを情報処理装置に実行させることにより、情報処理装置を学習装置10として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
また、学習装置10は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の学習処理に関するサービスを提供する学習サーバ装置として実装することもできる。例えば、学習サーバ装置は、更新前のパラメータを入力とし、更新後のパラメータを出力とする学習サービスを提供するサーバ装置として実装される。この場合、学習サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の学習処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。
図5は、学習プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、学習装置10の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、学習装置10における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSDにより代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 学習装置
11 記憶部
12 制御部
121 計算部
122 更新部

Claims (5)

  1. ニューラルネットワークの出力層の出力信号を変数とする出力関数であって、対数尤度関数が非線形である出力関数を計算する計算部と、
    前記出力信号に基づいて、前記出力関数の対数尤度関数が最適化されるように、前記ニューラルネットワークのパラメータを更新する更新部と、
    を有することを特徴とする学習装置。
  2. 前記計算部は、softmaxに含まれる指数関数を前記指数関数とパラメータを持たない所定の関数との積に置き換えた出力関数を計算することを特徴とする請求項1に記載の学習装置。
  3. 前記計算部は、softmaxに含まれる指数関数を、前記指数関数とシグモイド関数との積、シグモイド関数及びsoftplusのいずれかに置き換えた出力関数を計算することを特徴とする請求項1又は2に記載の学習装置。
  4. コンピュータによって実行される学習方法であって、
    ニューラルネットワークの出力層の出力信号を変数とする出力関数であって、対数尤度関数が非線形である出力関数を計算する計算工程と、
    前記出力信号に基づいて、前記出力関数の対数尤度関数が最適化されるように、前記ニューラルネットワークのパラメータを更新する更新工程と、
    を含むことを特徴とする学習方法。
  5. コンピュータを、請求項1から3のいずれか1項に記載の学習装置として機能させるための学習プログラム。
JP2018083122A 2018-04-24 2018-04-24 学習装置、学習方法及び学習プログラム Active JP7077746B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018083122A JP7077746B2 (ja) 2018-04-24 2018-04-24 学習装置、学習方法及び学習プログラム
US17/045,765 US20210056418A1 (en) 2018-04-24 2019-04-22 Learning device, learning method, and learning program
PCT/JP2019/017094 WO2019208523A1 (ja) 2018-04-24 2019-04-22 学習装置、学習方法及び学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018083122A JP7077746B2 (ja) 2018-04-24 2018-04-24 学習装置、学習方法及び学習プログラム

Publications (2)

Publication Number Publication Date
JP2019191868A true JP2019191868A (ja) 2019-10-31
JP7077746B2 JP7077746B2 (ja) 2022-05-31

Family

ID=68295321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018083122A Active JP7077746B2 (ja) 2018-04-24 2018-04-24 学習装置、学習方法及び学習プログラム

Country Status (3)

Country Link
US (1) US20210056418A1 (ja)
JP (1) JP7077746B2 (ja)
WO (1) WO2019208523A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112069455A (zh) * 2020-09-16 2020-12-11 成都启英泰伦科技有限公司 一种log-softmax函数硬件加速计算方法
JP7533587B2 (ja) 2020-08-05 2024-08-14 日本電信電話株式会社 推論方法、学習方法、推論装置、学習装置及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6509694B2 (ja) * 2015-09-15 2019-05-08 株式会社東芝 学習装置、音声検出装置、学習方法およびプログラム
US11574164B2 (en) * 2017-03-20 2023-02-07 International Business Machines Corporation Neural network cooperation

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
巣籠 悠輔, 「DEEP LEARNING JAVAプログラミング 深層学習の理論と実装」, vol. 初版, JPN6021041982, 11 October 2016 (2016-10-11), JP, pages 41 - 66, ISSN: 0004623027 *
武内, 「線形代数I/要点/2章B-線形写像」, JPN6021041978, 10 May 2006 (2006-05-10), JP, ISSN: 0004623029 *
福田 修(外2名): "「ニューラルネットによる連続動作EMGパターンの識別」", 電気学会論文誌C, vol. 117, no. 10, JPN6021041979, 20 September 1997 (1997-09-20), JP, pages 1490 - 1497, ISSN: 0004623028 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7533587B2 (ja) 2020-08-05 2024-08-14 日本電信電話株式会社 推論方法、学習方法、推論装置、学習装置及びプログラム
CN112069455A (zh) * 2020-09-16 2020-12-11 成都启英泰伦科技有限公司 一种log-softmax函数硬件加速计算方法

Also Published As

Publication number Publication date
JP7077746B2 (ja) 2022-05-31
US20210056418A1 (en) 2021-02-25
WO2019208523A1 (ja) 2019-10-31

Similar Documents

Publication Publication Date Title
WO2022141869A1 (zh) 模型训练方法、调用方法、装置、计算机设备和存储介质
JP7010371B2 (ja) 学習済みモデル更新装置、学習済みモデル更新方法、プログラム
CN110689139A (zh) 用于机器学习的方法和计算机系统
JP2020034998A (ja) 拡張装置、拡張方法及び拡張プログラム
CN110378434A (zh) 点击率预测模型的训练方法、推荐方法、装置及电子设备
CN113570064A (zh) 利用复合机器学习模型来执行预测的方法及系统
US11790234B2 (en) Resource-aware training for neural networks
WO2019194299A1 (ja) 学習装置、学習方法および学習プログラム
JP6870508B2 (ja) 学習プログラム、学習方法及び学習装置
WO2017130835A1 (ja) 作成装置、作成方法、および作成プログラム
WO2019208523A1 (ja) 学習装置、学習方法及び学習プログラム
JP6767312B2 (ja) 検知システム、検知方法及び検知プログラム
CN115271980A (zh) 风险值预测方法、装置、计算机设备和存储介质
US20230016772A1 (en) Checking device, checking method, and checking program
JP7420244B2 (ja) 学習装置、学習方法、推定装置、推定方法及びプログラム
JP6928346B2 (ja) 予測装置、予測方法および予測プログラム
US20220398452A1 (en) Supervised similarity learning for covariate matching and treatment effect estimation via self-organizing maps
JP2019101781A (ja) 検知システム、学習方法及び学習プログラム
WO2019208248A1 (ja) 学習装置、学習方法及び学習プログラム
WO2022249327A1 (ja) 学習装置、学習方法及び学習プログラム
JP7571878B2 (ja) 学習装置、学習方法及び学習プログラム
JP2020042607A (ja) 情報処理装置、サーバ、情報処理方法及び情報処理プログラム
WO2021161539A1 (ja) 分類方法、分類装置及び分類プログラム
WO2024023947A1 (ja) 学習装置、学習方法、および、学習プログラム
WO2024157403A1 (ja) 学習装置、学習方法及び学習プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7077746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150