JP2016006617A - 学習装置、学習方法及び学習プログラム - Google Patents

学習装置、学習方法及び学習プログラム Download PDF

Info

Publication number
JP2016006617A
JP2016006617A JP2014127414A JP2014127414A JP2016006617A JP 2016006617 A JP2016006617 A JP 2016006617A JP 2014127414 A JP2014127414 A JP 2014127414A JP 2014127414 A JP2014127414 A JP 2014127414A JP 2016006617 A JP2016006617 A JP 2016006617A
Authority
JP
Japan
Prior art keywords
learning
data
coefficient
weighting
weighting factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014127414A
Other languages
English (en)
Other versions
JP6195542B2 (ja
Inventor
健一 磯
Kenichi Iso
健一 磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2014127414A priority Critical patent/JP6195542B2/ja
Publication of JP2016006617A publication Critical patent/JP2016006617A/ja
Application granted granted Critical
Publication of JP6195542B2 publication Critical patent/JP6195542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】多段ニューラルネットワーク(DNN)による認識精度を改善する。【解決手段】学習装置は、生成部131と、学習部133とを有する。生成部131は、入力データに対する演算結果を出力する複数のノードを接続した学習器であって所定の特徴を学習済みの学習器に含まれる複数のノード間に設定された所定の第1の重み係数を変形して複数の第2の重み係数を生成する。学習部133は、生成部131によって生成された第2の重み係数が設定された各学習器に学習データを入力した場合に出力される各出力データと学習データとの間の誤差に基づいて学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて第2の重み係数を学習する。【選択図】図3

Description

本発明は、学習装置、学習方法及び学習プログラムに関する。
近年、多段に接続されたニューロンを有するDNN(Deep Neural Network)を利用して音声認識を行うディープラーニングに関する技術が知られている。例えば、このような技術では、音声認識を行う場合に、DNNに含まれる入力層に音声のスペクトルパターンを入力し、出力層に識別したい音素記号などを割り当てる。
特開平09−330406号公報 特開2008−065836号公報
しかしながら、上記の従来技術では、認識精度を改善することができるとは限らなかった。例えば、上記の従来技術では、多数の話者から多数の発話を収集し、収集した発話を用いてバックプロパゲーション法などによりニューロン間の重み係数を学習する。このため、上記の従来技術では、新しい話者の音声を認識する場合には、学習用の音声データが少ないので、バックプロパゲーション法により学習を行うことができるとは限らない。例えば、少量の学習用データを用いてバックプロパゲーション法による学習を行うと少量の学習用データのみに特化した汎化能力の低い重み係数が学習される「過学習」と呼ばれる現象が起こる場合がある。このため、上記の従来技術では、学習の精度が劣化する場合がある。このようなことから、上記の従来技術では、認識精度を改善することができるとは限らなかった。
本願は、上記に鑑みてなされたものであって、認識精度を改善することができる学習装置、学習方法及び学習プログラムを提供することを目的とする。
本願に係る学習装置は、入力データに対する演算結果を出力する複数のノードを接続した学習器であって所定の特徴を学習済みの学習器に含まれる前記複数のノード間に設定された所定の第1の重み係数を変形して複数の第2の重み係数を生成する生成部と、前記生成部によって生成された第2の重み係数が設定された各学習器に学習データを入力した場合に出力される各出力データと当該学習データとの間の誤差に基づいて当該学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて当該第2の重み係数を学習する学習部とを備えたことを特徴とする。
実施形態の一態様によれば、認識精度を改善することができるという効果を奏する。
図1は、実施形態に係る学習装置による学習処理の一例を示す説明図である。 図2は、実施形態に係る学習装置による学習処理の一例を示す説明図である。 図3は、実施形態に係る学習装置の構成例を示す図である。 図4は、実施形態に係る学習データ記憶部の一例を示す図である。 図5は、実施形態に係る第1の重み係数記憶部の一例を示す図である。 図6は、実施形態に係る第2の重み係数記憶部の一例を示す図である。 図7は、実施形態に係る対応情報記憶部の一例を示す図である。 図8は、実施形態に係る線形結合係数記憶部の一例を示す図である。 図9は、実施形態に係る学習装置による対応付け処理手順を示すフローチャートである。 図10は、実施形態に係る学習装置による算出処理手順を示すフローチャートである。 図11は、変形例に係る学習装置による学習処理手順を示すフローチャートである。 図12は、学習装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る学習装置、学習方法及び学習プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法及び学習プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.学習処理〕
まず、図1〜図2を用いて、実施形態に係る学習処理の一例について説明する。図1〜図2は、実施形態に係る学習装置による学習処理の一例を示す説明図である。図1〜図2の例では、学習装置100によってデータの特徴を識別可能なDNNに含まれるノード間の重み係数を学習する学習処理が行われる例を示す。
学習装置100は、DNNにおけるノード(例えば、ニューロン)間の重み係数を学習するサーバ装置である。ここで、DNNは、例えば、入力データに対する演算結果を出力する複数のニューロンを接続したネットワークであって複数のニューロン間に所定の特徴を学習済みの第1の重み係数WLeが設定された学習器Leである。すなわち、DNNは、十分な数の学習データ(例えば、音声認識の場合では多数の話者による多数の発話データ)で予め学習済みの階層型ニューラルネットワークである。なお、DNNは、複数のニューロンによって形成される入力層と、複数のニューロンを含む多段のニューロン群の層によって形成される中間層(例えば、隠れ層)と、複数のニューロンによって形成される出力層によって構成される。また、DNNの中間層は、任意の数の層によって形成される。
初めに、図1を用いて、学習装置100が重み係数と最適な学習データを対応付ける対応付け処理について説明する。ここで、学習装置100は、学習を行う上で十分な数であるM個の学習データD〜Dを学習データ記憶部121に予め保持する。また、学習装置100は、学習済みの第1の重み係数WLeを第1の重み係数記憶部122に予め保持する。なお、第1の重み係数WLeは、各ニューロン間の第1の重み係数W、W、W、・・・Wによって形成される。すなわち、学習装置100は、各ニューロン間の第1の重み係数W、W、W、・・・Wを第1の重み係数記憶部122に保持する。
まず、学習装置100は、第1の重み係数W、W、W、・・・Wのうち所定の第1の重み係数を第1の重み係数記憶部122から読み出す。例えば、学習装置100は、過学習が起こりやすい第1の重み係数Wを第1の重み係数記憶部122から読み出す。続いて、学習装置100は、読み出した第1の重み係数Wを変形して複数の第2の重み係数W[1]〜W[N]を生成する(ステップS1)。具体的には、学習装置100は、第1の重み係数に攪乱を加えることで第2の重み係数を生成する。例えば、学習装置100は、第1の重み係数Wに乱数Rを加算して複数の重み係数を生成する。一例としては、学習装置100は、まず、N個の乱数R[n]を生成する。そして、学習装置100は、第1の重み係数Wに対して、乱数R[n]を加算することでN個の第2の重み係数W[n]を生成する。すなわち、学習装置100は、下記の式(1)に従ってN個の第2の重み係数W[1]〜W[N]を生成する。なお、式(1)の「n」は、1〜Nの整数値である。
W[n]=W+R[n]・・・(1)
そして、学習装置100は、生成した第2の重み係数W[1]〜W[N]を第2の重み係数記憶部123に格納する。これにより、学習装置100は、1組の重み係数WからN組の重み係数W[1]〜W[N]を生成することができる。すなわち、学習装置100は、1個の学習器LeからN個の学習器Le〜Leを複製して生成したことになる。なお、複製された学習器Le〜Leの重み係数W[1]〜W[N]は、乱数R[n]をそれぞれ加算しているので、複製元の学習器Leの重み係数Wとは少しずつ異なる値を有する。
続いて、学習装置100は、生成された第2の重み係数W[1]〜W[N]が設定された各学習器Le〜Leに学習データを入力した場合に出力される各出力データと学習データとの間の誤差に基づいて学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて第2の重み係数を学習する。具体的には、学習装置100は、まず、生成された第2の重み係数に対して最適な学習データを対応付ける。例えば、学習装置100は、第2の重み係数記憶部123に記憶されたN組の第2の重み係数を読み出す。また、学習装置100は、学習データ記憶部121に記憶されたM個の学習データのうち1番目の学習データを読み出す。その後、学習装置100は、1番目の学習データDをN組の第2の重み係数が設定された学習器Le〜Leでそれぞれ識別する(ステップS2)。ここで、図1の例では、学習器Leは、学習データDとの間の識別誤差が50である出力データを出力したものとする。学習器Leは、学習データDとの間の識別誤差が10である出力データを出力したものとする。学習器Leは、学習データDとの間の識別誤差が100である出力データを出力したものとする。
この場合、学習装置100は、N組の第2の重み係数W[1]〜W[N]の中から、識別誤差(例えば、階層型ニューラルネットワークの出力層での出力値と正解との間の誤差)が1番小さい第2の重み係数W[2]を抽出する(ステップS3)。
その後、学習装置100は、1番目の学習データDの番号を抽出した第2の重み係数W[2]の番号と対応付けて対応情報記憶部123に格納する(ステップS4)。また、学習装置100は、2番目の学習データDからM番目の学習データDまで上記の処理を繰り返し実行する(ステップS5)。これにより、学習装置100は、識別誤差が最小となる第2の重み係数の番号を2番目の学習データDの番号からM番目の学習データDの番号と対応付けて対応情報記憶部123に格納する。
次に、図2を用いて、学習装置100が重み係数の修正値を算出する算出処理について説明する。まず、学習装置100は、第2の重み係数と対応する学習データを用いて第2の重み係数の学習を行う(ステップS6)。具体的には、学習装置100は、まず、学習データ記憶部121に記憶されたM個の学習データのうち1番目の学習データDを読み出す。また、学習装置100は、対応情報記憶部123に記憶された1番目の学習データDと対応する第2の重み係数W[2]を読み出す。そして、学習装置100は、読み出した第2の重み係数W[2]を設定した学習器Leを1番目の学習データDで学習する。その後、学習装置100は、学習によって得られた第2の重み係数W[2]の修正値W[2]´を第2の重み係数記憶部123に記憶する。また、学習装置100は、2番目の学習データDからM番目の学習データDまで上記の処理を繰り返し実行する。これにより、学習装置100は、第2の重み係数W[1]〜W[N]を第2の重み係数W[1]´〜W[N]´に修正する(ステップS7)。
続いて、学習装置100は、第2の重み係数W[1]´〜W[N]´の線形結合を示す線形結合係数c[1]〜c[N]の学習を行う。ここで、第2の重み係数W[1]´〜W[N]´と線形結合係数c[1]〜c[N]との間の関係は、下記の式(2)によって表される。
W´=c[1]*W[1]´+c[2]*W[2]´+・・・c[N]*W[N]´・・・(2)
学習装置100は、まず、線形結合係数c[1]〜c[N]を初期化する(ステップS8)。例えば、学習装置100は、線形結合係数記憶部125に記憶された線形結合係数c[1]〜c[N]に初期値として「1/N」を設定することで初期化する。
その後、学習装置100は、学習データD〜Dを用いて線形結合係数c[1]〜c[N]の学習を行う(ステップS9)。例えば、学習装置100は、まず、学習データDを用いて、バックプロパゲーション法により第2の重み係数W´の学習を行う。これにより、学習装置100は、第2の重み係数W´を修正した第2の重み係数W´を算出する。すなわち、学習装置100は、式(2)の左辺がW´となる線形結合係数を算出する。
同様に、学習装置100は、学習データD〜Dを用いて第2の重み係数W´の学習を行う。これにより、学習装置100は、式(2)の左辺がW´〜W´となる線形結合係数を算出する。そして、学習装置100は、算出した第2の重み係数W´〜W´を用いて、線形結合係数c[1]〜c[N]の修正値である線形結合係数c[1]´〜c[N]´を算出する。そして、学習装置100は、線形結合係数記憶部125に記憶された線形結合係数c[1]〜c[N]を線形結合係数c[1]´〜c[N]´に修正する(ステップS10)。そして、学習装置100は、第2の重み係数Wの修正値である第2の重み係数W´´を算出する(ステップS11)。これにより、学習装置100は、第1の重み係数Wを算出した第2の重み係数W´´に変更することで学習器Leの識別精度を高めることができる。
このように、実施形態に係る学習装置100は、入力データに対する演算結果を出力する複数のノードを接続した学習器であって所定の特徴を学習済みの学習器に含まれる複数のノード間に設定された所定の第1の重み係数を変形して複数の第2の重み係数を生成する。また、学習装置100は、生成された第2の重み係数が設定された各学習器に学習データを入力した場合に出力される各出力データと学習データとの間の誤差に基づいて学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて第2の重み係数を学習する。
また、実施形態に係る学習装置100は、学習データを用いて、第2の重み係数の線形結合を示す線形結合係数を学習する。また、実施形態に係る学習装置100は、各出力データと学習データとの間の誤差のうち誤差が最小となる出力データを出力する学習器に設定された第2の重み係数を、学習データを用いて学習する。また、実施形態に係る学習装置100は、第1の重み係数に攪乱を加えることで第2の重み係数を生成する。
これにより、学習装置100は、最適な学習データを用いて重み係数を学習することができるので、認識精度を改善することができる。例えば、学習装置100は、複製した重み係数のうち学習データの識別誤差が最小となる出力データを出力する重み係数と学習データとを用いて重み係数の修正を行うことができるので、認識精度をより高めることができる。
〔2.学習装置の構成〕
次に、図3を用いて、実施形態に係る学習装置100の構成について説明する。図3は、実施形態に係る学習装置100の構成例を示す図である。図3に示すように、学習装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、学習装置100は、学習装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110について)
通信部110は、例えば、NIC等によって実現される。かかる通信部110は、ネットワークと有線又は無線で接続され、ネットワークを介して、各種のサーバ装置や端末装置やノードとの間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、学習データ記憶部121と、第1の重み係数記憶部122と、第2の重み係数記憶部123と、対応情報記憶部124と、線形結合係数記憶部125とを有する。
(学習データ記憶部121について)
学習データ記憶部121は、学習器の学習に用いる学習データに関する情報を記憶する。具体的には、学習データ記憶部121は、所定の特徴を学習する学習器に入力する学習データを記憶する。例えば、学習データ記憶部121は、複数の学習データを順番と対応付けて記憶する。ここで、図4に、実施形態に係る学習データ記憶部の一例を示す。図4に示すように、学習データ記憶部121は、「学習データ番号」、「学習データ」といった項目を有する。
「学習データ番号」は、学習データの順番を識別するための識別情報を示す。「学習データ」は、学習器の学習に用いるデータを示す。例えば、「学習データ」には、話者の発話を示す音声データを記憶する。
すなわち、図4では、学習データ番号「1」に対応する学習データは、学習データ「D」である例を示している。また、図4では、学習データD〜DまでのM個のデータが記憶されている例を示している。
(第1の重み係数記憶部122について)
第1の重み係数記憶部122は、学習器に含まれるノード間の重み係数を記憶する。具体的には、第1の重み係数記憶部122は、既に所定の特徴を学習済みの学習器に含まれるノード間の重み係数を記憶する。例えば、第1の重み係数記憶部122は、学習器に含まれる各ノード間の重み係数をそれぞれ記憶する。ここで、図5に、実施形態に係る第1の重み係数記憶部の一例を示す。図5に示すように、第1の重み係数記憶部122は、「第1の重み係数」といった項目を有する。
「第1の重み係数」は、学習器に設定されたノード間の重み係数を示す。例えば、「第1の重み係数」には、既に所定の特徴を学習済みの学習器に含まれる各ノード間の重み係数をそれぞれ記憶する。
すなわち、図5では、既に所定の特徴を学習済みの学習器の重み係数WLeは、第1の重み係数「W、W、W2、・・・W」によって構成される例を示している。
(第2の重み係数記憶部123について)
第2の重み係数記憶部123は、学習器に含まれるノード間の重み係数を記憶する。具体的には、第2の重み係数記憶部123は、第1の重み係数記憶部122に記憶された重み係数のうち所定の第1の重み係数を変形した第2の重み係数を記憶する。例えば、第2の重み係数記憶部123は、過学習が起こりやすい第1の重み係数に複数個の乱数を加算した複数個の第2の重み係数をそれぞれ記憶する。ここで、図6に、実施形態に係る第2の重み係数記憶部の一例を示す。図6に示すように、第2の重み係数記憶部123は、「係数番号」と、「第2の重み係数」といった項目を有する。
「係数番号」は、第2の重み係数を識別するための識別情報を示す。「第2の重み係数」は、第1の重み係数を変形した重み係数を示す。例えば、「第2の重み係数」には、過学習が起こりやすい第1の重み係数にN個の乱数を加算したN個の第2の重み係数を記憶する。
すなわち、図6では、係数番号「1」に対応する第2の重み係数は、W[1]である例を示している。また、図6では、第2の重み係数W[1]〜W[N]までのN個のデータが記憶されている例を示している。
(対応情報記憶部124について)
対応情報記憶部124は、学習データと第2の重み係数との間の対応関係を記憶する。具体的には、対応情報記憶部124は、学習器に学習データを入力した場合に出力される出力データと学習データとの間の識別誤差に基づいて学習データと対応する第2の重み係数を特定し、特定した第2の重み係数を学習データと対応付けて記憶する。例えば、対応情報記憶部124は、学習器に学習データを入力した場合に出力される出力データと学習データとの間の識別誤差が最小となる第2の重み係数の係数番号と対応付けて学習データ番号を記憶する。ここで、図7に、実施形態に係る対応情報記憶部の一例を示す。図7に示すように、対応情報記憶部124は、「学習データ番号」と、「第2の重み係数番号」といった項目を有する。
「学習データ番号」は、学習データを識別するための識別情報を示す。「第2の重み係数番号」は、学習データと対応する第2の重み係数の係数番号を示す。
すなわち、図7では、学習データ番号「1」の学習データに対応する第2の重み係数は、第2の重み係数番号「2」の第2の重み係数である例を示している。また、図7では、学習データ番号1〜MのM個の学習データと第2の重み係数との間の対応関係が記憶されている例を示している。
(線形結合係数記憶部125について)
線形結合係数記憶部125は、線形結合係数を記憶する。具体的には、線形結合係数記憶部125は、第2の重み係数記憶部123に記憶された第2の重み係数の線形結合係数を記憶する。例えば、線形結合係数記憶部125は、第2の重み係数と対応付けて線形結合係数を記憶する。ここで、図8に、実施形態に係る線形結合係数記憶部の一例を示す。図8に示すように、線形結合係数記憶部125は、「第2の重み係数」と、「線形結合係数」といった項目を有する。
「第2の重み係数」は、第2の重み係数記憶部123に記憶された第2の重み係数を示す。「線形結合係数」は、第2の重み係数の線形結合係数を示す。例えば、「線形結合係数」には、複数個の第2の重み係数に対応する線形結合係数をそれぞれ記憶する。
すなわち、図8では、第2の重み係数W[1]に対応する線形結合係数は、c[1]である例を示している。また、図8では、第2の重み係数W[1]〜W[N]までのN個のデータが記憶されている例を示している。
(制御部130について)
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、学習装置100内部の記憶装置に記憶されている各種プログラム(学習プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
制御部130は、図3に示すように、生成部131と、対応付け部132と、学習部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する学習処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
(生成部131について)
生成部131は、第2の重み係数を生成する。具体的には、生成部131は、入力データに対する演算結果を出力する複数のノードを接続した学習器であって所定の特徴を学習済みの学習器に含まれる複数のノード間に設定された所定の第1の重み係数を変形して複数の第2の重み係数を生成する。例えば、生成部131は、第1の重み係数に攪乱を加えることで第2の重み係数を生成する。
この点について詳細に説明する。まず、生成部131は、第1の重み係数記憶部122に記憶された第1の重み係数W、W、W、・・・Wのうち所定の第1の重み係数を読み出す。例えば、生成部131は、過学習が起こりやすい第1の重み係数Wを第1の重み係数記憶部122から読み出す。続いて、生成部131は、読み出した第1の重み係数Wを変形して複数の第2の重み係数W[1]〜W[N]を生成する。具体的には、生成部131は、第1の重み係数Wに乱数Rを加えて複数の重み係数を生成する。例えば、生成部131は、まず、N個の乱数R[n]を生成する。そして、生成部131は、第1の重み係数Wに対して、乱数R[n]を加算することでN個の第2の重み係数W[n]を生成する。そして、生成部131は、生成した第2の重み係数W[1]〜W[N]を第2の重み係数記憶部123に格納する。
(対応付け部132について)
対応付け部132は、学習データを第2の重み係数と対応付ける。具体的には、対応付け部132は、生成部131によって生成された第2の重み係数が設定された各学習器に学習データを入力した場合に出力される各出力データと学習データとの間の誤差に基づいて学習データと対応する第2の重み係数を特定し、特定した第2の重み係数を学習データと対応付ける。例えば、対応付け部132は、各学習器に学習データを入力した場合に出力される各出力データと学習データとの間の誤差のうち誤差が最小となる出力データを出力する学習器に設定された第2の重み係数と対応付ける。
この点について詳細に説明する。対応付け部132は、まず、第2の重み係数記憶部123に記憶されたN組の第2の重み係数を読み出す。また、対応付け部132は、学習データ記憶部121に記憶されたM個の学習データのうち1番目の学習データを読み出す。
その後、対応付け部132は、1番目の学習データDをN組の第2の重み係数が設定された学習器Le〜Leでそれぞれ識別する。ここで、学習器Leは、学習データDとの間の識別誤差が50である出力データを出力したものとする。学習器Leは、学習データDとの間の識別誤差が10である出力データを出力したものとする。学習器Leは、学習データDとの間の識別誤差が100である出力データを出力したものとする。この場合、対応付け部132は、N組の第2の重み係数W[1]〜W[N]の中から、識別誤差が1番小さい第2の重み係数W[2]を抽出する。
その後、対応付け部132は、1番目の学習データDの番号を抽出した第2の重み係数W[2]の番号と対応付けて対応情報記憶部124に格納する。また、対応付け部132は、2番目の学習データDからM番目の学習データDまで上記の処理を繰り返し実行する。これにより、対応付け部132は、識別誤差が最小となる第2の重み係数の番号を2番目の学習データDの番号からM番目の学習データDの番号と対応付けて対応情報記憶部124に格納する。
(学習部133について)
学習部133は、学習器(例えば、DNN)に含まれるノード間の重み係数の学習を行う。具体的には、学習部133は、生成部131によって生成された第2の重み係数が設定された各学習器に学習データを入力した場合に出力される各出力データと当該学習データとの間の誤差に基づいて当該学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて第2の重み係数を学習する。例えば、学習部133は、各出力データと学習データとの間の誤差のうち誤差が最小となる出力データを出力する学習器に設定された第2の重み係数を、かかる学習データを用いて学習する。
この点について詳細に説明する。学習部133は、初めに、第2の重み係数の修正値を算出する。具体的には、学習部133は、まず、学習データ記憶部121に記憶されたM個の学習データのうち1番目の学習データDを読み出す。また、学習部133は、対応情報記憶部124に記憶された1番目の学習データDと対応する第2の重み係数W[2]を読み出す。そして、学習部133は、読み出した第2の重み係数W[2]を設定した学習器Leを1番目の学習データDで学習する。その後、学習部133は、学習によって得られた第2の重み係数W[2]の修正値W[2]´を第2の重み係数記憶部123に記憶する。また、学習部133は、2番目の学習データDからM番目の学習データDまで上記の処理を繰り返し実行する。これにより、学習部133は、第2の重み係数W[1]〜W[N]を第2の重み係数W[1]´〜W[N]´に修正する。
続いて、学習部133は、第2の重み係数W[1]´〜W[N]´の線形結合を示す線形結合係数c[1]〜c[N]の学習を行う。具体的には、学習部133は、まず、線形結合係数c[1]〜c[N]を初期化する。例えば、学習部133は、線形結合係数記憶部125に記憶された線形結合係数c[1]〜c[N]に初期値として「1/N」を設定することで初期化する。
その後、学習部133は、学習データD〜Dを用いて線形結合係数c[1]〜c[N]の学習を行う。例えば、学習部133は、まず、学習データDを用いて、バックプロパゲーション法により第2の重み係数W´の学習を行う。これにより、学習部133は、第2の重み係数W´を修正した第2の重み係数W´を算出する。同様に、学習部133は、学習データD〜Dを用いて第2の重み係数W´の学習を行い、第2の重み係数W´〜W´を算出する。そして、学習部133は、算出した第2の重み係数W´〜W´を用いて、線形結合係数c[1]〜c[N]の修正値である線形結合係数c[1]´〜c[N]´を算出する。そして、学習部133は、線形結合係数記憶部125に記憶された線形結合係数c[1]〜c[N]を線形結合係数c[1]´〜c[N]´に修正する(ステップS10)。そして、学習部133は、第2の重み係数Wの修正値である第2の重み係数W´´を算出する。これにより、学習部133は、第1の重み係数Wを算出した第2の重み係数W´´に変更することで学習器Leの識別精度を高めることができる。
なお、学習装置100は、重み係数を学習する処理と線形結合係数を学習する処理とを実行する学習部133に限らず、重み係数を学習する処理を実行する学習部と、線形結合係数を学習する処理を実行する線形結合係数学習部とに分離して有してもよい。
〔3.学習処理手順〕
次に、図9及び図10を用いて、実施形態に係る学習装置100による学習処理の手順について説明する。まず、図9を用いて、学習装置100が学習データと重み係数を対応付ける対応付け処理について説明する。図9は、実施形態に係る学習装置100による対応付け処理手順を示すフローチャートである。
図9に示すように、まず、学習装置100は、所定の第1の重み係数を第1の重み係数記憶部122から読み出す(ステップS101)。続いて、学習装置100は、読み出した第1の重み係数を変形して複数の第2の重み係数を生成する(ステップS102)。そして、学習装置100は、各学習データを、第2の重み係数が設定された各学習器に入力する(ステップS103)。
そして、学習装置100は、学習器が出力する出力データと学習データとの間の識別誤差に基づいて学習データと対応する第2の重み係数を抽出する(ステップS104)。例えば、学習装置100は、識別誤差が最小となる出力データを出力する学習器に設定された第2の重み係数を抽出する。
続いて、学習装置100は、学習データを抽出した第2の重み係数と対応付ける(ステップS105)。例えば、学習装置100は、識別誤差が最小となる第2の重み係数の番号を学習データの番号と対応付けて対応情報記憶部124に格納する。
次に、図10を用いて、学習装置100が重み係数の修正値を算出する算出処理について説明する。図10は、実施形態に係る学習装置100による算出処理手順を示すフローチャートである。
図10に示すように、まず、学習装置100は、第2の重み係数と対応する学習データを用いて第2の重み係数の学習を行う(ステップS106)。そして、学習装置100は、第2の重み係数を、学習によって算出された重み係数に修正する(ステップS107)。その後、学習装置100は、第2の重み係数の線形結合を示す線形結合係数の学習を行う。具体的には、学習装置100は、まず、線形結合係を初期化する(ステップS108)。
その後、学習装置100は、学習データを用いて線形結合係数の学習を行う(ステップS109)。例えば、学習装置100は、まず、学習データを用いて、バックプロパゲーション法により第2の重み係数の学習を行う。これにより、学習装置100は、修正した第2の重み係数を算出する。続いて、学習装置100は、算出した第2の重み係数を用いて、線形結合係数の修正値を算出する。そして、学習装置100は、算出した修正値を線形結合係数記憶部125に記憶することで線形結合係数を修正する(ステップS110)。そして、学習装置100は、第2の重み係数の修正値を算出する(ステップS111)。これにより、学習装置100は、第1の重み係数を算出した第2の重み係数Wに変更することで学習器の識別精度を高めることができる。
〔4.変形例〕
上述した実施形態に係る学習装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の学習装置100の他の実施形態について説明する。
〔4−1.クラスタ依存に応じて重み係数を学習〕
上記実施形態では、学習装置100は、生成部131によって生成された第2の重み係数が設定された各学習器に学習データ(例えば、多数の話者による多数の発話データ)を入力した場合に出力される各出力データと学習データとの間の誤差に基づいて学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて第2の重み係数を学習する例を示した。ここで、学習装置100は、学習データの話者をクラスタリングし、クラスタに依存する重み係数である依存係数とクラスタに依存しない重み係数である非依存係数(例えば、共通係数)を学習してもよい。
具体的には、学習装置100は、第2の重み係数として、第1の重み係数を分割して分類に依存する依存係数と依存しない非依存係数とを生成する。また、学習装置100は、依存係数に対応する分類に属する学習データを用いて依存係数を学習し、また、全学習データを用いて非依存係数を学習する。
例えば、学習装置100の生成部131は、学習器(例えば、階層型ニューラルネットワーク)のあらかじめ指定した重み係数の部分集合(例えば、所定の層の重み係数のみの部分集合など)を変形してN個の第2の重み係数の依存係数を生成する。また、生成部131は、残りの重み係数(例えば、他の層の重み係数など)を非依存係数として生成する。そして、生成部131は、生成した依存係数および非依存係数を第2の重み係数記憶部123に保持する。
そして、学習部133は、学習データ記憶部121からi番目の学習データを読み出す。続いて、学習部133は、対応情報記憶部124からi番目の学習データに対応する第2の重み係数の番号を読み出す。その後、学習部133は、読み出した第2の重み係数の番号に対応する依存係数および非依存係数を第2の重み係数記憶部123から読み出す。そして、学習部133は、読み出した依存係数および非依存係数を重み係数として設定した学習器をi番目の学習データを用いて学習する。ここで、学習部133は、例えば、依存係数と対応する学習データだけを用いて依存係数を学習する。また、学習部133は、例えば、全ての学習データを用いて非依存係数を学習する。
このように、学習装置100は、第2の重み係数として、第1の重み係数を分割して分類に依存する依存係数と依存しない非依存係数とを生成する。また、学習装置100は、依存係数に対応する分類に属する学習データを用いて依存係数を学習し、また、全学習データを用いて非依存係数を学習する。
これにより、学習装置100は、例えば、新しい話者が少量の学習データを提供した場合、クラスタ依存の重み係数のみをバックプロパゲーション法によって学習することで学習データの数が少量でも安定に学習することができるので、認識精度を高めることができる。
〔4−2.新規学習データを用いて学習〕
上記変形例では、学習装置100は、第2の重み係数として、第1の重み係数を分割して分類に依存する依存係数と依存しない非依存係数とを生成し、依存係数に対応する分類に属する学習データを用いて依存係数を学習し、また、全学習データを用いて非依存係数を学習する例を示した。ここで、学習装置100は、新規学習データ(例えば、新しいドメインの学習データ)を用いて学習を行ってもよい。
具体的には、学習装置100は、第2の重み係数のうち分類に依存する依存係数に対応する新規学習データを用いて依存係数を学習する。この点について、図11を用いて詳細に説明する。図11は、変形例に係る学習装置による学習処理手順を示すフローチャートである。すなわち、図11は、新ドメイン(例えば、音声認識の場合には新しい話者による発話など)の少量の学習データが得られた場合に学習器を新ドメインに適するように追加学習するモードであるドメイン適応モードでの実施例である。
学習装置100は、新ドメインの学習データを受け付けた場合に、学習データ記憶部121に格納する。そして、学習装置100は、図11に示すように、まず、新ドメインの学習データを読み出す(ステップS201)。例えば、学習装置100は、学習データ記憶部121から新ドメインの学習データを読み出す。なお、学習装置100は、新ドメインの学習データを学習データ記憶部121に限らず、第2の学習データ記憶部に保持し、第2の学習データ記憶部から新ドメインの学習データを読み出してもよい。
続いて、学習装置100は、読み出した新ドメインの学習データを各学習器に入力する(ステップS202)。その後、学習装置100は、識別誤差が最小となる第2の重み係数を抽出する(ステップS203)。そして、学習装置100は、抽出した第2の重み係数と新ドメインの学習データとを対応付ける(ステップS204)。例えば、学習装置100は、抽出した第2の重み係数と新ドメインの学習データとを対応付けて対応情報記憶部124に格納する。
その後、学習装置100は、新ドメインの学習データを用いて、新ドメインの学習データに対応する第2の重み係数の依存係数を学習する(ステップS205)。そして、学習装置100は、学習によって算出された修正値に第2の重み係数の依存係数を修正する(ステップS206)。例えば、学習装置100は、第2の重み係数記憶部123に記憶された第2の重み係数の依存係数を修正値に修正する。これにより、学習装置100は、新ドメインの適応を完了する。
そして、学習装置100は、新ドメインの適応を完了した後に新ドメインの入力データを識別する場合には、新ドメインの入力データに対応する依存係数と非依存係数を用いて識別を行う。例えば、学習装置100は、新ドメインの学習データを適応後に新ドメインの入力データを識別する場合には、学習済みの線形結合係数と依存係数の線形結合を新しい重み係数として設定した学習器を用いて識別を行う。
このように、学習装置100は、第2の重み係数のうち分類に依存する依存係数に対応する新規学習データを用いて依存係数を学習する。これにより、学習装置100は、新しいドメインに属する学習データの数が少量でも安定に学習することができるので、認識精度を高めることができる。
なお、学習データ記憶部121は、学習データを保持する学習データ記憶部と、新ドメインの学習データを保持する第2の学習データ記憶部とに分離して構成されてもよい。この場合、学習装置100は、新ドメインの学習データを受け付けた場合に、第2の学習データ記憶部に新ドメインの学習データを格納する。そして、学習装置100は、第2の学習データ記憶部から新ドメインの学習データを読み出す。
〔4−3.DNN〕
上記実施形態では、学習装置100は、3つの層によって構成される学習器の学習を行う例を示した。ここで、学習装置100は、上述した例に限らず、任意の数の層によって構成された学習器の学習を行ってもよい。例えば、学習装置100は、中間層に複数のニューロン群が含まれる多段のDNNである学習器の学習を行う。また、学習器に含まれるニューロン群は、上述した例に限らず、任意の数のニューロンによって構成されてもよい。
〔4−4.適用対象〕
上記実施形態では、学習装置100は、音声データを識別する音声認識の適用例を示した。ここで、学習装置100は、音声認識に限らず、各種の認識に適用してもよい。例えば、学習装置100は、画像を対象とする画像認識に適用する。これにより、学習装置100は、画像データを入力データとして入力することで、画像に描出された被写体を識別することができる。例えば、学習装置100は、画像に写る物体が属するカテゴリを識別することができる。
他の例では、学習装置100は、株価を対象として適用する。これにより、学習装置100は、株価の時系列データや業種を入力データとして入力することで、株価に関する情報を識別することができる。例えば、学習装置100は、株価の値動きを識別することで業種の判定や、株価の予測等を実現できる。
〔4−5.その他〕
上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示した対応付け部132および学習部133は統合されてもよい。
〔4−6.ハードウェア構成〕
また、上述してきた実施形態に係る学習装置100は、例えば図12に示すような構成のコンピュータ1000によって実現される。以下、学習装置100を例に挙げて説明する。図12は、学習装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、およびメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網500を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを通信網500を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る学習装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。
〔5.効果〕
上述してきたように、実施形態に係る学習装置100は、生成部131と、学習部133とを有する。生成部131は、入力データに対する演算結果を出力する複数のノードを接続した学習器であって所定の特徴を学習済みの学習器に含まれる複数のノード間に設定された所定の第1の重み係数を変形して複数の第2の重み係数を生成する。学習部133は、生成部131によって生成された第2の重み係数が設定された各学習器に学習データを入力した場合に出力される各出力データと学習データとの間の誤差に基づいて学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて第2の重み係数を学習する。
また、実施形態に係る学習装置100において、学習部133は、学習データを用いて、第2の重み係数の線形結合を示す線形結合係数を学習する。
また、実施形態に係る学習装置100において、学習部133は、各出力データと学習データとの間の誤差のうち誤差が最小となる出力データを出力する学習器に設定された第2の重み係数を、学習データを用いて学習する。
また、実施形態に係る学習装置100において、生成部131は、第1の重み係数に攪乱を加えることで第2の重み係数を生成する。
これにより、実施形態に係る学習装置100は、最適な学習データを用いて重み係数を学習することができるので、認識精度を改善することができる。例えば、学習装置100は、複製した重み係数のうち学習データの識別誤差が最小となる出力データを出力する重み係数と学習データとを用いて重み係数の修正を行うことができるので、認識精度をより高めることができる。
また、変形例に係る学習装置100において、生成部131は、第2の重み係数として、第1の重み係数を分割して分類に依存する依存係数と依存しない非依存係数とを生成する。学習部133は、依存係数に対応する分類に属する学習データを用いて依存係数を学習し、また、全学習データを用いて非依存係数を学習する。
これにより、変形例に係る学習装置100は、例えば、新しい話者が少量の学習データを提供した場合、クラスタ依存の重み係数のみをバックプロパゲーション法によって学習することで学習データの数が少量でも安定に学習することができるので、認識精度を高めることができる。
また、変形例に係る学習装置100において、学習部133は、第2の重み係数のうち分類に依存する依存係数に対応する新規学習データを用いて依存係数を学習する。
これにより、変形例に係る学習装置100は、新しいドメインに属する学習データの数が少量でも安定に学習することができるので、認識精度を高めることができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
100 学習装置
121 学習データ記憶部
122 第1の重み係数記憶部
123 第2の重み係数記憶部
124 対応情報記憶部
125 線形結合係数記憶部
131 生成部
132 対応付け部
133 学習部

Claims (8)

  1. 入力データに対する演算結果を出力する複数のノードを接続した学習器であって所定の特徴を学習済みの学習器に含まれる前記複数のノード間に設定された所定の第1の重み係数を変形して複数の第2の重み係数を生成する生成部と、
    前記生成部によって生成された第2の重み係数が設定された各学習器に学習データを入力した場合に出力される各出力データと当該学習データとの間の誤差に基づいて当該学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて当該第2の重み係数を学習する学習部と
    を備えたことを特徴とする学習装置。
  2. 前記生成部は、
    前記第2の重み係数として、前記第1の重み係数を分割して分類に依存する依存係数と依存しない非依存係数とを生成し、
    前記学習部は、
    前記依存係数に対応する分類に属する学習データを用いて前記依存係数を学習し、また、全学習データを用いて前記非依存係数を学習する
    ことを特徴とする請求項1に記載の学習装置。
  3. 前記学習部は、
    前記第2の重み係数のうち分類に依存する依存係数に対応する新規学習データを用いて当該依存係数を学習する
    ことを特徴とする請求項1または2に記載の学習装置。
  4. 前記学習部は、
    前記学習データを用いて、前記第2の重み係数の線形結合を示す線形結合係数を学習する
    ことを特徴とする請求項1〜3のいずれか一つに記載の学習装置。
  5. 前記生成部は、
    前記第1の重み係数に攪乱を加えることで前記第2の重み係数を生成する
    ことを特徴とする請求項1〜4のいずれか一つに記載の学習装置。
  6. 前記学習部は、
    前記各出力データと前記学習データとの間の誤差のうち誤差が最小となる出力データを出力する学習器に設定された第2の重み係数を、当該学習データを用いて学習する
    ことを特徴とする請求項1〜5のいずれか一つに記載の学習装置。
  7. 学習装置が実行する学習方法であって、
    入力データに対する演算結果を出力する複数のノードを接続した学習器であって所定の特徴を学習済みの学習器に含まれる前記複数のノード間に設定された所定の第1の重み係数を変形して複数の第2の重み係数を生成する生成工程と、
    前記生成工程によって生成された第2の重み係数が設定された各学習器に学習データを入力した場合に出力される各出力データと当該学習データとの間の誤差に基づいて当該学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて当該第2の重み係数を学習する学習工程と
    を含んだことを特徴とする学習方法。
  8. 入力データに対する演算結果を出力する複数のノードを接続した学習器であって所定の特徴を学習済みの学習器に含まれる前記複数のノード間に設定された所定の第1の重み係数を変形して複数の第2の重み係数を生成する生成手順と、
    前記生成手順によって生成された第2の重み係数が設定された各学習器に学習データを入力した場合に出力される各出力データと当該学習データとの間の誤差に基づいて当該学習データと対応する第2の重み係数を特定し、特定した第2の重み係数と対応する学習データを用いて当該第2の重み係数を学習する学習手順と
    をコンピュータに実行させることを特徴とする学習プログラム。
JP2014127414A 2014-06-20 2014-06-20 学習装置、学習方法及び学習プログラム Active JP6195542B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014127414A JP6195542B2 (ja) 2014-06-20 2014-06-20 学習装置、学習方法及び学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014127414A JP6195542B2 (ja) 2014-06-20 2014-06-20 学習装置、学習方法及び学習プログラム

Publications (2)

Publication Number Publication Date
JP2016006617A true JP2016006617A (ja) 2016-01-14
JP6195542B2 JP6195542B2 (ja) 2017-09-13

Family

ID=55225015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014127414A Active JP6195542B2 (ja) 2014-06-20 2014-06-20 学習装置、学習方法及び学習プログラム

Country Status (1)

Country Link
JP (1) JP6195542B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020049994A1 (ja) * 2018-09-03 2020-03-12 パナソニックIpマネジメント株式会社 電子密度推定方法、電子密度推定装置、及び電子密度推定プログラム
JP6812034B1 (ja) * 2020-02-01 2021-01-13 Assest株式会社 為替取引情報表示プログラム
JP2021515930A (ja) * 2018-03-07 2021-06-24 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 人工ニューラル・ネットワークにおける不確実性をシミュレートするためのコンピュータ実施方法、コンピュータ・システム、およびコンピュータ・プログラム
JP2021125219A (ja) * 2020-02-01 2021-08-30 Assest株式会社 不正株取引検出プログラム
JP2022024431A (ja) * 2020-07-28 2022-02-09 ニチコン株式会社 電解コンデンサ用電極箔およびその製造方法
US11288550B2 (en) 2018-01-30 2022-03-29 Fujifilm Corporation Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program
US11488023B2 (en) 2018-03-28 2022-11-01 Fujitsu Limited Adaptability calculation method, adaptability calculation device, identification method, identification device, and computer-readable recording medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254846A (ja) * 1997-03-14 1998-09-25 Nippon Telegr & Teleph Corp <Ntt> 回帰型神経回路網の学習方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254846A (ja) * 1997-03-14 1998-09-25 Nippon Telegr & Teleph Corp <Ntt> 回帰型神経回路網の学習方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11288550B2 (en) 2018-01-30 2022-03-29 Fujifilm Corporation Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program
US11829886B2 (en) 2018-03-07 2023-11-28 International Business Machines Corporation Epistemic and aleatoric deep plasticity based on sound feedback
JP7233807B2 (ja) 2018-03-07 2023-03-07 インターナショナル・ビジネス・マシーンズ・コーポレーション 人工ニューラル・ネットワークにおける不確実性をシミュレートするためのコンピュータ実施方法、コンピュータ・システム、およびコンピュータ・プログラム
JP2021515930A (ja) * 2018-03-07 2021-06-24 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 人工ニューラル・ネットワークにおける不確実性をシミュレートするためのコンピュータ実施方法、コンピュータ・システム、およびコンピュータ・プログラム
US11488023B2 (en) 2018-03-28 2022-11-01 Fujitsu Limited Adaptability calculation method, adaptability calculation device, identification method, identification device, and computer-readable recording medium
WO2020049994A1 (ja) * 2018-09-03 2020-03-12 パナソニックIpマネジメント株式会社 電子密度推定方法、電子密度推定装置、及び電子密度推定プログラム
CN112119466A (zh) * 2018-09-03 2020-12-22 松下知识产权经营株式会社 电子密度推定方法、电子密度推定装置及电子密度推定程序
JP7442055B2 (ja) 2018-09-03 2024-03-04 パナソニックIpマネジメント株式会社 電子密度推定方法、電子密度推定装置、及び電子密度推定プログラム
CN112119466B (zh) * 2018-09-03 2024-03-22 松下知识产权经营株式会社 电子密度推定方法、电子密度推定装置及电子密度推定程序
JP2021125219A (ja) * 2020-02-01 2021-08-30 Assest株式会社 不正株取引検出プログラム
JP2021124800A (ja) * 2020-02-01 2021-08-30 Assest株式会社 為替取引情報表示プログラム
WO2021153547A1 (ja) * 2020-02-01 2021-08-05 Assest株式会社 為替取引情報表示プログラム
JP6812034B1 (ja) * 2020-02-01 2021-01-13 Assest株式会社 為替取引情報表示プログラム
JP2022024431A (ja) * 2020-07-28 2022-02-09 ニチコン株式会社 電解コンデンサ用電極箔およびその製造方法

Also Published As

Publication number Publication date
JP6195542B2 (ja) 2017-09-13

Similar Documents

Publication Publication Date Title
JP6195542B2 (ja) 学習装置、学習方法及び学習プログラム
US20210342699A1 (en) Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation
CN110866190B (zh) 训练用于表征知识图谱的图神经网络模型的方法及装置
US11610131B2 (en) Ensembling of neural network models
US11106978B2 (en) Execution of a genetic algorithm with variable evolutionary weights of topological parameters for neural network generation and training
JP6612855B2 (ja) 出力分布による生徒dnnの学習
JP6567488B2 (ja) 学習データ生成装置、開発データ生成装置、モデル学習装置、それらの方法、及びプログラム
US20180025271A1 (en) Learning apparatus, identifying apparatus, learning and identifying system, and recording medium
US10346742B2 (en) Calculation device, calculation method, and recording medium
JP6646234B2 (ja) プログラム生成装置、プログラム生成方法および生成プログラム
GB2568363A (en) Rule determination for black-box machine-learning models
US20190073591A1 (en) Execution of a genetic algorithm having variable epoch size with selective execution of a training algorithm
CN108701253A (zh) 使用规范化的目标输出训练神经网络
US20190050723A1 (en) Methods and apparatus for training a neural network
US11462210B2 (en) Data collecting method and system
WO2017159403A1 (ja) 予測システム、方法およびプログラム
US11380301B2 (en) Learning apparatus, speech recognition rank estimating apparatus, methods thereof, and program
JP2022181204A (ja) ニューラルネットワークをトレーニングするためのコンピュータプログラムおよびコンピュータで実装される方法(混合された拡張済みデータセットを用いる音声異常検出)
Wang et al. Semantic knowledge guided class-incremental learning
US20240095535A1 (en) Executing a genetic algorithm on a low-power controller
CN111832693A (zh) 神经网络层运算、模型训练方法、装置及设备
Fourie et al. Generalised adaptive harmony search: a comparative analysis of modern harmony search
US20210042625A1 (en) Performance of neural networks using learned specialized transformation functions
JP6059594B2 (ja) 重み行列更新装置、その動作方法およびコンピュータプログラム
WO2022162839A1 (ja) 学習装置、学習方法、及び、記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170815

R150 Certificate of patent or registration of utility model

Ref document number: 6195542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250