JP2017058877A - 学習装置、音声検出装置、学習方法およびプログラム - Google Patents

学習装置、音声検出装置、学習方法およびプログラム Download PDF

Info

Publication number
JP2017058877A
JP2017058877A JP2015182167A JP2015182167A JP2017058877A JP 2017058877 A JP2017058877 A JP 2017058877A JP 2015182167 A JP2015182167 A JP 2015182167A JP 2015182167 A JP2015182167 A JP 2015182167A JP 2017058877 A JP2017058877 A JP 2017058877A
Authority
JP
Japan
Prior art keywords
unit
probability
neural network
output layer
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015182167A
Other languages
English (en)
Other versions
JP6509694B2 (ja
Inventor
悠 那須
Yu Nasu
悠 那須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015182167A priority Critical patent/JP6509694B2/ja
Priority to US15/257,463 priority patent/US10839288B2/en
Publication of JP2017058877A publication Critical patent/JP2017058877A/ja
Application granted granted Critical
Publication of JP6509694B2 publication Critical patent/JP6509694B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】少ない計算コストで事後確率を出力する。【解決手段】実施形態に係る学習装置は、入力信号が特定のクラスに属する事後確率を出力するニューラルネットワークを学習する。ニューラルネットワークの出力層は、それぞれのクラスに対応するN個のユニットと、1個の追加ユニットとを含む。学習装置は、伝播部と、確率算出部と、誤差算出部と、更新部とを備える。伝播部は、サンプル信号をニューラルネットワークに与え、出力層におけるそれぞれのユニットについてN+1個の入力値を取得する。確率算出部は、それぞれの入力値を関数に入力して、出力層のそれぞれのユニットに対応するN+1個の確率値を含む確率ベクトルを生成する。更新部は、N+1個の目標値を含む教師ベクトルと確率ベクトルとの誤差に基づきパラメータを更新する。追加ユニットに対応する目標値は、定数である。【選択図】図3

Description

本発明の実施形態は、学習装置、音声検出装置、学習方法およびプログラムに関する。
クラス分類をするニューラルネットワークが知られている。このようなニューラルネットワークは、入力信号がそれぞれのクラスに属する事後確率を出力する。
また、入力信号から特定の検索パターンと類似する部分を検出するパターン検出装置が知られている。例えば、パターン検出装置は、音声信号から「こんにちは」等の特定のキーワードを検出する。クラス分類をするニューラルネットワークは、このようなパターン検出装置に適用することができる。
ところで、ニューラルネットワークは、このようなパターン検出装置に適用された場合、検索パターンに関連するクラスの事後確率を出力すればよく、全てのクラスの事後確率を出力しなくてもよい。例えば、前後の音素との接続を考慮したトライフォンを用いた音素パラメータを用いて音声信号をクラス分類する場合、全てのクラスの数は、数千個となる。これに対して、例えば「こんにちは」等の単語を検出するために事後確率が必要なクラス数は、数個から数10個程度である。従って、このような場合には、ニューラルネットワークは、数個から数10程度のクラスの事後確率を出力すればよい。
しかし、クラス分類をするニューラルネットワークは、出力層の活性化関数にsoftmax関数を用いる。softmax関数は、入力層および隠れ層に用いられるsigmoid関数とは異なり、全てのユニットに対応する入力値に基づき1つのユニットの出力値を決定しなければならない。
従って、パターン検出装置に適用されるニューラルネットワークは、特定のクラスについての事後確率を出力すればよいにも関わらず、全てのユニットに対応する入力値を算出しなければならなかった。このため、このようなパターン検出装置に適用されるニューラルネットワークは、出力層での計算コストが多くなってしまっていた。
J.Devlin, R.Zbib,Z.Huang, T.Lamar, R.Schwartz and J.Makhoul, "Fast and robust neural network joint models for statistical machine translation", Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp.1370-1380, 2014
本発明が解決しようとする課題は、少ない計算コストで入力信号が特定のクラスに属する事後確率を出力させるように、ニューラルネットワークを学習することにある。
実施形態に係る学習装置は、入力信号が特定のクラスに属する事後確率を出力するニューラルネットワークを学習する。前記ニューラルネットワークの出力層は、それぞれのクラスに対応するN個(Nは2以上の整数)のユニットと、1個の追加ユニットとを含む。前記学習装置は、伝播部と、確率算出部と、誤差算出部と、更新部とを備える。前記伝播部は、サンプル信号を前記ニューラルネットワークに与え、前記出力層におけるそれぞれのユニットについて、直前の層から出力された信号を設定されたパラメータに従って結合したN+1個の入力値を取得する。前記確率算出部は、それぞれの前記入力値を事後確率を算出するための関数に入力して、前記出力層のそれぞれのユニットに対応するN+1個の確率値を含む確率ベクトルを生成する。前記誤差算出部は、前記出力層のそれぞれのユニットに対応するN+1個の目標値を含む教師ベクトルと、前記確率ベクトルとの誤差を算出する。前記更新部は、前記誤差を小さくするように前記ニューラルネットワークに含まれるパラメータを更新する。前記教師ベクトルにおける前記追加ユニットに対応する目標値は、予め定められた定数である。
実施形態に係る音声検出装置の構成図。 ニューラルネットワークの各層を説明するための図。 学習装置の機能構成を示す図。 学習装置の処理フローを示す図。 学習装置のハードウェア構成を示す図。
以下、図面を参照しながら実施形態について詳細に説明する。
図1は、実施形態に係る音声検出装置10の構成を示す図である。音声検出装置10は、音声信号から指定された検索パターンと類似する部分を検出する。例えば、音声検出装置10は、音声信号から「こんにちは」等の特定のキーワードを検出する。
音声検出装置10は、分析部12と、スコア算出部14と、ニューラルネットワーク20と、検出部22と、学習装置30とを備える。
分析部12は、音声信号を入力し、入力した音声信号を、音声の音響的な特徴を表すパラメータの系列に変換して出力する。例えば、分析部12は、一定期間毎に、MFCC(メル周波数ケプストラム係数)の音声パラメータ系列を出力する。分析部12は、信号の入力開始時点から終了時点まで連続して音声パラメータ系列を出力してもよいし、逐次的に音声パラメータ系列を出力してもよい。また、分析部12は、信号を一旦全て蓄積したのちにオフラインで分析して音声パラメータ系列を出力してもよいし、入力される信号をリアルタイムで分析して音声パラメータ系列を出力してもよい。
スコア算出部14は、音声パラメータ系列に含まれるそれぞれの音声パラメータについて、検索パターンにおける発生のしやすさを表すスコアを算出する。より具体的には、スコア算出部14は、それぞれの音声パラメータをニューラルネットワーク20に与え、与えた音声パラメータが特定のクラスに属する事後確率をニューラルネットワーク20から取得し、取得した事後確率をスコアとして出力する。なお、本実施形態においては、スコア算出部14は、自然対数により対数化した事後確率(対数事後確率)をニューラルネットワーク20から取得する。
ニューラルネットワーク20は、入力信号として音声パラメータを分析部12から取得する。ニューラルネットワーク20は、入力信号が、N個(Nは2以上の整数)のクラスのうちの特定のクラスに属する対数事後確率を出力する。本実施形態においては、特定のクラスは、検索パターンに属する1以上のクラスである。
ニューラルネットワーク20は、特定のクラス以外のクラスについては、対数事後確率を出力しない(例えば、0または最低値を出力する)。例えば、音声信号から「こんにちは」等のキーワードを検出する場合、ニューラルネットワーク20は、入力信号がトライフォンで表された音声パラメータであれば、数個から数10個程度のクラスについて対数事後確率を出力し、他のクラスについての対数事後確率を出力しない。
検出部22は、スコア算出部14により算出されたスコアに基づき、音声信号に検索パターンが含まれているかを検出する。より具体的には、検出部22は、音声パラメータ系列中の部分系列と検索パターンとの類似度を算出し、算出した類似度が予め設定された閾値を超えている場合に、その部分系列が検索パターンと類似していると判定する。例えば、部分系列と検索パターンとの類似度は、部分系列に含まれる全てのスコアを累積した累積スコアにより表される。例えば、検索パターンがHMM(隠れマルコフモデル)である場合、検出部22は、動的計画法等のマッチングアルゴリズムを用いて、HMMのそれぞれのパスについて部分系列が検索パターンに類似しているかを判定する。
検出部22は、音声信号に検索パターンが含まれていると判定した場合、フラグ等を外部に出力する。これにより、音声検出装置10は、指定された検索パターンと類似する部分を検出したことを外部に通知することができる。
図2は、ニューラルネットワーク20の各層を説明するための図である。ニューラルネットワーク20は、直列に接続された複数の層を有し、層と層との間でベクトルを伝達する。順伝播型の場合、ニューラルネットワーク20は、例えば、入力層40と、1以上の隠れ層42と、出力層44とを有する。ニューラルネットワーク20は、隠れ層42が無い構成であってもよい。そして、ニューラルネットワーク20は、入力信号を入力層40から順方向に伝播させて、出力層44からN個のクラスのそれぞれに対応したN個の出力値y,y,…,yを出力する。出力値y,y,…,yは、入力信号がN個のクラスのそれぞれのクラスに属する事後確率の推定値を表す。
出力層44は、それぞれのクラスに対応するN個のユニットと、1個の追加ユニットとを含む。また、出力層44は、直前の層から、M個(Mは1以上の整数)の要素o,o,…,oを含むベクトルを取得する。続いて、出力層44は、M個の要素o,o,…,oを予め設定されたパラメータに基づき結合して、N+1個のユニットのそれぞれに対応したN+1個の入力値x,x,…,x,xN+1を生成する。そして、出力層44は、N+1個の入力値x,x,…,x,xN+1を予め設定された関数に与えて、N個のクラスのそれぞれに対応したN個の出力値y,y,…,yを出力する。
具体的には、出力層44は、下記の式(11)、式(12)に示す演算を実行する。変数に付けられたオーバラインは、ベクトルであることを表す。f()は、出力層44において用いる関数を表す。
Figure 2017058877
また、ベクトルxは、下記の式(13)により表される。ベクトルyは、下記の式(14)により表される。
Figure 2017058877
なお、ベクトルx,yに含まれる要素の位置を表すインデックスのうち、1以上N以下の値は、N個のクラスに対応するユニットの番号を指す。従って、xは(cは、1以上N以下の整数)、c番目のクラスのユニットに対応する入力値を表す。また、yは、c番目のクラスのユニットに対応する出力値を表す。また、ベクトルx,yに含まれる要素のインデックスのうち、N+1の値は、追加ユニットの番号を指す。従って、xN+1は、追加ユニットに対応する入力値を表す。
また、ベクトルoは、下記の式(15)により表される。
Figure 2017058877
なお、ベクトルoに含まれる要素の位置を表すインデックスは、出力層44の直前の層のユニットの番号を指す。
また、2次元行列W、および、ベクトルbは、下記の式(16)および式(17)により表される。
Figure 2017058877
行列Wは、それぞれのユニットに設定された結合の重みを表すパラメータである。また、ベクトルbは、それぞれのユニットに設定されたバイアスを表すパラメータである。これらのパラメータは、学習により更新される。より詳しくは、行列Wの要素wi,jは、出力層44の直前の層のj番目のユニットから、出力層44のi番目のユニットへ伝達する値に乗ずる重みを表す。また、ベクトルbの要素bは、出力層44のi番目のユニットに設定されたバイアスを表す。
c番目のクラスのユニットに対応する入力値xは、下記の式(18)により表される。
Figure 2017058877
ここで、本実施形態において、出力層44において用いる関数は、下記の式(21)により表される。
Figure 2017058877
従って、c番目のクラスのユニットに対応する出力値yは、c番目のクラスのユニットに対応する入力値xから、追加ユニットに対応する入力値xN+1を減算した値となる。
この出力値yは、ニューラルネットワーク20に入力信号が、c番目のクラスに属する対数事後確率(logp(c|o))の推定値を表す。
本実施形態に係るニューラルネットワーク20は、出力層44においてこのような関数を用いるので、c番目のクラスの対数事後確率の算出をするために、c番目のクラスのユニットに対応する入力値xと、追加ユニットに対する入力値xN+1とを演算すればよい。従って、ニューラルネットワーク20は、c番目のクラスの対数事後確率の算出をするために、softmax関数のような全ての入力値を用いた演算をしなくてよいので、計算コストを少なくすることができる。
例えば、音声信号から「こんにちは」等の特定のキーワードの部分を検出する場合、ニューラルネットワーク20は、数千個のクラスのうちの、数個から数10個程度の対数事後確率を出力すればよい。従って、ニューラルネットワーク20は、数千個の大半のクラスの対数事後確率を算出しなくてよいので、大幅に計算コストを削減することができる。
なお、実際の動作時には、ニューラルネットワーク20は、対数事後確率を算出する必要のあるユニットの機能を実行していれば、他のユニット(対数事後確率を算出するために用いられないユニット)の機能を停止してもよい。つまり、ニューラルネットワーク20は、出力層44における特定のクラスに対応するユニットおよび追加ユニットの機能を実行していれば、出力層44における特定のクラス以外のクラスに対応するユニットの機能を停止してもよい。
なお、ニューラルネットワーク20がこのような関数を用いてそれぞれのクラスに対応する対数事後確率が算出できる理由については詳細を後述する。
図3は、学習装置30の機能構成をニューラルネットワーク20とともに示す図である。
ニューラルネットワーク20は、構造記憶部46と、パラメータ記憶部48とを有する。構造記憶部46は、ニューラルネットワーク20の層構造および層間のユニットの接続関係を表す構造情報を記憶する。パラメータ記憶部48は、直前の層から出力されたベクトルの要素を結合して、次の層の入力値を含むベクトルを生成するための結合用のパラメータを、層毎に記憶する。本実施形態においては、ニューラルネットワーク20は、それぞれの層毎に、それぞれのユニットに設定された結合の重み行列を表すパラメータ、および、それぞれのユニットに設定されたバイアスを表すパラメータを記憶する。
学習装置30は、ニューラルネットワーク20に記憶された結合用のパラメータを学習する。本実施形態においては、学習装置30は、ニューラルネットワーク20のパラメータ記憶部48に記憶されたパラメータを学習する。
学習装置30は、訓練データ記憶部52と、変換部54と、伝播部56と、確率算出部58と、誤差算出部60と、更新部62と、収束判定部64とを有する。
訓練データ記憶部52は、ニューラルネットワーク20に与えるサンプル信号と、変換前教師ベクトルとの組を記憶する。訓練データ記憶部52は、サンプル信号と変換前教師ベクトルとの組を複数セット記憶してもよい。
サンプル信号は、N個のクラスのうちの特定のクラスに属することが予めわかっている入力信号の一例である。変換前教師ベクトルは、対応するサンプル信号を分類した場合に、ニューラルネットワーク20から出力されるべきN個の目標値r,r,…,rを要素として含むベクトルである。
本実施形態においては、変換前教師ベクトルは、1−of−k符号化によるベクトルで表される。すなわち、サンプル信号がc番目のクラスに属する場合、変換前教師ベクトルは、下記の式(31)により表される。
Figure 2017058877
つまり、変換前教師ベクトルは、正解のクラスに対応する目標値rが1であり、他のクラスの目標値が全て0であるベクトルである。
変換部54は、N個の目標値r,r,…,rを含む変換前教師ベクトルを、N+1個の目標値r´,r´,…,r´,r´N+1を含む教師ベクトルに変換する。具体的には、変換部54は、変換前教師ベクトルに、追加ユニットに対応する要素を追加する。そして、変換部54は、正解のクラスに対応する要素を1/2に設定する。さらに、変換部54は、追加ユニットに対応する要素を、定数である1/2に設定する。
具体的には、教師ベクトルは、下記の式(32)により表される。
Figure 2017058877
このような教師ベクトルは、それぞれのクラスに対応する目標値が、サンプル信号がクラスに属する確率に基づく値であり、追加ユニットに対応する目標値r´N+1が、予め定められた定数である。
より具体的には、教師ベクトルは、それぞれの目標値が0以上であり、全ての目標値の和が1である。さらに、教師ベクトルは、正解クラスに対応する目標値r´が1/2であり、追加ユニットr´N+1に対応する目標値が1/2であり、他の目標値が0である。
なお、訓練データ記憶部52は、変換前教師ベクトルに代えて、変換後の教師ベクトルをサンプル信号と組にして記憶してもよい。この場合、学習装置30は、変換部54を有さない構成となる。
伝播部56は、ニューラルネットワーク20の構造情報およびパラメータを取得し、サンプル信号をニューラルネットワーク20の入力層から順方向に伝播させる。伝播部56は、出力層44におけるそれぞれのユニットについて、直前の層から出力された信号を設定されたパラメータに従って結合したN+1個の入力値x,x,…,x,xN+1を取得する。そして、伝播部56は、下記の式(33)に示すような、N+1個の入力値x,x,…,x,xN+1を含む入力ベクトルを出力する。
Figure 2017058877
確率算出部58は、伝播部56から入力ベクトルを取得する。確率算出部58は、それぞれの入力値を事後確率を算出するための関数に入力して、出力層44のそれぞれのユニットに対応するN+1個の確率値y´,y´,…,y´,y´N+1を含む確率ベクトルを生成する。本実施形態においては、確率算出部58は、それぞれの入力値x,x,…,x,xN+1をsoftmax関数に入力して、N+1個の確率値y´,y´,…,y´,y´N+1を生成する。具体的には、確率算出部58は、下記の式(34)のような演算をして、i番目の確率値y´を算出する。
Figure 2017058877
そして、確率算出部58は、下記の式(35)に示すような確率ベクトルを出力する。
Figure 2017058877
誤差算出部60は、N+1個の目標値r´,r´,…,r´,r´N+1を含む教師ベクトルと、N+1個の確率値y´,y´,…,y´,y´N+1を含む確率ベクトルとの誤差Eを算出する。本実施形態において、誤差算出部60は、cross−entropy誤差を算出する。具体的には、誤差算出部60は、下記の式(36)に示すような演算をして、誤差Eを算出する。
Figure 2017058877
更新部62は、誤差算出部60により算出された誤差Eを小さくするように、ニューラルネットワーク20に含まれるパラメータを更新する。具体的には、更新部62は、パラメータ記憶部48に記憶された、それぞれのユニットに設定された結合の重みベクトルを表すパラメータ、および、それぞれのユニットに設定されたバイアスを表すパラメータを更新する。
本実施形態においては、更新部62は、誤差逆伝播法によりパラメータを更新する。すなわち、更新部62は、誤差Eをニューラルネットワーク20の出力層44から逆方向に伝播させて、誤差Eを小さくするようにそれぞれの層のパラメータを更新する。更新部62は、他の方法によりパラメータを更新してもよい。
収束判定部64は、更新部62によりパラメータを更新した結果、パラメータの更新が収束したか否かを判定する。収束判定部64は、パラメータの更新が収束したと判定した場合、現在のサンプル信号および教師ベクトルを用いた学習を終了する。収束判定部64は、パラメータの更新が収束していないと判定した場合、伝播部56に処理を戻す。伝播部56は、収束判定部64から処理が戻された場合、同一のサンプル信号をニューラルネットワーク20に与えて再度処理を実行する。
図4は、学習装置30の処理フローを示す図である。学習装置30は、図4に示すフローに従って処理を実行する。
まず、学習装置30は、ニューラルネットワーク20のパラメータを初期化する(S11)。続いて、変換部54は、N個の目標値r,r,…,rを含む変換前教師ベクトルから、N+1個の目標値r´,r´,…,r´,r´N+1を含む教師ベクトルに生成する(S12)。
続いて、伝播部56は、サンプル信号をニューラルネットワーク20の入力層から順方向に伝播させる。そして、伝播部56は、N+1個の入力値x,x,…,x,xN+1を含む入力ベクトルを出力する(S13)。
続いて、確率算出部58は、入力ベクトルに含まれるそれぞれの入力値x,x,…,x,xN+1をsoftmax関数に入力して、N+1個の確率値y´,y´,…,y´,y´N+1を生成する(S14)。続いて、誤差算出部60は、N+1個の目標値r´,r´,…,r´,r´N+1を含む教師ベクトルと、N+1個の確率値y´,y´,…,y´,y´N+1を含む確率ベクトルとの間のcross−entropy誤差Eを算出する(S15)。
続いて、更新部62は、誤差Eをニューラルネットワーク20の出力層44から逆方向に伝播させて、誤差Eを小さくするようにニューラルネットワーク20のそれぞれの層のパラメータを更新する(S16)。続いて、収束判定部64は、パラメータを更新した結果、パラメータの更新が収束したか否かを判定する(S17)。収束判定部64は、パラメータの更新が収束したと判定した場合(S17のYes)、本フローを終了する。収束判定部64は、パラメータの更新が収束していないと判定した場合(S17のNo)、処理をステップS13に戻し、ステップS13から処理を繰り返して実行させる。
以上のような学習装置30によれば、少ない計算コストで入力信号が特定のクラスに属する事後確率を出力させるように、ニューラルネットワーク20を学習することができる。
なお、本実施形態に係るニューラルネットワーク20は、音声検出に限らず他の装置にも適用することができる。例えば、入力画像に特定の物体が含まれているかどうかを判定する装置、入力コンテキストにおける特定単語の生起確率を評価する装置等にも適用することができる。
(ニューラルネットワーク20の出力層44において用いる関数)
つぎに、ニューラルネットワーク20の出力層44において用いる関数について説明する。
Nクラス分類を行う従来のニューラルネットワークは、通常、出力層のユニット数をクラス数Nと一致させ、N次元の要素を含む出力ベクトルを出力する。入力信号oがこのようなニューラルネットワークに与えられた場合、N次元の出力ベクトルのc番目の要素y(1≦c≦N)は、入力信号oがc番目のクラスに属する事後確率p(c|o)を表す。
このようなニューラルネットワークの出力層では、一般に、活性化関数として、下記の式(41)に示すようなsoftmax関数が用いられる。softmax関数は、入力ベクトルに対して、要素毎に指数関数を適用し、要素毎の出力値の和を1に正規化する関数である。
Figure 2017058877
出力層でsoftmax関数を用いるニューラルネットワークの学習は、一般に、目的関数としてcross−entropy誤差を用いて、誤差逆伝播法によって行われる。cross−entropy誤差は、下記の式(42)に表される。
Figure 2017058877
式(42)のrは、教師ベクトルである。多くの場合、教師ベクトルrには、1−of−k符号化によるベクトルが用いられる。
式(41)から、入力信号がc番目のクラスに属する対数事後確率logp(c|o)は、下記の式(43)のように表される。
Figure 2017058877
ニューラルネットワークを適用する用途によっては、出力ベクトルに含まれる全ての要素を算出することは不要であり、特定のc番目のクラスについて対数事後確率logp(c|o)を算出する場合がある。例えば、入力画像に特定の物体が含まれているかどうかを判定したい場合、入力音声中に特定のキーワードが含まれているかどうかを判定したい場合、入力コンテキストにおける特定単語の生起確率を評価したい場合等である。
しかし、式(43)では、特定のc番目のクラスについて対数事後確率logp(c|o)を算出する場合であっても、正規化するための項であるlogZ(x)を、N次元の入力ベクトルの全ての要素を用いて演算をしなければならない。従って、Nが大きい場合、演算コストが大きくなる。
Nクラス分類を行う従来のニューラルネットワークは、出力層のユニット数をNとする。しかし、以下では、出力層に、N個のクラスにそれぞれ対応するN個のユニットと、logZ(x)の推定値に対応する1個の追加ユニットとを有するニューラルネットワークを学習することを考える。なお、出力層におけるc番目のクラスに対応するユニットのインデックスをc、logZ(x)の推定値に対応する追加ユニットのインデックスをN+1とする。
出力層にN+1個のユニットを有するニューラルネットワークでは、下記の式(44)のようなN+1次元のベクトルが関数に与えられることが期待される。
Figure 2017058877
式(44)に示す入力ベクトルをsoftmax関数に入力した場合、下記の式(45)に示すようなベクトルが出力されることが期待される。
Figure 2017058877
従って、下記の式(46)に示すような教師ベクトルを用いることにより、式(45)に示すようなベクトルを出力するニューラルネットワークを学習することができる。
Figure 2017058877
式(46)に示す教師ベクトルの1番目からN番目までの要素は、サンプル信号によって異なる。しかし、式(46)に示す教師ベクトルのN+1番目の要素は、全てのサンプル信号について定数(=1/2)となる。
従って、学習装置30は、出力層の追加ユニットに対応する要素を定数(=1/2)とすることにより、正規化項(logZ(x))の推定値を学習することができる。そして、式(46)の教師ベクトルを用いて学習したニューラルネットワークは、式(44)で示したようN+1個の入力値を含む入力ベクトルを生成することができる。
以上から、本実施形態に係るニューラルネットワーク20は、c番目のクラスの対数事後確率logp(c|o)の推定値を、下記の式(47)のように算出することができる。
Figure 2017058877
式(47)によって算出された対数事後確率の推定値は、入力ベクトルのうちの2つの要素しか用いずに算出される。従って、実施形態に係るニューラルネットワーク20によれば、小さい計算コストで入力信号が特定のクラスに属する対数事後確率を算出することができる。
学習装置30によって学習したニューラルネットワーク20を用いて、入力信号が特定のクラスに属する対数事後確率を推定する方法についてさらに説明する。
出力層44の直前の層からM個の要素o,o,…,oを含むベクトルが出力される。また、出力層44のパラメータは、N+1行×M列の重みwを含む行列と、N+1個のバイアスbとを含む。
この場合、出力層44において用いる関数に与えられる入力ベクトルは、下記の式(51)により表される。
Figure 2017058877
ニューラルネットワーク20の出力層44において用いる関数は、上述した式(47)により表される。式(47)の関数に、式(51)により表される入力ベクトルを代入すると、下記の式(52)のように式変形される。
Figure 2017058877
従って、本実施形態に係るニューラルネットワーク20は、出力層44において式(52)を演算することにより、c番目のクラスの対数事後確率の推定値を算出することができる。なお、N個のクラスのうち一部についてのみ対数事後確率の推定値を算出すればよい場合、ニューラルネットワーク20は、学習して得られた重みWおよびバイアスbのうち、対数事後確率の推定値を算出する必要がないクラスに対応するパラメータを記憶しなくてよい。これにより、ニューラルネットワーク20は、メモリ量を削減することができる。
また、重みの差分のベクトルは、下位の式(53)のように表される。また、バイアスの差分のベクトルは、式(54)のように表される。
Figure 2017058877
式(53)に示す重みの差分のベクトルは、学習終了後において算出することができる。また、式(54)に示すバイアスの差分のベクトルも、学習後において算出することができる。
従って、ニューラルネットワーク20は、学習後において予め算出された式(53)に示す重みの差分のベクトルおよび式(54)に示すバイアスの差分のベクトルを記憶しておくことにより、出力層44において下記の式(55)を演算してc番目のクラスの対数事後確率の推定値を算出することができる。
Figure 2017058877
このようなニューラルネットワーク20は、式(55)の演算により対数事後確率の推定値を算出することにより、分類時における計算コストおよびメモリ量を少なくすることができる。
(ハードウェア構成)
図5は、実施形態に係る学習装置30のハードウェア構成の一例を示す図である。本実施形態に係る学習装置30は、例えば図5に示すようなハードウェア構成の情報処理装置により実現される。この情報処理装置は、CPU(Central Processing Unit)201と、RAM(Random Access Memory)202と、ROM(Read Only Memory)203と、操作入力装置204と、表示装置205と、記憶装置206と、通信装置207とを備える。そして、これらの各部は、バスにより接続される。
CPU201は、プログラムに従って演算処理および制御処理等を実行するプロセッサである。CPU201は、RAM202の所定領域を作業領域として、ROM203および記憶装置206等に記憶されたプログラムとの協働により各種処理を実行する。
RAM202は、SDRAM(Synchronous Dynamic Random Access Memory)等のメモリである。RAM202は、CPU201の作業領域として機能する。ROM203は、プログラムおよび各種情報を書き換え不可能に記憶するメモリである。
操作入力装置204は、マウスおよびキーボード等の入力デバイスである。操作入力装置204は、ユーザから操作入力された情報を指示信号として受け付け、指示信号をCPU201に出力する。
表示装置205は、LCD(Liquid Crystal Display)等の表示デバイスである。表示装置205は、CPU201からの表示信号に基づいて、各種情報を表示する。
記憶装置206は、フラッシュメモリ等の半導体による記憶媒体、または、磁気的若しくは光学的に記録可能な記憶媒体等にデータを書き込みおよび読み出しをする装置である。記憶装置206は、CPU201からの制御に応じて、記憶媒体にデータの書き込みおよび読み出しをする。通信装置207は、CPU201からの制御に応じて外部の機器とネットワークを介して通信する。
本実施形態の学習装置30で実行されるプログラムは、変換モジュール、伝播モジュール、確率算出モジュール、誤差算出モジュール、更新モジュールおよび収束判定モジュールを含むモジュール構成となっている。このプログラムは、CPU201(プロセッサ)によりRAM202上に展開して実行されることにより、情報処理装置を変換部54、伝播部56、確率算出部58、誤差算出部60、更新部62および収束判定部64として機能させる。
なお、学習装置30は、このような構成に限らず、変換部54、伝播部56、確率算出部58、誤差算出部60、更新部62および収束判定部64の少なくとも一部をハードウェア回路(例えば半導体集積回路)により実現した構成であってもよい。
また、本実施形態の学習装置30で実行されるプログラムは、コンピュータにインストール可能な形式または実行可能な形式のファイルで、CD−ROM、フレキシブルディスク、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態の学習装置30で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の学習装置30で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、学習装置30で実行されるプログラムを、ROM203等に予め組み込んで提供するように構成してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 音声検出装置
12 分析部
14 スコア算出部
20 ニューラルネットワーク
22 検出部
30 学習装置
40 入力層
42 隠れ層
44 出力層
46 構造記憶部
48 パラメータ記憶部
52 訓練データ記憶部
54 変換部
56 伝播部
58 確率算出部
60 誤差算出部
62 更新部
64 収束判定部

Claims (13)

  1. 入力信号が特定のクラスに属する事後確率を出力するニューラルネットワークを学習する学習装置であって、
    前記ニューラルネットワークの出力層は、それぞれのクラスに対応するN個(Nは2以上の整数)のユニットと、1個の追加ユニットとを含み、
    前記学習装置は、
    サンプル信号を前記ニューラルネットワークに与え、前記出力層におけるそれぞれのユニットについて、直前の層から出力された信号を設定されたパラメータに従って結合したN+1個の入力値を取得する伝播部と、
    それぞれの前記入力値を前記事後確率を算出するための関数に入力して、前記出力層のそれぞれのユニットに対応するN+1個の確率値を含む確率ベクトルを生成する確率算出部と、
    前記出力層のそれぞれのユニットに対応するN+1個の目標値を含む教師ベクトルと、前記確率ベクトルとの誤差を小さくするように、前記ニューラルネットワークに含まれるパラメータを更新する更新部と、
    を備え、
    前記追加ユニットに対応する目標値は、予め定められた定数である
    学習装置。
  2. 前記教師ベクトルは、それぞれのクラスに対応する目標値が、前記サンプル信号が前記クラスに属する確率に基づく値である
    請求項1に記載の学習装置。
  3. 前記教師ベクトルは、それぞれの目標値が0以上であり、全ての目標値の和が1であり、前記追加ユニットに対応する目標値が1/2である
    請求項2に記載の学習装置。
  4. 前記教師ベクトルは、正解クラスに対応する目標値が1/2であり、前記追加ユニットに対応する目標値が1/2であり、他の目標値が0である
    請求項3に記載の学習装置。
  5. 前記伝播部は、前記サンプル信号を前記ニューラルネットワークの入力層から順方向に伝播させて、N+1個の前記入力値を取得する
    請求項1から4の何れか1項に記載の学習装置。
  6. 前記更新部は、前記誤差を前記ニューラルネットワークの前記出力層から逆方向に伝播させて、前記誤差を小さくするようにそれぞれの層のパラメータを更新する
    請求項5に記載の学習装置。
  7. 前記出力層のそれぞれのユニットに対応するN+1個の目標値を含む教師ベクトルと、前記確率ベクトルとの誤差を算出する誤差算出部をさらに備える
    請求項1から6の何れか1項に記載の学習装置。
  8. 前記確率算出部は、それぞれの前記入力値をsoftmax関数に入力して、N+1個の確率値を含む前記確率ベクトルを生成する
    請求項7に記載の学習装置。
  9. 前記誤差算出部は、cross−entropy誤差を算出する
    請求項8に記載の学習装置。
  10. 前記ニューラルネットワークの前記出力層のそれぞれのユニットは、当該ユニットに対応する前記入力値から、前記追加ユニットに対応する前記入力値を減算する関数により、前記入力信号が当該ユニットに対応するクラスに属する前記事後確率の確率値を算出する
    請求項9に記載の学習装置。
  11. 音声信号から指定された検索パターンと類似する部分を検出する音声検出装置であって、
    前記音声信号を音声パラメータ系列に変換する分析部と、
    前記音声パラメータ系列に含まれるそれぞれの音声パラメータについて、検索パターンにおける発生のしやすさを表すスコアを前記ニューラルネットワークを用いて算出するスコア算出部と、
    前記スコアに基づき、前記音声信号に前記検索パターンが含まれているかを検出する検出部と、
    前記ニューラルネットワークを学習する、請求項1から10の何れか1項に記載の学習装置と、
    を備える音声検出装置。
  12. 入力信号が特定のクラスに属する事後確率を出力するニューラルネットワークを学習する学習方法であって、
    前記ニューラルネットワークの出力層は、それぞれのクラスに対応するN個(Nは2以上の整数)のユニットと、1個の追加ユニットとを含み、
    サンプル信号を前記ニューラルネットワークに与え、前記出力層におけるそれぞれのユニットについて、直前の層から出力された信号を設定されたパラメータに従って結合したN+1個の入力値を取得する伝播ステップと、
    それぞれの前記入力値を前記事後確率を算出するための関数に入力して、前記出力層のそれぞれのユニットに対応するN+1個の確率値を含む確率ベクトルを生成する確率算出ステップと、
    前記出力層のそれぞれのユニットに対応するN+1個の目標値を含む教師ベクトルと、前記確率ベクトルとの誤差を小さくするように、前記ニューラルネットワークに含まれるパラメータを更新する更新ステップと、
    を実行し、
    前記追加ユニットに対応する目標値は、予め定められた定数である
    学習方法。
  13. 情報処理装置を、入力信号が特定のクラスに属する事後確率を出力するニューラルネットワークを学習する学習装置として機能させるためのプログラムであって、
    前記ニューラルネットワークの出力層は、それぞれのクラスに対応するN個(Nは2以上の整数)のユニットと、1個の追加ユニットとを含み、
    前記学習装置を
    サンプル信号を前記ニューラルネットワークに与え、前記出力層におけるそれぞれのユニットについて、直前の層から出力された信号を設定されたパラメータに従って結合したN+1個の入力値を取得する伝播部と、
    それぞれの前記入力値を前記事後確率を算出するための関数に入力して、前記出力層のそれぞれのユニットに対応するN+1個の確率値を含む確率ベクトルを生成する確率算出部と、
    前記出力層のそれぞれのユニットに対応するN+1個の目標値を含む教師ベクトルと、前記確率ベクトルとの誤差を小さくするように、前記ニューラルネットワークに含まれるパラメータを更新する更新部と、
    して機能させ、
    前記追加ユニットに対応する目標値は、予め定められた定数である
    プログラム。
JP2015182167A 2015-09-15 2015-09-15 学習装置、音声検出装置、学習方法およびプログラム Active JP6509694B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015182167A JP6509694B2 (ja) 2015-09-15 2015-09-15 学習装置、音声検出装置、学習方法およびプログラム
US15/257,463 US10839288B2 (en) 2015-09-15 2016-09-06 Training device, speech detection device, training method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015182167A JP6509694B2 (ja) 2015-09-15 2015-09-15 学習装置、音声検出装置、学習方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017058877A true JP2017058877A (ja) 2017-03-23
JP6509694B2 JP6509694B2 (ja) 2019-05-08

Family

ID=58236944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015182167A Active JP6509694B2 (ja) 2015-09-15 2015-09-15 学習装置、音声検出装置、学習方法およびプログラム

Country Status (2)

Country Link
US (1) US10839288B2 (ja)
JP (1) JP6509694B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139651A (ja) * 2018-02-14 2019-08-22 Kddi株式会社 未知の複数次元のベクトルデータ群をクラス分類するプログラム、装置及び方法
JP2019164618A (ja) * 2018-03-20 2019-09-26 株式会社東芝 信号処理装置、信号処理方法およびプログラム
JP2020112483A (ja) * 2019-01-15 2020-07-27 春江 姚 外観検査システム、計算モデル構築方法及び計算モデル構築プログラム
JP2020201731A (ja) * 2019-06-11 2020-12-17 日本放送協会 畳み込みニューラルネットワーク学習装置およびそのプログラム
KR20210089430A (ko) * 2020-01-08 2021-07-16 한국전자통신연구원 간접광고를 포함한 뉴스 기사 생성 시스템 및 방법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6461660B2 (ja) * 2015-03-19 2019-01-30 株式会社東芝 検出装置、検出方法およびプログラム
US10832129B2 (en) * 2016-10-07 2020-11-10 International Business Machines Corporation Transfer of an acoustic knowledge to a neural network
US10762423B2 (en) 2017-06-27 2020-09-01 Asapp, Inc. Using a neural network to optimize processing of user requests
JP7077746B2 (ja) * 2018-04-24 2022-05-31 日本電信電話株式会社 学習装置、学習方法及び学習プログラム
US10893495B2 (en) * 2019-02-06 2021-01-12 Nokia Technologies Oy Method and apparatus for providing timing synchronization
US11037547B2 (en) 2019-02-14 2021-06-15 Tencent America LLC Token-wise training for attention based end-to-end speech recognition
US11455144B1 (en) * 2019-11-21 2022-09-27 Xilinx, Inc. Softmax calculation and architecture using a modified coordinate rotation digital computer (CORDIC) approach
CN111858221B (zh) * 2020-07-28 2024-09-27 中国科学院微电子研究所 基于神经网络的高效指令测试序列生成方法及装置
CN112116143B (zh) * 2020-09-14 2023-06-13 贵州大学 一种基于神经网络的森林虫害发生概率计算处理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566796A (ja) * 1991-09-09 1993-03-19 Sanyo Electric Co Ltd 音声認識装置および音声パターン正規化装置
JP2015095212A (ja) * 2013-11-14 2015-05-18 株式会社デンソーアイティーラボラトリ 識別器、識別プログラム、及び識別方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02195400A (ja) * 1989-01-24 1990-08-01 Canon Inc 音声認識装置
US5317673A (en) * 1992-06-22 1994-05-31 Sri International Method and apparatus for context-dependent estimation of multiple probability distributions of phonetic classes with multilayer perceptrons in a speech recognition system
JPH10198645A (ja) 1997-01-07 1998-07-31 Nippon Telegr & Teleph Corp <Ntt> ニューラルネット学習方法及び装置
EP1450350A1 (en) * 2003-02-20 2004-08-25 Sony International (Europe) GmbH Method for Recognizing Speech with attributes
US7660713B2 (en) * 2003-10-23 2010-02-09 Microsoft Corporation Systems and methods that detect a desired signal via a linear discriminative classifier that utilizes an estimated posterior signal-to-noise ratio (SNR)
US20140046696A1 (en) * 2012-08-10 2014-02-13 Assurerx Health, Inc. Systems and Methods for Pharmacogenomic Decision Support in Psychiatry

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566796A (ja) * 1991-09-09 1993-03-19 Sanyo Electric Co Ltd 音声認識装置および音声パターン正規化装置
JP2015095212A (ja) * 2013-11-14 2015-05-18 株式会社デンソーアイティーラボラトリ 識別器、識別プログラム、及び識別方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JACOB DEVLIN ET.AL: ""Fast and Robust Neural Network Joint Models for Statistical Machine Translation"", PROC. OF THE 52ND ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS, JPN6019000549, 23 June 2014 (2014-06-23), US, pages 1370 - 1380, XP055861667, ISSN: 0003958013, DOI: 10.3115/v1/P14-1129 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019139651A (ja) * 2018-02-14 2019-08-22 Kddi株式会社 未知の複数次元のベクトルデータ群をクラス分類するプログラム、装置及び方法
JP2019164618A (ja) * 2018-03-20 2019-09-26 株式会社東芝 信号処理装置、信号処理方法およびプログラム
JP2020112483A (ja) * 2019-01-15 2020-07-27 春江 姚 外観検査システム、計算モデル構築方法及び計算モデル構築プログラム
JP2020201731A (ja) * 2019-06-11 2020-12-17 日本放送協会 畳み込みニューラルネットワーク学習装置およびそのプログラム
KR20210089430A (ko) * 2020-01-08 2021-07-16 한국전자통신연구원 간접광고를 포함한 뉴스 기사 생성 시스템 및 방법
KR102413174B1 (ko) * 2020-01-08 2022-06-27 한국전자통신연구원 간접광고를 포함한 뉴스 기사 생성 시스템 및 방법

Also Published As

Publication number Publication date
JP6509694B2 (ja) 2019-05-08
US20170076200A1 (en) 2017-03-16
US10839288B2 (en) 2020-11-17

Similar Documents

Publication Publication Date Title
JP6509694B2 (ja) 学習装置、音声検出装置、学習方法およびプログラム
US11264044B2 (en) Acoustic model training method, speech recognition method, acoustic model training apparatus, speech recognition apparatus, acoustic model training program, and speech recognition program
US11176946B2 (en) Method and apparatus for speech recognition
US11158305B2 (en) Online verification of custom wake word
JP6712642B2 (ja) モデル学習装置、その方法、及びプログラム
US9984682B1 (en) Computer-implemented systems and methods for automatically generating an assessment of oral recitations of assessment items
JP6222821B2 (ja) 誤り修正モデル学習装置、及びプログラム
JP6933264B2 (ja) ラベル生成装置、モデル学習装置、感情認識装置、それらの方法、プログラム、および記録媒体
KR101182965B1 (ko) 데이터 학습용 방법 및 장치, 데이터 인식용 장치, 및 데이터 생성용 장치
US10580432B2 (en) Speech recognition using connectionist temporal classification
JP2019159654A (ja) 時系列情報の学習システム、方法およびニューラルネットワークモデル
JPWO2008004666A1 (ja) 音声認識装置、音声認識方法、および音声認識用プログラム
US10741184B2 (en) Arithmetic operation apparatus, arithmetic operation method, and computer program product
KR20180038707A (ko) 동적 가중치 값과 토픽 정보를 이용하는 음성인식 방법
CN112669845A (zh) 语音识别结果的校正方法及装置、电子设备、存储介质
JP6646337B2 (ja) 音声データ処理装置、音声データ処理方法および音声データ処理プログラム
JP6605997B2 (ja) 学習装置、学習方法及びプログラム
JP2019078857A (ja) 音響モデルの学習方法及びコンピュータプログラム
KR20200120595A (ko) 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치
Becerra et al. A comparative case study of neural network training by using frame-level cost functions for automatic speech recognition purposes in Spanish
JP4939560B2 (ja) 音声認識装置とその方法と、プログラム
JP6235922B2 (ja) 重み付き有限状態オートマトン作成装置、記号列変換装置、音声認識装置、それらの方法、及びプログラム
JP2017167378A (ja) 単語スコア計算装置、単語スコア計算方法及びプログラム
JP5161174B2 (ja) 経路探索装置、音声認識装置、これらの方法及びプログラム
Bykov et al. Improvement of the learning process of the automated speaker recognition system for critical use with HMM-DNN component

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190403

R151 Written notification of patent or utility model registration

Ref document number: 6509694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151