JP2016212273A - リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置 - Google Patents

リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置 Download PDF

Info

Publication number
JP2016212273A
JP2016212273A JP2015096150A JP2015096150A JP2016212273A JP 2016212273 A JP2016212273 A JP 2016212273A JP 2015096150 A JP2015096150 A JP 2015096150A JP 2015096150 A JP2015096150 A JP 2015096150A JP 2016212273 A JP2016212273 A JP 2016212273A
Authority
JP
Japan
Prior art keywords
learning
vector
rnn
vectors
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015096150A
Other languages
English (en)
Other versions
JP6628350B2 (ja
Inventor
直之 神田
Naoyuki Kanda
直之 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2015096150A priority Critical patent/JP6628350B2/ja
Priority to CN201680027062.9A priority patent/CN107615308B/zh
Priority to PCT/JP2016/063817 priority patent/WO2016181951A1/ja
Priority to EP16792676.5A priority patent/EP3296930A4/en
Priority to US15/570,801 priority patent/US10467525B2/en
Publication of JP2016212273A publication Critical patent/JP2016212273A/ja
Application granted granted Critical
Publication of JP6628350B2 publication Critical patent/JP6628350B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】時系列のデータによるRNNの学習を効率化する学習方法を提供する。
【解決手段】学習方法は、RNNを初期化するステップ220と、あるベクトルを開始位置として指定し、各パラメータを誤差関数が最小化するよう最適化することでRNNの学習を行う学習ステップ226とを含む。学習ステップ226は、指定されたベクトルを先頭とする連続するN個(N≧3)のベクトルを用い、末尾のベクトルの参照値を正解ラベルとするTruncated BPTTによりRNNのパラメータを更新する更新ステップ250と、終了条件が成立するまで、算出ステップで使用されたN個のベクトルの末尾のベクトルに対して所定の関係を満たす位置にあるベクトルを新たに指定して、学習ステップを実行する処理を繰返す第1の繰返しステップ240とを含む。所定の関係を満たす位置にあるベクトルは指定されたベクトルより少なくとも2個以上後のベクトルである。
【選択図】図9

Description

この発明は、リカレント型ニューラルネットワーク(RNN)の学習方法に関し、特に、学習の効率を高め、かつ学習後のRNNの精度を高めることができるRNNの学習方法及びそのためのコンピュータプログラムに関する。
近年、音声認識のための音響モデルとしてRNNを用いることが提案されている。RNNとは、ニューラルネットワークに時系列の情報を組込んだものである。
図1に、通常のニューラルネットワークの原理を模式的に示す。ニューラルネットワーク30は、入力ベクトル46を受ける入力層40と、入力層40の出力を受けるように入力層40に結合された隠れ層42と、隠れ層42の出力を受けるように結合され、出力ベクトル48を出力する出力層44とを含む。図1では、図を簡明にするために隠れ層が1層の場合を示すが、隠れ層の数は1には限定されない。
このようなニューラルネットワークでは、データは入力層40から隠れ層42へ、隠れ層42から出力層44へと一方向に流れる。したがってこの型のニューラルネットワークはフィードフォワードニューラルネットワーク(FFNN)と呼ばれる。あるノードから別のノードへの結合には重み、ときにはさらにバイアスが与えられ、これら重み及びバイアスの値が学習により定められる。学習時には、学習データを入力ベクトル46として隠れ層42に与え、出力層44から出力ベクトル48を得る。この出力ベクトル48と正解データとの誤差を出力層44側から隠れ層42、入力層40の各ノードに与え、ニューラルネットワーク30としての誤差が最小になるように各重み及びバイアスの値を最適化する。
一方、RNNは、FFNNのように一方向へのノードの結合でなく、逆方向のノードの結合、同一層内のノード間の結合、同一ノードでの自己ループ等を含む。図2に、RNNの隠れ層の1例の、各ノードの結合に関する構成を模式的に示す。図2において、この隠れ層70は例として3つのノードを含む。これら3つのノードの各々は、より下層(入力層に近い層)からデータを受けるための結合及びより上層(出力層に近い層)にデータを渡すための結合に加え、下層のノードにデータを渡すための結合、同じ隠れ層70内のノードとの間の結合、及び自己ループを持つ。これら結合の各々には重みがパラメータとして割り当てられている。それらパラメータの数は、数百万から数千万になることもある。音声認識のための音響モデルとして使う場合には、これらは、音声コーパス(音声データとテキストの対)から自動的に学習する必要がある。
RNNの学習方法としては、Back-propagation through time法(以下「BPTT」)及びその変形であるTruncated back-propagation through time法(以下「Truncated BPTT」)がある。
H. Jaeger (2002): Tutorial on training recurrent neural networks, covering BPPT, RTRL, EKF and the "echo state network" approach. GMD Report 159, German National Research Center for Information Technology, 2002 (48 pp.) Mikael Boden. A Guide to Recurrent Neural Networks and Backpropagation. In the Dallas project, 2002. Mikolov Tomas: Statistical Language Models based on Neural Networks. PhD thesis, Brno University of Technology, 2012. G. Heigold, E. McDermott, V. Vanhoucke, A. Senior, and M. Bacchiani, "Asynchronous stochastic optimization for sequence training of deep neural networks," in Acoustics, Speech and Signal Processing (ICASSP), 2014 IEEE International Conference on. IEEE, 2014, pp. 5587-5591.
上記非特許文献1は、系列全体で、全ての入力と全ての正解データとを用いてBPTTを行う方法と、系列全体の一部である部分系列について、その部分系列全体で、全ての入力と全ての正解データとを用いてBPTTを行いながら部分系列を系列全体の中でずらしていくTruncated BPTT法の2つを開示している。
非特許文献2と、非特許文献2を引用した非特許文献3とは、上記非特許文献1に記載されたTruncated BPTT法において、部分系列を1サンプルとした変種を開示している。
非特許文献4は、複数の時系列データを同時に処理することによってRNNの学習を効率化する方法を開示している。
しかし、非特許文献1〜非特許文献4に開示されたいずれの方法においても、音声データのように、連続値の時系列データに対する学習が非効率になるという問題があることが知られている。
この点に関し、FFNNの学習においても、隣接する学習データが似ている場合には学習が非効率になることが知られている。そのためにFFNNでは、学習前に全てのサンプルをランダムに並べ替える手法が採用されている。こうした手法により、隣接する学習データが類似したものになる可能性は低くなり、学習の効率を高めることができる。
しかし、音声データのように時系列のデータにおいては、サンプルの間の時間的な関係が重要である。データをランダムに並べ替えると、そうした時間的情報が失われる。したがってこのようなデータに対しては、FFNNのように学習データをランダムに並べ替えることはできない。そのためRNNにおいて音声データのような連続的な時系列のデータによる学習を行う場合、その学習効率を高めることが大きな問題であった。ここで、学習の効率を高めるということは、同じ学習データを用いた学習で計算時間を長大化せずに精度を高める学習が行えること、又は、少ない学習データを用いて、短時間の学習で、既存の方法と同等の精度を得ることができることを意味する。
それ故に本発明の目的は、RNNに関する時系列のデータによる学習を効率化できる学習方法を提供することである。
本発明の第1の局面に係るRNNの学習方法は、予め準備された学習データを用いてコンピュータが行う。学習データは、各々が学習対象データの特徴量と参照値とからなるベクトルの系列を含む。この学習方法は、RNNを初期化するステップと、ベクトルの系列内のあるベクトルを学習開始位置として指定する第1の指定ステップと、RNNの各パラメータを、学習データに対して計算される所定の誤差関数が最小化するように最適化することでRNNの学習を行う学習ステップとを含む。学習ステップは、ベクトルの系列のうち、指定されたベクトルを先頭とする、連続するN個、ただしNは3以上の整数、のベクトルを用い、当該連続するN個のベクトルの末尾のベクトルの参照値を正解ラベルとするTruncated BPTTによりRNNのパラメータの更新を行う更新ステップと、予め定める終了条件が成立するまで、更新ステップで使用されたN個のベクトルの末尾のベクトルに対して所定の関係を満たす位置にあるベクトルを新たに指定して、学習ステップを実行する処理を繰返す第1の繰返しステップとを含む。所定の関係を満たす位置にあるベクトルは、選択するステップにおける指定されたベクトルより少なくとも2個以上後のベクトルである。
好ましくは、所定の関係を満たす位置にあるベクトルは、N個のベクトルの末尾のベクトルである。
より好ましくは、RNNの学習方法はさらに、第1の繰返しステップで第1の繰返しステップの終了条件が成立していると判定されたことに応答して、第1の指定ステップで指定されたベクトルより、Nより小さな数だけ後のベクトルを次の学習の開始位置として新たに指定する第2の指定ステップと、学習ステップを、終了条件が成立するまで実行するステップとを含む。
さらに好ましくは、Nより小さな数は1である。
RNNの学習方法はさらに、第1の繰返しステップで終了条件が成立していると判定されたことに応答して、あるベクトルから1ずつ後のベクトルを新たな学習開始位置として指定しながら、あるベクトルからN―1個後のベクトルを指定した処理が終了するまで、学習ステップを繰返し実行する第2の繰返しステップを含む。
ベクトルの系列を構成する各ベクトルの各々は、音声を変換して得られた音声データの特徴量と、当該音声の音素ラベルからなる参照値とからなっていてもよい。
本発明の第2の局面に係るコンピュータプログラムは、コンピュータに、上記したいずれかのRNNの学習方法の全てのステップを実行させる。
本発明の第3の局面に係る音声認識装置は、入力された音声信号を所定シフト量及び所定フレーム長でフレーム化するフレーム化処理手段と、フレーム化処理手段が出力する各フレームの音声信号から所定の音声特徴量を抽出し特徴量ベクトルを出力する特徴量抽出手段と、特徴量抽出段により出力される特徴量ベクトルの系列を入力とし、特徴量ベクトルが入力されるごとに、その特徴量ベクトルに対応するフレームの音声が、想定される音素の集合の各要素である確率を要素とするベクトルを出力するよう、上記したいずれかのRNNの学習方法により学習を行った、RNNからなる音響モデルと、音響モデルの出力するベクトルの系列と、統計的言語モデルとを用いた確率的処理により、前記音声信号を生成した尤度が最も高い単語列を出力する音声認識デコーダとを含む。
FFNNの1例の概略構成を示す模式図である。 RNNの隠れ層の構成の1例を示す模式図である。 RNNのアンフォールドを説明するための模式図である。 RNNを1ステップだけアンフォールドして、各層の間の結合とその重み行列等の関係を示す図である。 RNNを3ステップだけアンフォールドして、各層の間の結合とその重み行列等の関係を示す図である。 RNNを3ステップだけアンフォールドしたときの誤差逆伝搬と、重み行列と、隠れ層の値と、各層の誤差との関係を示す図である。 本発明の1実施の形態における学習データの選択方法を模式的に示す図である。 本発明の1実施の形態に係るRNNの学習システムの構成を示すブロック図である。 図8に示す学習システムの学習処理部を実現するコンピュータプログラムの制御構造を示すフローチャートである。 本発明の1実施の形態に係る学習方法の効果を従来方法と対比して示すグラフである。 本発明の1実施の形態に係る学習方法により学習したRNNからなる音響モデルを用いた音声認識装置のブロック図である。 学習データを生成するためのプログラムを実行するコンピュータの外観を示す図である。 図12に外観を示すコンピュータのハードウェアブロック図である。
以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。以下の実施の形態では、RNNを音響モデルに適用する例を説明する。しかし本発明はそのような実施の形態には限定されず、時系列のデータを用いてRNNの学習を行う実施の形態であれば、どのようなものに対しても適用できる。例えば音声認識、自動翻訳、画像認識、動画認識等が適用対象として考えられる。
なお、本実施の形態で使用する音声特徴量は、メルフィルタバンクごとのログパワー、それらのデルタ(一次微分)及びデルタデルタ(二次微分)であるが、これら以外の音声特徴量、例えばメル周波数ケプストラム係数又は線形予測法による音声特徴量を用いてもよい。
また、RNNは典型的にはコンピュータとその上で実行されるプログラムとにより実現される。RNNを実現するプログラムは、RNNの構造を示す情報(層の数、各層内のノード数、ノード間の結合に関する情報、各結合に割り当てられた重み及びバイアスの値、後述するアンフォールドを実現するための記憶領域及びそれらと各ノードとの結合に関する情報等)と、入力に対する各ノードの値を算出するプログラムルーチンとの集合により実現される。学習にはさらにそのためのプログラムが必要である。
[第1の実施の形態]
<本実施の形態における学習方法>
以下で説明するRNNを用いた音響モデルは、音声特徴量ベクトルx(t)の時系列を入力として、その音声特徴量が、隠れマルコフモデルの値sである確率P(s|x(t))を出力する。以下、この出力をy(t)と書く。音響モデルとしてRNNを使用する場合には、尤度計算にP(x(t)|s)を使用する。したがって、音響モデルには、RNNの出力を、ベイズの定理にしたがった次の式により変形して利用する。
Figure 2016212273
FFNNの学習方法としては、誤差逆伝搬方式が知られている。誤差逆伝搬方式では、学習データごとに、そのデータを入力層に与え、隠れ層を経て出力層からFFNNの出力を得る。この出力と、正解データとの誤差をFFNNの出力層から入力層に向けて逆に伝搬させながら、誤差が最小となるように、各ノード間の結合に与えられた重みの値を調整していく。
しかし、このような誤差逆伝搬方式はそのままではRNNには適用できない。これはFFNNの場合と異なり、循環する経路が存在するためである。しかし、以下に述べるような工夫をすることにより、RNNの学習に誤差逆伝搬方式を利用できることが知られている。それは、学習データの系列が与えられる時刻ごとにネットワークを別のものとして考え、ある時刻での各ノードの出力が、次の時刻での各ノードに与えられるようなネットワークとしてRNNを取扱う方法である。
これは、図3を参照して、時刻t−2でのネットワーク内の各ノードの出力が、時刻t−1での各ノードに与えられるように、各時刻でのネットワークを別のものとして取扱う、という考え方である。図3においては、この関係を分かりやすく示すため、時刻t−1でのネットワーク内のノード90についてのみ、そうした入出力の結合関係の例を示している。他のノードについても同様である。
図3を参照して、時刻t−1でのノード90への入力は、時刻t−2のネットワークの各ノードからのみである。時刻t−1でのノード90からの出力は、時刻tでのネットワークのノードのみに与えられる。このように考えると、データは時系列で考えて一方向のみに流れる。したがってRNNをFFNNと同様に考えることができ、誤差逆伝搬方式による学習をRNNにも適用できる。なお、このようにRNNを各時刻で別のRNNのように取扱うことを「アンフォールド」と呼ぶ。
RNNにおいて学習すべきパラメータを説明するために、RNNにおける隠れ層への入力と隠れ層からの出力との関係について説明する。なお、ここでは説明を簡明にするために隠れ層が1つの場合について説明する。図4はRNNをアンフォールドした図である。図4を参照して、時刻tで入力層104に与えられる特徴ベクトルをx(t)、隠れ層102の状態をs(t)、出力層100の出力ベクトルをy(t)とする。1ステップ前の隠れ層を隠れ層106とすると、隠れ層106の状態はs(t−1)となる。入力層104の各ノードと隠れ層102の各ノードとの結合の重みを要素とする行列をWxs,そのバイアスベクトルをbs,隠れ層102の各ノードと出力層100の各ノードとの結合の重みを要素とする行列をWsy,そのバイアスベクトルをby、1ステップ前の隠れ層106の各ノードと隠れ層102の各ノードとの間の結合の重みを要素とする行列をWssとする。すると、隠れ層102の値s(t)及び出力層100からの出力y(t)は以下の式にしたがって更新される。
Figure 2016212273
なお、上式において、H()は対応要素間のTanh又は対応要素間のシグモイド関数を表す。G()はソフトマックス関数と呼ばれる関数である。ベクトルaの要素をa(i=1,…,n)とすると、G(a)のi番目の要素Gは次式で表される。
Figure 2016212273
上記より明らかなように、RNNのパラメータとして、行列Wxs,Wss、バイアスベクトルbs、byの要素の値を求める必要がある。これらの値を求める処理がRNNの学習である。ここでは、現時刻より3ステップ前までの隠れ層の値を用いてRNNの学習をTruncated BPTTにより行う場合を説明する。
図5を参照して、この場合、出力層100の出力y(t)、隠れ層102の値s(t)、入力層104への入力x(t)、及び1ステップ前の隠れ層106の間の関係は図4と同様であり、隠れ層102の値s(t)と出力層100の出力y(t)とは、上記式(1)及び(2)で表される。ただし、図5に示すように3ステップ前までの隠れ層102の出力を用いる場合、RNNの出力y(t)を得るためには、1ステップ前の入力層108への入力ベクトルx(t−1),2ステップ前の入力層112への入力ベクトルx(t−2),2ステップ前の隠れ層110の値s(t−2)、及び3ステップ前の隠れ層114の値s(t−3)が必要である。したがってこれらのための領域を記憶領域に確保し、これら値を記憶する必要がある。これらの間の結合の重みは、上記した式(1)に示すものと同様である。なお、隠れ層102,106,110及び114の各々において、状態データs(t),s(t−1),s(t−2)及びs(t−3)は、それぞれ誤差e(t)、e(t−1)、e(t−2)、及びe(t−3)を含んでいる。
図6を参照して、RNNに関するTruncated BPTTによる学習(パラメータの更新)は以下のようにして行われる。図5に示すようにして、3ステップ前の隠れ層の出力及び2ステップ前の入力までを用いて、時刻tにおけるRNNの出力y(t)を算出する。このとき、学習データは、入力ベクトルx(t)に対する参照値ref(t)を含んでいる。ここで、両者の誤差esmをesm=y(t)−ref(t)とする。誤差の符号をこの逆に記述する場合もある。誤差逆伝搬によるパラメータWssの更新は以下のように行われる。
まず、出力層での誤差e(t)の伝搬、及び隠れ層102での再帰的な誤差e(t−1)の伝搬は、それぞれ以下の式(4)及び(5)にしたがって算出される。
Figure 2016212273
また、パラメータWssの更新は以下の式(6)により行われる。
Figure 2016212273
ここで、γは学習率、Nは学習データの数を表す。また、Wssだけでなく他のパラメータも同様に更新される。
従来のRNNの学習手法のうち、第1番目のものは、学習データ系列全体を入力として、学習データ系列の各時刻でのRNNの出力とその時刻の正解データとを用いてTruncated BPTTを行う。これを各学習データ系列に対して順番に行っていく、というものである。
2番目のものは、学習データ系列のうち必要なものを用いて、ある時刻でのRNNの出力を得る。その出力と、その時刻での正解データとを用いて、Truncated BPTTによりパラメータの更新を行う。これを各時刻について実行し、学習データ全体を処理することでパラメータの学習を行う。
しかし、前述したとおり、いずれの方法でも学習効率があまりよくないことが分かっている。その原因の1つとして、音響データの様な連続的な時系列のデータの場合、隣接するデータが互いに似通っている点が挙げられる。前述したとおり、FFNNでは、隣接する学習データが互いに似通っていると学習効率が悪く、RNNについても事情は同様である。
そこで、本実施の形態では次のような方法によりこの問題を解決する。図7を参照して、この実施の形態の手法では、学習データ系列130が与えられたときに、隣接する学習データを連続して利用してパラメータ更新をする、という方法を採らず、ある学習データによるパラメータ更新が終わったときに、その学習データと隣接しない、所定数(図7の場合には2個)だけ飛越した学習データ(図7の場合には、学習が終わったデータから3番目の学習データ)を用いて次のパラメータ更新を行う。以下、このように連続する学習で用いられる学習データ間の距離をスキップ長と呼ぶ。図7の例ではスキップ長は3である。
このように学習を繰返して、学習データ系列130の末尾付近まで到達し、それ以後で同様に選択できる学習データが存在しなくなったときに、1回目の学習を終了する。この時点で学習を完了させると、図7の例では学習に用いたデータは全体の3分の1程度、したがって計算量も従来の方法の計算量の3分の1程度となる。しかし、それでも学習後のRNNの精度は従来の方法によるものより高くなる。しかし本実施の形態ではさらに、学習データ全体を有効に使用するために、再度、学習データ系列130の先頭に処理位置を戻し、1回目の処理のときの処理対象として選ばれた学習データに隣接する学習データを処理対象の先頭に選び直し、1回目の処理と同様の飛び越し処理を繰返す。同様に、3回目の処理も実行する。この繰返しにより、全ての学習データを用いた学習を行うことができる。
この方法によれば、各学習においては、隣接した学習データは連続しては使用されない。図7に示す例では2個おきの学習データが利用される。このように隣接する学習データを用いるわけではないので、学習効率があがる。しかも、例えば音響モデルの学習にこうした手法を採用した結果、モデルの精度が上がることも後述するように確認できた。
<構成>
図8に、上記したRNNの学習を行う学習システムの構成をブロック図形式で示す。図8を参照して、このシステムは、学習に用いる音声コーパスを記憶した学習コーパス記憶部190を含む。学習コーパス記憶部190に記憶された音声コーパスは、多数の発話の音声データと、それらと対になるテキストとからなる。また、音声データとテキストとの間には対応関係が付けられており、音声データのどの部分がどの音素に対応するものかが分かるようになっている。
このシステムはさらに、学習コーパス記憶部190に記憶された各発話の音声データを、所定シフト量及び所定フレーム長で一部重複を許すようにフレーム化し、各フレームに対応音素のラベルを付して学習データとして出力する学習データ作成部192と、学習データ作成部192が出力する学習データを記憶する学習データ記憶部194と、学習データ記憶部194に記憶された学習データを用い、上記した手法によりRNN198の学習を行う学習処理部196とを含む。従来と異なる処理をするのはこの学習処理部196である。
学習処理部196は、コンピュータハードウェアと、当該コンピュータハードウェアの中央演算処理装置(CPU)が実行するプログラムにより実現される。図9を参照して、そのようなプログラムは、メモリ上にRNNの各パラメータを記憶する領域を確保し、かつ各パラメータを所定の初期化方式により初期化する初期化ステップ220と、ハードディスク等の記憶装置に記憶されている変数であるスキップ長skip_sizeを読出し、メモリに格納するステップ222と、RNNの学習時にアンフォールドする隠れ層の数Nをハードディスク等の記憶装置から読出し、メモリに記憶するステップ224と、 繰返し変数loopの値を、0から変数skip_sizeの値まで1ずつ変化させながら、処理228を繰返し実行するステップ226とを含む。
ステップ226で繰返し実行される処理228は、変数tの初期値を0として、変数tの値を変数skip_sizeだけ増加しながら関数RNN.truncated_BPTTを実行する処理250とを含む。ここで、関数RNN.truncated_BPTTはTruncated BPTTを実行する関数であり、その引数は、対象となる時刻をtとして、時刻t−Nでの隠れ層の値s(t−N)と、時刻t−N+1から時刻tまでの入力の値x(t−N+1),x(t−N+2),…,x(t)と、時刻tでの正解ラベルref(t)とである。
<動作>
図9及び図9に構成を示す本実施の形態に係るRNNの学習システムは以下のように動作する。学習コーパス記憶部190に記憶された音声コーパスから学習データを生成し学習データ記憶部194に記憶するまでのこの装置の動作は、従来のものと変わりない。
学習処理部196は、図9に示す制御構造を持つプログラムを実行して以下の様な処理を行う。
このプログラムの実行過程において、初期化ステップ220では、メモリ等の記憶装置内にRNNのパラメータを記憶するための記憶領域が確保され、各記憶領域がそれぞれ適切な値で初期化される。このとき、隠れ層の値sについては実際上意味がなく、任意の値、例えば0に初期化してもよい。もちろん、何らかの手法で予め得た値で初期化してもよい。
続くステップ222で、スキップ長が記憶装置から読込まれ、メモリの、変数skip_sizeに割り当てられた領域に記憶される。ここで、スキップ長とは、学習時に選択する2つの学習データの間のデータ数を指す。ステップ224では、RNNの学習でアンフォールドする隠れ層の数が記憶装置から読み出され、変数Nに割り当てられたメモリ領域に記憶される。
ステップ226では、最初に変数loopの値を0に決定する。続いて、変数loopの値が、終了条件(loop<skip_size)を満たすか否かを判定する。変数skip_sizeは2以上の正の整数である。したがって最初の繰返しでの判定では終了条件は充足されず、処理228が実行される。処理228の実行が終わると、変数loopの値が1インクリメントされ、終了条件が充足されるか否かが判定される。終了条件が充足されなければ処理228が繰返される。こうして、終了条件が成立するまで処理228が繰返し実行される。
処理228の繰返しの各々においては、処理250がステップ240により定められる条件で繰返し実行される。ステップ240では、最初の繰返しで変数tに0の値が設定される。すなわち、現在時刻tとしてt=0が指定される。続いて、繰返しの終了条件(t<データ長)が充足されているか否かが判定される。ここでのデータ長は、学習データの数に相当する。もしも終了条件が充足されていなければ、処理250が実行される。すなわち、隠れ層の値s(t−N)と、時刻t−N+1から時刻tまでの入力の値x(t−N+1),x(t−N+2),…,x(t)と、時刻tでの正解ラベルref(t)を引き数として関数RNN.truncated_BPTTを実行する。最初の処理では、これらの値が不定となるが、その場合には初期値として0を用いれば良い。
ステップ240では、こうした処理250を変数tの値を変数skip_sizeの値だけ増加させながら繰返して実行する。このように変数tの値を変数skip_sizeの値だけ増加させて処理250を実行することにより、図7の最上段に示すような形で学習データの選択とパラメータの更新とが実行される。
本実施の形態では、処理228を変数skip_sizeの値だけ繰返している。しかし、上記手法では、繰返しの数が少なくても十分な精度を得ることができる。変数skip_sizeの値が2以上であれば、処理228を1回だけ実行しても従来より高い精度でRNNの学習を行うことができる。この場合の学習に要する時間は従来のものと比較して短くなる。もっとも、本実施の形態のように、学習データをスキップしながら学習する処理が完了した後に、学習データの先頭に戻り、今度は図7の次段に示すように1つ後ろにずらした位置から同じように学習データをスキップしながら学習し、以下同じようにすることで、学習データの全体を効率よく利用でき、RNNの効率を高めることもできる。この場合でも、計算量、したがって処理速度は従来の技術のものと変わらない。
本実施の形態では、アンフォールドする隠れ層の数Nが3の場合を例にとった。しかしもちろん本発明はそのような実施の形態には限定されない。Nの値は計算量及び利用可能なデータ量に応じ、任意の値でよい。従来のRNNの学習ではN=9及びN=15等がよく使われる。
結局、上記実施の形態に係る手法では、所定数の間隔をおいた学習データを選択してTruncated BPTTによるパラメータの更新を行っている。この過程では、選択されなかった学習データに対応する隠れ層の値も計算されているため、そこから誤差を計算し学習に利用することができる。従来のTruncated BPTTでは、実際にこのように行っていたが、本手法はこの誤差計算を省略して実行することに相当する。一見、利用できる誤差情報を利用しないため、学習の効率が悪くなるように思われる。しかし、上記したようにRNNの学習効率はかえって高くなるという、予測に反した結果を得ることができた。従来は、学習データの利用の効率を重視するあまり、このように飛び飛びの学習データを用いて計算の結果の一部を破棄しながらパラメータの更新を行うという方法を見出すことができなかったものと思われる。
<効果>
図10に、本実施の形態に係る学習手法を用いて学習したRNNによる音響モデル308を用いたフレーム精度のグラフ260と、従来の方式のうち、第2の方式により学習したRNNにより得られた音響モデルを用いたフレーム精度のグラフ262とを示す。図10のグラフは、共通の英語講演音声に対するフレーム単位でのRNNの出力値によりどの音素かを当てる精度(フレーム精度)を縦軸に、学習の更新回数を横軸にして示したものである。RNNの構成は両者とも同じで学習手法を変えただけである。
上記した学習手法を用いたRNNの学習が最終的に収束したときの音声認識誤り率(後掲の図11の音声認識デコーダ310の出力の誤り率)は18.8%であった。一方、従来手法によるRNNの学習が収束したときの音声認識誤り率は21.9%であった。
図10から明らかに分かるように、本実施の形態に係る学習方法を用いてRNNの学習を行うと、少ない更新回数で高い精度が得られることが分かる。また、最終的に学習が収束したときに、上記方法を用いて得られたモデルの精度は、従来手法を用いたものよりもかなり高くなることが分かる。
なお、この実施の形態では、図9に示す処理228及び処理250を実行する前に繰返しの終了条件の判定を行っている。しかし本発明はそのような実施の形態には限定されない。処理228又は処理250を実行した後に終了条件の判定を行うようにしてもよい。
[第2の実施の形態]
上記した第1の実施の形態は、RNNの学習方法及び学習システムに関するものであった。本発明の第2の実施の形態は、第1の実施の形態のRNNの学習方法又は学習システムにより学習したRNNを音響モデルとして利用する音声認識装置に関する。
図11を参照して、この第2の実施の形態に係る音声認識装置280は、入力音声282に対する音声認識を行って、音声認識テキスト284として出力する機能を持つ。音声認識装置280は、入力音声282に対してアナログ/デジタル(A/D)変換を行ってデジタル信号として出力するA/D変換回路300と、A/D変換回路300の出力するデジタル化された音声信号を、所定長及び所定シフト量で一部重複するようにフレーム化するフレーム化処理部302と、フレーム化処理部302の出力する各フレームに対して所定の音響処理を行うことにより、そのフレームの音声特徴量を抽出し特徴量ベクトルを出力する特徴量抽出部304とを含む。各フレーム及び特徴量ベクトルには、入力音声282の例えば先頭に対する相対時刻等の情報が付されている。特徴量としては、前述したとおり、メルフィルタバンクごとのログパワー、その一次微分、二次微分等が用いられる。
音声認識装置280はさらに、特徴量抽出部304が出力する特徴量ベクトルを一時記憶するための特徴量記憶部306と、特徴量記憶部306に記憶された特徴量ベクトルを入力として、各時刻における各フレームがある音素に対応する確率を音素ごとに示すベクトルを出力する、RNNからなる音響モデル308と、音響モデル308の出力するベクトルと、図示しない統計的言語モデルとを用いて、確率的な処理を行うことによって、入力音声282に対応する音声認識テキスト284として最も尤度の高い単語列を出力するための音声認識デコーダ310とを含む。
音響モデル308の入力層のノードの数は特徴量ベクトルの要素の数と一致する。音響モデル308の出力層のノードの数は、音声認識装置280が扱う言語で想定される音素の数と一致する。出力層の各ノードには、ある時刻で入力された音声が、そのノードの表す音素である確率が出力される。したがって音響モデル308の出力は、その時刻での入力音声が、各ノードの表す音素である確率を要素とするベクトルである。
音声認識デコーダ310は、予め学習を行っていた、WFST(Weighted Finite State transducer)と呼ばれるモデルを用いるデコーダである。ここで使用するWFSTは、言語に関する知識により予め構築されるグラフであり、HCLGと呼ばれる知識源を用いる。HはHMMを、Cは文脈を、Lは語彙を、Gは文法を、それぞれ表す。WFSTの各ノードは状態(音素)を表し、ノード間を結ぶアークは状態遷移を表す。各アークには重みが付されている。この重みは、状態遷移の確率を表す。
音声認識デコーダ310は、音響モデル308が出力するベクトルの各要素について、このWFSTによって音素列の確率計算をし、適宜枝刈りを行いながらWFST上をたどっていくことにより、最終的に最も尤度の高い単語列を音声認識テキスト284として出力する。
既に述べたように、音響モデル308を第1の実施の形態に係るRNNとすることによって、音声認識装置280による音声認識の精度は従来のものより高くなる。また音響モデルの学習効率も高くなるので、その構築コストも低く抑えることができ、性能がよくコストも低い音声認識装置を実現できる。
[コンピュータによる実現]
本発明の実施の形態に係るRNNの学習システム及び音声認識装置280は、コンピュータハードウェアと、そのコンピュータハードウェア上で実行されるコンピュータプログラムとにより実現できる。図12はこのコンピュータシステム330の外観を示し、図13はコンピュータシステム330の内部構成を示す。
図12を参照して、このコンピュータシステム330は、メモリポート352及びDVD(Digital Versatile Disc)ドライブ350を有するコンピュータ340と、キーボード346と、マウス348と、モニタ342とを含む。
図13を参照して、コンピュータ340は、メモリポート352及びDVDドライブ350に加えて、CPU(中央処理装置)356と、CPU356、メモリポート352及びDVDドライブ350に接続されたバス366と、ブートプログラム等を記憶する読出専用メモリ(ROM)358と、バス366に接続され、プログラム命令、システムプログラム及び作業データ等を記憶するランダムアクセスメモリ(RAM)360と、ハードディスク354を含む。コンピュータシステム330はさらに、他端末との通信を可能とするネットワーク368への接続を提供するネットワークインターフェイス(I/F)344を含む。
コンピュータシステム330を上記した実施の形態に係るRNNの学習システム及び音声認識装置280の各機能部として機能させるためのコンピュータプログラムは、DVDドライブ350又はメモリポート352に装着されるDVD362又はリムーバブルメモリ364に記憶され、さらにハードディスク354に転送される。又は、プログラムはネットワーク368を通じてコンピュータ340に送信されハードディスク354に記憶されてもよい。プログラムは実行の際にRAM360にロードされる。DVD362から、リムーバブルメモリ364から又はネットワーク368を介して、直接にRAM360にプログラムをロードしてもよい。
このプログラムは、コンピュータ340を、上記実施の形態に係るRNNの学習システム及び音声認識装置280の各機能部として機能させるための複数の命令からなる命令列を含む。コンピュータ340にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ340上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ340にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。したがって、このプログラム自体はこの実施の形態のシステム及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム又は装置としての機能を実現する命令のみを含んでいればよい。もちろん、プログラムのみで必要な機能を全て提供してもよい。
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
40,104,108,112 入力層
42,70,102,106,108,110,114 隠れ層
44,100 出力層
130 学習データ系列
190 学習コーパス記憶部
192 学習データ作成部
194 学習データ記憶部
196 学習処理部
198 RNN
280 音声認識装置
304 特徴量抽出部
306 特徴量記憶部
308 音響モデル
310 音声認識デコーダ

Claims (6)

  1. 予め準備された学習データを用いてコンピュータが行う、リカレント型ニューラルネットワーク(RNN)の学習方法であって、
    前記学習データは、各々が学習対象データの特徴量と参照値とからなるベクトルの系列を含み、
    前記学習方法は、
    前記RNNを初期化するステップと、
    前記ベクトルの系列内のあるベクトルを学習開始位置として指定する第1の指定ステップと、
    前記RNNの各パラメータを、前記学習データに対して計算される所定の誤差関数が最小化するように最適化することで前記RNNの学習を行う学習ステップとを含み、
    前記学習ステップは、
    前記ベクトルの系列のうち、指定されたベクトルを先頭とする、連続するN個、ただしNは3以上の整数、のベクトルを用い、当該連続するN個のベクトルの末尾のベクトルの参照値を正解ラベルとするTruncated BPTTにより前記RNNのパラメータの更新を行う更新ステップと、
    予め定める終了条件が成立するまで、前記更新ステップで使用された前記N個のベクトルの末尾のベクトルに対して所定の関係を満たす位置にあるベクトルを新たに指定して、前記学習ステップを実行する処理を繰返す第1の繰返しステップとを含み、
    前記所定の関係を満たす位置にあるベクトルは、前記選択するステップにおける前記指定されたベクトルより少なくとも2個以上後のベクトルである、RNNの学習方法。
  2. 前記所定の関係を満たす位置にあるベクトルは、前記N個のベクトルの末尾のベクトルである、請求項1に記載のRNNの学習方法。
  3. 請求項1又は請求項2に記載のRNNの学習方法であって、さらに、
    前記第1の繰返しステップで前記終了条件が成立していると判定されたことに応答して、前記第1の指定ステップで指定された前記ベクトルより、前記Nより小さな数だけ後のベクトルを次の学習の開始位置として新たに指定する第2の指定ステップと、
    前記学習ステップを、前記終了条件が成立するまで実行するステップとを含む、RNNの学習方法。
  4. 請求項1又は請求項2に記載のRNNの学習方法であって、さらに、前記第1の繰返しステップで前記終了条件が成立していると判定されたことに応答して、前記あるベクトルから1ずつ後のベクトルを新たな学習開始位置として指定しながら、前記あるベクトルからN−1個後のベクトルを指定した処理が終了するまで、前記学習ステップを繰返し実行する第2の繰返しステップを含む、RNNの学習方法。
  5. コンピュータに、請求項1〜請求項4のいずれかに記載のRNNの学習方法の全てのステップを実行させる、コンピュータプログラム。
  6. 入力された音声信号を所定シフト量及び所定フレーム長でフレーム化するフレーム化処理手段と、
    前記フレーム化処理手段が出力する各フレームの音声信号から所定の音声特徴量を抽出し特徴量ベクトルを出力する特徴量抽出手段と、
    前記特徴量抽出段により出力される特徴量ベクトルの系列を入力とし、特徴量ベクトルが入力されるごとに、その特徴量ベクトルに対応するフレームの音声が、想定される音素の集合の各要素である確率を要素とするベクトルを出力するよう、請求項1〜請求項4のいずれかに記載の学習方法により学習を行った、RNNからなる音響モデルと、
    前記音響モデルの出力するベクトルの系列と、統計的言語モデルとを用いた確率的処理により、前記音声信号を生成した尤度が最も高い単語列を出力する音声認識デコーダとを含む、音声認識装置。
JP2015096150A 2015-05-11 2015-05-11 リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置 Active JP6628350B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015096150A JP6628350B2 (ja) 2015-05-11 2015-05-11 リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置
CN201680027062.9A CN107615308B (zh) 2015-05-11 2016-05-10 循环神经网络的学习方法及用于该学习方法的计算机程序、和声音识别装置
PCT/JP2016/063817 WO2016181951A1 (ja) 2015-05-11 2016-05-10 リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置
EP16792676.5A EP3296930A4 (en) 2015-05-11 2016-05-10 LEARNING PROCEDURE FOR RECURRENT NEURONAL NETWORK, COMPUTER PROGRAM FOR IT AND VOICE RECOGNITION
US15/570,801 US10467525B2 (en) 2015-05-11 2016-05-10 Recurrent neural network training method, computer program therefor and speech recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015096150A JP6628350B2 (ja) 2015-05-11 2015-05-11 リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置

Publications (2)

Publication Number Publication Date
JP2016212273A true JP2016212273A (ja) 2016-12-15
JP6628350B2 JP6628350B2 (ja) 2020-01-08

Family

ID=57248154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015096150A Active JP6628350B2 (ja) 2015-05-11 2015-05-11 リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置

Country Status (5)

Country Link
US (1) US10467525B2 (ja)
EP (1) EP3296930A4 (ja)
JP (1) JP6628350B2 (ja)
CN (1) CN107615308B (ja)
WO (1) WO2016181951A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018141925A (ja) * 2017-02-28 2018-09-13 日本放送協会 音響モデル学習装置および音響モデル学習プログラム
KR20180103671A (ko) * 2017-03-09 2018-09-19 삼성전자주식회사 언어 모델을 압축하기 위한 전자 장치, 추천 워드를 제공하기 위한 전자 장치 및 그 동작 방법들
CN108630198A (zh) * 2017-03-23 2018-10-09 三星电子株式会社 用于训练声学模型的方法和设备
WO2019004582A1 (ko) * 2017-06-28 2019-01-03 포항공과대학교 산학협력단 아식칩과 스마트폰을 구비하는 실시간 음성인식 장치
JP2019078857A (ja) * 2017-10-24 2019-05-23 国立研究開発法人情報通信研究機構 音響モデルの学習方法及びコンピュータプログラム
WO2020189235A1 (ja) * 2019-03-20 2020-09-24 国立大学法人大阪大学 学習済みモデル、制御装置、摩擦攪拌接合システム、ニューラルネットワークシステム、及び学習済みモデルの生成方法
WO2022153504A1 (ja) * 2021-01-15 2022-07-21 日本電信電話株式会社 学習方法、学習システム及び学習プログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6614639B2 (ja) * 2015-05-22 2019-12-04 国立研究開発法人情報通信研究機構 音声認識装置及びコンピュータプログラム
US10915808B2 (en) * 2016-07-05 2021-02-09 International Business Machines Corporation Neural network for chemical compounds
US10679612B2 (en) * 2017-01-04 2020-06-09 Samsung Electronics Co., Ltd. Speech recognizing method and apparatus
US11100932B2 (en) * 2017-02-10 2021-08-24 Synaptics Incorporated Robust start-end point detection algorithm using neural network
US11853884B2 (en) 2017-02-10 2023-12-26 Synaptics Incorporated Many or one detection classification systems and methods
CN107357775A (zh) * 2017-06-05 2017-11-17 百度在线网络技术(北京)有限公司 基于人工智能的循环神经网络的文本纠错方法及装置
JP6741051B2 (ja) * 2018-08-10 2020-08-19 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
CN109559735B (zh) * 2018-10-11 2023-10-27 平安科技(深圳)有限公司 一种基于神经网络的语音识别方法、终端设备及介质
US10891969B2 (en) * 2018-10-19 2021-01-12 Microsoft Technology Licensing, Llc Transforming audio content into images
JP7192492B2 (ja) * 2018-12-27 2022-12-20 富士通株式会社 学習装置、学習方法および学習プログラム
CN113383316B (zh) * 2019-01-17 2022-11-25 维萨国际服务协会 用于学习程序语义的方法和设备
JP7225876B2 (ja) * 2019-02-08 2023-02-21 富士通株式会社 情報処理装置、演算処理装置および情報処理装置の制御方法
US11227579B2 (en) * 2019-08-08 2022-01-18 International Business Machines Corporation Data augmentation by frame insertion for speech data
CN112364697B (zh) * 2020-10-14 2021-11-30 陕西师范大学 基于r-lstm模型的脑电信号情绪识别方法
CN112529104B (zh) * 2020-12-23 2024-06-18 东软睿驰汽车技术(沈阳)有限公司 一种车辆故障预测模型生成方法、故障预测方法及装置
CN113052388A (zh) * 2021-04-01 2021-06-29 北京工商大学 一种时间序列预测方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009288933A (ja) * 2008-05-28 2009-12-10 Sony Corp 学習装置、学習方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000008634A1 (en) * 1998-08-07 2000-02-17 Fonix Corporation Methods and apparatus for phoneme estimation using neural networks
JP2007280054A (ja) 2006-04-06 2007-10-25 Sony Corp 学習装置および学習方法、並びにプログラム
CN102968989B (zh) * 2012-12-10 2014-08-13 中国科学院自动化研究所 一种用于语音识别的Ngram模型改进方法
US10867597B2 (en) * 2013-09-02 2020-12-15 Microsoft Technology Licensing, Llc Assignment of semantic labels to a sequence of words using neural network architectures

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009288933A (ja) * 2008-05-28 2009-12-10 Sony Corp 学習装置、学習方法、及びプログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018141925A (ja) * 2017-02-28 2018-09-13 日本放送協会 音響モデル学習装置および音響モデル学習プログラム
KR20180103671A (ko) * 2017-03-09 2018-09-19 삼성전자주식회사 언어 모델을 압축하기 위한 전자 장치, 추천 워드를 제공하기 위한 전자 장치 및 그 동작 방법들
KR102488338B1 (ko) 2017-03-09 2023-01-13 삼성전자주식회사 언어 모델을 압축하기 위한 전자 장치, 추천 워드를 제공하기 위한 전자 장치 및 그 동작 방법들
CN108630198A (zh) * 2017-03-23 2018-10-09 三星电子株式会社 用于训练声学模型的方法和设备
JP2018159917A (ja) * 2017-03-23 2018-10-11 三星電子株式会社Samsung Electronics Co.,Ltd. 音響モデルをトレーニングする方法及び装置
JP7143091B2 (ja) 2017-03-23 2022-09-28 三星電子株式会社 音響モデルをトレーニングする方法及び装置
CN108630198B (zh) * 2017-03-23 2024-04-02 三星电子株式会社 用于训练声学模型的方法和设备
WO2019004582A1 (ko) * 2017-06-28 2019-01-03 포항공과대학교 산학협력단 아식칩과 스마트폰을 구비하는 실시간 음성인식 장치
US11183177B2 (en) 2017-06-28 2021-11-23 Postech Academy-Industry Foundation Real-time voice recognition apparatus equipped with ASIC chip and smartphone
JP2019078857A (ja) * 2017-10-24 2019-05-23 国立研究開発法人情報通信研究機構 音響モデルの学習方法及びコンピュータプログラム
WO2020189235A1 (ja) * 2019-03-20 2020-09-24 国立大学法人大阪大学 学習済みモデル、制御装置、摩擦攪拌接合システム、ニューラルネットワークシステム、及び学習済みモデルの生成方法
WO2022153504A1 (ja) * 2021-01-15 2022-07-21 日本電信電話株式会社 学習方法、学習システム及び学習プログラム

Also Published As

Publication number Publication date
CN107615308B (zh) 2021-02-26
JP6628350B2 (ja) 2020-01-08
CN107615308A (zh) 2018-01-19
EP3296930A4 (en) 2019-01-16
US10467525B2 (en) 2019-11-05
US20180121800A1 (en) 2018-05-03
EP3296930A1 (en) 2018-03-21
WO2016181951A1 (ja) 2016-11-17

Similar Documents

Publication Publication Date Title
JP6628350B2 (ja) リカレント型ニューラルネットワークの学習方法及びそのためのコンピュータプログラム、並びに音声認識装置
US11664020B2 (en) Speech recognition method and apparatus
KR102167719B1 (ko) 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치
US11798535B2 (en) On-device custom wake word detection
JP6727607B2 (ja) 音声認識装置及びコンピュータプログラム
JP6614639B2 (ja) 音声認識装置及びコンピュータプログラム
JP4545456B2 (ja) 最適区画の分類神経網の構成方法、最適区画の分類神経網を用いた自動ラベリング方法、並びに装置
KR102399535B1 (ko) 음성 인식을 위한 학습 방법 및 장치
JP6884946B2 (ja) 音響モデルの学習装置及びそのためのコンピュータプログラム
US11315548B1 (en) Method and system for performing domain adaptation of end-to-end automatic speech recognition model
JP2018159917A (ja) 音響モデルをトレーニングする方法及び装置
JP2004226982A (ja) 隠れ軌跡隠れマルコフモデルを使用した音声認識の方法
KR102292921B1 (ko) 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치
JP2018013722A (ja) 音響モデル最適化装置及びそのためのコンピュータプログラム
JP4964194B2 (ja) 音声認識モデル作成装置とその方法、音声認識装置とその方法、プログラムとその記録媒体
JP2019078857A (ja) 音響モデルの学習方法及びコンピュータプログラム
JP6235922B2 (ja) 重み付き有限状態オートマトン作成装置、記号列変換装置、音声認識装置、それらの方法、及びプログラム
JP2009300716A (ja) 音声認識装置とその方法と、プログラムとその記録媒体
Tang et al. Future Context Attention for Unidirectional LSTM Based Acoustic Model.
WO2020196021A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2018013721A (ja) 音声合成パラメータ生成装置及びそのためのコンピュータプログラム
KR20240057182A (ko) 음성인식 방법 및 장치
JP2004279454A (ja) 音声生成モデル話者適応化方法、その装置、そのプログラム及びその記録媒体
JPH08123477A (ja) 不定長音響モデル作成装置及び音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191129

R150 Certificate of patent or registration of utility model

Ref document number: 6628350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250