JP6827548B2 - 音声認識システム及び音声認識の方法 - Google Patents

音声認識システム及び音声認識の方法 Download PDF

Info

Publication number
JP6827548B2
JP6827548B2 JP2019541213A JP2019541213A JP6827548B2 JP 6827548 B2 JP6827548 B2 JP 6827548B2 JP 2019541213 A JP2019541213 A JP 2019541213A JP 2019541213 A JP2019541213 A JP 2019541213A JP 6827548 B2 JP6827548 B2 JP 6827548B2
Authority
JP
Japan
Prior art keywords
sequence
probability
label sequence
output label
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019541213A
Other languages
English (en)
Other versions
JP2020505650A (ja
Inventor
堀 貴明
貴明 堀
渡部 晋治
晋治 渡部
ハーシェイ、ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2020505650A publication Critical patent/JP2020505650A/ja
Application granted granted Critical
Publication of JP6827548B2 publication Critical patent/JP6827548B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems

Description

本発明は包括的には音声認識のシステム及び方法に関し、より詳細には、エンドツーエンド音声認識の方法及びシステムに関する。
自動音声認識は、現在では、広く展開されている十分に成熟した1組の技術であり、音声検索等のインターフェースアプリケーションにおいて大きな成功を収めている。しかしながら、高い認識精度を達成する音声認識システムを構築するのは容易ではない。1つの問題は、システムが受け入れる対象言語に関して、深い言語的知識を必要とすることである。例えば、そのようなシステムを構築するのに、1組の音素、語彙及び発音辞書が不可欠である。音素セットは、その言語に通じた人によって注意深く定義される必要がある。発音辞書は、10万語を超える単語を含む語彙内の各単語に1つ以上の音素系列を割り当てることによって、手作業で作成される必要がある。さらに、言語の中には、語境界を明確に有しないものもあり、それゆえ、テキストコーパスから語彙を作成するために、トークン化を必要とする場合がある。結果として、マイナーな言語の場合に特に、専門家でない人が音声認識システムを開発するのは極めて難しい。他の問題は、音声認識システムが、別々に最適化される音響モデル、辞書モデル及び言語モデルを含む、いくつかのモジュールに分解されることである。各モデルが他のモデルに一致するようにトレーニングされる場合であっても、このアーキテクチャの結果として、局所的な最適条件がもたらされる場合がある。
エンドツーエンド音声認識は、従来のアーキテクチャを簡略化して、深層学習のフレームワーク内の単一のニューラルネットワークアーキテクチャにするという目的を有する。これらの問題に対処するために、又はこれらの問題を解決するために、いくつかの文献において種々の技法が論じられてきた。しかしながら、極端に不連続なアライメント、結果として生じる削除及び挿入誤りを許すという意味において、基本となる時間的な注意機構に融通性がありすぎること、及びラベル系列仮説が、部分的に欠落するラベル系列の場合に短くなりすぎる場合があるか、又は同じラベル系列を繰り返す場合に長くなりすぎる場合があることを含む、複数の問題が依然として存在する。
本開示のいくつかの実施の形態は、仮説をスコアリングするために、注意ベース確率をCTCベース確率と結合することによって、関連のないアライメントで取得されたラベル系列仮説を削減し、認識精度を改善することができるという認識に基づく。
音声認識システムは、声音を受け取る入力デバイスと、1つ以上のプロセッサと、パラメーターと、1つ以上のプロセッサによって実行可能な命令を含むプログラムモジュールとを記憶する1つ以上の記憶デバイスであって、命令は、実行されるときに、1つ以上のプロセッサに動作を実行させる、1つ以上の記憶デバイスとを備える。この動作は、音響特徴抽出モジュールを用いて、声音から変換されたオーディオ波形データから音響特徴系列を抽出することと、エンコーダーネットワークパラメーターを有するエンコーダーネットワークを用いて、音響特徴系列を隠れベクトル系列に符号化することと、隠れベクトル系列を、デコーダーネットワークパラメーターを有するデコーダーネットワークに送り込むことによって、第1の出力ラベル系列確率を予測することと、コネクショニスト時系列分類(CTC)ネットワークパラメーターを使用するCTCモジュールと、エンコーダーネットワークからの隠れベクトル系列とによって、第2の出力ラベル系列確率を予測することと、ラベル系列探索モジュールを用いて、デコーダーネットワーク及びCTCモジュールから与えられた第1の出力ラベル系列確率及び第2の出力ラベル系列確率を結合することによって、最も高い系列確率を有する出力ラベル系列を探索することとを含む。
さらに、本開示のいくつかの実施の形態は、音響特徴抽出モジュールを用いて、入力デバイスによって受け取られる声音から変換されるオーディオ波形データから音響特徴系列を抽出することと、1つ以上の記憶デバイスからエンコーダーネットワークパラメーターを取得するエンコーダーネットワークを用いて、音響特徴系列を隠れベクトル系列に符号化することと、1つ以上の記憶デバイスからデコーダーネットワークパラメーターを取得するデコーダーネットワークに隠れベクトル系列を送り込むことによって、第1の出力ラベル系列確率を予測することと、コネクショニスト時系列分類(CTC)ネットワークパラメーターを使用するCTCモジュールと、エンコーダーネットワークからの隠れベクトル系列とによって、第2の出力ラベル系列確率を予測することと、ラベル系列探索モジュールを用いて、デコーダーネットワーク及びCTCモジュールから与えられる第1の出力ラベル系列確率及び第2の出力ラベル系列確率を結合することによって、最も高い系列確率を有する出力ラベル系列を探索することとを含む、音声認識の方法を提供する。
ここに開示されている実施の形態は、添付図面を参照して更に説明される。示されている図面は、必ずしも一律の縮尺というわけではなく、その代わり、一般的に、ここに開示されている実施の形態の原理を示すことに強調が置かれている。
関連技術による、注意ベースエンドツーエンド音声認識方法を示すブロック図である。 本発明の実施の形態による、エンドツーエンド音声認識モジュールを示すブロック図である。 本発明の実施の形態による、エンドツーエンド音声認識モジュール内のニューラルネットワークを示す概略図である。 本発明の実施の形態による、エンドツーエンド音声認識システムを示すブロック図である。 日本語タスクに関してエンドツーエンド音声認識を実行することによって得られる評価結果を示す図である。 標準中国語(Mandarin Chinese)タスクに関してエンドツーエンド音声認識を実行することによって得られる評価結果を示す図である。
上記で明らかにされた図面は、ここに開示されている実施の形態を記載しているが、この論述において言及されるように、他の実施の形態も意図されている。この開示は、限定ではなく代表例として例示の実施の形態を提示している。ここに開示されている実施の形態の原理の範囲及び趣旨に含まれる非常に多くの他の変更及び実施の形態を当業者は考案することができる。
以下の説明は、例示的な実施の形態のみを提供し、本開示の範囲も、適用範囲も、構成も限定することを意図していない。そうではなく、例示的な実施の形態の以下の説明は1つ以上の例示的な実施の形態を実施することを可能にする説明を当業者に提供する。添付の特許請求の範囲に明記されているような開示された主題の趣旨及び範囲から逸脱することなく要素の機能及び配置に行うことができる様々な変更が意図されている。
以下の説明では、実施の形態の十分な理解を提供するために、具体的な詳細が与えられる。しかしながら、当業者は、これらの具体的な詳細がなくても実施の形態を実施することができることを理解することができる。例えば、開示された主題におけるシステム、プロセス、及び他の要素は、実施の形態を不必要な詳細で不明瞭にしないように、ブロック図形式の構成要素として示される場合がある。それ以外の場合において、よく知られたプロセス、構造、及び技法は、実施の形態を不明瞭にしないように不必要な詳細なしで示される場合がある。さらに、様々な図面における同様の参照符号及び名称は、同様の要素を示す。
また、個々の実施の形態は、フローチャート、フロー図、データフロー図、構造図、又はブロック図として描かれるプロセスとして説明される場合がある。フローチャートは、動作を逐次的なプロセスとして説明することができるが、これらの動作の多くは、並列又は同時に実行することができる。加えて、これらの動作の順序は、再配列することができる。プロセスは、その動作が完了したときに終了することができるが、論述されない又は図に含まれない追加のステップを有する場合がある。さらに、特に説明される任意のプロセスにおける全ての動作が全ての実施の形態において行われ得るとは限らない。プロセスは、方法、関数、手順、サブルーチン、サブプログラム等に対応することができる。プロセスが関数に対応するとき、その関数の終了は、呼び出し側関数又はメイン関数へのその機能の復帰に対応することができる。
さらに、開示された主題の実施の形態は、少なくとも一部は手動又は自動のいずれかで実施することができる。手動実施又は自動実施は、マシン、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又はそれらの任意の組み合わせを用いて実行することもできるし、少なくとも援助することができる。ソフトウェア、ファームウェア、ミドルウェア又はマイクロコードで実施されるとき、必要なタスクを実行するプログラムコード又はプログラムコードセグメントは、マシン可読媒体に記憶することができる。プロセッサ(複数の場合もある)が、それらの必要なタスクを実行することができる。
本開示において例示されるモジュール及びネットワークは、コンピュータープログラム、ソフトウェア又は命令コードとすることができ、1つ以上のプロセッサを用いて命令を実行することができる。モジュール及びネットワークは1つ以上の記憶デバイスに記憶することができるか、又は別の状況では、例えば、磁気ディスク、光ディスク若しくはテープ等の、記憶媒体、コンピューター記憶媒体又はデータ記憶デバイス(取外し可能及び/又は非取外し可能)等のコンピューター可読媒体に記憶することができ、コンピューター可読媒体は、命令を実行するために1つ以上のプロセッサからアクセス可能である。
コンピューター記憶媒体は、コンピューター可読命令、データ構造、プログラムモジュール又は他のデータ等の情報を記憶するための任意の方法又は技術において実現される揮発性及び不揮発性、取外し可能及び非取外し可能の媒体を含むことができる。コンピューター記憶媒体は、RAM、ROM、EEPROM若しくはフラッシュメモリ、CD−ROM、デジタルバーサタイルディスク(DVD)若しくは他の光記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置若しくは他の磁気記憶デバイス、又は所望の情報を記憶するために使用することができ、1つ以上のプロセッサを用いて、アプリケーション、モジュール又は両方によってアクセスすることができる任意の他の媒体とすることができる。任意のそのようなコンピューター記憶媒体は、そのデバイスの一部とすることができるか、そのデバイスからアクセス可能とすることができるか、又はそのデバイスに接続可能とすることができる。本明細書において説明される任意のアプリケーション又はモジュールは、そのようなコンピューター可読媒体によって記憶できるか、又は別の方法で保持できるコンピューター可読/実行可能命令を用いて実現することができる。
関連技術において見いだされた要件を明確にするために、本開示の実施の形態を説明する前に、以下において音声認識に関して論じられることになる。
図1は、関連技術による、注意ベースエンドツーエンド音声認識モジュール100を示すブロック図である。
注意ベースエンドツーエンド音声認識モジュール100において、エンコーダーモジュール102が最初に、音響特徴系列101を、エンコーダーネットワークパラメーター103から読み出されたエンコーダーネットワークを用いて、隠れベクトル系列に変換する。次に、注意デコーダーモジュール104が、エンコーダーネットワークモジュール102から隠れベクトル系列を、ラベル系列探索モジュール106から先行するラベルを受信し、デコーダーネットワークパラメーター105から読み出されたデコーダーネットワークを用いて、先行するラベルに関する次のラベルの事後確率分布を計算し、ラベルは文字、音節、単語又は対象言語を表現する任意の単位とすることができるが、文字が広く使用される。ラベル系列探索モジュール106は、注意デコーダーモジュール104によって与えられた事後確率分布を用いて、最も高い系列確率を有するラベル系列を見つける。ラベル系列の事後確率は、系列におけるラベルの事後確率の積として計算される。
しかしながら、注意ベース手法は重大な問題を含む。注意デコーダーモジュール104は、音響特徴を得るために、注意機構を用いて、出力ラベル系列の各要素と、エンコーダーモジュール102によって生成される隠れベクトルとの間のアライメントを見つける。各出力位置において、デコーダーモジュール104は、その状態ベクトルと、各入力フレームにおけるエンコーダーモジュール102の隠れベクトルとの間の照合スコアを計算して、時間的アライメント分布を形成し、その後、それを用いて、対応するエンコーダー隠れベクトルの平均を抽出する。この基本となる時間的な注意機構は、極端に不連続なアライメントを許し、音声認識の不正確さを増大させるという意味において、融通性がありすぎる。
本発明のいくつかの実施の形態は、仮説をスコアリングするために、注意ベース確率をCTCベース確率と結合することによって、システム出力に関して選択される、関連のないアライメントを用いて得られたラベル系列仮説を削減することができるという認識に基づく。
本開示の実施の形態によれば、注意ベースエンドツーエンド音声認識の復号プロセスに、CTCベース確率を使用することによる厳密な制約を組み込むことが可能になる。CTCは、動的計画法を用いて、厳密に単調なアライメントを効率的に計算できるようにするので、関連のない非単調なアライメントを伴うラベル系列の事後確率を、他のアライメントを伴うラベル系列の事後確率より下げることができる。
また、本開示の実施の形態は、各ラベル系列仮説が注意ベース確率だけでなく、CTCベース確率によってもスコアリングされることを規定し、スコアは、注意デコーダー及びCTCによって計算された対数事後確率の線形結合とすることができる。結果として、本開示のエンドツーエンド音声認識は、出力ラベルと音響特徴との間の類似度及びアライメント正確性の両方に関して最良の仮説を選択することが可能になり、認識精度が向上する。したがって、本開示の実施の形態によるエンドツーエンド音声認識のシステム及び方法は、上記で論じられた問題を軽減することができる。
エンドツーエンド音声認識装置は、マイクロフォン、ハードディスクドライブ及びコンピューターネットワーク等の入力デバイスから音響特徴系列を受信することができる。その装置は、音響特徴系列に関して、エンコーダーネットワークパラメーター、デコーダーネットワークパラメーター及びCTCネットワークパラメーターを用いてエンドツーエンド音声認識法を実行し、予測されるラベル系列を、ハードディスクドライブ、表示モニター及びコンピューターネットワーク等の出力デバイスに出力する。
図2は、本発明の実施の形態による、エンドツーエンド音声認識モジュール200を示すブロック図である。
エンドツーエンド音声認識モジュール200は、エンコーダーネットワークモジュール202と、エンコーダーネットワークパラメーター203と、注意デコーダーモジュール204と、デコーダーネットワークパラメーター205と、ラベル系列探索モジュール206と、CTCモジュール208と、CTCネットワークパラメーター209とを含む。エンコーダーネットワークパラメーター203、デコーダーネットワークパラメーター205及びCTCネットワークパラメーター209はそれぞれ、対応するモジュール202、204及び208にパラメーターを与えるために、記憶デバイスに記憶される。図4の音響特徴抽出モジュール434を用いて、オーディオ波形データ又はスペクトルデータから音響特徴系列201が抽出される。オーディオ波形データ又はスペクトルデータは、記憶デバイスに記憶し、エンコーダーネットワークモジュール202に与えることができる。オーディオ波形データ又はスペクトルデータは、声音を受信し、オーディオ波形データ又はスペクトルデータに変換するデジタル信号処理モジュール(図示せず)を用いて、図4の入力デバイス475を介して取得することができる。さらに、記憶デバイス430又はメモリ440に記憶されるオーディオ波形データ又はスペクトルデータは、エンコーダーネットワークモジュール202に与えることができる。声音の信号は図4のネットワーク490を介して与えることができ、入力デバイス475はマイクロフォンデバイスとすることができる。
エンコーダーネットワークモジュール202はエンコーダーネットワークを含み、エンコーダーネットワークパラメーター203からパラメーターを読み出すエンコーダーネットワークを用いて、音響特徴系列201が隠れベクトル系列に変換される。
注意デコーダーネットワーク204を使用する注意機構が、以下のように説明される。注意デコーダーネットワークモジュール204はデコーダーネットワークを含む。注意デコーダーネットワークモジュール204は、エンコーダーネットワークモジュール202から隠れベクトル系列を、ラベル系列探索モジュール206から先行するラベルを受信し、その後、デコーダーネットワークパラメーター205からパラメーターを読み出すデコーダーネットワークを用いて、先行するラベルに関する次のラベルの第1の事後確率分布を計算する。注意デコーダーネットワークモジュール204は、第1の事後確率分布をラベル系列探索モジュール206に与える。CTCモジュール208は、エンコーダーネットワークモジュール202から隠れベクトル系列を、ラベル系列探索モジュール206から先行するラベルを受信し、CTCネットワークパラメーター209及び動的計画法を用いて、次のラベル系列の第2の事後確率分布を計算する。計算後に、CTCモジュール208は、第2の事後確率分布をラベル系列探索モジュール206に与える。
ラベル系列探索モジュール206は、注意デコーダーネットワークモジュール204及びCTCモジュール208から与えられる第1の事後確率分布及び第2の事後確率分布を用いて、最も高い系列確率を有するラベル系列を見つける。注意デコーダーネットワークモジュール204及びCTCモジュール208によって計算されるラベル系列の第1の事後確率及び第2の事後確率は結合され、1つの確率にされる。この場合、計算された事後確率の結合は、線形結合に基づいて実行することができる。エンドツーエンド音声認識モジュール200によれば、CTC確率を考慮に入れて、入力音響特徴系列に対してより良好にアラインされた仮説を見つけることが可能になる。
注意ベースエンドツーエンド音声認識
エンドツーエンド音声認識は、包括的には、入力音響特徴Xを与えられるときに、最確ラベル系列Y(ハット)を見つける問題と定義され、すなわち、
Figure 0006827548
である。ただし、
Figure 0006827548
は1組の所定の文字
Figure 0006827548
を与えられるときの1組の取り得るラベル系列を表す。
エンドツーエンド音声認識において、発音辞書及び言語モデルを用いることなく、あらかじめトレーニングされたニューラルネットワークによってp(Y|X)が計算される。関連技術の注意ベースエンドツーエンド音声認識では、ニューラルネットワークは、エンコーダーネットワーク及びデコーダーネットワークからなる。
エンコーダーモジュール102は、
Figure 0006827548
として、音響特徴系列X=x,…,xを隠れベクトル系列
Figure 0006827548
に変換するために使用されるエンコーダーネットワークを含む。ただし、関数Encoder(X)は、スタックされる、1つ以上の再帰型ニューラルネットワーク(RNN:recurrent neural network)からなることができる。RNNは長短期メモリ(LSTM:Long Short-Term Memory)として実現することができ、長短期メモリは、各隠れユニット内に入力ゲート、忘却ゲート、出力ゲート及びメモリセルを有する。別のRNNは双方向RNN(BRNN)又は双方向LSTM(BLSTM)とすることができる。BLSTMは一対のLSTM RNNであり、一方は順方向LSTMであり、他方は逆方向LSTMである。BLSTMの隠れベクトルは、順方向LSTM及び逆方向LSTMの隠れベクトルの連結として取得される。
順方向LSTMの場合、順方向の第tの隠れベクトルh は以下のように計算される。
Figure 0006827548
ただし、σ(・)は要素ごとのシグモイド関数であり、tanh(・)は要素ごとの双曲線正接関数であり、i ,f ,o 及びc はそれぞれ、xに関する入力ゲートベクトル、忘却ゲートベクトル、出力ゲートベクトル及びセルアクティベーションベクトルである。
Figure 0006827548
はベクトル間の要素ごとの乗算を表す。重み行列Wzz 及びバイアスベクトルb はLSTMのパラメーターであり、それは下付き文字z∈{x,h,i,f,o,c}によって識別される。例えば、Whi は隠れ/入力ゲート行列であり、Wxo は入力/出力ゲート行列である。隠れベクトルh は入力ベクトルx及び先行する隠れベクトルht−1 から再帰的に取得される。ただし、h0 は零ベクトルであると仮定される。
逆方向LSTMによれば、逆方向の第tの隠れベクトルh は以下のように計算される。
Figure 0006827548
ただし、i ,f ,o 及びc はそれぞれ、xに関する入力ゲートベクトル、忘却ゲートベクトル、出力ゲートベクトル及びセルアクティベーションベクトルである。重み行列Wzz 及びバイアスベクトルb はLSTMのパラメーターであり、それは順方向LSTMと同様にして下付き文字によって識別される。隠れベクトルh は入力ベクトルx及び後続の隠れベクトルht+1 から再帰的に取得される。ただし、hT+1 は零ベクトルであると仮定される。
BLSTMの隠れベクトルは、以下のように、順方向隠れベクトル及び逆方向隠れベクトルを連結することによって取得される。
Figure 0006827548
ただし、
Figure 0006827548
は、全てのベクトルが列ベクトルであると仮定するときに、ベクトルに関する転置演算を表す。Wzz ,b ,Wzz 及びb はBLSTMのパラメーターと見なされる。
より良好な隠れベクトルを取得するために、第1のBLSTMの隠れベクトルを第2のBLSTMに送り込み、その後、第2のBLSTMの隠れベクトルを第3のBLSTMに送り込み、以下同様にすることによって、複数のBLSTMをスタックすることができる。
Figure 0006827548
が1つのBLSTMによって取得された隠れベクトルである場合には、それを別のBLSTMに送り込むときに、
Figure 0006827548
であると仮定する。計算を削減するために、1つのBLSTMから別のBLSTMに1つおきの隠れベクトルのみを送り込むことができる。この場合、出力隠れベクトル系列の長さは、入力音響特徴系列の長さの半分になる。
注意デコーダーモジュール104は、隠れベクトル系列
Figure 0006827548
を用いて、ラベル系列確率p(Y|X)を計算するために使用されるデコーダーネットワークを含む。YがL長のラベル系列y,y,…,yであると仮定する。p(Y|X)を効率的に計算するために、その確率は、
Figure 0006827548
として確率連鎖律によって分割することができ、各ラベル確率p(yl(エル)|y,…yl(エル)−1、X)はラベルにわたる確率分布から取得され、その確率分布は、
Figure 0006827548
としてデコーダーネットワークを用いて推定される。ただし、
Figure 0006827548
はラベルを表す確率変数であり、
Figure 0006827548
はコンテンツベクトルと呼ばれ、それは
Figure 0006827548
のコンテンツ情報を有する。
Figure 0006827548
はデコーダー状態ベクトルであり、それは、先行するラベルy,…yl(エル)−1及び先行するコンテンツベクトル
Figure 0006827548
の文脈情報を含む。したがって、ラベル確率は、文脈を与えられるとすると、
Figure 0006827548
の確率として取得され、すなわち、
Figure 0006827548
である。
コンテンツベクトルrl(エル)は一般に、エンコーダーネットワークの隠れベクトルの加重和として与えられ、すなわち、
Figure 0006827548
である。ただし、al(エル)tは注意重みと呼ばれ、それはΣl(エル)t=1を満たす。注意重みは
Figure 0006827548
及び
Figure 0006827548
を用いて、以下のように計算される。
Figure 0006827548
ただし、W,V,F及びUは行列であり、w及びbはベクトルであり、それらはデコーダーネットワークのトレーニング可能なパラメーターである。el(エル)tは第(l(エル)−1)の状態ベクトルql(エル)−1と第tの隠れベクトルhとの間の照合スコアであり、時間的なアライメント分布al(エル)={al(エル)t|t=1,…,T}を形成する。al(エル)−1は、先行するラベルyl(エル)−1を予測するために使用される先行するアライメント分布){a(l(エル)−1)t|t=1,…,T}を表す。fl(エル)={fl(エル)t|t=1,…,T}は、al(エル)−1に関するFとの畳み込み結果であり、それは、先行するアライメントを現在のアライメントに反映させるために使用される。「*」は畳み込み演算を表す。
ラベル確率分布は、
Figure 0006827548
として状態ベクトルql(エル)−1及びコンテンツベクトルrl(エル)を用いて取得される。ただし、Wqy及びWryは行列であり、bはベクトルであり、それらはデコーダーネットワークのトレーニング可能なパラメーターである。softmax()関数は、K次元ベクトルvの場合に、
Figure 0006827548
として計算される。ただし、v[i]は、vの第iの要素を示す。
その後、デコーダー状態ベクトルql(エル)−1が、以下のように、LSTMを用いて、ql(エル)に更新される。
Figure 0006827548
ただし、il(エル) ,fl(エル) ,ol(エル) 及びcl(エル) はそれぞれ、入力ベクトルxl(エル)に関する入力ゲートベクトル、忘却ゲートベクトル、出力ゲートベクトル及びセルアクティベーションベクトルである。重み行列Wzz 及びバイアスベクトルb はLSTMのパラメーターであり、それは順方向LSTMと同様にして下付き文字によって識別される。状態ベクトルql(エル)は入力ベクトルxl(エル) 及び先行する状態ベクトルql(エル)−1から再帰的に取得され、ただし、q0は、q−1=0、y=<sos>及びa=1/Tを仮定して計算される。デコーダーネットワークの場合、入力ベクトルxl(エル) は、ラベルyl(エル)及びコンテンツベクトルrl(エル)の連結ベクトルとして与えられ、それは
Figure 0006827548
として取得することができ、ただし、
Figure 0006827548
は、ラベルを固定次元ベクトルに変換するラベル埋め込みを表す。
注意ベース音声認識において、コンテンツベクトルrl(エル)は、式(17)に示されるように、アライメント分布al(エル)に大きく依存するので、正確なラベルを予測する上で、適切な注意重みを推定することが非常に重要である。音声認識において、コンテンツベクトルはアライメント分布のピークの周りのエンコーダーの隠れベクトル内の音響情報を表し、音響情報は、ラベルyl(エル)を予測する上で最も重要な手がかりである。それにもかかわらず、yl(エル)を徐々に予測するときに、分布のピークが時間とともに単調に進むような明確な制約はないので、注意機構は多くの場合に不規則なアライメント分布を与える。音声認識において、入力系列と出力系列との間のアライメントは一般に単調にすべきである。畳み込み特徴fl(エル)tは不規則なアライメントを生成するのを軽減するが、不規則なアライメントを回避するほど十分に強くない。
ジョイントCTC/注意ベースエンドツーエンド音声認識
本発明の実施の形態による、エンドツーエンド音声認識モジュール200を用いてエンドツーエンド音声認識を実行する方法において、より正確なラベル系列確率を得るために、CTC順方向確率、式(34)が、式(14)において注意ベース確率と結合される。
CTCモジュール208は、隠れベクトル系列
Figure 0006827548
を与えられると、ラベル系列YのCTC順方向確率を計算する。CTC定式化は、1組の異なるラベル
Figure 0006827548
を有するL長のラベル系列
Figure 0006827548
を使用することに留意されたい。付加的な「ブランク」ラベルを有するフレームごとのラベル系列を導入することによって、
Figure 0006827548
である。ただし、bはブランクラベルを表す。確率連鎖律と、条件付き独立仮定とを使用することによって、事後確率p(Y|X)は以下のように分解される。
Figure 0006827548
ただし、p(z|zt−1|Y)はブランクラベルを含むラベル遷移確率と見なされる。p(z|X)は、入力系列Xを条件とし、双方向長短期メモリ(BLSTM)を使用することによってモデル化される、フレームごとの事後確率である。
Figure 0006827548
ただし、hはエンコーダーネットワークを用いて得られる。Why CTCは行列であり、b CTCはベクトルであり、それらはCTCのトレーニング可能なパラメーターである。式(28)は、全ての取り得るZにわたる総和を取り扱わなければならないが、順方向アルゴリズムを使用することによって効率的に計算される。
CTCのための順方向アルゴリズムは以下のように実行される。長さ2L+1の拡張ラベル系列
Figure 0006827548
が使用される。ただし、ブランクラベル
Figure 0006827548
が各対の隣接するラベル間に挿入される。α(s)を順方向確率とする。それは時間フレーム1,…,tに関するラベル系列y,…,yl(エル)の事後確率を表し、ただし、sは、拡張ラベル系列Y’内の位置を示す。
初期化のために、
Figure 0006827548
が設定される。t=2〜Tの場合に、α(s)は、
Figure 0006827548
として再帰的に計算される。ただし、
Figure 0006827548
である。最後に、CTCベースラベル系列確率が
Figure 0006827548
として得られる。
フレームごとのラベル系列Zは、音響特徴系列Xと出力ラベル系列Yとの間のアライメントを表す。順方向確率を計算するとき、式(33)の再帰によって、Zが単調になるように強制し、アライメントZにおいてsがループ又は大きくジャンプできないようにする。なぜなら、α(s)を得るための再帰は、多くてもαt−1(s)、αt−1(s−1)、αt−1(s−2)しか考慮しないためである。これは、時間フレームが1フレームだけ進むとき、ラベルが先行するラベル又はブランクから変化するか、又は同じラベルを維持することを意味する。この制約は、アライメントが単調になるように強制する遷移確率p(z|zt−1、Y)の役割を果たす。それゆえ、p(Y|X)が、不規則な(非単調の)アライメントに基づいて計算されるときに、0又は非常に小さい値とすることができる。
図3は、本発明の実施の形態による、結合ニューラルネットワークモジュール300を示す概略図である。結合ニューラルネットワーク300は、エンコーダーネットワークモジュール202と、注意デコーダーネットワークモジュール204と、CTCモジュール208とを含む。各矢印は、変換を伴う、又は伴わないデータ転送を表し、各正方形又は円形ノードは、ベクトル又は予測ラベルを表す。音響特徴系列X=x,…,xが、エンコーダーネットワークモジュール202に送り込まれ、エンコーダーネットワークモジュールでは、2つのBLSTMがスタックされ、第1のBLSTMの1つおきの隠れベクトルが第2のBLSTMに送り込まれる。エンコーダーモジュール202の出力の結果、隠れベクトル系列
Figure 0006827548
が生成される。ただし、T’=T/2である。その後、
Figure 0006827548
がCTCモジュール208及びデコーダーネットワークモジュール204に送り込まれる。CTCベース系列確率及び注意ベース系列確率がそれぞれ、CTCモジュール208及びデコーダーネットワークモジュール204を用いて計算され、ラベル系列確率を取得するために結合される。
本発明の実施の形態において、確率は、
Figure 0006827548
として対数領域において結合することができる。ただし、pctc(Y|X)は式(35)におけるCTCベースラベル系列確率であり、patt(Y|X)は式(14)における注意ベースラベル系列確率である。λは、CTCベース確率及び注意ベース確率のバランスをとるための倍率である。
ラベル系列探索
ラベル系列探索モジュール206が、ラベル系列確率分布p(Y|X)に従って、最確ラベル系列Y(ハット)を見つける。すなわち、
Figure 0006827548
である。
従来技術の注意ベース音声認識では、p(Y|X)がpatt(Y|X)であると仮定される。本発明の実施の形態では、p(Y|X)が、式(36)のようにラベル系列確率の結合によって計算され、すなわち、
Figure 0006827548
に従ってY(ハット)を見つける。
しかしながら、取り得るラベル系列の数は、系列の長さとともに指数関数的に増加するので、Yに関する全ての取り得るラベル系列を列挙し、p(Y|X)を計算するのは難しい。それゆえ、Y(ハット)を見つけるために、一般にビーム探索技法が使用され、その技法では、短い方のラベル系列仮説が最初に生成され、長い方の仮説を取得するために、他の仮説より高いスコアを有する限られた数の仮説のみが拡張される。最後に、系列の最後に達した完全な仮説において、最良のラベル系列仮説が選択される。
ビーム探索プロセスにおいて、デコーダーはラベル系列仮説ごとにスコアを計算する必要がある。しかしながら、CTCがフレーム同期状態でそれを実行する一方で、注意デコーダーが出力ラベル同期状態でそれを実行するので、ビーム探索においてCTCベーススコア及び注意ベーススコアを結合するのは簡単ではない。仮説スコアにCTC確率を組み込むために、本発明の実施の形態による、ラベル系列探索モジュール206は、以下に説明される2つの方法のいずれかを使用することができる。
(1)リスコアリング法
第1の方法は2パス手法である。第1のパスがビーム探索を用いて1組の完全な仮説を見つけ、その場合に、注意ベーススコアのみが考慮される。第2のパスは、式(36)に示されるように、CTC確率及び注意確率の結合を用いて完全な仮説をリスコアリングし、最良のラベル系列仮説を見つける。
リスコアリング方法によれば、ラベル系列探索モジュール206が、以下のように、Y(ハット)を見つける。Ωl(エル)を長さl(エル)の1組の部分仮説であるとする。第1のパスのビーム探索の開始時に、Ωは、開始記号<sos>を有する1つの仮説のみを含む。l(エル)=1〜Lmaxの場合に、Ωl(エル)−1内の各部分仮説が、取り得る単一のラベルを付加することによって拡張され、新たな仮説Ωl(エル)がに記憶される。ただし、Lmaxは、探索されることになる仮説の最大長である。新たな各仮説のスコアは
Figure 0006827548
として対数領域において計算される。ただし、gはΩl(エル)−1内の部分仮説である。yはgに付加される単一のラベルであり、hは新たな仮説であり、すなわち、h=g・yである。確率patt(y|g)は式(16)によって計算することができる。ただし、ψatt(<sos>)=0であると仮定する。
yが系列の終了を表す特殊なラベル<eos>である場合には、hがΩ(ハット)に加えられるが、Ωl(エル)には加えられない。ただし、Ω(ハット)は1組の完全な仮説を表す。第2のパスは、
Figure 0006827548
として、CTCスコア及び注意スコアの結合に基づいて、Y(ハット)を見つける。ただし、CTCスコアψctc(h,X)はlogpctc(h|X)として計算される。
ビーム探索プロセスにおいて、Ωl(エル)は、より高いスコアを有する限られた数の仮説のみを保持することを許され、他の仮説は、探索効率を改善するために切り取られる。リスコアリング方法のより具体的な手順が以下のように要約される。
Figure 0006827548
この手順において、Ωl(エル)及びΩ(ハット)はそれぞれ、長さl(エル)の部分仮説及び完全な仮説を受け入れる待ち行列として実現される。1行目〜2行目において、Ω0及びΩ(ハット)が空の待ち行列として初期化される。3行目において、初期仮説のためのスコア<sos>が0に設定される。4行目〜23行目において、Ωl(エル)−1内の各部分仮説gが、ラベルセット
Figure 0006827548
内の各ラベルyによって拡張される。ただし、演算Head(Ω)は待ち行列Ω内の第1の仮説を返し、Dequesu(Ω)は待ち行列から第1の仮説を除去する。
拡張された各仮説hは、11行目において注意デコーダーネットワークを用いてスコアリングされる。その後、y=<eos>である場合には、仮説hは完全であると仮定され、13行目においてΩ(ハット)内に記憶される。ただし、Enqueue(Ω(ハット),h)はhをΩ(ハット)に加える演算である。y≠<eos>である場合には、15行目においてhがΩl(エル)に記憶される。ここで、Ωl(エル)内の仮説の数、すなわち、、|Ωl(エル)|が16行目において所定の数beamwidthと比較される。|Ωl(エル)|がbeamwidthを超える場合には、17行目〜18行目において、Ωl(エル)内の最少スコアhminを有する仮説がΩl(エル)から除去される。ただし、Remove(Ωl(エル),hmin)は、Ωl(エル)からhminを除去する演算である。最後に、24行目において、Y(ハット)が最良の仮説として選択される。
(2)1パス法
第2の方法は1パス手法であり、その手法は、ビーム探索中に各部分仮説のスコアをCTCベース確率及び注意ベース確率の結合として計算する。ここで、そのプレフィックスとしてhを有する全てのラベル系列の累積確率として定義されるCTCプレフィックス確率を利用し、
Figure 0006827548
CTCスコアを
Figure 0006827548
と定義する。ただし、vは、空のストリングを除く、全ての取り得るラベル系列を表す。CTCスコアは、式(39)のように再帰的に得ることはできないが、入力時間フレームにわたって順方向確率を維持することによって、部分仮説ごとに効率的に計算することができる。その後、倍率λを用いて、ψatt(h)と結合される。
1パス法によれば、ラベル系列探索モジュール206が、以下の手順に従ってY(ハット)を見つける。
Figure 0006827548
リスコアリング法との違いは、CTCスコアψctc(h,X)及び注意ベーススコアψatt(h)を用いてジョイントスコア(joint score)ψjoint(h)を計算する12行目、及びジョイントスコアψjoint(h)を用いて、hminを選択する18行目である。
CTCスコアψctc(h,X)は、修正順方向アルゴリズムを用いて計算することができる。γ (n)(h)及びγ (b)(h)を時間フレーム1,…,tにわたる仮説hの順方向確率であるとする。ただし、上付き文字(n)及び(b)はそれぞれ、全てのCTC経路が非ブランクラベル又はブランクラベルで終了する異なる事例を表す。ビーム探索を開始する前に、γ (n)(・)及びγ (b)(・)が、t=1,…,Tに関して、
Figure 0006827548
として初期化される。ただし、γ (b)(<sos>)=1であり、
Figure 0006827548
がブランクラベルであると仮定する。エンコーダーに関するサブサンプリング技法のため、時間インデックスt及び入力長Tは入力発話Xの時間インデックス及び入力長とは異なる場合があることに留意されたい。CTCスコア関数は以下のように実施することができる。
Figure 0006827548
この関数において、所与の仮説hが、1行目において、最初に、最後のラベルy及び残りのラベルgに分割される。yが<eos>である場合には、3行目において、hが完全な仮説であると仮定して、順方向確率の対数を返す。hの順方向確率は、γ (n)(・)及びγ (b)(・)の定義に従って、
Figure 0006827548
によって与えられる。yが<eos>でない場合には、hが完全な仮説でないと仮定して、順方向確率γ (n)(h)及びγ (b)(h)並びにプレフィックス確率Ψ=pctc(h,…|X)を計算する。それらの確率に関する初期化ステップ及び再帰ステップが5行目〜13行目に記述される。この関数において、10行目〜12行目において、γ (n)(h)、γ (b)(h)及びΨを計算するときにはいつでも、gがhのプレフィックスであり、|g|<|h|であるので、9行目の確率γt−1 (n)(g)及びγt−1 (b)(g)がビーム探索プロセスを通して既に取得されていると仮定される。したがって、プレフィックス確率及び順方向確率を効率的に計算することができる。9行目のlast(g)は、gの最後のラベルを返す関数であることを留意されたい。
したがって、1パス法は、ビーム探索中にCTCスコアによって不規則なアライメントを伴う部分仮説を除外することができ、リスコアリング法と比べて少ない計算で、望ましくは探索誤りの数を削減する。探索誤りは、ビーム探索によって最確仮説が見逃されることを意味する。この場合、最良の仮説の代わりに、スコアが低い代替の仮説が取得され、代替の仮説は一般に、最良の仮説より多くの認識誤りを含む。
ネットワークトレーニング
トレーニング段階において、損失関数を低減するために、全てのネットワークパラメーター203、205及び209が同時に最適化される。
Figure 0006827548
ただし、
Figure 0006827548
及び
Figure 0006827548
は、音響特徴系列及びラベル系列を含むトレーニングデータである。Φは1組のネットワークパラメーターを表す。Nは、トレーニングサンプルの数であり、Xn及びYnはそれぞれ、トレーニングデータ内の第nの音響特徴系列及び対応するラベル系列である。pctc(Y|X,φ)はCTCベース系列確率であり、patt(Y|X,φ)は注意ベース系列確率である。ネットワークパラメーターは、確率的勾配降下法によって最適化することができる。
トレーニング手順は、エンコーダーネットワーク、デコーダーネットワーク及びCTCネットワークを同時に最適化する。しかし、この方法は、CTCネットワークだけを用いて、従来技術の注意ベースエンドツーエンド音声認識のためのエンコーダーパラメーター及びデコーダーパラメーターを正規化する。CTCネットワークはトレーニング後に破棄され、認識段階では使用されない。本発明の方法において、CTCネットワークを用いて、認識段階において系列確率p(Y|X)を予測し、それにより、認識誤りを削減する。これは、本開示の実施の形態の重要な利点のうちの1つである。
エンドツーエンド音声認識装置
図4は、本発明のいくつかの実施の形態による、エンドツーエンド音声認識システム400のブロック図を示す。エンドツーエンド音声認識システム400は、キーボード411及びポインティングデバイス/媒体412と接続可能なヒューマンマシンインターフェース(HMI)410と、1つ以上のプロセッサ420と、記憶デバイス430と、メモリ440と、ローカルエリアネットワーク及びインターネットネットワークを含むネットワーク490と接続可能なネットワークインターフェースコントローラー450(NIC)と、ディスプレイインターフェース460と、マイクロフォンデバイス475と接続可能なオーディオインターフェース470と、印刷デバイス485と接続可能なプリンタインターフェース480とを含む。メモリ440は1つ以上のメモリユニットとすることができる。エンドツーエンド音声認識システム400は、NIC450に接続されるネットワーク490を介して電気的なオーディオ波形/スペクトルデータ495を受信することができる。記憶デバイス430は、エンドツーエンド音声認識モジュール200、注意デコーダーネットワークモジュール204、エンコーダーネットワークモジュール202、CTCモジュール208、及び音響特徴抽出モジュール434を含む。ラベル系列探索モジュール、エンコーダーネットワークパラメーター、デコーダーネットワークパラメーター及びCTCネットワークパラメーターは図において省略される。ポインティングデバイス/媒体412は、コンピューター可読記録媒体上に記憶されるプログラムを読み出すモジュールを含むことができる。注意デコーダーネットワークモジュール204、エンコーダーネットワークモジュール202及びCTCモジュール208は、ニューラルネットワークパラメーターによって形成することができる。音響特徴抽出モジュール434は、音響特徴系列を抽出するために使用されるプログラムである。音響特徴系列は、一次及び二次時間導関数及び/又はピッチ特徴を伴うメルスケールフィルターバンク係数の系列とすることができる。
エンドツーエンド音声認識を実行するために、キーボード411、ポインティングデバイス/媒体412を用いて、又は他のコンピューター(図示せず)に接続されるネットワーク490を介して、エンドツーエンド音声認識システム400に命令を送信することができる。システム400は、HMI410を介して命令を受信し、記憶デバイス430に記憶されるエンドツーエンド音声認識モジュール200、注意デコーダーネットワークモジュール204、エンコーダーネットワークモジュール202、CTCモジュール208及び音響特徴抽出モジュール434をロードすることによって、メモリ440に関連するプロセッサ420を用いてエンドツーエンド音声認識を実行するための命令を実行する。
評価結果
本発明の有効性を示すために、日本語及び中国標準語音声認識ベンチマーク(Japanese and Mandarin Chinese speech recognition benchmarks)を使用した。
日本語話し言葉コーパス(CSJ)
日本語話し言葉コーパス(CSJ:MAEKAWA, K., KOISO, H., FURUI, S., AND ISAHARA, H. Spontaneous speech corpus of Japanese in International Conference on Language Resources and Evaluation (LREC) (2000), vol. 2, pp. 947-952.)を使用することによって、音声認識実験を実施した。CSJは、学術講演及び模擬講演を含む、モノローグ音声データの集合体に基づく標準的な日本語音声認識タスクである。それは全部で581時間のトレーニングデータと、3つのタイプの評価データ(タスク1、タスク2、タスク3)を有し、各評価タスクは10回の講演(全部で5時間)からなる。入力特徴として、その一次及び二次時間導関数を伴う、40個のメルスケールフィルターバンク係数を用いて、フレームあたり全部で120次元の特徴ベクトルを取得した。エンコーダーは各層及び方向において320セルを有する4層BLSTMであり、線形射影層(linear projection layer)に各BLSTM層が後続した。エンコーダーの第2及び第3のボトム層は、下方のネットワークにおいて1つおきの隠れベクトルを読み出し、発話長を4分の1に削減する。ロケーションベース注意機構(location-based attention mechanism)が使用され、幅100の10個の中央畳み込みフィルター(centered convolution filter)を用いて、畳み込み特徴を抽出した。デコーダーネットワークは、320セルを有する1層LSTMであった。最適化のために、勾配クリッピングを有するAdaDeltaアルゴリズムが使用された。エンコーダーネットワーク、デコーダーネットワーク及びCTCネットワークはマルチタスク学習手法においてトレーニングされ、倍率λは0.1に設定された。
図5は、従来の注意ベース音声認識及び本発明に関する文字誤り率(CER:character error rate)を比較する。図5の表は、3つの全てのタスクにおいて、本発明によって従来技術のCERが低減されることを示す。ただし、倍率λは0.1に設定された。本発明において、1パス法は、タスク1及びタスク3においてリスコアリング法よりわずかに良好であった。
標準中国語電話音声
HKUST標準中国語会話電話音声認識(MTS)に関する実験を実施した。それは評価用の5時間の録音(Eval set)を有し、トレーニングセットから開発セット(Dev set)として5時間が抽出され、残り(167時間)はトレーニングセットとして使用された。予備調査に基づいて、トレーニング及び復号において0.1の代わりにλ=0.5が使用されたこと、及びピッチ特徴を有する80個のメルスケールフィルターバンク係数が使用されたことを除いて、全ての実験条件をCSJ実験の条件と同じにした。図6は、従来技術の注意ベース法より優れた本発明の有効性を示す。開発セット及び評価セットの両方において、CERが著しく低減される。CSJ実験と同様に、1パス法が両方のセットにおいてリスコアリング法よりわずかに良好であった。
本開示のいくつかの実施の形態において、上記のエンドツーエンド音声認識システムがコンピューターシステム内にインストールされるときに、少ない計算能力で音声認識を実効的、かつ正確に実行することができ、それゆえ、本開示のエンドツーエンド音声認識方法又はシステムを使用することにより、中央処理ユニット使用量及び電力消費量を削減することができる。
さらに、本開示による実施の形態は、エンドツーエンド音声認識を実行する実効的な方法を提供し、それゆえ、そのエンドツーエンド音声認識モデルを使用する方法及びシステムを使用することによって、中央処理ユニット(CPU)使用量、電力消費量及び/又はネットワーク帯域幅使用量を削減することができる。
本開示の上記で説明した実施の形態は、多数の方法のうちの任意のもので実施することができる。例えば、実施の形態は、ハードウェア、ソフトウェア又はそれらの組み合わせを用いて実施することができる。ソフトウェアで実施される場合、ソフトウェアコードは、単一のコンピューターに設けられるのか又は複数のコンピューター間に分散されるのかにかかわらず、任意の適したプロセッサ又はプロセッサの集合体において実行することができる。そのようなプロセッサは、1つ以上のプロセッサを集積回路部品に有する集積回路として実装することができる。ただし、プロセッサは、任意の適したフォーマットの回路類を用いて実装することができる。
また、本明細書において略述された様々な方法又はプロセスは、様々なオペレーティングシステム又はプラットフォームのうちの任意の1つを用いる1つ以上のプロセッサ上で実行可能なソフトウェアとしてコード化することができる。加えて、そのようなソフトウェアは、複数の適したプログラミング言語及び/又はプログラミングツール若しくはスクリプティングツールのうちの任意のものを用いて記述することができ、実行可能機械語コード、又はフレームワーク若しくは仮想機械上で実行される中間コードとしてコンパイルすることもできる。通常、プログラムモジュールの機能は、様々な実施の形態において所望に応じて組み合わせることもできるし、分散させることもできる。
さらに、本開示の実施の形態は、方法として具現化することができ、この方法の一例が提供されている。この方法の一部として実行される動作は、任意の適した方法で順序付けることができる。したがって、例示したものと異なる順序で動作が実行される実施の形態を構築することができ、この順序は、いくつかの動作が例示の実施の形態では順次的な動作として示されていても、それらの動作を同時に実行することを含むことができる。さらに、請求項の要素を修飾する、特許請求の範囲における第1、第2等の序数の使用は、それ自体で、1つの請求項の要素の別の請求項の要素に対する優先順位も、優位性も、順序も暗示するものでもなければ、方法の動作が実行される時間的な順序も暗示するものでもなく、請求項の要素を区別するために、単に、或る特定の名称を有する1つの請求項の要素を、同じ(序数の用語の使用を除く)名称を有する別の要素と区別するラベルとして用いられているにすぎない。

Claims (20)

  1. 声音を受け取る入力デバイスと、
    1つ以上のプロセッサと、
    パラメーターと、前記1つ以上のプロセッサによって実行可能な命令を含むプログラムモジュールとを記憶する1つ以上の記憶デバイスであって、該命令は、実行されるときに、前記1つ以上のプロセッサに動作を実行させ、該動作は、
    音響特徴抽出モジュールを用いて、前記声音から変換されたオーディオ波形データから音響特徴系列を抽出することと、
    エンコーダーネットワークパラメーターを有するエンコーダーネットワークを用いて、前記音響特徴系列を隠れベクトル系列に符号化することと、
    前記隠れベクトル系列を、デコーダーネットワークパラメーターを有するデコーダーネットワークに送り込むことによって、第1の出力ラベル系列確率を予測することと、
    コネクショニスト時系列分類(CTC)ネットワークパラメーターを使用するCTCモジュールと、前記エンコーダーネットワークからの前記隠れベクトル系列とによって、第2の出力ラベル系列確率を予測することと、
    ラベル系列探索モジュールを用いて、前記デコーダーネットワーク及び前記CTCモジュールから与えられた前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合することによって、最も高い系列確率を有する出力ラベル系列を探索することと、
    を含むものと、
    を備える、音声認識システム。
  2. 前記デコーダーネットワークは、前記第1の出力ラベル系列確率を予測する前に、前記ラベル系列探索モジュールから先行するラベルを受信する、請求項1に記載の音声認識システム。
  3. 前記CTCモジュールは、前記第2の出力ラベル系列確率を予測する前に、前記ラベル系列探索モジュールから先行するラベルを受信する、請求項1に記載の音声認識システム。
  4. 前記エンコーダーネットワークは、スタックされた双方向長短期メモリ(BLSTM)を含む、請求項1に記載の音声認識システム。
  5. 前記デコーダーネットワークはスタックされた長短期メモリ(LSTM)を含み、前記隠れベクトル系列に関する注意機構を用いて、出力ラベル系列確率をそれぞれ予測する、請求項1に記載の音声認識システム。
  6. 前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合するために、対数領域における線形結合が使用される、請求項1に記載の音声認識システム。
  7. 前記探索することは、ビーム探索を用いて、前記デコーダーネットワーク及び前記CTCモジュールから与えられた前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合することによって得られた最も高い系列確率を有する前記出力ラベル系列を見つける、請求項1に記載の音声認識システム。
  8. 前記ビーム探索は、最初に、前記デコーダーネットワークから与えられた第1のラベル系列確率を用いて1組の完全なラベル系列仮説を見つけ、その後、前記1組の完全なラベル系列仮説の中から、前記デコーダーネットワーク及び前記CTCモジュールから与えられた前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合することによって得られた最も高い系列確率を有する前記出力ラベル系列を見つける、請求項7に記載の音声認識システム。
  9. 前記ビーム探索は、他の不完全なラベル系列仮説のうちいずれかの系列確率より低い系列確率を有する不完全なラベル系列仮説を取り除き、前記系列確率は、前記デコーダーネットワーク及び前記CTCモジュールから与えられた前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合することによって得られる、請求項7に記載の音声認識システム。
  10. 前記CTCモジュールは、前記第2の出力ラベル系列確率を予測するために、前記CTCネットワークパラメーター及び動的計画法を用いて、事後確率分布を計算する、請求項1に記載の音声認識システム。
  11. 音響特徴抽出モジュールを用いて、入力デバイスによって受け取られる声音から変換されるオーディオ波形データから音響特徴系列を抽出することと、
    1つ以上の記憶デバイスからエンコーダーネットワークパラメーターを取得するエンコーダーネットワークを用いて、前記音響特徴系列を隠れベクトル系列に符号化することと、
    前記1つ以上の記憶デバイスからデコーダーネットワークパラメーターを取得するデコーダーネットワークに前記隠れベクトル系列を送り込むことによって、第1の出力ラベル系列確率を予測することと、
    コネクショニスト時系列分類(CTC)ネットワークパラメーターを使用するCTCモジュールと、前記エンコーダーネットワークからの前記隠れベクトル系列とによって、第2の出力ラベル系列確率を予測することと、
    ラベル系列探索モジュールを用いて、前記デコーダーネットワーク及び前記CTCモジュールから与えられた前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合することによって、最も高い系列確率を有する出力ラベル系列を探索することと、
    を含む、音声認識の方法。
  12. 前記デコーダーネットワークは、前記第1の出力ラベル系列確率を予測する前に、前記ラベル系列探索モジュールから先行するラベルを受信する、請求項11に記載の方法。
  13. 前記CTCモジュールは、前記第2の出力ラベル系列確率を予測する前に、前記ラベル系列探索モジュールから先行するラベルを受信する、請求項11に記載の方法。
  14. 前記エンコーダーネットワークはスタックされた双方向長短期メモリ(BLSTM)を含む、請求項11に記載の方法。
  15. 前記デコーダーネットワークはスタックされた長短期メモリ(LSTM)を含み、前記隠れベクトル系列に関する注意機構を用いて、出力ラベル系列確率をそれぞれ予測する、請求項11に記載の方法。
  16. 前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合するために、対数領域における線形結合が使用される、請求項11に記載の方法。
  17. 前記探索することは、ビーム探索を用いて、前記デコーダーネットワーク及び前記CTCモジュールから与えられた前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合することによって得られた最も高い系列確率を有する前記出力ラベル系列を見つける、請求項11に記載の方法。
  18. 前記ビーム探索は、最初に、前記デコーダーネットワークから与えられる第1のラベル系列確率を用いて1組の完全なラベル系列仮説を見つけ、その後、前記1組の完全なラベル系列仮説の中から、前記デコーダーネットワーク及び前記CTCモジュールから与えられた前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合することによって得られた最も高い系列確率を有する前記出力ラベル系列を見つける、請求項17に記載の方法。
  19. 前記ビーム探索は、他の不完全なラベル系列仮説のうちいずれかの系列確率より低い系列確率を有する不完全なラベル系列仮説を取り除き、前記系列確率は、前記デコーダーネットワーク及び前記CTCモジュールから与えられた前記第1の出力ラベル系列確率及び前記第2の出力ラベル系列確率を結合することによって得られる、請求項17に記載の方法。
  20. 前記CTCモジュールは、前記第2の出力ラベル系列確率を予測するために、前記CTCネットワークパラメーター及び動的計画法を用いて、事後確率分布を計算する、請求項11に記載の方法。
JP2019541213A 2017-05-11 2017-11-10 音声認識システム及び音声認識の方法 Active JP6827548B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/592,527 US20180330718A1 (en) 2017-05-11 2017-05-11 System and Method for End-to-End speech recognition
US15/592,527 2017-05-11
PCT/JP2017/041384 WO2018207390A1 (en) 2017-05-11 2017-11-10 Speech recognition system and method for speech recognition

Publications (2)

Publication Number Publication Date
JP2020505650A JP2020505650A (ja) 2020-02-20
JP6827548B2 true JP6827548B2 (ja) 2021-02-10

Family

ID=60655036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019541213A Active JP6827548B2 (ja) 2017-05-11 2017-11-10 音声認識システム及び音声認識の方法

Country Status (5)

Country Link
US (1) US20180330718A1 (ja)
EP (1) EP3417451B1 (ja)
JP (1) JP6827548B2 (ja)
CN (1) CN110603583B (ja)
WO (1) WO2018207390A1 (ja)

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180080446A (ko) * 2017-01-04 2018-07-12 삼성전자주식회사 음성 인식 방법 및 음성 인식 장치
US10706840B2 (en) 2017-08-18 2020-07-07 Google Llc Encoder-decoder models for sequence to sequence mapping
CN107680587A (zh) * 2017-09-29 2018-02-09 百度在线网络技术(北京)有限公司 声学模型训练方法和装置
CN107680597B (zh) * 2017-10-23 2019-07-09 平安科技(深圳)有限公司 语音识别方法、装置、设备以及计算机可读存储介质
CN110168535B (zh) * 2017-10-31 2021-07-09 腾讯科技(深圳)有限公司 一种信息处理方法及终端、计算机存储介质
KR102608469B1 (ko) * 2017-12-22 2023-12-01 삼성전자주식회사 자연어 생성 방법 및 장치
JP6831343B2 (ja) * 2018-02-01 2021-02-17 日本電信電話株式会社 学習装置、学習方法及び学習プログラム
JP6849621B2 (ja) * 2018-02-02 2021-03-24 日本電信電話株式会社 学習装置、学習方法及び学習プログラム
JP6911785B2 (ja) * 2018-02-02 2021-07-28 日本電信電話株式会社 判定装置、判定方法及び判定プログラム
US10580432B2 (en) * 2018-02-28 2020-03-03 Microsoft Technology Licensing, Llc Speech recognition using connectionist temporal classification
WO2020003534A1 (en) * 2018-06-29 2020-01-02 Nec Corporation Speech feature extraction apparatus, speech feature extraction method, and computer-readable storage medium
US11210475B2 (en) * 2018-07-23 2021-12-28 Google Llc Enhanced attention mechanisms
US11107463B2 (en) 2018-08-01 2021-08-31 Google Llc Minimum word error rate training for attention-based sequence-to-sequence models
US11257481B2 (en) * 2018-10-24 2022-02-22 Tencent America LLC Multi-task training architecture and strategy for attention-based speech recognition system
CN111429889B (zh) * 2019-01-08 2023-04-28 百度在线网络技术(北京)有限公司 基于截断注意力的实时语音识别的方法、装置、设备以及计算机可读存储介质
CN109829579B (zh) * 2019-01-22 2023-01-24 平安科技(深圳)有限公司 最短路线计算方法、装置、计算机设备和存储介质
CN111476258B (zh) * 2019-01-24 2024-01-05 杭州海康威视数字技术股份有限公司 一种基于注意力机制的特征提取方法、装置及电子设备
US11037547B2 (en) 2019-02-14 2021-06-15 Tencent America LLC Token-wise training for attention based end-to-end speech recognition
CN111613215B (zh) * 2019-02-22 2023-06-23 浙江大学 一种语音识别的方法及其装置
CN109902622B (zh) * 2019-02-26 2020-06-09 中国科学院重庆绿色智能技术研究院 一种用于登机牌信息验证的文字检测识别方法
US11404047B2 (en) * 2019-03-08 2022-08-02 International Business Machines Corporation Feature and feature variant reconstruction for recurrent model accuracy improvement in speech recognition
US11210547B2 (en) * 2019-03-20 2021-12-28 NavInfo Europe B.V. Real-time scene understanding system
US11100920B2 (en) * 2019-03-25 2021-08-24 Mitsubishi Electric Research Laboratories, Inc. System and method for end-to-end speech recognition with triggered attention
JP7417634B2 (ja) * 2019-05-10 2024-01-18 グーグル エルエルシー 音声認識のためのエンドツーエンドモデルでコンテキスト情報を使用すること
CN110287285B (zh) * 2019-05-31 2023-06-16 平安科技(深圳)有限公司 一种问题意图识别方法、装置、计算机设备及存储介质
CN110189748B (zh) * 2019-05-31 2021-06-11 百度在线网络技术(北京)有限公司 模型构建方法和装置
WO2020247489A1 (en) * 2019-06-04 2020-12-10 Google Llc Two-pass end to end speech recognition
CN110348482B (zh) * 2019-06-05 2023-06-02 华东理工大学 一种基于深度模型集成架构的语音情感识别系统
CN110444203B (zh) * 2019-07-17 2024-02-27 腾讯科技(深圳)有限公司 语音识别方法、装置及电子设备
CN110556114B (zh) * 2019-07-26 2022-06-17 国家计算机网络与信息安全管理中心 基于注意力机制的通话人识别方法及装置
US20220262356A1 (en) * 2019-08-08 2022-08-18 Nippon Telegraph And Telephone Corporation Determination device, training device, determination method, and determination program
US11158303B2 (en) 2019-08-27 2021-10-26 International Business Machines Corporation Soft-forgetting for connectionist temporal classification based automatic speech recognition
US11302309B2 (en) 2019-09-13 2022-04-12 International Business Machines Corporation Aligning spike timing of models for maching learning
WO2021117089A1 (ja) * 2019-12-09 2021-06-17 日本電信電話株式会社 モデル学習装置、音声認識装置、それらの方法、およびプログラム
US11373639B2 (en) * 2019-12-12 2022-06-28 Mitsubishi Electric Research Laboratories, Inc. System and method for streaming end-to-end speech recognition with asynchronous decoders pruning prefixes using a joint label and frame information in transcribing technique
CN111128191B (zh) * 2019-12-31 2023-03-28 中国科学院声学研究所 一种在线端对端语音转写方法及系统
CN111242113B (zh) * 2020-01-08 2022-07-08 重庆邮电大学 一种任意方向自然场景文本识别方法
CN111243578A (zh) * 2020-01-10 2020-06-05 中国科学院声学研究所 一种基于自注意力机制的中文普通话字音转换方法
CN111243574B (zh) * 2020-01-13 2023-01-03 苏州奇梦者网络科技有限公司 一种语音模型自适应训练方法、系统、装置及存储介质
CN111276131B (zh) * 2020-01-22 2021-01-12 厦门大学 一种基于深度神经网络的多类声学特征整合方法和系统
JP7274441B2 (ja) 2020-04-02 2023-05-16 日本電信電話株式会社 学習装置、学習方法および学習プログラム
CN111540344B (zh) * 2020-04-21 2022-01-21 北京字节跳动网络技术有限公司 声学网络模型训练方法、装置及电子设备
CN113593539A (zh) * 2020-04-30 2021-11-02 阿里巴巴集团控股有限公司 流式端到端语音识别方法、装置及电子设备
WO2021225699A1 (en) 2020-05-07 2021-11-11 Google Llc Emitting word timings with end-to-end models
US20210358490A1 (en) * 2020-05-18 2021-11-18 Nvidia Corporation End of speech detection using one or more neural networks
CN111524519B (zh) * 2020-05-28 2022-09-30 中国科学技术大学 采用高级特征融合的端到端多通道语音识别方法
JP7340199B2 (ja) 2020-07-17 2023-09-07 日本電信電話株式会社 学習装置、推論装置、学習方法、推論方法及びプログラム
WO2022024202A1 (ja) * 2020-07-27 2022-02-03 日本電信電話株式会社 学習装置、音声認識装置、学習方法、音声認識方法、学習プログラム及び音声認識プログラム
CN111968622A (zh) * 2020-08-18 2020-11-20 广州市优普科技有限公司 一种基于注意力机制的语音识别方法、系统及装置
KR102386627B1 (ko) * 2020-08-25 2022-04-14 주식회사 카카오엔터프라이즈 음성 인식에 관한 빔 서치 방법 및 장치
CN111933115B (zh) * 2020-10-12 2021-02-09 腾讯科技(深圳)有限公司 语音识别方法、装置、设备以及存储介质
CN112233664B (zh) * 2020-10-15 2021-11-09 北京百度网讯科技有限公司 语义预测网络的训练方法、装置、设备以及存储介质
US20220122586A1 (en) 2020-10-20 2022-04-21 Google Llc Fast Emit Low-latency Streaming ASR with Sequence-level Emission Regularization
US11817117B2 (en) 2021-01-29 2023-11-14 Nvidia Corporation Speaker adaptive end of speech detection for conversational AI applications
CN113327600A (zh) * 2021-06-30 2021-08-31 北京有竹居网络技术有限公司 一种语音识别模型的训练方法、装置及设备
CN113362812B (zh) * 2021-06-30 2024-02-13 北京搜狗科技发展有限公司 一种语音识别方法、装置和电子设备
CN113488052B (zh) * 2021-07-22 2022-09-02 深圳鑫思威科技有限公司 无线语音传输和ai语音识别互操控方法
CN113539244B (zh) * 2021-07-22 2023-10-03 广州虎牙科技有限公司 端到端语音识别模型训练方法、语音识别方法及相关装置
CN113689866B (zh) * 2021-08-18 2023-04-25 北京百度网讯科技有限公司 一种语音转换模型的训练方法、装置、电子设备及介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0782544B2 (ja) * 1989-03-24 1995-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーション マルチテンプレートを用いるdpマツチング方法及び装置
GB2313757B (en) * 1995-06-30 1998-04-29 Ricoh Kk Method using an embedded codestream
US6094476A (en) * 1997-03-24 2000-07-25 Octel Communications Corporation Speech-responsive voice messaging system and method
US6070136A (en) * 1997-10-27 2000-05-30 Advanced Micro Devices, Inc. Matrix quantization with vector quantization error compensation for robust speech recognition
US7031915B2 (en) * 2003-01-23 2006-04-18 Aurilab Llc Assisted speech recognition by dual search acceleration technique
US7464031B2 (en) * 2003-11-28 2008-12-09 International Business Machines Corporation Speech recognition utilizing multitude of speech features
ATE449403T1 (de) * 2005-12-12 2009-12-15 Gregory John Gadbois Mehrstimmige spracherkennung
US9128926B2 (en) * 2006-10-26 2015-09-08 Facebook, Inc. Simultaneous translation of open domain lectures and speeches
GB2445279A (en) * 2006-12-27 2008-07-02 Yaron Mayer System and method for improving the efficiency, comfort and/or reliability in operating systems.
CA2912296C (en) * 2007-06-27 2021-06-15 Wanda G. Papadimitriou Autonomous fitness for service assessment
US8589162B2 (en) * 2007-09-19 2013-11-19 Nuance Communications, Inc. Method, system and computer program for enhanced speech recognition of digits input strings
US9743357B2 (en) * 2011-12-16 2017-08-22 Joseph Akwo Tabe Energy harvesting computer device in association with a communication device configured with apparatus for boosting signal reception
US9515676B2 (en) * 2012-01-31 2016-12-06 Life Technologies Corporation Methods and computer program products for compression of sequencing data
US9263036B1 (en) * 2012-11-29 2016-02-16 Google Inc. System and method for speech recognition using deep recurrent neural networks
US9842592B2 (en) * 2014-02-12 2017-12-12 Google Inc. Language models using non-linguistic context
US9865265B2 (en) * 2015-06-06 2018-01-09 Apple Inc. Multi-microphone speech recognition systems and related techniques
US9786270B2 (en) * 2015-07-09 2017-10-10 Google Inc. Generating acoustic models
KR102386854B1 (ko) * 2015-08-20 2022-04-13 삼성전자주식회사 통합 모델 기반의 음성 인식 장치 및 방법
US10319374B2 (en) * 2015-11-25 2019-06-11 Baidu USA, LLC Deployed end-to-end speech recognition
US9792897B1 (en) * 2016-04-13 2017-10-17 Malaspina Labs (Barbados), Inc. Phoneme-expert assisted speech recognition and re-synthesis
US11657799B2 (en) * 2020-04-03 2023-05-23 Microsoft Technology Licensing, Llc Pre-training with alignments for recurrent neural network transducer based end-to-end speech recognition

Also Published As

Publication number Publication date
EP3417451B1 (en) 2019-07-03
WO2018207390A1 (en) 2018-11-15
CN110603583A (zh) 2019-12-20
US20180330718A1 (en) 2018-11-15
JP2020505650A (ja) 2020-02-20
CN110603583B (zh) 2023-10-24
EP3417451A1 (en) 2018-12-26

Similar Documents

Publication Publication Date Title
JP6827548B2 (ja) 音声認識システム及び音声認識の方法
JP6929466B2 (ja) 音声認識システム
JP6818941B2 (ja) 多言語音声認識ネットワークをトレーニングする方法、音声認識システム及び多言語音声認識システム
US11238845B2 (en) Multi-dialect and multilingual speech recognition
JP6870076B2 (ja) ニューラル機械翻訳システム
Jelinek et al. 25 Continuous speech recognition: Statistical methods
CN113574545A (zh) 用于训练模型的训练数据修改
US20050197838A1 (en) Method for text-to-pronunciation conversion capable of increasing the accuracy by re-scoring graphemes likely to be tagged erroneously
KR100480790B1 (ko) 양방향 n-그램 언어모델을 이용한 연속 음성인식방법 및장치
Zhang et al. Character-Aware Sub-Word Level Language Modeling for Uyghur and Turkish ASR
JP3088364B2 (ja) 音声言語理解装置及び音声言語理解システム
JP2938865B1 (ja) 音声認識装置
JP4631076B2 (ja) 音素単位セットを最適化する方法及びシステム
Kimura et al. Expansion of wfst-based dialog management for handling multiple asr hypotheses
Zenkel Character Based Language Modeling and Applications in Speech Recognition
JP2000250583A (ja) 統計的言語モデル生成装置及び音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210119

R150 Certificate of patent or registration of utility model

Ref document number: 6827548

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250