JP7490804B2 - 非同期デコーダでエンド・ツー・エンド音声認識をストリーミングするためのシステムおよび方法 - Google Patents

非同期デコーダでエンド・ツー・エンド音声認識をストリーミングするためのシステムおよび方法 Download PDF

Info

Publication number
JP7490804B2
JP7490804B2 JP2022558824A JP2022558824A JP7490804B2 JP 7490804 B2 JP7490804 B2 JP 7490804B2 JP 2022558824 A JP2022558824 A JP 2022558824A JP 2022558824 A JP2022558824 A JP 2022558824A JP 7490804 B2 JP7490804 B2 JP 7490804B2
Authority
JP
Japan
Prior art keywords
fsd
module
lsd
prefixes
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022558824A
Other languages
English (en)
Other versions
JP2023504219A (ja
Inventor
モーリッツ,ニコ
貴明 堀
ル・ルー,ジョナタン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2023504219A publication Critical patent/JP2023504219A/ja
Application granted granted Critical
Publication of JP7490804B2 publication Critical patent/JP7490804B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、概して、音声認識のためのシステムに関し、より特定的には、低遅延要件での自動音声認識アプリケーションのためにジョイント型フレーム同期復号(frame-synchronous decoding:FSD)およびラベル同期復号(label-synchronous decoding:LSD)でエンド・ツー・エンド音声認識をストリーミングするための方法およびシステムに関する。
自動音声認識(ASR:automatic speech recognition)システムは、音声ベースでの検索などのさまざまなインターフェイスアプリケーション向けに広く展開されている。近年、エンド・ツー・エンドニューラルネットワークモデルおよびシーケンス・ツー・シーケンスニューラルネットワークモデルはASRコミュニティにおいて高い関心および人気を集めてきた。エンド・ツー・エンドASRシステムの出力は、通常、単一の文字またはより大きな単位、たとえば単語の断片、単語全体、もしくは文の断片などであり得る書記素シーケンスである。エンド・ツー・エンドASRの魅力は、このエンド・ツー・エンドASRが主にニューラルネットワーク構成要素で構成されているとともにASRシステムを構築するための言語専門知識を必要としないため、従来のASRシステムと比較して簡略化されたシステムアーキテクチャを可能にすることである。このようなエンド・ツー・エンドASRシステムは、発音モデル、音響モデルおよび言語モデルを含む音声認識装置の全ての構成要素を直接学習することができ、これにより、言語特有の言語学情報およびトークン化が不要になる。
エンド・ツー・エンドASRシステムに用いられるシーケンス・ツー・シーケンスモデルは、フレーム同期復号(FSD)に適したフレーム単位の決定を伴うニューラルネットワークと、代わりにラベル同期復号(LSD)を用いるラベル単位の決定を伴うニューラルネットワークといった主に2つのタイプのニューラルネットワーク出力パラダイムに基づいている。FSDを伴うエンド・ツー・エンドASRシステムは、ストリーミング/オンラインASRアプリケーションにより適しており、この場合、ASR出力は、各発話語の直後にわずかな遅延だけで生成することができる。しかしながら、音声認識において優れた結果を示すことが多いLSDベースのASRシステムは、オンライン/ストリーミングASRアプリケーションにはそれほど適していない。なぜなら、通常、復号前のアラインメント情報が欠けているせいで、すなわち、入力シーケンスが次の出力トークンを生成するのに充分な情報を含むかどうかに関する情報が欠けているせいで、音声発話全体が入力として必要になるからである。
したがって、FSDおよびLSDは非同期デコーダである。場合によっては、エンド・ツー・エンド音声認識のストリーミングが必要条件とはならない用途では、FSDニューラルネットワークとLSDニューラルネットワークとの組合わせは、各々の単一ニューラルネットワークモデルと比較して、より低いワード誤り率を達成することができる。しかしながら、これらのASRシステムは、「リアルタイム」での音声認識のためにASRシステムを実現することを可能にするために、FSDニューラルネットワークとLSDニューラルネットワークとの間の同期を必要とする。
したがって、「リアルタイム」/オンライン/ストリーミングのアプリケーション用の複合型FSD-LSDベースのASRを実現するために、FSDニューラルネットワークとLSDニューラルネットワークとを有効に同期させる必要がある。
自動音声認識(ASR)システムは、オーディオサンプルの入力シーケンスまたはオーディオフレームから抽出された音響特徴のシーケンスが文字の出力シーケンスにマッピングされるといったシーケンス・ツー・シーケンスモデリング問題に直面する。このようなシーケンス・ツー・シーケンスマッピングに用いられるいくつかの方法は、音声発話全体が認識プロセスに利用可能となるオフラインASRアプリケーションに限定される。このような方法は、待ち時間の制約が少ないオンライン/ストリーミングASRシステムにおいては適用することができない。いくつかの実施形態の目的は、フレーム同期デコーダ(FSD)モジュールとラベル同期デコーダ(LSD)モジュールとを同期させることによって、「リアルタイム」での適用のためにASRシステムを実現することである。ストリーミングアプリケーションは、「リアルタイム」での音声信号のトランスクリプション、たとえば、進行中の通話、進行中の講義、進行中の会話における音声発話のトランスクリプション、または音声コマンドの検出および認識を必要とする任意のアプリケーションであり得る。さらに、いくつかの実施形態の目的は、LSDモジュールによって導入される出力遅延を低減するとともにFSDモジュールおよびLSDモジュールによって生成される発話のトランスクリプションの精度を高めることによって、LSDモジュールの性能を向上させることである。
いくつかの実施形態は、LSDベースのASRシステムが、出力シーケンスの各出力ラベルを認識するために入力シーケンスの各要素に重みを割当てるように、典型的には発話中断によってセグメント化された音声発話全体である入力シーケンス全体を観察する必要があるという認識に基づいている。たとえば、出力ラベルは、単一のアルファベット文字、または単語の断片もしくは文の断片などの文字のシーケンスを含み得る。次の出力ラベルを認識するために入力シーケンスのうちどの部分が関連しているかについての予備知識がなく、入力シーケンスの各要素に重みを割当てる必要があるので、LSDベースのモジュールは、通常、大きな入力シーケンスを処理する必要がある。このような処理は、発話のうちさまざま部分にアテンションを配することを活用することを可能にするが、出力遅延も増大させるので、ストリーミング方式/オンライン方式での音声認識には実用的ではない。
本明細書で用いられる場合、LSDベースのASRの出力遅延は、音声発話から抽出された音響特徴フレームを受取る時間と、受取った音響フレーム内の1つ以上の出力ラベルを認識する時間との間の差である。たとえば、LSDベースのASRシステムが音声発話全体に対して動作すると、発話の最後の単語が受取られるまで発話内の1つ以上のラベルの認識が遅延する。このような認識の遅延により出力遅延が増大する。
いくつかの実施形態は、次の出力ラベルの認識用の入力シーケンスのさまざまな部分の関連性についての予備知識が、入力シーケンスから認識されるべきラベルに対応する音響フレームの位置を示すものであるという認識に基づいている。実際には、関連するラベル情報を含む音響フレームの位置が分かっている場合、入力シーケンスを制限することによって、起こり得る全ての位置ではなくこれら音響フレームの位置にのみアテンションを向けるようにLSDベースのモデルを誘導することができる。このようにして、各出力ラベルごとに、LSDベースのモデルは、入力シーケンス内のそのラベルの位置の周りにそのアテンションを集中させることができる。このようにアテンションを誘導することにより、大きな入力シーケンスを処理する必要を減じ、引いては出力遅延を低減させることにより、ストリーミング方式/オンライン方式での音声発話の認識のためにLSDベースのモデルを実用化できるようにする。
いくつかの実施形態は、フレーム同期デコーダ(FSD)モジュールを用いて、入力シーケンス内の文字に対応する音響フレームの位置をLSDモジュールに示すことができるという認識に基づいている。これにより、LSDモジュールは、出力ラベルを認識するために、入力シーケンスの関連部分へのアテンションを制限することが可能となる。FSDベースのモジュールは、入力シーケンスの各フレームごとに出力を生成する。すなわち、入力シーケンスおよび出力シーケンスは同じ長さである。LSDベースのASRシステムの性能は、FSDベースのASRシステムよりも優れている可能性もある。しかしながら、いくつかの実施形態は、上述の1つ以上の問題に対処するために、FSDベースのASRシステムの中間動作によって用いられる入力シーケンスと出力シーケンスとのアラインメントをLSDベースのASRシステムが使用可能であるという認識に基づいている。
実施形態のいくつかは、ストリーミング(または「リアルタイム」)アプリケーションのための音声認識を向上させるために、トリガ型アテンション(TA:triggered attention)ニューラルネットワークにおいてFSDモジュールおよびLSDモジュールが共同でトレーニングされ得るという認識に基づいている。TAニューラルネットワークは、エンコーダニューラルネットワーク、FSDニューラルネットワーク、LSDニューラルネットワーク、および同期モジュールを含み得る。エンコーダニューラルネットワークは、音響特徴フレームに含まれる音響情報をエンコーダ状態のシーケンスに符号化するように構成される。FSDモジュールは、各エンコーダ状態を一度に連続的に処理し、FSDモジュールによって維持されるプレフィックスのリストとFSDスコアの関連リストとを更新するエンコーダ状態を識別するように構成される。FSDモジュールは、前のエンコーダ状態を処理した結果得られるプレフィックスのリストとFSDスコアの関連リストとを保存し得る。プレフィックスのリストおよびFSDスコアのリストは、後続のエンコーダ状態が復号されると更新される。たとえば、FSDモジュールは、新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態の識別に応答して、FSDプレフィックスの現在のリストを拡張して、FSDモジュールによって維持されるFSDプレフィックスの候補リストと対応するFSDスコアとを生成する。
同期モジュールは、FSDモジュールによって生成されたプレフィックスのリストをLSDモジュールに与えるために用いられる。これにより、LSDモジュールが、FSDモジュールによって生成された同じプレフィックスのリストについて処理することが可能となる。これにより、プレフィックスドメインにおいてFSDモジュールとLSDモジュールとを同期させる。さらに、同期モジュールはまた、エンコーダ状態の選択済み部分をLSDモジュールに与える。選択済み部分は、FSDプレフィックスの現在のリストを拡張させた、FSDモジュールによって識別されるエンコーダ状態に依存するものである。これにより、LSDモジュールが、音声発話全体に対応するエンコーダ状態シーケンス全体にではなく、エンコーダ状態シーケンスのうち当該選択済み部分にアテンションを配することが可能となる。これにより、LSDモジュールの出力遅延を小さくするとともに、FSDモジュールとLSDモジュールとのタイミングを同期させる。このようにして、FSDモジュールとLSDモジュールとを時間ドメインおよびプレフィックスドメインにおいて同期させて、同じエンコーダ状態のシーケンスについての発話のトランスクリプションを生成する。
実施形態のいくつかは、ジョイントスコアリングモジュールが、FSDモジュールおよびLSDモジュールによって復号されたトランスクリプション出力のジョイントリストを生成することができるとともに、ジョイントスコアの関連リストをさらに計算することができるという認識に基づいている。ジョイントスコアリングモジュールは、ジョイント型FSDスコアおよびLSDスコアに基づいてプレフィックスの候補リストをプルーニングすることができる。付加的または代替的には、ジョイントスコアリングモジュールは、ジョイントスコアが最も高いプレフィックスを、音声発話の現在の部分についてのトランスクリプション出力として出力し得る。
したがって、一実施形態は、コンピュータベースの自動音声認識システムを開示する。当該システムは、システムのモジュールを実現する格納された命令と連結されたプロセッサを用いる。当該命令を実行する当該プロセッサは、音声発話の特徴を表わす音響フレームの入来ストリームを、符号化済み音響特徴フレームのエンコーダ状態のシーケンスに符号化するとともに、終了条件が満たされるまで、フレーム同期デコーダ(FSD)モジュールで、符号化済み音響特徴フレームの各エンコーダ状態を連続的に処理するように構成される。当該FSDモジュールは、新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態を識別することに応答して、FSDプレフィックスの現在のリストを拡張して、FSDプレフィックスの候補リストおよび対応するFSDスコアを生成する。当該候補リスト内の各FSDプレフィックスは、当該FSDモジュールによって処理された当該エンコーダ状態における復号済みトランスクリプション出力についての、当該FSDモジュールによる推定である。FSDプレフィックスが当該復号済みトランスクリプション出力である確率は当該対応するFSDスコアによって定義される。当該FSDプレフィックスの候補リストを生成することに応答して、当該プロセッサは、当該エンコーダ状態のうち、当該FSDモジュールによって識別されたエンコーダ状態を含む部分を選択し、エンコーダ状態のうち選択済み部分を処理するようにラベル同期デコーダ(LSD)モジュールをトリガして、当該LSDモジュールに従って、当該FSDプレフィックスの候補リスト内の当該FSDプレフィックスが、エンコーダ状態のうち選択済み部分における当該復号済みトランスクリプション出力である確率を定義するLSDスコアを決定するとともに、対応するFSDスコアとLSDスコアとの組合わせによって定義されるジョイントスコアに従って当該FSDプレフィックスの候補リストをプルーニングするとともに、当該FSDプレフィックスの現在のリストを当該FSDプレフィックスのプルーニング済みリストと置換えて、次のトランスクリプション出力のための復号を継続するように構成されている。
別の実施形態は、自動音声認識を実行するためにプロセッサによって実行可能なモジュールを含むプログラムが組込まれた非一時的なコンピュータ可読記憶媒体を開示する。当該モジュールは、音声発話の特徴を表わす音響フレームの入来ストリームを、符号化済み音響特徴フレームのエンコーダ状態のシーケンスに符号化するように構成されたエンコーダと、フレーム同期デコーダ(FSD)モジュールとを備え、当該FSDモジュールは、符号化済み音響特徴フレームの各エンコーダ状態を連続的に処理して、新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態を識別することに応答して、FSDプレフィックスの現在のリストを拡張して、FSDプレフィックスの候補リストおよび対応するFSDスコアを生成するように構成され、当該候補リスト内の各FSDプレフィックスは、当該FSDモジュールによって処理された当該エンコーダ状態における復号済みトランスクリプション出力についての、当該FSDモジュールによる推定であり、FSDプレフィックスが当該復号済みトランスクリプション出力である確率は、当該対応するFSDスコアによって定義されるものであり、当該モジュールはさらに、当該エンコーダ状態のうち、当該FSDモジュールによって識別された当該エンコーダ状態を含む部分を選択するように構成される同期モジュールと、ラベル同期デコーダ(LSD)モジュールとを備え、当該LSDモジュールは、エンコーダ状態の選択済み部分を処理して、当該FSDプレフィックスの当該FSDスコアを対応するLSDスコアと連結するように構成されており、当該対応するLSDスコアは、当該LSDモジュールに従って、当該FSDプレフィックスが当該復号済みトランスクリプション出力である確率を定義するものであり、当該モジュールはさらに、ジョイントスコアリングモジュールを備え、当該ジョイントスコアリングモジュールは、ジョイント型FSDスコアおよびLSDスコアに従って当該FSDプレフィックスをプルーニングし、当該FSDプレフィックスの現在のリストをFSDプレフィックスのプルーニング済みリストと置換えて、次のトランスクリプション出力のための復号を継続するように構成され、当該モジュールはさらに、出力インターフェイスを備え、当該出力インターフェイスは、ジョイントスコアが最も高い当該FSDプレフィックスを、当該FSDモジュールによって処理された当該エンコーダ状態についての音響フレームの当該入来ストリームの当該復号済みトランスクリプション出力として出力するように構成されている。
さらに別の実施形態は、自動音声認識のための方法を開示する。当該方法は、当該方法を実現する格納された命令と連結されたプロセッサを用いる。当該命令は、当該プロセッサによって実行されると、当該方法のステップを実行する。当該方法のステップは、音声発話の特徴を表わす音響フレームの入来ストリームを、符号化済み音響特徴フレームのエンコーダ状態のシーケンスに符号化するステップと、終了条件が満たされるまで、フレーム同期デコーダ(FSD)モジュールで、符号化済み音響特徴フレームの各エンコーダ状態を連続的に処理するステップとを備え、当該FSDモジュールは、新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態を識別することに応答して、FSDプレフィックスの現在のリストを拡張して、FSDプレフィックスの候補リストおよび対応するFSDスコアを生成する。当該候補リスト内の各FSDプレフィックスは、当該FSDモジュールによって処理された当該エンコーダ状態における復号済みトランスクリプション出力についての、当該FSDモジュールによる推定であり、FSDプレフィックスが当該復号済みトランスクリプション出力である確率は、当該対応するFSDスコアによって定義されるものである。当該方法のステップはさらに、当該エンコーダ状態のうち、当該FSDモジュールによって識別される当該エンコーダ状態を含む部分を選択するステップと、エンコーダ状態のうち選択済み部分を処理するようにラベル同期デコーダ(LSD)モジュールをトリガして、当該LSDモジュールに従って、FSDプレフィックスの当該候補リストにおける当該FSDプレフィックスが、エンコーダ状態の当該選択済み部分における当該復号済みトランスクリプション出力である確率を定義するLSDスコアを決定するステップと、対応するFSDスコアとLSDスコアとの組合わせによって定義されるジョイントスコアに従って当該FSDプレフィックスの候補リストをプルーニングするステップと、当該FSDプレフィックスの現在のリストをFSDプレフィックスのプルーニング済みリストと置換えて、次のトランスクリプション出力のための復号を継続するステップとを備える。
いくつかの実施形態に従った、エンド・ツー・エンド音声認識のために構成された自動音声認識(ASR)システムを示す概略図である。 フレーム同期デコーダ(FSD)モジュール、ラベル同期デコーダ(LSD)モジュール、およびジョイントスコアリングモジュールによって生成されるプレフィックスの例示的なリストおよび関連スコアを示す図である。 いくつかの実施形態に従った自動音声認識方法を示すブロック図である。 いくつかの実施形態に従ったFSDモジュールの例示的な動作を示す図である。 いくつかの実施形態に従った、エンコーダ状態のシーケンスの将来のコンテキストを制限するパーティショニング例を示す図である。 いくつかの実施形態に従った、エンコーダ状態のシーケンスの将来のコンテキストを制限するパーティショニング例を示す図である。 一実施形態に従った、エンド・ツー・エンド音声認識システムのトリガ型アテンションニューラルネットワークを示すブロック図である。 例示的な実施形態に従った、深層時間遅延アーキテクチャを用いるエンコーダの実現例を示す図である。 例示的な実施形態に従った、LSDモジュールおよびエンコーダニューラルネットワークを実現するためのトランスフォーマアーキテクチャを示す図である。 リカレントニューラルネットワークトランスデューサ(RNN-T:recurrent neural network-transducer)アーキテクチャを用いたFSDモジュールの実現例を示す図である。 いくつかの実施形態に従った、前の時間ステップの隠れデコーダ状態を伴ったアテンションベースのデコーダとしてLSDモジュールを実現するための例示的なアーキテクチャを示す図である。 いくつかの実施形態に従った、前の時間ステップの隠れデコーダ状態を伴わないアテンションベースのデコーダとしてLSDモジュールを実現するための例示的なアーキテクチャを示す図である。 いくつかの実施形態に従った、コンピュータベースの自動音声認識システムを示すブロック図である。 いくつかの実施形態に従った、提案されるASRシステムのデータフロー図である。 いくつかの実施形態に従った、プレフィックスビームサーチモジュールを用いたFSDモジュールの実現例を示す概略図である。 いくつかの実施形態に従った、ASRシステムを実現するためのさまざまな構成で用いることができるいくつかの構成要素を示すブロック図である。
以下の記載では、本開示の完全な理解を得るために説明を目的として多くの具体的な詳細が述べられる。しかしながら、当業者にとって、本開示がこれらの具体的な詳細なしに実施され得ることは明らかであるだろう。他の例では、本開示を不明瞭にすることを避けるために、装置および方法がブロック図の形式でのみ示されている。
本明細書および請求項で使用される「たとえば」、「例として」および「などの」という語ならびに「備える」、「有する」、「含む」およびこれらのその他の動詞形の各々は、1つ以上の構成要素またはその他の要素の列挙とともに使用される場合、オープンエンドと解釈されねばならない。これは、そのような列挙がさらに他の構成要素または要素を除外するとみなされるべきではないことを意味する。「~に基づく」という語は、少なくとも部分的に基づいていることを意味する。さらに、本明細書で使用される文体および専門語は、説明を目的としたものであって限定するものとみなされるべきではないことが理解されるはずである。本明細書で使用されているいかなる見出しも、便宜的なものにすぎず、法的または限定効果を持つものではない。
図1Aは、いくつかの実施形態に従った、エンド・ツー・エンド音声認識のために構成された自動音声認識(ASR)システムの概略図を示す。音声認識システム100は、音声発話の特徴を表わす音響フレームの入来ストリームを取得するとともに、音響フレームのストリームを処理して、トランスクリプション出力シーケンスを生成する。各トランスクリプション出力シーケンスは、対応する入力音響信号によって表わされる発話または発話の一部のトランスクリプションである。たとえば、ASRシステム100は、音響フレーム101の入来ストリームを取得するとともに、音響フレーム101の入来ストリームによって表わされる発話のトランスクリプションである対応するトランスクリプション出力125を生成することができる。
音響特徴フレーム101の入来ストリームは、発話のデジタル表現であるオーディオサンプルのシーケンス(たとえば、データの連続ストリーム)を含み得る。オーディオデータから抽出された各特徴フレームは、時間ステップのシーケンスに対応し得る。この場合、たとえば、オーディオデータの各フレームは、オーディオデータの前のフレームからさらに10ミリ秒の時間がシフトされた25ミリ秒のオーディオサンプルに関連付けられる。オーディオデータの特徴フレームのシーケンスにおけるオーディオデータの各フレームは、対応する時間ステップにおける発話の部分を特徴付ける音響情報を含み得る。たとえば、オーディオデータの特徴フレームのシーケンスは、フィルタバンクスペクトルエネルギベクトルを含み得る。
トランスクリプション出力またはラベル出力125は、音響フレーム101の入来ストリームによって表わされる発話のトランスクリプション部分のシーケンスを含み得る。トランスクリプション出力125は1つ以上の文字を含み得る。たとえば、トランスクリプション出力125は、ユニコード文字集合からの文字または文字のシーケンスであり得る。たとえば、文字セットは、英語のアルファベット、アジア言語、キリル言語、およびアラビア語を含み得る。文字セットはまた、アラビア数字、スペース文字、および句読点を含み得る。付加的または代替的には、トランスクリプション出力は、バイト符号化、単語、および他の言語構造を含み得る。
ASRシステム100は、エンコーダ103、フレーム同期デコーダ(FSD)モジュール107、同期モジュール109、ラベル同期デコーダ(LSD)モジュール111、ジョイントスコアリングモジュール115、および、外部言語モデル122を含む。本開示は、「リアルタイム」の音声認識に適したASRシステム100を構築するために、FSDモジュール107およびLSDモジュール111を組合わせて実現するためのシステムを提供する。FSDを備えたエンド・ツー・エンドASRシステムは、ストリーミング/オンラインASRアプリケーションのために容易に適用することができる。この場合、ASR出力は、わずかな出力遅延だけで各々の発話語の直後に生成されなければならない。しかしながら、音声認識の際に優れた結果を示すことが多いLSDベースのASRシステムは、オンライン/ストリーミングASRにはさほど適していない。なぜなら、復号前にアライメント情報が欠けているせいで、すなわち、入力シーケンスが次の出力トークンを生成するのに充分な情報を含むか否かに関する情報が不足しているせいで、通常、音声発話全体が入力として必要となるからである。それにもかかわらず、FSDモジュール107およびLSDモジュール111は、ストリーミングASRアプリケーションのために用いられ得る高速で効率的なASRを達成するために、1つのシステム100において一緒に実現され得る。
そのために、ジョイントスコアリングモジュール115は、FSDモジュール107によって復号されたトランスクリプション出力とLSDモジュール111によって復号されたトランスクリプション出力とのジョイントスコアリングを提供する。しかしながら、FSDモジュール107およびLSDモジュール111は、2つの異なる動作原理に基づいて作用する。FSDモジュール107とLSDモジュール111とを一緒に実現するために、これらを同期させる必要がある。この同期により、ジョイントスコアリングモジュール115が、FSDモジュール107およびLSDモジュール111によって復号された対応するプレフィックスのリストのためにジョイントスコアリングを与えることを可能にする。これらのモジュール107、111が同期されていない場合、FSDモジュール107によって生成されるプレフィックスのリストはLSDモジュール111によって生成されるプレフィックスのリストとは異なり得る。さらに、モジュール107によるプレフィックスのリストの生成の時間と、モジュール111によるプレフィックスのリストの生成の時間とは異なり得る。なぜなら、FSDモジュール107がフレームごとにまたはエンコーダの状態ごとに動作する一方で、LSDモジュール111はラベルごとに動作して、入力フレームまたはエンコーダ状態のシーケンスを消費するからである。したがって、時間ドメインおよびプレフィックスドメインにおけるモジュール107とモジュール111との同期がなされていない場合、ジョイントスコアリングモジュール115は、両方のトランスクリプション仮説を組合わせることができず、低遅延で中間出力を生成することができない。
たとえば、ASRシステム100は、単語「dog」の音声信号に対応する音響特徴フレームの入来ストリームを受取り得る。さらに、時間インスタンスnにおいて、FSDモジュール107が、FSDスコア0.3の「dog」、FSDスコア0.2の「dah」、およびFSDスコア0.1の「dag」を含むプレフィックスのリストを生成するとともに、別の時間インスタンス、たとえばn+4において、LSDモジュール111が、LSDスコア0.3の「dug」、LSDスコア0.2の「dah」、およびLSDスコア0.5の「dag」を含むプレフィックスのリストを生成する場合、時間ドメインおよびプレフィックスドメインにおけるモジュール同士の同期がなされていなければ、ジョイントスコアリングモジュール115は、プレフィックスのリストが異なっているのでジョイントスコアリングを実行することができず、さらに、LSDモジュールを待たなければならないので各発話語の後に低遅延でジョイント出力を生成することができない。
LSDモジュール111は、LSDモジュールの出力遅延を減らすために、時間ドメインにおいてFSDモジュール107と同期される。出力遅延は、LSDベースのASRシステムにおいて引起こされる。なぜなら、典型的には、LSDベースのASRシステムが、各トランスクリプション出力125を認識するために、発話中断によってセグメント化された音声発話全体を観察して各入力フレームに重みを割当てることが必要になるかもしれないからである。次のトランスクリプション出力を認識するために入力音響信号のどの部分が関連しているかについての予備知識がなく、各エンコーダ状態に重みを割当てる必要があるため、LSDモジュール111は、通常、大きな入力シーケンスを処理する必要がある。このような処理は、発話のさまざまな部分にアテンションを配することを活用することを可能にするが、出力遅延も増大させるので、ストリーミング方式/オンライン方式での音声認識のためには実用的でない。
本明細書で用いられる場合、ASRシステムの出力遅延は、音声信号のフレームを受取った時と受取った音響情報を認識した時との間の時間差である。たとえば、LSDベースのASRシステムが音声発話全体に対して機能する場合、発話の最後の単語が受取られるまで発話内の単語の認識が遅延する。このような認識の遅延は出力遅延を増大させる。
次のトランスクリプション出力の認識に対する入力シーケンスのさまざまな部分の関連性についての予備知識は、入力シーケンスにおいて認識されるべきトランスクリプション出力に対応するフレームの位置を示すものである。実際には、トランスクリプション出力に関する関連情報を符号化するフレームの位置が分かっている場合、LSDモジュール111のアテンションメカニズムは、これらの位置に制限され得るとともに、構成可能な数の過去および将来のエンコーダフレームまたは状態に制限され得る。このようにして、各トランスクリプション出力ごとに、LSDモジュール111は、そのアテンションを入力シーケンスにおけるこのような位置の周りに集中させることができる。このようにアテンションを誘導することにより、大きな入力シーケンスを処理する必要を減じ、引いては出力遅延を減じることにより、ストリーミング方式/オンライン方式での音声認識のためにLSDモジュール111を実用化できるようにする。
そのために、ASR100は、アライメントデコーダおよびトランスクリプション出力デコーダの両方として機能するFSDモジュール107を用いる。FSDモジュール107は、文字、バイト符号化、単語などのトランスクリプション出力125を符号化する、シーケンス105内のエンコーダ状態の位置119を決定するようにトレーニングされる。いくつかの実施形態では、FSDモジュール107は、コネクショニスト時系列分類(CTC:connectionist temporal classification)ニューラルネットワークの方針を用いて実現され得る。さらに、いくつかの実施形態では、LSDモジュール111は、アテンションベースのデコーダを用いて実現され得る。CTCは、タイミングが変動するといったシーケンス問題に対処するように長・短期メモリ(LSTM:long short-term memory)ニューラルネットワークなどのニューラルネットワークをトレーニングするための、一種の目的関数および関連ニューラルネットワーク出力である。FSDベースのASRシステムは、LSDベースのASRシステムの代替例である。FSDは、入力シーケンスの各フレームごとに出力を生成し、すなわち、入力と出力とを同期させ、ビームサーチアルゴリズムを用いて最適な出力シーケンスを見つけてから、ニューラルネットワーク出力を折り畳んでプレフィックスおよび出力トランスクリプションとする。LSDベースのASRシステムの性能は、FSDベースのASRシステムよりも優れている場合もある。しかしながら、いくつかの実施形態は、FSDベースASRシステムの中間動作によって用いられる入力フレームと出力フレームとのアライメントをLSDベースのASRシステムが用いることで、先に述べたその出力遅延という欠点に対処することができるという認識に基づいている。
FSDモジュール107によって提供されるアライメント情報119を活用するために、ASRシステム100は、エンコーダ状態のシーケンス105をパーティション121のセットに分割するように構成された同期モジュール109を含む。たとえば、同期モジュール109は、識別済みエンコーダ状態の各位置119ごとにエンコーダ状態のシーケンスを分割することができ、これにより、パーティション121の数が、トランスクリプション出力125を符号化する識別済みエンコーダ状態119の数(たとえば、等しいこと)によって定義されることとなる。
同期モジュールはさらに、FSDモジュール107によって生成された現在のプレフィックスのリストとエンコーダ状態のシーケンスのうち選択済み部分とをLSDモジュール111にサブミットする。これにより、LSDモジュール111が、LSDモジュールのトランスクリプション出力尤度を推定するために、FSDモジュール107と同じプレフィックスのリストについて処理することを確実にする。このため、プレフィックスドメインにおけるFSDモジュール107とLSDモジュール111との同期が達成される。さらに、FSDモジュール107がFSDスコアのリストを出力するのとほぼ同時にLSDモジュール111がプレフィックスのリストに関するLSDスコアのリストを出力することを確実にするために、エンコーダ状態のシーケンスのうち選択済み部分だけが同期モジュール109によってLSDモジュール111に与えられる。これにより、LSDモジュール111が、エンコーダ状態シーケンス105全体にではなく、エンコーダ状態シーケンス105のうち選択済み部分にアテンションを配することが可能となり、これにより、LSDモジュール111の出力遅延を低減させる。こうして、時間ドメインにおけるFSDモジュール107とLSDモジュール111との同期が達成される。
ASRシステム100はエンコーダ103を含む。エンコーダ103は、音響特徴フレーム101の入来ストリームを処理し、エンコーダ状態のシーケンス105を生成することで、入力音響信号101のための代替的な(たとえばより高度な)表現を提供する。エンコーダ状態のシーケンス105は、時間ステップの第2のセットに対応するオーディオデータの特徴フレームの代替シーケンスを含み得る。いくつかの実現例では、入力音響シーケンスの代替表現は、より低いフレームレートにサブサンプリングされる。すなわち、代替表現における時間ステップの第2のセットは、入力音響シーケンス101における時間ステップの第1のセットよりも小さい。
さらに、FSDモジュール107は、エンコーダ状態105を連続的に処理するとともに、FSDモジュール107によって維持されるプレフィックスのリストおよびFSDスコアの関連リストを更新するように構成(たとえば、トレーニング)される。FSDモジュール107は、符号化された特徴の各エンコーダ状態を連続的に処理して、FSDモジュールによって維持されるFSDプレフィックスのリストを更新するエンコーダ状態を識別するように構成される。このようにして、FSDモジュールは、FSDプレフィックスの候補リストを生成するために新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態を識別することに応答して、FSDプレフィックスの現在のリストを拡張する。各FSDプレフィックスは、その対応するFSDスコアによって定義される確率での、復号済みトランスクリプション出力についての、FSDモジュールによる候補推定である。すなわち、FSDスコアは、FSDプレフィックスが復号済みトランスクリプション出力である確率を定義する。FSDプレフィックスのリストおよびFSDスコアのリストは、後続のエンコーダ状態の復号時に更新される。たとえば、前の繰返し中に決定されたFSDプレフィックスの現在のリストは、現在の繰返しについてのプレフィックスの候補リストに拡張される。FSDモジュール107は、FSDプレフィックスの候補リストおよびFSDスコアの関連リストをジョイントスコアリングモジュール115に与える(117)。ジョイントスコアリングモジュール115は、LSDスコアおよびFSDスコアに基づいてFSDプレフィックスの候補リストをプルーニングして、次の繰返しのためにFSDプレフィックスの現在のリストを形成する。このようにして、復号の品質を犠牲にすることなく、FSDモジュールの計算効率が維持される。
この結果を達成するために、いくつかの実施形態では、同期モジュール109は、エンコーダ状態のシーケンスの一部を選択するように構成される。この一部は、FSDモジュール107によって維持されるプレフィックスのリストの更新に応答してFSDモジュール107によって識別されるエンコーダ状態を含む。同期モジュール107は、エンコーダ状態のシーケンスのうち選択済み部分および対応するプレフィックスをLSDモジュール111に与える。LSDモジュール111は、エンコーダ状態のシーケンスのうち選択済み部分を処理して、LSDモジュール111によって維持されるLSDプレフィックスのリストおよび対応するLSDスコアを更新するように構成(たとえばトレーニング)される。FSDモジュールと同様に、各LSDプレフィックスは、その対応するLSDスコアによって定義される確率での、復号済みトランスクリプション出力についての、LSDモジュールによる候補推定である。いくつかの実施形態では、同期モジュール109がFSDプレフィックスをLSDモジュールに渡し、当該LSDモジュールがFSDプレフィックスについてのみLSDスコアを決定する。このようにして、FSDモジュールとLSDモジュールとがプレフィックスドメインにおいて同期される。
エンコーダ状態のシーケンスのうち選択済み部分のみを復号することにより、LSDモジュール111がシーケンス105全体にではなく、シーケンス105の選択済み部分のみにアテンションを配することが可能となり、これにより、LSDモジュール111の出力遅延を低減させる。このようにして、時間ドメインおよびプレフィックスドメインにおけるFSDモジュール107とLSDモジュール111との同期を達成することができる。したがって、FSDモジュール107およびLSDモジュール111は、エンコーダ状態の同じシーケンスをほぼ同時に復号する。
さらに、トランスクリプション出力の精度を高めるために、ASRシステム100はジョイントスコアリングモジュール115を含む。ジョイントスコアリングモジュール115は、FSDモジュール107およびLSDモジュール111によって維持されるプレフィックスの更新済みリスト内の対応するプレフィックスのFSDスコアとLSDスコアとを組合わせることで、プレフィックスのジョイントリストおよびジョイントスコアの関連リストを生成する。ジョイントスコアのリストにおける各ジョイントスコアは、FSDモジュール107におけるプレフィックスの更新済みリストおよびLSDモジュール111におけるプレフィックスの更新済みリストにおける対応するプレフィックスのFSDスコアとLSDスコアとの重み付けされた組合わせである。加えて、外部言語モデル122によって与えられるスコアは、認識精度をさらに向上させるために、重み付けされてジョイント型FSDスコアおよびLSDスコアに追加され得る。
さらに、ジョイントスコアリングモジュール115は、プレフィックスのプルーニング済みジョイントリストをFSDモジュール107にフィードバック(117)する。この場合、プルーニング段階は、対応するジョイントスコアに基づいて、可能性の低いプレフィックスをプレフィックスのリストから削除する。したがって、ジョイントスコアリングモジュール115は、対応するFSDスコアとLSDスコアとの組合せによって定義されるジョイントスコアに従って、FSDプレフィックスの候補リストをプルーニングする。ジョイントスコアリングモジュール115からのプルーニングにより、後に続く時間ステップにわたってエンコーダ状態を後で復号するために、FSDモジュール107の最適なプレフィックスとLSDモジュール111の最適なプレフィックスとの選択が同期される。これにより、FSDモジュール107およびLSDモジュール111が後続のエンコーダ状態からトランスクリプション出力125を復号する精度がさらに高められる。さらに、ジョイントスコアリングモジュール115は、ジョイントスコアが最も高いプレフィックスを、現在の時間ステップについての音響フレーム101の入来ストリームのトランスクリプションの現在の部分として出力することができる。
いくつかの実施形態では、FSDモジュールは、認識精度を向上させるために、かつ、事前プルーニングに起因してLSDモジュールによって生成される計算負荷を減らすために、同期モジュールと通信する前およびLSDモジュールをトリガする前に、生成済みFSDプレフィックスのリストを更新および事前プルーニングするために外部言語モデルを用いることができる。
いくつかの実現例では、エンコーダ103とFSDモジュール107と同期モジュール109とLSDモジュール111との組合せは、トリガ型アテンション(TA)モデルまたはTAニューラルネットワークと称される。実際には、TAモデルは、発話の部分が受取られると、この発話の部分を処理することができ、これにより、ストリーミング方式/オンライン方式での認識のためにASRシステム100を実用化できるようにする。さらに、プレフィックスの例示的なリストを用いたFSDモジュール107、LSDモジュール111、およびジョイントスコアリングモジュール115の動作を図1Aとともに図1Bにおいて以下で説明する。
図1Bは、FSDモジュール、LSDモジュール、およびジョイントスコアリングモジュールによって生成されるプレフィックスの例示的なリストおよび関連スコアを示す。テーブル191は、FSDモジュールによって生成されるプレフィックスのリストを示し、テーブル192は、LSDモジュールによって生成されるプレフィックスのリストを示し、テーブル193は、ジョイントスコアリングモジュールによって生成されるプレフィックスのリストを示す。
ジョイントスコアリングモジュール115は、一致するFSDプレフィックスおよびLSDプレフィックスならびにそれらの対応するFSDスコア191およびLSDスコア192を合成して、プレフィックスのジョイントリストおよびジョイントスコアの対応するリスト193を生成する。たとえば、一実施形態では、ジョイントスコアリングモジュール115は、アテンションデコーダトランスクリプション出力スコア112(LSDスコア)およびFSDモジュール出力スコア117(FSDスコア)を処理して、両方のトランスクリプション出力を共同でスコアリングするとともに、発話の最適なジョイントトランスクリプション出力シーケンスを発見する。たとえば、各時間ステップごとに、ジョイントスコアリングモジュール115は、0.5の重み係数の場合、例に示されるように両方のトランスクリプション出力スコアの加重和によって計算することができる最適なジョイントスコアのトランスクリプションを出力し得る。ジョイント型FSDスコアおよびLSDスコアを計算することに加えて、外部言語モデルのスコアも重み付けおよび加算され得る。
次に、ジョイントスコアリングモジュール115は、FSDモジュールによって維持されるFSDプレフィックスのリストを、最適なジョイントプレフィックスの短縮リストであるプレフィックスのプルーニング済みジョイントリストと置換える(194)。このような置換194により、さらなる処理のために最適なジョイントプレフィックス仮説を選択するとともにジョイントスコアに基づいて可能性の低いプレフィックス候補を削除することによって、プレフィックスドメインにおいてFSDモジュールとLSDモジュールとを同期させる。アクティブなプレフィックスの現在のリストは、同期モジュール109を通じてFSDモジュール107からLSDモジュール111によって受取られる。
たとえば、入力音響特徴フレームは単語「dog」に対応し得る。FSDモジュール107は、符号化済み音響特徴フレーム101のエンコーダ状態のシーケンス105を受取る。FSDモジュール107は、テーブル191に示されるように、対応するFSDスコアとともにFSDプレフィックスのリストを生成する。プレフィックスのリスト内の各プレフィックスは、受取った音響フレームに対応するトランスクリプション出力125の候補を推定するものである。FSDモジュール107は、最高(すなわちFSDスコア0.3)ではトランスクリプション出力が「dog」および「dah」であると予測し、最低確率0.1ではトランスクリプション出力が「duh」であると予測する。さらに、FSDモジュール107は、FSDプレフィックスのリストおよびトランスクリプション出力125を符号化するエンコーダ状態の位置を同期モジュール109に与える。
同期モジュール109は、エンコーダ状態のシーケンスの部分を選択する。選択済み部分は、FSDモジュール107によって識別されたエンコーダ状態を含む。同期モジュール107は、エンコーダ状態のシーケンスのうち選択済み部分および対応するプレフィックスをLSDモジュール111に与える。
さらに、LSDモジュール111は、エンコーダ状態のシーケンスの部分を復号して、LSDプレフィックスのリストおよび確率の関連リスト、すなわちテーブル192に示されるLSDスコア、を生成する。FSDモジュール107とは異なり、LSDモジュール111は、最高確率0.4ではトランスクリプション出力が「dog」であると予測し、より低い確率ではトランスクリプション出力が「duh」および「dah」であると予測する。FSDモジュール107およびLSDモジュール111の両方によって生成される確率スコアを組合わせることで、トランスクリプション出力「dog」を正確に予測することができる。
そのために、ジョイントスコアリングモジュール115は、FSDモジュール107およびLSDモジュール111の両方からプレフィックスのリストおよび関連スコアを取得する。最も正確な出力を決定するために、ジョイントスコアリングモジュール115は、対応するプレフィックスのFSDスコアとLSDスコアとを組合わせてもよい。スコアの組合せは重み付け平均に対応し得る。しかしながら、スコアの組合わせは、他の任意の数学的演算/数式を用いて実現されてもよい。したがって、テーブル193に示されるように、ジョイントスコアリングモジュール115は、プレフィックスのジョイントリストおよび関連するジョイント確率を生成する。この場合、プレフィックス「dog」は最高のジョイント確率に対応している。したがって、ジョイントスコアリングモジュール115は、現在の時間ステップにおける入力音響フレームに関するトランスクリプション出力として「dog」を出力する。
図1Cは、いくつかの実施形態に従った自動音声認識方法のブロック図を示す。当該実施形態では、音声発話の特徴を表わす音響フレームの入来ストリームを符号化済み音響特徴フレームのエンコーダ状態のシーケンスに符号化し(180)、終了条件が満たされるまで、たとえば音声発話の終了まで、FSDモジュールで、符号化済み音響特徴フレームの各エンコーダ状態を連続的に処理する(181)。FSDモジュールは、新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態の識別に応答して、FSDプレフィックスの現在のリスト189を拡張して、FSDプレフィックスの候補リスト186とFSDプレフィックスの候補リスト186の対応するFSDスコア185とを生成する。
図1Bを例として用いて、FSDプレフィックスの現在のリスト189を「do」、「du」および「da」のプレフィックスを含むものとする。新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態を識別することに応答して、FSDモジュールは、「do」、「du」、および「da」といったFSDプレフィックスの現在のリストを拡張して、「dog」、「duh」、および「dah」といったFSDプレフィックスの候補リスト186を生成する。実際には、FSDプレフィックスの候補リストは、計算効率を維持するためにプルーニングされる必要があるより多くのプレフィックスを含む。たとえば、いくつかの実現例では、FSDプレフィックスの現在のリストのサイズは固定されており、FSDプレフィックスの候補リストのサイズよりも小さいので、このようなプルーニングにより、ジョイントスコアが最も高いFSDプレフィックスの候補リスト内にn個の最適なFSDプレフィックスが保存されることとなる。ここで、nはFSDプレフィックスの現在のリストのサイズである。そのために、ジョイントスコアリングモジュールは、FSDスコアに基づいてFSDプレフィックスの候補リストをプルーニングする必要がある。この例では、「duh」のFSDプレフィックスは、最低のFSDスコアを有するものとしてプルーニングされる必要がある。しかしながら、いくつかの実施形態は、FSDスコアのみに基づくのではなくジョイントスコアに基づいてFSDプレフィックスの候補リストをプルーニングするために、FSDスコアおよびLSDスコアを用いることで、プルーニングの精度を向上させる。
そのために、いくつかの実施形態では、FSDモジュールによって処理されたエンコーダ状態のシーケンスの部分を処理するようにラベル同期デコーダ(LSD)モジュールをトリガして(182)、LSDモジュールに従って、FSDプレフィックスの候補リストにおけるFSDプレフィックスがエンコーダ状態のシーケンスの部分における復号済みトランスクリプション出力である確率を定義するLSDスコア188を決定する。たとえば、同期モジュールを用いて実現されるこのようなトリガにより、時間ドメインおよびプレフィックスドメインにおいてFSDモジュールとLSDモジュールとを同期させる。なぜなら、LSDモジュールは、エンコーダ状態のうちFSDモジュールによって識別された新しいトランスクリプション出力を含む部分を処理し、FSDプレフィックス186についてのLSDスコア188を推定するからである。
FSDプレフィックス186についてのLSDスコアおよびFSDスコアの場合、いくつかの実施形態では、対応するFSDスコアとLSDスコアとの組合わせによって定義されるジョイントスコアに従ってFSDプレフィックスの候補リストをプルーニングし(183)、次のトランスクリプション出力を復号するためにFSDプレフィックスの現在のリスト189をFSDプレフィックスのプルーニング済みリスト187と置換える(184)。たとえば、FSDプレフィックス「duh」は、最小ジョイントスコアが0.2であるのでプルーニングして除去することができる。
一実施形態では、置換されたFSDプレフィックスの現在のリスト内のFSDスコアを置換えることなく、FSDプレフィックスのみを置換える。たとえば、FSDプレフィックス「duh」のプルーニングの後、現在のリストは、0.3および0.3の元のFSDスコアをそれぞれ有するプレフィックス「dog」および「dah」を有することとなるだろう。このような態様で、FSD復号の連続性が維持される。
さまざまな実施形態では、復号プロセスは繰返し実行されるので、別々の繰返しごとに、「d」、「o」、「a」、「g」、および/または「h」についてのトランスクリプション出力の別々の位置が識別される。いくつかの実現例では、FSDモジュール、LSDモジュール、およびジョイントスコアリングモジュールは、音響フレームの入来ストリームのトランスクリプションを繰返し復号するので、各繰返しごとに、FSDプレフィックスおよび/またはLSDプレフィックスのリスト内のプレフィックスが新しいトランスクリプション出力トークンで更新されることとなる。
図1DはFSDモジュールの例示的な動作を示す。FSDモジュール107の目的のうちの1つは、エンコーダ103によって生成されたエンコーダ状態のシーケンス105を復号することである。そのために、FSDモジュール107は、シーケンス105を復号してトランスクリプション出力125のシーケンスを生成するようにトレーニングされる。FSDモジュール107は、フレームごとにエンコーダ状態のシーケンス105を処理するとともに、中間トランスクリプション出力に対応するプレフィックスのシーケンスまたはプレフィックスのリストを計算する。さらに、プレフィックスのリストに関連付けられたFSDスコアのリストがFSDモジュール107によって生成される。FSDスコアのリストは、FSDニューラルネットワークのうち、同じプレフィックスおよび中間トランスクリプション出力につながる全ての経路の確率を除外することによって生成され得る。新たに認識された文字を付加することによってプレフィックスシーケンスが拡張される時間およびフレーム位置がアライメント情報を提供する。いくつかの実施形態では、FSDモジュール107によって生成されたアライメント情報を用いて、エンコーダ状態シーケンスを分割するとともに、LSDモジュール111を用いて実現されるアテンションベースの復号プロセスをトリガする。このアプローチの背後には、LSDモジュール111のプレフィックススコアがFSDモジュール107のプレフィックススコアよりも優れているとともにより信頼性が高い可能性があるという理論的根拠がある。そのために、FSDモジュール111によって生成される中間アライメント情報を用いることで、アライメント情報がない場合にLSDモジュール111によってもたらされる出力遅延を減らすことによってLSDモジュール111の処理をさらに向上させる。
いくつかの実施形態では、ジョイントスコアリングモジュール115は、FSDモジュール107によって復号されたトランスクリプション出力とLSDモジュール111によって復号されたトランスクリプション出力とのジョイントスコアリングを生成するように実現される。これにより、ASRシステムの音声認識の精度が向上する。いくつかの実施形態では、FSDモジュール107は2回利用される。すなわち、第一に、LSDモジュール111のためにエンコーダ状態のシーケンスの分割を支援するために、第二に、LSD111によって復号されるトランスクリプション出力の精度をさらに向上させるために、利用される。
さらに、指示されているシーケンスの要素を取囲んでいるボックスは、エンコーダ状態のシーケンス105におけるトランスクリプション出力125を符号化するエンコーダ状態の位置119を識別する。たとえば、エンコーダ103は、対数メル(log-mel)スペクトルエネルギなどの音響特徴の入力音響シーケンスXを、長さNのエンコーダ状態シーケンスXに変換する。
=Encoder(X)
たとえば、一実現例では、エンコーダ出力は、サンプリングレートが100Hzである特徴行列Xと比べて4分の1のフレームレートにサブサンプリングされる。Z=(z,…,z)が長さNのフレーム単位のラベルシーケンスを表わすものとすると、
Figure 0007490804000001
であり、この場合、
Figure 0007490804000002
は、たとえば、単一文字、単語の断片または複数の単語であり得る別個のトランスクリプション出力のセットを示しており、
Figure 0007490804000003
は空白記号である。C=(c,…,c)とすると、
Figure 0007490804000004
となり、長さLのラベルシーケンスを示すものであり、このため、繰返されたラベルを1回の出現にまとめて空白記号を削除すると、シーケンスZがCに減じられることとなる。
いくつかの実施形態では、FSDモジュール107は、以下のように導出される確率を用いて、エンコーダ状態のシーケンス105を確率的に復号する。
Figure 0007490804000005
ここで、p(Z|C)は推移モデルを示し、p(Z|X)は音響モデルを示す。
いくつかの実施形態では、確率が最高であるラベルシーケンスまたはCTC経路であるラベルシーケンスZが強制アライメントプロセスを用いたトレーニング中に決定される。エンコーダ状態シーケンスのサブシーケンスに対してLSDモジュールを調整するためのアライメントは、Zにおける同じラベルに対応するフレームの各サブシーケンス内における最高確率を有するフレームによって識別済みエンコーダ状態として識別される。たとえば、シーケンスZがZにおけるl番目のラベルcの発生の始まりと終わりについてインデックスiおよびjを用いて書き込まれることを考慮すると、
Figure 0007490804000006
TAアラインメントは、シーケンスZから、同じ長さNの最高確率
Figure 0007490804000007
を有するトランスクリプション出力を符号化する識別済みエンコーダ状態のサブセットを含むシーケンスへのマッピングを実行する。ここで、はゼロ回以上の繰返しを示し、各Cは、以下のとおり、Cに対応するもののうち確率が最も高いフレームで厳密に1回だけ発生するものである。
Figure 0007490804000008
代替的には、FSDモジュール107は、Zにおける同じ書記素に対応するフレームの各サブシーケンス内の最初のフレームまたは最後のフレームを、識別済みエンコーダ状態として識別してもよい。
図1Eおよび図1Fは、いくつかの実施形態に従ったエンコーダ状態のシーケンスを分割する例を示す。さまざまな実施形態では、この分割は、FSDモジュール107、LSDモジュール111およびエンコーダ103に動作可能に接続された同期モジュール109によって実行される。同期モジュール109は、FSDモジュール107のアライメント情報119にアクセスし、エンコーダ103によって生成されたエンコーダ状態のシーケンス105を分割し、エンコーダ状態のシーケンスの部分121をLSDモジュール111に順次サブミットするように構成される。
たとえば、図1Eの一実施形態では、各パーティション121aは、エンコーダ状態のシーケンス105の最初から、識別済みエンコーダ状態の位置を順方向に固定シフトだけシフトすることによって決定されるルックアヘッドエンコーダ状態までのエンコーダ状態を含む。ルックアヘッドエンコーダ状態123の例を図1Aに示す。たとえば、固定シフトの値が5であり、識別済み状態エンコーダの位置がエンコーダ状態のシーケンス105において8番目である場合、パーティション121aは、最初の13個のエンコーダ状態を含む。次の識別済みエンコーダ状態の位置が11である場合、パーティション121aは、最初の16個のエンコーダ状態を含む。実際には、各パーティションは、新しいトランスクリプション出力についてのエンコーダ状態を含む一方で、パーティションを長くすることでLSDモジュール111がその長さを活用することを可能にする。
図1Fの代替的な実施形態では、識別済みエンコーダ状態の位置に対応するパーティション121bは、識別済みエンコーダ状態の位置に対する予め定められた数のルックアヘッドエンコーダ状態およびルックバックエンコーダ状態を含む。たとえば、識別済みエンコーダ状態の位置がエンコーダ状態のシーケンスにおいて15番目であり、固定されたルックアヘッド値および固定されたルックバック値がそれぞれ4および8となる場合、パーティション121bは、エンコーダ状態のシーケンス105において7番目と19番目との間のエンコーダ状態を含む。実際には、各パーティションは、新しいトランスクリプション出力についてのエンコーダ状態を含む一方で、LSDモジュール111に対する計算負荷を軽減するために固定長のパーティションを有する。
図2Aは、一実施形態に従ったエンド・ツー・エンド音声認識システムのトリガ型アテンションニューラルネットワーク200のブロック図を示す。この実施形態では、エンコーダ103、FSDモジュール107、およびLSDモジュール111はニューラルネットワークとして実現される。さらに、FSDモジュール107は、コネクショニスト時系列分類ベース(CTCベース)のニューラルネットワークまたはCTCモジュールを用いて実現され、LSDモジュール111は、アテンションベースのデコーダニューラルネットワークを用いて実現される。トリガ型アテンションモデル200は、エンコーダネットワークモジュール203と、エンコーダネットワークパラメータ205と、アテンションデコーダネットワークモジュール206と、デコーダネットワークパラメータ207と、同期モジュール209と、CTCモジュール211と、CTCネットワークパラメータ213とを含む。エンコーダネットワークパラメータ205、デコーダネットワークパラメータ207、およびCTCネットワークパラメータ213は、対応するモジュール203、206、および211にパラメータを与えるためにストレージデバイスに格納される。音響特徴シーケンス201は、オーディオ波形データから抽出されるとともに、ストレージデバイスに格納されてエンコーダネットワークモジュール203に提供され得る。オーディオ波形データは、オーディオデータ中の発話音を受取って処理するデジタル信号処理モジュール(図示せず)を用いて、入力デバイスを介して取得され得る。
エンコーダネットワークモジュール203は、エンコーダネットワークパラメータ203からのエンコーダネットワーク読出パラメータを用いて音響特徴シーケンス201をエンコーダ特徴ベクトルシーケンスに変換するエンコーダネットワークを含む。CTCモジュール211は、エンコーダネットワークモジュール203から埋込みベクトルシーケンスを受取るとともに、CTCネットワークパラメータ213および動的プログラミング技術を用いてラベルシーケンスのCTCベースの事後確率分布を計算する。計算後、CTCモジュール211は、フレーム位置を含む最も確度が高いラベルシーケンスまたはプレフィックスを同期モジュール209に与える。
アテンションデコーダネットワークモジュール206はデコーダネットワークを含む。アテンションデコーダネットワークモジュール206は、同期モジュール209からパーティションを受取る。各パーティションは、エンコーダ状態シーケンスの一部を含む。アテンションデコーダネットワークモジュール206は、次いで、デコーダネットワークパラメータ205からのデコーダネットワーク読出パラメータを用いてラベルのアテンションベースの事後確率分布を計算する。
エンド・ツー・エンド音声認識は、一般に、入力音響特徴シーケンスXを前提として、最も確度の高いラベルシーケンス
Figure 0007490804000009
を発見する問題として、以下のとおり定義される。
Figure 0007490804000010
エンド・ツー・エンド音声認識では、p(Y|X)は、発音辞書なしで、かつ重い重み付き有限状態トランスデューサ(WFST:weighted finite state transducer)ベースのグラフサーチなしで、事前にトレーニングされたニューラルネットワークによって計算される。関連技術のアテンションベースのエンド・ツー・エンド音声認識では、ニューラルネットワークはエンコーダネットワークおよびデコーダネットワークからなる。
エンコーダの例
エンコーダネットワークモジュール203は、音響特徴シーケンスX=x,…,xを、
=Encoder(X) (2)
として埋込みベクトルシーケンス
Figure 0007490804000011
に変換するために用いられるエンコーダネットワークを含む。
ここで、関数Encoder(X)は、深層アーキテクチャに積層される、1つ以上のリカレントニューラルネットワーク(RNN:recurrent neural network)、畳み込みニューラルネットワーク(CNN:convolutional neural network)、フィードフォワードニューラルネットワーク、または自己アテンションニューラルネットワークを含み得る。RNNは、各々の隠れユニットに入力ゲートと忘却ゲートと出力ゲートとメモリセルとを有する長・短期メモリ(LSTM)として実現され得る。別のRNNは、双方向RNN(BRNN)または双方向LSTM(BLSTM)であり得る。BLSTMは、LSTM RNNの対であり、一方は順方向LSTMであり、他方は逆方向LSTMである。BLSTMの埋込みベクトルは、順方向LSTMおよび逆方向LSTMの隠れベクトルを連結したものとして得られる。
Figure 0007490804000012
Figure 0007490804000013
Figure 0007490804000014
Figure 0007490804000015
BLSTMの隠れベクトルは、次のように順方向隠れベクトルおよび逆方向隠れベクトルを連結することで得られる。
Figure 0007490804000016
より好適な隠れベクトルを得るために、いくつかの実現例は、第1のBLSTMの隠れベクトルを第2のBLSTMに与え、次に、第2のBLSTMの隠れベクトルを第3のBLSTMに与えることなどによって、複数のBLSTMを積層する。仮に、h′が1つのBLSTMによって得られた隠れベクトルである場合、これを別のBLSTMに与えると、x=h′となる。計算を減らすために、いくつかの実施形態は、1つのBLSTMのあらゆる第2の隠れベクトルだけを別のBLSTMに与えてもよい。この場合、出力される隠れベクトルシーケンスの長さは、入力される音響特徴シーケンスの長さの半分になる。
例示的な実施形態では、エンコーダモジュールは、深層時間遅延アーキテクチャを用いてともに構成される、時間遅延型長・短期メモリ(TDLSTM:time-delayed long short-term memory)ニューラルネットワークおよび並列時間型遅延LSTM(PTDLSTM:parallel time-delayed LSTM)ニューラルネットワークを用いて実現される。図2Bは、深層時間遅延アーキテクチャを用いるエンコーダモジュールの実現例を示す。図2Bでは、深層時間遅延構造を用いるエンコーダアーキテクチャが左側に示され、ニューラルネットワーク構築ブロックが右側に示されている。深層時間遅延構造の矩形ボックスは各々、層1におけるTDLSTM構築ブロックまたは層2~層5におけるPTDLSTM構築ブロックのいずれかを表わす。角括弧内の数字は、各層へのフレーム遅延型入力を示す。黒い実線および影付き矩形は、単一のエンコーダ出力フレームの経路を強調している。破線および黒く塗りつぶした矩形は、過去および将来のエンコーダ出力フレームを生成するための接続ブロックおよび構築ブロックを示す。
この例では、深層時間遅延アーキテクチャは、250msに対応する合計25個の入力音響フレームの遅延を生成する。第1のニューラルネットワーク層(層1)は、3つの連続した音響フレームを入力として取込むTDLSTM構築ブロックを含んでおり、これにより、3分の1のフレームレートで出力が生成され、すなわち、3倍のサブサンプリングが適用される。残りのエンコーダニューラルネットワーク層(すなわち、層2~層5)はPTDLSTMに基づいている。TDLSTMニューラルネットワークアーキテクチャおよびPTDLSTMニューラルネットワークアーキテクチャの各々は、ニューラルネットワークブロックの複数の層を備える。さらに、複数の層の各層は、さまざまなニューラルネットワーク構築ブロックから構成され得る。TDLSTMおよびPTDLSTMのアーキテクチャを以下に説明する。
TDLSTMに含まれるさまざまなニューラルネットワーク構築ブロックは、入力連結(cat)ブロック215、LSTM層(LSTM)ブロック217、ボトルネック(BN)フィードフォワードニューラルネットワークブロック219、および、正規化線形ユニット活性化関数(ReLU:rectified linear unit activation function)ブロック221である。入力連結ブロック215は、まず、全ての入力音響フレームを連結し、連結された入力音響フレームをLSTMブロック217に与える。LSTMブロック217は、ボトルネックフィードフォワードニューラルネットワーク219の前に、時間遅延されて連結された入力を処理する。ボトルネックフィードフォワードニューラルネットワークブロック219は、次の層、すなわちReLUブロック221、への音響フレームの入力サイズを低減させる。ReLUは、ボトルネックフィードフォワードニューラルネットワークブロック219から受取った入力音響フレームのためのトランスクリプション出力を符号化する最終エンコーダ状態を生成する活性化関数である。
さらに、PTDLSTMネットワークアーキテクチャは、LSTM層223と、連結ブロック225と、ボトルネックフィードフォワードニューラルネットワークブロック227と、正規化線形ユニット活性化関数(ReLU)ブロック229とを備える。PTDLSTMネットワークでは、時間遅延された入力音響フレームは各々、LSTM層223における別々のLSTMによって処理され、LSTM出力が連結ブロック225に与えられる。連結ブロック225は、入力音響フレームのためのトランスクリプション出力を符号化する最終エンコーダ状態を生成するために、連結されたLSTM出力をボトルネックフィードフォワードニューラルネットワークブロック227および正規化線形ユニット(ReLU)活性化関数229に転送する前にLSTM出力を連結する。
TDLSTMエンコーダアーキテクチャおよびPTDLSTMアーキテクチャは、ブロック処理を適用するとともに逆方向LSTMを有限の将来のコンテキストに制限する待ち時間制御型BLSTMなどの他のRNNベースのストリーミングエンコーダアーキテクチャと比較して、ASRシステムの誤り率および推論速度を向上させる。たとえば、これらのアーキテクチャは、処理待ち時間を一定量に制限して、ストリーミングASRの使用を可能にする。加えて、PTDLSTMアーキテクチャは、待ち時間制御型BLSTMアーキテクチャなどの他のRNNベースのストリーミングアーキテクチャと比較して、ワード誤り率の点で有利であることを示している。
LSDモジュールの例
いくつかの実施形態では、LSDモジュールは、アテンションベースのデコーダを用いて実現される。アテンションベースのデコーダネットワークモジュール206は、埋込みベクトルシーケンスXを用いてラベルシーケンス確率p(Y|X)を計算するために用いられるデコーダネットワークを含む。Yを長さLのラベルシーケンスy,y,…yとする。p(Y|X)を効率的に計算するために、以下のように確率を確率連鎖律によって因数分解することができる。
Figure 0007490804000017
各ラベル確率p(y|y,…,yl-1,X)は、ラベルに対する確率分布から得られ、これは、以下のようにデコーダネットワークを用いて推定される。
Figure 0007490804000018
Figure 0007490804000019
Figure 0007490804000020
Figure 0007490804000021
Figure 0007490804000022
Figure 0007490804000023
アテンションベースの音声認識において、正しいラベルを予測するためには適切なアテンション重みを推定することが極めて重要である。なぜなら、式(17)に示されるように、コンテンツベクトルrはアライメント分布aに深く依存しているからである。音声認識において、コンテンツベクトルは、アライメント分布のピークの周りのエンコーダの隠れベクトルにおける音響情報を表わしており、音響情報は、ラベルyを予測するための最も重要な手掛かりである。それでもやはり、明確な制約がないので、アテンションメカニズムは不規則なアライメント分布をもたらすことが多く、そのため、yのインクリメンタル予測を行うときに分布のピークは時間とともに単調に進行する。音声認識において、入力シーケンスと出力シーケンスとの間のアライメントは全般的に単調でなければならない。畳み込み特徴fltは不規則なアライメントの生成を減らすものの、その回避を保証することはできない。
別の実施形態では、LSDモジュールおよびエンコーダモジュールは、トランスフォーマアーキテクチャを用いて実現される。図2Cは、LSDモジュールおよびエンコーダニューラルネットワークを実現するためのトランスフォーマアーキテクチャを示す。図2Cに示すトランスフォーマアーキテクチャは、RNNベースのエンコーダおよびLSDアーキテクチャの代替例である。エンコーダ203は、入力フレームのシーケンスを受取る。この場合、シーケンスの各フレームは音声入力に関連付けられた特徴を含む。これらの特徴は、特徴抽出モジュール231によって抽出することができる。エンコーダ203のニューラルネットワークは、同じ構造を有するE個の積み重ねられた層を含む。ここで、各層は2つのサブ層を有する。第1の層はマルチヘッド自己アテンションメカニズム235であり、第2の層はフィードフォワードニューラルネットワーク層239である。より適切に最適化するために、エンコーダ203は、後に層正規化237、241が続く残りの接続を各サブ層ごとに用いる。加えて、位置符号化233がエンコーダ203の入力に追加され、これにより、マルチヘッド自己アテンション235が複数フレームのシーケンス内におけるフレームの位置を確実に識別できるようにする。いくつかの実施形態では、マルチヘッド自己アテンションメカニズムは、エンコーダニューラルネットワークの待ち時間を制御するとともにストリーミングアプリケーションを可能にするために、制限された自己アテンションを用いる。
さらに、デコーダ205はまた、D個の積み重ねられた層を含む。この場合、各層は、出力埋込み243によって与えられる前のデコーダブロックの出力を処理するために(ここでは、第1のデコーダブロックは、前の処理ステップからの最後のデコーダブロックの出力を確認する)マルチヘッド自己アテンション層247を有する。さらに、前の復号ステップから計算された出力埋込みのシーケンスにおける相対的または絶対的なフレーム位置情報は、デコーダ205の入力において位置符号化245を用いてデコーダに与えられる。デコーダ205は、マルチヘッド自己アテンション層247によって生成されたクエリベクトルを用いてエンコーダニューラルネットワーク203の出力を処理するためにマルチヘッドエンコーダ・デコーダアテンション層251を含む。エンコーダ・デコーダアテンション層251の出力は、フィードフォワードニューラルネットワーク層255に供給される。さらに、エンコーダ203と同様に、デコーダ205は、一般化および正則化を向上させるために、各サブ層ごとに、層正規化249、253、257が後に続く残りの接続を用いる。学習された線形変換259およびsoftmax関数261を用いて、デコーダ出力を予測済みラベル出力確率に変換する。
FSDモジュールの例
一実施形態では、FSDモジュールは、上述のようにCTCニューラルネットワークを用いて実現される。CTCモジュール211は、埋込みベクトルシーケンスXを前提としてラベルシーケンスYのCTC順方向確率を計算する。
Figure 0007490804000024
Figure 0007490804000025
Figure 0007490804000026
Figure 0007490804000027
初期化のために以下を設定する。
Figure 0007490804000028
Figure 0007490804000029
フレーム単位のラベルシーケンスZは、入力音響特徴シーケンスXと出力ラベルシーケンスYとの間のアライメントを表わす。順方向確率を計算する場合、式(33)の繰返しは、Zを強制的に単調にするとともに、アライメントZにおけるsのループまたは大きなジャンプを不可能にする。なぜなら、α(s)を得るための繰返しは、せいぜいαt-1(s)、αt-1(s-1)、αt-1(s-2)を考慮したものに過ぎないからである。このことは、時間フレームが1フレーム進んだときに、ラベルが前のラベルもしくは空白から変化すること、または同じラベルのままであることを意味する。この制約は、アライメントを強制的に単調にする遷移確率p(z|zt-1,Y)の役割を果たす。このため、p(Y|X)は、不規則な(非単調な)アライメントに基づいて計算された場合、0または非常に小さな値となり得る。入力音響特徴シーケンスXと出力ラベルシーケンスYとの間のアライメントは、アテンションベースのニューラルネットワーク206の動作を制御するために同期モジュール209によって用いられる。
ある実施形態では、FSDモジュールは、リカレントニューラルネットワーク(RNN)トランスデューサアーキテクチャを用いて実現され得る。図2Dは、リカレントニューラルネットワークトランスデューサ(RNN-T)アーキテクチャに基づいたFSDモジュールの実現例を示す。RNN-Tは、コネクショニスト時系列分類(CTC)を拡張したものである。RNN-Tは、エンコーダ263、予測ネットワーク265、ジョイントネットワーク267、および、softmax関数269を備える。
Figure 0007490804000030
予測ネットワークは、CTCアーキテクチャにおけるフレーム独立仮定の制限を削除することができる。予測ネットワークは、モデルコンテキスト情報に対する長・短期メモリ(LSTM)ニューラルネットワークを採用することで、元のベクトルy=(y,…,ylー1)を高レベル表現h predへと変換することができる。予測ネットワークの出力は、前のコンテキスト情報によって決定される。なお、予測ネットワークの第1の入力はオールゼロのテンソルであり、yは非空白単位であることに留意されたい。式(37)および式(38)は、ラベルステップlにおいて予測ネットがどのように機能するかを記述するものである。ジョイントネットワークは、通常、フィードフォワードネットワークであって、
Figure 0007490804000031
最後に、各出力トークンkごとの事後値は、softmax演算を適用することによって計算される。
Figure 0007490804000032
ネットワーク全体は、順方向・逆方向アルゴリズムによって計算されるRNN-T損失関数
Figure 0007490804000033
を最適化することによってトレーニングされる。
RNN-T復号の場合、最も可能性の高い文字のシーケンスがビームサーチアルゴリズムによって生成される。推論中、予測ネットワークへの入力は最後の非空白記号となる。最終出力シーケンスは、最も可能性の高いシーケンス経路内の全ての空白記号を削除することによって得られる。
いくつかの実施形態は、認識の精度が、CTCおよびアテンションベースのデコーダからのデコーダ出力を組合わせることでさらに改善できるという理解に基づいている。たとえば、エンド・ツー・エンド音声認識の一実現例において、式(34)のCTC順方向確率を式(14)のアテンションベースの確率と組合わせることで、より正確なラベルシーケンス確率を得る。トランスデューサアーキテクチャは、予測ネットワーク251と、エンコーダ253と、ジョイントネットワーク255と、softmax関数257とを備える。ここで、エンコーダネットワークは、共同でトレーニングおよび認識を行なうためにアテンションベースのデコーダネットワークと共有され得る。
図3Aは、いくつかの実施形態に従った、RNNベースのデコーダとともにアテンションベースのデコーダとしてLSDモジュールを実現するための例示的なアーキテクチャを示す。アテンションベースのデコーダ111は、コンテキストベクトル生成器301とデコーダニューラルネットワーク303とを備える。コンテキストベクトル生成器301は、前の時間ステップからのデコーダニューラルネットワーク303の隠れデコーダ状態309と、前の時間ステップからのコンテキストベクトル生成器301のアテンション重み分布307と、代替表現121、すなわち図1Aを参照して上述した音響フレーム101のストリームの代替表現とを入力として受取る。コンテキストベクトル生成器301は、デコーダニューラルネットワーク303の前の隠れデコーダ状態と、前のアテンション重み分布307と、代替表現121とを処理することにより、代替表現121の時間フレームにわたるアテンション重み分布を計算するとともに、現在の時間ステップに関するコンテキストベクトル311を出力として生成する。コンテキストベクトル生成器301は、現在の時間ステップに関するコンテキストベクトル311をデコーダニューラルネットワーク303に与える。
さまざまな繰返しにおいて、アテンションベースのデコーダ111は、さまざまなパーティション315、317、および319を受取る。たとえば、これらパーティションのセットは、最初のパーティション315と後続のパーティション317および319とを含む。アテンションベースのデコーダ111は、最初のパーティション315を処理して最初のトランスクリプション出力を生成する。アテンションベースのニューラルネットワークが、アテンションベースのネットワークをその内部状態に配する最初のパーティションの処理を終了した後、アテンションベースのデコーダ111は、アテンションベースのネットワークの内部状態をリセットすることなく、アテンションベースのネットワークを用いて後続のパーティション317、319を処理することにより、後続のパーティションのためのトランスクリプション出力を次々に生成する。
実際には、アテンションベースのデコーダ111は、前に復号された情報を活用するために、アテンションベースのネットワークの内部状態をリセットすることなくさまざまなパーティションを処理する。アテンションベースのデコーダ111は、音声発話の終了を判断すると、その内部状態をリセットするように構成されている。
別の実施形態では、アテンションベースのデコーダ111が後続のパーティション317、319を受取ると、アテンションベースのデコーダ111の内部状態は、後続のパーティション317、319の各々によってリセットされて、後続のパーティション317、319のためのトランスクリプション出力を次々に生成する。
デコーダニューラルネットワーク303は、時間ステップについてのコンテキストベクトル311と、前の時間ステップのトランスクリプション出力313および隠れデコーダ状態309とを入力として受取る。デコーダニューラルネットワーク303は、当該時間ステップについてのコンテキストベクトル311および前の時間ステップからのトランスクリプション出力313を処理する前に、その内部隠れ状態を前の隠れデコーダ状態309で初期化することにより、当該時間ステップについてのトランスクリプション出力スコア313のセットを出力として生成する。いくつかの実現例においては、デコーダニューラルネットワーク303は、softmax出力層を備えたリカレントニューラルネットワーク(RNN)である。各トランスクリプション出力スコアは、トランスクリプション出力のセットからのそれぞれのトランスクリプション出力に対応する。たとえば、図1Aを参照して上述したように、トランスクリプション出力のセットは、1つ以上の自然言語、たとえば英語のアルファベット、アジア言語、キリル言語、およびアラビア言語等の文字を書くために使用されるユニコード文字集合からの文字または一連の文字であってもよい。また、トランスクリプション出力セットは、アラビア数字、スペース文字、および句読点を含み得る。所定のトランスクリプション出力についてのスコアが表わしている尤度は、対応するトランスクリプション出力が発話のトランスクリプションである出力シーケンス内の当該時間ステップにおける現在のトランスクリプション部分である尤度である。
ASRシステムは、各時間ステップごとにトランスクリプション出力スコア313を処理して、発話のトランスクリプションを表わすトランスクリプション出力シーケンスを決定する。たとえば、各時間ステップごとに、音声認識システムは、スコアが最も高いトランスクリプション出力をトランスクリプション出力スコアのセットから選択することにより、トランスクリプション出力シーケンスを求めてもよい。
図3Bは、いくつかの実施形態に従った、前の時間ステップの隠れデコーダ状態なしでアテンションベースのデコーダとしてLSDモジュールを実現するための例示的なアーキテクチャを示す。図3Bに示すアーキテクチャは、図3Aに示すアーキテクチャの代替例であり、アテンションベースのデコーダ111は、前の時間ステップの隠れデコーダ状態を必要としない別のデコーダニューラルネットワーク構築ブロック303に基づき得る。構築ブロック303は、代わりに、図3Bに示すように、前のトランスクリプション出力325を必要とする。いくつかの実現例では、デコーダニューラルネットワーク323は、後処理ニューラルネットワーク327に供給される前に入力エンコーダ状態シーケンスパーティションにアテンションを向けるために、エンコーダ・デコーダニューラルネットワーク321によって用いられるデコーダ状態を生成するために自己アテンションニューラルネットワークを基にしている。後処理ニューラルネットワーク327はトランスクリプション出力を生成する。このようなアテンションベースのデコーダニューラルネットワーク構築ブロック111は、D回、繰返すことができ、この場合、トランスクリプション出力は次のデコーダ構築ブロックに入力される。
例示的実現例
図4は、いくつかの実施形態に従ったコンピュータベースの自動音声認識システム400のブロック図を示す。コンピュータベースの音声認識システム400は、システム400を他のシステムおよびデバイスに接続するいくつかのインターフェイスを含む。システム400は、入力デバイス403からの音声発話の特徴を表わす音響フレームのストリームを受けるように構成された入力インターフェイス401を含む。入力デバイス403はマイクロフォンであり得る。付加的または代替的には、コンピュータベースの音声認識システム400は、他のさまざまなタイプの入力インターフェイスから音響信号を受取ることができる。いくつかの実施形態では、システム400は、音響入力デバイス403からの音響フレームのストリームに対して構成されたオーディオインターフェイスを含む。いくつかの他の実施形態では、入力インターフェイスは、有線ネットワークおよび無線ネットワークのうちの1つまたはこれらの組合わせであり得るネットワーク407を介して、音響フレーム409をストリーミングするように構成されたネットワークインターフェイスコントローラ(NIC:network interface controller)405を含む。
ネットワークインターフェイスコントローラ(NIC)405は、バス423を介してシステム400をネットワーク407に接続することで、システム400を感知デバイス、たとえば、マイクロホンなどの入力デバイス403に接続するように適合される。付加的または代替的には、システム400はヒューマンマシンインターフェイス(HMI:human machine interface)411を含み得る。システム400内のヒューマンマシンインターフェイス411は、システム400をキーボード413およびポインティングデバイス415に接続する。ここで、ポインティングデバイス415は、特に、マウス、トラックボール、タッチパッド、ジョイスティック、ポインティングスティック、スタイラス、またはタッチスクリーンを含み得る。
システム400は、格納された命令417を実行するように構成されたプロセッサ421と、プロセッサによって実行可能な命令を格納するメモリ419とを含む。プロセッサ421は、シングルコアプロセッサ、マルチコアプロセッサ、コンピューティングクラスタ、または任意の数の他の構成であり得る。メモリ419は、ランダムアクセスメモリ(RAM:random access memory)、読出専用メモリ(ROM:read only memory)、フラッシュメモリ、または他の任意の好適なメモリシステムを含み得る。プロセッサ421は、バス423を介して1つ以上の入力デバイスおよび出力デバイスに接続することができる。
命令417は、いくつかの実施形態に従った、エンド・ツー・エンド音声認識のための方法を実現することができる。そのために、コンピュータメモリ419は、エンコーダ103と、フレーム同期デコーダ(FSD)モジュール107と、同期モジュール109と、ラベル同期デコーダ(LSD)モジュール431と、ジョイントスコアリングモジュール115と、ゲート435と、発話終了モジュール437とを格納する。いくつかの実施形態では、自動音声認識システム(ASR)400は、ストリーミング方式/オンライン方式で認識するように構成される。たとえば、ゲート435は、音声発話を音響シーケンスのセットに分割するように構成される。たとえば、いくつかの実施形態では、ゲートは、その変換中に音声を分割する入力インターフェイス401の一部として実現される。セット内の各音響シーケンスの長さは、同じであってもよく、または、発せられた音声の特徴に基づいて異なっていてもよい。このようにして、ASRシステム400は、入力音響シーケンスのトランスクリプションをストリームライン方式で実行する。いくつかの実施形態では、ゲート435は、音声発話を音響信号のブロックに分割し、これにより、入力インターフェイスがその時点で1ブロックの音響信号を受取るようにする。たとえば、ゲート435は、非音声音響入力を削除する音声活動検出モジュールであってもよい。
エンコーダ103は、音声発話の特徴を表わす音響フレームのストリーム409を、符号化済み音響特徴フレームのエンコーダ状態のシーケンスに変換するようにトレーニングされる。いくつかの実施形態では、プロセッサ421は、エンコーダ状態のシーケンスをフレームごとにFSDモジュール107にサブミットするためにエンコーダ状態のシーケンスをサブミットするように構成される。いくつかの実施形態に従うと、FSDモジュール107は、トランスクリプション出力を符号化するエンコーダ状態のシーケンスにおけるエンコーダ状態の位置を決定するようにトレーニングされたコネクショニスト時系列分類(CTC)であり得る。いくつかの実施形態では、FSDモジュール107は、符号化済み音響特徴の各エンコーダ状態を連続的に処理して、FSDモジュール107によって維持されるプレフィックスのリストおよび関連スコアを更新するエンコーダ状態を識別するように構成される。各プレフィックスは、復号済みトランスクリプション出力の候補推定に対応する。さらに、いくつかの実施形態では、関連スコアは、プレフィックスのトランスクリプション出力の確率に対応する。いくつかの他の実施形態では、関連スコアは、同じプレフィックスをもたらす全てのトランスクリプション出力確率の合計に対応する。
同期モジュール109は、FSDモジュール107によって維持されるプレフィックスのリストの更新に応答して、エンコーダ状態のシーケンスのうち、FSDモジュール107によって識別されたエンコーダ状態を含む部分を選択するように構成される。いくつかの実施形態では、同期モジュール109は、識別済みエンコーダ状態の位置に基づいてエンコーダ状態のシーケンスをパーティションのセットに分割し、当該パーティションのセットをLSDモジュール111に順次サブミットするように構成される。いくつかの実施形態では、LSDモジュール111はアテンションベースのデコーダであってもよい。
いくつかの実施形態では、LSDモジュール111は、エンコーダ状態のシーケンスのうち選択済み部分を処理して、LSDモジュール111によって維持されるプレフィックスのリストを、トランスクリプション出力についての有望な少なくとも1つの推定で更新するように構成される。LSDモジュール111およびFSDモジュール107がプレフィックスの同じリストを処理すると、LSDモジュールデコーダ111とFSDモジュール107との間で同期が達成される。さらに、エンコーダ状態のシーケンスのうち選択済み部分を復号することにより、FSDモジュール107による復号の時間とLSDモジュール111による復号の時間とを同期させる。
ジョイントスコアリングモジュール115は、FSDモジュール107によって維持されるプレフィックスの更新済みリストおよびLSDモジュール111によって維持されるプレフィックスの更新済みリストにおける対応するプレフィックスの確率を組合わせて、最適な最高連結確率を有するプレフィックスのジョイントリストを生成するように構成される。さらに、いくつかの実施形態では、ジョイントスコアリングモジュール115は、FSDモジュール107によって維持されるプレフィックスのリストをプレフィックスのジョイントリストと置換えて、後続の時間ステップにわたる後続の復号のためにFSDモジュール107のプレフィックスとLSDモジュール111のプレフィックスとを同期させるように構成される。さらに、いくつかの実施形態では、ジョイントスコアリングモジュール115は、最も高いジョイントスコアに対応するプレフィックスを、現在の時間ステップに関する入来ストリームのトランスクリプションの現在の部分として出力するように構成される。
いくつかの実施形態では、メモリ419はまた、音声発話の終了を検出するように構成された発話終了モジュール437を格納する。発話終了モジュール437を実現するために、さまざまな実施形態でさまざまな技術を用いる。たとえば、いくつかの実施形態は、音声アクティビティ検出(SAD:speech activity detection)モジュール、または、SADと補助エンドポイント検出システムとの組合わせを用いることにより、発話の終了を検出する。
自動音声認識システム400は、システム400のトランスクリプション出力を出力するように構成された出力インターフェイス439を含む。たとえば、トランスクリプション出力が文字を表わす場合、出力インターフェイス439は文字ごとに出力する。同様に、トランスクリプション出力が単語を表わす場合、出力インターフェイス439は単語ごとに出力する。付加的または代替的には、一実施形態では、出力インターフェイス439は、トランスクリプション出力のセットを蓄積して単語を形成し、音声発話内の各単語を個別に出力するように構成される。さらに、一実施形態では、出力インターフェイスは、各トランスクリプション出力を個々に、または他の出力とともに出力するように構成される。
いくつかの実施形態では、出力インターフェイス439は、ディスプレイデバイス441上にトランスクリプション出力を表示し、トランスクリプション出力を記憶媒体に格納し、および/または、ネットワーク407を介してトランスクリプション出力を送信することができる。ディスプレイデバイス441の例は、特に、コンピュータモニタ、テレビ、プロジェクタ、またはモバイルデバイスを含む。システム400はまた、さまざまなタスクを実行するためにシステム400を外部デバイス445に接続するように適合されたアプリケーションインターフェイス443に接続することもできる。
図5は、いくつかの実施形態に従ったASRシステム100のデータフロー図を示す。ブロック501において、ASRシステムは、音声発話の一部を受取る。プロセッサはさらに、当該音声発話の一部を、音声発話の音響特徴を表わすフレームのストリームに変換し、音響特徴フレームのストリームをエンコーダモジュールにサブミットするように構成される。エンコーダモジュールは、符号化済み音響特徴フレームのエンコーダ状態のシーケンスを生成する。ブロック503において、フレーム同期デコーダ(FSD)モジュールは、エンコーダ状態のシーケンスを処理または復号して、FSDモジュールによって維持されるFSDスコアの関連リストとともにプレフィックスのリストを拡張するエンコーダ状態を識別する。プレフィックスのリストの各プレフィックスは、復号済みトランスクリプション出力の候補推定である。さらに、FSDスコアのリストの各FSDスコアは、対応するプレフィックスのトランスクリプション出力の確率に対応する。いくつかの実施形態では、FSDスコアのリストの各FSDスコアは、同じプレフィックスをもたらす全てのトランスクリプション出力確率の合計に対応する。したがって、FSDモジュールは、文字、ビット、単語などのトランスクリプション出力を符号化するエンコーダ状態のシーケンスにおけるエンコーダ状態の位置に関する情報を与える。
ブロック505において、FSDモジュールによって識別されたエンコーダ状態の位置情報は、エンコーダ状態のシーケンスのうち、FSDモジュールによって識別されたエンコーダ状態を含む部分を選択するために同期モジュールによって用いられる。同期モジュールはさらに、FSDモジュールによって生成された現在のプレフィックスのリストとエンコーダ状態のシーケンスのうち選択済み部分とをラベル同期デコーダ(LSD)モジュールにサブミットする。これにより、トランスクリプション出力の尤度を推定するために、LSDモジュールがFSDモジュールと同じプレフィックスのリストについて処理することを確実にする。したがって、プレフィックスドメインにおけるFSDモジュールとLSDモジュールとの同期が達成される。さらに、LSDがFSDモジュールとほぼ同時にプレフィックスのリストに関するLSDスコアのリストを出力することを確実にするために、ブロック507において、エンコーダ状態のシーケンスのうち選択済み部分のみがLSDモジュールによって復号される。これにより、LSDモジュールが、音声発話全体ではなく、音声発話の選択済み部分のみにアテンションを配することが可能となり、これにより、LSDモジュールの出力遅延を低減させる。したがって、時間ドメインにおけるFSDモジュールとLSDモジュールとの同期が達成される。
さらに、ブロック509において、ジョイントスコアリングモジュールは、FSDモジュールおよびLSDモジュールの両方からプレフィックスのリストならびに関連するFSDスコアおよびLSDスコアを受取る。ジョイントスコアリングモジュールは、FSDモジュールによって維持されるプレフィックスのリストとLSDモジュールによって維持されるプレフィックスのリストとにおける対応するプレフィックスのFSDスコアとLSDスコアとを組合わせて、プレフィックスのジョイントリストおよびジョイントスコアの関連リストを生成する。加えて、外部言語モデル122によって生成されるプレフィックス確率推定値は、プレフィックス候補推定値をさらに改善するために、重み付けされ得るとともに対応するジョイントスコアに追加され得る。ブロック511において、ジョイントスコアリングモジュールは、FSDモジュールによって維持されるプレフィックスのリストを、可能性の低いプレフィックス候補を削除して復号プロセスを加速させるためにプルーニングされるプレフィックスのジョイントリストと置換える。これにより、さらに、後続の時間ステップにわたってエンコーダ状態を後で復号するために、FSDモジュールおよびLSDモジュールについて可能性の高いプレフィックス候補のリストを同期させる。さらに、ブロック513において、ジョイントスコアリングモジュールは、ジョイントスコアが最も高いプレフィックスを、音響フレームの入来ストリームのトランスクリプションの現在の部分として出力する。
図6は、いくつかの実施形態に従ったプレフィックスビームサーチモジュールを用いたFSDモジュールの実現例の概略図を示す。この例では、FSDモジュールは、各エンコーダ状態ごとにトランスクリプション出力確率610を出力するCTCニューラルネットワーク213を含む。プレフィックスビームサーチモジュール620は、CTCニューラルネットワークの出力610をサーチして、閾値を上回るFSDスコアとともにFSDプレフィックスの候補リスト630を生成するように構成される。この実現例では、各FSDスコアは、繰返されたラベルを折り畳んで空白記号を削除した後に同じプレフィックスをもたらす全てのトランスクリプション出力シーケンスの全確率に関する合計である。
この例では、CTCネットワークは、オーディオ入力からおよび/またはエンコーダ状態から直接トランスクリプトを予測することができる。CTCネットワークはCTC行列610を生成することができる。ここで、列は時間ステップに対応し、各行はアルファベットの文字に対応する。各列は合計すると1となり、CTC行列における全てのエントリはゼロよりも大きいので、CTC行列は各時間ステップごとのアルファベットにわたる分布であり、本質的には文字予測である。この例では、アルファベットは、少なくとも文字A~Z、スペース(_)、および空白トークン(-)を含み、後者はCTCネットワークによって必要とされるものである。いくつかの実現例では、判読性のために低い確率をゼロに丸める。
これを復号する最も容易な方法は、単に、各時間ステップごとに最高確率を有する文字を採用することであり、これは最大復号またはグリーディ復号と呼ばれる方法である。しかしながら、各時間ステップごとに最高確率を有する文字を採用することは単純である。なぜなら、短縮ルールに基づき、全てが同じラベルをもたらす複数の経路をCTC行列を通じてトレースすることができるからである。
そのために、いくつかの実施形態では、プレフィックスビームサーチモジュール620を用いて、最高確率だけでなく、繰り返されたラベルを折り畳んで空白記号を削除した後に同じプレフィックスをもたらす全てのトランスクリプション出力シーケンスの全確率に関する合計も、考慮に入れる。このようにして、プレフィックスビームサーチモジュールは、ジョイントスコアに従ってプルーニングされたFSDプレフィックスの現在のリストのFSDスコアに基づいて、FSDプレフィックスの候補リストのFSDスコアを計算する。いくつかの実現例では、プレフィックスビームサーチモジュール620はまた、1つ以上の外部言語モデル122によって生成されるスコアを用いる。
図7は、いくつかの実施形態に従った、システムを実現するために各種構成において使用することができるいくつかのコンポーネントを示すブロック図である。たとえば、コンポーネント700は、環境711から音響信号709を含むデータを収集する、音響センサ等のセンサ703または複数のセンサと通信するハードウェアプロセッサ701を含み得る。さらに、センサ703は、音響入力を音響信号709に変換することができる。ハードウェアプロセッサ701は、コンピュータストレージメモリ、すなわちメモリ713と通信し、このため、メモリ713は、ハードウェアプロセッサ701によって実現可能な、アルゴリズム、命令、およびその他のデータを含む、格納データを含む。
任意には、ハードウェアプロセッサ701を、データソース717、コンピュータデバイス719、携帯電話デバイス721、およびストレージデバイス723と通信するネットワーク715に接続することができる。さらに、任意には、ハードウェアプロセッサ701を、クライアントデバイス727に接続されたネットワーク対応サーバ725に接続することができる。ハードウェアプロセッサ701を、任意には、外部メモリデバイス729および/または送信機731に接続することができる。さらに、スピーカのテキストは、特定のユーザが意図する用途733に応じて出力することができる。たとえば、いくつかのタイプのユーザの用途は、モニタまたはスクリーン等の1つ以上のディスプレイデバイスにテキストを表示すること、または、さらに分析するためにスピーカのテキストをコンピュータ関連デバイスに入力することなどを、含み得る。
ハードウェアプロセッサ701が特定用途の要件に応じて1以上のハードウェアプロセッサを含み得るものであり、当該プロセッサは内部プロセッサでも外部プロセッサでもよいということが、意図されている。当然ながら、他のデバイスの中でも特に出力インターフェイスおよびトランシーバを含むその他のコンポーネントをコンポーネント700に組込んでもよい。
ネットワーク735は、非限定的な例として1つ以上のローカルエリアネットワーク(LAN)および/またはワイドエリアネットワーク(WAN)を含み得る可能性もある。ネットワーク環境は、企業規模のコンピュータネットワーク、イントラネット、およびインターネットと同様であってもよい。上述のコンポーネントのすべてについて、コンポーネント700とともに使用されるクライアントデバイス、ストレージコンポーネント、およびデータソースの数は任意であり得ることが意図されている。各々は、単一のデバイス、または分散環境において協働する複数のデバイスを含み得る。さらに、コンポーネント700は、1つ以上のデータソース717を含み得る。データソース717は、音声認識ネットワークをトレーニングするためのデータリソースを含む。データソース717が提供するデータは、トランスクライブされたデータおよびトランスクライブされていないデータなどの、ラベル付けされたデータおよびラベル付けされていないデータを含み得る。たとえば、ある実施形態において、データは、1つ以上の音を含むとともに、音声認識ネットワークを初期化するために使用され得る対応するトランスクリプション情報またはラベルも含み得る。
さらに、データソース717内のラベル付けされていないデータは、1つ以上のフィードバックループによって与えることができる。たとえば、検索エンジン上で実行される発話された検索クエリからの使用データは、トランスクライブされていないデータとして与えることができる。データソースの他の例は、限定ではなく例として、ストリーミングサウンドもしくはビデオ、ウェブクエリ、モバイルデバイスカメラもしくはオーディオ情報、ウェブカムフィード、スマートグラスおよびスマートウォッチフィード、顧客ケアシステム、セキュリティカメラフィード、ウェブ文書、カタログ、ユーザフィード、SMSログ、インスタントメッセージングログ、発話単語トランスクリプト、ボイスコマンドもしくは撮影画像(たとえば深度カメラ画像)等のゲーミングシステムユーザインタラクション、ツイート、チャットもしくはビデオコール記録、または、ソーシャルネットワーキング媒体を含む、各種発話言語の音声または画像ソースを含み得る。使用される特定のデータソース717は、データが本質的に特定クラスのデータ(たとえば、データは、例としてマシンシステム、エンターテイメントシステムを含む特定種類の音だけに関連する)であるかまたは一般的なもの(クラス固有のものではない)であるかを含めて、アプリケーションに基づいて決定されてもよい。
コンポーネント700は、第三者デバイスを含むかまたはそれに接続することができる。第三者デバイスは、コンピューティングデバイス上に自動音声認識(ASR)システムが備わっていることが重要である場合等に、任意のタイプのコンピューティングデバイスを含み得る。たとえば、第三者デバイスは、コンピュータデバイス719またはモバイルデバイス721を含み得る。ユーザデバイスは、携帯情報端末(PDA)や、モバイルデバイス、たとえばスマートフォン、スマートウォッチ、スマートグラス(または他のウェアラブルスマートデバイス)、拡張現実ヘッドセット、仮想現実ヘッドセットなどとして実現され得るものであることが意図されている。さらに、ユーザデバイスは、タブレット等のラップトップ、リモートコントロール、エンターテイメントシステム、車両コンピュータシステム、埋込型システムコントローラ、電気器具、ホームコンピュータシステム、セキュリティシステム、家庭用電子機器、または他の同様の電子機器等であってもよい。一実施形態において、クライアントデバイス727は、デバイス上で動作している、本明細書に記載のASRシステムが使用可能なオーディオ情報および画像情報等の入力データを受取ることができる。たとえば、第三者デバイスは、オーディオ情報を受取るためのマイクもしくはライン入力端子、映像情報もしくは画像情報を受取るためのカメラ、または、そのような情報をインターネットもしくはデータソース717などの別のソースから受取るための通信コンポーネント(たとえばWi-Fi機能)を、有し得る。
音声認識ネットワークを使用するASRモデルは、入力されたデータを処理することにより、コンピュータで使用可能な情報を決定することができる。たとえば、ユーザがマイクに向かって話したクエリを処理することにより、たとえば質問が出された場合のクエリの内容を判断することができる。例としての第三者デバイス719、721は、任意には、コンポーネント700に含まれることで、ディープニューラルネットワークモデルを展開し得る環境を示すことができる。さらに、本開示のいくつかの実施形態は、第三者デバイス737、739を含まない場合もある。たとえば、ディープニューラルネットワークモデルは、サーバ上にあっても、クラウドネットワーク、システム、または同様の構成内にあってもよい。
ストレージ723に関して、ストレージ723は、データ、コンピュータ命令(たとえばソフトウェアプログラム命令、ルーチン、もしくはサービス)、および/または本明細書に記載の技術の実施形態で使用されるモデルを含む情報を格納することができる。たとえば、ストレージ723は、1つ以上のデータソース717からのデータ、1つ以上のディープニューラルネットワークモデル、ディープニューラルネットワークモデルを生成しトレーニングするための情報、および1つ以上のディープニューラルネットワークモデルから出力されたコンピュータ使用可能情報を格納することができる。
実施形態
本明細書は、具体例としての実施形態のみを提供し、開示の範囲、適用可能性、または構成を限定することを意図していない。むしろ、具体例としての実施形態の以下の説明は、具体例としての1つ以上の実施形態を実現すること可能にする説明を、当業者に提供するであろう。添付の請求項に記載されている開示された主題の精神および範囲から逸脱することなく、要素の機能および構成に対してなされ得る各種変更が意図されている。
具体的な詳細事項は、以下の記載において、実施形態の十分な理解のために与えられる。しかしながら、これらの具体的な詳細事項がなくても実施形態を実行できることを、当業者は理解できる。たとえば、開示された主題におけるシステム、プロセス、および他の要素は、実施形態を不必要な詳細で不明瞭にしないために、ブロック図の形態で構成要素として示される場合もある。他の例では、実施形態を不明瞭にしないよう、周知のプロセス、構造、および技術は、不必要な詳細事項なしに示されることがある。さらに、各種図面における同様の参照番号および名称は同様の要素を示す。
また、個々の実施形態は、フローチャート、フロー図、データフロー図、構造図、またはブロック図として示されるプロセスとして説明される場合がある。フローチャートは動作を逐次プロセスとして説明し得るが、動作の多くは並列にまたは同時に実行することができる。加えて、動作の順序は入れ替え可能である。プロセスは、その動作が完了したときに終了してもよいが、論じられていないかまたは図に含まれていない追加のステップを有する場合がある。さらに、具体的に記載されているいずれかのプロセスにおけるすべての動作がすべての実施形態に起こり得る訳ではない。プロセスは、方法、関数、手順、サブルーチン、サブプログラムなどに対応し得る。プロセスが関数に対応する場合、関数の終了は、呼び出し関数または主関数に関数を戻すことに対応し得る。
さらに、開示された主題の実施形態は、少なくとも部分的に手動または自動のいずれかで実現され得る。手動または自動による実現は、マシン、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはそれらの任意の組合わせを用いることによって行われてもよく、または少なくとも支援されてもよい。ソフトウェア、ファームウェア、ミドルウェア、またはマイクロコードで実現される場合、必要なタスクを実行するプログラムコードまたはコードセグメントは、マシン読取可能媒体に格納されてもよい。プロセッサは必要なタスクを実行し得る。
さらに、本開示の実施形態および本明細書に記載の機能的動作は、デジタル電子回路において、有形で実装されるコンピュータソフトウェアもしくはファームウェアにおいて、本明細書に開示される構造およびそれらの構造的均等物を含むコンピュータハードウェアにおいて、または、それらのうちの1つ以上の組合わせにおいて、実現することができる。さらに、本開示のいくつかの実施形態は、1つ以上のコンピュータプログラムとして、すなわちデータ処理装置が実行するためにまたはデータ処理装置の動作を制御するために、有形の非一時的なプログラムキャリア上に符号化されたコンピュータプログラム命令の1つ以上のモジュールとして、実現することができる。またさらに、プログラム命令は、人為的に生成された伝搬信号上に、たとえば、マシンによって生成された電気信号、光学信号または電磁信号上に、符号化することができる。伝播信号は、データ処理装置が実行するために適切な受信装置に送信される情報を符号化するために生成される。コンピュータ記憶媒体は、マシン読取可能なストレージデバイス、マシン読取可能なストレージ基板、ランダムアクセスメモリデバイスもしくはシリアルアクセスメモリデバイス、またはそれらの1つ以上の組合わせであってもよい。
本開示の実施形態に従うと、「データ処理装置」という語は、例として、プログラム可能なプロセッサ、コンピュータ、または複数のプロセッサもしくはコンピュータを含む、データを処理するすべての種類の装置、デバイス、およびマシンを包含し得る。装置は、専用論理回路、たとえばFPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路)を含み得る。この装置はまた、ハードウェアに加えて、当該コンピュータプログラムの実行環境を生成するコード、たとえば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらの1つ以上の組合わせを構成するコード、を含み得る。
(プログラム、ソフトウェア、ソフトウェアアプリケーション、モジュール、ソフトウェアモジュール、スクリプト、またはコードと呼ばれ得るかまたは説明され得る)コンピュータプログラムは、コンパイルされた言語もしくは解釈された言語、または宣言的言語もしくは手続き型言語を含む任意の形態のプログラミング言語で記述することができ、スタンドアロンプログラムとして、またはモジュール、コンポーネント、サブルーチン、もしくはコンピューティング環境での使用に適した他のユニットとして、任意の形態で展開することができる。コンピュータプログラムは、ファイルシステム内のファイルに対応し得るが、対応していなくてもよい。プログラムは、他のプログラムまたはデータを保持するファイルの一部に、たとえばマークアップ言語文書に格納された1つ以上のスクリプト、対象プログラム専用の単一ファイル、またはコーディネートした複数のファイル、たとえば1つ以上のモジュール、サブプログラム、またはコードの一部を格納するファイルに、格納することができる。コンピュータプログラムは、1つのコンピュータ上で、または1つの場所に位置するかもしくは複数の場所に分散され通信ネットワークで相互に接続された複数のコンピュータ上で実行されるように展開することができる。コンピュータプログラムの実行に適したコンピュータは、一例として、汎用マイクロプロセッサもしくは専用マイクロプロセッサもしくはその両方、または任意の他の種類の中央処理装置に基づいていてもよい。一般的に、中央処理装置は、読出専用メモリまたはランダムアクセスメモリまたはその両方から命令およびデータを受取るだろう。コンピュータの必須要素は、命令を実施または実行するための中央処理装置と、命令およびデータを格納するための1つ以上のメモリデバイスとである。一般的に、コンピュータはまた、データを格納するための1つ以上の大容量ストレージデバイス、たとえば、磁気ディスク、光磁気ディスク、もしくは光ディスクを含むか、または、それからデータを受取るかまたはそれにデータを転送するかまたはその両方を行なうように、上記ディスクに作動的に結合される。しかしながら、コンピュータはそのようなデバイスを有していなくてもよい。さらに、コンピュータは、別のデバイスに埋め込むことができる。たとえば数例を挙げると、携帯電話、携帯情報端末(PDA)、モバイルオーディオもしくはビデオプレーヤ、ゲームコンソール、グローバルポジショニングシステム(GPS)受信機、または携帯型ストレージデバイス、たとえばユニバーサルシリアルバス(USB)フラッシュドライブに、埋め込むことができる。
ユーザとやり取りできるようにするために、ユーザに情報を表示するためのディスプレイデバイス、たとえばCRT(陰極線管)またはLCD(液晶ディスプレイ)モニタと、ユーザがコンピュータに入力を提供できるようにするキーボードおよびポインティングデバイス、たとえばマウスまたはトラックボールとを有するコンピュータ上で、本明細書に記載の主題の実施形態が実現されてもよい。他の種類のデバイスを用いてユーザとやり取りできるようにしてもよい。たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック、たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックであってもよく、ユーザからの入力は、音響入力、音声入力、または触覚入力を含む任意の形態で受けることができる。加えて、コンピュータは、ユーザが使用するデバイスに文書を送信し当該デバイスから文書を受取ることによって、たとえばユーザのクライアントデバイス上のウェブブラウザに、ウェブブラウザから受取った要求に応じてウェブページを送信することによって、ユーザとのやり取りを実現することができる。
本明細書に記載の主題の実施形態は、たとえばデータサーバとしてバックエンドコンポーネントを含むか、または、ミドルウェアコンポーネント、たとえばアプリケーションサーバを含むか、または、フロントエンドコンポーネント、たとえば本明細書に記載の主題の実装形態とユーザがやり取りできるようにするグラフィカルユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータを含むか、または、1つ以上のそのようなバックエンド、ミドルウェア、もしくはフロントエンドコンポーネントの任意の組合わせを含む、コンピューティングシステムにおいて実現することができる。システムの構成要素は、デジタルデータ通信の任意の形態または媒体、たとえば通信ネットワークにより、相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)およびワイドエリアネットワーク(「WAN」)、たとえばインターネットを含む。
コンピューティングシステムはクライアントおよびサーバを含み得る。クライアントおよびサーバは、一般的には互いから離れており、典型的には通信ネットワークを通してやり取りする。クライアントとサーバとの関係は、各コンピュータ上で実行されるとともにクライアントとサーバとの相互の関係を有するコンピュータプログラムにより生じるものである。
本開示をいくつかの好ましい実施形態を用いて説明してきたが、他のさまざまな適合および修正が本開示の精神および範囲の中で実施可能であることが理解されねばならない。したがって、そのようなすべての変形および変更を本開示の真の精神および範囲内に収めるように網羅することが、添付の特許請求の範囲の局面である。

Claims (20)

  1. コンピュータベースの自動音声認識システムであって、前記システムは、前記システムのモジュールを実現する格納された命令と連結されたプロセッサを用い、前記命令を実行する前記プロセッサは、
    音声発話の特徴を表わす音響フレームの入来ストリームを、符号化済み音響特徴フレームのエンコーダ状態のシーケンスに符号化し、
    終了条件が満たされるまで、フレーム同期デコーダ(FSD:frame-synchronous decoder)モジュールで、符号化済み音響特徴フレームの各エンコーダ状態を連続的に処理す
    るように構成され、前記FSDモジュールは、新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態を識別することに応答して、FSDプレフィックスの現在のリストを拡張して、FSDプレフィックスの候補リストおよび対応するFSDスコアを生成し、前記候補リスト内の各FSDプレフィックスは、前記FSDモジュールによって処理された前記エンコーダ状態における復号済みトランスクリプション出力についての、前記FSDモジュールによる推定であり、FSDプレフィックスが前記復号済みトランスクリプション出力である確率は、前記対応するFSDスコアによって定義され、前記FSDプレフィックスの候補リストを生成することに応答して、前記プロセッサは、
    前記エンコーダ状態のうち、前記FSDモジュールによって識別されたエンコーダ状態を含む部分を選択し、前記エンコーダ状態の選択済み部分を処理するようにラベル同期デコーダ(LSD:label-synchronous decoder)モジュールをトリガして、前記LSDモ
    ジュールに従って、前記FSDプレフィックスの候補リスト内の前記FSDプレフィックスが、前記エンコーダ状態の選択済み部分における前記復号済みトランスクリプション出力である確率を定義するLSDスコアを決定し、
    対応するFSDスコアとLSDスコアとの組合わせによって定義されるジョイントスコアに従って前記FSDプレフィックスの候補リストをプルーニングし、
    前記FSDプレフィックスの現在のリストを前記FSDプレフィックスのプルーニング済みリストと置換えて、次のトランスクリプション出力のための復号を継続するように構成される、システム。
  2. プルーニングするステップにより、最高ジョイントスコアを有する前記FSDプレフィックスの候補リストにおいてn個の最適なFSDプレフィックスが保存されるように、前
    記FSDプレフィックスの現在のリストのサイズは固定されており、前記FSDプレフィックスの候補リストのサイズよりも小さく、nは、前記FSDプレフィックスの現在のリストのサイズである、請求項1に記載のシステム。
  3. 前記プロセッサは、置換えられた前記FSDプレフィックスの現在のリストにおけるFSDスコアを置換えることなく、FSDプレフィックスのみを置換える、請求項1に記載のシステム。
  4. 前記プロセッサは、最高ジョイントスコアを有する前記FSDプレフィックスを、音響フレームの前記入来ストリームのうち前記エンコーダ状態のシーケンスの部分に対応する部分についての前記復号済みトランスクリプション出力として出力するように構成される、請求項1に記載のシステム。
  5. 前記FSDモジュールは、
    各エンコーダ状態ごとにトランスクリプション出力確率を出力するコネクショニスト時系列分類(CTC:connectionist temporal classification)ニューラルネットワーク
    と、
    閾値を上回るFSDスコアを有する前記FSDプレフィックスの候補リストを生成するために前記CTCニューラルネットワークの出力をサーチするように構成されたプレフィックスビームサーチモジュールとを備え、各FSDスコアは、繰返されたラベルを折り畳んで空白記号を削除した後に同じプレフィックスをもたらす全てのトランスクリプション出力シーケンスの全確率に関する合計であり、前記プレフィックスビームサーチモジュールは、前記ジョイントスコアに従ってプルーニングされた前記FSDプレフィックスの現在のリストの前記FSDスコアに基づいて、前記FSDプレフィックスの候補リストの前記FSDスコアを計算する、請求項1に記載のシステム。
  6. 前記FSDモジュールは、リカレントニューラルネットワークトランスデューサ(RNN-T:recurrent neural network-transducer)アーキテクチャを有するニューラルネ
    ットワークを含む、請求項1に記載のシステム。
  7. 前記LSDモジュールは、アテンションベースのデコーダニューラルネットワークを含む、請求項1に記載のシステム。
  8. 前記LSDモジュールは、入力としてサブミットされたエンコーダ状態の各パーティションごとにLSDプレフィックスのリストおよび対応するLSDスコアを決定し、前記FSDプレフィックスと一致する前記LSDプレフィックスについてのみLSDスコアを出力する、請求項7に記載のシステム。
  9. 前記システムのモジュールは同期モジュールを含み、前記同期モジュールは、前記エンコーダ状態のうち、前記FSDモジュールによって識別された前記新しいトランスクリプション出力を含む部分を処理するように前記LSDモジュールをトリガすることによって、および、前記FSDモジュールによって生成された前記FSDプレフィックスについての前記LSDスコアを前記LSDモジュールが推定することを可能にすることによって、時間ドメインおよびプレフィックスドメインにおいて前記FSDモジュールと前記LSDモジュールとを同期させるように構成される、請求項1に記載のシステム。
  10. 前記同期モジュールは、前記エンコーダ状態のシーケンスのうち前記シーケンスの先頭からルックアヘッドエンコーダ状態までの部分を選択し、前記ルックアヘッドエンコーダ状態は、前記FSDモジュールによって識別された前記エンコーダ状態の位置を順方向に固定シフトだけシフトすることによって決定される、請求項9に記載のシステム。
  11. 前記同期モジュールは、前記エンコーダ状態のシーケンスのうち、前記FSDモジュールによって識別された前記エンコーダ状態の位置に対して予め定められた数のルックアヘッドエンコーダ状態およびルックバックエンコーダ状態を含む部分を選択する、請求項9に記載のシステム。
  12. 前記システムのモジュールは、トリガ型アテンション(TA:triggered attention)
    ニューラルネットワークを形成するために前記FSDモジュールおよび前記LSDモジュールと共同でトレーニングされるエンコーダニューラルネットワークを含む、請求項1に記載のシステム。
  13. 前記エンコーダは、並列時間遅延型長・短期メモリ(PTDLSTM:parallel time-delayed long short-term memory)ストリームに基づく単方向エンコーダニューラルネットワークを含む、請求項12に記載のシステム。
  14. 前記エンコーダおよび前記LSDモジュールはトランスフォーマアーキテクチャを用いて実現される、請求項12に記載のシステム。
  15. 自動音声認識を実行するためにプロセッサによって実行可能なモジュールを含むプログラムが組込まれた非一時的なコンピュータ可読記憶媒体であって、前記モジュールは、
    音声発話の特徴を表わす音響フレームの入来ストリームを、符号化済み音響特徴フレームのエンコーダ状態のシーケンスに符号化するように構成されたエンコーダと、
    フレーム同期デコーダ(FSD)モジュールとを備え、前記FSDモジュールは、符号化済み音響特徴フレームの各エンコーダ状態を連続的に処理して、新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態を識別することに応答して、FSDプレフィックスの現在のリストを拡張して、FSDプレフィックスの候補リストおよび対応するFSDスコアを生成するように構成され、前記候補リスト内の各FSDプレフィックスは、前記FSDモジュールによって処理された前記エンコーダ状態における復号済みトランスクリプション出力についての、前記FSDモジュールによる推定であり、FSDプレフィックスが前記復号済みトランスクリプション出力である確率は、前記対応するFSDスコアによって定義されるものであり、前記モジュールはさらに、
    前記エンコーダ状態のうち、前記FSDモジュールによって識別された前記エンコーダ状態を含む部分を選択するように構成される同期モジュールと、
    ラベル同期デコーダ(LSD)モジュールと、
    ジョイントスコアリングモジュールとを備え、前記LSDモジュールは、前記エンコーダ状態の選択済み部分を処理し、前記ジョイントスコアリングモジュールは、前記FSDプレフィックスの前記FSDスコアを対応するLSDスコアと連結するように構成されており、前記対応するLSDスコアは、前記LSDモジュールに従って、前記FSDプレフィックスが前記復号済みトランスクリプション出力である確率を定義するものであり、
    前記ジョイントスコアリングモジュールは、ジョイント型FSDスコアおよびLSDスコアに従って前記FSDプレフィックスをプルーニングし、前記FSDプレフィックスの現在のリストを前記FSDプレフィックスのプルーニング済みリストと置換えて、次のトランスクリプション出力のための復号を継続するように構成され、前記モジュールはさらに、
    出力インターフェイスを備え、前記出力インターフェイスは、最高ジョイントスコアを有する前記FSDプレフィックスを、前記FSDモジュールによって処理された前記エンコーダ状態についての音響フレームの前記入来ストリームの前記復号済みトランスクリプション出力として出力するように構成される、媒体。
  16. 前記同期モジュールは、前記エンコーダ状態のうち、前記FSDモジュールによって識
    別された前記新しいトランスクリプション出力を含む部分を処理するように前記LSDモジュールをトリガすることによって、および、前記FSDプレフィックスを前記LSDモジュールに渡すことで前記LSDモジュールが前記FSDプレフィックスについての前記LSDスコアを推定することを可能にすることによって、時間ドメインおよびプレフィックスドメインにおいて前記FSDモジュールと前記LSDモジュールとを同期させるように構成される、請求項15に記載の媒体。
  17. 前記FSDモジュールは、
    各エンコーダ状態ごとにトランスクリプション出力確率を出力するコネクショニスト時系列分類(CTC:connectionist temporal classification)ニューラルネットワーク
    と、
    閾値を上回るFSDスコアを有する前記FSDプレフィックスの候補リストを生成するために前記CTCニューラルネットワークの出力をサーチするように構成されたプレフィックスビームサーチモジュールとを備え、各FSDスコアは、繰返されたラベルを折り畳んで空白記号を削除した後に同じプレフィックスをもたらす全てのトランスクリプション出力シーケンスの全確率に関する合計であり、前記プレフィックスビームサーチモジュールは、前記ジョイント型FSDスコアおよびLSDスコアに従ってプルーニングされた前記FSDプレフィックスの現在のリストの前記FSDスコアに基づいて、前記FSDプレフィックスの候補リストの前記FSDスコアを計算し、
    前記LSDモジュールは、アテンションベースのデコーダニューラルネットワークを含む、請求項15に記載の媒体。
  18. 前記モジュールはさらに、
    前記FSDプレフィックスの候補リストをスコアリングするように構成された外部言語モデルを含み、前記ジョイントスコアリングモジュールは、前記外部言語モデルによって決定されたスコアで前記ジョイント型FSDスコアおよびLSDスコアを更新し、更新された前記ジョイント型FSDスコアおよびLSDスコアに基づいて前記FSDプレフィックスの候補リストをプルーニングする、請求項15に記載の媒体。
  19. 自動音声認識のための方法であって、前記方法は、前記方法を実現する格納された命令と連結されたプロセッサを用い、前記命令は、前記プロセッサによって実行されると、前記方法のステップを実行し、前記方法のステップは、
    音声発話の特徴を表わす音響フレームの入来ストリームを、符号化済み音響特徴フレームのエンコーダ状態のシーケンスに符号化するステップと、
    終了条件が満たされるまで、フレーム同期デコーダ(FSD)モジュールで、符号化済み音響特徴フレームの各エンコーダ状態を連続的に処理するステップとを備え、前記FSDモジュールは、新しいトランスクリプション出力に関する情報を搬送するエンコーダ状態を識別することに応答して、FSDプレフィックスの現在のリストを拡張して、FSDプレフィックスの候補リストおよび対応するFSDスコアを生成し、前記候補リスト内の各FSDプレフィックスは、前記FSDモジュールによって処理された前記エンコーダ状態における復号済みトランスクリプション出力についての、前記FSDモジュールによる推定であり、FSDプレフィックスが前記復号済みトランスクリプション出力である確率は、前記対応するFSDスコアによって定義されるものであり、前記方法のステップはさらに、
    前記エンコーダ状態のうち、前記FSDモジュールによって識別される前記エンコーダ状態を含む部分を選択するステップと、
    エンコーダ状態の選択済み部分を処理するようにラベル同期デコーダ(LSD)モジュールをトリガして、前記LSDモジュールに従って、前記FSDプレフィックスの候補リストにおける前記FSDプレフィックスが、前記エンコーダ状態の選択済み部分における前記復号済みトランスクリプション出力である確率を定義するLSDスコアを決定するス
    テップと、
    対応するFSDスコアとLSDスコアとの組合わせによって定義されるジョイントスコアに従って前記FSDプレフィックスの候補リストをプルーニングするステップと、
    前記FSDプレフィックスの現在のリストを前記FSDプレフィックスのプルーニング済みリストと置換えて、次のトランスクリプション出力のための復号を継続するステップとを備える、方法。
  20. 最高ジョイントスコアを有する前記FSDプレフィックスを、音響フレームの前記入来ストリームのうち前記エンコーダ状態のシーケンスの部分に対応する部分についての前記復号済みトランスクリプション出力として出力するステップをさらに含む、請求項19に記載の方法。
JP2022558824A 2019-12-12 2020-12-04 非同期デコーダでエンド・ツー・エンド音声認識をストリーミングするためのシステムおよび方法 Active JP7490804B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/712,423 US11373639B2 (en) 2019-12-12 2019-12-12 System and method for streaming end-to-end speech recognition with asynchronous decoders pruning prefixes using a joint label and frame information in transcribing technique
US16/712,423 2019-12-12
PCT/JP2020/046193 WO2021117844A1 (en) 2019-12-12 2020-12-04 System and method for streaming end-to-end speech recognition with asynchronous decoders

Publications (2)

Publication Number Publication Date
JP2023504219A JP2023504219A (ja) 2023-02-01
JP7490804B2 true JP7490804B2 (ja) 2024-05-27

Family

ID=74141788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022558824A Active JP7490804B2 (ja) 2019-12-12 2020-12-04 非同期デコーダでエンド・ツー・エンド音声認識をストリーミングするためのシステムおよび方法

Country Status (5)

Country Link
US (1) US11373639B2 (ja)
EP (1) EP4073787B1 (ja)
JP (1) JP7490804B2 (ja)
CN (1) CN114787914A (ja)
WO (1) WO2021117844A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11501761B2 (en) * 2019-04-05 2022-11-15 Samsung Electronics Co., Ltd. Method and apparatus for speech recognition
CN110648658B (zh) * 2019-09-06 2022-04-08 北京达佳互联信息技术有限公司 一种语音识别模型的生成方法、装置及电子设备
US11948561B2 (en) * 2019-10-28 2024-04-02 Apple Inc. Automatic speech recognition imposter rejection on a headphone with an accelerometer
US20210193147A1 (en) * 2019-12-23 2021-06-24 Descript, Inc. Automated generation of transcripts through independent transcription
US11361550B2 (en) * 2019-12-30 2022-06-14 Yahoo Assets Llc Automatic digital content captioning using spatial relationships method and apparatus
JP7222153B1 (ja) * 2020-01-21 2023-02-14 グーグル エルエルシー デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識
US11562745B2 (en) * 2020-04-06 2023-01-24 Microsoft Technology Licensing, Llc Sequence-to-sequence speech recognition with latency threshold
CN111667828B (zh) * 2020-05-28 2021-09-21 北京百度网讯科技有限公司 语音识别方法和装置、电子设备和存储介质
JP2023545988A (ja) * 2020-10-05 2023-11-01 グーグル エルエルシー トランスフォーマトランスデューサ:ストリーミング音声認識と非ストリーミング音声認識を統合する1つのモデル
CN113380239B (zh) * 2021-07-20 2022-09-09 北京百度网讯科技有限公司 语音识别模型的训练方法、语音识别方法、装置和设备
US20230108275A1 (en) * 2021-10-06 2023-04-06 Google Llc Language Agnostic Multilingual End-To-End Streaming On-Device ASR System
WO2023183268A1 (en) * 2022-03-21 2023-09-28 Google Llc Intended query detection using e2e modeling for continued conversation
CN116052674B (zh) * 2022-12-19 2023-06-09 北京数美时代科技有限公司 基于预测未来帧的流式语音识别方法、系统和存储介质
CN117275484B (zh) * 2023-11-17 2024-02-20 深圳市友杰智新科技有限公司 命令词识别方法、装置、设备和介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018207390A1 (en) 2017-05-11 2018-11-15 Mitsubishi Electric Corporation Speech recognition system and method for speech recognition

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102371188B1 (ko) * 2015-06-30 2022-03-04 삼성전자주식회사 음성 인식 장치 및 방법과 전자 장치
US10733979B2 (en) * 2015-10-09 2020-08-04 Google Llc Latency constraints for acoustic modeling
CN108475505B (zh) * 2015-11-12 2023-03-17 谷歌有限责任公司 使用部分条件从输入序列生成目标序列
US10229672B1 (en) * 2015-12-31 2019-03-12 Google Llc Training acoustic models using connectionist temporal classification
US10373610B2 (en) * 2017-02-24 2019-08-06 Baidu Usa Llc Systems and methods for automatic unit selection and target decomposition for sequence labelling
US10714076B2 (en) * 2017-07-10 2020-07-14 Sony Interactive Entertainment Inc. Initialization of CTC speech recognition with standard HMM
US10672388B2 (en) * 2017-12-15 2020-06-02 Mitsubishi Electric Research Laboratories, Inc. Method and apparatus for open-vocabulary end-to-end speech recognition
US10593321B2 (en) * 2017-12-15 2020-03-17 Mitsubishi Electric Research Laboratories, Inc. Method and apparatus for multi-lingual end-to-end speech recognition
US10811000B2 (en) * 2018-04-13 2020-10-20 Mitsubishi Electric Research Laboratories, Inc. Methods and systems for recognizing simultaneous speech by multiple speakers
US20210312294A1 (en) * 2020-04-03 2021-10-07 International Business Machines Corporation Training of model for processing sequence data
US11328731B2 (en) * 2020-04-08 2022-05-10 Salesforce.Com, Inc. Phone-based sub-word units for end-to-end speech recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018207390A1 (en) 2017-05-11 2018-11-15 Mitsubishi Electric Corporation Speech recognition system and method for speech recognition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Niko Moritz et al.,"Streaming End-to-End Speech Recognition with Joint CTC-Attention Based Models",2019 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU),2019年12月,p.936-943

Also Published As

Publication number Publication date
JP2023504219A (ja) 2023-02-01
US11373639B2 (en) 2022-06-28
EP4073787A1 (en) 2022-10-19
WO2021117844A1 (en) 2021-06-17
EP4073787B1 (en) 2024-01-10
CN114787914A (zh) 2022-07-22
US20210183373A1 (en) 2021-06-17

Similar Documents

Publication Publication Date Title
JP7490804B2 (ja) 非同期デコーダでエンド・ツー・エンド音声認識をストリーミングするためのシステムおよび方法
JP7170920B2 (ja) トリガードアテンションを用いたエンドツーエンド音声認識のためのシステムおよび方法
JP7436760B1 (ja) サブワードエンドツーエンド自動音声認識のための学習ワードレベルコンフィデンス
US11741947B2 (en) Transformer transducer: one model unifying streaming and non-streaming speech recognition
JP7351018B2 (ja) エンド・ツー・エンド音声認識における固有名詞認識
US11961515B2 (en) Contrastive Siamese network for semi-supervised speech recognition
KR20230086737A (ko) 단순화된 스트리밍 및 비스트리밍 스피치 인식을 위한 캐스케이드 인코더들
JP2024511176A (ja) エンドツーエンド自動音声認識コンフィデンスおよび削除推定のためのマルチタスク学習
KR20230158107A (ko) 효율적인 스트리밍 비-순환 온-디바이스 엔드-투-엔드 모델
JP2023175029A (ja) アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル
US20220310097A1 (en) Reducing Streaming ASR Model Delay With Self Alignment
CN117581233A (zh) 适用于流应用的以双因果和非因果受限自注意力进行序列到序列处理的人工智能系统
KR102637025B1 (ko) 자동 음성 인식을 위한 다언어 리스코어링 모델들
WO2024019859A1 (en) Context-aware neural confidence estimation for rare word speech recognition
WO2024089962A1 (en) End-to-end speech recognition adapted for multi- speaker applications
KR20240068723A (ko) Rnn-T로 구현된 자동 음성 인식 시스템에서 음향과 텍스트 표현의 융합
CN118176537A (zh) 用于长形式语音识别的训练

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240306

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240515

R150 Certificate of patent or registration of utility model

Ref document number: 7490804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150