JP7170920B2 - トリガードアテンションを用いたエンドツーエンド音声認識のためのシステムおよび方法 - Google Patents
トリガードアテンションを用いたエンドツーエンド音声認識のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7170920B2 JP7170920B2 JP2021575098A JP2021575098A JP7170920B2 JP 7170920 B2 JP7170920 B2 JP 7170920B2 JP 2021575098 A JP2021575098 A JP 2021575098A JP 2021575098 A JP2021575098 A JP 2021575098A JP 7170920 B2 JP7170920 B2 JP 7170920B2
- Authority
- JP
- Japan
- Prior art keywords
- sequence
- encoder
- attention
- output
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 60
- 238000013518 transcription Methods 0.000 claims description 129
- 230000035897 transcription Effects 0.000 claims description 129
- 238000005192 partition Methods 0.000 claims description 96
- 238000013528 artificial neural network Methods 0.000 claims description 69
- 238000012545 processing Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 28
- 230000001755 vocal effect Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 description 28
- 238000010586 diagram Methods 0.000 description 21
- 230000015654 memory Effects 0.000 description 11
- 230000001934 delay Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000000638 solvent extraction Methods 0.000 description 10
- 238000009826 distribution Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 230000000306 recurrent effect Effects 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 5
- 230000001788 irregular Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003121 nonmonotonic effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000002103 transcriptional effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
Description
H=Encoder(X)
に変換する。
H=Encoder(X)
に変換するエンコーダネットワークを含み、この関数Encoder(X)は、スタックされた1つ以上のリカレントニューラルネットワーク(RNN)および畳み込みニューラルネットワーク(CNN)を含み得る。あるRNNは、各隠れユニットに入力ゲートと忘却ゲートと出力ゲートとメモリセルとを有する長・短期記憶(LSTM)として実現されてもよい。別のRNNは、双方向RNN(BRNN)または双方向LSTM(BLSTM)であってもよい。BLSTMはLSTM RNNのペアであり、一方は順方向LSTM、他方は逆方向LSTMである。BLSTMの隠れベクトルは、順方向LSTMおよび逆方向LSTMの隠れベクトルを連結したものとして得られる。
実施形態
Claims (15)
- 音声認識システムであって、前記音声認識システムは、
コンピュータメモリを備え、前記コンピュータメモリは、
入力音響信号をエンコーダ状態のシーケンスに変換するように構成されたエンコーダと、
トランスクリプション出力をエンコードする前記エンコーダ状態のシーケンス内のエンコーダ状態の位置を特定するように構成されたアライメントデコーダと、
前記特定したエンコーダ状態の位置に基づいて前記エンコーダ状態のシーケンスをパーティションのセットに分割するように構成されたパーティションモジュールと、
自身に入力としてサブミットされたエンコーダ状態の各パーティションごとに前記トランスクリプション出力を決定するように構成されたアテンションベースデコーダとを、格納するように構成され、前記音声認識システムはさらに、
音声発話の少なくとも一部を表す前記音響信号を受けるように構成された入力インターフェイスと、
ハードウェアプロセッサとを備え、前記ハードウェアプロセッサは、
前記受けた音響信号を前記エンコーダにサブミットすることにより前記エンコーダ状態のシーケンスを生成し、
前記エンコーダ状態のシーケンスを前記アライメントデコーダ内にサブミットすることにより前記トランスクリプション出力をエンコードする前記エンコーダ状態の位置を特定し、
前記パーティションモジュールを用い、前記特定したエンコーダ状態の位置に基づいて、前記エンコーダ状態のシーケンスを前記パーティションのセットに分割し、かつ、
前記パーティションのセットを前記アテンションベースデコーダ内に順次サブミットすることにより、前記サブミットしたパーティションのうちの各パーティションごとにトランスクリプション出力を生成するように構成され、前記音声認識システムはさらに、
前記トランスクリプション出力を出力するように構成された出力インターフェイスを備える、音声認識システム。 - 前記出力インターフェイスは、各トランスクリプション出力を、トランスクライブされた通りに個々に出力するように構成されている、請求項1に記載の音声認識システム。
- 前記出力インターフェイスは、トランスクリプション出力のセットを蓄積して単語を形成し各単語を個々に出力するように構成されている、請求項1に記載の音声認識システム。
- 前記プロセッサは、前記特定したエンコーダ状態の各位置ごとに前記エンコーダ状態のシーケンスをパーティションに分割し、特定したエンコーダ状態の数によってパーティションの数が定められる、請求項1に記載の音声認識システム。
- 各パーティションは、エンコーダ状態を、前記エンコーダ状態のシーケンスの始めから、前記特定したエンコーダ状態の位置を順方向に固定シフト分だけシフトさせることによって決まるルックアヘッドエンコーダ状態まで含む、請求項4に記載の音声認識システム。
- 特定したエンコーダ状態の位置に対応する各パーティションは、前記特定したエンコーダ状態の位置を中心として予め定められた数のエンコーダ状態を含む、請求項4に記載の音声認識システム。
- 前記パーティションのセットは第1のパーティションと後続のパーティションとを含み
、
前記プロセッサは、前記第1のパーティションを前記アテンションベースデコーダを用いて処理することにより第1のトランスクリプション出力を生成し、
前記アテンションベースデコーダが、前記アテンションベースデコーダをその内部状態にする前記第1のパーティションの処理を終了した後に、前記プロセッサは、前記アテンションベースデコーダの内部状態をリセットすることなく前記後続のパーティションを前記アテンションベースデコーダを用いて処理することにより、前記後続のパーティションのトランスクリプション出力を1つずつ生成する、請求項1に記載の音声認識システム。 - 前記アテンションベースデコーダは、異なるパーティションを、前記アテンションベースデコーダの内部状態をリセットすることなく処理するように構成され、
前記プロセッサは、前記音声発話の終了を判断すると、前記アテンションベースデコーダの内部状態をリセットするように構成されている、請求項1に記載の音声認識システム。 - 前記プロセッサは、前記音声発話の後続部分を表す後続の音響信号を受けると、
前記後続の音響信号を前記エンコーダにサブミットすることにより前記エンコーダ状態の後続のシーケンスを生成し、
前記エンコーダ状態の後続のシーケンスを前記アライメントデコーダにサブミットすることにより、前記エンコーダ状態の後続のシーケンス内のトランスクリプション出力をエンコードするエンコーダ状態の位置を特定し、
前記エンコーダ状態のシーケンスと前記エンコーダ状態の後続のシーケンスとを連結してエンコーダ状態の連結シーケンスを生成し、かつ、
前記エンコーダ状態の連結シーケンスを前記特定したエンコーダ状態の位置に基づいてパーティションに分割することにより、前記パーティションのシーケンスを更新するように構成されている、請求項1に記載の音声認識システム。 - 前記入力インターフェイスが1回に1つの音響信号ブロックを受けるように、前記音声発話を音響信号のブロックに分割するゲートをさらに備える、請求項9に記載の音声認識システム。
- 前記エンコーダ、前記アライメントデコーダ、および前記アテンションベースデコーダは、合同訓練されるニューラルネットワークである、請求項1に記載の音声認識システム。
- 前記アライメントデコーダは、コネクショニスト時系列分類(CTC)ベースニューラルネットワーク、または隠れマルコフモデル(HMM)ベース分類器を含む、請求項11に記載の音声認識システム。
- 前記アライメントデコーダはコネクショニスト時系列分類ベース(CTCベース)ニューラルネットワークであり、前記アテンションベースデコーダはアテンションベースニューラルネットワークであり、
前記アテンションベースニューラルネットワークが決定する前記トランスクリプション出力は、トランスクリプション出力の確率を含み、
前記CTCベースニューラルネットワークはさらに、前記CTCベースニューラルネットワークに入力として与えられた前記エンコーダ状態におけるトランスクリプション出力の確率を求めるように訓練され、
前記プロセッサは、前記エンコーダ状態のシーケンスを前記CTCベースニューラルネットワーク内にサブミットすることにより、前記音響信号におけるトランスクリプション出力の確率の第1のシーケンスを決定し、
前記プロセッサは、前記エンコーダ状態のシーケンスのパーティションを前記アテンションベースニューラルネットワーク内にサブミットすることにより、前記音響信号におけるトランスクリプション出力の確率の第2のシーケンスを決定し、
前記プロセッサは、前記トランスクリプション出力の確率の第1のシーケンスと第2のシーケンスとの組み合わせに基づいて、前記音響信号における前記トランスクリプション出力を決定するように構成されている、請求項11に記載の音声認識システム。 - 音声認識方法であって、前記方法は、前記方法を実現する、格納された命令と結合されたプロセッサを使用し、前記プロセッサによって実行されると前記命令は前記方法のステップを実行し、
前記方法は、
音声発話の少なくとも一部を表す音響信号を受けるステップと、
前記音響信号をエンコーダ状態のシーケンスに変換するステップと、
トランスクリプション出力をエンコードする前記エンコーダ状態のシーケンス内のエンコーダ状態の位置を特定するステップと、
前記特定したエンコーダ状態の位置に基づいて前記エンコーダ状態のシーケンスをパーティションのセットに分割するステップと、
前記パーティションのセットをアテンションベースデコーダ内に順次サブミットすることにより、前記サブミットしたパーティションのうちの各パーティションごとにトランスクリプション出力を生成するステップと、
前記トランスクリプション出力を出力するステップとを含む、音声認識方法。 - プロセッサが方法を実施するために実行可能なプログラムが実装された非一時的なコンピュータ読取可能記憶媒体であって、前記方法は、
音声発話の少なくとも一部を表す音響信号を受けるステップと、
前記音響信号をエンコーダ状態のシーケンスに変換するステップと、
トランスクリプション出力をエンコードする前記エンコーダ状態のシーケンス内のエンコーダ状態の位置を特定するステップと、
前記特定したエンコーダ状態の位置に基づいて前記エンコーダ状態のシーケンスをパーティションのセットに分割するステップと、
前記パーティションのセットをアテンションベースデコーダ内に順次サブミットすることにより、前記サブミットしたパーティションのうちの各パーティションごとにトランスクリプション出力を生成するステップと、
前記トランスクリプション出力を出力するステップとを含む、非一時的なコンピュータ読取可能記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/363,021 | 2019-03-25 | ||
US16/363,021 US11100920B2 (en) | 2019-03-25 | 2019-03-25 | System and method for end-to-end speech recognition with triggered attention |
PCT/JP2020/002201 WO2020195068A1 (en) | 2019-03-25 | 2020-01-16 | System and method for end-to-end speech recognition with triggered attention |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022522379A JP2022522379A (ja) | 2022-04-18 |
JP7170920B2 true JP7170920B2 (ja) | 2022-11-14 |
Family
ID=69650675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021575098A Active JP7170920B2 (ja) | 2019-03-25 | 2020-01-16 | トリガードアテンションを用いたエンドツーエンド音声認識のためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11100920B2 (ja) |
EP (1) | EP3948850B1 (ja) |
JP (1) | JP7170920B2 (ja) |
CN (1) | CN113574595B (ja) |
WO (1) | WO2020195068A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11144721B2 (en) * | 2019-05-31 | 2021-10-12 | Accenture Global Solutions Limited | System and method for transforming unstructured text into structured form |
CN110648658B (zh) * | 2019-09-06 | 2022-04-08 | 北京达佳互联信息技术有限公司 | 一种语音识别模型的生成方法、装置及电子设备 |
EP4062400B1 (en) | 2020-01-21 | 2024-07-17 | Google LLC | Deliberation model-based two-pass end-to-end speech recognition |
CN111292716A (zh) * | 2020-02-13 | 2020-06-16 | 百度在线网络技术(北京)有限公司 | 语音芯片和电子设备 |
CN111427932B (zh) * | 2020-04-02 | 2022-10-04 | 南方科技大学 | 出行预测方法、装置、设备和存储介质 |
US11562745B2 (en) * | 2020-04-06 | 2023-01-24 | Microsoft Technology Licensing, Llc | Sequence-to-sequence speech recognition with latency threshold |
GB2600987B (en) | 2020-11-16 | 2024-04-03 | Toshiba Kk | Speech Recognition Systems and Methods |
CN113539242A (zh) * | 2020-12-23 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN114999463B (zh) * | 2022-08-01 | 2022-11-15 | 深译信息科技(珠海)有限公司 | 语音识别方法、装置、设备及介质 |
CN115376538A (zh) * | 2022-08-19 | 2022-11-22 | 思必驰科技股份有限公司 | 用于交互的语音降噪方法、系统、电子设备和存储介质 |
CN116230015B (zh) * | 2023-03-14 | 2023-08-08 | 哈尔滨工程大学 | 一种基于音频时序信息加权的频域特征表示异音检测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018207390A1 (en) | 2017-05-11 | 2018-11-15 | Mitsubishi Electric Corporation | Speech recognition system and method for speech recognition |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9786270B2 (en) * | 2015-07-09 | 2017-10-10 | Google Inc. | Generating acoustic models |
US9799327B1 (en) | 2016-02-26 | 2017-10-24 | Google Inc. | Speech recognition with attention-based recurrent neural networks |
EP3510594B1 (en) * | 2016-10-10 | 2020-07-01 | Google LLC | Very deep convolutional neural networks for end-to-end speech recognition |
US10839790B2 (en) * | 2017-02-06 | 2020-11-17 | Facebook, Inc. | Sequence-to-sequence convolutional architecture |
US10373610B2 (en) * | 2017-02-24 | 2019-08-06 | Baidu Usa Llc | Systems and methods for automatic unit selection and target decomposition for sequence labelling |
US11133011B2 (en) * | 2017-03-13 | 2021-09-28 | Mitsubishi Electric Research Laboratories, Inc. | System and method for multichannel end-to-end speech recognition |
US10474709B2 (en) * | 2017-04-14 | 2019-11-12 | Salesforce.Com, Inc. | Deep reinforced model for abstractive summarization |
US10706840B2 (en) * | 2017-08-18 | 2020-07-07 | Google Llc | Encoder-decoder models for sequence to sequence mapping |
US11145293B2 (en) * | 2018-07-20 | 2021-10-12 | Google Llc | Speech recognition with sequence-to-sequence models |
US11335333B2 (en) * | 2018-07-20 | 2022-05-17 | Google Llc | Speech recognition with sequence-to-sequence models |
US10720151B2 (en) * | 2018-07-27 | 2020-07-21 | Deepgram, Inc. | End-to-end neural networks for speech recognition and classification |
CN109215662B (zh) * | 2018-09-18 | 2023-06-20 | 平安科技(深圳)有限公司 | 端对端语音识别方法、电子装置及计算机可读存储介质 |
-
2019
- 2019-03-25 US US16/363,021 patent/US11100920B2/en active Active
-
2020
- 2020-01-16 EP EP20706847.9A patent/EP3948850B1/en active Active
- 2020-01-16 CN CN202080021866.4A patent/CN113574595B/zh active Active
- 2020-01-16 JP JP2021575098A patent/JP7170920B2/ja active Active
- 2020-01-16 WO PCT/JP2020/002201 patent/WO2020195068A1/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018207390A1 (en) | 2017-05-11 | 2018-11-15 | Mitsubishi Electric Corporation | Speech recognition system and method for speech recognition |
Non-Patent Citations (1)
Title |
---|
MORITZ, NIKO, ET AL.,"Triggerd Attention for End-to-end Speech Recognition",2019 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING(ICASSP),2019年05月17日,pp.5666-5670 |
Also Published As
Publication number | Publication date |
---|---|
CN113574595A (zh) | 2021-10-29 |
EP3948850B1 (en) | 2023-01-18 |
US11100920B2 (en) | 2021-08-24 |
CN113574595B (zh) | 2023-11-24 |
WO2020195068A1 (en) | 2020-10-01 |
EP3948850A1 (en) | 2022-02-09 |
JP2022522379A (ja) | 2022-04-18 |
US20200312306A1 (en) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7170920B2 (ja) | トリガードアテンションを用いたエンドツーエンド音声認識のためのシステムおよび方法 | |
JP7490804B2 (ja) | 非同期デコーダでエンド・ツー・エンド音声認識をストリーミングするためのシステムおよび方法 | |
JP6802005B2 (ja) | 音声認識装置、音声認識方法及び音声認識システム | |
JP7066349B2 (ja) | 翻訳方法、翻訳装置及びコンピュータプログラム | |
JP7436760B1 (ja) | サブワードエンドツーエンド自動音声認識のための学習ワードレベルコンフィデンス | |
JP7351018B2 (ja) | エンド・ツー・エンド音声認識における固有名詞認識 | |
JP7222153B1 (ja) | デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 | |
JP2023545988A (ja) | トランスフォーマトランスデューサ:ストリーミング音声認識と非ストリーミング音声認識を統合する1つのモデル | |
JP7375211B2 (ja) | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル | |
KR20230158107A (ko) | 효율적인 스트리밍 비-순환 온-디바이스 엔드-투-엔드 모델 | |
JP2024513778A (ja) | 自己適応型蒸留 | |
US12057124B2 (en) | Reducing streaming ASR model delay with self alignment | |
KR20240065125A (ko) | 희귀 단어 스피치 인식을 위한 대규모 언어 모델 데이터 선택 | |
WO2024129789A1 (en) | Semi-supervised training scheme for speech recognition | |
JP2021503104A (ja) | 自動音声認識装置及び方法 | |
KR102637025B1 (ko) | 자동 음성 인식을 위한 다언어 리스코어링 모델들 | |
US20240185842A1 (en) | Interactive decoding of words from phoneme score distributions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7170920 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |