JP7222153B1 - デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 - Google Patents
デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 Download PDFInfo
- Publication number
- JP7222153B1 JP7222153B1 JP2022544204A JP2022544204A JP7222153B1 JP 7222153 B1 JP7222153 B1 JP 7222153B1 JP 2022544204 A JP2022544204 A JP 2022544204A JP 2022544204 A JP2022544204 A JP 2022544204A JP 7222153 B1 JP7222153 B1 JP 7222153B1
- Authority
- JP
- Japan
- Prior art keywords
- decoder
- encoder
- hypothesis
- context vector
- pass
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000009795 derivation Methods 0.000 title claims abstract description 61
- 239000013598 vector Substances 0.000 claims abstract description 61
- 238000000034 method Methods 0.000 claims abstract description 41
- 230000007246 mechanism Effects 0.000 claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 230000000306 recurrent effect Effects 0.000 claims abstract description 7
- 230000015654 memory Effects 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 27
- 238000004891 communication Methods 0.000 claims description 13
- 230000006403 short-term memory Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 6
- 238000013518 transcription Methods 0.000 description 5
- 230000035897 transcription Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000001934 delay Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000000275 quality assurance Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/0018—Speech coding using phonetic or linguistical decoding of the source; Reconstruction using text-to-speech synthesis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/081—Search algorithms, e.g. Baum-Welch or Viterbi
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/085—Methods for reducing search complexity, pruning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Character Discrimination (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
音声認識は、モバイル環境の非拘束性および機敏性の要求を満たすために進化し続けている。自動音声認識システム(ASR)の品質を向上させるために、新たな音声認識アーキテクチャまたは既存のアーキテクチャの改良が引き続き開発されている。例えば、音声認識は、当初、各モデルが専用の目的を持つ複数のモデルを採用していた。例えば、ASRシステムは、音響モデル(AM)、発音モデル(PM)、および言語モデル(LM)を含んでいた。音響モデルは、音声のセグメント(即ち、音声のフレーム)を音素(phonemes)にマッピングした。発音モデルは、これらの音素をつなぎ合わせて単語を形成し、言語モデルは、所与のフレーズの可能性(即ち、単語のシーケンスの確率)を表現するために使用された。これらの個々のモデルは連携して機能したが、各モデルは個別にトレーニングされ、多くの場合、異なるデータセットで手動で設計された。
ここで、LRNNT(-)はRNN-T損失であり、λLCE(-)はデリバレーションデコーダ240に関するクロスエントロピー損失であり、θe、θ1、およびθ2は、それぞれエンコーダ210、RNN-Tデコーダ220、およびデリバレーションデコーダ230のパラメータを示す。ここで、共同トレーニングは、「ディープファインチューニング(deep fine tuning)」の概念に似ているが、事前トレーニング済みのデコーダを用いていない。
図3は、デリバレーション2パスアーキテクチャを使用して自動音声認識(例えば、ASR)を実行する方法300のための動作の例示的な構成のフローチャートである。動作302において、方法300は、第1のパスの仮説222およびエンコードされた音響フレーム212を受信する。ここで、第1のパスの仮説222は、エンコードされた音響フレーム212に対してRNNデコーダ220によって生成されたものである。動作304において、方法300は、仮説エンコーダ242において第1のパスの仮説222をエンコードすることを含む。動作306において、方法300は、第1のアテンション機構246を使用して第1のコンテキストベクトル247を生成し、第2のアテンション機構244を使用して第2のコンテキストベクトル245を生成することを含む。第1のアテンション機構246は、エンコードされた音響フレーム212に対してアテンションする。第2のアテンション機構244は、エンコードされた第1のパスの仮説243に対してアテンションする。動作308において、方法300は、コンテキストベクトルデコーダ230において第1のコンテキストベクトル247および第2のコンテキストベクトル245をデコードして、第2のパスの仮説248を形成することを含む。
Claims (26)
- データ処理ハードウェア(112)上での実行時に、前記データ処理ハードウェア(112)に動作を実行させるコンピュータが実施する方法(300)であって、前記動作は、
第1のパスの仮説(222)およびエンコードされた音響フレーム(212)を受信すること、前記第1のパスの仮説(222)は、前記エンコードされた音響フレーム(212)に対してリカレントニューラルネットワーク(以下、RNNとする)デコーダモデル(220)によって生成されたものであり、
仮説エンコーダ(242)において、前記第1のパスの仮説(222)をエンコードすること、
前記エンコードされた音響フレーム(212)に対してアテンションする第1のアテンション機構(246)を使用して、第1のコンテキストベクトル(247)を生成すること、
エンコードされた前記第1のパスの仮説(222)に対してアテンションする第2のアテンション機構(244)を使用して、第2のコンテキストベクトル(245)を生成すること、
コンテキストベクトルデコーダ(230)において、前記第1のコンテキストベクトル(247)および前記第2のコンテキストベクトル(245)をデコードして、第2のパスの仮説(222)を形成すること、を含むコンピュータが実施する方法(300)。 - 前記第1のコンテキストベクトル(247)および前記第2のコンテキストベクトル(245)をデコードすることは、前記第1のコンテキストベクトル(247)と前記第2のコンテキストベクトル(245)との連結をデコードすることを含む、請求項1に記載のコンピュータが実施する方法(300)。
- 前記第1のパスの仮説(222)をエンコードすることは、前記仮説エンコーダ(242)において、前記第1のパスの仮説(222)を双方向エンコードして、前記第1のパスの仮説(222)からコンテキスト情報を生成することを含む、請求項1または2に記載のコンピュータが実施する方法(300)。
- 前記仮説エンコーダ(242)は、長短期記憶(LSTM)ネットワークを含む、請求項3に記載のコンピュータが実施する方法(300)。
- 前記動作は、
共有エンコーダ(210)において、音響フレーム(212)をエンコードすること、
前記RNNデコーダモデル(220)において、前記共有エンコーダ(210)から伝達された前記エンコードされた音響フレーム(212)に基づいて、前記第1のパスの仮説(222)を生成すること、を含む、請求項1乃至4のいずれか一項に記載のコンピュータが実施する方法(300)。 - 前記動作は、単方向音声エンコーダ(250)において、前記共有エンコーダ(210)から伝達された前記エンコードされた音響フレーム(212)に基づいて、音響埋め込み(232)を生成することをさらに含む、請求項5に記載のコンピュータが実施する方法(300)。
- 前記単方向音声エンコーダ(250)は、長短期記憶(以下、LSTMとする)ネットワークを含む、請求項6に記載のコンピュータが実施する方法(300)。
- 前記LSTMネットワークが少なくとも2つの層を含む、請求項7に記載のコンピュータが実施する方法(300)。
- 前記動作は、
前記RNNデコーダモデル(220)をトレーニングすること、
トレーニングされた前記RNNデコーダモデル(220)のパラメータが固定された状態で、デリバレーションデコーダ(240)をトレーニングすること、を含み、前記デリバレーションデコーダ(240)は、前記仮説エンコーダ(242)、前記第1のアテンション機構(246)、前記第2のアテンション機構(244)、および前記コンテキストベクトルデコーダ(230)を含む、請求項1乃至8のいずれか一項に記載のコンピュータが実施する方法(300)。 - 前記動作は、前記RNNデコーダモデル(220)および前記デリバレーションデコーダ(240)のトレーニング中に単語誤り率を最小化することをさらに含む、請求項9に記載のコンピュータが実施する方法(300)。
- 前記動作は、前記RNNデコーダモデル(220)およびデリバレーションデコーダ(240)を共同でトレーニングすることをさらに含み、前記デリバレーションデコーダ(240)は、前記仮説エンコーダ(242)、前記第1のアテンション機構(246)、前記第2のアテンション機構(244)、および前記コンテキストベクトルデコーダ(230)を含む、請求項1乃至10のいずれか一項に記載のコンピュータが実施する方法(300)。
- 前記動作は、前記RNNデコーダモデル(220)および前記デリバレーションデコーダ(240)の共同トレーニング中に単語誤り率を最小化することをさらに含む、請求項11に記載のコンピュータが実施する方法(300)。
- 前記データ処理ハードウェア(112)がユーザデバイス(110)上に存在する、請求項1乃至12のいずれか一項に記載のコンピュータが実施する方法(300)。
- システム(400)であって、
データ処理ハードウェア(112)と、
前記データ処理ハードウェア(112)と通信するメモリハードウェア(114)と、を備え、前記メモリハードウェア(114)は、命令を格納しており、前記命令は、前記データ処理ハードウェア(112)上で実行されるときに、前記データ処理ハードウェア(112)に動作を実行させ、前記動作は、
第1のパスの仮説(222)およびエンコードされた音響フレーム(212)を受信すること、前記第1のパスの仮説(222)は、前記エンコードされた音響フレーム(212)に対してリカレントニューラルネットワーク(以下、RNNとする)デコーダモデル(220)によって生成されたものであり、
仮説エンコーダ(242)において、前記第1のパスの仮説(222)をエンコードすること、
前記エンコードされた音響フレーム(212)に対してアテンションする第1のアテンション機構(246)を使用して、第1のコンテキストベクトル(247)を生成すること、
エンコードされた前記第1のパスの仮説(222)に対してアテンションする第2のアテンション機構(244)を使用して、第2のコンテキストベクトル(245)を生成すること、
コンテキストベクトルデコーダ(230)において、前記第1のコンテキストベクトル(247)および前記第2のコンテキストベクトル(245)をデコードして、第2のパスの仮説(222)を形成すること、を含む、システム(400)。 - 前記第1のコンテキストベクトル(247)および前記第2のコンテキストベクトル(245)をデコードすることは、前記第1のコンテキストベクトル(247)と前記第2のコンテキストベクトル(245)との連結をデコードすることを含む、請求項14に記載のシステム(400)。
- 前記第1のパスの仮説(222)をエンコードすることは、前記仮説エンコーダ(242)において、前記第1のパスの仮説(222)を双方向エンコードして、前記第1のパスの仮説(222)からコンテキスト情報を生成することを含む、請求項14または15に記載のシステム(400)。
- 前記仮説エンコーダ(242)は、長短期記憶(LSTM)ネットワークを含む、請求項16に記載のシステム(400)。
- 前記動作は、
共有エンコーダ(210)において、音響フレーム(212)をエンコードすること、
前記RNNデコーダモデル(220)において、前記共有エンコーダ(210)から伝達された前記エンコードされた音響フレーム(212)に基づいて、前記第1のパスの仮説(222)を生成すること、を含む、請求項14乃至17のいずれか一項に記載のシステム(400)。 - 前記動作は、単方向音声エンコーダ(250)において、前記共有エンコーダ(210)から伝達された前記エンコードされた音響フレーム(212)に基づいて、音響埋め込み(232)を生成することをさらに含む、請求項18に記載のシステム(400)。
- 前記単方向音声エンコーダ(250)は、長短期記憶(以下、LSTMとする)ネットワークを含む、請求項19に記載のシステム(400)。
- 前記LSTMネットワークが少なくとも2つの層を含む、請求項20に記載のシステム(400)。
- 前記動作は、
前記RNNデコーダモデル(220)をトレーニングすること、
トレーニングされた前記RNNデコーダモデル(220)のパラメータが固定された状態で、デリバレーションデコーダ(240)をトレーニングすること、を含み、前記デリバレーションデコーダ(240)は、前記仮説エンコーダ(242)、前記第1のアテンション機構(246)、前記第2のアテンション機構(244)、および前記コンテキストベクトルデコーダ(230)を含む、請求項14乃至21のいずれか一項に記載のシステム(400)。 - 前記動作は、前記RNNデコーダモデル(220)および前記デリバレーションデコーダ(240)のトレーニング中に単語誤り率を最小化することをさらに含む、請求項22に記載のシステム(400)。
- 前記動作は、前記RNNデコーダモデル(220)およびデリバレーションデコーダ(240)を共同でトレーニングすることをさらに含み、前記デリバレーションデコーダ(240)は、前記仮説エンコーダ(242)、前記第1のアテンション機構(246)、前記第2のアテンション機構(244)、および前記コンテキストベクトルデコーダ(230)を含む、請求項14乃至23のいずれか一項に記載のシステム(400)。
- 前記動作は、前記RNNデコーダモデル(220)および前記デリバレーションデコーダ(240)の共同トレーニング中に単語誤り率を最小化することをさらに含む、請求項24に記載のシステム(400)。
- 前記データ処理ハードウェア(112)がユーザ装置(110)上に存在する、請求項14乃至25のいずれか一項に記載のシステム(400)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023014655A JP7488381B2 (ja) | 2020-01-21 | 2023-02-02 | デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062963721P | 2020-01-21 | 2020-01-21 | |
US62/963,721 | 2020-01-21 | ||
PCT/US2021/013449 WO2021150424A1 (en) | 2020-01-21 | 2021-01-14 | Deliberation model-based two-pass end-to-end speech recognition |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023014655A Division JP7488381B2 (ja) | 2020-01-21 | 2023-02-02 | デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7222153B1 true JP7222153B1 (ja) | 2023-02-14 |
JP2023513430A JP2023513430A (ja) | 2023-03-31 |
Family
ID=74661446
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022544204A Active JP7222153B1 (ja) | 2020-01-21 | 2021-01-14 | デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 |
JP2023014655A Active JP7488381B2 (ja) | 2020-01-21 | 2023-02-02 | デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023014655A Active JP7488381B2 (ja) | 2020-01-21 | 2023-02-02 | デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11908461B2 (ja) |
EP (2) | EP4062400B1 (ja) |
JP (2) | JP7222153B1 (ja) |
KR (1) | KR20220130699A (ja) |
CN (1) | CN115004296A (ja) |
WO (1) | WO2021150424A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110648658B (zh) * | 2019-09-06 | 2022-04-08 | 北京达佳互联信息技术有限公司 | 一种语音识别模型的生成方法、装置及电子设备 |
US11783811B2 (en) * | 2020-09-24 | 2023-10-10 | International Business Machines Corporation | Accuracy of streaming RNN transducer |
US11532312B2 (en) * | 2020-12-15 | 2022-12-20 | Microsoft Technology Licensing, Llc | User-perceived latency while maintaining accuracy |
US11908458B2 (en) * | 2020-12-29 | 2024-02-20 | International Business Machines Corporation | Customization of recurrent neural network transducers for speech recognition |
JP2024512071A (ja) * | 2021-03-26 | 2024-03-18 | グーグル エルエルシー | 自動音声認識のための多言語再スコアリングモデル |
EP4392967A1 (en) * | 2021-10-04 | 2024-07-03 | Google LLC | Transducer-based streaming deliberation for cascaded encoders |
US11908454B2 (en) | 2021-12-01 | 2024-02-20 | International Business Machines Corporation | Integrating text inputs for training and adapting neural network transducer ASR models |
KR102478763B1 (ko) * | 2022-06-28 | 2022-12-19 | (주)액션파워 | 자소 정보를 이용한 음성 인식 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018133070A (ja) | 2017-02-13 | 2018-08-23 | 株式会社東芝 | 対話システム、対話方法、および対話システムを適合させる方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11119795A (ja) * | 1997-10-16 | 1999-04-30 | Nec Corp | 特徴量の濃縮合成方法、及び特徴量の濃縮合成装置 |
US10896681B2 (en) * | 2015-12-29 | 2021-01-19 | Google Llc | Speech recognition with selective use of dynamic language models |
US10176799B2 (en) * | 2016-02-02 | 2019-01-08 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for training language models to reduce recognition errors |
US10210862B1 (en) * | 2016-03-21 | 2019-02-19 | Amazon Technologies, Inc. | Lattice decoding and result confirmation using recurrent neural networks |
US10490183B2 (en) * | 2017-11-22 | 2019-11-26 | Amazon Technologies, Inc. | Fully managed and continuously trained automatic speech recognition service |
JP6989951B2 (ja) | 2018-01-09 | 2022-01-12 | 国立大学法人 奈良先端科学技術大学院大学 | スピーチチェイン装置、コンピュータプログラムおよびdnn音声認識・合成相互学習方法 |
JP7070653B2 (ja) | 2018-02-21 | 2022-05-18 | 日本電信電話株式会社 | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム |
US11100920B2 (en) * | 2019-03-25 | 2021-08-24 | Mitsubishi Electric Research Laboratories, Inc. | System and method for end-to-end speech recognition with triggered attention |
US11158307B1 (en) * | 2019-03-25 | 2021-10-26 | Amazon Technologies, Inc. | Alternate utterance generation |
US10964309B2 (en) * | 2019-04-16 | 2021-03-30 | Microsoft Technology Licensing, Llc | Code-switching speech recognition with end-to-end connectionist temporal classification model |
US11615785B2 (en) * | 2019-05-10 | 2023-03-28 | Robert Bosch Gmbh | Speech recognition using natural language understanding related knowledge via deep feedforward neural networks |
US11373639B2 (en) * | 2019-12-12 | 2022-06-28 | Mitsubishi Electric Research Laboratories, Inc. | System and method for streaming end-to-end speech recognition with asynchronous decoders pruning prefixes using a joint label and frame information in transcribing technique |
-
2021
- 2021-01-14 EP EP21706060.7A patent/EP4062400B1/en active Active
- 2021-01-14 JP JP2022544204A patent/JP7222153B1/ja active Active
- 2021-01-14 EP EP24184116.2A patent/EP4414896A3/en active Pending
- 2021-01-14 US US17/149,018 patent/US11908461B2/en active Active
- 2021-01-14 KR KR1020227025101A patent/KR20220130699A/ko active Search and Examination
- 2021-01-14 CN CN202180009642.6A patent/CN115004296A/zh active Pending
- 2021-01-14 WO PCT/US2021/013449 patent/WO2021150424A1/en unknown
-
2023
- 2023-02-02 JP JP2023014655A patent/JP7488381B2/ja active Active
- 2023-02-06 US US18/164,923 patent/US12027158B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018133070A (ja) | 2017-02-13 | 2018-08-23 | 株式会社東芝 | 対話システム、対話方法、および対話システムを適合させる方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2023513430A (ja) | 2023-03-31 |
WO2021150424A1 (en) | 2021-07-29 |
US20210225369A1 (en) | 2021-07-22 |
CN115004296A (zh) | 2022-09-02 |
KR20220130699A (ko) | 2022-09-27 |
JP7488381B2 (ja) | 2024-05-21 |
EP4062400B1 (en) | 2024-07-17 |
EP4414896A2 (en) | 2024-08-14 |
US12027158B2 (en) | 2024-07-02 |
EP4062400A1 (en) | 2022-09-28 |
US11908461B2 (en) | 2024-02-20 |
EP4414896A3 (en) | 2024-10-16 |
JP2023041867A (ja) | 2023-03-24 |
US20230186907A1 (en) | 2023-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7222153B1 (ja) | デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 | |
JP7351018B2 (ja) | エンド・ツー・エンド音声認識における固有名詞認識 | |
JP2023545988A (ja) | トランスフォーマトランスデューサ:ストリーミング音声認識と非ストリーミング音声認識を統合する1つのモデル | |
JP7375211B2 (ja) | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル | |
KR20230158608A (ko) | 종단 간 자동 음성 인식 신뢰도 및 삭제 추정을 위한 멀티태스크 학습 | |
US20240321263A1 (en) | Emitting Word Timings with End-to-End Models | |
US20230298563A1 (en) | Deliberation by Text-Only and Semi-Supervised Training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221020 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20221020 Free format text: JAPANESE INTERMEDIATE CODE: A801 Effective date: 20221020 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221020 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7222153 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |