JP2023511390A - アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル - Google Patents
アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル Download PDFInfo
- Publication number
- JP2023511390A JP2023511390A JP2022544371A JP2022544371A JP2023511390A JP 2023511390 A JP2023511390 A JP 2023511390A JP 2022544371 A JP2022544371 A JP 2022544371A JP 2022544371 A JP2022544371 A JP 2022544371A JP 2023511390 A JP2023511390 A JP 2023511390A
- Authority
- JP
- Japan
- Prior art keywords
- training
- text
- context vector
- decoder
- unpaired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 claims abstract description 124
- 239000013598 vector Substances 0.000 claims abstract description 78
- 238000000034 method Methods 0.000 claims abstract description 49
- 238000003062 neural network model Methods 0.000 claims abstract description 25
- 230000015654 memory Effects 0.000 claims description 35
- 238000012545 processing Methods 0.000 claims description 35
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 14
- 230000000306 recurrent effect Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 6
- 238000013518 transcription Methods 0.000 description 6
- 230000035897 transcription Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000000275 quality assurance Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
音声認識は、モバイル環境の非拘束性および機敏性の要求を満たすために進化し続けている。自動音声認識システム(ASR)の品質を向上させるために、新たな音声認識アーキテクチャまたは既存のアーキテクチャの改良が引き続き開発されている。例えば、音声認識は、当初、各モデルが専用の目的を持つ複数のモデルを採用していた。例えば、ASRシステムは、音響モデル(AM)、発音モデル(PM)、および言語モデル(LM)を含んでいた。音響モデルは、音声のセグメント(即ち、音声のフレーム)を音素(phonemes)にマッピングした。発音モデルは、これらの音素をつなぎ合わせて単語を形成し、言語モデルは、所与のフレーズの可能性(即ち、単語のシーケンスの確率)を表現するために使用された。これらの個々のモデルは連携して機能したが、各モデルは個別にトレーニングされ、多くの場合、異なるデータセットに対して手動で設計された。
Claims (24)
- データ処理ハードウェア(112)上での実行時に、前記データ処理ハードウェア(112)に動作を実行させるコンピュータが実施する方法(300)であって、前記動作は、
2パスストリーミングニューラルネットワークモデル(200)のリッスン・アテンド・スペル(以下LASとする)デコーダ(230)用のトレーニング例(203)を受信することと、
前記トレーニング例(203)が教師付き音声・テキストペアに対応しているか、または非ペアのテキストシーケンスに対応しているかを決定することと、
前記トレーニング例(203)が前記非ペアのテキストシーケンスに対応している場合、前記トレーニング例(203)の言語コンテキストベクトル(246)に関連付けられた対数確率に基づいてクロスエントロピー損失を決定することと、
決定された前記クロスエントロピー損失に基づいて、前記LASデコーダ(230)および前記言語コンテキストベクトル(246)を更新することと、を含む、コンピュータが実施する方法(300)。 - 前記動作は、さらに、
前記2パスストリーミングニューラルネットワークモデル(200)の前記LASデコーダ(230)用の第2のトレーニング例(203)を受信することと、
前記第2のトレーニング例(203)が前記教師付き音声・テキストペアに対応していることを決定することと、
音響コンテキストベクトル(244)に関する対数確率に基づいて、前記LASデコーダ(230)および前記音響コンテキストベクトル(244)に関連付けられた音響コンテキストベクトルパラメータを更新することと、を含む、請求項1に記載のコンピュータが実施する方法(300)。 - 前記トレーニング例(203)が教師付き音声・テキストペアに対応しているか、または非ペアのテキストシーケンスに対応しているかを決定することは、前記トレーニング例(203)が前記教師付き音声・テキストペアに対応しているか、または前記非ペアのテキストシーケンスに対応しているかを示すドメイン識別子を識別することを含む、請求項1または2に記載のコンピュータが実施する方法(300)。
- 前記LASデコーダ(230)を更新することにより、ロングテールエンティティに関する前記2パスストリーミングニューラルネットワークモデル(200)の単語誤り率(WER)を低減させる、請求項1乃至3のいずれか一項に記載のコンピュータが実施する方法(300)。
- 前記対数確率が、音響コンテキストベクトル(244)から生成された第1の個々の対数確率および前記言語コンテキストベクトル(246)から生成された第2の個々の対数確率の補間によって定義される、請求項1乃至4のいずれか一項に記載のコンピュータが実施する方法(300)。
- 前記LASデコーダ(230)が、前記2パスストリーミングニューラルネットワークモデル(200)の第1のパス(206)を通じてリカレントニューラルネットワークトランスデューサ(RNN-T)デコーダ(220)によって生成された仮説に基づいてビームサーチモードで動作する、請求項1乃至5のいずれか一項に記載のコンピュータが実施する方法(300)。
- 前記動作は、エンコードされた音響フレーム(212)からエンコーダ(210)の特徴を要約するように構成されたアテンション機構(242)を用いて、前記トレーニング例(203)の前記言語コンテキストベクトル(246)を生成することをさらに含む、請求項1乃至6のいずれか一項に記載のコンピュータが実施する方法(300)。
- データ処理ハードウェア(112)上での実行時に、前記データ処理ハードウェア(112)に動作を実行させるコンピュータが実施する方法(400)であって、前記動作は、
2パスストリーミングニューラルネットワークモデル(200)のリッスン・アテンド・スペル(以下LASとする)デコーダ(230)用のトレーニング例(203)を受信することと、
前記トレーニング例(203)が教師付き音声・テキストペアに対応しているか、または非ペアのトレーニングデータに対応しているかを決定することと、
前記トレーニング例(203)が前記非ペアのトレーニングデータに対応している場合、前記非ペアのトレーニングデータの欠落部分を生成して、生成音声・テキストペアを形成することと、
前記生成音声・テキストペアに基づいて、前記LASデコーダ(230)および非ペアのデータに関連付けられた言語コンテキストベクトル(244)を更新することと、を含むコンピュータが実施する方法(400)。 - 前記動作は、さらに
生成された前記音声・テキストペアに基づいて音響コンテキストベクトル(244)を決定することと、
前記音響コンテキストベクトル(244)から生成された第1の個々の対数確率および前記言語コンテキストベクトル(246)から生成された第2の個々の対数確率の補間を決定することと、を含み、
前記LASデコーダ(230)を更新することは、前記第1の個々の対数確率および前記第2の個々の対数確率の補間にさらに基づく、請求項8に記載のコンピュータが実施する方法(400)。 - 前記トレーニング例(203)が教師付き音声・テキストペアに対応しているか、または非ペアのトレーニングデータに対応しているかを決定することは、前記トレーニング例(203)が前記教師付き音声・テキストペアに対応しているか、または前記非ペアのトレーニングデータに対応しているかを示すドメイン識別子を識別することを含む、請求項8または9に記載のコンピュータが実施する方法(400)。
- 前記LASデコーダ(230)を更新することにより、ロングテールエンティティに関する前記2パスストリーミングニューラルネットワークモデル(200)の単語誤り率(WER)を低減させる、請求項8乃至10のいずれか一項に記載のコンピュータが実施する方法(400)。
- 前記動作は、エンコードされた音響フレーム(212)からエンコーダ(210)の特徴を要約するように構成されたアテンション機構(242)を用いて、前記トレーニング例(203)の前記言語コンテキストベクトル(246)を生成することをさらに含む、請求項8乃至11のいずれか一項に記載のコンピュータが実施する方法(400)。
- システム(500)であって、
データ処理ハードウェア(112)と、
前記データ処理ハードウェア(112)と通信し、かつ命令を格納するメモリハードウェア(114)と、を備え、前記命令は、前記データ処理ハードウェア(112)上での実行時に、前記データ処理ハードウェア(112)に
2パスストリーミングニューラルネットワークモデル(200)のリッスン・アテンド・スペル(以下LASとする)デコーダ(230)用のトレーニング例(203)を受信することと、
前記トレーニング例(203)が教師付き音声・テキストペアに対応しているか、または非ペアのテキストシーケンスに対応しているかを決定することと、
前記トレーニング例(203)が前記非ペアのテキストシーケンスに対応している場合、前記トレーニング例(203)の言語コンテキストベクトル(246)に関連付けられた対数確率に基づいてクロスエントロピー損失を決定することと、
決定された前記クロスエントロピー損失に基づいて、前記LASデコーダ(230)および前記言語コンテキストベクトル(246)を更新することと、を含む動作を実行させる、システム(500)。 - 前記動作は、さらに
前記2パスストリーミングニューラルネットワークモデル(200)の前記LASデコーダ(230)用の第2のトレーニング例(203)を受信することと、
前記第2のトレーニング例(203)が前記教師付き音声・テキストペアに対応していることを決定することと、
音響コンテキストベクトル(244)に関する対数確率に基づいて、前記LASデコーダ(230)および前記音響コンテキストベクトル(244)に関連付けられた音響コンテキストベクトルパラメータを更新することと、を含む、請求項13に記載のシステム(500)。 - 前記トレーニング例(203)が教師付き音声・テキストペアに対応しているか、または非ペアのテキストシーケンスに対応しているかを決定することは、前記トレーニング例(203)が前記教師付き音声・テキストペアに対応しているか、または前記非ペアのテキストシーケンスに対応しているかを示すドメイン識別子を識別することを含む、請求項13または14に記載のシステム(500)。
- 前記LASデコーダ(230)を更新することにより、ロングテールエンティティに関する前記2パスストリーミングニューラルネットワークモデル(200)の単語誤り率(WER)を低減させる、請求項13乃至15のいずれか一項に記載のシステム(500)。
- 前記対数確率が、音響コンテキストベクトル(244)から生成された第1の個々の対数確率および前記言語コンテキストベクトル(246)から生成された第2の個々の対数確率の補間によって定義される、請求項13乃至16のいずれか一項に記載のシステム(500)。
- 前記LASデコーダ(230)が、前記2パスストリーミングニューラルネットワークモデル(200)の第1のパス(206)を通じてリカレントニューラルネットワークトランスデューサ(RNN-T)デコーダ(220)によって生成された仮説に基づいてビームサーチモードで動作する、請求項13乃至17のいずれか一項に記載のシステム(500)。
- 前記動作は、エンコードされた音響フレーム(212)からエンコーダ(210)の特徴を要約するように構成されたアテンション機構(242)を用いて、前記トレーニング例(203)の前記言語コンテキストベクトル(246)を生成することをさらに含む、請求項13乃至18のいずれか一項に記載のシステム(500)。
- システム(500)であって、
データ処理ハードウェア(112)と、
前記データ処理ハードウェア(112)と通信し、かつ命令を格納するメモリハードウェア(114)と、を備え、前記命令は、前記データ処理ハードウェア(112)上での実行時に、前記データ処理ハードウェア(112)に
2パスストリーミングニューラルネットワークモデル(200)のリッスン・アテンド・スペル(以下LASとする)デコーダ(230)用のトレーニング例(203)を受信することと、
前記トレーニング例(203)が教師付き音声・テキストペアに対応しているか、または非ペアのトレーニングデータに対応しているかを決定することと、
前記トレーニング例(203)が前記非ペアのトレーニングデータに対応している場合、前記非ペアのトレーニングデータの欠落部分を生成して、生成音声・テキストペアを形成することと、
前記生成音声・テキストペアに基づいて、前記LASデコーダ(230)および非ペアのデータに関連付けられた言語コンテキストベクトル(246)を更新することと、を含む動作を実行させる、システム(500)。 - 前記動作は、さらに
生成された前記音声・テキストペアに基づいて音響コンテキストベクトル(244)を決定することと、
前記音響コンテキストベクトル(244)から生成された第1の個々の対数確率およびテキストコンテキストベクトル(246)から生成された第2の個々の対数確率の補間を決定することと、を含み、
前記LASデコーダ(230)を更新することは、前記第1の個々の対数確率および前記第2の個々の対数確率の補間にさらに基づく、請求項20に記載のシステム(500)。 - 前記トレーニング例(203)が教師付き音声・テキストペアに対応しているか、または非ペアのトレーニングデータに対応しているかを決定することは、前記トレーニング例(203)が教師付き音声・テキストペアに対応しているか、または非ペアのトレーニングデータに対応しているかを示すドメイン識別子を識別することを含む、請求項20または21に記載のシステム(500)。
- 前記LASデコーダ(230)を更新することにより、ロングテールエンティティに関する前記2パスストリーミングニューラルネットワークモデル(200)の単語誤り率(WER)を低減させる、請求項20乃至22のいずれか一項に記載のシステム(500)。
- 前記動作は、エンコードされた音響フレーム(212)からエンコーダ(210)の特徴を要約するように構成されたアテンション機構(242)を用いて、前記トレーニング例(203)の前記言語コンテキストベクトル(246)を生成することをさらに含む、請求項20乃至23のいずれか一項に記載のシステム(500)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023183357A JP2023175029A (ja) | 2020-01-22 | 2023-10-25 | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062964567P | 2020-01-22 | 2020-01-22 | |
US62/964,567 | 2020-01-22 | ||
PCT/US2021/014468 WO2021150791A1 (en) | 2020-01-22 | 2021-01-21 | Attention-based joint acoustic and text on-device end-to-end model |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023183357A Division JP2023175029A (ja) | 2020-01-22 | 2023-10-25 | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023511390A true JP2023511390A (ja) | 2023-03-17 |
JP7375211B2 JP7375211B2 (ja) | 2023-11-07 |
Family
ID=74669520
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022544371A Active JP7375211B2 (ja) | 2020-01-22 | 2021-01-21 | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル |
JP2023183357A Pending JP2023175029A (ja) | 2020-01-22 | 2023-10-25 | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023183357A Pending JP2023175029A (ja) | 2020-01-22 | 2023-10-25 | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル |
Country Status (6)
Country | Link |
---|---|
US (2) | US11594212B2 (ja) |
EP (1) | EP4078573A1 (ja) |
JP (2) | JP7375211B2 (ja) |
KR (1) | KR20220128401A (ja) |
CN (1) | CN114981884A (ja) |
WO (1) | WO2021150791A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113539273B (zh) * | 2021-09-16 | 2021-12-10 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置、计算机设备和存储介质 |
CN118076999A (zh) * | 2021-10-04 | 2024-05-24 | 谷歌有限责任公司 | 用于级联编码器的基于transducer的流传输推敲 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9799327B1 (en) * | 2016-02-26 | 2017-10-24 | Google Inc. | Speech recognition with attention-based recurrent neural networks |
US11133011B2 (en) | 2017-03-13 | 2021-09-28 | Mitsubishi Electric Research Laboratories, Inc. | System and method for multichannel end-to-end speech recognition |
US10706840B2 (en) * | 2017-08-18 | 2020-07-07 | Google Llc | Encoder-decoder models for sequence to sequence mapping |
US11017761B2 (en) * | 2017-10-19 | 2021-05-25 | Baidu Usa Llc | Parallel neural text-to-speech |
US10971142B2 (en) * | 2017-10-27 | 2021-04-06 | Baidu Usa Llc | Systems and methods for robust speech recognition using generative adversarial networks |
US10593321B2 (en) * | 2017-12-15 | 2020-03-17 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for multi-lingual end-to-end speech recognition |
-
2021
- 2021-01-21 CN CN202180009937.3A patent/CN114981884A/zh active Pending
- 2021-01-21 EP EP21706752.9A patent/EP4078573A1/en active Pending
- 2021-01-21 US US17/155,010 patent/US11594212B2/en active Active
- 2021-01-21 KR KR1020227027983A patent/KR20220128401A/ko unknown
- 2021-01-21 JP JP2022544371A patent/JP7375211B2/ja active Active
- 2021-01-21 WO PCT/US2021/014468 patent/WO2021150791A1/en unknown
-
2023
- 2023-02-10 US US18/167,454 patent/US20230186901A1/en active Pending
- 2023-10-25 JP JP2023183357A patent/JP2023175029A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
US20210225362A1 (en) | 2021-07-22 |
CN114981884A (zh) | 2022-08-30 |
US11594212B2 (en) | 2023-02-28 |
WO2021150791A1 (en) | 2021-07-29 |
KR20220128401A (ko) | 2022-09-20 |
JP7375211B2 (ja) | 2023-11-07 |
JP2023175029A (ja) | 2023-12-08 |
US20230186901A1 (en) | 2023-06-15 |
EP4078573A1 (en) | 2022-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7222153B1 (ja) | デリバレーションモデルベースの2パスのエンド・ツー・エンド音声認識 | |
JP7436760B1 (ja) | サブワードエンドツーエンド自動音声認識のための学習ワードレベルコンフィデンス | |
JP7351018B2 (ja) | エンド・ツー・エンド音声認識における固有名詞認識 | |
JP2023545988A (ja) | トランスフォーマトランスデューサ:ストリーミング音声認識と非ストリーミング音声認識を統合する1つのモデル | |
US20230186901A1 (en) | Attention-Based Joint Acoustic and Text On-Device End-to-End Model | |
KR20230158608A (ko) | 종단 간 자동 음성 인식 신뢰도 및 삭제 추정을 위한 멀티태스크 학습 | |
JP2024510817A (ja) | 効率的なストリーミング非リカレントオンデバイスエンドツーエンドモデル | |
JP7286888B2 (ja) | エンドツーエンドモデルによる単語タイミングの発出 | |
KR102637025B1 (ko) | 자동 음성 인식을 위한 다언어 리스코어링 모델들 | |
US20230298563A1 (en) | Deliberation by Text-Only and Semi-Supervised Training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375211 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |