JP7051919B2 - ストリーミングアテンションモデルに基づく音声認識復号化方法、装置、機器及びコンピュータ可読記憶媒体 - Google Patents
ストリーミングアテンションモデルに基づく音声認識復号化方法、装置、機器及びコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP7051919B2 JP7051919B2 JP2020040041A JP2020040041A JP7051919B2 JP 7051919 B2 JP7051919 B2 JP 7051919B2 JP 2020040041 A JP2020040041 A JP 2020040041A JP 2020040041 A JP2020040041 A JP 2020040041A JP 7051919 B2 JP7051919 B2 JP 7051919B2
- Authority
- JP
- Japan
- Prior art keywords
- acoustic
- paths
- path
- model
- acoustic path
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 60
- 238000004590 computer program Methods 0.000 claims description 9
- 230000005236 sound signal Effects 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 2
- 239000012634 fragment Substances 0.000 description 22
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/027—Syllables being the recognition units
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Machine Translation (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Description
Claims (19)
- 音声を復号化するための複数の音響経路を、ストリーミングアテンションモデルを用いて生成するステップであって、前記ストリーミングアテンションモデルは複数のモデリングユニットを備え、前記モデリングユニットは音節である、ステップと、
前記複数の音響経路のうち、最後の発音が同じである音響経路をマージして複数のマージされた音響経路を得るステップと、
前記複数のマージされた音響経路の中から所定数の音響経路を選択するステップと、を含むストリーミングアテンションモデルに基づく音声認識復号化方法。 - 音声を復号化するための複数の音響経路を、ストリーミングアテンションモデルを用いて生成するステップは、
前記最後の発音の直前の発音時の候補音響経路と、前記ストリーミングアテンションモデルの前記複数のモデリングユニットとに基づいて、前記複数の音響経路を生成するステップを含む請求項1に記載の方法。 - 音声を復号化するための複数の音響経路を、ストリーミングアテンションモデルを用いて生成するステップは、
前記複数の音響経路それぞれの音響モデル得点を、ストリーミングアテンションモデルを用いて確定するステップと、
前記複数の音響経路それぞれの言語モデル得点を、言語モデルを用いて確定するステップと、
各音響経路の音響モデル得点と言語モデル得点とに基づいて、音響経路のクリッピングのための各音響経路の復号化総合得点を確定するステップと、を含む請求項1に記載の方法。 - 前記複数の音響経路のうち、最後の発音が同じである音響経路をマージして複数のマージされた音響経路を得るステップは、
前記複数の音響経路のうち最後の発音が第1発音である第1音響経路集合をマークアップするステップと、
前記第1音響経路集合における復号化総合得点が最も高い第1音響経路を確定するステップと、
前記第1音響経路集合における各音響経路の履歴状態を前記第1音響経路にマージするステップと、を含む請求項3に記載の方法。 - 前記複数の音響経路のうち、最後の発音が同じである音響経路をマージして複数のマージされた音響経路を得るステップは、
言語モデルの状態が同じであり且つ音響モデルの最後の発音のワンホットベクトルが同じである複数の音響経路を同一グループにマージするステップ、を含む請求項3に記載の方法。 - 前記複数のマージされた音響経路の中から所定数の音響経路を選択するステップは、
前記複数のマージされた音響経路の複数の復号化総合得点をランキングするステップであって、各復号化総合得点は前記ストリーミングアテンションモデルからの音響モデル得点と言語モデルからの言語モデル得点とを含むステップと、
前記複数のマージされた音響経路の中から、ランキング順位が所定の上位数にある音響経路を候補音響経路として選択するステップと、を含む請求項1に記載の方法。 - 新たな発音を含む新たな音声信号を受信するステップと、
前記候補音響経路と前記新たな音声信号の特徴とに基づいて、新たな候補音響経路を生成するステップとをさらに含む請求項6に記載の方法。 - 音声の受信が完了したことに応じて、各候補音響経路の復号化総合得点に基づいて最終的な音声認識結果を確定するステップをさらに含む請求項6に記載の方法。
- ストリーミングアテンションモデルに基づく音声認識復号化装置であって、
音声を復号化するための複数の音響経路を、ストリーミングアテンションモデルを用いて生成するように構成される音響経路生成モジュールであって、前記ストリーミングアテンションモデルは複数のモデリングユニットを備え、前記モデリングユニットは音節である、音響経路生成モジュールと、
前記複数の音響経路のうち、最後の発音が同じである音響経路をマージして複数のマージされた音響経路を得るように構成される音響経路マージモジュールと、
前記複数のマージされた音響経路の中から所定数の音響経路を選択するように構成される音響経路選択モジュールと、を備えるストリーミングアテンションモデルに基づく音声認識復号化装置。 - 前記音響経路生成モジュールは、
前記最後の発音の直前の発音時の候補音響経路と、前記ストリーミングアテンションモデルの前記複数のモデリングユニットとに基づいて、前記複数の音響経路を生成するように構成される第2音響経路生成モジュールを備える請求項9に記載の装置。 - 前記音響経路生成モジュールは、
前記複数の音響経路それぞれの音響モデル得点を、ストリーミングアテンションモデルを用いて確定するように構成される音響得点確定モジュールと、
前記複数の音響経路それぞれの言語モデル得点を、言語モデルを用いて確定するように構成される言語得点確定モジュールと、
各音響経路の音響モデル得点と言語モデル得点とに基づいて、音響経路のクリッピングのための各音響経路の復号化総合得点を確定するように構成される復号化総合得点確定モジュールと、を備える請求項9に記載の装置。 - 前記音響経路マージモジュールは、
前記複数の音響経路のうち最後の発音が第1発音である第1音響経路集合をマークアップするように構成される経路集合マークアップモジュールと、
前記第1音響経路集合における復号化総合得点が最も高い第1音響経路を確定するように構成される最高総合得点確定モジュールと、
前記第1音響経路集合における各音響経路の履歴状態を前記第1音響経路にマージするように構成される経路集合マージモジュールと、を備える請求項11に記載の装置。 - 前記音響経路マージモジュールは、
言語モデルの状態が同じであり且つ音響モデルの最後の発音のワンホットベクトルが同じである複数の音響経路を同一グループにマージするように構成されるグループマージモジュールを備える請求項11に記載の装置。 - 前記音響経路選択モジュールは、
前記複数のマージされた音響経路の複数の復号化総合得点をランキングするように構成される音響経路ランキングモジュールであって、各復号化総合得点は前記ストリーミングアテンションモデルからの音響モデル得点と言語モデルからの言語モデル得点とを含む音響経路ランキングモジュールと、
前記複数のマージされた音響経路の中から、ランキング順位が所定の上位数にある音響経路を候補音響経路として選択するように構成される候補経路選択モジュールと、を備える請求項9に記載の装置。 - 新たな発音を含む新たな音声信号を受信するように構成される音声受信モジュールと、
前記候補音響経路と前記新たな音声信号の特徴とに基づいて、新たな候補音響経路を生成するように構成される候補経路生成モジュールとをさらに備える請求項14に記載の装置。 - 音声の受信が完了したことに応じて、各候補音響経路の復号化総合得点に基づいて最終的な音声認識結果を確定するように構成される認識結果確定モジュールをさらに備える請求項14に記載の装置。
- 電子機器であって、
1つ又は複数のプロセッサと、
1つ又は複数のプログラムを格納するための記憶手段であって、前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサによって実行されると、前記電子機器は請求項1~8のいずれか1項に記載の方法を実現する記憶手段と、を備える、電子機器。 - コンピュータプログラムが格納されるコンピュータ可読記憶媒体であって、
前記プログラムがプロセッサによって実行されると、請求項1~8のいずれか1項に記載の方法を実現する、コンピュータ可読記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサにより実行されると、請求項1~8のいずれか一項に記載の方法を実現させるコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910646762.1 | 2019-07-17 | ||
CN201910646762.1A CN112242144A (zh) | 2019-07-17 | 2019-07-17 | 基于流式注意力模型的语音识别解码方法、装置、设备以及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021018413A JP2021018413A (ja) | 2021-02-15 |
JP7051919B2 true JP7051919B2 (ja) | 2022-04-11 |
Family
ID=74167274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020040041A Active JP7051919B2 (ja) | 2019-07-17 | 2020-03-09 | ストリーミングアテンションモデルに基づく音声認識復号化方法、装置、機器及びコンピュータ可読記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11355113B2 (ja) |
JP (1) | JP7051919B2 (ja) |
CN (1) | CN112242144A (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110534095B (zh) * | 2019-08-22 | 2020-10-23 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
CN110992974B (zh) * | 2019-11-25 | 2021-08-24 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
CN112382285B (zh) * | 2020-11-03 | 2023-08-15 | 北京百度网讯科技有限公司 | 语音控制方法、装置、电子设备和存储介质 |
US11610586B2 (en) | 2021-02-23 | 2023-03-21 | Google Llc | Learning word-level confidence for subword end-to-end automatic speech recognition |
CN113129870B (zh) * | 2021-03-23 | 2022-03-25 | 北京百度网讯科技有限公司 | 语音识别模型的训练方法、装置、设备和存储介质 |
CN113205800B (zh) * | 2021-04-22 | 2024-03-01 | 京东科技控股股份有限公司 | 音频识别方法、装置、计算机设备和存储介质 |
CN112863489B (zh) * | 2021-04-26 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、设备及介质 |
CN113889076B (zh) * | 2021-09-13 | 2022-11-01 | 北京百度网讯科技有限公司 | 语音识别及编解码方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002073078A (ja) | 2000-09-05 | 2002-03-12 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識方法及びプログラム記録媒体 |
JP2017040919A (ja) | 2015-08-20 | 2017-02-23 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音声認識装置、音声認識方法及び音声認識システム |
US9613624B1 (en) | 2014-06-25 | 2017-04-04 | Amazon Technologies, Inc. | Dynamic pruning in speech recognition |
JP2018109760A (ja) | 2017-01-04 | 2018-07-12 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音声認識方法及び音声認識装置 |
US20180336466A1 (en) | 2017-05-17 | 2018-11-22 | Samsung Electronics Co., Ltd. | Sensor transformation attention network (stan) model |
JP2019514045A (ja) | 2016-03-21 | 2019-05-30 | アマゾン テクノロジーズ インコーポレイテッド | 話者照合方法及びシステム |
US20190189115A1 (en) | 2017-12-15 | 2019-06-20 | Mitsubishi Electric Research Laboratories, Inc. | Method and Apparatus for Open-Vocabulary End-to-End Speech Recognition |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3494338B2 (ja) | 1997-01-14 | 2004-02-09 | 日本電信電話株式会社 | 音声認識方法 |
US7216077B1 (en) * | 2000-09-26 | 2007-05-08 | International Business Machines Corporation | Lattice-based unsupervised maximum likelihood linear regression for speaker adaptation |
JP2002149187A (ja) * | 2000-11-07 | 2002-05-24 | Sony Corp | 音声認識装置および音声認識方法、並びに記録媒体 |
US7590533B2 (en) * | 2004-03-10 | 2009-09-15 | Microsoft Corporation | New-word pronunciation learning using a pronunciation graph |
JP4541781B2 (ja) * | 2004-06-29 | 2010-09-08 | キヤノン株式会社 | 音声認識装置および方法 |
WO2009139230A1 (ja) * | 2008-05-16 | 2009-11-19 | 日本電気株式会社 | 言語モデルスコア先読み値付与装置およびその方法ならびにプログラム記録媒体 |
US8972243B1 (en) * | 2012-11-20 | 2015-03-03 | Amazon Technologies, Inc. | Parse information encoding in a finite state transducer |
US10229672B1 (en) * | 2015-12-31 | 2019-03-12 | Google Llc | Training acoustic models using connectionist temporal classification |
US10650802B2 (en) * | 2017-07-05 | 2020-05-12 | Panasonic Intellectual Property Management Co., Ltd. | Voice recognition method, recording medium, voice recognition device, and robot |
US10777186B1 (en) * | 2018-11-13 | 2020-09-15 | Amazon Technolgies, Inc. | Streaming real-time automatic speech recognition service |
-
2019
- 2019-07-17 CN CN201910646762.1A patent/CN112242144A/zh active Pending
-
2020
- 2020-03-09 JP JP2020040041A patent/JP7051919B2/ja active Active
- 2020-03-09 US US16/813,271 patent/US11355113B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002073078A (ja) | 2000-09-05 | 2002-03-12 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識方法及びプログラム記録媒体 |
US9613624B1 (en) | 2014-06-25 | 2017-04-04 | Amazon Technologies, Inc. | Dynamic pruning in speech recognition |
JP2017040919A (ja) | 2015-08-20 | 2017-02-23 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音声認識装置、音声認識方法及び音声認識システム |
JP2019514045A (ja) | 2016-03-21 | 2019-05-30 | アマゾン テクノロジーズ インコーポレイテッド | 話者照合方法及びシステム |
JP2018109760A (ja) | 2017-01-04 | 2018-07-12 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 音声認識方法及び音声認識装置 |
US20180336466A1 (en) | 2017-05-17 | 2018-11-22 | Samsung Electronics Co., Ltd. | Sensor transformation attention network (stan) model |
US20190189115A1 (en) | 2017-12-15 | 2019-06-20 | Mitsubishi Electric Research Laboratories, Inc. | Method and Apparatus for Open-Vocabulary End-to-End Speech Recognition |
Non-Patent Citations (1)
Title |
---|
A Breakthrough in Speech Technology: Baidu Launched SMLTA, the First Streaming Multilayer Truncated Attention Model for Large-scale Online Speech Recognition,[online],Baidu Research,2019年01月21日,[令和3年7月26日検索],インターネット<URL:http://research.baidu.com/Blog/index-view?id=109> |
Also Published As
Publication number | Publication date |
---|---|
JP2021018413A (ja) | 2021-02-15 |
US20210020175A1 (en) | 2021-01-21 |
US11355113B2 (en) | 2022-06-07 |
CN112242144A (zh) | 2021-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7051919B2 (ja) | ストリーミングアテンションモデルに基づく音声認識復号化方法、装置、機器及びコンピュータ可読記憶媒体 | |
JP6916264B2 (ja) | 切断アテンションに基づくリアルタイム音声認識方法、装置、機器及びコンピュータ読み取り可能な記憶媒体 | |
JP7167074B2 (ja) | 音声認識方法、装置、機器及びコンピュータ可読記憶媒体 | |
CN115516552A (zh) | 使用未说出的文本和语音合成的语音识别 | |
JP7351018B2 (ja) | エンド・ツー・エンド音声認識における固有名詞認識 | |
JP2018081298A (ja) | 自然語処理方法及び装置と自然語処理モデルを学習する方法及び装置 | |
JP2018026127A (ja) | 翻訳方法、翻訳装置及びコンピュータプログラム | |
JP2023545988A (ja) | トランスフォーマトランスデューサ:ストリーミング音声認識と非ストリーミング音声認識を統合する1つのモデル | |
CN117099157A (zh) | 用于端到端自动语音识别置信度和删除估计的多任务学习 | |
KR20230086737A (ko) | 단순화된 스트리밍 및 비스트리밍 스피치 인식을 위한 캐스케이드 인코더들 | |
JP7375211B2 (ja) | アテンションベースのジョイント音響およびテキストのオンデバイス・エンド・ツー・エンドモデル | |
JP2024510817A (ja) | 効率的なストリーミング非リカレントオンデバイスエンドツーエンドモデル | |
CN117063228A (zh) | 用于灵活流式和非流式自动语音识别的混合模型注意力 | |
US20240203409A1 (en) | Multilingual Re-Scoring Models for Automatic Speech Recognition | |
JP2002221984A (ja) | 異種環境音声データの音声検索方法及び装置 | |
KR102300303B1 (ko) | 발음 변이를 적용시킨 음성 인식 방법 | |
KR20230156795A (ko) | 단어 분할 규칙화 | |
US20240013777A1 (en) | Unsupervised Data Selection via Discrete Speech Representation for Automatic Speech Recognition | |
US20240153495A1 (en) | Multi-Output Decoders for Multi-Task Learning of ASR and Auxiliary Tasks | |
KR20240068723A (ko) | Rnn-T로 구현된 자동 음성 인식 시스템에서 음향과 텍스트 표현의 융합 | |
KR20240068699A (ko) | 마스크킹된 음성 모델링을 위한 안내 데이터 선택 | |
JP2024536388A (ja) | 非自己回帰デコーディングによるストリーミングrnnトランスデューサの検討 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200622 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210817 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7051919 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |