JP2022545860A - コネクショニスト時系列分類に基づく自動音声認識のためのソフト忘却 - Google Patents
コネクショニスト時系列分類に基づく自動音声認識のためのソフト忘却 Download PDFInfo
- Publication number
- JP2022545860A JP2022545860A JP2022504178A JP2022504178A JP2022545860A JP 2022545860 A JP2022545860 A JP 2022545860A JP 2022504178 A JP2022504178 A JP 2022504178A JP 2022504178 A JP2022504178 A JP 2022504178A JP 2022545860 A JP2022545860 A JP 2022545860A
- Authority
- JP
- Japan
- Prior art keywords
- model
- training
- computer
- program instructions
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 claims abstract description 153
- 230000004044 response Effects 0.000 claims abstract description 23
- 238000003860 storage Methods 0.000 claims description 45
- 230000015654 memory Effects 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 27
- 230000002457 bidirectional effect Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 238000004519 manufacturing process Methods 0.000 claims description 7
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 210000004027 cell Anatomy 0.000 description 20
- 238000010586 diagram Methods 0.000 description 19
- 238000013528 artificial neural network Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 238000012360 testing method Methods 0.000 description 13
- 239000013598 vector Substances 0.000 description 11
- 230000002085 persistent effect Effects 0.000 description 10
- 230000006872 improvement Effects 0.000 description 8
- 238000002347 injection Methods 0.000 description 8
- 239000007924 injection Substances 0.000 description 8
- 230000000306 recurrent effect Effects 0.000 description 8
- 230000006403 short-term memory Effects 0.000 description 8
- 238000013434 data augmentation Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000007774 longterm Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 239000000835 fiber Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000003094 perturbing effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 208000003028 Stuttering Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
(1)Ltot(y|x,Θf,Θf)=LCTC-f(y|x,Θf)+LCTC-b(y|x,Θb)+λLtwin(hf,hb|Θf,Θb)
式(1)に関して、双正則化損失は、LSTMの隠れ表現hfとhbとの間の平均二乗誤差である。Θf及びΘbは、それぞれ順方向及び逆方向のULSTMネットワークのパラメータを表し、x及びyは入力音響シーケンス及び出力ラベルシーケンスであり、スケーリング因子としてλ>0である。
(2)Ltot(y|x,Θ)=LCTC(y|x,Θ)+λLtwin(h,hwhole|Θ)
式(2)に関して、Ltotは、CTC損失と、全アタランスBLSTMを使用した双正則化損失との和に相当する。λをゼロに設定すると、隠れ状態又はセル状態情報がチャンク間で転送されないハード忘却が得られる。一実施形態において、プログラム150は、λを非ゼロ値に設定し、λがゼロ値の場合(例えば、ハード忘却)と比べて単語誤り率(WER)を有意に改善する。この実施形態において、ソフト忘却は、双正則化を通じて、ある程度の全アタランスコンテキストを保持する。全アタランスBLSTMの重みは、訓練プロセス中、固定されたままとした。様々な実施形態において、チャンクベースBLSTMネットワークが訓練を完了すると、プログラム150は、全アタランスBLSTMネットワークを破棄(例えば、処分、排除、削除など)し、変更なしで干渉を行う。
本発明の幾つかの実施形態は、技術の現状に対する改善について、以下の事実、潜在的な問題もしくは潜在的な領域又はそれらの組み合わせを認識する。
(1)Ltot(y|x,Θf,Θf)=LCTC-f(y|x,Θf)+LCTC-b(y|x,Θb)+λLtwin(hf,hb|Θf,Θb)
であり、ここで双正則化損失は、LSTMの隠れ表現hfとhbとの間の平均二乗誤差
(3)Ltwin(hf,hb|Θf,Θb)=||hf-hb||2 2
であり、ここでΘf及びΘbはそれぞれ順方向及び逆方向のULSTMネットワークのパラメータを表し、x及びyは入力音響シーケンス及び出力ラベルシーケンスであり、λ>0はスケーリング因子である。
・チャンクベースBLSTMネットワーク:ソフト忘却は、入力音響シーケンスのC個の連続した時間ステップの非重複ウィンドウ上でのみ展開されるBLSTMを訓練する。この選択の背景にある直感は、全アタランスBLSTMは、特に訓練データが限られている場合に過剰適合する傾向があるということである。C時間ステップごとに隠れ状態及びセル状態を0に設定することで、この過剰適合が緩和される。本発明の幾つかの実施形態は、ホールドアウトCTC損失に基づいて経験的にCを選ぶ。
・チャンクサイズのジッタ:本発明の幾つかの実施形態は、あるバッチから次のバッチへとCを摂動させることで、モデルの汎化性能が向上することを認識する。本発明の幾つかの実施形態は、ジッタの付加がデータ拡張効果を有することを認識する。本発明の幾つかの実施形態は、各バッチのチャンクサイズCbatchをCbatch=C+uとなるようにジッタリングし、ここでu=U(A,A)は、[A,A]にわたって一様分布した離散ランダム変数である。本発明の幾つかの実施形態は、ホールドアウトCTC損失に基づいて経験的にAを選ぶ。
・双正則化:ある程度のアタランスレベルのコンテキストを組み込むために、本発明の幾つかの実施形態は、CTC損失に加えて双正則化損失を追加する。この損失は、事前訓練済み全アタランスBLSTMネットワークと現在訓練されているチャンクベースBLSTMネットワークとの隠れ状態間の平均二乗誤差である。本発明の幾つかの実施形態は、両方のモデルが共同で訓練される双正則化の本来の形とは対照的に、訓練中、全アタランスBLSTMの重みは固定したまま保持される。
(2)Ltot(y|x,Θ)=LCTC(y|x,Θ)+λLtwin(h,hwhole|Θ)
であり、λ=0と設定すると、隠れ状態又はセル状態情報がチャンク間で転送されないハード忘却が得られる。本発明の幾つかの実施形態は、非ゼロ値のλが、λ=0と比べて有意に改善されたWERをもたらすことを認識しており、双正則化を通じてある程度の全アタランスコンテキストを保持することの価値を示している。
Claims (23)
- コンピュータ実施方法であって、
1つ又は複数のコンピュータプロセッサによって、1つ又は複数の訓練バッチを使用して第1のモデルを訓練することであって、前記1つ又は複数の訓練バッチの各訓練バッチは、1つ又は複数の情報ブロックを含む、訓練することと、
前記第1のモデルを訓練することの完了に応答して、1つ又は複数のコンピュータプロセッサによって、前記1つ又は複数の訓練バッチを使用して第2のモデルの訓練を開始することと、
1つ又は複数のコンピュータプロセッサによって、前記第2のモデルの前記1つ又は複数の訓練バッチの各々の各情報ブロックのランダムなブロックサイズをジッタリングすることと、
1つ又は複数のコンピュータプロセッサによって、1つ又は複数の非重複の連続したジッタリングされた情報ブロック上で前記第2のモデルを展開することと、
前記第2のモデルを展開することに応答して、1つ又は複数のコンピュータプロセッサによって、双正則化を適用することによって前記第2のモデルの過剰適合を低減することと
を含む方法。 - 前記第1のモデルが全アタランス双方向長・短期記憶ネットワークである、請求項1に記載の方法。
- 前記第2のモデルがチャンクベース双方向長・短期記憶ネットワークである、請求項1に記載の方法。
- 前記1つ又は複数の非重複の連続したジッタリングされた情報ブロックが、コネクショニスト時系列分類損失から計算される、請求項1に記載の方法。
- 前記情報ブロックが音響シーケンスである、請求項1に記載の方法。
- 前記訓練バッチが1つ又は複数の音響シーケンスを含み、各音響シーケンスは関連付けられたテキストラベルを有する、請求項1に記載の方法。
- 前記第2のモデルを訓練することの完了に応答して、1つ又は複数のコンピュータプロセッサによって、前記第1のモデルを処分するステップと、
前記第2のモデルを訓練することの前記完了に応答して、1つ又は複数のコンピュータプロセッサによって、前記第2のモデルを1つ又は複数の実働環境に配備するステップと
をさらに含む、請求項1に記載の方法。 - 双正則化が前記第2のモデルの損失値及びコネクショニスト時系列分類損失を含み、前記損失値は、前記第1のモデル及び第2のモデルと前記第1のモデルとの隠れ状態間の平均二乗誤差である、請求項1に記載の方法。
- コンピュータ・プログラム製品であって、
1つ又は複数のコンピュータ可読ストレージ媒体と、前記1つ又は複数のコンピュータ可読ストレージ媒体上に格納されたプログラム命令と
を含み、前記格納されたプログラム命令が、
1つ又は複数の訓練バッチを使用して第1のモデルを訓練するプログラム命令であって、前記1つ又は複数の訓練バッチの各訓練バッチが1つ又は複数の情報ブロックを含む、プログラム命令と、
前記第1のモデルを訓練することの完了に応答して、前記1つ又は複数の訓練バッチを使用して第2のモデルの訓練を開始するプログラム命令と、
前記第2のモデルの前記1つ又は複数の訓練バッチの各々の各情報ブロックのランダムなブロックサイズをジッタリングするプログラム命令と、
1つ又は複数の非重複の連続するジッタリングされた情報ブロック上で前記第2のモデルを展開するプログラム命令と、
前記第2のモデルを展開することに応答して、双正則化を適用することによって前記第2のモデルの過剰適合を低減させるプログラム命令と
を含むコンピュータ・プログラム製品。 - 前記第1のモデルが全アタランス双方向長・短期記憶ネットワークである、請求項9に記載のコンピュータ・プログラム製品。
- 前記第2のモデルがチャンクベース双方向長・短期記憶ネットワークである、請求項9に記載のコンピュータ・プログラム製品。
- 前記1つ又は複数の非重複の連続したジッタリングされた情報ブロックが、コネクショニスト時系列分類損失から計算される、請求項9に記載のコンピュータ・プログラム製品。
- 前記1つ又は複数のコンピュータ可読ストレージ媒体上に格納された前記プログラム命令が、
前記第2のモデルを訓練することの完了に応答して、1つ又は複数のコンピュータプロセッサによって、前記第1のモデルを処分するプログラム命令と、
前記第2のモデルを訓練することの前記完了に応答して、1つ又は複数のコンピュータプロセッサによって、前記第2のモデルを1つ又は複数の実働環境に配置するプログラム命令と
を含む、請求項9に記載のコンピュータ・プログラム製品。 - 双正則化が前記第2のモデルの損失値及びコネクショニスト時系列分類損失を含み、前記損失値は、前記第1のモデル及び第2のモデルと前記第1のモデルとの隠れ状態間の平均二乗誤差である、請求項9に記載のコンピュータ・プログラム製品。
- コンピュータシステムであって、
1つ又は複数のコンピュータプロセッサと、
1つ又は複数のコンピュータ可読ストレージ媒体と、
前記1つ又は複数のプロセッサの少なくとも1つによる実行のために前記コンピュータ可読ストレージ媒体上に格納されたプログラム命令と
を含み、前記格納されたプログラム命令が、
1つ又は複数の訓練バッチを使用して第1のモデルを訓練するプログラム命令であって、前記1つ又は複数の訓練バッチの各訓練バッチが1つ又は複数の情報ブロックを含む、プログラム命令と、
前記第1のモデルを訓練することの完了に応答して、前記1つ又は複数の訓練バッチを使用して第2のモデルの訓練を開始するプログラム命令と、
前記第2のモデルの前記1つ又は複数の訓練バッチの各々の各情報ブロックのランダムなブロックサイズをジッタリングするプログラム命令と、
1つ又は複数の非重複の連続するジッタリングされた情報ブロック上で前記第2のモデルを展開するプログラム命令と、
前記第2のモデルを展開することに応答して、双正則化を適用することによって前記第2のモデルの過剰適合を低減させるプログラム命令と
を含むコンピュータシステム。 - 前記第1のモデルが全アタランス双方向長・短期記憶ネットワークである、請求項15に記載のコンピュータシステム。
- 前記第2のモデルがチャンクベース双方向長・短期記憶ネットワークである、請求項15に記載のコンピュータシステム。
- 前記1つ又は複数の非重複の連続したジッタリングされた情報ブロックが、コネクショニスト時系列分類損失から計算される、請求項15に記載のコンピュータシステム。
- 前記情報ブロックが音響シーケンスである、請求項15に記載のコンピュータシステム。
- 前記訓練バッチが1つ又は複数の音響シーケンスを含み、各音響シーケンスは関連付けられたテキストラベルを有する、請求項15に記載のコンピュータシステム。
- 前記1つ又は複数のコンピュータ可読ストレージ媒体上に格納された前記プログラム命令が、
前記第2のモデルを訓練することの完了に応答して、1つ又は複数のコンピュータプロセッサによって、前記第1のモデルを処分するプログラム命令と、
前記第2のモデルを訓練することの前記完了に応答して、1つ又は複数のコンピュータプロセッサによって、前記第2のモデルを1つ又は複数の実働環境に配置するプログラム命令と
を含む、請求項15に記載のコンピュータシステム。 - 双正則化が前記第2のモデルの損失値とコネクショニスト時系列分類損失とを含み、前記損失値は、前記第1のモデル及び第2のモデルと前記第1のモデルとの隠れ状態間の平均二乗誤差である、請求項15に記載のコンピュータシステム。
- プログラムがコンピュータ上で実行されたときに請求項1から請求項14までのいずれかの方法を行うように適合されたプログラムコード手段を含む、コンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/551,915 US11158303B2 (en) | 2019-08-27 | 2019-08-27 | Soft-forgetting for connectionist temporal classification based automatic speech recognition |
US16/551,915 | 2019-08-27 | ||
PCT/IB2020/057719 WO2021038364A1 (en) | 2019-08-27 | 2020-08-17 | Soft-forgetting for connectionist temporal classification based automatic speech recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022545860A true JP2022545860A (ja) | 2022-11-01 |
Family
ID=74681690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022504178A Pending JP2022545860A (ja) | 2019-08-27 | 2020-08-17 | コネクショニスト時系列分類に基づく自動音声認識のためのソフト忘却 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11158303B2 (ja) |
JP (1) | JP2022545860A (ja) |
CN (1) | CN114450746A (ja) |
DE (1) | DE112020003449B4 (ja) |
GB (1) | GB2602227B (ja) |
WO (1) | WO2021038364A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11043208B1 (en) * | 2020-02-20 | 2021-06-22 | Clinc, Inc. | Systems and methods for mixed setting training for slot filling machine learning tasks in a machine learning task-oriented dialogue system |
US11443748B2 (en) * | 2020-03-03 | 2022-09-13 | International Business Machines Corporation | Metric learning of speaker diarization |
US11651767B2 (en) | 2020-03-03 | 2023-05-16 | International Business Machines Corporation | Metric learning of speaker diarization |
US11710479B1 (en) * | 2021-03-31 | 2023-07-25 | Amazon Technologies, Inc. | Contextual biasing of neural language models using metadata from a natural language understanding component and embedded recent history |
US11804212B2 (en) * | 2021-04-23 | 2023-10-31 | Google Llc | Streaming automatic speech recognition with non-streaming model distillation |
US11715462B2 (en) | 2021-04-29 | 2023-08-01 | Microsoft Technology Licensing, Llc | Efficiency adjustable speech recognition system |
WO2024036213A1 (en) * | 2022-08-09 | 2024-02-15 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for decoding speech from neural activity |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9263036B1 (en) | 2012-11-29 | 2016-02-16 | Google Inc. | System and method for speech recognition using deep recurrent neural networks |
US10319374B2 (en) * | 2015-11-25 | 2019-06-11 | Baidu USA, LLC | Deployed end-to-end speech recognition |
US10229672B1 (en) * | 2015-12-31 | 2019-03-12 | Google Llc | Training acoustic models using connectionist temporal classification |
US10255905B2 (en) * | 2016-06-10 | 2019-04-09 | Google Llc | Predicting pronunciations with word stress |
CN108610800A (zh) * | 2016-12-21 | 2018-10-02 | 中国石化集团四川维尼纶厂 | 一种改性js防水涂料及其制备方法 |
CN108461080A (zh) * | 2017-02-21 | 2018-08-28 | 中兴通讯股份有限公司 | 一种基于hlstm模型的声学建模方法和装置 |
US20180330718A1 (en) | 2017-05-11 | 2018-11-15 | Mitsubishi Electric Research Laboratories, Inc. | System and Method for End-to-End speech recognition |
US10984316B2 (en) | 2017-06-19 | 2021-04-20 | International Business Machines Corporation | Context aware sensitive information detection |
US10789942B2 (en) | 2017-10-24 | 2020-09-29 | Nec Corporation | Word embedding system |
US11651223B2 (en) | 2017-10-27 | 2023-05-16 | Baidu Usa Llc | Systems and methods for block-sparse recurrent neural networks |
US10964309B2 (en) * | 2019-04-16 | 2021-03-30 | Microsoft Technology Licensing, Llc | Code-switching speech recognition with end-to-end connectionist temporal classification model |
-
2019
- 2019-08-27 US US16/551,915 patent/US11158303B2/en active Active
-
2020
- 2020-08-17 CN CN202080058082.9A patent/CN114450746A/zh active Pending
- 2020-08-17 WO PCT/IB2020/057719 patent/WO2021038364A1/en active Application Filing
- 2020-08-17 GB GB2203320.3A patent/GB2602227B/en active Active
- 2020-08-17 JP JP2022504178A patent/JP2022545860A/ja active Pending
- 2020-08-17 DE DE112020003449.6T patent/DE112020003449B4/de active Active
Also Published As
Publication number | Publication date |
---|---|
CN114450746A (zh) | 2022-05-06 |
WO2021038364A1 (en) | 2021-03-04 |
GB202203320D0 (en) | 2022-04-27 |
GB2602227B (en) | 2023-09-06 |
DE112020003449T5 (de) | 2022-04-07 |
US11158303B2 (en) | 2021-10-26 |
DE112020003449B4 (de) | 2024-04-18 |
GB2602227A (en) | 2022-06-22 |
US20210065680A1 (en) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022545860A (ja) | コネクショニスト時系列分類に基づく自動音声認識のためのソフト忘却 | |
Ravanelli et al. | Light gated recurrent units for speech recognition | |
Zazo et al. | Language identification in short utterances using long short-term memory (LSTM) recurrent neural networks | |
US10867597B2 (en) | Assignment of semantic labels to a sequence of words using neural network architectures | |
US11798535B2 (en) | On-device custom wake word detection | |
Dahl et al. | Context-dependent pre-trained deep neural networks for large-vocabulary speech recognition | |
US9177550B2 (en) | Conservatively adapting a deep neural network in a recognition system | |
US20160078339A1 (en) | Learning Student DNN Via Output Distribution | |
WO2018118442A1 (en) | Acoustic-to-word neural network speech recognizer | |
US11521071B2 (en) | Utilizing deep recurrent neural networks with layer-wise attention for punctuation restoration | |
US20230394245A1 (en) | Adversarial Bootstrapping for Multi-Turn Dialogue Model Training | |
Albadr et al. | Spoken language identification based on the enhanced self-adjusting extreme learning machine approach | |
JP7209330B2 (ja) | 識別器、学習済モデル、学習方法 | |
CN113826125A (zh) | 使用无监督数据增强来训练机器学习模型 | |
Yu et al. | Deep neural network-hidden markov model hybrid systems | |
US20220198320A1 (en) | Minimizing processing machine learning pipelining | |
US20210312294A1 (en) | Training of model for processing sequence data | |
US20230401382A1 (en) | Dynamic Language Models for Continuously Evolving Content | |
Bataev et al. | Exploring end-to-end techniques for low-resource speech recognition | |
Gumelar et al. | Bilstm-cnn hyperparameter optimization for speech emotion and stress recognition | |
JP2015141368A (ja) | 言語モデル作成装置、音声認識装置、その方法及びプログラム | |
Renshaw | Representation learning for unsupervised speech processing | |
KR102515914B1 (ko) | Stt 모델을 활용하는 발음 전사 방법 | |
WO2023178659A1 (en) | Multi-granularity meeting summarization models | |
JP2024006851A (ja) | 外国語を含むオーディオの音声認識方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220325 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220302 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220518 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240401 |