JP6873333B2 - 音声認識システム及び音声認識システムを用いる方法 - Google Patents
音声認識システム及び音声認識システムを用いる方法 Download PDFInfo
- Publication number
- JP6873333B2 JP6873333B2 JP2020537034A JP2020537034A JP6873333B2 JP 6873333 B2 JP6873333 B2 JP 6873333B2 JP 2020537034 A JP2020537034 A JP 2020537034A JP 2020537034 A JP2020537034 A JP 2020537034A JP 6873333 B2 JP6873333 B2 JP 6873333B2
- Authority
- JP
- Japan
- Prior art keywords
- network
- speaker
- encoder
- recognition
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 86
- 238000000926 separation method Methods 0.000 claims description 158
- 239000000203 mixture Substances 0.000 claims description 118
- 230000006870 function Effects 0.000 claims description 67
- 238000012549 training Methods 0.000 claims description 57
- 230000015654 memory Effects 0.000 claims description 50
- 238000002955 isolation Methods 0.000 claims description 30
- 238000003860 storage Methods 0.000 claims description 28
- 230000005236 sound signal Effects 0.000 claims description 20
- 230000008878 coupling Effects 0.000 claims description 5
- 238000010168 coupling process Methods 0.000 claims description 5
- 238000005859 coupling reaction Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 description 120
- 239000010410 layer Substances 0.000 description 75
- 238000010586 diagram Methods 0.000 description 55
- 238000013528 artificial neural network Methods 0.000 description 41
- 230000008569 process Effects 0.000 description 34
- 238000004364 calculation method Methods 0.000 description 25
- 238000009826 distribution Methods 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 20
- 238000004891 communication Methods 0.000 description 17
- 238000004422 calculation algorithm Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 230000008901 benefit Effects 0.000 description 12
- 238000002474 experimental method Methods 0.000 description 12
- 230000002441 reversible effect Effects 0.000 description 10
- 238000013518 transcription Methods 0.000 description 9
- 230000035897 transcription Effects 0.000 description 9
- 230000002457 bidirectional effect Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 230000036961 partial effect Effects 0.000 description 8
- 230000000670 limiting effect Effects 0.000 description 7
- 230000007787 long-term memory Effects 0.000 description 7
- 230000000306 recurrent effect Effects 0.000 description 7
- 230000006403 short-term memory Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 238000007639 printing Methods 0.000 description 5
- 230000001149 cognitive effect Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000020411 cell activation Effects 0.000 description 3
- 230000019771 cognition Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002513 implantation Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000007788 liquid Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000000859 sublimation Methods 0.000 description 2
- 230000008022 sublimation Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000003339 best practice Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003121 nonmonotonic effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000003094 perturbing effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Description
本開示は、1つ以上のマイクロフォンを用いた音声分離及び音声認識に関する。
エンドツーエンド音声認識は、入力音響特徴系列Xが与えられたときの最も確からしいラベル系列
言語非依存エンドツーエンドシステムの主要な着想は、全てのターゲット言語に現れる文字集合の和集合を含む拡張文字集合を出力ラベルの集合とみなすことである。すなわち、Uunion=UEN∪UJP∪...,であり、ここで、UEN/JP/...は、特定の言語の文字集合である。この拡張文字集合を用いることによって、別個の言語識別モジュールを必要とすることなく、任意の言語について文字系列の尤度を計算することができる。ネットワークは、各発語のターゲット言語のための正しい文字系列を自動的に予測するようにトレーニングされる。和集合の使用は、言語ごとに一意の文字集合を用いることと対照的に、複数の言語において生じる出力シンボルの複製を排除し、低減された計算コストで、よりコンパクトなモデル表現をもたらす。言語非依存システムは、連続した多言語音声を与えられると、言語ID及び音声認識の予測を繰り返す。
言語混合発語を予測するために、ハイブリッド注意/CTCネットワークが、そのような言語混合コーパスの集合を用いてトレーニングされる必要がある。しかしながら、同じ発語内に複数の言語が現れるそのような音声コーパスを十分な量収集することは非常に困難である。実際には、そのような発語を収集及びトランスクリプトすることは非常にコストが高く、時間がかかる。しかしながら、そのようなコーパスは、既に存在する言語依存コーパスの集合から人工的に生成することができる。
損失関数
図14のラベル系列探索モジュール1406は、組み合わされたラベル系列確率に従って、以下のように最も確からしいラベル系列
(音声分離−ディープクラスタリング)
この実験プロセスの間、認識されたことは、ディープクラスタリングが、同時に発話する複数の話者を有する音響信号を入力として与えられると、ディープニューラルネットワークをトレーニングして、時間周波数領域の時間周波数(T−F)単位ごとに高次元埋め込みベクトルを出力することができるということであった。それによって、入力音響信号において同じ話者によって支配されるT−F単位対の埋め込みは互いに接近する一方、異なる話者によって支配される対の埋め込みはそれよりも離れている。したがって、各T−F単位の話者割り当ては、各単一の話者を分離するマスクを生成する単純なクラスタリングアルゴリズムによって埋め込みから推論することができる。
本開示の幾つかの実施形態は、音声分離のマスク推論(MI:mask-inference)ネットワークをトレーニングする。幾つかの実施形態はマスク近似(MA:mask approximation)目的関数を用いる。この場合、損失関数は、推定されたマスクと基準マスクとの間の距離に基づいて計算される。幾つかの実施形態は振幅スペクトル近似(MSA:magnitude spectrum approximation)を用いる。この場合、損失関数は、推定されたマスクを混合体振幅と乗算することによって得られる対象音声源の推定された振幅と、基準振幅との間の距離に基づいて計算される。幾つかの実施形態は位相敏感スペクトル近似(PSA:phase-sensitive spectrum approximation)を用いる。この場合、損失関数は、推定されたマスクを混合体振幅と乗算することによって得られる対象音声源の推定された振幅と、混合体と音声源との間の位相差に依存する項を乗算された基準振幅との間の距離に基づいて計算される。幾つかの実施形態は切断(truncated:トランケート)位相敏感スペクトル近似(tPSA)を用いる。この場合、損失関数は、推定されたマスクを混合体振幅と乗算することによって得られる対象音声源の推定された振幅と、混合体と音声源との間の位相差に依存する項と基準振幅とを乗算した乗算結果の出力を所与の範囲に切断したものとの間の距離に基づいて計算される。
(音声認識−コネクショニスト時間分類(CTC))
本開示の幾つかの実施形態は、ハイブリッドCTC/注意アーキテクチャを用いて、各手法の長所をより良く利用し欠点を軽減する。
注意ベースモデルは、全てのこれまでの予測を条件として予測を行い、したがって、言語モデルのような出力コンテキストを学習することができる。しかしながら、厳密な単調制約がない場合、これらの注意ベースデコーダモデルは、過度に柔軟なものとなる可能性があり、準最適なアライメントを学習する場合もあるし、望ましいアライメントへの収束がより低速になる場合もある。
注意ベース音声認識の推論ステップは、ビーム探索を有する出力ラベル同期復号によって実行される。しかしながら、入力音声に対してより良くアライメントされた仮説を見つけるためにCTC確率も考慮される。すなわち、デコーダは、音声入力Xが与えられると、最も可能性の高い文字系列
分離ネットワーク及び認識ネットワークの構成要素を接続して共同システムにするために、キメラネットワークからのマスク出力を用いて、入力混合体の振幅スペクトログラムを各音声源のマスクと乗算することによって、各音声源が、推定された振幅スペクトログラムの形態で抽出される。各音声源の推定された振幅スペクトログラムは、その音声源の分離エンコーディングとして用いられる。音響エンコーダネットワークは、分離エンコーディング、すなわち推定された振幅スペクトログラムから、対数melフィルターバンク特徴量を計算し、上記ハイブリッドCTC/注意アーキテクチャのエンコーダネットワークを用いて各音声源の認識エンコーディングを出力する。
他の実施形態では、明確な分離が行われず、エンドツーエンドASRシステムは、同時に発話する複数の話者の混合体内の複数の対象話者の音声を直接認識するように設計される。
畳み込み(入力数=3、出力数=64、フィルター=3×3)
畳み込み(入力数=64、出力数=64、フィルター=3×3)
マックスプーリング(パッチ=2×2、ストライド=2×2)
畳み込み(入力数=64、出力数=128、フィルター=3×3)
畳み込み(入力数=128、出力数=128、フィルター=3×3)
マックスプーリング(パッチ=2×2、ストライド=2×2)
本開示の幾つかの実施形態は、エンドツーエンド多言語複数話者ASRシステムを含む。システムが出力する文字を選択する文字集合は、一組の言語IDとともに複数の言語の文字集合の和集合からなる最終増強文字集合Ufinalに設定することができる。暗黙の分離を有する複数話者ASRシステム等のシステムは、多言語複数話者混合体及びそれらの基準ラベルのデータセットに対してトレーニングすることができる。例えば、そのようなデータセットは、1つ以上の言語による1人以上の話者からの複数の単一話者発語を時間において連結して一組の多言語音声発語を取得するとともに、複数の多言語音声発語を更に混合して複数話者多言語音声を取得することによって取得することができる。複数話者多言語音声の対応する基準ラベルは、単一話者発語の基準ラベルから取得することができる。
本開示の態様によれば、一組の認識エンコーディングは、対象話者ごとの認識エンコーディングを含むことができ、デコーダネットワークは、対象話者ごとの認識エンコーディングを用いて、その対象話者のテキストを出力することができる。さらに、一態様は、混合体エンコーダネットワーク、一組の話者区別エンコーダネットワーク、及び認識エンコーダネットワークを備えるエンコーダネットワークを含むことができ、話者区別エンコーダネットワークの数は対象話者の数以上であり、混合体エンコーダネットワークは、受信された音響信号の混合体エンコーディングを出力し、各話者区別エンコーダネットワークは、混合体エンコーディングからの話者区別エンコーディングを出力し、認識エンコーダネットワークは、各話者区別エンコーディングからの認識エンコーディングを出力する。記憶された音声認識ネットワークは、単一の話者による音声を有する音響信号及び対応するテキストラベルを含むデータセットを用いて、初期話者区別エンコーダネットワークとともに事前にトレーニングされる。さらに、一組の話者区別エンコーダネットワークにおける話者区別エンコーダネットワークのうちの幾つかは、初期話者区別エンコーダネットワークに基づいて初期化される。初期化はランダム摂動を含む。
以下の説明は、例示的な実施形態のみを提供し、本開示の範囲も、適用範囲も、構成も限定することを意図していない。そうではなく、例示的な実施形態の以下の説明は1つ以上の例示的な実施形態を実施することを可能にする説明を当業者に提供する。添付の特許請求の範囲に明記されているような開示された主題の趣旨及び範囲から逸脱することなく要素の機能及び配置に行うことができる様々な変更が意図されている。
Claims (19)
- ハードウェアプロセッサと、
前記ハードウェアプロセッサによって実行されると、記憶された音声認識ネットワークを実施するコンピュータ実行可能な命令を記憶するとともに、データを記憶するコンピュータ記憶メモリと、
音響信号を受信する入力インターフェースであって、前記受信された音響信号は、複数の話者による音声信号の混合体を含み、前記複数の話者は対象話者を含む、入力インターフェースと、
前記受信された音響信号を対象話者ごとのテキストに変換するようにトレーニングされる前記記憶された音声認識ネットワークのエンコーダネットワーク及びデコーダネットワークであって、前記エンコーダネットワークは、対象話者ごとの認識エンコーディングを含む一組の認識エンコーディングを出力し、前記デコーダネットワークは、前記一組の認識エンコーディングを用いて対象話者ごとの前記テキストを出力するようになっている、エンコーダネットワーク及びデコーダネットワークと、
対象話者ごとの前記テキストを送信する出力インターフェースと、
を備える、複数の話者による重複音声を含む音声を認識する音声認識システム。 - 前記デコーダネットワークは、対象話者ごとの前記認識エンコーディングを用いて、その対象話者の前記テキストを出力する、請求項1に記載の音声認識システム。
- 前記エンコーダネットワークは、混合体エンコーダネットワーク、一組の話者区別エンコーダネットワーク、及び認識エンコーダネットワークを備える、請求項1に記載の音声認識システム。
- 話者区別エンコーダネットワークの数は対象話者の数以上であり、前記混合体エンコーダネットワークは、前記受信された音響信号の混合体エンコーディングを出力し、各話者区別エンコーダネットワークは、前記混合体エンコーディングからの話者区別エンコーディングを出力し、前記認識エンコーダネットワークは、各話者区別エンコーディングからの認識エンコーディングを出力する、請求項3に記載の音声認識システム。
- 前記記憶された音声認識ネットワークは、単一の話者による音声を有する音響信号及び対応するテキストラベルを含むデータセットを用いて、初期話者区別エンコーダネットワークとともに事前にトレーニングされる、請求項4に記載の音声認識システム。
- 前記一組の話者区別エンコーダネットワークにおける前記話者区別エンコーダネットワークのうちの幾つかは、前記初期話者区別エンコーダネットワークに基づいて初期化される、請求項5に記載の音声認識システム。
- 前記初期化はランダム摂動を含む、請求項6に記載の音声認識システム。
- 前記エンコーダネットワークは、話者分離ネットワーク及び音響エンコーダネットワークを備え、前記話者分離ネットワークは、一組の分離エンコーディングを出力するようになっており、分離エンコーディングの数は対象話者の数以上であり、前記音響エンコーダネットワークは、前記一組の分離エンコーディングを用いて一組の認識エンコーディングを出力する、請求項1に記載の音声認識システム。
- 前記一組の認識エンコーディングの各認識エンコーディングは、前記一組の分離エンコーディングにおける各分離エンコーディングに対応し、前記音響エンコーダネットワークは、各分離エンコーディングの認識エンコーディングを出力するようになっている、請求項8に記載の音声認識システム。
- 前記一組の分離エンコーディングは、対象話者ごとの単一の分離エンコーディングを含み、前記一組の認識エンコーディングは、対象話者ごとの単一の認識エンコーディングを含み、前記音響エンコーダネットワークは、対象話者ごとの前記単一の分離エンコーディングを用いて、その対象話者の前記単一の認識エンコーディングを出力するようになっている、請求項8に記載の音声認識システム。
- 前記一組の分離エンコーディング及び前記受信された音響信号は、対象話者ごとの分離された信号を出力するのに用いられる、請求項8に記載の音声認識システム。
- 少なくとも1つの前記話者分離ネットワークは、複数の話者からの音響信号及びそれらの対応する混合体を含むデータセットを用いて、分離エンコーディングを出力するようにトレーニングされる、請求項8に記載の音声認識システム。
- 前記音響エンコーダネットワーク及び前記デコーダネットワークは、少なくとも1人の話者による音声を有する音響信号及び対応するテキストラベルを含むデータセットを用いて、テキストを出力するようにトレーニングされる、請求項8に記載の音声認識システム。
- 少なくとも1つの前記話者分離ネットワーク、前記音響エンコーダネットワーク、及び前記デコーダネットワークは、複数の重なり合う話者による音声を有する音響信号及び対応するテキストラベルを含むデータセットを用いて共同トレーニングされる、請求項8に記載の音声認識システム。
- 前記記憶された音声認識ネットワークは、複数の重なり合う話者による音声を有する音響信号及び対応するテキストラベルを含むデータセットを用いてトレーニングされ、前記トレーニングは、復号コスト及び分離コストの加重結合を用いて目的関数を最小にすることを含むようになっている、請求項8に記載の音声認識システム。
- 前記対象話者からの音声は、1つ以上の言語からの音声を含む、請求項1に記載の音声認識システム。
- 少なくとも1人の対象話者の前記テキストは、その少なくとも1人の対象話者の前記音声の前記言語についての情報を含む、請求項16に記載の音声認識システム。
- 前記記憶された音声認識ネットワークは、前記エンコーダネットワーク及び前記デコーダネットワークが、複数の重なり合う話者による音声を有する音響信号及び対応するテキストラベルを含むデータセットを用いて共同トレーニングされるように、複数の重なり合う話者による音声を有する音響信号及び対応するテキストラベルを含むデータセットを用いてトレーニングされる、請求項1に記載の音声認識システム。
- 対象話者を含む複数の話者による音声信号の混合体を含む音響信号を入力インターフェースを介して受信することと、
ハードウェアプロセッサを用いて、前記受信された音響信号を、コンピュータ可読メモリに記憶された事前にトレーニングされた音声認識ネットワーク内に入力することであって、前記事前にトレーニングされた音声認識ネットワークは、前記事前にトレーニングされた音声認識ネットワークのエンコーダネットワークを用いて対象話者ごとの認識エンコーディングを含む一組の認識エンコーディングを出力することによって、前記事前にトレーニングされた音声認識ネットワークのエンコーダネットワーク及び前記事前にトレーニングされた音声認識ネットワークのデコーダネットワークを用いて前記受信された音響信号を対象話者ごとのテキストに変換するように構成され、前記デコーダネットワークは、前記一組の認識エンコーディングを用いて、対象話者ごとの前記テキストを出力するようになっていることと、
出力インターフェースを用いて対象話者ごとの前記テキストを送信することと、
を含む、音声認識システムを用いて複数の話者による重複音声を有する音響信号内の個々の話者信号を認識する方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/952,330 US10811000B2 (en) | 2018-04-13 | 2018-04-13 | Methods and systems for recognizing simultaneous speech by multiple speakers |
US15/952,330 | 2018-04-13 | ||
PCT/JP2018/040422 WO2019198265A1 (en) | 2018-04-13 | 2018-10-24 | Speech recognition system and method using speech recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021507312A JP2021507312A (ja) | 2021-02-22 |
JP6873333B2 true JP6873333B2 (ja) | 2021-05-19 |
Family
ID=64477238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020537034A Active JP6873333B2 (ja) | 2018-04-13 | 2018-10-24 | 音声認識システム及び音声認識システムを用いる方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10811000B2 (ja) |
EP (1) | EP3577650B1 (ja) |
JP (1) | JP6873333B2 (ja) |
CN (1) | CN111989742B (ja) |
WO (1) | WO2019198265A1 (ja) |
Families Citing this family (120)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
WO2020068176A2 (en) * | 2018-05-18 | 2020-04-02 | Battelle Energy Alliance, Llc | Spectrum monitoring and analysis, and related methods, systems, and devices |
US11190944B2 (en) | 2017-05-05 | 2021-11-30 | Ball Aerospace & Technologies Corp. | Spectral sensing and allocation using deep machine learning |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
JP6911785B2 (ja) * | 2018-02-02 | 2021-07-28 | 日本電信電話株式会社 | 判定装置、判定方法及び判定プログラム |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
WO2019214798A1 (en) * | 2018-05-07 | 2019-11-14 | Bayerische Motoren Werke Aktiengesellschaft | Dialog system capable of semantic-understanding mapping between user intents and machine services |
US11138471B2 (en) * | 2018-05-18 | 2021-10-05 | Google Llc | Augmentation of audiographic images for improved machine learning |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10832678B2 (en) * | 2018-06-08 | 2020-11-10 | International Business Machines Corporation | Filtering audio-based interference from voice commands using interference information |
US11210475B2 (en) * | 2018-07-23 | 2021-12-28 | Google Llc | Enhanced attention mechanisms |
KR102025566B1 (ko) * | 2018-07-27 | 2019-09-26 | 엘지전자 주식회사 | 인공지능을 이용한 홈어플라이언스 및 음성 인식 서버 시스템과, 이의 제어 방법 |
US11107463B2 (en) * | 2018-08-01 | 2021-08-31 | Google Llc | Minimum word error rate training for attention-based sequence-to-sequence models |
US10885277B2 (en) | 2018-08-02 | 2021-01-05 | Google Llc | On-device neural networks for natural language understanding |
US11152013B2 (en) * | 2018-08-02 | 2021-10-19 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for a triplet network with attention for speaker diartzation |
CN110544488B (zh) * | 2018-08-09 | 2022-01-28 | 腾讯科技(深圳)有限公司 | 一种多人语音的分离方法和装置 |
US11295739B2 (en) * | 2018-08-23 | 2022-04-05 | Google Llc | Key phrase spotting |
CN110867191B (zh) * | 2018-08-28 | 2024-06-25 | 洞见未来科技股份有限公司 | 语音处理方法、信息装置与计算机程序产品 |
US11004443B2 (en) * | 2018-08-30 | 2021-05-11 | Tencent America LLC | Multistage curriculum training framework for acoustic-to-word speech recognition |
US11049501B2 (en) * | 2018-09-25 | 2021-06-29 | International Business Machines Corporation | Speech-to-text transcription with multiple languages |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11182672B1 (en) | 2018-10-09 | 2021-11-23 | Ball Aerospace & Technologies Corp. | Optimized focal-plane electronics using vector-enhanced deep learning |
US11257481B2 (en) | 2018-10-24 | 2022-02-22 | Tencent America LLC | Multi-task training architecture and strategy for attention-based speech recognition system |
CN110288978B (zh) * | 2018-10-25 | 2022-08-30 | 腾讯科技(深圳)有限公司 | 一种语音识别模型训练方法及装置 |
US11475898B2 (en) * | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
US10879946B1 (en) * | 2018-10-30 | 2020-12-29 | Ball Aerospace & Technologies Corp. | Weak signal processing systems and methods |
US10930300B2 (en) * | 2018-11-02 | 2021-02-23 | Veritext, Llc | Automated transcript generation from multi-channel audio |
KR20200059703A (ko) * | 2018-11-21 | 2020-05-29 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
US11851217B1 (en) | 2019-01-23 | 2023-12-26 | Ball Aerospace & Technologies Corp. | Star tracker using vector-based deep learning for enhanced performance |
US11526680B2 (en) * | 2019-02-14 | 2022-12-13 | Google Llc | Pre-trained projection networks for transferable natural language representations |
US11412124B1 (en) | 2019-03-01 | 2022-08-09 | Ball Aerospace & Technologies Corp. | Microsequencer for reconfigurable focal plane control |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US10964309B2 (en) * | 2019-04-16 | 2021-03-30 | Microsoft Technology Licensing, Llc | Code-switching speech recognition with end-to-end connectionist temporal classification model |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11488024B1 (en) | 2019-05-29 | 2022-11-01 | Ball Aerospace & Technologies Corp. | Methods and systems for implementing deep reinforcement module networks for autonomous systems control |
US11303348B1 (en) | 2019-05-29 | 2022-04-12 | Ball Aerospace & Technologies Corp. | Systems and methods for enhancing communication network performance using vector based deep learning |
US11468890B2 (en) | 2019-06-01 | 2022-10-11 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
US11704600B2 (en) * | 2019-06-27 | 2023-07-18 | Microsoft Technology Licensing, Llc | Multistage feed ranking system with methodology providing scalable multi-objective model approximation |
US11908457B2 (en) * | 2019-07-03 | 2024-02-20 | Qualcomm Incorporated | Orthogonally constrained multi-head attention for speech tasks |
CN110795703B (zh) * | 2019-09-20 | 2024-04-16 | 华为技术有限公司 | 数据防窃取方法和相关产品 |
CN110648680B (zh) * | 2019-09-23 | 2024-05-14 | 腾讯科技(深圳)有限公司 | 语音数据的处理方法、装置、电子设备及可读存储介质 |
CN110610700B (zh) * | 2019-10-16 | 2022-01-14 | 科大讯飞股份有限公司 | 解码网络构建方法、语音识别方法、装置、设备及存储介质 |
CN111126563B (zh) * | 2019-11-25 | 2023-09-29 | 中国科学院计算技术研究所 | 基于孪生网络的时空数据的目标识别方法及系统 |
CN111027562B (zh) * | 2019-12-06 | 2023-07-18 | 中电健康云科技有限公司 | 基于多尺度cnn和结合注意力机制的rnn的光学字符识别方法 |
US11373639B2 (en) * | 2019-12-12 | 2022-06-28 | Mitsubishi Electric Research Laboratories, Inc. | System and method for streaming end-to-end speech recognition with asynchronous decoders pruning prefixes using a joint label and frame information in transcribing technique |
CN110992978B (zh) * | 2019-12-18 | 2022-03-29 | 思必驰科技股份有限公司 | 音视频分离模型的训练方法及系统 |
CN111179961B (zh) * | 2020-01-02 | 2022-10-25 | 腾讯科技(深圳)有限公司 | 音频信号处理方法、装置、电子设备及存储介质 |
CN111179959B (zh) * | 2020-01-06 | 2022-08-05 | 北京大学 | 一种基于说话人嵌入空间的竞争说话人数量估计方法及系统 |
CN111243609B (zh) * | 2020-01-10 | 2023-07-14 | 平安科技(深圳)有限公司 | 有效语音智能检测方法、装置及计算机可读存储介质 |
JP7264282B2 (ja) * | 2020-01-16 | 2023-04-25 | 日本電信電話株式会社 | 音声強調装置、学習装置、それらの方法、およびプログラム |
CN111261146B (zh) * | 2020-01-16 | 2022-09-09 | 腾讯科技(深圳)有限公司 | 语音识别及模型训练方法、装置和计算机可读存储介质 |
CN111261186B (zh) * | 2020-01-16 | 2023-05-30 | 南京理工大学 | 基于改进自注意力机制与跨频带特征的音频音源分离方法 |
CN111243579B (zh) * | 2020-01-19 | 2022-10-14 | 清华大学 | 一种时域单通道多说话人语音识别方法与系统 |
JP2023512178A (ja) * | 2020-02-03 | 2023-03-24 | ピンドロップ セキュリティー、インコーポレイテッド | 音声バイオメトリクスのクロスチャネル登録と認証 |
US11475909B2 (en) * | 2020-02-07 | 2022-10-18 | Google Llc | Separating speech by source in audio recordings by predicting isolated audio signals conditioned on speaker representations |
CN111317653B (zh) * | 2020-02-24 | 2023-10-13 | 江苏大学 | 一种交互式盲人智能辅助装置及方法 |
CN113314096A (zh) * | 2020-02-25 | 2021-08-27 | 阿里巴巴集团控股有限公司 | 语音合成方法、装置、设备和存储介质 |
CN111540364A (zh) * | 2020-04-21 | 2020-08-14 | 同盾控股有限公司 | 音频识别方法、装置、电子设备及计算机可读介质 |
US11521595B2 (en) * | 2020-05-01 | 2022-12-06 | Google Llc | End-to-end multi-talker overlapping speech recognition |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
CN111710343B (zh) * | 2020-06-03 | 2022-09-30 | 中国科学技术大学 | 一种在双变换域上的单通道语音分离方法 |
CN111768762B (zh) * | 2020-06-05 | 2022-01-21 | 北京有竹居网络技术有限公司 | 语音识别方法、装置及电子设备 |
CN113808583B (zh) * | 2020-06-16 | 2024-05-28 | 浙江未来精灵人工智能科技有限公司 | 一种语音识别方法、装置及系统 |
CN111863009B (zh) * | 2020-07-15 | 2022-07-26 | 思必驰科技股份有限公司 | 上下文信息预测模型的训练方法及系统 |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112102816A (zh) * | 2020-08-17 | 2020-12-18 | 北京百度网讯科技有限公司 | 语音识别方法、装置、系统、电子设备和存储介质 |
CN112071329B (zh) * | 2020-09-16 | 2022-09-16 | 腾讯科技(深圳)有限公司 | 一种多人的语音分离方法、装置、电子设备和存储介质 |
US12020708B2 (en) | 2020-10-12 | 2024-06-25 | SoundHound AI IP, LLC. | Method and system for conversation transcription with metadata |
CN112289338B (zh) * | 2020-10-15 | 2024-03-12 | 腾讯科技(深圳)有限公司 | 信号处理方法及装置、计算机设备以及可读存储介质 |
WO2022086252A1 (ko) * | 2020-10-22 | 2022-04-28 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 제어 방법 |
CN112420024B (zh) * | 2020-10-23 | 2022-09-09 | 四川大学 | 一种全端到端的中英文混合空管语音识别方法及装置 |
CN112420075B (zh) * | 2020-10-26 | 2022-08-19 | 四川长虹电器股份有限公司 | 一种基于多任务的音素检测方法及装置 |
US20220189501A1 (en) | 2020-12-16 | 2022-06-16 | Truleo, Inc. | Audio analysis of body worn camera |
KR102560019B1 (ko) * | 2021-01-15 | 2023-07-27 | 네이버 주식회사 | 화자 식별과 결합된 화자 분리 방법, 시스템, 및 컴퓨터 프로그램 |
US11942078B2 (en) * | 2021-02-26 | 2024-03-26 | International Business Machines Corporation | Chunking and overlap decoding strategy for streaming RNN transducers for speech recognition |
CN112951218B (zh) * | 2021-03-22 | 2024-03-29 | 百果园技术(新加坡)有限公司 | 基于神经网络模型的语音处理方法、装置及电子设备 |
US11568878B2 (en) * | 2021-04-16 | 2023-01-31 | Google Llc | Voice shortcut detection with speaker verification |
CN113345466B (zh) * | 2021-06-01 | 2024-03-01 | 平安科技(深圳)有限公司 | 基于多麦克风场景的主说话人语音检测方法、装置及设备 |
CN113554021B (zh) * | 2021-06-07 | 2023-12-15 | 重庆傲雄在线信息技术有限公司 | 一种智能化印章识别方法 |
CN113241092A (zh) * | 2021-06-15 | 2021-08-10 | 新疆大学 | 基于双注意力机制和多阶段混合卷积网络声源分离方法 |
US11978433B2 (en) * | 2021-06-22 | 2024-05-07 | Microsoft Technology Licensing, Llc. | Multi-encoder end-to-end automatic speech recognition (ASR) for joint modeling of multiple input devices |
CN113436633B (zh) * | 2021-06-30 | 2024-03-12 | 平安科技(深圳)有限公司 | 说话人识别方法、装置、计算机设备及存储介质 |
CN113470698B (zh) * | 2021-06-30 | 2023-08-08 | 北京有竹居网络技术有限公司 | 一种说话人转换点检测方法、装置、设备及存储介质 |
CN113744753B (zh) * | 2021-08-11 | 2023-09-08 | 清华大学苏州汽车研究院(相城) | 一种多人语音分离方法及语音分离模型的训练方法 |
CN113643722B (zh) * | 2021-08-27 | 2024-04-19 | 杭州电子科技大学 | 一种基于多层矩阵随机神经网络的城市噪声识别方法 |
CN113724713B (zh) * | 2021-09-07 | 2024-07-05 | 中国科学技术大学 | 一种语音识别方法、装置、设备及存储介质 |
CN113782013B (zh) * | 2021-09-15 | 2024-01-30 | 北京百度网讯科技有限公司 | 语音识别及模型训练的方法、设备、存储介质及程序产品 |
KR20240053639A (ko) * | 2021-09-23 | 2024-04-24 | 구글 엘엘씨 | 제한된 스펙트럼 클러스터링을 사용한 화자-턴 기반 온라인 화자 구분 |
WO2023056920A1 (en) * | 2021-10-05 | 2023-04-13 | Huawei Technologies Co., Ltd. | Multilayer perceptron neural network for speech processing |
CN113870863B (zh) * | 2021-10-11 | 2024-07-02 | 中国电信股份有限公司 | 声纹识别方法及装置、存储介质及电子设备 |
US12087307B2 (en) | 2021-11-30 | 2024-09-10 | Samsung Electronics Co., Ltd. | Method and apparatus for performing speaker diarization on mixed-bandwidth speech signals |
CN114155844A (zh) * | 2021-12-21 | 2022-03-08 | 科大讯飞股份有限公司 | 一种评分方法、装置、计算设备及存储介质 |
WO2023132018A1 (ja) * | 2022-01-05 | 2023-07-13 | 日本電信電話株式会社 | 学習装置、信号処理装置、学習方法及び学習プログラム |
CN114170482B (zh) * | 2022-02-11 | 2022-05-17 | 阿里巴巴达摩院(杭州)科技有限公司 | 一种文档预训练模型训练方法、装置、设备及介质 |
US12106753B2 (en) * | 2022-03-08 | 2024-10-01 | Microsoft Technology Licensing, Llc | Code-mixed speech recognition using attention and language-specific joint analysis |
CN114678037B (zh) * | 2022-04-13 | 2022-10-25 | 北京远鉴信息技术有限公司 | 一种重叠语音的检测方法、装置、电子设备及存储介质 |
US20230351099A1 (en) * | 2022-05-02 | 2023-11-02 | Optum, Inc. | Supervised and unsupervised machine learning techniques for communication summarization |
CN115188366A (zh) * | 2022-05-12 | 2022-10-14 | 广州云趣信息科技有限公司 | 基于深度学习的语种识别方法、装置、可读存储介质 |
CN115116448B (zh) * | 2022-08-29 | 2022-11-15 | 四川启睿克科技有限公司 | 语音提取方法、神经网络模型训练方法、装置及存储介质 |
CN115440198B (zh) * | 2022-11-08 | 2023-05-02 | 南方电网数字电网研究院有限公司 | 混合音频信号的转换方法、装置、计算机设备和存储介质 |
CN116229943B (zh) * | 2023-05-08 | 2023-08-15 | 北京爱数智慧科技有限公司 | 一种对话式数据集的生成方法和装置 |
CN116758902A (zh) * | 2023-06-01 | 2023-09-15 | 镁佳(北京)科技有限公司 | 一种多人说话场景下音视频识别模型训练及识别方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6453284B1 (en) * | 1999-07-26 | 2002-09-17 | Texas Tech University Health Sciences Center | Multiple voice tracking system and method |
US6990450B2 (en) * | 2000-10-19 | 2006-01-24 | Qwest Communications International Inc. | System and method for converting text-to-voice |
US20070263823A1 (en) * | 2006-03-31 | 2007-11-15 | Nokia Corporation | Automatic participant placement in conferencing |
JP5738020B2 (ja) * | 2010-03-11 | 2015-06-17 | 本田技研工業株式会社 | 音声認識装置及び音声認識方法 |
US8175244B1 (en) * | 2011-07-22 | 2012-05-08 | Frankel David P | Method and system for tele-conferencing with simultaneous interpretation and automatic floor control |
US9736604B2 (en) * | 2012-05-11 | 2017-08-15 | Qualcomm Incorporated | Audio user interaction recognition and context refinement |
US9286897B2 (en) * | 2013-09-27 | 2016-03-15 | Amazon Technologies, Inc. | Speech recognizer with multi-directional decoding |
US9620108B2 (en) | 2013-12-10 | 2017-04-11 | Google Inc. | Processing acoustic sequences using long short-term memory (LSTM) neural networks that include recurrent projection layers |
US9390712B2 (en) | 2014-03-24 | 2016-07-12 | Microsoft Technology Licensing, Llc. | Mixed speech recognition |
AU2014204540B1 (en) * | 2014-07-21 | 2015-08-20 | Matthew Brown | Audio Signal Processing Methods and Systems |
CA2964906A1 (en) * | 2014-10-20 | 2016-04-28 | Audimax, Llc | Systems, methods, and devices for intelligent speech recognition and processing |
US9818431B2 (en) * | 2015-12-21 | 2017-11-14 | Microsoft Technoloogy Licensing, LLC | Multi-speaker speech separation |
US9799327B1 (en) | 2016-02-26 | 2017-10-24 | Google Inc. | Speech recognition with attention-based recurrent neural networks |
CN105761720B (zh) * | 2016-04-19 | 2020-01-07 | 北京地平线机器人技术研发有限公司 | 一种基于语音属性分类的交互系统及其方法 |
US10249305B2 (en) * | 2016-05-19 | 2019-04-02 | Microsoft Technology Licensing, Llc | Permutation invariant training for talker-independent multi-talker speech separation |
US9881634B1 (en) * | 2016-12-01 | 2018-01-30 | Arm Limited | Multi-microphone speech processing system |
US10438588B2 (en) * | 2017-09-12 | 2019-10-08 | Intel Corporation | Simultaneous multi-user audio signal recognition and processing for far field audio |
US10839822B2 (en) * | 2017-11-06 | 2020-11-17 | Microsoft Technology Licensing, Llc | Multi-channel speech separation |
CN107808659A (zh) * | 2017-12-02 | 2018-03-16 | 宫文峰 | 智能语音信号模式识别系统装置 |
JP6985221B2 (ja) * | 2018-07-19 | 2021-12-22 | 株式会社日立製作所 | 音声認識装置及び音声認識方法 |
-
2018
- 2018-04-13 US US15/952,330 patent/US10811000B2/en active Active
- 2018-10-24 CN CN201880091966.7A patent/CN111989742B/zh active Active
- 2018-10-24 WO PCT/JP2018/040422 patent/WO2019198265A1/en unknown
- 2018-10-24 EP EP18808527.8A patent/EP3577650B1/en active Active
- 2018-10-24 JP JP2020537034A patent/JP6873333B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP3577650B1 (en) | 2020-07-15 |
US10811000B2 (en) | 2020-10-20 |
JP2021507312A (ja) | 2021-02-22 |
WO2019198265A1 (en) | 2019-10-17 |
CN111989742B (zh) | 2024-08-30 |
EP3577650A1 (en) | 2019-12-11 |
CN111989742A (zh) | 2020-11-24 |
US20190318725A1 (en) | 2019-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6873333B2 (ja) | 音声認識システム及び音声認識システムを用いる方法 | |
JP7034339B2 (ja) | オーディオ信号処理システム、及び入力オーディオ信号を変換する方法 | |
JP7436760B1 (ja) | サブワードエンドツーエンド自動音声認識のための学習ワードレベルコンフィデンス | |
JP2024050850A (ja) | 非発話テキストおよび音声合成を使う音声認識 | |
KR20210009596A (ko) | 지능적 음성 인식 방법, 음성 인식 장치 및 지능형 컴퓨팅 디바이스 | |
EP3948852A1 (en) | Contextual biasing for speech recognition | |
US11574628B1 (en) | Deep multi-channel acoustic modeling using multiple microphone array geometries | |
US10963819B1 (en) | Goal-oriented dialog systems and methods | |
JP2017097162A (ja) | キーワード検出装置、キーワード検出方法及びキーワード検出用コンピュータプログラム | |
CN111261162B (zh) | 语音识别方法、语音识别装置及存储介质 | |
US11495215B1 (en) | Deep multi-channel acoustic modeling using frequency aligned network | |
KR20230084229A (ko) | 병렬 타코트론: 비-자동회귀 및 제어 가능한 tts | |
US12087305B2 (en) | Speech processing | |
CN112131359A (zh) | 一种基于图形化编排智能策略的意图识别方法及电子设备 | |
WO2023060002A1 (en) | Training for long-form speech recognition | |
Picheny et al. | Trends and advances in speech recognition | |
WO2022086640A1 (en) | Fast emit low-latency streaming asr with sequence-level emission regularization | |
WO2024129789A1 (en) | Semi-supervised training scheme for speech recognition | |
US20230317059A1 (en) | Alignment Prediction to Inject Text into Automatic Speech Recognition Training | |
US20230013587A1 (en) | Advancing the Use of Text and Speech in ASR Pretraining With Consistency and Contrastive Losses | |
KR102699035B1 (ko) | 자동 음성 인식을 위한 다언어 리스코어링 모델들 | |
EP4068279B1 (en) | Method and system for performing domain adaptation of end-to-end automatic speech recognition model | |
US20230298565A1 (en) | Using Non-Parallel Voice Conversion for Speech Conversion Models | |
Banjara et al. | Nepali speech recognition using cnn and sequence models | |
US20230017892A1 (en) | Injecting Text in Self-Supervised Speech Pre-training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200702 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200702 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200702 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6873333 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |