JP2021516369A - 混合音声の認識方法、装置及びコンピュータ可読記憶媒体 - Google Patents
混合音声の認識方法、装置及びコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP2021516369A JP2021516369A JP2020547178A JP2020547178A JP2021516369A JP 2021516369 A JP2021516369 A JP 2021516369A JP 2020547178 A JP2020547178 A JP 2020547178A JP 2020547178 A JP2020547178 A JP 2020547178A JP 2021516369 A JP2021516369 A JP 2021516369A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- vector
- adaptive
- mixed
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 122
- 230000003044 adaptive effect Effects 0.000 claims abstract description 521
- 238000012544 monitoring process Methods 0.000 claims abstract description 30
- 239000013598 vector Substances 0.000 claims description 753
- 238000001228 spectrum Methods 0.000 claims description 163
- 230000003595 spectral effect Effects 0.000 claims description 88
- 238000013528 artificial neural network Methods 0.000 claims description 77
- 238000004590 computer program Methods 0.000 claims description 40
- 230000015654 memory Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000002457 bidirectional effect Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 7
- 239000000203 mixture Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 23
- 230000006870 function Effects 0.000 description 46
- 238000013527 convolutional neural network Methods 0.000 description 26
- 238000012549 training Methods 0.000 description 26
- 230000000052 comparative effect Effects 0.000 description 12
- 230000006978 adaptation Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000006403 short-term memory Effects 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02087—Noise filtering the noise being separate speech, e.g. cocktail party
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Telephonic Communication Services (AREA)
- Image Analysis (AREA)
Abstract
Description
音声の入力をモニタリングするステップと、
適応音声と混合音声の入力をモニタリングしたとき、上記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するステップと、
上記ターゲットオブジェクトの音声特徴に基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定するステップとを含み、
上記適応音声は、予め設定された音声情報を含む音声であり、上記混合音声は、上記適応音声の後に入力された非適応音声である。
音声の入力をモニタリングするためのモニタリングユニットと、
上記モニタリングユニットが適応音声と混合音声の入力をモニタリングしたとき、上記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するための取得ユニットと、
上記ターゲットオブジェクトの音声特徴に基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定するための特定ユニットとを含み、
上記適応音声は、予め設定された音声情報を含む音声であり、上記混合音声は、上記適応音声の後に入力された非適応音声である。
は適応音声を、上付き
は混合音声を表し、
は対数領域の短時間フーリエ変換であり、入力された音声のうちt番目のフレームの音声のスペクトルを表し(fはスペクトル次元のシリアル番号を表し、tは時間次元のフレームシリアル番号を表す)、そして、適応音声のスペクトルは
と、混合音声のスペクトルは
と表すことができる。そして、ステップ202では、それぞれ適応音声の入力スペクトル
と混合音声の入力スペクトル
とをディープニューラルネットワークによりK次元のベクトルにマッピングして、適応音声の各フレームの各ベクトル次元でのベクトル
(
は適応音声のt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)と混合音声の各フレームの各ベクトル次元でのベクトル
(
は混合音声のt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)とを取得することができる。
を設定し、適応音声の各フレームのスペクトルをそれぞれ、最大スペクトル幅とスペクトル閾値Γとの間の差と比較し、適応音声のあるフレーム(即ち、ある時間周波数ウィンドウ)のスペクトル幅が適応スペクトルの比較値(即ち、適応音声の最大スペクトル幅とΓとの間の差)よりも大きければ、該時間周波数ウィンドウに対応する適応音声の教師ありラベル
は1を取り、そうでなければ、
は0を取ってよく、具体的な式は、以下の式(1)として表すことができる。
は適応音声サンプルを、上付き
は混合音声サンプルを表し、
は対数領域の短時間フーリエ変換であり、入力された音声のうちt番目のフレームの音声のスペクトルを表し(fはスペクトル次元のシリアル番号を表し、tは時間次元のフレームシリアル番号を表す)、そして、適応音声サンプルのスペクトルは
と、混合音声サンプルのスペクトルは
と表すことができ、そして、それぞれ適応音声サンプルの入力スペクトル
と混合音声サンプルの入力スペクトル
とをディープニューラルネットワークによりK次元のベクトルにマッピングして、適応音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は適応音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)と混合音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は混合音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)とを取得することができる。
を設定し、適応音声サンプルの各フレームのスペクトルをそれぞれ、最大スペクトル幅とスペクトル閾値Γとの間の差と比較し、適応音声サンプルのあるフレーム(即ち、ある時間周波数ウィンドウ)のスペクトル幅が適応スペクトルの比較値(即ち、適応音声サンプルの最大スペクトル幅とΓとの間の差)よりも大きければ、該時間周波数ウィンドウに対応する適応音声サンプルの教師ありラベル
は1を取り、そうでなければ、
は0を取り、具体的な式は、式(4)として表すことができる。
と教師ありラベル
を用いてターゲットオブジェクトのベクトル空間での音声抽出子
を推定する。各ベクトル次元において、上記適応音声サンプルの各フレームが対応するベクトル次元におけるベクトルに、対応するフレームの教師ありラベルを其々乗算した後に加算して、上記適応音声サンプルの有効フレームが対応するベクトル次元における総和ベクトルを取得し、上記適応音声サンプルの有効フレームが各ベクトル次元における総和ベクトルを上記適応音声サンプルの各フレームの教師ありラベルの和で其々除算して、上記適応音声サンプルが各ベクトル次元における平均ベクトルを取得し、計算方法は、式(5)に示すとおりである。
との間の距離を測定することにより、ターゲットオブジェクトが復元されるMaskを推定し、推定方法は、式(6)に示すとおりであり、時間周波数ウィンドウと音声抽出子との内積距離が小さいほど、該時間周波数ウィンドウがターゲットオブジェクトに帰属する確率が大きくなり、そして、式(6)により推定された対応する時間周波数ウィンドウのMaskが大きくなり、混合音声サンプルのうち対応する時間周波数ウィンドウの音声も多く抽出される。
は、ターゲットオブジェクトの参照音声のt番目のフレームでのスペクトル(即ち、参照音声スペクトル)を表す。上記式(7)は、標準的なL2再構成誤差である。再構成誤差が復元された音声とターゲットオブジェクトの参照音声との間のスペクトル誤差を反映するため、上記認識ネットワークをトレーニングするとき、勾配を生成することにより、グローバルな誤差を低減して、抽出されたターゲットオブジェクトの音声品質を最適化することができる。
を取得するために、混合音声サンプルにおける低エネルギーのスペクトルウィンドウのノイズを先に除去し、その後に混合音声サンプルの各話者の音声スペクトル幅について、ある話者のあるフレームでの音声スペクトル幅がいずれも該フレームでの他の話者のスペクトル幅よりも大きければ、該話者の該フレームでの対応する
は1を取り、そうでなければ0を取る。
は対数領域の短時間フーリエ変換であり、混合音声サンプルのt番目のフレームの音声のスペクトルを表し、混合音声サンプルの入力スペクトル
をディープニューラルネットワークによりK次元のベクトルにマッピングして、混合音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は混合音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)を取得する。上記ディープニューラルネットワークは、各層に600個のノードを有する4層の双方向LSTM層で構成される。もちろん、上記ディープニューラルネットワークの代わりに、各種の他の有効な新規モデル構造、例えばCNN及び他のネットワーク構造が結合したモデル、又は他のネットワーク構造、例えば時間遅延ネットワーク、グラフ畳み込みニューラルネットワークなどを用いても良い。本願は、ディープニューラルネットワークのモデルタイプ及びトポロジー構造を限定しない。
は話者cの参照音声のt番目のフレームのスペクトル(即ち、参照音声スペクトル)を表す。上記式(10)は、標準的なL2再構成誤差である。再構成誤差が復元された各話者と、対応する話者の参照音声との間のスペクトル誤差を反映するため、上記認識ネットワークをトレーニングするとき、勾配を生成することにより、グローバルな誤差を低減して、抽出された全ての話者の音声品質を最適化することができる。
は適応音声を、上付き
は混合音声を表し、
は対数領域の短時間フーリエ変換であり、入力された音声のうちt番目のフレームの音声のスペクトルを表し(fはスペクトル次元のシリアル番号を表し、tは時間次元のフレームシリアル番号を表す)、そして、適応音声のスペクトルは
と、混合音声のスペクトルは
と表すことができる。そして、ステップ302では、それぞれ適応音声の入力スペクトル
と混合音声の入力スペクトル
とをディープニューラルネットワークによりK次元のベクトルにマッピングして、適応音声の各フレームの各ベクトル次元でのベクトル
(
は適応音声のt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)と混合音声の各フレームの各ベクトル次元でのベクトル
(
は混合音声のt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)とを取得することができる。
を設定し、適応音声の各フレームのスペクトルをそれぞれ、最大スペクトル幅とスペクトル閾値Γとの間の差と比較し、適応音声のあるフレーム(即ち、ある時間周波数ウィンドウ)のスペクトル幅が適応スペクトルの比較値(即ち、適応音声の最大スペクトル幅とΓとの間の差)よりも大きければ、該時間周波数ウィンドウに対応する適応音声の教師ありラベル
は1を取り、そうでなければ、
は0を取り、具体的な式は、前述の式(1)を参照することができ、上記適応音声の有効フレームの各ベクトル次元でのベクトルに基づいて、上記適応音声の各ベクトル次元での平均ベクトルを算出することは、前述の式(2)により実現することができる。
と上記混合音声の各フレームの各ベクトル次元でのベクトル
を2K次元のベクトルに合わせて上記順伝播型ニューラルネットワークに入力し、K次元の規則ベクトル
を出力し、具体的には、該順伝播型ニューラルネットワークの関数は、式(11)に示すように表すことができる。
は適応音声サンプルを、上付き
は混合音声サンプルを表し、
は対数領域の短時間フーリエ変換であり、入力された音声のうちt番目のフレームの音声のスペクトルを表し(fはスペクトル次元のシリアル番号を表し、tは時間次元のフレームシリアル番号を表す)、そして、適応音声サンプルのスペクトルは
と、混合音声サンプルのスペクトルは
と表すことができ、そして、それぞれ適応音声サンプルの入力スペクトル
と混合音声サンプルの入力スペクトル
とをディープニューラルネットワークによりK次元のベクトルにマッピングして、適応音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は適応音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)と混合音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は混合音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)とを取得することができる。
を設定し、適応音声サンプルの各フレームのスペクトルをそれぞれ、最大スペクトル幅とスペクトル閾値Γとの間の差と比較し、適応音声サンプルのあるフレーム(即ち、ある時間周波数ウィンドウ)のスペクトル幅が適応スペクトルの比較値(即ち、適応音声サンプルの最大スペクトル幅とΓとの間の差)よりも大きければ、該時間周波数ウィンドウに対応する適応音声サンプルの教師ありラベル
は1を取り、そうでなければ、
は0を取り、具体的な式は、前述の式(4)を参照することができる。
と教師ありラベル
に基づいて、上記適応音声の各ベクトル次元での平均ベクトル
を算出し、算出方法は、上記式(5)に示すとおりである。
と上記混合音声の各フレームの各ベクトル次元でのベクトル
を2K次元のベクトルに合わせて順伝播型ニューラルネットワークに入力し、K次元の規則ベクトル
を出力し、具体的には、該順伝播型ニューラルネットワークの関数は、上記式(11)に示すように表すことができる。順伝播型ニューラルネットワークの説明については、ステップ304の説明を参照することができるので、ここでは説明を省略する。
を取得するために、混合音声サンプルにおける低エネルギーのスペクトルウィンドウのノイズを先に除去し、その後に混合音声サンプルにおけるターゲットオブジェクトの音声スペクトル幅について、ターゲットオブジェクトのあるフレームでの音声スペクトル幅がいずれも該フレームでの干渉ターゲットオブジェクトのスペクトル幅よりも大きければ、ターゲットオブジェクトの該フレームでの対応する
は1を取り、そうでなければ、0を取る。
と規則化された音声抽出子
との間の距離を測定することにより、ターゲットオブジェクトが復元されるMaskを推定し、推定方法は、式(13)に示すとおりであり、時間周波数ウィンドウと音声抽出子との内積距離が小さいほど、該時間周波数ウィンドウがターゲットオブジェクトに帰属する確率が大きくなり、そして、式(12)により推定された対応する時間周波数ウィンドウのMaskが大きくなり、混合音声サンプルのうち対応する時間周波数ウィンドウの音声も多く抽出される。
は、ターゲットオブジェクトの参照音声のt番目のフレームでのスペクトル(即ち、参照音声スペクトル)を表す。上記式(14)は、標準的なL2再構成誤差である。再構成誤差が復元された音声とターゲットオブジェクトの参照音声との間のスペクトル誤差を反映するため、上記認識ネットワークをトレーニングするとき、勾配を生成することにより、グローバルな誤差を低減して、抽出されたターゲットオブジェクトの音声品質を最適化することができる。
音声の入力をモニタリングするためのモニタリングユニット71と、
モニタリングユニット71が上記入力された音声において適応音声と混合音声をモニタリングしたとき、上記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するための取得ユニット72と、
上記ターゲットオブジェクトの音声特徴に基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定するための特定ユニット73とを含み、
上記適応音声は、予め設定された音声情報を含む音声であり、上記混合音声は、上記適応音声の後に入力された非適応音声である。
モニタリングユニット71が、予め設定された音声情報を含む音声である適応音声と、上記適応音声の後に入力された非適応音声である混合音声の入力をモニタリングしたとき、上記適応音声のスペクトルと上記混合音声のスペクトルとをそれぞれ、K(上記Kは1以上)次元のベクトル空間に埋め込んで、上記適応音声の各フレームの各ベクトル次元でのベクトルと上記混合音声の各フレームの各ベクトル次元でのベクトルとを取得するための空間マッピングユニット721と、
上記適応音声の各フレームの各ベクトル次元でのベクトルに基づいて、上記適応音声の各ベクトル次元での平均ベクトルを算出するための算出ユニット722と、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子として、それぞれ上記混合音声の各フレームの各ベクトル次元でのベクトルと、対応するベクトル次元での音声抽出子との間の距離を測定することにより、上記混合音声の各フレームのマスクを推定するためのマスク推定ユニット723とを含み、
特定ユニット73は、上記混合音声の各フレームのマスクに基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定してもよい。
音声の入力をモニタリングするステップと、
上記モニタリングユニットが適応音声と混合音声の入力をモニタリングしたとき、取得ユニットが上記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するステップと、
特定ユニットが上記ターゲットオブジェクトの音声特徴に基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定するステップとを実現し、
ここで、上記適応音声は、予め設定された音声情報を含む音声であり、上記混合音声は、上記適応音声の後に入力された非適応音声である。
上記適応音声のスペクトルと上記混合音声のスペクトルとをそれぞれ、K(上記Kは1以上)次元のベクトル空間に埋め込んで、上記適応音声の各フレームの各ベクトル次元でのベクトルと上記混合音声の各フレームの各ベクトル次元でのベクトルとを取得することと、
上記適応音声の各フレームの各ベクトル次元でのベクトルに基づいて、上記適応音声の各ベクトル次元での平均ベクトルを算出することと、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子として、それぞれ上記混合音声の各フレームの各ベクトル次元でのベクトルと、対応するベクトル次元での音声抽出子との間の距離を測定することにより、上記混合音声の各フレームのマスクを推定することと
上記混合音声の各フレームのマスクに基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定することとを含む。
上記適応音声の有効フレームの各ベクトル次元でのベクトルに基づいて、上記適応音声の各ベクトル次元での平均ベクトルを算出することであり、上記適応音声の有効フレームとは、上記適応音声における、スペクトル幅が適応スペクトルの比較値よりも大きいフレームであり、上記適応スペクトルの比較値は、上記適応音声の最大スペクトル幅と予め設定されたスペクトル閾値との間の差に等しい。
ここで、上記適応音声における、スペクトル幅が適応スペクトルの比較値よりも大きいフレームの教師ありラベルは1を取り、上記適応音声における、スペクトル幅が適応スペクトルの比較値以下であるフレームの教師ありラベルは0を取る。
上記適応音声の各ベクトル次元での平均ベクトルと上記混合音声の各フレームの各ベクトル次元でのベクトルとを予めトレーニングされた順伝播型ニューラルネットワークに入力して、各フレームの各ベクトル次元での規則ベクトルを取得するステップと、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子として、それぞれ上記混合音声の各フレームの各ベクトル次元でのベクトルと、対応するベクトル次元での音声抽出子との間の距離を測定することにより、上記混合音声の各フレームのマスクを推定するステップの代わりに、
それぞれ上記各フレームの各ベクトル次元での規則ベクトルと予め設定された音声抽出子との間の距離を測定することにより、上記混合音声の各フレームのマスクを推定して取得するステップとを実現する。
クラスタリングアルゴリズムに基づいて上記混合音声の各フレームの各ベクトル次元でのベクトルを処理することにより、上記混合音声の各ベクトル次元での、異なる話者の音声に対応するセントロイドベクトルを決定するステップと、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子とするステップの代わりに、上記混合音声の各ベクトル次元でのターゲットセントロイドベクトルをターゲットオブジェクトの対応するベクトル次元での音声抽出子とするステップとを実現し、ここで、上記ターゲットセントロイドベクトルとは、同一のベクトル次元で上記適応音声の平均ベクトルとの距離が最小であるセントロイドベクトルである。
それぞれ、予め設定されたM(上記Mは1よりも大きい)個の音声抽出子と上記適応音声の各ベクトル次元での平均ベクトルとの間の距離を比較するステップと、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子とするステップの代わりに、上記M個の音声抽出子のうち、上記適応音声のあるベクトル次元での平均ベクトルとの距離が最小である音声抽出子をターゲットオブジェクトの対応するベクトル次元での音声抽出子とするステップとを実現する。
音声の入力をモニタリングするステップと、
適応音声と混合音声の入力をモニタリングしたとき、上記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するステップと、
上記ターゲットオブジェクトの音声特徴に基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定するステップとを含み、
上記適応音声は、予め設定された音声情報を含む音声であり、上記混合音声は、上記適応音声の後に入力された非適応音声である。
音声の入力をモニタリングするためのモニタリングユニットと、
上記モニタリングユニットが適応音声と混合音声の入力をモニタリングしたとき、上記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するための取得ユニットと、
上記ターゲットオブジェクトの音声特徴に基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定するための特定ユニットとを含み、
上記適応音声は、予め設定された音声情報を含む音声であり、上記混合音声は、上記適応音声の後に入力された非適応音声である。
は適応音声を、上付き
は混合音声を表し、
は対数領域の短時間フーリエ変換であり、入力された音声のうちt番目のフレームの音声のスペクトルを表し(fはスペクトル次元のシリアル番号(シーケンス番号とも言う)を表し、tは時間次元のフレームシリアル番号を表す)、そして、適応音声のスペクトルは
と、混合音声のスペクトルは
と表すことができる。そして、ステップ202では、それぞれ適応音声の入力スペクトル
と混合音声の入力スペクトル
とをディープニューラルネットワークによりK次元のベクトルにマッピングして、適応音声の各フレームの各ベクトル次元でのベクトル
(
は適応音声のt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)と混合音声の各フレームの各ベクトル次元でのベクトル
(
は混合音声のt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)とを取得することができる。
を設定し、適応音声の各フレームのスペクトルをそれぞれ、最大スペクトル振幅とスペクトル閾値Γとの間の差と比較し、適応音声のあるフレーム(即ち、ある時間周波数ウィンドウ)のスペクトル振幅が適応スペクトルの比較値(即ち、適応音声の最大スペクトル振幅とΓとの間の差)よりも大きければ、該時間周波数ウィンドウに対応する適応音声の教師ありラベル
は1を取り、そうでなければ、
は0を取ってよく、具体的な式は、以下の式(1)として表すことができる。
は適応音声サンプルを、上付き
は混合音声サンプルを表し、
は対数領域の短時間フーリエ変換であり、入力された音声のうちt番目のフレームの音声のスペクトルを表し(fはスペクトル次元のシリアル番号を表し、tは時間次元のフレームシリアル番号を表す)、そして、適応音声サンプルのスペクトルは
と、混合音声サンプルのスペクトルは
と表すことができ、そして、それぞれ適応音声サンプルの入力スペクトル
と混合音声サンプルの入力スペクトル
とをディープニューラルネットワークによりK次元のベクトルにマッピングして、適応音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は適応音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)と混合音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は混合音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)とを取得することができる。
を設定し、適応音声サンプルの各フレームのスペクトルをそれぞれ、最大スペクトル振幅とスペクトル閾値Γとの間の差と比較し、適応音声サンプルのあるフレーム(即ち、ある時間周波数ウィンドウ)のスペクトル振幅が適応スペクトルの比較値(即ち、適応音声サンプルの最大スペクトル振幅とΓとの間の差)よりも大きければ、該時間周波数ウィンドウに対応する適応音声サンプルの教師ありラベル
は1を取り、そうでなければ、
は0を取り、具体的な式は、式(4)として表すことができる。
と教師ありラベル
を用いてターゲットオブジェクトのベクトル空間での音声抽出子
を推定する。各ベクトル次元において、上記適応音声サンプルの各フレームが対応するベクトル次元におけるベクトルに、対応するフレームの教師ありラベルを其々乗算した後に加算して、上記適応音声サンプルの有効フレームが対応するベクトル次元における総和ベクトルを取得し、上記適応音声サンプルの有効フレームが各ベクトル次元における総和ベクトルを上記適応音声サンプルの各フレームの教師ありラベルの和で其々除算して、上記適応音声サンプルが各ベクトル次元における平均ベクトルを取得し、計算方法は、式(5)に示すとおりである。
との間の距離を測定することにより、ターゲットオブジェクトが復元されるMaskを推定し、推定方法は、式(6)に示すとおりであり、時間周波数ウィンドウと音声抽出子との内積距離が小さいほど、該時間周波数ウィンドウがターゲットオブジェクトに帰属する確率が大きくなり、そして、式(6)により推定された対応する時間周波数ウィンドウのMaskが大きくなり、混合音声サンプルのうち対応する時間周波数ウィンドウの音声も多く抽出される。
は、ターゲットオブジェクトの参照音声のt番目のフレームでのスペクトル(即ち、参照音声スペクトル)を表す。上記式(7)は、標準的なL2再構成誤差である。再構成誤差が復元された音声とターゲットオブジェクトの参照音声との間のスペクトル誤差を反映するため、上記認識ネットワークをトレーニングするとき、勾配を生成することにより、グローバルな誤差を低減して、抽出されたターゲットオブジェクトの音声品質を最適化することができる。
を取得するために、混合音声サンプルにおける低エネルギーのスペクトルウィンドウのノイズを先に除去し、その後に混合音声サンプルの各話者の音声スペクトル振幅について、ある話者のあるフレームでの音声スペクトル振幅がいずれも該フレームでの他の話者のスペクトル振幅よりも大きければ、該話者の該フレームでの対応する
は1を取り、そうでなければ0を取る。
は対数領域の短時間フーリエ変換であり、混合音声サンプルのt番目のフレームの音声のスペクトルを表し、混合音声サンプルの入力スペクトル
をディープニューラルネットワークによりK次元のベクトルにマッピングして、混合音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は混合音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)を取得する。上記ディープニューラルネットワークは、各層に600個のノードを有する4層の双方向LSTM層で構成される。もちろん、上記ディープニューラルネットワークの代わりに、各種の他の有効な新規モデル構造、例えばCNN及び他のネットワーク構造が結合したモデル、又は他のネットワーク構造、例えば時間遅延ネットワーク、ゲーティング畳み込みニューラルネットワークなどを用いても良い。本願は、ディープニューラルネットワークのモデルタイプ及びトポロジー構造を限定しない。
は話者cの参照音声のt番目のフレームのスペクトル(即ち、参照音声スペクトル)を表す。上記式(10)は、標準的なL2再構成誤差である。再構成誤差が復元された各話者と、対応する話者の参照音声との間のスペクトル誤差を反映するため、上記認識ネットワークをトレーニングするとき、勾配を生成することにより、グローバルな誤差を低減して、抽出された全ての話者の音声品質を最適化することができる。
は適応音声を、上付き
は混合音声を表し、
は対数領域の短時間フーリエ変換であり、入力された音声のうちt番目のフレームの音声のスペクトルを表し(fはスペクトル次元のシリアル番号を表し、tは時間次元のフレームシリアル番号を表す)、そして、適応音声のスペクトルは
と、混合音声のスペクトルは
と表すことができる。そして、ステップ302では、それぞれ適応音声の入力スペクトル
と混合音声の入力スペクトル
とをディープニューラルネットワークによりK次元のベクトルにマッピングして、適応音声の各フレームの各ベクトル次元でのベクトル
(
は適応音声のt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)と混合音声の各フレームの各ベクトル次元でのベクトル
(
は混合音声のt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)とを取得することができる。
を設定し、適応音声の各フレームのスペクトルをそれぞれ、最大スペクトル振幅とスペクトル閾値Γとの間の差と比較し、適応音声のあるフレーム(即ち、ある時間周波数ウィンドウ)のスペクトル振幅が適応スペクトルの比較値(即ち、適応音声の最大スペクトル振幅とΓとの間の差)よりも大きければ、該時間周波数ウィンドウに対応する適応音声の教師ありラベル
は1を取り、そうでなければ、
は0を取り、具体的な式は、前述の式(1)を参照することができ、上記適応音声の有効フレームの各ベクトル次元でのベクトルに基づいて、上記適応音声の各ベクトル次元での平均ベクトルを算出することは、前述の式(2)により実現することができる。
と上記混合音声の各フレームの各ベクトル次元でのベクトル
を2K次元のベクトルに合わせて上記順伝播型ニューラルネットワークに入力し、K次元の規則ベクトル
を出力し、具体的には、該順伝播型ニューラルネットワークの関数は、式(11)に示すように表すことができる。
は適応音声サンプルを、上付き
は混合音声サンプルを表し、
は対数領域の短時間フーリエ変換であり、入力された音声のうちt番目のフレームの音声のスペクトルを表し(fはスペクトル次元のシリアル番号を表し、tは時間次元のフレームシリアル番号を表す)、そして、適応音声サンプルのスペクトルは
と、混合音声サンプルのスペクトルは
と表すことができ、そして、それぞれ適応音声サンプルの入力スペクトル
と混合音声サンプルの入力スペクトル
とをディープニューラルネットワークによりK次元のベクトルにマッピングして、適応音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は適応音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)と混合音声サンプルの各フレームの各ベクトル次元でのベクトル
(
は混合音声サンプルのt番目のフレームのk番目のベクトル次元でのベクトルを表し、k)とを取得することができる。
を設定し、適応音声サンプルの各フレームのスペクトルをそれぞれ、最大スペクトル振幅とスペクトル閾値Γとの間の差と比較し、適応音声サンプルのあるフレーム(即ち、ある時間周波数ウィンドウ)のスペクトル振幅が適応スペクトルの比較値(即ち、適応音声サンプルの最大スペクトル振幅とΓとの間の差)よりも大きければ、該時間周波数ウィンドウに対応する適応音声サンプルの教師ありラベル
は1を取り、そうでなければ、
は0を取り、具体的な式は、前述の式(4)を参照することができる。
と教師ありラベル
に基づいて、上記適応音声の各ベクトル次元での平均ベクトル
を算出し、算出方法は、上記式(5)に示すとおりである。
と上記混合音声の各フレームの各ベクトル次元でのベクトル
を2K次元のベクトルに合わせて順伝播型ニューラルネットワークに入力し、K次元の規則ベクトル
を出力し、具体的には、該順伝播型ニューラルネットワークの関数は、上記式(11)に示すように表すことができる。順伝播型ニューラルネットワークの説明については、ステップ304の説明を参照することができるので、ここでは説明を省略する。
を取得するために、混合音声サンプルにおける低エネルギーのスペクトルウィンドウのノイズを先に除去し、その後に混合音声サンプルにおけるターゲットオブジェクトの音声スペクトル振幅について、ターゲットオブジェクトのあるフレームでの音声スペクトル振幅がいずれも該フレームでの干渉ターゲットオブジェクトのスペクトル振幅よりも大きければ、ターゲットオブジェクトの該フレームでの対応する
は1を取り、そうでなければ、0を取る。
と規則化された音声抽出子
との間の距離を測定することにより、ターゲットオブジェクトが復元されるMaskを推定し、推定方法は、式(13)に示すとおりであり、時間周波数ウィンドウと音声抽出子との内積距離が小さいほど、該時間周波数ウィンドウがターゲットオブジェクトに帰属する確率が大きくなり、そして、式(12)により推定された対応する時間周波数ウィンドウのMaskが大きくなり、混合音声サンプルのうち対応する時間周波数ウィンドウの音声も多く抽出される。
は、ターゲットオブジェクトの参照音声のt番目のフレームでのスペクトル(即ち、参照音声スペクトル)を表す。上記式(14)は、標準的なL2再構成誤差である。再構成誤差が復元された音声とターゲットオブジェクトの参照音声との間のスペクトル誤差を反映するため、上記認識ネットワークをトレーニングするとき、勾配を生成することにより、グローバルな誤差を低減して、抽出されたターゲットオブジェクトの音声品質を最適化することができる。
音声の入力をモニタリングするためのモニタリングユニット71と、
モニタリングユニット71が上記入力された音声において適応音声と混合音声をモニタリングしたとき、上記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するための取得ユニット72と、
上記ターゲットオブジェクトの音声特徴に基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定するための特定ユニット73とを含み、
上記適応音声は、予め設定された音声情報を含む音声であり、上記混合音声は、上記適応音声の後に入力された非適応音声である。
モニタリングユニット71が、予め設定された音声情報を含む音声である適応音声と、上記適応音声の後に入力された非適応音声である混合音声の入力をモニタリングしたとき、上記適応音声のスペクトルと上記混合音声のスペクトルとをそれぞれ、K(上記Kは1以上)次元のベクトル空間に埋め込んで、上記適応音声の各フレームの各ベクトル次元でのベクトルと上記混合音声の各フレームの各ベクトル次元でのベクトルとを取得するための空間マッピングユニット721と、
上記適応音声の各フレームの各ベクトル次元でのベクトルに基づいて、上記適応音声の各ベクトル次元での平均ベクトルを算出するための算出ユニット722と、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子として、それぞれ上記混合音声の各フレームの各ベクトル次元でのベクトルと、対応するベクトル次元での音声抽出子との間の距離を測定することにより、上記混合音声の各フレームのマスクを推定するためのマスク推定ユニット723とを含み、
特定ユニット73は、上記混合音声の各フレームのマスクに基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定してもよい。
音声の入力をモニタリングするステップと、
上記モニタリングユニットが適応音声と混合音声の入力をモニタリングしたとき、取得ユニットが上記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するステップと、
特定ユニットが上記ターゲットオブジェクトの音声特徴に基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定するステップとを実現し、
ここで、上記適応音声は、予め設定された音声情報を含む音声であり、上記混合音声は、上記適応音声の後に入力された非適応音声である。
上記適応音声のスペクトルと上記混合音声のスペクトルとをそれぞれ、K(上記Kは1以上)次元のベクトル空間に埋め込んで、上記適応音声の各フレームの各ベクトル次元でのベクトルと上記混合音声の各フレームの各ベクトル次元でのベクトルとを取得することと、
上記適応音声の各フレームの各ベクトル次元でのベクトルに基づいて、上記適応音声の各ベクトル次元での平均ベクトルを算出することと、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子として、それぞれ上記混合音声の各フレームの各ベクトル次元でのベクトルと、対応するベクトル次元での音声抽出子との間の距離を測定することにより、上記混合音声の各フレームのマスクを推定することと
上記混合音声の各フレームのマスクに基づいて、上記混合音声のうち上記ターゲットオブジェクトに属する音声を特定することとを含む。
上記適応音声の有効フレームの各ベクトル次元でのベクトルに基づいて、上記適応音声の各ベクトル次元での平均ベクトルを算出することであり、上記適応音声の有効フレームとは、上記適応音声における、スペクトル振幅が適応スペクトルの比較値よりも大きいフレームであり、上記適応スペクトルの比較値は、上記適応音声の最大スペクトル振幅と予め設定されたスペクトル閾値との間の差に等しい。
ここで、上記適応音声における、スペクトル振幅が適応スペクトルの比較値よりも大きいフレームの教師ありラベルは1を取り、上記適応音声における、スペクトル振幅が適応スペクトルの比較値以下であるフレームの教師ありラベルは0を取る。
上記適応音声の各ベクトル次元での平均ベクトルと上記混合音声の各フレームの各ベクトル次元でのベクトルとを予めトレーニングされた順伝播型ニューラルネットワークに入力して、各フレームの各ベクトル次元での規則ベクトルを取得するステップと、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子として、それぞれ上記混合音声の各フレームの各ベクトル次元でのベクトルと、対応するベクトル次元での音声抽出子との間の距離を測定することにより、上記混合音声の各フレームのマスクを推定するステップの代わりに、
それぞれ上記各フレームの各ベクトル次元での規則ベクトルと予め設定された音声抽出子との間の距離を測定することにより、上記混合音声の各フレームのマスクを推定して取得するステップとを実現する。
クラスタリングアルゴリズムに基づいて上記混合音声の各フレームの各ベクトル次元でのベクトルを処理することにより、上記混合音声の各ベクトル次元での、異なる話者の音声に対応するセントロイドベクトルを決定するステップと、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子とするステップの代わりに、上記混合音声の各ベクトル次元でのターゲットセントロイドベクトルをターゲットオブジェクトの対応するベクトル次元での音声抽出子とするステップとを実現し、ここで、上記ターゲットセントロイドベクトルとは、同一のベクトル次元で上記適応音声の平均ベクトルとの距離が最小であるセントロイドベクトルである。
それぞれ、予め設定されたM(上記Mは1よりも大きい)個の音声抽出子と上記適応音声の各ベクトル次元での平均ベクトルとの間の距離を比較するステップと、
上記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子とするステップの代わりに、上記M個の音声抽出子のうち、上記適応音声のあるベクトル次元での平均ベクトルとの距離が最小である音声抽出子をターゲットオブジェクトの対応するベクトル次元での音声抽出子とするステップとを実現する。
Claims (14)
- コンピュータ装置が実行する混合音声の認識方法であって、
音声の入力をモニタリングするステップと、
適応音声と混合音声の入力をモニタリングしたとき、前記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するステップと、
前記ターゲットオブジェクトの音声特徴に基づいて、前記混合音声のうち前記ターゲットオブジェクトに属する音声を特定するステップとを含み、
前記適応音声は、予め設定された音声情報を含む音声であり、前記混合音声は、前記適応音声の後に入力された非適応音声であることを特徴とする混合音声の認識方法。 - 適応音声に基づいてターゲットオブジェクトの音声特徴を取得する前記ステップは、
予め設定された音声情報を含む音声である前記適応音声のスペクトルと、前記適応音声の後に入力された非適応音声である前記混合音声のスペクトルとをそれぞれ、K(前記Kは1以上)次元のベクトル空間に埋め込んで、前記適応音声の各フレームの各ベクトル次元でのベクトルと前記混合音声の各フレームの各ベクトル次元でのベクトルとを取得するステップと、
前記適応音声の各フレームの各ベクトル次元でのベクトルに基づいて、前記適応音声の各ベクトル次元での平均ベクトルを算出するステップと、
前記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子として、それぞれ前記混合音声の各フレームの各ベクトル次元でのベクトルと、対応するベクトル次元での音声抽出子との間の距離を測定することにより、前記混合音声の各フレームのマスクを推定するステップとを含み、
前記ターゲットオブジェクトの音声特徴に基づいて、前記混合音声のうち前記ターゲットオブジェクトに属する音声を特定するステップは、
前記混合音声の各フレームのマスクに基づいて、前記混合音声のうち前記ターゲットオブジェクトに属する音声を特定するステップであることを特徴とする、請求項1に記載の混合音声の認識方法。 - 前記適応音声の各フレームの各ベクトル次元でのベクトルに基づいて、前記適応音声の各ベクトル次元での平均ベクトルを算出するステップは、具体的には、
前記適応音声の有効フレームの各ベクトル次元でのベクトルに基づいて、前記適応音声の各ベクトル次元での平均ベクトルを算出するステップであり、前記適応音声の有効フレームとは、前記適応音声における、スペクトル幅が適応スペクトルの比較値よりも大きいフレームであり、前記適応スペクトルの比較値は、前記適応音声の最大スペクトル幅と予め設定されたスペクトル閾値との間の差に等しいことを特徴とする、請求項2に記載の混合音声の認識方法。 - 前記適応音声の有効フレームの各ベクトル次元でのベクトルに基づいて、前記適応音声の各ベクトル次元での平均ベクトルを算出するステップは、
各ベクトル次元毎に、前記適応音声の各フレームの対応するベクトル次元でのベクトルにそれぞれ対応するフレームの教師ありラベルを乗算した後に加算して、前記適応音声の有効フレームの対応するベクトル次元での総和ベクトルを取得するステップと、
前記適応音声の有効フレームの各ベクトル次元での総和ベクトルをそれぞれ前記適応音声の各フレームの教師ありラベルの和で除算して、前記適応音声の各ベクトル次元での平均ベクトルを取得するステップとを含み、
前記適応音声における、スペクトル幅が適応スペクトルの比較値よりも大きいフレームの教師ありラベルは1を取り、前記適応音声における、スペクトル幅が適応スペクトルの比較値以下であるフレームの教師ありラベルは0を取ることを特徴とする、請求項3に記載の混合音声の認識方法。 - 前記適応音声の各フレームの各ベクトル次元でのベクトルに基づいて、前記適応音声の各ベクトル次元での平均ベクトルを算出した後に、さらに、
前記適応音声の各ベクトル次元での平均ベクトルと前記混合音声の各フレームの各ベクトル次元でのベクトルとを予めトレーニングされた順伝播型ニューラルネットワークに入力して、各フレームの各ベクトル次元での規則ベクトルを取得するステップと、
前記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子として、それぞれ前記混合音声の各フレームの各ベクトル次元でのベクトルと、対応するベクトル次元での音声抽出子との間の距離を測定することにより、前記混合音声の各フレームのマスクを推定するステップの代わりに、それぞれ前記各フレームの各ベクトル次元での規則ベクトルと予め設定された音声抽出子との間の距離を測定することにより、前記混合音声の各フレームのマスクを推定して取得するステップとを含むことを特徴とする、請求項2〜4のいずれか一項に記載の混合音声の認識方法。 - 前記適応音声のスペクトルと前記混合音声のスペクトルとをそれぞれK次元のベクトル空間に埋め込んだ後に、さらに、
クラスタリングアルゴリズムに基づいて前記混合音声の各フレームの各ベクトル次元でのベクトルを処理することにより、前記混合音声の各ベクトル次元での、異なる話者の音声に対応するセントロイドベクトルを決定するステップと、
前記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子とするステップの代わりに、前記混合音声の各ベクトル次元でのターゲットセントロイドベクトルをターゲットオブジェクトの対応するベクトル次元での音声抽出子とするステップとを含み、
前記ターゲットセントロイドベクトルとは、同一のベクトル次元で前記適応音声の平均ベクトルとの距離が最小であるセントロイドベクトルであることを特徴とする、請求項2〜4のいずれか一項に記載の混合音声の認識方法。 - 前記適応音声の各フレームの各ベクトル次元でのベクトルに基づいて、前記適応音声の各ベクトル次元での平均ベクトルを算出した後に、さらに、
それぞれ、予め設定されたM(前記Mは1よりも大きい)個の音声抽出子と前記適応音声の各ベクトル次元での平均ベクトルとの間の距離を比較するステップと、
前記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子とするステップの代わりに、前記M個の音声抽出子のうち、前記適応音声のあるベクトル次元での平均ベクトルとの距離が最小である音声抽出子をターゲットオブジェクトの対応するベクトル次元での音声抽出子とするステップとを含むことを特徴とする、請求項2〜4のいずれか一項に記載の混合音声の認識方法。 - 前記適応音声のスペクトルと前記混合音声のスペクトルとをそれぞれK次元のベクトル空間に埋め込んで、前記適応音声の各フレームの各ベクトル次元でのベクトルと前記混合音声の各フレームの各ベクトル次元でのベクトルとを取得するステップは、具体的には、
前記適応音声のスペクトルと前記混合音声のスペクトルとをディープニューラルネットワークによりK次元のベクトル空間にマッピングして、前記適応音声の各フレームの各ベクトル次元でのベクトルと前記混合音声の各フレームの各ベクトル次元でのベクトルとを取得するステップであることを特徴とする、請求項2〜4のいずれか一項に記載の混合音声の認識方法。 - 前記ディープニューラルネットワークは、各層に600個のノードを有する4層の双方向長・短期記憶ネットワークで構成されることを特徴とする、請求項8に記載の混合音声の認識方法。
- 前記Kは40を取ることを特徴とする、請求項8に記載の混合音声の認識方法。
- 音声の入力をモニタリングするためのモニタリングユニットと、
前記モニタリングユニットが適応音声と混合音声の入力をモニタリングしたとき、前記適応音声に基づいてターゲットオブジェクトの音声特徴を取得するための取得ユニットと、
前記ターゲットオブジェクトの音声特徴に基づいて、前記混合音声のうち前記ターゲットオブジェクトに属する音声を特定するための特定ユニットとを含み、
前記適応音声は、予め設定された音声情報を含む音声であり、前記混合音声は、前記適応音声の後に入力された非適応音声であることを特徴とする混合音声の認識装置。 - 前記取得ユニットは、
前記モニタリングユニットが、予め設定された音声情報を含む音声である適応音声と、前記適応音声の後に入力された非適応音声である混合音声の入力をモニタリングしたとき、前記適応音声のスペクトルと前記混合音声のスペクトルとをそれぞれ、K(前記Kは1以上)次元のベクトル空間に埋め込んで、前記適応音声の各フレームの各ベクトル次元でのベクトルと前記混合音声の各フレームの各ベクトル次元でのベクトルとを取得するための空間マッピングユニットと、
前記適応音声の各フレームの各ベクトル次元でのベクトルに基づいて、前記適応音声の各ベクトル次元での平均ベクトルを算出するための算出ユニットと、
前記適応音声の各ベクトル次元での平均ベクトルをターゲットオブジェクトの各ベクトル次元での音声抽出子として、それぞれ前記混合音声の各フレームの各ベクトル次元でのベクトルと、対応するベクトル次元での音声抽出子との間の距離を測定することにより、前記混合音声の各フレームのマスクを推定するためのマスク推定ユニットとを含み、
前記特定ユニットは、具体的には、前記混合音声の各フレームのマスクに基づいて、前記混合音声のうち前記ターゲットオブジェクトに属する音声を特定するために用いられることを特徴とする、請求項11に記載の混合音声の認識装置。 - メモリと、プロセッサと、前記メモリに記憶され前記プロセッサで実行可能なコンピュータプログラムとを含む混合音声の認識装置であって、
前記コンピュータプログラムが前記プロセッサによって実行されるとき、請求項1〜10のいずれか一項に記載の方法のステップが実現されることを特徴とする、混合音声の認識装置。 - コンピュータプログラムを記憶しているコンピュータ可読記憶媒体であって、
前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1〜10のいずれか一項に記載の方法のステップが実現されることを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810507294.5A CN108962237B (zh) | 2018-05-24 | 2018-05-24 | 混合语音识别方法、装置及计算机可读存储介质 |
CN201810507294.5 | 2018-05-24 | ||
PCT/CN2019/082978 WO2019223457A1 (zh) | 2018-05-24 | 2019-04-17 | 混合语音识别方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021516369A true JP2021516369A (ja) | 2021-07-01 |
JP7177167B2 JP7177167B2 (ja) | 2022-11-22 |
Family
ID=64499498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020547178A Active JP7177167B2 (ja) | 2018-05-24 | 2019-04-17 | 混合音声の特定方法、装置及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11996091B2 (ja) |
EP (1) | EP3806089B1 (ja) |
JP (1) | JP7177167B2 (ja) |
CN (3) | CN108962237B (ja) |
WO (1) | WO2019223457A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023127058A1 (ja) * | 2021-12-27 | 2023-07-06 | 日本電信電話株式会社 | 信号フィルタリング装置、信号フィルタリング方法及びプログラム |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
KR20150104615A (ko) | 2013-02-07 | 2015-09-15 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770411A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | MULTI-MODAL INTERFACES |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
CN108962237B (zh) * | 2018-05-24 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 混合语音识别方法、装置及计算机可读存储介质 |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11475898B2 (en) * | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
CN111696571A (zh) * | 2019-03-15 | 2020-09-22 | 北京搜狗科技发展有限公司 | 一种语音处理方法、装置和电子设备 |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
CN110459237B (zh) * | 2019-04-12 | 2020-11-20 | 腾讯科技(深圳)有限公司 | 语音分离方法、语音识别方法及相关设备 |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
CN110265060B (zh) * | 2019-06-04 | 2021-05-11 | 广东工业大学 | 一种基于密度聚类的说话人数目自动检测方法 |
CN111370018B (zh) * | 2020-02-28 | 2023-10-24 | 维沃移动通信有限公司 | 音频数据的处理方法、电子设备及介质 |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
CN111583916B (zh) * | 2020-05-19 | 2023-07-25 | 科大讯飞股份有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN111754982A (zh) * | 2020-06-19 | 2020-10-09 | 平安科技(深圳)有限公司 | 语音通话的噪声消除方法、装置、电子设备及存储介质 |
CN111667817A (zh) * | 2020-06-22 | 2020-09-15 | 平安资产管理有限责任公司 | 一种语音识别方法、装置、计算机系统及可读存储介质 |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
CN112614492A (zh) * | 2020-12-09 | 2021-04-06 | 通号智慧城市研究设计院有限公司 | 基于时空信息融合的声纹识别方法、系统及存储介质 |
US20220406324A1 (en) * | 2021-06-18 | 2022-12-22 | Samsung Electronics Co., Ltd. | Electronic device and personalized audio processing method of the electronic device |
CN113409776B (zh) * | 2021-06-30 | 2024-06-07 | 南京领行科技股份有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
CN113436633B (zh) * | 2021-06-30 | 2024-03-12 | 平安科技(深圳)有限公司 | 说话人识别方法、装置、计算机设备及存储介质 |
CN114882914B (zh) * | 2022-06-16 | 2024-06-18 | 中国电信股份有限公司 | 混叠音处理方法、装置和存储介质 |
CN116978358A (zh) * | 2022-10-21 | 2023-10-31 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、设备和介质 |
CN116168687B (zh) * | 2023-04-24 | 2023-07-21 | 北京探境科技有限公司 | 一种语音数据处理方法、装置、计算机设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004109361A (ja) * | 2002-09-17 | 2004-04-08 | Toshiba Corp | 指向性設定装置、指向性設定方法及び指向性設定プログラム |
US20170270919A1 (en) * | 2016-03-21 | 2017-09-21 | Amazon Technologies, Inc. | Anchored speech detection and speech recognition |
JP2019095551A (ja) * | 2017-11-21 | 2019-06-20 | ヤフー株式会社 | 生成装置、生成方法、および生成プログラム |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7620546B2 (en) | 2004-03-23 | 2009-11-17 | Qnx Software Systems (Wavemakers), Inc. | Isolating speech signals utilizing neural networks |
US8392185B2 (en) * | 2008-08-20 | 2013-03-05 | Honda Motor Co., Ltd. | Speech recognition system and method for generating a mask of the system |
US20150112682A1 (en) * | 2008-12-10 | 2015-04-23 | Agnitio Sl | Method for verifying the identity of a speaker and related computer readable medium and computer |
KR101670313B1 (ko) | 2010-01-28 | 2016-10-28 | 삼성전자주식회사 | 음원 분리를 위해 자동적으로 문턱치를 선택하는 신호 분리 시스템 및 방법 |
JP5738020B2 (ja) * | 2010-03-11 | 2015-06-17 | 本田技研工業株式会社 | 音声認識装置及び音声認識方法 |
CN102201236B (zh) * | 2011-04-06 | 2012-12-19 | 中国人民解放军理工大学 | 一种高斯混合模型和量子神经网络联合的说话人识别方法 |
KR101305373B1 (ko) * | 2011-12-16 | 2013-09-06 | 서강대학교산학협력단 | 관심음원 제거방법 및 그에 따른 음성인식방법 |
US20130282373A1 (en) * | 2012-04-23 | 2013-10-24 | Qualcomm Incorporated | Systems and methods for audio signal processing |
CN104049721B (zh) * | 2013-03-11 | 2019-04-26 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
US9858919B2 (en) * | 2013-11-27 | 2018-01-02 | International Business Machines Corporation | Speaker adaptation of neural network acoustic models using I-vectors |
US9953632B2 (en) * | 2014-04-17 | 2018-04-24 | Qualcomm Incorporated | Keyword model generation for detecting user-defined keyword |
US20160189730A1 (en) * | 2014-12-30 | 2016-06-30 | Iflytek Co., Ltd. | Speech separation method and system |
CN105989836B (zh) * | 2015-03-06 | 2020-12-01 | 腾讯科技(深圳)有限公司 | 一种语音采集方法、装置及终端设备 |
CN105280183B (zh) * | 2015-09-10 | 2017-06-20 | 百度在线网络技术(北京)有限公司 | 语音交互方法和系统 |
US9892731B2 (en) * | 2015-09-28 | 2018-02-13 | Trausti Thor Kristjansson | Methods for speech enhancement and speech recognition using neural networks |
CN105895078A (zh) | 2015-11-26 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 动态选择语音模型的语音识别方法及装置 |
US10366687B2 (en) * | 2015-12-10 | 2019-07-30 | Nuance Communications, Inc. | System and methods for adapting neural network acoustic models |
US9818431B2 (en) * | 2015-12-21 | 2017-11-14 | Microsoft Technoloogy Licensing, LLC | Multi-speaker speech separation |
JP6616182B2 (ja) * | 2015-12-25 | 2019-12-04 | 綜合警備保障株式会社 | 話者認識装置、判別値生成方法及びプログラム |
US10741195B2 (en) * | 2016-02-15 | 2020-08-11 | Mitsubishi Electric Corporation | Sound signal enhancement device |
EP3469584B1 (en) * | 2016-06-14 | 2023-04-19 | The Trustees of Columbia University in the City of New York | Neural decoding of attentional selection in multi-speaker environments |
CN107689948B (zh) * | 2016-08-22 | 2020-09-01 | 赛灵思公司 | 应用于神经网络硬件加速系统的高效数据访存管理装置 |
US9741360B1 (en) * | 2016-10-09 | 2017-08-22 | Spectimbre Inc. | Speech enhancement for target speakers |
KR102562287B1 (ko) * | 2016-10-14 | 2023-08-02 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 오디오 신호 처리 방법 |
US9881634B1 (en) * | 2016-12-01 | 2018-01-30 | Arm Limited | Multi-microphone speech processing system |
US10192553B1 (en) * | 2016-12-20 | 2019-01-29 | Amazon Technologes, Inc. | Initiating device speech activity monitoring for communication sessions |
CN106782504B (zh) * | 2016-12-29 | 2019-01-22 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
US11133011B2 (en) * | 2017-03-13 | 2021-09-28 | Mitsubishi Electric Research Laboratories, Inc. | System and method for multichannel end-to-end speech recognition |
IT201700044093A1 (it) * | 2017-04-21 | 2018-10-21 | Telecom Italia Spa | Metodo e sistema di riconoscimento del parlatore |
CN107785029B (zh) * | 2017-10-23 | 2021-01-29 | 科大讯飞股份有限公司 | 目标语音检测方法及装置 |
CN107886943A (zh) * | 2017-11-21 | 2018-04-06 | 广州势必可赢网络科技有限公司 | 一种声纹识别方法及装置 |
US10529349B2 (en) * | 2018-04-16 | 2020-01-07 | Mitsubishi Electric Research Laboratories, Inc. | Methods and systems for end-to-end speech separation with unfolded iterative phase reconstruction |
CN108962237B (zh) * | 2018-05-24 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 混合语音识别方法、装置及计算机可读存储介质 |
-
2018
- 2018-05-24 CN CN201810507294.5A patent/CN108962237B/zh active Active
- 2018-05-24 CN CN201910746274.8A patent/CN111445905B/zh active Active
- 2018-05-24 CN CN201910745788.1A patent/CN110797021B/zh active Active
-
2019
- 2019-04-17 WO PCT/CN2019/082978 patent/WO2019223457A1/zh unknown
- 2019-04-17 EP EP19806534.4A patent/EP3806089B1/en active Active
- 2019-04-17 JP JP2020547178A patent/JP7177167B2/ja active Active
-
2020
- 2020-08-10 US US16/989,844 patent/US11996091B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004109361A (ja) * | 2002-09-17 | 2004-04-08 | Toshiba Corp | 指向性設定装置、指向性設定方法及び指向性設定プログラム |
US20170270919A1 (en) * | 2016-03-21 | 2017-09-21 | Amazon Technologies, Inc. | Anchored speech detection and speech recognition |
JP2019095551A (ja) * | 2017-11-21 | 2019-06-20 | ヤフー株式会社 | 生成装置、生成方法、および生成プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023127058A1 (ja) * | 2021-12-27 | 2023-07-06 | 日本電信電話株式会社 | 信号フィルタリング装置、信号フィルタリング方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN111445905B (zh) | 2023-08-08 |
CN108962237A (zh) | 2018-12-07 |
US11996091B2 (en) | 2024-05-28 |
JP7177167B2 (ja) | 2022-11-22 |
EP3806089A1 (en) | 2021-04-14 |
WO2019223457A1 (zh) | 2019-11-28 |
EP3806089B1 (en) | 2024-06-19 |
CN110797021A (zh) | 2020-02-14 |
CN108962237B (zh) | 2020-12-04 |
EP3806089A4 (en) | 2021-07-21 |
US20200372905A1 (en) | 2020-11-26 |
CN110797021B (zh) | 2022-06-07 |
CN111445905A (zh) | 2020-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021516369A (ja) | 混合音声の認識方法、装置及びコンピュータ可読記憶媒体 | |
WO2021208287A1 (zh) | 用于情绪识别的语音端点检测方法、装置、电子设备及存储介质 | |
CN107799126B (zh) | 基于有监督机器学习的语音端点检测方法及装置 | |
CN107564513B (zh) | 语音识别方法及装置 | |
CN110634497B (zh) | 降噪方法、装置、终端设备及存储介质 | |
JP2022531574A (ja) | 音声認識方法及び装置、ニューラルネットワークの訓練方法及び装置、並びにコンピュータープログラム | |
CN109360572B (zh) | 通话分离方法、装置、计算机设备及存储介质 | |
US20150228277A1 (en) | Voiced Sound Pattern Detection | |
WO2019227574A1 (zh) | 语音模型训练方法、语音识别方法、装置、设备及介质 | |
CN108922543B (zh) | 模型库建立方法、语音识别方法、装置、设备及介质 | |
CN112435684A (zh) | 语音分离方法、装置、计算机设备和存储介质 | |
KR20190108804A (ko) | 주파수 변화에 강인한 음향 이벤트 검출 방법 및 그 장치 | |
JP6967197B2 (ja) | 異常検出装置、異常検出方法及びプログラム | |
WO2019163736A1 (ja) | マスク推定装置、モデル学習装置、音源分離装置、マスク推定方法、モデル学習方法、音源分離方法及びプログラム | |
CN112949708A (zh) | 情绪识别方法、装置、计算机设备和存储介质 | |
CN113628612A (zh) | 语音识别方法、装置、电子设备及计算机可读存储介质 | |
KR20190032868A (ko) | 음성인식 방법 및 그 장치 | |
CN114582325A (zh) | 音频检测方法、装置、计算机设备、存储介质 | |
WO2018001125A1 (zh) | 一种音频识别方法和装置 | |
Marković et al. | Partial mutual information based input variable selection for supervised learning approaches to voice activity detection | |
Arslan et al. | Noise robust voice activity detection based on multi-layer feed-forward neural network | |
Zhu et al. | A robust and lightweight voice activity detection algorithm for speech enhancement at low signal-to-noise ratio | |
CN114664288A (zh) | 一种语音识别方法、装置、设备及可存储介质 | |
CN113593525A (zh) | 口音分类模型训练和口音分类方法、装置和存储介质 | |
CN112489678A (zh) | 一种基于信道特征的场景识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200918 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7177167 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |