JP7240445B2 - オーディオ処理方法、装置、端末、及び記憶媒体 - Google Patents
オーディオ処理方法、装置、端末、及び記憶媒体 Download PDFInfo
- Publication number
- JP7240445B2 JP7240445B2 JP2021100821A JP2021100821A JP7240445B2 JP 7240445 B2 JP7240445 B2 JP 7240445B2 JP 2021100821 A JP2021100821 A JP 2021100821A JP 2021100821 A JP2021100821 A JP 2021100821A JP 7240445 B2 JP7240445 B2 JP 7240445B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- features
- target object
- module
- voiceprint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02087—Noise filtering the noise being separate speech, e.g. cocktail party
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Description
ターゲットオブジェクトのオーディオ混合特徴を決定するステップであって、前記オーディオ混合特徴は少なくとも前記ターゲットオブジェクトの声紋特徴及び基音特徴を含むステップと、
前記オーディオ混合特徴に基づいて混合オーディオに対して音声分離を行い、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るステップと、を含むオーディオ処理方法を提供する。
前記ターゲットオブジェクトのオーディオ信号を取得するステップと、
前記オーディオ信号の周波数スペクトルに基づき、前記ターゲットオブジェクトの声紋特徴を抽出するステップと、
前記声紋特徴に基づき、前記ターゲットオブジェクトの基音特徴を取得するステップと、
前記声紋特徴及び前記基音特徴に基づき、前記オーディオ混合特徴を決定するステップと、を含む。
前記声紋特徴を予め設定された基音抽出ネットワークモデルに入力し、前記基音特徴を取得するステップを含む。
前記オーディオ信号の周波数スペクトルを予め設定された声紋抽出ネットワークモデルに入力し、前記ターゲットオブジェクトの声紋特徴を取得するステップを含む。
前記混合オーディオの各オーディオフレームにおけるオーディオ特徴を取得するステップと、
各オーディオフレームにおける前記オーディオ特徴をそれぞれ前記オーディオ混合特徴と共に分離ネットワークモデルの各サブモジュールに入力し、各サブモジュールの出力結果を得るステップと、
前記各サブモジュールの出力結果が直列に接続された全出力結果に基づき、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るステップと、を含む。
音声通話中に、前記混合オーディオを取得するステップと、
前記音声分離後の前記ターゲットオーディオに基づき、強調後の前記ターゲットオーディオを出力するステップと、を更に含む。
ターゲットオブジェクトの音声を含む登録情報を取得するステップと、
前記登録情報に基づき、前記オーディオ混合特徴を取得するステップと、を更に含む。
ターゲットオブジェクトのオーディオ混合特徴を決定するための第1の決定モジュールであって、前記オーディオ混合特徴は少なくとも前記ターゲットオブジェクトの声紋特徴及び基音特徴を含む第1の決定モジュールと、
前記オーディオ混合特徴に基づいて混合オーディオに対して音声分離を行い、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るための分離モジュールと、を備えるオーディオ処理装置を提供する。
前記ターゲットオブジェクトのオーディオ信号を取得するための第1の取得サブモジュールと、
前記オーディオ信号の周波数スペクトルに基づき、前記ターゲットオブジェクトの声紋特徴を抽出するための抽出サブモジュールと、
前記声紋特徴に基づき、前記ターゲットオブジェクトの基音特徴を取得するための第2の取得サブモジュールと、
前記声紋特徴及び前記基音特徴に基づき、前記オーディオ混合特徴を決定するための第1の決定サブモジュールと、を含む。
前記声紋特徴を予め設定された基音抽出ネットワークモデルに入力し、前記基音特徴を取得するために用いられる。
前記オーディオ信号の周波数スペクトルを予め設定された声紋抽出ネットワークモデルに入力し、前記ターゲットオブジェクトの声紋特徴を取得するために用いられる。
前記混合オーディオの各オーディオフレームにおけるオーディオ特徴を取得するための第3の取得サブモジュールと、
各オーディオフレームにおける前記オーディオ特徴をそれぞれ前記オーディオ混合特徴と共に分離ネットワークモデルの各サブモジュールに入力し、各サブモジュールの出力結果を得るための入力サブモジュールと、
前記各サブモジュールの出力結果が直列に接続された全出力結果に基づき、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るための出力サブモジュールと、を含む。
音声通話中に、前記混合オーディオを取得するための第1の取得モジュールと、
前記音声分離後の前記ターゲットオーディオに基づき、強調後の前記ターゲットオーディオを出力するための出力モジュールと、を更に備える。
ターゲットオブジェクトの音声を含む登録情報を取得するための第2の取得モジュールと、
前記登録情報に基づき、前記オーディオ混合特徴を取得するための第3の取得モジュールと、を更に備える。
プロセッサは、前記実行可能な命令を実行するとき、前記実行可能な命令を通じて上記いずれか一つのオーディオ処理方法におけるステップを実行するために用いられる端末を提供する。
以上の一般的な記載及び後述する詳細事項の記載は、単に例示的かつ解釈的なものであり、本開示を制限するものではないと理解すべきである。
ここの添付図面は、明細書に組み込まれて本明細書の一部を構成し、本発明に該当する実施例を示し、明細書と共に本発明の原理を解釈するために用いられる。
ターゲットオブジェクトのオーディオ信号を取得するステップと、
オーディオ信号の周波数スペクトルに基づき、ターゲットオブジェクトの声紋特徴を抽出するステップと、
声紋特徴に基づき、ターゲットオブジェクトの基音特徴を取得するステップと、
声紋特徴及び基音特徴に基づき、オーディオ混合特徴を決定するステップと、を含む。
前記声紋特徴を予め設定された基音抽出ネットワークモデルに入力し、前記基音特徴を取得するステップを含む。
オーディオ信号の周波数スペクトルを予め設定された声紋抽出ネットワークモデルに入力し、ターゲットオブジェクトの声紋特徴を取得するステップを含む。
混合オーディオの各オーディオフレームにおけるオーディオ特徴を取得するステップと、
各オーディオフレームにおけるオーディオ特徴をそれぞれオーディオ混合特徴と共に分離ネットワークモデルの各サブモジュールに入力し、各サブモジュールの出力結果を得るステップと、
各サブモジュールの出力結果が直列に接続された全出力結果に基づき、混合オーディオにおけるターゲットオブジェクトにマッチングするターゲットオーディオを得るステップと、を含む。
ターゲットオブジェクトの音声を含む登録情報を取得するステップと、
前記登録情報に基づき、前記オーディオ混合特徴を取得するステップと、を更に含む。
図5に示すように、当該装置500は、
ターゲットオブジェクトのオーディオ混合特徴を決定するための第1の決定モジュールであって、前記オーディオ混合特徴は少なくとも前記ターゲットオブジェクトの声紋特徴及び基音特徴を含む第1の決定モジュール501と、
前記オーディオ混合特徴に基づいて混合オーディオに対して音声分離を行い、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るための分離モジュール502と、を備える。
前記ターゲットオブジェクトのオーディオ信号を取得するための第1の取得サブモジュールと、
前記オーディオ信号の周波数スペクトルに基づき、前記ターゲットオブジェクトの声紋特徴を抽出するための抽出サブモジュールと、
前記声紋特徴に基づき、前記ターゲットオブジェクトの基音特徴を取得するための第2の取得サブモジュールと、
前記声紋特徴及び前記基音特徴に基づき、前記オーディオ混合特徴を決定するための第1の決定サブモジュールと、を含む。
前記声紋特徴を予め設定された基音抽出ネットワークモデルに入力し、前記基音特徴を取得するために用いられる。
前記オーディオ信号の周波数スペクトルを予め設定された声紋抽出ネットワークモデルに入力し、前記ターゲットオブジェクトの声紋特徴を取得するために用いられる。
前記混合オーディオの各オーディオフレームにおけるオーディオ特徴を取得するための第3の取得サブモジュールと、
各オーディオフレームにおける前記オーディオ特徴をそれぞれ前記オーディオ混合特徴と共に分離ネットワークモデルの各サブモジュールに入力し、各サブモジュールの出力結果を得るための入力サブモジュールと、
前記各サブモジュールの出力結果が直列に接続された全出力結果に基づき、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るための出力サブモジュールと、を含む。
音声通話中に、前記混合オーディオを取得するための第1の取得モジュールと、
前記音声分離後の前記ターゲットオーディオに基づき、強調後の前記ターゲットオーディオを出力するための出力モジュールと、を更に備える。
ターゲットオブジェクトの音声を含む登録情報を取得するための第2の取得モジュールと、
前記登録情報に基づき、前記オーディオ混合特徴を取得するための第3の取得モジュールと、を更に備える。
Claims (16)
- オーディオ処理装置によって実行されるオーディオ処理方法であって、
ターゲットオブジェクトのオーディオ混合特徴を決定するステップであって、前記オーディオ混合特徴は少なくとも前記ターゲットオブジェクトの声紋特徴及び基音特徴を含むステップと、
前記オーディオ混合特徴に基づいて混合オーディオに対して音声分離を行い、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るステップと、を含み、
前記オーディオ混合特徴に基づいて混合オーディオに対して音声分離を行い、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るステップは、
前記混合オーディオの各オーディオフレームにおけるオーディオ特徴を取得するステップと、
各オーディオフレームにおける前記オーディオ特徴をそれぞれ前記オーディオ混合特徴と共に分離ネットワークモデルの各サブモジュールに入力し、各サブモジュールの出力結果を得るステップと、
前記各サブモジュールの出力結果が直列に接続された全出力結果に基づき、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るステップと、を含む、
ことを特徴とするオーディオ処理方法。 - ターゲットオブジェクトのオーディオ混合特徴を決定するステップは、
前記ターゲットオブジェクトのオーディオ信号を取得するステップと、
前記オーディオ信号の周波数スペクトルに基づき、前記ターゲットオブジェクトの声紋特徴を抽出するステップと、
前記声紋特徴に基づき、前記ターゲットオブジェクトの基音特徴を取得するステップと、
前記声紋特徴及び前記基音特徴に基づき、前記オーディオ混合特徴を決定するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記声紋特徴に基づき、前記ターゲットオブジェクトの基音特徴を取得するステップは、
前記声紋特徴を予め設定された基音抽出ネットワークモデルに入力し、前記基音特徴を取得するステップを含む、
ことを特徴とする請求項2に記載の方法。 - 前記オーディオ信号の周波数スペクトルに基づき、前記ターゲットオブジェクトの声紋特徴を抽出するステップは、
前記オーディオ信号の周波数スペクトルを予め設定された声紋抽出ネットワークモデルに入力し、前記ターゲットオブジェクトの声紋特徴を取得するステップを含む、
ことを特徴とする請求項2に記載の方法。 - 音声通話中に、前記混合オーディオを取得するステップと、
前記音声分離後の前記ターゲットオーディオに基づき、強調後の前記ターゲットオーディオを出力するステップと、を更に含む、
ことを特徴とする請求項1に記載の方法。 - ターゲットオブジェクトの音声を含む登録情報を取得するステップと、
前記登録情報に基づき、前記オーディオ混合特徴を取得するステップと、を更に含む、
ことを特徴とする請求項1に記載の方法。 - 前記混合オーディオは、少なくとも2つの異なるオブジェクトの音声オーディオを含み、前記2つの異なるオブジェクトの音声オーディオは、同じ性別の異なるオブジェクトを表す音声オーディオを含む、
ことを特徴とする請求項1に記載の方法。 - オーディオ処理装置であって、
ターゲットオブジェクトのオーディオ混合特徴を決定するための第1の決定モジュールであって、前記オーディオ混合特徴は少なくとも前記ターゲットオブジェクトの声紋特徴及び基音特徴を含む第1の決定モジュールと、
前記オーディオ混合特徴に基づいて混合オーディオに対して音声分離を行い、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るための分離モジュールと、を備え、
前記分離モジュールは、
前記混合オーディオの各オーディオフレームにおけるオーディオ特徴を取得するための第3の取得サブモジュールと、
各オーディオフレームにおける前記オーディオ特徴をそれぞれ前記オーディオ混合特徴と共に分離ネットワークモデルの各サブモジュールに入力し、各サブモジュールの出力結果を得るための入力サブモジュールと、
前記各サブモジュールの出力結果が直列に接続された全出力結果に基づき、前記混合オーディオにおける前記ターゲットオブジェクトにマッチングするターゲットオーディオを得るための出力サブモジュールと、を含む、
ことを特徴とするオーディオ処理装置。 - 前記第1の決定モジュールは、
前記ターゲットオブジェクトのオーディオ信号を取得するための第1の取得サブモジュールと、
前記オーディオ信号の周波数スペクトルに基づき、前記ターゲットオブジェクトの声紋特徴を抽出するための抽出サブモジュールと、
前記声紋特徴に基づき、前記ターゲットオブジェクトの基音特徴を取得するための第2の取得サブモジュールと、
前記声紋特徴及び前記基音特徴に基づき、前記オーディオ混合特徴を決定するための第1の決定サブモジュールと、を含む、
ことを特徴とする請求項8に記載の装置。 - 前記第2の取得サブモジュールは、具体的に、
前記声紋特徴を予め設定された基音抽出ネットワークモデルに入力し、前記基音特徴を取得するために用いられる、
ことを特徴とする請求項9に記載の装置。 - 前記抽出サブモジュールは、具体的に、
前記オーディオ信号の周波数スペクトルを予め設定された声紋抽出ネットワークモデルに入力し、前記ターゲットオブジェクトの声紋特徴を取得するために用いられる、
ことを特徴とする請求項9に記載の装置。 - 音声通話中に、前記混合オーディオを取得するための第1の取得モジュールと、
前記音声分離後の前記ターゲットオーディオに基づき、強調後の前記ターゲットオーディオを出力するための出力モジュールと、を更に備える、
ことを特徴とする請求項8~11のいずれか一項に記載の装置。 - ターゲットオブジェクトの音声を含む登録情報を取得するための第2の取得モジュールと、
前記登録情報に基づき、前記オーディオ混合特徴を取得するための第3の取得モジュールと、を更に備える、
ことを特徴とする請求項8~11のいずれか一項に記載の装置。 - 前記混合オーディオは、少なくとも2つの異なるオブジェクトの音声オーディオを含み、前記2つの異なるオブジェクトの音声オーディオは、同じ性別の異なるオブジェクトを表す音声オーディオを含む、
ことを特徴とする請求項8~11のいずれか一項に記載の装置。 - 端末であって、前記端末は少なくとも、プロセッサと、前記プロセッサで実行できる実行可能な命令を記憶するためのメモリと、を含み、
プロセッサは、前記実行可能な命令を実行するとき、前記実行可能な命令を通じて上記請求項1~7のいずれか一項により提供されるオーディオ処理方法におけるステップを実行するために用いられる、
ことを特徴とする端末。 - 非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ読み取り可能な記憶媒体にはコンピュータ実行可能な命令が記憶されており、当該コンピュータ実行可能な命令は、プロセッサによって実行されるときに上記請求項1~7のいずれか一項により提供されるオーディオ処理方法におけるステップを実現する、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110213996.4A CN112820300B (zh) | 2021-02-25 | 2021-02-25 | 音频处理方法及装置、终端、存储介质 |
CN202110213996.4 | 2021-02-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022130269A JP2022130269A (ja) | 2022-09-06 |
JP7240445B2 true JP7240445B2 (ja) | 2023-03-15 |
Family
ID=75863955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021100821A Active JP7240445B2 (ja) | 2021-02-25 | 2021-06-17 | オーディオ処理方法、装置、端末、及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220270627A1 (ja) |
EP (1) | EP4050601B1 (ja) |
JP (1) | JP7240445B2 (ja) |
KR (1) | KR20220121661A (ja) |
CN (1) | CN112820300B (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113488063B (zh) * | 2021-07-02 | 2023-12-19 | 国网江苏省电力有限公司电力科学研究院 | 一种基于混合特征及编码解码的音频分离方法 |
CN116189687B (zh) * | 2023-04-27 | 2023-07-21 | 北京远鉴信息技术有限公司 | 一种声纹识别方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108198569A (zh) | 2017-12-28 | 2018-06-22 | 北京搜狗科技发展有限公司 | 一种音频处理方法、装置、设备及可读存储介质 |
JP2021500616A (ja) | 2017-10-23 | 2021-01-07 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | オブジェクト識別の方法及びその、コンピュータ装置並びにコンピュータ装置可読記憶媒体 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5583961A (en) * | 1993-03-25 | 1996-12-10 | British Telecommunications Public Limited Company | Speaker recognition using spectral coefficients normalized with respect to unequal frequency bands |
US6879952B2 (en) * | 2000-04-26 | 2005-04-12 | Microsoft Corporation | Sound source separation using convolutional mixing and a priori sound source knowledge |
AU2002314933A1 (en) * | 2001-05-30 | 2002-12-09 | Cameronsound, Inc. | Language independent and voice operated information management system |
US7243060B2 (en) * | 2002-04-02 | 2007-07-10 | University Of Washington | Single channel sound separation |
US7519531B2 (en) * | 2005-03-30 | 2009-04-14 | Microsoft Corporation | Speaker adaptive learning of resonance targets in a hidden trajectory model of speech coarticulation |
EP2162757B1 (en) * | 2007-06-01 | 2011-03-30 | Technische Universität Graz | Joint position-pitch estimation of acoustic sources for their tracking and separation |
JP2009145755A (ja) * | 2007-12-17 | 2009-07-02 | Toyota Motor Corp | 音声認識装置 |
US8880395B2 (en) * | 2012-05-04 | 2014-11-04 | Sony Computer Entertainment Inc. | Source separation by independent component analysis in conjunction with source direction information |
CN105719659A (zh) * | 2016-02-03 | 2016-06-29 | 努比亚技术有限公司 | 基于声纹识别的录音文件分离方法及装置 |
CN109328380B (zh) * | 2016-06-13 | 2023-02-28 | Med-El电气医疗器械有限公司 | 具有噪声模型适配的递归噪声功率估计 |
US10957337B2 (en) * | 2018-04-11 | 2021-03-23 | Microsoft Technology Licensing, Llc | Multi-microphone speech separation |
CN110503968A (zh) * | 2018-05-18 | 2019-11-26 | 北京搜狗科技发展有限公司 | 一种音频处理方法、装置、设备及可读存储介质 |
CN109410956B (zh) * | 2018-12-24 | 2021-10-08 | 科大讯飞股份有限公司 | 一种音频数据的对象识别方法、装置、设备及存储介质 |
CN110415687B (zh) * | 2019-05-21 | 2021-04-13 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、介质、电子设备 |
US11580727B2 (en) * | 2020-01-06 | 2023-02-14 | Orcam Technologies Ltd. | Systems and methods for matching audio and image information |
US11626127B2 (en) * | 2020-01-20 | 2023-04-11 | Orcam Technologies Ltd. | Systems and methods for processing audio based on changes in active speaker |
CN112242149B (zh) * | 2020-12-03 | 2021-03-26 | 北京声智科技有限公司 | 音频数据的处理方法、装置、耳机及计算机可读存储介质 |
-
2021
- 2021-02-25 CN CN202110213996.4A patent/CN112820300B/zh active Active
- 2021-06-10 KR KR1020210075273A patent/KR20220121661A/ko not_active Application Discontinuation
- 2021-06-17 JP JP2021100821A patent/JP7240445B2/ja active Active
- 2021-06-21 US US17/353,636 patent/US20220270627A1/en active Pending
- 2021-06-22 EP EP21180752.4A patent/EP4050601B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021500616A (ja) | 2017-10-23 | 2021-01-07 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | オブジェクト識別の方法及びその、コンピュータ装置並びにコンピュータ装置可読記憶媒体 |
CN108198569A (zh) | 2017-12-28 | 2018-06-22 | 北京搜狗科技发展有限公司 | 一种音频处理方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2022130269A (ja) | 2022-09-06 |
US20220270627A1 (en) | 2022-08-25 |
EP4050601B1 (en) | 2023-09-27 |
EP4050601A1 (en) | 2022-08-31 |
CN112820300B (zh) | 2023-12-19 |
CN112820300A (zh) | 2021-05-18 |
KR20220121661A (ko) | 2022-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105282345B (zh) | 通话音量的调节方法和装置 | |
CN104991754B (zh) | 录音方法及装置 | |
CN108198569A (zh) | 一种音频处理方法、装置、设备及可读存储介质 | |
JP7240445B2 (ja) | オーディオ処理方法、装置、端末、及び記憶媒体 | |
CN111583944A (zh) | 变声方法及装置 | |
CN107871494B (zh) | 一种语音合成的方法、装置及电子设备 | |
CN107945806B (zh) | 基于声音特征的用户识别方法及装置 | |
CN113113044B (zh) | 音频处理方法及装置、终端及存储介质 | |
CN104182039B (zh) | 设备控制方法、装置及电子设备 | |
CN109036404A (zh) | 语音交互方法及装置 | |
CN108710791A (zh) | 语音控制的方法及装置 | |
CN107135452A (zh) | 助听器适配方法及装置 | |
CN107205198B (zh) | 麦克风的解锁方法和装置 | |
CN104851423B (zh) | 一种声音信息处理方法及装置 | |
CN106782625B (zh) | 音频处理方法和装置 | |
CN110232909A (zh) | 一种音频处理方法、装置、设备及可读存储介质 | |
CN113223542B (zh) | 音频的转换方法、装置、存储介质及电子设备 | |
KR20190119521A (ko) | 전자 장치 및 그 동작 방법 | |
CN109670025A (zh) | 对话管理方法及装置 | |
CN113113040B (zh) | 音频处理方法及装置、终端及存储介质 | |
CN115312068A (zh) | 语音控制方法、设备及存储介质 | |
CN105472092A (zh) | 通话控制方法、装置及移动终端 | |
CN113113036B (zh) | 音频信号处理方法及装置、终端及存储介质 | |
CN114093380B (zh) | 一种语音增强方法、电子设备、芯片系统及可读存储介质 | |
CN116129931B (zh) | 一种视听结合的语音分离模型搭建方法及语音分离方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7240445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |