JP7615510B2 - 音声強調方法、音声強調装置、電子機器、及びコンピュータプログラム - Google Patents
音声強調方法、音声強調装置、電子機器、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7615510B2 JP7615510B2 JP2023538919A JP2023538919A JP7615510B2 JP 7615510 B2 JP7615510 B2 JP 7615510B2 JP 2023538919 A JP2023538919 A JP 2023538919A JP 2023538919 A JP2023538919 A JP 2023538919A JP 7615510 B2 JP7615510 B2 JP 7615510B2
- Authority
- JP
- Japan
- Prior art keywords
- speech frame
- target speech
- glottal
- target
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0324—Details of processing therefor
- G10L21/034—Automatic adjustment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0364—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Telephonic Communication Services (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得するステップと、
前記ターゲット音声フレームの過去音声フレームに対応する利得に基づいて、前記ターゲット音声フレームに対して利得予測を行うことにより、前記ターゲット音声フレームに対応する利得を取得するステップと、
前記ターゲット音声フレームの周波数領域での表現に基づいて、励起信号予測を行うことにより、前記ターゲット音声フレームに対応する励起信号を取得するステップと、
前記ターゲット音声フレームに対応する声門パラメータ、前記ターゲット音声フレームに対応する利得、及び前記ターゲット音声フレームに対応する励起信号に対して合成処理を行うことにより、前記ターゲット音声フレームに対応する強調音声信号を取得するステップと、を含む。
ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得する声門パラメータ予測モジュールと、
前記ターゲット音声フレームの過去音声フレームに対応する利得に基づいて、前記ターゲット音声フレームに対して利得予測を行うことにより、前記ターゲット音声フレームに対応する利得を取得する利得予測モジュールと、
前記ターゲット音声フレームの周波数領域での表現に基づいて、励起信号予測を行うことにより、前記ターゲット音声フレームに対応する励起信号を取得する励起信号予測モジュールと、
前記ターゲット音声フレームに対応する声門パラメータ、前記ターゲット音声フレームに対応する利得、及び前記ターゲット音声フレームに対応する励起信号に対して合成処理を行うことにより、前記ターゲット音声フレームに対応する強調音声信号を取得する合成モジュールと、を含む。
(外1)
はLPC係数であり、pは声門フィルタの次数であり、zは声門フィルタの入力信号である。
(外2)
を含む。他の実施例において、上記の数式2における定数1もLPC係数とされてもよい。
G_pre(n)={G(n-1),G(n-2),G(n-3),G(n-4)}
と定義されてもよい。
ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得する声門パラメータ予測モジュール1210と、
前記ターゲット音声フレームの過去音声フレームに対応する利得に基づいて、前記ターゲット音声フレームに対して利得予測を行うことにより、前記ターゲット音声フレームに対応する利得を取得する利得予測モジュール1220と、
前記ターゲット音声フレームの周波数領域での表現に基づいて、励起信号予測を行うことにより、前記ターゲット音声フレームに対応する励起信号を取得する励起信号予測モジュール1230と、
前記ターゲット音声フレームに対応する声門パラメータ、前記ターゲット音声フレームに対応する利得、及び前記ターゲット音声フレームに対応する励起信号に対して合成処理を行うことにより、前記ターゲット音声フレームに対応する強調音声信号を取得する合成モジュール1240と、を含む。
Claims (14)
- コンピュータ機器が実行する音声強調方法であって、
ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得するステップと、
前記ターゲット音声フレームの過去音声フレームに対応する利得に基づいて、前記ターゲット音声フレームに対して利得予測を行うことにより、前記ターゲット音声フレームに対応する利得を取得するステップと、
前記ターゲット音声フレームの周波数領域での表現に基づいて、励起信号予測を行うことにより、前記ターゲット音声フレームに対応する励起信号を取得するステップと、
前記ターゲット音声フレームに対応する声門パラメータ、前記ターゲット音声フレームに対応する利得、及び前記ターゲット音声フレームに対応する励起信号に対して合成処理を行うことにより、前記ターゲット音声フレームに対応する強調音声信号を取得するステップと、
を含み、
前記ターゲット音声フレームに対応する声門パラメータ、前記ターゲット音声フレームに対応する利得、及び前記ターゲット音声フレームに対応する励起信号に対して合成処理を行うことにより、前記ターゲット音声フレームに対応する強調音声信号を取得するステップは、
前記ターゲット音声フレームに対応する声門パラメータに基づいて、声門フィルタを構築するステップと、
前記声門フィルタによって、前記ターゲット音声フレームに対応する励起信号をフィルタリングすることにより、第1音声信号を取得するステップと、
前記ターゲット音声フレームに対応する利得で、前記第1音声信号を増幅処理することにより、前記ターゲット音声フレームに対応する強調音声信号を取得するステップと、を含む、
音声強調方法。 - 前記ターゲット音声フレームには、複数のサンプルポイントが含まれ、前記声門フィルタは、K次(Kは正の整数)のフィルタであり、前記励起信号には、前記ターゲット音声フレームにおける複数のサンプルポイントのそれぞれに対応する励起信号値が含まれ、
前記声門フィルタによって、前記ターゲット音声フレームに対応する励起信号をフィルタリングすることにより、第1音声信号を取得するステップは、
前記ターゲット音声フレームにおける各サンプルポイントの前のK個のサンプルポイントに対応する励起信号値と前記K次のフィルタとを畳み込むことにより、前記ターゲット音声フレームにおける各サンプルポイントのターゲット信号値を取得するステップと、
前記ターゲット音声フレームにおける全てのサンプルポイントに対応するターゲット信号値を時間順に組み合わせることにより、前記第1音声信号を取得するステップと、を含む、
請求項1に記載の音声強調方法。 - 前記声門フィルタは、K次(Kは正の整数)のフィルタであり、前記声門パラメータには、K次の線スペクトル周波数パラメータ又はK次の線形予測係数が含まれる、
請求項1に記載の音声強調方法。 - 前記ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得するステップは、
前記ターゲット音声フレームの周波数領域での表現を第1ニューラルネットワークに入力するステップであって、前記第1ニューラルネットワークは、サンプル音声フレームの周波数領域での表現と、前記サンプル音声フレームに対応する声門パラメータとに基づいて訓練されたものである、ステップと、
前記第1ニューラルネットワークによって、前記ターゲット音声フレームの周波数領域での表現に基づいて、前記ターゲット音声フレームに対応する声門パラメータを出力するステップと、を含む、
請求項1に記載の音声強調方法。 - 前記ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得するステップは、
前記ターゲット音声フレームの過去音声フレームに対応する声門パラメータを参考として、前記ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得するステップを含む、
請求項1に記載の音声強調方法。 - 前記ターゲット音声フレームの過去音声フレームに対応する声門パラメータを参考として、前記ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得するステップは、
前記ターゲット音声フレームの周波数領域での表現と、前記ターゲット音声フレームの過去音声フレームに対応する声門パラメータとを第1ニューラルネットワークに入力するステップであって、前記第1ニューラルネットワークは、サンプル音声フレームの周波数領域での表現、前記サンプル音声フレームに対応する声門パラメータ、及び前記サンプル音声フレームの過去音声フレームに対応する声門パラメータによって訓練されたものである、ステップと、
前記第1ニューラルネットワークによって、前記ターゲット音声フレームの周波数領域での表現と、前記ターゲット音声フレームの過去音声フレームに対応する声門パラメータとに基づいて予測を行い、前記ターゲット音声フレームに対応する声門パラメータを出力するステップと、を含む、
請求項5に記載の音声強調方法。 - 前記ターゲット音声フレームの過去音声フレームに対応する利得に基づいて、前記ターゲット音声フレームに対して利得予測を行うことにより、前記ターゲット音声フレームに対応する利得を取得するステップは、
前記ターゲット音声フレームの過去音声フレームに対応する利得を第2ニューラルネットワークに入力するステップであって、前記第2ニューラルネットワークは、サンプル音声フレームに対応する利得と、前記サンプル音声フレームの過去音声フレームに対応する利得とに基づいて訓練されたものである、ステップと、
前記第2ニューラルネットワークによって、前記ターゲット音声フレームの過去音声フレームに対応する利得に基づいて、前記ターゲット音声フレームに対応する利得を出力するステップと、を含む、
請求項1に記載の音声強調方法。 - 前記ターゲット音声フレームの周波数領域での表現に基づいて、励起信号予測を行うことにより、前記ターゲット音声フレームに対応する励起信号を取得するステップは、
前記ターゲット音声フレームの周波数領域での表現を第3ニューラルネットワークに入力するステップであって、前記第3ニューラルネットワークは、サンプル音声フレームの周波数領域での表現と、前記サンプル音声フレームに対応する励起信号の周波数領域での表現とに基づいて訓練されたものである、ステップと、
前記第3ニューラルネットワークによって、前記ターゲット音声フレームの周波数領域での表現に基づいて、前記ターゲット音声フレームに対応する励起信号の周波数領域での表現を出力するステップと、を含む、
請求項1に記載の音声強調方法。 - 前記ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得するステップの前に、
前記ターゲット音声フレームの時間領域信号を取得するステップと、
前記ターゲット音声フレームの時間領域信号を時間周波数変換することにより、前記ターゲット音声フレームの周波数領域での表現を取得するステップと、をさらに含む、
請求項1に記載の音声強調方法。 - 前記ターゲット音声フレームの時間領域信号を取得するステップは、
第2音声信号を取得するステップであって、前記第2音声信号は、収集された音声信号、又は、符号化音声を復号化した音声信号である、ステップと、
前記第2音声信号をフレーム化することにより、前記ターゲット音声フレームの時間領域信号を取得するステップと、を含む、
請求項9に記載の音声強調方法。 - 前記ターゲット音声フレームに対応する声門パラメータ、前記ターゲット音声フレームに対応する利得、及び前記ターゲット音声フレームに対応する励起信号に対して合成処理を行うことにより、前記ターゲット音声フレームに対応する強調音声信号を取得するステップの後に、
前記ターゲット音声フレームに対応する強調音声信号の再生又は符号化伝送を行うステップをさらに含む、
請求項1に記載の音声強調方法。 - 音声強調装置であって、
ターゲット音声フレームの周波数領域での表現に基づいて、声門パラメータ予測を行うことにより、前記ターゲット音声フレームに対応する声門パラメータを取得する声門パラメータ予測モジュールと、
前記ターゲット音声フレームの過去音声フレームに対応する利得に基づいて、前記ターゲット音声フレームに対して利得予測を行うことにより、前記ターゲット音声フレームに対応する利得を取得する利得予測モジュールと、
前記ターゲット音声フレームの周波数領域での表現に基づいて、励起信号予測を行うことにより、前記ターゲット音声フレームに対応する励起信号を取得する励起信号予測モジュールと、
前記ターゲット音声フレームに対応する声門パラメータ、前記ターゲット音声フレームに対応する利得、及び前記ターゲット音声フレームに対応する励起信号に対して合成処理を行うことにより、前記ターゲット音声フレームに対応する強調音声信号を取得する合成モジュールと、
を含み、
前記合成モジュールは、
前記ターゲット音声フレームに対応する声門パラメータに基づいて、声門フィルタを構築し
前記声門フィルタによって、前記ターゲット音声フレームに対応する励起信号をフィルタリングすることにより、第1音声信号を取得し、及び
前記ターゲット音声フレームに対応する利得で、前記第1音声信号を増幅処理することにより、前記ターゲット音声フレームに対応する強調音声信号を取得することを実行する、
音声強調装置。 - 電子機器であって、
プロセッサと、
前記プロセッサによって実行されると、請求項1乃至11のいずれか1項に記載の音声強調方法を実現させるコンピュータ可読命令が記憶されているメモリと、
を備える電子機器。 - コンピュータに、請求項1乃至11のいずれか1項に記載の音声強調方法を実行させるためのプログラム。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202110171244.6 | 2021-02-08 | ||
| CN202110171244.6A CN113571079B (zh) | 2021-02-08 | 2021-02-08 | 语音增强方法、装置、设备及存储介质 |
| PCT/CN2022/074225 WO2022166738A1 (zh) | 2021-02-08 | 2022-01-27 | 语音增强方法、装置、设备及存储介质 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024502287A JP2024502287A (ja) | 2024-01-18 |
| JP7615510B2 true JP7615510B2 (ja) | 2025-01-17 |
Family
ID=78161158
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023538919A Active JP7615510B2 (ja) | 2021-02-08 | 2022-01-27 | 音声強調方法、音声強調装置、電子機器、及びコンピュータプログラム |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US12361959B2 (ja) |
| EP (1) | EP4283618A4 (ja) |
| JP (1) | JP7615510B2 (ja) |
| CN (1) | CN113571079B (ja) |
| WO (1) | WO2022166738A1 (ja) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113571079B (zh) * | 2021-02-08 | 2025-07-11 | 腾讯科技(深圳)有限公司 | 语音增强方法、装置、设备及存储介质 |
| CN115101088A (zh) * | 2022-06-08 | 2022-09-23 | 维沃移动通信有限公司 | 音频信号恢复方法、装置、电子设备及介质 |
| US20240331715A1 (en) * | 2023-04-03 | 2024-10-03 | Samsung Electronics Co., Ltd. | System and method for mask-based neural beamforming for multi-channel speech enhancement |
| CN116631419B (zh) * | 2023-05-29 | 2025-11-14 | 小米科技(武汉)有限公司 | 语音信号的处理方法、装置、电子设备和存储介质 |
| CN116721671A (zh) * | 2023-07-25 | 2023-09-08 | 迈普通信技术股份有限公司 | 语音增益控制方法、装置、语音控制设备及存储介质 |
| CN119068876B (zh) * | 2024-08-19 | 2025-05-02 | 美的集团(上海)有限公司 | 唤醒设备识别方法、装置、设备、存储介质及程序产品 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6304843B1 (en) | 1999-01-05 | 2001-10-16 | Motorola, Inc. | Method and apparatus for reconstructing a linear prediction filter excitation signal |
| WO2004040555A1 (ja) | 2002-10-31 | 2004-05-13 | Fujitsu Limited | 音声強調装置 |
| CN111554322A (zh) | 2020-05-15 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 一种语音处理方法、装置、设备及存储介质 |
Family Cites Families (35)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4586193A (en) * | 1982-12-08 | 1986-04-29 | Harris Corporation | Formant-based speech synthesizer |
| US5748838A (en) * | 1991-09-24 | 1998-05-05 | Sensimetrics Corporation | Method of speech representation and synthesis using a set of high level constrained parameters |
| NZ313705A (en) * | 1995-07-27 | 1998-11-25 | British Telecomm | Assessment of signal quality |
| EP1160764A1 (en) * | 2000-06-02 | 2001-12-05 | Sony France S.A. | Morphological categories for voice synthesis |
| KR100735246B1 (ko) * | 2005-09-12 | 2007-07-03 | 삼성전자주식회사 | 오디오 신호 전송 장치 및 방법 |
| CN101281744B (zh) * | 2007-04-04 | 2011-07-06 | 纽昂斯通讯公司 | 语音分析方法和装置以及语音合成方法和装置 |
| CN101616059B (zh) * | 2008-06-27 | 2011-09-14 | 华为技术有限公司 | 一种丢包隐藏的方法和装置 |
| US8762150B2 (en) * | 2010-09-16 | 2014-06-24 | Nuance Communications, Inc. | Using codec parameters for endpoint detection in speech recognition |
| CN105469805B (zh) * | 2012-03-01 | 2018-01-12 | 华为技术有限公司 | 一种语音频信号处理方法和装置 |
| GB2508417B (en) * | 2012-11-30 | 2017-02-08 | Toshiba Res Europe Ltd | A speech processing system |
| SG11201510510PA (en) * | 2013-06-21 | 2016-01-28 | Fraunhofer Ges Forschung | Apparatus and method for improved signal fade out in different domains during error concealment |
| US20150149157A1 (en) * | 2013-11-22 | 2015-05-28 | Qualcomm Incorporated | Frequency domain gain shape estimation |
| US10014007B2 (en) * | 2014-05-28 | 2018-07-03 | Interactive Intelligence, Inc. | Method for forming the excitation signal for a glottal pulse model based parametric speech synthesis system |
| US10255903B2 (en) * | 2014-05-28 | 2019-04-09 | Interactive Intelligence Group, Inc. | Method for forming the excitation signal for a glottal pulse model based parametric speech synthesis system |
| US20160343366A1 (en) * | 2015-05-19 | 2016-11-24 | Google Inc. | Speech synthesis model selection |
| US10186251B1 (en) * | 2015-08-06 | 2019-01-22 | Oben, Inc. | Voice conversion using deep neural network with intermediate voice training |
| CA3004700C (en) * | 2015-10-06 | 2021-03-23 | Interactive Intelligence Group, Inc. | Method for forming the excitation signal for a glottal pulse model based parametric speech synthesis system |
| CN107248411B (zh) * | 2016-03-29 | 2020-08-07 | 华为技术有限公司 | 丢帧补偿处理方法和装置 |
| US10657437B2 (en) * | 2016-08-18 | 2020-05-19 | International Business Machines Corporation | Training of front-end and back-end neural networks |
| US20180330713A1 (en) * | 2017-05-14 | 2018-11-15 | International Business Machines Corporation | Text-to-Speech Synthesis with Dynamically-Created Virtual Voices |
| WO2018209556A1 (en) * | 2017-05-16 | 2018-11-22 | Beijing Didi Infinity Technology And Development Co., Ltd. | System and method for speech synthesis |
| US10381020B2 (en) * | 2017-06-16 | 2019-08-13 | Apple Inc. | Speech model-based neural network-assisted signal enhancement |
| WO2019195619A1 (en) * | 2018-04-04 | 2019-10-10 | Pindrop Security, Inc. | Voice modification detection using physical models of speech production |
| US10650806B2 (en) * | 2018-04-23 | 2020-05-12 | Cerence Operating Company | System and method for discriminative training of regression deep neural networks |
| US10741192B2 (en) * | 2018-05-07 | 2020-08-11 | Qualcomm Incorporated | Split-domain speech signal enhancement |
| CN109065067B (zh) * | 2018-08-16 | 2022-12-06 | 福建星网智慧科技有限公司 | 一种基于神经网络模型的会议终端语音降噪方法 |
| CN110018808A (zh) | 2018-12-25 | 2019-07-16 | 瑞声科技(新加坡)有限公司 | 一种音质调整方法及装置 |
| CN111739544B (zh) * | 2019-03-25 | 2023-10-20 | Oppo广东移动通信有限公司 | 语音处理方法、装置、电子设备及存储介质 |
| CN111554309B (zh) * | 2020-05-15 | 2024-11-22 | 腾讯科技(深圳)有限公司 | 一种语音处理方法、装置、设备及存储介质 |
| CN111554323B (zh) * | 2020-05-15 | 2025-02-18 | 腾讯科技(深圳)有限公司 | 一种语音处理方法、装置、设备及存储介质 |
| CN111554308B (zh) * | 2020-05-15 | 2024-10-15 | 腾讯科技(深圳)有限公司 | 一种语音处理方法、装置、设备及存储介质 |
| US12433530B2 (en) * | 2020-07-10 | 2025-10-07 | EMOCOG Co., Ltd. | Voice characteristic-based method and device for predicting alzheimer's disease |
| CN113571080B (zh) * | 2021-02-08 | 2024-11-08 | 腾讯科技(深圳)有限公司 | 语音增强方法、装置、设备及存储介质 |
| CN113571079B (zh) * | 2021-02-08 | 2025-07-11 | 腾讯科技(深圳)有限公司 | 语音增强方法、装置、设备及存储介质 |
| CN113763973A (zh) * | 2021-04-30 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 音频信号增强方法、装置、计算机设备和存储介质 |
-
2021
- 2021-02-08 CN CN202110171244.6A patent/CN113571079B/zh active Active
-
2022
- 2022-01-27 JP JP2023538919A patent/JP7615510B2/ja active Active
- 2022-01-27 EP EP22749017.4A patent/EP4283618A4/en active Pending
- 2022-01-27 WO PCT/CN2022/074225 patent/WO2022166738A1/zh not_active Ceased
- 2022-10-31 US US17/977,772 patent/US12361959B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6304843B1 (en) | 1999-01-05 | 2001-10-16 | Motorola, Inc. | Method and apparatus for reconstructing a linear prediction filter excitation signal |
| WO2004040555A1 (ja) | 2002-10-31 | 2004-05-13 | Fujitsu Limited | 音声強調装置 |
| CN111554322A (zh) | 2020-05-15 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 一种语音处理方法、装置、设备及存储介质 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP4283618A4 (en) | 2024-06-19 |
| CN113571079B (zh) | 2025-07-11 |
| CN113571079A (zh) | 2021-10-29 |
| WO2022166738A1 (zh) | 2022-08-11 |
| US20230050519A1 (en) | 2023-02-16 |
| US12361959B2 (en) | 2025-07-15 |
| JP2024502287A (ja) | 2024-01-18 |
| EP4283618A1 (en) | 2023-11-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7615510B2 (ja) | 音声強調方法、音声強調装置、電子機器、及びコンピュータプログラム | |
| JP7636088B2 (ja) | 音声強調方法、装置、機器及びコンピュータプログラム | |
| CN113140225A (zh) | 语音信号处理方法、装置、电子设备及存储介质 | |
| CN114333892B (zh) | 一种语音处理方法、装置、电子设备和可读介质 | |
| CN114333893B (zh) | 一种语音处理方法、装置、电子设备和可读介质 | |
| CN114333891B (zh) | 一种语音处理方法、装置、电子设备和可读介质 | |
| WO2024055751A1 (zh) | 音频数据处理方法、装置、设备、存储介质及程序产品 | |
| CN111326166B (zh) | 语音处理方法及装置、计算机可读存储介质、电子设备 | |
| CN113571081B (zh) | 语音增强方法、装置、设备及存储介质 | |
| CN116110424B (zh) | 一种语音带宽扩展方法及相关装置 | |
| HK40052887A (en) | Speech enhancement method, device, equipment and storage medium | |
| CN113707163A (zh) | 语音处理方法及其装置和模型训练方法及其装置 | |
| HK40052886A (en) | Speech enhancement method, device, equipment and storage medium | |
| HK40052885B (zh) | 语音增强方法、装置、设备及存储介质 | |
| HK40052885A (en) | Speech enhancement method, device, equipment and storage medium | |
| HK40071037A (en) | Voice processing method and apparatus, electronic device, and readable medium | |
| HK40070826A (en) | Voice processing method and apparatus, electronic device, and readable medium | |
| HK40052886B (zh) | 语音增强方法、装置、设备及存储介质 | |
| HK40071035A (zh) | 一种语音处理方法、装置、电子设备和可读介质 | |
| HK40071037B (zh) | 一种语音处理方法、装置、电子设备和可读介质 | |
| HK40071035B (zh) | 一种语音处理方法、装置、电子设备和可读介质 | |
| HK40070826B (zh) | 一种语音处理方法、装置、电子设备和可读介质 | |
| Nisa et al. | A Mathematical Approach to Speech Enhancement for Speech Recognition and Speaker Identification Systems | |
| HK40046825B (zh) | 语音信号处理方法、装置、电子设备及存储介质 | |
| WO2025248322A1 (en) | Audio processing method, model training method and apparatuses |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230706 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240816 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240903 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241113 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241203 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241212 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7615510 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |