CN109378013A - 一种语音降噪方法 - Google Patents
一种语音降噪方法 Download PDFInfo
- Publication number
- CN109378013A CN109378013A CN201811379108.0A CN201811379108A CN109378013A CN 109378013 A CN109378013 A CN 109378013A CN 201811379108 A CN201811379108 A CN 201811379108A CN 109378013 A CN109378013 A CN 109378013A
- Authority
- CN
- China
- Prior art keywords
- signal
- voice
- noisy speech
- speech sample
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 238000003062 neural network model Methods 0.000 claims abstract description 13
- 238000003672 processing method Methods 0.000 claims abstract description 8
- 238000001514 detection method Methods 0.000 claims description 8
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 abstract description 3
- 230000000694 effects Effects 0.000 abstract description 3
- 230000005236 sound signal Effects 0.000 abstract 1
- 238000011176 pooling Methods 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 2
- 101000659995 Homo sapiens Ribosomal L1 domain-containing protein 1 Proteins 0.000 description 1
- 102100035066 Ribosomal L1 domain-containing protein 1 Human genes 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0264—Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Noise Elimination (AREA)
Abstract
本发明公开了一种语音降噪方法,结合传统的信号处理方法和神经网络模型,二者取长补短,先使用传统的信号处理方法对音频信号进行处理,能够滤除一部分均匀的环境噪声,如白噪声,使得后续的神经网络模型能够主要处理其他噪声,如汽车鸣笛,其他人声音等,同时,本方法对带噪语音样本执行VAD操作,去掉了非必要的信号,能够一定程度训练和降噪的效果,解决了传统信号处理方法可扩展性差,不同的噪声环境需要不同的;神经网络虽然能够处理所有噪声情况,但是该方法非常依赖于训练样本的问题。
Description
技术领域
本发明涉及音频处理领域,特别涉及一种语音降噪方法。
背景技术
现实生活中,语音信号一般都带有噪声,在进一步处理信号前,往往要对信号进行降噪,随着信噪比的减小,降噪方法处理的效果也随之变差,也经常使得语音丢字或者波形失真。如何在低信噪比情况下,达到不错的降噪效果,是一个值得探究的问题。现在的语音降噪一般分为,传统信号处理方式:如最小均方算法、谱减法、维纳滤波法;以及神经网络方式,使用深度学习网络直接在时域处理,使用带噪声语音以及干净语音样本训练降噪模型,使用模型对输入语音进行降噪处理。
上述两种语音降噪分别的缺陷如下:传统信号处理方法可扩展性差,不同的噪声环境需要不同的;神经网络虽然能够处理所有噪声情况,但是该方法非常依赖于训练样本。
发明内容
本发明的目的在于:提供了一种语音降噪方法,解决了传统信号处理方法可扩展性差,不同的噪声环境需要不同的;神经网络虽然能够处理所有噪声情况,但是该方法非常依赖于训练样本的问题。
本发明采用的技术方案如下:
一种语音降噪方法,包括基于神经网络模型的深度降噪模型,还包括以下步骤:
A、对带噪语音信号进行预处理得到预处理过的语音信号;
B、使用语音端点检测技术VAD对步骤A中预处理过的语音信号进行端点检测,根据信号的短时能量和过零率,确定该段语音信号的有效起点和终点;
C、根据步骤B检测到语音信号的有效起点和终点,剪裁整个语音信号;
D、将步骤C中裁剪后的语音信号转换为预定格式的带噪语音信号;
E、将步骤D中预定格式的带噪语音信号切片成固定长度;
F、将步骤E中的带噪语音信号切片作为深度降噪模型的输入,通过深度降噪模型,得到干净的语音信号;
进一步的,所述步骤A中对带噪语音信号进行预处理的方法包括以下步骤:
A1、对输入的带噪语音信号进行加窗处理,将连续的语音信号拆分成语音帧;
A2、对每一帧语音信号进行快速傅里叶变换FFT,将时域信号转换到频域;
A3、使用传统的频域信号处理方法对每一帧频域信号进去噪处理;
A4、将步骤A3中进去噪处理结果进行反傅里叶变换,将频域信号转换为时域信号得到预处理后的语音帧;
A5、对步骤A4中得到预处理后的语音帧进行合成,得到的信号为预处理过的语音信号。
进一步的,所述步骤D中的预定格式包括预定频率、预定量化级和预定调制方法。
基于神经网络的深度降噪模型设计如图所示。共包含编码网络和解码网络。在编码网络,采用全卷积网络实现信号卷积处理,采用Pooling层实现信号缩放。在解码网络,采用反Pooling层和卷积层,实现信号的解码,其中反Pooling层用到解码网络中对应层的Pooling信息,最终输出增强或去噪语音。
进一步的,所述基于神经网络模型的深度降噪模型的训练包括以下步骤:
G1、采集带噪语音样本,将带噪语音样本依次执行步骤A、B、C后得到干净语音样本,根据带噪样本的VAD结果剪裁对应的干净语音样本;
G2、将步骤G1中的干净语音样本和带噪语音样本都执行步骤D、E得到干净语音样本切片和带噪语音样本切片;
G3、将上述处理好的带噪语音样本切片作为神经网络的输入,将对应干净语音样本切片作为神经网络输出,采用随机梯度下降法训练神经网络,得到基于神经网络模型的深度降噪模型。
进一步的,本方法用于个人或有限数量的用户时,步骤G1中的带噪语音样本采用对应用户的带噪语音样本。
进一步的,本方法用于个人或有限数量的用户时,步骤G1对应用户的干净语音样本,通过合成得到带噪语音样本。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1.本发明一种语音降噪方法,本方法对带噪信号先进行降噪预处理,能够滤除一部分均匀的环境噪声,如白噪声,使得后续的神经网络模型能够主要处理其他噪声,如汽车鸣笛,其他人声音等。
2.本发明一种语音降噪方法,本方法对带噪语音样本执行VAD操作,去掉了非必要的信号,能够缩短音频降噪处理的时间。
附图说明
本发明将通过例子并参照附图的方式说明,其中:
图1是本发明的流程图;
图2是本发明所采用的深度卷积降噪网络的示意图;
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
下面结合图1、图2对本发明作详细说明。
实施例1
一种语音降噪方法,包括基于神经网络模型的深度降噪模型,还包括以下步骤:
A、对带噪语音信号进行预处理得到预处理过的语音信号;
B、使用语音端点检测技术VAD对步骤A中预处理过的语音信号进行端点检测,根据信号的短时能量和过零率,确定该段语音信号的有效起点和终点;
C、根据步骤B检测到语音信号的有效起点和终点,剪裁整个语音信号;
D、将步骤C中裁剪后的语音信号转换为预定格式的带噪语音信号;
E、将步骤D中预定格式的带噪语音信号切片成固定长度;
F、将步骤E中的带噪语音信号切片作为深度降噪模型的输入,通过深度降噪模型,得到干净的语音信号;
实施例2
本实施例与实施例1的区别在于所述步骤A中对带噪语音信号进行预处理的方法包括以下步骤:
A1、对输入的带噪语音信号进行加窗处理,将连续的语音信号拆分成语音帧;
A2、对每一帧语音信号进行快速傅里叶变换FFT,将时域信号转换到频域;
A3、使用传统的频域信号处理方法对每一帧频域信号进去噪处理;
A4、将步骤A3中进去噪处理结果进行反傅里叶变换,将频域信号转换为时域信号得到预处理后的语音帧;
A5、对步骤A4中得到预处理后的语音帧进行合成,得到的信号为预处理过的语音信号。
进一步的,所述步骤D中的预定格式包括预定频率、预定量化级和预定调制方法。
进一步的,所述基于神经网络模型的深度降噪模型的训练包括以下步骤:
G1、采集带噪语音样本,将带噪语音样本依次执行步骤A、B、C后得到干净语音样本,根据带噪样本的VAD结果剪裁对应的干净语音样本;
G2、将步骤G1中的干净语音样本和带噪语音样本都执行步骤D、E得到干净语音样本切片和带噪语音样本切片;
G3、将上述处理好的带噪语音样本切片作为神经网络的输入,将对应干净语音样本切片作为神经网络输出,训练神经网络得到基于神经网络模型的深度降噪模型。
实施例3
本实施例与实施2的区别在于本方法用于个人或有限数量的用户时,步骤G1中的带噪语音样本采用对应用户的带噪语音样本。进一步的,本方法用于个人或有限数量的用户时,步骤G1对应用户的干净语音样本,通过合成得到带噪语音样本。
实施例4
一种语音降噪方法,包括基于神经网络模型的深度降噪模型,还包括以下步骤:
A、对带噪语音信号进行预处理得到预处理过的语音信号;
B、使用语音端点检测技术VAD对步骤A中预处理过的语音信号进行端点检测,根据信号的短时能量和过零率,确定该段语音信号的有效起点和终点;
C、根据步骤B检测到语音信号的有效起点和终点,剪裁整个语音信号;
D、将步骤C中裁剪后的语音信号转换为预定格式的带噪语音信号;该格式采用16000Hz,16位量化,单通道的脉冲编码调制;
E、将步骤D中预定格式的带噪语音信号切片成固定长度,如1s;
F、将步骤E中的带噪语音信号切片作为深度降噪模型的输入,通过深度降噪模型,得到干净的语音信号;
进一步的,所述步骤A中对带噪语音信号进行预处理的方法包括以下步骤:
A1、对输入的带噪语音信号进行加窗处理,将连续的语音信号拆分成语音帧;
A2、对每一帧语音信号进行快速傅里叶变换FFT,将时域信号转换到频域;
A3、使用最小均方算法LMS对每一帧频域信号进去噪处理;
A4、将步骤A3中进去噪处理结果进行反傅里叶变换,将频域信号转换为时域信号得到预处理后的语音帧;
A5、对步骤A4中得到预处理后的语音帧进行合成,得到的信号为预处理过的语音信号。
实施例5
本实施例是比较噪声信号和Wiener方法的增强信号的客观评估结果,结果如表1所示,各行分别代表不同的测度。
Metric | Noisy | Wiener | 本文方法 |
PESQ | 1.97 | 2.22 | 2.20 |
CSIG | 3.35 | 3.23 | 3.64 |
CBAK | 2.44 | 2.68 | 3.15 |
COVL | 2.63 | 2.67 | 2.96 |
SSNR | 1.68 | 5.07 | 8.29 |
表1
以上所述,仅为本发明的优选实施方式,但本发明的保护范围并不局限于此,任何熟悉本领域的技术人员在本发明所揭露的技术范围内,可不经过创造性劳动想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书所限定的保护范围为准。
Claims (6)
1.一种语音降噪方法,包括基于神经网络模型的深度降噪模型,其特征在于:还包括以下步骤:
A、对带噪语音信号进行预处理得到预处理过的语音信号;
B、使用语音端点检测技术VAD对步骤A中预处理过的语音信号进行端点检测,根据信号的短时能量和过零率,确定该段语音信号的有效起点和终点;
C、根据步骤B检测到语音信号的有效起点和终点,剪裁整个语音信号;
D、将步骤C中裁剪后的语音信号转换为预定格式的带噪语音信号;
E、将步骤D中预定格式的带噪语音信号切片成固定长度;
F、将步骤E中的带噪语音信号切片作为深度降噪模型的输入,通过深度降噪模型,得到干净的语音信号。
2.根据权利要求1所述的一种语音降噪方法,其特征在于:所述步骤A中对带噪语音信号进行预处理的方法包括以下步骤:
A1、对输入的带噪语音信号进行加窗处理,将连续的语音信号拆分成语音帧;
A2、对每一帧语音信号进行快速傅里叶变换FFT,将时域信号转换到频域;
A3、使用传统的频域信号处理方法对每一帧频域信号进去噪处理;
A4、将步骤A3中进去噪处理结果进行反傅里叶变换,将频域信号转换为时域信号得到预处理后的语音帧;
A5、对步骤A4中得到预处理后的语音帧进行合成,得到的信号为预处理过的语音信号。
3.根据权利要求1所述的一种语音降噪方法,其特征在于:所述步骤D中的预定格式包括预定频率、预定量化级和预定调制方法。
4.根据权利要求1所述的一种语音降噪方法,其特征在于:所述基于神经网络模型的深度降噪模型的训练包括以下步骤:
G1、采集带噪语音样本,将带噪语音样本依次执行步骤A、B、C后得到干净语音样本,根据带噪样本的VAD结果剪裁对应的干净语音样本;
G2、将步骤G1中的干净语音样本和带噪语音样本都执行步骤D、E得到干净语音样本切片和带噪语音样本切片;
G3、将上述处理好的带噪语音样本切片作为神经网络的输入,将对应干净语音样本切片作为神经网络输出,训练神经网络得到基于神经网络模型的深度降噪模型。
5.根据权利要求4所述的一种语音降噪方法,其特征在于:本方法用于个人或有限数量的用户时,步骤G1中的带噪语音样本采用对应用户的带噪语音样本。
6.根据权利要求4所述的一种语音降噪方法,其特征在于:本方法用于个人或有限数量的用户时,步骤G1对应用户的干净语音样本,通过合成得到带噪语音样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811379108.0A CN109378013B (zh) | 2018-11-19 | 2018-11-19 | 一种语音降噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811379108.0A CN109378013B (zh) | 2018-11-19 | 2018-11-19 | 一种语音降噪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109378013A true CN109378013A (zh) | 2019-02-22 |
CN109378013B CN109378013B (zh) | 2023-02-03 |
Family
ID=65389511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811379108.0A Active CN109378013B (zh) | 2018-11-19 | 2018-11-19 | 一种语音降噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109378013B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785865A (zh) * | 2019-03-07 | 2019-05-21 | 上海电力学院 | 基于短时能零比的广播语音与噪声检测的方法 |
CN110010144A (zh) * | 2019-04-24 | 2019-07-12 | 厦门亿联网络技术股份有限公司 | 语音信号增强方法及装置 |
CN110610715A (zh) * | 2019-07-29 | 2019-12-24 | 西安工程大学 | 一种基于cnn-dnn混合神经网络的降噪方法 |
CN111640448A (zh) * | 2020-06-03 | 2020-09-08 | 山西见声科技有限公司 | 基于语音增强的视听辅助方法及系统 |
CN111883164A (zh) * | 2020-06-22 | 2020-11-03 | 北京达佳互联信息技术有限公司 | 模型训练方法、装置、电子设备及存储介质 |
CN113113039A (zh) * | 2019-07-08 | 2021-07-13 | 广州欢聊网络科技有限公司 | 一种噪声抑制方法、装置和移动终端 |
CN113963713A (zh) * | 2021-10-11 | 2022-01-21 | 稿定(厦门)科技有限公司 | 音频降噪方法及装置 |
WO2022026948A1 (en) | 2020-07-31 | 2022-02-03 | Dolby Laboratories Licensing Corporation | Noise reduction using machine learning |
CN114650389A (zh) * | 2022-03-31 | 2022-06-21 | 浙江吉利控股集团有限公司 | 车载会议系统及其控制方法 |
CN116631427A (zh) * | 2023-07-24 | 2023-08-22 | 美智纵横科技有限责任公司 | 降噪模型的训练方法、降噪处理方法、装置及芯片 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105611477A (zh) * | 2015-12-27 | 2016-05-25 | 北京工业大学 | 数字助听器中深度和广度神经网络相结合的语音增强算法 |
US20170061978A1 (en) * | 2014-11-07 | 2017-03-02 | Shannon Campbell | Real-time method for implementing deep neural network based speech separation |
CN108172238A (zh) * | 2018-01-06 | 2018-06-15 | 广州音书科技有限公司 | 一种语音识别系统中基于多个卷积神经网络的语音增强算法 |
CN108172220A (zh) * | 2018-02-22 | 2018-06-15 | 成都启英泰伦科技有限公司 | 一种新型语音除噪方法 |
CN108335702A (zh) * | 2018-02-01 | 2018-07-27 | 福州大学 | 一种基于深度神经网络的音频降噪方法 |
-
2018
- 2018-11-19 CN CN201811379108.0A patent/CN109378013B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170061978A1 (en) * | 2014-11-07 | 2017-03-02 | Shannon Campbell | Real-time method for implementing deep neural network based speech separation |
CN105611477A (zh) * | 2015-12-27 | 2016-05-25 | 北京工业大学 | 数字助听器中深度和广度神经网络相结合的语音增强算法 |
CN108172238A (zh) * | 2018-01-06 | 2018-06-15 | 广州音书科技有限公司 | 一种语音识别系统中基于多个卷积神经网络的语音增强算法 |
CN108335702A (zh) * | 2018-02-01 | 2018-07-27 | 福州大学 | 一种基于深度神经网络的音频降噪方法 |
CN108172220A (zh) * | 2018-02-22 | 2018-06-15 | 成都启英泰伦科技有限公司 | 一种新型语音除噪方法 |
Non-Patent Citations (1)
Title |
---|
魏泉水: "基于深度神经网络的语音增强算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785865A (zh) * | 2019-03-07 | 2019-05-21 | 上海电力学院 | 基于短时能零比的广播语音与噪声检测的方法 |
CN110010144A (zh) * | 2019-04-24 | 2019-07-12 | 厦门亿联网络技术股份有限公司 | 语音信号增强方法及装置 |
CN113113039B (zh) * | 2019-07-08 | 2022-03-18 | 广州欢聊网络科技有限公司 | 一种噪声抑制方法、装置和移动终端 |
CN113113039A (zh) * | 2019-07-08 | 2021-07-13 | 广州欢聊网络科技有限公司 | 一种噪声抑制方法、装置和移动终端 |
CN110610715B (zh) * | 2019-07-29 | 2022-02-22 | 西安工程大学 | 一种基于cnn-dnn混合神经网络的降噪方法 |
CN110610715A (zh) * | 2019-07-29 | 2019-12-24 | 西安工程大学 | 一种基于cnn-dnn混合神经网络的降噪方法 |
CN111640448A (zh) * | 2020-06-03 | 2020-09-08 | 山西见声科技有限公司 | 基于语音增强的视听辅助方法及系统 |
CN111883164A (zh) * | 2020-06-22 | 2020-11-03 | 北京达佳互联信息技术有限公司 | 模型训练方法、装置、电子设备及存储介质 |
CN111883164B (zh) * | 2020-06-22 | 2023-11-03 | 北京达佳互联信息技术有限公司 | 模型训练方法、装置、电子设备及存储介质 |
WO2022026948A1 (en) | 2020-07-31 | 2022-02-03 | Dolby Laboratories Licensing Corporation | Noise reduction using machine learning |
EP4383256A2 (en) | 2020-07-31 | 2024-06-12 | Dolby Laboratories Licensing Corporation | Noise reduction using machine learning |
CN113963713A (zh) * | 2021-10-11 | 2022-01-21 | 稿定(厦门)科技有限公司 | 音频降噪方法及装置 |
CN114650389A (zh) * | 2022-03-31 | 2022-06-21 | 浙江吉利控股集团有限公司 | 车载会议系统及其控制方法 |
CN116631427A (zh) * | 2023-07-24 | 2023-08-22 | 美智纵横科技有限责任公司 | 降噪模型的训练方法、降噪处理方法、装置及芯片 |
CN116631427B (zh) * | 2023-07-24 | 2023-09-29 | 美智纵横科技有限责任公司 | 降噪模型的训练方法、降噪处理方法、装置及芯片 |
Also Published As
Publication number | Publication date |
---|---|
CN109378013B (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109378013A (zh) | 一种语音降噪方法 | |
CN103854662B (zh) | 基于多域联合估计的自适应语音检测方法 | |
CN103021420B (zh) | 一种基于相位调整和幅值补偿的多子带谱减法的语音增强方法 | |
CN105023572A (zh) | 一种含噪语音端点鲁棒检测方法 | |
JP5870476B2 (ja) | 雑音推定装置、雑音推定方法および雑音推定プログラム | |
CN109409206A (zh) | 一种基于一维小波变换的雷声去噪方法 | |
CN105489226A (zh) | 一种用于拾音器的多窗谱估计的维纳滤波语音增强方法 | |
CN102144258A (zh) | 促进确定信号边界频率的方法和装置 | |
CN103745729B (zh) | 一种音频去噪方法和系统 | |
CN103778921A (zh) | 消除雷达采集到的语音中的不均匀噪声的方法 | |
Nongpiur | Impulse noise removal in speech using wavelets | |
Wang et al. | Joint noise and mask aware training for DNN-based speech enhancement with sub-band features | |
EP2823584A2 (en) | Voice signal enhancement | |
Lei et al. | Speech enhancement for nonstationary noises by wavelet packet transform and adaptive noise estimation | |
CN102637438B (zh) | 一种语音滤波方法 | |
Taşmaz et al. | Speech enhancement based on undecimated wavelet packet-perceptual filterbanks and MMSE–STSA estimation in various noise environments | |
Gemello et al. | A modified Ephraim-Malah noise suppression rule for automatic speech recognition | |
Diether et al. | Efficient blind estimation of subband reverberation time from speech in non-diffuse environments | |
KR101327572B1 (ko) | 음성 존재 확률을 이용한 코드북 기반 음성 향상 방법 및 그 장치 | |
Abdulkhairov et al. | Improving the efficiency of noise resistance processing of speech signal | |
CN115497492A (zh) | 一种基于全卷积神经网络的实时语音增强方法 | |
Surendran et al. | Variance normalized perceptual subspace speech enhancement | |
TWI749547B (zh) | 應用深度學習的語音增強系統 | |
Kurpukdee et al. | Improving voice activity detection by using denoising-based techniques with convolutional lstm | |
Tran et al. | Speech enhancement using modified IMCRA and OMLSA methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |