CN109378013A - 一种语音降噪方法 - Google Patents

一种语音降噪方法 Download PDF

Info

Publication number
CN109378013A
CN109378013A CN201811379108.0A CN201811379108A CN109378013A CN 109378013 A CN109378013 A CN 109378013A CN 201811379108 A CN201811379108 A CN 201811379108A CN 109378013 A CN109378013 A CN 109378013A
Authority
CN
China
Prior art keywords
signal
voice
noisy speech
speech sample
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811379108.0A
Other languages
English (en)
Other versions
CN109378013B (zh
Inventor
郝小龙
韩斌
樊强
彭启伟
薛依铭
王学广
贾政
张铁勋
崔漾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NARI Group Corp
Nari Information and Communication Technology Co
Original Assignee
NARI Group Corp
Nari Information and Communication Technology Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NARI Group Corp, Nari Information and Communication Technology Co filed Critical NARI Group Corp
Priority to CN201811379108.0A priority Critical patent/CN109378013B/zh
Publication of CN109378013A publication Critical patent/CN109378013A/zh
Application granted granted Critical
Publication of CN109378013B publication Critical patent/CN109378013B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0264Noise filtering characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Noise Elimination (AREA)

Abstract

本发明公开了一种语音降噪方法,结合传统的信号处理方法和神经网络模型,二者取长补短,先使用传统的信号处理方法对音频信号进行处理,能够滤除一部分均匀的环境噪声,如白噪声,使得后续的神经网络模型能够主要处理其他噪声,如汽车鸣笛,其他人声音等,同时,本方法对带噪语音样本执行VAD操作,去掉了非必要的信号,能够一定程度训练和降噪的效果,解决了传统信号处理方法可扩展性差,不同的噪声环境需要不同的;神经网络虽然能够处理所有噪声情况,但是该方法非常依赖于训练样本的问题。

Description

一种语音降噪方法
技术领域
本发明涉及音频处理领域,特别涉及一种语音降噪方法。
背景技术
现实生活中,语音信号一般都带有噪声,在进一步处理信号前,往往要对信号进行降噪,随着信噪比的减小,降噪方法处理的效果也随之变差,也经常使得语音丢字或者波形失真。如何在低信噪比情况下,达到不错的降噪效果,是一个值得探究的问题。现在的语音降噪一般分为,传统信号处理方式:如最小均方算法、谱减法、维纳滤波法;以及神经网络方式,使用深度学习网络直接在时域处理,使用带噪声语音以及干净语音样本训练降噪模型,使用模型对输入语音进行降噪处理。
上述两种语音降噪分别的缺陷如下:传统信号处理方法可扩展性差,不同的噪声环境需要不同的;神经网络虽然能够处理所有噪声情况,但是该方法非常依赖于训练样本。
发明内容
本发明的目的在于:提供了一种语音降噪方法,解决了传统信号处理方法可扩展性差,不同的噪声环境需要不同的;神经网络虽然能够处理所有噪声情况,但是该方法非常依赖于训练样本的问题。
本发明采用的技术方案如下:
一种语音降噪方法,包括基于神经网络模型的深度降噪模型,还包括以下步骤:
A、对带噪语音信号进行预处理得到预处理过的语音信号;
B、使用语音端点检测技术VAD对步骤A中预处理过的语音信号进行端点检测,根据信号的短时能量和过零率,确定该段语音信号的有效起点和终点;
C、根据步骤B检测到语音信号的有效起点和终点,剪裁整个语音信号;
D、将步骤C中裁剪后的语音信号转换为预定格式的带噪语音信号;
E、将步骤D中预定格式的带噪语音信号切片成固定长度;
F、将步骤E中的带噪语音信号切片作为深度降噪模型的输入,通过深度降噪模型,得到干净的语音信号;
进一步的,所述步骤A中对带噪语音信号进行预处理的方法包括以下步骤:
A1、对输入的带噪语音信号进行加窗处理,将连续的语音信号拆分成语音帧;
A2、对每一帧语音信号进行快速傅里叶变换FFT,将时域信号转换到频域;
A3、使用传统的频域信号处理方法对每一帧频域信号进去噪处理;
A4、将步骤A3中进去噪处理结果进行反傅里叶变换,将频域信号转换为时域信号得到预处理后的语音帧;
A5、对步骤A4中得到预处理后的语音帧进行合成,得到的信号为预处理过的语音信号。
进一步的,所述步骤D中的预定格式包括预定频率、预定量化级和预定调制方法。
基于神经网络的深度降噪模型设计如图所示。共包含编码网络和解码网络。在编码网络,采用全卷积网络实现信号卷积处理,采用Pooling层实现信号缩放。在解码网络,采用反Pooling层和卷积层,实现信号的解码,其中反Pooling层用到解码网络中对应层的Pooling信息,最终输出增强或去噪语音。
进一步的,所述基于神经网络模型的深度降噪模型的训练包括以下步骤:
G1、采集带噪语音样本,将带噪语音样本依次执行步骤A、B、C后得到干净语音样本,根据带噪样本的VAD结果剪裁对应的干净语音样本;
G2、将步骤G1中的干净语音样本和带噪语音样本都执行步骤D、E得到干净语音样本切片和带噪语音样本切片;
G3、将上述处理好的带噪语音样本切片作为神经网络的输入,将对应干净语音样本切片作为神经网络输出,采用随机梯度下降法训练神经网络,得到基于神经网络模型的深度降噪模型。
进一步的,本方法用于个人或有限数量的用户时,步骤G1中的带噪语音样本采用对应用户的带噪语音样本。
进一步的,本方法用于个人或有限数量的用户时,步骤G1对应用户的干净语音样本,通过合成得到带噪语音样本。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1.本发明一种语音降噪方法,本方法对带噪信号先进行降噪预处理,能够滤除一部分均匀的环境噪声,如白噪声,使得后续的神经网络模型能够主要处理其他噪声,如汽车鸣笛,其他人声音等。
2.本发明一种语音降噪方法,本方法对带噪语音样本执行VAD操作,去掉了非必要的信号,能够缩短音频降噪处理的时间。
附图说明
本发明将通过例子并参照附图的方式说明,其中:
图1是本发明的流程图;
图2是本发明所采用的深度卷积降噪网络的示意图;
具体实施方式
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。
下面结合图1、图2对本发明作详细说明。
实施例1
一种语音降噪方法,包括基于神经网络模型的深度降噪模型,还包括以下步骤:
A、对带噪语音信号进行预处理得到预处理过的语音信号;
B、使用语音端点检测技术VAD对步骤A中预处理过的语音信号进行端点检测,根据信号的短时能量和过零率,确定该段语音信号的有效起点和终点;
C、根据步骤B检测到语音信号的有效起点和终点,剪裁整个语音信号;
D、将步骤C中裁剪后的语音信号转换为预定格式的带噪语音信号;
E、将步骤D中预定格式的带噪语音信号切片成固定长度;
F、将步骤E中的带噪语音信号切片作为深度降噪模型的输入,通过深度降噪模型,得到干净的语音信号;
实施例2
本实施例与实施例1的区别在于所述步骤A中对带噪语音信号进行预处理的方法包括以下步骤:
A1、对输入的带噪语音信号进行加窗处理,将连续的语音信号拆分成语音帧;
A2、对每一帧语音信号进行快速傅里叶变换FFT,将时域信号转换到频域;
A3、使用传统的频域信号处理方法对每一帧频域信号进去噪处理;
A4、将步骤A3中进去噪处理结果进行反傅里叶变换,将频域信号转换为时域信号得到预处理后的语音帧;
A5、对步骤A4中得到预处理后的语音帧进行合成,得到的信号为预处理过的语音信号。
进一步的,所述步骤D中的预定格式包括预定频率、预定量化级和预定调制方法。
进一步的,所述基于神经网络模型的深度降噪模型的训练包括以下步骤:
G1、采集带噪语音样本,将带噪语音样本依次执行步骤A、B、C后得到干净语音样本,根据带噪样本的VAD结果剪裁对应的干净语音样本;
G2、将步骤G1中的干净语音样本和带噪语音样本都执行步骤D、E得到干净语音样本切片和带噪语音样本切片;
G3、将上述处理好的带噪语音样本切片作为神经网络的输入,将对应干净语音样本切片作为神经网络输出,训练神经网络得到基于神经网络模型的深度降噪模型。
实施例3
本实施例与实施2的区别在于本方法用于个人或有限数量的用户时,步骤G1中的带噪语音样本采用对应用户的带噪语音样本。进一步的,本方法用于个人或有限数量的用户时,步骤G1对应用户的干净语音样本,通过合成得到带噪语音样本。
实施例4
一种语音降噪方法,包括基于神经网络模型的深度降噪模型,还包括以下步骤:
A、对带噪语音信号进行预处理得到预处理过的语音信号;
B、使用语音端点检测技术VAD对步骤A中预处理过的语音信号进行端点检测,根据信号的短时能量和过零率,确定该段语音信号的有效起点和终点;
C、根据步骤B检测到语音信号的有效起点和终点,剪裁整个语音信号;
D、将步骤C中裁剪后的语音信号转换为预定格式的带噪语音信号;该格式采用16000Hz,16位量化,单通道的脉冲编码调制;
E、将步骤D中预定格式的带噪语音信号切片成固定长度,如1s;
F、将步骤E中的带噪语音信号切片作为深度降噪模型的输入,通过深度降噪模型,得到干净的语音信号;
进一步的,所述步骤A中对带噪语音信号进行预处理的方法包括以下步骤:
A1、对输入的带噪语音信号进行加窗处理,将连续的语音信号拆分成语音帧;
A2、对每一帧语音信号进行快速傅里叶变换FFT,将时域信号转换到频域;
A3、使用最小均方算法LMS对每一帧频域信号进去噪处理;
A4、将步骤A3中进去噪处理结果进行反傅里叶变换,将频域信号转换为时域信号得到预处理后的语音帧;
A5、对步骤A4中得到预处理后的语音帧进行合成,得到的信号为预处理过的语音信号。
实施例5
本实施例是比较噪声信号和Wiener方法的增强信号的客观评估结果,结果如表1所示,各行分别代表不同的测度。
Metric Noisy Wiener 本文方法
PESQ 1.97 2.22 2.20
CSIG 3.35 3.23 3.64
CBAK 2.44 2.68 3.15
COVL 2.63 2.67 2.96
SSNR 1.68 5.07 8.29
表1
以上所述,仅为本发明的优选实施方式,但本发明的保护范围并不局限于此,任何熟悉本领域的技术人员在本发明所揭露的技术范围内,可不经过创造性劳动想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书所限定的保护范围为准。

Claims (6)

1.一种语音降噪方法,包括基于神经网络模型的深度降噪模型,其特征在于:还包括以下步骤:
A、对带噪语音信号进行预处理得到预处理过的语音信号;
B、使用语音端点检测技术VAD对步骤A中预处理过的语音信号进行端点检测,根据信号的短时能量和过零率,确定该段语音信号的有效起点和终点;
C、根据步骤B检测到语音信号的有效起点和终点,剪裁整个语音信号;
D、将步骤C中裁剪后的语音信号转换为预定格式的带噪语音信号;
E、将步骤D中预定格式的带噪语音信号切片成固定长度;
F、将步骤E中的带噪语音信号切片作为深度降噪模型的输入,通过深度降噪模型,得到干净的语音信号。
2.根据权利要求1所述的一种语音降噪方法,其特征在于:所述步骤A中对带噪语音信号进行预处理的方法包括以下步骤:
A1、对输入的带噪语音信号进行加窗处理,将连续的语音信号拆分成语音帧;
A2、对每一帧语音信号进行快速傅里叶变换FFT,将时域信号转换到频域;
A3、使用传统的频域信号处理方法对每一帧频域信号进去噪处理;
A4、将步骤A3中进去噪处理结果进行反傅里叶变换,将频域信号转换为时域信号得到预处理后的语音帧;
A5、对步骤A4中得到预处理后的语音帧进行合成,得到的信号为预处理过的语音信号。
3.根据权利要求1所述的一种语音降噪方法,其特征在于:所述步骤D中的预定格式包括预定频率、预定量化级和预定调制方法。
4.根据权利要求1所述的一种语音降噪方法,其特征在于:所述基于神经网络模型的深度降噪模型的训练包括以下步骤:
G1、采集带噪语音样本,将带噪语音样本依次执行步骤A、B、C后得到干净语音样本,根据带噪样本的VAD结果剪裁对应的干净语音样本;
G2、将步骤G1中的干净语音样本和带噪语音样本都执行步骤D、E得到干净语音样本切片和带噪语音样本切片;
G3、将上述处理好的带噪语音样本切片作为神经网络的输入,将对应干净语音样本切片作为神经网络输出,训练神经网络得到基于神经网络模型的深度降噪模型。
5.根据权利要求4所述的一种语音降噪方法,其特征在于:本方法用于个人或有限数量的用户时,步骤G1中的带噪语音样本采用对应用户的带噪语音样本。
6.根据权利要求4所述的一种语音降噪方法,其特征在于:本方法用于个人或有限数量的用户时,步骤G1对应用户的干净语音样本,通过合成得到带噪语音样本。
CN201811379108.0A 2018-11-19 2018-11-19 一种语音降噪方法 Active CN109378013B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811379108.0A CN109378013B (zh) 2018-11-19 2018-11-19 一种语音降噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811379108.0A CN109378013B (zh) 2018-11-19 2018-11-19 一种语音降噪方法

Publications (2)

Publication Number Publication Date
CN109378013A true CN109378013A (zh) 2019-02-22
CN109378013B CN109378013B (zh) 2023-02-03

Family

ID=65389511

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811379108.0A Active CN109378013B (zh) 2018-11-19 2018-11-19 一种语音降噪方法

Country Status (1)

Country Link
CN (1) CN109378013B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785865A (zh) * 2019-03-07 2019-05-21 上海电力学院 基于短时能零比的广播语音与噪声检测的方法
CN110010144A (zh) * 2019-04-24 2019-07-12 厦门亿联网络技术股份有限公司 语音信号增强方法及装置
CN110610715A (zh) * 2019-07-29 2019-12-24 西安工程大学 一种基于cnn-dnn混合神经网络的降噪方法
CN111640448A (zh) * 2020-06-03 2020-09-08 山西见声科技有限公司 基于语音增强的视听辅助方法及系统
CN111883164A (zh) * 2020-06-22 2020-11-03 北京达佳互联信息技术有限公司 模型训练方法、装置、电子设备及存储介质
CN113113039A (zh) * 2019-07-08 2021-07-13 广州欢聊网络科技有限公司 一种噪声抑制方法、装置和移动终端
CN113963713A (zh) * 2021-10-11 2022-01-21 稿定(厦门)科技有限公司 音频降噪方法及装置
WO2022026948A1 (en) 2020-07-31 2022-02-03 Dolby Laboratories Licensing Corporation Noise reduction using machine learning
CN114650389A (zh) * 2022-03-31 2022-06-21 浙江吉利控股集团有限公司 车载会议系统及其控制方法
CN116631427A (zh) * 2023-07-24 2023-08-22 美智纵横科技有限责任公司 降噪模型的训练方法、降噪处理方法、装置及芯片

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105611477A (zh) * 2015-12-27 2016-05-25 北京工业大学 数字助听器中深度和广度神经网络相结合的语音增强算法
US20170061978A1 (en) * 2014-11-07 2017-03-02 Shannon Campbell Real-time method for implementing deep neural network based speech separation
CN108172238A (zh) * 2018-01-06 2018-06-15 广州音书科技有限公司 一种语音识别系统中基于多个卷积神经网络的语音增强算法
CN108172220A (zh) * 2018-02-22 2018-06-15 成都启英泰伦科技有限公司 一种新型语音除噪方法
CN108335702A (zh) * 2018-02-01 2018-07-27 福州大学 一种基于深度神经网络的音频降噪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170061978A1 (en) * 2014-11-07 2017-03-02 Shannon Campbell Real-time method for implementing deep neural network based speech separation
CN105611477A (zh) * 2015-12-27 2016-05-25 北京工业大学 数字助听器中深度和广度神经网络相结合的语音增强算法
CN108172238A (zh) * 2018-01-06 2018-06-15 广州音书科技有限公司 一种语音识别系统中基于多个卷积神经网络的语音增强算法
CN108335702A (zh) * 2018-02-01 2018-07-27 福州大学 一种基于深度神经网络的音频降噪方法
CN108172220A (zh) * 2018-02-22 2018-06-15 成都启英泰伦科技有限公司 一种新型语音除噪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
魏泉水: "基于深度神经网络的语音增强算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109785865A (zh) * 2019-03-07 2019-05-21 上海电力学院 基于短时能零比的广播语音与噪声检测的方法
CN110010144A (zh) * 2019-04-24 2019-07-12 厦门亿联网络技术股份有限公司 语音信号增强方法及装置
CN113113039B (zh) * 2019-07-08 2022-03-18 广州欢聊网络科技有限公司 一种噪声抑制方法、装置和移动终端
CN113113039A (zh) * 2019-07-08 2021-07-13 广州欢聊网络科技有限公司 一种噪声抑制方法、装置和移动终端
CN110610715B (zh) * 2019-07-29 2022-02-22 西安工程大学 一种基于cnn-dnn混合神经网络的降噪方法
CN110610715A (zh) * 2019-07-29 2019-12-24 西安工程大学 一种基于cnn-dnn混合神经网络的降噪方法
CN111640448A (zh) * 2020-06-03 2020-09-08 山西见声科技有限公司 基于语音增强的视听辅助方法及系统
CN111883164A (zh) * 2020-06-22 2020-11-03 北京达佳互联信息技术有限公司 模型训练方法、装置、电子设备及存储介质
CN111883164B (zh) * 2020-06-22 2023-11-03 北京达佳互联信息技术有限公司 模型训练方法、装置、电子设备及存储介质
WO2022026948A1 (en) 2020-07-31 2022-02-03 Dolby Laboratories Licensing Corporation Noise reduction using machine learning
EP4383256A2 (en) 2020-07-31 2024-06-12 Dolby Laboratories Licensing Corporation Noise reduction using machine learning
CN113963713A (zh) * 2021-10-11 2022-01-21 稿定(厦门)科技有限公司 音频降噪方法及装置
CN114650389A (zh) * 2022-03-31 2022-06-21 浙江吉利控股集团有限公司 车载会议系统及其控制方法
CN116631427A (zh) * 2023-07-24 2023-08-22 美智纵横科技有限责任公司 降噪模型的训练方法、降噪处理方法、装置及芯片
CN116631427B (zh) * 2023-07-24 2023-09-29 美智纵横科技有限责任公司 降噪模型的训练方法、降噪处理方法、装置及芯片

Also Published As

Publication number Publication date
CN109378013B (zh) 2023-02-03

Similar Documents

Publication Publication Date Title
CN109378013A (zh) 一种语音降噪方法
CN103854662B (zh) 基于多域联合估计的自适应语音检测方法
CN103021420B (zh) 一种基于相位调整和幅值补偿的多子带谱减法的语音增强方法
CN105023572A (zh) 一种含噪语音端点鲁棒检测方法
JP5870476B2 (ja) 雑音推定装置、雑音推定方法および雑音推定プログラム
CN109409206A (zh) 一种基于一维小波变换的雷声去噪方法
CN105489226A (zh) 一种用于拾音器的多窗谱估计的维纳滤波语音增强方法
CN102144258A (zh) 促进确定信号边界频率的方法和装置
CN103745729B (zh) 一种音频去噪方法和系统
CN103778921A (zh) 消除雷达采集到的语音中的不均匀噪声的方法
Nongpiur Impulse noise removal in speech using wavelets
Wang et al. Joint noise and mask aware training for DNN-based speech enhancement with sub-band features
EP2823584A2 (en) Voice signal enhancement
Lei et al. Speech enhancement for nonstationary noises by wavelet packet transform and adaptive noise estimation
CN102637438B (zh) 一种语音滤波方法
Taşmaz et al. Speech enhancement based on undecimated wavelet packet-perceptual filterbanks and MMSE–STSA estimation in various noise environments
Gemello et al. A modified Ephraim-Malah noise suppression rule for automatic speech recognition
Diether et al. Efficient blind estimation of subband reverberation time from speech in non-diffuse environments
KR101327572B1 (ko) 음성 존재 확률을 이용한 코드북 기반 음성 향상 방법 및 그 장치
Abdulkhairov et al. Improving the efficiency of noise resistance processing of speech signal
CN115497492A (zh) 一种基于全卷积神经网络的实时语音增强方法
Surendran et al. Variance normalized perceptual subspace speech enhancement
TWI749547B (zh) 應用深度學習的語音增強系統
Kurpukdee et al. Improving voice activity detection by using denoising-based techniques with convolutional lstm
Tran et al. Speech enhancement using modified IMCRA and OMLSA methods

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant