CN109859767A - 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质 - Google Patents

一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质 Download PDF

Info

Publication number
CN109859767A
CN109859767A CN201910168122.4A CN201910168122A CN109859767A CN 109859767 A CN109859767 A CN 109859767A CN 201910168122 A CN201910168122 A CN 201910168122A CN 109859767 A CN109859767 A CN 109859767A
Authority
CN
China
Prior art keywords
neural network
noise
frame
adaption
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910168122.4A
Other languages
English (en)
Other versions
CN109859767B (zh
Inventor
张禄
王明江
张啟权
轩晓光
张馨
孙凤娇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN201910168122.4A priority Critical patent/CN109859767B/zh
Publication of CN109859767A publication Critical patent/CN109859767A/zh
Priority to PCT/CN2019/117075 priority patent/WO2020177371A1/zh
Application granted granted Critical
Publication of CN109859767B publication Critical patent/CN109859767B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception

Abstract

本发明提供了一种用于数字助听器的环境自适应神经网络降噪方法,包括依次执行如下步骤:预处理步骤:接收带噪语音信号,带噪语音信号经过采样分帧后传输至声学场景识别模块;场景识别步骤:采用声学场景识别模块对所处的声学场景进行识别,然后由声学场景识别模块自主的选择神经网络降噪模块中不同的神经网络模型进行发送;神经网络降噪步骤。本发明的有益效果是:1.可以保证语音处理的实时性,只进行神经网络的前向传播,运算量不高;2.可以对所处的声学场景进行识别,然后自主地选择不同的神经网络模型,对不同的场景下的噪声进行针对性地降噪处理,能保证更好的语音质量和语音可懂度;3.可以有效地抑制瞬时噪声。

Description

一种用于数字助听器的环境自适应神经网络降噪方法、系统 及存储介质
技术领域
本发明涉及软件技术领域,尤其涉及一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质。
背景技术
目前,市面上的高性能数字助听器都会内置降噪算法,用来消除环境中的背景噪声干扰,以达到满足人耳听觉舒适度的要求。由于数字助听器对语音实时处理的要求,内置在助听器内部的降噪算法多采用谱减法、维纳滤波等运算量较低的算法,这些算法只能应对简单稳定的噪声干扰环境,在低信噪比、瞬时噪声等复杂的噪声环境中性能表现很差,听力损失患者的佩戴使用体验不佳。
发明内容
本发明公开了一种用于数字助听器的环境自适应神经网络降噪方法,利用深层神经网络强大的映射能力,并结合环境自适应的策略,实现一种应对复杂噪声环境的高性能降噪算法。
本发明提供了一种用于数字助听器的环境自适应神经网络降噪方法,包括依次执行如下步骤:
预处理步骤:接收带噪语音信号,带噪语音信号经过采样分帧后传输至声学场景识别模块;
场景识别步骤:采用声学场景识别模块对所处的声学场景进行识别,然后由声学场景识别模块自主的选择神经网络降噪模块中不同的神经网络模型进行发送;
神经网络降噪步骤:神经网络降噪模型接收声学场景识别模块发送的分类结果并对不同场景下的噪声进行针对性地降噪处理。
作为本发明的进一步改进,在所述场景识别步骤中,所述声学场景识别模块采用了对时间序列具有记忆作用的LSTM神经网络结构,具体步骤如下:
S1:对每一帧提取设定维数的梅尔倒谱系数特征;
S2:由LSTM神经网络读入一帧梅尔倒谱系数特征进行处理,达到一定帧时将输出分类的结果。
作为本发明的进一步改进,所述LSTM神经网络结构包括输入层、隐藏层和输出层,输出层的神经单元对应不同的场景类别,LSTM神经网络不仅会处理当前的输入,还会与之前保留的输出进行组合,实现记忆的作用,当累计设定帧数的记忆后,输出分类结果。
作为本发明的进一步改进,所述LSTM神经网络结构记忆更新原理如下:
LSTM神经网络结构将当前帧输入的特征tn与之前保留的输出结果hn-1进行组合,同时也将上一帧的状态Cn-1一起输入进去进行判断,产生一个当前帧的输出hn和一个当前帧的输出状态Cn,一直迭代下去,直到满足所需帧的记忆条件后,对最终的输出h进行softmax变换得到输出层的预测概率。
作为本发明的进一步改进,在所述场景识别步骤中,还包括LSTM神经网络训练时的损失损失函数计算,计算公式如下:
其中yi分别为正确的分类标签和LSTM网络输出层预测的分类结果。
作为本发明的进一步改进,不同场景下的降噪模型均采用全连接神经网络结构,但所述全连接神经网络结构的层数和每层的神经元个数是不同的;
所述全连接神经网络结构的降噪模型包括执行如下步骤:
训练数据集步骤:挑选作为训练集的纯净语音数据,然后将噪声数据与纯净语音进行随机混合,获得所需带噪训练数据;
模型参数调优步骤:采用最小均方误差作为代价函数,再根据训练集loss值和验证集loss值对模型进行参数调优,得到所需的神经网络结构;
训练时,反复进行反向传播算法迭代,能实现较好的噪声抑制效果;
所述验证集是挑选作为验证集纯净语音数据,并与噪声数据进行混合,得到验证集带噪语音数据;
所述最小均方误差计算公式如下:
其中MSE为均方误差。
作为本发明的进一步改进,除了输出层采用线性层以外,所有的隐藏层单元均采用ReLU激活函数;另外,为了提高网络的泛化能力,每层隐藏层采用0.8丢弃率的正则化方法,且L2正则化项系数设为0.00001;训练时,利用Adam优化算法进行反向传播,以0.0001的学习率迭代200次,便可以实现较好的噪声抑制效果。
作为本发明的进一步改进,在所述预处理步骤中,麦克风接收到的语音信号,经过采样后,将其分成帧长为256点的时域信号,采样率为16000Hz,每一帧为16ms;
在所述步骤S1中,对每一帧提取39维的梅尔倒谱系数特征;
在所述步骤S2中,由LSTM神经网络读入一帧梅尔倒谱系数特征进行处理,达到100帧时将输出分类的结果。
本发明还公开了一种用于数字助听器的环境自适应神经网络降噪系统,包括:存储器、处理器以及存储在所述存储器上的计算机程序,所述计算机程序配置为由所述处理器调用时实现权利要求所述的方法的步骤。
本发明还公开了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现权利要求所述的方法的步骤。
本发明的有益效果是:1.可以保证语音处理的实时性,只进行神经网络的前向传播,运算量不高;2.可以对所处的声学场景进行识别,然后自主地选择不同的神经网络模型,对不同的场景下的噪声进行针对性地降噪处理,能保证更好的语音质量和语音可懂度;3.可以有效地抑制瞬时噪声;4.可以在低信噪比环境下实现更好的降噪效果。
附图说明
图1是本发明环境自适应降噪算法框图;
图2是本发明LSTM网络结构图;
图3是本发明LSTM单元的运行机理图;
图4是本发明全连接神经网络降噪模型框图;
图5是本发明PESQ指标评测结果图;
图6是本发明STOI指标评测结果图。
具体实施方式
本发明公开了一种用于数字助听器的环境自适应神经网络降噪方法,该方法以场景识别模块作为决策驱动模块,根据不同的声学场景选择对应的神经网络降噪模型,来实现对不同噪声类型的抑制。本发明的整个算法系统包含两大部分,一个是场景识别模块,另一个是神经网络降噪模块,如图1所示。
图1是本发明整个神经网络降噪系统的算法框图,由声学场景识别模块和多个不同场景下的降噪模型组成。带噪语音信号经过采样分帧后,首先会送到场景识别模块来确定当前的场景类型,随后会被送到相应的神经网络降噪模型,实现降噪过程。整个算法系统的核心部分在于识别模块和降噪模块两个部分,下面将分别进行详细的介绍:
声学场景识别模块,采用了对时间序列具有记忆作用的LSTM(Long Short-TermMemory)神经网络进行设计;首先,麦克风接收到的语音信号,经过采样后,将其分成帧长为256点的时域信号,采样率为16000Hz,每一帧为16ms;接下来,对每一帧提取39维的梅尔倒谱系数特征(Mel Frequency Cepstrum Coefficient,MFCC),LSTM网络每次读入一帧MFCC特征进行处理,但是只有满100帧时才会输出分类的结果,也就是说每隔1.6S更新一下当前的环境分类结果。
LSTM神经网络的结构如图2所示,其中输入层的神经单元数为39,递归隐藏层的神经单元数为512,输出层的神经单元数为9(对应着9种场景类别:工厂、街道、地铁站、火车站、餐厅、运动场、飞机舱内、汽车内部、室内场景),相应的训练数据,是从freesound网站[1]上下载的,每种场景约2个小时的音频;LSTM网络不仅会处理当前的输入,还会与之前保留的输出进行组合,实现记忆的作用,当累计满100帧的记忆后,输出分类结果。
LSTM单元的记忆更新机理如图3所示,其中Cn-1Cn-1表示上一帧留存的状态,fn表示当前帧遗忘门的输出,un表示当前帧更新门的输出,On表示当前帧输出门的输出,Cn表示当前帧的留存状态,hn表示当前帧的输出。LSTM单元将当前帧输入的特征tn与之前保留的输出结果hn-1进行组合,同时也将上一帧的状态Cn-1一起输入进去进行判断,产生一个当前帧的输出hn和一个当前帧的输出状态Cn,一直迭代下去,直到满足100帧的记忆条件后,对最终的输出h进行Softmax(Softmax函数,或称归一化指数函数)变换得到输出层的预测概率。
各个门以及输出的计算式如下,其中δ(·)和tanh(·)分别代表sigmoid激活函数和双曲正切激活函数:
C_tn=tanh(Wc[hn-1,xn]+bc) (5)
fn=δ(Wf[hn-1,xn]+bf) (6)
un=δ(Wu[hn-1,xn]+bu) (7)
On=δ(Wo[hn-1,xn]+bo) (8)
Cn=un*C_tn+fn*Cn-1 (9)
hn=On*tanh(Cn) (10)
LSTM网络的训练时的损失函数用交叉熵来计算,计算式如式(11)所示,其中yi分别为正确的分类标签和LSTM网络输出层预测的分类结果:
根据声学场景分类模块的分类结果,输入的带噪音频信号会被送到不同的降噪模型进行逐帧处理。不同场景下的降噪模型均采用全连接的神经网络结构,如图4所示,但是神经网络的层数和每层的神经元个数是不同的,它与不同的场景噪声性质有关,例如工厂噪声需要3层隐藏层才能实现较好的降噪性能,而汽车内噪声只需要2层便可以实现同样的降噪效果。后面将以工厂场景下的网络结构为例进行详细的介绍。
如上图3所示,要训练全连接神经网络的降噪模型,首先需要准备足够多的训练数据集,这也是提高网络泛化能力很重要的一个方面,所以我们挑选了Aishell中文数据集[2]中1200句话(6男6女,每人说100句话)作为训练集的纯净语音数据,然后利用NOISEX-92[3]噪声库中的工厂噪声(前60%)作为噪声数据与纯净语音进行随机混合,混合的信噪比符合区间[-5,20]的均匀分布,总共获得带噪训练数据时长约为25个小时。为了对模型的参数进行调优,需要设置验证集,同样从Aishell数据集中另外挑选出400句话(2男2女,每人说100句话)作为验证集纯净语音数据,并与NOISEX-92工厂噪声的中间20%进行均匀混合,得到大约8个小时的验证集带噪语音数据。
采用式(12)所示的最小均方误差(Minimum Mean Squared Error,MMSE)作为代价函数,根据训练集loss值和验证集loss值对模型进行参数调优,最后确定:在工厂噪声场景中,选用神经网络为129-1024-1024-1024-129的网络结构,除了输出层采用线性层以外,所有的隐藏层单元均采用ReLU激活函数;另外,为了提高网络的泛化能力,每层隐藏层采用0.8丢弃率的正则化方法,且L2正则化项系数设为0.00001。训练时,利用Adam优化算法(Adam:一种高效的反向传播优化算法,由Adam提出,所以称为Adam优化算法)进行反向传播,以0.0001的学习率迭代200次,便可以实现较好的噪声抑制效果。模型训练完以后,在助听器中只需要进行前向传播,运算量不高,可以满足实时处理的要求。降噪后的PESQ(Perceptual evaluation of speech quality)、STOI(Short-Time ObjectiveIntelligibility)指标评测结果如图5所示,其中降噪效果和指标都是在测试集上测得,测试集是从Aishell数据集中挑选出的与训练集不重复的另外400句话(2男2女,每人说100句话),与NOISEX-92中工厂噪声的后20%混合成-5dB,0dB,5dB,10dB和15dB五种噪声污染程度。另外,进行主观听音时发现,工厂里的机器敲打声等瞬时噪声被抑制的很好,几乎听不到任何残留的噪声。
本发明的有益效果是:1.可以保证语音处理的实时性,只进行神经网络的前向传播,运算量不高;2.可以对所处的声学场景进行识别,然后自主地选择不同的神经网络模型,对不同的场景下的噪声进行针对性地降噪处理,能保证更好的语音质量和语音可懂度;3.可以有效地抑制瞬时噪声;4.可以在低信噪比环境下实现更好的降噪效果
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (10)

1.一种用于数字助听器的环境自适应神经网络降噪方法,其特征在于,包括依次执行如下步骤:
预处理步骤:接收带噪语音信号,带噪语音信号经过采样分帧后传输至声学场景识别模块;
场景识别步骤:采用声学场景识别模块对所处的声学场景进行识别,然后由声学场景识别模块自主的选择神经网络降噪模块中不同的神经网络模型进行发送;
神经网络降噪步骤:神经网络降噪模型接收声学场景识别模块发送的分类结果并对不同场景下的噪声进行针对性地降噪处理。
2.根据权利要求1所述的环境自适应神经网络降噪方法,其特征在于,在所述场景识别步骤中,所述声学场景识别模块采用了对时间序列具有记忆作用的LSTM神经网络结构,具体步骤如下:
S1:对每一帧提取设定维数的梅尔倒谱系数特征;
S2:由LSTM神经网络读入一帧梅尔倒谱系数特征进行处理,达到一定帧时将输出分类的结果。
3.根据权利要求2所述的环境自适应神经网络降噪方法,其特征在于,所述LSTM神经网络结构包括输入层、隐藏层和输出层,输出层的神经单元对应不同的场景类别,LSTM神经网络不仅会处理当前的输入,还会与之前保留的输出进行组合,实现记忆的作用,当累计达到设定帧数的记忆后,输出分类结果。
4.根据权利要求3所述的环境自适应神经网络降噪方法,其特征在于,所述LSTM神经网络结构记忆更新原理如下:
LSTM神经网络结构将当前帧输入的特征tn与之前保留的输出结果hn-1进行组合,同时也将上一帧的状态Cn-1一起输入进去进行判断,产生一个当前帧的输出hn和一个当前帧的输出状态Cn,一直迭代下去,直到满足所需帧的记忆条件后,对最终的输出h进行softmax变换得到输出层的预测概率。
5.根据权利要求4所述的环境自适应神经网络降噪方法,其特征在于,在所述场景识别步骤中,还包括LSTM神经网络训练时的损失损失函数计算,计算公式如下:
其中yi分别为正确的分类标签和LSTM网络输出层预测的分类结果。
6.根据权利要求1所述的环境自适应神经网络降噪方法,其特征在于,不同场景下的降噪模型均采用全连接神经网络结构,但所述全连接神经网络结构的层数和每层的神经元个数是不同的;
所述全连接神经网络结构的降噪模型包括执行如下步骤:
训练数据集步骤:挑选作为训练集的纯净语音数据,然后将噪声数据与纯净语音进行随机混合,获得所需带噪训练数据;
模型参数调优步骤:采用最小均方误差作为代价函数,再根据训练集loss值和验证集loss值对模型进行参数调优,得到所需的神经网络结构;
训练时,反复进行反向传播算法迭代,能实现较好的噪声抑制效果;
所述验证集是挑选作为验证集纯净语音数据,并与噪声数据进行混合,得到验证集带噪语音数据;
所述最小均方误差计算公式如下:
其中MSE为均方误差。
7.根据权利要求6所述的环境自适应神经网络降噪方法,其特征在于,除了输出层采用线性层以外,所有的隐藏层单元均采用ReLU激活函数;另外,为了提高网络的泛化能力,每层隐藏层采用0.8丢弃率的正则化方法,且L2正则化项系数设为0.00001;训练时,利用Adam优化算法进行反向传播,以0.0001的学习率迭代200次,便可以实现较好的噪声抑制效果。
8.根据权利要求2所述的环境自适应神经网络降噪方法,其特征在于,在所述预处理步骤中,麦克风接收到的语音信号,经过采样后,将其分成帧长为256点的时域信号,采样率为16000Hz,每一帧为16ms;
在所述步骤S1中,对每一帧提取39维的梅尔倒谱系数特征;
在所述步骤S2中,由LSTM神经网络读入一帧梅尔倒谱系数特征进行处理,达到100帧时将输出分类的结果。
9.一种用于数字助听器的环境自适应神经网络降噪系统,其特征在于,包括:存储器、处理器以及存储在所述存储器上的计算机程序,所述计算机程序配置为由所述处理器调用时实现权利要求1-8中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质存储有计算机程序,所述计算机程序配置为由处理器调用时实现权利要求1-8中任一项所述的方法的步骤。
CN201910168122.4A 2019-03-06 2019-03-06 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质 Expired - Fee Related CN109859767B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910168122.4A CN109859767B (zh) 2019-03-06 2019-03-06 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质
PCT/CN2019/117075 WO2020177371A1 (zh) 2019-03-06 2019-11-11 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910168122.4A CN109859767B (zh) 2019-03-06 2019-03-06 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质

Publications (2)

Publication Number Publication Date
CN109859767A true CN109859767A (zh) 2019-06-07
CN109859767B CN109859767B (zh) 2020-10-13

Family

ID=66899968

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910168122.4A Expired - Fee Related CN109859767B (zh) 2019-03-06 2019-03-06 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质

Country Status (2)

Country Link
CN (1) CN109859767B (zh)
WO (1) WO2020177371A1 (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110996208A (zh) * 2019-12-13 2020-04-10 恒玄科技(上海)股份有限公司 一种无线耳机及其降噪方法
CN111312221A (zh) * 2020-01-20 2020-06-19 宁波舜韵电子有限公司 基于语音控制的智能吸油烟机
CN111491245A (zh) * 2020-03-13 2020-08-04 天津大学 基于循环神经网络的数字助听器声场识别算法及硬件实现方法
CN111508509A (zh) * 2020-04-02 2020-08-07 广东九联科技股份有限公司 基于深度学习的声音质量处理系统及其方法
WO2020177371A1 (zh) * 2019-03-06 2020-09-10 哈尔滨工业大学(深圳) 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质
WO2021042870A1 (zh) * 2019-09-05 2021-03-11 腾讯科技(深圳)有限公司 语音处理的方法、装置、电子设备及计算机可读存储介质
CN112492495A (zh) * 2019-09-11 2021-03-12 西万拓私人有限公司 用于运行听力设备的方法以及听力设备
CN112565997A (zh) * 2020-12-04 2021-03-26 可孚医疗科技股份有限公司 助听器的自适应降噪方法、装置、助听器及存储介质
IT201900024454A1 (it) 2019-12-18 2021-06-18 Storti Gianampellio Apparecchio audio con basso consumo per ambienti rumorosi
CN113129876A (zh) * 2019-12-30 2021-07-16 Oppo广东移动通信有限公司 网络搜索方法、装置、电子设备及存储介质
CN113160844A (zh) * 2021-04-27 2021-07-23 山东省计算中心(国家超级计算济南中心) 基于噪声背景分类的语音增强方法及系统
CN113259824A (zh) * 2021-05-14 2021-08-13 谷芯(广州)技术有限公司 一种实时多通道数字助听器降噪方法和系统
CN113724726A (zh) * 2021-08-18 2021-11-30 中国长江电力股份有限公司 一种基于全连接神经网络的机组运行噪声抑制的处理方法
CN114245280A (zh) * 2021-12-20 2022-03-25 清华大学深圳国际研究生院 一种基于神经网络的场景自适应助听器音频增强系统
CN114640937A (zh) * 2022-05-18 2022-06-17 深圳市听多多科技有限公司 一种基于穿戴设备系统的助听功能实现方法及穿戴设备
CN114640938A (zh) * 2022-05-18 2022-06-17 深圳市听多多科技有限公司 一种基于蓝牙耳机芯片的助听功能实现方法及蓝牙耳机
WO2022247244A1 (zh) * 2021-05-24 2022-12-01 青岛海尔空调器有限总公司 空调器的语音控制方法及空调器
CN116367063A (zh) * 2023-04-23 2023-06-30 郑州大学 一种基于嵌入式的骨传导助听设备及系统

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019206743A1 (de) * 2019-05-09 2020-11-12 Sonova Ag Hörgeräte-System und Verfahren zur Verarbeitung von Audiosignalen
CN112447183A (zh) * 2020-11-16 2021-03-05 北京达佳互联信息技术有限公司 音频处理模型的训练、音频去噪方法、装置及电子设备
CN113314136A (zh) * 2021-05-27 2021-08-27 西安电子科技大学 基于定向降噪与干声提取技术的语音优化方法
CN113345464A (zh) * 2021-05-31 2021-09-03 平安科技(深圳)有限公司 语音提取方法、系统、设备及存储介质
CN113707159A (zh) * 2021-08-02 2021-11-26 南昌大学 一种基于Mel语图与深度学习的电网涉鸟故障鸟种识别方法
CN114626412B (zh) * 2022-02-28 2024-04-02 长沙融创智胜电子科技有限公司 用于无人值守传感器系统的多类别目标识别方法及系统
CN117290669B (zh) * 2023-11-24 2024-02-06 之江实验室 基于深度学习的光纤温度传感信号降噪方法、装置和介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104952448A (zh) * 2015-05-04 2015-09-30 张爱英 一种双向长短时记忆递归神经网络的特征增强方法及系统
CN105611477A (zh) * 2015-12-27 2016-05-25 北京工业大学 数字助听器中深度和广度神经网络相结合的语音增强算法
CN108877823A (zh) * 2018-07-27 2018-11-23 三星电子(中国)研发中心 语音增强方法和装置
CN108962278A (zh) * 2018-06-26 2018-12-07 常州工学院 一种助听器声场景分类方法
WO2019014890A1 (zh) * 2017-07-20 2019-01-24 大象声科(深圳)科技有限公司 一种通用的单声道实时降噪方法
CN109378010A (zh) * 2018-10-29 2019-02-22 珠海格力电器股份有限公司 神经网络模型的训练方法、语音去噪方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6453284B1 (en) * 1999-07-26 2002-09-17 Texas Tech University Health Sciences Center Multiple voice tracking system and method
CN101529929B (zh) * 2006-09-05 2012-11-07 Gn瑞声达A/S 具有基于直方图的声环境分类的助听器
CN108073856A (zh) * 2016-11-14 2018-05-25 华为技术有限公司 噪音信号的识别方法及装置
CN109410976B (zh) * 2018-11-01 2022-12-16 北京工业大学 双耳助听器中基于双耳声源定位和深度学习的语音增强方法
CN109859767B (zh) * 2019-03-06 2020-10-13 哈尔滨工业大学(深圳) 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104952448A (zh) * 2015-05-04 2015-09-30 张爱英 一种双向长短时记忆递归神经网络的特征增强方法及系统
CN105611477A (zh) * 2015-12-27 2016-05-25 北京工业大学 数字助听器中深度和广度神经网络相结合的语音增强算法
WO2019014890A1 (zh) * 2017-07-20 2019-01-24 大象声科(深圳)科技有限公司 一种通用的单声道实时降噪方法
CN108962278A (zh) * 2018-06-26 2018-12-07 常州工学院 一种助听器声场景分类方法
CN108877823A (zh) * 2018-07-27 2018-11-23 三星电子(中国)研发中心 语音增强方法和装置
CN109378010A (zh) * 2018-10-29 2019-02-22 珠海格力电器股份有限公司 神经网络模型的训练方法、语音去噪方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MING LIU ET AL.: "Speech Enhancement Method Based On LSTM Neural Network for Speech Recognition", 《2018 14TH IEEE INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING (ICSP)》 *
汪瑞: "基于LSTM网络的声学场景在线检测系统", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020177371A1 (zh) * 2019-03-06 2020-09-10 哈尔滨工业大学(深圳) 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质
US11948552B2 (en) 2019-09-05 2024-04-02 Tencent Technology (Shenzhen) Company Limited Speech processing method, apparatus, electronic device, and computer-readable storage medium
WO2021042870A1 (zh) * 2019-09-05 2021-03-11 腾讯科技(深圳)有限公司 语音处理的方法、装置、电子设备及计算机可读存储介质
US11388514B2 (en) 2019-09-11 2022-07-12 Sivantos Pte. Ltd. Method for operating a hearing device, and hearing device
CN112492495A (zh) * 2019-09-11 2021-03-12 西万拓私人有限公司 用于运行听力设备的方法以及听力设备
CN110996208A (zh) * 2019-12-13 2020-04-10 恒玄科技(上海)股份有限公司 一种无线耳机及其降噪方法
IT201900024454A1 (it) 2019-12-18 2021-06-18 Storti Gianampellio Apparecchio audio con basso consumo per ambienti rumorosi
CN113129876A (zh) * 2019-12-30 2021-07-16 Oppo广东移动通信有限公司 网络搜索方法、装置、电子设备及存储介质
CN111312221B (zh) * 2020-01-20 2022-07-22 宁波舜韵电子有限公司 基于语音控制的智能吸油烟机
CN111312221A (zh) * 2020-01-20 2020-06-19 宁波舜韵电子有限公司 基于语音控制的智能吸油烟机
CN111491245A (zh) * 2020-03-13 2020-08-04 天津大学 基于循环神经网络的数字助听器声场识别算法及硬件实现方法
CN111491245B (zh) * 2020-03-13 2022-03-04 天津大学 基于循环神经网络的数字助听器声场识别算法及实现方法
CN111508509A (zh) * 2020-04-02 2020-08-07 广东九联科技股份有限公司 基于深度学习的声音质量处理系统及其方法
CN112565997B (zh) * 2020-12-04 2022-03-22 可孚医疗科技股份有限公司 助听器的自适应降噪方法、装置、助听器及存储介质
CN112565997A (zh) * 2020-12-04 2021-03-26 可孚医疗科技股份有限公司 助听器的自适应降噪方法、装置、助听器及存储介质
CN113160844A (zh) * 2021-04-27 2021-07-23 山东省计算中心(国家超级计算济南中心) 基于噪声背景分类的语音增强方法及系统
CN113259824A (zh) * 2021-05-14 2021-08-13 谷芯(广州)技术有限公司 一种实时多通道数字助听器降噪方法和系统
WO2022247244A1 (zh) * 2021-05-24 2022-12-01 青岛海尔空调器有限总公司 空调器的语音控制方法及空调器
CN113724726A (zh) * 2021-08-18 2021-11-30 中国长江电力股份有限公司 一种基于全连接神经网络的机组运行噪声抑制的处理方法
CN114245280A (zh) * 2021-12-20 2022-03-25 清华大学深圳国际研究生院 一种基于神经网络的场景自适应助听器音频增强系统
CN114640938A (zh) * 2022-05-18 2022-06-17 深圳市听多多科技有限公司 一种基于蓝牙耳机芯片的助听功能实现方法及蓝牙耳机
CN114640937A (zh) * 2022-05-18 2022-06-17 深圳市听多多科技有限公司 一种基于穿戴设备系统的助听功能实现方法及穿戴设备
CN114640937B (zh) * 2022-05-18 2022-09-02 深圳市听多多科技有限公司 一种基于穿戴设备系统的助听功能实现方法及穿戴设备
US11627421B1 (en) 2022-05-18 2023-04-11 Shenzhen Tingduoduo Technology Co., Ltd. Method for realizing hearing aid function based on bluetooth headset chip and a bluetooth headset
US11818546B2 (en) 2022-05-18 2023-11-14 Shenzhen Tingduoduo Technology Co., Ltd. Hearing aid function realization method based on wearable device system and wearable device
CN116367063A (zh) * 2023-04-23 2023-06-30 郑州大学 一种基于嵌入式的骨传导助听设备及系统
CN116367063B (zh) * 2023-04-23 2023-11-14 郑州大学 一种基于嵌入式的骨传导助听设备及系统

Also Published As

Publication number Publication date
CN109859767B (zh) 2020-10-13
WO2020177371A1 (zh) 2020-09-10

Similar Documents

Publication Publication Date Title
CN109859767A (zh) 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质
CN110600017B (zh) 语音处理模型的训练方法、语音识别方法、系统及装置
CN109841226B (zh) 一种基于卷积递归神经网络的单通道实时降噪方法
CN108172238A (zh) 一种语音识别系统中基于多个卷积神经网络的语音增强算法
CN107393550A (zh) 语音处理方法及装置
CN110428849B (zh) 一种基于生成对抗网络的语音增强方法
CN109410976A (zh) 双耳助听器中基于双耳声源定位和深度学习的语音增强方法
CN103065629A (zh) 一种仿人机器人的语音识别系统
CN111583954A (zh) 一种说话人无关单通道语音分离方法
CN111292762A (zh) 一种基于深度学习的单通道语音分离方法
CN112735456B (zh) 一种基于dnn-clstm网络的语音增强方法
CN113191178B (zh) 一种基于听觉感知特征深度学习的水声目标识别方法
CN109949823A (zh) 一种基于dwpt-mfcc与gmm的车内异响识别方法
CN112331224A (zh) 轻量级时域卷积网络语音增强方法与系统
CN114974280A (zh) 音频降噪模型的训练方法、音频降噪的方法及装置
CN111798875A (zh) 一种基于三值量化压缩的vad实现方法
CN111540342A (zh) 一种能量阈值调整方法、装置、设备及介质
CN109300470A (zh) 混音分离方法和混音分离装置
CN114822578A (zh) 语音降噪方法、装置、设备及存储介质
CN112562698B (zh) 一种基于声源信息与热成像特征融合的电力设备缺陷诊断方法
CN111341351B (zh) 基于自注意力机制的语音活动检测方法、装置及存储介质
CN112329819A (zh) 基于多网络融合的水下目标识别方法
Hepsiba et al. Enhancement of single channel speech quality and intelligibility in multiple noise conditions using wiener filter and deep CNN
CN107360497A (zh) 估算混响分量的计算方法及装置
CN110299133A (zh) 基于关键字判定非法广播的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201013

CF01 Termination of patent right due to non-payment of annual fee