CN106782497A - 一种基于便携式智能终端的智能语音降噪算法 - Google Patents
一种基于便携式智能终端的智能语音降噪算法 Download PDFInfo
- Publication number
- CN106782497A CN106782497A CN201611082295.7A CN201611082295A CN106782497A CN 106782497 A CN106782497 A CN 106782497A CN 201611082295 A CN201611082295 A CN 201611082295A CN 106782497 A CN106782497 A CN 106782497A
- Authority
- CN
- China
- Prior art keywords
- intelligent terminal
- noise
- output
- noise reduction
- reduction algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009467 reduction Effects 0.000 title claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 17
- 238000004891 communication Methods 0.000 claims abstract description 6
- 230000007935 neutral effect Effects 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000001228 spectrum Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 230000005284 excitation Effects 0.000 claims description 4
- 230000003137 locomotive effect Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 abstract description 3
- 230000036541 health Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 206010011878 Deafness Diseases 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 230000010370 hearing loss Effects 0.000 description 2
- 231100000888 hearing loss Toxicity 0.000 description 2
- 208000016354 hearing loss disease Diseases 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 206010048865 Hypoacusis Diseases 0.000 description 1
- 206010036626 Presbyacusis Diseases 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 208000009800 presbycusis Diseases 0.000 description 1
- 230000003997 social interaction Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/50—Customised settings for obtaining desired overall acoustical characteristics
- H04R25/505—Customised settings for obtaining desired overall acoustical characteristics using digital signal processing
- H04R25/507—Customised settings for obtaining desired overall acoustical characteristics using digital signal processing implemented by neural network or fuzzy logic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Automation & Control Theory (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Otolaryngology (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
- Telephonic Communication Services (AREA)
Abstract
本法公开了一种基于便携式智能终端的智能语音降噪算法,用于助听器、数据云端和智能终端之间的通信,助听器从外界接收带噪语音信号并传输到智能终端,智能终端通过智能语音降噪算法应用处理后一部分带噪语音信号上传到数据云端,另一部分输出到助听器进行进一步的处理,最后转化为人耳能够识别的语音信号;此外,本发明应用在智能终端(包括手机、平板电脑和智能穿戴设备等)上还能为云端数据库提供新的数据,进一步训练得到更加准确的网络,然后返回至智能终端实现更新升级。
Description
技术领域
本发明属于助听器噪声消除算法设计领域,具体的说,是涉及一种基于便携式智能终端的智能语音降噪算法,神经网络与传统算法相结合,以实现噪声的高效抑制和消除功能。该算法将在助听器芯片上实现并通过云端数据共享来实现硬件的软升级。
背景技术
根据世界卫生组织在2015年3月的统计,全世界人口的5%,也就是3.6亿人,患有残疾性听力损失,随着人口寿命增长和老龄化,老年性耳聋的人数不断增加。党和国家对老龄化人口的医疗健康十分重视,十八大报告提出“大力发展老龄服务事业和产业”,国务院在2015年11月发布的《关于推进医疗卫生与养老服务相结合的指导意见》中要求“推动医疗卫生服务延伸至社区、家庭,推进社区、居家养老,为老年人提供连续性的健康管理服务和医疗服务”。而听力障碍严重影响着这些人的社会交往和个人生活质量。对于这些听力障碍的人群来说,通过助听器来恢复大部分的听觉是十分有效的一种手段。
语音是语言声学的物理表现,是我们日常交流最常见、最有效、最自然的方式,也是我们思维的惯性依托。但是在现实生活语音通信中,不可避免的会受到周围环境噪声或者内部噪声的影响,这会对助听器的性能以及听力损失患者的使用体验造成极大的影响。而在助听器中,语音的降噪算法发挥着重要的作用,是从噪声背景中提取有用的语音信号,抑制、降低甚至消除噪声的干扰。语音降噪的目的主要是改善语音质量,尽可能的消除背景噪声,提高信噪比(signal to noise ratio,SNR),同时提高语音的自然可懂度和说话人的可辨度。
不同的噪声环境下,对噪声消除的算法也相应的是不同的,所以未来的助听器降噪算法必将也是趋于智能化。即针对助听器不同的使用环境,如噪声(白噪声,工厂噪声,babble噪声,机车噪声等等)环境,安静环境,或者两者双向的过渡环境(由噪声环境变为安静环境,或者由安静环境变为噪声环境),采用不同的降噪算法或者使用相同的方法达到同样好的降噪效果。这就需要语音降噪算法智能化,有自我学习和联想记忆的能力,以达到在不同的使用环境下,自动识别并精确降噪的理想效果。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种基于便携式智能终端的智能语音降噪算法,本发明基于智能终端,具体分为智能终端的软件APP开发和智能终端与数据云和助听器三者之间的通信。语音由助听器接受并传输到智能终端,经终端应用处理后一部分上传到数据云,另一部分输出到助听器进行进一步的处理,最后转化为人耳能够识别的语音信号。此外,本发明应用在智能终端(包括手机、平板电脑和智能穿戴设备等)上还能为云端数据库提供新的数据,进一步训练得到更加准确的网络,然后返回至智能终端实现更新升级。
本发明的目的是通过以下技术方案实现的:
一种基于便携式智能终端的智能语音降噪算法,用于助听器、数据云端和智能终端之间的通信,助听器从外界接收带噪语音信号并传输到智能终端,智能终端通过智能语音降噪算法应用处理后一部分带噪语音信号上传到数据云端,另一部分输出到助听器进行进一步的处理,最后转化为人耳能够识别的语音信号,所述智能语音降噪算法包括以下流程步骤:
(1)通过对语音数据库及噪声数据库的语音信号和噪声数据进行特征提取,并对提取到的特征参数进行网络训练,得到成熟网络作为BP神经网络的中间层;
(2)助听器从外界接收带噪语音信号传输到智能终端后,通过WOLA分析滤波器分析后形成有三条路径并保存相位;
(3)第一条路径是通过提取带噪语音信号每一帧的特征参数作为BP神经网络的输入信号,输出为估计噪声谱;第二条路径是WOLA分析滤波器输出的每一帧语音信号做为成熟网络的输入信号,输出为拟合的谱减因子β;第三条路径是提取所保存的相位;
(4)进行谱减操作,WOLA分析滤波器综合上述三条路径并重构之后输出得到增强的语音信号,即完成了智能语音降噪算法。
步骤(1)中所述语音数据库为TIMIT语音库,提取出的语音信号为时长为3s,采样频率为16kHz,单通道16位采样的男女语音信号。
步骤(1)中所述噪声数据库为NoiseX92噪声数据库,提取的噪声数据有白噪声、粉色噪声、工厂噪声和机车噪声。
步骤(1)中网络训练的步骤如下:
f)根据神经网络的初始输入输出状态,确定网络的各个参数:输入个数、隐含层层数,输出个数、相邻两层之间的权值、隐含层和输出层的阈值;
g)根据输入向量x,输入层和隐含层之间的连接权值Wij以及隐含层阈值a,按照下式得到隐含层输出H,
式中f为隐含层激励函数,l是隐含层的节点数;
输出层的计算:根据隐层输出H,连接权值Wjk和阈值b,按照下式计算得到神经网络的预测输出O,
其中m是输出层的层数;
c)根据神经网络的预测输出O和期望输出Y,计算神经网络预测的误差e,
ek=Yk-Ok,k=1,2,3,…,m (4-3)
d)根据神经网络预测的误差更新网络连接的权值Wij和Wjk,
式中η为学习速率;
e)达到最大迭代次数或者神经网络已经收敛则停止网络训练。
与现有技术相比,本发明的技术方案所带来的有益效果是:
1.本发明是助听器与智能终端相互协作中必不可少的一环,充当了中转站的总要角色,完成了助听器、智能终端和数据云端中心之间的数据收集、数据处理和数据传输的功能。
2.本发明结合了当代前沿的科技,与神经网络和数据云相结合,并将助听器的一部分功能转移到智能终端上,节省了助听器电池功耗,另外利用智能终端高性能的硬件电路和灵活的软件编程,为复杂的数字信号处理提供了十分有利的扩展和升级的空间。
附图说明
图1是本发明算法应用的系统结构示意图。
图2是本发明的算法结构图。
图3是本发明算法的流程示意图。
图4-1和图4-2分别是通过本发明算法和传统算法完成的实验结果图。
具体实施方式
下面结合附图对本发明作进一步的描述:
如图1所示为本发明算法所应用的系统的结构示意图。
本系统是由三个主要部分组成,即助听器、数据云端和智能终端。助听器的受话器从外界接收语音信号,也包括背景噪声等干扰信号,在助听器中进行数模转换、WOLA分析变换之后通过无线传输到智能终端。在传输之前也可以进行一些语音信号的预处理,此时是不对语音进行任何的改变的,在智能终端上,根据智能语音降噪算法处理得到的判别结果和降噪参数进行噪声的消除,而这两个结果通过网络传输到云端,作为神经网络训练的目标样本。降噪后的分帧信号再通过蓝牙等返回到助听器,滤波器综合、数模转换后输出为人耳可听见的语音信号。
具体实施过程中,数字化的语音信号传输到智能终端之后进行VAD判别、谱减参数计算以及噪声估计等一系列操作。完成之后一部分通过网络上传至云端数据库,方便进一步的网络训练以提高准确性,另一部分通过无线通信返回到助听器,进行WOLA综合变换、模数转换等。将采集到的听力障碍患者数据上传到云端,然后再把经过中心服务器训练后的网络参数通过升级的方式下载到智能终端上,这样就实现了软件的更新升级,保证了应用的可靠性。
如图2所示为本发明的算法结构图。从结构上,本发明分为训练阶段和应用阶段两个部分。
训练阶段:在本阶段中,我们从已有的TIMIT语音库中挑选出若干时长为3s,采样频率为16kHz,单通道16位采样的男女语音信号,从NoiseX92噪声数据库中挑选出白噪声、粉色噪声、工厂噪声、机车噪声等多种不同特性的噪声,将这些语音信号随机排列组合合成不同信噪比的带噪语音,经过处理后,提取出特征参数作为神经网络的训练数据,训练结束得到的收敛网络将会被应用在第二个阶段。
应用阶段:从外界接收到的语音信号同样进行特征的提取,使用训练阶段得到的网络可以得到估计噪声谱及谱减参数,利用噪声的加性原理,将噪声谱从语音谱中减去得到相对纯净的增强信号。
在本发明算法中,BP神经网络的功能是判断和预测,所以在使用之前首先要对神经网络进行联想记忆和预测功能的训练。训练步骤如下:
1.网络的生成以及初始化
根据网络的初始输入输出状态,确定网络的各个参数,例如输入个数,隐层层数,输出个数,相邻两层之间的权值,隐层和输出层的阈值,另外还有网络的学习速率以及激励函数等等。
2.隐层及输出层的输出计算
隐含层的计算:根据输入向量X,输入层和隐含层之间的连接权值Wij以及隐含层阈值a,按照下式得到隐含层输出H。
式中f为隐含层激励函数,l是隐含层的节点数。
输出层的计算:根据隐层输出H,连接权值Wjk和阈值b,按照下式计算得到神经网络的输出O。
其中m是输出层的层数。
3.误差计算
根据网络的预测输出O和期望输出Y,计算网络预测的误差e。
ek=Yk-Ok,k=1,2,3,…,m (4-3)
4.权值阈值更新
根据网络预测的误差更新网络连接的权值Wij和Wjk。
式中η为学习速率。
5.判断是否结束
达到最大迭代次数或者神经网络已经收敛则停止训练结束仿真。
如图3所示为本发明的算法流程示意图:助听器从外界接收带噪语音信号传输到智能终端后,通过WOLA分析滤波器分析后形成有三条路径;首先带噪语音进入后,利用人耳对语音信号相位不敏感的特性,通过WOLA分析滤波器分析后保存相位,以便合成时使用;然后,通过提取每一帧的特征参数,做为网络输入,输出为估计的噪声谱;WOLA分析滤波器输出的每一帧语音信号做为网络输入,输出为拟合的谱减因子β。最后进行谱减操作,WOLA综合滤波器重构之后输出。
图4-1和4-2分别是本发明算法与传统算法的降噪后波形的比较示意图,可以清晰地看出,传统方法降噪后,由于存在过减状态,所以残留了很多的音乐噪声,而本发明中的算法中的音乐噪声则小的多。
表1是基于信噪比指标的比较,数据表明,两者在信噪比方面效果是相当的,传统算法虽然看起来性能更好一点,但是没有考虑存在的严重过减问题,以语音失真换取高的信噪比是得不偿失的。所以本发明算法在这方面处理的更为合适。
表1
总体上,本发明结合了当代前沿的科技,与神经网络和数据云相结合,并将助听器的一部分功能转移到智能终端上,节省了助听器电池功耗,另外利用智能终端高性能的硬件电路和灵活的软件编程,为复杂的数字信号处理提供了十分有利的扩展和升级的空间。
进一步的,本实施例中所使用的特征参数是MFCC(Mel Frequency CepstrumCoefficient),即Mel频率倒谱系数,该系数是基于人的听觉机理,依据人的听觉实验结果来分析语音频谱的,音频分析中,MFCC参数是经典参数之一;所用的神经网络是现有的发展比较成熟、应用十分广泛的BPNN(Back Propagation Neural Network),同传统的网络相仿,并不是深层网络,有输入中间和输出层构成,权值和阈值以及传递函数的选择都和实际应用相关。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和润饰,但这些改进和润饰也应视为本发明的保护范围。
Claims (4)
1.一种基于便携式智能终端的智能语音降噪算法,其特征在于,用于助听器、数据云端和智能终端之间的通信,助听器从外界接收带噪语音信号并传输到智能终端,智能终端通过智能语音降噪算法应用处理后一部分带噪语音信号上传到数据云端,另一部分输出到助听器进行进一步的处理,最后转化为人耳能够识别的语音信号,所述智能语音降噪算法包括以下流程步骤:
(1)通过对语音数据库及噪声数据库的语音信号和噪声数据进行特征提取,并对提取到的特征参数进行网络训练,得到成熟网络作为BP神经网络的中间层;
(2)助听器从外界接收带噪语音信号传输到智能终端后,通过WOLA分析滤波器分析后形成有三条路径并保存相位;
(3)第一条路径是通过提取带噪语音信号每一帧的特征参数作为BP神经网络的输入信号,输出为估计噪声谱;第二条路径是WOLA分析滤波器输出的每一帧语音信号做为成熟网络的输入信号,输出为拟合的谱减因子β;第三条路径是提取所保存的相位;
(4)进行谱减操作,WOLA分析滤波器综合上述三条路径并重构之后输出得到增强的语音信号,即完成了智能语音降噪算法。
2.根据权利要求1所述一种基于便携式智能终端的智能语音降噪算法,其特征在于,步骤(1)中所述语音数据库为TIMIT语音库,提取出的语音信号为时长为3s,采样频率为16kHz,单通道16位采样的男女语音信号。
3.根据权利要求1所述一种基于便携式智能终端的智能语音降噪算法,其特征在于,步骤(1)中所述噪声数据库为NoiseX92噪声数据库,提取的噪声数据有白噪声、粉色噪声、工厂噪声和机车噪声。
4.根据权利要求1所述一种基于便携式智能终端的智能语音降噪算法,其特征在于,步骤(1)中网络训练的步骤如下:
a)根据神经网络的初始输入输出状态,确定网络的各个参数:输入个数、隐含层层数,输出个数、相邻两层之间的权值、隐含层和输出层的阈值;
b)根据输入向量x,输入层和隐含层之间的连接权值Wij以及隐含层阈值a,按照下式得到隐含层输出H,
式中f为隐含层激励函数,l是隐含层的节点数;
输出层的计算:根据隐层输出H,连接权值Wjk和阈值b,按照下式计算得到神经网络的预测输出O,
其中m是输出层的层数;
c)根据神经网络的预测输出O和期望输出Y,计算神经网络预测的误差e,
ek=Yk-Ok,k=1,2,3,…,m (4-3)
d)根据神经网络预测的误差更新网络连接的权值Wij和Wjk,
式中η为学习速率;
e)达到最大迭代次数或者神经网络已经收敛则停止网络训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611082295.7A CN106782497B (zh) | 2016-11-30 | 2016-11-30 | 一种基于便携式智能终端的智能语音降噪算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611082295.7A CN106782497B (zh) | 2016-11-30 | 2016-11-30 | 一种基于便携式智能终端的智能语音降噪算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106782497A true CN106782497A (zh) | 2017-05-31 |
CN106782497B CN106782497B (zh) | 2020-02-07 |
Family
ID=58898184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611082295.7A Active CN106782497B (zh) | 2016-11-30 | 2016-11-30 | 一种基于便携式智能终端的智能语音降噪算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106782497B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107689227A (zh) * | 2017-08-23 | 2018-02-13 | 上海爱优威软件开发有限公司 | 一种基于数据融合的语音降噪方法及系统 |
CN108024188A (zh) * | 2017-09-30 | 2018-05-11 | 天津大学 | 一种基于智能终端的高可懂度语音降噪算法 |
CN109714692A (zh) * | 2018-12-26 | 2019-05-03 | 天津大学 | 基于个人数据与人工神经网络的助听器降噪方法 |
CN109831732A (zh) * | 2019-02-25 | 2019-05-31 | 天津大学 | 基于智能手机的智能啸叫抑制装置和方法 |
WO2019227279A1 (zh) * | 2018-05-28 | 2019-12-05 | 深圳市大疆创新科技有限公司 | 降噪方法、装置和无人机 |
CN111092798A (zh) * | 2019-12-24 | 2020-05-01 | 东华大学 | 一种基于口语理解的可穿戴系统 |
CN111656363A (zh) * | 2017-07-31 | 2020-09-11 | 森田公司 | 用于音频信号处理的微控制器接口 |
CN111818436A (zh) * | 2020-07-14 | 2020-10-23 | 无锡清耳话声科技有限公司 | 基于机器学习的真耳分析测试系统 |
CN112562716A (zh) * | 2020-12-03 | 2021-03-26 | 兰州交通大学 | 基于神经网络的语音增强方法、装置、终端和介质 |
CN112908353A (zh) * | 2021-02-03 | 2021-06-04 | 天津大学 | 用于助听器的边缘计算与云计算相结合的语音增强方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1463422A (zh) * | 2001-06-06 | 2003-12-24 | 三菱电机株式会社 | 噪声抑制装置 |
CN101589628A (zh) * | 2007-01-25 | 2009-11-25 | 沃福森微电子股份有限公司 | 环境降噪系统 |
CN103456310A (zh) * | 2013-08-28 | 2013-12-18 | 大连理工大学 | 一种基于谱估计的瞬态噪声抑制方法 |
WO2014023940A1 (en) * | 2012-08-06 | 2014-02-13 | University College Cardiff Consultants Ltd | Apparatus and method for estimating a characteristic of a microwave resonant device |
CN103686575A (zh) * | 2013-11-28 | 2014-03-26 | 清华大学 | 助听装置 |
CN105611477A (zh) * | 2015-12-27 | 2016-05-25 | 北京工业大学 | 数字助听器中深度和广度神经网络相结合的语音增强算法 |
-
2016
- 2016-11-30 CN CN201611082295.7A patent/CN106782497B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1463422A (zh) * | 2001-06-06 | 2003-12-24 | 三菱电机株式会社 | 噪声抑制装置 |
CN101589628A (zh) * | 2007-01-25 | 2009-11-25 | 沃福森微电子股份有限公司 | 环境降噪系统 |
WO2014023940A1 (en) * | 2012-08-06 | 2014-02-13 | University College Cardiff Consultants Ltd | Apparatus and method for estimating a characteristic of a microwave resonant device |
CN103456310A (zh) * | 2013-08-28 | 2013-12-18 | 大连理工大学 | 一种基于谱估计的瞬态噪声抑制方法 |
CN103686575A (zh) * | 2013-11-28 | 2014-03-26 | 清华大学 | 助听装置 |
CN105611477A (zh) * | 2015-12-27 | 2016-05-25 | 北京工业大学 | 数字助听器中深度和广度神经网络相结合的语音增强算法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111656363A (zh) * | 2017-07-31 | 2020-09-11 | 森田公司 | 用于音频信号处理的微控制器接口 |
CN107689227A (zh) * | 2017-08-23 | 2018-02-13 | 上海爱优威软件开发有限公司 | 一种基于数据融合的语音降噪方法及系统 |
CN108024188A (zh) * | 2017-09-30 | 2018-05-11 | 天津大学 | 一种基于智能终端的高可懂度语音降噪算法 |
WO2019227279A1 (zh) * | 2018-05-28 | 2019-12-05 | 深圳市大疆创新科技有限公司 | 降噪方法、装置和无人机 |
CN110709921A (zh) * | 2018-05-28 | 2020-01-17 | 深圳市大疆创新科技有限公司 | 降噪方法、装置和无人机 |
CN109714692A (zh) * | 2018-12-26 | 2019-05-03 | 天津大学 | 基于个人数据与人工神经网络的助听器降噪方法 |
CN109831732A (zh) * | 2019-02-25 | 2019-05-31 | 天津大学 | 基于智能手机的智能啸叫抑制装置和方法 |
CN111092798A (zh) * | 2019-12-24 | 2020-05-01 | 东华大学 | 一种基于口语理解的可穿戴系统 |
CN111092798B (zh) * | 2019-12-24 | 2021-06-11 | 东华大学 | 一种基于口语理解的可穿戴系统 |
CN111818436A (zh) * | 2020-07-14 | 2020-10-23 | 无锡清耳话声科技有限公司 | 基于机器学习的真耳分析测试系统 |
CN111818436B (zh) * | 2020-07-14 | 2021-09-28 | 无锡清耳话声科技有限公司 | 基于机器学习的真耳分析测试系统 |
CN112562716A (zh) * | 2020-12-03 | 2021-03-26 | 兰州交通大学 | 基于神经网络的语音增强方法、装置、终端和介质 |
CN112908353A (zh) * | 2021-02-03 | 2021-06-04 | 天津大学 | 用于助听器的边缘计算与云计算相结合的语音增强方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106782497B (zh) | 2020-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106782497A (zh) | 一种基于便携式智能终端的智能语音降噪算法 | |
CN109859767B (zh) | 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质 | |
CN105741849B (zh) | 数字助听器中融合相位估计与人耳听觉特性的语音增强方法 | |
CN105611477B (zh) | 数字助听器中深度和广度神经网络相结合的语音增强算法 | |
CN111833896B (zh) | 融合反馈信号的语音增强方法、系统、装置和存储介质 | |
CN104347067B (zh) | 一种音频信号分类方法和装置 | |
CN110085245B (zh) | 一种基于声学特征转换的语音清晰度增强方法 | |
CN102456351A (zh) | 一种语音增强的系统 | |
TW201248613A (en) | System and method for monaural audio processing based preserving speech information | |
CN107967920A (zh) | 一种改进的自编码神经网络语音增强算法 | |
CN105448302B (zh) | 一种环境自适应的语音混响消除方法和系统 | |
CN101996630A (zh) | 基于二进时频单元的自动声音识别 | |
CN103026738A (zh) | 助听器系统中信号处理的方法和助听器系统 | |
CN109831732A (zh) | 基于智能手机的智能啸叫抑制装置和方法 | |
CN109147808A (zh) | 一种言语增强助听方法 | |
CN108986832A (zh) | 基于语音出现概率和一致性的双耳语音去混响方法和装置 | |
CN110383798A (zh) | 声学信号处理装置、声学信号处理方法和免提通话装置 | |
CN111986660A (zh) | 一种神经网络子带建模的单通道语音增强方法、系统及存储介质 | |
CN106331969A (zh) | 基于统计语音和噪声模型的有噪声语音的增强 | |
CN115884032A (zh) | 一种后馈式耳机的智慧通话降噪方法及系统 | |
CN103400578B (zh) | 谱减与动态时间规整算法联合处理的抗噪声声纹识别装置 | |
CN110136733A (zh) | 一种音频信号的解混响方法和装置 | |
CN110970044A (zh) | 一种面向语音识别的语音增强方法 | |
Bhat et al. | Smartphone based real-time super gaussian single microphone speech enhancement to improve intelligibility for hearing aid users using formant information | |
Li et al. | A smart binaural hearing aid architecture leveraging a smartphone APP with deep-learning speech enhancement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20221208 Address after: 518172 516, building 4, Qidi Xiexin Science Park, Qingchun Road, Longcheng street, Longgang District, Shenzhen, Guangdong Province Patentee after: SHENZHEN EARTECH Co.,Ltd. Address before: 300072 Tianjin City, Nankai District Wei Jin Road No. 92 Patentee before: Tianjin University |
|
TR01 | Transfer of patent right |