CN117594053A - 语音降噪方法、处理终端及存储介质 - Google Patents
语音降噪方法、处理终端及存储介质 Download PDFInfo
- Publication number
- CN117594053A CN117594053A CN202311477764.5A CN202311477764A CN117594053A CN 117594053 A CN117594053 A CN 117594053A CN 202311477764 A CN202311477764 A CN 202311477764A CN 117594053 A CN117594053 A CN 117594053A
- Authority
- CN
- China
- Prior art keywords
- noise
- voice data
- frequency point
- voice
- spectrum
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009467 reduction Effects 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012545 processing Methods 0.000 title claims abstract description 28
- 238000001228 spectrum Methods 0.000 claims abstract description 64
- 238000003062 neural network model Methods 0.000 claims abstract description 22
- 238000004590 computer program Methods 0.000 claims description 21
- 238000012217 deletion Methods 0.000 claims description 8
- 230000037430 deletion Effects 0.000 claims description 8
- 238000012935 Averaging Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明提供一种语音降噪方法、处理终端及存储介质。该方法包括:对当前帧语音数据进行傅里叶变换,得到傅里叶变换频谱;将傅里叶变换频谱输入神经网络模型进行噪声估计得到噪声谱,并根据噪声谱确定各频点的增益系数;根据各个频点的增益系数乘以傅里叶变换频谱,得到降噪后的频谱;对降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据。本发明采用神经网络计算噪声谱,进而根据噪声谱对语音数据进行降噪,并不直接采用神经网络模型降噪,降低了计算量,同时对平稳噪声和非平稳噪声均可进行更准确的估计,准确率高。
Description
技术领域
本发明涉及语音处理技术领域,尤其涉及一种语音降噪方法、处理终端及存储介质。
背景技术
由于环境中存在大量的噪音,电子设备在采集语音信号的过程中不可避免的会同时采集得到噪音信号,从而使得语音信号受噪音污染,不纯净。因此,需要对采集得到的语音信号进行去噪,提取出纯净的语音信号。
现有技术中,基于神经网络模型自学习的特性,可采用神经网络模型自适应地学习不同类型和程度的噪声,从而对语音信号进行去噪。但由于神经网络模型对于复杂和高维度的数据结构不够灵活,导致其用于对语音信号去噪时计算复杂,准确度不够高。
发明内容
本发明实施例提供了一种语音降噪方法、处理终端及存储介质,以解采用神经网络模型对语音信号去噪,计算量大,准确率不够高的问题。
第一方面,本发明实施例提供了一种语音降噪方法,包括:
对当前帧语音数据进行傅里叶变换,得到傅里叶变换频谱;
将傅里叶变换频谱输入神经网络模型进行噪声估计得到噪声谱,并根据噪声谱确定各频点的增益系数;
根据各个频点的增益系数乘以傅里叶变换频谱,得到降噪后的频谱;
对降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据。
可选的,根据噪声谱确定各频点的增益系数,包括:
根据噪声谱,确定各频点的先验信噪比和后验信噪比;
根据各频点的先验信噪比和后验信噪比,确定各频点的增益系数。
可选的,根据各频点的先验信噪比和后验信噪比,确定各频点的增益系数,包括:
根据各频点的先验信噪比和后验信噪比,确定各频点语音存在时的条件增益;
根据各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率;
根据各频点语音存在时的条件增益及各频点语音存在时的条件增益,确定各频点的增益系数。
可选的,根据各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率,包括:
根据各频点的先验信噪比进行决策,确定各频点语音缺失的概率;
根据各频点语音缺失的概率、各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率。
可选的,当前帧语音数据的点数为2N;当前帧语音数据中的前N个点的数据与上一帧语音数据中的后N个点的数据重合;在对降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据之后,方法还包括:
将上一帧降噪后的语音数据中的后N个点的语音数据,与当前帧降噪后的语音数据中的前N个点的语音数据平均,得到该N个点降噪后的语音数据。
可选的,在对当前帧语音数据进行傅里叶变换,得到傅里叶变换频谱之前,上述方法还可以包括:
对待检测语音数据进行加窗,得到当前帧语音数据。
可选的,当前帧语音数据的点数为2N;当前帧语音数据中的前N个点的数据与上一帧语音数据中的后N个点的数据重合;在对降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据之后,上述方法还包括:
将上一帧降噪后的语音数据中的后N个点的语音数据,与当前帧降噪后的语音数据中的前N个点的语音数据相加,得到该N个点降噪后的语音数据。
可选的,神经网络模型为GRU模型、LSTM模型、CNN模型或DNN模型。
第二方面,本发明实施例提供了一种处理终端,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式提供的语音降噪方法的步骤。
第三方面,本发明实施例提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现如上第一方面或第一方面的任一种可能的实现方式提供的语音降噪方法的步骤。
本发明实施例提供一种语音降噪方法、处理终端及存储介质。该方法包括:对当前帧语音数据进行傅里叶变换,得到傅里叶变换频谱;将傅里叶变换频谱输入神经网络模型进行噪声估计得到噪声谱,并根据噪声谱确定各频点的增益系数;根据各个频点的增益系数乘以傅里叶变换频谱,得到降噪后的频谱;对降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据。本发明实施例中不直接利用神经网络模型进行噪声去除,而仅采用神经网络计算噪声谱,进而根据噪声谱对语音数据进行降噪,降低了计算复杂度,同时对平稳噪声和非平稳噪声均可进行更准确的估计,准确率高。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种语音降噪方法的实现流程图;
图2是本发明实施例提供的各帧语音数据的示意图;
图3是本发明实施例提供的语音降噪装置的结构示意图;
图4是本发明实施例提供的处理终端的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
参见图1,其示出了本发明实施例提供的语音降噪方法的实现流程图,详述如下:
S101:对当前帧语音数据进行傅里叶变换,得到傅里叶变换频谱;
S102:将傅里叶变换频谱输入神经网络模型进行噪声估计得到噪声谱,并根据噪声谱确定各频点的增益系数;
S103:根据各个频点的增益系数乘以傅里叶变换频谱,得到降噪后的频谱;
S104:对降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据。
神经网络(Neural Networks,NN)是由大量的、简单的处理单元(称为神经元)广泛地互相连接而形成的复杂网络系统,它反映了人脑功能的许多基本特征,是一个高度复杂的非线性动力学习系统。圣经网络模型可以自适应地学习不同类型和程度的噪声,可以处理非线性和非平稳噪声,并且可以在训练过程中自动优化模型参数以提高性能,自适应型和鲁棒性较好。但利用其直接进行去噪需要大量的训练数据和计算资源,容易受到过拟合的影响,且对于复杂和高维度的数据结构可能不够灵活。
基于此,本发明实施例中并不直接利用神经网络模型进行去噪,而是采用神经网络模型进行噪声估计,可以得到更加准确的噪声谱,进而基于噪声谱对语音数据进行降噪,利用了神经网络模型的优势,对平稳噪声和非平稳噪声均可进行更准确的估计,同时大大降低了计算复杂度,降噪效果好,算力低。
在一种可能的实施方式中,S102可以包括:
S1021:根据噪声谱,确定各频点的先验信噪比和后验信噪比;
S1022:根据各频点的先验信噪比和后验信噪比,确定各频点的增益系数。
基于神经网络模型准确估计得到噪声谱,结合传统去噪算法,采用先验信噪比和后验信噪比确定各频点的增益系数,结合传统去噪算法和神经网络模型的优势,提高了去噪的准确性,且降低了算力。
在一种可能的实施方式中,当前帧语音数据的点数为2N;当前帧语音数据中的前N个点的数据与上一帧语音数据中的后N个点的数据重合;在S104之后,上述方法还可以包括:
S105:将上一帧降噪后的语音数据中的后N个点的语音数据,与当前帧降噪后的语音数据中的前N个点的语音数据平均,得到该N个点降噪后的语音数据。
本发明实施例中,为提高去噪的准确性,本发明实施例前后两帧存在重合的部分,例如,参考图2,音频采集线程从ALSA库中获取数据,并存入相应的缓存中(采集数据不限于一个或多个线程),数据处理线程从缓存中循环读取数据,每次读取256个频点(频点数量可根据实际应用需求设定)的数据,与上一次读取的256个数据拼接成一帧语音数据,每帧数据存在256个频点的语音数据重合。将上一帧后256个频点降噪后的语音数据与当前帧前256个频点降噪后的语音数据相加平均,得到该256个频点去噪后的语音数据,风险平均,可降低单次去噪不准确的风险,有效提高了降噪的准确性。
进一步的,在一种可能的实施方式中,在S101之前,上述方法还可以包括:
S106:对待检测语音数据进行加窗,得到当前帧语音数据。
为提高安全性,防止频谱泄露,本发明实施例对采集得到的语音数据加窗。
具体的,窗函数可以包括但不限于汉宁窗、汉明窗等。
基于以上,在一种可能的实施方式中,当前帧语音数据的点数为2N;当前帧语音数据中的前N个点的数据与上一帧语音数据中的后N个点的数据重合;在S101之后,上述方法还可以包括:
S107:将上一帧降噪后的语音数据中的后N个点的语音数据,与当前帧降噪后的语音数据中的前N个点的语音数据相加,得到该N个点降噪后的语音数据。
由于对语音数据加窗,幅值降低,前后两帧语音数据中重合部分数据,一个位于前一帧的前半部分,一个位于后一帧的后半部分,因此上一帧降噪后的语音数据与后一帧降噪后的语音数据线相加后约等于正常的幅值大小,无需进行平均,直接相加即可,既防止了频谱泄露,又降低了计算难度。
参考以上,相邻的两帧语音数据存在重合,相邻的两帧语音数据相关。基于此,具体的,后验信噪比γ(k,l)的计算公式可以如下:
其中,Y(k,l)为第l帧语音数据的第k个频点的噪声谱的幅值。
先验信噪比ζ(k,l)的计算公式可以如下:
其中,α为权重因子,为第l-1帧语音数据的第k个频点的条件增益。
在一种可能的实施方式中,S1022可以包括:
1、根据各频点的先验信噪比和后验信噪比,确定各频点语音存在时的条件增益;
2、根据各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率;
3、根据各频点语音存在时的条件增益及各频点语音存在时的条件增益,确定各频点的增益系数。
进一步的,本发明实施例中首先根据各频点的先验信噪比和后验信噪比,确定各频点语音存在时的条件增益具体计算公式可以如下:
其中,v(k,l)传输参数。
在一种可能的实施方式中,根据各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率,可以包括:
(1)根据各频点的先验信噪比进行决策,确定各频点语音缺失的概率;
(2)根据各频点语音缺失的概率、各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率。
具体的,各频点语音缺失的概率q(k,l)的计算公式可以如下:
q(k,l)=1-plocal(k,l)pglobal(k,l)pprame(k,l)
其中,plocal(k,l)为第l帧语音数据的第k个频点的局部递归平均先验SNR,pglobal(k,l)为第l帧语音数据的第k个频点的全局递归平均先验SNR。
各频点语音存在的概率p(k,l)的计算公式可以如下:
进一步的,各频点的增益系数G(k,l)的计算公式可以为:
其中,Gmin为语音不存在时的条件增益,为常数。
在一种可能的实施方式中,神经网络模型可以为GRU模型、LSTM模型、CNN模型或DNN模型。
神经网络模型的具体架构可根据实际应用需求选取,本发明不做限定。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
以下为本发明的装置实施例,对于其中未详尽描述的细节,可以参考上述对应的方法实施例。
图3示出了本发明实施例提供的语音降噪装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
如图3所示,语音降噪装置包括:
第一变换模块21,用于对当前帧语音数据进行傅里叶变换,得到傅里叶变换频谱;
噪声估计模块22,用于将傅里叶变换频谱输入神经网络模型进行噪声估计得到噪声谱,并根据噪声谱确定各频点的增益系数;
降噪模块23,用于根据各个频点的增益系数乘以傅里叶变换频谱,得到降噪后的频谱;
第二变换模块24,用于对降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据。
在一种可能的实施方式中,噪声估计模块22可以包括:
信噪比确定单元,用于根据噪声谱,确定各频点的先验信噪比和后验信噪比;
增益系数确定单元,用于根据各频点的先验信噪比和后验信噪比,确定各频点的增益系数。
在一种可能的实施方式中,增益系数确定单元可以包括:
条件增益确定子单元,用于根据各频点的先验信噪比和后验信噪比,确定各频点语音存在时的条件增益;
概率确定子单元,用于根据各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率。
增益输出子单元,用于根据各频点语音存在时的条件增益及各频点语音存在时的条件增益,确定各频点的增益系数。
在一种可能的实施方式中,概率确定子单元可以具体用于:
1、根据各频点的先验信噪比进行决策,确定各频点语音缺失的概率;
2、根据各频点语音缺失的概率、各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率。
在一种可能的实施方式中,当前帧语音数据的点数为2N;当前帧语音数据中的前N个点的数据与上一帧语音数据中的后N个点的数据重合;上述装置还可以包括:
第一性能提升模块,用于将上一帧降噪后的语音数据中的后N个点的语音数据,与当前帧降噪后的语音数据中的前N个点的语音数据平均,得到该N个点降噪后的语音数据。
在一种可能的实施方式中,上述装置还可以包括:
加窗模块,用于对待检测语音数据进行加窗,得到当前帧语音数据。
在一种可能的实施方式中,当前帧语音数据的点数为2N;当前帧语音数据中的前N个点的数据与上一帧语音数据中的后N个点的数据重合;上述装置还可以包括:
第二性能提升模块,用于将上一帧降噪后的语音数据中的后N个点的语音数据,与当前帧降噪后的语音数据中的前N个点的语音数据相加,得到该N个点降噪后的语音数据。
在一种可能的实施方式中,神经网络模型可以为GRU模型、LSTM模型、CNN模型或DNN模型。
图4是本发明实施例提供的处理终端3的示意图。如图4所示,该实施例的处理终端3包括:处理器30和存储器31。存储器31用于存储计算机程序32,处理器30用于调用并运行存储器31中存储的计算机程序32,执行上述各个语音去噪方法实施例中的步骤,例如图1所示的步骤S101至S104。或者,处理器30用于调用并运行存储器31中存储的计算机程序32,实现上述各装置实施例中各模块/单元的功能,例如图3所示模块21至24的功能。
示例性的,计算机程序32可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器31中,并由处理器30执行,以完成本发明。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序32在处理终端3中的执行过程。例如,计算机程序32可以被分割成图3所示的模块/单元21至24。
处理终端3可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。处理终端3可包括,但不仅限于,处理器30、存储器31。本领域技术人员可以理解,图4仅仅是处理终端3的示例,并不构成对处理终端3的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如终端还可以包括输入输出设备、网络接入设备、总线等。
所称处理器30可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器31可以是处理终端3的内部存储单元,例如处理终端3的硬盘或内存。存储器31也可以是处理终端3的外部存储设备,例如处理终端3上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器31还可以既包括处理终端3的内部存储单元也包括外部存储设备。存储器31用于存储计算机程序以及终端所需的其他程序和数据。存储器31还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种语音降噪方法,其特征在于,包括:
对当前帧语音数据进行傅里叶变换,得到傅里叶变换频谱;
将所述傅里叶变换频谱输入神经网络模型进行噪声估计得到噪声谱,并根据所述噪声谱确定各频点的增益系数;
根据各个频点的增益系数乘以所述傅里叶变换频谱,得到降噪后的频谱;
对所述降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据。
2.根据权利要求1所述的语音降噪方法,其特征在于,所述根据所述噪声谱确定各频点的增益系数,包括:
根据所述噪声谱,确定各频点的先验信噪比和后验信噪比;
根据各频点的先验信噪比和后验信噪比,确定各频点的增益系数。
3.根据权利要求2所述的语音降噪方法,其特征在于,所述根据各频点的先验信噪比和后验信噪比,确定各频点的增益系数,包括:
根据各频点的先验信噪比和后验信噪比,确定各频点语音存在时的条件增益;
根据各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率;
根据各频点语音存在时的条件增益及各频点语音存在时的条件增益,确定各频点的增益系数。
4.根据权利要求3所述的语音降噪方法,其特征在于,所述根据各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率,包括:
根据各频点的先验信噪比进行决策,确定各频点语音缺失的概率;
根据各频点语音缺失的概率、各频点的先验信噪比和后验信噪比,确定各频点语音存在的概率。
5.根据权利要求4所述的语音降噪方法,其特征在于,所述当前帧语音数据的点数为2N;所述当前帧语音数据中的前N个点的数据与上一帧语音数据中的后N个点的数据重合;在所述对所述降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据之后,所述方法还包括:
将上一帧降噪后的语音数据中的后N个点的语音数据,与当前帧降噪后的语音数据中的前N个点的语音数据平均,得到该N个点降噪后的语音数据。
6.根据权利要求4所述的语音降噪方法,其特征在于,在所述对当前帧语音数据进行傅里叶变换,得到傅里叶变换频谱之前,所述方法还包括:
对待检测语音数据进行加窗,得到所述当前帧语音数据。
7.根据权利要求6所述的语音降噪方法,其特征在于,所述当前帧语音数据的点数为2N;所述当前帧语音数据中的前N个点的数据与上一帧语音数据中的后N个点的数据重合;在所述对所述降噪后的频谱进行反傅里叶变换得到当前帧降噪后的语音数据之后,所述方法还包括:
将上一帧降噪后的语音数据中的后N个点的语音数据,与当前帧降噪后的语音数据中的前N个点的语音数据相加,得到该N个点降噪后的语音数据。
8.根据权利要求1至7任一项所述的语音降噪方法,其特征在于,所述神经网络模型为GRU模型、LSTM模型、CNN模型或DNN模型。
9.一种处理终端,其特征在于,包括处理器和存储器,所述存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,执行如权利要求1至8中任一项所述的语音降噪方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上的权利要求1至8中任一项所述语音降噪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311477764.5A CN117594053A (zh) | 2023-11-07 | 2023-11-07 | 语音降噪方法、处理终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311477764.5A CN117594053A (zh) | 2023-11-07 | 2023-11-07 | 语音降噪方法、处理终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117594053A true CN117594053A (zh) | 2024-02-23 |
Family
ID=89912506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311477764.5A Pending CN117594053A (zh) | 2023-11-07 | 2023-11-07 | 语音降噪方法、处理终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117594053A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117995215A (zh) * | 2024-04-03 | 2024-05-07 | 深圳爱图仕创新科技股份有限公司 | 语音信号的处理方法、装置、计算机设备及存储介质 |
-
2023
- 2023-11-07 CN CN202311477764.5A patent/CN117594053A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117995215A (zh) * | 2024-04-03 | 2024-05-07 | 深圳爱图仕创新科技股份有限公司 | 语音信号的处理方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109767783B (zh) | 语音增强方法、装置、设备及存储介质 | |
CN110634497B (zh) | 降噪方法、装置、终端设备及存储介质 | |
CN108615535A (zh) | 语音增强方法、装置、智能语音设备和计算机设备 | |
CN110969092B (zh) | 脉冲信号去噪方法、装置及终端设备 | |
CN117594053A (zh) | 语音降噪方法、处理终端及存储介质 | |
CN109785246B (zh) | 一种非局部均值滤波的降噪方法、装置及设备 | |
CN110047519B (zh) | 一种语音端点检测方法、装置及设备 | |
JP6784758B2 (ja) | ノイズ信号判定方法及び装置並びに音声ノイズ除去方法及び装置 | |
CN113314147B (zh) | 音频处理模型的训练方法及装置、音频处理方法及装置 | |
CN117318671B (zh) | 一种基于快速傅里叶变换的自适应滤波方法 | |
CN110797033A (zh) | 基于人工智能的声音识别方法、及其相关设备 | |
CN113299298B (zh) | 残差单元及网络及目标识别方法及系统及装置及介质 | |
CN114943649A (zh) | 图像去模糊方法、装置及计算机可读存储介质 | |
CN116912636B (zh) | 目标识别方法及装置 | |
CN112837695A (zh) | 一种滤波方法、装置、终端及存储介质 | |
CN114047499B (zh) | 传感器阵列信号幅度不一致时的信号归一化方法及设备 | |
CN115831145A (zh) | 一种双麦克风语音增强方法和系统 | |
CN111968620A (zh) | 算法的测试方法、装置、电子设备及存储介质 | |
CN115859048A (zh) | 一种局放信号的噪声处理方法及装置 | |
CN115565548A (zh) | 异常声音检测方法、装置、存储介质及电子设备 | |
CN113297195B (zh) | 一种时间序列异常检测方法、装置及设备 | |
CN114360563A (zh) | 语音降噪方法、装置、设备及存储介质 | |
CN111613247B (zh) | 一种基于麦克风阵列的前景语音检测方法及装置 | |
CN113299302A (zh) | 音频降噪方法、装置及电子设备 | |
CN110648681A (zh) | 语音增强的方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |