CN111028858A - 一种人声起止时间检测方法及装置 - Google Patents
一种人声起止时间检测方法及装置 Download PDFInfo
- Publication number
- CN111028858A CN111028858A CN201911407236.6A CN201911407236A CN111028858A CN 111028858 A CN111028858 A CN 111028858A CN 201911407236 A CN201911407236 A CN 201911407236A CN 111028858 A CN111028858 A CN 111028858A
- Authority
- CN
- China
- Prior art keywords
- neural network
- preset
- voice
- trained
- vad
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013528 artificial neural network Methods 0.000 claims abstract description 147
- 230000000873 masking effect Effects 0.000 claims abstract description 54
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 239000000203 mixture Substances 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 230000001755 vocal effect Effects 0.000 claims description 4
- 230000009467 reduction Effects 0.000 abstract description 12
- 230000008569 process Effects 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 11
- 230000009286 beneficial effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/87—Detection of discrete points within a voice signal
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种人声起止时间检测方法及装置,包括:利用带噪的预设语音生成预设语音的第一倒谱特征,基于第一倒谱特征获得预测掩蔽值;根据预测掩蔽值对第一预设神经网络进行训练进而生成训练后的第一神经网络;利用训练后的第一神经网络得到带噪的预设VAD语音的预测mask值;根据预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络;获取带噪的当前VAD语音,基于训练后的第一神经网络和训练后的第二神经网络获得带噪的当前VAD语音的起止时间。通过对带噪的VAD语音进行加降噪处理然后获得VAD标签进而确定上述VAD标签里人声的起止时间,排除了语音中的噪音成分,从根本上提高了整个过程的稳定性和获取结果的准确性。
Description
技术领域
本发明涉及语音数据处理技术领域,尤其涉及一种人声起止时间检测方法及装置。
背景技术
目前,语音通话功能、录音功能和音乐播放功能等是目前移动终端上的常用功能,由于在上述功能的运行过程中会在人声中间夹杂无声的片段、使得用户体验效果不佳。基于上述难题,现有技术的基于深度学习的方法通过利用带噪语音的频谱特征及其变种作为输入,得到该帧语音的标签。这种方法存在以下缺点:在有复杂噪声情况下的性能很差导致信噪比很低,在这种环境下不能准确的判断语音的VAD(语音端点检测)标签,进而无法确定语音中人声的开始时间和结束时间,效果不佳且稳定性低。
发明内容
针对上述所显示出来的问题,本方法基于预先训练降噪模型然后利用降噪模型对带噪的预设VAD语音进行降噪的同时得到预测mask值,根据预测mask值训练VAD模型然后利用训练后的VAD模型提取带噪的当前VAD标签进而确定带噪的当前VAD语音中的人声开始时间和结束时间。
一种人声起止时间检测方法,包括以下步骤:
利用带噪的预设语音生成所述预设语音的第一倒谱特征,基于所述第一倒谱特征获得预测掩蔽值;
根据所述预测掩蔽值对第一预设神经网络进行训练进而生成训练后的第一神经网络;
利用所述训练后的第一神经网络得到带噪的预设VAD语音的预测mask值;
根据所述预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络;
获取带噪的当前VAD语音,基于所述训练后的第一神经网络和所述训练后的第二神经网络获得所述带噪的当前VAD语音的起止时间。
优选的,所述利用带噪的预设语音生成所述预设语音的第一倒谱特征,基于所述第一倒谱特征获得预测掩蔽值,包括:
获取多个带噪的预设语音;
利用下列公式提取所述第一倒谱特征:
cepstral=ISTFT(log(STFT(mixture)));
其中,所述STFT()为短时傅里叶变换,所述ISTFT为短时逆傅里叶变换,所述mixture为带噪的预设语音;
将所述第一倒谱特征输入到所述第一预设神经网络中以计算所述预测掩蔽值。
优选的,所述根据所述预测掩蔽值对第一预设神经网络进行训练进而生成训练后的第一神经网络,包括:
获取多个纯净的预设语音;所述多个纯净的预设语音与所述多个带噪的预设语音相对应;
利用下列公式计算实际掩蔽值:
其中,所述pure为纯净的预设语音,所述θ为相位,|xx|为幅度;
计算所述实际掩蔽值和所述预测掩蔽值的差值;
通过前馈算法和所述差值对所述第一预设神经网络进行训练进而生成所述训练后的第一神经网络。
优选的,所述利用所述训练后的第一神经网络得到带噪的预设VAD语音的预测mask值,包括:
获取所述带噪的预设VAD语音;
提取所述带噪的预设VAD语音的第二倒谱特征;
将所述第二倒谱特征输入到所述训练后的第一神经网络中;
输出所述预测mask值;
所述根据所述预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络,包括:
将所述预测mask值输入到所述第二预设神经网络中以计算预测VAD标签;
根据实际VAD标签和所述预设VAD标签的差值对所述预设第二神经网络进行训练以生成所述训练后的第二神经网络。
优选的,所述获取带噪的当前VAD语音,基于所述训练后的第一神经网络和所述训练后的第二神经网络获得所述带噪的当前VAD语音的起止时间,包括:
提取所述带噪的当前VAD语音的第三倒谱特征;
将所述第三倒谱特征输入到所述训练后的第一神经网络中以得到当前mask值;
将所述当前mask值输入到所述训练后的第二神经网络中以得到当前VAD标签;
根据所述当前VAD标签确定所述带噪的当前VAD语音中人声的起止时间。
一种人声起止时间检测装置,该装置包括:
第一获取模块,用于利用带噪的预设语音生成所述预设语音的第一倒谱特征,基于所述第一倒谱特征获得预测掩蔽值;
第一训练模块,用于根据所述预测掩蔽值对第一预设神经网络进行训练进而生成训练后的第一神经网络;
生成模块,用于利用所述训练后的第一神经网络得到带噪的预设VAD语音的预测mask值;
第二训练模块,用于根据所述预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络;
第二获取模块,用于获取带噪的当前VAD语音,基于所述训练后的第一神经网络和所述训练后的第二神经网络获得所述带噪的当前VAD语音的起止时间。
优选的,所述第一获取模块,包括:
第一获取子模块,用于获取多个带噪的预设语音;
第一提取子模块,用于利用下列公式提取所述第一倒谱特征:
cepstral=ISTFT(log(STFT(mixture)));
其中,所述STFT()为短时傅里叶变换,所述ISTFT为短时逆傅里叶变换,所述mixture为带噪的预设语音;
第一计算子模块,用于将所述第一倒谱特征输入到所述第一预设神经网络中以计算所述预测掩蔽值。
优选的,所述第一训练模块,包括:
第二获取子模块,用于获取多个纯净的预设语音;所述多个纯净的预设语音与所述多个带噪的预设语音相对应;
第二计算子模块,用于利用下列公式计算实际掩蔽值:
其中,所述pure为纯净的预设语音,所述θ为相位,|xx|为幅度;
第三计算子模块,用于计算所述实际掩蔽值和所述预测掩蔽值的差值;
第一训练子模块,用于通过前馈算法和所述差值对所述第一预设神经网络进行训练进而生成所述训练后的第一神经网络。
优选的,所述生成模块,包括:
第三获取子模块,用于获取所述带噪的预设VAD语音;
第二提取子模块,用于提取所述带噪的预设VAD语音的第二倒谱特征;
输入子模块,用于将所述第二倒谱特征输入到所述训练后的第一神经网络中;
输出子模块,用于输出所述预测mask值;
所述第二训练模块,包括:
第四计算子模块,用于将所述预测mask值输入到所述第二预设神经网络中以计算预测VAD标签;
第二训练子模块,用于根据实际VAD标签和所述预设VAD标签的差值对所述预设第二神经网络进行训练以生成所述训练后的第二神经网络。
优选的,所述第二获取模块,包括:
第三提取子模块,用于提取所述带噪的当前VAD语音的第三倒谱特征;
第一获得子模块,用于将所述第三倒谱特征输入到所述训练后的第一神经网络中以得到当前mask值;
第二获得子模块,用于将所述当前mask值输入到所述训练后的第二神经网络中以得到当前VAD标签;
确定子模块,用于根据所述当前VAD标签确定所述带噪的当前VAD语音中人声的起止时间。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明所提供的一种人声起止时间检测方法的工作流程图;
图2为本发明所提供的一种人声起止时间检测方法的另一工作流程图;
图3为本发明所提供的一种人声起止时间检测方法的工作流程截图;
图4为本发明所提供的一种人声起止时间检测装置的结构图;
图5为本发明所提供的一种人声起止时间检测装置的另一结构图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
目前,语音通话功能、录音功能和音乐播放功能等是目前移动终端上的常用功能,由于在上述功能的运行过程中会在人声中间夹杂无声的片段、使得用户体验效果不佳。基于上述难题,现有技术的基于深度学习的方法通过利用带噪语音的频谱特征及其变种作为输入,得到该帧语音的标签。这种方法存在以下缺点:在有复杂噪声情况下的性能很差导致信噪比很低,在这种环境下不能准确的判断语音的VAD标签,进而无法确定语音中人声的开始时间和结束时间,效果不佳且稳定性低。为了解决上述问题,本实施例公开了一种基于预先训练降噪模型然后利用降噪模型对带噪的预设VAD语音进行降噪的同时得到预测mask值,根据预测mask值训练VAD模型然后利用训练后的VAD模型提取带噪的当前VAD标签进而确定带噪的当前VAD语音中的人声开始时间和结束时间的方法。
一种人声起止时间检测方法,如图1所示,包括以下步骤:
步骤S101、利用带噪的预设语音生成预设语音的第一倒谱特征,基于第一倒谱特征获得预测掩蔽值;
步骤S102、根据预测掩蔽值对第一预设神经网络进行训练进而生成训练后的第一神经网络;
步骤S103、利用训练后的第一神经网络得到带噪的预设VAD语音的预测mask值;
步骤S104、根据预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络;
步骤S105、获取带噪的当前VAD语音,基于训练后的第一神经网络和训练后的第二神经网络获得带噪的当前VAD语音的起止时间;
特别的,上述mask值指的是在语音中语音里每一帧为人声的概率,mask的值都在0到1之间,当某帧属于语音的时候,该帧的mask值会接近于1,相反的,当某帧属于噪音的时候,该帧的mask值会接近于0。
上述技术方案的工作原理为:提取带噪的预设语音的第一倒谱特征,基于第一倒谱特征获得预测掩蔽值,利用预测掩蔽值来对第一预设神经网络训练而生成训练后的第一神经网络,通过训练后的第一神经网络对带噪的预设VAD语音进行降噪然后得到预测mask值,根据预测mask值对第二预设神经网络进行训练,生成训练后的第二神经网络,获取带噪的当前VAD语音结合上述训练后的第一神经网络和训练后的第二神经网络来获得当前VAD标签进而确定当前VAD语音中人声的起止时间。
上述技术方案的有益效果为:本发明通过对带噪的VAD语音进行加降噪处理然后获得VAD标签进而确定上述VAD标签里人声的起止时间,排除了语音中的噪音成分,解决了现有技术中由于信噪比低无法准确的根据VAD标签获得语音中人声的起止时间的问题,从根本上提高了整个过程的稳定性和获取结果的准确性。
在一个实施例中,利用带噪的预设语音生成预设语音的第一倒谱特征,基于第一倒谱特征获得预测掩蔽值,包括:
获取多个带噪的预设语音;
利用下列公式提取第一倒谱特征:
cepstral=ISTFT(log(STFT(mixture)));
其中,STFT()为短时傅里叶变换,ISTFT为短时逆傅里叶变换,mixture为带噪的预设语音;
将第一倒谱特征输入到第一预设神经网络中以计算预测掩蔽值。
上述技术方案的有益效果为:获取多个带噪的预设语音来获取多种掩蔽值以应对不同的情况,进而根据多种掩蔽值来训练预设神经网络,使得训练模型更加完整,避免了由于当前带噪语音中含有预设神将网络无法识别的掩蔽值而无法对当前带噪语音有效降噪的问题。同时,获取倒谱特征来训练预设神经网络相比于基于深度学习技术的降噪方法所需要的其他特征所训练预设神经网络更加完美,降噪效果也更佳。
在一个实施例中,根据预测掩蔽值对第一预设神经网络进行训练进而生成训练后的第一神经网络,包括:
获取多个纯净的预设语音;多个纯净的预设语音与多个带噪的预设语音相对应;
利用下列公式计算实际掩蔽值:
其中,pure为纯净的预设语音,θ为相位,|xx|为幅度;
计算实际掩蔽值和预测掩蔽值的差值;
通过前馈算法和差值对第一预设神经网络进行训练进而生成训练后的第一神经网络。
上述技术方案的有益效果为:通过对同一种带噪语音和纯净语音的预测掩蔽值和实际掩蔽值进行差值计算进而通过前馈算法优化预设神经网络,使得预设神经网络用以包含更多的掩蔽值,并且训练后的神经网络也更加的完美,以使当前带噪语音可以实现更好的降噪效果。
在一个实施例中,如图2所示,利用训练后的第一神经网络得到带噪的预设VAD语音的预测mask值,包括:
获取带噪的预设VAD语音;
提取带噪的预设VAD语音的第二倒谱特征;
将第二倒谱特征输入到训练后的第一神经网络中;
输出预测mask值;
根据预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络,包括:
将预测mask值输入到第二预设神经网络中以计算预测VAD标签;
根据实际VAD标签和预设VAD标签的差值对预设第二神经网络进行训练以生成训练后的第二神经网络。
上述技术方案的有益效果为:通过将带噪的预设VAD语音输入到训练后的第一神经网络中来进行降噪,除去语音中的噪音部分,避免噪音对后续获取的VAD模型产生干扰和变异的同时也使的信噪比更高,使整个工作流程会更加的高效。
在一个实施例中,获取带噪的当前VAD语音,基于训练后的第一神经网络和训练后的第二神经网络获得带噪的当前VAD语音的起止时间,包括:
步骤S201、提取带噪的当前VAD语音的第三倒谱特征;
步骤S202、将第三倒谱特征输入到训练后的第一神经网络中以得到当前mask值;
步骤S203、将当前mask值输入到训练后的第二神经网络中以得到当前VAD标签;
步骤S204、根据当前VAD标签确定带噪的当前VAD语音中人声的起止时间。
上述技术方案的有益效果为:确保获得的当前VAD是纯净无噪的,避免发生误把噪音当成人声进而生成错误VAD模型的问题,进一步地提高了稳定性和准确性,对于用户来说提高了体验感。
在一个实施例中,如图3所示,包括:
1、提取带噪语音mixture的倒谱特征,公式如下
cepstral=ISTFT(log(|STFT(mixture)|));
STFT和ISTFT分别为短时傅里叶变换和其逆变换,|·|表示幅度。
2、计算mixture与对应纯净语音pure之间的PSM(phase sensitive mask),公式如下
|·|表示幅度,θ表示相位;
3、通过前馈算法,利用MSE(mean square error)作为损失函数训练神经网络,并保存训练好的网络;
4、将用大量带噪语音训练好的模型保存,将需要做VAD的带噪语音输入到模型中,得到该句语音每个时频点所对应的是语音的概率值,即mask值;
5、将得到的带噪语音的mask值输入到VAD模型中进行训练,训练过程中根据当前语音帧的实际VAD标签和模型输出之间的差异来修改模型的参数,直到模型收敛并保存训练好的模型备用;
6、将带噪的需要VAD预测的语句输入到降噪模型,然后将得到的mask输入到VAD预测模型,得到该语音每帧的VAD标签,并进行后处理得到语音段的起止时间。
上述技术方案的工作原理和有益效果为:提取带噪的预设语音的第一倒谱特征,基于第一倒谱特征获得预测掩蔽值,利用预测掩蔽值来对第一预设神经网络训练而生成训练后的第一神经网络,通过训练后的第一神经网络对带噪的预设VAD语音进行降噪然后得到预测mask值,根据预测mask值对第二预设神经网络进行训练,生成训练后的第二神经网络,获取带噪的当前VAD语音结合上述训练后的第一神经网络和训练后的第二神经网络来获得当前VAD标签进而确定当前VAD语音中人声的起止时间。通过大量数据训练的降噪模型得到每个频点的mask值,mask的值都在0到1之间,表示该频点是语音的概率,当该帧属于语音的时候,部分频点的mask值会接近于1,而当该帧属于噪声的时候,每个频点的mask值会接近于0,模型根据每个频点是语音与否给出概率值,直接在mask上进行VAD训练和预测降低了算法对语音能量的依赖,即噪声的mask比语音的mask小,且与语音实际能量无关,提高了模型在低信噪比环境下的VAD预测准确率。
本实施例还公开了一种人声起止时间检测装置,如图4所示,该装置包括:
第一获取模块401,用于利用带噪的预设语音生成预设语音的第一倒谱特征,基于第一倒谱特征获得预测掩蔽值;
第一训练模块402,用于根据预测掩蔽值对第一预设神经网络进行训练进而生成训练后的第一神经网络;
生成模块403,用于利用训练后的第一神经网络得到带噪的预设VAD语音的预测mask值;
第二训练模块404,用于根据预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络;
第二获取模块405,用于获取带噪的当前VAD语音,基于训练后的第一神经网络和训练后的第二神经网络获得带噪的当前VAD语音的起止时间。
在一个实施例中,第一获取模块,包括:
第一获取子模块,用于获取多个带噪的预设语音;
第一提取子模块,用于利用下列公式提取第一倒谱特征:
cepstral=ISTFT(log(STFT(mixture)));
其中,STFT()为短时傅里叶变换,ISTFT为短时逆傅里叶变换,mixture为带噪的预设语音;
第一计算子模块,用于将第一倒谱特征输入到第一预设神经网络中以计算预测掩蔽值。
在一个实施例中,第一训练模块,包括:
第二获取子模块,用于获取多个纯净的预设语音;多个纯净的预设语音与多个带噪的预设语音相对应;
第二计算子模块,用于利用下列公式计算实际掩蔽值:
其中,pure为纯净的预设语音,θ为相位,|xx|为幅度;
第三计算子模块,用于计算实际掩蔽值和预测掩蔽值的差值;
第一训练子模块,用于通过前馈算法和差值对所述第一预设神经网络进行训练进而生成训练后的第一神经网络。
在一个实施例中,生成模块,包括:
第三获取子模块,用于获取带噪的预设VAD语音;
第二提取子模块,用于提取带噪的预设VAD语音的第二倒谱特征;
输入子模块,用于将第二倒谱特征输入到训练后的第一神经网络中;
输出子模块,用于输出预测mask值;
第二训练模块,包括:
第四计算子模块,用于将预测mask值输入到第二预设神经网络中以计算预测VAD标签;
第二训练子模块,用于根据实际VAD标签和预设VAD标签的差值对预设第二神经网络进行训练以生成训练后的第二神经网络。
在一个实施例中,如图5所示,第二获取模块,包括:
第三提取子模块4051,用于提取带噪的当前VAD语音的第三倒谱特征;
第一获得子模块4052,用于将第三倒谱特征输入到训练后的第一神经网络中以得到当前mask值;
第二获得子模块4053,用于将当前mask值输入到训练后的第二神经网络中以得到当前VAD标签;
确定子模块4054,用于根据当前VAD标签确定带噪的当前VAD语音中人声的起止时间。
本领域技术人员应当理解的是,本发明中的第一、第二指的是不同应用阶段而已。
本领域技术用户员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种人声起止时间检测方法,其特征在于,包括以下步骤:
利用带噪的预设语音生成所述预设语音的第一倒谱特征,基于所述第一倒谱特征获得预测掩蔽值;
根据所述预测掩蔽值对第一预设神经网络进行训练进而生成训练后的第一神经网络;
利用所述训练后的第一神经网络得到带噪的预设VAD语音的预测mask值;
根据所述预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络;
获取带噪的当前VAD语音,基于所述训练后的第一神经网络和所述训练后的第二神经网络获得所述带噪的当前VAD语音中人声的起止时间。
2.根据权利要求1所述人声起止时间检测方法,其特征在于,所述利用带噪的预设语音生成所述预设语音的第一倒谱特征,基于所述第一倒谱特征获得预测掩蔽值,包括:
获取多个带噪的预设语音;
利用下列公式提取所述第一倒谱特征:
cepstral=ISTFT(log(STFT(mixture)));
其中,所述STFT()为短时傅里叶变换,所述ISTFT为短时逆傅里叶变换,所述mixture为带噪的预设语音;
将所述第一倒谱特征输入到所述第一预设神经网络中以计算所述预测掩蔽值。
4.根据权利要求3所述人声起止时间检测方法,其特征在于,所述利用所述训练后的第一神经网络得到带噪的预设VAD语音的预测mask值,包括:
获取所述带噪的预设VAD语音;
提取所述带噪的预设VAD语音的第二倒谱特征;
将所述第二倒谱特征输入到所述训练后的第一神经网络中;
输出所述预测mask值;
所述根据所述预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络,包括:
将所述预测mask值输入到所述第二预设神经网络中以计算预测VAD标签;
根据实际VAD标签和所述预设VAD标签的差值对所述预设第二神经网络进行训练以生成所述训练后的第二神经网络。
5.根据权利要求4所述人声起止时间检测方法,其特征在于,所述获取带噪的当前VAD语音,基于所述训练后的第一神经网络和所述训练后的第二神经网络获得所述带噪的当前VAD语音的起止时间,包括:
提取所述带噪的当前VAD语音的第三倒谱特征;
将所述第三倒谱特征输入到所述训练后的第一神经网络中以得到当前mask值;
将所述当前mask值输入到所述训练后的第二神经网络中以得到当前VAD标签;
根据所述当前VAD标签确定所述带噪的当前VAD语音中人声的起止时间。
6.一种人声起止时间检测装置,其特征在于,该装置包括:
第一获取模块,用于利用带噪的预设语音生成所述预设语音的第一倒谱特征,基于所述第一倒谱特征获得预测掩蔽值;
第一训练模块,用于根据所述预测掩蔽值对第一预设神经网络进行训练进而生成训练后的第一神经网络;
生成模块,用于利用所述训练后的第一神经网络得到带噪的预设VAD语音的预测mask值;
第二训练模块,用于根据所述预测mask值对第二预设神经网络进行训练进而生成训练后的第二神经网络;
第二获取模块,用于获取带噪的当前VAD语音,基于所述训练后的第一神经网络和所述训练后的第二神经网络获得所述带噪的当前VAD语音的起止时间。
7.根据权利要求6所述人声起止时间检测装置,其特征在于,所述第一获取模块,包括:
第一获取子模块,用于获取多个带噪的预设语音;
第一提取子模块,用于利用下列公式提取所述第一倒谱特征:
cepstral=ISTFT(log(STFT(mixture)));
其中,所述STFT()为短时傅里叶变换,所述ISTFT为短时逆傅里叶变换,所述mixture为带噪的预设语音;
第一计算子模块,用于将所述第一倒谱特征输入到所述第一预设神经网络中以计算所述预测掩蔽值。
9.根据权利要求8所述人声起止时间检测装置,其特征在于,所述生成模块,包括:
第三获取子模块,用于获取所述带噪的预设VAD语音;
第二提取子模块,用于提取所述带噪的预设VAD语音的第二倒谱特征;
输入子模块,用于将所述第二倒谱特征输入到所述训练后的第一神经网络中;
输出子模块,用于输出所述预测mask值;
所述第二训练模块,包括:
第四计算子模块,用于将所述预测mask值输入到所述第二预设神经网络中以计算预测VAD标签;
第二训练子模块,用于根据实际VAD标签和所述预设VAD标签的差值对所述预设第二神经网络进行训练以生成所述训练后的第二神经网络。
10.根据权利要求9所述人声起止时间检测装置,其特征在于,所述第二获取模块,包括:
第三提取子模块,用于提取所述带噪的当前VAD语音的第三倒谱特征;
第一获得子模块,用于将所述第三倒谱特征输入到所述训练后的第一神经网络中以得到当前mask值;
第二获得子模块,用于将所述当前mask值输入到所述训练后的第二神经网络中以得到当前VAD标签;
确定子模块,用于根据所述当前VAD标签确定所述带噪的当前VAD语音中人声的起止时间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911407236.6A CN111028858B (zh) | 2019-12-31 | 2019-12-31 | 一种人声起止时间检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911407236.6A CN111028858B (zh) | 2019-12-31 | 2019-12-31 | 一种人声起止时间检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111028858A true CN111028858A (zh) | 2020-04-17 |
CN111028858B CN111028858B (zh) | 2022-02-18 |
Family
ID=70196351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911407236.6A Active CN111028858B (zh) | 2019-12-31 | 2019-12-31 | 一种人声起止时间检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111028858B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114566152A (zh) * | 2022-04-27 | 2022-05-31 | 成都启英泰伦科技有限公司 | 一种基于深度学习的语音端点检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001086633A1 (en) * | 2000-05-10 | 2001-11-15 | Multimedia Technologies Institute - Mti S.R.L. | Voice activity detection and end-point detection |
US20110208516A1 (en) * | 2010-02-25 | 2011-08-25 | Canon Kabushiki Kaisha | Information processing apparatus and operation method thereof |
CN103730110A (zh) * | 2012-10-10 | 2014-04-16 | 北京百度网讯科技有限公司 | 一种检测语音端点的方法和装置 |
CN104091593A (zh) * | 2014-04-29 | 2014-10-08 | 苏州大学 | 采用感知语谱结构边界参数的语音端点检测算法 |
WO2016153700A1 (en) * | 2015-03-24 | 2016-09-29 | Intel Corporation | Voice activity detection technologies, systems and methods employing the same |
CN108806707A (zh) * | 2018-06-11 | 2018-11-13 | 百度在线网络技术(北京)有限公司 | 语音处理方法、装置、设备及存储介质 |
CN109584903A (zh) * | 2018-12-29 | 2019-04-05 | 中国科学院声学研究所 | 一种基于深度学习的多人语音分离方法 |
CN109697978A (zh) * | 2018-12-18 | 2019-04-30 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
-
2019
- 2019-12-31 CN CN201911407236.6A patent/CN111028858B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001086633A1 (en) * | 2000-05-10 | 2001-11-15 | Multimedia Technologies Institute - Mti S.R.L. | Voice activity detection and end-point detection |
US20110208516A1 (en) * | 2010-02-25 | 2011-08-25 | Canon Kabushiki Kaisha | Information processing apparatus and operation method thereof |
CN103730110A (zh) * | 2012-10-10 | 2014-04-16 | 北京百度网讯科技有限公司 | 一种检测语音端点的方法和装置 |
CN104091593A (zh) * | 2014-04-29 | 2014-10-08 | 苏州大学 | 采用感知语谱结构边界参数的语音端点检测算法 |
WO2016153700A1 (en) * | 2015-03-24 | 2016-09-29 | Intel Corporation | Voice activity detection technologies, systems and methods employing the same |
CN108806707A (zh) * | 2018-06-11 | 2018-11-13 | 百度在线网络技术(北京)有限公司 | 语音处理方法、装置、设备及存储介质 |
CN109697978A (zh) * | 2018-12-18 | 2019-04-30 | 百度在线网络技术(北京)有限公司 | 用于生成模型的方法和装置 |
CN109584903A (zh) * | 2018-12-29 | 2019-04-05 | 中国科学院声学研究所 | 一种基于深度学习的多人语音分离方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114566152A (zh) * | 2022-04-27 | 2022-05-31 | 成都启英泰伦科技有限公司 | 一种基于深度学习的语音端点检测方法 |
CN114566152B (zh) * | 2022-04-27 | 2022-07-08 | 成都启英泰伦科技有限公司 | 一种基于深度学习的语音端点检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111028858B (zh) | 2022-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tu et al. | Speech enhancement based on teacher–student deep learning using improved speech presence probability for noise-robust speech recognition | |
Fu et al. | End-to-end waveform utterance enhancement for direct evaluation metrics optimization by fully convolutional neural networks | |
Xu et al. | A regression approach to speech enhancement based on deep neural networks | |
CN106486131B (zh) | 一种语音去噪的方法及装置 | |
Srinivasan et al. | Codebook-based Bayesian speech enhancement for nonstationary environments | |
Han et al. | Deep neural network based spectral feature mapping for robust speech recognition. | |
US7418383B2 (en) | Noise robust speech recognition with a switching linear dynamic model | |
US20060253285A1 (en) | Method and apparatus using spectral addition for speaker recognition | |
US11308946B2 (en) | Methods and apparatus for ASR with embedded noise reduction | |
Kim et al. | End-to-end multi-task denoising for joint SDR and PESQ optimization | |
Ismail et al. | Mfcc-vq approach for qalqalahtajweed rule checking | |
CN111105809B (zh) | 一种降噪方法及装置 | |
CN111883181A (zh) | 音频检测方法、装置、存储介质及电子装置 | |
Nakagawa | A survey on automatic speech recognition | |
Dong et al. | A comparison of label-synchronous and frame-synchronous end-to-end models for speech recognition | |
CN111028858B (zh) | 一种人声起止时间检测方法及装置 | |
Thienpondt et al. | Transfer Learning for Robust Low-Resource Children's Speech ASR with Transformers and Source-Filter Warping | |
CN112116909A (zh) | 语音识别方法、装置及系统 | |
Yang et al. | RS-CAE-based AR-Wiener filtering and harmonic recovery for speech enhancement | |
US20150162014A1 (en) | Systems and methods for enhancing an audio signal | |
Zezario et al. | Specialized speech enhancement model selection based on learned non-intrusive quality assessment metric. | |
Borgstrom et al. | A unified framework for designing optimal STSA estimators assuming maximum likelihood phase equivalence of speech and noise | |
CN111613211B (zh) | 特定词语音的处理方法及装置 | |
Hao et al. | Denoi-spex+: a speaker extraction network based speech dialogue system | |
CN117935865B (zh) | 一种用于个性化营销的用户情感分析方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |