CN112735482A - 基于联合深度神经网络的端点检测方法及系统 - Google Patents

基于联合深度神经网络的端点检测方法及系统 Download PDF

Info

Publication number
CN112735482A
CN112735482A CN202011397477.XA CN202011397477A CN112735482A CN 112735482 A CN112735482 A CN 112735482A CN 202011397477 A CN202011397477 A CN 202011397477A CN 112735482 A CN112735482 A CN 112735482A
Authority
CN
China
Prior art keywords
audio data
network model
audio
data
stage network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011397477.XA
Other languages
English (en)
Other versions
CN112735482B (zh
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Eeasy Electronic Tech Co ltd
Original Assignee
Zhuhai Eeasy Electronic Tech Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Eeasy Electronic Tech Co ltd filed Critical Zhuhai Eeasy Electronic Tech Co ltd
Priority to CN202011397477.XA priority Critical patent/CN112735482B/zh
Publication of CN112735482A publication Critical patent/CN112735482A/zh
Priority to US17/471,197 priority patent/US11830521B2/en
Application granted granted Critical
Publication of CN112735482B publication Critical patent/CN112735482B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L2025/783Detection of presence or absence of voice signals based on threshold decision
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band

Abstract

本发明公开了基于联合深度神经网络的端点检测方法及系统,该方法包括:基于开源音频数据集获取音频及第一帧级别标签,对音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,分段标记得到分段标签;将第一音频数据、第二音频数据及相应的标签输入至第一神经网络中进行训练,得到第一阶段网络模型;通过第一阶段网络模型得到第二音频数据相应的第二帧级别标签,将第二音频数据及第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;基于第一阶段网络模型及第二阶段网络模型,对音频信号进行端点检测。本发明可减少依赖人工标记的帧级别数据,提高检测识别效果,降低计算量,加快运算速度。

Description

基于联合深度神经网络的端点检测方法及系统
技术领域
本发明涉及语音处理技术领域,特别涉及一种基于联合深度神经网络的端点检测方法及系统。
背景技术
端点检测(Voice Activity Detection,VAD)是指从连续音频信号中检测出实际语音片段的起始位置和结束位置,用于提取有效的音频片段,排除其他非语音干扰信号。端点检测能够为后续语音处理系统提供可靠的语音数据,同时将非语音信号去除,减少了后续语音处理系统的计算压力,有助于提高系统的响应速度。
端点检测可分为两大类,一类是传统的端点检测算法,一类是基于深度神经网络的端点检测算法。传统算法的计算量相对简单,但在实际环境中尤其是低信噪比环境下效果较差,而基于深度神经网络的算法计算量较大,且依赖于数据,需要匹配的人工标记的帧级别数据作为训练数据集,而真实环境中包含的声音场景和背景噪音种类繁多较为复杂,获取标记数据需要耗费大量的人工,要想取得较为理想的效果,网络结构复杂计算量较大。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明提出一种基于联合深度神经网络的端点检测方法,能够减少依赖标记数据。
本发明还提出一种具有上述基于联合深度神经网络的端点检测方法的基于联合深度神经网络的端点检测系统。
本发明还提出一种具有上述基于联合深度神经网络的端点检测方法的计算机可读存储介质。
根据本发明的第一方面实施例的基于联合深度神经网络的端点检测方法,包括以下步骤:S100,基于开源音频数据集获取音频及第一帧级别标签,对所述音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段标记,得到分段标签;S200,将所述第一音频数据及第一帧级别标签作为第一训练数据,将所述第二音频数据及所述分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型;S300,通过所述第一阶段网络模型得到所述第二音频数据相应的第二帧级别标签,将所述第二音频数据及所述第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;S400,基于所述第一阶段网络模型及所述第二阶段网络模型,对音频信号进行端点检测。
根据本发明实施例的基于联合深度神经网络的端点检测方法,至少具有如下有益效果:通过开源数据集及对真实场景录音制作弱标签(即分段标签)数据,替代人工标记的帧级别数据,减少前期人工耗费,对真实场景录音并分段标记,而弥补了由于缺少实际标注数据,应用场景不匹配而导致VAD效果较差的缺陷;并通过两阶段网络结构联合训练,在第一阶段产生了真实场景下帧级别的数据,因此,第二阶段可采用较小的网络进行重新训练,大大降低了在实际过程中的计算量,加快了推理过程,兼顾了性能和运算速度;且充分利用合成音频的帧级别标签数据和真实声音场景的弱标签数据进行联合训练,可使网络能够得到较为准确的帧级别标签。
根据本发明的一些实施例,所述步骤S100包括:S110,基于开源音频数据集获取所述音频,进行加窗分帧处理,根据预设能量阈值逐帧进行标记,获得所述第一帧级别标签,并按比例将所述音频进行混合加噪处理,得到所述第一音频数据;S120,对所述第二音频数据按固定时长进行分段,判断每一分段是否存在人类语音信息,根据判断结果得到所述分段标签。
根据本发明的一些实施例,所述步骤S200包括:S210,对所述第一音频数据及所述第二音频数据,按照预设帧长及预设帧间隔进行加窗分帧处理,提取每帧的M阶MEL频谱系数作为当前帧的特征,选取N帧的特征值输入至所述第一阶段网络模型;S220,所述第一阶段网络模型包括用于提取特征的CNN、用于特征预测的GRU及最终分类输出的DNN,其中DNN分为两种,分别对所述第一音频数据及所述第二音频数据进行相应处理并得到相应的分类数据;所述第一阶段网络模型中loss函数采用加权二分类交叉熵函数,加权系数为[w1,w2],其中,w1表示根据所述第一音频数据得出的所述分类数据所占权重,w2表示根据所述第一音频数据得出的所述分类数据所占权重。
根据本发明的一些实施例,还包括:所述第二阶段网络模型相对于第二测试集收敛,则将所述第二阶段网络模型的loss函数反馈给所述第一阶段网络模型继续训练;若所述第一阶段网络模型继续训练后对第一测试集收敛,则继续迭代训练所述第二阶段网络模型,直至所述第一阶段网络模型相对于所述第一测试集及所述第二阶段网络模型相对于所述第二测试集均收敛。
根据本发明的一些实施例,还包括:选取多个所述第二音频数据,进行帧级别标记,得到第三音频数据集;将所述第三音频数据集拆分成两组数据集,其中一组数据集用于对所述第一阶段网络模型进行验证测试,另一组数据集用于对所述第二阶段网络模型进行验证测试。
根据本发明的一些实施例,所述第二阶段网络模型的卷积神经网络中的卷积块堆叠层数小于第一阶段网络模型的卷积神经网络中的卷积块堆叠层数。
根据本发明的一些实施例,所述第二阶段网络模型包括用于提取特征的CNN、用于特征预测的GRU及最终分类输出的DNN,其中DNN层采用linear和softmax,loss函数采用二分类交叉熵函数。
根据本发明的第二方面实施例的基于联合深度神经网络的端点检测系统,包括:数据采集处理模块,用于基于开源音频数据集获取音频及第一帧级别标签,对所述音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段标记,得到分段标签;网络联合训练模块,用于将所述第一音频数据及第一帧级别标签作为第一训练数据,将所述第二音频数据及所述分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型,以及,通过所述第一阶段网络模型得到所述第二音频数据相应的第二帧级别标签,将所述第二音频数据及所述第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;端点检测模块,用于基于所述第一阶段网络模型及所述第二阶段网络模型,对音频信号进行端点检测。
根据本发明实施例的基于联合深度神经网络的端点检测系统,至少具有如下有益效果:通过开源数据集及对真实场景录音制作弱标签(即分段标签)数据,替代人工标记的帧级别数据,减少前期人工耗费,对真实场景录音并分段标记,而弥补了由于缺少实际标注数据,应用场景不匹配而导致VAD效果较差的缺陷;并通过两阶段网络结构联合训练,在第一阶段产生了真实场景下帧级别的数据,因此,第二阶段可采用较小的网络进行重新训练,大大降低了在实际过程中的计算量,加快了推理过程,兼顾了性能和运算速度;且充分利用合成音频的帧级别标签数据和真实声音场景的弱标签数据进行联合训练,可使网络能够得到较为准确的帧级别标签。
根据本发明的一些实施例,还包括:网络模型验证模块,用于选取多个所述第二音频数据,进行帧级别标记,得到第三音频数据集,并将所述第三音频数据集拆分成两组数据集,其中一组数据集用于对所述第一阶段网络模型进行验证测试,另一组数据集用于对所述第二阶段网络模型进行验证测试。
根据本发明的第三方面实施例的计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现本发明的第一方面实施例的方法。
根据本发明实施例的计算机可读存储介质,至少具有与本发明的第一方实施例的方法同样的有益效果。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例的方法的流程示意图。
图2为本发明实施例的方法中对神经网络进行训练的数据交互示意图。
图3为本发明实施例的方法中的深度神经网络模型的网络基本结构示意图。
图4为本发明实施例的系统的模块示意框图。
附图标记:
数据采集处理模块100、网络联合训练模块200、端点检测模块300、网络模型验证模块400。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,若干的含义是一个或者多个,多个的含义是两个及两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到第一、第二只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
名词解释:
CNN:卷积神经网络,(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deeplearning)的代表算法之一。
GRU(Gate Recurrent Unit),是循环神经网络(Recurrent Neural Network,RNN)的一种。
DNN,深度神经网络(Deep Neural Networks,以下简称DNN)是深度学习的基础
Flatten,Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。
参照图1,本发明的实施例的方法包括:S100,基于开源音频数据集获取音频及第一帧级别标签,对音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并对第二音频数据分段,并按分段进行标记,得到分段标签;S200,将第一音频数据及第一帧级别标签作为第一训练数据,将第二音频数据及分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型;S300,通过第一阶段网络模型得到第二音频数据相应的第二帧级别标签,将第二音频数据及第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;S400,基于第一阶段网络模型及第二阶段网络模型,对音频信号进行端点检测。
本发明的实施例中,对神经网络的的训练过程,参照图2,首先,将第一音频数据及第一帧级别标签作为第一训练数据,将第二音频数据及分段标签作为第二训练数据,输入到第一神经网络中进行训练,使第一神经网络相对第一测试集收敛,得到第一阶段网络模型,以便通过该第一阶段网络模型得到第二音频数据对应的帧级别标签,即第二帧级别标签;其中第一测试集可包括少量第三音频数据,这些第三音频数据为真实场景的录音音频数据,且通过人工进行帧级别标签的标记。显然,第三音频数据可复用已录制的第二音频数据,然后进行人工帧级别标记。第二音频数据及第二帧级别标签被输入到第二神经网络对该网络进行训练,使得第二神经网络相对于第二测试集收敛,得到第二阶段网络模型;第二测试集也可包括与第一测试集中不相同的第三音频数据。然后将第二阶段网络模型得出的损失函数反馈给第一神经网络,反复迭代训练,直至第一神经网络与第二神经网络均收敛。因第二神经网络仅针对真实场景录音的音频数据及相应帧级别标签进行处理,第二神经网络可采用相对于第一神经网络较小的网络进行重新训练,从而降低了在实际过程中的计算量,加快了推理过程。
本发明的实施例中,音频数据集的获取方法分为两种,第一种是采用干净音频人工合成为带噪音频,第二种为真实环境场景声音。在本发明的实施例之一中,第一种获取方式为:从开源音频数据集中,选取若干时长(如200h,即200小时)的原始干净音频(不含背景音,非噪音),获取原始音频的第一帧级别标签,将这些原始音频通过开源噪音数据集进行混合加噪,得到第一音频数据;第二种获取方式为:在真实场景中录制含有人类语音(即含人说话声)和不含人类语音的音频各50h,共计100h,作为第二音频数据;两种方式获取的音频统一处理为采样率为16KHz,16bit的单声道wav格式。应理解的是,本发明的实施例中,为保证数据的均衡性,来自于开源数据集的原始音频总时长及真实录制的第二音频数据的总时长之间的比例接近为1:1;但在实际运用中,可以不限定于1:1,类似地,第二音频数据中,含人类语音及不含人类语音的音频总时长的比例也不限定于1:1。
获取到音频数据集,需要进行处理得到相应的标签。对于从开源数据集中得到的100h原始干净语音进行加窗分帧处理,并划定能量阈值,根据该能量阈值逐帧进行标记,其中,语音帧标记为“1”,非语音帧标记为“0”,并将标记的数据标签进行保存。本发明的实施例之一中,用作训练数据的第一训练数据中包括:根据原始干净语音得到的第一帧级别标签及对原始干净语音进行加噪处理后的带噪音频。而对第二种方式获取到的第二音频数据,无法得到帧级别的标签,将该第二音频数据分成固定时长的小段,每段时长t秒,将含有人类语音的小段标记为“1”,不含人类语音的小段标记为“0”,此时得到的标签是分段标签(以分段音频为单位,并非帧级别的标签)。
将第一音频数据及第二音频数据进行加窗分帧,帧长为T(ms)(备注:帧长的划分一般取20-50ms),间隔为T/2(ms)(备注:帧间间隔一般取1/4-3/4帧长),提取每帧音频的M阶MEL频谱系数作为当前帧的特征。然后,将N帧的特征的M阶MEL频谱系数,输入深度神经网络模型进行联合训练。对于第一音频数据,选取N帧的特征值作为输入,预测当前帧的帧标签,标签“1”代表语音帧,用向量[0,1]表示,标签“0”代表非语音帧,用向量[1,0]表示,对于深度神经网络模型的网络层的输入为[1,N,M]维的特征向量。对于第二音频数据,分段的音频时长为t秒,帧长T(ms),间隔T/2(ms),共包含N帧,则相应的第二种网络的输入为N帧(帧数=(时长-帧长)/间隔+1)的M维MEL谱。标签“1”用向量[0,1]表示,标签“0”代表用向量[1,0]表示,对于深度神经网络模型的网络层的输入为[1,N,M]维的特征向量,输出为[1,2]维的标签。
本发明的实施例中,深度神经网络模型的网络基本结构由CNN+GRU+DNN组成,参照图3。网络结构的参数设置可根据实际任务进行选择,本文中给出的输入输出仅用于描述过程。
其中,CNN主要用于特征提取:CNN包含cnn_block(卷积块)和pool2d,其中cnn_block由BN(Batch Normalization)层、卷积层和激活层组成。CNN中cnn_block和pool2d的堆叠的层数以及一些参数的设置例如步长,卷积核的个数及大小可以根据实际情况进行选取,本例中对于[1,N,M]维的输入,假设经过CNN得到[128,N/4,M/4]的输出。flatten用于变换CNN的输出作为GRU的输入,对于[128,N/4,M/4]的CNN输出,经过flatten变换得到[1,N/4,128*M/4]的特征。GRU主要利用特征进行预测:将flatten变换得到[1,N/4,128*M/4]输出经过GRU得到预测结果,本例中假设经过GRU的输出维度仍为[1,N/4,128*M/4]。插值则主要用于将时间维度恢复到输入维度,进行帧级别对齐:例如本例中对于[1,N/4,128*M/4]的GRU输出,经过插值后变为[1,N,128*M/4]。DNN主要用于最终的分类输出:根据输入数据和相应标签的不同,DNN也分为两种,第一种DNN(帧级别):将经过插值后的特征[1,N,128*M/4]经过全连接网络最终得到[1,T,2]的输出并连接softmax得到最终的输出标签。其中全连接的层数和参数设置仍需根据实际情况进行选取,只需保证最后一层的输出维度为2即可(对应于二维的标签)。第二种DNN(分段级别):将经过插值后的特征[1,N,128*M/4]经过全连接网络最终得到[1,N,2]的输出,而对于每一小段只有一个标签,对于[1,N,128*M/4]的输出,进行时间(N)维度上取平均再进行softmax操作,可得到输出lable[1,1,2]。
一方面为了充分利用真实场景中的录制数据提升训练效果,另一方面能够加速最终的预测过程,本发明的实施例中,将网络训练分为两阶段。
第一阶段,将通过两种方式获取到的数据和标签作为训练数据,即第一音频数据及对应的第一帧级标签作为第一训练数据,第二音频数据及对应的分段标签作为第二训练数据,神经网络结构上采用多层cnn_block进行堆叠,保证神经网络能够充分学习到数据的特征,loss函数(即损失函数)采用加权交叉熵函数,交叉熵函数为二分类交叉熵函数,加权系数为[w1,w2],w1表示第一训练数据计算出loss的权重,w2表示第二训练数据计算出loss的权重,根据实际训练结果来调整w1,w2的取值,并始终保持w1+w2=1。如果仅利用第一种方式获取到的数据进行训练会使得模型对真实场景的拟合效果不佳,若仅采用第二种方式获取到的数据进行训练会使得测试时难以得到较为准确的帧级别的标签,即难以正确预测出人说话声的起始位置和结束位置。
第二阶段:将第二音频数据输入第一阶段的神经网络模型生成第二帧级别标签,并将第二音频数据输入和对应第二帧级别标签作为第二阶段的训练集。在本发明的实施例中,第二阶段的网络结构基本不变,但可以适当的减少CNN中cnn_block堆叠的层数,此外,由于第二阶段的训练数据只包含帧级别的标签,因此,DNN层只需采用linear和softmax即可,对应的loss函数采用二分类交叉熵即可。
由于本发明实施例中更关注模型在最终场景下的性能,均采用实际场景中录制的音频作为验证测试集。为了保证训练效果,可选取少量真实场景下的音频进行人工帧级别标记作为验证测试集,且使第一阶段、第二阶段的验证测试集不同。
第三阶段:待第二阶段的神经网络训练完成(测试集收敛),将loss函数反馈给第一阶段的神经网络继续训练,待第一阶段神经网络继续训练完成后,继续迭代训练第二阶段的神经网络,如此迭代直到第一阶段和第二阶段训练完成(两个阶段测试集表现均收敛)。
对于真实场景音频中的每一帧,第二阶段神经网络的输出结果为[a,b],a表示标签为0(即不含人类语音)的概率,b表示标签为1(即人类语音)的概率,将b的概率值作为每一帧的输出结果,对于帧级别的输出结果,本发明的实施例中可以通过多种平滑方式进行平滑得到最终的输出标签。
参照图4,本发明实施例的系统包括:数据采集处理模块100,用于基于开源音频数据集获取音频及第一帧级别标签,对音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段,对各分段进行标记,得到分段标签;网络联合训练模块200,用于将第一音频数据及第一帧级别标签作为第一训练数据,将第二音频数据及分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型,以及,通过第一阶段网络模型得到第二音频数据相应的第二帧级别标签,将第二音频数据及第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;端点检测模块300,用于基于第一阶段网络模型及第二阶段网络模型,对音频信号进行端点检测。网络模型验证模块400,用于选取多个第二音频数据,进行帧级别标记,得到第三音频数据集,并将第三音频数据集拆分成两组数据集,其中一组数据集用于对第一阶段网络模型进行验证测试,另一组数据集用于对第二阶段网络模型进行验证测试。
尽管本文描述了具体实施方案,但是本领域中的普通技术人员将认识到,许多其它修改或另选的实施方案同样处于本公开的范围内。例如,结合特定设备或组件描述的功能和/或处理能力中的任一项可以由任何其它设备或部件来执行。另外,虽然已根据本公开的实施方案描述了各种例示性具体实施和架构,但是本领域中的普通技术人员将认识到,对本文所述的例示性具体实施和架构的许多其它修改也处于本公开的范围内。
上文参考根据示例性实施方案所述的系统、方法、系统和/或计算机程序产品的框图和流程图描述了本公开的某些方面。应当理解,框图和流程图中的一个或多个块以及框图和流程图中的块的组合可分别通过执行计算机可执行程序指令来实现。同样,根据一些实施方案,框图和流程图中的一些块可能无需按示出的顺序执行,或者可以无需全部执行。另外,超出框图和流程图中的块所示的那些部件和/或操作以外的附加部件和/或操作可存在于某些实施方案中。
因此,框图和流程图中的块支持用于执行指定功能的装置的组合、用于执行指定功能的元件或步骤的组合以及用于执行指定功能的程序指令装置。还应当理解,框图和流程图中的每个块以及框图和流程图中的块的组合可以由执行特定功能、元件或步骤的专用硬件计算机系统或者专用硬件和计算机指令的组合来实现。
本文所述的程序模块、应用程序等可包括一个或多个软件组件,包括例如软件对象、方法、数据结构等。每个此类软件组件可包括计算机可执行指令,所述计算机可执行指令响应于执行而使本文所述的功能的至少一部分(例如,本文所述的例示性方法的一种或多种操作)被执行。
软件组件可以用各种编程语言中的任一种来编码。一种例示性编程语言可以为低级编程语言,诸如与特定硬件体系结构和/或操作系统平台相关联的汇编语言。包括汇编语言指令的软件组件可能需要在由硬件架构和/或平台执行之前由汇编程序转换为可执行的机器代码。另一种示例性编程语言可以为更高级的编程语言,其可以跨多种架构移植。包括更高级编程语言的软件组件在执行之前可能需要由解释器或编译器转换为中间表示。编程语言的其它示例包括但不限于宏语言、外壳或命令语言、作业控制语言、脚本语言、数据库查询或搜索语言、或报告编写语言。在一个或多个示例性实施方案中,包含上述编程语言示例中的一者的指令的软件组件可直接由操作系统或其它软件组件执行,而无需首先转换成另一种形式。
软件组件可存储为文件或其它数据存储构造。具有相似类型或相关功能的软件组件可一起存储在诸如特定的目录、文件夹或库中。软件组件可为静态的(例如,预设的或固定的)或动态的(例如,在执行时创建或修改的)。
上面结合附图对本发明实施例作了详细说明,但是本发明不限于上述实施例,在所属技术领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。

Claims (10)

1.一种基于联合深度神经网络的端点检测方法,其特征在于,包括以下步骤:
S100,基于开源音频数据集获取音频及第一帧级别标签,对所述音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段标记,得到分段标签;
S200,将所述第一音频数据及第一帧级别标签作为第一训练数据,将所述第二音频数据及所述分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型;
S300,通过所述第一阶段网络模型得到所述第二音频数据相应的第二帧级别标签,将所述第二音频数据及所述第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;
S400,基于所述第一阶段网络模型及所述第二阶段网络模型,对音频信号进行端点检测。
2.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,所述步骤S100包括:
S110,基于开源音频数据集获取所述音频,进行加窗分帧处理,根据预设能量阈值逐帧进行标记,获得所述第一帧级别标签,并按比例将所述音频进行混合加噪处理,得到所述第一音频数据;
S120,对所述第二音频数据按固定时长进行分段,判断每一分段是否存在人类语音信息,根据判断结果得到所述分段标签。
3.根据权利要求2所述的基于联合深度神经网络的端点检测方法,其特征在于,所述步骤S200包括:
S210,对所述第一音频数据及所述第二音频数据,按照预设帧长及预设帧间隔进行加窗分帧处理,提取每帧的M阶MEL频谱系数作为当前帧的特征,选取N帧的特征值输入至所述第一阶段网络模型;
S220,所述第一阶段网络模型包括用于提取特征的CNN、用于特征预测的GRU及最终分类输出的DNN,其中DNN分为两种,分别对所述第一音频数据及所述第二音频数据进行相应处理并得到相应的分类数据;所述第一阶段网络模型中loss函数采用加权二分类交叉熵函数,加权系数为[w1,w2],其中,w1表示根据所述第一音频数据得出的所述分类数据所占权重,w2表示根据所述第一音频数据得出的所述分类数据所占权重。
4.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,还包括:
所述第二阶段网络模型相对于第二测试集收敛,则将所述第二阶段网络模型的loss函数反馈给所述第一阶段网络模型继续训练;
若所述第一阶段网络模型继续训练后对第一测试集收敛,则继续迭代训练所述第二阶段网络模型,直至所述第一阶段网络模型相对于所述第一测试集及所述第二阶段网络模型相对于所述第二测试集均收敛。
5.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,还包括:
选取多个所述第二音频数据,进行帧级别标记,得到第三音频数据集;
将所述第三音频数据集拆分成两组数据集,其中一组数据集用于对所述第一阶段网络模型进行验证测试,另一组数据集用于对所述第二阶段网络模型进行验证测试。
6.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,所述第二阶段网络模型的卷积神经网络中的卷积块堆叠层数小于第一阶段网络模型的卷积神经网络中的卷积块堆叠层数。
7.根据权利要求1所述的基于联合深度神经网络的端点检测方法,其特征在于,所述第二阶段网络模型包括用于提取特征的CNN、用于特征预测的GRU及最终分类输出的DNN,其中DNN层采用linear和softmax,loss函数采用二分类交叉熵函数。
8.一种基于联合深度神经网络的端点检测系统,使用权利要求1至7中任一项的方法,其特征在于,包括:
数据采集处理模块,用于基于开源音频数据集获取音频及第一帧级别标签,对所述音频进行混合加噪得到第一音频数据,以及,录制真实场景声音,得到第二音频数据,并进行分段标记,得到分段标签;
网络联合训练模块,用于将所述第一音频数据及第一帧级别标签作为第一训练数据,将所述第二音频数据及所述分段标签作为第二训练数据,输入至第一神经网络中进行训练,得到第一阶段网络模型,以及,通过所述第一阶段网络模型得到所述第二音频数据相应的第二帧级别标签,将所述第二音频数据及所述第二帧级别标签输入到第二神经网络中进行训练,得到第二阶段网络模型;
端点检测模块,用于基于所述第一阶段网络模型及所述第二阶段网络模型,对音频信号进行端点检测。
9.根据权利要求8所述的基于联合深度神经网络的端点检测系统,其特征在于,还包括:
网络模型验证模块,用于选取多个所述第二音频数据,进行帧级别标记,得到第三音频数据集,并将所述第三音频数据集拆分成两组数据集,其中一组数据集用于对所述第一阶段网络模型进行验证测试,另一组数据集用于对所述第二阶段网络模型进行验证测试。
10.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1至7中任一项的方法。
CN202011397477.XA 2020-12-04 2020-12-04 基于联合深度神经网络的端点检测方法及系统 Active CN112735482B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202011397477.XA CN112735482B (zh) 2020-12-04 2020-12-04 基于联合深度神经网络的端点检测方法及系统
US17/471,197 US11830521B2 (en) 2020-12-04 2021-09-10 Voice activity detection method and system based on joint deep neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011397477.XA CN112735482B (zh) 2020-12-04 2020-12-04 基于联合深度神经网络的端点检测方法及系统

Publications (2)

Publication Number Publication Date
CN112735482A true CN112735482A (zh) 2021-04-30
CN112735482B CN112735482B (zh) 2024-02-13

Family

ID=75598449

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011397477.XA Active CN112735482B (zh) 2020-12-04 2020-12-04 基于联合深度神经网络的端点检测方法及系统

Country Status (2)

Country Link
US (1) US11830521B2 (zh)
CN (1) CN112735482B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113421595A (zh) * 2021-08-25 2021-09-21 成都启英泰伦科技有限公司 一种利用神经网络的语音活性检测方法
CN113689861A (zh) * 2021-08-10 2021-11-23 上海淇玥信息技术有限公司 一种单声道通话录音的智能分轨方法、装置和系统
CN114973684A (zh) * 2022-07-25 2022-08-30 深圳联和智慧科技有限公司 一种建筑工地定点监控方法及系统
CN115472152A (zh) * 2022-11-01 2022-12-13 北京探境科技有限公司 语音端点检测方法、装置、计算机设备及可读存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516391B1 (ko) * 2022-09-02 2023-04-03 주식회사 액션파워 음성 구간 길이를 고려하여 오디오에서 음성 구간을 검출하는 방법

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107527630A (zh) * 2017-09-22 2017-12-29 百度在线网络技术(北京)有限公司 语音端点检测方法、装置和计算机设备
CN108538310A (zh) * 2018-03-28 2018-09-14 天津大学 一种基于长时信号功率谱变化的语音端点检测方法
CN108831445A (zh) * 2018-05-21 2018-11-16 四川大学 四川方言识别方法、声学模型训练方法、装置及设备
CN109036471A (zh) * 2018-08-20 2018-12-18 百度在线网络技术(北京)有限公司 语音端点检测方法及设备
CN109119070A (zh) * 2018-10-19 2019-01-01 科大讯飞股份有限公司 一种语音端点检测方法、装置、设备及存储介质
GB201819100D0 (en) * 2018-11-23 2019-01-09 Sony Interactive Entertainment Inc Method and system for determining identifiers for tagging video frames with
CN109448703A (zh) * 2018-11-14 2019-03-08 山东师范大学 结合深度神经网络和主题模型的音频场景识别方法及系统
CN110648656A (zh) * 2019-08-28 2020-01-03 北京达佳互联信息技术有限公司 语音端点检测方法、装置、电子设备及存储介质
CN110648692A (zh) * 2019-09-26 2020-01-03 苏州思必驰信息科技有限公司 语音端点检测方法及系统
CN110689879A (zh) * 2019-10-10 2020-01-14 中国科学院自动化研究所 端到端语音转写模型的训练方法、系统、装置
CN110827837A (zh) * 2019-10-18 2020-02-21 中山大学 一种基于深度学习的鲸鱼活动音频分类方法
US20200193969A1 (en) * 2018-12-18 2020-06-18 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for generating model
CN111369982A (zh) * 2020-03-13 2020-07-03 北京远鉴信息技术有限公司 音频分类模型的训练方法、音频分类方法、装置及设备
CN111402893A (zh) * 2020-03-23 2020-07-10 北京达佳互联信息技术有限公司 语音识别模型确定方法、语音识别方法及装置、电子设备
CN111696580A (zh) * 2020-04-22 2020-09-22 广州多益网络股份有限公司 一种语音检测方法、装置、电子设备及存储介质
CN111816215A (zh) * 2020-07-24 2020-10-23 苏州思必驰信息科技有限公司 语音端点检测模型训练和使用方法及装置
CN111933114A (zh) * 2020-10-09 2020-11-13 深圳市友杰智新科技有限公司 语音唤醒混合模型的训练方法、使用方法和相关设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9502038B2 (en) * 2013-01-28 2016-11-22 Tencent Technology (Shenzhen) Company Limited Method and device for voiceprint recognition
US10019985B2 (en) * 2013-11-04 2018-07-10 Google Llc Asynchronous optimization for sequence training of neural networks
US9786270B2 (en) * 2015-07-09 2017-10-10 Google Inc. Generating acoustic models
CN109473123B (zh) * 2018-12-05 2022-05-31 百度在线网络技术(北京)有限公司 语音活动检测方法及装置
WO2021045990A1 (en) * 2019-09-05 2021-03-11 The Johns Hopkins University Multi-speaker diarization of audio input using a neural network

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107527630A (zh) * 2017-09-22 2017-12-29 百度在线网络技术(北京)有限公司 语音端点检测方法、装置和计算机设备
CN108538310A (zh) * 2018-03-28 2018-09-14 天津大学 一种基于长时信号功率谱变化的语音端点检测方法
CN108831445A (zh) * 2018-05-21 2018-11-16 四川大学 四川方言识别方法、声学模型训练方法、装置及设备
CN109036471A (zh) * 2018-08-20 2018-12-18 百度在线网络技术(北京)有限公司 语音端点检测方法及设备
CN109119070A (zh) * 2018-10-19 2019-01-01 科大讯飞股份有限公司 一种语音端点检测方法、装置、设备及存储介质
CN109448703A (zh) * 2018-11-14 2019-03-08 山东师范大学 结合深度神经网络和主题模型的音频场景识别方法及系统
GB201819100D0 (en) * 2018-11-23 2019-01-09 Sony Interactive Entertainment Inc Method and system for determining identifiers for tagging video frames with
US20200193969A1 (en) * 2018-12-18 2020-06-18 Baidu Online Network Technology (Beijing) Co., Ltd Method and apparatus for generating model
CN110648656A (zh) * 2019-08-28 2020-01-03 北京达佳互联信息技术有限公司 语音端点检测方法、装置、电子设备及存储介质
CN110648692A (zh) * 2019-09-26 2020-01-03 苏州思必驰信息科技有限公司 语音端点检测方法及系统
CN110689879A (zh) * 2019-10-10 2020-01-14 中国科学院自动化研究所 端到端语音转写模型的训练方法、系统、装置
CN110827837A (zh) * 2019-10-18 2020-02-21 中山大学 一种基于深度学习的鲸鱼活动音频分类方法
CN111369982A (zh) * 2020-03-13 2020-07-03 北京远鉴信息技术有限公司 音频分类模型的训练方法、音频分类方法、装置及设备
CN111402893A (zh) * 2020-03-23 2020-07-10 北京达佳互联信息技术有限公司 语音识别模型确定方法、语音识别方法及装置、电子设备
CN111696580A (zh) * 2020-04-22 2020-09-22 广州多益网络股份有限公司 一种语音检测方法、装置、电子设备及存储介质
CN111816215A (zh) * 2020-07-24 2020-10-23 苏州思必驰信息科技有限公司 语音端点检测模型训练和使用方法及装置
CN111933114A (zh) * 2020-10-09 2020-11-13 深圳市友杰智新科技有限公司 语音唤醒混合模型的训练方法、使用方法和相关设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YOUNGMOON JUNG: ""Self-Adaptive soft Voice Activity Detection using Deep Neural Networks For Robust Speaker Verification"", 《IEEE》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113689861A (zh) * 2021-08-10 2021-11-23 上海淇玥信息技术有限公司 一种单声道通话录音的智能分轨方法、装置和系统
CN113689861B (zh) * 2021-08-10 2024-02-27 上海淇玥信息技术有限公司 一种单声道通话录音的智能分轨方法、装置和系统
CN113421595A (zh) * 2021-08-25 2021-09-21 成都启英泰伦科技有限公司 一种利用神经网络的语音活性检测方法
CN113421595B (zh) * 2021-08-25 2021-11-09 成都启英泰伦科技有限公司 一种利用神经网络的语音活性检测方法
CN114973684A (zh) * 2022-07-25 2022-08-30 深圳联和智慧科技有限公司 一种建筑工地定点监控方法及系统
CN114973684B (zh) * 2022-07-25 2022-10-14 深圳联和智慧科技有限公司 一种建筑工地定点监控方法及系统
CN115472152A (zh) * 2022-11-01 2022-12-13 北京探境科技有限公司 语音端点检测方法、装置、计算机设备及可读存储介质
CN115472152B (zh) * 2022-11-01 2023-03-03 北京探境科技有限公司 语音端点检测方法、装置、计算机设备及可读存储介质

Also Published As

Publication number Publication date
US20220180894A1 (en) 2022-06-09
CN112735482B (zh) 2024-02-13
US11830521B2 (en) 2023-11-28

Similar Documents

Publication Publication Date Title
CN112735482B (zh) 基于联合深度神经网络的端点检测方法及系统
Ravanelli et al. Multi-task self-supervised learning for robust speech recognition
CN110021308B (zh) 语音情绪识别方法、装置、计算机设备和存储介质
US11281945B1 (en) Multimodal dimensional emotion recognition method
US11392833B2 (en) Neural acoustic model
CN111564164A (zh) 一种多模态情感识别方法及装置
CN110349597B (zh) 一种语音检测方法及装置
CN111081230A (zh) 语音识别方法和设备
CN111161726B (zh) 一种智能语音交互方法、设备、介质及系统
CN113223560A (zh) 情绪识别方法、装置、设备及存储介质
Ando et al. Speech Emotion Recognition Based on Multi-Label Emotion Existence Model.
CN110782916B (zh) 一种多模态的投诉识别方法、装置和系统
CN112700766A (zh) 语音识别模型的训练方法及装置、语音识别方法及装置
CN116303966A (zh) 基于提示学习的对话行为识别系统
JP2545914B2 (ja) 音声認識方法
CN113270091B (zh) 音频处理系统和方法
CN113870899A (zh) 语音质量评价模型的训练方法、装置与存储介质
CN114743539A (zh) 语音合成方法、装置、设备及存储介质
CN114547264A (zh) 一种基于马氏距离和对比学习的新意图数据识别方法
Xu et al. Improve Data Utilization with Two-stage Learning in CNN-LSTM-based Voice Activity Detection
Baptista et al. Bioacoustic classification framework using transfer learning
CN116486786B (zh) 一种融合方言和小语种的语音识别控制方法
CN117095674B (zh) 智能门窗的交互控制方法及系统
CN113593560B (zh) 可定制的低延时命令词识别方法及装置
CN111933187B (zh) 情感识别模型的训练方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant