CN111833906B - 基于多路声学特征数据增强的声场景分类方法 - Google Patents
基于多路声学特征数据增强的声场景分类方法 Download PDFInfo
- Publication number
- CN111833906B CN111833906B CN202010726152.5A CN202010726152A CN111833906B CN 111833906 B CN111833906 B CN 111833906B CN 202010726152 A CN202010726152 A CN 202010726152A CN 111833906 B CN111833906 B CN 111833906B
- Authority
- CN
- China
- Prior art keywords
- data
- feature
- acoustic
- scene classification
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000013145 classification model Methods 0.000 claims abstract description 43
- 239000013598 vector Substances 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 27
- 238000011176 pooling Methods 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 238000002679 ablation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Complex Calculations (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供基于多路声学特征数据增强的声场景分类方法,其提高了声场景分类用分类器的准确率,同时提高了模型的泛化能力,使其能够以稳定的分类准确率应用在更多的场景中。本发明技术方案中,基于Mixup数据增强方式实现数据增强用特征生成器,同时生成多种声学特征,基于MCNN模型构建了多支路的声场景分类模型,通过多路声学特征并行输入分类器进行分类操作,使得多种声学特征相互补充提高了分类器的分类精度。
Description
技术领域
本发明涉及声场景分类技术领域,具体为基于多路声学特征数据增强的声场景分类方法。
背景技术
现代社会中,声场景分类在许多领域中应用,如城市噪音监控,消防预警,健康状况检测等方面。声学场景分类旨在将采集到的声音按照预先定义的类别进行分类,以供后续处理。现有的声场景分类计数中,已经有科研人员做了多方面的研究;比如申请号为201910845467.9的发明专利公开一种基于网络模型融合的声场景分类方法,其重点在于模型的融合,而在输入端只采用了两种声学特征,以单输入的方式进行训练,导致其声学特征互补能力并不显著,分类精度不足的模型在实际应用中,会导致分类结果不准确;申请号为201910201430.2的发明专利公开一种基于数据增强的声场景辨识方法,其数据增强方法是基于混合增强方法提出的,但其提取的声学特征较为单一,不能探究多种声学特征对模型分类能力的影响;泛化能力不强的模型在实际应用中,会出现分类准确率不稳定,或者应用场景单一的问题。
发明内容
为了解决现有技术中声场景分类存在的分类精度不足、泛化能力不够,导致在实际应用中分类结果不准确、应用场景单一的问题,本发明提供基于多路声学特征数据增强的声场景分类方法,其提高了声场景分类用分类器的准确率,同时提高了模型的泛化能力,使其能够以稳定的分类准确率应用在更多的场景中。
本发明的技术方案是这样的:基于多路声学特征数据增强的声场景分类方法,其包括以下步骤:
S1:采集待分类的原始音频样本信息,其中包括音频时长和采样频率,并对其进行预处理,获得待处理样本信息;
其特征在于,其还包括一下步骤:
S2:对所述待处理样本信息进行傅里叶变换处理后,输入到用于提取声学特征的滤波器,得到所述待处理样本信息对应的待分类样本声学特征;
S3:将所述待分类样本声学特征的数据输入到数据增强用特征生成器;
所述数据增强用特征生成器中,设置N种声学特征作为声场景分类模型的输入,且每一种声学特征对应分类模型的一个输入模块;所述数据增强用特征生成器的输出为:数据增强后特征向量
所述数据增强用特征生成器基于Mixup数据增强方式,对输入的所述待分类样本声学特征的数据进行特征增强操作;输入的声学特征数据经过分批处理后生成虚拟样本,然后通过迭代器将虚拟样本图层合并到数据增强后的特征图层中,得到最终的所述数据增强后特征向量;
S4:构建声场景分类模型;
基于MCNN模型构建多支路的所述声场景分类模型;
所述声场景分类模型包括:支路网络,多个所述支路网络输出后,经融合层的Concatenate合并级联处理,经主全连接层后,通过Softmax函数输出分类预测;
基于VGG网络模型构建所述声场景分类模型的每个支路网络模型;
所述支路网络模型包括:三个卷积块、一个支路全连接块;
所述卷积块包括:两个卷积层、两个BR层、一个最大池化层;
S5:训练所述声场景分类模型,得到训练好的所述声场景分类模型;
S6:将步骤S3中获得的所述数据增强后特征向量输入到训练好的所述声场景分类模型中,进行场景分类筛选,输出对应的最终分类预测结果。
其进一步特征在于:
步骤S2中,所述待分类样本声学特征的数据结构为二维向量,第一维数据表征音频样本的帧数信息,第二维数据表征音频样本经过特定的声学特征提取处理后的特征信息;
步骤S2中,所述滤波器提取所述待分类样本声学特征的方案包括:
设:所述待分类样本声学特征为N路,则有:
N=1时的声学特征选取方案如下:
(1)[128维Log-mel语谱图]
(2)[128维Gamma-tone语谱图]
(3)[174维mfcc]
(4)[174维gfcc]
N=2时的声学特征组合方案如下:
(1)[128维Log-mel语谱图,174维mfcc]
(2)[128维Log-mel语谱图,128维Gamma-tone语谱图]
(3)[128维Log-mel语谱图,128维gfcc]
N=3时的声学特征组合方案如下:
(1)[128维Log-mel语谱图,174维mfcc,128维Fbank]
(2)[128维Log-mel语谱图,174维mfcc,128维Gamma-tone语谱图]
(3)[128维Log-mel语谱图,174维mfcc,128维gfcc];
步骤S3中,N种声学特征经过数据增强后的所述数据增强后特征向量表达式为:
其中:
j=i+1,N、i、j为正整数,λ∈(0,1),xNi表示第N种声学特征的第i批数据,xNj表示第N种声学特征的第j批数据,表示生成的第N种声学特征数据,yi表示第i批数据的标签,yj表示第j批数据的标签,表示生成的声学特征对应的标签;
所述卷积块中的BR层包括:批归一化Batch-Normalization层、激活函数Rectified Linear Unit;
所述卷积块中的最大池化Maxpooling层是一种通过缩小特征尺寸来减少模型参数的方式;
所述支路全连接块是利用Flatten()函数将卷积操作后的特征图层扁平化为一维数据,并在扁平化处理后,经全连接层后,再将数据通Dropout处理;
三个所述卷积块中,卷积核步长设置为1,卷积核通过均匀扫过特征图来实现卷积操作;
第一个所述卷积块中,两个卷积层的通道数为32,卷积核尺寸为3×3,,池化尺寸为4×4;
第二个所述卷积块中,两个卷积层的通道数为64,池化尺寸为3×3;
第三所述卷积块中,两个卷积层的两个通道数为128,池化尺寸为3×3;
所述声场景分类模型中,包括三个所述支路网络;
步骤S6中,将所述数据增强后特征向量输入到训练好的所述声场景分类模型中之前,在所述数据增强后特征向量的数据维度基础上,增加一维通道数,然后再输入到所述声场景分类模型中;
步骤S1中,所述预处理包括:预加重处理、分帧、加窗。
本发明提供的基于多路声学特征数据增强的声场景分类方法中,基于Mixup数据增强方式实现数据增强用特征生成器,同时生成多种声学特征,扩充了样本数据量,从样本增强的角度,提高了分类器的泛化能力;基于MCNN模型构建了多支路的声场景分类模型,通过多路声学特征并行输入分类器进行分类操作,使得多种声学特征相互补充提高了分类器的分类精度;数据增强用特征生成器和多支路的所述声场景分类模型的结合使用,不但提升了分类器的准确率,而且提高了分类器的泛化能力,使本发明技术方案中的声场景分类方法适用于各种场景。
附图说明
图1为基于本发明技术方案的双路声学特征数据生成原理示意图;
图2为本发明中声场景分类模型的支路网络的网络结构示意图;
图3为本发明中声场景分类模型中融合层的网络结构示意图;
图4为实施例中三路特征并行输入的主体网络连接示意图。
具体实施方式
如图1~图4所示,本发明基于多路声学特征数据增强的声场景分类方法,其包括以下步骤。
S1:采集待分类的原始音频样本信息,其中包括音频时长和采样频率,并对其进行预处理,获得待处理样本信息;
预处理包括:预加重处理、分帧、加窗等处理操作;通过分帧操作将连续的音频信号转化为离散信号,通过加窗操作使这些离散信号具有较好的连续性。
S2:对待处理样本信息进行傅里叶变换处理后,输入到用于提取声学特征的滤波器,得到待处理样本信息对应的待分类样本声学特征;
待分类样本声学特征的数据结构为二维向量,第一维数据表征音频样本的帧数信息,第二维数据表征音频样本经过特定的声学特征提取处理后的特征信息;
滤波器提取待分类样本声学特征的方案包括:
设:待分类样本声学特征为N路,则有:
N=1时的声学特征选取方案如下:
(1)[128维Log-mel语谱图]
(2)[128维Gamma-tone语谱图]
(3)[174维mfcc]
(4)[174维gfcc]
N=2时的声学特征组合方案如下:
(1)[128维Log-mel语谱图,174维mfcc]
(2)[128维Log-mel语谱图,128维Gamma-tone语谱图]
(3)[128维Log-mel语谱图,128维gfcc]
N=3时的声学特征组合方案如下:
(1)[128维Log-mel语谱图,174维mfcc,128维Fbank]
(2)[128维Log-mel语谱图,174维mfcc,128维Gamma-tone语谱图]
(3)[128维Log-mel语谱图,174维mfcc,128维gfcc]。
S3:将待分类样本声学特征的数据输入到数据增强用特征生成器;
数据增强用特征生成器中,设置N种声学特征作为声场景分类模型的输入,且每一种声学特征对应分类模型的一个输入模块;数据增强用特征生成器的输出为:数据增强后特征向量;
数据增强用特征生成器基于Mixup数据增强方式,对输入的多路待分类样本声学特征的数据进行特征增强操作;
本发明技术方案中,数据增强用特征生成器以N路待分类样本声学特征为输入数据,每一种声学特征对应声场景分类模型的一个输入模块;
输入的声学特征数据经过分批处理后生成虚拟样本,然后通过迭代器将虚拟样本图层合并到数据增强后的特征图层中,得到最终的数据增强后特征向量;
N种声学特征经过数据增强后的数据增强后特征向量表达式为:
其中:
j=i+1,N、i、j为正整数,λ∈(0,1),xNi表示第N种声学特征的第i批数据,xNj表示第N种声学特征的第j批数据,表示生成的第N种声学特征数据,yi表示第i批数据的标签,yj表示第j批数据的标签,表示生成的声学特征对应的标签;
如图1为本发明中双路声学特征数据生成原理示意图,以上式中N=2的情况进行说明,其中X1、X2是两种声学特征的原始图层,经过分批处理后得到X1i和X2i,各自通过生成虚拟样本得到最后通过迭代器将虚拟样本图层合并得到数据增强后的特征图层和输出为二维向量[Input1,Input2],作为声场景分类模型的输入数据。
S4:构建声场景分类模型;
基于MCNN模型构建多支路的声场景分类模型;MCNN网络的主体是由多特征并行部分和特征融合部分构成,多特征并行部分的网络架构是由输入的声学特征的种类数决定的;
声场景分类模型包括:支路网络,多个支路网络输出后,经融合层的Concatenate合并级联处理,经主全连接层后,通过Softmax函数输出分类预测;
其中,Softmax函数的计算公式为:
基于VGG网络模型构建声场景分类模型的每个支路网络模型;
支路网络模型包括:三个卷积块、一个支路全连接块;
卷积块包括:两个卷积层、两个BR层、1个最大池化层;
卷积块中的BR层包括:批归一化Batch-Normalization层、激活函数RectifiedLinear Unit(简称RELU),
卷积块中的最大池化Maxpooling层是一种通过缩小特征尺寸来减少模型参数的方式;
支路全连接块是利用Flatten()函数将卷积操作后的特征图层扁平化为一维数据,并在扁平化处理后,经全连接层后,再将数据通过Dropout处理,舍弃部分数据来降低模型出现过拟合的风险。
如图2所示实施例,三个卷积块中,卷积核步长设置为1,卷积核通过均匀扫过特征图来实现卷积操作;第一个卷积块中,两个卷积层的通道数为32,卷积核尺寸为3×3;第二个卷积块中,两个卷积层的通道数为64,池化尺寸为3×3;第三卷积块中,两个卷积层的两个通道数为128;输入的特征数据(input),经过连续的三个卷积块处理后,输出长度为256的一维特征数据。
如图3所示,本实施例中的声场景分类模型中,包括四个支路网络;
四个支路网络输出的四路特征数据从支路全连接块输出后,经过融合层的Concatenate处理,将四个长度为256的一维特征数据拼接成一个长度为1024的合成特征数据,然后将合并后的特征数据再通过全连接处理,得到长度为256的一维特征数据,送入Dropout处理来降低模型过拟合的概率,最后通过归一化指数函数Softmax处理后,输出最终分类预测结果。
S5:训练声场景分类模型,得到训练好的声场景分类模型。
S6:将步骤S3中获得的数据增强后特征向量在原有数据维度基础上增加一维通道数,将二维特征向量扩展为三维向量,即,原有二维数据:第一维数据表征音频样本的帧数信息、第二维数据表征音频样本经过特定的声学特征提取处理后的特征信息的基础上添加1维通道数来适应网络中的卷积操作,然后输入到训练好的声场景分类模型中,进行场景分类筛选,输出对应的最终分类预测结果。
如图4所示,为本发明中主体网络的连接示意图,以三种声学特征数据并行输入为例进行说明。三种声学特征,即N=3,根据步骤S2中的声学特征组合方案中,N=3时的有三种方案,实时是任选一种都可以;本实施例中选取第三种方案,即:分别选取128维Log-mel语谱图、174维mfcc,以及128维gfcc,作为三个支路网络的输入;
其中:mfcc特征向量的尺寸为(174,174),Log-mel语谱图特征向量的尺寸为(174,128),gfcc特征向量的尺寸为(173,128)。
经过数据增强用特征生成器处理过的数据增强后特征向量输入到声场景分类模型中,输入之前需要增加一维通道数,来适应网络中的卷积操作,即将三种特征向量均扩展为三维向量(如:mfcc特征向量扩展为(174,174,1))。
数据增强后特征向量输入到声场景分类模型的三个支路网络中后,在每一个支路网络中,首先经过三组通道数递增的卷积块;其中,第一组卷积块中包含两个通道数为32,卷积核尺寸为3,卷积核滑动步长为1的卷积层以及两组BR层处理,卷积核通过均匀扫过特征图来实现卷积操作;以一个卷积核的卷积操作为例,其计算公式为:
求和∑表示卷积层前向传播的过程,I表示输入的特征图,S表示输出的特征图,K表示卷积核,*表示卷积运算,(i,j)表示特征图上的特征向量,(m,n)表示卷积核的尺寸。
经过第一组卷积处理后的数据采用Maxpooling池化处理,设置池化尺寸为4×4;第二组卷积块的参数设置较第一组卷积块只改变了通道个数和池化尺寸,其两个通道数为64,对应的Maxpooling池化尺寸为3×3;第三组卷积块层的参数设置较第二组卷积块层只改变了通道个数,其两个通道数为128。从第三个卷积块层输出的特征图层进入支路全连接块,先通过Flatten处理将特征图层扁平化为一维数据,再经过全连接(Dense(256))处理得到长度为256的一维特征数据,最后通过Dropout处理来降低模型过拟合的概率。
三路特征数据分别从支路全连接块输出进入到融合层,经过Concatenate处理,将三个长度为256的一维特征数据拼接成一个长度为786的合成特征数据,三路特征数据从支路全连接块输出的结果分别记为L1,L2,L3,拼接后的特征数据记为L,则L的表达式为:
L=Concate([L1,L2,L3])
式中Concate([L1,L2,L3])表示使用Concatenation层进行三路的一维特征信息数据合并。
然后将合并后的特征数据再通过主全连接层(Dense(256))处理,得到长度为256的一维特征数据,同时Dropout处理来降低模型过拟合的概率,最后通过归一化指数函数Softmax处理后,输出最终分类预测结果。
在Window10系统、显卡GTX1660Ti、CPU为i7-9750H、内存32G的实验环境下;采用keras+TensorFlow作为深度学习框架,采用城市声音事件分类标准数据集UrbanSound8k,其中fold1-9作为训练集,训练集样本个数为7895;测试集为fold10中wav音频文件,样本个数为838。分别进行是否经过数据增强对模型影响的对比实验,以及多声学特征和单一声学特征对模型影响的对比试验。再通过环境音频数据集ESC10来检验多声学特征数据增强方法的泛化能力。
利用本发明技术方案的MCNN网络模型(表中标记为MCNN)、应用于两种声学特征并行输入的DCNN网络模型(表中标记为DCNN)以及应用于一种声学特征输入的CNN网络模型(表中标记为CNN),提取的5种声学特征数据,在Urbansound8K数据集上进行声场景分类实验,并对比分类准确率的变化情况,具体结果如表1多声学特征输入数据增强实验(Urbansound8K数据集)所示:
表1:多声学特征输入数据增强实验(Urbansound8K数据集)
传统的音频数据分类方法中,主要采用单一的声学特征作为系统输入,或者通过维度拼接的方式将不同的声学特征输入网络,这种方法在特征导入的过程中容易造成内存占用率过大的情况,在进行数据增强的过程中也会耗费大量的时间,表1中给出不同声学特征输入的声场景分类准确率对比以及体现上述提及数据增强方法的对比准确率。
可以从表1中的实验数据看出,在未做数据增强处理且网络模型相同的情况下,单一声学特征的分类准确率最高可达到83.63%(对应CNN模型-128维Gamma-tone语谱图的未数据增强的分类准确率);而多种声学特征并行输入方法的分类准确率最高可以达到84.83%(对应MCNN网络模型-[128维Log-mel语谱图,174维mfcc,128维gfcc]的未数据增强项目的分类准确率)。
而在做数据增强处理且网络模型相同的情况下,单一声学特征的分类准确率最高可达到86.26%(对应CNN模型-128维Log-mel语谱图,的数据增强的分类准确率),而多种声学特征并行输入方法的分类准确率最高可以达到88.29%(对应MCNN网络模型-[128维Log-mel语谱图,174维mfcc,128维gfcc]的数据增强项目的分类准确率);
可知,多种声学特征并行输入网络较单一声学特征输入在分类准确率方面有一定的提升,且经过数据增强后的模型准确率较未经过数据增强的模型(即,本发明技术方案)准确率有一定的提升。
为了验证多特征数据增强方法的泛化能力,利用上述实验中的声学特征组合方法,在ESC10数据集上进行消融实验,具体结果如下表2:多声学特征输入数据增强实验(ESC10数据集)所示:
表2:多声学特征输入数据增强实验(ESC10数据集)
根据表2中的实验结果可知,在未做数据增强处理且网络模型相同的情况下,单一声学特征的分类准确率最高可达到91.25%(对应CNN模型-128维Gamma-tone语谱图的未数据增强的分类准确率),而多种声学特征并行输入方法的分类准确率最高可以达到93.75%(对应MCNN网络模型-[128维Log-mel语谱图,174维mfcc,128维gfcc]的未数据增强项目的分类准确率)。
而在做数据增强处理且网络模型相同的情况下,单一声学特征的分类准确率最高可达到93.75%(对应CNN模型-128维Gamma-tone语谱图的数据增强的分类准确率),而多种声学特征并行输入方法的分类准确率最高可以达到96.25%(对应MCNN网络模型-[128维Log-mel语谱图,174维mfcc,128维gfcc]的数据增强项目的分类准确率);
可知,多种声学特征并行输入网络较单一声学特征输入在分类准确率方面有一定的提升,且经过数据增强后的模型准确率较未经过数据增强的模型(本发明技术方案)准确率有一定的提升。
综上所述,本发明提供的方案,在处理音频数据时,引入了多种声学特性、以及数据增强方式,使得分类系统的准确率以及泛化能力都有一定的提升。
Claims (10)
1.基于多路声学特征数据增强的声场景分类方法,其包括以下步骤:
S1:采集待分类的原始音频样本信息,其中包括音频时长和采样频率,并对其进行预处理,获得待处理样本信息;
其特征在于,其还包括一下步骤:
S2:对所述待处理样本信息进行傅里叶变换处理后,输入到用于提取声学特征的滤波器,得到所述待处理样本信息对应的待分类样本声学特征;
S3:将所述待分类样本声学特征的数据输入到数据增强用特征生成器;
所述数据增强用特征生成器中,设置N种声学特征作为声场景分类模型的输入,且每一种声学特征对应分类模型的一个输入模块;所述数据增强用特征生成器的输出为:数据增强后特征向量
所述数据增强用特征生成器基于Mixup数据增强方式,对输入的所述待分类样本声学特征的数据进行特征增强操作;输入的声学特征数据经过分批处理后生成虚拟样本,然后通过迭代器将虚拟样本图层合并到数据增强后的特征图层中,得到最终的所述数据增强后特征向量;
S4:构建声场景分类模型;
基于MCNN模型构建多支路的所述声场景分类模型;
所述声场景分类模型包括:支路网络,多个所述支路网络输出后,经融合层的Concatenate合并级联处理,经主全连接层后,通过Softmax函数输出分类预测;
基于VGG网络模型构建所述声场景分类模型的每个支路网络模型;
所述支路网络模型包括:三个卷积块、一个支路全连接块;
所述卷积块包括:两个卷积层、两个BR层、一个最大池化层;
S5:训练所述声场景分类模型,得到训练好的所述声场景分类模型;
S6:将步骤S3中获得的所述数据增强后特征向量输入到训练好的所述声场景分类模型中,进行场景分类筛选,输出对应的最终分类预测结果。
2.根据权利要求1所述基于多路声学特征数据增强的声场景分类方法,其特征在于:步骤S2中,所述待分类样本声学特征的数据结构为二维向量,第一维数据表征音频样本的帧数信息,第二维数据表征音频样本经过特定的声学特征提取处理后的特征信息。
3.根据权利要求1所述基于多路声学特征数据增强的声场景分类方法,其特征在于:步骤S2中,所述滤波器提取所述待分类样本声学特征的方案包括:
设:所述待分类样本声学特征为N路,则有:
N=1时的声学特征选取方案如下:
(1)[128维Log-mel语谱图]
(2)[128维Gamma-tone语谱图]
(3)[174维mfcc]
(4)[174维gfcc]
N=2时的声学特征组合方案如下:
(1)[128维Log-mel语谱图,174维mfcc]
(2)[128维Log-mel语谱图,128维Gamma-tone语谱图]
(3)[128维Log-mel语谱图,128维gfcc]
N=3时的声学特征组合方案如下:
(1)[128维Log-mel语谱图,174维mfcc,128维Fbank]
(2)[128维Log-mel语谱图,174维mfcc,128维Gamma-tone语谱图]
(3)[128维Log-mel语谱图,174维mfcc,128维gfcc]。
5.根据权利要求1所述基于多路声学特征数据增强的声场景分类方法,其特征在于:所述卷积块中的BR层包括:批归一化Batch-Normalization层、激活函数Rectified LinearUnit;
所述卷积块中的最大池化Maxpooling层是一种通过缩小特征尺寸来减少模型参数的方式。
6.根据权利要求1所述基于多路声学特征数据增强的声场景分类方法,其特征在于:所述支路全连接块是利用Flatten()函数将卷积操作后的特征图层扁平化为一维数据,并在扁平化处理后,经全连接层后,再将数据通Dropout处理。
7.根据权利要求1所述基于多路声学特征数据增强的声场景分类方法,其特征在于:三个所述卷积块中,卷积核步长设置为1,卷积核通过均匀扫过特征图来实现卷积操作;
第一个所述卷积块中,两个卷积层的通道数为32,卷积核尺寸为3×3,池化尺寸为4×4;
第二个所述卷积块中,两个卷积层的通道数为64,池化尺寸为3×3;
第三所述卷积块中,两个卷积层的两个通道数为128,池化尺寸为3×3。
8.根据权利要求1所述基于多路声学特征数据增强的声场景分类方法,其特征在于:所述声场景分类模型中,包括三个所述支路网络。
9.根据权利要求1所述基于多路声学特征数据增强的声场景分类方法,其特征在于:步骤S6中,将所述数据增强后特征向量输入到训练好的所述声场景分类模型中之前,在所述数据增强后特征向量的数据维度基础上,增加一维通道数,然后再输入到所述声场景分类模型中。
10.根据权利要求1所述基于多路声学特征数据增强的声场景分类方法,其特征在于:步骤S1中,所述预处理包括:预加重处理、分帧、加窗。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010726152.5A CN111833906B (zh) | 2020-07-25 | 2020-07-25 | 基于多路声学特征数据增强的声场景分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010726152.5A CN111833906B (zh) | 2020-07-25 | 2020-07-25 | 基于多路声学特征数据增强的声场景分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111833906A CN111833906A (zh) | 2020-10-27 |
CN111833906B true CN111833906B (zh) | 2022-09-30 |
Family
ID=72925448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010726152.5A Active CN111833906B (zh) | 2020-07-25 | 2020-07-25 | 基于多路声学特征数据增强的声场景分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111833906B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113035361A (zh) * | 2021-02-09 | 2021-06-25 | 北京工业大学 | 一种基于数据增强的神经网络时间序列分类方法 |
CN113283414A (zh) * | 2021-07-26 | 2021-08-20 | 深圳市安软科技股份有限公司 | 行人属性识别方法、相关设备及计算机可读存储介质 |
CN116543795B (zh) * | 2023-06-29 | 2023-08-29 | 天津大学 | 一种基于多模态特征融合的声音场景分类方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109272988A (zh) * | 2018-09-30 | 2019-01-25 | 江南大学 | 基于多路卷积神经网络的语音识别方法 |
WO2019086118A1 (en) * | 2017-11-02 | 2019-05-09 | Huawei Technologies Co., Ltd. | Segmentation-based feature extraction for acoustic scene classification |
CN109949824A (zh) * | 2019-01-24 | 2019-06-28 | 江南大学 | 基于N-DenseNet和高维mfcc特征的城市声音事件分类方法 |
CN110390952A (zh) * | 2019-06-21 | 2019-10-29 | 江南大学 | 基于双特征2-DenseNet并联的城市声音事件分类方法 |
-
2020
- 2020-07-25 CN CN202010726152.5A patent/CN111833906B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019086118A1 (en) * | 2017-11-02 | 2019-05-09 | Huawei Technologies Co., Ltd. | Segmentation-based feature extraction for acoustic scene classification |
CN109272988A (zh) * | 2018-09-30 | 2019-01-25 | 江南大学 | 基于多路卷积神经网络的语音识别方法 |
CN109949824A (zh) * | 2019-01-24 | 2019-06-28 | 江南大学 | 基于N-DenseNet和高维mfcc特征的城市声音事件分类方法 |
CN110390952A (zh) * | 2019-06-21 | 2019-10-29 | 江南大学 | 基于双特征2-DenseNet并联的城市声音事件分类方法 |
Non-Patent Citations (4)
Title |
---|
N-DenseNet的城市声音事件分类模型;曹毅等;《西安电子科技大学学报》;20190829(第06期);全文 * |
Robust Feature Extraction and Classification of Acoustic Partial Discharge Signals Corrupted with Noise;HUSSEIN R,SHABAN K B,EL-HAG A H.;《IEEE Transactions on Instrumentation and Measurement》;20171231;全文 * |
SE-MCNN-CTC的中文语音识别声学模型;张威等;《应用声学》;20200311(第02期);全文 * |
Urban Sound Event Classification Based on Local&Global Features Aggregation;YE J X,KOBAYASHI T,MURAKAWA M.;《Applied Acoustics》;20171231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111833906A (zh) | 2020-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111833906B (zh) | 基于多路声学特征数据增强的声场景分类方法 | |
CN110390952B (zh) | 基于双特征2-DenseNet并联的城市声音事件分类方法 | |
CN112818861B (zh) | 一种基于多模态上下文语义特征的情感分类方法及系统 | |
Sultana et al. | Bangla speech emotion recognition and cross-lingual study using deep CNN and BLSTM networks | |
Amiriparian et al. | Bag-of-deep-features: Noise-robust deep feature representations for audio analysis | |
CN111080109B (zh) | 客服服务质量评价方法、装置及电子设备 | |
CN111986699B (zh) | 基于全卷积网络的声音事件检测方法 | |
WO2022048239A1 (zh) | 音频的处理方法和装置 | |
CN111341294B (zh) | 将文本转换为指定风格语音的方法 | |
Jayanthi et al. | An integrated framework for emotion recognition using speech and static images with deep classifier fusion approach | |
Dogan et al. | A novel ternary and signum kernelled linear hexadecimal pattern and hybrid feature selection based environmental sound classification method | |
CN114155876A (zh) | 一种基于音频信号的交通流识别方法、装置及存储介质 | |
Zhang et al. | Temporal Transformer Networks for Acoustic Scene Classification. | |
CN115393968A (zh) | 一种融合自监督多模态特征的视听事件定位方法 | |
Qu et al. | Acoustic scene classification based on three-dimensional multi-channel feature-correlated deep learning networks | |
Chon et al. | Acoustic scene classification using aggregation of two-scale deep embeddings | |
Mane et al. | Identification & Detection System for Animals from their Vocalization | |
CN114898773A (zh) | 基于深度自注意力神经网络分类器的合成语音检测方法 | |
CN112687280B (zh) | 一种具有频谱-时间空间界面的生物多样性监测系统 | |
CN115116469A (zh) | 特征表示的提取方法、装置、设备、介质及程序产品 | |
Guo | UL-net: Fusion Spatial and Temporal Features for Bird Voice Detection | |
Papayiannis et al. | Data augmentation of room classifiers using generative adversarial networks | |
CN113808604B (zh) | 基于伽马通频谱分离的声场景分类方法 | |
CN117238298B (zh) | 一种基于声音事件的动物识别与定位方法及系统 | |
CN114863939B (zh) | 一种基于声音的大熊猫属性识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |