CN113936667A - 一种鸟鸣声识别模型训练方法、识别方法及存储介质 - Google Patents

一种鸟鸣声识别模型训练方法、识别方法及存储介质 Download PDF

Info

Publication number
CN113936667A
CN113936667A CN202111072346.9A CN202111072346A CN113936667A CN 113936667 A CN113936667 A CN 113936667A CN 202111072346 A CN202111072346 A CN 202111072346A CN 113936667 A CN113936667 A CN 113936667A
Authority
CN
China
Prior art keywords
training
frame
bird
data set
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111072346.9A
Other languages
English (en)
Inventor
张承云
李清荣
陈庆春
詹海松
李一帆
孟瑞德
余上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Inspiration Ecological Technology Co ltd
Guangzhou University
Original Assignee
Guangzhou Inspiration Ecological Technology Co ltd
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Inspiration Ecological Technology Co ltd, Guangzhou University filed Critical Guangzhou Inspiration Ecological Technology Co ltd
Priority to CN202111072346.9A priority Critical patent/CN113936667A/zh
Publication of CN113936667A publication Critical patent/CN113936667A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本发明公开了一种鸟鸣声识别模型训练方法、识别方法及存储介质,本发明通过对预训练音频数据集、预训练鸟声数据集、目标鸟声数据集分别进行第一处理,得到对应的第一训练数据,第一处理包括:对预训练音频数据集、预训练鸟声数据集、目标鸟声数据集分别进行第一分帧处理并确定第一幅度谱和第一切片数据;根据第一切片数据进行第二分帧处理并确定第二幅度谱,根据第二幅度谱以及梅尔滤波器组确定第一梅尔谱并进行频率时间屏蔽处理;对负样本数据集进行第二处理,得到第二训练数据,根据第一训练数据以及第二训练数据对鸟鸣声识别模型进行训练,得到目标鸟鸣声识别模型,提高目标鸟鸣声识别模型的识别准确率,本发明可广泛应用于声音识别领域。

Description

一种鸟鸣声识别模型训练方法、识别方法及存储介质
技术领域
本发明涉及声音识别领域,尤其是一种鸟鸣声识别模型训练方法、识别方法及存储介质。
背景技术
世界上有近10000种鸟类,相关数据表明,部分鸟类种群数量呈现下降趋势,人类对鸟类的保护已经到了刻不容缓的地步,而鸟种丰富度和鸟类活动活跃度往往能推断出这个地区的环境质量的好坏,因此如何监测鸟类的方式是保护鸟类的重要一步。
目前监测鸟类的方法有传统的人工样点法、样线法以及人工布置红外相机监测等,传统的人工监测方法存在着效率低、覆盖面窄的缺陷,布置的红外相机还受拍摄角度以及供电的影响。而实际上,相比于用照片或视频来观察鸟喙或者鸟的羽毛等形态特征,鸟鸣声所蕴含的生物学信息特征也有很大的差异,这种差异可以帮助区分不同物种的鸟,因此基于鸣声的鸟类监测是一种新兴方法,可以通过提取和分析鸟鸣声所蕴含的信息来鉴别鸟的物种,统计生态区的鸟类分布特点,从而帮助了解生物多样性,进而监控生态系统的平衡。而目前传鸟鸣声监测基于模板匹配的分类算法或者深度学习,而基于模板匹配的分类算法鲁棒性差,适用场景窄;当数据量紧缺或者数据质量不高时,深度学习算法表现不佳,导致训练的模型识别效果差,因此需要寻求解决方案。
发明内容
有鉴于此,为了解决上述技术问题,本发明的目的是提供一种鸟鸣声识别模型训练方法、识别方法及存储介质。
本发明采用的技术方案是:
一种鸟鸣声识别模型训练方法,包括:
获取数据集合;所述数据集合包括预训练音频数据集、预训练鸟声数据集、目标鸟声数据集以及负样本数据集;
对所述预训练音频数据集、所述预训练鸟声数据集、所述目标鸟声数据集分别进行第一处理,得到所述预训练音频数据集、所述预训练鸟声数据集以及所述目标鸟声数据集对应的第一训练数据;所述第一处理包括:对所述预训练音频数据集、所述预训练鸟声数据集、所述目标鸟声数据集分别进行第一分帧处理并根据第一分帧处理结果确定第一幅度谱,根据所述第一幅度谱确定由有效帧构成的第一切片数据,根据所述第一切片数据进行第二分帧处理并根据第二分帧处理结果确定第二幅度谱,根据所述第二幅度谱以及梅尔滤波器组确定第一梅尔谱,对所述第一梅尔谱进行频率时间屏蔽处理;
对所述负样本数据集进行第二处理,得到第二训练数据;
根据所述第一训练数据以及所述第二训练数据,对鸟鸣声识别模型进行训练,得到目标鸟鸣声识别模型。
进一步,所述对所述预训练音频数据集、所述预训练鸟声数据集、所述目标鸟声数据集分别进行第一分帧处理,包括:
对所述预训练音频数据集、所述预训练鸟声数据集、所述目标鸟声数据集根据预设帧长和预设帧移分别进行分帧,分别得到对应的分帧数据;
分别从分帧数据中确定第一帧以及确定第二帧;第二帧为第一帧的上一帧;
将第一帧与第二帧进行帧叠后将第二帧作为新的第一帧,返回所述确定第二帧的步骤,直至第一帧为分帧数据的最后一帧,得到分帧数据对应的帧叠数据;所述帧叠数据为所述第一分帧处理结果。
进一步,所述根据第一分帧处理结果确定第一幅度谱,包括:
对所述帧叠数据进行第一加窗处理,得到第一加窗处理结果;
对所述第一加窗处理结果进行傅里叶变换运算处理;
确定傅里叶变换运算处理结果的模值,得到所述帧叠数据中每一帧数据的第一幅度谱。
进一步,所述根据所述第一幅度谱确定由有效帧构成的第一切片数据,包括:
计算所述第一幅度谱每个频率点的分贝值,得到每个频率点的幅度分贝值;
根据所述幅度分贝值进行平均值计算,确定每一帧数据的平均分贝值;每一帧数据包括若干个频率点;
将所述平均分贝值大于等于分贝阈值对应的数据作为有效帧;
将所述有效帧按照时间先后顺序进行拼接得到拼接数据;
根据预设切片长度对所述拼接数据进行第一切片处理,得到第一切片数据。
进一步,所述梅尔滤波器组包括至少一个梅尔滤波器,所述根据所述第二幅度谱以及梅尔滤波器组确定第一梅尔谱,包括:
计算所述第二幅度谱的平方,得到频率谱;
根据所述预训练鸟声数据集以及所述目标鸟声数据集中各种鸟种的鸟鸣声发声频率,确定实际频率上限和实际频率下限;
根据梅尔频率与实际频率的转化方程,计算所述实际频率上限对应的梅尔滤波器组的带通频率上限以及计算所述实际频率下限对应的梅尔滤波器组的带通频率下限;
根据所述梅尔滤波器对所述频率谱进行处理,得到第一梅尔谱;所述梅尔滤波器的中心频率根据所述带通频率上限以及所述带通频率下限确定。
进一步,所述对所述第一梅尔谱进行频率时间屏蔽处理,包括:
确定各种鸟种对应的鸟鸣频率上限以及鸟鸣频率下限;
计算所述鸟鸣频率上限与预设屏蔽宽度的第一差值并确定第一阈值;所述第一阈值大于等于所述鸟鸣频率下限且小于等于所述第一差值;
计算所述第一阈值与所述预设屏蔽宽度的和,得到第二阈值;
根据所述第一阈值以及所述第二阈值确定屏蔽频率通道范围,并根据所述屏蔽频率通道范围对所述第一梅尔谱进行频率通道屏蔽;
确定所述第二分帧处理中分帧的总帧数,计算所述总帧数与预设时间帧屏蔽宽度的第二差值并确定第三阈值;所述第三阈值大于等于1且小于等于所述第二差值;
计算所述第三阈值与所述预设时间帧屏蔽宽度的和,得到第四阈值;
根据所述第三阈值以及所述第四阈值确定屏蔽时间通道范围,并根据所述屏蔽时间通道范围以及第二预设通道数对频率通道屏蔽结果进行时间通道屏蔽,得到所述预训练音频数据集、所述预训练鸟声数据集以及所述目标鸟声数据集对应的第一训练数据。
进一步,所述对所述负样本数据集进行第二处理,得到第二训练数据,包括:
对所述负样本数据集进行第二切片处理,得到第二切片数据;
对所述第二切片数据进行第三分帧处理并根据第三分帧处理结果确定第三幅度谱,根据所述第三幅度谱以及梅尔滤波器组确定第二梅尔谱并作为所述第二训练数据。
进一步,所述鸟鸣声识别模型包括特征提取主干模块以及鸟声识别检测块,所述鸟声识别检测块包括第一支路和第二支路;所述根据所述第一训练数据以及所述第二训练数据,对鸟鸣声识别模型进行训练,得到目标鸟鸣声识别模型,包括:
根据所述第二训练数据和所述目标鸟声数据集对应的第一训练数据构成第三训练数据;
将所述预训练音频数据集以及所述预训练鸟声数据集对应的第一训练数据以及所述第三训练数据输入至特征提取主干模块进行特征提取处理,将特征提取处理得到的嵌入特征在时间维度上进行聚合,得到子片段级的预测结果;所述特征提取主干模块基于分级迁移学习训练得到;
将所述子片段级的预测结果输入至第一支路,进行第一卷积处理,得到各个子片段的鸟声的片段级预测结果;
将所述子片段级的预测结果输入至第二支路,进行第二卷积处理并输入用于分类的注意力块,将所述注意力块的输出与所述片段级预测结果相乘并基于子片段的时间进行聚合,得到帧级别预测结果;
根据所述片段级预测结果或者所述帧级别预测结果计算损失函数值,并根据所述损失函数值通过微调确定目标鸟鸣声识别模型。
本发明还提供一种鸟鸣声识别方法,包括:
将待检测鸟鸣声数据输入所述目标鸟鸣声识别模型,得到识别结果;所述识别结果包括片段级识别结果或者帧级别识别结果,所述片段级识别结果包括待检测鸟鸣声数据中的鸟鸣声类别,所述帧级别识别结果包括待检测鸟鸣声数据中的鸟鸣声类别以及鸟鸣声出现的起始时刻以及结束时刻。
本发明还提供一种鸟鸣声识别装置,包括处理器以及存储器;
所述存储器存储有程序;
所述处理器执行所述程序以实现所述方法。
本发明还提供一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行时实现所述方法。
本发明的有益效果是:通过对预训练音频数据集、预训练鸟声数据集、目标鸟声数据集分别进行第一处理,得到预训练音频数据集、预训练鸟声数据集以及目标鸟声数据集对应的第一训练数据,第一处理包括:对预训练音频数据集、预训练鸟声数据集、目标鸟声数据集分别进行第一分帧处理并根据第一分帧处理结果确定第一幅度谱,根据第一幅度谱确定由有效帧构成的第一切片数据,能够对数据集合进行数据增强,有利于提高第一训练数据的质量;根据第一切片数据进行第二分帧处理并根据第二分帧处理结果确定第二幅度谱,根据第二幅度谱以及梅尔滤波器组确定第一梅尔谱,对第一梅尔谱进行频率时间屏蔽处理,使得第一训练数据更加具有鲁棒性,扩展了适用场景;对负样本数据集进行第二处理,得到第二训练数据,根据第一训练数据以及第二训练数据,对鸟鸣声识别模型进行训练,得到目标鸟鸣声识别模型,有利于提高目标鸟鸣声识别模型的识别准确率。
附图说明
图1为本发明鸟鸣声识别模型训练方法的步骤流程示意图;
图2为本发明具体实施例鸟鸣声识别模型的示意图;
图3为本发明具体实施例分级迁移学习预模型的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本申请的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
如图1所示,本发明实施例提供一种鸟鸣声识别模型训练方法,包括步骤S100-S400:
S100、获取数据集合。
本发明实施例中,数据集合包括预训练音频数据集、预训练鸟声数据集、目标鸟声数据集以及负样本数据集。可选地,预训练音频数据集的数据可以包括人的语音、各种动物鸣叫声、各种乐器流派声等音频数据(信号);负样本数据集可以包括为自然噪声(风声,雨声,流水声等)、城市噪声(交通噪声、建筑施工噪声、社会生活噪声)等,不作具体限定,具体可以添加实际项目中可能遇到的噪声类别;预训练鸟声数据集大量不同鸟种的音频数据;目标鸟声数据集包含多种数量鸟种的音频数据,而鸟种数量比预训练鸟声数据集小,而用预训练鸟声数据集训练出来的模型再对目标鸟声数据集进行拟合,这样训练出来的最终模型比直接拟合目标鸟声数据集的模型具有更高的鲁棒性,避免由于目标鸟声数据集各鸟种数量不足导致模型过拟合。需要说明的是,各个数据集中均为片段级标注的数据(包含真实标签),可以来源于各种爱鸟录音网站。可选地,对于以上数据集的类别数数量关系,一般设置为Nsound>Nbird-source>Nbird-target>Nnegative(包括但不限于100>50>20>10)。对于以上数据集的每个类别的数据总时长,可设置为Ksound>Kbird-source>Kbird-target>Knegative,同时要求各个数据集的每个类别数据总时长不低于10分钟,每个类别的数据可以包括若干个音频文件/数据。如表1所示,为数据集的相关信息。
表1
Figure BDA0003260848620000061
S200、对预训练音频数据集、预训练鸟声数据集、目标鸟声数据集分别进行第一处理,得到预训练音频数据集、预训练鸟声数据集以及目标鸟声数据集对应的第一训练数据。
需要说明的是,对预训练音频数据集进行第一处理,得到预训练音频数据集对应的第一训练数据,对预训练鸟声数据集进行第一处理,得到预训练鸟声数据集对应的第一训练数据,对目标鸟声数据集(本地目标鸟声数据集)进行第一处理,得到目标鸟声数据集(本地目标鸟声数据集)对应的第一训练数据。
可选地,第一处理包括:对预训练音频数据集、预训练鸟声数据集、目标鸟声数据集分别进行第一分帧处理并根据第一分帧处理结果确定第一幅度谱,根据第一幅度谱确定由有效帧构成的第一切片数据,根据第一切片数据进行第二分帧处理并根据第二分帧处理结果确定第二幅度谱,根据第二幅度谱以及梅尔滤波器组确定第一梅尔谱,对第一梅尔谱进行频率时间屏蔽处理。
具体地,对预训练音频数据集、预训练鸟声数据集、目标鸟声数据集分别进行第一分帧处理中,包括步骤S211-S213:
S211、对预训练音频数据集、预训练鸟声数据集、目标鸟声数据集根据预设帧长和预设帧移分别进行分帧,分别得到对应的分帧数据。
可选地,对预训练音频数据集、预训练鸟声数据集、目标鸟声数据集根据预设帧长和预设帧移分别进行分帧。本发明实施例中,记一个音频文件的数据采样点数N,设置分帧帧长为wlen(预设帧长,包括但不限于1024),设置帧移inc(预设帧移,包括但不限于256),得该音频文件的分帧帧数nf,λ为帧编号,λ∈[1,nf]。
Figure BDA0003260848620000071
记分帧后的每一帧为xin(n,λ),xin(n,λ)构成分帧数据,其中n为采样点编号,n=0,1,...,NF-1,其中NF为帧叠后的总长度(可以设为2的整数次方,如1024)。
S212、分别从分帧数据中确定第一帧以及确定第二帧;第二帧为第一帧的上一帧。
S213、将第一帧与第二帧进行帧叠后将第二帧作为新的第一帧,返回确定第二帧的步骤,直至第一帧为分帧数据的最后一帧,得到分帧数据对应的帧叠数据;帧叠数据为第一分帧处理结果。
具体地,确定当前帧,将当前帧与相邻帧进行帧叠,例如可以为将当前帧与上一帧帧叠或者将当前帧与下一帧帧叠,不作具体限定。本发明实施例中以第二帧为xin(n,λ-1),第一帧为xin(n,λ)为例,进行说明,将相邻的帧进行帧叠,直至第一帧为分帧数据的最后一帧(即没有上一帧),从而确定分帧数据对应的帧叠数据。具体地,将当前帧xin(n,λ)与上一帧xin(n,λ-1)进行帧叠得到帧叠结果xon(n,λ),帧叠公式如下:
Figure BDA0003260848620000072
其中,NL为帧叠开始的采样点编号,NF为帧叠后的总长度,各个xon(n,λ)构成帧叠数据,即xon(n,λ)为帧叠数据的一部分。具体地,预训练音频数据集的分帧数据帧叠后得到对应的帧叠数据,预训练鸟声数据集的分帧数据帧叠后得到对应的帧叠数据,目标鸟声数据集的分帧数据帧叠后得到对应的帧叠数据。
具体地,根据第一分帧处理结果确定第一幅度谱中,包括步骤S221-S223:
S221、对帧叠数据进行第一加窗处理,得到第一加窗处理结果。
具体地,对xon(n,λ)进行加窗,本发明实施例中以汉明窗为例,其他实施例中不作具体限定。其中,汉明窗w(n,α),其中w()为向量,α取0.46,窗长(即w(n,α)的长度,n的取值范围)等于帧长点数NF(总长度),由此得到所有加窗后的帧xw(λ,n)(第一加窗处理结果):
Figure BDA0003260848620000073
xw(n,λ)=xon(n,λ)*w(n,α)0≤n≤NF-1 (4)
S222、对第一加窗处理结果进行傅里叶变换运算处理。
S223、确定傅里叶变换运算处理结果的模值,得到帧叠数据中每一帧数据的第一幅度谱。
可选地,傅里叶变换运算处理可以为利用DFT(离散傅里叶变换(DiscreteFourier Transform)或者利用FFT(快速傅立叶变换,fast Fourier transform)进行处理,不作具体限定。本发明实施例中,以DFT为例进行说明。具体地:
对每一帧xw(n,λ)进行N点(一般为2的次幂,例如1024)的傅里叶变换运算,取傅里叶变换运算处理结果的模值得到每一帧信号(数据)的幅度谱第一幅度谱X(k,λ),其中k表示频率点,λ为帧编号,j为虚数单位,由于傅里叶变换的对称性,只对频谱的前Nf个频点进行分析,其中Nf=N/2+1。
Figure BDA0003260848620000081
具体地,根据第一幅度谱确定由有效帧构成的第一切片数据中,包括步骤S231-S235:
S231、计算第一幅度谱每个频率点的分贝值,得到每个频率点的幅度分贝值。
S232、根据幅度分贝值进行平均值计算,确定每一帧数据的平均分贝值。
需要说明的是,每一帧数据包括若干个频率点。
具体地,对X(k,λ)的每个频率点上计算分贝值,得到每一帧的每个频率点上的幅度分贝值dB(k,λ),最后计算平均分贝值dBa(λ)代表这一帧信号的分贝值:
dB(k,λ)=20lg|X(k,λ)|0≤k≤Nf-1 (6)
Figure BDA0003260848620000082
S233、将平均分贝值大于等于分贝阈值对应的数据作为有效帧。
S234、将有效帧按照时间先后顺序进行拼接得到拼接数据。
S235、根据预设切片长度对拼接数据进行第一切片处理,得到第一切片数据。
本发明实施例中,设置分贝阈值ζ,分贝阈值ζ理的大小可以根据实际需求设定,可选地本发明实施例中以ζ取值范围在20dB-30dB为例,当平均分贝值低于分贝阈值ζ的帧(数据)为无效帧,当平均分贝值大于等于分贝阈值ζ的帧(数据)为有效帧,由此统计到一个音频数据的所有有效帧,将有效帧在时间维度上按时间先后顺序进行拼接,得到拼接数据Y_ping。然后,根据预设切片长度对拼接数据Y_ping进行第一切片处理,得到第一切片数据Y_cut。可选地,第一切片处理可以采用汉明窗方法,参照公式(3),设置切片窗口长度(预设切片长度)为Ncut(包括但不限于64000),若存在长度小于Ncut的拼接数据,要对其进行补零到Ncut,由此把拼接完成的拼接数据Y_ping转化为一定数量长度为Ncut的第一切片数据Y_cut。
可选地,根据第一切片数据进行第二分帧处理并根据第二分帧处理结果确定第二幅度谱中,第二分帧处理类似于第一分帧处理,对第一切片数据进行分帧、叠帧得到第二分帧处理结果;根据第二分帧处理结果确定第二幅度谱类似于根据第一分帧处理结果确定第一幅度谱,对分帧处理结果进行加窗处理、傅里叶变换运算处理、确定傅里叶变换运算处理结果的模值,得到帧叠数据(第二分帧处理结果)中每一帧数据的第二幅度谱,不再赘述。
本发明实施例中,梅尔滤波器组包括至少一个梅尔滤波器;具体地,根据第二幅度谱以及梅尔滤波器组确定第一梅尔谱,包括步骤S241-S244:
S241、计算第二幅度谱的平方,得到频率谱。
可选地,假设第二幅度谱为Xp(k1,λ1),则第一切片数据的频率谱为Xp 2(k1,λ1),其中,k1表示频率点,λ1表示帧编号。
S242、根据预训练鸟声数据集以及目标鸟声数据集中各种鸟种的鸟鸣声发声频率,确定实际频率上限和实际频率下限。
具体地,实际频率上限为fh和实际频率下限为fl,例如fl=200Hz,fh=14000Hz,将所有鸟鸣声中频率最高的作为fh,将所有鸟鸣声中频率最低的作为fl
S243、根据梅尔频率与实际频率的转化方程,计算实际频率上限对应的梅尔滤波器组的带通频率上限以及计算实际频率下限对应的梅尔滤波器组的带通频率下限。
具体地,转化方程为:
Figure BDA0003260848620000091
其中,Fmel(f)为转换结果,f为频率,计算处待定出梅尔滤波器组的带通频率上下限,得到带通频率上限Fmel(fh)以及带通频率下限Fmel(fl)。
S244、根据梅尔滤波器对频率谱进行处理,得到第一梅尔谱。
需要说明的是,梅尔滤波器的中心频率根据带通频率上限以及带通频率下限确定。
本发明实施例中,构建梅尔滤波器组,在鸟声(鸟鸣声)的频率范围内(如f∈[fl,fh])设置若干(梅尔滤波器)带通滤波器H(k1,m),1≤m≤M,其中k1表示频率点,λ1表示帧编号,m为滤波器的标号,M为梅尔滤波器的总数量。需要说明的是,M的取值可以根据需要进行调整,不作具体限定,M取值越大,得出的梅尔谱频率分辨率越好,本发明实施例中,M为256。H(k1,m)表达式见式(9),每个梅尔滤波器具有三角滤波特性,其中心频率为f(m)(第m个滤波器的中心频率),如式(10)所示:
Figure BDA0003260848620000101
Figure BDA0003260848620000102
N1为DFT(或者FFT)的长度,fs为采样频率,
Figure BDA0003260848620000103
为Fmel(f)的逆函数,b代表梅尔频率,
Figure BDA0003260848620000104
为梅尔频率值b(单位为mel)转化为频率(单位为hz)。
本发明实施例中,将第一切片数据Y_cut的频率谱Xp 2(k1,λ1)通过梅尔滤波器H(k1,m)得到该第一切片数据Y_cut的第一梅尔谱
Figure BDA0003260848620000105
见式子(11),从而可以把
Figure BDA0003260848620000106
看成一个时间维度为λ1∈[1,247]、频率维度为m∈[1,256]的谱图:
Figure BDA0003260848620000107
其中,nf1为第二处理的分帧数。
具体地,对第一梅尔谱进行频率时间屏蔽处理,频率时间屏蔽处理包括频率通道屏蔽以及时间通道屏蔽,即在谱图的横轴方向(频率),纵轴方向(时间),选择一定范围的通带置0。
具体地,频率通道屏蔽包括步骤S251-S253;
S251、确定各种鸟种对应的鸟鸣频率上限以及鸟鸣频率下限。
可选地,可以通过根据预训练鸟声数据集或者目标鸟声数据集中各种鸟种的鸟鸣声发声频率,测定鸟鸣频率上限f鸟max以及鸟鸣频率下限f鸟min,或者通过查询资料确定各种鸟种对应的鸟鸣频率上限f鸟max以及鸟鸣频率下限f鸟min,具体不作限定。
S252、计算鸟鸣频率上限与预设屏蔽宽度的第一差值并确定第一阈值;第一阈值大于等于鸟鸣频率下限且小于等于第一差值。
S253、计算第一阈值与预设屏蔽宽度的和,得到第二阈值。
S254、根据第一阈值以及第二阈值确定屏蔽频率通道范围,并根据屏蔽频率通道范围对第一梅尔谱进行频率通道屏蔽。
具体地,屏蔽频率通道范围为[m1,m1+f*),其中m1∈[f鸟min,f鸟max-f*],其中f*为可调的预设屏蔽宽度,例如可以设置对应鸟种发声频带宽度的N%(N∈[0,20)),第一阈值为m1,第二阈值为m1+f*,然后根据屏蔽频率通道范围设置频率屏蔽通道数NF(例如2),对第一梅尔谱进行频率通道屏蔽,得到频率通道屏蔽结果。
具体地,时间通道屏蔽包括步骤S261-S263:
S261、确定第二分帧处理中分帧的总帧数,计算总帧数与预设时间帧屏蔽宽度的第二差值并确定第三阈值;第三阈值大于等于1且小于等于第二差值。
可选地,第二分帧处理中分帧的总帧数为对第一切片数据进行分帧、叠帧后的总帧数。
S262、计算第三阈值与预设时间帧屏蔽宽度的和,得到第四阈值。
S263、根据第三阈值以及第四阈值确定屏蔽时间通道范围,并根据屏蔽时间通道范围对频率通道屏蔽结果进行时间通道屏蔽,得到预训练音频数据集、预训练鸟声数据集以及目标鸟声数据集对应的第一训练数据。
具体地,屏蔽时间范围通道为[λ2,λ2+T*),其中λ2∈[1,总帧数-T*],T*是可调的预设时间帧屏蔽宽度,例如可以设置对应鸟种发声频带宽度的N%(N∈[0,20)),λ2为第三阈值,λ2+T*为第四阈值,然后根据屏蔽时间范围通道设置屏蔽时间通道数NT,(例如2),对频率通道屏蔽结果进行时间通道屏蔽,在时间通道λ2∈[1,nf]范围内置零NT数量的通道。需要说明的是,本发明实施例中,屏蔽时间通道数NT与频率屏蔽通道数NF相同;最终得到的预训练音频数据集、预训练鸟声数据集以及目标鸟声数据集对应的第一训练数据为经过频率通道屏蔽以及时间通道屏蔽处理的梅尔谱。
S300、对负样本数据集进行第二处理,得到第二训练数据。
具体地,步骤S300包括步骤S310-S320:
S310、对负样本数据集进行第二切片处理,得到第二切片数据。
S320、对第二切片数据进行第三分帧处理并根据第三分帧处理结果确定第三幅度谱,根据第三幅度谱以及梅尔滤波器组确定第二梅尔谱并作为第二训练数据。
同样地,第二切片处理原理与第一切片处理原理相同,第三分帧处理类似于第一分帧处理,对第二切片数据进行分帧、叠帧得到第三分帧处理结果;根据第三分帧处理结果确定第三幅度谱似于根据第一分帧处理结果确定第一幅度谱,对分帧处理结果进行加窗处理、傅里叶变换运算处理、确定傅里叶变换运算处理结果的模值,得到帧叠数据(第三分帧处理结果)中每一帧数据的第三幅度谱。同样地,根据第三幅度谱以及梅尔滤波器组确定第二梅尔谱与根据第二幅度谱以及梅尔滤波器组确定第一梅尔谱的方法相同,不再赘述。
S400、根据第一训练数据以及第二训练数据,对鸟鸣声识别模型进行训练,得到目标鸟鸣声识别模型。
如图2所示,本发明实施例中,鸟鸣声识别模型包括特征提取主干模块(CNN**_Blocks)以及鸟声识别检测块(ASC_SED_Block),鸟声识别检测块包括第一支路和第二支路。
可选地,其中CNN**_Blocks由6个特征提取块(CNN*_Block)组成,而CNN*_Block由卷积层(CNN层),批标准化层(BN层),池化层(pooling层)组成,每一个CNN*_Block的卷积核大小都设置为3×3,第一个到第六个CNN*_Block的卷积层内的卷积核个数分别设置为64、128、256、512、1024、2048,每一个CNN*_Block的Pooling层设置为最大池化模式,池化尺寸为2×2。
具体地,步骤S400包括步骤S410-S450:
S410、根据第二训练数据和目标鸟声数据集对应的第一训练数据构成第三训练数据。
本发明实施例中,将第二训练数据作为一个负样本类别纳入目标鸟声数据集(本地目标鸟声数据集)对应的第一训练数据中,构成第三训练数据。可选地,第三训练数据可以根据需要进行分配,包括但不限于按比例8:2划分训练集和验证集。其中,第三训练数据用于鸟鸣声识别模型ASC_SED_MODEL的微调(fine_tune)。
S420、将预训练音频数据集以及预训练鸟声数据集对应的第一训练数据以及第三训练数据输入至特征提取主干模块进行特征提取处理,将特征提取处理得到的嵌入特征在时间维度上进行聚合,得到子片段级的预测结果;特征提取主干模块基于分级迁移学习训练得到。
本发明实施例中,将预训练音频数据集以及预训练鸟声数据集对应的第一训练数据按比例8:2划分训练集和验证集,用于训练采用分级迁移学习策略的分级迁移学习的预模型从而得到特征提取主干模块。
具体地,构建分级迁移学习预模型CNN_MODEL,CNN_MODEL的结构如图3所示,由特征CNN_Blocks、CNN*_Blocks和全连接层组成,通过在CNN_MODEL上采取分级迁移学习的策略去获得经迁移学习后的特征提取主干模块CNN**_Blocks,具体地迁移学习策略训练过程如下:
1)对于CNN_Blocks,按预训练音频数据集对应的第一训练数据的类别设置分类全连接层FC(第一全连接层),输入预训练音频数据集对应的第一训练数据得到第一嵌入特征(Embedding1),再经过训练所设置的小批次样本数为32,使用初始学习率为1x10-3的Adam优化器进行优化,对模型训练50个epoch(时期)后保存模型,可以得到第一次训练完成的特征提取主干模块CNN**_Blocks。
2)对于CNN*_Blocks,把CNN_Blocks的权重复制到CNN*_Blocks,按预训练鸟声数据集对应的第一训练数据的类别添加新的分类全连接层FC(第二全连接层),输入预训练鸟声数据集对应的第一训练数据得到第二嵌入特征(Embedding2),训练所设置的小批次样本数为32,使用初始学习率为1x10-4的Adam优化器进行优化,通过第三训练数据用微调(fine-tune)的训练方式对模型训练50个epoch后保存模型,可得到新的特征提取主干模块CNN**_Blocks,作为鸟鸣声识别模型中的特征提取主干模块。
具体地,将预训练音频数据集以及预训练鸟声数据集对应的第一训练数据以及第三训练数据输入至鸟鸣声识别模型中的特征提取主干模块进行特征提取处理,将特征提取处理得到的嵌入特征(Embedding)在时间维度上进行聚合,得到子片段级的预测结果(batch_size,2048,子片段),将子片段级的预测结果作为鸟声识别检测块ASC_SED_Block的输入。
S430、将子片段级的预测结果输入至第一支路,进行第一卷积处理,得到各个子片段的鸟声的片段级预测结果。
具体地,对子片段级的预测结果进行第一卷积处理包括:将子片段级的预测结果经过若干个(目标鸟声数据集类别个数)大小为1x1的卷积核进行卷积操作后,再经过sigmoid激活函数进行处理(式12),得到各个子片段的鸟声的片段级预测结果segmentwise_output。
Figure BDA0003260848620000131
其中,x1是输入到sigmoid函数σ()的张量,即S430的片段级预测结果。
S440、将子片段级的预测结果输入至第二支路,进行第二卷积处理并输入用于分类的注意力块,将注意力块的输出与片段级预测结果相乘并基于子片段的时间进行聚合,得到帧级别预测结果。
具体地,第二卷积处理包括经过若干个(目标鸟声数据集类别个数)大小为1x1的卷积核后,再经过tanh激活函数和softmax函数(式13-14)进行处理,而用于分类的注意力块公式如(15)所示:
Figure BDA0003260848620000141
Figure BDA0003260848620000142
att_norm=softmax(tanh(x1)) (15)
其中,x1是子片段级的预测结果,P(i)表示第i类别的概率,Vi为类别索引i对应的tanh(x1),K为鸟的总类别数。需要说明的是,通过Softmax函数可以将多分类的输出数值转化为相对概率,得出的最后注意力块的输出(att_norm)与片段级预测结果相乘,得到各子片段的分类预测结果,然后在子片段的时间轴上进行聚合,得到总片段的分类预测结果clipwise_output,即帧级别预测结果。
S450、根据片段级预测结果或者帧级别预测结果计算损失函数值,并根据损失函数值通过微调确定目标鸟鸣声识别模型。
可选地,可以根据片段级预测结果或者帧级别预测结果与真实结果(真实标签),通过二元交叉熵(BCE)损失函数函数计算损失函数值,并根据损失函数值通过初始学习率为1x10-5的Adam优化器进行微调(Fine-tune),训练预设次数(例如10)的epoch或者在损失函数值小于等于损失阈值时结束训练,确定目标鸟鸣声识别模型。
具体地,以片段级预测结果为例,利用片段级预测结果和片段级真实标签经过二元交叉熵(BCE)损失函数函数计算损失函数值:
Figure BDA0003260848620000143
其中,Loss为损失函数值,
Figure BDA0003260848620000144
为预测值(片段级预测结果),yi为片段级真实标签,N2为鸟的类别数。
本发明实施例还提供一种鸟鸣声识别方法,包括:
将待检测鸟鸣声数据输入上述目标鸟鸣声识别模型,得到识别结果。
其中,识别结果包括片段级识别结果或者帧级别识别结果,片段级识别结果为弱标注输出,包括待检测鸟鸣声数据中的鸟鸣声类别;帧级别识别结果为强标注输出,包括待检测鸟鸣声数据中的鸟鸣声类别以及鸟鸣声出现的起始时刻以及结束时刻。如表2所示,表2为目标鸟鸣声识别模型的识别结果,表3为长录音sedtest1.wav检测结果,其中表2中从左到右为精确率,召回率,F1分数以及测试音频数量;表3中从左到右为音频文件名,鸟类别名,开始时间(s),结束时间(s),最大置信度,平均置信度。
表2
Figure BDA0003260848620000151
表3
Figure BDA0003260848620000152
Figure BDA0003260848620000161
本发明实施例通过的鸟鸣声识别模型训练方法得到目标鸟鸣声识别模型:
1、针对野外鸟声采集的录音数据,本发明的音节拼接重构的数据增强方式(得到切片数据的过程)有效解决了鸟鸣声识别模型所需要的训练数据(单个鸟类的短录音)和在监测应用中的录音数据(通常有多个物种同时鸣叫的长录音)之间存在严重不匹配的情况,达到提纯模型所需的训练数据的效果。
2、对数据进行谱图动态掩蔽(频率通道屏蔽、时间通道屏蔽)可以有效提高鸟鸣声识别模型检测和识别鸟声的鲁棒性,使得目标鸟鸣声识别模型可以更好地适应在一定复杂声境下对鸟声进行预测与识别。
3、经过多级迁移学习所得到的特征提取主干模块具有强大的特征提取能力,通过特征提取主干模块挖掘各种鸟类语谱图的嵌入特征(Embedding)具有较强的区分性,测试识别效果如表2。
4、本发明的鸟声识别检测块能够提供片段级别与帧级别的预测,可以为长音频的录音数据在时间轴打上鸟类标签,测试检测效果如表3。
本发明实施例还提供了一种鸟鸣声识别装置,该装置包括处理器以及存储器;
存储器用于存储程序;
处理器用于执行程序实现本发明实施例的鸟鸣声识别模型训练方法和鸟鸣声识别方法。本发明实施例的装置可以实现鸟鸣声识别模型训练和鸟鸣声识别的功能。该装置可以为包括手机、平板电脑、电脑、车载电脑等任意智能终端。
上述方法实施例中的内容均适用于本装置实施例中,本装置实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
本发明实施例还提供一种计算机可读存储介质,该计算机可读存储介质存储有程序,该程序被处理器执行完成如前述发明实施例的鸟鸣声识别模型训练方法和鸟鸣声识别方法。
本发明实施例还提供一种包括指令的计算机程序产品,当其在计算机上运行时,使得计算机执行前述发明实施例的鸟鸣声识别模型训练方法和鸟鸣声识别方法。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种鸟鸣声识别模型训练方法,其特征在于,包括:
获取数据集合;所述数据集合包括预训练音频数据集、预训练鸟声数据集、目标鸟声数据集以及负样本数据集;
对所述预训练音频数据集、所述预训练鸟声数据集、所述目标鸟声数据集分别进行第一处理,得到所述预训练音频数据集、所述预训练鸟声数据集以及所述目标鸟声数据集对应的第一训练数据;所述第一处理包括:对所述预训练音频数据集、所述预训练鸟声数据集、所述目标鸟声数据集分别进行第一分帧处理并根据第一分帧处理结果确定第一幅度谱,根据所述第一幅度谱确定由有效帧构成的第一切片数据,根据所述第一切片数据进行第二分帧处理并根据第二分帧处理结果确定第二幅度谱,根据所述第二幅度谱以及梅尔滤波器组确定第一梅尔谱,对所述第一梅尔谱进行频率时间屏蔽处理;
对所述负样本数据集进行第二处理,得到第二训练数据;
根据所述第一训练数据以及所述第二训练数据,对鸟鸣声识别模型进行训练,得到目标鸟鸣声识别模型。
2.根据权利要求1所述鸟鸣声识别模型训练方法,其特征在于:所述对所述预训练音频数据集、所述预训练鸟声数据集、所述目标鸟声数据集分别进行第一分帧处理,包括:
对所述预训练音频数据集、所述预训练鸟声数据集、所述目标鸟声数据集根据预设帧长和预设帧移分别进行分帧,分别得到对应的分帧数据;
分别从分帧数据中确定第一帧以及确定第二帧;第二帧为第一帧的上一帧;
将第一帧与第二帧进行帧叠后将第二帧作为新的第一帧,返回所述确定第二帧的步骤,直至第一帧为分帧数据的最后一帧,得到分帧数据对应的帧叠数据;所述帧叠数据为所述第一分帧处理结果。
3.根据权利要求2所述鸟鸣声识别模型训练方法,其特征在于:所述根据第一分帧处理结果确定第一幅度谱,包括:
对所述帧叠数据进行第一加窗处理,得到第一加窗处理结果;
对所述第一加窗处理结果进行傅里叶变换运算处理;
确定傅里叶变换运算处理结果的模值,得到所述帧叠数据中每一帧数据的第一幅度谱。
4.根据权利要求1所述鸟鸣声识别模型训练方法,其特征在于:所述根据所述第一幅度谱确定由有效帧构成的第一切片数据,包括:
计算所述第一幅度谱每个频率点的分贝值,得到每个频率点的幅度分贝值;
根据所述幅度分贝值进行平均值计算,确定每一帧数据的平均分贝值;每一帧数据包括若干个频率点;
将所述平均分贝值大于等于分贝阈值对应的数据作为有效帧;
将所述有效帧按照时间先后顺序进行拼接得到拼接数据;
根据预设切片长度对所述拼接数据进行第一切片处理,得到第一切片数据。
5.根据权利要求1所述鸟鸣声识别模型训练方法,其特征在于:所述梅尔滤波器组包括至少一个梅尔滤波器,所述根据所述第二幅度谱以及梅尔滤波器组确定第一梅尔谱,包括:
计算所述第二幅度谱的平方,得到频率谱;
根据所述预训练鸟声数据集以及所述目标鸟声数据集中各种鸟种的鸟鸣声发声频率,确定实际频率上限和实际频率下限;
根据梅尔频率与实际频率的转化方程,计算所述实际频率上限对应的梅尔滤波器组的带通频率上限以及计算所述实际频率下限对应的梅尔滤波器组的带通频率下限;
根据所述梅尔滤波器对所述频率谱进行处理,得到第一梅尔谱;所述梅尔滤波器的中心频率根据所述带通频率上限以及所述带通频率下限确定。
6.根据权利要求1所述鸟鸣声识别模型训练方法,其特征在于:所述对所述第一梅尔谱进行频率时间屏蔽处理,包括:
确定各种鸟种对应的鸟鸣频率上限以及鸟鸣频率下限;
计算所述鸟鸣频率上限与预设屏蔽宽度的第一差值并确定第一阈值;所述第一阈值大于等于所述鸟鸣频率下限且小于等于所述第一差值;
计算所述第一阈值与所述预设屏蔽宽度的和,得到第二阈值;
根据所述第一阈值以及所述第二阈值确定屏蔽频率通道范围,并根据所述屏蔽频率通道范围对所述第一梅尔谱进行频率通道屏蔽;
确定所述第二分帧处理中分帧的总帧数,计算所述总帧数与预设时间帧屏蔽宽度的第二差值并确定第三阈值;所述第三阈值大于等于1且小于等于所述第二差值;
计算所述第三阈值与所述预设时间帧屏蔽宽度的和,得到第四阈值;
根据所述第三阈值以及所述第四阈值确定屏蔽时间通道范围,并根据所述屏蔽时间通道范围以及第二预设通道数对频率通道屏蔽结果进行时间通道屏蔽,得到所述预训练音频数据集、所述预训练鸟声数据集以及所述目标鸟声数据集对应的第一训练数据。
7.根据权利要求1所述鸟鸣声识别模型训练方法,其特征在于:所述对所述负样本数据集进行第二处理,得到第二训练数据,包括:
对所述负样本数据集进行第二切片处理,得到第二切片数据;
对所述第二切片数据进行第三分帧处理并根据第三分帧处理结果确定第三幅度谱,根据所述第三幅度谱以及梅尔滤波器组确定第二梅尔谱并作为所述第二训练数据。
8.根据权利要求1-7任一项所述鸟鸣声识别模型训练方法,其特征在于:所述鸟鸣声识别模型包括特征提取主干模块以及鸟声识别检测块,所述鸟声识别检测块包括第一支路和第二支路;所述根据所述第一训练数据以及所述第二训练数据,对鸟鸣声识别模型进行训练,得到目标鸟鸣声识别模型,包括:
根据所述第二训练数据和所述目标鸟声数据集对应的第一训练数据构成第三训练数据;
将所述预训练音频数据集以及所述预训练鸟声数据集对应的第一训练数据以及所述第三训练数据输入至特征提取主干模块进行特征提取处理,将特征提取处理得到的嵌入特征在时间维度上进行聚合,得到子片段级的预测结果;所述特征提取主干模块基于分级迁移学习训练得到;
将所述子片段级的预测结果输入至第一支路,进行第一卷积处理,得到各个子片段的鸟声的片段级预测结果;
将所述子片段级的预测结果输入至第二支路,进行第二卷积处理并输入用于分类的注意力块,将所述注意力块的输出与所述片段级预测结果相乘并基于子片段的时间进行聚合,得到帧级别预测结果;
根据所述片段级预测结果或者所述帧级别预测结果计算损失函数值,并根据所述损失函数值通过微调确定目标鸟鸣声识别模型。
9.一种鸟鸣声识别方法,其特征在于,包括:
将待检测鸟鸣声数据输入如权利要求1-8任一项所述目标鸟鸣声识别模型,得到识别结果;所述识别结果包括片段级识别结果或者帧级别识别结果,所述片段级识别结果包括待检测鸟鸣声数据中的鸟鸣声类别,所述帧级别识别结果包括待检测鸟鸣声数据中的鸟鸣声类别以及鸟鸣声出现的起始时刻以及结束时刻。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有程序,所述程序被处理器执行时实现如权利要求1-9中任一项所述方法。
CN202111072346.9A 2021-09-14 2021-09-14 一种鸟鸣声识别模型训练方法、识别方法及存储介质 Pending CN113936667A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111072346.9A CN113936667A (zh) 2021-09-14 2021-09-14 一种鸟鸣声识别模型训练方法、识别方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111072346.9A CN113936667A (zh) 2021-09-14 2021-09-14 一种鸟鸣声识别模型训练方法、识别方法及存储介质

Publications (1)

Publication Number Publication Date
CN113936667A true CN113936667A (zh) 2022-01-14

Family

ID=79275708

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111072346.9A Pending CN113936667A (zh) 2021-09-14 2021-09-14 一种鸟鸣声识别模型训练方法、识别方法及存储介质

Country Status (1)

Country Link
CN (1) CN113936667A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863938A (zh) * 2022-05-24 2022-08-05 西南石油大学 一种基于注意力残差和特征融合的鸟语识别方法和系统
CN114974267A (zh) * 2022-04-15 2022-08-30 昆山杜克大学 鸟语分类模型训练方法及鸟语识别方法
WO2024140172A1 (zh) * 2022-12-29 2024-07-04 北京天玛智控科技股份有限公司 声音识别模型的训练方法、装置、电子设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114974267A (zh) * 2022-04-15 2022-08-30 昆山杜克大学 鸟语分类模型训练方法及鸟语识别方法
CN114863938A (zh) * 2022-05-24 2022-08-05 西南石油大学 一种基于注意力残差和特征融合的鸟语识别方法和系统
WO2024140172A1 (zh) * 2022-12-29 2024-07-04 北京天玛智控科技股份有限公司 声音识别模型的训练方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
Priyadarshani et al. Automated birdsong recognition in complex acoustic environments: a review
Stöter et al. Countnet: Estimating the number of concurrent speakers using supervised learning
CN113936667A (zh) 一种鸟鸣声识别模型训练方法、识别方法及存储介质
CN110310666B (zh) 一种基于se卷积网络的乐器识别方法及系统
CN111754988A (zh) 基于注意力机制和双路径深度残差网络的声场景分类方法
CN117095694B (zh) 一种基于标签层级结构属性关系的鸟类鸣声识别方法
CN102486920A (zh) 音频事件检测方法和装置
CN111724770B (zh) 一种基于深度卷积生成对抗网络的音频关键词识别方法
Ranjard et al. Unsupervised bird song syllable classification using evolving neural networks
CN110120230B (zh) 一种声学事件检测方法及装置
Dufour et al. Clusterized mel filter cepstral coefficients and support vector machines for bird song identification
US10548534B2 (en) System and method for anhedonia measurement using acoustic and contextual cues
Albornoz et al. Automatic classification of Furnariidae species from the Paranaense Littoral region using speech-related features and machine learning
CN111932056A (zh) 客服质量评分方法、装置、计算机设备和存储介质
CN115048984A (zh) 一种基于深度学习的母猪发情声识别方法
Xiao et al. AMResNet: An automatic recognition model of bird sounds in real environment
CN109300470A (zh) 混音分离方法和混音分离装置
Ruan et al. Resnet-based bio-acoustics presence detection technology of hainan gibbon calls
CN117727308B (zh) 基于深度迁移学习的混合鸟鸣识别方法
CN110808067A (zh) 基于二值多频带能量分布的低信噪比声音事件检测方法
Chen et al. ACGAN-based data augmentation integrated with long-term scalogram for acoustic scene classification
CN114372513A (zh) 一种鸟声识别模型的训练方法、分类方法、设备及介质
Bai et al. CIAIC-BAD system for DCASE2018 challenge task 3
CN113782051B (zh) 广播效果分类方法及系统、电子设备和存储介质
CN115019760A (zh) 一种针对音频的数据扩增方法及实时声音事件检测系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination