CN118098245A - 声纹识别模型的训练方法、声纹识别方法及装置 - Google Patents
声纹识别模型的训练方法、声纹识别方法及装置 Download PDFInfo
- Publication number
- CN118098245A CN118098245A CN202410063025.XA CN202410063025A CN118098245A CN 118098245 A CN118098245 A CN 118098245A CN 202410063025 A CN202410063025 A CN 202410063025A CN 118098245 A CN118098245 A CN 118098245A
- Authority
- CN
- China
- Prior art keywords
- feature
- voice
- voiceprint recognition
- lpc
- recognition model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000012549 training Methods 0.000 title claims abstract description 48
- 230000004927 fusion Effects 0.000 claims abstract description 61
- 238000001914 filtration Methods 0.000 claims abstract description 46
- 238000000605 extraction Methods 0.000 claims abstract description 37
- 230000003595 spectral effect Effects 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000012795 verification Methods 0.000 claims description 49
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 10
- 238000001228 spectrum Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 7
- 238000009432 framing Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 230000036039 immunity Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/20—Pattern transformations or operations aimed at increasing system robustness, e.g. against channel noise or different working conditions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明公开了一种声纹识别模型的训练方法、声纹识别方法及装置,该训练方法包括:收集带噪语音和干净语音并分别进行数据增强,得到第一语音数据;采用改进的谱减法滤波算法对第一语音数据进行滤波处理,得到第二语音数据;采用改进的LPC特征提取算法对第二语音数据提取声学特征,得到LPC声学特征;构建基于改进的Res2Net模型的声纹识别模型,声纹识别模型包括第一Res2Net模块、第二Res2Net模块、第三Res2Net模块、第四Res2Net模块、第一融合层、第二融合层、第三融合层和全连接层,采用LPC声学特征对声纹识别模型进行训练,得到经训练的声纹识别模型。该训练方法可以提升声纹识别模型的抗噪声能力,提升各种室内外场景下的声纹识别准确率。
Description
技术领域
本发明涉及声纹识别领域,具体涉及一种声纹识别模型的训练方法、声纹识别方法及装置。
背景技术
每个人的声音都蕴涵着特有的生物特征,声纹识别是指利用说话人的声音来识别说话人的一种技术手段。声纹识别同指纹识别等技术一样具有高度的安全可靠性,可以应用在所有需要做身份识别的场合。如在刑侦、银行、证券、保险等领域。与传统的身份识别技术相比,声纹识别的优势在于,声纹提取过程简单,成本低,且具有唯一性,不易伪造和假冒。近几年,随着深度学习技术的发展,声纹识别技术也得到了较大的提升,已经成功应用在很多场景。但是目前深度学习方法训练模型存在一定的局限性,声纹识别模型的抗噪声能力比较差,在室外或者噪声比较大的场景下,声纹识别准确率会受到比较大影响,往往需要用户在比较安静的环境下做声纹比对。在有一些应用场合,由于模型抗噪声能力的弱点,给声纹识别系统的推广应用带来了一定的阻碍。
发明内容
针对上述提到的技术问题。本申请的实施例的目的在于提出了一种声纹识别模型的训练方法、声纹识别方法及装置,来解决以上背景技术部分提到的技术问题。
第一方面,本发明提供了一种声纹识别模型的训练方法,包括以下步骤:
收集带噪语音和干净语音并分别进行数据增强,得到第一语音数据;
采用改进的谱减法滤波算法对第一语音数据进行滤波处理,得到第二语音数据;
采用改进的LPC特征提取算法对第二语音数据提取声学特征,得到LPC声学特征;
构建基于改进的Res2Net模型的声纹识别模型,声纹识别模型包括第一Res2Net模块、第二Res2Net模块、第三Res2Net模块、第四Res2Net模块、第一融合层、第二融合层、第三融合层和全连接层,采用LPC声学特征对声纹识别模型进行训练,得到经训练的声纹识别模型,在训练过程中,将LPC声学特征输入第一Res2Net模块,得到第一特征,第一特征输入第二Res2Net模块,得到第二特征,第一特征和第二特征输入第一融合层,得到第三特征,第二特征输入第三Res2Net模块,得到第四特征,第三特征和第四特征输入第二融合层,得到第五特征,第四特征输入第四Res2Net模块,得到第六特征,第五特征和第六特征输入第三融合层,得到第七特征,第七特征输入全连接层,得到声纹特征。
在具体的实施例中,第一融合层、第二融合层、第三融合层均采用融合模块,融合模块包括依次连接的加法器、卷积核大小为1×1的卷积层、第一平均池化层、Relu激活函数层和第二平均池化层。
在具体的实施例中,采用改进的谱减法滤波算法对第一语音数据进行滤波处理,得到第二语音数据,具体包括:
建立干净语音、噪声和带噪语音之间的关系,并转换至频域,得到如下表达式:
其中,Y(w)为频域下的带噪信号,X(w)为频域下的干净信号,E(w)为频域下的噪声信号,γ和α为超参数,γ的取值范围为[1,4],α的取值范围为[0.5,1.0];
则干净信号的估计值如下式所示:
其中,为干净信号的估计值,|Y(w)|为带噪信号的幅度谱,/>为噪声谱,为信号相位。
在具体的实施例中,改进的LPC特征提取算法包括预加重、分帧、加窗、自相关分析、LPC分析和倒谱系数转换,其中对LPC分析过程进行改进,改进后的LPC分析过程如下:
当m=0时,E0=r(0),a0=1;
对于第m次的递归,存在:
对于j=1到m-1,存在:
其中,r为自相关系数,Em为误差,km为反馈系数,a为LPC系数,p表示阶数,λ为滤波系数,取值范围为(0,1)。
在具体的实施例中,干净语音的数据增强方式包括:变速、加混响、加噪声和加音乐声,带噪语音的数据增强方式包括:变速、加混响和加音乐声。
第二方面,本发明提供了一种声纹识别模型的训练装置,包括:
数据增强模块,被配置为收集带噪语音和干净语音并分别进行数据增强,得到第一语音数据;
滤波处理模块,被配置为采用改进的谱减法滤波算法对第一语音数据进行滤波处理,得到第二语音数据;
声学特征提取模块,被配置为采用改进的LPC特征提取算法对第二语音数据提取声学特征,得到LPC声学特征;
模型构造训练模块,被配置为构建基于改进的Res2Net模型的声纹识别模型,声纹识别模型包括第一Res2Net模块、第二Res2Net模块、第三Res2Net模块、第四Res2Net模块、第一融合层、第二融合层、第三融合层和全连接层,采用LPC声学特征对声纹识别模型进行训练,得到经训练的声纹识别模型,在训练过程中,将LPC声学特征输入第一Res2Net模块,得到第一特征,第一特征输入第二Res2Net模块,得到第二特征,第一特征和第二特征输入第一融合层,得到第三特征,第二特征输入第三Res2Net模块,得到第四特征,第三特征和第四特征输入第二融合层,得到第五特征,第四特征输入第四Res2Net模块,得到第六特征,第五特征和第六特征输入第三融合层,得到第七特征,第七特征输入全连接层,得到声纹特征。
第三方面,本发明提供了一种声纹识别方法,采用如第一方面中任一实现方式训练得到的经训练的声纹识别模型,包括以下步骤:
获取注册语音,采用改进的谱减法滤波算法对注册语音进行滤波处理,得到注册语音对应的第二语音数据,并采用改进的LPC特征提取算法对注册语音对应的第二语音数据进行声学特征提取,得到注册语音对应的LPC声学特征,将注册语音对应的LPC声学特征输入经训练的声纹识别模型,得到第一特征向量;
获取验证语音,采用改进的谱减法滤波算法对验证语音进行滤波处理,得到验证语音对应的第二语音数据,并采用改进的LPC特征提取算法对得到验证语音对应的第二语音数据进行声学特征提取,得到验证语音对应的LPC声学特征,将验证语音对应的LPC声学特征输入经训练的声纹识别模型,得到第二特征向量;
将第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据比对结果判断验证语音和注册语音是否属于同一人。
第四方面,本发明提供了一种声纹识别装置,采用如第一方面中任一实现方式训练得到的经训练的声纹识别模型,包括:
注册模块,被配置为获取注册语音,采用改进的谱减法滤波算法对注册语音进行滤波处理,得到注册语音对应的第二语音数据,并采用改进的LPC特征提取算法对注册语音对应的第二语音数据进行声学特征提取,得到注册语音对应的LPC声学特征,将注册语音对应的LPC声学特征输入经训练的声纹识别模型,得到第一特征向量;
验证模块,被配置为获取验证语音,采用改进的谱减法滤波算法对验证语音进行滤波处理,得到验证语音对应的第二语音数据,并采用改进的LPC特征提取算法对得到验证语音对应的第二语音数据进行声学特征提取,得到验证语音对应的LPC声学特征,将验证语音对应的LPC声学特征输入经训练的声纹识别模型,得到第二特征向量;
比对模块,被配置为将第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据比对结果判断验证语音和注册语音是否属于同一人。
第五方面,本发明提供了一种电子设备,包括一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第六方面,本发明提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
相比于现有技术,本发明具有以下有益效果:
(1)本发明提出的声纹识别模型的训练方法中采用改进的谱减法滤波算法,可以有效的过滤语音的噪声信号,最大程度保留说话人声学特征。
(2)本发明提出的声纹识别模型的训练方法中采用经过改进的LPC特征提取算法提取到的LPC声学特征训练声纹识别模型,可以提升声纹识别模型的抗噪声能力。
(3)本发明提出的声纹识别方法在错误接受率上可以由原来的70%提升至80%,提升在各种室内外场景下的声纹识别准确率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的一个实施例可以应用于其中的示例性装置架构图;
图2为本申请的实施例的声纹识别模型的训练方法的流程示意图;
图3为本申请的实施例的声纹识别模型的训练方法的改进的LPC特征提取算法的流程示意图;
图4为本申请的实施例的声纹识别模型的训练方法的声纹识别模型的结构示意图;
图5为本申请的实施例的声纹识别模型的训练方法的融合模块的结构示意图;
图6为本申请的实施例的声纹识别模型的训练装置的示意图;
图7是适于用来实现本申请实施例的电子设备的计算机装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了可以应用本申请实施例的声纹识别模型的训练方法或声纹识别模型的训练装置的示例性装置架构100。
如图1所示,装置架构100可以包括终端设备一101、终端设备二102、终端设备三103,网络104和服务器105。网络104用以在终端设备一101、终端设备二102、终端设备三103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备一101、终端设备二102、终端设备三103通过网络104与服务器105交互,以接收或发送消息等。终端设备一101、终端设备二102、终端设备三103上可以安装有各种应用,例如数据处理类应用、文件处理类应用等。
终端设备一101、终端设备二102、终端设备三103可以是硬件,也可以是软件。当终端设备一101、终端设备二102、终端设备三103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备一101、终端设备二102、终端设备三103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备一101、终端设备二102、终端设备三103上传的文件或数据进行处理的后台数据处理服务器。后台数据处理服务器可以对获取的文件或数据进行处理,生成处理结果。
需要说明的是,本申请实施例所提供的声纹识别模型的训练方法可以由服务器105执行,也可以由终端设备一101、终端设备二102、终端设备三103执行,相应地,声纹识别模型的训练装置可以设置于服务器105中,也可以设置于终端设备一101、终端设备二102、终端设备三103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在所处理的数据不需要从远程获取的情况下,上述装置架构可以不包括网络,而只需服务器或终端设备。
图2示出了本申请的实施例提供的一种声纹识别模型的训练方法,包括以下步骤:
S1,收集带噪语音和干净语音并分别进行数据增强,得到第一语音数据。
在具体的实施例中,干净语音的数据增强方式包括:变速、加混响、加噪声和加音乐声,带噪语音的数据增强方式包括:变速、加混响和加音乐声。
具体的,采用以下方式收集带噪语音:
分别在办公室、餐厅、公交站、地铁4个场景中采集带噪语音,每个人录制一条语音,要求有效时长30s以上,每个场景各收集2000条语音数据,对每条语音数据做标注,标注好说话人id。
在安静的室内环境中采集干净语音,每个人录制一条语音,要求有效时长30s以上,收集2000条语音数据,标注好说话人id。
对安静的室内环境中采集的干净语音做数据增强,通过变速、加混响、加噪声、加音乐声4种方法,将原有1条语音数据扩充成5条,具体实现方式如下:
变速:将说话人的语速增加3倍速;
加混响:通过与真实RIRs(混响冲激响应)进行卷积来人为地增加混响效果;
加噪声:从MUSAN噪声数据集中随机选择的噪声以0-15dB的信噪比添加到原始录音中;
加音乐声:从MUSAN噪声数据集中随机选择一个音乐文件,以5-15dB的信噪比添加到原始信号中。
其中,附加噪声的持续时间与原始的语音数据的持续时间相匹配。因此可得到干净语音对应的增强后的语音数据。
对采集的带噪语音做数据增强,通过变速、加混响、加音乐声3种方法,将原有1条语音数据扩充成4条,具体实现方式同上。因此可得到带噪语音对应的增强后的语音数据。
将原始的带噪语音和干净语音以及其对应的增强后的语音数据合并为第一语音数据。
S2,采用改进的谱减法滤波算法对第一语音数据进行滤波处理,得到第二语音数据。
在具体的实施例中,步骤S2具体包括:
建立干净语音、噪声和带噪语音之间的关系,并转换至频域,得到如下表达式:
其中,Y(w)为频域下的带噪信号,X(w)为频域下的干净信号,E(w)为频域下的噪声信号,γ和α为超参数,γ的取值范围为[1,4],α的取值范围为[0.5,1.0];
则干净信号的估计值如下式所示:
其中,为干净信号的估计值,|Y(w)|为带噪信号的幅度谱,/>为噪声谱,为信号相位。
具体的,使用改进的谱减法滤波算法对所有的第一语音数据做滤波处理,该改进的谱减法滤波算法可以有效的过滤第一语音数据的噪声信号,最大程度保留说话人的声学特征。
S3,采用改进的LPC特征提取算法对第二语音数据提取声学特征,得到LPC声学特征。
在具体的实施例中,改进的LPC特征提取算法包括预加重、分帧、加窗、自相关分析、LPC分析和倒谱系数转换,其中对LPC分析过程进行改进,改进后的LPC分析过程如下:
当m=0时,E0=r(0),a0=1;
对于第m次的递归,存在:
对于j=1到m-1,存在:
其中,r为自相关系数,Em为误差,km为反馈系数,a为LPC系数,p表示阶数,λ为滤波系数,取值范围为(0,1)。
具体的,参考图3,使用改进的LPC特征提取算法对所有的第二语音数据提取声学特征,改进的LPC特征提取算法的流程如下:
1.预加重(Pre-emphasis)
预加重是信号的预处理,用于补偿高频分量损失,提升高频分量。公式如下:
x[n]=x[n]-βx[n-1];
x[n]为第二语音数据中的当前时刻的输入信号,x[n-1]为第二语音数据中的上一时刻的输入信号,β为预加重系数,一般取值为0.97。所有的第二语音数据经过预加重后,得到预加重后的语音数据。
2.分帧(Frame)
现实中大多数信号都是非平稳的,但大多数短时间内可以近似看作是平稳的,可以用短时傅里叶变换表现非平稳信号频域特征。一般语音中采用10ms~30ms左右,乐音中可以更长一些,如64ms~256ms。分帧涉及到前后重叠(overlap),一般情况下以滑动帧长的1/4或1/2(前后重叠3/4或1/2)进行,即:
或者
其中,Lslide为分帧长度,fftlength为滑动帧长。
将预加重后的语音数据进行分帧后,得到分帧后的语音数据。
3.加窗(Window)
加窗的目的是减少频谱泄露,降低泄漏频率干扰,提升频谱效果。默认不处理,即加矩形窗(Rect)。干扰泄漏较严重,一般情况下加Hann窗,针对大多数信号都有不错的效果。公式如下:
其中,N表示阶数。
将分帧后的语音数据进行加窗后,得到加窗后的语音数据。
4.自相关分析
设x(g)是一帧加窗后的语音数据中的第g个样点,r(m)表示时刻t和t+m之间的信号的自相关系数,即:
其中,N是一帧加窗后的语音数据的样点数,μ为该帧加窗后的语音数据的平均值。
将上式改写为矩阵形式,得到:
这种矩阵为托普利兹矩阵,这种方程组可以采用递归方法求解。
5.LPC分析
本申请的实施例中对LPC分析过程进行改进,其余步骤不变,改进的LPC分析过程如下:
当m=0时,E0=r(0),a0=1;
对于第m次的递归,存在:
对于j=1到m-1,存在:
其中,r为自相关系数,Em为误差,km为反馈系数,a为LPC系数,p表示阶数,一般取值8~16之间,λ为滤波系数,取值范围为(0,1)。
6.倒普系数转换
将LPC系数转换成倒普系数,以获得更好的性能和抗噪声能力,公式如下:
其中,am为LPC系数,cm为倒普系数。该倒谱系数cm即为LPC声学特征。
S4,构建基于改进的Res2Net模型的声纹识别模型,声纹识别模型包括第一Res2Net模块、第二Res2Net模块、第三Res2Net模块、第四Res2Net模块、第一融合层、第二融合层、第三融合层和全连接层,采用LPC声学特征对声纹识别模型进行训练,得到经训练的声纹识别模型,在训练过程中,将LPC声学特征输入第一Res2Net模块,得到第一特征,第一特征输入第二Res2Net模块,得到第二特征,第一特征和第二特征输入第一融合层,得到第三特征,第二特征输入第三Res2Net模块,得到第四特征,第三特征和第四特征输入第二融合层,得到第五特征,第四特征输入第四Res2Net模块,得到第六特征,第五特征和第六特征输入第三融合层,得到第七特征,第七特征输入全连接层,得到声纹特征。
在具体的实施例中,第一融合层、第二融合层、第三融合层均采用融合模块,融合模块包括依次连接的加法器、卷积核大小为1×1的卷积层、第一平均池化层、Relu激活函数层和第二平均池化层。
具体的,参考图4和图5,采用改进的Res2Net模型作为声纹识别模型,采用LPC声学特征训练该声纹识别模型,可以提升噪声数据场景下的声纹识别准确率。
本申请实施例还提供了一种声纹识别方法,采用根据上述的声纹识别模型的训练方法训练得到的经训练的声纹识别模型,包括以下步骤:
T1,获取注册语音,采用改进的谱减法滤波算法对注册语音进行滤波处理,得到注册语音对应的第二语音数据,并采用改进的LPC特征提取算法对注册语音对应的第二语音数据进行声学特征提取,得到注册语音对应的LPC声学特征,将注册语音对应的LPC声学特征输入经训练的声纹识别模型,得到第一特征向量;
T2,获取验证语音,采用改进的谱减法滤波算法对验证语音进行滤波处理,得到验证语音对应的第二语音数据,并采用改进的LPC特征提取算法对得到验证语音对应的第二语音数据进行声学特征提取,得到验证语音对应的LPC声学特征,将验证语音对应的LPC声学特征输入经训练的声纹识别模型,得到第二特征向量;
T3,将第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据比对结果判断验证语音和注册语音是否属于同一人。
具体的,将经训练的声纹识别模型部署在服务器上,推理过程如下:
声纹注册阶段,需要先使用改进的谱减法滤波算法对注册语音进行滤波,然后使用改进的LPC特征提取算法提取LPC声学特征,将注册语音对应的LPC声学特征输入经训练的声纹识别模型,输出第一特征向量;
声纹验证阶段,同样需要先使用改进的谱减法滤波算法对验证语音进行滤波,然后使用改进的LPC特征提取算法提取LPC声学特征,将验证语音对应的LPC声学特征输入经训练的声纹识别模型,输出第二特征向量。
采用余弦相似度算法对第一特征向量和第二特征向量进行相似度比对,即,对第一特征向量和第二特征向量做cosine打分,当打分高于阈值的时候,认为注册语音和验证语音为同一个人,cosine打分公式如下:
其中,θ为第一特征向量A和第二特征向量B之间的夹角,A和B为第一特征向量和第二特征向量,Ai为第一特征向量A的第i个矢量,Bi为第二特征向量B的第i个矢量,||A||为第一特征向量A的模长,||B||为第二特征向量B的模长。
经过以上步骤,在自建的噪声数据集上,far(错误接受率)可以由原来的70%提升至80%,其中,far(错误接受率)=1‰的tar(声纹识别准确率)。
以上步骤S1-S4、T1-T3并不一定代表步骤之间的顺序,而是步骤符号表示,步骤间的顺序可调整。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种声纹识别模型的训练装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
本申请实施例提供了一种声纹识别模型的训练装置,包括:
数据增强模块1,被配置为收集带噪语音和干净语音并分别进行数据增强,得到第一语音数据;
滤波处理模块2,被配置为采用改进的谱减法滤波算法对第一语音数据进行滤波处理,得到第二语音数据;
声学特征提取模块3,被配置为采用改进的LPC特征提取算法对第二语音数据提取声学特征,得到LPC声学特征;
模型构造训练模块4,被配置为构建基于改进的Res2Net模型的声纹识别模型,声纹识别模型包括第一Res2Net模块、第二Res2Net模块、第三Res2Net模块、第四Res2Net模块、第一融合层、第二融合层、第三融合层和全连接层,采用LPC声学特征对声纹识别模型进行训练,得到经训练的声纹识别模型,在训练过程中,将LPC声学特征输入第一Res2Net模块,得到第一特征,第一特征输入第二Res2Net模块,得到第二特征,第一特征和第二特征输入第一融合层,得到第三特征,第二特征输入第三Res2Net模块,得到第四特征,第三特征和第四特征输入第二融合层,得到第五特征,第四特征输入第四Res2Net模块,得到第六特征,第五特征和第六特征输入第三融合层,得到第七特征,第七特征输入全连接层,得到声纹特征。
本申请实施例还提供了一种声纹识别装置,采用根据上述的声纹识别模型的训练方法训练得到的经训练的声纹识别模型,包括:
注册模块,被配置为获取注册语音,采用改进的谱减法滤波算法对注册语音进行滤波处理,得到注册语音对应的第二语音数据,并采用改进的LPC特征提取算法对注册语音对应的第二语音数据进行声学特征提取,得到注册语音对应的LPC声学特征,将注册语音对应的LPC声学特征输入经训练的声纹识别模型,得到第一特征向量;
验证模块,被配置为获取验证语音,采用改进的谱减法滤波算法对验证语音进行滤波处理,得到验证语音对应的第二语音数据,并采用改进的LPC特征提取算法对得到验证语音对应的第二语音数据进行声学特征提取,得到验证语音对应的LPC声学特征,将验证语音对应的LPC声学特征输入经训练的声纹识别模型,得到第二特征向量;
比对模块,被配置为将第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据比对结果判断验证语音和注册语音是否属于同一人。
下面参考图7,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器或终端设备)的计算机装置700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机装置700包括中央处理单元(CPU)701和图形处理器(GPU)702,其可以根据存储在只读存储器(ROM)703中的程序或者从存储部分709加载到随机访问存储器(RAM)704中的程序而执行各种适当的动作和处理。在RAM 704中,还存储有计算机装置700操作所需的各种程序和数据。CPU 701、GPU702、ROM 703以及RAM 704通过总线705彼此相连。输入/输出(I/O)接口706也连接至总线705。
以下部件连接至I/O接口706:包括键盘、鼠标等的输入部分707;包括诸如、液晶显示器(LCD)等以及扬声器等的输出部分708;包括硬盘等的存储部分709;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分710。通信部分710经由诸如因特网的网络执行通信处理。驱动器711也可以根据需要连接至I/O接口706。可拆卸介质712,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器711上,以便于从其上读出的计算机程序根据需要被安装入存储部分709。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分710从网络上被下载和安装,和/或从可拆卸介质712被安装。在该计算机程序被中央处理单元(CPU)701和图形处理器(GPU)702执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线或半导体的装置、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行装置、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行装置、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,也可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,该模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的装置来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:收集带噪语音和干净语音并分别进行数据增强,得到第一语音数据;采用改进的谱减法滤波算法对第一语音数据进行滤波处理,得到第二语音数据;采用改进的LPC特征提取算法对第二语音数据提取声学特征,得到LPC声学特征;构建基于改进的Res2Net模型的声纹识别模型,声纹识别模型包括第一Res2Net模块、第二Res2Net模块、第三Res2Net模块、第四Res2Net模块、第一融合层、第二融合层、第三融合层和全连接层,采用LPC声学特征对声纹识别模型进行训练,得到经训练的声纹识别模型,在训练过程中,将LPC声学特征输入第一Res2Net模块,得到第一特征,第一特征输入第二Res2Net模块,得到第二特征,第一特征和第二特征输入第一融合层,得到第三特征,第二特征输入第三Res2Net模块,得到第四特征,第三特征和第四特征输入第二融合层,得到第五特征,第四特征输入第四Res2Net模块,得到第六特征,第五特征和第六特征输入第三融合层,得到第七特征,第七特征输入全连接层,得到声纹特征。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种声纹识别模型的训练方法,其特征在于,包括以下步骤:
收集带噪语音和干净语音并分别进行数据增强,得到第一语音数据;
采用改进的谱减法滤波算法对所述第一语音数据进行滤波处理,得到第二语音数据;
采用改进的LPC特征提取算法对所述第二语音数据提取声学特征,得到LPC声学特征;
构建基于改进的Res2Net模型的声纹识别模型,所述声纹识别模型包括第一Res2Net模块、第二Res2Net模块、第三Res2Net模块、第四Res2Net模块、第一融合层、第二融合层、第三融合层和全连接层,采用所述LPC声学特征对所述声纹识别模型进行训练,得到经训练的声纹识别模型,在训练过程中,将所述LPC声学特征输入所述第一Res2Net模块,得到第一特征,所述第一特征输入所述第二Res2Net模块,得到第二特征,所述第一特征和第二特征输入所述第一融合层,得到第三特征,所述第二特征输入所述第三Res2Net模块,得到第四特征,所述第三特征和第四特征输入所述第二融合层,得到第五特征,所述第四特征输入所述第四Res2Net模块,得到第六特征,所述第五特征和第六特征输入所述第三融合层,得到第七特征,所述第七特征输入所述全连接层,得到声纹特征。
2.根据权利要求1所述的声纹识别模型的训练方法,其特征在于,所述第一融合层、第二融合层、第三融合层均采用融合模块,所述融合模块包括依次连接的加法器、卷积核大小为1×1的卷积层、第一平均池化层、Relu激活函数层和第二平均池化层。
3.根据权利要求1所述的声纹识别模型的训练方法,其特征在于,所述采用改进的谱减法滤波算法对所述第一语音数据进行滤波处理,得到第二语音数据,具体包括:
建立干净语音、噪声和带噪语音之间的关系,并转换至频域,得到如下表达式:
其中,Y(w)为频域下的带噪信号,X(w)为频域下的干净信号,E(w)为频域下的噪声信号,γ和α为超参数,γ的取值范围为[1,4],α的取值范围为[0.5,1.0];
则干净信号的估计值如下式所示:
其中,为干净信号的估计值,|Y(w)|为带噪信号的幅度谱,/>为噪声谱,为信号相位。
4.根据权利要求1所述的声纹识别模型的训练方法,其特征在于,所述改进的LPC特征提取算法包括预加重、分帧、加窗、自相关分析、LPC分析和倒谱系数转换,其中对LPC分析过程进行改进,改进后的LPC分析过程如下:
当m=0时,E0=r(0),a0=1;
对于第m次的递归,存在:
对于j=1到m-1,存在:
其中,r为自相关系数,Em为误差,km为反馈系数,a为LPC系数,p表示阶数,λ为滤波系数,取值范围为(0,1)。
5.根据权利要求1所述的声纹识别模型的训练方法,其特征在于,所述干净语音的数据增强方式包括:变速、加混响、加噪声和加音乐声,所述带噪语音的数据增强方式包括:变速、加混响和加音乐声。
6.一种声纹识别模型的训练装置,其特征在于,包括:
数据增强模块,被配置为收集带噪语音和干净语音并分别进行数据增强,得到第一语音数据;
滤波处理模块,被配置为采用改进的谱减法滤波算法对所述第一语音数据进行滤波处理,得到第二语音数据;
声学特征提取模块,被配置为采用改进的LPC特征提取算法对所述第二语音数据提取声学特征,得到LPC声学特征;
模型构造训练模块,被配置为构建基于改进的Res2Net模型的声纹识别模型,所述声纹识别模型包括第一Res2Net模块、第二Res2Net模块、第三Res2Net模块、第四Res2Net模块、第一融合层、第二融合层、第三融合层和全连接层,采用所述LPC声学特征对所述声纹识别模型进行训练,得到经训练的声纹识别模型,在训练过程中,将所述LPC声学特征输入所述第一Res2Net模块,得到第一特征,所述第一特征输入所述第二Res2Net模块,得到第二特征,所述第一特征和第二特征输入所述第一融合层,得到第三特征,所述第二特征输入所述第三Res2Net模块,得到第四特征,所述第三特征和第四特征输入所述第二融合层,得到第五特征,所述第四特征输入所述第四Res2Net模块,得到第六特征,所述第五特征和第六特征输入所述第三融合层,得到第七特征,所述第七特征输入所述全连接层,得到声纹特征。
7.一种声纹识别方法,其特征在于,采用根据权利要求1-5中任一项所述的声纹识别模型的训练方法训练得到的经训练的声纹识别模型,包括以下步骤:
获取注册语音,采用改进的谱减法滤波算法对所述注册语音进行滤波处理,得到所述注册语音对应的第二语音数据,并采用改进的LPC特征提取算法对所述注册语音对应的第二语音数据进行声学特征提取,得到所述注册语音对应的LPC声学特征,将所述注册语音对应的LPC声学特征输入所述经训练的声纹识别模型,得到第一特征向量;
获取验证语音,采用改进的谱减法滤波算法对所述验证语音进行滤波处理,得到所述验证语音对应的第二语音数据,并采用改进的LPC特征提取算法对得到所述验证语音对应的第二语音数据进行声学特征提取,得到所述验证语音对应的LPC声学特征,将所述验证语音对应的LPC声学特征输入所述经训练的声纹识别模型,得到第二特征向量;
将所述第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据所述比对结果判断所述验证语音和所述注册语音是否属于同一人。
8.一种声纹识别装置,其特征在于,采用根据权利要求1-5中任一项所述的声纹识别模型的训练方法训练得到的经训练的声纹识别模型,包括:
注册模块,被配置为获取注册语音,采用改进的谱减法滤波算法对所述注册语音进行滤波处理,得到所述注册语音对应的第二语音数据,并采用改进的LPC特征提取算法对所述注册语音对应的第二语音数据进行声学特征提取,得到所述注册语音对应的LPC声学特征,将所述注册语音对应的LPC声学特征输入所述经训练的声纹识别模型,得到第一特征向量;
验证模块,被配置为获取验证语音,采用改进的谱减法滤波算法对所述验证语音进行滤波处理,得到所述验证语音对应的第二语音数据,并采用改进的LPC特征提取算法对得到所述验证语音对应的第二语音数据进行声学特征提取,得到所述验证语音对应的LPC声学特征,将所述验证语音对应的LPC声学特征输入所述经训练的声纹识别模型,得到第二特征向量;
比对模块,被配置为将所述第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据所述比对结果判断所述验证语音和所述注册语音是否属于同一人。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410063025.XA CN118098245A (zh) | 2024-01-16 | 2024-01-16 | 声纹识别模型的训练方法、声纹识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410063025.XA CN118098245A (zh) | 2024-01-16 | 2024-01-16 | 声纹识别模型的训练方法、声纹识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118098245A true CN118098245A (zh) | 2024-05-28 |
Family
ID=91148275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410063025.XA Pending CN118098245A (zh) | 2024-01-16 | 2024-01-16 | 声纹识别模型的训练方法、声纹识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118098245A (zh) |
-
2024
- 2024-01-16 CN CN202410063025.XA patent/CN118098245A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112562691B (zh) | 一种声纹识别的方法、装置、计算机设备及存储介质 | |
El-Moneim et al. | Text-independent speaker recognition using LSTM-RNN and speech enhancement | |
Bhat et al. | A real-time convolutional neural network based speech enhancement for hearing impaired listeners using smartphone | |
CN108564963B (zh) | 用于增强语音的方法和装置 | |
CN110322891B (zh) | 一种语音信号的处理方法、装置、终端及存储介质 | |
CN107068161B (zh) | 基于人工智能的语音降噪方法、装置和计算机设备 | |
CN108564965B (zh) | 一种抗噪语音识别系统 | |
CN108461081B (zh) | 语音控制的方法、装置、设备和存储介质 | |
CN112053702B (zh) | 一种语音处理的方法、装置及电子设备 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
CN112786059A (zh) | 一种基于人工智能的声纹特征提取方法及装置 | |
JP2023548707A (ja) | 音声強調方法、装置、機器及びコンピュータプログラム | |
JP2020071482A (ja) | 語音分離方法、語音分離モデル訓練方法及びコンピュータ可読媒体 | |
CN114333874B (zh) | 处理音频信号的方法 | |
CN115035887A (zh) | 语音信号的处理方法、装置、设备及介质 | |
CN112002307B (zh) | 一种语音识别方法和装置 | |
CN113421584A (zh) | 音频降噪方法、装置、计算机设备及存储介质 | |
CN112908340A (zh) | 一种基于全局-局部加窗的声音特征快速提取方法 | |
CN116913304A (zh) | 实时语音流降噪方法、装置、计算机设备及存储介质 | |
CN116312559A (zh) | 跨信道声纹识别模型的训练方法、声纹识别方法及装置 | |
CN110875037A (zh) | 语音数据处理方法、装置及电子设备 | |
CN115938364A (zh) | 一种智能识别控制方法、终端设备及可读存储介质 | |
CN118098245A (zh) | 声纹识别模型的训练方法、声纹识别方法及装置 | |
Campbell et al. | Feature extraction of automatic speaker recognition, analysis and evaluation in real environment | |
CN111862931B (zh) | 一种语音生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |