CN116312559A - 跨信道声纹识别模型的训练方法、声纹识别方法及装置 - Google Patents

跨信道声纹识别模型的训练方法、声纹识别方法及装置 Download PDF

Info

Publication number
CN116312559A
CN116312559A CN202310151115.XA CN202310151115A CN116312559A CN 116312559 A CN116312559 A CN 116312559A CN 202310151115 A CN202310151115 A CN 202310151115A CN 116312559 A CN116312559 A CN 116312559A
Authority
CN
China
Prior art keywords
model
fbank
training
channel
voiceprint recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310151115.XA
Other languages
English (en)
Inventor
叶林勇
肖龙源
李海洲
李稀敏
叶志坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Kuaishangtong Technology Co Ltd
Original Assignee
Xiamen Kuaishangtong Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Kuaishangtong Technology Co Ltd filed Critical Xiamen Kuaishangtong Technology Co Ltd
Priority to CN202310151115.XA priority Critical patent/CN116312559A/zh
Publication of CN116312559A publication Critical patent/CN116312559A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明公开了一种跨信道声纹识别模型的训练方法、声纹识别方法及装置,通过收集不同信道数据集,处理得到训练数据,采用改进的fbank特征提取算法对训练数据分别提取fbank特征,得到fbank特征;采用第二fbank特征和第四fbank特征分别训练声纹识别模型,得到第一模型和第二模型,第一模型与第二模型通过融合结构组合构建得到第三模型;采用第一fbank特征训练第三模型,得到第四模型,采用第三fbank特征训练第四模型,得到跨信道声纹识别模型。本发明采用改进的fbank特征提取算法提取fbank特征,并通过融合结构将第一模型的输出和第二模型的输出组合在一起,可有效提高声纹识别模型在跨信道场景下的识别准确率,以解决跨信道声纹识别模型训练过程复杂,准确度低等问题。

Description

跨信道声纹识别模型的训练方法、声纹识别方法及装置
技术领域
本发明涉及声纹识别领域,具体涉及一种跨信道声纹识别模型的训练方法、声纹识别方法及装置。
背景技术
每个人的声音都蕴涵着特有的生物特征,声纹识别是指利用说话人的声音来识别说话人的一种技术手段。声纹识别与指纹识别等技术一样具有高度的安全可靠性,可以应用在所有需要做身份识别的场合。如在刑侦、银行、证券、保险等金融领域。
与传统的身份识别技术相比,声纹识别的优势在于,声纹提取过程简单,成本低,且具有唯一性,不易伪造和假冒。近几年,随着深度学习技术的发展,声纹识别技术也得到了较大的提升,已经成功应用在很多场景。
声纹识别的跨信道情景包括设备之间的跨信道和音频采样率不同导致的跨信道。其中,设备之间跨信道是指在采集声纹注册音频和验证音频时使用的设备不一样所导致的跨信道的情况,不同的采音设备都会影响到声纹识别的准确性。采样率之间跨信道是指不同的音频采样率声纹识别效果不同,声纹识别的音频采样率一般是8k和16k。如果声纹注册用的是8k采样率的音频,声纹验证时是16k采样率的音频,会对识别结果有一定的影响。跨信道识别在真实的生活场景中是不可避免的,对声纹识别效果有一定的影响。所以解决跨信道问题,是声纹识别技术得到广泛应用的一个前提。但是目前深度学习方法训练模型存在一定的局限性,电话信道和网络信道数据需要分开,需分别对不同信道的语音数据训练模型才可以达到比较高的识别准确率,给声纹识别系统的推广应用带来了一定的阻碍。
发明内容
针对上述提到的技术问题。本申请的实施例的目的在于提出了一种跨信道声纹识别模型的训练方法、声纹识别方法及装置,来解决以上背景技术部分提到的技术问题。
第一方面,本发明提供了一种跨信道声纹识别模型的训练方法,包括以下步骤:
S1,收集数据集,数据集包括基于第一信道的第一数据集和第二数据集以及基于第二信道的第三数据集和第四数据集,对数据集分别进行数据清洗和数据增强处理,得到训练数据,训练数据包括分别对应第一数据集、第二数据集、第三数据集和第四数据集的第一训练数据、第二训练数据、第三训练数据和第四训练数据;
S2,采用改进的fbank特征提取算法对训练数据分别提取fbank特征,得到fbank特征,fbank特征包括分别对应第一训练数据、第二训练数据、第三训练数据和第四训练数据的第一fbank特征、第二fbank特征、第三fbank特征和第四fbank特征;
S3,采用第二fbank特征和第四fbank特征分别训练声纹识别模型,得到第一模型和第二模型,第一模型与第二模型通过融合结构组合构建得到第三模型;
S4,采用第一fbank特征训练第三模型,得到第四模型,采用第三fbank特征训练第四模型,得到跨信道声纹识别模型。
作为优选,步骤S1中收集数据集,具体包括:
收集来自第一信道的第一语音;
将第一语音的采样率调整至预设频率,得到第一数据集;
从第一数据集中抽取部分第一语音作为第二数据集;
收集来自第二信道的第二语音;
将第二语音的采样率调整至预设频率,得到第三数据集;
从第三数据集中抽取部分第二语音作为第四数据集。
作为优选,步骤S1中数据清洗的方式包括:采用划窗方式去除语音中的静音段;数据增强的方式包括:对清洗后的语音采用增加噪音、变速或加混响。
作为优选,步骤S2中改进的fbank特征提取算法具体包括:
对训练数据中的语音信号进行预加重、分帧、加窗;
将预加重、分帧、加窗后的语音信号进行傅立叶变换,得到各帧语音信号的频谱,并对语音信号的频谱取模平方,得到语音信号的功率谱;
将功率谱进行Mel滤波,提取得到训练数据对应的Mel滤波输出;
将第二训练数据对应的Mel滤波输出和第四训练数据对应的Mel滤波输出合并,并计算均值和标准差;
根据均值和标准差对训练数据对应的Mel滤波输出进行动态规整,得到动态规整输出:
Figure BDA0004090873590000021
其中,M(t)为训练数据所对应的Mel滤波输出,d(t)为动态规整输出,μ和σ分别为均值和标准差;
对动态规整输出取对数,得到fbank特征。
作为优选,声纹识别模型包括Res2Net50,跨信道声纹识别模型的训练过程中采用的损失函数为交叉熵损失函数,公式如下:
Figure BDA0004090873590000031
其中,L为损失函数,
Figure BDA0004090873590000032
为模型预测输出,y为标签,值为0或者1。
作为优选,融合结构包括第一加法器、第一池化层、第一卷积层、第一归一化层、第一激活函数层、第二卷积层、第二池化层、第三卷积层、第二归一化层、第二激活函数层、第四卷积层、第二加法器、第三激活函数层、第一乘法器、第二乘法器和第三加法器,其中,第一池化层、第一卷积层、第一归一化层、第一激活函数层、第二卷积层依次连接,第二池化层、第三卷积层、第二归一化层、第二激活函数层、第四卷积层依次连接,第一模型的输出与第二模型的输出采用第一加法器进行相加,得到第一相加结果,第一相加结果分别输入第一池化层和第二池化层,分别经过第一卷积层、第一归一化层、第一激活函数层、第二卷积层以及第三卷积层、第二归一化层、第二激活函数层、第四卷积层提取得到第一特征和第二特征,第一特征和第二特征采用第二加法器进行相加,得到第二相加结果,第二相加结果输入第三激活函数层,第三激活函数层的输出结果分别与第一模型的输出与第二模型的输出采用第一乘法器和第二乘法器进行相乘,得到第一相乘结果和第二相乘结果,第三激活函数层的输出结果、第一相乘结果和第二相乘结果采用第三加法器进行相加,得到第三模型的输出。
作为优选,第一激活函数层和第二激活函数层采用RELU,第三激活函数层采用sigmoid。
第二方面,本发明提供了一种跨信道声纹识别模型的训练装置,包括:
训练数据获取模块,被配置为收集数据集,数据集包括基于第一信道的第一数据集和第二数据集以及基于第二信道的第三数据集和第四数据集,对数据集分别进行数据清洗和数据增强处理,得到训练数据,训练数据包括分别对应第一数据集、第二数据集、第三数据集和第四数据集的第一训练数据、第二训练数据、第三训练数据和第四训练数据;
特征提取模块,被配置为采用改进的fbank特征提取算法对训练数据分别提取fbank特征,得到fbank特征,fbank特征包括分别对应第一训练数据、第二训练数据、第三训练数据和第四训练数据的第一fbank特征、第二fbank特征、第三fbank特征和第四fbank特征;
模型构建模块,被配置为采用第二fbank特征和第四fbank特征分别训练声纹识别模型,得到第一模型和第二模型,第一模型与第二模型通过融合结构组合构建得到第三模型;
模型训练模块,被配置为采用第一fbank特征训练第三模型,得到第四模型,采用第三fbank特征训练第四模型,得到跨信道声纹识别模型。
第三方面,本发明提供了一种跨信道声纹识别方法,采用根据第一方面的跨信道声纹识别模型的训练方法训练得到的跨信道声纹识别模型,包括以下步骤:
T1,获取注册语音,将注册语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到注册语音对应的fbank特征,将注册语音对应的fbank特征输入跨信道声纹识别模型,得到第一特征向量;
T2,获取验证语音,将验证语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到验证语音对应的fbank特征,将验证语音对应的fbank特征输入跨信道声纹识别模型,得到第二特征向量;
T3,将第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据比对结果判断验证语音和注册语音是否属于同一人。
第四方面,本发明提供了一种跨信道声纹识别装置,采用根据第一方面的跨信道声纹识别模型的训练方法训练得到的跨信道声纹识别模型,包括:
注册模块,被配置为获取注册语音,将注册语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到注册语音对应的fbank特征,将注册语音对应的fbank特征输入跨信道声纹识别模型,得到第一特征向量;
验证模块,被配置为获取验证语音,将验证语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到验证语音对应的fbank特征,将验证语音对应的fbank特征输入跨信道声纹识别模型,得到第二特征向量;
比对模块,被配置为将第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据比对结果判断验证语音和注册语音是否属于同一人。
第五方面,本发明提供了一种电子设备,包括一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第六方面,本发明提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
相比于现有技术,本发明具有以下有益效果:
(1)本发明采用数据清洗并结合多种数据增强方式对数据集进行数据增强,可以极大增加训练模型在各种应用场景下的鲁棒性。
(2)本发明采用改进的fbank特征提取算法可以提升声纹识别模型在跨信道场景下的识别准确率。
(3)本发明采用融合结构将第一模型的输出和第二模型的输出组合在一起,得到第三模型,并对第三模型进行训练,得到第四模型,对第四模型进行微调,得到跨信道声纹识别模型,可以有效提升所训练跨信道声纹识别模型的跨信道识别准确率,降低训练难度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的一个实施例可以应用于其中的示例性装置架构图;
图2为本申请的实施例1的跨信道声纹识别模型的训练方法的流程示意图;
图3为本申请的实施例1的跨信道声纹识别模型的训练方法的改进的fbank特征提取算法的流程示意图;
图4为本申请的实施例1的跨信道声纹识别模型的训练方法的融合结构的示意图;
图5为本申请的实施例1的跨信道声纹识别模型的训练装置的示意图;
图6为本申请的实施例2的跨信道声纹识别方法的流程示意图;
图7为本申请的实施例2的跨信道声纹识别装置的示意图;
图8是适于用来实现本申请实施例的电子设备的计算机装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了可以应用本申请实施例的跨信道声纹识别模型的训练方法或跨信道声纹识别模型的训练装置的示例性装置架构100。
如图1所示,装置架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种应用,例如数据处理类应用、文件处理类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的文件或数据进行处理的后台数据处理服务器。后台数据处理服务器可以对获取的文件或数据进行处理,生成处理结果。
需要说明的是,本申请实施例所提供的跨信道声纹识别模型的训练方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,跨信道声纹识别模型的训练装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在所处理的数据不需要从远程获取的情况下,上述装置架构可以不包括网络,而只需服务器或终端设备。
实施例1
图2示出了本申请的实施例1提供的一种跨信道声纹识别模型的训练方法,包括以下步骤:
S1,收集数据集,数据集包括基于第一信道的第一数据集和第二数据集以及基于第二信道的第三数据集和第四数据集,对数据集分别进行数据清洗和数据增强处理,得到训练数据,训练数据包括分别对应第一数据集、第二数据集、第三数据集和第四数据集的第一训练数据、第二训练数据、第三训练数据和第四训练数据。
在具体的实施例中,步骤S1中收集数据集,具体包括:
收集来自第一信道的第一语音;
将第一语音的采样率调整至预设频率,得到第一数据集;
从第一数据集中抽取部分第一语音作为第二数据集;
收集来自第二信道的第二语音;
将第二语音的采样率调整至预设频率,得到第三数据集;
从第三数据集中抽取部分第二语音作为第四数据集。
具体的,预设频率可设为16000Hz,在其他实施例中,也可根据具体场景设为其他数值。第一信道可为电话信道,可通过打电话录音方式收集第一语音,将收集到的全部来自第一信道的第一语音的采样率从16000Hz以下上采样到16000Hz,得到第一数据集。在第一数据集中抽取部分第一语音,成为第二数据集;第二信道可为网络信道,可通过手机自带的录音器收集第二语音,将收集到的全部来自网络信道的第二语音的采样率从16000Hz以上降采样到16000Hz,得到第三数据集,在第三数据集中抽取部分第二语音,成为第四数据集。
在具体的实施例中,步骤S1中数据清洗的方式包括:采用划窗方式去除语音中的静音段;数据增强的方式包括:对清洗后的语音采用增加噪音、变速或加混响。
具体的,训练声纹识别模型之前,需要先对第一数据集、第二数据集、第三数据集、第四数据集进行数据清洗、数据增强操作。在数据清洗过程中,采用滑窗方式去除每条语音中的静音段,将所有语音切分成有效时长30s一段的语音文件,文件名称作为模型训练时的标签。滑窗方式处理过程如下:
(1)假设一条语音Audio=[X1,X2,X3,...,Xn],其中,X为语音采样点,n=T*16000,T为语音时长,单位为s;
(2)计算窗长为m的滑窗P的语音能量值:
Figure BDA0004090873590000071
m=t*16000,t=0.1s;
(3)令k依次等于1,2,3,...,(n-m),依次计算得到语音能量E1,E2,E3,...,En-m
(4)当滑窗内的采样点所计算得能量E小于阈值K时,认为该语音段为静音段,删除所有静音段所对应的采样点,将所剩下的采样点重新保存为语音文件。
对数据清洗后的语音做数据增强,数据增强采用以下三种方式,分别为:
(1)加噪声,具体可对每条语音随机加入办公室噪声、演讲噪声、室外交通噪声等;
(2)变速,具体可将语音播放速度随机变为0.9倍数或者1.1倍数;
(3)加混响,具体可对每条语音加入混响。
经过数据增强以后,每一条语音可以扩充为4条,可以极大增加训练模型在各种应用场景下的鲁棒性。
S2,采用改进的fbank特征提取算法对训练数据分别提取fbank特征,得到fbank特征,fbank特征包括分别对应第一训练数据、第二训练数据、第三训练数据和第四训练数据的第一fbank特征、第二fbank特征、第三fbank特征和第四fbank特征。
在具体的实施例中,步骤S2中改进的fbank特征提取算法具体包括:
对训练数据中的语音信号进行预加重、分帧、加窗;
将预加重、分帧、加窗后的语音信号进行傅立叶变换,得到各帧语音信号的频谱,并对语音信号的频谱取模平方,得到语音信号的功率谱;
将功率谱进行Mel滤波,提取得到训练数据对应的Mel滤波输出;
将第二训练数据对应的Mel滤波输出和第四训练数据对应的Mel滤波输出合并,并计算均值和标准差;
根据均值和标准差对训练数据对应的Mel滤波输出进行动态规整,得到动态规整输出:
Figure BDA0004090873590000081
其中,M(t)为所述训练数据所对应的Mel滤波输出,d(t)为动态规整输出,μ和σ分别为均值和标准差;
对动态规整输出取对数,得到fbank特征。
具体的,使用改进的fbank特征提取算法对第一数据集、第二数据集、第三数据集、第四数据集提取fbank特征,特征提取的流程如图3所示。其中,动态规整部分为本申请的实施例所提出的改进的fbank特征提取算法的改进部分,其余部分与现有的fbank特征提取算法相同。通过本申请的实施例提出的改进的fbank特征提取算法可以有效提升所训练的声纹识别模型的跨信道识别准确率。动态规整部分的具体内容如下:
第二训练数据对应的Mel滤波输出为第二训练数据的n条语音依次经过预加重、分帧、加窗、傅立叶变换、取平方步骤提取得到的Mel滤波输出,记为
Mtel1,Mtel2,Mtel3,…,Mteln。第四训练数据对应的Mel滤波输出为第四训练数据的n条语音依次经过预加重、分帧、加窗、傅立叶变换、取平方步骤提取得到的Mel滤波输出,记为Mnet1,Mnet2,Mnet3,…,Mnetn。将第二训练数据对应的Mel滤波输出和第四训练数据对应的Mel滤波输出合并到一起,得到的Mel滤波输出组合,计算Mel滤波输出组合的均值μ和标准差σ:
Figure BDA0004090873590000091
Figure BDA0004090873590000092
其中,Mi=Mtel1,Mtel2,Mtel3,…,Mteln,Mnet1,Mnet2,Mnet3,…,Mnetn,N=2n。
采用以下动态规整计算公式计算动态规整输出:
Figure BDA0004090873590000093
其中,M(t)为训练数据所对应的Mel滤波输出,d(t)为动态规整输出。具体的,M(t)为第一训练数据、第二训练数据、第三训练数据或第四训练数据对应的Mel滤波输出。
S3,采用第二fbank特征和第四fbank特征分别训练声纹识别模型,得到第一模型和第二模型,第一模型与第二模型通过融合结构组合构建得到第三模型。
在具体的实施例中,声纹识别模型包括Res2Net50,跨信道声纹识别模型的训练过程中采用的损失函数为交叉熵损失函数,公式如下:
Figure BDA0004090873590000094
其中,L为损失函数,
Figure BDA0004090873590000095
为模型预测输出,y为标签,值为0或者1。
具体的,使用第二训练数据提取到的第二fbank特征训练声纹识别模型,得到第一模型,使用第四训练数据提取到的第四fbank特征训练声纹识别模型,得到第二模型。第一模型和第二模型均可采用Res2Net50作为基础网络训练得到,可采用相同的网络结构,但是采用来自不同信道的训练数据所提取的fbank特征进行训练,模型训练的损失函数使用交叉熵损失函数(Cross Entropy Loss)。
在具体的实施例中,参考图4,融合结构包括第一加法器、第一池化层、第一卷积层、第一归一化层、第一激活函数层、第二卷积层、第二池化层、第三卷积层、第二归一化层、第二激活函数层、第四卷积层、第二加法器、第三激活函数层、第一乘法器、第二乘法器和第三加法器,其中,第一池化层、第一卷积层、第一归一化层、第一激活函数层、第二卷积层依次连接,第二池化层、第三卷积层、第二归一化层、第二激活函数层、第四卷积层依次连接,第一模型的输出与第二模型的输出采用第一加法器进行相加,得到第一相加结果,第一相加结果分别输入第一池化层和第二池化层,分别经过第一卷积层、第一归一化层、第一激活函数层、第二卷积层以及第三卷积层、第二归一化层、第二激活函数层、第四卷积层提取得到第一特征和第二特征,第一特征和第二特征采用第二加法器进行相加,得到第二相加结果,第二相加结果输入第三激活函数层,第三激活函数层的输出结果分别与第一模型的输出与第二模型的输出采用第一乘法器和第二乘法器进行相乘,得到第一相乘结果和第二相乘结果,第三激活函数层的输出结果、第一相乘结果和第二相乘结果采用第三加法器进行相加,得到第三模型的输出。
在具体的实施例中,第一激活函数层和第二激活函数层采用RELU,第三激活函数层采用sigmoid。
具体的,使用融合结构将第一模型的输出和第二模型的输出组合到一起,合并为一个新的模型,称为第三模型。通过融合结构将基于不同信道的数据集训练得到的第一模型的输出和第二模型的输出,并构成第三模型,进一步再训练第三模型,可以有效提升声纹识别模型的跨信道识别准确率。
S4,采用第一fbank特征训练第三模型,得到第四模型,采用第三fbank特征训练第四模型,得到跨信道声纹识别模型。
具体的,使用第一训练数据对应的第一fbank特征训练第三模型,直至结果收敛,训练得到第四模型,使用第三训练数据对应的第四fbank特征对第四模型进行微调,使损失函数降低,准确率提升,得到最终模型,称为第五模型,即为本申请的实施例所提出的跨信道声纹识别模型。在训练第三模型和第四模型的过程中损失函数也均采用交叉熵损失函数。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种跨信道声纹识别模型的训练装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
本申请实施例提供了一种跨信道声纹识别模型的训练装置,包括:
训练数据获取模块1,被配置为收集数据集,数据集包括基于第一信道的第一数据集和第二数据集以及基于第二信道的第三数据集和第四数据集,对数据集分别进行数据清洗和数据增强处理,得到训练数据,训练数据包括分别对应第一数据集、第二数据集、第三数据集和第四数据集的第一训练数据、第二训练数据、第三训练数据和第四训练数据;
特征提取模块2,被配置为采用改进的fbank特征提取算法对训练数据分别提取fbank特征,得到fbank特征,fbank特征包括分别对应第一训练数据、第二训练数据、第三训练数据和第四训练数据的第一fbank特征、第二fbank特征、第三fbank特征和第四fbank特征;
模型构建模块3,被配置为采用第二fbank特征和第四fbank特征分别训练声纹识别模型,得到第一模型和第二模型,第一模型与第二模型通过融合结构组合构建得到第三模型;
模型训练模块4,被配置为采用第一fbank特征训练第三模型,得到第四模型,采用第三fbank特征训练第四模型,得到跨信道声纹识别模型。
实施例2
参考图6,本申请的实施例2还提出了一种跨信道声纹识别方法,采用根据上述的跨信道声纹识别模型的训练方法训练得到的跨信道声纹识别模型,包括以下步骤:
T1,获取注册语音,将注册语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到注册语音对应的fbank特征,将注册语音对应的fbank特征输入跨信道声纹识别模型,得到第一特征向量。
具体的,声纹注册阶段,需要将输入的注册语音的采样率规整到16000Hz,然后使用改进改进的fbank特征提取算法提取注册语音对应的fbank特征,将提取到的注册语音对应的fbank特征输入跨信道声纹识别模型,得到第一特征向量,第一特征向量为N维特征向量。
T2,获取验证语音,将验证语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到验证语音对应的fbank特征,将验证语音对应的fbank特征输入跨信道声纹识别模型,得到第二特征向量。
具体的,声纹验证阶段,同样需要将输入的验证语音的采样率规整到16000Hz,然后使用改进的fbank特征提取算法提取验证语音对应的fbank特征,将提取到的验证语音对应的fbank特征输入跨信道声纹识别模型,得到第二特征向量,第二特征向量为N维特征向量。
T3,将第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据比对结果判断验证语音和注册语音是否属于同一人。
具体的,相似度比对采用余弦相似度算法,即,对第一特征向量和第二特征向量做cosine打分,当打分高于阈值的时候,认为注册语音和验证语音为同一个人,cosine打分公式如下:
Figure BDA0004090873590000111
其中,θ为第一特征向量A和第二特征向量B之间的夹角,A和B为第一特征向量和第二特征向量,Ai为第一特征向量A的第i个矢量,Bi为第二特征向量B的第i个矢量,||A||为第一特征向量A的模长,||B||为第二特征向量B的模长。
进一步参考图7,作为对上述各图所示方法的实现,本申请提供了一种跨信道声纹识别模装置的一个实施例,该装置实施例与图6所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
本申请实施例提供了一种跨信道声纹识别装置,采用根据上述的跨信道声纹识别模型的训练方法训练得到的跨信道声纹识别模型,包括:
注册模块5,被配置为获取注册语音,将注册语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到注册语音对应的fbank特征,将注册语音对应的fbank特征输入跨信道声纹识别模型,得到第一特征向量;
验证模块6,被配置为获取验证语音,将验证语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到验证语音对应的fbank特征,将验证语音对应的fbank特征输入跨信道声纹识别模型,得到第二特征向量;
比对模块7,被配置为将第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据比对结果判断验证语音和注册语音是否属于同一人。
下面参考图8,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器或终端设备)的计算机装置800的结构示意图。图8示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图8所示,计算机装置800包括中央处理单元(CPU)801和图形处理器(GPU)802,其可以根据存储在只读存储器(ROM)803中的程序或者从存储部分809加载到随机访问存储器(RAM)804中的程序而执行各种适当的动作和处理。在RAM 804中,还存储有装置800操作所需的各种程序和数据。CPU 801、GPU802、ROM 803以及RAM 804通过总线805彼此相连。输入/输出(I/O)接口806也连接至总线805。
以下部件连接至I/O接口806:包括键盘、鼠标等的输入部分807;包括诸如、液晶显示器(LCD)等以及扬声器等的输出部分808;包括硬盘等的存储部分809;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分810。通信部分810经由诸如因特网的网络执行通信处理。驱动器811也可以根据需要连接至I/O接口806。可拆卸介质812,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器811上,以便于从其上读出的计算机程序根据需要被安装入存储部分809。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分810从网络上被下载和安装,和/或从可拆卸介质812被安装。在该计算机程序被中央处理单元(CPU)801和图形处理器(GPU)802执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线或半导体的装置、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行装置、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行装置、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,也可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,该模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的装置来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:收集数据集,数据集包括基于第一信道的第一数据集和第二数据集以及基于第二信道的第三数据集和第四数据集,对数据集分别进行数据清洗和数据增强处理,得到训练数据,训练数据包括分别对应第一数据集、第二数据集、第三数据集和第四数据集的第一训练数据、第二训练数据、第三训练数据和第四训练数据;采用改进的fbank特征提取算法对训练数据分别提取fbank特征,得到fbank特征,fbank特征包括分别对应第一训练数据、第二训练数据、第三训练数据和第四训练数据的第一fbank特征、第二fbank特征、第三fbank特征和第四fbank特征;采用第二fbank特征和第四fbank特征分别训练声纹识别模型,得到第一模型和第二模型,第一模型与第二模型通过融合结构组合构建得到第三模型;采用第一fbank特征训练第三模型,得到第四模型,采用第三fbank特征训练第四模型,得到跨信道声纹识别模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (12)

1.一种跨信道声纹识别模型的训练方法,其特征在于,包括以下步骤:
S1,收集数据集,所述数据集包括基于第一信道的第一数据集和第二数据集以及基于第二信道的第三数据集和第四数据集,对所述数据集分别进行数据清洗和数据增强处理,得到训练数据,所述训练数据包括分别对应所述第一数据集、第二数据集、第三数据集和第四数据集的第一训练数据、第二训练数据、第三训练数据和第四训练数据;
S2,采用改进的fbank特征提取算法对所述训练数据分别提取fbank特征,得到fbank特征,所述fbank特征包括分别对应第一训练数据、第二训练数据、第三训练数据和第四训练数据的第一fbank特征、第二fbank特征、第三fbank特征和第四fbank特征;
S3,采用所述第二fbank特征和第四fbank特征分别训练声纹识别模型,得到第一模型和第二模型,所述第一模型与第二模型通过融合结构组合构建得到第三模型;
S4,采用第一fbank特征训练所述第三模型,得到第四模型,采用第三fbank特征训练所述第四模型,得到跨信道声纹识别模型。
2.根据权利要求1所述的跨信道声纹识别模型的训练方法,其特征在于,所述步骤S1中收集数据集,具体包括:
收集来自所述第一信道的第一语音;
将所述第一语音的采样率调整至预设频率,得到所述第一数据集;
从所述第一数据集中抽取部分第一语音作为所述第二数据集;
收集来自所述第二信道的第二语音;
将所述第二语音的采样率调整至预设频率,得到所述第三数据集;
从所述第三数据集中抽取部分第二语音作为所述第四数据集。
3.根据权利要求1所述的跨信道声纹识别模型的训练方法,其特征在于,所述步骤S1中数据清洗的方式包括:采用划窗方式去除语音中的静音段;数据增强的方式包括:对清洗后的语音采用增加噪音、变速或加混响。
4.根据权利要求1所述的跨信道声纹识别模型的训练方法,其特征在于,所述步骤S2中改进的fbank特征提取算法具体包括:
对所述训练数据中的语音信号进行预加重、分帧、加窗;
将预加重、分帧、加窗后的语音信号进行傅立叶变换,得到各帧语音信号的频谱,并对语音信号的频谱取模平方,得到语音信号的功率谱;
将所述功率谱进行Mel滤波,提取得到所述训练数据对应的Mel滤波输出;
将第二训练数据对应的Mel滤波输出和第四训练数据对应的Mel滤波输出合并,并计算均值和标准差;
根据所述均值和标准差对所述训练数据对应的Mel滤波输出进行动态规整,得到动态规整输出:
Figure FDA0004090873570000021
其中,M(t)为所述训练数据所对应的Mel滤波输出,d(t)为动态规整输出,μ和σ分别为均值和标准差;
对所述动态规整输出取对数,得到所述fbank特征。
5.根据权利要求1所述的跨信道声纹识别模型的训练方法,其特征在于,所述声纹识别模型包括Res2Net50,所述跨信道声纹识别模型的训练过程中采用的损失函数为交叉熵损失函数,公式如下:
Figure FDA0004090873570000022
其中,L为损失函数,
Figure FDA0004090873570000023
为模型预测输出,y为标签,值为0或者1。
6.根据权利要求1所述的跨信道声纹识别模型的训练方法,其特征在于,所述融合结构包括第一加法器、第一池化层、第一卷积层、第一归一化层、第一激活函数层、第二卷积层、第二池化层、第三卷积层、第二归一化层、第二激活函数层、第四卷积层、第二加法器、第三激活函数层、第一乘法器、第二乘法器和第三加法器,其中,所述第一池化层、第一卷积层、第一归一化层、第一激活函数层、第二卷积层依次连接,所述第二池化层、第三卷积层、第二归一化层、第二激活函数层、第四卷积层依次连接,所述第一模型的输出与第二模型的输出采用所述第一加法器进行相加,得到第一相加结果,所述第一相加结果分别输入所述第一池化层和第二池化层,分别经过第一卷积层、第一归一化层、第一激活函数层、第二卷积层以及第三卷积层、第二归一化层、第二激活函数层、第四卷积层提取得到第一特征和第二特征,所述第一特征和第二特征采用所述第二加法器进行相加,得到第二相加结果,所述第二相加结果输入所述第三激活函数层,所述第三激活函数层的输出结果分别与所述第一模型的输出与第二模型的输出采用所述第一乘法器和第二乘法器进行相乘,得到第一相乘结果和第二相乘结果,所述第三激活函数层的输出结果、所述第一相乘结果和第二相乘结果采用所述第三加法器进行相加,得到所述第三模型的输出。
7.根据权利要求6所述的跨信道声纹识别模型的训练方法,其特征在于,所述第一激活函数层和第二激活函数层采用RELU,所述第三激活函数层采用sigmoid。
8.一种跨信道声纹识别模型的训练装置,其特征在于,包括:
训练数据获取模块,被配置为收集数据集,所述数据集包括基于第一信道的第一数据集和第二数据集以及基于第二信道的第三数据集和第四数据集,对所述数据集分别进行数据清洗和数据增强处理,得到训练数据,所述训练数据包括分别对应所述第一数据集、第二数据集、第三数据集和第四数据集的第一训练数据、第二训练数据、第三训练数据和第四训练数据;
特征提取模块,被配置为采用改进的fbank特征提取算法对所述训练数据分别提取fbank特征,得到fbank特征,所述fbank特征包括分别对应第一训练数据、第二训练数据、第三训练数据和第四训练数据的第一fbank特征、第二fbank特征、第三fbank特征和第四fbank特征;
模型构建模块,被配置为采用所述第二fbank特征和第四fbank特征分别训练声纹识别模型,得到第一模型和第二模型,所述第一模型与第二模型通过融合结构组合构建得到第三模型;
模型训练模块,被配置为采用第一fbank特征训练所述第三模型,得到第四模型,采用第三fbank特征训练所述第四模型,得到跨信道声纹识别模型。
9.一种跨信道声纹识别方法,其特征在于,采用根据权利要求1-7中任一项所述的跨信道声纹识别模型的训练方法训练得到的跨信道声纹识别模型,包括以下步骤:
T1,获取注册语音,将所述注册语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到所述注册语音对应的fbank特征,将所述注册语音对应的fbank特征输入所述跨信道声纹识别模型,得到第一特征向量;
T2,获取验证语音,将所述验证语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到所述验证语音对应的fbank特征,将所述验证语音对应的fbank特征输入所述跨信道声纹识别模型,得到第二特征向量;
T3,将所述第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据所述比对结果判断所述验证语音和所述注册语音是否属于同一人。
10.一种跨信道声纹识别装置,其特征在于,采用根据权利要求1-7中任一项所述的跨信道声纹识别模型的训练方法训练得到的跨信道声纹识别模型,包括:
注册模块,被配置为获取注册语音,将所述注册语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到所述注册语音对应的fbank特征,将所述注册语音对应的fbank特征输入所述跨信道声纹识别模型,得到第一特征向量;
验证模块,被配置为获取验证语音,将所述验证语音的采样率调整至预设频率,并采用改进的fbank特征提取算法提取得到所述验证语音对应的fbank特征,将所述验证语音对应的fbank特征输入所述跨信道声纹识别模型,得到第二特征向量;
比对模块,被配置为将所述第一特征向量和第二特征向量进行相似度比对,得到比对结果,根据所述比对结果判断所述验证语音和所述注册语音是否属于同一人。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN202310151115.XA 2023-02-22 2023-02-22 跨信道声纹识别模型的训练方法、声纹识别方法及装置 Pending CN116312559A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310151115.XA CN116312559A (zh) 2023-02-22 2023-02-22 跨信道声纹识别模型的训练方法、声纹识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310151115.XA CN116312559A (zh) 2023-02-22 2023-02-22 跨信道声纹识别模型的训练方法、声纹识别方法及装置

Publications (1)

Publication Number Publication Date
CN116312559A true CN116312559A (zh) 2023-06-23

Family

ID=86812433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310151115.XA Pending CN116312559A (zh) 2023-02-22 2023-02-22 跨信道声纹识别模型的训练方法、声纹识别方法及装置

Country Status (1)

Country Link
CN (1) CN116312559A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111933150A (zh) * 2020-07-20 2020-11-13 北京澎思科技有限公司 一种基于双向补偿机制的文本相关说话人识别方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111933150A (zh) * 2020-07-20 2020-11-13 北京澎思科技有限公司 一种基于双向补偿机制的文本相关说话人识别方法

Similar Documents

Publication Publication Date Title
CN108766440B (zh) 说话人分离模型训练方法、两说话人分离方法及相关设备
US20240021202A1 (en) Method and apparatus for recognizing voice, electronic device and medium
CN107623614A (zh) 用于推送信息的方法和装置
CN112949708A (zh) 情绪识别方法、装置、计算机设备和存储介质
CN112382300A (zh) 声纹鉴定方法、模型训练方法、装置、设备及存储介质
CN111091835A (zh) 模型训练的方法、声纹识别的方法、系统、设备及介质
CN113192528B (zh) 单通道增强语音的处理方法、装置及可读存储介质
CN112738338B (zh) 基于深度学习的电话识别方法、装置、设备及介质
CN110136726A (zh) 一种语音性别的估计方法、装置、系统及存储介质
CN112767927A (zh) 一种提取语音特征的方法、装置、终端及存储介质
CN114141237A (zh) 语音识别方法、装置、计算机设备和存储介质
CN116312559A (zh) 跨信道声纹识别模型的训练方法、声纹识别方法及装置
CN109545226B (zh) 一种语音识别方法、设备及计算机可读存储介质
CN116913304A (zh) 实时语音流降噪方法、装置、计算机设备及存储介质
WO2023030017A1 (zh) 音频数据处理方法、装置、设备以及介质
CN113035230B (zh) 认证模型的训练方法、装置及电子设备
CN114171032A (zh) 跨信道声纹模型训练方法、识别方法、装置及可读介质
CN115565548A (zh) 异常声音检测方法、装置、存储介质及电子设备
CN115547345A (zh) 声纹识别模型训练及相关识别方法、电子设备和存储介质
CN114333844A (zh) 声纹识别方法、装置、介质及设备
CN112562691B (zh) 一种声纹识别的方法、装置、计算机设备及存储介质
CN117037800A (zh) 声纹识别模型训练方法、声纹识别方法、装置及可读介质
CN113436633B (zh) 说话人识别方法、装置、计算机设备及存储介质
CN118098245A (zh) 声纹识别模型的训练方法、声纹识别方法及装置
CN111833897B (zh) 一种用于交互式教育的语音增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination