CN114171032A - 跨信道声纹模型训练方法、识别方法、装置及可读介质 - Google Patents

跨信道声纹模型训练方法、识别方法、装置及可读介质 Download PDF

Info

Publication number
CN114171032A
CN114171032A CN202111405114.0A CN202111405114A CN114171032A CN 114171032 A CN114171032 A CN 114171032A CN 202111405114 A CN202111405114 A CN 202111405114A CN 114171032 A CN114171032 A CN 114171032A
Authority
CN
China
Prior art keywords
channel
voiceprint
data set
recognition model
voiceprint recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111405114.0A
Other languages
English (en)
Inventor
叶林勇
肖龙源
李稀敏
叶志坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen Kuaishangtong Technology Co Ltd
Original Assignee
Xiamen Kuaishangtong Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen Kuaishangtong Technology Co Ltd filed Critical Xiamen Kuaishangtong Technology Co Ltd
Priority to CN202111405114.0A priority Critical patent/CN114171032A/zh
Publication of CN114171032A publication Critical patent/CN114171032A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开了一种跨信道声纹模型训练方法、识别方法、装置及可读介质,通过实验室采集到的不同信道的数据集分别作为注册数据集和验证数据集对声纹识别模型进行训练,再采用实际应用场景中采集到的不同信道的数据集对训练好的声纹识别模型进行微调,将来自不同信道的数据集输入微调训练好的声纹识别模型输出声纹特征,将不同信道对应的声纹特征做交叉比对并进行相似度计算,计算相似度分值的平均值和方差。在1:1声纹验证过程中,将不同信道的语音数据输入微调训练好的声纹识别模型提取声纹特征,对声纹特征进行相似度计算,并结合平均值和方差计算出最终相似度分值,根据最终相似度分值确认是否为同一个人。本发明可有效提升跨信道声纹识别准确率。

Description

跨信道声纹模型训练方法、识别方法、装置及可读介质
技术领域
本发明涉及声纹识别领域,具体涉及一种跨信道声纹模型训练方法、识别方法、装置及可读介质。
背景技术
每个人的声音都蕴涵着特有的生物特征,声纹识别是指利用说话人的声音来识别说话人的一种技术手段。声纹识别同指纹识别等技术一样具有高度的安全可靠性,可以应用在所有需要做身份识别的场合。如在刑侦、银行、证券、保险等金融领域。与传统的身份识别技术相比,声纹识别的优势在于,声纹提取过程简单、成本低、且具有唯一性、不易伪造和假冒。
在同信道声纹识别场景中,声纹识别准确率往往可以达到98%以上,等错率(EER,Equal Error Rate)也能达到0.01以下。在实际应用场景中,用户通过手机app(应用软件)注册声纹,再通过呼叫中心咨询业务。在此过程中,银行业务系统通过声纹识别来对用户身份进行认证以保障业务安全。这就涉及到,通过手机app网络信道采集的采样率为第一采样率的语音,而通过电话信道采集的采样率为第二采样率的语音,这两个语音的比对属于跨信道比对或者跨信道场景比对。现有技术水平,无论是实验室还是实际应用场景中,跨信道声纹识别准确率普遍不高。
发明内容
针对上述提到的跨信道声纹识别准确率低等问题。本申请的实施例的目的在于提出了一种跨信道声纹模型训练方法、识别方法、装置及可读介质,来解决以上背景技术部分提到的技术问题。
第一方面,本申请的实施例提供了一种跨信道声纹识别模型训练方法,包括以下步骤:
S1,获取分别从第一信道和第二信道采集到的第一数据集和第二数据集,将第一数据集所提取的声学特征作为注册数据集,将第二数据集所提取的声学特征作为验证数据集对声纹识别模型进行训练,得到第一声纹识别模型;
S2,在实际应用场景中获取分别从第一信道和第二信道采集到的第三数据集和第四数据集,将第三数据集所提取的声学特征作为注册数据集,将第四数据集所提取的声学特征作为验证数据集对第一声纹识别模型进行微调,得到第二声纹识别模型;
S3,在实际应用场景中获取分别从第一信道和第二信道采集到的N1个第五数据集和N2个第六数据集,将N1个第五数据集和N2个第六数据集所提取的声学特征输入第二声纹识别模型,得到N1个第一声纹特征和N2个第二声纹特征,将N1个第一声纹特征和N2个第二声纹特征进行交叉比对并计算其相似度,得到N1*N2个第一相似度分值;
S4,计算N1*N2个第一相似度分值的平均值和方差,将平均值和方差作为参数固化在第二声纹识别模型中,得到第三声纹识别模型。
在一些实施例中,声纹识别模型采用x-vector或者i-vector框架。
在一些实施例中,声学特征为经过标准化处理后提取的mfcc特征。
在一些实施例中,第一数据集、第三数据集和第五数据集的采样率为第一采样率,第二数据集、第四数据集和第六数据集的采样率为第二采样率。
在一些实施例中,标准化处理过程具体包括:
将采样率为第一采样率的数据降采样至采样率为第二采样率的数据;
去除所有数据集的中的静音段,保留有效语音;
对有效语音进行加噪处理;
通过语音转码对所有数据集进行数据扩增;
对扩增后的数据集提取mcff特征。
第二方面,本申请的实施例提供了一种跨信道声纹识别方法,包括采用第一方面的跨信道声纹识别模型训练方法训练得到的第三声纹识别模型,包括以下步骤:
获取分别从第一信道和第二信道采集到待识别的第一语音和第二语音;
将第一语音和第二语音所对应的声学特征分别输入第三声纹识别模型中得到第三声纹特征和第四声纹特征;
计算第三声纹特征和第四声纹特征的相似度,得到第二相似度分值,根据第二相似度分值结合平均值和方差计算得到最终相似度分值,基于最终相似度分值确定第一语音和第二语音对应的人是否为同一个人。
在一些实施例中,根据第二相似度分值结合平均值和方差计算得到最终相似度分值,具体包括:
根据以下公式计算最终相似度分值:
Figure BDA0003371986480000021
其中,Smean和σ2为N1*N2个第一相似度分值的平均值和方差,Sorigin为第二相似度分值,Sfinal为最终相似度分值。
在一些实施例中,基于最终相似度分值确定第一语音和第二语音对应的人是否为同一个人,具体包括:
判断最终相似度分值是否大于或等于设定阈值,若是,则确定第一语音和第二语音对应的人是同一个人,否则确定第一语音和第二语音对应的人不是同一个人。
第三方面,本申请的实施例提供了一种跨信道声纹识别模型训练装置,包括:
粗训练模块,被配置为获取分别从第一信道和第二信道采集到的第一数据集和第二数据集,将第一数据集所提取的声学特征作为注册数据集,将第二数据集所提取的声学特征作为验证数据集对声纹识别模型进行训练,得到第一声纹识别模型;
微调模块,被配置为在实际应用场景中获取分别从第一信道和第二信道采集到的第三数据集和第四数据集,将第三数据集所提取的声学特征作为注册数据集,将第四数据集所提取的声学特征作为验证数据集对第一声纹识别模型进行微调,得到第二声纹识别模型;
相似度计算模块,被配置为在实际应用场景中获取分别从第一信道和第二信道采集到的N1个第五数据集和N2个第六数据集,将N1个第五数据集和N2个第六数据集所提取的声学特征输入第二声纹识别模型,得到N1个第一声纹特征和N2个第二声纹特征,将N1个第一声纹特征和N2个第二声纹特征进行交叉比对并计算其相似度,得到N1*N2个第一相似度分值;
参数固化模块,被配置为计算N1*N2个第一相似度分值的平均值和方差,将平均值和方差作为参数固化在第二声纹识别模型中,得到第三声纹识别模型。
第四方面,本申请的实施例提供了一种跨信道声纹识别装置,包括采用第三方面的跨信道声纹识别模型训练装置训练得到的第三声纹识别模型,还包括:
语音获取模块,被配置为获取分别从第一信道和第二信道采集到待识别的第一语音和第二语音;
特征提取模块,被配置为将第一语音和第二语音所对应的声学特征分别输入第三声纹识别模型中得到第三声纹特征和第四声纹特征;
识别模块,被配置为计算第三声纹特征和第四声纹特征的相似度,得到第二相似度分值,根据第二相似度分值结合平均值和方差计算得到最终相似度分值,基于最终相似度分值确定第一语音和第二语音对应的人是否为同一个人。
第五方面,本申请的实施例提供了一种电子设备,包括一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第六方面,本申请的实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
相比于现有技术,本发明具有以下有益效果:
(1)本发明的跨信道声纹识别模型采用现有的x-vector或者i-vector框架训练得到,再部署到实际应用场景服务器中,兼容性好,且运行稳定。
(2)本发明的跨信道声纹识别方法能够有效提升跨信道声纹识别准确率。
(3)本发明的跨信道声纹识别方法可以适用于更多不同信道采集的语音数据的声纹比对,具有广泛的应用场景。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请的一个实施例可以应用于其中的示例性装置架构图;
图2为本发明的实施例的跨信道声纹识别模型训练方法的流程示意图;
图3为本发明的实施例的跨信道声纹识别方法的流程示意图;
图4为本发明的实施例的跨信道声纹识别训练装置的示意图;
图5为本发明的实施例的跨信道声纹识别装置的示意图;
图6是适于用来实现本申请实施例的电子设备的计算机装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1示出了可以应用本申请实施例的跨信道声纹模型训练、识别方法或跨信道声纹模型训练、识别装置的示例性装置架构100。
如图1所示,装置架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种应用,例如数据处理类应用、文件处理类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的文件或数据进行处理的后台数据处理服务器。后台数据处理服务器可以对获取的文件或数据进行处理,生成处理结果。
需要说明的是,本申请实施例所提供的跨信道声纹模型训练、识别方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,跨信道声纹模型训练、识别装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。在所处理的数据不需要从远程获取的情况下,上述装置架构可以不包括网络,而只需服务器或终端设备。
图2示出了本申请的实施例提供的一种跨信道声纹识别模型训练方法,包括以下步骤:
S101,获取分别从第一信道和第二信道采集到的第一数据集和第二数据集,将第一数据集所提取的声学特征作为注册数据集,将第二数据集所提取的声学特征作为验证数据集对声纹识别模型进行训练,得到第一声纹识别模型。
在具体的实施例中,第一数据集和第二数据集分别为实验室收集到的来自第一信道和第二信道的语音数据。第一数据集和第二数据集带有标签,即已知数据集中语音数据所对应的不同的人的身份。第一数据集的采样率为第一采样率,第二数据集的采样率为第二采样率。在其中一个的实施例中,第一信道为手机app网络信道,第一采样率为16kHz;第二信道为电话信道,第二采样率为8kHz。在其他可选的实施例中,也可以根据具体的场景获取来自不同信道的数据作为第一数据集和第二数据集。第一数据集和第二数据集分别经过标准化处理得到声学特征。
具体地,该声学特征为mcff特征,标准化处理过程具体如下:
A1,将采样率为第一采样率的数据降采样至采样率为第二采样率的数据;
A2,去除所有数据集的中的静音段,保留有效语音;
A3,对有效语音进行加噪处理;
A4,通过语音转码对所有数据集进行数据扩增;
A5,对扩增后的数据集提取mcff特征。
需要注意的是,标准化处理后提取的声学特征也可以是其他基于人耳听觉特性的、鲁棒性较好的语音特征参数。例如:谱包络参数语音特征、基音轮廓、共振峰频率带宽特征、线性预测系数、倒谱系数等。后续的其他数据集同样需要进行相同的标准化处理,提取出对应的声学特征。
在具体的实施例中,声纹识别模型采用x-vector或者i-vector框架。使用x-vector或者i-vector作为基础架构训练声纹识别模型,该声纹识别模型更容易部署在不同场景下的服务器中,方便与各个系统兼容。
S102,在实际应用场景中获取分别从第一信道和第二信道采集到的第三数据集和第四数据集,将第三数据集所提取的声学特征作为注册数据集,将第四数据集所提取的声学特征作为验证数据集对第一声纹识别模型进行微调,得到第二声纹识别模型。
在具体的实施例中,经过实验室准备的数据集训练得到的第一声纹识别模型与实际应用场景的适配度低,因此需要从实际应用场景中获取不同信道的第三数据集和第四数据集对第一声纹识别模型进行微调,以适应不同实际应用场景的需求。第三数据集和第四数据集带有标签,即已知数据集中语音数据所对应的不同的人的身份。第三数据集的采样率为第一采样率,第四数据集的采样率为第二采样率。在其中一个的实施例中,第一信道为手机app网络信道,第一采样率为16kHz;第二信道为电话信道,第二采样率为8kHz。在其他可选的实施例中,也可以根据具体的场景获取来自不同信道的数据作为第三数据集和第四数据集。并且第三数据集和第四数据集需要经过标准化处理过程提取声学特征,以获得注册数据集和验证数据集,对第一声纹识别模型进行微调,得到第二声纹识别模型。
S103,在实际应用场景中获取分别从第一信道和第二信道采集到的N1个第五数据集和N2个第六数据集,将N1个第五数据集和N2个第六数据集所提取的声学特征输入第二声纹识别模型,得到N1个第一声纹特征和N2个第二声纹特征,将N1个第一声纹特征和N2个第二声纹特征进行交叉比对并计算其相似度,得到N1*N2个第一相似度分值。
在具体的实施例中,将微调后得到的第二声学模型部署到实际应用场景服务器中,同时再另外采集N1个来自第一信道的第五数据集和N2个来自第二信道的第六数据集。第五数据集和第六数据集带有标签,即已知数据集中语音数据所对应的不同的人的身份。第五数据集的采样率为第一采样率,第六数据集的采样率为第二采样率。在其中一个的实施例中,第一信道为手机app网络信道,第一采样率为16kHz;第二信道为电话信道,第二采样率为8kHz。在其他可选的实施例中,也可以根据具体的场景获取来自不同信道的数据作为N1个第五数据集和N2个第六数据集。将N1个第五数据集和N2个第六数据集进行标准化处理提取声学特征,并同时输入第二声纹识别模型进一步提取N维声纹特征,分别为N1个第一声纹特征和N2个第二声纹特征,将N1个第一声纹特征和N2个第二声纹特征做交叉比对,并进行相似度计算。在其中一个实施例中,相似度采用余弦相似度。在其他实施例中,也可以采用欧几里德距离、皮尔逊相关系数、Tanimoto系数等相似度度量方式。在本申请的实施例中以余弦相似度为例,因此得到N1*N2个余弦相似度分值。比如相识度高的一个人两条语音的相似度分值为100分,相识度低的两个人两条语音的相似度分值为10分。
S104,计算N1*N2个第一相似度分值的平均值和方差,将平均值和方差作为参数固化在第二声纹识别模型中,得到第三声纹识别模型。
在具体的实施例中,采用以下公式计算N1*N2条相似度分值的平均值和方差:
Figure BDA0003371986480000071
Figure BDA0003371986480000072
其中,Smean为平均值,σ2为方差。将平均值和方差作为重要的参数固化到第二声纹识别模型中,得到第三声纹识别模型。
进一步地,在实际应用场景中,作1:1声纹验证时,本申请的实施例提供了一种跨信道声纹识别方法,包括采用上述跨信道声纹识别模型训练方法训练得到的第三声纹识别模型,如图3所示,包括以下步骤:
S201,获取分别从第一信道和第二信道采集到待识别的第一语音和第二语音;第一语音的采样率为第一采样率,第二语音的采样率为第二采样率。在其中一个的实施例中,第一信道为手机app网络信道,第一采样率为16kHz;第二信道为电话信道,第二采样率为8kHz。在其他可选的实施例中,也可以根据具体的场景获取来自不同信道的数据作为第一语音和第二语音。同样需要对第一语音和第二语音进行标准化处理,分别提取对应的声学特征。
S202,将第一语音和第二语音所对应的声学特征分别输入第三声纹识别模型中得到第三声纹特征和第四声纹特征;
S203,计算第三声纹特征和第四声纹特征的相似度,得到第二相似度分值,根据第二相似度分值结合平均值和方差计算得到最终相似度分值,基于最终相似度分值确定第一语音和第二语音对应的人是否为同一个人。
在具体的实施例中,根据第二相似度分值结合平均值和方差计算得到最终相似度分值,具体包括:
根据以下公式计算最终相似度分值:
Figure BDA0003371986480000081
其中,Smean和σ2为N1*N2个第一相似度分值的平均值和方差,Sorigin为第二相似度分值,Sfinal为最终相似度分值。
具体地,基于最终相似度分值确定第一语音和第二语音对应的人是否为同一个人,包括以下步骤:
判断最终相似度分值是否大于或等于设定阈值,若是,则确定第一语音和第二语音对应的人是同一个人,否则确定第一语音和第二语音对应的人不是同一个人。
在其中一个实施例中,最终相似度分值的范围在[0,1]之间,设定阈值为0.8,当最终相似度分值高于0.8认为是同一个人。设定阈值可根据实际应用场景的需求进行调整,在此不作限定。
将本申请的跨信道声纹识别模型训练方法训练得到的第三声纹识别模型作为实施例,以现有技术的跨信道处理的声纹识别模型作为对比例,将两者对同一组语音数据进行识别,其最终结果的准确率结果如下表所示:
Figure BDA0003371986480000091
进一步参考图4,作为对上述各图所示方法的实现,本申请提供了一种跨信道声纹识别模型训练装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
本申请实施例提供了一种跨信道声纹识别模型训练装置,包括:
粗训练模块11,被配置为获取分别从第一信道和第二信道采集到的第一数据集和第二数据集,将第一数据集所提取的声学特征作为注册数据集,将第二数据集所提取的声学特征作为验证数据集对声纹识别模型进行训练,得到第一声纹识别模型;
微调模块12,被配置为在实际应用场景中获取分别从第一信道和第二信道采集到的第三数据集和第四数据集,将第三数据集所提取的声学特征作为注册数据集,将第四数据集所提取的声学特征作为验证数据集对第一声纹识别模型进行微调,得到第二声纹识别模型;
相似度计算模块13,被配置为在实际应用场景中获取分别从第一信道和第二信道采集到的N1个第五数据集和N2个第六数据集,将N1个第五数据集和N2个第六数据集所提取的声学特征输入第二声纹识别模型,得到N1个第一声纹特征和N2个第二声纹特征,将N1个第一声纹特征和N2个第二声纹特征进行交叉比对并计算其相似度,得到N1*N2个第一相似度分值;
参数固化模块14,被配置为计算N1*N2个第一相似度分值的平均值和方差,将平均值和方差作为参数固化在第二声纹识别模型中,得到第三声纹识别模型。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种跨信道声纹识别装置的一个实施例,该装置实施例与图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
本申请实施例提供了一种跨信道声纹识别装置,包括采用第三方面的跨信道声纹识别模型训练装置训练得到的第三声纹识别模型,还包括:
语音获取模块21,被配置为获取分别从第一信道和第二信道采集到待识别的第一语音和第二语音,
特征提取模块22,被配置为将第一语音和第二语音所对应的声学特征分别输入第三声纹识别模型中得到第三声纹特征和第四声纹特征;
识别模块23,被配置为计算第三声纹特征和第四声纹特征的相似度,得到第二相似度分值,根据第二相似度分值结合平均值和方差计算得到最终相似度分值,基于最终相似度分值确定第一语音和第二语音对应的人是否为同一个人。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备(例如图1所示的服务器或终端设备)的计算机装置600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机装置600包括中央处理单元(CPU)601和图形处理器(GPU)602,其可以根据存储在只读存储器(ROM)603中的程序或者从存储部分609加载到随机访问存储器(RAM)604中的程序而执行各种适当的动作和处理。在RAM 604中,还存储有装置600操作所需的各种程序和数据。CPU 601、GPU602、ROM 603以及RAM 604通过总线605彼此相连。输入/输出(I/O)接口606也连接至总线605。
以下部件连接至I/O接口606:包括键盘、鼠标等的输入部分607;包括诸如、液晶显示器(LCD)等以及扬声器等的输出部分608;包括硬盘等的存储部分609;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分610。通信部分610经由诸如因特网的网络执行通信处理。驱动器611也可以根据需要连接至I/O接口606。可拆卸介质612,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器611上,以便于从其上读出的计算机程序根据需要被安装入存储部分609。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分610从网络上被下载和安装,和/或从可拆卸介质612被安装。在该计算机程序被中央处理单元(CPU)601和图形处理器(GPU)602执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的装置、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行装置、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行装置、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的装置来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取分别从第一信道和第二信道采集到的第一数据集和第二数据集,将第一数据集所提取的声学特征作为注册数据集,将第二数据集所提取的声学特征作为验证数据集对声纹识别模型进行训练,得到第一声纹识别模型;在实际应用场景中获取分别从第一信道和第二信道采集到的第三数据集和第四数据集,将第三数据集所提取的声学特征作为注册数据集,将第四数据集所提取的声学特征作为验证数据集对第一声纹识别模型进行微调,得到第二声纹识别模型;在实际应用场景中获取分别从第一信道和第二信道采集到的N1个第五数据集和N2个第六数据集,将N1个第五数据集和N2个第六数据集所提取的声学特征输入第二声纹识别模型,得到N1个第一声纹特征和N2个第二声纹特征,将N1个第一声纹特征和N2个第二声纹特征进行交叉比对并计算其相似度,得到N1*N2个第一相似度分值;计算N1*N2个第一相似度分值的平均值和方差,将平均值和方差作为参数固化在第二声纹识别模型中,得到第三声纹识别模型。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (12)

1.一种跨信道声纹识别模型训练方法,其特征在于,包括以下步骤:
S1,获取分别从第一信道和第二信道采集到的第一数据集和第二数据集,将所述第一数据集所提取的声学特征作为注册数据集,将所述第二数据集所提取的声学特征作为验证数据集对声纹识别模型进行训练,得到第一声纹识别模型;
S2,在实际应用场景中获取分别从所述第一信道和所述第二信道采集到的第三数据集和第四数据集,将所述第三数据集所提取的声学特征作为注册数据集,将所述第四数据集所提取的声学特征作为验证数据集对所述第一声纹识别模型进行微调,得到第二声纹识别模型;
S3,在实际应用场景中获取分别从所述第一信道和所述第二信道采集到的N1个第五数据集和N2个第六数据集,将所述N1个第五数据集和N2个第六数据集所提取的声学特征输入所述第二声纹识别模型,得到N1个第一声纹特征和N2个第二声纹特征,将所述N1个第一声纹特征和N2个第二声纹特征进行交叉比对并计算其相似度,得到N1*N2个第一相似度分值;
S4,计算所述N1*N2个第一相似度分值的平均值和方差,将所述平均值和方差作为参数固化在所述第二声纹识别模型中,得到第三声纹识别模型。
2.根据权利要求1所述的跨信道声纹识别模型训练方法,其特征在于,所述声纹识别模型采用x-vector或者i-vector框架。
3.根据权利要求1所述的跨信道声纹识别模型训练方法,其特征在于,所述声学特征为经过标准化处理后提取的mfcc特征。
4.根据权利要求3所述的跨信道声纹识别模型训练方法,其特征在于,所述第一数据集、第三数据集和第五数据集的采样率为第一采样率,所述第二数据集、第四数据集和第六数据集的采样率为第二采样率。
5.根据权利要求4所述的跨信道声纹识别模型训练方法,其特征在于,所述标准化处理过程具体包括:
将采样率为第一采样率的数据降采样至采样率为第二采样率的数据;
去除所有数据集的中的静音段,保留有效语音;
对所述有效语音进行加噪处理;
通过语音转码对所有数据集进行数据扩增;
对扩增后的数据集提取mcff特征。
6.一种跨信道声纹识别方法,其特征在于,包括采用权利要求1-5中任一项所述的跨信道声纹识别模型训练方法训练得到的第三声纹识别模型,包括以下步骤:
获取分别从所述第一信道和所述第二信道采集到待识别的第一语音和第二语音;
将所述第一语音和第二语音所对应的声学特征分别输入所述第三声纹识别模型中得到第三声纹特征和第四声纹特征;
计算所述第三声纹特征和第四声纹特征的相似度,得到第二相似度分值,根据所述第二相似度分值结合所述平均值和方差计算得到最终相似度分值,基于所述最终相似度分值确定所述第一语音和第二语音对应的人是否为同一个人。
7.根据权利要求6所述的跨信道声纹识别方法,其特征在于,所述根据所述第二相似度分值结合所述平均值和方差计算得到最终相似度分值,具体包括:
根据以下公式计算所述最终相似度分值:
Figure FDA0003371986470000021
其中,Smean和σ2为所述N1*N2个第一相似度分值的平均值和方差,Sorigin为所述第二相似度分值,Sfinal为最终相似度分值。
8.根据权利要求6所述的跨信道声纹识别方法,其特征在于,所述基于所述最终相似度分值确定所述第一语音和第二语音对应的人是否为同一个人,具体包括:
判断所述最终相似度分值是否大于或等于设定阈值,若是,则确定所述第一语音和第二语音对应的人是同一个人,否则确定所述第一语音和第二语音对应的人不是同一个人。
9.一种跨信道声纹识别模型训练装置,其特征在于,包括:
粗训练模块,被配置为获取分别从第一信道和第二信道采集到的第一数据集和第二数据集,将所述第一数据集所提取的声学特征作为注册数据集,将所述第二数据集所提取的声学特征作为验证数据集对声纹识别模型进行训练,得到第一声纹识别模型;
微调模块,被配置为在实际应用场景中获取分别从所述第一信道和所述第二信道采集到的第三数据集和第四数据集,将所述第三数据集所提取的声学特征作为注册数据集,将所述第四数据集所提取的声学特征作为验证数据集对所述第一声纹识别模型进行微调,得到第二声纹识别模型;
相似度计算模块,被配置为在实际应用场景中获取分别从所述第一信道和所述第二信道采集到的N1个第五数据集和N2个第六数据集,将所述N1个第五数据集和N2个第六数据集所提取的声学特征输入所述第二声纹识别模型,得到N1个第一声纹特征和N2个第二声纹特征,将所述N1个第一声纹特征和N2个第二声纹特征进行交叉比对并计算其相似度,得到N1*N2个第一相似度分值;
参数固化模块,被配置为计算所述N1*N2个第一相似度分值的平均值和方差,将所述平均值和方差作为参数固化在所述第二声纹识别模型中,得到第三声纹识别模型。
10.一种跨信道声纹识别装置,其特征在于,包括采用权利要求8所述的跨信道声纹识别模型训练装置训练得到的第三声纹识别模型,还包括:
语音获取模块,被配置为获取分别从所述第一信道和所述第二信道采集到待识别的第一语音和第二语音;
特征提取模块,被配置为将所述第一语音和第二语音所对应的声学特征分别输入所述第三声纹识别模型中得到第三声纹特征和第四声纹特征;
识别模块,被配置为计算所述第三声纹特征和第四声纹特征的相似度,得到第二相似度分值,根据所述第二相似度分值结合所述平均值和方差计算得到最终相似度分值,基于所述最终相似度分值确定所述第一语音和第二语音对应的人是否为同一个人。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
CN202111405114.0A 2021-11-24 2021-11-24 跨信道声纹模型训练方法、识别方法、装置及可读介质 Pending CN114171032A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111405114.0A CN114171032A (zh) 2021-11-24 2021-11-24 跨信道声纹模型训练方法、识别方法、装置及可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111405114.0A CN114171032A (zh) 2021-11-24 2021-11-24 跨信道声纹模型训练方法、识别方法、装置及可读介质

Publications (1)

Publication Number Publication Date
CN114171032A true CN114171032A (zh) 2022-03-11

Family

ID=80480392

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111405114.0A Pending CN114171032A (zh) 2021-11-24 2021-11-24 跨信道声纹模型训练方法、识别方法、装置及可读介质

Country Status (1)

Country Link
CN (1) CN114171032A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115472167A (zh) * 2022-08-17 2022-12-13 南京龙垣信息科技有限公司 基于大数据自监督的声纹识别模型训练方法、系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680600A (zh) * 2017-09-11 2018-02-09 平安科技(深圳)有限公司 声纹模型训练方法、语音识别方法、装置、设备及介质
CN110853653A (zh) * 2019-11-21 2020-02-28 中科智云科技有限公司 一种基于自注意力和迁移学习的声纹识别方法
CN111402899A (zh) * 2020-03-25 2020-07-10 中国工商银行股份有限公司 跨信道声纹识别方法及装置
US20210050020A1 (en) * 2018-10-10 2021-02-18 Tencent Technology (Shenzhen) Company Limited Voiceprint recognition method, model training method, and server

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680600A (zh) * 2017-09-11 2018-02-09 平安科技(深圳)有限公司 声纹模型训练方法、语音识别方法、装置、设备及介质
US20210050020A1 (en) * 2018-10-10 2021-02-18 Tencent Technology (Shenzhen) Company Limited Voiceprint recognition method, model training method, and server
CN110853653A (zh) * 2019-11-21 2020-02-28 中科智云科技有限公司 一种基于自注意力和迁移学习的声纹识别方法
CN111402899A (zh) * 2020-03-25 2020-07-10 中国工商银行股份有限公司 跨信道声纹识别方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115472167A (zh) * 2022-08-17 2022-12-13 南京龙垣信息科技有限公司 基于大数据自监督的声纹识别模型训练方法、系统

Similar Documents

Publication Publication Date Title
CN108766440B (zh) 说话人分离模型训练方法、两说话人分离方法及相关设备
US10629209B2 (en) Voiceprint recognition method, device, storage medium and background server
CN112562691B (zh) 一种声纹识别的方法、装置、计算机设备及存储介质
WO2021000408A1 (zh) 面试评分方法、装置、设备及存储介质
WO2021051572A1 (zh) 语音识别方法、装置以及计算机设备
WO2022141868A1 (zh) 一种提取语音特征的方法、装置、终端及存储介质
WO2021042537A1 (zh) 语音识别认证方法及系统
WO2020140609A1 (zh) 一种语音识别方法、设备及计算机可读存储介质
CN112382300A (zh) 声纹鉴定方法、模型训练方法、装置、设备及存储介质
CN110136726A (zh) 一种语音性别的估计方法、装置、系统及存储介质
Chakroun et al. Robust features for text-independent speaker recognition with short utterances
Biagetti et al. Speaker identification in noisy conditions using short sequences of speech frames
CN114171032A (zh) 跨信道声纹模型训练方法、识别方法、装置及可读介质
CN113921026A (zh) 语音增强方法和装置
CN116312559A (zh) 跨信道声纹识别模型的训练方法、声纹识别方法及装置
WO2018154372A1 (en) Sound identification utilizing periodic indications
WO2021051533A1 (zh) 基于地址信息的黑名单识别方法、装置、设备及存储介质
CN113782005B (zh) 语音识别方法及装置、存储介质及电子设备
CN114822558A (zh) 声纹识别方法、装置、电子设备及存储介质
CN114464197A (zh) 基于语音转换的声纹识别模型训练方法、装置及可读介质
US20220277761A1 (en) Impression estimation apparatus, learning apparatus, methods and programs for the same
CN113035230A (zh) 认证模型的训练方法、装置及电子设备
US11615800B2 (en) Speaker recognition method and system
Moreno-Rodriguez et al. Bimodal biometrics using EEG-voice fusion at score level based on hidden Markov models
CN117153185B (zh) 通话处理方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination