CN107610709A - 一种训练声纹识别模型的方法及系统 - Google Patents
一种训练声纹识别模型的方法及系统 Download PDFInfo
- Publication number
- CN107610709A CN107610709A CN201710648032.6A CN201710648032A CN107610709A CN 107610709 A CN107610709 A CN 107610709A CN 201710648032 A CN201710648032 A CN 201710648032A CN 107610709 A CN107610709 A CN 107610709A
- Authority
- CN
- China
- Prior art keywords
- training data
- voiceprint
- recognition model
- training
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 204
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000013528 artificial neural network Methods 0.000 claims abstract description 50
- 238000013526 transfer learning Methods 0.000 claims abstract description 16
- 239000013598 vector Substances 0.000 claims description 100
- 238000003860 storage Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 6
- 238000013508 migration Methods 0.000 claims description 3
- 230000005012 migration Effects 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 abstract description 13
- 230000001755 vocal effect Effects 0.000 abstract 2
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000007781 pre-processing Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Machine Translation (AREA)
Abstract
本申请提供一种训练声纹识别模型的方法及系统,所述方法包括,利用第一训练数据训练深度神经网络,生成第一声纹识别模型;利用第二训练数据对所述第一声纹识别模型进行迁移学习,生成第二声纹识别模型;所述第二声纹识别模型用于进行声纹注册或认证。能够避免现有技术中为了开发一个特征场景的声纹认证算法和产品,端到端的声纹认证算法往往需要录制大量的数据,才能保证算法的性能,而这需要花费大量的时间成本和经济成本的问题。可以充分利用全量训练数据,通过迁移学习,提高了针对特定数据的声纹识别和认证的性能。
Description
【技术领域】
本申请涉及人工智能领域,尤其涉及一种训练声纹模型的方法及系统。
【背景技术】
人工智能(Artificial Intelligence;AI),是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语音识别、图像识别、自然语言处理和专家系统等。
随着人工智能的不断发展,语音交互作为最自然的交互方式日益推广,人们对于语音识别服务的需求越来越多。根据用户在交互中的语音,验证或识别用户的身份信息,进行智能化地反应,可以大大提高用户的体验。
现在的端到端的语音识别技术需要使用针对性的训练语料,利用DNN/CNN/LSTMmodel来将声学特征直接映射为说话人特征表示。为了开发一个特征场景的声纹认证算法和产品,端到端的声纹认证算法往往需要录制大量的数据,才能保证算法的性能,而这需要花费大量的时间成本和经济成本。
【发明内容】
本申请的多个方面提供一种训练声纹模型的方法及系统,用以提高声纹认证的性能。
本申请的一方面,提供一种训练声纹模型的方法,其特征在于,包括:
利用第一训练数据训练深度神经网络,生成第一声纹识别模型;
利用第二训练数据对所述第一声纹识别模型进行迁移学习,生成第二声纹识别模型;所述第二声纹识别模型用于进行声纹注册或认证。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深度神经网络的输出层所包括的输出单元的数量依据第一训练数据的基本语音元素的数量确定。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述利用第一训练数据训练深度神经网络,生成第一声纹识别模型包括:
获取所述第一训练数据的声学特征向量;
将所述第一训练数据的声学特征向量作为输入,第一训练数据中的语音标识作为输出,对所述深度神经网络进行训练,得到第一声纹识别模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述利用第二训练数据对所述第一声纹识别模型进行迁移学习,生成第二声纹识别模型包括:
对所述第一声纹识别模型进行微调;
获取所述第二训练数据的声学特征向量;
将所述第二训练数据的声学特征向量作为输入,第二训练数据中的语音标识作为输出,对微调后的第一声纹识别模型进行训练,得到第二声纹识别模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对第一声纹识别模型进行微调包括:
对输出层进行替换,以使得输出层所包括的输出单元的数量与第二训练数据的基本语音元素的数量相适应;
调低隐层的学习率。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第一训练数据包括中文训练数据,所述第二训练数据包括英语训练数据;或者,
所述第一训练数据包括中文训练数据,所述第二训练数据包括数字串训练数据。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述进行声纹注册包括:
接收用户发送的声纹注册请求,
根据第二声纹识别模型获取声纹注册请求中语音的后验概率;
根据所述后验概率,提取语音的特征向量;
根据所述特征向量获取所述用户的声纹注册模型;
将用户标识与所述声纹注册模型对应存储到声纹注册数据库。。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述进行声纹认证包括:
获取待识别语音,根据第二声纹识别模型获取所述待识别语音的后验概率;
根据所述后验概率,提取所述待识别语音的特征向量;
利用所述待识别语音的特征向量在声纹注册数据库中进行匹配,确定匹配得到的声纹注册模型对应的用户标识。
本申请的另一方面,提供一种训练声纹模型的系统,其特征在于,包括:
模型预训练单元,用于利用第一训练数据训练深度神经网络,生成第一声纹识别模型;
迁移学习单元,用于利用第二训练数据对所述第一声纹识别模型进行迁移学习,生成第二声纹识别模型;所述第二声纹识别模型用于进行声纹注册或认证。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深度神经网络的输出层所包括的输出单元的数量依据第一训练数据的基本语音元素的数量确定。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述模型预训练单元包括:
声学特征获取子单元,用于获取所述第一训练数据的声学特征向量;
训练子单元,用于将所述第一训练数据的声学特征向量作为输入,第一训练数据中的语音标识作为输出,对所述深度神经网络进行训练,得到第一声纹识别模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述迁移学习单元包括:
微调子单元,用于对所述第一声纹识别模型进行微调;
第二特征获取子单元,用于获取所述第二训练数据的声学特征向量;
第二训练子单元,用于将所述第二训练数据的声学特征向量作为输入,第二训练数据中的语音标识作为输出,对微调后的第一声纹识别模型进行训练,得到第二声纹识别模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对第一声纹识别模型进行微调包括:
对输出层进行替换,以使得输出层所包括的输出单元的数量与第二训练数据的基本语音元素的数量相适应;
调低隐层的学习率。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第一训练数据包括中文训练数据,所述第二训练数据包括英语训练数据;或者,
所述第一训练数据包括中文训练数据,所述第二训练数据包括数字串训练数据。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,还所述系统还包括声纹注册单元,具体用于:
接收用户发送的声纹注册请求,
根据第二声纹识别模型获取声纹注册请求中语音的后验概率;
根据所述后验概率,提取语音的特征向量;
根据所述特征向量获取所述用户的声纹注册模型;
将用户标识与所述声纹注册模型对应存储到声纹注册数据库。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述系统还包括声纹认证单元,具体用于;
获取待识别语音,根据第二声纹识别模型获取所述待识别语音的后验概率;
根据所述后验概率,提取所述待识别语音的特征向量;
利用所述待识别语音的特征向量在声纹注册数据库中进行匹配,确定匹配得到的声纹注册模型对应的用户标识。
本申请的另一方面,提供一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现任一上述的方法。
本申请的另一方面,提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现任一上述的方法。
由所述技术方案可知,本申请实施例通过。采用本实施例提供的技术方案,能够避免现有技术中为了开发一个特征场景的声纹认证算法和产品,端到端的声纹认证算法往往需要录制大量的数据,才能保证算法的性能,而这需要花费大量的时间成本和经济成本的问题。可以充分利用现有全量训练数据,通过迁移学习,提高了针对特定数据的声纹识别和认证的性能。
【附图说明】
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的训练声纹模型的方法的流程示意图;
图2为本申请一实施例提供的训练声纹模型的方法中利用第一训练数据训练深度神经网络,生成第一声纹识别模型的流程示意图;
图3为本申请一实施例提供的训练声纹模型的方法中利用第二训练数据更新所述第一声纹识别模型,生成第二声纹识别模型的流程示意图;
图4为本申请另一实施例提供的训练声纹模型的系统的结构示意图;
图5为本申请另一实施例提供的训练声纹模型的系统中第一声纹识别模型训练单元的结构示意图;
图6为本申请另一实施例提供的训练声纹模型的系统中第二声纹识别模型训练单元的结构示意图;
图7为适于用来实现本发明实施例的示例性计算机系统/服务器的框图。
【具体实施方式】
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本申请保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本申请一实施例提供的训练声纹模型的方法的流程图,如图1所示,包括以下步骤:
101、利用第一训练数据训练深度神经网络,生成第一声纹识别模型;
102、利用第二训练数据更新所述第一声纹识别模型,生成第二声纹识别模型;所述第二声纹识别模型用于进行声纹注册或认证。
图2为本发明训练声纹模型的方法中所述利用第一训练数据训练深度神经网络,生成第一声纹识别模型的流程图,如图2所示,所述利用第一训练数据训练深度神经网络,生成第一声纹识别模型可以包括:
201,获取所述第一训练数据的声学特征向量。
在本实施例的一种实施方式中,所述第一训练数据为全量中文训练数据,例如,不同来源的大数据,包括:使用手机客户端的用户数据,大约50万用户的语音数据,每人大约50条;其它产品线的用户数据,大约10万用户的语音数据,每人大约30条。需要指出的是,所述第一训练数据可以包括语音标识,所述语音标识可以用于标识基本语音元素,上述语音标识可以以各种形式表示,如字母、数字、符号、文字等等。
所述声学特征向量是对所述中文训练数据进行预处理和特征提取后获得的包括语音特征的数据集。
对所述中文训练数据的预处理包括对所述中文训练数据的采样量化、预加重、加窗分帧、以及端点检测。经过预处理后,所述中文训练数据的高频分辨率被提高,所述中文训练数据变得更加平滑,方便了所述中文训练数据的后续处理。
利用各种声学特征提取方法从所述混合语音训练数据中提取特征向量。
在本实施例的一些可选的实现方式中,可以基于梅尔频率倒谱系数MFCC从上述目标语音信号中提取特征向量。具体的,可以首先利用离散傅氏变换的快速算法对上述目标语音信号进行从时域至频域的转换,得到能量频率;之后,可以利用三角带通滤波方法,依照梅尔刻度分布,将上述目标语音信号的能量频谱进行卷积计算,得到多个输出对数能量,最后对上述多个输出对数能量构成的向量进行离散余弦变换,生成特征向量。
在本实施例的一些可选的实现方式中,还可以利用线性预测编码方法,通过对上述目标语音信号进行解析,生成声道激励和转移函数的参数,并以所生成的参数作为特征参数,生成特征向量。
202、将声学特征向量作为输入,语音训练数据中的语音标识作为输出,生成第一声纹识别模型;称为basic model。
所述深度神经网络包括一个输入层,多个隐层,以及一个输出层。所述输入层用于根据输入所述深度神经网络的声学特征向量计算输入至最底层的隐层单元的输出值。所述隐层用于根据本层的加权值对来自下一层隐层的输入值进行加权求和,计算向上一层隐层输出的输出值。所述输出层用于根据本层的加权值对来自最上层的隐层单元的输出值进行加权求和,并根据所述加权求和的结果计算输出概率。所述输出概率是所述输出单元输出的,表示输入的声学特征向量是所述输出单元对应的基本语音元素语音标识的后验概率。
所述输入层包括多个输入单元,所述输入单元用于根据输入的声学特征向量计算输出至最底层的隐层的输出值。将所述声学特征向量输入至所述输入单元后,所述输入单元根据自身的加权值利用输入至所述输入单元的声学特征向量计算向最底层的隐层输出的输出值。
所述多个隐层,其中,每个隐层包括多个隐层单元。所述隐层单元接收来自于下一层隐层中的隐层单元的输入值,根据本层的加权值对来自于下一层隐层中的隐层单元的输入值进行加权求和,并将加权求和的结果作为输出至上一层隐层的隐层单元的输出值。
所述输出层包括多个输出单元,所述输出单元接收来自于最上层隐层中的隐层单元的输入值,根据本层的加权值对来自于最上层隐层中的隐层单元的输入值进行加权求和,再根据加权求和的结果利用softmax函数计算输出概率。所述输出概率表示输入声学模型的声学特征向量属于所述输出单元所对应的语音标识的后验概率。
其中,所述输出层所包括的输出单元的数量依据与中文所包括的基本语音元素的个数确定。中文是音素为最小单元,通过将音素聚类,得到基本语音元素的个数,即输出单元数量。
在根据不同的输出单元的输出概率判断所述声学特征向量是哪个语音标识所代表的基本语音元素后,经过其他附加模块的处理,可以输出所述声学特征向量对应的文本数据。
在确定了所述声学模型的结构,即所述深度神经网络的结构以后,需要确定所述深度神经网络的参数,包括所述输入层的加权值、所述多个隐层的加权值、以及所述输出层的加权值。也就是说,需要对所述深度神经网络进行训练。
在本实施例的一种实施方式中,当利用第一训练数据训练深度神经网络时,将第一训练数据的声学特征向量从所述深度神经网络的输入层输入至所述深度神经网络,得到所述深度神经网络的输出概率,计算所述输出概率与所述期望输出概率之间的误差,并根据所述深度神经网络的输出概率与所述期望输出概率之间的误差调整所述深度神经网络的参数。
在本实施例的一个优选实施方式中,采用最速下降算法作为利用所述输出概率与所述期望输出概率之间的误差调整所述深度神经网络的参数。
利用第一训练数据对所述深度神经网络进行训练后,由于所述深度神经网络的参数经过了根据期望输出概率的调整,得到了第一声纹识别模型,即basic model。所述第一声纹模型具有对中文声学特征向量进行识别的特性。但是,不同语种具有不同的语音特征。因此,需要针对第二训练数据的声学特征向量对所述深度神经网络进行更新,即fine-tuning。
图3为本发明训练声纹模型的方法中所述利用第二训练数据更新所述第一声纹识别模型,生成第二声纹识别模型的流程图,如图3所示,所述利用第二训练数据更新所述第一声纹识别模型,生成第二声纹识别模型可以包括:
301、对所述第一声纹识别模型进行微调,例如,
根据所述第二训练数据的特点,对第一声纹识别模型的输出层进行替换,以使得输出层所包括的输出单元的数量与第二训练数据的基本语音元素的数量相适应;
在本实施例的一种优选实施方式中,可以调低隐层的学习率。
在本实施例的一种实施方式中,所述第二训练数据为特定识别场景的训练数据,例如英文数据,文本相关数据,或数字串相关数据,其数据量较小。
302、获取所述第二训练数据的声学特征向量;
对所述第二训练数据进行预处理,获取所述第二训练数据的声学特征向量;
303、将所述第二训练数据的声学特征向量作为输入,第二训练数据中的语音标识作为输出,对微调后的第一声纹识别模型进行训练,得到第二声纹识别模型。
根据本发明实施例的一种实施方式,所述进行声纹注册包括:
S1,接收用户发送的声纹注册请求,
例如,所述声纹注册请求包括用户标识和以英文、文本或数字串相关语音的形式提供的语音。
S2,根据第二声纹识别模型获取声纹注册请求中语音对应的后验概率。
S3,根据所述后验概率,提取语音的特征向量。
例如,根据统一背景模型对每个后验概率进行归一化处理,应用特征向量提取模型根据所述归一化的后验概率,提取语音的特征向量。
S4,根据所述特征向量获取所述用户的声纹注册模型,所述声纹注册模型用于进行用户声纹识别。
S5,将用户标识与所述声纹注册模型对应存储到声纹注册数据库,以便后续根据该声纹注册模型进行声纹识别。
根据本发明实施例的一种实施方式,所述进行声纹认证包括:
S1,获取待识别的语音,根据第二声纹识别模型获取所述语音对应的后验概率。
S2,根据所述后验概率,提取所述语音的特征向量。
例如,将该语音的后验概率发送给统一背景模型。统一背景模型对后验概率进行归一化处理,应用特征向量提取模型根据该语音以及对应的归一化的后验概率,提取该语音的特征向量。
S3,利用所述待识别语音的特征向量在声纹注册数据库中进行匹配,确定匹配得到的声纹注册模型对应的用户标识。
例如,将该特征向量发送给概率线性判别分析模型,概率线性判别分析模型比较该待识别语音的特征向量和声纹注册数据库中声预先存储的声纹注册模型的相似度;根据相似度结果和预设的阈值的大小确定匹配得到的特征向量对应的用户标识。
本实施例提供的声纹认证方法利用已有的大规模全量训练数据进行声纹模型训练,并迁移到小规模特定训练数据上。采用迁移学习获得的模型的声纹识别和认证性能优于只使用特定数据训练的模型的性能。并且节省了大量的时间成本和经济成本。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在所述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图4为本申请一实施例提供的训练声纹模型的系统的结构图,如图4所示,包括:
模型预训练单元41,用于利用第一训练数据训练深度神经网络,生成第一声纹识别模型;
迁移学习单元42,用于利用第二训练数据对所述第一声纹识别模型进行迁移学习,生成第二声纹识别模型;所述第二声纹识别模型用于进行声纹注册或认证。
图5为本发明训练声纹模型的系统中所述模型预训练单元的结构图,如图5所示,所述模型预训练单元包括:
声学特征获取子单元51,用于获取所述第一训练数据的声学特征向量。
在本实施例的一种实施方式中,所述第一训练数据为全量中文训练数据,例如,不同来源的大数据,包括:使用手机客户端的用户数据,大约50万用户的语音数据,每人大约50条;其它产品线的用户数据,大约10万用户的语音数据,每人大约30条。需要指出的是,所述第一训练数据可以包括语音标识,所述语音标识可以用于标识基本语音元素,上述语音标识可以以各种形式表示,如字母、数字、符号、文字等等。
所述声学特征向量是对所述中文训练数据进行预处理和特征提取后获得的包括语音特征的数据集。
对所述中文训练数据的预处理包括对所述中文训练数据的采样量化、预加重、加窗分帧、以及端点检测。经过预处理后,所述中文训练数据的高频分辨率被提高,所述中文训练数据变得更加平滑,方便了所述中文训练数据的后续处理。
利用各种声学特征提取方法从所述混合语音训练数据中提取特征向量。
在本实施例的一些可选的实现方式中,可以基于梅尔频率倒谱系数MFCC从上述目标语音信号中提取特征向量。具体的,可以首先利用离散傅氏变换的快速算法对上述目标语音信号进行从时域至频域的转换,得到能量频率;之后,可以利用三角带通滤波方法,依照梅尔刻度分布,将上述目标语音信号的能量频谱进行卷积计算,得到多个输出对数能量,最后对上述多个输出对数能量构成的向量进行离散余弦变换,生成特征向量。
在本实施例的一些可选的实现方式中,还可以利用线性预测编码方法,通过对上述目标语音信号进行解析,生成声道激励和转移函数的参数,并以所生成的参数作为特征参数,生成特征向量。
训练子单元52,用于将声学特征向量作为输入,语音训练数据中的语音标识作为输出,生成第一声纹识别模型;称为basic model。
所述深度神经网络包括一个输入层,多个隐层,以及一个输出层。所述输入层用于根据输入所述深度神经网络的声学特征向量计算输入至最底层的隐层单元的输出值。所述隐层用于根据本层的加权值对来自下一层隐层的输入值进行加权求和,计算向上一层隐层输出的输出值。所述输出层用于根据本层的加权值对来自最上层的隐层单元的输出值进行加权求和,并根据所述加权求和的结果计算输出概率。所述输出概率是所述输出单元输出的,表示输入的声学特征向量是所述输出单元对应的基本语音元素语音标识的后验概率。
所述输入层包括多个输入单元,所述输入单元用于根据输入的声学特征向量计算输出至最底层的隐层的输出值。将所述声学特征向量输入至所述输入单元后,所述输入单元根据自身的加权值利用输入至所述输入单元的声学特征向量计算向最底层的隐层输出的输出值。
所述多个隐层,其中,每个隐层包括多个隐层单元。所述隐层单元接收来自于下一层隐层中的隐层单元的输入值,根据本层的加权值对来自于下一层隐层中的隐层单元的输入值进行加权求和,并将加权求和的结果作为输出至上一层隐层的隐层单元的输出值。
所述输出层包括多个输出单元,所述输出单元接收来自于最上层隐层中的隐层单元的输入值,根据本层的加权值对来自于最上层隐层中的隐层单元的输入值进行加权求和,再根据加权求和的结果利用softmax函数计算输出概率。所述输出概率表示输入声学模型的声学特征向量属于所述输出单元所对应的语音标识的后验概率。
其中,所述输出层所包括的输出单元的数量依据与中文所包括的基本语音元素的个数确定。中文是音素为最小单元,通过将音素聚类,得到基本语音元素的个数,即输出单元数量。
在根据不同的输出单元的输出概率判断所述声学特征向量是哪个语音标识所代表的基本语音元素后,经过其他附加模块的处理,可以输出所述声学特征向量对应的文本数据。
在确定了所述声学模型的结构,即所述深度神经网络的结构以后,需要确定所述深度神经网络的参数,包括所述输入层的加权值、所述多个隐层的加权值、以及所述输出层的加权值。也就是说,需要对所述深度神经网络进行训练。
在本实施例的一种实施方式中,当利用第一训练数据训练深度神经网络时,将第一训练数据的声学特征向量从所述深度神经网络的输入层输入至所述深度神经网络,得到所述深度神经网络的输出概率,计算所述输出概率与所述期望输出概率之间的误差,并根据所述深度神经网络的输出概率与所述期望输出概率之间的误差调整所述深度神经网络的参数。
在本实施例的一个优选实施方式中,采用最速下降算法作为利用所述输出概率与所述期望输出概率之间的误差调整所述深度神经网络的参数。
利用第一训练数据对所述深度神经网络进行训练后,由于所述深度神经网络的参数经过了根据期望输出概率的调整,得到了第一声纹识别模型,即basic model。所述第一声纹模型具有对中文声学特征向量进行识别的特性。但是,不同语种具有不同的语音特征。因此,需要针对第二训练数据的声学特征向量对所述深度神经网络进行更新,即fine-tuning。
图6为本发明训练声纹模型的系统中所述迁移学习单元的结构图,如图6所示,所述迁移学习单元可以包括:
微调子单元61,用于对所述第一声纹识别模型进行微调;例如,
根据所述第二训练数据的特点,对第一声纹识别模型的输出层进行替换,以使得输出层所包括的输出单元的数量与第二训练数据的基本语音元素的数量相适应;
在本实施例的一种优选实施方式中,可以调低隐层的学习率。
在本实施例的一种实施方式中,所述第二训练数据为特定识别场景的训练数据,例如英文数据,文本相关数据,或数字串相关数据,其数据量较小。
第二特征获取子单元62,用于获取所述第二训练数据的声学特征向量;
对所述第二训练数据进行预处理,获取所述第二训练数据的声学特征向量;
第二训练子单元63,用于将所述第二训练数据的声学特征向量作为输入,第二训练数据中的语音标识作为输出,对微调后的第一声纹识别模型进行训练,得到第二声纹识别模型。
本申请另一个实施例的训练声纹模型的系统还包括声纹注册单元,具体用于:
接收用户发送的声纹注册请求,
例如,所述声纹注册请求包括用户标识和以英文、文本或数字串相关语音的形式提供的语音。
根据第二声纹识别模型获取声纹注册请求中语音对应的后验概率。
根据所述后验概率,提取语音的特征向量,例如,根据统一背景模型和特征向量提取模型,提取语音的特征向量。根据统一背景模型对每个后验概率进行归一化处理,应用特征向量提取模型根据所述归一化的后验概率,提取语音的特征向量。
根据所述特征向量获取所述用户的声纹注册模型,所述声纹注册模型用于进行用户声纹识别。
将用户标识与所述声纹注册模型对应存储到声纹注册数据库。以便后续根据该声纹注册模型进行声纹识别。
本申请另一个实施例的训练声纹模型的系统还包括声纹认证单元,具体用于;
获取用户发送的用于声纹识别的语音,根据第二声纹识别模型获取所述语音对应的后验概率。
根据所述后验概率,提取所述语音的特征向量。例如,将该语音的后验概率发送给统一背景模型。统一背景模型对后验概率进行归一化处理,应用特征向量提取模型根据所述归一化的后验概率,提取该语音的特征向量。
利用所述待识别语音的特征向量在声纹注册数据库中进行匹配,确定匹配得到的特征向量对应的用户标识。例如,将该特征向量发送给概率线性判别分析模型,概率线性判别分析模型比较该待识别语音的特征向量和声纹注册数据库中声预先存储的声纹注册模型的相似度;根据相似度结果和预设的阈值的大小确定匹配得到的声纹注册模型对应的用户标识。
本实施例提供的声纹认证系统利用已有的大规模全量训练数据进行声纹模型训练,并迁移到小规模特定训练数据上。采用迁移学习获得的模型的声纹识别和认证性能优于只使用特定数据训练的模型的性能。并且节省了大量的时间成本和经济成本。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
图7示出了适于用来实现本发明实施方式的示例性计算机系统/服务器012的框图。图7显示的计算机系统/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统/服务器012以通用计算设备的形式表现。计算机系统/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理单元016,系统存储器028,连接不同系统组件(包括系统存储器028和处理单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器028可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机系统/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统034可以用于读写不可移动的、非易失性磁介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机系统/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机系统/服务器012交互的设备通信,和/或与使得该计算机系统/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机系统/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图7所示,网络适配器020通过总线018与计算机系统/服务器012的其它模块通信。应当明白,尽管图7中未示出,可以结合计算机系统/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元016通过运行存储在系统存储器028中的程序,从而执行本发明所描述的实施例中的功能和/或方法。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (18)
1.一种训练声纹模型的方法,其特征在于,包括:
利用第一训练数据训练深度神经网络,生成第一声纹识别模型;
利用第二训练数据对所述第一声纹识别模型进行迁移学习,生成第二声纹识别模型;所述第二声纹识别模型用于进行声纹注册或认证。
2.根据权利要求1所述的方法,其特征在于,所述深度神经网络的输出层所包括的输出单元的数量依据第一训练数据的基本语音元素的数量确定。
3.根据权利要求2所述的方法,其特征在于,所述利用第一训练数据训练深度神经网络,生成第一声纹识别模型包括:
获取所述第一训练数据的声学特征向量;
将所述第一训练数据的声学特征向量作为输入,第一训练数据中的语音标识作为输出,对所述深度神经网络进行训练,得到第一声纹识别模型。
4.根据权利要求1所述的方法,其特征在于,所述利用第二训练数据对所述第一声纹识别模型进行迁移学习,生成第二声纹识别模型包括:
对所述第一声纹识别模型进行微调;
获取所述第二训练数据的声学特征向量;
将所述第二训练数据的声学特征向量作为输入,第二训练数据中的语音标识作为输出,对微调后的第一声纹识别模型进行训练,得到第二声纹识别模型。
5.根据权利要求4所述的方法,其特征在于,所述对第一声纹识别模型进行微调包括:
对输出层进行替换,以使得输出层所包括的输出单元的数量与第二训练数据的基本语音元素的数量相适应;
调低隐层的学习率。
6.根据权利要求1所述的方法,其特征在于,所述第一训练数据包括中文训练数据,所述第二训练数据包括英语训练数据;或者,
所述第一训练数据包括中文训练数据,所述第二训练数据包括数字串训练数据。
7.根据权利要求1所述的方法,其特征在于,所述进行声纹注册包括:
接收用户发送的声纹注册请求,
根据第二声纹识别模型获取声纹注册请求中语音的后验概率;
根据所述后验概率,提取语音的特征向量;
根据所述特征向量获取所述用户的声纹注册模型;
将用户标识与所述声纹注册模型对应存储到声纹注册数据库。
8.根据权利要求1所述的方法,其特征在于,所述进行声纹认证包括:
获取待识别语音,根据第二声纹识别模型获取所述待识别语音的后验概率;
根据所述后验概率,提取所述待识别语音的特征向量;
利用所述待识别语音的特征向量在声纹注册数据库中进行匹配,确定匹配得到的声纹注册模型对应的用户标识。
9.一种训练声纹识别模型的系统,其特征在于,包括:
模型预训练单元,用于利用第一训练数据训练深度神经网络,生成第一声纹识别模型;
迁移学习单元,用于利用第二训练数据对所述第一声纹识别模型进行迁移学习,生成第二声纹识别模型;所述第二声纹识别模型用于进行声纹注册或认证。
10.根据权利要求9所述的系统,其特征在于,所述深度神经网络的输出层所包括的输出单元的数量依据第一训练数据的基本语音元素的数量确定。
11.根据权利要求10所述的系统,其特征在于,所述模型预训练单元包括:
声学特征获取子单元,用于获取所述第一训练数据的声学特征向量;
训练子单元,用于将所述第一训练数据的声学特征向量作为输入,第一训练数据中的语音标识作为输出,对所述深度神经网络进行训练,得到第一声纹识别模型。
12.根据权利要求9所述的系统,其特征在于,所述迁移学习单元包括:
微调子单元,用于对所述第一声纹识别模型进行微调;
第二特征获取子单元,用于获取所述第二训练数据的声学特征向量;
第二训练子单元,用于将所述第二训练数据的声学特征向量作为输入,第二训练数据中的语音标识作为输出,对微调后的第一声纹识别模型进行训练,得到第二声纹识别模型。
13.根据权利要求12所述的系统,其特征在于,所述对第一声纹识别模型进行微调包括:
对输出层进行替换,以使得输出层所包括的输出单元的数量与第二训练数据的基本语音元素的数量相适应;
调低隐层的学习率。
14.根据权利要求9所述的系统,其特征在于,所述第一训练数据包括中文训练数据,所述第二训练数据包括英语训练数据;或者,
所述第一训练数据包括中文训练数据,所述第二训练数据包括数字串训练数据。
15.根据权利要求9所述的系统,其特征在于,所述系统还包括声纹注册单元,具体用于:
接收用户发送的声纹注册请求,
根据第二声纹识别模型获取声纹注册请求中语音的后验概率;
根据所述后验概率,提取语音的特征向量;
根据所述特征向量获取所述用户的声纹注册模型;
将用户标识与所述声纹注册模型对应存储到声纹注册数据库。
16.根据权利要求9所述的系统,其特征在于,所述系统还包括声纹认证单元,具体用于;
获取待识别语音,根据第二声纹识别模型获取所述待识别语音的后验概率;
根据所述后验概率,提取所述待识别语音的特征向量;
利用所述待识别语音的特征向量在声纹注册数据库中进行匹配,确定匹配得到的声纹注册模型对应的用户标识。
17.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710648032.6A CN107610709B (zh) | 2017-08-01 | 2017-08-01 | 一种训练声纹识别模型的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710648032.6A CN107610709B (zh) | 2017-08-01 | 2017-08-01 | 一种训练声纹识别模型的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107610709A true CN107610709A (zh) | 2018-01-19 |
CN107610709B CN107610709B (zh) | 2021-03-19 |
Family
ID=61064009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710648032.6A Active CN107610709B (zh) | 2017-08-01 | 2017-08-01 | 一种训练声纹识别模型的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107610709B (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108417228A (zh) * | 2018-02-02 | 2018-08-17 | 福州大学 | 乐器音色迁移下的人声音色相似性度量方法 |
CN108492830A (zh) * | 2018-03-28 | 2018-09-04 | 深圳市声扬科技有限公司 | 声纹识别方法、装置、计算机设备和存储介质 |
CN108766445A (zh) * | 2018-05-30 | 2018-11-06 | 苏州思必驰信息科技有限公司 | 声纹识别方法及系统 |
CN108766444A (zh) * | 2018-04-09 | 2018-11-06 | 平安科技(深圳)有限公司 | 用户身份验证方法、服务器及存储介质 |
CN108989341A (zh) * | 2018-08-21 | 2018-12-11 | 平安科技(深圳)有限公司 | 语音自主注册方法、装置、计算机设备及存储介质 |
CN109165725A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
CN109243467A (zh) * | 2018-11-14 | 2019-01-18 | 龙马智声(珠海)科技有限公司 | 声纹模型构建方法、声纹识别方法及系统 |
CN109410956A (zh) * | 2018-12-24 | 2019-03-01 | 科大讯飞股份有限公司 | 一种音频数据的对象识别方法、装置、设备及存储介质 |
CN109448732A (zh) * | 2018-12-27 | 2019-03-08 | 科大讯飞股份有限公司 | 一种数字串语音处理方法及装置 |
CN109616105A (zh) * | 2018-11-30 | 2019-04-12 | 江苏网进科技股份有限公司 | 一种基于迁移学习的带噪语音识别方法 |
CN109683938A (zh) * | 2018-12-26 | 2019-04-26 | 苏州思必驰信息科技有限公司 | 用于移动终端的声纹模型升级方法和装置 |
CN110660399A (zh) * | 2019-11-11 | 2020-01-07 | 广州国音智能科技有限公司 | 声纹识别的训练方法、装置、终端及计算机存储介质 |
CN110853653A (zh) * | 2019-11-21 | 2020-02-28 | 中科智云科技有限公司 | 一种基于自注意力和迁移学习的声纹识别方法 |
CN111341322A (zh) * | 2020-04-15 | 2020-06-26 | 厦门快商通科技股份有限公司 | 一种声纹模型训练方法和装置以及设备 |
CN111462760A (zh) * | 2019-01-21 | 2020-07-28 | 阿里巴巴集团控股有限公司 | 声纹识别系统、方法、装置及电子设备 |
CN111833852A (zh) * | 2020-06-30 | 2020-10-27 | 苏州思必驰信息科技有限公司 | 一种声学模型的训练方法、装置以及计算机可读存储介质 |
CN111951809A (zh) * | 2019-05-14 | 2020-11-17 | 深圳子丸科技有限公司 | 多人声纹辨别方法及系统 |
CN112037800A (zh) * | 2020-09-22 | 2020-12-04 | 平安科技(深圳)有限公司 | 声纹核身模型训练方法、装置、介质及电子设备 |
CN112599137A (zh) * | 2020-12-16 | 2021-04-02 | 康键信息技术(深圳)有限公司 | 验证声纹模型识别效果的方法、装置和计算机设备 |
CN112614493A (zh) * | 2020-12-04 | 2021-04-06 | 珠海格力电器股份有限公司 | 声纹识别方法、系统、存储介质及电子设备 |
CN113362829A (zh) * | 2021-06-04 | 2021-09-07 | 思必驰科技股份有限公司 | 说话人验证方法、电子设备及存储介质 |
CN113570754A (zh) * | 2021-07-01 | 2021-10-29 | 汉王科技股份有限公司 | 声纹锁控制方法、装置、电子设备 |
CN113948089A (zh) * | 2020-06-30 | 2022-01-18 | 北京猎户星空科技有限公司 | 声纹模型训练和声纹识别方法、装置、设备及介质 |
WO2022143723A1 (zh) * | 2020-12-31 | 2022-07-07 | 中兴通讯股份有限公司 | 语音识别模型训练方法、语音识别方法及相应装置 |
WO2023134232A1 (zh) * | 2022-01-13 | 2023-07-20 | 中国银联股份有限公司 | 特征向量数据库的更新方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971690A (zh) * | 2013-01-28 | 2014-08-06 | 腾讯科技(深圳)有限公司 | 一种声纹识别方法和装置 |
US20150249664A1 (en) * | 2012-09-11 | 2015-09-03 | Auraya Pty Ltd. | Voice Authentication System and Method |
CN105513597A (zh) * | 2015-12-30 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | 声纹认证处理方法及装置 |
CN106683663A (zh) * | 2015-11-06 | 2017-05-17 | 三星电子株式会社 | 神经网络训练设备和方法以及语音识别设备和方法 |
CN106898355A (zh) * | 2017-01-17 | 2017-06-27 | 清华大学 | 一种基于二次建模的说话人识别方法 |
-
2017
- 2017-08-01 CN CN201710648032.6A patent/CN107610709B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150249664A1 (en) * | 2012-09-11 | 2015-09-03 | Auraya Pty Ltd. | Voice Authentication System and Method |
CN103971690A (zh) * | 2013-01-28 | 2014-08-06 | 腾讯科技(深圳)有限公司 | 一种声纹识别方法和装置 |
CN106683663A (zh) * | 2015-11-06 | 2017-05-17 | 三星电子株式会社 | 神经网络训练设备和方法以及语音识别设备和方法 |
CN105513597A (zh) * | 2015-12-30 | 2016-04-20 | 百度在线网络技术(北京)有限公司 | 声纹认证处理方法及装置 |
CN106898355A (zh) * | 2017-01-17 | 2017-06-27 | 清华大学 | 一种基于二次建模的说话人识别方法 |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108417228B (zh) * | 2018-02-02 | 2021-03-30 | 福州大学 | 乐器音色迁移下的人声音色相似性度量方法 |
CN108417228A (zh) * | 2018-02-02 | 2018-08-17 | 福州大学 | 乐器音色迁移下的人声音色相似性度量方法 |
CN108492830A (zh) * | 2018-03-28 | 2018-09-04 | 深圳市声扬科技有限公司 | 声纹识别方法、装置、计算机设备和存储介质 |
CN108766444A (zh) * | 2018-04-09 | 2018-11-06 | 平安科技(深圳)有限公司 | 用户身份验证方法、服务器及存储介质 |
CN108766444B (zh) * | 2018-04-09 | 2020-11-03 | 平安科技(深圳)有限公司 | 用户身份验证方法、服务器及存储介质 |
CN108766445A (zh) * | 2018-05-30 | 2018-11-06 | 苏州思必驰信息科技有限公司 | 声纹识别方法及系统 |
CN109165725A (zh) * | 2018-08-10 | 2019-01-08 | 深圳前海微众银行股份有限公司 | 基于迁移学习的神经网络联邦建模方法、设备及存储介质 |
CN108989341B (zh) * | 2018-08-21 | 2023-01-13 | 平安科技(深圳)有限公司 | 语音自主注册方法、装置、计算机设备及存储介质 |
CN108989341A (zh) * | 2018-08-21 | 2018-12-11 | 平安科技(深圳)有限公司 | 语音自主注册方法、装置、计算机设备及存储介质 |
CN109243467A (zh) * | 2018-11-14 | 2019-01-18 | 龙马智声(珠海)科技有限公司 | 声纹模型构建方法、声纹识别方法及系统 |
CN109616105A (zh) * | 2018-11-30 | 2019-04-12 | 江苏网进科技股份有限公司 | 一种基于迁移学习的带噪语音识别方法 |
CN109410956B (zh) * | 2018-12-24 | 2021-10-08 | 科大讯飞股份有限公司 | 一种音频数据的对象识别方法、装置、设备及存储介质 |
CN109410956A (zh) * | 2018-12-24 | 2019-03-01 | 科大讯飞股份有限公司 | 一种音频数据的对象识别方法、装置、设备及存储介质 |
CN109683938A (zh) * | 2018-12-26 | 2019-04-26 | 苏州思必驰信息科技有限公司 | 用于移动终端的声纹模型升级方法和装置 |
CN109448732B (zh) * | 2018-12-27 | 2021-06-08 | 科大讯飞股份有限公司 | 一种数字串语音处理方法及装置 |
CN109448732A (zh) * | 2018-12-27 | 2019-03-08 | 科大讯飞股份有限公司 | 一种数字串语音处理方法及装置 |
CN111462760A (zh) * | 2019-01-21 | 2020-07-28 | 阿里巴巴集团控股有限公司 | 声纹识别系统、方法、装置及电子设备 |
CN111462760B (zh) * | 2019-01-21 | 2023-09-26 | 阿里巴巴集团控股有限公司 | 声纹识别系统、方法、装置及电子设备 |
CN111951809A (zh) * | 2019-05-14 | 2020-11-17 | 深圳子丸科技有限公司 | 多人声纹辨别方法及系统 |
CN110660399A (zh) * | 2019-11-11 | 2020-01-07 | 广州国音智能科技有限公司 | 声纹识别的训练方法、装置、终端及计算机存储介质 |
CN110853653A (zh) * | 2019-11-21 | 2020-02-28 | 中科智云科技有限公司 | 一种基于自注意力和迁移学习的声纹识别方法 |
CN111341322A (zh) * | 2020-04-15 | 2020-06-26 | 厦门快商通科技股份有限公司 | 一种声纹模型训练方法和装置以及设备 |
CN113948089A (zh) * | 2020-06-30 | 2022-01-18 | 北京猎户星空科技有限公司 | 声纹模型训练和声纹识别方法、装置、设备及介质 |
CN111833852A (zh) * | 2020-06-30 | 2020-10-27 | 苏州思必驰信息科技有限公司 | 一种声学模型的训练方法、装置以及计算机可读存储介质 |
CN112037800A (zh) * | 2020-09-22 | 2020-12-04 | 平安科技(深圳)有限公司 | 声纹核身模型训练方法、装置、介质及电子设备 |
CN112614493A (zh) * | 2020-12-04 | 2021-04-06 | 珠海格力电器股份有限公司 | 声纹识别方法、系统、存储介质及电子设备 |
CN112599137A (zh) * | 2020-12-16 | 2021-04-02 | 康键信息技术(深圳)有限公司 | 验证声纹模型识别效果的方法、装置和计算机设备 |
WO2022143723A1 (zh) * | 2020-12-31 | 2022-07-07 | 中兴通讯股份有限公司 | 语音识别模型训练方法、语音识别方法及相应装置 |
CN113362829A (zh) * | 2021-06-04 | 2021-09-07 | 思必驰科技股份有限公司 | 说话人验证方法、电子设备及存储介质 |
CN113570754A (zh) * | 2021-07-01 | 2021-10-29 | 汉王科技股份有限公司 | 声纹锁控制方法、装置、电子设备 |
WO2023134232A1 (zh) * | 2022-01-13 | 2023-07-20 | 中国银联股份有限公司 | 特征向量数据库的更新方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107610709B (zh) | 2021-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107610709B (zh) | 一种训练声纹识别模型的方法及系统 | |
CN107481717B (zh) | 一种声学模型训练方法及系统 | |
CN107492379B (zh) | 一种声纹创建与注册方法及装置 | |
CN106683680B (zh) | 说话人识别方法及装置、计算机设备及计算机可读介质 | |
WO2021174757A1 (zh) | 语音情绪识别方法、装置、电子设备及计算机可读存储介质 | |
US10515627B2 (en) | Method and apparatus of building acoustic feature extracting model, and acoustic feature extracting method and apparatus | |
JP6429945B2 (ja) | 音声データを処理するための方法及び装置 | |
CN107481720B (zh) | 一种显式声纹识别方法及装置 | |
CN107103903B (zh) | 基于人工智能的声学模型训练方法、装置及存储介质 | |
WO2018166187A1 (zh) | 服务器、身份验证方法、系统及计算机可读存储介质 | |
CN107221320A (zh) | 训练声学特征提取模型的方法、装置、设备和计算机存储介质 | |
US10607601B2 (en) | Speech recognition by selecting and refining hot words | |
CN111833845A (zh) | 多语种语音识别模型训练方法、装置、设备及存储介质 | |
Swain et al. | Study of feature combination using HMM and SVM for multilingual Odiya speech emotion recognition | |
CN111710337A (zh) | 语音数据的处理方法、装置、计算机可读介质及电子设备 | |
CN112489623A (zh) | 语种识别模型的训练方法、语种识别方法及相关设备 | |
CN114913859B (zh) | 声纹识别方法、装置、电子设备和存储介质 | |
CN111613230A (zh) | 声纹验证方法、装置、设备及存储介质 | |
Biagetti et al. | Speaker identification in noisy conditions using short sequences of speech frames | |
CN110647613A (zh) | 一种课件构建方法、装置、服务器和存储介质 | |
CN112992155B (zh) | 一种基于残差神经网络的远场语音说话人识别方法及装置 | |
CN111477212A (zh) | 内容识别、模型训练、数据处理方法、系统及设备 | |
CN109800410A (zh) | 一种基于在线聊天记录的表单生成方法和系统 | |
CN116450943A (zh) | 基于人工智能的话术推荐方法、装置、设备及存储介质 | |
CN116542783A (zh) | 基于人工智能的风险评估方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |