CN113241081A - 一种基于梯度反转层的远场说话人认证方法及系统 - Google Patents
一种基于梯度反转层的远场说话人认证方法及系统 Download PDFInfo
- Publication number
- CN113241081A CN113241081A CN202110449108.9A CN202110449108A CN113241081A CN 113241081 A CN113241081 A CN 113241081A CN 202110449108 A CN202110449108 A CN 202110449108A CN 113241081 A CN113241081 A CN 113241081A
- Authority
- CN
- China
- Prior art keywords
- speaker
- authentication
- distance
- far
- feature extractor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000005236 sound signal Effects 0.000 claims abstract description 44
- 238000010586 diagram Methods 0.000 claims abstract description 35
- 230000009467 reduction Effects 0.000 claims abstract description 5
- 230000008569 process Effects 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 25
- 238000005259 measurement Methods 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 13
- 238000011176 pooling Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 12
- 238000005516 engineering process Methods 0.000 description 10
- 238000005070 sampling Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000001427 coherent effect Effects 0.000 description 3
- 125000000205 L-threonino group Chemical group [H]OC(=O)[C@@]([H])(N([H])[*])[C@](C([H])([H])[H])([H])O[H] 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011840 criminal investigation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供的一种基于梯度反转层的远场说话人认证方法,包括:采集声音信号;建立说话人特征提取器、说话人分类器、梯度反转层和距离判别器,说话人分类器与说话人特征提取器相连,距离判别器通过梯度反转层与说话人特征提取器相连,并对说话人特征提取器、说话人分类器和距离判别器进行训练,得到训练好的说话人特征提取器;确定认证最佳阈值;得到注册声音的频率特征图和认证声音的频率特征图;得到注册声音的说话人特征,获取认证声音的说话人特征并加入到注册库;将认证声音的说话人特征与注册库中的说话人特征进行逐一对比认证。还提供了相应的系统。本发明可以在不对输入时域信号进行降噪等处理的情况下,提升远场说话人认证的准确度。
Description
技术领域
本发明属于音频信号处理技术与生物特征识别领域,更具体地说,涉及一种基于梯度反转层的远场说话人认证方法及系统。
背景技术
生物特征识别技术是人类身份认证中的一类重要技术,通过各种传感器采集人体稳定的生理特征(人脸、指纹、指静脉等)或稳定的行为特征(声纹、签名、手势等),通过各种比对算法进行差异性度量后进行身份认证。生物特征识别技术凭借其便利性和安全性,为解决当前信息化发展中的安全问题提供了可靠的方案。
随着智能设备的普及和互联网的广泛应用,人们对安全、便捷的身份认证技术需求日趋迫切。目前,最常用的生物特征识别技术为人脸识别和指纹识别,它们被广泛应用在安防、边检、刑侦等领域。然而,目前流行的生物特征识别技术在使用时都需要用户与设备之间保持较近的距离,尤其是指纹识别技术,需要用户与传感器直接接触。这一限制条件带来了诸多不变,例如,在家居环境下,用户并不希望靠近家电设备进行身份认证。此时,说话人认证技术可以凭借声音的传播范围广的特点解决这一问题。通过声音,用户可以在任意距离、任意角度进行身份认证,十分方便。说话人认证技术扩大了用户的使用范围,也存在一些问题。用户在注册自己的声音信息时离设备较近,而在使用时通常离设备较远,本发明称这种使用情景为远场说话人认证。距离的不同会导致设备录制的声音信号具有不同的信噪比,而信噪比差异会降低远场说话人认证的准确度。
目前有两种方法运用在远场说话人认证中:基于时域信号处理的和基于概率线性判别分类器(PLDA)的远场说话人认证。
一种基于时域信号处理的方法主要通过在时域信号中去除噪声信息来降低距离的影响。比如谱减法,将每段声音信号开头的一段较短的片段当作没有说话人声音的参考环境声音片段,然后将之后的语音信号和该参考片段相减以提升语音信号的信噪比,但是该方法需要环境声音是稳定的,且噪声均为加性噪声,实际环境很难满足这一条件。
另一种基于时域信号处理的方法为加权预测误差(WPE),以麦克风阵列的多个录音设备采集的声音信号为输入,利用声音到达不同录音设备的时间差提升声音信号的信噪比。这种方法对设备的要求很高,通常需要有两个以上的录音设备。另一种基于概率线性判别分类器的方法则在说话人特征空间中进行特征分解,将说话人特征提取器提取的说话人特征分解为发音信息和干扰信息两部分,利用发音信息进行说话人认证,该方法可以在一定程度上提升远场说话人认证的准确率,但不是端到端的识别算法,并且需要为PLDA单独训练模型。此外,该算法带来的提升严重依赖特征空间维度的选择,当维度选择不合适时,认证准确率会有所降低。
发明内容
本发明的目的在于克服现有的远场说话人认证技术的不足之处,通过在说话人特征提取器的训练过程中引入距离信息,并通过梯度反转层消除距离对说话人特征的影响,提供端到端的解决方法。
为了达到上述目的,本发明提供的一种基于梯度反转层的远场说话人认证方法,包括以下步骤:
采集用户的声音信号,并对声音信号进行预处理,得到FBANK特征,并制得数据集;
建立说话人特征提取器、说话人分类器、梯度反转层和距离判别器,说话人分类器与说话人特征提取器相连,距离判别器通过梯度反转层与说话人特征提取器相连,并对说话人特征提取器、说话人分类器和距离判别器进行训练,得到训练好的说话人特征提取器;
确定远场说话人认证的最佳阈值;
基于用户注册声音信号得到注册声音信号的频率特征图;
基于用户认证声音信号得到认证声音信号的频率特征图;
训练好的说话人特征提取器根据注册声音信号的频率特征图得到注册声音的说话人特征,训练好的说话人特征提取器根据认证声音信号的频率特征图得到认证声音的说话人特征,并将注册声音的说话人特征加入到注册库;
将认证声音的说话人特征与注册库中的说话人特征进行逐一对比,将两个说话人特征的余弦距离作为度量值,若度量值大于最佳阈值,则认证通过,否则,认证失败。
进一步地,所述采集用户的声音信号,语音信号的采样率为16KHZ,即每秒语音中有16000个采样点。每段语音有两个人工标注的标签,分别表示该段语音对应的说话人(说话人标签)和该说话人与录音设备的距离(距离标签)。
所述预处理包括频域变换。在频域变换处理过程中,以25ms(400个采样点)作为窗口,以10ms(160个采样点)为移动距离,在一维时域信号中进行滑动。对每个窗口内的采样点进行快速傅里叶变换,得到257维的向量,该向量为此窗口的采样点在频域中的能量分布,本发明称一个窗口为一帧。对于一段时长为t(ms)的语音,经过频率变换后,其转换为257×t/10的二维频率特征图。再使用滤波器组在时间维度上对此频率特征图进行滤波,得到尺寸为40×t/10的FBANK特征。在本发明中,将此特征作为说话人特征提取器的输入。
进一步地,说话人特征提取器包括卷积神经网络、池化层和全连接层。
进一步地,距离判别器包括至少一层全连接层,用于提取对距离不敏感的说话人特征。
进一步地,说话人分类器包括至少一层全连接层,用于判断输入样本属于哪个说话人。
进一步地,所述对说话人特征提取器、说话人分类器和距离判别器进行训练,包括:
将预处理后得到的FBANK特征输入卷积神经网络,卷积神经网络的输出依次经过说话人特征提取器的池化层和全连接层处理后得到每个输入样本的说话人特征;
将说话人特征输入说话人特征提取器的损失函数中,得到误差梯度值,误差梯度值以反向传播的方式更新说话人特征提取器参数;
将说话人特征输入距离判别器的损失函数中,得到距离判别器产生的误差梯度值,梯度反转层将距离判别器产生的误差梯度值乘上一个负的系数γ后传递给说话人特征提取器。
在说话人特征提取器和说话人分类器的训练过程中,S1输出的40×t/10维特征首先被输入到ResNet网络中,输出为一个张量,其尺寸为BS×W×T×CHANNEL,然后通过池化层将该四维张量转换为尺寸为BS×d的二维张量,最后经过全连接层变换为尺寸为BS×D的张量。BS表示训练过程中,每次迭代输入的样本数量,每个D维张量表示一个说话人特征。将说话人特征张量输入到损失函数中可得到用于更新说话人特征提取器参数和说话人分类器参数的误差梯度值,该误差梯度值可通过反向传播的方式更新说话人特征提取器参数和说话人分类器参数。此时用到S1中的说话人标签。说话人分类器中使用的损失函数为原型损失(prototypical loss),其表达式如下:
其中,fΦ()为说话人特征提取器,d()为欧式距离度量函数,X为输入的频率特征图,K表示训练过程中一次迭代输入到网络中的说话人个数。本发明中,每个说话人对应两个样本,一个放入支持集,另一个放入查询集。使用支持集中的每个样本分别与查询集中的每个样本计算度量距离。k表示支持集中的样本与查询集中的样本属于同一个说话人,k′表示两个比对的样本属于不同的说话人。Φ为说话人特征提取器的参数。
距离判别器训练过程:距离判别器的输入为说话人特征提取器输出的尺寸为BS×D的张量。在输入到距离判别器之前,该张量需要经过梯度反转层。梯度反转层的作用是在前向计算中将BS×D维张量恒等映射输出给距离判别器,而在梯度反向传播过程中,将距离判别器产生的误差梯度值乘上一个负的系数γ,对误差梯度进行反转后再传递给说话人特征提取器。
距离判别器采用的损失函数为对比损失(contrasive loss),使用到的标签为S1中的距离标签。每次从BS个样本中选取两个样本,如果它们的距离标签相同,则给距离判别器赋予标签1,否则赋予0。contrasive loss的表达式为:
Ldis=label*(dis_pos)+(1-label){max(margin-dis_neg,0)}
其中,label={0,1},dis_pos表示两个同距离样本的度量值,dis_neg表示两个不同距离样本的度量值,margin为超参数,本发明中将其设置为1。
训练过程中总的损失函数为:
Ltotal=Lspk+α*Ldis
α为调和参数,用于调节两个损失值。
进一步地,所述确定远场说话人认证的最佳阈值,包括:
遍历数据集中的所有样本,两两组合成样本对,属于同一个说话人的样本对的为正样本对,属于不同说话人的样本对为负样本对;
在预设数值范围内选取预设数量的数值构成一组阈值,对每一个阈值,计算对应的错误接受率FAR和错误拒绝率FRR,然后对每个阈值计算错误接受率FAR和错误拒绝率FRR的绝对差值;
选取绝对差值最小的那个阈值为最佳阈值;
其中,错误接受率FAR的计算公式为:
错误拒绝率FRR的计算公式为:
式中,FP代表真实负样本对错误预测为正样本对的数量,TP代表真实正样本对正确预测为正样本对的数量,FN代表真实正样本对错误预测为负样本对的数量,TN代表真实负样本对正确预测为负样本对的数量。
本发明还提供用于实现前述方法的系统。
一种基于梯度反转层的远场说话人认证系统,其用于实现前述任一所述的方法,所述系统包括:
数据集制作模块,用于采集用户的声音信号,并对声音信号进行预处理,得到FBANK特征,并制得数据集;
模型建立模块,用于建立说话人特征提取器、说话人分类器、梯度反转层和距离判别器,其中,说话人分类器与说话人特征提取器相连,距离判别器通过梯度反转层与说话人特征提取器相连,并对说话人特征提取器、说话人分类器和距离判别器进行训练,得到训练好的说话人特征提取器;
认证阈值确定模块,用于确定远场说话人认证的最佳阈值;
注册声音特征获取模块,用于基于用户注册声音信号得到注册声音信号的频率特征图;
认证声音特征获取模块,用于基于用户认证声音信号得到认证声音信号的频率特征图;
特征提取模块,用于训练好的说话人特征提取器根据注册声音信号的频率特征图得到注册声音的说话人特征,训练好的说话人特征提取器根据认证声音信号的频率特征图得到认证声音的说话人特征,并将注册声音的说话人特征加入到注册库;
认证模块,用于将认证声音的说话人特征与注册库中的说话人特征进行逐一对比,将两个说话人特征的余弦距离作为度量值,若度量值大于最佳阈值,则认证通过,否则,认证失败。
与现有技术相比,本发明至少具有以下有益效果:本发明提出的基于梯度反转层的远场说话人认证方法,在训练说话人特征提取器过程中,加入距离判别器,利用距离标签信息训练距离判别器,并通过梯度反转层,将其输出到说话人特征提取器中的梯度进行反转,使说话人特征提取器对距离不敏感。在认证阶段,只使用说话人特征提取器提取说话人特征,而不需要距离判别器的参与。本发明可以在不增加网络复杂度和计算资源消耗的情况下改善远场说话人认证准确率。
与基于时域信号处理和基于概率线性判别分类器的远场说话人认证方法相比,本发明利用梯度反转层即可使说话人特征提取器产生对距离不敏感的说话人特征,实现了端到端的解决方案,且拥有更少的超参数,具有很强的应用性。
附图说明
图1是本发明实施例中的梯度反转层的结构示意图。
图2是本发明实施例中说话人特征提取器示意图。
图3是本发明的训练过程示意图。
图4是本发明认证过程示意图。
图5是本发明实施例提供的系统的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都是本发明保护的范围。
本发明提供的一种基于梯度反转层的远场说话人认证方法,包括以下步骤:
步骤1:采集用户的声音信号,并对声音信号进行预处理,得到用于训练的数据集。
本步骤中,用户的声音信号是一维信号,一维信号只包含幅值、采样率等较简单的信息,为了获取更加丰富的表示说话人发音特点的信息,对声音信号做频域变换处理。
在本发明其中一个实施例中,语音信号的采样率为16KHZ,即每秒语音中有16000个采样点。每段语音有两个人工标注的标签,分别表示该段语音对应的说话人(说话人标签)和该说话人与录音设备的距离(距离标签)。
在本发明其中一个实施例中,所述预处理包括频域变换处理,在频域变换处理过程中,以25ms(400个采样点)作为窗口,以10ms(160个采样点)为移动距离,在一维时域信号中进行滑动。对每个窗口内的采样点进行快速傅里叶变换,得到257维的向量,该向量为此窗口的采样点在频域中的能量分布,本发明称一个窗口为一帧。对于一段时长为t(ms)的语音,经过频率变换后,其转换为257×t/10的二维频率特征图。再使用滤波器组在时间维度上对此频率特征图进行滤波,得到尺寸为40×t/10的FBANK特征。在本发明中,将此特征作为说话人特征提取器的输入。
步骤2:建立说话人特征提取器、说话人分类器、梯度反转层和距离判别器,说话人分类器直接与说话人特征提取器相连,而距离判别器通过梯度反转层与说话人特征提取器相连,并对说话人特征提取器、说话人分类器和距离判别器进行训练。
建立并训练说话人特征提取器,并且引入距离判别器作为辅助,用于提取对距离不敏感的说话人特征。说话人分类器直接与说话人特征提取器相连,距离判别器通过梯度反转层与说话人特征分类器相连,在训练过程中三者同时被优化。值得注意的是,距离判别器和说话人分类器只存在于训练过程中,在注册和认证阶段,它们被舍弃不用。
说话人特征提取器包括卷积神经网络、池化层和全连接层,卷积神经网络用于提取表征说话人发音特点的信息,池化层用于对卷积神经网络的输出进行降维。池化层用于对卷积神经网络的输出进行降维操作,以融合特征,全连接层用于对降维后的信息进行非线性变换并输出说话人特征。
在本发明其中一个实施例中,卷积神经网络采用ResNet网络。当然,在其他的实施例中,卷积神经网络也可采用其他网络,如x-vector网络或DenseNet网络。
在本发明其中一个实施例中,距离判别器包括至少一层全连接层,用于提取对距离不敏感的说话人特征。增加全连接层的层数可以提高距离判别器的提取精度。优选地,全连接层的层数设置成3层。
在本发明其中一个实施例中,说话人分类器包括至少一层全连接层,用于判断输入样本属于哪个说话人。增加全连接层的层数可以提高说话人分类器的判断准确性。优选地,说话人分类器包括3层全连接层。
在本发明其中一个实施例中,说话人特征提取器的训练过程如下:
步骤1输出的40×t/10的FBANK特征首先被输入到ResNet网络中,输出一个四维张量,其尺寸为BS×W×T×CHANNEL,BS为批次数,表示训练网络过程中,每次迭代时输入到网络的样本数量,W表示宽度,T表示时间长度,channel表示通道数量,然后通过池化层将该四维张量转换为尺寸为BS×d(d为说话人特征的维度,可以为任意整数)的二维张量,最后经过全连接层变换为尺寸为BS×D的张量即说话人特征,D表示变换后的说话人特征的维度,可以为任意整数。将说话人特征输入到说话人特征提取器的损失函数中得到用于更新说话人特征提取器参数的误差梯度值,该误差梯度值可通过反向传播的方式更新说话人特征提取器参数和说话人分类器参数。此时用到步骤1中的说话人标签。本发明中说话人分类器使用的损失函数为原型损失(prototypical loss),其表达式如下:
其中,Lspk为说话人分类器的损失函数,K表示训练过程中一次迭代输入到网络中的说话人个数,k表示支持集中的样本与查询集中的样本属于同一个说话人,d()为欧式距离度量函数,fΦ()为说话人特征提取器,X为输入的频率特征图,Φ为说话人特征提取器的参数,k′表示两个比对的样本属于不同的说话人,exp为以自然常数e为底的指数函数。本发明中,每个说话人对应两个样本,一个放入支持集,另一个放入查询集,使用支持集中的每个样本分别与查询集中的每个样本计算度量距离。
在本发明其中一个实施例中,请参阅图1,距离判别器训练过程为:
距离判别器的输入为说话人特征提取器输出的尺寸为BS×D的张量。在输入到距离判别器之前,该张量需要经过梯度反转层。梯度反转层的作用是在前向计算中将BS×D维张量恒等映射输出给距离判别器,而在梯度反向传播过程中,将距离判别器产生的误差梯度值乘上一个负的系数γ,对误差梯度进行反转后再传递给说话人特征提取器。
在本发明其中一个实施例中,距离判别器采用的损失函数为对比损失(contrasive loss),使用到的标签为步骤1中的距离标签。每次从BS个样本中选取两个样本,如果它们的距离标签相同,则给距离判别器赋予标签1,否则赋予0。对比损失的表达式为:
Ldis=label*(dis_pos)+(1-label){max(margin-dis_neg,0)}
其中,label={0,1},dis_pos表示两个同距离样本的度量值,dis_neg表示两个不同距离样本的度量值,margin为超参数,本发明中将其设置为1。
训练过程中总的损失函数为:
Ltotal=Lspk+α*Ldis
α为调和参数,用于调节两个损失值。
说话人特征分类器的输入为步骤1输出的FBNAK特征。本发明在训练过程中每次输入两条语音(对应支持集和查询集两个样本);在注册和认证过程中,每次输入一条语音。说话人特征提取器之后接有两个分支。一个分支为说话人分类器分支,即在训练的时候判断输入的语音属于训练集中的哪个人;另一个分支为距离判别器分支,即判断输入的两条语音录制地点与录音设备的距离是否相同。在距离判别器和说话人特征提取器的连接部分加入梯度反转层,在模型训练过程中,距离判别器产生的梯度值被乘以一个负的系数后再参与到说话人特征提取器的参数更新,使说话人特征对距离不敏感。
步骤3:确定远场说话人认证的最佳阈值。
选取最佳阈值,在步骤1中的数据集上遍历0-1之间等间距选取的一组阈值,确定远场说话人认证的最佳阈值。
在本发明其中一个实施例中,所述选取最佳阈值,用于在远场说话人认证中判断两条语音是否来自同一个说话人。将步骤1中数据集中的所有样本,两两组合成样本对,属于同一个说话人的样本对的为正样本对,属于不同说话人的样本对为负样本对。首先,将所有样本输入到S2中训练得到的说话人特征提取器中,提取对应的说话人特征。然后,度量每个样本对中的两个样本之间的距离,该距离值的范围为(0-1)。最后,在0-1范围内(等间距取100个值,如0.01,0.02,0.03…,代表阈值)等间距取100个数值构成一组阈值,对于每一个阈值,计算对应的错误接受率FAR和错误拒绝率FRR。
其中计算错误接受率FAR的公式为:
其中,THRES代表一组阈值,thres代表该组阈值中的一个。
计算错误拒绝率FRR的公式为
当样本对的余弦距离大于阈值thres时判断为正样本对,即为属于同一个说话人的样本对,当样本对的余弦距离小于等于thres时判断为负样本对,即为属于不同说话人的样本对。FP代表真实负样本对错误预测为正样本对的数量,TP代表真实正样本对正确预测为正样本对的数量,FN代表真实正样本对错误预测为负样本对的数量,TN代表真实负样本对正确预测为负样本对的数量。对每个阈值计算FAR和FRR的绝对差值,当某个阈值对应的绝对差值最小时,则将该阈值确定为最佳阈值。后续将两条语音之间的余弦距离与该最佳阈值相对比来判断它们是否属于同一个说话人。
步骤4:获取用户注册声音信号并预处理得到注册声音信号的频率特征图。
对注册语音的预处理过程与步骤1中的处理过程相同。
步骤5:获取用户认证声音信号并预处理得到认证声音信号的频率特征图。
对认证语音的预处理过程与步骤1中的处理过程相同。
步骤6:提取注册语音及认证语音的说话人特征,并将注册语音对应的特征存入注册库中。
在本发明其中一个实施例中,将步骤4输出的频率特征图和步骤S5输出的频率特征图依次输入步骤S2训练好的说话人特征提取器,分别得到说话人特征,将注册语音则加入到注册库中,将认证语音则进入下一步度量判断。
步骤6中,在提取注册语音和认证语音的说话人特征中,只使用说话人特征提取器,而距离判别器则不参与计算。
步骤7:用户身份认证,步骤6中得到的认证语音说话人特征与注册库中的说话人特征进行逐一对比。将两个特征向量的余弦距离作为度量值,若该度量值大于步骤3中确定的最佳阈值,则认证通过。否则,认证失败。
现有远场说话人认证方法需要将整个流程分为多个部分,分别处理,处理过程复杂,不是端到端的解决方案。本发明只需要在说话人特征提取器的训练过程中引入距离判别器,即可达到超过现有方法的效果,同时简化了远场说话人认证的流程。
本发明提供的远场说话人认证方法,(1)使用一维时域信号对应的二维频率特征图作为认证信息。频率特征图中包含每个人特有的发音信息。不同的说话人由于发音器官不同,所发出的声音经频率变换后会呈现不同的频率能量分布特征,该特征可以用来区分不同的说话人。(2)为了快速、准确地比较两条语音是否来自同一个人,需要将二维的频率特征图通过说话人特征提取器转换为低维向量,该向量可以代替其对应的时域信号进行说话人认证,被称为说话人特征。(3)为了减少说话人与录音设备之间的距离这一因素对说话人认证的干扰,本发明在模型训练阶段引入距离判别器,并通过梯度反转层对距离判别器学习到的特征进行抑制,使说话人特征提取器对距离不敏感,从而使其产生的说话人特征具有更强的鲁棒性。本发明可以在不对输入时域信号进行降噪等处理的情况下,提升远场说话人认证的准确度。
在本发明其中一个实施例中,还提供了用于实现前述方法的系统。
请参阅图5,本实施例提供的一种基于梯度反转层的远场说话人认证系统,包括:
数据集制作模块,用于采集用户的声音信号,并对声音信号进行预处理,得到FBANK特征,并制得数据集;
模型建立模块,用于建立说话人特征提取器、说话人分类器、梯度反转层和距离判别器,其中,说话人分类器与说话人特征提取器相连,距离判别器通过梯度反转层与说话人特征提取器相连,并对说话人特征提取器、说话人分类器和距离判别器进行训练,得到训练好的说话人特征提取器;
认证阈值确定模块,用于确定远场说话人认证的最佳阈值;
注册声音特征获取模块,用于基于用户注册声音信号得到注册声音信号的频率特征图;
认证声音特征获取模块,用于基于用户认证声音信号得到认证声音信号的频率特征图;
特征提取模块,用于训练好的说话人特征提取器根据注册声音信号的频率特征图得到注册声音的说话人特征,训练好的说话人特征提取器根据认证声音信号的频率特征图得到认证声音的说话人特征,并将注册声音的说话人特征加入到注册库;
认证模块,用于将认证声音的说话人特征与注册库中的说话人特征进行逐一对比,将两个说话人特征的余弦距离作为度量值,若度量值大于最佳阈值,则认证通过,否则,认证失败。
本实施例提供的系统具有如上述方法相同的有益效果。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的的一种基于梯度反转层的远场说话人认证系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其他实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种基于梯度反转层的远场说话人认证方法,其特征在于,包括以下步骤:
采集用户的声音信号,并对声音信号进行预处理,得到FBANK特征,并制得数据集;
建立说话人特征提取器、说话人分类器、梯度反转层和距离判别器,说话人分类器与说话人特征提取器相连,距离判别器通过梯度反转层与说话人特征提取器相连,并对说话人特征提取器、说话人分类器和距离判别器进行训练,得到训练好的说话人特征提取器;
确定远场说话人认证的最佳阈值;
基于用户注册声音信号得到注册声音信号的频率特征图;
基于用户认证声音信号得到认证声音信号的频率特征图;
训练好的说话人特征提取器根据注册声音信号的频率特征图得到注册声音的说话人特征,训练好的说话人特征提取器根据认证声音信号的频率特征图得到认证声音的说话人特征,并将注册声音的说话人特征加入到注册库;
将认证声音的说话人特征与注册库中的说话人特征进行逐一对比,将两个说话人特征的余弦距离作为度量值,若度量值大于最佳阈值,则认证通过,否则,认证失败。
2.根据权利要求1所述的一种基于梯度反转层的远场说话人认证方法,其特征在于,所述采集用户的声音信号中,每段语音上设置有用于表示该段语音对应的说话人的说话人标签和用于表示该说话人与录音设备的距离的距离标签。
3.根据权利要求1所述的一种基于梯度反转层的远场说话人认证方法,其特征在于,所述对声音信号进行预处理,包括:将采集的一维时域声音信号通过傅里叶变换转换为二维频率特征图,再对二维的频率特征图进行滤波得到FBANK特征。
4.根据权利要求1所述的一种基于梯度反转层的远场说话人认证方法,其特征在于,说话人特征提取器包括卷积神经网络、池化层和全连接层,卷积神经网络用于提取表征说话人发音特点的信息,池化层用于对卷积神经网络的输出进行降维,全连接层用于对降维后的信息进行非线性变换并输出说话人特征。
5.根据权利要求4所述的一种基于梯度反转层的远场说话人认证方法,其特征在于,距离判别器包括至少一层全连接层,用于提取对距离不敏感的说话人特征。
6.根据权利要求5所述的一种基于梯度反转层的远场说话人认证方法,其特征在于,说话人分类器包括至少一层全连接层,用于判断输入样本属于哪个说话人。
7.根据权利要求4所述的一种基于梯度反转层的远场说话人认证方法,其特征在于,所述对说话人特征提取器、说话人分类器和距离判别器进行训练,包括:
将预处理后得到的FBANK特征输入卷积神经网络,卷积神经网络的输出依次经过说话人特征提取器的池化层和全连接层处理后得到每个输入样本的说话人特征;
将说话人特征输入到说话人分类器的损失函数中,得到误差梯度值,误差梯度值以反向传播的方式更新说话人特征提取器参数;
将说话人特征输入距离判别器的损失函数中,得到距离判别器产生的误差梯度值,梯度反转层将距离判别器产生的误差梯度值乘上一个负的系数γ后传递给说话人特征提取器。
8.根据权利要求1所述的一种基于梯度反转层的远场说话人认证方法,其特征在于,训练过程中总的损失函数为:
Ltotal=Lspk+α*Ldis
其中,α为调和参数,Lspk为说话人特征提取器中使用的损失函数,该损失函数为原型损失,Ldis为距离判别器采用的损失函数,该损失函数为对比损失;
Ldis=label*(dis_pos)+(1-label){max(margin-dis_neg,0)}
fΦ()为说话人特征提取器,d()为欧式距离度量函数,X为输入的频率特征图,K表示训练过程中一次迭代输入到网络中的说话人个数,k表示支持集中的样本与查询集中的样本属于同一个说话人,k′表示两个比对的样本属于不同的说话人,label={0,1},dis_pos表示两个同距离样本的度量值,dis_neg表示两个不同距离样本的度量值,margin为超参数。
9.根据权利要求1-8任一所述的一种基于梯度反转层的远场说话人认证方法,其特征在于,所述确定远场说话人认证的最佳阈值,包括:
遍历数据集中的所有样本,两两组合成样本对,属于同一个说话人的样本对的为正样本对,属于不同说话人的样本对为负样本对;
在预设数值范围内选取预设数量的数值构成一组阈值,对每一个阈值,计算对应的错误接受率FAR和错误拒绝率FRR,然后对每个阈值计算错误接受率FAR和错误拒绝率FRR的绝对差值;
选取绝对差值最小的那个阈值为最佳阈值;
其中,错误接受率FAR的计算公式为:
错误拒绝率FRR的计算公式为:
式中,FP代表真实负样本对错误预测为正样本对的数量,TP代表真实正样本对正确预测为正样本对的数量,FN代表真实正样本对错误预测为负样本对的数量,TN代表真实负样本对正确预测为负样本对的数量。
10.一种基于梯度反转层的远场说话人认证系统,其特征在于,用于实现权利要求1-9任一所述的方法,所述系统包括:
数据集制作模块,用于采集用户的声音信号,并对声音信号进行预处理,得到FBANK特征,并制得数据集;
模型建立模块,用于建立说话人特征提取器、说话人分类器、梯度反转层和距离判别器,其中,说话人分类器与说话人特征提取器相连,距离判别器通过梯度反转层与说话人特征提取器相连,并对说话人特征提取器、说话人分类器和距离判别器进行训练,得到训练好的说话人特征提取器;
认证阈值确定模块,用于确定远场说话人认证的最佳阈值;
注册声音特征获取模块,用于基于用户注册声音信号得到注册声音信号的频率特征图;
认证声音特征获取模块,用于基于用户认证声音信号得到认证声音信号的频率特征图;
特征提取模块,用于训练好的说话人特征提取器根据注册声音信号的频率特征图得到注册声音的说话人特征,训练好的说话人特征提取器根据认证声音信号的频率特征图得到认证声音的说话人特征,并将注册声音的说话人特征加入到注册库;
认证模块,用于将认证声音的说话人特征与注册库中的说话人特征进行逐一对比,将两个说话人特征的余弦距离作为度量值,若度量值大于最佳阈值,则认证通过,否则,认证失败。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110449108.9A CN113241081B (zh) | 2021-04-25 | 2021-04-25 | 一种基于梯度反转层的远场说话人认证方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110449108.9A CN113241081B (zh) | 2021-04-25 | 2021-04-25 | 一种基于梯度反转层的远场说话人认证方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113241081A true CN113241081A (zh) | 2021-08-10 |
CN113241081B CN113241081B (zh) | 2023-06-16 |
Family
ID=77129125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110449108.9A Active CN113241081B (zh) | 2021-04-25 | 2021-04-25 | 一种基于梯度反转层的远场说话人认证方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113241081B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115331673A (zh) * | 2022-10-14 | 2022-11-11 | 北京师范大学 | 一种复杂声音场景下的声纹识别家电控制方法和装置 |
CN116229986A (zh) * | 2023-05-05 | 2023-06-06 | 北京远鉴信息技术有限公司 | 一种针对声纹鉴定任务的语音降噪方法及装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5121428A (en) * | 1988-01-20 | 1992-06-09 | Ricoh Company, Ltd. | Speaker verification system |
CN104732978A (zh) * | 2015-03-12 | 2015-06-24 | 上海交通大学 | 基于联合深度学习的文本相关的说话人识别方法 |
CN106328126A (zh) * | 2016-10-20 | 2017-01-11 | 北京云知声信息技术有限公司 | 远场语音识别处理方法及装置 |
US20180053512A1 (en) * | 2016-08-22 | 2018-02-22 | Intel Corporation | Reverberation compensation for far-field speaker recognition |
US20190147854A1 (en) * | 2017-11-16 | 2019-05-16 | Microsoft Technology Licensing, Llc | Speech Recognition Source to Target Domain Adaptation |
CN109903774A (zh) * | 2019-04-12 | 2019-06-18 | 南京大学 | 一种基于角度间隔损失函数的声纹识别方法 |
US20190325861A1 (en) * | 2018-04-18 | 2019-10-24 | Maneesh Kumar Singh | Systems and Methods for Automatic Speech Recognition Using Domain Adaptation Techniques |
CN111540346A (zh) * | 2020-05-13 | 2020-08-14 | 慧言科技(天津)有限公司 | 一种远场声音分类方法和装置 |
US20200335122A1 (en) * | 2019-04-16 | 2020-10-22 | Microsoft Technology Licensing, Llc | Condition-invariant feature extraction network |
CN112259104A (zh) * | 2020-10-10 | 2021-01-22 | 西南政法大学 | 一种声纹识别模型的训练装置 |
CN112289325A (zh) * | 2019-07-24 | 2021-01-29 | 华为技术有限公司 | 一种声纹识别方法及装置 |
-
2021
- 2021-04-25 CN CN202110449108.9A patent/CN113241081B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5121428A (en) * | 1988-01-20 | 1992-06-09 | Ricoh Company, Ltd. | Speaker verification system |
CN104732978A (zh) * | 2015-03-12 | 2015-06-24 | 上海交通大学 | 基于联合深度学习的文本相关的说话人识别方法 |
US20180053512A1 (en) * | 2016-08-22 | 2018-02-22 | Intel Corporation | Reverberation compensation for far-field speaker recognition |
CN106328126A (zh) * | 2016-10-20 | 2017-01-11 | 北京云知声信息技术有限公司 | 远场语音识别处理方法及装置 |
US20190147854A1 (en) * | 2017-11-16 | 2019-05-16 | Microsoft Technology Licensing, Llc | Speech Recognition Source to Target Domain Adaptation |
US20190325861A1 (en) * | 2018-04-18 | 2019-10-24 | Maneesh Kumar Singh | Systems and Methods for Automatic Speech Recognition Using Domain Adaptation Techniques |
CN109903774A (zh) * | 2019-04-12 | 2019-06-18 | 南京大学 | 一种基于角度间隔损失函数的声纹识别方法 |
US20200335122A1 (en) * | 2019-04-16 | 2020-10-22 | Microsoft Technology Licensing, Llc | Condition-invariant feature extraction network |
CN112289325A (zh) * | 2019-07-24 | 2021-01-29 | 华为技术有限公司 | 一种声纹识别方法及装置 |
CN111540346A (zh) * | 2020-05-13 | 2020-08-14 | 慧言科技(天津)有限公司 | 一种远场声音分类方法和装置 |
CN112259104A (zh) * | 2020-10-10 | 2021-01-22 | 西南政法大学 | 一种声纹识别模型的训练装置 |
Non-Patent Citations (1)
Title |
---|
QING WANG ET AL.: "Unsupervised Domain Adaptation via Domain Adversarial Training for Speaker Recognition", 2018 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP) * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115331673A (zh) * | 2022-10-14 | 2022-11-11 | 北京师范大学 | 一种复杂声音场景下的声纹识别家电控制方法和装置 |
CN116229986A (zh) * | 2023-05-05 | 2023-06-06 | 北京远鉴信息技术有限公司 | 一种针对声纹鉴定任务的语音降噪方法及装置 |
CN116229986B (zh) * | 2023-05-05 | 2023-07-21 | 北京远鉴信息技术有限公司 | 一种针对声纹鉴定任务的语音降噪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113241081B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113221673B (zh) | 基于多尺度特征聚集的说话人认证方法及系统 | |
CN107731233B (zh) | 一种基于rnn的声纹识别方法 | |
Soltane et al. | Face and speech based multi-modal biometric authentication | |
CN111370003B (zh) | 一种基于孪生神经网络的声纹比对方法 | |
Baloul et al. | Challenge-based speaker recognition for mobile authentication | |
CN110767239A (zh) | 一种基于深度学习的声纹识别方法、装置及设备 | |
CN113241081B (zh) | 一种基于梯度反转层的远场说话人认证方法及系统 | |
CN113223536B (zh) | 声纹识别方法、装置及终端设备 | |
CN113436646B (zh) | 一种采用联合特征与随机森林的伪装语音检测方法 | |
CN112347450B (zh) | 一种基于眨眼声音信号的身份验证方法 | |
Todkar et al. | Speaker recognition techniques: A review | |
CN110570870A (zh) | 一种文本无关的声纹识别方法、装置及设备 | |
CN113886792A (zh) | 一种声纹识别和人脸识别相结合的印控仪应用方法和系统 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、系统及存储介质 | |
CN105138886B (zh) | 机器人生物体征识别系统 | |
Beritelli et al. | An improved biometric identification system based on heart sounds and gaussian mixture models | |
CN111785262B (zh) | 一种基于残差网络及融合特征的说话人年龄性别分类方法 | |
CN106650685B (zh) | 一种基于心电图信号的身份识别方法及装置 | |
CN112908340A (zh) | 一种基于全局-局部加窗的声音特征快速提取方法 | |
CN110298159B (zh) | 一种智能手机动态手势身份认证方法 | |
CN107093430A (zh) | 一种基于小波包变换的声纹特征提取算法 | |
CN116883900A (zh) | 一种基于多维生物特征的视频真伪鉴别方法和系统 | |
Tan et al. | Towards real time implementation of sparse representation classifier (SRC) based heartbeat biometric system | |
Naveen et al. | Speaker Identification and Verification using Deep Learning | |
CN114596609B (zh) | 一种视听伪造检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |