CN113450806A - 语音检测模型的训练方法以及相关方法、装置、设备 - Google Patents
语音检测模型的训练方法以及相关方法、装置、设备 Download PDFInfo
- Publication number
- CN113450806A CN113450806A CN202110542473.4A CN202110542473A CN113450806A CN 113450806 A CN113450806 A CN 113450806A CN 202110542473 A CN202110542473 A CN 202110542473A CN 113450806 A CN113450806 A CN 113450806A
- Authority
- CN
- China
- Prior art keywords
- feature
- voice
- embedded
- sample
- detection model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 154
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000012549 training Methods 0.000 title claims abstract description 41
- 230000004927 fusion Effects 0.000 claims abstract description 77
- 238000012512 characterization method Methods 0.000 claims abstract description 69
- 238000000605 extraction Methods 0.000 claims abstract description 53
- 230000006870 function Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 10
- 238000001994 activation Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005242 forging Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了语音检测模型的训练方法以及相关方法、装置、设备,其中,语音检测模型的训练方法包括:对样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征;通过语音检测模型将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征;分别对融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征;利用第一嵌入表征对样本语音的真伪进行预测,得到第一预测结果,并利用第二嵌入表征对样本语音的说话人进行预测,得到第二预测结果;利用第一预测结果、第二预测结果与样本语音的标签之间的误差调整语音检测模型的参数。上述方案,能够提高训练后的语音检测模型对语音进行预测的准确性和可靠性。
Description
技术领域
本申请涉及语音信号处理的技术领域,特别是涉及语音检测模型的训练方法以及相关方法、装置、设备。
背景技术
语音识别作为一种生物识别技术,由于其方便、可靠、低成本等特性已广泛应用到门禁系统、电子商务、智能产品等行业领域中,以给各行各业提供相应的便利功能,例如语音控制、人工智能对话或语音真伪检测等。
但是随着语音伪造技术的发展,现有的语音识别系统在面对伪造语音的攻击时是十分脆弱的,难以分辨出语音是否来自合成、录音等的伪造语音,这会给基于语音识别的具体应用造成极大的识别困难。
如何来检测伪造语音是语音识别应用的一个挑战,准确的语音伪造检测是保障语音识别技术可靠应用的基础。
发明内容
本申请提供了语音检测模型的训练方法以及相关方法、装置、设备,以解决现有技术中存在的检测伪造语音的问题。
本申请提供了一种语音检测模型的训练方法,包括:对样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征;通过语音检测模型将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征;分别对融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征;利用第一嵌入表征对样本语音的真伪进行预测,得到第一预测结果,并利用第二嵌入表征对样本语音的说话人进行预测,得到第二预测结果;利用第一预测结果、第二预测结果与样本语音的标签之间的误差调整语音检测模型的参数。
其中,通过语音检测模型将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征的步骤,包括:分别对至少一个初始真伪特征以及至少一个初始声纹特征进行深层特征提取,得到至少一个真伪语音特征以及至少一个声纹语音特征;将至少一个真伪语音特征以及至少一个声纹语音特征进行特征融合,得到融合特征。
其中,分别对至少一个初始真伪特征以及至少一个初始声纹特征进行深层特征提取,得到至少一个真伪语音特征以及至少一个声纹语音特征的步骤包括:通过相同网络权重的深度神经网络和非线性激活函数分别对至少一个初始真伪特征以及至少一个初始声纹特征进行帧层面的深层特征提取,得到至少一个真伪语音特征以及至少一个声纹语音特征。
其中,将至少一个真伪语音特征以及至少一个声纹语音特征进行特征融合,得到融合特征的步骤,包括:将至少一个真伪语音特征以及至少一个声纹语音特征进行特征拼接,得到串联特征;对串联特征进行特征转换得到融合特征。
其中,分别对融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征的步骤包括:分别通过不同的网络特征层对融合特征进行特征抽取,以得到第一嵌入表征以及第二嵌入表征;其中,第一嵌入表征包括真伪嵌入特征,第二嵌入特征包括声纹嵌入特征。
其中,利用第一嵌入表征对样本语音的真伪进行预测,得到第一预测结果,并利用第二嵌入表征对样本语音的说话人进行预测,得到第二预测结果包括:将第一嵌入表征以及第二嵌入表征进行交叉融合,得到第一样本嵌入表征以及第二样本嵌入表征;利用第一样本嵌入表征对样本语音的真伪进行预测,得到第一预测结果,并利用第二样本嵌入表征对样本语音的说话人进行预测,得到第二预测结果。
其中,将第一嵌入表征以及第二嵌入表征进行交叉融合,得到第一样本嵌入表征以及第二样本嵌入表征包括:分别将第一嵌入表征以及第二嵌入表征进行加权叠加,得到第一样本嵌入表征以及第二样本嵌入表征。
其中,利用第一预测结果、第二预测结果与样本语音的标签之间的误差调整语音检测模型的参数步骤包括:基于第一预测结果、第二预测结果与样本语音的标签构建损失函数;利用损失函数调整语音检测模型的参数。
本申请还提供了一种语音检测方法,包括对待检测语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征;通过语音检测模型将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征;分别对融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征;基于第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度确定待检测语音的真伪;其中,真实语音的第一标准嵌入表征和第二标准嵌入表征的获取方式与待检测语音的第一嵌入表征和第二嵌入表征的获取方式相同;其中,语音检测模型为采用上述任一项的语音检测方法训练得到的语音检测模型。
其中,基于第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度确定待检测语音的语音类型的步骤包括:分别计算第一待检测嵌入表征与第一标准嵌入表征以及第二待检测嵌入表征与第二标准嵌入表征之间的余弦相似度;响应于第一待检测嵌入表征与第一标准嵌入表征之间的余弦相似度与第二待检测嵌入表征与第二标准嵌入表征之间的余弦相似度之间的乘积超过预设阈值,将真实语音的语音类型确定为待检测语音的语音类型。
本申请还提供了一种电子设备,包括相互耦接的存储器和处理器,处理器用于执行存储器中存储的程序指令,以实现上述任一项的语音检测模型的训练方法或语音检测方法。
本申请还提供了一种计算机可读存储介质,其上存储有程序指令,程序指令被处理器执行时实现上述任一项的语音检测模型的训练方法或语音检测方法。
上述方案,本申请通过先对样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特,从而使得语音检测模型能够基于不同的声学特征进行语音检测,以得到更多区分真伪音的信息,以提高语音检测模型的检测准确性。再将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征,进而分别对融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征,利用第一嵌入表征预测得到的第一预测结果和第二嵌入表征预测得到的第二预测结果与样本语音的标签之间的误差调整语音检测模型的参数,以对语音检测模型进行训练。本申请通过综合了初始真伪特征与初始声纹特征的融合特征进行特征抽取,能够利用更广泛的声学特征来抽取更丰富的嵌入表征,提高了通过嵌入表征进行语音预测的可靠性,从而提高了语音检测模型训练的效率和效果,进而增加训练后的语音检测模型对语音进行预测的准确性和可靠性。
附图说明
图1是本申请语音检测模型的训练方法一实施例的流程示意图;
图2是本申请语音检测模型的训练方法另一实施例的流程示意图;
图3是本申请语音检测方法一实施例的流程示意图;
图4是本申请电子设备一实施例的框架示意图;
图5为本申请计算机可读存储介质一实施例的框架示意图。
具体实施方式
下面结合说明书附图,对本申请实施例的方案进行详细说明。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。
本文中术语“系统”和“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,可以存在三种关系,例如,A和/或B,可以:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般前后关联对象是一种“或”的关系。此外,本文中的“多”两个或者多于两个。
请参阅图1,图1是本申请语音检测模型的训练方法一实施例的流程示意图。具体而言,可以包括如下步骤:
步骤S11:对样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征。
获取到样本语音,对该样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征。初始真伪特征可以为常用于语音真伪检测的特征,初始声纹特征可以为常用于声纹识别的特征。其中,特征提取后,获取到的初始真伪特征与初始声纹特征的具体数量可以分别为1个、3个、4个、5个等,在此不做限定。
本实施例的初始真伪特征的特征类型可以包括常量Q倒谱系数Constant-Qcepstral coefficient CQCC,线性频率倒谱系数Linear frequency cepstralcoefficient LFCC,反转梅尔频率倒谱系数inverted mel frequency cepstralcoefficient IMFCC,线性预测倒谱系数linear prediction cepstral coefficientLPCC,短时傅里叶变化倒谱系数Short-time Fourier Transform Cepstral CoefficientSFTCC等。而初始声纹特征的特征类型可以包括滤波器组(Filter Bank FB),梅尔频率倒谱系数(Mel frequency cepstral coefficient,MFCC),感知线性预测(perceptual linearpredictive,PLP),功率归一化倒谱系数(power-normalized cepstral coefficients,PNCC)等。具体提取出的初始真伪特征和初始声纹特征的类型和数量可以基于实际需求进行选择,在此不做限定。
其中,至少一个不同类型的声学特征在特征提取时可以经过不同的频谱转换,进而不同类型的声学特征在不同频率上时间和频谱分辨率可以是互不相同的,所以得到不同类型的声学特征的特征提取时的重点频带可以不同。而能够分辨真实语音和伪造语音的关键频带对不同的语音合成、转换等语音伪造算法也是不同的,因此,本实施例对样本语音进行特征提取得到的不同类型的声学特征,即至少一个初始真伪特征以及至少一个初始声纹特征,在应对复杂多样的伪造语音时是具有互补性、多样性,多种类型的声学特征作为输入可以使语音检测模型得到更多用于区分真伪音的信息,进而提高语音检测模型的检测效果。
在一个具体的应用场景中,样本语音可以包括多条真实样本语音以及多条伪造样本语音。基于多条真实样本语音以及多条伪造样本语音对语音检测模型进行训练,以提高语音检测模型对各类型语音进行预测的准确性和可靠性。
步骤S12:通过语音检测模型将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征。
将至少一个初始真伪特征以及至少一个初始声纹特征输入到语音检测模型中,以通过语音检测模型对至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征。
其中,通过将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,能够使得融合特征融合初始声纹特征的声纹特征以及初始真伪特征的真伪特征,从而使得语音检测模型在训练过程中,能够利用包括不同的特征的融合特征学习到更丰富的对语音检测有用的信息。
步骤S13:分别对融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征。
可以采用不同的语音检测模型对融合特征分别进行特征抽取得到第一嵌入表征以及第二嵌入表征。其中,第二嵌入表征区别于第一嵌入表征。
步骤S14:利用第一嵌入表征对样本语音的真伪进行预测,得到第一预测结果,并利用第二嵌入表征对样本语音的说话人进行预测,得到第二预测结果。
利用第一嵌入表征对样本语音的真伪进行预测得到第一预测结果,其中,第一预设结果包括样本语音为真实语音或伪造语音。利用第二嵌入表征对样本语音的说话人进行预测,得到第二预测结果,其中。第二预测结果包括样本语音的具体说话人。
步骤S15:利用第一预测结果、第二预测结果与样本语音的标签之间的误差调整语音检测模型的参数。
获取样本语音的标签,其中,样本语音的标签包括样本语音的真正的真伪类型以及真正的发音人,在一个具体的应用场景中,可以接受人工对样本语音的标注,得到样本语音的标签。在另一个具体的应用场景中,也可以通过其他已训练好的语音模型对样本语音进行标注,得到样本语音的标签。
将第一预测结果与样本语音的标签中的样本语音真正的真伪类型进行对比,判断第一预设结果与样本语音真正的真伪类型是否相同,如果不相同则利用第一预设结果与样本语音真正的真伪类型之间的误差调整语音检测模型的参数,以对语音检测模型进行训练。
以及将第二预测结果与样本语音的标签中的真正的发音人进行对比,判断第二预设结果与样本语音真正的发音人是否相同,如果不相同则利用第二预设结果与样本语音真正的发音人之间的误差调整语音检测模型的参数,以对语音检测模型进行训练。
在一个具体的应用场景中,当语音检测模型预测出的第一预测结果为样本语音为真实语音,而样本语音的标签中的样本语音真正的真伪类型是伪造语音,则第一预测结果与样本语音的标签之间存在误差。因此可以利用第一预测结果与样本语音的标签之间的误差调整语音检测模型的参数,以对语音检测模型进行训练。
通过上述步骤,本实施例的语音检测模型的训练方法通过先对样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特,从而使得语音检测模型能够基于不同的声学特征进行语音检测,以得到更多区分真伪音的信息,以提高语音检测模型的检测准确性。再将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征,进而分别对融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征,利用第一嵌入表征预测得到的第一预测结果和第二嵌入表征预测得到的第二预测结果与样本语音的标签之间的误差调整语音检测模型的参数,以对语音检测模型进行训练。本实施例通过综合了初始真伪特征与初始声纹特征的融合特征进行特征抽取,能够利用更广泛的声学特征来抽取更丰富的嵌入表征,提高了通过嵌入表征进行语音预测的可靠性,从而提高了语音检测模型训练的效率和效果,进而增加训练后的语音检测模型对语音进行预测的准确性和可靠性。
请参阅图2,图2是本申请语音检测模型的训练方法另一实施例的流程示意图。具体而言,可以包括如下步骤:
步骤S21:对样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征。
分别通过不同的方式对样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征。
在一个具体的应用场景中,可以通过对样本语音进行对数功率谱、离散语音变换以及常量Q转换等处理,得到至少一个初始真伪特征。以及另外通过对样本语音进行对数功率谱、离散语音变换以及傅里叶变换等处理,得到至少一个初始声纹特征。其中,在对语音进行处理前,可以先对样本语音进行分帧加窗的预处理,以使样本语音在帧层面变得稳定且连续,便于对样本语音进行特征提取。
在本实施例中,将以提取出的初始真伪特征的数量为1且初始声纹特征的数量为1为例进行说明,初始真伪特征的数量为多个和/或初始声纹特征的数量为多个的实施方式与本实施例相似,不再赘述。
其中,本实施例通过对本步骤特征提取出的初始真伪特征进行表示,通过对对本步骤特征提取出初始声纹特征进行表示。其中,T表示特征的语音帧数,d和代表特征维度。也就是,本本步骤提取出的初始真伪特征和初始声纹特征为二维特征。
步骤S22:分别对至少一个初始真伪特征以及至少一个初始声纹特征进行深层特征提取,得到至少一个真伪语音特征以及至少一个声纹语音特征,将至少一个真伪语音特征以及至少一个声纹语音特征进行特征融合,得到融合特征。
分别对至少一个初始真伪特征以及至少一个初始声纹特征进行深层特征提取,得到至少一个真伪语音特征以及至少一个声纹语音特征。具体地,可以通过相同网络权重的深度神经网络和非线性激活函数分别对至少一个初始真伪特征以及至少一个初始声纹特征进行帧层面的深层特征提取,得到至少一个真伪语音特征以及至少一个声纹语音特征。
在一个具体的应用场景中,可以将初始真伪特征和初始声纹特征分别输入到深度神经网络中进行帧层面的特征提取。其中,该深度神经网络的权重对于不同的输入特征是共享的,即深度神经网络采用相同的网络权重分别对初始真伪特征和初始声纹特征进行深层特征提取,得到真伪语音特征以及声纹语音特征。其中通过相同网络权重的深度神经网络分别对初始真伪特征和初始声纹特征进行深层特征提取,能够减弱深度神经网络的复杂程度,提高特征提取效率,并使得初始真伪特征和初始声纹特征的深度特征提取过程能够采取相同层面的提取操作,进行类似的提取过程,最终得到相同层次的特征表示。
其中,本步骤中所用的深度神经网络,具体可以为时延深度网络(TDNN,Time-Delay Neural Network)、卷积神经网络(CNN,Convolutional Neural Networks)、循环神经网络(Recurrent Neural Networks)和递归神经网络(Recursive Neural Networks)等深度神经网络,具体的深度神经网络的类型可以基于实际需求进行设置,本实施例将以深度神经网络为时延深度网络为例进行说明。
具体地,将初始真伪特征输入到时延深度网络中进行线性特征提取,再通过非线性激活函数对时延深度网络提取后的初始真伪特征进行非线性特征提取,最后输出经过上述深层特征提取后的真伪语音特征以及将初始声纹特征输入到时延深度网络中进行线性特征提取,再通过非线性激活函数对时延深度网络提取后的声纹语音特征进行非线性特征提取,最后输出经过上述深层特征提取后的声纹语音特征
获得至少一个真伪语音特征以及至少一个声纹语音特征后,将至少一个真伪语音特征以及至少一个声纹语音特征进行特征融合,得到融合特征。具体地,可以将至少一个真伪语音特征以及至少一个声纹语音特征进行特征拼接,得到串联特征,再对串联特征进行特征转换得到融合特征。
在一个具体的应用场景中,可以将真伪语音特征与声纹语音特征进行特征拼接得到串联特征具体地,由于真伪语音特征E1与声纹语音特征都为包含T维度信息以及d维度信息为二维特征,因此,在一个具体的应用场景中,可以将真伪语音特征E1与声纹语音特征进行二维叠加,以将真伪语音特征E1与声纹语音特征上对应的特征值进行数值拼接,从而得到串联特征
得到串联特征后,再经过全连接层和池化层操作,对串联特征进行特征变换和降维处理,以将二维特征的串联特征转化成只包含d维度特征的一维的串联特征以减少信息冗余,此时的串联特征不再包含T维度的时序信息,而包含整个样本语音句子层面的d维度特征。进行特征拼接后的串联特征可以利用不同类型的声学特征在不同频率段的时间频谱分辨率的差异性,展示出更多的特征信息。
步骤S23:分别通过不同的网络特征层对融合特征进行特征抽取,以得到第一嵌入表征以及第二嵌入表征;其中,第一嵌入表征包括真伪嵌入特征,第二嵌入特征包括声纹嵌入特征。
分别通过语音检测模型的不同的网络特征层对融合特征进行特征抽取,以得到第一嵌入表征以及第二嵌入表征,从而分别使语音检测模型的不同的网络特征层进行真伪检测任务以及声纹检测任务的网络学习。其中,第一嵌入表征包括真伪嵌入特征,第二嵌入特征包括声纹嵌入特征。
分别将串联特征输入到语音伪造检测网络特征层和声纹识别网络特征层进行嵌入表征的抽取,其中,语音伪造检测网络特征层中包括多层全连接、dropout和非线性激活等处理方式,通过将串联特征输入到语音伪造检测网络特征层中,经多层全连接层、dropout和非线性激活等方式抽取出包含真伪音信息和声纹信息的嵌入表征而声纹识别网络特征层中包括多层全连接层、dropout和非线性激活等处理方式,通过将串联特征输入到声纹识别特征层中,经多层全连接、dropout和多个非线性激活等方式抽取出包含真伪音信息和声纹信息的嵌入表征其中,本步骤中的语音伪造检测网络特征层和声纹识别网络特征层中网络节点的参数是不相同的,以便于语音伪造检测网络特征层和声纹识别网络特征层分别沿着语音伪造检测的方向和声纹识别的方向进行嵌入表征的抽取。
在一个具体的应用场景中,语音伪造检测网络特征层中多层全连接层的网络全连接节点数可以为100、50、2,而声纹识别网络特征层中多层全连接层的网络全连接节点数可以为100、60、50,以区别于语音伪造检测网络特征层。
步骤S24:将第一嵌入表征以及第二嵌入表征进行交叉融合,得到第一样本嵌入表征以及第二样本嵌入表征,利用第一样本嵌入表征对样本语音的真伪进行预测,得到第一预测结果,并利用第二样本嵌入表征对样本语音的说话人进行预测,得到第二预测结果。
将第一嵌入表征以及第二嵌入表征进行交叉融合,得到包含有第一嵌入表征以及第二嵌入表征的第一样本嵌入表征以及同样包含有第一嵌入表征以及第二嵌入表征的第二样本嵌入表征。从而进一步提高第一样本嵌入表征与第二样本嵌入表征的特征广泛度与丰富度。
在一个具体的应用场景中,可以将上一步骤中获得的两个嵌入表征E3和E4进行交叉融合。交叉融合可以按照如下公式进行构建:
Enew3=E3+a*E4 (1)
Enew4=E4+b*E3 (2)
其中E3表示步骤S23抽取出来的第一嵌入表征,E4表示步骤S23抽取出来的第二嵌入表征,a和b表示融合的标量系数,可以设置为可学习参数,可以相同或不同,Enew3和Enew4分别表示交叉融合后的第一样本嵌入表征以及第二样本嵌入表征。
在一个具体的应用场景中,可以将第一样本嵌入表征Enew3和第二样本嵌入表征Enew4再经过最后的全连接层进行各自分类任务的学习。具体地,真伪检测任务利用第一样本嵌入表征Enew3进行二分类训练分辨该句语音是为真实语音还是伪造语音,声纹检测任务利用第二样本嵌入表征Enew4进行多分类训练分辨该句语音是属于具体哪个说话人。
在一个具体的应用场景中,最后的全连接层可以包括100*2的矩阵,以基于样本语音的标签的维度,将第一样本嵌入表征Enew3和第二样本嵌入表征Enew4的维度进行调整匹配。
其中,利用第一样本嵌入表征Enew3对样本语音的真伪进行预测,得到第一预测结果,并利用第二样本嵌入表征Enew4对样本语音的说话人进行预测,得到第二预测结果。其中,第一预测结果可以包括样本语音是真实语音的概率或样本语音是伪造语音的概率。第二预测结果可以包括样本语音是某个说话人的概率。
步骤S25:基于第一预测结果、第二预测结果与样本语音的标签构建损失函数,利用损失函数调整语音检测模型的参数。
基于第一预测结果、第二预测结果与样本语音的标签构建损失函数,利用损失函数调整语音检测模型的参数。
在一个具体的应用场景中,可以使用交叉熵损失函数指导整个语音检测模型学习对真伪音和声纹信息的特征抽取。交叉熵损失函数可以用如下公式表示:
其中,p(y)表示样本语音的标签的概率分布,q(y)表示第一预测结果或第二预测结果的概率分布。基于样本语音的标签的概率分布对第一预测结果或第二预测结果的概率分布进行构建损失函数,并利用损失函数调整语音检测模型的参数。
在一个具体的应用场景中,样本语音的标签的概率分布可以为样本语音为真实语音的标准概率,而第一预测结果可以为语音检测模型预测出的样本语音为真实语音的预测概率,通过交叉熵损失函数基于标准概率与预测概率调整语音检测模型的参数。
在一个具体的应用场景中,本步骤可以通过有监督学习方式对语音检测模型进行反向梯度求导梯度下降法并调整语音检测模型参数,在损失函数值逐渐收敛或者通过验证集由早停法(Early Stopping)来决定模型训练结束条件,从而完成语音检测模型的训练,得到训练完成的语音检测模型。
本实施例采用多任务学习框架,首先将至少一个初始真伪特征以及至少一个初始声纹特征输入到权重共享的深度神经网络进行帧层面的特征学习,然后经过特征拼接、池化等操作后完成帧层面的特征融合和句子层面的特征提取,然后将该融合特征输入到语音伪造检测网络特征层和声纹识别网络特征层进行各自信息的目标学习,同时为了让语音检测模型可以同时利用声纹和真伪信息,加入交叉融合步骤,可以让各自的第一嵌入表征以及第二嵌入表征融合到对方的网络学习中,从而获得更丰富的信息去更好的进行各自的目标学习,优化语音检测模型的训练结果。
通过上述步骤,本实施例的语音检测模型的训练方法先对样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特,从而使得语音检测模型能够基于不同的声学特征进行语音检测,以得到更多区分真伪音的信息,以提高语音检测模型的检测准确性,再分别对至少一个初始真伪特征以及至少一个初始声纹特征进行深层特征提取,得到至少一个真伪语音特征以及至少一个声纹语音特征,从而利用深层特征提取来增加真伪语音特征与声纹语音特征的特征丰富度,以提高语音检测模型的检测可靠性;然后将至少一个真伪语音特征以及至少一个声纹语音特征进行特征融合,得到融合特征,以综合初始真伪特征与初始声纹特征,使得融合特征包括多种声学特征,能够使语音检测模型的训练得到更广泛的特征进行学习,提高语音检测模型的训练效果;随后分别通过不同的网络特征层对融合特征进行特征抽取,以得到第一嵌入表征以及第二嵌入表征,并将第一嵌入表征以及第二嵌入表征进行交叉融合,得到第一样本嵌入表征以及第二样本嵌入表征,并利用第一样本嵌入表征以及第二样本嵌入表征进行预测,得到第一预测结果和第二预测结果,从而使得语音检测模型的预测第一预测结果的预测过程能够学习到预测第二预测结果的预测信息,以及语音检测模型的预测第二预测结果的预测过程能够学习到预测第一预测结果的预测信息,从而进一步使得语音检测模型的预测在训练过程中能够学习到更加鲁棒的本质信息,提高语音检测模型的预测可靠性。最后,本实施例基于第一预测结果、第二预测结果与样本语音的标签构建损失函数,并利用损失函数调整语音检测模型的参数,从而基于样本语音的标签对语音检测模型的参数进行调整,得到训练完成的语音检测模型。本实施例训练完成后的语音检测模型检测效果准确、鲁棒性高、检测效率高。
请参阅图3,图3是本申请语音检测方法一实施例的流程示意图。
具体而言,可以包括如下步骤:
步骤S31:对待检测语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征。
获取到待检测语音,对待检测语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征。其中,特征提取后,获取到的初始真伪特征与初始声纹特征的具体数量可以分别为1个、3个、5个等,在此不做限定。
本实施例的特征提取过程、初始真伪特征的特征类型与初始声纹特征的类型与步骤S11或步骤S21中相同,请参阅前文,在此不再赘述。
步骤S32:通过语音检测模型将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征。
将至少一个初始真伪特征以及至少一个初始声纹特征输入到语音检测模型中,以通过语音检测模型对至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征。
步骤S33:分别对融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征。
通过语音检测模型对融合特征进行特征抽取得到第一嵌入表征,以及另外通过语音检测模型对融合特征再次进行特征抽取得到第二嵌入表征。其中,第二嵌入表征区别于第一嵌入表征。
步骤S34:基于第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度确定待检测语音的真伪;其中,真实语音的第一标准嵌入表征和第二标准嵌入表征的获取方式与待检测语音的第一嵌入表征和第二嵌入表征的获取方式相同。
基于第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度确定待检测语音的真伪。其中,当第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度超过相似度阈值时,即可确定待检测语音为真实语音;当第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度没有超过相似度阈值时,即可确定待检测语音为伪造语音。
其中,真实语音的第一标准嵌入表征和第二标准嵌入表征的获取方式与待检测语音的第一嵌入表征和第二嵌入表征的获取方式相同。在一个具体的应用场景中,可以将对真实语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征,再通过语音检测模型将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征,分别对融合特征进行特征抽取,得到真实语音的第一标准嵌入表征以及第二标准嵌入表征。
其中,本实施例的语音检测模型为采用上述任意一实施例的语音检测方法训练得到的语音检测模型。
通过上述步骤,本实施例的语音检测方法通过先将至少一个初始真伪特征以及至少一个初始声纹特征进行特征融合,得到融合特征,再分别对融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征,基于第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度确定待检测语音的真伪。本实施例通过综合了初始真伪特征与初始声纹特征的融合特征进行特征抽取,能够利用更广泛的声学特征来抽取更丰富的嵌入表征,提高了通过嵌入表征进行语音预测的可靠性,从而提高了语音检测模型的检测效率和效果,进而提高了语音检测模型对语音进行预测的准确性和可靠性。
在其他实施例中,基于第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度确定待检测语音的真伪的步骤还可以包括,将待检测语音的第一嵌入表征和第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征分别计算余弦相似度,具体地,计算待检测语音的第一嵌入表征与真实语音的第一标准嵌入表之间的余弦相似度P1,以及计算待检测语音的第二嵌入表征与真实语音的第二标准嵌入表征之间的余弦相似度P2,然后将P1与P2进行相乘得到最终的真伪音得分P3。将真伪音得分P3与相似度阈值P进行对比,当真伪音得分P3超过相似度阈值P时,确定样本语音为真实语音,否则为伪造语音。其中,通过相似度阈值P的设置高低可以控制整体语音伪造检测的虚警和漏警率的平衡,相似度阈值P的具体数值可以基于实际需求进行设置,在此不做限定。
请参阅图4,图4是本申请电子设备一实施例的框架示意图。电子设备40包括相互耦接的存储器41和处理器42,处理器42用于执行存储器41中存储的程序指令,以实现上述任一语音检测方法实施例的步骤或语音检测模型的训练方法实施例的步骤。在一个具体的实施场景中,电子设备40可以包括但不限于:微型计算机、服务器,此外,电子设备40还可以包括笔记本电脑、平板电脑等移动设备,在此不做限定。
具体而言,处理器42用于控制其自身以及存储器41以实现上述任一语音检测方法实施例的步骤。处理器42还可以称为CPU(Central Processing Unit,中央处理单元)。处理器42可能是一种集成电路芯片,具有信号的处理能力。处理器42还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器42可以由集成电路芯片共同实现。
上述方案,能够提高训练后的语音检测模型对语音进行预测的准确性和可靠性。
请参阅图5,图5为本申请计算机可读存储介质一实施例的框架示意图。计算机可读存储介质50存储有能够被处理器运行的程序指令501,程序指令501用于实现上述任一语音检测方法实施例的步骤或语音检测模型的训练方法实施例的步骤。
上述方案,能够提高训练后的语音检测模型对语音进行预测的准确性和可靠性。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (12)
1.一种语音检测模型的训练方法,其特征在于,所述语音检测模型的训练方法包括:
对样本语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征;
通过语音检测模型将所述至少一个初始真伪特征以及所述至少一个初始声纹特征进行特征融合,得到融合特征;
分别对所述融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征;
利用所述第一嵌入表征对所述样本语音的真伪进行预测,得到第一预测结果,并利用所述第二嵌入表征对所述样本语音的说话人进行预测,得到第二预测结果;
利用所述第一预测结果、所述第二预测结果与所述样本语音的标签之间的误差调整所述语音检测模型的参数。
2.根据权利要求1所述的语音检测模型的训练方法,其特征在于,所述通过语音检测模型将所述至少一个初始真伪特征以及所述至少一个初始声纹特征进行特征融合,得到融合特征的步骤,包括:
分别对所述至少一个初始真伪特征以及所述至少一个初始声纹特征进行深层特征提取,得到至少一个真伪语音特征以及至少一个声纹语音特征;
将所述至少一个真伪语音特征以及所述至少一个声纹语音特征进行特征融合,得到所述融合特征。
3.根据权利要求2所述的语音检测模型的训练方法,其特征在于,所述分别对所述至少一个初始真伪特征以及所述至少一个初始声纹特征进行深层特征提取,得到至少一个真伪语音特征以及至少一个声纹语音特征的步骤包括:
通过相同网络权重的深度神经网络和非线性激活函数分别对所述至少一个初始真伪特征以及所述至少一个初始声纹特征进行帧层面的深层特征提取,得到所述至少一个真伪语音特征以及所述至少一个声纹语音特征。
4.根据权利要求3所述的语音检测模型的训练方法,其特征在于,所述将所述至少一个真伪语音特征以及至少一个声纹语音特征进行特征融合,得到所述融合特征的步骤,包括:
将所述至少一个真伪语音特征以及所述至少一个声纹语音特征进行特征拼接,得到串联特征;
对所述串联特征进行特征转换得到所述融合特征。
5.根据权利要求1所述的语音检测模型的训练方法,其特征在于,所述分别对所述融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征的步骤包括:
分别通过不同的网络特征层对所述融合特征进行特征抽取,以得到所述第一嵌入表征以及第二嵌入表征;其中,所述第一嵌入表征包括真伪嵌入特征,所述第二嵌入特征包括声纹嵌入特征。
6.根据权利要求1或5所述的语音检测模型的训练方法,其特征在于,所述利用所述第一嵌入表征对所述样本语音的真伪进行预测,得到第一预测结果,并利用所述第二嵌入表征对所述样本语音的说话人进行预测,得到第二预测结果包括:
将所述第一嵌入表征以及所述第二嵌入表征进行交叉融合,得到第一样本嵌入表征以及第二样本嵌入表征;
利用所述第一样本嵌入表征对所述样本语音的真伪进行预测,得到所述第一预测结果,并利用所述第二样本嵌入表征对所述样本语音的说话人进行预测,得到所述第二预测结果。
7.根据权利要求6所述的语音检测模型的训练方法,其特征在于,所述将所述第一嵌入表征以及第二嵌入表征进行交叉融合,得到第一样本嵌入表征以及第二样本嵌入表征包括:
分别将所述第一嵌入表征以及所述第二嵌入表征进行加权叠加,得到所述第一样本嵌入表征以及所述第二样本嵌入表征。
8.根据权利要求1所述的语音检测模型的训练方法,其特征在于,所述利用所述第一预测结果、所述第二预测结果与所述样本语音的标签之间的误差调整所述语音检测模型的参数步骤包括:
基于所述第一预测结果、所述第二预测结果与所述样本语音的标签构建损失函数;
利用所述损失函数调整所述语音检测模型的参数。
9.一种语音检测方法,其特征在于,所述语音检测方法包括:
对待检测语音进行特征提取,得到至少一个初始真伪特征以及至少一个初始声纹特征;
通过语音检测模型将所述至少一个初始真伪特征以及所述至少一个初始声纹特征进行特征融合,得到融合特征;
分别对所述融合特征进行特征抽取,得到第一嵌入表征以及第二嵌入表征;
基于第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度确定所述待检测语音的真伪;其中,所述真实语音的第一标准嵌入表征和第二标准嵌入表征的获取方式与所述待检测语音的第一嵌入表征和第二嵌入表征的获取方式相同;
其中,所述语音检测模型为采用权利要求1-9中任一项所述的语音检测方法训练得到的语音检测模型。
10.根据权利要求9所述的语音检测方法,其特征在于,所述基于第一嵌入表征以及第二嵌入表征与真实语音的第一标准嵌入表征以及第二标准嵌入表征之间的相似度确定所述待检测语音的语音类型的步骤包括:
分别计算所述第一待检测嵌入表征与所述第一标准嵌入表征以及所述第二待检测嵌入表征与所述第二标准嵌入表征之间的余弦相似度;
响应于所述第一待检测嵌入表征与所述第一标准嵌入表征之间的余弦相似度与所述第二待检测嵌入表征与所述第二标准嵌入表征之间的余弦相似度之间的乘积超过预设阈值,将所述真实语音的语音类型确定为所述待检测语音的语音类型。
11.一种电子设备,其特征在于,包括相互耦接的存储器和处理器,所述处理器用于执行所述存储器中存储的程序指令,以实现如权利要求1至8任一项所述的语音检测模型的训练方法或如权利要求9-10所述的语音检测方法。
12.一种计算机可读存储介质,其上存储有程序指令,其特征在于,所述程序指令被处理器执行时实现如权利要求1至8任一项所述的语音检测模型的训练方法或如权利要求9-10所述的语音检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110542473.4A CN113450806B (zh) | 2021-05-18 | 2021-05-18 | 语音检测模型的训练方法以及相关方法、装置、设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110542473.4A CN113450806B (zh) | 2021-05-18 | 2021-05-18 | 语音检测模型的训练方法以及相关方法、装置、设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113450806A true CN113450806A (zh) | 2021-09-28 |
CN113450806B CN113450806B (zh) | 2022-08-05 |
Family
ID=77810073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110542473.4A Active CN113450806B (zh) | 2021-05-18 | 2021-05-18 | 语音检测模型的训练方法以及相关方法、装置、设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113450806B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116153336A (zh) * | 2023-04-19 | 2023-05-23 | 北京中电慧声科技有限公司 | 一种基于多域信息融合的合成语音检测方法 |
CN116844553A (zh) * | 2023-06-02 | 2023-10-03 | 支付宝(杭州)信息技术有限公司 | 数据处理方法、装置及设备 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2340501A1 (en) * | 2000-03-28 | 2001-09-28 | International Business Machines Corporation | System, method, and program product for authenticating or identifying a subject through a series of controlled changes to biometrics of the subject |
US20040010697A1 (en) * | 2002-03-13 | 2004-01-15 | Conor White | Biometric authentication system and method |
US20060248019A1 (en) * | 2005-04-21 | 2006-11-02 | Anthony Rajakumar | Method and system to detect fraud using voice data |
CN107545248A (zh) * | 2017-08-24 | 2018-01-05 | 北京小米移动软件有限公司 | 生物特征活体检测方法、装置、设备及存储介质 |
CN108198574A (zh) * | 2017-12-29 | 2018-06-22 | 科大讯飞股份有限公司 | 变声检测方法及装置 |
CN108280418A (zh) * | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
CN109147799A (zh) * | 2018-10-18 | 2019-01-04 | 广州势必可赢网络科技有限公司 | 一种语音识别的方法、装置、设备及计算机存储介质 |
CN110289004A (zh) * | 2019-06-18 | 2019-09-27 | 暨南大学 | 一种基于深度学习的人工合成声纹检测系统及方法 |
AU2018255485A1 (en) * | 2017-04-19 | 2019-11-07 | Auraya Pty Ltd | Voice authentication system and method |
US20190377963A1 (en) * | 2018-06-11 | 2019-12-12 | Laurence Hamid | Liveness detection |
US20200014541A1 (en) * | 2018-03-07 | 2020-01-09 | Open Inference Holdings LLC | Systems and methods for privacy-enabled biometric processing |
US20200342245A1 (en) * | 2017-03-21 | 2020-10-29 | Sri International | Robust biometric access control based on dynamic structural changes in tissue |
-
2021
- 2021-05-18 CN CN202110542473.4A patent/CN113450806B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2340501A1 (en) * | 2000-03-28 | 2001-09-28 | International Business Machines Corporation | System, method, and program product for authenticating or identifying a subject through a series of controlled changes to biometrics of the subject |
US20040010697A1 (en) * | 2002-03-13 | 2004-01-15 | Conor White | Biometric authentication system and method |
US20060248019A1 (en) * | 2005-04-21 | 2006-11-02 | Anthony Rajakumar | Method and system to detect fraud using voice data |
US20200342245A1 (en) * | 2017-03-21 | 2020-10-29 | Sri International | Robust biometric access control based on dynamic structural changes in tissue |
AU2018255485A1 (en) * | 2017-04-19 | 2019-11-07 | Auraya Pty Ltd | Voice authentication system and method |
CN107545248A (zh) * | 2017-08-24 | 2018-01-05 | 北京小米移动软件有限公司 | 生物特征活体检测方法、装置、设备及存储介质 |
CN108280418A (zh) * | 2017-12-12 | 2018-07-13 | 北京深醒科技有限公司 | 脸部图像的欺骗识别方法及装置 |
CN108198574A (zh) * | 2017-12-29 | 2018-06-22 | 科大讯飞股份有限公司 | 变声检测方法及装置 |
US20200014541A1 (en) * | 2018-03-07 | 2020-01-09 | Open Inference Holdings LLC | Systems and methods for privacy-enabled biometric processing |
US20190377963A1 (en) * | 2018-06-11 | 2019-12-12 | Laurence Hamid | Liveness detection |
CN109147799A (zh) * | 2018-10-18 | 2019-01-04 | 广州势必可赢网络科技有限公司 | 一种语音识别的方法、装置、设备及计算机存储介质 |
CN110289004A (zh) * | 2019-06-18 | 2019-09-27 | 暨南大学 | 一种基于深度学习的人工合成声纹检测系统及方法 |
Non-Patent Citations (2)
Title |
---|
XUPING HUANG: "Watermarking Based Data Spoofing Detection Against Speech Synthesis and Impersonation with Spectral Noise Perturbation", 《2018 IEEE INTERNATIONAL CONFERENCE ON BIG DATA (BIG DATA)》 * |
陈莹等: "基于多模态生成对抗网络和三元组损失的说话人识别", 《电子与信息学报》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116153336A (zh) * | 2023-04-19 | 2023-05-23 | 北京中电慧声科技有限公司 | 一种基于多域信息融合的合成语音检测方法 |
CN116844553A (zh) * | 2023-06-02 | 2023-10-03 | 支付宝(杭州)信息技术有限公司 | 数据处理方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113450806B (zh) | 2022-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shon et al. | Frame-level speaker embeddings for text-independent speaker recognition and analysis of end-to-end model | |
EP3955246B1 (en) | Voiceprint recognition method and device based on memory bottleneck feature | |
KR102239129B1 (ko) | 심층신경망을 이용하는 종단 간 화자 인식 | |
CN111276131B (zh) | 一种基于深度神经网络的多类声学特征整合方法和系统 | |
CN109545227B (zh) | 基于深度自编码网络的说话人性别自动识别方法及系统 | |
CN113450806B (zh) | 语音检测模型的训练方法以及相关方法、装置、设备 | |
Rieger et al. | Speech based emotion recognition using spectral feature extraction and an ensemble of kNN classifiers | |
CN113035231B (zh) | 关键词检测方法及装置 | |
CN112329438B (zh) | 基于域对抗训练的自动谎言检测方法及系统 | |
KR20200104019A (ko) | 머신러닝 기반의 음성데이터 분석 방법, 장치 및 프로그램 | |
CN113284513B (zh) | 基于音素时长特征的虚假语音检测方法及装置 | |
CN111816166A (zh) | 声音识别方法、装置以及存储指令的计算机可读存储介质 | |
CN113488073A (zh) | 一种基于多特征融合的伪造语音检测方法及装置 | |
CN114677634B (zh) | 面签识别方法、装置、电子设备及存储介质 | |
Marras et al. | Deep multi-biometric fusion for audio-visual user re-identification and verification | |
Mohammed et al. | Advantages and disadvantages of automatic speaker recognition systems | |
Shah et al. | Unsupervised Vocal Tract Length Warped Posterior Features for Non-Parallel Voice Conversion. | |
CN116705063B (zh) | 一种基于流形测度的多模型融合的语音鉴伪识别方法 | |
CN111785284A (zh) | 基于音素辅助的文本无关声纹识别方法、装置以及设备 | |
CN112133291A (zh) | 一种语种识别模型训练、语种识别的方法和相关装置 | |
Naveen et al. | Speaker Identification and Verification using Deep Learning | |
CN114333840A (zh) | 语音鉴别方法及相关装置、电子设备和存储介质 | |
Moonasar et al. | A committee of neural networks for automatic speaker recognition (ASR) systems | |
Dennis et al. | Generalized Hough transform for speech pattern classification | |
Moustafa et al. | Towards an Efficient Voice Identification Using Wav2Vec2. 0 and HuBERT Based on the Quran Reciters Dataset |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220311 Address after: 230000 R & D building of artificial intelligence cloud service platform, No. 666, Wangjiang West Road, high tech Zone, Hefei, China (Anhui) pilot Free Trade Zone, Hefei, Anhui Applicant after: HEFEI USTC IFLYTEK CO.,LTD. Address before: 230088 666 Wangjiang West Road, Hefei hi tech Development Zone, Anhui Applicant before: IFLYTEK Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |