CN108520752A - 一种声纹识别方法和装置 - Google Patents
一种声纹识别方法和装置 Download PDFInfo
- Publication number
- CN108520752A CN108520752A CN201810382018.0A CN201810382018A CN108520752A CN 108520752 A CN108520752 A CN 108520752A CN 201810382018 A CN201810382018 A CN 201810382018A CN 108520752 A CN108520752 A CN 108520752A
- Authority
- CN
- China
- Prior art keywords
- vector
- tested
- formula
- transformation matrix
- speech waveform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 239000013598 vector Substances 0.000 claims abstract description 212
- 239000011159 matrix material Substances 0.000 claims abstract description 106
- 230000009466 transformation Effects 0.000 claims abstract description 78
- 238000012549 training Methods 0.000 claims description 56
- 238000005457 optimization Methods 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000005452 bending Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 description 19
- 230000000694 effects Effects 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000001755 vocal effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000005520 cutting process Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000001737 promoting effect Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 241001014642 Rasta Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 235000021018 plums Nutrition 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 101150049349 setA gene Proteins 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/08—Use of distortion metrics or a particular distance between probe pattern and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种声纹识别方法和装置,涉及声纹识别的技术领域,该方法包括:获取第一向量和第二向量,其中,第一向量为待测试语音波形的紧凑表示向量,第二向量为已知语音波形的紧凑表示向量,已知语音波形为所属于目标对象的语音数据,待测试语音波形为被测试的是否属于目标对象的语音数据;获取变换矩阵;基于变换矩阵分别对第一向量和第二向量进行补偿,得到第一目标向量和第二目标向量;通过计算第一目标向量和第二目标向量的余弦相似度来确定待测试语音波形是否属于目标对象。本发明解决了现有技术中在复杂场景下的声纹识别精度无法满足应用需求的技术问题。
Description
技术领域
本发明涉及声纹识别的技术领域,尤其是涉及一种声纹识别方法和装置。
背景技术
声纹识别是一种非常有用的生物识别技术,在安防、音频检索等领域具有广阔的应用前景。声纹识别包括说话人确认(Speaker Verification)和说话人检索(SpeakerIdentification)两大核心任务,前者是指确认某段未知语音是否由声称说话人发出,而后者的目标是在已有说话人的集合中检索输入语音的发出者。
声纹识别技术的研究起始于20世纪60年代,2000年麻省理工学院的林肯实验室提出了通用背景模型(Universal Background Model,UBM)奠定了现代声纹识别技术的基础。2010年Najim Dehak等人发表的论文提出了身份向量(Identity Vectors,i-vector)以及余弦得分进一步提升了声纹识别的性能。
经过几十年的发展,声纹识别技术取得了长足的进步,但是在信道变化、噪声环境、注册及测试语音有限、多说话人混叠等复杂场景下目前的声纹识别技术在识别精度上依然无法满足应用需求。
针对以上问题,还未提出有效解决方案。
发明内容
有鉴于此,本发明的目的在于提供一种声纹识别方法和装置,以解决现有技术中在复杂场景下的声纹识别精度无法满足应用需求的技术问题。
本发明实施例提供了一种声纹识别方法,包括:获取第一向量和第二向量,其中,所述第一向量为待测试语音波形的紧凑表示向量,所述第二向量为已知语音波形的紧凑表示向量,所述已知语音波形为所属于目标对象的语音数据,所述待测试语音波形为被测试的是否属于所述目标对象的语音数据;获取变换矩阵,其中,所述变换矩阵为对所述第一向量和所述第二向量中的信道变化信息进行补偿的矩阵;基于所述变换矩阵分别对所述第一向量和所述第二向量进行补偿,得到第一目标向量和第二目标向量;通过计算所述第一目标向量和所述第二目标向量的余弦相似度来确定所述待测试语音波形是否属于所述目标对象。
进一步地,通过计算所述第一目标向量和所述第二目标向量的余弦相似度来确定所述待测试语音波形是否属于所述目标对象包括:通过公式来计算所述余弦相似度,其中,x为所述第一向量,y为所述第二向量,A为所述变换矩阵;当所述余弦相似度大于或等于预设值时,确定所述待测试语音波形属于所述目标对象;当所述余弦相似度小于预设值时,确定所述待测试语音波形不属于所述目标对象。
进一步地,获取变换矩阵包括:通过第一公式和正则化处理公式确定所述变换矩阵,其中,,所述第一公式为:g(A)为得分间隔,(xi,yi)为两段音频波形的紧凑表示向量组成的训练样本对,所述训练样本对中的两段音频波形来自于同一个说话对象,或者,不同的说话对象;pos={i|li=1},pos为S个训练样本对中正例样本对集合,neg={i|li=0},neg为S个训练样本对中反例样本对集合;所述正则化处理公式为:h(A)=||A-A0||2,A0为预先定义的矩阵,所述预先定义的矩阵A0使用以下方法之一得到:线性判别性分析、类内协方差规整和扰动属性投影法;其中,A为所述变换矩阵。
进一步地,通过第一公式和正则化处理公式确定所述变换矩阵包括:基于所述第一公式和所述正则化处理公式确定第二公式,其中,所述第二公式表示为:其中,α,β≥0,参数α和参数β均为平衡因子,f(A)为优化目标;通过第二公式得到所述优化目标的最大值,并将所述优化目标的最大值所对应的矩阵确定为所述变换矩阵A。
进一步地,通过第二公式得到所述优化目标的最大值,并将所述优化目标的最大值所对应的矩阵确定为所述变换矩阵A包括:对所述第二公式进行求解,得到所述变换矩阵A,具体包括以下步骤:
初始化步骤:设定初始点A(0),所述预先定义的矩阵A0,参数α和参数β,其中,精度ε>0,令k=0;
第一计算步骤,基于所述优化目标的梯度计算公式计算梯度其中,f(A)为所述优化目标;
判断步骤,判断是否成立,其中,当成立时,则迭代结束,并设置A*=A(k),以及确定A(k)为所述变换矩阵A,否则进行第二计算步骤和设置步骤,其中,A*为所述优化目标的最大值所对应的矩阵;
所述第二计算步骤,基于精确一维搜索法求的一个极小点λk,使得
所述设置步骤,设置并返回执行所述第一计算步骤。
进一步地,所述优化目标的梯度计算公式为:
其中,
进一步地,获取第一向量和第二向量包括:对获取的注册语音和测试语音进行预处理,得到目标注册语音和目标测试语音;提取所述目标注册语音和所述目标测试语音的声学特征;对所述目标注册语音和所述目标测试语音的声学特征进行弯曲;基于训练结果分别对进行弯曲后的所述目标注册语音和所述目标测试语音的声学特征进行处理,得到所述第一向量和所述第二向量。
进一步地,所述训练结果为通过对获取到的训练语音进行训练得到的训练模型。
根据本发明实施例,还提供了一种声纹识别装置,包括:第一获取单元,用于获取第一向量和第二向量,其中,所述第一向量为待测试语音波形的紧凑表示向量,所述第二向量为已知语音波形的紧凑表示向量,所述已知语音波形为所属于目标对象的语音数据,所述待测试语音波形为被测试的是否属于所述目标对象的语音数据;第二获取单元,用于获取变换矩阵,其中,所述变换矩阵为对所述第一向量和所述第二向量中的信道变化信息进行补偿的矩阵;补偿单元,用于基于所述变换矩阵分别对所述第一向量和所述第二向量进行补偿,得到第一目标向量和第二目标向量;确定单元,用于通过计算所述第一目标向量和所述第二目标向量的余弦相似度来确定所述待测试语音波形是否属于所述目标对象。
进一步地,确定单元包括:第一计算模块,用于通过公式来计算所述余弦相似度,其中,x为所述第一向量,y为所述第二向量,A为所述变换矩阵;第一确定模块,用于当所述余弦相似度大于或等于预设值时,确定所述待测试语音波形属于所述目标对象;第二确定模块,用于当所述余弦相似度小于预设值时,确定所述待测试语音波形不属于所述目标对象。
在本发明实施例中,首先,获取第一向量和第二向量,其中,第一向量为待测试语音波形的紧凑表示向量,第二向量为已知语音波形的紧凑表示向量,已知语音波形为所属于目标对象的语音数据,待测试语音波形为被测试的是否属于目标对象的语音数据;其次,获取变换矩阵;然后,基于变换矩阵分别对第一向量和第二向量进行补偿,得到第一目标向量和第二目标向量;最后,通过计算第一目标向量和第二目标向量的余弦相似度来确定待测试语音波形是否属于目标对象。在本发明中,通过变换矩阵对各语音波形的紧凑表示向量进行补偿的方式,达到了提升了语音识别精度的目的,进而解决了现有技术中在复杂场景下的声纹识别精度无法满足应用需求的技术问题,从而实现了提升声纹识别的准确率的技术效果。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例提供的一种声纹识别方法的流程图;
图2是根据本发明实施例提供的训练样本对的构造方法示意图;
图3是根据本发明实施例提供的对第二公式进行求解的方法流程图;
图4是根据本发明实施例提供的一种可选地声纹识别方法的流程图;
图5是根据本发明实施例提供的随着注册语音长度的增加,余弦度量学习方案相对概率线性判别性分析方案的信道补偿效果的相对性能提升图;
图6是根据本发明实施例提供的一个测试特例的假正率和假负率的平衡曲线图;
图7是根据本发明实施例提供的一种声纹识别装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
根据本发明实施例,提供了一种声纹识别方法的实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
图1是根据本发明实施例提供的一种声纹识别方法的流程图。如图1所示,该方法包括如下步骤:
步骤S102,获取第一向量和第二向量,其中,第一向量为待测试语音波形的紧凑表示向量,第二向量为已知语音波形的紧凑表示向量,已知语音波形为所属于目标对象的语音数据,待测试语音波形为被测试的是否属于目标对象的语音数据;
步骤S104,获取变换矩阵,其中,变换矩阵为对第一向量和第二向量中的信道变化信息进行补偿的矩阵;
步骤S106,基于变换矩阵分别对第一向量和第二向量进行补偿,得到第一目标向量和第二目标向量;
步骤S108,通过计算第一目标向量和第二目标向量的余弦相似度来确定待测试语音波形是否属于目标对象。
在本发明实施例中,首先,获取第一向量和第二向量,其中,第一向量为待测试语音波形的紧凑表示向量,第二向量为已知语音波形的紧凑表示向量,已知语音波形为所属于目标对象的语音数据,待测试语音波形为被测试的是否属于目标对象的语音数据;其次,获取变换矩阵;然后,基于变换矩阵分别对第一向量和第二向量进行补偿,得到第一目标向量和第二目标向量;最后,通过计算第一目标向量和第二目标向量的余弦相似度来确定待测试语音波形是否属于目标对象。在本发明中,通过变换矩阵对各语音波形的紧凑表示向量进行补偿的方式,达到了提升了语音识别精度的目的,进而解决了现有技术中在复杂场景下的声纹识别精度无法满足应用需求的技术问题,从而实现了提升声纹识别的准确率的技术效果。
在一个可选的实施方式中,步骤S108,通过计算第一目标向量和第二目标向量的余弦相似度来确定待测试语音波形是否属于目标对象包括:
步骤S1081,通过公式来计算余弦相似度,其中,x为第一向量,y为第二向量;
步骤S1082,当余弦相似度大于或等于预设值时,确定待测试语音波形属于目标对象;
步骤S1083,当余弦相似度小于预设值时,确定待测试语音波形不属于目标对象。
下面以一个具体的实施例来对上述通过计算余弦相似度来确定待测试语音波形是否属于目标对象来进行具体的说明。
在本发明实施例中,假设ωtarget(即,上述x)表示声称说话人(即,上述目标对象)的紧凑表示向量,ωtest(即,上述y)表示未知测试语音波形(即,上述待测试语音波形)的紧凑表示向量。为了判断未知测试语音是否由声称说话人发出,一个有效的方法是计算ωtarget和ωtest的余弦得分(即,上述余弦相似度)。当余弦得分超过预先设定的阈值θ(即,上述预设值)时则认为未知测试语音波形由声称说话人发出,反之则不是,具体公式表示为:
在本发明实施例中,由于声称说话人的语音波形的紧凑表示向量ωtarget(即,上述x)和未知测试语音波形的紧凑表示向量ωtest(即,上述y)中不仅包含了说话人的身份信息,还包含了信道的变化信息。因此,为了提升识别精度,需要对上述紧凑表示向量进行信道补偿变换。进行信道补偿变换后的余弦相似度公式即为公式
需要说明的是,变换矩阵A的作用就是对紧凑表示向量x和y中的信道变化信息进行补偿,以提升声纹识别的准确率。
在一个可选的实施方式中,步骤S104,获取变换矩阵包括:
步骤S1041,通过第一公式和正则化处理公式确定所述变换矩阵,其中第一公式为:
g(A)为所述得分间隔,(xi,yi)为两段音频波形的紧凑表示向量组成的训练样本对,所述训练样本对中的两段音频波形来自于同一个说话对象,或者,不同的说话对象;pos={i|li=1},pos为S个训练样本对中正例样本对集合,neg={i|li=0},neg为S个训练样本对中反例样本对集合;正则化处理公式为:h(A)=||A-A0||2,A0为预先定义的矩阵,预先定义的矩阵A0使用以下方法之一得到:线性判别性分析、类内协方差规整和扰动属性投影法;其中,A为变换矩阵。
在本发明实施例中,假设(xi,yi)为两段音频波形的紧凑表示向量组成的训练样本对,其中,当(xi,yi)来自同一个说话人时,令li=1表示正例样本对;反之,当(xi,yi)属于不同说话人(即,上述说话对象)时,令li=0表示反例样本对。假设,由S个训练样本对构成的样本集合作为训练集,同时分别定义训练集S中正例样本对和反例样本对组成的集合为:pos={i|li=1};neg={i|li=0},则为了使上述训练集S中正例样本和反例样本的得分间隔尽可能的大,需要在整个训练集上对正反例样本的得分间隔进行整体优化,因此可得如下式所示的第一公式:
在本发明实施例中,第一公式的意义在于使得正例样本对的得分值尽可能大的同时,使得反例样本对的得分值尽可能的小。
需要说明的是,上述第一公式中还需要构造训练样本对,下面对一种特殊的训练样本对的构造方式进行具体的说明。
在本发明实施例中,假设有一个包含N个说话对象的语音波形的训练集,同时每个说话对象有Mi个紧凑表示向量,i表示训练集中每个说话对象的编号,且i=1,2,…,N。将每个说话对象所有语音波形的紧凑表示向量叠加起来作为对应说话对象的声纹向量,表示为:则上述第一公式可写成如下所示的优化目标公式:
其中,xij表示第i个说话人的第j个紧凑表示向量。
在本发明实施例中,上述优化目标公式的目的是使说话人的紧凑表示向量xij与自己的声纹向量voiceprint(i)的余弦相似度尽可能的大,同时与其他说话人声纹向量的余弦相似度尽可能的小。
图2是根据本发明实施例提供的训练样本对的构造方法示意图。如图2所示,说话对象1和声纹向量1构成一对训练样本对,说话对象2和声纹向量2构成一对训练样本对,说话对象3和声纹向量3构成一对训练样本对。该构造方法的目的是增大训练样本对的余弦得分值,减小说话对象与替他说话对象的声纹向量的余弦得分值,即,上述使说话人的紧凑表示向量xij与自己的声纹向量voiceprint(i)的余弦相似度尽可能的大,同时与其他说话人声纹向量的余弦相似度尽可能的小。
具体地,如图2所示,该示意图表示上述优化目标公式的目的是尽可能的增大写有标号S1、S2、S3的区域的余弦得分值,同时尽可能减小未写有标号S1、S2、S3的区域(即,如图2中所示的空白区域)的余弦得分值。由于图2中空白区域的数量远远多于写有标号的区域的数量,因此用一个因子α来平衡两类得分的数量,以达到更好的估算变换矩阵A的目的。
在本发明实施例中,为了防止优化得分间隔过程中,出现得分方差过大的现象,还需对第一公式进行正则化处理,即通过正则化处理公式h(A)=||A-A0||2来对变换矩阵A进行约束,使得变换矩阵A接近于一个预先定义的矩阵A0。其中,预先定义的矩阵A0可以是任何矩阵,该正则化处理的主要目的是使得变换矩阵A能在A0的基础上获得更好的效果,同时尽可能的减小训练误差。
在本发明实施例中,获取预先定义的矩阵A0的方式有很多种,如,线性判别性分析(LDA,Linear Discriminant Analysis)、类内协方差规整(WCCN,Within ClassCovariance Normalization)和扰动属性投影法(NAP,Nuisance Attribute Projection)等,但是,在本实施例中,并不局限于以上几种方法。
在一个可选的实施方式中,步骤S1041,通过第一公式和正则化处理公式确定变换矩阵包括如下步骤:
步骤S1,基于第一公式和正则化处理公式确定第二公式,其中,第二公式表示为:其中,α,β≥0,参数α和参数β均为平衡因子,f(A)为优化目标;
步骤S2,通过第二公式得到优化目标的最大值,并将优化目标的最大值所对应的矩阵确定为变换矩阵A。
在本发明实施例中,结合第一公式和正则化处理公式,得到上述第二公式,上述第二公式的意义为求解第二公式的最大值所对应的A矩阵。
在本发明实施例中,第二公式中的α,β≥0,其中,参数α用于平衡正反例样本对的数量,可以简单的设定为需要说明的是,这里|pos|和|neg|分别表示正反例样本对的数量,也可以通过交叉验证来获得。参数β的作用是平衡第一公式中的得分间隔g(A)和待估计变换矩阵A与预先定义的矩阵A0之间的距离h(A),可以看出当β趋于无穷大时变换矩阵A与预先定义的矩阵A0相等。
在另一个可选的实施方式中,步骤S2,通过第二公式得到优化目标的最大值,并将优化目标的最大值所对应的矩阵确定为变换矩阵A包括:对第二公式进行求解,得到变换矩阵A,具体包括以下步骤:
初始化步骤:设定初始点A(0),预先定义的矩阵A0,参数α和参数β,其中,精度ε>0,令k=0;
第一计算步骤,基于优化目标的梯度计算公式计算梯度其中,f(A)为所述优化目标;
判断步骤,判断是否成立,其中,当成立时,则迭代结束,并设置A*=A(k),以及确定A(k)为变换矩阵A,否则进行第二计算步骤和设置步骤,其中,A*为所述优化目标的最大值所对应的矩阵;
第二计算步骤,基于精确一维搜索法求的一个极小点λk,使得
设置步骤,设置并返回执行第一计算步骤。
具体地,优化目标的梯度计算公式为:
其中,
图3是根据本发明实施例提供的对第二公式进行求解的方法流程图。
在本发明实施例中,如图3所示,对第二公式进行求解的方法为:首先进行初始化设置,即,设定初始点A(0),预先定义的矩阵A0,参数α和参数β,其中,精度ε>0,令k=0;其次,计算梯度然后,判断是否成立,如果判断出是,则迭代结束,输出A*=A(k)以及f(A(k)),否则计算极小点λk,并设置并返回执行计算梯度的步骤。
需要说明的是,上述对第二公式进行求解的方法仅为求解第二公式的一种算法,第二公式的求解算法并不限于上述算法。
图4是根据本发明实施例提供的一种可选地声纹识别方法的流程图。
在一个可选的实施方式中,步骤S102,获取第一向量和第二向量包括如下步骤:
步骤S1021,对获取的注册语音和测试语音进行预处理,得到目标注册语音和目标测试语音;
步骤S1022,提取目标注册语音和目标测试语音的声学特征;
步骤S1023,对目标注册语音和目标测试语音的声学特征进行弯曲;
步骤S1024,基于训练结果分别对进行弯曲后的所述目标注册语音和目标测试语音的声学特征进行处理,得到第一向量和第二向量。
具体地,训练结果为通过对获取到的训练语音进行训练得到的训练模型。
在本发明实施例中,如图4所示,该声纹识别方法包括三个阶段,分别为训练阶段、注册阶段和测试阶段。其中,训练阶段包括以下几个步骤:
步骤S1,对语音波形进行预处理。
在本发明实施例中,对语音波形进行预处理包括:利用语音端点检测(VoiceActivity Detection,VAD)去除原始语音中的静音段;并对去除了静音段的音频信号进行切割,切割长度为10~25秒。在本发明实施例中,选择切割长度为15秒。需要说明的是,在本发明实施例中,训练阶段的语音波形为如图4中所示的训练数据集中的语音波形。
步骤S2,提取语音波形中的声学特征。
在本发明实施例中,对声学特征进行提取的目的是把信息冗余度高、特征混叠较严重的语音波形转换成冗余度低、且包含更多说话人信息的紧凑表示方式。在声纹识别中,最常用的特征是线性预测和梅尔倒谱特征。
在本发明实施例中,由于语音信号的高频部分能量小,而低频部分的能量高,因此,为了提升语音信号中的高频成分,使得信号的频谱变得平缓,在提取特征前还需要对信号进行预加重。此外,由于语音信号是一个短时平稳的随机过程,在较短的时间内可以认为是平稳的,因此在特征提取前为了保证待分析信号是平稳的,还需要对其进行加窗分帧处理,需要说明的是,为了保证语音帧的连续性,相邻帧之间会有部分重叠。
综上所述,在步骤二中,共包括预加重、加窗分帧、以及特征提取三步。
具体地,在本发明实施例中,加窗宽度为25毫秒,滑动时长为10毫秒;采用19维梅尔倒谱系数(mel-frequency cepstral coefficients,MFCC),13维RASTA线性预测倒谱系数(Relative spectral filtered perceptual linear predictive cepstralcoefficients,RASTA-PLP),和每一帧的能量作为声学特征,此外,还包括上述特征的一阶和二阶差分系数,因此每一帧语音波形总共有33×3=99维。
步骤S3,对声学特征进行弯曲。
在本发明实施例中,为了对信道不匹配进行补偿,在建模前需要对倒谱特征流进行弯曲,以使其满足标准正态分布,同时使训练语音和测试语音都映射到相同的统计分布空间,可提升说话人识别系统对信道和噪声的鲁棒性,另外由于对倒谱特征是用高斯混合模型建模的,所以这一步非常有用。在本发明实施例中,特征弯曲所用的窗长约为3s,包括301帧,帧速率为100HZ。
步骤S4,通用背景模型(UBM)训练。
在本发明实施例中,UBM模型是由大量说话人,多种信道环境的数据训练而成。本发明实施例采用高斯混合模型(GMM)作为UBM,GMM以多个高斯分布的线性加权叠加来实现对概率空间的描述,具体如下式所示:
其中,
在本发明实施例中,采用的是2048个高斯分量的GMM,GMM参数的估计采用EM(Expectation Maximization Algorithm,最大期望算法)算法。
步骤S5,计算Baum-Welch(0阶-1阶)统计量。
在本发明实施例中,在步骤四训练完成后,利用UBM计算0阶和1阶充分统计量,其中0阶和1阶充分统计量分别为: 其中,上述两式中的p(g|Ot,λubm)为给定观测矢量Ot时UBM的高斯分量g对应的后验概率。
步骤S6,训练全局变化子空间T,并对i-vector进行提取。
在本发明实施例中,全局变化子空间既包含了说话者之间的差异,又包含了信道之间的差异。当给定一段未知语音时,该语音中与说话人相关的以及与信道相关的GMM均值超矢量存在表示为:M=m+T·x;其中,M为给定未知语音后采用MAP(Maximum aposteriori,最大后验概率)算法对UBM自适应调整得到的与说话人以及信道相关的GMM均值超矢量,T为因子载荷矩阵,也称为全局变化子空间,m为UBM的均值超矢量,x~N(0,I)为全局变化因子向量,也称为i-vector。一般i-vector的维数在400~800之间,在本发明实施例中,i-vector为400维。
步骤S7,计算变换矩阵A0。
在本发明实施例中,采用线性判别分析(LDA)法对变换矩阵A0进行计算,LDA是一种经典的监督降维技术,其核心思想是使样本在变换后的空间中类内距离更小类间距离更大。需要说明的是,变换矩阵A0还可以使用类内协方差规整(WCCN)和扰动属性投影法(NAP)等方法进行计算得到,但不限于上述几种算法。
步骤S8,计算变换矩阵A。
在本发明实施例中,通过余弦相似性度学习算法对变换矩阵A进行计算,具体的实施步骤见上述确定变换矩阵的过程。
需要说明的是,在本发明实施例中,上述训练结果指的是在训练阶段的步骤S4得到的UBM,在步骤S6得到的全局变化子空间T,以及在步骤S8得到的变换矩阵A。
在本发明实施例中,如图4所示,注册阶段包括以下几个步骤:
步骤S11:对注册集音频波形进行预处理,包括:注册集音频波形(即,上述注册语音)的语音端点检测,并去除静音段,完成数据切割,得到上述目标注册语音。
需要说明的是,在本发明实施例中,注册语音为如图4中所示的注册数据集中的语音波形。
步骤S22:提取目标注册语音的语音波形中的声学特征。
步骤S33:对提取的声学特征进行弯曲。
步骤S44:利用训练阶段得到的UBM计算0阶和1阶充分统计量(即,如图4所示的步骤S44中的Baum-Welch统计量计算)。
步骤S55:利用训练阶段得到的全局变化子空间矩阵T计算目标注册语音的i-vector(即,上述第一向量)。
步骤S66:利用训练阶段得到的变换矩阵A对注册说话人的i-vector(即,上述第一向量)进行变换,得到上述第一目标向量,完成注册。
在本发明实施例中,如图4所示,测试阶段包括以下几个步骤:
步骤S111:对测试集音频波形进行预处理。包括:测试集音频波形(即,上述测试语音)的语音端点检测,并去除静音段,完成数据切割,得到上述目标测试语音。
需要说明的是,在本发明实施例中,测试语音为如图4中所示的测试数据集中的语音波形。
步骤S222:提取目标测试语音的语音波形中的声学特征。
步骤S333:对提取的声学特征弯曲。
步骤S444:利用训练阶段得到的UBM计算0阶和1阶充分统计量(即,如图4所示的步骤S444中的Baum-Welch统计量计算)。
步骤S555:利用训练阶段得到的全局变化子空间矩阵T计算目标测试语音的i-vector(即,上述第二向量)。
步骤S666:利用训练阶段得到的变换矩阵A对测试语音的i-vector(即,上述第二向量)进行变换,得到上述第二目标向量。
步骤S777:计算经A矩阵变换后的第一目标向量和第二目标向量的余弦得分,并进行阈值判断,完成测试。
在本发明实施例中,上述进行声纹识别的方法以一个具体的实施例进行了验证,具体验证结果如下。
在NIST SRE 2006和NIST SRE 2008数据集上进行实验验证。将NIST SRE 2006数据集中8conversation的female数据作为训练集,共有402个说话人,有效语音约100个小时。同时将NIST SRE 2008数据集中8conversation的female数据作为注册集和测试集,共有395个说话人。将测试(Test)语音长度固定为15秒,注册(Enrollment)语音长度从15秒变化到75秒,每种测试条件下测试样本和注册样本的组合超过100万种。实验分别对比了每种测试条件下的余弦相似度(COSINE),线性判别性分析(LDA),概率线性判别性分析(PLDA)和本发明中的余弦度量学习(CML)方案等的等错误率(EER),最终结果为100次随机测试的平均,其实验结果如表1所示。
表1实验结果(EER,%)
方法T-E | 15-15 | 15-30 | 15-45 | 15-60 | 15-75 |
COSINE | 9.6175 | 6.5103 | 5.2291 | 4.5373 | 4.0379 |
LDA | 6.8166 | 5.0765 | 4.3961 | 4.0668 | 3.7189 |
PLDA | 4.0064 | 3.7672 | 3.5028 | 3.5314 | 3.4124 |
CML | 4.2956 | 3.5523 | 3.2493 | 3.1182 | 2.9633 |
其中,表1中的结果均为百分比,T-E表示测试语音长度和注册语音长度组合,单位为秒。由表1可以看出,本发明实施例具有相当大的性能提升,当测试语音为15秒,注册语音为75秒时,本发明实施例相比目前最好的概率线性判别性分析方案有约13%的相对性能提升。图5是根据本发明实施例提供的随着注册语音长度的增加,余弦度量学习方案相对概率线性判别性分析方案的的信道补偿效果的相对性能提升图。
图6是根据本发明实施例提供的一个测试特例的假正率和假负率的平衡曲线图。如图6所示,该曲线图又称为检测错误折中(Detection Error Tradeoff,DET)曲线,从图中可以看出本发明实施例提出的余弦度量学习方案的DET曲线整体向下移动,因此余弦度量学习方案具有较好的性能。
在本发明实施例中,首先,获取第一向量和第二向量,其中,第一向量为待测试语音波形的紧凑表示向量,第二向量为已知语音波形的紧凑表示向量,已知语音波形为所属于目标对象的语音数据,待测试语音波形为被测试的是否属于目标对象的语音数据;其次,获取变换矩阵;然后,基于变换矩阵分别对第一向量和第二向量进行补偿,得到第一目标向量和第二目标向量;最后,通过计算第一目标向量和第二目标向量的余弦相似度来确定待测试语音波形是否属于目标对象。在本发明中,通过变换矩阵对各语音波形的紧凑表示向量进行补偿,达到了提升了语音识别精度的目的,进而解决了现有技术中在复杂场景下的声纹识别精度无法满足应用需求的技术问题,从而实现了提升声纹识别的准确率的技术效果。
实施例二:
本发明实施例还提供了一种声纹识别装置,该装置用于执行本发明实施例上述内容所提供的声纹识别方法,以下对本发明实施例提供的声纹识别装置做具体介绍。
图7是根据本发明实施例提供的一种声纹识别装置的结构示意图,如图7所示,该声纹识别装置主要包括:第一获取单元10,第二获取单元20,补偿单元30,确定单元40,其中:
第一获取单元10,用于获取第一向量和第二向量,其中,第一向量为待测试语音波形的紧凑表示向量,第二向量为已知语音波形的紧凑表示向量,已知语音波形为所属于目标对象的语音数据,待测试语音波形为被测试的是否属于目标对象的语音数据;
第二获取单元20,用于获取变换矩阵,其中,变换矩阵为对第一向量和第二向量中的信道变化信息进行补偿的矩阵;
补偿单元30,用于基于变换矩阵分别对第一向量和第二向量进行补偿,得到第一目标向量和第二目标向量;
确定单元40,用于通过计算第一目标向量和第二目标向量的余弦相似度来确定待测试语音波形是否属于目标对象。
在一个可选的实施方式中,确定单元40包括:第一计算模块401,用于通过公式来计算余弦相似度,其中,x为第一向量,y为第二向量,A为变换矩阵;第一确定模块402,用于当余弦相似度大于或等于预设值时,确定待测试语音波形属于目标对象;第二确定模块403,用于当余弦相似度小于预设值时,确定待测试语音波形不属于目标对象。在本发明实施例中,首先,获取第一向量和第二向量,其中,第一向量为待测试语音波形的紧凑表示向量,第二向量为已知语音波形的紧凑表示向量,已知语音波形为所属于目标对象的语音数据,待测试语音波形为被测试的是否属于目标对象的语音数据;其次,获取变换矩阵;然后,基于变换矩阵分别对第一向量和第二向量进行补偿,得到第一目标向量和第二目标向量;最后,通过计算第一目标向量和第二目标向量的余弦相似度来确定待测试语音波形是否属于目标对象。在本发明中,通过变换矩阵对各语音波形的紧凑表示向量进行补偿,达到了提升了语音识别精度的目的,进而解决了现有技术中在复杂场景下的声纹识别精度无法满足应用需求的技术问题,从而实现了提升声纹识别的准确率的技术效果。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种声纹识别方法,其特征在于,包括:
获取第一向量和第二向量,其中,所述第一向量为待测试语音波形的紧凑表示向量,所述第二向量为已知语音波形的紧凑表示向量,所述已知语音波形为所属于目标对象的语音数据,所述待测试语音波形为被测试的是否属于所述目标对象的语音数据;
获取变换矩阵,其中,所述变换矩阵为对所述第一向量和所述第二向量中的信道变化信息进行补偿的矩阵;
基于所述变换矩阵分别对所述第一向量和所述第二向量进行补偿,得到第一目标向量和第二目标向量;
通过计算所述第一目标向量和所述第二目标向量的余弦相似度来确定所述待测试语音波形是否属于所述目标对象。
2.根据权利要求1所述的方法,其特征在于,通过计算所述第一目标向量和所述第二目标向量的余弦相似度来确定所述待测试语音波形是否属于所述目标对象包括:
通过公式来计算所述余弦相似度,其中,x为所述第一向量,y为所述第二向量,A为所述变换矩阵;
当所述余弦相似度大于或等于预设值时,确定所述待测试语音波形属于所述目标对象;
当所述余弦相似度小于预设值时,确定所述待测试语音波形不属于所述目标对象。
3.根据权利要求1所述的方法,其特征在于,获取变换矩阵包括:
通过第一公式和正则化处理公式确定所述变换矩阵;
其中,所述第一公式为g(A)为得分间隔,(xi,yi)为两段音频波形的紧凑表示向量组成的训练样本对,所述训练样本对中的两段音频波形来自于同一个说话对象,或者,不同的说话对象;pos={i|li=1},pos为S个训练样本对中正例样本对集合,neg={i|li=0},neg为S个训练样本对中反例样本对集合;所述正则化处理公式为:h(A)=||A-A0||2,A0为预先定义的矩阵,所述预先定义的矩阵A0使用以下方法之一得到:线性判别性分析、类内协方差规整和扰动属性投影法;其中,A为所述变换矩阵。
4.根据权利要求3所述的方法,其特征在于,通过第一公式和正则化处理公式确定所述变换矩阵包括:
基于所述第一公式和所述正则化处理公式确定第二公式,其中,所述第二公式表示为:其中,α,β≥0,参数α和参数β均为平衡因子,f(A)为优化目标;
通过第二公式得到所述优化目标的最大值,并将所述优化目标的最大值所对应的矩阵确定为所述变换矩阵A。
5.根据权利要求4所述的方法,其特征在于,通过第二公式得到所述优化目标的最大值,并将所述优化目标的最大值所对应的矩阵确定为所述变换矩阵A包括:对所述第二公式进行求解,得到所述变换矩阵A,具体包括以下步骤:
初始化步骤:设定初始点A(0),所述预先定义的矩阵A0,参数α和参数β,其中,精度ε>0,令k=0;
第一计算步骤,基于所述优化目标的梯度计算公式计算梯度其中,f(A)为所述优化目标;
判断步骤,判断是否成立,其中,当成立时,则迭代结束,并设置A*=A(k),以及确定A(k)为所述变换矩阵A,否则进行第二计算步骤和设置步骤,其中,A*为所述优化目标的最大值所对应的矩阵;
所述第二计算步骤,基于精确一维搜索法求的一个极小点λk,使得
所述设置步骤,设置k=k+1,并返回执行所述第一计算步骤。
6.根据权利要求5所述的方法,其特征在于,所述优化目标的梯度计算公式为:
其中,
7.根据权利要求1所述的方法,其特征在于,获取第一向量和第二向量包括:
对获取的注册语音和测试语音进行预处理,得到目标注册语音和目标测试语音;
提取所述目标注册语音和所述目标测试语音的声学特征;
对所述目标注册语音和所述目标测试语音的声学特征进行弯曲;
基于训练结果分别对进行弯曲后的所述目标注册语音和所述目标测试语音的声学特征进行处理,得到所述第一向量和所述第二向量。
8.根据权利要求7所述的方法,其特征在于,所述训练结果为通过对获取到的训练语音进行训练得到的训练模型。
9.一种声纹识别装置,其特征在于,包括:
第一获取单元,用于获取第一向量和第二向量,其中,所述第一向量为待测试语音波形的紧凑表示向量,所述第二向量为已知语音波形的紧凑表示向量,所述已知语音波形为所属于目标对象的语音数据,所述待测试语音波形为被测试的是否属于所述目标对象的语音数据;
第二获取单元,用于获取变换矩阵,其中,所述变换矩阵为对所述第一向量和所述第二向量中的信道变化信息进行补偿的矩阵;
补偿单元,用于基于所述变换矩阵分别对所述第一向量和所述第二向量进行补偿,得到第一目标向量和第二目标向量;
确定单元,用于通过计算所述第一目标向量和所述第二目标向量的余弦相似度来确定所述待测试语音波形是否属于所述目标对象。
10.根据权利要求9所述的装置,其特征在于,确定单元包括:
第一计算模块,用于通过公式来计算所述余弦相似度,其中,x为所述第一向量,y为所述第二向量,A为所述变换矩阵;
第一确定模块,用于当所述余弦相似度大于或等于预设值时,确定所述待测试语音波形属于所述目标对象;
第二确定模块,用于当所述余弦相似度小于预设值时,确定所述待测试语音波形不属于所述目标对象。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810382018.0A CN108520752B (zh) | 2018-04-25 | 2018-04-25 | 一种声纹识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810382018.0A CN108520752B (zh) | 2018-04-25 | 2018-04-25 | 一种声纹识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108520752A true CN108520752A (zh) | 2018-09-11 |
CN108520752B CN108520752B (zh) | 2021-03-12 |
Family
ID=63430261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810382018.0A Active CN108520752B (zh) | 2018-04-25 | 2018-04-25 | 一种声纹识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108520752B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109360573A (zh) * | 2018-11-13 | 2019-02-19 | 平安科技(深圳)有限公司 | 牲畜声纹识别方法、装置、终端设备及计算机存储介质 |
CN110364182A (zh) * | 2019-08-01 | 2019-10-22 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种声音信号处理方法及装置 |
CN110853654A (zh) * | 2019-11-17 | 2020-02-28 | 西北工业大学 | 一种模型生成方法、声纹识别方法及对应装置 |
CN111028847A (zh) * | 2019-12-17 | 2020-04-17 | 广东电网有限责任公司 | 一种基于后端模型的声纹识别优化方法和相关装置 |
CN111161713A (zh) * | 2019-12-20 | 2020-05-15 | 北京皮尔布莱尼软件有限公司 | 一种语音性别识别方法、装置及计算设备 |
CN111613230A (zh) * | 2020-06-24 | 2020-09-01 | 泰康保险集团股份有限公司 | 声纹验证方法、装置、设备及存储介质 |
WO2022056898A1 (en) * | 2020-09-21 | 2022-03-24 | Northwestern Polytechnical University | A deep neural network training method and apparatus for speaker verification |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6871208B1 (en) * | 1999-12-01 | 2005-03-22 | Macronix International Co., Ltd. | Parallel adder-based DCT/IDCT design using cyclic convolution |
CN1760973A (zh) * | 2004-10-12 | 2006-04-19 | 上海海事大学 | 基于定性映射的语音识别方法 |
CN105869645A (zh) * | 2016-03-25 | 2016-08-17 | 腾讯科技(深圳)有限公司 | 语音数据处理方法和装置 |
US20160247502A1 (en) * | 2015-02-23 | 2016-08-25 | Electronics And Telecommunications Research Institute | Audio signal processing apparatus and method robust against noise |
CN106127156A (zh) * | 2016-06-27 | 2016-11-16 | 上海元趣信息技术有限公司 | 基于声纹和人脸识别的机器人交互方法 |
CN106205624A (zh) * | 2016-07-15 | 2016-12-07 | 河海大学 | 一种基于dbscan算法的声纹识别方法 |
US20170229115A1 (en) * | 2014-12-08 | 2017-08-10 | Samsung Electronics Co., Ltd. | Method and apparatus for training language model and recognizing speech |
CN107240397A (zh) * | 2017-08-14 | 2017-10-10 | 广东工业大学 | 一种基于声纹识别的智能锁及其语音识别方法和系统 |
CN107274905A (zh) * | 2016-04-08 | 2017-10-20 | 腾讯科技(深圳)有限公司 | 一种声纹识别方法及系统 |
CN107808659A (zh) * | 2017-12-02 | 2018-03-16 | 宫文峰 | 智能语音信号模式识别系统装置 |
-
2018
- 2018-04-25 CN CN201810382018.0A patent/CN108520752B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6871208B1 (en) * | 1999-12-01 | 2005-03-22 | Macronix International Co., Ltd. | Parallel adder-based DCT/IDCT design using cyclic convolution |
CN1760973A (zh) * | 2004-10-12 | 2006-04-19 | 上海海事大学 | 基于定性映射的语音识别方法 |
US20170229115A1 (en) * | 2014-12-08 | 2017-08-10 | Samsung Electronics Co., Ltd. | Method and apparatus for training language model and recognizing speech |
US20160247502A1 (en) * | 2015-02-23 | 2016-08-25 | Electronics And Telecommunications Research Institute | Audio signal processing apparatus and method robust against noise |
CN105869645A (zh) * | 2016-03-25 | 2016-08-17 | 腾讯科技(深圳)有限公司 | 语音数据处理方法和装置 |
CN107274905A (zh) * | 2016-04-08 | 2017-10-20 | 腾讯科技(深圳)有限公司 | 一种声纹识别方法及系统 |
CN106127156A (zh) * | 2016-06-27 | 2016-11-16 | 上海元趣信息技术有限公司 | 基于声纹和人脸识别的机器人交互方法 |
CN106205624A (zh) * | 2016-07-15 | 2016-12-07 | 河海大学 | 一种基于dbscan算法的声纹识别方法 |
CN107240397A (zh) * | 2017-08-14 | 2017-10-10 | 广东工业大学 | 一种基于声纹识别的智能锁及其语音识别方法和系统 |
CN107808659A (zh) * | 2017-12-02 | 2018-03-16 | 宫文峰 | 智能语音信号模式识别系统装置 |
Non-Patent Citations (3)
Title |
---|
HOSSEIN ZEINALI 等: "《Non-speaker information reduction from Cosine Similarity Scoring in i-vector based speaker verification》", 《COMPUTERS AND ELECTRICAL ENGINEERING》 * |
李锐 等: "《基于BIC和G_PLDA的说话人分离技术研究》", 《中国科学技术大学学报》 * |
陈晨 等: "《说话人识别方法综述》", 《智能计算机与应用》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109360573A (zh) * | 2018-11-13 | 2019-02-19 | 平安科技(深圳)有限公司 | 牲畜声纹识别方法、装置、终端设备及计算机存储介质 |
CN110364182A (zh) * | 2019-08-01 | 2019-10-22 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种声音信号处理方法及装置 |
CN110364182B (zh) * | 2019-08-01 | 2022-06-14 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种声音信号处理方法及装置 |
CN110853654A (zh) * | 2019-11-17 | 2020-02-28 | 西北工业大学 | 一种模型生成方法、声纹识别方法及对应装置 |
CN110853654B (zh) * | 2019-11-17 | 2021-12-21 | 西北工业大学 | 一种模型生成方法、声纹识别方法及对应装置 |
CN111028847A (zh) * | 2019-12-17 | 2020-04-17 | 广东电网有限责任公司 | 一种基于后端模型的声纹识别优化方法和相关装置 |
CN111161713A (zh) * | 2019-12-20 | 2020-05-15 | 北京皮尔布莱尼软件有限公司 | 一种语音性别识别方法、装置及计算设备 |
CN111613230A (zh) * | 2020-06-24 | 2020-09-01 | 泰康保险集团股份有限公司 | 声纹验证方法、装置、设备及存储介质 |
WO2022056898A1 (en) * | 2020-09-21 | 2022-03-24 | Northwestern Polytechnical University | A deep neural network training method and apparatus for speaker verification |
Also Published As
Publication number | Publication date |
---|---|
CN108520752B (zh) | 2021-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107680582B (zh) | 声学模型训练方法、语音识别方法、装置、设备及介质 | |
CN108520752A (zh) | 一种声纹识别方法和装置 | |
CN110164452B (zh) | 一种声纹识别的方法、模型训练的方法以及服务器 | |
US10699699B2 (en) | Constructing speech decoding network for numeric speech recognition | |
US10176811B2 (en) | Neural network-based voiceprint information extraction method and apparatus | |
McLaren et al. | Advances in deep neural network approaches to speaker recognition | |
Shum et al. | On the use of spectral and iterative methods for speaker diarization | |
JP5853029B2 (ja) | 話者照合のためのパスフレーズ・モデリングのデバイスおよび方法、ならびに話者照合システム | |
JP6171544B2 (ja) | 音声処理装置、音声処理方法及びプログラム | |
CN100363938C (zh) | 基于得分差加权融合的多模态身份识别方法 | |
Cai et al. | Analysis of length normalization in end-to-end speaker verification system | |
Apsingekar et al. | Speaker model clustering for efficient speaker identification in large population applications | |
CN104167208A (zh) | 一种说话人识别方法和装置 | |
CN107093422B (zh) | 一种语音识别方法和语音识别系统 | |
CN101894548A (zh) | 一种用于语种识别的建模方法及装置 | |
CN113223536B (zh) | 声纹识别方法、装置及终端设备 | |
CN111696522B (zh) | 基于hmm和dnn的藏语语音识别方法 | |
CN102945673A (zh) | 一种语音指令范围动态变化的连续语音识别方法 | |
Mehrabani et al. | Singing speaker clustering based on subspace learning in the GMM mean supervector space | |
CN111508505A (zh) | 一种说话人识别方法、装置、设备及存储介质 | |
Shivakumar et al. | Simplified and supervised i-vector modeling for speaker age regression | |
Sadıç et al. | Common vector approach and its combination with GMM for text-independent speaker recognition | |
WO2019136811A1 (zh) | 语音对比方法、终端及计算机可读存储介质 | |
CN109377984A (zh) | 一种基于ArcFace的语音识别方法及装置 | |
JP5079760B2 (ja) | 音響モデルパラメータ学習装置、音響モデルパラメータ学習方法、音響モデルパラメータ学習プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |