CN103562993B - 说话人识别方法及设备 - Google Patents
说话人识别方法及设备 Download PDFInfo
- Publication number
- CN103562993B CN103562993B CN201180003380.9A CN201180003380A CN103562993B CN 103562993 B CN103562993 B CN 103562993B CN 201180003380 A CN201180003380 A CN 201180003380A CN 103562993 B CN103562993 B CN 103562993B
- Authority
- CN
- China
- Prior art keywords
- gmm
- characteristic parameter
- tested speech
- vector
- sigma
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 239000013598 vector Substances 0.000 claims abstract description 113
- 239000002131 composite material Substances 0.000 claims description 10
- 238000012706 support-vector machine Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 41
- 238000005516 engineering process Methods 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/08—Use of distortion metrics or a particular distance between probe pattern and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/10—Multimodal systems, i.e. based on the integration of multiple recognition engines or fusion of expert systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Game Theory and Decision Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Electrically Operated Instructional Devices (AREA)
- Telephonic Communication Services (AREA)
- Complex Calculations (AREA)
Abstract
本发明提供一种说话人识别方法及设备。本发明通过采用SVM对得分函数中的第一向量(即权重向量)进行可鉴别性的重新估计,使得测试语音的特征参数的识别结果更加准确,从而提高了说话人识别的可鉴别性。
Description
技术领域
本发明涉及说话人识别技术,尤其涉及一种说话人识别方法及设备。
背景技术
声纹识别技术也称说话人识别技术,是根据语音对说话人进行区别,用以进行说话人身份鉴别的技术。一般来说,说话人识别技术主要包括目标说话人模型注册和测量得分,使得根据获得的分数得出识别结果。例如:在基于高斯混合模型(Gaussian Mixture Model,简称GMM)-通用背景模型(Universal Background Model,简称UBM)的系统中,首先,利用UBM和目标说话人的GMM,获得测试语音的特征参数基于对数似然比的得分函数;然后,将测试语音的特征参数作为得分函数的输入,获得对应的说话人分数;如果上述分数高于一个预先设置的门限值,则识别结果为真(True);如果上述分数低于上述预先设置的门限值,则识别结果为假(False)。
然而,上述现有技术中的说话人识别方法的可鉴别性较低。
发明内容
本发明实施例提供一种说话人识别方法及设备,用以提高可鉴别性。
一方面提供了一种说话人识别方法,包括:
利用测试语音的特征参数、第一GMM和第二GMM,获得所述测试语音的特征参数的第一得分函数,所述第一得分函数为所述测试语音的特征参数在所述第一GMM上的第一似然概率的对数与所述测试语音的特征参数在所述第二GMM上的第二似然概率的对数的差值;
利用所述测试语音的特征参数和第三GMM,获得所述测试语音的特征参数在所述第三GMM上的第三似然概率,所述第三GMM由所述第一GMM和所述第二GMM构成;
根据所述第一得分函数和所述第三似然概率,获得所述测试语音的特征参数的第二得分函数,所述第二得分函数等于第一向量与第二向量的内积,所述第一向量为一个元素全为1的向量,所述第二向量为所述测试语音的特征参数在所述第一GMM和所述第二GMM上的平均后验概率差值向量;
利用训练识别对的第二向量,并通过SVM,对所述第一向量进行重新估计,获得第三向量,并获得所述测试语音的特征参数的第三得分函数,以便将测试语音的特征参数作为输入,获得对应的说话人分数,所述第三得分函数等于所述第三向量与所述第二向量的内积。
另一方面提供了一种说话人识别设备,包括:
第一获得单元,用于利用测试语音的特征参数、第一GMM和第二GMM,获得所述测试语音的特征参数的第一得分函数,所述第一得分函数为所述测试语音的特征参数在所述第一GMM上的第一似然概率的对数与所述测试语音的特征参数在所述第二GMM上的第二似然概率的对数的差值;
第二获得单元,用于利用所述测试语音的特征参数和第三GMM,获得所述测试语音的特征参数在所述第三GMM上的第三似然概率,所述第三GMM由所述第一GMM和所述第二GMM构成;
第三获得单元,用于根据所述第一得分函数和所述第三似然概率,获得所述测试语音的特征参数的第二得分函数,所述第二得分函数等于第一向量与第二向量的内积,所述第一向量为一个元素全为1的向量,所述第二向量为所述测试语音的特征参数在所述第一GMM和所述第二GMM上的平均后验概率差值向量;
第四获得单元,用于利用训练识别对的第二向量,并通过SVM,对所述第一向量进行重新估计,获得第三向量,并获得所述测试语音的特征参数的第三得分函数,以便将测试语音的特征参数作为输入,获得对应的说话人分数,所述第三得分函数等于所述第三向量与所述第二向量的内积。
由上述技术方案可知,本发明实施例通过采用SVM对得分函数中的第一向量(即权重向量)进行可鉴别性的重新估计,使得测试语音的特征参数的识别结果更加准确,从而提高了说话人识别的可鉴别性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的说话人识别方法的流程示意图;
图2为本发明另一实施例提供的说话人识别设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明一实施例提供的说话人识别方法的流程示意图,如图1所示,本实施例的说话人识别方法可以包括:
101、利用测试语音的特征参数、第一GMM和第二GMM,获得上述测试语音的特征参数的第一得分函数,上述第一得分函数为上述测试语音的特征参数在上述第一GMM上的第一似然概率的对数与上述测试语音的特征参数在上述第二GMM上的第二似然概率的对数的差值;
其中,测试语音(即每个人)的特征参数与其他人都不同,具有唯一性,不易伪造和假冒。
102、利用上述测试语音的特征参数和第三GMM,获得上述测试语音的特征参数在上述第三GMM上的第三似然概率,上述第三GMM由上述第一GMM和上述第二GMM构成;
103、根据上述第一得分函数和上述第三似然概率,获得上述测试语音的特征参数的第二得分函数,上述第二得分函数等于第一向量与第二向量的内积,上述第一向量(即权重向量)为一个元素全为1的向量,上述第二向量为上述测试语音的特征参数在上述第一GMM和上述第二GMM上的平均后验概率差值向量;
104、利用训练识别对的第二向量,并通过SVM,对上述第一向量进行重新估计,获得第三向量,并获得上述测试语音的特征参数的第三得分函数,以便将测试语音的特征参数作为输入,获得对应的说话人分数,上述第三得分函数等于上述第三向量与上述第二向量的内积。
在本实施例的一个应用场景中,上述第一GMM可以为目标说话人的GMM,上述第二GMM可以为UBM;或者上述第一GMM可以为UBM,上述第二GMM可以为目标说话人的GMM。首先,可以利用测试语音的特征参数、UBM和目标说话人的GMM,获得上述测试语音的特征参数的第一得分函数,上述第一得分函数为上述测试语音的特征参数在目标说话人的GMM上的第一似然概率的对数与上述测试语音的特征参数在UBM上的第二似然概率的对数的差值,即:
其中,ot为测试语音的特征参数,T为测试语音的特征参数的总个数;s为目标说话人的GMM;p(ot|s)为测试语音的特征参数在目标说话人的GMM上的似然概率;m为UBM;p(ot|m)为测试语音的特征参数在UBM上的似然概率。
然后,则可以利用上述测试语音的特征参数、以及UBM和目标说话人的GMM构成的组合目标说话人的GMM,获得上述测试语音的特征参数在上述组合目标说话人的GMM上的第三似然概率,即:
p(ot|μ)=p(ot|s)p(s)+p(ot|m)p(m) (2)
其中,p(ot|μ)为测试语音的特征参数在组合目标说话人的GMM上的似然概率。
对于一个测试语音的特征参数与一个目标说话人模型构成的识别对(Trial)来说,获得的分数越大,识别结果被判决为真(True)的概率就越大;反之,获得的分数越小,识别结果被判决为假(False)的概率就越大。在没有先验的情况下,被判决为真和假的概率是相同的,因此可以令p(s)=p(m)=0.5。
其次,可以将公式(2)代入公式(1)中,可以得到:
对于公式(3)利用二阶泰勒级数展开即logx=x-1进行近似,去掉不影响识别结果的常数项,则公式(3)可以简化为:
其中,公式(4)可以表示成wt与b(η)的内积。其中,wt为一个元素全为1的向量,即:wt=[1,...,1]t;b(η)为上述测试语音的特征参数在UBM和目标说话人的GMM上的平均后验概率差值向量,可以称之为识别对信息向量,即:b(η)=[φ1,...,φc]t,
其中,
实际上,wt=[1,...,1]t可以看作是一个权重向量,由于该权重向量对于目标说话人的GMM与UBM中的每个高斯分量来说,对应的权重都是相等的,所以会影响识别结果的可鉴别性。因此,可以通过如下方式,对上述权重向量即wt进行重新估计,用以提高可鉴别性。
首先,假设一个训练集来训练权重向量;其中,识别结果被判决为真(True)的训练识别对(即一个测试语音的特征参数与一个目标说话人模型构成的识别对)为{xi},i=1,...,N1;识别结果被判决为假(False)的训练识别对(即一个测试语音的特征参数与一个目标说话人模型构成的识别对)为{yi},i=1,...,N2,则上述训练识别对的识别对信息向量则为b(xi)和b(yi)。
然后,利用训练识别对的识别对信息向量则为b(xi)和b(yi),并通过支持向量机(Support Vector Machine,简称SVM),获得重新估计之后的权重向量,即:
其中,l为支持向量的个数;为-1或者+1,由训练识别对的类别来决定,zi为支持向量的权重;vi为支持向量;D=[d,0,...,0]t。
其中,SVM可以采用线性核函数或广义线性区分序列(Generalized lineardiscriminant sequence,简称GLDS)核函数等。
最后,可以将公式(6)代入公式(4)中,可以得到:
至此,可以将测试语音的特征参数作为输入,获得对应的说话人分数,使得能够根据获得的分数得出识别结果(真或假)。
本实施例中,通过采用SVM对得分函数中的第一向量(即权重向量)进行可鉴别性的重新估计,使得测试语音的特征参数的识别结果更加准确,从而提高了说话人识别的可鉴别性。
需要说明的是:对于前述的方法实施例,为了简单描述,故将其表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
图2为本发明另一实施例提供的说话人识别设备的结构示意图,如图2所示,本实施例的说话人识别设备可以包括第一获得单元21、第二获得单元22、第三获得单元23和第四获得单元24。其中,第一获得单元21用于利用测试语音的特征参数、第一GMM和第二GMM,获得上述测试语音的特征参数的第一得分函数,上述第一得分函数为上述测试语音的特征参数在上述第一GMM上的第一似然概率的对数与上述测试语音的特征参数在上述第二GMM上的第二似然概率的对数的差值;第二获得单元22用于利用上述测试语音的特征参数和第三GMM,获得上述测试语音的特征参数在上述第三GMM上的第三似然概率,上述第三GMM由上述第一GMM和上述第二GMM构成;第三获得单元23用于根据上述第一得分函数和上述第三似然概率,获得上述测试语音的特征参数的第二得分函数,上述第二得分函数等于第一向量与第二向量的内积,上述第一向量为一个元素全为1的向量,上述第二向量为上述测试语音的特征参数在上述第一GMM和上述第二GMM上的平均后验概率差值向量;第四获得单元24用于利用训练识别对的第二向量,并通过SVM,对上述第一向量进行重新估计,获得第三向量,并获得上述测试语音的特征参数的第三得分函数,以便将测试语音的特征参数作为输入,获得对应的说话人分数,上述第三得分函数等于上述第三向量与上述第二向量的内积。
上述图1对应的实施例中方法可以由本实施例提供的说话人识别设备实现。
在本实施例的一个应用场景中,上述第一GMM可以为目标说话人的GMM,上述第二GMM可以为UBM;或者上述第一GMM可以为UBM,上述第二GMM可以为目标说话人的GMM。
例如:本实施例中第一获得单元21具体可以用于
利用测试语音的特征参数、UBM和目标说话人的GMM,获得上述测试语音的特征参数的第一得分函数公式(1),即:
其中,ot为测试语音的特征参数,T为测试语音的特征参数的总个数;s为目标说话人的GMM;p(ot|s)为测试语音的特征参数在目标说话人的GMM上的似然概率;m为UBM;p(ot|m)为测试语音的特征参数在UBM上的似然概率。
例如:本实施例中第二获得单元22具体可以用于
利用上述测试语音的特征参数、以及UBM和目标说话人的GMM构成的组合目标说话人的GMM,获得上述测试语音的特征参数在上述组合目标说话人的GMM上的似然概率,即:
p(ot|μ)=p(ot|s)p(s)+p(ot|m)p(m) (2)
其中,p(ot|μ)为测试语音的特征参数在组合目标说话人的GMM上的似然概率。
例如:本实施例中第三获得单元23具体可以用于
将p(s)=p(m)=0.5和公式(2),代入公式(1)中,得到公式(3),即:
利用二阶泰勒级数展开,对公式(3)进行简化,获得上述测试语音的特征参数的第二得分函数公式(4),即:
其中,wt为一个元素全为1的向量,即:wt=[1,...,1]t;b(η)为上述测试语音的特征参数在UBM和目标说话人的GMM上的平均后验概率差值向量,可以称之为识别对信息向量,即:b(η)=[φ1,...,φc]t;
其中,
例如:本实施例中第四获得单元24具体可以用于
利用识别结果被判决为真的训练识别对{xi},i=1,...,N1的识别对信息向量b(xi)和识别结果被判决为假的训练识别对{yi},i=1,...,N2的识别对信息向量b(yi),并通过支持向量机SVM,获得重新估计之后的wt,即:
其中,l为支持向量的个数,为-1或者+1,由训练识别对的类别来决定,zi为支持向量的权重,vi为支持向量;D=[d,0,...,0]t。
将公式(6)代入公式(4)中,得到上述测试语音的特征参数的第三得分函数公式(7),即:
至此,可以将测试语音的特征参数作为输入,获得对应的说话人分数,使得能够根据获得的分数得出识别结果(真或假)。
本实施例中,通过第四获得单元采用SVM对得分函数中的第一向量(即权重向量)进行可鉴别性的重新估计,使得测试语音的特征参数的识别结果更加准确,从而提高了说话人识别的可鉴别性。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例上述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (12)
1.一种说话人识别方法,其特征在于,包括:
利用测试语音的特征参数、第一高斯混合模型GMM和第二GMM,获得所述测试语音的特征参数的第一得分函数,所述第一得分函数为所述测试语音的特征参数在所述第一GMM上的第一似然概率的对数与所述测试语音的特征参数在所述第二GMM上的第二似然概率的对数的差值;
利用所述测试语音的特征参数和第三GMM,获得所述测试语音的特征参数在所述第三GMM上的第三似然概率,所述第三GMM由所述第一GMM和所述第二GMM构成;
根据所述第一得分函数和所述第三似然概率,获得所述测试语音的特征参数的第二得分函数,所述第二得分函数等于第一向量与第二向量的内积,所述第一向量为一个元素全为1的向量,所述第二向量为所述测试语音的特征参数在所述第一GMM和所述第二GMM上的平均后验概率差值向量;
利用训练识别对的第二向量,并通过支持向量机SVM,对所述第一向量进行重新估计,获得第三向量,并获得所述测试语音的特征参数的第三得分函数,以便将测试语音的特征参数作为输入,获得对应的说话人分数,所述第三得分函数等于所述第三向量与所述第二向量的内积。
2.根据权利要求1所述的方法,其特征在于,所述第一GMM或者所述第二GMM为通用背景模型UBM。
3.根据权利要求2所述的方法,其特征在于,所述利用测试语音的特征参数、第一高斯混合模型GMM和第二GMM,获得所述测试语音的特征参数的第一得分函数,具体为:
利用测试语音的特征参数、UBM和目标说话人的GMM,获得所述测试语音的特征参数的第一得分函数:
其中,ot为测试语音的特征参数,T为测试语音的特征参数的总个数;s为目标说话人的GMM;p(ot|s)为测试语音的特征参数在目标说话人的GMM上的似然概率;m为UBM;p(ot|m)为测试语音的特征参数在UBM上的似然概率。
4.根据权利要求2或3所述的方法,其特征在于,所述利用所述测试语音的特征参数和第三GMM,获得所述测试语音的特征参数在所述第三GMM上的第三似然概率,具体为:
利用所述测试语音的特征参数、以及UBM和目标说话人的GMM构成的组合目标说话人的GMM,获得所述测试语音的特征参数在所述组合目标说话人的GMM上的似然概率:
p(ot|μ)=p(ot|s)p(s)+p(ot|m)p(m) (2)
其中,p(ot|μ)为测试语音的特征参数在组合目标说话人的GMM上的似然概率。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第一得分函数和所述第三似然概率,获得所述测试语音的特征参数的第二得分函数,具体为:
将p(s)=p(m)=0.5和公式(2),代入公式(1)中,得到:
利用二阶泰勒级数展开,对公式(3)进行简化,获得所述测试语音的特征参数的第二得分函数:
其中,wt为一个元素全为1的向量;b(η)为所述测试语音的特征参数在UBM和目标说话人的GMM上的平均后验概率差值向量:b(η)=[φ1,...,φc]t;
其中,
6.根据权利要求5所述的方法,其特征在于,所述利用训练识别对的第二向量,并通过SVM,对所述第一向量进行重新估计,获得第三向量,并获得所述测试语音的特征参数的第三得分函数,具体为:
利用识别结果被判决为真的训练识别对{xi},i=1,...,N1的识别对信息向量b(xi)和识别结果被判决为假的训练识别对{yi},i=1,...,N2的识别对信息向量b(yi),并通过SVM,获得重新估计之后的wt:
其中,l为支持向量的个数,为-1或者+1,由训练识别对的类别来决定,zi为支持向量的权重,vi为支持向量;D=[d,0,...,0]t;
将公式(6)代入公式(4)中,得到所述测试语音的特征参数的第三得分函数:
7.一种说话人识别设备,其特征在于,包括:
第一获得单元,用于利用测试语音的特征参数、第一高斯混合模型GMM和第二GMM,获得所述测试语音的特征参数的第一得分函数,所述第一得分函数为所述测试语音的特征参数在所述第一GMM上的第一似然概率的对数与所述测试语音的特征参数在所述第二GMM上的第二似然概率的对数的差值;
第二获得单元,用于利用所述测试语音的特征参数和第三GMM,获得所述测试语音的特征参数在所述第三GMM上的第三似然概率,所述第三GMM由所述第一GMM和所述第二GMM构成;
第三获得单元,用于根据所述第一得分函数和所述第三似然概率,获得所述测试语音的特征参数的第二得分函数,所述第二得分函数等于第一向量与第二向量的内积,所述第一向量为一个元素全为1的向量,所述第二向量为所述测试语音的特征参数在所述第一GMM和所述第二GMM上的平均后验概率差值向量;
第四获得单元,用于利用训练识别对的第二向量,并通过支持向量机SVM,对所述第一向量进行重新估计,获得第三向量,并获得所述测试语音的特征参数的第三得分函数,以便将测试语音的特征参数作为输入,获得对应的说话人分数,所述第三得分函数等于所述第三向量与所述第二向量的内积。
8.根据权利要求7所述的设备,其特征在于,所述第一GMM或者所述第二GMM为通用背景模型UBM。
9.根据权利要求8所述的设备,其特征在于,所述第一获得单元具体用于
利用测试语音的特征参数、UBM和目标说话人的GMM,获得所述测试语音的特征参数的第一得分函数:
其中,ot为测试语音的特征参数,T为测试语音的特征参数的总个数;s为目标说话人的GMM;p(ot|s)为测试语音的特征参数在目标说话人的GMM上的似然概率;m为UBM;p(ot|m)为测试语音的特征参数在UBM上的似然概率。
10.根据权利要求8或9所述的设备,其特征在于,所述第二获得单元具体用于
利用所述测试语音的特征参数、以及UBM和目标说话人的GMM构成的组合目标说话人的GMM,获得所述测试语音的特征参数在所述组合目标说话人的GMM上的似然概率:
p(ot|μ)=p(ot|s)p(s)+p(ot|m)p(m) (2)
其中,p(ot|μ)为测试语音的特征参数在组合目标说话人的GMM上的似然概率。
11.根据权利要求10所述的设备,其特征在于,所述第三获得单元具体用于
将p(s)=p(m)=0.5和公式(2),代入公式(1)中,得到:
利用二阶泰勒级数展开,对公式(3)进行简化,获得所述测试语音的特征参数的第二得分函数:
其中,wt为一个元素全为1的向量;b(η)为所述测试语音的特征参数在UBM和目标说话人的GMM上的平均后验概率差值向量:b(η)=[φ1,...,φc]t;
其中,
12.根据权利要求11所述的设备,其特征在于,所述第四获得单元具体用于
利用识别结果被判决为真的训练识别对{xi},i=1,...,N1的识别对信息向量b(xi)和识别结果被判决为假的训练识别对{yi},i=1,...,N2的识别对信息向量b(yi),并通过SVM,获得重新估计之后的wt:
其中,l为支持向量的个数,为-1或者+1,由训练识别对的类别来决定,zi为支持向量的权重,vi为支持向量;D=[d,0,...,0]t;
将公式(6)代入公式(4)中,得到所述测试语音的特征参数的第三得分函数:
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2011/084121 WO2013086736A1 (zh) | 2011-12-16 | 2011-12-16 | 说话人识别方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103562993A CN103562993A (zh) | 2014-02-05 |
CN103562993B true CN103562993B (zh) | 2015-05-27 |
Family
ID=48611835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180003380.9A Active CN103562993B (zh) | 2011-12-16 | 2011-12-16 | 说话人识别方法及设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9142210B2 (zh) |
CN (1) | CN103562993B (zh) |
WO (1) | WO2013086736A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103562993B (zh) * | 2011-12-16 | 2015-05-27 | 华为技术有限公司 | 说话人识别方法及设备 |
CN103677729B (zh) * | 2013-12-18 | 2017-02-08 | 北京搜狗科技发展有限公司 | 一种语音输入方法和系统 |
WO2016095218A1 (en) * | 2014-12-19 | 2016-06-23 | Dolby Laboratories Licensing Corporation | Speaker identification using spatial information |
US20180018973A1 (en) * | 2016-07-15 | 2018-01-18 | Google Inc. | Speaker verification |
CN108091340B (zh) * | 2016-11-22 | 2020-11-03 | 北京京东尚科信息技术有限公司 | 声纹识别方法、声纹识别系统和计算机可读存储介质 |
EP3433854B1 (en) * | 2017-06-13 | 2020-05-20 | Beijing Didi Infinity Technology and Development Co., Ltd. | Method and system for speaker verification |
CN111145737B (zh) * | 2018-11-06 | 2022-07-01 | 中移(杭州)信息技术有限公司 | 语音测试方法、装置和电子设备 |
CN110111797A (zh) * | 2019-04-04 | 2019-08-09 | 湖北工业大学 | 基于高斯超矢量和深度神经网络的说话人识别方法 |
CN110265035B (zh) * | 2019-04-25 | 2021-08-06 | 武汉大晟极科技有限公司 | 一种基于深度学习的说话人识别方法 |
US11043218B1 (en) * | 2019-06-26 | 2021-06-22 | Amazon Technologies, Inc. | Wakeword and acoustic event detection |
US11132990B1 (en) * | 2019-06-26 | 2021-09-28 | Amazon Technologies, Inc. | Wakeword and acoustic event detection |
CN113129901A (zh) * | 2020-01-10 | 2021-07-16 | 华为技术有限公司 | 一种语音处理方法、介质及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004112001A1 (en) * | 2003-06-19 | 2004-12-23 | Kwangwoon Foundation | Gmm incremental robust adaptation with forgetting factor for speaker verification |
CN101833951A (zh) * | 2010-03-04 | 2010-09-15 | 清华大学 | 用于说话人识别的多背景模型建立方法 |
CN102034472A (zh) * | 2009-09-28 | 2011-04-27 | 戴红霞 | 一种基于嵌入时延神经网络的高斯混合模型的说话人识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005055200A1 (en) * | 2003-12-05 | 2005-06-16 | Queensland University Of Technology | Model adaptation system and method for speaker recognition |
US20080010065A1 (en) * | 2006-06-05 | 2008-01-10 | Harry Bratt | Method and apparatus for speaker recognition |
CN103562993B (zh) * | 2011-12-16 | 2015-05-27 | 华为技术有限公司 | 说话人识别方法及设备 |
-
2011
- 2011-12-16 CN CN201180003380.9A patent/CN103562993B/zh active Active
- 2011-12-16 WO PCT/CN2011/084121 patent/WO2013086736A1/zh active Application Filing
-
2013
- 2013-12-31 US US14/145,318 patent/US9142210B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004112001A1 (en) * | 2003-06-19 | 2004-12-23 | Kwangwoon Foundation | Gmm incremental robust adaptation with forgetting factor for speaker verification |
CN102034472A (zh) * | 2009-09-28 | 2011-04-27 | 戴红霞 | 一种基于嵌入时延神经网络的高斯混合模型的说话人识别方法 |
CN101833951A (zh) * | 2010-03-04 | 2010-09-15 | 清华大学 | 用于说话人识别的多背景模型建立方法 |
Non-Patent Citations (1)
Title |
---|
基于SVM-GMM的开集说话人识别方法;陈黎等;《计算机工程》;20110731;第37卷(第14期);172-174,177 * |
Also Published As
Publication number | Publication date |
---|---|
WO2013086736A1 (zh) | 2013-06-20 |
US9142210B2 (en) | 2015-09-22 |
US20140114660A1 (en) | 2014-04-24 |
CN103562993A (zh) | 2014-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103562993B (zh) | 说话人识别方法及设备 | |
JP6682523B2 (ja) | 声紋認証処理方法及び装置 | |
CN107209861B (zh) | 使用否定数据优化多类别多媒体数据分类 | |
CN108171257B (zh) | 细粒度图像识别模型训练及识别方法、装置及存储介质 | |
CN103229233B (zh) | 用于识别说话人的建模设备和方法、以及说话人识别系统 | |
US8606022B2 (en) | Information processing apparatus, method and program | |
CN102663370B (zh) | 一种人脸识别的方法及系统 | |
CN105261367A (zh) | 一种说话人识别方法 | |
CN103415825A (zh) | 用于手势识别的系统和方法 | |
CN104167208A (zh) | 一种说话人识别方法和装置 | |
CN113033438B (zh) | 一种面向模态非完全对齐的数据特征学习方法 | |
CN103474061A (zh) | 基于分类器融合的汉语方言自动辨识方法 | |
CN106022208A (zh) | 人体动作识别方法及装置 | |
CN104538035A (zh) | 一种基于Fisher超向量的说话人识别方法及系统 | |
CN103594084A (zh) | 联合惩罚稀疏表示字典学习的语音情感识别方法及系统 | |
CN110046941A (zh) | 一种人脸识别方法、系统及电子设备和存储介质 | |
CN105912525A (zh) | 基于主题特征的半监督学习情感分类方法 | |
Yuan et al. | Extracting bottleneck features and word-like pairs from untranscribed speech for feature representation | |
CN104639742A (zh) | 移动终端辅助学习口语的方法及装置 | |
CN103810210B (zh) | 搜索结果显示方法及装置 | |
Sikdar et al. | A feature-based ensemble approach to recognition of emerging and rare named entities | |
CN108470065A (zh) | 一种异常评论文本的确定方法及装置 | |
CN103219008A (zh) | 基于基状态矢量加权的短语音说话人识别方法 | |
CN106815593A (zh) | 中文文本相似度的确定方法和装置 | |
CN104298975B (zh) | 一种分布式图像识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |