CN103229233A - 用于识别说话人的建模设备和方法、以及说话人识别系统 - Google Patents
用于识别说话人的建模设备和方法、以及说话人识别系统 Download PDFInfo
- Publication number
- CN103229233A CN103229233A CN2010800703219A CN201080070321A CN103229233A CN 103229233 A CN103229233 A CN 103229233A CN 2010800703219 A CN2010800703219 A CN 2010800703219A CN 201080070321 A CN201080070321 A CN 201080070321A CN 103229233 A CN103229233 A CN 103229233A
- Authority
- CN
- China
- Prior art keywords
- anchor
- cluster
- bower
- speaker
- companion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000001755 vocal effect Effects 0.000 claims description 67
- 230000003044 adaptive effect Effects 0.000 claims description 36
- 238000004519 manufacturing process Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 14
- 230000005484 gravity Effects 0.000 claims description 11
- 238000013459 approach Methods 0.000 claims description 7
- 238000005520 cutting process Methods 0.000 claims description 7
- 230000000052 comparative effect Effects 0.000 claims description 4
- 230000006978 adaptation Effects 0.000 abstract description 7
- 230000006872 improvement Effects 0.000 abstract description 3
- 230000008901 benefit Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000000712 assembly Effects 0.000 description 5
- 238000000429 assembly Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008676 import Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000005465 channeling Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000002650 habitual effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Stereophonic System (AREA)
- Toys (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
本发明实现用于识别说话人的建模设备和方法、以及说话人识别系统。建模设备包括:前端,从各目标说话人取得登记语音数据;参考锚集合生成单元,基于锚空间使用登记语音数据生成参考锚集合;以及声纹生成单元,基于参考锚集合和登记语音数据生成声纹。在本公开中,通过考虑登记语音和说话人自适应技术,能够生成尺寸更小的锚模型,因而能够进行具有尺寸更小的参考锚集合的、可靠性高的鲁棒的说话人识别。这对于进行计算速度的改善以及大幅度的存储器削减是非常有利的。
Description
技术领域
本公开涉及语音(音频)处理以及语音识别技术,另外涉及说话人对比、电话会议、以及数字网络视听的技术。
背景技术
说话人识别技术对于许多应用,例如说话人跟踪、语音索引(audio index)、以及分段是非常有用的。近年来,提出了使用多个锚(说话人)模型对说话人进行建模的技术。将说话人语音投影到锚模型上,构成表示说话人的声学特性的向量。
图1表示用于进行说话人识别的以往设备的方框图。如图1所示,通过学习来自多个普通说话人的语音,生成锚空间。在参考锚集合生成单元(reference anchor set generation unit)102中,从锚空间(anchor space)选择作为集群(cluster)的重心的多个虚拟锚说话人(virtual anchor speakers)并形成参考锚集合(reference anchor set),或者选择距各集群的重心最近的锚说话人并形成参考锚集合。前端101取得目标说话人的登记语音,将该登记语音转换为特征参数,并将这些特征参数发送至声纹(voice print)生成单元103。声纹生成单元103基于从前端101发送来的特征参数以及由参考锚集合生成单元102生成的参考锚集合,生成声纹。接着,为了进一步用于说话人识别,将生成的声纹存储到声纹数据库104中。
发明内容
发明要解决的问题
根据图1可知,由设备100生成的参考锚集合仅能够反映锚空间自身的分布。因此,为了更好地表现目标说话人,需要更多的锚,因此计算量增大,难以在嵌入型系统中使用。
解决问题的方案
在本公开的一个方式中,实现用于识别说话人的建模设备,该设备包括:前端,从目标说话人取得登记语音;参考锚集合生成单元,基于锚空间使用登记语音生成参考锚集合;以及声纹生成单元,基于参考锚集合和登记语音生成声纹。
在本公开的另一个方式中,提供用于识别说话人的建模方法,该方法包括:从目标说话人取得登记语音的步骤;基于锚空间使用登记语音生成参考锚集合的步骤;以及基于参考锚集合和登记语音生成声纹的步骤。
在本公开的又一方式中,实现说话人识别系统,该系统包括:前端,从目标说话人取得登记语音及/或测试语音;参考锚集合生成单元,基于锚空间使用登记语音生成参考锚集合;声纹生成单元,基于参考锚集合以及登记语音及/或测试语音生成声纹;对比单元,将根据测试语音生成的声纹与根据登记语音生成的声纹进行比较;以及判断单元,基于比较结果识别目标说话人的同一性。
在本公开的再一方式中,实现说话人识别系统,该系统包括建模设备以及识别设备,建模设备包括:第一前端,从目标说话人取得登记语音;参考锚集合生成单元,基于锚空间使用登记语音生成参考锚集合;以及第一声纹生成单元,基于参考锚集合和登记语音生成第一声纹,识别设备包括:第二前端,从目标说话人取得测试语音;第二声纹生成单元,基于参考锚集合和测试语音生成第二声纹;对比单元,将第一声纹与第二声纹进行比较;以及判断单元,基于比较结果识别目标说话人的同一性。
使用本公开的建模设备、方法、以及说话人识别系统,考虑登记语音以及说话人自适应技术,从而能够生成尺寸更小的锚模型,能够进行具有尺寸更小的参考锚集合的、可靠性高的鲁棒的说话人识别。这对于进行计算速度的改善以及大幅度的存储器削减是非常有利的,因此计算量较少且参考锚集合较小,故更适于嵌入型应用。
上述为概要内容,因此当然进行了简化、一般化,并且省略了详细情况,因此本领域技术人员可以理解,概要内容仅为例示,并不意图以任何形式进行限制。本说明书中记载的设备及/或过程及/或其他主题的其他方式、特征、以及优点将通过本说明书中描述的内容而变得明确。本“发明内容”用于导入以下的“具体实施方式”中进一步说明的简化形式的概念的选择。本“发明内容”并不意图明示权利要求的主题的关键特征或本质特征,也并不意图用于辅助决定权利要求的主题的范围。
通过参考附图,利用以下的说明以及附属的权利要求可以使本公开的上述特征以及其他特征完全明确。这些附图仅表示基于本公开的多个实施方式,因此应当理解,不应将其认为是限制本公开的范围的内容,并且,使用附图更具体地、详细地说明本公开。
附图说明
图1是用于说话人识别的以往设备的方框图。
图2是基于本公开的一实施方式的用于说话人识别的建模设备的方框图。
图3是基于本公开的一实施方式的参考锚集合生成单元的方框图。
图4是基于本公开的一实施方式的锚空间的略图。
图5是基于本公开的另一实施方式的参考锚集合生成单元的方框图。
图6是基于本公开的又一实施方式的参考锚集合生成单元的方框图。
图7是基于本公开的一实施方式的用于说话人识别的建模方法的流程图。
图8是基于本公开的另一实施方式的用于生成参考锚集合的建模方法的流程图。
图9是基于本公开的一实施方式的说话人识别系统的方框图。
图10是表示关于与尺寸不同的参考锚集合的性能比较的实验数据的图。
具体实施方式
在下面的详细说明中参考构成详细说明的一部分的附图。图中类似的标号典型地标识类似的成分,除非在上下文中另行说明。详细的说明、附图、以及权利要求中说明的例示的实施方式并不意图进行限定。也能够利用其他实施方式,另外在不脱离本说明书提出的主题的精神和范围的情况下,可以增加其他变形。容易理解的是,在本说明书中进行一般性的说明并在图中例示的本公开的方式可以通过各种不同结构进行配置、置换、组合以及设计,它们均被明确地考察并构成本公开的一部分。
下面介绍本公开中使用的主要用语。
1)锚数据库
一般而言,学习体(corpus)中有来自数百或数千个说话人的语音数据。能够学习表示各说话人的声学特性的锚模型(例如高斯混合模型)。若汇总所有锚模型,则构成锚数据库。
2)参考锚集合
将参考锚集合定义为用于说话人鉴别/识别系统的、按照特定的生成规则从锚数据库生成的集合。
3)锚空间
在各锚模型表示空间的一维的情况下,在使用锚数据库内的所有锚模型时可构成锚空间。锚空间的维数等于锚数据库内的锚模型的总数。
4)主锚模型(Principal anchor model)
将主锚模型定义为相对于一个说话人的登记语音最近的模型。
5)同伴锚模型(Associate anchor model)
将除了主锚以外的、参考锚集合内的剩余的锚定义为同伴锚模型。
图2表示基于本公开的一实施方式的用于说话人识别的建模设备的方框图。
如图2所示,基于本公开的一实施方式的用于说话人识别的建模设备200包括前端201、参考锚集合生成单元202、声纹生成单元203、以及声纹数据库204。例如,在上述结构中,声纹生成单元203连接于前端201、参考锚集合生成单元202、以及声纹数据库204。前端201也与参考锚集合生成单元202连接。
根据本公开的一实施方式,在建模设备200中,前端201从目标说话人取得登记语音,参考锚集合生成单元202基于锚空间使用登记语音生成参考锚集合,声纹生成单元203基于参考锚集合以及登记语音生成声纹。
以下说明基于本公开的实施方式的建模设备200的上述各个单元的操作。
最初,通过学习来自普通说话人的多个语音来生成锚空间,锚空间包含表示这些普通说话人的声学特性的多个锚模型。锚空间能够以锚数据库的形式存储在数据库内。前端201取得目标说话人的登记语音,将该登记语音转换为特征参数,并将这些特征参数发送至参考锚集合生成单元202以及声纹生成单元203。参考锚集合生成单元202基于目标说话人的登记语音,从锚空间中生成参考锚集合。声纹生成单元203将从登记语音中提取出、并从前端201发送来的特征参数适用于由参考锚集合生成单元202生成的参考锚集合的锚模型,由此生成声纹,为了进一步用于识别说话人,将生成的声纹存储到声纹数据库204中。
前端201以及声纹生成单元203的操作是本领域技术人员所熟知的,因而为了不与本公开的要点相混淆,省略其详细说明。以下,详细说明参考锚集合生成单元202的操作。
根据本公开的另一实施方式,由参考锚集合生成单元202生成的参考锚集合包括至少一个主锚和至少一个同伴锚,参考锚集合生成单元202基于锚空间使用登记语音生成主锚,并基于主锚生成至少一个同伴锚。
假定在存在“n”个目标说话人的登记语音的情况下,生成的主锚的数量能够设为1至n,较为理想的是,基于来自n个目标说话人的登记语音生成n个主锚。
图3表示基于本公开的一实施方式的参考锚集合生成单元的方框图。参考锚集合生成单元302的功能与图2所示的参考锚集合生成单元202的功能相同。如图3所示,参考锚集合生成单元302包括主锚生成单元3021、同伴锚生成单元3022、以及组合单元3023。
具体而言,主锚生成单元3021从锚空间中找到与目标说话人的登记语音的模型的距离最近的锚模型,由此生成主锚。在此,登记语音的模型既可以是表示目标说话人的声学特性的GMM(高斯混合模型),也可以使用目标说话人的登记语音的特征参数而由前端201或者参考锚集合生成单元302进行计算。根据目标说话人的人数生成至少一个主锚。同伴锚生成单元3022基于主锚将锚空间分割为多个集群,找出距不包含主锚的多个集群的重心的距离最近的锚模型,由此生成同伴锚。在此,距离也可以是似然值。组合单元3023组合所生成的主锚与同伴锚,以作为参考锚集合。
以下说明基于本公开的一实施方式的参考锚集合生成单元302的上述各个单元的操作。
最初,在主锚生成单元3021中,通过使用目标说话人的登记语音来生成主锚。具体而言,找到锚空间内与目标说话人的登记语音的GMM模型的距离最近的锚模型,由此能够得到对于一个目标说话人的主锚。更具体而言,根据本公开的一实施方式,能够使用似然距离来作为上述距离。
例如,使用来自目标说话人的登记语音,计算目标说话人与锚空间内存在的各普通说话人之间的似然距离。最初,假定锚空间内的各说话人i通过以{pij,μij,∑ij},j=1,2,…,Mi为参数的GMM(高斯混合模型)Λi等概率模型进行建模,式中,Mi表示混合成分的个数,pij表示混合增益,μij、∑ij分别是各高斯混合成分的平均向量和对角协方差矩阵。目标说话人的登记语音X具有语音帧[x1,x2,x3,…,xT],式中,T是总帧数。因此,似然距离可作为下式(1)得到。
随后,例如通过计算arg maxiP(X|Λi),求出普通说话人的最近说话人模型作为主锚。需要注意的是,在存在多个目标说话人的情况下,可以反复上述操作以得到多个主锚。因此,生成的主锚的数量并不是本公开的范围的限制因素。另外,距离并不限定于似然距离。
接着,在同伴锚生成单元3022中,基于由主锚生成单元3021生成的主锚,生成同伴锚。
根据本公开的一实施方式,将锚空间分割为多个集群的过程如下。最初,将锚空间分割为N个集群,在此,N等于主锚的个数。N个集群中具有最大的类内距离的一个集群被进一步分割,在此,在集群具有主锚的情况下,基于主锚与集群内的距主锚最远的锚,将集群分割为两个子集群,而在集群不具有主锚的情况下,基于相对于距离更远的主锚的、集群内最远的两个锚,将集群分割为两个子集群。反复上述过程,直到得到多个集群。
具体而言,最初,按照锚空间内的各锚与所生成的主锚之间的距离,将锚空间分割为N个集群(N等于主锚的个数)。得到的N个集群分别包含由主锚生成单元3021生成的一个主锚。在此,距离也可以是似然值。例如,可以使用Kullback-Leibler(KL)散度距离或者欧氏距离作为上述距离。以欧氏距离为例,Λ1以及Λ2这两个GMM之间的欧氏距离作为下式(2)给出。
式中,
在此,k,m=1,2仅表示两个GMM的索引。
接着,反复执行找到要进一步分割的具有最大类内距离的一个集群的操作,直到满足全部集群为止。集群的个数可根据实际应用的条件预先确定。进行分割的步骤基于以下规则。
在被选作分割对象的集群具有主锚的情况下,找到该集群内的距主锚最远的锚,为了进行分类,将该集群内的剩余的锚分别与两个锚(距离最远的锚与主锚)进行比较,基于比较结果将该集群分割为两个子集群。在与此不同的情况下
在被选作分割对象的集群不具有主锚的情况下,找到相对于更远的主锚最远的、集群内的两个锚,即分割集群的更远集群中包含的主锚,为了进行分类,将该集群内的剩余的锚分别与两个锚进行比较,基于比较结果将该集群分割为两个子集群。
例如,如上所述,按照两个锚之间的距离执行比较。如上所述,反复执行上述操作后,将锚空间分割为期望数量的集群。
随后,作为同伴锚,找到距包含主锚的集群以外的集群的重心最近的锚。根据本公开的一实施方式,能够按照带比例尺的巴特查理亚(Bhattacharyya)距离得到重心。例如,为了在各集群内得到各重心,组合GMM的距离尺度基于以下作为式(4)给出的带比例尺的巴特查理亚距离。
在距重心最近的锚的选择中,例如可以使用上述的KL/欧氏距离。
最后,在组合单元3023中,为了进一步用于说话人识别,作为参考锚集合,组合由主锚生成单元3021生成的主锚以及由同伴锚生成单元3022生成的同伴锚。
图4表示基于本公开的一实施方式的锚空间400的略图。在图4中,以两个目标说话人的情况为例,图示了图3的参考锚集合生成单元302的处理之后的结果。如图4所示,在锚空间400内,共有6个分割出的集群401、402、403、404、405以及406。如上述那样基于说话人1和说话人2的登记语音数据4012和4042,由主锚生成单元3021生成分别配置在集群401以及404内的两个主锚4011以及4041。通过基于两个主锚4011以及4041的上述分割操作,同伴锚生成单元3022生成分别配置在不包含主锚的集群402、403、405以及406中的4个同伴锚4021、4031、4051以及4061。两个主锚4011、4041和4个同伴锚4021、4031、4051以及4061的组合是由参考锚集合生成单元302生成的参考锚集合。需要注意的是,分割集群的总数并不限定于6个,另外,本领域技术人员应当理解,集群的总数能够适当设定为其他任意数值。
根据本公开的一实施方式,参考锚集合生成单元还可以包括自适应单元。图5表示基于本公开的一实施方式的建模设备200内的参考锚集合生成单元502的方框图。
根据图5可知,参考锚集合生成单元502与图3的参考锚集合生成单元302的不同之处在于,在主锚生成单元3021与同伴锚生成单元3022之间增加了自适应单元5024。
具体而言,由主锚生成单元3021生成的主锚输入到自适应单元5024中。在自适应单元5024中,可以将MLLR(最大似然线性回归)/MAP(最大后验概率)等说话人自适应技术应用于生成的主锚,并将进行了自适应后的精细化了的主锚上输出到同伴锚生成单元3022。在同伴锚生成单元3022中,由精细化了的主锚进行引导,分割锚空间,并按照前面说明的操作找到同伴锚。由于自适应技术是一般性技术,所以其详细内容不在下面进行说明。
即,可以通过自适应单元5024中的MAP或MLLR等自适应方法利用登记语音使主锚进行自适应,并且可以在同伴锚生成单元3022中的自适应后基于主锚生成同伴锚。
需要注意的是,并不限定于在生成的主锚上应用自适应,也可以将其替代而在生成的参考锚集合上应用自适应。
图6表示基于本公开的另一实施方式的建模设备200内的参考锚集合生成单元的方框图。自适应单元可以直接配置在主锚生成单元与参考锚集合生成单元的组合单元之间。
根据图6可知,参考锚集合生成单元602与图5的参考锚集合生成单元502的不同之处在于,在主锚生成单元3021与组合单元3023之间,并列配置了自适应单元5024以及同伴锚生成单元3022。
具体而言,图6所示的各个单元的操作如下。由主锚生成单元3021生成主锚后,得到的主锚分别输入到自适应单元5024以及同伴锚生成单元3022中。在自适应单元5024中,为了进行自适应处理,可以在主锚上应用MLLR/MAP等若干说话人自适应技术。在同伴锚生成单元3022中,由所生成的主锚进行引导,分割锚空间,并按照参考图3在前面说明的操作找到同伴锚。接着,从自适应单元5024输出的进行了自适应的主锚以及从同伴锚生成单元3022输出的同伴锚为了进行组合处理而输入到组合单元3023,通过组合进行了自适应的主锚以及同伴锚得到精细化的参考锚集合,为了生成目标说话人的声纹,或者为了进一步用于说话人识别,将精细化的参考锚集合输入声纹生成单元203。
图7表示基于本公开的一实施方式的用于说话人识别的方法的流程图。
如图7所示,基于本公开的实施方式的用于说话人识别的方法可以包含以下步骤。在步骤S701中,从目标说话人取得登记语音。在步骤S702中,基于锚空间使用登记语音,从而生成参考锚集合。在步骤S703中,基于参考锚集合以及登记语音,生成目标说话人的声纹。根据本发明的实施方式,步骤S701可以由前端201执行,步骤S702如上所述可以由参考锚集合生成单元202、302、502、以及602中的任一者执行,步骤S703可以由声纹生成单元203执行。
图8表示基于本公开的一实施方式的用于生成参考锚集合的方法的流程图。如上所述,参考锚集合包括主锚和同伴锚,同伴锚基于主锚生成。
具体而言,图7所示的生成参考锚集合的步骤S702可以进一步包含图8所示的子步骤。如图8所示,在步骤S801中,基于锚空间使用登记语音,从而生成主锚。在步骤S802中,基于生成的主锚生成同伴锚。在步骤S803中,将主锚以及同伴锚组合为参考锚集合。根据实施方式,步骤S801至步骤S803分别可以如上所述由主锚生成单元3021、同伴锚生成单元3022、以及组合单元3023执行。
根据本公开的另一实施方式,步骤S801进一步包含从锚空间中找到与登记语音的模型的距离最近的锚模型,由此生成主锚的步骤。
根据本公开的另一实施方式,步骤S802进一步包含如下的步骤,即:基于主锚将锚空间分割为多个集群,找出距不包含主锚的多个集群的重心的距离最近的锚模型,由此生成同伴锚的步骤。
根据本公开的另一实施方式,步骤S802进一步包含:最初,令N为与主锚的个数相等的值,将锚空间分割为N个集群的步骤;找到要进一步进行分割的、在N个集群中具有最大的类内距离的一个集群的步骤,在该步骤中,在集群具有主锚的情况下,基于主锚与集群内的距主锚最远的锚,将集群分割为两个子集群,而在集群不具有主锚的情况下,基于相对于距离更远的主锚的、集群内最远的两个锚,将集群分割为两个子集群的步骤;以及反复执行上述过程直到得到多个集群为止的步骤。
根据本公开的一实施方式,图8所示的生成参考锚集合的方法可以在步骤S801之后进一步包含追加自适应过程的步骤。一方面,步骤S801中生成的主锚可以在步骤S802中用于生成同伴锚之前,使用MAP以及MLLR等自适应技术利用登记语音进行自适应,同伴锚在步骤S802的自适应后基于主锚生成。另一方面,MAP以及MLLR等自适应技术可以在由步骤S801生成的主锚上应用,同伴锚不进行步骤S802的自适应而基于主锚生成,因此组合单元3023将同伴锚与进行了自适应的主锚组合在一起,从而得到参考锚集合。根据本公开的实施方式,自适应的步骤如上所述可以由自适应单元5024执行。
该方法的上述步骤的执行并不限定于上述顺序,这些步骤可以逐一执行及/或并列执行。还有可能无须执行图示的所有步骤。
图9表示基于本公开的一实施方式的说话人识别系统的方框图。
如图9所示,整个说话人识别系统900包括两个阶段,一个是登记阶段,另一个是测试阶段。登记阶段的结构与参考图2说明的相同,因此以下省略其详细说明。测试阶段包含前端901、声纹生成单元902、对比单元903、以及判断单元904。前端901取得目标说话人的测试语音,从测试语音中提取特征参数,并将特征参数发送至声纹生成单元902。前端901以及前端201可以作为一体进行动作,并不限定于上述结构。声纹生成单元902基于如上所述从前端901发送来的特征参数以及由参考锚集合生成单元202生成的参考锚集合,生成声纹。与前端901以及201同样,声纹生成单元902以及声纹生成单元203也可以作为一体进行动作,并不限定于上述结构。对比单元903将由测试阶段生成的声纹与由登记阶段生成的声纹进行比较,并将比较结果发送至判断单元904。判断单元904基于结果识别目标说话人的同一性,即,在比较结果大于规定阈值的情况下,识别出目标说话人的同一性,在比较结果小于规定阈值的情况下,否认目标说话人的同一性。
据此,基于本公开的实施方式的说话人识别系统900可构成为包括如下装置,即:前端201或901,从目标说话人取得登记语音及/或测试语音;参考锚集合生成单元202,基于锚空间使用登记语音,由此生成参考锚集合;声纹生成单元203或902,基于参考锚集合以及登记语音及/或测试语音生成声纹;对比单元903,将根据测试语音生成的声纹与根据登记语音生成的声纹进行比较;以及判断单元904,基于比较结果识别目标说话人的同一性。
根据本公开的另一实施方式,说话人识别系统900可构成为包括建模设备以及识别设备,建模设备包括:第一前端201,从目标说话人取得登记语音;参考锚集合生成单元202,基于锚空间使用登记语音,由此生成参考锚集合;以及第一声纹生成单元203,基于参考锚集合以及登记语音生成第一声纹;识别设备包括:第二前端901,从目标说话人取得测试语音;第二声纹生成单元902,基于参考锚集合以及测试语音生成第二声纹;对比单元903,将第一声纹与第二声纹进行比较;以及判断单元904,基于比较结果识别目标说话人的同一性。
这样,通过考虑登记语音以及说话人自适应技术,能够生成尺寸更小的锚模型,因而能够进行具有尺寸更小的参考锚集合的、可靠性高的鲁棒的说话人识别。这对于进行计算速度的改善以及大幅的存储器削减是非常有利的,因此计算量较少,参考锚集合较小,因而更适于嵌入型应用。为了确认本公开的有效性,进行若干实验。在第一实验中,使用对特定尺寸的参考锚集合的说话人识别以及对比的实验。如表1所示,本公开能够优于以往方法。
[表1]
识别 | 对比 | |
以往方法 | 56.58 | 65.46 |
有自适应的以往方法 | 60.48 | 72.09 |
实施方式 | 73.62 | 74.00 |
有自适应的实施方式 | 75.08 | 77.29 |
在下面的实验中,检验参考锚集合的尺寸对说话人识别系统的影响。从图10中可以看出,本公开在参考锚集合的尺寸较小这一点上显著优于以往方法,并且说话人自适应可以提高性能。此外还显示出,有两个因素对系统性能产生影响。一个因素是锚模型关于目标说话人的辨别能力。以往方法的初始性能由于该辨别能力弱而较差。根据实施方式,在锚生成过程中考虑辨别能力,因此性能得到改善。此外,锚上的说话人自适应也能够提高该能力,性能进一步得到改善。除了主锚,同伴锚尤其以否决为目的还具有追加的辨别能力。这是因为,在无自适应时,锚的尺寸增大时性能得到改善,从图10的以往方法以及实施方式的曲线中可以看出这一点。改善辨别能力的自适应的正面效果在锚较小时达到最大。作为其他因素,还可以举出生成的说话人声纹向量的稳定程度,该稳定程度受到登记数据的尺寸的影响。根据图10的有自适应的实施方式的曲线,性能发生降低,这是因为在锚的尺寸增大时,为了生成稳定的更高维数的说话人声纹向量需要相当多的登记数据。
在锚的大小较小的情况下,说话人声纹生成所需的登记数据较少即可,因此该自适应居于主导地位。随着该锚的尺寸变大,为了生成稳定的说话人声纹向量所需的登记数据的量变得相当大,自适应的效果减少。总之,声纹的维数越多,则否决能力越大,声纹的维数越少,则所需的登记数据可以越少。维数较少的情况下的效果优于维数较多的情况下的效果,这是因为在较少维数的状态下附加了这种性能提高的效果。
上述详细说明通过使用方框图、流程图及/或实施例,描述了设备及/或过程的各种实施方式。本领域技术人员应当理解,只要这种方框图、流程图及/或实施例包含一个或多个功能及/或运算,这种方框图、流程图或实施例内的各功能及/或运算可以通过各种硬件、软件、固件、或者它们的实质上的任意组合,单独及/或集成地实现。在一实施方式中,本说明书中记载的主题的若干部分可以通过专用集成电路(Application Specific Integrated Circuits,ASIC)、场可编程门阵列(Field Programmable Gate Arrays,FPGA)、数字信号处理器(Digital Signal Processor,DSP)、或者其他集成电路方式实现。但是,本领域技术人员应当理解,本说明书中公开的实施方式的若干形式的全部或者部分可以作为在一个或多个计算机上执行的一个或多个计算机程序(例如,作为在一个或多个计算机系统上执行的一个或多个程序)、作为在一个或多个处理器上执行的一个或多个程序(例如,作为在一个或多个微处理器上执行的一个或多个程序)、作为固件、或者作为它们的实质上的任意组合,在集成电路内以等价的结构实现,并且根据本公开,本领域技术人员应当能够为软件及/或固件设计电路及/或编写代码。此外,本领域技术人员应当理解,本说明书中记载的主题的机制可以作为各种形式的程序产品分发,另外本说明书中记载的主题的例示的一实施方式的应用与用于实际执行分发的特定种类的信号传播介质无关。作为信号传播介质的例子,可举出且不限于如下介质:软盘、硬盘驱动器、紧凑式光盘(CD)、数字视频光盘(DVD)、数字磁带、计算机存储器等可记录型介质,以及数字及/或模拟通信介质等发送型介质(例如光导纤维电缆、波导管、有线通信链路、无线通信链路等)。
本说明书中记载的主题有时例示收容于其他不同的组件内或者连接于其他组件的组件。应当理解的是,所示出的这种结构仅为例示,实际上可以实现具有相同功能的多种其他结构。在概念意义上,为了实现相同功能,无论以任何方式配置组件,都是为了实现期望功能而实际进行“关联”。因此,为了实现特定功能而组合的本说明书的任意两个组件可以视为与结构或中间组件无关,为了实现期望功能而相互“关联”。同样,以此方式关联的任意两个组件还可以视为为了实现期望功能而相互“可动作地连接”或者“可动作地结合”,进而,能够以此方式关联的任意两个组件还可以视为为了实现期望功能而相互“能够可动作地连接”。作为能够可动作地结合的特定例子,可举出且不限于如下例子:物理上可啮合、及/或物理上相互作用的组件、及/或能够以无线方式相互作用、及/或能够以无线方式相互作用的组件、及/或逻辑上相互作用、及/或逻辑上能够相互作用的组件。
关于本说明书中的实质上的多数形及/或单数形的用语的使用,本领域技术人员能够根据背景情况及/或用途,适当地将多数形改变为单数形、及/或将单数形改变为多数形。关于各种单数形/多数形的置换,在本说明书中为了易于理解有时明确进行描述。
本领域技术人员应当理解的是,一般而言,本说明书中使用的、尤其是附属的权利要求书(例如附属的权利要求书的正文)中使用的说法一般是“非限定性的”说法(例如,说法“包括有”应解释为“包括有但不限于”,说法“具有”应解释为“至少具有”,说法“包括”应解释为“包括但不限于”,等等)。此外,本领域技术人员应当理解,在意图所导入的权利要求列举的特定数量的情况下,该意图在权利要求内会明确记载,在没有这种列举的情况下,不存在这种意图。例如,为了便于理解,在以下的附属的权利要求中,可以加入导入句“至少一个”以及“一个或多个”以导入权利要求列举。但是,即使使用了这种语句,通过基于不定冠词“a”或者“an”的权利要求列举的导入,即使该权利要求包含导入句“至少一个”或“一个或多个”,以及“a”或“an”等不定冠词,包含这种导入的权利要求列举的特定权利要求也不应解释为限定于仅包含一个这种列举的公开(例如,“a”及/或“an”典型地应解释为指“至少一个”或“一个或多个”),关于用于导入权利要求列举的定冠词的使用,这一点也成立。此外,本领域技术人员应当理解,即使明确记载了特定数量的导入的权利要求列举,这种列举典型地也应该理解为指至少记载的数量(例如,不加其他修饰语的“两个列举”这一不加修饰的列举典型地指至少两个列举,或者两个以上列举)。在使用类似于“A、B、或C等中至少一者”的惯用说法的情况下,一般而言,该结构是指本领域技术人员对该惯用说法所理解的意义(例如,“具有A、B、或C中至少一者的系统”包括但不限于仅具有A、仅具有B、仅具有C、具有A及B、具有A及C、具有B及C、及/或具有A、B及C等的系统)。此外,本领域技术人员应当理解,不管是说明书、权利要求书、还是附图中,表示两个以上代替词语的实质上的任意分离词语及/或语句,都应当理解为有可能包含多个词语中之一、多个词语中的任一者、或者词语双方。例如,语句“A或B”应理解为包含“A”或“B”、或者“A及B”的可能性。
本说明书中公开了各种形式以及实施方式,但本领域技术人员应当显而易见地想到其他形式以及实施方式。本说明书中公开的各种形式以及实施方式旨在进行例示,并不意图进行限定,真正的范围和精神由权利要求书示出。
Claims (25)
1.用于识别说话人的建模设备,其包括:
前端,从目标说话人取得登记语音;
参考锚集合生成单元,基于锚空间使用所述登记语音生成参考锚集合;以及
声纹生成单元,基于所述参考锚集合和所述登记语音生成声纹。
2.如权利要求1所述的用于识别说话人的建模设备,
所述参考锚集合包括主锚和同伴锚,所述同伴锚基于所述主锚生成。
3.如权利要求2所述的用于识别说话人的建模设备,
所述锚空间包含多个锚模型,通过从所述锚空间中找到距登记语音的所述模型的距离最近的锚模型,生成所述主锚。
4.如权利要求2或3所述的用于识别说话人的建模设备,
基于所述主锚将所述锚空间分割为多个集群,找出距不包含主锚的所述多个集群的重心的距离最近的锚模型,由此生成所述同伴锚。
5.如权利要求4所述的用于识别说话人的建模设备,
所述锚空间通过如下步骤分割为所述多个集群,即:最初,令N为与所述主锚的个数相等的值,将所述锚空间分割为N个集群;找到要进一步进行分割的、在所述N个集群中具有最大的类内距离的一个集群,在所述集群具有主锚的情况下,基于所述主锚与所述集群内的距所述主锚最远的锚,将所述集群分割为两个子集群,而在所述集群不具有主锚的情况下,基于相对于距离更远的所述主锚的、所述集群内最远的两个锚,将所述集群分割为两个子集群;以及反复执行上述过程,直到得到所述多个集群为止。
6.如权利要求3所述的用于识别说话人的建模设备,
所述距离为似然值。
7.如权利要求2所述的用于识别说话人的建模设备,
所述主锚通过MAP或MLLR等自适应方法利用所述登记语音进行自适应,所述同伴锚在自适应后基于所述主锚生成。
8.如权利要求2所述的用于识别说话人的建模设备,
所述主锚通过MAP或MLLR等自适应方法利用所述登记语音进行自适应,所述同伴锚和所述进行了自适应的主锚组合为所述参考锚集合。
9.用于识别说话人的建模方法,其包括:
从目标说话人取得登记语音的步骤;
基于锚空间使用所述登记语音生成参考锚集合的步骤;以及
基于所述参考锚集合和所述登记语音生成声纹的步骤。
10.如权利要求9所述的用于识别说话人的建模方法,
所述参考锚集合包括主锚和同伴锚,该建模方法还包括基于所述主锚生成所述同伴锚的步骤。
11.如权利要求10所述的用于识别说话人的建模方法,
所述锚空间包含多个锚模型,该建模方法还包括从所述锚空间中找到距登记语音的所述模型的距离最近的锚模型从而生成所述主锚的步骤。
12.如权利要求10或11所述的用于识别说话人的建模方法,还包括:
基于所述主锚将所述锚空间分割为多个集群,找出距不包含主锚的所述多个集群的重心的距离最近的锚模型,由此生成所述同伴锚的步骤。
13.如权利要求12所述的用于识别说话人的建模方法,还包括:
最初,令N为与所述主锚的个数相等的值,将所述锚空间分割为N个集群的步骤;
找到要进一步进行分割的、在所述N个集群中具有最大的类内距离的一个集群的步骤,在该步骤中,在所述集群具有主锚的情况下,基于所述主锚与所述集群内的距所述主锚最远的锚,将所述集群分割为两个子集群,而在所述集群不具有主锚的情况下,基于相对于距离更远的所述主锚的、所述集群内最远的两个锚,将所述集群分割为两个子集群;以及
反复执行上述过程,直到得到所述多个集群为止的步骤。
14.如权利要求11所述的用于识别说话人的建模方法,
所述距离为似然值。
15.如权利要求10所述的用于识别说话人的建模方法,还包括:
使所述主锚通过MAP或MLLR等自适应方法利用所述登记语音进行自适应的步骤;以及
在自适应后基于所述主锚生成所述同伴锚的步骤。
16.如权利要求10所述的用于识别说话人的建模方法,还包括:
使所述主锚通过MAP或MLLR等自适应方法利用所述登记语音进行自适应的步骤;以及
使所述同伴锚和所述进行了自适应的主锚组合为所述参考锚集合的步骤。
17.说话人识别系统,包括:
前端,从目标说话人取得登记语音及/或测试语音;
参考锚集合生成单元,基于锚空间使用所述登记语音生成参考锚集合;
声纹生成单元,基于所述参考锚集合以及所述登记语音及/或测试语音生成声纹;
对比单元,将由所述测试语音生成的所述声纹与由所述登记语音生成的所述声纹进行比较;以及
判断单元,基于所述比较结果识别所述目标说话人的同一性。
18.如权利要求17所述的说话人识别系统,
所述参考锚集合包括主锚和同伴锚,所述同伴锚基于所述主锚生成。
19.如权利要求18所述的说话人识别系统,
所述锚空间包含多个锚模型,通过从所述锚空间中找到距登记语音的所述模型的距离最近的锚模型,生成所述主锚。
20.如权利要求18或19所述的说话人识别系统,
基于所述主锚将所述锚空间分割为多个集群,找出距不包含主锚的所述多个集群的重心的距离最近的锚模型,由此生成所述同伴锚。
21.如权利要求20所述的说话人识别系统,
所述锚空间通过如下步骤分割为所述多个集群,即:最初,令N为与所述主锚的个数相等的值,将所述锚空间分割为N个集群;找到要进一步进行分割的、在所述N个集群中具有最大的类内距离的一个集群,在所述集群具有主锚的情况下,基于所述主锚与所述集群内的距所述主锚最远的锚,将所述集群分割为两个子集群,而在所述集群不具有主锚的情况下,基于相对于距离更远的所述主锚的、所述集群内最远的两个锚,将所述集群分割为两个子集群;以及反复执行上述过程,直到得到所述多个集群为止。
22.如权利要求19所述的说话人识别系统,
所述距离为似然值。
23.如权利要求18所述的说话人识别系统,
所述主锚通过MAP或MLLR等自适应方法利用所述登记语音进行自适应,所述同伴锚在自适应后基于所述主锚生成。
24.如权利要求18所述的说话人识别系统,
所述主锚通过MAP或MLLR等自适应方法利用所述登记语音进行自适应,所述同伴锚和所述进行了自适应的主锚组合为所述参考锚集合。
25.说话人识别系统,包括建模设备和识别设备,
所述建模设备包括:
第一前端,从目标说话人取得登记语音;
参考锚集合生成单元,基于锚空间使用所述登记语音生成参考锚集合;以及
第一声纹生成单元,基于所述参考锚集合和所述登记语音生成第一声纹,
所述识别设备包括:
第二前端,从所述目标说话人取得测试语音;
第二声纹生成单元,基于所述参考锚集合和所述测试语音生成第二声纹;
对比单元,将所述第一声纹与所述第二声纹进行比较;以及
判断单元,基于比较结果识别所述目标说话人的同一性。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2010/079650 WO2012075640A1 (en) | 2010-12-10 | 2010-12-10 | Modeling device and method for speaker recognition, and speaker recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103229233A true CN103229233A (zh) | 2013-07-31 |
CN103229233B CN103229233B (zh) | 2015-11-25 |
Family
ID=46206543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080070321.9A Active CN103229233B (zh) | 2010-12-10 | 2010-12-10 | 用于识别说话人的建模设备和方法、以及说话人识别系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9595260B2 (zh) |
JP (1) | JP5681811B2 (zh) |
CN (1) | CN103229233B (zh) |
WO (1) | WO2012075640A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106205610A (zh) * | 2016-06-29 | 2016-12-07 | 联想(北京)有限公司 | 一种语音信息识别方法和设备 |
CN106296302A (zh) * | 2016-08-18 | 2017-01-04 | 中国联合网络通信集团有限公司 | 一种语音数据处理方法、装置、用具和系统 |
CN111009248A (zh) * | 2018-10-05 | 2020-04-14 | 松下电器(美国)知识产权公司 | 说话者识别装置、说话者识别方法及记录介质 |
CN112599137A (zh) * | 2020-12-16 | 2021-04-02 | 康键信息技术(深圳)有限公司 | 验证声纹模型识别效果的方法、装置和计算机设备 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102332263B (zh) * | 2011-09-23 | 2012-11-07 | 浙江大学 | 一种基于近邻原则合成情感模型的说话人识别方法 |
JP6350148B2 (ja) * | 2014-09-09 | 2018-07-04 | 富士通株式会社 | 話者インデキシング装置、話者インデキシング方法及び話者インデキシング用コンピュータプログラム |
US9892726B1 (en) * | 2014-12-17 | 2018-02-13 | Amazon Technologies, Inc. | Class-based discriminative training of speech models |
US10522154B2 (en) | 2017-02-13 | 2019-12-31 | Google Llc | Voice signature for user authentication to electronic device |
GB201802309D0 (en) * | 2017-11-14 | 2018-03-28 | Cirrus Logic Int Semiconductor Ltd | Enrolment in speaker recognition system |
CN108074576B (zh) * | 2017-12-14 | 2022-04-08 | 讯飞智元信息科技有限公司 | 审讯场景下的说话人角色分离方法及系统 |
US11593610B2 (en) | 2018-04-25 | 2023-02-28 | Metropolitan Airports Commission | Airport noise classification method and system |
CN109800299B (zh) * | 2019-02-01 | 2021-03-09 | 浙江核新同花顺网络信息股份有限公司 | 一种说话人聚类方法及相关装置 |
CN112420057B (zh) * | 2020-10-26 | 2022-05-03 | 四川长虹电器股份有限公司 | 基于距离编码的声纹识别方法、装置、设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0852374A2 (en) * | 1997-01-02 | 1998-07-08 | Texas Instruments Incorporated | Method and system for speaker-independent recognition of user-defined phrases |
US5895447A (en) * | 1996-02-02 | 1999-04-20 | International Business Machines Corporation | Speech recognition using thresholded speaker class model selection or model adaptation |
US6107935A (en) * | 1998-02-11 | 2000-08-22 | International Business Machines Corporation | Systems and methods for access filtering employing relaxed recognition constraints |
US6389393B1 (en) * | 1998-04-28 | 2002-05-14 | Texas Instruments Incorporated | Method of adapting speech recognition models for speaker, microphone, and noisy environment |
CN1447278A (zh) * | 2002-11-15 | 2003-10-08 | 郑方 | 一种声纹识别方法 |
CN1462428A (zh) * | 2001-03-30 | 2003-12-17 | 索尼公司 | 语音处理装置 |
CN1514432A (zh) * | 2002-12-18 | 2004-07-21 | ���µ�����ҵ��ʽ���� | 语音处理中基于高斯模型的动态时间弯曲系统和方法 |
US20040186724A1 (en) * | 2003-03-19 | 2004-09-23 | Philippe Morin | Hands-free speaker verification system relying on efficient management of accuracy risk and user convenience |
CN1543641A (zh) * | 2001-06-19 | 2004-11-03 | �������ֿ� | 说话者识别系统 |
US20040260550A1 (en) * | 2003-06-20 | 2004-12-23 | Burges Chris J.C. | Audio processing system and method for classifying speakers in audio data |
CN1787077A (zh) * | 2005-12-13 | 2006-06-14 | 浙江大学 | 基于锚模型空间投影序数比较的快速说话人确认方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2554623B1 (fr) * | 1983-11-08 | 1986-08-14 | Texas Instruments France | Procede d'analyse de la parole independant du locuteur |
US6073096A (en) * | 1998-02-04 | 2000-06-06 | International Business Machines Corporation | Speaker adaptation system and method based on class-specific pre-clustering training speakers |
JP4738606B2 (ja) * | 2001-01-29 | 2011-08-03 | 株式会社アニモ | データ照合システム及び方法 |
US20020178004A1 (en) * | 2001-05-23 | 2002-11-28 | Chienchung Chang | Method and apparatus for voice recognition |
CN1453767A (zh) * | 2002-04-26 | 2003-11-05 | 日本先锋公司 | 语音识别装置以及语音识别方法 |
US7457745B2 (en) * | 2002-12-03 | 2008-11-25 | Hrl Laboratories, Llc | Method and apparatus for fast on-line automatic speaker/environment adaptation for speech/speaker recognition in the presence of changing environments |
US7539617B2 (en) * | 2003-07-01 | 2009-05-26 | France Telecom | Method and system for analysis of vocal signals for a compressed representation of speakers using a probability density representing resemblances between a vocal representation of the speaker in a predetermined model and a predetermined set of vocal representations reference speakers |
JP2005321530A (ja) * | 2004-05-07 | 2005-11-17 | Sony Corp | 発話識別装置および発話識別方法 |
JP2005345683A (ja) * | 2004-06-02 | 2005-12-15 | Toshiba Tec Corp | 話者認識装置、プログラム及び話者認識方法 |
US20070219801A1 (en) * | 2006-03-14 | 2007-09-20 | Prabha Sundaram | System, method and computer program product for updating a biometric model based on changes in a biometric feature of a user |
JP5052449B2 (ja) * | 2008-07-29 | 2012-10-17 | 日本電信電話株式会社 | 発話区間話者分類装置とその方法と、その装置を用いた音声認識装置とその方法と、プログラムと記録媒体 |
-
2010
- 2010-12-10 US US13/989,508 patent/US9595260B2/en active Active
- 2010-12-10 CN CN201080070321.9A patent/CN103229233B/zh active Active
- 2010-12-10 JP JP2013542329A patent/JP5681811B2/ja active Active
- 2010-12-10 WO PCT/CN2010/079650 patent/WO2012075640A1/en active Application Filing
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5895447A (en) * | 1996-02-02 | 1999-04-20 | International Business Machines Corporation | Speech recognition using thresholded speaker class model selection or model adaptation |
EP0852374A2 (en) * | 1997-01-02 | 1998-07-08 | Texas Instruments Incorporated | Method and system for speaker-independent recognition of user-defined phrases |
US6107935A (en) * | 1998-02-11 | 2000-08-22 | International Business Machines Corporation | Systems and methods for access filtering employing relaxed recognition constraints |
US6389393B1 (en) * | 1998-04-28 | 2002-05-14 | Texas Instruments Incorporated | Method of adapting speech recognition models for speaker, microphone, and noisy environment |
CN1462428A (zh) * | 2001-03-30 | 2003-12-17 | 索尼公司 | 语音处理装置 |
CN1543641A (zh) * | 2001-06-19 | 2004-11-03 | �������ֿ� | 说话者识别系统 |
CN1447278A (zh) * | 2002-11-15 | 2003-10-08 | 郑方 | 一种声纹识别方法 |
CN1514432A (zh) * | 2002-12-18 | 2004-07-21 | ���µ�����ҵ��ʽ���� | 语音处理中基于高斯模型的动态时间弯曲系统和方法 |
US20040186724A1 (en) * | 2003-03-19 | 2004-09-23 | Philippe Morin | Hands-free speaker verification system relying on efficient management of accuracy risk and user convenience |
US20040260550A1 (en) * | 2003-06-20 | 2004-12-23 | Burges Chris J.C. | Audio processing system and method for classifying speakers in audio data |
CN1787077A (zh) * | 2005-12-13 | 2006-06-14 | 浙江大学 | 基于锚模型空间投影序数比较的快速说话人确认方法 |
Non-Patent Citations (2)
Title |
---|
D. E. STURIM等: "SPEAKER INDEXING IN LARGE AUDIO DATABASES USING ANCHOR MODELS", 《IEEE》, 31 December 2001 (2001-12-31) * |
VILLE HAUTAMäKI等: "Maximum a Posteriori Adaptation of the Centroid Model for Speaker Verification", 《IEEE SIGNAL PROCESSING LETTERS》, vol. 15, 31 December 2008 (2008-12-31), XP011200490 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106205610A (zh) * | 2016-06-29 | 2016-12-07 | 联想(北京)有限公司 | 一种语音信息识别方法和设备 |
CN106205610B (zh) * | 2016-06-29 | 2019-11-26 | 联想(北京)有限公司 | 一种语音信息识别方法和设备 |
CN106296302A (zh) * | 2016-08-18 | 2017-01-04 | 中国联合网络通信集团有限公司 | 一种语音数据处理方法、装置、用具和系统 |
CN106296302B (zh) * | 2016-08-18 | 2019-07-09 | 中国联合网络通信集团有限公司 | 一种语音数据处理方法、装置、用具和系统 |
CN111009248A (zh) * | 2018-10-05 | 2020-04-14 | 松下电器(美国)知识产权公司 | 说话者识别装置、说话者识别方法及记录介质 |
CN112599137A (zh) * | 2020-12-16 | 2021-04-02 | 康键信息技术(深圳)有限公司 | 验证声纹模型识别效果的方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2012075640A1 (en) | 2012-06-14 |
JP2014502374A (ja) | 2014-01-30 |
US20130253931A1 (en) | 2013-09-26 |
US9595260B2 (en) | 2017-03-14 |
CN103229233B (zh) | 2015-11-25 |
JP5681811B2 (ja) | 2015-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103229233B (zh) | 用于识别说话人的建模设备和方法、以及说话人识别系统 | |
CN103221996B (zh) | 用于验证说话人的口令建模的设备和方法、以及说话人验证系统 | |
US10832685B2 (en) | Speech processing device, speech processing method, and computer program product | |
US20140358541A1 (en) | Method and Apparatus for Automatic Speaker-Based Speech Clustering | |
CN104167208A (zh) | 一种说话人识别方法和装置 | |
Huang et al. | Predicting speech recognition confidence using deep learning with word identity and score features | |
CN106997342B (zh) | 基于多轮交互的意图识别方法和装置 | |
CN104903954A (zh) | 使用基于人工神经网络的亚语音单位区分的说话人验证及识别 | |
CN111653275B (zh) | 基于lstm-ctc尾部卷积的语音识别模型的构建方法及装置、语音识别方法 | |
CN103077720A (zh) | 一种说话人识别方法及系统 | |
US10916254B2 (en) | Systems, apparatuses, and methods for speaker verification using artificial neural networks | |
CN104538035A (zh) | 一种基于Fisher超向量的说话人识别方法及系统 | |
Wang et al. | A network model of speaker identification with new feature extraction methods and asymmetric BLSTM | |
CN117337467A (zh) | 经由迭代说话者嵌入的端到端说话者分离 | |
KR102026226B1 (ko) | 딥러닝 기반 Variational Inference 모델을 이용한 신호 단위 특징 추출 방법 및 시스템 | |
CN111091809B (zh) | 一种深度特征融合的地域性口音识别方法及装置 | |
Shivakumar et al. | Simplified and supervised i-vector modeling for speaker age regression | |
CN111354354B (zh) | 一种基于语义识别的训练方法、训练装置及终端设备 | |
Zheng et al. | Contrastive auto-encoder for phoneme recognition | |
CN113284508B (zh) | 基于层级区分的生成音频检测系统 | |
Park et al. | GIST-AiTeR system for the diarization task of the 2022 VoxCeleb speaker recognition challenge | |
CN114420136A (zh) | 一种声纹识别模型训练的方法、装置以及存储介质 | |
Chen et al. | System and keyword dependent fusion for spoken term detection | |
CN106373576A (zh) | 一种基于vq和svm算法的说话人确认方法及其系统 | |
US20220335927A1 (en) | Learning apparatus, estimation apparatus, methods and programs for the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
ASS | Succession or assignment of patent right |
Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD. Effective date: 20140718 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20140718 Address after: California, USA Applicant after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA Address before: Osaka Japan Applicant before: Matsushita Electric Industrial Co.,Ltd. |
|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |