CN104240706B - 一种基于GMM Token配比相似度校正得分的说话人识别方法 - Google Patents
一种基于GMM Token配比相似度校正得分的说话人识别方法 Download PDFInfo
- Publication number
- CN104240706B CN104240706B CN201410464562.1A CN201410464562A CN104240706B CN 104240706 B CN104240706 B CN 104240706B CN 201410464562 A CN201410464562 A CN 201410464562A CN 104240706 B CN104240706 B CN 104240706B
- Authority
- CN
- China
- Prior art keywords
- gmm
- token
- score
- gtr
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000012937 correction Methods 0.000 claims abstract description 25
- 239000013598 vector Substances 0.000 claims description 57
- 238000012549 training Methods 0.000 claims description 29
- 238000012360 testing method Methods 0.000 claims description 17
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims description 2
- 230000007935 neutral effect Effects 0.000 description 8
- 238000011161 development Methods 0.000 description 6
- 230000008451 emotion Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- NGVDGCNFYWLIFO-UHFFFAOYSA-N pyridoxal 5'-phosphate Chemical compound CC1=NC=C(COP(O)(O)=O)C(C=O)=C1O NGVDGCNFYWLIFO-UHFFFAOYSA-N 0.000 description 2
- 102100024109 Cyclin-T1 Human genes 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 210000002105 tongue Anatomy 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种基于GMM Token配比相似度校正得分的说话人识别方法,该方法通过计算测试语音和目标说话人训练语音在UBM上的GMM Token配比相似度,利用相似度对测试语音在所有目标说话人模型上的似然得分进行加权校正,使得校正后的似然得分更具可比性;即在输出得分之前,对得分的可靠性进行评估,对那些不可靠的得分进行惩罚,从而降低部分冒认者的得分,提高系统识别性能。
Description
技术领域
本发明属于语音识别技术领域,具体涉及一种基于GMM Token配比相似度校正得分的说话人识别方法。
背景技术
说话人识别技术是利用信号处理和模式识别的方法,根据说话人的语音识别其身份的技术,主要包括两个步骤:说话人模型训练和语音测试。
目前,说话人语音识别采用的主要特征包括梅尔倒谱系数(MFCC)、线性预测编码倒谱系数(LPCC)、感觉加权的线性预测系数(PLP)。说话人语音识别的算法主要包括矢量量化法(VQ)、通用背景模型法(GMM-UBM)、支持向量机法(SVM)等等。其中,GMM-UBM在整个说话人语音识别领域应用非常广泛。
在基于GMM-UBM说话人识别方法的测试语音识别阶段,首先计算测试语音在所有说话人模型上的似然得分,然后将取得最高得分的目标说话人模型作为测试语音的说话人。然而由于测试语音的得分来源不同,导致测试得分并不具备绝对的可比性,因此传统的方法得出的识别结果可靠性不高。
发明内容
针对现有技术所存在的上述技术问题,本发明提供了一种基于GMM Token配比相似度校正得分的说话人识别方法,通过利用测试语音和目标说话人的训练语料的GMMToken配比相似度对测试语音在该目标模型上的得分作加权校正,降低部分冒认者的得分,提高系统的识别性能。
一种基于GMM Token配比相似度校正得分的说话人识别方法,包括如下步骤:
(1)利用一定数量的非目标说话人的语音特征训练生成一个与目标说话人无关的通用背景模型UBM(UniversalBackgroundModel);
(2)针对任一个目标说话人,利用其训练语音特征在通用背景模型UBM上自适应生成对应的说话人模型GMM(GaussianMixtureModel),并计算其训练语音特征在通用背景模型UBM上的GMM Token配比向量GTR;依此遍历所有目标说话人;
(3)接收测试语音,计算测试语音特征在每一目标说话人对应的说话人模型GMM上的似然得分以及在通用背景模型UBM上的GMM Token配比向量GTR;
(4)计算测试语音特征与每一目标说话人训练语音特征关于GMM Token配比向量GTR之间的相似度,根据相似度对所有似然得分进行加权校正;对校正后的最高似然得分进行阈值过滤后,识别确定该最高似然得分所对应的目标说话人即为测试语音的真正说话人。
所述的步骤(1)中采用EM算法(Expectation-maximization algorithm,简称期望最大算法)训练生成通用背景模型UBM,其为混合阶数为M的高斯混合模型,并以λUBM表示,M为大于1的自然数。
所述的步骤(2)中,针对任一个目标说话人,提取其训练语音中的短时语音特征,根据该语音特征利用MAP算法(最大后验概率算法)在通用背景模型UBM上自适应均值生成对应的说话人模型GMM,其为混合阶数为M的高斯混合模型;对于N个目标说话人对应的说话人模型GMM以λt1,λt2,…,λtN表示,N为大于1的自然数。
所述的步骤(2)和步骤(3)中,计算特定语音特征在通用背景模型UBM上的GMMToken配比向量GTR的具体过程如下;特定语音为训练语音或测试语音,特定语音特征以X={x1,x2,...,xn}表示,xi为特定语音的第i帧特征向量;
首先,将特定语音特征转换成一个GMM Token序列T如下:
T={t1,t2,...,tn} ti∈{1,2,...,M}
其中:ti为GMM Token序列T中第i个Token元素,其取值为通用背景模型UBM中的一高斯分量标号,M为通用背景模型UBM的混合阶数,i为自然数且1≤i≤n,n为特定语音的总特征帧数;
然后,根据以下公式统计通用背景模型UBM中每一个高斯分量标号在GMM Token序列T中出现的频率,即GMM Token配比分量fm;
其中:Nm为高斯分量标号m在GMM Token序列T中出现的次数,fm为高斯分量标号m在GMM Token序列T中出现的频率,m为自然数且1≤m≤M;
最后,根据GMM Token配比分量fm,构建特定语音特征在通用背景模型UBM上的GMMToken配比向量GTR如下:
GTR=[f1,f2,...,fM]T
对于N个目标说话人的训练语音特征,则依据上述流程计算出对应的GMM Token配比向量GTRt1,GTRt2,…,GTRtN;对于任一测试语音特征Xe,则依据上述流程计算出对应的GMMToken配比向量GTRe。
所述的Token元素ti表示为最有可能生成对应帧特征向量xi的高斯分量标号,其表达式如下:
其中:ωm为通用背景模型UBM中第m个高斯分量对应的权重,pm(xi)为特征向量xi在通用背景模型UBM中第m个高斯分量上的似然得分,即特征向量xi由通用背景模型UBM中第m个高斯分量生成的概率。
所述的步骤(4)中根据相似度通过以下关系式对所有似然得分进行加权校正:
其中:对于任一目标说话人tgi,GTRSetgi为测试语音特征与该目标说话人训练语音特征关于GMM Token配比向量GTR之间的相似度,Scoretgi为测试语音特征在该目标说话人对应的说话人模型GMM上的似然得分,ThresholdGTRS为设定的相似度阈值,Scorertgi为校正后的似然得分,c为设定的惩罚因子。
所述的相似度采用测试语音特征的GMM Token配比向量GTR与目标说话人训练语音特征的GMM Token配比向量GTR之间的夹角余弦值,或采用测试语音特征的GMM Token配比向量GTR与目标说话人训练语音特征的GMM Token配比向量GTR之间的欧式距离。
当所述的相似度采用测试语音特征的GMM Token配比向量GTR与目标说话人训练语音特征的GMM Token配比向量GTR之间的夹角余弦值时,则惩罚因子c即采用该夹角余弦值。
所述的步骤(4)中使校正后的最高似然得分与预设的得分阈值进行比较,若校正后的最高似然得分小于等于该得分阈值,则表明测试语音的真正说话人不属于任一目标说话人;若校正后的最高似然得分大于该得分阈值,则确定该最高似然得分所对应的目标说话人为测试语音的真正说话人。
本发明方法通过计算测试语音和特定说话人训练语音在UBM上的GMM Token配比相似度,利用相似度对所有特定说话人模型上的似然得分进行加权校正,使得校正后的似然得分更具可比性;即在输出得分之前,对得分的可靠性进行评估,对那些不可靠的得分进行惩罚,从而降低部分冒认者的得分,提高系统识别性能。
附图说明
图1为本发明方法的执行流程示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本实施方式中的实验数据采用的是中文情感语音数据库(MASC@CCNT),该数据库是在安静的环境下采用奥林巴斯DM-20录音笔录制的,该数据库由68个母语为汉语的68个说话人组成,其中男性说话人45人,女性说话人23人。本实施方式所提供的识别方法中,可以有多种选择,本实施例中为了便于描述以及提供具体的测试结果,选取了5种情感状态,分别是中性、生气、高兴、愤怒和悲伤,即每个说话人共有5种情感状态下的语音。每个说话人在中性情感下朗读2段段落(约30s录音长度)并朗读5个单词和20句语句各3遍,在其余每种情感状态下各朗读5个单词和20句语句各3遍,针对每个说话人,在中性以及其他情感状态下朗读的单词和语句都相同;针对所有说话人,朗读的单词和语句都相同。
如图1所示,本实施方式的步骤如下:
(1)利用一定量的不同说话人的语音训练得到一个与目标说话人无关的通用背景模型UBM。
在训练过程中,任意选取若干个说话人的语音作为开发库,通常情况下,选取的说话人个数不少于10个,例如选取前18个说话人的语音作为开发库,该开发库中记录前18个说话人在中性情感状态下的所有语音,训练得到UBM模型(即现有技术中的高斯混合背景模型)。
在测试过程中,除去开发库中的18个说话人,将其余50个目标说话人组成评测集,在评测集中,每个目标说话人的中性GMM模型利用开发库中训练得到的UBM模型,利用各自的训练语音通过自适应均值得到。
该步骤中的UBM训练过程如下:
1-1、对开发库中不同的说话人在中性情感状态下的语音信号进行预处理,预处理的步骤包括采样量化,去零漂,预加重(加重信号的高频部分)和加窗(将一段语音信号分为若干段),并对每段语音信号提取短时语音特征,可以是梅尔倒谱系数(MFCC)或线性预测编码倒谱系数(LPCC)或感觉加权的线性预测系数(PLP),本实验选用13维梅尔倒谱系数(MFCC)。
1-2、将所有开发库说话人的短时语音特征MFCC通过EM算法训练出通用背景模型UBM,是混合阶数M的高斯混合模型GMM,以表示。
一般性的,对任一M阶高斯混合模型GMM,以λ=(ωm,μm,Σm),表示。由模型λ生成语音特征序列X={x1,…,xn}的似然得分计算如下:
其中:ωm表示第m个高斯分量的权重;pm(xi)表示第m个高斯分布函数;μm表示第m个高斯分量的均值;Σm表示第m个高斯分量的方差;xi表示第i帧短时语音特征;n为语音特征序列长度;M为混合阶数,表示高斯分量的个数,可以依据需要调整,本实施方式中的实验中取64。D为语音特征向量维数,本实施方式中的实验中取13。
(2)针对每个目标说话人,利用其训练语音(在中性情感下朗读2个段落(约30s录音长度))在步骤(1)中训练得到的UBM上自适应生成目标说话人模型,同时计算训练语音在UBM上的GMMtoken配比向量。
2-1、该步骤中,首先按照步骤(1)中的方法提取训练语音的短时语音特征,然后利用MAP算法在步骤(1)中训练得到的UBM上自适应均值得到目标说话人模型。本实施例中,对于50个目标说话人模型,以λt19,…,λt68表示。
2-2、该步骤中,GMMtoken配比向量计算方法如下:
将每个目标说话人的训练语音转换为相应的GMMToken序列,每一帧特征帧都对应一个Token,而每一个Token代表GMM中使得该特征帧获得最高后验概率的高斯分量的标号值。即对于一帧特征向量xi,它的GMMtokenti如下式所示:
其中:λ表示高斯混合模型,其阶数为M;λm表示该高斯混合模型的第m个高斯分量;ωm为第m个高斯分量在模型中的权重;pm(xi)为特征向量在模型的第m个高斯分量上的似然得分,通过公式(2)计算得到。
通过以上方式,一段语音的特征帧序列X={x1,x2,...,xn}经过计算便可得到其GMM Token序列T={t1,t2,...,tn},其中ti∈{1,2,...,M},M为GMM模型阶数,本实施例中取值为64。我们通过统计GMM Token序列中每个token出现的频率,得到GMMtoken配比因子(GTR)。对于一段语音的GMMtoken序列T={t1,t2,...,tn}而言,tokeni的频率fi通过下式计算得到:
其中:Ni为GMM Token序列中,Tokeni出现的次数,n为语音的总帧数,即GMM Token序列的长度。通过上式我们便能够得到一段语音的GMM Token配比向量GTR如下:
GTR=[f1,f2,...,fM]T
其中:Token配比向量GTR中第i维即表示这段语音特征帧序列中,最高后验概率得分为第i个高斯分量的特征帧占总帧数的比例。
本实施例中,对于50个目标说话人训练语音特征,则可依据上述流程计算出对应的GMM Token配比向量GTRt19,…,GTRt68。
(3)采集测试语音,并提取测试语音特征,将语音特征序列在步骤(2)和(1)中得到的目标说话人模型上,按照公式(1)计算其在每一个目标说话人模型上的似然得分Scoret19,…,Scoret68,同时计算该测试语音特征在步骤(1)中得到的UBM上的GMMtoken配比向量GTRe。
从图1中可以看到,步骤(1)和步骤(2)为训练阶段,而该步骤为测试阶段,在测试阶段中,计算似然得分的同时需要计算测试语句在UBM上的GMM token配比向量。
(4)计算测试语音和目标说话人自适应语音在UBM上的GMM token配比的相似度值,利用该相似度值对步骤(3)中计算的对应的得分进行加权,将加权后的得分作为测试语音在目标说话人模型上的校正得分。
在该步骤中,本实施方式首先计算测试语句和步骤(3)中的目标说话人训练语句的GMM token配比向量之间的相似度,然后根据二者相似度值的大小来对步骤(3)中计算得到的似然得分进行校正加权。
该步骤中,GMM token配比向量的相似度可以利用多种方法计算,如向量的欧式距离和向量的夹角余弦,以向量的夹角余弦为例,GMM token配比向量的相似度值GTRS计算如下式所示:
其中:GTRi和GTRj为两个GMM token配比向量。
该步骤中,对似然得分校正加权方法,公式表示如下式所示:
其中,scorertgi为步骤(3)中计算得到的似然得分,GTReti为测试语音与目标说话人训练语音在UBM上的GMM token配比向量的相似度值。c为当相似度值小于阈值时,对似然得分的惩罚因子,其中c∈(0,1)。上式表明,当测试语音和目标模型自适应语句的GMMtoken配比向量相似度很大时,说明该得分可靠性低,因此将得分乘以一个惩罚因子,当相似度较小时,则得分可靠性较高,因此对得分不做惩罚处理。
该步骤中,惩罚因子是一个大于0小于1的值,以向量夹角余弦值作为相似度值为例,由于向量之间的夹角余弦值本身是大于等于0,小于等于1的,因此本实施方式中在利用夹角余弦值作为GMM token相似度值时,惩罚因子c即采用测试语音和自适应语音的GMMtoken向量之间的夹角余弦值,即当测试语音和自适应语音的GMM token配比向量之间的夹角余弦值小于阈值时,将得分乘以该夹角余弦值。
该步骤中,阈值采用经验值,本实施方式中采用向量夹角余弦为相似度衡量方法时,采用0.2作为阈值。
(5)将所有得分进行比较,得分最高的GMM模型所对应的说话人即为待识别说话人。
对于一个包含N个目标说话人模型的系统而言,测试语音将分别在这N个目标说话人模型上计算校正得分,选择最大校正得分对应的目标说话人模型序号,作为最终的识别结果,如下式所示:
式中,id为校正得分最大的值所对应的说话人模型的序号。
例如,某一段待识别语音在第20个说话人模型中得到的Sk最大,则识别结果为待识别语音是由第20个说话人发出的。
以下我们对评测集中五种情感语音下的所有语句进行测试,测试语音共计15000句(50个评测人×5种情感单词×60个语句(20个语句,每个语句重复3遍))。实验结果和基准的GMM-UBM实验等错误率EER结果比较如表1所示:
表1
测试语音情感 | GMM-UBM | 配比相似度得分校正 |
愤怒 | 25.83% | 25.20% |
高兴 | 22.67% | 22.07% |
中性 | 4.87% | 4.83% |
惊慌 | 24.47% | 23.6% |
悲伤 | 13.30% | 13.13% |
从表1中可以看出,本发明能够在一定程度上提高系统识别性能,其中在惊慌情绪下的EER提升了0.87个百分点。
Claims (9)
1.一种基于GMM Token配比相似度校正得分的说话人识别方法,包括如下步骤:
(1)利用一定数量的非目标说话人的语音特征训练生成一个与目标说话人无关的通用背景模型UBM;
(2)针对任一个目标说话人,利用其训练语音特征在通用背景模型UBM上自适应生成对应的说话人模型GMM,并计算其训练语音特征在通用背景模型UBM上的GMM Token配比向量GTR;依此遍历所有目标说话人;
(3)接收测试语音,计算测试语音特征在每一目标说话人对应的说话人模型GMM上的似然得分以及在通用背景模型UBM上的GMM Token配比向量GTR;
(4)计算测试语音特征与每一目标说话人训练语音特征关于GMM Token配比向量GTR之间的相似度,根据相似度对所有似然得分进行加权校正;对校正后的最高似然得分进行阈值过滤后,识别确定该最高似然得分所对应的目标说话人即为测试语音的真正说话人。
2.根据权利要求1所述的说话人识别方法,其特征在于:所述的步骤(1)中采用EM算法训练生成通用背景模型UBM,其为混合阶数为M的高斯混合模型,并以λUBM表示,M为大于1的自然数。
3.根据权利要求1所述的说话人识别方法,其特征在于:所述的步骤(2)中,针对任一个目标说话人,提取其训练语音中的短时语音特征,根据该语音特征利用MAP算法在通用背景模型UBM上自适应均值生成对应的说话人模型GMM,其为混合阶数为M的高斯混合模型;对于N个目标说话人对应的说话人模型GMM以λt1,λt2,…,λtN表示,M和N均为大于1的自然数。
4.根据权利要求1所述的说话人识别方法,其特征在于:所述的步骤(2)和步骤(3)中,计算特定语音特征在通用背景模型UBM上的GMM Token配比向量GTR的具体过程如下;特定语音为训练语音或测试语音,特定语音特征以X={x1,x2,...,xn}表示,xi为特定语音的第i帧特征向量;
首先,将特定语音特征转换成一个GMM Token序列T如下:
T={t1,t2,...,tn} ti∈{1,2,...,M}
其中:ti为GMM Token序列T中第i个Token元素,其取值为通用背景模型UBM中的一高斯分量标号,M为通用背景模型UBM的混合阶数,i为自然数且1≤i≤n,n为特定语音的总特征帧数;
然后,根据以下公式统计通用背景模型UBM中每一个高斯分量标号在GMM Token序列T中出现的频率,即GMM Token配比分量fm;
其中:Nm为高斯分量标号m在GMM Token序列T中出现的次数,fm为高斯分量标号m在GMMToken序列T中出现的频率,m为自然数且1≤m≤M;
最后,根据GMM Token配比分量fm,构建特定语音特征在通用背景模型UBM上的GMMToken配比向量GTR如下:
GTR=[f1,f2,...,fM]T
对于N个目标说话人的训练语音特征,则依据上述流程计算出对应的GMM Token配比向量GTRt1,GTRt2,…,GTRtN,N为大于1的自然数;对于任一测试语音特征Xe,则依据上述流程计算出对应的GMM Token配比向量GTRe。
5.根据权利要求4所述的说话人识别方法,其特征在于:所述的Token元素ti表示为最有可能生成对应帧特征向量xi的高斯分量标号,其表达式如下:
其中:ωm为通用背景模型UBM中第m个高斯分量对应的权重,pm(xi)为特征向量xi在通用背景模型UBM中第m个高斯分量上的似然得分,即特征向量xi由通用背景模型UBM中第m个高斯分量生成的概率。
6.根据权利要求1所述的说话人识别方法,其特征在于:所述的步骤(4)中根据相似度通过以下关系式对所有似然得分进行加权校正:
其中:对于任一目标说话人tgi,GTRSetgi为测试语音特征与该目标说话人训练语音特征关于GMM Token配比向量GTR之间的相似度,Scoretgi为测试语音特征在该目标说话人对应的说话人模型GMM上的似然得分,ThresholdGTRS为设定的相似度阈值,Scorertgi为校正后的似然得分,c为设定的惩罚因子,N为大于1的自然数。
7.根据权利要求1或6所述的说话人识别方法,其特征在于:所述的相似度采用测试语音特征的GMM Token配比向量GTR与目标说话人训练语音特征的GMM Token配比向量GTR之间的夹角余弦值,或采用测试语音特征的GMM Token配比向量GTR与目标说话人训练语音特征的GMM Token配比向量GTR之间的欧式距离。
8.根据权利要求7所述的说话人识别方法,其特征在于:当所述的相似度采用测试语音特征的GMM Token配比向量GTR与目标说话人训练语音特征的GMM Token配比向量GTR之间的夹角余弦值时,则惩罚因子c即采用该夹角余弦值。
9.根据权利要求1所述的说话人识别方法,其特征在于:所述的步骤(4)中使校正后的最高似然得分与预设的得分阈值进行比较,若校正后的最高似然得分小于等于该得分阈值,则表明测试语音的真正说话人不属于任一目标说话人;若校正后的最高似然得分大于该得分阈值,则确定该最高似然得分所对应的目标说话人为测试语音的真正说话人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410464562.1A CN104240706B (zh) | 2014-09-12 | 2014-09-12 | 一种基于GMM Token配比相似度校正得分的说话人识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410464562.1A CN104240706B (zh) | 2014-09-12 | 2014-09-12 | 一种基于GMM Token配比相似度校正得分的说话人识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104240706A CN104240706A (zh) | 2014-12-24 |
CN104240706B true CN104240706B (zh) | 2017-08-15 |
Family
ID=52228663
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410464562.1A Active CN104240706B (zh) | 2014-09-12 | 2014-09-12 | 一种基于GMM Token配比相似度校正得分的说话人识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104240706B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105679323B (zh) * | 2015-12-24 | 2019-09-03 | 讯飞智元信息科技有限公司 | 一种号码发现方法及系统 |
CN105810198A (zh) * | 2016-03-23 | 2016-07-27 | 广州势必可赢网络科技有限公司 | 基于特征域补偿的信道鲁棒的说话人辨识方法和装置 |
CN107680600B (zh) * | 2017-09-11 | 2019-03-19 | 平安科技(深圳)有限公司 | 声纹模型训练方法、语音识别方法、装置、设备及介质 |
CN110322895B (zh) * | 2018-03-27 | 2021-07-09 | 亿度慧达教育科技(北京)有限公司 | 语音评测方法及计算机存储介质 |
CN109065022B (zh) * | 2018-06-06 | 2022-08-09 | 平安科技(深圳)有限公司 | i-vector向量提取方法、说话人识别方法、装置、设备及介质 |
CN109243461B (zh) * | 2018-09-21 | 2020-04-14 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备及存储介质 |
CN109800299B (zh) * | 2019-02-01 | 2021-03-09 | 浙江核新同花顺网络信息股份有限公司 | 一种说话人聚类方法及相关装置 |
CN113192493B (zh) * | 2020-04-29 | 2022-06-14 | 浙江大学 | 一种结合GMM Token配比与聚类的核心训练语音选择方法 |
CN113257236B (zh) * | 2020-04-30 | 2022-03-29 | 浙江大学 | 一种基于核心帧筛选的模型得分优化方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833951A (zh) * | 2010-03-04 | 2010-09-15 | 清华大学 | 用于说话人识别的多背景模型建立方法 |
CN102394062A (zh) * | 2011-10-26 | 2012-03-28 | 华南理工大学 | 一种自动录音设备源识别的方法和系统 |
CN102664011A (zh) * | 2012-05-17 | 2012-09-12 | 吉林大学 | 一种快速说话人识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9633652B2 (en) * | 2012-11-30 | 2017-04-25 | Stmicroelectronics Asia Pacific Pte Ltd. | Methods, systems, and circuits for speaker dependent voice recognition with a single lexicon |
-
2014
- 2014-09-12 CN CN201410464562.1A patent/CN104240706B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833951A (zh) * | 2010-03-04 | 2010-09-15 | 清华大学 | 用于说话人识别的多背景模型建立方法 |
CN102394062A (zh) * | 2011-10-26 | 2012-03-28 | 华南理工大学 | 一种自动录音设备源识别的方法和系统 |
CN102664011A (zh) * | 2012-05-17 | 2012-09-12 | 吉林大学 | 一种快速说话人识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104240706A (zh) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104240706B (zh) | 一种基于GMM Token配比相似度校正得分的说话人识别方法 | |
Saito et al. | Non-parallel voice conversion using variational autoencoders conditioned by phonetic posteriorgrams and d-vectors | |
CN107221318B (zh) | 英语口语发音评分方法和系统 | |
CN102332263B (zh) | 一种基于近邻原则合成情感模型的说话人识别方法 | |
Thiolliere et al. | A hybrid dynamic time warping-deep neural network architecture for unsupervised acoustic modeling. | |
CN105741832B (zh) | 一种基于深度学习的口语评测方法和系统 | |
CN101645271B (zh) | 发音质量评估系统中的置信度快速求取方法 | |
CN107492382A (zh) | 基于神经网络的声纹信息提取方法及装置 | |
An et al. | Automatic recognition of unified parkinson's disease rating from speech with acoustic, i-vector and phonotactic features. | |
CN101887725A (zh) | 一种基于音素混淆网络的音素后验概率计算方法 | |
CN105280181B (zh) | 一种语种识别模型的训练方法及语种识别方法 | |
Lazaridis et al. | Swiss French Regional Accent Identification. | |
CN101887722A (zh) | 快速声纹认证方法 | |
Franco et al. | Adaptive and discriminative modeling for improved mispronunciation detection | |
CN106297769B (zh) | 一种应用于语种识别的鉴别性特征提取方法 | |
CN104575495A (zh) | 一种采用总变化量因子的语种识别方法及系统 | |
CN104464738B (zh) | 一种面向智能移动设备的声纹识别方法 | |
Mackova et al. | A study of acoustic features for emotional speaker recognition in I-vector representation | |
Chiou et al. | Speech emotion recognition with cross-lingual databases. | |
CN104376850B (zh) | 一种汉语耳语音的基频估计方法 | |
CN105976819A (zh) | 基于Rnorm得分归一化的说话人确认方法 | |
CN110223674A (zh) | 语音语料训练方法、装置、计算机设备和存储介质 | |
CN104240699B (zh) | 一种简单有效的短语语音识别方法 | |
Huang et al. | English mispronunciation detection based on improved GOP methods for Chinese students | |
Kinnunen | Optimizing spectral feature based text-independent speaker recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |