CN105895104A - 说话人自适应识别方法及系统 - Google Patents
说话人自适应识别方法及系统 Download PDFInfo
- Publication number
- CN105895104A CN105895104A CN201410184608.4A CN201410184608A CN105895104A CN 105895104 A CN105895104 A CN 105895104A CN 201410184608 A CN201410184608 A CN 201410184608A CN 105895104 A CN105895104 A CN 105895104A
- Authority
- CN
- China
- Prior art keywords
- speaker
- coding vector
- unrelated
- training
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种说话人自适应识别方法及系统,该方法包括:训练说话人无关DNN模型;基于所述说话人无关DNN模型确定说话人相关网络拓扑;获取训练数据;利用所述训练数据进行说话人相关网络参数训练,得到说话人相关网络;在接收到说话人语音数据后,利用所述说话人相关网络对所述说话人语音数据进行解码,得到解码结果。利用本发明,可以获得更为精确的识别效果。
Description
技术领域
本发明涉及语音信号处理领域,尤其涉及一种说话人自适应识别方法及系统。
背景技术
语音识别即让机器听懂人说的话,将语音信号转化为计算机可识别的输入。传统自动连续语音识别系统主要采用基于隐马尔科夫模型(HiddenMarkov Model,HMM)和高斯混合模型(Gaussian Mixture Model,GMM)的GMM-HMM语音识别系统。GMM-HMM语音识别系统使用HMM对语音信号的时序结构进行建模,每个HMM状态的输出概率采用混合高斯模型模拟。由于不同的说话人有各自的特点,而通用的GMM-HMM模型不能很好地适应某个特定的说话人,为此有研究人员提出说话人自适应方法,传统GMM-HMM模型框架下的说话人自适应技术已经相对成熟,最典型的是使用最大似然线性回归进行参数变换的方法(MLLR,MaximumLikelihood Linear Regression)和最大后验概率的方法(MAP,Maximum APosteriori),这两种方法都较好地解决了GMM-HMM模型的说话人自适应问题,通过这两种方法得到的说话人相关模型的识别效果比说话人无关模型均有较大幅度的改善。
近年来,基于深度神经网络(Deep Neural Networks,DNN)和隐马尔科夫模型DNN-HMM的语音识别系统受到研究人员越来越多的关注,DNN-HMM系统采用DNN替代GMM模拟每个HMM状态的输出概率。相比于GMM模型,DNN模型的描述能力更强,能够更好地模拟非常复杂的数据分布,并且能够很好地学习到数据上下文的信息,因此相对于GMM-HMM系统,DNN-HMM系统能够取得显著的性能提升。
但是,目前如何在DNN的框架下进行说话人自适应仍没有成熟的方案,因此,基于DNN框架下的说话人自适应将是一个热门的研究课题。
发明内容
本发明实施例提供一种说话人自适应识别方法及系统,可以在自适应数据量较小的情况下,也能得到较好的识别效果,提高语音识别系统性能。
为实现上述目的,本发明的技术方案是:
一种说话人自适应识别方法,包括:
训练说话人无关DNN模型;
基于所述说话人无关DNN模型确定说话人相关网络拓扑;
获取训练数据;
利用所述训练数据进行说话人相关网络参数训练,得到说话人相关网络;
在接收到说话人语音数据后,利用所述说话人相关网络对所述说话人语音数据进行解码,得到解码结果。
优选地,所述基于所述说话人无关DNN模型确定说话人相关网络拓扑包括:
将说话人编码向量与所述说话人无关DNN模型的各隐层及输出层相连接,形成说话人相关网络拓扑;或者
将说话人编码向量与所述说话人无关DNN模型的任意一个或多个隐层相连接,形成说话人相关网络拓扑。
优选地,所述利用所述训练数据进行说话人相关网络参数训练包括:
初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量;
在所有训练数据上使用梯度下降方法更新所述说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重,并在与所述说话人相关的训练数据上更新所述说话人编码向量。
优选地,所述初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量包括:
采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量。
优选地,所述初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量包括:
采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重;
采用因子分析方法得到代表特定说话人编码的向量;
将所述代表特定说话人编码的向量作为初始的说话人编码向量。
优选地,所述利用所述说话人相关网络对所述说话人语音数据进行解码包括:
自适应过程:利用所述说话人相关网络获得对应所述说话人的说话人编码向量;
解码过程:利用获得的说话人编码向量逐层计算所述说话人相关网络各层的网络参数,得到每个状态的声学后验概率。
优选地,所述方法还包括:
根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在所述训练过程和自适应过程中所有说话人编码向量的维数保持不变;或者
在所述训练过程中根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在自适应过程中通过将说话人编码向量与说话人无关DNN模型相连的一个或多个隐层的权重置零降低说话人编码向量的维数。
一种说话人自适应识别系统,所述系统包括:
DNN模型训练模块,用于训练说话人无关DNN模型;
网络拓扑确定模块,用于基于所述说话人无关DNN模型确定说话人相关网络拓扑;
训练数据获取模块,用于获取训练数据;
网络参数训练模块,用于利用所述训练数据进行说话人相关网络参数训练,得到说话人相关网络;
接收模块,用于接收说话人语音数据;
解码模块,用于在所述接收模块接收到说话人语音数据后,利用所述说话人相关网络对所述说话人语音数据进行解码,得到解码结果。
优选地,所述网络拓扑确定模块,具体用于将说话人编码向量与所述说话人无关DNN模型的各隐层及输出层相连接,形成说话人相关网络拓扑;或者将说话人编码向量与所述说话人无关DNN模型的任意一个或多个隐层相连接,形成说话人相关网络拓扑。
优选地,所述网络参数训练模块包括:
初始化单元,用于初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量;
参数更新单元,用于在所有训练数据上使用梯度下降方法更新所述说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重,并在与所述说话人相关的训练数据上更新所述说话人编码向量。
优选地,所述初始化单元,具体用于采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量。
优选地,所述初始化单元包括:
第一单元,用于采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重;
第二单元,用于采用因子分析方法得到代表特定说话人编码的向量,并将所述代表特定说话人编码的向量作为初始的说话人编码向量。
优选地,所述解码模块包括:
自适应单元,用于利用所述说话人相关网络获得对应所述说话人的说话人编码向量;
解码单元,用于利用所述自适应单元获得的说话人编码向量逐层计算所述说话人相关网络各层的网络参数,得到每个状态的声学后验概率。
优选地,所述系统还包括:
第一维数确定模块,用于根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在训练过程和自适应过程中所有说话人编码向量的维数保持不变;或者
第二维数确定模块,用于在训练过程中根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在自适应过程中通过将说话人编码向量与说话人无关DNN模型相连的一个或多个隐层的权重置零降低说话人编码向量的维数。
本发明实施例提供的说话人自适应识别方法及系统,基于现有的说话人无关DNN模型,通过对每个说话人分别采用单个向量来模拟,并通过训练各向量和说话人无关模型网络的连接权重来构建说话人相关DNN模型,利用该说话人相关DNN模型对特定说话人进行语音识别,可以获得更为精确的识别效果。
附图说明
为了更清楚地说明本发明实施的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本发明实施例说话人自适应识别方法的流程图;
图2示出了本发明实施例中说话人相关网络拓扑第一种结构示意图;
图3示出了本发明实施例中说话人相关网络拓扑第二种结构示意图;
图4示出了本发明实施例中说话人相关网络拓扑第三种结构示意图;
图5示出了本发明实施例说话人自适应识别系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
由于基于DNN-HMM的语音识别系统相比于传统的基于GMM-HMM的语音识别系统能够取得显著的性能提升,因此本发明实施例提供一种说话人自适应识别方法及系统,基于现有的说话人无关DNN模型,通过对每个说话人分别采用单个向量来模拟,并通过训练各向量和说话人无关DNN模型的连接权重来构建说话人相关DNN模型,利用该说话人相关DNN模型对特定说话人进行语音识别,可以获得更为精确的识别效果。
如图1所示,是本发明实施例说话人自适应识别方法的流程图,包括以下步骤:
步骤101,训练说话人无关DNN模型。
说话人无关DNN网络的训练过程可以采用现有技术,比如,传统DNN网络的训练过程如下:
(1)确定DNN模型的拓扑结构
具体地,DNN的输入层和输出层分别对应于声学特征和HMM模型的输出状态,其节点个数可在训练前预先确定。其中输入层的节点个数由输入特征维数决定,一般为几百左右(考虑帧扩展),输出层的节点个数一般由和分类目标相关联的HMM状态数决定,为了尽可能保证语音识别效果,深度神经网络输出层的节点个数一般很多,可以达到5000-20000。而隐含层位于输入层和输出层之间,加入隐含层的目的是为了提高神经网络模拟变换函数的能力,深度神经网络包含多个隐含层。隐含层层数及隐含层节点个数的增加可以提高神经网络的分类性能,目前主流的DNN-HMM语音识别系统通常选用固定结构的DNN模型,即由系统预先确定DNN的隐含层层数及各隐含层的节点个数。虽然不同系统经验值会有不同,但大多数情况下为了提高模型对声学特征模拟的精度,会设置DNN的隐含层层数为4到9之间,每个隐含层的节点个数通常都相同,为1024、2048或者2560。
(2)DNN模型参数训练
具体地,在DNN模型中,待训练的模型参数主要包括连接输入层和隐含层、连接各隐含层之间、连接隐含层和输出层的线性变换的权重参数(即W矩阵,这里将偏置参数也合并到W矩阵中),在训练时,利用采集的训练数据训练所述DNN模型的权重参数,整个训练过程分为两个步骤:
a)无监督预训练
首先随机生成符合高斯分布的随机数作为DNN的初始权重,然后仅仅利用训练数据的声学特征从输入层往输出层按照受限玻尔兹曼机的训练方法逐层进行权重的训练。具体地,当输入层与第一个隐含层之间的权重首先训练完成后,利用声学特征和该权重得到第一个隐含层的输出值,将其视为受限玻尔兹曼机的输入训练第一个隐含层与第二个隐含层之间的权重,如此重复下去,直到倒数第二个隐含层与最后一个隐含层之间的权重已经训练完成。
b)有监督最终训练
将无监督预训练得到的权重作为DNN的初始权重,利用训练数据的声学特征以及对应的标注,采用误差反向传播算法进行所有权重的最终优化调整。具体地,首先根据当前权重值计算出当前神经网络的输出与真实结果——标注之间的误差值E,然后计算出误差值E对各层权重的梯度最后根据梯度下降法进行各层权重的更新,即其中表示第i层的当前权重,表示第i层更新后的权重。
当然,在实际应用中,还有采用一些优化的DNN模型参数训练方法,可以进一步提高训练效率,对此本发明实施例不做限定。
步骤102,基于所述说话人无关DNN模型确定说话人相关网络拓扑。
在本发明实施例中,可以将说话人编码向量与所述说话人无关DNN模型的各隐层及输出层相连接,形成说话人相关网络拓扑;或者将说话人编码向量与所述说话人无关DNN模型的任意一个或多个隐层相连接,形成说话人相关网络拓扑。
如图2所示,是本发明实施例中说话人相关网络拓扑第一种结构示意图。
其中,W矩阵为说话人无关DNN模型的权重矩阵;S为说话人编码向量,用于代表不同的说话人;B矩阵为说话人编码向量与说话人无关DNN模型的隐层和输出层相连的权重矩阵,是所有说话人共享矩阵。
为了进一步提高训练与自适应效率,降低B矩阵的参数量,还可以将说话人编码向量与DNN模型中的一个或多个隐层相连,比如,图3示出了只将说话人编码向量与第一个隐层相连的说话人相关网络拓扑结构,图4示出了只将说话人编码向量与最后一个隐层相连的说话人相关网络拓扑结构。
步骤103,获取说话人相关的训练数据。
步骤104,利用所述训练数据进行说话人相关网络参数训练,得到说话人相关网络。
下面以图2所示的网络拓扑为例,详细说明说话人相关网络参数训练的过程。
如图2所示,假设W(l)代表说话人无关DNN模型的第l个隐层的权重,B(l)代表连接说话人编码向量与第l个隐层的权重,S(c)代表第c个说话人的编码向量,O(l)代表第l层网络的输出,σ为DNN网络的激活函数,则第l层的输出如下式:
O(l)=σ(W(l)O(l-1)+B(l)S(c)) (1)
由于W矩阵即为说话人无关DNN模型中的参数,在整个自适应的过程中不需要更新,接下来介绍如何估计B矩阵及S向量即可。
在本发明实施例中,可以使用交叉熵准则,假设E代表交叉熵准则的目标函数,则B矩阵与S向量的梯度分别如下式所示:
其中,代表第l层网络输出的第j维,代表第c个说话人的编码向量的第k维,代表连接说话人编码向量与第l个隐层的权重矩阵的第k维第j列。
在网络参数训练时,对于某个特定的说话人,需要更新说话人相关的说话人编码向量与说话人共享的B矩阵。由于B矩阵具有大量的参数,但所有说话人的数据都参与训练,所以可以在一定程度上避免数据过拟合的问题。基于说话人编码向量的训练过程如下:
首先,随机初始化所有的B(l)和S(c);然后,在所有的训练数据上使用梯度下降的方法(如公式(2)和公式(3))更新B(l),而S(c)的更新只在第c个说话人的数据上进行,迭代步数根据具体的收敛情况确定。
自适应过程如下:在训练过程得到B(l)矩阵后,针对某个说话人,使用公式(3)求得对应该说话人的说话人编码向量,而W(l)与B(l)均保持不变。
需要说明的是,基于图3和图4所示的说话人相关网络拓扑,其网络参数的训练过程与上述类似,不同的是,基于图3所示的说话人相关网络拓扑,由于说话人编码向量只与第一个隐层相连,因此可以极大地减少网络参数量,从而在一定程度上提高训练效率。同时,参数量的减少也使得更少数据量的自适应变为可能,但其梯度的计算需要从第一个隐层传递到输出层。而基于图4所示的说话人相关网络拓扑,由于说话人编码向量只与最后一个隐层相连,因此其梯度的计算速度更快,从而可进一步提高训练效率。
另外,需要说明的是,在本发明实施例中,不论采用上述哪种说话人相关网络模型,对于说话人编码向量S,可以有多种不同的选择方式。
比如,采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量。
再比如,采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重;采用因子分析方法得到代表特定说话人编码的向量,然后将所述代表特定说话人编码的向量作为初始的说话人编码向量。代表特定说话人编码的向量的计算如下:
首先,训练一个UBM模型;其次,训练公共因子T,根据这个公共因子得到每个人的i-Vector;最后,对i-Vector进行降维,进而得到最终的向量。这种使用降维后的i-Vector作为S(c)的初始值可以更快地收敛速度,且最终的自适应效果也更优。
步骤105,在接收到说话人语音数据后,利用所述说话人相关网络对所述说话人语音数据进行解码,得到解码结果。
具体解码过程包括两个过程,具体如下:
(1)自适应过程:
在训练过程得到B(l)矩阵后,针对某个特定的说话人,使用公式(3)求得对应该说话人的说话人编码向量,而W(l)与B(l)均保持不变。
(2)解码过程:
通过公式(1)逐层计算所述说话人相关网络逐层计算网络参数,得到每个状态的声学后验概率,通过结合声学先验概率与语言模型概率,最终实现解码。
需要说明的是,在实际应用中,针对说话人编码向量S的维数,可以有多种选择方案。一般地,可根据训练数据的总量和所有说话人的平均训练数据量来选择向量S的维数,当向量S的维数确定后,训练过程和自适应过程中所有说话人均采用相同的维数。除此之外,还可以采用变长说话人向量的方案,具体地,在训练过程中,时仍根据训练数据的总量和所有说话人的平均训练数据量来选择向量S的维数;在自适应过程中,如果某些说话人的数据量较少,可将说话人共享的矩阵B的一些权重按一定的概率置零,仍采用梯度下降的方法确定说话人编码向量S,显然此时向量S的一些维数也为零。采用这种方式,实现了说话人向量长度的可变,从而进一步解决了某些说话人自适应数据较少的参数估计问题。
本发明实施例提供的说话人自适应识别方法,基于现有的说话人无关DNN模型,通过对每个说话人分别采用单个向量来模拟,并通过训练各向量和说话人无关模型网络的连接权重来构建说话人相关DNN模型,利用该说话人相关DNN模型对特定说话人进行语音识别,可以获得更为精确的识别效果。
相应地,本发明实施例还提供一种说话人自适应识别系统,如图5所示,是该系统的一种结构示意图。
在该实施例中,所述系统包括:
DNN模型训练模块501,用于训练说话人无关DNN模型;
网络拓扑确定模块502,用于基于所述说话人无关DNN模型确定说话人相关网络拓扑;
训练数据获取模块503,用于获取训练数据;
网络参数训练模块504,用于利用所述训练数据进行说话人相关网络参数训练,得到说话人相关网络;
接收模块505,用于接收说话人语音数据;
解码模块506,用于在所述接收模块接收到说话人语音数据后,利用所述说话人相关网络对所述说话人语音数据进行解码,得到解码结果。
上述DNN模型训练模块501可以采用现有的一些技术进行说话人无关DNN网络的训练。
基于所述说话人无关DNN模型,上述网络拓扑确定模块502可以将说话人编码向量与所述说话人无关DNN模型的各隐层及输出层相连接,形成说话人相关网络拓扑;或者将说话人编码向量与所述说话人无关DNN模型的任意一个或多个隐层相连接,形成说话人相关网络拓扑。不同的说话人相关网络拓扑结构在前面已有详细描述,在此不再赘述。
上述网络参数训练模块504包括:初始化单元和参数更新单元。其中,所述初始化单元用于初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量。所述参数更新单元用于在所有训练数据上使用梯度下降方法更新所述说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重,并在与所述说话人相关的训练数据上更新所述说话人编码向量。
在实际应用中,所述初始化单元可以采用多种方式设置相关网络参数的初始值,比如,可以采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量。再比如,还可以对不同参数采用不同的初始化方式,其中一种实现结构包括:第一单元和第二单元,其中,所述第一单元采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重;第二单元采用因子分析方法得到代表特定说话人编码的向量,并将所述代表特定说话人编码的向量作为初始的说话人编码向量。
由于本发明实施例中的解码网络为与说话人相关的DNN网络,因此,上述解码模块506在对特定说话人语音解码过程中需要先进行自适应处理,获得相应的说话人编码向量,然后再利用该说话人编码向量进行解码。相应地,所述解码模块506的一种具体结构包括:自适应单元和解码单元,其中,所述自适应单元利用所述说话人相关网络获得对应所述说话人的说话人编码向量,具体地,利用上述公式(3)完成相应的计算;所述解码单元利用自适应单元获得的说话人编码向量,逐层计算所述说话人相关网络各层的网络参数,得到每个状态的声学后验概率。
需要说明的是,在实际应用中,针对说话人编码向量S的维数,可以有多种选择方案。相应地,在本发明系统的另一实施例中,还可以进一步包括:第一维数确定模块,或者第二维数确定模块。其中:
第一维数确定模块用于根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在训练过程和自适应过程中所有说话人编码向量的维数保持不变;
第二维数确定模块,用于在训练过程中根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在自适应过程中通过将说话人编码向量与说话人无关DNN模型相连的一个或多个隐层的权重置零降低说话人编码向量的维数。
本发明实施例提供的说话人自适应识别系统,基于现有的说话人无关DNN模型,通过对每个说话人分别采用单个向量来模拟,并通过训练各向量和说话人无关模型网络的连接权重来构建说话人相关DNN模型,利用该说话人相关DNN模型对特定说话人进行语音识别,可以获得更为精确的识别效果。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元及模块可以是或者也可以不是物理上分开的。另外,还可以根据实际的需要选择其中的部分或者全部单元和模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上依据图式所示的实施例详细说明了本发明的构造、特征及作用效果,以上所述仅为本发明的较佳实施例,但本发明不以图面所示限定实施范围,凡是依照本发明的构想所作的改变,或修改为等同变化的等效实施例,仍未超出说明书与图示所涵盖的精神时,均应在本发明的保护范围内。
Claims (14)
1.一种说话人自适应识别方法,其特征在于,包括:
训练说话人无关DNN模型;
基于所述说话人无关DNN模型确定说话人相关网络拓扑;
获取训练数据;
利用所述训练数据进行说话人相关网络参数训练,得到说话人相关网络;
在接收到说话人语音数据后,利用所述说话人相关网络对所述说话人语音数据进行解码,得到解码结果。
2.根据权利要求1所述的方法,其特征在于,所述基于所述说话人无关DNN模型确定说话人相关网络拓扑包括:
将说话人编码向量与所述说话人无关DNN模型的各隐层及输出层相连接,形成说话人相关网络拓扑;或者
将说话人编码向量与所述说话人无关DNN模型的任意一个或多个隐层相连接,形成说话人相关网络拓扑。
3.根据权利要求2所述的方法,其特征在于,所述利用所述训练数据进行说话人相关网络参数训练包括:
初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量;
在所有训练数据上使用梯度下降方法更新所述说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重,并在与所述说话人相关的训练数据上更新所述说话人编码向量。
4.根据权利要求3所述的方法,其特征在于,所述初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量包括:
采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量。
5.根据权利要求3所述的方法,其特征在于,所述初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量包括:
采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重;
采用因子分析方法得到代表特定说话人编码的向量;
将所述代表特定说话人编码的向量作为初始的说话人编码向量。
6.根据权利要求3所述的方法,其特征在于,所述利用所述说话人相关网络对所述说话人语音数据进行解码包括:
自适应过程:利用所述说话人相关网络获得对应所述说话人的说话人编码向量;
解码过程:利用获得的说话人编码向量逐层计算所述说话人相关网络各层的网络参数,得到每个状态的声学后验概率。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在所述训练过程和自适应过程中所有说话人编码向量的维数保持不变;或者
在所述训练过程中根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在自适应过程中通过将说话人编码向量与说话人无关DNN模型相连的一个或多个隐层的权重置零降低说话人编码向量的维数。
8.一种说话人自适应识别系统,其特征在于,所述系统包括:
DNN模型训练模块,用于训练说话人无关DNN模型;
网络拓扑确定模块,用于基于所述说话人无关DNN模型确定说话人相关网络拓扑;
训练数据获取模块,用于获取训练数据;
网络参数训练模块,用于利用所述训练数据进行说话人相关网络参数训练,得到说话人相关网络;
接收模块,用于接收说话人语音数据;
解码模块,用于在所述接收模块接收到说话人语音数据后,利用所述说话人相关网络对所述说话人语音数据进行解码,得到解码结果。
9.根据权利要求8所述的系统,其特征在于,
所述网络拓扑确定模块,具体用于将说话人编码向量与所述说话人无关DNN模型的各隐层及输出层相连接,形成说话人相关网络拓扑;或者将说话人编码向量与所述说话人无关DNN模型的任意一个或多个隐层相连接,形成说话人相关网络拓扑。
10.根据权利要求9所述的系统,其特征在于,所述网络参数训练模块包括:
初始化单元,用于初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量;
参数更新单元,用于在所有训练数据上使用梯度下降方法更新所述说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重,并在与所述说话人相关的训练数据上更新所述说话人编码向量。
11.根据权利要求10所述的系统,其特征在于,
所述初始化单元,具体用于采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重、以及说话人编码向量。
12.根据权利要求10所述的系统,其特征在于,所述初始化单元包括:
第一单元,用于采用随机的方式初始化所有的说话人编码向量与说话人无关DNN模型相连的隐层和输出层的权重;
第二单元,用于采用因子分析方法得到代表特定说话人编码的向量,并将所述代表特定说话人编码的向量作为初始的说话人编码向量。
13.根据权利要求10所述的系统,其特征在于,所述解码模块包括:
自适应单元,用于利用所述说话人相关网络获得对应所述说话人的说话人编码向量;
解码单元,用于利用所述自适应单元获得的说话人编码向量逐层计算所述说话人相关网络各层的网络参数,得到每个状态的声学后验概率。
14.根据权利要求13所述的系统,其特征在于,所述系统还包括:
第一维数确定模块,用于根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在训练过程和自适应过程中所有说话人编码向量的维数保持不变;或者
第二维数确定模块,用于在训练过程中根据所述训练数据的总量和所有说话人的平均训练数据量确定说话人编码向量的维数,并且在自适应过程中通过将说话人编码向量与说话人无关DNN模型相连的一个或多个隐层的权重置零降低说话人编码向量的维数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410184608.4A CN105895104B (zh) | 2014-05-04 | 2014-05-04 | 说话人自适应识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410184608.4A CN105895104B (zh) | 2014-05-04 | 2014-05-04 | 说话人自适应识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105895104A true CN105895104A (zh) | 2016-08-24 |
CN105895104B CN105895104B (zh) | 2019-09-03 |
Family
ID=56999801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410184608.4A Active CN105895104B (zh) | 2014-05-04 | 2014-05-04 | 说话人自适应识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105895104B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108922515A (zh) * | 2018-05-31 | 2018-11-30 | 平安科技(深圳)有限公司 | 语音模型训练方法、语音识别方法、装置、设备及介质 |
CN109637526A (zh) * | 2019-01-08 | 2019-04-16 | 西安电子科技大学 | 基于个人身份特征的dnn声学模型的自适应方法 |
CN111462759A (zh) * | 2020-04-01 | 2020-07-28 | 科大讯飞股份有限公司 | 一种说话人标注方法、装置、设备及存储介质 |
WO2020156342A1 (zh) * | 2019-01-30 | 2020-08-06 | 北京猎户星空科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN112599121A (zh) * | 2020-12-03 | 2021-04-02 | 天津大学 | 基于辅助数据正则化的说话人自适应方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923853A (zh) * | 2009-06-12 | 2010-12-22 | 华为技术有限公司 | 说话人识别方法、设备和系统 |
CN101952884A (zh) * | 2008-02-27 | 2011-01-19 | 索尼爱立信移动通讯有限公司 | 响应于目标说话人话音识别对麦克风信号进行自适应滤波的电子设备和方法 |
CN102270450A (zh) * | 2010-06-07 | 2011-12-07 | 株式会社曙飞电子 | 多模型自适应和语音识别装置及其方法 |
CN103700370A (zh) * | 2013-12-04 | 2014-04-02 | 北京中科模识科技有限公司 | 一种广播电视语音识别系统方法及系统 |
CN103714812A (zh) * | 2013-12-23 | 2014-04-09 | 百度在线网络技术(北京)有限公司 | 一种语音识别方法及装置 |
-
2014
- 2014-05-04 CN CN201410184608.4A patent/CN105895104B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101952884A (zh) * | 2008-02-27 | 2011-01-19 | 索尼爱立信移动通讯有限公司 | 响应于目标说话人话音识别对麦克风信号进行自适应滤波的电子设备和方法 |
CN101923853A (zh) * | 2009-06-12 | 2010-12-22 | 华为技术有限公司 | 说话人识别方法、设备和系统 |
CN102270450A (zh) * | 2010-06-07 | 2011-12-07 | 株式会社曙飞电子 | 多模型自适应和语音识别装置及其方法 |
CN103700370A (zh) * | 2013-12-04 | 2014-04-02 | 北京中科模识科技有限公司 | 一种广播电视语音识别系统方法及系统 |
CN103714812A (zh) * | 2013-12-23 | 2014-04-09 | 百度在线网络技术(北京)有限公司 | 一种语音识别方法及装置 |
Non-Patent Citations (3)
Title |
---|
ABDEL-HAMID O,ET AL: "Fast speaker adaptation of hybrid NN/HMM model for speech recognition based on discriminative learning of speaker code", 《2013 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING》 * |
ABDEL-HAMID O,ET AL: "Rapid and effective speaker adaptation of convolutional neural network based models for speech recognition", 《INTERSPEECH》 * |
YU D,ET AL: "KL-divergence regularized deep neural network adaptation for improved large vocabulary speech recognition", 《2013 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108922515A (zh) * | 2018-05-31 | 2018-11-30 | 平安科技(深圳)有限公司 | 语音模型训练方法、语音识别方法、装置、设备及介质 |
CN109637526A (zh) * | 2019-01-08 | 2019-04-16 | 西安电子科技大学 | 基于个人身份特征的dnn声学模型的自适应方法 |
WO2020156342A1 (zh) * | 2019-01-30 | 2020-08-06 | 北京猎户星空科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN111508497A (zh) * | 2019-01-30 | 2020-08-07 | 北京猎户星空科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
TWI752406B (zh) * | 2019-01-30 | 2022-01-11 | 大陸商北京獵戶星空科技有限公司 | 語音辨識方法、語音辨識裝置、電子設備、電腦可讀存儲介質及電腦程式產品 |
CN111508497B (zh) * | 2019-01-30 | 2023-09-26 | 北京猎户星空科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN111462759A (zh) * | 2020-04-01 | 2020-07-28 | 科大讯飞股份有限公司 | 一种说话人标注方法、装置、设备及存储介质 |
CN111462759B (zh) * | 2020-04-01 | 2024-02-13 | 科大讯飞股份有限公司 | 一种说话人标注方法、装置、设备及存储介质 |
CN112599121A (zh) * | 2020-12-03 | 2021-04-02 | 天津大学 | 基于辅助数据正则化的说话人自适应方法 |
CN112599121B (zh) * | 2020-12-03 | 2023-06-20 | 天津大学 | 基于辅助数据正则化的说话人自适应方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105895104B (zh) | 2019-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110246487B (zh) | 用于单通道的语音识别模型的优化方法及系统 | |
CN108922518B (zh) | 语音数据扩增方法和系统 | |
CN110706692B (zh) | 儿童语音识别模型的训练方法及系统 | |
CN107545903B (zh) | 一种基于深度学习的语音转换方法 | |
CN104751228B (zh) | 用于语音识别的深度神经网络的构建方法及系统 | |
Nakkiran et al. | Compressing deep neural networks using a rank-constrained topology | |
CN105139864B (zh) | 语音识别方法和装置 | |
US9400955B2 (en) | Reducing dynamic range of low-rank decomposition matrices | |
CN109767759A (zh) | 基于改进型cldnn结构的端到端语音识别方法 | |
CN108417201B (zh) | 单信道多说话人身份识别方法及系统 | |
CN108960419A (zh) | 用于使用知识桥的学生-教师迁移学习网络的装置和方法 | |
CN104751227B (zh) | 用于语音识别的深度神经网络的构建方法及系统 | |
CN105895104A (zh) | 说话人自适应识别方法及系统 | |
US10109272B2 (en) | Apparatus and method for training a neural network acoustic model, and speech recognition apparatus and method | |
CN105590625A (zh) | 声学模型自适应方法及系统 | |
CN106104674A (zh) | 混合语音识别 | |
CN109887484A (zh) | 一种基于对偶学习的语音识别与语音合成方法及装置 | |
CN103117060A (zh) | 用于语音识别的声学模型的建模方法、建模系统 | |
CN104751842A (zh) | 深度神经网络的优化方法及系统 | |
CN106062786A (zh) | 用于训练神经网络的计算系统 | |
Lee et al. | Ensemble of jointly trained deep neural network-based acoustic models for reverberant speech recognition | |
CN109346064A (zh) | 用于端到端语音识别模型的训练方法及系统 | |
CN109410974A (zh) | 语音增强方法、装置、设备及存储介质 | |
CN110491393A (zh) | 声纹表征模型的训练方法及相关装置 | |
CN105895082A (zh) | 声学模型训练方法、语音识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |