CN107481717B - 一种声学模型训练方法及系统 - Google Patents

一种声学模型训练方法及系统 Download PDF

Info

Publication number
CN107481717B
CN107481717B CN201710647473.4A CN201710647473A CN107481717B CN 107481717 B CN107481717 B CN 107481717B CN 201710647473 A CN201710647473 A CN 201710647473A CN 107481717 B CN107481717 B CN 107481717B
Authority
CN
China
Prior art keywords
language
training
acoustic model
training data
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710647473.4A
Other languages
English (en)
Other versions
CN107481717A (zh
Inventor
李超
闫鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201710647473.4A priority Critical patent/CN107481717B/zh
Publication of CN107481717A publication Critical patent/CN107481717A/zh
Application granted granted Critical
Publication of CN107481717B publication Critical patent/CN107481717B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Machine Translation (AREA)

Abstract

本申请提供一种声学模型训练方法及系统,所述方法包括:利用第一语种训练数据训练深度神经网络,生成第一语种声学模型;利用第二语种训练数据对所述第一语种声学模型进行迁移学习,生成第二语种声学模型。能够避免现有技术中如果采用录制数据的方法来获得第二语种的数据,需要大量的数据才能保证算法的性能,需要花费大量的时间成本和经济成本的问题;既显著地改善了日语识别效果,又节省了大量的录音成本。

Description

一种声学模型训练方法及系统
【技术领域】
本申请涉及人工智能领域,尤其涉及一种声学模型训练方法及系统。
【背景技术】
人工智能(Artificial Intelligence;AI),是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语音识别、图像识别、自然语言处理和专家系统等。
随着人工智能的不断发展,语音交互作为最自然的交互方式日益推广,人们对于语音识别服务的需求越来越多,智能音箱,智能电视,智能冰箱,越来越多的智能产品出现在了大众消费品市场。
现在的其他语种语音识别商用的较少,更没有免费的互联网服务。数据公司提供的其他语种数据,数据量太少难以训练出一个合适的声学模型,无法达到商用的标准。如果采用录制数据的方法来获得其他语种的数据,需要大量的数据才能保证算法的性能,而这需要花费大量的时间成本和经济成本。
【发明内容】
本申请的多个方面提供一种声学模型训练方法及系统,用以提高日语语音识别的性能。
本申请的一方面,提供一种声学模型训练方法,其特征在于,包括:
利用第一语种训练数据训练深度神经网络,生成第一语种声学模型;
利用第二语种训练数据对所述第一语种声学模型进行迁移学习,生成第二语种声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深度神经网络的输出层所包括的输出单元的数量与第一语种基本语音元素的个数相同。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深度神经网络的输出层的输出单元的数量依据第一语种基本语音元素的数量确定。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述利用第一语种训练数据训练深度神经网络,生成第一语种声学模型包括:
获取所述第一语种训练数据的声学特征向量;
将所述第一语种训练数据的声学特征向量作为输入,第一语种训练数据中的语音标识作为输出,对所述深度神经网络进行训练,得到第一语种声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述利用第二语种训练数据对所述第一语种声学模型进行迁移学习,生成第二语种声学模型包括:
对第一语种声学模型进行微调;
获取所述第二语种训练数据的声学特征向量;
将所述第二语种训练数据的声学特征向量作为输入,第二语种训练数据中的语音标识作为输出,对微调后的第一语种声学模型进行训练,得到第二语种声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对第一语种声学模型进行微调包括:
对输出层进行替换,以使得输出层所包括的输出单元的数量与第二语种基本语音元素的数量相适应;
调低隐层的学习率。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第一语种为中文,所述第二语种为日文。
本申请的另一方面,提供一种第二语种声学模型训练系统,其特征在于,包括:
模型预训练单元,用于利用第一语种训练数据训练深度神经网络,生成第一语种声学模型;
迁移学习单元,用于利用第二语种训练数据对所述第一语种声学模型进行迁移学习,生成第二语种声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述深度神经网络的输出层所包括的输出单元的数量依据第一语种基本语音元素的数量确定。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述模型预训练单元包括:
声学特征向量获取子单元,用于获取所述第一语种训练数据的声学特征向量;
训练子单元,用于将所述第一语种训练数据的声学特征向量作为输入,第一语种训练数据中的语音标识作为输出,对所述深度神经网络进行训练,得到第一语种声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述迁移学习单元包括:
调整子单元,用于对第一语种声学模型进行微调;
第二语种语音特征获取子单元,用于获取所述第二语种训练数据的声学特征向量;
第二语种训练子单元,用于将所述第二语种训练数据的声学特征向量作为输入,第二语种训练数据中的语音标识作为输出,对微调后的第一语种声学模型进行训练,得到第二语种声学模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述对第一语种声学模型进行微调包括:
对输出层进行替换,以使得输出层所包括的输出单元的数量与第二语种基本语音元素的数量相适应;
调低隐层的学习率。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述第一语种为中文,所述第二语种为日文。
本申请的另一方面,提供一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现任一上述的方法。
本申请的另一方面,提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现任一上述的方法。
由所述技术方案可知,本发明提供的日语声学模型训练方法和系统既显著地改善了日语识别效果,又节省了大量的录音成本。
【附图说明】
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一实施例提供的声学模型训练方法的流程示意图;
图2为本申请一实施例提供的声学模型训练方法中利用中文训练数据训练深度神经网络,生成中文声学模型的流程示意图;
图3为本申请一实施例提供的声学模型训练方法中利用日语训练数据更新所述中文声学模型,生成日语声学模型的流程示意图;
图4为本申请另一实施例提供的声学模型训练系统的结构示意图;
图5为本申请另一实施例提供的声学模型训练系统中模型预训练单元的结构示意图;
图6为本申请另一实施例提供的声学模型训练系统中迁移学习单元的的结构示意图;
图7为适于用来实现本发明实施例的示例性计算机系统/服务器的框图。
【具体实施方式】
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本申请保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本申请一实施例提供的声学模型训练方法的流程图,如图1所示,包括以下步骤:
101、利用第一语种训练数据训练深度神经网络,生成第一语种声学模型;
102、利用第二语种训练数据对所述第一语种声学模型进行迁移学习,生成第二语种声学模型。
本实施例以中文为第一语种,日语为第二语种为例,对技术方案进行进一步描述。
图2为本发明声学模型训练方法中所述利用中文训练数据训练深度神经网络,生成中文声学模型的流程图,如图2所示,所述利用中文训练数据训练深度神经网络,生成中文声学模型可以包括:
201、获取所述中文训练数据的声学特征向量;
由于中文语音识别的使用非常广泛,已经积累了很多的中文训练数据,例如,中文输入法的全量数万小时的训练数据。因此,可以使用已有的中文训练数据。需要指出的是,所述中文训练数据可以包括语音标识,所述语音标识可以用于标识基本语音元素,上述语音标识可以以各种形式表示,如字母、数字、符号、文字等等。
所述声学特征向量是对所述中文训练数据进行预处理和特征提取后获得的包括语音特征的数据集。
对所述中文训练数据的预处理包括对所述中文训练数据的采样量化、预加重、加窗分帧、以及端点检测。经过预处理后,所述中文训练数据的高频分辨率被提高,所述中文训练数据变得更加平滑,方便了所述中文训练数据的后续处理。
利用各种声学特征提取方法从所述混合语音训练数据中提取特征向量。
在本实施例的一些可选的实现方式中,可以基于梅尔频率倒谱系数MFCC从上述目标语音信号中提取特征向量。具体的,可以首先利用离散傅氏变换的快速算法对上述目标语音信号进行从时域至频域的转换,得到能量频率;之后,可以利用三角带通滤波方法,依照梅尔刻度分布,将上述目标语音信号的能量频谱进行卷积计算,得到多个输出对数能量,最后对上述多个输出对数能量构成的向量进行离散余弦变换,生成特征向量。
在本实施例的一些可选的实现方式中,还可以利用线性预测编码方法,通过对上述目标语音信号进行解析,生成声道激励和转移函数的参数,并以所生成的参数作为特征参数,生成特征向量。
202、将声学特征向量作为输入,语音训练数据中的语音标识作为输出,训练得到中文声学模型。
所述深度神经网络包括一个输入层,多个隐层,以及一个输出层。所述输入层用于根据输入所述深度神经网络的声学特征向量计算输入至最底层的隐层单元的输出值。所述隐层用于根据本层的加权值对来自下一层隐层的输入值进行加权求和,计算向上一层隐层输出的输出值。所述输出层用于根据本层的加权值对来自最上层的隐层单元的输出值进行加权求和,并根据所述加权求和的结果计算输出概率。所述输出概率是所述输出单元输出的,表示输入的声学特征向量是所述输出单元对应的语音标识的概率。
所述输入层包括多个输入单元,所述输入单元用于根据输入的声学特征向量计算输出至最底层的隐层的输出值。将所述声学特征向量输入至所述输入单元后,所述输入单元根据自身的加权值利用输入至所述输入单元的声学特征向量计算向最底层的隐层输出的输出值。
所述多个隐层,其中,每个隐层包括多个隐层单元。所述隐层单元接收来自于下一层隐层中的隐层单元的输入值,根据本层的加权值对来自于下一层隐层中的隐层单元的输入值进行加权求和,并将加权求和的结果作为输出至上一层隐层的隐层单元的输出值。
所述输出层包括多个输出单元,所述输出单元接收来自于最上层隐层中的隐层单元的输入值,根据本层的加权值对来自于最上层隐层中的隐层单元的输入值进行加权求和,再根据加权求和的结果利用softmax函数计算输出概率。所述输出概率表示输入声学模型的声学特征向量属于所述输出单元所对应的语音标识的后验概率。
其中,所述输出层所包括的输出单元的数量依据与中文所包括的基本语音元素的个数确定。中文是音素为最小单元,通过将音素聚类,得到基本语音元素的个数,即输出单元数量。
在根据不同的输出单元的输出概率判断所述声学特征向量是哪个语音标识所代表的基本语音元素后,经过其他附加模块的处理,可以输出所述声学特征向量对应的文本数据。
在确定了所述声学模型的结构,即所述深度神经网络的结构以后,需要确定所述深度神经网络的参数,包括所述输入层的加权值、所述多个隐层的加权值、以及所述输出层的加权值。也就是说,需要对所述深度神经网络进行训练。
在本实施例的一种实施方式中,当利用中文训练数据训练深度神经网络时,将中文训练数据的声学特征向量从所述深度神经网络的输入层输入至所述深度神经网络,得到所述深度神经网络的输出概率,计算所述输出概率与所述期望输出概率之间的误差,并根据所述深度神经网络的输出概率与所述期望输出概率之间的误差调整所述深度神经网络的参数。
在本实施例的一个优选实施方式中,采用最速下降算法作为利用所述输出概率与所述期望输出概率之间的误差调整所述深度神经网络的参数。
利用中文训练数据对所述深度神经网络进行训练后,由于所述深度神经网络的参数经过了根据期望输出概率的调整,得到了中文声学模型,即basic model。所述中文声学模型具有对中文声学特征向量进行识别的特性。但是,不同语种具有不同的语音特征。因此,需要针对日语的声学特征向量对所述深度神经网络进行更新,即fine-tuning。
图3为本发明声学模型训练方法中所述利用日语训练数据更新所述中文声学模型,生成日语声学模型的流程图,如图3所示,所述利用日语训练数据更新所述中文声学模型,生成日语声学模型可以包括:
301、对中文声学模型进行微调。例如,
对输出层进行替换,以使得输出层所包括的输出单元的数量与日语基本语音元素的数量相适应;
调低隐层的学习率。
在本实施例中,日语的发音单元和中文不一样,虽然也是音素为最小单元,但是日语和中文的发音列表存在很大的差异,通过将音素聚类,得到日语基本语音元素的个数。
对所述中文声学模型进行微调,对输出层进行替换,以使得输出层所包含输出单元的数量与日语基本语音元素的数量相适应,每个输出单元对应于日语中的一个基本语音元素。
因为调整后的中文声学模型的输出层是新的随机初始化的,需要更大的学习率来训练,但是隐层已经使用中文训练数据进行了充分训练,只需要较小的学习率来适配到日语的发音习惯。
在本实施例的一个优选实施方式中,例如设置一个学习率的衰减系数a,调低隐层学习率。例如,假设a=0.1,输出层的学习率是0.0001,那么隐层的学习率就是0.1*0.0001=0.00001。
302、获取日语训练数据的声学特征向量;
对小规模日语训练数据进行预处理和特征提取,获得所述日语训练数据的声学特征向量。
303、将所述日语训练数据的声学特征向量作为输入,日语训练数据中的语音标识作为输出,对微调后的中文声学模型进行训练,得到日语声学模型。
将所述声学特征向量从所述微调后的中文声学模型的输入层输入,得到所述微调后的中文声学模型的输出概率,根据所述输出概率与期望输出概率之间的误差调整所述深度神经网络的参数。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁所述,所述302、获取所述日语训练数据的声学特征向量;303、将所述日语训练数据的声学特征向量作为输入,日语训练数据中的语音标识作为输出,对微调后的中文声学模型进行训练,得到日语声学模型;可以参考201、获取所述中文训练数据的声学特征向量;202将声学特征向量作为输入,语音训练数据中的语音标识作为输出,训练得到中文声学模型的对应过程,在此不再赘述。
由于隐层的学习率被调低,将日语训练数据的声学特征向量输入至所述深度神经网络后,主要对所述调整后的中文声学模型的输出层的加权值进行训练。
所述方法还可以包括以下步骤:根据日语声学模型进行日语语音识别。
本实施例利用日语训练数据更新中文声学模型,获得的日语声学模型,并没有真实录制大量的日语语音作为训练数据,虽然真实录制大量的日语语音作为训练数据是理论上最合理的训练方法,得到的模型也最匹配,但是这样做不仅要耗费大量的时间和人力来进行录制,成本极高,而且浪费了大量的中文训练数据。本实施例提供的日语声学模型训练方法既显著地改善了日语识别效果,又节省了大量的录音成本。
可见,在大量第一语种训练数据的基础上,采用本实施例所述声学模型训练方法,可以显著地改善第二语种的识别效果,又节省大量的录音成本。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
在所述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图4为本申请一实施例提供的声学模型训练系统的结构图,如图4所示,包括:
模型预训练单元41,用于利用第一语种训练数据训练深度神经网络,生成第一语种声学模型;
迁移学习单元52,用于利用第二语种训练数据对所述第一语种声学模型进行迁移学习,生成第二语种声学模型。
本实施例以中文为第一语种,日语为第二语种为例,对技术方案进行进一步描述。
图5为本发明声学模型训练系统中所述模型预训练单元的结构图,如图5所示,所述模型预训练单元可以包括:
声学特征向量获取子单元51,用于获取所述中文训练数据的声学特征向量;
由于中文语音识别的使用非常广泛,已经积累了很多的中文训练数据,例如,中文输入法的全量数万小时的训练数据。因此,可以使用已有的中文训练数据。需要指出的是,所述中文训练数据可以包括语音标识,所述语音标识可以用于标识基本语音元素,上述语音标识可以以各种形式表示,如字母、数字、符号、文字等等。
所述声学特征向量是对所述中文训练数据进行预处理和特征提取后获得的包括语音特征的数据集。
对所述中文训练数据的预处理包括对所述中文训练数据的采样量化、预加重、加窗分帧、以及端点检测。经过预处理后,所述中文训练数据的高频分辨率被提高,所述中文训练数据变得更加平滑,方便了所述中文训练数据的后续处理。
利用各种声学特征提取方法从所述混合语音训练数据中提取特征向量。
在本实施例的一些可选的实现方式中,可以基于梅尔频率倒谱系数MFCC从上述目标语音信号中提取特征向量。具体的,可以首先利用离散傅氏变换的快速算法对上述目标语音信号进行从时域至频域的转换,得到能量频率;之后,可以利用三角带通滤波方法,依照梅尔刻度分布,将上述目标语音信号的能量频谱进行卷积计算,得到多个输出对数能量,最后对上述多个输出对数能量构成的向量进行离散余弦变换,生成特征向量。
在本实施例的一些可选的实现方式中,还可以利用线性预测编码方法,通过对上述目标语音信号进行解析,生成声道激励和转移函数的参数,并以所生成的参数作为特征参数,生成特征向量。
训练子单元52,用于将所述中文训练数据的声学特征向量作为输入,中文训练数据中的语音标识作为输出,训练得到中文声学模型。
所述深度神经网络包括一个输入层,多个隐层,以及一个输出层。所述输入层用于根据输入所述深度神经网络的声学特征向量计算输入至最底层的隐层单元的输出值。所述隐层用于根据本层的加权值对来自下一层隐层的输入值进行加权求和,计算向上一层隐层输出的输出值。所述输出层用于根据本层的加权值对来自最上层的隐层单元的输出值进行加权求和,并根据所述加权求和的结果计算输出概率。所述输出概率是所述输出单元输出的,表示输入的声学特征向量是所述输出单元对应的语音标识的概率。
所述输入层包括多个输入单元,所述输入单元用于根据输入的声学特征向量计算输出至最底层的隐层的输出值。将所述声学特征向量输入至所述输入单元后,所述输入单元根据自身的加权值利用输入至所述输入单元的声学特征向量计算向最底层的隐层输出的输出值。
所述多个隐层,其中,每个隐层包括多个隐层单元。所述隐层单元接收来自于下一层隐层中的隐层单元的输入值,根据本层的加权值对来自于下一层隐层中的隐层单元的输入值进行加权求和,并将加权求和的结果作为输出至上一层隐层的隐层单元的输出值。
所述输出层包括多个输出单元,所述输出单元接收来自于最上层隐层中的隐层单元的输入值,根据本层的加权值对来自于最上层隐层中的隐层单元的输入值进行加权求和,再根据加权求和的结果利用softmax函数计算输出概率。所述输出概率表示输入声学模型的声学特征向量属于所述输出单元所对应的语音标识的概率。
其中,所述输出层的输出单元的数量依据中文所包括的基本语音元素的个数确定。中文是音素为最小单元,通过将音素聚类,得到基本语音元素的个数,即输出节点数目。
在根据不同的输出单元的输出概率判断所述声学特征向量是哪个语音标识所代表的基本语音元素后,经过其他附加模块的处理,可以输出所述声学特征向量对应的文本数据。
在确定了所述声学模型的结构,即所述深度神经网络的结构以后,需要确定所述深度神经网络的参数,包括所述输入层的加权值、所述多个隐层的加权值、以及所述输出层的加权值。也就是说,需要对所述深度神经网络进行训练。
在本实施例的一种实施方式中,当利用中文训练数据训练深度神经网络时,将中文训练数据的声学特征向量从所述深度神经网络的输入层输入至所述深度神经网络,得到所述深度神经网络的输出概率,计算所述输出概率与所述期望输出概率之间的误差,并根据所述深度神经网络的输出概率与所述期望输出概率之间的误差调整所述深度神经网络的参数。
在本实施例的一个优选实施方式中,采用最速下降算法作为利用所述输出概率与所述期望输出概率之间的误差调整所述深度神经网络的参数。
利用中文训练数据对所述深度神经网络进行训练后,由于所述深度神经网络的参数经过了根据期望输出概率的调整,得到了中文声学模型,即basic model。所述中文声学模型具有对中文声学特征向量进行识别的特性。但是,不同语种具有不同的语音特征。因此,需要针对日语的声学特征向量对所述深度神经网络进行更新,即fine-tuning。
图6为本发明声学模型训练系统中所述迁移学习单元的的结构图,如图6所示,所述迁移学习单元可以包括:
调整子单元61,用于对中文声学模型进行调整;例如,
对输出层进行替换,以使得输出层所包括的输出单元的数量与日语基本语音元素的数量相适应;
调低隐层的学习率。
在本实施例中,日语的发音单元和中文不一样,虽然也是音素为最小单元,但是日语和中文的发音列表存在很大的差异,通过将音素聚类,得到日语基本语音元素的个数。
对所述中文声学模型进行微调,对输出层进行替换,以使得输出层所包含输出单元的数量与日语基本语音元素的数量相适应,每个输出单元对应于日语中的一个基本语音元素。
因为调整后的中文声学模型的输出层是新的随机初始化的,需要更大的学习率来训练,但是隐层已经使用中文训练数据进行了充分训练,只需要小学习率来适配到日语的发音习惯。
在本实施例的一个优选实施方式中,设置一个学习率的衰减系数a,调低隐层的学习率。例如,假设a=0.1,输出层的学习率是0.0001,那么隐层的学习率就是0.1*0.0001=0.00001.
日语语音特征获取子单元62,用于获取日语训练数据的声学特征向量;
对小规模日语训练数据进行预处理和特征提取,获得所述日语训练数据的声学特征向量。
日语训练子单元63,用于将所述日语训练数据的声学特征向量作为输入,日语训练数据中的语音标识作为输出,对微调后的中文声学模型进行训练,得到日语声学模型。
对所述调整后的中文声学模型的训练是根据所述输出层的输出概率与期望输出概率之间的误差进行的。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁所述,所述日语语音特征获取子单元62、日语训练子单元63的具体工作过程;可以参考语音特征获取子单元51、训练子单元52,在此不再赘述。
由于隐层的学习率调低,将日语训练数据的声学特征向量输入至所述深度神经网络后,主要对所述调整后的中文声学模型的输出层的加权值进行训练。
所述系统还可以包括以下单元:识别单元,用于根据日语声学模型进行日语语音识别。
本实施例利用日语训练数据更新中文声学模型,获得的日语声学模型,并没有真实录制大量的日语语音作为训练数据,虽然真实录制大量的日语语音作为训练数据是理论上最合理的训练方法,得到的模型也最匹配,但是这样做不仅要耗费大量的时间和人力来进行录制,成本极高,而且浪费了大量的中文训练数据。本实施例提供的日语声学模型训练系统既显著地改善了日语识别效果,又节省了大量的录音成本。
可见,在大量第一语种训练数据的基础上,采用本实施例所述声学模型训练系统,可以显著地改善第二语种的识别效果,又节省大量的录音成本。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
图7示出了适于用来实现本发明实施方式的示例性计算机系统/服务器012的框图。图7显示的计算机系统/服务器012仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统/服务器012以通用计算设备的形式表现。计算机系统/服务器012的组件可以包括但不限于:一个或者多个处理器或者处理单元016,系统存储器028,连接不同系统组件(包括系统存储器028和处理单元016)的总线018。
总线018表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器012典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器012访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器028可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)030和/或高速缓存存储器032。计算机系统/服务器012可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统034可以用于读写不可移动的、非易失性磁介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线018相连。存储器028可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块042的程序/实用工具040,可以存储在例如存储器028中,这样的程序模块042包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块042通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器012也可以与一个或多个外部设备014(例如键盘、指向设备、显示器024等)通信,在本发明中,计算机系统/服务器012与外部雷达设备进行通信,还可与一个或者多个使得用户能与该计算机系统/服务器012交互的设备通信,和/或与使得该计算机系统/服务器012能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口022进行。并且,计算机系统/服务器012还可以通过网络适配器020与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图7所示,网络适配器020通过总线018与计算机系统/服务器012的其它模块通信。应当明白,尽管图7中未示出,可以结合计算机系统/服务器012使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元016通过运行存储在系统存储器028中的程序,从而执行本发明所描述的实施例中的功能和/或方法。
上述的计算机程序可以设置于计算机存储介质中,即该计算机存储介质被编码有计算机程序,该程序在被一个或多个计算机执行时,使得一个或多个计算机执行本发明上述实施例中所示的方法流程和/或装置操作。
随着时间、技术的发展,介质含义越来越广泛,计算机程序的传播途径不再受限于有形介质,还可以直接从网络下载等。可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (12)

1.一种声学模型训练方法,其特征在于,包括:
利用第一语种训练数据训练深度神经网络,生成第一语种声学模型;
对所述第一语种声学模型的输出层进行替换,以使得输出层所包括的输出单元的数量与第二语种基本语音元素的数量相适应,调低隐层的学习率;
利用第二语种训练数据对所述第一语种声学模型进行训练,生成第二语种声学模型。
2.根据权利要求1所述的方法,其特征在于,所述深度神经网络的输出层所包括的输出单元的数量依据第一语种基本语音元素的数量确定。
3.根据权利要求2所述的方法,其特征在于,所述利用第一语种训练数据训练深度神经网络,生成第一语种声学模型包括:
获取所述第一语种训练数据的声学特征向量;
将所述第一语种训练数据的声学特征向量作为输入,第一语种训练数据中的语音标识作为输出,对所述深度神经网络进行训练,得到第一语种声学模型。
4.根据权利要求1所述的方法,其特征在于,所述利用第二语种训练数据对所述第一语种声学模型进行训练,生成第二语种声学模型包括:
获取所述第二语种训练数据的声学特征向量;
将所述第二语种训练数据的声学特征向量作为输入,第二语种训练数据中的语音标识作为输出,对第一语种声学模型进行训练,得到第二语种声学模型。
5.根据权利要求1所述的方法,其特征在于,所述第一语种为中文,所述第二语种为日文。
6.一种第二语种声学模型训练系统,其特征在于,包括:
模型预训练单元,用于利用第一语种训练数据训练深度神经网络,生成第一语种声学模型;
迁移学习单元,用于对所述第一语种声学模型的输出层进行替换,以使得输出层所包括的输出单元的数量与第二语种基本语音元素的数量相适应,调低隐层的学习率;利用第二语种训练数据对所述第一语种声学模型进行训练,生成第二语种声学模型。
7.根据权利要求6所述的系统,其特征在于,所述深度神经网络的输出层所包括的输出单元的数量依据第一语种基本语音元素的数量确定。
8.根据权利要求7所述的系统,其特征在于,所述模型预训练单元包括:
声学特征向量获取子单元,用于获取所述第一语种训练数据的声学特征向量;
训练子单元,用于将所述第一语种训练数据的声学特征向量作为输入,第一语种训练数据中的语音标识作为输出,对所述深度神经网络进行训练,得到第一语种声学模型。
9.根据权利要求6所述的系统,其特征在于,所述迁移学习单元包括:
调整子单元,用于对所述第一语种声学模型的输出层进行替换,以使得输出层所包括的输出单元的数量与第二语种基本语音元素的数量相适应,调低隐层的学习率;
第二语种语音特征获取子单元,用于获取所述第二语种训练数据的声学特征向量;
第二语种训练子单元,用于将所述第二语种训练数据的声学特征向量作为输入,第二语种训练数据中的语音标识作为输出,对第一语种声学模型进行训练,得到第二语种声学模型。
10.根据权利要求6所述的系统,其特征在于,所述第一语种为中文,所述第二语种为日文。
11.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
CN201710647473.4A 2017-08-01 2017-08-01 一种声学模型训练方法及系统 Active CN107481717B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710647473.4A CN107481717B (zh) 2017-08-01 2017-08-01 一种声学模型训练方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710647473.4A CN107481717B (zh) 2017-08-01 2017-08-01 一种声学模型训练方法及系统

Publications (2)

Publication Number Publication Date
CN107481717A CN107481717A (zh) 2017-12-15
CN107481717B true CN107481717B (zh) 2021-03-19

Family

ID=60598417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710647473.4A Active CN107481717B (zh) 2017-08-01 2017-08-01 一种声学模型训练方法及系统

Country Status (1)

Country Link
CN (1) CN107481717B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110070855B (zh) * 2018-01-23 2021-07-23 中国科学院声学研究所 一种基于迁移神经网络声学模型的语音识别系统及方法
CN108417228B (zh) * 2018-02-02 2021-03-30 福州大学 乐器音色迁移下的人声音色相似性度量方法
CN109190768A (zh) * 2018-08-09 2019-01-11 北京中关村科金技术有限公司 一种数据增强语料在神经网络中训练方法
CN109065029A (zh) * 2018-10-10 2018-12-21 内蒙古工业大学 一种小规模语料dnn-hmm声学模型
CN109147772A (zh) * 2018-10-10 2019-01-04 内蒙古工业大学 一种dnn-hmm声学模型参数迁移结构
CN109326282A (zh) * 2018-10-10 2019-02-12 内蒙古工业大学 一种小规模语料dnn-hmm声学训练结构
CN109616105A (zh) * 2018-11-30 2019-04-12 江苏网进科技股份有限公司 一种基于迁移学习的带噪语音识别方法
CN111755024B (zh) * 2019-03-27 2023-02-10 四川大学 一种基于迁移学习的暴恐音频检测方法
CN110197658B (zh) * 2019-05-30 2021-01-26 百度在线网络技术(北京)有限公司 语音处理方法、装置以及电子设备
CN112133291B (zh) * 2019-06-05 2024-02-13 科大讯飞股份有限公司 一种语种识别模型训练、语种识别的方法和相关装置
CN111460214B (zh) * 2020-04-02 2024-04-19 北京字节跳动网络技术有限公司 分类模型训练方法、音频分类方法、装置、介质及设备
CN111785253A (zh) * 2020-06-17 2020-10-16 国家计算机网络与信息安全管理中心 一种分布不均衡的语种识别方法及系统
CN111816160A (zh) * 2020-07-28 2020-10-23 苏州思必驰信息科技有限公司 普通话和粤语混合语音识别模型训练方法及系统
CN112466294B (zh) * 2020-11-24 2021-12-14 北京百度网讯科技有限公司 声学模型的生成方法、装置及电子设备
CN114783427B (zh) * 2022-06-20 2022-08-26 成都启英泰伦科技有限公司 基于命令词的语音识别模型压缩方法
CN114999463B (zh) * 2022-08-01 2022-11-15 深译信息科技(珠海)有限公司 语音识别方法、装置、设备及介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014040124A1 (en) * 2012-09-11 2014-03-20 Auraya Pty Ltd Voice authentication system and method
CN103971690A (zh) * 2013-01-28 2014-08-06 腾讯科技(深圳)有限公司 一种声纹识别方法和装置
CN103400577B (zh) * 2013-08-01 2015-09-16 百度在线网络技术(北京)有限公司 多语种语音识别的声学模型建立方法和装置
CN105185372B (zh) * 2015-10-20 2017-03-22 百度在线网络技术(北京)有限公司 个性化多声学模型的训练方法、语音合成方法及装置
CN106251859B (zh) * 2016-07-22 2019-05-31 百度在线网络技术(北京)有限公司 语音识别处理方法和装置

Also Published As

Publication number Publication date
CN107481717A (zh) 2017-12-15

Similar Documents

Publication Publication Date Title
CN107481717B (zh) 一种声学模型训练方法及系统
CN107610709B (zh) 一种训练声纹识别模型的方法及系统
CN106683680B (zh) 说话人识别方法及装置、计算机设备及计算机可读介质
WO2021174757A1 (zh) 语音情绪识别方法、装置、电子设备及计算机可读存储介质
CN107103903B (zh) 基于人工智能的声学模型训练方法、装置及存储介质
CN107680586B (zh) 远场语音声学模型训练方法及系统
US11741355B2 (en) Training of student neural network with teacher neural networks
CN108573694B (zh) 基于人工智能的语料扩充及语音合成系统构建方法及装置
CN113378784B (zh) 视频标签推荐模型的训练方法和确定视频标签的方法
CN105976812A (zh) 一种语音识别方法及其设备
US10607601B2 (en) Speech recognition by selecting and refining hot words
CN111653274B (zh) 唤醒词识别的方法、装置及存储介质
CN112800782A (zh) 融合文本语义特征的语音翻译方法、系统、设备
WO2023197749A9 (zh) 背景音乐的插入时间点确定方法、装置、设备和存储介质
CN111061877A (zh) 文本主题提取方法和装置
JP2022529268A (ja) 音声を認識する方法及び装置
CN112489623A (zh) 语种识别模型的训练方法、语种识别方法及相关设备
CN113053367A (zh) 语音识别方法、语音识别的模型训练方法以及装置
CN118043885A (zh) 用于半监督语音识别的对比孪生网络
CN114495977A (zh) 语音翻译和模型训练方法、装置、电子设备以及存储介质
CN112634880A (zh) 话者识别的方法、装置、设备、存储介质以及程序产品
CN116542783A (zh) 基于人工智能的风险评估方法、装置、设备及存储介质
CN111477212A (zh) 内容识别、模型训练、数据处理方法、系统及设备
CN113327265B (zh) 一种基于指导学习策略的光流估计方法和系统
JP2022153600A (ja) 音声合成方法、装置、電子機器及び記憶媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant