CN104376842A - 神经网络语言模型的训练方法、装置以及语音识别方法 - Google Patents
神经网络语言模型的训练方法、装置以及语音识别方法 Download PDFInfo
- Publication number
- CN104376842A CN104376842A CN201310349690.7A CN201310349690A CN104376842A CN 104376842 A CN104376842 A CN 104376842A CN 201310349690 A CN201310349690 A CN 201310349690A CN 104376842 A CN104376842 A CN 104376842A
- Authority
- CN
- China
- Prior art keywords
- language model
- neural network
- network language
- cost function
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明公开了一种神经网络语言模型的训练方法、装置以及语音识别方法,涉及语音识别技术。为解决现有技术在降低神经网络语言模型计算复杂度时,神经网络语言模型识别正确率降低的问题。提供的技术方案包括:在对神经网络语言模型的参数进行训练的过程中,采用输出层的归一化因子对目标代价函数进行修正,获取修正后的目标代价函数;根据修正后的目标代价函数对神经网络语言模型的参数进行更新,获取神经网络语言模型训练后的目标参数,其中,目标参数使得训练后的神经网络语言模型中归一化因子为常数。该方案可以应用在神经网络语音识别过程中。
Description
技术领域
本发明涉及语音识别技术,尤其涉及一种神经网络语言模型的训练方法、装置以及语音识别方法。
背景技术
语音识别是指使用计算机将一段语音信号转换成对应文字的过程,语音识别的结果依赖于在语音识别中使用的语言模型,其中,语言模型是对序列建模,在给定历史序列的情况下准确地预测下一个词,或者给定带有错误的句子候选中,挑选出最符合人类语言的候选。理想的语言模型能够保证语音识别系统输出合理的识别假设。
在神经网络语言模型中,每一个词都被映射成为高维矢量,语法和语义等相近的词在高维空间具有比较好的聚集性。神经网络语言模型在语音识别、机器翻译等领域中已经取得非常好的效果。
神经网络语言模型最大的缺点是计算复杂度过高,该模型的计算负担主要来源于输出层。对于神经网络语言模型,给定历史上文每进行一次分数预测,都需要在输出层经过softmax函数归一化成为概率,这一过程使得神经网络语言模型计算复杂度高,从而直接限制其广泛应用。
现有技术通常采用词语类聚或者树状结构等方法,根据人为经验对词典进行结构化处理,以减小神经网络语言模型输出层的计算复杂度。然而,由于引入了人为因素,现有技术采用的方法会对神经网络语言模型的性能造成影响,使得语音识别质量(识别率)降低。
发明内容
本发明的实施例提供一种神经网络语言模型的训练方法、装置以及语音识别方法,能够在保证语音识别质量的前提下,提高语音识别速度。
为达到上述目的,本发明的实施例采用如下技术方案:
一种神经网络语言模型的训练方法,包括:对待训练的神经网络语言模型的参数进行初始化,获取初始化后的参数;根据给定的训练文本句子和所述初始化后的参数,获取输出层的状态矢量;根据所述输出层的状态矢量和初始化后的参数,获取输出层的归一化因子;根据所述归一化因子确定所述训练文本句子中待识别词语的预测概率;采用所述归一化因子对目标代价函数进行修正,获取修正后的目标代价函数,其中,所述目标代价函数根据所述预测概率获得;根据所述修正后的目标代价函数对所述初始化后的参数进行更新,获取所述待训练的神经网络语言模型训练后的目标参数,其中,目标参数使得训练后的神经网络语言模型中归一化因子为常数。
一种神经网络语言模型的训练装置,包括:
初始化模块,对待训练的神经网络语言模型的参数进行初始化,获取初始化后的参数;
第一获取模块,用于根据给定的训练文本句子和所述初始化模块获取的初始化后的参数,获取输出层的状态矢量;
第二获取模块,根据所述第一获取模块获取的输出层的状态矢量和初始化模块获取的参数,获取输出层的归一化因子;
第三获取模块,用于根据所述第二获取模块获取的归一化因子确定所述训练文本句子中待识别词语的预测概率;
修正模块,用于根据所述第三获取模块确定的预测概率获取目标代价函数,采用所述第二获取模块获取的归一化因子对目标代价函数进行修正,获取修正后的目标代价函数;
更新模块,用于根据所述修正模块修正后的目标代价函数对所述初始化模块获取的参数进行更新,获取所述待训练的神经网络语言模型训练后的目标参数,其中,目标参数使得训练后的神经网络语言模型中归一化因子为常数。
一种语音识别方法,包括:采用声学模型进行声学观测匹配的步骤,以及采用神经网络语言模型进行约束搜索空间的步骤;其中,所述神经网络语言模型为采用本发明提供的神经网络语言模型的训练方法获取的语言模型。
本发明实施例提供的神经网络语言模型的训练方法、装置以及语音识别方法,采用归一化因子对目标代价函数进行修正,根据修正后的目标代价函数训练神经网络语言模型,获得目标参数,该目标参数能够使训练后的神经网络语言模型中归一化因子为常数,从而降低了神经网络语言模型计算归一化因子的复杂度,提高了神经网络语言模型的计算速度,进而提高了采用该语言模型进行语音识别的速度,相较于现有技术提供的技术方案,模型的计算复杂度更低,并且,由于本发明实施例采用归一化因子对目标代价函数进行修正,解决了现有技术通过人为经验对词典进行结构化处理,造成语音识别质量降低的问题,经过本发明实施例提供的神经网络语言模型的训练方法、装置训练获得的语言模型,与现有的神经网络语言模型的性能基本相同,在保障原有语言模型性能的基础上,降低了计算复杂度,提高了计算速度,进而提高了识别速率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的神经网络语言模型的训练方法流程图;
图2为现有技术中前馈神经网络语言模型示意图;
图3为现有技术中递归神经网络语言模型示意图;
图4为图1所示的本发明实施例提供的神经网络语言模型的训练方法中步骤102的流程图;
图5为图1所示的本发明实施例提供的神经网络语言模型的训练方法中步骤106的流程图;
图6为采用本发明实施例提供的神经网络语言模型的训练方法获得的神经网络语言模型的性能对照图;
图7为本发明实施例提供的神经网络语言模型的训练装置结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
为解决现有技术在降低神经网络语言模型计算复杂度时,神经网络语言模型识别正确率降低的问题,本发明实施例提供一种神经网络语言模型的训练方法、装置以及语音识别方法。
如图1所示,本发明实施例提供一种神经网络语言模型的训练方法,包括:
步骤101,对待训练的神经网络语言模型的参数进行初始化,获取初始化后的参数。
目前,神经网络语言模型主要包括两种:一种是,前馈神经网络语言模型,如图2所示;另一种是,递归神经网络语言模型,如图3所示。
在本实施例中,当待训练的神经网络语言模型为前馈神经网络语言模型时,该语言模型的参数包括:投影矩阵E、输入矩阵Wih_k以及预测矩阵Who,初始化后的参数为:E∈RD×V、Wih_k∈RH×D以及Who巨RV×H,其中V为字典大小,D为投影层节点数,H为隐含层节点数。
当待训练的神经网络语言模型为递归神经网络语言模型时,该语言模型的参数包括:输入矩阵Wih、递归矩阵Whh以及预测矩阵Who,初始化后的参数为:Wih∈RH×V、Whh∈RH×H以及Who∈RV×H,其中,,V为字典大小,D为投影层节点数,H为隐含层节点数。
步骤102,根据给定的训练文本句子和步骤101获取的初始化后的参数,获取输出层的状态矢量。
在本实施例中,训练文本句子,其中,wi是训练文本句子的第i个词,n是训练文本句子的长度。词wi在字典中的索引为q(wi)=j∈[1,V]。
进一步地,如图4所示,步骤102具体可以包括:
步骤1021,将训练文本句子中的每一个词wi转换成对应的矢量vi=[0,0,...1,0,...]T∈RV,其中,只有索引为q(wi)的位置为1,其余置0。
步骤1022,根据步骤101获取的初始化后的参数,以及步骤1021获取的词wi对应的矢量vi,确定隐含层状态矢量。
具体地,当神经网络语言模型为前馈神经网络语言模型时,通过如下公式(1)确定隐含层状态矢量:
其中,f(x)为非线性函数,或者 N为前馈神经网络语言模型阶数。
具体地,当神经网络语言模型为递归神经网络语言模型时,通过如下公式(2)确定隐含层状态矢量:
ht=f(Wihvt-1+Whhht-1) (2)
其中,f(x)为非线性函数,或者x=Wihvt-1+Whhht-1。
步骤1023,根据步骤1022获取的隐含层状态矢量,通过如下公式(3)确定输出层的状态矢量:
ot=Whoht (3)
其中,当神经网络语言模型为前馈神经网络语言模型时,ht根据公式(1)确定;当神经网络语言模型为递归神经网络语言模型时,ht根据公式(2)确定。
步骤103,根据步骤102获取的输出层的状态矢量和步骤101获取的初始化后的参数,获取输出层的归一化因子。
在本实施例中,初始化后的参数Who=[θ1,θ2,...θi...,θV]T∈RV×H,其中θi∈RH是隐含层到输出层的每一个结点的连接权重。
具体地,步骤103可以通过如下公式(4)获取输出层的归一化因子:
步骤104,根据步骤103获取的归一化因子确定训练文本句子中待识别词语的预测概率。
具体地,步骤104可以通过如下公式(5)确定训练文本句子中待识别词语的预测概率:
步骤105,采用步骤103确定的归一化因子对目标代价函数进行修正,获取修正后的目标代价函数,其中,目标代价函数根据步骤104确定的预测概率获得。
在本实施例中,可以通过如下公式(6)获取修正后的目标代价函数:
其中,为修正后的目标代价函数,Θ为待训练的神经网络语言模型的参数集合,具体地,当待训练的神经网络语言模型为前馈神经网络语言模型时,Θ={E,Wih_k,Who},当待训练的神经网络语言模型为递归神经网络语言模型时,Θ={Wih,Whh,WhO};
J(Θ)为目标代价函数,在本实施例中,J(Θ)根据如下公式(7)获得:
为以归一化因子zt为参数的修正函数,η为惩罚因子,一般情况下,η可以由人为设定,|T|为总输入个数。
或者,可以通过如下公式(8)获取修正后的目标代价函数:
其中,为修正后的目标代价函数,Θ为待训练的神经网络语言模型的参数集合,具体地,对于前馈神经网络语言模型,Θ={E,Wih_k,Who};
J(Θ)为目标代价函数,在本实施例中,J(Θ)根据公式(7)获得;
为以归一化因子zt为参数的修正函数,vt=log(zt),η为惩罚因子,一般情况下,η可以由人为设定,|T|为总输入个数。
步骤106,根据步骤105获取的修正后的目标代价函数对步骤101获取的初始化后的参数进行更新,获取待训练的神经网络语言模型训练后的目标参数,其中,目标参数使得训练后的神经网络语言模型中归一化因子为常数。
具体地,如图5所示,步骤106具体可以包括:
步骤1061,获取步骤105得到的修正后的目标代价函数对应的梯度信号。
在本实施例中,梯度信号δt=[δt1,δt2,...δtk...,δtV]T∈RV,其中,δtk可以通过如下公式(9)获取:
其中,δtk为t时刻输出层第k个节点上的梯度信号,I(·)为当且仅当右下角的条件成立时,I(·)函数返回1,否则为0。
步骤1062,根据步骤1061获取的修正后的目标代价函数对应的梯度信号,确定神经网络语言模型的参数的梯度。
在本实施例中,神经网络语言模型的参数的梯度为ΔΘ。具体地,当神经网络语言模型为前馈神经网络语言模型时,ΔΘ={ΔWho,ΔWih_k,ΔE};当神经网络语言模型为递归神经网络语言模型时,ΔΘ={ΔWho,ΔWih,ΔWhh}。
步骤1063,根据步骤1062获取的神经网络语言模型的参数的梯度,对步骤101获取的初始化后的参数进行更新。
具体地,可以根据如下公式(10)获取更新后的参数:
Θt+1=Θt-γ·ΔΘ (10)
其中,Θt+1为下一时刻更新后的参数,Θt为当前时刻的参数,当t=1时,Θ1为初始化后的参数,γ为更新参数的步长,可由人为设定。
需要说明的是,可以预先设定神经网络语言模型的参数的更新次数阈值,如20次,当更新次数到达该预先设定的阈值时,停止更新,并得到最终的目标参数;或者,也可以预先设定相邻两次目标代价函数的相对变化量阈值,如小于1.0×10-5,当相邻两次目标代价函数的相对变化量小于该阈值时,停止更新,并得到最终的目标参数。当然,在实际的使用过程中还可以通过其他方式确定神经网络语言模型的参数更新停止时机,此处不对每种情况进行一一赘述。
在本实施例中,当通过步骤106进行更新后获得的目标参数可以使神经网络语言模型的归一化因子为常数,即zt=C,从而使得待识别词语的预测概率P(q(wt)=j|ht)≈exp(θj Tht)/C,进一步地,zt=1,P(q(wt)=j|ht)≈exp(θj Tht),从而减小了神经网络语言模型的计算复杂度。
需要说明的是,在以上图1-5所示的本发明实施例提供的神经网络语言模型的训练方法中,为了方便说明,省略了神经网络语言模型参数中的隐含层偏置bh和输出层偏置bo。在实际的使用过程中,可以将隐含层偏置bh和输出层偏置bo作为神经网络语言模型参数的一部分考虑进去,使得训练后获得的神经网络语言模型性能更优。
本发明实施例提供的神经网络语言模型的训练方法,采用归一化因子对目标代价函数进行修正,根据修正后的目标代价函数训练神经网络语言模型,获得目标参数,该目标参数能够使训练后的神经网络语言模型中归一化因子为常数,从而降低了神经网络语言模型计算归一化因子的复杂度,提高了神经网络语言模型的计算速度,相较于现有技术提供的技术方案,模型的计算复杂度更低,进而提高了采用该语言模型进行语音识别的速度,并且,由于本发明实施例采用归一化因子对目标代价函数进行修正,解决了现有技术通过人为经验对词典进行结构化处理,造成语音识别质量降低的问题。如图6所示,当η=0时,即为现有技术的神经网络语言模型性能曲线图,当η≠0时,即为通过本发明实施例提供的神经网络语言模型的训练方法获得的语言模型性能曲线图,通过图6可以看出,采用本发明实施例提供的方法获得的语言模型性能基本与现有技术的语言模型性能相同,并且,本发明提供的训练方法在保障原有语言模型性能的基础上,降低了计算复杂度,提高了计算速度,进而提高了识别速率。
如图7所示,本发明实施例还提供一种神经网络语言模型的训练装置,包括:
初始化模块701,对待训练的神经网络语言模型的参数进行初始化,获取初始化后的参数;
第一获取模块702,用于根据给定的训练文本句子和初始化模块701获取的初始化后的参数,获取输出层的状态矢量;
第二获取模块703,根据第一获取模块702获取的输出层的状态矢量和初始化模块701获取的参数,获取输出层的归一化因子;
第三获取模块704,用于根据第二获取模块703获取的归一化因子确定训练文本句子中待识别词语的预测概率;
修正模块705,用于根据第三获取模块704确定的预测概率获取目标代价函数,采用第二获取模块703获取的归一化因子对目标代价函数进行修正,获取修正后的目标代价函数;
更新模块706,用于根据修正模块705修正后的目标代价函数对初始化模块701获取的参数进行更新,获取待训练的神经网络语言模型训练后的目标参数,其中,目标参数使得训练后的神经网络语言模型中归一化因子为常数。
本发明实施例提供的神经网络语言模型的训练装置的具体实现过程可以参见如图1-5所示的本发明实施例提供的神经网络语言模型的训练方法所述,此处不再赘述。
本发明实施例提供的神经网络语言模型的训练装置,采用归一化因子对目标代价函数进行修正,根据修正后的目标代价函数训练神经网络语言模型,获得目标参数,该目标参数能够使训练后的神经网络语言模型中归一化因子为常数,从而降低了神经网络语言模型计算归一化因子的复杂度,提高了神经网络语言模型的计算速度,相较于现有技术提供的技术方案,模型的计算复杂度更低,进而提高了采用该语言模型进行语音识别的速度,并且,由于本发明实施例采用归一化因子对目标代价函数进行修正,解决了现有技术通过人为经验对词典进行结构化处理,造成语音识别质量降低的问题。如图6所示,当η=0时,即为现有技术的神经网络语言模型性能曲线图,当η≠0时,即为通过本发明实施例提供的神经网络语言模型的训练装置获得的语言模型性能曲线图,通过图6可以看出,采用本发明实施例提供的装置获得的语言模型性能基本与现有技术的语言模型性能相同,并且,本发明提供的训练装置在保障原有语言模型性能的基础上,降低了计算复杂度,提高了计算速度,进而提高了识别速率。
本发明实施例还提供一种语音识别方法,包括:采用声学模型进行声学观测匹配的步骤,以及采用神经网络语言模型进行约束搜索空间的步骤;其中,所述神经网络语言模型为采用本发明提供的神经网络语言模型的训练方法获取的语言模型。
本发明实施例提供的语音识别方法,采用归一化因子对目标代价函数进行修正,根据修正后的目标代价函数训练神经网络语言模型,获得目标参数,该目标参数能够使训练后的神经网络语言模型中归一化因子为常数,从而降低了神经网络语言模型计算归一化因子的复杂度,提高了神经网络语言模型的计算速度,相较于现有技术提供的技术方案,模型的计算复杂度更低,进而提高了采用该语言模型进行语音识别的速度,并且,由于本发明实施例采用归一化因子对目标代价函数进行修正,解决了现有技术通过人为经验对词典进行结构化处理,造成语音识别质量降低的问题。如图6所示,当η=0时,即为现有技术的神经网络语言模型性能曲线图,当η≠0时,即为通过本发明实施例提供的神经网络语言模型的训练装置获得的语言模型性能曲线图,通过图6可以看出,采用本发明实施例提供的装置获得的语言模型性能基本与现有技术的语言模型性能相同,并且,本发明提供的语音识别方法在保障原有语言模型性能的基础上,降低了计算复杂度,提高了计算速度,进而提高了识别速率。
本发明实施例提供的神经网络语言模型的训练方法、装置以及语音识别方法,可以应用在基于神经网络语言模型的语音识别过程中。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘,硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例的方法。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (6)
1.一种神经网络语言模型的训练方法,其特征在于,包括:
对待训练的神经网络语言模型的参数进行初始化,获取初始化后的参数;
根据给定的训练文本句子和所述初始化后的参数,获取输出层的状态矢量;
根据所述输出层的状态矢量和初始化后的参数,获取输出层的归一化因子;
根据所述归一化因子确定所述训练文本句子中待识别词语的预测概率;
采用所述归一化因子对目标代价函数进行修正,获取修正后的目标代价函数,其中,所述目标代价函数根据所述预测概率获得;
根据所述修正后的目标代价函数对所述初始化后的参数进行更新,获取所述待训练的神经网络语言模型训练后的目标参数,其中,目标参数使得训练后的神经网络语言模型中归一化因子为常数。
2.根据权利要求1所述的神经网络语言模型的训练方法,其特征在于,采用所述归一化因子以及如下公式对目标代价函数进行修正,获取修正后的目标代价函数:
其中,为修正后的目标代价函数,Θ为待训练的神经网络语言模型的参数集合;J(Θ)为目标代价函数;为以归一化因子为参数的修正函数,zt为归一化因子,η为惩罚因子,|T|为总输入个数。
3.根据权利要求1所述的神经网络语言模型的训练方法,其特征在于,采用所述归一化因子以及如下公式对目标代价函数进行修正,获取修正后的目标代价函数:
其中,为修正后的目标代价函数,Θ为待训练的神经网络语言模型的参数集合;J(Θ)为目标代价函数;为以归一化因子为参数的修正函数,vt=log(zt),,zt为归一化因子,η为惩罚因子,|T|为总输入个数。
4.根据权利要求1-3中任意一项所述的神经网络语言模型的训练方法,其特征在于,所述目标参数使得训练后的神经网络语言模型中归一化因子为1。
5.一种神经网络语言模型的训练装置,其特征在于,包括:
初始化模块,对待训练的神经网络语言模型的参数进行初始化,获取初始化后的参数;
第一获取模块,用于根据给定的训练文本句子和所述初始化模块获取的初始化后的参数,获取输出层的状态矢量;
第二获取模块,根据所述第一获取模块获取的输出层的状态矢量和初始化模块获取的参数,获取输出层的归一化因子;
第三获取模块,用于根据所述第二获取模块获取的归一化因子确定所述训练文本句子中待识别词语的预测概率;
修正模块,用于根据所述第三获取模块确定的预测概率获取目标代价函数,采用所述第二获取模块获取的归一化因子对目标代价函数进行修正,获取修正后的目标代价函数;
更新模块,用于根据所述修正模块修正后的目标代价函数对所述初始化模块获取的参数进行更新,获取所述待训练的神经网络语言模型训练后的目标参数,其中,目标参数使得训练后的神经网络语言模型中归一化因子为常数。
6.一种语音识别方法,其特征在于,包括:采用声学模型进行声学观测匹配的步骤,以及采用神经网络语言模型进行约束搜索空间的步骤;其中,所述神经网络语言模型为采用权利要求1-3中任意一项所述的神经网络语言模型的训练方法获取的语言模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310349690.7A CN104376842A (zh) | 2013-08-12 | 2013-08-12 | 神经网络语言模型的训练方法、装置以及语音识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310349690.7A CN104376842A (zh) | 2013-08-12 | 2013-08-12 | 神经网络语言模型的训练方法、装置以及语音识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104376842A true CN104376842A (zh) | 2015-02-25 |
Family
ID=52555716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310349690.7A Pending CN104376842A (zh) | 2013-08-12 | 2013-08-12 | 神经网络语言模型的训练方法、装置以及语音识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104376842A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105575389A (zh) * | 2015-12-07 | 2016-05-11 | 百度在线网络技术(北京)有限公司 | 模型训练方法、系统和装置 |
CN105843868A (zh) * | 2016-03-17 | 2016-08-10 | 浙江大学 | 一种基于语言模型的医案搜索方法 |
CN106856092A (zh) * | 2015-12-09 | 2017-06-16 | 中国科学院声学研究所 | 基于前向神经网络语言模型的汉语语音关键词检索方法 |
CN107123417A (zh) * | 2017-05-16 | 2017-09-01 | 上海交通大学 | 基于鉴别性训练的定制语音唤醒优化方法及系统 |
CN107785016A (zh) * | 2016-08-31 | 2018-03-09 | 株式会社东芝 | 训练神经网络辅助模型的方法和装置及语音识别方法和装置 |
CN108039168A (zh) * | 2017-12-12 | 2018-05-15 | 科大讯飞股份有限公司 | 声学模型优化方法及装置 |
CN108205699A (zh) * | 2016-12-20 | 2018-06-26 | 谷歌有限责任公司 | 生成用于神经网络输出层的输出 |
CN108701452A (zh) * | 2016-02-02 | 2018-10-23 | 日本电信电话株式会社 | 音频模型学习方法、语音识别方法、音频模型学习装置、语音识别装置、音频模型学习程序及语音识别程序 |
CN108960407A (zh) * | 2018-06-05 | 2018-12-07 | 出门问问信息科技有限公司 | 递归神经网路语言模型训练方法、装置、设备及介质 |
CN109003603A (zh) * | 2017-10-30 | 2018-12-14 | 上海寒武纪信息科技有限公司 | 语音识别方法及相关产品 |
CN109523995A (zh) * | 2018-12-26 | 2019-03-26 | 出门问问信息科技有限公司 | 语音识别方法、语音识别装置、可读存储介质和电子设备 |
CN110100244A (zh) * | 2016-10-18 | 2019-08-06 | 三星电子株式会社 | 电子装置及其控制方法 |
CN110532562A (zh) * | 2019-08-30 | 2019-12-03 | 联想(北京)有限公司 | 神经网络训练方法、成语误用检测方法、装置和电子设备 |
CN111144101A (zh) * | 2019-12-26 | 2020-05-12 | 北大方正集团有限公司 | 错别字处理方法和装置 |
WO2021000675A1 (zh) * | 2019-07-04 | 2021-01-07 | 平安科技(深圳)有限公司 | 机器阅读理解中文的方法、装置和计算机设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103117060A (zh) * | 2013-01-18 | 2013-05-22 | 中国科学院声学研究所 | 用于语音识别的声学模型的建模方法、建模系统 |
-
2013
- 2013-08-12 CN CN201310349690.7A patent/CN104376842A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103117060A (zh) * | 2013-01-18 | 2013-05-22 | 中国科学院声学研究所 | 用于语音识别的声学模型的建模方法、建模系统 |
Non-Patent Citations (3)
Title |
---|
TOMAS MIKOLOV, MARTIN KARAFIAT, LUKAS BURGET, JAN HONZA CERNOCKY: "Extensions of recurrent neural work network language model", <ICASSP 2011> * |
TOMAS MIKOLOV, MARTIN KARAFIAT, LUKAS BURGET, JAN HONZA CERNOCKY: "Recurrent neural network based language model", <INTERSPEECH 2010> * |
何亮: "《硕士学位论文》", 31 January 2012 * |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105575389B (zh) * | 2015-12-07 | 2019-07-30 | 百度在线网络技术(北京)有限公司 | 模型训练方法、系统和装置 |
CN105575389A (zh) * | 2015-12-07 | 2016-05-11 | 百度在线网络技术(北京)有限公司 | 模型训练方法、系统和装置 |
CN106856092A (zh) * | 2015-12-09 | 2017-06-16 | 中国科学院声学研究所 | 基于前向神经网络语言模型的汉语语音关键词检索方法 |
CN106856092B (zh) * | 2015-12-09 | 2019-11-15 | 中国科学院声学研究所 | 基于前向神经网络语言模型的汉语语音关键词检索方法 |
CN108701452B (zh) * | 2016-02-02 | 2023-09-26 | 日本电信电话株式会社 | 音频模型学习方法、语音识别方法、音频模型学习装置、语音识别装置及记录介质 |
CN108701452A (zh) * | 2016-02-02 | 2018-10-23 | 日本电信电话株式会社 | 音频模型学习方法、语音识别方法、音频模型学习装置、语音识别装置、音频模型学习程序及语音识别程序 |
CN105843868A (zh) * | 2016-03-17 | 2016-08-10 | 浙江大学 | 一种基于语言模型的医案搜索方法 |
CN107785016A (zh) * | 2016-08-31 | 2018-03-09 | 株式会社东芝 | 训练神经网络辅助模型的方法和装置及语音识别方法和装置 |
CN110100244B (zh) * | 2016-10-18 | 2023-08-01 | 三星电子株式会社 | 电子装置及其控制方法 |
CN110100244A (zh) * | 2016-10-18 | 2019-08-06 | 三星电子株式会社 | 电子装置及其控制方法 |
CN108205699A (zh) * | 2016-12-20 | 2018-06-26 | 谷歌有限责任公司 | 生成用于神经网络输出层的输出 |
CN108205699B (zh) * | 2016-12-20 | 2021-09-14 | 谷歌有限责任公司 | 生成用于神经网络输出层的输出 |
CN107123417B (zh) * | 2017-05-16 | 2020-06-09 | 上海交通大学 | 基于鉴别性训练的定制语音唤醒优化方法及系统 |
CN107123417A (zh) * | 2017-05-16 | 2017-09-01 | 上海交通大学 | 基于鉴别性训练的定制语音唤醒优化方法及系统 |
US11922132B2 (en) | 2017-10-30 | 2024-03-05 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and terminal device |
US11762631B2 (en) | 2017-10-30 | 2023-09-19 | Shanghai Cambricon Information Technology Co., Ltd. | Information processing method and terminal device |
CN109003603A (zh) * | 2017-10-30 | 2018-12-14 | 上海寒武纪信息科技有限公司 | 语音识别方法及相关产品 |
CN108039168B (zh) * | 2017-12-12 | 2020-09-11 | 科大讯飞股份有限公司 | 声学模型优化方法及装置 |
CN108039168A (zh) * | 2017-12-12 | 2018-05-15 | 科大讯飞股份有限公司 | 声学模型优化方法及装置 |
CN108960407A (zh) * | 2018-06-05 | 2018-12-07 | 出门问问信息科技有限公司 | 递归神经网路语言模型训练方法、装置、设备及介质 |
CN108960407B (zh) * | 2018-06-05 | 2019-07-23 | 出门问问信息科技有限公司 | 递归神经网路语言模型训练方法、装置、设备及介质 |
CN109523995A (zh) * | 2018-12-26 | 2019-03-26 | 出门问问信息科技有限公司 | 语音识别方法、语音识别装置、可读存储介质和电子设备 |
CN109523995B (zh) * | 2018-12-26 | 2019-07-09 | 出门问问信息科技有限公司 | 语音识别方法、语音识别装置、可读存储介质和电子设备 |
WO2021000675A1 (zh) * | 2019-07-04 | 2021-01-07 | 平安科技(深圳)有限公司 | 机器阅读理解中文的方法、装置和计算机设备 |
CN110532562B (zh) * | 2019-08-30 | 2021-07-16 | 联想(北京)有限公司 | 神经网络训练方法、成语误用检测方法、装置和电子设备 |
CN110532562A (zh) * | 2019-08-30 | 2019-12-03 | 联想(北京)有限公司 | 神经网络训练方法、成语误用检测方法、装置和电子设备 |
CN111144101A (zh) * | 2019-12-26 | 2020-05-12 | 北大方正集团有限公司 | 错别字处理方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104376842A (zh) | 神经网络语言模型的训练方法、装置以及语音识别方法 | |
Wang et al. | A bi-model based rnn semantic frame parsing model for intent detection and slot filling | |
US10565983B2 (en) | Artificial intelligence-based acoustic model training method and apparatus, device and storage medium | |
CN105930318B (zh) | 一种词向量训练方法及系统 | |
CN103400577B (zh) | 多语种语音识别的声学模型建立方法和装置 | |
CN103049792B (zh) | 深层神经网络的辨别预训练 | |
CN104978587B (zh) | 一种基于文档类型的实体识别合作学习算法 | |
CN110444208A (zh) | 一种基于梯度估计和ctc算法的语音识别攻击防御方法及装置 | |
EP3593290A1 (en) | Feedforward generative neural networks | |
CN109977234A (zh) | 一种基于主题关键词过滤的知识图谱补全方法 | |
CN108133705A (zh) | 基于对偶学习的语音识别与语音合成模型训练方法 | |
CN104751227B (zh) | 用于语音识别的深度神经网络的构建方法及系统 | |
CN105654939A (zh) | 一种基于音向量文本特征的语音合成方法 | |
CN109616093A (zh) | 端对端语音合成方法、装置、设备及存储介质 | |
WO2018153200A1 (zh) | 基于hlstm模型的声学建模方法、装置和存储介质 | |
CN112420024A (zh) | 一种全端到端的中英文混合空管语音识别方法及装置 | |
CN101650943A (zh) | 一种非母语语音识别系统及方法 | |
CN104572614A (zh) | 一种语言模型的训练方法及系统 | |
CN106445915A (zh) | 一种新词发现方法及装置 | |
CN104699797A (zh) | 一种网页数据结构化解析方法和装置 | |
JP2022173453A (ja) | ディープラーニングモデルのトレーニング方法、自然言語処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN111177341A (zh) | 一种基于端到端的id+sf模型的用户对话需求提取方法及系统 | |
CN111914555B (zh) | 基于Transformer结构的自动化关系抽取系统 | |
JP2023025126A (ja) | 深層学習モデルのトレーニング方法及び装置、テキストデータ処理方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
CN103559289A (zh) | 语种无关的关键词检索方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150225 |