CN113129870B - 语音识别模型的训练方法、装置、设备和存储介质 - Google Patents
语音识别模型的训练方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN113129870B CN113129870B CN202110308608.0A CN202110308608A CN113129870B CN 113129870 B CN113129870 B CN 113129870B CN 202110308608 A CN202110308608 A CN 202110308608A CN 113129870 B CN113129870 B CN 113129870B
- Authority
- CN
- China
- Prior art keywords
- text
- probability
- model
- candidate
- speech recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
Abstract
本公开公开了一种语音识别模型的训练方法、装置、设备和存储介质,涉及计算机技术领域,具体涉及语音识别、深度学习等技术领域。语音识别模型的训练方法包括:基于声学解码模型和语言模型,获得语音对应的至少一个候选文本的融合概率;基于所述融合概率,选择预设个数的候选文本,并基于所述预设个数的候选文本确定预测文本;基于所述预测文本和所述语音对应的标准文本,获得损失函数,并基于所述损失函数训练所述语音识别模型。本公开可以提高语音识别模型的识别准确度。
Description
技术领域
本公开涉及计算机技术领域,具体涉及语音识别、深度学习等技术领域,尤其涉及一种语音识别模型的训练方法、装置、设备和存储介质。
背景技术
自动语音识别(Automatic Speech Recognition,ASR)是一种将语音转换为文本的技术。不同于传统ASR方案将语音识别任务分为多个子任务,端到端的语音识别模型的输入是声学特征,输出直接是自然语言文本,从而简化模型训练过程。
端到端的语音识别模型可以是序列到序列(Seq2Seq)模型,序列到序列模型包括解码器(decoder),训练端到端的语音识别模型时,解码器可以采用集束搜索(beamsearch)方式,获取多个解码结果。
相关技术中,解码器在集束搜索(beam search)时,输入仅包括前一时刻的输出文本以及声学相关信息。
发明内容
本公开提供了一种语音识别模型的训练方法、装置、设备和存储介质。
根据本公开的一方面,提供了一种语音识别模型的训练方法,包括:基于声学解码模型和语言模型,计算至少一个候选文本的融合概率,所述候选文本为语音对应的候选文本;基于所述融合概率,选择预设个数的候选文本,并基于所述预设个数的候选文本确定预测文本;基于所述语音对应的标准文本和所述预测文本,计算损失函数,并基于所述损失函数训练语音识别模型。
根据本公开的另一方面,提供了一种语音识别模型的训练装置,包括:处理模块,用于基于声学解码模型和语言模型,计算至少一个候选文本的融合概率,所述候选文本为语音对应的候选文本;确定模块,用于基于所述融合概率,选择预设个数的候选文本,并基于所述预设个数的候选文本确定预测文本;训练模块,用于基于所述语音对应的标准文本和所述预测文本,计算损失函数,并基于所述损失函数训练语音识别模型。
根据本公开的另一方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上述任一方面的任一项所述的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据上述任一方面的任一项所述的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据上述任一方面的任一项所述的方法。
根据本公开的技术方案,可以提高语音识别模型的识别准确度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是根据本公开第四实施例的示意图;
图5是根据本公开第五实施例的示意图;
图6是根据本公开第六实施例的示意图;
图7是用来实现本公开实施例的语音识别模型的训练方法中任一方法的电子设备的示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本公开第一实施例的示意图,本实施例提供一种语音识别模型的训练方法,所述语音识别模型包括声学解码器和语言模型,该方法包括:
101、基于所述声学解码模型和所述语言模型,获得语音对应的至少一个候选文本的融合概率。
102、基于所述融合概率,选择预设个数的候选文本,并基于所述预设个数的候选文本确定预测文本。
103、基于所述预测文本和所述语音对应的标准文本,获得损失函数,并基于所述损失函数训练所述语音识别模型。
本公开实施例中,语音识别模型可以具体为端到端的语音识别模型,端到端的语音识别模型可以具体为基于注意力(attention-based)的序列到序列模型。
如图2所示,端到端的语音识别模型可以包括编码器(encoder)201、注意力模型(attention)202和解码器203。编码器201的输入为声学特征,用向量x表示,声学特征可以采用各种相关技术对语音进行特征提取后得到,比如,对语音信号进行分帧后,逐帧提取的Filterbank特征。编码器201对声学特征进行编码,以得到编码特征,编码特征用向量henc表示。注意力模型202为不同的编码特征分配不同的权重,以得到注意力处理后的特征,用向量cu表示,其中,u是时间信息(step)的索引。解码器203输出文本,文本输出时可以逐字符进行输出,即解码器203基于输入特征得到输出文本序列,输入特征包括前一时刻的输出文本yu-1和注意力模型202输出的cu,解码器203的输出为当前时刻的输出文本yu。进一步地,yu可以包括起始字符[SOS]和终止字符[EOS]。比如,语音为“今天天气”,则可以依据起始字符[SOS]预测“今”,依据“今”预测“天”,依此类推,直至输出终止字符[EOS]。
注意力模型的输出可以理解为类似传统ASR方案中的声学模型的输出,因此,注意力模型的输出cu可以理解为声学相关信息,相关技术中,解码器的输入仅包括前一时刻的输出文本yu-1和声学相关信息cu,相应地,相关技术中的解码器可以理解为仅包括声学解码模型。
而本公开实施例中,参见图2,在解码时,不仅依赖声学相关信息,还依赖语言相关信息。如图2所示,解码器不仅包括声学解码模型,还包括语言模型(Language Model,LM),LM用于基于前一时刻的输出文本预测当前时刻的输出文本。声学解码模型的输出节点的个数与候选文本的总数相同,语言模型的输出节点的个数也与候选文本的总数相同,候选文本的个数可以为一个或多个,多个是指至少两个。比如,候选文本为M个,则声学解码模型的输出节点和语言模型的输出节点的个数均为M,声学解码模型的输出和语言模型的输出可以分别经过softmax处理,以得到[0,1]之间的数值,当候选文本为一个时,该数值即为该一个候选文本为标准文本的概率;一般来讲,候选文本为多个,则需要确定多个候选文本中各个候选文本对应的概率,以确定各个候选文本对应的概率为例进行说明,即该数值为各个候选文本为标准文本的概率,标准文本是指语音对应的正确文本。为了区分,经过softmax处理后的声学解码模型的输出可以称为第一概率P1,经过softmax处理后的语言模型的输出可以称为第二概率P2,之后,可以基于第一概率P1和第二概率P2,计算各个候选文本的融合概率P,比如,对第一概率P1和第二概率P2进行加权求和,将加权求和值作为融合概率P。加权求和时的加权系数可以根据实际需求设置。其中,在计算融合概率时,是对应各个候选文本进行计算,比如,对应候选文本“今”,可以采用声学解码模型确定“今”的第一概率,采用语言模型确定“今”的第二概率,再基于“今”的第一概率和“今”的第二概率,计算“今”的融合概率。
在得到各个候选文本的融合概率后,假设beam search的宽度为N,则可以按照融合概率从大到小的顺序选择N个候选文本。比如,“今天天气”,预测第一个时刻的输出字符时,候选文本可以包括:“今”、“金”、“斤”,假设,“今”的融合概率是0.7,“金”的融合概率是0.2,“斤”的融合概率是0.1,若N=2,则可以选择“今”、“金”。
在选择N个候选文本后,可以基于N个候选文本确定预测文本。比如,可以直接将N个候选文本作为预测文本。比如,对应第一个时刻,将“今”和“金”作为预测文本。
在得到预测文本后,可以基于预测文本和标准文本计算损失函数。标准文本是指语音的正确文本,可以采用人工标注的方式得到,比如,上述示例中,标准文本是“今天天气”。损失函数可以是区分度训练算法中采用的损失函数,具体形式可以根据实际需求选择,比如交叉熵函数等,本公开实施例中,以损失函数为词错误率(word error rate)函数为例。用公式表示为:
其中,是损失函数;yi是第i个预测文本,共有N个预测文本;y*是标准文本;W(yi,y*)是第i个预测文本的错误数,即yi相对于y*的错误数;是N个预测文本的平均错误数;是归一化后的值,P(yi|x)是输出字符yi的分布概率,比如为yi的融合概率P。
在得到损失函数后,可以基于损失函数训练语音识别模型,即,语音识别模型采用随机方式或者加载预训练模型的方式进行初始化,在初始化后,调整语音识别模型的参数,直至损失函数收敛,将损失函数收敛时的语音识别模型作为最终得到的语音识别模型。语音识别模型包括编码器、注意力模型和解码器,解码器包括声学解码模型和语言模型,编码器、声学解码模型和语言模型可以均为深度神经网络模型,具体模型结构可以根据实际需求选择,比如,编码器、声学解码器模型和语言模型均为循环神经网络(Recurrent NeuralNetwork,RNN)模型,注意力模型采用多头注意力模型(multi-headed attention)。
本实施例中,通过基于声学解码模型和语言模型计算候选文本的融合概率,并基于融合概率选择候选文本,可以在选择候选文本时不仅参考声学相关信息,还参考语言模型的相关信息,从而提高语音识别模型的识别准确度。
图3是根据本公开第三实施例的示意图,本实施例提供一种语音识别模型的训练方法,本实施例以逐字符输出为例,结合图2所示的结构,该方法包括:
301、提取语音的声学特征。
语音比如为“今天天气”对应的语音。
可以采用各种相关技术提取声学特征,声学特征比如为FilterBank特征。
302、采用编码器,对所述声学特征进行编码,以得到编码特征。
编码器可以为一种RNN模型,比如为长短期记忆网络(Long Short-Term Memory,LSTM)模型。
303、采用注意力模型,对所述编码特征进行注意力处理,以得到注意力处理后的特征。
注意力模型可以采用各种相关技术中的模型,比如为多头注意力模型。
本实施例中,通过提取声学特征、对声学特征进行编码,以及对编码特征进行注意力处理,可以得到语义特征,以便对语义特征进行解码得到预测文本,从而可以基于预测文本训练语音识别模型。
304、采用声学解码模型,对前一时刻的输出字符以及所述注意力处理后的特征进行处理,以获得所述语音对应的至少一个候选文本中的各个候选文本对应的第一概率。
声学解码模型可以为一种RNN模型,比如为长短期记忆网络(Long Short-TermMemory,LSTM)模型。
比如,语音是“今天天气”对应的语音,当前时刻是预测“今”,则可以采用声学解码模型,基于起始字符[SOS]以及当前时刻注意力处理后的特征c1进行处理,以得到各个候选文本对应的第一概率,比如,各个候选文本包括:今,金等,则可以预测得到今的第一概率,金的第一概率等。
305、采用语言模型,对前一时刻的输出字符进行处理,以获得所述各个候选文本对应的第二概率。
语言模型可以是一种神经网络模型,比如为RNN模型、Transformer模型等。
比如,当前时刻是预测“今”,则可以采用语言模型,基于起始字符[SOS]进行处理,以得到各个候选文本对应的第二概率,比如,各个候选文本包括:今,金等,则可以预测得到今的第二概率,金的第二概率等。
306、基于所述第一概率和所述第二概率,获得所述各个候选文本对应的融合概率。
具体地,可以对应所述各个候选文本,对所述第一概率和所述第二概率进行加权求和,以得到加权求和值,将所述加权求和值确定为对应的候选文本的融合概率。
比如,对应“今”,对“今”的第一概率和第二概率进行加权求和后,得到“今”的融合概率。
本实施例中,通过对第一概率和第二概率加权求和得到融合概率,可以简便地实现融合概率的计算。
307、基于所述融合概率,选择预设个数的候选文本。
具体地,可以按照融合概率从大到小的顺序,选择个数为beam search的宽度的候选文本,比如,beam search的宽度用N表示,假设N=2,对应第一时刻,假设“今”和“金”的融合概率是较高的两个,则选择“今”和“金”作为第一时刻的候选文本。
308、判断所述预设个数的候选文本中是否存在所述语音对应的标准文本,若是,执行309,否则执行310。
语音对应的标准文本可以采用人工标注的方式得到,比如,对应第一时刻,标准文本为“今”。
309、将所述预设个数的候选文本确定为预测文本。
310、用所述标准文本替代所述预设个数的候选文本中的一个候选文本,以得到替代后的文本,将所述替代后的文本确定为预测文本。
比如,对应第一时刻,标准文本为“今”,而选择的N个候选文本中为“金”和“斤”,不包括“今”,则可以强制预测文本中包括标准文本“今”。具体地,可以采用代码的方式,在指定的输出路径或者随机选择的输出路径中,用标准文本替代之前的候选文本,比如,用“今”替代“斤”,则预测文本为“今”和“金”。
相关技术中,区分度训练时,一般是,对于高于平均错误率的候选文本进行打压,对低于平均错误率的候选文本进行鼓励。但是,若N个候选文本中没有完全正确的结果,就会出现鼓励错误结果的问题。
本实施例中,通过用标准文本替代候选文本的方式,可以强制预测文本中包括标准文本,提升语音识别模型的识别效果。
311、基于所述语音对应的标准文本和所述预测文本,获得所述预测文本的累加错误数,所述累加错误数基于历史错误数和当前错误数得到。
当前错误数是指当前时刻的预测文本相对于标准文本的错误数,历史错误数是指当前时刻之前的历史时刻的预测文本相对于标准文本的错误数。
比如,参见图4,标准文本为“今天天气”,相关技术中,如图4上侧所示,在计算错误数时,依据整句进行,由于三个预测文本的整句错误数(全局错误数)都是1,则无法进行局部的错误调优。
而本实施例中,如图4的下侧所示,是基于每个时刻计算错误数,比如,针对第一时刻,计算“今”“金”的错误数;针对第二时刻,计算“今”和“天”的累加错误数,以及,“金”和“天”的累加错误数,针对第三时刻,计算“今”、“天”和“天”的累加错误数,“金”、“天”和“天”的累加错误数,以及,今”、“天”和“添”的累加错误数依此类推,直至整句结束。
本实施例中,通过计算累加错误数,可以实现局部的错误调优。
312、基于所述预测文本的累加错误数,获得损失函数。
313、基于所述损失函数,训练语音识别模型。
本实施例中,通过采用声学解码模型计算第一概率,以及采用语言模型计算第二概率,基于第一概率和第二概率得到融合概率,以及基于融合概率选择候选文本,可以得到更准确的候选文本,进而提升语音识别模型的识别效果。
图5是本公开第五实施例的示意图,本实施例提供一种语音识别模型的训练装置,该装置500包括:处理模块501、确定模块502和训练模块503。处理模块501用于基于所述声学解码模型和所述语言模型,获得语音对应的至少一个候选文本的融合概率;确定模块502用于基于所述融合概率,选择预设个数的候选文本,并基于所述预设个数的候选文本确定预测文本;训练模块503用于基于所述预测文本和所述语音对应的标准文本,获得损失函数,并基于所述损失函数训练所述语音识别模型。
一些实施例中,所述处理模块501具体用于:采用所述声学解码模型,对前一时刻的输出文本和当前时刻的声学相关信息进行处理,以获得语音对应的至少一个候选文本对应的第一概率;采用所述语言模型,对前一时刻的输出文本进行处理,以获得所述候选文本对应的第二概率;基于所述第一概率和所述第二概率,获得所述候选文本的融合概率。
一些实施例中,所述处理模块501进一步具体用于:对应所述候选文本,对所述第一概率和所述第二概率进行加权求和,以得到加权求和值,将所述加权求和值确定为对应的候选文本的融合概率。
一些实施例中,所述确定模块502具体用于:若所述预设个数的候选文本中包括所述标准文本,则将所述预设个数的候选文本确定为预测文本;或者,若所述预设个数的候选文本中不包括所述标准文本,则用所述标准文本替代所述预设个数的候选文本中的一个候选文本,以得到替代后的文本,将所述替代后的文本确定为预测文本。
一些实施例中,所述训练模块503具体用于:基于所述预测文本和所述语音对应的标准文本,获得所述预测文本的累加错误数,所述累加错误数基于历史错误数和当前错误数得到;基于所述预测文本的累加错误数,获得损失函数。
一些实施例中,如图6所示,还提供了一种语音识别模型的训练装置,该装置600包括:处理模块601、确定模块602和训练模块603,还包括:提取模块604、编码模块605和注意力处理模块606。
提取模块604用于提取所述语音的声学特征;编码模块605用于对所述声学特征进行编码,以得到编码特征;注意力处理模块606用于对所述编码特征进行处理,以得到所述注意力处理后的特征。
本公开实施例中,通过提取声学特征、对声学特征进行编码,以及对编码特征进行注意力处理,可以得到语义特征,以便对语义特征进行解码得到预测文本,从而可以基于预测文本训练语音识别模型。通过采用声学解码模型计算第一概率,以及采用语言模型计算第二概率,基于第一概率和第二概率得到融合概率,以及基于融合概率选择候选文本,可以得到更准确的候选文本,进而提升语音识别模型的识别效果。通过对第一概率和第二概率加权求和得到融合概率,可以简便地实现融合概率的计算。通过计算累加错误数,可以实现局部的错误调优。
可以理解的是,本公开实施例中,不同实施例中的相同或相似内容可以相互参考。
可以理解的是,本公开实施例中的“第一”、“第二”等只是用于区分,不表示重要程度高低、时序先后等。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,电子设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储电子设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
电子设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许电子设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如语音识别模型的训练方法。例如,在一些实施例中,人机对话方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到电子设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的语音识别模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行人机对话方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (10)
1.一种语音识别模型的训练方法,所述语音识别模型包括声学解码模型和语言模型,所述语音识别模型为端到端的语音识别模型,所述端到端的语音识别模型包括解码器,且,所述声学解码模型和所述语言模型位于所述解码器内,所述语言模型用于基于前一时刻的输出文本预测当前时刻的输出文本,所述方法包括:
基于所述声学解码模型和所述语言模型,获得语音对应的至少一个候选文本的融合概率,所述声学解码模型用于预测当前时刻输出文本,且,所述声学解码模型的输入包括所述当前时刻的前一时刻的输出文本;
基于所述融合概率,选择预设个数的候选文本,并基于所述预设个数的候选文本确定预测文本,其中,所述预设个数为多个;
基于所述预测文本和所述语音对应的标准文本,获得损失函数,并基于所述损失函数训练所述语音识别模型;
其中,所述基于所述预设个数的候选文本确定预测文本,包括:
若所述预设个数的候选文本中包括所述标准文本,则将所述预设个数的候选文本确定为预测文本;若所述预设个数的候选文本中不包括所述标准文本,则用所述标准文本替代所述预设个数的候选文本中的一个候选文本,以得到替代后的文本,将所述替代后的文本确定为预测文本;
其中,所述基于所述预测文本和所述语音对应的标准文本,获得损失函数,包括:
基于所述预测文本和所述语音对应的标准文本,获得所述预测文本的累加错误数,所述累加错误数基于历史错误数和当前错误数得到;
基于所述预测文本的累加错误数,获得损失函数。
2.根据权利要求1所述的方法,其中,所述基于所述声学解码模型和所述语言模型,获得语音对应的至少一个候选文本的融合概率,包括:
采用所述声学解码模型,对前一时刻的输出文本和当前时刻的声学相关信息进行处理,以获得语音对应的至少一个候选文本对应的第一概率;
采用所述语言模型,对前一时刻的输出文本进行处理,以获得所述候选文本对应的第二概率;
基于所述第一概率和所述第二概率,获得所述候选文本的融合概率。
3.根据权利要求2所述的方法,其中,所述基于所述第一概率和所述第二概率,获得所述候选文本的融合概率,包括:
对应所述候选文本,对所述第一概率和所述第二概率进行加权求和,以得到加权求和值,将所述加权求和值确定为对应的候选文本的融合概率。
4.根据权利要求1-3任一项所述的方法,其中,所述语音识别模型还包括:编码器和注意力模型,所述声学相关信息为注意力处理后的特征,所述方法还包括:
提取所述语音的声学特征;
采用所述编码器,对所述声学特征进行编码,以得到编码特征;
采用所述注意力模型,对所述编码特征进行注意力处理,以得到所述注意力处理后的特征。
5.一种语音识别模型的训练装置,所述语音识别模型包括声学解码模型和语言模型,所述语音识别模型为端到端的语音识别模型,所述端到端的语音识别模型包括解码器,且,所述声学解码模型和所述语言模型位于所述解码器内,所述语言模型用于基于前一时刻的输出文本预测当前时刻的输出文本,所述装置包括:
处理模块,用于基于所述声学解码模型和所述语言模型,获得语音对应的至少一个候选文本的融合概率,所述声学解码模型用于预测当前时刻输出文本,且,所述声学解码模型的输入包括所述当前时刻的前一时刻的输出文本;
确定模块,用于基于所述融合概率,选择预设个数的候选文本,并基于所述预设个数的候选文本确定预测文本,其中,所述预设个数为多个;
训练模块,用于基于所述预测文本和所述语音对应的标准文本,获得损失函数,并基于所述损失函数训练所述语音识别模型;
其中,所述确定模块具体用于:
若所述预设个数的候选文本中包括所述标准文本,则将所述预设个数的候选文本确定为预测文本;
若所述预设个数的候选文本中不包括所述标准文本,则用所述标准文本替代所述预设个数的候选文本中的一个候选文本,以得到替代后的文本,将所述替代后的文本确定为预测文本;
其中,所述训练模块具体用于:
基于所述预测文本和所述语音对应的标准文本,获得所述预测文本的累加错误数,所述累加错误数基于历史错误数和当前错误数得到;
基于所述预测文本的累加错误数,获得损失函数。
6.根据权利要求5所述的装置,其中,所述处理模块具体用于:
采用所述声学解码模型,对前一时刻的输出文本和当前时刻的声学相关信息进行处理,以获得语音对应的至少一个候选文本对应的第一概率;
采用所述语言模型,对前一时刻的输出文本进行处理,以获得所述候选文本对应的第二概率;
基于所述第一概率和所述第二概率,获得所述候选文本的融合概率。
7.根据权利要求6所述的装置,其中,所述处理模块进一步具体用于:
对应所述候选文本,对所述第一概率和所述第二概率进行加权求和,以得到加权求和值,将所述加权求和值确定为对应的候选文本的融合概率。
8.根据权利要求5-7任一项所述的装置,其中,所述语音识别模型还包括:编码器和注意力模型,所述声学相关信息为注意力处理后的特征,所述装置还包括:
提取模块,用于提取所述语音的声学特征;
编码模块,用于对所述声学特征进行编码,以得到编码特征;
注意力处理模块,用于对所述编码特征进行处理,以得到所述注意力处理后的特征。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-4中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110308608.0A CN113129870B (zh) | 2021-03-23 | 2021-03-23 | 语音识别模型的训练方法、装置、设备和存储介质 |
EP22150464.0A EP4064277B1 (en) | 2021-03-23 | 2022-01-06 | Method and apparatus for training speech recognition model, device and storage medium |
US17/571,805 US20220310064A1 (en) | 2021-03-23 | 2022-01-10 | Method for training speech recognition model, device and storage medium |
KR1020220004740A KR20220132414A (ko) | 2021-03-23 | 2022-01-12 | 음성 인식 모델의 트레이닝 방법, 장치, 기기 및 기록 매체 |
JP2022025648A JP7346788B2 (ja) | 2021-03-23 | 2022-02-22 | 音声認識モデルのトレーニング方法、装置、機器、および記憶媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110308608.0A CN113129870B (zh) | 2021-03-23 | 2021-03-23 | 语音识别模型的训练方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113129870A CN113129870A (zh) | 2021-07-16 |
CN113129870B true CN113129870B (zh) | 2022-03-25 |
Family
ID=76773806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110308608.0A Active CN113129870B (zh) | 2021-03-23 | 2021-03-23 | 语音识别模型的训练方法、装置、设备和存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220310064A1 (zh) |
EP (1) | EP4064277B1 (zh) |
JP (1) | JP7346788B2 (zh) |
KR (1) | KR20220132414A (zh) |
CN (1) | CN113129870B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113850291B (zh) * | 2021-08-18 | 2023-11-24 | 北京百度网讯科技有限公司 | 文本处理及模型训练方法、装置、设备和存储介质 |
CN113611311A (zh) * | 2021-08-20 | 2021-11-05 | 天津讯飞极智科技有限公司 | 语音转写方法、装置、录音设备和存储介质 |
CN113889088B (zh) * | 2021-09-28 | 2022-07-15 | 北京百度网讯科技有限公司 | 训练语音识别模型的方法及装置、电子设备和存储介质 |
CN115116437B (zh) * | 2022-04-07 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 语音识别方法、装置、计算机设备、存储介质及产品 |
KR102478763B1 (ko) * | 2022-06-28 | 2022-12-19 | (주)액션파워 | 자소 정보를 이용한 음성 인식 방법 |
CN115132209B (zh) * | 2022-09-01 | 2022-11-08 | 北京百度网讯科技有限公司 | 语音识别方法、装置、设备和介质 |
CN117116264A (zh) * | 2023-02-20 | 2023-11-24 | 荣耀终端有限公司 | 一种语音识别方法、电子设备以及介质 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160336007A1 (en) * | 2014-02-06 | 2016-11-17 | Mitsubishi Electric Corporation | Speech search device and speech search method |
KR20160082150A (ko) * | 2014-12-31 | 2016-07-08 | 한국전자통신연구원 | 불완전 사전을 이용한 자연어 음성 인식 방법 |
CN107578771B (zh) * | 2017-07-25 | 2021-02-02 | 科大讯飞股份有限公司 | 语音识别方法及装置、存储介质、电子设备 |
US10672388B2 (en) | 2017-12-15 | 2020-06-02 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for open-vocabulary end-to-end speech recognition |
JP6831343B2 (ja) | 2018-02-01 | 2021-02-17 | 日本電信電話株式会社 | 学習装置、学習方法及び学習プログラム |
US11145293B2 (en) | 2018-07-20 | 2021-10-12 | Google Llc | Speech recognition with sequence-to-sequence models |
US10810996B2 (en) * | 2018-07-31 | 2020-10-20 | Nuance Communications, Inc. | System and method for performing automatic speech recognition system parameter adjustment via machine learning |
US11170761B2 (en) * | 2018-12-04 | 2021-11-09 | Sorenson Ip Holdings, Llc | Training of speech recognition systems |
CN109754809B (zh) * | 2019-01-29 | 2021-02-09 | 北京猎户星空科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
EP3966808A1 (en) | 2019-05-10 | 2022-03-16 | Google LLC | Using context information with end-to-end models for speech recognition |
CN112242144A (zh) * | 2019-07-17 | 2021-01-19 | 百度在线网络技术(北京)有限公司 | 基于流式注意力模型的语音识别解码方法、装置、设备以及计算机可读存储介质 |
CN110517693B (zh) * | 2019-08-01 | 2022-03-04 | 出门问问(苏州)信息科技有限公司 | 语音识别方法、装置、电子设备和计算机可读存储介质 |
CN110534095B (zh) * | 2019-08-22 | 2020-10-23 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备以及计算机可读存储介质 |
JP7212596B2 (ja) | 2019-09-02 | 2023-01-25 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
WO2021045793A1 (en) * | 2019-09-03 | 2021-03-11 | Google Llc | Using corrections, of predicted textual segments of spoken utterances, for training of on-device speech recognition model |
KR20210044559A (ko) * | 2019-10-15 | 2021-04-23 | 삼성전자주식회사 | 출력 토큰 결정 방법 및 장치 |
CN110956959B (zh) * | 2019-11-25 | 2023-07-25 | 科大讯飞股份有限公司 | 语音识别纠错方法、相关设备及可读存储介质 |
CN111243576B (zh) * | 2020-01-16 | 2022-06-03 | 腾讯科技(深圳)有限公司 | 语音识别以及模型训练方法、装置、设备和存储介质 |
CN111128394B (zh) * | 2020-03-26 | 2020-12-22 | 腾讯科技(深圳)有限公司 | 医疗文本语义识别方法、装置、电子设备及可读存储介质 |
CN111753549B (zh) * | 2020-05-22 | 2023-07-21 | 江苏大学 | 一种基于注意力机制的多模态情感特征学习、识别方法 |
CN112509562B (zh) * | 2020-11-09 | 2024-03-22 | 北京有竹居网络技术有限公司 | 用于文本后处理的方法、装置、电子设备和介质 |
CN112102815B (zh) * | 2020-11-13 | 2021-07-13 | 深圳追一科技有限公司 | 语音识别方法、装置、计算机设备和存储介质 |
US11741944B2 (en) * | 2020-11-24 | 2023-08-29 | Google Llc | Speech personalization and federated training using real world noise |
-
2021
- 2021-03-23 CN CN202110308608.0A patent/CN113129870B/zh active Active
-
2022
- 2022-01-06 EP EP22150464.0A patent/EP4064277B1/en active Active
- 2022-01-10 US US17/571,805 patent/US20220310064A1/en active Pending
- 2022-01-12 KR KR1020220004740A patent/KR20220132414A/ko unknown
- 2022-02-22 JP JP2022025648A patent/JP7346788B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR20220132414A (ko) | 2022-09-30 |
US20220310064A1 (en) | 2022-09-29 |
EP4064277A1 (en) | 2022-09-28 |
JP7346788B2 (ja) | 2023-09-20 |
CN113129870A (zh) | 2021-07-16 |
JP2022151649A (ja) | 2022-10-07 |
EP4064277B1 (en) | 2023-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113129870B (zh) | 语音识别模型的训练方法、装置、设备和存储介质 | |
CN113553864B (zh) | 翻译模型的训练方法、装置、电子设备及存储介质 | |
CN112466288B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN112528655B (zh) | 关键词生成方法、装置、设备及存储介质 | |
CN112559885A (zh) | 地图兴趣点的训练模型确定方法、装置及电子设备 | |
CN113553412A (zh) | 问答处理方法、装置、电子设备和存储介质 | |
CN112966744A (zh) | 模型训练方法、图像处理方法、装置和电子设备 | |
CN115358243A (zh) | 多轮对话识别模型的训练方法、装置、设备及存储介质 | |
CN113407698B (zh) | 意图识别模型的训练与意图识别的方法、装置 | |
CN114861637A (zh) | 拼写纠错模型生成方法和装置、拼写纠错方法和装置 | |
CN113468857A (zh) | 风格转换模型的训练方法、装置、电子设备以及存储介质 | |
CN114758649B (zh) | 一种语音识别方法、装置、设备和介质 | |
CN114067805A (zh) | 声纹识别模型的训练与声纹识别方法及装置 | |
CN114841172A (zh) | 文本匹配双塔模型的知识蒸馏方法、装置及程序产品 | |
CN113204616A (zh) | 文本抽取模型的训练与文本抽取的方法、装置 | |
CN117493514B (zh) | 文本标注方法、装置、电子设备和存储介质 | |
CN114898754B (zh) | 解码图生成、语音识别方法、装置、电子设备及存储介质 | |
CN113553863B (zh) | 文本生成方法、装置、电子设备和存储介质 | |
CN114267377A (zh) | 语音评估方法、训练方法、装置、电子设备以及存储介质 | |
CN117493514A (zh) | 文本标注方法、装置、电子设备和存储介质 | |
CN114254028A (zh) | 事件属性抽取方法、装置、电子设备和存储介质 | |
CN115099240A (zh) | 文本生成模型训练方法和装置、文本生成方法和装置 | |
CN115455940A (zh) | 一种文本纠错方法、装置、电子设备及存储介质 | |
CN115482396A (zh) | 模型训练方法、图像分类方法、装置、设备和介质 | |
CN115482809A (zh) | 关键词检索方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |