CN110689879B - 端到端语音转写模型的训练方法、系统、装置 - Google Patents
端到端语音转写模型的训练方法、系统、装置 Download PDFInfo
- Publication number
- CN110689879B CN110689879B CN201910958727.3A CN201910958727A CN110689879B CN 110689879 B CN110689879 B CN 110689879B CN 201910958727 A CN201910958727 A CN 201910958727A CN 110689879 B CN110689879 B CN 110689879B
- Authority
- CN
- China
- Prior art keywords
- voice
- alignment
- frame
- training
- loss value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 95
- 238000013518 transcription Methods 0.000 title claims abstract description 82
- 230000035897 transcription Effects 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000002372 labelling Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 239000003550 marker Substances 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/148—Duration modelling in HMMs, e.g. semi HMM, segmental models or transition probabilities
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本发明属于电子信号处理技术领域,具体涉及一种端到端语音转写模型的训练方法、系统、装置,旨在解决端到端语音转写模型无法很好的学习语音数据的对齐信息的问题。本系统方法包括提取语音训练数据的特征,得到语音特征序列;通过GMM‑HMM模型对语音特征序列进行强制对齐,得到对齐标注,并对各帧语音特征进行拼接;基于拼接后的语音特征序列和文本标注训练数据,对端到端语音转写模型进行训练,得到预设词表中每个词的概率分布及负对数损失值;获取对齐损失值;将对齐损失值和负对数损失值进行加权平均,得到联合损失值,并通过后向传播算法更新模型的参数;迭代训练模型。本发明能够准确的学习语音数据的对齐信息。
Description
技术领域
本发明属于电子信号处理技术领域,具体涉及一种端到端语音转写模型的训练方法、系统、装置。
背景技术
语音识别作为人机交互的入口,是人工智能领域中一个重要的研究方向。传统的语音识别方法一般使用基于高斯混合模型-隐马尔科夫模型的混合模型(GMM-HMM),整个系统存在很多部件,分别训练,性能难以满足需求。随着深度学习技术的在语音识别中的深入应用,端到端语音识别取得令人瞩目的成绩。尤其是最近提出的基于循环神经网络的端到端语音转写模型(RNN Transducer Model),不仅极大的简化了语音识别系统的步骤,提高了识别精度,而且能够进行流式的解码以应用于在线语音识别任务。但是端到端语音转写模型存在着训练困难,不能很好的学习到语音文本的对齐信息等问题。因此,本发明提出了一种端到端语音转写模型的训练方法。
发明内容
为了解决现有技术中的上述问题,即为了解决端到端语音转写模型无法很好的学习语音数据的对齐信息,导致语音识别精度低的问题,本发明第一方面,提出了一种端到端语音转写模型的训练方法,该方法包括:
步骤S100,获取语音训练数据和对应的文本标注训练数据,并提取所述语音训练数据的特征,得到语音特征序列;
步骤S200,通过GMM-HMM模型对所述语音特征序列进行强制对齐,得到帧级别的对齐标注,并对所述语音特征序列中各帧语音特征进行拼接处理;
步骤S300,基于拼接处理后的语音特征序列和所述文本标注训练数据,通过端到端语音转写模型获取预设词表中每个词的概率分布;并根据所述概率分布通过前向-后向算法得到负对数损失值;
步骤S400,基于所述对齐标注和所述概率分布,获取对齐损失值;
步骤S500,对所述对齐损失值和所述负对数损失值进行加权平均,得到联合损失值,并根据所述联合损失值通过后向传播算法更新所述端到端语音转写模型的参数;
步骤S600,循环执行步骤S300-S500,直至达到预设的训练结束条件,得到训练好的端到端语音转写模型。
在一些优选的实施方式中,所述端到端语音转写模型基于长短时记忆网络构建,其包括声学编码器、语言预测网络、联合网络;所述声学编码器其结构为4层双向长短时记忆网络;所述语言预测网络其结构为两层单向长短时记忆网络;所述联合网络其结构为前馈神经网络。
在一些优选的实施方式中,步骤S100中“提取所述语音训练数据的特征”,其方法为:所述特征为梅尔频率倒谱系数或梅尔滤波器组系数。
在一些优选的实施方式中,步骤S200中“对所述语音特征序列中各帧语音特征进行拼接处理”,其方法为:获取所述语音特征序列中的第T帧语音特征的前三帧语音特征和后一帧语音特征,与其进行拼接;若第T-3帧语音特征、第T-2帧语音特征、第T-1帧语音特征、第T+1帧语音特征中任一帧语音特征不存在,则将其对应的位置填充为0。
在一些优选的实施方式中,步骤S200和步骤S300之间还包括降采样处理步骤:
对所述对齐标注和拼接处理后的语音特征序列中的语音特征进行降采样处理;降采样处理后的每帧语音特征和对齐标注长度相等。
在一些优选的实施方式中,所述负对数损失值,其计算方法为:
L1=-ln p(y|x)
其中,L1为负对数损失值,y为文本标注训练数据,x为语音特征,p()表示概率分布。
在一些优选的实施方式中,所述对齐损失值,其计算方法为:
其中,L2为对齐损失值,T是语音特征的帧数,U是文本标注训练数据的长度,所述文本标注数据中每个字定义为标记,K是预设词表中词的个数,t是表示当前解码位于的帧数,u是端到端语音转写模型正在解码第u个语言标记,k是预测结果在预设词表中的位置,是端到端语音转写模型根据第t帧声学编码器的状态和第u个语言预测网络状态预测出空标记的概率,表示预测出非空标记的概率,ct,u,k是端到端语音转写模型在第t帧第u个文本标记的第k个标记处的对齐标注,取值为0或者1,p(k|t,u)为端到端语音转写模型根据第t帧声学编码器的状态和第u个语言预测网络状态预测出预设词表中第k个标记的概率。
本发明的第二方面,提出了一种端到端语音转写模型的训练系统,该系统包括提取语音特征模块、对齐拼接模块、监督训练模块、计算对齐损失模块、更新模型参数模块、循环模块;
所述提取语音特征模块,配置为获取语音训练数据和对应的文本标注训练数据,并提取所述语音训练数据的特征,得到语音特征序列;
所述对齐拼接模块,配置为通过GMM-HMM模型对所述语音特征序列进行强制对齐,得到帧级别的对齐标注,并对所述语音特征序列中各帧语音特征进行拼接处理;
所述监督训练模块,配置为基于拼接处理后的语音特征序列和所述文本标注训练数据,通过端到端语音转写模型获取预设词表中每个词的概率分布;并根据所述概率分布通过前向-后向算法得到负对数损失值;
所述计算对齐损失模块,配置为基于所述对齐标注和所述概率分布,获取对齐损失值;
所述更新模型参数模块,配置为对所述对齐损失值和所述负对数损失值进行加权平均,得到联合损失值,并根据所述联合损失值通过后向传播算法更新所述端到端语音转写模型的参数;
所述循环模块,配置为循环执行监督训练模块-更新模型参数模块,直至达到预设的训练结束条件,得到训练好的端到端语音转写模型。
本发明的第三方面,提出了一种存储装置,其中存储有多条程序,所述程序应用由处理器加载并执行以实现上述的端到端语音转写模型的训练方法。
本发明的第四方面,提出了一种处理装置,包括处理器、存储装置;处理器,适用于执行各条程序;存储装置,适用于存储多条程序;所述程序适用于由处理器加载并执行以实现上述的端到端语音转写模型的训练方法。
本发明的有益效果:
本发明能够准确的学习语音数据的对齐信息,提高语音识别的精度。在本发明中通过GMM-HMM对语音数据进行强制对齐获得特征与状态的对齐关系,并通过语音特征的拼接弥补时序信息利用不充分的缺陷。在训练过程中,加入了对齐损失函数,对端到端语音转写模型进行正则化,使得端到端语音转写模型能够准确的学习语音文本的对齐信息,加速了模型收敛,提高了模型的性能表现。
附图说明
通过阅读参照以下附图所做的对非限制性实施例所做的详细描述,本申请的其他特征、目的和优点将会变得更明显。
图1是本发明一种实施例的端到端语音转写模型的训练方法的流程示意图;
图2是本发明一种实施例的端到端语音转写模型的训练系统的框架示意图;
图3是本发明一种实施例的端到端语音转写模型的结构示例图;
图4是本发明一种实施例的端到端语音转写模型的训练方法中对齐损失计算的示例图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明的端到端语音转写模型的训练方法,如图1所示,包括以下步骤:
步骤S100,获取语音训练数据和对应的文本标注训练数据,并提取所述语音训练数据的特征,得到语音特征序列;
步骤S200,通过GMM-HMM模型对所述语音特征序列进行强制对齐,得到帧级别的对齐标注,并对所述语音特征序列中各帧语音特征进行拼接处理;
步骤S300,基于拼接处理后的语音特征序列和所述文本标注训练数据,通过端到端语音转写模型获取预设词表中每个词的概率分布;并根据所述概率分布通过前向-后向算法得到负对数损失值;
步骤S400,基于所述对齐标注和所述概率分布,获取对齐损失值;
步骤S500,对所述对齐损失值和所述负对数损失值进行加权平均,得到联合损失值,并根据所述联合损失值通过后向传播算法更新所述端到端语音转写模型的参数;
步骤S600,循环执行步骤S300-S500,直至达到预设的训练结束条件,得到训练好的端到端语音转写模型。
为了更清晰地对本发明端到端语音转写模型的训练方法进行说明,下面结合附图对本发明方法一种实施例中各步骤进行展开详述。
步骤S100,获取语音训练数据和对应的文本标注训练数据,并提取所述语音训练数据的特征,得到语音特征序列。
语音识别的目标是将连续语音信号转化为文字序列。在识别过程中,通过对时域下的波形信号加窗分帧后进行离散傅里叶变换,提取特定频率分量的系数组成特征向量,最后通过拼接每帧的特征向量得到语音特征序列。
在本实施例中,先获取端到端语音转写模型的训练数据,包括语音训练数据和对应的文本标注训练数据,提取所述语音训练数据的特征。语音特征为梅尔频率倒谱系数(MFCC)或梅尔滤波器组系数(FBANK)。
步骤S200,通过GMM-HMM模型对所述语音特征序列进行强制对齐,得到帧级别的对齐标注,并对所述语音特征序列中各帧语音特征进行拼接处理。
语音识别系统一般包括声学模型、语音模型、语言模型。声学模型主要由GMM和HMM组成。其中,GMM被用于HMM状态建模,HMM被用于对音素建模,每个HMM内部通常有自左向右3或5个连续状态,状态之间有一定的概率转移。因为音素的发音模式和长度不仅因人而异,对同一个说话人也会受到上下文、情绪、环境等因素的影响,因此基于HMM的声学模型有如下的基本假设:状态的转移概率只由上一个状态决定,模型的输出只受当前状态的影响,从而实现语音特征与音素的对齐。
在本实施例中,利用GMM-HMM模型对语音特征序列进行强制对齐,得到帧级别的对齐标注,并对对齐标注进行降采样处理。同时对每帧语音特征进行拼接操作,左边拼三帧,右边拼一帧,共五帧。若当前帧语音特征为第一帧、第二帧、第三帧,即左边三帧不够的情况下,缺少的一帧填充为0。若当前帧语音特征为最后一帧,即缺少右边的一帧特征,则将右边缺少的一帧也填充为0。然后对拼接后的特征降采样到30ms的帧率,并确保降采样后的特征和降采样后的对齐标注具有相同的长度(对齐标注是一个序列,语音特征也是一个序列,对齐序列中有n个标记,语音序列中有n个语音帧,这就是长度相等,也可以称为“一一对应”,所述n表示个数,其中标记为文本标注数据中的字)。
步骤S300,基于拼接处理后的语音特征序列和所述文本标注训练数据,通过端到端语音转写模型获取预设词表中每个词的概率分布;并根据所述概率分布通过前向-后向算法得到负对数损失值。
在本实施例中,端到端语音转写模型基于长短时记忆网络构建,包括声学编码器、语音预测网络、联合网络。声学编码器相当于语音模型,语言预测网络相当于语言模型。其中,声学编码器包含4层双向长短时记忆网络(LSTM),每个方向包含320个隐藏节点;语言预测网络包含两层单向长短时记忆网络,每层512个节点;联合网络为前馈神经网络,其输入是两层线性连接,输入层包含832个节点,经过一个非线性激活函数后映射到词表大小的输出节点。
如图3所示,基于拼接后的语音特征序列和文本标注训练数据对端到端语音转写模型进行训练。其中拼接后的语音特征序列用于训练声学编码器,文本标注训练数据用于训练语言预测网络。在训练过程时,首先将语音特征序列(或音频特征)输入声学编码器获取得到声学编码状态序列,然后将文本标注输入到语言预测网络得到语言编码状态序列,接着将上述声学编码状态序列和语言编码状态序列输入到联合网络,获得联合状态,并计算得到输出概率分布。根据输出概率分布计算损失函数。在该系统中,损失函数包括两部分,分别是语音转写模型损失函数和对齐损失函数。接着根据损失计算梯度,反向传播梯度,更新模型,不断重复这一过程,直到模型收敛。
其中,端到端语音转写模型的损失函数为负对数损失函数,其计算如公式(1)所示:
L1=-ln p(y|x) (1)
其中,L1为负对数损失值,y表示文本标注训练数据,x表示语音特征。
负对数损失函数的计算使用前后向算法进行。前后向算法使用的是动态规划的思想,高效的实现了所有可行路径的求和问题。
步骤S400,基于所述对齐标注和所述概率分布,获取对齐损失值。
如图4所示,横轴表示时间轴,用t表示,纵轴表示文本轴,用u表示,示例中的横轴信息c、a、t表示对齐信息,纵轴标记c、a、t、φ表示文本标注信息,也可以称之为标注文本信息,图中的每个圆圈都表示一个由联合网络预测得到的概率分布,箭头表示路径的转移,向右的箭头表示预测得到一个空标记,向上的箭头表示预测得到一个非空标记。任意一条从左下角起始到右上角结束的路径都是模型的一条可能的路径,计算语音转写模型损失就是利用前后向算法对所有的可能路径求概率和。我们用灰色来标记文本标注信息和对齐信息相等的点,在计算对齐损失的时候,我们只计算灰色位置,而忽略其他位置。
其中,对齐损失的计算如公式(2)所示:
其中,L2为对齐损失值,T是语音特征的帧数,U是文本标注训练数据的长度,所述文本标注数据中每个字定义为标记,K是预设词表中词的个数,t是表示当前解码位于的帧数,u是端到端语音转写模型正在解码第u个语言标记,k是预测结果在预设词表中的位置,是端到端语音转写模型根据第t帧声学编码器的状态和第u个语言预测网络状态预测出空标记的概率,表示预测出非空标记的概率,ct,u,k是端到端语音转写模型在第t帧第u个文本标记的第k个标记处的对齐标注,取值为0或者1,p(k|t,u)为端到端语音转写模型根据第t帧声学编码器的状态和第u个语言预测网络状态预测出预设词表中第k个标记的概率。
步骤S500,对所述对齐损失值和所述负对数损失值进行加权平均,得到联合损失值,并根据所述联合损失值通过后向传播算法更新所述端到端语音转写模型的参数。
在本实施例中,对所述对齐损失函数得到的值和所述负对数损失函数得到的值进行加权平均,得到联合损失函数的值,其计算如公式(3)所示:
Ljoint=L1+αL2 (3)
其中,Ljoint为联合损失值,α表示权重系数。
得到联合损失值Ljoint并计算梯度,反向传播更新端到端语音转写模型的参数。
步骤S600,循环执行步骤S300-S500,直至达到预设的训练结束条件,得到训练好的端到端语音转写模型。
在本实施例中,不断对端到端语音转写模型进行训练,加速模型的收敛。
本发明第二实施例的一种端到端语音转写模型的训练系统,如图2所示,包括:提取语音特征模块100、对齐拼接模块200、监督训练模块300、计算对齐损失模块400、更新模型参数模块500、循环模块600;
所述提取语音特征模块100,配置为获取语音训练数据和对应的文本标注训练数据,并提取所述语音训练数据的特征,得到语音特征序列;
所述对齐拼接模块200,配置为通过GMM-HMM模型对所述语音特征序列进行强制对齐,得到帧级别的对齐标注,并对所述语音特征序列中各帧语音特征进行拼接处理;
所述监督训练模块300,配置为基于拼接处理后的语音特征序列和所述文本标注训练数据,通过端到端语音转写模型获取预设词表中每个词的概率分布;并根据所述概率分布通过前向-后向算法得到负对数损失值;
所述计算对齐损失模块400,配置为基于所述对齐标注和所述概率分布,获取对齐损失值;
所述更新模型参数模块500,配置为对所述对齐损失值和所述负对数损失值进行加权平均,得到联合损失值,并根据所述联合损失值通过后向传播算法更新所述端到端语音转写模型的参数;
所述循环模块600,配置为循环执行监督训练模块300-更新模型参数模块500,直至达到预设的训练结束条件,得到训练好的端到端语音转写模型。
所述技术领域的技术人员可以清楚的了解到,为描述的方便和简洁,上述描述的系统的具体的工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
需要说明的是,上述实施例提供的端到端语音转写模型的训练系统,仅以上述各功能模块的划分进行举例说明,在实际应用中,可以根据需要而将上述功能分配由不同的功能模块来完成,即将本发明实施例中的模块或者步骤再分解或者组合,例如,上述实施例的模块可以合并为一个模块,也可以进一步拆分成多个子模块,以完成以上描述的全部或者部分功能。对于本发明实施例中涉及的模块、步骤的名称,仅仅是为了区分各个模块或者步骤,不视为对本发明的不当限定。
本发明第三实施例的一种存储装置,其中存储有多条程序,所述程序适用于由处理器加载并实现上述的端到端语音转写模型的训练方法。
本发明第四实施例的一种处理装置,包括处理器、存储装置;处理器,适于执行各条程序;存储装置,适于存储多条程序;所述程序适于由处理器加载并执行以实现上述的端到端语音转写模型的训练方法。
所述技术领域的技术人员可以清楚的了解到,未描述的方便和简洁,上述描述的存储装置、处理装置的具体工作过程及有关说明,可以参考前述方法实例中的对应过程,在此不再赘述。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件模块、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“第一”、“第二”等是用于区别类似的对象,而不是用于描述或表示特定的顺序或先后次序。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
Claims (9)
1.一种端到端语音转写模型的训练方法,其特征在于,该方法包括以下步骤:
步骤S100,获取语音训练数据和对应的文本标注训练数据,并提取所述语音训练数据的特征,得到语音特征序列;
步骤S200,通过GMM-HMM模型对所述语音特征序列进行强制对齐,得到帧级别的对齐标注,并对所述语音特征序列中各帧语音特征进行拼接处理;
步骤S300,基于拼接处理后的语音特征序列和所述文本标注训练数据,通过端到端语音转写模型获取预设词表中每个词的概率分布;并根据所述概率分布通过前向-后向算法得到负对数损失值;
步骤S400,基于所述对齐标注和所述概率分布,获取对齐损失值;
步骤S500,对所述对齐损失值和所述负对数损失值进行加权平均,得到联合损失值,并根据所述联合损失值通过后向传播算法更新所述端到端语音转写模型的参数;
步骤S600,循环执行步骤S300-S500,直至达到预设的训练结束条件,得到训练好的端到端语音转写模型;
所述对齐损失值,其计算方法为:
2.根据权利要求1所述的端到端语音转写模型的训练方法,其特征在于,所述端到端语音转写模型基于长短时记忆网络构建,其包括声学编码器、语言预测网络、联合网络;所述声学编码器其结构为4层双向长短时记忆网络;所述语言预测网络其结构为两层单向长短时记忆网络;所述联合网络其结构为前馈神经网络。
3.根据权利要求1所述的端到端语音转写模型的训练方法,其特征在于,步骤S100中“提取所述语音训练数据的特征”,其方法为:所述特征为梅尔频率倒谱系数或梅尔滤波器组系数。
4.根据权利要求1所述的端到端语音转写模型的训练方法,其特征在于,步骤S200中“对所述语音特征序列中各帧语音特征进行拼接处理”,其方法为:获取所述语音特征序列中的第T帧语音特征的前三帧语音特征和后一帧语音特征,与其进行拼接;若第T-3帧语音特征、第T-2帧语音特征、第T-1帧语音特征、第T+1帧语音特征中任一帧语音特征不存在,则将其对应的位置填充为0。
5.根据权利要求1-4任一项所述的端到端语音转写模型的训练方法,其特征在于,步骤S200和步骤S300之间还包括降采样处理步骤:
对所述对齐标注和拼接处理后的语音特征序列中的语音特征进行降采样处理;降采样处理后的每帧语音特征和对齐标注长度相等。
6.根据权利要求1所述的端到端语音转写模型的训练方法,其特征在于,所述负对数损失值,其计算方法为:
L1=-ln p(y|x)
其中,L1为负对数损失值,y为文本标注训练数据,x为语音特征,p()表示概率分布。
7.一种端到端语音转写模型的训练系统,其特征在于,该系统包括提取语音特征模块、对齐拼接模块、监督训练模块、计算对齐损失模块、更新模型参数模块、循环模块;
所述提取语音特征模块,配置为获取语音训练数据和对应的文本标注训练数据,并提取所述语音训练数据的特征,得到语音特征序列;
所述对齐拼接模块,配置为通过GMM-HMM模型对所述语音特征序列进行强制对齐,得到帧级别的对齐标注,并对所述语音特征序列中各帧语音特征进行拼接处理;
所述监督训练模块,配置为基于拼接处理后的语音特征序列和所述文本标注训练数据,通过端到端语音转写模型获取预设词表中每个词的概率分布;并根据所述概率分布通过前向-后向算法得到负对数损失值;
所述计算对齐损失模块,配置为基于所述对齐标注和所述概率分布,获取对齐损失值;
所述更新模型参数模块,配置为对所述对齐损失值和所述负对数损失值进行加权平均,得到联合损失值,并根据所述联合损失值通过后向传播算法更新所述端到端语音转写模型的参数;
所述循环模块,配置为循环执行监督训练模块-更新模型参数模块,直至达到预设的训练结束条件,得到训练好的端到端语音转写模型;
所述对齐损失值,其计算方法为:
8.一种存储装置,其中存储有多条程序,其特征在于,所述程序应用由处理器加载并执行以实现权利要求1-6任一项所述的端到端语音转写模型的训练方法。
9.一种处理装置,包括处理器、存储装置;处理器,适用于执行各条程序;存储装置,适用于存储多条程序;其特征在于,所述程序适用于由处理器加载并执行以实现权利要求1-6任一项所述的端到端语音转写模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910958727.3A CN110689879B (zh) | 2019-10-10 | 2019-10-10 | 端到端语音转写模型的训练方法、系统、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910958727.3A CN110689879B (zh) | 2019-10-10 | 2019-10-10 | 端到端语音转写模型的训练方法、系统、装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110689879A CN110689879A (zh) | 2020-01-14 |
CN110689879B true CN110689879B (zh) | 2022-02-25 |
Family
ID=69112023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910958727.3A Active CN110689879B (zh) | 2019-10-10 | 2019-10-10 | 端到端语音转写模型的训练方法、系统、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110689879B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111276121B (zh) * | 2020-01-23 | 2021-04-30 | 北京世纪好未来教育科技有限公司 | 语音对齐方法、装置、电子设备及存储介质 |
CN111354344B (zh) * | 2020-03-09 | 2023-08-22 | 第四范式(北京)技术有限公司 | 语音识别模型的训练方法、装置、电子设备及存储介质 |
CN111415667B (zh) * | 2020-03-25 | 2024-04-23 | 中科极限元(杭州)智能科技股份有限公司 | 一种流式端到端语音识别模型训练和解码方法 |
CN113593539B (zh) * | 2020-04-30 | 2024-08-02 | 阿里巴巴集团控股有限公司 | 流式端到端语音识别方法、装置及电子设备 |
CN111833848B (zh) * | 2020-05-11 | 2024-05-28 | 北京嘀嘀无限科技发展有限公司 | 用于识别语音的方法、装置、电子设备和存储介质 |
CN113689880B (zh) * | 2020-05-18 | 2024-05-28 | 北京搜狗科技发展有限公司 | 实时驱动虚拟人的方法、装置、电子设备及介质 |
CN111785256A (zh) * | 2020-06-28 | 2020-10-16 | 北京三快在线科技有限公司 | 声学模型训练方法、装置、电子设备及存储介质 |
CN112185352B (zh) * | 2020-08-31 | 2024-05-17 | 华为技术有限公司 | 语音识别方法、装置及电子设备 |
CN112133277B (zh) * | 2020-11-20 | 2021-02-26 | 北京猿力未来科技有限公司 | 样本生成方法及装置 |
CN112397057B (zh) * | 2020-12-01 | 2024-07-02 | 平安科技(深圳)有限公司 | 基于生成对抗网络的语音处理方法、装置、设备及介质 |
CN112735482B (zh) * | 2020-12-04 | 2024-02-13 | 珠海亿智电子科技有限公司 | 基于联合深度神经网络的端点检测方法及系统 |
CN112951213B (zh) * | 2021-02-09 | 2022-05-24 | 中国科学院自动化研究所 | 端到端的在线语音检测与识别方法、系统及设备 |
EP4068279B1 (en) * | 2021-03-31 | 2024-01-10 | Speechly Oy | Method and system for performing domain adaptation of end-to-end automatic speech recognition model |
CN113112996A (zh) * | 2021-06-15 | 2021-07-13 | 视见科技(杭州)有限公司 | 用于基于语音的音频和文本对齐的系统和方法 |
CN116682432B (zh) * | 2022-09-23 | 2024-05-31 | 荣耀终端有限公司 | 语音识别方法、电子设备及可读介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109065033A (zh) * | 2018-09-19 | 2018-12-21 | 华南理工大学 | 一种基于随机深度时延神经网络模型的自动语音识别方法 |
-
2019
- 2019-10-10 CN CN201910958727.3A patent/CN110689879B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109065033A (zh) * | 2018-09-19 | 2018-12-21 | 华南理工大学 | 一种基于随机深度时延神经网络模型的自动语音识别方法 |
Non-Patent Citations (4)
Title |
---|
EXPLORING ARCHITECTURES, DATA AND UNITS FOR STREAMING END-TO-END SPEECH RECOGNITION WITH RNN-TRANSDUCER;Kanishka Rao等;《arXiv》;20180102;第一部分介绍的第5段,第二部分RNN-T的第2-4段,图1 * |
IMPROVING RNN TRANSDUCER MODELING FOR END-TO-END SPEECH RECOGNITION;Jinyu Li等;《arXiv》;20190926;全文 * |
Pre-Alignment Guided Attention for Improving Training Efficiency and Model Stability in End-to-End Speech Synthesis;XIAOLIAN ZHU等;《IEEE Access》;20190604;第七卷;第65955-65964页 * |
Sequence Transduction with Recurrent Neural Networks;Alex Graves;《arXiv》;20121114;第二部分RNN-T和第三部分实验结果,图1 * |
Also Published As
Publication number | Publication date |
---|---|
CN110689879A (zh) | 2020-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110689879B (zh) | 端到端语音转写模型的训练方法、系统、装置 | |
US20240161732A1 (en) | Multi-dialect and multilingual speech recognition | |
CN106683677B (zh) | 语音识别方法及装置 | |
CN108346436B (zh) | 语音情感检测方法、装置、计算机设备及存储介质 | |
CN105679317B (zh) | 用于训练语言模型并识别语音的方法和设备 | |
CN105810193B (zh) | 训练语言模型的方法和设备及识别语言的方法和设备 | |
US8972253B2 (en) | Deep belief network for large vocabulary continuous speech recognition | |
CN107615308B (zh) | 循环神经网络的学习方法及用于该学习方法的计算机程序、和声音识别装置 | |
CN106683661B (zh) | 基于语音的角色分离方法及装置 | |
CN113936647B (zh) | 语音识别模型的训练方法、语音识别方法和系统 | |
CN111276131A (zh) | 一种基于深度神经网络的多类声学特征整合方法和系统 | |
KR101120765B1 (ko) | 스위칭 상태 스페이스 모델과의 멀티모덜 변동 추정을이용한 스피치 인식 방법 | |
CN108885870A (zh) | 用于通过将言语到文本系统与言语到意图系统组合来实现声音用户接口的系统和方法 | |
CN112509560B (zh) | 一种基于缓存语言模型的语音识别自适应方法和系统 | |
Bacchiani et al. | Context dependent state tying for speech recognition using deep neural network acoustic models | |
CN112767921A (zh) | 一种基于缓存语言模型的语音识别自适应方法和系统 | |
Vegesna et al. | Dnn-hmm acoustic modeling for large vocabulary telugu speech recognition | |
Regmi et al. | Nepali speech recognition using rnn-ctc model | |
Musaev et al. | Automatic recognition of Uzbek speech based on integrated neural networks | |
KR20200120595A (ko) | 언어 모델 학습 방법 및 장치, 음성 인식 방법 및 장치 | |
CN113160801B (zh) | 语音识别方法、装置以及计算机可读存储介质 | |
JP7505582B2 (ja) | 話者ダイアライゼーション方法、話者ダイアライゼーション装置および話者ダイアライゼーションプログラム | |
CN117727288B (zh) | 一种语音合成方法、装置、设备及存储介质 | |
US11894017B2 (en) | Voice/non-voice determination device, voice/non-voice determination model parameter learning device, voice/non-voice determination method, voice/non-voice determination model parameter learning method, and program | |
WO2023281717A1 (ja) | 話者ダイアライゼーション方法、話者ダイアライゼーション装置および話者ダイアライゼーションプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |