CN112509555A - 方言语音识别方法、装置、介质及电子设备 - Google Patents
方言语音识别方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN112509555A CN112509555A CN202011339518.XA CN202011339518A CN112509555A CN 112509555 A CN112509555 A CN 112509555A CN 202011339518 A CN202011339518 A CN 202011339518A CN 112509555 A CN112509555 A CN 112509555A
- Authority
- CN
- China
- Prior art keywords
- model
- dialect
- output
- coding
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 241001672694 Citrus reticulata Species 0.000 claims abstract description 114
- 238000012549 training Methods 0.000 claims abstract description 54
- 238000000605 extraction Methods 0.000 claims description 82
- 238000011176 pooling Methods 0.000 claims description 38
- 238000013140 knowledge distillation Methods 0.000 claims description 29
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 19
- 230000009191 jumping Effects 0.000 claims description 19
- 230000000306 recurrent effect Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 3
- 238000009432 framing Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000004821 distillation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
本申请提供了一种方言语音识别方法、装置、介质及电子设备。该方法包括:获取待识别方言语音;将待识别方言语音输入编码模型得到与待识别方言语音对应的待识别低维序列,编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,将待识别低维序列进行解码,得到与待识别方言语音对应的文本,能够在一定程度上增加方言语音识别的准确性。
Description
技术领域
本申请涉及通信技术领域,特别涉及一种方言语音识别方法、装置、介质及电子设备。
背景技术
随着人工智能的逐步发展,神经网络模型得到了广泛应用,在模型训练的过程中,模型的性能一方面取决于所使用的算法,另一方面取决于训练样本数据量的多少。
在语音识别模型中,由于能够获得较多的普通话训练样本,训练出的普通话识别模型通常比较准确,但是,各地方言与普通话有一定差异,普通话识别模型不能准确识别方言,而训练各种方言对应的语音识别模型时,各种方言的样本数量又不能保证,使得方言语音不能被准确识别。
发明内容
本申请旨在提供一种方言语音识别方法、装置、介质及电子设备,其能够在一定程度上增加方言语音识别的准确性。
根据本申请实施例的一个方面,提供了一种方言语音识别方法,包括:获取待识别方言语音;将所述待识别方言语音输入编码模型得到与所述待识别方言语音对应的待识别低维序列,所述编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,其中,所述第一比对模型包括:多个第一特征提取模块,用于提取普通话语音样本的普通话语音特征,每个所述第一特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,所述卷积层有多个,多个所述卷积层之间采用跳跃连接的方式连接;第一高维编码模块,与多个所述第一特征提取模块中最后一个模块的输出连接,用于将所述普通话语音特征进行高维编码,得到普通话高维序列;第一回归模块,与所述第一高维编码模块的输出连接,用于将所述普通话高维序列转化为普通话低维序列,所述第一回归模块包括循环神经网络的隐藏层,所述隐藏层有多个,多个所述隐藏层中相邻的两个隐藏层之间设置一层聚焦层;所述第二比对模型包括:多个第二特征提取模块,用于提取方言语音样本的方言语音特征,每个所述第二特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,所述卷积层有多个,多个所述卷积层之间采用跳跃连接的方式连接;第二高维编码模块,与多个所述第二特征提取模块中最后一个模块的输出连接,用于将所述方言语音特征进行高维编码,得到方言高维序列;第二回归模块,与所述第二高维编码模块的输出连接,用于将所述方言高维序列转化为方言低维序列,所述第二回归模块包括循环神经网络的隐藏层,所述隐藏层有多个,多个所述隐藏层中相邻的两个隐藏层之间设置一层聚焦层;基于所述第一比对模型和所述第二比对模型得到编码模型的过程,包括:将所述第一比对模型通过无监督的知识蒸馏方法向所述第二比对模型进行知识蒸馏得到所述编码模型;将示例普通话语音输入第一比对模型,并将与和所述示例普通话语音相同语义的方言语音输入所述编码模型;获取所述第一比对模型的输出和所述编码模型的输出,计算所述第一比对模型的输出和所述编码模型的输出之间的差异度;基于所述第一比对模型的输出和所述编码模型的输出之间的差异度调整所述编码模型;将所述待识别低维序列进行解码,得到与所述待识别方言语音对应的文本。
根据本申请实施例的一个方面,提供了一种方言语音识别装置,包括:获取单元,配置为获取待识别方言语音;输入单元,配置为将所述待识别方言语音输入编码模型得到与所述待识别方言语音对应的待识别低维序列,所述编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,其中,所述第一比对模型包括:多个第一特征提取模块,用于提取普通话语音样本的普通话语音特征,每个所述第一特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,所述卷积层有多个,多个所述卷积层之间采用跳跃连接的方式连接;第一高维编码模块,与多个所述第一特征提取模块中最后一个模块的输出连接,用于将所述普通话语音特征进行高维编码,得到普通话高维序列;第一回归模块,与所述第一高维编码模块的输出连接,用于将所述普通话高维序列转化为普通话低维序列,所述第一回归模块包括循环神经网络的隐藏层,所述隐藏层有多个,多个所述隐藏层中相邻的两个隐藏层之间设置一层聚焦层;所述第二比对模型包括:多个第二特征提取模块,用于提取方言语音样本的方言语音特征,每个所述第二特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,所述卷积层有多个,多个所述卷积层之间采用跳跃连接的方式连接;第二高维编码模块,与多个所述第二特征提取模块中最后一个模块的输出连接,用于将所述方言语音特征进行高维编码,得到方言高维序列;第二回归模块,与所述第二高维编码模块的输出连接,用于将所述方言高维序列转化为方言低维序列,所述第二回归模块包括循环神经网络的隐藏层,所述隐藏层有多个,多个所述隐藏层中相邻的两个隐藏层之间设置一层聚焦层;基于所述第一比对模型和所述第二比对模型得到编码模型的过程,包括:将所述第一比对模型通过无监督的知识蒸馏方法向所述第二比对模型进行知识蒸馏得到所述编码模型;将示例普通话语音输入第一比对模型,并将与和所述示例普通话语音相同语义的方言语音输入所述编码模型;获取所述第一比对模型的输出和所述编码模型的输出,计算所述第一比对模型的输出和所述编码模型的输出之间的差异度;基于所述第一比对模型的输出和所述编码模型的输出之间的差异度调整所述编码模型;解码单元,配置为将所述待识别低维序列进行解码,得到与所述待识别方言语音对应的文本。
在本申请的一些实施例中,基于前述方案,所述获取单元配置为:获取所述待识别方言语音的窗长;根据所述窗长将所述待识别方言语音进行分帧;将分帧后的待识别方言语音输入至所述编码模型。
在本申请的一些实施例中,基于前述方案,所述第一高维编码模块是由一维卷积层组成的嵌入层。
在本申请的一些实施例中,基于前述方案,所述第一比对模型还包括第一输出模块,所述第一输出模块与所述第一回归模块的输出连接,用于将所述普通话低维序列输出,所述第一输出模块的损失函数为噪声收敛估计损失函数。
在本申请的一些实施例中,基于前述方案,所述第二高维编码模块是由一维卷积层组成的嵌入层。
在本申请的一些实施例中,基于前述方案,所述第二比对模型还包括第二输出模块,所述第二输出模块与所述第二回归模块的输出连接,用于将所述方言低维序列输出,所述第二输出模块的损失函数为噪声收敛估计损失函数。
在本申请的一些实施例中,基于前述方案,所述获取单元配置为:将所述示例普通话语音输入所述第一比对模型,并将与所述示例普通话语音语音相同的方言输入所述第二比对模型;获取所述第一比对模型的输出和所述第二比对模型的输出,计算所述第一比对模型的输出和所述第二比对模型的输出之间的差异度;基于所述第一比对模型的输出和所述第二比对模型的输出之间的差异度,将所述第一比对模型向所述第二比对模型进行知识蒸馏,得到所述编码模型。
根据本申请实施例的一个方面,提供了一种计算机可读程序介质,其存储有计算机程序指令,当所述计算机程序指令被计算机执行时,使计算机执行上任一项所述的方法。
根据本申请实施例的一个方面,提供了一种电子装置,包括:处理器;存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,实现如上任一项所述的方法。
本申请的实施例提供的技术方案可以包括以下有益效果:
在本申请的一些实施例所提供的技术方案中,通过获取待识别方言语音;将待识别方言语音输入编码模型得到与待识别方言语音对应的待识别低维序列,编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,其中,第一比对模型包括:多个第一特征提取模块,用于提取普通话语音样本的普通话语音特征,每个第一特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接,以获得更远范围的特征;第一高维编码模块,与多个第一特征提取模块中最后一个模块的输出连接,用于将普通话语音特征进行高维编码,得到普通话高维序列,以得到普通话语音样本中多个维度的特征;第一回归模块,与第一高维编码模块的输出连接,用于将普通话高维序列转化为普通话低维序列,从多个维度的特征中提取出关键特征,第一回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层,以更准确的提取样本特征;第二比对模型包括:多个第二特征提取模块,用于提取方言语音样本的方言语音特征,每个第二特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接,以获得更远范围的特征;第二高维编码模块,与多个第二特征提取模块中最后一个模块的输出连接,用于将方言语音特征进行高维编码,得到方言高维序列,以得到方言语音样本中多个维度的特征;第二回归模块,与第二高维编码模块的输出连接,用于将方言高维序列转化为方言低维序列,从多个维度的特征中提取出关键特征,第二回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层,以更准确的提取样本特征;基于第一比对模型和第二比对模型得到编码模型的过程,包括:将第一比对模型通过无监督的知识蒸馏方法向第二比对模型进行知识蒸馏得到编码模型;将示例普通话语音输入第一比对模型,并将与和示例普通话语音相同语义的方言语音输入编码模型;获取第一比对模型的输出和编码模型的输出,计算第一比对模型的输出和编码模型的输出之间的差异度;基于第一比对模型的输出和编码模型的输出之间的差异度调整编码模型,由于普通话和方言之间虽然有一定差异,但是也有很多相同之处,普通话样本可以弥补方言语音样本数量不足的问题,无监督蒸馏无需进行数据标记使训练过程更加简单,同时,基于差异度调整编码也能对普通话语音样本中与方言语音样本中差异进行校正,在补充样本数量的同时又能够提高编码模型识别方言语音的能力,使得到的编码模块能够在一定程度上提高方言语音识别的准确性,将待识别低维序列进行解码,得到与待识别方言语音对应的文本,由于第一比对模型与第二比对模型输出的编码中已经包含了训练样本的特征,在进行知识蒸馏之前无需解码能够减少训练编码模型需要的时间,在得到编码模型的过程中无需解码,相比于在第一比对模型和第二比对模型中分别解码,在编码模型后解码将两次解码简化为一次解码,在获得准确识别方言语音的编码模型的同时,提高了方言语音识别的效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并于说明书一起用于解释本申请的原理。
图1示出了可以应用本申请实施例的技术方案的示例性系统架构的示意图;
图2示意性示出了根据本申请的一个实施例的方言语音识别方法的流程图;
图3示意性示出了本申请的一个实施例的一个第一特征提取模块结构示意图;
图4示意性示出了本申请的一个实施例的一个第一回归模块结构示意图;
图5示意性示出了根据本申请的一个实施例的方言语音识别装置的框图;
图6是根据一示例性实施例示出的一种电子装置的硬件图。
图7是根据一示例性实施例示出的一种用于实现上述方法的计算机可读存储介质。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
图1示出了可以应用本申请实施例的技术方案的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101(终端设备可以为智能手机、平板电脑、便携式计算机、台式计算机中的一种或多种)、网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
应该理解,图1中的终端设备101、网络102和服务器103的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备101、网络102和服务器103。比如服务器103可以是多个服务器组成的服务器集群等。
在本申请的一个实施例中,服务器103可以通过获取待识别方言语音;将待识别方言语音输入编码模型得到与待识别方言语音对应的待识别低维序列,编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,其中,第一比对模型包括:多个第一特征提取模块,用于提取普通话语音样本的普通话语音特征,每个第一特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接,以获得更远范围的特征;第一高维编码模块,与多个第一特征提取模块中最后一个模块的输出连接,用于将普通话语音特征进行高维编码,得到普通话高维序列,以得到普通话语音样本中多个维度的特征;第一回归模块,与第一高维编码模块的输出连接,用于将普通话高维序列转化为普通话低维序列,从多个维度的特征中提取出关键特征,第一回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层,以更准确的提取样本特征;第二比对模型包括:多个第二特征提取模块,用于提取方言语音样本的方言语音特征,每个第二特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接,以获得更远范围的特征;第二高维编码模块,与多个第二特征提取模块中最后一个模块的输出连接,用于将方言语音特征进行高维编码,得到方言高维序列,以得到方言语音样本中多个维度的特征;第二回归模块,与第二高维编码模块的输出连接,用于将方言高维序列转化为方言低维序列,从多个维度的特征中提取出关键特征,第二回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层,以更准确的提取样本特征;基于第一比对模型和第二比对模型得到编码模型的过程,包括:将第一比对模型通过无监督的知识蒸馏方法向第二比对模型进行知识蒸馏得到编码模型;将示例普通话语音输入第一比对模型,并将与和示例普通话语音相同语义的方言语音输入编码模型;获取第一比对模型的输出和编码模型的输出,计算第一比对模型的输出和编码模型的输出之间的差异度;基于第一比对模型的输出和编码模型的输出之间的差异度调整编码模型,由于普通话和方言之间虽然有一定差异,但是也有很多相同之处,普通话样本可以弥补方言语音样本数量不足的问题,无监督蒸馏无需进行数据标记使训练过程更加简单,同时,基于差异度调整编码也能对普通话语音样本中与方言语音样本中差异进行校正,在补充样本数量的同时又能够提高编码模型识别方言语音的能力,使得到的编码模块能够在一定程度上提高方言语音识别的准确性,将待识别低维序列进行解码,得到与待识别方言语音对应的文本,由于第一比对模型与第二比对模型输出的编码中已经包含了训练样本的特征,在进行知识蒸馏之前无需解码能够减少训练编码模型需要的时间,在得到编码模型的过程中无需解码,相比于在第一比对模型和第二比对模型中分别解码,在编码模型后解码将两次解码简化为一次解码,在获得准确识别方言语音的编码模型的同时,提高了方言语音识别的效率。
需要说明的是,本申请实施例所提供的方言语音识别方法一般由服务器103执行,相应地,方言语音识别装置一般设置于服务器103中。但是,在本申请的其它实施例中,终端设备101也可以与服务器103具有相似的功能,从而执行本申请实施例所提供的方言语音识别方法。
以下对本申请实施例的技术方案的实现细节进行详细阐述:
图2示意性示出了根据本申请的一个实施例的方言语音识别方法的流程图,该方言语音识别方法的执行主体可以是服务器,比如可以是图1中所示的服务器103。
参照图2所示,该方言语音识别方法至少包括步骤S210至步骤S230,详细介绍如下:
在步骤S210中,获取待识别方言语音。
在本申请的一个实施例中,方言可以是各地地方话,如四川话、粤语、闽南语等,方言也可以是少数民族语言,如维吾尔族语、朝鲜族语等。
在步骤S220中,将待识别方言语音输入编码模型得到与待识别方言语音对应的待识别低维序列,编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,其中,第一比对模型包括:
多个第一特征提取模块,用于提取普通话语音样本的普通话语音特征,每个第一特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接;
第一高维编码模块,与多个第一特征提取模块中最后一个模块的输出连接,用于将普通话语音特征进行高维编码,得到普通话高维序列;
第一回归模块,与第一高维编码模块的输出连接,用于将普通话高维序列转化为普通话低维序列,第一回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层;
第二比对模型包括:
多个第二特征提取模块,用于提取方言语音样本的方言语音特征,每个第二特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接;
第二高维编码模块,与多个第二特征提取模块中最后一个模块的输出连接,用于将方言语音特征进行高维编码,得到方言高维序列;
第二回归模块,与第二高维编码模块的输出连接,用于将方言高维序列转化为方言低维序列,第二回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层;
基于第一比对模型和第二比对模型得到编码模型的过程,包括:
将第一比对模型通过无监督的知识蒸馏方法向第二比对模型进行知识蒸馏得到编码模型;将示例普通话语音输入第一比对模型,并将与和示例普通话语音相同语义的方言语音输入编码模型;获取第一比对模型的输出和编码模型的输出,计算第一比对模型的输出和编码模型的输出之间的差异度;基于第一比对模型的输出和编码模型的输出之间的差异度调整编码模型。
在本申请的一个实施例中,可以获取待识别方言语音的窗长,根据窗长将待识别方言语音进行分帧,将分帧后的待识别方言语音输入至编码模型,分别对以窗长为单位的方言语音进行识别,可以使识别结果更加准确。可以不使用傅里叶变换的方式来对语音进行处理,直接在语音的采样点上根据窗长来分帧,既不影响语音识别效果,又能提高语音识别的效率。
在本申请的一个实施例中,第一特征提取模块的数量可以为5个。每个第一特征提取模块都包括跳跃连接,可以捕捉到更远更深的感受野,每个第一特征提取模块中都包括池化层(pooling)与全连接层,可以计算不同的维度的权重,从而获得最好的结果,如图3所示,图3示意性示出了本申请的一个实施例的一个第一特征提取模块结构示意图。
在本申请的一个实施例中,第一高维编码模块可以是由一维卷积层组成的嵌入层。
在本申请的一个实施例中,第一高维编码模块可以是高维非线性编码器。
在本申请的一个实施例中,第一回归模块可以包含5层循环神经网络(RNN网络)的隐藏层,每层包含4096个隐状态,在每两层RNN网络隐藏层之间加入聚焦模块,使得RNN网络隐藏层学会关注哪些位置,以使得到的方言低维序列能够更好的包含样本特征,如图4所示,图4示意性示出了本申请的一个实施例的一个第一回归模块结构示意图,其中,聚焦模块可以使用attention机制,attention机制可以通过加权计算出每个隐含单元的注意力,从而实现聚焦效果。
在本申请的一个实施例中,第一比对模型还可以包括第一输出模块,第一输出模块与第一回归模块的输出连接,用于将普通话低维序列输出,第一输出模块的损失函数为噪声收敛估计损失函数。
这种损失函数用来对将来信息预测结果来进行判定,只有原始的结果被认为正样本,其他结果都被认为负样本,通过不断的训练正负样本之间的差异完成模型的训练。
在本申请的一个实施例中,第二高维编码模块可以是由一维卷积层组成的嵌入层。
在本申请的一个实施例中,第二高维编码模块可以是高维非线性编码器。
在本申请的一个实施例中,第二特征提取模块的结构与第一特征提取模块的结构可以相同,第二高维编码模块的结构与第一高维编码模块的结构可以相同,第一回归模块的结构与第二回归模块的结构可以相同。
在本申请的一个实施例中,第二比对模型还可以包括第二输出模块,第二输出模块与第二回归模块的输出连接,用于将方言低维序列输出,第二输出模块的损失函数为噪声收敛估计损失函数。
在本申请的一个实施例中,可以计算第一比对模型的输出和编码模型的输出之间的KL散度,作为第一比对模型的输出和编码模型的输出之间的差异度。
在本申请的一个实施例中,可以计算第一比对模型的输出和编码模型的输出之间的余弦相似距离,作为第一比对模型的输出和编码模型的输出之间的差异度。
在本申请的一个实施例中,将训练后的第一比对模型通过无监督的知识蒸馏方法向第二比对模型进行知识蒸馏得到编码模型,将示例普通话语音输入第一比对模型,并将与和示例普通话语音相同语义的方言语音输入编码模型,获取第一比对模型的输出和编码模型的输出,计算第一比对模型的输出和编码模型的输出之间的差异度,根据第一比对模型的输出和编码模型的输出之间的差异度调整编码模型,在训练过程中无需进行标签标注,不需要质量较高的标注标签将两个分布之间的差异计算清楚又能提高方言语音识别的准确性。
在本申请的一个实施例中,基于第一比对模型和第二比对模型得到编码模型的过程可以包括:将示例普通话语音输入第一比对模型,并将与示例普通话语音语音相同的方言输入第二比对模型;获取第一比对模型的输出和第二比对模型的输出,计算第一比对模型的输出和第二比对模型的输出之间的差异度;基于第一比对模型的输出和第二比对模型的输出之间的差异度,将第一比对模型向第二比对模型进行知识蒸馏,得到编码模型。
在本申请的一个实施例中,可以计算第一比对模型的输出和第二比对模型的输出之间的KL散度,作为第一比对模型的输出和第二比对模型的输出之间的差异度。
在本申请的一个实施例中,可以计算第一比对模型的输出和第二比对模型的输出之间的余弦相似距离,作为第一比对模型的输出和第二比对模型的输出之间的差异度。
在本申请的一个实施例中,可以采用无监督训练方法训练第一比对模型,可以采用无监督训练方法训练第二比对模型。
继续参照图2,在步骤S230中,将待识别低维序列进行解码,得到与待识别方言语音对应的文本。
在本申请的一个实施例中,可以使用训练好的GRU神经网络,对待识别低维序列进行解码。
在本申请的一个实施例中,可以使用方言样本训练集和根据差异度调整的普通话样本训练集训练GRU神经网络。
在本申请的一个实施例中,方言可以包括多种语言,每种方言对应一个编码模型,训练该种方言对应的编码模型时,使用该种方言的方言训练样本集。
在图2的实施例中,通过获取待识别方言语音;将待识别方言语音输入编码模型得到与待识别方言语音对应的待识别低维序列,编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,其中,第一比对模型包括:多个第一特征提取模块,用于提取普通话语音样本的普通话语音特征,每个第一特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接,以获得更远范围的特征;第一高维编码模块,与多个第一特征提取模块中最后一个模块的输出连接,用于将普通话语音特征进行高维编码,得到普通话高维序列,以得到普通话语音样本中多个维度的特征;第一回归模块,与第一高维编码模块的输出连接,用于将普通话高维序列转化为普通话低维序列,从多个维度的特征中提取出关键特征,第一回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层,以更准确的提取样本特征;第二比对模型包括:多个第二特征提取模块,用于提取方言语音样本的方言语音特征,每个第二特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接,以获得更远范围的特征;第二高维编码模块,与多个第二特征提取模块中最后一个模块的输出连接,用于将方言语音特征进行高维编码,得到方言高维序列,以得到方言语音样本中多个维度的特征;第二回归模块,与第二高维编码模块的输出连接,用于将方言高维序列转化为方言低维序列,从多个维度的特征中提取出关键特征,第二回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层,以更准确的提取样本特征;基于第一比对模型和第二比对模型得到编码模型的过程,包括:将第一比对模型通过无监督的知识蒸馏方法向第二比对模型进行知识蒸馏得到编码模型;将示例普通话语音输入第一比对模型,并将与和示例普通话语音相同语义的方言语音输入编码模型;获取第一比对模型的输出和编码模型的输出,计算第一比对模型的输出和编码模型的输出之间的差异度;基于第一比对模型的输出和编码模型的输出之间的差异度调整编码模型,由于普通话和方言之间虽然有一定差异,但是也有很多相同之处,普通话样本可以弥补方言语音样本数量不足的问题,无监督蒸馏无需进行数据标记使训练过程更加简单,同时,基于差异度调整编码也能对普通话语音样本中与方言语音样本中差异进行校正,在补充样本数量的同时又能够提高编码模型识别方言语音的能力,使得到的编码模块能够在一定程度上提高方言语音识别的准确性,将待识别低维序列进行解码,得到与待识别方言语音对应的文本,由于第一比对模型与第二比对模型输出的编码中已经包含了训练样本的特征,在进行知识蒸馏之前无需解码能够减少训练编码模型需要的时间,在得到编码模型的过程中无需解码,相比于在第一比对模型和第二比对模型中分别解码,在编码模型后解码将两次解码简化为一次解码,在获得准确识别方言语音的编码模型的同时,提高了方言语音识别的效率。
在本申请中,通过使用无监督的方法解决了在小语种语音识别中,训练的数据量较少的问题。通过无监督的方法可以获取语音通用的方言低维特征,从而解决了方言语音数据量较少的问题。另一方面通过使用知识蒸馏的方法,将经过大量数据训练的普通话模型参数蒸馏到方言的模型中可以很好的提升模型的性能。因此本文所提出的算法既解决了方言训练中训练数据量较少的问题获取的通用的底层特征有更加鲁棒的表达,又使用知识蒸馏的方法提高了数据的利用率,并提升了网络的性能。
以下介绍本申请的装置实施例,可以用于执行本申请上述实施例中的方言语音识别方法。对于本申请装置实施例中未披露的细节,请参照本申请上述的方言语音识别方法的实施例。
图5示意性示出了根据本申请的一个实施例的方言语音识别装置的框图。
参照图5所示,本申请提供的一个实施例的方言语音识别装置500,包括获取单元501、输入单元502和解码单元503。
在本申请的一些实施例中,基于前述方案,获取单元501配置为获取待识别方言语音;输入单元502配置为将待识别方言语音输入编码模型得到与待识别方言语音对应的待识别低维序列,编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,其中,第一比对模型包括:多个第一特征提取模块,用于提取普通话语音样本的普通话语音特征,每个第一特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接;第一高维编码模块,与多个第一特征提取模块中最后一个模块的输出连接,用于将普通话语音特征进行高维编码,得到普通话高维序列;第一回归模块,与第一高维编码模块的输出连接,用于将普通话高维序列转化为普通话低维序列,第一回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层;第二比对模型包括:多个第二特征提取模块,用于提取方言语音样本的方言语音特征,每个第二特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,卷积层有多个,多个卷积层之间采用跳跃连接的方式连接;第二高维编码模块,与多个第二特征提取模块中最后一个模块的输出连接,用于将方言语音特征进行高维编码,得到方言高维序列;第二回归模块,与第二高维编码模块的输出连接,用于将方言高维序列转化为方言低维序列,第二回归模块包括循环神经网络的隐藏层,隐藏层有多个,多个隐藏层中相邻的两个隐藏层之间设置一层聚焦层;基于第一比对模型和第二比对模型得到编码模型的过程,包括:将第一比对模型通过无监督的知识蒸馏方法向第二比对模型进行知识蒸馏得到编码模型;将示例普通话语音输入第一比对模型,并将与和示例普通话语音相同语义的方言语音输入编码模型;获取第一比对模型的输出和编码模型的输出,计算第一比对模型的输出和编码模型的输出之间的差异度;基于第一比对模型的输出和编码模型的输出之间的差异度调整编码模型;解码单元503配置为将待识别低维序列进行解码,得到与待识别方言语音对应的文本。
在本申请的一些实施例中,基于前述方案,获取单元501配置为:获取待识别方言语音的窗长;根据窗长将待识别方言语音进行分帧;将分帧后的待识别方言语音输入至编码模型。
在本申请的一些实施例中,基于前述方案,第一高维编码模块是由一维卷积层组成的嵌入层。
在本申请的一些实施例中,基于前述方案,第一比对模型还包括第一输出模块,第一输出模块与第一回归模块的输出连接,用于将普通话低维序列输出,第一输出模块的损失函数为噪声收敛估计损失函数。
在本申请的一些实施例中,基于前述方案,第二高维编码模块是由一维卷积层组成的嵌入层。
在本申请的一些实施例中,基于前述方案,第二比对模型还包括第二输出模块,第二输出模块与第二回归模块的输出连接,用于将方言低维序列输出,第二输出模块的损失函数为噪声收敛估计损失函数。
在本申请的一些实施例中,基于前述方案,获取单元501配置为:将示例普通话语音输入第一比对模型,并将与示例普通话语音语音相同的方言输入第二比对模型;获取第一比对模型的输出和第二比对模型的输出,计算第一比对模型的输出和第二比对模型的输出之间的差异度;基于第一比对模型的输出和第二比对模型的输出之间的差异度,将第一比对模型向第二比对模型进行知识蒸馏,得到编码模型。
所属技术领域的技术人员能够理解,本申请的各个方面可以实现为系统、方法或程序产品。因此,本申请的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图6来描述根据本申请的这种实施方式的电子设备60。图6显示的电子设备60仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,电子设备60以通用计算设备的形式表现。电子设备60的组件可以包括但不限于:上述至少一个处理单元61、上述至少一个存储单元62、连接不同系统组件(包括存储单元62和处理单元61)的总线63、显示单元64。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元61执行,使得所述处理单元61执行本说明书上述“实施例方法”部分中描述的根据本申请各种示例性实施方式的步骤。
存储单元62可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)621和/或高速缓存存储单元622,还可以进一步包括只读存储单元(ROM)623。
存储单元62还可以包括具有一组(至少一个)程序模块625的程序/实用工具624,这样的程序模块625包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线63可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备60也可以与一个或多个外部设备(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备60交互的设备通信,和/或与使得该电子设备60能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口65进行。并且,电子设备60还可以通过网络适配器66与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器66通过总线63与电子设备60的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备60使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本申请实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本申请实施方式的方法。
根据本申请一个实施例,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本申请的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本申请各种示例性实施方式的步骤。
参考图7所示,描述了根据本申请的实施方式的用于实现上述方法的程序产品70,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本申请的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本申请示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种方言语音识别方法,其特征在于,
获取待识别方言语音;
将所述待识别方言语音输入编码模型得到与所述待识别方言语音对应的待识别低维序列,所述编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,其中,
所述第一比对模型包括:
多个第一特征提取模块,用于提取普通话语音样本的普通话语音特征,每个所述第一特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,所述卷积层有多个,多个所述卷积层之间采用跳跃连接的方式连接;
第一高维编码模块,与多个所述第一特征提取模块中最后一个模块的输出连接,用于将所述普通话语音特征进行高维编码,得到普通话高维序列;
第一回归模块,与所述第一高维编码模块的输出连接,用于将所述普通话高维序列转化为普通话低维序列,所述第一回归模块包括循环神经网络的隐藏层,所述隐藏层有多个,多个所述隐藏层中相邻的两个隐藏层之间设置一层聚焦层;
所述第二比对模型包括:
多个第二特征提取模块,用于提取方言语音样本的方言语音特征,每个所述第二特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,所述卷积层有多个,多个所述卷积层之间采用跳跃连接的方式连接;
第二高维编码模块,与多个所述第二特征提取模块中最后一个模块的输出连接,用于将所述方言语音特征进行高维编码,得到方言高维序列;
第二回归模块,与所述第二高维编码模块的输出连接,用于将所述方言高维序列转化为方言低维序列,所述第二回归模块包括循环神经网络的隐藏层,所述隐藏层有多个,多个所述隐藏层中相邻的两个隐藏层之间设置一层聚焦层;
基于所述第一比对模型和所述第二比对模型得到编码模型的过程,包括:
将所述第一比对模型通过无监督的知识蒸馏方法向所述第二比对模型进行知识蒸馏得到所述编码模型;
将示例普通话语音输入第一比对模型,并将与和所述示例普通话语音相同语义的方言语音输入所述编码模型;
获取所述第一比对模型的输出和所述编码模型的输出,计算所述第一比对模型的输出和所述编码模型的输出之间的差异度;
基于所述第一比对模型的输出和所述编码模型的输出之间的差异度调整所述编码模型;
将所述待识别低维序列进行解码,得到与所述待识别方言语音对应的文本。
2.根据权利要求1所述的方言语音识别方法,其特征在于,所述将待识别方言语音输入编码模型得到与所述待识别方言语音对应的待识别低维序列,包括:
获取所述待识别方言语音的窗长;
根据所述窗长将所述待识别方言语音进行分帧;
将分帧后的待识别方言语音输入至所述编码模型。
3.根据权利要求1所述的方言语音识别方法,其特征在于,所述第一高维编码模块是由一维卷积层组成的嵌入层。
4.根据权利要求1所述的方言语音识别方法,其特征在于,所述第一比对模型还包括第一输出模块,所述第一输出模块与所述第一回归模块的输出连接,用于将所述普通话低维序列输出,所述第一输出模块的损失函数为噪声收敛估计损失函数。
5.根据权利要求1所述的方言语音识别方法,其特征在于,所述第二高维编码模块是由一维卷积层组成的嵌入层。
6.根据权利要求1所述的方言语音识别方法,其特征在于,所述第二比对模型还包括第二输出模块,所述第二输出模块与所述第二回归模块的输出连接,用于将所述方言低维序列输出,所述第二输出模块的损失函数为噪声收敛估计损失函数。
7.根据权利要求1所述的方言语音识别方法,其特征在于,所述基于所述第一比对模型和所述第二比对模型得到编码模型的过程,包括:
将所述示例普通话语音输入所述第一比对模型,并将与所述示例普通话语音语音相同的方言输入所述第二比对模型;
获取所述第一比对模型的输出和所述第二比对模型的输出,计算所述第一比对模型的输出和所述第二比对模型的输出之间的差异度;
基于所述第一比对模型的输出和所述第二比对模型的输出之间的差异度,将所述第一比对模型向所述第二比对模型进行知识蒸馏,得到所述编码模型。
8.一种方言语音识别装置,其特征在于,包括:
获取单元,配置为获取待识别方言语音;
输入单元,配置为将所述待识别方言语音输入编码模型得到与所述待识别方言语音对应的待识别低维序列,所述编码模型是基于使用普通话训练样本集训练得到的第一比对模型和使用方言训练样本集训练的第二比对模型得到的,其中,
所述第一比对模型包括:
多个第一特征提取模块,用于提取普通话语音样本的普通话语音特征,每个所述第一特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,所述卷积层有多个,多个所述卷积层之间采用跳跃连接的方式连接;
第一高维编码模块,与多个所述第一特征提取模块中最后一个模块的输出连接,用于将所述普通话语音特征进行高维编码,得到普通话高维序列;
第一回归模块,与所述第一高维编码模块的输出连接,用于将所述普通话高维序列转化为普通话低维序列,所述第一回归模块包括循环神经网络的隐藏层,所述隐藏层有多个,多个所述隐藏层中相邻的两个隐藏层之间设置一层聚焦层;
所述第二比对模型包括:
多个第二特征提取模块,用于提取方言语音样本的方言语音特征,每个所述第二特征提取模块包括卷积层、与卷积层的输出连接的池化层和与池化层的输出连接的全连接层,其中,所述卷积层有多个,多个所述卷积层之间采用跳跃连接的方式连接;
第二高维编码模块,与多个所述第二特征提取模块中最后一个模块的输出连接,用于将所述方言语音特征进行高维编码,得到方言高维序列;
第二回归模块,与所述第二高维编码模块的输出连接,用于将所述方言高维序列转化为方言低维序列,所述第二回归模块包括循环神经网络的隐藏层,所述隐藏层有多个,多个所述隐藏层中相邻的两个隐藏层之间设置一层聚焦层;
基于所述第一比对模型和所述第二比对模型得到编码模型的过程,包括:
将所述第一比对模型通过无监督的知识蒸馏方法向所述第二比对模型进行知识蒸馏得到所述编码模型;
将示例普通话语音输入第一比对模型,并将与和所述示例普通话语音相同语义的方言语音输入所述编码模型;
获取所述第一比对模型的输出和所述编码模型的输出,计算所述第一比对模型的输出和所述编码模型的输出之间的差异度;
基于所述第一比对模型的输出和所述编码模型的输出之间的差异度调整所述编码模型;
解码单元,配置为将所述待识别低维序列进行解码,得到与所述待识别方言语音对应的文本。
9.一种计算机可读程序介质,其上存储有计算机程序指令,其特征在于,包括:
所述计算机程序指令被计算机执行时,使计算机执行上述1-7中任一项所述的方法。
10.一种电子装置,其特征在于,包括:
处理器;以及
存储器,所述存储器上存储有计算机可读指令;其中,所述计算机可读指令被所述处理器执行时,实现上述1-7中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011339518.XA CN112509555B (zh) | 2020-11-25 | 2020-11-25 | 方言语音识别方法、装置、介质及电子设备 |
PCT/CN2021/084305 WO2021213161A1 (zh) | 2020-11-25 | 2021-03-31 | 方言语音识别方法、装置、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011339518.XA CN112509555B (zh) | 2020-11-25 | 2020-11-25 | 方言语音识别方法、装置、介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112509555A true CN112509555A (zh) | 2021-03-16 |
CN112509555B CN112509555B (zh) | 2023-05-23 |
Family
ID=74958592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011339518.XA Active CN112509555B (zh) | 2020-11-25 | 2020-11-25 | 方言语音识别方法、装置、介质及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112509555B (zh) |
WO (1) | WO2021213161A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112885351A (zh) * | 2021-04-30 | 2021-06-01 | 浙江非线数联科技股份有限公司 | 一种基于迁移学习的方言语音识别方法及装置 |
CN113192491A (zh) * | 2021-04-28 | 2021-07-30 | 平安科技(深圳)有限公司 | 声学模型生成方法、装置、计算机设备及存储介质 |
CN113327600A (zh) * | 2021-06-30 | 2021-08-31 | 北京有竹居网络技术有限公司 | 一种语音识别模型的训练方法、装置及设备 |
CN113345451A (zh) * | 2021-04-26 | 2021-09-03 | 北京搜狗科技发展有限公司 | 一种变声方法、装置及电子设备 |
WO2021213161A1 (zh) * | 2020-11-25 | 2021-10-28 | 平安科技(深圳)有限公司 | 方言语音识别方法、装置、介质及电子设备 |
CN114171013A (zh) * | 2021-12-31 | 2022-03-11 | 西安讯飞超脑信息科技有限公司 | 语音识别方法、装置、设备及存储介质 |
US11526774B2 (en) * | 2020-12-15 | 2022-12-13 | Zhejiang Lab | Method for automatically compressing multitask-oriented pre-trained language model and platform thereof |
CN117558264A (zh) * | 2024-01-12 | 2024-02-13 | 联通(广东)产业互联网有限公司 | 一种基于自知识蒸馏的方言语音识别训练方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961775A (zh) * | 2017-12-15 | 2019-07-02 | 中国移动通信集团安徽有限公司 | 基于hmm模型的方言识别方法、装置、设备及介质 |
CN110033757A (zh) * | 2019-04-04 | 2019-07-19 | 行知技术有限公司 | 一种人声识别算法 |
CN110033760A (zh) * | 2019-04-15 | 2019-07-19 | 北京百度网讯科技有限公司 | 语音识别的建模方法、装置及设备 |
CN110706690A (zh) * | 2019-09-16 | 2020-01-17 | 平安科技(深圳)有限公司 | 语音识别方法及其装置 |
CN111145728A (zh) * | 2019-12-05 | 2020-05-12 | 厦门快商通科技股份有限公司 | 语音识别模型训练方法、系统、移动终端及存储介质 |
CN111326157A (zh) * | 2020-01-20 | 2020-06-23 | 北京字节跳动网络技术有限公司 | 文本生成方法、装置、电子设备和计算机可读介质 |
CN111540367A (zh) * | 2020-04-17 | 2020-08-14 | 合肥讯飞数码科技有限公司 | 语音特征提取方法、装置、电子设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108172218B (zh) * | 2016-12-05 | 2021-01-12 | 中国移动通信有限公司研究院 | 一种语音建模方法及装置 |
CN110211565B (zh) * | 2019-05-06 | 2023-04-04 | 平安科技(深圳)有限公司 | 方言识别方法、装置及计算机可读存储介质 |
KR20190080833A (ko) * | 2019-06-18 | 2019-07-08 | 엘지전자 주식회사 | 음성 정보 기반 언어 모델링 시스템 및 방법 |
CN111243575A (zh) * | 2020-01-15 | 2020-06-05 | 北京工业大学 | 基于扩张卷积神经网络的方言种属识别方法 |
CN112509555B (zh) * | 2020-11-25 | 2023-05-23 | 平安科技(深圳)有限公司 | 方言语音识别方法、装置、介质及电子设备 |
-
2020
- 2020-11-25 CN CN202011339518.XA patent/CN112509555B/zh active Active
-
2021
- 2021-03-31 WO PCT/CN2021/084305 patent/WO2021213161A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109961775A (zh) * | 2017-12-15 | 2019-07-02 | 中国移动通信集团安徽有限公司 | 基于hmm模型的方言识别方法、装置、设备及介质 |
CN110033757A (zh) * | 2019-04-04 | 2019-07-19 | 行知技术有限公司 | 一种人声识别算法 |
CN110033760A (zh) * | 2019-04-15 | 2019-07-19 | 北京百度网讯科技有限公司 | 语音识别的建模方法、装置及设备 |
CN110706690A (zh) * | 2019-09-16 | 2020-01-17 | 平安科技(深圳)有限公司 | 语音识别方法及其装置 |
CN111145728A (zh) * | 2019-12-05 | 2020-05-12 | 厦门快商通科技股份有限公司 | 语音识别模型训练方法、系统、移动终端及存储介质 |
CN111326157A (zh) * | 2020-01-20 | 2020-06-23 | 北京字节跳动网络技术有限公司 | 文本生成方法、装置、电子设备和计算机可读介质 |
CN111540367A (zh) * | 2020-04-17 | 2020-08-14 | 合肥讯飞数码科技有限公司 | 语音特征提取方法、装置、电子设备和存储介质 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021213161A1 (zh) * | 2020-11-25 | 2021-10-28 | 平安科技(深圳)有限公司 | 方言语音识别方法、装置、介质及电子设备 |
US11526774B2 (en) * | 2020-12-15 | 2022-12-13 | Zhejiang Lab | Method for automatically compressing multitask-oriented pre-trained language model and platform thereof |
CN113345451A (zh) * | 2021-04-26 | 2021-09-03 | 北京搜狗科技发展有限公司 | 一种变声方法、装置及电子设备 |
CN113345451B (zh) * | 2021-04-26 | 2023-08-22 | 北京搜狗科技发展有限公司 | 一种变声方法、装置及电子设备 |
CN113192491A (zh) * | 2021-04-28 | 2021-07-30 | 平安科技(深圳)有限公司 | 声学模型生成方法、装置、计算机设备及存储介质 |
CN113192491B (zh) * | 2021-04-28 | 2024-05-03 | 平安科技(深圳)有限公司 | 声学模型生成方法、装置、计算机设备及存储介质 |
CN112885351A (zh) * | 2021-04-30 | 2021-06-01 | 浙江非线数联科技股份有限公司 | 一种基于迁移学习的方言语音识别方法及装置 |
CN112885351B (zh) * | 2021-04-30 | 2021-07-23 | 浙江非线数联科技股份有限公司 | 一种基于迁移学习的方言语音识别方法及装置 |
CN113327600A (zh) * | 2021-06-30 | 2021-08-31 | 北京有竹居网络技术有限公司 | 一种语音识别模型的训练方法、装置及设备 |
CN114171013A (zh) * | 2021-12-31 | 2022-03-11 | 西安讯飞超脑信息科技有限公司 | 语音识别方法、装置、设备及存储介质 |
CN114171013B (zh) * | 2021-12-31 | 2024-10-18 | 西安讯飞超脑信息科技有限公司 | 语音识别方法、装置、设备及存储介质 |
CN117558264A (zh) * | 2024-01-12 | 2024-02-13 | 联通(广东)产业互联网有限公司 | 一种基于自知识蒸馏的方言语音识别训练方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2021213161A1 (zh) | 2021-10-28 |
CN112509555B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112509555B (zh) | 方言语音识别方法、装置、介质及电子设备 | |
US10380996B2 (en) | Method and apparatus for correcting speech recognition result, device and computer-readable storage medium | |
US20200402500A1 (en) | Method and device for generating speech recognition model and storage medium | |
WO2021174757A1 (zh) | 语音情绪识别方法、装置、电子设备及计算机可读存储介质 | |
CN110288980A (zh) | 语音识别方法、模型的训练方法、装置、设备及存储介质 | |
CN110516253B (zh) | 中文口语语义理解方法及系统 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN110175336B (zh) | 翻译方法、装置和电子设备 | |
CN111402891A (zh) | 语音识别方法、装置、设备和存储介质 | |
CN112446211A (zh) | 文本处理装置、方法、设备和计算机可读存储介质 | |
CN111814479B (zh) | 一种企业简称生成及其模型的训练方法及装置 | |
WO2023193394A1 (zh) | 语音唤醒模型的训练、唤醒方法、装置、设备及存储介质 | |
CN113362804A (zh) | 一种合成语音的方法、装置、终端及存储介质 | |
CN115312033A (zh) | 基于人工智能的语音情感识别方法、装置、设备及介质 | |
CN115762489A (zh) | 语音识别模型的数据处理系统及方法、语音识别方法 | |
CN113947091A (zh) | 用于语言翻译的方法、设备、装置和介质 | |
CN116364061A (zh) | 多场景语音识别方法、装置、计算机设备及存储介质 | |
CN111767697A (zh) | 文本处理方法、装置、计算机设备以及存储介质 | |
CN114912441A (zh) | 文本纠错模型生成方法、纠错方法、系统、设备和介质 | |
CN111104806B (zh) | 神经机器翻译模型的构建方法及装置、翻译方法及装置 | |
CN113948064A (zh) | 语音合成和语音识别 | |
CN116798044A (zh) | 文本识别方法、装置,以及电子设备 | |
CN113555005B (zh) | 模型训练、置信度确定方法及装置、电子设备、存储介质 | |
CN115294581A (zh) | 错误字符的识别方法、装置、电子设备及存储介质 | |
CN112329391A (zh) | 目标编码器生成方法、装置、电子设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |