CN110110337B - 翻译模型训练方法、介质、装置和计算设备 - Google Patents
翻译模型训练方法、介质、装置和计算设备 Download PDFInfo
- Publication number
- CN110110337B CN110110337B CN201910381441.3A CN201910381441A CN110110337B CN 110110337 B CN110110337 B CN 110110337B CN 201910381441 A CN201910381441 A CN 201910381441A CN 110110337 B CN110110337 B CN 110110337B
- Authority
- CN
- China
- Prior art keywords
- training
- translation
- sentence
- coding
- decoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 331
- 238000013519 translation Methods 0.000 title claims abstract description 233
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000009795 derivation Methods 0.000 claims description 81
- 238000012937 correction Methods 0.000 claims description 12
- 230000015654 memory Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000644 propagated effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000003169 central nervous system Anatomy 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000002864 sequence alignment Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本发明的实施方式提供了一种翻译模型训练方法、介质、装置和计算设备。该方法通过引入生成对抗网络与翻译模型进行联合训练的方式,可以不断优化编码器及解码器的结构参数,尤其可以提高编码器对于不同类型训练语料的鲁棒性,进而能够提高翻译结果的准确性,获得具有更高翻译质量的翻译模型。
Description
背景技术
本部分旨在为权利要求书中陈述的本发明的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
语音翻译技术的一种实现方式是先对待翻译的音频进行语音识别,再根据语音识别得到的文本进行机器翻译,这是目前效果较好的一种方法。该方法的缺点是将整个翻译过程分成了两个阶段,对音频进行语音识别的结果可能会包含一些错误,例如缺少标点、漏词、同音异形词或者断句错误等等,这些错误一般会在机器翻译时被保留下来,导致整个语音翻译的输出质量较差。
发明内容
由于语音识别阶段容易产生各种影响翻译结果的语音噪声,为此非常需要一种改进的翻译模型训练方法,以提高翻译结果对语音噪声的鲁棒性,进而提高语音翻译质量。
在本上下文中,本发明的实施方式期望提供一种翻译模型训练方法、介质、翻译模型训练装置和计算设备。
在本发明实施方式的第一方面中,提供了一种翻译模型训练方法,所述翻译模型包括编码器和解码器,所述方法包括:构建与所述编码器相对应的判别器以形成包括所述编码器和所述判别器的生成对抗网络;分别将第一训练语句、第二训练语句和第三训练语句输入所述编码器,得到所述编码器输出的对应于所述第一训练语句的第一编码向量、对应于所述第二训练语句的第二编码向量和对应于所述第三训练语句的第三编码向量;将所述第一编码向量和所述第二编码向量共同输入所述判别器,得到所述判别器输出的所述第一编码向量和所述第二编码向量的编码相似度;将所述第三编码向量输入所述解码器,得到所述解码器输出的第三翻译语句,并计算所述第三翻译语句与对应于所述第三训练语句的目标翻译语句的翻译差异度;根据输出参数确定训练目标,并利用所述训练目标同时对所述翻译模型和所述生成对抗网络进行训练;其中,所述输出参数包括所述编码相似度和所述翻译差异度。
在本发明的一些示例性实施方式中,所述方法还包括:分别将所述第一编码向量和所述第二编码向量输入所述解码器,得到所述解码器输出的对应于所述第一编码向量的第一翻译语句和对应于所述第二编码向量的第二翻译语句,并计算所述第一翻译语句与所述第二翻译语句的解码差异度;所述输出参数还包括所述解码差异度。
在本发明的一些示例性实施方式中,所述根据输出参数确定训练目标,包括:对所述编码相似度、所述翻译差异度和所述解码差异度按照预设权重系数加权求和以确定训练目标。
在本发明的一些示例性实施方式中,所述编码相似度的权重系数的取值范围为0.1~0.5,所述翻译差异度的权重系数的取值范围为0.1~0.5,所述解码差异度的权重系数为1。
在本发明的一些示例性实施方式中,所述翻译模型还包括预先训练的语音识别模型;所述方法还包括:将训练音频输入所述语音识别模型,得到所述语音识别模型输出的预测识别语句,并将所述预测识别语句作为所述第一训练语句;根据所述训练音频确定对应于所述预测识别语句的目标识别语句,并将所述目标识别语句作为所述第二训练语句。
在本发明的一些示例性实施方式中,所述第一训练语句为包含语音识别噪声的语音识别语句,所述第二训练语句为不含语音识别噪声的语音识别语句。
在本发明的一些示例性实施方式中,所述语音识别噪声的类型包括标点噪声、词语噪声和语句噪声中的一种或者多种。
在本发明的一些示例性实施方式中,所述利用所述训练目标同时对所述翻译模型和所述生成对抗网络进行训练,包括:确定所述编码器的编码参数、所述判别器的判别参数和所述解码器的解码参数;将所述训练目标分别对所述编码参数、所述判别参数和所述解码参数进行求导以得到求导结果;根据所述求导结果同时更新所述编码参数、所述判别参数和所述解码参数,并利用更新后的参数继续训练所述翻译模型和所述生成对抗网络。
在本发明的一些示例性实施方式中,所述根据所述求导结果同时更新所述编码参数、所述判别参数和所述解码参数,包括:确定所述训练目标对所述编码参数求导得到的编码求导结果,并根据所述编码求导结果以及预设的反向修正系数更新所述编码参数;确定所述训练目标对所述判别参数求导得到的判别求导结果,并根据所述判别求导结果更新所述判别参数;确定所述训练目标对所述解码参数求导得到的解码求导结果,并根据所述解码求导结果更新所述解码参数。
在本发明的一些示例性实施方式中,所述反向修正系数为-1。
在本发明的一些示例性实施方式中,所述编码器包括多个编码层,所述编码层包括依次连接的编码器多头注意力层和编码器前向传播网络层;所述解码器包括多个解码层,所述解码层包括依次连接的解码器隐式多头注意力层、解码器多头注意力层和解码器前向传播网络层。
在本发明实施方式的第二方面中,提供了一种介质,其上存储有程序,该程序被处理器执行时实现如以上各示例性实施方式中任意一项所述的方法。
在本发明实施方式的第三方面中,提供了一种翻译模型训练装置,所述翻译模型包括编码器和解码器,所述装置包括:网络构建模块,被配置为构建与所述编码器相对应的判别器以形成包括所述编码器和所述判别器的生成对抗网络;语句编码模块,被配置为分别将第一训练语句、第二训练语句和第三训练语句输入所述编码器,得到所述编码器输出的对应于所述第一训练语句的第一编码向量、对应于所述第二训练语句的第二编码向量和对应于所述第三训练语句的第三编码向量;相似度判别模块,被配置为将所述第一编码向量和所述第二编码向量共同输入所述判别器,得到所述判别器输出的所述第一编码向量和所述第二编码向量的编码相似度;翻译差异度计算模块,被配置为将所述第三编码向量输入所述解码器,得到所述解码器输出的第三翻译语句,并计算所述第三翻译语句与对应于所述第三训练语句的目标翻译语句的翻译差异度;联合训练模块,被配置为根据输出参数确定训练目标,并利用所述训练目标同时对所述翻译模型和所述生成对抗网络进行训练;其中,所述输出参数包括所述编码相似度和所述翻译差异度。
在本发明的一些示例性实施方式中,所述装置还包括:解码差异度计算模块,被配置为分别将所述第一编码向量和所述第二编码向量输入所述解码器,得到所述解码器输出的对应于所述第一编码向量的第一翻译语句和对应于所述第二编码向量的第二翻译语句,并计算所述第一翻译语句与所述第二翻译语句的所述解码差异度;所述输出参数还包括所述解码差异度。
在本发明的一些示例性实施方式中,所述根据输出参数确定训练目标,包括:对所述编码相似度、所述翻译差异度和所述解码差异度按照预设权重系数加权求和以确定训练目标。
在本发明的一些示例性实施方式中,所述编码相似度的权重系数的取值范围为0.1~0.5,所述翻译差异度的权重系数的取值范围为0.1~0.5,所述解码差异度的权重系数为1。
在本发明的一些示例性实施方式中,所述翻译模型还包括预先训练的语音识别模型;所述装置还包括:第一语句识别模块,被配置为将训练音频输入所述语音识别模型,得到所述语音识别模型输出的预测识别语句,并将所述预测识别语句作为所述第一训练语句;第二语句识别模块,被配置为根据所述训练音频确定对应于所述预测识别语句的目标识别语句,并将所述目标识别语句作为所述第二训练语句。
在本发明的一些示例性实施方式中,所述第一训练语句为包含语音识别噪声的语音识别语句,所述第二训练语句为不含语音识别噪声的语音识别语句。
在本发明的一些示例性实施方式中,所述语音识别噪声的类型包括标点噪声、词语噪声和语句噪声中的一种或者多种。
在本发明的一些示例性实施方式中,所述联合训练模块包括:参数确定模块,被配置为确定所述编码器的编码参数、所述判别器的判别参数和所述解码器的解码参数;参数求导模块,被配置为将所述训练目标分别对所述编码参数、所述判别参数和所述解码参数进行求导以得到求导结果;参数更新模块,被配置为根据所述求导结果同时更新所述编码参数、所述判别参数和所述解码参数,并利用更新后的参数继续训练所述翻译模型和所述生成对抗网络。
在本发明的一些示例性实施方式中,所述参数更新模块包括:编码参数更新模块,被配置为确定所述训练目标对所述编码参数求导得到的编码求导结果,并根据所述编码求导结果以及预设的反向修正系数更新所述编码参数;判别参数更新模块,被配置为确定所述训练目标对所述判别参数求导得到的判别求导结果,并根据所述判别求导结果更新所述判别参数;解码参数更新模块,被配置为确定所述训练目标对所述解码参数求导得到的解码求导结果,并根据所述解码求导结果更新所述解码参数。
在本发明的一些示例性实施方式中,所述反向修正系数为-1。
在本发明的一些示例性实施方式中,所述编码器包括多个编码层,所述编码层包括依次连接的编码器多头注意力层和编码器前向传播网络层;所述解码器包括多个解码层,所述解码层包括依次连接的解码器隐式多头注意力层、解码器多头注意力层和解码器前向传播网络层。
在本发明示例性实施方式提供的翻译模型训练方法中,通过引入生成对抗网络与翻译模型进行联合训练的方式,可以不断优化编码器及解码器的结构参数,尤其可以提高编码器对于不同类型训练语料的鲁棒性,进而能够提高翻译结果的准确性,获得具有更高翻译质量的翻译模型。特别是在应用于语音翻译模型时,即便存在语音识别噪声,也能得到准确性较高的翻译结果,而且结合生成对抗网络进行训练的方式可以避免损害干净文本(即不含语言识别噪声的文本)的翻译质量。
附图说明
通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,其中:
图1示意性地示出了根据本发明实施方式的翻译模型训练方法在一应用场景下的训练架构;
图2示意性地示出了根据本发明一实施例的翻译模型训练方法的步骤流程图。
图3示意性地示出了根据本发明另一实施例的翻译模型训练方法中获得训练语句的步骤流程图。
图4示意性地示出了根据本发明另一实施例的翻译模型训练方法中联合训练翻译模型和生成对抗网络的步骤流程图;
图5示意性地示出了根据本发明另一实施例的翻译模型训练方法中更新模型参数的步骤流程图;
图6示意性地示出了根据本发明另一实施例的翻译模型训练装置的结构框图;
图7示意性地示出了根据本发明另一实施例的翻译模型训练装置中联合训练模块的结构框图;
图8示意性地示出了根据本发明另一实施例的翻译模型训练装置中参数更新模块的结构框图;
在附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参考若干示例性实施方式来描述本发明的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。相反,提供这些实施方式是为了使本发明更加透彻和完整,并且能够将本发明的范围完整地传达给本领域的技术人员。
本领域技术人员知道,本发明的实施方式可以实现为一种系统、装置、设备、方法或计算机程序产品。因此,本发明可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式。
根据本发明的实施方式,提出了一种翻译模型训练方法、介质、翻译模型训练装置和计算设备。
在本文中,需要理解的是,所涉及的术语解释如下:
神经网络(Neural Network,NN):人工神经网络(Artificial Neural Network,ANN),简称神经网络或类神经网络,在机器学习和认知科学领域,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。
语音识别(Speech Recognition,SR):也被称为自动语音识别(Automatic SpeechRecognition,ASR)、计算机语音识别(Computer Speech Recognition,CSR)或者语音转文本识别(Speech To Text,STT),其目标是使用计算机自动将人类的语音内容转换为相应的文字。
机器翻译(Machine Translation,MT):属于计算语言学的范畴,其研究借由计算机程序将文字或演说从一种自然语言翻译成另一种自然语言。神经网络机器翻译(NeuralMachine Translation,NMT)是使用神经网络技术进行机器翻译的一种技术。
语音翻译(Speech Translation):又称自动语音翻译,是通过计算机将一种自然语言的语音翻译为另一种自然语言的文本或语音的技术,一般可以由语音识别和机器翻译两阶段组成。
编码器-解码器结构:机器翻译技术常用的网络结构。由编码器和解码器两部分组成,编码器将输入的文本转换为一系列能够表达输入文本特征的上下文向量,解码器接收编码器输出的结果作为自己的输入,输出对应的另一种语言的文本序列。
生成对抗网络(Generative Adversarial Network,简称GAN):非监督式学习的一种方法,通过让两个神经网络相互博弈的方式进行学习,一般由一个生成网络与一个判别网络组成。生成网络从潜在空间(latent space)中随机采样作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入则为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来。而生成网络则要尽可能地欺骗判别网络。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实。
此外,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
下面参考本发明的若干代表性实施方式,详细阐释本发明的原理和精神。
发明概述
本发明人发现,导致语音翻译质量较差的一部分原因在于语音识别阶段引入的识别噪声,即语音识别中出现的识别错误。由于噪声种类繁多、难以准确模拟,在语音识别阶段进行优化存在可控性差的问题,对于翻译质量的提升较为有限,因此本发明主要通过提高翻译模型对语音识别噪声的鲁棒性的方式对整体的语音翻译模型进行优化。本发明在翻译模型的基础上引入生成对抗网络,并使用了两部分不同的训练语料。其中一部分训练语料是语音识别语料(ASR语料),包含有音频以及对音频标注得到的文本。第二部分训练语料是文本翻译语料,即一种语言文本到另一种语言文本的平行句对。本发明涉及的训练方法主要可以分为两阶段,第一阶段是使用ASR语料用来训练ASR模型,并利用训练好的ASR模型识别音频得到音频的输出文本。音频输出文本、标注文本以及文本翻译语料在第二阶段中供翻译模型训练使用。本发明对生成对抗网络和翻译模型进行联合训练,训练过程中能够引入接近真实的语音识别噪声,提高了翻译模型的鲁棒性,进而能够提高语音翻译质量。
在介绍了本发明的基本原理之后,下面具体介绍本发明的各种非限制性实施方式。
应用场景总览
需要注意的是,下述应用场景仅是为了便于理解本发明的精神和原理而示出,本发明的实施方式在此方面不受任何限制。相反,本发明的实施方式可以应用于适用的任何场景。
参考图1所示的在一应用场景下的训练架构,本发明实施方式中提供的翻译模型训练方法所涉及的翻译模型可以包括编码器11和解码器12,另外还可以包括一语音识别模型13。语音识别模型13用于对基于第一自然语言(如英文)的音频文件进行语音识别得到识别文本,识别文本与标注文本进行语句对齐(Sentence Alignment)后输入至编码器中进行编码。其中,识别文本Xauto经编码后得到编码向量Hauto,标注文本Xmanual经编码后得到编码向量Hmanual。训练过程中引入一判别器14,将编码器11作为生成器,与判别器14一起构成生成对抗网络。判别器14的目标是通过学习区分编码器11的输出结果是Hauto或者Hmanual,而编码器11的目标是通过学习生成与Hmanual相类似的Hauto以使判别器14无法对二者进行区分。由编码器11输出的编码向量可以同时输入判别器14和解码器12,根据判别器14的输出结果可以得到关于Hauto和Hmanual的编码相似度的输出参数L1,解码器12则可以对编码向量Hauto和Hmanual进行解码以得到基于第二自然语言(如中文)的翻译语句并可以根据解码器12的输出结果得到输出参数L2。除此之外,还可以利用平行语料库(Parallel Corpus)对翻译模型进行训练,其输出参数为L3。其中平行语料库包括基于第一自然语言的训练文本Xtrain和基于第二自然语言的翻译文本Ytrain。由L1、L2和L3进行组合可以得到供联合训练之用的训练目标L,并基于该训练目标L对翻译模型和生成对抗网络进行联合训练,以在对抗中提高翻译模型的性能。
示例性方法
下面结合上述的应用场景,参考图2至图5来描述根据本发明示例性实施方式的翻译模型训练方法。
如图2所示,在本发明示例性实施方式提供的翻译模型训练方法中,翻译模型可以包括编码器和解码器,该方法主要可以包括以下步骤:
步骤S210.构建与编码器相对应的判别器以形成包括编码器和判别器的生成对抗网络。
为了对翻译模型进行训练,本步骤首先将编码器作为生成器,构建与之相对应的判别器,以形成一生成对抗网络,该生成对抗网络和翻译模型之间可以共用编码器。其中,编码器、解码器和判别器均可以基于神经网络进行构建,例如可以采用卷积神经网络(Convolutional Neural Networks,CNN)、循环神经网络(Recurrent Neural Network,RNN)、长短期记忆网络(Long Short-Term Memory,LSTM)、注意力模型(Attention Model)或者其他任意的模型结构。另外,编码器、解码器以及判别器可以使用相同的模型结构也可以使用不同的模型结构,本示例性实施方式对此不做特殊限定。
步骤S220.分别将第一训练语句、第二训练语句和第三训练语句输入编码器,得到编码器输出的对应于第一训练语句的第一编码向量、对应于第二训练语句的第二编码向量和对应于第三训练语句的第三编码向量。
完成生成对抗网络的构建后,本步骤可以将预先准备的训练语料输入至由生成对抗网络和翻译模型所共用的编码器中。本步骤中所使用的训练语料至少可以包括对应不同训练需求的第一训练语句、第二训练语句和第三训练语句。其中,第一训练语句例如可以是上述应用场景中的识别文本Xauto,编码器输出的第一编码向量相应即为编码向量Hauto;第二训练语句例如可以是上述应用场景中的标注文本Xmanual,编码器输出的第二编码向量相应即为编码向量Hmanual;第三训练语句例如可以是上述应用场景中的训练文本Xtrain,编码器也将对训练文本Xtrain进行编码以输出得到第三编码向量。当然,在其他一些示例性实施方式中,也可以根据训练需求配置其他的具有不同类型和数量的训练语料。
步骤S230.将第一编码向量和第二编码向量共同输入判别器,得到判别器输出的第一编码向量和第二编码向量的编码相似度。
针对步骤S220中由编码器编码得到的第一编码向量和第二编码向量,本步骤将二者共同输入至判别器中,由判别器对其进行比较以输出编码相似度。当然,在其他一些示例性实施方式中,判别器的输出结果也可以表示为与相似程度相对的基于差异程度的编码差异度,编码相似度或者编码差异度均可以采用百分比的形式进行表征。另外,判别器也可以采用二分类的方式作为输出结果,例如当编码相似度大于某一阈值时输出结果为“相同”,当编码相似度小于或等于该阈值时输出结果为“不同”。判别器的输出结果主要用于判断编码器对于第一训练语句和第二训练语句的编码结果是否相似。
步骤S240.将第三编码向量输入解码器,得到解码器输出的第三翻译语句,并计算第三翻译语句与对应于第三训练语句的目标翻译语句的翻译差异度。
针对步骤S230中由编码器编码得到的第三编码向量,本步骤将其输入至解码器中,由解码器对其进行解码以输出第三翻译语句,同时可以将第三翻译语句与对应于第三训练语句的目标翻译语句进行比较以得到第三翻译语句和目标翻译语句的翻译差异度。例如当第三训练语句为上述应用场景中的基于第一自然语言的训练文本Xtrain时,目标翻译语句即为基于的第二自然语言的翻译文本Ytrain。翻译差异度主要用于衡量经过编码和解码后得到的翻译结果是否准确。当然,在其他一些示例性实施方式中,也可以采用与翻译差异度相对的翻译相似度对解码器的解码性能进行表征。
步骤S250.根据输出参数确定训练目标,并利用训练目标同时对翻译模型和生成对抗网络进行训练;其中,输出参数包括编码相似度和翻译差异度。
由步骤S230得到的编码相似度和步骤S240得到的翻译差异度可以作为输出参数,本步骤可以根据输出参数确定训练目标。以上述应用场景为例,编码相似度为输出参数L1,翻译差异度为输出参数L3,对L1和L3进行组合可以得到供联合训练之用的训练目标L,然后利用该训练目标L可以同时对翻译模型和生成对抗网络进行训练。另外,在其他一些示例性实施方式中,用于确定训练目标的输出参数还可以包括其他部分,例如上述应用场景中的输出参数L2。实际的训练过程可以采用循环迭代、反向传播等常用的训练方法,具体可以是在迭代或者传播过程中对编码器、解码器以及判别器的相关参数进行不断更新直至满足预设的训练条件,例如可以是训练目标的取值符合某一阈值范围,也可以是基于循环迭代或者反向传播的训练次数达到某一数值。当满足训练条件时,即可认为翻译模型训练结束。
在本发明示例性实施方式提供的翻译模型训练方法中,通过引入生成对抗网络与翻译模型进行联合训练的方式,可以不断优化编码器及解码器的结构参数,尤其可以提高编码器对于不同类型训练语料的鲁棒性,进而能够提高翻译结果的准确性,获得具有更高翻译质量的翻译模型。特别是在应用于语音翻译模型时,即便存在语音识别噪声,也能得到准确性较高的翻译结果,而且结合生成对抗网络进行训练的方式可以避免损害干净文本(即不含语言识别噪声的文本)的翻译质量。
在以上示例性实施方式的基础上,在对翻译模型进行训练时,除了将第一编码向量和第二编码向量输入判别器进行编码相似度的判别以外,还可以执行如下步骤:分别将第一编码向量和第二编码向量输入解码器,得到解码器输出的对应于第一编码向量的第一翻译语句和对应于第二编码向量的第二翻译语句,并计算第一翻译语句与第二翻译语句的解码差异度。与此相应的,用于确定训练目标的输出参数还可以包括计算得到的第一翻译语句与第二翻译语句的解码差异度。以上述应用场景为例,解码差异度可以作为输出参数L2,与L1和L3一起纳入至训练目标L的计算中。通过引入输出参数L2可以实现数据增强的目的,提高解码器的解码质量。
在本发明的一些示例性实施方式中,待训练的翻译模型除了编码器和解码器两部分之外,还可以包括与编码器串联的语音识别模型,语音识别模型的输出将作为编码器的输入。在结合生成对抗网络训练编码器和解码器之前,可以预先对语言识别模型进行训练。在此基础上,翻译模型的训练方法还可以包括如图3所示的以下步骤:
步骤S310.将训练音频输入语音识别模型,得到语音识别模型输出的预测识别语句,并将预测识别语句作为第一训练语句。
作为文本翻译的前一阶段,语音识别模型可以首先对待翻译的音频进行语音识别以的语音识别文本。在完成语音识别模型的训练后,本步骤可以将训练音频输入该语言识别模型中,由语音识别模型输出的预测识别语句可以作为步骤S220中所使用的第一训练语句。由于语音识别模型的输出结果可能存在语音识别噪声,因此第一训练语句即可能是包含语音识别噪声的语音识别语句。
步骤S320.根据训练音频确定对应于预测识别语句的目标识别语句,并将目标识别语句作为第二训练语句。
针对步骤S310得到的由语音识别模型输出的预测识别语句,本步骤可以根据训练音频确定与之相对应的目标识别语句,并可以将目标识别语句作为步骤S220中所使用的第二训练语句。例如目标识别语句可以是根据训练音频标注得到的不含语言识别噪声的语音识别语句。
第一训练语句中可能包含的语音识别噪声的类型可以包括标点噪声、词语噪声和语句噪声中的一种或者多种。其中,标点噪声例如可以是缺少标点、标点错误等与识别文本中标点符号相关的噪声,词语噪声例如可以是漏词、同音异形词等与识别文本中词语识别相关的噪声,语句噪声例如可以是词序错误、语法错误、断句错误等与识别文本中语句内容相关的噪声。
在本示例性实施方式提供的翻译模型训练方法中,利用预训练的语音识别模型确定第一训练语句和第二训练语句,可以在翻译模型的训练中引入由语音识别模型产生的较为真实的语音识别噪声。相比于人为添加噪声的方式,可以在真实应用场景中取得更好的使用效果。另外,在本发明的其他一些示例性实施方式中,也可以从包含语音识别噪声的第一训练语句出发,对其进行去噪处理以得到不含语音识别噪声的第二训练语句;另外还可以从不含语言识别噪声的第二训练语句出发,对其进行模拟增加噪声的处理以得到包含语音识别噪声的第一训练语句;本发明对此不作特殊限定。
基于上述应用场景及各示例性实施方式,对应编码相似度的输出参数L1的形式化定义可以表示为:
其中,θenc为编码器G的参数,可以记为编码参数;θdis为判别器D的参数,可以记为判别参数,s表示Xmanual以及Xauto的样本集合。判别器D的目标是最大化D(G(Xmanual))概率同时最小化D(G(Xauto))的概率,而编码器G的目标是最大化D(G(Xauto))的概率,一般可以使用迭代训练来达成目标。
针对识别文本Xauto和标注文本Xmanual,为了使解码器的输出结果尽可能一致,可以使用与编码器部分相似的联合生成对抗网络训练的方式进行对抗学习。另外也可以使用数据增强的方式,具体而言,首先将标注文本Xmanual经过编码器和解码器进行翻译后得到翻译文本Ymanual,此时得到的翻译文本Ymanual可以作为当前状态下Xauto最好的翻译结果,因此将Ymanual作为Xauto的翻译参考结果。在此基础上,对应解码差异度的输出参数L2的形式化定义可以表示为:
其中,θdec为解码器的参数,可以记为解码参数,P表示由编码器和解码器组成的翻译模型。
针对平行语料库中的基于第一自然语言的训练文本Xtrain和基于第二自然语言的翻译文本Ytrain,可以用于对编码器和解码器组成的翻译模型的基本翻译能力进行训练。对应翻译差异度的输出参数L3的形式化定义可以表示为:
其中,t表示训练文本Xtrain以及翻译文本Ytrain的样本集合。
作为一种可选方式,步骤S250中根据输出参数确定训练目标的方法可以包括:对编码相似度、翻译差异度和解码差异度按照预设权重系数加权求和以确定训练目标。例如可以采用如下公式进行计算:
L=αL1+βL2+γL3
其中,α、β和γ分别是三种输出参数的权重系数,可以作为超参数进行预先设定并可以在训练过程中进行调整以获得更好的训练效果。举例而言,权重系数γ的取值为1时,权重系数α和β的取值范围可以是0.1~0.5。不同的权重系数决定了编码相似度、翻译差异度和解码差异度等不同输出参数在训练目标中所占的比重,对翻译模型的训练效果和使用效果都将产生一定程度的影响。
如图4所示,在本发明的一些示例性实施方式中,步骤S250中的利用训练目标同时对翻译模型和生成对抗网络进行训练,可以包括以下步骤:
步骤S410.确定编码器的编码参数、判别器的判别参数和解码器的解码参数。
在将Xauto、Xmanual和Xtrain等训练样本输入至由翻译模型和生成对抗网络组成的训练架构中,进行一次前向传播后,可以确定当前状态下的各个模型组成部分的参数,即可以确定编码器的编码参数、判别器的判别参数和解码器的解码参数。与此同时,可以根据上文提供的方法确定训练目标L。
步骤S420.将训练目标分别对编码参数、判别参数和解码参数进行求导以得到求导结果。
基于前向传播得到的训练目标,可以确定当前状态下的训练误差,然后采用反向传播的方式将训练误差向各个模型组成部分进行传递,即可以将训练目标分别对编码参数、判别参数和解码参数进行求导以得到各自的求导结果。
步骤S430.根据求导结果同时更新编码参数、判别参数和解码参数,并利用更新后的参数继续训练翻译模型和生成对抗网络。
根据步骤S420得到的求导结果,本步骤可以同时对编码参数、判别参数和解码参数进行更新,然后再次将训练样本输入经过参数更新后的训练架构中进行前向传播,以对翻译模型和生成对抗网络继续进行训练。一般而言,此时输出得到的训练目标将比前次训练获得更低的训练误差。不断重复以上训练过程,即可实现对翻译模型的不断优化。
如图5所示,在以上示例性实施方式的基础上,步骤S430中的根据求导结果同时更新编码参数、判别参数和解码参数,可以包括以下步骤:
步骤S510.确定训练目标对编码参数求导得到的编码求导结果,并根据编码求导结果以及预设的反向修正系数更新编码参数。
由上文中根据输出参数确定训练目标的方法以及各个输出参数的确定方法可以得知,训练目标L对编码参数θenc求导得到的编码求导结果可以包括三个部分,即包括分别对输出参数L1、L2和L3中的编码参数θenc的求导结果,本步骤可以将输出参数L1中对编码参数θenc的导数乘以预设的反向修正系数再进行反向传播,而其他部分所涉及的对编码参数θenc的导数则按照正常的梯度反向传播,从而实现对编码参数的更新。其中,反向修正系数例如可以为-1。
步骤S520.确定训练目标对判别参数求导得到的判别求导结果,并根据判别求导结果更新判别参数。
训练目标L对判别参数θdis求导得到的判别求导结果包括对输出参数L1中的判别参数θdis的求导结果,本步骤可以利用该求导结果按照正常的梯度反向传播以实现对判别参数的更新。
步骤S530.确定训练目标对解码参数求导得到的解码求导结果,并根据解码求导结果更新解码参数。
训练目标L对解码参数θdec求导得到的解码求导结果包括两个部分,即包括分别对输出参数L2和L3中的解码参数θdec的求导结果,本步骤可以利用这两部分求导结果按照正常的梯度反向传播以实现对解码参数的更新。
一般而言,生成对抗网络的训练过程需要对生成器和判别器进行交替迭代训练,即可以在固定生成器参数的基础上对判别器参数进行更新,然后在固定判别器参数的基础上对生成器参数进行更新,如此循环往复实现对生成器和判别器的训练,这种交替迭代的方式存在训练效率低的缺点。在本示例性实施方式中,通过在反向传播时针对编码参数的求导结果设置一反向修正系数,可以实现同时对作为生成器的编码器以及判别器进行参数更新和优化,从而可以简化训练过程、提高训练效率。
在本发明的一些示例性实施方式中,包括翻译模型和生成对抗网络的训练结构可以使用基于注意力模型(如Transformer模型)的神经网络结构。举例而言,编码器包括多个具有相同结构的编码层,每一编码层又可以包括依次连接的编码器多头注意力层(Multi-Head Attention Layer)和编码器前向传播网络层(Feed Forward Layer);解码器包括多个具有相同结构的解码层,每一解码层又可以包括依次连接的解码器隐式多头注意力层(Masked Multi-Head Attention Layer)、解码器多头注意力层和解码器前向传播网络层;判别器包括多个具有相同结构的判别层,每一判别层又可以包括依次连接的判别器多头注意力层和判别器前向传播网络层。基于注意力模型的训练结构,可以解决训练并行度的问题,同时也可以降低计算复杂度,具有较高的训练效率和训练效果。
示例性介质
在介绍了本发明示例性实施方式的方法之后,接下来,对本发明示例性实施方式的介质进行说明。
在一些可能的实施方式中,本发明的各个方面还可以实现为一种介质,其上存储有程序代码,当所述程序代码被设备的处理器执行时用于实现本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的翻译模型训练方法中的步骤。
具体地,所述设备的处理器执行所述程序代码时可以用于实现如图2所示的以下各个步骤:步骤S210.构建与编码器相对应的判别器以形成包括编码器和判别器的生成对抗网络。步骤S220.分别将第一训练语句、第二训练语句和第三训练语句输入编码器,得到编码器输出的对应于第一训练语句的第一编码向量、对应于第二训练语句的第二编码向量和对应于第三训练语句的第三编码向量。步骤S230.将第一编码向量和第二编码向量共同输入判别器,得到判别器输出的第一编码向量和第二编码向量的编码相似度。步骤S240.将第三编码向量输入解码器,得到解码器输出的第三翻译语句,并计算第三翻译语句与对应于第三训练语句的目标翻译语句的翻译差异度。步骤S250.根据输出参数确定训练目标,并利用训练目标同时对翻译模型和生成对抗网络进行训练;其中,输出参数包括编码相似度和翻译差异度。
在本发明的一些实施方式中,所述设备的处理器执行所述程序代码时用于实现如图3所示的以下各个步骤:步骤S310.将训练音频输入语音识别模型,得到语音识别模型输出的预测识别语句,并将预测识别语句作为第一训练语句。步骤S320.根据训练音频确定对应于预测识别语句的目标识别语句,并将目标识别语句作为第二训练语句。
在本发明的一些实施方式中,所述设备的处理器执行所述程序代码时用于实现如图4所示的以下各个步骤:步骤S410.确定编码器的编码参数、判别器的判别参数和解码器的解码参数。步骤S420.将训练目标分别对编码参数、判别参数和解码参数进行求导以得到求导结果。步骤S430.根据求导结果同时更新编码参数、判别参数和解码参数,并利用更新后的参数继续训练翻译模型和生成对抗网络。
在本发明的一些实施方式中,所述设备的处理器执行所述程序代码时用于实现如图5所示的以下各个步骤:步骤S510.确定训练目标对编码参数求导得到的编码求导结果,并根据编码求导结果以及预设的反向修正系数更新编码参数。步骤S520.确定训练目标对判别参数求导得到的判别求导结果,并根据判别求导结果更新判别参数。步骤S530.确定训练目标对解码参数求导得到的解码求导结果,并根据解码求导结果更新解码参数。
需要说明的是:上述的介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是但不限于:电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于:电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线、光缆、RF等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
示例性装置
在介绍了本发明示例性实施方式的介质之后,接下来,参考图6至图8对本发明示例性实施方式的翻译模型训练装置进行说明。
如图6所示,在本发明的一种示例性实施方式中,翻译模型训练装置600主要可以包括:网络构建模块610、语句编码模块620、相似度判别模块630、翻译差异度计算模块640和联合训练模块650。其中,网络构建模块610被配置为构建与编码器相对应的判别器以形成包括编码器和判别器的生成对抗网络;语句编码模块620被配置为分别将第一训练语句、第二训练语句和第三训练语句输入编码器,得到编码器输出的对应于第一训练语句的第一编码向量、对应于第二训练语句的第二编码向量和对应于第三训练语句的第三编码向量;相似度判别模块630被配置为将第一编码向量和第二编码向量共同输入判别器,得到判别器输出的第一编码向量和第二编码向量的编码相似度;翻译差异度计算模块640被配置为将第三编码向量输入解码器,得到解码器输出的第三翻译语句,并计算第三翻译语句与对应于第三训练语句的目标翻译语句的翻译差异度;联合训练模块650被配置为根据输出参数确定训练目标,并利用训练目标同时对翻译模型和生成对抗网络进行训练;其中,输出参数包括编码相似度和翻译差异度。
继续参考图6,在本发明的另一示例性实施方式中,翻译模型训练装置600还可以包括解码差异度计算模块660,解码差异度计算模块660被配置为分别将第一编码向量和第二编码向量输入解码器,得到解码器输出的对应于第一编码向量的第一翻译语句和对应于第二编码向量的第二翻译语句,并计算第一翻译语句与第二翻译语句的解码差异度。在此基础上,联合训练模块650所使用的输出参数还包括由解码差异度计算模块660得到的解码差异度。
继续参考图6,在本发明的另一示例性实施方式中,翻译模型包括预先训练的语音识别模型,翻译模型训练装置600还可以包括:第一语句识别模块670和第二语句识别模块680。其中,第一语句识别模块670被配置为将训练音频输入语音识别模型,得到语音识别模型输出的预测识别语句,并将预测识别语句作为第一训练语句;第二语句识别模块680被配置为根据训练音频确定对应于预测识别语句的目标识别语句,并将目标识别语句作为第二训练语句。
如图7所示,在以上示例性实施方式的基础上,联合训练模块650可以进一步包括:参数确定模块710、参数求导模块720和参数更新模块730。其中,参数确定模块710被配置为确定编码器的编码参数、判别器的判别参数和解码器的解码参数;参数求导模块720被配置为将训练目标分别对编码参数、判别参数和解码参数进行求导以得到求导结果;参数更新模块730被配置为根据求导结果同时更新编码参数、判别参数和解码参数,并利用更新后的参数继续训练翻译模型和生成对抗网络。
如图8所示,在以上示例性实施方式的基础上,参数更新模块730可以进一步包括:编码参数更新模块810、判别参数更新模块820和解码参数更新模块830。其中,编码参数更新模块810被配置为确定训练目标对编码参数求导得到的编码求导结果,并根据编码求导结果以及预设的反向修正系数更新编码参数;判别参数更新模块820被配置为确定训练目标对判别参数求导得到的判别求导结果,并根据判别求导结果更新判别参数;解码参数更新模块830被配置为确定训练目标对解码参数求导得到的解码求导结果,并根据解码求导结果更新解码参数。
以上实施方式中涉及的模块或者单元所执行的具体操作已在对应的方法实施例中进行说明,此处不再赘述。
示例性计算设备
在介绍了本发明示例性实施方式的方法、介质和装置之后,接下来,介绍根据本发明的另一示例性实施方式的计算设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
在一些可能的实施方式中,根据本发明实施方式的计算设备可以至少包括至少一个处理器、以及至少一个存储器。其中,所述存储器存储有程序代码,当所述程序代码被所述处理器执行时,使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的翻译模型训练方法中的步骤。例如,所述处理器可以执行如图2中所示的步骤:步骤S210.构建与编码器相对应的判别器以形成包括编码器和判别器的生成对抗网络。步骤S220.分别将第一训练语句、第二训练语句和第三训练语句输入编码器,得到编码器输出的对应于第一训练语句的第一编码向量、对应于第二训练语句的第二编码向量和对应于第三训练语句的第三编码向量。步骤S230.将第一编码向量和第二编码向量共同输入判别器,得到判别器输出的第一编码向量和第二编码向量的编码相似度。步骤S240.将第三编码向量输入解码器,得到解码器输出的第三翻译语句,并计算第三翻译语句与对应于第三训练语句的目标翻译语句的翻译差异度。步骤S250.根据输出参数确定训练目标,并利用训练目标同时对翻译模型和生成对抗网络进行训练;其中,输出参数包括编码相似度和翻译差异度。又如,所述处理器也可以执行如图3至图5中所示的步骤。
应当注意,尽管在上文详细描述中提及了翻译模型训练装置的若干单元或子单元,但是这种划分仅仅是示例性的,并非是强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块或单元的特征和功能可以在一个模块或单元中具体化。反之,上文描述的一个模块或单元的特征和功能可以进一步划分为由多个模块或单元来具体化。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本发明的精神和原理,但是应该理解,本发明并不限于所描述的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。
Claims (24)
1.一种翻译模型训练方法,所述翻译模型包括编码器和解码器,所述方法包括:
构建与所述编码器相对应的判别器以形成包括所述编码器和所述判别器的生成对抗网络;
分别将第一训练语句、第二训练语句和第三训练语句输入所述编码器,得到所述编码器输出的对应于所述第一训练语句的第一编码向量、对应于所述第二训练语句的第二编码向量和对应于所述第三训练语句的第三编码向量;
将所述第一编码向量和所述第二编码向量共同输入所述判别器,得到所述判别器输出的所述第一编码向量和所述第二编码向量的编码相似度;
将所述第三编码向量输入所述解码器,得到所述解码器输出的第三翻译语句,并计算所述第三翻译语句与对应于所述第三训练语句的目标翻译语句的翻译差异度;
根据输出参数确定训练目标,并利用所述训练目标同时对所述翻译模型和所述生成对抗网络进行训练;其中,所述输出参数包括所述编码相似度和所述翻译差异度。
2.根据权利要求1所述的翻译模型训练方法,所述方法还包括:
分别将所述第一编码向量和所述第二编码向量输入所述解码器,得到所述解码器输出的对应于所述第一编码向量的第一翻译语句和对应于所述第二编码向量的第二翻译语句,并计算所述第一翻译语句与所述第二翻译语句的解码差异度;
所述输出参数还包括所述解码差异度。
3.根据权利要求2所述的翻译模型训练方法,所述根据输出参数确定训练目标,包括:
对所述编码相似度、所述翻译差异度和所述解码差异度按照预设权重系数加权求和以确定训练目标。
4.根据权利要求3所述的翻译模型训练方法,所述编码相似度的权重系数的取值范围为0.1~0.5,所述翻译差异度的权重系数的取值范围为0.1~0.5,所述解码差异度的权重系数为1。
5.根据权利要求1所述的翻译模型训练方法,所述翻译模型还包括预先训练的语音识别模型;所述方法还包括:
将训练音频输入所述语音识别模型,得到所述语音识别模型输出的预测识别语句,并将所述预测识别语句作为所述第一训练语句;
根据所述训练音频确定对应于所述预测识别语句的目标识别语句,并将所述目标识别语句作为所述第二训练语句。
6.根据权利要求1所述的翻译模型训练方法,所述第一训练语句为包含语音识别噪声的语音识别语句,所述第二训练语句为不含语音识别噪声的语音识别语句。
7.根据权利要求6所述的翻译模型训练方法,所述语音识别噪声的类型包括标点噪声、词语噪声和语句噪声中的一种或者多种。
8.根据权利要求1至7中任意一项所述的翻译模型训练方法,所述利用所述训练目标同时对所述翻译模型和所述生成对抗网络进行训练,包括:
确定所述编码器的编码参数、所述判别器的判别参数和所述解码器的解码参数;
将所述训练目标分别对所述编码参数、所述判别参数和所述解码参数进行求导以得到求导结果;
根据所述求导结果同时更新所述编码参数、所述判别参数和所述解码参数,并利用更新后的参数继续训练所述翻译模型和所述生成对抗网络。
9.根据权利要求8所述的翻译模型训练方法,所述根据所述求导结果同时更新所述编码参数、所述判别参数和所述解码参数,包括:
确定所述训练目标对所述编码参数求导得到的编码求导结果,并根据所述编码求导结果以及预设的反向修正系数更新所述编码参数;
确定所述训练目标对所述判别参数求导得到的判别求导结果,并根
据所述判别求导结果更新所述判别参数;
确定所述训练目标对所述解码参数求导得到的解码求导结果,并根据所述解码求导结果更新所述解码参数。
10.根据权利要求9所述的翻译模型训练方法,所述反向修正系数为-1。
11.根据权利要求1至7中任意一项所述的翻译模型训练方法,所述编码器包括多个编码层,所述编码层包括依次连接的编码器多头注意力层和编码器前向传播网络层;
所述解码器包括多个解码层,所述解码层包括依次连接的解码器隐式多头注意力层、解码器多头注意力层和解码器前向传播网络层;
所述判别器包括多个具有相同结构的判别层,所述判别层包括依次连接的判别器多头注意力层和判别器前向传播网络层。
12.一种介质,其上存储有程序,该程序被处理器执行时实现如权利要求1至11中任意一项所述的方法。
13.一种翻译模型训练装置,所述翻译模型包括编码器和解码器,所述装置包括:
网络构建模块,被配置为构建与所述编码器相对应的判别器以形成包括所述编码器和所述判别器的生成对抗网络;
语句编码模块,被配置为分别将第一训练语句、第二训练语句和第三训练语句输入所述编码器,得到所述编码器输出的对应于所述第一训练语句的第一编码向量、对应于所述第二训练语句的第二编码向量和对应于所述第三训练语句的第三编码向量;
相似度判别模块,被配置为将所述第一编码向量和所述第二编码向量共同输入所述判别器,得到所述判别器输出的所述第一编码向量和所述第二编码向量的编码相似度;
翻译差异度计算模块,被配置为将所述第三编码向量输入所述解码器,得到所述解码器输出的第三翻译语句,并计算所述第三翻译语句与对应于所述第三训练语句的目标翻译语句的翻译差异度;
联合训练模块,被配置为根据输出参数确定训练目标,并利用所述
训练目标同时对所述翻译模型和所述生成对抗网络进行训练;其中,所述输出参数包括所述编码相似度和所述翻译差异度。
14.根据权利要求13所述的翻译模型训练装置,所述装置还包括:
解码差异度计算模块,被配置为分别将所述第一编码向量和所述第二编码向量输入所述解码器,得到所述解码器输出的对应于所述第一编码向量的第一翻译语句和对应于所述第二编码向量的第二翻译语句,并计算所述第一翻译语句与所述第二翻译语句的所述解码差异度;
所述输出参数还包括所述解码差异度。
15.根据权利要求14所述的翻译模型训练装置,所述根据输出参数确定训练目标,包括:
对所述编码相似度、所述翻译差异度和所述解码差异度按照预设权重系数加权求和以确定训练目标。
16.根据权利要求15所述的翻译模型训练装置,所述编码相似度的权重系数的取值范围为0.1~0.5,所述翻译差异度的权重系数的取值范围为0.1~0.5,所述解码差异度的权重系数为1。
17.根据权利要求13所述的翻译模型训练装置,所述翻译模型还包括预先训练的语音识别模型;所述装置还包括:
第一语句识别模块,被配置为将训练音频输入所述语音识别模型,得到所述语音识别模型输出的预测识别语句,并将所述预测识别语句作为所述第一训练语句;
第二语句识别模块,被配置为根据所述训练音频确定对应于所述预测识别语句的目标识别语句,并将所述目标识别语句作为所述第二训练语句。
18.根据权利要求13所述的翻译模型训练装置,所述第一训练语句为包含语音识别噪声的语音识别语句,所述第二训练语句为不含语音识别噪声的语音识别语句。
19.根据权利要求18所述的翻译模型训练装置,所述语音识别噪声的类型包括标点噪声、词语噪声和语句噪声中的一种或者多种。
20.根据权利要求13至19中任意一项所述的翻译模型训练装置,所
述联合训练模块包括:
参数确定模块,被配置为确定所述编码器的编码参数、所述判别器的判别参数和所述解码器的解码参数;
参数求导模块,被配置为将所述训练目标分别对所述编码参数、所述判别参数和所述解码参数进行求导以得到求导结果;
参数更新模块,被配置为根据所述求导结果同时更新所述编码参数、所述判别参数和所述解码参数,并利用更新后的参数继续训练所述翻译模型和所述生成对抗网络。
21.根据权利要求20所述的翻译模型训练装置,所述参数更新模块包括:
编码参数更新模块,被配置为确定所述训练目标对所述编码参数求导得到的编码求导结果,并根据所述编码求导结果以及预设的反向修正系数更新所述编码参数;
判别参数更新模块,被配置为确定所述训练目标对所述判别参数求导得到的判别求导结果,并根据所述判别求导结果更新所述判别参数;
解码参数更新模块,被配置为确定所述训练目标对所述解码参数求导得到的解码求导结果,并根据所述解码求导结果更新所述解码参数。
22.根据权利要求21所述的翻译模型训练装置,所述反向修正系数为-1。
23.根据权利要求13至19中任意一项所述的翻译模型训练装置,所述编码器包括多个编码层,所述编码层包括依次连接的编码器多头注意力层和编码器前向传播网络层;
所述解码器包括多个解码层,所述解码层包括依次连接的解码器隐式多头注意力层、解码器多头注意力层和解码器前向传播网络层;
所述判别器包括多个具有相同结构的判别层,所述判别层包括依次连接的判别器多头注意力层和判别器前向传播网络层。
24.一种计算设备,包括:处理器和存储器,所述存储器存储有可执行指令,所述处理器用于调用所述存储器存储的可执行指令执行如权利要求1至11中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910381441.3A CN110110337B (zh) | 2019-05-08 | 2019-05-08 | 翻译模型训练方法、介质、装置和计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910381441.3A CN110110337B (zh) | 2019-05-08 | 2019-05-08 | 翻译模型训练方法、介质、装置和计算设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110110337A CN110110337A (zh) | 2019-08-09 |
CN110110337B true CN110110337B (zh) | 2023-04-18 |
Family
ID=67488944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910381441.3A Active CN110110337B (zh) | 2019-05-08 | 2019-05-08 | 翻译模型训练方法、介质、装置和计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110110337B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528680B (zh) * | 2019-08-29 | 2024-04-05 | 上海卓繁信息技术股份有限公司 | 语料扩充方法及系统 |
CN110598224B (zh) * | 2019-09-23 | 2024-06-04 | 腾讯科技(深圳)有限公司 | 翻译模型的训练方法、文本处理方法、装置及存储介质 |
CN111144140B (zh) * | 2019-12-23 | 2023-07-04 | 语联网(武汉)信息技术有限公司 | 基于零次学习的中泰双语语料生成方法及装置 |
CN111178097B (zh) * | 2019-12-24 | 2023-07-04 | 语联网(武汉)信息技术有限公司 | 基于多级翻译模型生成中泰双语语料的方法及装置 |
CN111160043B (zh) * | 2019-12-31 | 2024-04-30 | 科大讯飞股份有限公司 | 特征编码方法、装置、电子设备及可读存储介质 |
CN111767742B (zh) * | 2020-05-20 | 2023-07-25 | 云知声智能科技股份有限公司 | 篇章翻译网络的数据增强方法 |
CN113723088A (zh) * | 2020-05-25 | 2021-11-30 | 阿里巴巴集团控股有限公司 | 自然语言处理方法、装置、文本处理方法、设备和介质 |
CN111859997B (zh) * | 2020-06-16 | 2024-01-26 | 北京百度网讯科技有限公司 | 机器翻译中的模型训练方法、装置、电子设备及存储介质 |
CN111785281A (zh) * | 2020-06-17 | 2020-10-16 | 国家计算机网络与信息安全管理中心 | 一种基于信道补偿的声纹识别方法及系统 |
CN114333830A (zh) * | 2020-09-30 | 2022-04-12 | 中兴通讯股份有限公司 | 同声传译模型的训练方法、同声传译方法、设备和存储介质 |
CN114692652A (zh) * | 2020-12-31 | 2022-07-01 | 北京金山数字娱乐科技有限公司 | 翻译模型训练方法及装置、翻译方法及装置 |
CN113284485B (zh) * | 2021-07-09 | 2021-11-09 | 中国科学院自动化研究所 | 统一中英混合文本生成和语音识别的端到端系统 |
CN113505611B (zh) * | 2021-07-09 | 2022-04-15 | 中国人民解放军战略支援部队信息工程大学 | 在生成对抗中获得更好的语音翻译模型的训练方法和系统 |
CN113378586B (zh) * | 2021-07-15 | 2023-03-28 | 北京有竹居网络技术有限公司 | 语音翻译方法、翻译模型训练方法、装置、介质及设备 |
CN115240708A (zh) * | 2021-09-30 | 2022-10-25 | 达闼科技(北京)有限公司 | 模型训练方法、装置、电子设备和计算机可读存储介质 |
CN114512112A (zh) * | 2022-01-26 | 2022-05-17 | 达闼科技(北京)有限公司 | 语音合成模型的训练方法、装置、电子设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368475A (zh) * | 2017-07-18 | 2017-11-21 | 中译语通科技(北京)有限公司 | 一种基于生成对抗神经网络的机器翻译方法和系统 |
CN107368476A (zh) * | 2017-07-25 | 2017-11-21 | 深圳市腾讯计算机系统有限公司 | 一种翻译的方法、目标信息确定的方法及相关装置 |
CN108304390A (zh) * | 2017-12-15 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 基于翻译模型的训练方法、翻译方法、装置及存储介质 |
CN109326283A (zh) * | 2018-11-23 | 2019-02-12 | 南京邮电大学 | 非平行文本条件下基于文本编码器的多对多语音转换方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11461785B2 (en) * | 2008-07-10 | 2022-10-04 | Ron M. Redlich | System and method to identify, classify and monetize information as an intangible asset and a production model based thereon |
-
2019
- 2019-05-08 CN CN201910381441.3A patent/CN110110337B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368475A (zh) * | 2017-07-18 | 2017-11-21 | 中译语通科技(北京)有限公司 | 一种基于生成对抗神经网络的机器翻译方法和系统 |
CN107368476A (zh) * | 2017-07-25 | 2017-11-21 | 深圳市腾讯计算机系统有限公司 | 一种翻译的方法、目标信息确定的方法及相关装置 |
CN108304390A (zh) * | 2017-12-15 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 基于翻译模型的训练方法、翻译方法、装置及存储介质 |
CN109326283A (zh) * | 2018-11-23 | 2019-02-12 | 南京邮电大学 | 非平行文本条件下基于文本编码器的多对多语音转换方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110110337A (zh) | 2019-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110110337B (zh) | 翻译模型训练方法、介质、装置和计算设备 | |
CN110598224B (zh) | 翻译模型的训练方法、文本处理方法、装置及存储介质 | |
US10380996B2 (en) | Method and apparatus for correcting speech recognition result, device and computer-readable storage medium | |
Ren et al. | Almost unsupervised text to speech and automatic speech recognition | |
EP3926623B1 (en) | Speech recognition method and apparatus, and neural network training method and apparatus | |
CN110287461B (zh) | 文本转换方法、装置及存储介质 | |
CN110706692B (zh) | 儿童语音识别模型的训练方法及系统 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
Li et al. | One sentence one model for neural machine translation | |
CN108763504A (zh) | 一种基于强化双通道序列学习的对话回复生成方法及系统 | |
US11475225B2 (en) | Method, system, electronic device and storage medium for clarification question generation | |
CN111402861B (zh) | 一种语音识别方法、装置、设备及存储介质 | |
CN108845994B (zh) | 利用外部信息的神经机器翻译系统及翻译系统的训练方法 | |
CN113591462A (zh) | 弹幕回复生成方法、装置及电子设备 | |
CN114067786A (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN117877460A (zh) | 语音合成方法、装置、语音合成模型训练方法、装置 | |
Gao et al. | Self-supervised pre-training for attention-based encoder-decoder asr model | |
CN113554040B (zh) | 一种基于条件生成对抗网络的图像描述方法、装置设备 | |
CN114372140A (zh) | 分层会议摘要生成模型训练方法、生成方法及装置 | |
CN110750997A (zh) | 一种基于生成对抗学习的机器翻译方法及装置 | |
Cheng et al. | Weakly supervised construction of asr systems with massive video data | |
CN117197268A (zh) | 图像生成方法、装置及存储介质 | |
CN111462734A (zh) | 语义槽填充模型训练方法及系统 | |
CN112687262A (zh) | 语音转换方法、装置、电子设备及计算机可读存储介质 | |
CN113160801B (zh) | 语音识别方法、装置以及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |