CN114282552A - 非自回归翻译模型的训练方法及其装置 - Google Patents

非自回归翻译模型的训练方法及其装置 Download PDF

Info

Publication number
CN114282552A
CN114282552A CN202111353568.8A CN202111353568A CN114282552A CN 114282552 A CN114282552 A CN 114282552A CN 202111353568 A CN202111353568 A CN 202111353568A CN 114282552 A CN114282552 A CN 114282552A
Authority
CN
China
Prior art keywords
text
translation model
mixed
trained
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111353568.8A
Other languages
English (en)
Other versions
CN114282552B (zh
Inventor
王曦阳
张睿卿
何中军
李芝
吴华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202111353568.8A priority Critical patent/CN114282552B/zh
Publication of CN114282552A publication Critical patent/CN114282552A/zh
Priority to US17/974,317 priority patent/US20230051373A1/en
Priority to EP22203878.8A priority patent/EP4116865A3/en
Application granted granted Critical
Publication of CN114282552B publication Critical patent/CN114282552B/zh
Priority to JP2022179428A priority patent/JP2023015236A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供了非自回归翻译模型的训练方法及其装置,涉及人工智能技术领域中的深度学习和自然语言处理领域。具体实现方案为:获取第一源语言文本、第一源语言文本对应的第一目标语言文本和第一目标语言文本的第一目标长度,将第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,根据第一目标语言文本、第一目标语言预测文本、第一目标长度和第一预测长度,对待训练的非自回归翻译模型进行训练,得到非自回归翻译模型,可以减少训练时间,避免局部最优,提升模型的训练效果。

Description

非自回归翻译模型的训练方法及其装置
技术领域
本公开涉及人工智能技术领域中的深度学习和自然语言处理领域,尤其涉及一种非自回归翻译模型的训练方法及其装置。
背景技术
目前,随着人工智能的发展通过应用程序或智能终端进行不同语种间的翻译转换已经普遍存在,在机器翻译中,目前广泛采用的模型架构是编码器-解码器结构,其做法是先对源端语言通过编码器进行编码,将文本信息转换为向量信息,然后根据编码得到的向量信息,再使用解码器将其翻译为目标端的文本。在“编码器-解码器”结构中,编码器和解码器的性能决定了翻译的质量,为提高翻译速度采用非自回归的解码方式进行并行解码即一次翻译过程可以同时翻译出多个词。
但是非自回归翻译模型在数据量较少的稀缺资源语种上难以训练出较好的模型效果,模型在训练过程中很容易陷入局部最优。
发明内容
提供了一种非自回归翻译模型的训练方法及其装置。
根据第一方面,提供了一种非自回归翻译模型的训练方法,包括:获取第一源语言文本、所述第一源语言文本对应的第一目标语言文本和所述第一目标语言文本的第一目标长度;将所述第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,所述待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,所述预训练翻译模型的训练数据为第一混合文本和第二混合文本,所述第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,所述第二混合文本中包括依次排列的所述第二源语言文本对应的第三目标语言文本、所述分隔符和所述第二目标语言文本对应的第三源语言文本;以及根据所述第一目标语言文本、所述第一目标语言预测文本、所述第一目标长度和所述第一预测长度,对所述待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。
根据第二方面,提供了一种非自回归翻译模型的训练装置,包括:第一获取模块,用于获取第一源语言文本、所述第一源语言文本对应的第一目标语言文本和所述第一目标语言文本的第一目标长度;第一生成模块,用于将所述第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,所述待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,所述预训练翻译模型的训练数据为第一混合文本和第二混合文本,所述第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,所述第二混合文本中包括依次排列的所述第二源语言文本对应的第三目标语言文本、所述分隔符和所述第二目标语言文本对应的第三源语言文本;以及第一训练模块,用于根据所述第一目标语言文本、所述第一目标语言预测文本、所述第一目标长度和所述第一预测长度,对所述待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本公开第一方面所述的非自回归翻译模型的训练方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据本公开第一方面所述的非自回归翻译模型的训练方法。
根据第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据本公开第一方面所述非自回归翻译模型的训练方法的步骤。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的非自回归翻译模型的训练方法的流程示意图;
图2是根据本公开的非自回归翻译模型的训练方法中非自回归翻译模型的训练框图;
图3是根据本公开的非自回归翻译模型的训练方法中非自回归翻译模型的第一次推理示意图;
图4是根据本公开的非自回归翻译模型的训练方法中非自回归翻译模型的第n+1次推理示意图;
图5是根据本公开第二实施例的非自回归翻译模型的训练方法的流程示意图;
图6是根据本公开第三实施例的非自回归翻译模型的训练方法的流程示意图;
图7是根据本公开的非自回归翻译模型的训练方法中预训练翻译模型的示意图;
图8是根据本公开第一实施例的非自回归翻译模型的训练装置的框图;
图9是根据本公开第一实施例的非自回归翻译模型的训练装置的框图;
图10是用来实现本公开实施例的非自回归翻译模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
人工智能(ArtificialIntelligence,简称AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。目前,AI技术具有自动化程度高、精确度高、成本低的优点,得到了广泛的应用。
深度学习(Deep Learning,简称DL),是机器学习(Machine Learning,简称ML)领域中一个新的研究方向,学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。就具体研究内容而言,主要包括基于卷积运算的神经网络系统,即卷积神经网络;基于多层神经元的自编码神经网络;以多层自编码神经网络的方式进行预训练,进而结合鉴别信息进一步优化神经网络权值的深度置信网络。深度学习在搜索技术,数据挖掘,机器学习,机器翻译,自然语言处理,多媒体学习,语音,推荐和个性化技术,以及其他相关领域都取得了很多成果。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了很大进步。
自然语言处理(Natural Language Processing,简称NLP)是计算机科学领域与人工智能领域中的一个重要方向,主要研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法,自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系,但又有重要的区别。自然语言处理并不是一般地研究自然语言,而在于研制能有效地实现自然语言通信的计算机系统,特别是其中的软件系统。因而它是计算机科学的一部分。
下面结合附图描述本公开实施例的非自回归翻译模型的训练方法及其装置。
图1是根据本公开第一实施例的非自回归翻译模型的训练方法的流程示意图。
如图1所示,本公开实施例的非自回归翻译模型的训练方法具体可包括以下步骤:
S101,获取第一源语言文本、第一源语言文本对应的第一目标语言文本和第一目标语言文本的第一目标长度。
具体的,本公开实施例的非自回归翻译模型的训练方法的执行主体可为本公开实施例提供的非自回归翻译模型的训练装置,该非自回归翻译模型的训练装置可为具有数据信息处理能力的硬件设备和/或驱动该硬件设备工作所需必要的软件。可选的,执行主体可包括工作站、服务器,计算机、用户终端及其他设备。其中,用户终端包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端等。
具体实施中,从训练数据的多类语种中选取某一个语种作为源语言,例如中文,另一不同语种作为目标语言,例如英文,从训练数据中获取源语言下的待翻译文本作为第一源语言文本,将与第一源语言文本的语义相同的目标语言下的文本作为第一目标语言文本。由此可得到第一源语言文本、第一源语言文本对应的第一目标语言文本和第一目标语言文本的第一目标长度,例如第一目标长度可以为第一目标语言文本的单词数或字数等。
举例说明,以中文作为源语言,英文作为目标语言,获取到的第一源语言文本为“这是一个苹果”,第一源语言文本对应的第一目标语言文本为“This is an apple”,第一目标语言文本的第一目标长度为“This is an apple”的单词数4。
S102,将第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度。
在本公开实施例中,可以基于开源的MBART构建待训练的非自回归翻译模型,该模型基于编码器、解码器和长度预测器实现文本翻译。其中,待训练的非自回归翻译模型的初始化参数可以根据预训练翻译模型的参数确定。
具体实施中,根据非自回归翻译模型构建对应的待训练的预训练翻译模型,基于海量单语数据生成第一混合文本和第二混合文本,以第一混合文本和第二混和文本作为训练数据对待训练的预训练翻译模型进行训练,即将第一混合文本输入待训练的预训练翻译模型进行文本翻译,输出混合预测文本,将输出的混合预测文本与第二混合文本进行比较,以此调整待训练的预训练翻译模型的参数得到预训练翻译模型。其中,第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,第二混合文本中包括依次排列的第二源语言文本对应的第三目标语言文本、分隔符和第二目标语言文本对应的第三源语言文本。需要说明的是,第二源语言文本与第二目标语言文本的语义无需相同。
例如,以中文作为源语言,英文作为目标语言,第一混合文本可以为“她去上学了</s>It is sunny today”,则第二混合文本为“She went to school</s>今天是晴天”。
在待训练的非自回归翻译模型经过参数初始化后,对待训练的非自回归翻译模型进行训练,如图2所示,将第一源语言文本输入至待训练的非自回归翻译模型中,编码器对第一源语言文本进行编码生成编码信息,长度预测器根据编码信息生成第一预测长度即第一目标语言预测文本的长度,本公开实施例对第一源语言文本对应的第一目标语言文本进行掩码(Mask)操作,生成第一目标语言文本的掩码文本,以此作为解码器的输入,解码器根据编码信息对第一目标语言文本的掩码文本进行解码,以生成第一目标语言预测文本。
S103,根据第一目标语言文本、第一目标语言预测文本、第一目标长度和第一预测长度,对待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。
本公开实施例中,根据第一目标语言文本与第一目标语言预测文本的匹配程度以及第一目标长度和第一预测长度是否相同调整非自回归翻译模型的参数,再次对参数调整后的非自回归翻译模型进行训练,通过循环训练不断进行参数优化,得到非自回归翻译模型。
具体实施中,根据本公开实施例的非自回归翻译模型对源语言文本进行文本翻译时,通过长度预测器对目标语言文本的长度进行预测,基于预测长度生成目标语言文本,提高非自回归翻译模型的效果。
举例说明,非自回归翻译模型对源语言文本进行文本翻译时,包括多次推理过程,如图3所示,非自回归翻译模型的第一次推理过程:将待翻译的源语言文本输入至训练好的非自回归翻译模型中,编码器对待翻译的源语言文本进行编码生成编码信息,长度预测器根据编码信息输出预测的文本长度N,将长度为N的掩码文本“N个mask”输入解码器,解码器根据编码信息对掩码文本进行解码得到输出文本。
例如,待翻译的源语言文本为“这是一个苹果”,预测的文本长度N为4,则掩码文本为“<mask><mask><mask><mask>”,经过解码器解码后,得到输出文本,如“thatisaapple”。
如图4所示,非自回归翻译模型进行第n+1次推理时(n为非零自然数),根据解码正确的概率从第n次推理过程的输出文本中选取概率较高的K个字符/字词,将剩余的字符/字词序列进行掩码操作生成第n次推理过程的输出文本对应的掩码文本,以此作为当前推理过程中解码器的输入文本,解码器基于编码信息对输入的文本进行再次解码,得到输出文本。
例如,在第二次推理时,解码器的输入文本可以是“<mask>is<mask>apple”,解码器对“<mask>is<mask>apple”进行解码得到第二次推理的输出文本,如“thisisanapple”。
需要说明的是,将最后一次推理过程的输出文本作为非自回归翻译模型输出的目标语言预测文本,其中推理过程的次数可根据需要设定,本公开不做限定。
综上,本公开实施例的非自回归翻译模型的训练方法,获取第一源语言文本、第一源语言文本对应的第一目标语言文本和第一目标语言文本的第一目标长度,将第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,预训练翻译模型的训练数据为第一混合文本和第二混合文本,第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,第二混合文本中包括依次排列的第二源语言文本对应的第三目标语言文本、分隔符和第二目标语言文本对应的第三源语言文本,以及根据第一目标语言文本、第一目标语言预测文本、第一目标长度和第一预测长度,对待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。本公开通过预训练翻译模型对待训练的非自回归翻译模型进行参数初始化,在此基础上进行非自回归翻译模型的训练可以减少训练时间,避免局部最优,提升模型的训练效果。
图5是根据本公开第二实施例的非自回归翻译模型的训练方法的流程示意图。
如图5所示,在图1所示实施例的基础上,本公开实施例的非自回归翻译模型的训练方法还包括预训练翻译模型的生成方法,具体可包括以下步骤:
S501,获取第一混合文本、第二混合文本和第二混合文本的第二目标长度。
在本公开实施例从训练数据中获取第一混合文本,依次包括:第二源语言文本、分隔符、第二目标语言文本;第二混合文本,包括:依次排列的第二源语言文本对应的第三目标语言文本、分隔符和第二目标语言文本对应的第三源语言文本;以及第二混合文本的第二目标长度。
S502,将第一混合文本输入至待训练的预训练翻译模型中,以生成混合预测文本和第二预测长度。
在本公开实施例中,将第一混合文本输入至待训练的预训练翻译模型中通过编码器、长度预测器和解码器生成混合预测文本和第二预测长度。
S503,根据第二混合文本、混合预测文本、第二目标长度和第二预测长度,对待训练的预训练翻译模型进行训练,得到预训练翻译模型。
在本公开实施例中,根据第二混合文本与混合预测文本的匹配程度以及第二目标长度和第二预测长度是否相同调整预训练翻译模型的参数,再次对参数调整后的预训练翻译模型进行训练,通过循环训练不断进行参数优化,得到训练好的预训练翻译模型。
进一步地,在上述实施例的基础上,如图6所示,待训练的预训练翻译模型通过以下步骤生成混合预测文本和第二预测长度:
S601,待训练的预训练翻译模型中的编码器对第一混合文本进行编码,以生成混合编码信息。
在本公开实施例中,如图7所示,将第一混合文本输入至待训练的预训练翻译模型中的编码器中,通过编码器对第一混合文本进行编码,生成编码混合信息。
S602,待训练的预训练翻译模型中的长度预测器根据混合编码信息生成第二预测长度。
S603,待训练的预训练翻译模型根据第一混合文本生成混合掩码文本。
本公开实施例对第一混合文本中的词进行掩码(Mask)操作,生成对应的混合掩码文本,例如,将第一混合文本中的第二源语言文本和第二目标语言文本进行顺序颠倒,随机对顺序颠倒后的文本中的词进行掩码处理,如第一混合文本为“这是一个苹果</s>This isan apple”,则混合掩码文本可以为“<mask>is an apple</s>这<mask>一个苹果”。
S604,待训练的预训练翻译模型中的解码器根据第二预测长度和编码信息对混合掩码文本进行解码,以生成混合预测文本。
在本公开实施例中,待训练的预训练翻译模型中的解码器根据长度预测器输出的第二预测长度和编码器输出的编码信息对混合掩码文本进行解码,生成混合预测文本。
由此,可以获得训练好的预训练翻译模型,根据预训练翻译模型的编码器的参数确定待训练的非自回归翻译模型的初始化参数,根据预训练翻译模型的解码器的参数确定待训练的非自回归翻译模型的解码器的参数。
综上,本公开实施例的非自回归翻译模型的训练方法,获取第一源语言文本、第一源语言文本对应的第一目标语言文本和第一目标语言文本的第一目标长度,将第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,预训练翻译模型的训练数据为第一混合文本和第二混合文本,第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,第二混合文本中包括依次排列的第二源语言文本对应的第三目标语言文本、分隔符和第二目标语言文本对应的第三源语言文本,以及根据第一目标语言文本、第一目标语言预测文本、第一目标长度和第一预测长度,对待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。本公开通过海量单语数据对待训练的预训练模型进行训练,根据预训练翻译模型的编码器的参数确定待训练的非自回归翻译模型的初始化参数,根据预训练翻译模型的解码器的参数确定待训练的非自回归翻译模型的解码器的参数,在此基础上进行非自回归翻译模型的训练可以减少训练时间,避免局部最优,提升模型的训练效果。
图8是根据本公开第一实施例的非自回归翻译模型的训练装置的框图。
如图8所示,本公开实施例的非自回归翻译模型的训练装置800,包括:第一获取模块801、第一生成模块802和第一训练模块803。
第一获取模块801,用于获取第一源语言文本、第一源语言文本对应的第一目标语言文本和第一目标语言文本的第一目标长度。
第一生成模块802,用于将第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,预训练翻译模型的训练数据为第一混合文本和第二混合文本,第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,第二混合文本中包括依次排列的第二源语言文本对应的第三目标语言文本、分隔符和第二目标语言文本对应的第三源语言文本。
第一训练模块803,用于根据第一目标语言文本、第一目标语言预测文本、第一目标长度和第一预测长度,对待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。
需要说明的是,上述对非自回归翻译模型的训练方法实施例的解释说明,也适用于本公开实施例的非自回归翻译模型的训练装置,具体过程此处不再赘述。
综上,本公开实施例的非自回归翻译模型的训练装置,获取第一源语言文本、第一源语言文本对应的第一目标语言文本和第一目标语言文本的第一目标长度,将第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,预训练翻译模型的训练数据为第一混合文本和第二混合文本,第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,第二混合文本中包括依次排列的第二源语言文本对应的第三目标语言文本、分隔符和第二目标语言文本对应的第三源语言文本,以及根据第一目标语言文本、第一目标语言预测文本、第一目标长度和第一预测长度,对待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。本公开通过预训练翻译模型对待训练的非自回归翻译模型进行参数初始化,在此基础上进行非自回归翻译模型的训练可以减少训练时间,避免局部最优,提升模型的训练效果。。
图9是根据本公开第二实施例的非自回归翻译模型的训练装置的框图。
如图9所示,本公开实施例的非自回归翻译模型的训练装置900,包括:第一获取模块901、第一生成模块902和第一训练模块903。
其中,第一获取模块901与上一实施例中的第一获取模块801具有相同的结构和功能,第一生成模块902与上一实施例中的第一生成模块802具有相同的结构和功能,第一训练模块903与上一实施例中第一训练模块803具有相同的结构和功能。
进一步地,待训练的非自回归翻译模型的编码器的初始化参数是根据预训练翻译模型的编码器的参数确定的,待训练的非自回归翻译模型的解码器的初始化参数是根据预训练翻译模型的解码器的参数确定的。
进一步地,训练装置900还可包括:第二获取模块904,用于获取第一混合文本、第二混合文本和第二混合文本的第二目标长度;第二生成模块905,用于将第一混合文本输入至待训练的预训练翻译模型中,以生成混合预测文本和第二预测长度;以及第二训练模块906,用于根据第二混合文本、混合预测文本、第二目标长度和第二预测长度,对待训练的预训练翻译模型进行训练,得到预训练翻译模型。
进一步地,第二生成模块905具体可包括:编码单元,用于待训练的预训练翻译模型中的编码器对第一混合文本进行编码,以生成混合编码信息;长度预测单元,用于待训练的预训练翻译模型中的长度预测器根据混合编码信息生成第二预测长度;生成单元,用于待训练的预训练翻译模型根据第一混合文本生成混合掩码文本;以及解码单元,用于待训练的预训练翻译模型中的解码器根据第二预测长度和编码信息对混合掩码文本进行解码,以生成混合预测文本。
进一步地,生成单元具体可包括:生成子单元,用于待训练的预训练翻译模型随机对第一混合文本中的词进行掩码操作,以生成混合掩码文本。
综上,本公开实施例的非自回归翻译模型的训练方法,获取第一源语言文本、第一源语言文本对应的第一目标语言文本和第一目标语言文本的第一目标长度,将第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,预训练翻译模型的训练数据为第一混合文本和第二混合文本,第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,第二混合文本中包括依次排列的第二源语言文本对应的第三目标语言文本、分隔符和第二目标语言文本对应的第三源语言文本,以及根据第一目标语言文本、第一目标语言预测文本、第一目标长度和第一预测长度,对待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。本公开通过预训练翻译模型对待训练的非自回归翻译模型进行参数初始化,在此基础上进行非自回归翻译模型的训练可以减少训练时间,避免局部最优,提升模型的训练效果。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,电子设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储电子设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
电子设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许电子设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如图1至图7所示的非自回归翻译模型的训练方法。例如,在一些实施例中,非自回归翻译模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到电子设备1000上。当计算机程序加载到RAM1003并由计算单元1001执行时,可以执行上文描述的非自回归翻译模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行非自回归翻译模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网以及区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
根据本公开的实施例,本公开还提供了一种计算机程序产品,包括计算机程序,其中,计算机程序在被处理器执行时实现根据本公开上述实施例所示的非自回归翻译模型的训练方法的步骤。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (13)

1.一种非自回归翻译模型的训练方法,包括:
获取第一源语言文本、所述第一源语言文本对应的第一目标语言文本和所述第一目标语言文本的第一目标长度;
将所述第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,所述待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,所述预训练翻译模型的训练数据为第一混合文本和第二混合文本,所述第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,所述第二混合文本中包括依次排列的所述第二源语言文本对应的第三目标语言文本、所述分隔符和所述第二目标语言文本对应的第三源语言文本;以及
根据所述第一目标语言文本、所述第一目标语言预测文本、所述第一目标长度和所述第一预测长度,对所述待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。
2.根据权利要求1所述的训练方法,其中,所述待训练的非自回归翻译模型的编码器的初始化参数是根据所述预训练翻译模型的编码器的参数确定的,所述待训练的非自回归翻译模型的解码器的初始化参数是根据所述预训练翻译模型的解码器的参数确定的。
3.根据权利要求1所述的训练方法,还包括:
获取所述第一混合文本、所述第二混合文本和所述第二混合文本的第二目标长度;
将所述第一混合文本输入至待训练的预训练翻译模型中,以生成混合预测文本和第二预测长度;以及
根据所述第二混合文本、所述混合预测文本、所述第二目标长度和所述第二预测长度,对所述待训练的预训练翻译模型进行训练,得到所述预训练翻译模型。
4.根据权利要求3所述的训练方法,其中,所述待训练的预训练翻译模型通过以下步骤生成所述混合预测文本和所述第二预测长度:
所述待训练的预训练翻译模型中的编码器对所述第一混合文本进行编码,以生成混合编码信息;
所述待训练的预训练翻译模型中的长度预测器根据所述混合编码信息生成所述第二预测长度;
所述待训练的预训练翻译模型根据所述第一混合文本生成混合掩码文本;以及
所述待训练的预训练翻译模型中的解码器根据所述第二预测长度和所述编码信息对所述混合掩码文本进行解码,以生成所述混合预测文本。
5.根据权利要求4所述的训练方法,其中,所述待训练的预训练翻译模型根据所述第一混合文本生成混合掩码文本,包括:
所述待训练的预训练翻译模型随机对所述第一混合文本中的词进行掩码操作,以生成所述混合掩码文本。
6.一种非自回归翻译模型的训练装置,包括:
第一获取模块,用于获取第一源语言文本、所述第一源语言文本对应的第一目标语言文本和所述第一目标语言文本的第一目标长度;
第一生成模块,用于将所述第一源语言文本输入至待训练的非自回归翻译模型中,以生成第一目标语言预测文本和第一预测长度,其中,所述待训练的非自回归翻译模型的初始化参数是根据预训练翻译模型的参数确定的,所述预训练翻译模型的训练数据为第一混合文本和第二混合文本,所述第一混合文本中包括依次排列的第二源语言文本、分隔符和第二目标语言文本,所述第二混合文本中包括依次排列的所述第二源语言文本对应的第三目标语言文本、所述分隔符和所述第二目标语言文本对应的第三源语言文本;以及
第一训练模块,用于根据所述第一目标语言文本、所述第一目标语言预测文本、所述第一目标长度和所述第一预测长度,对所述待训练的非自回归翻译模型进行训练,得到非自回归翻译模型。
7.根据权利要求6所述的训练装置,其中,所述待训练的非自回归翻译模型的编码器的初始化参数是根据所述预训练翻译模型的编码器的参数确定的,所述待训练的非自回归翻译模型的解码器的初始化参数是根据所述预训练翻译模型的解码器的参数确定的。
8.根据权利要求6所述的训练装置,还包括:
第二获取模块,用于获取所述第一混合文本、所述第二混合文本和所述第二混合文本的第二目标长度;
第二生成模块,用于将所述第一混合文本输入至待训练的预训练翻译模型中,以生成混合预测文本和第二预测长度;以及
第二训练模块,用于根据所述第二混合文本、所述混合预测文本、所述第二目标长度和所述第二预测长度,对所述待训练的预训练翻译模型进行训练,得到所述预训练翻译模型。
9.根据权利要求8所述的训练装置,其中,所述第二生成模块包括:
编码单元,用于所述待训练的预训练翻译模型中的编码器对所述第一混合文本进行编码,以生成混合编码信息;
长度预测单元,用于所述待训练的预训练翻译模型中的长度预测器根据所述混合编码信息生成所述第二预测长度;
生成单元,用于所述待训练的预训练翻译模型根据所述第一混合文本生成混合掩码文本;以及
解码单元,用于所述待训练的预训练翻译模型中的解码器根据所述第二预测长度和所述编码信息对所述混合掩码文本进行解码,以生成所述混合预测文本。
10.根据权利要求9所述的训练装置,其中,所述生成单元包括:
生成子单元,用于所述待训练的预训练翻译模型随机对所述第一混合文本中的词进行掩码操作,以生成所述混合掩码文本。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-5中任一项所述的方法。
13.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-5中任一项所述方法的步骤。
CN202111353568.8A 2021-11-16 2021-11-16 非自回归翻译模型的训练方法及其装置 Active CN114282552B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202111353568.8A CN114282552B (zh) 2021-11-16 2021-11-16 非自回归翻译模型的训练方法及其装置
US17/974,317 US20230051373A1 (en) 2021-11-16 2022-10-26 Method for training non-autoregressive translation model
EP22203878.8A EP4116865A3 (en) 2021-11-16 2022-10-26 Method and apparatus for training non-autoregressive translation model
JP2022179428A JP2023015236A (ja) 2021-11-16 2022-11-09 非自己回帰翻訳モデルのトレーニング方法及びその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111353568.8A CN114282552B (zh) 2021-11-16 2021-11-16 非自回归翻译模型的训练方法及其装置

Publications (2)

Publication Number Publication Date
CN114282552A true CN114282552A (zh) 2022-04-05
CN114282552B CN114282552B (zh) 2022-11-04

Family

ID=80869178

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111353568.8A Active CN114282552B (zh) 2021-11-16 2021-11-16 非自回归翻译模型的训练方法及其装置

Country Status (4)

Country Link
US (1) US20230051373A1 (zh)
EP (1) EP4116865A3 (zh)
JP (1) JP2023015236A (zh)
CN (1) CN114282552B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442878A (zh) * 2019-06-19 2019-11-12 腾讯科技(深圳)有限公司 翻译方法、机器翻译模型的训练方法、装置及存储介质
CN111931517A (zh) * 2020-08-26 2020-11-13 腾讯科技(深圳)有限公司 文本翻译方法、装置、电子设备以及存储介质
CN112270188A (zh) * 2020-11-12 2021-01-26 佰聆数据股份有限公司 一种提问式的分析路径推荐方法、系统及存储介质
CN112669809A (zh) * 2019-10-16 2021-04-16 百度(美国)有限责任公司 并行神经文本到语音转换
CN113095092A (zh) * 2021-04-19 2021-07-09 南京大学 通过建模协同关系提高非自回归神经机器翻译质量的方法
CN113408303A (zh) * 2021-06-30 2021-09-17 北京百度网讯科技有限公司 翻译模型的训练与翻译方法、装置
CN113468895A (zh) * 2021-05-28 2021-10-01 沈阳雅译网络技术有限公司 一种基于解码器输入增强的非自回归神经机器翻译方法
CN113553864A (zh) * 2021-06-30 2021-10-26 北京百度网讯科技有限公司 翻译模型的训练方法、装置、电子设备及存储介质
CN113590865A (zh) * 2021-07-09 2021-11-02 北京百度网讯科技有限公司 图像搜索模型的训练方法及图像搜索方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112417901A (zh) * 2020-12-03 2021-02-26 内蒙古工业大学 基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110442878A (zh) * 2019-06-19 2019-11-12 腾讯科技(深圳)有限公司 翻译方法、机器翻译模型的训练方法、装置及存储介质
CN112669809A (zh) * 2019-10-16 2021-04-16 百度(美国)有限责任公司 并行神经文本到语音转换
CN111931517A (zh) * 2020-08-26 2020-11-13 腾讯科技(深圳)有限公司 文本翻译方法、装置、电子设备以及存储介质
CN112270188A (zh) * 2020-11-12 2021-01-26 佰聆数据股份有限公司 一种提问式的分析路径推荐方法、系统及存储介质
CN113095092A (zh) * 2021-04-19 2021-07-09 南京大学 通过建模协同关系提高非自回归神经机器翻译质量的方法
CN113468895A (zh) * 2021-05-28 2021-10-01 沈阳雅译网络技术有限公司 一种基于解码器输入增强的非自回归神经机器翻译方法
CN113408303A (zh) * 2021-06-30 2021-09-17 北京百度网讯科技有限公司 翻译模型的训练与翻译方法、装置
CN113553864A (zh) * 2021-06-30 2021-10-26 北京百度网讯科技有限公司 翻译模型的训练方法、装置、电子设备及存储介质
CN113590865A (zh) * 2021-07-09 2021-11-02 北京百度网讯科技有限公司 图像搜索模型的训练方法及图像搜索方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JIATAO GU等: ""Non-autoregressive neural machine translation"", 《ICLR》 *
YINHAN LIU等: ""multiling denoising pre-training for netural machine translation"", 《ARXIV》 *
朱相荣等: "基于非自回归方法的维汉神经机器翻译", 《计算机应用》 *

Also Published As

Publication number Publication date
EP4116865A3 (en) 2023-04-19
US20230051373A1 (en) 2023-02-16
JP2023015236A (ja) 2023-01-31
EP4116865A2 (en) 2023-01-11
CN114282552B (zh) 2022-11-04

Similar Documents

Publication Publication Date Title
US10832658B2 (en) Quantized dialog language model for dialog systems
CN111274764B (zh) 语言生成方法、装置、计算机设备及存储介质
KR20190073525A (ko) 기계 학습 작업의 암시적 브리징
CN112507706B (zh) 知识预训练模型的训练方法、装置和电子设备
CN115309877B (zh) 对话生成方法、对话模型训练方法及装置
JP2022151649A (ja) 音声認識モデルのトレーニング方法、装置、機器、および記憶媒体
CN112506949B (zh) 结构化查询语言查询语句生成方法、装置及存储介质
CN112580339B (zh) 模型的训练方法、装置、电子设备及存储介质
CN114548110A (zh) 语义理解方法、装置、电子设备及存储介质
CN115640520B (zh) 跨语言跨模态模型的预训练方法、设备和存储介质
CN114912450B (zh) 信息生成方法与装置、训练方法、电子设备和存储介质
EP4170542A2 (en) Method for sample augmentation
CN113641830A (zh) 模型预训练方法、装置、电子设备和存储介质
CN115062718A (zh) 语言模型训练方法、装置、电子设备及存储介质
CN112786108A (zh) 分子理解模型的训练方法、装置、设备和介质
CN114281968A (zh) 一种模型训练及语料生成方法、装置、设备和存储介质
CN113763937A (zh) 语音处理模型的生成方法、装置、设备以及存储介质
CN117033582A (zh) 对话模型的训练方法、装置、电子设备和存储介质
CN113468857A (zh) 风格转换模型的训练方法、装置、电子设备以及存储介质
CN112560846A (zh) 纠错语料的生成方法、装置及电子设备
CN115357710B (zh) 表格描述文本生成模型的训练方法、装置及电子设备
CN108920560B (zh) 生成方法、训练方法、装置、计算机可读介质及电子设备
US20220300717A1 (en) Method and apparatus for generating dialogue state
CN114282552B (zh) 非自回归翻译模型的训练方法及其装置
CN114841175A (zh) 机器翻译方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant