CN113807106B - 翻译模型的训练方法、装置、电子设备及存储介质 - Google Patents
翻译模型的训练方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113807106B CN113807106B CN202111014476.7A CN202111014476A CN113807106B CN 113807106 B CN113807106 B CN 113807106B CN 202111014476 A CN202111014476 A CN 202111014476A CN 113807106 B CN113807106 B CN 113807106B
- Authority
- CN
- China
- Prior art keywords
- translation
- information
- target
- model
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了一种翻译模型的训练方法、装置、电子设备及存储介质,涉及计算机技术领域,尤其涉及深度学习、自然语言处理等人工智能技术领域。具体实现方案为:接收调整信息,所述调整信息,用于对已有翻译结果进行调整,所述已有翻译结果,是对待翻译信息翻译得到的,并根据所述调整信息和所述已有翻译结果,确定目标翻译结果,以及根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型。由此,实现参考已有翻译结果的调整信息对初始翻译模型进行自动化地迭代训练,能够有效降低翻译模型的训练成本,并且能够较大程度地提升翻译模型的训练效率,辅助提升目标翻译模型的翻译效率和翻译质量。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及深度学习、自然语言处理等人工智能技术领域,具体涉及一种翻译模型的训练方法、装置、电子设备及存储介质。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术,以及机器学习、深度学习、大数据处理技术、知识图谱技术等几大方向。
相关技术中,在翻译模型的训练过程中,通常是采用海量训练语料,对通用的机器翻译模型进行训练,需要耗费较高的训练成本,且翻译模型的训练效率较低。
发明内容
本公开提供了一种翻译模型的训练方法、装置、电子设备、存储介质以及计算机程序产品。
根据本公开的第一方面,提供了一种翻译模型的训练方法,包括:接收调整信息,所述调整信息,用于对已有翻译结果进行调整,所述已有翻译结果,是对待翻译信息翻译得到的;根据所述调整信息和所述已有翻译结果,确定目标翻译结果;以及根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型。
根据本公开的第二方面,提供了一种翻译模型的训练方法,包括:接收模块,用于接收调整信息,所述调整信息,用于对已有翻译结果进行调整,所述已有翻译结果,是对待翻译信息翻译得到的;确定模块,用于根据所述调整信息和所述已有翻译结果,确定目标翻译结果;以及训练模块,用于根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型。
根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面的翻译模型的训练方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面的翻译模型的训练方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面的翻译模型的训练方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其他特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开实施例的翻译模型训练的方法的流程示意图;
图3是根据本公开实施例的翻译模型解码的框架示意图;
图4是根据本公开实施例的翻译结果修改界面示意图
图5是根据本公开实施例的翻译模型自动训练模块的示意图;
图6是根据本公开第二实施例的示意图;
图7是根据本公开第三实施例的示意图;
图8是根据本公开第四实施例的示意图;
图9是根据本公开第五实施例的示意图;
图10示出了可以用来实施本公开实施例的翻译模型的训练方法的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本公开第一实施例的示意图。
其中,需要说明的是,本实施例的翻译模型的训练方法的执行主体为翻译模型的训练装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。
本公开实施例涉及深度学习、自然语言处理等人工智能技术领域。
其中,人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
自然语言处理(Natural Language Processing,NLP),能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。
如图1所示,该翻译模型训练方法,包括:
S101:接收调整信息,调整信息,用于对已有翻译结果进行调整,已有翻译结果,是对待翻译信息翻译得到的。
其中,待对其进行翻译的信息,即可以被称为待翻译信息,而信息可以具体例如为短语、句子、单词等,对此不做限制。
其中,对待翻译信息进行翻译得到的结果,可以被称为已有翻译结果。以待翻译信息是汉语“我喜欢吃苹果”为例,翻译结果可以是英语“I like eating apples”,当然翻译结果也可以是法语、韩语,德语等其他语言,对此不做限制。
本实施例中,如图2所示,图2是根据本公开实施例的翻译模型的训练的方法的流程示意图,包括:翻译记忆库、翻译模型,对待翻译信息进行翻译,以得到已有翻译结果,可以是响应于用户的翻译请求,将用户提供的待翻译信息提供给翻译记忆库,翻译记忆库可以根据待翻译信息通过检索的方式,查找已翻译过的相似的多个翻译信息及与翻译信息对应的翻译结果,并把该多个翻译信息和对应的翻译结果提供给翻译模型,翻译模型再根据前述提供的多个翻译信息和对应的翻译结果,做出与待翻译信息对应的翻译结果,该翻译结果即可以被称为已有翻译结果。
其中,翻译模型可以是人工智能模型,具体例如为神经网络模型或者是机器学习模型,当然也可以是其他任意可能的能够执行翻译任务的模型,对此不做限制。
其中,检索方式可以具体例如为词频-逆文本指数(Term Frequency–InverseDocument Frequency,TF-IDF)、文本编辑距离等,对此不做限制。
例如,如果用户提供的待翻译信息是“我想吃苹果”,则可以翻译记忆库中检索到相似的翻译信息“我喜欢吃苹果”,“我想吃梨”,以及与前述翻译信息对应的翻译结果“Ilike eat apples”,“I want to eat pear”,可以将上述检索到的{我喜欢吃苹果,I likeeat apples},{我想吃梨,I want to eat pear}编码到翻译模型中,来指导翻译模型解码,以得到翻译模型输出的与待翻译信息对应的翻译结果“I want to eat apple”。
如图3所示,图3是根据本公开实施例的翻译模型解码的框架示意图,如图3所示,可以在翻译模型解码器的部分引入编码器-解码器-翻译记忆库层,并将检索到的相似的翻译信息输入编码器-解码器-翻译记忆库层,再一并结合注意力机制层及编码器-解码器,实现对翻译模型的解码,输出与待翻译信息对应的已有翻译结果。
本实施例中,由于是在翻译记忆库中查找与待翻译信息相似的翻译信息,并根据该翻译信息和与翻译信息对应的翻译结果,得到与待翻译信息对应的已有翻译结果,在此过程中,已有翻译结果可能会具有一定的偏差,此时可以根据该偏差生成相应的调整信息,调整信息可以用于对已有翻译结果进行调整。
其中,用于对翻译结果进行调整的信息,即可以被称为调整信息,调整信息可以具体例如为语法调整信息、语义调整信息等、语序调整信息等,对此不做限制。
本实施例中,上述在根据用户提供的待翻译信息,将相应的翻译结果提供给用户后,用户可以自行决定沿用或者修改翻译结果,在此过程中,用于表征用户沿用或者修改翻译结果的信息即可以被称为调整信息。
S102:根据调整信息和已有翻译结果,确定目标翻译结果。
本实施例中,支持采用机器翻译与译后编辑相结合的翻译模式确定目标翻译结果,即响应于用户的翻译请求,可以启用机翻译的翻译模式对用户提供的待翻译信息进行翻译,以得到相应的已有翻译结果,由于机器翻译产生的翻译结果可能会存在一定偏差,此时通过译后编辑对机器翻译的翻译结果进行调整,以得到调整后的翻译结果,该结果即可以被称为目标翻译结果。
其中,译后编辑的过程,可以看做是采用调整信息对已有翻译结果进行调整,以得到目标翻译结果的过程,即翻译用户可以根据自己的翻译需求,根据调整信息对以有翻译结果做出相应调整,以得到目标翻译结果。
一些实施例中,根据调整信息和已有翻译结果,确定目标翻译结果,可以是根据调整信息对已有翻译结果进行调整,并将调整得到的翻译结果作为目标翻译结果,或者,还可以根据调整信息和已有翻译结果,确定目标翻译结果,可以是将调整信息和已有翻译结果共同作为目标翻译结果。由此能够有效地提升翻译结果的准确性,使得调整得到的目标翻译结果更加符合用户的翻译需求,有效地提升翻译用户的满意度。
举例而言,如图4所示,图4是根据本公开实施例的翻译结果修改界面示意图,上述在在根据用户提供的待翻译信息,将相应的已有翻译结果提供给用户后,如果用户决定对该已有翻译结果进行修改,则可以根据调整信息对已有翻译结果进行修改,并将修改得到的翻译结果作为目标翻译结果。
举例而言,上述在在根据用户提供的待翻译信息,将已有翻译结果提供给用户后,如果用户决定继续沿用该已有翻译结果,还可以将调整信息和已有翻译结果共同作为目标翻译结果。
另一些实施例中,根据调整信息和已有翻译结果,确定目标翻译结果,还可以是将调整信息和已有翻译结果输入预先训练好的深度学习模型中,以得到该模型输出的目标翻译结果,或者也可以采用其它任意可能的方式,根据调整信息和已有翻译结果,确定目标翻译结果,例如人工修改的方式,对此不做限制。
S103:根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。
其中,当前待对其进行训练的翻译模型即可以被称为初始翻译模型,该初始翻译模型可以是人工智能模型,具体例如为神经网络模型或者是机器学习模型,当然也可以是其他任意可能的能够执行翻译任务的模型,对此不做限制。
上述在根据调整信息和翻译结果,确定目标翻译结果后,可以根据待翻译信息和目标翻译结果训练初始翻译模型,以得到训练好的翻译模型,该模型即可以被称为目标翻译模型。
也即是说,上述在确定目标翻译结果后,可以将待翻译信息和目标翻译结果输入至初始翻译模型,以对初始翻译模型进行模型迭代训练,直至训练得到的翻译模型满足一定的收敛条件,将训练得到的翻译模型作为目标翻译模型。
一些实施例中,可以针对初始翻译模型预先配置损失函数,在训练初始翻译模型的过程中,将模型输出的翻译结果(模型输出的翻译结果可以是训练过程中的翻译模型对待翻译信息进行翻译,得到的翻译结果)和目标翻译结果作为损失函数的输入参数(也即是说,将目标翻译结果作为翻译模型的标注数据,以辅助确定训练得到的翻译模型的损失情况),并确定损失函数的输出值以作为损失值,而后,将损失值与预先设定的损失阈值进行比对,以确定是否满足收敛时机(如果满足收敛时机,则可以指示:模型收敛),如果判定模型收敛,则可以将训练得到的翻译模型作为目标翻译模型。
可选地,另一些实施例中,所述根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型,可以是在所述根据所述调整信息对所述已有翻译结果进行调整时,根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型,由于是对初始翻译模型进行实时地自动化训练,从而有效地提升了针对翻译模型更新迭代训练的及时性,并且该实时地自动化训练过程是基于调整信息自动触发执行的,从而可以避免用户进行手动翻译操作,有效地提高用户的翻译体验度,且能够使得训练得到的翻译模型可以满足不同用户的个性化翻译需求。
如图5所示,图5是根据本公开实施例的翻译模型自动训练模块的示意图,也即是说,本公开实施例中,当用户在根据调整信息对已有翻译结果进行调整时,待翻译信息和目标翻译结果可以自动更新进初始翻译模型,以实现对初始翻译模型的实时自动训练。
本实施例中,通过接收调整信息,调整信息,用于对已有翻译结果进行调整,已有翻译结果,是对待翻译信息翻译得到的,并根据调整信息和已有翻译结果,确定目标翻译结果,以及根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。由此,实现参考已有翻译结果的调整信息对初始翻译模型进行自动化地迭代训练,能够有效降低翻译模型的训练成本,并且能够较大程度地提升翻译模型的训练效率,辅助提升目标翻译模型的翻译效率和翻译质量。
图6是根据本公开第二实施例的示意图。
如图6所示,该翻译模型训练方法,包括:
S601:接收调整信息,调整信息,用于对已有翻译结果进行调整,已有翻译结果,是对待翻译信息翻译得到的。
S602:根据调整信息和已有翻译结果,确定目标翻译结果。
S601-S602的描述说明可以具体参见上述实施例,在此不再赘述。
S603:获取初始翻译关系,初始翻译关系包括:多个候选翻译信息,和与多个候选翻译信息分别对应的多个候选翻译结果。
其中,在翻译模型翻译的初始阶段,翻译记忆库对应的翻译关系即可以被称为初始翻译关系,初始翻译关系包括:多个候选翻译信息,和与多个候选翻译信息分别对应的多个候选翻译结果。
其中,候选翻译信息可以是翻译记忆库存储的历史用户提供的翻译信息,即每当用户每发起一次翻译请求,翻译记忆库可以响应于用户的翻译请求,对用户提供的翻译信息进行相应存储,多个被存储的翻译信息即可以被称为候选翻译信息。
其中,多个候选翻译信息可以分别对应多个翻译结果,该翻译结果即可以被称为候选翻译结果,多个候选翻译信息和多个候选翻译结果之间具有相应的对应关系,该对应关系即可以被称为初始翻译关系。
也即是说,翻译记忆库可以对用户每次提供的翻译信息和与待翻译信息对应的翻译结果进行存储,从而当用户提供新的翻译请求时,可以响应于用户新的翻译请求,在翻译记忆库中检索与待翻译信息相似的候选翻译信息,并根据与候选翻译信息对应的初始翻译关系,确定与候选翻译信息对应的候选翻译结果。
S604:根据目标翻译结果更新初始翻译关系,以得到目标翻译关系。
上述在获取初始翻译关系后,可以根据目标翻译结果对初始翻译关系进行更新,以得到更新后的翻译关系,该翻译关系即可以被称为目标翻译关系。
可选地,一些实施例中,根据目标翻译结果更新初始翻译关系,以得到目标翻译关系,可以是从多个候选翻译信息之中,确定与待翻译信息对应的候选翻译信息,并确定与对应的候选翻译信息所对应候选翻译结果,并将对应候选翻译结果调整为目标翻译结果,以得到目标翻译关系,从而实现及时地对翻译关系进行相应的更新,使得目标翻译关系能够有效地适配个性化的翻译需求,实现简便,便于实施,并且,还能够有效地提升本公开所提供翻译模型的训练方法的应用灵活性和适用性,便于翻译模型的训练方法的应用拓展,全方面地保障翻译效果。
也即是说,可以从翻译记忆库的多个候选翻译信息中,确定与待翻译信息对应的候选翻译信息,并根据初始翻译关系确定与候选翻译信息对应的候选翻译结果,再将候选翻译结果调整为上述得到的目标翻译结果,此时,目标翻译结果和候选翻译信息之间可以建立新的关联关系,该关联关系即可以被称为目标关联关系。
本实施例中,可以一并结合上述图2对本实施例做具体解释说明,通过对初始翻译关系进行更新,以得到目标翻译关系,从而可以实现对翻译记忆库对应的翻译关系进行更新,从而翻译用户可以基于目标翻译关系得到与待翻译信息更为适配的翻译结果,有效地提升翻译的准确性,有效地满足用户的个性化翻译需求。
本实施例中,通过接收调整信息,调整信息,用于对已有翻译结果进行调整,已有翻译结果,是对待翻译信息翻译得到的,并根据调整信息和已有翻译结果,确定目标翻译结果,再获取初始翻译关系,初始翻译关系包括:多个候选翻译信息,和与多个候选翻译信息分别对应的多个候选翻译结果,以及据目标翻译结果更新初始翻译关系,以得到目标翻译关系,从而可以实现对翻译记忆库对应的翻译关系进行更新,从而翻译用户可以基于目标翻译关系得到与待翻译信息更为适配的翻译结果,有效地提升翻译的准确性,有效地满足用户的个性化翻译需求。
图7是根据本公开第三实施例的示意图。
如图7所示,该翻译模型训练方法,包括:
S701:接收调整信息,调整信息,用于对已有翻译结果进行调整,已有翻译结果,是对待翻译信息翻译得到的。
S702:根据调整信息和已有翻译结果,确定目标翻译结果。
S701-S702的描述说明可以具体参见上述实施例,在此不再赘述。
S703:检测当前时间点。
本公开实施例中,还可以支持采用全量训练的方法对翻译模型行周期的自动更新训练,即可以设定一定的训练时间点,在当前时间达到训练时间点时,则可以采用全量训练的方法对翻译模型进行训练更新,从而可以实现对翻译模型进行周期的更新训练,使得针对翻译模型的训练触发机制能够有效地满足个性化的翻译场景需求,在有效地保障翻译模型的准确性,以及有效地辅助提升翻译模型的翻译效果的同时,有效地提升翻译模型的训练方法的适用性,便于方法应用的拓展和多样化实施。
其中,用于描述当前时间的时间点即可以被称为当前时间点。
其中,预先设定的自动更新训练翻译模型的时间点,即可以被称为设定时间点。
本实施例中,可以从对翻译模型进行全量训练结束的时间开始起算当前时间点,即翻译模型的一个全量训练周期可以是从翻译模型进行全量训练结束的时间到翻译模型下一次全量训练开始的时间,即从翻译模型进行全量训练结束的时间到设定时间点的时间。
S704:如果当前时间点达到设定时间点,则根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。
上述在检测到当前时间点后,可以对当前时间点做出判断,如果当前时间点达到设定时间点,则可以根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。
举例而言,如果预先设定的设定时间点是7天,如果当前时间点达到7天,则可以采用根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。
本实施例中,通过接收调整信息,调整信息,用于对已有翻译结果进行调整,已有翻译结果,是对待翻译信息翻译得到的,并根据调整信息和已有翻译结果,确定目标翻译结果,再检测当前时间点,在当前时间点达到设定时间点,则根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。从而可以实现对翻译模型进行周期的更新训练,使得针对翻译模型的训练触发机制能够有效地满足个性化的翻译场景需求,在有效地保障翻译模型的准确性,以及有效地辅助提升翻译模型的翻译效果的同时,有效地提升翻译模型的训练方法的适用性,便于方法应用的拓展和多样化实施。
图8是根据本公开第四实施例的示意图。
如图8所示,该翻译模型的训练方法装置80,包括:
接收模块801,用于接收调整信息,调整信息,用于对已有翻译结果进行调整,已有翻译结果,是对待翻译信息翻译得到的;
确定模块802,用于根据调整信息和已有翻译结果,确定目标翻译结果;以及
训练模块803,用于根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。
在本公开的一些实施例中,如图9所示,图9是根据本公开第五实施例的示意图,该翻译模型的训练装置90,包括:接收模块901,确定模块902,训练模块903,其中,翻译模型的训练装置90,还包括:
获取模块904,用于在根据调整信息和已有翻译结果,确定目标翻译结果之后,获取初始翻译关系,初始翻译关系包括:多个候选翻译信息,和与多个候选翻译信息分别对应的多个候选翻译结果;
更新模块905,用于根据目标翻译结果更新初始翻译关系,以得到目标翻译关系。
在本公开的一些实施例中,其中,更新模块905,具体用于:
从多个候选翻译信息之中,确定与待翻译信息对应的候选翻译信息,并确定与对应的候选翻译信息所对应候选翻译结果;
将对应候选翻译结果调整为目标翻译结果,以得到目标翻译关系。
在本公开的一些实施例中,其中,确定模块902,具体用于:
根据调整信息对已有翻译结果进行调整,并将调整得到的翻译结果作为目标翻译结果;和/或
将调整信息和已有翻译结果共同作为目标翻译结果。
在本公开的一些实施例中,其中,训练模块903,具体用于:
在根据调整信息对已有翻译结果进行调整时,根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。
在本公开的一些实施例中,其中,训练模块903,具体用于:
检测当前时间点;
如果当前时间点达到设定时间点,则根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。
可以理解的是,本实施例附图9中的翻译模型的训练装置90与上述实施例中的翻译模型的训练装置80,接收模块901与上述实施例中的接收模块801,确定模块902与上述实施例中的确定模块802,训练模块903与上述实施例中的训练模块803可以具有相同的功能和结构。
需要说明的是,前述对翻译模型的训练方法的解释说明也适用于本实施例的翻译模型的训练装置,在此不再赘述。
本实施例中,通过接收调整信息,调整信息,用于对已有翻译结果进行调整,已有翻译结果,是对待翻译信息翻译得到的,并根据调整信息和已有翻译结果,确定目标翻译结果,以及根据待翻译信息和目标翻译结果训练初始翻译模型,以得到目标翻译模型。由此,实现参考已有翻译结果的调整信息对初始翻译模型进行自动化地迭代训练,能够有效降低翻译模型的训练成本,并且能够较大程度地提升翻译模型的训练效率,辅助提升目标翻译模型的翻译效率和翻译质量。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图10示出了可以用来实施本公开实施例的翻译模型的训练方法的示例电子设备的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其他适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其他类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如翻译模型的训练方法。
例如,在一些实施例中,翻译模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1009。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的翻译模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行翻译模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其他种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网及区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (8)
1.一种翻译模型的训练方法,包括:
接收调整信息,所述调整信息,用于对已有翻译结果进行调整,所述已有翻译结果,是对待翻译信息翻译得到的;
根据所述调整信息和所述已有翻译结果,确定目标翻译结果,其中,将所述调整信息和所述已有翻译结果共同作为所述目标翻译结果;以及
根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型,其中,所述初始翻译模型的训练过程基于所述调整信息自动触发执行;
所述根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型,包括:
针对所述初始翻译模型预先配置损失函数,将模型输出的翻译结果和所述目标翻译结果作为损失函数的输入参数,并确定所述损失函数的输出值以作为损失值,将所述损失值与预先设定的损失阈值进行比对,以确定是否满足收敛时机,若判定模型收敛,则将训练得到的翻译模型作为所述目标翻译模型;
在所述根据所述调整信息和所述已有翻译结果,确定目标翻译结果之后,还包括:
获取初始翻译关系,所述初始翻译关系包括:多个候选翻译信息,和与所述多个候选翻译信息分别对应的多个候选翻译结果;
从所述多个候选翻译信息之中,确定与所述待翻译信息对应的候选翻译信息,并确定与所述对应的候选翻译信息所对应候选翻译结果;
将所述对应候选翻译结果调整为所述目标翻译结果,以得到目标翻译关系,所述目标翻译关系包括所述目标翻译结果和候选翻译信息之间建立的关联关系。
2.根据权利要求1所述的方法,其中,所述根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型,包括:
在所述根据所述调整信息对所述已有翻译结果进行调整时,根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型。
3.根据权利要求1所述的方法,其中,所述根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型,包括:
检测当前时间点;
如果所述当前时间点达到设定时间点,则根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型。
4.一种翻译模型的训练装置,包括:
接收模块,用于接收调整信息,所述调整信息,用于对已有翻译结果进行调整,所述已有翻译结果,是对待翻译信息翻译得到的;
确定模块,用于根据所述调整信息和所述已有翻译结果,确定目标翻译结果,其中,将所述调整信息和所述已有翻译结果共同作为所述目标翻译结果;以及
训练模块,用于根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型,其中,所述初始翻译模型的训练过程基于所述调整信息自动触发执行;
所述根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型,包括:
针对所述初始翻译模型预先配置损失函数,将模型输出的翻译结果和所述目标翻译结果作为损失函数的输入参数,并确定所述损失函数的输出值以作为损失值,将所述损失值与预先设定的损失阈值进行比对,以确定是否满足收敛时机,若判定模型收敛,则将训练得到的翻译模型作为所述目标翻译模型;
获取模块,用于在所述根据所述调整信息和所述已有翻译结果,确定目标翻译结果之后,获取初始翻译关系,所述初始翻译关系包括:多个候选翻译信息,和与所述多个候选翻译信息分别对应的多个候选翻译结果;
更新模块,用于根据所述目标翻译结果更新所述初始翻译关系,以得到目标翻译关系;
所述更新模块,具体用于:
从所述多个候选翻译信息之中,确定与所述待翻译信息对应的候选翻译信息,并确定与所述对应的候选翻译信息所对应候选翻译结果;
将所述对应候选翻译结果调整为所述目标翻译结果,以得到目标翻译关系,所述目标翻译关系包括所述目标翻译结果和候选翻译信息之间建立的关联关系。
5.根据权利要求4所述的装置,其中,所述训练模块,具体用于:
在所述根据所述调整信息对所述已有翻译结果进行调整时,根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型。
6.根据权利要求4所述的装置,其中,所述训练模块,具体用于:
检测当前时间点;
如果所述当前时间点达到设定时间点,则根据所述待翻译信息和所述目标翻译结果训练初始翻译模型,以得到目标翻译模型。
7.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-3中任一项所述的方法。
8.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-3中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111014476.7A CN113807106B (zh) | 2021-08-31 | 2021-08-31 | 翻译模型的训练方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111014476.7A CN113807106B (zh) | 2021-08-31 | 2021-08-31 | 翻译模型的训练方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113807106A CN113807106A (zh) | 2021-12-17 |
CN113807106B true CN113807106B (zh) | 2023-03-07 |
Family
ID=78894548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111014476.7A Active CN113807106B (zh) | 2021-08-31 | 2021-08-31 | 翻译模型的训练方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113807106B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114896993B (zh) * | 2022-05-06 | 2023-03-24 | 北京百度网讯科技有限公司 | 翻译模型的生成方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104199813A (zh) * | 2014-09-24 | 2014-12-10 | 哈尔滨工业大学 | 基于伪反馈的个性化机器翻译系统及方法 |
CN105701089A (zh) * | 2015-12-31 | 2016-06-22 | 成都数联铭品科技有限公司 | 一种机器翻译错词修正的后编辑处理方法 |
CN110175336A (zh) * | 2019-05-22 | 2019-08-27 | 北京百度网讯科技有限公司 | 翻译方法、装置和电子设备 |
CN110263348A (zh) * | 2019-03-06 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 翻译方法、装置、计算机设备和存储介质 |
CN110532575A (zh) * | 2019-08-21 | 2019-12-03 | 语联网(武汉)信息技术有限公司 | 文本翻译方法及装置 |
CN110555213A (zh) * | 2019-08-21 | 2019-12-10 | 语联网(武汉)信息技术有限公司 | 文本翻译模型的训练方法、文本翻译方法及装置 |
CN110837742A (zh) * | 2019-11-15 | 2020-02-25 | 广州市汇泉翻译服务有限公司 | 一种包含人工智能的人机结合译文批量处理翻译方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10248651B1 (en) * | 2016-11-23 | 2019-04-02 | Amazon Technologies, Inc. | Separating translation correction post-edits from content improvement post-edits in machine translated content |
JP7026926B2 (ja) * | 2017-08-04 | 2022-03-01 | 株式会社アソシエ | 文書作成装置 |
US10558762B2 (en) * | 2018-02-24 | 2020-02-11 | International Business Machines Corporation | System and method for adaptive quality estimation for machine translation post-editing |
CN110941966A (zh) * | 2019-12-10 | 2020-03-31 | 北京小米移动软件有限公司 | 机器翻译模型的训练方法、装置及系统 |
-
2021
- 2021-08-31 CN CN202111014476.7A patent/CN113807106B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104199813A (zh) * | 2014-09-24 | 2014-12-10 | 哈尔滨工业大学 | 基于伪反馈的个性化机器翻译系统及方法 |
CN105701089A (zh) * | 2015-12-31 | 2016-06-22 | 成都数联铭品科技有限公司 | 一种机器翻译错词修正的后编辑处理方法 |
CN110263348A (zh) * | 2019-03-06 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 翻译方法、装置、计算机设备和存储介质 |
CN110175336A (zh) * | 2019-05-22 | 2019-08-27 | 北京百度网讯科技有限公司 | 翻译方法、装置和电子设备 |
CN110532575A (zh) * | 2019-08-21 | 2019-12-03 | 语联网(武汉)信息技术有限公司 | 文本翻译方法及装置 |
CN110555213A (zh) * | 2019-08-21 | 2019-12-10 | 语联网(武汉)信息技术有限公司 | 文本翻译模型的训练方法、文本翻译方法及装置 |
CN110837742A (zh) * | 2019-11-15 | 2020-02-25 | 广州市汇泉翻译服务有限公司 | 一种包含人工智能的人机结合译文批量处理翻译方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113807106A (zh) | 2021-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11669698B2 (en) | Method and system for automatic formality classification | |
CN108899013B (zh) | 语音搜索方法、装置和语音识别系统 | |
EP4109324A2 (en) | Method and apparatus for identifying noise samples, electronic device, and storage medium | |
CN112560479A (zh) | 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备 | |
CN111310440A (zh) | 文本的纠错方法、装置和系统 | |
CN112307188B (zh) | 对话生成方法、系统、电子设备和可读存储介质 | |
CN116737908A (zh) | 知识问答方法、装置、设备和存储介质 | |
CN114840671A (zh) | 对话生成方法、模型的训练方法、装置、设备及介质 | |
CN112632987B (zh) | 词槽的识别方法、装置及电子设备 | |
CN114548110A (zh) | 语义理解方法、装置、电子设备及存储介质 | |
CN114416934A (zh) | 多模态的对话生成模型的训练方法、装置及电子设备 | |
CN112466289A (zh) | 语音指令的识别方法、装置、语音设备和存储介质 | |
CN113053367A (zh) | 语音识别方法、语音识别的模型训练方法以及装置 | |
CN113850080A (zh) | 一种押韵词推荐方法、装置、设备及存储介质 | |
CN115062718A (zh) | 语言模型训练方法、装置、电子设备及存储介质 | |
CN114490985B (zh) | 对话生成方法、装置、电子设备和存储介质 | |
CN113807106B (zh) | 翻译模型的训练方法、装置、电子设备及存储介质 | |
CN113408273A (zh) | 实体识别模型的训练与实体识别方法、装置 | |
CN113157877A (zh) | 多语义识别方法、装置、设备和介质 | |
JP2023026362A (ja) | 単語マイニング方法、装置、電子機器、及び読み取り可能な記憶媒体 | |
CN114416941A (zh) | 融合知识图谱的对话知识点确定模型的生成方法及装置 | |
CN115292467A (zh) | 信息处理与模型训练方法、装置、设备、介质及程序产品 | |
CN113869042A (zh) | 文本标题生成方法、装置、电子设备以及存储介质 | |
CN112905917A (zh) | 内链生成方法、模型训练方法、相关装置及电子设备 | |
CN114492456B (zh) | 文本生成方法、模型的训练方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |