CN111104796B - 用于翻译的方法和装置 - Google Patents

用于翻译的方法和装置 Download PDF

Info

Publication number
CN111104796B
CN111104796B CN201911308094.8A CN201911308094A CN111104796B CN 111104796 B CN111104796 B CN 111104796B CN 201911308094 A CN201911308094 A CN 201911308094A CN 111104796 B CN111104796 B CN 111104796B
Authority
CN
China
Prior art keywords
grammar
translation
target
network
tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911308094.8A
Other languages
English (en)
Other versions
CN111104796A (zh
Inventor
熊皓
何中军
李芝
吴华
王海峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201911308094.8A priority Critical patent/CN111104796B/zh
Publication of CN111104796A publication Critical patent/CN111104796A/zh
Application granted granted Critical
Publication of CN111104796B publication Critical patent/CN111104796B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本公开实施例公开了用于翻译的方法和装置。方法包括:获取用户输入的源语言文本和用户输入的初始语法树;将源语言文本和初始语法树,输入翻译模型的语法分析网络,得到语法分析网络输出的优化语法树;将源语言文本和优化语法树,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本,其中,目标语法结构为语法分析网络输出的优化语法树所指示的语法结构。该方法可以提高输出的目标语言文本的针对性,使得输出的目标语言文本更为符合用户所期望的译文的风格,从而更为符合不同翻译场景的需求。

Description

用于翻译的方法和装置
技术领域
本公开涉及计算机技术领域,具体涉及翻译技术领域,尤其涉及用于翻译的方法和装置。
背景技术
传统的翻译模型生成的翻译句子风格取决于使用的训练语料中句子的翻译风格。例如,大部分用于翻译的训练语料都是书面语表达,特点是用词较为严谨,使用的复杂句式较多。
而在实际应用中,对于一些口语如旅游场景的翻译、同声传译等等,通常要求翻译的文本较为简洁,尽可能的不产生长距离依赖的译文。基于这个需求,有必要强制生成指定语法的译文,使得译文满足各种场景的需求。
现有技术中,主流神经网络翻译模型采用的是端到端的解决方案,首先构造大规模的源语言文本-目标语言文本的翻译句对,然后利用端到端翻译模型在此句对上训练来优化模型参数。生成指定语法的译文时,通过增加对应译文风格的训练语料来实现,如果要翻译口语句子则使用口语训练语料进行再次增量式训练。在测试时一般是给定源语言文本来直接生成目标语言文本。
然而,现有技术中生成指定语法的译文的方法,需要采集相应的训练语料,而训练语料的获取通常需要一定的人力成本进行标注。此外,利用训练语料增量式训练后的翻译模型,也无法保证翻译特定句子时一定会产生期望语法结构的译文。
发明内容
本公开实施例提供了用于翻译的方法和装置。
第一方面,本公开实施例提供了一种用于翻译的方法,包括:获取用户输入的源语言文本和用户输入的初始语法树;将源语言文本和初始语法树,输入翻译模型的语法分析网络,得到语法分析网络输出的优化语法树;将源语言文本和优化语法树,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本,其中,目标语法结构为语法分析网络输出的优化语法树所指示的语法结构。
在一些实施例中,将源语言文本和初始语法树输入翻译模型的语法分析网络,得到语法分析网络输出的对应目标语言文本的优化语法树包括:将源语言文本的词向量表达和初始语法树的词向量表达相加或拼接,得到语法分析词向量表达;采用注意力机制,确定语法分析词向量表达的注意力结果;将语法分析词向量表达的注意力结果,输入翻译模型的语法分析网络,得到语法分析网络输出的采用目标编码方式编码的优化语法树,其中,目标编码方式为目标语言文本所采用的编码方式。
在一些实施例中,将源语言文本和优化语法树,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本包括:将源语言文本的词向量表达和优化语法树的词向量表达相加或拼接,得到语法翻译词向量表达;采用注意力机制,确定语法翻译词向量表达的注意力结果;将语法翻译词向量表达的注意力结果,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本。
在一些实施例中,翻译模型的语法分析网络采用以下步骤训练得到:采用语法标注工具,对翻译句对中的目标语句进行语法标注,生成与目标语句对应的优化语法树;选取与目标语句对应的优化语法树的部分节点,生成与目标语句对应的初始语法树;从翻译句对中,获取与目标语句对应的源语句;将与目标语句对应的源语句、与目标语句对应的初始语法树作为输入,将与目标语句对应的优化语法树作为期望输出,训练翻译模型的语法分析网络。
在一些实施例中,翻译模型的语法翻译网络采用以下步骤训练得到:将与目标语句对应的源语句、与目标语句对应的优化语法树作为输入,将目标语句作为期望输出,训练翻译模型的语法翻译网络。
第二方面,本公开实施例提供了一种用于翻译的装置,包括:输入获取单元,被配置成获取用户输入的源语言文本和用户输入的初始语法树;语法分析单元,被配置成将源语言文本和初始语法树,输入翻译模型的语法分析网络,得到语法分析网络输出的优化语法树;语法翻译单元,被配置成将源语言文本和优化语法树,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本,其中,目标语法结构为语法分析网络输出的优化语法树所指示的语法结构。
在一些实施例中,语法分析单元进一步被配置成:将源语言文本的词向量表达和初始语法树的词向量表达相加或拼接,得到语法分析词向量表达;采用注意力机制,确定语法分析词向量表达的注意力结果;将语法分析词向量表达的注意力结果,输入翻译模型的语法分析网络,得到语法分析网络输出的采用目标编码方式编码的优化语法树,其中,目标编码方式为目标语言文本所采用的编码方式。
在一些实施例中,语法翻译单元进一步被配置成:将源语言文本的词向量表达和优化语法树的词向量表达相加或拼接,得到语法翻译词向量表达;采用注意力机制,确定语法翻译词向量表达的注意力结果;将语法翻译词向量表达的注意力结果,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本。
在一些实施例中,语法分析单元中的翻译模型的语法分析网络采用以下单元训练得到:语法标注单元,被配置成采用语法标注工具,对翻译句对中的目标语句进行语法标注,生成与目标语句对应的优化语法树;节点选取单元,被配置成选取与目标语句对应的优化语法树的部分节点,生成与目标语句对应的初始语法树;语句获取单元,被配置成从翻译句对中,获取与目标语句对应的源语句;分析网络训练单元,被配置成将与目标语句对应的源语句、与目标语句对应的初始语法树作为输入,将与目标语句对应的优化语法树作为期望输出,训练翻译模型的语法分析网络。
在一些实施例中,语法翻译单元中的翻译模型的语法翻译网络采用以下单元训练得到:翻译网络训练单元,被配置成将与目标语句对应的源语句、与目标语句对应的优化语法树作为输入,将目标语句作为期望输出,训练翻译模型的语法翻译网络。
第三方面,本公开实施例提供了一种电子设备/终端/服务器,包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上任一所述的用于翻译的方法。
第四方面,本公开实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如上任一所述的用于翻译的方法。
本公开实施例提供的用于翻译的方法和装置,方法包括:首先,获取用户输入的源语言文本和用户输入的初始语法树;将源语言文本和初始语法树,输入翻译模型的语法分析网络,得到语法分析网络输出的优化语法树;将源语言文本和优化语法树,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本,其中,目标语法结构为语法分析网络输出的优化语法树所指示的语法结构。在这一过程中,由于采用源语言文本和初始语法树同时作为对翻译模型的语法分析网络输出的优化语法树的基础,提高了输出的优化语法树的针对性和准确性,使得输出的语法树可以更为准确的体现用户希望输出的译文的风格,进而采用用户输入的源语言文本和优化语法树同时作为对语法翻译网络输出的目标语言文本的基础,可以提高输出的目标语言文本的针对性,使得输出的目标语言文本更为符合用户所期望的译文的风格,从而更为符合不同翻译场景的需求。
附图说明
通过阅读参照以下附图所作的对非限制性实施例详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开可以应用于其中的示例性系统架构图;
图2是根据本公开实施例的用于翻译的方法的一个实施例的流程示意图;
图3是根据本公开实施例的用于翻译的方法的一个示例性应用场景;
图4是根据本公开实施例的用于翻译的方法中的翻译模型的训练方法的一个实施例的流程示意图;
图5是本公开的用于翻译的装置的一个实施例的示例性结构图;
图6是适于用来实现本公开实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的用于翻译的方法或用于翻译的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如翻译类应用、浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是支持浏览器应用的各种电子设备,包括但不限于平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上进行的浏览器应用提供支持的后台服务器。后台服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端设备。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
在实践中,本公开实施例所提供的用于翻译的方法可以由终端设备101、102、103和/或服务器105、106执行,用于翻译的装置也可以设置于终端设备101、102、103和/或服务器105、106中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,图2示出了根据本公开的用于翻译的方法的一个实施例的流程200。该用于翻译的方法包括以下步骤:
步骤201,获取用户输入的源语言文本和用户输入的初始语法树。
在本实施例中,用于翻译的方法的执行主体(例如图1所示的终端或服务器)可以获取用户输入的源语言文本,源语言文本可以为用户直接输入的文本,也可以为根据用户输入的语音识别得到的文本。
上述执行主体还可以获取用户输入的初始语法树,该初始语法树指示用户期望的语法结构,表征用户期望的译文风格。
步骤202,将源语言文本和初始语法树,输入翻译模型的语法分析网络,得到语法分析网络输出的优化语法树。
在本实施例中,上述执行主体可以获取源语言文本的词向量表达、初始语法树的词向量表达,之后,可以将源语言文本的词向量表达和初始语法树的词向量表达相加或者拼接,并将相加或拼接后的词向量表达输入预先训练的语法分析网络,可以得到语法分析网络输出的优化语法树。
语法是指语言的结构方式,包括词的构成和变化、词组和句子的组织。语法树是句子结构的图形表示,它代表了句子的推导结果,有利于理解句子语法结构的层次。简单说,语法树就是按照某一规则进行推导时所形成的树。
语法分析网络是预先训练后具有语法分析能力的机器学习网络,用于根据源语言文本和初始语法树得到优化语法树。机器学习英文全称为Machine Learning,简称ML。机器学习模型可以通过样本学习具备数据处理能力。机器学习模型可以采用神经网络模型或者Transformer等。神经网络模型比如前馈神经网络、文本卷积神经网络、循环神经网络、长短时记忆网络、神经网络机器翻译等。在本实施例中,语法分析网络的输入可以为源语言文本和初始语法树,输出可以为优化语法树。
在本实施例的一些可选实现方式中,将源语言文本和初始语法树输入翻译模型的语法分析网络,得到语法分析网络输出的对应目标语言文本的优化语法树可以包括:将源语言文本的词向量表达和初始语法树的词向量表达相加或拼接,得到语法分析词向量表达;采用注意力机制,确定语法分析词向量表达的注意力结果;将语法分析词向量表达的注意力结果,输入翻译模型的语法分析网络,得到语法分析网络输出的采用目标编码方式编码的优化语法树,其中,目标编码方式为目标语言文本所采用的编码方式。
在本实现方式中,对于语法分析词向量表达,可以采用注意力机制使得语法分析网络专注于其输入(或特征)子集的能力:选择特定的输入,从而获得语法分析网络对于源语言文本和初始语法树中的分词的注意力分布,进而根据语法分析词向量表达的注意力结果确定语法分析网络输出的优化语法树,从而提高生成的优化语法树的准确率。同时,采用目标语言文本所采用的编码方式编码优化语法树,可以提高优化语法树在后续的数据应用中的使用效率。
步骤203,将源语言文本和优化语法树,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本。
本实施例中,目标语法结构为语法分析网络输出的优化语法树所指示的语法结构。目标语言文本是指对源语言翻译后得到的目标语言的文本。
上述执行主体可以将源语言文本的词向量表达、优化语法树的词向量表达,之后,可以将源语言文本的词向量表达和初始语法树的词向量表达相加或者拼接,并将相加或拼接后的词向量表达输入预先训练的语法翻译网络,可以得到语法翻译网络输出的目标语言文本。
语法翻译网络是预先训练后具有语言翻译能力的机器学习网络,用于根据源语言文本和优化语法树得到目标语言文本。机器学习英文全称为Machine Learning,简称ML。机器学习模型可以通过样本学习具备数据处理能力。机器学习模型可以采用神经网络模型或者Transformer等。神经网络模型比如前馈神经网络、文本卷积神经网络、循环神经网络、长短时记忆网络、神经网络机器翻译等。在本实施例中,语法翻译网络的输入可以为源语言文本和优化语法树,输出可以为目标语言文本。
在本实施例的一些可选实现方式中,将源语言文本和优化语法树,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本可以包括:将源语言文本的词向量表达和优化语法树的词向量表达相加或拼接,得到语法翻译词向量表达;采用注意力机制,确定语法翻译词向量表达的注意力结果;将语法翻译词向量表达的注意力结果,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本。
在本实现方式中,对于语法翻译词向量表达,可以采用注意力机制使得语法翻译网络专注于其输入(或特征)子集的能力:选择特定的输入,从而获得语法翻译网络对于源语言文本和优化语法树中的分词的注意力分布,进而根据语法翻译词向量表达的注意力结果确定语法翻译网络输出的目标语言文本,从而提高生成的目标语言文本的准确率。
本公开上述实施例的用于翻译的方法,可以采用源语言文本和初始语法树同时作为输入,以得到翻译模型的语法分析网络输出的优化语法树,提高了输出的优化语法树的针对性和准确性,使得输出的语法树可以更为准确的体现用户希望输出的译文的风格,进而采用源语言文本和优化语法树同时作为输入以得到语法翻译网络输出的目标语言文本,可以提高输出的目标语言文本的针对性,使得输出的目标语言文本更为符合用户所期望的译文的风格,从而更为符合不同翻译场景的需求。
以下结合图3,描述本公开的用于翻译的方法的示例性应用场景。
如图3所示,图3示出了根据本公开的用于翻译的方法的一个示例性应用场景。
如图3所示,用于翻译的方法300运行于电子设备310中,方法300包括:
首先,获取用户输入的源语言文本301和用户输入的初始语法树302;
之后,将源语言文本301和初始语法树302,输入翻译模型的语法分析网络303,得到语法分析网络输出的优化语法树304;
最后,将源语言文本301和优化语法树304,输入翻译模型的语法翻译网络305,得到语法翻译网络305输出的、符合目标语法结构的目标语言文本306。
应当理解,上述图3中所示出的用于翻译的方法的应用场景,仅为对于用于翻译的方法的示例性描述,并不代表对该方法的限定。例如,上述图3中示出的各个步骤,可以进一步采用更为细节的实现方法。也可以在上述图3的基础上,进一步增加其它翻译的步骤。
在与图3相对应的一个具体的示例性应用场景中,翻译的方法如下:
首先,用户输入原文(也即源语言文本):“中美进行了新一轮的外贸洽谈”。
之后,用户可以指定期望的语法结构,例如:“NP VP(active)NP”,其中active表示动词是主动时态。NP是指名词词组,noun phrase;VP是指动词词组,verb phrase。则翻译模型生成的译文是:“China and theUnited States held a new round of foreign tradetalks”。
备选地,用户也可以指定另外一种期望的语法结构:“NP VP(passive)NP”,其中passive表示动词是被动时态。则翻译模型生成的译文为:“A new round of foreigntrade talks was held by China and the United States”。
也即,上述的翻译模型,用户只需要给定粗略的语法结构,例如”NP VP NP”,而不需要给出完整的语法结构,即可生成符合语法结构的译文。
进一步参考图4,图4示出了根据本公开的用于翻译的方法中翻译模型的训练方法的一个实施例的示意性流程图。
如图4所示,本实施例的用于翻译的方法中翻译模型的训练方法400,可以包括以下步骤:
步骤401,采用语法标注工具,对翻译句对中的目标语句进行语法标注,生成与目标语句对应的优化语法树。
在本实施例中,翻译模型的训练方法的执行主体(例如图1所示的终端或服务器,可以与图2中用于翻译的方法的执行主体相同或不同),所采用的语法标注工具可以为现有技术或未来发展的技术中的用于标注语法的工具,本申请对此不做限定。
针对特定语言的目标语句,所采用的语法标注工具可以有多种。例如,对于中文语言,语法标注工具可以为Stanford CoreNLP,语言技术平台(Language TechnologyPlatfor,LTP),清华大学词法分析器(THU Lexical Analyzer for Chinese,THULAC)等。
语法标注工具可以根据语法标注的结果,进一步地根据语法树生成规则,生成与目标语句对应的优化语法树。
翻译模型的训练方法执行主体,可以首先构造大规模的源语句-目标语句的句子级的对齐,得到翻译句对,然后利用端到端翻译模型,在翻译句对的基础上训练优化模型参数。在测试时一般是给定源语言文本来直接生成目标语言文本。
步骤402,选取与目标语句对应的优化语法树的部分节点,生成与目标语句对应的初始语法树。
在本实施例中,为了使优化语法树尽量覆盖所对应的初始语法树,针对优化语法树中的节点,翻译模型的训练方法的执行主体可以进行随机选取或根据选取规则进行选取,从而得到多个与目标语句对应的初始语法树。
步骤403,从翻译句对中,获取与目标语句对应的源语句。
在本实施例中,翻译模型的训练方法的执行主体可以从翻译句对中,获取与目标语句存在对应关系的源语句。
步骤404,将与目标语句对应的源语句、与目标语句对应的初始语法树作为输入,将与目标语句对应的优化语法树作为期望输出,训练翻译模型的语法分析网络。
在本实施例中,上述翻译模型的训练方法的执行主体可以将与目标语句对应的源语句和与目标语句对应的初始语法树作为输入,将与目标语句对应的优化语法树作为期望输出,训练翻译模型的语法分析网络。
应当理解,上述翻译模型的训练方法的执行主体,将与目标语句对应的源语句和与目标语句对应的初始语法树作为输入,可以包括:将目标语句对应的源语句和与目标语句对应的初始语法树两者的词向量表达相加或拼接后作为翻译模型的语法分析网络的输入,或者采用注意力机制确定这两者的词向量表达相加或拼接后的注意力结果,进而将注意力结果作为翻译模型的语法分析网络的输入;进而,可以将与目标语句对应的优化语法树作为翻译模型的语法分析网络的期望输出,从而训练翻译模型的初始语法分析网络,以得到翻译模型的语法分析网络优化后的模型参数,从而得到训练后的翻译模型的语法分析网络。
步骤405,将与目标语句对应的源语句、与目标语句对应的优化语法树作为输入,将目标语句作为期望输出,训练翻译模型的语法翻译网络。
在本实施例中,上述翻译模型的训练方法的执行主体,将与目标语句对应的源语句、与目标语句对应的优化语法树作为输入,可以包括:将与目标语句对应的源语句、与目标语句对应的优化语法树两者的词向量表达相加或拼接后作为翻译模型的语法翻译网络的输入,或者采用注意力机制确定该两者的词向量表达相加或拼接后的注意力结果,进而将注意力结果作为翻译模型的语法翻译网络的输入;进而,将目标语句作为翻译模型的语法翻译网络的期望输出,从而训练翻译模型的语法翻译网络,以得到翻译模型的语法翻译网络优化后的模型参数,从而得到训练后的翻译模型的语法翻译网络。
在上述的翻译模型的训练方法的实施例中,翻译模型的语法分析网络和语法翻译网络分别为端到端网络。具体地,在训练过程中,从输入端(输入数据)到输出端会得到一个预测结果,与真实结果相比较会得到一个误差,这个误差会在模型中的每一层传递(反向传播),每一层的表示都会根据这个误差来做调整,直到模型收敛或达到预期的效果才结束,中间所有的操作都包含在神经网络内部,不再分成多个模块处理。也即,端到端网络的神经网络自成一体,可以当做黑盒子看待。
本公开图4中的实施例中的翻译模型的训练方法,在图2中所示的用于翻译的方法的基础上,细化了翻译模型语法分析网络和语法翻译网络的训练方法,由于采用了高精度的翻译句对,以及采用了高精度的与目标语言相对应的优化语法树和与目标语言相对应的初始语法树之间的对应关系,从而提高了语法分析网络和语法翻译网络的准确性。
进一步参考图5,作为对上述各图所示方法的实现,本公开实施例提供了一种用于翻译的装置的一个实施例,该装置实施例与图2-图4中所示的方法实施例相对应,该装置具体可以应用于上述终端设备或服务器中。
如图5所示,本实施例的用于翻译的装置500可以包括:输入获取单元510,被配置成获取用户输入的源语言文本和用户输入的初始语法树;语法分析单元520,被配置成将源语言文本和初始语法树,输入翻译模型的语法分析网络,得到语法分析网络输出的优化语法树;语法翻译单元530,被配置成将源语言文本和优化语法树,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本,其中,目标语法结构为语法分析网络输出的优化语法树所指示的语法结构。
在本实施例的一些可选实现方式中,语法分析单元520进一步被配置成:将源语言文本的词向量表达和初始语法树的词向量表达相加或拼接,得到语法分析词向量表达;采用注意力机制,确定语法分析词向量表达的注意力结果;将语法分析词向量表达的注意力结果,输入翻译模型的语法分析网络,得到语法分析网络输出的采用目标编码方式编码的优化语法树,其中,目标编码方式为目标语言文本所采用的编码方式。
在本实施例的一些可选实现方式中,语法翻译单元530进一步被配置成:将源语言文本的词向量表达和优化语法树的词向量表达相加或拼接,得到语法翻译词向量表达;采用注意力机制,确定语法翻译词向量表达的注意力结果;将语法翻译词向量表达的注意力结果,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本。
在本实施例的一些可选实现方式中,语法分析单元中的翻译模型的语法分析网络采用以下单元训练得到(图中未示出):语法标注单元,被配置成采用语法标注工具,对翻译句对中的目标语句进行语法标注,生成与目标语句对应的优化语法树;节点选取单元,被配置成选取与目标语句对应的优化语法树的部分节点,生成与目标语句对应的初始语法树;语句获取单元,被配置成从翻译句对中,获取与目标语句对应的源语句;分析网络训练单元,被配置成将与目标语句对应的源语句、与目标语句对应的初始语法树作为输入,将与目标语句对应的优化语法树作为期望输出,训练翻译模型的语法分析网络。
在本实施例的一些可选实现方式中,语法翻译单元中的翻译模型的语法翻译网络采用以下单元训练得到(图中未示出):翻译网络训练单元,被配置成将与目标语句对应的源语句、与目标语句对应的优化语法树作为输入,将目标语句作为期望输出,训练翻译模型的语法翻译网络。
应当理解,装置500中记载的各个单元与参考图2-图4描述的方法中记载的各个步骤相对应。由此,上文针对方法描述的操作和特征同样适用于装置500及其中包含的各个单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器或终端设备)600的结构示意图。本公开的实施例中的终端设备可以包括但不限于诸如笔记本电脑、台式计算机等。图6示出的终端设备/服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取用户输入的源语言文本和用户输入的初始语法树;将源语言文本和初始语法树,输入翻译模型的语法分析网络,得到语法分析网络输出的优化语法树;将源语言文本和优化语法树,输入翻译模型的语法翻译网络,得到语法翻译网络输出的、符合目标语法结构的目标语言文本,其中,目标语法结构为语法分析网络输出的优化语法树所指示的语法结构。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括输入获取单元、语法分析单元和语法翻译单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,输入获取单元还可以被描述为“获取用户输入的源语言文本和用户输入的初始语法树的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种用于翻译的方法,包括:
获取用户输入的源语言文本和用户输入的初始语法树;
将所述源语言文本和所述初始语法树,输入翻译模型的语法分析网络,得到所述语法分析网络输出的优化语法树;
将所述源语言文本和所述优化语法树,输入翻译模型的语法翻译网络,得到所述语法翻译网络输出的、符合目标语法结构的目标语言文本,其中,所述目标语法结构为语法分析网络输出的优化语法树所指示的语法结构;
其中,所述将所述源语言文本和所述初始语法树输入翻译模型的语法分析网络,得到所述语法分析网络输出的优化语法树包括:
将所述源语言文本的词向量表达和所述初始语法树的词向量表达相加或拼接,得到语法分析词向量表达;
采用注意力机制,确定语法分析词向量表达的注意力结果;
将语法分析词向量表达的注意力结果,输入翻译模型的语法分析网络,得到所述语法分析网络输出的采用目标编码方式编码的优化语法树,其中,所述目标编码方式为所述目标语言文本所采用的编码方式。
2.根据权利要求1所述的方法,其中,所述将所述源语言文本和所述优化语法树,输入翻译模型的语法翻译网络,得到所述语法翻译网络输出的、符合目标语法结构的目标语言文本包括:
将所述源语言文本的词向量表达和所述优化语法树的词向量表达相加或拼接,得到语法翻译词向量表达;
采用注意力机制,确定语法翻译词向量表达的注意力结果;
将语法翻译词向量表达的注意力结果,输入翻译模型的语法翻译网络,得到所述语法翻译网络输出的、符合目标语法结构的目标语言文本。
3.根据权利要求1所述的方法,其中,所述翻译模型的语法分析网络采用以下步骤训练得到:
采用语法标注工具,对翻译句对中的目标语句进行语法标注,生成与目标语句对应的优化语法树;
选取所述与目标语句对应的优化语法树的部分节点,生成与目标语句对应的初始语法树;
从翻译句对中,获取与目标语句对应的源语句;
将与目标语句对应的源语句、与目标语句对应的初始语法树作为输入,将与目标语句对应的优化语法树作为期望输出,训练所述翻译模型的语法分析网络。
4.根据权利要求3所述的方法,其中,所述翻译模型的语法翻译网络采用以下步骤训练得到:
将与目标语句对应的源语句、与目标语句对应的优化语法树作为输入,将目标语句作为期望输出,训练所述翻译模型的语法翻译网络。
5.一种用于翻译的装置,包括:
输入获取单元,被配置成获取用户输入的源语言文本和用户输入的初始语法树;
语法分析单元,被配置成将所述源语言文本和所述初始语法树,输入翻译模型的语法分析网络,得到所述语法分析网络输出的优化语法树;
语法翻译单元,被配置成将所述源语言文本和所述优化语法树,输入翻译模型的语法翻译网络,得到所述语法翻译网络输出的、符合目标语法结构的目标语言文本,其中,所述目标语法结构为语法分析网络输出的优化语法树所指示的语法结构;
其中,所述语法分析单元进一步被配置成:
将所述源语言文本的词向量表达和所述初始语法树的词向量表达相加或拼接,得到语法分析词向量表达;
采用注意力机制,确定语法分析词向量表达的注意力结果;
将语法分析词向量表达的注意力结果,输入翻译模型的语法分析网络,得到所述语法分析网络输出的采用目标编码方式编码的优化语法树,其中,所述目标编码方式为所述目标语言文本所采用的编码方式。
6.根据权利要求5所述的装置,其中,所述语法翻译单元进一步被配置成:
将所述源语言文本的词向量表达和所述优化语法树的词向量表达相加或拼接,得到语法翻译词向量表达;
采用注意力机制,确定语法翻译词向量表达的注意力结果;
将语法翻译词向量表达的注意力结果,输入翻译模型的语法翻译网络,得到所述语法翻译网络输出的、符合目标语法结构的目标语言文本。
7.根据权利要求5所述的装置,其中,所述语法分析单元中的翻译模型的语法分析网络采用以下单元训练得到:
语法标注单元,被配置成采用语法标注工具,对翻译句对中的目标语句进行语法标注,生成与目标语句对应的优化语法树;
节点选取单元,被配置成选取所述与目标语句对应的优化语法树的部分节点,生成与目标语句对应的初始语法树;
语句获取单元,被配置成从翻译句对中,获取与目标语句对应的源语句;
分析网络训练单元,被配置成将与目标语句对应的源语句、与目标语句对应的初始语法树作为输入,将与目标语句对应的优化语法树作为期望输出,训练所述翻译模型的语法分析网络。
8.根据权利要求7所述的装置,其中,所述语法翻译单元中的翻译模型的语法翻译网络采用以下单元训练得到:
翻译网络训练单元,被配置成将与目标语句对应的源语句、与目标语句对应的优化语法树作为输入,将目标语句作为期望输出,训练所述翻译模型的语法翻译网络。
9.一种电子设备/终端/服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN201911308094.8A 2019-12-18 2019-12-18 用于翻译的方法和装置 Active CN111104796B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911308094.8A CN111104796B (zh) 2019-12-18 2019-12-18 用于翻译的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911308094.8A CN111104796B (zh) 2019-12-18 2019-12-18 用于翻译的方法和装置

Publications (2)

Publication Number Publication Date
CN111104796A CN111104796A (zh) 2020-05-05
CN111104796B true CN111104796B (zh) 2023-05-05

Family

ID=70422485

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911308094.8A Active CN111104796B (zh) 2019-12-18 2019-12-18 用于翻译的方法和装置

Country Status (1)

Country Link
CN (1) CN111104796B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111859929B (zh) * 2020-08-05 2024-04-09 杭州安恒信息技术股份有限公司 一种数据可视化方法、装置及其相关设备
CN113225213B (zh) * 2021-04-30 2023-02-28 中国工商银行股份有限公司 网络设备配置文件转译和网络仿真的方法、装置
CN113591460A (zh) * 2021-07-02 2021-11-02 中译语通科技股份有限公司 一种基于迭代知识迁移的机器翻译风格迁移性能提升方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195377A (ja) * 1992-12-25 1994-07-15 Sharp Corp 構文優先度学習方式の機械翻訳装置
CN101382933A (zh) * 2007-09-03 2009-03-11 株式会社东芝 创建用于学习单词翻译的数据的装置和方法
CN102117270A (zh) * 2011-03-29 2011-07-06 中国科学院自动化研究所 一种基于模糊树到精确树的统计机器翻译方法
CN102214166A (zh) * 2010-04-06 2011-10-12 三星电子(中国)研发中心 基于句法分析和层次模型的机器翻译系统和方法
CN103116578A (zh) * 2013-02-07 2013-05-22 北京赛迪翻译技术有限公司 一种融合句法树和统计机器翻译技术的翻译方法与装置
CN103314369A (zh) * 2010-12-17 2013-09-18 北京交通大学 机器翻译装置和方法
CN107038160A (zh) * 2017-03-30 2017-08-11 唐亮 多语言智能预处理实时统计机器翻译系统的预处理模块
KR101818598B1 (ko) * 2016-08-09 2018-03-02 주식회사 에버트란 자동 번역 엔진 서버 및 자동 번역 방법
CN110059324A (zh) * 2019-04-26 2019-07-26 广州大学 基于依存信息监督的神经网络机器翻译方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06195377A (ja) * 1992-12-25 1994-07-15 Sharp Corp 構文優先度学習方式の機械翻訳装置
CN101382933A (zh) * 2007-09-03 2009-03-11 株式会社东芝 创建用于学习单词翻译的数据的装置和方法
CN102214166A (zh) * 2010-04-06 2011-10-12 三星电子(中国)研发中心 基于句法分析和层次模型的机器翻译系统和方法
CN103314369A (zh) * 2010-12-17 2013-09-18 北京交通大学 机器翻译装置和方法
CN102117270A (zh) * 2011-03-29 2011-07-06 中国科学院自动化研究所 一种基于模糊树到精确树的统计机器翻译方法
CN103116578A (zh) * 2013-02-07 2013-05-22 北京赛迪翻译技术有限公司 一种融合句法树和统计机器翻译技术的翻译方法与装置
KR101818598B1 (ko) * 2016-08-09 2018-03-02 주식회사 에버트란 자동 번역 엔진 서버 및 자동 번역 방법
CN107038160A (zh) * 2017-03-30 2017-08-11 唐亮 多语言智能预处理实时统计机器翻译系统的预处理模块
CN110059324A (zh) * 2019-04-26 2019-07-26 广州大学 基于依存信息监督的神经网络机器翻译方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘晓健,陈平.面向对象-规则语言系统的实现及在威胁估计中的应用.系统工程与电子技术.2004,(第04期),全文. *
熊皓 ; 刘洋 ; 刘群 ; .模糊匹配在树到串翻译模型中的应用.中文信息学报.2011,(第02期),全文. *

Also Published As

Publication number Publication date
CN111104796A (zh) 2020-05-05

Similar Documents

Publication Publication Date Title
Bocklisch et al. Rasa: Open source language understanding and dialogue management
CN108630190B (zh) 用于生成语音合成模型的方法和装置
US11775761B2 (en) Method and apparatus for mining entity focus in text
JP7208952B2 (ja) 対話モデルを生成するための方法及び装置
US10832658B2 (en) Quantized dialog language model for dialog systems
CN109614111B (zh) 用于生成代码的方法和装置
JP2020501228A (ja) 機械学習タスクの暗黙的ブリッジング
CN111104796B (zh) 用于翻译的方法和装置
US11699074B2 (en) Training sequence generation neural networks using quality scores
CN111159220B (zh) 用于输出结构化查询语句的方法和装置
CN109740167B (zh) 用于生成信息的方法和装置
JP2019513267A (ja) グローバルに正規化されたニューラルネットワーク
CN109858045B (zh) 机器翻译方法和装置
CN111340220B (zh) 用于训练预测模型的方法和装置
CN111488742B (zh) 用于翻译的方法和装置
CN111339789B (zh) 一种翻译模型训练方法、装置、电子设备及存储介质
CN112380876A (zh) 基于多语言机器翻译模型的翻译方法、装置、设备和介质
CN110738056B (zh) 用于生成信息的方法和装置
CN111681661B (zh) 语音识别的方法、装置、电子设备和计算机可读介质
CN112364653A (zh) 用于语音合成的文本分析方法、装置、服务器和介质
CN111125154B (zh) 用于输出结构化查询语句的方法和装置
CN109800438B (zh) 用于生成信息的方法和装置
CN112906372A (zh) 一种文本简化方法、装置、设备及存储介质
CN112328751A (zh) 用于处理文本的方法和装置
WO2020162985A1 (en) Knowledge-driven digital companion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant