CN110457719A - 一种翻译模型结果重排序的方法及装置 - Google Patents
一种翻译模型结果重排序的方法及装置 Download PDFInfo
- Publication number
- CN110457719A CN110457719A CN201910947713.1A CN201910947713A CN110457719A CN 110457719 A CN110457719 A CN 110457719A CN 201910947713 A CN201910947713 A CN 201910947713A CN 110457719 A CN110457719 A CN 110457719A
- Authority
- CN
- China
- Prior art keywords
- sentence
- source statement
- translation
- optimal
- translation sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/51—Translation evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/45—Example-based machine translation; Alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本申请提供一种翻译模型结果重排序的方法及装置,所述方法包括:采用第一翻译模型对源段落中的每个源语句进行翻译,得到每个源语句对应的至少一个翻译语句;依次确定目标源语句以及与目标源语句的上相邻源语句和下相邻源语句,将上相邻源语句的终选最优翻译语句作为参考最优翻译语句,根据第一翻译模型的结果,将下相邻源语句对应的初选最优翻译语句作为参考最优翻译语句;将目标源语句对应的目标翻译语句分别与目标源语句的上相邻源语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的拼接翻译语句;基于拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句。
Description
技术领域
本申请涉及机器翻译技术领域,特别涉及一种翻译模型结果重排序的方法及装置、计算设备、计算机可读存储介质和芯片。
背景技术
在机器翻译领域,为了提高翻译精度,可以通过多个翻译模型对源语句进行翻译,并对得到的多个翻译语句进行重排序,以得到最优的翻译语句。
目前的机器翻译语句翻译模型结果重排序的方法有两种方法:
1)当得到一个或多个模型的多个翻译语句后,直接用翻译模型或语言模型给所有的候选的翻译语句打分,然后依据打出来的分数来选出最好的翻译语句。
但是这种方法的主要问题是,不同模型对不同类型有不同的偏好,很难找出一个模型能够对所有的数据都不偏好的,因此实际情况下会有误差,而且候选的翻译语句一般都语法语义近似,最好的翻译语句往往是与上下文最贴切的那一个语句。
2)当得到一个或多个模型的多个翻译结果后,使用多个特征来表示候选的翻译语句,常见的特征有各种模型(翻译模型、语言模型等)打分、候选翻译语句与源语句的对齐分数、候选语句与源语句的长度比等。特征的获取需要有很多现成的模型,而且并不能直接确定哪些特征对重排序效果好,需要做特征的选取,费时又费力。而且该方法也只考虑了翻译语句本身而没有结合上下文来重排序候选翻译语句。
发明内容
有鉴于此,本申请实施例提供了一种翻译模型结果重排序的方法及装置、计算设备、计算机可读存储介质和芯片,以解决现有技术中存在的技术缺陷。
本申请实施例提供了一种翻译模型结果重排序的方法,包括:
采用至少一个第一翻译模型对源段落中的每个源语句进行翻译,得到每个所述源语句对应的至少一个翻译语句;
按照所述源段落中的源语句排列顺序,依次确定目标源语句以及与目标源语句的上相邻源语句和下相邻源语句,将所述目标源语句的上相邻源语句的终选最优翻译语句作为参考最优翻译语句,根据至少一个第一翻译模型的结果,将所述目标源语句的下相邻源语句对应的初选最优翻译语句作为所述参考最优翻译语句;
将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的至少一个拼接翻译语句;
基于至少一个拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句。
可选地,将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,包括:
将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句按照源语句顺序进行拼接。
可选地,基于至少一个拼接翻译语句得到最优的拼接翻译语句,包括:
将目标源语句与上相邻源语句和下相邻源语句进行拼接,得到所述目标源语句对应的拼接源语句;
将至少一个拼接翻译语句分别与所述拼接源语句进行组合,生成至少一个平行语料对;
将至少一个平行语料对分别输入第二翻译模型,生成每个所述平行语料对的分数;
将分数最高的平行语料对对应的拼接翻译语句作为最优的拼接翻译语句。
可选地,所述第二翻译模型包括编码层和解码层;
将至少一个平行语料对分别输入第二翻译模型,生成每个所述平行语料对的分数,包括:
将所述拼接源语句输入编码层,生成对应的编码向量;
根据每个拼接翻译语句生成对应的参考解码向量;
将编码向量和所述参考解码向量输入解码层,得到每个拼接翻译语句的置信度,并将每个拼接翻译语句的置信度作为每个所述平行语料对的分数。
可选地,基于至少一个拼接翻译语句得到最优的拼接翻译语句,包括:
将至少一个拼接翻译语句分别输入语言模型,生成每个所述拼接翻译语句对应的分数;
将分数最高的拼接翻译语句作为最优的拼接翻译语句。
本申请实施例公开了一种翻译模型结果重排序的装置,包括:
翻译语句获取模块,被配置为采用至少一个第一翻译模型对源段落中的每个源语句进行翻译,得到每个所述源语句对应的至少一个翻译语句;
参考最优翻译语句确定模块,被配置为按照所述源段落中的源语句排列顺序,依次确定目标源语句以及与目标源语句的上相邻源语句和下相邻源语句,将所述目标源语句的上相邻源语句的终选最优翻译语句作为参考最优翻译语句,根据至少一个第一翻译模型的结果,将所述目标源语句的下相邻源语句对应的初选最优翻译语句作为所述参考最优翻译语句;
拼接翻译语句获取模块,被配置为将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的至少一个拼接翻译语句;
终选最优翻译语句确定模块,被配置为基于至少一个拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句。
可选地,所述拼接翻译语句获取模块具体被配置为:将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句按照源语句顺序进行拼接。
可选地,所述终选最优翻译语句确定模块具体被配置为:将目标源语句与上相邻源语句和下相邻源语句进行拼接,得到所述目标源语句对应的拼接源语句;将至少一个拼接翻译语句分别与所述拼接源语句进行组合,生成至少一个平行语料对;将至少一个平行语料对分别输入第二翻译模型,生成每个所述平行语料对的分数;将分数最高的平行语料对对应的拼接翻译语句作为最优的拼接翻译语句。
本申请实施例公开了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述指令时实现如上所述的一种翻译模型结果重排序的方法的步骤。
本申请实施例公开了一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如上所述的一种翻译模型结果重排序的方法的步骤。
本申请提供的一种翻译模型结果重排序的方法及装置,在评价终选最优翻译语句的过程中,不直接对每个第一翻译模型输出的翻译语句进行判断,减小由于第一翻译模型偏好带来的误差,而是通过将目标源语句对应的至少一个目标翻译语句分别与目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的至少一个拼接翻译语句,然后再基于至少一个拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句,从而将目标翻译语句的相邻翻译语句考虑进重排序任务中,在选择终选最优翻译语句的过程中引入了相邻的参考最优翻译语句的信息,使终选最优翻译语句的选择更加客观准确,减小了第一翻译模型直接对翻译语句进行判断带来的误差,同时不需要训练很多额外的模型来给候选语句生成特征,也不用做复杂的特征工程,简单高效。
另外,本实施例在确定每个源语句的相邻源语句对应的参考最优翻译语句的过程中,直接将上相邻源语句的终选最优翻译语句作为其参考最优翻译语句,从而可以进一步保证终选最优翻译语句的选取准确性。
附图说明
图1是本申请一实施例的计算设备的结构示意图;
图2是本申请一实施例的翻译模型结果重排序的方法流程示意图;
图3是本申请一实施例的翻译模型结果重排序的方法流程示意图;
图4是本申请一实施例的翻译模型结果重排序的方法流程示意图;
图5是本申请另一实施例的翻译模型结果重排序的方法流程示意图;
图6是本申请另一实施例的翻译模型结果重排序的模型结构示意图;
图7是本申请一实施例的翻译模型结果重排序的装置的结构示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本说明书一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书一个或多个实施例。在本说明书一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本说明书一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本说明书一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本说明书一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本发明一个或多个实施例涉及的名词术语进行解释。
上下相邻语句:段落中在当前句子的前面的句子称为上相邻语句,在当前句子后面的句子称为下相邻语句。正常情况下的行文都是有逻辑的,因此上下相邻语句和当前句子都是存在逻辑关系的。
机器翻译:通过给机器输入一个源语言句子,机器返回一个或多个目标语言的句子,这个过程就叫机器翻译。
重排序:对单个或多个机器翻译模型的翻译句子进行可靠性排序,方便从这些候选的翻译句子中选出最好的句子。
在本申请中,提供了一种翻译模型结果重排序的方法及装置、计算设备、计算机可读存储介质和芯片,在下面的实施例中逐一进行详细说明。
图1是示出了根据本说明书一实施例的计算设备100的结构框图。该计算设备100的部件包括但不限于存储器110和处理器120。处理器120与存储器110通过总线130相连接,数据库150用于保存数据。
计算设备100还包括接入设备140,接入设备140使得计算设备100能够经由一个或多个网络160通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备140可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本说明书的一个实施例中,计算设备100的上述部件以及图1中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图1所示的计算设备结构框图仅仅是出于示例的目的,而不是对本说明书范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备100可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备100还可以是移动式或静止式的服务器。
其中,处理器120可以执行图2所示方法中的步骤。图2是示出了根据本申请一实施例的翻译模型结果重排序的方法的示意性流程图,包括步骤201至步骤204。
201、采用至少一个第一翻译模型对源段落中的每个源语句进行翻译,得到每个所述源语句对应的至少一个翻译语句。
以源段落包括四个源语句A1、A2、A3和A4,翻译模型包括第一翻译模型B1、B2为例,第一翻译模型B1得到翻译段落,包括:源语句A1对应的翻译语句C11、源语句A2对应的翻译语句C12、源语句A3对应的翻译语句C13、源语句A4对应的翻译语句C14;翻译模型B2得到翻译段落,包括:源语句A1对应的翻译语句C21、源语句A2对应的翻译语句C22、源语句A3对应的翻译语句C23、源语句A4对应的翻译语句C24。
为了统一表述和便于理解,本实施例的下述步骤中的举例解释均以此例进行说明,下述步骤的解释便不再一一说明。
202、按照所述源段落中的源语句排列顺序,依次确定目标源语句以及与目标源语句的上相邻源语句和下相邻源语句,将目标源语句的上相邻源语句的终选最优翻译语句作为参考最优翻译语句,根据至少一个第一翻译模型的结果,将目标源语句的下相邻源语句对应的初选最优翻译语句作为参考最优翻译语句。
需要解释的是,目标源语句的相邻源语句包括上相邻源语句和下相邻源语句。仍以源段落包括四个源语句A1、A2、A3和A4为例。对于源语句A1,其相邻语句包括下相邻源语句A2,上相邻语句为空;对于源语句A2,其相邻语句包括上相邻源语句A1和下相邻源语句A3;对于源语句A3,其相邻语句包括上相邻源语句A2和下相邻源语句A4;对于源语句A4,其相邻语句包括上相邻源语句A3,下相邻语句为空。
本实施例中,初选最优翻译语句为根据第一翻译模型的翻译结果进行选优而得到的翻译语句。第一翻译模型在进行翻译的过程中,更多的是关注于每个源语句自身的词语结构以及语义关系,对于每个源语句的相邻源语句对应的翻译语句,会关注较少。
而在选择终选最优翻译语句的过程中,引入了相邻的参考最优翻译语句的信息,使终选最优翻译语句的选择更加客观准确,减小了第一翻译模型直接对翻译语句进行判断带来的误差。终选最优翻译语句具体的选择过程参见下述步骤203~204的执行。
需要说明的是,对于其中任一源语句,其初选最优翻译语句和终选最优翻译语句在步骤201中得到每个源语句对应的至少一个翻译语句的阶段就已经生成。在确定初选最优翻译语句和终选最优翻译语句的过程中,所不同的是对翻译语句进行选择的方法,而并非是在后续步骤203~204的执行过程中再重新生成终选最优翻译语句。
对于每个源语句,其初选最优翻译语句和终选最优翻译语句有可能相同,也有可能不同。
仍以源段落包括四个源语句A1、A2、A3和A4为例。下表1示出了第一翻译模型B1和B2对四个源语句的翻译结果以及翻译结果对应的分数。其中,分数越高,代表翻译效果越好。
表1
对于源语句A1作为源语句的情况下,其相邻语句包括下相邻源语句A2,上相邻语句为空。对于源语句A2,其对应的翻译语句为C12和C22,其中,翻译语句C22的翻译结果分数高于翻译语句C12。所以,将翻译语句C22作为源语句A2对应的初选最优翻译语句。那么对应地,源语句A1的下相邻源语句A2的参考最优翻译语句为源语句A2对应的初选最优翻译语句C22。然后,再通过下述步骤203~204,来确定源语句A1的终选最优翻译语句为C11。
对于源语句A2作为目标源语句的情况下,其相邻语句包括上相邻源语句A1和下相邻源语句A3。此时,对于源语句A1的终选翻译语句已经确定,所以,在将源语句A2作为目标源语句的情况下,直接将终选最优翻译语句C11作为其上相邻的源语句A1的参考最优翻译语句;而对于下相邻的源语句A3,则需要第一翻译模型对源语句A3的翻译结果来确定参考最优翻译语句。参见表1,源语句A3的翻译语句C23的分数高于翻译语句C13的分数,将翻译语句C23作为源语句A2的下相邻源语句A3对应的参考最优翻译语句。然后,再通过下述步骤203~204,来确定源语句A2的终选最优翻译语句为C22。
对于源语句A3作为目标源语句的情况下,其相邻语句包括上相邻源语句A2和下相邻源语句A4。此时,对于源语句A2的终选翻译语句已经确定,所以,在将源语句A3作为目标源语句的情况下,直接将终选最优翻译语句C22作为其上相邻的源语句A2的参考最优翻译语句;而对于下相邻的源语句A4,则需要第一翻译模型对源语句A4的翻译结果来确定参考最优翻译语句。参见表1,源语句A4的翻译语句C24的分数高于翻译语句C14的分数,将翻译语句C24作为源语句A3的下相邻源语句A4对应的参考最优翻译语句。然后,再通过下述步骤203~204,来确定源语句A3的终选最优翻译语句为C13。
对于源语句A4作为目标源语句的情况下,其相邻语句包括上相邻源语句A3,下相邻语句为空。此时,对于源语句A3的终选翻译语句已经确定,所以,在将源语句A4作为目标源语句的情况下,直接将终选最优翻译语句C13作为其上相邻源语句A3的参考最优翻译语句。
203、将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的至少一个拼接翻译语句。
具体地,步骤203包括:将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句按照源语句顺序进行拼接,得到拼接后的至少一个拼接翻译语句。
仍以前述示例为例,参见表1,以目标源语句为A1为例,对应有两个目标翻译语句C11和C21。其下相邻源语句A2对应的参考最优翻译语句为C22。将目标翻译语句C11和C21分别与参考最优翻译语句C22拼接,得到拼接后的两个拼接翻译语句{C11,C22}和{C21,C22}。
以目标源语句为A2为例,对应有两个目标翻译语句C12和C22。其上相邻源语句A1对应的参考最优翻译语句C11,下相邻源语句A3对应的参考最优翻译语句为C23。将目标翻译语句C12和C22分别与参考最优翻译语句C11和C23拼接,得到拼接后的两个拼接翻译语句{C11,C12,C23}和{C11,C22,C23}。
同理,在目标源语句为A3的情况下,得到拼接后的两个拼接翻译语句{C22,C13,C24}和{C22,C23,C24}。
同理,在目标源语句为A4的情况下,得到拼接后的两个拼接翻译语句{C13,C14 }和{C13,C24 }。
204、基于至少一个拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句。
可选地,基于至少一个拼接翻译语句得到最优的拼接翻译语句的方法有多种,本实施例列举下述两种进行示意性的说明。
参见图3,步骤204中基于至少一个拼接翻译语句得到最优的拼接翻译语句,包括下述步骤301~304:
301、将目标源语句与上相邻源语句和下相邻源语句进行拼接,得到所述目标源语句对应的拼接源语句。
仍以前述的源段落包括四个源语句A1、A2、A3、A4,第一翻译模型包括第一翻译模型B1、B2为例。
以源语句A2为目标源语句为例,得到目标源语句A2对应的拼接源语句{ A1,A2,A3}。
302、将至少一个拼接翻译语句分别与所述拼接源语句进行组合,生成至少一个平行语料对。
在源语句A2为目标源语句的情况下,得到目标源语句A2对应的拼接源语句{ A1,A2,A3}与拼接翻译语句{C11,C12,C23}和{C11,C22,C23}进行组合,生成两个平行语料对{A1,A2,A3 }—{ C11,C12,C23 }、{ A1,A2,A3 }—{ C11,C22,C23 }。
303、将至少一个平行语料对分别输入第二翻译模型,生成每个所述平行语料对的分数。
其中,第二翻译模型可以为卷积神经网络(Convolutional Neural Networks,CNN)模型或循环神经网络(Recurrent Neural Networks,RNN)模型或者Transformer翻译模型。
其中,CNN模型一般包括:输入层、卷积层、池化层和全连接层。一方面CNN模型的神经元间的连接是非全连接的,另一方面同一层中某些神经元之间的连接的权重是共享的(即相同的)。它的非全连接和权值共享的网络结构使之更类似于生物神经网络,降低了网络模型的复杂度,减少了权值的数量。
RNN模型又称为递归神经网络,是一种具有反馈结构的神经网络,其输出不但与当前输入和网络的权值有关,而且也与之前网络的输入有关。RNN模型通过添加跨越时间点的自连接隐藏层,对时间进行建模;换句话说,隐藏层的反馈不仅仅进入输出端,而且还进入了下一时间的隐藏层。
Transformer翻译模型的架构包括:编码器(encoder)—解码器(decoder)。编码器实现对待翻译的源语句进行编码生成向量,解码器实现对源语句的向量进行解码生成对应的目标语句。
另外,第二翻译模型会根据输入的平行语料,生成对应的损失函数loss值,进而得到该平行语料的置信度作为平行语料的分数。
其中,损失函数可以为多种,例如铰链损失函数(hinge loss function)、指数损失函数(exponential loss function)或者交叉熵损失函数(cross-entropy lossfunction)。由于交叉熵可以用来判定实际的输出与期望的输出的接近程度,本实施例的第二翻译模型中优选使用交叉熵损失函数计算loss值,并将交叉熵损失函数得到的loss值得到该平行语料的置信度作为平行语料的分数。
具体地,本实施例中,将两个平行语料对{ A1,A2,A3 }—{ C11,C12,C23 }、{ A1,A2,A3 }—{ C11,C22,C23 }分别输入第二翻译模型,生成每个平行语料对的分数为0.6和0.7。
具体地,第二翻译模型包括编码层和解码层,步骤303包括:
S3031、将所述拼接源语句输入编码层,生成对应的编码向量。
S3032、根据每个拼接翻译语句生成对应的参考解码向量。
S3033、将编码向量和所述参考解码向量输入解码层,得到每个拼接翻译语句的置信度,并将每个拼接翻译语句的置信度作为每个所述平行语料对的分数。
具体地,将拼接源语句{A1,A2,A3}输入编码层,生成对应的编码向量e1。将{C11,C12,C23}、{C11,C22,C23}输入嵌入层,生成对应的参考解码向量e2和e3。将编码向量e1和参考解码向量e2输入解码层,得到对应的置信度为0.6并作为平行语料对的分数;将编码向量e1和参考解码向量e3输入解码层,得到对应的置信度为0.7并作为平行语料对的分数。
304、将分数最高的平行语料对对应的拼接翻译语句作为最优的拼接翻译语句。
由于前述步骤得到编码向量e1和参考解码向量e2的置信度为0.6,编码向量e1和参考解码向量e3的置信度为0.7,所以选择{C11,C22,C23}作为最优的拼接翻译语句。
然后,根据最优的拼接翻译语句{C11,C22,C23}确定目标源语句A2的终选最优翻译语句C22。
那么,在目标源语句为A3的情况下,直接将上相邻源语句A2的终选最优目标翻译语句作为其参考最优翻译语句,即确定上相邻源语句A2的参考最优翻译语句为C22;根据第一翻译模型的翻译结果,确定下相邻源语句A4的参考最优翻译语句为C24。然后再重复上述步骤203~204,来确定目标源语句A3的终选最优翻译语句。
可选地,参见图4,基于至少一个拼接翻译语句得到最优的拼接翻译语句,包括下述步骤401~402:
401、将至少一个拼接翻译语句分别输入语言模型,生成每个所述拼接翻译语句对应的分数。
其中,语言模型可以包括:马尔克夫(Markov)语言模型、n-gram语言模型、长短期记忆网络(Long Short-Term Memory,LSTM)语言模型等。
其中,Markov语言模型是一种统计模型,广泛应用在语音识别,词性自动标注,音字转换,概率文法等各个自然语言处理等应用领域。
n-gram语言模型是是一种统计语言模型,用来根据前(n-1)个输出向量来预测第n个输出向量。在应用层面,这些向量可以是音素(语音识别应用)、字符(输入法应用)、词(分词应用)或碱基对(基因信息)。一般来讲,可以从大规模文本或音频语料库生成n-gram模型。
LSTM模型是一种时间循环神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。
另外,语言模型会根据输入的拼接翻译语句,生成对应的损失函数loss值,将该loss值得到该平行语料的置信度作为拼接翻译语句的分数。
其中,损失函数可以为多种,例如铰链损失函数(hinge loss function)、指数损失函数(exponential loss function)或者交叉熵损失函数(cross-entropy lossfunction)。由于交叉熵可以用来判定实际的输出与期望的输出的接近程度,本实施例的语言模型中优选使用交叉熵损失函数计算loss值,并将交叉熵损失函数得到的loss值得到该平行语料的置信度作为拼接翻译语句的分数。
402、将分数最高的拼接翻译语句作为最优的拼接翻译语句。
仍以前例进行说明,将目标源语句A2对应的拼接翻译语句{C11,C12,C23}、{C11,C22,C23}分别输入语言模型,生成每个拼接翻译语句对应的分数分别为0.4和0.5。将分数为0.5的拼接翻译语句{C11,C22,C23}作为最优的拼接翻译语句。
然后,根据最优的拼接翻译语句{C11,C22,C23}确定目标源语句A2的终选最优翻译语句C22。
本申请提供的一种翻译模型结果重排序的方法,在评价终选最优翻译语句的过程中,不直接对每个第一翻译模型输出的翻译语句进行判断,减小由于第一翻译模型偏好带来的误差,而是通过将目标源语句对应的至少一个目标翻译语句分别与目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的至少一个拼接翻译语句,然后再基于至少一个拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句,从而将目标翻译语句的相邻翻译语句考虑进重排序任务中,在选择终选最优翻译语句的过程中引入了相邻的参考最优翻译语句的信息,使终选最优翻译语句的选择更加客观准确,减小了第一翻译模型直接对翻译语句进行判断带来的误差,同时不需要训练很多额外的模型来给候选语句生成特征,也不用做复杂的特征工程,简单高效。
另外,本实施例在确定每个源语句的相邻源语句对应的参考最优翻译语句的过程中,直接将上相邻源语句的终选最优翻译语句作为其参考最优翻译语句,从而可以进一步保证终选最优翻译语句的选取准确性。
本申请一实施例公开了一种翻译模型结果重排序的方法,以4个第一翻译模型为例,参见图5和图6,包括:
501、采用四个第一翻译模型A~D对源段落中的每个源语句进行翻译,得到每个第一翻译模型对应的翻译段落a~d,其中,翻译段落a~d包括每个源语句对应的翻译语句。
502、确定目标源语句i,以及与目标源语句i的上相邻源语句i-1和下相邻源语句i+1。
503、将目标源语句i的上相邻源语句i-1的终选最优翻译语句作为所述参考最优翻译语句;根据四个第一翻译模型A~D的结果,将目标源语句i的下相邻源语句i+1对应的初选最优翻译语句作为参考最优翻译语句。
504、将目标源语句i对应的四个目标翻译语句i1~i4分别与目标源语句i的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的四个拼接翻译语句J1~J4。
其中,目标源语句i对应的四个目标翻译语句i1~i4分别为第一翻译模型A~D对目标源语句i进行翻译得到的目标翻译语句。
对于每个目标源语句i的相邻源语句i-1和i+1对应的参考最优翻译语句,参见前述步骤503的具体描述。
505、判断是否使用第二翻译模型E对拼接翻译语句J1~J4进行打分,若是,执行步骤506,若否,执行步骤510。
506、将目标源语句i与其上相邻源语句i-1和下相邻源语句i+1进行拼接,得到目标源语句i对应的拼接源语句I。
507、将四个拼接翻译语句J1~J4分别与所述拼接源语句I进行组合,生成四个平行语料对(J1,I)、(J2,I)、(J3,I)、(J4,I)。
508、将四个平行语料对(J1,I)、(J2,I)、(J3,I)、(J4,I)分别输入第二翻译模型E,生成每个平行语料对的分数。
509、将分数最高的平行语料对(J2,I)对应的拼接翻译语句J2作为最优的拼接翻译语句,执行步骤512。
510、将四个拼接翻译语句J1~J4分别输入语言模型F,生成每个所述拼接翻译语句J1~J4对应的分数。
511、将分数最高的拼接翻译语句J2作为最优的拼接翻译语句,执行步骤512。
512、将最优的拼接翻译语句J2对应的目标翻译语句作为目标源语句的终选最优翻译语句。
本实施例的翻译模型结果重排序的方法,在评价终选最优翻译语句的过程中,不直接对每个第一翻译模型输出的翻译语句进行判断,减小由于第一翻译模型偏好带来的误差,而是通过将目标源语句对应的至少一个目标翻译语句分别与目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的至少一个拼接翻译语句,然后再基于至少一个拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句,从而将目标翻译语句的相邻翻译语句考虑进重排序任务中,在选择终选最优翻译语句的过程中引入了相邻的参考最优翻译语句的信息,使终选最优翻译语句的选择更加客观准确,减小了第一翻译模型直接对翻译语句进行判断带来的误差,同时不需要训练很多额外的模型来给候选语句生成特征,也不用做复杂的特征工程,简单高效。
并且,本实施例不仅可以采用第二翻译模型对平行语料对进行打分,也可以使用语言模型对拼接翻译语句进行打分,进而确定目标源语句的终选最优翻译语句,避免目标源语句的终选最优翻译语句的确定方式单一化。
本申请一实施例还提供一种翻译模型结果重排序的装置,参见图7,包括:
翻译语句获取模块701,被配置为采用至少一个第一翻译模型对源段落中的每个源语句进行翻译,得到每个所述源语句对应的至少一个翻译语句;
参考最优翻译语句确定模块702,被配置为按照所述源段落中的源语句排列顺序,依次确定目标源语句以及与目标源语句的上相邻源语句和下相邻源语句,将所述目标源语句的上相邻源语句的终选最优翻译语句作为所述参考最优翻译语句,根据至少一个第一翻译模型的结果,将所述目标源语句的下相邻源语句对应的初选最优翻译语句作为所述参考最优翻译语句;
拼接翻译语句获取模块703,被配置为将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的至少一个拼接翻译语句;
终选最优翻译语句确定模块704,被配置为基于至少一个拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句。
可选地,所述拼接翻译语句获取模块703具体被配置为:将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句按照源语句顺序进行拼接。
可选地,终选最优翻译语句确定模块704具体被配置为:
将目标源语句与上相邻源语句和下相邻源语句进行拼接,得到所述目标源语句对应的拼接源语句;
将至少一个拼接翻译语句分别与所述拼接源语句进行组合,生成至少一个平行语料对;
将至少一个平行语料对分别输入第二翻译模型,生成每个所述平行语料对的分数;
将分数最高的平行语料对对应的拼接翻译语句作为最优的拼接翻译语句。
可选地,第二翻译模型包括编码层和解码层;终选最优翻译语句确定模块704具体被配置为:
将所述拼接源语句输入编码层,生成对应的编码向量;
根据每个拼接翻译语句生成对应的参考解码向量;
将编码向量和所述参考解码向量输入解码层,得到每个拼接翻译语句的置信度,并将每个拼接翻译语句的置信度作为每个所述平行语料对的分数。
可选地,终选最优翻译语句确定模块704具体被配置为:
将至少一个拼接翻译语句分别输入语言模型,生成每个所述拼接翻译语句对应的分数;
将分数最高的拼接翻译语句作为最优的拼接翻译语句。
本申请提供的一种翻译模型结果重排序的装置,将目标翻译语句的相邻翻译语句考虑进重排序任务中,在选择终选最优翻译语句的过程中引入了相邻的参考最优翻译语句的信息,使终选最优翻译语句的选择更加客观准确,减小了第一翻译模型直接对翻译语句进行判断带来的误差,同时不需要训练很多额外的模型来给候选语句生成特征,也不用做复杂的特征工程,简单高效。
上述为本实施例的一种翻译模型结果重排序的装置的示意性方案。需要说明的是,该翻译模型结果重排序的装置的技术方案与上述的翻译模型结果重排序的方法的技术方案属于同一构思,翻译模型结果重排序的装置的技术方案未详细描述的细节内容,均可以参见上述翻译模型结果重排序的方法的技术方案的描述。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该指令被处理器执行时实现如前所述翻译模型结果重排序的方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的翻译模型结果重排序的方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述翻译模型结果重排序的方法的技术方案的描述。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
本申请一实施例还提供一种芯片,其存储有计算机指令,该指令被芯片执行时实现如前所述翻译模型结果重排序的方法的步骤。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。
Claims (10)
1.一种翻译模型结果重排序的方法,其特征在于,包括:
采用至少一个第一翻译模型对源段落中的每个源语句进行翻译,得到每个所述源语句对应的至少一个翻译语句;
按照所述源段落中的源语句排列顺序,依次确定目标源语句以及与目标源语句的上相邻源语句和下相邻源语句,将所述目标源语句的上相邻源语句的终选最优翻译语句作为参考最优翻译语句,根据至少一个第一翻译模型的结果,将所述目标源语句的下相邻源语句对应的初选最优翻译语句作为所述参考最优翻译语句;
将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的至少一个拼接翻译语句;
基于至少一个拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句。
2.如权利要求1所述的一种翻译模型结果重排序的方法,其特征在于,将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,包括:
将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句按照源语句顺序进行拼接。
3.如权利要求1所述的一种翻译模型结果重排序的方法,其特征在于,基于至少一个拼接翻译语句得到最优的拼接翻译语句,包括:
将目标源语句与上相邻源语句和下相邻源语句进行拼接,得到所述目标源语句对应的拼接源语句;
将至少一个拼接翻译语句分别与所述拼接源语句进行组合,生成至少一个平行语料对;
将至少一个平行语料对分别输入第二翻译模型,生成每个所述平行语料对的分数;
将分数最高的平行语料对对应的拼接翻译语句作为最优的拼接翻译语句。
4.如权利要求3所述的一种翻译模型结果重排序的方法,其特征在于,所述第二翻译模型包括编码层和解码层;
将至少一个平行语料对分别输入第二翻译模型,生成每个所述平行语料对的分数,包括:
将所述拼接源语句输入编码层,生成对应的编码向量;
根据每个拼接翻译语句生成对应的参考解码向量;
将编码向量和所述参考解码向量输入解码层,得到每个拼接翻译语句的置信度,并将每个拼接翻译语句的置信度作为每个所述平行语料对的分数。
5.如权利要求1所述的一种翻译模型结果重排序的方法,其特征在于,基于至少一个拼接翻译语句得到最优的拼接翻译语句,包括:
将至少一个拼接翻译语句分别输入语言模型,生成每个所述拼接翻译语句对应的分数;
将分数最高的拼接翻译语句作为最优的拼接翻译语句。
6.一种翻译模型结果重排序的装置,其特征在于,包括:
翻译语句获取模块,被配置为采用至少一个第一翻译模型对源段落中的每个源语句进行翻译,得到每个所述源语句对应的至少一个翻译语句;
参考最优翻译语句确定模块,被配置为按照所述源段落中的源语句排列顺序,依次确定目标源语句以及与目标源语句的上相邻源语句和下相邻源语句,将所述目标源语句的上相邻源语句的终选最优翻译语句作为参考最优翻译语句,根据至少一个第一翻译模型的结果,将所述目标源语句的下相邻源语句对应的初选最优翻译语句作为所述参考最优翻译语句;
拼接翻译语句获取模块,被配置为将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句进行拼接,得到拼接后的至少一个拼接翻译语句;
终选最优翻译语句确定模块,被配置为基于至少一个拼接翻译语句得到最优的拼接翻译语句,将最优的拼接翻译语句对应的目标翻译语句作为目标源语句的终选最优翻译语句。
7.如权利要求6所述的一种翻译模型结果重排序的装置,其特征在于,所述拼接翻译语句获取模块具体被配置为:将所述目标源语句对应的至少一个目标翻译语句分别与所述目标源语句的上相邻源语句对应的参考最优翻译语句和下相邻源语句对应的参考最优翻译语句按照源语句顺序进行拼接。
8.如权利要求6所述的一种翻译模型结果重排序的装置,其特征在于,所述终选最优翻译语句确定模块具体被配置为:
将目标源语句与上相邻源语句和下相邻源语句进行拼接,得到所述目标源语句对应的拼接源语句;
将至少一个拼接翻译语句分别与所述拼接源语句进行组合,生成至少一个平行语料对;
将至少一个平行语料对分别输入第二翻译模型,生成每个所述平行语料对的分数;
将分数最高的平行语料对对应的拼接翻译语句作为最优的拼接翻译语句。
9.一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,其特征在于,所述处理器执行所述指令时实现权利要求1-5任意一项所述的一种翻译模型结果重排序的方法的步骤。
10.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该指令被处理器执行时实现权利要求1-5任意一项所述的一种翻译模型结果重排序的方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910947713.1A CN110457719B (zh) | 2019-10-08 | 2019-10-08 | 一种翻译模型结果重排序的方法及装置 |
US17/062,094 US20210103704A1 (en) | 2019-10-08 | 2020-10-02 | Method and Apparatus for Reordering Results of a Translation Model |
EP20200163.2A EP3805978A1 (en) | 2019-10-08 | 2020-10-05 | Method and apparatus for reordering results of a translation model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910947713.1A CN110457719B (zh) | 2019-10-08 | 2019-10-08 | 一种翻译模型结果重排序的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110457719A true CN110457719A (zh) | 2019-11-15 |
CN110457719B CN110457719B (zh) | 2020-01-07 |
Family
ID=68492749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910947713.1A Active CN110457719B (zh) | 2019-10-08 | 2019-10-08 | 一种翻译模型结果重排序的方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210103704A1 (zh) |
EP (1) | EP3805978A1 (zh) |
CN (1) | CN110457719B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114139560A (zh) * | 2021-12-03 | 2022-03-04 | 山东诗语翻译有限公司 | 基于人工智能翻译系统 |
CN115114939A (zh) * | 2022-04-28 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 翻译模型的训练方法、语句翻译方法、装置、设备、程序 |
CN115329785A (zh) * | 2022-10-15 | 2022-11-11 | 小语智能信息科技(云南)有限公司 | 融入音素特征的英-泰-老多语言神经机器翻译方法及装置 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408304B (zh) * | 2021-06-30 | 2022-03-25 | 北京百度网讯科技有限公司 | 文本翻译方法、装置、电子设备及存储介质 |
CN116992894B (zh) * | 2023-09-26 | 2024-01-16 | 北京澜舟科技有限公司 | 一种机器翻译模型的训练方法和计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271452A (zh) * | 2007-03-21 | 2008-09-24 | 株式会社东芝 | 生成译文和机器翻译的方法及装置 |
US20120041753A1 (en) * | 2010-08-12 | 2012-02-16 | Xerox Corporation | Translation system combining hierarchical and phrase-based models |
CN104572629A (zh) * | 2013-10-18 | 2015-04-29 | 富士通株式会社 | 生成单语解析模型的方法和装置以及语言转换装置 |
CN106547743A (zh) * | 2015-09-23 | 2017-03-29 | 阿里巴巴集团控股有限公司 | 一种进行翻译的方法及其系统 |
CN108829684A (zh) * | 2018-05-07 | 2018-11-16 | 内蒙古工业大学 | 一种基于迁移学习策略的蒙汉神经机器翻译方法 |
-
2019
- 2019-10-08 CN CN201910947713.1A patent/CN110457719B/zh active Active
-
2020
- 2020-10-02 US US17/062,094 patent/US20210103704A1/en not_active Abandoned
- 2020-10-05 EP EP20200163.2A patent/EP3805978A1/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101271452A (zh) * | 2007-03-21 | 2008-09-24 | 株式会社东芝 | 生成译文和机器翻译的方法及装置 |
US20120041753A1 (en) * | 2010-08-12 | 2012-02-16 | Xerox Corporation | Translation system combining hierarchical and phrase-based models |
CN104572629A (zh) * | 2013-10-18 | 2015-04-29 | 富士通株式会社 | 生成单语解析模型的方法和装置以及语言转换装置 |
CN106547743A (zh) * | 2015-09-23 | 2017-03-29 | 阿里巴巴集团控股有限公司 | 一种进行翻译的方法及其系统 |
CN108829684A (zh) * | 2018-05-07 | 2018-11-16 | 内蒙古工业大学 | 一种基于迁移学习策略的蒙汉神经机器翻译方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114139560A (zh) * | 2021-12-03 | 2022-03-04 | 山东诗语翻译有限公司 | 基于人工智能翻译系统 |
CN115114939A (zh) * | 2022-04-28 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 翻译模型的训练方法、语句翻译方法、装置、设备、程序 |
CN115114939B (zh) * | 2022-04-28 | 2024-03-22 | 腾讯科技(深圳)有限公司 | 翻译模型的训练方法、语句翻译方法、装置、设备、程序 |
CN115329785A (zh) * | 2022-10-15 | 2022-11-11 | 小语智能信息科技(云南)有限公司 | 融入音素特征的英-泰-老多语言神经机器翻译方法及装置 |
CN115329785B (zh) * | 2022-10-15 | 2023-01-20 | 小语智能信息科技(云南)有限公司 | 融入音素特征的英-泰-老多语言神经机器翻译方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3805978A1 (en) | 2021-04-14 |
CN110457719B (zh) | 2020-01-07 |
US20210103704A1 (en) | 2021-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110457719A (zh) | 一种翻译模型结果重排序的方法及装置 | |
US11322153B2 (en) | Conversation interaction method, apparatus and computer readable storage medium | |
US11282498B2 (en) | Speech synthesis method and speech synthesis apparatus | |
CN111951780B (zh) | 语音合成的多任务模型训练方法及相关设备 | |
JP2006243728A (ja) | 音素をテキストに変換する方法、そのコンピュータシステム、及びコンピュータプログラム | |
CN110852075B (zh) | 自动添加标点符号的语音转写方法、装置及可读存储介质 | |
CN113743117B (zh) | 用于实体标注的方法和装置 | |
US11355122B1 (en) | Using machine learning to correct the output of an automatic speech recognition system | |
CN105845133A (zh) | 语音信号处理方法及装置 | |
Dethlefs et al. | Conditional random fields for responsive surface realisation using global features | |
CN110399488A (zh) | 文本分类方法及装置 | |
CN115101042B (zh) | 一种文本处理方法、装置及设备 | |
CN115563959A (zh) | 面向中文拼音拼写纠错的自监督预训练方法、系统及介质 | |
CN115129878A (zh) | 一种对话业务执行方法、装置、存储介质及电子设备 | |
CN113268989B (zh) | 多音字处理方法及装置 | |
CN111782771B (zh) | 一种文字解题方法与装置 | |
CN113327579A (zh) | 语音合成方法、装置、存储介质和电子设备 | |
JP6082657B2 (ja) | ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム | |
CN116579327A (zh) | 文本纠错模型训练方法、文本纠错方法、设备及存储介质 | |
CN114333760B (zh) | 一种信息预测模块的构建方法、信息预测方法及相关设备 | |
US20240320500A1 (en) | Method and apparatus for generating training data | |
CN111090720B (zh) | 一种热词的添加方法和装置 | |
CN113889115A (zh) | 一种基于语音模型的方言转述方法及相关装置 | |
JPWO2009041220A1 (ja) | 略語生成装置およびプログラム、並びに、略語生成方法 | |
JP6441203B2 (ja) | 音声認識結果圧縮装置、音声認識結果圧縮方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |