CN109344413A - 翻译处理方法和装置 - Google Patents

翻译处理方法和装置 Download PDF

Info

Publication number
CN109344413A
CN109344413A CN201811204175.9A CN201811204175A CN109344413A CN 109344413 A CN109344413 A CN 109344413A CN 201811204175 A CN201811204175 A CN 201811204175A CN 109344413 A CN109344413 A CN 109344413A
Authority
CN
China
Prior art keywords
language sentence
sentence
source language
text chunk
translation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811204175.9A
Other languages
English (en)
Other versions
CN109344413B (zh
Inventor
熊皓
何中军
胡晓光
李芝
吴华
忻舟
吴甜
王海峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201811204175.9A priority Critical patent/CN109344413B/zh
Publication of CN109344413A publication Critical patent/CN109344413A/zh
Application granted granted Critical
Publication of CN109344413B publication Critical patent/CN109344413B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提出一种翻译处理方法和装置,其中,方法包括:获取源语言的文本段,对文本段进行语义识别,生成文本段的语义信息,根据预先学习得到的源语言与目标语言之间句子数量的对应关系,确定文本段中各源语言句子对应的目标语言句子的数量,根据文本段的语义信息,对文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子。根据预先学习得到的源语言与目标语言之间句子的对应关系,以及文本段的语义信息,对源语言句子进行翻译处理得到目标语言句子,提高了文本翻译的质量和效率。

Description

翻译处理方法和装置
技术领域
本发明涉及语言处理技术领域,尤其涉及一种翻译处理方法和装置。
背景技术
在获取海外的资讯内容时,如财经、体育、时政、旅游信息等,由于不同国家使用的语言不同,需要对获取的海外资讯进行翻译,翻译成对应国家的目标语言信息。若通过编辑人员对获取的海外信息进行编译,翻译成目标语言供用户阅读,人力成本较高,翻译的效率也较低,尤其对于一些小语种国家的信息,很难覆盖。
为了提高翻译效率,相关技术中可以通过翻译工具进行翻译。而现有的翻译工具通常按照句子级别的翻译任务进行处理,即将句子拆分为单词,将单词翻译成目标语言单词,再由目标语言单词组成句子,这种方式带来较多语法错误,翻译质量低,生成的翻译文本阅读体验上难以满足用户需求。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种翻译处理方法,根据预先学习得到的源语言与目标语言之间句子的对应关系,以及文本段的语义信息,对源语言句子进行翻译处理得到目标语言句子,提高了文本翻译的质量和效率。
本发明的第二个目的在于提出一种翻译处理装置。
本发明的第三个目的在于提出一种计算机设备。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
为达上述目的,本发明第一方面实施例提出了一种翻译处理方法,包括:
获取源语言的文本段;其中,所述文本段包括多个源语言句子;
对所述文本段进行语义识别,生成所述文本段的语义信息;
根据预先学习得到的源语言与目标语言之间句子的对应关系,确定所述文本段中各源语言句子对应的目标语言句子;
根据所述文本段的语义信息,对所述文本段中各源语言句子进行翻译处理,得到对应的目标语言句子。
为达上述目的,本发明第二方面实施例提出了一种翻译处理装置,包括:
获取模块,用于获取源语言的文本段;其中,所述文本段包括多个源语言句子;
识别模块,用于对所述文本段进行语义识别,生成所述文本段的语义信息;
确定模块,用于根据预先学习得到的源语言与目标语言之间句子的对应关系,确定所述文本段中各源语言句子对应的目标语言句子;
处理模块,用于根据所述文本段的语义信息,对所述文本段中各源语言句子进行翻译处理,得到对应的目标语言句子。
为达上述目的,本发明第三方面实施例提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如前述方法实施例所述的翻译处理方法。
为达上述目的,本发明第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现如前述方法实施例所述的翻译处理方法。
本发明所提供的技术方案可以包含如下的有益效果:
获取源语言的文本段,对文本段进行语义识别,生成文本段的语义信息,根据预先学习得到的源语言与目标语言之间句子的对应关系,确定文本段中各源语言句子对应的目标语言句子,根据文本段的语义信息,对文本段中各源语言句子进行翻译处理,得到对应的目标语言句子。根据预先学习得到的源语言与目标语言之间句子的对应关系,以及文本段的语义信息,对源语言句子进行翻译处理得到目标语言句子,提高了文本翻译的质量和效率。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例所提供的一种翻译处理方法的流程示意图;
图2为本发明实施例所提供的另一种翻译处理方法的流程示意图;
图3为本发明实施例所提供的又一种翻译处理方法的流程示意图;
图4为本发明实施例提供的翻译模型的编码器的结构示意图;
图5为本发明实施例所提供的再一种翻译处理方法的流程示意图;
图6为本发明实施例提供的一种翻译处理装置的结构示意图;
图7为本发明实施例所提供的另一种翻译处理装置的结构示意图;以及
图8示出了适于用来实现本申请实施方式的示例性计算机设备的框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
根据获取的文本,通过训练好的翻译模型进行翻译,翻译效率较高,而目前的翻译模型主要有以下两种方式:
第一种方式,通常是基于句子级别进行建模,训练语料也是基于源语言句子、目标语言句子对进行采集的。直接利用句子级别的翻译模型去对一些网站或者文档进行整篇文章的翻译存在如下问题:1)网站的标题通常都较短,浓缩了整篇文章的信息,直接进行单独的翻译往往会产生难以理解的内容。2)句子之间具有一定的逻辑和关联性,一些术语的翻译必须保持一致,句子之间也必须保持一定的逻辑性。3)由于语言之间的差异性,用多个英文句子表述的信息可能只需要很少个甚至更短的句子来表达。
基于上述原因,直接采取句子级别的翻译模型翻译的质量较差。
第二种方式,基于篇章级别的翻译模型,该模型大都采用基于上下文memory的机制来解决,以较为成熟的端到端循环神经网络模型为例(Seq2Seq RNN based Models),在对句子进行编码时,都会考虑一些历史信息,通常这些历史信息是若干前序句子的编码信息。但受限于RNN的记忆能力,一般学术界的篇章翻译模型通常只记忆若干前序句子,并没有对整个篇章进行建模,因此相比于传统的基于句子级别建模的翻译模型并没有明显优势,无法应用到实际产品当中。
为解决上述翻译模型存在的文本翻译质量较差的问题,本发明实施例提供了一种翻译处理方法和装置。
下面参考附图描述本发明实施例的翻译处理方法和装置。
图1为本发明实施例所提供的一种翻译处理方法的流程示意图。
如图1所示,该方法包括以下步骤:
步骤101,获取源语言的文本段,其中,文本段包括多个源语言句子。
本发明实施例提供的翻译处理方法的执行主体可以为智能手机、平板电脑、笔记本电脑以及可穿戴设备的终端,或者终端中的翻译处理模块,本实施例中不作限定。
其中,源语言,是指待翻译的文本段采用的语言,例如为英语、法语、德语、西班牙语等等。
作为一种可能的实现方式,用户可通过浏览国外网站直接获取得到源语言的文本段,或者是对获取的源语言的视频或语音信息,识别得到对应的文本段。
作为另一种可能的实现方式,可通过网络爬虫对海外站点信息进行监控爬取,实时获取海外站点的更新内容信息,获取源语言的文本段。
步骤102,对文本段进行语义识别,生成文本段的语义信息。
具体地,对获取到的文本段进行语义识别,作为一种可能的实现方式,可以采用预先训练好的语义识别模型,将文本段输入模型中,对文本段进行语义识别,生成文本段的语义信息。
步骤103,根据预先学习得到的源语言与目标语言之间句子数量的对应关系,确定文本段中各源语言句子对应的目标语言句子的数量。
具体地,获取大量的源语言语料对应的样本句子和目标语言语料对应的各样本句子,预先对翻译模型进行训练,使得翻译模型已经预先学习得到源语言与目标语言之间句子数量的对应关系。基于预先学习得到的源语言与目标语言之间句子数量的对应关系,确定输入的文本段中各源语言句子对应的目标语言句子的数量。
需要理解的是,由于语言之间存在差异性,表达同一个意思,不同语言所需要用到的句子个数不同,例如,在源语言中为表达一个意思,可能需要3句话来表达,但是对应到目标语言中,可能仅需要2句话来表达,或者对应到目标语言中,需要4句话来表达。因此,根据预先学习到的源语言与目标语言之间句子数量的对应关系,即可确定要进行翻译的文本段中的句子数量,与要翻译成的目标语言的句子数量之间的对应关系,基于该对应关系,可以确定源语言句子对应的句子序列,对此,下述实施例中会详细介绍。
步骤104,根据文本段的语义信息,对文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子。
具体地,根据文本段的语义信息,对文本段中的各源语言句子,顺序进行翻译处理得到对应数量的目标语言句子,其中,根据文本段的语义信息,以及根据排序在前的源语言句子进行翻译处理已得到的目标语言句子,对排序在后的源语言句子进行翻译处理。可利用训练好的翻译模型对各源语言句子,顺序进行翻译处理得到对应数量的目标语言句子。
作为一种可能的实现方式,该翻译模型包含编码器和解码器。在利用翻译模型对当前处理的源语言句子进行翻译处理时,包括如下翻译过程:
首先,将源语言句子的语义向量以及所含单词在对应源语言句子中的相对位置信息输入翻译模型的编码器中,以使编码器根据文本段的语义信息和已得到的目标语言句子的字符向量进行编码,得到编码向量。
进而,将编码向量输入翻译模型的解码器中,得到对应目标语言句子的字符向量,通过将翻译得到的目标语言句子的字符向量进行字符映射得到目标语言句子的文本。
其中,对各源语言句子顺序进行翻译处理得到对应目标语言句子的过程,需要多次循环执行前述翻译过程,每执行一次该翻译过程得到一个目标语言句子。翻译模型每输出一个源语言句子对应的目标语言句子的字符向量后,将则该已经得到的目标语言句子的字符向量作为历史信息,输入翻译模型以参与下一个源语言句子的前述翻译过程,从而提高用词的一致性,提高翻译质量。
需要说明的是,对通过翻译模型对源语言进行翻译处理的更具体的实现方式,下述实施例中会对翻译模型的编码器结构进一步详细描述。关于翻译模型的解码器结构可以参考现有技术中的结构,本实施例中对此不再赘述。
本发明实施例的翻译处理方法中,获取源语言的文本段,对文本段进行语义识别,生成文本段的语义信息,根据预先学习得到的源语言与目标语言之间句子数量的对应关系,确定文本段中各源语言句子对应的目标语言句子数量,根据文本段的语义信息,对文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子。根据预先学习得到的源语言与目标语言之间句子的对应关系,以及文本段的语义信息,对源语言句子进行翻译处理得到目标语言句子,提高了文本翻译的质量和效率。
基于上述实施例,本发明实施例提出了另一种翻译处理方法,清楚说明了在进行翻译处理之前,需要基于确定的各源语言句子与目标语言句子数量的对应关系,确定出需要翻译的源语言句子和翻译处理顺序,图2为本发明实施例所提供的另一种翻译处理方法的流程示意图,如图2所示,步骤104,可以包括如下步骤:
步骤1041,根据各源语言句子在文本段中的出现顺序,生成句子序列。
例如,根据各源语言句子在文本段中的出现顺序,对各源语言句子进行编号标记,若有6个源语言句子,则各源语言句子对应的编号为1,2,3,4,5,6,用源语言句子对应的编号来表示该句子,则该句子序列可以表示为[1,2,3,4,5,6]。
步骤1042,根据确定的文本段中各源语言句子与目标语言句子之间数量的对应关系,确定句子序列中的各源语言句子。
具体地,根据确定的文本段中各源语言句子与目标语言句子之间数量的对应关系,重新确定句子序列中的各源语言句子,这是因为,不同语言之间存在差异,直接将获取的源语言的句子进行翻译,会使得翻译的译文不够流畅,例如,英文句子中经常通过设定一些定语或者状语来进行修饰,而中文中则习惯分成多个句子来表达,在翻译时,则需要将若干中文句子合并成一个英文句子进行翻译,从而使得翻译后的译文流畅易懂,符合英文读者的预读习惯。
在本实施例的一种场景下,若一个源语言句子对应至少两个目标语言句子,根据至少两个目标语言句子的句子个数,对一个源语言句子进行复制,将复制得到的源语言句子插入句子序列中与一个源语言句子的相邻位置,例如,句子序列中编号为1的句子,对应了两个目标语言句子,也就是说翻译后得到的两个目标语言句子,都是通过编号为1的源语言句子,翻译生成的,从而将源语言句子对应的句子序列中编号为1的句子进行复制,并插入编号为1的句子的相邻位置,使得得到的句子序列为[1,1,2,3,4,5,6]。
在本实施例的另一种场景下,基于上述得到的句子序列,若至少两个源语言句子对应一个目标语言句子,对至少两个源语言句子进行合并,将合并得到的源语言句子替换句子序列中的至少两个源语言句子。例如,上述的源语言句子序列中,若编号为5的源语言句子和编号为6的源语言句子,均对应一个目标语言句子,则将编号为5和6的源语言句子进行合并,合并为一个句子,该句子可编号标记为7,并替换掉源编号编辑为5和6的源语言句子,得到的句子序列为[1,1,2,3,4,7]。
在本实施例的又一种场景下,基于上述得到的句子序列,对不存在对应目标语言句子的源语言句子从句子序列中删除,这是因为,语言不同,人们的表达习惯不同,源语言中的句子有些可能并不代表具体含义,可以删除,从而可以提高翻译效率。例如,源语言的句子序列中的编号为2的句子,不存在对应的目标语言句子,则将编号为2的句子,从句子序列中删除,得到的句子序列为[1,1,3,4,7]。
需要说明的是,实际应用场景中,可能涉及前述三种场景中的一种或多种组合。
步骤1043,根据句子序列中各源语言句子顺序,确定各源语言句子的翻译处理顺序。
具体地,根据上述步骤1041-1042中的步骤确定的句子序列中各源语言句子顺序,确定各源语言句子的翻译处理顺序,
本发明实施例的翻译处理方法中,根据各源语言句子在文本段中的出现顺序,生成句子序列,并基于确定的文本段中各源语言句子与目标语言句子的对应关系,通过合并和/或删除和/或复制的方式,确定句子序列中的各源语言句子,进而,根据句子序列中各源语言句子顺序,确定各源语言句子的翻译处理顺序,通过对源语言句子序列的处理,使得翻译得到的目标语言的句子,更符合目标语言的受众用户的预读习惯,提高了翻译的质量。
上述实施例中描述了在步骤104中,在进行翻译处理之前,先基于确定的文本段中各源语言句子与对应的目标语言句子的数量,确定出需要翻译的源语言句子和翻译处理顺序,基于上述实施例,为了进一步清楚的描述如何通过翻译模型对源语言进行翻译处理的方法,本申请实施例提供了又一种翻译处理方法的可能的实现方式,图3为本发明实施例所提供的又一种翻译处理方法的流程示意图,如图3所示,基于上述实施例,步骤104,还可以包含如下的子步骤:
步骤1041,对当前处理的源语言句子,将对应的语义向量以及所含单词在对应源语言句子中的相对位置信息输入翻译模型的编码器中,生成用于指示当前处理的源语言句子与所含各单词的语义依赖程度的第一注意力信息。
本发明实施例中,翻译模型采用的是优化后的Transformer模型的编码器,该编码器包含三个自注意力结构,每一个的自注意力结构包含一个多头注意力模型层和一个归一化层,图4为本发明实施例提供的翻译模型的编码器的结构示意图,如图4所示,为了便于说明和区分,该编码器的第一个自注意力结构中包含第一多头注意力模型层和第一归一化层,第二个自注意力结构中包含第二多头注意力模型层和第二归一化层,第三个自注意力结构中包含第三多头注意力模型层和第三归一化层,对于该编码器每一个自注意力结构的输入和输出通过本实施例中的步骤详细介绍。
具体地,如图4所示,将当前处理的源语言句子对应的语义向量以及所含单词在对应源语言句子中的相对位置信息输入编码器的第一多头注意力模型层,以得到当前处理的源语言句子与所含各单词的语义依赖程度,并将各单词的语义依赖程度作为第一权重,利用编码器的第一归一化层,对第一权重进行归一化,作为一种可能的实现方式,可以采用softmax函数对第一权重进行归一化,再利用归一化的第一权重对所含单词对应的编码进行加权求和,得到第一注意力信息。
其中,注意力信息的计算公式为:其中,Q为查询query,K为键key,V为值value,d为K的维度,主要起调节作用,以使得内积不是很大,其中,K值一般等于V的值,对应本发明实施例的步骤1041中,Q为当前处理的源语言句子,K等于V为所含各单词的语义依赖程度。
步骤1042,根据第一注意力信息和文本段的语义信息,生成用于指示当前处理的源语言句子与文本段的语义依赖程度的第二注意力信息。
具体地,如图4所示,将第一注意力信息和文本段的语义信息输入编码器的第二多头注意力模型层,以得到当前处理的源语言句子与语义信息中对应语义的依赖程度,并将与文本段的语义依赖程度作为第二权重,利用编码器的第二归一化层,对第二权重进行归一化后,利用归一化的第二权重对语义信息中对应语义进行加权求和,得到第二注意力信息。基于整个文本段的语义信息,获取第二注意力信息,可以使得最终翻译得到的句子保持正确的逻辑,提高翻译的质量。
其中,对应上述的注意力信息计算公式,在第二多头注意力模型层中,Q为第一注意力信息,K等于V,为文本段的语义信息。
步骤1043,根据第二注意力信息和已得到的目标语言句子的字符向量,生成用于指示当前处理的源语言句子与已得到的目标语言句子的单词一致性的第三注意力信息。
具体地,如图4所示,将第二注意力信息和已得到的各目标语言句子的字符向量输入编码器的第三多头注意力模型层,以得到当前处理的源语言句子与各目标语言句子之间的用词一致性,并将与各目标语言句子之间的用词一致性作为第三权重,利用编码器的第三归一化层,对第三权重进行归一化后,利用归一化的第三权重对各目标语言句子的字符向量进行加权求和,得到第三注意力信息。
其中,对应上述注意力信息计算公式,在第二多头注意力模型层中,Q第二注意力信息,为K等于V,为已得到的目标语言句子的字符向量。
需要理解的是,将已得到的各目标语言句子的字符向量输入编码器的第三多头注意力模型层,计算第三注意力信息,是因为保持和已经得到的目标语言句子中的用词一致性,可以避免产生歧义,提高翻译的质量。
步骤1044,根据第三注意力信息生成编码向量。
具体地,将第三注意力信息输入到全连接的前馈层,并进行归一化处理后,生成编码向量。进而,输入翻译模型的解码器中,输出当前处理的源语言句子对应的目标语言句子。
本发明实施例的翻译处理方法中,在翻译模型的编码器中,设置三层自注意力模型层,分别为第一注意力模型层、第二注意力模型层和第三注意力模型层,在第一注意力模型层中,输入当前处理的源语言句子对应的语义向量以及所含单词在对应源语言句子中的相对位置信息,得到第一注意力信息,在第二注意力模型层中,输入第一注意力信息和文本段的语义信息,基于文本段的语义信息,计算得到第二注意力信息,在第三注意力模型层中,输入第二注意力信息和已经得到的目标语言句子的字符向量,生成第三注意力信息,利用第三注意力信息生成编码向量,第三注意力信息已经充分利用了单词在对应源语言句子中的相对位置信息、文本段的语义信息和已经得到的目标语言句子的字符向量,使得翻译生成的目标语言句子的质量较高。
上述实施例中描述了如何对源语言的文本段的正文进行翻译处理的过程,在对文本段翻译处理完成后,还需要对文本段的标题和摘要进行翻译处理,基于上述实施例,本实施例提出了再一种翻译处理方法的可能的实现方式,图5为本发明实施例所提供的再一种翻译处理方法的流程示意图,步骤104之后,还可以包括如下步骤:
步骤501,根据各目标语言句子生成目标语言标题和目标语言摘要。
需要说明的是,对源语言的标题和摘要进行翻译处理的方法和源语言的文本段中句子的翻译方法原理相同,可参照上述实施例中的方法,此处不再赘述。
本发明实施例的翻译处理方法中,根据预先学习得到的源语言与目标语言之间句子的对应关系,以及文本段的语义信息,对源语言句子进行翻译处理得到目标语言句子,提高了文本翻译的质量和效率,同时,通过模型自动完成翻译过程,节省了人力。
为了实现上述实施例,本发明还提出一种翻译处理装置。
图6为本发明实施例提供的一种翻译处理装置的结构示意图。
如图6所示,该装置包括:获取模块61、识别模块62、确定模块63和处理模块64。
获取模块61,用于获取源语言的文本段,其中,文本段包括多个源语言句子。
识别模块62,用于对文本段进行语义识别,生成文本段的语义信息。
确定模块63,用于根据预先学习得到的源语言与目标语言之间句子数量的对应关系,确定文本段中各源语言句子对应的目标语言句子数量。
处理模块64,用于根据文本段的语义信息,对文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子。
需要说明的是,前述对方法实施例的解释说明也适用于该实施例的装置,此处不再赘述。
本发明实施例的翻译处理装置中,获取源语言的文本段,对文本段进行语义识别,生成文本段的语义信息,根据预先学习得到的源语言与目标语言之间句子数量的对应关系,确定文本段中各源语言句子对应的目标语言句子数量,根据文本段的语义信息,对文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子。根据预先学习得到的源语言与目标语言之间句子的对应关系,以及文本段的语义信息,对源语言句子进行翻译处理得到目标语言句子,提高了文本翻译的质量和效率。
基于上述实施例,本发明实施例还提供了一种翻译处理装置的可能的实现方式,图7为本发明实施例所提供的另一种翻译处理装置的结构示意图,如图7所示,在上一实施例的基础上,该装置还包括:生成模块71。
生成模块71,用于根据各目标语言句子生成目标语言标题和目标语言摘要。
进一步,作为本实施例的一种可能的实现方式,上述处理模块64,还可以包括:生成单元641、判断处理单元642、确定单元643和处理单元644。
生成单元641,用于根据各源语言句子在文本段中的出现顺序,生成句子序列。
判断处理单元642,用于若一个源语言句子对应至少两个目标语言句子,根据至少两个目标语言句子的句子个数,对一个源语言句子进行复制,将复制得到的源语言句子插入句子序列中与一个源语言句子的相邻位置;若至少两个源语言句子对应一个目标语言句子,对至少两个源语言句子进行合并,将合并得到的源语言句子替换句子序列中的至少两个源语言句子;对不存在对应目标语言句子的源语言句子从句子序列中删除。
确定单元643,用于根据句子序列中各源语言句子顺序,确定各源语言句子的翻译处理顺序。
处理单元644,用于对各源语言句子顺序进行翻译处理得到对应数量的目标语言句子,其中,根据文本段的语义信息,以及根据排序在前的源语言句子进行翻译处理已得到的目标语言句子,对排序在后的源语言句子进行翻译处理。
作为一种可能的实现方式,处理单元644,还可以包括:编码子单元6441和解码子单元6442。
编码子单元6441,用于对当前处理的源语言句子,将对应的语义向量以及所含单词在对应源语言句子中的相对位置信息输入翻译模型的编码器中,以根据文本段的语义信息和已得到的目标语言句子的字符向量进行编码,得到编码向量。
解码子单元6442,用于将编码向量输入翻译模型的解码器中,得到对应目标语言句子的字符向量。
作为一种可能的实现方式,编码子单元6441,具体用于:
根据当前处理的源语言句子,生成用于指示当前处理的源语言句子与所含各单词的语义依赖程度的第一注意力信息;
根据第一注意力信息和文本段的语义信息,生成用于指示当前处理的源语言句子与文本段的语义依赖程度的第二注意力信息;
根据第二注意力信息和已得到的目标语言句子的字符向量,生成用于指示当前处理的源语言句子与已得到的目标语言句子的单词一致性的第三注意力信息;
根据第三注意力信息生成所述编码向量。
作为一种可能的实现方式,编码子单元6441,具体还用于:
将当前处理的源语言句子对应的语义向量以及所含单词在对应源语言句子中的相对位置信息输入所述编码器的第一多头注意力模型层,以得到当前处理的源语言句子与所含各单词的语义依赖程度,并将各单词的语义依赖程度作为第一权重;
利用所述编码器的第一归一化层,对所述第一权重进行归一化后,利用归一化的第一权重对所含单词对应的编码进行加权求和,得到所述第一注意力信息。
作为一种可能的实现方式,编码子单元6441,具体还用于:
将所述第一注意力信息和所述文本段的语义信息输入所述编码器的第二多头注意力模型层,以得到当前处理的源语言句子与所述语义信息中对应语义的依赖程度,并将与所述文本段的语义依赖程度作为第二权重;
利用所述编码器的第二归一化层,对所述第二权重进行归一化后,利用归一化的第二权重对所述语义信息中对应语义进行加权求和,得到所述第二注意力信息。
作为一种可能的实现方式,编码子单元6441,具体还可以用于:
将所述第二注意力信息和已得到的各目标语言句子的字符向量输入所述编码器的第三多头注意力模型层,以得到当前处理的源语言句子与各目标语言句子之间的用词一致性,并将与各目标语言句子之间的用词一致性作为第三权重;
利用所述编码器的第三归一化层,对所述第三权重进行归一化后,利用归一化的第三权重对各目标语言句子的字符向量进行加权求和,得到所述第三注意力信息。
本发明实施例的翻译处理装置中,获取源语言的文本段,对文本段进行语义识别,生成文本段的语义信息,根据预先学习得到的源语言与目标语言之间句子数量的对应关系,确定文本段中各源语言句子对应的目标语言句子数量,根据文本段的语义信息,对文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子。根据预先学习得到的源语言与目标语言之间句子的对应关系,以及文本段的语义信息,对源语言句子进行翻译处理得到目标语言句子,提高了文本翻译的质量和效率。
为了实现上述实施例,本发明还提出一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如前述方法实施例所述的翻译处理方法。
为了实现上述实施例,本发明还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现如前述方法实施例所述的翻译处理方法。
图8示出了适于用来实现本申请实施方式的示例性计算机设备的框图。图8显示的计算机设备12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图8所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及外围组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc ReadOnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video DiscRead OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现前述实施例中提及的翻译处理方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (12)

1.一种翻译处理方法,其特征在于,所述方法包括以下步骤:
获取源语言的文本段;其中,所述文本段包括多个源语言句子;
对所述文本段进行语义识别,生成所述文本段的语义信息;
根据预先学习得到的源语言与目标语言之间句子数量的对应关系,确定所述文本段中各源语言句子对应的目标语言句子的数量;
根据所述文本段的语义信息,对所述文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子。
2.根据权利要求1所述的翻译处理方法,其特征在于,所述根据所述文本段的语义信息,对所述文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子,包括:
对各源语言句子顺序进行翻译处理得到对应数量的目标语言句子;
其中,根据所述文本段的语义信息,以及根据排序在前的源语言句子进行翻译处理已得到的目标语言句子,对排序在后的源语言句子进行翻译处理。
3.根据权利要求2所述的翻译处理方法,其特征在于,所述对各源语言句子顺序进行翻译处理得到对应数量的目标语言句子之前,还包括:
根据各源语言句子在所述文本段中的出现顺序,生成句子序列;
若一个源语言句子对应至少两个目标语言句子,根据所述至少两个目标语言句子的句子个数,对所述一个源语言句子进行复制,将所述复制得到的源语言句子插入所述句子序列中与所述一个源语言句子的相邻位置;
若至少两个源语言句子对应一个目标语言句子,对所述至少两个源语言句子进行合并,将合并得到的源语言句子替换所述句子序列中的所述至少两个源语言句子;
对不存在对应目标语言句子的源语言句子从所述句子序列中删除;
根据所述句子序列中各源语言句子顺序,确定各源语言句子的翻译处理顺序。
4.根据权利要求2所述的翻译处理方法,其特征在于,所述对各源语言句子顺序进行翻译处理得到对应数量的目标语言句子,包括:
对当前处理的源语言句子,将对应的语义向量以及所含单词在对应源语言句子中的相对位置信息输入翻译模型的编码器中,以根据所述文本段的语义信息和已得到的目标语言句子的字符向量进行编码,得到编码向量;
将所述编码向量输入所述翻译模型的解码器中,得到对应目标语言句子的字符向量。
5.根据权利要求4所述的翻译处理方法,其特征在于,所述将对应的语义向量以及所含单词在对应源语言句子中的相对位置信息输入翻译模型的编码器中,以根据所述文本段的语义信息和已得到的目标语言句子的字符向量进行编码,得到编码向量,包括:
根据当前处理的源语言句子,生成用于指示当前处理的源语言句子与所含各单词的语义依赖程度的第一注意力信息;
根据所述第一注意力信息和所述文本段的语义信息,生成用于指示当前处理的源语言句子与所述文本段的语义依赖程度的第二注意力信息;
根据所述第二注意力信息和所述已得到的目标语言句子的字符向量,生成用于指示当前处理的源语言句子与所述已得到的目标语言句子的单词一致性的第三注意力信息;
根据所述第三注意力信息生成所述编码向量。
6.根据权利要求5所述的翻译处理方法,其特征在于,所述根据当前处理的源语言句子,生成用于指示当前处理的源语言句子与所含各单词的语义依赖程度的第一注意力信息,包括:
将当前处理的源语言句子对应的语义向量以及所含单词在对应源语言句子中的相对位置信息输入所述编码器的第一多头注意力模型层,以得到当前处理的源语言句子与所含各单词的语义依赖程度,并将各单词的语义依赖程度作为第一权重;
利用所述编码器的第一归一化层,对所述第一权重进行归一化后,利用归一化的第一权重对所含单词对应的编码进行加权求和,得到所述第一注意力信息。
7.根据权利要求5所述的翻译处理方法,其特征在于,所述根据所述第一注意力信息和所述文本段的语义信息,生成用于指示当前处理的源语言句子与所述文本段的语义依赖程度的第二注意力信息,包括:
将所述第一注意力信息和所述文本段的语义信息输入所述编码器的第二多头注意力模型层,以得到当前处理的源语言句子与所述语义信息中对应语义的依赖程度,并将与所述文本段的语义依赖程度作为第二权重;
利用所述编码器的第二归一化层,对所述第二权重进行归一化后,利用归一化的第二权重对所述语义信息中对应语义进行加权求和,得到所述第二注意力信息。
8.根据权利要求5所述的翻译处理方法,其特征在于,所述根据所述第二注意力信息和所述已得到的目标语言句子的字符向量,生成用于指示当前处理的源语言句子与所述已得到的目标语言句子的用词一致性的第三注意力信息,包括:
将所述第二注意力信息和已得到的各目标语言句子的字符向量输入所述编码器的第三多头注意力模型层,以得到当前处理的源语言句子与各目标语言句子之间的用词一致性,并将与各目标语言句子之间的用词一致性作为第三权重;
利用所述编码器的第三归一化层,对所述第三权重进行归一化后,利用归一化的第三权重对各目标语言句子的字符向量进行加权求和,得到所述第三注意力信息。
9.根据权利要求1-8任一项所述的翻译处理方法,其特征在于,所述根据所述文本段的语义信息,对所述文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子之后,还包括:
根据各目标语言句子生成目标语言标题和目标语言摘要。
10.一种翻译处理装置,其特征在于,所述装置包括:
获取模块,用于获取源语言的文本段;其中,所述文本段包括多个源语言句子;
识别模块,用于对所述文本段进行语义识别,生成所述文本段的语义信息;
确定模块,用于根据预先学习得到的源语言与目标语言之间句子数量的对应关系,确定所述文本段中各源语言句子对应的目标语言句子的数量;
处理模块,用于根据所述文本段的语义信息,对所述文本段中各源语言句子进行翻译处理,得到对应数量的目标语言句子。
11.一种计算机设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-9中任一所述的翻译处理方法。
12.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一所述的翻译处理方法。
CN201811204175.9A 2018-10-16 2018-10-16 翻译处理方法、装置、计算机设备和计算机可读存储介质 Active CN109344413B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811204175.9A CN109344413B (zh) 2018-10-16 2018-10-16 翻译处理方法、装置、计算机设备和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811204175.9A CN109344413B (zh) 2018-10-16 2018-10-16 翻译处理方法、装置、计算机设备和计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN109344413A true CN109344413A (zh) 2019-02-15
CN109344413B CN109344413B (zh) 2022-05-20

Family

ID=65309657

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811204175.9A Active CN109344413B (zh) 2018-10-16 2018-10-16 翻译处理方法、装置、计算机设备和计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN109344413B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110083826A (zh) * 2019-03-21 2019-08-02 昆明理工大学 一种基于Transformer模型的老汉双语对齐方法
CN110162801A (zh) * 2019-05-29 2019-08-23 科大讯飞股份有限公司 文本处理方法、装置、设备及可读存储介质
CN110276082A (zh) * 2019-06-06 2019-09-24 百度在线网络技术(北京)有限公司 基于动态窗口的翻译处理方法和装置
CN110543644A (zh) * 2019-09-04 2019-12-06 语联网(武汉)信息技术有限公司 包含术语翻译的机器翻译方法、装置与电子设备
CN110705317A (zh) * 2019-08-28 2020-01-17 科大讯飞股份有限公司 翻译方法及相关装置
CN110826345A (zh) * 2019-11-14 2020-02-21 北京香侬慧语科技有限责任公司 一种机器翻译方法和装置
CN111027333A (zh) * 2019-12-20 2020-04-17 北京百度网讯科技有限公司 篇章翻译方法和装置
CN111061868A (zh) * 2019-11-05 2020-04-24 百度在线网络技术(北京)有限公司 读法预测模型获取及读法预测方法、装置及存储介质
CN111160050A (zh) * 2019-12-20 2020-05-15 沈阳雅译网络技术有限公司 一种基于上下文记忆网络的篇章级神经机器翻译方法
CN111382577A (zh) * 2020-03-11 2020-07-07 北京字节跳动网络技术有限公司 文档翻译方法、装置、电子设备、及存储介质
CN111400454A (zh) * 2020-03-17 2020-07-10 北京字节跳动网络技术有限公司 摘要生成方法、装置、电子设备及存储介质
CN111753600A (zh) * 2019-03-29 2020-10-09 北京市商汤科技开发有限公司 文本识别方法、装置及存储介质
CN111831816A (zh) * 2020-07-21 2020-10-27 虎博网络技术(上海)有限公司 核心内容处理方法、装置、电子设备和可读存储介质
CN112037776A (zh) * 2019-05-16 2020-12-04 武汉Tcl集团工业研究院有限公司 一种语音识别方法、语音识别装置及终端设备
CN112257459A (zh) * 2020-10-16 2021-01-22 北京有竹居网络技术有限公司 语言翻译模型的训练方法、翻译方法、装置和电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020091509A1 (en) * 2001-01-02 2002-07-11 Yacov Zoarez Method and system for translating text
CN1489086A (zh) * 2002-10-10 2004-04-14 莎 刘 一种语义约定全文翻译系统和方法
CN101271452A (zh) * 2007-03-21 2008-09-24 株式会社东芝 生成译文和机器翻译的方法及装置
CN103617227A (zh) * 2013-11-25 2014-03-05 福建工程学院 一种基于模糊神经网络的句子匹配程度计算及对齐方法
CN107391495A (zh) * 2017-06-09 2017-11-24 北京吾译超群科技有限公司 一种双语平行语料的句对齐方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020091509A1 (en) * 2001-01-02 2002-07-11 Yacov Zoarez Method and system for translating text
CN1489086A (zh) * 2002-10-10 2004-04-14 莎 刘 一种语义约定全文翻译系统和方法
CN101271452A (zh) * 2007-03-21 2008-09-24 株式会社东芝 生成译文和机器翻译的方法及装置
CN103617227A (zh) * 2013-11-25 2014-03-05 福建工程学院 一种基于模糊神经网络的句子匹配程度计算及对齐方法
CN107391495A (zh) * 2017-06-09 2017-11-24 北京吾译超群科技有限公司 一种双语平行语料的句对齐方法

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110083826A (zh) * 2019-03-21 2019-08-02 昆明理工大学 一种基于Transformer模型的老汉双语对齐方法
CN111753600B (zh) * 2019-03-29 2024-05-17 北京市商汤科技开发有限公司 文本识别方法、装置及存储介质
CN111753600A (zh) * 2019-03-29 2020-10-09 北京市商汤科技开发有限公司 文本识别方法、装置及存储介质
CN112037776A (zh) * 2019-05-16 2020-12-04 武汉Tcl集团工业研究院有限公司 一种语音识别方法、语音识别装置及终端设备
CN110162801A (zh) * 2019-05-29 2019-08-23 科大讯飞股份有限公司 文本处理方法、装置、设备及可读存储介质
CN110276082A (zh) * 2019-06-06 2019-09-24 百度在线网络技术(北京)有限公司 基于动态窗口的翻译处理方法和装置
CN110705317A (zh) * 2019-08-28 2020-01-17 科大讯飞股份有限公司 翻译方法及相关装置
CN110705317B (zh) * 2019-08-28 2023-04-07 科大讯飞股份有限公司 翻译方法及相关装置
CN110543644A (zh) * 2019-09-04 2019-12-06 语联网(武汉)信息技术有限公司 包含术语翻译的机器翻译方法、装置与电子设备
CN110543644B (zh) * 2019-09-04 2023-08-29 语联网(武汉)信息技术有限公司 包含术语翻译的机器翻译方法、装置与电子设备
CN111061868A (zh) * 2019-11-05 2020-04-24 百度在线网络技术(北京)有限公司 读法预测模型获取及读法预测方法、装置及存储介质
CN110826345A (zh) * 2019-11-14 2020-02-21 北京香侬慧语科技有限责任公司 一种机器翻译方法和装置
CN110826345B (zh) * 2019-11-14 2023-09-05 北京香侬慧语科技有限责任公司 一种机器翻译方法和装置
CN111160050A (zh) * 2019-12-20 2020-05-15 沈阳雅译网络技术有限公司 一种基于上下文记忆网络的篇章级神经机器翻译方法
CN111027333A (zh) * 2019-12-20 2020-04-17 北京百度网讯科技有限公司 篇章翻译方法和装置
CN111382577A (zh) * 2020-03-11 2020-07-07 北京字节跳动网络技术有限公司 文档翻译方法、装置、电子设备、及存储介质
CN111382577B (zh) * 2020-03-11 2023-05-02 北京字节跳动网络技术有限公司 文档翻译方法、装置、电子设备、及存储介质
CN111400454A (zh) * 2020-03-17 2020-07-10 北京字节跳动网络技术有限公司 摘要生成方法、装置、电子设备及存储介质
CN111831816B (zh) * 2020-07-21 2023-06-27 虎博网络技术(上海)有限公司 核心内容处理方法、装置、电子设备和可读存储介质
CN111831816A (zh) * 2020-07-21 2020-10-27 虎博网络技术(上海)有限公司 核心内容处理方法、装置、电子设备和可读存储介质
CN112257459B (zh) * 2020-10-16 2023-03-24 北京有竹居网络技术有限公司 语言翻译模型的训练方法、翻译方法、装置和电子设备
CN112257459A (zh) * 2020-10-16 2021-01-22 北京有竹居网络技术有限公司 语言翻译模型的训练方法、翻译方法、装置和电子设备

Also Published As

Publication number Publication date
CN109344413B (zh) 2022-05-20

Similar Documents

Publication Publication Date Title
CN109344413A (zh) 翻译处理方法和装置
Malmi et al. Encode, tag, realize: High-precision text editing
CN109684648B (zh) 一种多特征融合的古今汉语自动翻译方法
CN110196894A (zh) 语言模型的训练方法和预测方法
Reznicek et al. Competing target hypotheses in the Falko corpus
CN110083710B (zh) 一种基于循环神经网络与潜变量结构的词语定义生成方法
CN109670029A (zh) 用于确定问题答案的方法、装置、计算机设备及存储介质
CN109376309A (zh) 基于语义标签的文档推荐方法和装置
CN110162800A (zh) 翻译模型的训练方法和装置
CN109918681B (zh) 一种基于汉字-拼音的融合问题语义匹配方法
CN110175336A (zh) 翻译方法、装置和电子设备
CN109992775A (zh) 一种基于高级语义的文本摘要生成方法
CN110175335A (zh) 翻译模型的训练方法和装置
CN111553159B (zh) 一种问句生成方法及系统
CN109670185A (zh) 基于人工智能的文本生成方法和装置
CN109670190A (zh) 翻译模型构建方法和装置
CN113609840B (zh) 一种汉语法律判决摘要生成方法及系统
CN114049501A (zh) 融合集束搜索的图像描述生成方法、系统、介质及设备
Efthimiou et al. From grammar-based MT to post-processed SL representations
CN112084788A (zh) 一种影像字幕隐式情感倾向自动标注方法及系统
Jung et al. Word reordering for translation into Korean sign language using syntactically-guided classification
CN111813927A (zh) 一种基于主题模型和lstm的句子相似度计算方法
Cristea et al. From scan to text. Methodology, solutions and perspectives of deciphering old cyrillic Romanian documents into the Latin script
CN114972907A (zh) 基于强化学习和对比学习的图像语义理解及文本生成
CN114358021A (zh) 基于深度学习的任务型对话语句回复生成方法及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant