CN111368560A - 文本翻译方法、装置、电子设备及存储介质 - Google Patents

文本翻译方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111368560A
CN111368560A CN202010129585.2A CN202010129585A CN111368560A CN 111368560 A CN111368560 A CN 111368560A CN 202010129585 A CN202010129585 A CN 202010129585A CN 111368560 A CN111368560 A CN 111368560A
Authority
CN
China
Prior art keywords
text
language
translation
target
languages
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010129585.2A
Other languages
English (en)
Inventor
王明轩
潘骁
李磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202010129585.2A priority Critical patent/CN111368560A/zh
Publication of CN111368560A publication Critical patent/CN111368560A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本公开实施例公开了一种文本翻译方法、装置、电子设备及存储介质。所述方法包括:获取待翻译语言对应的源文本;获取指定的目标语言;将所述源文本和与所述目标语言匹配的指示信息输入到预先训练的文本翻译模型中,所述文本翻译模型用于将第一语言集合中的语言翻译成第二语言集合中的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;获取所述文本翻译模型输出的与所述目标语言对应的翻译文本,其中,所述待翻译语言与所述目标语言不同。本公开实施例可以实现多语言文本翻译,以及提高文本翻译的效率和准确性。

Description

文本翻译方法、装置、电子设备及存储介质
技术领域
本公开实施例涉及文本识别领域,尤其涉及一种文本翻译方法、装置、电 子设备及存储介质。
背景技术
机器翻译是利用计算机程序实现语言的自动翻译的过程,实现从一种语言 到另一种语言的翻译。
目前现有的机器翻译模块或者翻译表,仅能实现一个语言对之间的翻译任 务,即实现将第一语言的文本翻译成第二语言的文本。如果想要实现将第一语 言的文本翻译成第三语言的文本,则只能通过另外的翻译模块以及另外的翻译 表实现。
上述翻译方式只能支持文本之间一一互译。若通过多个机器翻译模块实现 不同语言对之间的翻译任务,导致开发成本提高,翻译成本提高。若通过配置 多个翻译表实现不同语言对之间的翻译任务,但翻译表的数量庞大,相应的, 存储空间变大,同时查询工作量庞大,导致翻译效率下降。
发明内容
本公开实施例提供一种文本翻译方法、装置、电子设备及存储介质,可以 实现多语言文本翻译,以及提高文本翻译的效率和准确性。
第一方面,本公开实施例提供了一种文本翻译方法,包括:
获取待翻译语言对应的源文本;
获取指定的目标语言;
将所述源文本和与所述目标语言匹配的指示信息输入到预先训练的文本翻 译模型中,所述文本翻译模型用于将第一语言集合中的语言翻译成第二语言集 合中的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待 翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标 语言;
获取所述文本翻译模型输出的与所述目标语言对应的翻译文本,其中,所 述待翻译语言与所述目标语言不同。
第二方面,本公开实施例还提供了一种文本翻译装置,包括:
源文本获取模块,用于获取待翻译语言对应的源文本;
目标语言指定模块,用于获取指定的目标语言;
语言翻译模块,用于将所述源文本和与所述目标语言匹配的指示信息输入 到预先训练的文本翻译模型中,所述文本翻译模型用于将第一语言集合中的语 言翻译成第二语言集合中的语言,所述第一语言集合包括多个语言,所述第一 语言集合包括待翻译语言,所述第二语言集合包括多个语言,所述第二语言集 合包括目标语言;
翻译文本获取模块,用于获取所述文本翻译模型输出的与所述目标语言对 应的翻译文本,其中,所述待翻译语言与所述目标语言不同。
第三方面,本公开实施例还提供了一种电子设备,包括存储器、处理器及 存储在存储器上并可在处理器上运行的计算机程序所述处理器执行所述程序时 实现如本公开实施例中任一所述的文本翻译方法。
第四方面,本公开实施例还提供了一种计算机可读存储介质,其上存储有 计算机程序,该程序被处理器执行时实现如本公开实施例中任一所述的文本翻 译方法。
本公开实施例通过将源文本输入到预先训练的文本翻译模型中,并通过指 定目标语言,获取文本翻译模型输出的目标语言对应的翻译文本,解决了现有 技术中仅能支持文本一一互译以及多语言文本的翻译的实现成本高和翻译效率 低的问题,实现通过指定语言,获取任意指定语言的翻译文本,从而实现任意 源文本向任意语言的文本的转换,同时仅通过文本翻译模型实现文本翻译,简 化文本翻译的过程,降低多语言文本翻译的成本,大大提高多语言文本翻译的 效率。
附图说明
图1是本公开实施例中的一种文本翻译方法的流程图;
图2是本公开实施例所适用的Seq2Seq模型的示意图;
图3是本公开实施例所适用的Seq2Seq模型中编码器的示意图;
图4是本公开实施例所适用的Seq2Seq模型中解码器的示意图;
图5是本公开实施例中的一种文本翻译方法的流程图;
图6是本公开实施例中的一种文本翻译装置的结构示意图;
图7是本公开实施例中的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开 的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不 应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和 完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用, 并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序 执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行 示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语 “基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另 一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施 例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、 模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺 序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性 的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为 “一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说 明性的目的,而并不是用于对这些消息或信息的范围进行限制。
实施例
图1为本公开实施例中的一种文本翻译方法的流程图,可适用于将源文本 翻译成任意指定的目标语言对应的翻译文本情况,该方法可以由文本翻译装置 来执行,该装置可以采用软件和/或硬件的方式实现,该装置可以配置于电子设 备中,具体是配置于电子设备中,电子设备可以是终端设备,可以包括手机、 车载终端或笔记本电脑等,或者可以是服务器。如图1所示,该方法具体包括 如下步骤:
S110,获取待翻译语言对应的源文本。
源文本用于作为待翻译的文本,可以是从文档文件中提取的文本。源文本 可以包括至少一个语言的文本。例如,源文本可以是中文:我爱唱歌,或者可 以包括英文和中文:Ilove to唱歌,其中,该源文本包括英文文本I love to和中 文文本唱歌。
待翻译语言为源文本的语言,待翻译语音的数量为至少一个。若源文本为 单一语言的文本,待翻译语言为该单一语言。若源文本为混合语言的文本,待 翻译语言为混合语言,或者为混合语言中的一个语言。示例性的,待翻译语言 可以是混合语言中单词数最多的语言,例如,源文本为I love to唱歌,英文包 括3个单词,而中文包括1个单词,英文的单词数多于中文的单词数,待翻译 语言为英文。
S120,获取指定的目标语言。
目标语言用于确定翻译文本的语言。目标语言通常为用户指定,也可以是 按照设定规则随机指定。具体的,获取用户的输入信息确定目标语言。
S130,将源文本和与所述目标语言匹配的指示信息输入到预先训练的文本 翻译模型中,所述文本翻译模型用于将第一语言集合中的语言翻译成第二语言 集合中的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述 待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目 标语言。
文本翻译模型用于将任意文本翻译成任意语言的翻译文本,也即用于将M 种语言的文本翻译成N种语言的翻译文本。具体的,文本翻译模型包括机器学 习模型,例如,神经网络模型,具体是单神经网络模型(如卷积神经网络模型) 或融合神经网络模型(如融合卷积神经网络和循环神经网络的模型)等。
目标语言匹配的指示信息用于标识目标语言,不同的目标语言匹配的指示 信息不同。示例性的,指示信息可以是设定字符,例如,1-中文,2-英文,3- 日文,或者是a-中文,b-英文,c-日文,此外,还可以是符号,对此本公开实施 例不做具体限制。
第一语言集合包括至少两个语言,第二语言集合包括至少两个语言。第一 语言和第二语言集合不完全相同,第一语言集合和第二语言集合形成的语言集 合包括至少三个语言。
S140,获取所述文本翻译模型输出的与所述目标语言对应的翻译文本,其 中,所述待翻译语言与所述目标语言不同。
翻译文本可以是指与源文本的语义相同,语言不同的文本。如果待翻译语 言的数量为至少两个,则目标语言与至少一个待翻译语言不同。
可选的,所述获取所述文本翻译模型输出的与所述目标语言对应的翻译文 本,包括:通过所述文本翻译模型中的编码器提取所述源文本中的源文本元素, 并进行编码,形成所述源文本的特征向量;其中,所述文本翻译模型为Seq2Seq 模型;通过所述文本翻译模型中的解码器根据所述特征向量和所述目标语言, 将所述特征向量映射为目标语言的文本序列,作为翻译文本。
其中,文本翻译模型为Seq2Seq模型(序列到序列模型)。实际上,Seq2Seq 模型是一种循环神经网络的变种,包括编码器(Encoder)和解码器(Decoder)。如 图2所示,编码器用于编码序列的信息,将任意长度的序列信息(x)编码到特 征向量(c),具体是将源文本代表的文本序列进行切分以及编码转换成为特征 向量。解码器用于根据上下文信息对特征向量(c)进行解析,形成文本序列(y), 即翻译文本。特征向量实际用于表征源文本的特征。
通过采用Seq2Seq模型实现源文本到目标语言的翻译文本的翻译,可以直 接将源文本作为文本序列转换为指定语言的文本序列作为翻译文本,简化文本 翻译的过程,减少通过多步实现多语言翻译时中间环节放大的翻译错误,提高 文本翻译的效率和准确率。
可选的,所述通过所述文本翻译模型中的编码器提取所述源文本中的源文 本元素,并进行编码,形成所述源文本的特征向量,包括:通过所述编码器对 所述源文本进行切分,形成至少一个源文本元素,所述源文本元素包括下述至 少一项字、词语和句;通过所述编码器根据各所述文本元素以及各所述文本元 素的语序,依次对初始向量进行变换,形成特征向量。
源文本元素为源文本中的部分文本。源文本元素包括下述至少一项字、词 语和句。不同的源文本元素包含的单词数可以不同。例如,第一源本文元素包 括1个单词,第二源本文元素包括3个单词。特征向量用于表征聚合从源文本 中提取得到的全部文本特征。
通常,源文本在翻译时按照字、词或者句,逐字逐词逐句翻译。由此可以 按照源文本进行划分,形成字、词或者句等元素,再进行翻译。从而,编码器 对源文本进行切分,可以是按照字、词或者句进行切分。全部源文本元素组成 源文本。
编码器在计算特征向量时,通常预先配置一个初始隐藏层向量,并将一个 源文本元素作为输入,计算得到当前时刻对应的隐藏层向量。而后依次将源文 本元素分别作为输入,对上一时刻得到的隐藏层向量进行变换,得到当前时刻 对应的隐藏层向量,当全部源文本元素均输入完成,得到隐藏层向量即为特征 向量。
示例性的,如图3所示,h1、h2、h3……hn为隐藏层向量,与上一时刻的 状态以及当前输入有关。h0为预设的初始隐藏层向量,x1、x2、x3……xn为源 文本元素,c为特征向量。根据h0以及此刻输入x1计算h1,再根据h1以及此刻 输入x2计算h2,以此类推,根据hn以及此刻输入xn计算c。
通过编码器对源文本进行切分,形成至少一个源文本元素,对初始隐藏层 向量进行变换,形成用于表征源文本特征的特征向量,实现编码过程,准确将 源文本按照人类说话习惯将源文本映射为特征向量,提高特征向量的代表性。
可选的,所述通过所述文本翻译模型中的解码器根据所述特征向量和所述 目标语言,将所述特征向量映射为目标语言的文本序列,包括:通过所述解码 器对所述特征向量进行解析,确定至少一个备选翻译文本元素;从至少一个备 选翻译文本元素中查询与所述目标语言匹配的目标翻译文本元素,并拼接形成 目标语言的文本序列。
备选翻译文本元素包括多个语言的翻译文本元素,可以从备选翻译文本元 素中筛选出属于目标语言的目标翻译文本元素。目标翻译文本元素用于组成翻 译文本。在备选翻译文本元素中筛选出属于目标语言的目标翻译文本元素,并 将目标翻译文本元素拼接形成文本序列,从而,该文本序列的语言为目标语言。
实际上,文本翻译模型可以实现源文本到任意语言的翻译文本的翻译,在 解码器进行解码形成文本元素时,可以根据指定的目标语言筛选出与目标语言 匹配的文本元素,从而形成目标语言对应的翻译文本的组成元素,并进行拼接 最终形成翻译文本。
具体的,解码器在对特征向量进行解析时,通常将特征向量作为输入,计 算得到当前时刻对应的隐藏层向量,确定备选翻译文本元素并计算各备选翻译 文本元素的概率(如置信度),根据各备选翻译文本元素的概率确定目标翻译 文本元素。后续依次根据上一时刻得到隐藏层向量确定计算当前时刻对应的隐 藏层向量,以及确定当前时刻对应的备选翻译文本元素并计算各备选翻译文本 元素的概率,进而确定当前时刻对应的目标翻译文本元素。示例性的,根据上 一时刻得到隐藏层向量计算当前时刻对应的隐藏层向量,确定目标翻译文本元 素,可以仅根据上一时刻得到的隐藏层向量计算当前时刻对应的隐藏层向量, 还可以根据上一时刻得到的隐藏层向量、特征向量以及上一时刻对应的目标翻译文本元素,确定当前时刻对应的隐藏层向量,当前时刻对应的目标翻译文本 元素。
其中,根据各备选翻译文本元素的概率,从中筛选出概率最高的作为目标 翻译文本元素,例如,与目标语言匹配的备选翻译文本元素的概率高于与目标 语言不匹配的备选翻译文本元素的概率,从而筛选出目标翻译文本元素。
示例性的,如图4所示,h1’、h2’、h3’……hn’为隐藏层向量,与上一时刻 的状态以及当前输入有关。h0’为预设的初始隐藏层向量,y1、y2、y3……yn为输 出序列,c为特征向量。根据h0’以及c计算h1’,再根据h1’以及c计算h2,以 此类推,根据hn-1’以及c计算hn’。同时根据h0、h1’、c计算多个备选翻译文本 元素的概率,并从中确定目标翻译文本元素作为y1输出,再根据h1’、y1和c计 算多个备选翻译文本元素的概率,并从中确定目标翻译文本元素作为y2输出, 以此类推,根据hn-1’、yn-1以及c输出yn。对y1、y2、y3……yn进行拼接,得到 的文本即为翻译文本。
通过解码器将编码器形成的特征向量进行解析,并筛选出与目标语言匹配 的目标翻译文本元素进行拼接,形成翻译文本,可以从多个语言对应的翻译文 本元素中筛选出与目标语言匹配的目标翻译文本元素,并拼接形成翻译文本, 实现能够将源文本翻译成多种文本,以及可以在指定翻译文本的语言的情况下, 准确得到目标语言的翻译文本。
可选的,所述编码器和所述解码器包括神经网络模型。
实际上,编码器和解码器均可以基于神经网络模型构建。其中,神经网络 模块可以包括下述至少一项:卷积神经网络模型、循环神经网络模型、深度神 经网络模型、反向传播神经网络模型、长短期记忆网络模型、门重复单元模型。 通过采用神经网络模型构建编码器和解码器,可以提高源文本的编码和特征向 量解码的准确率,从而,提高源文本的翻译准确率。
此外,Seq2Seq模型还可以采用Attention机制,实际上,在解码器在对特 征向量进行解析时,目标翻译文本元素不仅和解码器的上一时刻隐藏层向量相 关、特征向量、以及上一时刻对应的目标翻译文本元素有关,还与编码器中的 隐藏层向量相关,通过Attention机制,针对每个目标翻译文本元素的计算,确 定编码器中各隐藏层向量的权重,将当前时刻的解码的输入与所有时刻的编码 器的隐藏层向量进行加权求和,计算下一时刻的隐藏层向量以及目标翻译文本 元素,从而更加准确确定目标翻译语义元素。
本公开实施例通过将源文本输入到预先训练的文本翻译模型中,并通过指 定目标语言,获取文本翻译模型输出的目标语言对应的翻译文本,解决了现有 技术中仅能支持文本一一互译以及多语言文本的翻译的实现成本高和翻译效率 低的问题,实现通过指定语言,获取任意指定语言的翻译文本,从而实现任意 源文本向任意语言的文本的转换,同时仅通过文本翻译模型实现文本翻译,简 化文本翻译的过程,降低多语言文本翻译的成本,大大提高多语言文本翻译的 效率。
在一个示例性的实施方式中,图5为本公开实施例中的一种文本翻译方法 的流程图,该方法具体包括如下步骤:
S210,获取样本对集合,其中,所述样本对集合中的各样本对包括一个目 标源文本,以及一个目标翻译文本,所述目标翻译文本标注有语言信息。
其中,样本对是指目标源文本与目标翻译文本的组合。样本对集合包括多 个样本对。样本对用于作为训练样本。示例性的,样本对中的目标源文本与目 标翻译文本的语言可以相同,也可以不同。
需要说明的是,文本可以直接从网络中抓取,通常根据抓取源头确定文本 的语言,例如,从美国电子杂志中抓取的文本,该文本的语言为英文。可以人 工翻译,并采集语义相同的其他语言的文本,作为目标源文本,并将抓取的语 音作为目标翻译文本,形成样本对。或者,可以通过现有的方式,将抓取的文 本进行机器翻译,生成其他语言的文本作为目标源文本,将抓取的文本作为目 标翻译文本,形成样本对。
语言信息用于标识文本的语言。可以仅对样本对中的目标翻译文本进行标 注,还可以对样本对中的目标源文本以及目标翻译文本均进行标注。
示例性的,语言信息可以是设定字符,例如,1-中文,2-英文,3-日文,或 者是a-中文,b-英文,c-日文,此外,还可以是符号,对此本公开实施例不做具 体限制。
此外,针对混合语言的源文本可以仅标注为一个语言,如标注单词含量最 高的语言,也可以分别标注语言。示例性的,目标源文本为I love to唱歌,可 以按照英文包括3个单词,而中文包括1个单词,将该目标源文本标注为英文; 还可以将I love to标注为英文,并将唱歌标注为中文;或者可以标注为中文。
可选的,所述样本对中目标源文本对应的待翻译语言数量包括至少两个, 所述目标源文本对应的至少一个待翻译语言与所述目标翻译文本的语言不同。
目标源文本可以包括多个待翻译语言的文本元素。目标源文本对应的多个 待翻译语言中至少有一个待翻译语言的目标翻译文本的语言不同。将包括至少 两种待翻译语言的目标源文本与目标翻译文本形成样本对,该样本对实际实现 对混合语言的文本进行翻译。
示例性的,样本对中目标源文本为I love to唱歌,目标翻译文本为我喜欢 唱歌。
通过配置样本对的目标源文本对应的待翻译语言的数量为至少两种,并基 于该样本对训练模型,可以实现对多语言混合句的文本进行翻译,支持多语言 文本翻译,提高文本模型的翻译准确率,以及降低文本翻译的实现成本。
S220,根据样本对集合对初始模型进行训练,形成文本翻译模型,其中, 所述样本对集合对应的语言数量包括至少三个。
样本对集合中包括大量的样本对,用于训练初始模型。初始模型为未训练 完成的文本翻译模型。初始模型经过样本对集合中的样本对的训练,形成文本 翻译模型。
文本翻译模型可以实现不同语言文本之间的翻译。样本对集合中包括样本 对所对应的语言数量包括至少三个,从而训练完成的文本翻译模型至少可以实 现三个语言的文本之间的相互翻译。
S230,获取待翻译语言对应的源文本。
S240,获取指定的目标语言。
S250,将所述源文本和与所述目标语言匹配的指示信息输入到预先训练的 文本翻译模型中,所述文本翻译模型用于将第一语言集合中的语言翻译成第二 语言集合中的语言,所述第一语言集合包括多个语言,所述第一语言集合包括 待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括目标语 言。
S260,获取所述文本翻译模型输出的与所述目标语言对应的翻译文本,其 中,所述待翻译语言与所述目标语言不同。
本公开实施例通过配置多语言的样本对,对初始模型进行训练,形成多语 言文本互译的文本翻译模型,实现文本翻译模型支持多语言文本互译,同时提 高多语言文本互译的准确率。
图6为本公开实施例提供的一种文本翻译装置的结构示意图,可适用于将 源文本翻译成任意指定的目标语言对应的翻译文本情况。该装置可以采用软件 和/或硬件的方式实现,该装置可以配置于电子设备中。如图6所示,该装置可 以包括:源文本获取模块310、目标语言指定模块320、语言翻译模块330和翻 译文本获取模块340。
源文本获取模块310,用于获取待翻译语言对应的源文本;
目标语言指定模块320,用于获取指定的目标语言;
语言翻译模块330,用于将所述源文本和与所述目标语言匹配的指示信息 输入到预先训练的文本翻译模型中,所述文本翻译模型用于将第一语言集合中 的语言翻译成第二语言集合中的语言,所述第一语言集合包括多个语言,所述 第一语言集合包括待翻译语言,所述第二语言集合包括多个语言,所述第二语 言集合包括目标语言;
翻译文本获取模块340,用于获取所述文本翻译模型输出的与所述目标语 言对应的翻译文本,其中,所述待翻译语言与所述目标语言不同。
本公开实施例通过将源文本输入到预先训练的文本翻译模型中,并通过指 定目标语言,获取文本翻译模型输出的目标语言对应的翻译文本,解决了现有 技术中仅能支持文本一一互译以及多语言文本的翻译的实现成本高和翻译效率 低的问题,实现通过指定语言,获取任意指定语言的翻译文本,从而实现任意 源文本向任意语言的文本的转换,同时仅通过文本翻译模型实现文本翻译,简 化文本翻译的过程,降低多语言文本翻译的成本,大大提高多语言文本翻译的 效率。
进一步的,所述翻译文本获取模块320,包括:Seq2Seq模型翻译单元,用 于通过所述文本翻译模型中的编码器提取所述源文本中的源文本元素,并进行 编码,形成所述源文本的特征向量;其中,所述文本翻译模型为Seq2Seq模型; 通过所述文本翻译模型中的解码器根据所述特征向量和所述目标语言,将所述 特征向量映射为目标语言的文本序列,作为翻译文本。
进一步的,所述Seq2Seq模型翻译单元,包括:编码子单元,用于通过所 述编码器对所述源文本进行切分,形成至少一个源文本元素,所述源文本元素 包括下述至少一项字、词语和句;通过所述编码器根据各所述文本元素以及各 所述文本元素的语序,依次对初始向量进行变换,形成特征向量。
进一步的,所述Seq2Seq模型翻译单元,包括:解码子单元,用于通过所 述解码器对所述特征向量进行解析,确定至少一个备选翻译文本元素;从至少 一个备选翻译文本元素中查询与所述目标语言匹配的目标翻译文本元素,并拼 接形成目标语言的文本序列。
进一步的,所述文本翻译装置,还包括:获取样本对集合,其中,所述样 本对集合中的各样本对包括一个目标源文本,以及一个目标翻译文本,所述目 标翻译文本标注有语言信息;根据样本对集合对初始模型进行训练,形成文本 翻译模型,其中,所述样本对集合对应的语言数量包括至少三个。
进一步的,所述样本对中目标源文本对应的待翻译语言数量包括至少两个, 所述目标源文本对应的至少一个待翻译语言与所述目标翻译文本的语言不同。
进一步的,所述编码器和所述解码器包括神经网络模型。
本公开实施例提供的文本翻译装置,与文本翻译方法属于同一发明构思, 未在本公开实施例中详尽描述的技术细节可参见前述,并且本公开实施例与前 述实施例具有相同的有益效果。
下面参考图7,其示出了适于用来实现本公开实施例的电子设备(例如图1 中的终端设备或服务器)700的结构示意图。本公开实施例中的终端设备可以 包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字 助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如 车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。 图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围 带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处 理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储 装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作 和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。 处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O) 接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、 鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶 显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等 的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其 他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子 设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代 地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为 计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承 载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程 图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装 置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702 被安装。在该计算机程序被处理装置701执行时,执行本公开实施例的方法中 限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质 或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例 如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装 置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包 括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机 访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM 或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁 存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可 以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者 器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在 基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代 码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号 或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质 以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输 用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可 读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、 光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通 信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通 信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互 联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未 来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在, 而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序 被该电子设备执行时,使得该电子设备:获取待翻译语言对应的源文本;获取 指定的目标语言;将所述源文本和与所述目标语言匹配的指示信息输入到预先 训练的文本翻译模型中,所述文本翻译模型用于将第一语言集合中的语言翻译 成第二语言集合中的语言,所述第一语言集合包括多个语言,所述第一语言集 合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合 包括所述目标语言;获取所述文本翻译模型输出的与所述目标语言对应的翻译 文本,其中,所述待翻译语言与所述目标语言不同。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的 计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言— 诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言 或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在 用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在 远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算 机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广 域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因 特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计 算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图 中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、 或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应 当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图 中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执 行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的 是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可 以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用 硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块可以通过软件的方式实现,也可以 通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本 身的限定,例如,目标语言指定模块还可以被描述为“获取指定的目标语言的模 块”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。 例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门 阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统 (SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存 储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地 使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机 器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或 半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质 的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、 随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光 学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,本公开提供了一种文本翻译方法,包括:
获取待翻译语言对应的源文本;
获取指定的目标语言;
将所述源文本和与所述目标语言匹配的指示信息输入到预先训练的文本翻 译模型中,所述文本翻译模型用于将第一语言集合中的语言翻译成第二语言集 合中的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待 翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标 语言;
获取所述文本翻译模型输出的与所述目标语言对应的翻译文本,其中,所 述待翻译语言与所述目标语言不同。
根据本公开的一个或多个实施例,本公开提供的文本翻译方法中,所述获 取所述文本翻译模型输出的与所述目标语言对应的翻译文本,包括:通过所述 文本翻译模型中的编码器提取所述源文本中的源文本元素,并进行编码,形成 所述源文本的特征向量;其中,所述文本翻译模型为Seq2Seq模型;通过所述 文本翻译模型中的解码器根据所述特征向量和所述目标语言,将所述特征向量 映射为目标语言的文本序列,作为翻译文本。
根据本公开的一个或多个实施例,本公开提供的文本翻译方法中,所述通 过所述文本翻译模型中的编码器提取所述源文本中的源文本元素,并进行编码, 形成所述源文本的特征向量,包括:通过所述编码器对所述源文本进行切分, 形成至少一个源文本元素,所述源文本元素包括下述至少一项字、词语和句; 通过所述编码器根据各所述文本元素以及各所述文本元素的语序,依次对初始 向量进行变换,形成特征向量。
根据本公开的一个或多个实施例,本公开提供的文本翻译方法中,所述通 过所述文本翻译模型中的解码器根据所述特征向量和所述目标语言,将所述特 征向量映射为目标语言的文本序列,包括:通过所述解码器对所述特征向量进 行解析,确定至少一个备选翻译文本元素;从至少一个备选翻译文本元素中查 询与所述目标语言匹配的目标翻译文本元素,并拼接形成目标语言的文本序列。
根据本公开的一个或多个实施例,本公开提供的文本翻译方法,在将源文 本输入到预先训练的文本翻译模型中之前,还包括:获取样本对集合,其中, 所述样本对集合中的各样本对包括一个目标源文本,以及一个目标翻译文本, 所述目标翻译文本标注有语言信息;根据样本对集合对初始模型进行训练,形 成文本翻译模型,其中,所述样本对集合对应的语言数量包括至少三个。
根据本公开的一个或多个实施例,本公开提供的文本翻译方法中,所述样 本对中目标源文本对应的待翻译语言数量包括至少两个,所述目标源文本对应 的至少一个待翻译语言与所述目标翻译文本的语言不同。
根据本公开的一个或多个实施例,本公开提供的文本翻译方法中,所述编 码器和所述解码器包括神经网络模型。
根据本公开的一个或多个实施例,本公开提供了一种文本翻译装置,包括:
源文本获取模块,用于获取待翻译语言对应的源文本;
目标语言指定模块,用于获取指定的目标语言;
语言翻译模块,用于将所述源文本和与所述目标语言匹配的指示信息输入 到预先训练的文本翻译模型中,所述文本翻译模型用于将第一语言集合中的语 言翻译成第二语言集合中的语言,所述第一语言集合包括多个语言,所述第一 语言集合包括待翻译语言,所述第二语言集合包括多个语言,所述第二语言集 合包括目标语言;
翻译文本获取模块,用于获取所述文本翻译模型输出的与所述目标语言对 应的翻译文本,其中,所述待翻译语言与所述目标语言不同。
根据本公开的一个或多个实施例,本公开提供的文本翻译装置中,所述翻 译文本获取模块,包括:Seq2Seq模型翻译单元,用于通过所述文本翻译模型 中的编码器提取所述源文本中的源文本元素,并进行编码,形成所述源文本的 特征向量;其中,所述文本翻译模型为Seq2Seq模型;通过所述文本翻译模型 中的解码器根据所述特征向量和所述目标语言,将所述特征向量映射为目标语 言的文本序列,作为翻译文本。
根据本公开的一个或多个实施例,本公开提供的文本翻译装置中,所述 Seq2Seq模型翻译单元,包括:编码子单元,用于通过所述编码器对所述源文 本进行切分,形成至少一个源文本元素,所述源文本元素包括下述至少一项字、 词语和句;通过所述编码器根据各所述文本元素以及各所述文本元素的语序, 依次对初始向量进行变换,形成特征向量。
根据本公开的一个或多个实施例,本公开提供的文本翻译装置中,所述Seq2Seq模型翻译单元,包括:解码子单元,用于通过所述解码器对所述特征 向量进行解析,确定至少一个备选翻译文本元素;从至少一个备选翻译文本元 素中查询与所述目标语言匹配的目标翻译文本元素,并拼接形成目标语言的文 本序列。
根据本公开的一个或多个实施例,本公开提供的文本翻译装置中,所述文 本翻译装置,还包括:在将源文本输入到预先训练的文本翻译模型中之前,获 取样本对集合,其中,所述样本对集合中的各样本对包括一个目标源文本,以 及一个目标翻译文本,所述目标翻译文本标注有语言信息;根据样本对集合对 初始模型进行训练,形成文本翻译模型,其中,所述样本对集合对应的语言数 量包括至少三个。
根据本公开的一个或多个实施例,本公开提供的文本翻译装置中,所述样 本对中目标源文本对应的待翻译语言数量包括至少两个,所述目标源文本对应 的至少一个待翻译语言与所述目标翻译文本的语言不同。
根据本公开的一个或多个实施例,本公开提供的文本翻译装置中,所述编 码器和所述解码器包括神经网络模型。
根据本公开的一个或多个实施例,本公开提供了一种电子设备,包括:存 储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在 于,所述处理器执行所述程序时实现如本公开实施例中任一所述的文本翻译方 法。
根据本公开的一个或多个实施例,本公开提供了一种计算机可读存储介质, 其上存储有计算机程序,该程序被处理器执行时实现如本公开实施例中任一所 述的文本翻译方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域 技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特 定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上 述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征 与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成 的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操 作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并 行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节, 但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中 描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的 上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多 个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但 是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或 动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (10)

1.一种文本翻译方法,其特征在于,包括:
获取待翻译语言对应的源文本;
获取指定的目标语言;
将所述源文本和与所述目标语言匹配的指示信息输入到预先训练的文本翻译模型中,所述文本翻译模型用于将第一语言集合中的语言翻译成第二语言集合中的语言,所述第一语言集合包括多个语言,所述第一语言集合包括所述待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括所述目标语言;
获取所述文本翻译模型输出的与所述目标语言对应的翻译文本,其中,所述待翻译语言与所述目标语言不同。
2.根据权利要求1所述的方法,其特征在于,所述获取所述文本翻译模型输出的与所述目标语言对应的翻译文本,包括:
通过所述文本翻译模型中的编码器提取所述源文本中的源文本元素,并进行编码,形成所述源文本的特征向量;其中,所述文本翻译模型为Seq2Seq模型;
通过所述文本翻译模型中的解码器根据所述特征向量和所述目标语言,将所述特征向量映射为目标语言的文本序列,作为翻译文本。
3.根据权利要求2所述的方法,其特征在于,所述通过所述文本翻译模型中的编码器提取所述源文本中的源文本元素,并进行编码,形成所述源文本的特征向量,包括:
通过所述编码器对所述源文本进行切分,形成至少一个源文本元素,所述源文本元素包括下述至少一项字、词语和句;
通过所述编码器根据各所述文本元素以及各所述文本元素的语序,依次对初始向量进行变换,形成特征向量。
4.根据权利要求2所述的方法,其特征在于,所述通过所述文本翻译模型中的解码器根据所述特征向量和所述目标语言,将所述特征向量映射为目标语言的文本序列,包括:
通过所述解码器对所述特征向量进行解析,确定至少一个备选翻译文本元素;
从至少一个备选翻译文本元素中查询与所述目标语言匹配的目标翻译文本元素,并拼接形成目标语言的文本序列。
5.根据权利要求1所述的方法,其特征在于,所述文本翻译模型是通过下述方式获得的:
获取样本对集合,其中,所述样本对集合中的各样本对包括一个目标源文本,以及一个目标翻译文本,所述目标翻译文本标注有语言信息;
根据所述样本对集合对初始模型进行训练,形成文本翻译模型,其中,所述样本对集合对应的语言数量包括至少三个。
6.根据权利要求5所述的方法,其特征在于,所述样本对中目标源文本对应的待翻译语言的数量包括至少两个,所述目标源文本对应的至少一个待翻译语言与所述目标翻译文本的语言不同。
7.根据权利要求1所述的方法,其特征在于,所述编码器和所述解码器包括神经网络模型。
8.一种文本翻译装置,其特征在于,包括:
源文本获取模块,用于获取待翻译语言对应的源文本;
目标语言指定模块,用于获取指定的目标语言;
语言翻译模块,用于将所述源文本和与所述目标语言匹配的指示信息输入到预先训练的文本翻译模型中,所述文本翻译模型用于将第一语言集合中的语言翻译成第二语言集合中的语言,所述第一语言集合包括多个语言,所述第一语言集合包括待翻译语言,所述第二语言集合包括多个语言,所述第二语言集合包括目标语言;
翻译文本获取模块,用于获取所述文本翻译模型输出的与所述目标语言对应的翻译文本,其中,所述待翻译语言与所述目标语言不同。
9.一种电子设备,包括:
处理器;以及
存储器,所述存储器存储有计算机可执行指令,所述指令在被所述处理器执行时使得所述电子设备实现如权利要求1-7中任一所述的文本翻译方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的文本翻译方法。
CN202010129585.2A 2020-02-28 2020-02-28 文本翻译方法、装置、电子设备及存储介质 Pending CN111368560A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010129585.2A CN111368560A (zh) 2020-02-28 2020-02-28 文本翻译方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010129585.2A CN111368560A (zh) 2020-02-28 2020-02-28 文本翻译方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN111368560A true CN111368560A (zh) 2020-07-03

Family

ID=71210990

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010129585.2A Pending CN111368560A (zh) 2020-02-28 2020-02-28 文本翻译方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111368560A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257462A (zh) * 2020-11-03 2021-01-22 沈阳雅译网络技术有限公司 一种基于神经机器翻译技术的超文本标记语言翻译方法
CN112330274A (zh) * 2020-10-30 2021-02-05 中欧卡航(江苏)物流服务有限公司 跨境转关信息管理方法、系统、计算机设备及存储介质
CN112686059A (zh) * 2020-12-29 2021-04-20 科大讯飞股份有限公司 文本翻译方法、装置、电子设备和存储介质
CN113158695A (zh) * 2021-05-06 2021-07-23 上海极链网络科技有限公司 一种面向多语言混合文本的语义审核方法与系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101494621A (zh) * 2009-03-16 2009-07-29 西安六度科技有限公司 一种多语言即时通讯终端翻译系统和翻译方法
CN106383818A (zh) * 2015-07-30 2017-02-08 阿里巴巴集团控股有限公司 一种机器翻译方法及装置
CN107391500A (zh) * 2017-08-21 2017-11-24 阿里巴巴集团控股有限公司 文本翻译方法、装置及设备
CN109960813A (zh) * 2019-03-18 2019-07-02 维沃移动通信有限公司 一种翻译方法、移动终端及计算机可读存储介质
CN110147556A (zh) * 2019-04-22 2019-08-20 云知声(上海)智能科技有限公司 一种多向神经网络翻译系统的构建方法
CN110210043A (zh) * 2019-06-14 2019-09-06 科大讯飞股份有限公司 文本翻译方法、装置、电子设备及可读存储介质
CN110263351A (zh) * 2019-06-17 2019-09-20 深圳前海微众银行股份有限公司 一种网页的多语言翻译方法、装置及设备
CN110532573A (zh) * 2018-12-29 2019-12-03 苏州七星天专利运营管理有限责任公司 一种翻译方法和系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101494621A (zh) * 2009-03-16 2009-07-29 西安六度科技有限公司 一种多语言即时通讯终端翻译系统和翻译方法
CN106383818A (zh) * 2015-07-30 2017-02-08 阿里巴巴集团控股有限公司 一种机器翻译方法及装置
CN107391500A (zh) * 2017-08-21 2017-11-24 阿里巴巴集团控股有限公司 文本翻译方法、装置及设备
CN110532573A (zh) * 2018-12-29 2019-12-03 苏州七星天专利运营管理有限责任公司 一种翻译方法和系统
CN109960813A (zh) * 2019-03-18 2019-07-02 维沃移动通信有限公司 一种翻译方法、移动终端及计算机可读存储介质
CN110147556A (zh) * 2019-04-22 2019-08-20 云知声(上海)智能科技有限公司 一种多向神经网络翻译系统的构建方法
CN110210043A (zh) * 2019-06-14 2019-09-06 科大讯飞股份有限公司 文本翻译方法、装置、电子设备及可读存储介质
CN110263351A (zh) * 2019-06-17 2019-09-20 深圳前海微众银行股份有限公司 一种网页的多语言翻译方法、装置及设备

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112330274A (zh) * 2020-10-30 2021-02-05 中欧卡航(江苏)物流服务有限公司 跨境转关信息管理方法、系统、计算机设备及存储介质
CN112257462A (zh) * 2020-11-03 2021-01-22 沈阳雅译网络技术有限公司 一种基于神经机器翻译技术的超文本标记语言翻译方法
CN112686059A (zh) * 2020-12-29 2021-04-20 科大讯飞股份有限公司 文本翻译方法、装置、电子设备和存储介质
CN112686059B (zh) * 2020-12-29 2024-04-16 中国科学技术大学 文本翻译方法、装置、电子设备和存储介质
CN113158695A (zh) * 2021-05-06 2021-07-23 上海极链网络科技有限公司 一种面向多语言混合文本的语义审核方法与系统

Similar Documents

Publication Publication Date Title
KR102401942B1 (ko) 번역품질 평가 방법 및 장치
CN111368559A (zh) 语音翻译方法、装置、电子设备及存储介质
CN112966712B (zh) 语言模型训练方法、装置、电子设备和计算机可读介质
CN111382261B (zh) 摘要生成方法、装置、电子设备及存储介质
CN111368560A (zh) 文本翻译方法、装置、电子设备及存储介质
CN111046677B (zh) 一种翻译模型的获取方法、装置、设备和存储介质
CN111008533B (zh) 一种翻译模型的获取方法、装置、设备和存储介质
CN113470619B (zh) 语音识别方法、装置、介质及设备
CN111563390B (zh) 文本生成方法、装置和电子设备
CN112883968B (zh) 图像字符识别方法、装置、介质及电子设备
CN112883967B (zh) 图像字符识别方法、装置、介质及电子设备
CN113139391A (zh) 翻译模型的训练方法、装置、设备和存储介质
CN111400454A (zh) 摘要生成方法、装置、电子设备及存储介质
CN112380876A (zh) 基于多语言机器翻译模型的翻译方法、装置、设备和介质
CN111681661B (zh) 语音识别的方法、装置、电子设备和计算机可读介质
CN111339789B (zh) 一种翻译模型训练方法、装置、电子设备及存储介质
CN112364653A (zh) 用于语音合成的文本分析方法、装置、服务器和介质
CN114970470B (zh) 文案信息处理方法、装置、电子设备和计算机可读介质
WO2022121859A1 (zh) 口语信息处理方法、装置和电子设备
CN114495112A (zh) 图像中文本的处理方法、装置、可读介质和电子设备
CN115292487A (zh) 基于朴素贝叶斯的文本分类方法、装置、设备和介质
CN114429629A (zh) 图像处理方法、装置、可读存储介质及电子设备
CN115967833A (zh) 视频生成方法、装置、设备计存储介质
CN114765025A (zh) 语音识别模型的生成方法、识别方法、装置、介质及设备
CN111737572B (zh) 搜索语句生成方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination