CN111832322A - 语句翻译方法、装置、电子设备和存储介质 - Google Patents
语句翻译方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN111832322A CN111832322A CN202010622075.9A CN202010622075A CN111832322A CN 111832322 A CN111832322 A CN 111832322A CN 202010622075 A CN202010622075 A CN 202010622075A CN 111832322 A CN111832322 A CN 111832322A
- Authority
- CN
- China
- Prior art keywords
- character
- sentence
- vector
- training
- translated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本公开涉及一种语句翻译方法、装置、电子设备和存储介质,该方法包括:获取待翻译语句中的多个词语,对待翻译语句进行拆分处理,得到待翻译语句中的多个字符,根据待翻译语句中的多个词语,确定待翻译语句中的每个字符对应的关联信息,将待翻译语句中的每个字符和每个字符对应的关联信息输入翻译模型,得到翻译后的目标语句。本公开通过将待翻译语句拆分为多个字符,能够降低无明显词语边界标志的源语言分词错误或分词不一致对翻译质量的影响,同时减小了翻译模型的源语言词表以及翻译模型所占用的存储空间,并通过结合字符对应的关联信息,降低了由于将待翻译语句拆分成多个字符,导致字符丢失部分语义信息对翻译质量的影响,保证了翻译质量。
Description
技术领域
本公开涉及神经机器翻译技术领域,尤其涉及一种语句翻译方法、装置、电子设备和存储介质。
背景技术
随着计算机技术的迅速发展,对语句翻译的准确度的要求也越来越高。为了提高语句翻译的翻译质量,在相关技术中,主要是通过预先对待翻译语句进行分词处理,并将分词处理后得到的词语输入预先训练的翻译模型,得到翻译后的语句。在对待翻译语句进行分词处理的过程中,若发生分词错误或分词不一致,会影响翻译模型的翻译质量。并且,在构建翻译模型时,会首先根据训练语料中的词语来形成翻译模型的源语言词表,以便翻译模型通过源语言词表,对待翻译语句进行翻译,而由词语形成的源语言词表的数据量较大,这会导致翻译模型的模型参数较多,使翻译模型占用较大的存储空间。
发明内容
为克服相关技术中存在的问题,本公开提供一种语句翻译方法、装置、电子设备和存储介质。
根据本公开实施例的第一方面,提供一种语句翻译方法,所述方法包括:
获取待翻译语句中的多个词语;
对所述待翻译语句进行拆分处理,得到所述待翻译语句中的多个字符;
根据所述待翻译语句中的多个词语,确定所述待翻译语句中的每个字符对应的关联信息,所述关联信息用于指示该字符与该字符所在的词语之间的关联关系;
将所述待翻译语句中的每个字符、以及每个所述字符对应的关联信息输入预先训练的翻译模型,得到翻译后的目标语句。
可选地,所述关联信息包括字符标签,所述字符标签用于指示该字符在该字符所在的词语中的位置,所述将所述待翻译语句中的每个字符、以及每个所述字符对应的关联信息输入预先训练的翻译模型,得到翻译后的目标语句包括:
针对所述待翻译语句中的每个字符,获取该字符的字符向量,以及该字符对应的字符标签的标签向量,将该字符的字符向量与该字符的标签向量进行按位与操作,得到该字符对应的字符特征向量;
将得到的每个所述字符对应的字符特征向量作为所述翻译模型的输入,得到翻译后的目标语句。
可选地,所述翻译模型包括编码器和解码器,所述将得到的每个所述字符对应的字符特征向量作为所述翻译模型的输入,得到翻译后的目标语句包括:
将每个所述字符对应的字符特征向量输入所述编码器,得到所述编码器输出的目标编码向量;
将所述目标编码向量输入所述解码器,得到所述解码器输出的所述目标语句。
可选地,所述编码器为N个,所述解码器为M个,N和M为均大于或等于2的正整数,所述将所述字符对应的字符特征向量输入所述编码器,得到所述编码器输出的目标编码向量包括:
将第n-1个所述编码器的输出作为第n个所述编码器的输入,以得到第n个所述编码器输出的编码向量,1<n≤N,且n为正整数,第1个所述编码器的输入为所述字符对应的字符特征向量;
将第N个所述编码器的输出的所述编码向量,作为所述目标编码向量;
所述将所述目标编码向量输入所述解码器,得到所述解码器输出的所述目标语句包括:
将第m-1个所述解码器的输出作为第m个所述解码器的输入,以得到第m个所述解码器输出的解码语句,1<m≤M,且m为正整数,第1个所述解码器的输入为所述目标编码向量;
将第M个所述解码器的输出的所述解码语句,作为所述目标语句。
可选地,所述翻译模型是通过以下方式训练的:
获取样本训练集,所述样本训练集包括训练语句,以及所述训练语句对应的翻译语句;所述训练语句包括多个第一字符,以及每个所述第一字符对应的字符标签,所述翻译语句包括多个第二字符,以及每个所述第二字符对应的字符标签;
根据所述样本训练集对预设训练模型进行训练,得到所述翻译模型。
可选地,所述预设训练模型包括训练编码器和训练解码器,所述根据所述样本训练集,对预设训练模型进行训练,得到所述翻译模型包括:
针对所述训练语句中的每个第一字符,获取该第一字符的字符向量,以及该第一字符对应的字符标签的标签向量,将该第一字符的字符向量与该第一字符的标签向量进行按位与操作,得到该第一字符的对应的字符特征向量;
针对所述训练语句中的每个第二字符,获取该第二字符的字符向量,以及该第二字符对应的字符标签的标签向量,将该第二字符的字符向量与该第二字符的标签向量进行按位与操作,得到该第二字符对应的字符特征向量;
将得到的每个所述第一字符对应的字符特征向量作为所述训练编码器的输入,得到训练编码向量;
将得到的每个所述第二字符对应的字符特征向量,以及所述训练编码向量作为所述训练解码器的输入,利用预设的损失函数,对所述预设训练模型进行训练,并在所述损失函数达到最小值时,得到所述翻译模型。
可选地,所述损失函数为负对数似然函数。
根据本公开实施例的第二方面,提供一种语句翻译装置,所述装置包括:
获取模块,被配置为获取待翻译语句中的多个词语;
确定模块,被配置为对所述待翻译语句进行拆分处理,得到所述待翻译语句中的多个字符,并根据所述待翻译语句中的多个词语,确定所述待翻译语句中的每个字符对应的关联信息,所述关联信息用于指示该字符与该字符所在的词语之间的关联关系;
翻译模块,被配置为将所述待翻译语句中的每个字符、以及每个所述字符对应的关联信息输入预先训练的翻译模型,得到翻译后的目标语句。
可选地,所述关联信息包括字符标签,所述字符标签用于指示该字符在该字符所在的词语中的位置,翻译模块包括:
处理子模块,被配置为针对所述待翻译语句中的每个字符,获取该字符的字符向量,以及该字符对应的字符标签的标签向量,将该字符的字符向量与该字符的标签向量进行按位与操作,得到该字符对应的字符特征向量;
翻译子模块,被配置为将得到的每个所述字符对应的字符特征向量作为所述翻译模型的输入,得到翻译后的目标语句。
可选地,所述翻译模型包括编码器和解码器,所述翻译子模块被配置为:
将每个所述字符对应的字符特征向量输入所述编码器,得到所述编码器输出的目标编码向量;
将所述目标编码向量输入所述解码器,得到所述解码器输出的所述目标语句。
可选地,所述编码器为N个,所述解码器为M个,N和M均为大于或等于2的正整数,所述翻译子模块被配置为:
将第n-1个所述编码器的输出作为第n个所述编码器的输入,以得到第n个所述编码器输出的编码向量,1<n≤N,且n为正整数,第1个所述编码器的输入为所述字符对应的字符特征向量;
将第N个所述编码器的输出的所述编码向量,作为所述目标编码向量;
将第m-1个所述解码器的输出作为第m个所述解码器的输入,以得到第m个所述解码器输出的解码语句,1<m≤M,且m为正整数,第1个所述解码器的输入为所述目标编码向量;
将第M个所述解码器的输出的所述解码语句,作为所述目标语句。
可选地,所述翻译模型是通过以下方式训练的:
获取样本训练集,所述样本训练集包括训练语句,以及所述训练语句对应的翻译语句;所述训练语句包括多个第一字符,以及每个所述第一字符对应的字符标签,所述翻译语句包括多个第二字符,以及每个所述第二字符对应的字符标签;
根据所述样本训练集对预设训练模型进行训练,得到所述翻译模型。
可选地,所述预设训练模型包括训练编码器和训练解码器,所述根据所述样本训练集,对预设训练模型进行训练,得到所述翻译模型包括:
针对所述训练语句中的每个第一字符,获取该第一字符的字符向量,以及该第一字符对应的字符标签的标签向量,将该第一字符的字符向量与该第一字符的标签向量进行按位与操作,得到该第一字符的对应的字符特征向量;
针对所述训练语句中的每个第二字符,获取该第二字符的字符向量,以及该第二字符对应的字符标签的标签向量,将该第二字符的字符向量与该第二字符的标签向量进行按位与操作,得到该第二字符对应的字符特征向量;
将得到的每个所述第一字符对应的字符特征向量作为所述训练编码器的输入,得到训练编码向量;
将得到的每个所述第二字符对应的字符特征向量,以及所述训练编码向量作为所述训练解码器的输入,利用预设的损失函数,对所述预设训练模型进行训练,并在所述损失函数达到最小值时,得到所述翻译模型。
可选地,所述损失函数为负对数似然函数。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行本公开第一方面所提供的语句翻译方法的步骤。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的语句翻译方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:本公开首先通过获取待翻译语句中的多个词语,并对待翻译语句进行拆分处理,得到待翻译语句中的多个字符,之后根据待翻译语句中的多个词语,确定待翻译语句中的每个字符对应的关联信息,其中,关联信息用于指示该字符与该字符所在的词语之间的关联关系,最后将待翻译语句中的每个字符、以及每个字符对应的关联信息输入预先训练的翻译模型,得到翻译后的目标语句。本公开通过将待翻译语句拆分为多个字符,以降低翻译模型对无明显词语边界标志的源语言的分词处理的依赖,能够降低分词错误或分词不一致对翻译质量的影响,同时,由于源语言中字符的数量远小于词语的数量,减小了翻译模型的源语言词表的数据量,进而减小了翻译模型所占用的存储空间,并且,通过结合每个字符对应的关联信息,来进行语句翻译,降低了由于将待翻译语句拆分成多个字符,导致字符丢失部分语义信息对翻译质量的影响,保证了翻译质量。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种语句翻译方法的流程图。
图2是图1所示实施例示出的一种步骤104的流程图。
图3是图1所示实施例示出的一种翻译模型的示意图。
图4是根据一示例性实施例示出的一种训练翻译模型的流程图。
图5是图4所示实施例示出的一种步骤202的流程图。
图6是根据一示例性实施例示出的一种语句翻译装置的框图。
图7是图6所示实施例示出的一种翻译模块的框图。
图8是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在介绍本公开提供的语句翻译方法、装置、电子设备和存储介质之前,首先对本公开各个实施例所涉及应用场景进行介绍。该应用场景可以是语句翻译场景。在语句翻译场景下,当对待翻译语句进行语句翻译时,需要通过翻译模型,来进行语句翻译。
相关技术中,当待翻译语句中的词语无明显的词语边界标志时(例如,中文语句中没有明确的区分词语的词语边界标志),需要预先对待翻译语句进行分词处理,再通过翻译模型翻译成其他语言。在对待翻译语句进行分词处理的过程中,若发生分词错误或分词不一致,会影响翻译模型的翻译质量。例如,当待翻译语句为中文语句时,需要先对待翻译的中文语句进行中文分词处理,再通过翻译模型翻译成其他语言。而中文分词处理一般是由语言学专家制定的标准,可能会存在不同的切分标准,容易导致中文分词产生分词错误或分词不一致,影响翻译质量。并且,在构建翻译模型时,会首先根据训练语料中的词语来形成翻译模型的源语言词表,以便翻译模型通过源语言词表,对待翻译语句进行翻译,而由词语形成的源语言词表的数据量较大,这会导致模型参数较多,使翻译模型占用较大的存储空间。当对翻译模型的存储大小有限制时,通常需要减小翻译模型的源语言词表,以减小模型参数,从而减小翻译模型所占用的存储空间。但是,减小源语言词表会进一步影响翻译模型的翻译质量。
为了解决现有技术中存在的问题,本公开通过将待翻译语句拆分为多个字符,以降低翻译模型对无明显词语边界标志的源语言的分词处理的依赖,能够降低分词错误或分词不一致对翻译质量的影响,同时,由于源语言中字符的数量远小于词语的数量,减小了翻译模型的源语言词表的数据量,进而减小了翻译模型所占用的存储空间,并且,通过结合每个字符对应的关联信息,来进行语句翻译,降低了由于将待翻译语句拆分成多个字符,导致字符丢失部分语义信息对翻译质量的影响,保证了翻译质量。
图1是根据一示例性实施例示出的一种语句翻译方法的流程图。如图1所示,该方法可以包括以下步骤:
在步骤101中,获取待翻译语句中的多个词语。
举例来说,在将待翻译语句由源语言(英文:source language)翻译为目标语言(英文:target language)时,首先需要对待翻译语句进行词语识别处理,以确定待翻译语句包含的多个词语。例如,当待翻译语句为中文语句时,可以通过预设的中文分词算法,来对待翻译语句进行分词处理,以获取待翻译语句包含的多个词语。其中,预设的分词算法例如可以是CRF算法(英文:Conditional random field algorithm,中文:条件随机场算法)。
在步骤102中,对待翻译语句进行拆分处理,得到待翻译语句中的多个字符。
在本步骤中,为了降低翻译模型对无明显词语边界标志的源语言(例如,中文)的分词处理的依赖,可以对待翻译语句进行拆分处理,得到待翻译语句中的多个字符。可以理解为,将翻译模型的输入由原先的词语,拆分为更小的单元(即字符),来进行语句翻译,以降低对分词处理的依赖,从而降低分词错误或分词不一致对翻译模型的翻译质量的影响。其中,词语可以是中文词语、也可以是英文单词、还可以是其他任一种语言中的词语,字符为组成词语的最小单元,例如,当词语为中文词语时,字符可以是单独的字,当词语为英文单词时,字符可以是单独的字母。
并且,通过将待翻译语句拆分为多个字符,还能够减小翻译模型的源语言词表的数据量,从而减小了翻译模型的模型参数,以及翻译模型所占用的存储空间。例如,在翻译模型的源语言为中文的情况下,若采用中文词语作为翻译模型的输入,翻译模型的源语言词表一般需要包含30000-50000个不同的词语单元,而将中文词语进一步拆分为字(即以每个单独的字作为字符)后,翻译模型的源语言词表仅需要5000-10000个不同的字符单元,减小了翻译模型的源语言词表的数据量,从而压缩了翻译模型。
在步骤103中,根据待翻译语句中的多个词语,确定待翻译语句中的每个字符对应的关联信息,关联信息用于指示该字符与该字符所在的词语之间的关联关系。
示例的,由于词语本身可以为翻译模型提供高质量的语义信息,为了避免在将待翻译语句拆分成多个字符过程中,使字符丢失一部分的语义信息,从而影响翻译模型的翻译质量。在得到待翻译语句中的多个字符之后,可以根据待翻译语句中的多个词语,确定待翻译语句中的每个字符对应的关联信息。关联信息可以包括该字符在该字符所在的词语中的位置,该位置可以是相对位置,也可以是绝对位置,本公开对此不做具体限定。例如,当字符“天”所在的词语为“天气”时,可以将字符“天”对应的关联信息设置为:字符“天”为词语“天气”中的第一个字符。
在步骤104中,将待翻译语句中的每个字符、以及每个字符对应的关联信息输入预先训练的翻译模型,得到翻译后的目标语句。
在本步骤中,可以先根据待翻译语句中的每个字符,生成该字符对应的向量,并根据每个字符对应的关联信息,生成该关联信息对应的向量。再根据每个字符对应的向量,以及每个字符对应的关联信息的向量,确定每个字符对应的特征向量。之后将每个字符对应的特征向量,作为翻译模型的输入,得到翻译模型输出的翻译后的目标语句。其中,翻译模型可以是基于encoder-decoder结构的NMT(英文:神经机器翻译,中文:Neural MachineTranslation)模型。通过结合每个字符,以及每个字符对应的关联信息,来进行语句翻译,相当于在每个字符上融合了该字符对应的一部分的语义信息,通过结合每个字符对应的关联信息,来进行语句翻译,提高了翻译模型的翻译质量。
通过采用上述方案,通过将待翻译语句拆分为多个字符,以降低翻译模型对无明显词语边界标志的源语言的分词处理的依赖,能够降低分词错误或分词不一致对翻译质量的影响,同时,由于源语言中字符的数量远小于词语的数量,减小了翻译模型的源语言词表的数据量,进而减小了翻译模型所占用的存储空间,并且,通过结合每个字符对应的关联信息,来进行语句翻译,降低了由于将待翻译语句拆分成多个字符,导致字符丢失部分语义信息对翻译质量的影响,保证了翻译质量。
图2是图1所示实施例示出的一种步骤104的流程图。如图2所示,关联信息包括字符标签,字符标签用于指示该字符在该字符所在的词语中的位置,步骤104可以包括以下步骤:
在步骤1041中,针对待翻译语句中的每个字符,获取该字符的字符向量,以及该字符对应的字符标签的标签向量,将该字符的字符向量与该字符的标签向量进行按位与操作,得到该字符对应的字符特征向量。
举例来说,关联信息可以包括用于指示字符在该字符所在的词语中的位置的字符标签。例如,可以根据字符在字符所在的词语中的位置,将字符标签分为四种,分别用B、M、E、S四个字母来表示。其中,B表示字符为该字符所在的词语中的第一个字符,M表示字符为该字符所在的词语中的最后一个字符,E表示字符为该字符所在的词语中,除第一个字符和最后一个字符外的中间字符(此时,该字符所在的词语中至少包括3个以上的字符),S表示字符为该字符所在的词语中的唯一字符。进一步的,当待翻译语句中存在非源语言的字符时,可以用S表示字符为非源语言的字符。例如,在待翻译语句为中文语句的情况下,若待翻译语句中存在非中文的字符(例如,英文字母,数字,符号等),可以将非中文的字符对应的字符标签设置为S。
在确定待翻译语句中的每个字符对应的字符标签之后,可以将每个字符以及该字符对应的字符标签以字符串的形式表示,并将每个字符对应的字符串,作为一个输入单元(例如可以用token表示)。以待翻译语句为“我想要骑自行车”为例进行说明,待翻译语句中的每个字符对应的输入单元为:“我|S”、“想|B”、“要|E”、“骑|S”、“自|B”“行|M”、“车|E”,其中“|”表示每个输入单元由字符和该字符对应的字符标签组成。再将由每个字符对应的输入单元组成的输入序列,输入到预先设置的词向量表示层,由词向量表示层针对输入序列中每个输入单元中的字符,获取该字符的字符向量,以及该字符对应的字符标签的标签向量,其中,字符向量与标签向量的长度相同。之后将该字符的字符向量与该字符的标签向量进行按位与操作,得到该字符对应的字符特征向量。
在步骤1042中,将得到的每个字符对应的字符特征向量作为翻译模型的输入,得到翻译后的目标语句。
示例的,当翻译模型为基于encoder-decoder结构的NMT模型时,翻译模型可以包括编码器和解码器。在得到每个字符对应的字符特征向量后,可以将每个字符对应的字符特征向量输入编码器,得到编码器输出的目标编码向量,并将目标编码向量输入解码器,得到解码器输出的目标语句。
可选地,编码器为N个,解码器为M个,N和M均为大于或等于2的正整数,将每个字符对应的字符特征向量输入编码器,得到编码器输出的目标编码向量可以通过以下方式实现:
步骤A)将第n-1个编码器的输出作为第n个编码器的输入,以得到第n个编码器输出的编码向量,1<n≤N,且n为正整数,第1个编码器的输入为字符对应的字符特征向量。
步骤B)将第N个编码器的输出的编码向量,作为目标编码向量。
在一种场景中,如图3所示,当翻译模型为基于encoder-decoder结构的NMT模型时,编码器可以为N个(分别标记为编码器1-N),解码器可以为M个(分别标记为解码器1-M)。在得到每个字符对应的字符特征向量后,可以将每个字符对应的字符特征向量作为编码器1的输入,并将编码器1对每个字符对应的字符特征向量进行编码后输出的编码向量,作为编码器2的输入。之后将编码器2对编码器1输出的编码向量进行编码后输出的编码向量,作为编码器3的输入,以此类推,直到得到编码器N输出的编码向量,并将编码器N输出的编码向量作为目标编码向量。目标编码向量可以理解为,通过N个编码器对待翻译语句进行编码后,得到的待翻译语句经过编码后的语义向量。
将目标编码向量输入解码器,得到解码器输出的目标语句可以通过以下方式实现:
步骤C)将第m-1个解码器的输出作为第m个解码器的输入,以得到第m个解码器输出的解码语句,1<m≤M,且m为正整数,第1个解码器的输入为目标编码向量。
步骤D)将第M个解码器的输出的解码语句,作为目标语句。
示例的,在得到目标编码向量后,可以将目标编码向量作为解码器1的输入,并将解码器1对目标编码向量进行解码后输出的解码语句,作为解码器2的输入。之后将解码器2对解码器1输出的解码语句进行解码后输出的解码语句,作为解码器3的输入,以此类推,以使每个解码器都能够结合前一个解码器的输出来对目标语句进行预测,直到得到解码器M输出的解码语句,并将解码器M输出的解码语句作为目标语句。
图4是根据一示例性实施例示出的一种训练翻译模型的流程图。如图4所示,翻译模型可以通过以下方式训练:
在步骤201中,获取样本训练集,样本训练集包括训练语句,以及训练语句对应的翻译语句,训练语句包括多个第一字符,以及每个第一字符对应的字符标签,翻译语句包括多个第二字符,以及每个第二字符对应的字符标签。
举例来说,训练翻译模型的方式可以是:首先获取样本训练集,样本训练集可以包括:多个训练语句以及每个训练语句对应的翻译语句,其中,训练语句可以为已拆分为多个第一字符,且标注好每个第一字符对应的字符标签的语句,翻译语句可以为已拆分为多个第二字符,且标注好每个第二字符对应的字符标签的语句。其中,第一字符的语言类型为源语言,第二字符的语言类型为目标语言。例如,当训练语句为:“我|S想|B要|E睡|B觉|E”时,训练语句对应的翻译语句可以为:“I|S w|B a|M n|M t|E t|B o|E s|B l|M e|M e|M p|E”。
需要说明的是,翻译语句还可以为已拆分为多个词语的语句(即翻译语句可以包括多个词语),本公开对此不作具体限制。例如,当训练语句为:“我|S想|B要|E睡|B觉|E”时,训练语句对应的翻译语句可以为:“I want to sleep”。
在步骤202中,根据样本训练集对预设训练模型进行训练,得到翻译模型。
示例的,在获取到样本训练集之后,可以利用每一组语句(由一个训练语句与该训练语句对应的翻译语句组成),依次对预设训练模型进行训练,得到翻译模型。
图5是图4所示实施例示出的一种步骤202的流程图。如图5所示,预设训练模型包括训练编码器和训练解码器,步骤202可以包括以下步骤:
在步骤2021中,针对训练语句中的每个第一字符,获取该第一字符的字符向量,以及该第一字符对应的字符标签的标签向量,将该第一字符的字符向量与该第一字符的标签向量进行按位与操作,得到该第一字符的对应的字符特征向量。
举例来说,根据样本训练集对预设训练模型进行训练的方式可以是:首先可以将每个第一字符以及该第一字符对应的字符标签以字符串的形式表示,并将每个第一字符对应的字符串,作为一个输入单元。再将由每个第一字符对应的输入单元组成的第一输入序列,输入到预先设置的词向量表示层,由词向量表示层针对第一输入序列中每个输入单元中的第一字符,获取该第一字符的字符向量,以及该第一字符对应的字符标签的标签向量。之后将该第一字符的字符向量与该第一字符的标签向量进行按位与操作,得到该第一字符对应的字符特征向量。
在步骤2022中,针对训练语句中的每个第二字符,获取该第二字符的字符向量,以及该第二字符对应的字符标签的标签向量,将该第二字符的字符向量与该第二字符的标签向量进行按位与操作,得到该第二字符对应的字符特征向量。
在本步骤中,可以将每个第二字符以及该第二字符对应的字符标签以字符串的形式表示,并将每个第二字符对应的字符串,作为一个输入单元。再将由每个第二字符对应的输入单元组成的第二输入序列,输入到预先设置的词向量表示层,由词向量表示层针对第二输入序列中每个输入单元中的第二字符,获取该第二字符的字符向量,以及该第二字符对应的字符标签的标签向量。之后将该第二字符的字符向量与该第二字符的标签向量进行按位与操作,得到该第二字符对应的字符特征向量。
在步骤2023中,将得到的每个第一字符对应的字符特征向量作为训练编码器的输入,得到训练编码向量。
示例的,当预设训练模型为基于encoder-decoder结构的NMT模型时,预设训练模型可以包括N个训练编码器(分别标记为训练编码器1-N)和M个训练解码器(分别标记为训练解码器1-M)。在得到每个第一字符对应的字符特征向量后,可以将每个第一字符对应的字符特征向量作为训练编码器1的输入,并将训练编码器1对每个第一字符对应的字符特征向量进行编码后输出的编码向量,作为训练编码器2的输入。之后将训练编码器2对训练编码器1输出的编码向量进行编码后输出的编码向量,作为训练编码器3的输入,以此类推,直到得到训练编码器N输出的编码向量,并将训练编码器N输出的编码向量作为训练编码向量。
在步骤2024中,将得到的每个第二字符对应的字符特征向量,以及训练编码向量作为训练解码器的输入,利用预设的损失函数,对预设训练模型进行训练,并在损失函数达到最小值时,得到翻译模型。
具体的,在得到训练编码向量后,可以将得到的每个第二字符对应的字符特征向量,以及训练编码向量作为训练解码器1的输入,以使训练解码器1能够根据训练编码向量,以及每个第二字符对应的字符特征向量,来对训练解码器1进行调整(例如,可以调整训练解码器1对应的权重矩阵),并输出解码语句。再将训练解码器1输出的解码语句,作为训练解码器2的输入,以使训练解码器2能够根据训练解码器1输出的解码语句,以及每个第二字符对应的字符特征向量,来对训练解码器2进行调整,并输出解码语句。之后将训练解码器2输出的解码语句,作为训练解码器3的输入,以此类推,来对预设训练模型进行训练,以使每个训练解码器都能够结合前一个训练解码器的输出以及每个第二字符对应的字符特征向量对目标语句进行预测。同时,还可以利用预设的损失函数作为优化目标,对预设训练模型进行优化,并在损失函数达到最小值时,得到翻译模型。其中,损失函数可以为负对数似然函数(英文:negative log-likelihood)。
综上所述,本公开通过将待翻译语句拆分为多个字符,以降低翻译模型对无明显词语边界标志的源语言的分词处理的依赖,能够降低分词错误或分词不一致对翻译质量的影响,同时,由于源语言中字符的数量远小于词语的数量,减小了翻译模型的源语言词表的数据量,进而减小了翻译模型所占用的存储空间,并且,通过结合每个字符对应的关联信息,来进行语句翻译,降低了由于将待翻译语句拆分成多个字符,导致字符丢失部分语义信息对翻译质量的影响,保证了翻译质量。
图6是根据一示例性实施例示出的一种语句翻译装置的框图。如图6所示,该装置300包括:获取模块301,确定模块302和翻译模块303。
获取模块301,被配置为获取待翻译语句中的多个词语。
确定模块302,被配置为对待翻译语句进行拆分处理,得到待翻译语句中的多个字符,并根据待翻译语句中的多个词语,确定待翻译语句中的每个字符对应的关联信息,关联信息用于指示该字符与该字符所在的词语之间的关联关系。
翻译模块303,被配置为将待翻译语句中的每个字符、以及每个字符对应的关联信息输入预先训练的翻译模型,得到翻译后的目标语句。
图7是图6所示实施例示出的一种翻译模块的框图。如图7所示,关联信息包括字符标签,字符标签用于指示该字符在该字符所在的词语中的位置,翻译模块303包括:处理子模块3031和翻译子模块3032。
处理子模块3031,被配置为针对待翻译语句中的每个字符,获取该字符的字符向量,以及该字符对应的字符标签的标签向量,将该字符的字符向量与该字符的标签向量进行按位与操作,得到该字符对应的字符特征向量。
翻译子模块3032,被配置为将得到的每个字符对应的字符特征向量作为翻译模型的输入,得到翻译后的目标语句。
可选地,翻译模型包括编码器和解码器,翻译子模块3032被配置为:
将每个字符对应的字符特征向量输入编码器,得到编码器输出的目标编码向量。
将目标编码向量输入解码器,得到解码器输出的目标语句。
可选地,编码器为N个,解码器为M个,N和M均为大于或等于2的正整数,翻译子模块3032被配置为:
将第n-1个编码器的输出作为第n个编码器的输入,以得到第n个编码器输出的编码向量,1<n≤N,且n为正整数,第1个编码器的输入为字符对应的字符特征向量。
将第N个编码器的输出的编码向量,作为目标编码向量。
将第m-1个解码器的输出作为第m个解码器的输入,以得到第m个解码器输出的解码语句,1<m≤M,且m为正整数,第1个解码器的输入为目标编码向量。
将第M个解码器的输出的解码语句,作为目标语句。
可选地,翻译模型是通过以下方式训练的:
获取样本训练集,样本训练集包括训练语句,以及训练语句对应的翻译语句,训练语句包括多个第一字符,以及每个第一字符对应的字符标签,翻译语句包括多个第二字符,以及每个第二字符对应的字符标签。
根据样本训练集对预设训练模型进行训练,得到翻译模型。
可选地,预设训练模型包括训练编码器和训练解码器,根据样本训练集,对预设训练模型进行训练,得到翻译模型包括:
针对训练语句中的每个第一字符,获取该第一字符的字符向量,以及该第一字符对应的字符标签的标签向量,将该第一字符的字符向量与该第一字符的标签向量进行按位与操作,得到该第一字符的对应的字符特征向量。
针对训练语句中的每个第二字符,获取该第二字符的字符向量,以及该第二字符对应的字符标签的标签向量,将该第二字符的字符向量与该第二字符的标签向量进行按位与操作,得到该第二字符对应的字符特征向量。
将得到的每个第一字符对应的字符特征向量作为训练编码器的输入,得到训练编码向量。
将得到的每个第二字符对应的字符特征向量,以及训练编码向量作为训练解码器的输入,利用预设的损失函数,对预设训练模型进行训练,并在损失函数达到最小值时,得到翻译模型。
可选地,损失函数为负对数似然函数。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
综上所述,本公开通过将待翻译语句拆分为多个字符,以降低翻译模型对无明显词语边界标志的源语言的分词处理的依赖,能够降低分词错误或分词不一致对翻译质量的影响,同时,由于源语言中字符的数量远小于词语的数量,减小了翻译模型的源语言词表的数据量,进而减小了翻译模型所占用的存储空间,并且,通过结合每个字符对应的关联信息,来进行语句翻译,降低了由于将待翻译语句拆分成多个字符,导致字符丢失部分语义信息对翻译质量的影响,保证了翻译质量。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的语句翻译方法的步骤。
综上所述,本公开通过将待翻译语句拆分为多个字符,以降低翻译模型对无明显词语边界标志的源语言的分词处理的依赖,能够降低分词错误或分词不一致对翻译质量的影响,同时,由于源语言中字符的数量远小于词语的数量,减小了翻译模型的源语言词表的数据量,进而减小了翻译模型所占用的存储空间,并且,通过结合每个字符对应的关联信息,来进行语句翻译,降低了由于将待翻译语句拆分成多个字符,导致字符丢失部分语义信息对翻译质量的影响,保证了翻译质量。
图8是根据一示例性实施例示出的一种电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图8,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电力组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的语句翻译方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为电子设备800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的语句翻译方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由电子设备800的处理器820执行以完成上述的语句翻译方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的语句翻译方法的代码部分。
综上所述,本公开通过将待翻译语句拆分为多个字符,以降低翻译模型对无明显词语边界标志的源语言的分词处理的依赖,能够降低分词错误或分词不一致对翻译质量的影响,同时,由于源语言中字符的数量远小于词语的数量,减小了翻译模型的源语言词表的数据量,进而减小了翻译模型所占用的存储空间,并且,通过结合每个字符对应的关联信息,来进行语句翻译,降低了由于将待翻译语句拆分成多个字符,导致字符丢失部分语义信息对翻译质量的影响,保证了翻译质量。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (16)
1.一种语句翻译方法,其特征在于,所述方法包括:
获取待翻译语句中的多个词语;
对所述待翻译语句进行拆分处理,得到所述待翻译语句中的多个字符;
根据所述待翻译语句中的多个词语,确定所述待翻译语句中的每个字符对应的关联信息,所述关联信息用于指示该字符与该字符所在的词语之间的关联关系;
将所述待翻译语句中的每个字符、以及每个所述字符对应的关联信息输入预先训练的翻译模型,得到翻译后的目标语句。
2.根据权利要求1所述的方法,其特征在于,所述关联信息包括字符标签,所述字符标签用于指示该字符在该字符所在的词语中的位置,所述将所述待翻译语句中的每个字符、以及每个所述字符对应的关联信息输入预先训练的翻译模型,得到翻译后的目标语句包括:
针对所述待翻译语句中的每个字符,获取该字符的字符向量,以及该字符对应的字符标签的标签向量,将该字符的字符向量与该字符的标签向量进行按位与操作,得到该字符对应的字符特征向量;
将得到的每个所述字符对应的字符特征向量作为所述翻译模型的输入,得到翻译后的目标语句。
3.根据权利要求2所述的方法,其特征在于,所述翻译模型包括编码器和解码器,所述将得到的每个所述字符对应的字符特征向量作为所述翻译模型的输入,得到翻译后的目标语句包括:
将每个所述字符对应的字符特征向量输入所述编码器,得到所述编码器输出的目标编码向量;
将所述目标编码向量输入所述解码器,得到所述解码器输出的所述目标语句。
4.根据权利要求3所述的方法,其特征在于,所述编码器为N个,所述解码器为M个,N和M均为大于或等于2的正整数,所述将所述字符对应的字符特征向量输入所述编码器,得到所述编码器输出的目标编码向量包括:
将第n-1个所述编码器的输出作为第n个所述编码器的输入,以得到第n个所述编码器输出的编码向量,1<n≤N,且n为正整数,第1个所述编码器的输入为所述字符对应的字符特征向量;
将第N个所述编码器的输出的所述编码向量,作为所述目标编码向量;
所述将所述目标编码向量输入所述解码器,得到所述解码器输出的所述目标语句包括:
将第m-1个所述解码器的输出作为第m个所述解码器的输入,以得到第m个所述解码器输出的解码语句,1<m≤M,且m为正整数,第1个所述解码器的输入为所述目标编码向量;
将第M个所述解码器的输出的所述解码语句,作为所述目标语句。
5.根据权利要求1-4中任一项所述的方法,其特征在于,所述翻译模型是通过以下方式训练的:
获取样本训练集,所述样本训练集包括训练语句,以及所述训练语句对应的翻译语句;所述训练语句包括多个第一字符,以及每个所述第一字符对应的字符标签,所述翻译语句包括多个第二字符,以及每个所述第二字符对应的字符标签;
根据所述样本训练集对预设训练模型进行训练,得到所述翻译模型。
6.根据权利要求5所述的方法,其特征在于,所述预设训练模型包括训练编码器和训练解码器,所述根据所述样本训练集,对预设训练模型进行训练,得到所述翻译模型包括:
针对所述训练语句中的每个第一字符,获取该第一字符的字符向量,以及该第一字符对应的字符标签的标签向量,将该第一字符的字符向量与该第一字符的标签向量进行按位与操作,得到该第一字符的对应的字符特征向量;
针对所述训练语句中的每个第二字符,获取该第二字符的字符向量,以及该第二字符对应的字符标签的标签向量,将该第二字符的字符向量与该第二字符的标签向量进行按位与操作,得到该第二字符对应的字符特征向量;
将得到的每个所述第一字符对应的字符特征向量作为所述训练编码器的输入,得到训练编码向量;
将得到的每个所述第二字符对应的字符特征向量,以及所述训练编码向量作为所述训练解码器的输入,利用预设的损失函数,对所述预设训练模型进行训练,并在所述损失函数达到最小值时,得到所述翻译模型。
7.根据权利要求6所述的方法,其特征在于,所述损失函数为负对数似然函数。
8.一种语句翻译装置,其特征在于,所述装置包括:
获取模块,被配置为获取待翻译语句中的多个词语;
确定模块,被配置为对所述待翻译语句进行拆分处理,得到所述待翻译语句中的多个字符,并根据所述待翻译语句中的多个词语,确定所述待翻译语句中的每个字符对应的关联信息,所述关联信息用于指示该字符与该字符所在的词语之间的关联关系;
翻译模块,被配置为将所述待翻译语句中的每个字符、以及每个所述字符对应的关联信息输入预先训练的翻译模型,得到翻译后的目标语句。
9.根据权利要求8所述的装置,其特征在于,所述关联信息包括字符标签,所述字符标签用于指示该字符在该字符所在的词语中的位置,翻译模块包括:
处理子模块,被配置为针对所述待翻译语句中的每个字符,获取该字符的字符向量,以及该字符对应的字符标签的标签向量,将该字符的字符向量与该字符的标签向量进行按位与操作,得到该字符对应的字符特征向量;
翻译子模块,被配置为将得到的每个所述字符对应的字符特征向量作为所述翻译模型的输入,得到翻译后的目标语句。
10.根据权利要求9所述的装置,其特征在于,所述翻译模型包括编码器和解码器,所述翻译子模块被配置为:
将每个所述字符对应的字符特征向量输入所述编码器,得到所述编码器输出的目标编码向量;
将所述目标编码向量输入所述解码器,得到所述解码器输出的所述目标语句。
11.根据权利要求10所述的装置,其特征在于,所述编码器为N个,所述解码器为M个,N和M均为大于或等于2的正整数,所述翻译子模块被配置为:
将第n-1个所述编码器的输出作为第n个所述编码器的输入,以得到第n个所述编码器输出的编码向量,1<n≤N,且n为正整数,第1个所述编码器的输入为所述字符对应的字符特征向量;
将第N个所述编码器的输出的所述编码向量,作为所述目标编码向量;
将第m-1个所述解码器的输出作为第m个所述解码器的输入,以得到第m个所述解码器输出的解码语句,1<m≤M,且m为正整数,第1个所述解码器的输入为所述目标编码向量;
将第M个所述解码器的输出的所述解码语句,作为所述目标语句。
12.根据权利要求8-11中任一项所述的装置,其特征在于,所述翻译模型是通过以下方式训练的:
获取样本训练集,所述样本训练集包括训练语句,以及所述训练语句对应的翻译语句;所述训练语句包括多个第一字符,以及每个所述第一字符对应的字符标签,所述翻译语句包括多个第二字符,以及每个所述第二字符对应的字符标签;
根据所述样本训练集对预设训练模型进行训练,得到所述翻译模型。
13.根据权利要求12所述的装置,其特征在于,所述预设训练模型包括训练编码器和训练解码器,所述根据所述样本训练集,对预设训练模型进行训练,得到所述翻译模型包括:
针对所述训练语句中的每个第一字符,获取该第一字符的字符向量,以及该第一字符对应的字符标签的标签向量,将该第一字符的字符向量与该第一字符的标签向量进行按位与操作,得到该第一字符的对应的字符特征向量;
针对所述训练语句中的每个第二字符,获取该第二字符的字符向量,以及该第二字符对应的字符标签的标签向量,将该第二字符的字符向量与该第二字符的标签向量进行按位与操作,得到该第二字符对应的字符特征向量;
将得到的每个所述第一字符对应的字符特征向量作为所述训练编码器的输入,得到训练编码向量;
将得到的每个所述第二字符对应的字符特征向量,以及所述训练编码向量作为所述训练解码器的输入,利用预设的损失函数,对所述预设训练模型进行训练,并在所述损失函数达到最小值时,得到所述翻译模型。
14.根据权利要求13所述的装置,其特征在于,所述损失函数为负对数似然函数。
15.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-7中任一项所述方法的步骤。
16.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1-7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010622075.9A CN111832322A (zh) | 2020-06-30 | 2020-06-30 | 语句翻译方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010622075.9A CN111832322A (zh) | 2020-06-30 | 2020-06-30 | 语句翻译方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111832322A true CN111832322A (zh) | 2020-10-27 |
Family
ID=72899995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010622075.9A Pending CN111832322A (zh) | 2020-06-30 | 2020-06-30 | 语句翻译方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111832322A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113486679A (zh) * | 2021-07-08 | 2021-10-08 | 中联国智科技管理(北京)有限公司 | 一种基于神经网络的语句翻译方法及装置 |
CN113779965A (zh) * | 2021-09-10 | 2021-12-10 | 中联国智科技管理(北京)有限公司 | 一种语句词语采集方法及装置 |
-
2020
- 2020-06-30 CN CN202010622075.9A patent/CN111832322A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113486679A (zh) * | 2021-07-08 | 2021-10-08 | 中联国智科技管理(北京)有限公司 | 一种基于神经网络的语句翻译方法及装置 |
CN113779965A (zh) * | 2021-09-10 | 2021-12-10 | 中联国智科技管理(北京)有限公司 | 一种语句词语采集方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107291690B (zh) | 标点添加方法和装置、用于标点添加的装置 | |
CN111524521B (zh) | 声纹提取模型训练方法和声纹识别方法、及其装置和介质 | |
CN110210310B (zh) | 一种视频处理方法、装置和用于视频处理的装置 | |
CN114065778A (zh) | 篇章级翻译方法、翻译模型训练方法及装置 | |
CN107564526B (zh) | 处理方法、装置和机器可读介质 | |
CN110069624B (zh) | 文本处理方法及装置 | |
CN108628813B (zh) | 处理方法和装置、用于处理的装置 | |
CN111369978B (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN111832322A (zh) | 语句翻译方法、装置、电子设备和存储介质 | |
CN112528671A (zh) | 语义分析方法、装置以及存储介质 | |
CN112735396A (zh) | 语音识别纠错方法、装置及存储介质 | |
CN114154459A (zh) | 语音识别文本处理方法、装置、电子设备及存储介质 | |
CN110781674B (zh) | 一种信息处理方法、装置、计算机设备及存储介质 | |
CN113673261A (zh) | 数据生成方法、装置及可读存储介质 | |
CN112183119A (zh) | 机器翻译方法、装置及存储介质 | |
CN111832315A (zh) | 语义识别的方法、装置、电子设备和存储介质 | |
CN108733657B (zh) | 神经机器翻译中注意力参数的修正方法、装置及电子设备 | |
CN112036195A (zh) | 机器翻译方法、装置及存储介质 | |
CN112199963A (zh) | 一种文本处理方法、装置和用于文本处理的装置 | |
CN111538998A (zh) | 文本定密方法和装置、电子设备及计算机可读存储介质 | |
CN109979435B (zh) | 数据处理方法和装置、用于数据处理的装置 | |
CN114550691A (zh) | 一种多音字消歧方法、装置、电子设备及可读存储介质 | |
CN112989819A (zh) | 中文文本分词方法、装置及存储介质 | |
CN112837668B (zh) | 一种语音处理方法、装置和用于处理语音的装置 | |
CN109284510B (zh) | 一种文本处理方法、系统和一种用于文本处理的装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |