CN114065780A - 机器翻译方法 - Google Patents
机器翻译方法 Download PDFInfo
- Publication number
- CN114065780A CN114065780A CN202111212884.3A CN202111212884A CN114065780A CN 114065780 A CN114065780 A CN 114065780A CN 202111212884 A CN202111212884 A CN 202111212884A CN 114065780 A CN114065780 A CN 114065780A
- Authority
- CN
- China
- Prior art keywords
- layer
- encoder
- decoder
- network
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种机器翻译方法,通过Transformer模型实现,所述Transformer模型由多个同构的编码器和解码器组成,所述编码器用于编码中文的新能源专利文本,所述解码器用于产出对应英文专利的翻译结果;所述编码器与所述解码器都使用多头自注意力机制来捕获句子内部结构,所述编码器与所述解码器之间通过注意力机制连接来进行对齐翻译。本申请的机器翻译方法,能有效将术语信息整合到新能源中英专利机器翻译中,提高了翻译质量,并且大部分术语词都能得到正确的翻译。
Description
技术领域
本申请涉及文本处理技术领域,具体涉及一种机器翻译方法。
背景技术
新能源领域是一种高新技术产业,各国都把发展新能源作为推进产业结构调整的重要举措。研究新能源专利文献翻译,不仅可以助力中国专利走向国际,推进中国与其他国家间交流合作,也可以学习国外优秀专利技术,推动中国新能源专利产业发展。专利机器翻译作为机器翻译非常重要的一个研究方向也受到了人们的广泛关注。尽管神经机器翻译(NMT)目前已经达到了很高的翻译质量,但对于特定领域来说翻译效果往往不佳,由于专利文本术语翻译不准确会对翻译文本质量产生很大影响,大多数语言会由语言专家创建特定领域的术语,在后期对翻译结果进行译后编辑以提高翻译质量。翻译记忆库被看作是一种训练数据的领域知识,如何将双语机器翻译与双语词典相结合,在运行时将领域术语集成到NMT中仍然是一个具有挑战性的问题。
发明内容
本申请的目的是提供一种机器翻译方法。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。
根据本申请实施例的一个方面,提供一种机器翻译方法,通过Transformer模型实现。
进一步地,所述Transformer模型由多个同构的编码器和解码器组成,所述编码器用于编码中文的新能源专利文本,所述解码器用于产出对应英文专利的翻译结果;所述编码器与所述解码器都使用多头自注意力机制来捕获句子内部结构,所述编码器与所述解码器之间通过注意力机制连接来进行对齐翻译。
进一步地,所述编码器由6层同构的网络层堆叠组成;每一所述网络层包含2个子网络层,分别是多头自注意力机制和全连接的前馈神经网络;在每一所述子网络层后面都进行残差连接和层归一化处理。
进一步地,所述解码器由6层同构的网络层堆叠组成,每一所述网络层包含3个子网络层;所述3个子网络层包括自注意力机制层、编码器-解码器注意力子层以及全连接层。
进一步地,所述多头自注意力机制包括:
假设词向量是d,源语言句子是X={x1,x2,...,xn},X∈Rn×d,经过相似度计算得到Q、K、V三个权重向量:
Q=XWQ,K=XWK,V=XWV
式中XWQ、XWK、XWV是线性变化矩阵;
然后Q与KT进行矩阵相乘,再将标准化的QKT放入到softmax激活函数中对权重进行归一化处理,最后与V相乘得到最终Attention;
式中dk表示K的维度;
再经过多头结构拼接向量得到多头注意力向量,进行h次计算使得模型在不同子空间联合处理学到相关联的信息,
MultiHead=Concat(head1,...,headh)Wo
head1=Attention(QWi Q,KWi K,VWi V)
在Transformer每一子层之间引入了残差连接和层归一化:
FFN=max(0,xW1+b1)W2+b2
在编码器和解码器最底层的输入向量中加入采用正余弦的位置编码,
其中pos表示当前词在句子序列中的位置,i表示向量的维度,dmodel表示向量的总维度。
根据本申请实施例的另一个方面,提供一种机器翻译装置,包括Transformer模型。
进一步地,所述Transformer模型由多个同构的编码器和解码器组成,所述编码器用于编码中文的新能源专利文本,所述解码器用于产出对应英文专利的翻译结果;所述编码器与所述解码器都使用多头自注意力机制来捕获句子内部结构,所述编码器与所述解码器之间通过注意力机制连接来进行对齐翻译。
进一步地,所述编码器由6层同构的网络层堆叠组成;每一所述网络层包含2个子网络层,分别是多头自注意力机制和全连接的前馈神经网络;在每一所述子网络层后面都进行残差连接和层归一化处理。
进一步地,所述解码器由6层同构的网络层堆叠组成,每一所述网络层包含3个子网络层;所述3个子网络层包括自注意力机制层、编码器-解码器注意力子层以及全连接层。
根据本申请实施例的另一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以实现上述的机器翻译方法。
本申请实施例的其中一个方面提供的技术方案可以包括以下有益效果:
本申请实施例提供的机器翻译方法,将额外的术语信息融入到神经机器翻译中而不需要修改模型,利用自建的新能源专利语料库和术语库,训练一个添加自定义术语的新能源领域Transformer专利机器翻译模型,利用将源端术语替换为目标端术语以及在源端术语后增添目标端术语两个方法,不断进行模型的迭代更新,能有效将术语信息整合到新能源中英专利机器翻译中,提高了翻译质量,并且大部分术语词都能得到正确的翻译。
本申请的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者,部分特征和优点可以从说明书中推知或毫无疑义地确定,或者通过实施本申请实施例了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1所示为融合术语信息的神经机器翻译模型图;
图2所示为Transformer的编码器;
图3所示为Transformer的解码器。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,下面结合附图和具体实施例对本申请做进一步说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
传统的神经机器翻译模型是一个黑盒子,并不能有效把术语信息添加进去,利用用户提供的术语词典来约束神经机器翻译模型具有实际意义。针对新能源领域专利机器翻译研究,本申请实施例提出了一种机器翻译方法,将额外的术语信息融入到神经机器翻译中而不需要修改模型,利用自建的新能源专利语料库和术语库,训练一个添加自定义术语的新能源领域Transformer专利机器翻译模型,利用将源端术语替换为目标端术语以及在源端术语后增添目标端术语两个方法,不断进行模型的迭代更新,本申请实施例提出的方法所得BLEU值在两个语料库上分别比Transformer基准模型高出约1.3和1.2个点,能有效将术语信息整合到新能源中英专利机器翻译中,提高了翻译质量,并且大部分术语词都能得到正确的翻译。本申请实施例基于Transformer模型,提出了一种带有术语信息输入流的神经机器翻译模型,在神经机器翻译训练中强制学习新能源领域的术语翻译,这种方法能够处理看不见的术语,同时保留NMT生成连贯输出序列的能力,也不会大幅降低解码速度。
融合术语信息的新能源专利翻译模型
Transformer与循环神经网络和卷积神经网络不同的是它仅依赖自注意力机制就在许多任务方面取得了优异的成绩。在数据输入模型之前进行了融入术语的操作,尝试了按照术语词典对源句进行分词、替换和增添的操作,再将编码后的句子输入到模型中。Transformer模型属于编码器-解码器的结构,由多个同构的编码器和解码器组成,并且每个编码器和解码器均有多层网络结构。在新能源领域专利机器翻译中,编码器的功能主要是编码中文的新能源专利文本,解码器则负责产出对应英文专利的翻译结果。编码器与解码器两者都使用了多头自注意力机制来捕获句子内部结构,学习文本之间的表示,两者之间通过注意力机制连接来进行对齐翻译,整体模型结构如图1所示。
编码器由6层同构的网络层堆叠组成,每一层也都包含2个子网络层,分别是多头自注意力机制和全连接的前馈神经网络,在每一个子网络层后面都使用残差连接和层归一化对其进行处理,目的是防止网络层数过多带来模型收敛困难的情况。由于Transformer利用attention机制代替循环神经网络结构,会导致句子的词序信息丢失,在编码器中引入了位置编码以解决此问题,编码器结构如图2所示。
解码器同样由6层同构的网络层堆叠组成,每一层包含3个子网络层。与编码器结构类似,解码器在自注意力机制层和全连接层中间多了一个编码器-解码器注意力子层,每一子层后也都进行残差连接和层归一化处理,如图3所示。
注意力机制
利用Transformer训练的神经机器翻译模型有较好的效果主要是因为使用了注意力机制,通过多头自注意力机制捕捉句子中任意两个单词之间的关系。
假设词向量是d,源语言句子是X={x1,x2,...,xn},X∈Rn×d,经过相似度计算得到Q、K、V三个权重向量:
Q=XWQ,K=XWK,V=XWV (1)
式中XWQ、XWK、XWV是线性变化矩阵。
然后Q与KT进行矩阵相乘,再将标准化的QKT放入到softmax激活函数中对权重进行归一化处理,最后与V相乘得到最终Attention。
式中dk表示K的维度。
再经过多头结构拼接向量得到多头注意力向量,其实就是多个自注意力结构的组合,这样做是因为每个头学到的注意力侧重点不同,进行h次计算使得模型可以在不同子空间联合处理学到相关联的信息,如公式3,4所示。
MultiHead=Concat(head1,...,headh)Wo (3)
head1=Attention(QWi Q,KWi K,VWi V) (4)
为了使网络模型更容易训练,还在Transformer每一子层之间引入了残差连接和层归一化:
FFN=max(0,xW1+b1)W2+b2 (6)
由于Transformer模型完全基于注意力机制而没有考虑位置信息,因此在编码器和解码器最底层的输人向量中加入采用正余弦的位置编码,如式7和式8所示:
其中pos表示当前词在句子序列中的位置,i表示向量的维度,dmodel表示向量的总维度。
在本申请中,针对新能源领域专利机器翻译系统提出一个使用标准的Transformer NMT模型,混合输入包含训练文本和术语信息,将双语术语词典融入到NMT训练过程中的方法,达到的有益技术效果包括:
(1)针对领域翻译的特点,提出融合术语信息的新能源专利神经机器翻译模型;
(2)通过修改源数据复制嵌入或替换预先指定的翻译,使模型学会“翻译”这些术语,并且不会增加推理时的计算开销;
(3)在不同量级的数据规模下,本申请实施例的方法能取更好的效果。
本申请实施例针对新能源领域专利机器翻译任务,提出了一种融入术语信息的机器翻译训练方法,通过在不同语料库上的对比实验可以得出,采用术语替换和术语添加的方法可以使模型学到更丰富的术语信息,提高翻译模型对领域术语的学习能力和表达能力,优于目前流行的Transformer基线模型;在具备相同领域翻译平行语料库和术语库的前提下,融合术语信息的机器翻译模型具有更强的领域适应性,在翻译特定术语时的表达效果比通用的神经机器翻译模型效果好;并且在训练数据中融入术语信息作为提升翻译质量的一种通用方法,可以灵活地运用到其他领域的神经机器翻译系统中。
本申请另一个实施例提供了一种机器翻译装置,包括Transformer模型。所述Transformer模型由多个同构的编码器和解码器组成,所述编码器用于编码中文的新能源专利文本,所述解码器用于产出对应英文专利的翻译结果;所述编码器与所述解码器都使用多头自注意力机制来捕获句子内部结构,所述编码器与所述解码器之间通过注意力机制连接来进行对齐翻译。
所述编码器由6层同构的网络层堆叠组成;每一所述网络层包含2个子网络层,分别是多头自注意力机制和全连接的前馈神经网络;在每一所述子网络层后面都进行残差连接和层归一化处理。
所述解码器由6层同构的网络层堆叠组成,每一所述网络层包含3个子网络层;所述3个子网络层包括自注意力机制层、编码器-解码器注意力子层以及全连接层。
本申请另一个实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以实现上述任一实施方式的机器翻译方法。
需要说明的是:
在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本申请也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本申请的内容,并且上面对特定语言所做的描述是为了披露本申请的最佳实施方式。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本实施例中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述实施例仅表达了本申请的实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (10)
1.一种机器翻译方法,其特征在于,通过Transformer模型实现。
2.根据权利要求1所述的方法,其特征在于,所述Transformer模型由多个同构的编码器和解码器组成,所述编码器用于编码中文的新能源专利文本,所述解码器用于产出对应英文专利的翻译结果;所述编码器与所述解码器都使用多头自注意力机制来捕获句子内部结构,所述编码器与所述解码器之间通过注意力机制连接来进行对齐翻译。
3.根据权利要求2所述的方法,其特征在于,所述编码器由6层同构的网络层堆叠组成;每一所述网络层包含2个子网络层,分别是多头自注意力机制和全连接的前馈神经网络;在每一所述子网络层后面都进行残差连接和层归一化处理。
4.根据权利要求2所述的方法,其特征在于,所述解码器由6层同构的网络层堆叠组成,每一所述网络层包含3个子网络层;所述3个子网络层包括自注意力机制层、编码器-解码器注意力子层以及全连接层。
5.根据权利要求3所述的方法,其特征在于,所述多头自注意力机制包括:
假设词向量是d,源语言句子是X={x1,x2,...,xn},X∈Rn×d,经过相似度计算得到Q、K、V三个权重向量:
Q=XWQ,K=XWK,V=XWV
XWQ、XWK、XWV是线性变化矩阵;
然后Q与KT进行矩阵相乘,再将标准化的QKT放入到softmax激活函数中对权重进行归一化处理,最后与V相乘得到最终Attention;
dk表示K的维度;
再经过多头结构拼接向量得到多头注意力向量,进行h次计算使得模型在不同子空间联合处理学到相关联的信息,
MultiHead=Concat(head1,...,headh)Wo
head1=Attention(QWi Q,KWi K,VWi V)
在Transformer每一子层之间引入了残差连接和层归一化:
FFN=max(0,xW1+b1)W2+b2
在编码器和解码器最底层的输入向量中加入采用正余弦的位置编码,
其中pos表示当前词在句子序列中的位置,i表示向量的维度,dmodel表示向量的总维度。
6.一种机器翻译装置,其特征在于,包括Transformer模型。
7.根据权利要求6所述的装置,其特征在于,所述Transformer模型由多个同构的编码器和解码器组成,所述编码器用于编码中文的新能源专利文本,所述解码器用于产出对应英文专利的翻译结果;所述编码器与所述解码器都使用多头自注意力机制来捕获句子内部结构,所述编码器与所述解码器之间通过注意力机制连接来进行对齐翻译。
8.根据权利要求6所述的装置,其特征在于,所述编码器由6层同构的网络层堆叠组成;每一所述网络层包含2个子网络层,分别是多头自注意力机制和全连接的前馈神经网络;在每一所述子网络层后面都进行残差连接和层归一化处理。
9.根据权利要求6所述的装置,其特征在于,所述解码器由6层同构的网络层堆叠组成,每一所述网络层包含3个子网络层;所述3个子网络层包括自注意力机制层、编码器-解码器注意力子层以及全连接层。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行,以实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111212884.3A CN114065780A (zh) | 2021-10-19 | 2021-10-19 | 机器翻译方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111212884.3A CN114065780A (zh) | 2021-10-19 | 2021-10-19 | 机器翻译方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114065780A true CN114065780A (zh) | 2022-02-18 |
Family
ID=80234995
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111212884.3A Pending CN114065780A (zh) | 2021-10-19 | 2021-10-19 | 机器翻译方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114065780A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115455964A (zh) * | 2022-11-10 | 2022-12-09 | 南京万得资讯科技有限公司 | 一种针对垂直领域机器翻译的低资源优化方法 |
-
2021
- 2021-10-19 CN CN202111212884.3A patent/CN114065780A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115455964A (zh) * | 2022-11-10 | 2022-12-09 | 南京万得资讯科技有限公司 | 一种针对垂直领域机器翻译的低资源优化方法 |
CN115455964B (zh) * | 2022-11-10 | 2023-03-14 | 万得信息技术股份有限公司 | 一种针对垂直领域机器翻译的低资源优化方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Deep Neural Networks in Machine Translation: An Overview. | |
CN107967262A (zh) | 一种神经网络蒙汉机器翻译方法 | |
CN112016604B (zh) | 一种运用视觉信息的零资源机器翻译方法 | |
CN112084841B (zh) | 跨模态的图像多风格字幕生成方法及系统 | |
CN112765345A (zh) | 一种融合预训练模型的文本摘要自动生成方法及系统 | |
CN109522403A (zh) | 一种基于融合编码的摘要文本生成方法 | |
CN112347796B (zh) | 一种基于蒸馏BERT与改进Transformer相结合的蒙汉神经机器翻译方法 | |
CN116737759B (zh) | 一种基于关系感知注意力的中文查询生成sql语句方法 | |
CN112417901A (zh) | 基于环顾解码和词汇注意力的非自回归蒙汉机器翻译方法 | |
CN111767718A (zh) | 一种基于弱化语法错误特征表示的中文语法错误更正方法 | |
Song et al. | Memorial gan with joint semantic optimization for unpaired image captioning | |
CN115062140A (zh) | 一种bert sum和pgn融合的供应链生态区长文档摘要生成方法 | |
US11615247B1 (en) | Labeling method and apparatus for named entity recognition of legal instrument | |
CN117218503A (zh) | 一种融合图像信息的越汉跨语言新闻文本摘要方法 | |
CN113657125B (zh) | 一种基于知识图谱的蒙汉非自回归机器翻译方法 | |
CN115658898A (zh) | 一种中英文本实体关系抽取方法、系统及设备 | |
CN111428518B (zh) | 一种低频词翻译方法及装置 | |
CN114065780A (zh) | 机器翻译方法 | |
CN113435216B (zh) | 神经网络机器翻译模型训练方法、机器翻译方法和装置 | |
Liu et al. | Document-level event argument extraction with self-augmentation and a cross-domain joint training mechanism | |
Ahmad et al. | An image captioning algorithm based on the hybrid deep learning technique (CNN+ GRU) | |
Momeni et al. | A transformer-based approach for Arabic offline handwritten text recognition | |
CN116720531B (zh) | 基于源语言句法依赖和量化矩阵的蒙汉神经机器翻译方法 | |
Sun | [Retracted] Analysis of Chinese Machine Translation Training Based on Deep Learning Technology | |
Min et al. | Grammatical error correction models for Korean language via pre-trained denoising |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |