CN113591494B - 一种基于多粒度语义对齐的多语言通用翻译方法 - Google Patents

一种基于多粒度语义对齐的多语言通用翻译方法 Download PDF

Info

Publication number
CN113591494B
CN113591494B CN202110743683.XA CN202110743683A CN113591494B CN 113591494 B CN113591494 B CN 113591494B CN 202110743683 A CN202110743683 A CN 202110743683A CN 113591494 B CN113591494 B CN 113591494B
Authority
CN
China
Prior art keywords
language
universal
translation
dependency
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110743683.XA
Other languages
English (en)
Other versions
CN113591494A (zh
Inventor
万海
苏蓝
彭勃
黄佳莉
曾娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202110743683.XA priority Critical patent/CN113591494B/zh
Publication of CN113591494A publication Critical patent/CN113591494A/zh
Application granted granted Critical
Publication of CN113591494B publication Critical patent/CN113591494B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供一种基于多粒度语义对齐的多语言通用翻译方法,该方法针对多语言预训练模型单词向量未对齐的问题,首次提出了局部翻译的方法,在不同粒度上实现语义特征的对齐;利用多语言预训练模型已经学习到的知识,将其融合、迁移到新语言上,是有效面向低资源语料也是有效服务零样本学习的方法;通过多语言预训练模型解析获取到单词之间的依赖,从而实现多语言版本的句法结构分析,以树的结构获得不同语言的通用依赖,消除了不同语言词序不同的影响,进一步提升模型的泛化性,使其成为一个通用翻译模型;验证了多语言预训练模型可以迁移知识到新语言上,具有良好的泛化性和实用性。

Description

一种基于多粒度语义对齐的多语言通用翻译方法
技术领域
本发明涉及机器翻译领域,更具体地,涉及一种基于多粒度语义对齐的多语言通用翻译方法。
背景技术
机器翻译作为自然语言处理的核心任务之一,常年来一直受到众多学者的关注。机器翻译通过理解、分析源语言的含义,在尽可能保持原意的同时将其转换为目标语言。近年来,机器翻译的一种实现方案神经机器翻译不仅在学术领域而且在商业领域都成为了主导范式。相比较于传统的统计机器翻译,神经机器翻译主要受益于分布式词向量以及端到端的模型设计,前者使得细粒度的特征成为可能,后者减少了误差传递,提高了模型的性能。研究者原本关注在两种语言之间的翻译并设计合适的神经机器翻译模型,而在后续的研究中研究者发现,神经机器翻译模型天然适用于多语言的机器翻译,也就是该模型可以在多个语言对之间进行翻译。多语言神经机器翻译的终极目标是在尽可能利用可用的语言资源的前提下,使用同一个模型翻译尽可能多的语言对。
预训练语言模型属于自然语言理解领域,是近年来的热点之一。预训练语言模型的原理是创建一个理解语言的黑匣子,然后使用它执行任意的特定任务。预训练语言模型的使用方式一般为使用大量的语料训练模型,使用特定任务的数据集进行微调,最后在特定任务上执行。在多语言预训练语言模型方面,谷歌首席首先根据Bert的原理通过扰动编码进行训练,并使用共享词表,发布了mBert模型。Lample and Conneau在预训练语言模型XLM中,利用TLM的方法进一步提升了模型跨语言的能力,并使用共享子词表在一定程度上使得词向量对齐。Conneau等人发布了XLM-R模型,在仅使用扰动编码的训练方式下,通过增加模型参数以提升模型容量的方法,达到了比XLM更好的效果。然而目前并没有高效能高质量利用已有多语言预训练语言模型里的知识的多语言机器翻译模型,具体而言:
(1)目前的方法侧重于为每个语言设计单独的编码器或解码器,导致了一个庞大的不方便的模型,或者设计具有大量参数、要求大量平行语料训练的共享编码器和解码器,这两者都很难训练;
(2)现有方法中,已有的利用多语言预训练模型的机器翻译模型依旧被设计为两种语言的单语言机器翻译模型,不能利用到训练语言以外的多语言知识;
(3)现有方法中,不同语言的向量空间对齐仅考虑到单词向量的对齐,而较少考虑高层特征向量如短语向量、句向量的对齐,这降低了不同语言中同一个意义的短语/句子的语义关联度。
发明内容
本发明提供一种基于多粒度语义对齐的多语言通用翻译方法,该方法能迁移、融合多语言预训练语言模型中的知识,在不同粒度上提升不同语言语义特征的关联度,进一步提升多语言通用翻译的效果。
为了达到上述技术效果,本发明的技术方案如下:
一种基于多粒度语义对齐的多语言通用翻译方法,包括以下步骤:
S1:进行语料预处理;
S2:通过通用依赖解析器获取通用依赖;
S3:对通用依赖进行局部翻译;
S4:下游模型训练。
进一步地,所述步骤S1的具体过程是:
S11:使用mBert相同的预处理方式分别处理s、t以保证单词存在于多语言预训练语言模型的词表中,其中包含且不限于分词、标准化等预处理工作,得到子词序列;
S12:在子词序列的前后分别加上[CLS]和[SEP],得到通用依赖解析器的输入序列,记作e=[e1,e2,…,eE],也就是token序列,在单词的层面上,记作x=[x1,x2,…,xX]。
进一步地,所述步骤S2的具体过程是:
S21:把xi替换为[MASK],此时mBert的句向量表示记作Hθ(x\{xi}),再将xi、xj同时替换为[MASK],此时mBert的句向量表示记作Hθ(x\{xi,xj});
S22:计算Hθ(x\{xi})和Hθ(x\{xi,xj})之间的距离dis(Hθ(x\{xi}),Hθ(x\{xi,xj}))表示了xj对xi的贡献程度,也就是xi对xj的依赖程度,计算出任意一个词对另一个词之间的依赖关系,得到一个词的相关矩阵;
S23:通过词的相关矩阵,使用无监督句法分析的基本思路,递归地将x=[x1,x2,…,xX]划分为((x<k),(xk,(x>k))),划分结果包含两个类,x<k和x≥k,k为最佳分割点,使得这两个类的类内相关性尽可能大,与另一个类的相关性高尽可能小,得到叶子节点都为单词的通用依赖UD。
进一步地,所述步骤S3的具体过程是:
S31:通过随机数种子判断是否翻译;如果翻译,进入S32,如果不翻译直接将UD作为该模块的输出局部翻译后的通用依赖UDpt
S32:随机选取一种参与预训练语言模型训练但非源语言的对齐语言A;
S33:随机选取一个节点,该节点可能是非叶子节点,也可能是叶子节点;
S34:如果是叶子节点,使用多语言预训练语言模型mBert将该节点表示的单词翻译为目标语言的单词;如果是非叶子节点,则从属于该节点的所有叶子节点都进行翻译,使得叶子节点都是对齐语言单词,此时将整棵树称为局部翻译后的通用依赖UDpt。
进一步地,所述步骤S4的具体过程是:
S41:通用依赖和局部翻译后的通用依赖都是树形结构,采用TreeNet对它们的根节点分别进行编码得到句向量特征表示S(UD),S(UDpt);
S42:通用依赖的句向量特征表示S(UD)输入到翻译器Transformer中,输出目标语言文本P,通过P和T计算BLEU指标以衡量性能效果;
S43:局部翻译后的通用依赖的向量特征表示S(UDpt)输入到语言判别器中,输出0/1判断是否为同种语言,也就是判断是否经过了局部翻译;
S44:S43和S44中产生的加权误差通过反向传播,使用随机梯度下降算法进行训练。
进一步地,步骤S1中,针对不同的语言,进行分词成为词表中的token;步骤S2中,基于预训练语言模型的扰动编码可以得到词与词之间的依赖程度,从而分析得到句子的句法结构的树形表示,对参与多语言预训练模型训练的任意语言适用,以此句法结构作为通用依赖;步骤S3中,在通用依赖中,随机选取节点进行随机翻译,随机翻译含义为有可能不翻译,保持原状,如果翻译则得到局部翻译后的通用依赖。
进一步地,步骤S4中,通用依赖和局部翻译后的通用依赖输入树形结构表示器分别得到通用表示和局部翻译的通用表示;局部翻译的通用表示输入至语言判别器中,判断是否为同一种语言,同时通用表示输入到翻译器中得到目标语言文本,其中翻译器和语言判别器的误差通过加权得到一个总误差,并反向传播到翻译器和语言判别器中进行训练;局部翻译后的通用依赖的向量特征表示输入到语言判别器中,输出0/1判断是否为同种语言,也就是判断是否经过了局部翻译。
与现有技术相比,本发明技术方案的有益效果是:
本发明针对多语言预训练模型单词向量未对齐的问题,首次提出了局部翻译的方法,在不同粒度上实现语义特征的对齐;利用多语言预训练模型已经学习到的知识,将其融合、迁移到新语言上,是有效面向低资源语料也是有效服务零样本学习的方法;通过多语言预训练模型解析获取到单词之间的依赖,从而实现多语言版本的句法结构分析,以树的结构获得不同语言的通用依赖,消除了不同语言词序不同的影响,进一步提升模型的泛化性,使其成为一个通用翻译模型;验证了多语言预训练模型可以迁移知识到新语言上,具有良好的泛化性和实用性。
附图说明
图1是本发明整体训练流程图;
图2是翻译流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
如图1-2所示,本实施例中,数据集中的源语言句子记作S,源语言记作Ls,目标语言句子记作T,目标语言记作Lt,是否经过局部翻译的标签集合记作H,H={是,否}。对于数据集中的一个数据,即平行句子对记作(s,t)。通用依赖记作UD,经过局部翻译模块后的通用依赖记作UDpt
步骤一、语料预处理:语料预处理:针对不同的语言,进行分词成为词表中的token:
S11:使用mBert相同的预处理方式分别处理s、t以保证单词存在于多语言预训练语言模型的词表中,其中包含且不限于分词、标准化等预处理工作,得到子词序列;
S12:在子词序列的前后分别加上[CLS]和[SEP],得到通用依赖解析器的输入序列,记作e=[e1,e2,…,eE],也就是token序列。在单词的层面上,我们记作x=[x1,x2,…,xX]。
步骤2、通过通用依赖解析器获取通用依赖:基于预训练语言模型的扰动编码可以得到词与词之间的依赖程度,从而分析得到句子的句法结构的树形表示,该方法对参与多语言预训练模型训练的任意语言适用,以此句法结构作为通用依赖:
S21:我们把xi替换为[MASK],此时mBert的句向量表示记作Hθ(x\{xi})。再将xi、xj同时替换为[MASK],此时mBert的句向量表示记作Hθ(x\{xi,xj});
S22:计算Hθ(x\{xi})和Hθ(x\{xi,xj})之间的距离dis(Hθ(x\{xi}),Hθ(x\{xi,xj}))表示了xj对xi的贡献程度,也就是xi对xj的依赖程度。由此我们可以计算出任意一个词对另一个词之间的依赖关系,得到一个词的相关矩阵;
S23:通过词的相关矩阵,我们使用无监督句法分析的基本思路,递归地将x=[x1,x2,…,xX]划分为((x<k),(xk,(x>k))),划分结果包含两个类,x<k和x≥k。k为最佳分割点,使得这两个类的类内相关性尽可能大,与另一个类的相关性高尽可能小。由此我们可以得到叶子节点都为单词的通用依赖UD。
步骤3、对通用依赖进行局部翻译:在通用依赖中,随机选取节点进行随机翻译。随机翻译含义为有可能不翻译,保持原状,如果翻译则得到局部翻译后的通用依赖:
S31:通过随机数种子判断是否翻译。如果翻译,进入S32,如果不翻译直接将UD作为该模块的输出局部翻译后的通用依赖UDpt
S32:随机选取一种参与预训练语言模型训练但非源语言的对齐语言A;
S33:随机选取一个节点,该节点可能是非叶子节点,也可能是叶子节点;
S34:如果是叶子节点,使用多语言预训练语言模型mBert将该节点表示的单词翻译为目标语言的单词。如果是非叶子节点,则从属于该节点的所有叶子节点都进行翻译,使得叶子节点都是对齐语言单词。此时将整棵树称为局部翻译后的通用依赖UDpt
步骤4、下游模型训练:通用依赖和局部翻译后的通用依赖输入树形结构表示器分别得到通用表示和局部翻译的通用表示。局部翻译的通用表示输入至语言判别器中,判断是否为同一种语言,同时通用表示输入到翻译器中得到目标语言文本。其中翻译器和语言判别器的误差通过加权得到一个总误差,并反向传播到翻译器和语言判别器中进行训练:
S41:通用依赖和局部翻译后的通用依赖都是树形结构,采用TreeNet对它们的根节点分别进行编码得到句向量特征表示S(UD),S(UDpt)。
S42:通用依赖的句向量特征表示S(UD)输入到翻译器Transformer中,输出目标语言文本P,通过P和T计算BLEU指标以衡量性能效果。
S43:局部翻译后的通用依赖的向量特征表示S(UDpt)输入到语言判别器中,输出0/1判断是否为同种语言,也就是判断是否经过了局部翻译。
S44:S43和S44中产生的加权误差通过反向传播,使用随机梯度下降算法进行训练。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (6)

1.一种基于多粒度语义对齐的多语言通用翻译方法,其特征在于,包括以下步骤:
S1:进行语料预处理;
S2:通过通用依赖解析器获取通用依赖;
S3:对通用依赖进行局部翻译;
S4:下游模型训练;
所述步骤S1的具体过程是:
S11:使用多语言预训练语言模型mBert分别对句子s、句子t进行预处理,以保证单词存在于多语言预训练语言模型mBert的词表中,其中包含分词、标准化的预处理工作,得到子词序列;
S12:在子词序列的前后分别加上[CLS]和[SEP],得到通用依赖解析器的输入序列,记作e=[e1,e2,…,eE],也就是token序列,在单词的层面上,记作x=[x1,x2,…,xX];
所述步骤S2的具体过程是:
S21:把xi替换为[MASK],此时mBert的句向量表示记作Hθ(x\{xi}),再将xi、xj同时替换为[MASK],此时mBert的句向量表示记作Hθ(x\{xi,xj});
S22:计算Hθ(x\{xi})和Hθ(x\{xi,xj})之间的距离dis(Hθ(x\{xi}),Hθ(x\{xi,xj})表示了xj对xi的贡献程度,也就是xi对xj的依赖程度,计算出任意一个词与另一个词之间的依赖关系,得到一个词的相关矩阵;
S23:通过词的相关矩阵,使用无监督句法分析,递归地将x=[x1,x2,…,xX]划分为((x<k),(xk,(x>k))),划分结果包含两个类,x<k和x≥k,k为最佳分割点,使得这两个类的类内相关性大,与另一个类的相关性小,得到叶子节点都为单词的通用依赖UD;
所述步骤S3的具体过程是:
S31:通过随机数种子判断是否翻译;如果翻译,进入S32,如果不翻译直接将UD作为输出局部翻译后的通用依赖UDpt
S32:随机选取一种参与预训练语言模型训练但非源语言的对齐语言A;
S33:随机选取一个节点,该节点是非叶子节点,或是叶子节点;
S34:如果是叶子节点,使用多语言预训练语言模型mBert将该节点表示的单词翻译为目标语言的单词;如果是非叶子节点,则从属于该节点的所有叶子节点都进行翻译,使得叶子节点都是对齐语言单词,此时将整棵树称为局部翻译后的通用依赖UDpt
所述步骤S4的具体过程是:
S41:通用依赖和局部翻译后的通用依赖都是树形结构,采用TreeNet对它们的根节点分别进行编码得到句向量特征表示S(UD),S(UDpt);
S42:通用依赖的句向量特征表示S(UD)输入到翻译器Transformer中,输出目标语言文本P,通过目标语言文本P和目标语言句子T计算BLEU指标以衡量性能效果;
S43:局部翻译后的通用依赖的向量特征表示S(UDpt)输入到语言判别器中,输出0/1判断是否为同种语言,也就是判断是否经过了局部翻译;
S44:S42和S43中产生的加权误差通过反向传播,使用随机梯度下降算法进行训练。
2.根据权利要求1所述的基于多粒度语义对齐的多语言通用翻译方法,其特征在于,步骤S1中,针对不同的语言,进行分词成为词表中的token。
3.根据权利要求2所述的基于多粒度语义对齐的多语言通用翻译方法,其特征在于,步骤S2中,基于预训练语言模型的扰动编码得到词与词之间的依赖程度,从而分析得到句子的句法结构的树形表示,对参与多语言预训练模型训练的任意语言适用,以此句法结构作为通用依赖。
4.根据权利要求3所述的基于多粒度语义对齐的多语言通用翻译方法,其特征在于,步骤S3中,在通用依赖中,随机选取节点进行随机翻译,随机翻译含义为不翻译时,保持原状,如果翻译则得到局部翻译后的通用依赖。
5.根据权利要求4所述的基于多粒度语义对齐的多语言通用翻译方法,其特征在于,步骤S4中,通用依赖和局部翻译后的通用依赖输入树形结构表示器分别得到通用表示和局部翻译的通用表示;局部翻译的通用表示输入至语言判别器中,判断是否为同一种语言,同时通用表示输入到翻译器中得到目标语言文本,其中翻译器和语言判别器的误差通过加权得到一个总误差,并反向传播到翻译器和语言判别器中进行训练。
6.根据权利要求5所述的基于多粒度语义对齐的多语言通用翻译方法,其特征在于,步骤S4中,局部翻译后的通用依赖的向量特征表示输入到语言判别器中,输出0/1判断是否为同种语言,也就是判断是否经过了局部翻译。
CN202110743683.XA 2021-06-30 2021-06-30 一种基于多粒度语义对齐的多语言通用翻译方法 Active CN113591494B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110743683.XA CN113591494B (zh) 2021-06-30 2021-06-30 一种基于多粒度语义对齐的多语言通用翻译方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110743683.XA CN113591494B (zh) 2021-06-30 2021-06-30 一种基于多粒度语义对齐的多语言通用翻译方法

Publications (2)

Publication Number Publication Date
CN113591494A CN113591494A (zh) 2021-11-02
CN113591494B true CN113591494B (zh) 2024-06-07

Family

ID=78245605

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110743683.XA Active CN113591494B (zh) 2021-06-30 2021-06-30 一种基于多粒度语义对齐的多语言通用翻译方法

Country Status (1)

Country Link
CN (1) CN113591494B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005062200A1 (es) * 2003-12-16 2005-07-07 Materialización De Ideas, S.L. Traductor simultáneo individual
WO2006072882A2 (en) * 2005-01-10 2006-07-13 Melingo, Ltd. Embedded translation-enhanced search
JP2008065469A (ja) * 2006-09-05 2008-03-21 Sharp Corp 電子機器、その制御方法、および、翻訳文出力用プログラム
WO2021010260A1 (ja) * 2019-07-17 2021-01-21 日本電信電話株式会社 文比較装置、文比較方法、及び文比較プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11354504B2 (en) * 2019-07-10 2022-06-07 International Business Machines Corporation Multi-lingual action identification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005062200A1 (es) * 2003-12-16 2005-07-07 Materialización De Ideas, S.L. Traductor simultáneo individual
WO2006072882A2 (en) * 2005-01-10 2006-07-13 Melingo, Ltd. Embedded translation-enhanced search
JP2008065469A (ja) * 2006-09-05 2008-03-21 Sharp Corp 電子機器、その制御方法、および、翻訳文出力用プログラム
WO2021010260A1 (ja) * 2019-07-17 2021-01-21 日本電信電話株式会社 文比較装置、文比較方法、及び文比較プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于Resin的通用依赖注入模式;刘小可;;河南科技(10);第87-91页 *

Also Published As

Publication number Publication date
CN113591494A (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
Lee et al. Fully character-level neural machine translation without explicit segmentation
Al Sallab et al. Deep learning models for sentiment analysis in Arabic
Schmaltz et al. Sentence-level grammatical error identification as sequence-to-sequence correction
Jian et al. [Retracted] LSTM‐Based Attentional Embedding for English Machine Translation
Nagoudi et al. IndT5: a text-to-text transformer for 10 indigenous languages
García-Martínez et al. Neural machine translation by generating multiple linguistic factors
Wu et al. Sequence generation with mixed representations
CN115757695A (zh) 一种日志语言模型训练方法及系统
Mandal et al. Futurity of translation algorithms for neural machine translation (NMT) and its vision
Nath et al. Neural machine translation for Indian language pair using hybrid attention mechanism
CN113591494B (zh) 一种基于多粒度语义对齐的多语言通用翻译方法
Hujon et al. Neural machine translation systems for English to Khasi: A case study of an Austroasiatic language
Lin et al. Chinese story generation of sentence format control based on multi-channel word embedding and novel data format
CN116955594A (zh) 语义融合预训练模型构建方法及跨语言摘要生成方法和系统
Escolano Peinado Learning multilingual and multimodal representations with language-specific encoders and decoders for machine translation
Almansor et al. Transferring informal text in arabic as low resource languages: State-of-the-art and future research directions
Feng et al. Improved neural machine translation with pos-tagging through joint decoding
Mahmoud et al. Semi-supervised learning and bidirectional decoding for effective grammar correction in low-resource scenarios
Liu Research on literary translation based on the improved optimization model
Amin et al. Text generation and enhanced evaluation of metric for machine translation
Mahmud et al. GRU-based encoder-decoder attention model for English to Bangla translation on novel dataset
Feng et al. Neural phrase-to-phrase machine translation
Gupta et al. An empirical evaluation of attention and pointer networks for paraphrase generation
Liu et al. Mongolian word segmentation based on three character level seq2seq models
Xu et al. LayoutLM-Critic: Multimodal Language Model for Text Error Correction of Optical Character Recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant