CN109284511B - 主动学习平行语料构建方法 - Google Patents
主动学习平行语料构建方法 Download PDFInfo
- Publication number
- CN109284511B CN109284511B CN201811026790.5A CN201811026790A CN109284511B CN 109284511 B CN109284511 B CN 109284511B CN 201811026790 A CN201811026790 A CN 201811026790A CN 109284511 B CN109284511 B CN 109284511B
- Authority
- CN
- China
- Prior art keywords
- parallel corpus
- source
- sentences
- monolingual
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种主动学习平行语料构建方法,应用于低资源语言神经机器翻译,而且,应用在基于注意力机制且采用encoder‑decoder框架的NMT模型,包括:获取原始平行语料和源端单语;获取所述原始平行语料的embedding和所述源端单语的embedding;计算所述源端单语中的每句话和所述平行语料的相似度;对所述源端单语中的每句话按照相似程度进行排序,选择前面设定百分比的句子;获取上述“前面设定百分比的句子”进行人工翻译后的目标端单语;将所述人工翻译后的目标端单语和上述“前面设定百分比的句子”构成的平行语料加入到所述原始平行语料中,组成新的平行语料;用所述新的平行语料,训练出新的模型。
Description
技术领域
本发明涉及神经机器翻译,特别是涉及主动学习平行语料构建方法。
背景技术
随着计算机计算能力的提高以及大数据的应用,深度学习取得进一步的进展。基于深度学习的Neural Machine Translation越来越受到人们的关注。在NMT领域中,最常用的一种翻译模型是带有注意力机制(attention-based)的encoder-decoder模型。其主要思想是将待翻译的语句(在下文中统称为‘源语句’)经过编码器(encoder)编码成为一个向量表示,然后利用解码器(decoder)对源语句的向量表示进行解码,翻译成为其对应的译文(在下文中统称为‘目标语句’)。
在机器翻译的领域,低资源的语言对的翻译仍然面临着巨大的挑战。主要是低资源的平行语言对我们难以获得。为了获得平行语言对,我们常常通过对某一方的单语进行人工翻译,但人工翻译的成本是昂贵的,需要花费巨大的人力和时间。
主动学习(Active-Learning),是一种应用在对获取数据难、代价大的任务上。主动学习是从任务出发,主动的去构建对模型学习最重要的样本。因此,主动学习应用在机器翻译低资源的领域有着很好的效果。
传统技术存在以下技术问题:
现有的将active learning框架用到机器翻译上的:论文Active learning forstatistical phrase-based machine translation,Conference of the North AmericanChapter of the Association of Computational Linguistics.将主动学习的框架应用到统计机器翻译上,并验证了各种挑选句子的方法。
论文:Survey of data-selection methods in statistical machinetranslation,Machine Translation,pages 189–223.总结了挑选句子的一个调研,可以归纳与模型和数据这两个角度。
此前的主动学习中的一些挑选句子方法只是适用于统计机器翻译,但应用到神经机器翻译系统中,并不能解决问题,或者并没有什么效果。
此前的一些方法,只是单一的提出对数据的覆盖率,并没有对神经机器翻译的特征进行考虑。
当前,一个好的神经机器翻译模型需要大量的平行语料,在某些低资源的语言对里,很难获得相应的平行语料,但很多时候,我们可以获取大量的源端单语,并把这些单语交给专家翻译。在基于主动学习框架下,传统的一些方法并未真正的取得效果。
发明内容
基于此,有必要针对上述技术问题,提供一种主动学习平行语料构建方法。
一种主动学习平行语料构建方法,应用于低资源语言神经机器翻译,而且,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,包括:
获取原始平行语料和源端单语;
获取所述原始平行语料的embedding和所述源端单语的embedding;
计算所述源端单语中的每句话和所述平行语料的相似度,其中s是所述源端单语中的句子,emb(n)表示一个句子的embedding,Sscore(s)表示句子s和平行语料数据集的相似性,Sscore越大表示越不相似;
对所述源端单语中的每句话按照相似程度进行排序,选择前面设定百分比的句子;
获取上述“前面设定百分比的句子”进行人工翻译后的目标端单语;
将所述人工翻译后的目标端单语和上述“前面设定百分比的句子”构成的平行语料加入到所述原始平行语料中,组成新的平行语料;
用所述新的平行语料,训练出新的模型;
将上述“前面设定百分比的句子”从源端单语中删除,得到新的源端单语;
迭代上述过程,直到所述源端单语被选择完毕或者训练出的模型符合预期目标。
在另外的一个实施例中,“获取所述原始平行语料的embedding和所述源端单语的embedding;”中使用fasttext工具得到所述原始平行语料的embedding和所述源端单语的embedding。
上述主动学习平行语料构建方法,将主动学习框架应用到神经机器翻译低资源领域,并且提出了一个有效的挑选句子的方法,保证在每次迭代挑选出来的数据总是高质量,并能帮助模型更快的达到一个特定的效果。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述方法的步骤。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行任一项所述的方法。
附图说明
图1为本申请实施例提供的一种主动学习平行语料构建方法的流程图。
图2为本申请实施例提供的一种主动学习平行语料构建方法中的语义空间分布图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参阅图1,一种主动学习平行语料构建方法,应用于低资源语言神经机器翻译,而且,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,包括:
获取原始平行语料和源端单语;
获取所述原始平行语料的embedding和所述源端单语的embedding;
计算所述源端单语中的每句话和所述平行语料的相似度,其中s是所述源端单语中的句子,emb(n)表示一个句子的embedding,Sscore(s)表示句子s和平行语料数据集的相似性,Sscore越大表示越不相似;
对所述源端单语中的每句话按照相似程度进行排序,选择前面设定百分比的句子;
获取上述“前面设定百分比的句子”进行人工翻译后的目标端单语;
将所述人工翻译后的目标端单语和上述“前面设定百分比的句子”构成的平行语料加入到所述原始平行语料中,组成新的平行语料;
用所述新的平行语料,训练出新的模型;
将上述“前面设定百分比的句子”从源端单语中删除,得到新的源端单语;
迭代上述过程,直到所述源端单语被选择完毕或者训练出的模型符合预期目标。
在另外的一个实施例中,“获取所述原始平行语料的embedding和所述源端单语的embedding;”中使用fasttext工具得到所述原始平行语料的embedding和所述源端单语的embedding。
上述主动学习平行语料构建方法,将主动学习框架应用到神经机器翻译低资源领域,并且提出了一个有效的挑选句子的方法,保证在每次迭代挑选出来的数据总是高质量,并能帮助模型更快的达到一个特定的效果。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现任一项所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述方法的步骤。
一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行任一项所述的方法。
下面是本发明一个具体的应用场景:
针对于具体的任务,我们需要挑选出高质量的语料,最常见的一些方法都是从数据的覆盖率和模型的角度考虑的:
数据的覆盖率角度:这个方法主要可以从词或者n-gram的方面考虑,尽量挑选出在unlabeled data池中概率大的词、n-gram,并且相对于在labeled data池中概率低的这些数据,认为这些数据包含的信息量会更大。
模型的角度考虑:用当前的模型去从unlabeled data池中挑选数据,挑选那些对于当前模型翻译困难的数据,认为这些翻译困难的数据对当前的模型更重要。
针对于神经机器翻译,我们提出了基于语义相似度的方法去挑选语料,这种方法与从数据的覆盖率和模型角度挑选句子有很大的不同:对于已经挑选出来的语料,如果这些语料在语义上都很接近,语义的相似度都很小,那么这些语料在语义空间上的分布就很小,同样,如果这些语料的语义相似度很大,那么在,这些句子在语义空间上的分布就很广,这样训练出来的模型效果就很好。基于这样的思想,我们提出了基于语义相似度的方法去挑选高质量的语料。
主动学习(active learning)
针对于大量需要人工标注的数据,对所有的数据进行进行标注,总是需要巨大的代价。主动学习是一种半监督的机器学习技术,它的目的是从大量需要标注的数据中不断迭代的挑选出新的数据用于人工标注,这些挑选出来的数据是高质量的,是能够更快的得到一个高质量的模型,这样可以省去大量的时间和人力的消耗。
在机器翻译的领域中,我们训练一个翻译系统,需要平行语言对,针对于某些语言对,我们很难获得它们的平行语言对,对于这些低资源的语言,我们需要对一方面的单语进行人工标注,来获得相应的平行语言对。我们可以将主动学习框架用到机器翻译上,去构造一些高质量的平行语言对。
将主动学习框架应用到神经机器翻译低资源领域,并且我们提出了一个有效的挑选句子的方法,保证在每次迭代挑选出来的数据总是高质量,并能帮助模型更快的达到一个特定的效果。
步骤一:实验数据准备
少量的平行语料(L),大量的源端单语(U)
比如:我们要构建印尼语-英语的平行语料,印尼语-英语是低资源平行语料,我们只有少量的印尼语-英语的平行语料,但我们有大量的印尼语这个单语语料。
步骤二:挑选数据
从大量的单语中挑选N个高质量的数据。挑选数据的方法是上面背景里提到的挑选数据的一些方法,包括word(词)、n-gram(n元)和语义相似度的方法。
用语义相似度挑选句子的方法介绍:
(i)对于已经得到的平行语言L,存在一个特定的语义分布空间,我们需要从单语语料中挑选句子,我们根据语义的分布,我们从单语U中挑选出那些在语义上和L已经具有的语义分布最不相似的句子用于人工翻译,因为,我们认为,这样挑选出来的句子是有价值的,是能快速的提高模型的效果。
(ii)有效性的分析:对于平行语言L,已经涉及到的一些语义分布,模型已经可以学习的很好了,如果我们继续从U中挑选出在语义上相似于L的一些句子,当把这些句子人工标注后加入到L中重新训练的时候,我们会发现,这样对模型的改变和影响很小,而当我们挑选出那些越不相似的句子加入到L中后,会发现这些句子对模型的影响很大,因为,这些句子扩大了已有的语义分布空间,使得语义的分布更广。
(iii)如何判断句子间的语义相似程度:在神经机器翻译中,用embedding(词嵌入)这样的向量表示一个词,并且,embedding有一个重要的特征,在语义上相似的词的embedding在空间分布上,这些embedding距离很近,所以,我们可以用embedding去评判两个词的语义上的相似度,同样,在深度学习中,我们可以得到句子的embedding,判定两个句子的语义相似性,我们可以看两个句子的embedding在空间上的距离。具体做法:
获取句子embedding:我们用fasttext(https://github.com/aiweiw/fasttext-PVDM)这样的一个工具训练得到每句话的句子的embedding。
步骤三:得到挑选出来的句子的人工翻译
挑选出来的句子是从源端单语中句子,人工翻译就能得到它的目标端句子,这样就构造出新的平行语料。
(注释:人工翻译需要耗费大量的时间和人力,所以我们需要从大量单语中挑选出最重要的那些句子,也就是说的高质量的句子,这样,对部分高质量的数据翻译,效果上却能达到对所有数据翻译的效果,这样,就可以节省很多人工翻译带来的花费)
步骤四:
将新构造出来的平行语料,和原有的平行语料混合,训练出新的模型。
步骤五:
将上述“前面设定百分比的句子”从源端单语中删除,得到新的源端单语。
每次挑选出N个句子,迭代重复步骤二、步骤三、步骤四,步骤五。
我们提出将主动学习框架应用到NMT低资源领域,并提出了一个有效的根据语义挑选句子的方法,使得人们在处理NMT低资源标注领域可以有一个好的框架模型和选句子方法,更重要的是可以挑选出更有价值的句子,对NMT的模型有一个积极的影响,可以节省标注时间和人力的消耗。我们用随机挑选句子和前人用于统计机器翻译的三种方法作为我们的baseline,用语义相似度的方法和这三种方法比较。
我们的实验结果如下:
200k | 220k | 240k | 260k | 280k | 300k | 320k | |
random | 38.2 | 38.52 | 39.39 | 39.98 | 40.36 | 40.35 | 41.31 |
word | 38.2 | 39.29 | 38.85 | 40.6 | 40.35 | 40.82 | 41.31 |
ngram | 38.2 | 38.99 | 40.04 | 39.25 | 40.52 | 40.3 | 41.31 |
Sscore | 38.2 | 39.94 | 40 | 40.47 | 40.23 | 41.2 | 41.31 |
Table1:印尼语-英语
200k | 220k | 240k | 260k | 280k | 300k | |
random | 31.1 | 32.09 | 32.08 | 32.79 | 33 | 33.7 |
word | 31.1 | 31.39 | 31.63 | 32.15 | 32.96 | 33.4 |
ngram | 31.1 | 31.97 | 31.89 | 32.74 | 32.92 | 33.82 |
Sscore | 31.1 | 32.13 | 32.5 | 33.38 | 33.11 | 33.99 |
Table2:汉语-英语
我们分别在两个不同的语言对做实验,table1是印尼语-英语,是一种稀缺语言对。我们初始化L是200k,单语U是120K,每次迭代从U中挑选20k并拿到它的翻译加入到L中,得到一个NMT模型,并在第6次迭代,U中所有的数据都加到L中了。Table2是汉语-英语的实验,L是200k,单语U是1000K,每次迭代从U中挑选20k并拿到它的翻译加入到L中。表格中,random是随机挑选句子的方法,word和ngram是之前应用于统计机器翻译中的方法,Sscore是我们提出的语义相似度的方法。
从两个表格的实验结果来看,和随机挑选句子的方法相比,根据语义相似度挑选句子,总有一个好的效果,而前人的word和ngram在汉-英上并没有好的效果。并且在Table2,语义相似度挑选句子比word和ngram的方法都要好。在Table1中,语义相似度的方法能更快的达到一个好的翻译效果,在第5次迭代的时候,就和最终的结果非常接近,而其它方法没有。
因此,我们得出结论:我们的语义相似度方法和随机挑选句子和前人的两种的方法相比,在神经机器翻译中,我们的方法有一个好的效果,并且,也可以的出,统计机器翻译上的方法迁移到NMT上,并不一定有效果。以上的各个数据都是BLEU值。
参阅图2,语义空间分布图图中黑色的‘.’点是L的分布,红色‘+’是随机挑选句子方法的点,蓝色‘*’是我们根据语义相似度挑选出来的句子。
可以看出,黑色的点和红色的点主要分布在图的左边,而蓝色的点主要分布在图的右边。所以,根据语义相似度挑选出来的句子和原L形成的空间范围比随机挑选句子和原L形成的空间范围广,所以,我们的方法从图上也可以看出扩大了语义范围,所以有一个好的效果。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (5)
1.一种主动学习平行语料构建方法,应用于低资源语言神经机器翻译,而且,应用在基于注意力机制且采用encoder-decoder框架的NMT模型,其特征在于,包括:
获取原始平行语料和源端单语;
获取所述原始平行语料的embedding和所述源端单语的embedding;
计算所述源端单语中的每句话和所述原始平行语料的相似度,Sscore(s)=max(cos(emb(s),emb(l))),其中s是所述源端单语中的句子,emb(n)表示一l∈L
个句子的embedding,Sscore(s)表示句子s和平行语料数据集的相似性,Sscore越大表示越不相似;
对所述源端单语中的每句话按照相似程度进行排序,选择前面设定百分比的句子;
获取上述“前面设定百分比的句子”进行人工翻译后的目标端单语;
将所述人工翻译后的目标端单语和上述“前面设定百分比的句子”构成的平行语料加入到所述原始平行语料中,组成新的平行语料;
用所述新的平行语料,训练出新的模型;
将上述“前面设定百分比的句子”从所述源端单语中删除,得到新的源端单语;
迭代上述过程,直到所述源端单语被选择完毕或者训练出的模型符合预期目标。
2.根据权利要求1所述的主动学习平行语料构建方法,其特征在于,“获取所述原始平行语料的embedding和所述源端单语的embedding”中使用fasttext工具得到所述原始平行语料的embedding和所述源端单语的embedding。
3.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1到2任一项所述方法的步骤。
4.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1到2任一项所述方法的步骤。
5.一种处理器,其特征在于,所述处理器用于运行程序,其中,所述程序运行时执行权利要求1到2任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811026790.5A CN109284511B (zh) | 2018-09-04 | 2018-09-04 | 主动学习平行语料构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811026790.5A CN109284511B (zh) | 2018-09-04 | 2018-09-04 | 主动学习平行语料构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109284511A CN109284511A (zh) | 2019-01-29 |
CN109284511B true CN109284511B (zh) | 2023-05-16 |
Family
ID=65183936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811026790.5A Active CN109284511B (zh) | 2018-09-04 | 2018-09-04 | 主动学习平行语料构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109284511B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626065A (zh) * | 2019-02-26 | 2020-09-04 | 株式会社理光 | 神经机器翻译模型的训练方法、装置及存储介质 |
CN110309516B (zh) * | 2019-05-30 | 2020-11-24 | 清华大学 | 机器翻译模型的训练方法、装置与电子设备 |
CN111178094B (zh) * | 2019-12-20 | 2023-04-07 | 沈阳雅译网络技术有限公司 | 一种基于预训练的稀缺资源神经机器翻译训练方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106126505A (zh) * | 2016-06-20 | 2016-11-16 | 清华大学 | 平行短语学习方法及装置 |
CN107491441A (zh) * | 2016-06-13 | 2017-12-19 | 沈阳雅译网络技术有限公司 | 一种基于强制解码的动态抽取翻译模板的方法 |
CN108021560A (zh) * | 2017-12-07 | 2018-05-11 | 苏州大学 | 一种数据增强方法、系统、装置及计算机可读存储介质 |
CN108132932A (zh) * | 2017-12-27 | 2018-06-08 | 苏州大学 | 带有复制机制的神经机器翻译方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352244B2 (en) * | 2009-07-21 | 2013-01-08 | International Business Machines Corporation | Active learning systems and methods for rapid porting of machine translation systems to new language pairs or new domains |
-
2018
- 2018-09-04 CN CN201811026790.5A patent/CN109284511B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107491441A (zh) * | 2016-06-13 | 2017-12-19 | 沈阳雅译网络技术有限公司 | 一种基于强制解码的动态抽取翻译模板的方法 |
CN106126505A (zh) * | 2016-06-20 | 2016-11-16 | 清华大学 | 平行短语学习方法及装置 |
CN108021560A (zh) * | 2017-12-07 | 2018-05-11 | 苏州大学 | 一种数据增强方法、系统、装置及计算机可读存储介质 |
CN108132932A (zh) * | 2017-12-27 | 2018-06-08 | 苏州大学 | 带有复制机制的神经机器翻译方法 |
Non-Patent Citations (2)
Title |
---|
A Hierarchy-to-Sequence Attentional Neural Machine Translation Model;Jinsong Su;《IEEE/ACM Transactions on Audio, Speech, and Language Processing》;20180331;第623-631页 * |
基于枢轴语言的平行语料构建方法;单华等;《情报工程》;20170615(第03期);第29-38页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109284511A (zh) | 2019-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288593B2 (en) | Method, apparatus and device for extracting information | |
US10664666B2 (en) | Language conversion method and device based on artificial intelligence and terminal | |
CN109284511B (zh) | 主动学习平行语料构建方法 | |
CN106663092B (zh) | 具有罕见词处理的神经机器翻译系统 | |
CN105068997B (zh) | 平行语料的构建方法及装置 | |
JP2009543255A (ja) | パラレル・データを特定するために階層的かつ順次的なドキュメント・ツリーを対応付けること | |
CN109325242B (zh) | 基于词对和翻译判断句子是否对齐的方法、装置及设备 | |
CN112380837B (zh) | 基于翻译模型的相似句子匹配方法、装置、设备及介质 | |
Park et al. | Paraphrase diversification using counterfactual debiasing | |
CN112883193A (zh) | 一种文本分类模型的训练方法、装置、设备以及可读介质 | |
CN114722069A (zh) | 语言转换方法和装置、电子设备及存储介质 | |
CN113536795B (zh) | 实体关系抽取的方法、系统、电子装置和存储介质 | |
Zhang et al. | Active learning for neural machine translation | |
WO2023159767A1 (zh) | 目标词语的检测方法、装置、电子设备及存储介质 | |
CN112101014A (zh) | 一种混合特征融合的中文化工文献分词方法 | |
CN113609840B (zh) | 一种汉语法律判决摘要生成方法及系统 | |
Zhang et al. | Improving chinese word segmentation on micro-blog using rich punctuations | |
CN104331400A (zh) | 一种蒙古文编码转换方法和装置 | |
CN113204978A (zh) | 一种机器翻译增强训练方法及系统 | |
CN110321568B (zh) | 基于融合词性和位置信息的汉-越卷积神经机器翻译方法 | |
Vashistha et al. | Active learning for neural machine translation | |
US20190370328A1 (en) | Effective retrieval of text data based on semantic attributes between morphemes | |
Chen et al. | A preliminary evaluation of metadata records machine translation | |
CN116467412A (zh) | 一种基于知识图谱的问答方法、系统和存储介质 | |
CN115203388A (zh) | 机器阅读理解方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |