CN110688861B - 一种多特征融合的句子级译文质量估计方法 - Google Patents

一种多特征融合的句子级译文质量估计方法 Download PDF

Info

Publication number
CN110688861B
CN110688861B CN201910914342.7A CN201910914342A CN110688861B CN 110688861 B CN110688861 B CN 110688861B CN 201910914342 A CN201910914342 A CN 201910914342A CN 110688861 B CN110688861 B CN 110688861B
Authority
CN
China
Prior art keywords
word
feature
fusion
vectors
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910914342.7A
Other languages
English (en)
Other versions
CN110688861A (zh
Inventor
叶娜
王远远
蔡东风
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Aerospace University
Original Assignee
Shenyang Aerospace University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Aerospace University filed Critical Shenyang Aerospace University
Priority to CN201910914342.7A priority Critical patent/CN110688861B/zh
Publication of CN110688861A publication Critical patent/CN110688861A/zh
Application granted granted Critical
Publication of CN110688861B publication Critical patent/CN110688861B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开一种多特征融合的句子级译文质量估计方法,包括以下步骤:1)并行提取词预测特征、语境化词嵌入特征、依存句法特征以及基线特征;2)上述特征提取后,分别对各特征进行进一步整合,针对特征向量采用将各特征由Bi‑LSTM层编码后的最后一个隐状态直接相加的方式和将各个向量按指定维度拼接的方式进行融合;3)通过上述两种融合方式得到两种高维向量,利用sigmoid函数进行最终的HTER值即译文质量分数预测。本发明采用更有效的上下文敏感的语言表示模型进行建模,提出一种融入语境化词嵌入特征的方法,将其与词预测特征相结合,并显性地融入了依存句法特征和17个基线特征,构建了一个多特征融合的译文质量估计模型。

Description

一种多特征融合的句子级译文质量估计方法
技术领域
本发明涉及一种译文质量估计技术,具体为一种多特征融合的句子级译文质量估计方法。
背景技术
机器翻译通过机器学习方法实现不同语言对之间的转换,近年来取得了巨大的进步,尤其随着深度学习的出现与发展,神经机器翻译因其译文质量较高的优点逐步占据主流地位,而机器译文质量通常根据参考译文计算BLEU值进行评价,参考译文则是由预先提供,且在多数情况下是不易获取的,因此在实际应用中,BLEU值的评价指标显得不够现实。译文质量估计技术(Quality Estimation,QE)便是在无参考译文的情况下对机器译文的质量进行评价。
目前主流的基于深度学习的译文质量估计方法通常采用直接将双语句对输入到神经网络模型的词嵌入层中学习其词序列的向量表示,再进行双语句对之间的深层特征提取的做法,但是由于译文质量估计语料较为匮乏,导致训练过程中容易产生过拟合现象。因此为解决因数据稀少所带来的模型训练问题,研究人员提出引入预训练的词向量的方法,该方法能够减少模型中训练参数个数,有效缓解过拟合现象的发生,但是由于训练词向量所采用的语言模型限制,使得该词向量无法携带较为全面的上下文信息。且由于基于深度学习的译文质量估计模型需要额外的特定于句法分析任务的训练机制来学习双语句对中的隐藏句法,使得当前译文质量估计中的特征学习机制对句法特征的学习不够充分。因此如何更好的学习双语上下文知识以及句法信息在句子级译文质量估计研究中显得尤为重要。
发明内容
针对现有技术中基于神经网络的译文质量估计任务所采用的预训练的词嵌入无法有效利用上下文信息使得语义和句法信息的学习不够充分等不足,本发明要解决的问题是提供一种显性地融入依存句法特征、语境化词嵌入特征、词预测特征和多个基线特征的多特征融合的句子级译文质量估计方法。
为解决上述技术问题,本发明采用的技术方案是:
本发明一种多特征融合的句子级译文质量估计方法,包括以下步骤:
1)并行提取词预测特征、语境化词嵌入特征、依存句法特征以及基线特征;
2)上述特征提取后,分别对各特征进行进一步整合,针对特征向量采用将各特征由Bi-LSTM层编码后的最后一个隐状态直接相加的方式和将各个向量按指定维度拼接的方式进行融合;
3)通过上述两种融合方式得到两种高维向量,利用sigmoid函数进行最终的HTER值即译文质量分数预测。
步骤1)中,提取语境化词嵌入特征为:
采用基于上下文的语言表示模型BERT作为特征提取器,其使用双向transformer作为编码器,编码器中的self-attention操作将句子中每个词的位置信息进行编码融入,同时引入遮蔽机制利用输入语言的上下文信息,将其用作词嵌入模型以提取源语言和机器译文的语境化的词嵌入特征;
同时对源语言和机器输出译文进行编码,得到双语词嵌入并将其进行拼接作为一种特征。
步骤1)中提取依存句法特征为:
分别将源语言(x1,x2,…,xn)和机器译文(y1,y2,…,ym)输入到句法分析工具Stanford Parser中;
采用句法分析工具Stanford Parser对输入句子分别进行句法分析后,得到各个词与其中心词之间的依存元组(xi
Figure BDA0002215642830000021
relation),(yi
Figure BDA0002215642830000022
relation),其中xi表示源语言当前词,
Figure BDA0002215642830000023
表示源语言当前词对应的中心词,yi表示机器译文当前词,
Figure BDA0002215642830000024
表示机器译文当前词对应的中心词,relation表示其依存关系;
从依存元组中将中心词提取出来,并将两个句子的中心词信息进行拼接得到依存句法特征序列
Figure BDA0002215642830000025
其中
Figure BDA0002215642830000026
代表源语言每个词所对应的中心词,
Figure BDA0002215642830000027
表示机器译文中的每个词对应的中心词。
步骤2)中对各特征进行融合,是将各个特征分别输入到以LSTM为结点的双向循环神经网络中进一步学习后,再整合各个最终得到的隐藏状态作为最终双语信息表征向量,进而用于译文质量估计分数的计算;模型的构建以RNN为基础,采用RNN的变体—长短时记忆网络作为基本的网络单元编码各个特征序列内部之间的联系,具体为:
分别输入提取的双语特征向量序列,经Bi-LSTM编码后,保留最后一个隐状态向量作为输出;
针对特征向量提出两种不同的融合方式,第一种是将各特征由Bi-LSTM层编码后的最后一个隐状态直接相加的方式,将向量空间约束在一定范围内,采用对该向量取均值,即算术平均的策略,该策略默认每一个特征的重要程度都相同,即给每一个特征设置固定权重,公式如下:
H1=(HB+Hs+Hw)/3
其中,H1是采用第一种融合方式得到的融合向量,HB、HS、HW分别表示语境化词嵌入特征隐状态、依存句法特征隐状态和词预测特征隐状态。
步骤2)中,针对特征向量提出两种不同的融合方式,第二种是将各个向量按指定维度拼接的方式,从最终得到的融合后的特征向量分析,该方式未修改各个特征的任何维度内容,使得每一个特征所携带的信息得到充分表达,公式如下:
H2=[HB;Hs;Hw]。
其中,H2是采用第二种融合方式得到的融合向量。
步骤2)中,最后分别将两种方式所得到的特征融合向量与基线特征Ho进行拼接,作为最终的特征融合向量,拼接方式如下所示:
H=[Hi;Ho] (i=1,2)
H表示最终融合向量。
本发明具有以下有益效果及优点:
1.本发明句子级译文质量估计任务中,从增强双语信息的语义及结构表征入手,采用更有效的上下文敏感的语言表示模型进行建模,提出一种融入语境化词嵌入特征的方法,将其与词预测特征相结合,并显性地融入了依存句法特征和17个基线特征,构建了一个多特征融合的译文质量估计模型。
2.本发明提出的多特征融合的方法能够更好的对双语信息进行表征,且进一步提高了句子级译文质量估计任务中机器自动评分与人工评分之间的相关性。
附图说明
图1为本发明方法中的词预测特征提取过程示意图;
图2为本发明方法中的语境化词嵌入特征提取过程示意图;
图3为本发明方法中的特征融合模型整体架构示意图。
具体实施方式
下面结合说明书附图对本发明作进一步阐述。
本发明一种多特征融合的句子级译文质量估计方法按照“特征抽取-特征融合-质量估计”进行译文质量估计功能的实现,整体框架如图3,包括以下步骤:
1)并行提取词预测特征、语境化词嵌入特征、依存句法特征以及基线特征;
2)上述特征提取后,分别对各特征进行进一步整合,针对特征向量采用将各特征由Bi-LSTM层编码后的最后一个隐状态直接相加的方式和将各个向量按指定维度拼接的方式进行融合;
3)通过上述两种融合方式得到两种高维向量,利用sigmoid函数进行最终的HTER值即译文质量分数预测。
本发明从特征方面入手,在句子级译文质量估计研究中融合多种特征,提出加入预训练的语境化词嵌入作为一种深层特征来代替传统词嵌入,利用该特征强大的表义能力,改进过去采用传统词嵌入而导致的上下文信息携带不足问题;为了更好的学习双语句对句法之间的相关联系,显性的引入了依存句法特征;通过不同的特征融合方式将这两种特征与其他模型所提取的深度学习特征以及基线特征进行融合,以达到语义与句法结构信息增强表示的效果,进而提高译文质量估计的准确性。
步骤1)中,提取词预测特征是基于循环神经网络(Recurrent Neural Network,RNN),在已知源语言和目标语言的情况下,随机选择目标语言中的一个词对其进行遮蔽,并根据源语言和目标语言上下文对该词进行恢复。模型基于注意力机制的双向RNN的编码器-解码器框架。在编码器模块将源语言信息通过双向RNN进行编码,得到基于注意力机制的源语言句向量信息cj。解码器在编码器-解码器框架基础上引入反向RNN解码结构,用来进一步学习目标词的下文信息。基于RNN的词预测模型以源语言信息x和目标词上下文y-j,定义目标词yj的预测概率如下所示:
Figure BDA0002215642830000041
其中,g是一个非线性函数,利用
Figure BDA0002215642830000042
[yj-1;yj+1]和cj来预测目标词yj的概率,
Figure BDA0002215642830000043
Figure BDA0002215642830000044
Figure BDA0002215642830000045
的拼接,
Figure BDA0002215642830000046
Figure BDA0002215642830000047
是前向RNN和后向RNN在目标句中的隐含状态,yj是目标词的one-hot向量,Ky是目标语言词汇表大小,wo是权重矩阵,yk为目标语言词汇表中第k个词的one-hot向量,k为目标词表中中词的索引,tj作为中间表示,可由以下公式表示:
Figure BDA0002215642830000048
Figure BDA0002215642830000049
其中,So,Vo,Uo分别是权重矩阵,
Figure BDA00022156428300000410
是目标词的词嵌入向量,tj是中间输出向量维数。
由于该数值中包含了关于目标词是否正确地从源语句中翻译过来的质量信息,因此将该部分质量信息以质量向量的形式提取出来作为双语特征。
质量向量由如下计算得出:
qj=[(yj ТWo)⊙tj Т]Т
其中⊙表示逐元素相乘。具体提取过程如图1所示。
步骤1)中,提取语境化词嵌入特征采用基于上下文的语言表示模型BERT(Bidirectional Encoder Representations from Transformers)。BERT作为一种双向语言模型结构,使用双向transformer作为编码器,其中的self-attention操作将句子中每个词的位置信息进行编码融入,同时引入了遮蔽(mask)机制从而利用了输入语言的上下文信息。本发明将其用作词嵌入模型以提取源语言和机器译文的语境化的词嵌入特征。由于BERT允许将多个文本同时输入,因此同时对源语言和机器输出译文进行编码,得到双语词嵌入并将其进行拼接作为一种特征。
图2给出了语境化词嵌入特征的提取过程,其中xi、yi分别表示源语言和机器译文的每个词,将其拼接输入到开源模型Pre-trained BERT model(https://github.com/google-research/bert)中进行语境化词嵌入抽取,输出词嵌入向量vi
步骤1)中,提取依存句法特征,首先分别将源语言(x1,x2,…,xn)和机器译文(y1,y2,…,ym)作为输入。
然后采用广泛使用的句法分析工具Stanford Parser(https://nlp.stanford.edu/software/lex-parser.shtml)对输入句子分别进行句法分析后,得到各个词与其中心词之间的依存元组(xi
Figure BDA0002215642830000051
relation),(yi
Figure BDA0002215642830000052
relation),其中xi表示源语言当前词,
Figure BDA0002215642830000053
表示源语言当前词对应的中心词,yi表示机器译文当前词,
Figure BDA0002215642830000054
表示机器译文当前词对应的中心词,relation表示其依存关系。
本发明将中心词从依存元组中提取出来,并将两个句子的中心词信息进行拼接得到依存句法特征序列
Figure BDA0002215642830000055
这里
Figure BDA0002215642830000056
代表源语言每个词所对应的中心词,
Figure BDA0002215642830000057
表示机器译文中的每个词对应的中心词。
步骤1)中的提取基线特征:
除了由神经网络提取的连续稠密的向量特征以外,WMT官方提供了由人工抽取的17个双语特征,这些特征虽然仅涉及双语句对的表层特征,但是相比于由神经网络抽取的高维向量特征更为直观且解释性更强,因此将这些人工特征与其他深度学习特征结合,一同对双语信息进行更深入更全面的表示,这些特征主要为语言学特征(https://www.quest.dcs.shef.ac.uk/wmt18_files_qe/features_de_en.tar.gz)。
步骤2)中对各特征进行融合:
由于本发明所采用的特征提取模型及方法不同,使得各个特征在向量维度上存在较大差异,为了不使特征信息因维度转换、变形等策略而缺失或修改,因此与传统的将特征在前期就进行向量化拼接融合再用于后续模型计算的方式不同,本发明采用后期融合的方法将各个特征分别输入到基于双向循环神经网络的译文质量估计模型中进一步学习后,再融合各个最终得到的隐藏状态作为最终双语信息表征向量,进而用于译文质量估计分数的计算。
在该部分的网络选择方面,模型的构建以RNN为基础,RNN因其能够将当前时刻之前的信息进行记忆并用于当前时刻计算的特点在处理序列问题方面具有较强的优越性。同时由于BERT特征和句法特征是将源语言和目标语言序列同时输入到各特征提取模块得到的,导致部分特征序列较长,因此为了更好的编码学习长序列特征的内部信息,在本发明中采用RNN的变体—长短时记忆网络(Long Short-Term Memory,LSTM)作为基本的网络单元编码各个特征序列内部之间的联系,具体如下:
首先分别输入步骤1)中提取的双语特征向量序列,经Bi-LSTM编码后,保留最后一个隐状态向量作为输出。
其次,分别对所提取的向量特征进一步整合学习后进行特征融合,在特征融合阶段,针对特征向量提出了两种不同的融合方式:
第一种是将各特征由Bi-LSTM层编码后的最后一个隐状态直接相加(Add)的方式,但是为了避免相加后的融合向量的模过大,需将向量空间约束在一定范围内,因此我们采用对该向量取均值,即算术平均的策略,该策略默认每一个特征的重要程度都相同,即给每一个特征设置固定权重,公式如下:
H1=(HB+Hs+Hw)/3
其中HB、HS、HW分别表示语境化词嵌入特征隐状态、依存句法特征隐状态和词预测特征隐状态。
第二种是将各个向量按指定维度拼接(Concatenate)的方式,从最终得到的融合后的特征向量分析,该方式未修改各个特征的任何维度内容,使得每一个特征所携带的信息得到充分表达。公式如下:
H2=[HB;Hs;Hw]
在以上两种融合方式中我们未添加新的网络层,而是采用直接将各个特征进行融合的方法,均没有增加模型参数,因此未对模型的训练速度造成影响。
最后分别将两种方式所得到的特征融合向量与基线特征Ho进行拼接,作为最终的特征融合向量,由于该部分基线特征是由各双语句对所抽取出的17个浮点数,因此拼接融合方式未对训练负担造成影响。拼接方式如下所示:
H=[Hi;Ho] (i=1,2)
H表示最终融合向量。
句子级译文质量估计任务在句子层面上对整体翻译质量进行评价,即为机器译文整体质量进行评分,其本质是计算机器译文与经人工编辑后的后编辑译文之间的最小编辑距离即HTER值,该值越小则说明该机器译文翻译质量越高。其工作流程如图3,即输入源语言和机器译文,通过上述方法提取特征,经由图3中Bi-LSTM层进行学习后输出译文评价分数HTER。
如下实例:
源语言:NeoSpect ist ein radioaktives Arzneimittel für diagnostischeZwecke.
机器译文:NeoSpect is a radioactive medicinal products for diagnosticuse.
系统输出HTER:0.000032
下面以德-英译文质量估计任务为例,即对英文机器译文的质量进行估计。实验所使用的语料包括两部分,一部分是训练词预测模型的大规模双语句对,该语料来源于WMT机器翻译任务发布的平行语料库,语料包括Europarl v7、Common Crawl corpus、NewsCommentary v11等。为了提高实验性能,对语料进行了过滤,剔除过长与过短句对,以及双语句长比值超过一定阈值的句对;另一部分QE数据来自WMT’2017QE任务。表1给出了关于实验所采用语料的具体数量信息。
表1双语数据集和QE数据集
Figure BDA0002215642830000071
为了评价译文质量估计系统的性能,一般使用皮尔逊相关系数(Pearson)、斯皮尔曼相关系数(Spearman)、平均绝对误差(Mean Absolute Error,MAE)和均方误差(RootMean Squared Error,RMSE)等四个评价指标,为了比较单个特征以及不同的特征组合对译文质量估计效果的影响,本实施例在控制变量的条件下进行了多组对比实验。
表2算术求和融合策略各系统性能
Figure BDA0002215642830000072
其中“W-P”和“BERT”分别表示仅使用词预测特征的系统和仅使用基于BERT的语境化词嵌入特征的系统;“W-P+SYNTAX”表示词预测特征与句法特征融合系统;“W-P+BERT”表示词预测特征与基于BERT的语境化词嵌入特征融合系统;“W-P+BERT+others”表示将词预测特征与语境化词嵌入特征和其他17个基线特征进行融合;“W-P+BERT+SYNTAX+others”表示将所有特征进行融合;“POSTECH(single)”表示公开数据中仅采用预测器-估计器单模型系统所得实验结果,将其与本实施例的实验结果进行对比。
同时,为了对比两种不同融合策略对多特征融合的译文质量估计系统性能的影响,本发明在融合上述所有特征的系统上做了一组对比实验,表3所示是该特征组合下采用两种特征融合方式的实验结果。且通过对比分析,发现拼接方式的融合策略效果略低于(是本发明方案的优点)算数求和方式。
表3不同融合策略的特征融合系统性能
Figure BDA0002215642830000073
由表2可以看出,多特征融合的句子级译文质量估计方法的最佳系统相比于POSTECH(single)基线系统提升了0.31个百分点。因此上述实验证明了本发明即多特征融合的句子级译文质量估计方法的有效性。

Claims (4)

1.一种多特征融合的句子级译文质量估计方法,其特征在于包括以下步骤:
1)并行提取词预测特征、语境化词嵌入特征、依存句法特征以及基线特征;
2)上述特征提取后,分别对各特征进行进一步整合,针对特征向量采用将各特征由Bi-LSTM层编码后的最后一个隐状态直接相加的方式和将各个向量按指定维度拼接的方式进行融合;
3)通过上述两种融合方式得到两种高维向量,分别将两种方式所得到的特征融合向量与基线特征Ho进行拼接,作为最终的特征融合向量,利用sigmoid函数进行最终的HTER值即译文质量分数预测;
步骤1)中,提取语境化词嵌入特征为:
采用基于上下文的语言表示模型BERT作为特征提取器,其使用双向transformer作为编码器,编码器中的self-attention操作将句子中每个词的位置信息进行编码融入,同时引入遮蔽机制利用输入语言的上下文信息,将其用作词嵌入模型以提取源语言和机器译文的语境化的词嵌入特征;
同时对源语言和机器输出译文进行编码,得到双语词嵌入并将其进行拼接作为一种特征;。
步骤1)中提取依存句法特征为:
分别将源语言(x1,x2,...,xn)和机器译文(y1,y2,...,ym)输入到句法分析工具Stanford Parser中;
采用句法分析工具Stanford Parser对输入句子分别进行句法分析后,得到各个词与其中心词之间的依存元组
Figure FDA0003925970270000011
其中xi表示源语言当前词,
Figure FDA0003925970270000012
表示源语言当前词对应的中心词,yi表示机器译文当前词,
Figure FDA0003925970270000013
表示机器译文当前词对应的中心词,relation表示其依存关系;
从依存元组中将中心词提取出来,并将两个句子的中心词信息进行拼接得到依存句法特征序列
Figure FDA0003925970270000014
其中
Figure FDA0003925970270000015
代表源语言每个词所对应的中心词,
Figure FDA0003925970270000016
表示机器译文中的每个词对应的中心词;
2.根据权利要求1所述的多特征融合的句子级译文质量估计方法,其特征在于步骤2)中对各特征进行融合,是将各个特征分别输入到以LSTM为结点的双向循环神经网络中进一步学习后,再整合各个最终得到的隐藏状态作为最终双语信息表征向量,进而用于译文质量估计分数的计算;模型的构建以RNN为基础,采用RNN的变体-长短时记忆网络作为基本的网络单元编码各个特征序列内部之间的联系,具体为:
分别输入提取的双语特征向量序列,经Bi-LSTM编码后,保留最后一个隐状态向量作为输出;
针对特征向量提出两种不同的融合方式,第一种是将各特征由Bi-LSTM层编码后的最后一个隐状态直接相加的方式,将向量空间约束在一定范围内,采用对该向量取均值,即算术平均的策略,该策略默认每一个特征的重要程度都相同,即给每一个特征设置固定权重,公式如下:
H1=(HB+Hs+Hw)/3
其中,H1是采用第一种融合方式得到的融合向量,HB、HS、Hw分别表示语境化词嵌入特征隐状态、依存句法特征隐状态和词预测特征隐状态。
3.根据权利要求1所述的多特征融合的句子级译文质量估计方法,其特征在于步骤2)中,针对特征向量提出两种不同的融合方式,第二种是将各个向量按指定维度拼接的方式,从最终得到的融合后的特征向量分析,该方式未修改各个特征的任何维度内容,使得每一个特征所携带的信息得到充分表达,公式如下:
H2=[HB;Hs;Hw]
其中,H2是采用第二种融合方式得到的融合向量。
4.根据权利要求1所述的多特征融合的句子级译文质量估计方法,其特征在于步骤3)中,拼接方式如下所示:
H=[Hi;Ho](i=1,2)
H表示最终融合向量。
CN201910914342.7A 2019-09-26 2019-09-26 一种多特征融合的句子级译文质量估计方法 Active CN110688861B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910914342.7A CN110688861B (zh) 2019-09-26 2019-09-26 一种多特征融合的句子级译文质量估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910914342.7A CN110688861B (zh) 2019-09-26 2019-09-26 一种多特征融合的句子级译文质量估计方法

Publications (2)

Publication Number Publication Date
CN110688861A CN110688861A (zh) 2020-01-14
CN110688861B true CN110688861B (zh) 2022-12-27

Family

ID=69110177

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910914342.7A Active CN110688861B (zh) 2019-09-26 2019-09-26 一种多特征融合的句子级译文质量估计方法

Country Status (1)

Country Link
CN (1) CN110688861B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11429352B2 (en) 2020-07-01 2022-08-30 International Business Machines Corporation Building pre-trained contextual embeddings for programming languages using specialized vocabulary
US11748567B2 (en) * 2020-07-10 2023-09-05 Baidu Usa Llc Total correlation variational autoencoder strengthened with attentions for segmenting syntax and semantics
CN111862956B (zh) * 2020-07-27 2022-07-12 腾讯科技(深圳)有限公司 一种数据处理方法、装置、设备及存储介质
CN111783478B (zh) * 2020-08-18 2022-04-05 Oppo广东移动通信有限公司 机器翻译质量估计方法、装置、设备及存储介质
CN112926335A (zh) * 2021-01-25 2021-06-08 昆明理工大学 融入共享主题特征的汉越新闻观点句抽取方法
CN113515960B (zh) * 2021-07-14 2024-04-02 厦门大学 一种融合句法信息的翻译质量自动评估方法
CN113935329B (zh) * 2021-10-13 2022-12-13 昆明理工大学 基于自适应特征识别与去噪的非对称文本匹配方法
CN117686691B (zh) * 2024-02-01 2024-04-26 江苏嘉通能源有限公司 一种基于张力分析的涤锦复合丝质量检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103678285A (zh) * 2012-08-31 2014-03-26 富士通株式会社 机器翻译方法和机器翻译系统
CN107357789A (zh) * 2017-07-14 2017-11-17 哈尔滨工业大学 融合多语编码信息的神经机器翻译方法
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法
CN108563640A (zh) * 2018-04-24 2018-09-21 中译语通科技股份有限公司 一种多语言对的神经网络机器翻译方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102069692B1 (ko) * 2017-10-26 2020-01-23 한국전자통신연구원 신경망 기계번역 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103678285A (zh) * 2012-08-31 2014-03-26 富士通株式会社 机器翻译方法和机器翻译系统
CN107357789A (zh) * 2017-07-14 2017-11-17 哈尔滨工业大学 融合多语编码信息的神经机器翻译方法
CN107967262A (zh) * 2017-11-02 2018-04-27 内蒙古工业大学 一种神经网络蒙汉机器翻译方法
CN108563640A (zh) * 2018-04-24 2018-09-21 中译语通科技股份有限公司 一种多语言对的神经网络机器翻译方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A Bayesian non-linear method for feature selection in machine translation quality estimation;SHAH K. etal.;《Machine Translation》;20151231;第29卷(第2期);第101-125页 *
基于多特征的英汉术语译文质量自动评价;李楠 等;《沈阳航空航天大学学报》;20141231;第31卷(第6期);第59-65页 *

Also Published As

Publication number Publication date
CN110688861A (zh) 2020-01-14

Similar Documents

Publication Publication Date Title
CN110688861B (zh) 一种多特征融合的句子级译文质量估计方法
CN110348016B (zh) 基于句子关联注意力机制的文本摘要生成方法
CN111241294B (zh) 基于依赖解析和关键词的图卷积网络的关系抽取方法
CN110390397B (zh) 一种文本蕴含识别方法及装置
CN107967262A (zh) 一种神经网络蒙汉机器翻译方法
CN111160050A (zh) 一种基于上下文记忆网络的篇章级神经机器翻译方法
CN110688862A (zh) 一种基于迁移学习的蒙汉互译方法
CN110083710A (zh) 一种基于循环神经网络与潜变量结构的词语定义生成方法
CN111966812B (zh) 一种基于动态词向量的自动问答方法和存储介质
CN111597778A (zh) 一种基于自监督的机器翻译译文自动优化的方法和系统
CN112052692A (zh) 一种基于语法监督和深度强化学习的蒙汉神经机器翻译方法
CN109992775A (zh) 一种基于高级语义的文本摘要生成方法
CN112163425A (zh) 基于多特征信息增强的文本实体关系抽取方法
CN111125333B (zh) 一种基于表示学习与多层覆盖机制的生成式知识问答方法
CN113657123A (zh) 基于目标模板指导和关系头编码的蒙语方面级情感分析方法
CN114818717A (zh) 融合词汇和句法信息的中文命名实体识别方法及系统
CN110717345A (zh) 一种译文重对齐的循环神经网络跨语言机器翻译方法
CN114254645A (zh) 一种人工智能辅助写作系统
CN115510236A (zh) 基于信息融合和数据增强的篇章级事件检测方法
CN114757184A (zh) 实现航空领域知识问答的方法和系统
CN112579739A (zh) 基于ELMo嵌入与门控自注意力机制的阅读理解方法
CN112464673B (zh) 融合义原信息的语言含义理解方法
CN115840815A (zh) 基于指针关键信息的自动摘要生成方法
CN115510230A (zh) 一种基于多维特征融合与比较增强学习机制的蒙古语情感分析方法
CN112989845B (zh) 一种基于路由算法的篇章级神经机器翻译方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant