CN109670180A - 向量化译员的翻译个性特征的方法及装置 - Google Patents
向量化译员的翻译个性特征的方法及装置 Download PDFInfo
- Publication number
- CN109670180A CN109670180A CN201811570883.4A CN201811570883A CN109670180A CN 109670180 A CN109670180 A CN 109670180A CN 201811570883 A CN201811570883 A CN 201811570883A CN 109670180 A CN109670180 A CN 109670180A
- Authority
- CN
- China
- Prior art keywords
- bilingual
- sample
- interpreter
- translation
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提供一种向量化译员的翻译个性特征的方法及装置,所述方法包括:基于多位译员的历史翻译语料构建双语样本集;将双语样本集输入至词向量模型中,输出词向量;将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练;将每位译员自身的双语语料集输入至训练完成的LSTM网络中进行训练,保持编码器模型参数不变,获得译员对应的LSTM网络;基于译员对应的LSTM网络中解码器模型的参数生成译员向量。本发明实施例不需要对译员的个性特征进行筛选,也无须对样本数据进行人工标注,训练成本低、精度高,所获得的译员向量能够准确客观地反映译员的翻译个性特征。
Description
技术领域
本发明实施例涉及自然语言处理技术领域,更具体地,涉及一种向量化译员的翻译个性特征的方法及装置。
背景技术
随着人工智能的发展,机器翻译的质量不断的提高,基于机器翻译的后编辑成为了译员翻译的一种新趋势。在很多时候,不同的译员对同一句原文的翻译存在着或多或少的不同,例如存在着措辞用句上的差异。这种差异与每个译员的个人特征属性相关,其中包括:年龄、性别、生活地域、性格、社会背景、教育经历,以及个人经历等。通过理解个人特征属性对译员翻译偏好差异的影响,可以更好地为译员提供更加个性化的辅助翻译,从而提升译员的翻译工作效率。
例如,在后编辑模式下,辅助翻译工具调用机器翻译引擎结果给出一个翻译初稿,再由专业的翻译人员在此基础上进行审校和编辑,产生高质量的译文结果。当考虑了译员在翻译上的个性化特征,辅助翻译工具可以从多个机器翻译引擎译文中选取一个译员最偏爱的结果,这往往能够减少译员后编辑的工作量;反之,当译员获得一个非个性化推荐的译文时,她/他往往需要花更多时间和精力来进行后编辑工作以达到个人满意的翻译结果。类似地,在翻译稿件自动派单以及术语语料提示等方面,引入译员个性化的特征也能够起到比较积极的作用。
然而,在构建个性化的辅助翻译前,需要考虑的一个问题是如何去量化每个译员的个人特征属性。传统的做法是人工打标签的方式显示地标注译员个人特征属性,并利用监督型机器学习的算法去构建相关的模型。然而这种方法有两个明显的缺点:一是客观且全面地反映出一个译员个性需要筛选出一些相关度高的个人特征,并不是一件容易的事情;二是人工标注数据集是一项耗时耗力的工作并且成本非常高。
发明内容
本发明实施例提供一种克服上述问题或者至少部分地解决上述问题的向量化译员的翻译个性特征的方法及装置。
第一方面,本发明实施例提供一种向量化译员的翻译个性特征的方法,包括:
选取T位译员,从每位译员所翻译过的历史语料中选取M对双语语料样本构建译员自身的双语语料集,所有译员自身的双语语料集组成双语样本集,并对所述双语样本集进行预处理;
将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量;
将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络;
将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得所述译员对应的LSTM网络;
基于所述译员对应的LSTM网络中解码器模型的参数,生成反映所述译员的翻译个性特征的译员向量;
其中,一对双语语料样本包括一个原文句子和一个译文句子;所述词向量模型是基于最新的维基百科的原文语料集和译文语料集,利用Skip-Gram算法训练获得的;T和M均为大于1的自然数。
第二方面,本发明实施例提供一种向量化译员的翻译个性特征的装置,包括:
样本构建模块,用于选取T位译员,从每位译员所翻译过的历史语料中选取M对双语语料样本构建译员自身的双语语料集,所有译员自身的双语语料集组成双语样本集,并对所述双语样本集进行预处理;
词向量获取模块,用于将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量;
通用模型训练模块,用于将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络;
个性化训练模块,用于将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得所述译员对应的LSTM网络;
向量化模块,用于基于所述译员对应的LSTM网络中解码器模型的参数,生成反映所述译员的翻译个性特征的译员向量;
其中,一对双语语料样本包括一个原文句子和一个译文句子;所述词向量模型是基于最新的维基百科的原文语料集和译文语料集,利用Skip-Gram算法训练获得的;T和M均为大于1的自然数。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面所提供的向量化译员的翻译个性特征的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的向量化译员的翻译个性特征的方法的步骤。
本发明实施例提供的向量化译员的翻译个性特征的方法及装置,根据译员的历史翻译语料对基于LSTM网络的编码器模型和解码器模型进行训练,从而获得反映每个译员个性翻译特征的译员向量,不需要对译员的个性特征进行筛选,也无须对样本数据进行人工标注,训练成本低、精度高,所获得的译员向量能够准确客观地反映译员的翻译个性特征。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的向量化译员的翻译个性特征的方法的流程示意图;
图2为本发明实施例提供的编码器模型将原文编码成句向量的示意图;
图3为本发明实施例提供的解码器模型基于句向量生成译文的示意图;
图4为本发明实施例提供的训练译员对应的LSTM网络的示意图;
图5为本发明实施例提供的向量化译员的翻译个性特征的装置的结构示意图;
图6为本发明实施例提供的电子设备的实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,为本发明实施例提供的向量化译员的翻译个性特征的方法的流程示意图,包括:
步骤100、选取T位译员,从每位译员所翻译过的历史语料中选取M对双语语料样本构建译员自身的双语语料集,所有译员自身的双语语料集组成双语样本集,并对所述双语样本集进行预处理;
具体地,为了获取译员的翻译个性特征,需利用译员翻译过的历史语料。
选取T位译员,例如,T={t1,t2,t3,…tn},并从每个译员所翻译过历史语料中各选取M对双语语料样本,M对双语语料样本构成译员自身的双语语料集。
其中,一对双语语料样本包括一个原文句子和一个译文句子。
例如,选取M对从中文到英文的双语语料,则译员自身的双语语料集={mi1,mi2,…,miM},双语样本集={m11,m12,…m1M,m21,m22,…,m2M,…,mT1,mT2,…,mTM},其中mij代表第i位译员的第j条中文到英文的语料。
值得说明的是,T和M均为大于1的自然数。
对所述双语样本集进行预处理包括以下操作:对所述双语样本集中的每个原文句子和译文句子进行分词处理,并打乱所述双语样本集中句子之间原有的顺序;将所述双语样本集按照一定的比例划分为训练样本集和验证样本集,例如选取其中百分之八十的数据作为训练样本集,剩余的百分之二十作为验证样本集。
步骤101、将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量;
具体地,词向量是根据语料中固定大小窗口内的词语序列训练得到的,能够学习到词语的语义和语法信息,是一种低维、稠密的实值向量表现形式,通过词向量之间的向量运算可以获得词语之间的相关性关系。
将经过预处理的所述双语样本集中的每对双语语料样本逐一输入至预先训练好的词向量模型中,其中,针对原文语料,有预先训练好的原文词向量模型,将经过分词处理的原文句子输入到原文词向量模型中,会输出原文句子对应的词向量,同样地,针对译文语料,将译文语料输入到预先训练好的译文词向量模型中,会输出译文句子对应的词向量。
在本发明实施例中,词向量模型是基于最新的维基百科的原文语料集和译文语料集,利用Skip-Gram算法训练获得的。Skip-Gram算法适合大规模语料词向量的训练。使用Skip-Gram算法获得的词向量,能够很好的反映词语之间的语义相关性。
步骤102、将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络;
具体地,利用所述双语样本集划分出来的训练样本集和验证样本集,以及步骤101中预训练的词向量,对基于序列到序列框架的神经网络模型进行训练,获得一个通用的LSTM网络。
基于序列到序列的模型包含两大模块:编码器和解码器。编码器使用循环神经网络LSTM(Long Short-Term Memory)将原文句子编码成向量,解码器通过此向量生成译文句子。
通过比较解码器模型输出的译文与标准译文之间的差异,进行编码器模型参数和解码器模型参数的更新,从而优化模型,减小解码器模型输出的译文与标准译文之间的差异。
步骤103、将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得所述译员对应的LSTM网络;
具体地,在获得了一个通用的LSTM网络的基础上,利用每位译员自身的的双语语料集继续训练该通用的LSTM网络,其中,训练过程中保持该通用的LSTM网络的编码器模型参数不变,获得针对每位译员的LSTM网络。
每位译员的LSTM网络具有如下功能:将原文语料输入到每位译员对应的LSTM网络中,可以获得符合该译员个人翻译特征的译文。可以理解的是,通过训练获得每位译员对应的LSTM网络,该LSTM网络中解码器模型的参数能够反映该译员的翻译个性特征。
本发明实施例只需要根据译员所翻译过的历史语料就可以获取该译员的翻译个性特征,不需要对译员的个性特征进行筛选,也无须对样本数据进行人工标注。
步骤104、基于所述译员对应的LSTM网络中解码器模型的参数,生成反映所述译员的翻译个性特征的译员向量;
最后,本发明实施例的目的是为了对译员的翻译个性特征进行量化,因此,基于每位译员对应的LSTM网络中解码器模型的参数生成每位译员的译员向量,该译员向量能够反映译员的翻译个性特征,从而实现了将译员的翻译个性特征量化为某个维度下的稠密向量。
借助译员向量,辅助翻译工具可以从多个机器翻译引擎译文中选取一个最符合译员翻译个性的结果,从而减少译员后编辑的工作量;在翻译稿件自动派单以及术语语料提示等方面,借助译员向量也能够起到比较积极的作用。
本发明实施例提供的向量化译员的翻译个性特征的方法,根据译员的历史翻译语料对基于LSTM网络的编码器模型和解码器模型进行训练,从而获得反映每个译员个性翻译特征的译员向量,不需要对译员的个性特征进行筛选,也无须对样本数据进行人工标注,训练成本低、精度高,所获得的译员向量能够准确客观地反映译员的翻译个性特征。
基于上述实施例的内容,训练所述词向量模型的步骤,具体为:
从最新的维基百科获取与所述双语样本集语种相同的原文语料集和译文语料集,并对所述原文语料集和译文语料集中的每个句子进行分词处理;
基于经过分词处理的所述原文语料集和译文语料集,利用Skip-Gram算法分别进行词向量的训练,训练完成后获得原文词向量模型和译文词向量模型。
具体地,根据双语样本集中原文句子和译文句子的语种,例如双语样本集中原文为中文、译文为英文,则从最新的维基百科中分别下载与双语样本集语种相同的中文语料集和英文语料集,并利用现有的分词算法对所获取的中文语料集和英文语料集中的每个句子进行分词处理。
然后,基于经过分词处理的所述原文语料集和译文语料集,利用Skip-Gram算法分别进行词向量的训练,训练完成后获得原文词向量模型和译文词向量模型。
在一个实施例中,利用Skip-Gram算法分别进行中文和英文词向量的训练,其中,一些重要的超参数设置为:词向量的维度为300,上下文窗口为5。
基于上述实施例的内容,所述将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量的步骤,具体为:
针对所述双语样本集中的任一对双语语料样本,将所述双语语料样本中的原文句子输入至所述原文词向量模型中,获得所述原文句子对应的词向量;
将所述双语语料样本中的译文句子输入至所述译文词向量模型中,获得所述译文句子对应的词向量。
具体地,在利用Skip-Gram算法分别进行词向量的训练获得原文词向量模型和译文词向量模型后,针对所述双语样本集中的任一对双语语料样本,将所述双语语料样本中的原文句子输入至所述原文词向量模型中,可获得所述原文句子对应的词向量,将所述双语语料样本中的译文句子输入至所述译文词向量模型中,可获得所述译文句子对应的词向量。
基于上述实施例的内容,所述将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络的步骤,具体为:
针对所述训练样本集中的任一对双语语料样本,将所述双语语料样本中的原文句子和所述原文句子对应的词向量输入基于LSTM网络的编码器模型中,生成所述原文句子对应的句向量;
将所述原文句子对应的句向量和所述双语语料样本中的译文句子对应的词向量输入基于LSTM网络的解码器模型中,获得模型译文;
比较所述模型译文与所述双语语料样本中的译文句子之间的差异,基于所述差异,利用反向传播算法更新所述基于LSTM网络的编码器模型参数和解码器模型参数;
利用所述测试样本集对所述基于LSTM网络的编码器模型和解码器模型进行测试,测试完成后,获得训练完成的LSTM网络。
具体地,将训练样本集中的双语语料样本逐一输入到基于LSTM网络的编码器模型和解码器模型中进行训练。针对所述训练样本集中的任一对双语语料样本,将该双语语料样本的原文句子和该原文句子对应的词向量输入基于LSTM网络的编码器模型中,输出该原文句子对应的句向量。
如图2所示,为本发明实施例提供的编码器模型将原文编码成句向量的示意图,原文句子为“技能的培养非常重要”,被编码器编码成向量c。
然后,如图3所示,为本发明实施例提供的解码器模型基于句向量生成译文的示意图,将所述原文句子对应的句向量c和该双语语料样本中的译文句子的词向量输入基于LSTM网络的解码器模型中,获得模型输出的译文“The skill building is important”。
该双语语料样本中的译文句子是标准译文,比较该标准译文与解码器模型输出的模型译文之间的差异,并利用该差异通过反向传播算法更新解码器模型和编码器模型的参数。
训练结束后,利用所述测试样本集对训练样本集训练结束后的基于LSTM网络的编码器模型和解码器模型进行测试,测试完成后,获得训练完成的LSTM网络。
基于上述实施例的内容,所述将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得训练完成的所述译员对应的LSTM网络的步骤,具体为:
针对每个译员自身的双语语料集中的任一对双语语料样本,将所述双语语料样本中的原文句子和所述原文句子对应的词向量输入至所述训练完成的LSTM网络的编码器模型中,获得所述双语语料样本中的原文句子对应的句向量;
将所述双语语料样本中的原文句子对应的句向量与所述双语语料样本中的译文句子对应的词向量和译员向量连接起来,输入至所述训练完成的LSTM网络的解码器模型中,生成预测译文;
将所述预测译文与所述双语语料样本中的译文句子进行比较,保持所述训练完成的LSTM网络的编码器模型参数不变,利用反向传播算法更新所述训练完成的LSTM网络的编码器模型的参数;
根据更新后的所述训练完成的LSTM网络的编码器模型的参数,更新译员向量。
具体地,基于所有译员的双语语料集所构成的双语样本集进行训练,获得的LSTM网络可以认为是一个通用的模型,在该通用模型的基础上,利用每位译员自身的双语语料集进行训练,获得针对每位译员的LSTM网络。
如图4所示,为本发明实施例提供的训练译员对应的LSTM网络的示意图。
针对每个译员自身的双语语料集中的任一对双语语料样本,首先,将该双语语料样本中的原文句子和该原文句子对应的词向量输入至所述训练完成的LSTM网络的编码器模型中,获得所述双语语料样本中的原文句子对应的句向量c;然后,将该句向量c、该双语语料样本中的译文句子对应的词向量以及译文向量v连接起来,输入至所述训练完成的LSTM网络的解码器模型中,获得预测译文;比较该预测译文与该双语语料样本中的译文句子之间的差异,保持所述训练完成的LSTM网络的编码器模型参数不变,利用反向传播算法更新所述训练完成的LSTM网络的编码器模型的参数;并根据更新后的所述训练完成的LSTM网络的编码器模型的参数,更新译员向量。
值得说明的是,译员向量初始化为零,然后,在每一次训练结束后进行更新。
如图5所示,为本发明实施例提供的向量化译员的翻译个性特征的装置的结构示意图,该装置用于实现在前述各实施例中所述的向量化译员的翻译个性特征的方法。因此,在前述各实施例中的方法中的描述和定义,可以用于本发明实施例中各执行模块的理解。
如图所示,该装置包括:样本构建模块510、词向量获取模块520、通用模型训练模块530、个性化训练模块540和向量化模块550,其中,
样本构建模块510,用于选取T位译员,从每位译员所翻译过的历史语料中选取M对双语语料样本构建译员自身的双语语料集,所有译员自身的双语语料集组成双语样本集,并对所述双语样本集进行预处理;
词向量获取模块520,用于将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量;
通用模型训练模块530,用于将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络;
个性化训练模块540,用于将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得所述译员对应的LSTM网络;
向量化模块550,用于基于所述译员对应的LSTM网络中解码器模型的参数,生成反映所述译员的翻译个性特征的译员向量;
其中,一对双语语料样本包括一个原文句子和一个译文句子;所述词向量模型是基于最新的维基百科的原文语料集和译文语料集,利用Skip-Gram算法训练获得的;T和M均为大于1的自然数。
其中,所述样本构建模块510具体用于:
对所述双语样本集中的每个句子进行分词处理,并打乱所述双语样本集中句子之间原有的顺序;
将所述双语样本集划分为训练样本集和验证样本集。
本发明实施例提供的向量化译员的翻译个性特征的装置,根据译员的历史翻译语料对基于LSTM网络的编码器模型和解码器模型进行训练,从而获得反映每个译员个性翻译特征的译员向量,不需要对译员的个性特征进行筛选,也无须对样本数据进行人工标注,训练成本低、精度高,所获得的译员向量能够准确客观地反映译员的翻译个性特征。
图6为本发明实施例提供的电子设备的实体结构示意图,如图6所示,该电子设备可以包括:处理器(processor)610、通信接口(Communications Interface)620、存储器(memory)630和通信总线640,其中,处理器610,通信接口620,存储器630通过通信总线640完成相互间的通信。处理器610可以调用存储在存储器630上并可在处理器610上运行的计算机程序,以执行上述各实施例提供的向量化译员的翻译个性特征的方法,例如包括:选取T位译员,从每位译员所翻译过的历史语料中选取M对双语语料样本构建译员自身的双语语料集,所有译员自身的双语语料集组成双语样本集,并对所述双语样本集进行预处理;将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量;将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络;将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得所述译员对应的LSTM网络;基于所述译员对应的LSTM网络中解码器模型的参数,生成反映所述译员的翻译个性特征的译员向量;其中,一对双语语料样本包括一个原文句子和一个译文句子;所述词向量模型是基于最新的维基百科的原文语料集和译文语料集,利用Skip-Gram算法训练获得的;T和M均为大于1的自然数。
此外,上述的存储器630中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各实施例提供的向量化译员的翻译个性特征的方法,例如包括:选取T位译员,从每位译员所翻译过的历史语料中选取M对双语语料样本构建译员自身的双语语料集,所有译员自身的双语语料集组成双语样本集,并对所述双语样本集进行预处理;将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量;将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络;将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得所述译员对应的LSTM网络;基于所述译员对应的LSTM网络中解码器模型的参数,生成反映所述译员的翻译个性特征的译员向量;其中,一对双语语料样本包括一个原文句子和一个译文句子;所述词向量模型是基于最新的维基百科的原文语料集和译文语料集,利用Skip-Gram算法训练获得的;T和M均为大于1的自然数。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布至多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解至各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种向量化译员的翻译个性特征的方法,其特征在于,包括:
选取T位译员,从每位译员所翻译过的历史语料中选取M对双语语料样本构建译员自身的双语语料集,所有译员自身的双语语料集组成双语样本集,并对所述双语样本集进行预处理;
将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量;
将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络;
将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得所述译员对应的LSTM网络;
基于所述译员对应的LSTM网络中解码器模型的参数,生成反映所述译员的翻译个性特征的译员向量;
其中,一对双语语料样本包括一个原文句子和一个译文句子;所述词向量模型是基于最新的维基百科的原文语料集和译文语料集,利用Skip-Gram算法训练获得的;T和M均为大于1的自然数。
2.根据权利要求1所述的方法,其特征在于,所述对所述双语样本集进行预处理的步骤,具体为:
对所述双语样本集中的每个句子进行分词处理,并打乱所述双语样本集中句子之间原有的顺序;
将所述双语样本集划分为训练样本集和验证样本集。
3.根据权利要求1所述的方法,其特征在于,训练所述词向量模型的步骤,具体为:
从最新的维基百科获取与所述双语样本集语种相同的原文语料集和译文语料集,并对所述原文语料集和译文语料集中的每个句子进行分词处理;
基于经过分词处理的所述原文语料集和译文语料集,利用Skip-Gram算法分别进行词向量的训练,训练完成后获得原文词向量模型和译文词向量模型。
4.根据权利要求3所述的方法,其特征在于,所述将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量的步骤,具体为:
针对所述双语样本集中的任一对双语语料样本,将所述双语语料样本中的原文句子输入至所述原文词向量模型中,获得所述原文句子对应的词向量;
将所述双语语料样本中的译文句子输入至所述译文词向量模型中,获得所述译文句子对应的词向量。
5.根据权利要求2所述的方法,其特征在于,所述将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络的步骤,具体为:
针对所述训练样本集中的任一对双语语料样本,将所述双语语料样本中的原文句子和所述原文句子对应的词向量输入基于LSTM网络的编码器模型中,生成所述原文句子对应的句向量;
将所述原文句子对应的句向量和所述双语语料样本中的译文句子对应的词向量输入基于LSTM网络的解码器模型中,获得模型译文;
比较所述模型译文与所述双语语料样本中的译文句子之间的差异,基于所述差异,利用反向传播算法更新所述基于LSTM网络的编码器模型参数和解码器模型参数;
利用所述测试样本集对所述基于LSTM网络的编码器模型和解码器模型进行测试,测试完成后,获得训练完成的LSTM网络。
6.根据权利要求1所述的方法,其特征在于,所述将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得训练完成的所述译员对应的LSTM网络的步骤,具体为:
针对每个译员自身的双语语料集中的任一对双语语料样本,将所述双语语料样本中的原文句子和所述原文句子对应的词向量输入至所述训练完成的LSTM网络的编码器模型中,获得所述双语语料样本中的原文句子对应的句向量;
将所述双语语料样本中的原文句子对应的句向量与所述双语语料样本中的译文句子对应的词向量和译员向量连接起来,输入至所述训练完成的LSTM网络的解码器模型中,生成预测译文;
将所述预测译文与所述双语语料样本中的译文句子进行比较,保持所述训练完成的LSTM网络的编码器模型参数不变,利用反向传播算法更新所述训练完成的LSTM网络的编码器模型的参数;
根据更新后的所述训练完成的LSTM网络的编码器模型的参数,更新译员向量。
7.一种向量化译员的翻译个性特征的装置,其特征在于,包括:
样本构建模块,用于选取T位译员,从每位译员所翻译过的历史语料中选取M对双语语料样本构建译员自身的双语语料集,所有译员自身的双语语料集组成双语样本集,并对所述双语样本集进行预处理;
词向量获取模块,用于将经过预处理的所述双语样本集中的双语语料样本逐一输入至词向量模型中,输出所述双语语料样本对应的词向量;
通用模型训练模块,用于将所述双语样本集中的每对双语语料样本和对应的词向量输入至基于LSTM网络的编码器模型和解码器模型中进行训练,获得训练完成的LSTM网络;
个性化训练模块,用于将每位译员自身的双语语料集中的双语语料样本逐一输入至所述训练完成的LSTM网络中进行训练,保持所述训练完成的LSTM网络的编码器模型参数不变,获得所述译员对应的LSTM网络;
向量化模块,用于基于所述译员对应的LSTM网络中解码器模型的参数,生成反映所述译员的翻译个性特征的译员向量;
其中,一对双语语料样本包括一个原文句子和一个译文句子;所述词向量模型是基于最新的维基百科的原文语料集和译文语料集,利用Skip-Gram算法训练获得的;T和M均为大于1的自然数。
8.根据权利要求7所述的装置,其特征在于,所述样本构建模块具体用于:
对所述双语样本集中的每个句子进行分词处理,并打乱所述双语样本集中句子之间原有的顺序;
将所述双语样本集划分为训练样本集和验证样本集。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其中:
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至6任一所述的方法。
10.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行如权利要求1至6任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570883.4A CN109670180B (zh) | 2018-12-21 | 2018-12-21 | 向量化译员的翻译个性特征的方法及装置 |
PCT/CN2018/124915 WO2020124674A1 (zh) | 2018-12-21 | 2018-12-28 | 向量化译员的翻译个性特征的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570883.4A CN109670180B (zh) | 2018-12-21 | 2018-12-21 | 向量化译员的翻译个性特征的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109670180A true CN109670180A (zh) | 2019-04-23 |
CN109670180B CN109670180B (zh) | 2020-05-08 |
Family
ID=66145815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811570883.4A Active CN109670180B (zh) | 2018-12-21 | 2018-12-21 | 向量化译员的翻译个性特征的方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109670180B (zh) |
WO (1) | WO2020124674A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110543643A (zh) * | 2019-08-21 | 2019-12-06 | 语联网(武汉)信息技术有限公司 | 文本翻译模型的训练方法及装置 |
CN110543644A (zh) * | 2019-09-04 | 2019-12-06 | 语联网(武汉)信息技术有限公司 | 包含术语翻译的机器翻译方法、装置与电子设备 |
CN110866404A (zh) * | 2019-10-30 | 2020-03-06 | 语联网(武汉)信息技术有限公司 | 基于lstm神经网络的词向量生成方法及装置 |
CN110866395A (zh) * | 2019-10-30 | 2020-03-06 | 语联网(武汉)信息技术有限公司 | 基于译员编辑行为的词向量生成方法及装置 |
CN111191468A (zh) * | 2019-12-17 | 2020-05-22 | 语联网(武汉)信息技术有限公司 | 术语替换方法及装置 |
CN111508470A (zh) * | 2020-04-26 | 2020-08-07 | 北京声智科技有限公司 | 一种语音合成模型的训练方法及装置 |
WO2021185171A1 (zh) * | 2020-03-16 | 2021-09-23 | 京东方科技集团股份有限公司 | 特征量化模型训练、特征量化、数据查询方法及系统 |
US20230017892A1 (en) * | 2021-06-30 | 2023-01-19 | Google Llc | Injecting Text in Self-Supervised Speech Pre-training |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633007B (zh) * | 2020-12-21 | 2024-04-30 | 中国科学技术大学 | 一种语义理解模型构建方法及装置、语义理解方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368475A (zh) * | 2017-07-18 | 2017-11-21 | 中译语通科技(北京)有限公司 | 一种基于生成对抗神经网络的机器翻译方法和系统 |
US20180157640A1 (en) * | 2016-12-06 | 2018-06-07 | Electronics And Telecommunications Research Institute | System and method for automatically expanding input text |
CN108829684A (zh) * | 2018-05-07 | 2018-11-16 | 内蒙古工业大学 | 一种基于迁移学习策略的蒙汉神经机器翻译方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102193912B (zh) * | 2010-03-12 | 2013-11-06 | 富士通株式会社 | 短语划分模型建立方法、统计机器翻译方法以及解码器 |
US8805669B2 (en) * | 2010-07-13 | 2014-08-12 | Dublin City University | Method of and a system for translation |
CN102789451B (zh) * | 2011-05-16 | 2015-06-03 | 北京百度网讯科技有限公司 | 一种个性化的机器翻译系统、方法及训练翻译模型的方法 |
KR102396250B1 (ko) * | 2015-07-31 | 2022-05-09 | 삼성전자주식회사 | 대역 어휘 결정 장치 및 방법 |
-
2018
- 2018-12-21 CN CN201811570883.4A patent/CN109670180B/zh active Active
- 2018-12-28 WO PCT/CN2018/124915 patent/WO2020124674A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180157640A1 (en) * | 2016-12-06 | 2018-06-07 | Electronics And Telecommunications Research Institute | System and method for automatically expanding input text |
CN107368475A (zh) * | 2017-07-18 | 2017-11-21 | 中译语通科技(北京)有限公司 | 一种基于生成对抗神经网络的机器翻译方法和系统 |
CN108829684A (zh) * | 2018-05-07 | 2018-11-16 | 内蒙古工业大学 | 一种基于迁移学习策略的蒙汉神经机器翻译方法 |
Non-Patent Citations (2)
Title |
---|
KSHITIJ KARTHICK ET AL.: "Establishing Semantic Relationships Across Languages Using Word Vectors", 《2016 INTERNATIONAL CONFERENCE ON COMPUTATIONAL SYSTEMS AND INFORMATION SYSTEMS FOR SUSTAINABLE SOLUTIONS》 * |
陈志明 等: "基于神经网络特征的句子级别译文质量估计", 《计算机研究与发展》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110543643B (zh) * | 2019-08-21 | 2022-11-11 | 语联网(武汉)信息技术有限公司 | 文本翻译模型的训练方法及装置 |
CN110543643A (zh) * | 2019-08-21 | 2019-12-06 | 语联网(武汉)信息技术有限公司 | 文本翻译模型的训练方法及装置 |
CN110543644A (zh) * | 2019-09-04 | 2019-12-06 | 语联网(武汉)信息技术有限公司 | 包含术语翻译的机器翻译方法、装置与电子设备 |
CN110543644B (zh) * | 2019-09-04 | 2023-08-29 | 语联网(武汉)信息技术有限公司 | 包含术语翻译的机器翻译方法、装置与电子设备 |
CN110866395B (zh) * | 2019-10-30 | 2023-05-05 | 语联网(武汉)信息技术有限公司 | 基于译员编辑行为的词向量生成方法及装置 |
CN110866395A (zh) * | 2019-10-30 | 2020-03-06 | 语联网(武汉)信息技术有限公司 | 基于译员编辑行为的词向量生成方法及装置 |
CN110866404B (zh) * | 2019-10-30 | 2023-05-05 | 语联网(武汉)信息技术有限公司 | 基于lstm神经网络的词向量生成方法及装置 |
CN110866404A (zh) * | 2019-10-30 | 2020-03-06 | 语联网(武汉)信息技术有限公司 | 基于lstm神经网络的词向量生成方法及装置 |
CN111191468A (zh) * | 2019-12-17 | 2020-05-22 | 语联网(武汉)信息技术有限公司 | 术语替换方法及装置 |
CN111191468B (zh) * | 2019-12-17 | 2023-08-25 | 语联网(武汉)信息技术有限公司 | 术语替换方法及装置 |
WO2021185171A1 (zh) * | 2020-03-16 | 2021-09-23 | 京东方科技集团股份有限公司 | 特征量化模型训练、特征量化、数据查询方法及系统 |
CN111508470A (zh) * | 2020-04-26 | 2020-08-07 | 北京声智科技有限公司 | 一种语音合成模型的训练方法及装置 |
CN111508470B (zh) * | 2020-04-26 | 2024-04-12 | 北京声智科技有限公司 | 一种语音合成模型的训练方法及装置 |
US20230017892A1 (en) * | 2021-06-30 | 2023-01-19 | Google Llc | Injecting Text in Self-Supervised Speech Pre-training |
Also Published As
Publication number | Publication date |
---|---|
WO2020124674A1 (zh) | 2020-06-25 |
CN109670180B (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109670180A (zh) | 向量化译员的翻译个性特征的方法及装置 | |
CN108614875B (zh) | 基于全局平均池化卷积神经网络的中文情感倾向性分类方法 | |
CN111143540B (zh) | 智能问答方法、装置、设备及存储介质 | |
CN111192692B (zh) | 一种实体关系的确定方法、装置、电子设备及存储介质 | |
CN110555213B (zh) | 文本翻译模型的训练方法、文本翻译方法及装置 | |
CN114970522B (zh) | 语言模型的预训练方法、装置、设备、存储介质 | |
CN112214591B (zh) | 一种对话预测的方法及装置 | |
Zhao et al. | ZYJ123@ DravidianLangTech-EACL2021: Offensive language identification based on XLM-RoBERTa with DPCNN | |
CN110532575A (zh) | 文本翻译方法及装置 | |
Boussakssou et al. | Chatbot in Arabic language using seq to seq model | |
CN111177341B (zh) | 一种基于端到端的id+sf模型的用户对话需求提取方法及系统 | |
Abad et al. | Self-crowdsourcing training for relation extraction | |
JP2018025874A (ja) | テキスト解析装置及びプログラム | |
CN111985243A (zh) | 情感模型的训练方法、情感分析方法、装置及存储介质 | |
CN112364743A (zh) | 一种基于半监督学习和弹幕分析的视频分类方法 | |
Fujiwara et al. | Modify mistral large performance with low-rank adaptation (lora) on the big-bench dataset | |
Uppal et al. | Two-step classification using recasted data for low resource settings | |
CN115438678B (zh) | 机器翻译方法、装置、电子设备及存储介质 | |
Karabayeva et al. | Evaluating machine translation of literature through rhetorical analysis | |
Zhang et al. | Affective Computing in the Era of Large Language Models: A Survey from the NLP Perspective | |
CN115774782A (zh) | 多语种文本分类方法、装置、设备及介质 | |
CN113806507B (zh) | 一种多标签分类方法、装置及可读介质 | |
CN115906818A (zh) | 语法知识预测方法、装置、电子设备和存储介质 | |
CN113705251B (zh) | 机器翻译模型的训练方法、语言翻译方法及设备 | |
CN114610743A (zh) | 结构化查询语言语句处理方法和系统、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |