CN109697292B - 一种机器翻译方法、装置、电子设备和介质 - Google Patents
一种机器翻译方法、装置、电子设备和介质 Download PDFInfo
- Publication number
- CN109697292B CN109697292B CN201811542438.7A CN201811542438A CN109697292B CN 109697292 B CN109697292 B CN 109697292B CN 201811542438 A CN201811542438 A CN 201811542438A CN 109697292 B CN109697292 B CN 109697292B
- Authority
- CN
- China
- Prior art keywords
- classification
- translation
- source language
- category
- coarse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种机器翻译方法、装置、电子设备和介质,该方法包括:获取待翻译的源语言句;利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果。本发明实施例免去用户手动选择领域的麻烦,同时执行分类任务和翻译任务,并且在分类任务中给出粗分类和粗分类下所属的细分类,而不是在同一个维度上对各领域进行分类,使得模型在类别分类阶段更有针对性,不仅能够自动识别源语言句所述的类别和领域,同时使得各领域所负责的翻译内容界限更为清晰,提升翻译效果。
Description
技术领域
本发明实施例涉及机器翻译技术领域,尤其涉及一种机器翻译方法、装置、电子设备和介质。
背景技术
随着计算机计算能力的提升和多语言信息的爆发式增长,机器翻译在如今的翻译领域扮演着重要角色,有着高速、低成本的优势,可以为普通用户提供实时便捷的翻译服务。
机器翻译中,对于专业领域的文本,分领域地训练翻译模型可以大幅提高对应领域的翻译效果。当前有部分互联网翻译系统,通过引入领域信息,针对每个领域进行数据和模型上的优化,达到了翻译效果的提升。但是这些领域的分类比较随意,没有系统性,在同一个维度上划分各领域,造成领域混淆,影响翻译效果。而且在具体实现的过程中,通常需要用户先手动选择一个目标领域,再由相应模型针对性的给出翻译文本,操作繁琐,影响翻译效率。
发明内容
本发明实施例提供一种机器翻译方法、装置、电子设备和介质,以解决现有技术中自动翻译准确率低以及效率低的问题。
第一方面,本发明实施例提供了一种机器翻译方法,所述方法包括:
获取待翻译的源语言句;
利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果。
第二方面,本发明实施例还提供了一种机器翻译装置,所述装置包括:
源语言句获取模块,用于获取待翻译的源语言句;
源语言句翻译模块,用于利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果。
第三方面,本发明实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任意实施例所述的一种机器翻译方法。
第四方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本发明任意实施例所述的一种机器翻译方法。
本发明实施例通过获取待翻译的源语言句;利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果,一方面免去用户手动选择领域的麻烦,另一方面,可以同时执行分类任务和翻译任务,并且在分类任务中给出粗分类和粗分类下所属的细分类,而不是在同一个维度上对各领域进行分类,使得模型在类别分类阶段更有针对性,不仅能够自动识别源语言句所述的类别和领域,同时使得各领域所负责的翻译内容界限更为清晰,提升翻译效果。
附图说明
图1是本发明实施例一中的一种机器翻译方法的流程图;
图2是本发明实施例一中的类别确定示意图;
图3是本发明实施例二中的一种机器翻译模型训练方法的流程图;
图4是本发明实施例二中的一种机器翻译方法示意图;
图5是本发明实施例三中的一种机器翻译装置的结构示意图;
图6是本发明实施例四中的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种机器翻译方法的流程图,本实施例可适用于自动翻译(机器翻译)的情况,该方法可以由一种机器翻译装置来执行,该装置可通过软件和/或硬件实现,并可配置在电子设备中,该电子设备包括终端或服务器,如图1所示,该方法包括:
S110、获取待翻译的源语言句。
待翻译的源语言句比如可以是用户输入的待翻译的词语、短语或句子等。在系统获取到待翻译的源语言句时,便可以对其进行对应的翻译,例如可以是获取到的汉语源语言句。
S120、利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果。
预先训练的机器翻译模型可以是预先基于多任务学习方法通过大量样本数据训练好的模型,用于在输入待翻译的源语言句时可以同时得到源语言句的目标语言翻译结果以及源语言句所属的类别。具体的,机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果。其中,目标语言翻译结果可以是针对待翻译的源语言句的翻译结果,比如可以是针对汉语的源语言语句给出英语的对应翻译。源语言句所属的类别可以是源语言句所属的行业、专业或领域。
其中,多任务学习方法可以利用额外的信息来源来提高当前任务的学习性能,包括提高模型的准确率。由于行业、领域类别对源语言语句的翻译是有很大影响的,比如一个词语或句子在不同领域内的含义完全不同。因此,多任务学习方法训练的机器翻译模型可以更准确的给出源语言句类别以及对应的翻译。现有技术中根据用户手动输入的源语言句所属的领域确定相应的机器翻译模型进行翻译的方案,显然操作更加繁琐。而本发明实施例中并非以类别为基础进行进一步的翻译,而利用机器翻译模型同时给出翻译结果和所属类别,这样可以加速机器翻译模型的翻译效率。
示例性的,所属的类别可以包括:“科技教育”、“科技计算机”、“生活医学”或“政治新闻”等。需要注意的是,本实施例中的类别包括粗分类和粗分类下所属的细分类,粗分类可以是按照领域或行业分的较大的类别,细分类可以是针对粗分类对应进行更具体和细致的划分类别。例如,“科技”、“生活”、“政治”可以属于粗分类;而对于“科技”这个粗分类,可以具体划分为“教育”、“金融”、“医学”、“生化”和“计算机”等细分类,相应的得到的类别可以是“科技教育”、“科技金融”、“科技医学”、“科技生化”、“科技计算机”等。一个粗分类可以包括多个细分类,而一个细分类也可以属于多个粗分类,例如“医学”可以同时属于“科技”和“生活”这两个粗分类;而“金融”可以同时属于“科技”、“生活”和“政治”这两个粗分类。当然,粗分类和细分类还可以根据经验常识以及理论知识进行其他划分。
示例性的,图2是一种类别确定示意图,如图2所示,源语言句为“宝宝可能腹泻严重有脱水危险”经过机器翻译模型判断后可以确定所属的粗分类为生活,细分类为医学,对应的类别为“生活医学”。同时还可以给出翻译结果“Your baby may have severediarrhea and risk of dehydration”。图2可以视为由粗分类-细分类组成一个二部图,如图2所示,左边为粗分类,右边为细分类,中间为机器翻译所接收到的源语言句子。每个句子只属于一个粗分类,可以属于一个或多个细分类。如“比特币算法-山寨币开发及发行包维护更新”这句话,在粗分类中属于“科技”类,在细分类中同时属于“金融”和“计算机”两个类。
本实施例的技术方案,通过获取待翻译的源语言句;利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果,一方面免去用户手动选择领域的麻烦,另一方面,可以同时执行分类任务和翻译任务,并且在分类任务中给出粗分类和粗分类下所属的细分类,而不是在同一个维度上对各领域进行分类,使得模型在类别分类阶段更有针对性,不仅能够自动识别源语言句所述的类别和领域,同时使得各领域所负责的翻译内容界限更为清晰,提升翻译效果。
实施例二
图3是本发明实施例二中提供的一种机器翻译模型训练方法的流程图,在上述实施例的基础上,可选的,所述机器翻译模型为基于神经网络的机器翻译模型,如图3所示,所述机器翻译模型的训练方法包括:
S310、获取样本数据,其中,所述样本数据包括源语言样本句集合,每个样本句对应标注有其所属的粗分类、细分类,以及在所述粗分类与细分类构成的类别下所对应的目标语言翻译结果。
每一个样本句可以包括源语言句本身,对其标注的所属粗分类和细分类,以及在该粗分类和细分类构成的类别下的目标语言翻译结果。示例性的,一个样本句可以包括:源语言句“国家领导人参观某公司展台,该公司负责人向其介绍无人车和机器翻译”,所属的粗分类为:政治;细分类为新闻,以及对应类别“政治新闻”下的翻译结果“The nationalleader visits a company booth,and the person in charge of the companyintroduced pilotess automobile and machine translation to him.”。
S320、将所述源语言样本句集合作为输入,将每个样本句对应的粗分类、细分类和目标语言翻译结果作为输出,利用多任务学习方法训练神经网络,得到所述机器翻译模型。
在本发明实施例中,将语句翻译和语句分类任务结合训练神经网络,得到机器翻译模型。具体的,所述机器翻译模型包括翻译编码器、翻译解码器和分类器,所述翻译编码器用于对源语言句进行编码,所述翻译解码器用于对源语言句的编码进行翻译得到目标语言翻译结果,所述分类器用于依据源语言句的编码预测源语言句所属的粗分类和细分类;训练时,所述翻译解码器和分类器共同作用于机器翻译模型的损失函数,以使翻译编码器的编码结果趋向于源语言句所属类别所对应的编码结果。
其中,翻译编码器用于对源语言句进行编码,可以是对源语言句的进一步理解或转化,比如以数字向量的形式表征源语言句。示例性的,源语言句子为“我希望你能明白”,这个句子有6个token(标记),翻译编码器可以产生6个时刻的隐状态,如6*1024的矩阵,将其取平均,就能得到1*1024的向量,这个向量可以作为分类器的输入。
翻译解码器用于对源语言句的编码进行翻译得到目标语言翻译结果,比如针对数字向量的形式的源语言句进行翻译。分类器是用于依据源语言句的编码预测源语言句所属的粗分类和细分类,例如,分类器可以根据源语言句子的表征向量将其划分到某一个粗分类下的一个或多个细分类。其中,分类器和翻译解码器可以共享翻译编码器的输出。需要注意的是,训练过程中,所述翻译解码器和分类器共同作用于机器翻译模型的损失函数,以使翻译编码器的编码结果趋向于源语言句所属类别所对应的编码结果。
其中,损失函数(loss function)可以用来表现预测与实际数据的差距程度,一般损失函数越小,模型的鲁棒性就越好。示例性的,神经网络训练整体的损失函数公式为loss=d(e(x))+c(e(x)),其中,e表示encoder(编码器),d表示decoder(解码器),c表示classifier(分类器),x表示输入的源语言句子。由此可见,训练过程中为了让c(e(x))分类更合理,可以先使e(x)编码表征向量更准确,这样才可以提升d(e(x))的翻译结果。本实施例的技术方案,机器翻译模型可以同时输出翻译和分类的结果,翻译解码器部分不以分类结果为输入,这样可以减少依赖,从而加速模型训练和预测,即针对不同的源语言句编码不同,分类和翻译也不同。
图4是本发明实施例二中的一种机器翻译方法示意图,如图4所示,获取到源语言句子“国家领导人参观某公司展台,该公司负责人向其介绍无人车和机器翻译”后,由翻译编码器对其进行编码,然后翻译解码器和分类器同时共享该编码后信息,得到翻译结果和分类结果,比如所属的粗分类为:政治;细分类为新闻,以及对应类别“政治新闻”,而该类别对应的翻译结果“The national leader visits a company booth,and the person incharge of the company introduced pilotess automobile and machine translationto him.”。
可选的,在所述分类器中,预测源语言句所属的粗分类和细分类的表达式如下:
其中,P(i,j|x)表示源语言句经编码得到的向量x属于第i个粗分类和第j个细分类的概率;K为粗分类数;M为细分类数;fi用w1x表示,为粗分类特征,hi用w2X表示,为细分类特征,w1和w2为经训练确定的参数;gij为预先定义的先验知识,表示第i个粗分类是否有包含第j个细分类;k、M和gii通过在分类器中预先配置的分类系统表确定,所述分类系统表作为所述先验知识,定义了多个粗分类,以及每个粗分类下所包含的多个细分类。
示例性的,本发明实施例二中的分类系统表如下表所示:
医学 | 法律 | 金融 | 计算机 | 新闻 | |
科技 | 1 | 0 | 1 | 1 | 1 |
生活 | 1 | 1 | 1 | 1 | 1 |
政治 | 0 | 1 | 1 | 0 | 1 |
其中,分类系统表可以是预先配置好的包括粗分类种类,细分类种类,以及粗分类与细分类之间的对应关系。如上表所示,粗分类可以包括“科技”“生活”和“政治”等,细分类可以包括“医学”“法律“金融”“计算机”和“新闻”等。上表中所示的数字“1”表示粗分类包含该细分类;“0”表示粗分类不包含该细分类,例如粗分类“科技”包含细分类“医学”“金融”“计算机”“新闻”,而不包含细分类“法律”。该分类系统表可以根据具体模型训练的样本数据以及业务需求确定,比如对于每个粗分类,不需要与所有细分类别都有对应,如果希望分类器中最终形成某粗分类-某细分类,则可以将对应位置标为1,其他不希望分类器中形成的类别对应标为0。例如,若训练样本数据中,没有科技-法律类的数据,可以视为不希望该分类器中包含该类别,则可以将该类别记为0。
其中,粗分类数K,细分类数M,以及先验知识gij均可以根据预先配置的分类系统表确定。示例性的,如上表所示,纵向表示粗分类i,横向表示细分类j。粗分类数K为3,细分类数M为5,i=1,2,3;j=1,2,3,4,5。g11为1,即粗分类“科技”包含细分类“医学”,而g31为0,即粗分类“政治”不包含细分类“医学”。另外,fi用w1x表示,为粗分类特征,hi用w2x表示,为细分类特征,w1和w2为经训练确定的参数,其中x可以是指翻译编码器对源语句编码得到的向量。示例性的,x是一个4096维的向量,w1x可以是一个K维向量,而w1是一个4096×K的矩阵;w2x可以是一个M维向量,而w2是一个4096×M的矩阵,g是一个M×K的矩阵。
在一种具体的实施方式中,对于一个待翻译的源语言句,利用机器翻译模型中的分类器进行分类时,分类系统表中所有标记为1的类别的概率和为1,示例性的,对于某个源语句经过上述公式进行预测得到各个类别对应的概率,比如:P(1,1|x)=0.14,P(1,3|x)=0.1,P(1,4|x)=0.12,P(1,5|x)=0.08;P(2,1|x)=0.04;P(2,2|x)=0.08;P(2,3|x)=0.06,P(2,4|x)=0.08,P(2,5|x)=0.1;P(3,2|x)=0.06,P(3,3|x)=0.02,P(3,5|x)=0.16。
该源语言句属于某一个粗分类的概率为其下包含的所有细分类对应该句的概率和。
例如,属于粗分类科技的概率为:
P(1,1|x)+P(1,3|x)+P(1,4|x)+P(1,5|x)=0.44;
属于粗分类生活的概率为:
P(2,2|x)+P(2,3|x)+P(2,4|x)=0.08+P(2,5|x)=0.32;
属于粗分类政治的概率为:
P(3,2|x)+0.02+P(3,3|x)=0.08+P(3,5|x)=0.24。
据此,可以选取概率最大的粗分类,以及其下对应概率较高的细分类,作为机器翻译模型给出的最终分类结果。例如,在上述例子中可以选出科技-医学这个类别作为最终的分类结果。区别于现有技术中直接找概率最大的一个类别,比如P(3,5|x)=0.16的方案,本实施例的技术方案先寻找概率最大的粗分类,进一步选择该粗分类中的最大概率的细分类的结果,作出的分类结果更加准确合理。
本实施例的技术方案,利用多任务学习方法训练得到机器翻译模型,通过粗分类和细分类对源语句进行类别的判定,可以避免过多造成的领域混淆的问题,同时领域自适应,同时可以从另一个维度指导翻译编码器更精确地理解内容,从而可以进行准确分类,自动适应领域进行翻译,即系统自动识别领域,免去用户手动选择的麻烦,各领域所负责的翻译内容界限更为清晰,针对性翻译的效果显著提升。
实施例三
图5是本发明实施例三提供的一种机器翻译装置的结构示意图,如图5所示,该装置可以采用硬件和/或软件的形式实现,并可以配置于电子设备中,该装置包括:
源语言句获取模块510,用于获取待翻译的源语言句;
源语言句翻译模块520,用于利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果。
可选的,所述机器翻译模型为基于神经网络的机器翻译模型,所述装置还包括机器翻译模型训练模块,包括:
样本数据获取单元,用于获取样本数据,其中,所述样本数据包括源语言样本句集合,每个样本句对应标注有其所属的粗分类、细分类,以及在所述粗分类与细分类构成的类别下所对应的目标语言翻译结果;
翻译模型训练单元,用于将所述源语言样本句集合作为输入,将每个样本句对应的粗分类、细分类和目标语言翻译结果作为输出,利用多任务学习方法训练神经网络,得到所述机器翻译模型;
其中,所述机器翻译模型包括翻译编码器、翻译解码器和分类器,所述翻译编码器用于对源语言句进行编码,所述翻译解码器用于对源语言句的编码进行翻译得到目标语言翻译结果,所述分类器用于依据源语言句的编码预测源语言句所属的粗分类和细分类;
训练时,所述翻译解码器和分类器共同作用于机器翻译模型的损失函数,以使翻译编码器的编码结果趋向于源语言句所属类别所对应的编码结果。
可选的,在所述分类器中,预测源语言句所属的粗分类和细分类的表达式如下:
其中,P(i,j|x)表示源语言句经编码得到的向量x属于第i个粗分类和第j个细分类的概率;K为粗分类数;M为细分类数;fi用w1x表示,为粗分类特征,hi用w2x表示,为细分类特征,w1和w2为经训练确定的参数;gij为预先定义的先验知识,表示第i个粗分类是否有包含第j个细分类;k、M和gij通过在分类器中预先配置的分类系统表确定,所述分类系统表作为所述先验知识,定义了多个粗分类,以及每个粗分类下所包含的多个细分类。
本发明实施例所提供的一种机器翻译装置,可执行本发明任意实施例所提供的一种机器翻译方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本发明任意实施例提供的一种机器翻译方法。
实施例四
参见图6,本实施例提供了一种电子设备600,其包括:一个或多个处理器620;存储装置610,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器620执行,使得所述一个或多个处理器620实现本发明实施例所提供的一种机器翻译方法,所述方法包括:
获取待翻译的源语言句;
利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果。
当然,本领域技术人员可以理解,处理器620还可以实现本发明任意实施例所提供的一种机器翻译方法的技术方案。
图6显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:一个或者多个处理器620,存储装置610,连接不同系统组件(包括存储装置610和处理器620)的总线650。
总线650表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备600典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备600访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置610可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)611和/或高速缓存存储器612。电子设备600可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统613可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线650相连。存储装置610可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块615的程序/实用工具614,可以存储在例如存储装置610中,这样的程序模块615包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块615通常执行本发明所描述的任意实施例中的功能和/或方法。
电子设备600也可以与一个或多个外部设备660(例如键盘、指向设备、显示器670等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口630进行。并且,电子设备600还可以通过网络适配器640与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图6所示,网络适配器640通过总线650与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器620通过运行存储在存储装置610中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的一种机器翻译方法。
实施例五
本实施例提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种机器翻译方法,该方法包括:
获取待翻译的源语言句;
利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的一种机器翻译方法中的相关操作。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (6)
1.一种机器翻译方法,其特征在于,所述方法包括:
获取待翻译的源语言句;
利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果;
所述机器翻译模型为基于神经网络的机器翻译模型,所述机器翻译模型的训练方法包括:
获取样本数据,其中,所述样本数据包括源语言样本句集合,每个样本句对应标注有其所属的粗分类、细分类,以及在所述粗分类与细分类构成的类别下所对应的目标语言翻译结果;
将所述源语言样本句集合作为输入,将每个样本句对应的粗分类、细分类和目标语言翻译结果作为输出,利用多任务学习方法训练神经网络,得到所述机器翻译模型;
其中,所述机器翻译模型包括翻译编码器、翻译解码器和分类器,所述翻译编码器用于对源语言句进行编码,所述翻译解码器用于对源语言句的编码进行翻译得到目标语言翻译结果,所述分类器用于依据源语言句的编码预测源语言句所属的粗分类和细分类;
训练时,所述翻译解码器和分类器共同作用于机器翻译模型的损失函数,以使翻译编码器的编码结果趋向于源语言句所属类别所对应的编码结果。
3.一种机器翻译装置,其特征在于,所述装置包括:
源语言句获取模块,用于获取待翻译的源语言句;
源语言句翻译模块,用于利用预先训练的机器翻译模型,同时给出所述源语言句的目标语言翻译结果,以及所述源语言句所属的类别,其中,所述类别包括粗分类和粗分类下所属的细分类,所述机器翻译模型用于结合对源语言句的分类任务给出目标语言翻译结果;
所述机器翻译模型为基于神经网络的机器翻译模型,所述装置还包括机器翻译模型训练模块,包括:
样本数据获取单元,用于获取样本数据,其中,所述样本数据包括源语言样本句集合,每个样本句对应标注有其所属的粗分类、细分类,以及在所述粗分类与细分类构成的类别下所对应的目标语言翻译结果;
翻译模型训练单元,用于将所述源语言样本句集合作为输入,将每个样本句对应的粗分类、细分类和目标语言翻译结果作为输出,利用多任务学习方法训练神经网络,得到所述机器翻译模型;
其中,所述机器翻译模型包括翻译编码器、翻译解码器和分类器,所述翻译编码器用于对源语言句进行编码,所述翻译解码器用于对源语言句的编码进行翻译得到目标语言翻译结果,所述分类器用于依据源语言句的编码预测源语言句所属的粗分类和细分类;
训练时,所述翻译解码器和分类器共同作用于机器翻译模型的损失函数,以使翻译编码器的编码结果趋向于源语言句所属类别所对应的编码结果。
5.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-2中任一所述的一种机器翻译方法。
6.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-2中任一所述的一种机器翻译方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811542438.7A CN109697292B (zh) | 2018-12-17 | 2018-12-17 | 一种机器翻译方法、装置、电子设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811542438.7A CN109697292B (zh) | 2018-12-17 | 2018-12-17 | 一种机器翻译方法、装置、电子设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109697292A CN109697292A (zh) | 2019-04-30 |
CN109697292B true CN109697292B (zh) | 2023-04-21 |
Family
ID=66231751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811542438.7A Active CN109697292B (zh) | 2018-12-17 | 2018-12-17 | 一种机器翻译方法、装置、电子设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109697292B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110175335B (zh) * | 2019-05-08 | 2023-05-09 | 北京百度网讯科技有限公司 | 翻译模型的训练方法和装置 |
CN110263353B (zh) * | 2019-06-25 | 2023-10-13 | 北京金山数字娱乐科技有限公司 | 一种机器翻译方法及装置 |
CN110309888A (zh) * | 2019-07-11 | 2019-10-08 | 南京邮电大学 | 一种基于分层多任务学习的图像分类方法与系统 |
CN110472257A (zh) * | 2019-08-20 | 2019-11-19 | 南京题麦壳斯信息科技有限公司 | 一种基于句对的机器翻译引擎测评优选方法及系统 |
CN111310483B (zh) * | 2020-02-11 | 2023-06-16 | 北京字节跳动网络技术有限公司 | 一种翻译方法、装置、电子设备及存储介质 |
CN113609420A (zh) * | 2021-08-10 | 2021-11-05 | 平安国际智慧城市科技股份有限公司 | 基于人工智能的页面渲染方法、装置、电子设备及介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685634A (zh) * | 2008-09-27 | 2010-03-31 | 上海盛淘智能科技有限公司 | 一种儿童语音情感识别方法 |
CN101770453A (zh) * | 2008-12-31 | 2010-07-07 | 华建机器翻译有限公司 | 基于领域本体结合机器学习模型的汉语文本共指消解方法 |
CN103426007A (zh) * | 2013-08-29 | 2013-12-04 | 人民搜索网络股份公司 | 一种机器学习分类方法及装置 |
CN104978310A (zh) * | 2014-04-08 | 2015-10-14 | 纳宝株式会社 | 基于各种意思类别的翻译结果的提供方法及系统 |
CN107038159A (zh) * | 2017-03-09 | 2017-08-11 | 清华大学 | 一种基于无监督领域自适应的神经网络机器翻译方法 |
CN107844473A (zh) * | 2017-09-25 | 2018-03-27 | 沈阳航空航天大学 | 基于语境相似度计算的词义消歧方法 |
CN107870904A (zh) * | 2017-11-22 | 2018-04-03 | 北京搜狗科技发展有限公司 | 一种翻译方法、装置以及用于翻译的装置 |
US9959272B1 (en) * | 2017-07-21 | 2018-05-01 | Memsource a.s. | Automatic classification and translation of written segments |
CN108536681A (zh) * | 2018-04-16 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 基于情感分析的智能问答方法、装置、设备及存储介质 |
CN108647214A (zh) * | 2018-03-29 | 2018-10-12 | 中国科学院自动化研究所 | 基于深层神经网络翻译模型的解码方法 |
CN108874785A (zh) * | 2018-06-01 | 2018-11-23 | 清华大学 | 一种翻译处理方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10545956B2 (en) * | 2015-06-05 | 2020-01-28 | Insight Engines, Inc. | Natural language search with semantic mapping and classification |
-
2018
- 2018-12-17 CN CN201811542438.7A patent/CN109697292B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685634A (zh) * | 2008-09-27 | 2010-03-31 | 上海盛淘智能科技有限公司 | 一种儿童语音情感识别方法 |
CN101770453A (zh) * | 2008-12-31 | 2010-07-07 | 华建机器翻译有限公司 | 基于领域本体结合机器学习模型的汉语文本共指消解方法 |
CN103426007A (zh) * | 2013-08-29 | 2013-12-04 | 人民搜索网络股份公司 | 一种机器学习分类方法及装置 |
CN104978310A (zh) * | 2014-04-08 | 2015-10-14 | 纳宝株式会社 | 基于各种意思类别的翻译结果的提供方法及系统 |
CN107038159A (zh) * | 2017-03-09 | 2017-08-11 | 清华大学 | 一种基于无监督领域自适应的神经网络机器翻译方法 |
US9959272B1 (en) * | 2017-07-21 | 2018-05-01 | Memsource a.s. | Automatic classification and translation of written segments |
CN107844473A (zh) * | 2017-09-25 | 2018-03-27 | 沈阳航空航天大学 | 基于语境相似度计算的词义消歧方法 |
CN107870904A (zh) * | 2017-11-22 | 2018-04-03 | 北京搜狗科技发展有限公司 | 一种翻译方法、装置以及用于翻译的装置 |
CN108647214A (zh) * | 2018-03-29 | 2018-10-12 | 中国科学院自动化研究所 | 基于深层神经网络翻译模型的解码方法 |
CN108536681A (zh) * | 2018-04-16 | 2018-09-14 | 腾讯科技(深圳)有限公司 | 基于情感分析的智能问答方法、装置、设备及存储介质 |
CN108874785A (zh) * | 2018-06-01 | 2018-11-23 | 清华大学 | 一种翻译处理方法及系统 |
Non-Patent Citations (3)
Title |
---|
"English Language Statistical Machine Translation Oriented Classification Algorithm";Jia Yan 等;《 2015 International Conference on Intelligent Transportation, Big Data and Smart City》;20160121;第376-379页 * |
"利用统计搭配模型改进基于实例的机器翻译";刘占一 等;《软件学报》;20120615;第23卷(第6期);第1472-1485页 * |
"基于短语相似度的统计机器翻译模型";何中军 等;《高技术通讯》;20090425;第19卷(第4期);第337-341页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109697292A (zh) | 2019-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109697292B (zh) | 一种机器翻译方法、装置、电子设备和介质 | |
CN110287278B (zh) | 评论生成方法、装置、服务器及存储介质 | |
CN107908635B (zh) | 建立文本分类模型以及文本分类的方法、装置 | |
US11314946B2 (en) | Text translation method, device, and storage medium | |
CN106897439B (zh) | 文本的情感识别方法、装置、服务器以及存储介质 | |
CN109614625B (zh) | 标题正文相关度的确定方法、装置、设备及存储介质 | |
CN113495900B (zh) | 基于自然语言的结构化查询语言语句获取方法及装置 | |
CN110415679B (zh) | 语音纠错方法、装置、设备和存储介质 | |
CN109783490B (zh) | 数据融合方法、装置、计算机设备及存储介质 | |
CN109416705A (zh) | 利用语料库中可用的信息用于数据解析和预测 | |
US20190087685A1 (en) | Method and apparatus for recommending sample data | |
CN110175336B (zh) | 翻译方法、装置和电子设备 | |
US11475588B2 (en) | Image processing method and device for processing image, server and storage medium | |
CN109558604B (zh) | 一种机器翻译方法、装置、电子设备及存储介质 | |
CN107301248B (zh) | 文本的词向量构建方法和装置、计算机设备、存储介质 | |
CN109947924B (zh) | 对话系统训练数据构建方法、装置、电子设备及存储介质 | |
CN110263340B (zh) | 评论生成方法、装置、服务器及存储介质 | |
CN110929802A (zh) | 基于信息熵的细分类识别模型训练、图像识别方法及装置 | |
CN113064964A (zh) | 文本分类方法、模型训练方法、装置、设备以及存储介质 | |
CN111597800A (zh) | 同义句的获取方法及装置、设备及存储介质 | |
CN114373460A (zh) | 车载语音助手的指令确定方法、装置、设备及介质 | |
CN112989050B (zh) | 一种表格分类方法、装置、设备及存储介质 | |
CN113096687B (zh) | 音视频处理方法、装置、计算机设备及存储介质 | |
CN111460224B (zh) | 评论数据的质量标注方法、装置、设备及存储介质 | |
CN113761845A (zh) | 一种文本生成方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |