CN110765785A - 基于神经网络的中英翻译方法、及其相关设备 - Google Patents
基于神经网络的中英翻译方法、及其相关设备 Download PDFInfo
- Publication number
- CN110765785A CN110765785A CN201910884427.5A CN201910884427A CN110765785A CN 110765785 A CN110765785 A CN 110765785A CN 201910884427 A CN201910884427 A CN 201910884427A CN 110765785 A CN110765785 A CN 110765785A
- Authority
- CN
- China
- Prior art keywords
- target
- chinese
- initial
- english
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013519 translation Methods 0.000 title claims abstract description 179
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 95
- 238000004364 calculation method Methods 0.000 claims abstract description 45
- 238000006243 chemical reaction Methods 0.000 claims abstract description 24
- 239000011159 matrix material Substances 0.000 claims description 138
- 238000012549 training Methods 0.000 claims description 56
- 238000003780 insertion Methods 0.000 claims description 45
- 230000037431 insertion Effects 0.000 claims description 45
- 238000013527 convolutional neural network Methods 0.000 claims description 29
- 230000011218 segmentation Effects 0.000 claims description 24
- 230000017105 transposition Effects 0.000 claims description 12
- 238000010606 normalization Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000014616 translation Effects 0.000 description 132
- 230000008569 process Effects 0.000 description 10
- 125000004122 cyclic group Chemical group 0.000 description 4
- 230000008676 import Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000019771 cognition Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能技术领域,提供了一种基于神经网络的中英翻译方法、及其相关设备,所述基于神经网络的中英翻译方法包括:从预设待翻译库中获取待翻译的初始数据;将所述初始数据输入到预先训练好的中英文翻译模型中;通过所述嵌入单元对所述初始数据进行向量特征转换处理,得到初始向量;采用所述卷积单元对所述初始向量进行卷积计算,提取所述初始向量对应的初始特征数据;将所述初始特征数据导入到所述全连接单元中进行相似度计算,输出相似度最大的初始识别结果作为所述初始数据对应的翻译结果。本发明的技术方案实现提高用户根据中英文翻译模型获取翻译数据的准确性及效率。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于神经网络的中英翻译方法、及其相关设备。
背景技术
现有中英文翻译模型通过循环神经网络以及注意力机制实现,但循环神经网络由于其结构的特性,需要进行序列性的计算,导致模型的训练效率较低,而卷积神经网络则是对样本语句进行并行处理,虽然能够提升模型的训练效率,但是卷积神经网络不能像循环神经网络一样充分提取文本次序信息,导致模型训练的准确度不高,进一步影响中英文翻译模型识别的准确性,进而影响用户根据中英文翻译模型获取翻译数据的准确性及效率。
发明内容
本发明实施例提供一种基于神经网络的中英翻译方法、及其相关设备,以解决传统中英文翻译模型识别的准确性不高,影响用户根据中英文翻译模型获取翻译数据的准确性及效率的问题。
一种基于神经网络的中英翻译方法,包括:
从预设待翻译库中获取待翻译的初始数据;
将所述初始数据输入到预先训练好的中英文翻译模型中,其中,所述中英文翻译模型包含嵌入单元、卷积单元和全连接单元;
通过所述嵌入单元对所述初始数据进行向量特征转换处理,得到初始向量;
采用所述卷积单元对所述初始向量进行卷积计算,提取所述初始向量对应的初始特征数据;
将所述初始特征数据导入到所述全连接单元中进行相似度计算,输出相似度最大的初始识别结果作为所述初始数据对应的翻译结果。
一种基于神经网络的中英翻译装置,包括:
第一获取模块,用于从预设待翻译库中获取待翻译的初始数据;
输入模块,用于将所述初始数据输入到预先训练好的中英文翻译模型中,其中,所述中英文翻译模型包含嵌入单元、卷积单元和全连接单元;
转换模块,用于通过所述嵌入单元对所述初始数据进行向量特征转换处理,得到初始向量;
第一计算模块,用于采用所述卷积单元对所述初始向量进行卷积计算,提取所述初始向量对应的初始特征数据;
输出模块,用于将所述初始特征数据导入到所述全连接单元中进行相似度计算,输出相似度最大的初始识别结果作为所述初始数据对应的翻译结果。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于神经网络的中英翻译方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于神经网络的中英翻译方法的步骤。
上述基于神经网络的中英翻译方法、装置、计算机设备及存储介质,通过将获取到的初始数据输入到预先训练好的中英文翻译模型中,利用中英文翻译模型中的嵌入单元进行向量特征转换处理,得到初始向量,利用卷积单元对初始向量进行卷积计算,得到初始向量对应的初始特征数据,最后将初始特征数据导入到全连接单元中进行相似度计算,并输出相似度最大的初始识别结果作为初始数据对应的翻译结果。从而实现利用预先训练好的中英文翻译模型,能够根据输入的初始数据,快速准确地识别出初始数据对应的翻译结果,且预先训练好的中英文翻译模型相对传统翻译模型的准确性更高,进而提高用户根据中英文翻译模型获取翻译数据的准确性及效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于神经网络的中英翻译方法的流程图;
图2是本发明实施例提供的基于神经网络的中英翻译方法中对中英文翻译模型进行训练的流程图
图3是本发明实施例提供的基于神经网络的中英翻译方法中步骤S2的流程图;
图4是本发明实施例提供的基于神经网络的中英翻译方法中步骤S22的流程图;
图5是本发明实施例提供的基于神经网络的中英翻译方法中步骤S23的流程图;
图6是本发明实施例提供的基于神经网络的中英翻译方法中步骤S4的流程图;
图7是本发明实施例提供的基于神经网络的中英翻译方法中步骤S42的流程图;
图8是本发明实施例提供的基于神经网络的中英翻译装置的示意图;
图9是本发明实施例提供的计算机设备的基本机构框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请提供的基于神经网络的中英翻译方法应用于服务端,服务端具体可以用独立的服务器或者多个服务器组成的服务器集群实现。在一实施例中,如图1所示,提供一种基于神经网络的中英翻译方法,包括如下步骤:
S101:从预设待翻译库中获取待翻译的初始数据。
具体地,通过直接从预设待翻译库中获取待翻译的初始数据,其中,预设待翻译库是指专门用于存储初始数据的数据库。
S102:将初始数据输入到预先训练好的中英文翻译模型中,其中,中英文翻译模型包含嵌入单元、卷积单元和全连接单元。
在本发明实施例中,预先训练好的中英文翻译模型是指根据用户设定的训练数据对卷积神经网络模型进行训练后,能够快速识别初始数据对应的翻译结果的模型。
具体地,将步骤S101获取的初始数据直接输入到预先训练好的中英文翻译模型中。
S103:通过嵌入单元对初始数据进行向量特征转换处理,得到初始向量。
在本发明实施例中,嵌入单元存在用于对初始数据进行向量特征转换处理的向量转换端口,通过直接将初始数据导入到嵌入单元中的向量转换端口进行向量特征转换处理,得到初始数据对应的初始向量。
S104:采用卷积单元对初始向量进行卷积计算,提取初始向量对应的初始特征数据。
在本发明实施例中,卷积单元中存在预先设置好的目标卷积核,当卷积单元接收到初始向量后,利用预先设置好的目标卷积核对初始向量进行卷积操作,得到对应的目标输出结果,并将该目标输出结果作为初始向量对应的初始特征数据,提取该初始特征数据。
S105:将初始特征数据导入到全连接单元中进行相似度计算,输出相似度最大的初始识别结果作为初始数据对应的翻译结果。
具体地,全连接单元中包含预先设置好的目标分类器,将初始特征数据导入到全连接单元中,当全连接单元接收到初始特征数据后,利用设置好的目标分类器对初始特征数据进行相似度计算,将相似度最大的初始识别结果进行输出,并将该初始识别结果作为初始数据对应的翻译结果。
本实施例中,通过将获取到的初始数据输入到预先训练好的中英文翻译模型中,利用中英文翻译模型中的嵌入单元进行向量特征转换处理,得到初始向量,利用卷积单元对初始向量进行卷积计算,得到初始向量对应的初始特征数据,最后将初始特征数据导入到全连接单元中进行相似度计算,并输出相似度最大的初始识别结果作为初始数据对应的翻译结果。从而实现利用预先训练好的中英文翻译模型,能够根据输入的初始数据,快速准确地识别出初始数据对应的翻译结果,且预先训练好的中英文翻译模型相对传统翻译模型的准确性更高,进而提高用户根据中英文翻译模型获取翻译数据的准确性及效率。
在一实施例中,如图2所示,步骤S1之前,该基于神经网络的中英翻译方法还包括如下步骤:
S1:从预设数据库中获取翻译语料数据。
在本发明实施例中,通过直接从预设数据库中获取翻译语料数据,其中,翻译语料数据包含不同的互译样本,且互译文本包含中文文本和英文文本,即中文文本对应的英文翻译为英文文本,例如,中文文本为:很高兴见到你,其对应的英文文本为:Nice to meetyou。
预设数据库是指专门用于存储翻译语料数据的数据库。
S2:对翻译语料数据进行padding插入处理,得到训练样本。
在本发明实施例中,padding插入处理是指针对翻译语料数据中的每一组互译样本,在达到用户预先设定的条件下,对互译样本的中文文本或英文文本加入padding插入。
将翻译语料数据导入到预设padding端口中进行padding插入处理,得到padding插入处理后的翻译语料数据,并将该翻译语料数据确定为训练样本。其中,预设padding端口是指专门用于对翻译语料数据进行padding插入处理的处理端口。
需要说明的是,通过对翻译语料数据进行padding插入处理,能够实现翻译语料数据中的中文文本和英文文本两类语种的位置对应,提高后续利用训练样本对中英文翻译模型进行训练的准确性。
S3:将训练样本导入卷积神经网络模型,采用嵌入层对训练样本进行向量特征转换处理,得到目标数据,其中,卷积神经网络包含嵌入层、卷积层和全连接层。
具体地,将训练样本导入到卷积神经网络模型中,由卷积神经网络模型中的嵌入层将训练样本导入到预设处理库中进行向量特征转换处理,输出向量特征转换处理后的向量特征,并将该向量特征确定为目标数据。其中,预设处理库是指用于对训练样本进行向量特征转换处理的数据库。
需要说明的是,卷积神经网络模型中的各个网络层的权值和偏置预先均设置一个初始参数,使得卷积神经网络模型能够根据初始参数对训练样本进行特征的提取和计算,其中,权值和偏置是用于对输入的数据在网络中进行的折射变换计算的模型参数,使得网络经过计算输出的结果能够与实际情况相符。
可以理解地,以人接收信息为例,当人在接收信息后,经过人脑神经元的判断、传递后,人会得到某个结果或者认知,即从信息中获取认知的过程,而对卷积神经网络模型的训练过程就是优化网络中的神经元连接的权值和偏置,使得训练后的卷积神经网络模型对待翻译的数据进行识别时,能够达到与真实情况相符的识别效果。
S4:采用卷积层对目标数据进行卷积计算,提取目标数据的特征数据。
在本发明实施例中,卷积神经网络模型中的卷积层包含预先设置好的卷积核,通过将目标数据导入到卷积层中,卷积层能够根据预先设置好的卷积核进行卷积操作,得到对应的输出结果,并将该输出结果作为目标数据的特征数据。
需要说明的是,需要说明的是,卷积计算处理过程为,对于一m*n的矩阵,以1维卷积为例,构建一x*n的卷积核,该卷积核在原始矩阵上滑动运算。例如m的值为5,x的值为1,则卷积核自上而下滑动,x首先与第一行的n维向量相乘并求和,得到一个值,随后x继续往下滑动与第2行,第3行…进行卷积运算,共得到5*1的矩阵,即为卷积结果。
其中,本发明实施例采用至少5个卷积层对目标数据进行卷积计算。
S5:将特征数据导入到全连接层中进行相似度计算,输出相似度最大的识别结果。
在本发明实施例中,全连接层中包含预先设置好的分类器,当全连接层接收到特征数据时,利用预先设置好的分类器对特征数据进行相似度计算,并将相似度最大的识别结果进行输出。
需要说明的是,由于翻译模型并不是直接根据单词进行转化,需要考虑到上下文以及顺序关系,因此不能直接根据字典翻译。例如,英文单词one,对应的中文翻译可能为“一个”或者“一对”,在不同的语句下,同一个英文词语,可能对应中文翻译的概率是变化的。出于模型结构需要,输入的每一个英文单词都将计算与所有中文翻译的对应概率,并输出概率最高者。
由于输入模型的中文或英文会先转换为特征数据,故通过预先设置好的分类器对特征数据进行相似度计算,能够准确输出相似度最大的识别结果,即为中文或英文对应最大概率的翻译结果。
S6:基于识别结果与预设标准结果,使用反向传播算法进行拟合,获取预测误差。
在本发明实施例中,根据识别结果和预设标准结果,使用反向传播算法对卷积神经网络模型各个网络层的初始参数进行调整,根据各层的输出对卷积神经网络模型各个网络层进行误差反传更新,获取更新后的各个网络层的权值和偏置,使用更新后的各个网络层的权值和偏置,对训练样本进行预测,得到预测误差。
其中,预设标准结果是指根据用户实际需求设置用于与识别结果进行比较的数据结果。
S7:将预测误差与预设阈值进行比较,若预测误差大于预设阈值,则对卷积神经网络模型进行迭代更新,直到预测误差小于等于预设阈值为止,获取中英文翻译模型。
具体地,将步骤S6得到的预测误差与预设阈值进行比较,若预测误差大于预设阈值,则利用预先设置好的损失函数,通过对卷积神经网络模型中各个网络层的初始参数进行调整的方式进行迭代更新,若预测误差小于等于预设阈值,则停止迭代,并将该预测误差对应的卷积神经网络模型确定为中英文翻译模型。
需要说明的是,初始参数只是为了方便卷积神经网络模型的运算预设的一个参数,使得根据训练样本获得的识别结果与预设标准结果之间必然存在误差,需要将这个误差信息逐层回传给卷积神经网络模型中的各层网络结构,让每一层网络结构对预设的初始参数进行调整,才能获得识别效果更好的中英文翻译模型。
本实施例中,通过对获取到的翻译语料数据进行padding插入处理,得到训练样本,将训练样本导入到卷积神经网络模型中,利用该模型中的嵌入层对训练样本进行特征转换处理,得到处理后的目标数据,通过利用卷积神经网络模型中的卷积层对目标数据进行卷积计算,提取目标数据对应的特征数据,再利用卷积神经网络模型中的全连接层进行相似度计算,输出相似度最大的识别结果,基于识别结果与预设标准结果,使用反向传播算法进行拟合,获取预测误差,最后将预测误差与预设阈值进行比较,若预测误差大于预设阈值,则对卷积神经网络模型进行迭代更新,直到预测误差小于等于预设阈值为止,并获取中英文翻译模型。通过对翻译语料数据执行padding插入处理得到训练样本的方式,能够加强训练样本中中英文之间的信息交互,有效提高模型训练的准确性及训练效率,通过利用卷积神经网络模型进行训练,且对卷积处理过程进行改进,提高模型训练的准确度,进一步提高中英翻模模型的识别效率以及识别准确率。
在一实施例中,翻译语料数据包含至少100组的互译文本,且每组互译文本包含中文文本和英文文本,如图3所示,步骤S2中,即对翻译语料数据进行padding插入处理,得到训练样本包括如下步骤:
S21:对每组互译文本中的中文文本和英文文本均进行分词处理,得到中文分词和英文分词。
具体地,针对每组互译文本中的中文文本和英文文本,利用预设分词库中的合法中文词汇与中文文本进行匹配,若中文文本中存在与合法中文词汇相同的文字字符,则将该文字字符确定为中文分词,若中文文本中存在与合法中文词汇不相同的文字字符,则将单个文字字符确定为中文分词;同理,利用预设分词库中的合法英文词汇与英文文本进行匹配,得到中文分词。
其中,预设分词库是指专门用于存储不同的合法中文词汇和合法英文词汇的数据库。
S22:根据每组互译文本中的中文分词和英文分词,执行第一轮padding插入处理,得到目标翻译语料数据,其中,目标翻译语料数据包含至少100组的目标互译文本,每组目标互译文本包含目标中文文本和目标英文文本,且目标中文文本包含词汇数量,目标英文文本包含目标单词数量。
在本发明实施例中,第一轮padding插入处理是指针对存在互译关系的中文分词和英文分词,在达到用户预先设定的条件下对中文分词或英文分词填充padding的处理方式。
具体地,将每组互译文本中的中文分词和英文分词导入到预设第一端口中执行第一轮padding插入处理,并将执行完第一轮padding插入处理后的中文分词和英文分词确定为目标翻译语料数据。其中,预设第一端口是指专门用于执行第一轮padding插入处理的处理端口。
需要说明的是,由于翻译语料数据包含至少100组的互译文本,目标翻译语料数据是根据翻译语料数据得到,故目标翻译语料数据也包含至少100组的目标互译文本。
S23:针对目标翻译语料数据中的每组目标互译文本,利用目标中文文本的词汇数量和目标英文文本的目标单词数量进行比较的方式,执行第二轮padding插入处理,得到训练样本。
在本发明实施例中,第二轮padding插入处理是指针对存在互译关系的目标中文文本和目标英文文本,将目标中文文本的词汇数量和目标英文文本的目标单词数量进行比较,对数量偏少的词汇数量或目标单词数量进行填充padding至数量相同的处理方式。
具体地,将目标翻译语料数据中的每组目标互译文本导入到预设第二端口中执行第二轮padding插入处理,并将执行完第二轮padding插入处理后的目标中文文本和目标英文文本确定为训练样本。其中,预设第二端口是指专门用于执行第二轮padding插入处理的处理端口。
本实施例中,通过对翻译语料数据中的互译文本包含的中文文本和英文文本均进行分词处理,得到中文分词和英文分词,针对每组互译文本中的中文分词和英文分词,执行第一轮padding插入处理后得到目标翻译语料数据,在针对目标翻译语料数据中的每组目标互译文本,执行第二轮padding插入处理,得到训练样本。从而通过对翻译语料数据分别进行分词处理、第一轮padding插入处理和第二轮padding插入处理的方式,能够加强翻译语料数据之间的信息交互,提高后续模型训练的效率。
在一实施例中,如图4所示,步骤S22中,即根据每组互译文本中的中文分词和英文分词,执行第一轮padding插入处理,得到目标翻译语料数据包括如下步骤:
S221:针对每组互译文本,将中文分词与英文分词进行翻译匹配,选取翻译匹配成功的中文分词和英文分词分别作为目标中文分词和目标英文分词。
在本发明实施例中,针对每组互译文本,将互译文本中的中文分词与预设翻译库中的标准中文分词进行比较,当中文分词与标准中文分词相同时,选取该标准中文分词对应的翻译英文词组与英文分词进行翻译匹配,若翻译英文词组与英文分词相同,则表示该英文分词为该中文分词对应的翻译,即翻译匹配成功,并将该中文分词确定为目标中文分词,将英文分词确定为目标英文分词。
其中,预设翻译库是指用于存储不同的标准中文分词及标准中文分词对应的翻译英文词组的数据库,标准中文分词是指用于与中文分词进行比较的标签信息。且预设翻译库中预先存在与中文分词相同的标准中文分词。
需要说明的是,标准中文分词对应的翻译英文词组可能存在多个,例如,标准中文分词为翻译,其对应的翻译英文词组分别为:translate和interpret。
例如,预设翻译库中存在2个标准中文分词分别为:“翻译”、“专业”,其中,“翻译”对应的翻译英文词组分别为:translate和interpret;“专业”对应的翻译英文词组分别为:profession、major和specialty;若存在一组互译文本,其包含的中文分词为:“专业”,包含的英文分词为:profession和one;通过将中文分词“专业”与预设翻译库中的标准中文分词“翻译”、“专业”进行比较,得到中文分词“专业”与标准中文分词“专业”相同,则将标准中文分词“专业”对应的翻译英文词组profession、major、specialty分别与英文分词profession、one进行匹配,得到翻译英文词组profession与英文分词profession相同,表示中文分词“专业”对应的翻译为英文分词profession,故将中文分词“专业”确定为目标中文分词,将英文分词profession确定为目标英文分词。
S222:针对每组目标中文分词和目标英文分词,将目标中文分词的预设占位数量和目标英文分词的英文单词数量进行比较,对数量偏少的目标中文分词或目标英文分词插入padding至数量相同,并将插入处理后翻译语料数据确定为目标翻译语料数据,其中,目标中文分词包含预设占位数量,目标英文分词包含英文单词数量。
在本发明实施例中,预设占位数量是指用户预先设定用于表示目标中文分词占用位置的数量,例如,目标中文分词为“张三集团”,其为一个独立的命名实体,表示占用1个位置,即其对应的预设占位数量为1。英文单词数量是表示目标英文分词中存在英文单词的数量,其中,每个英文单词表示占用1个位置,例如,目标英文分词为“Zhangsan Group”,其包含两个英文单词分别为Zhangsan和Group,表示占用2个位置。
具体地,针对每目标中文分词和目标英文分词,将目标中文分词的预设占位数量与目标英文分词包含的英文单词数量进行比较,若预设占位数量比英文单词数量少a个,则对目标中文分词插入a个padding;若预设占位数量比英文单词数量多a个,则对目标英文分词插入a个padding;若预设占位数量与英文单词数量相同,则表示完成padding插入处理;并将padding插入处理后的目标中文分词和目标英文分词确定为目标翻译语料数据。其中,a为大于0的正整数。
例如,若目标中文分词为“张三集团”,其对应的预设占位数量为1,目标英文分词为“Zhangsan Group”,其对应的英文单词数量为2,将预设占位数量与英文单词数量进行比较,得到预设占位数量比英文单词数量少1个,故对目标中文分词插入1个padding,即padding插入处理后的目标英文分词转换为“padding张三集团”,并将padding插入处理后的目标中文分词“padding张三集团”和目标英文分词“Zhangsan Group”确定为目标翻译语料数据。
本实施例中,通过翻译匹配的方式,确定每一组目标中文分词和目标英文分词,再根据目标中文分词和目标英文分词执行padding插入处理,以获取目标翻译语料数据。从而实现对目标翻译语料数据的准确获取,保证后续利用目标翻译语料数据进行一系列处理以得到训练样本的准确性。
在一实施例中,如图5所示,步骤S23中,即针对目标翻译语料数据中的每组目标互译文本,利用目标中文文本的词汇数量和目标英文文本的目标单词数量进行比较的方式,执行第二轮padding插入处理,得到训练样本包括如下步骤:
S231:针对目标翻译语料数据中的每组目标互译文本,将目标中文文本中的词汇数量与目标英文文本中的目标单词数量进行比较,若词汇数量与目标单词数量相同,则将该目标互译文本作为训练样本。
在本发明实施例中,词汇数量包括预设占位数量和目标中文分词中插入padding数量,目标单词数量包括英文单词数量和目标英文分词中插入padding的数量。
具体地,由于目标互译文本包含目标中文文本和目标英文文本,针对目标翻译语料数据中的每组目标互译文本,将其包含的目标中文文本中的词汇数量与目标英文文本中的目标单词数量进行比较,若词汇数量与目标单词数量相同,则将该组目标互译文本确定为训练样本。
S232:若词汇数量与目标单词数量不相同,则对数量偏少的目标中文文本或目标英文文本插入padding至数量相同,并将插入处理后的目标互译文本作为训练样本。
具体地,根据步骤S231中将目标中文文本中的词汇数量与目标英文文本中的目标单词数量进行比较的方式,若词汇数量比目标单词数量少a个,则对该词汇数量对应的目标中文文本的末尾插入a个padding;若词汇数量比目标单词数量多a个,则对该目标单词数量对应的目标英文文本的末尾插入a个padding;并将padding插入处理后的目标互译文本确定为训练样本。
例如,若目标中文文本为“他是padding张三集团的老师”,其对应的词汇数量为6,目标英文文本为“He is a teacher of Zhangsan Group”,其对应的目标单词数量为7;将词汇数量与目标单词数量进行比较,由于词汇数量比目标单词数量少1个,故对目标中文文本的末尾插入1个padding,即padding插入处理后的目标中文文本转换为“他是padding张三集团的老师padding”。
本实施例中,针对目标翻译语料数据中的每组目标互译文本,通过将目标中文文本中的词汇数量与目标英文文本中的目标单词数量进行比较的方式,确定训练样本。从而实现对训练样本的准确获取,保证后续利用训练样本进行模型训练的准确性。
在一实施例中,卷积层中包含初始卷积单元、第一卷积单元、第二卷积单元、第三卷积单元和第四卷积单元,如图6所示,步骤S4中,即采用卷积层对目标数据进行卷积计算,提取目标数据的特征数据包括如下步骤:
S41:利用初始卷积单元对目标数据进行卷积处理,获取初始矩阵。
在本发明实施例中,初始卷积单元中包含预先设置好的卷积核,当初始卷积单元接收到目标数据后,利用预先设置好的卷积核对目标数据进行卷积处理,输出初始矩阵。
S42:第一卷积单元和第二卷积单元均接收初始矩阵,并进行注意力矩阵运算,得到权重矩阵。
在本发明实施例中,由于并行单元包括第一卷积单元、第二卷积单元,当初始矩阵导入到并行单元时,第一卷积单元和第二卷积单元将同时接收初始矩阵,并根据预先设置好的注意力矩阵函数进行注意力矩阵运算处理,得到对应的输出结果,即输出结果为权重矩阵。
S43:第三卷积单元接收初始矩阵,并与权重矩阵进行相乘,得到乘积矩阵。
在本发明实施例中,当初始矩阵导入到并行单元时,第三卷积单元将接收初始矩阵,并将该初始矩阵与步骤S42得到的权重矩阵导入到乘法端口进行矩阵乘法运算,得到乘积矩阵。其中,乘法端口是指专门用于进行矩阵乘法运算的处理端口。
需要说明的是,初始矩阵和权重矩阵具体可以是以m*n的形式进行体现,其中,m和n均为大于等于2的正整数,当初始矩阵的列数等于权重矩阵的行数时,初始矩阵与权重矩阵可以相乘,则乘积矩阵的行数等于初始矩阵的行数,矩阵C的列数等于权重矩阵的列数。乘积矩阵的第m行第n列的元素等于初始矩阵的第m行的元素与权重矩阵的第n列对应的元素乘积之和。
S44:第四卷积单元接收初始矩阵,并通过与乘积矩阵进行求和的方式,输出特征数据。
具体地,当初始矩阵导入到并行单元时,第四卷积单元将接收初始矩阵,并将该初始矩阵与步骤S43得到的乘积矩阵导入到求和端口进行矩阵求和运算,得到对应的运算结果,并将该运算结果确定为特征数据。其中,求和端口是指专门用于进行矩阵求和运算的处理端口。
本实施例中,利用初始卷积单元对目标数据进行卷积处理,得到初始矩阵,通过第一卷积单元和第二卷积单元在接收到初始矩阵后进行注意力矩阵运算,得到权重矩阵,第三卷积单元接收到初始矩阵后与权重矩阵进行相乘,得到乘积矩阵,第四卷积单元接收到初始矩阵后与乘积矩阵进行求和,得到特征数据。通过利用初始卷积单元进行卷积处理以及利用第一卷积单元、第二卷积单元、第三卷积单元和第四卷积单元的一系列运算后,能够在计算能力有限的情况下,将计算资源分配给关键数据信息,进一步提高运算精度,从而能够快速准确的获取特征数据,保证后续利用特征数据对模型进行识别的准确性。
在一实施例中,如图7所示,步骤S42中,即第一卷积单元和第二卷积单元均接收初始矩阵,并进行注意力矩阵运算,得到权重矩阵包括如下步骤:
S421:对第二卷积单元接收到的初始矩阵进行矩阵转置处理,得到转置矩阵。
在本发明实施例中,矩阵转置处理是指对矩阵的行列进行转换的运算处理过程,例如,将m*n的矩阵进行矩阵转置处理后,将得到n*m的矩阵。
具体地,第二卷积单元接收到初始矩阵后,将该初始矩阵导入到矩阵转置端口中进行矩阵转置处理,输出对应的转置矩阵。其中,矩阵转置端口是指用于对矩阵进行矩阵转置处理的处理端口。
S422:第一卷积单元接收到初始矩阵后,与转置矩阵进行矩阵乘法运算,获取初始权重矩阵。
具体地,第一卷积单元接收到初始矩阵后,将该初始矩阵与步骤S421得到的转置矩阵一起导入到乘法端口中进行矩阵乘法运算,输出对应的运算结果,并将该运算结果作为初始权重矩阵。
S423:利用归一化指数函数对初始权重矩阵进行归一化处理,得到权重矩阵。
具体地,利用归一化指数函数对步骤S422得到的初始权重矩阵进行归一化处理,得到归一化处理后的权重矩阵。
需要说明的是,通过对初始权重矩阵进行归一化处理后,能够使初始权重矩阵中越重要的特征获得越高的权重值。
本实施例中,通过对第二卷积单元接收到的初始矩阵进行矩阵转置处理,得到转置矩阵,再将第一卷积单元接收到的初始矩阵与转置矩阵进行乘法运算,得到初始权重矩阵。从而实现对初始权重矩阵的准确获取,提高后续利用初始权重矩阵进行运算的准确性。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于神经网络的中英翻译装置,该基于神经网络的中英翻译装置与上述实施例中基于神经网络的中英翻译方法一一对应。如图8所示,该基于神经网络的中英翻译装置包括第一获取模块81,输入模块82,转换模块83,第一计算模块84和输出模块85。各功能模块详细说明如下:
第一获取模块81,用于从预设待翻译库中获取待翻译的初始数据;
输入模块82,用于将初始数据输入到预先训练好的中英文翻译模型中,其中,中英文翻译模型包含嵌入单元、卷积单元和全连接单元;
转换模块83,用于通过嵌入单元对初始数据进行向量特征转换处理,得到初始向量;
第一计算模块84,用于采用卷积单元对初始向量进行卷积计算,提取初始向量对应的初始特征数据;
输出模块85,用于将初始特征数据导入到全连接单元中进行相似度计算,输出相似度最大的初始识别结果作为初始数据对应的翻译结果。
进一步地,该基于神经网络的中英翻译装置还包括:
第二获取模块,用于从预设数据库中获取翻译语料数据;
padding插入模块,用于对翻译语料数据进行padding插入处理,得到训练样本;
目标数据获取模块,用于将训练样本导入卷积神经网络模型,采用嵌入层对训练样本进行向量特征转换处理,得到目标数据,其中,卷积神经网络包含嵌入层、卷积层和全连接层;
卷积计算模块,用于采用卷积层对目标数据进行卷积计算,提取目标数据的特征数据;
相似度计算模块,用于将特征数据导入到全连接层中进行相似度计算,输出相似度最大的识别结果;
拟合模块,用于基于识别结果与预设标准结果,使用反向传播算法进行拟合,获取预测误差;
翻译模型确定模块,用于将预测误差与预设阈值进行比较,若预测误差大于预设阈值,则对卷积神经网络模型进行迭代更新,直到预测误差小于等于预设阈值为止,获取中英文翻译模型。
进一步地,padding插入模块包括:
分词子模块,用于对每组互译文本中的中文文本和英文文本均进行分词处理,得到中文分词和英文分词;
第一插入子模块,用于根据每组互译文本中的中文分词和英文分词,执行第一轮padding插入处理,得到目标翻译语料数据,其中,目标翻译语料数据包含至少100组的目标互译文本,每组目标互译文本包含目标中文文本和目标英文文本,且目标中文文本包含词汇数量,目标英文文本包含目标单词数量;
第二插入子模块,用于针对目标翻译语料数据中的每组目标互译文本,利用目标中文文本的词汇数量和目标英文文本的目标单词数量进行比较的方式,执行第二轮padding插入处理,得到训练样本。
进一步地,第一插入子模块包括:
翻译匹配单元,用于针对每组互译文本,将中文分词与英文分词进行翻译匹配,选取翻译匹配成功的中文分词和英文分词分别作为目标中文分词和目标英文分词;
第三插入单元,用于针对每组目标中文分词和目标英文分词,将目标中文分词的预设占位数量和目标英文分词的英文单词数量进行比较,对数量偏少的目标中文分词或目标英文分词插入padding至数量相同,并将插入处理后翻译语料数据确定为目标翻译语料数据,其中,目标中文分词包含预设占位数量,目标英文分词包含英文单词数量。
进一步地,第二插入子模块包括:
第一比较单元,用于针对目标翻译语料数据中的每组目标互译文本,将目标中文文本中的词汇数量与目标英文文本中的目标单词数量进行比较,若词汇数量与目标单词数量相同,则将该目标互译文本作为训练样本;
第二比较单元,用于若词汇数量与目标单词数量不相同,则对数量偏少的目标中文文本或目标英文文本插入padding至数量相同,并将插入处理后的目标互译文本作为训练样本。
进一步地,卷积计算模块包括:
初始矩阵获取子模块,用于利用初始卷积单元对目标数据进行卷积处理,获取初始矩阵;
注意力矩阵运算子模块,用于第一卷积单元和第二卷积单元均接收初始矩阵,并进行注意力矩阵运算,得到权重矩阵;
乘积矩阵获取子模块,用于第三卷积单元接收初始矩阵,并与权重矩阵进行相乘,得到乘积矩阵;
求和运算子模块,用于第四卷积单元接收初始矩阵,并通过与乘积矩阵进行求和的方式,输出特征数据。
进一步地,注意力矩阵运算子模块包括:
矩阵转置处理单元,用于对第二卷积单元接收到的初始矩阵进行矩阵转置处理,得到转置矩阵;
矩阵乘法运算单元,用于第一卷积单元接收到初始矩阵后,与转置矩阵进行矩阵乘法运算,获取初始权重矩阵;
归一化单元,用于利用归一化指数函数对初始权重矩阵进行归一化处理,得到权重矩阵。
本申请的一些实施例公开了计算机设备。具体请参阅图9,为本申请的一实施例中计算机设备90基本结构框图。
如图9中所示意的,所述计算机设备90包括通过系统总线相互通信连接存储器91、处理器92、网络接口93。需要指出的是,图9中仅示出了具有组件91-93的计算机设备90,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器91至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器91可以是所述计算机设备90的内部存储单元,例如该计算机设备90的硬盘或内存。在另一些实施例中,所述存储器91也可以是所述计算机设备90的外部存储设备,例如该计算机设备90上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器91还可以既包括所述计算机设备90的内部存储单元也包括其外部存储设备。本实施例中,所述存储器91通常用于存储安装于所述计算机设备90的操作系统和各类应用软件,例如所述基于神经网络的中英翻译方法的程序代码等。此外,所述存储器91还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器92在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器92通常用于控制所述计算机设备90的总体操作。本实施例中,所述处理器92用于运行所述存储器91中存储的程序代码或者处理数据,例如运行所述基于神经网络的中英翻译方法的程序代码。
所述网络接口93可包括无线网络接口或有线网络接口,该网络接口93通常用于在所述计算机设备90与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有中英文翻译信息录入程序,所述中英文翻译信息录入程序可被至少一个处理器执行,以使所述至少一个处理器执行上述任意一种基于神经网络的中英翻译方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台计算机设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
最后应说明的是,显然以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (10)
1.一种基于神经网络的中英翻译方法,其特征在于,所述基于神经网络的中英翻译方法包括:
从预设待翻译库中获取待翻译的初始数据;
将所述初始数据输入到预先训练好的中英文翻译模型中,其中,所述中英文翻译模型包含嵌入单元、卷积单元和全连接单元;
通过所述嵌入单元对所述初始数据进行向量特征转换处理,得到初始向量;
采用所述卷积单元对所述初始向量进行卷积计算,提取所述初始向量对应的初始特征数据;
将所述初始特征数据导入到所述全连接单元中进行相似度计算,输出相似度最大的初始识别结果作为所述初始数据对应的翻译结果。
2.如权利要求1所述的中英文翻译方法,其特征在于,所述从预设待翻译库中获取待翻译的初始数据的步骤之前,所述中英文翻译方法还包括:
从预设数据库中获取翻译语料数据;
对所述翻译语料数据进行padding插入处理,得到训练样本;
将所述训练样本导入卷积神经网络模型,采用嵌入层对所述训练样本进行向量特征转换处理,得到目标数据,其中,所述卷积神经网络包含所述嵌入层、卷积层和全连接层;
采用所述卷积层对所述目标数据进行卷积计算,提取所述目标数据的特征数据;
将所述特征数据导入到所述全连接层中进行相似度计算,输出相似度最大的识别结果;
基于所述识别结果与预设标准结果,使用反向传播算法进行拟合,获取预测误差;
将所述预测误差与预设阈值进行比较,若所述预测误差大于预设阈值,则对所述卷积神经网络模型进行迭代更新,直到所述预测误差小于等于预设阈值为止,获取所述中英文翻译模型。
3.如权利要求2所述的基于神经网络的中英翻译方法,其特征在于,所述翻译语料数据包含至少100组的互译文本,且每组所述互译文本包含中文文本和英文文本,所述对所述翻译语料数据进行padding插入处理,得到训练样本的步骤包括:
对每组所述互译文本中的所述中文文本和所述英文文本均进行分词处理,得到中文分词和英文分词;
根据每组所述互译文本中的所述中文分词和所述英文分词,执行第一轮padding插入处理,得到目标翻译语料数据,其中,所述目标翻译语料数据包含至少100组的目标互译文本,每组所述目标互译文本包含目标中文文本和目标英文文本,且所述目标中文文本包含词汇数量,所述目标英文文本包含目标单词数量;
针对所述目标翻译语料数据中的每组所述目标互译文本,利用所述目标中文文本的词汇数量和所述目标英文文本的目标单词数量进行比较的方式,执行第二轮padding插入处理,得到所述训练样本。
4.如权利要求3所述的基于神经网络的中英翻译方法,其特征在于,所述根据每组所述互译文本中的所述中文分词和所述英文分词,执行第一轮padding插入处理,得到目标翻译语料数据的步骤包括:
针对每组所述互译文本,将所述中文分词与所述英文分词进行翻译匹配,选取翻译匹配成功的所述中文分词和所述英文分词分别作为目标中文分词和目标英文分词;
针对每组所述目标中文分词和所述目标英文分词,将所述目标中文分词的预设占位数量和所述目标英文分词的英文单词数量进行比较,对数量偏少的目标中文分词或目标英文分词插入padding至数量相同,并将插入处理后所述翻译语料数据确定为所述目标翻译语料数据,其中,所述目标中文分词包含预设占位数量,所述目标英文分词包含英文单词数量。
5.如权利要求3所述的基于神经网络的中英翻译方法,其特征在于,所述针对所述目标翻译语料数据中的每组所述目标互译文本,利用所述目标中文文本的词汇数量和所述目标英文文本的目标单词数量进行比较的方式,执行第二轮padding插入处理,得到所述训练样本的步骤包括:
针对所述目标翻译语料数据中的每组所述目标互译文本,将目标中文文本中的词汇数量与目标英文文本中的目标单词数量进行比较,若所述词汇数量与所述目标单词数量相同,则将所述目标互译文本作为训练样本;
若所述词汇数量与所述目标单词数量不相同,则对数量偏少的所述目标中文文本或所述目标英文文本插入padding至数量相同,并将插入处理后的目标互译文本作为训练样本。
6.如权利要求2所述的基于神经网络的中英翻译方法,其特征在于,所述卷积层中包含初始卷积单元、第一卷积单元、第二卷积单元、第三卷积单元和第四卷积单元,所述采用所述卷积层对所述目标数据进行卷积计算,提取所述目标数据的特征数据的步骤包括:
利用所述初始卷积单元对所述目标数据进行卷积处理,获取初始矩阵;
所述第一卷积单元和所述第二卷积单元均接收所述初始矩阵,并进行注意力矩阵运算,得到权重矩阵;
所述第三卷积单元接收所述初始矩阵,并与所述权重矩阵进行相乘,得到乘积矩阵;
所述第四卷积单元接收所述初始矩阵,并通过与所述乘积矩阵进行求和的方式,输出所述特征数据。
7.如权利要求6所述的基于神经网络的中英翻译方法,其特征在于,所述第一卷积单元和所述第二卷积单元均接收所述初始矩阵,并进行注意力矩阵运算,得到权重矩阵的步骤包括:
对所述第二卷积单元接收到的所述初始矩阵进行矩阵转置处理,得到转置矩阵;
所述第一卷积单元接收到所述初始矩阵后,与所述转置矩阵进行矩阵乘法运算,获取初始权重矩阵;
利用归一化指数函数对所述初始权重矩阵进行归一化处理,得到所述权重矩阵。
8.一种基于神经网络的中英翻译装置,其特征在于,所述基于神经网络的中英翻译装置包括:
第一获取模块,用于从预设待翻译库中获取待翻译的初始数据;
输入模块,用于将所述初始数据输入到预先训练好的中英文翻译模型中,其中,所述中英文翻译模型包含嵌入单元、卷积单元和全连接单元;
转换模块,用于通过所述嵌入单元对所述初始数据进行向量特征转换处理,得到初始向量;
第一计算模块,用于采用所述卷积单元对所述初始向量进行卷积计算,提取所述初始向量对应的初始特征数据;
输出模块,用于将所述初始特征数据导入到所述全连接单元中进行相似度计算,输出相似度最大的初始识别结果作为所述初始数据对应的翻译结果。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述基于神经网络的中英翻译方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述基于神经网络的中英翻译方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910884427.5A CN110765785B (zh) | 2019-09-19 | 2019-09-19 | 基于神经网络的中英翻译方法、及其相关设备 |
PCT/CN2019/116919 WO2021051513A1 (zh) | 2019-09-19 | 2019-11-10 | 基于神经网络的中英翻译方法、及其相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910884427.5A CN110765785B (zh) | 2019-09-19 | 2019-09-19 | 基于神经网络的中英翻译方法、及其相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110765785A true CN110765785A (zh) | 2020-02-07 |
CN110765785B CN110765785B (zh) | 2024-03-22 |
Family
ID=69329745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910884427.5A Active CN110765785B (zh) | 2019-09-19 | 2019-09-19 | 基于神经网络的中英翻译方法、及其相关设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110765785B (zh) |
WO (1) | WO2021051513A1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112380879A (zh) * | 2020-11-16 | 2021-02-19 | 深圳壹账通智能科技有限公司 | 一种智能翻译方法、装置、计算机设备和存储介质 |
CN112733556A (zh) * | 2021-01-28 | 2021-04-30 | 何灏 | 同步交互式翻译方法及装置、存储介质、计算机设备 |
CN113268997A (zh) * | 2021-06-08 | 2021-08-17 | 平安科技(深圳)有限公司 | 文本翻译方法、装置、计算机设备和存储介质 |
CN113486680A (zh) * | 2021-07-23 | 2021-10-08 | 平安科技(深圳)有限公司 | 文本翻译方法、装置、设备及存储介质 |
WO2021218012A1 (zh) * | 2020-04-29 | 2021-11-04 | 平安科技(深圳)有限公司 | 中英双语语料库的构建方法、及其相关设备 |
CN115618891A (zh) * | 2022-12-19 | 2023-01-17 | 湖南大学 | 一种基于对比学习的多模态机器翻译方法和系统 |
CN116070643A (zh) * | 2023-04-03 | 2023-05-05 | 武昌理工学院 | 一种古文到英文的固定风格翻译方法及系统 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113177420A (zh) * | 2021-04-29 | 2021-07-27 | 同方知网(北京)技术有限公司 | 一种基于学术文献的中英双语词典构建方法 |
CN113836946B (zh) * | 2021-09-13 | 2023-11-14 | 北京交通大学 | 训练评分模型的方法、装置、终端及存储介质 |
CN115062632B (zh) * | 2022-06-09 | 2024-09-27 | 中国电力科学研究院有限公司 | 变电站模型数据涵义英文描述方法、装置、设备及介质 |
CN117787296B (zh) * | 2024-02-26 | 2024-05-07 | 中国标准化研究院 | 一种基于机器学习的英语标准内容自动翻译方法及系统 |
CN117910467B (zh) * | 2024-03-15 | 2024-05-10 | 成都启英泰伦科技有限公司 | 一种离线语音识别过程中的分词处理方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980683A (zh) * | 2017-03-30 | 2017-07-25 | 中国科学技术大学苏州研究院 | 基于深度学习的博客文本摘要生成方法 |
CN109190131A (zh) * | 2018-09-18 | 2019-01-11 | 北京工业大学 | 一种基于神经机器翻译的英语单词及其大小写联合预测方法 |
CN109255121A (zh) * | 2018-07-27 | 2019-01-22 | 中山大学 | 一种基于主题类的跨语言生物医学类学术论文信息推荐方法 |
US20190138606A1 (en) * | 2016-07-12 | 2019-05-09 | Huawei Technologies Co., Ltd. | Neural network-based translation method and apparatus |
CN109840279A (zh) * | 2019-01-10 | 2019-06-04 | 山东亿云信息技术有限公司 | 基于卷积循环神经网络的文本分类方法 |
CN109933808A (zh) * | 2019-01-31 | 2019-06-25 | 沈阳雅译网络技术有限公司 | 一种基于动态配置解码的神经机器翻译方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10776707B2 (en) * | 2016-03-08 | 2020-09-15 | Shutterstock, Inc. | Language translation based on search results and user interaction data |
CN108628837A (zh) * | 2017-03-22 | 2018-10-09 | 湖南本来文化发展有限公司 | 采用卷积神经网络算法翻译西班牙语和四川口音的同传箱 |
CN107239449A (zh) * | 2017-06-08 | 2017-10-10 | 锦州医科大学 | 一种英语识别方法和翻译方法 |
-
2019
- 2019-09-19 CN CN201910884427.5A patent/CN110765785B/zh active Active
- 2019-11-10 WO PCT/CN2019/116919 patent/WO2021051513A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190138606A1 (en) * | 2016-07-12 | 2019-05-09 | Huawei Technologies Co., Ltd. | Neural network-based translation method and apparatus |
CN106980683A (zh) * | 2017-03-30 | 2017-07-25 | 中国科学技术大学苏州研究院 | 基于深度学习的博客文本摘要生成方法 |
CN109255121A (zh) * | 2018-07-27 | 2019-01-22 | 中山大学 | 一种基于主题类的跨语言生物医学类学术论文信息推荐方法 |
CN109190131A (zh) * | 2018-09-18 | 2019-01-11 | 北京工业大学 | 一种基于神经机器翻译的英语单词及其大小写联合预测方法 |
CN109840279A (zh) * | 2019-01-10 | 2019-06-04 | 山东亿云信息技术有限公司 | 基于卷积循环神经网络的文本分类方法 |
CN109933808A (zh) * | 2019-01-31 | 2019-06-25 | 沈阳雅译网络技术有限公司 | 一种基于动态配置解码的神经机器翻译方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021218012A1 (zh) * | 2020-04-29 | 2021-11-04 | 平安科技(深圳)有限公司 | 中英双语语料库的构建方法、及其相关设备 |
CN112380879A (zh) * | 2020-11-16 | 2021-02-19 | 深圳壹账通智能科技有限公司 | 一种智能翻译方法、装置、计算机设备和存储介质 |
CN112733556A (zh) * | 2021-01-28 | 2021-04-30 | 何灏 | 同步交互式翻译方法及装置、存储介质、计算机设备 |
CN112733556B (zh) * | 2021-01-28 | 2024-04-05 | 何灏 | 同步交互式翻译方法及装置、存储介质、计算机设备 |
CN113268997A (zh) * | 2021-06-08 | 2021-08-17 | 平安科技(深圳)有限公司 | 文本翻译方法、装置、计算机设备和存储介质 |
CN113268997B (zh) * | 2021-06-08 | 2024-03-08 | 平安科技(深圳)有限公司 | 文本翻译方法、装置、计算机设备和存储介质 |
CN113486680A (zh) * | 2021-07-23 | 2021-10-08 | 平安科技(深圳)有限公司 | 文本翻译方法、装置、设备及存储介质 |
CN113486680B (zh) * | 2021-07-23 | 2023-12-15 | 平安科技(深圳)有限公司 | 文本翻译方法、装置、设备及存储介质 |
CN115618891A (zh) * | 2022-12-19 | 2023-01-17 | 湖南大学 | 一种基于对比学习的多模态机器翻译方法和系统 |
CN115618891B (zh) * | 2022-12-19 | 2023-04-07 | 湖南大学 | 一种基于对比学习的多模态机器翻译方法和系统 |
CN116070643A (zh) * | 2023-04-03 | 2023-05-05 | 武昌理工学院 | 一种古文到英文的固定风格翻译方法及系统 |
CN116070643B (zh) * | 2023-04-03 | 2023-08-15 | 武昌理工学院 | 一种古文到英文的固定风格翻译方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2021051513A1 (zh) | 2021-03-25 |
CN110765785B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110765785B (zh) | 基于神经网络的中英翻译方法、及其相关设备 | |
CN111814466B (zh) | 基于机器阅读理解的信息抽取方法、及其相关设备 | |
CN109871532B (zh) | 文本主题提取方法、装置及存储介质 | |
CN110825857B (zh) | 多轮问答识别方法、装置、计算机设备及存储介质 | |
CN107797985B (zh) | 建立同义鉴别模型以及鉴别同义文本的方法、装置 | |
WO2020224219A1 (zh) | 中文分词方法、装置、电子设备及可读存储介质 | |
JP2020520492A (ja) | 文書要約自動抽出方法、装置、コンピュータ機器及び記憶媒体 | |
CN111191457B (zh) | 自然语言语义识别方法、装置、计算机设备和存储介质 | |
CN111599340A (zh) | 一种多音字读音预测方法、装置及计算机可读存储介质 | |
CN112434131B (zh) | 基于人工智能的文本错误检测方法、装置、计算机设备 | |
CN112381079A (zh) | 图像处理方法和信息处理设备 | |
CN111310441A (zh) | 基于bert的语音识别后文本修正方法、装置、终端及介质 | |
CN110489423B (zh) | 一种信息抽取的方法、装置、存储介质及电子设备 | |
CN111339775A (zh) | 命名实体识别方法、装置、终端设备及存储介质 | |
WO2023116572A1 (zh) | 一种词句生成方法及相关设备 | |
CN114036950A (zh) | 一种医疗文本命名实体识别方法及系统 | |
CN113743101A (zh) | 文本纠错方法、装置、电子设备和计算机存储介质 | |
CN112132269B (zh) | 模型处理方法、装置、设备及存储介质 | |
CN111898363B (zh) | 文本长难句的压缩方法、装置、计算机设备及存储介质 | |
CN110705268B (zh) | 基于人工智能的文章主旨提取方法、装置及计算机可读存储介质 | |
CN116798044A (zh) | 文本识别方法、装置,以及电子设备 | |
CN111401069A (zh) | 会话文本的意图识别方法、意图识别装置及终端 | |
CN116150311A (zh) | 文本匹配模型的训练方法、意图识别方法及装置 | |
CN115080748A (zh) | 一种基于带噪标签学习的弱监督文本分类方法和装置 | |
CN114638229A (zh) | 笔录数据的实体识别方法、装置、介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |