CN115099249B - 一种基于翻译结果智能优化方法、系统及其存储介质 - Google Patents
一种基于翻译结果智能优化方法、系统及其存储介质 Download PDFInfo
- Publication number
- CN115099249B CN115099249B CN202210894351.6A CN202210894351A CN115099249B CN 115099249 B CN115099249 B CN 115099249B CN 202210894351 A CN202210894351 A CN 202210894351A CN 115099249 B CN115099249 B CN 115099249B
- Authority
- CN
- China
- Prior art keywords
- translation
- language information
- feature vector
- feature
- source language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims abstract description 179
- 238000005457 optimization Methods 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 title claims abstract description 18
- 239000013598 vector Substances 0.000 claims abstract description 116
- 230000006870 function Effects 0.000 claims abstract description 60
- 238000011176 pooling Methods 0.000 claims abstract description 30
- 230000004913 activation Effects 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 8
- 238000013528 artificial neural network Methods 0.000 claims description 54
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 3
- 230000014616 translation Effects 0.000 description 122
- 238000010586 diagram Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及语言处理模型技术领域,提供一种基于翻译结果智能优化方法、系统及其存储介质。通过根据第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;将第一特征序列以及第二特征序列输入至BERT模型;确定所述模型倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量、第二特征向量,将第一、第二特征向量连接后输入至全连接层执行激活操作,获取特征结果;根据特征结果与第一代价函数优化翻译模型。通过对翻译模型的调整确保翻译模型翻译精准,解决翻译模型优化以及参数调整的效率较低,且依赖于原始样本易陷入局部最优环境的技术问题。
Description
技术领域
本发明涉及语言信息处理模型技术领域,具体而言,涉及一种基于翻译结果智能优化方法、系统及其存储介质。
背景技术
一般翻译软件通过机器学习方法实现对不同语言之间的转换,近年来取得了巨大的进步,尤其随着深度学习的出现与发展,神经网络的翻译模型因其译文质量较高的优点逐步占据主流地位。
现有技术的语言处理虽然在强大的神经网络框架下得到的词向量在模型内部已经得到充分的交互,但是针对译文质量评估这样的跨语言任务,应该加入更多体现翻译特性的特征进行评估,无论在细粒度的互为翻译对的词向量之间,还是粗粒度的源语言和目标翻译的句向量之间,都可以挖掘更具体的翻译特征;但是现有技术对于语言的处理,包括翻译方面的模型的优化以及参数特征的调整效率较低,且模型的优化依赖于原始样本容易陷入局部的最优的环境。
发明内容
有鉴于此,本发明实施例的目的在于提供模型优化,对大数据库内的语言信息执行的语句翻译模型的调整以使得翻译模型的翻译精准。
本发明的第一方面提供了一种基于翻译结果智能优化方法,所述方法包括:
S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
S5,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,所述S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
进一步,所述池化操作为平均池化操作;
所述S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n ’ 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
进一步,所述S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果,包括:
根据sigmoid函数执行所述激活操作;
将对第一特征向量u以及第二特征向量v的连接操作后执行的全连接层特征结果,作为所述sigmoid函数的输入。
进一步,所述S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值,包括:
S41,将均方差函数作为第一代价函数,计算所述特征结果与标准特征参数之间的均方差,若所述均方差大于预定阈值,则调整所述神经网络翻译模型的参数,更新第二翻译语言信息;
S42,基于第一源语言信息、更新后的第二翻译语言信息执行步骤S1-S4,以使得均方差小于预定阈值。
进一步,预先从待翻译的源语言大数据信息库中确定若干候选源语言信息,并执行对应生成翻译专家对所述若干候选源语言信息执行翻译;将所述候选源语言信息确定为第一源语言信息的候选库;
所述标准特征参数根据如下方式获取:
S401,事先获取第一源语言信息及其对应的根据翻译专家对所述第一源语言信息执行翻译后的专家翻译语言信息,并生成第三特征序列;
S402,将所述第一特征序列、第三特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行平均池化操作,以生成第一特征向量以及第三特征向量;
S403,将所述第一特征向量以及第三特征向量进行连接并输入至全连接层以执行基于sigmoid函数的激活操作,从而获取标准特征参数。
此外,还提出一种基于翻译结果智能优化系统,所述系统包括:
第一获取与生成模块,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
第二处理与生成模块,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
第三获取模块,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
调整模块,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
确定模块,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,所述根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
进一步,所述池化操作为平均池化操作;
所述将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n ’ 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
此外,还提出一种存储介质,所述存储介质存储有计算机程序;所述程序由处理器加载并执行以实现如上所述的基于翻译结果智能优化方法步骤。
本发明的方案中,通过根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。通过提供对大数据库内的语言信息执行的预定代价的语句翻译模型的调整以使得翻译模型的翻译精准性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例公开的基于翻译结果智能优化方法的流程示意图;
图2是本发明实施例公开的基于翻译结果智能优化系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
以下对本申请实施例的技术方案的实现细节进行详细阐述:
请参阅图1,图1是本发明实施例公开的一种基于翻译结果智能优化方法的流程示意图。如图1所示,本发明实施例的一种基于翻译结果智能优化方法,所述方法包括:
S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
S5,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,所述S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;具体来说,翻译优先级是根据翻译处理的优先级是源文件的重要程度执行的优先级排序,越重要,优先级越高,因此在进行模型优化时,也选择重要程度高(优先级高)的文件先进行模型的调整,使得系统对整个重要程度高(优先级高)的文件的处理效能或者精确度都较高。
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
具体地,在本实施例中,神经网络翻译模型(NMT)将源语言的句子向量化,再生成另一种语言的译文。其中,神经网络翻译模型包括编码器Encoder以及解码器Decoder。Encoder-Decoder模型是神经网络进行翻译的基本方法,循环神经网络(RNN)结构有1 VSN,N VS 1,N VS N结构。Encoder-Decoder模型可以有效地建模输入序列和输出序列不等长的问题。具体来说,它会用一个Encoder将输入序列编码为一个上下文向量 c,再使用Decoder对c进行解码,将之变为输出序列。在选取 Encoder 和 Decoder 时都假设其为RNN,在 RNN 中,当前时刻隐藏状态是由上一时刻的隐藏状态和当前时刻的输入决定的。一般可以通过深度神经网络模型将源语言序列翻译成另一种语言序列,其中语言序列可以是语言的分词或单词序列等,其中,本实施例,可以通过对源语言执行分词处理,获取得到第一特征序列,对翻译后的语言进行分词处理以生成第二特征序列。
进一步,所述池化操作为平均池化操作;
所述S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n ’ 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
进一步,所述S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果,包括:
根据sigmoid函数执行所述激活操作;
将对第一特征向量u以及第二特征向量v的连接操作后执行的全连接层特征结果,作为所述sigmoid函数的输入。此处,连接操作即为向量的拼接操作,即第一特征向量u长度为a1,第二特征向量v长度为a2,则连接后的向量长度为a1+a2。
具体地本实施例,sigmoid函数的输出的特征结果output为:
其中,concat表示连接u、v操作,FC表示全连接层操作。
进一步,所述S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值,包括:
S41,将均方差函数作为第一代价函数,计算所述特征结果与标准特征参数之间的均方差,若所述均方差大于预定阈值,则调整所述神经网络翻译模型的参数,更新第二翻译语言信息;
S42,基于第一源语言信息、更新后的第二翻译语言信息执行步骤S1-S4,以使得均方差小于预定阈值;
S5,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,预先从待翻译的源语言大数据信息库中确定若干候选源语言信息,并执行对应生成翻译专家对所述若干候选源语言信息执行翻译;将所述候选源语言信息确定为第一源语言信息的候选库;
所述标准特征参数根据如下方式获取:
S401,事先获取第一源语言信息及其对应的根据翻译专家对所述第一源语言信息执行翻译后的专家翻译语言信息,并生成第三特征序列;
S402,将所述第一特征序列、第三特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行平均池化操作,以生成第一特征向量以及第三特征向量;
S403,将所述第一特征向量以及第三特征向量进行连接并输入至全连接层以执行基于sigmoid函数的激活操作,从而获取标准特征参数。
此外,请参阅图2,图2是本实施例提出的一种基于翻译结果智能优化系统的结构示意图,所述系统包括:
第一获取与生成模块10,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
第二处理与生成模块20,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
第三获取模块30,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
调整模块40,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
确定模块50,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,所述根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
进一步,所述池化操作为平均池化操作;
所述将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n ’ 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
此外,本申请实施例还提供了一种存储介质,所述存储介质存储有计算机程序;所述程序由处理器加载并执行以实现如上所述的基于翻译结果智能优化方法步骤。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网格设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于翻译结果智能优化方法,其特征在于,所述方法包括:
S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
S5,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数;
所述池化操作为平均池化操作;
所述S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n ’ 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值;
所述S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型;
所述S3,所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果,包括:
根据sigmoid函数执行所述激活操作;
将对第一特征向量u以及第二特征向量v的连接操作后执行的全连接层特征结果,作为所述sigmoid函数的输入;
所述S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值,包括:
S41,将均方差函数作为第一代价函数,计算所述特征结果与标准特征参数之间的均方差,若所述均方差大于预定阈值,则调整所述神经网络翻译模型的参数,更新第二翻译语言信息;
S42,基于第一源语言信息、更新后的第二翻译语言信息执行步骤S1-S4,以使得均方差小于预定阈值;
预先从待翻译的源语言大数据信息库中确定若干候选源语言信息,并执行对应生成翻译专家对所述若干候选源语言信息执行翻译;将所述候选源语言信息确定为第一源语言信息的候选库;
所述标准特征参数根据如下方式获取:
S401,事先获取第一源语言信息及其对应的根据翻译专家对所述第一源语言信息执行翻译后的专家翻译语言信息,并生成第三特征序列;
S402,将所述第一特征序列、第三特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行平均池化操作,以生成第一特征向量以及第三特征向量;
S403,将所述第一特征向量以及第三特征向量进行连接并输入至全连接层以执行基于sigmoid函数的激活操作,从而获取标准特征参数。
2.一种基于翻译结果智能优化系统,其特征在于,所述系统包括:
第一获取与生成模块,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
第二处理与生成模块,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
第三获取模块,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
调整模块,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
确定模块,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数;
所述根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型;
所述池化操作为平均池化操作;
所述将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n ’ 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值;
所述第三获取模块,所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果,包括:
根据sigmoid函数执行所述激活操作;
将对第一特征向量u以及第二特征向量v的连接操作后执行的全连接层特征结果,作为所述sigmoid函数的输入;
所述调整模块,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值,包括:
S41,将均方差函数作为第一代价函数,计算所述特征结果与标准特征参数之间的均方差,若所述均方差大于预定阈值,则调整所述神经网络翻译模型的参数,更新第二翻译语言信息;
S42,基于第一源语言信息、更新后的第二翻译语言信息执行步骤S1-S4,以使得均方差小于预定阈值;
预先从待翻译的源语言大数据信息库中确定若干候选源语言信息,并执行对应生成翻译专家对所述若干候选源语言信息执行翻译;将所述候选源语言信息确定为第一源语言信息的候选库;
所述标准特征参数根据如下方式获取:
S401,事先获取第一源语言信息及其对应的根据翻译专家对所述第一源语言信息执行翻译后的专家翻译语言信息,并生成第三特征序列;
S402,将所述第一特征序列、第三特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行平均池化操作,以生成第一特征向量以及第三特征向量;
S403,将所述第一特征向量以及第三特征向量进行连接并输入至全连接层以执行基于sigmoid函数的激活操作,从而获取标准特征参数。
3.一种存储介质,所述存储介质存储有计算机程序;所述程序由处理器加载并执行以实现如权利要求1所述的基于翻译结果智能优化方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210894351.6A CN115099249B (zh) | 2022-07-28 | 2022-07-28 | 一种基于翻译结果智能优化方法、系统及其存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210894351.6A CN115099249B (zh) | 2022-07-28 | 2022-07-28 | 一种基于翻译结果智能优化方法、系统及其存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115099249A CN115099249A (zh) | 2022-09-23 |
CN115099249B true CN115099249B (zh) | 2023-11-24 |
Family
ID=83300439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210894351.6A Active CN115099249B (zh) | 2022-07-28 | 2022-07-28 | 一种基于翻译结果智能优化方法、系统及其存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115099249B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460027A (zh) * | 2018-02-14 | 2018-08-28 | 广东外语外贸大学 | 一种口语即时翻译方法及系统 |
CN110503945A (zh) * | 2019-09-06 | 2019-11-26 | 北京金山数字娱乐科技有限公司 | 一种语音处理模型的训练方法及装置 |
CN111460838A (zh) * | 2020-04-23 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 智能翻译模型的预训练方法、装置和存储介质 |
CN111985251A (zh) * | 2019-05-21 | 2020-11-24 | 南京大学 | 翻译质量测评方法及装置 |
CN112686058A (zh) * | 2020-12-24 | 2021-04-20 | 中国人民解放军战略支援部队信息工程大学 | Bert嵌入语音翻译模型训练方法、系统及语音翻译方法和设备 |
CN112800785A (zh) * | 2021-04-13 | 2021-05-14 | 中国科学院自动化研究所 | 多模态机器翻译方法、装置、电子设备和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109582982A (zh) * | 2018-12-17 | 2019-04-05 | 北京百度网讯科技有限公司 | 用于翻译语音的方法和装置 |
-
2022
- 2022-07-28 CN CN202210894351.6A patent/CN115099249B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460027A (zh) * | 2018-02-14 | 2018-08-28 | 广东外语外贸大学 | 一种口语即时翻译方法及系统 |
CN111985251A (zh) * | 2019-05-21 | 2020-11-24 | 南京大学 | 翻译质量测评方法及装置 |
CN110503945A (zh) * | 2019-09-06 | 2019-11-26 | 北京金山数字娱乐科技有限公司 | 一种语音处理模型的训练方法及装置 |
CN111460838A (zh) * | 2020-04-23 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 智能翻译模型的预训练方法、装置和存储介质 |
CN112686058A (zh) * | 2020-12-24 | 2021-04-20 | 中国人民解放军战略支援部队信息工程大学 | Bert嵌入语音翻译模型训练方法、系统及语音翻译方法和设备 |
CN112800785A (zh) * | 2021-04-13 | 2021-05-14 | 中国科学院自动化研究所 | 多模态机器翻译方法、装置、电子设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
Optimization of AdaBoost Algorithm by PSO and Its Application in Translation Initiation Sites Prediction;Shi-Bo Gao等;《 IEEE Xplore》;全文 * |
基于QE的机器翻译重排序方法研究;翟煜锦等;《江西师范大学学报(自然科学版)》;20200115(第01期);全文 * |
融合BERT语境词向量的译文质量估计方法研究;李培芸等;《中文信息学报》;20200331(第03期);正文第1-5节 * |
Also Published As
Publication number | Publication date |
---|---|
CN115099249A (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109408526B (zh) | Sql语句生成方法、装置、计算机设备及存储介质 | |
WO2020168752A1 (zh) | 一种基于对偶学习的语音识别与语音合成方法及装置 | |
WO2021037113A1 (zh) | 一种图像描述的方法及装置、计算设备和存储介质 | |
JP2022534390A (ja) | ストリーミングエンドツーエンドモデルを用いる大規模多言語音声認識 | |
CN109359297B (zh) | 一种关系抽取方法及系统 | |
WO2019084228A1 (en) | ENHANCED VOICE RECOGNITION FROM END TO END WITH POLICY LEARNING | |
US11282498B2 (en) | Speech synthesis method and speech synthesis apparatus | |
US8019594B2 (en) | Method and apparatus for progressively selecting features from a large feature space in statistical modeling | |
CN105183720A (zh) | 基于rnn模型的机器翻译方法和装置 | |
CN110874535B (zh) | 依存关系对齐组件、依存关系对齐训练方法、设备及介质 | |
US8019593B2 (en) | Method and apparatus for generating features through logical and functional operations | |
KR101709693B1 (ko) | 크라우드 소싱을 이용한 웹툰 언어 자동 번역 방법 | |
JP2023039888A (ja) | モデルトレーニング及び字庫作成の方法、装置、機器、及び記憶媒体 | |
US20220245353A1 (en) | System and method for entity labeling in a natural language understanding (nlu) framework | |
US20230094511A1 (en) | Developing an Automatic Speech Recognition System Using Normalization | |
CN113434683A (zh) | 文本分类方法、装置、介质及电子设备 | |
JP2021117989A (ja) | 言語生成方法、装置及び電子機器 | |
KR102608867B1 (ko) | 업계 텍스트를 증분하는 방법, 관련 장치 및 매체에 저장된 컴퓨터 프로그램 | |
CN114118058A (zh) | 基于句法特征和注意力机制相融合的情感分析系统及方法 | |
WO2022005625A1 (en) | Speech synthesis and speech recognition | |
CN117153142A (zh) | 一种语音信号合成方法、装置、电子设备及存储介质 | |
CN115099249B (zh) | 一种基于翻译结果智能优化方法、系统及其存储介质 | |
CN104199811A (zh) | 短句解析模型建立方法及系统 | |
JP6261669B2 (ja) | クエリ校正システムおよび方法 | |
US20220245352A1 (en) | Ensemble scoring system for a natural language understanding (nlu) framework |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |