CN115099249A - 一种基于翻译结果智能优化方法、系统及其存储介质 - Google Patents

一种基于翻译结果智能优化方法、系统及其存储介质 Download PDF

Info

Publication number
CN115099249A
CN115099249A CN202210894351.6A CN202210894351A CN115099249A CN 115099249 A CN115099249 A CN 115099249A CN 202210894351 A CN202210894351 A CN 202210894351A CN 115099249 A CN115099249 A CN 115099249A
Authority
CN
China
Prior art keywords
translation
language information
feature vector
model
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210894351.6A
Other languages
English (en)
Other versions
CN115099249B (zh
Inventor
葛玉梅
郑春光
贾磊
杨玉猛
梅康
颜妍
江心波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Smart Translation Information Technology Co ltd
Original Assignee
Shandong Smart Translation Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Smart Translation Information Technology Co ltd filed Critical Shandong Smart Translation Information Technology Co ltd
Priority to CN202210894351.6A priority Critical patent/CN115099249B/zh
Publication of CN115099249A publication Critical patent/CN115099249A/zh
Application granted granted Critical
Publication of CN115099249B publication Critical patent/CN115099249B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明涉及语言处理模型技术领域,提供一种基于翻译结果智能优化方法、系统及其存储介质。通过根据第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;将第一特征序列以及第二特征序列输入至BERT模型;确定所述模型倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量、第二特征向量,将第一、第二特征向量连接后输入至全连接层执行激活操作,获取特征结果;根据特征结果与第一代价函数优化翻译模型。通过对翻译模型的调整确保翻译模型翻译精准,解决翻译模型优化以及参数调整的效率较低,且依赖于原始样本易陷入局部最优环境的技术问题。

Description

一种基于翻译结果智能优化方法、系统及其存储介质
技术领域
本发明涉及语言信息处理模型技术领域,具体而言,涉及一种基于翻译结果智能优化方法、系统及其存储介质。
背景技术
一般翻译软件通过机器学习方法实现对不同语言之间的转换,近年来取得了巨大的进步,尤其随着深度学习的出现与发展,神经网络的翻译模型因其译文质量较高的优点逐步占据主流地位。
现有技术的语言处理虽然在强大的神经网络框架下得到的词向量在模型内部已经得到充分的交互,但是针对译文质量评估这样的跨语言任务,应该加入更多体现翻译特性的特征进行评估,无论在细粒度的互为翻译对的词向量之间,还是粗粒度的源语言和目标翻译的句向量之间,都可以挖掘更具体的翻译特征;但是现有技术对于语言的处理,包括翻译方面的模型的优化以及参数特征的调整效率较低,且模型的优化依赖于原始样本容易陷入局部的最优的环境。
发明内容
有鉴于此,本发明实施例的目的在于提供模型优化,对大数据库内的语言信息执行的语句翻译模型的调整以使得翻译模型的翻译精准。
本发明的第一方面提供了一种基于翻译结果智能优化方法,所述方法包括:
S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
S5,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,所述S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
进一步,所述池化操作为平均池化操作;
所述S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
Figure 66795DEST_PATH_IMAGE001
Figure 889257DEST_PATH_IMAGE002
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
进一步,所述S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果,包括:
根据sigmoid函数执行所述激活操作;
将对第一特征向量u以及第二特征向量v的连接操作后执行的全连接层特征结果,作为所述sigmoid函数的输入。
进一步,所述S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值,包括:
S41,将均方差函数作为第一代价函数,计算所述特征结果与标准特征参数之间的均方差,若所述均方差大于预定阈值,则调整所述神经网络翻译模型的参数,更新第二翻译语言信息;
S42,基于第一源语言信息、更新后的第二翻译语言信息执行步骤S1-S4,以使得均方差小于预定阈值。
进一步,预先从待翻译的源语言大数据信息库中确定若干候选源语言信息,并执行对应生成翻译专家对所述若干候选源语言信息执行翻译;将所述候选源语言信息确定为第一源语言信息的候选库;
所述标准特征参数根据如下方式获取:
S401,事先获取第一源语言信息及其对应的根据翻译专家对所述第一源语言信息执行翻译后的专家翻译语言信息,并生成第三特征序列;
S402,将所述第一特征序列、第三特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行平均池化操作,以生成第一特征向量以及第三特征向量;
S403,将所述第一特征向量以及第三特征向量进行连接并输入至全连接层以执行基于sigmoid函数的激活操作,从而获取标准特征参数。
此外,还提出一种基于翻译结果智能优化系统,所述系统包括:
第一获取与生成模块,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
第二处理与生成模块,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
第三获取模块,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
调整模块,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
确定模块,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,所述根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
进一步,所述池化操作为平均池化操作;
所述将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
Figure 156291DEST_PATH_IMAGE001
Figure 417508DEST_PATH_IMAGE002
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
此外,还提出一种存储介质,所述存储介质存储有计算机程序;所述程序由处理器加载并执行以实现如上所述的基于翻译结果智能优化方法步骤。
本发明的方案中,通过根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。通过提供对大数据库内的语言信息执行的预定代价的语句翻译模型的调整以使得翻译模型的翻译精准性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是本发明实施例公开的基于翻译结果智能优化方法的流程示意图;
图2是本发明实施例公开的基于翻译结果智能优化系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本申请的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本申请的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
以下对本申请实施例的技术方案的实现细节进行详细阐述:
请参阅图1,图1是本发明实施例公开的一种基于翻译结果智能优化方法的流程示意图。如图1所示,本发明实施例的一种基于翻译结果智能优化方法,所述方法包括:
S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
S5,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,所述S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;具体来说,翻译优先级是根据翻译处理的优先级是源文件的重要程度执行的优先级排序,越重要,优先级越高,因此在进行模型优化时,也选择重要程度高(优先级高)的文件先进行模型的调整,使得系统对整个重要程度高(优先级高)的文件的处理效能或者精确度都较高。
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
具体地,在本实施例中,神经网络翻译模型(NMT)将源语言的句子向量化,再生成另一种语言的译文。其中,神经网络翻译模型包括编码器Encoder以及解码器Decoder。Encoder-Decoder模型是神经网络进行翻译的基本方法,循环神经网络(RNN)结构有1 VSN,N VS 1,N VS N结构。Encoder-Decoder模型可以有效地建模输入序列和输出序列不等长的问题。具体来说,它会用一个Encoder将输入序列编码为一个上下文向量 c,再使用Decoder对c进行解码,将之变为输出序列。在选取 Encoder 和 Decoder 时都假设其为RNN,在 RNN 中,当前时刻隐藏状态是由上一时刻的隐藏状态和当前时刻的输入决定的。一般可以通过深度神经网络模型将源语言序列翻译成另一种语言序列,其中语言序列可以是语言的分词或单词序列等,其中,本实施例,可以通过对源语言执行分词处理,获取得到第一特征序列,对翻译后的语言进行分词处理以生成第二特征序列。
进一步,所述池化操作为平均池化操作;
所述S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
Figure 86386DEST_PATH_IMAGE001
Figure 142067DEST_PATH_IMAGE002
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
进一步,所述S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果,包括:
根据sigmoid函数执行所述激活操作;
将对第一特征向量u以及第二特征向量v的连接操作后执行的全连接层特征结果,作为所述sigmoid函数的输入。此处,连接操作即为向量的拼接操作,即第一特征向量u长度为a1,第二特征向量v长度为a2,则连接后的向量长度为a1+a2。
具体地本实施例,sigmoid函数的输出的特征结果output为:
Figure 896396DEST_PATH_IMAGE003
其中,concat表示连接u、v操作,FC表示全连接层操作。
进一步,所述S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值,包括:
S41,将均方差函数作为第一代价函数,计算所述特征结果与标准特征参数之间的均方差,若所述均方差大于预定阈值,则调整所述神经网络翻译模型的参数,更新第二翻译语言信息;
S42,基于第一源语言信息、更新后的第二翻译语言信息执行步骤S1-S4,以使得均方差小于预定阈值;
S5,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,预先从待翻译的源语言大数据信息库中确定若干候选源语言信息,并执行对应生成翻译专家对所述若干候选源语言信息执行翻译;将所述候选源语言信息确定为第一源语言信息的候选库;
所述标准特征参数根据如下方式获取:
S401,事先获取第一源语言信息及其对应的根据翻译专家对所述第一源语言信息执行翻译后的专家翻译语言信息,并生成第三特征序列;
S402,将所述第一特征序列、第三特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行平均池化操作,以生成第一特征向量以及第三特征向量;
S403,将所述第一特征向量以及第三特征向量进行连接并输入至全连接层以执行基于sigmoid函数的激活操作,从而获取标准特征参数。
此外,请参阅图2,图2是本实施例提出的一种基于翻译结果智能优化系统的结构示意图,所述系统包括:
第一获取与生成模块10,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
第二处理与生成模块20,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
第三获取模块30,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
调整模块40,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
确定模块50,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
进一步,所述根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
进一步,所述池化操作为平均池化操作;
所述将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
Figure 695725DEST_PATH_IMAGE001
Figure 219110DEST_PATH_IMAGE004
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
此外,本申请实施例还提供了一种存储介质,所述存储介质存储有计算机程序;所述程序由处理器加载并执行以实现如上所述的基于翻译结果智能优化方法步骤。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网格设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于翻译结果智能优化方法,其特征在于,所述方法包括:
S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
S3,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
S5,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
2.根据权利要求1所述的基于翻译结果智能优化方法,其特征在于,所述S1,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
3.根据权利要求2所述的基于翻译结果智能优化方法,其特征在于,所述池化操作为平均池化操作;
所述S2,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
Figure 79754DEST_PATH_IMAGE001
Figure 996894DEST_PATH_IMAGE002
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
4.根据权利要求3所述的基于翻译结果智能优化方法,其特征在于,所述S3,所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果,包括:
根据sigmoid函数执行所述激活操作;
将对第一特征向量u以及第二特征向量v的连接操作后执行的全连接层特征结果,作为所述sigmoid函数的输入。
5.根据权利要求4所述的基于翻译结果智能优化方法,其特征在于,所述S4,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值,包括:
S41,将均方差函数作为第一代价函数,计算所述特征结果与标准特征参数之间的均方差,若所述均方差大于预定阈值,则调整所述神经网络翻译模型的参数,更新第二翻译语言信息;
S42,基于第一源语言信息、更新后的第二翻译语言信息执行步骤S1-S4 ,以使得均方差小于预定阈值。
6.根据权利要求5所述的基于翻译结果智能优化方法,其特征在于,
预先从待翻译的源语言大数据信息库中确定若干候选源语言信息,并执行对应生成翻译专家对所述若干候选源语言信息执行翻译;将所述候选源语言信息确定为第一源语言信息的候选库;
所述标准特征参数根据如下方式获取:
S401,事先获取第一源语言信息及其对应的根据翻译专家对所述第一源语言信息执行翻译后的专家翻译语言信息,并生成第三特征序列;
S402,将所述第一特征序列、第三特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行平均池化操作,以生成第一特征向量以及第三特征向量;
S403,将所述第一特征向量以及第三特征向量进行连接并输入至全连接层以执行基于sigmoid函数的激活操作,从而获取标准特征参数。
7.一种基于翻译结果智能优化系统,其特征在于,所述系统包括:
第一获取与生成模块,根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息;根据所述第一源语言信息以及第二翻译语言信息分别生成第一特征序列以及第二特征序列;
第二处理与生成模块,将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量;
第三获取模块,将所述第一特征向量以及第二特征向量进行连接并输入至全连接层执行激活操作,以获取特征结果;
调整模块,根据所述特征结果以及第一代价函数,调整神经网络翻译模型以更新第二翻译语言信息,以使得所述第一代价函数对应的代价小于预定阈值;
确定模块,确定所述第一代价函数对应的代价小于预定阈值时对应的第二翻译语言信息作为最终的第二翻译语言信息;保存调整后的所述神经网络翻译模型参数。
8.根据权利要求7所述的基于翻译结果智能优化系统,其特征在于,所述根据待翻译的源语言大数据信息库,获取第一源语言信息,并基于神经网络翻译模型生成第二翻译语言信息,包括:
根据翻译优先级,从待翻译的源语言大数据信息库中提取第一源语言信息;
根据神经网络翻译模型对所述第一源语言信息执行翻译操作,以获取第二翻译语言信息;
所述神经网络翻译模型是基于双向RNN结构的翻译模型。
9.根据权利要求8所述的基于翻译结果智能优化系统,其特征在于,所述池化操作为平均池化操作;
所述将所述第一特征序列以及第二特征序列输入至BERT模型;确定所述BERT模型的倒数第一层的隐状态输出,并执行池化操作,以生成第一特征向量以及第二特征向量,包括:
Figure 340413DEST_PATH_IMAGE001
Figure 735623DEST_PATH_IMAGE003
其中,所述u、v分别表示第一特征向量、第二特征向量;src表示第一特征序列;tgt表示第二特征序列;n、n 分别表示所述第一特征序列、第二特征序列的长度;h D 表示所述BERT模型的倒数第一层的隐状态输出值。
10.一种存储介质,所述存储介质存储有计算机程序;所述程序由处理器加载并执行以实现如权利要求1-6任一项所述的基于翻译结果智能优化方法步骤。
CN202210894351.6A 2022-07-28 2022-07-28 一种基于翻译结果智能优化方法、系统及其存储介质 Active CN115099249B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210894351.6A CN115099249B (zh) 2022-07-28 2022-07-28 一种基于翻译结果智能优化方法、系统及其存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210894351.6A CN115099249B (zh) 2022-07-28 2022-07-28 一种基于翻译结果智能优化方法、系统及其存储介质

Publications (2)

Publication Number Publication Date
CN115099249A true CN115099249A (zh) 2022-09-23
CN115099249B CN115099249B (zh) 2023-11-24

Family

ID=83300439

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210894351.6A Active CN115099249B (zh) 2022-07-28 2022-07-28 一种基于翻译结果智能优化方法、系统及其存储介质

Country Status (1)

Country Link
CN (1) CN115099249B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460027A (zh) * 2018-02-14 2018-08-28 广东外语外贸大学 一种口语即时翻译方法及系统
CN110503945A (zh) * 2019-09-06 2019-11-26 北京金山数字娱乐科技有限公司 一种语音处理模型的训练方法及装置
US20200192986A1 (en) * 2018-12-17 2020-06-18 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for translating speech
CN111460838A (zh) * 2020-04-23 2020-07-28 腾讯科技(深圳)有限公司 智能翻译模型的预训练方法、装置和存储介质
CN111985251A (zh) * 2019-05-21 2020-11-24 南京大学 翻译质量测评方法及装置
CN112686058A (zh) * 2020-12-24 2021-04-20 中国人民解放军战略支援部队信息工程大学 Bert嵌入语音翻译模型训练方法、系统及语音翻译方法和设备
CN112800785A (zh) * 2021-04-13 2021-05-14 中国科学院自动化研究所 多模态机器翻译方法、装置、电子设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460027A (zh) * 2018-02-14 2018-08-28 广东外语外贸大学 一种口语即时翻译方法及系统
US20200192986A1 (en) * 2018-12-17 2020-06-18 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for translating speech
CN111985251A (zh) * 2019-05-21 2020-11-24 南京大学 翻译质量测评方法及装置
CN110503945A (zh) * 2019-09-06 2019-11-26 北京金山数字娱乐科技有限公司 一种语音处理模型的训练方法及装置
CN111460838A (zh) * 2020-04-23 2020-07-28 腾讯科技(深圳)有限公司 智能翻译模型的预训练方法、装置和存储介质
CN112686058A (zh) * 2020-12-24 2021-04-20 中国人民解放军战略支援部队信息工程大学 Bert嵌入语音翻译模型训练方法、系统及语音翻译方法和设备
CN112800785A (zh) * 2021-04-13 2021-05-14 中国科学院自动化研究所 多模态机器翻译方法、装置、电子设备和存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
SHI-BO GAO等: "Optimization of AdaBoost Algorithm by PSO and Its Application in Translation Initiation Sites Prediction", 《 IEEE XPLORE》 *
李培芸等: "融合BERT语境词向量的译文质量估计方法研究", 《中文信息学报》 *
李培芸等: "融合BERT语境词向量的译文质量估计方法研究", 《中文信息学报》, no. 03, 31 March 2020 (2020-03-31), pages 1 - 5 *
翟煜锦等: "基于QE的机器翻译重排序方法研究", 《江西师范大学学报(自然科学版)》 *
翟煜锦等: "基于QE的机器翻译重排序方法研究", 《江西师范大学学报(自然科学版)》, no. 01, 15 January 2020 (2020-01-15) *

Also Published As

Publication number Publication date
CN115099249B (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
CN111090461B (zh) 一种基于机器翻译模型的代码注释生成方法
US11144817B2 (en) Device and method for determining convolutional neural network model for database
CN110930993B (zh) 特定领域语言模型生成方法及语音数据标注系统
Wang et al. Word embedding for recurrent neural network based TTS synthesis
CN104538024A (zh) 语音合成方法、装置及设备
US11282498B2 (en) Speech synthesis method and speech synthesis apparatus
US8019594B2 (en) Method and apparatus for progressively selecting features from a large feature space in statistical modeling
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
CN110134971A (zh) 一种机器翻译的方法、设备以及计算机可读存储介质
US20150205783A1 (en) Automatic training of a syntactic and semantic parser using a genetic algorithm
US20210209011A1 (en) Systems and methods for automated testing using artificial intelligence techniques
JP2022128441A (ja) 弱教師ありマルチ報酬強化学習を使用した文章分類のためのテキストデータの増強
CN114706986B (zh) 一种多类别情感分类方法、装置以及计算机存储介质
KR102608867B1 (ko) 업계 텍스트를 증분하는 방법, 관련 장치 및 매체에 저장된 컴퓨터 프로그램
JP2020008836A (ja) 語彙テーブルの選択方法、装置およびコンピュータ読み取り可能な記憶媒体
KR101709693B1 (ko) 크라우드 소싱을 이용한 웹툰 언어 자동 번역 방법
CN104199811B (zh) 短句解析模型建立方法及系统
CN117290478A (zh) 一种知识图谱问答方法、装置、设备和存储介质
CN115099249B (zh) 一种基于翻译结果智能优化方法、系统及其存储介质
JP6261669B2 (ja) クエリ校正システムおよび方法
JP5860424B2 (ja) 言語モデル作成装置とその方法とプログラム
CN112148392A (zh) 一种函数调用链获取方法、装置及存储介质
CN113468345B (zh) 基于知识图谱的实体共指检测数据处理系统
Yuen et al. Asdf: A differential testing framework for automatic speech recognition systems
JPWO2018066083A1 (ja) 学習プログラム、情報処理装置および学習方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant