CN112464637A - 基于标签的优化模型训练方法、装置、设备及存储介质 - Google Patents
基于标签的优化模型训练方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112464637A CN112464637A CN202011353108.0A CN202011353108A CN112464637A CN 112464637 A CN112464637 A CN 112464637A CN 202011353108 A CN202011353108 A CN 202011353108A CN 112464637 A CN112464637 A CN 112464637A
- Authority
- CN
- China
- Prior art keywords
- text data
- label
- hidden layer
- target
- optimization model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 183
- 238000012549 training Methods 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims abstract description 47
- 239000013598 vector Substances 0.000 claims abstract description 176
- 238000004364 calculation method Methods 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims 2
- 238000013473 artificial intelligence Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000007115 recruitment Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能领域,公开了一种基于标签的优化模型训练方法、装置、设备及存储介质,用于提高目标优化模型的优化灵活性以及优化文本的准确率。基于标签的优化模型训练方法包括:获取原始文本数据和比对文本数据;将原始文本数据输入预置的编码器中,得到目标内容隐藏层向量组;根据目标内容隐藏层向量组和解码器,得到目标标签组;基于目标标签组训练初始优化模型;根据原始文本数据和初始优化模型,得到待检测文本数据,并判断待检测文本数据是否与比对文本数据相匹配;若目标待检测文本数据与比对文本数据不匹配,则调整初始优化模型,得到目标优化模型,此外,本发明还涉及区块链技术,待检测文本数据可存储于区块链中。
Description
技术领域
本发明涉及神经网络技术领域,尤其涉及一种基于标签的优化模型训练方法、装置、设备及存储介质。
背景技术
在目前的招聘流程中,很多公司为了简化招聘流程和提高工作效率,采用人工智能面试系统进行面试,主要通过语音识别的方式将面试者的语音转化成文本,在将语音转化为文本的过程中会存在单词和句子识别错误的情况,所以还需要用到识别优化模型对文本修正语法以及调整语句通顺度。
目前识别优化模型修正语法和调整语句通顺度的方法是训练特定任务的训练器,然后采用该训练器对文本进行语法的修正和语句通顺度的调整,但是这种调整方式只适用于特定的任务,无法对其他的任务进行优化,识别优化模型的灵活性较低,而且会降低其他任务转化为文本的准确率。
发明内容
本发明提供了一种基于标签的优化模型训练方法、装置、设备及存储介质,提高了识别优化模型的灵活性,而且提高了其他任务转化为文本的准确率。
本发明第一方面提供了一种基于标签的优化模型训练方法,包括:获取多个原始文本数据和多个比对文本数据,一个原始文本数据对应一个比对文本数据;将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组;将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组;基于所述多个目标标签组训练模型,得到初始优化模型;将所述多个原始文本数据依次输入所述初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配;若目标待检测文本数据与对应的比对文本数据不匹配,则调整所述初始优化模型的参数,得到目标优化模型。
可选的,在本发明第一方面的第一种实现方式中,所述将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组包括:从每个原始文本数据中提取对应的原始文本序列;将每个原始文本序列输入预置的编码器中,基于注意力掩码机制和每个原始文本序列确定对应的输入序列;基于自注意力机制和询问注意力机制对每个输入序列进行隐藏层计算,生成对应的内容隐藏层向量组,得到多个目标内容隐藏层向量组。
可选的,在本发明第一方面的第二种实现方式中,所述将每个原始文本序列输入预置的编码器中,基于注意力掩码机制和每个原始文本序列确定对应的输入序列包括:将每个原始文本序列输入预置的编码器中,结合注意力掩码机制对每个原始文本序列进行多次迭代预测,得到对应的多个位置掩码;整合每个原始文本序列对应的多个位置掩码,得到每个原始文本序列对应的输入序列。
可选的,在本发明第一方面的第三种实现方式中,所述基于自注意力机制和询问注意力机制对每个输入序列进行隐藏层计算,生成对应的内容隐藏层向量组,得到多个目标内容隐藏层向量组包括:基于每个输入序列提取对应的输入向量组,并采用自注意力机制和询问注意力机制,在第一层隐藏层对目标输入向量组和预置的初始化向量进行计算,得到对应的第一内容隐藏层向量组和对应的第一查询隐藏层向量组;采用所述自注意力机制和所述询问注意力机制,在第二层隐藏层对所述对应的第一内容隐藏层向量组和所述对应的第一查询隐藏层向量组进行计算,得到对应的第二内容隐藏层向量组和对应的第二查询隐藏层向量组;采用所述自注意力机制和所述询问注意力机制,按照上述步骤在其他层隐藏层对对应的内容隐藏层向量组和对应的查询隐藏层向量组进行计算,直至最后一层隐藏层,生成对应的目标内容隐藏层向量组,所述对应的目标内容隐藏层向量组为最后一层隐藏层对应的内容隐藏层向量组;采用所述自注意力机制和所述询问注意力机制按照上述步骤对其他输入序列进行计算,得到多个目标内容隐藏层向量组。
可选的,在本发明第一方面的第四种实现方式中,所述将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组包括:从每个目标内容隐藏层向量组中读取对应的内容隐藏层维度,得到多个内容隐藏层维度;将所述多个内容隐藏层维度依次输入预置的解码器中,结合自回归机制生成多个解码标签组和对应的多个解码标签概率组;基于每个解码标签组对应的解码标签概率组,从每个解码标签组中确定与每个原始文本数据对应的目标标签组,得到多个目标标签组。
可选的,在本发明第一方面的第五种实现方式中,所述将所述多个原始文本数据依次输入所述初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配包括:将每个原始文本数据依次输入初始优化模型中,生成多个待替换标签组,每个待替换标签组至少包括保留标签、删除标签和/或短语标签;按照预置的替换规则依次对所述多个待替换标签组进行替换,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配。
可选的,在本发明第一方面的第六种实现方式中,所述按照预置的替换规则依次对所述多个待替换标签组进行替换,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配包括:在预置的短语集合中确定与短语标签对应的目标短语;在每个原始文本数据中保留与保留标签对应的子文本数据、删除与删除标签对应的子文本数据以及将与短语标签对应的子文本数据替换为目标短语,生成与每个原始文本数据对应的待检测文本数据,得到多个待检测文本数据。
本发明第二方面提供了一种基于标签的优化模型训练装置,包括:获取模块,用于获取多个原始文本数据和多个比对文本数据,一个原始文本数据对应一个比对文本数据;隐藏层向量计算模块,用于将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组;标签组计算模块,用于将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组;训练模块,用于基于所述多个目标标签组训练模型,得到初始优化模型;判断模块,用于将所述多个原始文本数据依次输入所述初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配;调整模块,若目标待检测文本数据与对应的比对文本数据不匹配,则用于调整所述初始优化模型的参数,得到目标优化模型。
可选的,在本发明第二方面的第一种实现方式中,所述隐藏层向量计算模块包括:提取单元,用于从每个原始文本数据中提取对应的原始文本序列;输入序列确定单元,用于将每个原始文本序列输入预置的编码器中,基于注意力掩码机制和每个原始文本序列确定对应的输入序列;隐藏层向量计算单元,用于基于自注意力机制和询问注意力机制对每个输入序列进行隐藏层计算,生成对应的内容隐藏层向量组,得到多个目标内容隐藏层向量组。
可选的,在本发明第二方面的第二种实现方式中,所述输入序列确定单元具体用于:将每个原始文本序列输入预置的编码器中,结合注意力掩码机制对每个原始文本序列进行多次迭代预测,得到对应的多个位置掩码;整合每个原始文本序列对应的多个位置掩码,得到每个原始文本序列对应的输入序列。
可选的,在本发明第二方面的第三种实现方式中,所述隐藏层向量计算单元具体用于:基于每个输入序列提取对应的输入向量组,并采用自注意力机制和询问注意力机制,在第一层隐藏层对目标输入向量组和预置的初始化向量进行计算,得到对应的第一内容隐藏层向量组和对应的第一查询隐藏层向量组;采用所述自注意力机制和所述询问注意力机制,在第二层隐藏层对所述对应的第一内容隐藏层向量组和所述对应的第一查询隐藏层向量组进行计算,得到对应的第二内容隐藏层向量组和对应的第二查询隐藏层向量组;采用所述自注意力机制和所述询问注意力机制,按照上述步骤在其他层隐藏层对对应的内容隐藏层向量组和对应的查询隐藏层向量组进行计算,直至最后一层隐藏层,生成对应的目标内容隐藏层向量组,所述对应的目标内容隐藏层向量组为最后一层隐藏层对应的内容隐藏层向量组;采用所述自注意力机制和所述询问注意力机制按照上述步骤对其他输入序列进行计算,得到多个目标内容隐藏层向量组。
可选的,在本发明第二方面的第四种实现方式中,所述标签组计算模块具体用于:从每个目标内容隐藏层向量组中读取对应的内容隐藏层维度,得到多个内容隐藏层维度;将所述多个内容隐藏层维度依次输入预置的解码器中,结合自回归机制生成多个解码标签组和对应的多个解码标签概率组;基于每个解码标签组对应的解码标签概率组,从每个解码标签组中确定与每个原始文本数据对应的目标标签组,得到多个目标标签组。
可选的,在本发明第二方面的第五种实现方式中,所述判断模块包括:待替换标签组生成单元,用于将每个原始文本数据依次输入初始优化模型中,生成多个待替换标签组,每个待替换标签组至少包括保留标签、删除标签和/或短语标签;替换单元,用于按照预置的替换规则依次对所述多个待替换标签组进行替换,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配。
可选的,在本发明第二方面的第五种实现方式中,所述替换单元具体用于:在预置的短语集合中确定与短语标签对应的目标短语;在每个原始文本数据中保留与保留标签对应的子文本数据、删除与删除标签对应的子文本数据以及将与短语标签对应的子文本数据替换为目标短语,生成与每个原始文本数据对应的待检测文本数据,得到多个待检测文本数据。
本发明第三方面提供了一种基于标签的优化模型训练设备,包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于标签的优化模型训练设备执行上述的基于标签的优化模型训练方法。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述的基于标签的优化模型训练方法。
本发明提供的技术方案中,获取多个原始文本数据和多个比对文本数据,一个原始文本数据对应一个比对文本数据;将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组;将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组;基于所述多个目标标签组训练模型,得到初始优化模型;将所述多个原始文本数据依次输入所述初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配;若目标待检测文本数据与对应的比对文本数据不匹配,则调整所述初始优化模型的参数,得到目标优化模型。本发明实施例中,结合编码器的自注意力机制、编码器的询问注意力机制和解码器的自回归机制,计算多个原始文本数据对应的多个目标标签组,然后根据多个目标标签组训练初始优化模型,最后基于比对文本数据和初始优化模型输出的待检测文本数据调整初始优化模型,得到目标优化模型,使得该目标优化模型适用多种优化任务,提高了目标优化模型的优化灵活性以及优化文本的准确率。
附图说明
图1为本发明实施例中基于标签的优化模型训练方法的一个实施例示意图;
图2为本发明实施例中基于标签的优化模型训练方法的另一个实施例示意图;
图3为本发明实施例中计算目标内容隐藏层向量组的示意图;
图4为本发明实施例中基于标签的优化模型训练装置的一个实施例示意图;
图5为本发明实施例中基于标签的优化模型训练装置的另一个实施例示意图;
图6为本发明实施例中基于标签的优化模型训练设备的一个实施例示意图。
具体实施方式
本发明实施例提供了一种基于标签的优化模型训练方法、装置、设备及存储介质,用于提高目标优化模型的优化灵活性以及优化文本的准确率。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,请参阅图1,本发明实施例中基于标签的优化模型训练方法的一个实施例包括:
101、获取多个原始文本数据和多个比对文本数据,一个原始文本数据对应一个比对文本数据;
服务器获取多个原始文本数据和与多个原始文本数据一一对应的多个比对文本数据。
多个原始文本数据用来训练优化模型,多个比对文本数据用来调整优化模型。多个原始文本数据为音乐数据经过语音识别模型识别得到的文本数据,在本实施例中,原始文本数据为面试场景数据,例如“我是出生于2000年,和我在读大学”,“我的毕业学校为学校A,我在公司B工作”等。“我是出生于2000年,和我在读大学”的原始文本数据对应的比对文本数据为“我是出生于2000年,现在在读大学”,“我的毕业学校为学校A,我在公司B工作”的原始文本数据对应的比对文本数据为“我的毕业学校为学校A,现在在公司B工作”。
可以理解的是,本发明的执行主体可以为基于标签的优化模型训练装置,还可以是终端或者服务器,具体此处不做限定。本发明实施例以服务器为执行主体为例进行说明。
102、将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组;
将每个原始文本数据输入预置的编码器中,基于编码器的自注意力机制和询问注意力机制计算内容隐藏层向量,得到多个目标内容隐藏层向量组。
需要说明的是,自注意力机制和询问注意力机制统称为双流注意力机制,通过该双流注意力机制可以通过上文来预测下一个单词是什么。其中自注意力机制为传统的自注意力机制,而询问注意力机制在自注意力机制的基础上修改部分东西,从而在预测下一个单词是什么时在全局信息中无法看到自己,从而可以通过上文来预测下一个单词是什么。服务器将一个原始文本数据输入预置的编码器中,在编码器中基于自注意力机制和询问注意力机制迭代计算编码器中的每一层内容隐藏层向量,从而得到其中一个目标内容隐藏层向量组,服务器再将其他原始文本数据输入预置的编码器中,得到其他目标内容隐藏层向量组,其中一个目标内容隐藏层向量组和其他目标内容隐藏层向量组构成了多个目标内容隐藏层向量组。
103、将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组;
服务器将每个目标内容隐藏层向量组输入预置的解码器中进行解码,在解码器中结合解码器的自回归机制对基于每个目标内容隐藏层向量组计算标签,得到多个目标标签组。
需要说明的是,解码器为两种,其中一种是具有自回归机制的解码器,另一种是具有前馈机制的解码器。在本实施例中,主要对具有自回归机制的解码器进行说明,自回归机制可以理解为采用一层解码和编码注意力机制对目标内容隐藏层向量组进行解码,得到对应的目标标签组。在其他实施例中,解码器还可以为具有前馈机制的解码器,具有前馈机制的解码器主要是为目标内容隐藏层向量组叠加一层Softmax,从而得到对应的目标标签组。
例如,其中多个内容隐藏层向量组为C1、C2和C3,将C1、C2和C3依次输入预置的解码器中,首先采用自回归机制对C1进行解码,得到一个目标标签组D1,然后采用自回归机制对C2进行解码,得到一个目标标签组D2,最后采用自回归机制对C3进行解码,得到一个目标标签组D3。
104、基于多个目标标签组训练模型,得到初始优化模型;
服务器基于多个目标标签组进行模型训练,得到初始优化模型。
服务器采用多个目标标签组进行多次迭代训练,得到初始优化模型。
105、将多个原始文本数据依次输入初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配;
服务器将多个原始文本数据依次输入初始优化模型中进行优化,得到多个待检测文本数据,然后判断每个待检测文本数据是否与对应的比对文本数据匹配。
将每个原始文本数据输入初始优化模型中,能够得到多个待检测文本数据,将待检测文本数据与比对文本数据进行对比,能够判断初始优化模型的准确度,若不准确,则可以对初始文本优化模型的参数进行更新与调整。
例如,原始文本数据为“我是出生于2000年,和我在读大学”,对应的比对文本数据为“我是出生于2000年,现在在读大学”。将“我是出生于2000年,和我在读大学”的原始文本数据输入初始优化模型中,得到待检测文本数据为“我是出生于2000年,和读大学”,服务器判断“我是出生于2000年,和读大学”的待检测文本数据是否与“我是出生于2000年,现在在读大学”的比对文本数据相同。
106、若目标待检测文本数据与对应的比对文本数据不匹配,则调整初始优化模型的参数,得到目标优化模型。
如果服务器判定目标待检测文本数据与对应的比对文本数据不匹配,则调整初始优化模型的参数,得到目标优化模型。
本实施例还沿用步骤105的例子,待检测文本数据为“我是出生于2000年,和读大学”,比对文本数据为“我是出生于2000年,现在在读大学”,服务器判定待检测文本数据与比对文本数据不匹配,则说明初始优化模型的优化精确度较低,此时需要调整初始优化模型的参数,从而得到目标优化模型。
需要说明的是,在本实施例中,只是以一个例子进行了说明,实际上用于调整初始优化模型的依据为多个原始文本数据和对应的多个比对文本数据,多个原始文本数据和对应的对比文件数据对初始优化模型优化的过程相同,因此本实施例对其他的优化过程不加赘述。
本发明实施例中,结合编码器的自注意力机制、编码器的询问注意力机制和解码器的自回归机制,计算多个原始文本数据对应的多个目标标签组,然后根据多个目标标签组训练初始优化模型,最后基于比对文本数据和初始优化模型输出的待检测文本数据调整初始优化模型,得到目标优化模型,使得该目标优化模型适用多种优化任务,提高了目标优化模型的优化灵活性以及优化文本的准确率。
请参阅图2,本发明实施例中基于标签的优化模型训练方法的另一个实施例包括:
201、获取多个原始文本数据和多个比对文本数据,一个原始文本数据对应一个比对文本数据;
服务器获取多个原始文本数据和与多个原始文本数据一一对应的多个比对文本数据。
多个原始文本数据用来训练优化模型,多个比对文本数据用来调整优化模型。多个原始文本数据为音乐数据经过语音识别模型识别得到的文本数据,在本实施例中,原始文本数据为面试场景数据,例如“我是出生于2000年,和我在读大学”,“我的毕业学校为学校A,我在公司B工作”等。“我是出生于2000年,和我在读大学”的原始文本数据对应的比对文本数据为“我是出生于2000年,现在在读大学”,“我的毕业学校为学校A,我在公司B工作”的原始文本数据对应的比对文本数据为“我的毕业学校为学校A,现在在公司B工作”。
202、将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组;
将每个原始文本数据输入预置的编码器中,基于编码器的自注意力机制和询问注意力机制计算内容隐藏层向量,得到多个目标内容隐藏层向量组。
需要说明的是,自注意力机制和询问注意力机制统称为双流注意力机制,通过该双流注意力机制可以通过上文来预测下一个单词是什么。其中自注意力机制为传统的自注意力机制,而询问注意力机制在自注意力机制的基础上修改部分东西,从而在预测下一个单词是什么时在全局信息中无法看到自己,从而可以通过上文来预测下一个单词是什么。服务器将一个原始文本数据输入预置的编码器中,在编码器中基于自注意力机制和询问注意力机制迭代计算编码器中的每一层内容隐藏层向量,从而得到其中一个目标内容隐藏层向量组,服务器再将其他原始文本数据输入预置的编码器中,得到其他目标内容隐藏层向量组,其中一个目标内容隐藏层向量组和其他目标内容隐藏层向量组构成了多个目标内容隐藏层向量组。
具体的,服务器从每个原始文本数据中提取对应的原始文本序列;服务器将每个原始文本序列输入预置的编码器中,基于编码器的注意力掩码机制和每个原始文本序列确定对应的输入序列;服务器基于自注意力机制和询问注意力机制对每个输入序列进行隐藏层计算,生成对应的内容隐藏层向量组,得到多个目标内容隐藏层向量组。
例如,原始文本序列为[This,is,a,sentence],服务器将原始文本序列输入预置的编码器中,基于编码器的注意力机制来改变原始文本序列的顺序,从而得到对应的输入序列,假设得到的输入序列为:
服务器基于自注意力机制和询问注意力机制在对该输入序列在多个隐藏层中进行计算,生成与原始文本序列对应的内容隐藏层向量组,按照这种方式生成多个原始文本序列对应的内容隐藏层向量组,得到多个内容隐藏层向量组。
需要说明的是,本实施例的隐藏层为12层。
服务器将每个原始文本序列输入预置的编码器中,基于编码器的注意力掩码机制和每个原始文本序列确定对应的输入序列的具体过程为:
服务器首先将每个原始文本序列输入预置的编码器中,结合注意力掩码机制对每个原始文本序列进行多次迭代预测,得到对应的多个位置掩码;然后服务器整合每个原始文本序列对应的多个位置掩码,得到每个原始文本序列对应的输入序列。
为了便于理解,下面结合具体场景进行说明:
假设有一个原始文本序列为[This,is,a,sentence],基于现有的模型进行预测结果时,通常会得到4!种排列可能的结果。在本实施例中,编码器的注意力掩码机制会通过一个掩码矩阵来改变原始文本序列中对象的顺序,得到一个新的输入序列。假设,当服务器预测“a”的位置时,“a”的前面没有信息,所以对应的位置掩码为[0,0,0,0];当服务器预测“is”的位置时,需要用到|“a”的位置,服务器则确定对应的位置掩码为[0,0,1,0];当服务器预测“sentence”的位置时,结合“is”和“a”的位置,服务器得到对应的位置掩码为[0,1,1,0],同理,当服务器预测This的位置时,得到对应的位置掩码为[0,1,1,1]。最后服务器整合这些位置掩码,得到与[This,is,a,sentence]原始文本序列对应的输入序列为:
服务器基于自注意力机制和询问注意力机制对每个输入序列进行隐藏层计算,生成对应的内容隐藏层向量组,得到多个目标内容隐藏层向量组的具体过程为:
服务器基于每个输入序列提取对应的输入向量组,并采用自注意力机制和询问注意力机制,在第一层隐藏层对目标输入向量组和预置的初始化向量进行计算,得到对应的第一内容隐藏层向量组和对应的第一查询隐藏层向量组;服务器采用自注意力机制和询问注意力机制,在第二层隐藏层对对应的第一内容隐藏层向量组和对应的第一查询隐藏层向量组进行计算,得到对应的第二内容隐藏层向量组和对应的第二查询隐藏层向量组;服务器采用自注意力机制和询问注意力机制,按照上述步骤在其他层隐藏层对对应的内容隐藏层向量组和对应的查询隐藏层向量组进行计算,直至最后一层隐藏层,生成对应的目标内容隐藏层向量组,对应的目标内容隐藏层向量组为最后一层隐藏层对应的内容隐藏层向量组;最后服务器采用自注意力机制和询问注意力机制按照上述步骤对其他输入序列进行计算,得到多个目标内容隐藏层向量组。
请参阅图3,e(x1)、e(x2)、e(x3)和e(x4)分别为基于目标输入序列中提取的输入向量,w为预置的初始化向量,服务器采用自注意力机制和询问注意力机制在编码器的第一层隐藏层对目标输入向量和预置的初始化向量进行计算,得到第一内容隐藏层向量组g1 (1)、g2 (1)、g3 (1)和g4 (1),第一查询隐藏层向量组h1 (1)、h2 (1)、h3 (1)以及h4 (1);服务器采用自注意力机制和询问注意力机制在编码器的第二层隐藏层对第一内容隐藏层向量组g1 (1)、g2 (1)、g3 (1)和g4 (1)以及第一查询隐藏层向量组h1 (1)、h2 (1)、h3 (1)和h4 (1)进行计算,得到第二内容隐藏层向量组g1 (2)、g2 (2)、g3 (2)和g4 (3),得到第二查询隐藏层向量组为h1 (2)、h2 (2)、h3 (2)和h4 (2);按照此方法,以上一层隐藏层的输出作为下一层隐藏层的输入,结合自注意力机制和询问注意力机制进行计算,得到每一层隐藏层的查询隐藏层向量组和每一层隐藏层的内容隐藏层向量组。将最后一层(第12层)隐藏层输出的内容隐藏层向量组作为目标内容隐藏层向量组,即图中的x1、x2、x3和x4。
203、将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组;
服务器将每个目标内容隐藏层向量组输入预置的解码器中进行解码,在解码器中结合解码器的自回归机制对基于每个目标内容隐藏层向量组计算标签,得到多个目标标签组。
需要说明的是,解码器为两种,其中一种是具有自回归机制的解码器,另一种是具有前馈机制的解码器。在本实施例中,主要对具有自回归机制的解码器进行说明,自回归机制可以理解为采用一层解码和编码注意力机制对目标内容隐藏层向量组进行解码,得到对应的目标标签组。在其他实施例中,解码器还可以为具有前馈机制的解码器,具有前馈机制的解码器主要是为目标内容隐藏层向量组叠加一层Softmax,从而得到对应的目标标签组。
例如,其中多个内容隐藏层向量组为C1、C2和C3,将C1、C2和C3依次输入预置的解码器中,首先采用自回归机制对C1进行解码,得到一个目标标签组D1,然后采用自回归机制对C2进行解码,得到一个目标标签组D2,最后采用自回归机制对C3进行解码,得到一个目标标签组D3。
具体的,从每个目标内容隐藏层向量组中读取对应的内容隐藏层维度,得到多个内容隐藏层维度;将多个内容隐藏层维度依次输入预置的解码器中,结合自回归机制生成多个解码标签组和对应的多个解码标签概率组;基于每个解码标签组对应的解码标签概率组,从每个解码标签组中确定与每个原始文本数据对应的目标标签组,得到多个目标标签组。
为了便于理解,结合具体场景进行说明:
假设服务器从上述步骤202得到的目标内容隐藏层向量组x1、x2、x3和x4,读取的内容隐藏层维度为1*4*768,其中,1代表句子的维度,4代表句子长度,768代表预设的单词向量维度。然后服务器将该内容隐藏层维度输入预置的解码器中,结合自回归机制,生成解码维度和对应的解码标签概率组。解码维度为1*4*(2*Dv),其中1代表句子的维度,4代表句子长度,2*Dv为目标内容隐藏向量组对应的解码标签组中的标签个数,服务器在解码标签组基于每个对应的解码标签概率,确定概率最大的解码标签为目标标签,从而得到一个与目标原始文本数据对应的目标标签组。服务器针对其他目标内容隐藏层向量组也进行相同的计算,从而得到多个目标标签组。
204、基于多个目标标签组训练模型,得到初始优化模型;
服务器基于多个目标标签组进行模型训练,得到初始优化模型。
服务器采用多个目标标签组进行多次迭代训练,得到初始优化模型。
205、将每个原始文本数据依次输入初始优化模型中,生成多个待替换标签组,每个待替换标签组至少包括保留标签、删除标签和/或短语标签;
服务器将每个原始文本数据依次输入初始优化模型中进行优化,得到多个至少包括保留标签、删除标签和/或短语标签的待替换标签组。
保留标签和删除标签为基本标签,短语标签为附加标签。本实施例中的短语标签是基于最长公共子序列计算得到的,短语标签对应短语,该短语需要满足三个条件:a、数据量足够小,用于防止生成一些无关的单词;b、对于当前原始文本数据需要拥有足够高的覆盖率;c、出现的频率较高。生成短语标签的具体过程为:采用最长公共子序列对原始文本数据与对应的比对文本数据进行对比,从比对文本序列中提取不属于原始文本数据的单词,然后将该单词对应的标签添加初始的短语标签集合中,最后对该短语标签集合按照单词出现的频率进行排序,得到最终的短语标签集合。
需要说明的是,短语标签可以与保留标签和删除标签组合,例如'现在Keep和'现在Delete,其中,'现在为短语标签,Keep为保留标签,Delete为删除标签。
206、按照预置的替换规则依次对多个待替换标签组进行替换,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配;
具体的,在预置的短语集合中确定与短语标签对应的目标短语;在每个原始文本数据中保留与保留标签对应的子文本数据、删除与删除标签对应的子文本数据以及将与短语标签对应的子文本数据替换为目标短语,生成与每个原始文本数据对应的待检测文本数据,得到多个待检测文本数据。
例如原始文本数据为:[我是出生于2000年,和我在上大学。],对应的待替换标签组为:[Keep Keep Keep Keep Keep Keep Delete Delete'现在Keep Keep Keep Keep],服务器在预置短语集中确定与'现在对应的目标短语为“现在”;服务器将保留标签Keep对应的子文本数据保留,删除Delete对应的子文本数据,将'现在对应的子文本数据替换为目标短语,从而得到待检测文本数据为[我是出生于2000年,现在在上大学。]。然后服务器判断该待检测文本数据是都与对应的比对文本数据相匹配。
207、若目标待检测文本数据与对应的比对文本数据不匹配,则调整初始优化模型的参数,得到目标优化模型。
如果服务器判定目标待检测文本数据与对应的比对文本数据不匹配,则调整初始优化模型的参数,得到目标优化模型。
本实施例还沿用步骤206的例子,待检测文本数据为“我是出生于2000年,现在在上大学。”,比对文本数据为“我是出生于2000年,现在在读大学”,服务器判定待检测文本数据与比对文本数据匹配,则说明初始优化模型的优化精确度较高,将初始优化模型确定为目标优化模型。
需要说明的是,在本实施例中,只是以一个例子进行了说明,实际上用于调整初始优化模型的依据为多个原始文本数据和对应的多个比对文本数据,多个原始文本数据和对应的对比文件数据对初始优化模型优化的过程相同,因此本实施例对其他的优化过程不加赘述。
本发明实施例中,结合编码器的自注意力机制、编码器的询问注意力机制和解码器的自回归机制,计算多个原始文本数据对应的多个目标标签组,然后根据多个目标标签组训练初始优化模型,最后基于比对文本数据和初始优化模型输出的待检测文本数据调整初始优化模型,得到目标优化模型,使得该目标优化模型适用多种优化任务,提高了目标优化模型的优化灵活性以及优化文本的准确率。
上面对本发明实施例中基于标签的优化模型训练方法进行了描述,下面对本发明实施例中基于标签的优化模型训练装置进行描述,请参阅图4,本发明实施例中基于标签的优化模型训练装置一个实施例包括:
获取模块401,用于获取多个原始文本数据和多个比对文本数据,一个原始文本数据对应一个比对文本数据;
隐藏层向量计算模402,用于将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组;
标签组计算模块403,用于将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组;
训练模块404,用于基于所述多个目标标签组训练模型,得到初始优化模型;
判断模块405,用于将所述多个原始文本数据依次输入所述初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配;
调整模块406,若目标待检测文本数据与对应的比对文本数据不匹配,则用于调整所述初始优化模型的参数,得到目标优化模型。
本发明实施例中,结合编码器的自注意力机制、编码器的询问注意力机制和解码器的自回归机制,计算多个原始文本数据对应的多个目标标签组,然后根据多个目标标签组训练初始优化模型,最后基于比对文本数据和初始优化模型输出的待检测文本数据调整初始优化模型,得到目标优化模型,使得该目标优化模型适用多种优化任务,提高了目标优化模型的优化灵活性以及优化文本的准确率。
请参阅图5,本发明实施例中基于标签的优化模型训练装置的另一个实施例包括:
获取模块401,用于获取多个原始文本数据和多个比对文本数据,一个原始文本数据对应一个比对文本数据;
隐藏层向量计算模块402,用于将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组;
标签组计算模块403,用于将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组;
训练模块404,用于基于所述多个目标标签组训练模型,得到初始优化模型;
判断模块405,用于将所述多个原始文本数据依次输入所述初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配;
调整模块406,若目标待检测文本数据与对应的比对文本数据不匹配,则用于调整所述初始优化模型的参数,得到目标优化模型。
可选的,隐藏层向量计算模块402包括:
提取单元4021,用于从每个原始文本数据中提取对应的原始文本序列;
输入序列确定单元4022,用于将每个原始文本序列输入预置的编码器中,基于注意力掩码机制和每个原始文本序列确定对应的输入序列;
隐藏层向量计算单元4023,用于基于自注意力机制和询问注意力机制对每个输入序列进行隐藏层计算,生成对应的内容隐藏层向量组,得到多个目标内容隐藏层向量组。
可选的,输入序列确定单元4022还可以具体用于:
将每个原始文本序列输入预置的编码器中,结合注意力掩码机制对每个原始文本序列进行多次迭代预测,得到对应的多个位置掩码;
整合每个原始文本序列对应的多个位置掩码,得到每个原始文本序列对应的输入序列。
可选的,隐藏层向量计算单元4023还可以具体用于:
基于每个输入序列提取对应的输入向量组,并采用自注意力机制和询问注意力机制,在第一层隐藏层对目标输入向量组和预置的初始化向量进行计算,得到对应的第一内容隐藏层向量组和对应的第一查询隐藏层向量组;
采用所述自注意力机制和所述询问注意力机制,在第二层隐藏层对所述对应的第一内容隐藏层向量组和所述对应的第一查询隐藏层向量组进行计算,得到对应的第二内容隐藏层向量组和对应的第二查询隐藏层向量组;
采用所述自注意力机制和所述询问注意力机制,按照上述步骤在其他层隐藏层对对应的内容隐藏层向量组和对应的查询隐藏层向量组进行计算,直至最后一层隐藏层,生成对应的目标内容隐藏层向量组,所述对应的目标内容隐藏层向量组为最后一层隐藏层对应的内容隐藏层向量组;
采用所述自注意力机制和所述询问注意力机制按照上述步骤对其他输入序列进行计算,得到多个目标内容隐藏层向量组。
可选的,标签组计算模块403还可以具体用于:
从每个目标内容隐藏层向量组中读取对应的内容隐藏层维度,得到多个内容隐藏层维度;
将所述多个内容隐藏层维度依次输入预置的解码器中,结合自回归机制生成多个解码标签组和对应的多个解码标签概率组;
基于每个解码标签组对应的解码标签概率组,从每个解码标签组中确定与每个原始文本数据对应的目标标签组,得到多个目标标签组。
可选的,判断模块405包括:
待替换标签组生成单元4051,用于将每个原始文本数据依次输入初始优化模型中,生成多个待替换标签组,每个待替换标签组至少包括保留标签、删除标签和/或短语标签;
替换单元4052,用于按照预置的替换规则依次对所述多个待替换标签组进行替换,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配。
可选的,替换单元4052还可以具体用于:
在预置的短语集合中确定与短语标签对应的目标短语;
在每个原始文本数据中保留与保留标签对应的子文本数据、删除与删除标签对应的子文本数据以及将与短语标签对应的子文本数据替换为目标短语,生成与每个原始文本数据对应的待检测文本数据,得到多个待检测文本数据。
本发明实施例中,结合编码器的自注意力机制、编码器的询问注意力机制和解码器的自回归机制,计算多个原始文本数据对应的多个目标标签组,然后根据多个目标标签组训练初始优化模型,最后基于比对文本数据和初始优化模型输出的待检测文本数据调整初始优化模型,得到目标优化模型,使得该目标优化模型适用多种优化任务,提高了目标优化模型的优化灵活性以及优化文本的准确率。
上面图4和图5从模块化功能实体的角度对本发明实施例中的基于标签的优化模型训练装置进行详细描述,下面从硬件处理的角度对本发明实施例中基于标签的优化模型训练设备进行详细描述。
图6是本发明实施例提供的一种基于标签的优化模型训练设备的结构示意图,该基于标签的优化模型训练设备600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processing units,CPU)610(例如,一个或一个以上处理器)和存储器620,一个或一个以上存储应用程序633或数据632的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器620和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对基于标签的优化模型训练设备600中的一系列指令操作。更进一步地,处理器610可以设置为与存储介质630通信,在基于标签的优化模型训练设备600上执行存储介质630中的一系列指令操作。
基于标签的优化模型训练设备600还可以包括一个或一个以上电源640,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口660,和/或,一个或一个以上操作系统631,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图5示出的基于标签的优化模型训练设备结构并不构成对基于标签的优化模型训练设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述基于标签的优化模型训练方法的步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于标签的优化模型训练方法,其特征在于,所述基于标签的优化模型训练方法包括:
获取多个原始文本数据和多个比对文本数据,一个原始文本数据对应一个比对文本数据;
将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组;
将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组;
基于所述多个目标标签组训练模型,得到初始优化模型;
将所述多个原始文本数据依次输入所述初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配;
若目标待检测文本数据与对应的比对文本数据不匹配,则调整所述初始优化模型的参数,得到目标优化模型。
2.根据权利要求1所述的基于标签的优化模型训练方法,其特征在于,所述将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组包括:
从每个原始文本数据中提取对应的原始文本序列;
将每个原始文本序列输入预置的编码器中,基于注意力掩码机制和每个原始文本序列确定对应的输入序列;
基于自注意力机制和询问注意力机制对每个输入序列进行隐藏层计算,生成对应的内容隐藏层向量组,得到多个目标内容隐藏层向量组。
3.根据权利要求2所述的基于标签的优化模型训练方法,其特征在于,所述将每个原始文本序列输入预置的编码器中,基于注意力掩码机制和每个原始文本序列确定对应的输入序列包括:
将每个原始文本序列输入预置的编码器中,结合注意力掩码机制对每个原始文本序列进行多次迭代预测,得到对应的多个位置掩码;
整合每个原始文本序列对应的多个位置掩码,得到每个原始文本序列对应的输入序列。
4.根据权利要求3所述的基于标签的优化模型训练方法,其特征在于,所述基于自注意力机制和询问注意力机制对每个输入序列进行隐藏层计算,生成对应的内容隐藏层向量组,得到多个目标内容隐藏层向量组包括:
基于每个输入序列提取对应的输入向量组,并采用自注意力机制和询问注意力机制,在第一层隐藏层对目标输入向量组和预置的初始化向量进行计算,得到对应的第一内容隐藏层向量组和对应的第一查询隐藏层向量组;
采用所述自注意力机制和所述询问注意力机制,在第二层隐藏层对所述对应的第一内容隐藏层向量组和所述对应的第一查询隐藏层向量组进行计算,得到对应的第二内容隐藏层向量组和对应的第二查询隐藏层向量组;
采用所述自注意力机制和所述询问注意力机制,按照上述步骤在其他层隐藏层对对应的内容隐藏层向量组和对应的查询隐藏层向量组进行计算,直至最后一层隐藏层,生成对应的目标内容隐藏层向量组,所述对应的目标内容隐藏层向量组为最后一层隐藏层对应的内容隐藏层向量组;
采用所述自注意力机制和所述询问注意力机制按照上述步骤对其他输入序列进行计算,得到多个目标内容隐藏层向量组。
5.根据权利要求1所述的基于标签的优化模型训练方法,其特征在于,所述将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组包括:
从每个目标内容隐藏层向量组中读取对应的内容隐藏层维度,得到多个内容隐藏层维度;
将所述多个内容隐藏层维度依次输入预置的解码器中,结合自回归机制生成多个解码标签组和对应的多个解码标签概率组;
基于每个解码标签组对应的解码标签概率组,从每个解码标签组中确定与每个原始文本数据对应的目标标签组,得到多个目标标签组。
6.根据权利要求1-5中任意一项所述的基于标签的优化模型训练方法,其特征在于,所述将所述多个原始文本数据依次输入所述初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配包括:
将每个原始文本数据依次输入初始优化模型中,生成多个待替换标签组,每个待替换标签组至少包括保留标签、删除标签和/或短语标签;
按照预置的替换规则依次对所述多个待替换标签组进行替换,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配。
7.根据权利要求6所述的基于标签的优化模型训练方法,其特征在于,所述按照预置的替换规则依次对所述多个待替换标签组进行替换,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配包括:
在预置的短语集合中确定与短语标签对应的目标短语;
在每个原始文本数据中保留与保留标签对应的子文本数据、删除与删除标签对应的子文本数据以及将与短语标签对应的子文本数据替换为目标短语,生成与每个原始文本数据对应的待检测文本数据,得到多个待检测文本数据。
8.一种基于标签的优化模型训练装置,其特征在于,所述基于标签的优化模型训练装置包括:
获取模块,用于获取多个原始文本数据和多个比对文本数据,一个原始文本数据对应一个比对文本数据;
隐藏层向量计算模块,用于将每个原始文本数据输入预置的编码器中,基于自注意力机制和询问注意力机制,得到多个目标内容隐藏层向量组;
标签组计算模块,用于将每个目标内容隐藏层向量组输入预置的解码器中,结合自回归机制进行标签计算,得到多个目标标签组;
训练模块,用于基于所述多个目标标签组训练模型,得到初始优化模型;
判断模块,用于将所述多个原始文本数据依次输入所述初始优化模型中,得到多个待检测文本数据,并判断每个待检测文本数据是否与对应的比对文本数据相匹配;
调整模块,若目标待检测文本数据与对应的比对文本数据不匹配,则用于调整所述初始优化模型的参数,得到目标优化模型。
9.一种基于标签的优化模型训练设备,其特征在于,所述基于标签的优化模型训练设备包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述基于标签的优化模型训练设备执行如权利要求1-7中任意一项所述的基于标签的优化模型训练方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7中任一项所述基于标签的优化模型训练方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011353108.0A CN112464637B (zh) | 2020-11-27 | 2020-11-27 | 基于标签的优化模型训练方法、装置、设备及存储介质 |
PCT/CN2021/097136 WO2022110730A1 (zh) | 2020-11-27 | 2021-05-31 | 基于标签的优化模型训练方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011353108.0A CN112464637B (zh) | 2020-11-27 | 2020-11-27 | 基于标签的优化模型训练方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112464637A true CN112464637A (zh) | 2021-03-09 |
CN112464637B CN112464637B (zh) | 2024-02-27 |
Family
ID=74808888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011353108.0A Active CN112464637B (zh) | 2020-11-27 | 2020-11-27 | 基于标签的优化模型训练方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112464637B (zh) |
WO (1) | WO2022110730A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022110730A1 (zh) * | 2020-11-27 | 2022-06-02 | 平安科技(深圳)有限公司 | 基于标签的优化模型训练方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190179896A1 (en) * | 2017-12-11 | 2019-06-13 | Abbyy Development Llc | Using autoencoders for training natural language text classifiers |
CN110347839A (zh) * | 2019-07-18 | 2019-10-18 | 湖南数定智能科技有限公司 | 一种基于生成式多任务学习模型的文本分类方法 |
CN110619053A (zh) * | 2019-09-18 | 2019-12-27 | 北京百度网讯科技有限公司 | 实体关系抽取模型的训练方法和抽取实体关系的方法 |
CN111160000A (zh) * | 2019-12-10 | 2020-05-15 | 深圳信息职业技术学院 | 作文自动评分方法、装置终端设备及存储介质 |
CN111444311A (zh) * | 2020-02-26 | 2020-07-24 | 平安科技(深圳)有限公司 | 语义理解模型训练方法、装置、计算机设备和存储介质 |
WO2020228376A1 (zh) * | 2019-05-16 | 2020-11-19 | 华为技术有限公司 | 文本处理方法、模型训练方法和装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120323968A1 (en) * | 2011-06-14 | 2012-12-20 | Microsoft Corporation | Learning Discriminative Projections for Text Similarity Measures |
CN107169001A (zh) * | 2017-03-31 | 2017-09-15 | 华东师范大学 | 一种基于众包反馈和主动学习的文本分类模型优化方法 |
CN108806668A (zh) * | 2018-06-08 | 2018-11-13 | 国家计算机网络与信息安全管理中心 | 一种音视频多维度标注与模型优化方法 |
CN112464637B (zh) * | 2020-11-27 | 2024-02-27 | 平安科技(深圳)有限公司 | 基于标签的优化模型训练方法、装置、设备及存储介质 |
-
2020
- 2020-11-27 CN CN202011353108.0A patent/CN112464637B/zh active Active
-
2021
- 2021-05-31 WO PCT/CN2021/097136 patent/WO2022110730A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190179896A1 (en) * | 2017-12-11 | 2019-06-13 | Abbyy Development Llc | Using autoencoders for training natural language text classifiers |
WO2020228376A1 (zh) * | 2019-05-16 | 2020-11-19 | 华为技术有限公司 | 文本处理方法、模型训练方法和装置 |
CN110347839A (zh) * | 2019-07-18 | 2019-10-18 | 湖南数定智能科技有限公司 | 一种基于生成式多任务学习模型的文本分类方法 |
CN110619053A (zh) * | 2019-09-18 | 2019-12-27 | 北京百度网讯科技有限公司 | 实体关系抽取模型的训练方法和抽取实体关系的方法 |
CN111160000A (zh) * | 2019-12-10 | 2020-05-15 | 深圳信息职业技术学院 | 作文自动评分方法、装置终端设备及存储介质 |
CN111444311A (zh) * | 2020-02-26 | 2020-07-24 | 平安科技(深圳)有限公司 | 语义理解模型训练方法、装置、计算机设备和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022110730A1 (zh) * | 2020-11-27 | 2022-06-02 | 平安科技(深圳)有限公司 | 基于标签的优化模型训练方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112464637B (zh) | 2024-02-27 |
WO2022110730A1 (zh) | 2022-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10380236B1 (en) | Machine learning system for annotating unstructured text | |
CN111160008B (zh) | 一种实体关系联合抽取方法及系统 | |
CN110704588B (zh) | 基于长短期记忆网络的多轮对话语义分析方法和系统 | |
US11972365B2 (en) | Question responding apparatus, question responding method and program | |
Yu et al. | Online segment to segment neural transduction | |
US20190266246A1 (en) | Sequence modeling via segmentations | |
CN112329465A (zh) | 一种命名实体识别方法、装置及计算机可读存储介质 | |
US20210081503A1 (en) | Utilizing a gated self-attention memory network model for predicting a candidate answer match to a query | |
CN111694924A (zh) | 一种事件抽取方法和系统 | |
JP7315065B2 (ja) | 質問生成装置、質問生成方法及びプログラム | |
CN112528648A (zh) | 多音字发音的预测方法、装置、设备及存储介质 | |
CN113312505B (zh) | 一种基于离散在线哈希学习的跨模态检索方法及系统 | |
CN113987169A (zh) | 基于语义块的文本摘要生成方法、装置、设备及存储介质 | |
Moeng et al. | Canonical and surface morphological segmentation for nguni languages | |
CN114445832A (zh) | 基于全局语义的文字图像识别方法、装置及计算机设备 | |
CN117197271A (zh) | 图像生成方法、装置、电子设备及存储介质 | |
CN113010635B (zh) | 一种文本纠错方法及装置 | |
CN112464637B (zh) | 基于标签的优化模型训练方法、装置、设备及存储介质 | |
Xu et al. | Dadu river runoff forecasting via Seq2Seq | |
CN115186670B (zh) | 一种基于主动学习的领域命名实体识别方法及系统 | |
CN115906854A (zh) | 一种基于多级对抗的跨语言命名实体识别模型训练方法 | |
JPWO2020235024A1 (ja) | 情報学習装置、情報処理装置、情報学習方法、情報処理方法及びプログラム | |
WO2020162240A1 (ja) | 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 | |
Sánchez et al. | On the derivational entropy of left-to-right probabilistic finite-state automata and hidden markov models | |
JP2017182277A (ja) | 符号化装置、復号化装置、離散系列変換装置、方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |