CN114154518A - 数据增强模型训练方法、装置、电子设备及存储介质 - Google Patents

数据增强模型训练方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN114154518A
CN114154518A CN202111457751.2A CN202111457751A CN114154518A CN 114154518 A CN114154518 A CN 114154518A CN 202111457751 A CN202111457751 A CN 202111457751A CN 114154518 A CN114154518 A CN 114154518A
Authority
CN
China
Prior art keywords
data
sentence
model
training
sample pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111457751.2A
Other languages
English (en)
Inventor
杨正良
刘设伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taikang Insurance Group Co Ltd
Taikang Online Property Insurance Co Ltd
Original Assignee
Taikang Insurance Group Co Ltd
Taikang Online Property Insurance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taikang Insurance Group Co Ltd, Taikang Online Property Insurance Co Ltd filed Critical Taikang Insurance Group Co Ltd
Priority to CN202111457751.2A priority Critical patent/CN114154518A/zh
Publication of CN114154518A publication Critical patent/CN114154518A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供了一种数据增强模型训练方法、装置、电子设备及存储介质,涉及数据处理技术领域。该方法包括:获取样本数据,其中,所述样本数据包括:多个句子;在基于预先构建的特征向量模型生成每个句子的句子向量时,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量;根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据;利用构建的正样本对数据和负样本对数据,训练得到数据增强模型,以对待增强的数据进行增强。本公开利用训练好的数据增强模型对各种模型训练样本数据进行增强,能够使得利用增强后训练样本数据训练的模型更加准确。

Description

数据增强模型训练方法、装置、电子设备及存储介质
技术领域
本公开涉及数据处理技术领域,尤其涉及一种数据增强模型训练方法、装置、电子设备及存储介质。
背景技术
在智能客服机器人的建设中,通常要基于预先通过机器学习训练得到的语义匹配模型对问题与答案进行匹配。而语义匹配模型的训练,需要大量训练样本数据。目前,相关技术中,往往依靠人工标注的方式获得用于语义匹配模型训练的样本数据。这种方式,不仅耗时耗力,而且得到的样本数据质量一般、数量也相对较少。因而,如何提供一种数据增强模型,以对各种模型训练的样本数据进行增强,是亟待解决的技术问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种数据增强模型训练方法、装置、电子设备及存储介质,至少在一定程度上克服相关技术中难以获得质量较高、数量较多的模型训练样本数据的技术问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种数据增强模型训练方法,该方法包括:获取样本数据,其中,所述样本数据包括:多个句子;在基于预先构建的特征向量模型生成每个句子的句子向量时,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量;根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据;利用构建的正样本对数据和负样本对数据,训练得到数据增强模型,其中,数据增强模型用于对待增强的数据进行增强。
在一些实施例中,所述根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据包括:将同一句子的两个句子向量作为一个正样本对,生成正样本对数据;将不同句子的两个句子向量作为一个负样本对,生成负样本对数据。
在一些实施例中,所述方法还包括:采用单词重复的方式,对正样本对数据进行扩充。
在一些实施例中,所述方法还包括:采用动量对比学习的方式,对负样本对数据进行扩充。
在一些实施例中,所述利用构建的正样本对数据和负样本对数据,训练得到数据增强模型,其中,数据增强模型用于对待增强的数据进行增强包括:对所述正样本对数据和所述负样本对数据进行预处理,得到满足BERT模型输入格式的样本数据;利用所述满足BERT模型输入格式的样本数据,对BERT模型进行训练,得到所述数据增强模型。
在一些实施例中,在对所述正样本对数据和所述负样本对数据进行预处理,得到满足BERT模型输入格式的样本数据之前,所述方法还包括:构建一个语料迭代器,其中,所述语料迭代器用于按照不同批次对所述正样本对数据和所述负样本对数据进行预处理。
在一些实施例中,所述待增强的数据为用于训练语义匹配模型的样本数据。
根据本公开的另一个方面,还提供了一种数据增强模型训练装置,该装置包括:样本数据获取模块,用于获取样本数据,其中,所述样本数据包括:多个句子;句子向量生成模块,用于在基于预先构建的特征向量模型生成每个句子的句子向量时,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量;正负样本构建模块,用于根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据;数据增强模型训练模块,用于利用构建的正样本对数据和负样本对数据,训练得到数据增强模型,其中,数据增强模型用于对待增强的数据进行增强。
在一些实施例中,所述正负样本构建模块还用于:将同一句子的两个句子向量作为一个正样本对,生成正样本对数据;将不同句子的两个句子向量作为一个负样本对,生成负样本对数据。
在一些实施例中,所述装置还包括:正样本数据调整模块,用于采用单词重复的方式,对正样本对数据进行扩充。
在一些实施例中,所述装置还包括:负样本数据调整模块,用于采用动量对比学习的方式,对负样本对数据进行扩充。
在一些实施例中,所述数据增强模型训练模块还用于:对所述正样本对数据和所述负样本对数据进行预处理,得到满足BERT模型输入格式的样本数据;利用所述满足BERT模型输入格式的样本数据,对BERT模型进行训练,得到所述数据增强模型。
在一些实施例中,所述数据增强模型训练模块还用于:构建一个语料迭代器,其中,所述语料迭代器用于按照不同批次对所述正样本对数据和所述负样本对数据进行预处理。
在一些实施例中,所述待增强的数据为用于训练语义匹配模型的样本数据。
根据本公开的另一个方面,还提供了一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的数据增强模型训练方法。
根据本公开的另一个方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的数据增强模型训练方法。
本公开的实施例所提供的数据增强模型训练方法、装置、电子设备及存储介质,在基于预先构建的特征向量模型,生成每个句子的句子向量时,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量,进而根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据,以训练得到一个对数据进行增强的数据增强模型。通过本公开实施例中提供的数据增强模型,对各种模型训练样本数据进行增强,能够使得利用增强后训练样本数据训练得到的模型更加准确。将本公开实施例中得到的数据增强模型应用于语义匹配模型训练样本数据的增强,能够获得更加准确的语义匹配模型,以便应用于智能客服机器人等语义匹配任务领域。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种数据增强模型训练方法流程图;
图2示出本公开实施例中一种对正样本对数据进行扩充的流程图;
图3示出本公开实施例中一种对负样本对数据进行扩充的流程图;
图4示出本公开实施例中一种数据增强模型的训练流程图;
图5示出本公开实施例中一种对问题数据进行增强的结果示意图;
图6示出本公开实施例中一种数据增强模型训练装置示意图;
图7示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
为便于理解,在介绍本公开实施例之前,首先对本公开实施例中涉及到的几个名词进行解释如下:
Dropout:是指在深度学习网络的训练过程中,随机丢弃一部分神经网络单元来避免过拟合。
BERT:全称为Bidirectional Encoder Representation from Transformers,是指Transformers的编码器。
Transformers:即拥有自注意力机制的Seq2Seq模型,Seq2Seq模型是一种输入与输出序列具有不同维度的模型,也称为Encoder-Decoder模型。
下面结合附图及实施样本对本示例实施方式进行详细说明。
首先,本公开实施例中提供了一种数据增强模型训练方法,可以应用但不限于各种机器学习模型训练样本数据的增强。该方法可以由任意具备计算处理能力的电子设备执行。
图1示出本公开实施例中一种数据增强模型训练方法流程图,如图1所示,本公开实施例中提供的数据增强模型训练方法包括如下步骤:
S102,获取样本数据,其中,样本数据包括:多个句子。
需要说明的是,上述S102获取的样本数据可以是但不限于对语义匹配模型进行训练时使用的文本样本数据;该文本样本数据中包含:多个句子。每个句子包含一个或多个字或词。
在本公开的一个实施例中,当本公开实施例中提供的数据增强模型训练方法应用于对训练语义匹配模型的样本数据进行数据增强时,上述样本数据可以是从用户与客服(或客服机器人)的聊天对话中采集的问题句子。
S104,在基于预先构建的特征向量模型生成每个句子的句子向量时,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量。
需要说明的是,上述特征向量模型可以是预先构建的对每个句子提取特征向量的模型,将每个句子输入到该特征向量模型,可以输出每个句子对应的句子向量。在基于特征向量模型对每个句子进行特征向量提取的时候,对每个句子执行一次Dropout处理,能够得到一个对应的句子向量,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量。
当本公开实施例中提供的数据增强模型训练方法应用于保险领域智能客服机器人的语义匹配模型的样本数据增强是,上述特征向量模型可以基于Insurance-BERT模型来实现。Insurance-Bert模型在网络结构上采用与通用BERT模型相同的架构,包含Insurance-Bert-Base和Insurance-Bert-Large两个版本,其中Base采用了12层Transformer结构,Large采用了24层Transformer结构。Insurance-Bert模型采用的预训练语料数据主要包含知识库数据、问答数据和保险领域新闻数据三大类保险领域的语料数据。
S106,根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据。
在具体实施时,上述S106可以通过如下步骤来实现:将同一句子的两个句子向量作为一个正样本对,生成正样本对数据;将不同句子的两个句子向量作为一个负样本对,生成负样本对数据。本公开实施例中,利用Dropout机制,对每一个句子进行两次前向传播,得到两个不同的句子向量,将同一个句子得到的向量对作为正样本对,对于每一个向量,选取其他句子产生的向量作为负样本对。
在本公开的一个实施例中,上述特征向量模型可以是对BERT模型进行训练得到的模型,基于该特征向量模型,执行一次Dropout处理,可得到所有句子样本的句子向量h0,然后将该批句子再重新执行一次Dropout处理,能够得到另一批句子向量h1
对于句子向量h0和h1,将(h0,h1)视为一对(略有不同的)正样本。同理对于每一个向量,选取其他句子产生的句子向量作为负样本。
具体表示为:给定一组成对的句子
Figure BDA0003388403130000061
其中xi
Figure BDA0003388403130000062
是语义相关的,将被作为一个正样本对。通过使用相同的句子来构建正样本对,即
Figure BDA0003388403130000063
通过应用不同的dropoutmask(即采用不同的mask对隐节点进行屏蔽)方式zi
Figure BDA0003388403130000064
将相同的输入xi两次输入给Transformer模型,可输出两个单独的句子向量hi
Figure BDA0003388403130000065
(
Figure BDA0003388403130000066
为正样本)以构建正样本对,如下所示:
Figure BDA0003388403130000067
对于batchsize(即每批数据量的大小)大小为N的mini-batch(小批量)中每个句子的hi
Figure BDA0003388403130000068
训练损失参数为:
Figure BDA0003388403130000071
其中,τ是温度超参数,
Figure BDA0003388403130000072
是相似度函数,通常指余弦相似度函数,如下所示:
Figure BDA0003388403130000073
S108,利用构建的正样本对数据和负样本对数据,训练得到数据增强模型。
需要说明的是,通过dropout构建的正样本包含相同长度的信息,而负样本衍生出来的否定对通常会包含不同的长度信息,因此会使模型倾向于认为相同或相似长度的句子在语义上更相似。在得到正样本对数据和负样本对数据后,可以对BERT模型等进行机器学习,训练得到一个能够对数据进行增强的数据增强模型。
在一些实施例中,通过本公开实施例中提供的数据增强模型训练方法训练得到数据增强模型后,可以利用训练好的数据增强模型,对待增强的数据进行增强。可选地,将本公开实施例训练得到的数据增强模型存储为模型文件,可用于对各种模型训练使用的样本数据(例如,训练语义匹配模型的样本数据)进行数据增强。
需要说明的是,本公开实施例中的待增强的数据可以是但不限于用于训练语义匹配模型(例如,保险智能客服机器人采用的语义匹配模型)的样本数据。
在一些实施例中,本公开实施例中提供的数据增强模型训练方法还包括如下步骤:采用单词重复的方式,对正样本对数据进行扩充。如图2所示,在具体实施时,可通过如下步骤来实现对正样本对数据进行扩充:
S202,对于样本数据中的每个句子,随机重复一些单词或子单词,得到不同长度的多个句子;
S204,针对不同长度的多个句子,将同一句子的两个句子向量作为一个正样本对,生成正样本对数据。
现有改变句子长度方法一般采用随机插入和随机删除。然而在句子中插入随机选择的单词可能会引入额外的噪音,这可能会扭曲句子的意思;从一个句子中删除关键字也会实质上改变它的语义。对于每一对正样本对的句子,若想要改变句子的长度而不改变其语义,可以在句子中随机重复一些单词或子单词,得到语义不变但长度不同的多个句子。
给定句子s,经过分词器处理后,得到子词序列:x={x1,x2,...,xN};其中,N为序列的长度。将重复标记的数量定义为:
dup_len∈[0,max(2,int(dup_rate*N))] (4)
其中dup_rate为最大重复率,是一个超参数。dup_len是集合中的一个随机抽样数,在扩展序列长度的时候会引入更多的分集。在确定dup_len后,利用均匀分布从序列中随机选取需要重复的dup_len子词,组成dup集合如下:
dup_set=uniform(range=[1,N],num=dup_len) (5)
如果第1个子词在dup集合中,则序列x变成x+={x1,x2,...,xN}。因此x和x+是独立的。
在一些实施例中,本公开实施例中提供的数据增强模型训练方法还包括如下步骤:采用动量对比学习的方式,对负样本对数据进行扩充。如图3所示,在具体实施时,可通过如下步骤来实现对负样本对数据进行扩充:
S302,创建一个队列;
S304,将当前mini-batch的句子向量放入队列,将最先放入队列的句子向量删除,对负样本对数据进行扩充。
需要说明的是,动量对比通过维护固定大小的队列来重用来自紧邻的前面mini-batch的句子向量。具体来说,队列中的句子向量会被逐步替换。若当前mini-batch中输出的句子向量入队时,如果队列已满,则删除队列中最先放入的句子向量。
由于排队句子向量来自前面的mini-batch,通过取其参数的移动平均来保持动量更新模型,并利用动量模型生成排队句子嵌入。注意,当使用动量编码器时,关闭dropout机制,这可以缩小训练和预测之间的差距。将编码器参数θe和动量更新编码器参数θm进行更新,θm按下列方法计算:
θm←λθm+(1-λ)θe (6)
其中,λ∈[0,1)为动量系数参数。注意,只有参数θe通过反向传播更新参数。本公开实施例中,引入θm来为队列生成句子向量(动量更新可以使得θm比θe进化得更平稳),尽管队列中的句子向量是由不同的编码器编码的,但这些编码器之间的差异可以很小。经过上述调整后,训练损失函数为:
Figure BDA0003388403130000091
其中,m为队列的大小。
由于更大的batch size会导致模型性能下降,因而,本公开实施例中,采用单词重复的策略调整正样本对,使得获取的正样本对保持原样本的含义;采用动量对比学习的方式,重用来自mini-batch的编码Embedding来构建负样本对,从而使模型进行更加精细的学习。
在一些实施例中,如图4所示,本公开实施例中提供的数据增强模型训练方法还可通过如下步骤来实现数据增强模型的训练:
S402,对正样本对数据和负样本对数据进行预处理,得到满足BERT模型输入格式的样本数据;
S404,利用满足BERT模型输入格式的样本数据,对BERT模型进行训练,得到数据增强模型。
需要说明的是,上述S402中的预处理可以是语料ID化,将训练语料处理为BERT模型要求的数据输入格式,包含token_ids和segment_ids两种。其中token_ids指输入句子的表示,segment_ids表示辅助区别句子对中的两个句子的向量表示。
进一步地,在一些实施例中,本公开实施例中提供的数据增强模型训练方法还可包括如下步骤:构建一个语料迭代器,其中,语料迭代器用于对正样本对数据和负样本对数据按照不同批次进行预处理。
在上述实施例中,根据调整后的正负样本数据训练模型,首先将训练语料id化,然后构建训练语料迭代器,最后构建encoder模型开始训练模型,并保存训练后的模型文件;最终通过加载训练好的模型,对现有场景的语义匹配任务数据进行样本增强,获取质量和数量更佳的训练数据样本。
图5示出本公开实施例中一种对问题数据进行增强的结果示意图,如图5所示,对本公开实施例中提供的数据增强模型,可以将问题句子“保费是多少”增强为相似度高于一定阈值的多个问题句子,从而实现语义匹配样本数据的增强。
由上可知,本公开实施例中提供的数据增强模型训练方法,在基于Dropout的方法增强样本的基础上,采用单词重复的策略构建正样本对,使得获取的正样本对保持原样本的含义;采用动量对比学习的方式,重用来自前一个mini-batch的编码Embedding来构建负样本对,从而使模型进行更加精细的学习。在构建文本语义匹配模型时通过增强文本匹配训练集样本提高语义匹配模型精度,进而提高智能客服机器人回答准确率,提升客户使用感受。
基于同一发明构思,本公开实施例中还提供了一种数据增强模型训练装置,如下面的实施例。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图6示出本公开实施例中一种数据增强模型训练装置示意图,如图6所示,该装置包括:样本数据获取模块、句子向量生成模块、正负样本构建模块和数据增强模型训练模块。
其中,样本数据获取模块61,用于获取样本数据,其中,样本数据包括:多个句子;句子向量生成模块62,用于在基于预先构建的特征向量模型生成每个句子的句子向量时,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量;正负样本构建模块63,用于根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据;数据增强模型训练模块64,用于利用构建的正样本对数据和负样本对数据,训练得到数据增强模型。
需要说明的是,上述数据增强模型训练模块64训练得到的数据增强模型能够用于对待增强的数据进行增强,因而,在一些实施例中,本公开实施例中提供的数据增强模型训练装置还包括:数据增强模块65,用于利用训练好的数据增强模型,对待增强的数据进行增强。
可选地,上述数据增强模块65中的待增强的数据可以但不限于是训练语义匹配模型时使用的样本数据。
在一些实施例中,正负样本构建模块63还用于:将同一句子的两个句子向量作为一个正样本对,生成正样本对数据;将不同句子的两个句子向量作为一个负样本对,生成负样本对数据。
在一些实施例中,如图6所示,本公开实施例中提供的数据增强模型训练装置还可包括:正样本数据调整模块66,用于采用单词重复的方式,对正样本对数据进行扩充。
在一些实施例中,如图6所示,本公开实施例中提供的数据增强模型训练装置还可包括:负样本数据调整模块67,用于采用动量对比学习的方式,对负样本对数据进行扩充。
在一些实施例中,数据增强模型训练模块64还用于:对正样本对数据和负样本对数据进行预处理,得到满足BERT模型输入格式的样本数据;利用满足BERT模型输入格式的样本数据,对BERT模型进行训练,得到数据增强模型。
在一些实施例中,数据增强模型训练模块64还用于:构建一个语料迭代器,其中,语料迭代器用于对正样本对数据和负样本对数据按照不同批次进行预处理。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图7来描述根据本公开的这种实施方式的电子设备700。图7显示的电子设备700仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:上述至少一个处理单元710、上述至少一个存储单元720、连接不同系统组件(包括存储单元720和处理单元710)的总线730。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元710执行,使得所述处理单元710执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元710可以执行上述方法实施例的如下步骤:获取样本数据,其中,样本数据包括:多个句子;在基于预先构建的特征向量模型生成每个句子的句子向量时,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量;根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据;利用构建的正样本对数据和负样本对数据,训练得到数据增强模型。
存储单元720可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)7201和/或高速缓存存储单元7202,还可以进一步包括只读存储单元(ROM)7203。
存储单元720还可以包括具有一组(至少一个)程序模块7205的程序/实用工具7204,这样的程序模块7205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线730可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备700也可以与一个或多个外部设备740(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口750进行。并且,电子设备700还可以通过网络适配器760与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器760通过总线730与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。

Claims (10)

1.一种数据增强模型训练方法,其特征在于,包括:
获取样本数据,其中,所述样本数据包括:多个句子;
在基于预先构建的特征向量模型生成每个句子的句子向量时,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量;
根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据;
利用构建的正样本对数据和负样本对数据,训练得到数据增强模型。
2.根据权利要求1所述的数据增强模型训练方法,其特征在于,所述数据增强模型用于对待增强的数据进行增强。
3.根据权利要求1所述的数据增强模型训练方法,其特征在于,所述根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据包括:
将同一句子的两个句子向量作为一个正样本对,生成正样本对数据;
将不同句子的两个句子向量作为一个负样本对,生成负样本对数据。
4.根据权利要求1所述的数据增强模型训练方法,其特征在于,所述方法还包括:
采用单词重复的方式,对正样本对数据进行扩充。
5.根据权利要求1所述的数据增强模型训练方法,其特征在于,所述方法还包括:
采用动量对比学习的方式,对负样本对数据进行扩充。
6.根据权利要求1所述的数据增强模型训练方法,其特征在于,所述利用构建的正样本对数据和负样本对数据,训练得到数据增强模型包括:
对所述正样本对数据和所述负样本对数据进行预处理,得到满足BERT模型输入格式的样本数据;
利用所述满足BERT模型输入格式的样本数据,对BERT模型进行训练,得到所述数据增强模型。
7.根据权利要求5所述的数据增强模型训练方法,其特征在于,在对所述正样本对数据和所述负样本对数据进行预处理,得到满足BERT模型输入格式的样本数据之前,所述方法还包括:
构建一个语料迭代器,其中,所述语料迭代器用于按照不同批次对所述正样本对数据和所述负样本对数据进行预处理。
8.一种数据增强模型训练装置,其特征在于,包括:
样本数据获取模块,用于获取样本数据,其中,所述样本数据包括:多个句子;
句子向量生成模块,用于在基于预先构建的特征向量模型生成每个句子的句子向量时,对每个句子执行两次Dropout处理,得到每个句子对应的两个句子向量;
正负样本构建模块,用于根据每个句子对应的两个句子向量,构建正样本对数据和负样本对数据;
数据增强模型训练模块,用于利用构建的正样本对数据和负样本对数据,训练得到数据增强模型。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~7中任意一项所述的数据增强模型训练方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~7中任意一项所述的数据增强模型训练方法。
CN202111457751.2A 2021-12-02 2021-12-02 数据增强模型训练方法、装置、电子设备及存储介质 Pending CN114154518A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111457751.2A CN114154518A (zh) 2021-12-02 2021-12-02 数据增强模型训练方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111457751.2A CN114154518A (zh) 2021-12-02 2021-12-02 数据增强模型训练方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN114154518A true CN114154518A (zh) 2022-03-08

Family

ID=80455735

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111457751.2A Pending CN114154518A (zh) 2021-12-02 2021-12-02 数据增强模型训练方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114154518A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115062607A (zh) * 2022-08-17 2022-09-16 杭州火石数智科技有限公司 对比学习的样本构造方法、装置、计算机设备及存储介质
CN115062611A (zh) * 2022-05-23 2022-09-16 广东外语外贸大学 一种语法纠错模型的训练方法、装置、设备及存储介质
CN116069903A (zh) * 2023-03-02 2023-05-05 特斯联科技集团有限公司 一种类案检索方法、系统、电子设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115062611A (zh) * 2022-05-23 2022-09-16 广东外语外贸大学 一种语法纠错模型的训练方法、装置、设备及存储介质
CN115062607A (zh) * 2022-08-17 2022-09-16 杭州火石数智科技有限公司 对比学习的样本构造方法、装置、计算机设备及存储介质
CN116069903A (zh) * 2023-03-02 2023-05-05 特斯联科技集团有限公司 一种类案检索方法、系统、电子设备及存储介质

Similar Documents

Publication Publication Date Title
US11017762B2 (en) Method and apparatus for generating text-to-speech model
JP2022153441A (ja) モデル事前訓練方法および装置、テキスト生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
KR102201936B1 (ko) 신경망을 사용한 텍스트 세그먼트의 의존성 파스 생성
CN114154518A (zh) 数据增强模型训练方法、装置、电子设备及存储介质
CN108877782B (zh) 语音识别方法和装置
US11355097B2 (en) Sample-efficient adaptive text-to-speech
CN112214591B (zh) 一种对话预测的方法及装置
CN109933217B (zh) 用于推送语句的方法和装置
CN115309877B (zh) 对话生成方法、对话模型训练方法及装置
CN112417902A (zh) 文本翻译方法、装置、设备及存储介质
CN111930914A (zh) 问题生成方法和装置、电子设备以及计算机可读存储介质
CN112528654A (zh) 自然语言处理方法、装置及电子设备
CN111785247A (zh) 语音生成方法、装置、设备和计算机可读介质
CN112364653A (zh) 用于语音合成的文本分析方法、装置、服务器和介质
CN117370373A (zh) 数据处理方法、装置、电子设备及存储介质
CN113591472A (zh) 歌词生成方法、歌词生成模型训练方法、装置及电子设备
CN110675865B (zh) 用于训练混合语言识别模型的方法和装置
CN117034951A (zh) 基于大语言模型的具有特定语言风格的数字人
CN115346520A (zh) 语音识别的方法、装置、电子设备和介质
CN114613351A (zh) 韵律预测方法、装置、可读介质及电子设备
CN113392645B (zh) 一种韵律短语边界预测方法、装置、电子设备和存储介质
US20240185830A1 (en) Method, device, and computer program product for text to speech
CN113421551B (zh) 语音识别方法、装置、计算机可读介质及电子设备
CN110808035B (zh) 用于训练混合语言识别模型的方法和装置
CN115169367B (zh) 对话生成方法及装置、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination