CN117648576B - 数据增强模型训练及数据处理方法、装置、设备、介质 - Google Patents
数据增强模型训练及数据处理方法、装置、设备、介质 Download PDFInfo
- Publication number
- CN117648576B CN117648576B CN202410098587.8A CN202410098587A CN117648576B CN 117648576 B CN117648576 B CN 117648576B CN 202410098587 A CN202410098587 A CN 202410098587A CN 117648576 B CN117648576 B CN 117648576B
- Authority
- CN
- China
- Prior art keywords
- domain
- target
- probability
- model
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 174
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 238000013507 mapping Methods 0.000 claims abstract description 121
- 238000000034 method Methods 0.000 claims abstract description 105
- 230000010354 integration Effects 0.000 claims abstract description 87
- 230000006870 function Effects 0.000 claims description 118
- 238000012545 processing Methods 0.000 claims description 96
- 230000008569 process Effects 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 14
- 230000014759 maintenance of location Effects 0.000 claims description 9
- 230000003213 activating effect Effects 0.000 claims description 5
- 210000002569 neuron Anatomy 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000012163 sequencing technique Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 238000013508 migration Methods 0.000 description 6
- 230000005012 migration Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013526 transfer learning Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本申请提供了一种数据增强模型训练及数据处理方法、装置、设备、介质;方法包括:通过预设的源域模型,确定源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,确定第一目标域预估概率和第一目标域增强概率;基于源域预估概率和第一目标域预估概率,确定源域样本数据的源域校准标签;通过待训练的目标域模型的目标映射层和增强映射层,确定第二目标预估概率和第二目标域增强概率;通过待训练的目标域模型的集成模块,确定集成预估概率;基于源域校准标签、目标域样本数据的目标域标签、第一目标域增强概率和集成预估概率,对待训练的目标域模型进行模型训练,得到数据增强模型。通过本申请,能够提升数据增强模型的模型性能。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种数据增强模型训练及数据处理方法、装置、设备、介质。
背景技术
数据增强(Data Augmentation)是一种通过先验知识产生跟目标任务相似的更多数据来扩展训练数据集的方法。当数据增强应用于推荐系统时,数据增强可以在不显著提高系统查询、存储成本的情况下,提供对用户、物料和两者之间的交互等方面更为完整的样本分布的刻画。而常见的数据增强方法包括负采样、数据扰动、数据插值、迁移学习,通常有助于提升网络模型的泛化能力和准确性。由于训练数据集中数据的数量和质量直接影响到网络模型的效果上限,因此,研究更有效的数据增强模型训练方法对于提高网络模型的性能和准确性至关重要。
发明内容
本申请实施例提供一种数据增强模型训练及数据处理方法、装置、设备、介质,能够提升数据增强模型的模型性能。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种数据增强模型训练方法,所述方法包括:获取源域样本数据和目标域样本数据;通过预设的源域模型,对所述源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对所述源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率;基于所述源域预估概率和所述第一目标域预估概率,对所述源域样本数据的源域标签进行标签校准,得到所述源域样本数据的源域校准标签;通过所述待训练的目标域模型的所述目标映射层和所述增强映射层,分别对所述目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率;通过所述待训练的目标域模型的集成模块,对所述第二目标预估概率和所述第二目标域增强概率进行概率集成处理,得到集成预估概率;基于所述源域校准标签、所述目标域样本数据的目标域标签、所述第一目标域增强概率和所述集成预估概率,对所述待训练的目标域模型进行模型训练,得到数据增强模型。
本申请实施例提供一种数据处理方法,其特征在于,所述方法包括:获取目标业务下的待处理数据;所述目标业务包括内容订阅业务或者内容推荐业务;将所述待处理数据输入到数据增强模型中,通过所述数据增强模型在所述目标业务下对所述待处理数据进行数据处理,得到所述目标业务下的数据处理结果;其中,所述数据增强模型采用本申请实施例所提供的数据增强模型训练方法训练得到。
本申请实施例提供一种数据增强模型训练装置,包括:获取模块,用于获取源域样本数据和目标域样本数据;第一前向传播模块,用于通过预设的源域模型,对所述源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对所述源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率;标签校准模块,用于基于所述源域预估概率和所述第一目标域预估概率,对所述源域样本数据的源域标签进行标签校准,得到所述源域样本数据的源域校准标签;第二前向传播模块,用于通过所述待训练的目标域模型的所述目标映射层和所述增强映射层,分别对所述目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率;概率集成模块,用于通过所述待训练的目标域模型的集成模块,对所述第二目标预估概率和所述第二目标域增强概率进行概率集成处理,得到集成预估概率;模型训练模块,用于基于所述源域校准标签、所述目标域样本数据的目标域标签、所述第一目标域增强概率和所述集成预估概率,对所述待训练的目标域模型进行模型训练,得到数据增强模型。
在一些实施例中,所述标签校准模块还用于:将所述源域预估概率与所述第一目标域预估概率之间的差值,确定为所述源域样本数据的域概率偏差;基于所述域概率偏差,构建校准函数;通过所述校准函数,对所述源域样本数据的源域标签进行标签校准,得到所述源域样本数据的源域校准标签。
在一些实施例中,所述标签校准模块还用于:根据所述源域样本数据的源域标签的不同取值,对应构建不同的校准函数;其中,当所述源域标签的取值为0时,所述校准函数为所述域概率偏差和0之间的最大值;当所述源域标签的取值为1时,基于所述域概率偏差和0之间的最小值构建所述校准函数。
在一些实施例中,所述标签校准模块还用于:在所述源域标签取值为0,且所述域概率偏差大于或等于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为所述域概率偏差;在所述源域标签取值为0,且所述域概率偏差小于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为0;在所述源域标签取值为1,且所述域概率偏差大于或等于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为1;在所述源域标签取值为1,且所述域概率偏差小于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为所述域概率偏差与1之和。
在一些实施例中,所述第一前向传播模块还用于:通过所述待训练的目标域模型的特征交叉层,对所述源域样本数据进行特征交叉处理,得到源域中间特征;通过所述待训练的目标域模型的目标映射层和增强映射层,分别对所述源域中间特征进行特征映射处理,对应得到所述第一目标域预估概率和所述第一目标域增强概率。
在一些实施例中,所述第二前向传播模块还用于:通过所述待训练的目标域模型的特征交叉层,对所述目标域样本数据进行特征交叉处理,得到目标域中间特征;通过所述待训练的目标域模型的目标映射层和增强映射层,分别对所述目标域中间特征进行特征映射处理,对应得到所述第二目标预估概率和所述第二目标域增强概率。
在一些实施例中,所述概率集成模块还用于:通过所述集成模块的输入层,对所述第二目标域增强概率进行随机丢弃处理,得到处理后的第二目标域增强概率;通过所述集成模块的集成层,对所述第二目标预估概率和所述处理后的第二目标域增强概率进行概率集成处理,得到所述集成预估概率。
在一些实施例中,所述概率集成模块还用于:通过所述集成模块的输入层获取随机丢弃概率;基于所述随机丢弃概率确定所述第二目标域增强概率的随机保留概率;以所述随机保留概率保留所述第二目标域增强概率,或者,以所述随机丢弃概率将所述第二目标域增强概率更新为0,得到所述处理后的第二目标域增强概率。
在一些实施例中,在通过所述集成模块的输入层,对所述第二目标域增强概率进行随机丢弃处理,得到处理后的第二目标域增强概率之后,所述装置还包括激活模块,所述激活模块用于:通过所述集成模块的输入层,获取所述第二目标预估概率的第一权重,以及所述处理后的第二目标域增强概率的第二权重;通过所述输入层中的非线性激活函数,基于所述第一权重和所述第二权重,对所述第二目标预估概率和所述处理后的第二目标域增强概率进行激活处理,得到所述集成层的输入概率。
在一些实施例中,所述概率集成模块还用于:通过所述集成模块的集成层,对所述输入概率进行概率集成处理,得到所述集成预估概率。
在一些实施例中,所述模型训练模块还用于:基于所述源域校准标签和所述第一目标域增强概率,构建校准损失函数;基于所述目标域标签和所述集成预估概率,构建目标损失函数;基于所述校准损失函数和所述目标损失函数,对所述待训练的目标域模型进行模型训练,得到所述数据增强模型。
在一些实施例中,所述模型训练模块还用于:对所述校准损失函数和所述目标损失函数分别进行损失计算,对应得到校准损失值和目标损失值;根据所述校准损失值和所述目标损失值,确定所述待训练的目标域模型的总损失值;基于所述总损失值,按照预设的迭代条件对所述待训练的目标域模型中的模型参数进行迭代更新,得到所述数据增强模型。
在一些实施例中,所述源域样本数据包括应用于内容订阅业务的订阅内容数据,所述目标域样本数据包括应用于内容推荐业务的推荐内容数据;所述装置还包括数据处理模块,所述数据处理模块用于:获取所述内容推荐业务下的待处理数据;将所述待处理数据输入到所述数据增强模型中,通过所述数据增强模型在所述内容推荐业务下对所述待处理数据进行数据处理,得到所述内容推荐业务下的数据处理结果。
本申请实施例提供一种数据处理装置,包括:数据获取模块,用于获取目标业务下的待处理数据;所述目标业务包括内容订阅业务或者内容推荐业务;数据处理结果确定模块,用于将所述待处理数据输入到数据增强模型中,通过所述数据增强模型在所述目标业务下对所述待处理数据进行数据处理,得到所述目标业务下的数据处理结果;其中,所述数据增强模型采用本申请实施例所提供的数据增强模型训练方法训练得到。
本申请实施例提供一种电子设备,包括:存储器,用于存储计算机可执行指令;处理器,用于执行所述存储器中存储的计算机可执行指令时,实现本申请实施例提供的数据增强模型训练方法,或者,实现本申请实施例提供的数据处理方法。
本申请实施例提供一种计算机可读存储介质,存储有计算机可执行指令,用于被处理器执行时实现本申请实施例提供的数据增强模型训练方法,或者,实现本申请实施例提供的数据处理方法。
本申请实施例提供一种计算机程序产品,该计算机程序产品包括计算机可执行指令,计算机可执行指令存储在计算机可读存储介质中;其中,电子设备的处理器从计算机可读存储介质中读取计算机可执行指令,并执行计算机可执行指令时,实现本申请实施例提供的数据增强模型训练方法,或者,实现本申请实施例提供的数据处理方法。
本申请实施例具有以下有益效果:
首先,通过预设的源域模型,对源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率;接着,基于源域预估概率和第一目标域预估概率,将源域样本数据的源域标签校准为源域校准标签;通过待训练的目标域模型的目标映射层和增强映射层,分别对目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率;通过待训练的目标域模型的集成模块,对第二目标预估概率和第二目标域增强概率进行概率集成处理,得到集成预估概率;最后,基于源域校准标签、目标域样本数据的目标域标签、第一目标域增强概率和集成预估概率,对待训练的目标域模型进行模型训练,得到数据增强模型。如此,一方面,源域样本数据的源域校准标签是根据源域样本数据分别在源域和目标域的预估概率进行标签校准的,标签校准后的源域校准标签是适配于目标域的标签,有利于对目标域模型的训练,避免了在待训练的目标域模型的训练过程中引入源域样本数据所带来的负向影响。另一方面,将对待训练的目标域模型有正向影响的源域样本数据引入目标域模型的训练过程中,在目标域样本数据的基础上扩充了模型输入数据,能够提高目标域模型对模型输入数据的拟合能力,提升目标域模型的模型性能。此外,结合不同数据空间下的预估结果(即第二目标预估概率和第二目标域增强概率)来确定最终的模型训练结果,能够提高训练后的数据增强模型的鲁棒性。
附图说明
图1是本申请实施例提供的数据增强模型训练系统架构的结构示意图;
图2是本申请实施例提供的数据增强模型训练装置的结构示意图;
图3是本申请实施例提供的数据增强模型训练方法的一个可选的流程示意图;
图4是本申请实施例提供的数据增强模型训练方法的另一个可选的流程示意图;
图5是本申请实施例提供的生成订阅内容与推荐内容的过程示意图;
图6是本申请实施例提供的订阅场景与推荐场景之间实现跨场景数据迁移的过程示意图;
图7是本申请实施例提供的订阅号和订阅号消息的关系示意图;
图8是本申请实施例提供的引入跨域数据样本训练排序模型的流程框架示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步地详细描述,所描述的实施例不应视为对本申请的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解;“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
本申请实施例中,术语“模块”或“单元”是指有预定功能的计算机程序或计算机程序的一部分,并与其他相关部分一起工作以实现预定目标,并且可以通过使用软件、硬件(如处理电路或存储器)或其组合来全部或部分实现。同样的,一个处理器(或多个处理器或存储器)可以用来实现一个或多个模块或单元。此外,每个模块或单元都可以是包含该模块或单元功能的整体模块或单元的一部分。
如果申请文件中出现“第一/第二”的类似描述则增加以下的说明,在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本申请实施例能够以除了在这里图示或描述的以外的顺序实施。
除非另有定义,本申请实施例所使用的所有的技术和科学术语与所属技术领域的技术人员通常理解的含义相同。本申请实施例中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
对本申请实施例进行进一步详细说明之前,对本申请实施例中涉及的名词和术语进行说明,本申请实施例中涉及的名词和术语适用于如下的解释。
1)标签(label):训练深度神经网络时依赖的标注数据,如“0/1”表示的“属于/不属于”某一类,或者,是否产生点击。
2)嵌入(Embedding):由多个浮点数组成的数值型向量,描述了内容或用户在高维空间中的各种属性、性质。嵌入层是深度学习中常用的使用在模型第一层的一个网络层,嵌入层的作用是将离散的输入特征(如单词、字符等)转化为密集的向量表示,使得这些特征能够被神经网络更好地处理。
3)负采样:当数据增强应用到推荐系统时,常见的数据增强方法包括:负采样。在推荐系统中,负样本通常远多于正样本,负采样是一种通过从曝光数据的负样本中随机抽取一部分样本,使得正负样本比例更加平衡的方法,这样可以提高模型的训练效率,同时避免过拟合。
4)数据扰动:通过对原始数据添加噪声,如随机删除、替换、插入等,可以创造新的数据样本,这种方法可以提高模型的泛化能力,避免模型对原始数据过拟合。
5)数据插值:在推荐系统中,用户对内容的评分数据通常是稀疏的。通过数据插值方法,如基于邻居的协同过滤、矩阵分解等,可以预测用户对未评分内容的评分,从而扩充数据集。
6)迁移学习:在推荐系统中,可以利用其他场景的数据进行预训练,然后将训练好的模型应用到目标领域,这种方法可以充分利用其他领域的知识,提高模型在数据稀疏的目标域的效果。在业内,推荐系统里的迁移学习主要聚焦于稀疏数据场景和冷启动场景的应用。例如,将一个成熟场景(源域)上用户的统计数据特征,用于一个全新的内容场景(目标域)的用户数据特征描述。还有一些方法考虑在模型结构和表示学习的角度处理迁移学习问题。
7)前向传播:是指从输入层开始,通过每一层的权重和偏差计算出神经网络的输出。在前向传播过程中,每一层的输出都会作为下一层的输入,直到最后一层输出结果。这个过程可以看作是一个函数的计算过程,即输入数据通过神经网络的计算,得到了一个输出结果。
8)反向传播:是指在前向传播之后,计算出神经网络的输出与实际标签之间的误差,并通过误差反向传播来更新神经网络的权重和偏差。具体来说,反向传播会计算出每一层的误差梯度,然后根据误差梯度和学习率来更新每一层的权重和偏差。这个过程可以看作是一个优化目标函数的过程,即通过不断地调整权重和偏差,使得神经网络的输出结果与实际标签更加接近。
9)多层感知器(Multi-Layer Perceptron,MLP):一种最基本的神经网络,由至少三层神经元组成:输入层、隐藏层和输出层。对于每一层,组合了线性变换和非线性变换。
在相关技术中提出了一种基于嵌入和映射的跨领域推荐方法,首先在源域和目标域学习用户和项目的嵌入表示,然后通过映射函数将源域的嵌入表示映射到目标域。此外,还提出了一种基于注意力机制的知识迁移方法,用于跨领域推荐,利用注意力机制从源域选择与目标域相关的知识,并将其迁移到目标域。
基于上述对相关技术的分析可以看出,数据增强有利于提升训练数据集的数量和质量,严重影响网络模型的泛化能力和准确性。因此,本申请实施例提出了一种从样本标签偏差校准的角度出发的跨域迁移学习范式。组合利用跨场景样本在两个不同域的排序模型的预估结果,来建模该样本的标签在两个域的偏差,并做出相应的校准。在模型结构上,使用了带有随机性的集成学习,融合有或者无跨场景样本训练的预估结果。如此,避免不合适的跨场景标签信息为基础模型带来负向效果,并且降低模型拟合到跨场景样本的噪声的风险,提高模型鲁棒性。
下面说明本申请实施例提供的数据增强模型训练设备(即电子设备)的示例性应用,本申请实施例提供的数据增强模型训练设备可以实施为笔记本电脑、平板电脑,台式计算机、机顶盒、移动设备(例如,移动电话,便携式音乐播放器,个人数字助理,专用消息设备,便携式游戏设备)、智能手机、智能音箱、智能手表、智能电视、车载终端等各种类型的能够进行数据增强模型训练的用户终端,也可以实施为服务器。下面,将说明数据增强模型训练设备实施为服务器时示例性应用。
参见图1,图1是本申请实施例提供的数据增强模型训练系统100架构的结构示意图,为实现支撑一个数据增强模型训练应用,终端400通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合。
终端400用于向服务器200发送数据增强模型训练请求,服务器200构成本申请实施例的数据增强模型训练设备,服务器200用于响应数据增强模型训练请求,获取源域样本数据和目标域样本数据;通过预设的源域模型,对源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率;基于源域预估概率和第一目标域预估概率,对源域样本数据的源域标签进行标签校准,得到源域样本数据的源域校准标签;通过待训练的目标域模型的目标映射层和增强映射层,分别对目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率;通过待训练的目标域模型的集成模块,对第二目标预估概率和第二目标域增强概率进行概率集成处理,得到集成预估概率;基于源域校准标签、目标域样本数据的目标域标签、第一目标域增强概率和集成预估概率,对待训练的目标域模型进行模型训练,得到数据增强模型,并将数据增强模型返回给终端400,以实现在终端400输出该数据增强模型或者在终端400基于该数据增强模型继续进行下一步业务处理,继续进行数据增强模型的训练或者得到该数据增强模型的数据增强结果。
在一些实施例中,服务器200可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content DeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端400可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表、车载终端等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例中不做限制。
参见图2,图2是本申请实施例提供的电子设备40的结构示意图,图2所示的电子设备40可以是数据增强模型训练设备,数据增强模型训练设备包括:至少一个处理器410、存储器450、至少一个网络接口420和用户接口430。数据增强模型训练设备中的各个组件通过总线系统440耦合在一起。可理解,总线系统440用于实现这些组件之间的连接通信。总线系统440除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统440。
处理器410可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(Digital Signal Processor,DSP),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
用户接口430包括使得能够呈现媒体内容的一个或多个输出装置431,包括一个或多个扬声器和/或一个或多个视觉显示屏。用户接口430还包括一个或多个输入装置432,包括有助于用户输入的用户接口部件,比如键盘、鼠标、麦克风、触屏显示屏、摄像头、其他输入按钮和控件。
存储器450可以是可移除的,不可移除的或其组合。示例性的硬件设备包括固态存储器,硬盘驱动器,光盘驱动器等。存储器450可选地包括在物理位置上远离处理器410的一个或多个存储设备。
存储器450包括易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。非易失性存储器可以是只读存储器(Read Only Memory,ROM),易失性存储器可以是随机存取存储器(Random Access Memory,RAM)。本申请实施例描述的存储器450旨在包括任意适合类型的存储器。
在一些实施例中,存储器450能够存储数据以支持各种操作,这些数据的示例包括程序、模块和数据结构或者其子集或超集,下面示例性说明。
操作系统451,包括用于处理各种基本系统服务和执行硬件相关任务的系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务;
网络通信模块452,用于经由一个或多个(有线或无线)网络接口420到达其他电子设备,示例性的网络接口420包括:蓝牙、无线相容性认证(WiFi)、和通用串行总线(Universal Serial Bus,USB)等;呈现模块453,用于经由一个或多个与用户接口430相关联的输出装置431(例如,显示屏、扬声器等)使得能够呈现信息(例如,用于操作外围设备和显示内容和信息的用户接口);输入处理模块454,用于对一个或多个来自一个或多个输入装置432之一的一个或多个用户输入或互动进行检测以及翻译所检测的输入或互动。
在一些实施例中,本申请实施例提供的装置可以采用软件方式实现,图2示出了存储在存储器450中的数据增强模型训练装置455,其可以是程序和插件等形式的软件,包括以下软件模块:获取模块4551、第一前向传播模块4552、标签校准模块4553、第二前向传播模块4554、概率集成模块4555和模型训练模块4556,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。将在下文中说明各个模块的功能。
在另一些实施例中,图2示出的存储器450中还可以包括数据处理装置,数据处理装置也可以是程序和插件等形式的软件,包括以下软件模块:数据获取模块和数据处理结果确定模块,这些模块是逻辑上的,因此根据所实现的功能可以进行任意的组合或进一步拆分。将在下文中说明各个模块的功能。
在再一些实施例中,本申请实施例提供的装置可以采用硬件方式实现,作为示例,本申请实施例提供的装置可以是采用硬件译码处理器形式的处理器,其被编程以执行本申请实施例提供的数据增强模型训练方法或者数据处理方法,例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(Application Specific IntegratedCircuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、可编程逻辑器件(Programmable Logic Device,PLD)、复杂可编程逻辑器件(Complex Programmable LogicDevice,CPLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或其他电子元件。
在一些实施例中,终端或服务器可以通过运行各种计算机可执行指令或计算机程序来实现本申请实施例提供的数据增强模型训练方法。举例来说,计算机可执行指令可以是微程序级的命令、机器指令或软件指令。计算机程序可以是操作系统中的原生程序或软件模块;可以是本地(Native)应用程序(Application,APP),即需要在操作系统中安装才能运行的程序,也可以是可以嵌入至任意APP中的小程序,即只需要下载到浏览器环境中就可以运行的程序。总而言之,上述的计算机可执行指令可以是任意形式的指令,上述计算机程序可以是任意形式的应用程序、模块或插件。
本申请各实施例提供的数据增强模型训练方法可以由电子设备来执行,其中,该电子设备可以是服务器也可以是终端,即本申请各实施例的数据增强模型训练方法可以通过服务器来执行,也可以通过终端来执行,或者也可以通过服务器与终端之间交互执行。
参见图3,图3是本申请实施例提供的数据增强模型训练方法的一个可选的流程示意图,将结合图3示出的步骤进行说明,以数据增强模型训练方法的执行主体为服务器为例进行说明,方法包括以下步骤S101至步骤S106:
步骤S101,获取源域样本数据和目标域样本数据。
本申请实施例中,源域样本数据与目标域样本数据可以是在数据增强模型训练过程中,在源域下的源域模型和在目标域下的目标域模型的模型的输入数据。源域样本数据和目标域样本数据均可以是一个固定的样本数据集合,也可以是一个实时的样本数据流。源域是已有的知识领域,目标域是要进行学习的领域,即源域与目标域分别对应两个不同的领域或者应用场景。在目标域中,模型通常可以通过迁移学习来利用源域中学到的知识和特征,以便在目标域的目标任务上获得良好的性能表现。例如,对于订阅内容与推荐内容这两个不同的应用场景,将订阅内容的相关数据应用于推荐内容排序模型的模型训练过程,以此实现对推荐内容的准确排序,则订阅内容的相关数据属于源域样本数据,而推荐内容的相关数据属于目标域样本数据;将推荐内容的相关数据应用于订阅内容排序模型的模型训练过程,以此实现对订阅内容的准确排序,则推荐内容的相关数据属于源域样本数据,而订阅内容的相关数据属于目标域样本数据。
这里,通过获取源域样本数据和目标域样本数据,便于后续将源域样本数据和目标域样本数据中的每一样本数据作为源域模型或者目标域模型的输入进行模型训练。
步骤S102,通过预设的源域模型,对源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率。
本申请实施例中,预设的源域模型包括特征交叉层与特征映射层,待训练的目标域模型包括特征交叉层、目标映射层、增强映射层和集成模块,特征映射层、目标映射层和增强映射层具有相同的网络结构,均可以为一个多层感知器MLP。对源域样本数据的前向传播过程为源域样本数据从预设的源域模型的输入层到输出层的传播过程,在源域模型的每一层节点中进行加权与激活计算,最终输出该源域模型的预估结果,即源域预估概率。此外,还将源域样本数据分别输入到待训练的目标域模型的特征交叉层和目标映射层、特征交叉层和增强映射层进行前向传播,即将源域样本数据同时输入到与预设的源域模型具有相同网络结构的待训练的目标域模型的网络层中,通过前向传播分别输出预设的源域模型的模型输出、待训练的目标域模型的目标映射层和增强映射层的输出结果,即源域预估概率、第一目标域预估概率和第一目标域增强概率。
这里,源域样本数据通过预设的源域模型的前向传播输出的源域预估概率,与通过待训练的目标域模型的目标映射层处理后输出的第一目标域预估概率的数值大小并不相同,也就是说,源域样本数据对于源域与目标域下的模型分别具有不同的影响效果,在后续步骤中,可以通过源域与目标域下的模型输出的差值,动态调整源域样本数据的源域标签的数值,避免源域样本数据为待训练的目标域模型带来负向效果,提升目标域下的数据增强模型的模型性能。
步骤S103,基于源域预估概率和第一目标域预估概率,对源域样本数据的源域标签进行标签校准,得到源域样本数据的源域校准标签。
本申请实施例中,在得到源域样本数据在源域下的源域预估概率和源域样本数据在目标域下的第一目标域预估概率之后,将源域预估概率和第一目标域预估概率进行数值比较,当第一目标域预估概率大于或者等于源域预估概率时,表明源域样本数据在目标域下比在源域下具有更好的输出结果,该源域样本数据对待训练的目标域模型的模型训练影响是正向的,该源域样本数据可以作为扩充样本数据,与目标域样本数据共同作为待训练的目标域模型的模型输入,以实现数据增强;当第一目标域预估概率小于源域预估概率时,表明源域样本数据在目标域下比在源域下具有更差的输出结果,该源域样本数据对待训练的目标域模型的模型训练影响是负向的,该源域样本数据不可以作为扩充样本数据,与目标域样本数据共同作为待训练的目标域模型的模型输入,无法实现数据增强。
这里,通过对源域样本数据的源域标签进行标签校准,改变源域样本数据的源域标签,以避免源域样本数据对待训练的目标域模型带来负向影响,从而提高目标域下数据增强模型训练效果。
步骤S104,通过待训练的目标域模型的目标映射层和增强映射层,分别对目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率。
本申请实施例中,待训练的目标域模型的目标映射层和增强映射层对目标域样本数据的前向传播过程与对源域样本数据的前向传播过程相同。在待训练的目标域模型的目标映射层中,同时输入源域样本数据和目标域样本数据,分别输出的第一目标预估概率和第二目标预估概率,但是待训练的目标域模型的目标映射层只对源域样本数据进行前向传播,而在待训练的目标域模型的目标映射层对目标域样本数据进行前向传播之后,还会基于第二目标预估概率与目标域标签进行反向传播,因此,在待训练的目标域模型的目标映射层中,目标域样本数据对应的第二目标预估概率构成目标域目标样本空间。在待训练的目标域模型的增强映射层中,同时输入源域样本数据和目标域样本数据,分别输出的第一增强预估概率和第二增强预估概率,在待训练的目标域模型的增强映射层对源域样本数据和目标域样本数据进行前向传播之后,还会基于第一增强预估概率和源域校准标签、第二增强预估概率与目标域标签进行反向传播,因此,在待训练的目标域模型的增强映射层中,源域样本数据对应的第一增强预估概率和目标域样本数据对应的第二增强预估概率构成目标域增强样本空间。
这里,在构成目标域目标样本空间和目标域增强样本空间之后,便于后续通过待训练的目标域模型的集成模块,融合待训练的目标域模型在目标域目标样本空间和目标域增强样本空间下的预估概率,从而提高目标域下的数据增强模型的模型鲁棒性。
步骤S105,通过待训练的目标域模型的集成模块,对第二目标预估概率和第二目标域增强概率进行概率集成处理,得到集成预估概率。
本申请实施例中,待训练的目标域模型的集成模块具有概率集成处理功能,用于将目标映射层和增强映射层输出的第二目标预估概率和第二目标域增强概率进行组合来提高待训练的目标域模型的模型性能。该集成模块可以为一个多层感知器MLP,该集成模块包括输入层和集成层。在一些实施例中,集成模块还可添加丢弃Dropout功能,通过该Dropout功能,能够丢弃多层感知器MLP中的一部分神经元,以防止模型过拟合。
步骤S106,基于源域校准标签、目标域样本数据的目标域标签、第一目标域增强概率和集成预估概率,对待训练的目标域模型进行模型训练,得到数据增强模型。
本申请实施例中,基于源域校准标签和第一目标域增强概率、目标域样本数据的目标域标签和集成预估概率,分别构建校准损失函数和目标损失函数,在对待训练的目标域模型进行模型训练过程中,基于对准损失函数和目标损失函数分别进行损失计算后的校准损失值和目标域损失值对待训练的目标域模型的模型参数进行参数更新。当有校准损失值和目标损失值构成的待训练的目标域模型的总损失值达到预设的迭代条件时,停止对待训练的目标域模型的模型训练,得到数据增强模型,即目标域下的数据增强模型。
本申请实施例提供的数据增强模型训练方法,首先,通过预设的源域模型,对源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率;接着,基于源域预估概率和第一目标域预估概率,将源域样本数据的源域标签校准为源域校准标签;通过待训练的目标域模型的目标映射层和增强映射层,分别对目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率;通过待训练的目标域模型的集成模块,对第二目标预估概率和第二目标域增强概率进行概率集成处理,得到集成预估概率;最后,基于源域校准标签、目标域样本数据的目标域标签、第一目标域增强概率和集成预估概率,对待训练的目标域模型进行模型训练,得到数据增强模型。如此,源域样本数据的源域校准标签是根据源域样本数据分别在源域和目标域的预估概率进行标签校准的,标签校准后的源域校准标签是适配于目标域的标签,有利于对目标域模型的训练,避免了在待训练的目标域模型的训练过程中引入源域样本数据所带来的负向影响。并且,将对待训练的目标域模型有正向影响的源域样本数据引入目标域模型的训练过程中,在目标域样本数据的基础上扩充了模型输入数据,能够提高目标域模型对模型输入数据的拟合能力,提升目标域模型的模型性能。此外,结合不同数据空间下的预估结果(即第二目标预估概率和第二目标域增强概率)来确定最终的模型训练结果,能够提高训练后的数据增强模型的鲁棒性。
下面将结合数据增强模型训练系统中的终端和服务器之间的交互,对本申请实施例中的数据增强模型训练方法进行说明。需要说明的是,这里的数据增强模型训练方法是通过终端与服务器进行交互实现的数据增强模型训练方法,与上述实施例中由服务器执行的数据增强模型训练方法实质上相同,所不同的仅在于本申请实施例中还描述了终端在数据增强模型训练方法的执行过程中所执行的动作,并且,有些步骤既可以由终端来执行也可以由服务器来执行,因此,对于本实施例中与上述实施例中内容相同但执行主体不同的步骤,本实施例只是示例性说明,在实现的过程中,可以由任意一个执行主体来执行,本申请实施例对此不做限定。
图4是本申请实施例提供的数据增强模型训练方法的另一个可选的流程示意图,如图4所示,方法包括以下步骤S201至步骤S218:
步骤S201,终端接收用户输入的数据增强模型训练操作。
本申请实施例中,终端上可以运行有数据增强模型训练应用,用户可以在数据增强模型训练应用的客户端输入数据增强模型训练操作,在数据增强模型训练应用中,可以提供数据增强模型训练功能,用户可以在该数据增强模型训练功能页面输入数据增强模型训练操作,以触发数据增强模型训练的请求。
在一些实施例中,用户在输入数据增强模型训练操作时,还可以同时输入源域样本数据和目标域样本数据,在终端接收到源域样本数据和目标域样本数据时,会在数据增强模型训练功能页面弹出确认数据增强模型训练窗口,在终端检测到用户点击确认数据增强模型训练按钮后,再对源域样本数据和目标域样本数据进行进一步处理来实现数据增强模型的模型训练。或者,在另一些实施例中,用户可以直接在数据增强模型训练功能页面输入源域样本数据和目标域样本数据,终端接收到源域样本数据和目标域样本数据就可直接触发数据增强模型训练功能,对源域样本数据和目标域样本数据进行进一步处理来实现数据增强模型的模型训练。
步骤S202,终端响应于数据增强模型训练操作生成数据增强模型训练请求。
本申请实施例中,可以将用户输入的数据封装至数据增强模型训练请求中。例如,在数据增强模型训练应用的显示界面,显示目标域样本数据库中的所有目标域样本数据,用户可以根据实际需求进行数据选取或者数据采样,得到目标域训练样本集,然后可以将用户输入的源域样本数据集和目标域训练样本集封装至数据增强模型训练请求中,或者,将用户输入的预设的基础模型封装至数据增强模型训练请求中。
步骤S203,终端将数据增强模型训练请求发送给服务器。
步骤S204,服务器响应于数据增强模型训练请求,获取源域样本数据和目标域样本数据。
本申请实施例中,如果数据增强模型训练请求中封装有源域样本数据和目标域样本数据,则可以直接解析得到源域样本数据和目标域样本数据,即获取源域样本数据和目标域样本数据。
步骤S205,服务器通过预设的源域模型,对源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率。
本申请实施例中,预设的源域模型为源域中预设的神经网络模型,该神经网络模型可包含特征交叉层和特征映射层。特征交叉层用于将通过将两个或多个源域样本数据对应的特征相乘,来实现对源域样本空间的非线性变换,增加源域模型的非线性拟合能力。特征映射层可以是一个多层感知器MLP,包括输入层、隐藏层和输出层,用于结合线性变换和非线性变换实现特征映射。前向传播是源域样本数据从源域模型的输入层到输出层的传播过程。在前向传播过程中,在源域模型的每一层节点中进行加权与激活计算,得到当前层的输出结果,并将其传递到下一层,一直持续到源域模型最终的输出层,从而得到源域模型的源域预估概率。
在一些实施例中,通过待训练的目标域模型的目标映射层和增强映射层,分别对源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率这一步骤的具体过程为:通过待训练的目标域模型的特征交叉层,对源域样本数据进行特征交叉处理,得到源域中间特征;通过待训练的目标域模型的目标映射层和增强映射层,分别对源域中间特征进行特征映射处理,对应得到第一目标域预估概率和第一目标域增强概率。也就是说,待训练的目标域模型的特征交叉层和预设的源域模型的特征交叉层、待训练的目标域模型的目标映射层、增强映射层和预设的源域模型的特征映射层具有相同的网络结构,且对源域样本数据和目标域样本数据的特征处理方式也相同。源域中间特征为待训练的目标域模型的特征交叉层的输出特征,也为目标映射层和增强映射层的输入特征。
这里,在后续步骤中,通过前向传播得到的第一目标域预估概率只用于源域样本数据的域概率偏差的计算和源域样本数据的标签校准,不拟合源域样本数据的源域标签进行反向传播。而第一目标域增强概率会基于源域样本数据标签校准后的源域校准标签继续进行反向传播,更新目标域增强样本空间下的模型参数,实现数据增强功能。
步骤S206,服务器将第一目标域预估概率与源域预估概率之间的差值,确定为源域样本数据的域概率偏差。
本申请实施例中,针对每一源域样本数据,对每一源域样本数据对应的第一目标域预估概率与源域预估概率进行减法计算,来比较每一源域样本数据对应的第一目标域预估概率与源域预估概率的数值大小,得到两者之间的差值,并将该差值确定为源域样本数据的域概率偏差。
这里,在后续步骤中,利用该域概率偏差来校准每一源域样本数据对应的源域标签,使得校准后的源域标签有利于源域样本数据在目标域模型的训练,当校准后的源域标签用于目标域模型训练时,避免源域样本数据给目标域模型的训练带来负向影响。
步骤S207,服务器基于域概率偏差,构建校准函数。
本申请实施例中,校准函数的构建过程为:根据源域样本数据的源域标签的不同取值,对应构建不同的校准函数;其中,当源域标签的取值为0时,校准函数为域概率偏差和0之间的最大值;当源域标签的取值为1时,基于域概率偏差和0之间的最小值构建校准函数。校准函数可以通过以下公式(1)得到:
(1)
其中,为校准函数,为源域样本数据的源域真实标签,可取值为0或1,为域概率偏差,为最大值函数,为最小值函数。
步骤S208,服务器通过校准函数,对源域样本数据的源域标签进行标签校准,得到源域样本数据的源域校准标签。
本申请实施例中,在源域标签取值为0,且域概率偏差大于或等于0的情况下,对源域标签进行标签校准,得到源域校准标签的取值为域概率偏差;在源域标签取值为0,且域概率偏差小于0的情况下,对源域标签进行标签校准,得到源域校准标签的取值为0;在源域标签取值为1,且域概率偏差大于或等于0的情况下,对源域标签进行标签校准,得到源域校准标签的取值为1;在源域标签取值为1,且域概率偏差小于0的情况下,对源域标签进行标签校准,得到源域校准标签的取值为域概率偏差与1之和。
也就是说,当域概率偏差大于或等于0时,表明源域样本数据在待训练的目标域模型的目标映射层输出的第一目标域预估概率大于或等于在源域模型输出的源域预估概率,即该源域样本数据在目标域下对应的模型输出结果好于在源域下对应的模型输出结果,该源域样本数据有利于目标域下的数据增强模型的训练,则将源域样本数据的取值为0的源域标签校准为域概率偏差,保留源域样本数据的取值为1的源域标签;当域概率偏差小于0时,表明源域样本数据在待训练的目标域模型的目标映射层输出的第一目标域预估概率小于在源域模型输出的源域预估概率,即该源域样本数据在目标域下对应的模型输出结果差于在源域下对应的模型输出结果,该源域样本数据不利于目标域下的数据增强模型的训练,则保留源域样本数据的取值为0的源域标签,将源域样本数据的取值为1的源域标签校准为域概率偏差与1之和,并将标签校准后的源域标签作为源域校准标签。
这里,通过域概率偏差的大小可以看出每一源域样本数据对于目标域下的数据增强模型的影响是正向影响还是负向影响,通过校准源域样本数据的源域标签,使得源域样本数据作为目标域的扩充样本数据,更加适配目标域下的数据增强模型的训练,从而提升数据增强模型的模型性能。
步骤S209,服务器通过待训练的目标域模型的目标映射层和增强映射层,分别对目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率。
本申请实施例中,通过待训练的目标域模型的特征交叉层,对目标域样本数据进行特征交叉处理,得到目标域中间特征;通过待训练的目标域模型的目标映射层和增强映射层,分别对目标域中间特征进行特征映射处理,对应得到第二目标预估概率和第二目标域增强概率。也就是说,目标域中间特征为待训练的目标域模型的特征交叉层的输出特征,也为目标映射层和增强映射层的输入特征。
这里,在后续步骤中,通过前向传播得到的第二目标预估概率和第二目标域增强概率会基于目标域样本数据的目标域标签继续进行反向传播,更新目标域目标样本空间和目标域增强样本空间下的模型参数。并且,第二目标预估概率和第二目标域增强概率会作为待训练的目标域模型的集成模块的输入特征,融合待训练的目标域模型在目标域目标样本空间和目标域增强样本空间下的预估概率,从而提高目标域下的数据增强模型的模型鲁棒性。
步骤S210,服务器通过集成模块的输入层,对第二目标域增强概率进行随机丢弃处理,得到处理后的第二目标域增强概率。
本申请实施例中,随机丢弃处理过程具体为:通过集成模块的输入层获取随机丢弃概率;基于随机丢弃概率确定第二目标域增强概率的随机保留概率;以随机保留概率保留第二目标域增强概率,或者,以随机丢弃概率将第二目标域增强概率更新为0,得到处理后的第二目标域增强概率。
随机丢弃概率和随机保留概率为待训练的目标域模型的超参数,随机丢弃概率与随机保留概率之和为1,也就是说,在集成模块的输入层添加丢弃Dropout功能来第二目标域增强概率进行随机丢弃处理,添加了Dropout之后的输入层只需要对该输入层中没有被丢弃掉的神经元进行训练,即将输入层的神经元按照一定的概率将其暂时从输入层中丢弃,并且对输入层的神经元的丢弃是随机的。根据第二目标域增强概率的随机丢弃概率计算得到随机保留概率,当输入层的某个神经元的概率为随机保留概率时,则该神经元输出第二目标域增强概率,即保留该第二目标域增强概率;当输入层的某个神经元的概率为随机丢弃概率时,则该神经元输出更新为0的第二目标域增强概率,即丢弃该第二目标域增强概率。处理后的第二目标域增强概率为经过随机丢弃之后保留的第二目标域增强概率。
这里,通过输入层对第二目标域增强概率的随机丢弃处理,随机丢弃输入层中的一部分神经元来避免模型训练过程中的过拟合问题,提升模型的泛化能力。
步骤S211,服务器通过集成模块的输入层,获取第二目标预估概率的第一权重,以及处理后的第二目标域增强概率的第二权重。
本申请实施例中,通过输入层对第二目标域增强概率的随机丢弃处理,保留全部的第二目标预估概率。第一权重和第二权重均为一个随机初始化的权重矩阵,用于控制第二目标预估概率和处理后的第二目标域增强概率的重要性。
步骤S212,服务器通过输入层中的非线性激活函数,基于第一权重和第二权重,对第二目标预估概率和处理后的第二目标域增强概率进行激活处理,得到集成层的输入概率。
本申请实施例中,非线性激活函数用于选择性地激活输入层中的神经元,同时起到限制每个神经元输出值的范围的作用。利用第一权重对第二目标预估概率进行加权计算,并且利用第二权重对处理后的第二目标域增强概率进行加权计算,然后对两个加权计算的结果进行求和,得到加权求和结果,之后,再将加权求和结果输入到非线性激活函数中,实现对第二目标预估概率和处理后的第二目标域增强概率的激活处理,得到输入层的输出概率,即集成层的输入概率。非线性激活函数可以为Sigmoid激活函数,在此不做限定。
步骤S213,服务器通过集成模块的集成层,对输入概率进行概率集成处理,得到集成预估概率。
本申请实施例中,集成模块的集成层用于对输入概率进行概率集成处理,得到集成预估概率。这里,通过结合待训练的目标域模型在不同数据空间训练下给出的预估结果作为最终的集成预估概率,能够进一步降低引入源域样本数据带来的噪声,提高模型鲁棒性。
步骤S214,服务器基于源域校准标签和第一目标域增强概率,构建校准损失函数。
本申请实施例中,校准损失函数可以为交叉熵损失函数,源域样本数据的源域校准标签与第一目标域增强概率构成的校准损失函数通过以下公式(2)得到:
(2)
其中,为所有的源域样本数据,表示源域样本数据的源域校准标签,表示
第一目标域增强概率,为累加函数,为对数函数,为源域样本数据的
源域校准标签与第一目标域增强概率构成的校准损失函数。
步骤S215,服务器基于目标域标签和集成预估概率,构建目标损失函数。
本申请实施例中,目标损失函数也可以为交叉熵损失函数,目标域样本数据的目标域标签与集成预估概率构成的目标损失函数通过以下公式(3)得到:
(3)
其中,为所有的目标域样本数据,表示目标域样本数据的目标域标签,表
示集成预估概率,为目标域样本数据的目标域标签与集成预估概率构成的
目标损失函数。
步骤S216,服务器基于校准损失函数和目标损失函数,对待训练的目标域模型进行模型训练,得到数据增强模型。
本申请实施例中,待训练的目标域模型的模型训练过程为:对校准损失函数和目标损失函数分别进行损失计算,对应得到校准损失值和目标损失值;根据校准损失值和目标损失值,确定待训练的目标域模型的总损失值;基于总损失值,按照预设的迭代条件对待训练的目标域模型中的模型参数进行迭代更新,得到数据增强模型。
本申请实施例中,在得到校准损失函数和目标损失函数的之后,对校准损失函数和目标损失函数分别进行损失计算,得到损失结果,即校准损失值和目标损失值,例如,校准损失函数和目标损失函数可以是交叉熵损失函数。通过校准损失值来衡量模型的第一目标域增强概率和源域样本数据的源域校准标签的不一致程度,通过目标损失值来衡量模型的集成预估概率和目标域样本数据的目标域标签的不一致程度,即计算模型每次迭代的前向计算结果(即第一目标域增强概率和集成预估概率)与真实值(即源域校准标签和目标域标签)的差距,从而指导下一步的数据增强模型训练向正确的方向进行。
本申请实施例中,待训练的目标域模型的总损失值为校准损失值和目标损失值之和,预设的迭代条件包括总损失阈值、最大迭代次数阈值和截至迭代时间。根据待训练的目标域模型的校准损失函数和目标损失函数的导数,沿梯度最小方向将总损失值回传,更新待训练的目标域模型中的模型参数,如待训练的目标域模型中的各个权重值。预先设定一个总损失阈值,当总损失值小于预先设定的总损失阈值时,则停止迭代训练,即停止模型参数更新;也可以预先设定一个最大迭代次数阈值,当迭代次数超过最大迭代次数阈值时,则停止模型参数更新;还可以预先设定一个截至迭代时间,当迭代时间到达截至迭代时间时,则停止模型参数更新,得到模型训练后的数据增强模型。
步骤S217,服务器向终端发送数据增强模型。
步骤S218,终端输出数据增强模型。
在一些实施例中,当检测到源域样本数据库中具有新增源域样本数据或者目标域样本数据库中具有新增目标域样本数据时,将数据增强模型作为当前时刻的待训练的目标域模型,并将新增源域样本数据和新增目标域样本数据作为当前时刻的源域样本数据和当前时刻的目标域样本数据;基于当前时刻的源域样本数据和当前时刻的目标域样本数据再次对待训练的目标域模型执行数据增强模型训练方法。
这里,通过将训练后的数据增强模型再次作为待训练的目标域模型,在当前时刻的源域样本数据和当前时刻的目标域样本数据上,重复以上目标域中数据增强模型的模型训练过程,即通过持续不断的更新数据流,使得数据增强模型的模型性能不断提升,从而得到更加准确的模型处理结果。
本申请实施例中,首先通过预设的源域模型,对源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率;再基于第一目标域预估概率和第一目标域增强概率之间的差值,对源域样本数据的源域标签进行标签校准,使得源域样本数据作为目标域的扩充样本数据,更加适配目标域下的数据增强模型的训练然后,通过待训练的目标域模型的目标映射层和增强映射层,分别对目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率,并第二目标预估概率和第二目标域增强概率会作为待训练的目标域模型的集成模块的输入特征,融合待训练的目标域模型在目标域目标样本空间和目标域增强样本空间下的预估概率,从而提高目标域下的数据增强模型的模型鲁棒性。其中,在集成模块的输入层添加丢弃功能,来避免模型训练过程中的过拟合问题,提升模型的泛化能力。最后,基于源域样本数据的源域校准标签与第一目标域增强概率构成的校准损失函数和目标域样本数据的目标域标签与集成预估概率构成的目标损失函数,对待训练的目标域模型进行模型训练,得到目标域下的数据增强模型,提升数据增强模型的模型性能。
在一些实施例中,源域样本数据包括应用于内容订阅业务的订阅内容数据,目标域样本数据包括应用于内容推荐业务的推荐内容数据;获取内容推荐业务下的待处理数据;将待处理数据输入到数据增强模型中,通过数据增强模型在内容推荐业务下对待处理数据进行数据处理,得到内容推荐业务下的数据处理结果。也就是说,模型训练后的数据增强模型可以为推荐内容排序模型,将模型训练后的数据增强模型应用于推荐内容场景下的内容推荐业务,并将内容推荐业务的推荐内容数据集作为训练后的数据增强模型的模型输入,利用模型训练后的数据增强模型的数据处理功能,得到模型训练后的数据增强模型数据处理后推荐域的数据处理结果,即推荐内容的排序结果。之后,能够根据推荐内容的排序结果实现内容推荐业务下的推荐内容的精准排序,增加用户对推荐内容的点击率。
在一些实施例中,源域样本数据包括应用于内容推荐业务的推荐内容数据,目标域样本数据包括应用于内容订阅业务的订阅内容数据;获取内容订阅业务下的待处理数据;将待处理数据输入到数据增强模型中,通过数据增强模型在内容订阅业务下对待处理数据进行数据处理,得到内容订阅业务下的数据处理结果。也就是说,模型训练后的数据增强模型可以为订阅内容排序模型,将模型训练后的数据增强模型应用于订阅内容场景下的内容订阅业务,并将内容订阅业务的订阅内容数据作为模型训练后的数据增强模型的模型输入,利用模型训练后的数据增强模型的数据处理功能,得到模型训练后的数据增强模型数据处理后订阅域的数据处理结果,即订阅内容的排序结果。之后,能够根据订阅内容的排序结果实现内容订阅业务下的订阅内容的精准排序,增加用户对订阅内容的点击率。
在一些实施例中,在通过上述任一实施例得到数据增强模型之后,还可以提供一数据处理方法,该数据处理方法可以通过数据处理设备来执行,该数据处理设备可以与上述用于实现数据增强模型训练方法的电子设备为同一电子设备,也可以是不同的电子设备,也就是说,用于实现数据处理方法的数据处理装置和用于实现数据增强模型训练方法的数据增强模型训练装置可以位于同一电子设备中,也可以位于不同的电子设备中。可以通过数据增强模型对目标业务下的待处理数据进行数据处理,得到目标业务下的数据处理结果。其中,目标业务包括内容订阅业务或者内容推荐业务。
当目标业务包括内容订阅业务时,在数据处理方法的实现过程中,可以获取内容订阅业务下的待处理数据;将待处理数据输入到数据增强模型中,通过数据增强模型在内容订阅业务下对待处理数据进行数据处理,得到内容订阅业务下的数据处理结果。之后,能够根据数据处理结果实现内容订阅业务下的订阅内容的精准排序,增加用户对订阅内容的点击率。
当目标业务包括内容推荐业务时,在数据处理方法的实现过程中,可以获取内容推荐业务下的待处理数据;将待处理数据输入到数据增强模型中,通过数据增强模型在内容推荐业务下对待处理数据进行数据处理,得到内容推荐业务下的数据处理结果。之后,能够根据数据处理结果实现内容推荐业务下的推荐内容的精准排序,增加用户对推荐内容的点击率。
下面,将说明本申请实施例在一个实际的应用场景中的示例性应用。
本申请实施例提供一种数据增强模型训练方法,该方法的应用场景可以是对平台订阅号消息盒子和推送的消息卡片(包括用户自行订阅和平台主动推荐)的排序技术。
在信息流内容产品(如平台公众号、平台社区等)中,同时存在如图5所示的订阅内容与推荐内容,但通常分属于两个展示区域。由于两个场景的数据分布通常具有较大差异,用户的特征数据也大相径庭,因此通常由不同的排序模型(如订阅内容排序模型和推荐内容排序模型)控制排序,每个排序模型分别使用各自场景的数据进行训练。
因此,本申请实施例为每个场景的排序模型扩充了来自另一个场景的数据,例如,为订阅场景的推荐内容排序模型扩充了来自订阅场景的数据,实现如图6所示的订阅场景与推荐场景之间的跨场景数据迁移,以增强推荐内容排序模型对用户的特征数据的拟合及排序的泛化能力。
对于推荐内容排序模型的模型输入,推荐内容排序模型处理的每一条输入样本都表示一个用户对一条推荐给它的订阅号消息相关的基础特征。基础特征可以抽象表示为:<目标用户相关特征,待推荐消息所属订阅号相关特征,待推荐消息本身相关特征,交叉关系的统计特征>。其中,“订阅号”和“订阅号消息”的关系如图7所示,即每条消息都有所属的订阅号。
目标用户相关特征包括用户ID,用户年龄,用户性别,用户地域,用户过去1天曝光消息数,用户过去7天曝光消息数等等;待推荐消息所属订阅号相关特征包括订阅号ID,订阅号粉丝数,订阅号过去7天创作消息数,订阅号过去7天点击阅读数等等;待推荐消息本身相关特征包括消息ID,消息发送至今的小时数,消息过去1小时曝光数,消息过去1小时点击数等等;其中,订阅号ID联合消息ID得到了每个内容ID;交叉关系的统计特征包括该用户对该订阅号过去28天曝光数,该用户对该订阅号过去28天点击数等等。
对于订阅内容排序模型,订阅内容的曝光内容、用户的特征数据及其是否发生点击等信息组成了源域数据,推荐内容的信息则属于目标域数据。反之,对于推荐内容排序模型,推荐内容的信息是源域数据,订阅内容的信息是目标域数据。
在为源域的排序模型引入目标域的数据用于训练时,存在的问题是,一个在目标域曝光的内容引发的用户是否点击的行为日志,不一定在源域会有相同的结果。例如,用户可能在浏览推荐内容场景时,带有扩充知识面的目的,偏好点击具有“新鲜感”的科技文章;而在浏览订阅内容场景时,带有了解时事的目的,偏好点击“传统”的新闻文章。于是一篇在推荐场景被点击的文章,假设其在订阅场景被推送时,也不会得到点击。更进一步地,推荐系统永远无法采集到同一个用户对同一个内容同时处于两个不同场景时的反馈信息。也就是说,来自目标域的扩充样本以及点击标签无法直接用于对模型进行训练。
因此,本申请实施例提出了一种引入跨域数据样本训练排序模型的流程框架,示意图如图8所示。图8主要由M1和M2两部分模型和上方图例组成。M1和M2两部分的模型结构部分,使用特征交叉层-MLP输出层的经典结构。在该例子中,将推荐流(Feeds)视为源域,订阅内容(Subscription)视为目标域,也就是说,源域为推荐域,目标域为订阅域,利用推荐流样本作为跨场景扩充样本增强订阅内容排序模型的训练。
图8中的M1模型,表示源域排序模型(即上述源域模型),使用源域样本(即上述源
域样本数据)作为输入,经过前向传播后得到(即上述源域预估概率),即源域样本在
源域模型下的预估结果(预估点击率)。预估结果拟合该源域样本的真实标签(即上述源域
标签)(是否发生点击),使用如公式(4)所示的标准的交叉熵损失函数:
(4)
其中,为源域模型的交叉熵损失函数,表示源域样本的个数。
图8中的M2模型,表示目标域排序模型,有两种输入:目标域本身的目标域样本(即
上述目标域样本数据)和来自源域的源域样本。图8中M2模型的无阴影部分是目标域
原始的模型结构,由特征交叉层和MLP输出层(即上述目标映射层)拼接得到,与源域模型的
模型结构保持一致。图8中M2模型的有阴影部分是新增的两个MLP输出层(即上述增强映射
层和集成模块),分别用于校准跨场景样本偏差和集成学习。
当输入是来自源域的源域样本时,经过特征交叉模块的处理后,将中间特征
(即上述源域中间特征)分别传入两个MLP(即上述目标映射层和增强映射层),得到(即
上述第一目标域预估概率)和(即上述第一目标域增强概率)。对于,它表示目标域模
型认为该源域样本在目标域的点击率。利用它和的偏差来衡量标签的域偏差,域偏差计
算公式如公式(5)所示:
(5)
其中,表示同一条样本,目标域模型相对源域模型预估结果的偏差(即上述域概
率偏差)。利用这个偏差度量,对源域标签进行校准(即上述标签校准),如公式(6)所示:
(6)
其中,表示校准函数,为最大值函数,为最小值函数。
经过变换后,(即上述源域校准标签)的取值情况如表1所示:
表1 源域校准标签的具体取值
这里,当时,表示目标域模型认为跨场景样本在目标域下的点击率更高,对
应的负样本标签修正为;当时,表示目标域模型认为跨场景样本在目标域下的点击
率更低,对应的正样本标签修正为。对于,只用于计算偏差和辅助校准,不拟合标
签信息进行反向传播,避免影响目标域模型本身对于源域样本在目标域下的预估结果。对
于,使用校准标签做监督信号,构成的损失函数如公式(7)所示:
(7)
当输入是目标域本身的目标域样本时,经过特征交叉模块的处理后,将中间特
征(即上述目标域中间特征)分别传入两个MLP(即上述目标映射层和增强映射层),得到
(即上述第二目标预估概率)和(即上述第二目标域增强概率),分别代表在目标域目标
样本空间和目标域增强样本空间下的预估结果。两者都使用如公式(8)所示的标准的交叉
熵损失函数进行训练:
(8)
其中,,为目标域交叉熵损失函数。
和还作为上层MLP(即上述集成模块)的输入,经过集成之后输出(即上
述集成预估概率)。为了避免模型拟合到跨场景样本的偏差和噪声,在输入MLP时,还增
加一个随机丢弃的操作。即,MLP的输入层可以表示为公式(9):
(9)
其中,为MLP的输入层的输出(即上述集成层的输入概率),σ为非线性激活函数,(即上述第一权重)和(即上述第二权重)为MLP的输入层的权重,表示
以概率(即上述随机保留概率)输出,以概率(即上述随机丢弃概率)输出0。集成
后的,同样使用标准的交叉熵损失函数进行训练。
经过数据增强的训练模式后,要应用到在线服务的推理环节只需要部署目标域模型。对于每个目标域样本,其前向传播过程如图8中加粗箭头所示。
本申请实施例所提模型(B22)应用于平台订阅号消息的推荐内容排序时,增加了日志数据的利用率。如表2所示,对比基线模型,人均消息阅读次数和阅读时长得到显著提升,表明了模型具有更好的排序能力。
表2 模型性能提升效果
本申请实施例提出了利用跨场景的样本数据扩充排序模型的训练样本集,使模型可以在更大规模和更完整的数据上学习拟合目标对象的画像和个性化兴趣;提出了利用两个场景模型的组合预估结果来建模跨场景样本在源域的标签信息在目标域的偏差,并将其校准到适配目标域的标签,用于训练目标域模型,避免在引入跨场景样本后为基础模型带来负向效果。提出了一个随机集成学习的模型,组合目标域模型在不同数据空间训练下给出的预估结果作为最终的预估分数,进一步降低跨场景样本的噪声,提高模型鲁棒性。
可以理解的是,在本申请实施例中,涉及到用户信息的内容,例如,源域样本数据、目标域样本数据、源域模型和目标域模型等信息,如果涉及与用户信息或企业信息相关的数据,当本申请实施例运用到具体产品或技术中时,需要获得用户许可或者同意,或者对这些信息进行模糊化处理,以消除这些信息与用户之间的对应关系;且相关数据收集处理在实例应用时应该严格根据相关国家法律法规的要求,获取个人信息主体的知情同意或单独同意,并在法律法规及个人信息主体的授权范围内,开展后续数据使用及处理行为。
下面继续说明本申请实施例提供的数据增强模型训练装置455的实施为软件模块的示例性结构,在一些实施例中,如图2所示,存储在存储器440的数据增强模型训练装置455中的软件模块可以包括:获取模块4551,用于获取源域样本数据和目标域样本数据;第一前向传播模块4552,用于通过预设的源域模型,对所述源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对所述源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率;标签校准模块4553,用于基于所述源域预估概率和所述第一目标域预估概率,对所述源域样本数据的源域标签进行标签校准,得到所述源域样本数据的源域校准标签;第二前向传播模块4554,用于通过所述待训练的目标域模型的所述目标映射层和所述增强映射层,分别对所述目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率;概率集成模块4555,用于通过所述待训练的目标域模型的集成模块,对所述第二目标预估概率和所述第二目标域增强概率进行概率集成处理,得到集成预估概率;模型训练模块4556,用于基于所述源域校准标签、所述目标域样本数据的目标域标签、所述第一目标域增强概率和所述集成预估概率,对所述待训练的目标域模型进行模型训练,得到数据增强模型。
在一些实施例中,所述标签校准模块4553还用于:将所述源域预估概率与所述第一目标域预估概率之间的差值,确定为所述源域样本数据的域概率偏差;基于所述域概率偏差,构建校准函数;通过所述校准函数,对所述源域样本数据的源域标签进行标签校准,得到所述源域样本数据的源域校准标签。
在一些实施例中,所述标签校准模块4553还用于:根据所述源域样本数据的源域标签的不同取值,对应构建不同的校准函数;其中,当所述源域标签的取值为0时,所述校准函数为所述域概率偏差和0之间的最大值;当所述源域标签的取值为1时,基于所述域概率偏差和0之间的最小值构建所述校准函数。
在一些实施例中,所述标签校准模块4553还用于:在所述源域标签取值为0,且所述域概率偏差大于或等于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为所述域概率偏差;在所述源域标签取值为0,且所述域概率偏差小于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为0;在所述源域标签取值为1,且所述域概率偏差大于或等于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为1;在所述源域标签取值为1,且所述域概率偏差小于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为所述域概率偏差与1之和。
在一些实施例中,所述第一前向传播模块4552还用于:通过所述待训练的目标域模型的特征交叉层,对所述源域样本数据进行特征交叉处理,得到源域中间特征;通过所述待训练的目标域模型的目标映射层和增强映射层,分别对所述源域中间特征进行特征映射处理,对应得到所述第一目标域预估概率和所述第一目标域增强概率。
在一些实施例中,所述第二前向传播模块4554还用于:通过所述待训练的目标域模型的特征交叉层,对所述目标域样本数据进行特征交叉处理,得到目标域中间特征;通过所述待训练的目标域模型的目标映射层和增强映射层,分别对所述目标域中间特征进行特征映射处理,对应得到所述第二目标预估概率和所述第二目标域增强概率。
在一些实施例中,所述概率集成模块4555还用于:通过所述集成模块的输入层,对所述第二目标域增强概率进行随机丢弃处理,得到处理后的第二目标域增强概率;通过所述集成模块的集成层,对所述第二目标预估概率和所述处理后的第二目标域增强概率进行概率集成处理,得到所述集成预估概率。
在一些实施例中,所述概率集成模块4555还用于:通过所述集成模块的输入层获取随机丢弃概率;基于所述随机丢弃概率确定所述第二目标域增强概率的随机保留概率;以所述随机保留概率保留所述第二目标域增强概率,或者,以所述随机丢弃概率将所述第二目标域增强概率更新为0,得到所述处理后的第二目标域增强概率。
在一些实施例中,在通过所述集成模块的输入层,对所述第二目标域增强概率进行随机丢弃处理,得到处理后的第二目标域增强概率之后,所述装置455还包括激活模块,所述激活模块用于:通过所述集成模块的输入层,获取所述第二目标预估概率的第一权重,以及所述处理后的第二目标域增强概率的第二权重;通过所述输入层中的非线性激活函数,基于所述第一权重和所述第二权重,对所述第二目标预估概率和所述处理后的第二目标域增强概率进行激活处理,得到所述集成层的输入概率。
在一些实施例中,所述概率集成模块4555还用于:通过所述集成模块的集成层,对所述输入概率进行概率集成处理,得到所述集成预估概率。
在一些实施例中,所述模型训练模块4556还用于:基于所述源域校准标签和所述第一目标域增强概率,构建校准损失函数;基于所述目标域标签和所述集成预估概率,构建目标损失函数;基于所述校准损失函数和所述目标损失函数,对所述待训练的目标域模型进行模型训练,得到所述数据增强模型。
在一些实施例中,所述模型训练模块4556还用于:对所述校准损失函数和所述目标损失函数分别进行损失计算,对应得到校准损失值和目标损失值;根据所述校准损失值和所述目标损失值,确定所述待训练的目标域模型的总损失值;基于所述总损失值,按照预设的迭代条件对所述待训练的目标域模型中的模型参数进行迭代更新,得到所述数据增强模型。
在一些实施例中,所述源域样本数据包括应用于内容订阅业务的订阅内容数据,所述目标域样本数据包括应用于内容推荐业务的推荐内容数据;所述装置455还包括数据处理模块,所述数据处理模块用于:获取所述内容推荐业务下的待处理数据;将所述待处理数据输入到所述数据增强模型中,通过所述数据增强模型在所述内容推荐业务下对所述待处理数据进行数据处理,得到所述内容推荐业务下的数据处理结果。
下面继续说明本申请实施例提供的数据处理装置的实施为软件模块的示例性结构,在一些实施例中,数据处理装置也可存储在存储器450中,存储在存储器450的数据处理装置中的软件模块可以包括:数据获取模块,用于获取目标业务下的待处理数据;所述目标业务包括内容订阅业务或者内容推荐业务;数据处理结果确定模块,用于将所述待处理数据输入到数据增强模型中,通过所述数据增强模型在所述目标业务下对所述待处理数据进行数据处理,得到所述目标业务下的数据处理结果;其中,所述数据增强模型采用本申请实施例所提供的数据增强模型训练方法训练得到。
需要说明的是,本申请实施例装置的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果,因此不做赘述。对于本装置实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
本申请实施例提供一种计算机可读存储介质,其中存储有计算机可执行指令,当计算机可执行指令被处理器执行时,将引起处理器执行本申请实施例提供的数据增强模型训练方法,例如,如图3示出的数据增强模型训练方法,或者,执行本申请实施例提供的数据处理方法。
本申请实施例提供了一种计算机程序产品,该计算机程序产品包括计算机可执行指令,该计算机可执行指令存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质读取该计算机可执行指令,处理器执行该计算机可执行指令,使得该电子设备执行本申请实施例上述的数据增强模型训练方法,或者,执行本申请实施例提供的数据处理方法。
在一些实施例中,计算机可读存储介质可以是RAM、ROM、闪存、磁表面存储器、光盘、或CD-ROM等存储器;也可以是包括上述存储器之一或任意组合的各种设备。
在一些实施例中,计算机可执行指令可以采用程序、软件、软件模块、脚本或代码的形式,按任意形式的编程语言(包括编译或解释语言,或者声明性或过程性语言)来编写,并且其可按任意形式部署,包括被部署为独立的程序或者被部署为模块、组件、子例程或者适合在计算环境中使用的其它单元。
作为示例,计算机可执行指令可以但不一定对应于文件系统中的文件,可以可被存储在保存其它程序或数据的文件的一部分,例如,存储在超文本标记语言(Hyper TextMarkup Language,HTML)文档中的一个或多个脚本中,存储在专用于所讨论的程序的单个文件中,或者,存储在多个协同文件(例如,存储一个或多个模块、子程序或代码部分的文件)中。
作为示例,计算机可执行指令可被部署为在一个电子设备上执行,或者在位于一个地点的多个电子设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个电子设备上执行。
以上所述,仅为本申请的实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和范围之内所作的任何修改、等同替换和改进等,均包含在本申请的保护范围之内。
Claims (15)
1.一种数据增强模型训练方法,其特征在于,所述方法包括:
获取源域的源域样本数据和目标域的目标域样本数据;所述源域包括用户自行订阅的订阅域和平台主动推荐的推荐域中的任意一个,所述目标域为所述订阅域和所述推荐域中与所述源域不同的领域;
通过预设的源域模型,对所述源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对所述源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率;
将所述源域预估概率与所述第一目标域预估概率之间的差值,确定为所述源域样本数据的域概率偏差;
基于所述域概率偏差,构建校准函数;
通过所述校准函数,对所述源域样本数据的源域标签进行标签校准,得到所述源域样本数据的源域校准标签;
通过所述待训练的目标域模型的所述目标映射层和所述增强映射层,分别对所述目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率;
通过所述待训练的目标域模型的集成模块,对所述第二目标预估概率和所述第二目标域增强概率进行概率集成处理,得到集成预估概率;
基于所述源域校准标签、所述目标域样本数据的目标域标签、所述第一目标域增强概率和所述集成预估概率,对所述待训练的目标域模型进行模型训练,得到数据增强模型。
2.根据权利要求1所述的方法,其特征在于,所述基于所述域概率偏差,构建校准函数,包括:
根据所述源域样本数据的源域标签的不同取值,对应构建不同的校准函数;
其中,当所述源域标签的取值为0时,所述校准函数为所述域概率偏差和0之间的最大值;当所述源域标签的取值为1时,基于所述域概率偏差和0之间的最小值构建所述校准函数。
3.根据权利要求1所述的方法,其特征在于,所述通过所述校准函数,对所述源域样本数据的源域标签进行标签校准,得到所述源域样本数据的源域校准标签,包括:
在所述源域标签取值为0,且所述域概率偏差大于或等于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为所述域概率偏差;
在所述源域标签取值为0,且所述域概率偏差小于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为0;
在所述源域标签取值为1,且所述域概率偏差大于或等于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为1;
在所述源域标签取值为1,且所述域概率偏差小于0的情况下,对所述源域标签进行标签校准,得到所述源域校准标签的取值为所述域概率偏差与1之和。
4.根据权利要求1所述的方法,其特征在于,所述通过待训练的目标域模型的目标映射层和增强映射层,分别对所述源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率,包括:
通过所述待训练的目标域模型的特征交叉层,对所述源域样本数据进行特征交叉处理,得到源域中间特征;
通过所述待训练的目标域模型的目标映射层和增强映射层,分别对所述源域中间特征进行特征映射处理,对应得到所述第一目标域预估概率和所述第一目标域增强概率。
5.根据权利要求1所述的方法,其特征在于,所述通过所述待训练的目标域模型的所述目标映射层和所述增强映射层,分别对所述目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率,包括:
通过所述待训练的目标域模型的特征交叉层,对所述目标域样本数据进行特征交叉处理,得到目标域中间特征;
通过所述待训练的目标域模型的目标映射层和增强映射层,分别对所述目标域中间特征进行特征映射处理,对应得到所述第二目标预估概率和所述第二目标域增强概率。
6.根据权利要求1所述的方法,其特征在于,所述通过所述待训练的目标域模型的集成模块,对所述第二目标预估概率和所述第二目标域增强概率进行概率集成处理,得到集成预估概率,包括:
通过所述集成模块的输入层,对所述第二目标域增强概率进行随机丢弃处理,得到处理后的第二目标域增强概率;
通过所述集成模块的集成层,对所述第二目标预估概率和所述处理后的第二目标域增强概率进行概率集成处理,得到所述集成预估概率。
7.根据权利要求6所述的方法,其特征在于,所述通过所述集成模块的输入层,对所述第二目标域增强概率进行随机丢弃处理,得到处理后的第二目标域增强概率,包括:
通过所述集成模块的输入层获取随机丢弃概率;
基于所述随机丢弃概率确定所述第二目标域增强概率的随机保留概率;
以所述随机保留概率保留所述第二目标域增强概率,或者,以所述随机丢弃概率将所述第二目标域增强概率更新为0,得到所述处理后的第二目标域增强概率。
8.根据权利要求7所述的方法,其特征在于,在通过所述集成模块的输入层,对所述第二目标域增强概率进行随机丢弃处理,得到处理后的第二目标域增强概率之后,所述方法还包括:
通过所述集成模块的输入层,获取所述第二目标预估概率的第一权重,以及所述处理后的第二目标域增强概率的第二权重;
通过所述输入层中的非线性激活函数,基于所述第一权重和所述第二权重,对所述第二目标预估概率和所述处理后的第二目标域增强概率进行激活处理,得到所述集成层的输入概率;
所述通过所述集成模块的集成层,对所述第二目标预估概率和所述处理后的第二目标域增强概率进行概率集成处理,得到所述集成预估概率,包括:
通过所述集成模块的集成层,对所述输入概率进行概率集成处理,得到所述集成预估概率。
9.根据权利要求1所述的方法,其特征在于,所述基于所述源域校准标签、所述目标域样本数据的目标域标签、所述第一目标域增强概率和所述集成预估概率,对所述待训练的目标域模型进行模型训练,得到数据增强模型,包括:
基于所述源域校准标签和所述第一目标域增强概率,构建校准损失函数;
基于所述目标域标签和所述集成预估概率,构建目标损失函数;
基于所述校准损失函数和所述目标损失函数,对所述待训练的目标域模型进行模型训练,得到所述数据增强模型。
10.根据权利要求9所述的方法,其特征在于,所述基于所述校准损失函数和所述目标损失函数,对所述待训练的目标域模型进行模型训练,得到所述数据增强模型,包括:
对所述校准损失函数和所述目标损失函数分别进行损失计算,对应得到校准损失值和目标损失值;
根据所述校准损失值和所述目标损失值,确定所述待训练的目标域模型的总损失值;
基于所述总损失值,按照预设的迭代条件对所述待训练的目标域模型中的模型参数进行迭代更新,得到所述数据增强模型。
11.根据权利要求1至10任一项所述的方法,其特征在于,所述源域样本数据包括应用于内容订阅业务的订阅内容数据,所述目标域样本数据包括应用于内容推荐业务的推荐内容数据;所述方法还包括:
获取所述内容推荐业务下的待处理数据;
将所述待处理数据输入到所述数据增强模型中,通过所述数据增强模型在所述内容推荐业务下对所述待处理数据进行数据处理,得到所述内容推荐业务下的数据处理结果。
12.一种数据处理方法,其特征在于,所述方法包括:
获取目标业务下的待处理数据;所述目标业务包括内容订阅业务或者内容推荐业务;
将所述待处理数据输入到数据增强模型中,通过所述数据增强模型在所述目标业务下对所述待处理数据进行数据处理,得到所述目标业务下的数据处理结果;其中,所述数据增强模型采用权利要求1至11任一项所提供的数据增强模型训练方法训练得到。
13.一种数据增强模型训练装置,其特征在于,包括:
获取模块,用于获取源域的源域样本数据和目标域的目标域样本数据;所述源域包括用户自行订阅的订阅域和平台主动推荐的推荐域中的任意一个,所述目标域为所述订阅域和所述推荐域中与所述源域不同的领域;
第一前向传播模块,用于通过预设的源域模型,对所述源域样本数据进行前向传播,得到源域预估概率,并通过待训练的目标域模型的目标映射层和增强映射层,分别对所述源域样本数据进行前向传播,得到第一目标域预估概率和第一目标域增强概率;
标签校准模块,用于将所述源域预估概率与所述第一目标域预估概率之间的差值,确定为所述源域样本数据的域概率偏差;基于所述域概率偏差,构建校准函数;通过所述校准函数,对所述源域样本数据的源域标签进行标签校准,得到所述源域样本数据的源域校准标签;
第二前向传播模块,用于通过所述待训练的目标域模型的所述目标映射层和所述增强映射层,分别对所述目标域样本数据进行前向传播,得到第二目标预估概率和第二目标域增强概率;
概率集成模块,用于通过所述待训练的目标域模型的集成模块,对所述第二目标预估概率和所述第二目标域增强概率进行概率集成处理,得到集成预估概率;
模型训练模块,用于基于所述源域校准标签、所述目标域样本数据的目标域标签、所述第一目标域增强概率和所述集成预估概率,对所述待训练的目标域模型进行模型训练,得到数据增强模型。
14.一种电子设备,其特征在于,包括:
存储器,用于存储计算机可执行指令;
处理器,用于执行所述存储器中存储的计算机可执行指令时,实现权利要求1至11任一项所述的数据增强模型训练方法,或者,实现权利要求12所述的数据处理方法。
15.一种计算机可读存储介质,其特征在于,存储有计算机可执行指令,所述计算机可执行指令被处理器执行时,实现权利要求1至11任一项所述的数据增强模型训练方法,或者,实现权利要求12所述的数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410098587.8A CN117648576B (zh) | 2024-01-24 | 2024-01-24 | 数据增强模型训练及数据处理方法、装置、设备、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410098587.8A CN117648576B (zh) | 2024-01-24 | 2024-01-24 | 数据增强模型训练及数据处理方法、装置、设备、介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117648576A CN117648576A (zh) | 2024-03-05 |
CN117648576B true CN117648576B (zh) | 2024-04-12 |
Family
ID=90043581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410098587.8A Active CN117648576B (zh) | 2024-01-24 | 2024-01-24 | 数据增强模型训练及数据处理方法、装置、设备、介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117648576B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021120752A1 (zh) * | 2020-07-28 | 2021-06-24 | 平安科技(深圳)有限公司 | 域自适应模型训练、图像检测方法、装置、设备及介质 |
CN113705769A (zh) * | 2021-05-17 | 2021-11-26 | 华为技术有限公司 | 一种神经网络训练方法以及装置 |
CN116635866A (zh) * | 2020-12-11 | 2023-08-22 | 华为云计算技术有限公司 | 用于挖掘少数类数据样本以训练神经网络的方法和系统 |
CN116738307A (zh) * | 2023-05-11 | 2023-09-12 | 中国人民大学 | 一种多模态训练的动态预测调整策略方法 |
CN116958724A (zh) * | 2022-12-29 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 一种产品分类模型的训练方法和相关装置 |
-
2024
- 2024-01-24 CN CN202410098587.8A patent/CN117648576B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021120752A1 (zh) * | 2020-07-28 | 2021-06-24 | 平安科技(深圳)有限公司 | 域自适应模型训练、图像检测方法、装置、设备及介质 |
CN116635866A (zh) * | 2020-12-11 | 2023-08-22 | 华为云计算技术有限公司 | 用于挖掘少数类数据样本以训练神经网络的方法和系统 |
CN113705769A (zh) * | 2021-05-17 | 2021-11-26 | 华为技术有限公司 | 一种神经网络训练方法以及装置 |
CN116958724A (zh) * | 2022-12-29 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 一种产品分类模型的训练方法和相关装置 |
CN116738307A (zh) * | 2023-05-11 | 2023-09-12 | 中国人民大学 | 一种多模态训练的动态预测调整策略方法 |
Non-Patent Citations (2)
Title |
---|
基于标签传播与小样本学习的高光谱图像分类方法;茹颖;中国优秀硕士学位论文全文数据库工程科技Ⅱ辑;20220415(第4期);第C028-184页 * |
王雪松 ; 赵季娟 ; 程玉虎 ; .基于极限学习机的无监督领域适应分类器.控制与决策.2018,(04),第96-104页. * |
Also Published As
Publication number | Publication date |
---|---|
CN117648576A (zh) | 2024-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230281448A1 (en) | Method and apparatus for information recommendation, electronic device, computer readable storage medium and computer program product | |
JP6689389B2 (ja) | ディープラーニングモデルを用いたエンティティの識別 | |
CN110781321B (zh) | 一种多媒体内容推荐方法及装置 | |
CN111090756B (zh) | 基于人工智能的多目标推荐模型的训练方法及装置 | |
CN111966914B (zh) | 基于人工智能的内容推荐方法、装置和计算机设备 | |
WO2022016522A1 (zh) | 推荐模型的训练方法、推荐方法、装置及计算机可读介质 | |
US11874798B2 (en) | Smart dataset collection system | |
CN116700839B (zh) | 一种任务处理方法、装置、设备、存储介质及程序产品 | |
Jiang et al. | Retweet prediction using social-aware probabilistic matrix factorization | |
US20220083907A1 (en) | Data generation and annotation for machine learning | |
CN108475346A (zh) | 神经随机访问机器 | |
CN113836390B (zh) | 资源推荐方法、装置、计算机设备及存储介质 | |
CN117648576B (zh) | 数据增强模型训练及数据处理方法、装置、设备、介质 | |
CN117056595A (zh) | 一种交互式的项目推荐方法、装置及计算机可读存储介质 | |
CN116308551A (zh) | 基于数字金融ai平台的内容推荐方法及系统 | |
WO2023050143A1 (zh) | 一种推荐模型训练方法及装置 | |
CN117150053A (zh) | 多媒体信息推荐模型训练方法、推荐方法及装置 | |
CN112818658B (zh) | 文本对分类模型的训练方法、分类方法、设备及存储介质 | |
CN117609887B (zh) | 数据增强模型训练及数据处理方法、装置、设备、介质 | |
CN114238798A (zh) | 基于神经网络的搜索排序方法、系统、设备及存储介质 | |
CN115482019A (zh) | 一种活动关注度预测方法、装置、电子设备和存储介质 | |
CN116628236B (zh) | 多媒体信息的投放方法、装置、电子设备及存储介质 | |
CN116501993B (zh) | 房源数据推荐方法及装置 | |
CN115470397B (zh) | 内容推荐方法、装置、计算机设备和存储介质 | |
CN117573961A (zh) | 信息推荐方法、装置、电子设备、存储介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |