CN111738440A - 一种基于领域自适应与联邦学习的模型训练方法及系统 - Google Patents

一种基于领域自适应与联邦学习的模型训练方法及系统 Download PDF

Info

Publication number
CN111738440A
CN111738440A CN202010757517.0A CN202010757517A CN111738440A CN 111738440 A CN111738440 A CN 111738440A CN 202010757517 A CN202010757517 A CN 202010757517A CN 111738440 A CN111738440 A CN 111738440A
Authority
CN
China
Prior art keywords
training
source
target
feature set
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010757517.0A
Other languages
English (en)
Other versions
CN111738440B (zh
Inventor
宫明明
汲小溪
曾小英
王维强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202010757517.0A priority Critical patent/CN111738440B/zh
Publication of CN111738440A publication Critical patent/CN111738440A/zh
Application granted granted Critical
Publication of CN111738440B publication Critical patent/CN111738440B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

公开了一种基于领域自适应与联邦学习的模型训练方法及系统。一方面,采用联邦学习架构,使得源业务方与目标业务方可以在不彼此交互数据隐私的情况下联合训练模型,保护了双方的数据隐私。另一方面,针对目标业务领域的样本集缺乏准确标签的情况,利用源业务领域的样本集的特征与标签之间的映射关系进行迁移学习,本质上是将源业务领域下训练的模型适应到目标业务领域下。

Description

一种基于领域自适应与联邦学习的模型训练方法及系统
技术领域
本说明书实施例涉及信息技术领域,尤其涉及一种基于领域自适应与联邦学习的模型训练方法及系统。
背景技术
随着神经网络算法的发展,业务方可以基于在自身业务领域下沉淀的大量数据,采用神经网络算法进行模型训练,利用训练得到的模型对该业务领域下的业务对象进行类型识别。此外,业务方往往还会基于自己的模型,为相似业务领域的其他业务方提供模型识别服务,这些其他业务方往往缺乏对样本的标签进行准确标注的能力,因此很难训练自己的模型。
本文为了描述的方便,将有能力训练自身模型的业务方称为源业务方,将源业务方的业务领域称为源业务领域;将难以训练自己的模型的业务方称为目标业务方,将目标业务方的业务领域称为目标业务领域。需要说明的是,源业务领域与目标业务领域虽然不同,但比较相似。
然而,源业务领域与目标业务领域下的样本特征分布存在一定差异,这意味着,基于源业务领域的样本训练得到的模型,在应用于目标业务领域时,识别效果并不好。此外,源业务方与目标业务方也不愿向彼此提供自己的数据用于模型参数调整(fine-turning)。
基于此,需要一种实现对目标业务领域下的业务对象的类型进行准确识别,同时兼顾各业务方的数据隐私需求的技术方案。
发明内容
为了解决缺少一种实现对目标业务领域下的业务对象的类型进行准确识别,同时兼顾各业务方的数据隐私需求的技术方案的技术问题,本说明书实施例提供一种基于领域自适应与联邦学习的模型训练方法及系统,技术方案如下:
根据本说明书实施例的第1方面,提供一种基于领域自适应与联邦学习的模型训练方法,源业务方设备与目标业务方设备上分别部署有初始化的神经网络模型,所述方法包括:
迭代执行以下步骤,直至满足训练停止条件:
源业务方设备将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备;
目标业务方设备将目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为目标映射特征集;将所述目标映射特征集上传给训练协调方设备;
所述训练协调方设备基于所述本地梯度、所述源映射特征集以及所述目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与所述目标业务方设备的神经网络模型;
其中,所述综合训练梯度,正相关于所述源映射特征集与所述目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
根据本说明书实施例的第2方面,提供一种基于领域自适应与联邦学习的模型训练方法,源业务方设备与对应于不同目标业务方的至少两个目标业务方设备上分别部署有初始化的神经网络模型,所述方法包括:
迭代执行以下步骤,直至满足训练停止条件:
源业务方设备将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备;
针对每个目标业务方设备,该目标业务方设备将对应的目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为对应的目标映射特征集,将对应的目标映射特征集上传给训练协调方设备;
所述训练协调方设备基于所述本地梯度、所述源映射特征集、以及每个目标业务方设备对应的目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与每个目标业务方设备的神经网络模型;
其中,所述综合训练梯度,正相关于所述源映射特征集与每个目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
根据本说明书实施例的第3方面,提供一种基于领域自适应与联邦学习的模型训练系统,包括源业务方设备、目标业务方设备与训练协调方设备;其中,源业务方设备与目标业务方设备上分别部署有初始化的神经网络模型;
迭代执行以下步骤,直至满足训练停止条件:
源业务方设备,将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备;
目标业务方设备,将目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为目标映射特征集;将所述目标映射特征集上传给训练协调方设备;
训练协调方设备,基于所述本地梯度、所述源映射特征集、所述目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与所述目标业务方设备的神经网络模型;
其中,所述综合训练梯度,正相关于所述源映射特征集与所述目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
根据本说明书实施例的第4方面,提供一种基于领域自适应与联邦学习的模型训练系统,包括源业务方设备与对应于不同目标业务方的至少两个目标业务方设备,所述源业务方设备与每个目标业务方设备上分别部署有初始化的神经网络模型,所述方法包括:
迭代执行以下步骤,直至满足训练停止条件:
源业务方设备,将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备;
每个目标业务方设备,将对应的目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为对应的目标映射特征集,将对应的目标映射特征集上传给训练协调方设备;
所述训练协调方设备,基于所述本地梯度、所述源映射特征集、以及每个目标业务方设备对应的目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与每个目标业务方设备的神经网络模型;
其中,所述综合训练梯度,正相关于所述源映射特征集与每个目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
本说明书实施例所提供的技术方案,一方面,采用联邦学习架构,使得源业务方与目标业务方可以在不彼此交互数据隐私的情况下联合训练模型,保护了双方的数据隐私。另一方面,针对目标业务领域的样本集缺乏准确标签的情况,利用源业务领域的样本集的特征与标签之间的映射关系进行迁移学习,本质上是将源业务领域下训练的模型适应到目标业务领域下,在具体实现上,将源业务领域的样本集的特征与目标业务领域的样本集的特征都映射到神经网络隐层的特征空间,不仅以“最小化源业务领域下的模型训练损失”为模型训练的优化指标,还以“最小化该特征空间内原业务领域的样本集与目标业务领域的样本集之间的特征分布差异”为模型训练的优化指标,从而使得训练得到的模型不仅对原业务领域下的业务对象有较好的识别效果,而且对目标业务领域下的业务对象有较好的识别效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本说明书实施例。
此外,本说明书实施例中的任一实施例并不需要达到上述的全部效果。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书实施例中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本说明书实施例提供的一种基于领域自适应与联邦学习的模型训练系统的结构示意图;
图2是本说明书实施例提供的一种基于领域自适应与联邦学习的模型训练方法的流程示意图;
图3是本说明书实施例提供的另一种基于领域自适应与联邦学习的模型训练系统的结构示意图;
图4是本说明书实施例提供的另一种基于领域自适应与联邦学习的模型训练方法的流程示意图;
图5是用于配置本说明书实施例方法的一种计算机设备的结构示意图。
具体实施方式
本文所述的模型一般是指基于神经网络算法进行训练的模型,简称神经网络模型。神经网络模型通常包括输入层、隐层(或称中间层)与输出层。此外需要说明的是,具有多个隐层的神经网络模型也可以被称为深度学习模型。
本文所述的源业务方例如可以是大型企业、大学、大型研究所等,这些机构通常能够花费大量成本对自身业务领域内的样本(历史业务对象)进行比较准确的标注(标签表征样本所属的类型),进而基于大量已标注样本训练神经网络模型,以便对自身业务领域内的业务对象进行类型识别。其中,可以根据实际业务需要划分业务对象的类型,可以是二分类也可以多分类。例如,可以将业务对象的类型划分为有风险的业务对象与无风险的业务对象;又如,可以将业务对象划分为有风险的业务对象、无风险A类型的业务对象、无风险B类型的业务对象。
本文所述的目标业务方例如可以是小型企业、个人、小型研究所等,这些机构或个人通常难以付出大量成本对自身业务领域内的样本进行比较准确的标注,也就缺乏大量已标注样本用于训练自身的模型。
一般来说,源业务领域与目标业务领域是比较相近的,这意味着,源业务领域下样本的特征构成以及业务对象的类型划分,与目标业务领域往往是一致的。因此,目标业务方通常会调用源业务方对外开放的模型服务调用接口,利用源业务领域下训练得到的模型识别目标业务领域下的业务对象的类型。
然而,源业务领域与目标业务领域总是存在些许差异的,这反映为两个领域的样本特征分布(即样本特征取值的概率分布)存在差异。本领域人员熟知,训练模型的过程实际上是学习某种样本特征分布与样本标签之间映射关系的过程,源业务方的神经网络模型是针对源业务领域下的样本特征分布与样本标签之间的映射关系进行学习得到的,其针对目标业务领域下的样本特征分布并没有很好的适应性。因此,这会导致使用源业务方的神经网络模型对目标业务领域下的业务对象进行类型识别时,准确率较低。
为了更具体地说明上述技术问题,给出一个例子。
在实际应用中,源业务方可以是支付平台,目标业务方可以是利用支付平台对外开放的应用接口开发应用的独立软件开发商(Independent Software Vendors,ISV)。通常,支付平台可以直接与线下商户签约,为线下商户提供收款码服务,并收取一定的手续费。而ISV也可以与线下商户签约,为线下商户提供收款码服务,这相当于ISV利用支付平台的支付能力为线下商户提供收款码服务,而支付平台通过ISV间接向线下商户提供支付服务,并向ISV收取一定的手续费。需要说明的是,不论是支付平台还是ISV,一般是与线下商户进行网上签约。
支付平台在准备与线下商户签约时,通常需要审核线下商户提供的经营场景照片,根据经营场景照片识别该线下商户是否是合法商户,以及如果是合法商户的话,具体是什么类型的合法商户。同样的,ISV在与线下商户签约时,也需要做如此审核。商户经营场景照片实际上需要识别的业务对象,通常包括非法场景照、门头照、摊位照、车头照、公司前台照、门牌照、店铺内景等类型,其中,除了非法场景照之外,其他类型皆属于合法商户。
然而在实际应用中,支付平台所签约的线下商户的特点与ISV所签约的线下商户的特点并不一致,举例来说,支付平台签约的线下商户中大多是商业区经营性门店,而ISV所签约的线下商户中大多是商品生产厂家、小卖店、学校等。这就导致,支付平台收集的经营场景照片的特征分布与ISV收集的经营场景照片的特征分布存在差异,这进而导致,支付平台使用自身收集的经营场景照片进行标注后训练得到的模型,不太适应ISV收集的经营场景照片的特征分布。
需要说明的是,在上例中,由于需要对图片进行识别,因此通常采用卷积神经网络算法训练模型。
此外,源业务方通常仅会向外开放用于调用模型功能的接口,并不会直接将模型参数提供给目标业务方,而目标业务方也往往不愿意将自身沉淀的样本提供给源业务方使用。因此,目前的情况下很难实现结合目标业务领域下的样本特征分布对源业务方的神经网络模型进行参数调整。
综上,如何在目标业务方与源业务方之间不愿分享数据隐私,且目标业务领域下的样本缺乏准确标签的情况下进行模型训练,是本领域丞待解决的技术问题。
为此,在本说明书的一个或多个实施例中,一方面,采用联邦学习架构,使得源业务方与目标业务方可以在不彼此交互数据隐私的情况下联合训练模型,保护了双方的数据隐私。另一方面,针对目标业务领域的样本集缺乏准确标签的情况,利用源业务领域的样本集的特征与标签之间的映射关系进行迁移学习,本质上是将源业务领域下训练的模型适应到目标业务领域下,在具体实现上,将源业务领域的样本集的特征与目标业务领域的样本集的特征都映射到神经网络隐层的特征空间,不仅以“最小化源业务领域下的模型训练损失”为模型训练的优化指标,还以“最小化该特征空间内原业务领域的样本集与目标业务领域的样本集之间的特征分布差异”为模型训练的优化指标,从而使得训练得到的模型不仅对原业务领域下的业务对象有较好的识别效果,而且对目标业务领域下的业务对象有较好的识别效果。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1是本说明书实施例提供的一种基于领域自适应与联邦学习的模型训练系统的结构示意图,如图1所示,该训练系统包括源业务方设备、目标业务方设备与训练协调方设备。图1所示的训练系统的架构实际上是联邦学习架构,训练协调方设备负责分别与源业务方设备、目标业务方设备进行数据交互,源业务方设备与目标业务方设备分别基于本地部署的待训练的神经网络模型与本地的样本进行模型训练。
图2是本说明书实施例提供的一种基于领域自适应与联邦学习的模型训练方法的流程示意图,如图2所示,迭代执行如下步骤,直至满足训练停止条件:
S200:源业务方设备将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备。
在训练初始化时,可以在源业务方设备与目标业务方设备上分别部署初始化的神经网络模型。
在本文中,已标注样本集是指样本集合中的每个样本都具有相应的标签,未标注样本集是指样本集合中的每个样本都没有相应的标签。
样本集的特征集是指,样本集中每个样本的特征组成集合。其中,一个样本的特征在数学上的表征通常为特征向量或者特征矩阵(如果样本是图片,一般是特征矩阵)。
特征集的特征分布是指,特征集合中每个特征的各维度的特征值所满足的概率分布。
在步骤S200中,源业务设备将源业务领域的已标注样本集的特征集输入到本地的神经网络模型之后,神经网络模型会通过至少一个隐层对输入的特征集进行处理,理论上可以将神经网络模型的隐层视为映射函数,从神经网络模型的隐层输出(如果有多个隐层,则隐层输出是指最后一个隐层的输出)的实际上是基于映射函数将输入的特征集进行映射得到的映射特征集。为了描述的方便,本文将源业务方设备上确定的映射特征集称为源映射特征集。
基于映射函数对输入的特征集进行映射,本质上是将输入的特征集由原始特征空间(或称输入层的特征空间)映射到神经网络模型的隐层的特征空间。
此外,在步骤S200中,源业务设备还需要根据计算本地训练梯度。众所周知,训练梯度通常需要根据已标注样本的特征集、标签以及模型参数计算得到。
S202:目标业务方设备将目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为目标映射特征集;将所述目标映射特征集上传给训练协调方设备。
类似的,在步骤S202中,目标业务方设备也会确定目标映射特征集,实现将输入的未标注样本集的特征集映射到神经网络模型的隐层的特征空间。
如此,可以实现对于源映射特征集与目标映射特征集之间的特征分布差异的度量。在本说明书实施例中,可以采用最大均值差异(Maximum Mean Discrepancy,MMD)方法来度量源映射特征集与目标映射特征集之间的特征分布差异,如以下公式:
Figure 462628DEST_PATH_IMAGE002
(1)
其中,φ表示神经网络模型的输入层的特征空间向隐层的特征空间进行映射的映射函数,nsrc表示源业务领域下已标注样本集中样本的数量,ntrg表示目标业务领域下未标注样本集中样本的数量,xsrc表示源业务领域下已标注样本集中的样本的特征,xtrg表示目标业务领域下未标注样本集中的样本的特征,F表示矩阵范数。
当然,也可以选择其他方法度量源映射特征集与目标映射特征集之间的特征分布差异,例如多核最大均值差异(multi-kernel MMD),在此不再赘述。
此外,由于目标业务领域下的未标注样本集缺少标签,因此,在步骤S202中,不会计算梯度,而是仅将目标映射特征集上传给训练协调方设备。
另外,此处还需要对图2所示的模型训练过程所使用的损失函数进行说明。在本说明书实施例中,既将最小化基于源业务领域的已标注样本集训练模型产生的训练损失作为模型训练的优化指标,又将最小化源映射特征集与目标映射特征集之间的特征分布差异作为模型训练的优化指标,因此,在构建损失函数时,需要同时考虑这个两个指标。其中,综合训练梯度,正相关于所述源映射特征集与所述目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。也就是说,所述源映射特征集与所述目标映射特征集之间的特征分布差异越小,综合训练梯度越小;本地梯度越小,综合训练梯度越小。
在实际应用中,整个联邦学习架构下的综合训练损失函数例如可以是:
Figure 848610DEST_PATH_IMAGE004
(2)
其中,
Figure 97188DEST_PATH_IMAGE005
表示根据源业务领域下已标注样本集计算得到的训练损失(源业务 设备的本地训练损失),MMD可以作为正则化项,
Figure 961239DEST_PATH_IMAGE005
与MMD之和组成模型训练的损 失函数。
综合训练梯度计算公式是基于上例中的损失函数进行微分得到的,如下:
Figure DEST_PATH_IMAGE007
(3)
其中,
Figure 713294DEST_PATH_IMAGE008
表示神经网络模型的参数集,gsrc标识源业务方设备的本地梯度。
以上公式仅是示例,本领域技术人员能够理解,在满足上述两个优化指标的前提下,可以灵活设计出其他形式的综合训练损失函数。
S204:训练协调方设备基于所述本地梯度、所述源映射特征集以及所述目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与所述目标业务方设备的神经网络模型。
在步骤S204中,例如可以使用公式(3)计算综合训练梯度。综合训练梯度用于更新正在训练的神经网络模型的模型参数集。
在步骤S204中,可以由训练协调方实际执行模型参数集的更新,将更新后的模型参数集下发。具体而言,训练协调方设备根据所述综合训练梯度更新神经网络模型,并将更新后的模型参数集分别下发给所述源业务方设备与所述目标业务方设备;所述源业务方设备根据接收到的模型参数集更新本地的神经网络模型;所述目标业务方设备根据接收到的模型参数集更新本地的神经网络模型。
在步骤S204中,也可以由训练协调方直接将综合训练梯度下发,由各方设备更新本地的神经网络模型的模型参数集。具体而言,训练协调方设备将所述综合训练梯度分别下发给所述源业务方设备与所述目标业务方设备;所述源业务方设备根据接收到的综合训练梯度更新本地的神经网络模型;所述目标业务方设备根据接收到的综合训练梯度更新本地的神经网络模型。
此外,在实际应用中,虽然基于联邦学习架构实现源业务方与目标业务方的联合训练可以确保源业务方的样本与目标业务方无需向彼此提供样本,但是,源业务方需要将本地梯度与源映射特征集上传给训练协调方,目标业务方也需要将目标映射特征集上传给训练协调方。为了防止训练协调方根据接收到的数据推算出源业务方的样本与目标业务方的样本,因此,可以在联邦学习架构的基础上,进一步应用一些隐私保护技术,例如多方安全计算技术、同态加密技术、秘密分享技术、混淆电路技术、安全聚合(SecureAggregation,SA)协议SA(源业务方设备与目标业务方设备之间需要交互随机数)、差分隐私保护技术等。通过上述这些技术中的一种或多种,可以显著提升训练协调方根据接收到的数据推算出样本的难度。
例如,在步骤S200中,源业务方设备可以基于差分隐私保护技术,分别对所述本地训练梯度与所述源映射特征集进行加噪,将加噪后的所述本地训练梯度与加噪后的所述源映射特征集上传给训练协调方设备。在步骤S202中,目标业务方设备基于差分隐私保护技术,对所述目标映射特征集进行加噪,将加噪后的所述目标映射特征集上传给训练协调方设备。如此,在步骤S204中,训练协调方设备基于加噪后的所述本地梯度、加噪后的所述源映射特征集、加噪后的所述目标映射特征集,计算综合训练梯度。需要说明的是,采用差分隐私技术意味着,训练协调方设备计算得到的综合训练梯度虽然含有噪声干扰,但是并不会显著影响综合训练梯度的可用性,从而实现了隐私保护与数据可用性之间的平衡。
另外,对于图1所示的迭代训练过程的训练停止条件,具体可以是迭代次数达到指定次数,也可以是综合训练损失趋近于收敛。
当以综合训练损失趋近于收敛作为训练停止条件时,训练协调方设备需要根据每一次迭代对应的综合训练损失进行判断,这意味着,在一次迭代中,源业务方设备还需要计算本地训练损失,并将本地训练损失上传给训练协调方设备。如此,在一次迭代中,训练协调方设备可以基于本地训练损失、源映射特征集、目标映射特征集,计算综合训练损失,并根据综合训练损失,判断是否满足训练停止条件。其中,所述综合训练损失,正相关于所述源映射特征集与所述目标映射特征集的之间的特征分布差异,且正相关于所述本地训练损失。也就是说,所述源映射特征集与所述目标映射特征集的之间的特征分布差异越小,综合训练损失越小;本地训练损失越小,综合训练损失越小。当然,本地训练损失也可以是加噪后上传给训练协调方设备的。
图3是本说明书实施例提供的另一种基于领域自适应与联邦学习的模型训练系统的结构示意图,如图3所示,该训练系统包括源业务方设备、训练协调方设备与至少两个目标业务方设备。图3所示的训练系统的架构实际上是联邦学习架构,训练协调方设备负责分别与源业务方设备、每个目标业务方设备进行数据交互,源业务方设备与每个目标业务方设备分别基于本地部署的待训练的神经网络模型与本地的样本进行模型训练。
图4是本说明书实施例提供的另一种基于领域自适应与联邦学习的模型训练方法的流程示意图,包括迭代执行以下步骤,直至满足训练停止条件:
S400:源业务方设备将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备。
S402:针对每个目标业务方设备,该目标业务方设备将对应的目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为对应的目标映射特征集,将对应的目标映射特征集上传给训练协调方设备。
S404:训练协调方设备基于所述本地梯度、所述源映射特征集、以及每个目标业务方设备对应的目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与每个目标业务方设备的神经网络模型。
其中,综合训练梯度,正相关于所述源映射特征集与每个目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
进一步地,所述源业务方设备将所述本地训练梯度与所述源映射特征集上传给训练协调方设备,包括:所述源业务方设备基于差分隐私保护技术,分别对所述本地训练梯度与所述源映射特征集进行加噪;将加噪后的所述本地训练梯度与加噪后的所述源映射特征集上传给训练协调方设备;
该目标业务方设备将对应的目标映射特征集上传给训练协调方设备,包括:该目标业务方设备基于差分隐私保护技术,对对应的目标映射特征集进行加噪,将加噪后的该目标映射特征集上传给训练协调方设备;
所述训练协调方设备基于所述本地梯度、所述源映射特征集、以及每个目标业务方设备对应的目标映射特征集,计算综合训练梯度,包括:所述训练协调方设备基于加噪后的所述本地梯度、加噪后的所述源映射特征集以及每个目标业务方设备对应的加噪后的目标映射特征集,计算综合训练梯度。
进一步地,根据所述综合训练梯度更新所述源业务方设备与每个目标业务方设备的神经网络模型,包括:所述训练协调方设备根据所述综合训练梯度更新神经网络模型,并将更新后的模型参数集分别下发给所述源业务方设备与每个目标业务方设备;所述源业务方设备根据接收到的模型参数集更新本地的神经网络模型;每个目标业务方设备根据接收到的模型参数集更新本地的神经网络模型。
进一步地,根据所述综合训练梯度更新所述源业务方设备与所述目标业务方设备的神经网络模型,包括:所述训练协调方设备将所述综合训练梯度分别下发给所述源业务方设备与每个目标业务方设备;所述源业务方设备根据接收到的综合训练梯度更新本地的神经网络模型;每个目标业务方设备根据接收到的综合训练梯度更新本地的神经网络模型。
进一步地,图3所示方法还包括:在一次迭代中,所述源业务方设备计算本地训练损失,并将所述本地训练损失上传给训练协调方设备;所述训练协调方设备基于所述本地训练损失、所述源映射特征集、每个目标业务方设备对应的目标映射特征集,计算综合训练损失,并根据所述综合训练损失,判断是否满足训练停止条件;其中,所述综合训练损失,正相关于所述源映射特征集与每个目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
在图2所示方法流程的基础上,本领域技术人员能够理解,目标业务方可以有两个或两个以上,基于与图2所示方法流程类似的原理,可以实现图3所示方法流程,具体细节不再赘述。
通过本说明书的一个或多个实施例,一个或一个以上的目标业务方可以与源业务方进行联合训练的方式,取得神经网络模型,用于识别自身对应的目标业务领域下的业务对象的类型。
本说明书实施例还提供一种计算机设备,其至少包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,处理器执行所述程序时实现本说明书中源业务方设备、目标业务方设备、训练协调方设备中的任一个的功能。
图5示出了本说明书实施例所提供的一种更为具体的计算设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
本说明书实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本说明书中源业务方设备、目标业务方设备、训练协调方设备中的任一个的功能。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本说明书实施例可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本说明书实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务设备,或者网络设备等)执行本说明书实施例各个实施例或者实施例的某些部分所述的方法。
上述实施例阐明的系统、方法、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,在实施本说明书实施例方案时可以把各模块的功能在同一个或多个软件和/或硬件中实现。也可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本说明书实施例的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本说明书实施例原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本说明书实施例的保护范围。

Claims (12)

1.一种基于领域自适应与联邦学习的模型训练方法,源业务方设备与目标业务方设备上分别部署有初始化的神经网络模型,所述方法包括:
迭代执行以下步骤,直至满足训练停止条件:
源业务方设备将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备;
目标业务方设备将目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为目标映射特征集;将所述目标映射特征集上传给训练协调方设备;
所述训练协调方设备基于所述本地梯度、所述源映射特征集以及所述目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与所述目标业务方设备的神经网络模型;
其中,所述综合训练梯度,正相关于所述源映射特征集与所述目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
2.如权利要求1所述的方法,所述源业务方设备将所述本地训练梯度与所述源映射特征集上传给训练协调方设备,包括:
所述源业务方设备基于差分隐私保护技术,分别对所述本地训练梯度与所述源映射特征集进行加噪;将加噪后的所述本地训练梯度与加噪后的所述源映射特征集上传给训练协调方设备;
所述目标业务方设备将所述目标映射特征集上传给训练协调方设备,包括:
所述目标业务方设备基于差分隐私保护技术,对所述目标映射特征集进行加噪;将加噪后的所述目标映射特征集上传给训练协调方设备;
所述训练协调方设备基于所述本地梯度、所述源映射特征集、所述目标映射特征集,计算综合训练梯度,包括:
所述训练协调方设备基于加噪后的所述本地梯度、加噪后的所述源映射特征集、加噪后的所述目标映射特征集,计算综合训练梯度。
3.如权利要求1所述的方法,根据所述综合训练梯度更新所述源业务方设备与所述目标业务方设备的神经网络模型,包括:
所述训练协调方设备根据所述综合训练梯度更新神经网络模型,并将更新后的模型参数集分别下发给所述源业务方设备与所述目标业务方设备;
所述源业务方设备根据接收到的模型参数集更新本地的神经网络模型;所述目标业务方设备根据接收到的模型参数集更新本地的神经网络模型。
4.如权利要求1所述的方法,根据所述综合训练梯度更新所述源业务方设备与所述目标业务方设备的神经网络模型,包括:
所述训练协调方设备将所述综合训练梯度分别下发给所述源业务方设备与所述目标业务方设备;
所述源业务方设备根据接收到的综合训练梯度更新本地的神经网络模型;所述目标业务方设备根据接收到的综合训练梯度更新本地的神经网络模型。
5.如权利要求1所述的方法,所述方法还包括:
在一次迭代中,所述源业务方设备计算本地训练损失,并将所述本地训练损失上传给训练协调方设备;
所述训练协调方设备基于所述本地训练损失、所述源映射特征集、所述目标映射特征集,计算综合训练损失,并根据所述综合训练损失,判断是否满足训练停止条件;
其中,所述综合训练损失,正相关于所述源映射特征集与所述目标映射特征集的之间的特征分布差异,且正相关于所述本地训练损失。
6.一种基于领域自适应与联邦学习的模型训练方法,源业务方设备与对应于不同目标业务方的至少两个目标业务方设备上分别部署有初始化的神经网络模型,所述方法包括:
迭代执行以下步骤,直至满足训练停止条件:
源业务方设备将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备;
针对每个目标业务方设备,该目标业务方设备将对应的目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为对应的目标映射特征集,将对应的目标映射特征集上传给训练协调方设备;
所述训练协调方设备基于所述本地梯度、所述源映射特征集、以及每个目标业务方设备对应的目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与每个目标业务方设备的神经网络模型;
其中,所述综合训练梯度,正相关于所述源映射特征集与每个目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
7.如权利要求6所述的方法,所述源业务方设备将所述本地训练梯度与所述源映射特征集上传给训练协调方设备,包括:
所述源业务方设备基于差分隐私保护技术,分别对所述本地训练梯度与所述源映射特征集进行加噪;将加噪后的所述本地训练梯度与加噪后的所述源映射特征集上传给训练协调方设备;
该目标业务方设备将对应的目标映射特征集上传给训练协调方设备,包括:
该目标业务方设备基于差分隐私保护技术,对对应的目标映射特征集进行加噪,将加噪后的该目标映射特征集上传给训练协调方设备;
所述训练协调方设备基于所述本地梯度、所述源映射特征集、以及每个目标业务方设备对应的目标映射特征集,计算综合训练梯度,包括:
所述训练协调方设备基于加噪后的所述本地梯度、加噪后的所述源映射特征集以及每个目标业务方设备对应的加噪后的目标映射特征集,计算综合训练梯度。
8.如权利要求6所述的方法,根据所述综合训练梯度更新所述源业务方设备与每个目标业务方设备的神经网络模型,包括:
所述训练协调方设备根据所述综合训练梯度更新神经网络模型,并将更新后的模型参数集分别下发给所述源业务方设备与每个目标业务方设备;
所述源业务方设备根据接收到的模型参数集更新本地的神经网络模型;每个目标业务方设备根据接收到的模型参数集更新本地的神经网络模型。
9.如权利要求6所述的方法,根据所述综合训练梯度更新所述源业务方设备与所述目标业务方设备的神经网络模型,包括:
所述训练协调方设备将所述综合训练梯度分别下发给所述源业务方设备与每个目标业务方设备;
所述源业务方设备根据接收到的综合训练梯度更新本地的神经网络模型;每个目标业务方设备根据接收到的综合训练梯度更新本地的神经网络模型。
10.如权利要求6所述的方法,所述方法还包括:
在一次迭代中,所述源业务方设备计算本地训练损失,并将所述本地训练损失上传给训练协调方设备;
所述训练协调方设备基于所述本地训练损失、所述源映射特征集、每个目标业务方设备对应的目标映射特征集,计算综合训练损失,并根据所述综合训练损失,判断是否满足训练停止条件;
其中,所述综合训练损失,正相关于所述源映射特征集与每个目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
11.一种基于领域自适应与联邦学习的模型训练系统,包括源业务方设备、目标业务方设备与训练协调方设备;其中,源业务方设备与目标业务方设备上分别部署有初始化的神经网络模型;
迭代执行以下步骤,直至满足训练停止条件:
源业务方设备,将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备;
目标业务方设备,将目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为目标映射特征集;将所述目标映射特征集上传给训练协调方设备;
训练协调方设备,基于所述本地梯度、所述源映射特征集、所述目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与所述目标业务方设备的神经网络模型;
其中,所述综合训练梯度,正相关于所述源映射特征集与所述目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
12.一种基于领域自适应与联邦学习的模型训练系统,包括源业务方设备与对应于不同目标业务方的至少两个目标业务方设备,所述源业务方设备与每个目标业务方设备上分别部署有初始化的神经网络模型,所述方法包括:
迭代执行以下步骤,直至满足训练停止条件:
源业务方设备,将源业务领域的已标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为源映射特征集,并计算本地训练梯度;将所述本地训练梯度与所述源映射特征集上传给训练协调方设备;
每个目标业务方设备,将对应的目标业务领域的未标注样本集的特征集输入到的本地的神经网络模型,获取本地的神经网络模型的隐层输出,作为对应的目标映射特征集,将对应的目标映射特征集上传给训练协调方设备;
所述训练协调方设备,基于所述本地梯度、所述源映射特征集、以及每个目标业务方设备对应的目标映射特征集,计算综合训练梯度,并实现:根据所述综合训练梯度更新所述源业务方设备与每个目标业务方设备的神经网络模型;
其中,所述综合训练梯度,正相关于所述源映射特征集与每个目标映射特征集之间的特征分布差异,且正相关于所述本地梯度。
CN202010757517.0A 2020-07-31 2020-07-31 一种基于领域自适应与联邦学习的模型训练方法及系统 Active CN111738440B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010757517.0A CN111738440B (zh) 2020-07-31 2020-07-31 一种基于领域自适应与联邦学习的模型训练方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010757517.0A CN111738440B (zh) 2020-07-31 2020-07-31 一种基于领域自适应与联邦学习的模型训练方法及系统

Publications (2)

Publication Number Publication Date
CN111738440A true CN111738440A (zh) 2020-10-02
CN111738440B CN111738440B (zh) 2020-11-24

Family

ID=72656798

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010757517.0A Active CN111738440B (zh) 2020-07-31 2020-07-31 一种基于领域自适应与联邦学习的模型训练方法及系统

Country Status (1)

Country Link
CN (1) CN111738440B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112632620A (zh) * 2020-12-30 2021-04-09 支付宝(杭州)信息技术有限公司 一种增强隐私保护的联邦学习方法和系统
CN112967044A (zh) * 2021-03-12 2021-06-15 支付宝(杭州)信息技术有限公司 一种支付业务的处理方法及装置
CN113724092A (zh) * 2021-08-20 2021-11-30 同盾科技有限公司 基于fm和深度学习的跨特征联邦营销建模方法及装置
CN113821827A (zh) * 2021-02-19 2021-12-21 支付宝(杭州)信息技术有限公司 保护多方数据隐私的联合建模方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915537A (zh) * 2015-04-08 2015-09-16 郑州航空工业管理学院 基于神经网络的行为预测方法
CN108898218A (zh) * 2018-05-24 2018-11-27 阿里巴巴集团控股有限公司 一种神经网络模型的训练方法、装置、及计算机设备
CN109002861A (zh) * 2018-08-10 2018-12-14 深圳前海微众银行股份有限公司 联邦建模方法、设备及存储介质
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、系统及可读存储介质
CN109413087A (zh) * 2018-11-16 2019-03-01 京东城市(南京)科技有限公司 数据共享方法、装置、数字网关及计算机可读存储介质
CN110956275A (zh) * 2019-11-27 2020-04-03 支付宝(杭州)信息技术有限公司 风险预测和风险预测模型的训练方法、装置及电子设备
CN111190487A (zh) * 2019-12-30 2020-05-22 中国科学院计算技术研究所 一种建立数据分析模型的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915537A (zh) * 2015-04-08 2015-09-16 郑州航空工业管理学院 基于神经网络的行为预测方法
CN108898218A (zh) * 2018-05-24 2018-11-27 阿里巴巴集团控股有限公司 一种神经网络模型的训练方法、装置、及计算机设备
CN109002861A (zh) * 2018-08-10 2018-12-14 深圳前海微众银行股份有限公司 联邦建模方法、设备及存储介质
CN109165515A (zh) * 2018-08-10 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的模型参数获取方法、系统及可读存储介质
CN109413087A (zh) * 2018-11-16 2019-03-01 京东城市(南京)科技有限公司 数据共享方法、装置、数字网关及计算机可读存储介质
CN110956275A (zh) * 2019-11-27 2020-04-03 支付宝(杭州)信息技术有限公司 风险预测和风险预测模型的训练方法、装置及电子设备
CN111190487A (zh) * 2019-12-30 2020-05-22 中国科学院计算技术研究所 一种建立数据分析模型的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
亢洁等: "基于域适应卷积神经网络的人脸表情识别", 《计算机工程》 *
陈立福: "基于迁移学习的卷积神经网络SAR图像目标识别", 《中国空间科学技术》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112632620A (zh) * 2020-12-30 2021-04-09 支付宝(杭州)信息技术有限公司 一种增强隐私保护的联邦学习方法和系统
CN112632620B (zh) * 2020-12-30 2022-08-26 支付宝(杭州)信息技术有限公司 一种增强隐私保护的联邦学习方法和系统
CN113821827A (zh) * 2021-02-19 2021-12-21 支付宝(杭州)信息技术有限公司 保护多方数据隐私的联合建模方法及装置
CN113821827B (zh) * 2021-02-19 2024-04-19 支付宝(杭州)信息技术有限公司 保护多方数据隐私的联合建模方法及装置
CN112967044A (zh) * 2021-03-12 2021-06-15 支付宝(杭州)信息技术有限公司 一种支付业务的处理方法及装置
CN112967044B (zh) * 2021-03-12 2022-05-06 支付宝(杭州)信息技术有限公司 一种支付业务的处理方法及装置
CN113724092A (zh) * 2021-08-20 2021-11-30 同盾科技有限公司 基于fm和深度学习的跨特征联邦营销建模方法及装置

Also Published As

Publication number Publication date
CN111738440B (zh) 2020-11-24

Similar Documents

Publication Publication Date Title
CN111738440B (zh) 一种基于领域自适应与联邦学习的模型训练方法及系统
CN109936525B (zh) 一种基于图结构模型的异常账号防控方法、装置以及设备
CN111046433B (zh) 一种基于联邦学习的模型训练方法
US11809458B2 (en) System and method for providing database abstraction and data linkage
WO2019095782A1 (zh) 一种数据样本标签处理方法及装置
CN105229485B (zh) 多因素位置验证方法
WO2019062697A1 (zh) 虚拟资源分配、模型建立、数据预测方法及装置
US10380590B2 (en) Transaction authentication based on metadata
CN108090916A (zh) 用于跟踪视频中的目标图形的方法和装置
CN109145025A (zh) 一种多数据源集成的数据查询方法、装置及业务服务器
US20200175403A1 (en) Systems and methods for expediting rule-based data processing
US20160171080A1 (en) System and method for enhancing the normalization of parcel data
CN109447635A (zh) 用于区块链的信息存储方法和装置
CN109492891B (zh) 用户流失预测方法及装置
JP6910229B2 (ja) 情報処理装置および信用度算出方法
US20200034867A1 (en) Managing user loyalty groups at point-of-sale accesses
US10742642B2 (en) User authentication based on predictive applications
CN111241107A (zh) 一种业务处理方法、装置、介质和电子设备
CN113033717B (zh) 一种模型生成方法、装置以及用于模型生成的装置
US10003923B2 (en) Location context inference based on user mobile data with uncertainty
US10044823B2 (en) Social content aggregation
CN113722738B (zh) 数据保护方法、装置、介质及电子设备
US20220351069A1 (en) Federated training of machine learning models
US20190272721A1 (en) Systems and methods for providing an electronic line-of-business gateway
US10956690B1 (en) Set-based object management system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant