CN113887743B - 一种联邦学习中数据遗忘与验证的平台 - Google Patents

一种联邦学习中数据遗忘与验证的平台 Download PDF

Info

Publication number
CN113887743B
CN113887743B CN202111167895.4A CN202111167895A CN113887743B CN 113887743 B CN113887743 B CN 113887743B CN 202111167895 A CN202111167895 A CN 202111167895A CN 113887743 B CN113887743 B CN 113887743B
Authority
CN
China
Prior art keywords
forgetting
data
marking
stage
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111167895.4A
Other languages
English (en)
Other versions
CN113887743A (zh
Inventor
王东霞
高向珊
马兴军
孙有程
程鹏
车欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202111167895.4A priority Critical patent/CN113887743B/zh
Publication of CN113887743A publication Critical patent/CN113887743A/zh
Application granted granted Critical
Publication of CN113887743B publication Critical patent/CN113887743B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种联邦学习中数据遗忘与验证的平台,该平台包括联邦遗忘模块、联邦遗忘标记模块、遗忘检查模块以及用于连接三个模块的实际可部署的协议;联邦遗忘标记模块实现基于本地数据子集的遗忘用户的标记;遗忘检查模块定义一个适合评估遗忘情况的指标‑遗忘程度,将遗忘情况数值化,较低的遗忘程度代表了较好的遗忘效果;协议规定了遗忘、标记与检查的时间节点,遗忘、标记与检查的执行者,遗忘、标记与检查的流程,以便于中心服务器执行遗忘和遗忘用户检查是否被遗忘。本发明提出的平台有助于以统一、整体和全面的方式评估联邦学习中的遗忘、标记与检查,能够提供深入的联邦遗忘与验证的分析,并揭示现有遗忘和验证方法的潜力和局限性。

Description

一种联邦学习中数据遗忘与验证的平台
技术领域
本发明涉及联邦学习数据遗忘与验证领域,具体涉及一种联邦学习中数据遗忘与验证的平台。
背景技术
联邦学习是一种新兴的分布式学习框架,可以实现成千上万,甚至数以百万计的大规模分布式合作学习。在联邦学习中数据无需上传到中心服务器,既保证了数据隐私,又缓解了数据孤岛带来的棘手问题。联邦学习现在已经被广泛应用在金融,医疗,保险等隐私敏感领域中。最近,一些严格的数据法案已明确规定了用户享有数据“被遗忘权”,例如通用数据保护法规(GDPR)和加州消费者隐私法(CCPA)等。从隐私和安全的角度来看,遗忘权至关重要。它不仅可以保护单个用户的隐私,及时删除关于该用户的相关记忆,还可以清除在实际的联邦学习部署中某些可能中毒的恶意客户。已经有一些可行的数据遗忘方法,比如重训练,减去重构的遗忘用户模型更新等方法。除了遗忘数据外,还有一个更被关注的问题,即,如何验证我的数据是否如承诺的那样被遗忘。这个问题现在还未引起大家的广泛关注。然而只有解决了遗忘验证的问题,才能增强用户对于整个系统确实执行遗忘操作的信任。
传统的机器学习可以利用在遗忘数据上的准确性验证遗忘成功与否,但这不适用于联邦学习,因为遗忘数据上的性能会因为其他参与者的贡献不会发生显著的变化。已有的通过后门标记遗忘的工作仅适用于传统的机器学习,在那种场景下,模型仅属于个人,引入后门的安全威胁,仅由个人承担,但在联邦学习中,后门带来的安全威胁,将由所有参与者共同承担,因此,设计安全可信的验证方式是十分必要的。总结来说,设计一个联邦学习中数据遗忘与验证的平台,用于以统一、整体和全面的方式评估联邦学习中的遗忘和遗忘验证至关重要。
发明内容
针对现有联邦学习中遗忘与验证工作的匮乏,本发明公开了一种联邦学习中数据遗忘与验证的平台,该平台可以以统一、整体和全面的方式评估联邦学习中的遗忘、标记与检查。
本发明的目的是通过以下技术方案来实现的:一种联邦学习中数据遗忘与验证的平台,包括联邦遗忘模块、联邦遗忘标记模块、遗忘检查模块以及用于连接三个模块的实际可部署的协议;
所述联邦遗忘模块,将遗忘用户的本地模型缩小到α倍,得到缩放模型;
所述联邦遗忘标记模块,实现基于本地数据子集的遗忘用户的标记,得到标记数据集;
所述遗忘检查模块,定义一个全新的适合评估遗忘情况的指标-遗忘程度,综合考虑执行联邦遗忘模块与不执行联邦遗忘模块的结果的距离和相似度,全面评估遗忘情况,并将遗忘情况数值化;
所述协议精确地规定了遗忘、标记与检查的时间节点,遗忘、标记与检查的执行者,遗忘、标记与检查的流程,以便于中心服务器执行遗忘和遗忘用户检查是否被遗忘。
进一步地,所述联邦遗忘模块中,采用一种全新的适合分布式场景中高效的遗忘方式-缩放模型,主要是考虑到缩小本地模型等同于直接缩小本地模型在全局模型中所占权重,直接降低了遗忘用户对全局模型的影响;该遗忘方式几乎可以作用于采用各种聚合方法的联邦学习,比如平均聚合计算所有参与者提交的本地模型更新的加权平均值,如果模型更新缩小α倍,那么遗忘用户模型的权重也缩小α倍,因此遗忘用户对全局模型的影响缩小,有时甚至可以被忽略。对其他拜占庭鲁棒的聚合规则,如中位数,在模型收敛后,所有参与者上传的本地模型更新较小。如果遗忘用户的模型缩小α倍,那么它的模型更新显然偏离了其他用户上传的模型更新,所以不可能被选择作为下一个周期的全局模型,也就是说,遗忘用户上传的模型更新被忽略,它的影响被消除。
进一步地,所述联邦遗忘标记模块中,基于语义数据损失进行遗忘标记,利用在某些高损失,易犯错且带有某种语义特征的数据上的特定表现来标记遗忘用户;包括数据自动筛选阶段、手动筛选阶段、重标记阶段和重训练阶段;
所述数据自动筛选阶段,筛选出本地数据集S中的固定比例的高损失数据集S1(例如将损失值从高到低排序,选择排序前10%的数据);
所述手动筛选阶段,在S1中进一步选择具有普遍分类错误的数据集S2;
所述重标记阶段,根据S2中数据间语义特征的相似性和置信度分布将这些数据重新标记为某个固定类别,得到标记数据集S3;
所述重训练阶段,删除S中的S2,将S3加入到S中得到数据集S4,将本地模型在S4上微调,并将微调后的标记模型上传给中心服务器聚合,生成下一个周期的全局模型。
进一步地,这些高损失且带有某种语义特征的数据是遗忘用户个人私有的,且这种特定的语义和对应的固定类别的组合是唯一属于且可以标记该用户的,并且因为没有引入或生成额外的数据,仅仅是利用了遗忘用户的本地数据,并没有造成任何额外的空间开销。
所述重训练阶段中,标记模型将在重标记阶段中生成的标记数据集上保持较低的损失分布,这是独属于标记模型的特定行为,究其原因,不仅是因为这些标记数据集中的数据选择了合适的定向类别,更是因为,在这些标记数据集上微调了本地模型,使得本地模型得以在标记数据集上维持一个较低的损失。
所述重标记阶段中,只有标记后的本地模型在S3上保持较低的损失,其他用户的模型不具有这样的性质,所以可以通过检查全局模型在S3上的损失来判断是否成功遗忘该用户。
进一步地,所述联邦遗忘标记模块中,基于易遗忘数据子集进行遗忘标记,利用在某些损失变化幅度较大、频率较高的摇摆数据上的特定表现来标记遗忘用户;该方法包括模型微调阶段和数据筛选阶段;
所述模型微调阶段,在本地数据集上微调联邦学习中下发的全局模型,并记录联邦学习过程中每一个本地数据上的损失变化;
所述数据筛选阶段,筛选出本地数据集中固定比例的损失方差较大的数据(例如将数据的损失方差值从高到低排序,选择排序前10%的数据),也即将损失变化较大且较频繁的数据筛选出来组成易遗忘的摇摆数据验证集,这些摇摆数据也被看作是容易遗忘的关键数据。
进一步地,这些易遗忘的摇摆数据是遗忘用户个人私有的,且只有该用户的模型可以在易遗忘的摇摆数据验证集上维持较低的损失方差,这种在该验证集上的特定性能是唯一属于且可以标记该遗忘用户的,并且因为没有引入或生成额外的数据,仅利用了遗忘用户的本地数据,并没有造成额外的空间开销。
所述数据筛选阶段,筛选出本地数据集中的固定比例的损失方差较大的数据,也即将损失变化较大且较频繁的数据筛选出来组成易遗忘的摇摆数据验证集,这些易摇摆数据也被看作是容易遗忘的关键数据,具体表现为:该数据在前后两个相邻周期上的损失相差较大,通过记录每条数据在本地模型微调过程中损失的变化来找到本地损失方差较大的数据;这些易摇摆数据可以很好地标记本地模型,遗忘掉该用户的全局模型在这些易遗忘的摇摆数据验证集上的表现与没有遗忘时有较明显的区别。
所述模型微调阶段中的微调后的模型,即标记模型在所述数据筛选阶段中生成的易遗忘的摇摆数据验证集上保持较小的损失方差,这是独属于标记模型的特定行为,究其原因,标记模型已经在这些易遗忘的摇摆数据验证集上微调过,可以保持较小的损失和损失方差。
进一步地,所述遗忘检查模块中,定义一个全新的适合评估遗忘情况的指标-遗忘程度,该指标综合考虑了距离和相似度两个重要指标,全面评估遗忘情况,并将遗忘情况数值化,公式如下:
Figure BDA0003286903970000041
其中p=[p1,p2,…,ps]代表中心服务器没有执行主动遗忘,在检查阶段时标记数据集上的结果,q=[q1,q2,…,qs]代表中心服务器执行主动遗忘之后,在检查阶段时标记数据集上的结果,S代表验证的轮次,第一项衡量有无主动遗忘方法的结果的相似性,第二项衡量有无主动遗忘方法的结果的正则化欧式距离,μ是权重常数,平衡距离和相似度。较低的遗忘程度代表了较好的遗忘效果,因为一个理想的遗忘方式会削弱有无主动遗忘方法时标记数据集上结果的相似性并加大有无主动遗忘方法时标记数据集上结果的距离。
进一步地,所述协议的实现包括以下步骤:
步骤一,在联邦学习的初始时刻,中心服务器保存初始全局模型以备遗忘需要。
步骤二,在联邦学习全局模型未收敛时,所有用户正常参与联邦学习,这个阶段不会响应任何的遗忘请求。这个阶段也叫做自由阶段,用户可以随意参与或退出,中心服务器不提供遗忘、标记与检查的功能。因为在这个阶段,下一个周期的模型训练更新将会覆盖之前参与者贡献的模型。
步骤三,当全局模型收敛后,中心服务器开始允许执行遗忘操作:中心服务器收集并保存每个周期参与者的ID和全局模型。所有参与者在无遗忘请求提出时,依然正常参与联邦学习。收敛后的阶段也叫做丰收阶段,在这个阶段较少的贡献会有较大的收益,用户上传的是与个人隐私数据关联比较紧密的模型,而必要的遗忘操作可以有效避免侵犯用户的数据遗忘权。
步骤四,在某个时间点t1,某用户提出退出联邦学习,并上报t1给中心服务器,提醒中心服务器做好准备,为了方便接下来检查遗忘情况,该用户会选择一些标记方法来标记本地模型,并形成相应的标记数据集,然后将标记后的本地模型更新上传给中心服务器,同时,将标记结束的时间t2也上传给中心服务器。在这个标记阶段没有退出需求的其他用户依然正常参与联邦学习,并且这个阶段的每个周期参与者的ID和全局模型也被存储下来。
步骤五,在标记过程结束后,所有参与联邦学习的用户正常参与联邦学习。在遗忘阶段,中心服务器发起遗忘操作,具体表现为中心服务器在这个阶段收到的所有参与者上传的本地模型更新上执行遗忘操作,并聚合遗忘操作后的模型以更新全局模型。中心服务器关闭待退出联邦学习的用户上传更新的通道,避免再次接收到该用户上传的模型更新。当中心服务器完成遗忘时,将通知遗忘用户开始检查。在这个阶段没有退出需求的其他用户依然正常参与联邦学习。
步骤六,遗忘用户检查退出联邦学习之后中心服务器每轮公开下发的全局模型,并在相应的标记数据集上检查该模型,以确定遗忘的真实情况。当检查结果达到预期时,用户就可以没有隐私泄露的担忧从而彻底退出联邦学习。在这个过程中,其他参与联邦学习的用户正常参与联邦学习。
代表本发明的有益技术效果是:本发明针对目前联邦学习中缺乏可信可靠可行的遗忘、标记与检查方式设计了一种联邦学习中数据遗忘与验证的平台,综合系统地评估和揭示了已有的遗忘与验证方法的问题,提供了可以以统一、整体和全面的方式评估联邦学习中的遗忘、标记与检查的平台。
附图说明
图1是本发明的框架示意图;
图2是本发明协议的流程示意图。
具体实施方式
下面结合附图以及实施例对本发明作进一步详细说明。
如图1所示描述了一种联邦学习中数据遗忘与验证的平台,该平台可以以统一、整体和全面的方式评估联邦学习中的遗忘、标记与检查;该平台包括联邦遗忘模块、联邦遗忘标记模块、遗忘检查模块以及用于连接三个模块的实际可部署的协议。
联邦遗忘模块:将遗忘用户的本地模型缩小到α倍,得到缩放模型。
联邦遗忘标记模块:实现基于本地数据子集的遗忘用户的标记,得到标记数据集。
遗忘检查模块:定义一个全新的适合评估遗忘情况的指标-遗忘程度,综合考虑执行联邦遗忘模块与不执行联邦遗忘模块的结果的距离和相似度,全面评估遗忘情况,并将遗忘情况数值化。
协议:精确地规定了遗忘、标记与检查的时间节点,遗忘、标记与检查的执行者,遗忘、标记与检查的流程,以便于中心服务器执行遗忘和遗忘用户检查是否被遗忘。
如图2介绍了实际可部署的协议实现流程图,该协议的实现包括以下步骤:
步骤一,在联邦学习的初始时刻,中心服务器保存初始全局模型以备遗忘需要。
步骤二,在联邦学习全局模型未收敛时,所有用户正常参与联邦学习,这个阶段不会响应任何的遗忘请求。这个阶段也叫做自由阶段,用户可以随意参与或退出,中心服务器不提供遗忘、标记与检查的功能。因为在这个阶段,下一个周期的模型训练更新将会覆盖之前参与者贡献的模型。
步骤三,当全局模型收敛后,中心服务器开始允许执行遗忘操作:中心服务器收集并保存每个周期参与者的ID和全局模型。所有参与者在无遗忘请求提出时,依然正常参与联邦学习。收敛后的阶段也叫做丰收阶段,在这个阶段较少的贡献会有较大的收益,用户上传的是与个人隐私数据关联比较紧密的模型,而必要的遗忘操作可以有效避免侵犯用户的数据遗忘权。
步骤四,在某个时间点t1,某用户提出退出联邦学习,并上报t1给中心服务器,提醒中心服务器做好准备,为了方便接下来检查遗忘情况,该用户会选择一些标记方法来标记本地模型,并形成相应的标记数据集,然后将标记后的本地模型更新上传给中心服务器,同时,将标记结束的时间t2也上传给中心服务器。在这个标记阶段没有退出需求的其他用户依然正常参与联邦学习,并且这个阶段的每个周期参与者的ID和全局模型也被存储下来。
步骤五,在标记过程结束后,所有参与联邦学习的用户正常参与联邦学习。在遗忘阶段,中心服务器发起遗忘操作,具体表现为中心服务器在这个阶段收到的所有参与者上传的本地模型更新上执行遗忘操作,并聚合遗忘操作后的模型以更新全局模型。中心服务器关闭待退出联邦学习的用户上传更新的通道,避免再次接收到该用户上传的模型更新。当中心服务器完成遗忘时,将通知遗忘用户开始检查。在这个阶段没有退出需求的其他用户依然正常参与联邦学习。
步骤六,遗忘用户检查退出联邦学习之后中心服务器每轮公开下发的全局模型,并在相应的标记数据集上检查该模型,以确定遗忘的真实情况。当检查结果达到预期时,用户就可以没有隐私泄露的担忧从而彻底退出联邦学习。在这个过程中,其他参与联邦学习的用户正常参与联邦学习。
以上所述仅是本发明的优选实施方式,虽然本发明已以较佳实施例披露如上,然而并非用以限定本发明。任何熟悉本领域的技术人员,在不脱离本发明技术方案范围情况下,都可利用上述揭示的方法和技术内容对本发明技术方案做出许多可能的变动和修饰,或修改为等同变化的等效实施例。因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何的简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。

Claims (6)

1.一种联邦学习中数据遗忘与验证的平台,其特征在于,所述平台包括联邦遗忘模块、联邦遗忘标记模块、遗忘检查模块以及用于连接三个模块的实际可部署的协议;
所述联邦遗忘模块,将遗忘用户的本地模型缩小到α倍,得到缩放模型;
所述联邦遗忘标记模块,实现基于本地数据子集的遗忘用户的标记,得到标记数据集;
所述遗忘检查模块,定义一个适合评估遗忘情况的指标-遗忘程度,综合考虑执行联邦遗忘模块与不执行联邦遗忘模块的结果的距离和相似度,全面评估遗忘情况,并将遗忘情况数值化;
所述协议精确地规定了遗忘、标记与检查的时间节点,遗忘、标记与检查的执行者,遗忘、标记与检查的流程,以便于中心服务器执行遗忘和遗忘用户检查是否被遗忘。
2.根据权利要求1所述的一种联邦学习中数据遗忘与验证的平台,其特征在于,所述联邦遗忘模块中,采用一种适合分布式场景的遗忘方式-缩放模型。
3.根据权利要求1所述的一种联邦学习中数据遗忘与验证的平台,其特征在于,所述联邦遗忘标记模块中,基于语义数据损失进行遗忘标记,利用在某些高损失,易犯错且带有某种语义特征的数据上的特定表现来标记遗忘用户;包括数据自动筛选阶段、手动筛选阶段、重标记阶段和重训练阶段;
所述数据自动筛选阶段,筛选出本地数据集S中的固定比例的高损失数据集S1;
所述手动筛选阶段,在S1中选择具有普遍分类错误的数据集S2;
所述重标记阶段,根据S2中数据间语义特征的相似性和置信度分布将这些数据重新标记为某个固定类别,得到标记数据集S3;
所述重训练阶段,删除S中的S2,将S3加入到S中得到数据集S4,将本地模型在S4上微调,并将微调后的标记模型上传给中心服务器聚合,生成下一个周期的全局模型。
4.根据权利要求1所述的一种联邦学习中数据遗忘与验证的平台,其特征在于,所述联邦遗忘标记模块中,基于易遗忘数据子集进行遗忘标记,利用在某些损失变化幅度较大、频率较高的摇摆数据上的特定表现来标记遗忘用户;包括模型微调阶段和数据筛选阶段;
所述模型微调阶段,在本地数据集上微调联邦学习中下发的全局模型,并记录联邦学习过程中每一个本地数据上的损失变化;
所述数据筛选阶段,筛选出本地数据集中固定比例的损失方差较大的数据,组成易遗忘的摇摆数据验证集。
5.根据权利要求1所述的一种联邦学习中数据遗忘与验证的平台,其特征在于,所述遗忘检查模块中,将遗忘情况数值化,较低的遗忘程度代表了较好的遗忘效果。
6.根据权利要求1所述的一种联邦学习中数据遗忘与验证的平台,其特征在于,所述协议的实现包括以下步骤:
步骤一,在联邦学习的初始时刻,中心服务器保存初始全局模型以备遗忘需要;
步骤二,在联邦学习全局模型未收敛时,所有用户正常参与联邦学习,这个阶段不会响应任何的遗忘请求;这个阶段也叫做自由阶段,用户可以随意参与或退出,中心服务器不提供遗忘、标记与检查的功能;因为在这个阶段,下一个周期的模型训练更新将会覆盖之前参与者贡献的模型;
步骤三,当全局模型收敛后,中心服务器开始允许执行遗忘操作:中心服务器收集并保存每个周期参与者的ID和全局模型;所有参与者在无遗忘请求提出时,依然正常参与联邦学习;收敛后的阶段也叫做丰收阶段,在这个阶段较少的贡献会有较大的收益,用户上传的是与个人隐私数据关联比较紧密的模型,而必要的遗忘操作可以有效避免侵犯用户的数据遗忘权;
步骤四,在某个时间点t1,某用户提出退出联邦学习,并上报t1给中心服务器,提醒中心服务器做好准备,为了方便接下来检查遗忘情况,该用户会选择一些标记方法来标记本地模型,并形成相应的标记数据集,然后将标记后的本地模型更新上传给中心服务器,同时,将标记结束的时间t2也上传给中心服务器;在这个标记阶段没有退出需求的其他用户依然正常参与联邦学习,并且这个阶段的每个周期参与者的ID和全局模型也被存储下来;
步骤五,在标记过程结束后,所有参与联邦学习的用户正常参与联邦学习;在遗忘阶段,中心服务器发起遗忘操作,具体表现为中心服务器在这个阶段收到的所有参与者上传的本地模型更新上执行遗忘操作,并聚合遗忘操作后的模型以更新全局模型;中心服务器关闭待退出联邦学习的用户上传更新的通道,避免再次接收到该用户上传的模型更新;当中心服务器完成遗忘时,将通知遗忘用户开始检查;在这个阶段没有退出需求的其他用户依然正常参与联邦学习;
步骤六,遗忘用户检查退出联邦学习之后中心服务器每轮公开下发的全局模型,并在相应的标记数据集上检查该模型,以确定遗忘的真实情况;当检查结果达到预期时,用户就可以没有隐私泄露的担忧从而彻底退出联邦学习;在这个过程中,其他参与联邦学习的用户正常参与联邦学习。
CN202111167895.4A 2021-09-29 2021-09-29 一种联邦学习中数据遗忘与验证的平台 Active CN113887743B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111167895.4A CN113887743B (zh) 2021-09-29 2021-09-29 一种联邦学习中数据遗忘与验证的平台

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111167895.4A CN113887743B (zh) 2021-09-29 2021-09-29 一种联邦学习中数据遗忘与验证的平台

Publications (2)

Publication Number Publication Date
CN113887743A CN113887743A (zh) 2022-01-04
CN113887743B true CN113887743B (zh) 2022-07-22

Family

ID=79005323

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111167895.4A Active CN113887743B (zh) 2021-09-29 2021-09-29 一种联邦学习中数据遗忘与验证的平台

Country Status (1)

Country Link
CN (1) CN113887743B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091200A (zh) * 2019-12-20 2020-05-01 深圳前海微众银行股份有限公司 训练模型的更新方法、系统、智能体、服务器及存储介质
CN112732297A (zh) * 2020-12-31 2021-04-30 平安科技(深圳)有限公司 联邦学习模型的更新方法、装置、电子设备及存储介质
CN113177630A (zh) * 2021-04-13 2021-07-27 中国科学院信息工程研究所 一种针对深度学习模型的数据记忆消除方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110378488B (zh) * 2019-07-22 2024-04-26 深圳前海微众银行股份有限公司 客户端变化的联邦训练方法、装置、训练终端及存储介质
CN112181666B (zh) * 2020-10-26 2023-09-01 华侨大学 一种基于边缘智能的设备评估和联邦学习重要性聚合方法
CN112506753B (zh) * 2020-12-14 2022-06-28 德清阿尔法创新研究院 一种联邦学习场景中高效的贡献评估方法
CN113342418B (zh) * 2021-06-24 2022-11-22 国网黑龙江省电力有限公司 基于区块链的分布式机器学习任务卸载方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091200A (zh) * 2019-12-20 2020-05-01 深圳前海微众银行股份有限公司 训练模型的更新方法、系统、智能体、服务器及存储介质
CN112732297A (zh) * 2020-12-31 2021-04-30 平安科技(深圳)有限公司 联邦学习模型的更新方法、装置、电子设备及存储介质
CN113177630A (zh) * 2021-04-13 2021-07-27 中国科学院信息工程研究所 一种针对深度学习模型的数据记忆消除方法和装置

Also Published As

Publication number Publication date
CN113887743A (zh) 2022-01-04

Similar Documents

Publication Publication Date Title
US20220012672A1 (en) Systems and methods for score genration for applicant tracking
CN109857835B (zh) 一种基于认知诊断理论的自适应网络安全知识测评方法
WO2020082579A1 (zh) 一种风险审批方法、装置、存储介质和服务器
Xiao et al. Towards confidence in the truth: A bootstrapping based truth discovery approach
US20080066071A1 (en) Capturing effort level by task upon check-in to source control management system
CN103902742B (zh) 一种基于大数据的访问控制判定引擎优化系统及方法
CN109829721B (zh) 基于异质网络表征学习的线上交易多主体行为建模方法
CN113722301A (zh) 基于教育信息的大数据处理方法、装置及系统、存储介质
CN109753783A (zh) 一种基于机器学习的单点登录方法、装置及计算机可读存储介质
WO2021139493A1 (zh) 基于机器学习的访客身份认证方法、装置及计算机设备
CN112365007A (zh) 模型参数确定方法、装置、设备及存储介质
CN114090985A (zh) 区块链中用户操作权限的设置方法、装置和电子设备
CN113887743B (zh) 一种联邦学习中数据遗忘与验证的平台
Zou et al. Factual observation based heterogeneity learning for counterfactual prediction
WO2020093817A1 (zh) 一种核身方法及装置
US20240161109A1 (en) Distributed evaluation platform for nonfungible tokens using virtual token cloning
CN115577983B (zh) 基于区块链的企业任务匹配方法、服务器及存储介质
CN108764533B (zh) 基于虹膜识别的预测迟到概率的学校考勤系统及方法
CN111277433A (zh) 基于属性网络表征学习的网络服务异常检测方法及装置
CN114697127B (zh) 一种基于云计算的业务会话风险处理方法及服务器
Sun et al. Analysis of large unreliable stochastic networks
CN113792114A (zh) 一种城市领域知识图谱可信评估方法及系统
CN110738165A (zh) 一种高斯混合模型下的宿舍聚类管理方法和系统
Lee et al. Nonparametric inference for distributional treatment effects in instrumental variable models
Yu et al. Missing data processing based on deep neural network enhanced by k-means

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant