CN112990478A - 联邦学习数据处理系统 - Google Patents

联邦学习数据处理系统 Download PDF

Info

Publication number
CN112990478A
CN112990478A CN202110199413.7A CN202110199413A CN112990478A CN 112990478 A CN112990478 A CN 112990478A CN 202110199413 A CN202110199413 A CN 202110199413A CN 112990478 A CN112990478 A CN 112990478A
Authority
CN
China
Prior art keywords
participant
training
node
round
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110199413.7A
Other languages
English (en)
Other versions
CN112990478B (zh
Inventor
蔡文渊
骆绪锐
顾海林
王中义
贲利华
徐林昊
孙嘉
袁国玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Hipu Intelligent Information Technology Co ltd
Original Assignee
Shanghai Hipu Intelligent Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Hipu Intelligent Information Technology Co ltd filed Critical Shanghai Hipu Intelligent Information Technology Co ltd
Priority to CN202110199413.7A priority Critical patent/CN112990478B/zh
Publication of CN112990478A publication Critical patent/CN112990478A/zh
Application granted granted Critical
Publication of CN112990478B publication Critical patent/CN112990478B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及一种联邦学习数据处理系统,实现步骤S1、接收获取参与方对联邦学习的表现程度指令,并解析出预设轮次M值;步骤S2、从数据库获取当前时刻前预设M轮训练轮次中,每轮次每一参与方节点的的第一贡献度Cj(i);步骤S3、若M=1,则将距离当前时刻最近一轮次的每一参与方节点的第一贡献度确定为目标贡献度VL(i),否则,执行步骤S4;步骤S4、基于Cj(i)获取每一参与方节点每一轮时对联邦学习的第二贡献度Vj(i),将当前时刻前预设M轮的第二贡献度Vj(i)的平均值确定为目标贡献度VL(i);步骤S5、基于VL(i)确定参与方节点在当前时刻前预设M轮训练轮次中对联邦学习的表现权重。本发明能够快速准确地获取联邦学习过程中每一参与方对联邦学习的表现程度。

Description

联邦学习数据处理系统
技术领域
本发明涉及计算机技术领域,尤其涉及一种联邦学习数据处理系统。
背景技术
目前,联邦学习框架是一种分布式的人工智能模型训练框架,可以使多个参与方在保护数据隐私、满足合法合规要求的前提下进行机器学习,打破数据孤岛现象。联邦学习框架为不同参与方的数据,提供了一个好的数据价值挖掘平台。通过联邦学习得到的联邦模型,可以比单独任何一个公司仅靠自己的数据训练的模型效果更好。
在联邦学习框架中,每个参与方都是重要的组成部分,它们对最终训练联邦模型的好坏均有影响,有的参与方有助于提升最终模型表现,有的则降低最终模型表现。在整个联邦学习的过程中,如能够获取每一参与方对联邦模型训练的表现程度,则可以基于此对各参与方制定相应的激励策略,从而使得各参与方能够更加有效合理地参与到联邦学习中。由此可知,如何能够快速准确地获取联邦学习过程中每一参与方对联邦学习的表现程度,成为亟待解决的技术问题。
发明内容
本发明目的在于,提供一种联邦学习数据处理系统,能够快速准确地获取联邦学习过程中每一参与方对联邦学习的表现程度。
根据本发明一方面,提供了一种联邦学习数据处理系统,包括中心节点和N个参与方节点,所述中心节点维护全局模型,所述参与方节点维护参与方对应的本地模型,所述中心节点中包括数据库、处理器和存储有计算机程序的存储器,其中,所述数据库用于存储参与方贡献记录,所述参与方贡献记录的字段包括参与方节点id,训练轮次和第一贡献度,所述第一贡献度为参与方节点对本轮联邦模型训练的贡献度,所述处理器执行所述计算机程序实现以下步骤:
步骤S1、接收获取参与方对联邦学习的表现程度指令,并从中解析出预设轮次M值,M为正整数;
步骤S2、从所述数据库获取当前时刻前预设M轮训练轮次中,每轮次每一参与方节点的对每轮训练的第一贡献度Cj(i),i的取值为1到N,j的取值为1到M;
步骤S3、若M=1,则将距离当前时刻最近一轮次的每一参与方节点的对该轮训练的第一贡献度确定为该参与方节点在当前时刻前M轮训练过程中的目标贡献度VL(i),i的取值为1到N,并执行步骤S5,否则,执行步骤S4;
步骤S4、基于Cj(i)获取每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的第二贡献度Vj(i),i的取值为1到N,j的取值为1到M,将每一参与方节点当前时刻前预设M轮的第二贡献度Vj(i)的平均值确定为该参与方节点在当前时刻前M轮训练过程中的目标贡献度VL(i);
步骤S5、基于VL(i)确定每一参与方节点在当前时刻前预设M轮训练轮次中对联邦学习的表现权重:
Figure BDA0002947573570000021
其中,参与节点的表现权重越大,参与方节点在当前时刻前预设M轮训练轮次中对联邦学习的表现越好。
本发明与现有技术相比具有明显的优点和有益效果。借由上述技术方案,本发明提供的一种联邦学习数据处理系统可达到相当的技术进步性及实用性,并具有产业上的广泛利用价值,其至少具有下列优点:
本发明能够快速准确地获取联邦学习过程中每一参与方对联邦学习的表现程度。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本发明实施例提供的联邦学习数据处理系统示意图。
具体实施方式
为更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种联邦学习数据处理系统的具体实施方式及其功效,详细说明如后。
本发明实施例提供了一种联邦学习数据处理系统,如图1所示,包括中心节点和N个参与方节点,所述中心节点维护全局模型,所述参与方节点维护参与方对应的本地模型,每轮训练中,所述中心节点向每一参与方节点发送当前模型参数,每一参与方节点基于参与方节点的训练数据对本地模型进行训练,当本地模型训练收敛后,通过网络向中心点上传模型更新数据。本发明实施例中,所述中心节点中包括数据库、处理器和存储有计算机程序的存储器,其中,所述数据库用于存储参与方贡献记录,所述参与方贡献记录的字段包括参与方节点id,训练轮次和第一贡献度,所述第一贡献度为参与方节点对本轮联邦模型训练的贡献度,所述处理器执行所述计算机程序实现以下步骤:
步骤S1、接收获取参与方对联邦学习的表现程度指令,并从中解析出预设轮次M值,M为正整数,M的大小与数据处理量正相关,与所获取的表现程度的精确度负相关;
可以理解的是,M取值越大,数据处理过程中所需要的数据处理量越大,所需要的计算资源越多,最后获取的参与方节点的表现程度的精确度越高。M值具体可根据当前联邦学习训练总伦次、所能提供的计算资源以及所需获取的表现程度的精确度的大小等参数综合设定。
步骤S2、从所述数据库获取当前时刻前预设M轮训练轮次中,每轮次每一参与方节点的对每轮训练的第一贡献度Cj(i),i的取值为1到N,j的取值为1到M;
可以理解的是,所述数据库中的参与方贡献记录随着联邦学习的模型训练过程实时更新,因此每轮次每一参与方节点的对每轮训练的第一贡献度Cj(i)均可直接从所述数据库中获取。
步骤S3、若M=1,则将距离当前时刻最近一轮次的每一参与方节点的对该轮训练的第一贡献度确定为该参与方节点在当前时刻前M轮训练过程中的目标贡献度VL(i),i的取值为1到N,并执行步骤S5,否则,执行步骤S4;
可以理解的是,当前时刻指的是接收获取参与方对联邦学习的表现程度指令的时间,也可以是获取参与方对联邦学习的表现程度指令中所指定的时间。当仅需要获取一个轮次中每一参与方对联邦学习的表现程度时,直接将该伦次的第一贡献度作为该伦次参与方节点的在当前时刻前M轮训练过程中的目标贡献度。但可以理解的是,一个轮次所得到的每一参与方对联邦学习的表现程度的结果精确度较低,但计算量小,计算效率高。如果对每一参与方对联邦学习的表现程度需要更高的精确度,可以将M的值设置更大些,例如设置为20轮次,则后续基于当前时刻已训练好的最近的20轮次的数据,来获取每一参与方对联邦学习的表现程度。
步骤S4、基于Cj(i)获取每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的第二贡献度Vj(i),i的取值为1到N,j的取值为1到M,将每一参与方节点当前时刻前预设M轮的第二贡献度Vj(i)的平均值确定为该参与方节点在当前时刻前M轮训练过程中的目标贡献度VL(i);
其中,所述前预设M轮,指的就是距离当前时刻最近的M轮。
步骤S5、基于VL(i)确定每一参与方节点在当前时刻前预设M轮训练轮次中对联邦学习的表现权重:
Figure BDA0002947573570000051
其中,参与节点的表现权重越大,参与方节点在当前时刻前预设M轮训练轮次中对联邦学习的表现越好,对全局模型训练的贡献也越大。
根据本发明实施例所述系统,可以物理实现为一个服务器,也可以实现为包括多个服务器的服务器群组。本领域技术人员知晓,服务器和的型号、规格等参数并不影响本发明的保护范围。
本发明实施例可以根据用户自己的需求来设定M值,并能够快速准确地获取联邦学习过程中举例当前时刻的前M轮次充,每一参与方对联邦学习的表现程度,中心节点可以基于此对参与方节点设置对应的奖惩制度,以合理激励参与方节点更加合理有效地参与到联邦学习中。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时处理可以被终止,但是还可以具有未包括在附图中的附加步骤。处理可以对应于方法、函数、规程、子例程、子程序等等。
作为一种实施例,所述步骤S4中,所述基于Cj(i)获取每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的第二贡献度Vj(i),包括:
步骤S41、将每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的初始第二贡献度V0j(i)均设置为0,循环次数t初始值设置为1;
步骤S42、基于Cj(i)计算在第t轮循环中每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的第t轮第二贡献度:
Vtj(i)=Cj(i)+γV(t-1)(j+1)(i)
其中,i从1开始取到N,j从1开始取到M,γ为预设的第一系数,所述第一系数用于表示下一轮次的第二贡献度对本轮次第二贡献度的影响,V(t-1)(M+1)(i)=0,所述第一系数γ的取值范围设置为[0,1];
其中,γ取值越大,说明考虑将来训练数据对当前训练轮次对联邦学习表现程度的影响越大,例如,可以设置为0.1,γ的具体数值可以根据具体的应用场景和应用需求来设定。
步骤S43、获取|Vtj(i)-V(t-1)j(i)|并判断|Vtj(i)-V(t-1)j(i)|是否小于预设的第一阈值e1,若是,则将当前第t轮循环中获取的Vtj(i)确定为每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的第二贡献度Vj(i),否则,将t=t+1,返回步骤S42,其中,e1>0,e1的大小与所需数据处理量正相关,与数据处理精确度负相关。
其中,通过判断|Vtj(i)-V(t-1)j(i)|是否小于预设的第一阈值e1可以判断计算过程是否收敛,通过多轮循环,能够提高计算得到的Vj(i)的准确度,进而提高获取参与方节点对联邦学习表现程度的准确度。
可以理解的是,e1取值越大,数据处理过程中所需要的数据处理量越大,所需要的计算资源越多,最后获取的参与方节点的表现程度的精确度越高。e1值具体可根据所能提供的计算资源以及所需获取的表现程度的精确度的大小等参数综合设定。优选的,e1和M的取值可以共同参考当前联邦学习训练总伦次、所能提供的计算资源以及所需获取的表现程度的精确度的大小等参数综合设定。作为一种实施例,所述第一阈值e1的取值可以设置为0.01,M取值为20轮。
通过步骤S41-步骤S43的运算,综合考虑了每一参与方本地模型当前轮次、过去轮次以及将来训练轮次对全局模型的影响,提高了获取Vj(i)的准确度,进而提高了获取参与方节点对联邦学习表现程度的准确度。
作为一种实施例,所述中心节点还包括预设的验证数据集,所述处理器执行所述计算机程序实现以下步骤:
步骤S10、在每一训练轮次中,当所述中心节点接收到每一参与方节点上传的模型更新参数,从所述验证数据集中选择验证数据并发送给每一参与方节点;
步骤S11、接收每一参与方节点基于所述验证数据参与方节点本地模型上进行验证所生成的本轮本地模型准确率;
其中,每一参与方节点接收到中心节点发送的验证数据后,输入本地模型中,得到预测结果,基于预测结果和验证数据中的实际结果可计算得到本轮本地模型准确率。
步骤S12、将每一参与方节点的本轮本地模型准确率确定为本轮对应的第一贡献度并对应更新至所述数据库中。
通过步骤S10-步骤S12可以实现数据库基于联邦学习训练过程的动态更新。
作为一种实施例,所述处理器执行所述计算机程序实现以下步骤:
步骤S100、在每一训练轮次中,将每一参与方节点对应的第一贡献度与预设的第二阈值e2相比较,将第一贡献度大于所述第二阈值的参与方节点上传的模型更新参数作为本轮联邦学习模型更新参数来更新全局模型。
作为一种实施例,所述第二阈值e2的取值范围为[0,1],例如,所述第二阈值e2的取值可以设置为0.7。
通过步骤S100可以在每轮训练中,筛选高质量的模型更新数据,并基于高质量的模型更新数据更新全局模型,提高全局模型的质量。当全局模型趋于稳定时,结束联邦学习,否则,中心节点继续基于网络向每一参与节点发送全局模型,重复迭代,直至全局模型趋于稳定。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (8)

1.一种联邦学习数据处理系统,其特征在于,
包括中心节点和N个参与方节点,所述中心节点维护全局模型,所述参与方节点维护参与方对应的本地模型,所述中心节点中包括数据库、处理器和存储有计算机程序的存储器,其中,所述数据库用于存储参与方贡献记录,所述参与方贡献记录的字段包括参与方节点id,训练轮次和第一贡献度,所述第一贡献度为参与方节点对本轮联邦模型训练的贡献度,所述处理器执行所述计算机程序实现以下步骤:
步骤S1、接收获取参与方对联邦学习的表现程度指令,并从中解析出预设轮次M值,M为正整数;
步骤S2、从所述数据库获取当前时刻前预设M轮训练轮次中,每轮次每一参与方节点的对每轮训练的第一贡献度Cj(i),i的取值为1到N,j的取值为1到M;
步骤S3、若M=1,则将距离当前时刻最近一轮次的每一参与方节点的对该轮训练的第一贡献度确定为该参与方节点在当前时刻前M轮训练过程中的目标贡献度VL(i),i的取值为1到N,并执行步骤S5,否则,执行步骤S4;
步骤S4、基于Cj(i)获取每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的第二贡献度Vj(i),i的取值为1到N,j的取值为1到M,将每一参与方节点当前时刻前预设M轮的第二贡献度Vj(i)的平均值确定为该参与方节点在当前时刻前M轮训练过程中的目标贡献度VL(i);
步骤S5、基于VL(i)确定每一参与方节点在当前时刻前预设M轮训练轮次中对联邦学习的表现权重:
Figure FDA0002947573560000011
其中,参与节点的表现权重越大,参与方节点在当前时刻前预设M轮训练轮次中对联邦学习的表现越好。
2.根据权利要求1所述的系统,其特征在于,
所述步骤S4中,所述基于Cj(i)获取每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的第二贡献度Vj(i),包括:
步骤S41、将每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的初始第二贡献度V0j(i)均设置为0,循环次数t初始值设置为1;
步骤S42、基于Cj(i)计算在第t轮循环中每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的第t轮第二贡献度:
Vtj(i)=Cj(i)+γV(t-1)(j+1)(i)
其中,i从1开始取到N,j从1开始取到M,γ为预设的第一系数,所述第一系数用于表示下一轮次的第二贡献度对本轮次第二贡献度的影响,V(t-1)(M+1)(i)=0;
步骤S43、获取|Vtj(i)-V(t-1)j(i)|并判断|Vtj(i)-V(t-1)j(i)|是否小于预设的第一阈值e1,若是,则将当前第t轮循环中获取的Vtj(i)确定为每一参与方节点训练至前预设M轮训练轮次中每一轮时对联邦学习的第二贡献度Vj(i),否则,将t=t+1,返回步骤S42,其中,e1>0,e1的大小与所需数据处理量正相关,与数据处理精确度负相关。
3.根据权利要求2所述的系统,其特征在于,
所述第一系数γ的取值范围为[0,1]。
4.根据权利要求2所述的系统,其特征在于,
所述第一阈值e1的取值为0.01。
5.根据权利要求1或2所述的系统,其特征在于,
所述中心节点还包括预设的验证数据集,所述处理器执行所述计算机程序实现以下步骤:
步骤S10、在每一训练轮次中,当所述中心节点接收到每一参与方节点上传的模型更新参数,从所述验证数据集中选择验证数据并发送给每一参与方节点;
步骤S11、接收每一参与方节点基于所述验证数据参与方节点本地模型上进行验证所生成的本轮本地模型准确率;
步骤S12、将每一参与方节点的本轮本地模型准确率确定为本轮对应的第一贡献度并对应更新至所述数据库中。
6.根据权利要求5所述的系统,其特征在于,
所述处理器执行所述计算机程序实现以下步骤:
步骤S100、在每一训练轮次中,将每一参与方节点对应的第一贡献度与预设的第二阈值e2相比较,将第一贡献度大于所述第二阈值的参与方节点上传的模型更新参数作为本轮联邦学习模型更新参数来更新全局模型。
7.根据权利要求6所述的系统,其特征在于,
所述第二阈值e2的取值范围为[0,1]。
8.根据权利要求6所述的系统,其特征在于,
所述第二阈值e2的取值为0.7。
CN202110199413.7A 2021-02-22 2021-02-22 联邦学习数据处理系统 Active CN112990478B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110199413.7A CN112990478B (zh) 2021-02-22 2021-02-22 联邦学习数据处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110199413.7A CN112990478B (zh) 2021-02-22 2021-02-22 联邦学习数据处理系统

Publications (2)

Publication Number Publication Date
CN112990478A true CN112990478A (zh) 2021-06-18
CN112990478B CN112990478B (zh) 2022-08-26

Family

ID=76349510

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110199413.7A Active CN112990478B (zh) 2021-02-22 2021-02-22 联邦学习数据处理系统

Country Status (1)

Country Link
CN (1) CN112990478B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657996A (zh) * 2021-08-26 2021-11-16 深圳市洞见智慧科技有限公司 一种联邦学习中特征贡献度的确定方法、装置及电子设备
CN114819183A (zh) * 2022-04-15 2022-07-29 支付宝(杭州)信息技术有限公司 基于联邦学习的模型梯度确认方法、装置、设备及介质
WO2023082787A1 (zh) * 2021-11-10 2023-05-19 新智我来网络科技有限公司 联合学习中确定参与方贡献度的方法、联合学习训练方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109167695A (zh) * 2018-10-26 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的联盟网络构建方法、设备及可读存储介质
US20200258006A1 (en) * 2017-11-07 2020-08-13 Huawei Technologies Co., Ltd. Prediction method, terminal, and server
CN111698322A (zh) * 2020-06-11 2020-09-22 福州数据技术研究院有限公司 一种基于区块链和联邦学习的医疗数据安全共享方法
CN111931242A (zh) * 2020-09-30 2020-11-13 国网浙江省电力有限公司电力科学研究院 一种数据共享方法以及应用其的计算机设备及可读存储介质
CN112100295A (zh) * 2020-10-12 2020-12-18 平安科技(深圳)有限公司 基于联邦学习的用户数据分类方法、装置、设备及介质
CN112257063A (zh) * 2020-10-19 2021-01-22 上海交通大学 一种基于合作博弈论的联邦学习中后门攻击的检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200258006A1 (en) * 2017-11-07 2020-08-13 Huawei Technologies Co., Ltd. Prediction method, terminal, and server
CN109167695A (zh) * 2018-10-26 2019-01-08 深圳前海微众银行股份有限公司 基于联邦学习的联盟网络构建方法、设备及可读存储介质
CN111698322A (zh) * 2020-06-11 2020-09-22 福州数据技术研究院有限公司 一种基于区块链和联邦学习的医疗数据安全共享方法
CN111931242A (zh) * 2020-09-30 2020-11-13 国网浙江省电力有限公司电力科学研究院 一种数据共享方法以及应用其的计算机设备及可读存储介质
CN112100295A (zh) * 2020-10-12 2020-12-18 平安科技(深圳)有限公司 基于联邦学习的用户数据分类方法、装置、设备及介质
CN112257063A (zh) * 2020-10-19 2021-01-22 上海交通大学 一种基于合作博弈论的联邦学习中后门攻击的检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BINGJIE YAN: "FedCM: A Real-time Contribution Measurement Method for Participants in Federated Learning", 《ARXIV》 *
潘如晟: "联邦学习可视化: 挑战与框架", 《计算机辅助设计与图形学学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657996A (zh) * 2021-08-26 2021-11-16 深圳市洞见智慧科技有限公司 一种联邦学习中特征贡献度的确定方法、装置及电子设备
WO2023082787A1 (zh) * 2021-11-10 2023-05-19 新智我来网络科技有限公司 联合学习中确定参与方贡献度的方法、联合学习训练方法及装置
CN114819183A (zh) * 2022-04-15 2022-07-29 支付宝(杭州)信息技术有限公司 基于联邦学习的模型梯度确认方法、装置、设备及介质

Also Published As

Publication number Publication date
CN112990478B (zh) 2022-08-26

Similar Documents

Publication Publication Date Title
CN112990478B (zh) 联邦学习数据处理系统
CN109948029B (zh) 基于神经网络自适应的深度哈希图像搜索方法
CN111768008A (zh) 联邦学习方法、装置、设备和存储介质
CN111563192B (zh) 实体对齐方法、装置、电子设备及存储介质
CN109583594B (zh) 深度学习训练方法、装置、设备及可读存储介质
CN111723947A (zh) 一种联邦学习模型的训练方法及装置
CN113379071B (zh) 一种基于联邦学习的噪声标签修正方法
CN110765320B (zh) 数据处理方法、装置、存储介质和计算机设备
CN110689136B (zh) 一种深度学习模型获得方法、装置、设备及存储介质
CN113206887A (zh) 边缘计算下针对数据与设备异构性加速联邦学习的方法
CN111027732A (zh) 一种多风电场出力场景的生成方法及系统
CN114925854A (zh) 一种基于梯度相似性度量的联邦学习节点选择方法及系统
CN111222553A (zh) 机器学习模型的训练数据处理方法、装置和计算机设备
CN113256335B (zh) 数据筛选方法、多媒体数据的投放效果预测方法及装置
CN113743012B (zh) 一种多用户场景下的云-边缘协同模式任务卸载优化方法
CN115577797A (zh) 一种基于本地噪声感知的联邦学习优化方法及系统
WO2023273171A1 (zh) 图像处理方法、装置、设备和存储介质
CN115983320A (zh) 一种基于深度强化学习的联邦学习模型参数量化方法
CN113779116B (zh) 对象排序方法、相关设备及介质
CN107688582B (zh) 资源推荐模型的获取方法及装置
CN117033997A (zh) 数据切分方法、装置、电子设备和介质
CN114943278A (zh) 基于强化学习的持续在线群体激励方法、装置及存储介质
US20220121999A1 (en) Federated ensemble learning from decentralized data with incremental and decremental updates
CN109670227B (zh) 一种基于大数据的仿真数学模型参数对的估量方法
CN113869033A (zh) 融入迭代式句对关系预测的图神经网络句子排序方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Federal Learning Data Processing System

Effective date of registration: 20230210

Granted publication date: 20220826

Pledgee: Industrial Bank Co.,Ltd. Shanghai Hongkou sub branch

Pledgor: Shanghai hipu Intelligent Information Technology Co.,Ltd.

Registration number: Y2023310000027

PE01 Entry into force of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Granted publication date: 20220826

Pledgee: Industrial Bank Co.,Ltd. Shanghai Hongkou sub branch

Pledgor: Shanghai hipu Intelligent Information Technology Co.,Ltd.

Registration number: Y2023310000027

PC01 Cancellation of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Federated Learning Data Processing System

Granted publication date: 20220826

Pledgee: Industrial Bank Co.,Ltd. Shanghai Hongkou sub branch

Pledgor: Shanghai hipu Intelligent Information Technology Co.,Ltd.

Registration number: Y2024310000213

PE01 Entry into force of the registration of the contract for pledge of patent right