CN110874648A - 联邦模型的训练方法、系统和电子设备 - Google Patents

联邦模型的训练方法、系统和电子设备 Download PDF

Info

Publication number
CN110874648A
CN110874648A CN202010047786.8A CN202010047786A CN110874648A CN 110874648 A CN110874648 A CN 110874648A CN 202010047786 A CN202010047786 A CN 202010047786A CN 110874648 A CN110874648 A CN 110874648A
Authority
CN
China
Prior art keywords
model
countermeasure
data
federal
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010047786.8A
Other languages
English (en)
Inventor
刘磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202010047786.8A priority Critical patent/CN110874648A/zh
Publication of CN110874648A publication Critical patent/CN110874648A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本说明书实施例公开了一种联邦模型的训练方法、系统和电子设备,该方法包括:服务端生成第一对抗模型参数,将第一对抗模型参数发送给客户端;客户端基于产出的生成模型以及第一对抗模型参数进行生成对抗训练,输出生成数据;客户端基于真实数据以及生成数据进行联邦模型训练得到第一联邦模型参数,并将第一联邦模型参数发送给服务端;服务端对多个客户端的第一联邦模型参数进行整合得到第二联邦模型参数。

Description

联邦模型的训练方法、系统和电子设备
技术领域
本文件涉及计算机技术领域,尤其涉及一种联邦模型的训练方法、系统和电子设备。
背景技术
随着人工智能的不断发展,人工智能在行业应用中发挥着举足轻重的作用,不过随之而来的是一系列的新问题,比如,数据分散形成的数据孤岛问题,及越来越受到关注的数据隐私和数据安全问题。
联邦学习通过加密机制下参数交换的方式进行模型训练,能够有效帮助多个客户端在满足用户隐私保护、数据安全和政府法规的前提下,进行多方数据的使用和联合建模。
然而,相关技术中,常常会因为本地客户端的数据质量差异,例如,数据分布不平衡、数据规模量不足等,导致联邦模型的解决方案无法终止或不可用的情况发生。
发明内容
本说明书实施例提供一种联邦模型的训练方法、系统和电子设备,用于解决因客户端的数据质量差异导致的联邦模型无法终止或不可用的问题。
本说明书实施例采用下述技术方案:
第一方面,提供了一种联邦模型的训练方法,包括:
服务端生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
所述客户端基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数,并将所述第一联邦模型参数发送给所述服务端;
所述服务端对来自多个所述客户端的所述第一联邦模型参数进行整合,得到第二联邦模型参数。
第二方面,提供了一种联邦模型的训练方法,包括:
客户端接收第一对抗模型参数,所述第一对抗模型参数由服务端生成;
所述客户端基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数;
所述客户端将所述第一联邦模型参数发送给所述服务端;其中,所述第一联邦模型参数用于所述服务端对来自多个所述客户端的所述第一联邦模型参数进行整合以得到第二联邦模型参数。
第三方面,提供了一种联邦模型的训练方法,包括:
服务端生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
所述服务端对来自多个所述客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,所述第一对抗模型参数用于所述客户端基于产出的生成模型进行生成对抗训练,输出生成数据;所述生成数据用于所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到所述第一联邦模型参数。
第四方面,提供了一种联邦模型的训练系统,包括服务端和客户端;其中,
所述服务端,生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
所述客户端,基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
所述客户端,基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数,并将所述第一联邦模型参数发送给所述服务端;
所述服务端,对来自多个所述客户端的所述第一联邦模型参数进行整合,得到第二联邦模型参数。
第五方面,提供了一种电子设备,包括:
接收模块,接收第一对抗模型参数,所述第一对抗模型参数由服务端生成;
第一模型训练模块,基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
第二模型训练模块,基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数;
发送模块,将所述第一联邦模型参数发送给所述服务端;其中,所述第一联邦模型参数用于所述服务端对来自多个所述电子设备的所述第一联邦模型参数进行整合以得到第二联邦模型参数。
第六方面,提供了一种电子设备,包括:
第一模型训练模块,生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
第二模型训练模块,对来自多个所述客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,所述第一对抗模型参数用于所述客户端基于产出的生成模型进行生成对抗训练,输出生成数据;所述生成数据用于所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到所述第一联邦模型参数。
第七方面,提供了一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如下操作:
接收第一对抗模型参数,所述第一对抗模型参数由服务端生成;
基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数;
将所述第一联邦模型参数发送给所述服务端;其中,所述第一联邦模型参数用于所述服务端对来自多个所述客户端的所述第一联邦模型参数进行整合以得到第二联邦模型参数。
第八方面,提供了一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如下操作:
生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
对来自多个所述客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,所述第一对抗模型参数用于所述客户端基于产出的生成模型进行生成对抗训练,输出生成数据;所述生成数据用于所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到所述第一联邦模型参数。
第九方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如下操作:
接收第一对抗模型参数,所述第一对抗模型参数由服务端生成;
基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数;
将所述第一联邦模型参数发送给所述服务端;其中,所述第一联邦模型参数用于所述服务端对来自多个所述客户端的所述第一联邦模型参数进行整合以得到第二联邦模型参数。
第十方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如下操作:
生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
对来自多个所述客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,所述第一对抗模型参数用于所述客户端基于产出的生成模型进行生成对抗训练,输出生成数据;所述生成数据用于所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到所述第一联邦模型参数。
本说明书提供的一个或多个实施例,服务端生成对抗模型参数并发送给客户端,由客户端基于产出的生成模型进行生成对抗训练以产出生成数据,这样,客户端基于本地的真实数据以及上述生成数据进行联邦模型训练,解决了因客户端本地(真实)数据的质量差异导致的联邦模型无法终止或不可用的问题;同时,由于生成对抗训练中的对抗模型是服务端统一部署给客户端的,便于使客户端产出满足联邦模型训练需求的生成数据。
附图说明
此处所说明的附图用来提供对本文件的进一步理解,构成本文件的一部分,本文件的示意性实施例及其说明用于解释本文件,并不构成对本文件的不当限定。在附图中:
图1为本说明书的一个实施例提供的联邦模型的训练方法流程示意图;
图2为本说明书的一个实施例提供的联邦模型的训练方法系统架构示意图;
图3为本说明书的另一个实施例提供的联邦模型的训练方法流程示意图;
图4为本说明书的再一个实施例提供的联邦模型的训练方法流程示意图;
图5为本说明书的一个实施例提供的联邦模型的训练系统结构示意图;
图6为本说明书的一个实施例提供的电子设备结构示意图;
图7为本说明书的另一个实施例提供的电子设备结构示意图;
图8为实现本说明书各个实施例的电子设备硬件结构示意图。
具体实施方式
为使本文件的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本文件技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本文件一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本本文件保护的范围。
如图1所示,本说明书的一个实施例提供一种联邦模型的训练方法100,该方法可以由服务端及多个客户端联合执行,包括如下步骤:
S102:服务端生成第一对抗模型参数,将第一对抗模型参数发送给客户端。
如图2所示,图2示意性地显示出联邦学习的系统架构,其中涉及服务端(或称协调者等)和多个客户端(或称客户、本地机构、数据拥有者或参与者等),图2中显示的服务端为云端服务器。
上述第一对抗模型参数用于客户端训练生成对抗网络(Generative AdversarialNetworks,GAN)。如图2所示,生成对抗网络包括生成模型G(Generative Model)和对抗模型D(Discriminative Model,或称判别模型),后续步骤再对生成模型G和对抗模型D的主要作用进行介绍。
可选地,在该实施例执行之前,多个客户端还可以对联邦学习的目标达成一致,然后服务端将该联邦模型训练请求消息发送给客户端,上述第一对抗模型参数可以携带在联邦模型训练请求消息中。
该实施例中,服务端可以通过加密的方式,例如,使用同态加密技术,向客户端发送第一对抗模型参数。
S104:客户端基于产出的生成模型以及第一对抗模型参数进行生成对抗训练,输出生成数据。
S106:客户端基于真实数据以及生成数据进行联邦模型训练以得到第一联邦模型参数,并将第一联邦模型参数发送给服务端。
如前所述,生成对抗网络包括生成模型G和对抗模型D,客户端基于第一对抗模型参数即可得到对抗模型D,然后即可固定对抗模型D,基于客户端本地的真实数据等来训练生成模型G,并基于该生成模型G产出生成数据。
在该实施例中,生成模型G主要用于产出生成数据(或称FAKE DATE),对抗模型D可以用于检测输入数据是否为客户端本地的真实数据(或称REAL DATE),生成模型G的目标是使对抗模型D判断不出其产出的生成数据不是真实数据,对抗模型D则要尽可能的分辨出输入的数据是客户端本地的真实数据还是生成模型G产出的生成数据,通过生成模型G的参数不断的迭代更新,直到生成模型G产出满足服务端需求的生成数据。
需要说明的是,本说明书各个实施例中提到的真实数据,具体可以是客户端日常运营中生成的数据,将具体例如,客户端为银行机构,该真实数据可以是真是银行客户的存款数据、借贷数据等用户画像信息。
本说明书各个实施例中提到的生成数据是由生成对抗网络中的生成模型G产出的,在一个例子中,如果客户端本地的真实数据的数据量不足,生成模型G产出的生成数据可以尽可能地模拟接近真实数据,例如,生成数据的分布规律接近真实数据的分布规律等,这样,真实数据+生成数据即可弥补客户端本地真实数据量不足的问题,便于进行联邦模型的充分训练。
该实施例中提到的第一联邦模型参数以及后续提到的第二联邦模型参数,可以是联邦学习模型的参数,例如,神经网络的节点之间连接的权重参数;或者,也可以是联邦学习模型的梯度信息,例如,神经网络梯度下降算法中的梯度信息。
该实施例中,客户端可以通过加密的方式,例如,使用同态加密技术,向服务端发送第一联邦模型参数。
S108:服务端对来自多个客户端的第一联邦模型参数进行整合,得到第二联邦模型参数。
在一个例子中,服务端可以对来自多个客户端的第一联邦模型参数求平均,将平均后的值作为第二联邦模型参数。
在实际应用过程中,由于多个客户端进行联邦模型训练的数据不同,多个客户端得到的第一联邦模型参数的预测性能也是参差不齐的,上述求平均的方法可能会导致第二联邦模型参数的预测效果不理想。
优选地,在一个实施例中,服务端可以确定各个客户端的第一联邦模型参数对应的权重,例如,根据第一联邦模型参数构成的联邦模型的预测精度确定其权重,这样,在计算第二联邦模型参数时,可以结合第一联邦模型参数及其权重来实现,便于提高联邦模型的收敛速度,提高最终得到的联邦模型的预测精度。
优选地,在一个实施例中,服务端基于权重因子确定所述第一联邦模型参数对应的权重,并基于所述第一联邦模型参数和所述权重得到所述第二联邦模型参数,所述权重因子包括如下至少之一:
所述真实数据的规模量大小;
所述真实数据的数据质量;
所述真实数据的数据安全程度;
多个所述客户端的所述真实数据的重复度;
所述客户端的贡献度。
实际应用过程中,各个客户端的第一联邦模型参数统一发送到服务端后,服务端可以通过加权的方式进行计算和管理后得到第二联邦模型参数,之后再将第二联邦模型参数分发给各个客户端。每一次的迭代过程均可以按照该方式执行,直到联邦模型的迭代终止。
每一轮迭代过程中的加权方式和权重可以基于本轮的实际数据质量、数据安全、数据间差异及重复度,各方贡献度等种因素进行确定,由于每一轮的情况变化,各个客户端的权重可以进行动态调整,例如,客户端A的本次迭代过程中对应的权重是x,到下一次迭代过程中对应的权重则变为y,x和y不相等。
具体地,第一联邦模型参数的加权系数的计算方式可以包含但不仅限于以下几种:
1)等权重。多个客户端(的第一联邦模型参数)对应的权重相同,具体可以通过线性或非线性加权。
2)根据数据(可以是真实数据)的规模量大小来确定权重。客户端本地的数据的规模越大,则该客户端对应的权重越高;反之,客户端本地的数据的规模越小,则该客户端对应的权重越低。
3)根据数据(可以是真实数据)的重复度来确定权重。比如A,B,C三个客户端,分别对应三组本地(用户)数据,A和B的交叉用户数据较多,A和B这两者与C的交叉用户数据较少。那么在整合这三方的权重的时候,可以增大A、B的权重而减小C的权重;或者是减小A、B的权重而增大C的权重,具体采用哪种方式则取决于实际的使用场景。
4)根据数据(可以是真实数据)的安全程度打分来确定权重。比如,如果发现某些客户端受到病毒感染,那么来自这些客户端的第一联邦模型参数可以降权,或者直接将权重定为0(即不考虑)。
5)根据数据(可以是真实数据)的数据质量确定权重。数据质量越好的客户端对应的权重越大;反之,数据质量越差的客户端对应的权重越小。数据质量可以根据本轮的第一联邦模型参数与上一轮得到的第二联邦模型参数之间的差异大小来决定。比如,发现某一客户端发送的第一联邦模型参数在多次相邻的连续迭代过程中的变化较大,说明该客户端的数据分布与其他客户端的差异可能较大,在后续迭代过程中选择降低该客户端对应的权重。
6)服务端将接收到的多个第一联邦模型参数进行归类,相似的参数放到一起,差异较大的参数分开来考虑。这样在加权的时候,每一类别的参数可以作为单独表征,避免某一类别的客户端过多而使得其他客户端的第一联邦模型参数被淹没。
7)按照各个客户端数据的贡献度来打分。客户端数据的贡献度越高,该客户端对应的权重越大,客户端数据的贡献越低,该客户端对应的权重越小。
需要说明的是,上述介绍的多种加权计算方式可以单独考虑,也可以综合多种进行考虑。单独考虑可以是基于某一种因素的加权;综合考虑可以是多种因素都考虑,权重基础上对每种权重计算方式的再加权。
本说明书提供的联邦模型的训练方法,服务端生成对抗模型参数并发送给客户端,由客户端基于产出的生成模型进行生成对抗训练以产出生成数据,这样,客户端基于本地的真实数据以及上述生成数据进行联邦模型训练,解决了因客户端本地(真实)数据的质量差异导致的联邦模型无法终止或不可用的问题;同时,由于生成对抗训练中的对抗网络是服务端统一部署给客户端的,便于使客户端产出满足联邦模型训练需求的生成数据。
另外,本说明书提供的联邦模型的训练方法,多个客户端可以在不用给出己方私有数据(或称隐私数据)的前提下,实现了本地模型的效果增长,保障数据隐私的同时,提升了联邦预测准确性。
需要说明的是,本说明书各个实施例中提到的第一联邦模型参数以及第二联邦模型参数,其中的“第一”和“第二”仅仅是用来区分生联邦在训练过程中的聚合前以及聚合后的联邦模型参数,不代表其他具体的含义。
还需要说明的是,本说明书各个实施例可以应用在存在数据孤岛问题的各种场景中,同时,对训练得到的联邦模型的预测功能也并不进行限定。
上述实施例100介绍的步骤仅仅是联邦模型的一次训练过程,实际上,联邦模型通常需要多轮迭代才能完成。可选地,在实施例100中服务端得到第二联邦模型参数之后,还可以包括如下步骤:服务端判断是否满足联邦模型的收敛条件,并在不满足所述收敛条件的情况下将所述第二联邦模型参数发送给多个所述客户端以进行联邦模型的迭代训练,直至满足联邦模型的收敛条件。
作为一种实施方式,服务端可以根据第二联邦模型参数对应的损失函数得到损失值,根据损失值判断第二联邦模型参数对应的联邦模型是否收敛:
1)若检测到第二联邦模型参数构成的联邦模型处于未收敛状态,则将第二联邦模型参数加密并下发至所述多个客户终端。具体地,服务端可以使用点对点通信,分别向每个客户端单独发送模型更新请求消息;或者,服务端也可以使用组播、多播或广播的方式向多个客户端同时发送模型更新请求消息,上述模型更新请求消息包括第二联邦模型参数。
这样,多个客户端以及服务端即可基于第二联邦模型参数,按照实施例100的S106和S108的步骤以进行联邦模型的迭代训练,直至联邦模型处于收敛状态,即实施例100的S106和S108可以循环执行多次。
2)若检测到第二联邦模型参数构成的联邦模型处于收敛状态,则联邦模型训练完成,第二联邦模型参数即确定为联邦模型训练的最终结果,服务端下发加密的第二联邦模型参数至多个客户终端。这样,多个客户端即在不用给出己方私有数据的前提下,实现了本地模型的效果增长,保障数据隐私的同时,提升了联邦预测准确性。
可选地,在前文各个实施例中,客户端输出生成数据后,还可以包括如下步骤:
1)客户端将生成数据发送给服务端,具体地,客户端可以在S106中将第一联邦模型参数发送给服务端的同时,将本轮生成对抗网络产出的生成数据也发送给服务端。
2)服务端基于上述生成数据更新第一对抗模型参数以得到第二对抗模型参数,并将第二对抗模型参数发送给客户端。该实施例中,实施例100中的S102至S108可以多次循环执行。
3)客户端基于产出的生成模型以及第二对抗模型参数进行生成对抗训练,输出生成数据以进行联邦模型的迭代训练。
在该实施例中,客户端中用于产出生成数据的生成对抗网络也可以随着联邦模型的迭代过程进行多次迭代训练,提高客户端产出的生成数据的质量,便于进一步满足服务端的数据分布要求,最终提高训练得到的联邦模型的预测精度。
可选地,在前文各个实施例中,客户端得到第一联邦模型参数之后,还可以包括如下步骤:
1)客户端基于第一联邦模型参数以及预设的测试样本集进行联邦模型预测,以得到第一联邦模型参数对应的预测精度,并将预测精度发送给服务端;
2)服务端基于预测精度确定所述第一联邦模型参数对应的权重。这样,S108中服务端具体可以是基于第一联邦模型参数及其对应的权重得到第二联邦模型参数。
在该实施例中,第一联邦模型参数对应的联邦模型的预测精度可以是准确率、召回率等其它可能的机器学习模型的性能指标。
在该实施例中,每个第一联邦模型参数对应的联邦模型的预测精度与该第一联邦模型参数的权重正相关,即预测精度越高则该第一联邦模型参数的权重越大;预测精度越低则该第一联邦模型参数的权重越小。这样,服务端可以对每个第一联邦模型参数乘其对应的权重系数,再将乘了权重系数的多个第一联邦模型参数相加即得到第二联邦模型参数。
在该实施例中,服务端根据多个客户终端发送的第一联邦模型参数聚合时,对预测精度高的模型增加其第一联邦模型参数的权重,对预测精度低的模型降低其第一联邦模型参数的权重,以此更新得到第二联邦模型参数,保证了每个客户端模型效果的增长,避免了现有的服务端对多个联邦客户端的第一联邦模型参数采用简单平均的方式而导致的联邦模型效果不理想问题。
上述介绍了第一联邦模型参数的权重的一种实现方式,下面将介绍第一联邦模型参数的权重的另一种实现方式。可选地,在前文各个实施例中,客户端输出生成数据之后,还可以包括如下步骤:
1)客户端确定生成数据占真实数据+生成数据的比重,并将比重发送给服务端;
2)服务端基于所述比重确定所述第一联邦模型参数对应的权重,这样,S108中服务端具体可以是并基于第一联邦模型参数及其对应的权重得到第二联邦模型参数。
在该实施例中,每个第一联邦模型参数对应的生成数据的比重与该第一联邦模型参数的权重负相关,即生成数据的比重越高则该第一联邦模型参数的权重越小;生成数据的比重越低则该第一联邦模型参数的权重越大。这样,服务端可以对每个第一联邦模型参数乘其对应的权重系数,再将乘了权重系数的多个第一联邦模型参数相加即得到第二联邦模型参数。
在该实施例中,服务端根据多个客户终端发送的第一联邦模型参数聚合时,对生成数据的比重越低的模型增加其第一联邦模型参数的权重;对生成数据的比重越高的模型降低其第一联邦模型参数的权重,以此更新得到第二联邦模型参数,保证了每个客户端模型效果的增长,避免了现有的服务端对多个联邦客户端的第一联邦模型参数采用简单平均的方式而导致的联邦模型效果不理想问题。
该实施例可以在一定程度上鼓励利用更多的真实数据进行联邦学习的客户端,通过更多的真实数据进行联邦学习训练,可以进一步提高最终得到的联邦模型的预测精度。
可选地,在前文各个实施例中,服务端生成第一对抗模型参数之前,还可以包括如下步骤:客户端将本地存储的真实数据中的目标数据发送给服务端,该目标数据包括上述真实数据中的私有数据(或称隐私数据)之外的数据;这样,第一对抗模型参数具体可以是服务端基于上述目标数据生成的。
该实施例中,多个客户端可以向服务端发送非隐私数据,服务端可以结合多个客户端发送的非隐私数据进行生成对抗网络的训练,以得到对抗网络并部署到各个客户端,便于使客户端的生成对抗网络产出符合服务端要求的生成数据,便于最终提到得到的联邦模型的预测精度。
以上结合图1详细描述了根据本发明实施例的联邦模型训练方法。下面将结合图3详细描述根据本发明另一实施例的联邦模型训练方法。可以理解的是,从客户端侧描述的服务端与客户端的交互过程与图1所示的方法中的双侧的描述相同,为避免重复,适当省略相关描述。如图3所示,该实施例300包括如下步骤:
S302:接收第一对抗模型参数,第一对抗模型参数由服务端生成;
S304:基于产出的生成模型以及第一对抗模型参数进行生成对抗训练,以输出生成数据;
S306:基于真实数据以及生成数据进行联邦模型训练以得到第一联邦模型参数;
S308:将第一联邦模型参数发送给服务端;
其中,第一联邦模型参数用于服务端对来自多个客户端的第一联邦模型参数进行整合以得到第二联邦模型参数。
本说明书提供的联邦模型的训练方法,服务端生成对抗模型参数并发送给客户端,由客户端基于产出的生成模型进行生成对抗训练以产出生成数据,这样,客户端基于本地的真实数据以及上述生成数据进行联邦模型训练,解决了因客户端本地(真实)数据的质量差异导致的联邦模型无法终止或不可用的问题;同时,由于生成对抗训练中的对抗模型是服务端统一部署给客户端的,便于使客户端产出满足联邦模型训练需求的生成数据。
下面将结合图4详细描述根据本发明另一实施例的联邦模型训练方法。可以理解的是,从服务端侧描述的服务端与客户端的交互过程与图1所示的方法中的双侧的描述相同,为避免重复,适当省略相关描述。如图4所示,该实施例400包括如下步骤:
S402:生成第一对抗模型参数,将第一对抗模型参数发送给客户端;
S404:对来自多个客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,第一对抗模型参数用于客户端基于产出的生成模型进行生成对抗训练,输出生成数据;该生成数据用于客户端基于真实数据以及生成数据进行联邦模型训练以得到第一联邦模型参数。
本说明书提供的联邦模型的训练方法,服务端生成对抗模型参数并发送给客户端,由客户端基于产出的生成模型进行生成对抗训练以产出生成数据,这样,客户端基于本地的真实数据以及上述生成数据进行联邦模型训练,解决了因客户端本地(真实)数据的质量差异导致的联邦模型无法终止或不可用的问题;同时,由于生成对抗训练中的对抗模型是服务端统一部署给客户端的,便于使客户端产出满足联邦模型训练需求的生成数据。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上说明书部分详细介绍了联邦模型的训练方法实施例,如图5所示,本说明书实施例还提供了一种联邦模型的训练系统,如图5所示,该系统500包括:
服务端502,可以用于生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
客户端504,可以用于基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
客户端504,可以用于基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数,并将所述第一联邦模型参数发送给所述服务端;
服务端502,可以用于对来自多个所述客户端的所述第一联邦模型参数进行整合,得到第二联邦模型参数。
本说明书提供的联邦模型的训练系统,服务端生成对抗模型参数并发送给客户端,由客户端基于产出的生成模型进行生成对抗训练以产出生成数据,这样,客户端基于本地的真实数据以及上述生成数据进行联邦模型训练,解决了因客户端本地(真实)数据的质量差异导致的联邦模型无法终止或不可用的问题;同时,由于生成对抗训练中的对抗模型是服务端统一部署给客户端的,便于使客户端产出满足联邦模型训练需求的生成数据。
可选地,作为一个实施例,所述服务端502,还用于判断是否满足联邦模型的收敛条件,并在不满足所述收敛条件的情况下将所述第二联邦模型参数发送给多个所述客户端504以进行联邦模型的迭代训练,直至满足联邦模型的收敛条件。
可选地,作为一个实施例,所述客户端504,还用于将所述生成数据发送给所述服务端;所述服务端502,还用于基于所述生成数据更新所述第一对抗模型参数以得到第二对抗模型参数,并将所述第二对抗模型参数发送给所述客户端504;所述客户端504,还用于基于产出的生成模型以及所述第二对抗模型参数进行生成对抗训练,输出生成数据以进行联邦模型的迭代训练。
可选地,作为一个实施例,所述客户端504,还用于基于所述第一联邦模型参数以及预设的测试样本集进行联邦模型预测,以得到所述第一联邦模型参数对应的预测精度,并将所述预测精度发送给所述服务端502;所述服务端502,还用于基于所述预测精度确定所述第一联邦模型参数对应的权重,并基于所述第一联邦模型参数和所述权重得到所述第二联邦模型参数。
可选地,作为一个实施例,所述客户端504,还用于确定所述生成数据占所述真实数据加所述生成数据的比重,并将所述比重发送给所述服务端502;所述服务端502,还用于基于所述比重确定所述第一联邦模型参数对应的权重,并基于所述第一联邦模型参数和所述权重得到所述第二联邦模型参数。
可选地,作为一个实施例,所述服务端502,具体用于基于权重因子确定所述第一联邦模型参数对应的权重,并基于所述第一联邦模型参数和所述权重得到所述第二联邦模型参数,所述权重因子包括如下至少之一:
所述真实数据的规模量大小;
所述真实数据的数据质量;
所述真实数据的数据安全程度;
多个所述客户端的所述真实数据的重复度;
所述客户端的贡献度。
可选地,作为一个实施例,所述客户端504,还用于将所述真实数据中的目标数据发送给所述服务端502,所述目标数据包括所述真实数据中的私有数据之外的数据;其中,所述第一对抗模型参数是所述服务端基于所述目标数据生成的。
根据本说明书实施例的上述联邦模型的训练系统500可以参照对应前文本说明书实施例的联邦模型的训练方法100的流程,并且,该联邦模型的训练系统500中的各个单元/模块和上述其他操作和/或功能分别为了实现联邦模型的训练方法100中的相应流程,并且能够达到相同或等同的技术效果,为了简洁,在此不再赘述。
本说明书还提供了一种电子设备,对应于前文各个实施例中介绍的客户端,如图6所示,该电子设备600包括:
接收模块602,可以用于接收第一对抗模型参数,所述第一对抗模型参数由服务端生成;
第一模型训练模块604,可以用于基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
第二模型训练模块606,可以用于基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数;
发送模块608,可以用于将所述第一联邦模型参数发送给所述服务端;其中,所述第一联邦模型参数用于所述服务端对来自多个所述电子设备的所述第一联邦模型参数进行整合以得到第二联邦模型参数。
本说明书提供的电子设备,服务端生成对抗模型参数并发送给电子设备,由电子设备基于产出的生成模型进行生成对抗训练以产出生成数据,这样,电子设备基于本地的真实数据以及上述生成数据进行联邦模型训练,解决了因电子设备本地(真实)数据的质量差异导致的联邦模型无法终止或不可用的问题;同时,由于生成对抗训练中的对抗模型是服务端统一部署给多个电子设备的,便于使电子设备产出满足联邦模型训练需求的生成数据。
根据本说明书实施例的上述电子设备600可以参照对应前文本说明书实施例的联邦模型的训练方法300的流程,并且,该电子设备600中的各个单元/模块和上述其他操作和/或功能分别为了实现联邦模型的训练方法300中的相应流程,并且能够达到相同或等同的技术效果,为了简洁,在此不再赘述。
本说明书还提供了一种电子设备,对应于前文各个实施例介绍的服务端,如图7所示,该电子设备700包括:
第一模型训练模块702,可以用于生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
第二模型训练模块704,可以用于对来自多个所述客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,所述第一对抗模型参数用于所述客户端基于产出的生成模型进行生成对抗训练,输出生成数据;所述生成数据用于所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到所述第一联邦模型参数。
本说明书提供的电子设备,生成对抗模型参数并发送给客户端,由客户端基于产出的生成模型进行生成对抗训练以产出生成数据,这样,客户端基于本地的真实数据以及上述生成数据进行联邦模型训练,解决了因客户端本地(真实)数据的质量差异导致的联邦模型无法终止或不可用的问题;同时,由于生成对抗训练中的对抗模型是电子设备统一部署给客户端的,便于使客户端产出满足联邦模型训练需求的生成数据。
根据本说明书实施例的上述电子设备700可以参照对应前文本说明书实施例的联邦模型的训练方法400的流程,并且,该电子设备700中的各个单元/模块和上述其他操作和/或功能分别为了实现联邦模型的训练方法400中的相应流程,并且能够达到相同或等同的技术效果,为了简洁,在此不再赘述。
下面将结合图8详细描述根据本说明书实施例的电子设备。参考图8,在硬件层面,电子设备包括处理器,可选地,包括内部总线、网络接口、存储器。其中,如图8所示,存储器可能包含内存,例如高速随机存取存储器(Random-Access Memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少1个磁盘存储器等。当然,该电子设备还可能包括实现其他业务所需要的硬件。
处理器、网络接口和存储器可以通过内部总线相互连接,该内部总线可以是工业标准体系结构 (Industry Standard Architecture,ISA)总线、外设部件互连标准(Peripheral Component Interconnect,PCI)总线或扩展工业标准结构 (ExtendedIndustry Standard Architecture,EISA)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
存储器,用于存放程序。具体地,程序可以包括程序代码,所述程序代码包括计算机操作指令。存储器可以包括内存和非易失性存储器,并向处理器提供指令和数据。
处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行。处理器,执行存储器所存放的程序,并具体用于执行本说明书前文所述的方法实施例的操作。
上述图1至图4所示实施例揭示的方法、装置执行的方法可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本说明书实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
图8所示的电子设备还可执行图1至图4的方法,并实现联邦模型的训练方法在图1至图4所示实施例的功能,本说明书实施例在此不再赘述。
当然,除了软件实现方式之外,本文件的电子设备并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
本说明书实施例还提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述各个方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
本领域内的技术人员应明白,本文件的实施例可提供为方法、系统、或计算机程序产品。因此,本文件可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本文件可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本文件是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器 (CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器 (RAM) 和/或非易失性内存等形式,如只读存储器 (ROM) 或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (PRAM)、静态随机存取存储器 (SRAM)、动态随机存取存储器 (DRAM)、其他类型的随机存取存储器 (RAM)、只读存储器 (ROM)、电可擦除可编程只读存储器 (EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘 (DVD) 或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本文件的实施例而已,并不用于限制本文件。对于本领域技术人员来说,本文件可以有各种更改和变化。凡在本文件的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本文件的权利要求范围之内。

Claims (16)

1.一种联邦模型的训练方法,包括:
服务端生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
所述客户端基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数,并将所述第一联邦模型参数发送给所述服务端;
所述服务端对来自多个所述客户端的所述第一联邦模型参数进行整合,得到第二联邦模型参数。
2.根据权利要求1所述的方法,所述服务端得到第二联邦模型参数之后,所述方法还包括:
所述服务端判断是否满足联邦模型的收敛条件,并在不满足所述收敛条件的情况下将所述第二联邦模型参数发送给多个所述客户端以进行联邦模型的迭代训练,直至满足联邦模型的收敛条件。
3.根据权利要求2所述的方法,所述客户端输出生成数据后,所述方法还包括:
所述客户端将所述生成数据发送给所述服务端;
所述服务端基于所述生成数据更新所述第一对抗模型参数以得到第二对抗模型参数,并将所述第二对抗模型参数发送给所述客户端;
所述客户端基于产出的生成模型以及所述第二对抗模型参数进行生成对抗训练,输出生成数据以进行联邦模型的迭代训练。
4.根据权利要求1所述的方法,所述客户端得到第一联邦模型参数之后,所述方法还包括:
所述客户端基于所述第一联邦模型参数以及预设的测试样本集进行联邦模型预测,以得到所述第一联邦模型参数对应的预测精度,并将所述预测精度发送给所述服务端;
所述服务端基于所述预测精度确定所述第一联邦模型参数对应的权重,并基于所述第一联邦模型参数和所述权重得到所述第二联邦模型参数。
5.根据权利要求1所述的方法,所述客户端基于所述第一生成对抗网络输出生成数据之后,所述方法还包括:
所述客户端确定所述生成数据占所述真实数据加所述生成数据的比重,并将所述比重发送给所述服务端;
所述服务端基于所述比重确定所述第一联邦模型参数对应的权重,并基于所述第一联邦模型参数和所述权重得到所述第二联邦模型参数。
6.根据权利要求1所述的方法,所述服务端对来自多个所述客户端的所述第一联邦模型参数进行整合,得到第二联邦模型参数包括:
所述服务端基于权重因子确定所述第一联邦模型参数对应的权重,并基于所述第一联邦模型参数和所述权重得到所述第二联邦模型参数;
其中,所述权重因子包括下述至少一种:
所述真实数据的规模量大小;
所述真实数据的数据质量;
所述真实数据的数据安全程度;
多个所述客户端的所述真实数据的重复度;
所述客户端的贡献度。
7.根据权利要求1至6任一项所述的方法,所述服务端生成第一对抗模型参数之前,所述方法还包括:
所述客户端将所述真实数据中的目标数据发送给所述服务端,所述目标数据包括所述真实数据中的私有数据之外的数据;
其中,所述第一对抗模型参数是所述服务端基于所述目标数据生成的。
8.一种联邦模型的训练方法,包括:
客户端接收第一对抗模型参数,所述第一对抗模型参数由服务端生成;
所述客户端基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数;
所述客户端将所述第一联邦模型参数发送给所述服务端;其中,所述第一联邦模型参数用于所述服务端对来自多个所述客户端的所述第一联邦模型参数进行整合以得到第二联邦模型参数。
9.一种联邦模型的训练方法,包括:
服务端生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
所述服务端对来自多个所述客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,所述第一对抗模型参数用于所述客户端基于产出的生成模型进行生成对抗训练,输出生成数据;所述生成数据用于所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到所述第一联邦模型参数。
10.一种联邦模型的训练系统,包括服务端和客户端;其中,
所述服务端,生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
所述客户端,基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
所述客户端,基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数,并将所述第一联邦模型参数发送给所述服务端;
所述服务端,对来自多个所述客户端的所述第一联邦模型参数进行整合,得到第二联邦模型参数。
11.一种电子设备,包括:
接收模块,接收第一对抗模型参数,所述第一对抗模型参数由服务端生成;
第一模型训练模块,基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
第二模型训练模块,基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数;
发送模块,将所述第一联邦模型参数发送给所述服务端;其中,所述第一联邦模型参数用于所述服务端对来自多个所述电子设备的所述第一联邦模型参数进行整合以得到第二联邦模型参数。
12.一种电子设备,包括:
第一模型训练模块,生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
第二模型训练模块,对来自多个所述客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,所述第一对抗模型参数用于所述客户端基于产出的生成模型进行生成对抗训练,输出生成数据;所述生成数据用于所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到所述第一联邦模型参数。
13.一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如下操作:
接收第一对抗模型参数,所述第一对抗模型参数由服务端生成;
基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数;
将所述第一联邦模型参数发送给所述服务端;其中,所述第一联邦模型参数用于所述服务端对来自多个所述客户端的所述第一联邦模型参数进行整合以得到第二联邦模型参数。
14.一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如下操作:
生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
对来自多个所述客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,所述第一对抗模型参数用于所述客户端基于产出的生成模型进行生成对抗训练,输出生成数据;所述生成数据用于所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到所述第一联邦模型参数。
15.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如下操作:
接收第一对抗模型参数,所述第一对抗模型参数由服务端生成;
基于产出的生成模型以及所述第一对抗模型参数进行生成对抗训练,输出生成数据;
基于真实数据以及所述生成数据进行联邦模型训练以得到第一联邦模型参数;
将所述第一联邦模型参数发送给所述服务端;其中,所述第一联邦模型参数用于所述服务端对来自多个所述客户端的所述第一联邦模型参数进行整合以得到第二联邦模型参数。
16.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如下操作:
生成第一对抗模型参数,将所述第一对抗模型参数发送给客户端;
对来自多个所述客户端的第一联邦模型参数进行整合,得到第二联邦模型参数;
其中,所述第一对抗模型参数用于所述客户端基于产出的生成模型进行生成对抗训练,输出生成数据;所述生成数据用于所述客户端基于真实数据以及所述生成数据进行联邦模型训练以得到所述第一联邦模型参数。
CN202010047786.8A 2020-01-16 2020-01-16 联邦模型的训练方法、系统和电子设备 Pending CN110874648A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010047786.8A CN110874648A (zh) 2020-01-16 2020-01-16 联邦模型的训练方法、系统和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010047786.8A CN110874648A (zh) 2020-01-16 2020-01-16 联邦模型的训练方法、系统和电子设备

Publications (1)

Publication Number Publication Date
CN110874648A true CN110874648A (zh) 2020-03-10

Family

ID=69718454

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010047786.8A Pending CN110874648A (zh) 2020-01-16 2020-01-16 联邦模型的训练方法、系统和电子设备

Country Status (1)

Country Link
CN (1) CN110874648A (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111291401A (zh) * 2020-05-09 2020-06-16 支付宝(杭州)信息技术有限公司 基于隐私保护的业务预测模型训练方法和装置
CN111428881A (zh) * 2020-03-20 2020-07-17 深圳前海微众银行股份有限公司 识别模型的训练方法、装置、设备及可读存储介质
CN111599417A (zh) * 2020-07-08 2020-08-28 腾讯科技(深圳)有限公司 溶解度预测模型的训练数据获取方法及装置
CN111858955A (zh) * 2020-07-01 2020-10-30 石家庄铁路职业技术学院 基于加密联邦学习的知识图谱表示学习增强方法和装置
CN112201342A (zh) * 2020-09-27 2021-01-08 博雅正链(北京)科技有限公司 基于联邦学习的医疗辅助诊断方法、装置、设备及存储介质
CN112766514A (zh) * 2021-01-22 2021-05-07 支付宝(杭州)信息技术有限公司 一种联合训练机器学习模型的方法、系统及装置
CN112906911A (zh) * 2021-02-03 2021-06-04 厦门大学 联邦学习的模型训练方法
CN113033820A (zh) * 2021-03-25 2021-06-25 支付宝(杭州)信息技术有限公司 联邦学习方法、装置以及设备
WO2021219080A1 (zh) * 2020-04-30 2021-11-04 深圳前海微众银行股份有限公司 基于联邦学习模型的视图显示方法、装置、设备及介质
CN113642737A (zh) * 2021-08-12 2021-11-12 广域铭岛数字科技有限公司 一种基于汽车用户数据的联邦学习方法及系统
CN113704778A (zh) * 2021-07-16 2021-11-26 杭州医康慧联科技股份有限公司 基于同态加密的机器学习线性模型预测方法
CN113762530A (zh) * 2021-09-28 2021-12-07 北京航空航天大学 面向隐私保护的精度反馈联邦学习方法
WO2022217781A1 (zh) * 2021-04-15 2022-10-20 腾讯云计算(北京)有限责任公司 数据处理方法、装置、设备以及介质
WO2022268027A1 (zh) * 2021-06-21 2022-12-29 华为技术有限公司 一种gan的训练方法、机器学习系统及通信装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100115100A1 (en) * 2008-10-30 2010-05-06 Olga Tubman Federated configuration data management
CN110297848A (zh) * 2019-07-09 2019-10-01 深圳前海微众银行股份有限公司 基于联邦学习的推荐模型训练方法、终端及存储介质
CN110428058A (zh) * 2019-08-08 2019-11-08 深圳前海微众银行股份有限公司 联邦学习模型训练方法、装置、终端设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100115100A1 (en) * 2008-10-30 2010-05-06 Olga Tubman Federated configuration data management
CN110297848A (zh) * 2019-07-09 2019-10-01 深圳前海微众银行股份有限公司 基于联邦学习的推荐模型训练方法、终端及存储介质
CN110428058A (zh) * 2019-08-08 2019-11-08 深圳前海微众银行股份有限公司 联邦学习模型训练方法、装置、终端设备及存储介质

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428881B (zh) * 2020-03-20 2021-12-07 深圳前海微众银行股份有限公司 识别模型的训练方法、装置、设备及可读存储介质
CN111428881A (zh) * 2020-03-20 2020-07-17 深圳前海微众银行股份有限公司 识别模型的训练方法、装置、设备及可读存储介质
WO2021219080A1 (zh) * 2020-04-30 2021-11-04 深圳前海微众银行股份有限公司 基于联邦学习模型的视图显示方法、装置、设备及介质
CN112487460A (zh) * 2020-05-09 2021-03-12 支付宝(杭州)信息技术有限公司 基于隐私保护的业务预测模型训练方法和装置
CN111291401A (zh) * 2020-05-09 2020-06-16 支付宝(杭州)信息技术有限公司 基于隐私保护的业务预测模型训练方法和装置
CN112487460B (zh) * 2020-05-09 2022-04-12 支付宝(杭州)信息技术有限公司 基于隐私保护的业务预测模型训练方法和装置
CN111858955A (zh) * 2020-07-01 2020-10-30 石家庄铁路职业技术学院 基于加密联邦学习的知识图谱表示学习增强方法和装置
CN111858955B (zh) * 2020-07-01 2023-08-18 石家庄铁路职业技术学院 基于加密联邦学习的知识图谱表示学习增强方法和装置
CN111599417A (zh) * 2020-07-08 2020-08-28 腾讯科技(深圳)有限公司 溶解度预测模型的训练数据获取方法及装置
CN111599417B (zh) * 2020-07-08 2023-10-20 腾讯科技(深圳)有限公司 溶解度预测模型的训练数据获取方法及装置
CN112201342A (zh) * 2020-09-27 2021-01-08 博雅正链(北京)科技有限公司 基于联邦学习的医疗辅助诊断方法、装置、设备及存储介质
CN112201342B (zh) * 2020-09-27 2024-04-26 博雅正链(北京)科技有限公司 基于联邦学习的医疗辅助诊断方法、装置、设备及存储介质
CN112766514A (zh) * 2021-01-22 2021-05-07 支付宝(杭州)信息技术有限公司 一种联合训练机器学习模型的方法、系统及装置
CN112766514B (zh) * 2021-01-22 2021-12-24 支付宝(杭州)信息技术有限公司 一种联合训练机器学习模型的方法、系统及装置
CN112906911B (zh) * 2021-02-03 2022-07-01 厦门大学 联邦学习的模型训练方法
CN112906911A (zh) * 2021-02-03 2021-06-04 厦门大学 联邦学习的模型训练方法
CN113033820A (zh) * 2021-03-25 2021-06-25 支付宝(杭州)信息技术有限公司 联邦学习方法、装置以及设备
WO2022217781A1 (zh) * 2021-04-15 2022-10-20 腾讯云计算(北京)有限责任公司 数据处理方法、装置、设备以及介质
WO2022268027A1 (zh) * 2021-06-21 2022-12-29 华为技术有限公司 一种gan的训练方法、机器学习系统及通信装置
CN113704778A (zh) * 2021-07-16 2021-11-26 杭州医康慧联科技股份有限公司 基于同态加密的机器学习线性模型预测方法
CN113642737A (zh) * 2021-08-12 2021-11-12 广域铭岛数字科技有限公司 一种基于汽车用户数据的联邦学习方法及系统
CN113642737B (zh) * 2021-08-12 2024-03-05 广域铭岛数字科技有限公司 一种基于汽车用户数据的联邦学习方法及系统
CN113762530A (zh) * 2021-09-28 2021-12-07 北京航空航天大学 面向隐私保护的精度反馈联邦学习方法
CN113762530B (zh) * 2021-09-28 2024-02-02 北京航空航天大学 面向隐私保护的精度反馈联邦学习方法

Similar Documents

Publication Publication Date Title
CN110874648A (zh) 联邦模型的训练方法、系统和电子设备
CN111931242B (zh) 一种数据共享方法以及应用其的计算机设备及可读存储介质
CN112085159B (zh) 一种用户标签数据预测系统、方法、装置及电子设备
CN113221183B (zh) 实现隐私保护的多方协同更新模型的方法、装置及系统
CN113159327A (zh) 基于联邦学习系统的模型训练方法、装置、电子设备
CN112347500B (zh) 分布式系统的机器学习方法、装置、系统、设备及存储介质
CN111340453A (zh) 联邦学习开发方法、装置、设备及存储介质
CN111737755A (zh) 业务模型的联合训练方法及装置
CN112799708A (zh) 联合更新业务模型的方法及系统
WO2021189926A1 (zh) 业务模型训练方法、装置、系统及电子设备
CN110796399A (zh) 基于区块链的资源分配方法以及装置
CN112906864A (zh) 信息处理方法、装置、设备、存储介质及计算机程序产品
Bidgoly et al. Trust modeling and verification using colored petri nets
Lin et al. DRL-based adaptive sharding for blockchain-based federated learning
CN115481441A (zh) 面向联邦学习的差分隐私保护方法及装置
Wang et al. Ppefl: Privacy-preserving edge federated learning with local differential privacy
Tu et al. A blockchain-based trust and reputation model with dynamic evaluation mechanism for IoT
CN110874481B (zh) 一种基于gbdt模型的预测方法和装置
CN113438237B (zh) 数据安全协同计算方法及系统
CN114611081A (zh) 账号类型识别方法、装置、设备、存储介质及产品
Lian et al. Privacy-preserving blockchain-based global data sharing for federated learning with non-IID Data
CN113658689A (zh) 多智能体模型的训练方法、装置、电子设备及存储介质
Saputra et al. Federated learning framework with straggling mitigation and privacy-awareness for AI-based mobile application services
CN117216788A (zh) 基于区块链的联邦学习隐私保护视频场景识别方法
US20230196115A1 (en) Superseded federated learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200310

RJ01 Rejection of invention patent application after publication