CN110443375B - 一种联邦学习方法及装置 - Google Patents

一种联邦学习方法及装置 Download PDF

Info

Publication number
CN110443375B
CN110443375B CN201910757743.6A CN201910757743A CN110443375B CN 110443375 B CN110443375 B CN 110443375B CN 201910757743 A CN201910757743 A CN 201910757743A CN 110443375 B CN110443375 B CN 110443375B
Authority
CN
China
Prior art keywords
participants
participant
group
coordinator
participating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910757743.6A
Other languages
English (en)
Other versions
CN110443375A (zh
Inventor
程勇
蔡杭
刘洋
陈天健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN201910757743.6A priority Critical patent/CN110443375B/zh
Publication of CN110443375A publication Critical patent/CN110443375A/zh
Application granted granted Critical
Publication of CN110443375B publication Critical patent/CN110443375B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种联邦学习方法及装置,该方法适用于包括多个参与者的联邦学习,其中,所述多个参与者的训练数据集之间包含有不同的样本对象及相同的数据特征;所述多个参与者根据所述多个参与者的属性信息被预划分为多个参与组;其中,每个参与组对应不同的上传时间段;所述上传时长是参与者进行模型参数更新并将获得的模型参数更新发送至协调者所耗时长;其中方法为:所述协调者获取目标参与组中各参与者上传的模型参数更新;协调者根据所述一个或者多个参与组中的参与者上传的模型参数更新对联邦学习模型参数进行更新。上述方法应用于金融科技(Fintech)时,提升了联邦学习模型的精确性。

Description

一种联邦学习方法及装置
技术领域
本发明涉及金融科技(Fintech)领域和计算机软件领域,尤其涉及一种联邦学习方法及装置。
背景技术
随着计算机技术的发展,越来越多的技术(大数据、分布式、区块链(Blockchain)、人工智能等)应用在金融领域,传统金融业正在逐步向金融科技(Fintech)转变。目前,金融科技领域中许多金融策略的调整都依赖于对大量金融交易数据进行联邦学习的结果,相应金融策略的调整很可能对金融机构的盈亏造成影响。因此,对一个金融机构来说,其联邦学习模型的精确性至关重要。
当联邦学习的参与者的数量非常巨大的时候,尤其是参与者是移动终端的时候,各个参与者之间的差异会比较大,因此,各个参与者发送的模型参数更新到达协调者的时间的随机性也很大。协调者将每个参与者的模型参数更新接收完毕的等待时间会比较长,影响协调者对模型参数更新进行融合的及时性,进而会导致联邦学习模型的精确性较低。
发明内容
本申请实施例提供一种联邦学习方法及装置,解决了现有技术中横向联邦学习模型的精确性较低的问题。
第一方面,本申请实施例提供一种联邦学习方法,该方法适用于包括多个参与者的联邦学习,其中,所述多个参与者的训练数据集之间包含有不同的样本对象及相同的数据特征;所述多个参与者根据所述多个参与者的属性信息被预划分为多个参与组;其中,每个参与组对应不同的上传时间段,每个参与组中各参与者的上传时长的差值在预设阈值范围内;所述上传时长是参与者进行模型参数更新并将自身的模型参数更新发送至协调者所耗时长;所述方法包括:所述协调者获取目标参与组中各参与者上传的模型参数更新;所述目标参与组为所述多个参与组中任一参与组;所述目标参与组中各参与者上传的模型参数更新是根据所述目标参与组的上传时间段上传的;所述协调者根据所述一个或者多个参与组中的一个或者多个参与者上传的模型参数更新对联邦学习模型的参数进行更新,并将更新的联邦学习模型参数发送给参与者。
上述方法中,多个参与者根据属性信息被预划分为多个参与组,且每个参与组都对应不同的接收时间段,多个参与组的上传时间段用于规定各参与组上传模型参数更新的顺序和时限,协调者按照目标参与组的上传时间段,获取目标参与组中参与者发送的模型参数更新,从而在一定程度上使得接收多个参与组中参与者上传的模型参数更新有序,减少了因联邦学习模型多个参与者的模型参数更新送达时间差异较大受到的精确性影响,而且不需要受未送达的参与者的限制,及时一个或者多个参与组中的一个或者多个参与者上传的模型参数更新对联邦学习模型的参数进行更新,进而提升了联邦学习模型的精确性。
一种可选实施方式中,所述协调者获取目标参与组中各参与者上传的模型参数更新之前,还包括:所述协调者建立与所述目标参与组中各参与者之间的通信链路;所述协调者获取所述目标参与组中各参与者上传的模型参数更新,包括:针对所述目标参与组各参与者中任一个,所述协调者通过所述协调者与所述参与者之间的通信链路,接收所述参与者发送的模型参数更新。
上述方法中,所述协调者是通过与所述目标参与组中各参与者之间建立的通信链路,接收所述参与者发送的模型参数更新;也就是说,协调者可根据是否建立通信链路,灵活控制是否接收参与组中各参与者发送的模型参数更新。
一种可选实施方式中,若存在至少一个参与者的属性信息变更为满足所述目标参与组划分条件的属性信息,则所述协调者将所述至少一个参与者划分至所述目标参与组。
上述方法中,可根据参与者的属性信息对目标参与组中的参与者做动态调整,从而进一步增加模型参数更新的获取效率。
一种可选实施方式中,针对所述联邦学习模型的任一参数,所述协调者将所接收到的一个或者多个参与组中的参与者发送的模型参数更新进行加权平均,得到所述联邦学习模型参数更新。
上述方式下,协调者通过对所述目标参与组中各参与者所述参数当前的参数值进行加权平均,对联邦学习模型中所述参数的参数值进行了更新,从而按照权重值综合考虑了每个参与者的参数值,兼顾了每个参与者,保证了参数的准确性。
一种可选实施方式中,所述属性信息包括但不限于以下至少一项:参与者的地理位置;参与者的通信延迟和/或通信带宽;参与者拥有的数据量;参与者进行模型参数更新需要的时间;参与者的网络配置信息;参与者的优先级。
上述方式提供了属性信息多种选择,可以根据具体的场景需求,灵活选择属性信息,从而针对场景选择出合适的参与组,训练出符合场景需求的参数。
第二方面,本申请提供一种联邦学习装置,该装置适用于包括多个参与者的联邦学习,其中,所述多个参与者的训练数据集之间包含有不同的样本对象及相同的数据特征;所述多个参与者根据所述多个参与者的属性信息被预划分为多个参与组;其中,每个参与组对应不同的上传时间段,每个参与组中各参与者的上传时长的差值在预设阈值范围内;所述上传时长是参与者进行模型参数更新并将自身的模型参数更新发送至协调者所耗时长;所述装置包括:获取模块,用于获取目标参与组中各参与者上传的模型参数更新;所述目标参与组为所述多个参与组中任一参与组;所述目标参与组中各参与者上传的模型参数更新是根据所述目标参与组的上传时间段上传的;处理模块,用于根据所述一个或者多个参与组中的一个或者多个参与者上传的模型参数更新对联邦学习模型的参数进行更新,并将更新的联邦学习模型参数发送给参与者。
一种可选实施方式中,所述处理模块还用于:建立与所述目标参与组中各参与者之间的通信链路;所述获取模块具体用于:针对所述目标参与组各参与者中任一个,通过与所述参与者之间的通信链路,接收所述参与者发送的模型参数更新。
一种可选实施方式中,所述处理模块还用于:若存在至少一个参与者的属性信息变更为满足所述目标参与组划分条件的属性信息,则将所述至少一个参与者划分至所述目标参与组。
一种可选实施方式中,所述处理模块具体用于:针对所述联邦学习模型的任一参数,所述协调者将所接收到的一个或者多个参与组中的参与者发送的模型参数更新进行加权平均,得到所述联邦学习模型参数更新。
一种可选实施方式中,所述属性信息包括但不限于以下至少一项:参与者的地理位置;参与者的通信延迟和/或通信带宽;参与者拥有的数据量;参与者进行模型参数更新需要的时间;参与者的网络配置信息;参与者的优先级。
上述第二方面及第二方面各个实施例的有益效果,可以参考上述第一方面及第一方面各个实施例的有益效果,这里不再赘述。
第三方面,本申请实施例提供一种计算机设备,包括程序或指令,当所述程序或指令被执行时,用以执行上述第一方面及第一方面各个实施例的方法。
第四方面,本申请实施例提供一种存储介质,包括程序或指令,当所述程序或指令被执行时,用以执行上述第一方面及第一方面各个实施例的方法。
附图说明
图1为本申请实施例提供的一种联邦学习方法的步骤流程示意图;
图2为本申请实施例提供的一种联邦学习装置的结构示意图。
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图及具体的实施方式对上述技术方案进行详细的说明,应当理解本申请实施例以及实施例中的具体特征是对本申请技术方案的详细的说明,而不是对本申请技术方案的限定,在不冲突的情况下,本申请实施例以及实施例中的技术特征可以相互结合。
在金融机构(银行机构、保险机构或证券机构)在进行业务(如银行的贷款业务、存款业务等)运转过程中,金融科技领域中许多金融策略的调整都依赖于对大量金融交易数据进行联邦学习的结果,相应金融策略的调整很可能对金融机构的盈亏造成影响。因此,对一个金融机构来说,其联邦学习模型的精确性至关重要。
联邦学习是指通过联合不同的参与者进行机器学习的方法。在联邦学习的一轮参数更新环节分为两步:(a)每个参与者只使用自己拥有的数据来训练机器学习模型,并向一个协调者发送模型参数更新;(b)所述协调者将所收到的来自不同参与者的模型更新进行融合,并将融合后的模型参数更新再分发给各个参与者。在联邦学习中,参与者并不需要向其它参与者或者协调者暴露自己的数据,因而联邦学习可以很好的保护用户隐私和保障数据安全。
本申请实施例中涉及的联邦学习为,在参与者的数据特征重叠较多,而用户重叠较少的情况下,取出参与者用户数据特征相同而用户不完全相同的那部分数据进行联合机器学习训练。比如有两家不同地区的银行,它们的用户群体分别来自各自所在的地区,相互的交集很小。但是,它们的业务很相似,记录的用户数据特征是相同的。可以使用联邦学习来帮助两家银行构建联合模型。又如,可以通过联邦学习联合多个移动终端构建移动用户输入预测(输入自动补全和推荐)模型。再如,可以通过联邦学习联合多个移动终端构建移动用户搜索关键词预测(关键词自动补全和推荐)模型。
当联邦学习的参与者的数量非常巨大的时候,例如,几万或者几十万,甚至更多参与者时,尤其是参与者是移动终端的时候,各个参与者之间的差异会比较大,因此,各个参与者发送的模型参数更新到达协调者的时间的随机性也很大。协调者将每个参与者的模型参数更新接收完毕的等待时间会比较长,影响协调者对模型参数更新进行融合的及时性,进而会导致联邦学习模型的精确性较低。这种情况不符合银行等金融机构的需求,无法保证金融机构各项业务的高效运转。
为此,如图1所示,本申请实施例提供一种联邦学习方法,该方法适用于包括多个参与者的联邦学习,其中,所述多个参与者的训练数据集之间包含有不同的样本对象及相同的数据特征;所述多个参与者根据所述多个参与者的属性信息被预划分为多个参与组;其中,每个参与组对应不同的上传时间段,每个参与组中各参与者的上传时长的差值在预设阈值范围内;所述上传时长是参与者进行模型参数更新并将自身的模型参数更新发送至协调者所耗时长;。
需要说明的是,协调者可以确定每个参与组的规模,如对参与者的数量进行统计,当参与者的数据大于预先设定的阈值时,协调者对参与者进行分组(称为参与组)。所述阈值可以根据具体应用场景来设置,例如,当横向联邦学习的参与者是移动终端时,所述阈值可以取为1万。
多个参与者根据所述多个参与者的属性信息被预划分为多个参与组后,由于每个参与组对应不同的上传时间段,从而可以使得协调者与各个参与者(或者参与组)协商发送模型参数更新存在先后顺序,所述先后顺序是指各个参与组向所述协调者发送模型参数更新的顺序。
例如,第一个参与组在第一时间点发送模型参数更新,第二个参与组在第二时间点发送模型参数更新,以此类推。或者,由所述协调者确定各个参与组发送模型参数更新需要遵循的先后顺序,例如,所述协调者可以根据各个参与组的通信时延来确定先后顺序,平均通信时延短参与组就先发送。再如,所述协调者可以根据各个参与组的物理位置确定先后顺序,物理举例近的参与组就先发送。
一种可选实施方式中,所述属性信息包括但不限于以下至少一项:参与者的地理位置;参与者的通信延迟和/或通信带宽;参与者拥有的数据量;参与者进行模型参数更新需要的时间;参与者的网络配置信息;参与者的优先级。
上述方式提供了属性信息多种选择,可以根据具体的场景需求,灵活选择属性信息,从而针对场景选择出合适的参与组,训练出符合场景需求的参数。
举例来说,可以通过以下方式按属性信息对参与者进行分组:
(1)参与者的地理位置。协调者可以根据参与者的地理位置来对参与者进行分组,例如,协调者可以将地理位置比较接近的参与者分为一组。所述协调者可以根据参与者的互联网协议IP地址来估计所述参与者的地理位置,或者参与者可以向所述协调者报告所述参与者的地理位置。
(2)参与者的通行延迟和/或通信带宽。协调者可以根据参与者的通行延迟和/或通信带宽来对参与者进行分组,例如,所述协调者可以将通信延迟和/或通信带宽比较接近的参与者分为一组。所述协调者可以通过与参与者之间的网络通信来估计所述参与者的通信延迟和/或通信带宽。
(3)参与者拥有的数据量。协调者可以根据参与者拥有的数据量对参与者进行分组,例如,协调者可以将拥有数据量较多的和拥有数据量较少的参与者分为一组,这样可以使得各个参与组内的数据量比较均衡。所述协调者可以通过与每个参与者协商或者谈判来获得每个参与者所拥有的数据量。
(4)参与者进行模型参数更新需要的时间。例如,协调者可以将进行模型参数更新需要的时间较短的参与者分在上传时间段靠前的一个参与组。
(5)参与者的网络配置信息。例如,协调者可以将网络安全级别较高的参与者分在上传时间段靠前的一个参与组。
(6)参与者的优先级。例如,协调者可以将优先级较高的参与者分在上传时间段靠前的一个参与组。
需要说明的是,由于在不同场景需求下,对联邦学习模型的要求不同,对参与者属性信息的重视程度也不同,因此,可以根据不同场景需求选择不同的属性信息,可以结合多种因素来对参与者划分参与组。举例来说,一些场景下对参与者的数据量较敏感,优先按照参与者的数据量进行分组。
图1示出的联邦学习方法包括以下步骤:
步骤101:所述协调者获取目标参与组中各参与者上传的模型参数更新。
步骤102:所述协调者根据所述一个或者多个参与组中的一个或者多个参与者上传的模型参数更新对联邦学习模型的参数进行更新,并将更新的联邦学习模型参数发送给参与者。
需要说明的是,步骤101~步骤102为联邦学习的一轮模型参数更新过程,可以按照以下方式执行步骤101~步骤102:(a)只有轮到发送模型参数更新的某一个参与组(或者某几个参与组,例如,2个)的上传时间段时,参与组内的参与者才向协调者发送模型参数更新;(b)协调者收到所述一个(或者几个)参与组发来的模型参数更新后,所述协调者对收到的模型参数进行融合,并将融合的模型参数更新分发给所有的参与者。此过程重复进行,直至联邦学习模型收敛。
步骤101之前,一种可选实施方式(以下称为第一可选实施方式)如下:所述协调者建立与所述目标参与组中各参与者之间的通信链路。基于该可选实施方式,步骤102可以为:针对所述目标参与组各参与者中任一个,所述协调者通过所述协调者与所述参与者之间的通信链路,接收所述参与者发送的模型参数更新。
举例来说,参与组A的上传时间段为时间段A,参与组B的上传时间段为时间段B,在时间段A之前,建立协调者与参与组A的通信链路A,并在时间段A内,通过通信链路A,接收参与组A中各参与者发送的模型参数更新。
上述方法中,所述协调者是通过与所述目标参与组中各参与者之间建立的通信链路,接收所述参与者发送的模型参数更新;也就是说,协调者可根据是否建立通信链路,灵活控制是否接收参与组中各参与者发送的模型参数更新。
步骤101中,所述目标参与组为所述多个参与组中任一参与组;所述目标参与组中各参与者上传的模型参数更新是根据所述目标参与组的上传时间段上传的。
换言之,在确定了各参与组的上传时间段后,协调者可以只关心接收参与组中各参与者发送来的模型参数更新,即各参与组按照对应的上传时间段发送模型参数更新,协调者只需要接收,不需要考虑上传时间段。举例来说,参与组A的参与者和参与组B的参与者对应的上传时间段分别为:时间段A和时间段B,但如果参与组B在时间段A向协调者发送模型参数更新,协调者也会接收。具体地,可以结合第一可选实施方式按照如下方式执行:
协调者在所述多个参与组上传模型参数更新之前,便建立了与参与组A和参与组B的通信链路,且一直保持连接,因此参与组A和参与组B即便不在相应时间段内,也可通过已建立好的通信链路上传模型参数更新至协调者,而协调者并不考虑参与组的上传时间段,同样会接收参与组的模型参数更新。
另一种方式为,协调者也考虑各参与组的上传时间段,只在每个参与组对应的上传时间段接收对应的参与组发送来的模型参数更新。举例来说,如果参与组B在时间段A向协调者发送模型参数更新,协调者会拒收。具体地,可以结合第一可选实施方式按照如下方式执行:
协调者在每个参与组上传模型参数更新之前,建立了与该参与组的通信链路,举例来说在时间段A之前,建立了通信链路A,但仅在时间段A内保持通信链路A的连接,一旦超过时间段A,由于协调者考虑了参与组的上传时间段,会主动断开通信链路A,以免在其它参与组A的接收时间段,参与组A上传模型参数更新占用资源。
一种可选实施方式中,步骤102具体可以为:针对所述联邦学习模型的任一参数,所述协调者将所接收到的一个或者多个参与组中的参与者发送的模型参数更新进行加权平均,得到所述联邦学习模型参数更新。
上述方式下,协调者通过对所述目标参与组中各参与者所述参数当前的参数值进行加权平均,得到所述目标参与组的联邦学习模型中所述参数的参数值,从而按照权重值综合考虑了每个参与者的参数值,兼顾了每个参与者,保证了参数的准确性。
步骤101~步骤102中,若存在至少一个参与者的属性信息变更为满足所述目标参与组划分条件的属性信息,则所述协调者将所述至少一个参与者划分至所述目标参与组。
上述方法中,可根据参与者的属性信息对目标参与组中的参与者做动态调整,从而进一步增加模型参数更新的获取效率。
上述方法中,在每一轮参数更新过程中,协调者不需要等待接收参与者的模型参数更新,可以减少协调者的等待时间,节省联邦学习模型训练时间。在联邦学习模型训练过程中,各个参与组按照约定的先后顺序向协调者发送模型更新参数,循环进行,最终获得的联邦学习模型仍然融合了每个参与者的贡献,不会浪费任何参与者的贡献,可以得到更好的模型。
多个参与者根据属性信息被预划分为多个参与组,且每个参与组都对应不同的接收时间段,多个参与组的上传时间段用于规定各参与组上传模型参数更新的顺序和时限,协调者按照目标参与组的上传时间段,获取目标参与组中参与者发送的模型参数更新,从而在一定程度上使得接收多个参与组中参与者上传的模型参数更新有序,减少了因联邦学习模型多个参与者的模型参数更新送达时间差异较大受到的精确性影响,而且不需要受未送达的参与者的限制,及时根据多个参与组中已接收到的参与者的模型参数更新和未获取到模型参数更新的参与者的原始模型参数对联邦学习模型进行更新,进而提升了联邦学习模型的精确性。
如图2所示,本申请提供一种联邦学习装置,该装置适用于包括多个参与者的联邦学习,其中,所述多个参与者的训练数据集之间包含有不同的样本对象及相同的数据特征;所述多个参与者根据所述多个参与者的属性信息被预划分为多个参与组;其中,每个参与组对应不同的上传时间段,每个参与组中各参与者的上传时长的差值在预设阈值范围内;所述上传时长是参与者进行模型参数更新并将自身的模型参数更新发送至协调者所耗时长;所述装置包括:获取模块201,用于获取目标参与组中各参与者上传的模型参数更新;所述目标参与组为所述多个参与组中任一参与组;所述目标参与组中各参与者上传的模型参数更新是根据所述目标参与组的上传时间段上传的;处理模块202,用于根据所述一个或者多个参与组中的一个或者多个参与者上传的模型参数更新对联邦学习模型的参数进行更新,并将更新的联邦学习模型参数发送给参与者。
一种可选实施方式中,所述处理模块202还用于:建立与所述目标参与组中各参与者之间的通信链路;所述获取模块201具体用于:针对所述目标参与组各参与者中任一个,通过与所述参与者之间的通信链路,接收所述参与者发送的模型参数更新。
一种可选实施方式中,所述处理模块202还用于:若存在至少一个参与者的属性信息变更为满足所述目标参与组划分条件的属性信息,则将所述至少一个参与者划分至所述目标参与组。
一种可选实施方式中,所述处理模块202具体用于:针对所述联邦学习模型的任一参数,所述协调者将所接收到的一个或者多个参与组中的参与者发送的模型参数更新进行加权平均,得到所述联邦学习模型参数更新。
一种可选实施方式中,所述属性信息包括但不限于以下至少一项:参与者的地理位置;参与者的通信延迟和/或通信带宽;参与者拥有的数据量;参与者进行模型参数更新需要的时间;参与者的网络配置信息;参与者的优先级。
本申请实施例提供一种计算机设备,包括程序或指令,当所述程序或指令被执行时,用以执行本申请实施例提供的一种联邦学习方法及任一可选方法。
本申请实施例提供一种存储介质,包括程序或指令,当所述程序或指令被执行时,用以执行本申请实施例提供的一种联邦学习方法及任一可选方法。
最后应说明的是:本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种联邦学习方法,其特征在于,适用于包括多个参与者的联邦学习,其中,所述多个参与者的训练数据集之间包含有不同的样本对象及相同的数据特征;所述多个参与者根据所述多个参与者的属性信息被预划分为多个参与组;其中,每个参与组对应不同的上传时间段,每个参与组中各参与者的上传时长的差值在预设阈值范围内;所述上传时长是参与者进行模型参数更新并将获得的模型参数更新发送至协调者所耗时长;所述方法包括:
所述协调者根据所述多个参与者的属性信息将所述多个参与者划分为多个参与组;且每个参与组都对应不同的上传时间段,所述多个参与组的上传时间段用于规定各参与组上传模型参数更新的顺序和时限;
所述协调者按照目标参与组的上传时间段,获取所述目标参与组中各参与者上传的模型参数更新;所述目标参与组为所述多个参与组中任一参与组;所述目标参与组中各参与者上传的模型参数更新是根据所述目标参与组的上传时间段上传的;
所述协调者根据一个或者所述多个参与组中的一个或者所述多个参与者上传的模型参数更新对联邦学习模型的参数进行更新,并将更新的联邦学习模型参数发送给参与者;其中,每个参与组都对应不同的接收时间段。
2.如权利要求1所述的方法,其特征在于,所述协调者获取目标参与组中各参与者上传的模型参数更新之前,还包括:
所述协调者建立与所述目标参与组中各参与者之间的通信链路;
所述协调者获取所述目标参与组中各参与者上传的模型参数更新,包括:
针对所述目标参与组各参与者中任一个,所述协调者通过所述协调者与所述参与者之间的通信链路,接收所述参与者发送的模型参数更新。
3.如权利要求1所述的方法,其特征在于,还包括:
若存在至少一个参与者的属性信息变更为满足所述目标参与组划分条件的属性信息,则所述协调者将所述至少一个参与者划分至所述目标参与组。
4.如权利要求1所述的方法,其特征在于,所述协调者根据所述一个或者多个参与组中的参与者上传的模型参数更新对联邦学习模型的参数进行更新,包括:
针对所述联邦学习模型的任一参数,所述协调者将所接收到的一个或者多个参与组中的参与者发送的模型参数更新进行加权平均,得到所述联邦学习模型参数更新。
5.如权利要求1-4任一所述的方法,其特征在于,所述属性信息包括但不限于以下至少一项:参与者的地理位置;参与者的通信延迟和/或通信带宽;参与者拥有的数据量;参与者进行模型参数更新需要的时间;参与者的网络配置信息;参与者的优先级。
6.一种联邦学习装置,其特征在于,适用于包括多个参与者的联邦学习,其中,所述多个参与者的训练数据集之间包含有不同的样本对象及相同的数据特征;所述多个参与者根据所述多个参与者的属性信息被预划分为多个参与组;其中,每个参与组对应不同的上传时间段,每个参与组中各参与者的上传时长的差值在预设阈值范围内;所述上传时长是参与者进行模型参数更新并将自身的模型参数更新发送至协调者所耗时长;所述装置包括:
获取模块,用于根据所述多个参与者的属性信息将所述多个参与者划分为多个参与组;且每个参与组都对应不同的上传时间段,所述多个参与组的上传时间段用于规定各参与组上传模型参数更新的顺序和时限;
按照目标参与组的上传时间段,获取所述目标参与组中各参与者上传的模型参数更新;所述目标参与组为所述多个参与组中任一参与组;所述目标参与组中各参与者上传的模型参数更新是根据所述目标参与组的上传时间段上传的;
处理模块,用于根据一个或者所述多个参与组中的一个或者所述多个参与者上传的模型参数更新对联邦学习模型的参数进行更新,并将更新的联邦学习模型参数发送给参与者;其中,每个参与组都对应不同的接收时间段。
7.如权利要求6所述的装置,其特征在于,所述处理模块还用于:
建立与所述目标参与组中各参与者之间的通信链路;
所述获取模块具体用于:
针对所述目标参与组各参与者中任一个,通过与所述参与者之间的通信链路,接收所述参与者发送的模型参数更新。
8.如权利要求6所述的装置,其特征在于,所述处理模块还用于:
若存在至少一个参与者的属性信息变更为满足所述目标参与组划分条件的属性信息,则将所述至少一个参与者划分至所述目标参与组。
9.一种计算机设备,其特征在于,包括程序或指令,当所述程序或指令被执行时,如权利要求1至5中任意一项所述的方法被执行。
10.一种存储介质,其特征在于,包括程序或指令,当所述程序或指令被执行时,如权利要求1至5中任意一项所述的方法被执行。
CN201910757743.6A 2019-08-16 2019-08-16 一种联邦学习方法及装置 Active CN110443375B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910757743.6A CN110443375B (zh) 2019-08-16 2019-08-16 一种联邦学习方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910757743.6A CN110443375B (zh) 2019-08-16 2019-08-16 一种联邦学习方法及装置

Publications (2)

Publication Number Publication Date
CN110443375A CN110443375A (zh) 2019-11-12
CN110443375B true CN110443375B (zh) 2021-06-11

Family

ID=68435933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910757743.6A Active CN110443375B (zh) 2019-08-16 2019-08-16 一种联邦学习方法及装置

Country Status (1)

Country Link
CN (1) CN110443375B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110942154B (zh) * 2019-11-22 2021-07-06 深圳前海微众银行股份有限公司 基于联邦学习的数据处理方法、装置、设备及存储介质
CN111126609B (zh) * 2019-12-20 2021-04-23 深圳前海微众银行股份有限公司 基于联邦学习的知识迁移方法、装置、设备及介质
CN113496291A (zh) * 2020-03-18 2021-10-12 索尼公司 用于联邦学习的装置、方法和存储介质
CN113470806B (zh) * 2020-03-31 2024-05-24 中移(成都)信息通信科技有限公司 病情检测模型的确定方法、装置、设备及计算机存储介质
CN111522669A (zh) * 2020-04-29 2020-08-11 深圳前海微众银行股份有限公司 横向联邦学习系统优化方法、装置、设备及可读存储介质
CN111340242B (zh) * 2020-05-15 2020-08-04 支付宝(杭州)信息技术有限公司 保护隐私的模型联合训练方法及装置
CN111598254B (zh) * 2020-05-22 2021-10-08 深圳前海微众银行股份有限公司 联邦学习建模方法、设备及可读存储介质
CN111476376B (zh) * 2020-06-24 2020-10-16 支付宝(杭州)信息技术有限公司 联盟学习方法、联盟学习装置及联盟学习系统
WO2022014732A1 (ko) * 2020-07-14 2022-01-20 엘지전자 주식회사 무선 통신 시스템에서 연합 학습을 수행하기 위한 방법 및 장치
CN112001502B (zh) * 2020-08-24 2022-06-21 平安科技(深圳)有限公司 高延时网络环境鲁棒的联邦学习训练方法及装置
CN112149171B (zh) * 2020-10-27 2021-07-09 腾讯科技(深圳)有限公司 联邦神经网络模型的训练方法、装置、设备及存储介质
CN113255924B (zh) * 2020-11-25 2023-03-24 中兴通讯股份有限公司 联邦学习参与者选择方法、装置、设备和存储介质
CN114548472A (zh) * 2020-11-26 2022-05-27 新智数字科技有限公司 一种资源分配方法、装置、可读介质及电子设备
CN112671613B (zh) * 2020-12-28 2022-08-23 深圳市彬讯科技有限公司 联邦学习集群监控方法、装置、设备及介质
CN113094180B (zh) * 2021-05-06 2023-10-10 苏州联电能源发展有限公司 无线联邦学习调度优化方法及装置
CN113378049A (zh) * 2021-06-10 2021-09-10 平安科技(深圳)有限公司 信息推荐模型的训练方法、装置、电子设备及存储介质
CN114297941A (zh) * 2021-10-22 2022-04-08 北京邮电大学 分布式的预测活跃IPv6地址的方法及相关设备
CN116049862B (zh) * 2023-03-13 2023-06-27 杭州海康威视数字技术股份有限公司 基于异步分组联邦学习的数据保护方法、装置及系统
CN117115415B (zh) * 2023-10-25 2024-02-20 厦门久凌创新科技有限公司 基于大数据分析的图像标记处理方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101056275A (zh) * 2006-04-10 2007-10-17 腾讯科技(深圳)有限公司 一种即时通讯系统中对群组消息接收方式的设置方法
CN104950829A (zh) * 2014-03-31 2015-09-30 奇点新源国际技术开发(北京)有限公司 一种总线系统功耗控制方法及装置
CN109189825A (zh) * 2018-08-10 2019-01-11 深圳前海微众银行股份有限公司 横向数据切分联邦学习建模方法、服务器及介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104714852B (zh) * 2015-03-17 2018-05-22 华中科技大学 一种适用于分布式机器学习的参数同步优化方法及其系统
CN105335800A (zh) * 2015-11-19 2016-02-17 国网天津市电力公司 一种基于联合学习的电力用户用电量预测方法
EP4300381A3 (en) * 2016-08-19 2024-03-20 Movidius Limited Systems and methods for distributed training of deep learning models
US10255550B1 (en) * 2017-06-07 2019-04-09 States Title, Inc. Machine learning using multiple input data types
US11823067B2 (en) * 2017-06-27 2023-11-21 Hcl Technologies Limited System and method for tuning and deploying an analytical model over a target eco-system
CN109167695B (zh) * 2018-10-26 2021-12-28 深圳前海微众银行股份有限公司 基于联邦学习的联盟网络构建方法、设备及可读存储介质
CN110008696A (zh) * 2019-03-29 2019-07-12 武汉大学 一种面向深度联邦学习的用户数据重建攻击方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101056275A (zh) * 2006-04-10 2007-10-17 腾讯科技(深圳)有限公司 一种即时通讯系统中对群组消息接收方式的设置方法
CN104950829A (zh) * 2014-03-31 2015-09-30 奇点新源国际技术开发(北京)有限公司 一种总线系统功耗控制方法及装置
CN109189825A (zh) * 2018-08-10 2019-01-11 深圳前海微众银行股份有限公司 横向数据切分联邦学习建模方法、服务器及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《Federated Reinforcement Learning For Fast Personalization》;Chetan Nadiger 等;《2019 IEEE Second International Conference on Artificial Intelligence and Knowledge Engineering (AIKE)》;20190808;全文 *
《分布式机器学习系统笔记(一)——模型并行,数据并行,参数平均,ASGD》;大饼博士X;《https://xubin.blog.csdn.net/article/details/74781605》;20170729;全文 *

Also Published As

Publication number Publication date
CN110443375A (zh) 2019-11-12

Similar Documents

Publication Publication Date Title
CN110443375B (zh) 一种联邦学习方法及装置
EP3646570B1 (en) Probabilistic relay for efficient propagation in a blockchain network
CN110610242B (zh) 一种联邦学习中参与者权重的设置方法及装置
Kuang et al. Offloading decision methods for multiple users with structured tasks in edge computing for smart cities
CN110598870A (zh) 一种联邦学习方法及装置
CN108777625A (zh) 签名的验证方法、装置和系统、存储介质、电子装置
CN111860864A (zh) 纵向联邦建模优化方法、设备及可读存储介质
CN114650227B (zh) 一种分层联邦学习场景下的网络拓扑构建方法及系统
CN110058937B (zh) 用于调度专用处理资源的方法、设备和介质
CN112995303B (zh) 跨集群调度方法及装置
Math et al. Reliable federated learning systems based on intelligent resource sharing scheme for big data internet of things
Yang et al. Edge computing in the dark: Leveraging contextual-combinatorial bandit and coded computing
CN111901220A (zh) 确定聊天机器人的方法和应答系统
Ching et al. Totoro: A Scalable Federated Learning Engine for the Edge
CN112396511A (zh) 分布式风控变量数据处理方法、装置及系统
CN116582173A (zh) 基于卫星的分布式网络处理数据的方法、装置及存储介质
CN116108042A (zh) 数据处理方法、装置、电子设备、存储介质及程序产品
CN111292171A (zh) 金融理财产品推送方法及装置
CN110781384B (zh) 一种基于优先级的内容推荐方法、装置、设备及介质
CN115001692A (zh) 模型更新方法及装置、计算机可读存储介质和电子设备
CN114037045A (zh) 一种模型参数更新方法及装置
CN110611702B (zh) 区块链的文件快速传输方法、设备、系统及存储介质
CN102986196A (zh) 分布于通信结构上的节点利用具有多准则选择的拓扑服务器访问网络
Bouloukakis et al. Leveraging cdr datasets for context-rich performance modeling of large-scale mobile pub/sub systems
KR101707196B1 (ko) 무선센서 네트워크의 무선센서 노드 및 이를 이용한 클러스터링 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant