CN110929880A - 一种联邦学习方法、装置及计算机可读存储介质 - Google Patents

一种联邦学习方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN110929880A
CN110929880A CN201911099763.5A CN201911099763A CN110929880A CN 110929880 A CN110929880 A CN 110929880A CN 201911099763 A CN201911099763 A CN 201911099763A CN 110929880 A CN110929880 A CN 110929880A
Authority
CN
China
Prior art keywords
model
node
training
service end
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911099763.5A
Other languages
English (en)
Inventor
黄安埠
刘洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WeBank Co Ltd
Original Assignee
WeBank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by WeBank Co Ltd filed Critical WeBank Co Ltd
Priority to CN201911099763.5A priority Critical patent/CN110929880A/zh
Publication of CN110929880A publication Critical patent/CN110929880A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer And Data Communications (AREA)

Abstract

本申请提供一种联邦学习方法、装置及计算机可读存储介质,涉及机器学习技术领域,用以提升联邦学习系统的稳定性。该方法应用于对等网络中的客户端节点,包括:在确定所述对等网络中的服务端节点异常后,将自身的身份更新为服务端节点;向所述对等网络中的其他客户端节点发送服务端节点更新指示,指示所述其他客户端节点将所述客户端节点更新为服务端节点;接收所述其他客户端节点对本地模型进行模型训练得到的训练模型,并将接收到的训练模型进行联邦聚合得到联邦模型。该方法中,联邦学习过程不会因服务端节点的异常而中断,提升了联邦学习系统的稳定性。

Description

一种联邦学习方法、装置及计算机可读存储介质
技术领域
本申请涉及机器学习技术领域,尤其涉及一种联邦学习方法、装置及计算机可读存储介质。
背景技术
在机器学习技术领域,在一些机器学习模型具体的应用场景如目标检测中,由于机器学习模型的训练数据来源分布在不同客户端或者不同机构,不同客户端和不同机构之间常由于数据隐私或安全问题,不会向不同客户端或不同机构共享训练数据,或者由于训练数据的数据量太大而不共享训练数据。
因此常通过联邦学习的方法对上述应用场景下的模型进行训练,但是在联邦学习的系统中包括一个服务端和多个客户端,所有客户端的训练模型都需上传服务端,服务端的存储压力大以及网络传输压力都很大,一旦服务端发生异常,会直接导致联邦学习系统的崩溃,从而中断正在进行的联邦学习过程。
发明内容
本申请实施例提供一种联邦学习方法、设备及计算机可读存储介质,主要用于避免联邦学习系统崩溃,并提高联邦学习系统的稳定性。
本申请第一方面,提供一种联邦学习方法,应用于对等网络中的客户端节点,包括:
在确定所述对等网络中的服务端节点异常后,将自身的身份更新为服务端节点;
向所述对等网络中的其他客户端节点发送服务端节点更新指示,指示所述其他客户端节点将所述客户端节点更新为服务端节点;
接收所述其他客户端节点对本地模型进行模型训练得到的训练模型,并将接收到的训练模型进行联邦聚合得到联邦模型。
在一种可能的实现方式中,所述将接收到的训练模型进行联邦聚合得到联邦模型之后,还包括:
若确定所述联邦模型满足预设模型收敛条件,则向所述其他客户端节点发送训练结束指示,否则,向所述其他客户端节点发送重新训练指示,以使所述其他客户端节点根据所述重新训练指示重新对本地模型进行模型训练,直到确定所述联邦模型满足所述预设模型收敛条件。
在一种可能的实现方式中,所述确定所述联邦模型满足预设模型收敛条件之后,还包括:
根据预设共享校验数据对所述联邦模型的模型表现进行校验,若确定所述模型表现满足预设模型表现,则将所述联邦模型加入模型数据库。
在一种可能的实现方式中,所述方法还包括:
周期性向所述其他客户端节点发送连接确认信息;
根据其他客户端节点响应所述连接确认消息发送的连接响应信号,确定所述对等网络中网络连接异常的客户端节点,并将所述网络连接异常的客户端节点从所述对等网络中删除,所述连接响应信号包含所述其他客户端节点的节点标识信息。
在一种可能的实现方式中,所述方法还包括:
在确定所述对等网络中的服务端节点正常后,将对本地模型进行训练得到的训练模型发送给所述服务端节点,以使所述服务端节点将至少一个客户端节点发送的所述训练模型进行联邦聚合得到联邦模型。
在一种可能的实现方式中,还包括:
若接收到所述服务端节点发送的重新训练指示,则将所述服务端节点最近一次发送的联邦模型作为本地模型,对所述本地模型进行重新训练,并将重新训练得到的训练模型发送给所述服务端节点,直到接收到所述服务端节点发送的训练结束指示。
在一种可能的实现方式中,所述对本地模型进行训练之前,还包括:
将接收到的用户身份标识发送给所述服务端节点;
在所述服务端节点对所述用户身份标识的权限验证通过后,从模型数据库中获取所述联邦模型,并将所述联邦模型作为本地模型。
在一种可能的实现方式中,所述方法还包括:
在接收到所述对等网络中的其他客户端节点发送的服务端节点更新指示后,将发送所述服务端节点更新指示的所述其他客户端节点作为新的服务端节点;
将对本地模型进行训练得到的训练模型发送给所述新的服务端节点。
本申请第二方面,提供一种联邦学习方法,包括:
在接收到所述对等网络中的其他客户端节点发送的服务端节点更新指示后,将发送所述服务端节点更新指示的所述其他客户端节点作为新的服务端节点;
将对本地模型进行训练得到的训练模型发送给所述新的服务端节点。
在一种可能的实现方式中,若接收到所述新的服务端节点发送的重新训练指示,则将所述新的服务端节点最近一次发送的联邦模型作为本地模型,对所述本地模型进行重新训练,并将重新训练得到的所述训练模型发送给所述新的服务端节点,直到接收到所述新的服务端节点发送的训练结束指示。
在一种可能的实现方式中,将接收到的用户身份标识发送给所述新的服务端节点;
在所述新的服务端节点对所述用户身份标识的权限验证通过后,从模型数据库中获取所述联邦模型,并将所述联邦模型作为本地模型。
在一种可能的实现方式中,接收所述新的服务端节点周期性发送的连接确认消息,并在接收所述连接确认消息后的预设时间内,向所述新的服务端节点发送包含自身的节点标识的连接响应信号,以使所述新的服务端节点确定所述对等网络中网络连接异常的客户端节点并删除。
本申请第三方面,提供一种联邦学习装置,包括:
身份更新单元,用于在确定所述对等网络中的服务端节点异常后,将自身的身份更新为服务端节点;
身份指示单元,用于向所述对等网络中的其他客户端节点发送服务端节点更新指示,指示所述其他客户端节点将所述客户端节点更新为服务端节点;
联邦聚合单元,用于接收所述其他客户端节点对本地模型进行模型训练得到的训练模型,并将接收到的训练模型进行联邦聚合得到联邦模型。
在一种可能的实现方式中,所述联邦聚合单元还用于:
将接收到的训练模型进行联邦聚合得到联邦模型之后,若确定所述联邦模型满足预设模型收敛条件,则向所述其他客户端节点发送训练结束指示,否则,向所述其他客户端节点发送重新训练指示,以使所述其他客户端节点根据所述重新训练指示重新对本地模型进行模型训练,直到确定所述联邦模型满足所述预设模型收敛条件。
在一种可能的实现方式中,所述联邦聚合单元还用于,确定所述联邦模型满足预设模型收敛条件之后,根据预设共享校验数据对所述联邦模型的模型表现进行校验,若确定所述模型表现满足预设模型表现,则将所述联邦模型加入模型数据库。
在一种可能的实现方式中,还包括:
异常节点确定单元,用于周期性向所述其他客户端节点发送连接确认信息;
根据其他客户端节点响应所述连接确认消息发送的连接响应信号,确定所述对等网络中网络连接异常的客户端节点,并将所述网络连接异常的客户端节点从所述对等网络中删除,所述连接响应信号包含所述其他客户端节点的节点标识信息。
在一种可能的实现方式中,所述装置还包括:
模型训练单元,用于在确定所述对等网络中的服务端节点正常后,将对本地模型进行训练得到的训练模型发送给所述服务端节点,以使所述服务端节点将至少一个客户端节点发送的所述训练模型进行联邦聚合得到联邦模型。
在一种可能的实现方式中,所述模型训练单元还用于:
若接收到所述服务端节点发送的重新训练指示,则将所述服务端节点最近一次发送的联邦模型作为本地模型,对所述本地模型进行重新训练,并将重新训练得到的所述训练模型发送给所述服务端节点,直到接收到所述服务端节点发送的训练结束指示。
在一种可能的实现方式中,所述模型训练单元还用于,对本地模型进行训练之前,将接收到的用户身份标识发送给所述服务端节点;
在所述服务端节点对所述用户身份标识的权限验证通过后,从模型数据库中获取所述联邦模型,并将所述联邦模型作为本地模型。
在一种可能的实现方式中,还包括:
连接确认单元,用于接收所述服务端节点周期性发送的连接确认消息,并在接收所述连接确认消息后的预设时间内,向所述服务端节点发送包含自身的节点标识的连接响应信号,以使所述服务端节点确定所述对等网络中网络连接异常的客户端节点并删除。
在一种可能的实现方式中,所述身份更新单元还用于在接收到所述对等网络中的其他客户端节点发送的服务端节点更新指示后,将发送所述服务端节点更新指示的所述其他客户端节点更新为新的服务端节点;
所述模型训练单元还用于将对本地模型进行训练得到的训练模型发送给所述新的服务端节点。
本申请第四方面,提供一种联邦学习装置,包括:
身份更新单元,用于在接收到所述对等网络中的其他客户端节点发送的服务端节点更新指示后,将发送所述服务端节点更新指示的所述其他客户端节点更新为新的服务端节点;
模型训练单元,用于将对本地模型进行训练得到的训练模型发送给所述新的服务端节点。
在一种可能的实现方式中,所述模型训练单元还用于:
若接收到所述新的服务端节点发送的重新训练指示,则将所述新的服务端节点最近一次发送的联邦模型作为本地模型,对所述本地模型进行重新训练,并将重新训练得到的所述训练模型发送给所述新的服务端节点,直到接收到所述新的服务端节点发送的训练结束指示。
在一种可能的实现方式中,所述模型训练单元还用于:
将接收到的用户身份标识发送给所述新的服务端节点;
在所述新的服务端节点对所述用户身份标识的权限验证通过后,从模型数据库中获取所述联邦模型,并将所述联邦模型作为本地模型。
在一种可能的实现方式中,所述装置还包括:
连接确认单元,用于接收所述新的服务端节点周期性发送的连接确认消息,并在接收所述连接确认消息后的预设时间内,向所述新的服务端节点发送包含自身的节点标识的连接响应信号,以使所述新的服务端节点确定所述对等网络中网络连接异常的客户端节点并删除。
本申请第五方面,提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,当所述计算机指令在计算机上运行时,使得计算机执行如第一方面或第二方面中任一所述的方法。
本申请实施例至少带来以下有益效果:
本申请中,联邦学习系统中的服务器端节点和客户端节点建立了对等网络,当服务端节点出现异常后,可由任意一个客户端节点充当服务端节点的角色,继续在联邦学习系统中进行联邦学习过程,使得联邦学习过程不会因为服务端节点的异常而中断,提高了联邦学习系统的稳定性和健壮性。
附图说明
图1为本申请实施例提供的一个标准的联邦学习过程的示意图;
图2为本申请实施例提供的一种对等网络的示意图;
图3为本申请实施例提供的一种基于P2P网络的联邦学习系统的示意图;
图4为本申请实施例中客户端节点在各个场景下的执行步骤的示意图;
图5为本申请实施例提供的一种基于P2P网络的联邦学习方法的流程图;
图6为本申请实施例提供的另一种基于P2P网络的联邦学习方法的示意图;
图7为本申请实施例提供的一种联邦学习装置的示意图;
图8为本申请实施例提供的一种电子设备的示意图;
图9为本申请实施例提供的另一种联邦学习装置的结构图;
图10为本申请实施例提供的另一种电子设备的结构图。
具体实施方式
为了更好的理解本申请实施例提供的技术方案,下面将结合说明书附图以及具体的实施方式进行详细的说明。
为了便于本领域技术人员更好地理解本申请的技术方案,下面对本申请涉及的技术术语进行说明。
客户端,可以为手机、计算机、个人数字助理(Personal Digital Assistant,PDA)、智能电视、车载设备等终端设备以及服务器等网络侧设备。
对等网络(Peer-to-Peer,P2P):即对等计算机网络,是一种在对等者(Peer)之间分配任务和工作负载的分布式应用架构,是对等计算模型在应用层形成的一种组网或网络形式,彼此连接的多台计算机都处于完全对等的地位,各台计算机有相同的功能,无主从之分,一台计算机既可作为服务器,设定共享资源供网络中其他计算机所使用,又可以作为工作站,整个网络一般来说不依赖专用的集中服务器,也没有专用的工作站。网络中的每一台计算机既能充当网络服务的请求者,又对其它计算机的请求做出响应,提供资源、服务和内容。通常这些资源和服务包括:信息的共享和交换、计算资源(如CPU计算能力共享)、存储共享(如缓存和磁盘空间的使用)、网络共享、打印机共享等。
联邦学习思想:利用技术算法加密建造的机器学习模型,联邦学习架构中的多个客户端在模型训练时不用给出己方数据,而是根据服务端下发的参数加密的全局的联邦模型和客户端本地的训练数据来训练本地模型,并返回本地模型供服务端聚合更新全局的联邦模型,更新后的联邦模型重新下发到客户端,循环往复,直到收敛。
在一些机器学习模型具体的应用场景如目标检测中,由于机器学习模型的训练数据来源分布在不同客户端或者不同机构,不同客户端和不同机构之间往往由于数据隐私或安全问题,不会向不同客户端或不同机构共享训练数据,或者由于训练数据的数据量太大而不共享训练数据。
如在目标检测模型训练的过程中,目标检测的数据来源分布在不同的客户端,比如在不同的摄像头中,或者在不同的机构,而不同的机构之间往往由于隐私问题不会共享校验数据,或者由于数据量太大而不便于共享校验数据,此时训练得到的目标检测模型应用的不同的客户端或机构时,目标检测模型的表现能力差,因此出现了通过联邦学习过程训练上述检测模型的方法,以保证各个客户端的数据安全。
如图1所示,以下给出一个标准的联邦学习过程,具体包括:
步骤S101,各个客户端11利用本地训练数据训练本地模型,得到训练模型;
步骤S102,各个客户端11将训练得到的训练模型发送给服务端12;
步骤S103,服务端12接收多个客户端发送的训练模型,并将接收的多个训练模型进行联邦聚合得到联邦模型;
步骤S104,服务端将联邦聚合得到的联邦模型发送给各个客户端;
步骤S105,各个客户端接收联邦模型,并将本地模型更新为联邦模型。
上述所有客户端的训练模型都需上传服务器端,服务端的存储压力大以及网络传输压力都很大,一旦服务端发生异常,会直接导致联邦学习系统的崩溃,从而中断正在进行的联邦学习过程,联邦学习系统的稳定性较低。
鉴于此,本申请提供了一种联邦学习方法,应用于对等网络中的客户端节点,具体包括:
联邦学习系统中的客户端节点和服务端节点建立对等网络,在进行联邦学习的过程中,客户端节点在确定上述对等网络中的服务端节点异常后,将自身的身份更新为服务端节点,向上述对等网络中的其他客户端节点发送服务端节点更新指示,指示上述其他客户端节点将上述客户端节点更新为服务端节点,并接收上述其他客户端节点对本地模型进行模型训练得到的训练模型,并将接收到的训练模型进行联邦聚合得到联邦模型。
进一步,客户端节点在确定上述对等网络中的服务端节点正常后,将对本地模型进行训练得到的训练模型发送给上述服务端节点,以使上述服务端节点将至少一个客户端节点发送的上述训练模型进行联邦聚合得到联邦模型。
以下结合附图,对本申请的方案进行详细说明:
如图2所示,本实施例提供一种对等网络,该对等网络中包括多个节点,每个节点的身份可以为服务端节点或客户端节点,且在不同时机下,一个节点的身份可以由客户端节点更新为服务器端节点,图2中的服务端节点21和多个客户端节点22仅为示例性的,其身份可以转换。
如图3所示,本实施例提供一种基于P2P网络的联邦学习系统,包括:服务端节点21,多个客户端节点22、共享校验数据库31、模型数据库32,其中:
上述服务端节点21用于接收至少一个客户端节点22上传的训练模型,并将接收的至少一个训练模型进行模型聚合得到联邦模型,上述训练模型是各个客户端节点22利用本地训练数据训练本地模型获得。
客户端节点22用于从模型数据库中获取联邦模型作为本地模型,并利用本地训练数据对上述本地模型进行训练得到训练模型,以及将得到的训练模型发送给服务端节点21。
客户端节点21可以为一个设备,也可以包括主要服务器和主要客户端,以协同训练得到客户端节点的训练模型。
共享校验数据库31用于存放判断联邦模型的模型表现的共享校验数据。
模型数据库32用于存放通过共享校验数据校验模型表现良好的联邦模型,该模型数据库32中还保存有历史联邦聚合得到的模型表现良好的联邦模型。
可选地,上述共享校验数据库31和模型数据库32可以保存在云端网络中。
为了保证各个客户端节点的本地训练数据的安全,该联邦学习系统还可以包括权限服务器节点33,在客户端节点请求从模型数据库中获取联邦模型时,对使用客户端节点的用户的身份进行校验,确定上述用户是否具有下载联邦模型的权限。
可选地,上述权限服务器节点33和服务端节点21可以是同一个设备,也可以是不同的设备,本领域的技术人员可根据实际需求设置。
本实施例提供一种基于P2P网络的联邦学习方法,可用于上述基于P2P网络的联邦学习系统,以下仅以服务端节点和客户端节点的交互为例进行示意性说明:
应当说明的是,在进行如下步骤之前,属于同一联邦架构中的服务端节点和多个客户端节点之间建立了对等网络。
对于对等网络中的任一客户端节点而言,在确定满足模型训练触发条件后,首先确定对等网络中的服务端节点,并与服务端节点协作进行联邦学习过程,其中,可能存在如下情形:
场景1:该客户端节点确定对等网络中的服务端节点正常,与服务端节点正常协作进行联邦学习过程。
场景2:该客户端节点确定对等网络中的服务端节点异常,将自身身份更新为服务端节点,进而与其他客户端节点协作进行联邦学习过程。
场景3:该客户端节点接收到对等网络中的其他客户端节点发送的服务端节点更新指示,将服务端节点更新指示通知的客户端节点更新为新的服务端节点,并与新的服务端节点协作进行联邦学习过程。
上述模型训练触发条件可以但不局限于包括如下一种或多种:
第一种模型训练触发条件:使用客户端节点的用户指示进行模型训练。
第二种模型训练触发条件:对等网络中的其他客户端节点指示进行模型训练。
第三模型训练触发条件:对等网络中的服务端节点指示进行模型训练。
以下分别针对上述3种场景,进行详细说明:
场景1:
客户端节点A确定对等网络中的服务端节点B异常后,将自身的身份更新为服务端节点,并向对等网络中的其他客户端发送服务端节点更新指示,以指示上述其他客户端节点将上述客户端节点更新为服务端节点。
对应地,其他客户端节点接收服务端节点更新指示后,将上述客户端节点更新为新的服务端节点,并对本地模型进行训练,将训练得到的训练模型发送给上述新的服务端节点(即客户端节点A)。
对应地,上述新的服务器节点(即客户端节点A)接收其他客户端节点发送的训练模型,并将接收的训练模型进行联邦聚合得到联邦模型。
场景2:
客户端节点A确定对等网络中的服务端节点C正常后,对本地模型进行训练,将训练得到的训练模型发送给上述服务端节点C。
对应地,服务端节点C接收客户端节点A以及其他客户端发送的训练模型,并将得到的各个训练模型进行联邦聚合得到联邦模型。
场景3:
客户端节点A接收到客户端节点D发送的服务端节点更新指示后,将客户端节点D更新为新的服务端节点,并对本地模型进行训练,将训练得到的训练模型发送给新的服务端节点(即客户端节点D)。
对应地,新的服务端节点(即客户端D)接收到客户端节点A及其他客户端节点的训练模型后,对接收的训练模型进行联邦聚合得到联邦模型。
上述场景1至场景3中,客户端节点的操作情况可参见图4。
上述场景1至场景3中,服务端节点异常的情况可以但不局限于为服务器节点崩溃、服务器节点的存储压力或计算压力过大、服务器节点的网络连接中断等。
可选地,上述场景1至场景3中,可以由最先发现服务器节点异常的客户端节点,将自身的身份更新为服务器节点。
在对等网络中的节点确定自身的身份后,可以由客户端节点和服务端节点协作进行联邦学习过程,如图5所示,以下仅以服务端节点和客户端节点的交互为例进行示意性说明:
步骤S501,客户端节点获取本地模型。
其中,客户端节点在获取本地模型之前,需要进行如下步骤S5011和S5012:
步骤S5011,客户端节点向权限服务器节点验证是否具有下载模型的权限;
步骤S5012,权限服务器节点对客户端节点的权限验证通过;
客户端节点需要先向权限服务器节点验证是否具有下载模型的权限,在权限服务器节点对客户端节点的权限验证通过后,客户端节点才能获取本地模型。
可选地,客户端节点可以从模型数据库中获取已保存的联邦模型作为本地模型。
步骤S502,客户端节点选择本地训练数据对本地模型进行模型训练,得到训练模型,并将上述训练模型发送给对等网络中的服务端节点。
可选地,使用该客户端节点的用户可以对客户端节点本地训练数据进行标注,从该客户端节点的本地训练数据中选择一部分作为训练样本,以上述训练样本对本地模型进行模型训练。
应当说明的是,各个客户端节点都会进行上述步骤S501和步骤S502,在图5中仅以客户端节点1进行示例性举例说明,客户端节点2至客户端节点n可以进行同样的步骤,其中n为大于2的正整数,表示客户端节点的编号。
步骤S503,服务端节点接收对等网络中的至少一个客户端节点发送的训练模型。
步骤S504,服务端节点将上述至少一个客户端节点的训练模型进行联邦聚合得到联邦模型。
可选地,在上述步骤S501,获取本地模型可以包括:
客户端节点将接收到的用户身份标识发送给服务端节点;
服务端节点对上述用户身份标识的获取联邦模型的权限进行验证,确定权限验证通过后,向上述客户端节点发送指示;
上述客户端节点在上述服务端节点对上述用户身份标识的权限验证通过后,从模型数据库中获取联邦模型,并将上述联邦模块作为本地模型。
可选地,本实施例中预先建立一个拥有权限的用户身份标识集合,服务端节点若确定客户端节点发送的用户身份标识在上述用户身份标识集合中,则对上述用户身份标识的权限验证通过。
可选地,还可以预先建立一个用户身份标识和联邦模型标识的映射关系,服务端节点确定在上述映射关系中能找到定客户端节点发送的用户身份标识对应的联邦模型标识时,则对上述用户身份标识的权限验证通过。
可选地,在上述步骤S501,上述模型数据库中还包括上述联邦模型的保存数据,该保存数据可以是联邦模型的保存进模型数据库的保存时间,客户端节点从模型数据库中获取本地模型包括如下一种或多种:
客户端节点根据模型数据库中各个联邦模型的保存数据,获取保存数据指示的保存时间距离当前时刻最近的联邦模型作为本地模型;或者
客户端节点根据用户身份标识和上述联邦模型的预设映射关系,获取接收到的用户身份标识对应的联邦模型。
可选地,在上述步骤S502,客户端节点选择本地训练数据对本地模型进行模型训练之前,还包括:
确定该客户端节点是否满足如下一种或多种模型训练开始条件:
第一种模型训练开始条件:该客户端节点的中央处理器CPU的占用率不超过第一预设数值。
第二种模型训练开始条件:该客户端节点的内存的占用率不超过第二预设数值。
第三种模型训练开始条件:该客户端节点的硬盘的占用率不超过第三预设数值。
如图6所示,在步骤S504之后还可以包括:
步骤S601,服务端节点判断该联邦模型是否满足预设模型收敛条件,若满足,则进入步骤S602,若不满足,向上述多个客户端节点发送重新训练指示,并进入步骤S603;
步骤S602,服务端节点根据预设共享校验数据对上述联邦模型的模型表现进行校验,确定上述模型表现满足预设模型表现时,上述服务端节点将上述联邦模型加入模型数据库,确定上述模型表现不满足预设模型表现时,丢弃该联邦模型,并向客户端节点发送训练结束指示。
其中,当联邦模型的预测准确率达到第一预设值,可以认为该联邦模型的模型表现满足预设模型表现。
步骤S603,客户端节点接收服务端节点发送的重新训练指示,重新进行模型训练,并将重新进行模型训练得到的训练模型发送给对等网络中的服务端节点,直到接收到上述服务端节点发送的训练结束指示。
可选地,在步骤S603,客户端节点可以但不局限于按照如下一种或多种方式,重新进行模型训练:
第一种重新训练方式:
重新从模型数据库中获取新的联邦模型作为上述本地模型,并利用本地训练数据对重新获取的本地模型进行模型训练,得到训练模型。
如客户端节点上一次模型训练时,从模型数据库中获取了联邦模型A作为本地模型,并利用本地训练数据对上述本地模型进行训练得到训练模型,客户端节点在向服务端节点发送上述训练模型后若接收服务端节点发送的重新训练指示,则可以从模型数据库中,获取除了联邦模型A之外的联邦模型作为本地模型,并利用本地训练数据对该本地模型进行训练。
第二种重新训练方式:
重新选择本地训练数据对上述本地模型进行模型训练,得到训练模型。
如客户端节点在获取了初始联邦模型后,第一次对初始联邦模型进行模型训练时,可以从本地训练数据中选择一部分数据作为训练样本,对上述初始模型进行训练得到训练模型,客户端节点在向服务端节点发送上述训练模型后若接收到服务端节点发送的重新训练指示,则可以重新从本地训练样本中选择一部分数据作为新的训练样本,对上述本地模型进行训练。
第三种重新训练方式:
获取新的联邦模型作为本地模型,并重新选择本地训练数据对上述新的本地模型进行模型训练,得到训练模型。
如客户端节点上一次模型训练时,从模型数据库中获取了联邦模型A作为本地模型,并从本地训练数据中选择一部分数据作为训练样本,对上述本地模型进行训练得到了训练模型A,客户端节点在向服务端节点发送上述训练模型A后若接收到服务端节点发送的重新训练指示,则可以将上一次训练得到的训练模型A作为本地模型,或者从模型数据库中,获取除了联邦模型A之外的联邦模型作为本地模型,并重新从本地训练样本中选择一部分数据作为新的训练样本,对上述本地模型进行训练。
可选地,对等网络中的节点确定自身的身份后,还包括:
上述至少一个客户端节点将自身的身份标识信息发送给服务端节点;
服务端节点接收上述至少一个客户端节点的身份标识信息并保存,以得知当前该对等网络中的各个客户端节点的身份;
服务端节点周期性向上述至少一个客户端节点发送连接确认消息以确定网络连接异常的客户端节点;以及将在预设时间段内未接收到连接响应信号的客户端节点确定为网络连接异常的客户端节点,其中,上述连接响应信号中包含客户端节点的身份标识信息;
其中,服务端节点确定出、网络连接异常的客户端节点后,可以将网络连接异常的客户端节点进行标注或删除,以便后期避免向该网络连接异常的客户端节点发送消息或接收消息,进而能节约网络带宽,保证联邦学习过程中的网络环境。
可选地,服务端节点在对网络连接异常的客户端节点进行标注或删除时,可以将网络连接异常的客户端节点的身份标识信息进行标注或删除。
对应地,各个客户端节点接收服务端节点周期性发送的连接确认消息,并在接收上述连接确认消息后的预设时间段内,向上述服务端节点发送包含自身的身份标识信息的连接响应信号。
如图7所示,基于同一技术构思,本申请实施例还提供一种联邦学习装置700,该装置即为前文论述的对等网络中的客户端节点,该装置包括:
身份更新单元701,用于在确定上述对等网络中的服务端节点异常后,将自身的身份更新为服务端节点;
身份指示单元702,用于向上述对等网络中的其他客户端节点发送服务端节点更新指示,指示上述其他客户端节点将上述客户端节点更新为服务端节点;
联邦聚合单元703,用于接收上述其他客户端节点对本地模型进行模型训练得到的训练模型,并将接收到的训练模型进行联邦聚合得到联邦模型。
可选地,上述联邦聚合单元还用于:
将接收到的训练模型进行联邦聚合得到联邦模型之后,若确定上述联邦模型满足预设模型收敛条件,则向上述其他客户端节点发送训练结束指示,否则,向上述其他客户端节点发送重新训练指示,以使上述其他客户端节点根据上述重新训练指示重新对本地模型进行模型训练,直到确定上述联邦模型满足上述预设模型收敛条件。
可选地,上述联邦聚合单元还用于,确定上述联邦模型满足预设模型收敛条件之后,根据预设共享校验数据对上述联邦模型的模型表现进行校验,若确定上述模型表现满足预设模型表现,则将上述联邦模型加入模型数据库。
可选地,该装置还包括异常节点确定单元,用于周期性向上述其他客户端节点发送连接确认信息;
根据其他客户端节点响应上述连接确认消息发送的连接响应信号,确定上述对等网络中网络连接异常的客户端节点,并将上述网络连接异常的客户端节点从上述对等网络中删除,上述连接响应信号包含上述其他客户端节点的节点标识信息
可选地,该装置还包括:模型训练单元,用于在确定上述对等网络中的服务端节点正常后,将对本地模型进行训练得到的训练模型发送给上述服务端节点,以使上述服务端节点将至少一个客户端节点发送的上述训练模型进行联邦聚合得到联邦模型。
可选地,上述模型训练单元还用于,若接收到上述服务端节点发送的重新训练指示,则将上述服务端节点最近一次发送的联邦模型作为本地模型,对上述本地模型进行重新训练,并将重新训练得到的训练模型发送给上述服务端节点,直到接收到上述服务端节点发送的训练结束指示。
可选地,上述模型训练单元还用于,对本地模型进行训练之前,将接收到的用户身份标识发送给上述服务端节点;
在上述服务端节点对上述用户身份标识的权限验证通过后,从模型数据库中获取上述联邦模型,并将上述联邦模型作为本地模型。
可选地,该装置还包括连接确认单元,用于接收上述服务端节点周期性发送的连接确认消息,并在接收上述连接确认消息后的预设时间内,向上述服务端节点发送包含自身的节点标识的连接响应信号,以使上述服务端节点确定上述对等网络中网络连接异常的客户端节点并删除。
可选地,上述身份更新单元单元还用于,在接收到上述对等网络中的其他客户端节点发送的服务端节点更新指示后,将发送上述服务端节点更新指示的上述其他客户端节点更新为新的服务端节点;
上述模型训练单元还用于,将对本地模型进行训练得到的训练模型发送给上述新的服务端节点。
基于同一技术构思,本申请实施例还提供一种电子设备800,请参照图8,该计算机设备包括处理器801和存储器802,其中:
存储器802中存储有计算机程序;
处理器801执行该计算机程序时实现前文论述的测试区块链软件的方法。
图8中是以一个处理器801为例,但是实际上不限制处理器801的数量。
其中,存储器802可以是易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器802也可以是非易失性存储器(non-volatilememory),例如只读存储器,快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD)、或者存储器802是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器802可以是上述存储器的组合。
作为一种实施例,图7中的联邦学习装置700的各个模块的功能可以通过图8中的处理器801来实现。
如图9所示,基于同一技术构思,本申请实施例还提供一种联邦学习装置900,该装置即为前文论述的客户端节点,该装置包括:
身份更新单元901,用于在接收到上述对等网络中的其他客户端节点发送的服务端节点更新指示后,将发送上述服务端节点更新指示的上述其他客户端节点更新为新的服务端节点;
模型训练单元902,用于将对本地模型进行训练得到的训练模型发送给上述新的服务端节点。
可选地,上述模型训练单元还用于:
若接收到上述新的服务端节点发送的重新训练指示,则将上述新的服务端节点最近一次发送的联邦模型作为本地模型,对上述本地模型进行重新训练,并将重新训练得到的上述训练模型发送给上述新的服务端节点,直到接收到上述新的服务端节点发送的训练结束指示。
可选地,上述模型训练单元还用于:
将接收到的用户身份标识发送给上述新的服务端节点;
在上述新的服务端节点对上述用户身份标识的权限验证通过后,从模型数据库中获取上述联邦模型,并将上述联邦模型作为本地模型。
可选地,上述装置还包括:
连接确认单元,用于接收上述新的服务端节点周期性发送的连接确认消息,并在接收上述连接确认消息后的预设时间内,向上述新的服务端节点发送包含自身的节点标识的连接响应信号,以使上述新的服务端节点确定上述对等网络中网络连接异常的客户端节点并删除。
基于同一技术构思,本申请实施例还提供另一种电子设备1000,请参照图10,该计算机设备包括处理器1001和存储器1002,其中:
存储器1002中存储有计算机程序;
处理器1001执行该计算机程序时实现前文论述的测试区块链软件的方法。
图10中是以一个处理器1001为例,但是实际上不限制处理器1001的数量。
其中,存储器1002可以是易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器1002也可以是非易失性存储器(non-volatilememory),例如只读存储器,快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD)、或者存储器902是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器1002可以是上述存储器的组合。
作为一种实施例,图9中的联邦学习装置900的各个模块的功能可以通过图10中的处理器1001来实现。
基于同一技术构思,本申请实施例还一种计算机可读存储介质,该计算机可读存储介质存储有计算机指令,当上述计算机指令在计算机上运行时,使得计算机执行如前文论述的联邦模型训练方法。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (10)

1.一种联邦学习方法,其特征在于,应用于对等网络中的客户端节点,包括:
在确定所述对等网络中的服务端节点异常后,将自身的身份更新为服务端节点;
向所述对等网络中的其他客户端节点发送服务端节点更新指示,指示所述其他客户端节点将所述客户端节点更新为服务端节点;
接收所述其他客户端节点对本地模型进行模型训练得到的训练模型,并将接收到的训练模型进行联邦聚合得到联邦模型。
2.如权利要求1所述的方法,其特征在于,所述将接收到的训练模型进行联邦聚合得到联邦模型之后,还包括:
若确定所述联邦模型满足预设模型收敛条件,则向所述其他客户端节点发送训练结束指示,否则,向所述其他客户端节点发送重新训练指示,以使所述其他客户端节点根据所述重新训练指示重新对本地模型进行模型训练,直到确定所述联邦模型满足所述预设模型收敛条件。
3.如权利要求2所述的方法,其特征在于,所述确定所述联邦模型满足预设模型收敛条件之后,还包括:
根据预设共享校验数据对所述联邦模型的模型表现进行校验,若确定所述模型表现满足预设模型表现,则将所述联邦模型加入模型数据库。
4.如权利要求1所述的方法,其特征在于,所述方法还包括:
在确定所述对等网络中的服务端节点正常后,将对本地模型进行训练得到的训练模型发送给所述服务端节点,以使所述服务端节点将至少一个客户端节点发送的所述训练模型进行联邦聚合得到联邦模型。
5.如权利要求4所述的方法,其特征在于,还包括:
若接收到所述服务端节点发送的重新训练指示,则将所述服务端节点最近一次发送的联邦模型作为本地模型,对所述本地模型进行重新训练,并将重新训练得到的训练模型发送给所述服务端节点,直到接收到所述服务端节点发送的训练结束指示。
6.如权利要求5所述的方法,其特征在于,所述对本地模型进行训练之前,还包括:
将接收到的用户身份标识发送给所述服务端节点;
在所述服务端节点对所述用户身份标识的权限验证通过后,从模型数据库中获取所述联邦模型,并将所述联邦模型作为本地模型。
7.一种联邦学习方法,其特征在于,应用于对等网络中的客户端节点,包括:
在接收到所述对等网络中的其他客户端节点发送的服务端节点更新指示后,将发送所述服务端节点更新指示的所述其他客户端节点更新为新的服务端节点;
将对本地模型进行训练得到的训练模型发送给所述新的服务端节点。
8.一种联邦学习装置,其特征在于,包括:
身份更新单元,用于在确定所述对等网络中的服务端节点异常后,将自身的身份更新为服务端节点;
身份指示单元,用于向所述对等网络中的其他客户端节点发送服务端节点更新指示,指示所述其他客户端节点将所述客户端节点更新为服务端节点;
联邦聚合单元,用于接收所述其他客户端节点对本地模型进行模型训练得到的训练模型,并将接收到的训练模型进行联邦聚合得到联邦模型。
9.一种联邦学习装置,其特征在于,包括:
身份更新单元,用于在接收到所述对等网络中的其他客户端节点发送的服务端节点更新指示后,将发送所述服务端节点更新指示的所述其他客户端节点更新为新的服务端节点;
模型训练单元,用于将对本地模型进行训练得到的训练模型发送给所述新的服务端节点。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,当所述计算机指令在计算机上运行时,使得计算机执行如权利要求1-6或7中任一项所述的方法。
CN201911099763.5A 2019-11-12 2019-11-12 一种联邦学习方法、装置及计算机可读存储介质 Pending CN110929880A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911099763.5A CN110929880A (zh) 2019-11-12 2019-11-12 一种联邦学习方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911099763.5A CN110929880A (zh) 2019-11-12 2019-11-12 一种联邦学习方法、装置及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN110929880A true CN110929880A (zh) 2020-03-27

Family

ID=69852781

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911099763.5A Pending CN110929880A (zh) 2019-11-12 2019-11-12 一种联邦学习方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110929880A (zh)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160572A (zh) * 2020-04-01 2020-05-15 支付宝(杭州)信息技术有限公司 一种基于多标签的联邦学习方法、装置和系统
CN111507481A (zh) * 2020-04-17 2020-08-07 腾讯科技(深圳)有限公司 一种联邦学习系统
CN111539731A (zh) * 2020-06-19 2020-08-14 支付宝(杭州)信息技术有限公司 基于区块链的联邦学习方法及装置和电子设备
CN111580970A (zh) * 2020-05-07 2020-08-25 电子科技大学 一种联邦学习的模型分发与聚合的传输调度方法
CN111814985A (zh) * 2020-06-30 2020-10-23 平安科技(深圳)有限公司 联邦学习网络下的模型训练方法及其相关设备
CN111901309A (zh) * 2020-07-03 2020-11-06 北京邮电大学 一种数据安全共享方法、系统及装置
CN112183587A (zh) * 2020-09-10 2021-01-05 国家海洋局南海调查技术中心(国家海洋局南海浮标中心) 一种海上风电场生物监测方法、系统、计算机设备和存储介质
CN112217626A (zh) * 2020-08-24 2021-01-12 中国人民解放军战略支援部队信息工程大学 基于情报共享的网络威胁协同防御系统及方法
CN112288098A (zh) * 2020-11-02 2021-01-29 平安数字信息科技(深圳)有限公司 预训练模型的获取方法、装置以及计算机设备
CN112395341A (zh) * 2020-11-18 2021-02-23 深圳前海微众银行股份有限公司 一种基于联邦云合作网络的联邦学习管理方法及系统
CN112580821A (zh) * 2020-12-10 2021-03-30 深圳前海微众银行股份有限公司 一种联邦学习方法、装置、设备及存储介质
CN112615937A (zh) * 2020-12-28 2021-04-06 南方电网深圳数字电网研究院有限公司 数据传输、数据训练方法、服务器、电子设备及存储介质
CN112686368A (zh) * 2020-12-10 2021-04-20 广州广电运通金融电子股份有限公司 更新中心方的合作式学习方法、存储介质、终端和系统
CN112686369A (zh) * 2020-12-10 2021-04-20 广州广电运通金融电子股份有限公司 中心方选择方法、存储介质和系统
CN113010305A (zh) * 2021-02-08 2021-06-22 北京邮电大学 部署在边缘计算网络中的联邦学习系统及其学习方法
CN113133768A (zh) * 2021-04-21 2021-07-20 东南大学 基于联邦学习的心血管疾病辅助诊断模型及训练方法
CN113283990A (zh) * 2021-06-03 2021-08-20 光大科技有限公司 一种数据共享处理方法及装置
CN113315978A (zh) * 2021-05-13 2021-08-27 江南大学 一种基于联邦学习的协作式在线视频边缘缓存方法
CN113435544A (zh) * 2021-07-23 2021-09-24 支付宝(杭州)信息技术有限公司 一种联邦学习系统,方法与装置
CN113568740A (zh) * 2021-07-16 2021-10-29 开放智能机器(上海)有限公司 基于联邦学习的模型聚合方法、系统、设备及介质
WO2021227069A1 (zh) * 2020-05-15 2021-11-18 Oppo广东移动通信有限公司 一种模型更新方法及装置、通信设备
CN114021168A (zh) * 2021-11-09 2022-02-08 深圳大学 基于联邦学习的地铁基坑开挖风险识别方法及装置
CN114091356A (zh) * 2022-01-18 2022-02-25 北京邮电大学 一种联邦学习方法及装置
CN114531388A (zh) * 2020-10-30 2022-05-24 深圳前海微众银行股份有限公司 通信方法及装置
CN114819238A (zh) * 2021-01-13 2022-07-29 新智数字科技有限公司 燃气锅炉的烟气含氧量预测方法及装置
WO2023207980A1 (zh) * 2022-04-29 2023-11-02 维沃移动通信有限公司 模型信息获取方法、发送方法、装置、节点和储存介质
WO2024092661A1 (zh) * 2022-11-03 2024-05-10 北京小米移动软件有限公司 模型的标识方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101068186A (zh) * 2007-06-05 2007-11-07 华为技术有限公司 一种客户端节点网络拓扑构造方法及流媒体分发系统
CN105867837A (zh) * 2015-12-02 2016-08-17 乐视体育文化产业发展(北京)有限公司 一种分布式高速缓存系统中的客户端配置更新方法、设备及系统
US20180109551A1 (en) * 2016-10-14 2018-04-19 Cisco Technology, Inc. Device profiling for isolation networks
CN108040108A (zh) * 2017-12-11 2018-05-15 杭州电魂网络科技股份有限公司 通信切换方法、装置、协调服务器及可读存储介质
CN109101196A (zh) * 2018-08-14 2018-12-28 北京奇虎科技有限公司 主节点切换方法、装置、电子设备及计算机存储介质
CN110263921A (zh) * 2019-06-28 2019-09-20 深圳前海微众银行股份有限公司 一种联邦学习模型的训练方法及装置
CN110378488A (zh) * 2019-07-22 2019-10-25 深圳前海微众银行股份有限公司 客户端变化的联邦训练方法、装置、训练终端及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101068186A (zh) * 2007-06-05 2007-11-07 华为技术有限公司 一种客户端节点网络拓扑构造方法及流媒体分发系统
CN105867837A (zh) * 2015-12-02 2016-08-17 乐视体育文化产业发展(北京)有限公司 一种分布式高速缓存系统中的客户端配置更新方法、设备及系统
US20180109551A1 (en) * 2016-10-14 2018-04-19 Cisco Technology, Inc. Device profiling for isolation networks
CN108040108A (zh) * 2017-12-11 2018-05-15 杭州电魂网络科技股份有限公司 通信切换方法、装置、协调服务器及可读存储介质
CN109101196A (zh) * 2018-08-14 2018-12-28 北京奇虎科技有限公司 主节点切换方法、装置、电子设备及计算机存储介质
CN110263921A (zh) * 2019-06-28 2019-09-20 深圳前海微众银行股份有限公司 一种联邦学习模型的训练方法及装置
CN110378488A (zh) * 2019-07-22 2019-10-25 深圳前海微众银行股份有限公司 客户端变化的联邦训练方法、装置、训练终端及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANJI REN 等: "Federated Learning-Based Computation Offloading Optimization in Edge Computing-Supported Internet of Things", 《IEEE ACCESS》, vol. 7, 3 June 2019 (2019-06-03), pages 69194 - 69201, XP011728482, DOI: 10.1109/ACCESS.2019.2919736 *
张星洲 等: "边缘智能中的协同计算技术研究", 《人工智能》, no. 05, 10 October 2019 (2019-10-10), pages 55 - 67 *

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160572A (zh) * 2020-04-01 2020-05-15 支付宝(杭州)信息技术有限公司 一种基于多标签的联邦学习方法、装置和系统
CN111507481A (zh) * 2020-04-17 2020-08-07 腾讯科技(深圳)有限公司 一种联邦学习系统
CN111580970A (zh) * 2020-05-07 2020-08-25 电子科技大学 一种联邦学习的模型分发与聚合的传输调度方法
WO2021227069A1 (zh) * 2020-05-15 2021-11-18 Oppo广东移动通信有限公司 一种模型更新方法及装置、通信设备
CN111539731A (zh) * 2020-06-19 2020-08-14 支付宝(杭州)信息技术有限公司 基于区块链的联邦学习方法及装置和电子设备
CN111814985B (zh) * 2020-06-30 2023-08-29 平安科技(深圳)有限公司 联邦学习网络下的模型训练方法及其相关设备
CN111814985A (zh) * 2020-06-30 2020-10-23 平安科技(深圳)有限公司 联邦学习网络下的模型训练方法及其相关设备
CN111901309A (zh) * 2020-07-03 2020-11-06 北京邮电大学 一种数据安全共享方法、系统及装置
CN111901309B (zh) * 2020-07-03 2022-03-22 北京邮电大学 一种数据安全共享方法、系统及装置
CN112217626A (zh) * 2020-08-24 2021-01-12 中国人民解放军战略支援部队信息工程大学 基于情报共享的网络威胁协同防御系统及方法
CN112217626B (zh) * 2020-08-24 2022-11-18 中国人民解放军战略支援部队信息工程大学 基于情报共享的网络威胁协同防御系统及方法
CN112183587A (zh) * 2020-09-10 2021-01-05 国家海洋局南海调查技术中心(国家海洋局南海浮标中心) 一种海上风电场生物监测方法、系统、计算机设备和存储介质
CN112183587B (zh) * 2020-09-10 2022-04-08 国家海洋局南海调查技术中心(国家海洋局南海浮标中心) 一种海上风电场生物监测方法、系统、计算机设备和存储介质
CN114531388A (zh) * 2020-10-30 2022-05-24 深圳前海微众银行股份有限公司 通信方法及装置
CN112288098A (zh) * 2020-11-02 2021-01-29 平安数字信息科技(深圳)有限公司 预训练模型的获取方法、装置以及计算机设备
CN112395341A (zh) * 2020-11-18 2021-02-23 深圳前海微众银行股份有限公司 一种基于联邦云合作网络的联邦学习管理方法及系统
CN112395341B (zh) * 2020-11-18 2023-10-27 深圳前海微众银行股份有限公司 一种基于联邦云合作网络的联邦学习管理方法及系统
CN112580821A (zh) * 2020-12-10 2021-03-30 深圳前海微众银行股份有限公司 一种联邦学习方法、装置、设备及存储介质
CN112686368A (zh) * 2020-12-10 2021-04-20 广州广电运通金融电子股份有限公司 更新中心方的合作式学习方法、存储介质、终端和系统
CN112686369B (zh) * 2020-12-10 2024-02-27 广州广电运通金融电子股份有限公司 中心方选择方法、存储介质和系统
CN112686369A (zh) * 2020-12-10 2021-04-20 广州广电运通金融电子股份有限公司 中心方选择方法、存储介质和系统
WO2022121026A1 (zh) * 2020-12-10 2022-06-16 广州广电运通金融电子股份有限公司 更新中心方的合作式学习方法、存储介质、终端和系统
WO2022121030A1 (zh) * 2020-12-10 2022-06-16 广州广电运通金融电子股份有限公司 中心方选择方法、存储介质和系统
CN112615937A (zh) * 2020-12-28 2021-04-06 南方电网深圳数字电网研究院有限公司 数据传输、数据训练方法、服务器、电子设备及存储介质
CN114819238A (zh) * 2021-01-13 2022-07-29 新智数字科技有限公司 燃气锅炉的烟气含氧量预测方法及装置
CN113010305B (zh) * 2021-02-08 2022-09-23 北京邮电大学 部署在边缘计算网络中的联邦学习系统及其学习方法
CN113010305A (zh) * 2021-02-08 2021-06-22 北京邮电大学 部署在边缘计算网络中的联邦学习系统及其学习方法
CN113133768A (zh) * 2021-04-21 2021-07-20 东南大学 基于联邦学习的心血管疾病辅助诊断模型及训练方法
CN113315978A (zh) * 2021-05-13 2021-08-27 江南大学 一种基于联邦学习的协作式在线视频边缘缓存方法
CN113283990B (zh) * 2021-06-03 2024-02-09 光大科技有限公司 一种数据共享处理方法及装置
CN113283990A (zh) * 2021-06-03 2021-08-20 光大科技有限公司 一种数据共享处理方法及装置
CN113568740B (zh) * 2021-07-16 2024-09-03 开放智能机器(上海)有限公司 基于联邦学习的模型聚合方法、系统、设备及介质
CN113568740A (zh) * 2021-07-16 2021-10-29 开放智能机器(上海)有限公司 基于联邦学习的模型聚合方法、系统、设备及介质
CN113435544A (zh) * 2021-07-23 2021-09-24 支付宝(杭州)信息技术有限公司 一种联邦学习系统,方法与装置
CN114021168A (zh) * 2021-11-09 2022-02-08 深圳大学 基于联邦学习的地铁基坑开挖风险识别方法及装置
CN114021168B (zh) * 2021-11-09 2022-05-24 深圳大学 基于联邦学习的地铁基坑开挖风险识别方法及装置
CN114091356B (zh) * 2022-01-18 2022-05-20 北京邮电大学 一种联邦学习方法及装置
CN114091356A (zh) * 2022-01-18 2022-02-25 北京邮电大学 一种联邦学习方法及装置
WO2023207980A1 (zh) * 2022-04-29 2023-11-02 维沃移动通信有限公司 模型信息获取方法、发送方法、装置、节点和储存介质
WO2024092661A1 (zh) * 2022-11-03 2024-05-10 北京小米移动软件有限公司 模型的标识方法及装置

Similar Documents

Publication Publication Date Title
CN110929880A (zh) 一种联邦学习方法、装置及计算机可读存储介质
CN110942154B (zh) 基于联邦学习的数据处理方法、装置、设备及存储介质
CN111008075B (zh) 一种负载均衡系统、方法、装置、设备及介质
CN106100902B (zh) 云端指标监控方法和装置
CN114303347A (zh) 通信网络中与机器学习相关的方法、装置和机器可读介质
US20230224226A1 (en) Methods and Apparatus Relating to Machine-Learning in a Communications Network
CN111381962B (zh) 一种边缘服务迁移方法及装置
US10368185B2 (en) Mobile device location proofing
WO2019001562A1 (zh) 模型加载方法、装置、存储介质和计算机设备
CN107306200A (zh) 网络故障预警方法和用于网络故障预警的网关
CN113067802B (zh) 一种用户标识方法、装置、设备及计算机可读存储介质
WO2017088293A1 (zh) 一种用于提供无线接入点的接入信息的方法与设备
CN103327026B (zh) 一种数据更新方法和更新系统
CN110460487B (zh) 服务节点的监控方法及系统、服务节点
US12079201B2 (en) Blockchain-based data storage method, related device and storage medium
CN109542981B (zh) 一种数据同步的系统及方法、电子设备、存储介质
CN110460486A (zh) 服务节点的监控方法及系统
WO2021092758A1 (zh) 一种联邦学习方法、装置及计算机可读存储介质
CN112766486A (zh) 神经网络结构的搜索方法、终端、服务器及可读存储介质
CN112543186A (zh) 一种网络行为检测方法、装置、存储介质及电子设备
CN114374662B (zh) 一种数据处理方法及电子设备
CN110765147A (zh) 基于区块链加密存储的内容更新方法、用户节点及介质
CN112688905A (zh) 数据传输方法、装置、客户端、服务器及存储介质
CN110474807A (zh) 一种日志处理方法及装置
CN116915767B (zh) 文档传输方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination