CN115526339A - 联邦学习方法、装置、电子设备及计算机可读存储介质 - Google Patents

联邦学习方法、装置、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN115526339A
CN115526339A CN202211370809.4A CN202211370809A CN115526339A CN 115526339 A CN115526339 A CN 115526339A CN 202211370809 A CN202211370809 A CN 202211370809A CN 115526339 A CN115526339 A CN 115526339A
Authority
CN
China
Prior art keywords
model
node
edge
participating
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211370809.4A
Other languages
English (en)
Other versions
CN115526339B (zh
Inventor
于志刚
王戈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Corp Ltd
Original Assignee
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Corp Ltd filed Critical China Telecom Corp Ltd
Priority to CN202211370809.4A priority Critical patent/CN115526339B/zh
Publication of CN115526339A publication Critical patent/CN115526339A/zh
Application granted granted Critical
Publication of CN115526339B publication Critical patent/CN115526339B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/04Trading; Exchange, e.g. stocks, commodities, derivatives or currency exchange
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioethics (AREA)
  • Economics (AREA)
  • Technology Law (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种联邦学习方法、装置、电子设备及计算机可读存储介质,涉及机器学习技术领域。该方法包括:获取串联顺序,串联顺序用于指示任一边缘节点对应的下一个节点;接收任一边缘节点的上一个节点发送的第一模型;根据第一模型进行本地训练,得到第二模型;聚合第二模型和第一模型,得到第三模型;向下一个节点发送第三模型,以便于下一个节点根据第三模型进行本轮联邦学习。向下一个节点发送第二模型和第一模型聚合后的第三模型的方式,可以避免边缘节点经过训练后得到的第二模型的模型参数泄露,实现了在无需为训练样本或模型参数添加噪声的情况下,降低边缘节点数据样本泄露的风险。

Description

联邦学习方法、装置、电子设备及计算机可读存储介质
技术领域
本公开涉及机器学习技术领域,尤其涉及一种联邦学习方法、装置、电子设备及计算机可读存储介质。
背景技术
在机器学习技术领域中,联邦学习通过中心节点与边缘节点协同训练模型方式,在保护边缘节点数据隐私的同时,实现了对数据的高效利用。但是,仅采用模型在本地训练从而使样本数据不出本地的措施,仍然会有数据泄露的风险,攻击者可以通过截获边缘节点上传的模型参数来推测样本数据。
相关技术中,通常采用差分隐私等隐私保护方法,即通过向模型参数或数据本身添加噪声来降低数据泄漏的风险。
然而,向模型参数或数据中添加噪声的方式虽然在一定程度上降低了数据泄露的风险,同时也使得节点上传的模型参数的质量下降,进而使得联邦学习所得到的模型精度下降。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种联邦学习方法、装置、电子设备及计算机可读存储介质,至少在一定程度上克服了相关技术中联邦学习得到的模型精度差的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种联邦学习方法,应用于参与联邦学习的多个边缘节点中的任一边缘节点,包括:获取串联顺序,所述串联顺序用于指示所述任一边缘节点对应的下一个节点,所述下一个节点是所述多个边缘节点中的一个边缘节点,或者是联邦学习的中心节点;接收所述任一边缘节点的上一个节点发送的第一模型,所述上一个节点是所述多个边缘节点中的一个节点,或者是所述中心节点;根据所述第一模型进行本地训练,得到第二模型;聚合所述第二模型和所述第一模型,得到第三模型;向所述下一个节点发送所述第三模型,以便于所述下一个节点根据所述第三模型进行本轮联邦学习。
在本公开的一个实施例中,还包括:获取对所述第一模型进行本地训练得到的训练参数;向区块链上传所述训练参数,以便于所述中心节点从所述区块链中获取所述训练参数,并根据所述训练参数确定所述任一边缘节点在本轮联邦学习的训练分。
在本公开的一个实施例中,所述训练参数包括所述第二模型的性能指标和/或所述任一边缘节点对所述第一模型进行本地训练的相对效率参数;所述相对效率参数包括所述任一边缘节点对所述第一模型进行本地训练使用的时间和数据量,或者包括根据所述时间和数据量计算得到的相对效率。
在本公开的一个实施例中,所述获取串联顺序,包括:从区块链中获取所述串联顺序。
在本公开的一个实施例中,获取所述任一边缘节点的性能参数;向区块链上传所述性能参数,以便于所述中心节点从所述区块链中获取所述性能参数,并根据所述性能参数确定参与第一轮联邦学习的边缘节点。
在本公开的一个实施例中,所述性能参数包括所述任一边缘节点具有的样本数据量和/或图形处理器GPU性能参数。
根据本公开的另一个方面,提供一种邦学习方法,应用于联邦学习的中心节点,所述中心节点具有第一全局模型,包括:确定参与本轮联邦学习的多个边缘节点;确定所述多个边缘节点之间的串联顺序;向所述串联顺序指示的第一个边缘节点发送所述第一全局模型;接收所述串联顺序指示的最后一个边缘节点发送的半全局模型;根据所述半全局模型更新所述第一全局模型,得到第二全局模型。
在本公开的一个实施例中,包括:将所述串联顺序上传至区块链,以便于所述多个边缘节点从所述区块链中获取所述串联顺序,以及根据所述串联顺序进行联邦学习。
在本公开的一个实施例中,所述确定参与本轮联邦学习的多个边缘节点,包括:从区块链中获取参与第一轮联邦学习的多个参与边缘节点的训练参数;根据所述训练参数,确定所述多个参与边缘节点的信任值;根据所述信任值,从所述参与边缘节点中确定出参与本轮联邦学习的多个边缘节点。
在本公开的一个实施例中,所述根据所述训练参数,确定所述多个参与边缘节点的信任值,包括:根据所述训练参数确定所述多个参与边缘节点在历史参与联邦学习中的训练分;确定所述多个参与边缘节点中每一参与边缘节点的训练分的权重,每一参与边缘节点的训练分的权重之和相同;根据所述权重,确定所述多个参与边缘节点中每一参与参边缘节点的信任值。
根据本公开的再一个方面,提供一种联邦学习装置,应用于参与联邦学习的多个边缘节点中的任一边缘节点,包括:获取模块,用于获取串联顺序,所述串联顺序用于指示所述任一边缘节点对应的下一个节点,所述下一个节点是所述多个边缘节点中的一个边缘节点,或者是联邦学习的中心节点;第一接收模块,用于接收所述任一边缘节点的上一个节点发送的第一模型,所述上一个节点是所述多个边缘节点中的一个节点,或者是所述中心节点;处理模块,用于根据所述第一模型进行本地训练,得到第二模型;聚合模块,用于聚合所述第二模型和所述第一模型,得到第三模型;第一发送模块,用于向所述下一个节点发送所述第三模型,以便于所述下一个节点根据所述第三模型进行本轮联邦学习。
在本公开的一个实施例中,所述获取模块,还用于获取对所述第一模型进行本地训练得到的训练参数;所述第一发送模块,还用于向区块链上传所述训练参数,以便于所述中心节点从所述区块链中获取所述训练参数,并根据所述训练参数确定所述任一边缘节点在本轮联邦学习的训练分。
在本公开的一个实施例中,所述训练参数包括所述第二模型的性能指标和/或所述任一边缘节点对所述第一模型进行本地训练的相对效率参数;所述相对效率参数包括所述任一边缘节点对所述第一模型进行本地训练使用的时间和数据量,或者包括根据所述时间和数据量计算得到的相对效率。
在本公开的一个实施例中,所述获取模块,用于从区块链中获取所述串联顺序。
在本公开的一个实施例中,所述获取模块,还用于获取所述任一边缘节点的性能参数;所述第一发送模块,还用于向区块链上传所述性能参数,以便于所述中心节点从所述区块链中获取所述性能参数,并根据所述性能参数确定参与第一轮联邦学习的边缘节点。
在本公开的一个实施例中,所述性能参数包括所述任一边缘节点具有的样本数据量和/或图形处理器GPU性能参数。
根据本公开的又一个方面,提供一种联邦学习装置,应用于联邦学习的中心节点,所述中心节点具有第一全局模型,包括:确定模块,用于确定参与本轮联邦学习的多个边缘节点;所述确定模块,还用于确定所述多个边缘节点之间的串联顺序;第二发送模块,用于向所述串联顺序指示的第一个边缘节点发送所述第一全局模型;第二接收模块,用于接收所述串联顺序指示的最后一个边缘节点发送的半全局模型;更新模块,用于根据所述半全局模型更新所述第一全局模型,得到第二全局模型。
在本公开的一个实施例中,所述第二发送模块,还用于将所述串联顺序上传至区块链,以便于所述多个边缘节点从所述区块链中获取所述串联顺序,以及根据所述串联顺序进行联邦学习。
在本公开的一个实施例中,所述确定模块,用于从区块链中获取参与第一轮联邦学习的多个参与边缘节点的训练参数;根据所述训练参数,确定所述多个参与边缘节点的信任值;根据所述信任值,从所述参与边缘节点中确定出参与本轮联邦学习的多个边缘节点。
在本公开的一个实施例中,所述确定模块,用于根据所述训练参数确定所述多个参与边缘节点在历史参与联邦学习中的训练分;确定所述多个参与边缘节点中每一参与边缘节点的训练分的权重,每一参与边缘节点的训练分的权重之和相同;根据所述权重,确定所述多个参与边缘节点中每一参与参边缘节点的信任值。
根据本公开的又一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任一所述的联邦学习方法。
根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一所述的联邦学习方法。
根据本公开的又一个方面,提供一种计算机程序产品,所述计算机程序产品包括计算机程序或计算机指令,所述计算机程序或所述计算机指令由处理器加载并执行,以使计算机实现上述任一所述的联邦学习方法。
本公开的实施例所提供的技术方案至少包括以下有益效果:
本公开的实施例所提供的技术方案,参与联邦学习的边缘节点接收到上一个节点发送的第一模型后,对该模型进行本地训练,得到第二模型,并将第一模型和第二模型聚合,得到第三模型。之后,再按照获取到的串联顺序的指示,向下一个节点发送该第三模型。向下一个节点发送第二模型和第一模型聚合后的第三模型的方式,可以避免边缘节点经过训练后得到的第二模型的模型参数泄露,实现了在无需为训练样本或模型参数添加噪声的情况下,降低边缘节点数据样本泄露的风险,提高了联邦学习的安全性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开一个实施例中的联邦学习系统的示意图;
图2示出本公开另一个实施例中的联邦学习系统的示意图;
图3示出本公开一个实施例中的联邦学习方法流程图;
图4示出本公开一个实施例的中心节点与边缘节点发送模型的顺序示意图;
图5示出本公开另一个实施例中的联邦学习方法流程图;
图6示出本公开实施例中一种联邦学习装置示意图;
图7示出本公开实施例中另一种联邦学习装置示意图;
图8示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
图1示出本公开一个实施例中的联邦学习系统的示意图,该系统可以应用本公开各种实施例中的联邦学习方法或联邦学习装置。
如图1所示,该联邦学习系统可以包括:中心节点11、边缘节点12。
其中,准备参与联邦学习的边缘节点可以将代表自身性能的性能参数向中心节点11发送,中心节点11能够接收并根据该性能参数从准备参与联邦学习的边缘节点中选取参与第一轮联邦学习的边缘节点12。中心节点11还可以对选中参与第一轮联邦学习的边缘节点12进行串联排序,并将得到的串联顺序发送给参与联邦学习的边缘节点12。
中心节点11可以将初始全局模型发往串联顺序指示的第一个边缘节点,以及接收该串联顺序指示的最后一个节点发送的半全局模型,中心节点11还可以根据半全局模型对初始全局模型进行更新,得到一轮训练后的全局模型。
参与联邦学习的边缘节点12能够将自身进行本地训练后得到的训练参数向中心节点11发送。中心节点11可以根据该训练参数,确定参与联邦学习的边缘节点12在每一轮参与联邦学习中的训练分,以及根据该训练分确定出边缘节点12的信任值,并根据信任值从边缘节地12中选取下一轮参与联邦学习的边缘节点。
图2示出本公开另一个实施例中的联邦学习系统的示意图,该系统可以应用本公开各种实施例中的联邦学习方法或联邦学习装置。
如图2所示,该联邦学习系统可以包括:中心节点11、边缘节点12、区块链网络13。
其中,准备参与联邦学习的边缘节点可以向区块链网络13发送携带代表自身性能的性能参数的交易,区块链网络13中的某一节点接收到该交易后将该交易通过广播发送给主节点(记账节点),之后由主节点对该交易进行提案并打包成区块进行共识,以及在共识通过后将该区块上链。中心节点11可以通过区块链网络13中的任一节点查询区块链,从而获取准备参与联邦学习的边缘节点上报的性能参数,并根据该性能参数选取出参与第一轮联邦学习的边缘节点12。中心节点11还可以对选中参与第一轮联邦学习的边缘节点12进行串联排序,并将得到的串联顺序上传至区块链,参与第一轮联邦学习的边缘节点12可以通过区块链网络13中的任一节点查询区块链,从而获取该串联顺序。
中心节点11可以将初始全局模型发往串联顺序指示的第一个边缘节点,以及接收该串联顺序指示的最后一个节点发送的半全局模型,中心节点11还可以根据半全局模型对初始全局模型进行更新,得到一轮训练后的全局模型。
参与联邦学习的边缘节点12能够向区块链网络13发送将携带自身进行本地训练后得到的训练参数的交易。区块链网络13中的某一节点接收到该交易后将该交易通过广播发送给主节点,之后由主节点对该交易进行提案并打包成区块进行共识,以及在共识通过后将该区块上链。中心节点11可以通过区块链网络13中的任一节点查询区块链,从而获取边缘节点12上报的训练参数,并确定参与联邦学习的边缘节点12在每一轮参与联邦学习中的训练分,以及根据该训练分确定出边缘节点12的信任值。中心节点11还可以根据信任值从边缘节地12中选取参与下一轮联邦学习的边缘节点。
中心节点11、边缘节点12、区块链网络13之间通过网络实现通信连接,该网络可以是有线网络,也可以是无线网络。
可选地,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(ExtensibleMarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(InternetProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
中心节点11、边缘节点12可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、可穿戴设备、增强现实设备、虚拟现实设备等。
中心节点11、边缘节点12可以是提供各种服务的服务器,可选地,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
区块链网络13可以是由多个节点组成的区块链网络,关于组成区块链网络的节点具体为何种电子设备本公开实施例不做限制,例如,终端或服务器。
本领域技术人员可以知晓,图1和图2中的边缘节点12的数量仅仅是示意性的,根据实际需要,可以具有任意数目的边缘节点12。本公开实施例对此不作限定。
下面结合附图及实施例对本示例实施方式进行详细说明。
本公开实一个施例中提供的联邦学习方法,该方法可以由任意具备计算处理能力的电子设备执行。例如,该电子设备为参与联邦学习的多个边缘节点中的任一边缘节点。
图3示出本公开一个实施例中的联邦学习方法流程图,如图3所示,本公开实施例中提供的联邦学习方法包括如下S301至S305。
S301,边缘节点获取串联顺序,串联顺序用于指示任一边缘节点对应的下一个节点,下一个节点是多个边缘节点中的一个边缘节点,或者是联邦学习的中心节点。
其中,在串联顺序的指示下,中心节点与边缘节点发送模型的顺序可以如图4所示。中心节点401将模型发往串联顺序指示的第一个边缘节点402,边缘节点402根据串联顺序的指示,将处理后的模型发往下一个边缘节点403,直至模型被发往串联顺序指示的最后一个边缘节点404,边缘节点404根据串联顺序的指示将处理后的模型发往中心节点401,完成一轮联邦学习。对于边缘节点402,中心节点401为该边缘节点402的上一个节点,边缘节点403为边缘节点402的下一个节点。
以本轮联邦学习是第一轮联邦学习为例,在一个实施例中,边缘节点获取自身的性能参数;向区块链上传性能参数,以便于中心节点从区块链中获取性能参数,并根据性能参数确定参与第一轮联邦学习的边缘节点。关于性能参数具体包括哪些表示边缘节点性能的参数,本公开实施例不做限制,例如,性能参数包括边缘节点具有的样本数据量和/或GPU(Graphics Processing Unit,图形处理器)性能参数。性能参数存储在边缘节点的存储器中,获取自身的性能参数可以包括:边缘节点从存储器中获取该性能参数。边缘节点向区块链上传性能参数,可以包括:边缘节点向区块链网络中的任一节点发送携带性能参数的交易,该任一节点接收到该交易后,通过广播的形式将该交易发往主节点,之后,主节点对该交易进行提案并打包成区块进行共识,以及在共识通过的情况下将该携带交易的区块添加至区块链。若该任一节点为主节点,则直接对该交易进行处理(包括提案、打包成区块、共识、共识通过后上链)。
当准备参与联邦学习的边缘节点的性能参数均上传至区块链后,中心节点通过区块链网络中的任一节点查询该区块链中携带性能参数的区块,得到准备参与联邦学习的边缘节点的性能参数,之后再根据性能参数确定出参与第一轮联邦学习的边缘节点。
关于中心节点如何根据性能参数确定出参与第一轮联邦学习的边缘节点,本公开实施例不做限制。在一个实施例中,中心节点根据该性能参数,确定每一个节点的质量分,之后,选取质量分满足预设条件的边缘节点作为参与第一轮联邦学习的边缘节点。例如,以性能参数包括样本数据量为例,可以将样本数据量直接作为节点的质量分,或者,将样本数据量进行一定数学计算后的值作为质量分,该数据计算可以是归一化处理等,本公开对数据计算的具体处理方式不做限制。再例如,性能参数包括样本数据量和GPU性能参数,此时,节点的质量分可以将样本数量和GPU性能参数指示的GPU性能数据按照一定的权重求和,进而得到边缘节点的质量分。
在一个实施例中,质量分满足预设条件可以是质量分大于某一预定值,或者是对质量分进行降序排序后,排名在前预定范围内的质量分,或者是对质量分进行升序排序后,排名在后预定范围内的质量分。
中心节点确定参与第一轮联邦学习的边缘节点后,再确定出参与第一轮联邦学习的边缘节点之间的串联顺序,并将该串联顺序上传至区块链。其中,中心节点将串联顺序上传至区块链的实现方式与边缘节点将性能参数上传至区块链的方式相同,此处不再赘述。关于中心节点采用何种该方式确定参与第一轮联邦学习的边缘节点之间的串联顺序,本公开实施例不做限制,例如,在第一轮联邦学习中,中心节点可以直接根据参与第一轮联邦学习的边缘节点的质量分将该边缘节点进行降序串联排序或升序串联排序,或者采用随机串联排序的方式对参与第一轮联邦学习的边缘节点进行排序。
其中,降序串联排序是将参与第一轮联邦学习的边缘节点中质量分最高的边缘节点作为第一个边缘节点,该第一个边缘节点的上一个节点为中心节点,之后,依次根据质量分的降序顺序将边缘节点进行串联排序。升序串联排序是指将参与第一轮联邦学习的边缘节点中质量分最低的边缘节点作为第一个边缘节点,该第一个边缘节点的上一个节点为中心节点,之后,依次根据质量分的升序顺序将边缘节点进行串联排序。
在第n轮联邦学习中,中心节点可以直接根据参与第n轮联邦学习的边缘节点的信任值将该边缘节点进行降序串联排序或升序串联排序,或者采用随机串联排序的方式对参与第n轮联邦学习的边缘节点进行排序。其中,n为大于或等于2的整数。关于信任值将在图5对应的实施例中进行说明,在此暂不赘述。
中心节点将串联顺序上传至区块链后,边缘节点可以通过区块链网络中的任意一个节点查询该区块链,并获取该串联顺序,之后根据该串联顺序确定接收模型的下一个节点。也就是说,边缘节点获取串联顺序,可以包括:从区块链中获取串联顺序。
S302,边缘节点接收该边缘节点的上一个节点发送的第一模型,上一个节点是多个边缘节点中的一个节点,或者是中心节点。
边缘节点获取到串联顺序后,中心节点向串联顺序指示的第一个边缘节点发送初始模型,之后,第一个边缘节点对该出初始模型进行训练,得到训练后的模型,该第一边缘节点将该初始模型与训练得到的模型进行聚合,得到向下一个节点发送的模型,之后,第一个边缘节点将聚合后的模型向下一个节点发送。
S303,边缘节点根据第一模型进行本地训练,得到第二模型。
边缘节点接收到上一个节点发送的第一模型后,利用本地数据对该第一模型进行训练,得到第二模型。
S304,边缘节点聚合第二模型和第一模型,得到第三模型。
关于边缘节点采用何种具体的聚合方式聚合第二模型和第一模型,本公开实施例不做限制。在一个实施例中,边缘节点可以直接将第一模型和第二模型的参数进行加和,得到第三模型。在另一个实施例中,边缘节点以不同的权重将第一模型和第二模型聚合,例如,第一模型的权重为1,第二模型的权重为1/N,其中N为参与本轮联邦学习的边缘节点的数量。
S305,边缘节点向下一个节点发送第三模型,以便于下一个节点根据第三模型进行本轮联邦学习。
边缘节点完成对模型的本地训练、聚合参数后,将得到的第三模型发往下一个节点,以便于下一个节点根据第三模型继续进行本轮联邦学习。在一个实施例中,下一个节点为边缘节点,则该边缘节点继续对第三模型进行本地训练、聚合参数,再将得到的第四模型向下一个节点发送。在另一个实施例中,下一个节点是中心节点,中心节点根据该第三模型更新全局模型。关于中心节点如何根据第三模型更新全局模型,将在图5对应的实施例中进行说明,在此暂不赘述。
在一个实施例中,边缘节点完成对第一模型的本地训练、参数聚合后,获取对第一模型进行本地训练得到的训练参数;向区块链上传训练参数,以便于中心节点从区块链中获取训练参数,并根据训练参数确定任一边缘节点在本轮联邦学习的训练分。关于如何根据训练参数确定边缘节点在本轮联邦学习的训练分及训练分的作用,将图5对应的实施例中进行说明,在此暂不赘述。
关于训练参数具体包括哪些参数,本公开实施例不做限制。在一个实施例中,训练参数包括第二模型的性能指标和/或任一边缘节点对第一模型进行本地训练的相对效率参数;相对效率参数包括任一边缘节点对第一模型进行本地训练使用的时间和数据量,或者包括根据时间和数据量计算得到的相对效率。在一个实施例中,第二模型的性能指标可以是第二模型的准确率、召回率、F1分数等性能指标中一个或多个。在一个实施例中,根据时间和数据量计算得到相对效率的方式可以是计算数据量和时间的比值,得到相对效率。
本公开实施例所提供的技术方案,参与联邦学习的边缘节点接收到上一个节点发送的第一模型后,对该模型进行本地训练,得到第二模型,并将第一模型和第二模型聚合,得到第三模型。之后,再按照获取到的串联顺序的指示,向下一个节点发送该第三模型。向下一个节点发送第二模型和第一模型聚合后的第三模型的方式,可以避免边缘节点经过训练后得到的第二模型的模型参数泄露,实现了在无需为训练样本或模型参数添加噪声的情况下,降低边缘节点数据样本泄露的风险,提高了联邦学习的安全性。
图5示出本公开另一个实施例中的联邦学习方法流程图,该方法可以由任意具备计算处理能力的电子设备执行。例如,该电子设备为联邦学习的中心节点。如图5所示,本公开实施例中提供的联邦学习方法包括如下S501至S505。
S501,中心节点确定参与本轮联邦学习的多个边缘节点。
以进行第一轮联邦学习为例,中心节点确定参与第一轮联邦学习的多个边缘节点,可以包括:从区块链中获取准备参与联邦学习的边缘节点的性能参数;根据性能参数确定参与第一轮联邦学习的边缘节点。关于性能参数具体包括哪些参数,以及中心节点根据性能参数确定参与第一轮联邦学习的边缘节点的实现方式,在图3对应的实施例的S301中已经说明,此处不再赘述。
以进行第n轮联邦学习为例,中心节点确定参与第n轮联邦学习的多个边缘节点,可以包括:从区块链中获取参与第一轮联邦学习的多个参与边缘节点的训练参数;根据训练参数,确定多个参与边缘节点的信任值;根据信任值,从参与边缘节点中确定出参与本轮联邦学习的多个边缘节点。其中,n为大于或等于2的整数。
在进行第一轮联邦学习前,从准备参与联邦学的边缘节点中将性能参数满足要求的边缘节点选取出来参与第一轮联邦学习,参与第一轮联邦学习的参与边缘节点完成第一轮的联邦学习任务后,将完成第一轮联邦学习任务得到的训练参数上传至区块链,中心节点从区块链中获取参与边缘节点的训练参数,并根据该训练从多个参与边缘节点(参与第一轮联邦学习的边缘节点)中确定出参与第二轮联邦学习的边缘节点。
之后,参与第二轮联邦学习的边缘节点完成第二轮的联邦学习任务后,将完成第二轮联邦学习任务的得到的训练参数上传至区块链,中心节点从区块链中获取多个参与边缘节点的全部训练参数(包括参与第一轮联邦学习得到的训练参数和参与第二轮联邦学习得到的训练参数),之后,根据全部训练参数,确定出多个参与边缘节点中每一个参与边缘节点的信任值,并根据该信任值从多个参与边缘节点中确定出参与第三轮联邦学习的边缘节点。之后,每轮联邦学习进行前,中心节点均需根据各个参与节点的训练参数,确定出各个参与节点的质量分,并根据该质量分确定出本轮参与联邦学习的边缘节点。
在一个实施例中,从第二轮联邦学习开始,中心节点均会从区块链中获取参与边缘节点的训练参数并对该训练参数进行存储,因此,每次中心节点从区块链中获取参与边缘节点的训练参数时,可以直接获取参与上一轮联邦学习的边缘节点在完成上一轮联邦学习后得到到的训练参数。例如,进行第a+1轮联邦学习前中心节点从区块链中获取的训练参数,是参与第a轮联邦学习的边缘节点完成第n轮联邦学习后得到的训练参数,a为大于等于1的整数。此种训练参数的获取方式,可以实现中心节点中具有多个参与边缘节点在历史参与联邦学习中得到的全部训练参数。
关于中心节点如何根据多个参与边缘节点的训练参数,确定多个参与边缘节点的信任值,本公开实施例不做限制。在一个实施例中,根据训练参数,确定多个参与边缘节点的信任值,可以包括:根据训练参数确定多个参与边缘节点在历史参与联邦学习中的训练分;确定多个参与边缘节点中每一参与边缘节点的训练分的权重,每一参与边缘节点的训练分的权重之和相同;根据权重,确定多个参与边缘节点中每一参与参边缘节点的信任值。
其中,根据训练参数确定多个参与边缘节点在历史参与联邦学习中的训练分,包括:根据每一参与边缘节点在每一轮联邦学习中得到的训练参数确定出相应的训练分,得到每一个参与边缘节点对应的至少一个训练分。例如,一个参与边缘节点仅参与第一轮联邦学习,则该参与边缘节点仅具有第一轮联邦学习对应的训练分。再例如,一个参与边缘节点参与了第一轮、第三轮、第五轮联邦学习,则该参与便于边缘节点具有第一轮、第三轮、第五轮联邦学习对应的三个训练分。
对于如何根据训练参数得到训练分,本公开实施例不做限制。在一个实施例中,训练参数包括模型的性能指标,训练分可以是模型的性能指标对应的值。在另一个实施例中,训练参数包括边缘接节点的相对效率,训练分可以是相对效率对应的值。在另一个实施例中,训练参数包括模型的性能指标和相对效率,训练分可以是按照不同的权重将模型的性能指标的值与相对效率的值进行加和,得到训练分。关于模型的性能指标的权重与相对效率的权重具体如何分配,本公开是实施例不做限制。例如,模型的性能指标的权重与相对效率的权重均为0.5。
关于每一参与边缘节点的训练分的权重如何分配,本公开实施例不做限制。在一个实施例中,每一参与边缘节点的训练分的权重与训练分对应的轮次与当前轮次的差负相关。在一个实施例中,每一参与边缘节点的训练分的权重成等差关系,且每一参与边缘节点的训练分的权重与训练分对应的轮次与当前轮次的差负相关。在另一个实施例中,一个参与边缘节点的训练分的权重成等比关系,且每一参与边缘节点的训练分的权重与训练分对应的轮次与当前轮次的差负相关。在另一个实施例中,一个参与边缘节点的多个训练分的权重相同。需要说明的是,不同参与边缘节点对应的训练分的数量可能存在不同,但每一参与边缘节点的训练分的权重之和相同。关于该相同的权重和具体为何值,本公开实施例不做限制,例如,该相同的权重和为1。
根据权重,确定多个参与边缘节点中每一参与参边缘节点的信任值,可以包括:将每一边缘节点的训练分以相应的权重进行加和,得到每一参与边缘节点的信任值。关于如何根据信任值,从参与边缘节点中确定出参与本轮联邦学习的多个边缘节点,本公开实施例不做限制。在一个实施例中,根据信任值从参与边缘节点中确定出参与本轮联邦学习的多个边缘节点的方式,与图3对应的实施例的S301中,根据质量分选取参与第一轮联邦学习的边缘节点的方式相同。
S502,中心节点确定多个边缘节点之间的串联顺序。
中心节点确定多个边缘节点之间的串联顺序的方式,在图3对应的实施例的S301中已经说明,在此不再赘述。
S503,中心节点向串联顺序指示的第一个边缘节点发送第一全局模型。
在一个实施例中,中心节点确定出多个边缘节点之间的串联顺序后,将该串联顺序上传至区块链,以便于多个边缘节点从区块链中获取串联顺序,以及根据串联顺序进行联邦学习。在一个实施例中,中心节点存储有第一全局模型,可以直接向串联顺序指示的第一个边缘节点发送第一全局模型。第一个边缘节点接收到第一全局模型后,根据该第一全局模型进行本地训练、参数聚合,并将得到的模型向下一个节点发送,直至串联顺序指示的最后一个边缘节点接收到上一个节点发送的模型后,对该模型进行本地训练、参数聚合,得到半全局模型,之后将向中心节点发送半全局模型。其中,边缘节点对模型进行本地训练、参数聚合的具体实现在图3对应的实施例中已经说明,在此不再赘述。
S504,中心节点接收串联顺序指示的最后一个边缘节点发送的半全局模型。
S505,中心节点根据半全局模型更新第一全局模型,得到第二全局模型。
在一个实施例中,边缘节点接收到第一模型后对第一模型进行训练,并将训练得到的第二模型与第一模型进行聚合,当聚合方式为将第一模型和第二模型直接进行参数加和的方式聚合的情况下,中心节点将半全局模型的参数与第一全局模型的参数做差,并将得到的模型参数与参与本轮联邦学习的边缘节点的数量做比值,得到第二全局模型的参数;中心节点根据该第二全局模型的参数构建第二全局模型。当聚合方式以第一模型的权重为1、第二模型的权重为1/N进行参数聚合的情况下,中心节点将半全局模型的参数与第一全局模型的参数做差,得到第二全局模型的参数;根据第二全局模型的参数构建第二全局模型。
本公开的实施提供的技术方案,参与联邦学习的边缘节点接收到上一个节点发送的第一模型后,对该模型进行本地训练,得到第二模型,并将第一模型和第二模型聚合,得到第三模型。之后,再按照获取到的串联顺序的指示,向下一个节点发送该第三模型。向下一个节点发送第二模型和第一模型聚合后的第三模型的方式,可以避免边缘节点经过训练后得到的第二模型的模型参数泄露,实现了在无需为训练样本或模型参数添加噪声的情况下,降低边缘节点数据样本泄露的风险,提高了联邦学习的安全性。
进一步地,通过将性能参数、训练参数、串联顺序上传至区块链,以及通过区块链传递性能参数、训练参数、串联顺序的方式,能够在一定程度上保证联邦学习进行过程中的公平性,以及防止节点选取受到攻击者的影响,并且增加了朔源联邦学习中节点选取得到的信息的可信度。
基于同一发明构思,本公开实施例中还提供了两种联邦学习装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图6示出本公开一个实施例中的联邦学习装置示意图,如图6所示,该装置应用于参与联邦学习的多个边缘节点中的任一边缘节点,包括:获取模块601,用于获取串联顺序,串联顺序用于指示任一边缘节点对应的下一个节点,下一个节点是多个边缘节点中的一个边缘节点,或者是联邦学习的中心节点;第一接收模块602,用于接收任一边缘节点的上一个节点发送的第一模型,上一个节点是多个边缘节点中的一个节点,或者是中心节点;处理模块603,用于根据第一模型进行本地训练,得到第二模型;聚合模块604,用于聚合第二模型和第一模型,得到第三模型;第一发送模块605,用于向下一个节点发送第三模型,以便于下一个节点根据第三模型进行本轮联邦学习。
在本公开的一个实施例中,获取模块601,还用于获取对第一模型进行本地训练得到的训练参数;第一发送模块,还用于向区块链上传训练参数,以便于中心节点从区块链中获取训练参数,并根据训练参数确定任一边缘节点在本轮联邦学习的训练分。
在本公开的一个实施例中,训练参数包括第二模型的性能指标和/或任一边缘节点对第一模型进行本地训练的相对效率参数;相对效率参数包括任一边缘节点对第一模型进行本地训练使用的时间和数据量,或者包括根据时间和数据量计算得到的相对效率。
在本公开的一个实施例中,获取模块601,用于从区块链中获取串联顺序。
在本公开的一个实施例中,获取模块601,还用于获取任一边缘节点的性能参数;第一发送模块,还用于向区块链上传性能参数,以便于中心节点从区块链中获取性能参数,并根据性能参数确定参与第一轮联邦学习的边缘节点。
在本公开的一个实施例中,性能参数包括任一边缘节点具有的样本数据量和/或图形处理器GPU性能参数。
图7示出本公开另一个实施例中的联邦学习装置示意图,如图7所示,该装置应用于联邦学习的中心节点,中心节点具有第一全局模型,包括:确定模块701,用于确定参与本轮联邦学习的多个边缘节点;确定模块701,还用于确定多个边缘节点之间的串联顺序;第二发送模块702,用于向串联顺序指示的第一个边缘节点发送第一全局模型;第二接收模块703,用于接收串联顺序指示的最后一个边缘节点发送的半全局模型;更新模块704,用于根据半全局模型更新第一全局模型,得到第二全局模型。
在本公开的一个实施例中,第二发送模块702,还用于将串联顺序上传至区块链,以便于多个边缘节点从区块链中获取串联顺序,以及根据串联顺序进行联邦学习。
在本公开的一个实施例中,确定模块701,用于从区块链中获取参与第一轮联邦学习的多个参与边缘节点的训练参数;根据训练参数,确定多个参与边缘节点的信任值;根据信任值,从参与边缘节点中确定出参与本轮联邦学习的多个边缘节点。
在本公开的一个实施例中,确定模块701,用于根据训练参数确定多个参与边缘节点在历史参与联邦学习中的训练分;确定多个参与边缘节点中每一参与边缘节点的训练分的权重,每一参与边缘节点的训练分的权重之和相同;根据权重,确定多个参与边缘节点中每一参与参边缘节点的信任值。
本公开的实施提供的技术方案,参与联邦学习的边缘节点接收到上一个节点发送的第一模型后,对该模型进行本地训练,得到第二模型,并将第一模型和第二模型聚合,得到第三模型。之后,再按照获取到的串联顺序的指示,向下一个节点发送该第三模型。向下一个节点发送第二模型和第一模型聚合后的第三模型的方式,可以避免边缘节点经过训练后得到的第二模型的模型参数泄露,实现了在无需为训练样本或模型参数添加噪声的情况下,降低边缘节点数据样本泄露的风险,提高了联邦学习的安全性。
进一步地,通过将性能参数、训练参数、串联顺序上传至区块链,以及通过区块链传递性能参数、训练参数、串联顺序的方式,能够在一定程度上保证联邦学习进行过程中的公平性,以及防止节点选取受到攻击者的影响,并且增加了朔源联邦学习中节点选取得到的信息的可信度。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图8来描述根据本公开的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“具体实施方式”部分中描述的根据本公开各种示例性实施方式的步骤。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备840(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图8所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“具体实施方式”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围由所附的权利要求指出。

Claims (14)

1.一种联邦学习方法,其特征在于,应用于参与联邦学习的多个边缘节点中的任一边缘节点,包括:
获取串联顺序,所述串联顺序用于指示所述任一边缘节点对应的下一个节点,所述下一个节点是所述多个边缘节点中的一个边缘节点,或者是联邦学习的中心节点;
接收所述任一边缘节点的上一个节点发送的第一模型,所述上一个节点是所述多个边缘节点中的一个节点,或者是所述中心节点;
根据所述第一模型进行本地训练,得到第二模型;
聚合所述第二模型和所述第一模型,得到第三模型;
向所述下一个节点发送所述第三模型,以便于所述下一个节点根据所述第三模型进行本轮联邦学习。
2.根据权利要求1所述的方法,其特征在于,还包括:
获取对所述第一模型进行本地训练得到的训练参数;
向区块链上传所述训练参数,以便于所述中心节点从所述区块链中获取所述训练参数,并根据所述训练参数确定所述任一边缘节点在本轮联邦学习的训练分。
3.根据权利要求2所述的方法,其特征在于,所述训练参数包括所述第二模型的性能指标和/或所述任一边缘节点对所述第一模型进行本地训练的相对效率参数;
所述相对效率参数包括所述任一边缘节点对所述第一模型进行本地训练使用的时间和数据量,或者包括根据所述时间和数据量计算得到的相对效率。
4.根据权利要求1所述的方法,其特征在于,所述获取串联顺序,包括:
从区块链中获取所述串联顺序。
5.根据权利要求1所述的方法,其特征在于,还包括:
获取所述任一边缘节点的性能参数;
向区块链上传所述性能参数,以便于所述中心节点从所述区块链中获取所述性能参数,并根据所述性能参数确定参与第一轮联邦学习的边缘节点。
6.根据权利要求5所述的方法,其特征在于,所述性能参数包括所述任一边缘节点具有的样本数据量和/或图形处理器GPU性能参数。
7.一种联邦学习方法,其特征在于,应用于联邦学习的中心节点,所述中心节点具有第一全局模型,包括:
确定参与本轮联邦学习的多个边缘节点;
确定所述多个边缘节点之间的串联顺序;
向所述串联顺序指示的第一个边缘节点发送所述第一全局模型;
接收所述串联顺序指示的最后一个边缘节点发送的半全局模型;
根据所述半全局模型更新所述第一全局模型,得到第二全局模型。
8.根据权利要求7所述的方法,其特征在于,还包括:
将所述串联顺序上传至区块链,以便于所述多个边缘节点从所述区块链中获取所述串联顺序,以及根据所述串联顺序进行联邦学习。
9.根据权利要求7所述的方法,其特征在于,所述确定参与本轮联邦学习的多个边缘节点,包括:
从区块链中获取参与第一轮联邦学习的多个参与边缘节点的训练参数;
根据所述训练参数,确定所述多个参与边缘节点的信任值;
根据所述信任值,从所述参与边缘节点中确定出参与本轮联邦学习的多个边缘节点。
10.根据权利要求9所述的方法,其特征在于,所述根据所述训练参数,确定所述多个参与边缘节点的信任值,包括:
根据所述训练参数确定所述多个参与边缘节点在历史参与联邦学习中的训练分;
确定所述多个参与边缘节点中每一参与边缘节点的训练分的权重,每一参与边缘节点的训练分的权重之和相同;
根据所述权重,确定所述多个参与边缘节点中每一参与参边缘节点的信任值。
11.一种联邦学习装置,其特征在于,应用于参与联邦学习的多个边缘节点中的任一边缘节点,包括:
获取模块,用于获取串联顺序,所述串联顺序用于指示所述任一边缘节点对应的下一个节点,所述下一个节点是所述多个边缘节点中的一个边缘节点,或者是联邦学习的中心节点;
第一接收模块,用于接收所述任一边缘节点的上一个节点发送的第一模型,所述上一个节点是所述多个边缘节点中的一个节点,或者是所述中心节点;
处理模块,用于根据所述第一模型进行本地训练,得到第二模型;
聚合模块,用于聚合所述第二模型和所述第一模型,得到第三模型;
第一发送模块,用于向所述下一个节点发送所述第三模型,以便于所述下一个节点根据所述第三模型进行本轮联邦学习。
12.一种联邦学习装置,其特征在于,应用于联邦学习的中心节点,所述中心节点具有第一全局模型,包括:
确定模块,用于确定参与本轮联邦学习的多个边缘节点;
所述确定模块,还用于确定所述多个边缘节点之间的串联顺序;
第二发送模块,用于向所述串联顺序指示的第一个边缘节点发送所述第一全局模型;
第二接收模块,用于接收所述串联顺序指示的最后一个边缘节点发送的半全局模型;
更新模块,用于根据所述半全局模型更新所述第一全局模型,得到第二全局模型。
13.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~10中任意一项所述联邦学习方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~10中任意一项所述的联邦学习方法。
CN202211370809.4A 2022-11-03 2022-11-03 联邦学习方法、装置、电子设备及计算机可读存储介质 Active CN115526339B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211370809.4A CN115526339B (zh) 2022-11-03 2022-11-03 联邦学习方法、装置、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211370809.4A CN115526339B (zh) 2022-11-03 2022-11-03 联邦学习方法、装置、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN115526339A true CN115526339A (zh) 2022-12-27
CN115526339B CN115526339B (zh) 2024-05-17

Family

ID=84705352

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211370809.4A Active CN115526339B (zh) 2022-11-03 2022-11-03 联邦学习方法、装置、电子设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN115526339B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150193695A1 (en) * 2014-01-06 2015-07-09 Cisco Technology, Inc. Distributed model training
US20180240011A1 (en) * 2017-02-22 2018-08-23 Cisco Technology, Inc. Distributed machine learning
CN109871702A (zh) * 2019-02-18 2019-06-11 深圳前海微众银行股份有限公司 联邦模型训练方法、系统、设备及计算机可读存储介质
CN112132277A (zh) * 2020-09-21 2020-12-25 平安科技(深圳)有限公司 联邦学习模型训练方法、装置、终端设备及存储介质
CN112906864A (zh) * 2021-02-20 2021-06-04 深圳前海微众银行股份有限公司 信息处理方法、装置、设备、存储介质及计算机程序产品
US11238849B1 (en) * 2021-05-31 2022-02-01 Rockspoon, Inc. System and method for federated, context-sensitive, adaptive language models
CN114091356A (zh) * 2022-01-18 2022-02-25 北京邮电大学 一种联邦学习方法及装置
CN114363911A (zh) * 2021-12-31 2022-04-15 哈尔滨工业大学(深圳) 一种部署分层联邦学习的无线通信系统及资源优化方法
CN114580658A (zh) * 2021-12-28 2022-06-03 天翼云科技有限公司 基于区块链的联邦学习激励方法、装置、设备和介质
CN114648131A (zh) * 2022-03-22 2022-06-21 中国电信股份有限公司 联邦学习方法、装置、系统、设备及介质
CN114742240A (zh) * 2022-03-09 2022-07-12 大连理工大学 一种横向联邦学习方法、装置及存储介质
CN115169576A (zh) * 2022-06-24 2022-10-11 上海富数科技有限公司广州分公司 基于联邦学习的模型训练方法、装置及电子设备

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150193695A1 (en) * 2014-01-06 2015-07-09 Cisco Technology, Inc. Distributed model training
US20180240011A1 (en) * 2017-02-22 2018-08-23 Cisco Technology, Inc. Distributed machine learning
CN109871702A (zh) * 2019-02-18 2019-06-11 深圳前海微众银行股份有限公司 联邦模型训练方法、系统、设备及计算机可读存储介质
CN112132277A (zh) * 2020-09-21 2020-12-25 平安科技(深圳)有限公司 联邦学习模型训练方法、装置、终端设备及存储介质
CN112906864A (zh) * 2021-02-20 2021-06-04 深圳前海微众银行股份有限公司 信息处理方法、装置、设备、存储介质及计算机程序产品
US11238849B1 (en) * 2021-05-31 2022-02-01 Rockspoon, Inc. System and method for federated, context-sensitive, adaptive language models
CN114580658A (zh) * 2021-12-28 2022-06-03 天翼云科技有限公司 基于区块链的联邦学习激励方法、装置、设备和介质
CN114363911A (zh) * 2021-12-31 2022-04-15 哈尔滨工业大学(深圳) 一种部署分层联邦学习的无线通信系统及资源优化方法
CN114091356A (zh) * 2022-01-18 2022-02-25 北京邮电大学 一种联邦学习方法及装置
CN114742240A (zh) * 2022-03-09 2022-07-12 大连理工大学 一种横向联邦学习方法、装置及存储介质
CN114648131A (zh) * 2022-03-22 2022-06-21 中国电信股份有限公司 联邦学习方法、装置、系统、设备及介质
CN115169576A (zh) * 2022-06-24 2022-10-11 上海富数科技有限公司广州分公司 基于联邦学习的模型训练方法、装置及电子设备

Also Published As

Publication number Publication date
CN115526339B (zh) 2024-05-17

Similar Documents

Publication Publication Date Title
CN108833458B (zh) 一种应用推荐方法、装置、介质及设备
WO2019019649A1 (zh) 投资组合产品的生成方法、装置、存储介质和计算机设备
CN112307331B (zh) 一种基于区块链高校毕业生智能招聘信息推送方法、系统及终端设备
CN111245642A (zh) 一种获取多系统之间的依赖关系的方法、装置和电子设备
CN113505520A (zh) 用于支持异构联邦学习的方法、装置和系统
CN107329834A (zh) 用于执行计算任务的方法和装置
CN114928574B (zh) 信息发送方法、装置、电子设备和计算机可读介质
US11470167B2 (en) Method and apparatus for generating information
CN115526339B (zh) 联邦学习方法、装置、电子设备及计算机可读存储介质
US10764836B2 (en) Broadcast message transmission
CN116629379A (zh) 联邦学习聚合方法及装置、存储介质及电子设备
EP3921747A1 (en) Systems and methods for item response modelling of digital assessments
CN115600499A (zh) 混合联邦学习方法、装置、电子设备及存储介质
CN113053531B (zh) 医疗数据处理方法、装置、计算机可读存储介质及设备
CN111950238A (zh) 自动驾驶故障评分表生成方法、装置、电子设备
CN112019406A (zh) 流量监控方法、装置、电子设备和计算机可读介质
CN114764627A (zh) 基于横向联合学习参与方的数据贡献力确定方法和装置
CN110796557A (zh) 数据处理方法及装置、电子设备和计算机可读存储介质
CN118052274A (zh) 联邦学习方法、装置、电子设备及计算机可读存储介质
CN111552715A (zh) 用户查询方法和装置
CN115564056B (zh) 节点选择方法、装置、电子设备及计算机可读存储介质
CN110633182A (zh) 用于监控服务器稳定性的系统、方法和装置
CN118095475A (zh) 联邦学习方法、装置、电子设备及计算机可读存储介质
US20170039887A1 (en) Systems and computerized-methods for assisting a user in determining geometric proofs
CN110325966A (zh) 用于仿真的算术惰性标志表示

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant