CN113033082B - 基于异构算力感知的去中心化联邦学习框架及建模方法 - Google Patents

基于异构算力感知的去中心化联邦学习框架及建模方法 Download PDF

Info

Publication number
CN113033082B
CN113033082B CN202110258488.8A CN202110258488A CN113033082B CN 113033082 B CN113033082 B CN 113033082B CN 202110258488 A CN202110258488 A CN 202110258488A CN 113033082 B CN113033082 B CN 113033082B
Authority
CN
China
Prior art keywords
equipment
equipment end
model
synchronization
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110258488.8A
Other languages
English (en)
Other versions
CN113033082A (zh
Inventor
朱宗卫
周学海
李曦
王超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Institute Of Higher Studies University Of Science And Technology Of China
Original Assignee
Suzhou Institute Of Higher Studies University Of Science And Technology Of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Institute Of Higher Studies University Of Science And Technology Of China filed Critical Suzhou Institute Of Higher Studies University Of Science And Technology Of China
Priority to CN202110258488.8A priority Critical patent/CN113033082B/zh
Publication of CN113033082A publication Critical patent/CN113033082A/zh
Application granted granted Critical
Publication of CN113033082B publication Critical patent/CN113033082B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/104Peer-to-peer [P2P] networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/08Probabilistic or stochastic CAD
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于异构算力感知的去中心化联邦学习框架,包括云端协调器和若干设备端;所述云端协调器用于运行时管理、训练和参数更新方案生成、定期模型备份;所述设备端用于向云端协调器传输设备信息,在本地运行模型,更新设备端参数;所述云端协调器获取设备端一次训练时间的最小公倍数为超周期,设备端在超周期内计算不同的步长,在超周期的整数倍时聚合模型。根据设备计算能力不同而运行不同的本地步骤,在模型聚合过程中,为了减少慢节点的负面影响;采用了分布式的点对点通信方式,可以在不增加整体通信量的情况下,消除在分布式训练过程中中央服务器的通信压力。

Description

基于异构算力感知的去中心化联邦学习框架及建模方法
技术领域
本发明属于大数据的数据汇聚技术领域,具体地涉及一种基于异构算力感知的去中心化联邦学习框架及建模方法。
背景技术
人工智能越来越多的应用在人类生活的各个方面,然而,传统的人工智能学习面临了两个突出问题。
1)数据孤岛问题
一个AI项目可能涉及多个领域,需要融合各个公司、各个部门的数据。(比如研究居民线上消费问题,需要各个消费平台的数据,可能还需要银行数据等等)但在现实中想要将分散在各地、各个机构的数据进行整合几乎是不可能的。
2)数据隐私问题
GDPR的出台,使得各方对数据所有权和隐私性的关注越来越多,对用户隐私和安全管理日趋严格,导致获取数据集越来越困难。
经典的机器学习方法基于样本数据(库)训练得到适用于不同任务和场景的机器学习模型。这些样本数据(库)一般通过从不同用户、终端、系统中收集并集中存储而得到。在实际应用场景中,这种收集样本数据的方式面临很多问题。一方面,这种方法损害了数据的隐私性和安全性。在一些应用场景中,例如金融行业、政府行业等,受限于数据隐私和安全的要求,根本无法实现对数据的集中存储;另一方面,这种方法会增加通信开销。在物联网等一些大量依赖于移动终端的应用中,这种数据汇聚的通信开销成本是非常巨大的。
要解决大数据的困境,仅仅靠传统的方法已经出现瓶颈。两个公司简单的交换数据,法规GDPR都是不允许的。用户是原始数据的拥有者,在用户没有批准的情况下,公司间不能交换数据。如何在满足隐私监管要求的前提下,设计一个机器学习框架,让数据拥有方不暴露自己的数据,但能共同使用数据,让人工智能系统能够更加高效、准确地共同使用各自的数据,解决数据孤岛的问题。因此,一个满足隐私保护和数据安全的一个可行的解决方案就诞生了,即联邦学习。
联邦学习允许多个用户(称为客户机)协作训练共享的全局模型,而无需分享本地设备中的数据。由中央服务器协调完成多轮联邦学习以得到最终的全局模型。其中,在每一轮开始时,中央服务器将当前的全局模型发送给参与联邦学习的客户机。每个客户机根据其本地数据训练所接收到的全局模型,训练完毕后将更新后的模型返回中央服务器。中央服务器收集到所有客户机返回的更新后,对全局模型进行一次更新,进而结束本轮更新。通过上述多轮学习和通信的方法,联邦学习消除了在单个设备上聚合所有数据的需要,克服了机器学习任务中的隐私和通信挑战,允许机器学习模型学习分散在各个用户(客户机)上存储的数据。
联邦学习自提出以来获得了广泛的关注,并在一些场景中得以应用。联邦学习解决了数据汇聚的问题,使得一些跨机构、跨部门的机器学习模型、算法的设计和训练成为了可能。特别地,对于移动设备中的机器学习模型应用,联邦学习表现出了良好的性能和鲁棒性。此外,对于一些没有足够的私人数据来开发精确的本地模型的用户(客户机)来说,通过联邦学习能够大大改进机器学习模型和算法的性能。但是,由于联邦学习侧重于通过分布式学习所有参与客户机(设备)的本地数据来获得高质量的全局模型,因此它无法捕获每个设备的个人信息,从而导致推理或分类的性能下降。此外,传统的联邦学习需要所有参与设备就协作训练的共同模型达成一致,这在实际复杂的物联网应用中是不现实的。研究人员将联邦学习在实际应用中面临的问题总结如下:
1)由于CPU、GPU、内存等的可变性,不同节点的系统配置可能会有所不同。节点计算能力的不平衡会加剧掉队问题,并导致一些慢节点严重落后。
2)联邦学习框架通信量庞大。FedAvg的集中式模型聚合策略会给中央服务器带来很大的通信和计算压力,导致可扩展性差和通信瓶颈。
3)设备分布广泛,易造成通信不可靠性,从而降低性能。
为了解决这些异构性挑战,许多研究人员曾进行以下优化:
1)采用异步方式进行模型聚合,然而,陈旧的落后节点参数会导致不正确的收敛或迭代次数增加。
2)采用集中模型同步和聚合方法,然而,在海量设备的情况下,通信压力剧增。
3)采用分布式设计联邦学习框架,然而,该框架假设设备是同构的,同步聚合模型,并不适合在异构设备上训练模型。
本发明因此而来。
发明内容
针对传统联邦学习假设设备端计算能力是平均的。然而,当应用于异构设备时,快速设备需要等待慢速设备,这样就会浪费快速设备的计算能力的技术问题,本发明提出了一种基于异构算力感知的去中心化联邦学习框架及建模方法,根据设备计算能力不同而运行不同的本地步骤,在模型聚合过程中,为了减少慢节点的负面影响;采用了分布式的点对点通信方式,可以在不增加整体通信量的情况下,消除在分布式训练过程中中央服务器的通信压力。
本发明的技术方案是:
一种基于异构算力感知的去中心化联邦学习框架,包括云端协调器和若干设备端;
所述云端协调器用于运行时管理、训练和参数更新方案生成、定期模型备份;
所述设备端用于向云端协调器传输设备信息,在本地运行模型,更新设备端参数;
所述云端协调器获取设备端一次训练时间的最小公倍数为超周期,设备端在超周期内计算不同的步长,在超周期的整数倍时聚合模型。
优选的技术方案中,所述云端协调器包括活性检测器、策略生成器、运行监测器和模型管理器;
所述活性检测器通过监控设备状态添加可用设备;
所述策略生成器用于生成训练配置,向设备端发送训练配置;
所述运行监测器在每一轮通信中收集设备端的参数版本,预测下一轮的参数版本分布,并将其发送给策略生成器;
所述模型管理器定期获取最新的模型,并将其放入数据库中备份。
优选的技术方案中,所述策略生成器还用于根据设备端情况,确定全局同步拓扑;根据设备端异构程度分布,确定设备端同步步调不等待的最小时间,以此获得分组同步时刻,各设备端的参数版本号概率分布;根据参数版本号概率分布,确定分组同步的设备集合及其拓扑。
优选的技术方案中,所述策略生成器利用概率分布、期望参数版本和基于概率选择函数得到训练配置,所述概率选择函数Pi,j)为:
Figure SMS_1
其中,N avl 是可用设备的总数,v (i,j) 是设备i在第j轮迭代中的实际参数版本,µ是所有v (i,j) 的四分位数。
优选的技术方案中,对设备端进行分组,确定组间同步周期为组内同步周期的整数倍。
优选的技术方案中,所述设备端在本地异步计算梯度和更新模型参数,在到达超周期时,设备端传递参数并执行部分模型聚合和同步;在设备端传递参数并执行部分模型聚合和同步时采用容错机制,所述容错机制为:第二设备端在工作过程中断开连接,所述第二设备端的下游设备端包括第三设备端,所述第三设备端在模型同步时无法接收到参数,在一定等待时间后,所述第三设备端向所述第二设备端发送握手消息,确认设备状态之后向第二设备端的上游设备第一设备端发出警告,所述第一设备端直接与第三设备端通信。
本发明还公开了一种基于异构算力感知的去中心化联邦学习建模方法,包括以下步骤:
S01:在每轮训练开始之前,云端协调器的活性检测器通过监控设备状态添加可用设备;
S02:通过策略生成器生成训练配置,向设备端发送训练配置;
S03:每个设备端进入协商阶段,并将其本轮计算时间发送给云端协调器,得到该设备算力;
S04:策略生成器利用概率分布、期望参数版本和基于概率选择函数得到训练配置;各设备端根据训练配置信息异步的进行本地训练;到达更新周期时,各设备端根据云端协调器所给的拓扑进行部分模型同步,将同步后的模型广播给其他设备端;
S05:运行监测器在每一轮通信中收集设备端的参数版本,预测下一轮的参数版本分布,并将其发送给策略生成器;
S05:重复步骤S04-S05,直到模型收敛;
S06:模型管理器定期获取最新的模型,并将其放入数据库中备份。
优选的技术方案中,所述步骤S04之前还包括,策略生成器还用于根据设备端情况,确定全局同步拓扑;根据设备端异构程度分布,确定设备端同步步调不等待的最小时间,以此获得分组同步时刻,各设备端的参数版本号概率分布;根据参数版本号概率分布,确定分组同步的设备集合及其拓扑。
优选的技术方案中,所述步骤S04中,设备端在本地异步计算梯度和更新模型参数,在到达超周期时,设备端传递参数并执行部分模型聚合和同步;在设备端传递参数并执行部分模型聚合和同步时采用容错机制,所述容错机制为:第二设备端在工作过程中断开连接,所述第二设备端的下游设备端包括第三设备端,所述第三设备端在模型同步时无法接收到参数,在一定等待时间后,所述第三设备端向所述第二设备端发送握手消息,确认设备状态之后向第二设备端的上游设备第一设备端发出警告,所述第一设备端直接与第三设备端通信。
优选的技术方案中,所述步骤S04中还包括,对设备端进行分组,确定组间同步周期为组内同步周期的整数倍。
与现有技术相比,本发明的优点是:
本发明对传统的联邦学习进行改进,旨在解决以下问题:
1、慢节点落后严重问题:传统的联邦学习由于各个节点的系统配置不同,节点计算能力的不平衡会加剧掉队问题,并导致一些慢节点严重落后,而HADFL根据设备计算能力不同而运行不同的本地步骤,在模型聚合过程中,为了减少慢节点的负面影响,采用一种版本敏感的概率部分模型聚合方案,既不浪费慢节点的计算能力,又可以利用它们带来的噪声进行更快的训练。
2、可扩展性差和通信瓶颈问题:传统联邦学习采用的集中式模型聚合策略会给中央服务器带来很大的通信和计算压力,导致可扩展性差和通信瓶颈,而HADFL采用了分布式的点对点通信方式,可以在不增加整体通信量的情况下,消除在分布式训练过程中中央服务器的通信压力。
附图说明
下面结合附图及实施例对本发明作进一步描述:
图1为本发明基于异构算力感知的去中心化联邦学习框架的组成图;
图2为分布式训练、FedAvg和HADFL训练周期比较,三种设备计算能力比是4:2:1;
图3为本发明模型融合和容错机制;
图4a-4f为两组数据重复进行三次实验的实验结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
实施例:
下面结合附图,对本发明的较佳实施例作进一步说明。
如图1所示,一种基于异构算力感知的去中心化联邦学习框架,包括云端协调器和若干设备端;
所述云端协调器用于运行时管理、训练和参数更新方案生成、定期模型备份;
所述设备端用于向云端协调器传输设备信息,在本地运行模型,更新设备端参数;
所述云端协调器获取设备端一次训练时间的最小公倍数为超周期,设备端在超周期内计算不同的步长,在超周期的整数倍时聚合模型。
发明了一个基于异构算力感知的去中心化联邦学习框架(HADFL),对传统的联邦学习进行改进,旨在解决以下问题:
慢节点落后严重问题:传统的联邦学习由于各个节点的系统配置不同,节点计算能力的不平衡会加剧掉队问题,并导致一些慢节点严重落后,而HADFL根据设备计算能力不同而运行不同的本地步骤,在模型聚合过程中,为了减少慢节点的负面影响,采用一种版本敏感的概率部分模型聚合方案,既不浪费慢节点的计算能力,又可以利用它们带来的噪声进行更快的训练。
可扩展性差和通信瓶颈问题:传统联邦学习采用的集中式模型聚合策略会给中央服务器带来很大的通信和计算压力,导致可扩展性差和通信瓶颈,而HADFL采用了分布式的点对点通信方式,可以在不增加整体通信量的情况下,消除在分布式训练过程中中央服务器的通信压力。
该框架允许异构设备在模型聚合之前运行不同的本地步骤。利用动态预测函数,根据历史运行信息预测参数版本,对长期运行具有良好的指导作用;该框架采用分散式模型聚合策略,设备之间通过传递模型参数来进行通讯;该框架充分考虑了网络连接在运行过程中的不可靠性,采用了容错参数同步方案。
一较佳的实施例中,云端协调器包括活性检测器、策略生成器、运行监测器和模型管理器;
所述活性检测器通过监控设备状态添加可用设备;
所述策略生成器用于生成训练配置,向设备端发送训练配置;
所述运行监测器在每一轮通信中收集设备端的参数版本,预测下一轮的参数版本分布,并将其发送给策略生成器;
所述模型管理器定期获取最新的模型,并将其放入数据库中备份。
如图2所示,设备端在超周期Tsync(不同设备端训练一次数据的训练时间的最小公倍数)内本地计算不同的步长,只在超周期的整数倍时进行聚合模型,由此可见,HADFL可充分利用不同设备的计算能力。
一较佳的实施例中,策略生成器的功能如下:
1)根据设备端情况,确定全局同步拓扑;
2)根据设备端异构程度分布,确定设备端同步步调不等待的最小时间,以此获得分组同步时刻,各设备端的参数版本号概率分布;
3)根据参数版本号概率分布,确定分组同步的设备集合及其拓扑。
一较佳的实施例中,策略生成器利用概率分布、期望参数版本和基于概率选择函数得到训练配置。
一较佳的实施例中,策略生成器的技术如下:
1)定义设备端一次训练时间的最小公倍数为超周期;
2)基于概率选择函数确定设备选中概率,所述概率选择函数Pi,j)为:
Figure SMS_2
其中,N avl 是可用设备的总数,v (i,j) 是设备i在第j轮迭代中的实际参数版本,µ是所有v (i,j) 的四分位数。
概率选择功能减少流浪者设备的参数对模型收敛的影响。与其他联邦学习框架相比,本框架的概率选择函数不完全丢弃落后设备,而是利用其参数带来的噪声帮助模型跳出局部最小值,更快地收敛。
3)对设备端进行分组,确定组间同步周期为组内同步周期的整数倍。在设备端数量较多的情况下,为了便于管理和避免可能出现的系统错误,将设备分成多个组,如图1所示,组间同步周期可以为组内同步周期的整数倍。
设备端核心技术
在设备接收到云端策略生成器发送的参数包(初始版本的模型参数、训练的超参数等)之后,进入warm-up阶段。warm-up是一种学习率优化方法,在模型训练之初选用较小的学习率,训练一段时间之后使用预设的学习率进行训练。
一较佳的实施例中,设备端在本地异步计算梯度和更新模型参数,如图3所示,在到达超周期时,设备端传递参数并执行部分模型聚合和同步。具体的实现中,设备端采用scatter-gather的方式进行传递参数并执行部分模型聚合和同步。
为了避免由于网络连接不稳定而导致的系统错误,在设备端传递参数并执行部分模型聚合和同步时采用容错机制,容错机制为:第二设备端在工作过程中断开连接,所述第二设备端的下游设备端包括第三设备端,所述第三设备端在模型同步时无法接收到参数,在一定等待时间后,所述第三设备端向所述第二设备端发送握手消息,确认设备状态之后向第二设备端的上游设备第一设备端发出警告,所述第一设备端直接与第三设备端通信。具体的,如图3所示,设备2在工作过程中断开连接,导致其下游设备3在模型同步时无法接收到参数。HADFL规定在一定等待时间后,设备3会向设备2发送握手消息,确认设备状态之后向设备2的上游设备1发出警告。通信时,设备1将绕过设备2,直接与设备3通信。这样可以提高整个系统的可靠性。
系统的工作流程如下:
S01:在每轮训练开始之前,云端协调器的活性检测器通过监控设备状态添加可用设备;
S02:通过策略生成器生成训练配置,向设备端发送训练配置(即初始模型参数和训练超参数);
S03:每个设备端进入协商阶段,并将其本轮计算时间发送给云端协调器,得到该设备算力;
S04:策略生成器利用概率分布、期望参数版本和基于概率选择函数得到训练配置;各设备端根据训练配置信息异步的进行本地训练;到达更新周期时,各设备端根据云端协调器所给的拓扑进行部分模型同步,将同步后的模型广播给其他设备端;具体的实现中,以非阻塞的方式将同步后的模型广播给其他设备端。所述概率选择函数Pi,j)为:
Figure SMS_3
其中,N avl 是可用设备的总数,v (i,j) 是设备i在第j轮迭代中的实际参数版本,µ是所有v (i,j) 的四分位数。
S05:运行监测器在每一轮通信中收集设备端的参数版本,预测下一轮的参数版本分布,并将其发送给策略生成器;
S05:重复步骤S04-S05,直到模型收敛;
S06:模型管理器定期获取最新的模型,并将其放入数据库中备份。
步骤S04之前还包括,策略生成器还用于根据设备端情况,确定全局同步拓扑;根据设备端异构程度分布,确定设备端同步步调不等待的最小时间,以此获得分组同步时刻,各设备端的参数版本号概率分布;根据参数版本号概率分布,确定分组同步的设备集合及其拓扑。
步骤S04中,设备端在本地异步计算梯度和更新模型参数,在到达超周期时,设备端传递参数并执行部分模型聚合和同步;在设备端传递参数并执行部分模型聚合和同步时采用容错机制,所述容错机制为:第二设备端在工作过程中断开连接,所述第二设备端的下游设备端包括第三设备端,所述第三设备端在模型同步时无法接收到参数,在一定等待时间后,所述第三设备端向所述第二设备端发送握手消息,确认设备状态之后向第二设备端的上游设备第一设备端发出警告,所述第一设备端直接与第三设备端通信。
步骤S04中还包括,对设备端进行分组,确定组间同步周期为组内同步周期的整数倍。
实验设置
测试平台设置:在4个Nvidia Tesla V100 gpu上部署HADFL框架,使用PCIEExpress 3.0 x8进行通信。CUDA版本是10.0.130。我们使用sleep()函数来模拟不同程度的异构,并使用一个数组来表示计算能力的比例。如[2,1]表示GPU0的计算能力是GPU1的两倍。
模型和数据集:使用ResNet-18和vgg-16这两个CNN模型,数据集使用CIFAR-10。
比较基准:采用两种训练方案来进行对比。(1)基于Pytorch的分布式训练方案(2)Decentralized Federated Average (Decentralized-FedAvg)
实验结果:
我们对[3,3,1,1]和[4,2,2,1]两种非均匀分布的系统进行了对比实验。训练数据分割到四个gpu上,每次选择两个gpu来执行部分同步。重复进行三次实验,实验结果如图4a-4f所示。
同时记录达到最大测试精度所需的平均时间,如下表1所示。
Figure SMS_4
实验结果分析
由图4a-4f和表1可看出,HADFL比其他两种方案收敛速度更快。训练ResNet-18时,在[3,3,1,1]的异构分布下,HADFL实现对分布式训练加速3.02倍,对decentralized-FedAvg加速2.11倍,在[4,2,2,1]的异构分布下,对分布式训练加速4.68倍,对decentralized-FedAvg加速3.15倍;在训练vgg-16时,在[3,3,1,1]的异构分布下,HADFL实现对分布式训练加速1.70倍,对decentralized-FedAvg加速2.46倍,在[4,2,2,1]的异构分布下,对分布式训练加速1.35倍,对decentralized-FedAvg加速1.83倍。
实施例1
金融行业数据的生产习惯和数据存储的过程当中,纬度更多是偏向于资金流,所以需要去做更多的资源整合,需要有一个非常好的办法来量化金融风险、防范系统性风险、量化用户价值,从而达到业务的指标。但无奈的是,当金融机构去整合更多的数据孤岛资源的时候,由于行业的要求,会受到一定限制。此时利用本专利基于异构算力感知的去中心化联邦学习可以实现在隐私保护和数据合规的情况下进行内外部的大数据合作。
在金融行业,HADFL应用服务主要运用在零售信贷风控、贷记卡风控、风险定价、反洗钱、精准营销等领域。从实际应用流程上看,HADFL应用服务结合实际场景,通过HADFL系统、准备数据、训练模型、上线测试、模型优化等流程,完成联合建模,并在生产环境中投产使用。该过程最显著的特点是各方数据不出本地,确保数据隐私。
实施例2
在医疗AI领域,获取高质量的医学影像数据难度较大。一方面来自于医学影像数据前处理和标注所需的投入,占据了开发成本的绝大部分,工作量巨大;其次由于医学影像数据绝对的私密性,数据的拥有方采取高度保护措施,也加大了AI研发机构获取数据的难度,然而,只有获取更多的数据进行训练,AI模型才能更强健。
HADFL能在无需共享患者数据的情况下,即可实现协作与分散化的神经网络训练。各节点负责训练其自身的本地模型,并定期提交给参数服务器。该服务器不断累积并聚合各自的贡献,进而创建一个全局模型,分享给所有节点。全局模型可以分散到各个医院或研究中心,利用它们本地的数据进行训练,之后再将训练后的模型回传,而数据始终保存在本地。通过各个医院、研究中心等机构不断地训练,“全局AI模型”不断壮大,再分享给各个节点,实现了数据与模型训练的“双赢”。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。

Claims (8)

1.一种基于异构算力感知的去中心化联邦学习框架系统,其特征在于,包括云端协调器和若干设备端;
所述云端协调器用于运行时管理、训练和参数更新方案生成、定期模型备份;
所述设备端用于向云端协调器传输设备信息,在本地运行模型,更新设备端参数;
所述云端协调器获取设备端一次训练时间的最小公倍数为超周期,设备端在超周期内计算不同的步长,在超周期的整数倍时聚合模型;
所述云端协调器包括活性检测器、策略生成器、运行监测器和模型管理器;
所述活性检测器通过监控设备状态添加可用设备;
所述策略生成器用于生成训练配置,向设备端发送训练配置;
所述运行监测器在每一轮通信中收集设备端的参数版本,预测下一轮的参数版本分布,并将其发送给策略生成器;
所述模型管理器定期获取最新的模型,并将其放入数据库中备份;
所述策略生成器还用于根据设备端情况,确定全局同步拓扑;根据设备端异构程度分布,确定设备端同步步调不等待的最小时间,以此获得分组同步时刻,各设备端的参数版本号概率分布;根据参数版本号概率分布,确定分组同步的设备集合及其拓扑。
2.根据权利要求1所述的基于异构算力感知的去中心化联邦学习框架系统,其特征在于,所述策略生成器利用概率分布、期望参数版本和基于概率选择函数得到训练配置,所述概率选择函数Pi,j)为:
Figure QLYQS_1
其中,N avl 是可用设备的总数,v (i,j) 是设备i在第j轮迭代中的实际参数版本,µ是所有v (i,j) 的四分位数。
3.根据权利要求1所述的基于异构算力感知的去中心化联邦学习框架系统,其特征在于,对设备端进行分组,确定组间同步周期为组内同步周期的整数倍。
4.根据权利要求1所述的基于异构算力感知的去中心化联邦学习框架系统,其特征在于,所述设备端在本地异步计算梯度和更新模型参数,在到达超周期时,设备端传递参数并执行部分模型聚合和同步;在设备端传递参数并执行部分模型聚合和同步时采用容错机制,所述容错机制为:第二设备端在工作过程中断开连接,所述第二设备端的下游设备端包括第三设备端,所述第三设备端在模型同步时无法接收到参数,在一定等待时间后,所述第三设备端向所述第二设备端发送握手消息,确认设备状态之后向第二设备端的上游设备第一设备端发出警告,所述第一设备端直接与第三设备端通信。
5.一种基于异构算力感知的去中心化联邦学习建模方法,其特征在于,包括以下步骤:
S01:在每轮训练开始之前,云端协调器的活性检测器通过监控设备状态添加可用设备;
S02:通过策略生成器生成训练配置,向设备端发送训练配置;
S03:每个设备端进入协商阶段,并将其本轮计算时间发送给云端协调器,得到该设备算力;
S04:策略生成器利用概率分布、期望参数版本和基于概率选择函数得到训练配置;各设备端根据训练配置信息异步的进行本地训练;到达更新周期时,各设备端根据云端协调器所给的拓扑进行部分模型同步,将同步后的模型广播给其他设备端;
S05:运行监测器在每一轮通信中收集设备端的参数版本,预测下一轮的参数版本分布,并将其发送给策略生成器;
S05:重复步骤S04-S05,直到模型收敛;
S06:模型管理器定期获取最新的模型,并将其放入数据库中备份。
6.根据权利要求5所述的基于异构算力感知的去中心化联邦学习建模方法,其特征在于,所述步骤S04之前还包括,策略生成器还用于根据设备端情况,确定全局同步拓扑;根据设备端异构程度分布,确定设备端同步步调不等待的最小时间,以此获得分组同步时刻,各设备端的参数版本号概率分布;根据参数版本号概率分布,确定分组同步的设备集合及其拓扑。
7.根据权利要求5所述的基于异构算力感知的去中心化联邦学习建模方法,其特征在于,所述步骤S04中,设备端在本地异步计算梯度和更新模型参数,在到达超周期时,设备端传递参数并执行部分模型聚合和同步;在设备端传递参数并执行部分模型聚合和同步时采用容错机制,所述容错机制为:第二设备端在工作过程中断开连接,所述第二设备端的下游设备端包括第三设备端,所述第三设备端在模型同步时无法接收到参数,在一定等待时间后,所述第三设备端向所述第二设备端发送握手消息,确认设备状态之后向第二设备端的上游设备第一设备端发出警告,所述第一设备端直接与第三设备端通信。
8.根据权利要求5所述的基于异构算力感知的去中心化联邦学习建模方法,其特征在于,所述步骤S04中还包括,对设备端进行分组,确定组间同步周期为组内同步周期的整数倍。
CN202110258488.8A 2021-03-10 2021-03-10 基于异构算力感知的去中心化联邦学习框架及建模方法 Active CN113033082B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110258488.8A CN113033082B (zh) 2021-03-10 2021-03-10 基于异构算力感知的去中心化联邦学习框架及建模方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110258488.8A CN113033082B (zh) 2021-03-10 2021-03-10 基于异构算力感知的去中心化联邦学习框架及建模方法

Publications (2)

Publication Number Publication Date
CN113033082A CN113033082A (zh) 2021-06-25
CN113033082B true CN113033082B (zh) 2023-06-06

Family

ID=76468914

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110258488.8A Active CN113033082B (zh) 2021-03-10 2021-03-10 基于异构算力感知的去中心化联邦学习框架及建模方法

Country Status (1)

Country Link
CN (1) CN113033082B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113505881B (zh) * 2021-07-15 2023-06-02 华侨大学 面向异构设备的分布式神经网络训练方法、装置及介质
CN113723619A (zh) * 2021-08-31 2021-11-30 南京大学 一种基于训练阶段感知策略的联邦学习训练方法
CN113989561B (zh) * 2021-10-29 2024-04-16 河海大学 基于异步联邦学习的参数聚合更新方法、设备及系统
CN114650227B (zh) * 2022-01-27 2023-08-18 北京邮电大学 一种分层联邦学习场景下的网络拓扑构建方法及系统
CN114662706A (zh) * 2022-03-24 2022-06-24 支付宝(杭州)信息技术有限公司 一种模型训练方法、装置及设备
CN115242660B (zh) * 2022-09-21 2022-12-13 之江实验室 基于中心化的异构算力联邦系统及组网和执行方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111447083A (zh) * 2020-03-10 2020-07-24 中国人民解放军国防科技大学 动态带宽和不可靠网络下的联邦学习架构及其压缩算法
CN111600707A (zh) * 2020-05-15 2020-08-28 华南师范大学 一种在隐私保护下的去中心化联邦机器学习方法
CN111860581A (zh) * 2020-06-11 2020-10-30 南京邮电大学 一种基于模型离散度的联邦学习训练方法
CN112203282A (zh) * 2020-08-28 2021-01-08 中国科学院信息工程研究所 一种基于联邦迁移学习的5g物联网入侵检测方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200364608A1 (en) * 2019-05-13 2020-11-19 International Business Machines Corporation Communicating in a federated learning environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111447083A (zh) * 2020-03-10 2020-07-24 中国人民解放军国防科技大学 动态带宽和不可靠网络下的联邦学习架构及其压缩算法
CN111600707A (zh) * 2020-05-15 2020-08-28 华南师范大学 一种在隐私保护下的去中心化联邦机器学习方法
CN111860581A (zh) * 2020-06-11 2020-10-30 南京邮电大学 一种基于模型离散度的联邦学习训练方法
CN112203282A (zh) * 2020-08-28 2021-01-08 中国科学院信息工程研究所 一种基于联邦迁移学习的5g物联网入侵检测方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Time Efficient Federated Learning with Semi-asynchronous Communication;Jiangshan Hao 等;《2020 IEEE 26th International Conference on Parallel and Distributed Systems (ICPADS)》;156-163 *
基于差分隐私保护的不均衡数据联邦学习方法;黄茜茜;《中国优秀硕士学位论文全文数据库 信息科技辑》(第1期);I138-166 *

Also Published As

Publication number Publication date
CN113033082A (zh) 2021-06-25

Similar Documents

Publication Publication Date Title
CN113033082B (zh) 基于异构算力感知的去中心化联邦学习框架及建模方法
Zhang et al. Federated learning for the internet of things: Applications, challenges, and opportunities
CN107181724B (zh) 一种协同流的识别方法、系统以及使用该方法的服务器
Li et al. Effective replica management for improving reliability and availability in edge-cloud computing environment
CN112712182B (zh) 一种基于联邦学习的模型训练方法、装置及存储介质
CN111245903B (zh) 一种基于边缘计算的联合学习方法及系统
WO2020147336A1 (zh) 一种微服务全链路监控系统及方法
CN109347668A (zh) 一种服务质量评估模型的训练方法及装置
Liu et al. A blockchain-empowered federated learning in healthcare-based cyber physical systems
CN114584581B (zh) 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法
CN109981416A (zh) 一种区块链性能检测方法与系统
CN105827678B (zh) 一种基于高可用架构下的通信方法和节点
CN115297008B (zh) 基于智算网络的协同训练方法、装置、终端及存储介质
Cao et al. HADFL: Heterogeneity-aware decentralized federated learning framework
Jiang et al. A trust-based hierarchical consensus mechanism for consortium blockchain in smart grid
CN113535850A (zh) 基于区块链的数据协同方法、装置及系统
Azimi et al. A decentralized gossip based approach for data clustering in peer-to-peer networks
CN101751297A (zh) 一种可承受大量用户登录的信息系统及实现方法
Zhang et al. Blockchain-based secure aggregation for federated learning with a traffic prediction use case
Abdullah et al. Modular Platforms based on Clouded Web Technology and Distributed Deep Learning Systems
Lin et al. A blockchain-based semantic exchange framework for web 3.0 toward participatory economy
CN114036159A (zh) 银行业务信息更新方法和系统
Li et al. HFSA: A semi-asynchronous hierarchical federated recommendation system in smart city
Rashid et al. Edgestore: Towards an edge-based distributed storage system for emergency response
Jiang et al. Joint model pruning and topology construction for accelerating decentralized machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant