CN117474130B - 一种基于多云互享的联邦学习系统、方法及装置 - Google Patents

一种基于多云互享的联邦学习系统、方法及装置 Download PDF

Info

Publication number
CN117474130B
CN117474130B CN202311825176.6A CN202311825176A CN117474130B CN 117474130 B CN117474130 B CN 117474130B CN 202311825176 A CN202311825176 A CN 202311825176A CN 117474130 B CN117474130 B CN 117474130B
Authority
CN
China
Prior art keywords
gradient
cloud server
cluster
target
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311825176.6A
Other languages
English (en)
Other versions
CN117474130A (zh
Inventor
张旭
孙华锦
胡雷钧
王小伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Metabrain Intelligent Technology Co Ltd
Original Assignee
Suzhou Metabrain Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Metabrain Intelligent Technology Co Ltd filed Critical Suzhou Metabrain Intelligent Technology Co Ltd
Priority to CN202311825176.6A priority Critical patent/CN117474130B/zh
Publication of CN117474130A publication Critical patent/CN117474130A/zh
Application granted granted Critical
Publication of CN117474130B publication Critical patent/CN117474130B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明涉及计算机技术领域,公开了一种基于多云互享的联邦学习系统、方法及装置,多个联邦学习子系统,联邦学习子系统包括用户簇和云服务器,用户簇包括多个用户端;用户端用于获取局部模型的当前梯度,并将当前梯度发送至对应的云服务器;云服务器用于接收用户簇中各用户端发送的当前梯度,确定簇内平均梯度;多个联邦学习子系统中的云服务器共享簇内平均梯度,以使各联邦学习子系统中的云服务器得到目标梯度,并根据目标梯度,确定目标模型参数,将目标模型参数反馈给用户簇中各用户端;用户端用于根据目标模型参数,优化局部模型,直至得到最优局部模型。通过为每个用户簇分配一台云服务器,多台云服务器灵活配置,提高了用户端的可扩展性。

Description

一种基于多云互享的联邦学习系统、方法及装置
技术领域
本申请涉及计算机技术领域,尤其涉及一种基于多云互享的联邦学习系统、方法及装置。
背景技术
随着计算机技术的不断发展,智能化系统已逐步融入人们的日常生活,机器学习模型得到了广泛的应用,因此如何应用机器学习模型实现智能化系统成为了重点研究内容。
在相关技术中,联邦机器学习可以使得各个边缘设备进行局部训练,并将得到的局部模型发送给云服务器进行模型的聚合。
然而,目前的联邦学习的结构在大尺度网络中将会受到限制,终端用户端的可扩展性差以及当有大量的用户端连接至云服务器时,云服务器将会成为性能瓶颈。
发明内容
本申请提供一种基于多云互享的联邦学习系统、方法及装置,以解决相关技术降低了用户端的可扩展性等缺陷。
本申请第一个方面提供一种基于多云互享的联邦学习系统,包括:多个联邦学习子系统,所述联邦学习子系统包括用户簇和云服务器,所述用户簇包括多个用户端;
所述用户端用于获取局部模型的当前梯度,并将所述当前梯度发送至对应的云服务器;
所述云服务器用于接收所述用户簇中各用户端发送的当前梯度,确定簇内平均梯度;
所述多个联邦学习子系统中的云服务器共享所述簇内平均梯度,以使各所述联邦学习子系统中的云服务器得到目标梯度,并根据所述目标梯度,确定目标模型参数,将所述目标模型参数反馈给所述用户簇中各用户端;
所述用户端用于根据所述目标模型参数,优化所述局部模型,直至得到最优局部模型。
在一种可选的实施方式中,所述用户端,用于:
基于预设目标损失函数,根据所述局部模型的当前模型参数,确定所述局部模型的当前梯度。
在一种可选的实施方式中,所述云服务器,用于:
根据所述用户簇中各用户端发送的当前梯度的总和,确定簇内总梯度;
根据所述簇内总梯度及该用户簇包含的用户端数量,确定簇内平均梯度。
在一种可选的实施方式中,所述多个联邦学习子系统之间设有云服务器网络;
各所述云服务器基于所述云服务器网络进行簇内平均梯度共享。
在一种可选的实施方式中,所述云服务器,用于:
获取共享云服务器发送的共享簇内平均梯度;其中,所述共享云服务器与当前云服务器之间存在边缘连接关系,所述共享簇内平均梯度为所述共享云服务器所确定的簇内平均梯度;
根据接收到的所述共享簇内平均梯度和本地的簇内平均梯度,确定目标梯度。
在一种可选的实施方式中,所述云服务器,用于:
获取云服务器权重矩阵;其中,所述云服务器权重矩阵表征各所述云服务器之间的共享权重;
根据所述云服务器权重矩阵,为所述共享云服务器分配共享权重;
根据各所述共享云服务器的共享权重、共享簇内平均梯度和本地的簇内平均梯度,确定目标梯度。
在一种可选的实施方式中,所述云服务器,用于:
根据各所述云服务器之间的网络连接关系,构建有向图模型;
基于所述有向图模型,生成所述云服务器权重矩阵。
在一种可选的实施方式中,所述云服务器,用于:
根据所述有向图模型,确定各所述云服务器之间的共享置信度;
根据各所述云服务器之间的共享置信度,生成所述云服务器权重矩阵。
在一种可选的实施方式中,所述云服务器,用于:
将各所述云服务器之间的共享置信度量化为共享权重;
根据各所述云服务器之间的共享权重,确定所述云服务器权重矩阵。
在一种可选的实施方式中,所述云服务器,用于:
基于如下公式,确定所述目标梯度:
,/>
其中,表示在/>时刻云服务器/>当前模型参数/>的目标梯度,/>,/>表示在/>时刻共享云服务器/>的共享权重,/>表示在时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当/>时,/>表示在/>时刻云服务器/>当前模型参数/>的本地的簇内平均梯度。
在一种可选的实施方式中,所述目标梯度满足如下期望目标:
其中,表示在/>时刻云服务器/>当前模型参数/>的本地的簇内平均梯度,/>表示在初始时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当时,/>表示在初始时刻云服务器/>当前模型参数/>的本地的簇内平均梯度,/>表示所述云服务器的总数。
在一种可选的实施方式中,所述簇内平均梯度为多维梯度向量,所述多维梯度向量包括多个梯度分量;
所述云服务器,用于:
基于预设静态平均共识算法,并行确定各所述梯度分量对应的目标梯度分量,以得到目标梯度;
其中,所述目标梯度为包括多个目标梯度分量的多维梯度向量。
在一种可选的实施方式中,所述云服务器,用于:
基于梯度下降算法,根据所述目标梯度,确定目标模型参数。
在一种可选的实施方式中,所述用户端,还用于:
获取局部量测数据;
基于所述局部量测数据,生成数据集;
基于所述数据集,构建所述局部模型。
本申请第二个方面提供一种基于多云互享的联邦学习方法,应用于云服务器,所述方法包括:
获取用户簇中各用户端发送的当前梯度,确定簇内平均梯度;其中,所述用户簇包括多个用户端,所述用户簇与云服务器一一对应;
根据各云服务器共享的所述簇内平均梯度,确定目标梯度;
根据所述目标梯度,确定目标模型参数,并将所述目标模型参数反馈给所述用户簇中各用户端,以使所述用户端根据所述目标模型参数,优化局部模型,直至得到最优局部模型。
本申请第三个方面提供一种基于多云互享的联邦学习方法,应用于用户端,所述方法包括:
获取局部模型的当前梯度,并将所述当前梯度发送至对应的云服务器,以基于所述云服务器确定簇内平均梯度,并根据各云服务器共享的所述簇内平均梯度,确定目标梯度,根据所述目标梯度,确定目标模型参数;其中,用户簇包括多个用户端,所述用户簇与云服务器一一对应;
接收所述云服务器发送的所述目标模型参数;
根据所述目标模型参数,优化所述局部模型,直至得到最优局部模型。
本申请第四个方面提供一种基于多云互享的联邦学习装置,应用于云服务器,所述装置包括:
第一获取模块,用于获取用户簇中各用户端发送的当前梯度,确定簇内平均梯度;其中,所述用户簇包括多个用户端,所述用户簇与云服务器一一对应;
确定模块,用于根据各云服务器共享的所述簇内平均梯度,确定目标梯度;
共享模块,用于根据所述目标梯度,确定目标模型参数,并将所述目标模型参数反馈给所述用户簇中各用户端,以使所述用户端根据所述目标模型参数,优化局部模型,直至得到最优局部模型。
本申请第五个方面提供一种基于多云互享的联邦学习装置,应用于用户端,所述装置包括:
第二获取模块,用于获取局部模型的当前梯度,并将所述当前梯度发送至对应的云服务器,以基于所述云服务器确定簇内平均梯度,并根据各云服务器共享的所述簇内平均梯度,确定目标梯度,根据所述目标梯度,确定目标模型参数;其中,用户簇包括多个用户端,所述用户簇与云服务器一一对应;
接收模块,用于接收所述云服务器发送的所述目标模型参数;
优化模块,用于根据所述目标模型参数,优化所述局部模型,直至得到最优局部模型。
本申请第六个方面提供一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第二个方面以及第二个方面各种可能的设计所述的方法或如上第三个方面以及第三个方面各种可能的设计所述的方法。
本申请第七个方面提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第二个方面以及第二个方面各种可能的设计所述的方法或如上第三个方面以及第三个方面各种可能的设计所述的方法。
本申请技术方案,具有如下优点:
本申请提供一种基于多云互享的联邦学习系统、方法及装置,该系统包括:多个联邦学习子系统,联邦学习子系统包括用户簇和云服务器,用户簇包括多个用户端;用户端用于获取局部模型的当前梯度,并将当前梯度发送至对应的云服务器;云服务器用于接收用户簇中各用户端发送的当前梯度,确定簇内平均梯度;多个联邦学习子系统中的云服务器共享簇内平均梯度,以使各联邦学习子系统中的云服务器得到目标梯度,并根据目标梯度,确定目标模型参数,将目标模型参数反馈给用户簇中各用户端;用户端用于根据目标模型参数,优化局部模型,直至得到最优局部模型。上述方案提供的系统,通过为每个用户簇分配一台云服务器,并通过实现云服务器之间的梯度共享,使每台云服务器得到目标模型参数,云服务器再将目标模型参数反馈给用户簇中各用户端,多台云服务器灵活配置,提高了用户端的可扩展性。
附图说明
为了更清楚地说明本申请实施例或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的基于多云互享的联邦学习系统的结构示意图;
图2为本申请实施例提供的示例性的基于多云互享的联邦学习系统的结构示意图;
图3为本申请实施例提供的示例性的梯度向量处理逻辑示意图;
图4为本申请实施例提供的一种基于多云互享的联邦学习方法的流程示意图;
图5为本申请实施例提供的另一种基于多云互享的联邦学习方法的流程示意图;
图6为本申请实施例提供的一种基于多云互享的联邦学习装置的结构示意图;
图7为本申请实施例提供的另一种基于多云互享的联邦学习装置的结构示意图;
图8为本申请实施例提供的电子设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。在以下各实施例的描述中,“多个”的含义是两个以上,除非另有明确具体的限定。
智能化系统逐步融入人们的日常生活,这些系统包括智能交通系统(十字路口车流量的预测)、智慧医疗(患者医学检查影像的病理诊断)、智能电网(家庭用电量需求的预测)以及新兴且未来可期的无人驾驶车辆(移动需求系统中区域内接人次数的预测)、自主机器人(语音识别、故障规避和地图构建)等。其中,计算机视觉、自然语言处理和推荐系统中的大量任务需要从庞大的数据集中学习复杂的规则和映射,而且大尺度规模物联网系统会产生庞大的分布数据。例如,一辆现代汽车的传感器在几个小时可以采集上百Gb的量测数据,而一个城市成千上万辆汽车在更长时间段采集的数据在传输和存储过程中无疑会给云服务器带来巨大的负担。为了提高数据处理、计算以及存储效率,新兴的边缘计算提供了强大且有前景的学习框架。Google公司提出的联邦机器学习可以使得各个边缘设备进行局部训练,并将得到的局部模型发送给云服务器进行模型的聚合。一般分布式机器学习采用深度神经网络作为机器学习模型,它在许多应用中都取得了空前的成功,比如模型分类与模式识别。然而,联邦学习的结构在大尺度网络中将会受到限制:终端用户的可扩展性差以及当有大量的用户连接至云服务器时,云服务器将会成为性能瓶颈。一方面,针对每一轮通信过程,现存的分布式机器学习算法主要应用随机梯度下降法(SGD)。应用这样的算法,在每一步迭代过程,云服务器将接收来自用户端针对一个数据计算得到的梯度,然后应用这个梯度执行一个梯度下降的步骤。当population risk是强凸的时候,SGD的收敛速率是,这里/>是迭代步数。这个收敛速率要远慢于标准梯度下降的指数收敛速率。因此,SGD需要大量的迭代过程,这是极其费时间的。另一方面,当云服务器连接的用户量剧增时,每个用户端在每一轮通过SGD得到的梯度发送给云服务器,云服务器的存储能力和计算能力都将面临考验。
在相关技术中,有通过去掉云服务器,让经典的联邦学习模式变成完全分布式学习模式,即通过用户之间的信息传递,通过一致性算法让每个用户计算的梯度趋于一致。然而,这样的分布式学习方式,引入了一个一致性算法模块,这就需要在下一步迭代开始之前,当前迭代步骤要确保一致性算法的收敛速度要快,而且在处理离线数据的学习过程中,每一步迭代都需要保证一致性算法的收敛,这就对网络中各个用户端的数据处理能力有极高的要求。
针对上述问题,本申请实施例提供一种基于多云互享的联邦学习系统、方法及装置,该系统包括:多个联邦学习子系统,联邦学习子系统包括用户簇和云服务器,用户簇包括多个用户端;用户端用于获取局部模型的当前梯度,并将当前梯度发送至对应的云服务器;云服务器用于接收用户簇中各用户端发送的当前梯度,确定簇内平均梯度;多个联邦学习子系统中的云服务器共享簇内平均梯度,以使各联邦学习子系统中的云服务器得到目标梯度,并根据目标梯度,确定目标模型参数,将目标模型参数反馈给用户簇中各用户端;用户端用于根据目标模型参数,优化局部模型,直至得到最优局部模型。上述方案提供的系统,通过为每个用户簇分配一台云服务器,并通过实现云服务器之间的梯度共享,使每台云服务器得到目标模型参数,云服务器再将目标模型参数反馈给用户簇中各用户端,多台云服务器灵活配置,提高了用户端的可扩展性。
下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明实施例进行描述。
本申请实施例提供了一种基于多云互享的联邦学习系统,用于实现各用户端局部模型的优化训练,同时提高用户端的可扩展性。
如图1所示,为本申请实施例提供的基于多云互享的联邦学习系统的结构示意图,该多云互享的联邦学习系统10包括:多个联邦学习子系统,联邦学习子系统包括用户簇和云服务器,用户簇包括多个用户端。
其中,用户端用于获取局部模型的当前梯度,并将当前梯度发送至对应的云服务器;云服务器用于接收用户簇中各用户端发送的当前梯度,确定簇内平均梯度;多个联邦学习子系统中的云服务器共享簇内平均梯度,以使各联邦学习子系统中的云服务器得到目标梯度,并根据目标梯度,确定目标模型参数,将目标模型参数反馈给用户簇中各用户端;用户端用于根据目标模型参数,优化局部模型,直至得到最优局部模型。
具体地,假设网络中存在个用户端,并且将/>个用户端平均分为/>组,即划分为个用户簇,每个用户簇含有/>个用户段。本申请实施例提供的系统为每一用户簇/>个用户端配备一个云服务器,即一个云服务器和/>个用户端组成了一个联邦学习子系统。如图2所示,为本申请实施例提供的示例性的基于多云互享的联邦学习系统的结构示意图,假设系统包括3个云服务器网络和300个用户端,即/>,/>
其中,多个联邦学习子系统之间设有云服务器网络;各云服务器基于云服务器网络进行簇内平均梯度共享。
具体地,用户端在确定局部模型的当前梯度后,先将当前梯度发送至所属联邦学习子系统的云服务器,该云服务器在得到子系统内各个用户端发送的当前梯度后,先确定簇内平均梯度,然后通过云服务器之间的簇内平均梯度共享逻辑,使云服务器基于云服务器网络,根据簇内平均梯度,确定更具备客观性的目标梯度,进而根据目标梯度,确定局部模型的目标模型参数,并将目标模型参数发送至各个用户端,以使用户端基于目标模型参数优化局部模型,并重新获取优化后的局部模型的当前梯度,以基于上述实施例提供的系统,实现局部模型参数的迭代更新,直至得到最优模型参数。
具体地,在一实施例中,用户端获取局部量测数据;基于局部量测数据,生成数据集;基于数据集,构建局部模型。
具体地,用户端可以先将得到的局部量测数据作为训练样本,生成数据集,以基于该数据集进行局部模型的初步构建。
具体地,在一实施例中,用户端用于基于预设目标损失函数,根据局部模型的当前模型参数,确定局部模型的当前梯度。
需要说明的是,在标准的统计学习问题中,数据来自未知的分布而且真正的模型是被参数化的。具体来说,是通过未知分布/>产生的数据,让/>是模型参数的集合。本申请实施例考虑一个预设目标损失函数标函数/>,其中是量测了当前模型参数/>和当前量测数据/>带来的风险。线性回归就是一个典型的例子,其中/>是特征和目标对儿,而/>是通常应用的损失函数。标准的统计学习的目标是学习模型参数/>,使得风险populationrisk最小,即:
当数据的分布是已知的,那么population risk可以精准地进行评估,可以通过求解最小化问题进行求解,但是现实中这种情况是不常见的。因此本申请实施例考虑更为现实的情况,即数据分布是未知的,但是存在/>个独立同分布的数据样本。因为数据存在随机性,如果用有限的数据样本来估计总会存在一个统计误差。为解决该问题,本申请实施例假设个/>数据样本(局部量测数据)均匀分布在/>个用户端中,每一个用户端保存一定数量的数据样本,记为/>,其中/>,并且/>。针对每一个用户端,本申请实施例定义局部经验风险函数(预设目标损失函数)为:
其中,是用户端/>应用当前模型参数/>时关于局部量测数据/>的预设目标损失函数,因此/>是随机的。针对任意/>,本申请实施例假设/>是可导的,定义/>是函数/>在当前模型参数/>处的当前梯度,简化为
在上述实施例的基础上,作为一种可实施的方式,在一实施例中,云服务器用于根据用户簇中各用户端发送的当前梯度的总和,确定簇内总梯度;根据簇内总梯度及该用户簇包含的用户端数量,确定簇内平均梯度。
具体地,云服务器在得到簇内所有用户端发送的当前梯度后,通过对当前梯度进行聚合运算,得到用户端的平均梯度,即确定簇内平均梯度。
具体地,云服务器在接受到用户端发送的当前梯度后,进行梯度的平均运算,得到簇内平均梯度/>,为了描述方便,本申请实施例定义
进一步地,各个云服务器通过云服务器网络共享各自的簇内平均梯度,利用预设静态平均共识算法得到一致性的目标梯度/>,基于梯度下降算法,根据目标梯度,确定目标模型参数,以更新模型参数/>
在上述实施例的基础上,作为一种可实施的方式,在一实施例中,云服务器用于获取共享云服务器(邻居云服务器)发送的共享簇内平均梯度;根据接收到的共享簇内平均梯度和本地的簇内平均梯度,确定目标梯度。
其中,所述共享云服务器与当前云服务器之间存在边缘连接关系,所述共享簇内平均梯度为所述共享云服务器所确定的簇内平均梯度。
需要说明的是,当网络中存在大量云服务器时,云服务器网络可能无法保证各个云服务器之间均能实现网络互联,针对任一云服务器,可以根据云服务器网络,确定能与其实现网络互联的共享云服务器,进而获取共享云服务器发送的共享簇内平均梯度,聚合共享簇内平均梯度和本地的簇内平均梯度,得到目标梯度。
具体地,在一实施例中,云服务器可以获取云服务器权重矩阵;根据云服务器权重矩阵,为共享云服务器分配共享权重;根据各共享云服务器的共享权重、共享簇内平均梯度和本地的簇内平均梯度,确定目标梯度。
其中,所述云服务器权重矩阵表征各所述云服务器之间的共享权重,共享权重云服务器权重矩阵用于表征各云服务器之间的共享置信度。
具体地,在一实施例中,云服务器可以根据各云服务器之间的网络连接关系,构建有向图模型;基于有向图模型,生成云服务器权重矩阵。
其中,有向图模型至少用于表征各云服务器之间的边缘连接关系。
具体地,在一实施例中,云服务器可以根据有向图模型,确定各云服务器之间的共享置信度;根据各云服务器之间的共享置信度,生成云服务器权重矩阵。
具体地,在一实施例中,云服务器可以将各云服务器之间的共享置信度量化为共享权重,根据各云服务器之间的共享权重,确定云服务器权重矩阵。
具体地,云服务器网络中的信息交换链路可以建立为有向图模型,如果在时刻,即云服务器i和云服务器j之间存在边缘连接关系,那么服务器j对于服务器i的共享权重/>,否则/>。首先,本申请实施例假设存在一个常数使得/>并且/>在/>时满足/>。其次,构造共享权重/>使得针对所有的/>,/>和针对所有的,/>。最后,本申请实施例假设存在一个整数/>使得对于任意的初始时刻/>,云服务器的布局是稀疏的,且云服务器组成了一个强连接的有向图模型/>
在上述实施例的基础上,由于每个云服务器针对当前模型参数/>都会获得个一个梯度/>,因此,遍历云服务器网络中的所有云服务器进行求平均运算。然而,在云服务器网络中,并没有一个中心调度来进行所有梯度的收集和平均运算,因此本申请实施例采用分布式计算求平均的方法,即采用预设静态平均共识性算法。作为一种可实施的方式,在一实施例中,云服务器,预设静态平均共识性算法基于如下公式,确定目标梯度:
,/>
其中,表示在/>时刻云服务器/>当前模型参数/>的目标梯度,/>,/>表示在/>时刻共享云服务器/>的共享权重,/>表示在/>时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当/>时,/>表示在/>时刻云服务器/>当前模型参数/>的本地的簇内平均梯度。
具体地,各个云服务器目标是通过彼此传输自己的簇内平均梯度使得最终的目标梯度收敛到初始值的平均数。在每一个时刻,每一个云服务器收到来自邻居(共享云服务器)当前的估计值(共享簇内平均梯度),并在一个凸包中更新自己的估计值。
其中,每个云服务器i的状态可以趋近于云服务器网络中所有个体的状态的平均初始值,即各云服务器的目标梯度满足如下期望目标:
其中,表示在/>时刻云服务器/>当前模型参数/>的本地的簇内平均梯度,也可以称之为云服务器/>的状态,用来估计云服务器共享网络中的目标梯度,表示在初始时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当/>时,/>表示在初始时刻云服务器/>当前模型参数/>的本地的簇内平均梯度,/>表示云服务器的总数。
具体地,为了实现云互享网络中的梯度的平均共识性,本申请实施例让。在云服务器互享网络中,当预设静态平均共识性算法迭代无穷步时,云服务器最终的目标梯度达到了共识。
在上述实施例的基础上,如图3所示,为本申请实施例提供的示例性的梯度向量处理逻辑示意图,簇内平均梯度为多维梯度向量,多维梯度向量包括多个梯度分量(如分量1~分量10);作为一种可实施的方式,在一实施例中,云服务器基于预设静态平均共识算法,并行确定各梯度分量对应的目标梯度分量,以得到目标梯度。
其中,目标梯度为包括多个目标梯度分量的多维梯度向量。
具体地,针对每一次参数的迭代,可以对梯度的每一维数据进行一致性算法的应用,从而得到多维梯度向量的一致性实现;在完成当前步的参数迭代之后,再进行下一步参数迭代,在两步迭代之间,利用云服务器实现多维的梯度一致性。
具体地,在时刻完成当前模型参数迭代,至/>时刻开始下一轮迭代。在时间段/>内,云服务器需要完成对梯度的共识性运算,找到一个一致的梯度结果。而如果梯度是多维向量,那么可以同时执行多套共识性算法,并行地让梯度每一个分量元素在多服务器网络分别完成共识性的迭代运算,这样有利于提高计算效率,缩短计算时间。在/>时间内找到了共识性的梯度(目标梯度)后,即可利用此梯度完成梯度下降,以更新模型参数,然后在下一个时刻/>开始新的一轮的梯度共识性算法的应用。
本申请实施例提供的基于多云互享的联邦学习系统,包括:多个联邦学习子系统,联邦学习子系统包括用户簇和云服务器,用户簇包括多个用户端;用户端用于获取局部模型的当前梯度,并将当前梯度发送至对应的云服务器;云服务器用于接收用户簇中各用户端发送的当前梯度,确定簇内平均梯度;多个联邦学习子系统中的云服务器共享簇内平均梯度,以使各联邦学习子系统中的云服务器得到目标梯度,并根据目标梯度,确定目标模型参数,将目标模型参数反馈给用户簇中各用户端;用户端用于根据目标模型参数,优化局部模型,直至得到最优局部模型。上述方案提供的系统,通过为每个用户簇分配一台云服务器,并通过实现云服务器之间的梯度共享,使每台云服务器得到目标模型参数,云服务器再将目标模型参数反馈给用户簇中各用户端,多台云服务器灵活配置,提高了用户端的可扩展性。并且,利用云服务器强大的存储和计算能力,在每一轮梯度迭代过程中,来实现一致性算法,避免了没有云服务器的用户网络,用户之间实现一致性算法的成本开销;根据应用场合需求和预算,服务器配置相对灵活,在精度满足要求的前提下,可以扩展更多的用户端;通过多维梯度向量的一致性并行实现,进一步提高了计算效率,也就提高了联邦学习效率。
本申请实施例提供了一种基于多云互享的联邦学习方法,应用于云服务器,用于实现各用户端局部模型的优化训练,同时提高用户端的可扩展性。本申请实施例的执行主体为电子设备,比如服务器、台式电脑、笔记本电脑、平板电脑及其他可用于进行联邦学习的电子设备。
如图4所示,为本申请实施例提供的一种基于多云互享的联邦学习方法的流程示意图,该方法包括:
步骤401,获取用户簇中各用户端发送的当前梯度,确定簇内平均梯度;其中,用户簇包括多个用户端,用户簇与云服务器一一对应;
步骤402,根据各云服务器共享的簇内平均梯度,确定目标梯度;
步骤403,根据目标梯度,确定目标模型参数,并将目标模型参数反馈给用户簇中各用户端,以使用户端根据目标模型参数,优化局部模型,直至得到最优局部模型。
关于本实施例中的基于多云互享的联邦学习方法,其中各个步骤的具体实施方式已经在有关该系统的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请实施例提供的基于多云互享的联邦学习方法,应用于上述实施例提供的基于多云互享的联邦学习系统,其实现方式与原理相同,不再赘述。
本申请实施例提供了一种基于多云互享的联邦学习方法,应用于用户端,用于实现各用户端局部模型的优化训练,同时提高用户端的可扩展性。本申请实施例的执行主体为电子设备,比如服务器、台式电脑、笔记本电脑、平板电脑及其他可用于进行联邦学习的电子设备。
如图5所示,为本申请实施例提供的另一种基于多云互享的联邦学习方法的流程示意图,该方法包括:
步骤501,获取局部模型的当前梯度,并将当前梯度发送至对应的云服务器,以基于云服务器确定簇内平均梯度,并根据各云服务器共享的簇内平均梯度,确定目标梯度,根据目标梯度,确定目标模型参数;其中,用户簇包括多个用户端,用户簇与云服务器一一对应;
步骤502,接收云服务器发送的目标模型参数;
步骤503,根据目标模型参数,优化局部模型,直至得到最优局部模型。
关于本实施例中的基于多云互享的联邦学习方法,其中各个步骤的具体实施方式已经在有关该系统的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请实施例提供的基于多云互享的联邦学习方法,应用于上述实施例提供的基于多云互享的联邦学习系统,其实现方式与原理相同,不再赘述。
本申请实施例提供了一种基于多云互享的联邦学习装置,应用于云服务器,用于执行上述实施例提供的基于多云互享的联邦学习方法。
如图6所示,为本申请实施例提供的一种基于多云互享的联邦学习装置的结构示意图。该基于多云互享的联邦学习装置60包括:第一获取模块601、确定模块602和共享模块603。
其中,第一获取模块,用于获取用户簇中各用户端发送的当前梯度,确定簇内平均梯度;其中,用户簇包括多个用户端,用户簇与云服务器一一对应;确定模块,用于根据各云服务器共享的簇内平均梯度,确定目标梯度;共享模块,用于根据目标梯度,确定目标模型参数,并将目标模型参数反馈给用户簇中各用户端,以使用户端根据目标模型参数,优化局部模型,直至得到最优局部模型。
关于本实施例中的基于多云互享的联邦学习装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请实施例提供的基于多云互享的联邦学习装置,用于执行上述实施例提供的基于多云互享的联邦学习方法,其实现方式与原理相同,不再赘述。
本申请实施例提供了一种基于多云互享的联邦学习装置,应用于用户端,用于执行上述实施例提供的基于多云互享的联邦学习方法。
如图7所示,为本申请实施例提供的另一种基于多云互享的联邦学习装置的结构示意图。该基于多云互享的联邦学习装置70包括:第二获取模块701、接收模块702和优化模块703。
其中,第二获取模块,用于获取局部模型的当前梯度,并将当前梯度发送至对应的云服务器,以基于云服务器确定簇内平均梯度,并根据各云服务器共享的簇内平均梯度,确定目标梯度,根据目标梯度,确定目标模型参数;其中,用户簇包括多个用户端,用户簇与云服务器一一对应;接收模块,用于接收云服务器发送的目标模型参数;优化模块,用于根据目标模型参数,优化局部模型,直至得到最优局部模型。
关于本实施例中的基于多云互享的联邦学习装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请实施例提供的基于多云互享的联邦学习装置,用于执行上述实施例提供的基于多云互享的联邦学习方法,其实现方式与原理相同,不再赘述。
本申请实施例提供了一种电子设备,用于执行上述实施例提供的基于多云互享的联邦学习方法。
如图8所示,为本申请实施例提供的电子设备的结构示意图。该电子设备80包括:至少一个处理器81和存储器82。
存储器存储计算机执行指令;至少一个处理器执行存储器存储的计算机执行指令,使得至少一个处理器执行如上实施例提供的基于多云互享的联邦学习方法。
本申请实施例提供的电子设备,用于执行上述实施例提供的基于多云互享的联邦学习方法,其实现方式与原理相同,不再赘述。
本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当处理器执行计算机执行指令时,实现如上任一实施例提供的基于多云互享的联邦学习方法。
本申请实施例提供的包含计算机可执行指令的存储介质,可用于存储前述实施例中提供的基于多云互享的联邦学习方法的计算机执行指令,其实现方式与原理相同,不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (19)

1.一种基于多云互享的联邦学习系统,其特征在于,包括:多个联邦学习子系统,所述联邦学习子系统包括用户簇和云服务器,所述用户簇包括多个用户端;
所述用户端用于获取局部模型的当前梯度,并将所述当前梯度发送至对应的云服务器;
所述云服务器用于接收所述用户簇中各用户端发送的当前梯度,确定簇内平均梯度;
所述多个联邦学习子系统中的云服务器共享所述簇内平均梯度,以使各所述联邦学习子系统中的云服务器得到目标梯度,并根据所述目标梯度,确定目标模型参数,将所述目标模型参数反馈给所述用户簇中各用户端;
所述用户端用于根据所述目标模型参数,优化所述局部模型,直至得到最优局部模型;
所述云服务器,用于:
基于如下公式,确定所述目标梯度:
,/>
其中,表示在/>时刻云服务器/>当前模型参数/>的目标梯度,,/>表示在/>时刻共享云服务器/>的共享权重,/>表示在时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当/>时,/>表示在/>时刻云服务器/>当前模型参数/>的本地的簇内平均梯度。
2.根据权利要求1所述的系统,其特征在于,所述用户端,用于:
基于预设目标损失函数,根据所述局部模型的当前模型参数,确定所述局部模型的当前梯度。
3.根据权利要求1所述的系统,其特征在于,所述云服务器,用于:
根据所述用户簇中各用户端发送的当前梯度的总和,确定簇内总梯度;
根据所述簇内总梯度及该用户簇包含的用户端数量,确定簇内平均梯度。
4.根据权利要求1所述的系统,其特征在于,所述多个联邦学习子系统之间设有云服务器网络;
各所述云服务器基于所述云服务器网络进行簇内平均梯度共享。
5.根据权利要求1所述的系统,其特征在于,所述云服务器,用于:
获取共享云服务器发送的共享簇内平均梯度;其中,所述共享云服务器与当前云服务器之间存在边缘连接关系,所述共享簇内平均梯度为所述共享云服务器所确定的簇内平均梯度;
根据接收到的所述共享簇内平均梯度和本地的簇内平均梯度,确定目标梯度。
6.根据权利要求5所述的系统,其特征在于,所述云服务器,用于:
获取云服务器权重矩阵;其中,所述云服务器权重矩阵表征各所述云服务器之间的共享权重;
根据所述云服务器权重矩阵,为所述共享云服务器分配共享权重;
根据各所述共享云服务器的共享权重、共享簇内平均梯度和本地的簇内平均梯度,确定目标梯度。
7.根据权利要求6所述的系统,其特征在于,所述云服务器,用于:
根据各所述云服务器之间的网络连接关系,构建有向图模型;
基于所述有向图模型,生成所述云服务器权重矩阵。
8.根据权利要求7所述的系统,其特征在于,所述云服务器,用于:
根据所述有向图模型,确定各所述云服务器之间的共享置信度;
根据各所述云服务器之间的共享置信度,生成所述云服务器权重矩阵。
9.根据权利要求8所述的系统,其特征在于,所述云服务器,用于:
将各所述云服务器之间的共享置信度量化为共享权重;
根据各所述云服务器之间的共享权重,确定所述云服务器权重矩阵。
10.根据权利要求1所述的系统,其特征在于,所述目标梯度满足如下期望目标:
其中,表示在/>时刻云服务器/>当前模型参数/>的本地的簇内平均梯度,/>表示在初始时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当时,/>表示在初始时刻云服务器/>当前模型参数/>的本地的簇内平均梯度,/>表示所述云服务器的总数。
11.根据权利要求1所述的系统,其特征在于,所述簇内平均梯度为多维梯度向量,所述多维梯度向量包括多个梯度分量;
所述云服务器,用于:
基于预设静态平均共识算法,并行确定各所述梯度分量对应的目标梯度分量,以得到目标梯度;
其中,所述目标梯度为包括多个目标梯度分量的多维梯度向量。
12.根据权利要求1所述的系统,其特征在于,所述云服务器,用于:
基于梯度下降算法,根据所述目标梯度,确定目标模型参数。
13.根据权利要求1所述的系统,其特征在于,所述用户端,还用于:
获取局部量测数据;
基于所述局部量测数据,生成数据集;
基于所述数据集,构建所述局部模型。
14.一种基于多云互享的联邦学习方法,应用于云服务器,其特征在于,所述方法包括:
获取用户簇中各用户端发送的当前梯度,确定簇内平均梯度;其中,所述用户簇包括多个用户端,所述用户簇与云服务器一一对应;
根据各云服务器共享的所述簇内平均梯度,确定目标梯度;
根据所述目标梯度,确定目标模型参数,并将所述目标模型参数反馈给所述用户簇中各用户端,以使所述用户端根据所述目标模型参数,优化局部模型,直至得到最优局部模型;
所述根据各云服务器共享的所述簇内平均梯度,确定目标梯度,包括:
基于如下公式,确定所述目标梯度:
,/>
其中,表示在/>时刻云服务器/>当前模型参数/>的目标梯度,,/>表示在/>时刻共享云服务器/>的共享权重,/>表示在时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当/>时,/>表示在/>时刻云服务器/>当前模型参数/>的本地的簇内平均梯度。
15.一种基于多云互享的联邦学习方法,应用于用户端,其特征在于,所述方法包括:
获取局部模型的当前梯度,并将所述当前梯度发送至对应的云服务器,以基于所述云服务器确定簇内平均梯度,并根据各云服务器共享的所述簇内平均梯度,确定目标梯度,根据所述目标梯度,确定目标模型参数;其中,用户簇包括多个用户端,所述用户簇与云服务器一一对应;
接收所述云服务器发送的所述目标模型参数;
根据所述目标模型参数,优化所述局部模型,直至得到最优局部模型;
所述目标梯度基于如下公式确定:
,/>
其中,表示在/>时刻云服务器/>当前模型参数/>的目标梯度,,/>表示在/>时刻共享云服务器/>的共享权重,/>表示在时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当/>时,/>表示在/>时刻云服务器/>当前模型参数/>的本地的簇内平均梯度。
16.一种基于多云互享的联邦学习装置,应用于云服务器,其特征在于,所述装置包括:
第一获取模块,用于获取用户簇中各用户端发送的当前梯度,确定簇内平均梯度;其中,所述用户簇包括多个用户端,所述用户簇与云服务器一一对应;
确定模块,用于根据各云服务器共享的所述簇内平均梯度,确定目标梯度;
共享模块,用于根据所述目标梯度,确定目标模型参数,并将所述目标模型参数反馈给所述用户簇中各用户端,以使所述用户端根据所述目标模型参数,优化局部模型,直至得到最优局部模型;
所述确定模块,用于:
基于如下公式,确定所述目标梯度:
,/>
其中,表示在/>时刻云服务器/>当前模型参数/>的目标梯度,,/>表示在/>时刻共享云服务器/>的共享权重,/>表示在时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当/>时,/>表示在时刻云服务器/>当前模型参数/>的本地的簇内平均梯度。
17.一种基于多云互享的联邦学习装置,应用于用户端,其特征在于,所述装置包括:
第二获取模块,用于获取局部模型的当前梯度,并将所述当前梯度发送至对应的云服务器,以基于所述云服务器确定簇内平均梯度,并根据各云服务器共享的所述簇内平均梯度,确定目标梯度,根据所述目标梯度,确定目标模型参数;其中,用户簇包括多个用户端,所述用户簇与云服务器一一对应;
接收模块,用于接收所述云服务器发送的所述目标模型参数;
优化模块,用于根据所述目标模型参数,优化所述局部模型,直至得到最优局部模型;
所述目标梯度基于如下公式确定:
,/>
其中,表示在/>时刻云服务器/>当前模型参数/>的目标梯度,,/>表示在/>时刻共享云服务器/>的共享权重,/>表示在时刻云服务器/>当前模型参数/>的共享簇内平均梯度,当/>时,/>表示在/>时刻云服务器/>当前模型参数/>的本地的簇内平均梯度。
18.一种电子设备,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求14或15所述的方法。
19.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求14或15所述的方法。
CN202311825176.6A 2023-12-27 2023-12-27 一种基于多云互享的联邦学习系统、方法及装置 Active CN117474130B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311825176.6A CN117474130B (zh) 2023-12-27 2023-12-27 一种基于多云互享的联邦学习系统、方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311825176.6A CN117474130B (zh) 2023-12-27 2023-12-27 一种基于多云互享的联邦学习系统、方法及装置

Publications (2)

Publication Number Publication Date
CN117474130A CN117474130A (zh) 2024-01-30
CN117474130B true CN117474130B (zh) 2024-03-22

Family

ID=89638240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311825176.6A Active CN117474130B (zh) 2023-12-27 2023-12-27 一种基于多云互享的联邦学习系统、方法及装置

Country Status (1)

Country Link
CN (1) CN117474130B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106911770A (zh) * 2017-02-20 2017-06-30 北京古盘创世科技发展有限公司 一种基于多云存储的数据共享方法及系统
CN112235384A (zh) * 2020-10-09 2021-01-15 腾讯科技(深圳)有限公司 分布式系统中的数据传输方法、装置、设备及存储介质
CN116865938A (zh) * 2023-07-05 2023-10-10 重庆邮电大学 基于秘密共享和同态加密的多服务器联邦学习方法
CN117150255A (zh) * 2023-10-26 2023-12-01 合肥工业大学 集群联邦学习中的分簇效果验证方法、终端及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106911770A (zh) * 2017-02-20 2017-06-30 北京古盘创世科技发展有限公司 一种基于多云存储的数据共享方法及系统
CN112235384A (zh) * 2020-10-09 2021-01-15 腾讯科技(深圳)有限公司 分布式系统中的数据传输方法、装置、设备及存储介质
CN116865938A (zh) * 2023-07-05 2023-10-10 重庆邮电大学 基于秘密共享和同态加密的多服务器联邦学习方法
CN117150255A (zh) * 2023-10-26 2023-12-01 合肥工业大学 集群联邦学习中的分簇效果验证方法、终端及存储介质

Also Published As

Publication number Publication date
CN117474130A (zh) 2024-01-30

Similar Documents

Publication Publication Date Title
US11144828B2 (en) Training task optimization system, training task optimization method and non-transitory computer readable medium for operating the same
CN112561078B (zh) 分布式的模型训练方法及相关装置
US11244243B2 (en) Coordinated learning using distributed average consensus
CA3146240A1 (en) Object detection and instance segmentation of 3d point clouds based on deep learning
WO2018099084A1 (zh) 一种神经网络模型训练方法、装置、芯片和系统
CN112328715B (zh) 视觉定位方法及相关模型的训练方法及相关装置、设备
Wolfrath et al. Haccs: Heterogeneity-aware clustered client selection for accelerated federated learning
CN111915629B (zh) 基于边界检测的超像素分割方法
CN110188825B (zh) 基于离散多视图聚类的图像聚类方法、系统、设备及介质
WO2023164929A1 (zh) 多源遥感图像融合方法、装置、设备及存储介质
CN108228684B (zh) 聚类模型的训练方法、装置、电子设备和计算机存储介质
CN108986872A (zh) 用于大数据电子病历约简的多粒度属性权重Spark方法
Jiang et al. Computation and communication efficient federated learning with adaptive model pruning
CN116263681A (zh) 移动边缘计算任务卸载方法、装置、设备及存储介质
CN117474130B (zh) 一种基于多云互享的联邦学习系统、方法及装置
Barger et al. k-means for streaming and distributed big sparse data
CN107247833B (zh) 一种云计算下的cae海量数据轻量化方法
WO2021244203A1 (zh) 参数优化的方法、电子设备和存储介质
CN117474129B (zh) 一种多云共享分布式预测系统、方法、装置及电子设备
CN117474128B (zh) 一种基于多云服务器的分布式在线机器学习模型构建方法
CN114065913A (zh) 模型量化方法、装置及终端设备
CN113705801A (zh) 一种神经网络模型的训练装置、方法及相关设备
CN117785490B (zh) 一种图神经网络模型的训练架构、方法、系统及服务器
CN117474127B (zh) 分布式机器学习模型训练系统、方法、装置及电子设备
Wang et al. Asynchronous training schemes in distributed learning with time delay

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant