CN116090550A - 联邦学习方法、装置、服务器、电子设备及存储介质 - Google Patents

联邦学习方法、装置、服务器、电子设备及存储介质 Download PDF

Info

Publication number
CN116090550A
CN116090550A CN202211685935.9A CN202211685935A CN116090550A CN 116090550 A CN116090550 A CN 116090550A CN 202211685935 A CN202211685935 A CN 202211685935A CN 116090550 A CN116090550 A CN 116090550A
Authority
CN
China
Prior art keywords
local
model
server
federal learning
global model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211685935.9A
Other languages
English (en)
Other versions
CN116090550B (zh
Inventor
刘吉
霍超
窦德景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202211685935.9A priority Critical patent/CN116090550B/zh
Publication of CN116090550A publication Critical patent/CN116090550A/zh
Application granted granted Critical
Publication of CN116090550B publication Critical patent/CN116090550B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开提供了一种联邦学习方法、装置、服务器、电子设备及存储介质,涉及人工智能技术领域,尤其涉及深度学习、联邦学习技术领域。具体实现方案为:通过服务器中设置的元模型向电子设备发送请求更新全局模型时的时隙,从而使电子设备在本地训练过程中根据该时隙获取更新的全局模型并与本地训练得到的局部模型进行聚合,从而使电子设备本地训练最终得到的局部模型与服务器中的全局模型版本更加接近,提高服务器中全局模型的收敛速度。

Description

联邦学习方法、装置、服务器、电子设备及存储介质
技术领域
本公开涉及人工智能技术领域,尤其涉及深度学习、联邦学习技术领域,具体涉及一种联邦学习方法、装置、服务器、电子设备及存储介质。
背景技术
联邦学习(Federated Learning,FL)是一种分布式机器学习技术。通常包括同步联邦学习和异步联邦学习。其中,异步联邦学习过程中,服务器会向选中的电子设备下发全局模型,然后由电子设备根据本地数据对全局模型进行训练得到局部模型,然后上传回服务器,从而服务器在接收到电子设备上传的局部模型时便进行模型聚合以得到更新的全局模型。并且,服务器不会等待所有电子设备上传局部模型后再进行模型聚合,而是只要有局部模型上传,便进行一次模型聚合以更新全局模型。
异步联邦学习虽无需等待所有被选中的设备发来的局部模型,但由于落后设备发来的局部模型是基于过时的全局模型训练而来的,所以会将全局模型拖到较旧的版本,从而影响全局模型的收敛速度。
发明内容
本公开提供了一种联邦学习方法、装置、服务器、电子设备及存储介质,能够使电子设备在本地训练过程中根据服务器发送的时隙获取更新的全局模型并进行聚合,提高服务器中全局模型的收敛速度。
根据本公开的第一方面,提供了一种联邦学习方法,应用于联邦学习系统中的电子设备,联邦学习系统包括服务器,以及与服务器通信连接的至少一个电子设备,方法包括:接收服务器发送的联邦学习请求,联邦学习请求中包括第一全局模型以及第一时隙,第一时隙为服务器根据元模型生成的,用于指示第一次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数;响应于联邦学习请求,根据第一全局模型以及本地数据进行第一次本地训练,并在本地训练的更新次数到达第一时隙指示的更新次数时,向服务器发送更新全局模型的请求;接收服务器发送的更新的全局模型,将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型,更新的全局模型为服务器根据联邦学习系统中电子设备发送的通过本地训练得到的局部模型得到的;基于聚合后的局部模型以及本地数据继续进行第一次本地训练的后续更新,以得到第一次本地训练对应的第二局部模型;向服务器发送第二局部模型。
根据本公开的第二方面,提供了一种联邦学习方法,应用于联邦学习系统中的服务器,联邦学习系统包括服务器,以及与服务器通信连接的至少一个电子设备,方法包括:根据元模型生成第一时隙,第一时隙用于指示电子设备在第一次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数;向电子设备发送联邦学习请求,联邦请求用于指示电子设备进行第一次本地训练,联邦学习请求中包括第一全局模型以及第一时隙,以使电子设备根据第一全局模型和本地数据进行第一次本地训练;接收电子设备发送的更新全局模型的请求,更新全局模型的请求为电子设备在第一次本地训练的更新次数到达第一时隙指示的更新次数时向服务器发送的;向电子设备发送更新的全局模型,以使电子设备将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型,更新的全局模型为服务器根据联邦学习系统中电子设备发送的通过本地训练得到的局部模型得到的;接收电子设备发送的第二局部模型,第二局部模型为电子设备基于聚合后的局部模型以及本地数据继续进行第一次本地训练的后续更新得到的。
根据本公开的第三方面,提供了一种联邦学习装置,应用于联邦学习系统中的电子设备,联邦学习系统包括服务器,以及与服务器通信连接的至少一个电子设备,装置包括:触发模块,用于接收服务器发送的联邦学习请求,联邦学习请求中包括第一全局模型以及第一时隙,第一时隙为服务器根据元模型生成的,用于指示第一次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数;处理模块,用于响应于联邦学习请求,根据第一全局模型以及本地数据进行第一次本地训练,并在本地训练的更新次数到达第一时隙指示的更新次数时,向服务器发送更新全局模型的请求;接收服务器发送的更新的全局模型,将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型;基于聚合后的局部模型以及本地数据继续进行第一次本地训练的后续更新,以得到第一次本地训练对应的第二局部模型;输出模块,用于向服务器发送第二局部模型。
根据本公开的第四方面,提供了一种联邦学习装置,应用于联邦学习系统中的服务器,联邦学习系统包括服务器,以及与服务器通信连接的至少一个电子设备,装置包括:生成模块,用于根据元模型生成第一时隙,第一时隙用于指示电子设备在第一次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数;发送模块,用于向电子设备发送联邦学习请求,联邦请求用于指示电子设备进行第一次本地训练,联邦学习请求中包括第一全局模型以及第一时隙,以使电子设备根据第一全局模型和本地数据进行第一次本地训练;接收模块,用于接收电子设备发送的更新全局模型的请求,更新全局模型的请求为电子设备在第一次本地训练的更新次数到达第一时隙指示的更新次数时向服务器发送的;发送模块,还用于向电子设备发送更新的全局模型,以使电子设备将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型;接收模块,还用于接收电子设备发送的第二局部模型,第二局部模型为电子设备基于聚合后的局部模型以及本地数据继续进行第一次本地训练的后续更新得到的。
根据本公开的第五方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面提供的方法。
根据本公开的第六方面,提供了一种服务器,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第二方面提供的方法。
根据本公开的第七方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行根据第一方面或第二方面提供的方法。
根据本公开的第八方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现根据第一方面或第二方面提供的方法。
本公开能够通过服务器中设置的元模型向电子设备发送请求更新全局模型时的时隙,从而使电子设备在本地训练过程中根据该时隙获取更新的全局模型并与本地训练得到的局部模型进行聚合,从而使电子设备本地训练最终得到的局部模型与服务器中的全局模型版本更加接近,提高服务器中全局模型的收敛速度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开实施例提供的联邦学习系统的组成示意图;
图2为本公开实施例提供的应用于电子设备的联邦学习方法的流程示意图之一;
图3为本公开实施例提供的应用于电子设备的联邦学习方法的流程示意图之二;
图4为本公开实施例提供的应用于电子设备的联邦学习方法的流程示意图之三;
图5为本公开实施例提供的应用于服务器的联邦学习方法的流程示意图之一;
图6为本公开实施例提供的应用于服务器的联邦学习方法的流程示意图之二;
图7为本公开实施例提供的应用于电子设备的联邦学习的装置的组成示意图;
图8为本公开实施例提供的应用于服务器的联邦学习装置的组成示意图;
图9示出了可以用来实施本公开的实施例的示例电子设备(或服务器)900的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开提供的联邦学习方法和联邦学习装置,适用于服务器选定部分电子设备进行联邦学习的情况。本公开所提供的联邦学习方法可以由联邦学习装置执行,该联邦学习装置可以采用软件和/或硬件实现,并具体配置于电子设备或服务器中,该电子设备可以是前述服务器的子服务器、计算机、车载设备、单片机,车机、移动终端、手机等设备或其他计算设备此处不做限制。
以下首先对本公开所提供的联邦学习方法进行详细说明。
联邦学习(Federated Learning,FL)是一种分布式机器学习技术。通常包括同步联邦学习和异步联邦学习。其中,异步联邦学习过程中,服务器会向选中的电子设备下发全局模型,然后由电子设备根据本地数据对全局模型进行训练得到局部模型,然后上传回服务器,从而服务器在接收到电子设备上传的局部模型时便进行模型聚合以得到更新的全局模型。并且,服务器不会等待所有电子设备上传局部模型后再进行模型聚合,而是只要有局部模型上传,便进行一次模型聚合以更新全局模型。
异步联邦学习虽无需等待所有被选中的设备发来的局部模型,但由于落后设备发来的局部模型是基于过时的全局模型训练而来的,所以会将全局模型拖到较旧的版本,从而影响全局模型的收敛速度。
对此,本公开提供了一种联邦学习方法,可以应用于联邦学习系统中的电子设备,联邦学习系统包括服务器,以及与服务器通信连接的至少一个电子设备,方法包括:接收服务器发送的联邦学习请求,联邦学习请求中包括第一全局模型以及第一时隙,第一时隙为服务器根据元模型生成的,用于指示第一次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数;响应于联邦学习请求,根据第一全局模型以及本地数据进行第一次本地训练,并在本地训练的更新次数到达第一时隙指示的更新次数时,向服务器发送更新全局模型的请求;接收服务器发送的更新的全局模型,将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型,更新的全局模型为服务器根据联邦学习系统中电子设备发送的通过本地训练得到的局部模型得到的;基于聚合后的局部模型以及本地数据继续进行第一次本地训练的后续更新,以得到第一次本地训练对应的第二局部模型;向服务器发送第二局部模型。
本公开能够通过服务器中设置的元模型向电子设备发送请求更新全局模型时的时隙,从而使电子设备在本地训练过程中根据该时隙获取更新的全局模型并与本地训练得到的局部模型进行聚合,从而使电子设备本地训练最终得到的局部模型与服务器中的全局模型版本更加接近,提高服务器中全局模型的收敛速度。
图1为本公开实施例提供的联邦学习系统的组成示意图,其中,包括服务器101、至少一个电子设备102,每个电子设备102与服务器101之间通信连接。
其中,服务器101可以是云端服务器、柜式服务器、刀片服务器等,本公开对此不作限制。
电子设备102可以是具有计算能力的设备,如个人计算机、笔记本电脑、智能手机、平板电脑等电子设备。这些设备的操作系统可以是安卓(Android)系统,窗口系统(Windows),苹果移动操作系统(iOS),苹果操作系统(Mac OS)或者鸿蒙系统(Harmony OS)、林纳斯系统(Linux)等,本公开对此不作限制。
服务器101和电子设备102之间可以通过近距离通信或网络通信连接。其中,近距离通信包括:蓝牙(Bluetooth)、近场通信(Near Field Communication,NFC)、无线网络(Wi-Fi)、紫蜂(ZigBee)、远距离无线电(long range radio,LoRa)、窄带物联网(narrowband internet of things,NB-IoT)、电力线通信(power line communication,PLC)等通信方式。
而网络则可以包括有线网络或无线网络,有线网络包括局域网(local areanetworks,LAN)、广域网(wide area networks,WAN)等,而无线网络则可以是无线局域网(wireless local area networks,WLAN)、2G/3G/4G/5G等移动通信网络,如全球移动通讯系统(global system for mobile communications,GSM)、通用分组无线服务(generalpacket radio service,GPRS)、码分多址接入(code division multiple access,CDMA)、宽带码分多址(wideband code division multiple access,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA)、长期演进(long termevolution,LTE)、新空口(new radio,NR)等。
基于图1所示的联邦学习系统,以下首先以应用于电子设备的方法为例,对本公开提供的联邦学习方法进行详细说明。
图2为本公开实施例提供的应用于电子设备的联邦学习方法的流程示意图。如图2所示,该方法可以包括以下S201-S205。
S201、接收服务器发送的联邦学习请求。
其中,联邦学习请求中包括第一全局模型以及第一时隙,第一时隙为服务器根据元模型生成的,用于指示第一次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数。
一次联邦学习过程中,会进行多个回合。在第一个回合开始时服务器可以向选中的电子设备发送联邦学习请求,以触发电子设备开始进行联邦学习。而后续回合中,服务器只需在电子设备完成一次本地训练上传了局部模型后,再次向电子设备下发当前服务器中聚合更新得到的最新的全局模型,电子设备接收到全局模型后便可以再次进行本地训练以完成又一回合的联邦学习。
在本申请的联邦学习方法中,服务器中设置有元模型,能够通过元模型生成第一时隙,以便通过该第一时隙来指示服务器选中的电子设备被触发后进行第一次本地训练过程中,请求更新全局模型时电子设备进行本地训练对应的更新次数。
示例地,元模型可以预先根据由电子设备的本地数据集大小(local_data_size)、批量大小(batch_size)、下载延迟(down_latency)、训练延迟(train_latency)、上传延迟(upload_latency)等参数以及标记的优选的请求更新全局模型的时隙,所构成的训练集对初始模型进行训练得到的。从而,使该元模型在输入发送的联邦学习请求所流向的电子设备的本地数据集大小、批量大小、下载延迟、训练延迟、上传延迟等参数时,能够输出一个由两个元素组成的数组,从而便可以根据该数组的第一个数字与对应的电子设备进行本地训练时的总更新次数的积,得到第一时隙。
可选地,该元模型可以采用强化学习网络,如长短期记忆(Long Short TermMemory,LSTM)网络等。从而使该元模型能够根据电子设备反馈的奖励反馈进行更新,从而提高得到的第一时隙的准确性。
S202、响应于联邦学习请求,根据第一全局模型以及本地数据进行第一次本地训练,并在本地训练的更新次数到达第一时隙指示的更新次数时,向服务器发送更新全局模型的请求。
其中,电子设备根据第一全局模型以及本地数据进行第一次本地训练时,本地训练的过程与联邦学习相关技术中电子设备进行的本地训练相同。例如,可以基于以下公式来根据本地数据对第一全局模型进行更新,实现本地训练:
Figure BDA0004021017860000081
其中,wo,l为电子设备本地训练前接收到的全局模型(如第一全局模型,及后续的第二全局模型等),o是全局模型的版本,l代表本地更新的次数,ηi指的是电子设备i上的学习率,
Figure BDA0004021017860000082
为基于ζl-1的梯度,ζl-1来自于本地数据集
Figure BDA0004021017860000083
的无偏采样小批量。
需要说明的是,在本地训练的更新次数到达第一时隙指示的更新次数时,向服务器发送更新全局模型的请求,是指本地训练的更新次数等于第一时隙指示的更新次数时,电子设备向服务器发送更新全局模型的请求。
S203、接收服务器发送的更新的全局模型,将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型。
其中,更新的全局模型为服务器根据联邦学习系统中电子设备发送的通过本地训练得到的局部模型得到的。即其他被服务器选中的电子设备,在进行完一次本地训练得到局部模型后发送给服务器,服务器根据接收的局部模型对全局模型进行聚合更新得到的更新的全局模型,也即在异步联邦学习过程中服务器当前聚合得到的最新的全局模型。
示例地,将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型,可以采用如下公式实现:
Figure BDA0004021017860000091
其中,
Figure BDA0004021017860000092
为聚合后的局部模型,wg为服务器发送的更新的全局模型,
Figure BDA0004021017860000093
为电子设备进行本地训练过程中当前更新次数对应得到的局部模型(如上述的第一局部模型,即后续的第三局部模型等),
Figure BDA0004021017860000094
为电子设备i上第t次本地训练对应的聚合权重(每次本地训练时该数值可保持不变,也可以根据本地训练的次数递减或递增,此处不做限制)。
S204、基于聚合后的局部模型以及本地数据继续进行第一次本地训练的后续更新,以得到第一次本地训练对应的第二局部模型。
即,基于聚合后的局部模型,继续按照本地训练的常规更新方式进行更新,以得到最终的局部模型(即第二局部模型)。
例如,可参照S202中示例的本地训练的公式,将聚合后的局部模型作为wo,l-1继续进行剩余更新次数的更新。
S205、向服务器发送第二局部模型。
从而,服务器接收到第二局部模型后,便可以根据该第二局部模型进行全局模型聚合,以更新服务器中的全局模型。
可选地,在接收服务器发送的更新的全局模型,将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型之后,方法包括:
向服务器发送第一奖励反馈,以使服务器根据第一奖励反馈更新元模型。
其中,第一奖励反馈为聚合更新的全局模型和第一局部模型前后分别对应的损失值的差值。
例如,电子设备的本地训练过程中,聚合更新的全局模型和第一局部模型之前,损失值为
Figure BDA0004021017860000101
聚合后的损失值为
Figure BDA0004021017860000102
则该第一奖励反馈
Figure BDA0004021017860000103
可以等于
Figure BDA0004021017860000104
其中,损失值可以根据本地训练模型的损失函数计算。
从而,服务器便可以根据该第一奖励反馈来更新元模型,以使元模型能够更加准确的得到第一时隙。
示例地,服务器可以根据如下公式来更新元模型中的参数θt
Figure BDA0004021017860000105
其中,t为第t次元模型更新,θt-1为t-1次元模型更新得到的参数(即元模型当前的参数),ηRL指参数更新训练过程的学习率,
Figure BDA0004021017860000106
为电子设备本地训练过程的最大更新次数(即一次本地训练的总更新次数),
Figure BDA0004021017860000107
对应于电子设备本次本地训练中是否在第l次更新后发送更新全局模型的请求,是则
Figure BDA0004021017860000108
为1,不是则为0,
Figure BDA0004021017860000109
为t-1次元模型更新后元模型得到的第一时隙被电子设备使用后对应的电子设备反馈的奖励反馈(即本次元模型更新时电子设备发送的奖励反馈,也即上述的第一奖励反馈),b为基数值以减少模型偏差,可根据平均电子设备i上本地训练的最后
Figure BDA00040210178600001010
次发送的奖励值(即奖励反馈)来计算。
如此,能够使服务器根据电子设备基于第一时隙获取更新的全局模型,以与本地训练得到的局部模型进行聚合后的奖励反馈,来更新元模型,从而提高元模型确定第一时隙的准确性。
可选地,在向服务器发送第二局部模型之后,如图3所示,方法还包括:
S301、接收服务器发送的第二全局模型。
其中,在电子设备完成了第一次本地训练后并向服务器上传了全局模型后,服务器可以向电子设备再次发送当前最新的全局模型(如第二全局模型),从而使电子设备基于第二全局模型进行再一次的本地训练。
S302、响应于接收到第二全局模型,根据第二全局模型以及本地数据进行第二次本地训练,并在本地训练的更新次数到达第二时隙指示的更新次数时,向服务器发送更新全局模型的请求。
其中,第二时隙为电子设备根据本地元模型生成的,用于指示第二次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数。
示例地,本地元模型可以采用Q-learning强化学习模型来实现。
例如,在Q表中的行代表发送更新全局模型请求的时隙(status),列代表对应status下的各个动作(action),以及各个action可能带来的收益。示例地,action为0则表示前移一个单位(即status-1),action为1则表示不变,action为2则表示后移一个单位(即status+1)。
其中,status初始值为服务器的元模型向电子设备发送的第一时隙。
则,电子设备在进行第二次训练时,可以查询该Q表中的第2行,然后查看收益最大的动作,并执行该动作以得到对应的status,即第二时隙。具体Q-learning强化学习模型可参考Q-learning方法的相关技术,此处不做赘述。
在本地训练的更新次数到达第二时隙指示的更新次数时,向服务器发送更新全局模型的请求,是指本地训练的更新次数等于第二时隙指示的更新次数时,电子设备向服务器发送更新全局模型的请求。
其中,电子设备根据第二全局模型以及本地数据进行第二次本地训练的训练过程,可以参考S202中第一次本地训练的示例,此处不再赘述。
S303、接收服务器发送的更新的全局模型,将更新的全局模型与第二次本地训练当前更新次数对应得到的第三局部模型进行聚合得到聚合后的局部模型。
其中,具体的聚合方式可参考S203中
Figure BDA0004021017860000111
更新的全局模型和第一局部模型的示例,此处不做赘述。
S304、基于聚合后的局部模型以及本地数据继续进行第二次本地训练的后续更新,以得到第二次本地训练对应的第四局部模型。
S305、向服务器发送第四局部模型。
其中,S304和S305均可参考S204和S205中的对应示例,此处不做赘述。
如此,能够使电子设备在后续进行的本地训练过程中,均可根据本地元模型来确定发送更新全局模型的请求的时隙,从而提高电子设备后续进行本地训练时确定出的时隙的准确性。即,使得服务器只需在首次触发相应的电子设备进行联邦学习时,通过元模型向电子设备发送,用于指示发送更新全局模型的请求的时机的时隙,从而避免服务器不断向各电子设备发送时隙,造成服务器资源占用高的问题。
可选地,在接收服务器发送的更新的全局模型,将更新的全局模型与第二次本地训练当前更新次数对应得到的第三局部模型进行聚合得到聚合后的局部模型之后,如图4所示,方法还包括:
S401、确定第二奖励反馈。
其中,第二奖励反馈为聚合更新的全局模型和第三局部模型前后分别对应的损失值的差值。具体可参考S205中第一奖励反馈的相关示例,此处不做赘述。
S402、根据第二奖励反馈,更新本地元模型。
示例地,基于前述示例,当本地元模型采用Q-learning强化学习模型时,则可以基于Q-learning强化学习模型的相关技术,根据该第二奖励反馈来更新Q表,从而便于下一次本地训练时根据Q表确定新的用于指示发送更新全局模型的请求对应的时机的时隙。
如此,能够在每次本地训练后对本地元模型进行更新,从而便于本地元模型确定出的时隙更加准确。
需要说明的是,图3和图4所示的方法,在电子设备进行第二次本地训练及后续几次本地训练时,可重复执行,即在电子设备进行联邦学习的后续几轮训练时,时隙的确定均由电子设备的本地元模型确定。
示例性实施例中,图5为本公开实施例提供的应用于服务器的联邦学习方法的流程示意图。该方法与前述的应用于电子设备的联邦学习方法相对应。例如,如图5所示,该方法可以包括以下S501-S505。
S501、根据元模型生成第一时隙。
其中,第一时隙用于指示电子设备在第一次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数。
S502、向电子设备发送联邦学习请求,联邦请求用于指示电子设备进行第一次本地训练,联邦学习请求中包括第一全局模型以及第一时隙,以使电子设备根据第一全局模型和本地数据进行第一次本地训练。
S503、接收电子设备发送的更新全局模型的请求,更新全局模型的请求为电子设备在第一次本地训练的更新次数到达第一时隙指示的更新次数时向服务器发送的。
S504、向电子设备发送更新的全局模型,以使电子设备将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型。
其中,更新的全局模型为服务器根据联邦学习系统中电子设备发送的通过本地训练得到的局部模型得到的。
S505、接收电子设备发送的第二局部模型,第二局部模型为电子设备基于聚合后的局部模型以及本地数据继续进行第一次本地训练的后续更新得到的。
其中,图5所示的方法均可参考图2所示的方法中示例的实施方式,此处不做赘述。
如此,能够通过服务器中设置的元模型向电子设备发送请求更新全局模型时的时隙,从而使电子设备在本地训练过程中根据该时隙获取更新的全局模型并与本地训练得到的局部模型进行聚合,从而使电子设备本地训练最终得到的局部模型与服务器中的全局模型版本更加接近,提高服务器中全局模型的收敛速度。
可选地,如图6所示,该方法还包括:
S601、接收电子设备发送的第一奖励反馈。
S602、根据第一奖励反馈更新元模型。
其中,第一奖励反馈为电子设备在第一次本地训练中聚合更新的全局模型和第一局部模型前后分别对应的损失值的差值。
其中,图6所示的方法可以参考前述,关于第一奖励反馈,以及更新元模型的实施方式示例,此处不做赘述。
如此,能够使服务器根据电子设备基于第一时隙获取更新的全局模型,以与本地训练得到的局部模型进行聚合后的奖励反馈,来更新元模型,从而提高元模型确定第一时隙的准确性。
示例性实施例中,本公开实施例还提供一种联邦学习装置,可以用于实现如前述实施例所述的应用于电子设备的联邦学习方法。
图7为本公开实施例提供的应用于电子设备的联邦学习装置的组成示意图。
如图7所示,联邦学习装置,包括:
触发模块701,用于接收服务器发送的联邦学习请求,联邦学习请求中包括第一全局模型以及第一时隙,第一时隙为服务器根据元模型生成的,用于指示第一次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数;
处理模块702,用于响应于联邦学习请求,根据第一全局模型以及本地数据进行第一次本地训练,并在本地训练的更新次数到达第一时隙指示的更新次数时,向服务器发送更新全局模型的请求;接收服务器发送的更新的全局模型,将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型;基于聚合后的局部模型以及本地数据继续进行第一次本地训练的后续更新,以得到第一次本地训练对应的第二局部模型;
输出模块703,用于向服务器发送第二局部模型。
一些可能的实现方式中,处理模块702,还用于向服务器发送第一奖励反馈,以使服务器根据第一奖励反馈更新元模型,第一奖励反馈为聚合更新的全局模型和第一局部模型前后分别对应的损失值的差值。
一些可能的实现方式中,
触发模块701,还用于接收服务器发送的第二全局模型;
处理模块702,还用于响应于接收到第二全局模型,根据第二全局模型以及本地数据进行第二次本地训练,并在本地训练的更新次数到达第二时隙指示的更新次数时,向服务器发送更新全局模型的请求,第二时隙为电子设备根据本地元模型生成的,用于指示第二次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数;接收服务器发送的更新的全局模型,将更新的全局模型与第二次本地训练当前更新次数对应得到的第三局部模型进行聚合得到聚合后的局部模型;基于聚合后的局部模型以及本地数据继续进行第二次本地训练的后续更新,以得到第二次本地训练对应的第四局部模型;
输出模块703,还用于向服务器发送第四局部模型。
一些可能的实现方式中,处理模块702,还用于确定第二奖励反馈,第二奖励反馈为聚合更新的全局模型和第三局部模型前后分别对应的损失值的差值;根据第二奖励反馈,更新本地元模型
示例性实施例中,本公开实施例还提供一种联邦学习装置,可以用于实现如前述实施例的应用于服务器的联邦学习方法。
图8为本公开实施例提供的应用于服务器的联邦学习装置的组成示意图。
如图8所示,联邦学习装置,包括:
生成模块801,用于根据元模型生成第一时隙,第一时隙用于指示电子设备在第一次本地训练中请求更新全局模型时电子设备进行本地训练对应的更新次数;
发送模块802,用于向电子设备发送联邦学习请求,联邦请求用于指示电子设备进行第一次本地训练,联邦学习请求中包括第一全局模型以及第一时隙,以使电子设备根据第一全局模型和本地数据进行第一次本地训练;
接收模块803,用于接收电子设备发送的更新全局模型的请求,更新全局模型的请求为电子设备在第一次本地训练的更新次数到达第一时隙指示的更新次数时向服务器发送的;
发送模块802,还用于向电子设备发送更新的全局模型,以使电子设备将更新的全局模型与第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型;
接收模块803,还用于接收电子设备发送的第二局部模型,第二局部模型为电子设备基于聚合后的局部模型以及本地数据继续进行第一次本地训练的后续更新得到的。
一些可能的实现方式中,装置还包括:
接收模块803,还用于接收电子设备发送的第一奖励反馈;
生成模块801,还用于根据第一奖励反馈更新元模型,第一奖励反馈为电子设备在第一次本地训练中聚合更新的全局模型和第一局部模型前后分别对应的损失值的差值。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种服务器、一种可读存储介质和一种计算机程序产品。
示例性实施例中,电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上实施例所述的应用于电子设备的联邦学习方法。
示例性实施例中,服务器,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上实施例所述的应用于服务器的联邦学习方法。
示例性实施例中,可读存储介质可以是存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行根据以上实施例所述的方法。
示例性实施例中,计算机程序产品包括计算机程序,所述计算机程序在被处理器执行时实现根据以上实施例所述的方法。
图9示出了可以用来实施本公开的实施例的示例电子设备(或服务器)900的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备、车载设备、车载处理器等和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图9所示,设备900包括计算单元901,其可以根据存储在只读存储器(ROM)902中的计算机程序或者从存储单元908加载到随机访问存储器(RAM)903中的计算机程序,来执行各种适当的动作和处理。在RAM 903中,还可存储设备900操作所需的各种程序和数据。计算单元901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
设备900中的多个部件连接至I/O接口905,包括:输入单元906,例如键盘、鼠标等;输出单元907,例如各种类型的显示器、扬声器等;存储单元908,例如磁盘、光盘等;以及通信单元909,例如网卡、调制解调器、无线通信收发机等。通信单元909允许设备900通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元901可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元901的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元901执行上文所描述的各个方法和处理,例如联邦学习方法。例如,在一些实施例中,联邦学习方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元908。在一些实施例中,计算机程序的部分或者全部可以经由ROM 902和/或通信单元909而被载入和/或安装到设备900上。当计算机程序加载到RAM 903并由计算单元901执行时,可以执行上文描述的联邦学习方法的一个或多个步骤。备选地,在其他实施例中,计算单元901可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行联邦学习方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (16)

1.一种联邦学习方法,其特征在于,应用于联邦学习系统中的电子设备,所述联邦学习系统包括服务器,以及与所述服务器通信连接的至少一个所述电子设备,所述方法包括:
接收所述服务器发送的联邦学习请求,所述联邦学习请求中包括第一全局模型以及第一时隙,所述第一时隙为所述服务器根据元模型生成的,用于指示所述第一次本地训练中请求更新全局模型时所述电子设备进行本地训练对应的更新次数;
响应于所述联邦学习请求,根据所述第一全局模型以及本地数据进行第一次本地训练,并在所述本地训练的更新次数到达所述第一时隙指示的更新次数时,向所述服务器发送更新全局模型的请求;
接收所述服务器发送的更新的全局模型,将所述更新的全局模型与所述第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型,所述更新的全局模型为所述服务器根据所述联邦学习系统中电子设备发送的通过本地训练得到的局部模型得到的;
基于聚合后的局部模型以及本地数据继续进行所述第一次本地训练的后续更新,以得到所述第一次本地训练对应的第二局部模型;
向所述服务器发送所述第二局部模型。
2.根据权利要求1所述的方法,其特征在于,在所述接收所述服务器发送的更新的全局模型,将所述更新的全局模型与所述第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型之后,所述方法包括:
向所述服务器发送第一奖励反馈,以使所述服务器根据所述第一奖励反馈更新所述元模型,所述第一奖励反馈为聚合所述更新的全局模型和所述第一局部模型前后分别对应的损失值的差值。
3.根据权利要求1或2所述的方法,其特征在于,在所述向所述服务器发送所述第二局部模型之后,所述方法还包括:
接收所述服务器发送的第二全局模型;
响应于接收到所述第二全局模型,根据所述第二全局模型以及本地数据进行第二次本地训练,并在所述本地训练的更新次数到达第二时隙指示的更新次数时,向所述服务器发送更新全局模型的请求,所述第二时隙为所述电子设备根据本地元模型生成的,用于指示所述第二次本地训练中请求更新全局模型时所述电子设备进行本地训练对应的更新次数;
接收所述服务器发送的更新的全局模型,将所述更新的全局模型与所述第二次本地训练当前更新次数对应得到的第三局部模型进行聚合得到聚合后的局部模型;
基于聚合后的局部模型以及本地数据继续进行所述第二次本地训练的后续更新,以得到所述第二次本地训练对应的第四局部模型;
向所述服务器发送所述第四局部模型。
4.根据权利要求3所述的方法,其特征在于,在所述接收所述服务器发送的更新的全局模型,将所述更新的全局模型与所述第二次本地训练当前更新次数对应得到的第三局部模型进行聚合得到聚合后的局部模型之后,所述方法还包括:
确定第二奖励反馈,所述第二奖励反馈为聚合所述更新的全局模型和第三局部模型前后分别对应的损失值的差值;
根据所述第二奖励反馈,更新所述本地元模型。
5.一种联邦学习方法,其特征在于,应用于联邦学习系统中的服务器,所述联邦学习系统包括所述服务器,以及与所述服务器通信连接的至少一个电子设备,所述方法包括:
根据元模型生成第一时隙,所述第一时隙用于指示电子设备在所述第一次本地训练中请求更新全局模型时所述电子设备进行本地训练对应的更新次数;
向所述电子设备发送联邦学习请求,所述联邦请求用于指示所述电子设备进行第一次本地训练,所述联邦学习请求中包括第一全局模型以及第一时隙,以使所述电子设备根据所述第一全局模型和本地数据进行所述第一次本地训练;
接收所述电子设备发送的更新全局模型的请求,所述更新全局模型的请求为所述电子设备在所述第一次本地训练的更新次数到达所述第一时隙指示的更新次数时向所述服务器发送的;
向所述电子设备发送更新的全局模型,以使所述电子设备将所述更新的全局模型与所述第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型,所述更新的全局模型为所述服务器根据所述联邦学习系统中电子设备发送的通过本地训练得到的局部模型得到的;
接收所述电子设备发送的第二局部模型,所述第二局部模型为所述电子设备基于聚合后的局部模型以及本地数据继续进行所述第一次本地训练的后续更新得到的。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
接收所述电子设备发送的第一奖励反馈;
根据所述第一奖励反馈更新所述元模型,所述第一奖励反馈为所述电子设备在所述第一次本地训练中聚合所述更新的全局模型和所述第一局部模型前后分别对应的损失值的差值。
7.一种联邦学习装置,其特征在于,应用于联邦学习系统中的电子设备,所述联邦学习系统包括服务器,以及与所述服务器通信连接的至少一个所述电子设备,所述装置包括:
触发模块,用于接收所述服务器发送的联邦学习请求,所述联邦学习请求中包括第一全局模型以及第一时隙,所述第一时隙为所述服务器根据元模型生成的,用于指示所述第一次本地训练中请求更新全局模型时所述电子设备进行本地训练对应的更新次数;
处理模块,用于响应于所述联邦学习请求,根据所述第一全局模型以及本地数据进行第一次本地训练,并在所述本地训练的更新次数到达所述第一时隙指示的更新次数时,向所述服务器发送更新全局模型的请求;接收所述服务器发送的更新的全局模型,将所述更新的全局模型与所述第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型;基于聚合后的局部模型以及本地数据继续进行所述第一次本地训练的后续更新,以得到所述第一次本地训练对应的第二局部模型;
输出模块,用于向所述服务器发送所述第二局部模型。
8.根据权利要求7所述的装置,其特征在于,所述处理模块,还用于向所述服务器发送第一奖励反馈,以使所述服务器根据所述第一奖励反馈更新所述元模型,所述第一奖励反馈为聚合所述更新的全局模型和所述第一局部模型前后分别对应的损失值的差值。
9.根据权利要求7或8所述的装置,其特征在于,
所述触发模块,还用于接收所述服务器发送的第二全局模型;
所述处理模块,还用于响应于接收到所述第二全局模型,根据所述第二全局模型以及本地数据进行第二次本地训练,并在所述本地训练的更新次数到达第二时隙指示的更新次数时,向所述服务器发送更新全局模型的请求,所述第二时隙为所述电子设备根据本地元模型生成的,用于指示所述第二次本地训练中请求更新全局模型时所述电子设备进行本地训练对应的更新次数;接收所述服务器发送的更新的全局模型,将所述更新的全局模型与所述第二次本地训练当前更新次数对应得到的第三局部模型进行聚合得到聚合后的局部模型;基于聚合后的局部模型以及本地数据继续进行所述第二次本地训练的后续更新,以得到所述第二次本地训练对应的第四局部模型;
所述输出模块,还用于向所述服务器发送所述第四局部模型。
10.根据权利要求9所述的装置,其特征在于,所述处理模块,还用于确定第二奖励反馈,所述第二奖励反馈为聚合所述更新的全局模型和第三局部模型前后分别对应的损失值的差值;根据所述第二奖励反馈,更新所述本地元模型。
11.一种联邦学习装置,其特征在于,应用于联邦学习系统中的服务器,所述联邦学习系统包括所述服务器,以及与所述服务器通信连接的至少一个电子设备,所述装置包括:
生成模块,用于根据元模型生成第一时隙,所述第一时隙用于指示电子设备在所述第一次本地训练中请求更新全局模型时所述电子设备进行本地训练对应的更新次数;
发送模块,用于向所述电子设备发送联邦学习请求,所述联邦请求用于指示所述电子设备进行第一次本地训练,所述联邦学习请求中包括第一全局模型以及第一时隙,以使所述电子设备根据所述第一全局模型和本地数据进行所述第一次本地训练;
接收模块,用于接收所述电子设备发送的更新全局模型的请求,所述更新全局模型的请求为所述电子设备在所述第一次本地训练的更新次数到达所述第一时隙指示的更新次数时向所述服务器发送的;
所述发送模块,还用于向所述电子设备发送更新的全局模型,以使所述电子设备将所述更新的全局模型与所述第一次本地训练当前更新次数对应得到的第一局部模型进行聚合得到聚合后的局部模型;
所述接收模块,还用于接收所述电子设备发送的第二局部模型,所述第二局部模型为所述电子设备基于聚合后的局部模型以及本地数据继续进行所述第一次本地训练的后续更新得到的。
12.根据权利要求11所述的装置,其特征在于,所述装置还包括:
所述接收模块,还用于接收所述电子设备发送的第一奖励反馈;
所述生成模块,还用于根据所述第一奖励反馈更新所述元模型,所述第一奖励反馈为所述电子设备在所述第一次本地训练中聚合所述更新的全局模型和所述第一局部模型前后分别对应的损失值的差值。
13.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任一项所述的方法。
14.一种服务器,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求5-6中任一项所述的方法。
15.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-4中任一项所述的方法或权利要求5-6中任一项所述的方法。
16.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-4中任一项所述的方法或权利要求5-6中任一项所述的方法。
CN202211685935.9A 2022-12-27 2022-12-27 联邦学习方法、装置、服务器、电子设备及存储介质 Active CN116090550B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211685935.9A CN116090550B (zh) 2022-12-27 2022-12-27 联邦学习方法、装置、服务器、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211685935.9A CN116090550B (zh) 2022-12-27 2022-12-27 联邦学习方法、装置、服务器、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN116090550A true CN116090550A (zh) 2023-05-09
CN116090550B CN116090550B (zh) 2024-03-22

Family

ID=86213014

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211685935.9A Active CN116090550B (zh) 2022-12-27 2022-12-27 联邦学习方法、装置、服务器、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116090550B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931520A (zh) * 2020-10-16 2020-11-13 北京百度网讯科技有限公司 自然语言处理模型的训练方法和装置
CN113516250A (zh) * 2021-07-13 2021-10-19 北京百度网讯科技有限公司 一种联邦学习方法、装置、设备以及存储介质
CN114331556A (zh) * 2021-12-31 2022-04-12 中国电力科学研究院有限公司 一种能源服务商效益评估方法、系统、装置及存储介质
CN114528304A (zh) * 2022-02-18 2022-05-24 安徽工业大学 一种自适应客户端参数更新的联邦学习方法、系统及存储介质
CN114584581A (zh) * 2022-01-29 2022-06-03 华东师范大学 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法
CN115511103A (zh) * 2022-10-20 2022-12-23 抖音视界有限公司 用于联邦学习的方法、装置、设备和介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931520A (zh) * 2020-10-16 2020-11-13 北京百度网讯科技有限公司 自然语言处理模型的训练方法和装置
CN113516250A (zh) * 2021-07-13 2021-10-19 北京百度网讯科技有限公司 一种联邦学习方法、装置、设备以及存储介质
CN114331556A (zh) * 2021-12-31 2022-04-12 中国电力科学研究院有限公司 一种能源服务商效益评估方法、系统、装置及存储介质
CN114584581A (zh) * 2022-01-29 2022-06-03 华东师范大学 面向智慧城市物联网信物融合的联邦学习系统及联邦学习训练方法
CN114528304A (zh) * 2022-02-18 2022-05-24 安徽工业大学 一种自适应客户端参数更新的联邦学习方法、系统及存储介质
CN115511103A (zh) * 2022-10-20 2022-12-23 抖音视界有限公司 用于联邦学习的方法、装置、设备和介质

Also Published As

Publication number Publication date
CN116090550B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN112561078B (zh) 分布式的模型训练方法及相关装置
US10248661B2 (en) Method and device for pulling virtual machine mirror file
EP4016398A1 (en) Apparatus and method for distributed training model, and computer program product
EP4187882B1 (en) Data transmission method and apparatus, device, storage medium, and computer program product
CN114065863A (zh) 联邦学习的方法、装置、系统、电子设备及存储介质
CN115016934A (zh) 一种联邦学习方法、装置、系统、电子设备及存储介质
CN112631775A (zh) 模型训练方法、装置、电子设备和计算机可读存储介质
CN114428907B (zh) 信息搜索方法、装置、电子设备及存储介质
CN116090550B (zh) 联邦学习方法、装置、服务器、电子设备及存储介质
US20240086717A1 (en) Model training control method based on asynchronous federated learning, electronic device and storage medium
CN112560883A (zh) 一种目标检测模型学习率的设置方法和装置
CN114841341B (zh) 图像处理模型训练及图像处理方法、装置、设备和介质
CN114172998B (zh) 一种文件传输方法、装置、电子设备及存储介质
CN116245194A (zh) 异步联邦学习方法、装置、系统及存储介质
CN114051057B (zh) 云设备排队时长的确定方法、装置、电子设备和介质
CN115293329A (zh) 一种参数更新方法、装置、设备及存储介质
CN112507676B (zh) 能源报表生成方法、装置、电子设备和计算机可读介质
CN112784139B (zh) 查询方法、装置、电子设备和计算机可读介质
CN114320236A (zh) 油气井运行方案的调整方法、装置及存储介质
CN113963433B (zh) 运动搜索方法、装置、电子设备及存储介质
CN116187473B (zh) 联邦学习方法、装置、电子设备和计算机可读存储介质
JP7372377B2 (ja) 道路情報確定方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN115860077B (zh) 状态数据的处理方法、装置、设备以及存储介质
CN115952874A (zh) 联邦学习方法、装置、服务器、电子设备及可读存储介质
US20230206123A1 (en) Distributed machine learning method and system, server, device and storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant