CN112261137A - 基于联合学习的模型训练方法及系统 - Google Patents

基于联合学习的模型训练方法及系统 Download PDF

Info

Publication number
CN112261137A
CN112261137A CN202011136661.9A CN202011136661A CN112261137A CN 112261137 A CN112261137 A CN 112261137A CN 202011136661 A CN202011136661 A CN 202011136661A CN 112261137 A CN112261137 A CN 112261137A
Authority
CN
China
Prior art keywords
client
local model
training
model parameters
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011136661.9A
Other languages
English (en)
Other versions
CN112261137B (zh
Inventor
王堃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Yu Space Technology Co ltd
Original Assignee
Jiangsu Yu Space Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Yu Space Technology Co ltd filed Critical Jiangsu Yu Space Technology Co ltd
Priority to CN202011136661.9A priority Critical patent/CN112261137B/zh
Publication of CN112261137A publication Critical patent/CN112261137A/zh
Application granted granted Critical
Publication of CN112261137B publication Critical patent/CN112261137B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/04Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks
    • H04L63/0428Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload
    • H04L63/0442Network architectures or network communication protocols for network security for providing a confidential data exchange among entities communicating through data packet networks wherein the data content is protected, e.g. by encrypting or encapsulating the payload wherein the sending and receiving network entities apply asymmetric encryption, i.e. different keys for encryption and decryption
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0816Key establishment, i.e. cryptographic processes or cryptographic protocols whereby a shared secret becomes available to two or more parties, for subsequent use
    • H04L9/0838Key agreement, i.e. key establishment technique in which a shared key is derived by parties as a function of information contributed by, or associated with, each of these
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/08Key distribution or management, e.g. generation, sharing or updating, of cryptographic keys or passwords
    • H04L9/0861Generation of secret information including derivation or calculation of cryptographic keys or passwords

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本申请实施例公开了一种基于联合学习的模型训练方法及系统,属于机器学习和数据聚合技术领域。所述方法包括:每个客户端对局部模型进行训练,将得到的局部模型参数发送给相连的边缘设备;边缘设备将局部模型参数发送给服务器,确定训练速度不满足预设条件的第一客户端和训练速度满足预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据;服务器对所有局部模型参数进行聚合更新,若更新后的局部模型参数由第一客户端训练得到,则由边缘设备代替第一客户端根据训练更新后的局部模型;若更新后的局部模型参数由第二客户端训练得到,则由第二客户端训练更新后的局部模型。本申请实施例可以提高全局模型训练的成功率。

Description

基于联合学习的模型训练方法及系统
技术领域
本申请实施例涉及机器学习和数据聚合领域,特别涉及一种基于联合学习的模型训练方法及系统。
背景技术
目前,联合学习(Federated Learning,FL)已被广泛应用于诸如图像分类,自动驾驶和语音识别以及医学成像等各个领域。联合学习是一种新的机器学习(MachineLearning,ML)模式,即,利用服务器(例如云平台服务提供商)协调多个客户端(例如个人设备或一些机构组织)共同训练全局模型。
具体的,服务器将初始的多个局部模型分别下发给各个客户端,该多个局部模型用于聚合生成服务器所需的全局模型;每个客户端使用其本地私有的训练数据来协作训练对应的局部模型,并将训练得到的局部模型参数(即模型的权重或梯度等)发送给服务器,服务器对所有的局部模型参数进行聚合更新,得到全局模型。重复进行此操作,直到聚合得到的全局模型达到预定的精度为止。
然而,在大规模且复杂的移动边缘网络系统中,某些客户端的性能低下而无法参与模型训练,从而导致服务器无法聚合得到全局模型。
发明内容
本申请实施例提供了一种基于联合学习的模型训练方法及系统,用于解决移动边缘网络中的部分客户端性能低下,无法参与模型训练,导致服务器无法聚合得到全局模型的问题。所述技术方案如下:
一方面,提供了一种基于联合学习的模型训练方法,用于移动边缘网络系统中,所述移动边缘网络系统中包括服务器、多个边缘设备和多个客户端,所述方法包括:
所述服务器将初始的多条模型信息分别发送给所述多个客户端,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型;
每个客户端接收所述模型信息,并根据所述训练参数和本地的训练数据对所述局部模型进行训练,得到局部模型参数,将所述局部模型参数发送给与所述客户端相连的边缘设备;
所述边缘设备接收所述局部模型参数,将所述局部模型参数发送给所述服务器,从所述多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足所述预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据;
所述服务器对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若所述更新后的局部模型参数在聚合更新前由所述第一客户端训练得到,则将所述更新后的局部模型参数发送给与所述第一客户端相连的边缘设备,若所述更新后的局部模型参数在聚合更新前由所述第二客户端训练得到,则将所述更新后的局部模型参数发送给所述第二客户端;
每个第二客户端根据所述更新后的局部模型参数更新自身的局部模型,并根据所述训练参数和所述训练数据训练更新后的局部模型;所述边缘设备代替所述第一客户端根据所述更新后的局部模型参数更新所述第一客户端的局部模型,并根据所述第一客户端中的训练参数和所述训练数据训练更新后的局部模型;直至聚合更新后的所述全局模型满足预设精度时停止训练。
在一种可能的实现方式中,所述方法还包括:在接收到所述模型信息后,所述客户端和相连的边缘设备进行密钥协商,得到密钥对,且所述边缘设备存储所述密钥对中的私钥,所述客户端存储所述密钥对中的公钥;
所述客户端将所述局部模型参数发送给与所述客户端相连的边缘设备,包括:所述客户端利用所述公钥对所述局部模型参数进行加密,并将加密后的局部模型参数发送给所述边缘设备;
所述边缘设备将所述局部模型参数发送给所述服务器,包括:所述边缘设备将所述加密后的局部模型参数发送给所述服务器;
所述服务器对所有局部模型参数进行聚合更新,包括:所述服务器对所有加密后的局部模型参数进行聚合更新。
在一种可能的实现方式中,所述方法还包括:每个客户端读取所述模型信息中的初始模型参数,根据所述初始模型参数和所述局部模型参数生成数据评价指标,将所述数据评价指标发送给相连的边缘设备,所述数据评价指标用于指示所述训练数据的质量;所述边缘设备将所述数据评价指标发送给所述服务器;
所述服务器对所有局部模型参数进行聚合更新,包括:所述服务器根据所有的数据评价指标对所有局部模型参数进行聚合更新。
在一种可能的实现方式中,所述服务器根据所有的数据评价指标对所有局部模型参数进行聚合更新,包括:
对于每个数据评价指标,所述服务器根据所述数据评价指标确定对应的聚合权重,所述数据评价指标与所述聚合权重呈正相关关系;
所述服务器根据每个聚合权重对对应的局部模型参数进行聚合更新。
在一种可能的实现方式中,所述从所述多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足所述预设条件的第二客户端,包括:
所述边缘设备统计已发送所述局部模型参数的客户端的数量与客户端总数的比值,所述客户端总数是与所述边缘设备相连且参与训练所述全局模型的客户端的数量;
在所述比值达到预定阈值时,所述边缘设备将未发送所述局部模型参数的客户端确定为所述第一客户端,将已发送所述局部模型参数的客户端确定为所述第二客户端。
一方面,提供了一种移动边缘网络系统,所述移动边缘网络系统中包括服务器、多个边缘设备和多个客户端;
所述服务器,用于将初始的多条模型信息分别发送给所述多个客户端,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型;
每个客户端,用于接收所述模型信息,并根据所述训练参数和本地的训练数据对所述局部模型进行训练,得到局部模型参数,将所述局部模型参数发送给与所述客户端相连的边缘设备;
所述边缘设备,用于接收所述局部模型参数,将所述局部模型参数发送给所述服务器,从所述多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足所述预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据;
所述服务器,还用于对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若所述更新后的局部模型参数在聚合更新前由所述第一客户端训练得到,则将所述更新后的局部模型参数发送给与所述第一客户端相连的边缘设备,若所述更新后的局部模型参数在聚合更新前由所述第二客户端训练得到,则将所述更新后的局部模型参数发送给所述第二客户端;
每个第二客户端,还用于根据所述更新后的局部模型参数更新自身的局部模型,并根据所述训练参数和所述训练数据训练更新后的局部模型;所述边缘设备,还用于代替所述第一客户端根据所述更新后的局部模型参数更新所述第一客户端的局部模型,并根据所述第一客户端中的训练参数和所述训练数据训练更新后的局部模型;直至聚合更新后的所述全局模型满足预设精度时停止训练。
在一种可能的实现方式中,在接收到所述模型信息后,所述客户端,还用于和相连的边缘设备进行密钥协商,得到密钥对,且所述边缘设备用于存储所述密钥对中的私钥,所述客户端用于存储所述密钥对中的公钥;
所述客户端,还用于利用所述公钥对所述局部模型参数进行加密,并将加密后的局部模型参数发送给所述边缘设备;
所述边缘设备,还用于将所述加密后的局部模型参数发送给所述服务器;
所述服务器,还用于对所有加密后的局部模型参数进行聚合更新。
在一种可能的实现方式中,每个客户端,还用于读取所述模型信息中的初始模型参数,根据所述初始模型参数和所述局部模型参数生成数据评价指标,将所述数据评价指标发送给相连的边缘设备,所述数据评价指标用于指示所述训练数据的质量;
所述边缘设备,还用于将所述数据评价指标发送给所述服务器;
所述服务器,还用于根据所有的数据评价指标对所有局部模型参数进行聚合更新。
在一种可能的实现方式中,所述服务器,还用于:
对于每个数据评价指标,根据所述数据评价指标确定对应的聚合权重,所述数据评价指标与所述聚合权重呈正相关关系;
根据每个聚合权重对对应的局部模型参数进行聚合更新。
在一种可能的实现方式中,所述边缘设备,还用于:
统计已发送所述局部模型参数的客户端的数量与客户端总数的比值,所述客户端总数是与所述边缘设备相连且参与训练所述全局模型的客户端的数量;
在所述比值达到预定阈值时,将未发送所述局部模型参数的客户端确定为所述第一客户端,将已发送所述局部模型参数的客户端确定为所述第二客户端。
本申请实施例提供的技术方案的有益效果至少包括:
由于边缘设备可以从多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据,后续,边缘设备可以代替第一客户端,根据更新后的局部模型参数更新第一客户端的局部模型,并根据第一客户端中的训练参数和训练数据训练更新后的局部模型,直至聚合更新后的全局模型满足预设精度时停止训练。这样,边缘设备可以代替性能低下的第一客户端来参与模型训练,从而使得服务器能够聚合得到全局模型,提高了全局模型训练的成功率。
由于客户端可以与边缘设备协商得到密钥对,再根据密钥对对局部模型参数进行加密,通过边缘设备将加密后的局部模型参数发送给服务器,这样可以保护数据隐私,避免数据泄露,从而可以提高模型训练的安全性。
由于服务器可以根据所有的数据评价指标对所有局部模型参数进行聚合更新,而数据评价指标用于指示训练数据的质量,这样,服务器可以在聚合过程中对可靠的局部模型参数进行更大权重的计数,减少不可靠的局部模型参数对全局模型的影响,从而可以提高全局模型的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据部分示例性实施例示出的一种移动边缘网络系统的结构示意图;
图2是本申请一个实施例提供的基于联合学习的模型训练方法的方法流程图;
图3是本申请一个实施例提供的移动边缘网络系统的结构框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例可以应用于移动边缘网络系统中,请参考图1,下面对移动边缘网络系统进行介绍。
本实施例中的移动边缘网络系统至少包括服务器、多个边缘设备和多个客户端。服务器与多个边缘设备建立连接,每个边缘设备可以同时与多个客户端建立连接。
若客户端需要向服务器发送数据,则可以将数据发送给边缘设备,边缘设备将该数据转发给服务器。若服务器需要向客户端发送数据,则可以将数据广播给客户端,或者,服务器可以将数据发送给边缘设备,边缘设备将该数据转发给客户端。
其中,服务器可以是一台服务器或多台服务器组成的服务器集群或云计算中心。客户端可以是只能设备,比如,计算机、平板电脑、手机等等,本实施例不作限定。
请参考图2,其示出了本申请一个实施例提供的基于联合学习的模型训练方法的方法流程图,该基于联合学习的模型训练方法可以应用于图1所示的移动边缘网络系统中。该基于联合学习的模型训练方法,可以包括:
步骤201,服务器将初始的多条模型信息分别发送给多个客户端,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型。
本实施例中,服务器可以先选定需要参与训练的所有客户端,并针对每个客户端生成一条模型信息,将每条模型信息广播给对应的客户端。其中,模型信息可以包括局部模型和训练参数,该训练参数包括参与训练的客户端数n、学习率η、当前迭代次数t、初始全局参数 (也即初始模型参数)
Figure BDA0002736909970000071
等等。
步骤202,每个客户端接收模型信息,并根据训练参数和本地的训练数据对局部模型进行训练,得到局部模型参数,将该局部模型参数发送给与客户端相连的边缘设备。
对于每个客户端来说,客户端在接收到模型信息后,可以先获取本地的训练数据,对该训练数据进行预处理,并利用预处理后的训练数据和训练参数对局部模型进行训练,得到局部模型参数。在一个示例中,局部模型参数可以是局部权重参数。
本实施例中,客户端可以采用小批量随机梯度下降算法来优化损失函数,从而训练局部模型。其中,涉及的相关参数包括客户端 i={1,2,...n},训练数据集Di={D1,D2,...Dn},批数据大小B={B1,B2,...Bn},学习率η和损失函数
Figure BDA0002736909970000073
具体的损失函数如下:
Figure 1
损失函数中的x和y是D 中的数据,是ω局部权重参数,b是局部偏置参数,j是训练的数据。
上述损失函数的梯度如下:
Figure 2
其中,损失函数的梯度越小,表明训练值f(x,w)与真实值y之间的差异最小,也即局部模型的训练精度越高,所以,客户端可以求解损失函数的梯度最小时的局部权重参数,将该局部权重参数作为训练得到的局部模型参数。
本实施例中,在接收到模型信息后,客户端和相连的边缘设备可以进行密钥协商,得到密钥对,且边缘设备存储密钥对中的私钥,客户端存储密钥对中的公钥。具体的,可以采用Diffie-Hellman密钥交换协议来建立密钥,边缘设备使用KA.param()函数生成公共参数,用密钥对生成函数KA.gen()为客户端生成对应的密钥对,
Figure BDA0002736909970000082
其中
Figure BDA0002736909970000083
为用于加密的公钥,
Figure BDA0002736909970000084
为用于解密的私钥,然后通过签名算法SIG.sign()生成用于验证客户端i身份的签名消息σi。这些准备工作完成后,边缘设备将公钥集合分发给所有客户端。
此时,客户端将局部模型参数发送给与客户端相连的边缘设备,包括:客户端利用公钥对局部模型参数进行加密,并将加密后的局部模型参数发送给边缘设备。这样,客户端可以利用公钥对局部模型参数进行加密,并将加密后的局部模型参数发送给边缘设备,边缘设备便可以利用验证算法SIG.ver()对客户端进行验证身份。
本实施例中,为了保证训练的精确性,减少低质量的训练数据对训练的影响,在进行联合训练之前,会根据用户的数据质量为各用户指定一个数据评价指标,该数据评价指标可以用来指示训练数据的质量,这样,后续服务器可以在聚合过程中对可靠的局部模型参数进行更大权重的计数,减少不可靠的局部模型参数对全局模型的影响,从而可以提高全局模型的准确性。
在计算数据评价指标时,每个客户端可以读取模型信息中的初始模型参数,根据初始模型参数和局部模型参数生成数据评价指标,将数据评价指标发送给相连的边缘设备,该数据评价指标用于指示训练数据的质量。具体的,客户端可以计算数据评价指标
Figure BDA0002736909970000091
其中,ω*是初始模型参数,ωi是训练得到的局部模型参数。
若客户端中存储有公钥,则可以利用公钥对局部模型参数和数据评价指标进行加密,得到
Figure BDA0002736909970000092
在得到
Figure BDA0002736909970000093
后,通过以下公式对数据评价指标ρi进行加密得到encρi
Figure BDA0002736909970000094
Figure BDA0002736909970000095
可选的,客户端可以在第一次发送局部模型参数时发送数据评价指标,后续无需再次发送;或者,客户端可以在每次发送局部模型参数时都发送数据评价指标,本实施例不作限定。
步骤203,边缘设备接收局部模型参数,将局部模型参数发送给服务器,从多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据。
若客户端将未加密的局部模型参数发送给边缘设备,则边缘设备接收未加密的局部模型参数,并将该未加密的局部模型参数发送给服务器。若客户端将加密后的局部模型参数发送给边缘设备,则边缘设备将局部模型参数发送给服务器,包括:边缘设备将加密后的局部模型参数发送给服务器。
若客户端将未加密的局部模型参数和未加密的数据评价指标发送给边缘设备,则边缘设备接收未加密的局部模型参数和未加密的数据评价指标,并将该未加密的局部模型参数和未加密的数据评价指标发送给服务器。若客户端将加密后的局部模型参数和加密后的数据评价指标发送给边缘设备,则边缘设备将加密后的局部模型参数和加密后的数据评价指标发送给服务器。
本实施例中,边缘设备还可以从所有参与训练的客户端中筛选出第一客户端和第二客户端,该第一客户端为性能低下而无法参与训练的客户端,该第二客户端为能够参与训练的客户端。在确定出第一客户端后,边缘设备可以获取每个第一客户端中的模型信息和训练数据,并在后续训练过程中代替第一客户端来训练局部模型。
在确定第一客户端时,边缘设备可以统计已发送局部模型参数的客户端的数量与客户端总数的比值,客户端总数是与边缘设备相连且参与训练全局模型的客户端的数量;在比值达到预定阈值时,边缘设备将未发送局部模型参数的客户端确定为第一客户端,将已发送局部模型参数的客户端确定为第二客户端。其中,预定阈值可以是预先设定的一个比值,比如90%等,本实施例不作限定。
在边缘设备获取客户端总数时,服务器可以在向所有的客户端广播模型信息后,确定与每个边缘设备相连的所有客户端的客户端总数,并将该客户端总数发送给各个边缘设备,每个边缘设备接收该客户端总数。或者,边缘设备可以统计与自身进行密钥协商的客户端的数量,将该数量作为客户端总数。
步骤204,服务器对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若更新后的局部模型参数在聚合更新前由第一客户端训练得到,则将更新后的局部模型参数发送给与第一客户端相连的边缘设备,若更新后的局部模型参数在聚合更新前由第二客户端训练得到,则将更新后的局部模型参数发送给第二客户端。
若服务器接收到的是未加密的局部模型参数,则可以对所有未加密的局部模型参数进行聚合更新。若服务器接收到的是加密后的局部模型参数,则服务器对所有局部模型参数进行聚合更新,可以包括:服务器对所有加密后的局部模型参数进行聚合更新。
若服务器还接收到数据评价指标,则服务器对所有局部模型参数进行聚合更新,可以包括:服务器根据所有的数据评价指标对所有局部模型参数进行聚合更新。具体的,对于每个数据评价指标,服务器根据数据评价指标确定对应的聚合权重,该数据评价指标与聚合权重呈正相关关系;服务器根据每个聚合权重对对应的局部模型参数进行聚合更新。
在第t次迭代中,服务器根据
Figure BDA0002736909970000111
更新全局模型参数
Figure BDA0002736909970000112
并更新全局模型:
Figure BDA0002736909970000113
其中,
Figure BDA0002736909970000114
表示客户端的聚合权重。
服务器可以判断全局模型的精度是否达到预设精度(收敛),若达到预设精度,则停止模型训练;若未达到预设精度,则需要将更新后的局部模型参数反馈给第二客户端或边缘设备,以使第二客户端和边缘设备继续进行模型训练,直至聚合后的全局模型达到预设精度时停止训练。
在反馈更新后的局部模型参数时,服务器可以将各条更新后的局部模型参数广播给各个客户端。其中,第二客户端接收到更新后的局部模型参数后继续进行模型训练,第一客户端接收到更新后的局部模型参数后,将该更新后的局部模型参数发送给相连的边缘设备,以便于边缘设备代替第一客户端进行模型训练。或者,服务器可以将各条更新后的局部模型参数发送给各个边缘设备,边缘设备再确定与自身相连的各个第二客户端,向每个第二客户端发送对应的更新后的局部模型参数,第二客户端接收到更新后的局部模型参数后继续进行模型训练,边缘设备保留第一客户端对应的更新后的局部模型参数,并代替第一客户端进行模型训练。
步骤205,每个第二客户端根据更新后的局部模型参数更新自身的局部模型,并根据训练参数和训练数据训练更新后的局部模型;边缘设备代替第一客户端根据更新后的局部模型参数更新第一客户端的局部模型,并根据第一客户端中的训练参数和训练数据训练更新后的局部模型;直至聚合更新后的全局模型满足预设精度时停止训练。
需要说明的是,服务器执行的步骤可以实现为单独的实施例,客户端执行的步骤可以实现为单独的实施例,边缘设备执行的步骤可以实现为单独的实施例,本实施例不作限定。
综上所述,本申请实施例提供的基于联合学习的模型训练方法,由于边缘设备可以从多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据,后续,边缘设备可以代替第一客户端,根据更新后的局部模型参数更新第一客户端的局部模型,并根据第一客户端中的训练参数和训练数据训练更新后的局部模型,直至聚合更新后的全局模型满足预设精度时停止训练。这样,边缘设备可以代替性能低下的第一客户端来参与模型训练,从而使得服务器能够聚合得到全局模型,提高了全局模型训练的成功率。
由于客户端可以与边缘设备协商得到密钥对,再根据密钥对对局部模型参数进行加密,通过边缘设备将加密后的局部模型参数发送给服务器,这样可以保护数据隐私,避免数据泄露,从而可以提高模型训练的安全性。
由于服务器可以根据所有的数据评价指标对所有局部模型参数进行聚合更新,而数据评价指标用于指示训练数据的质量,这样,服务器可以在聚合过程中对可靠的局部模型参数进行更大权重的计数,减少不可靠的局部模型参数对全局模型的影响,从而可以提高全局模型的准确性。
请参考图3,其示出了本申请一个实施例提供的移动边缘网络系统的结构框图。该移动边缘网络系统,可以包括:
服务器310,用于将初始的多条模型信息分别发送给多个客户端 320,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型;
每个客户端320,用于接收模型信息,并根据训练参数和本地的训练数据对局部模型进行训练,得到局部模型参数,将局部模型参数发送给与客户端320相连的边缘设备330;
边缘设备330,用于接收局部模型参数,将局部模型参数发送给服务器310,从多个客户端320中确定训练速度不满足预设条件的第一客户端320和训练速度满足预设条件的第二客户端320,并获取各个第一客户端320中的模型信息和训练数据;
服务器310,还用于对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若更新后的局部模型参数在聚合更新前由第一客户端320训练得到,则将更新后的局部模型参数发送给与第一客户端320相连的边缘设备330,若更新后的局部模型参数在聚合更新前由第二客户端320训练得到,则将更新后的局部模型参数发送给第二客户端320;
每个第二客户端320,还用于根据更新后的局部模型参数更新自身的局部模型,并根据训练参数和训练数据训练更新后的局部模型;边缘设备330,还用于代替第一客户端320根据更新后的局部模型参数更新第一客户端320的局部模型,并根据第一客户端320中的训练参数和训练数据训练更新后的局部模型;直至聚合更新后的全局模型满足预设精度时停止训练。
在一种可能的实现方式中,在接收到模型信息后,客户端320,还用于和相连的边缘设备330进行密钥协商,得到密钥对,且边缘设备330用于存储密钥对中的私钥,客户端320用于存储密钥对中的公钥;
客户端320,还用于利用公钥对局部模型参数进行加密,并将加密后的局部模型参数发送给边缘设备330;
边缘设备330,还用于将加密后的局部模型参数发送给服务器 310;
服务器310,还用于对所有加密后的局部模型参数进行聚合更新。
在一种可能的实现方式中,每个客户端320,还用于读取模型信息中的初始模型参数,根据初始模型参数和局部模型参数生成数据评价指标,将数据评价指标发送给相连的边缘设备330,数据评价指标用于指示训练数据的质量;
边缘设备330,还用于将数据评价指标发送给服务器310;
服务器310,还用于根据所有的数据评价指标对所有局部模型参数进行聚合更新。
在一种可能的实现方式中,服务器310,还用于:
对于每个数据评价指标,根据数据评价指标确定对应的聚合权重,数据评价指标与聚合权重呈正相关关系;
根据每个聚合权重对对应的局部模型参数进行聚合更新。
在一种可能的实现方式中,边缘设备330,还用于:
统计已发送局部模型参数的客户端320的数量与客户端320总数的比值,客户端320总数是与边缘设备330相连且参与训练全局模型的客户端320的数量;
在比值达到预定阈值时,将未发送局部模型参数的客户端320确定为第一客户端320,将已发送局部模型参数的客户端320确定为第二客户端320。
综上所述,本申请实施例提供的移动边缘网络系统,由于边缘设备可以从多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据,后续,边缘设备可以代替第一客户端,根据更新后的局部模型参数更新第一客户端的局部模型,并根据第一客户端中的训练参数和训练数据训练更新后的局部模型,直至聚合更新后的全局模型满足预设精度时停止训练。这样,边缘设备可以代替性能低下的第一客户端来参与模型训练,从而使得服务器能够聚合得到全局模型,提高了全局模型训练的成功率。
由于客户端可以与边缘设备协商得到密钥对,再根据密钥对对局部模型参数进行加密,通过边缘设备将加密后的局部模型参数发送给服务器,这样可以保护数据隐私,避免数据泄露,从而可以提高模型训练的安全性。
由于服务器可以根据所有的数据评价指标对所有局部模型参数进行聚合更新,而数据评价指标用于指示训练数据的质量,这样,服务器可以在聚合过程中对可靠的局部模型参数进行更大权重的计数,减少不可靠的局部模型参数对全局模型的影响,从而可以提高全局模型的准确性。
本申请一个实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上所述的基于联合学习的模型训练方法。
需要说明的是:上述实施例提供的移动边缘网络系统在进行模型训练时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将移动边缘网络系统的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的移动边缘网络系统与基于联合学习的模型训练方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。

Claims (10)

1.一种基于联合学习的模型训练方法,其特征在于,用于移动边缘网络系统中,所述移动边缘网络系统中包括服务器、多个边缘设备和多个客户端,所述方法包括:
所述服务器将初始的多条模型信息分别发送给所述多个客户端,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型;
每个客户端接收所述模型信息,并根据所述训练参数和本地的训练数据对所述局部模型进行训练,得到局部模型参数,将所述局部模型参数发送给与所述客户端相连的边缘设备;
所述边缘设备接收所述局部模型参数,将所述局部模型参数发送给所述服务器,从所述多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足所述预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据;
所述服务器对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若所述更新后的局部模型参数在聚合更新前由所述第一客户端训练得到,则将所述更新后的局部模型参数发送给与所述第一客户端相连的边缘设备,若所述更新后的局部模型参数在聚合更新前由所述第二客户端训练得到,则将所述更新后的局部模型参数发送给所述第二客户端;
每个第二客户端根据所述更新后的局部模型参数更新自身的局部模型,并根据所述训练参数和所述训练数据训练更新后的局部模型;所述边缘设备代替所述第一客户端根据所述更新后的局部模型参数更新所述第一客户端的局部模型,并根据所述第一客户端中的训练参数和所述训练数据训练更新后的局部模型;直至聚合更新后的所述全局模型满足预设精度时停止训练。
2.根据权利要求1所述的方法,其特征在于,
所述方法还包括:在接收到所述模型信息后,所述客户端和相连的边缘设备进行密钥协商,得到密钥对,且所述边缘设备存储所述密钥对中的私钥,所述客户端存储所述密钥对中的公钥;
所述客户端将所述局部模型参数发送给与所述客户端相连的边缘设备,包括:所述客户端利用所述公钥对所述局部模型参数进行加密,并将加密后的局部模型参数发送给所述边缘设备;
所述边缘设备将所述局部模型参数发送给所述服务器,包括:所述边缘设备将所述加密后的局部模型参数发送给所述服务器;
所述服务器对所有局部模型参数进行聚合更新,包括:所述服务器对所有加密后的局部模型参数进行聚合更新。
3.根据权利要求1所述的方法,其特征在于,
所述方法还包括:每个客户端读取所述模型信息中的初始模型参数,根据所述初始模型参数和所述局部模型参数生成数据评价指标,将所述数据评价指标发送给相连的边缘设备,所述数据评价指标用于指示所述训练数据的质量;所述边缘设备将所述数据评价指标发送给所述服务器;
所述服务器对所有局部模型参数进行聚合更新,包括:所述服务器根据所有的数据评价指标对所有局部模型参数进行聚合更新。
4.根据权利要求3所述的方法,其特征在于,所述服务器根据所有的数据评价指标对所有局部模型参数进行聚合更新,包括:
对于每个数据评价指标,所述服务器根据所述数据评价指标确定对应的聚合权重,所述数据评价指标与所述聚合权重呈正相关关系;
所述服务器根据每个聚合权重对对应的局部模型参数进行聚合更新。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述从所述多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足所述预设条件的第二客户端,包括:
所述边缘设备统计已发送所述局部模型参数的客户端的数量与客户端总数的比值,所述客户端总数是与所述边缘设备相连且参与训练所述全局模型的客户端的数量;
在所述比值达到预定阈值时,所述边缘设备将未发送所述局部模型参数的客户端确定为所述第一客户端,将已发送所述局部模型参数的客户端确定为所述第二客户端。
6.一种移动边缘网络系统,其特征在于,所述移动边缘网络系统中包括服务器、多个边缘设备和多个客户端;
所述服务器,用于将初始的多条模型信息分别发送给所述多个客户端,每条模型信息中包括局部模型和训练参数,且所有的局部模型用于聚合得到全局模型;
每个客户端,用于接收所述模型信息,并根据所述训练参数和本地的训练数据对所述局部模型进行训练,得到局部模型参数,将所述局部模型参数发送给与所述客户端相连的边缘设备;
所述边缘设备,用于接收所述局部模型参数,将所述局部模型参数发送给所述服务器,从所述多个客户端中确定训练速度不满足预设条件的第一客户端和训练速度满足所述预设条件的第二客户端,并获取各个第一客户端中的模型信息和训练数据;
所述服务器,还用于对所有局部模型参数进行聚合更新,对于得到的每条更新后的局部模型参数,若所述更新后的局部模型参数在聚合更新前由所述第一客户端训练得到,则将所述更新后的局部模型参数发送给与所述第一客户端相连的边缘设备,若所述更新后的局部模型参数在聚合更新前由所述第二客户端训练得到,则将所述更新后的局部模型参数发送给所述第二客户端;
每个第二客户端,还用于根据所述更新后的局部模型参数更新自身的局部模型,并根据所述训练参数和所述训练数据训练更新后的局部模型;所述边缘设备,还用于代替所述第一客户端根据所述更新后的局部模型参数更新所述第一客户端的局部模型,并根据所述第一客户端中的训练参数和所述训练数据训练更新后的局部模型;直至聚合更新后的所述全局模型满足预设精度时停止训练。
7.根据权利要求6所述的系统,其特征在于,
在接收到所述模型信息后,所述客户端,还用于和相连的边缘设备进行密钥协商,得到密钥对,且所述边缘设备用于存储所述密钥对中的私钥,所述客户端用于存储所述密钥对中的公钥;
所述客户端,还用于利用所述公钥对所述局部模型参数进行加密,并将加密后的局部模型参数发送给所述边缘设备;
所述边缘设备,还用于将所述加密后的局部模型参数发送给所述服务器;
所述服务器,还用于对所有加密后的局部模型参数进行聚合更新。
8.根据权利要求6所述的系统,其特征在于,
每个客户端,还用于读取所述模型信息中的初始模型参数,根据所述初始模型参数和所述局部模型参数生成数据评价指标,将所述数据评价指标发送给相连的边缘设备,所述数据评价指标用于指示所述训练数据的质量;
所述边缘设备,还用于将所述数据评价指标发送给所述服务器;
所述服务器,还用于根据所有的数据评价指标对所有局部模型参数进行聚合更新。
9.根据权利要求8所述的系统,其特征在于,所述服务器,还用于:
对于每个数据评价指标,根据所述数据评价指标确定对应的聚合权重,所述数据评价指标与所述聚合权重呈正相关关系;
根据每个聚合权重对对应的局部模型参数进行聚合更新。
10.根据权利要求6至9中任一项所述的系统,其特征在于,所述边缘设备,还用于:
统计已发送所述局部模型参数的客户端的数量与客户端总数的比值,所述客户端总数是与所述边缘设备相连且参与训练所述全局模型的客户端的数量;
在所述比值达到预定阈值时,将未发送所述局部模型参数的客户端确定为所述第一客户端,将已发送所述局部模型参数的客户端确定为所述第二客户端。
CN202011136661.9A 2020-10-22 2020-10-22 基于联合学习的模型训练方法及系统 Active CN112261137B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011136661.9A CN112261137B (zh) 2020-10-22 2020-10-22 基于联合学习的模型训练方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011136661.9A CN112261137B (zh) 2020-10-22 2020-10-22 基于联合学习的模型训练方法及系统

Publications (2)

Publication Number Publication Date
CN112261137A true CN112261137A (zh) 2021-01-22
CN112261137B CN112261137B (zh) 2022-06-14

Family

ID=74263903

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011136661.9A Active CN112261137B (zh) 2020-10-22 2020-10-22 基于联合学习的模型训练方法及系统

Country Status (1)

Country Link
CN (1) CN112261137B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114462573A (zh) * 2022-01-20 2022-05-10 内蒙古工业大学 一种面向边缘智能的高效层次化参数传输时延优化方法
WO2022160604A1 (en) * 2021-01-28 2022-08-04 Huawei Technologies Co., Ltd. Servers, methods and systems for second order federated learning
WO2023284387A1 (zh) * 2021-07-15 2023-01-19 卡奥斯工业智能研究院(青岛)有限公司 基于联邦学习的模型训练方法、装置、系统、设备和介质
CN115840965A (zh) * 2022-12-27 2023-03-24 光谷技术有限公司 一种信息安全保障模型训练方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170316347A1 (en) * 2014-01-24 2017-11-02 Microsoft Technology Licensing, Llc Crowdsourcing System with Community Learning
CN109871702A (zh) * 2019-02-18 2019-06-11 深圳前海微众银行股份有限公司 联邦模型训练方法、系统、设备及计算机可读存储介质
US20200027033A1 (en) * 2018-07-19 2020-01-23 Adobe Inc. Updating Machine Learning Models On Edge Servers
CN110990155A (zh) * 2019-11-29 2020-04-10 杭州电子科技大学 一种面向大规模安全监控的参数通信方法
WO2020180218A1 (en) * 2019-03-01 2020-09-10 Telefonaktiebolaget Lm Ericsson (Publ) Dynamic network configuration
CN111754000A (zh) * 2020-06-24 2020-10-09 清华大学 质量感知的边缘智能联邦学习方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170316347A1 (en) * 2014-01-24 2017-11-02 Microsoft Technology Licensing, Llc Crowdsourcing System with Community Learning
US20200027033A1 (en) * 2018-07-19 2020-01-23 Adobe Inc. Updating Machine Learning Models On Edge Servers
CN109871702A (zh) * 2019-02-18 2019-06-11 深圳前海微众银行股份有限公司 联邦模型训练方法、系统、设备及计算机可读存储介质
WO2020180218A1 (en) * 2019-03-01 2020-09-10 Telefonaktiebolaget Lm Ericsson (Publ) Dynamic network configuration
CN110990155A (zh) * 2019-11-29 2020-04-10 杭州电子科技大学 一种面向大规模安全监控的参数通信方法
CN111754000A (zh) * 2020-06-24 2020-10-09 清华大学 质量感知的边缘智能联邦学习方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
L. LIU等: "Client-Edge-Cloud Hierarchical Federated Learning", 《ICC 2020 - 2020 IEEE INTERNATIONAL CONFERENCE ON COMMUNICATIONS (ICC)》 *
T. NISHIO等: "Client Selection for Federated Learning with Heterogeneous Resources in Mobile Edge", 《ICC 2019 - 2019 IEEE INTERNATIONAL CONFERENCE ON COMMUNICATIONS (ICC)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022160604A1 (en) * 2021-01-28 2022-08-04 Huawei Technologies Co., Ltd. Servers, methods and systems for second order federated learning
WO2023284387A1 (zh) * 2021-07-15 2023-01-19 卡奥斯工业智能研究院(青岛)有限公司 基于联邦学习的模型训练方法、装置、系统、设备和介质
CN114462573A (zh) * 2022-01-20 2022-05-10 内蒙古工业大学 一种面向边缘智能的高效层次化参数传输时延优化方法
CN114462573B (zh) * 2022-01-20 2023-11-14 内蒙古工业大学 一种面向边缘智能的高效层次化参数传输时延优化方法
CN115840965A (zh) * 2022-12-27 2023-03-24 光谷技术有限公司 一种信息安全保障模型训练方法和系统
CN115840965B (zh) * 2022-12-27 2023-08-08 光谷技术有限公司 一种信息安全保障模型训练方法和系统

Also Published As

Publication number Publication date
CN112261137B (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
CN112261137B (zh) 基于联合学习的模型训练方法及系统
CN110263908B (zh) 联邦学习模型训练方法、设备、系统及存储介质
CN111598254B (zh) 联邦学习建模方法、设备及可读存储介质
EP4113345A1 (en) Data processing method and system based on node group, and device and medium
US20210143987A1 (en) Privacy-preserving federated learning
US20230108682A1 (en) Data processing method and apparatus, device, and computer-readable storage medium
CN112580821A (zh) 一种联邦学习方法、装置、设备及存储介质
CN110365662B (zh) 业务审批方法及装置
CN112818369B (zh) 一种联合建模方法及装置
WO2024093426A1 (zh) 基于联邦机器学习的模型训练方法和装置
CN114117386A (zh) 会议管理方法及装置、计算机可读存储介质、电子设备
CN112381000A (zh) 基于联邦学习的人脸识别方法、装置、设备及存储介质
CN114301677B (zh) 秘钥协商方法、装置、电子设备及存储介质
CN114024723B (zh) 基于esop系统的线上签署方法及装置、设备、介质
CN111131127B (zh) 一种基于直播平台的通信方法及相关装置
CN117171779B (zh) 基于交集保护的数据处理装置
CN111191738A (zh) 跨平台的数据处理方法、装置、设备及可读存储介质
CN117082505A (zh) 数据安全共享方法、系统及装置、电子设备和存储介质
CN112132578A (zh) 一种基于区块链的高效交易处理方法、追踪方法及装置
TWI782701B (zh) 區塊鏈錢包的非互動式批核系統及其方法
CN115860741A (zh) 区块链数据加密验证方法、装置及系统
CN115357915A (zh) 基于深度学习和信息隐藏的区块链方法和医康养交易系统
CN115361196A (zh) 一种基于区块链网络的业务交互方法
CN114760602A (zh) 全息通信方法、装置、系统及计算机可读存储介质
CN114584975A (zh) 一种基于sdn的抗量子卫星网络接入认证方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220111

Address after: 2209-c1, No. 19, Erquan East Road, Huizhi enterprise center, Xishan District, Wuxi City, Jiangsu Province, 214000

Applicant after: Wuxi yuspace Intelligent Technology Co.,Ltd.

Address before: Room 1101, block C, Kangyuan smart port, No. 50, Jiangdong Street, Jialing, Jianye District, Nanjing City, Jiangsu Province, 210000

Applicant before: Jiangsu Yu Space Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220916

Address after: Room 1101, block C, Kangyuan smart port, No. 50, Jiangdong Street, Jialing, Jianye District, Nanjing City, Jiangsu Province, 210000

Patentee after: Jiangsu Yu Space Technology Co.,Ltd.

Address before: 2209-c1, No. 19, Erquan East Road, Huizhi enterprise center, Xishan District, Wuxi City, Jiangsu Province, 214000

Patentee before: Wuxi yuspace Intelligent Technology Co.,Ltd.