CN116070714B - 基于联邦学习和神经架构搜索的云边协同训练方法及系统 - Google Patents
基于联邦学习和神经架构搜索的云边协同训练方法及系统 Download PDFInfo
- Publication number
- CN116070714B CN116070714B CN202310037397.0A CN202310037397A CN116070714B CN 116070714 B CN116070714 B CN 116070714B CN 202310037397 A CN202310037397 A CN 202310037397A CN 116070714 B CN116070714 B CN 116070714B
- Authority
- CN
- China
- Prior art keywords
- model
- network
- exit point
- training
- branch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 73
- 230000001537 neural effect Effects 0.000 title claims abstract description 25
- 238000012795 verification Methods 0.000 claims abstract description 36
- 230000006870 function Effects 0.000 claims abstract description 34
- 230000002787 reinforcement Effects 0.000 claims abstract description 11
- 230000004931 aggregating effect Effects 0.000 claims abstract description 8
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 7
- 238000006116 polymerization reaction Methods 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000006403 short-term memory Effects 0.000 claims description 3
- 230000007787 long-term memory Effects 0.000 claims description 2
- 238000010200 validation analysis Methods 0.000 abstract description 3
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000002776 aggregation Effects 0.000 description 5
- 238000004220 aggregation Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于联邦学习和神经架构搜索的云边协同训练方法及系统,包括:基于P个残差网络构建包含若干网络的搜索空间;收集图像构建包括训练集和验证集的样本集;基于策略梯度的强化学习方法对搜索空间中的网络进行训练得到优化网络,根据验证精度和模型大小设奖励函数选取最优子模型;中心服务器在最优子模型的每一层网络的后方添加分支分类网络作出口,形成含若干个分支模型的退出点模型;将分支模型分配给边缘设备训练得到退出点本地模型,中心服务器利用联邦学习对训练后的退出点本地模型聚合,以最小化总损失函数和最大化验证精度为目标对退出点模型更新。本发明通过选择适当的分支模型部署在不同边缘设备上,提高了模型可重用性。
Description
技术领域
本发明属于神经网络技术领域,具体涉及一种基于联邦学习和神经架构搜索的云边协同训练方法及系统。
背景技术
近年来,随着边缘计算的发展,深度神经网络被部署在不同的边缘设备上,然而由于边缘设备的异构性,需要设计一系列模型结构。为了实现设计的自动化,一些方法使用神经架构搜索(Neural Architecture Search,NAS)方法构建模型,从而减少了人力和计算资源。为了保护数据隐私,联邦学习(Federated Learning,FL)可以在不泄漏数据的情况下对边缘环境中的模型进行协同训练。但是将神经架构搜索和联邦学习相结合的方案还处于起步阶段,在集中的搜索过程结合云边协同的训练过程中会出现一些技术问题。比如:不同设备上的模型是异构的,传统的联邦学习只能聚合相同结构的模型,针对结构不同的模型没有特定的聚合策略。
针对上述问题,利用基于联邦学习的神经架构搜索方法,自动搜索多退出模型,为设备提供异构的模型,并针对异构模型设计协同训练的聚合策略,为边缘场景中实现异构、高效、可复用的训练框架提供有效的解决方案亟待解决。
发明内容
针对以上问题,本发明提出了一种基于联邦学习和神经架构搜索的云边协同训练方法及系统。为解决以上技术问题,本发明所采用的技术方案如下:
一种基于联邦学习和神经架构搜索的云边协同训练方法,包括如下步骤:
S1,基于P个残差网络构建包含若干个网络的搜索空间,且P≥2;
S2,收集图像数据构建样本集,将所述样本集划分为训练集和验证集;
S3,采用基于策略梯度的强化学习方法利用训练集对搜索空间中的网络进行训练得到优化网络,根据验证集精度和模型大小设定奖励函数,选取奖励函数最高的网络作为最优子模型;
S4,中心服务器在最优子模型的每一层网络的后方均添加分支分类网络作为出口,并添加输入层和输出层形成包括若干个分支模型的退出点模型;
S5,将步骤S4中退出点模型的分支模型分配给边缘设备进行训练得到退出点本地模型,中心服务器利用联邦学习方法对训练后的退出点本地模型进行聚合,并以最小化总损失函数和最大化验证精度为目标对中心服务器中的退出点模型进行更新。
所述步骤S1包括如下步骤:
S1.1,选取P个残差网络,对每个残差网络分别进行裁剪按照网络层将裁剪后的残差块对应存储在每层的残差块池中;
S1.2,分别从每个残差块池中随机选择一个残差块组成对应的网络层;
S1.3,对步骤S1.2得到的网络层进行连接形成包含个网络的搜索空间,其中,N表示残差块池中候选残差块的数目,L表示残差块池的数目。
所述步骤S3包括如下步骤:
S3.1,基于长短期记忆网络建立控制器;
S3.2,利用控制器从步骤S1建立的搜索空间中随机选取网络,采用策略梯度的强化学习方法基于训练集数据对选取出的网络进行训练得到优化网络;
S3.3,利用验证集数据对优化网络进行测试,基于验证精度和模型大小计算奖励函数,选取奖励函数最大的网络作为最优子模型。
所述奖励函数的计算公式为:
式中,Acc(h,ε)表示共享参数为ε的优化网络h在验证集上的验证精度,P表示基线网络的参数,ph表示优化网络h的参数量,R(h,ε)表示共享参数为ε的优化网络h的奖励函数,β为正整数。
所述步骤S5包括如下步骤:
S5.1,设置聚合总轮次T,初始化聚合轮数t=1;
S5.2,将步骤S4中退出点模型的分支模型随机分配给所有边缘设备,边缘设备利用本地数据对分支模型进行训练得到退出点本地子模型;
S5.3,所有边缘设备分别将各自的退出点本地模型的模型参数发送给中心服务器,中心服务器利用联邦学习方法对所有模型参数进行聚合得到退出点更新模型Mt;
S5.4,将验证集数据输入退出点更新模型Mt,判断t<T,若是,执行t=t+1,返回步骤S5.2,否则,执行步骤S5.5;
S5.5,以模型总损失最小化和模型准确度最大化为目标选取最优退出点更新模型对中心服务器中的退出点模型进行更新。
所述模型总损失的计算公式为:
式中,λi表示第i个出口的权重,表示第i个出口处分支模型输出值的准确性,ωi表示从输入层到第i个出口的参数,L表示搜索空间的层数。
所述第i个出口处分支模型输出值的准确性的计算公式为:
式中,zi表示第i个出口处分支模型的输出值,V表示图像数据中的类别总数,zj表示第j个出口处分支模型的输出值。
一种基于联邦学习和神经架构搜索的云边协同训练系统,包括中心服务器和若干个边缘设备,所述中心服务器上设有:
搜索空间建立模块:用于基于P个残差网络构建包括若干个网络的搜索空间,且P≥2;
样本收集模块:用于收集图像样本并构建训练集和验证集,并将训练集和验证集发送给子模型建立模块和退出点模型优化模块;
子模型建立模块:用于利用训练集基于略梯度的强化学习方法对搜索空间建立模块的搜索空间中的网络进行训练,根据奖励函数选取训练后的网络作为最优子模型,并将最优子模型发送给退出点模型建立模块,所述奖励函数基于验证集精度和模型大小设定;
退出点模型建立模块:用于接收最优子模型,在最优子模型的最前方和最后方分别添加输入层和输出层,并在最优子模型的每一层网络的后方均添加分支分类网络作为出口,形成包括若干个分支模型的退出点模型,将分支模型发送给边缘设备;
退出点模型优化模块:用于接收每个边缘设备所发送的退出点本地模型的模型参数,利用联邦学习方法对退出点本地模型的模型参数进行聚合,以最小化总损失函数和最大化验证精度为目标获取最优退出点模型;
所述每个边缘设备上均设有:
本地模型训练模块:用于接收分支模型,并基于本地数据进行训练生成退出点本地模型,并将退出点本地模型的模型参数发送给中心服务器。
本发明的有益效果:
使用神经架构搜索结合联邦学习的方法,实现在边缘环境中搜索和训练神经网络,实现了模型推理精度和模型压缩比例的权衡,可以为每个边缘设备提供定制的轻量级模型;是一种可以搜索具有不同规模分支的多出口模型的方案,通过选择适当的分支部署在每种类型的边缘设备上,提高了模型的可重用性,并节省了内存空间;通过在边缘设备上聚合不同结构模型的相同残差块来保证分支网络的协作训练,实现了一种新的聚合策略。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为多退出点模型示意图。
图2为模型聚合示意图。
图3为不同深度神经网络的精度对比示意图。
图4为不同深度神经网络的分支模型的精度对比示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于联邦学习和神经架构搜索的云边协同训练方法,如图1所示,包括:
S1,基于P个残差网络构建包含若干个网络的搜索空间,且P≥2,包括如下步骤:
S1.1,选取P个残差网络,对每个残差网络分别进行裁剪按照网络层将裁剪后的残差块对应存储在每层的残差块池中;
所述残差网络包括ResNet、ResNeXt、Res2Net,且每个残差网络均为L层。将裁剪后的每个残差网络的第1层的残差块放置到搜索空间所对应的第一层的残差块池中,同样的每一层对应放置,便形成了L个残差块池,构成了L层的搜索空间,每个残差块池中的残差块均作为后期对应网络层的候选残差块。所有候选残差块的总数为N,N=n*L,n表示每一层的候选残差块数也即残差网络的数目,L为正整数。
S1.2,分别从每个残差块池中随机选择一个残差块组成对应的网络层;
S1.3,对步骤S1.2得到的网络层进行连接形成包含个网络的搜索空间;
在对网络层进行连接也即考虑这一层的残差块连接到前面层的哪个块时,可以选择相邻连接或者跨块连接,两种选择均为独立的,因此,可以得到网络。所述跨块连接表示将该残差块连接到不相邻的残差块,相邻连接表示相邻层的残差块之间进行连接。
S2,收集图像数据构建样本集,将所述样本集划分为训练集和验证集;
本申请可以应用在智慧城市领域,比如有很多互联网智能设备如智能汽车行驶时需执行物体检测和分类任务,观测城市车辆、人流,或者也可以应用在电网,智能机器人和固定摄像装置对变电站的电力设备进行实时图像监控。可以将本申请应用在这些智能设备上,致力于智慧城市的建设。
数据集使用开源的CIFAR10、MNIST、EMNIST三种,第一种是CIFAR10,其中包含了50K张训练图像和10K张测试图像,总共10个类别。使用标准的数据预处理和增强技术对图像进行处理,即减去通道平均值和划分通道标准差,将训练图像集中填充为40×40,并随机裁剪为32×32,然后进行随机水平翻转。第二种是MNIST手写数字数据集,其中包含了60k张训练图像和10k张测试图像,总共10个类别。第三种是EMNIST,共有47类数据,包括数字和大小写字母,数字类中有24k张训练图像,4k张测试图像,字母类中有2.4k张训练图像,0.4k张测试图像。
S3,采用基于策略梯度的强化学习方法利用训练集对搜索空间中的网络进行训练得到优化网络,根据验证集精度和模型大小设定奖励函数,选取奖励函数最高的网络作为最优子模型,包括如下步骤:
S3.1,基于长短期记忆网络(Long Short-Term Memory,LSTM)建立控制器;
S3.2,利用控制器从步骤S1建立的搜索空间中随机选取网络,采用策略梯度的强化学习方法基于训练集数据对选取出的网络进行训练得到优化网络;
S3.3,利用验证集数据对训练后的网络也即优化网络进行测试,基于验证精度和模型大小计算奖励函数,选取奖励函数最大的网络作为最优子模型;
所述奖励函数的计算公式为:
式中,Acc(h,ε)表示共享参数为ε的优化网络h在验证集上的验证精度,P表示基线网络的参数,ph表示优化网络h的参数量,R(h,ε)表示共享参数为ε的优化网络h的奖励,表示可以保证搜索到的网络模型的大小在基线网络的大小的β倍左右,从而得到轻量化的子模型。本实施例中,可以选取ResNet34作为基线网络。
在搜索策略的选择上,本申请使用了基于策略梯度的强化学习算法,最大化奖励的期望值,然后使用梯度上升算法进行计算,其中包括:状态空间S,动作空间A,奖励函数R和行动选择的参数化策略πθ,即:πθ(s,a)=P[a|s,θ],其中,P根据每个行动的概率选择下一个行动。对于状态作用中的任意轨迹s1,a1,s2,a2,...,st,at满足马尔可夫性质:πθ(st+1|s1,a1,...st,at)=πθ(st+1|st,at),且S×A→R。同时,在训练过程中,需要更新两组参数共享参数也即权重和控制器参数,具体的更新方法为现有技术,见基于神经架构搜索的轻量级多退出点模型的建立方法(专利申请号:202210423171X,公开日:2022.8.5),本实施例不再赘述。
S4,中心服务器在步骤S3得到的最优子模型的每一层网络的后方均添加分支分类网络作为出口,之后在最优子模型的最前方添加输入层,并在最优子模型的最后方添加输出层形成包括若干个分支模型的退出点模型;
所述退出点模型包括主干网络fm也即最优子模型和多个分支分类器fc,主干网络是最长的,通过添加分支分类器可以形成多个分支模型,便于后期选择适当的分支模型部署在边缘设备上进行训练。每个分支分类器均包括至少两个依次连接的全连接层,且所有分支分类器的结构相同。从退出点模型的输入,根据出口的位置和数量,通过中间层,可以得到多个异构的分支模型,以满足不同边缘设备的需求。经由输入层到达第一个出口的网络构成第一个分支模型,同理,下一个出口网络构成第二分支模型,因此,共有L个分支模型。若分支模型的层数较少,则模型的网络参数的个数也较少。
由于不同的设备可以承载不同的模型大小,并且不同的任务需要不同的模型大小和性能,因此不能将分支网络模型随机部署到不同的设备,需要综合考虑设备的计算能力、内存空间等因素,选择合适的分支模型或分支模型的组合部署在设备上进行训练。
S5,将步骤S4中退出点模型的分支模型分配给边缘设备进行训练得到退出点本地模型,中心服务器利用联邦学习方法对训练后的退出点本地模型进行聚合,并以最小化总损失函数和最大化验证精度为目标对中心服务器中的退出点模型进行更新,包括如下步骤:
S5.1,设置聚合总轮次T,初始化聚合轮数t=1;
S5.2,将步骤S4中退出点模型的分支模型随机分配给所有边缘设备,边缘设备利用本地数据对分支模型进行训练得到退出点本地子模型;
退出点模型形成了若干条分支网络且i≥1,M表示退出点模型,将这些分支模型分配给不同的边缘设备进行协同训练,每一个边缘设备Ck上拥有的数据表示为Dk,即为本地数据,k=1,2,…K,K表示边缘设备的总数,边缘设备再利用本地数据进行训练。
对于每一个边缘设备上的本地模型fk,其包括B个残差块以及一个出口,其中B≤L。采用b表示每一个残差块的索引,用表示在第Ck个边缘设备上的第t轮次时第b个残差块的参数。则本地更新参数的过程被表述为:/>其中,b=1,2,…,B。
S5.3,所有边缘设备分别将各自的退出点本地模型的模型参数发送给中心服务器,中心服务器利用联邦学习方法对所有模型参数进行聚合得到退出点更新模型Mt;
如图2所示,假设退出点模型所拥有的残差块为{B0,B1,B2,B3},边缘设备的数目为两个,两个边缘设备上本地训练的模型所拥有的残差块分别为{B0,B1,B2}和{B0,B1},则聚合的过程分为以下步骤:每个边缘设备接收中心服务器所发送的模型参数;不同的边缘设备分别利用本地数据集进行训练,以对本地模型参数进行更新;将更新后的模型参数上传至中心服务器;中心服务器通过加权平均的方式对接收到的模型参数进行聚合。使用联邦学习实现在广泛的设备上的分布式训练,可以不需要本地数据共享,从而保护数据隐私。
S5.4,将验证集数据输入退出点更新模型Mt,判断t<T,若是,执行t=t+1,返回步骤S5.2,否则,执行步骤S5.5;
S5.5,以模型总损失最小化和模型准确度最大化为目标选取最优退出点更新模型对中心服务器中的退出点模型进行更新;
总损失是所有出口损失的加权和,所述模型总损失的计算公式为:
式中,λi表示第i个出口的权重,表示第i个出口处分支模型输出值的准确性,ωi表示从输入层到第i个出口的参数,/>表示第i个出口处分支模型所对应的损失函数。
第i个出口处分支模型输出值的准确性的计算公式为:
式中,zi表示第i个出口处分支模型的输出值,V表示图像数据中的类别总数,zj表示第j个出口处分支模型的输出值。
所述模型准确度最大化的表达式为:
式中,ACCval(M,η)表示退出点模型M在验证集上的准确性也即模型预测正确的样本总数除以总样本数的值,Losstrain(fi,ωi)表示分支模型fi在训练集上的损失函数,η表示退出点模型M的模型参数。
聚合后的退出点更新模型具有多个早期出口,针对提前退出策略,如公式(4)所示使用Softmax分类器的输出值来估计每一个分支模型给定输入的准确性。同时为退出点模型中的每一个出口设置一个出口阈值,当模型准确度低于出口阈值时,则从此出口退出,否则就会进行到下一个出口继续判断。
下面阐述进行边缘环境异构设备上的模型搜索和训练的必要性:边缘设备由于其执行任务不同,因而属性也有很大差异,相应性能的差异也是显著的,如计算能力、能耗、内存等,这些因素都会影响设备的推理效果,因而需要根据设备的特点选择不同的模型进行部署。同时,由于边缘环境数据的隐私性,需要各种设备上的模型进行协同训练,以便设备根据数据以及执行任务的特点训练合适的模型,从而保证异构、高效、可复用的训练框架。
图3给出了本申请和传统深度神经网络在图像分类数据集上的训练过程对比图,其中,ENASFL表示本申请,ResNet34_FL表示采用ResNet34模型进行联邦训练,ResNeXt50_FL表示采用ResNeXt50进行联邦训练,Res2Net50_FL表示采用Res2Net50进行联邦训练,可以看出,本申请得到的模型在保证精度的同时,收敛速度更快。图4给出了每个分支模型的训练精度,说明了本申请不仅整体精度高,而且每个分支也优于其他模型,因此可以更好地适应边缘环境中不同设备的需求。
本申请实施例还提供了一种基于联邦学习和神经架构搜索的云边协同训练系统,包括中心服务器和若干个边缘设备,且每个边缘设备均与中心服务器相连接,所述中心服务器上设有:
搜索空间建立模块:用于基于P个残差网络构建包括若干个网络的搜索空间,且P≥2;
样本收集模块:用于收集图像样本并构建训练集和验证集,并将训练集和验证集发送给子模型建立模块和退出点模型优化模块;
子模型建立模块:用于利用训练集基于略梯度的强化学习方法对接收的搜索空间建立模块的搜索空间中的网络进行训练,根据奖励函数选取训练后的网络作为最优子模型,并将最优子模型发送给退出点模型建立模块,所述奖励函数基于验证集精度和模型大小设定;
退出点模型建立模块:用于接收最优子模型,在最优子模型的最前方和最后方分别添加输入层和输出层,并在最优子模型的每一层网络的后方均添加分支分类网络作为出口,形成包括若干个分支模型的退出点模型,将分支模型发送给边缘设备;
退出点模型优化模块:用于接收每个边缘设备所发送的退出点本地模型的模型参数,利用联邦学习方法对退出点本地模型的模型参数进行聚合,以最小化总损失函数和最大化验证精度为目标获取最优退出点模型;
所述每个边缘设备上均设有:
本地模型训练模块:用于接收中心服务器的退出点模型建立模块所发送的分支模型,并基于本地数据进行训练生成退出点本地模型,并将退出点本地模型的模型参数发送给中心服务器的退出点模型优化模块。
本申请实施例还提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器存储有计算机程序,计算机程序被处理器调用时,执行如上所述的基于联邦学习和神经架构搜索的云边协同训练方法。
本申请实施例还提供了一种计算机可读存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器调用时,执行如上所述的基于联邦学习和神经架构搜索的云边协同训练方法。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,包括如下步骤:
S1,基于P个残差网络构建包含若干个网络的搜索空间,且P≥2;
S2,收集图像数据构建样本集,将所述样本集划分为训练集和验证集;
S3,采用基于策略梯度的强化学习方法利用训练集对搜索空间中的网络进行训练得到优化网络,根据验证集精度和模型大小设定奖励函数,选取奖励函数最高的网络作为最优子模型;
S4,中心服务器在最优子模型的每一层网络的后方均添加分支分类网络作为出口,并添加输入层和输出层形成包括若干个分支模型的退出点模型;
S5,将步骤S4中退出点模型的分支模型分配给边缘设备进行训练得到退出点本地模型,中心服务器利用联邦学习方法对训练后的退出点本地模型进行聚合,并以最小化总损失函数和最大化验证精度为目标对中心服务器中的退出点模型进行更新。
2.根据权利要求1所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述步骤S1包括如下步骤:
S1.1,选取P个残差网络,对每个残差网络分别进行裁剪按照网络层将裁剪后的残差块对应存储在每层的残差块池中;
S1.2,分别从每个残差块池中随机选择一个残差块组成对应的网络层;
S1.3,对步骤S1.2得到的网络层进行连接形成包含个网络的搜索空间,其中,N表示残差块池中候选残差块的数目,L表示残差块池的数目。
3.根据权利要求1所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述步骤S3包括如下步骤:
S3.1,基于长短期记忆网络建立控制器;
S3.2,利用控制器从步骤S1建立的搜索空间中随机选取网络,采用策略梯度的强化学习方法基于训练集数据对选取出的网络进行训练得到优化网络;
S3.3,利用验证集数据对优化网络进行测试,基于验证精度和模型大小计算奖励函数,选取奖励函数最大的网络作为最优子模型。
4.根据权利要求3所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述奖励函数的计算公式为:
式中,Acc(h,ε)表示共享参数为ε的优化网络h在验证集上的验证精度,P表示基线网络的参数,ph表示优化网络h的参数量,R(h,ε)表示共享参数为ε的优化网络h的奖励函数,β为正整数。
5.根据权利要求1所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述步骤S5包括如下步骤:
S5.1,设置聚合总轮次T,初始化聚合轮数t=1;
S5.2,将步骤S4中退出点模型的分支模型随机分配给所有边缘设备,边缘设备利用本地数据对分支模型进行训练得到退出点本地子模型;
S5.3,所有边缘设备分别将各自的退出点本地模型的模型参数发送给中心服务器,中心服务器利用联邦学习方法对所有模型参数进行聚合得到退出点更新模型Mt;
S5.4,将验证集数据输入退出点更新模型Mt,判断t<T,若是,执行t=t+1,返回步骤S5.2,否则,执行步骤S5.5;
S5.5,以模型总损失最小化和模型准确度最大化为目标选取最优退出点更新模型对中心服务器中的退出点模型进行更新。
6.根据权利要求5所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述模型总损失的计算公式为:
式中,λi表示第i个出口的权重,表示第i个出口处分支模型输出值的准确性,ωi表示从输入层到第i个出口的参数,L表示搜索空间的层数。
7.根据权利要求6所述的基于联邦学习和神经架构搜索的云边协同训练方法,其特征在于,所述第i个出口处分支模型输出值的准确性的计算公式为:
式中,zi表示第i个出口处分支模型的输出值,V表示图像数据中的类别总数,zj表示第j个出口处分支模型的输出值。
8.一种基于联邦学习和神经架构搜索的云边协同训练系统,包括边缘设备和中心服务器,其特征在于,所述中心服务器上设有:
搜索空间建立模块:用于基于P个残差网络构建包括若干个网络的搜索空间,且P≥2;
样本收集模块:用于收集图像样本并构建训练集和验证集,并将训练集和验证集发送给子模型建立模块和退出点模型优化模块;
子模型建立模块:用于利用训练集基于略梯度的强化学习方法对搜索空间建立模块的搜索空间中的网络进行训练,根据奖励函数选取训练后的网络作为最优子模型,并将最优子模型发送给退出点模型建立模块,所述奖励函数基于验证集精度和模型大小设定;
退出点模型建立模块:用于接收最优子模型,在最优子模型的最前方和最后方分别添加输入层和输出层,并在最优子模型的每一层网络的后方均添加分支分类网络作为出口,形成包括若干个分支模型的退出点模型,将分支模型发送给边缘设备;
退出点模型优化模块:用于接收每个边缘设备所发送的退出点本地模型的模型参数,利用联邦学习方法对退出点本地模型的模型参数进行聚合,以最小化总损失函数和最大化验证精度为目标获取最优退出点模型;
所述每个边缘设备上均设有:
本地模型训练模块:用于接收分支模型,并基于本地数据进行训练生成退出点本地模型,并将退出点本地模型的模型参数发送给中心服务器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310037397.0A CN116070714B (zh) | 2023-01-10 | 2023-01-10 | 基于联邦学习和神经架构搜索的云边协同训练方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310037397.0A CN116070714B (zh) | 2023-01-10 | 2023-01-10 | 基于联邦学习和神经架构搜索的云边协同训练方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116070714A CN116070714A (zh) | 2023-05-05 |
CN116070714B true CN116070714B (zh) | 2024-03-08 |
Family
ID=86172796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310037397.0A Active CN116070714B (zh) | 2023-01-10 | 2023-01-10 | 基于联邦学习和神经架构搜索的云边协同训练方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116070714B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344221A (zh) * | 2021-05-10 | 2021-09-03 | 上海大学 | 一种基于神经网络架构搜索的联邦学习方法及系统 |
WO2022068934A1 (en) * | 2020-09-30 | 2022-04-07 | Huawei Technologies Co., Ltd. | Method of neural architecture search using continuous action reinforcement learning |
CN114638357A (zh) * | 2022-02-28 | 2022-06-17 | 厦门大学 | 基于自动联邦学习的边缘计算系统及其学习方法 |
CN114861906A (zh) * | 2022-04-21 | 2022-08-05 | 天津大学 | 基于神经架构搜索的轻量级多退出点模型的建立方法 |
CN114882335A (zh) * | 2022-05-05 | 2022-08-09 | 河北工业大学 | 基于联邦学习框架面向感算云一体化的智能图像传感装置 |
CN115081639A (zh) * | 2022-05-30 | 2022-09-20 | 广州大学 | 一种面向边缘工业物联网的联邦学习方法 |
CN115277689A (zh) * | 2022-04-29 | 2022-11-01 | 国网天津市电力公司 | 一种基于分布式联邦学习的云边网络通信优化方法及系统 |
WO2022268203A1 (zh) * | 2021-06-24 | 2022-12-29 | 华为技术有限公司 | 用于生成神经网络模型的方法、装置、系统、设备、介质和程序产品 |
-
2023
- 2023-01-10 CN CN202310037397.0A patent/CN116070714B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022068934A1 (en) * | 2020-09-30 | 2022-04-07 | Huawei Technologies Co., Ltd. | Method of neural architecture search using continuous action reinforcement learning |
CN113344221A (zh) * | 2021-05-10 | 2021-09-03 | 上海大学 | 一种基于神经网络架构搜索的联邦学习方法及系统 |
WO2022268203A1 (zh) * | 2021-06-24 | 2022-12-29 | 华为技术有限公司 | 用于生成神经网络模型的方法、装置、系统、设备、介质和程序产品 |
CN114638357A (zh) * | 2022-02-28 | 2022-06-17 | 厦门大学 | 基于自动联邦学习的边缘计算系统及其学习方法 |
CN114861906A (zh) * | 2022-04-21 | 2022-08-05 | 天津大学 | 基于神经架构搜索的轻量级多退出点模型的建立方法 |
CN115277689A (zh) * | 2022-04-29 | 2022-11-01 | 国网天津市电力公司 | 一种基于分布式联邦学习的云边网络通信优化方法及系统 |
CN114882335A (zh) * | 2022-05-05 | 2022-08-09 | 河北工业大学 | 基于联邦学习框架面向感算云一体化的智能图像传感装置 |
CN115081639A (zh) * | 2022-05-30 | 2022-09-20 | 广州大学 | 一种面向边缘工业物联网的联邦学习方法 |
Non-Patent Citations (2)
Title |
---|
基于神经网络结构搜索的目标识别方法;卞伟伟;邱旭阳;申研;;空军工程大学学报(自然科学版);20200825(04);92-96 * |
深度学习技术和平台发展综述;于佃海;吴甜;;人工智能;20200610(03);5-16 * |
Also Published As
Publication number | Publication date |
---|---|
CN116070714A (zh) | 2023-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948029B (zh) | 基于神经网络自适应的深度哈希图像搜索方法 | |
Liang et al. | A novel wind speed prediction strategy based on Bi-LSTM, MOOFADA and transfer learning for centralized control centers | |
CN112631717B (zh) | 基于异步强化学习的网络服务功能链动态部署系统及方法 | |
CN114912705A (zh) | 一种联邦学习中异质模型融合的优化方法 | |
CN104636801A (zh) | 一种基于优化bp神经网络的预测输电线路可听噪声方法 | |
CN113762595B (zh) | 通行时间预测模型训练方法、通行时间预测方法及设备 | |
CN111242395B (zh) | 用于od数据的预测模型构建方法及装置 | |
CN112905801A (zh) | 基于事件图谱的行程预测方法、系统、设备及存储介质 | |
CN111242292A (zh) | 基于深度时空网络的od数据预测方法及系统 | |
CN111737826B (zh) | 一种基于增强学习的轨道交通自动仿真建模方法及装置 | |
CN109063759A (zh) | 一种应用于图片多属性预测的神经网络结构搜索方法 | |
Liu et al. | A method for short-term traffic flow forecasting based on GCN-LSTM | |
CN116244647A (zh) | 一种无人机集群的运行状态估计方法 | |
CN116345578A (zh) | 基于深度确定性策略梯度的微电网运行优化调度方法 | |
CN111507499B (zh) | 预测用模型的构建方法、测试方法、装置及系统 | |
CN116070714B (zh) | 基于联邦学习和神经架构搜索的云边协同训练方法及系统 | |
Gao et al. | Short-term traffic flow prediction based on time-Space characteristics | |
Ma et al. | Research and application of second-hand housing price prediction model based on LSTM | |
CN115630566B (zh) | 一种基于深度学习和动力约束的资料同化方法和系统 | |
CN116796821A (zh) | 面向3d目标检测算法的高效神经网络架构搜索方法及装置 | |
CN116822722A (zh) | 水位预测方法、系统、装置、电子设备及介质 | |
CN116167254A (zh) | 基于城市大数据的多维城市仿真推演方法和系统 | |
CN114065646B (zh) | 基于混合优化算法的能耗预测方法、云计算平台及系统 | |
CN113516163B (zh) | 基于网络剪枝的车辆分类模型压缩方法、装置及存储介质 | |
CN114881308A (zh) | 基于元学习的网联车辆速度预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |