发明内容
为解决以上现有技术存在的问题,本发明提出了一种基于声誉的物联网边云协同联邦学习节点选择方法,该方法包括:构建基于声誉的物联网边云协同FL体系架构;根据构建的基于声誉的物联网边云协同FL体系架构,根据构建的基于声誉的物联网边云协同FL体系架构采用基于多权重主观逻辑模型的声誉评分方法对节点进行选取,得到最优的节点;对节点进行选取包括:
S1:服务器节点发布联邦学习任务;边缘节点获取联邦学习任务后将包含身份信息和数据资源信息的加入联邦学习请求发送给服务器节点;
S2:服务器节点验证边缘节点的身份和数据资源信息,若边缘节点合法,则将该边缘节点作为执行联邦学习任务的边缘节点;若不合法,则该边缘节点请求失败;
S3:服务器节点采用基于多权重主观逻辑的声誉计算模型计算候选边缘节点的声誉值,根据计算出的声誉值选出执行联邦学习任务的边缘节点;
S4:服务器节点将全局模型的参数发送给选出执行联邦学习任务的边缘节点,边缘节点接收全局模型参数后采用SGD优化算法对边缘节点的本地模型进行训练更新,并将训练更新后的的本地模型参数发送给服务器;
S5:服务器节点根据训练更新后的的本地模型参数对该边缘节点进行评估,生成声誉意见,对声誉意见进行保存更新;服务器节点对经过评估可靠的边缘节点的本地模型参数进行聚合,生成一个新的全局模型,重复进行上述步骤,直至生成的全局模型参数达到预定义的收敛条件为止。
优选的,构建的基于声誉的物联网边云协同FL体系架构包括终端设备、微基站、宏基站和移动边缘计算服务器;其中将移动边缘计算服务作为服务器节点,终端设备、微基站和宏基站作为边缘节点。
优选的,采用基于多权重主观逻辑的声誉计算模型计算候选边缘节点的声誉值包括:服务器节点从其他服务器节点获取该候选边缘节点的声誉意见,该声誉意见为推荐声誉意见;服务器节点获取候选边缘节点的历史交互记录,采用多权重主观逻辑模型对历史交互记录进行处理,得到本地声誉意见;根据本地声誉意见和推荐声誉意见计算候选边缘节点的声誉。
进一步的,候选边缘节点的历史交互记录包括:交互效果、交互时延、交互频率以及交互新鲜度。
进一步的,采用多权重主观逻辑模型对历史交互记录进行处理包括:
S1:构建基于主观逻辑的声誉计算模型,在连续时间间隔{t1,…ty,…,tY}内,采用三元向量组表示服务器节点i对边缘节点j在时间段ty内的声誉评价,即:其中/>和/>分别表示中央服务器“相信”、“不相信”和“不确定”边缘节点模型更新质量可靠的程度,并满足以下约束条件:且/>根据三元向量组构建声誉计算模型;
S2:交互效果,包括积极交互行为和消极交互行为,若候选边缘节点为积极交互行为节点,则候选边缘节点声誉值高,若候选边缘节点为消极交互行为节点,则候选边缘节点的声誉值低;将积极交互和消极交互的权值分别表示为k和η,k≤η且η+k=1;根据积极交互和消极交互的权值构建交互效果的主观逻辑模型;
S3:交互时延,在时间段ty内获取交互次数,并设置交互时延权重,根据交互次数和交互时延权重构建交互时延的主观逻辑模型;
S4:交互频率,获取服务器节点与边缘节点交互的次数,根据获取的交互次数计算服务器在一个时间窗口内与其他边缘节点交互的平均次数;计算服务器节点与边缘节点交互的次数与服务器在一个时间窗口内与其他边缘节点交互的平均次数的比率,该比率为交互频率;根据交互频率构建交互频率的主观逻辑模型;
S5:交互新鲜度,定义时间衰减函数,根据时间衰减函数计算交互事件的新鲜程度,即θ(ty)=θy=zY-y,其中z为关于事件新鲜度的衰减参数,满足z∈(0,1);y表示事件新鲜度的淡出程度,满足y∈[1,Y],根据交互事件的新鲜程度计算服务器节点i对边缘节点j的声誉值。
进一步的,根据本地声誉意见和推荐声誉意见计算候选边缘节点的声誉的公式为:
其中,表示服务器节点对候选边缘节点的声誉值,/>表示服务器对边缘节点的信任度,γ表示不确定性对声誉的影响程度,/>表示服务器对边缘节点的不确定度。
优选的,根据计算出的声誉值选出执行联邦学习任务的边缘节点的过程包括:设置筛选条件,将计算出的边缘节点声誉值与设置的筛选条件进行对比,若满足筛选条件,则将该边缘节点作为执行联邦学习任务的边缘节点,否则取消该边缘节点;筛选条件为:
其中,表示服务器节点对候选边缘节点的声誉值,Rthreshold表示声誉阈值,Ti表示候选边缘节点的时延,Tthreshold表示时延阈值。
优选的,边缘节点采用SGD优化算法对全局模型进行训练更新的过程包括:
步骤1:中央服务器从预定义的范围中初始化全局模型参数;
步骤2:将全局模型参数下发给选定的边缘节点,边缘节点接收到全局模型参数后采用随机梯度下降算法使用自己的本地数据对当前全局模型进行更新训练,通过最小化FL任务的损失函数对当前全局模型的参数进行优化;
步骤3:边缘节点将优化更新后的本地模型参数上传到服务器;
步骤4:当上传的本地模型参数达到一定数量或者迭代次数N后,服务器节点对得到的本地模型参数执行全局模型聚合,得到新的全局模型;
步骤5:服务器节点将新的全局模型发送给选定的边缘节点,以便进行下一次模型迭代,直到满足工作任务的要求,达到预定义的收敛条件。
进一步的,对全局模型的权值进行聚合的表达式为:
其中,ωg表示当上传的本地模型达到一定数量或者迭代次数N后,宏基站处的MEC服务器将对得到的本地模型执行全局模型聚合,最终的权值聚合参数,ωg表示当前要训练的全局模型的权值参数,Zi表示与任务i相关的MEC服务器集合,Di表示与任务i相关的终端设备集合,|Hz,d|表示被MEC服务器z覆盖的终端设备d的数据集大小,ω′z,d表示终端设备d待上传的本地模型参数,ωz,d表示终端设备d当前要训练的本地模型的权值参数,d表示终端设备,|Hi|表示与FL任务i相关的总数据集大小。
优选的,预定义的收敛条件为:
其中,Ai表示测试准确率,i∈I表示联邦学习任务。
本发明的有益效果:
本发明考虑异构结点的训练质量和效率,筛选恶意节点,在提升联邦学习模型准确率的同时,优化训练时延;首先,根据联邦学习中模型分布式训练的特点,构建基于声誉的物联网边云协同FL体系架构,实现恶意节点的筛查和异构设备节点的选择;其次,引入声誉作为衡量设备节点的可靠性和可信度的指标,根据历史交互记录,利用多权重主观逻辑模型来计算每个参与节点的声誉值,提高了联邦学习的准确率和训练速度,且具有良好的适用性和健壮性。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于声誉的物联网边云协同联邦学习节点选择方法,该方法包括:构建基于声誉的物联网边云协同FL体系架构;根据构建的基于声誉的物联网边云协同FL体系架构;根据构建的基于声誉的物联网边云协同FL体系架构采用基于多权重主观逻辑模型的声誉评分方法对节点进行选取,得到最优的节点;对节点进行选取包括:
S1:服务器节点发布联邦学习任务;边缘节点获取联邦学习任务后将包含身份信息和数据资源信息的加入联邦学习请求发送给服务器节点;
S2:服务器节点验证边缘节点的身份和数据资源信息,若边缘节点合法,则将该边缘节点作为执行联邦学习任务的边缘节点;若不合法,则该边缘节点请求失败;
S3:服务器节点采用基于多权重主观逻辑的声誉计算模型计算候选边缘节点的声誉值,根据计算出的声誉值选出执行联邦学习任务的边缘节点;
S4:服务器节点将全局模型的参数发送给选出执行联邦学习任务的边缘节点,边缘节点接收全局模型参数后采用SGD优化算法对边缘节点的本地模型进行训练更新,并将训练更新后的的本地模型参数发送给服务器;
S5:服务器节点根据训练更新后的的本地模型参数对该边缘节点进行评估,生成声誉意见,对声誉意见进行保存更新;服务器节点对经过评估可靠的边缘节点的本地模型参数进行聚合,生成一个新的全局模型,重复进行上述步骤,直至生成的全局模型参数达到预定义的收敛条件为止。
预定义的收敛条件为:
其中,Ai表示测试准确率,i∈I表示联邦学习任务。
面向生态环境检测的物联网边云协同FL体系包括生态环境监测统一数据平台、数据预处理服务处(端设备或边缘节点)、业务应用、采集及感知终端等多个部分,并基于云网融合、物联网等技术连接各监测节点。其中,数据预处理服务处是部署在距离生产设备较近且以数据中心为核心的轻量级分布式开放平台,存储所在检测站点最完整的信息,集成异构数据,打破信息孤岛,为生态环境检测各项业务应用及业务间的协同提供支撑。同时统一数据平台在数据源头开展数据质量治理,为生态环境监测提供稳定可靠的高质量数据,为关键业务应用提供支撑。具体处理过程为:终端设备感知并获取原始数据,将数据传递至数据预处理服务处(端设备或边缘节点),数据预处理服务根据数据类型及其处理要求开展预处理操作,并生成符合目标的高质量数据,进一步传递至边缘节点或云数据中心,供后续上层数据处理平台(统一数据平台)使用。面向生态环境监测边云协同FL体系架构图如图1所示。
如图1所示,构建的基于声誉的物联网边云协同FL体系架构包括终端设备、微基站、宏基站和移动边缘计算服务器;其中将移动边缘计算服务作为服务器节点,终端设备、微基站和宏基站作为边缘节点。具体的,网络由终端设备、微基站、宏基站和对应的移动边缘计算(MEC,Mobile Edge Computing)服务器组成。宏基站内的MEC服务器具有强大的计算和通信资源。令Z表示微基站内MEC服务器集合,每一个MEC服务器z∈Z具有一定的计算能力,并通过与其相连的基站来覆盖数个终端设备。终端设备的集合用D表示,令Hz,d={xz,d,yz,d}表示被MEC服务器z覆盖的终端d的数据集。针对路径选择、图像识别等学习任务i∈I,其目的是从终端设备的数据集合Hz,d={xz,d,yz,d}中学习与任务相关的模型O。本文定义FL任务i为其中Zi和Di分别表示与任务i相关的MEC服务器和终端设备的集合,Ci为该FL模型计算数据集中一组数据所需的CPU周期数,/>为该FL的初始模型。
采用基于多权重主观逻辑的声誉计算模型计算候选边缘节点的声誉值包括:服务器节点从其他服务器节点获取该候选边缘节点的声誉意见,该声誉意见为推荐声誉意见;服务器节点获取候选边缘节点的历史交互记录,采用多权重主观逻辑模型对历史交互记录进行处理,得到本地声誉意见;根据本地声誉意见和推荐声誉意见计算候选边缘节点的声誉。
基于主观逻辑的声誉计算模型包括:在连续时间间隔{t1,…ty,…,tY}内,服务器节点i对边缘节点j在时间段ty(例如60分钟)内的声誉评价可以用一个三元向量组表示:其中/>和/>分别表示中央服务器“相信”、“不相信”和“不确定”边缘节点模型更新质量可靠的程度,并满足以下约束条件:且/>可得到如下主观逻辑模型:
其中,表示在ty时间内积极(消极)交互数量的多少。如果服务器节点认为边缘节点提供的本地模型更新是有用的、可信的或可靠的,则服务器节点将自己和边缘节点之间的迭代训练视为“积极”的交互事件,可以使用第三节所提出的质量评估方案进行验证,反之亦然;/>表示数据包传输成功的概率,即通信质量,影响声誉意见的不确定性。根据声誉意见向量/> 在时间段ty中,服务器节点i对边缘节点j的直接声誉值表示为:
其中γ∈[0,1]代表了不确定性对声誉的影响程度。
候选边缘节点的历史交互记录包括:交互效果、交互时延、交互频率以及交互新鲜度。
交互效果:包括积极交互行为和消极交互行为,若候选边缘节点为积极交互行为节点,则候选边缘节点声誉值高,若候选边缘节点为消极交互行为节点,则候选边缘节点的声誉值低。具体的,过本地模型更新的质量评价,交互事件分为积极交互行为和消极交互行为两种互动结果,积极交互增加了工作候选者的声誉,反之亦然。为了抑制消极互动事件的发生,消极互动在声誉计算中的权重高于积极互动。将积极交互和消极交互的权值分别表示为k和η。k≤η且η+k=1;交互效果的主观逻辑模型:
其中,表示数据包传输成功的概率,k表示积极交互的权重参数,/>表示在ty时间内积极交互数量的多少,η表示消极交互的权重参数,/>表示在ty时间内消极交互数量的多少。
交互时延:联邦学习通常遵循一个同步设置,在培训期间有固定的可用数据,中央服务器在指定的时间间隔内接收到来自所有本地客户端的更新后进行聚合。然而由于网络的限制,移动设备可能经常离线或通信带宽不足,或是因为本地设备计算能力差、训练速度慢等原因,导致边缘节点不能在预定的时间范围内将模型更新上传至中央服务器产生“滞后效应”,这种情况会对边缘节点的声誉带来负面的影响,因此在指定时间延时内按时提交更新的边缘设备具有更好的声誉。交互时延的主观逻辑模型为:
其中,表示在ty时间内按时交互次数的多少,λ、μ为各自所占权重。
交互频率:交互频率表示服务器节点和边缘节点之间的熟悉程度,基于服务器节点与边缘节点交互的次数与服务器在一个时间窗口内与其他边缘节点交互的平均次数的比率来表示,更高的互动频率会为服务器节点带来更多关于边缘节点的先验知识,从而为边缘节点带来更充分的直接声誉意见。交互频率的主观逻辑模型为:
其中,Si表示在指定时间间隔内节点i所有的交互记录,表示在一个时间窗口服务器i内与其他边缘节点交互的平均次数,Ni→j表示在一个时间窗口内服务器i与边缘节点j交互的次数,/>表示在ty时间内积极交互数量的多少,/>表示在ty时间内消极交互数量的多少。
交互新鲜度:边缘节点的可信度随着时间的变化而变化,在服务器节点和边缘节点的交互过程中,边缘节点并不总是可信的或可靠的。最近的交互事件具有更大的新鲜度,在计算声誉的过程中应比过去的交互事件占有更大的权重。为了反映时间对声誉的影响程度,定义时间衰减函数来说明交互事件的新鲜程度:θ(ty)=θy=zY-y,其中z为关于事件新鲜度的衰减参数,满足z∈(0,1)。y表示事件新鲜度的淡出程度,满足y∈[1,Y]。因此在一个时间窗口中,服务器节点i对边缘节点j的声誉值为:
其中,表示在时间间隔ty内,中央服务器i相信边缘节点j模型更新质量可靠的程度,ty表示某一时间间隔,Y表示事件新鲜度淡出的最大程度,θy表示交互事件的新鲜程度,/>表示在时间间隔ty内,中央服务器i不相信边缘节点j模型更新质量可靠的程度,表示在时间间隔ty内,中央服务器i不确定边缘节点j模型更新质量是否可靠的程度,Ri→j表示本地声誉意见(即:服务器节点i对边缘节点j的直接声誉意见)。
对于服务器节点,来自其他服务器节点的本地声誉意见被视为推荐意见:在计算一个工作候选人的综合声誉值时,服务器节点不仅会考虑自己本地的声誉意见,还会考虑整体的推荐意见。服务器节点对边缘节点的综合声誉可以表示为包含最终信任度、最终不信任度和最终不确定度三个要素的最终声誉意见向量,即/>
最终的声誉为vi对于vj为:
其中,表示最终信任度,bi→j表示直接信任度,/>表示推荐不确定度,表示推荐信任度,ui→j表示直接不确定度,/>表示最终不信任度,di→j表示直接不信任度,/>表示推荐不信任度,/>表示最终不确定度,γ表示不确定度对声誉意见的影响程度。
通过以上步骤的声誉计算,服务器节点可以选择精度高、数据可靠的高声誉工作候选人作为联邦学习任务的边缘节点。这些高声誉的员工将诚实地进行本地训练,并在联邦学习任务中保持良好的行为,从而为系统做出更大的贡献。因此基于声誉的联邦学习边缘节点的选择方案可以防止有意或者无意的数据提供者上传不可靠的本地模型更新,从而保证边缘计算中联邦学习的可靠性。
根据计算出的声誉值选出执行联邦学习任务的边缘节点的过程包括:设置筛选条件,将计算出的边缘节点声誉值与设置的筛选条件进行对比,若满足筛选条件,则将该边缘节点作为执行联邦学习任务的边缘节点,否则取消该边缘节点;筛选条件为:
其中,表示服务器节点对候选边缘节点的声誉值,Rthreshold表示声誉阈值,Ti表示候选边缘节点的时延,Tthreshold表示时延阈值。
具体的,设备结点的选择受诸多因素影响。首先,终端设备差异化的计算和通信能力直接影响本地训练和数据传输时延。其次,终端设备上携带的数据集大小不同,数据也可能被恶意篡改,这使得本地模型的训练质量存在差异。因此,本文构建了面向节点选择的准确率最优问题模型。
准确率:对于一个FL任务i∈I,其训练质量定义为聚合后的全局模型在测试数据集上的测试准确率,本文使用测试数据集的损失函数之和表示测试准确率,即:
Ai=Li(xtest,ytest;ωg)
其中,Ai表示测试准确率,Li表示损失函数,(xtestytest)表示测试数据集,ωg表示聚合后的全局模型参数。
时延:FL每一次模型聚合的总时延包括数据在终端设备上的训练时延和在链路上的传输时延。FL任务i的参数数据在终端设备与微基站、微基站与宏基站间传输速率可分别表示为:
其中,Bd和Bz分别表示设备与微基站、微基站与宏基站之间的可用带宽,Gd和Gz表示信道增益,pd和pz表示设备和微基站的发射功率,N0表示噪声功率谱密度。
设备将本地参数上传至模型汇聚器的总传输时间为:
其中,|ω′z,d|表示终端设备d待上传的本地模型参数大小。终端设备的计算时延可以表示为:
其中,|Hz,d|Ci表示完成终端d上的FL任务i所需的CPU周期数目。cz,d表示终端设备执行FL任务时的CPU频率。FL每一学习回合的总时延由时延最大的终端设备决定,因此,总时延定义为:
面向节点选择的准确率最优化问题模型可以表示为:
s.t.Ti≤Treq,i∈I
对于一个FL任务i∈I,节点选择问题可以概括为每次迭代时选择节点集Di∈D,使得本次训练的准确率最优,即总损失函数最小,同时将训练和传输时延控制在一定范围内,所以在训练过程中必须选择具有高精度和可靠的本地训练数据的边缘节点。
边缘节点采用SGD优化算法对全局模型进行训练更新的过程包括:本文提出的多权重主观逻辑(Multi-weight Subjective Logic,MSL)方案中的积极、消极、最近和过去的交互作用的权重参数和时间尺度如表1:
表1:仿真实验参数设置
参数 |
设置 |
边缘节点数量 |
N=30 |
交互效果的权重参数 |
k=0.4,η=0.6 |
交互时延的权重参数 |
λ=0.3,μ=0.7 |
模型参数成功传输概率 |
qi,j=[0.8,1] |
一次联邦学习任务最大训练时间 |
Tmax=500 |
不确定性的影响系数 |
γ=0.5 |
事件新鲜度衰减因子 |
z=0.8 |
数据包的不成功传输概率为0%~40%,所有边缘节点的初始声誉为0.5。我们将所提出的MSL方案与的传统主观逻辑(TSL)方案和信任值聚合(ATV)方案进行了比较。在ATV方案中,声誉值是通过聚合来自任务发布者的不同权重的信任值偏移量来计算的,信任值偏移量是由积极交互事件和消极交互事件之间的差值占事件总数的比值决定的。
本地训练:对于一个FL任务i∈I,定义该任务相关的总数据集为:
其中,Hz,d表示MEC服务器z覆盖的终端d的数据集。
终端设备d在执行FL任务i的本地训练时的损失函数定义为它在样本数据集Hz,d上的预测值与实际值之差,因此FL任务i在所有数据集合上的损失函数可以定义为:
其中,表示设备d在进行FL任务i训练时的损失函数,(xz,d,yz,d)表示样本数据集,ωz,d表示设备d训练的模型参数。
上式中ω表示当前要训练的模型的权值,|Hi|表示该任务数据集大小。FL的目的是通过最小化任务的损失函数Li(ω)来优化全局模型参数,表示为:
ω=argminLi(ω)
FL的参数更新方法为随机梯度下降(SGD,Stochastic Gradient Descent),即每次随机选择数据集中的一条数据{xz,d,yz,d}进行更新。这种方法大大降低了计算量,但由于其随机性使得本地模型需要足够的本地训练量以保证模型质量。模型参数的更新表示为:
其中η为参数更新时的学习率,n∈N表示训练的迭代次数。
模型聚合:当上传的本地模型达到一定数量或者迭代次数N后,宏基站处的MEC服务器将对得到的本地模型执行全局模型聚合,具体的权值聚合表示为:
其中|Hz,d|表示终端设备d参与FL任务的数据集大小。可以看出,具备更大数据集的终端设备得到更大的权重。
如图2所示,为了说明恶意边缘节点的声誉变化,设置某一边缘节点在前6个联邦任务中表现良好,以增加其声誉值。然后,该边缘节点以0.8的概率为服务器节点对本地模型进行中毒或不可靠数据的培训。如图2所示,在MSL、TSL和ATV方案中,当边缘节点发生恶意行为时,其声誉值开始下降,但在没有声誉防御的方案中仍然呈线性增长。由于考虑了交互效应、频率和时间线等因素的影响,MSL方案的声誉值在短时间内比ATV和TSL方案的信誉值下降幅更大。此外,由于ATV方案在计算声誉值偏移时只关注交互效应,经过12次迭代后,ATV方案的声誉下降速度比MSL方案快。
如图3所示,如果一个边缘节点的综合声誉值低于给定的声誉阈值,该边缘节点将被视为一个恶意边缘节点。图3说明了信誉阈值越高联邦学习的准确率越高。虽然在较低的声誉阈值下,MSL方案的精确度低于ATV方案,但当声誉值高于0.35时,MSL方案的性能与ATV方案相同。原因是,ATV方案对当前的负面事件很敏感,但它忽略了那些无意犯错的可靠边缘节点的积极交互历史,这会导致声誉计算的不准确性。当信誉阈值高于0.45时,TSL、MSL和ATV三个方案的性能相同,这是因为在高攻击强度的情况下,恶意边缘节点更容易被检测到,从而被移除。
如图4所示,当恶意边缘节点的比例低于50%时,收敛时间随恶意边缘节点比例的增加而增加。这是因为随着恶意边缘节点的增加而增加,系统对边缘节点的可信任信息越少,需要花费更多的时间收集证据来发现恶意边缘节点。也可以看出本文方案较对比算法节省了约6%的交互时间,这是因为本文综合考虑了经验、熟悉度和时效性等多个因素,可以更快收集节点的可信信息来判断节点的行为。综上所述,MSL方案可以实现更准确、公平高效的声誉计算,从而在联邦学习中实现更可靠的边缘节点选择。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。