CN113220369B - 一种基于分布式机器学习的智能计算卸载优化方法 - Google Patents

一种基于分布式机器学习的智能计算卸载优化方法 Download PDF

Info

Publication number
CN113220369B
CN113220369B CN202110584327.8A CN202110584327A CN113220369B CN 113220369 B CN113220369 B CN 113220369B CN 202110584327 A CN202110584327 A CN 202110584327A CN 113220369 B CN113220369 B CN 113220369B
Authority
CN
China
Prior art keywords
task
tasks
delay
edge server
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110584327.8A
Other languages
English (en)
Other versions
CN113220369A (zh
Inventor
王田
张依琳
王泽恩
贾维嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Campus Of Beijing Normal University
Original Assignee
Zhuhai Campus Of Beijing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Campus Of Beijing Normal University filed Critical Zhuhai Campus Of Beijing Normal University
Priority to CN202110584327.8A priority Critical patent/CN113220369B/zh
Publication of CN113220369A publication Critical patent/CN113220369A/zh
Application granted granted Critical
Publication of CN113220369B publication Critical patent/CN113220369B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44594Unloading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Computer And Data Communications (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明涉及信息技术领域,具体而言,涉及一种基于分布式机器学习的智能计算卸载优化方法。具体包括以下步骤:1)利用MLP来学习任务特征并对任务进行分类,2)提取具体的任务特征,3)找到更适合卸载到边缘服务器或云服务器的任务,4)智能计算卸载优化。本发明能够降低系统总服务成本,同时保护多参与方的隐私,实现计算卸载优化。

Description

一种基于分布式机器学习的智能计算卸载优化方法
技术领域
本发明涉及信息技术领域,具体而言,涉及一种基于分布式机器学习的智能计算卸载优化方法。
背景技术
物联网设备在工作过程中会产生大量数据,而这些数据如果全部卸载到云服务器,则会造成云服务器负载过大、传输过程中带宽高、安全问题。然而,物联网设备受其自身大小的限制导致其计算能力较弱,不足以支持复杂任务的计算。
移动边缘计算(Mobile Edge Computing,MEC)成为一个可行的解决方案,它通过提供计算资源以支持物联网设备卸载复杂的计算任务或应用。通过MEC,可以有效解决物联网设备计算能力不足、向云服务器卸载延迟高、数据安全等问题。然而,多个MEC参与方:如不同的物联网设备和边缘/云服务器存在隐私问题和利益冲突,在这些参与方之间建立信任、实现分布式多参与方的计算卸载方案是一项挑战。
为了探索动态MEC环境,基于机器学习的计算卸载成为一种可行的解决方案。一些基于深度强化学习(Deep Reinforcement Learning,DRL)领域的研究工作提出的计算卸载策略高度依赖问题的状态空间。并且,计算卸载策略通常非常复杂,纯Q-Learning不适合解决计算卸载的优化问题。DRL的agent在寻找最优卸载策略的同时,通过动作学习来学习策略。而且整个过程耗时,占用大量系统资源。隐私在机器学习中是一个关键问题,特别是在MEC不同的移动物联网设备提供商中,如何整合多个移动物联网设备提供商的数据,保护所有参与者的隐私数据是一个巨大的挑战。在已有的计算卸载优化方案里,基于启发式算法的方案假设较多并且其算法的可移植性和鲁棒性较差;基于机器学习的在线学习方案难以保护所有参与者的隐私数据。故我们提出使用基于分布式机器学习的智能混合优化方法来解决上述问题。作为一种新型的分布式机器学习,面向工业物联网的分布式学习(Federated Learning,FL)可以在本地训练所有参与者的数据,通过云/边缘服务器更新和聚合全局模型。
发明内容
针对以上问题,本发明提出了移动边缘计算中一种基于分布式机器学习的智能计算卸载优化方法。为了优化卸载策略,我们使用MLP来学习任务特征,并将任务分成四类,目的是找到更适合卸载到边缘服务器或云服务器的任务。特别是,为了保护不同物联网设备的隐私数据,我们使用分布式学习来训练模型。本地物联网设备中的培训模型,可以避免向服务器传输过程中的数据泄漏。通过我们的方法,能够降低系统总服务成本,同时保护多参与方的隐私,实现计算卸载优化。
本发明解决上述问题的技术方案是:一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述方法包括:
利用MLP来学习任务特征并对任务进行分类,
提取具体的任务特征,
找到更适合卸载到边缘服务器或云服务器的任务,
智能计算卸载优化。
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“利用MLP来学习任务特征并对任务进行分类”具体包含以下步骤:
根据物联网设备的任务属性,将计算任务分为A、B、C、D四种类型,
对于类型A,任务的复杂性较低、对延迟敏感,在本地物联网设备中执行;
对于类型B,任务的复杂性较高、对延迟敏感,在边缘服务器中执行;
对于类型C,任务的复杂度更高、对延迟不敏感,在云服务器上执行;
对于类型D,任务不能在本地物联网设备中执行、对延迟不敏感,在边缘服务器中执行。
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“具体任务特征提取”包含以下方法:
步骤1:模型初始化。确定MLP训练模型后初始化模型参数(本地设备模型参数
Figure BDA0003086537780000031
边缘服务器模型参数
Figure BDA0003086537780000032
云服务器模型参数θ0)、特征向量X=[x1,x2,...,xi,...,xQ*N];确定修正线性单元
Figure BDA0003086537780000033
Figure BDA0003086537780000034
作为激活函数。
步骤2:模型的隐藏层处理和测试模型。如果输入层和第一层隐藏层直接存在权重ω1和偏移量b1,则第一层隐藏层的输出为f(ω1*x+b1)=max(0,ω1*x+b1),以此类推,隐藏层每一层的输出为f(ωi*x+bi)=max(0,ωi*x+bi)。利用损失函数测试模型训练是否到位,损失函数可以用公式(1)表示:
Figure BDA0003086537780000041
代价函数是所有训练数据集的损失函数平均值,用公式(2)表示为:
Figure BDA0003086537780000042
步骤3:基于分布式机器学习的训练。使用θ={ω,b}作为模型参数在物联网设备、边缘服务器和云服务器之间进行通信。在每一轮的训练开始时,随机选取P个本地物联网设备参与本轮训练,对于这P个设备,每个设备从边缘服务器下载模型参数并初始化
Figure BDA0003086537780000043
训练后更新参数为
Figure BDA0003086537780000044
在经历了k1次训练轮次后,进行边缘聚合,即所有设备将自己的模型参数上传到边缘服务器,边缘服务器的参数进行更新:
Figure BDA0003086537780000045
在经历了k2次训练轮次后,进行全局聚合,即所有边缘服务器将自己的模型参数上传到全局云服务器,云服务器的参数进行更新:
Figure BDA0003086537780000046
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“找到更适合卸载到边缘服务器或云服务器的任务”包含以下方法:
步骤1:对已分类的任务任务进行评分,每个设备中得分选择前N个任务发送给边缘服务器,
步骤2:边缘服务器根据每个物联网设备的前N个任务,从Q*N个任务中选择前N个任务缓存那些对应的配置文件,
步骤3:根据选择的N个任务卸载到边缘服务器上执行。
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“智能计算卸载优化”包含以下方法:
步骤1:初始化参数。初始化在时隙t时本地设备和边缘服务器的CPU频率以及总本地设备和边缘服务器的CPU频率。
步骤2:获取任务评分。执行提取具体任务特征动作,获取到任务分类集合以及前N个适合卸载到边缘服务器的任务。
步骤3:计算服务成本。首先确定系统中的延迟、能量损耗、训练时间以及系统成本计算方式。系统中的延迟可以分为传输延迟、计算延迟和等待延迟。用
Figure BDA0003086537780000051
来表示一个物联网设备的传输延迟,对于总传输延迟可以用公式(3)表示为:
Figure BDA0003086537780000052
步骤4:更新卸载策略。当时隙t的成本低于上一个时隙t-1的成本时,更新卸载策略
Figure BDA0003086537780000053
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“步骤3:计算服务成本”包含以下方法:
根据任务类型的不同,计算任务的种类有不同的计算需求。将影响计算延迟的计算需求表示为变量λt,对于总计算延迟可以用公式(4)表示为:
Figure BDA0003086537780000054
其中
Figure BDA0003086537780000055
表示哪个计算节点在工作。当系统决定哪个计算节点在时隙t执行任务,该计算节点就有一个符合先进先出原则的任务队列。
当新任务到达时隙t时,等待时间取决于任务在队列中的执行时间。使用
Figure BDA0003086537780000061
Figure BDA0003086537780000062
分别表示本地物联网设备和边缘服务器队列中剩余任务的等待时间。ri和fi表示计算节点i的任务大小和CPU频率,此外,由于云强大的计算能力,忽略云计算节点的等待时间。对于本地设备和边缘服务器的等待时间可以分别表示为公式(5)和(6):
Figure BDA0003086537780000063
Figure BDA0003086537780000064
总等待时间表示为公式(7):
Figure BDA0003086537780000065
系统的能耗表示为公式(8):
Figure BDA0003086537780000066
所述
Figure BDA0003086537780000067
表示计算能耗,
Figure BDA0003086537780000068
表示传输能耗。所述模型训练时间用
Figure BDA0003086537780000069
表示。
对于总服务成本可以用公式(9)表示:
Figure BDA00030865377800000610
本发明的优点:通过本发明所提供的方法,能够降低系统总服务成本,同时保护多参与方的隐私,实现计算卸载优化。
具体体现在以下方面:
1)为了优化计算卸载策略,我们在本地设备上部署MLP模型学习计算任务的特征。然后将任务分为四种类型,对任务进行评分,最终可以得到最适合卸载到边缘/云服务器的任务集合。
2)如何解决设备来自于不同的运营商或边缘服务器提供商,如何聚合多方数据进行MLP模型的训练是一个很关键的问题。为此提出了基于分布式学习的模型训练方法。
3)为了控制整体系统的服务成本,为卸载过程中的关键因素设置了不同的权重因子,权重因子由系统管理员根据实际应用场景设置。
附图说明
图1是工业物联网场景中通过分布式机器学习进行计算卸载优化的体系结构图,
图2用于分析任务特征的MLP模型图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
详细地,本发明一种基于分布式机器学习的智能计算卸载优化方法,包括以下步骤:
首先,我们使用MLP来学习任务特征并对任务进行分类,从而找到更适合卸载到边缘服务器或云服务器的任务。根据物联网设备的任务属性,如任务大小、任务计算复杂度和任务延迟敏感度,将计算任务分为四种类型。
对于类型A,任务的复杂性较低、对延迟敏感,适合在本地物联网设备中执行;对于类型B,任务的复杂性较高、对延迟敏感,适合在边缘服务器中执行;
对于C类,任务的复杂度更高、对延迟不敏感,适合在云服务器上执行;
对于类型D,任务不能在本地物联网设备中执行、对延迟不敏感,适合在边缘服务器中执行。
上述任务类型提取具体任务特征,提取方法参考以下:
步骤1):模型初始化。确定MLP训练模型后初始化模型参数(本地设备模型参数
Figure BDA0003086537780000081
边缘服务器模型参数
Figure BDA0003086537780000082
云服务器模型参数θ0)、特征向量X=[x1,x2,...,xi,...,xQ*N];确定修正线性单元
Figure BDA0003086537780000083
Figure BDA0003086537780000084
作为激活函数。
步骤2):模型的隐藏层处理和测试模型。如果输入层和第一层隐藏层直接存在权重ω1和偏移量b1,则第一层隐藏层的输出为f(ω1*x+b1)=max(0,ω1*x+b1),以此类推,隐藏层每一层的输出为f(ωi*x+bi)=max(0,ωi*x+bi)。利用损失函数测试模型训练是否到位,损失函数可以用公式(1)表示:
Figure BDA0003086537780000091
代价函数是所有训练数据集的损失函数平均值,用公式(2)表示为:
Figure BDA0003086537780000092
步骤3):基于分布式学习的训练。使用θ={ω,b}作为模型参数在物联网设备、边缘服务器和云服务器之间进行通信。在每一轮的训练开始时,随机选取P个本地物联网设备参与本轮训练,对于这P个设备,每个设备从边缘服务器下载模型参数并初始化
Figure BDA0003086537780000093
训练后更新参数为
Figure BDA0003086537780000094
在经历了k1次训练轮次后,进行边缘聚合,即所有设备将自己的模型参数上传到边缘服务器,边缘服务器的参数进行更新:
Figure BDA0003086537780000095
在经历了k2次训练轮次后,进行全局聚合,即所有边缘服务器将自己的模型参数上传到全局云服务器,云服务器的参数进行更新:
Figure BDA0003086537780000096
以上步骤用代码输出可总结总结为算法1。该代码的具体输出步骤如下:
Figure BDA0003086537780000097
Figure BDA0003086537780000101
其中:θ0是初始全局模型参数,
Figure BDA0003086537780000102
是边缘服务器的全局模型参数,X是任务特征向量,
Figure BDA0003086537780000103
是本地设备,R是训练轮数,P是本地设备的个数,
Figure BDA0003086537780000104
是第r轮的本地模型参数,
Figure BDA0003086537780000105
是第r+1轮的本地模型参数。k1,k2是轮次,
Figure BDA0003086537780000106
是是第r+1轮的边缘服务器模型参数,N是任务的数量。
具体任务特征提取完毕之后,根据特征找到更适合卸载到边缘服务器或云服务器的任务。
MLP的模型训练使用本地物联网设备的历史数据。训练后的模型用于预测本地物联网设备的任务执行位置,根据任务的属性、任务的执行位置,任务类型可以分为四类:任务的复杂性低、对延迟敏感,在本地物联网设备中执行;任务的复杂性高、对延迟敏感,在边缘服务器中执行;任务的复杂度高、对延迟不敏感,在云服务器上执行;任务不能在本地物联网设备中执行、对延迟不敏感,在边缘服务器中执行,然后对任务进行评分,每个设备中得分选择前N个任务发送给边缘服务器。边缘服务器根据每个物联网设备的前N个任务,从Q*N个任务中选择前N个任务缓存那些对应的配置文件,这样这N个任务就可以卸载到边缘服务器上执行。其次,为了保护不同物联网设备的隐私数据,我们使用机器分布式学习来训练模型,本地物联网设备中的培训模型,可以避免向服务器传输过程中的数据泄漏。
找到合适的服务器后,开始计算卸载优化方法,计算方法参考以下:
步骤1):初始化参数。初始化在时隙t时本地设备和边缘服务器的CPU频率以及总本地设备和边缘服务器的CPU频率。
步骤2):获取任务评分。执行提取具体任务特征动作,获取到任务分类集合以及前N个适合卸载到边缘服务器的任务。
步骤3):计算服务成本。首先确定系统中的延迟、能量损耗、训练时间以及系统成本计算方式。系统中的延迟可以分为传输延迟、计算延迟和等待延迟。用
Figure BDA0003086537780000111
来表示一个物联网设备的传输延迟,则对于总传输延迟可以用公式(3)表示为:
Figure BDA0003086537780000112
计算节点具有不同的计算能力。由于远程云具有强大的数据处理能力,计算延迟可以忽略不计。相比之下,边缘和局部计算节点的能力较弱。我们用
Figure BDA0003086537780000113
来表示计算节点i在时隙t的计算能力。由于任务类型的不同,计算任务的种类有不同的计算需求。我们将影响计算延迟的计算需求表示为变量λt,则总计算延迟可以用公式(4)表示为:
Figure BDA0003086537780000114
其中
Figure BDA0003086537780000115
表示哪个计算节点在工作。一旦系统决定哪个计算节点在时隙t执行任务,该计算节点就有一个符合先进先出原则的任务队列。当新任务到达时隙t时,等待时间取决于任务在队列中的执行时间。我们使用
Figure BDA0003086537780000121
Figure BDA0003086537780000122
分别表示本地物联网设备和边缘服务器队列中剩余任务的等待时间。ri和fi表示计算节点i的任务大小和CPU频率,此外,由于云强大的计算能力,我们忽略云计算节点的等待时间。那么,本地设备和边缘服务器的等待时间可以分别表示为:
Figure BDA0003086537780000123
Figure BDA0003086537780000124
总等待时间可以表示为:
Figure BDA0003086537780000125
系统的能耗可以表示为:
Figure BDA0003086537780000126
其中
Figure BDA0003086537780000127
表示计算能耗,
Figure BDA0003086537780000128
表示传输能耗。另外,模型训练时间用
Figure BDA0003086537780000129
表示。
则总服务成本可以用公式(9)表示:
Figure BDA00030865377800001210
针对传输延迟、计算延迟、等待延迟、训练时间分配了不同的权值,可由系统管理员根据不同的物联网应用需求进行设置。
步骤4):更新卸载策略。当时隙t的成本低于上一个时隙t-1的成本时,更新卸载策略
Figure BDA00030865377800001211
以上步骤用代码输出可总结为算法2。该代码具体输出步骤如下:
Figure BDA0003086537780000131
其中:D={d1,d2,...,dQ}是卸载策略,P(t)是时刻的总服务成本,
Figure BDA0003086537780000132
是卸载策略,Sedge是任务集合,
Figure BDA0003086537780000133
是通信延迟,
Figure BDA0003086537780000134
是计算延迟,
Figure BDA0003086537780000135
是等待延迟,
Figure BDA0003086537780000136
是训练时间,
Figure BDA0003086537780000137
是能量损耗,Emax是最大能量限制,g是数量级参数,ω1,ω2,ω3,ω4是权重系数。
Figure BDA0003086537780000138
是时刻t的边缘服务器频率,k是系数。
以上所述仅为本发明的实施例,并非以此限制本发明的保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的系统领域,均同理包括在本发明的保护范围内。

Claims (2)

1.一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述方法包括:
利用MLP来学习任务特征并对任务进行分类,
提取具体的任务特征,
找到更适合卸载到边缘服务器或云服务器的任务,
智能计算卸载优化;
所述“提取具体的任务特征”包含以下方法:
步骤1:模型初始化:确定MLP训练模型后初始化模型参数,所述模型参数包括:本地设备模型参数
Figure 10477DEST_PATH_IMAGE001
、边缘服务器模型参数
Figure 90560DEST_PATH_IMAGE002
、云服务器模型参数
Figure 351777DEST_PATH_IMAGE003
,特征向量
Figure 66661DEST_PATH_IMAGE004
;确定修正线性单元
Figure 387920DEST_PATH_IMAGE005
作为激活函数;
步骤2:模型的隐藏层处理和测试模型:如果输入层和第一层隐藏层直接存在权重
Figure 955299DEST_PATH_IMAGE006
和偏移量
Figure 754628DEST_PATH_IMAGE007
,则第一层隐藏层的输出为
Figure 589598DEST_PATH_IMAGE008
,以此类推,第i层隐藏层的输出为
Figure 81759DEST_PATH_IMAGE009
,利用损失函数测试模型训练是否到位,其中
Figure 870854DEST_PATH_IMAGE010
是每一层的输入数据,
Figure DEST_PATH_IMAGE011
Figure 847775DEST_PATH_IMAGE012
分别是第i层的权重和偏移量;
代价函数是所有训练数据集的损失函数平均值;
步骤3:基于分布式机器学习的训练:使用
Figure DEST_PATH_IMAGE013
作为模型参数在物联网设备、边缘服务器和云服务器之间进行通信,在每一轮的训练开始时,随机选取P个本地物联网设备参与本轮训练,对于这P个设备,每个设备l从边缘服务器下载模型参数
Figure 304296DEST_PATH_IMAGE014
,并初始化,训练后更新参数为
Figure 701779DEST_PATH_IMAGE015
,在经历了
Figure 742285DEST_PATH_IMAGE016
轮次训练后,进行边缘聚合,即所有设备将自己的模型参数上传到边缘服务器,边缘服务器的参数进行更新:
Figure 883416DEST_PATH_IMAGE017
,在经历了
Figure 194443DEST_PATH_IMAGE018
轮次训练后,进行全局聚合,即所有边缘服务器将自己的模型参数上传到全局云服务器,云服务器的参数进行更新:
Figure 762828DEST_PATH_IMAGE019
,其中 N是边缘服务器的数量;
所述“找到更适合卸载到边缘服务器或云服务器的任务”包含以下方法:
步骤1:对已分类的任务进行评分,每个设备中选择得分排序在前N’个的任务发送给边缘服务器;
步骤2:边缘服务器根据每个物联网设备的前N’个任务,从Q*N’个任务中选择得分排序在前N’个任务并缓存其对应的配置文件,其中Q是物联网设备数量;
步骤3:将步骤2选择的前N’个任务卸载到边缘服务器上执行;
所述“智能计算卸载优化”包含以下方法:
步骤 1:初始化参数:初始化在时隙
Figure 290630DEST_PATH_IMAGE020
时本地设备和边缘服务器的CPU频率;
步骤2:获取任务评分:执行提取具体任务特征动作,获取到任务分类集合以及前N’个适合卸载到边缘服务器的任务;
步骤3:计算服务成本:首先确定系统中的延迟、能量损耗、训练时间以及系统成本计算方式,系统中的延迟可以分为传输延迟、计算延迟和等待延迟,用
Figure 235452DEST_PATH_IMAGE021
来表示一个物联网设备的传输延迟,对于总传输延迟可以用公式(1)表示为:
Figure 400985DEST_PATH_IMAGE022
(1)
步骤4:更新卸载策略:当时隙t的成本低于上一个时隙t-1的成本时,更新卸载策略更新卸载策略
Figure 405851DEST_PATH_IMAGE023
所述“步骤3:计算服务成本”包含以下方法:
根据任务类型的不同,计算不同任务的计算需求,将影响计算延迟的计算需求表示为变量
Figure 155370DEST_PATH_IMAGE024
,对于总计算延迟可以用公式(2)表示为:
Figure 638304DEST_PATH_IMAGE025
(2)
其中
Figure 923922DEST_PATH_IMAGE026
表示在工作的计算节点,
Figure 834110DEST_PATH_IMAGE027
表示计算节点
Figure 70925DEST_PATH_IMAGE028
在时隙
Figure 357550DEST_PATH_IMAGE020
的计算能力,系统决定在时隙t执行任务的计算节点,设置有一个符合先进先出原则的任务队列;
当新任务到达时隙t时,等待时间取决于任务在队列中的执行时间;使用
Figure 497675DEST_PATH_IMAGE029
Figure 844343DEST_PATH_IMAGE030
分别表示本地物联网设备和边缘服务器队列中剩余任务的等待时间;
Figure 568454DEST_PATH_IMAGE031
Figure 393191DEST_PATH_IMAGE032
表示计算节点
Figure 387823DEST_PATH_IMAGE028
的任务大小和CPU频率,此外,由于云强大的计算能力,忽略云计算节点的等待时间;对于本地设备和边缘服务器的等待时间可以分别表示为公式(3)和公式(4):
Figure 216976DEST_PATH_IMAGE033
(3)
Figure 116799DEST_PATH_IMAGE034
(4)
总等待时间表示为公式(5):
Figure 558276DEST_PATH_IMAGE035
(5)
系统的能耗表示为公式(6):
Figure 656682DEST_PATH_IMAGE036
(6)
所述
Figure 282835DEST_PATH_IMAGE037
表示计算能耗,
Figure 981539DEST_PATH_IMAGE038
表示传输能耗;所述模型训练时间用
Figure DEST_PATH_IMAGE039
表示,
对于总服务成本可以用公式(7)表示:
Figure 961127DEST_PATH_IMAGE040
(7)
其中
Figure 179619DEST_PATH_IMAGE041
是数量级参数,
Figure 288258DEST_PATH_IMAGE042
是权重系数,
Figure 959411DEST_PATH_IMAGE043
是最大能量限制。
2.根据权利要求1所述的一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“利用MLP来学习任务特征并对任务进行分类”具体包含以下步骤:
根据物联网设备的任务属性,将计算任务分为A、B、C、D四种类型;
对于类型A,任务的复杂性较低、对延迟敏感,在本地物联网设备中执行;
对于类型B,任务的复杂性较高、对延迟敏感,在边缘服务器中执行;
对于类型C,任务的复杂度更高、对延迟不敏感,在云服务器上执行;
对于类型D,任务不能在本地物联网设备中执行、对延迟不敏感,在边缘服务器中执行。
CN202110584327.8A 2021-05-27 2021-05-27 一种基于分布式机器学习的智能计算卸载优化方法 Active CN113220369B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110584327.8A CN113220369B (zh) 2021-05-27 2021-05-27 一种基于分布式机器学习的智能计算卸载优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110584327.8A CN113220369B (zh) 2021-05-27 2021-05-27 一种基于分布式机器学习的智能计算卸载优化方法

Publications (2)

Publication Number Publication Date
CN113220369A CN113220369A (zh) 2021-08-06
CN113220369B true CN113220369B (zh) 2022-12-23

Family

ID=77099137

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110584327.8A Active CN113220369B (zh) 2021-05-27 2021-05-27 一种基于分布式机器学习的智能计算卸载优化方法

Country Status (1)

Country Link
CN (1) CN113220369B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408675A (zh) * 2021-08-20 2021-09-17 深圳市沃易科技有限公司 一种基于联邦学习的卸载智能优化方法和系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704070A (zh) * 2017-09-30 2018-02-16 广东欧珀移动通信有限公司 应用清理方法、装置、存储介质及电子设备
CN108268283A (zh) * 2016-12-31 2018-07-10 英特尔公司 用于利用约简操作来支持数据并行循环的计算引擎架构
CN109756378A (zh) * 2019-01-12 2019-05-14 大连理工大学 一种车载网络下的智能计算卸载方法
CN111182582A (zh) * 2019-12-30 2020-05-19 东南大学 面向移动边缘计算的多任务分布式卸载方法
CN111556461A (zh) * 2020-04-29 2020-08-18 南京邮电大学 一种基于深度q网络的车载边缘网络任务分发卸载方法
CN111694664A (zh) * 2020-06-04 2020-09-22 海南大学 一种边缘服务器的计算卸载分配方法
CN112015481A (zh) * 2020-06-04 2020-12-01 湖南大学 一种基于Multi-Agent强化学习的移动边缘计算卸载算法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11258874B2 (en) * 2015-03-27 2022-02-22 Globallogic, Inc. Method and system for sensing information, imputing meaning to the information, and determining actions based on that meaning, in a distributed computing environment
US11036865B2 (en) * 2018-07-05 2021-06-15 Massachusetts Institute Of Technology Systems and methods for risk rating of vulnerabilities
CN110119311B (zh) * 2019-04-12 2022-01-04 华中科技大学 一种基于fpga的分布式流计算系统加速方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108268283A (zh) * 2016-12-31 2018-07-10 英特尔公司 用于利用约简操作来支持数据并行循环的计算引擎架构
CN107704070A (zh) * 2017-09-30 2018-02-16 广东欧珀移动通信有限公司 应用清理方法、装置、存储介质及电子设备
CN109756378A (zh) * 2019-01-12 2019-05-14 大连理工大学 一种车载网络下的智能计算卸载方法
CN111182582A (zh) * 2019-12-30 2020-05-19 东南大学 面向移动边缘计算的多任务分布式卸载方法
CN111556461A (zh) * 2020-04-29 2020-08-18 南京邮电大学 一种基于深度q网络的车载边缘网络任务分发卸载方法
CN111694664A (zh) * 2020-06-04 2020-09-22 海南大学 一种边缘服务器的计算卸载分配方法
CN112015481A (zh) * 2020-06-04 2020-12-01 湖南大学 一种基于Multi-Agent强化学习的移动边缘计算卸载算法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于DQN的车载边缘网络任务分发卸载算法;赵海涛 等;《通信学报》;20201031;第41卷(第10期);第172页-第178页 *

Also Published As

Publication number Publication date
CN113220369A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
CN108880893B (zh) 一种移动边缘计算服务器联合能量收集及任务卸载方法
CN112181666A (zh) 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质
CN110460465B (zh) 面向移动边缘计算的服务功能链部署方法
CN112202928A (zh) 传感边缘云区块链网络可信卸载协作节点选择系统及方法
CN113408675A (zh) 一种基于联邦学习的卸载智能优化方法和系统
CN112995343B (zh) 一种具有性能与需求匹配能力的边缘节点计算卸载方法
CN110809275B (zh) 基于无线城域网的微云节点放置方法
CN114662661A (zh) 边缘计算下异构处理器加速多出口dnn推理的方法
CN113568727A (zh) 一种基于深度强化学习的移动边缘计算任务分配方法
CN113220356A (zh) 一种移动边缘计算中的用户计算任务卸载方法
CN113760511B (zh) 一种基于深度确定性策略的车辆边缘计算任务卸载方法
CN114285853A (zh) 设备密集型工业物联网中基于端边云协同的任务卸载方法
CN113642700A (zh) 基于联邦学习和边缘计算的跨平台多模态舆情分析方法
CN116541106B (zh) 计算任务卸载方法、计算设备及存储介质
CN113835878A (zh) 一种资源分配方法、装置、计算机设备及存储介质
CN113220369B (zh) 一种基于分布式机器学习的智能计算卸载优化方法
CN114564304A (zh) 一种边缘计算的任务卸载方法
CN114281718A (zh) 一种工业互联网边缘服务缓存决策方法及系统
CN111343602B (zh) 基于进化算法的联合布局与任务调度优化方法
Hu et al. Dynamic task offloading in MEC-enabled IoT networks: A hybrid DDPG-D3QN approach
Jeong et al. Deep reinforcement learning-based task offloading decision in the time varying channel
CN116954866A (zh) 基于深度强化学习的边缘云下任务调度方法及系统
CN116828541A (zh) 基于多智能体强化学习的边缘计算依赖任务动态卸载方法及系统
CN116827515A (zh) 一种基于区块链和强化学习的雾计算系统性能优化算法
Fu et al. Using NearestGraph QoS prediction method for service recommendation in the cloud

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant