CN113220369B - 一种基于分布式机器学习的智能计算卸载优化方法 - Google Patents
一种基于分布式机器学习的智能计算卸载优化方法 Download PDFInfo
- Publication number
- CN113220369B CN113220369B CN202110584327.8A CN202110584327A CN113220369B CN 113220369 B CN113220369 B CN 113220369B CN 202110584327 A CN202110584327 A CN 202110584327A CN 113220369 B CN113220369 B CN 113220369B
- Authority
- CN
- China
- Prior art keywords
- task
- tasks
- delay
- edge server
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44594—Unloading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Computer And Data Communications (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及信息技术领域,具体而言,涉及一种基于分布式机器学习的智能计算卸载优化方法。具体包括以下步骤:1)利用MLP来学习任务特征并对任务进行分类,2)提取具体的任务特征,3)找到更适合卸载到边缘服务器或云服务器的任务,4)智能计算卸载优化。本发明能够降低系统总服务成本,同时保护多参与方的隐私,实现计算卸载优化。
Description
技术领域
本发明涉及信息技术领域,具体而言,涉及一种基于分布式机器学习的智能计算卸载优化方法。
背景技术
物联网设备在工作过程中会产生大量数据,而这些数据如果全部卸载到云服务器,则会造成云服务器负载过大、传输过程中带宽高、安全问题。然而,物联网设备受其自身大小的限制导致其计算能力较弱,不足以支持复杂任务的计算。
移动边缘计算(Mobile Edge Computing,MEC)成为一个可行的解决方案,它通过提供计算资源以支持物联网设备卸载复杂的计算任务或应用。通过MEC,可以有效解决物联网设备计算能力不足、向云服务器卸载延迟高、数据安全等问题。然而,多个MEC参与方:如不同的物联网设备和边缘/云服务器存在隐私问题和利益冲突,在这些参与方之间建立信任、实现分布式多参与方的计算卸载方案是一项挑战。
为了探索动态MEC环境,基于机器学习的计算卸载成为一种可行的解决方案。一些基于深度强化学习(Deep Reinforcement Learning,DRL)领域的研究工作提出的计算卸载策略高度依赖问题的状态空间。并且,计算卸载策略通常非常复杂,纯Q-Learning不适合解决计算卸载的优化问题。DRL的agent在寻找最优卸载策略的同时,通过动作学习来学习策略。而且整个过程耗时,占用大量系统资源。隐私在机器学习中是一个关键问题,特别是在MEC不同的移动物联网设备提供商中,如何整合多个移动物联网设备提供商的数据,保护所有参与者的隐私数据是一个巨大的挑战。在已有的计算卸载优化方案里,基于启发式算法的方案假设较多并且其算法的可移植性和鲁棒性较差;基于机器学习的在线学习方案难以保护所有参与者的隐私数据。故我们提出使用基于分布式机器学习的智能混合优化方法来解决上述问题。作为一种新型的分布式机器学习,面向工业物联网的分布式学习(Federated Learning,FL)可以在本地训练所有参与者的数据,通过云/边缘服务器更新和聚合全局模型。
发明内容
针对以上问题,本发明提出了移动边缘计算中一种基于分布式机器学习的智能计算卸载优化方法。为了优化卸载策略,我们使用MLP来学习任务特征,并将任务分成四类,目的是找到更适合卸载到边缘服务器或云服务器的任务。特别是,为了保护不同物联网设备的隐私数据,我们使用分布式学习来训练模型。本地物联网设备中的培训模型,可以避免向服务器传输过程中的数据泄漏。通过我们的方法,能够降低系统总服务成本,同时保护多参与方的隐私,实现计算卸载优化。
本发明解决上述问题的技术方案是:一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述方法包括:
利用MLP来学习任务特征并对任务进行分类,
提取具体的任务特征,
找到更适合卸载到边缘服务器或云服务器的任务,
智能计算卸载优化。
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“利用MLP来学习任务特征并对任务进行分类”具体包含以下步骤:
根据物联网设备的任务属性,将计算任务分为A、B、C、D四种类型,
对于类型A,任务的复杂性较低、对延迟敏感,在本地物联网设备中执行;
对于类型B,任务的复杂性较高、对延迟敏感,在边缘服务器中执行;
对于类型C,任务的复杂度更高、对延迟不敏感,在云服务器上执行;
对于类型D,任务不能在本地物联网设备中执行、对延迟不敏感,在边缘服务器中执行。
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“具体任务特征提取”包含以下方法:
步骤1:模型初始化。确定MLP训练模型后初始化模型参数(本地设备模型参数边缘服务器模型参数云服务器模型参数θ0)、特征向量X=[x1,x2,...,xi,...,xQ*N];确定修正线性单元 作为激活函数。
步骤2:模型的隐藏层处理和测试模型。如果输入层和第一层隐藏层直接存在权重ω1和偏移量b1,则第一层隐藏层的输出为f(ω1*x+b1)=max(0,ω1*x+b1),以此类推,隐藏层每一层的输出为f(ωi*x+bi)=max(0,ωi*x+bi)。利用损失函数测试模型训练是否到位,损失函数可以用公式(1)表示:
代价函数是所有训练数据集的损失函数平均值,用公式(2)表示为:
步骤3:基于分布式机器学习的训练。使用θ={ω,b}作为模型参数在物联网设备、边缘服务器和云服务器之间进行通信。在每一轮的训练开始时,随机选取P个本地物联网设备参与本轮训练,对于这P个设备,每个设备从边缘服务器下载模型参数并初始化训练后更新参数为在经历了k1次训练轮次后,进行边缘聚合,即所有设备将自己的模型参数上传到边缘服务器,边缘服务器的参数进行更新:在经历了k2次训练轮次后,进行全局聚合,即所有边缘服务器将自己的模型参数上传到全局云服务器,云服务器的参数进行更新:
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“找到更适合卸载到边缘服务器或云服务器的任务”包含以下方法:
步骤1:对已分类的任务任务进行评分,每个设备中得分选择前N个任务发送给边缘服务器,
步骤2:边缘服务器根据每个物联网设备的前N个任务,从Q*N个任务中选择前N个任务缓存那些对应的配置文件,
步骤3:根据选择的N个任务卸载到边缘服务器上执行。
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“智能计算卸载优化”包含以下方法:
步骤1:初始化参数。初始化在时隙t时本地设备和边缘服务器的CPU频率以及总本地设备和边缘服务器的CPU频率。
步骤2:获取任务评分。执行提取具体任务特征动作,获取到任务分类集合以及前N个适合卸载到边缘服务器的任务。
步骤3:计算服务成本。首先确定系统中的延迟、能量损耗、训练时间以及系统成本计算方式。系统中的延迟可以分为传输延迟、计算延迟和等待延迟。用来表示一个物联网设备的传输延迟,对于总传输延迟可以用公式(3)表示为:
进一步地,上述一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“步骤3:计算服务成本”包含以下方法:
根据任务类型的不同,计算任务的种类有不同的计算需求。将影响计算延迟的计算需求表示为变量λt,对于总计算延迟可以用公式(4)表示为:
当新任务到达时隙t时,等待时间取决于任务在队列中的执行时间。使用和分别表示本地物联网设备和边缘服务器队列中剩余任务的等待时间。ri和fi表示计算节点i的任务大小和CPU频率,此外,由于云强大的计算能力,忽略云计算节点的等待时间。对于本地设备和边缘服务器的等待时间可以分别表示为公式(5)和(6):
总等待时间表示为公式(7):
系统的能耗表示为公式(8):
对于总服务成本可以用公式(9)表示:
本发明的优点:通过本发明所提供的方法,能够降低系统总服务成本,同时保护多参与方的隐私,实现计算卸载优化。
具体体现在以下方面:
1)为了优化计算卸载策略,我们在本地设备上部署MLP模型学习计算任务的特征。然后将任务分为四种类型,对任务进行评分,最终可以得到最适合卸载到边缘/云服务器的任务集合。
2)如何解决设备来自于不同的运营商或边缘服务器提供商,如何聚合多方数据进行MLP模型的训练是一个很关键的问题。为此提出了基于分布式学习的模型训练方法。
3)为了控制整体系统的服务成本,为卸载过程中的关键因素设置了不同的权重因子,权重因子由系统管理员根据实际应用场景设置。
附图说明
图1是工业物联网场景中通过分布式机器学习进行计算卸载优化的体系结构图,
图2用于分析任务特征的MLP模型图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。因此,以下对在附图中提供的本发明的实施方式的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
详细地,本发明一种基于分布式机器学习的智能计算卸载优化方法,包括以下步骤:
首先,我们使用MLP来学习任务特征并对任务进行分类,从而找到更适合卸载到边缘服务器或云服务器的任务。根据物联网设备的任务属性,如任务大小、任务计算复杂度和任务延迟敏感度,将计算任务分为四种类型。
对于类型A,任务的复杂性较低、对延迟敏感,适合在本地物联网设备中执行;对于类型B,任务的复杂性较高、对延迟敏感,适合在边缘服务器中执行;
对于C类,任务的复杂度更高、对延迟不敏感,适合在云服务器上执行;
对于类型D,任务不能在本地物联网设备中执行、对延迟不敏感,适合在边缘服务器中执行。
上述任务类型提取具体任务特征,提取方法参考以下:
步骤1):模型初始化。确定MLP训练模型后初始化模型参数(本地设备模型参数边缘服务器模型参数云服务器模型参数θ0)、特征向量X=[x1,x2,...,xi,...,xQ*N];确定修正线性单元 作为激活函数。
步骤2):模型的隐藏层处理和测试模型。如果输入层和第一层隐藏层直接存在权重ω1和偏移量b1,则第一层隐藏层的输出为f(ω1*x+b1)=max(0,ω1*x+b1),以此类推,隐藏层每一层的输出为f(ωi*x+bi)=max(0,ωi*x+bi)。利用损失函数测试模型训练是否到位,损失函数可以用公式(1)表示:
代价函数是所有训练数据集的损失函数平均值,用公式(2)表示为:
步骤3):基于分布式学习的训练。使用θ={ω,b}作为模型参数在物联网设备、边缘服务器和云服务器之间进行通信。在每一轮的训练开始时,随机选取P个本地物联网设备参与本轮训练,对于这P个设备,每个设备从边缘服务器下载模型参数并初始化训练后更新参数为在经历了k1次训练轮次后,进行边缘聚合,即所有设备将自己的模型参数上传到边缘服务器,边缘服务器的参数进行更新:在经历了k2次训练轮次后,进行全局聚合,即所有边缘服务器将自己的模型参数上传到全局云服务器,云服务器的参数进行更新:
以上步骤用代码输出可总结总结为算法1。该代码的具体输出步骤如下:
其中:θ0是初始全局模型参数,是边缘服务器的全局模型参数,X是任务特征向量,是本地设备,R是训练轮数,P是本地设备的个数,是第r轮的本地模型参数,是第r+1轮的本地模型参数。k1,k2是轮次,是是第r+1轮的边缘服务器模型参数,N是任务的数量。
具体任务特征提取完毕之后,根据特征找到更适合卸载到边缘服务器或云服务器的任务。
MLP的模型训练使用本地物联网设备的历史数据。训练后的模型用于预测本地物联网设备的任务执行位置,根据任务的属性、任务的执行位置,任务类型可以分为四类:任务的复杂性低、对延迟敏感,在本地物联网设备中执行;任务的复杂性高、对延迟敏感,在边缘服务器中执行;任务的复杂度高、对延迟不敏感,在云服务器上执行;任务不能在本地物联网设备中执行、对延迟不敏感,在边缘服务器中执行,然后对任务进行评分,每个设备中得分选择前N个任务发送给边缘服务器。边缘服务器根据每个物联网设备的前N个任务,从Q*N个任务中选择前N个任务缓存那些对应的配置文件,这样这N个任务就可以卸载到边缘服务器上执行。其次,为了保护不同物联网设备的隐私数据,我们使用机器分布式学习来训练模型,本地物联网设备中的培训模型,可以避免向服务器传输过程中的数据泄漏。
找到合适的服务器后,开始计算卸载优化方法,计算方法参考以下:
步骤1):初始化参数。初始化在时隙t时本地设备和边缘服务器的CPU频率以及总本地设备和边缘服务器的CPU频率。
步骤2):获取任务评分。执行提取具体任务特征动作,获取到任务分类集合以及前N个适合卸载到边缘服务器的任务。
步骤3):计算服务成本。首先确定系统中的延迟、能量损耗、训练时间以及系统成本计算方式。系统中的延迟可以分为传输延迟、计算延迟和等待延迟。用来表示一个物联网设备的传输延迟,则对于总传输延迟可以用公式(3)表示为:
计算节点具有不同的计算能力。由于远程云具有强大的数据处理能力,计算延迟可以忽略不计。相比之下,边缘和局部计算节点的能力较弱。我们用来表示计算节点i在时隙t的计算能力。由于任务类型的不同,计算任务的种类有不同的计算需求。我们将影响计算延迟的计算需求表示为变量λt,则总计算延迟可以用公式(4)表示为:
其中表示哪个计算节点在工作。一旦系统决定哪个计算节点在时隙t执行任务,该计算节点就有一个符合先进先出原则的任务队列。当新任务到达时隙t时,等待时间取决于任务在队列中的执行时间。我们使用和分别表示本地物联网设备和边缘服务器队列中剩余任务的等待时间。ri和fi表示计算节点i的任务大小和CPU频率,此外,由于云强大的计算能力,我们忽略云计算节点的等待时间。那么,本地设备和边缘服务器的等待时间可以分别表示为:
总等待时间可以表示为:
系统的能耗可以表示为:
则总服务成本可以用公式(9)表示:
针对传输延迟、计算延迟、等待延迟、训练时间分配了不同的权值,可由系统管理员根据不同的物联网应用需求进行设置。
以上步骤用代码输出可总结为算法2。该代码具体输出步骤如下:
其中:D={d1,d2,...,dQ}是卸载策略,P(t)是时刻的总服务成本,是卸载策略,Sedge是任务集合,是通信延迟,是计算延迟,是等待延迟,是训练时间,是能量损耗,Emax是最大能量限制,g是数量级参数,ω1,ω2,ω3,ω4是权重系数。是时刻t的边缘服务器频率,k是系数。
以上所述仅为本发明的实施例,并非以此限制本发明的保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的系统领域,均同理包括在本发明的保护范围内。
Claims (2)
1.一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述方法包括:
利用MLP来学习任务特征并对任务进行分类,
提取具体的任务特征,
找到更适合卸载到边缘服务器或云服务器的任务,
智能计算卸载优化;
所述“提取具体的任务特征”包含以下方法:
步骤2:模型的隐藏层处理和测试模型:如果输入层和第一层隐藏层直接存在权重和偏移量,则第一层隐藏层的输出为,以此类推,第i层隐藏层的输出为,利用损失函数测试模型训练是否到位,其中是每一层的输入数据,和分别是第i层的权重和偏移量;
代价函数是所有训练数据集的损失函数平均值;
步骤3:基于分布式机器学习的训练:使用作为模型参数在物联网设备、边缘服务器和云服务器之间进行通信,在每一轮的训练开始时,随机选取P个本地物联网设备参与本轮训练,对于这P个设备,每个设备l从边缘服务器下载模型参数,并初始化,训练后更新参数为,在经历了轮次训练后,进行边缘聚合,即所有设备将自己的模型参数上传到边缘服务器,边缘服务器的参数进行更新:,在经历了轮次训练后,进行全局聚合,即所有边缘服务器将自己的模型参数上传到全局云服务器,云服务器的参数进行更新:,其中 N是边缘服务器的数量;
所述“找到更适合卸载到边缘服务器或云服务器的任务”包含以下方法:
步骤1:对已分类的任务进行评分,每个设备中选择得分排序在前N’个的任务发送给边缘服务器;
步骤2:边缘服务器根据每个物联网设备的前N’个任务,从Q*N’个任务中选择得分排序在前N’个任务并缓存其对应的配置文件,其中Q是物联网设备数量;
步骤3:将步骤2选择的前N’个任务卸载到边缘服务器上执行;
所述“智能计算卸载优化”包含以下方法:
步骤2:获取任务评分:执行提取具体任务特征动作,获取到任务分类集合以及前N’个适合卸载到边缘服务器的任务;
步骤3:计算服务成本:首先确定系统中的延迟、能量损耗、训练时间以及系统成本计算方式,系统中的延迟可以分为传输延迟、计算延迟和等待延迟,用来表示一个物联网设备的传输延迟,对于总传输延迟可以用公式(1)表示为: (1)
所述“步骤3:计算服务成本”包含以下方法:
当新任务到达时隙t时,等待时间取决于任务在队列中的执行时间;使用和分别表示本地物联网设备和边缘服务器队列中剩余任务的等待时间;和表示计算节点的任务大小和CPU频率,此外,由于云强大的计算能力,忽略云计算节点的等待时间;对于本地设备和边缘服务器的等待时间可以分别表示为公式(3)和公式(4):
总等待时间表示为公式(5):
系统的能耗表示为公式(6):
对于总服务成本可以用公式(7)表示:
2.根据权利要求1所述的一种基于分布式机器学习的智能计算卸载优化方法,其特征在于,所述“利用MLP来学习任务特征并对任务进行分类”具体包含以下步骤:
根据物联网设备的任务属性,将计算任务分为A、B、C、D四种类型;
对于类型A,任务的复杂性较低、对延迟敏感,在本地物联网设备中执行;
对于类型B,任务的复杂性较高、对延迟敏感,在边缘服务器中执行;
对于类型C,任务的复杂度更高、对延迟不敏感,在云服务器上执行;
对于类型D,任务不能在本地物联网设备中执行、对延迟不敏感,在边缘服务器中执行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110584327.8A CN113220369B (zh) | 2021-05-27 | 2021-05-27 | 一种基于分布式机器学习的智能计算卸载优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110584327.8A CN113220369B (zh) | 2021-05-27 | 2021-05-27 | 一种基于分布式机器学习的智能计算卸载优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113220369A CN113220369A (zh) | 2021-08-06 |
CN113220369B true CN113220369B (zh) | 2022-12-23 |
Family
ID=77099137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110584327.8A Active CN113220369B (zh) | 2021-05-27 | 2021-05-27 | 一种基于分布式机器学习的智能计算卸载优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113220369B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408675A (zh) * | 2021-08-20 | 2021-09-17 | 深圳市沃易科技有限公司 | 一种基于联邦学习的卸载智能优化方法和系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704070A (zh) * | 2017-09-30 | 2018-02-16 | 广东欧珀移动通信有限公司 | 应用清理方法、装置、存储介质及电子设备 |
CN108268283A (zh) * | 2016-12-31 | 2018-07-10 | 英特尔公司 | 用于利用约简操作来支持数据并行循环的计算引擎架构 |
CN109756378A (zh) * | 2019-01-12 | 2019-05-14 | 大连理工大学 | 一种车载网络下的智能计算卸载方法 |
CN111182582A (zh) * | 2019-12-30 | 2020-05-19 | 东南大学 | 面向移动边缘计算的多任务分布式卸载方法 |
CN111556461A (zh) * | 2020-04-29 | 2020-08-18 | 南京邮电大学 | 一种基于深度q网络的车载边缘网络任务分发卸载方法 |
CN111694664A (zh) * | 2020-06-04 | 2020-09-22 | 海南大学 | 一种边缘服务器的计算卸载分配方法 |
CN112015481A (zh) * | 2020-06-04 | 2020-12-01 | 湖南大学 | 一种基于Multi-Agent强化学习的移动边缘计算卸载算法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11258874B2 (en) * | 2015-03-27 | 2022-02-22 | Globallogic, Inc. | Method and system for sensing information, imputing meaning to the information, and determining actions based on that meaning, in a distributed computing environment |
US11036865B2 (en) * | 2018-07-05 | 2021-06-15 | Massachusetts Institute Of Technology | Systems and methods for risk rating of vulnerabilities |
CN110119311B (zh) * | 2019-04-12 | 2022-01-04 | 华中科技大学 | 一种基于fpga的分布式流计算系统加速方法 |
-
2021
- 2021-05-27 CN CN202110584327.8A patent/CN113220369B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108268283A (zh) * | 2016-12-31 | 2018-07-10 | 英特尔公司 | 用于利用约简操作来支持数据并行循环的计算引擎架构 |
CN107704070A (zh) * | 2017-09-30 | 2018-02-16 | 广东欧珀移动通信有限公司 | 应用清理方法、装置、存储介质及电子设备 |
CN109756378A (zh) * | 2019-01-12 | 2019-05-14 | 大连理工大学 | 一种车载网络下的智能计算卸载方法 |
CN111182582A (zh) * | 2019-12-30 | 2020-05-19 | 东南大学 | 面向移动边缘计算的多任务分布式卸载方法 |
CN111556461A (zh) * | 2020-04-29 | 2020-08-18 | 南京邮电大学 | 一种基于深度q网络的车载边缘网络任务分发卸载方法 |
CN111694664A (zh) * | 2020-06-04 | 2020-09-22 | 海南大学 | 一种边缘服务器的计算卸载分配方法 |
CN112015481A (zh) * | 2020-06-04 | 2020-12-01 | 湖南大学 | 一种基于Multi-Agent强化学习的移动边缘计算卸载算法 |
Non-Patent Citations (1)
Title |
---|
基于DQN的车载边缘网络任务分发卸载算法;赵海涛 等;《通信学报》;20201031;第41卷(第10期);第172页-第178页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113220369A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108880893B (zh) | 一种移动边缘计算服务器联合能量收集及任务卸载方法 | |
CN112181666A (zh) | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法、系统、设备和可读存储介质 | |
CN110460465B (zh) | 面向移动边缘计算的服务功能链部署方法 | |
CN112202928A (zh) | 传感边缘云区块链网络可信卸载协作节点选择系统及方法 | |
CN113408675A (zh) | 一种基于联邦学习的卸载智能优化方法和系统 | |
CN112995343B (zh) | 一种具有性能与需求匹配能力的边缘节点计算卸载方法 | |
CN110809275B (zh) | 基于无线城域网的微云节点放置方法 | |
CN114662661A (zh) | 边缘计算下异构处理器加速多出口dnn推理的方法 | |
CN113568727A (zh) | 一种基于深度强化学习的移动边缘计算任务分配方法 | |
CN113220356A (zh) | 一种移动边缘计算中的用户计算任务卸载方法 | |
CN113760511B (zh) | 一种基于深度确定性策略的车辆边缘计算任务卸载方法 | |
CN114285853A (zh) | 设备密集型工业物联网中基于端边云协同的任务卸载方法 | |
CN113642700A (zh) | 基于联邦学习和边缘计算的跨平台多模态舆情分析方法 | |
CN116541106B (zh) | 计算任务卸载方法、计算设备及存储介质 | |
CN113835878A (zh) | 一种资源分配方法、装置、计算机设备及存储介质 | |
CN113220369B (zh) | 一种基于分布式机器学习的智能计算卸载优化方法 | |
CN114564304A (zh) | 一种边缘计算的任务卸载方法 | |
CN114281718A (zh) | 一种工业互联网边缘服务缓存决策方法及系统 | |
CN111343602B (zh) | 基于进化算法的联合布局与任务调度优化方法 | |
Hu et al. | Dynamic task offloading in MEC-enabled IoT networks: A hybrid DDPG-D3QN approach | |
Jeong et al. | Deep reinforcement learning-based task offloading decision in the time varying channel | |
CN116954866A (zh) | 基于深度强化学习的边缘云下任务调度方法及系统 | |
CN116828541A (zh) | 基于多智能体强化学习的边缘计算依赖任务动态卸载方法及系统 | |
CN116827515A (zh) | 一种基于区块链和强化学习的雾计算系统性能优化算法 | |
Fu et al. | Using NearestGraph QoS prediction method for service recommendation in the cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |