CN111049903A - 一种基于应用感知预测的边缘网络负载分配算法 - Google Patents
一种基于应用感知预测的边缘网络负载分配算法 Download PDFInfo
- Publication number
- CN111049903A CN111049903A CN201911272229.XA CN201911272229A CN111049903A CN 111049903 A CN111049903 A CN 111049903A CN 201911272229 A CN201911272229 A CN 201911272229A CN 111049903 A CN111049903 A CN 111049903A
- Authority
- CN
- China
- Prior art keywords
- task
- network
- server
- prediction
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
- H04L67/1004—Server selection for load balancing
- H04L67/1012—Server selection for load balancing based on compliance of requirements or conditions with available server resources
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开了一种基于应用感知预测的边缘网络负载分配方法,首先在边缘服务器上获取接入边缘服务器设备的网络使用记录或日志文件,使用这些信息,训练长短期记忆模型。通过训练好的模型,将当前时隙任务输入其中,可以得知下一个时隙的最可能运行的任务或应用。对于所有接入设备,都有一个预测的结果,从而得到一个下一时隙的任务集序列。针对这个任务集序列,我们保留一部分资源用于下个时隙的真实序列,将剩余资源采用优化算法,以全局最小时间为优化,分配给每个任务相应的资源,并在当前时隙开始预加载。从而达到提升设备的用户体验,并降低应用的使用延迟的目的,最终甚至达到网络延迟的“无感知”。
Description
技术领域
本发明属于边缘网络技术领域,具体涉及一种基于应用感知预测的边缘网络负载分配的方法。
背景技术
随着物联网,移动边缘网络的兴起,人们对于现有的网络提出了更高的要求。欧洲电信标准化协会(ETSI)在2014年提出了移动边缘计算(MEC)的概念。并提出了无线网络与业务进行融合,将传统的无线基站升级为智能化基站的想法。5G的诞生又让人们更加关注于边缘网络的计算场景。在不改变核心网络的前提下,在网络边缘一侧,使用现有的资源,如何更大幅度的提高用户的网络体验,成为了一个十分重要且急迫的问题。
边缘服务器可以为边缘接入设备执行计算卸载,数据缓存和数据转发等服务。这些功能的优劣直接决定着在接入设备上运行网络服务的速度。很多文献与算法都对这三个方向进行研究,并提出多种解决方案。
提供计算卸载服务是指移动设备在运行计算要求高的任务时,受到资源以及能耗的限制,运行缓慢,甚至可能无法运行,如果将计算任务交给计算资源更为充足的边缘服务器来完成,可以大幅度的降低用户使用应用的运行延迟。例如在N.Takahashi的《Analysisof process assignment in multi-tier mobile cloud computing and application toedge accelerated Web browsing》中,提出可以针对网页加速器这一应用进行任务的卸载,Y.Zhang的《To offload or not to offload:An efficient code partitionalgorithm for mobile cloud computing》中,提出可以针对面部识别或自然语言处理应用进行卸载,可以减少近90%的运行延迟。目前计算卸载的瓶颈是不同应用的可卸载性不同,只能针对确定可以卸载的任务进行卸载决策,与卸载拓扑。
第二个方向是数据缓存,因为在同一网域内的接入设备有更高的概率会访问网络相同内容,或者同一设备重复访问,以及上下文缓存。所以通过更智能更快速的数据缓存机制,提高缓存命中率,也可以降低用户的使用延迟,提升用户体验。例如在Yue Wang的《Joint Caching Placement and User Association for Minimizing User DownloadDelay》一文中,同时考虑了有线回传条件和无线信道质量等条件,最大化的降低了平均缓存延迟。在J.Li的《Distributed caching for data dissemination in the downlink ofheterogeneous networks》一文中制定了分布式缓存放置算法,以借助因子图来最大程度地减少下载延迟。
第三个方向是数据转发,数据转发是指能够优化网络拓扑,寻找更优化的链路,从而降低获取数据的延迟。在JunjieXie的《Efficient Indexing Mechanism forUnstructured Data Sharing Systems in Edge Computing》一文中有一个十分杰出的工作,提出了一个基于坐标的索引机制,用于边缘服务器的数据共享。维护一个虚拟空间,其中交换机和数据索引与坐标相关联,算法可以根据这些坐标将数据索引分发到边缘服务器,从而可以迅速响应边缘服务器的查询请求。与其他方案相比,这个工作可以缩短59%的路径长度和30%的转发条目。
以上三个方向的优化工作的确是行之有效的,然而,仍然受到任务队列的限制。需要任务序列到来之后,才可以从这个三个方向采用不同算法进行资源的分配与优化。这样就受到了天然的限制。如果能提前预测用户设备的接下来会运行的应用,在服务器感知到任务队列的到来,提前进行资源的分配与加载,将会更大幅度的降低用户的延迟感知。甚至达到对网络延迟的“无感”。
例如数据访问任务,可以提前进行获取,在边缘服务器进行缓存,相比较实际获取到任务,再优化查找链路,查询各级服务器缓存要快的多。
随着人工智能算法的发展,以及轻量级机器学习平台的开放,可以让机器学习算法在资源更受限的设备上运行,例如TensorFlowLite,Caffe2,让这种预测任务的想法成为了可能。之前也有过相关工作,然而只是在服务器层面的网络流量预测,可以应对网络过载的问题。
综上本发明提出了一种更细粒度化解决方法,采用机器学习算法,在边缘服务器上,对接入设备下一个时隙可能使用的应用进行预测,提前对该应用的网络请求进行资源的分配,可用带宽,可用计算资源等。并在得到分配资源后进行提前加载,从而达到接入设备获得更好的网络体验,达到延迟“无感知”。
发明内容
为了解决边缘网络服务器节点资源有限,连接终端设备上的应用延迟过高的问题,本发明提出了一种,基于应用感知预测的边缘网络负载分配算法。在边缘服务器11上通过对移动设备12上不同应用的网络请求记录进行分析,使用LSTM模型得到未来设备上可能使用的应用的预测结果。根据预测结果,以及历史记录中,使用该应用所需要的资源(包括请求的数据量,服务等),进行整体的资源提前分配与加载,从而达到提升设备的用户体验,降低应用的使用延迟的目的。
本发明的如下技术方案:
一种基于应用感知预测的边缘网络负载分配方法,其特征在于,步骤如下:
(1)边缘网络服务器11中有接入设备12的网络请求使用记录;首先获取该网络记录,作为历史信息的参照;
(1.1)使用该网络记录的时间信息,处理数据;将每一个接入设备12的网络记录从时间信息数据整理为时间序列数据,得到i个设备应用随时间变化的二元数据列;i个设备,维护i个设备序列,从而区分每个设备的使用编号,为后续预测提高准确性;
(1.2)在每一条时间序列数据中,记录该条网络请求所请求的数据量大小D、容忍时间t、网络请求种类k和网络请求地址Re作为备注信息;
(2)使用长短期记忆神经网络,训练LSTM模型,使用上一步中获取的网络历史记录信息作为输入的训练集,得到最优的训练模型;
(2.1)长短期记忆神经网络(LSTM)的预测方法中,其中在每一个神经单元内引入了“输入门,遗忘门”,以及控制参数Ct;
(2.2)遗忘门表示如下:
ft=б(Wf[ht-1,xt]+bf)
其中,б为Sigmoid函数,在(-∞,∞)的定义域内,取值为[-1,1],Wf为权值向量,ht-1为迭代计算过程的前一次输出,xt为当前输入序列矩阵,bf为偏置向量;ft用于后续与控制参数Ct-1进行计算,得出哪类信息应该被丢弃;
(2.3)输入门表示如下:
It=б(WI·[ht-1,xt]+bI)
Ct′=tanh(WC·[ht-1,xt]+bC)
其中,It表示要保留下来的新信息,WI为输入门的权值向量,bI为输入门的偏置向量,Ct′为输入门的输出状态,WC为输入门输出状态的权值向量,bC为输入门输出状态的偏置向量;
此时更新新的控制向量Ct:
Ct=ft*Ct-1+It*Ct′
(2.4)输出门的结果表示为:
ot=б(Wo[ht-1,xt]+bo)
ht=ot*tanh(Ct)
其中,ot为输出门,即所需要的结果,Wo为输出门的权值向量,bo为输出门的偏置向量,ht为输出门的输出,用于计算下一个神经元;
(2.5)训练模型,根据边缘网络服务器11的计算能力进行调整,如果边缘服务器支持TensorFlowLite或Caffe2,或能在应用场景下的容忍时间内,计算出LSTM模型结果,即在选定网络历史记录信息之后,进行LSTM模型的训练工作,以便下一步的进行;如果边缘服务器不能进行LSTM模型训练,则将LSTM模型训练的任务迁移到云服务器1,或更高一层级的边缘网络服务器11,并返回LSTM模型参数,在当前边缘网络服务器11只进行预测任务;
(3)使用上一步骤训练的LSTM模型,进行网络任务的预测;使用时序信息进行预测,将网络任务按照时隙进行划分,用T表示,当前时隙为Tn;每一个设备Gi通过当前任务以及网络历史记录信息的输入,获得一个对应的预测任务为输出Mi,n+1;
(3.1)由以上场景定义设备集G:
G={G1,G2,…,Gi},i表示设备编号;
在设备Gi上的任务序列为:
Mi,n={Mi,1,Mi,2,...Mi,n-1,Mi,n},n表示时间序列
将Mi,n,n∈[1,n],输入到训练模型中,得到关于设备Gi在n+1时隙的预测任务Mi,n+1;
(3.2)计算出所有接入设备下一个时隙的预测任务,得到预测的任务序列
Фn+1′={M1,n+1,M2,n+1,...,Mi-1,n+1,Mi,n+1}
li={Di,ki,Re,t},i∈[1,i]
其中,li为对应预测任务的属性集;Di代表数据量;ki代表任务属性,抽象的,用0表示数据访问任务,用1表示需要在边缘网络服务器请求的计算任务;Re代表任务请求的网址,t表示任务容忍时间;
(3.3)对总的预测任务集Фn+1′进行过滤,将对应预测任务的属性集li中的Di数据量与服务器缓存进行匹配,如果匹配成功,说明设备可直接访问资源,不需要额外分配服务器资源,在Фn+1′中删除该任务;
最终得到需要提前进行负载分配的预测任务集Фn+1,为了表示方便,此时的任务仍然具有连续的序列号;其中m表示过滤后的序列集大小
Фn+1={M1,n+1,M2,n+1,…,Mm-1,n+1,Mm,n+1}
(4)根据得到的预测任务集,以及当前服务器11可用资源,对任务分配相应的资源,以达到全局最短时间;设定,服务器带宽为Btotal,计算强度为Θtotal,减去已经占用的Bkeep,Θkeep,又因为预测模型的准确性在70%~80%之间,所以预留30%资源,以便应对预测错误;因此,目前可分配Bidle,Θidle表示为:
Bidle=(Btotal-Bkeep)*0.7
Θidle=(Θtotal-Θkeep)*0.7
(4.1)对于数据访问的任务执行时间t1,计算任务的执行时间t2表示为
其中,Bi表示在在设备Gi上的计算任务所分配的带宽,Θi表示在设备Gi上的计算任务所分配的计算强度;
在服务器端11对步骤(3.3)中过滤后的全部m个任务进行分配的资源由如下公式所约束:
(5)由上一步得出对每一个任务所分配的资源,Bi与Θi,根据任务属性li,在当前时隙Tn对下一个时隙Tn+1的任务进行加载。
本发明的有益效果:本发明提出了一种,基于应用感知预测的边缘网络负载分配算法。在边缘服务器上通过对移动设备12上不同应用的网络请求记录进行分析,使用LSTM模型得到未来设备上可能使用的应用的预测结果。根据预测结果,以及历史记录中,使用该应用所需要的资源(包括请求的数据量,服务等),进行整体的资源提前分配与加载,从而达到提升设备的用户体验,降低应用的使用延迟的目的。
附图说明
图1是本发明所述的基于应用感知预测的边缘网络资源负载分配系统流程图;
图2是本发明所述的系统模型示意图;
图3是本发明所述的长短期记忆网络模型结构图;
图中:1云服务器;2无线接入点;3基站;4路由器;5-9不同接入设备;10云服务层;11边缘服务器层;12设备层;13通信链路。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图对本发明的应用原理作详细的描述。
如图1所示为本发明算法流程图,本发明首先在边缘服务器11上获取接入边缘服务器设备12的网络使用记录或日志文件,使用这些信息,训练长短期记忆(LSTM)模型。通过训练好的模型,将当前时隙任务输入其中,可以得知下一个时隙的最可能运行的任务或应用。对于所有接入设备,都有一个预测的结果,从而得到一个下一时隙的任务集序列。针对这个任务集序列,我们保留一部分资源用于下个时隙的真实序列,将剩余资源采用优化算法,以全局最小时间为优化,分配给每个任务相应的资源,并在当前时隙开始预加载。从而达到提升设备的用户体验,并降低应用的使用延迟的目的,最终甚至达到网络延迟的“无感知”。
具体包括以下步骤:
一种基于应用感知预测的边缘网络负载分配方法,其特征在于,步骤如下:
(1)边缘网络服务器11中有接入设备12的网络请求使用记录;首先获取该网络记录,作为历史信息的参照;
(1.1)使用该网络记录的时间信息,处理数据;将每一个接入设备12的网络记录从时间信息数据整理为时间序列数据,得到i个设备应用随时间变化的二元数据列;i个设备,维护i个设备序列,从而区分每个设备的使用编号,为后续预测提高准确性;
(1.2)在每一条时间序列数据中,记录该条网络请求所请求的数据量大小D、容忍时间t、网络请求种类k和网络请求地址Re作为备注信息;
(2)使用长短期记忆神经网络,训练LSTM模型,使用上一步中获取的网络历史记录信息作为输入的训练集,得到最优的训练模型;
(2.1)长短期记忆神经网络(LSTM)的预测方法中,其中在每一个神经单元内引入了“输入门,遗忘门”,以及控制参数Ct;
(2.2)遗忘门表示如下:
ft=б(Wf[ht-1,xt]+bf)
其中,б为Sigmoid函数,在(-∞,∞)的定义域内,取值为[-1,1],Wf为权值向量,ht-1为迭代计算过程的前一次输出,xt为当前输入序列矩阵,bf为偏置向量;ft用于后续与控制参数Ct-1进行计算,得出哪类信息应该被丢弃;
(2.3)输入门表示如下:
It=б(WI·[ht-1,xt]+bI)
Ct′=tanh(WC·[ht-1,xt]+bC)
其中,It表示要保留下来的新信息,WI为输入门的权值向量,bI为输入门的偏置向量,Ct′为输入门的输出状态,WC为输入门输出状态的权值向量,bC为输入门输出状态的偏置向量;
此时更新新的控制向量Ct:
Ct=ft*Ct-1+It*Ct′
(2.4)输出门的结果表示为:
ot=б(Wo[ht-1,xt]+bo)
ht=ot*tanh(Ct)
其中,ot为输出门,即所需要的结果,Wo为输出门的权值向量,bo为输出门的偏置向量,ht为输出门的输出,用于计算下一个神经元;
(2.5)训练模型,根据边缘网络服务器11的计算能力进行调整,如果边缘服务器支持TensorFlowLite或Caffe2,或能在应用场景下的容忍时间内,计算出LSTM模型结果,即在选定网络历史记录信息之后,进行LSTM模型的训练工作,以便下一步的进行;如果边缘服务器不能进行LSTM模型训练,则将LSTM模型训练的任务迁移到云服务器1,或更高一层级的边缘网络服务器11,并返回LSTM模型参数,在当前边缘网络服务器11只进行预测任务;
(3)使用上一步骤训练的LSTM模型,进行网络任务的预测;使用时序信息进行预测,将网络任务按照时隙进行划分,用T表示,当前时隙为Tn;每一个设备Gi通过当前任务以及网络历史记录信息的输入,获得一个对应的预测任务为输出Mi,n+1;
(3.1)由以上场景定义设备集G:
G={G1,G2,…,Gi},i表示设备编号;
在设备Gi上的任务序列为:
Mi,n={Mi,1,Mi,2,...Mi,n-1,Mi,n},n表示时间序列
将Mi,n,n∈[1,n],输入到训练模型中,得到关于设备Gi在n+1时隙的预测任务Mi,n+1;
(3.2)计算出所有接入设备下一个时隙的预测任务,得到预测的任务序列
Фn+1′={M1,n+1,M2,n+1,...,Mi-1,n+1,Mi,n+1}
li={Di,ki,Re,t},i∈[1,i]
其中,li为对应预测任务的属性集;Di代表数据量;ki代表任务属性,抽象的,用0表示数据访问任务,用1表示需要在边缘网络服务器请求的计算任务;Re代表任务请求的网址,t表示任务容忍时间;
(3.3)对总的预测任务集Фn+1′进行过滤,将对应预测任务的属性集li中的Di数据量与服务器缓存进行匹配,如果匹配成功,说明设备可直接访问资源,不需要额外分配服务器资源,在Фn+1′中删除该任务;
最终得到需要提前进行负载分配的预测任务集Фn+1,为了表示方便,此时的任务仍然具有连续的序列号;其中m表示过滤后的序列集大小
Фn+1={M1,n+1,M2,n+1,…,Mm-1,n+1,Mm,n+1}
(4)根据得到的预测任务集,以及当前服务器11可用资源,对任务分配相应的资源,以达到全局最短时间;设定,服务器带宽为Btotal,计算强度为Θtotal,减去已经占用的Bkeep,Θkeep,又因为预测模型的准确性在70%~80%之间,所以预留30%资源,以便应对预测错误;因此,目前可分配Bidle,Θidle表示为:
Bidle=(Btotal-Bkeep)*0.7
Θidle=(Θtotal-Θkeep)*0.7
(4.1)对于数据访问的任务执行时间t1,计算任务的执行时间t2表示为
其中,Bi表示在在设备Gi上的计算任务所分配的带宽,Θi表示在设备Gi上的计算任务所分配的计算强度;
在服务器端11对步骤(3.3)中过滤后的全部m个任务进行分配的资源由如下公式所约束:
(5)由上一步得出对每一个任务所分配的资源,Bi与Θi,根据任务属性li,在当前时隙Tn对下一个时隙Tn+1的任务进行加载。
综上所述:
本发明提出了一种,基于应用感知预测的边缘网络负载分配算法。在边缘服务器11上通过对移动设备12上不同应用的网络请求记录进行分析,使用LSTM模型得到未来设备上可能使用的应用的预测结果。根据预测结果,以及历史记录中,使用该应用所需要的资源(包括请求的数据量,服务等),进行整体的资源提前分配与加载,从而达到提升设备的用户体验,降低应用的使用延迟的目的。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (1)
1.一种基于应用感知预测的边缘网络负载分配方法,其特征在于,步骤如下:
(1)边缘网络服务器11中有接入设备12的网络请求使用记录;首先获取该网络记录,作为历史信息的参照;
(1.1)使用该网络记录的时间信息,处理数据;将每一个接入设备12的网络记录从时间信息数据整理为时间序列数据,得到i个设备应用随时间变化的二元数据列;i个设备,维护i个设备序列,从而区分每个设备的使用编号,为后续预测提高准确性;
(1.2)在每一条时间序列数据中,记录该条网络请求所请求的数据量大小D、容忍时间t、网络请求种类k和网络请求地址Re作为备注信息;
(2)使用长短期记忆神经网络,训练LSTM模型,使用上一步中获取的网络历史记录信息作为输入的训练集,得到最优的训练模型;
(2.1)长短期记忆神经网络的预测方法中,其中在每一个神经单元内引入了“输入门,遗忘门”,以及控制向量Ct;
(2.2)遗忘门表示如下:
其中,为Sigmoid函数,在(-∞,∞)的定义域内,取值为[-1,1],Wf为权值向量,ht-1为迭代计算过程的前一次输出,xt为当前输入序列矩阵,bf为偏置向量;ft用于后续与控制参数Ct-1进行计算,得出哪类信息应该被丢弃;
(2.3)输入门表示如下:
Ct′=tanh(WC·[ht-1,xt]+bC)
其中,It表示要保留下来的新信息,WI为输入门的权值向量,bI为输入门的偏置向量,Ct′为输入门的输出状态,WC为输入门输出状态的权值向量,bC为输入门输出状态的偏置向量;
此时更新新的控制向量Ct:
Ct=ft*Ct-1+It*Ct′
(2.4)输出门的结果表示为:
ht=ot*tanh(Ct)
其中,ot为输出门,即所需要的结果,Wo为输出门的权值向量,bo为输出门的偏置向量,ht为输出门的输出,用于计算下一个神经元;
(2.5)训练模型,根据边缘网络服务器11的计算能力进行调整,如果边缘服务器支持TensorFlowLite或Caffe2,或能在应用场景下的容忍时间内,计算出LSTM模型结果,即在选定网络历史记录信息之后,进行LSTM模型的训练工作,以便下一步的进行;如果边缘服务器不能进行LSTM模型训练,则将LSTM模型训练的任务迁移到云服务器1,或更高一层级的边缘网络服务器11,并返回LSTM模型参数,在当前边缘网络服务器11只进行预测任务;
(3)使用上一步骤训练的LSTM模型,进行网络任务的预测;使用时序信息进行预测,将网络任务按照时隙进行划分,用T表示,当前时隙为Tn;每一个设备Gi通过当前任务以及网络历史记录信息的输入,获得一个对应的预测任务为输出Mi,n+1;
(3.1)由以上场景定义设备集G:
G={G1,G2,...,Gi},i表示设备编号;
在设备Gi上的任务序列为:
Mi,n={Mi,1,Mi,2,...Mi,n-1,Mi,n},n表示时间序列;
将Mi,n,n∈[1,n],输入到训练模型中,得到关于设备Gi在n+1时隙的预测任务Mi,n+1;
(3.2)计算出所有接入设备下一个时隙的预测任务,得到预测的任务序列
Φn+1′={M1,n+1,M2,n+1,...,Mi-1,n+1,Mi,n+1}
li={Di,ki,Re,t},i∈[1,i]
其中,li为对应预测任务的属性集;Di代表数据量;ki代表任务属性,抽象的,用0表示数据访问任务,用1表示需要在边缘网络服务器请求的计算任务;Re代表任务请求的网址,t表示任务容忍时间;
(3.3)对总的预测任务集Φn+1′进行过滤,将对应预测任务的属性集li中的Di数据量与服务器缓存进行匹配,如果匹配成功,说明设备可直接访问资源,不需要额外分配服务器资源,在Φn+1′中删除该任务;
最终得到需要提前进行负载分配的预测任务集Φn+1,为了表示方便,此时的任务仍然具有连续的序列号;其中m表示过滤后的序列集大小
Φn+1={M1,n+1,M2,n+1,...,Mm-1,n+1,Mm,n+1}
(4)根据得到的预测任务集,以及当前服务器11可用资源,对任务分配相应的资源,以达到全局最短时间;设定,服务器带宽为Btotal,计算强度为Θtotal,减去已经占用的Bkeep,Θkeep,又因为预测模型的准确性在70%~80%之间,所以预留30%资源,以便应对预测错误;因此,目前可分配Bidle,Θidle表示为:
Bidle=(Btotal-Bkeep)*0.7
Θidle=(Θtotal-Θkeep)*0.7
(4.1)对于数据访问的任务执行时间t1,计算任务的执行时间t2表示为
其中,Bi表示在在设备Gi上的计算任务所分配的带宽,Θi表示在设备Gi上的计算任务所分配的计算强度;
在服务器端11对步骤(3.3)中过滤后的全部m个任务进行分配的资源由如下公式所约束:
(5)由上一步得出对每一个任务所分配的资源,Bi与Θi,根据任务属性li,在当前时隙Tn对下一个时隙Tn+1的任务进行加载。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911272229.XA CN111049903B (zh) | 2019-12-12 | 2019-12-12 | 一种基于应用感知预测的边缘网络负载分配算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911272229.XA CN111049903B (zh) | 2019-12-12 | 2019-12-12 | 一种基于应用感知预测的边缘网络负载分配算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111049903A true CN111049903A (zh) | 2020-04-21 |
CN111049903B CN111049903B (zh) | 2021-04-20 |
Family
ID=70235999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911272229.XA Active CN111049903B (zh) | 2019-12-12 | 2019-12-12 | 一种基于应用感知预测的边缘网络负载分配算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111049903B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112003887A (zh) * | 2020-07-06 | 2020-11-27 | 北京航空航天大学 | 一种面向工业互联网时序数据预测的云端-边缘协同深度学习装置 |
CN113098707A (zh) * | 2021-03-16 | 2021-07-09 | 重庆邮电大学 | 边缘网络中一种虚拟网络功能需求预测方法 |
US20210342198A1 (en) * | 2020-05-01 | 2021-11-04 | Dell Products L. P. | System for allocating task processing between an iot device and an edge device |
CN114415735A (zh) * | 2022-03-31 | 2022-04-29 | 天津大学 | 面向动态环境的多无人机分布式智能任务分配方法 |
CN116665423A (zh) * | 2023-07-27 | 2023-08-29 | 国网山东省电力公司滨州市滨城区供电公司 | 一种电缆通道施工监测预警系统及方法 |
CN117560701A (zh) * | 2024-01-12 | 2024-02-13 | 易联科技(深圳)有限公司 | 一种无线路由器的远程管理方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108170529A (zh) * | 2017-12-26 | 2018-06-15 | 北京工业大学 | 一种基于长短期记忆网络的云数据中心负载预测方法 |
CN109600432A (zh) * | 2018-12-03 | 2019-04-09 | 上海科技大学 | 内容中心移动边缘网络用户动态接入方法 |
CN109670621A (zh) * | 2017-10-16 | 2019-04-23 | 优酷网络技术(北京)有限公司 | 神经网络预测方法及装置 |
CN109995851A (zh) * | 2019-03-05 | 2019-07-09 | 东南大学 | 基于深度学习的内容流行度预测及边缘缓存方法 |
CN110198339A (zh) * | 2019-04-17 | 2019-09-03 | 浙江大学 | 一种基于QoE感知的边缘计算任务调度方法 |
US20190283254A1 (en) * | 2018-03-17 | 2019-09-19 | Tata Consultancy Services Limited | System and method for fault detection in robotic actuation |
-
2019
- 2019-12-12 CN CN201911272229.XA patent/CN111049903B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670621A (zh) * | 2017-10-16 | 2019-04-23 | 优酷网络技术(北京)有限公司 | 神经网络预测方法及装置 |
CN108170529A (zh) * | 2017-12-26 | 2018-06-15 | 北京工业大学 | 一种基于长短期记忆网络的云数据中心负载预测方法 |
US20190283254A1 (en) * | 2018-03-17 | 2019-09-19 | Tata Consultancy Services Limited | System and method for fault detection in robotic actuation |
CN109600432A (zh) * | 2018-12-03 | 2019-04-09 | 上海科技大学 | 内容中心移动边缘网络用户动态接入方法 |
CN109995851A (zh) * | 2019-03-05 | 2019-07-09 | 东南大学 | 基于深度学习的内容流行度预测及边缘缓存方法 |
CN110198339A (zh) * | 2019-04-17 | 2019-09-03 | 浙江大学 | 一种基于QoE感知的边缘计算任务调度方法 |
Non-Patent Citations (1)
Title |
---|
葛澎: "基于用户行为预测的无线通信网络资源分配优化研究", 《中国优秀硕士学位论文全文数据库》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210342198A1 (en) * | 2020-05-01 | 2021-11-04 | Dell Products L. P. | System for allocating task processing between an iot device and an edge device |
US11620167B2 (en) * | 2020-05-01 | 2023-04-04 | Dell Products L.P. | System for allocating task processing between an IoT device and an edge device |
CN112003887A (zh) * | 2020-07-06 | 2020-11-27 | 北京航空航天大学 | 一种面向工业互联网时序数据预测的云端-边缘协同深度学习装置 |
CN113098707A (zh) * | 2021-03-16 | 2021-07-09 | 重庆邮电大学 | 边缘网络中一种虚拟网络功能需求预测方法 |
CN114415735A (zh) * | 2022-03-31 | 2022-04-29 | 天津大学 | 面向动态环境的多无人机分布式智能任务分配方法 |
CN114415735B (zh) * | 2022-03-31 | 2022-06-14 | 天津大学 | 面向动态环境的多无人机分布式智能任务分配方法 |
CN116665423A (zh) * | 2023-07-27 | 2023-08-29 | 国网山东省电力公司滨州市滨城区供电公司 | 一种电缆通道施工监测预警系统及方法 |
CN116665423B (zh) * | 2023-07-27 | 2023-10-31 | 国网山东省电力公司滨州市滨城区供电公司 | 一种电缆通道施工监测预警系统及方法 |
CN117560701A (zh) * | 2024-01-12 | 2024-02-13 | 易联科技(深圳)有限公司 | 一种无线路由器的远程管理方法及系统 |
CN117560701B (zh) * | 2024-01-12 | 2024-03-26 | 易联科技(深圳)有限公司 | 一种无线路由器的远程管理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111049903B (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111049903B (zh) | 一种基于应用感知预测的边缘网络负载分配算法 | |
Li et al. | Collaborative cache allocation and task scheduling for data-intensive applications in edge computing environment | |
CN114116198A (zh) | 一种移动车辆的异步联邦学习方法、系统、设备及终端 | |
CN112416554A (zh) | 一种任务迁移方法、装置、电子设备及存储介质 | |
WO2022171066A1 (zh) | 基于物联网设备的任务分配方法、网络训练方法及装置 | |
US11757790B2 (en) | Method and server for adjusting allocation of computing resources to plurality of virtualized network functions (VNFs) | |
CN110069341A (zh) | 边缘计算中结合功能按需配置的有依赖关系任务的调度方法 | |
Malektaji et al. | Deep reinforcement learning-based content migration for edge content delivery networks with vehicular nodes | |
Yadav et al. | Resource provisioning through machine learning in cloud services | |
US11620207B2 (en) | Power efficient machine learning in cloud-backed mobile systems | |
Khelifa et al. | Combining task scheduling and data replication for SLA compliance and enhancement of provider profit in clouds | |
Alqahtani et al. | A proactive caching and offloading technique using machine learning for mobile edge computing users | |
Nguyen et al. | Flexible computation offloading in a fuzzy-based mobile edge orchestrator for IoT applications | |
More et al. | Energy-aware VM migration using dragonfly–crow optimization and support vector regression model in Cloud | |
Jie et al. | A DQN-based approach for online service placement in mobile edge computing | |
Xu et al. | A meta reinforcement learning-based virtual machine placement algorithm in mobile edge computing | |
CN111770152B (zh) | 一种边缘数据管理方法、介质、边缘服务器和系统 | |
CN112559078A (zh) | 一种移动边缘计算服务器分级卸载任务方法及系统 | |
CN116760722A (zh) | 一种存储辅助mec任务卸载系统及资源调度方法 | |
CN116390162A (zh) | 一种基于深度强化学习的移动边缘计算动态服务部署方法 | |
Surya et al. | Novel Approaches for Resource Management Across Edge Servers | |
CN114785692A (zh) | 一种虚拟电厂聚合调控通信网络流量均衡方法及装置 | |
US11531917B1 (en) | Probabilistic forecasting with nonparametric quantile functions | |
Samuel Raj et al. | Improved DHOA-Fuzzy Based Load Scheduling in IoT Cloud Environment. | |
CN110933119B (zh) | 一种更新缓存内容的方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |