CN114553963A - 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法 - Google Patents
移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法 Download PDFInfo
- Publication number
- CN114553963A CN114553963A CN202210176655.9A CN202210176655A CN114553963A CN 114553963 A CN114553963 A CN 114553963A CN 202210176655 A CN202210176655 A CN 202210176655A CN 114553963 A CN114553963 A CN 114553963A
- Authority
- CN
- China
- Prior art keywords
- cache
- node
- user
- edge
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1097—Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/10—Flow control between communication endpoints
- H04W28/14—Flow control between communication endpoints using intermediate storage
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明属于缓存技术领域,具体涉及一种移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法,包括构建基于深度神经网络的移动终端行动轨迹的预测系统,通过该预测系统预测下一时刻用户的位置;构建热点服务预测系统,通过该系统预测热点数据;根据预测的热点数据,通过预测的用户位置与节点之间的关系以及根据各边缘节点之间缓存的差异来迭代更新缓存;相较于传统的LRU以及LFU,本发明能提前感知到流行度最高的内容,并提高缓存系统资源利用率。
Description
技术领域
本发明属于缓存技术领域,具体涉及一种移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法。
背景技术
物联网(IoT)的发展与进步使许多资源受限的设备可以通过Internet相互连接。借助物联网,传感设备(例如智能家电、可穿戴设备和智能手机)的爆炸式增长产生了大量数据。但是与此同时大多数的物联网设备的计算、存储、通信能力有限,这使得它们不得不考虑用云来协助性能提升,但即使是使用了云计算服务,它仍然无法满足5g和物联网的严格要求,原因如下:1)响应时间过长,会影响用户的QoE;2)所有数据必须上传到集中云,容易造成数据泄露和隐私问题;3)大多数IoT设备都是将数据传到MCC中进行处理,这会大量增加网络中的通信延迟以及使用链路的大量带宽,因此仅是依靠云计算无法解决IoT中的通信和计算问题。
MEC是一种新的计算范式,它融合了移动计算和边缘计算的优点,以提高移动用户的服务质量。借助MEC可以将计算资源从云中心推送到其网络边缘,这允许数据服务以及其他相关处理任务在移动用户附近运行。因此,它不仅减少了服务等待时间,而且使网络流量减小,这两个优点对于那些有时限的服务(在移动计算中的典型应用)都非常重要。
尽管MEC的优势显而易见,但由于移动用户的请求始终在时间和位置方面发生变化,因此在为用户提供移动服务方面仍然存在效率低下的问题,并且边缘服务器的计算能力和存储能力有限,并不能将所有的服务全部满足,还是要依靠运中心的辅助。所以如果边缘节点所提供的服务如果没有考虑这些因素,可能会大大增加访问延迟,并且更糟糕的是,会增加大量的网络流量,从而导致服务中断和性能下降。
发明内容
为了减少大量重复任务发送至中心云并且占用回程链路资源的问题,本发明提出一种移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法,具体包括以下步骤:
构建基于深度神经网络的移动终端行动轨迹的预测系统,通过该预测系统预测下一时刻用户的位置;
构建热点服务预测系统,通过该系统预测热点数据;
根据预测的热点数据、预测的用户位置,利用改进的模拟退火算法进行迭代更新得到最优缓存策略。
进一步的,预测下一时刻用户的位置时,根据用户的移动轨迹使用LSTM网络预测用户下一时刻的移动位置,并获取覆盖该位置信号的基站的位置,将基站的位置作为下一时刻用户的位置。
进一步的,预测热点数据的过程即利用基于注意力的长短期网络预测服务被访问的概率,包括以下步骤:
ht=σ(W4·[ht-1,xt]+b4)·tanh(Ct);
ai=softmax(hi)*[σ(W4·[ht-1,xt]+b4)·tanh(Ct)];
OA=ai{[σ(W4·[ht-1,xt]+b4)·tanh(Ct)]};
其中,σ()为激活函数;W1为遗忘门参数矩阵、W2为输入门参数、W3为细胞状态参数矩阵、W4为注意力参数矩阵、b1为遗忘门偏置量、b2为输入门偏置量、b3为细胞状态偏置量、b4为注意力偏置量;xt为t时刻的信息输入;这部分改进了注意力机制机器在比较多的信息中能够注意到对当节点并以此更关键的信息,而对于其他非关键信息减少注意力侧重;W和b表示同一隐藏层之间的信息传递需要经过参数调整,不同下标的W和b表示在不同的门限函数中使用的参数不相同,这些参数在模型训练过程中进行更新。
进一步的,通过预测的用户位置与节点之间的关系以及根据各边缘节点之间缓存的差异来迭代更新缓存,将缓存内容放置问题转化为对区域缓存总时延最小的优化问题,表示为:
其中,L为待缓存的文件数量;M为服务器数量;WMECl为从移动端请求l时的时延;xjl为请求文件l的次数;Wserver1为从远端获取文件的时延;Si为缓存空间;lenj为文件j缓存的大小;Sall为边缘整体缓存空间。
进一步的,根据退火算法求解以缓存总时延最小的优化问题,包括以下步骤:
根据第i个小基站SBi的热点预测情况,对该节点进行初始化,即将热点预测情况排名靠前的n份数据缓存到SBi节点,视为初始化缓存Ci;根据单个节点中处理的各个数据的占比情况和整个网络中各类数据的占比情况计算单个节点与整体网络的缓存相似度;
选择缓存相似度最小的节点及其相邻节点进行缓存策略更新,并计算更新前后的时延差;
根据延时差计算单个节点接受当前缓存策略的概率;
在经过K次迭代之后判断是否达到收敛状态,如果没达到则根据退火算法中的衰减函数进行降温,更新计算单个节点接受当前缓存策略的概率时的参数;
重复以上流程,直到达到收敛状态,返回最优解。
进一步的,节点及其相邻节点进行缓存策略更新是指将节点尚未缓存的数据缓存到其邻接点,在本发明中每个节点可以同时缓冲n个种类的数据,比较每一种数据在该节点总数据的占比并按照降序排列,同理将网络中总数据量中各个数据量的占比进行降序排列,根据不同数据在整个网络和单个节点上的不同计算节点的缓存相似度。进一步的,节点及其相邻节点进行缓存策略更新是指将节点尚未缓存的数据缓存到其邻接点将单个节点与总体的流行度进行距离公式的计算,会产生一个距离,距离大的表示两者的流行度排序相差较大,计算出每个节点的距离之后,开始更新,更新从距离相差最大的节点a(与整体排序相差最大)开始,更新的策略测包括,随机调整顺序,或者根据相邻节点b情况,将b不能放入的数据放在a节点,或者将b可以放入的数据移至a节点,在将b排序较后的数据放置在b节点(每个节点都会有相邻的节点,从所有相邻节点中选择相对距离最大的节点(因为是与a相差最大,那么说明是与整体节点最相似))之后计算整体的资源消耗如果消耗减少就说明提升了收益,达到了更新的目的。
进一步的,从移动端请求l时的时延WMECl表示为:
其中,Y为服务器到用户的距离;RMECu为MEC服务器与用户u之间的无线传输速率。
进一步的,MEC服务器与用户u之间的无线传输速率RMECu表示为:
其中,B为用户之间以及MEC服务器和用户之间的通信带宽;Pc为MEC服务器与用户之间的传输功率;σ2为高斯白噪声方差。
进一步的,节点的缓存相似度表示为:
其中,Si为节点的缓存相似度;Ki为节点i所占整体请求的比例;n为请求的所有种类;Xk为边缘网络整体中数据类型为k的数据量;Yk为在单个节点中类别为k的数据的数据量;本发明中的数据量本领域可以根据实际情况进行划分,例如可以根据数据类型进行划分,划分为文字数据、声音数据、视频信息等,也可以根据数据的属性、标签等进行划分,本领域技术人员根据实际需要确定具体属性。
进一步的,根据延时差计算节点接受当前缓存策略的概率包括:
其中,P表示节点接受当前缓存策略的概率;ΔT为使用策略空间中策略进行更新后与更新之前的延时差;T为更新之前的使用策略空间中策略进行更新之前的延时。
与现有技术相比,本发明将边缘计算节点加入云和端之间,利用边缘节点的一部分存储资源,利用对用户偏好的预测将热点的数据缓存至边缘计算节点,本技术利用主动缓存来提升边缘系统中的链路利用率,主要通过统计用户的请求频率以及分析历史数据来预测用户感兴趣的内容,并且将内容提前缓存到边缘节点,相较于传统的LRU以及LFU,主动缓存能提前感知到流行度最高的内容,本技术使用空间和时间两个维度对用户进行建模来预测内容的流行度,在将流行度高的数据从云中心缓存至边缘节点,在之后通过改进的模拟退火算法来达到整体资源利用率最高的目的。
附图说明
图1为本发明一种移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法流程图;
图2为本发明实施例中离线状态流程图;
图3为本发明实施例中在线状态流程图;
图4为本发明系统框架示意图;
图5为本发明实施例中采用LSTM预测轨迹的流程示意图;
图6为本发明实施例中采用Attention-LSTM预测流行度流程示意图;
图7为本发明实施例中用户请求资源时的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提出一种移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法,具体包括以下步骤:
构建基于深度神经网络的移动终端行动轨迹的预测系统,通过该预测系统预测下一时刻用户的位置;
构建热点服务预测系统,通过该系统预测热点数据;
根据预测的热点数据,通过预测的用户位置与节点之间的关系以及根据各边缘节点之间缓存的差异来迭代更新缓存。
在本实施例中,基于深度神经网络的移动终端行动轨迹的预测系统(简称行动轨迹的预测系统)和热点服务预测系统包括离线和在线两个模式,在离线模式,如图2,本发明利用历史数据分别对两个模型进行训练,优化模型参数;在在线模式,如图3,利用完成训练的两个模型分别进行位置预测和热点流行度预测,基站确定是否考虑再下一时刻处理移动设备的请求以及预测下一时刻待处理移动设备的请求的流行度,根据预测的信息,基于改进的模拟退火算法获取最优缓存策略。
本实施例主要考虑在多边缘节点下的所有设备的缓存放置问题,采用的系统框架如图4所示。在本实施例中将本发明方法分为三个部分进行说明,包括基于深度神经网络的移动终端行动轨迹的预测系统、基于时空的热点服务预测系统以及热点缓存放置服务三个部分,其中于深度神经网络的移动终端行动轨迹的预测系统主要考虑的是移动端的设备移动性,区域边缘的设备移动会对区域内的热点内容预测造成影响,区域内部的移动会对后续的缓存放置产生影响,所以需要通过用户移动性的预测来判断用户在下一时刻存在的位置;基于时空的热点服务预测系统是将一个区域的边缘网络节点以及边缘网络整体都当成一个节点,在系统的运行初期,热点服务预测系统需要将用户的大量请求放入来预测用户整体的偏好,在足够多的的数据在支撑系统之后,后续的用户请求就作为实际的请求,经过系统预测之后返回预测的热点数据;热点缓存放置服务主要是利用返回的热点内容,再通过预测的位置与节点之间的关系以及根据各边缘节点之间缓存的差异来迭代更新缓存放置方法,从而达到对缓存的最大利用率。接下来对系统中的组成部分进行分析。
1.基于深度神经网络的移动终端的轨迹预测系统
在边缘热点缓存的放置中,终端的移动会导致放置的结果出现偏差,所以,加入对终端移动性的考虑是有必要的,在本实施例中,并不要求实时的对轨迹进行下一步预测,轨迹预测相当于是辅助缓存放置的一个功能,预测移动端的位置将会使得接下来的流行度预测时添加或者删除在网络边缘发生移动的节点,并且在后一步中对单个节点的缓存也起到辅助作用。
本实施例考虑使用LSTM模型进行预测,在经过一段时间的轨迹输入之后,预测下一次的移动轨迹,因为预测轨迹的频率只需要与流行度预测相同即可,所以是一个收集n个位置信息预测下一位置信息的过程(例如一小时进行一次缓存流行度放置流程,每十分钟获取一次移动端位置信息),使用LSTM网络来预测即可,主要利用经度,纬度,方向速度这四个特征值来作为LSTM网络的学习对象。每条轨迹由连续时间序列的支点组成,因此轨迹是连续时间序列的点的集合轨迹数据集合为Tr=(X1,X2,X3...Xn),n表示边缘系统内的移动端总用户,其中一个移动端轨迹序列Xi={(tmj,logmj,latmj,dmj,vmj)j∈(1,2,3...M)},t是时刻,log,lat表经纬度,d表示方向,v表示速度,j表示每个轨迹中的第j个轨迹点。
LSTM预测轨迹的流程如图5所示,具体包括:
移动端轨迹由连续时间序列的的为支点组成,因此轨迹是连续时间序列的点的集合,表示为:
Cm={(logm1,latm1),logm2,latm2)...logmn,latmn)}(n>0,0<m<M)
其中m是移动端设备的编号,n是时间点,M是移动端设备总数,与此同时对应的时间点序列为Tm表示为:
Tm={tm1,tm2...tmn};
将基站的通信范围也用经纬度表示为:
BSi={(logi1,lati1),(logi2,lati2)...(logij,latij)};
其中i表示基站的编号,j表示位置点的编号,判断移动端设备是否处于边缘网络的某个节点覆盖范围就需要判断(logmn,latmn)和BSi的关系,表示为:
(logmn,latmn)∈BSi;
如果预测出来的点存在于网络区域内,可以被BSi覆盖到,那么就说明下一个时刻的位置预测的对应站点就是该BSi站点。
2.基于时空的热点服务预测系统
因为用户的请求是各种各样的,所以无法提前存储所有的内容,因此提前对下一时刻的热点内容进行预测,可以更好的利用好有限的储存资源来缓存更热门的数据。
在现有的缓存研究中,一般会假设一个周期,在该周期中用户的偏好不会变,并且会通过用户的访问不同类型服务的次数来推测出单个用户访问的内容的流行度。本热点服务系统主要利用了第一部分的位置信息预测,从而知道下一时刻的移动端设备位置,在进行流行度预测时考虑到移动特性,将任务并且用边缘局域网络的整体访问服务次数来表征这个区域不同服务类型的流行度,计算出整体的流行度趋势从而对下一时刻的流行度进行预测。
在整个系统中将端节点设备映射成任务,针对每个时间段的设备n都有自己的请求任务{X1,X2...Xm(m∈(1,2..M))},M为该时间段内该设备的请求总数,整个系统中含有边缘节点数为N,在进行完第一阶段的轨迹预测后,设备会与边缘节点形成映射关系{Xi∈SBj|i∈(1,2..M),j∈(0,1,2..N)},表示每个设备的任务将放在对应的节点处进行下一阶段流行度预测。
根据边缘整体网络的中不同服务,利用基于注意力的长短期网络(Attention-LSTM)来预测将来各个服务被访问的概率,从而来进行主动缓存。
考虑到热点访问内容往往具有一定时间规律性,包括白天以及夜晚的数据流量大小的区分,或者不同类型的内容例如体育,新闻游戏等根据时间发生的变化,LSTM作为一种能有效记忆序列变化过程的深度学习算法,可以根据边缘网络申请服务的情况来进行主动的预测,LSTM是一种变种的循环神经网络(RNN),在处理类似于时序预报或者语音识别等存在前因后果关系的领域应用广泛。由于RNN会导致梯度消失,因此RNN主要用于短期记忆,而改良结构设计的LSTM的网络可以有效避免梯度消失的问题,而这主要的区别在于隐藏层单元的横向传播过程。LSTM网络在横向传播过程中除了有输出之外,还有还增加了细胞状态C的概念。加入注意力的机制可以更好地使网络降低外面因素的干扰。
Attention-LSTM预测流行度过程如图6所示,具体包括:
首先利用门限函数读取当前输入xt和前一时刻隐藏层单元ht-1,与前一时刻的细胞状态Ct-1相乘来决定前一时刻细胞状态保留程度,如下面的式子所示(遗忘门是除去Ct-1的东西):
并与利用tanh函数创造的新候选向量相乘得到新候选向量保留度,如式子所示(输入门):
因此当前时刻的细胞状态由前一时刻细胞状态,隐藏层单元和当前输入共同决定,如式子所示(当前细胞状态):
最后计算新的隐藏层单元ht,如式子所示(输出):
ht=σ(W4·[ht-1,xt]+b4)·tanh(Ct);
在某一时间间隔t中,将n个隐藏层的输出记做Hi:Hi={h1,h2,...hn}这些隐藏层输出hi经过softmax层后,得到注意力权重:
ai=softmax(hi)*[σ(W4·[ht-1,xt]+b4)·tanh(Ct)];
将注意力权重记为Ai:Ai=(a1,a2,..an)则Attention-LSTM的流行趋势OA为:
OA=ai{[σ(W4·[ht-1,xt]+b4)·tanh(Ct)]};
该LSTM模型主要用于获得请求内容的流行度趋势,因此在构建时间序列时会用请求数据类型构建时间序列,特征值提取特征向量为An={an1,an2,...ank},其中n为时间段,k∈{1,2..K},k为预先设置好的类型种类,在预测各网络中的服务被命中的概率时,需要先计算出各网络服务的访问量,归一化后得到访问服务的概率统计,其中
针对整个边缘网络,总共有m个边缘计算节点,需要进行m+1次预测,分别得出SBi(0<i<m)个节点的预测以及整个边缘网络的全体预测情况SBm。
3.热点缓存放置服务
在此阶段,该边缘网络已经经过了流行度的预测,已经有了根据用户移动性以及内容流行度排序之后的预测内容返回到边缘网络,需要在边缘网络进行缓存的放置。
本实施例选择的是多基站分布式缓存放置方式。分布式缓存指给不同的基站缓存不同的内容,用户先判断是否在本基站有对应缓存,之后再在协作基站之内判断是否有缓存,如果有则直接传输给用户,没有的话则向远端的服务器发出请求,相比于每个缓存都各自缓存内容,分布式的协作缓存提高了缓存的多样性以及命中率。
本发明采取的是主动缓存的方式。主动式缓存是指在用户请求之前先把网络中的热点内容预先缓存在基站,如果用户请求命中则直接发给用户,降低用户获得时延,如果能较好地预测出内容流行度那么主动式优于被动式。
在本实施例中,首先进行流行度预测时是以整个边缘网络区域的各类请求占比来代表不同类型的内容在本区域的流行程度,并且需要考虑到用户的移动性,一方面用户在网络区域内移动会影响到他与区域内部各个边缘基站之间距离从而影响到缓存放置的策略,另一方面用户在边缘区域的移动会导致该网络区域内的移动设备增加或减少,进而导致请求的增加和减少,也会对边缘网络的预测造成影响。在预测流行度并且回传到边缘网络之后,需要有缓存策略的考虑。通过预测最有可能出现在某个基站的内容来直接提高用户从最近基站获取到内容的概率,降低获取内容的平均时延以及减少回程链路的资源浪费。
用户请求资源时的流程如图7所示,用户在请求资源时,先判断是否有缓存在接收请求的基站上,如果有则直接返回,没有的话继续判断是否在协作基站上缓存,如果没有的话则只有去远程服务端获取,但是在边缘网络区域内的资源消耗是要远小于去远程服务端浪费回程链路的消耗的,并且前者的时延也远小于后者,所以本技术的目的是为了尽可能缓存更多的热点内容,并且摆放到最合适的位置进而达到平均请求时延最小的目的,在之前已经预测出的流行度热点数据是作为整个边缘网络区域的整体流行度,是预测过后对整个系统而言的最需求的资源的排名,但是针对单个的边缘节点覆盖的范围而言,流行度排序大概率不会和整体流行度相同,因为在单个范围内个人的偏好造成的影响会变大,并且移动端设备位置的变更也会影响到单个节点范围内的流行度,所以针对每个节点而言也需要结合位置关系的变化以及预测内容流行度的改变,在预测之后根据预测出的单个节点流行度来对节点进行初始化,在对每一个节点初始化之后,以再根据算法更新迭代缓存放置的内容,最后将缓存放置到指定服务器上。
本发明文件缓存在MEC服务上,系统产生的时延主要由两部分传播时延组成,分别是是用户到MEC之间的传播时延以及以及用户请求在MEC未缓存情况下需要与远端服务器交互的传播时延,假设缓存区域中的MEC服务器性能相同,区域内总文件为L,文件j的大小是lenj,服务器个数为M,每个MEC的缓存空间为Sl,网络中总用户个数为N,假设用户之间以及MEC服务器和用户之间的通信带宽为B,MEC服务器与用户之间的传输功率为Pc,传输路径损耗指数为α,高斯白噪声方差为σ2,u∈U表示整体网络中所有用户的集合,MEC服务器与用户之间的无线传输速率为:
定义一个二进制变量来表示用户请求的文件j是否被第i个MEC服务器缓存Xj,i∈{0,1},Xj,i=0表示文件j没有保存在第i个MEC服务器中,Xj,i=1表示文件保存在第i个MEC服务器中,另外MEC的缓存空间是有限的,缓存的文件数量不能超过缓存空间Sl,即:
当用户文件缓存至MEC服务器中时,假设服务器到用户的距离为Ym,用户的请求时延为:
如果没有缓存至MEC服务器,那么传输至远端服务器请求时延为Wserveru=tserver,综合两者情况,文件j在缓存系统的总传播时延为:
此时缓存内容放置问题转化为了对区域缓存总时延最小的优化问题,即:
在多约束下的最小缓存总时延是NP-Hard问题,为此,本文在缓存放置时设计基于模拟退火算法的缓存策略具体算法如下:
将缓存放置转换成了区域总时延最小的问题之后,以优化时延最小为目标,根据模拟退火算法设置温度参数初值T0,阈值Tc,衰减函数f(T),迭代次数K,网络整体的请求数量为Rm,每个SBi所接收的请求为Ri,每个SBi所占的整体请求的比例Ki为:
Ki=Ri/Rm;
对应的每个站点的缓存相似度为Si:
其中,Si为节点的缓存相似度;Ki为节点i所占整体请求的比例;n为请求的所有种类;Xk为边缘网络整体中类别为k的数据的数据量;Yk为在单个节点中类别为k的数据的数据量;
则缓存策略空间Uspace包括:
1)根据每个节点的预测情况来进行缓存初始化,每个节点可以存储n个热点数据,首先根据节点SBi的热点预测情况,对该站点进行初始化,将排名靠前的n份数据缓存到SBi节点,视为初始化缓存Ci;
2)针对每一个边缘节点的预测情况判断他与网络整体预测情况的区别,根据相似度Si来进行缓存的更新,在原始退火算法中是依靠随机函数完成,在本技术中先挑选相邻节点相似度相差较大的两个节点SBa,SBb(SBa的相似度>SBb的相似度,该相似度是指一个边缘节点的预测情况与网络整体预测情况的相似度,该相似度根据每一种类型数据在中数据量中的占比进行计算,可以理解为当前节点中各个类型数据占比与整个网络中各个类别数据的占比越接近则节点与整体网络的相似度越高)进行更新,在进行扰动函数更新时先尝试使用策略空间中策略进行更新,在在每次更新过后计算新的时延差△T:
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法,其特征在于,具体包括以下步骤:
构建基于深度神经网络的移动终端行动轨迹的预测系统,通过该预测系统预测下一时刻用户的位置;
构建热点服务预测系统,通过该系统预测热点数据;
根据预测的热点数据、预测的用户位置,利用改进的模拟退火算法进行迭代更新得到最优缓存策略。
2.根据权利要求1所述的移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法,其特征在于,预测下一时刻用户的位置时,根据用户的移动轨迹使用LSTM网络预测用户下一时刻的移动位置,并获取覆盖该位置信号的基站的位置,将基站的位置作为下一时刻用户的位置。
3.根据权利要求1所述的移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法,其特征在于,预测热点数据的过程即利用基于注意力的长短期网络预测服务被访问的概率,包括以下步骤:
ht=σ(W4·[ht-1,xt]+b4)·tanh(Ct);
ai=softmax(hi)*[σ(W4·[ht-1,xt]+b4)·tanh(Ct)];
OA=ai{[σ(W4·[ht-1,xt]+b4)·tanh(Ct)]};
其中,σ()为激活函数;W1为遗忘门参数矩阵、W2为输入门参数、W3为细胞状态参数矩阵、W4为注意力参数矩阵、b1为遗忘门偏置量、b2为输入门偏置量、b3为细胞状态偏置量、b4为注意力偏置量;xt为t时刻的信息输入。
5.根据权利要求4所述的移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法,其特征在于,根据退火算法求解以缓存总时延最小的优化问题,包括以下步骤:
根据第i个小基站SBi的热点预测情况,对该节点进行初始化,即将热点预测情况排名靠前的n份数据缓存到SBi节点,视为初始化缓存Ci;根据单个节点中处理的各个数据的占比情况和整个网络中各类数据的占比情况计算单个节点与整体网络的缓存相似度;
选择缓存相似度最小的节点及其相邻节点进行缓存策略更新,并计算更新前后的时延差;
根据延时差计算单个节点接受当前缓存策略的概率;
在经过K次迭代之后判断是否达到收敛状态,如果没达到则根据退火算法中的衰减函数进行降温,更新计算单个节点接受当前缓存策略的概率时的参数;
重复以上流程,直到达到收敛状态,返回最优解。
6.根据权利要求5所述的移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法,其特征在于,节点及其相邻节点进行缓存策略更新是指将节点尚未缓存的数据缓存到其邻接点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210176655.9A CN114553963B (zh) | 2022-02-24 | 2022-02-24 | 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210176655.9A CN114553963B (zh) | 2022-02-24 | 2022-02-24 | 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114553963A true CN114553963A (zh) | 2022-05-27 |
CN114553963B CN114553963B (zh) | 2023-07-25 |
Family
ID=81679542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210176655.9A Active CN114553963B (zh) | 2022-02-24 | 2022-02-24 | 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114553963B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114994723A (zh) * | 2022-06-02 | 2022-09-02 | 国网思极位置服务有限公司 | 基于星基增强系统的高精度定位方法及存储介质 |
CN115484314A (zh) * | 2022-08-10 | 2022-12-16 | 重庆大学 | 一种移动边缘计算网络下推荐赋能的边缘缓存优化方法 |
CN116112865A (zh) * | 2023-01-17 | 2023-05-12 | 广州爱浦路网络技术有限公司 | 基于用户设备位置的边缘应用服务器选择方法、计算机装置和存储介质 |
CN116320004A (zh) * | 2023-05-22 | 2023-06-23 | 北京金楼世纪科技有限公司 | 一种内容缓存方法及缓存服务系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170257452A1 (en) * | 2016-03-02 | 2017-09-07 | Huawei Technologies Canada Co., Ltd. | Systems and methods for data caching in a communications network |
US20200320397A1 (en) * | 2019-04-04 | 2020-10-08 | Cisco Technology, Inc. | Learning-based service migration in mobile edge computing |
CN112637273A (zh) * | 2020-12-04 | 2021-04-09 | 重庆邮电大学 | 一种智能热点数据预测及缓存方法 |
CN113364854A (zh) * | 2021-06-02 | 2021-09-07 | 东南大学 | 移动边缘计算网络中基于分布式强化学习的隐私保护动态边缘缓存设计方法 |
CN113392961A (zh) * | 2021-08-17 | 2021-09-14 | 中国海洋大学 | 中尺度涡轨迹平稳序列提取与循环神经网络预测方法 |
US20210302956A1 (en) * | 2021-03-24 | 2021-09-30 | Intel Corporation | Network aware and predictive motion planning in mobile multi-robotics systems |
US20210328934A1 (en) * | 2021-06-25 | 2021-10-21 | Intel Corporation | Systems, apparatus, and methods for edge data prioritization |
CN113780665A (zh) * | 2021-09-15 | 2021-12-10 | 湖南大学 | 一种基于增强循环神经网络的私家车停留位置预测方法和系统 |
-
2022
- 2022-02-24 CN CN202210176655.9A patent/CN114553963B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170257452A1 (en) * | 2016-03-02 | 2017-09-07 | Huawei Technologies Canada Co., Ltd. | Systems and methods for data caching in a communications network |
US20200320397A1 (en) * | 2019-04-04 | 2020-10-08 | Cisco Technology, Inc. | Learning-based service migration in mobile edge computing |
CN112637273A (zh) * | 2020-12-04 | 2021-04-09 | 重庆邮电大学 | 一种智能热点数据预测及缓存方法 |
US20210302956A1 (en) * | 2021-03-24 | 2021-09-30 | Intel Corporation | Network aware and predictive motion planning in mobile multi-robotics systems |
CN113364854A (zh) * | 2021-06-02 | 2021-09-07 | 东南大学 | 移动边缘计算网络中基于分布式强化学习的隐私保护动态边缘缓存设计方法 |
US20210328934A1 (en) * | 2021-06-25 | 2021-10-21 | Intel Corporation | Systems, apparatus, and methods for edge data prioritization |
CN113392961A (zh) * | 2021-08-17 | 2021-09-14 | 中国海洋大学 | 中尺度涡轨迹平稳序列提取与循环神经网络预测方法 |
CN113780665A (zh) * | 2021-09-15 | 2021-12-10 | 湖南大学 | 一种基于增强循环神经网络的私家车停留位置预测方法和系统 |
Non-Patent Citations (6)
Title |
---|
HONGJING JI: "Artificial Intelligence-Empowered Edge of Vehicles: Architecture, Enabling Technologies, and Applications", 《IEEE》 * |
倪维健;孙宇健;刘彤;曾庆田;刘聪;: "基于注意力双向循环神经网络的业务流程剩余时间预测方法", 计算机集成制造系统, no. 06 * |
孙梦: "面向边缘计算的启发式主动缓存策略研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
宋旭鸣;沈逸飞;石远明;: "基于深度学习的智能移动边缘网络缓存", 中国科学院大学学报, no. 01 * |
尚凤军: "基于链路预测和网络编码的MAC机制", 《通信学报》 * |
张海霞;李腆腆;李东阳;刘文杰;: "基于车辆行为分析的智能车联网关键技术研究", 电子与信息学报, no. 01 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114994723A (zh) * | 2022-06-02 | 2022-09-02 | 国网思极位置服务有限公司 | 基于星基增强系统的高精度定位方法及存储介质 |
CN115484314A (zh) * | 2022-08-10 | 2022-12-16 | 重庆大学 | 一种移动边缘计算网络下推荐赋能的边缘缓存优化方法 |
CN115484314B (zh) * | 2022-08-10 | 2024-04-02 | 重庆大学 | 一种移动边缘计算网络下推荐赋能的边缘缓存优化方法 |
CN116112865A (zh) * | 2023-01-17 | 2023-05-12 | 广州爱浦路网络技术有限公司 | 基于用户设备位置的边缘应用服务器选择方法、计算机装置和存储介质 |
CN116112865B (zh) * | 2023-01-17 | 2023-10-03 | 广州爱浦路网络技术有限公司 | 基于用户设备位置的边缘应用服务器选择方法、计算机装置和存储介质 |
CN116320004A (zh) * | 2023-05-22 | 2023-06-23 | 北京金楼世纪科技有限公司 | 一种内容缓存方法及缓存服务系统 |
CN116320004B (zh) * | 2023-05-22 | 2023-08-01 | 北京金楼世纪科技有限公司 | 一种内容缓存方法及缓存服务系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114553963B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114553963B (zh) | 移动边缘计算中基于深度神经网络的多边缘节点协作缓存方法 | |
Elgendy et al. | Joint computation offloading and task caching for multi-user and multi-task MEC systems: reinforcement learning-based algorithms | |
Zhong et al. | A deep reinforcement learning-based framework for content caching | |
Zhang et al. | Joint optimization of cooperative edge caching and radio resource allocation in 5G-enabled massive IoT networks | |
CN111552564A (zh) | 基于边缘缓存的任务卸载与资源优化的方法 | |
CN111491331B (zh) | 一种雾计算网络中基于迁移学习的网络感知自适应缓存方法 | |
Feng et al. | Content popularity prediction via deep learning in cache-enabled fog radio access networks | |
Jiang et al. | A novel caching policy with content popularity prediction and user preference learning in fog-RAN | |
Li et al. | Learning-based hierarchical edge caching for cloud-aided heterogeneous networks | |
Zhang et al. | Two time-scale caching placement and user association in dynamic cellular networks | |
CN116321307A (zh) | 一种无蜂窝网络中基于深度强化学习的双向缓存放置方法 | |
Jiang et al. | Federated learning-based content popularity prediction in fog radio access networks | |
Somesula et al. | Deadline-aware caching using echo state network integrated fuzzy logic for mobile edge networks | |
Li et al. | User preference learning-based proactive edge caching for D2D-assisted wireless networks | |
CN113114762B (zh) | 一种数据缓存方法及系统 | |
Li et al. | Collaborative optimization of edge-cloud computation offloading in internet of vehicles | |
CN111479312B (zh) | 异构蜂窝网络内容缓存和基站休眠联合优化方法 | |
CN112862060A (zh) | 一种基于深度学习的内容缓存方法 | |
Li et al. | A novel cooperative cache policy for wireless networks | |
Yu | Application of mobile edge computing technology in civil aviation express marketing | |
CN114786200A (zh) | 一种基于协作感知的数据智能缓存方法 | |
Chakraborty et al. | R2-d2d: A novel deep learning based content-caching framework for d2d networks | |
Mishra et al. | Efficient proactive caching in storage constrained 5g small cells | |
CN112492645A (zh) | UHWNs中基于异构边缘云的协作垂直切换方法 | |
Nie et al. | Joint service scheduling and content caching over unreliable channels |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |