CN109547275A - 一种面向用户移动性的网络边缘缓存调整方法 - Google Patents

一种面向用户移动性的网络边缘缓存调整方法 Download PDF

Info

Publication number
CN109547275A
CN109547275A CN201910095639.5A CN201910095639A CN109547275A CN 109547275 A CN109547275 A CN 109547275A CN 201910095639 A CN201910095639 A CN 201910095639A CN 109547275 A CN109547275 A CN 109547275A
Authority
CN
China
Prior art keywords
user
node
network
caching
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910095639.5A
Other languages
English (en)
Other versions
CN109547275B (zh
Inventor
李可
吕兆延
邢焕来
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Publication of CN109547275A publication Critical patent/CN109547275A/zh
Application granted granted Critical
Publication of CN109547275B publication Critical patent/CN109547275B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/142Network analysis or design using statistical or mathematical methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/147Network analysis or design for predicting network behaviour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种面向用户移动性的网络边缘缓存调整方法,该方法包括以下步骤:S1,将所有网络节点进行分组,构建多层网络缓存的架构,S2,依次计算用户在节点的停留时间和在用户区域的停留时间,S3,基于用户的移动情况和网络状况对移动型用户在各个节点的下载能力建立预测模型,S4,基于下载能力预测模型结合自适应的分块反馈网络缓存调整方法对边缘缓存部署方式进行调整。本发明提供的技术方案通过重新设计缓存空间的部署位置,进一步降低骨干网负载的空间,加入了下载情况反馈机制,修正了下载能力预测模型的预测极限的问题,能够依据用户需求提供适量且足量的缓存服务,以满足移动性强的用户的内容访问需求,能够大幅节省缓存空间。

Description

一种面向用户移动性的网络边缘缓存调整方法
技术领域
本发明涉及通信领域,具体地说,是一种面向用户移动性的网络边缘缓存调整方法。
背景技术
随着移动互联网技术的高速发展,日益增加的移动联网终端设备和爆炸式的互联网内容量对移动互联网提出了更高的要求。高速铁路的发展和车联网概念的提出,用户的移动性有了极大的提高,对传统的移动互联网提出了全新的挑战。
为了能够给用户提供更稳定的连接、更高的访问速度、更丰富的内容和更安全的通讯。边缘缓存已被证实是一种能够降低用户访问内容延迟、减轻骨干网负担的有效解决方案,并作为一种应对网络流量增长的对策受到了广泛关注。由于存储设备的价格在近几年持续下降,为已经完成大面积部署的移动互联网边缘节点增加缓存能力,相较于重新部署超高速骨干网链路更为经济。按照流行度的视频文件缓存体系能够大幅降低区域能耗,显著提高能量效率,有利于节约能源。设计出实用的缓存部署策略是边缘缓存的核心所在。而为移动性较强的用户,设计缓存部署策略,是边缘缓存的难点之一。另一方面,在设计缓存部署策略中当缓存文件数量大幅增长、网络负担加重时,会存在网络预测极限的缺陷,节点的合理缓存部署效果也会大大降低。
发明内容
本发明采用分层缓存思想,设计出一种高性能、高效率的面向用户移动性的多层网络缓存模型。包括:首先,提出多层缓存结构和分块存储模型。然后,分析用户在移动时存在获取不到相应的需求块提出自适应的分块反馈网络缓存调整(ACBC)算法模型。最后,收集数据进行系统仿真并改善模型。
一种面向用户移动性的网络边缘缓存调整方法,其特征在于,该方法包括以下步骤:
S1,将所有网络节点进行分组,构建多层网络缓存的架构,所述多层网络缓存架构自顶向下分别包括中心服务器、骨干网、二级节点层和边缘节点层。
S2,为了定量用户的数据获取能力,依次计算用户在节点的停留时间和在用户区域的停留时间,所述节点包括边缘节点,所述用户区域是指一个边缘节点的覆盖范围;
S3,基于用户的移动情况和网络状况对移动型用户在各个节点的下载能力建立预测模型,并对缓存网络进行定量计算,预测用户选择节点的概率。
S4,基于下载能力预测模型结合自适应的分块反馈网络缓存调整方法对边缘缓存部署方式进行调整。进一步的,所述边缘节点缓存完整文件分割形成的数据块,二级节点进行完整文件的缓存;
对于已经在二级节点缓存的文件,边缘缓存可以直接从二级节点缓存获得,不需要经过骨干网进行下载。
进一步的,所述步骤S2中通过建立用户区域停留时间模型依次计算用户在节点的停留时间和在用户区域的停留时间,具体包括以下步骤:
S2.1,构建用户区域停留时间的倒数模型:
假设移动型用户为车内乘客,车辆在某路段停留的时间是车辆速度的倒数;
S2.2,用户区域停留时间模型的推导:
由统计结果显示,车辆的车速最接近正态分布,则车辆的速度服从以下正态分布:
P(vi)~N(μvi,σi 2)
车辆在单位里程停留时间与车辆速度互为倒数关系,因此车辆在单位时间里停留的时间服从以下分布:
S2.2,构建用户区域停留时间的正态分布模型:
对用户区域停留时间P(ti)的结果进行正态分布拟合,得到正态分布的用户区域停留时间模型,使用如下数学表达式表达:
进一步的,用户在某个边缘节点内能够下载的数据量和在该边缘节点内停留的时间成正比,在已完成用户区域停留时间的模型的基础上,建立定量的用户下载能力预测的数学模型,即基于用户的移动情况和网络状况对移动型用户在各个节点的下载能力建立预测模型,并对缓存网络进行定量计算,预测用户选择节点的概率。
进一步的,按照如下计算步骤和公式可对移动型用户在各个节点的下载能力建立预测模型,并对缓存策略进行定量计算求解:
用户能在边缘节点下载的数据量与无线信道带宽正线性相关,根据正态分布的性质,用户在边缘节点能下载的数据量服从以下分布:P(di)~N(μtiBWwirelesssi,(σtiBWwirelesssi)2)
那么用户在边缘节点能下载的块的数量服从以下分布:
第k个数据块能在节点i被下载到的概率:
Yi=Yi-1+Xi
车辆在某边缘节点范围内下载的数据块的数量服从正态分布。即Yi=Yi-1+Xi,Y0=0,P(Yi)=P(X0)*P(X0)...P(X0),其中,“*”代表卷积。
由于
所以
使得
则意味着时,均无法达到下载概率大于门限概率的要求,
否则使得
成立。
其中,运算符定义为将一组数进行降序排序。
进一步的,下载能力预测模型通过一次计算预测出一段长度的边缘缓存部署策略,当出现很多边缘节点只参与了少量的块的缓存,甚至完全没有参与块的缓存的情况时,即当存在严重的预测极限问题时,构建自适应的分块反馈网络缓存调整模型对边缘缓存部署方式进行调整。
进一步的,将边缘节点和二级节点观察在缓存数据块最多的边缘节点中请求的最后一个数据块,作为下一个节点的起始块;将下一个节点作为起始节点,对之后的节点及数据块进行重分配,从而构建自适应的分块反馈网络缓存调整模型并对边缘缓存部署方式进行调整。
进一步的,所述自适应的分块反馈网络缓存调整模型为“计算-缓存-反馈-再计算”的循环模型。
进一步的,所述自适应的分块反馈网络缓存调整模型包括以下步骤:
S4.1,在用户开始提出数据请求时,检索二级节点数据库;
S4.2,判断用户的移动性,若用户为静止用户,则继续判断是否存在二级节点缓存,若用户为移动用户,则先执行算法生成块部署策略,再继续判断是否存在二级节点缓存;
S4.3,若无二级节点缓存,则执行流行度算法,生成骨干网链路下载,数据从二级缓存节点数据库通过骨干网传输至用户;
S4.4,若存在二级节点缓存,则直接生成二级节点-边缘节点链路下载文件,数据从二级缓存节点数据库通过边缘节点传输至用户。
其中,所述流行度算法是指根据文件的流行度趋势预测结果对相应的文件数据设置缓存。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1、本发明提供的技术方案通过重新设计缓存空间的部署位置,将缓存安排在上级层次能够提高缓存空间的利用率和缓存内容的击中率,进一步降低骨干网负载的空间,并降低用户的内容访问延迟。
2、本发明提供的技术方案将二层缓存内容分块,并构建了自适应的分块反馈网络缓存调整(ACBC)算法模型,加入了下载情况反馈的思想,修正了下载能力预测模型的预测极限的问题,能够依据用户需求提供适量且足量的缓存服务,以满足移动性强的用户的内容访问需求,并通过个性化地缓存互联网内容提供精准的无线服务。
3)本发明提供的技术方案计算量小,能够大幅节省缓存空间,并给用户提供完整的内容访问服务,因而能显著提高能量效率,有利于节约能源,大大降低缓存占用空间,是一种可行且经济的缓存部署策略,能灵活应对用户密集的城市核心地区和用户分散的郊区等各种联网需求。
附图说明
图1为本发明实施例提供的网络边缘缓存调整方法流程图。
图2为本发明实施例提供的二级缓存的网络结构模型示意图。
图3-1为车辆速度概率密度函数示意图。
图3-2为车辆单位里程停留时间概率密度函数示意图。
图3-3为实验法验证车辆单位里程停留时间概率密度函数示意图。
图3-4为均值=28、方差=10时正态分布倒数的分布示意图。
图3-5为不同速度均值下的用户区域停留时间分布示意图。
图3-6为车辆单位里程停留时间的概率密度函数和概率分布函数示意图。
图4为本发明实施例中的下载预测模型结果示意图。
图5为本发明实施例中增加边缘节点个数的下载能力预测模型结果。
图6为本发明实施例中的增加边缘节点个数的下载预测模型结果的区域放大示意图。
图7为本发明实施例中的另一下载能力预测模型结果示意图。
图8为本发明实施例中的下载能力预测模型下极限缓存的总概率趋势示意图。
图9为本发明实施例中的ACBC模型整体流程图。
图10为本发明实施例中的分层网络不同缓存方案示例示意图。
图11为本发明实施例中的下载能力预测模型的内容部署策略示意图。
图12为本发明实施例中的ACBC模型的内容部署结果示意图。
图13为本发明实施例中的改变边缘节点个数的边缘满存策略和基于ACBC边缘缓存性能对比示意图。
图14为本发明实施例中的改变边缘节点覆盖路径范围的下载能力预测模型和ACBC算法的性能对比图。
图15为本发明实施例中的改变文件总尺寸的下载预测模型和ACBC算法的性能对比示意图。
图16为本发明实施例中的实时仿真演示GUI示意图。
图17为本发明实施例中的仿真环境信息窗口示意图。
图18为本发明实施例中的GUI运行流程示意图。
图19为本发明实施例中的GUI运行状态样例示意图。
具体实施方式
本发明的目的在于利用缓存空间降低用户的访问延迟和面对移动性较强的用户提出分块存储的调整方法以提高下载效率。
本发明提供的的实施例1整体流程图如图1所示,为一种面向用户移动性的网络边缘缓存调整方法,该方法包括以下步骤:
S1,将所有网络节点进行分组,构建多层网络缓存的架构,所述多层网络缓存架构自顶向下分别包括中心服务器、骨干网、二级节点层和边缘节点层。
S2,为了定量用户的数据获取能力,依次计算用户在节点的停留时间和在用户区域的停留时间,所述节点包括边缘节点,所述用户区域是指一个边缘节点的覆盖范围;
S3,基于用户的移动情况和网络状况对移动型用户在各个节点的下载能力建立预测模型,并对缓存网络进行定量计算,预测用户选择节点的概率。
S4,基于下载能力预测模型结合自适应的分块反馈网络缓存调整方法对边缘缓存部署方式进行调整。
首先先对本实施例中出现的符号参数进行说明如下表1所示:
表1各参数含义说明
在本实施例中,首先需要构建一种面向移动用户的多层网络缓存架构,用于将所有网络节点进行分组,所述多层网络缓存架构自顶向下分别包括中心服务器、骨干网、二级节点层和边缘节点层。
本实施例考察了从文件存储服务器到边缘节点之间的路由、控制等层次,将其视为一种树状结构,若能够利用这种层次结构,将缓存安排在上级层次能够提高缓存空间的利用率和缓存内容的击中率,据此提出了第二级缓存的结构模型,如图2所示,该结构模型自顶向下,分别是中心服务器、骨干网、二级节点层和边缘节点层。
1)中心服务器:中心服务器是文件原件存放的位置,其地理位置由各内容提供方决定。现实中,中心服务器地理上的物理距离和网络拓扑上的逻辑距离都离用户较远,这也是用户从中心服务器下载存在较高延迟的原因之一。图2中有3个中心服务器,代表3个不同的内容提供商。
2)骨干网:骨干网部分实际是大型复杂各类网关节点网络的抽象,本实施例的架构设计将将其整体抽象为骨干网。
3)二级节点层:骨干网之下,本实施例首先注重的一个层次是二级节点层,也就是边缘节点层的上层节点。二级节点层是内容中心(Content Centric)型网络的内容缓存点。在图2中为R2-1、R2-2两个节点。这个节点负责多个边缘节点的内容的路由和转发,如图中R2-1负责3个边缘节点,而R2-2负责2各边缘节点。同时,每个二级节点具有较强的缓存能力,均单独配备一个容量可观的缓存空间,即为图中的C2-1和C2-2。
对于网络下载而言,将文件存储在越接近中心服务器的层次,就越能增加内容的重复访问概率,相应的也会带来用户访问内容的延迟。对于移动性强的用户,本实施例提供了边缘节点的缓存策略以降低用户对内容的访问延迟。但对于移动性若或者不移动的用户,则无法利用边缘缓存节点的优势,需要直接从二级缓存节点下载内容,那么二级缓存节点距离用户的逻辑距离直接决定了用户访问内容的延迟。将文件缓存在靠近边缘节点的二级节点是一种在延迟和缓存空间利用率之间的权衡后的策略。二级节点是内容中心型网络的组成部分,其缓存空间内缓存的是完整的文件,因此二级节点对文件内容是可知的。
4)边缘节点层
地理上和逻辑上均最靠近用户的边缘节点层中,边缘节点以RSU形式存在,每一个边缘节点都配备一个容量相较二级节点层缓存空间较小的缓存空间,即图2中的C1-1~C1-5。这些边缘节点主要以RSU(Road Side Unit)的形式分布在交通干线沿线,直接为用户提供无线网络接入点。每个无线网络覆盖区域由图2中面向用户移动性的多层网络架构中的A1~A5标示。假设一个具有移动性的用户从道路左侧进入A1无线网络覆盖区,则该用户将受C1-1及其边缘节点服务。当此用户继续移动,将依次经过A2、A3、A4、A5区域,为其提供内容访问的边缘节点也依次改变。而不是传统意义上的基站的形式设计。
用户的网络数据需求类型可分为突发型和持续型两种。突发型需求主要有网页、即时通讯等,指用户只在极短的时间内需求数据,而大多数时间在浏览数据。持续型需求主要有视频、音频文件访问,指用户需要持续不断的数据流下载。持续型需求会对骨干网带来较大的负荷,但视频、音频都具有较高的可缓存性,所以边缘缓存架构可以很好地承担用户对视频、音频的访问负荷。
边缘节点缓存的内容和二级节点不同,边缘节点不缓存完整的文件,而是缓存完整文件分割形成的数据块。因此边缘节点的缓存是内容无知型的缓存节点,不能对分成块的文件进行内容感知。
由于用户的高度移动性,而无线信道的带宽是有限的,所以用户极有可能在一个边缘节点的覆盖范围内只能下载大型文件的很小一部分。因此,在每个边缘节点都缓存完整的大型文件是没有意义的。边缘节点收到用户请求文件的消息后,反馈给二级节点,若二级节点的缓存空间内存有请求文件的完整版本,二级节点则将根据用户的运动情况、文件尺寸、无线信道情况、边缘节点覆盖能力、边缘节点个数等因素,将大型文件分块,通过专用链路分散缓存到用户所处的边缘节点及用户可能经过的边缘节点。也就是说,用户在到达前方的边缘节点覆盖范围之前,前方边缘节点已经缓存好了该请求文件的后几个数据块,节约缓存空间的同时,保证用户能够下载到需求的数据块。
5)边缘节点和二级节点之间的关系
边缘节点和二级节点共同组成了面向用户移动性的多层网络缓存部署策略。两层缓存各司其职,有不同的特性和功能;同时相互配合,为用户提供内容下载服务。下面将详细阐述两级缓存之间的联系。
边缘节点的是面向用户移动性缓存布局中的重要组成部分,通过面相数据块的缓存,以满足移动中的用户的下载需求。由于用户到来的不确定性和用户请求文件的不确定性,边缘节点缓存的内容是随机且多变的。为了尽可能节省存储空间,不再被需求的数据块需要及时被删除,以缓存新用户请求的数据块。因此,虽然针对数据块的边缘缓存虽然可以降低用户,尤其是移动型用户的内容访问延迟,但无法真正降低骨干网链路的负载。
为了能够配合边缘节点的分块缓存,特此设计二级节点缓存。二级节点按照基于流行度的缓存理论进行完整文件的缓存,作为边缘节点的分块缓存提供原始完整文件的来源。对于已经在二级节点缓存的文件,边缘缓存可以直接从二级节点缓存获得,不需要经过骨干网进行下载。
在构建多层网络缓存架构后,为了定量用户的数据获取能力,需要计算用户在用户区域的停留时间,并通过用户区域停留时间的模型和用于的建立能有助于用户下载数据块策略的部署。
S2.1用户区域停留时间的倒数模型的构建
为了能够建立定量的用户下载能力的数学模型,用户在某一个边缘节点内停留的时间至关重要。事实上,用户在某个边缘节点内能够下载的数据量和在该边缘节点内停留的时间成正比。在现实生活中,某条道路上的移动中的用户的速度的概率密度分布可以比较容易地通过交通信息获得,而在某路段停留的时间则需要建立数学模型来描述。
假设移动型用户为车内乘客。车辆在某路段停留的时间是车辆速度的倒数,因此首先需要对车辆速度的分布进行建模。幸运的是,城市交通领域已经有大量的研究对道路上车辆速度进行了数据统计和模型建立。事实上,城市交通通常是混合交通,由速度较快的机动车和速度较慢的非机动车两个群体构成。考虑到大多数移动性强的移动互联网内容访问者主要是机动车乘客,本实施例只考虑机动车的速度分布情况。
S2.1.1用户区域停留时间模型的数学推导
由统计结果显示,车辆的车速最接近正态分布。则假设车辆的速度服从以下正态分布:
P(vi)~N(μvi,σi 2) (1)
定理1:
车辆在单位里程停留时间与车辆速度互为倒数关系,因此车辆在单位时间里停留的时间服从以下分布:
证明:
定义U=φ(X),且存在关于U的反函数X=ψ(U),那么U的概率密度函数为:
g(u)|du|=f(x)|dx| (4)
或者表示为
此处,
因此:
S2.1.2用户区域停留时间模型输入参数的取值
为了方便该用户区域停留时间模型的正确性和后续模型的仿真,用户区域停留时间模型的两个核心输入参数——路段车速均值与标准差,需要定量给出。
在路段中,车辆车速服从的正态分布的均值和方差参数在各个时间段如表2所示。
表2各时间段的车辆速度分布参数
全天速度均值约为28km/h,标准差均值约为3.8。本实施例之后所有验证均采用μvi=28km/h,σi=3.8作为区域停留时间模型的输入量。
S2.1.3用户区域停留时间模型的实验验证
为了进一步验证上述数学推导的正确性,采用程序模拟独立随机试验,对实验结果进行统计的方法检验模型。
本实施例的检验方法如下:生成100,000次的服从正态分布的随机数,分别取倒数。从所得的倒数中的最小值到最大值的范围中,分割出100个等宽的区间。将所有的随机数的倒数和区间进行匹配,数出每个区间中有多少个数。按照随机数的倒数从小到大将每个区间中的随机数数目标示在二维坐标系中,即可得到概率密度曲线。
当μvi=28,σi=3.8时,车辆速度的概率密度函数如图3-1所示;使用定理1计算得出的单位路程所需时间的概率密度函数如图3-2所示;使用实验法的实验结果如图3-3所示。
图3-1中虚线所在位置为均值。
图3-2中右侧虚线标出的为原正态分布的均值的倒数,左侧虚线为正态分布倒数的分布的峰值所在位置。可以看到,在本测试参数下,正态分布概率密度函数的倒数的分布。峰值所在的位置和原正态分布的均值的倒数相差并不是很多,只有0.00126小时,即4.536秒。
图3-3中纵坐标为某取值区间内的频数,右侧虚线标出的为原正态分布的均值的倒数,左侧虚线为正态分布倒数的分布的测试结果中,峰值所在位置。
由于实验法的样本容量只有100,000个,分类区间只有100个,因此试验得出的曲线并不是很光滑。但对比图3-3的实验结果的曲线和图3-2的推导结果的曲线,可以明显看出推导结果是正确的。
至此,已经完成用户区域停留时间的倒数模型的建立。
S2.2用户区域停留时间的正态分布模型。
观察用户与区域停留时间的倒数模型的计算结果,可以发现用户区域停留时间的分布不满足正态分布但近似于正态分布。如果能够使用正态分布进行替换,则能在后续模型的建立和计算中大幅降低计算量。因此本实施例提出了一个简单正态分布的用户区域停留时间模型。
从公式2及其之后的推导可以发现,正态分布的倒数的分布并不是严格的正态分布,而是一个形式上类似于正态分布的特殊的分布。在一定情况下,正态分布倒数的分布与正态分布相比,会有很大的偏移量。如图3-4所示,是均值为28,方差为10时的正态分布的倒数的分布。可以从图中看到,峰值和均值的倒数相差较大,分布函数相较于正态分布有明显的倾斜。
但是现实中并不会出现这样的均值和方差组合。由于路段车流量、限速等因素,机动车车速的差距不会太大,正态分布倒数的分布的倾斜量不会像图3-4一样明显。比如,在平均车速为28千米每小时,标准差为3.8的场景下,即如图3-2所示虽然车辆单位路程停留时间不满足正态分布,但非常接近正态分布。
为了验证这一点,使用式2的倒数模型,改变车速的均值,观察区域停留时间的分布图像。其中均值与方差取值如下:
均值=30,37,44...86
得到的分布如图3-5所示。
可以发现区域停留时间的倒数分布非常接近正态分布。如果能够使用正态分布来代替式3-2的分布,将能够利用正态分布的卷积特性,大幅简化后续的计算。
的结果进行正态分布拟合,可得到正态分布的用户区域停留时间,而选取合适的正态分布拟合方法,能够有效地降低拟合过程中带来的系统误差。
现有的单位距离车辆经过的时间的概率密度函数和概率分布函数如图3-6所示。对其使用正态分布曲线拟合,需得到最低误差情况下的正态分布的均值及方差。
图中,横轴为车辆停留时间,单位为小时;左纵轴和实线表示概率密度函数;右纵轴和虚线表示概率分布函数。最终对用户区域停留时间的分布进行拟合方法可以使用如下数学表达式表达:
至此,已经完成完整的用户区域停留时间的正态分布模型的建立。
(3)事实上,用户在某个边缘节点内能够下载的数据量和在该边缘节点内停留的时间成正比。在此前步骤中本实施例已完成用户区域停留时间的模型建立,能够进一步用于建立定量的用户下载能力预测的数学模型,即基于用户的移动情况和网络状况对移动型用户在各个节点的下载能力建立预测模型,并对缓存网络进行定量计算,预测用户选择节点的概率。
在面向用户移动性的边缘缓存策略中,通过用户的移动情况、网络状况等因素,预测用户能够在哪些边缘节点下载哪些数据块是该策略的核心。构建一种计算用户在各个节点下载数据块数的概率分布的模型,并通过求解该模型,即可生成边缘缓存节点中数据块的部署策略。
按照如下计算步骤和公式可对移动型用户在各个节点的下载能力建立预测模型,并对缓存策略进行定量计算求解。用户能在边缘节点下载的数据量与无线信道带宽正线性相关,根据正态分布的性质,用户在边缘节点能下载的数据量服从以下分布:
那么用户在边缘节点能下载的块的数量服从以下分布:
第k个数据块能在节点i被下载到的概率:
Yi=Yi-1+Xi (9)
车辆在某边缘节点范围内下载的数据块的数量服从正态分布。即
Yi=Yi-1+Xi,Y0=0 (15)
P(Yi)=P(X0)*P(X0)...P(X0) (16)
其中,“*”代表卷积。
由于
所以
使得
则意味着时,均无法达到下载概率大于门限概率的要求。
否则使得
成立。
其中,运算符定义为将一组数进行降序排序。
至此,已完成移动型用户在各个节点的下载能力建立预测模型。
(4)在用户下载能力建立预测模型的建立过程中,用户下载能力的预测模型可能无法应对某些情景下的缓存策略部署。
以数据为例,在μvi=28,σi=3.8的情况下,当文件大小为10,000Mbit,共有5个边缘节点,每个边缘节点覆盖的路径长度为1km时,使用用户下载能力建立预测模型得到的分块及概率结果如图4所示。
图中每个钟形曲线表示一个边缘节点;上方较粗的曲线表示总的概率;带-点状水平虚线表示最低概率门限0.9;点状垂直虚线标记出总概率曲线的上跳点;黑色圆点代表某个边缘节点上的某个数据块被纳入缓存,给最终的总概率曲线增加了下载概率。可以看到,每当有新的边缘节点(图中的钟形曲线)第一次加入某个块的缓存,总概率曲线就会出现一个上跳,随后逐渐缓慢下降。当所有节点都参与缓存但总和概率不能超过门限时,放弃这个块的下载。因此可以从图中观察到一条垂直向下的黑线。
可以从图中观察到,所有的钟形曲线上都有黑点存在,表示所有的边缘节点都参与了缓存,为用户下载的总概率作出了贡献。但在第68个块之后,哪怕所有的节点都参与缓存,预测结果都是无法达到最低概率门限,因此该情景下的块缓存预测极限只有68个块。
当增加边缘节点的数量,能够被下载的块的数量会增加,如将上述仿真各条件不变,而将边缘节点增加到11个时,所得到的结果如图5所示:
虽然用户能够下载的块数得到了显著的提升,但仍然没有达到所有数据块100%下载。同时,放大图中箭头标记部分,如图6所示:
仔细观察,可以发现虽然一共有11个边缘节点,但真正参与缓存的只有10个。图4最接近横轴的曲线上并没有黑点存在,意味着这个个节点并没缓存任何数据块。
进一步的分析,可以看到在μvi=28,σi=3.8的情景下,若文件总尺寸为20,000Mbit,节点覆盖路径长度为1km,边缘节点个数位12,最低概率门限为0.9的时候,使用先前步骤构建得到的用户下载能力预测模型进行部署结果如图7所示。图中下方每一条钟形曲线为一个边缘节点,表示某个块在该节点能被下载的概率。钟形曲线上分布有黑点,表示黑点所在的钟形曲线对应的边缘节点缓存有该数据块。图中较粗的曲线表示总下载概率,下载能力预测模型将其控制在最低概率门限以上(图中带-点状直线,纵坐标为0.9);当所有节点都参与缓存仍然无法达到最低概率门限,则放弃下载该块和其之后的数据块。观察总概率曲线可以发现,该曲线在0.9以上的位置变化,其形状有上跳-逐渐下降-再上跳的规律。图中使用8条垂直于横轴的点状直线标示出总下载概率的“上跳点”。可以发现,每当有新的边缘节点参与缓存某个数据块,就会出现一个较为明显的“上跳点”。
产生这个数据块与下载概率的曲线图的同时,生成数据块与缓存该数据块的边缘节点关系表,如表3所示。
表3中,节点列表按照用户在各个节点下载该块号的数据块的概率,从大到小排列节点编号。如第11号数据块,需要使用边缘节点0和边缘节点1进行缓存,且用户在边缘节点0下载的概率大于在边缘节点1下载的概率。表中边缘节点为“-”表示此编号的数据块,即使使用所有边缘节点进行缓存,其预测概率仍然达不到最低概率门限,因此不作缓存。
统计上表,可以发现每个节点缓存的块数如表4统计所示。
从表4中可以发现,每个节点缓存的数据块数随着节点编号递增而递增,且到4号节点达到缓存块数的峰值;之后开始递减,直到第10号和第11号边缘节点中不缓存任何数据块。
用以下实验可以更清晰地说明这个问题。当共有20个边缘节点,文件总尺寸为20,000Mbit时,不管最低概率门限,而是尽可能进行缓存提高下载概率,得到的总的概率曲线如图8所示。运用MAP的数学模型,随着节点编号的增加,预测结果的方差逐渐增加,概率峰值逐渐降低。
可以看到,总的概率曲线呈现下降趋势。而事实上,若所有的节点都下载所有的块,总概率曲线一定是一条概率为1.0的直线,因为用户在任何位置都能下载到需求的数据块。图5的结果是由于使用了概率预测的方法,假定用户在某个节点的范围内只能下载到一定范围内的数据块的原因造成的。下载能力预测模型确实能够通过一次计算预测出一段长度的边缘缓存部署策略,但必须认识到该数学模型只能为一定数量的边缘节点提供缓存预测,进行缓存策略设计的事实。
查看表4中的用户下载能力建立预测模型的计算结果,可以清晰地看到有很多边缘节点只参与了少量的块的缓存,甚至完全没有参与块的缓存。这种情景下存在严重的预测极限问题。分析表4的结果可得出结论,4号节点之后缓存块数减少是由放弃下载第112号及之后的数据块造成的。因此,边缘节点和二级节点观察在缓存数据块最多的边缘节点(此处为4号节点)中请求的最后一个数据块,作为下一个节点的起始块;将下一个节点作为起始节点,对之后的节点及数据块进行重分配。由于接下来几个节点(如此处的5、6、7号节点)已缓存有一定量的数据块,且总和下载概率能够达到概率门限,因此重新计算所花费的时间不会影响移动用户在接下来几个节点下载,能够给用户连续的下载体验。在重分配计算结束之后,对后续节点的缓存数据块只增不减,因此重分配计算之前的计算开销和内容缓存不会浪费。
表3各数据块与缓存该数据块的边缘节点编号对照
块号 节点列表 块号 节点列表 块号 节点列表 块号 节点列表 块号 节点列表
1 0 41 2,1,3 81 4,5,3,6 121 - 161 -
2 0 42 2,1,3 82 4,5,3,6 122 - 162 -
3 0 43 2,1,3 83 4,5,3,6 123 - 163 -
4 0 44 2,3,1 84 4,5,6,3 124 - 164 -
5 0 45 2,3,1 85 4,5,6,3 125 - 165 -
6 0 46 2,3,1 86 4,5,6 126 - 166 -
7 0 47 2,3,1 87 4,5,6 127 - 167 -
8 0 48 2,3 88 5,4,6 128 - 168 -
9 0 49 2,3 89 5,4,6 129 - 169 -
10 0 50 2,3 90 5,4,6 130 - 170 -
11 0,1 51 2,3 91 5,4,6,7 131 - 171 -
12 0,1 52 2,3 92 5,4,6,7 132 - 172 -
13 0,1 53 3,2,4 93 5,4,6,7 133 - 173 -
14 0,1 54 3,2,4 94 5,6,4,7 134 - 174 -
15 0,1 55 3,2,4 95 5,6,4,7 135 - 175 -
16 0,1 56 3,2,4 96 5,6,4,7 136 - 176 -
17 0,1 57 3,2,4 97 5,6,4,7 137 - 177 -
18 0,1 58 3,2,4 98 5,6,4,7 138 - 178 -
19 1,0 59 3,2,4 99 5,6,4,7 139 - 179 -
20 1,0 60 3,2,4 100 5,6,4,7 140 - 180 -
21 1,0 61 3,4,2 101 5,6,7,4 141 - 181 -
22 1,0 62 3,4,2 102 5,6,7,4 142 - 182 -
23 1,0 63 3,4,2 103 5,6,7,4 143 - 183 -
24 1,0 64 3,4,2 104 5,6,7,4 144 - 184 -
25 1,0,2 65 3,4,2 105 6,5,7,4 145 - 185 -
26 1,2,0 66 3,4,2 106 6,5,7,8,4 146 - 186 -
27 1,2 67 3,4,5 107 6,5,7,8,4 147 - 187 -
28 1,2 68 3,4,5 108 6,5,7,8,4 148 - 188 -
29 1,2 69 3,4,5 109 6,5,7,8,4 149 - 189 -
30 1,2 70 3,4,5 110 6,5,7,8,4,9 150 - 190 -
31 1,2 71 4,3,5 111 6,7,5,8,9,4 151 - 191 -
32 1,2 72 4,3,5 112 - 152 - 192 -
33 1,2 73 4,3,5 113 - 153 - 193 -
34 1,2 74 4,3,5 114 - 154 - 194 -
35 1,2 75 4,3,5 115 - 155 - 195 -
36 2,1 76 4,3,5 116 - 156 - 196 -
37 2,1 77 4,3,5 117 - 157 - 197 -
38 2,1 78 4,5,3 118 - 158 - 198 -
39 2,1,3 79 4,5,3 119 - 159 - 199 -
40 2,1,3 80 4,5,3 120 - 160 - 200 -
续表
表4各节点缓存情况
节点号 0 1 2 3 4 5 6 7 8 9 10-11
缓存块数 26 37 42 47 59 45 31 21 6 2 0
为解决上述缓存策略中出现的问题,本发明提出了一种自适应的分块反馈网络缓存调整模型(Adaptive Chunk-based Caching模型,简称ACBC),ACBC方法将原本的单一的“计算-缓存”基本模型修改为“计算-缓存-反馈-再计算”的循环模型,如图9所示,该方法包括以下步骤:
S4.1,在用户开始提出数据请求时,检索二级节点数据库;
S4.2,判断用户的移动性,若用户为静止用户,则继续判断是否存在二级节点缓存,若用户为移动用户,则先执行算法生成块部署策略,再继续判断是否存在二级节点缓存;
S4.3,若无二级节点缓存,则执行流行度算法,生成骨干网链路下载,数据从二级缓存节点数据库通过骨干网传输至用户;
S4.4,若存在二级节点缓存,则直接生成二级节点-边缘节点链路下载文件,数据从二级缓存节点数据库通过边缘节点传输至用户。
所述流行度算法是指根据文件的流行度趋势预测结果对相应的文件数据设置缓存。
为对本实施例的一种自适应的分块反馈网络缓存调整方法进行详细说明并提供伪代码如下:
至此,自适应的分块反馈网络缓存调整方法建模已经完成。
(5)接下来,本发明将使用Python语言对本实施例提出的数学模型进行实现并仿真测试,使用集成开发环境PyCharm进行开发。
5.1系统性能衡量指标:
算法仿真过程中对比的指标有:PoF(Price of Fog)、文件下载量、节点使用数。
5.1.1PoF
PoF体现了边缘缓存的空间占用率。由于用户的移动性产生的用户位置的不确定性,用户请求数据块时,用户所处的边缘节点也是不确定的。因此需要对块在多个边缘节点进行冗余存储,以保证用户能够在边缘节点下载到该数据块,而不需要从二级节点或者远端服务器下载。但冗余存储会带来缓存空间的浪费。因此,在满足移动用户的下载需求的同时,尽可能降低冗余存储的数据的副本数是非常重要的。PoF就是一种衡量数据冗余存储量的指标。其计算公式为其中,n表示缓存的文件种类,m表示的是缓存的文件总量。为了尽可能地节省存储空间,PoF指标应该越低越好。同时可以容易地发现,PoF的极大值为边缘节点个数,即每个边缘节点均完整缓存了所有内容的副本;PoF的极小值为1,即传统的无缓存方案,体现为所有内容只存放在远端服务器上,因此每种文件只有一个版本。
在分层的网络架构下,缓存的放置位置会极大地影响PoF的值。如图10所示是一个三层网络的例子,自顶向下依次是核心层、中间层、边缘层。假设共有ABCDEF六种文件,若不设置缓存,即所有文件只存储在核心层的文件服务器上,则PoF为最小值1;若将缓存设置在中间层,则PoF为1.5;若将缓存设置在边缘层,则PoF为2.3。一般地,将缓存位置设置得越接近边缘分层网络的边缘,则PoF越高,空间利用率越低。但将缓存位置设置得越接近文件服务器,则下载所需经过的路由转发越多,下载延迟也就越高。因此,在传统的缓存位置放置的讨论中,提出缓存位置放置的问题是一种在空间与时间上的平衡问题。但是在先前的研究中,由于没有加入用户移动性的考量,只考虑了单纯的内容感知型缓存模型,即图中的ABCDEF都是内容可知型的完整文件,因此只能依靠将缓存点上移的方式降低PoF。但事实上,若将文件分块分别存储,个性化地为用户提供下载,同样可以降低PoF。本文的分层存储方案旨在根据用户的移动模式,于边缘层缓存用户请求的文件的部分文件块。由于用户存在的移动性,在边缘节点层,极有可能出现用户在某个边缘节点只能够获得部分的文件内容,而在相邻的边缘节点获得剩余的文件内容。
在本方案中,由于边缘层是为面向用户的移动性而设计的,采用了基于下载能力预测的概率模型,将文件分块存储在边缘层节点上,设计了ACBC的算法和相关协议。利用边缘节点进行内容无知型的数据块缓存,能够大量减少边缘节点对同一文件重复缓存产生的副本数。而在二级节点缓存完整内容的文件,虽然增加了一个副本数,但由于在上层节点,并能够服务多个边缘节点,相较于在边缘节点全部进行完整文件的缓存方案,任然能够节约缓存空间。这种方法在尽可能降低用户访问内容的延迟的同时,降低了PoF,提高了缓存空间的利用率。对比PoF指标能够评价面向用户移动性的多层缓存策略与其它缓存策略对比的缓存空间节省量。
5.1.2文件下载量
文件下载量能够反应算法的完整度,体现算法是否能够应对各种情况,尽可能多地下载用户需求内容。由于用户的移动性,用户在某个边缘节点的范围内停留时间十分有限。面向用户移动性的边缘缓存分块算法尽可能多地在给定的边缘节点数目的范围中下载数据块,这是为移动性用户设计缓存策略的初衷,也是评价缓存策略性能的最直观的评价指标。
5.1.3边缘节点使用数
边缘节点,尤其是其缓存空间是一种稀缺资源。每个边缘节点都要为多位用户提供内容下载服务,不同用户对边缘节点和其缓存空间存在竞争机制。在满足用户下载的需求的前提下,尽可能减少边缘节点的使用,意味着更高的缓存利用效率。针对不同大小的文件、不同移动性的用户应该个性化地定制面向用户移动性而设计的边缘层分块缓存的方案。
另一方面,边缘缓存部署策略应尽可能运用边缘节点的数量,为用户提供更多的内容下载量。
综上所述,边缘节点使用数能够反应边缘缓存策略能否利用好边缘节点的资源,使用恰到好处的资源为用户提供内容下载服务。
5.2仿真系统输入量、输出量与基本假设
5.2.1仿真输入量
为了衡量多层缓存网络架构的性能,须设计场景的参数对架构进行仿真。为了尽可能贴近真实场景,应使用基本物理量作为仿真程序的输入量。本文中采用了表5中的数值作为模型输入。
表5仿真输入量
5.2.2输出量
仿真的主要输出量为边缘节点的块的缓存部署策略,即每个数据块需要缓存在哪几个边缘节点里和每个节点需要缓存哪些数据块。
同时,通过分析部署策略,能够得到PoF、文件下载量、边缘节点使用数三个系统衡量指标的值。
5.2.3基本假设
为了能够简化计算,降低模型的复杂度并提高仿真情景的通用性,本文对仿真情景作出以下假设:
(a)边缘节点覆盖的范围互相连接并没有重叠。用户在离开一个边缘节点的覆盖范围后,立即进入下一个边缘节点的覆盖范围,并且不会同时处于两个边缘节点的覆盖区域内。
(b)所有车辆从道路的一端进入。用户沿着道路做一维运动,假设所有用户均以同一个方向运动,能够简化仿真情景。如果考虑用户双向进入仿真设定的边缘节点覆盖范围,所有模型和计算方法中,改变的只有边缘节点的编号顺序,其余过程均一致。因此考察单一方向的用户运动情景已满足仿真需求。
(c)用户在边缘节点覆盖范围的停留时间服从上述数学推导的正态分布。现实场景是多变的,存在大量的不确定因素。为了简化仿真情景,将重点放在多层网络架构和面向用户移动性的ACBC算法的性能上,将用户移动模式简化为第三章的用户区域停留时间的正态分布模型。
(d)每个用户都能享受满带宽的下载速度。用户下载能力与用户能够使用的无线网络带宽息息相关。用户能够使用的带宽取决于用户的终端设备、网络运营商提供的服务等因素。而此类因素对用户下载能力的影响不在本文重点讨论的范围内,因此假设用户都能享受一样的无线信道带宽,能够以同样的速度进行数据下载。
(e)ACBC算法的性能仿真测试的中,反馈块为用户在反馈节点下载概率最高的块。ACBC的反馈机制中,需要观察反馈节点最后一个被下载的数据块的块号,称为反馈块。反馈节点是上一轮ACBC算法运行时,缓存了最多的数据块的节点。由于用户的运动速度是随机的,因此用户能够在反馈节点下载的最后一个块号是随机的。为了使实验具有可重复性,实验结果具有典型性,在ACBC算法的性能仿真过程中,人为选取各反馈节点中,被下载概率最高的块作为反馈块。
5.3实验设置
本示例仿真中,各个输入量如表6所示。
表6示例仿真输入量
5.3.1下载能力预测模型实验结果分析
在此情景下,运行下载能力预测模型(也可简称预测模型)得到的块分布如图11所示。
图11中横坐标为块号(chunk number),纵坐标为下载概率(probability)。上方的带-点状虚线表示最低概率门限。上方实线曲线为总下载概率。下方的实线钟形曲线为每个边缘节点的每个块被下载的概率,从左往右边缘节点序号依次增加。
下载能力预测模型生成的块分布结果显示,114号块及其之后的块,即使所有的节点都参与缓存,都无法使得下载概率达到最低概率门限0.9。也就是说,114号块是这个模型的预测极限位置。
5.3.2ACBC算法实验结果分析
运行ACBC算法,得到的块分布如图12所示
图12中横坐标为块号(chunk number),纵坐标为下载概率(probability)。在横坐标为77和155的位置有两条垂直于横坐标的点状虚线,表示以此块为起点重启ACBC算法。钟形曲线的虚、实线交替代表不同批次的ACBC算法,如此处共有3个批次的ACBC算法生成的结果。
5.3.3实验结果汇总
从程序运行结果可以提取信息,得到如表7表7所示的性能对比:
表7缓存策略的性能对比
表中,“边缘满存”指的是将完整文件全部存储于边缘节点。由于每个边缘节点都缓存了所有的完整文件,因此用户一定能在任何边缘节点下载到任何请求的数据块,下载量为100%;然而由于每个节点都存有一份完整的文件副本,因此PoF指标为边缘节点数20。
PoF-2表示边缘节点与二级节点的总PoF。由于在本文的多层缓存网络架构模型中,边缘节点的块缓存是由在二级节点进行计算并分配的,且二级节点同样缓存了完整的数据。因此ACBC的PoF-2应在其PoF的基础上加1。由于下载能力预测模型并没有考虑多层缓存的网络架构,对第二层网络是否缓存不明确,因此下载能力预测模型的PoF-2数值不进行讨论。
可以从表中看到,在多层缓存网络架构的模型下,PoF-2比边缘满存方案降低了87.88%。也就是说,即使是多层缓存,但由于采用了ACBC的方式使得边缘节点不需要缓存完整的文件,仍然节约了大量的总缓存空间。另外,在面向用户移动性方面,ACBC算法修正了下载能力预测模型的预测极限的问题,使用反馈的机制,使得能够利用的节点数从9个增加到17个,也因此使下载量从下载能力预测模型单次预测的44%提高到100%。
5.3.4PoF性能比较
PoF指标主要与边缘节点的个数、边缘节点文件副本数相关。所以在本次仿真中,改变边缘节点的数量(EN number),对比ACBC与边缘满存(full)的PoF指标、PoF-2指标。
实验设置:本示例仿真中,除边缘节点个数外,各个输入量如表8所示。
表8针对PoF指标的仿真输入量
实验结果分析
使边缘节点数从5变化到20,编写仿真程序并运行,将得到的边缘满存和基于ACBC的边缘缓存的PoF与文件下载量指标的结果绘制在图表里,如图13所示。
图13中,左纵轴(price of fog)表示PoF;横轴(EN number)表示边缘节点数;右纵轴(download percentage)表示用户在此边缘节点能够下载的文件的百分比。
点状虚线(full)代表边缘满存PoF;带-点状虚线(ACBC-2)代表多层缓存架构的总PoF;实线(ACBC)代表边缘节点的PoF;带状虚线(percentage)代表当前节点数能够下载的文件百分比。
观察带状虚线(percentage),可以发现随着二级节点管辖的边缘节点个数的增加,用户在这个二级节点管辖下的总区域能够下载的文件的百分比增加。当边缘节点数大于等于17时,文件可以被完整地下载下来。
观察点状虚线(full),可以发现对于没有进行面向用户移动性设计的边缘满存策略,PoF随着边缘节点的个数增加而线性增加。而将其与带-点状虚线(ACBC-2)和实线(ACBC),可以发现对用户移动性进行建模优化的ACBC策略的PoF,即使加上二级节点的缓存内容,也远远小于边缘满存策略。而且节点数越多,下载量越多,优势就越明显。PoF是缓存量与缓存种类的比值,因此可以体现缓存空间的利用效率。PoF越小,则冗余缓存的备份越少,缓存空间利用效率越高。随着边缘节点数和下载量的增加,多层缓存网络边缘缓存的空间利用效率仍然极高,几乎与之前保持不变。
5.3.5ACBC算法与下载能力预测模型比较
在上文的分析中已经提到了下载能力预测模型具有的局限性,主要表现在当增加节点数、增加文件尺寸、提高用户平均移动速度、提高最低概率门限时,将会出现无法完整预测并部署所有块的现象,也就是预测极限。本实施例基于下载能力预测模型,设计了带反馈的ACBC算法。ACBC算法能够实时根据用户的下载情况,多次运行算法,以达到完整预测、最大化边缘节点及缓存空间的利用率目的。
本节将ACBC算法与下载能力预测模型对比,分别改变边缘节点的覆盖路径范围和文件总尺寸,观察比较各个评价指标随着这两个变量的变化情况。
边缘节点覆盖范围实验
本示例仿真中,除边缘节点覆盖路径范围,各个输入量如表9所示。
表9变量为边缘节点覆盖路径范围的仿真输入量
边缘节点覆盖范围实验结果分析
使边缘节点覆盖路径范围从700米变化到1500米,编写仿真程序并运行,将得到的下载能力预测模型和ACBC算法的边缘节点利用数与文件下载量指标的结果绘制在图表里,如图14所示。
图14中,左纵轴(EN usage)为边缘节使用数;右纵轴(download percentage)为下载量百分比;横轴(trace length)为每个边缘节点的路径覆盖范围。
实线(ACBC EN usage)为使用ACBC算法的边缘节点使用数随路径覆盖范围的分布;点状虚线(预测模型EN usage)为使用下载能力预测模型的边缘节点使用数随路径覆盖范围的分布;带-点状虚线(ACBC percentage)为使用ACBC算法的下载量百分比随路径覆盖范围的分布;带状虚线(预测模型percentage)为使用下载能力预测模型的下载量百分比随路径覆盖范围的分布。
观察实线(ACBC EN usage)和带-点状虚线(ACBC percentage)可以发现,ACBC算法能够在路径长度过短时,利用全部的边缘节点以达到系统的极限的下载百分比;而在路径节点足够长之后,在维持下载量百分比为100%的前提下,削减参与缓存的边缘节点数量。体现出这是一种对给定环境具有适应能力的分块缓存方案。
观察点状虚线(预测模型EN usage)左端的平直部分可以发现,在这种测试环境下,MAP算法的预测极限为9个边缘节点。若此9个边缘节点全部利用亦无法全部缓存,则这9个边缘节点能够缓存的块就为最后的下载比例,也就是图中带状虚线(预测模型percentage)所呈现出的结果。而对比实线(ACBC EN usage)和点状虚线(预测模型ENusage)可以发现,ACBC算法解决了下载能力预测模型的预测极限的问题。
5.3.6文件总尺寸实验
本示例仿真中,除文件总尺寸,各个输入量如表10所示。
表10变量为文件总尺寸的仿真输入量
文件总尺寸实验结果分析
使文件总尺寸从8,000Mbit变化到30,000Mbit,编写仿真程序并运行,将得到的MAP算法和ACBC算法的边缘节点利用数与文件下载量指标的结果绘制在图表里,如图15所示。
5.4基于GUI的ACBC算法实时仿真演示
为了能够形象地演示ACBC算法,本文开发了基于GUI的实时仿真演示程序。
5.4.1实时仿真演示GUI简介
本文开发的实时仿真演示GUI如图16所示。GUI自上而下共有3个主要模块:边缘节点(Edge Nodes)、用户信息(User Information)、控制板(Control Panel)。
边缘节点模块中共设有20个边缘节点,每个边缘节点下都有一个列表控件能够透视该边缘节点中缓存的数据块的情况。用户信息模块中主要是一个消息窗口,实时显示每个用户的请求情况与前后两个用户进入服务区域的时间差。控制板模块中有4个按钮,分别是开始(Start)、清空(Clear)、关闭(Close)和仿真环境信息(Info)。点击开始按钮即开始实时仿真;点击清空按钮则清空当前所有边缘节点的缓存和信息窗口的内容;点击关闭则终止仿真演示并关闭窗口;点击仿真环境信息则弹出Info窗口,显示当前的总文件库及其尺寸、总边缘节点数、用户进入时间差取值范围,如图17所示。从图17可以看到,本文的实时仿真演示中,二级缓存节点共有6种文件,文件尺寸从10000Mbit到24000Mbit不等。
5.4.2节点缓存块编号格式与消息格式
节点中缓存的块的编号为<文件ID>-<块号>。如1号文件的第1块为“1-1”。
用户产生间隙消息格式为[Time slot between users:<time>ms]。如当两个用户产生之间的时间间隙为1500毫秒时,则产生消息“[Time slot between users:<time>ms]”
用户请求消息格式为<Incoming User>File-ID=<FileID>Size-of-File=<Sizeof file>[<state>]。如成功完成一个请求了1号文件的用户的缓存部署,得到的消息是:<Incoming User>File-ID=1Size-of-File=10000[succeed]
5.4.3仿真演示程序流程
仿真演示程序运行流程图如图18所示。点击开始(Start)后,程序就开始产生用户并请求文件。请求的文件编号从二级缓存节点文件库中随机选取。两个用户请求文件之间的时间间隙从1秒到10秒之间随机选取。也就是说,每隔随机的一段时间,自动生成一个用户并开始请求文件。当用户开始请求文件,则运行ACBC算法,生成文件块的缓存部署策略。按照缓存部署策略依次将文件块存入对应的节点,并检查该边缘节点是否已经存有对应的数据块,若已经存有,则不再重复存储相同的数据块。
5.4.4GUI运行状态样例
如图19所示是一种GUI的运行状态样例。可以从样例中看到,有2个用户进行了文件请求,分别请求了3号文件和2号文件。两个用户之间的请求时间差为8038毫秒。在边缘节点模块中,能看到各数据块已经被成功缓存到各个边缘节点中。
本说明书中公开的所有特征,或公开的所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以以任何方式组合。本发明并不局限于前述的具体实施方式。本发明扩展到任何在本说明书中披露的新特征或任何新的组合,以及披露的任一新的方法或过程的步骤或任何新的组合。

Claims (10)

1.一种面向用户移动性的网络边缘缓存调整方法,其特征在于,该方法包括以下步骤:
S1,将所有网络节点进行分组,构建多层网络缓存的架构,所述多层网络缓存架构自顶向下分别包括中心服务器、骨干网、二级节点层和边缘节点层。
S2,为了定量用户的数据获取能力,依次计算用户在节点的停留时间和在用户区域的停留时间,所述节点包括边缘节点,所述用户区域是指一个边缘节点的覆盖范围;
S3,基于用户的移动情况和网络状况对移动型用户在各个节点的下载能力建立预测模型,并对缓存网络进行定量计算,预测用户选择节点的概率。
S4,基于下载能力预测模型结合自适应的分块反馈网络缓存调整方法对边缘缓存部署方式进行调整。
2.如权利要求1所述的网络边缘缓存调整方法,其特征在于,所述边缘节点缓存完整文件分割形成的数据块,二级节点进行完整文件的缓存;
对于已经在二级节点缓存的文件,边缘缓存可以直接从二级节点缓存获得,不需要经过骨干网进行下载。
3.如权利要求1所述的网络边缘缓存调整方法,其特征在于,所述步骤S2中通过建立用户区域停留时间模型依次计算用户在节点的停留时间和在用户区域的停留时间,具体包括以下步骤:
S2.1,构建用户区域停留时间的倒数模型:
假设移动型用户为车内乘客,车辆在某路段停留的时间是车辆速度的倒数;
S2.2,用户区域停留时间模型的推导:
由统计结果显示,车辆的车速最接近正态分布,则车辆的速度服从以下正态分布:
P(vi)~N(μvi,σi 2)
车辆在单位里程停留时间与车辆速度互为倒数关系,因此车辆在单位时间里停留的时间服从以下分布:
S2.2,构建用户区域停留时间的正态分布模型:
对用户区域停留时间P(ti)的结果进行正态分布拟合,得到正态分布的用户区域停留时间模型,使用如下数学表达式表达:
4.如权利要求1所述的网络边缘缓存调整方法,其特征在于,用户在某个边缘节点内能够下载的数据量和在该边缘节点内停留的时间成正比,在已完成用户区域停留时间的模型的基础上,建立定量的用户下载能力预测的数学模型,即基于用户的移动情况和网络状况对移动型用户在各个节点的下载能力建立预测模型,并对缓存网络进行定量计算,预测用户选择节点的概率。
5.如权利要求4所述的网络边缘缓存调整方法,其特征在于,按照如下计算步骤和公式可对移动型用户在各个节点的下载能力建立预测模型,并对缓存策略进行定量计算求解:
用户能在边缘节点下载的数据量与无线信道带宽正线性相关,根据正态分布的性质,用户在边缘节点能下载的数据量服从以下分布:
P(di)~N(μtiBWwirelesssi,(σtiBWwirelesssi)2)
那么用户在边缘节点能下载的块的数量服从以下分布:
第k个数据块能在节点i被下载到的概率:
Yi=Yi-1+Xi
车辆在某边缘节点范围内下载的数据块的数量服从正态分布。即
Yi=Yi-1+Xi,Y0=0
P(Yi)=P(X0)*P(X0)...P(X0)
其中,“*”代表卷积。
由于
所以
使得
则意味着时,均无法达到下载概率大于门限概率的要求,
否则
使得
成立。
其中,运算符定义为将一组数进行降序排序。
6.如权利要求1所述的网络边缘缓存调整方法,其特征在于,下载能力预测模型通过一次计算预测出一段长度的边缘缓存部署策略,当出现很多边缘节点只参与了少量的块的缓存,甚至完全没有参与块的缓存的情况时,即当存在严重的预测极限问题时,构建自适应的分块反馈网络缓存调整模型对边缘缓存部署方式进行调整。
7.如权利要求6所述的网络边缘缓存调整方法,其特征在于,将边缘节点和二级节点观察在缓存数据块最多的边缘节点中请求的最后一个数据块,作为下一个节点的起始块;将下一个节点作为起始节点,对之后的节点及数据块进行重分配,从而构建自适应的分块反馈网络缓存调整模型并对边缘缓存部署方式进行调整。
8.如权利要求1所述的网络边缘缓存调整方法,其特征在于,所述自适应的分块反馈网络缓存调整模型为“计算-缓存-反馈-再计算”的循环模型。
9.如权利要求8所述的网络边缘缓存调整方法,其特征在于,所述自适应的分块反馈网络缓存调整模型包括以下步骤:
S4.1,在用户开始提出数据请求时,检索二级节点数据库;
S4.2,判断用户的移动性,若用户为静止用户,则继续判断是否存在二级节点缓存,若用户为移动用户,则先执行算法生成块部署策略,再继续判断是否存在二级节点缓存;
S4.3,若无二级节点缓存,则执行流行度算法,生成骨干网链路下载,数据从二级缓存节点数据库通过骨干网传输至用户;
S4.4,若存在二级节点缓存,则直接生成二级节点-边缘节点链路下载文件,数据从二级缓存节点数据库通过边缘节点传输至用户。
10.如权利要求9所述的网络边缘缓存调整方法,其特征在于,所述流行度算法是指根据文件的流行度趋势预测结果对相应的文件数据设置缓存。
CN201910095639.5A 2018-04-20 2019-01-31 一种面向用户移动性的网络边缘缓存调整方法 Active CN109547275B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2018103592377 2018-04-20
CN201810359237.7A CN108923949A (zh) 2018-04-20 2018-04-20 一种面向用户移动性的网络边缘缓存调整方法

Publications (2)

Publication Number Publication Date
CN109547275A true CN109547275A (zh) 2019-03-29
CN109547275B CN109547275B (zh) 2021-04-16

Family

ID=64403261

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201810359237.7A Withdrawn CN108923949A (zh) 2018-04-20 2018-04-20 一种面向用户移动性的网络边缘缓存调整方法
CN201910095639.5A Active CN109547275B (zh) 2018-04-20 2019-01-31 一种面向用户移动性的网络边缘缓存调整方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201810359237.7A Withdrawn CN108923949A (zh) 2018-04-20 2018-04-20 一种面向用户移动性的网络边缘缓存调整方法

Country Status (1)

Country Link
CN (2) CN108923949A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111417124A (zh) * 2019-06-28 2020-07-14 西南交通大学 在认知无线网络环境下频谱感知的方法
CN112565377A (zh) * 2020-11-30 2021-03-26 北京邮电大学 车联网中一种面向用户服务体验的内容分级优化缓存方法
WO2022057628A1 (zh) * 2020-09-16 2022-03-24 华为技术有限公司 数据缓存方法及相关装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109714790A (zh) * 2019-01-23 2019-05-03 南京邮电大学 一种基于用户移动性预测的边缘协作缓存优化方法
CN109995851B (zh) * 2019-03-05 2021-11-26 东南大学 基于深度学习的内容流行度预测及边缘缓存方法
CN110621006B (zh) * 2019-09-27 2022-04-15 腾讯科技(深圳)有限公司 用户设备的接入处理方法、智能设备及计算机存储介质
CN112887992B (zh) * 2021-01-12 2022-08-12 滨州学院 基于接入均衡核和置换率的密集无线网络边缘缓存方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104821961A (zh) * 2015-04-16 2015-08-05 广东技术师范学院 一种基于节点社团重要度的icn缓存策略

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104821961A (zh) * 2015-04-16 2015-08-05 广东技术师范学院 一种基于节点社团重要度的icn缓存策略

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111417124A (zh) * 2019-06-28 2020-07-14 西南交通大学 在认知无线网络环境下频谱感知的方法
WO2022057628A1 (zh) * 2020-09-16 2022-03-24 华为技术有限公司 数据缓存方法及相关装置
CN112565377A (zh) * 2020-11-30 2021-03-26 北京邮电大学 车联网中一种面向用户服务体验的内容分级优化缓存方法

Also Published As

Publication number Publication date
CN109547275B (zh) 2021-04-16
CN108923949A (zh) 2018-11-30

Similar Documents

Publication Publication Date Title
CN109547275A (zh) 一种面向用户移动性的网络边缘缓存调整方法
CN109756911B (zh) 网络质量预测方法、业务调整方法、相关设备及存储介质
Song et al. QoE-driven edge caching in vehicle networks based on deep reinforcement learning
CN109257193A (zh) 边缘缓存管理方法、个人云系统和计算机可读存储介质
CN102740307B (zh) 用于规划、设计和评估无线网络的方法和系统
CN108777852A (zh) 一种车联网内容边缘卸载方法、移动资源分配系统
CN108540549B (zh) 一种面向用户移动性的网络边缘缓存选择方法
Luthra et al. TCEP: Adapting to dynamic user environments by enabling transitions between operator placement mechanisms
CN110287035A (zh) 混合边缘计算的请求调度方法、装置、设备及存储介质
CN102740223B (zh) 用于推广毫微微小区服务的方法和系统
Charisis et al. DRT route design for the first/last mile problem: model and application to Athens, Greece
Lin et al. A novel utility based resource management scheme in vehicular social edge computing
Higuchi et al. How to keep a vehicular micro cloud intact
Cats et al. Modelling public transport on‐board congestion: comparing schedule‐based and agent‐based assignment approaches and their implications
Martins et al. Agile optimization for a real‐time facility location problem in Internet of Vehicles networks
Sermpezis et al. Offloading on the edge: Performance and cost analysis of local data storage and offloading in HetNets
Finkelberg et al. The effects of vehicle-to-infrastructure communication reliability on performance of signalized intersection traffic control
Chang et al. Adaptive replication for mobile edge computing
Silva et al. ODCRep: Origin–destination-based content replication for vehicular networks
CN109618281A (zh) 一种高铁小区的识别方法及装置
Vigneri et al. Per-chunk caching for video streaming from a vehicular cloud
Zhang et al. Comprehensive Analysis on Heterogeneous Wireless Network in High‐Speed Scenarios
Silva et al. Design of roadside communication infrastructure with QoS guarantees
Tan et al. A novel multi-level computation offloading scheme at LEO constellation broadband network edge
Malandra et al. A Layered and Grid-Based Methodology to Characterize and Simulate IoT Traffic on Advanced Cellular Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant