CN111935783A - 一种基于流量感知的边缘缓存系统和方法 - Google Patents
一种基于流量感知的边缘缓存系统和方法 Download PDFInfo
- Publication number
- CN111935783A CN111935783A CN202010661109.5A CN202010661109A CN111935783A CN 111935783 A CN111935783 A CN 111935783A CN 202010661109 A CN202010661109 A CN 202010661109A CN 111935783 A CN111935783 A CN 111935783A
- Authority
- CN
- China
- Prior art keywords
- content
- fog
- request
- cache
- base station
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/10—Flow control between communication endpoints
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/10—Flow control between communication endpoints
- H04W28/14—Flow control between communication endpoints using intermediate storage
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W76/00—Connection management
- H04W76/10—Connection setup
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明公开了一种基于流量感知的边缘缓存系统和方法,属于无线通信技术领域。本发明通过雾节点之间的相互协作以及云端与雾节点之间的协同机制,实现了高效的内容缓存;通过联合考虑雾节点的缓存容量限制和基站与用户之间的通信容量,同时考虑内容的传输时延和用户的排队等待时延,将任意请求内容的平均下载时延最小化的问题看作一个多类处理器排队问题,更加符合实际的网络场景。为了求解出最优的边缘缓存策略,本发明提出一种基于ADMM(Alternating Direction Method of Multipliers,交替方向乘子法)的缓存算法,与现有的凸优化问题常见解决算法相比,本发明所提出的缓存算法可以通过非常快的收敛速率到达全局最优解。
Description
技术领域
本发明属于无线通信技术领域,更具体地,涉及一种基于流量感知的边缘缓存系统和方法。
背景技术
随着各种多媒体应用的快速发展,无线网络中的数据传输开始面临着越来越大的挑战。边缘缓存技术被认为是解决这一问题十分有前景的技术。通过将用户频繁请求的流行内容缓存在离他们最近的雾节点,边缘缓存可以有效减少内容交付时延并缓解回程链路和主干网中的流量拥塞。
目前已有很多工作提出了各种复杂的缓存策略,它们大都假设缓存的内容可以立即交付给请求用户。在这种假设下为了将流量尽可能多地卸载到网络边缘,边缘缓存命中率(Edge-Caching-Hit-Ratio,ECHR)成为了缓存使能的系统中的重要的性能指标。一般认为,ECHR的最大化有助于提高用户的体验质量,降低网络的内容提供开销。但是实际上只有当雾节点缓存的内容能够及时成功地交付给请求用户时最大化ECHR才能提高用户的体验质量。不幸的是,用户和基站之间的连接通常是通过容量有限的无线链路实现的,这意味着网络边缘的缓存内容需要一段时间才能被处理并传输给请求用户。因此用户的内容请求率越高,通常用户平均需要等待的时间就越长。如果将ECHR最大化,则可能给在雾节点处等待的用户带来额外的时延,而在这段等待的时间内用户本可以通过云数据中心获得服务。
尽管已经有许多工作集中在优化雾节点的缓存内容放置机制或缓解无线接入网络中的拥塞的策略,但是仍然缺乏通过联合考虑缓存容量、内容流行度、用户的内容请求率和基站与用户之间的连接容量来优化边缘缓存的综合解决方案。
发明内容
针对现有技术的缺陷和改进需求,本发明提供了一种基于流量感知的边缘缓存系统与方法,其目的在于解决现有边缘缓存策略中缺乏联合考虑雾节点存储容量和基站与用户之间的通信容量的问题。
为实现上述目的,按照本发明的第一方面,提供了一种基于流量感知的边缘缓存系统,所述系统包括:用户层、雾接入层、网络边缘控制器及云数据中心;
用户层包括若干用户端,每个用户端用于向雾接入层发送内容请求,并与覆盖范围包含发送内容请求时用户端所在的位置的基站建立通信连接;
雾接入层包括:若干基站、若干雾节点和一个网络边缘控制器,每个基站与每个雾节点一一对应,其中,
网络边缘控制器,用于将雾接入层的雾节点划分成不同的簇,并协调簇内雾节点之间的协作缓存,一个雾节点只属于一个簇,簇与簇之间相互独立,同一个簇内的雾节点之间能相互协作,不同簇之间的雾节点之间不能相互协作;
每个基站,具备流量感知能力,用于在接收与之相连的用户请求时,收集与该基站对应的雾节点所在簇内的所有雾节点中与请求内容相关的部分,判断收集到的内容是否是完整的请求内容,若是,将收集到的内容传输给请求用户端,否则,向云数据中心发送获取该内容未缓存部分的请求;
每个雾节点,用于对整个网络中的部分内容,采用分片缓存技术进行边缘缓存;
云数据中心,用于在接收到基站发送的内容未缓存部分获取请求时,向基站发送该内容未缓存部分。
优选地,将雾接入层的雾节点划分成不同的簇依据的是各个雾节点的地理位置、存储能力、内容请求业务处理能力和通信资源中的至少一个。
优选地,雾节点还用于处理到达的业务请求,判断在雾接入层是否能够查找到当前请求内容,若是,将该业务请求分到边缘交付队列,否则,将该业务请求分到云端获取队列。
优选地,雾节点处的内容请求到达、等待、以及交付的业务处理模型建模为排队论中的M/M/1排队过程。
为实现上述目的,按照本发明的第二方面,提供了一种基于如第一方面所述的流量感知的边缘缓存系统的边缘缓存方法,该方法包括以下步骤:
S1.计算同一个簇内所有雾节点对应的基站的覆盖区域内产生的每个请求的总的平均下载时延,构建以该平均下载时延最小化、包含第一约束、第二约束和第三约束的不等式限制的目标函数,所述第一约束是对于内容缓存比例的基本限制,所述第二约束保证任意一个内容在一个簇内被缓存的比例之和不超过1,所述第三约束保证同一个簇内的各个雾节点缓存内容的大小不超过其存储容量限制;
S2.将具有不等式限制的目标函数转化为适用于ADMM算法求解的形式;
S3.利用ADMM算法求解出最优的内容缓存向量,即为最优的缓存策略,并根据该结果在雾节点中进行内容缓存放置。
优选地,同一个簇内所有雾节点对应的基站的覆盖区域内产生的每个请求的总的平均下载时延D的计算公式如下:
其中,Di为在雾节点i处内容请求的平均下载时延,λi为雾节点i内容请求业务的到达率,N为雾节点的数量,He(P)为边缘缓存命中率,μe,i为边缘交付队列的平均业务处理率,μb,i为云端获取队列的平均业务处理率,P为缓存内容放置矩阵。
优选地,包含第一约束C1、第二约束C2和第三约束C3的不等式限制如下:
优选地,步骤S2包括以下步骤:
S21.定义辅助矩阵A和辅助矩阵B分别为:
其中,1≤v1≤F,1≤w≤N·F;
其中,1≤v2≤N,1≤w≤N·F;
S22.借助所述辅助矩阵A和辅助矩阵B,将目标函数转化为:
s.t.0≤p(j)≤1,1≤j≤N·F,
Ap≤Au
Bp≤Bu
其中,内容缓存放置向量p=<P(i,f)>,Au=[1,1,…,1]T,Bu=[M1,..,MN]T;
S24.得到最终的目标函数表示为:
minpD(p)+g(z)s.t.p-z=0。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
(1)本发明通过雾节点之间的相互协作以及云端与雾节点之间的协同机制,实现了高效的内容缓存;通过联合考虑雾节点的缓存容量限制和基站与用户之间的通信容量限制,同时考虑内容的传输时延和用户的排队等待时延,将任意请求内容的平均下载时延最小化的问题看作一个多类处理器排队问题,更加符合实际的网络场景。
(2)为了求解出最优的边缘缓存策略,本发明提出一种基于ADMM的缓存算法,与现有的凸优化问题常见解决算法(如内点法)相比,本发明所提出的缓存算法可以通过非常快的收敛速率到达全局最优解。
附图说明
图1为本发明实施例提供的一种基于流量感知的边缘缓存系统示意图;
图2为本发明实施例提供的一种基于流量感知的边缘缓存方法流程图;
图3为本发明实施例提供的一种基于ADMM的缓存算法的流程图;
图4为本发明实施例提供的一种本发明的算法与传统解决凸优化问题的算法收敛速度的对比示意图;
图5为本发明实施例提供的一种本发明的缓存策略与其它缓存策略所能实现的平均下载时延随着内容请求业务达到率λ的关系变化图;
图6为本发明实施例提供的一种本发明的缓存策略与其它缓存策略所能实现的平均下载时延随着边缘交付队列平均业务处理率μe的关系变化图;
图7为本发明实施例提供的一种本发明的缓存策略与其它缓存策略所能实现的平均下载时延随着云端获取队列平均业务处理率μb的关系变化图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
首先,对本发明涉及的术语进行如下解释:
流量,是指用户向基站请求内容而产生的数据流量。
流量感知,是指雾节点或者基站能够在感知用户业务请求的发起、到达、以及处理(包括排队等待和内容传输)等信息的基础上,通过感知的信息构建边缘交付队列和云端获取队列模型,实现边缘缓存方案优化设计。
边缘,又称网络边缘,是指网络的接入层,即靠近用户端,用于汇聚用户网络(LAN)的网络层面。
边缘缓存,是指利用基站、边缘服务器、用户端等边缘缓存设备,提前对用户所需内容进行缓存。
雾计算,是指一种虚拟化的网络架构,它依赖大量低成本且通常分散的服务器(称之为雾节点)在网络边缘执行缓存和计算。
如图1所示,本发明公开了一种基于流量感知的边缘缓存系统,所述系统由边缘至远端分别为:用户层、雾接入层、网络边缘控制器及云数据中心。
用户层包括若干用户端,每个用户端用于向雾接入层发送内容请求,并与覆盖范围包含发送内容请求时用户端所在的位置的基站建立通信连接。
本发明中,请求的内容可以是视频、音频、图片等。
雾接入层包括:若干基站、若干雾节点和一个网络边缘控制器,每个基站与每个雾节点一一对应,其中,
网络边缘控制器,用于根据各个雾节点的地理位置、存储能力、内容请求业务处理能力和通信资源中的至少一个,将雾接入层的雾节点划分成不同的簇,一个雾节点只属于一个簇,簇与簇之间相互独立,同一个簇内的雾节点之间能够相互通信,不同簇之间的雾节点之间不能相互通信。
每个基站,具备流量感知能力,用于在接收与之相连的用户请求时,收集与该基站对应的雾节点所在簇内的所有雾节点中与请求内容相关的部分,判断是收集到的内容是否是完整的请求内容,若是,将收集到的内容传输给请求用户端,否则,向云数据中心发送获取该内容未缓存部分的请求。
每个雾节点,用于对整个网络中的部分内容,采用分片缓存技术进行边缘缓存。
云数据中心,用于在接收基站发送的内容未缓存部分获取请求时,向基站发送该内容未缓存部分。
优选地,雾节点还用于处理到达的业务请求,判断在雾接入层是否能够查找到当前请求内容,若是,将该业务请求分到边缘交付队列,否则,将该业务请求分到云端获取队列。
优选地,将雾节点处的内容请求到达、等待、以及交付的业务处理模型建模为排队论中的M/M/1排队过程。
联合考虑有限的雾节点缓存容量和基站与用户之间的通信容量,当多个用户向基站请求时,由于雾节点的处理能力有限,因此,后发起请求的用户必须要等待前面的用户请求处理完,才能获取请求的内容。因此,存在一定的等待时延。
网络边缘控制器,具有流量控制、协调各个雾节点之间的内容缓存等功能。本实施例借助博弈论等分析工具,对雾接入层的雾节点划分成不同的簇。
本发明设计的系统,在雾计算使能的网络中,利用雾节点之间的相互协作以及云端与雾节点之间的协同机制,共同实现高效的边缘缓存。本发明考虑一种同一簇内的雾节点之间可以进行协作式缓存实现内容共享,而不同簇之间不能进行协作的场景。在网络边缘控制器的控制和协调下,基于内容分片缓存技术,每个雾节点只缓存某个内容的一部分且各不相同。
如图2所示,在上述基础上,本发明公开了一种基于流量感知的边缘缓存方法,该方法包括以下步骤:
步骤S1.获取上述缓存系统的缓存方面参数和业务方面参数。
缓存模型的相关参数包括:内容流行度、内容库大小、各个雾节点的存储空间大小和内容大小。
内容流行度
将内容库中的F个内容按照各内容被用户请求的频次进行降序排列为{1,…,f,…,F},则用户请求第f个内容的概率Pr(f)表示为:
其中,α为内容请求的Zipf分布指数。
内容流行度由计算出的概率来表示,该数值越大,表明该内容被请求的概率越大,即内容越流行。
业务模型的相关参数包括:各个雾节点的业务到达率和传输速率。
步骤S2.根据获取到的参数,确定边缘缓存命中率、边缘缓存错失率和业务处理率,进一步建立目标函数为最小化内容请求的平均下载时延。
边缘缓存命中率的计算公式如下:
内容f在雾接入层没有缓存的部分将通过云数据中心获得,即边缘缓存错失率:
Hb(P)=1-He(P)
边缘交付队列和云端获取队列的业务请求到达率分别为:
λe,i=λi·He(P),λb,i=λi·Hb(P)
其中,λi是雾节点i内容请求业务的到达率,服从泊松分布。
边缘交付队列和云端获取队列的平均业务处理率分别为:
其中,Re,i为雾节点i与用户端e之间的平均传输速率,S为内容库中的单个内容大小;Rb,i为云端b与雾节点i之间的平均传输速率。
为了保证排队模型的稳定性,本发明假设λi<μb,i<μe,i。
由于基站与用户之间的通信容量有限,本发明计算单个请求内容的平均时延时,将等待时延纳入考虑,这样更符合实际的网络场景,并能够进一步提高网络的性能。用户端从边缘交付队列和云端获取队列获取单个请求内容的平均时延分别为:
在雾节点i处内容请求的平均下载时延为:
则在一个簇内所有雾节点对应的基站的覆盖区域内产生的每个请求的总的平均下载时延为:
因此,目标函数可以表示为:
约束C1是对于内容缓存比例的基本限制条件;约束C2保证任意一个内容在一个簇内被缓存的比例之和不超过1;约束C3保证同一个簇内的各个雾节点缓存内容的大小不超过其存储容量限制。
通过对目标函数进行求导及矩阵分析,可以得到目标表达式D是关于缓存矩阵P的凸函数,即优化问题中存在最优的缓存矩阵使得一个簇内用户获取单个请求内容的平均时延最小化,证明过程如下:
对Di关于He求二阶导函数有:
由于0<λi<μb,i<μe,i且0≤He(P)≤1,因此:
令γ=[Pr(1),Pr(2),…,Pr(F)],可以得到:
因此Di的Hessian矩阵为:
可知H也是一个半正定矩阵,因此目标函数D关于缓存向量p是凸函数,则可以直接使用传统的凸优化算法如内点法(Interior Point Method,IPM)来求解。但是传统的凸优化算法中的部分算法在本发明所考虑的场景中具有一定的局限性,如IPM的时间复杂度高收敛速度慢,不适合时延敏感型的业务;原始牛顿法和阻尼牛顿法在Hessian矩阵为半正定矩阵时不能保证每次都能收敛到极小值,也不适合求解本发明的问题。因此,本发明选择基本的ADMM(基于交替方向乘子法,Alternating Direction Method of Multipliers)来求解此凸优化问题。但是带有约束条件的凸优化问题不能直接使用原始的ADMM算法进行求解,因此接下来将首先将原始目标函数进行转化并处理不等式约束条件,然后再使用ADMM算法进行求解。
步骤S3.将具有不等式限制的目标函数转化为可以应用ADMM算法求解的形式。
目标表达式D是关于缓存矩阵P的凸函数,因此可以直接利用传统的凸优化算法来求解。但是由于时间复杂度高收敛速度慢等原因,这些算法在本发明所考虑的场景中具有一定的局限性。而ADMM在解决大规模优化问题上有鲁棒性强,收敛速度快,时间复杂度低等优势。因此本发明选择使用ADMM算法来求解目标函数。然而ADMM算法不能直接运用于带有不等式约束条件的问题求解,因此需要对目标函数进行转化。转化过程包括以下步骤:
S301.定义矩阵A和矩阵B分别为:
其中,1≤v1≤F,1≤w≤N·F
其中,1≤v2≤N,1≤w≤N·F。
S302.借助以上矩阵A和矩阵B可以将目标函数转化为:
s.t.0≤p(j)≤1,1≤j≤N·F,
Ap≤Au
Bp≤Bu
其中,内容缓存放置向量p=<P(i,f)>,Au=[1,1,…,1]T,Bu=[M1,..,MN]T。
S304.得到最终的目标函数表示为:
步骤S4.利用ADMM算法求解出最优的内容缓存向量,即为最优的缓存策略,然后根据该结果在雾节点中进行内容缓存放置。
如图3所示,ADMM算法求解出最优的内容缓存向量具体包括以下步骤:
S401.初始化内容缓存向量p0、松弛向量z0和对偶因子θ0,k=0。
S402.在k+1个回合根据以下公式更新内容缓存向量,松弛向量和对偶因子:
θk+1=θk+pk+1-zk+1
其中,ρ为拉格朗日增强因子,θ为对偶向量。
S403.计算本轮迭代后内容缓存向量pk和松弛向量zk之间的原始残差及对偶残差,其表达式为:
rk=pk-zk,sk=-ρ(zk-zk-1)
S404.判断两个残差与预先设定的精度之间的大小关系,如果同时满足:
其中,ε1和ε2是所需要的精度值。则结束算法迭代过程,此时得到的内容缓存向量即为最优的缓存策略。否则进入步骤S402。
以下结合仿真对本发明进行详细说明:
仿真参数设置如下:总文件内容数量F为20,内容请求分布指数α为0.6,雾节点数量N为3且它们的缓存容量分别为[2S;3S;5S],S是每个内容的大小,业务请求到达率λi=λ=4,平均业务处理率分别为μe,i=μe=8,μb,i=μb=6。
如图4所示,本发明所提出的算法(算法1)、传统的内点法IPM、次梯度下降法以及全局最优解之间的性能对比分析图可以验证所提出的基于ADMM的缓存算法的正确性及有效性。从图中可以看出算法1和内点法均可以收敛到全局最优解,这就验证了本发明所提出的算法的正确性。其次,在迭代次数为0时设置两种算法的初始参数相同,而本发明所提出的算法比内点法更快地收敛到全局最优解,这就验证了所提出的算法的有效性。综上可以得出结论:本发明所提出的算法可以有效且正确的求解出最优的基于流量感知的边缘缓存策略。
接下来将本发明所提出的缓存算法(算法1)与现有的缓存策略在相同的条件下所能实现的平均下载时延进行对比。主要涉及的缓存策略有:1)最大化边缘缓存命中率策略(max-ECHR),以最大化边缘缓存的缓存命中率为目标来指定相应的缓存策略;2)较大流行度内容缓存策略(Maximal-Popularity Caching,MPC),各个雾节点按照内容流行度大小依次缓存具有较大流行度的内容,直到缓存空间存满;3)随机缓存策略(Random Caching,RC),内容的缓存概率服从参数为α=0.3,4的Zipf分布;4)均匀缓存策略(UniformCaching,UC),具有不同内容流行度的内容被各个节点缓存的概率相同。
由图5,图6,及图7可以看出,一方面,与基本缓存策略(MPC,UC,RC)相比,本发明所提出的基于容量感知的边缘缓存策略在任意参数λ,μe,μb下均能实现最低的获取单个请求内容的平均下载时延,即所提出的算法1比基本缓存策略能够实现更好的缓存性能。另一方面,在某些特定的场景下,max-ECHR和算法1具有相同的最优缓存性能。而在其他场景(如λ较大,μe较小,μb较大)下,算法1所实现的性能仍然比max-ECHR策略好。这就表明max-ECHR不是在任何场景下都能实现最优的用户获取请求内容平均时延,而本发明所提出的缓存策略在更为广泛的场景下都能实现最优的缓存性能。
在使用内容分片缓存技术下,本发明基于雾节点之间的协作缓存,构建了平均内容下载时延优化问题。为了得到每个雾节点缓存各个内容的最优比例,本发明提出的缓存算法是基于ADMM,有效地解决了雾节点之间的高效协作缓存内容放置问题,不仅可以最小化用户获取内容的平均下载时延,该算法的收敛速度也比传统解决该问题的算法更快,因此进一步提高了用户的体验质量。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于流量感知的边缘缓存系统,其特征在于,所述系统包括:用户层、雾接入层、网络边缘控制器及云数据中心;
用户层包括若干用户端,每个用户端用于向雾接入层发送内容请求,并与覆盖范围包含发送内容请求时用户端所在的位置的基站建立通信连接;
雾接入层包括:若干基站、若干雾节点和一个网络边缘控制器,每个基站与每个雾节点一一对应,其中,
网络边缘控制器,用于将雾接入层的雾节点划分成不同的簇,并协调簇内雾节点之间的协作缓存,一个雾节点只属于一个簇,簇与簇之间相互独立,同一个簇内的雾节点之间能相互协作,不同簇之间的雾节点之间不能相互协作;
每个基站,具备流量感知能力,用于在接收与之相连的用户请求时,收集与该基站对应的雾节点所在簇内的所有雾节点中与请求内容相关的部分,判断收集到的内容是否是完整的请求内容,若是,将收集到的内容传输给请求用户端,否则,向云数据中心发送获取该内容未缓存部分的请求;
每个雾节点,用于对整个网络中的部分内容,采用分片缓存技术进行边缘缓存;
云数据中心,用于在接收到基站发送的内容未缓存部分获取请求时,向基站发送该内容未缓存部分。
2.如权利要求1所述的系统,其特征在于,将雾接入层的雾节点划分成不同的簇依据的是各个雾节点的地理位置、存储能力、内容请求业务处理能力和通信资源中的至少一个。
3.如权利要求1或2所述的系统,其特征在于,雾节点还用于处理到达的业务请求,判断在雾接入层是否能够查找到当前请求内容,若是,将该业务请求分到边缘交付队列,否则,将该业务请求分到云端获取队列。
4.如权利要求3所述的系统,其特征在于,雾节点处的内容请求到达、等待、以及交付的业务处理模型建模为排队论中的M/M/1排队过程。
5.一种基于如权利要求4所述的流量感知的边缘缓存系统的边缘缓存方法,其特征在于,该方法包括以下步骤:
S1.计算同一个簇内所有雾节点对应的基站的覆盖区域内产生的每个请求的总的平均下载时延,构建以该平均下载时延最小化、包含第一约束、第二约束和第三约束的不等式限制的目标函数,所述第一约束是对于内容缓存比例的基本限制,所述第二约束保证任意一个内容在一个簇内被缓存的比例之和不超过1,所述第三约束保证同一个簇内的各个雾节点缓存内容的大小不超过其存储容量限制;
S2.将具有不等式限制的目标函数转化为适用于ADMM算法求解的形式;
S3.利用ADMM算法求解出最优的内容缓存向量,即为最优的缓存策略,并根据该结果在雾节点中进行内容缓存放置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010661109.5A CN111935783A (zh) | 2020-07-09 | 2020-07-09 | 一种基于流量感知的边缘缓存系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010661109.5A CN111935783A (zh) | 2020-07-09 | 2020-07-09 | 一种基于流量感知的边缘缓存系统和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111935783A true CN111935783A (zh) | 2020-11-13 |
Family
ID=73313288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010661109.5A Pending CN111935783A (zh) | 2020-07-09 | 2020-07-09 | 一种基于流量感知的边缘缓存系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111935783A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112822727A (zh) * | 2021-01-29 | 2021-05-18 | 重庆邮电大学 | 一种基于移动性和流行度感知的自适应边缘内容缓存方法 |
CN112822726A (zh) * | 2020-12-31 | 2021-05-18 | 杭州电子科技大学 | 一种Fog-RAN网络缓存放置问题的建模和决策方法 |
CN112887992A (zh) * | 2021-01-12 | 2021-06-01 | 滨州学院 | 基于接入均衡核和置换率的密集无线网络边缘缓存方法 |
CN112887314A (zh) * | 2021-01-27 | 2021-06-01 | 重庆邮电大学 | 一种时延感知的云雾协作视频分发方法 |
CN115278290A (zh) * | 2022-06-30 | 2022-11-01 | 华中科技大学 | 一种基于边缘节点的虚拟现实视频缓存方法及装置 |
CN116132439A (zh) * | 2022-12-27 | 2023-05-16 | 华中科技大学 | 基于雾节点协作的异质资源协同调度方法、系统和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900617A (zh) * | 2018-07-03 | 2018-11-27 | 东南大学 | 一种雾无线接入网的三层协作式缓存方法 |
CN109951849A (zh) * | 2019-02-25 | 2019-06-28 | 重庆邮电大学 | 一种在f-ran架构中联合资源分配和内容缓存的方法 |
CN110062421A (zh) * | 2019-04-08 | 2019-07-26 | 东南大学 | 用于雾无线接入网中的鸽群优化算法及基于该算法的协作缓存方法 |
CN110519776A (zh) * | 2019-08-07 | 2019-11-29 | 东南大学 | 一种雾计算系统中的均衡聚类和联合资源分配方法 |
US20200036779A1 (en) * | 2018-07-24 | 2020-01-30 | Cisco Technology, Inc. | Popularity-based load-balancing for fog-cloud placement |
-
2020
- 2020-07-09 CN CN202010661109.5A patent/CN111935783A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900617A (zh) * | 2018-07-03 | 2018-11-27 | 东南大学 | 一种雾无线接入网的三层协作式缓存方法 |
US20200036779A1 (en) * | 2018-07-24 | 2020-01-30 | Cisco Technology, Inc. | Popularity-based load-balancing for fog-cloud placement |
CN109951849A (zh) * | 2019-02-25 | 2019-06-28 | 重庆邮电大学 | 一种在f-ran架构中联合资源分配和内容缓存的方法 |
CN110062421A (zh) * | 2019-04-08 | 2019-07-26 | 东南大学 | 用于雾无线接入网中的鸽群优化算法及基于该算法的协作缓存方法 |
CN110519776A (zh) * | 2019-08-07 | 2019-11-29 | 东南大学 | 一种雾计算系统中的均衡聚类和联合资源分配方法 |
Non-Patent Citations (2)
Title |
---|
QIANG LI等: "Capacity-Aware Edge Caching in Fog Computing Networks", 《ARXIV在线网站》 * |
QIANG LI等: "Capacity-Aware Edge Caching in Fog Computing Networks", 《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112822726A (zh) * | 2020-12-31 | 2021-05-18 | 杭州电子科技大学 | 一种Fog-RAN网络缓存放置问题的建模和决策方法 |
CN112822726B (zh) * | 2020-12-31 | 2022-06-10 | 杭州电子科技大学 | 一种Fog-RAN网络缓存放置问题的建模和决策方法 |
CN112887992A (zh) * | 2021-01-12 | 2021-06-01 | 滨州学院 | 基于接入均衡核和置换率的密集无线网络边缘缓存方法 |
CN112887314A (zh) * | 2021-01-27 | 2021-06-01 | 重庆邮电大学 | 一种时延感知的云雾协作视频分发方法 |
CN112887314B (zh) * | 2021-01-27 | 2022-06-03 | 重庆邮电大学 | 一种时延感知的云雾协作视频分发方法 |
CN112822727A (zh) * | 2021-01-29 | 2021-05-18 | 重庆邮电大学 | 一种基于移动性和流行度感知的自适应边缘内容缓存方法 |
CN112822727B (zh) * | 2021-01-29 | 2022-07-01 | 重庆邮电大学 | 一种基于移动性和流行度感知的自适应边缘内容缓存方法 |
CN115278290A (zh) * | 2022-06-30 | 2022-11-01 | 华中科技大学 | 一种基于边缘节点的虚拟现实视频缓存方法及装置 |
CN115278290B (zh) * | 2022-06-30 | 2024-04-19 | 华中科技大学 | 一种基于边缘节点的虚拟现实视频缓存方法及装置 |
CN116132439A (zh) * | 2022-12-27 | 2023-05-16 | 华中科技大学 | 基于雾节点协作的异质资源协同调度方法、系统和装置 |
CN116132439B (zh) * | 2022-12-27 | 2024-05-14 | 华中科技大学 | 基于雾节点协作的异质资源协同调度方法、系统和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111935783A (zh) | 一种基于流量感知的边缘缓存系统和方法 | |
WO2022121097A1 (zh) | 一种移动用户计算任务的卸载方法 | |
CN110098969B (zh) | 一种面向物联网的雾计算任务卸载方法 | |
CN108509276B (zh) | 一种边缘计算环境中的视频任务动态迁移方法 | |
CN107766135B (zh) | 移动朵云中基于粒子群和模拟退火优化的任务分配方法 | |
CN109862592B (zh) | 一种基于多基站协作的移动边缘计算环境下资源管理和调度方法 | |
CN105191209B (zh) | 一种用于调度相同频带内的视频点播流和尽力而为流的方法和装置 | |
CN111400001A (zh) | 一种面向边缘计算环境的在线计算任务卸载调度方法 | |
CN108156596B (zh) | 支持d2d-蜂窝异构网络联合用户关联及内容缓存方法 | |
CN112512018B (zh) | 一种基于移动边缘计算的协作车辆间任务动态卸载方法 | |
CN108093435B (zh) | 基于缓存流行内容的蜂窝下行链路网络能效优化系统及方法 | |
CN111641973A (zh) | 一种雾计算网络中基于雾节点协作的负载均衡方法 | |
CN110113140B (zh) | 一种雾计算无线网络中的计算卸载方法 | |
CN114518956A (zh) | 边缘流媒体下的基于队列开销的负载均衡方法及装置 | |
CN113950081A (zh) | 一种多单元移动边缘计算中面向微服务的动态服务迁移和请求路由方法 | |
CN111698732B (zh) | 微蜂窝无线网中面向时延的协作缓存优化方法 | |
CN115665804B (zh) | 一种协同无人机-智能车群的缓存优化方法 | |
CN116566838A (zh) | 一种区块链与边缘计算协同的车联网任务卸载和内容缓存方法 | |
CN115796271A (zh) | 基于客户端选择和梯度压缩的联邦学习方法 | |
Guo et al. | Qoe-oriented resource optimization for mobile cloud gaming: A potential game approach | |
CN106304154B (zh) | 一种pdcp实体的数据传输方法及pdcp实体 | |
CN114449671A (zh) | 一种网络边缘异质资源协同调度方法 | |
Mehrabi et al. | D2D-enabled collaborative edge caching and processing with adaptive mobile video streaming | |
CN113099259A (zh) | 流媒体的组播发送方法、装置、组播服务器以及介质 | |
CN113032146A (zh) | 一种面向多接入边缘计算环境的健壮性服务供应方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201113 |
|
RJ01 | Rejection of invention patent application after publication |