CN111741495B - 异构网络中高能效编码缓存内容放置方案设计方法 - Google Patents

异构网络中高能效编码缓存内容放置方案设计方法 Download PDF

Info

Publication number
CN111741495B
CN111741495B CN202010573250.XA CN202010573250A CN111741495B CN 111741495 B CN111741495 B CN 111741495B CN 202010573250 A CN202010573250 A CN 202010573250A CN 111741495 B CN111741495 B CN 111741495B
Authority
CN
China
Prior art keywords
base station
file
small base
energy consumption
cache
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010573250.XA
Other languages
English (en)
Other versions
CN111741495A (zh
Inventor
顾术实
谭燕
孙先范
鲁万城
张钦宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute Of Technology shenzhen Shenzhen Institute Of Science And Technology Innovation Harbin Institute Of Technology
Original Assignee
Harbin Institute Of Technology shenzhen Shenzhen Institute Of Science And Technology Innovation Harbin Institute Of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute Of Technology shenzhen Shenzhen Institute Of Science And Technology Innovation Harbin Institute Of Technology filed Critical Harbin Institute Of Technology shenzhen Shenzhen Institute Of Science And Technology Innovation Harbin Institute Of Technology
Priority to CN202010573250.XA priority Critical patent/CN111741495B/zh
Publication of CN111741495A publication Critical patent/CN111741495A/zh
Application granted granted Critical
Publication of CN111741495B publication Critical patent/CN111741495B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/10Flow control between communication endpoints
    • H04W28/14Flow control between communication endpoints using intermediate storage
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/18Network planning tools
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W16/00Network planning, e.g. coverage or traffic planning tools; Network deployment, e.g. resource partitioning or cells structures
    • H04W16/22Traffic simulation tools or models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/70Reducing energy consumption in communication networks in wireless communication networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本发明提供了一种异构网络中高能效编码缓存内容放置方案设计方法,包括以下步骤:S1、建立网络模型;S2、缓存放置阶段和编码传输阶段的具体设计;S3、系统能耗性能分析;S4、建立优化问题并求解,包括小基站缓存放置矩阵优化和小基站缓存容量分配向量优化。本发明的有益效果是:针对异构无线网络,考虑了文件尺寸,文件流行度,小基站覆盖范围内的用户数等异构特征对系统能耗性能的影响,特点是在传输阶段根据用户实际需求情况和小基站的缓存放置情况执行编码传输操作,联合考虑了基站缓存放置和缓存容量分配问题,以实现最大化发挥编码传输在能量开销上的优势,解决异构网络的高能耗开销问题。

Description

异构网络中高能效编码缓存内容放置方案设计方法
技术领域
本发明涉及缓存内容放置方法,尤其涉及一种异构网络中高能效编码缓存内容放置方案设计方法。
背景技术
现在的异构网络在宏基站的基础上密集部署了小基站,将缓存技术引入到异构网络是一种很有前途的减少能量消耗的技术。缓存技术通常由两阶段组成,一是放置阶段,一是传输阶段。在放置阶段,预先将一些流行的内容缓存在靠近用户的小基站中;在传输阶段,当用户请求已经缓存的内容时,内容就由基站直接传输给用户。内容放置和传输策略是相互影响的,内容放置确定内容分布在哪些基站中并影响内容传输,而统计内容传输情况,反过来又决定基站缓存的内容。
然而,在异构网络中一个重要的瓶颈是小基站缓存容量的有限性,将所有内容缓存在小基站上是不现实的。而目前关于对于内容放置策略的研究大都是直接将完整文件或文件的一部分缓存在基站的缓存空间中。现有的策略都是旨在最大程度地减少网络延迟,传输成本或回程负载,使用优化工具来制定和解决内容放置问题。比较经典的两种放置方案分别是均匀随机放置方案和最流行文件放置方案。均匀随机放置方案每个文件被缓存在基站上的概率是等可能的,而最流行文件放置方案小基站只缓存最流行的文件。现有的技术大多使用多播传输或者协作多点传输技术来传输用户请求的内容。然而,这种未编码的缓存策略的性能只取决于小基站的本地缓存容量。
现有的面向异构网络的缓存策略存在以下缺点:
1)传统的未编码缓存策略,性能只取决于本地缓存容量,而没有利用全局缓存容量设计内容放置策略的设计。
2)现有有关编码缓存的理论研究不适用于实际场景,很少考虑系统参数的异构性对缓存策略的影响,如文件流行度,基站缓存容量,基站覆盖范围内用户数目的异构性。和同构系统设置不同,系统参数的异构性会影响到缓存放置方案的设计。
3)因为系统参数的异构性,不考虑小基站缓存容量的分配方案无法使得内容放置策略的性能达到最优。因此,在异构网络中,不仅需要设计缓存的放置方案,还需要对小基站的缓存容量进行分配。
发明内容
为了解决现有技术中的问题,本发明提供了一种异构网络中高能效编码缓存内容放置方案设计方法,包括以下步骤:
S1、建立网络模型;
S2、缓存放置阶段和编码传输阶段的具体设计;
S3、系统能耗性能分析;
S4、建立优化问题并求解,包括小基站缓存放置矩阵优化和小基站缓存容量分配向量优化。
本发明的有益效果是:针对异构无线网络,考虑了文件尺寸,文件流行度,小基站覆盖范围内的用户数等异构特征对系统能耗性能的影响,特点是在传输阶段根据用户实际需求情况和小基站的缓存放置情况执行编码传输操作,联合考虑了基站缓存放置和缓存容量分配问题,以实现最大化发挥编码传输在能量开销上的优势,解决异构网络的高能耗开销问题。
附图说明
图1是本发明一种异构网络中高能效编码缓存内容放置方案设计方法的模型图。
图2是能量消耗与子文件尺寸的关系示意图。
图3是不同缓存方案下能量消耗与基站缓存容量的关系示意图。
图4是不同缓存方案下能量消耗与文件流行度参数的关系示意图。
图5是不同缓存方案下的能量消耗与多播周期的关系示意图。
具体实施方式
下面结合附图说明及具体实施方式对本发明作进一步说明。
一种异构网络中高能效编码缓存内容放置方案设计方法,是一种应用于多层异构无线网络的基于编码传输模式的缓存内容放置方案,主要包括网络模型建立、缓存放置阶段和编码传输阶段的具体设计、建立高能效缓存内容放置优化问题以及内容放置优化设计方案四个部分。
(1)网络模型
考虑由一个宏基站、K个小基站以及U个用户组成的三层异构网络模型,网络模型如图1所示。用
Figure BDA0002550152800000031
表示基站集合。若用/>
Figure BDA0002550152800000032
表示宏基站的覆盖范围,用/>
Figure BDA0002550152800000041
表示小基站k的覆盖范围。K个小基站都在宏基站的覆盖范围内,且假设对于任意两个小基站k1,k2,满足/>
Figure BDA0002550152800000042
即任意两个小基站的覆盖范围没有重叠。
宏基站可以通过有线链路访问核心网中的N个文件,文件集用
Figure BDA0002550152800000043
表示,对应的文件尺寸用s={s1,s2,…,sN}表示。每个小基站都配有有限的缓存空间,系统总缓存容量为M,其中分配给基站k的缓存容量为Mk,/>
Figure BDA0002550152800000044
用户集表示为
Figure BDA0002550152800000045
系统工作流程如下:
1)首先在网络低峰时期的放置阶段,根据一定的放置方案将文件放置在离用户较近的基站的缓存设备中。
2)放置阶段后,网络将被使用很长一段时间,在这段时间里,小基站的缓存内容不会有任何变化。各个用户将会发起一次或者多次请求,这些用户之间的请求是独立的。
3)在传输阶段,首先小基站通过无线链路将被用户请求的缓存文件段传输给用户。如果多个用户都需要某一文件段,则小基站采用多播方式传输文件段。
4)至于剩余未缓存的文件段,宏基站根据各个小基站的缓存情况以及用户请求情况,采用编码多播方式通过回程链路传输编码包给小基站,小基站收到编码包后先解码,再将内容传输给用户。
(2)缓存放置阶段和编码传输阶段的具体设计
不同的用户在不同的小区对文件偏好不一样,在一个基站内流行的文件很可能在另一个小基站上并不流行,因此,应当考虑各个小基站服务的用户对文件的偏好差异,而不应该只是考虑整个系统的全局流行度。qkn表示小基站k服务的用户对文件n的请求概率,有
Figure BDA0002550152800000051
假设文件流行度分布服从zipf分布。那么小基站k内的用户请求文件n的概率可写为
Figure BDA0002550152800000052
其中αk是小基站k的zipf参数,越大意味着用户请求集中在流行的内容,否则用户请求比较分散,是一个长尾分布。γkn是文件n在小基站k的流行度排序。
因为小基站缓存空间的有限性,小基站只能缓存部分文件。综合考虑到缓存容量的有限性以及为处理文件的异构性问题,文件n被分为ln个文件段,ln是整数。所有文件经过分段后,每个文件段的尺寸最终是一样的,用s0表示子文件的尺寸。基站k缓存文件n的文件段个数表示为mkn,有0≤mkn≤ln。这些文件段都是随机等概率从ln个文件段中挑选的。
因此,小基站缓存放置矩阵可以表示为
Figure BDA0002550152800000053
缓存矩阵的具体取值在后续会通过优化得到,缓存矩阵的取值应当满足基站缓存容量的约束条件,约束如下:
Figure BDA0002550152800000061
在宏基站的每个多播周期t内,小基站k平均会收到覆盖范围内所有用户发起的Uk次请求,Uk服从随机分布,这意味着不同的小基站收到的用户请求数不同。定义小基站k覆盖范围内平均请求第n个文件的次数为ωkn,ωkn等于Uk乘以第n个文件被请求的概率,表示为
ωkn=Ukqkn (4)
小基站k覆盖范围内的用户请求第n个文件的次数服从泊松过程,则在一个多播周期t内,小基站k覆盖范围内的所有用户请求文件n的次数等于j次的概率为
Figure BDA0002550152800000062
在宏基站的一个多播周期t内,若用户u请求了文件n,它只有获得了ln个文件段才能得到文件n。用户u可以直接从从本地关联基站k中获得mkn个文件段,剩余的ln-mkn个文件段则由宏基站综合所有小基站缓存情况以及一个周期内的用户情况编码多播传输。对于小基站k未缓存的ln-mkn个文件段,宏基站需要记录这些文件段的一些信息,如对应的文件编号和文件段编号,以及请求该文件的用户的一些信息,如用户关联的小基站编号,其他缓存该文件段的小基站集合。对于每个需要由宏基站传输的文件段相关的信息用标签记录。
用V=(v1,v2,…,vQ)表示所有用户请求的未被小基站满足的,需要宏基站传输的文件段的相关标签。用μ(v)表示标签v的用户关联的小基站编号,用η(v)表示标签v的缓存此标签相关的文件段的其他小基站集合,ρ(v)表示标签v请求的文件编号和具体的文件段编号。拿其中任意两个标签举例,若满足下面的两个条件之一的任意一个条件,则两个标签相关的文件段可以用一个编码包传输。
Figure BDA0002550152800000071
条件(i)说明和标签v相关的文件段缓存在和标签v′相关的用户关联的基站中,同时标签v′相关的文件段缓存在和标签v相关的用户关联的基站中。当条件(i)得到了满足,则说明两个用户请求的不同文件段可以让宏基站通过一个编码多播包传输。条件(ii)说明和标签v和v′相关的用户请求的是同一个文件段,则该文件段可以让宏基站通过一个多播包传输。
把所有宏基站待传的文件段相关的标签作为一个顶点,对于任意两个顶点,若条件(i),(ii)都不满足,则这两个顶点之间用实线连接起来。用图着色算法找哪些顶点的数据可以编码传输,图着色必须保证任意相连的顶点着不一样的颜色,着同一颜色的顶点称之为独立集(independent set),该独立集相关的数据可以通过一个编码包传输,若某一颜色只有一个顶点着了此颜色,则这个顶点相关的数据只能单独传输。
但图着色问题非常复杂,采用贪婪着色的编码传输算法。编码传输算法由两个子算法组成,两个子算法分别针对条件(i)(ii)分别着色,取两者着色颜色数较小的那个着色算法,即宏基站传输比特数较少的算法。关于条件(i)的具体算法描述见算法1,将算法1中的第四行换成ρ(v)=ρ(v′),即为针对条件(ii)设计的。
算法1,关于条件(i)的编码传输子算法描述:
第一步,输入用户请求的未缓存在小基站上,需要宏基站传输的文件段的所有相关信息,用集合V=(v1,v2,…,vQ)表示。
第二步,如果集合V不为空,随机选择集合V里面的一个元素v,并且令集合Λ={v}。否则结束算法。
第三步,对于任意元素v′∈V/v,判断条件(i)μ(v)∈η(v′),μ(v′)∈η(v)是否满足,如果满足,则把元素v′添加到集合Λ中,即Λ=Λ∪{v′}
第四步,宏基站用一个编码多播包传输集合Λ中的元素相关的文件段。
第五步,重复第二步。
对于条件(ii)的编码传输子算法不再重复描述,只需要将第四步条件(i)μ(v)∈η(v′),μ(v′)∈η(v)替换成条件(ii)ρ(v)=ρ(v′)即可。
(3)系统能耗性能分析:
将总能量消耗定义为满足一个宏基站多播周期t内的所有用户请求,小基站和宏基站分别传输文件所产生的能量消耗之和,系统的总能量消耗可表示为:
Figure BDA0002550152800000081
其中
Figure BDA0002550152800000082
是小基站传输能量消耗,/>
Figure BDA0002550152800000083
是宏基站传输能量消耗。
小基站传输能量消耗分析,在传输阶段,当用户发起请求,关联基站首先将自身缓存的内容传输给用户,剩余的内容由宏基站传输给关联基站,关联基站再传输给用户。因此,小基站传输文件的能量消耗由两部分组成,一是传输自身缓存给用户的能量消耗,二是传输从宏基站获取的未缓存文件的能量消耗。因此,小基站传输文件消耗的能量主要取决于传输的文件的比特数。小基站传输能量消耗可表示为:
Figure BDA0002550152800000091
其中
Figure BDA0002550152800000092
是小基站每传输1bit数据的能量消耗,单位Joule/bit。/>
Figure BDA0002550152800000093
表示基站k覆盖范围内至少有一个用户请求文件n的概率,mkns0表示基站k传输自身缓存的文件数据量,ln-mkn表示基站k传输从宏基站获取的文件数据量。
由于小基站缓存容量的限制,有部分文件无法从小基站中获取,这部分文件需要由宏基站通过回程链路传输给小基站。因此,宏基站传输文件消耗的能量主要和传输宏基站传输的文件比特数成正比。通过前面的分析,宏基站最终传输文件的形式取决于条件(i)(ii),但图着色问题非常复杂,为便于计算,采用贪婪着色。贪婪着色由两个子方案组成,针对条件(i)(ii)分别着色,取两者着色颜色数较小的那个着色方案,即宏基站传输比特数较少的方案。宏基站传输能量消耗表达式如下:
Figure BDA0002550152800000094
其中
Figure BDA0002550152800000095
是宏基站每传输1bit数据的能量消耗,单位Joule/bit,Bh1是宏基站通过编码多播方式需要传输的总的文件比特数,Bh2是宏基站通过多播传输方式需要传输的总的文件比特数。
为了获得总能量消耗的闭式形式,通过分析与推导宏基站通过编码多播方式传输的比特数Bh1的具体公式表示如下
Figure BDA0002550152800000101
Figure BDA0002550152800000102
表示j个小基站组成的基站集合,/>
Figure BDA0002550152800000103
表示所有的小基站集合,qk表示基站k请求的服务的用户请求的所有文件段集合。其中/>
Figure BDA0002550152800000104
是一个二元函数,当
Figure BDA0002550152800000105
等式成立,即其他j-1个基站缓存了和标签v有关的文件段ρ(v),它的值就是1,否则,它的值就是0。/>
Figure BDA0002550152800000106
计算基站集合/>
Figure BDA0002550152800000107
中最大的独立集个数,即宏基站针对基站集合/>
Figure BDA0002550152800000108
传输的最大的编码多播包数量。
Figure BDA0002550152800000109
βkj表示被小基站
Figure BDA00025501528000001010
服务的用户请求所有文件段中能够和其他/>
Figure BDA00025501528000001011
个基站一起编码传输的文件段的数量在/>
Figure BDA00025501528000001012
小基站中是最大的概率。
式(12)计算宏基站通过条件(ii)即多播传输的总的比特数,即Bh2
Figure BDA00025501528000001013
Figure BDA00025501528000001014
表示/>
Figure BDA00025501528000001015
个基站都请求了文件n的概率,/>
Figure BDA00025501528000001016
表示/>
Figure BDA00025501528000001017
个基站都没有请求文件n的概率,/>
Figure BDA00025501528000001018
表示/>
Figure BDA00025501528000001019
个基站都未缓存文件n的概率。
(4)建立优化问题并求解:小基站缓存放置矩阵优化和小基站缓存容量分配向量优化。
建立以小基站缓存容量为约束条件的最小化能量消耗的优化问题,分两个子问题求解,最终得到最优的缓存放置矩阵m和缓存容量分配向量M。首先已知各个基站缓存容量分配向量M,只需要解优化问题确定最优的缓存放置矩阵m。总能量消耗由小基站传输能量消耗
Figure BDA0002550152800000111
以及宏基站传输能量消耗/>
Figure BDA0002550152800000112
组成。因此,优化问题可列为:
Figure BDA0002550152800000113
此问题的目标函数和限制条件都可被分解,因此,可将问题分解成为K个子问题。小基站k的缓存放置优化的子问题可表示为:
Figure BDA0002550152800000114
这是一个多选择背包问题,通常是NP-Hard的。根据上一节对总能量消耗表达式的分析推导,设计了一个贪婪但是最优的算法,见算法2来解此优化问题。
算法2,内容放置矩阵优化算法包括:
第一步,从第一个基站开始初始化小基站1的缓存放置向量m1,小基站1的缓存空间优先缓存流行文件的文件段,直到达到小基站的缓存容量限制。因为小基站缓存容量和文件尺寸的异构性,缓存矩阵初始化时,小基站不可能刚好缓存前M1个文件的所有文件段。因此,用x1表示小基站1缓存的最后一个文件的文件编号,
Figure BDA0002550152800000121
表示小基站1缓存文件x1的文件段数。
第二步,开始更新小基站1的缓存放置向量m1,令i=xk+1。
第三步,如果m1i<l1,计算增加一个文件段所带来的缓存能量的变化量
Figure BDA0002550152800000122
否则i=i+1,重复第三步。
第四步,计算减少已经缓存的最流行的文件j∈{1,2,…,i-1}的一个文件段所带来的能量消耗的变化量
Figure BDA0002550152800000123
第五步,如果增加未缓存的不流行文件的一个文件段所带来的系统能量消耗的变化量
Figure BDA0002550152800000124
大于减小已经缓存的流行文件的一个文件段所带来的系统能量消耗的变化量
Figure BDA0002550152800000125
则m1i=m1i+1,m1j′=m1j′-1,并更新小基站1的缓存放置向量m1。否则,i=i+1;
并重复第三步。
第六步,更新下一个小基站的缓存放置向量,最终所有的小基站缓存放置矩阵确定。输出最终的缓存放置矩阵m。
在异构网络中,不仅需要设计缓存放置方案,还需要考虑对小基站的缓存容量进行分配。在本节中,将上一节得到给定基站缓存容量时最优的缓存放置矩阵作为已知条件,去进一步分配缓存容量分配向量M。给定缓存放置矩阵m的能量消耗的优化问题可列为
Figure BDA0002550152800000131
设计了一个类似上节的贪婪但是最优的算法,见算法3来解此优化问题。
算法3,小基站缓存容量分配算法包括:
第一步,解算法2,获得给定缓存容量时的缓存放置矩阵m,输入最大的迭代次数T,令δ>1。
第二步,只要迭代次数T>0,且δ>0,继续第三步;否则跳到第七步。
第三步,对于所有小基站
Figure BDA0002550152800000132
所有文件/>
Figure BDA0002550152800000133
若mkn<ln,计算小基站k增加一个文件段n所带来的传输能量消耗的变化量/>
Figure BDA0002550152800000134
若mkn>0,计算所有小基站k减少一个文件段n所带来的能量消耗的变化量/>
Figure BDA0002550152800000135
第四步,找到能量消耗变化量最大的小基站编号k′和对应的文件段编号n′,同时找到能量消耗变化量最小的小基站编号k″和对应的文件段编号n″。
第五步,如果
Figure BDA0002550152800000136
则mkn′=mkn′+1,mkn″=mkn″-1。
第六步,计算
Figure BDA0002550152800000137
且令T=T-1。重复第二步。
第七步,输出最优缓存放置矩阵m和缓存容量分配向量M。
在本文,研究针对异构网络的能量消耗问题,提出了减少能量消耗的编码缓存内容放置方案。不同于以往的工作,考虑了系统参数的异构性,不仅设计了缓存方案,还考虑了异构网络中的基站缓存容量的分配问题。分析并推导了总能量消耗的闭式表达式,并且建立了基站缓存容量为限制条件的最小化总能量消耗的优化问题。通过贪婪且最优的算法解优化问题,得到了最佳的缓存放置矩阵以及缓存容量分配向量。最后,仿真表明,该方案比传统的在放置阶段采取均匀随机缓存放置和最流行缓存放置,传输阶段仅多播传输和仅编码多播传输的缓存放置方案更优。
通过仿真结果说明所提的编码缓存方案在异构网络中的性能。宏基站部署在仿真区域的中心,宏基站可以访问服务器中的N=30个文件,用户请求都集中在这30个文件,文件尺寸在[0,100]Mbits之间随机取值。对每个文件n进行切割分块,最后保证每个文件段尺寸s0固定为10Mbit。宏基站的一个多播传输周期t默认设置为1min。
Figure BDA0002550152800000141
的值等于0.5×10- 9J/bits,/>
Figure BDA0002550152800000142
的值等于0.5×10-8J/bits。在宏基站的覆盖范围内均匀部署K=5个小基站,这些小基站的覆盖范围没有重叠。仿真区域内均匀部署了U=个用户,每个用户只会关联其中一个基站。用户请求文件的概率服从zipf分布,zipf参数无特殊说明设置为0.6。在一个多播周期内,每个小基站收到的用户请求数满足随机分布,在[0,10]之间取值,表示不同的小基站收到的用户请求数是不一样的。
本文所提的基于编码传输的最优缓存放置方案OPC-CT与方案1均匀随机放置&多播传输(URC-MT),方案2最流行文件放置&多播传输方案(MPC-MT),方案3均匀随机放置&编码多播传输(URC-CMT),方案4最流行文件放置&编码多播传输(MPC-CMT)进行性能比较。方案1和方案3都是在传输阶段仅采取多播传输方式,方案3和方案4都是在传输阶段仅采取编码多播方式,此编码多播方式特指式(6)条件(i),方案1和方案3每个基站缓存每个子文件的概率都是均等的,而方案2和方案4小基站的缓存空间优先缓存最流行行文件。接下来讨论系统的各个参数的变化对系统性能带来的影响,并比较提出的方案相比其他方案的优势。
图2,展示了子文件的尺寸对总能量消耗的影响,图中
Figure BDA0002550152800000152
表示每个文件的平均尺寸,
Figure BDA0002550152800000151
考虑到文件尺寸的异构性,对文件进行分段,s0决定了子文件块的尺寸,从图中可以看出,在其他参数保持不变的情况下,s0的值越小,系统总能量消耗也越小。但付出的代价是系统计算复杂度的提高,因此,在系统性能和计算复杂度之间折中,s0取值为平均文件尺寸的0.1倍。
图3,展示了总缓存容量对总能量消耗的影响。从图中可以看出,随着小基站缓存容量的增加,其他参数保持不变的情况下,总能量消耗呈现递减趋势。当整体缓存容量比较小时,OPC-MT策略只在MPC-MT策略上提升了一点点性能,即意味着放置最流行文件,多播传输也是占有一定优势的。但当整体缓存容量比较大时,OPC-CT策略明细比仅考虑多播传输的URC-MT和MPC-MT方案更占优势,这个时候采取编码传输策略设计缓存放置策略是最合适的。
图4是文件流行度参数对总能量消耗的影响。文件流行度参数α设置在[0.3,1.2]之间,系统总缓存容量M设置等于总文件尺寸。文件流行度参数越大,意味着用户请求越集中。从图中可以看出,随着文件流行度参数的增加,三种方案所产生的能量消耗呈递减趋势。虽然在文件流行度参数α很小的时候,URC-CMT方案比MPC的两种策略性能好,但文件流行度参数α越大,MPC策略无论采取什么样的传输方式都比URC方案性能更好。但总体而言,由于OPC-CT方案考虑了文件流行度参数对性能的影响,OPC-CT策略都是性能最优的。
图5是多播周期对总能量消耗的影响。多播周期t设置在[1,10]之间,系统总缓存容量M设置等于总文件尺寸,即平均每个基站的缓存容量约等于0.2N。多播周期t越大,意味着各个基站覆盖范围内的用户发起请求的数越大。因此,随着多播周期的增加,三种方案所产生的能量消耗呈递增趋势。但多播周期越大,最后可能导致收到的用户请求数远远大于总文件数,即每个文件都有可能被请求,因此,t值越大,采取随机缓存放置的编码传输策略更占优势。同样的,由于OPC-CT根据系统参数进行优化,OPC-CT策略性能随着t的增加优势更明显。
针对异构无线背景,设计的编码缓存内容放置方案考虑了文件尺寸,文件流行度,小基站覆盖范围内的用户数异构对系统性能的影响,特点是在传输阶段根据用户实际需求情况和小基站的缓存放置情况执行编码操作,联合考虑了基站缓存放置和缓存容量分配问题,以实现最大化发挥编码传输在能量开销上的优势,解决异构网络的能耗问题。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (1)

1.一种异构网络中高能效编码缓存内容放置方案设计方法,其特征在于,包括以下步骤:
S1、建立网络模型;
步骤S1建立的网络模型的工作流程如下:
1)在网络低峰时期的放置阶段,根据设定的放置方案将文件放置在离用户较近的小型基站的缓存设备中;
2)放置阶段后,网络将被使用一段时间,在小基站的缓存内容不变的条件下,各用户发起一次或者多次相互独立的内容请求;
3)在传输阶段,小基站通过无线链路将被用户请求的缓存文件段传输给用户,如果多个用户都需要某一文件段,则小基站采用多播方式传输;
4)剩余未缓存的文件段,宏基站根据各个小基站的缓存情况以及用户请求情况,采用编码多播方式通过回程链路传输编码包给小基站,小基站收到编码包后先解码,再将内容传输给用户;
在步骤S1中,网络模型的建立包括:由一个宏基站、K个小基站以及U个用户组成三层网络模型,用
Figure FDA0004176437460000011
表示基站集合,用/>
Figure FDA0004176437460000012
表示宏基站的覆盖范围,用/>
Figure FDA0004176437460000013
表示小基站k的覆盖范围,K个小基站都在宏基站的覆盖范围内,且假设对于任意两个小基站k1,k2,满足
Figure FDA0004176437460000014
即任意两个小基站的覆盖范围没有重叠,宏基站通过有线链路访问核心网中的N个文件,文件集用/>
Figure FDA0004176437460000015
表示,对应的文件尺寸用s={s1,s2,…,sN}表示,每个小基站都配有有限的缓存空间,系统总缓存容量为M,其中分配给基站k的缓存容量为Mk,
Figure FDA0004176437460000021
用户集表示为/>
Figure FDA0004176437460000022
S2、缓存放置阶段和编码传输阶段的具体设计;
在步骤S2中,用qkn表示小基站k服务的用户对文件n的请求概率,有
Figure FDA0004176437460000023
假设文件流行度分布服从齐普夫zipf分布,那么小基站k内的用户请求文件n的概率写为
Figure FDA0004176437460000024
其中αk是小基站k的zipf参数,越大意味着用户请求集中在流行的内容,否则用户请求比较分散,是一个长尾分布,γkn是文件n在小基站k的流行度排序;
因为小基站缓存空间的有限性,小基站只能缓存部分文件;文件n被分为ln个文件段,ln是整数,所有文件经过分段后,每个文件段的尺寸最终是一样的,用s0表示子文件的尺寸,基站k缓存文件n的文件段个数表示为mkn,有0≤mknnl,这些文件段都是随机等概率从ln个文件段中挑选的;
小基站缓存放置矩阵表示为
Figure FDA0004176437460000031
小基站缓存放置矩阵的取值满足基站缓存容量的约束条件,约束如下:
Figure FDA0004176437460000032
在宏基站的每个多播周期t内,小基站k平均会收到覆盖范围内所有用户发起的Uk次请求,Uk服从随机分布,这意味着不同的小基站收到的用户请求数不同,定义小基站k覆盖范围内平均请求第n个文件的次数为ωkn,ωkn等于Uk乘以第n个文件被请求的概率,表示为
ωkn=Ukqkn (4)
小基站k覆盖范围内的用户请求第n个文件的次数服从泊松过程,则在一个多播周期t内,小基站k覆盖范围内的所有用户请求文件n的次数等于j次的概率为
Figure FDA0004176437460000033
在宏基站的一个多播周期t内,若用户u请求了文件n,它只有获得了ln个文件段才能得到文件n,用户u直接从本地关联基站k中获得mkn个文件段,剩余的ln-mkn个文件段则由宏基站综合所有小基站缓存情况以及一个周期内的用户情况编码多播传输,对于小基站k未缓存的ln-mkn个文件段,宏基站记录这些文件段的信息,包括对应的文件编号和文件段编号,以及请求该文件的用户的信息,包括用户关联的小基站编号,其他缓存该文件段的小基站集合,对于每个需要由宏基站传输的文件段相关的信息,用标签记录;
用V=(v1,v2,…,vQ)表示所有用户请求的未被小基站满足的,需要宏基站传输的文件段的相关标签,用μ(v)表示标签v的用户关联的小基站编号,用η(v)表示标签v的缓存此标签相关的文件段的其他小基站集合,ρ(v)表示标签v请求的文件编号和具体的文件段编号,拿其中任意两个标签举例,若满足下面的两个条件之一的任意一个条件,则两个标签相关的文件段用一个编码包传输;
Figure FDA0004176437460000041
条件(i)说明和标签v相关的文件段缓存在和标签v′相关的用户关联的基站中,同时标签v′相关的文件段缓存在和标签v相关的用户关联的基站中,当条件(i)得到了满足,则说明两个用户请求的不同文件段可以让宏基站通过一个编码多播包传输;条件(ii)说明和标签v和v′相关的用户请求的是同一个文件段,则该文件段可以让宏基站通过一个多播包传输;把所有宏基站待传的文件段相关的标签作为一个顶点,对于任意两个顶点,若条件(i)、(ii)都不满足,则这两个顶点之间用实线连接起来,用图着色算法找哪些顶点的数据可以编码传输,图着色必须保证任意相连的顶点着不一样的颜色,着同一颜色的顶点称之为独立集(independent set),该独立集相关的数据可以通过一个编码包传输,若某一颜色只有一个顶点着了此颜色,则这个顶点相关的数据只能单独传输;
采用贪婪着色的编码传输算法,该编码传输算法由两个子算法组成,两个子算法分别针对条件(i)、(ii)分别着色,取两者着色颜色数较小的那个着色算法,即宏基站传输比特数较少的算法;
关于条件(i)的编码传输子算法描述如下:
第一步,输入用户请求的未缓存在小基站上,需要宏基站传输的文件段的所有相关信息,用集合V=(v1,v2,…,vQ)表示;
第二步,如果集合V不为空,随机选择集合V里面的一个元素v,并且令集合Λ={v},否则结束;
第三步,对于任意元素v′∈V/v,判断条件(i)μ(v)∈η(v′),μ(v′)∈η(v)是否满足,如果满足,则把元素v′添加到集合Λ中,即Λ=Λ∪{v′};
第四步,宏基站用一个编码多播包传输集合Λ中的元素相关的文件段;
第五步,重复第二步;
关于条件(ii)的编码传输子算法描述如下:
第一步,输入用户请求的未缓存在小基站上,需要宏基站传输的文件段的所有相关信息,用集合V=(v1,v2,…,vQ)表示;
第二步,如果集合V不为空,随机选择集合V里面的一个元素v,并且令集合Λ={v},否则结束;
第三步,对于任意元素v′∈V/v,判断条件(ii)ρ(v)=ρ(v′)是否满足,如果满足,则把元素v′添加到集合Λ中,即Λ=Λ∪{v′};
第四步,宏基站用一个编码多播包传输集合Λ中的元素相关的文件段;
第五步,重复第二步;
S3、系统能耗性能分析;
在步骤S3中,将总能量消耗定义为满足一个宏基站多播周期t内的所有用户请求,小基站和宏基站分别传输文件所产生的能量消耗之和,系统的总能量消耗表示为:
Figure FDA0004176437460000061
其中
Figure FDA0004176437460000062
是小基站传输能量消耗,/>
Figure FDA0004176437460000063
是宏基站传输能量消耗;
小基站传输文件的能量消耗由两部分组成,一是传输自身缓存给用户的能量消耗,二是传输从宏基站获取的未缓存文件的能量消耗,小基站传输能量消耗表示为:
Figure FDA0004176437460000064
其中
Figure FDA0004176437460000065
是小基站每传输1bit数据的能量消耗,单位Joule/bit,1-Pk0n表示基站k覆盖范围内至少有一个用户请求文件n的概率,mkns0表示基站k传输自身缓存的文件数据量,ln-mkn表示基站k传输从宏基站获取的文件数据量;
宏基站传输文件消耗的能量主要和传输宏基站传输的文件比特数成正比,宏基站最终传输文件的形式取决于条件(i)、(ii),采用贪婪着色的编码传输算法,贪婪着色的编码传输算法由两个子方案组成,针对条件(i)、(ii)分别着色,取两者着色颜色数较小的那个着色方案,即宏基站传输比特数较少的方案,宏基站传输能量消耗表达式如下:
Figure FDA0004176437460000071
其中
Figure FDA0004176437460000072
是宏基站每传输1bit数据的能量消耗,单位Joule/bit,Bh1是宏基站通过编码多播方式需要传输的总的文件比特数,Bh2是宏基站通过多播传输方式需要传输的总的文件比特数;
宏基站通过编码多播方式传输的比特数Bh1的具体公式表示如下
Figure FDA0004176437460000073
Figure FDA0004176437460000074
表示j个小基站组成的基站集合,/>
Figure FDA0004176437460000075
表示所有的小基站集合,qk表示基站k请求的服务的用户请求的所有文件段集合,其中/>
Figure FDA0004176437460000076
是一个二元函数,当/>
Figure FDA0004176437460000077
等式成立,即其他j-1个基站缓存了和标签v有关的文件段ρ(v),它的值就是1,否则,它的值就是0,/>
Figure FDA0004176437460000078
计算基站集合/>
Figure FDA0004176437460000079
中最大的独立集个数,即宏基站针对基站集合/>
Figure FDA00041764374600000710
传输的最大的编码多播包数量,
Figure FDA00041764374600000711
βkj表示被小基站
Figure FDA00041764374600000712
服务的用户请求所有文件段中能够和其他/>
Figure FDA00041764374600000713
个基站一起编码传输的文件段的数量在/>
Figure FDA00041764374600000714
小基站中是最大的概率;
式(12)计算宏基站通过条件(ii)即多播传输的总的比特数,即Bh2
Figure FDA00041764374600000715
Figure FDA0004176437460000081
表示/>
Figure FDA0004176437460000082
个基站都请求了文件n的概率,/>
Figure FDA0004176437460000083
表示/>
Figure FDA0004176437460000084
个基站都没有请求文件n的概率,/>
Figure FDA0004176437460000085
表示/>
Figure FDA0004176437460000086
个基站都未缓存文件n的概率;
S4、建立优化问题并求解,包括小基站缓存放置矩阵优化和小基站缓存容量分配向量优化;
在步骤S4中,建立以小基站缓存容量为约束条件的最小化能量消耗的优化问题,分两个子问题求解,最终得到最优的缓存放置矩阵m和缓存容量分配向量M,首先已知各个基站缓存容量分配向量M,只需要解优化问题确定最优的缓存放置矩阵m,总能量消耗由小基站传输能量消耗
Figure FDA0004176437460000087
以及宏基站传输能量消耗/>
Figure FDA0004176437460000088
组成,因此,优化问题列为:
Figure FDA0004176437460000089
该优化问题的目标函数和限制条件都可被分解,因此,将问题分解成为K个子问题,小基站k的缓存放置优化的子问题表示为:
Figure FDA00041764374600000810
采用缓存放置矩阵优化算法来解小基站k的缓存放置优化的子问题;
缓存放置矩阵优化算法包括:
第一步,从第一个小基站开始初始化其缓存放置向量m1,第一个小基站的缓存空间优先缓存流行文件的文件段,直到达到第一个小基站的缓存容量限制,因为小基站缓存容量和文件尺寸的异构性,缓存矩阵初始化时,第一个小基站不可能刚好缓存前M1个文件的所有文件段,因此,用x1表示第一个小基站缓存的最后一个文件的文件编号,
Figure FDA0004176437460000091
表示第一个小基站缓存文件x1的文件段数;
第二步,开始更新第一个小基站的缓存放置向量m1,令i=xk+1;
第三步,如果m1i<l1,计算增加一个文件段所带来的缓存能量的变化量
Figure FDA0004176437460000092
否则i=i+1,重复第三步;
第四步,计算减少已经缓存的最流行的文件j∈{1,2,…,i-1}的一个文件段所带来的能量消耗的变化量
Figure FDA0004176437460000093
第五步,如果增加未缓存的不流行文件的一个文件段所带来的系统能量消耗的变化量
Figure FDA0004176437460000094
大于减小已经缓存的流行文件的一个文件段所带来的系统能量消耗的变化量
Figure FDA0004176437460000095
则m1i=m1i+1,m1j′=m1j′-1,并更新基站1的缓存放置矩阵m1,否则,i=i+1;并重复第三步;
第六步,更新下一个小基站的缓存向量,最终所有的小基站缓存放置向量确定,最后输出最终的缓存放置矩阵m;
将给定基站缓存容量时最优的缓存放置矩阵作为已知条件,进一步分配缓存容量,缓存放置矩阵m的能量消耗的优化问题列为
Figure FDA0004176437460000101
小基站缓存容量分配算法包括:
第一步,解缓存放置矩阵优化算法,获得给定缓存容量时的最优的缓存放置矩阵,输入最大的迭代次数T,令δ>1;
第二步,只要迭代次数T>0,且δ>0,继续第三步;否则跳到第七步;
第三步,对于所有小基站
Figure FDA0004176437460000102
所有文件/>
Figure FDA0004176437460000103
若mkn<ln,计算小基站k增加一个文件段n所带来的传输能量消耗的变化量/>
Figure FDA0004176437460000104
若mkn>0,计算所有小基站k减少一个文件段n所带来的能量消耗的变化量/>
Figure FDA0004176437460000105
第四步,找到能量消耗变化量最大的小基站编号k′和对应的文件段编号n′,同时找到能量消耗变化量最小的小基站编号k″和对应的文件段编号n″;
第五步,如果
Figure FDA0004176437460000106
则mkn′=mkn′+1,mkn″=mkn″-1;
第六步,计算
Figure FDA0004176437460000107
且令T=T-1,重复第二步;
第七步,输出最优缓存放置矩阵m和缓存容量分配向量M。
CN202010573250.XA 2020-06-22 2020-06-22 异构网络中高能效编码缓存内容放置方案设计方法 Active CN111741495B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010573250.XA CN111741495B (zh) 2020-06-22 2020-06-22 异构网络中高能效编码缓存内容放置方案设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010573250.XA CN111741495B (zh) 2020-06-22 2020-06-22 异构网络中高能效编码缓存内容放置方案设计方法

Publications (2)

Publication Number Publication Date
CN111741495A CN111741495A (zh) 2020-10-02
CN111741495B true CN111741495B (zh) 2023-06-23

Family

ID=72650322

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010573250.XA Active CN111741495B (zh) 2020-06-22 2020-06-22 异构网络中高能效编码缓存内容放置方案设计方法

Country Status (1)

Country Link
CN (1) CN111741495B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113015105B (zh) * 2021-03-08 2022-06-03 哈尔滨工业大学(深圳) 空天地一体化网络的编码缓存内容放置与资源联合优化方法
CN113271603B (zh) * 2021-05-19 2022-12-09 东南大学 一种适用于异构通信网络的缓存使能用户关联方法
CN113329344B (zh) * 2021-05-19 2022-08-30 中国科学院计算技术研究所 一种用于通讯网络的文件推荐的方法
CN113360218B (zh) * 2021-06-16 2024-06-07 抖音视界有限公司 一种业务方案选择方法、装置、设备以及存储介质
CN113259056A (zh) * 2021-06-16 2021-08-13 上海交通大学 一种基于缓存信道联合编码的编码缓存传输方法
CN113453037B (zh) * 2021-06-23 2022-04-29 东南大学 一种非均匀文件流行度下的编码缓存方法
CN113543071B (zh) * 2021-06-30 2023-10-03 南京邮电大学 一种车联网环境下异构节点协作边缘缓存方法
CN114499642B (zh) * 2022-01-25 2024-06-28 微感科技(南通)有限公司 一种用于星地通信传输的编码等分缓存方法
CN114666843A (zh) * 2022-02-28 2022-06-24 南京邮电大学 一种分层网络体系结构中的协作缓存方法
CN114760598B (zh) * 2022-04-13 2024-01-30 东南大学 一种并行传输编码缓存的性能优化方案
CN115086427B (zh) * 2022-06-07 2023-06-20 哈尔滨工业大学(深圳) 面向星地一体化协作共享网络的边缘缓存内容放置方法
CN116261211B (zh) * 2023-02-02 2024-02-09 北方工业大学 一种无人机辅助数据传输的低能耗动态缓存方法
CN117336695B (zh) * 2023-10-23 2024-09-13 中山大学·深圳 一种基于编码预存的相邻用户合作场景下的编码缓存方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107968835A (zh) * 2017-12-05 2018-04-27 南京大学 一种基于编码的无线异构网络视频缓存设施部署方法
CN109218747A (zh) * 2018-09-21 2019-01-15 北京邮电大学 超密集异构网络中基于用户移动性的视频业务分类缓存方法
CN110138432A (zh) * 2019-05-16 2019-08-16 哈尔滨工业大学(深圳) 基于网络编码和中继缓存辅助的dtn数据传输方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10572470B2 (en) * 2017-04-06 2020-02-25 International Business Machines Corporation Enhanced FSCK mechanism for improved consistency in case of erasure coded object storage architecture built using clustered file system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107968835A (zh) * 2017-12-05 2018-04-27 南京大学 一种基于编码的无线异构网络视频缓存设施部署方法
CN109218747A (zh) * 2018-09-21 2019-01-15 北京邮电大学 超密集异构网络中基于用户移动性的视频业务分类缓存方法
CN110138432A (zh) * 2019-05-16 2019-08-16 哈尔滨工业大学(深圳) 基于网络编码和中继缓存辅助的dtn数据传输方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Q. Jia, R. Xie, T. Huang, J. Liu and Y. Liu.Energy-efficient cooperative coded caching for heterogeneous small cell networks.2017 IEEE Conference on Computer Communications Workshops (INFOCOM WKSHPS).2017,全文. *
T. X. Vu, S. Chatzinotas and B. Ottersten.Coded Caching and Storage Planning in Heterogeneous Networks .2017 IEEE Wireless Communications and Networking Conference (WCNC).2017,全文. *
孙毅 ; 王鸿 ; 宋荣方 ; .异构网络中两种边缘缓存策略的能耗分析.电信科学.2018,(01),全文. *
李云鹤 ; 顾术实 ; 焦健 ; 于淼 ; 吴绍华 ; 张钦宇 ; .面向火星临近空间的分布式中继纠删编码机制研究.宇航学报.2013,(07),全文. *
焦健 ; 聂胜贤 ; 杨轶 ; 顾术实 ; 吴绍华 ; 张钦宇 ; .面向深空通信的分布式系统Raptor码传输机制.宇航学报.2016,(10),全文. *
韩圣千 ; 杨晨阳 ; 李烨 ; 冯钢 ; 武刚 ; 郑福春 ; .超蜂窝网络架构下的高能效资源优化和传输机制.中国科学:信息科学.2017,(05),全文. *

Also Published As

Publication number Publication date
CN111741495A (zh) 2020-10-02

Similar Documents

Publication Publication Date Title
CN111741495B (zh) 异构网络中高能效编码缓存内容放置方案设计方法
CN109218747B (zh) 超密集异构网络中基于用户移动性的视频业务分类缓存方法
CN109905888B (zh) 移动边缘计算中联合优化迁移决策和资源分配方法
CN114205791B (zh) 一种基于深度q学习的社交感知d2d协同缓存方法
CN108848395B (zh) 基于果蝇优化算法的边缘协作缓存布置方法
Dai et al. Edge intelligence for adaptive multimedia streaming in heterogeneous internet of vehicles
CN101568026A (zh) 可伸缩视频流多速率组播通信的最优速率分配方法
WO2023159986A1 (zh) 一种分层网络体系结构中的协作缓存方法
CN108600998B (zh) 超密度蜂窝与d2d异构融合网络缓存优化决策方法
CN108834080A (zh) 异构网络中基于多播技术的分布式缓存和用户关联方法
CN113282786B (zh) 一种基于深度强化学习的全景视频边缘协作缓存替换方法
CN111432270B (zh) 一种基于分层缓存的实时业务时延优化方法
CN113012013B (zh) 一种在车联网中基于深度强化学习的协同边缘缓存方法
CN103781115A (zh) 一种蜂窝网络中基于传输代价的分布式基站缓存替换方法
Gu et al. Energy-efficient content placement with coded transmission in cache-enabled hierarchical Industrial Internet of Things networks
CN110049507A (zh) 无线内容分发网络中基于鞅理论的最优缓冲资源分配方法
CN116249162A (zh) 车载边缘网络中基于深度强化学习的协作缓存方法
CN108882269B (zh) 结合缓存技术的超密集网络小站开关方法
CN114863683A (zh) 基于多目标优化的异构车联网边缘计算卸载调度方法
CN108965034B (zh) 小小区基站超密集部署下的用户关联到网络的方法
CN102281637B (zh) 异构无线网络下的动态资源分配方法及其装置
CN111479312B (zh) 异构蜂窝网络内容缓存和基站休眠联合优化方法
CN111447506B (zh) 云边环境下基于延迟和成本均衡的流媒体内容放置方法
Sang et al. A Hybrid Heuristic Service Caching and Task Offloading Method for Mobile Edge Computing.
CN108738048B (zh) 一种基于遗传算法的最大化公平性基站主动存储方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant