CN113766540B - 低时延的网络内容传输方法、装置、电子设备及介质 - Google Patents
低时延的网络内容传输方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN113766540B CN113766540B CN202111025877.2A CN202111025877A CN113766540B CN 113766540 B CN113766540 B CN 113766540B CN 202111025877 A CN202111025877 A CN 202111025877A CN 113766540 B CN113766540 B CN 113766540B
- Authority
- CN
- China
- Prior art keywords
- delay
- content
- average
- base station
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005540 biological transmission Effects 0.000 title claims abstract description 129
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000004364 calculation method Methods 0.000 claims description 29
- 238000003860 storage Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 9
- 230000002787 reinforcement Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 3
- 238000002716 delivery method Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 abstract description 15
- 230000000694 effects Effects 0.000 abstract description 11
- 230000002776 aggregation Effects 0.000 abstract description 9
- 238000004220 aggregation Methods 0.000 abstract description 9
- 229920009204 Methacrylate-butadiene-styrene Polymers 0.000 description 31
- 229920000468 styrene butadiene styrene block copolymer Polymers 0.000 description 22
- 230000008569 process Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 238000004088 simulation Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000001934 delay Effects 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 230000003139 buffering effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013468 resource allocation Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W40/00—Communication routing or communication path finding
- H04W40/02—Communication route or path selection, e.g. power-based or shortest path routing
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明提供一种低时延的网络内容传输方法、装置、设备及介质,该方法包括:使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;构建网络内容总时延模型,网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在微基站、宏基站以及云中的平均逗留时延模型;根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存和路由决策。本发明考虑相同内容的汇聚效果,以降低服务器利用率,从而优化网络内容传输时延、提高网络内容分发效率、减轻网络传输压力。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种低时延的网络内容传输方法、装置、电子设备及介质。
背景技术
随着通信技术飞速发展,人们对于网络内容传输的要求日益提高。为了降低基础设施成本,便于个人和企业更便捷地使用计算资源,云计算被提出并且发展起来。因其具有强大的计算资源、可扩展性,很大程度上地降低了网络内容传输延迟。但是随着创新业务的增加,人们不仅限于文本信息的交互,语音、图片、视频等数据量高的信息交互方式越来越普遍。海量数据传输至云处理,给骨干网络造成极大压力,造成网络拥堵和资源的极大浪费,导致网络内容传输高延迟。而且云计算十分依赖网络,一旦网络中断,云服务器也就无法访问。
尽管云计算相较于传统IT架构拥有强大计算能力、存储能力和可扩展性,避免了请求内容传输至较远的服务器从而造成的高延迟,但是,在当今物联网时代,时间敏感业务对延迟的要求很高,请求内容传输至云处理所带来的时延仍不能满足当下业务的需求。高延迟和网络带宽受限一直是云计算难以逾越的障碍。在这样的背景下,计算中心向用户侧倾斜,边缘计算蓬勃发展。边缘计算因其搜集到的数据可以在互联网设备端及时处理,大大降低了终端到云的传输时延,减轻了骨干网的压力,给用户带来更佳的体验,受到人们的青睐。海量数据不必再上传至云端,边缘设备同样具备一定的存储和计算能力。边缘计算带来的低时延高效率使一种新的服务和应用程序成为可能,为很多高新技术提供了发展平台,比如让自动驾驶汽车在车辆端处理数据成为可能,而数据不必再由车辆端传输至云处理。同时,边缘计算让请求尽可能在边缘得到处理,极大缓解了网络压力。
但边缘设备具有的计算能力和存储能力有限,面对人工智能和程序开发等大规模数据的存储和计算无法和云计算相比。云计算面对时间敏感业务的处理能力不及边缘计算方便快捷。因此,云计算和边缘计算协作能够带来更大的效益,云边协同架构逐渐受到广泛人士的认可。云计算和边缘计算协同工作既可以满足时间敏感程序的处理,又能满足程序开发、人工智能等对计算和存储能力有高要求的程序,发挥边缘计算和云计算各自的优势。从技术和商业演进的实际情况来看,边缘计算其实更多的是云计算的一种改进形式:将数据中心向用户侧延伸。边缘计算无法脱离云计算,云计算也不能缺少边缘计算作为补充,二者相互依存、协同运作,形成兼顾计算能力和时延效益的云边协同机制,这也正是当今世界研究和关注的热点问题。
发明内容
本发明提供一种低时延的网络内容传输方法、装置、电子设备及介质,用以解决现有技术中存在的问题。
本发明提供一种低时延的网络内容传输方法,包括:
使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;
基于所述内容流行度模型和网络拓扑模型,构建网络内容总时延模型,所述网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在所述微基站、宏基站以及云中的平均逗留时延模型;
根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存和路由决策,从而降低网络内容传输的平均延迟。
根据本发明提供的低时延的网络内容传输方法,所述链路上的传输时延包括上行传输时延与下行传输时延,其中基于上行传输的任务数据量和传输速率得到所述上行传输时延,基于下行传输的任务数据量和传输速率得到所述下行传输时延。
根据本发明提供的低时延的网络内容传输方法,所述微基站、宏基站以及云中的逗留时延包括各自的平均排队时延和各自的平均服务时延,其中基于平均排队长度、平均到达率和请求数量未达到队伍容量的概率得到所述平均排队时延,基于缓存大小、请求所需的CPU平均转数和CPU的平均转数得到所述平均服务时延。
根据本发明提供的低时延的网络内容传输方法,所述基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解包括求解基于所述网络内容传输时延模型和平均逗留时延模型得到的优化目标,以最小化所述网络内容总时延模型的平均时延。
根据本发明提供的低时延的网络内容传输方法,所述根据路由策略进行路由决策包括:
按照本地微基站,直连微基站,宏基站,非直连微基站,直连宏基站,云的顺序进行路由决策。
根据本发明提供的低时延的网络内容传输方法,所述基于求解结果优化缓存策略和路由策略包括:
基于深度强化学习的在线协同缓存策略利用DQN算法做出缓存和路由决策。
根据本发明提供的低时延的网络内容传输方法,所述DQN算法的给定时间的网络状态空间包括网络拓扑、当前请求可到达的节点数量、缓存状态集合、可用链路带宽以及利用率。
本发明还提供一种低时延的网络内容传输装置,包括:
网络模型构建模块,用于使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;
时延模型构建模块,用于基于所述内容流行度模型和网络拓扑模型,构建网络内容总时延模型,所述网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在所述微基站、宏基站以及云中的平均逗留时延模型;
平均延迟优化模块,用于根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存和路由决策,从而降低网络内容传输的平均延迟。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述低时延的网络内容传输方法的步骤。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述低时延的网络内容传输方法的步骤。
本发明提供的低时延的网络内容传输方法、装置、电子设备及介质,通过考虑相同内容的汇聚效果,以降低服务器利用率,从而优化网络内容传输时延、提高网络内容分发效率、减轻网络传输压力。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的低时延的网络内容传输方法的流程示意图之一;
图2是本发明提供的基于排队论的状态转移图;
图3是本发明提供的路由策略的伪代码;
图4是在本发明实施例中请求进入基站内部的决策流程图;
图5是本发明实施例提供的实时缓存策略中用到的基于LRU置换算法流程图;
图6是本发明提供的低时延的网络内容传输装置的结构示意图;
图7是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了优化网络内容传输时延,降低网络带宽压力,提高网络内容分发效率,本发明提出一种新型的云边协同架构和请求路由算法,考虑了八种场景下不同因素对网络内容传输时延造成的影响。基于排队理论,计算该模型下的基站内逗留时延和传输时延,考虑相同内容的汇聚问题。通过使用深度强化学习,合理分配云和边缘设备的计算和存储资源,实现了边缘设备与云端协同、高效缓存与路由,优化时延,带来更佳的用户体验。
本发明设计了一个适应用户请求以最优路由路径就近获取缓存的系统,能够进一步减少系统传输时延,联合提高网络服务质量,具有较为广泛的研究发展前景。本发明具有一定的实用价值,在三层异构网络下解决了最小化网络内容传输时延问题。
本发明针对现有方案缺乏考虑的方面,提出了一种基于边缘缓存的时延最优的网络内容分发机制解决方案。在本发明提出的云边协同计算模型中,在用户侧发送请求的情景之下,以降低网络内容传输时延为出发点,提出最优的边缘缓存策略。考虑到相同内容的请求汇聚问题,在基站内排队队列中,相同内容不再重复占用排队时延,在下行链路的传输中也不再重复占用带宽,以此最小化延迟和降低网络带宽压力。并且通过设置合理的用户请求路由方式,保证请求能够优先在边缘得到处理,减少请求在网络中传输的时间。
图1是本发明提供的低时延的网络内容传输方法的流程示意图之一,参考图1,本发明提供的低时延的网络内容传输方法包括:
步骤110,使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;
步骤120,基于所述内容流行度模型和网络拓扑模型,构建网络内容总时延模型,所述网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在所述微基站、宏基站以及云中的平均逗留时延模型;
步骤130,根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存和路由决策,从而降低网络内容传输的平均延迟。
在本发明实施例中需要说明的是,本发明提供的基于边缘缓存的时延最优的网络内容分发机制设计包括如下步骤:
步骤1、分析并构建系统模型。
在这一部分中,本发明首先分析了网络中基站分布以及缓存、计算、通信、资源的分配,然后给出了内容流行度模型和网络模型。
步骤1.1、分析并构建内容流行度模型。
本算法按照齐普夫定律(Zipf′s Law)来设计网络视频内容的流行度模型。假设内容种类数为k,按照从1到k给视频内容编号。在给定的一段时间内,基站总的请求数为R,那么内容编号为k的内容流行度的分布为:
其中,F表示网络中不同内容的种类数,齐普夫偏度系数α表征了内容流行度。α取值越大,内容请求越集中,流行数据的请求量越大。
步骤1.2、分析并构建网络模型。
为了有效分析云边协同的异构网络下的网络内容延迟,本发明设计了三层拓扑结构模型。该模型包含微基站SBS、宏基站MBS以及云,MBSs通过复杂的骨干网络与云连接。每个基站下挂载一部分用户。本模型考虑MBSs之间、SBSs之间相互直连的情形,相互直连的基站内的缓存内容能够通过光纤网络高速互传。
对于用户发送的请求,我们假设每个传输至云或者基站处理的请求包括计算任务与非计算任务两部分。计算任务占据上行链路带宽,非计算任务占据下行链路带宽,设定ac为计算任务占比,则1-ac为内容任务占比。
步骤2、建立网络内容总时延模型,并将总时延模型分为两部分时延模型,逐一分析。
从用户侧发送计算任务,基于设定的路由方式,传输至边缘或者云处理,最终将内容任务传输回用户,从发出到接收的时间差即一个传输任务的总时延。为了方便统计和计算,本文将总时延划分为两个部分:在链路上产生的传输时延和在基站或云中产生的逗留时延。传输时延即基站外产生的时延,也即是请求在链路上传输产生的时延,包括上行传输时延与下行传输时延。不同的请求内容,根据链路带宽情况、基站缓存区存储的内容、基站内拥堵情况等做出不同的路由选择,因此链路传输时延也可能不同。逗留时延是基站内产生的时延,本文将逗留时延分为两部分考虑:排队时延与服务时延。服务时延受到CPU转速、请求任务所需的转数、缓存大小的影响。排队时延则与队伍容量、服务台个数和服务时延等因素直接相关。下面将详细介绍这两种时延的原理以及计算公式。
步骤2.1、构建网络内容传输时延模型。
网络内容传输时延即请求在链路上的传输时延,受到当前带宽、请求任务数据量大小等参数的影响。
用户发送的计算任务占用上行带宽,从边缘服务器或云服务器下载的内容传回用户占用的是下行带宽。传输时延包括上行传输时延与下行传输时延之和,请求内容为k的任务在节点i与节点j之间产生的传输时延计算公式为:
其中ac为计算任务占总任务(总任务为计算任务和内容任务之和)的比率,则1-ac为内容任务占总任务的比率,sk表示所请求内容k的大小。表示请求内容k在节点i到节点j的单向链路上的传输速率,/>表示请求内容k在节点j到节点i的单向链路上的传输速率。每下载一个不同的内容,占用相应的下行链路带宽,在短时间内会相应地降低下行传输速率,增加传输时延。
步骤2.2、构建平均逗留时延模型。
逗留时延是指请求进入基站到离开基站的时延。本文将逗留时延分为两个部分考虑:排队时延和服务时延。排队时延指的是,从请求进入基站、加入队伍开始,直到即将被服务所经历的时延,是请求在队伍中等待的时延。服务时延指的是请求在基站缓存区中查找内容所需的时延。服务时延的大小受到基站缓存区大小、请求所需CPU转数、CPU转速的影响,排队时延受到服务时延、请求到达率和队伍容量的影响。
(1)平均排队时延。
从请求进入基站的一刻起,至轮到该请求被服务的一刻结束,为一个请求的排队时延。为清晰明了地介绍平均排队时延的计算公式,依据排队论的相关知识,对于模型内任意一个基站或云,首先做出如下假设:
1)考虑相同内容的汇聚效果后,到达基站或云的请求均服从泊松分布,请求到达间隔时间服从负指数分布;
2)基站或者云内的排队规则均为混合制,队长有限制的情况;
3)服务时间服从负指数分布;
基于以上假设,可以将排队长度有限的排队系统模型表示为M/M/m/L。基站或云服务器平均利用率ρ的表达式为:
其中λ、μ分别表示相同内容请求汇聚后的平均到达率和平均服务率,m表示服务器数量。
对于系统容量有限的排队模型M/M/m/L(L≥m),其状态转移图如图2所示。状态平衡方程为
式中Pn表示排队系统中有n个请求的概率。根据和式(2)可得
基站或云内有n个请求排队的概率为
平均排队长度为
平均排队时延为
(a)SBS内的平均排队时延
由式(2)可以得出相同内容请求汇聚后第i个MBS下第j个SBS内服务器的平均利用率为
其中λij、μij分别表示相同内容请求汇聚后第i个MBS下第j个SBS的平均到达率和平均服务率。mij表示第i个MBS下第j个SBS内的服务器数量。
根据上述排队时延的推导过程(3)-(7),第i个MBS下第j个SBS内的平均排队时延计算公式为:
其中Qij表示第i个MBS下第j个SBS内的平均排队长度,Pij,L表示考虑汇聚效果后第i个MBS下第j个SBS内请求数达到队伍容量的概率。
(b)MBS内的平均排队时延
由公式(2)可以得出相同内容请求汇聚后第i个MBS的服务器平均利用率为
其中λi、μi分别表示相同内容请求汇聚后第i个MBS的平均到达率和平均服务率。mi表示第i个MBS的服务器数量。
根据上述排队时延的推导过程(3)-(7),第i个MBS的平均排队时延计算公式为:
其中Qi表示第i个MBS内的平均排队长度,Pi,L表示考虑汇聚后第i个MBS内请求数达到队伍容量的概率。
(c)云内的平均排队时延
由公式(2)可以得出相同内容请求汇聚后云的平均服务器利用率为
其中λc、μc分别表示相同内容请求汇聚后云的平均到达率和平均服务率。mc表示云的服务器数量。
根据上述排队时延的推导过程(3)-(7),云的平均排队时延计算公式为
其中Qc表示云内的平均排队长度,Pc,L表示考虑汇聚后云内请求数达到队伍容量的概率。
(2)平均服务时延
平均服务时延即平均服务率的倒数。在服务器处理请求的过程中产生的时延为服务时延,它与缓存大小和请求所需CPU转数呈正相关,与CPU转速呈负相关。
(a)SBS内的平均服务时延
相同内容请求汇聚后,请求在第i个MBS下的第j个SBS内的平均服务时延的计算公式为
其中μij、Sij分别表示相同内容请求汇聚后第i个MBS下第j个SBS的平均服务率和请求所需的平均转数,Cij表示第i个MBS下第j个SBS的缓存大小,vij表示第i个MBS下第j个SBS的CPU转速,β是系数。
(b)MBS内的平均服务时延
相同内容请求汇聚后,请求在第i个MBS的平均服务时延的计算公式为
其中μi、Si分别表示相同内容请求汇聚后第i个MBS的平均服务率和请求所需的平均转数,Ci表示第i个MBS的缓存大小,vi表示第i个MBS的CPU转速,β是系数。
(c)云内的平均服务时延
相同内容请求汇聚后,请求在云的平均服务时延的计算公式为
其中μc、Sc分别表示相同内容请求汇聚后云的平均服务率和请求所需的平均转数,Cc表示云的缓存大小,vc表示云的CPU转速,β是系数。
(3)平均逗留时延
基站内的平均逗留时延即平均排队时延与平均服务时延之和。
(a)SBS内的平均逗留时延
根据上述的SBS、MBS和云的服务时延和排队时延计算公式,可以得出相同内容请求汇聚后第i个MBS下第j个SBS内的平均逗留时延为
Tij=Ts,ij+Tq,ij (17)
(b)MBS内的平均逗留时延
相同内容请求汇聚后第i个MBS内的平均逗留时延为Ti=Ts,i+Tq,i (18)
(c)云内的平均逗留时延
相同内容请求汇聚后云内的平均逗留时延为
Tc=Ts,c+Tq,c (19)
步骤2.3、给出最优资源分配问题的优化目标。
为了提高资源利用和内容分布,我们的模型设计了云边缘协同卸载方案,可以实现缓存、计算、通信资源的集成分配和网络内缓存与路由之间的联合优化。基于上述分析,最优资源分配问题的目标是最小化用户请求的总网络延迟,可以表示为
其中,优化目标中的时延计算公式如下:
上述式子中的符号含义如下:
步骤3、设计路由策略。
根据设计的路由策略以及上述时延的计算模型,可以得出一个请求在本文模型下的平均时延。
路由策略也一定程度上反应了边缘服务器和云服务器的协作效率,从云端下载内容经过复杂而漫长的网络必然产生高延迟,为了保证用户发出的请求内容传输延迟最小,需要尽可能地让请求在边缘得到处理。基于此,本文提出了一种考虑相同内容的请求汇聚效果的云边协同架构下的路由策略,这个路由策略决定了用户请求在什么情况下路由至哪一个节点处理。如图3所示,总的路由策略是按照本地SBS、直连SBS、MBS、非直连SBS、直连MBS、云这样的顺序进行路由决策。
步骤4、分析缓存策略和汇聚机制对系统性能的影响。
我们考虑相同请求内容的汇聚效果,同一个内容的请求在基站中不重复产生排队时延以及服务时延,也不重复占用网络带宽。我们把相同内容的请求视为一个处理,然后再分为多个内容任务下载到所需此内容的用户终端。这样的相同内容汇聚效果可以显著提高系统性能,提高网络内容分发效率,降低网络内容传输的冗余。我们也意识到边缘缓存在MEC范式中起着主导作用。流行的内容被缓存在MEC节点中,能够减少用户的访问延迟。图4展示了一个基站处理请求的流程图。然而,MEC节点的缓存容量有限,因此需要高效的缓存机制来最佳地利用MEC节点缓存。基于上述考虑到的汇聚效果以及缓存策略,在仿真中我们探究四种策略下的系统性能,第一种是考虑汇聚的无缓存策略,第二种是基于LRU的分布式缓存策略,第三种是基于内容流行度的离线协同缓存策略,最后一种是基于深度强化学习的在线协同缓存策略。
步骤4.1、考虑汇聚的无缓存策略
该策略考虑了相同内容请求的汇聚效果,在基站内或者云中,到达的请求首先会检查等候队列中所有的请求内容种类,如果有相同的内容请求,则与其合并为一个处理。换句话说,该请求不再单独产生排队时延与服务时延。除此之外,在下载的过程中,相同内容的请求只占用一次带宽,到达终端再分为多个内容任务分发给用户。由于该策略没有设置边缘设备的缓存,因此用户请求全部从云端获取内容数据,不难预判,这种策略的平均时延最高。
步骤4.2、基于LRU的分布式缓存策略
基于LRU的分布式缓存策略指的是利用LRU算法部署缓存,与下面介绍的离线协同缓存策略最大的不同点在于缓存内容实时更新。其基本思想是置换最近一段时间以来最长时间未访问过的缓存内容。根据程序局部性原理,刚被访问的内容,可能马上又要被访问;而较长时间内没有被访问的内容,可能最近不会被访问。因此在仿真中,每成功发送一次请求,相应传输路径上的节点缓存都进行一次LRU算法的更新。具体做法如下:我们使用两个数组分别记录内容种类和内容在缓存区中的停留时间。当到达一个请求时,首先判断缓存区内是否存有该请求内容,若是,将该内容的停留时间清零,其余内容的停留时间+1。若否,判断缓存区中是否有空位,有空位则存入该内容并且停留时间从零计,其余内容的停留时间+1;无空位则采用LRU置换算法,替换掉停留时间最长的那个内容,此内容的停留时间清零,其余位置停留时间+1。图5展示了LRU算法的流程图。
理论上讲,反复被替换的是流行度低的内容,因为流行度低的内容不经常被访问,往往在缓存区停留时间最长,而流行内容经常被访问,其停留时间时常被清零,所以缓存的内容不会常常被替换。缓存最流行的内容,这是我们所希望的,因为能够尽可能地提高请求在边缘的命中率。同时这种实时缓存策略是实际工程中能够做到的,因为,基站缓存内容的依据是缓存区已经存储的内容种类及其对应的停留时间,还有当前传入的请求内容种类。基站无需做出流行内容的预判,而是根据之前和现在拥有的信息做出实时的缓存决定。
步骤4.3、基于内容流行度的离线协同缓存策略
离线协同缓存策略指的是理论上最优的一种缓存部署方式。在本文中介绍了在这种缓存机制下是如何降低基站利用率从而优化时延的。在仿真中,我们预先存入与设定的缓存大小相适应的内容,并且按照流行度排名由高到低存入边缘缓存区,最靠近用户的基站优先存入,网络的三层互补存储,云存储所有可能出现的请求内容。在这样的缓存机制下,能够保证流行度高的内容在边缘处理,流行度越低的内容才越容易传输至云处理。而根据齐夫分布,流行度越高的请求内容,其请求数量占总请求数量的比例越高。因此请求在边缘命中的概率越大。这种理论最优的离线缓存策略,是从缓存策略的角度最小化网络内容传输延迟,但是在现实中我们并不能事先预判哪些内容是最流行的。
步骤4.4、基于深度强化学习的在线协同缓存策略
通过将深度学习(DL)和强化学习(RL)相结合的DRL策略,可以增强当前异构网络中的资源分配和内容分布。深度Q网络(DQN)作为DRL的一个分支,利用深度神经网络自动学习低维特征表示,可以有效地处理复杂网络环境带来的维数难题。在本节中,我们利用DQN算法,根据系统中当前可用的网络资源,做出及时和最优的缓存和路由决策。
DQN使用参数为ω的神经网络作为评价网络,输出动作值。神经网络在给定时间t时的输入和输出为状态st和动作值Q(st,at;ω)。为了探索环境中的未知信息,在训练结果的最大利用的基础上,利用ε贪婪策略在神经网络输出其动作值后选择动作。ε贪婪策略是选择概率为ε∈(0,1)的argmaxaQ(st,at;ω)的动作,或随机选择概率为1-ε的动作。在此过程中,DQN中的神经网络需要通过反向传播和梯度下降算法来更新相关参数,以最小化标签与输出结果之间的偏差,这是损失函数的优化过程。我们使用均方误差(MSE)作为DQN中神经网络的损失函数,这可以用式(21)来定义。其中是从参数ω-获得的目标Q值、目标网络的Q值和奖励值,Q(st,at;ω)是参数为ω的评价网络输出的评价Q值。为了提高训练的稳定性和收敛性,我们使用目标网络作为固定标签。虽然目标网络和评价网络具有相同的初始参数,但前者的参数更新速度要慢于后者。具体来说,ω在每个步骤中进行更新,而ω-在固定数量的步骤中完成。
在我们的模型中,给定时间t的网络状态空间st包括网络拓扑当前请求可到达的节点数量nt、缓存状态集合/>可用链路带宽/>和/>以及利用率/>因此可以写成/> 在给定时间t处的操作at的目的是在接下来的训练周期中更新缓存状态/>并选择下一跳nt+1的路由节点。因此,它可以写成/>过程中相应的奖励可以写成/>其中γ表示过去训练周期奖励影响的贴现系数,从0到1之间取值。T表示已经进行训练过的训练周期数。Tt为当前训练期与网络延迟相关的参数,可以通过等式(13)得到。因此,我们的DQN解决方案在任何时间t的目标是找到基于状态空间st的最佳缓存和路由决策at,以最大化预期的累积贴现奖励rt。
下面结合仿真实验结果对本发明所涉及的方法进行性能分析及比较。
根据缓存容量对系统性能的影响仿真结果,无缓存策略的策略效果最差,因为来自mc的全部请求都需要从云端下载内容。性能最优的是基于深度强化学习的在线协同缓存策略,由于系统中及时、智能的缓存和路由决策,我们提出的“DQN协同缓存”策略的性能比其他解决方案要好得多。随着缓存大小的增加,基站中更流行的内容存储在一起,提高了网内缓存模型的网络延迟,通过“DQN协同缓存”弥补了性能差距。横向看,缓存区越大性能越好,因为缓存区越大意味着边缘缓存区能覆盖更多种类的内容,更多的请求会在边缘被处理。比DQN协同缓存更优的策略是离线协同缓存策略。因为其预先存储了高流行度的内容,因此请求在边缘命中的概率更高。介于离线协同缓存策略和无缓存策略之间的是基于LRU的分布式缓存策略。因为在有限的缓存大小下,LRU动态存储策略会不断替换流行度低的内容,频繁的替换导致基于LRU的分布式缓存策略的缓存内容的并不总是流行度最高的内容,比离线协同缓存策略要差,但优于无缓存策略。而随着缓存区增大,替换的情况减少,能覆盖更多种类的内容,与离线协同缓存策略性能差距减小。
根据内容流行度对系统性能的影响仿真结果,观察无缓存策略曲线,随着内容流行度增大,重复的内容种类增加,由于请求聚合,其性能略有提高。至于其他解决方案,基站中缓存更多的流行内容显著提高了网络延迟。此外,由于出现的偏态因子值较大,频繁的缓存替换也得到了改善,缩小了“离线协同缓存”和“LRU分布式缓存”之间的差距。
根据请求到达率对系统性能影响仿真结果,观察四种方案在不同请求到达速率下的平均延迟,可以看出当请求到达率增加时,所有解决方案的网络性能都会下降,因为在路由过程中丢失了更多的请求数据包。但是,“DQN协同缓存”的网络延迟影响,通过正确分配网络资源,可以降低包丢失的概率。当请求到达率继续增长并超过一定值时,丢包丢失问题变得更加严重,使得所有模型的性能迅速下降。
根据内容种类数对系统性能影响仿真结果,整体来看,随着内容种类数增加,网络内容差异性增大,带宽受限、超过基站队伍容量的情况增加,导致丢包率上升,除了DQN协同缓存策略以外,另外三种策略的性能都变差。内容种类200到1000时的性能变化相较于1000到2000时更为明显。这是因为由齐夫分布的概率质量函数可知,在内容种类数n较小时,增加内容种类数n带来的差异性更加显著。我们还能发现,DQN协同缓存策略下的性能相较于另外三种策略明显更优。并且,随着内容种类数的增加,性能略微提高。因为DQN可以基于当前网络状态做出最优的缓存决策,并在约束资源中实现高效的路由。
根据队伍容量对系统性能影响仿真结果,当SBS的相对队列容量增加时,所有解决方案的平均延迟都会快速增长。原因是由于队列容量更大的请求聚合,数据包丢失的概率明显下降。当队列容量继续增长并超过某一值时,就会从根本上克服丢包这个现象,因为队列容量已经足够大,可以聚合所有网络请求。
根据计算任务占比对系统性能的影响仿真结果,随着计算任务比例的增加,所有方案的平均延迟都减小。原因是较大的计算任务比意味着节省更多的通信资源,可以减少网络拥塞和排队容量有限导致的包丢失的概率。因此,提高了整个性能。此外,“与DQN合作缓存”的性能比其他解决方案要好得多,因为DQN可以从拓扑环境和历史访问信息中学习,从而做出最佳的缓存和路由决策。
下面介绍根据在不同学习率下,“与DQN合作缓存”每集的奖励总和的仿真结果。学习率定义了旧的Q值将从新的Q值中学习的比例。学习速率为0意味着代理不会从新环境中学习任何东西,这意味着旧信息很重要。相反,学习率为1,表示新发现的信息是影响代理变化的唯一因素。如图所示,该模型在不同的学习速率下可以快速收敛到最优稳态,当学习速率为0.01时,系统可以获得更好的性能。
下面介绍在不同的SBS缓存大小下,“与DQN合作缓存”每集的奖励总和的仿真结果。更大的缓存大小可以实现较低的网络延迟。此外,该模型可以在不同的缓存容量下快速收敛到最优稳态。
下面对本发明提供的低时延的网络内容传输装置进行描述,下文描述的低时延的网络内容传输装置与上文描述的低时延的网络内容传输方法可相互对应参照。
图6是本发明提供的低时延的网络内容传输装置的结构示意图,参考图6,本发明提供的低时延的网络内容传输装置包括:
网络模型构建模块610,用于使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;
时延模型构建模块620,用于基于所述内容流行度模型和网络拓扑模型,构建网络内容总时延模型,所述网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在所述微基站、宏基站以及云中的平均逗留时延模型;
平均延迟优化模块630,用于根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存和路由决策,从而降低网络内容传输的平均延迟。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
由于本发明实施例提供的低时延的网络内容传输装置,可以用于执行上述实施例所述的低时延的网络内容传输方法,其工作原理和有益效果类似,故此处不再详述,具体内容可参见上述实施例的介绍。
图7示例了一种电子设备的实体结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(Communications Interface)720、存储器(memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行低时延的网络内容传输方法,该方法包括:使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;基于所述内容流行度模型和网络拓扑模型,构建网络内容总时延模型,所述网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在所述微基站、宏基站以及云中的平均逗留时延模型;根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存策略和路由策略,从而降低网络内容传输的平均延迟。
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的低时延的网络内容传输方法,该方法包括:使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;基于所述内容流行度模型和网络拓扑模型,构建网络内容总时延模型,所述网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在所述微基站、宏基站以及云中的平均逗留时延模型;根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存策略和路由策略,从而降低网络内容传输的平均延迟。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的低时延的网络内容传输方法,该方法包括:使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;基于所述内容流行度模型和网络拓扑模型,构建网络内容总时延模型,所述网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在所述微基站、宏基站以及云中的平均逗留时延模型;根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存策略和路由策略,从而降低网络内容传输的平均延迟。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个、三个等,除非另有明确具体的限定。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种低时延的网络内容传输方法,其特征在于,包括:
使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;所述内容流行度模型Rk采用公式表示为:其中,R表示总请求数,k表示内容种类数,F表示网络中不同内容的种类数,齐普夫偏度系数α表示内容流行度;
基于所述内容流行度模型和网络拓扑模型,构建网络内容总时延模型,所述网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在所述微基站、宏基站以及云中的平均逗留时延模型;网络内容传输时延为请求在链路上的传输时延,所述传输时延包括上行传输时延与下行传输时延之和;所述网络内容传输时延模型采用公式表示为:其中,ac为计算任务占总任务的比率,总任务为计算任务和内容任务之和,sk表示所请求内容k的大小,/>表示请求内容k在节点i到节点j的单向链路上的传输速率,/>表示请求内容k在节点j到节点i的单向链路上的传输速率;所述平均逗留时延为平均排队时延与平均服务时延之和,所述微基站中的平均逗留时延模型Tij采用公式表示为:Tij=Ts,ij+Tq,ij,其中,Ts,ij表示请求在第i个宏基站下的第j个微基站内的平均服务时延,Tq,ij表示请求在第i个宏基站下的第j个微基站内的平均排队时延;所述宏基站中的平均逗留时延模型Ti采用公式表示为:Ti=Ts,i+Tq,i,其中,Ts,i表示请求在第i个宏基站的平均服务时延,Tq,i表示第i个宏基站的平均排队时延;云中的平均逗留时延模型Tc采用公式表示为:Tc=Ts,c+Tq,c,其中,Ts,c表示请求在云的平均服务时延,Tq,c表示云的平均排队时延;
根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存策略和路由策略,从而降低网络内容传输的平均延迟。
2.根据权利要求1所述的低时延的网络内容传输方法,其特征在于,所述链路上的传输时延包括上行传输时延与下行传输时延,其中基于上行传输的任务数据量和传输速率得到所述上行传输时延,基于下行传输的任务数据量和传输速率得到所述下行传输时延。
3.根据权利要求1所述的低时延的网络内容传输方法,其特征在于,所述微基站、宏基站以及云中的逗留时延包括各自的平均排队时延和各自的平均服务时延,其中基于平均排队长度、平均到达率和请求数量未达到队伍容量的概率得到所述平均排队时延,基于缓存大小、请求所需的CPU平均转数和CPU的平均转数得到所述平均服务时延。
4.根据权利要求1至3任一项所述的低时延的网络内容传输方法,其特征在于,所述基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解包括求解基于所述网络内容传输时延模型和平均逗留时延模型得到的优化目标,以最小化所述网络内容总时延模型的平均时延。
5.根据权利要求1至3任一项所述的低时延的网络内容传输方法,其特征在于,所述根据路由策略进行路由决策包括:
按照本地微基站,直连微基站,宏基站,非直连微基站,直连宏基站,云的顺序进行路由决策。
6.根据权利要求1至3任一项所述的低时延的网络内容传输方法,其特征在于,所述基于求解结果优化缓存策略和路由策略包括:
基于深度强化学习的在线协同缓存策略利用DQN算法做出缓存和路由决策。
7.根据权利要求6所述的低时延的网络内容传输方法,其特征在于,所述DQN算法的给定时间的网络状态空间包括网络拓扑、当前请求可到达的节点数量、缓存状态集合、可用链路带宽以及利用率。
8.一种低时延的网络内容传输装置,其特征在于,包括:
网络模型构建模块,用于使用齐普夫定律构建内容流行度模型,并构建包括微基站、宏基站以及云的网络拓扑模型;所述内容流行度模型Rk采用公式表示为:其中,R表示总请求数,k表示内容种类数,F表示网络中不同内容的种类数,齐普夫偏度系数α表示内容流行度;
时延模型构建模块,用于基于所述内容流行度模型和网络拓扑模型,构建网络内容总时延模型,所述网络内容总时延模型包括计算在链路上的网络内容传输时延模型和计算在所述微基站、宏基站以及云中的平均逗留时延模型;网络内容传输时延为请求在链路上的传输时延,所述传输时延包括上行传输时延与下行传输时延之和;所述网络内容传输时延模型采用公式表示为:/>其中,ac为计算任务占总任务的比率,总任务为计算任务和内容任务之和,sk表示所请求内容k的大小,/>表示请求内容k在节点i到节点j的单向链路上的传输速率,/>表示请求内容k在节点j到节点i的单向链路上的传输速率;所述平均逗留时延为平均排队时延与平均服务时延之和,所述微基站中的平均逗留时延模型Tij采用公式表示为:Tij=Ts,ij+Tq,ij,其中,Ts,ij表示请求在第i个宏基站下的第j个微基站内的平均服务时延,Tq,ij表示请求在第i个宏基站下的第j个微基站内的平均排队时延;所述宏基站中的平均逗留时延模型Ti采用公式表示为:Ti=Ts,i+Tq,i,其中,Ts,i表示请求在第i个宏基站的平均服务时延,Tq,i表示第i个宏基站的平均排队时延;云中的平均逗留时延模型Tc采用公式表示为:Tc=Ts,c+Tq,c,其中,Ts,c表示请求在云的平均服务时延,Tq,c表示云的平均排队时延;
平均延迟优化模块,用于根据路由策略进行路由决策,将对相同内容的请求视为相同请求,基于缓存策略对所述网络内容总时延模型中的平均延迟进行求解,并基于求解结果优化缓存和路由决策,从而降低网络内容传输的平均延迟。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述低时延的网络内容传输方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述低时延的网络内容传输方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111025877.2A CN113766540B (zh) | 2021-09-02 | 2021-09-02 | 低时延的网络内容传输方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111025877.2A CN113766540B (zh) | 2021-09-02 | 2021-09-02 | 低时延的网络内容传输方法、装置、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113766540A CN113766540A (zh) | 2021-12-07 |
CN113766540B true CN113766540B (zh) | 2024-04-16 |
Family
ID=78792587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111025877.2A Active CN113766540B (zh) | 2021-09-02 | 2021-09-02 | 低时延的网络内容传输方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113766540B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115134382A (zh) * | 2022-06-06 | 2022-09-30 | 北京航空航天大学 | 一种基于云边协同的空港运力柔性调度方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107276788A (zh) * | 2017-05-21 | 2017-10-20 | 北京工业大学 | 一种基于休眠控制的带缓存基站通信模型构建方法 |
CN107659946A (zh) * | 2017-09-19 | 2018-02-02 | 北京工业大学 | 一种基于边缘缓存的移动通信网络模型构建方法 |
CN111815367A (zh) * | 2020-07-22 | 2020-10-23 | 北京工业大学 | 基于边缘缓存的网络利润最优化分配机制构建方法 |
CN111885648A (zh) * | 2020-07-22 | 2020-11-03 | 北京工业大学 | 基于边缘缓存的能量有效的网络内容分发机制构建方法 |
CN112020103A (zh) * | 2020-08-06 | 2020-12-01 | 暨南大学 | 一种移动边缘云中的内容缓存部署方法 |
-
2021
- 2021-09-02 CN CN202111025877.2A patent/CN113766540B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107276788A (zh) * | 2017-05-21 | 2017-10-20 | 北京工业大学 | 一种基于休眠控制的带缓存基站通信模型构建方法 |
CN107659946A (zh) * | 2017-09-19 | 2018-02-02 | 北京工业大学 | 一种基于边缘缓存的移动通信网络模型构建方法 |
CN111815367A (zh) * | 2020-07-22 | 2020-10-23 | 北京工业大学 | 基于边缘缓存的网络利润最优化分配机制构建方法 |
CN111885648A (zh) * | 2020-07-22 | 2020-11-03 | 北京工业大学 | 基于边缘缓存的能量有效的网络内容分发机制构建方法 |
CN112020103A (zh) * | 2020-08-06 | 2020-12-01 | 暨南大学 | 一种移动边缘云中的内容缓存部署方法 |
Non-Patent Citations (1)
Title |
---|
内容中心网络中基于AHP和GRA的路由策略;马蕾 等;西南大学学报(自然科学版);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113766540A (zh) | 2021-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhong et al. | A deep reinforcement learning-based framework for content caching | |
EP3605329B1 (en) | Connected cache empowered edge cloud computing offloading | |
CN114338504B (zh) | 一种基于网络边缘系统的微服务部署和路由方法 | |
CN112995950B (zh) | 一种车联网中基于深度强化学习的资源联合分配方法 | |
CN111930436A (zh) | 一种基于边缘计算的随机型任务排队卸载优化方法 | |
CN108366089B (zh) | 一种基于内容流行度和节点重要度的ccn缓存方法 | |
Zheng et al. | 5G network-oriented hierarchical distributed cloud computing system resource optimization scheduling and allocation | |
CN114328291A (zh) | 一种工业互联网边缘服务缓存决策方法及系统 | |
CN114863683B (zh) | 基于多目标优化的异构车联网边缘计算卸载调度方法 | |
CN116963182A (zh) | 时延最优任务卸载方法、装置、电子设备和存储介质 | |
CN116233926A (zh) | 一种基于移动边缘计算的任务卸载及服务缓存联合优化方法 | |
CN113810931A (zh) | 一种面向移动边缘计算网络的自适应视频缓存方法 | |
CN113766540B (zh) | 低时延的网络内容传输方法、装置、电子设备及介质 | |
CN113411826A (zh) | 一种基于注意力机制强化学习的边缘网络设备缓存方法 | |
Li et al. | DQN-enabled content caching and quantum ant colony-based computation offloading in MEC | |
CN116916390A (zh) | 一种结合资源分配的边缘协作缓存优化方法及装置 | |
Jiang et al. | A reinforcement learning-based computing offloading and resource allocation scheme in F-RAN | |
CN109951317B (zh) | 一种基于用户驱动的流行度感知模型的缓存替换方法 | |
CN116321307A (zh) | 一种无蜂窝网络中基于深度强化学习的双向缓存放置方法 | |
Hsu et al. | Cooperative convolutional neural network deployment over mobile networks | |
Shi et al. | Content caching policy for 5g network based on asynchronous advantage actor-critic method | |
CN113709853B (zh) | 面向云边协同的网络内容传输方法、装置及存储介质 | |
CN110324175B (zh) | 基于边缘缓存的网络节能方法及系统 | |
Zhu et al. | Computing offloading decision based on multi-objective immune algorithm in mobile edge computing scenario | |
CN113596138B (zh) | 一种基于深度强化学习的异构信息中心网络缓存分配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |