CN112887314B - 一种时延感知的云雾协作视频分发方法 - Google Patents
一种时延感知的云雾协作视频分发方法 Download PDFInfo
- Publication number
- CN112887314B CN112887314B CN202110122236.2A CN202110122236A CN112887314B CN 112887314 B CN112887314 B CN 112887314B CN 202110122236 A CN202110122236 A CN 202110122236A CN 112887314 B CN112887314 B CN 112887314B
- Authority
- CN
- China
- Prior art keywords
- video
- user
- node
- fog node
- fog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 239000003595 mist Substances 0.000 title claims abstract description 12
- 230000008447 perception Effects 0.000 title claims abstract description 6
- 230000005540 biological transmission Effects 0.000 claims abstract description 54
- 238000013468 resource allocation Methods 0.000 claims abstract description 13
- 230000002787 reinforcement Effects 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 40
- 239000013307 optical fiber Substances 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000003139 buffering effect Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 239000003795 chemical substances by application Substances 0.000 claims description 3
- 238000005315 distribution function Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 claims description 2
- 238000001228 spectrum Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 3
- 238000004891 communication Methods 0.000 abstract description 2
- 230000007774 longterm Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 235000008694 Humulus lupulus Nutrition 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/75—Media network packet handling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/70—Media network packetisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/80—Responding to QoS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/06—Testing, supervising or monitoring using simulated traffic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/0231—Traffic management, e.g. flow control or congestion control based on communication conditions
- H04W28/0236—Traffic management, e.g. flow control or congestion control based on communication conditions radio quality, e.g. interference, losses or delay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明涉及一种时延感知的云雾协作视频分发方法,属于通信技术领域,特别是在无线网络下的视频传输技术领域。该方法针对视频在雾无线接入网络传输中严格的时延要求和有限网络资源的矛盾关系,首先,通过建立时延感知的视频请求调度模型,采用云雾协作的方式为视频内容提供缓存、转码和传输;进而,在考虑用户播放缓冲区长度的前提下,利用Actor‑Critic深度强化学习算法解决视频请求调度和资源分配决策引起的级联效应,从而最大化用户的长期奖励,减少视频播放延迟。该方法有效减少了用户观看视频时的时延,提高了缓存命中率,具有广阔的运用前景。
Description
技术领域
本发明属于通信技术领域,涉及一种时延感知的云雾协作视频分发方法。
背景技术
随着多媒体智能终端的发展,视频将会是未来的主要业务。据思科预测,到2022年移动视频流量将占全网流量的82%。由于不同的移动设备、网络状况和用户偏好,视频需要转码为不同的格式,这是一项计算密集型的任务。云无线接入网中(Cloud Radio AccessNetwork,C-RAN)中强大的集中式云缓存和计算能力能够为用户提供可靠稳定的转码服务。然而,由于集中式云计算服务中心距离用户较远,在云中进行转码无法及时响应网络的动态变化。雾无线接入网(Fog Radio Access Network,F-RAN)作为集中云计算重要且有效的补充,已经被广泛应用于本地实时数据的处理。
F-RAN通过缓存设备可以在线/离线缓存流行度高的视频,能够减少前传和回传的数据流量。同时,为了自适应动态的网络环境,利用F-RAN的计算能力能够将高比特率的视频转码为低比特的视频向用户提供服务。然而,相比于日益增加的视频流量,F-RAN中雾节点有限的存储和计算能力给用户提供平滑的视频体验质量产生了巨大的挑战。因此,鉴于F-RAN中集中式云计算和雾计算的潜在优势和互补特点,设计合理高效的视频分发策略至关重要。
发明内容
有鉴于此,本发明的目的在于提供一种时延感知的云雾协作视频分发方法。
为达到上述目的,本发明提供如下技术方案:
一种时延感知的云雾协作视频分发方法,包括以下步骤:
采集用户、云节点和雾节点的状态信息:用户向雾节点发送视频请求,所述视频请求包括用户请求的视频、视频比特率版本以及用户播放缓冲区的大小,雾节点将所述视频请求以及自身的缓存和计算资源发送到集中控制器;
构建视频请求调度模型:集中控制器根据用户请求视频的信息,判断云节点和雾节点是否缓存了该视频或者更高的视频比特率,进而根据资源分配策略,建立视频请求调度模型;
分析用户观看视频时的时延:集中控制器通过分配的无线资源和计算资源计算不同视频请求调度下的时延,分析用户获取视频的具体路径,以最小化用户观看视频的时延为优化目标,构建目标函数;
确定视频请求调度策略、视频缓存决策,计算和无线资源分配:在保证用户时延的约束条件下,集中控制器利用Actor-Critic深度强化学习算法对目标函数进行优化,得到用户的视频请求调度策略、视频缓存决策、计算和无线资源分配方案。
进一步,所述用户状态信息包括:用户的视频请求表示用户请求第v个视频,比特率版本为的视频片段,其中,v∈V表示系统中共有V个视频,表示视频比特率版本的集合,l代表用户i当前时刻的播放缓冲队列长度表示为:
li(t)=max[li(t-1)-ui(t-1),0]+L
其中,li(t-1),ui(t-1)表示时刻(t-1)用户i的播放缓冲区长度和视频播放速度,L表示每个视频片段的固定长度。
进一步,所述雾节点的状态信息包括:分配给雾节点n子的子信道数目分配的子信道数目不超过系统子信道的总数即雾计算服务器n的缓存容量为Mn,每个雾节点n缓存的视频总量不能超过其存储空间大小Mn,即缓存决策变量用来表示雾节点n是否缓存了视频当视频由雾节点n缓存时,否则雾节点n的可用计算资源F(n,t)在时隙t时服从独立分布的随机过程,F(n,t)在服从均值为的分布,单位是CPU周期/秒。
进一步,所述云节点的状态信息包括:云节点的缓存容量M0,云节点中缓存的视频总量不超过其存储空间大小M0;云节点中的计算资源与雾节点的计算资源模型一样,但云节点中的计算资源远大于雾节点中的计算资源即F(0,t)>>F(n,t)。
进一步,所述视频请求调度模型具体为:
视频请求到达雾节点时,会出现以上情况中的一种,为了确保每一个请求都能被服务,要满足请求调度约束,即
进一步,所述用户观看视频时的时延具体为:
首先,采用频分正交多址技术将频谱分配给雾节点的每个用户,用户i和雾节点n之间的信噪比计算为
然后计算用户请求视频的传输时间:
其中,a表示从相邻节点传输到目标雾节点的跳数,所需要的传输时间为aτ,τ表示雾节点之间传输的时间,与距离成正比;
其中c1代表前传链路的传播时延,跟基站到BBU池的距离有关;
进一步,所述视频请求调度策略、视频缓存决策,计算和无线资源分配,包括以下步骤:
首先将最小化时延问题转化为强化学习模型:
状态空间:假设在时隙t处,表示前节点视频缓存的情况,当n=0时表示云节点中视频缓存的状态,n={1,2,...,i}时表示雾节点中视频的缓存状态,Pn表示节点中可用的计算资源数量,Bn,n≠0表示雾节点中可用的子信道数目,在时刻t时系统的状态空间S表示为:
奖励:在时隙t时,在一个确定的状态s(s∈S)下采取动作a(a∈A),环境立即给代理一个奖励值R,状态由st→st+1,将立即奖励设置为优化目标的相反数即表示为最小化播放延迟,奖励函数设置为:
定义期望回报为:
其中γ是折扣因子,γ∈[0,1],实际的价值函数是通过立即奖励和未来奖励组成的状态-动作值函数,在状态s下价值函数用贝尔曼方程表示为Qπ(s,a)=E(R(s,a)+γQ(st+1,at+1));
进而,分别使用两个神经网络DNNs逼近Actor和Critic的策略函数和价值函数,DNNs通过两组权重为θ和w被参数化,其中策略和值函数表示为πθ(s,a)和Qw(s,a),两层都使用ReLU作为非线性激活函数,通过最小化损失函数,训练神经网络学习最合适的权重θ,w;
Critic的损失函数定义为:
其中,w是价值网络的参数,利用随机梯度下降方法更新状态-值函数的参数:
Δw=αcδt▽ωQw(st,at),其中,αc是学习效率,δt是TD-error,通过数学公式表示为:
δ(t)=R(s(t),a(t))+γQω(st+1,at+1)-Qω(st,at)
Actor的目标函数定义为:
其中,dπ(s)表示状态分布函数,通过不断地更新策略参数Δθ=αaδ(t)▽θlnπθ(s,a),
以最大化目标函数,其中,αa是参与者学习率;
最后通过不断地迭代,输出Actor网络参数θ,Critic网络参数w,集中控制器根据πθ(s,a)选择相应的视频缓存、请求调度、无线和计算资源分配决策。
本发明的有益效果在于:本发明针对视频在雾无线接入网络传输中严格的时延要求和有限网络资源的矛盾关系,提出了一种时延感知的云雾协作视频缓存、转码和无线资源分配策略。该策略通过建立时延感知的视频请求调度模型,采用云雾协作的方式为视频内容提供缓存、转码和传输;进而,在考虑用户播放缓冲区长度的前提下,利用Actor-Critic深度强化学习算法解决视频请求调度和资源分配决策引起的级联效应,从而最大化用户的长期奖励,减少视频播放延迟。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明的系统架构图;
图2为本发明中视频请求调度模型图;图2(a)为本地雾节点直接命中;图2(b)为本地雾节点软命中图;图2(c)为邻居雾节点直接命中图;图2(d)为邻居雾节点软命中,邻居节点转码图;图2(e)为邻居雾节点软命中,本地节点转码图;图2(f)为云节点直接命中;图2(g)为云节点软命中,云节点转码图;
图3为本发明的算法流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
云雾协作缓存与转码架构如图1所示,一种时延感知的云雾协作视频分发方法如图3所示,优选的具体包含以下步骤:
步骤1、数据采集:用户向雾节点发送视频请求,雾节点将收到的信息发送到BBU池中的集中控制器:
其中:
1)所述用户状态信息包括:用户的视频请求表示用户请求第v个视频,比特率版本为的视频片段。其中,v∈V表示系统中共有V个视频,表示视频比特率版本的集合。l代表用户i当前时刻的播放缓冲队列长度表示为:li(t)=max[li(t-1)-ui(t-1),0]+L。其中,li(t-1),ui(t-1)表示时刻(t-1)用户i的播放缓冲区长度和视频播放速度,L表示每个视频片段的固定长度。
2)雾节点的状态信息包括:分配给雾节点n子的子信道数目分配的子信道数目不超过系统子信道的总数即雾计算服务器n的缓存容量为Mn,每个雾节点n缓存的视频总量不能超过其存储空间大小Mn,即缓存决策变量用来表示雾节点n是否缓存了视频当视频由雾节点n缓存时,否则雾节点n的可用计算资源F(n,t)在时隙t时服从独立分布的随机过程。F(n,t)在服从均值为的分布,单位是CPU周期/秒。
3)所述云节点的状态信息包括:云节点的缓存容量M0,云节点中缓存的视频总量不能超过其存储空间大小M0。云节点中的计算资源同雾节点的计算资源模型一样,但云节点中的计算资源远大于雾节点中的计算资源即F(0,t)>>F(n,t)。
步骤2、视频请求调度模型具体为:集中控制器根据用户、云节点和雾节点的请求信息,建立视频请求调度的传输模式。
其中:
视频请求到达雾节点时,会出现以上情况中的一种,为了确保每一个请求都能被服务,要满足请求调度约束,即
步骤3、用户观看视频时的时延分析:集中控制器根据收集的信息,计算不同传输模式下的时延。
其中:
1)计算用户的下载速率:
根据公式(1)计算在t时刻用户i和雾节点n之间的信噪比:
则用户i的下载速率表示为:
2)计算不同传输模式下用户请求视频的传输时间:
其中,a表示从相邻节点传输到目标雾节点的跳数,所需要的传输时间为aτ,τ表示雾节点之间传输的时间,与距离成正比。
其中,c1代表前传链路的传播时延,跟基站到BBU池的距离有关。
为了保证视频观看的流畅程度,Tni的时间消耗必须满足Tni≤li,否则用户i在观看视频时会出现Dni=Tni-li的时间延迟。因此,本文的目标在于减少用户观看视频过程中的时间延迟,表示为:
Tni≤li (21)
其中,表示缓存放置策略,表示视频的请求调度策略,P表示为用户分配的计算资源,B表示系统中子信道的数量。公式(12),(13)表示雾节点的无线资源和缓存资源约束。公式(14)-(18)表示视频请求调度的缓存约束和转码依赖约束。公式(19)表示节点n的计算资源约束,(20)表示选择其中一种调度方式为用户服务。公式(21)是为了保证视频的流畅和无缝衔接。
4、确定视频请求调度策略、视频缓存决策,计算和无线资源分配:在保证用户时延的约束条件下,集中控制器利用Actor-Critic深度强化学习算法对目标函数进行优化,得到用户的视频请求调度策略、视频缓存决策、计算和无线资源分配方案。具体包括以下步骤:
1)将最小化时延问题转化为强化学习模型:
状态空间:假设在时隙t处,表示前节点视频缓存的情况,当n=0时表示云节点中视频缓存的状态,n={1,2,...,i}时表示雾节点中视频的缓存状态,同样的Pn表示节点中可用的计算资源数量,Bn,n≠0表示雾节点中可用的子信道数目。在时刻t时系统的状态空间S表示为:
奖励:在时隙t时,在一个确定的状态s(s∈S)下采取动作a(a∈A),环境会立即给代理一个奖励值R,状态由st→st+1。将立即奖励设置为优化目标的相反数即表示为最小化播放延迟,奖励函数设置为:
Qπ(s,a)=E(R(s,a)+γQ(st+1,at+1)) (25)
3)Critic的损失函数定义为:
其中,w是价值网络的参数。为了最小化损失函数,状态-值函数的参数可以使用随机梯度下降方法更新:Δw=αcδt▽ωQw(st,at)。其中,αc是学习效率,δt是TD-error,通过数学公式表示为:δ(t)=R(s(t),a(t))+γQω(st+1,at+1)-Qω(st,at)。
4)Actor的目标函数定义为:
其中,dπ(s)表示状态分布函数。为了最大化目标函数,可以将策略参数更新为:
Δθ=αaδ(t)▽θlnπθ(s,a) (28)
其中,αa是参与者学习率。
5)做出决策:通过不断地更新参数,迭代结束后,输出Actor网络参数θ,Critic网络参数w。根据πθ(s,a)选择相应的视频缓存、请求调度、无线和计算资源分配决策。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (4)
1.一种时延感知的云雾协作视频分发方法,其特征在于:包括以下步骤:
采集用户、云节点和雾节点的状态信息:用户向雾节点发送视频请求,所述视频请求包括用户请求的视频、视频比特率版本以及用户播放缓冲区的大小,雾节点将所述视频请求以及自身的缓存和计算资源发送到集中控制器;
构建视频请求调度模型:集中控制器根据用户请求视频的信息,判断云节点和雾节点是否缓存了该视频或者更高的视频比特率,进而根据资源分配策略,建立视频请求调度模型;所述视频请求调度模型具体为:
视频请求到达雾节点时,会出现以上情况中的一种,为了确保每一个请求都能被服务,要满足请求调度约束,即
分析用户观看视频时的时延:集中控制器通过分配的无线资源和计算资源计算不同视频请求调度下的时延,分析用户获取视频的具体路径,以最小化用户观看视频的时延为优化目标,构建目标函数;
所述用户观看视频时的时延具体为:
首先,采用频分正交多址技术将频谱分配给雾节点的每个用户,用户i和雾节点n之间的信噪比计算为
然后计算用户请求视频的传输时间:
其中,a表示从相邻节点传输到目标雾节点的跳数,所需要的传输时间为aτ,τ表示雾节点之间传输的时间,与距离成正比;
其中c1代表前传链路的传播时延,跟基站到BBU池的距离有关;
确定视频请求调度策略、视频缓存决策,计算和无线资源分配:在保证用户时延的约束条件下,集中控制器利用Actor-Critic深度强化学习算法对目标函数进行优化,得到用户的视频请求调度策略、视频缓存决策、计算和无线资源分配方案;所述视频请求调度策略、视频缓存决策,计算和无线资源分配,包括以下步骤:
首先将最小化时延问题转化为强化学习模型:
状态空间:假设在时隙t处,表示前节点视频缓存的情况,当n=0时表示云节点中视频缓存的状态,n={1,2,...,i}时表示雾节点中视频的缓存状态,Pn表示节点中可用的计算资源数量,Bn,n≠0表示雾节点中可用的子信道数目,在时刻t时系统的状态空间S表示为:
奖励:在时隙t时,在一个确定的状态s(s∈S)下采取动作a(a∈A),环境立即给代理一个奖励值R,状态由st→st+1,将立即奖励设置为优化目标的相反数即表示为最小化播放延迟,奖励函数设置为:
定义期望回报为:
其中γ是折扣因子,γ∈[0,1],实际的价值函数是通过立即奖励和未来奖励组成的状态-动作值函数,在状态s下价值函数用贝尔曼方程表示为Qπ(s,a)=E(R(s,a)+γQ(st+1,at+1));
进而,分别使用两个神经网络DNNs逼近Actor和Critic的策略函数和价值函数,DNNs通过两组权重为θ和w被参数化,其中策略和值函数表示为πθ(s,a)和Qw(s,a),两层都使用ReLU作为非线性激活函数,通过最小化损失函数,训练神经网络学习最合适的权重θ,w;
Critic的损失函数定义为:
δ(t)=R(s(t),a(t))+γQω(st+1,at+1)-Qω(st,at)
Actor的目标函数定义为:
最后通过不断地迭代,输出Actor网络参数θ,Critic网络参数w,集中控制器根据πθ(s,a)选择相应的视频缓存、请求调度、无线和计算资源分配决策。
4.根据权利要求1所述的时延感知的云雾协作视频分发方法,其特征在于:所述云节点的状态信息包括:云节点的缓存容量M0,云节点中缓存的视频总量不超过其存储空间大小M0;云节点中的计算资源与雾节点的计算资源模型一样,但云节点中的计算资源远大于雾节点中的计算资源即F(0,t)>>F(n,t)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110122236.2A CN112887314B (zh) | 2021-01-27 | 2021-01-27 | 一种时延感知的云雾协作视频分发方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110122236.2A CN112887314B (zh) | 2021-01-27 | 2021-01-27 | 一种时延感知的云雾协作视频分发方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112887314A CN112887314A (zh) | 2021-06-01 |
CN112887314B true CN112887314B (zh) | 2022-06-03 |
Family
ID=76053338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110122236.2A Active CN112887314B (zh) | 2021-01-27 | 2021-01-27 | 一种时延感知的云雾协作视频分发方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112887314B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114339311B (zh) * | 2021-12-09 | 2022-10-11 | 北京邮电大学 | 一种视频云转码及分发联合决策方法及系统 |
CN116132439B (zh) * | 2022-12-27 | 2024-05-14 | 华中科技大学 | 基于雾节点协作的异质资源协同调度方法、系统和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111432270A (zh) * | 2020-03-09 | 2020-07-17 | 重庆邮电大学 | 一种基于分层缓存的实时业务时延优化方法 |
CN111935783A (zh) * | 2020-07-09 | 2020-11-13 | 华中科技大学 | 一种基于流量感知的边缘缓存系统和方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170272365A1 (en) * | 2016-03-15 | 2017-09-21 | Hon Hai Precision Industry Co., Ltd | Method and appratus for controlling network traffic |
US11082305B2 (en) * | 2018-06-29 | 2021-08-03 | Assia Spe, Llc | Systems and methods for chaining control-plane virtual functions for ensuring end-to-end quality of service (QoS) of internet services |
CN109951849B (zh) * | 2019-02-25 | 2023-02-17 | 重庆邮电大学 | 一种在f-ran架构中联合资源分配和内容缓存的方法 |
CN110049315B (zh) * | 2019-04-26 | 2020-04-24 | 山西大学 | 一种提高直播视频系统用户体验质量的方法 |
CN112073542B (zh) * | 2020-11-12 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 雾节点调度方法、装置、计算机设备和存储介质 |
-
2021
- 2021-01-27 CN CN202110122236.2A patent/CN112887314B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111432270A (zh) * | 2020-03-09 | 2020-07-17 | 重庆邮电大学 | 一种基于分层缓存的实时业务时延优化方法 |
CN111935783A (zh) * | 2020-07-09 | 2020-11-13 | 华中科技大学 | 一种基于流量感知的边缘缓存系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112887314A (zh) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111132077B (zh) | 车联网环境下基于d2d的多接入边缘计算任务卸载方法 | |
CN111414252B (zh) | 一种基于深度强化学习的任务卸载方法 | |
Du et al. | MEC-assisted immersive VR video streaming over terahertz wireless networks: A deep reinforcement learning approach | |
Luo et al. | Adaptive video streaming with edge caching and video transcoding over software-defined mobile networks: A deep reinforcement learning approach | |
CN110312231B (zh) | 车联网中基于mec的内容缓存决策和资源分配优化方法 | |
CN111935784B (zh) | 一种雾计算网络中基于联邦学习的内容缓存方法 | |
CN113163451B (zh) | 一种基于深度强化学习的d2d通信网络切片分配方法 | |
Zhong et al. | Deep multi-agent reinforcement learning based cooperative edge caching in wireless networks | |
CN110087318A (zh) | 基于5g移动边缘计算的任务卸载和资源分配联合优化方法 | |
CN112887314B (zh) | 一种时延感知的云雾协作视频分发方法 | |
CN112954385A (zh) | 一种基于控制论和数据驱动的自适应分流决策方法 | |
CN114640870A (zh) | 一种QoE驱动的无线VR视频自适应传输优化方法及系统 | |
Baccour et al. | CE-D2D: Collaborative and popularity-aware proactive chunks caching in edge networks | |
Al-Hilo et al. | Vehicle-assisted RSU caching using deep reinforcement learning | |
CN116916390A (zh) | 一种结合资源分配的边缘协作缓存优化方法及装置 | |
CN115720237A (zh) | 边缘网络自适应比特率视频的缓存和资源调度方法 | |
Zhao et al. | Towards coverage-aware cooperative video caching in leo satellite networks | |
CN111447506B (zh) | 云边环境下基于延迟和成本均衡的流媒体内容放置方法 | |
Huang et al. | Joint data caching and computation offloading in UAV-assisted Internet of Vehicles via federated deep reinforcement learning | |
Li et al. | Video caching and scheduling with edge cooperation | |
Lyu et al. | Service-driven resource management in vehicular networks based on deep reinforcement learning | |
CN112423027B (zh) | 一种基于差分隐私的移动流媒体边缘协作分发装置及方法 | |
Cheng et al. | Dynamic task offloading and service caching based on game theory in vehicular edge computing networks | |
Hu et al. | Power allocation for video segment based caching strategy in F-RAN architecture | |
Lyu et al. | Learning-based demand-aware communication computing and caching in vehicular networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |