CN112995636B - 基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法 - Google Patents

基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法 Download PDF

Info

Publication number
CN112995636B
CN112995636B CN202110256652.1A CN202110256652A CN112995636B CN 112995636 B CN112995636 B CN 112995636B CN 202110256652 A CN202110256652 A CN 202110256652A CN 112995636 B CN112995636 B CN 112995636B
Authority
CN
China
Prior art keywords
client
mec server
video
user
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110256652.1A
Other languages
English (en)
Other versions
CN112995636A (zh
Inventor
翁其艳
程琦
单杭冠
虞露
张朝阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110256652.1A priority Critical patent/CN112995636B/zh
Publication of CN112995636A publication Critical patent/CN112995636A/zh
Application granted granted Critical
Publication of CN112995636B publication Critical patent/CN112995636B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/70Media network packetisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/80Responding to QoS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种基于边缘计算和主动缓存的360度虚拟现实视频传输系统,其联合考虑了视频编码、主动缓存、计算卸载和数据传输和视野预测。本发明系统包括云服务器、MEC服务器、客户端、云服务器到MEC服务器的多跳有线网络、MEC服务器到客户端的单跳无线网络、云服务器到客户端的多跳有线和单跳无线网络。为了解决虚拟现实视频业务中严格的从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延问题,本发明利用虚拟现实用户的视野预测来缓存视频数据,并将部分解码渲染任务卸载到MEC服务器上;此外,本发明还公开了系统的参数优化方法,以最大限度地提高用户的体验质量。

Description

基于边缘计算和主动缓存的360度虚拟现实视频传输系统及 参数优化方法
技术领域
本发明属于移动通信技术领域,具体涉及一种基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法。
背景技术
移动虚拟现实有望成为未来5G的杀手级应用之一,它是指通过多跳网络将移动虚拟现实视频和声音文件从云服务器传输到用户终端设备,从而实现云服务器或边缘服务器的存储和渲染的虚拟现实业务;借助云计算技术和稳定的千兆光纤网络,该应用已被证明是切实可行的。360度视频,也就是所谓的三自由度球形视频,可以为用户提供沉浸式体验;由于360度移动虚拟现实视频结合了5G中增强型移动宽带业务的高容量和超可靠低时延通信业务的严格时延和可靠性的多重要求,因此到目前为止要支持这一应用还存在许多技术难点。
目前,该领域的部分研究集中在传统的方法上,包括提高传输速率或降低带宽要求。现有文献和专利中提高传输速率的方法主要集中在三个方面:多连接技术、有效的资源分配、毫米波无线通信。例如公开号为CN109068151B的中国专利中提出了一种边缘计算和毫米波蜂窝网协同的虚拟现实视频传输方法,但是该方法并没有利用边缘计算(Mobileedge computing,MEC)服务器的计算处理功能。另外,还有文献考虑联合利用缓存、计算、通信的资源,如文献[Y.Sun,Communications,caching,and computing for mobile virtualreality:Modeling and tradeoff,IEEE Transactions on Communications,vol.67,no.11,pp.7573-7586,Nov.2019]中提到的缓存和计算联合优化方法,但是该方法没有考虑到用户视野(Field of View,FoV)信息未知的情况给视频传输方法带来的影响。为了更好地将虚拟现实视频数据缓存在网络的边缘,需要根据用户的行为和历史的视野区域的信息进行视野预测,例如公开号为CN108833880B的中国专利提出的利用跨用户行为模式进行视点预测并实现虚拟现实视频最优化传输的方法和装置,但是该专利技术未能合理利用边缘计算服务器充足的计算资源来减小端到端延时。
鉴于实现移动虚拟现实应用的困难,结合计算、通信和存储被认为是支持这些应用的关键。虽然上述提到的文献或专利有针对360度移动虚拟现实视频传输中的问题提出一些结合蜂窝网通信、边缘缓存、通信和计算资源联合优化的方案,但没有一个全面的系统设计能够在利用上述所有技术的同时,考虑核心网和边缘网的视频编码、数据存储和数据传输。此外,为了合理地设计系统工作流程并有效地调整系统的参数配置,以便最大限度地保障用户的服务质量和提升用户的体验质量,我们需要一种综合使用视频编码、主动缓存、计算卸载、数据传输和视野预测等技术的系统配置方法。
发明内容
鉴于上述,本发明提供了一种基于边缘计算和主动缓存的360度虚拟现实视频传输系统,联合考虑了视频编码、主动缓存、计算卸载、数据传输和视野预测。为了解决严格的从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延问题,本发明利用用户的视野预测来缓存视频数据并将部分解码渲染任务卸载到MEC服务器上。同时,本发明还给出调整系统参数的方法,以最大限度地提高用户的体验质量。
一种基于边缘计算和主动缓存的360度虚拟现实视频传输系统,包括:云服务器、MEC服务器以及客户端;其中:
所述云服务器存储有360度虚拟现实视频并通过神经网络生成对应的显著图,在对视频进行编码时采用等距柱状投影的方式将其划分为N×M个tile,并将每个tile多个视频帧的数据压缩为一组图片序列,N和M均为自定义的自然数;同时根据MEC服务器反馈的视野预测结果向MEC服务器传输相应的视频数据包或直接将视频数据包发送给客户端;
所述MEC服务器对云服务器下发的视频数据包进行缓存并发送给客户端,同时也会对缓存中的部分视频数据包进行解码渲染并将视频数据发送给客户端,此外MEC服务器会根据来自云服务器的显著图以及客户端提供的运动传感数据预测用户的视野概率分布即视野预测结果;
所述客户端用于收集用户的运动传感数据并上传给MEC服务器,同时对MEC服务器或云服务器提供的视频数据包进行解码以及渲染,完成2维视频向360度球面视频的转换并进行播放;
系统采用周期性的工作方式,每个周期由缓存阶段和计算与传输阶段组成,视频数据在时域上进行划分,分为多个视频块,每个视频块的时长为D1,并且规定在第l个工作周期内用户所观看的视频块索引为l-1,l为大于1的自然数;在缓存阶段,云服务器根据MEC服务器反馈的视野预测结果向MEC服务器传输相应的视频数据包,缓存阶段时长为Dc且满足Dc≤D1;在计算与传输阶段开始时刻,客户端向MEC服务器发出包含有运动传感数据的视野请求,MEC服务器根据网络及本地计算资源状况对相应的部分视频数据包进行解码和渲染处理后将视频数据传输给客户端,客户端接收到来自MEC服务器或云服务器的数据后,将其中未解码渲染的视频数据包进行解码渲染处理并进行播放。
进一步地,对于缓存阶段,在第l个工作周期开始时,MEC服务器根据第l个视频块的显著图以及第l-1个工作周期内用户的运动传感数据预测用户在第l+1个工作周期开始时的视野概率分布
Figure BDA0002967647270000031
其中
Figure BDA0002967647270000032
表示在第l+1个工作周期开始时用户视点落入坐标为
Figure BDA0002967647270000033
的tile中的概率,
Figure BDA0002967647270000034
Figure BDA0002967647270000035
N={1,2,…,N},M={1,2,…,M};MEC服务器在缓存阶段根据各tile预测的请求概率矩阵PR(n,m)=[PR(n,m)]N×M中对应元素按从大到小的顺序缓存第l个视频块的数据,其中PR(n,m)表示在第l+1个工作周期开始时坐标为(n,m)的tile至少有一部分落在用户视野区域内的概率,n∈N,m∈M。
进一步地,缓存阶段结束后即为计算与传输阶段,在这个阶段的开始时刻,客户端会给MEC服务器发送用户的视野请求,该视野请求中包含有位于用户视野中心的tile的横纵坐标;所述计算与传输阶段包括了MEC服务器计算阶段、从MEC服务器到客户端传输阶段、从云服务器到客户端传输阶段、客户端计算阶段,为了利用MEC服务器的计算能力来减小客户端计算阶段的时延,可由MEC服务器完成部分视频数据包的解码渲染任务并将视频数据传输给客户端,而云服务器也会把MEC服务器没有缓存且用户需要的视频数据包直接发送给客户端,最后由客户端完成解码渲染任务并进行播放。
进一步地,在MEC服务器计算阶段,当收到客户端新的视野请求,MEC服务器会检查其缓存中是否有用户所需的视频数据包;为了平衡通信时延和计算时延,MEC服务器从缓存中用户所需的视频数据包中取比例为c的部分数据包进行解码渲染后将视频数据传输给客户端,其中c∈[0,1];在从MEC服务器到客户端传输阶段,对于客户端向MEC服务器请求的数据,包括MEC服务器解码渲染过后得到的视频帧和未解码渲染的视频数据包,都将由MEC服务器传送给客户端;在从云服务器到客户端传输阶段,对于MEC服务器没有缓存且用户需要的视频数据包,直接由云服务器传送给客户端;在客户端计算阶段,客户端对MEC服务器或云服务器提供的视频数据包进行解码渲染,此时第l个工作周期的通信和解码渲染任务已经完成,客户端在第l+1个工作周期的开始时刻播放第l个视频块的视频帧。
为了最大限度地保障用户的服务质量和提升用户的体验质量,本发明还提供了上述系统的参数优化方法,其通过优化视频块的时长D1和渲染的比例c以最小化系统的中断概率Pout,即
Figure BDA0002967647270000041
进一步地,所述中断概率Pout的表达式如下:
Figure BDA0002967647270000042
DM,l=D2,l+D3,l+D4,l+D5,l
其中:DM,l为系统在第l个工作周期从客户端发出视野请求到客户端播放第l个视频块的端到端时延,p(DM,l=tl)为关于DM,l的概率密度函数,Dth为给定的时延阈值,tl表示第l个工作周期内的时刻,D2,l为第l个工作周期中MEC服务器计算阶段的时延,D3,l为第l个工作周期中从MEC服务器到客户端传输阶段的时延,D4,l为第l个工作周期中从云服务器到客户端传输阶段的时延,D5,l为第l个工作周期中客户端计算阶段的时延。
进一步地,所述概率密度函数p(DM,l=tl)的表达式如下:
Figure BDA0002967647270000043
其中:Ac,l为缓存矩阵且Ac,l=[ac,l(n,m)]N×M,其中的元素值ac,l(n,m)表示在第l个工作周期缓存阶段结束时刻坐标为(n,m)的tile在MEC服务器中的缓存情况,ac,l(n,m)=1即表示tile被缓存,ac,l(n,m)=0即表示tile未被缓存;Ar,l为请求矩阵且Ar,l=[ar,l(n,m)]N×M,其中的元素值ar,l(n,m)表示在第l个工作周期开始时坐标为(n,m)的tile是否在用户视野区域内,ar,l(n,m)=1即表示tile在用户视野区域内,ar,l(n,m)=0即表示tile不在用户视野区域内;Gl表示在第l个工作周期缓存阶段MEC服务器缓存的tile数量,g表示Gl在其状态空间Gl中的任一取值,每一个已知的缓存矩阵Ac,l均对应一个确定的g,
Figure BDA0002967647270000051
表示Gl的概率分布;PF(nl,ml)表示在第l+1个工作周期开始时用户视点落入坐标为(nl,ml)的tile中的真实概率大小,N={1,2,…,N},M={1,2,…,M};
Figure BDA0002967647270000052
表示在已知缓存矩阵Ac,l和请求矩阵Ar,l的情况下DM,l的条件概率密度函数。
进一步的,所述条件概率密度函数
Figure BDA0002967647270000053
的表达式如下:
Figure BDA0002967647270000054
Figure BDA0002967647270000055
Figure BDA0002967647270000056
Figure BDA0002967647270000057
Γ3,l=Γ1,l(c·h+1-c)
Γ4,l=D1fB(El-Ql)
Figure BDA0002967647270000058
Figure BDA0002967647270000059
其中:t2表示第l个工作周期从MEC服务器到客户端传输阶段内的时刻,t3表示第l个工作周期从云服务器到客户端传输阶段内的时刻,α2和β2分别为从MEC服务器到客户端传输阶段的漂移系数和扩散系数,b2,l为从MEC服务器到客户端传输阶段的吸收边界,α3和β3分别为从云服务器到客户端传输阶段的漂移系数和扩散系数,b3,l为从云服务器到客户端传输阶段的吸收边界,Γ3,l表示在第l个工作周期内MEC服务器向客户端传输的总数据量,Γ4,l表示在第l个工作周期内云服务器向客户端传输的总数据量,Γ1,l=D1fBQl,Cr为视频编码压缩后与编码压缩前的数据量大小比值,s为每个视频数据包的大小,f表示视频帧率,B表示tile中每帧视频的数据量大小,Ql表示第l个工作周期内缓存在MEC服务器中且被客户端请求的tile数量,El表示第l个工作周期内实际被客户端请求的tile数量,h表示视频渲染后与渲染前的数据量大小比值,R2(t)表示从MEC服务器到客户端之间网络的瞬时传输速率,R3(t)表示从云服务器到客户端之间网络的瞬时传输速率,E()表示均值,Var()表示方差。
基于上述技术方案,本发明具有以下有益技术效果:
1.为了解决严格的从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延问题,本发明联合了考虑视频编码、主动缓存、计算卸载和数据传输,利用用户的视野预测来缓存视频数据,可以减小系统需求的网络带宽,而将解码渲染任务部分卸载到MEC服务器上,可以减小系统的计算时延。
2.本发明可调整系统参数以最大限度地保障用户的服务质量和提升用户的体验质量,如在给定划分后的视频平面在垂直和水平方向的tile的数目N和M的情况下,通过调整最大缓存时长D1和MEC服务器在其图形处理单元上渲染数据比例c以最小化系统的中断概率来实现。
附图说明
图1为本发明系统的结构示意图。
图2为本发明系统的工作流程示意图。
图3为本发明系统的视野预测和视频编码示意图。
图4为采用本发明方法在不同的视频块时长和压缩比下,结合MEC方案和未结合MEC方案从用户发出视野请求到用户重新开始观看新视频块的端到端时延的累积分布函数仿真示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
如图1所示,本发明基于边缘计算和主动缓存的360度移动虚拟现实视频传输系统,包括云服务器、MEC服务器、用户头戴式显示器、云服务器到MEC服务器的多跳有线网络、MEC服务器到用户的单跳无线网络、云服务器到用户的多跳有线和单跳无线网络。
所述的云服务器包括:
视频储存模块,用于360度虚拟现实视频的存储;
Tile编码和压缩模块,用于360度虚拟现实视频的等距柱状投影,将其划分为N×M个tile,并将每个视频tile多个视频帧的数据压缩为一组图片;
Tile选择模块,用于根据MEC服务器反馈的视野预测结果,向MEC服务器传输数据包,进行主动缓存;
显著图网络:用于根据事先存储的视频数据,通过神经网络生成显著图。
MEC服务器包括:
数据包缓存:用于对来自云服务器的数据包进行缓存;
解码器:用于数据包的解码;
图形处理单元:用于渲染图像,即完成2维视频向360度球面视频的转换;
编码器:用于将在MEC服务器中缓存或计算出来的数据包进行编码、压缩,发送给虚拟现实用户;
视野预测模块:用于根据来自云服务器的显著图和用户的传感器数据,来预测用户的视野概率分布。
用户头戴式显示器包括:
数据包缓存:用于对来自MEC服务器和云服务器的数据包进行缓存;
解码器:用于数据包的解码;
图形处理单元:用于渲染图像,即完成2维视频向360度球面视频的转换,并将数据包组合成视频帧;
显示屏:用于360度虚拟现实视频的播放;
传感器:用于收集用户的运动信息,这些信息将被发送到MEC服务器上进行视野预测。
云服务器到MEC服务器的多跳有线网络,用于云服务器到MEC服务器的数据的传输,其在时刻t的瞬时传输速率为R1(t);
MEC服务器到用户的单跳无线网络,用于MEC服务器到用户的数据传输,其在时刻t的瞬时传输速率为R2(t);
云服务器到用户的多跳有线和单跳无线网络,用于云服务器到用户的数据传输,其在时刻t的瞬时传输速率为R3(t)。
随着网络的动态变化,数据包抵达MEC服务器或用户的时间有不同的时延。在不失一般性的前提下,令上述三种网络情况下视频数据包到达时间的间隔变量遵循给定但任意的分布,其均值为1/λi,方差为Vi,其中i∈{1,2,3}分别表示属于云服务器到MEC服务器的多跳有线网络,MEC服务器到用户的单跳无线网络,云服务器到用户的多跳有线和单跳无线网络的传输过程。那么,1/λi和Vi由以下公式给出:
Figure BDA0002967647270000081
Figure BDA0002967647270000082
其中:s表示每个视频数据包的大小,以比特为单位,E()表示随机变量的均值,Var()表示随机变量的方差。
本发明系统的工作流程如图2所示,系统采用周期性的工作方式,每个周期由缓存阶段和计算与传输阶段组成。视频在时域上进行划分,成为视频块,每个视频块的时长为D1,并且规定在第l个工作周期,用户所观看的视频的索引为l-1。在缓存阶段,云服务器根据MEC服务器反馈的视野预测结果,向MEC服务器传输数据包,进行主动缓存,缓存阶段时长为Dc,满足Dc≤D1;在计算与传输阶段开始时刻,用户向MEC发出了视野请求,MEC服务器根据网络和计算资源情况对一部分数据进行解码和渲染处理并将计算结果传输给用户,用户接收到MEC服务器和云服务器的数据后将未渲染的数据进行处理,并提供给用户进行播放观看,具体过程如下:
(1)MEC服务器的缓存阶段:用Z1(t1)表示从本周期的缓存阶段零时刻开始后的时刻t1,MEC服务器中主动缓存的数据包数量。根据扩散过程近似法,用连续过程随机变量X1(t1)代表离散的数据包数Z1(t1),其满足:
Figure BDA0002967647270000091
其中:
Figure BDA0002967647270000097
是一个均值为零、单位方差的标准正态分布随机变量,α1和β1分别是如下定义的漂移系数和扩散系数:
Figure BDA0002967647270000092
Figure BDA0002967647270000093
其中:Δt1表示时间t1的增量。
将X1(t1)在时刻t1的条件概率密度函数p(x1,t1|x0)定义为:
p(x1,t1|x0)=P(x1≤X1(t1)<x1+dx1|X1(0)=x0) (6)
其中:x0为初始队列长度。
当缓存阶段的时长Dc与视频块的时长D1相同,则一个新的视野请求被发送到MEC服务器时,缓存阶段立刻结束,因此MEC服务器缓存数据包的最大时间为D1。X1(t1)在时刻t1的条件概率密度函数可表示为:
Figure BDA0002967647270000094
其中:
Figure BDA0002967647270000095
表示时长Dc的缓存阶段内MEC服务器可以缓存的所有N×M个tile的最大数据包数,称之为吸收边界;f表示视频的帧率,B为每个tile每帧的数据量,单位为比特每帧每tile,Cr为视频压缩后与压缩前的数据量大小的比值。
MEC服务器在此缓存阶段缓存的tile数量Gl的概率质量函数可以表示为:
Figure BDA0002967647270000096
其中:坐标为(n,m)的tile在缓存阶段按矩阵Ao,l的各自对应元素ao,l(n,m)的从小到大的顺序进行传输,并且ao,l(n,m)∈{1,2,…,NM},n∈N,m∈M,N={1,2,…,N},M={1,2,…,M};矩阵Ao,l=[ao,l(n,m)]N×M是在缓存阶段根据各个tile预测的请求概率矩阵PR(n,m)=[PR(n,m)]N×M中对应元素的大小来赋值的,具体获取方式可以参照后面的式(32)。缓存矩阵Ac,l=[ac,l(n,m)]N×M用于表示在缓存阶段结束时刻坐标为(n,m)的tile是否被缓存在MEC服务器中,其中:
Figure BDA0002967647270000101
可以求出Ac,l的概率质量函数为:
Figure BDA0002967647270000102
(2)系统的计算与传输阶段:在这个阶段的开始时刻,用户会给MEC服务器发送真实的视野请求(nl,ml),其中nl∈N和ml∈M代表视野的中心tile的横纵坐标;为了利用MEC服务器的计算能力来减小计算子阶段时延,可以由MEC服务器完成部分数据的解码渲染任务并将数据传输给用户,而云服务器也将会把MEC服务器没有缓存但用户需要的数据发送给用户,最后由用户头戴式显示器完成解码渲染任务以提供用户继续观看。
2.1MEC服务器的计算子阶段:MEC在计算子阶段开始时刻接收实际的视野请求信息(nl,ml),即视野的中心tile的坐标。请求矩阵Ar,l=[ar,l(n,m)]N×M表示每个tile是否在实际视野区域内,其中:
Figure BDA0002967647270000103
其中:Nr和Mr表示实际视野区域中tile的垂直和水平坐标集合,令N={1,2,…,N},M={1,2,…,M}表示视频平面tile的坐标集合。因为用户实际的视野区域可能与视频平面的边界相交,所以有:
Figure BDA0002967647270000104
Figure BDA0002967647270000105
其中:k是用户的视野区域在横纵方向包含的tile的数目,nl∈N,ml∈M。
Figure BDA0002967647270000106
表示第l周期实际请求的视野区域的tile数,在MEC服务器计算子阶段的开始时刻,根据缓存矩阵Ac,l和用户视点信息(nl,ml),缓存在MEC服务器中同时又被用户请求的tile数量可表示为:
Figure BDA0002967647270000111
MEC服务器命中的缓存数据量为:
Γ1,l=D1fBQl (15)
为了减少头戴式显示器的计算负担从而减少计算时延,MEC服务器对比例为c的数据进行解码渲染操作。因此,卸载数据大小Γ2,l表示为:
Γ2,l=Γ1,lc (16)
那么,MEC服务器的传输时延D2,l的条件概率质量函数可表示为:
Figure BDA0002967647270000112
其中:WM表示MEC服务器计算能力,单位为比特每秒。
2.2从MEC服务器到用户的传输子阶段:用户在MEC服务器的缓存中请求的数据将被传送给用户,它由两部分组成:一部分是在MEC服务器中计算处理过的,另一部分还未计算的。Γ3,l表示整体的数据大小,可表示为:
Γ3,l=Γ2,lh+Γ1,l2,l=Γ1,l(c·h+1-c) (18)
其中:h表示计算输出和输入之间的数据大小比。
用Z2(t2)表示从MEC服务器到用户的传输子阶段开始时刻后的时刻t2用户收到的数据包数量。根据扩散过程近似法,用连续的过程X2(t2)表示离散的数据包随机变量Z2(t2),其中初始数据包数为0,吸收边界为
Figure BDA0002967647270000113
根据式(7),当X2(t2)=b2,l时,传输时延D3,l的条件概率密度函数由以下公式给出:
Figure BDA0002967647270000114
其中:α2和β2分别是该子阶段扩散过程的漂移系数和扩散系数,计算方法为:
Figure BDA0002967647270000121
Figure BDA0002967647270000122
其中:Δt2表示时间t2的增量。
因此,D3,l的概率密度函数为:
Figure BDA0002967647270000123
2.3从云服务器到用户的传输子阶段:云服务器需要交付的tile的数据大小Γ4,l可以表示为:
Γ4,l=D1fBEl1,l=D1fB(El-Ql) (23)
根据式(22),传输时延D4,l的条件概率密度函数值为:
Figure BDA0002967647270000124
其中:α3和β3分别是该子阶段扩散过程的漂移系数和扩散系数,计算方法为:
Figure BDA0002967647270000125
Figure BDA0002967647270000126
其中:Δt3表示时间t3的增量。
2.4用户的计算子阶段:头戴式显示器完成尚未渲染的数据的解码渲染任务,数据由两部分组成:一部分是从MEC服务器接收的,另一部分是从云服务器接收的。所以需要计算的数据大小Γ5,l由以下公式给出:
Γ5,l=Γ4,l1,l2,l (27)
因此我们可以得到计算时延D5,l的条件概率质量函数,如下所示:
Figure BDA0002967647270000127
其中:WU表示用户头戴式显示器的计算能力,单位为比特每秒。
因此,本周期从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延DM,l的条件概率密度函数可以表示为:
Figure BDA0002967647270000131
注意到,由于请求矩阵Ar,l是由用户的视点决定的,而缓存矩阵Ac,l与云服务器到MEC服务器的传输速率分布有关,所以Ar,l和Ac,l是独立的。因此,在计算与传输阶段根据用户在第l周期缓存阶段的传感器数据和第l-1个视频段的显著图计算得来的请求矩阵的概率质量函数可被表示为P(Ar,l)=PF(nl,ml),其中PF(nl,ml)表示在第l+1周期开始时用户视点落入坐标为(nl,ml)的tile内的真实概率大小。从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延的概率密度函数可以进一步计算为:
Figure BDA0002967647270000132
当从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延大于预设的时延阈值Dth时,用户会感到头晕,体验质量会显著降低。因此,时延中断概率可以定义为从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延DM,l大于阈值的概率,如下所示:
Figure BDA0002967647270000133
图3所示了360度视频块(也称为球形视频块)如何被编码成tile以及视野预测的结果。最初,帧率为f的360度移动虚拟现实视频块l通过等距柱状投影投射到一个二维视频平面上,其角度范围为180°×360°。然后,将其划分为N×M个tile,每帧tile的数据大小为B比特/tile/帧。由于云服务器中的编码和压缩利用了时间和空间的依赖性,用户的头戴式显示器或MEC服务器需要一个tile的所有视频帧的数据包来进行正确解码。由于不同的tile独立进行编码和压缩,即使视野区域只覆盖部分tile,也需要传输该完整的tile。通常情况下,如果用户的视野区域面积为k×k个tile,那么请求区域面积会是(k+1)2个tile大小,并且视点可能落在视频平面的任何tile中。
在周期l的缓存阶段开始时刻,为了生成视野预测结果,MEC服务器可以利用从云服务器接收到的显著图和从用户接收到的传感器数据。对于显著图,云服务器可以利用文献[L.Bazzani,Recurrent mixture density network for spatiotemporal visualattention,ICLR,2017,pp.1-17]中提出的Convolution neural network(CNN)+Longshort-term memory(LSTM)+Gaussian mixture model(GMM)显著图网络来生成,其具体神经网络结构可以表示为:C64-P-C128-P-C256-C256-P-C512-C512-P-C512-P-FC4096-FC4096-softmax,其中C、P、FC和softmax分别表示三维卷积层、池化层、全连接层和softmax函数网络层,上述字母后面的数字表示相关层的核数(如C64表示有64个核),LSTM网络的视频帧滑动窗口为16个视频帧,高斯分布的数量设置为20个。MEC服务器还可以通过文献[C.Fan,Fixation prediction for 360degree video streaming in head-mountedvirtual reality,Proc.ACM Wksp.Network and Operating Systems Support forDigital Audio and Video,2017,pp.67-72]中提出的定位器(利用CNN网络实现)从传感器数据中提取包括偏航、俯仰和滚动在内的方向信息,这些提取出来的信息被存放在一个特征缓存区内;然后,MEC服务器可以使用文献[M.Xu,Predicting head movement inpanoramic video:A deep reinforcement learning approach,IEEE Transactions onPattern Analysis and Machine Intelligence,vol.41,no.11,pp.2693-2708,Nov.2019]中提出的LSTM视点预测网络,利用滑动窗口内过去16个视频帧的显著图和历史方向信息生成未来视频帧的各个tile的被观看概率矩阵
Figure BDA0002967647270000141
元素
Figure BDA0002967647270000142
表示坐标为
Figure BDA0002967647270000143
的tile被观看的概率。类似的,在计算与传输阶段可以使用相同的方法生成第l+1周期开始时用户视点落入坐标为(nl,ml)的tile内的概率PF(nl,ml)。
由于预测的视野区域可能会与视频平面的边界相交,因此预测视野区域的tile坐标集合定义为
Figure BDA0002967647270000144
Figure BDA0002967647270000145
其中N={1,2,…,N},M={1,2,…,M}表示视频平面tile的垂直和水平方向的坐标集合,然后请求概率矩阵被定义为PR(n,m)=[PR(n,m)]N×M,其中:
Figure BDA0002967647270000151
表示在下一个周期开始时刻,坐标为(n,m)的tile至少有一部分落在视野区域内的概率,n∈N,m∈M。
为了验证本发明系统在减小从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延方面的有效性,本发明与未结合边缘计算的方案进行了对比,仿真中考虑的相关重要参数设置如表1所示:
表1
Figure BDA0002967647270000152
图4比较了在缓存阶段时长Dc等于D1的前提下,在不同的视频块时长和压缩比下,结合MEC方案和未结合MEC方案的从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延。图中p(DM,l=tl)表示结合边缘计算的方法下从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延的概率密度函数,p(DN,l=tl)表示未结合边缘计算的方法下从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延的概率密度函数。在相同的视频块时长和压缩比下,可以观察到结合MEC的方案的时延优于未结合MEC的方案,平均下降幅度高达60%,这是因为用户请求的tile被缓存在MEC服务器中,又由于MEC服务器的计算能力远大于用户头戴式显示器的计算能力,计算时延变得相当小。此外,给定结合MEC方案或未结合MEC方案中的压缩比(如1/600),视频块时长较短时,平均从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延较小,这是因为在该仿真参数设置下,当D1较短时,每个周期内需要传输和计算的视频数据较少;但是也不能简单的根据这一现象就认为D1越短,越有利于保障用户的体验质量,这是因为当D1较短时,视频的压缩效率就会降低,而根据图4可以看到其他参数给定时,压缩效率降低将会导致从用户发出真实的视野请求到用户重新开始观看新的视频块的端到端时延增加。因此,可以调整系统参数,以最大限度地保障用户的服务质量和提升用户的体验质量;例如在给定划分后的视频平面在垂直和水平方向的tile的数目N和M的情况下,通过调整最大缓存时长D1(即系统参数视频块的时长)和MEC服务器在其图形处理单元上渲染数据比例c,可以最小化系统的中断概率,从而提升系统性能。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。

Claims (1)

1.一种基于边缘计算和主动缓存的360度虚拟现实视频传输系统,包括:云服务器、MEC服务器以及客户端;其特征在于:
所述云服务器存储有360度虚拟现实视频并通过神经网络生成对应的显著图,在对视频进行编码时采用等距柱状投影的方式将其划分为N×M个tile,并将每个tile的多个视频帧的数据压缩为一组图片序列,N和M均为自定义的自然数;同时根据MEC服务器反馈的视野预测结果向MEC服务器传输相应的视频数据包或直接将视频数据包发送给客户端;
所述MEC服务器对云服务器下发的视频数据包进行缓存并发送给客户端,同时也会对缓存中的部分视频数据包进行解码渲染并将视频数据发送给客户端,此外MEC服务器会根据来自云服务器的显著图以及客户端提供的运动传感数据预测用户的视野概率分布即视野预测结果;
所述客户端用于收集用户的运动传感数据并上传给MEC服务器,同时对MEC服务器或云服务器提供的视频数据包进行解码以及渲染,完成2维视频向360度球面视频的转换并进行播放;
系统采用周期性的工作方式,每个周期由缓存阶段和计算与传输阶段组成,视频数据在时域上进行划分,分为多个视频块,每个视频块的时长为D1,并且规定在第l个工作周期内用户所观看的视频块索引为l-1,l为大于1的自然数;在缓存阶段,云服务器根据MEC服务器反馈的视野预测结果向MEC服务器传输相应的视频数据包,缓存阶段时长为Dc且满足Dc≤D1;在计算与传输阶段开始时刻,客户端向MEC服务器发出包含有运动传感数据的视野请求,MEC服务器根据网络及本地计算资源状况对相应的部分视频数据包进行解码和渲染处理后将视频数据传输给客户端,客户端接收到来自MEC服务器或云服务器的数据后,将其中未解码渲染的视频数据包进行解码渲染处理并进行播放;
对于缓存阶段,在第l个工作周期开始时,MEC服务器根据第l个视频块的显著图以及第l-1个工作周期内用户的运动传感数据预测用户在第l+1个工作周期开始时的视野概率分布
Figure FDA0003460253930000011
其中
Figure FDA0003460253930000012
表示在第l+1个工作周期开始时用户视点落入坐标为
Figure FDA0003460253930000021
的tile中的概率,
Figure FDA0003460253930000022
Figure FDA0003460253930000023
N={1,2,…,N},M={1,2,…,M};MEC服务器在缓存阶段根据各tile预测的请求概率矩阵PR(n,m)=[PR(n,m)]N×M中对应元素按从大到小的顺序缓存第l个视频块的数据,其中PR(n,m)表示在第l+1个工作周期开始时坐标为(n,m)的tile至少有一部分落在用户视野区域内的概率,n∈N,m∈M;
缓存阶段结束后即为计算与传输阶段,在这个阶段的开始时刻,客户端会给MEC服务器发送用户的视野请求,该视野请求中包含有位于用户视野中心的tile的横纵坐标;所述计算与传输阶段包括了MEC服务器计算阶段、从MEC服务器到客户端传输阶段、从云服务器到客户端传输阶段、客户端计算阶段,为了利用MEC服务器的计算能力来减小客户端计算阶段的时延,可由MEC服务器完成部分视频数据包的解码渲染任务并将视频数据传输给客户端,而云服务器也会把MEC服务器没有缓存且用户需要的视频数据包直接发送给客户端,最后由客户端完成解码渲染任务并进行播放;
在MEC服务器计算阶段,当收到客户端新的视野请求,MEC服务器会检查其缓存中是否有用户所需的视频数据包;为了平衡通信时延和计算时延,MEC服务器从缓存中用户所需的视频数据包中取比例为c的部分数据包进行解码渲染后将视频数据传输给客户端,其中c∈[0,1];在从MEC服务器到客户端传输阶段,对于客户端向MEC服务器请求的数据,包括MEC服务器解码渲染过后得到的视频帧和未解码渲染的视频数据包,都将由MEC服务器传送给客户端;在从云服务器到客户端传输阶段,对于MEC服务器没有缓存且用户需要的视频数据包,直接由云服务器传送给客户端;在客户端计算阶段,客户端对MEC服务器或云服务器提供的视频数据包进行解码渲染,此时第l个工作周期的通信和解码渲染任务已经完成,客户端在第l+1个工作周期的开始时刻播放第l个视频块的视频帧;
通过优化视频块的时长D1和渲染的比例c以最小化系统的中断概率Pout,即
Figure FDA0003460253930000024
中断概率Pout的表达式如下:
Figure FDA0003460253930000025
DM,l=D2,l+D3,l+D4,l+D5,l
其中:DM,l为系统在第l个工作周期从客户端发出视野请求到客户端播放第l个视频块的端到端时延,p(DM,l=tl)为关于DM,l的概率密度函数,Dth为给定的时延阈值,tl表示第l个工作周期内的时刻,D2,l为第l个工作周期中MEC服务器计算阶段的时延,D3,l为第l个工作周期中从MEC服务器到客户端传输阶段的时延,D4,l为第l个工作周期中从云服务器到客户端传输阶段的时延,D5,l为第l个工作周期中客户端计算阶段的时延;
所述概率密度函数p(DM,l=tl)的表达式如下:
Figure FDA0003460253930000031
其中:Ac,l为缓存矩阵且Ac,l=[ac,l(n,m)]N×M,其中的元素值ac,l(n,m)表示在第l个工作周期缓存阶段结束时刻坐标为(n,m)的tile在MEC服务器中的缓存情况,ac,l(n,m)=1即表示tile被缓存,ac,l(n,m)=0即表示tile未被缓存;Ar,l为请求矩阵且Ar,l=[ar,l(n,m)]N×M,其中的元素值ar,l(n,m)表示在第l个工作周期开始时坐标为(n,m)的tile是否在用户视野区域内,ar,l(n,m)=1即表示tile在用户视野区域内,ar,l(n,m)=0即表示tile不在用户视野区域内;Gl表示在第l个工作周期缓存阶段MEC服务器缓存的tile数量,g表示Gl在其状态空间Ω中的任一取值,每一个已知的缓存矩阵Ac,l均对应一个确定的g,
Figure FDA0003460253930000032
表示Gl的概率分布;PF(nl,ml)表示在第l+1个工作周期开始时用户视点落入坐标为(nl,ml)的tile中的真实概率大小,N={1,2,…,N},M={1,2,…,M};
Figure FDA0003460253930000033
表示在已知缓存矩阵Ac,l和请求矩阵Ar,l的情况下DM,l的条件概率密度函数;
所述条件概率密度函数
Figure FDA0003460253930000034
的表达式如下:
Figure FDA0003460253930000035
Figure FDA0003460253930000036
Figure FDA0003460253930000037
Figure FDA0003460253930000041
Γ3,l=Γ1,l(c·h+1-c)
Γ4,l=D1fB(El-Ql)
Figure FDA0003460253930000042
Figure FDA0003460253930000043
其中:t2表示第l个工作周期从MEC服务器到客户端传输阶段内的时刻,t3表示第l个工作周期从云服务器到客户端传输阶段内的时刻,α2和β2分别为从MEC服务器到客户端传输阶段的漂移系数和扩散系数,b2,l为从MEC服务器到客户端传输阶段的吸收边界,α3和β3分别为从云服务器到客户端传输阶段的漂移系数和扩散系数,b3,l为从云服务器到客户端传输阶段的吸收边界,Γ3,l表示在第l个工作周期内MEC服务器向客户端传输的总数据量,Γ4,l表示在第l个工作周期内云服务器向客户端传输的总数据量,Γ1,l=D1fBQl,Cr为视频编码压缩后与编码压缩前的数据量大小比值,s为每个视频数据包的大小,f表示视频帧率,B表示tile中每帧视频的数据量大小,Ql表示第l个工作周期内缓存在MEC服务器中且被客户端请求的tile数量,El表示第l个工作周期内实际被客户端请求的tile数量,h表示视频渲染后与渲染前的数据量大小比值,R2(t)表示从MEC服务器到客户端之间网络的瞬时传输速率,R3(t)表示从云服务器到客户端之间网络的瞬时传输速率,E()表示均值,Var()表示方差。
CN202110256652.1A 2021-03-09 2021-03-09 基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法 Active CN112995636B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110256652.1A CN112995636B (zh) 2021-03-09 2021-03-09 基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110256652.1A CN112995636B (zh) 2021-03-09 2021-03-09 基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法

Publications (2)

Publication Number Publication Date
CN112995636A CN112995636A (zh) 2021-06-18
CN112995636B true CN112995636B (zh) 2022-03-25

Family

ID=76334683

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110256652.1A Active CN112995636B (zh) 2021-03-09 2021-03-09 基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法

Country Status (1)

Country Link
CN (1) CN112995636B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114979089B (zh) * 2022-04-25 2023-03-24 北京邮电大学 一种实时传输全景视频的系统和方法
CN114866797B (zh) * 2022-05-07 2023-10-27 湖南正好物联网科技有限公司 360度视频缓存方法及装置
CN115103408B (zh) * 2022-06-27 2024-03-22 西安电子科技大学 一种面向mec的边缘视频缓存服务器部署规划方法
CN115174481B (zh) * 2022-07-20 2023-06-16 广东工业大学 一种无人机辅助边缘车联网服务和内容混合缓存的方法
CN116320354B (zh) * 2023-01-16 2023-09-29 浙江大学 360度虚拟现实视频用户接入控制系统及控制方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012037129A2 (en) * 2010-09-13 2012-03-22 Barry Lynn Jenkins System and method of delivering and controlling streaming interactive media comprising predetermined packets of geometric, texture, lighting and other data which are rendered on a reciving device
CN106487923A (zh) * 2016-11-15 2017-03-08 清华大学 可配置的移动终端协作缓存方法
CN108521436A (zh) * 2018-02-01 2018-09-11 上海交通大学 基于终端计算存储的移动虚拟现实传输方法及系统
CN108551586A (zh) * 2018-03-14 2018-09-18 上海交通大学 多用户360度视频流服务器端码率自适应分配方法及系统
CN108833880A (zh) * 2018-04-26 2018-11-16 北京大学 利用跨用户行为模式进行视点预测并实现虚拟现实视频最优化传输的方法和装置
CN110231976A (zh) * 2019-05-20 2019-09-13 西安交通大学 一种基于负载预测的边缘计算平台容器部署方法及系统
EP3672251A1 (en) * 2018-12-20 2020-06-24 Koninklijke KPN N.V. Processing video data for a video player apparatus
CN111488528A (zh) * 2020-04-28 2020-08-04 西安邮电大学 内容缓存管理方法及装置、电子设备
CN111629264A (zh) * 2020-06-01 2020-09-04 复旦大学 一种基于web的分离式前端图像渲染方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020087630A1 (en) * 2000-10-20 2002-07-04 Jonathan Wu Enhanced information and presence service
US10659526B2 (en) * 2018-01-03 2020-05-19 Verizon Patent And Licensing Inc. Edge compute systems and methods
US10735778B2 (en) * 2018-08-23 2020-08-04 At&T Intellectual Property I, L.P. Proxy assisted panoramic video streaming at mobile edge
US11023098B2 (en) * 2018-10-03 2021-06-01 Sap Se Rendering on a mobile device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012037129A2 (en) * 2010-09-13 2012-03-22 Barry Lynn Jenkins System and method of delivering and controlling streaming interactive media comprising predetermined packets of geometric, texture, lighting and other data which are rendered on a reciving device
CN106487923A (zh) * 2016-11-15 2017-03-08 清华大学 可配置的移动终端协作缓存方法
CN108521436A (zh) * 2018-02-01 2018-09-11 上海交通大学 基于终端计算存储的移动虚拟现实传输方法及系统
CN108551586A (zh) * 2018-03-14 2018-09-18 上海交通大学 多用户360度视频流服务器端码率自适应分配方法及系统
CN108833880A (zh) * 2018-04-26 2018-11-16 北京大学 利用跨用户行为模式进行视点预测并实现虚拟现实视频最优化传输的方法和装置
EP3672251A1 (en) * 2018-12-20 2020-06-24 Koninklijke KPN N.V. Processing video data for a video player apparatus
CN110231976A (zh) * 2019-05-20 2019-09-13 西安交通大学 一种基于负载预测的边缘计算平台容器部署方法及系统
CN111488528A (zh) * 2020-04-28 2020-08-04 西安邮电大学 内容缓存管理方法及装置、电子设备
CN111629264A (zh) * 2020-06-01 2020-09-04 复旦大学 一种基于web的分离式前端图像渲染方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
An Adaptive Wireless Virtual Reality Framework in Future Wireless Networks: A Distributed Learning Approach;Fengxian Guo;《IEEE》;20200520;全文 *
Jianmei Dai.A View Synthesis-Based 360° VR Caching System Over MEC-Enabled C-RAN.《IEEE》.2019, *
基于CUDA的三角形并行处理;陆扬;《CNKI》;20110115;全文 *

Also Published As

Publication number Publication date
CN112995636A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN112995636B (zh) 基于边缘计算和主动缓存的360度虚拟现实视频传输系统及参数优化方法
Chakareski Viewport-adaptive scalable multi-user virtual reality mobile-edge streaming
Sun et al. Flocking-based live streaming of 360-degree video
US11831883B2 (en) QoE-based adaptive acquisition and transmission method for VR video
Li et al. Joint communication and computational resource allocation for qoe-driven point cloud video streaming
CN109743600A (zh) 基于可穿戴的现场运维自适应视频流传输速率控制方法
CN114640870B (zh) 一种QoE驱动的无线VR视频自适应传输优化方法及系统
Jiang et al. A hierarchical buffer management approach to rate adaptation for 360-degree video streaming
Zhou et al. QoE-aware 3D video streaming via deep reinforcement learning in software defined networking enabled mobile edge computing
CN115633143A (zh) 一种边端协同超分的自适应视频流传输系统
Sun et al. Live 360 degree video delivery based on user collaboration in a streaming flock
CN114040257B (zh) 一种自适应视频流传输播放方法、装置、设备及存储介质
Jin et al. Ebublio: Edge assisted multi-user 360-degree video streaming
Yu et al. Co-optimizing latency and energy with learning based 360 video edge caching policy
Ramanathan et al. Rate-distortion optimized interactive light field streaming
Li et al. Towards optimal real-time volumetric video streaming: A rolling optimization and deep reinforcement learning based approach
CN113766269A (zh) 视频缓存策略确定、视频数据处理方法、装置及存储介质
Li et al. Utility-driven joint caching and bitrate allocation for real-time immersive videos
CN116320354B (zh) 360度虚拟现实视频用户接入控制系统及控制方法
Yang et al. Intelligent cache and buffer optimization for mobile VR adaptive transmission in 5G edge computing networks
CN115720237A (zh) 边缘网络自适应比特率视频的缓存和资源调度方法
Huang et al. Joint optimization of task scheduling and computing resource allocation for VR video services in 5G‐advanced networks
Wang et al. Adaptive VR video data transmission method using mobile edge computing based on AIoT cloud VR
Zhao et al. Optimizing Quality of Experience of Free-Viewpoint Video Streaming with Markov Decision Process
CN115037958B (zh) 一种基于5g网络的mec协作传输vr视频的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant