CN107197285A - 一种基于位置的虚拟现实压缩方法 - Google Patents

一种基于位置的虚拟现实压缩方法 Download PDF

Info

Publication number
CN107197285A
CN107197285A CN201710419645.2A CN201710419645A CN107197285A CN 107197285 A CN107197285 A CN 107197285A CN 201710419645 A CN201710419645 A CN 201710419645A CN 107197285 A CN107197285 A CN 107197285A
Authority
CN
China
Prior art keywords
frame
unit
virtual reality
video
coding side
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710419645.2A
Other languages
English (en)
Other versions
CN107197285B (zh
Inventor
崔勇
孙霖晖
赖泽祺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201710419645.2A priority Critical patent/CN107197285B/zh
Publication of CN107197285A publication Critical patent/CN107197285A/zh
Application granted granted Critical
Publication of CN107197285B publication Critical patent/CN107197285B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种基于位置的虚拟现实压缩方法,其目的在于降低VR系统的高传输带宽需求,为虚拟现实系统利用当前无线网络技术实现高质量画面帧的无线传输提供基础,其主要思路为:1)编码端将虚拟现实的连续虚拟空间离散化为不同位置的全景图集合,并将相邻位置的全景图子集组合为大量互不重合的单元;2)每个单元位于中央位置的全景图被编码压缩为关键帧,剩余的全景图则全部被编码压缩为只参考该关键帧的P帧;3)经过上述操作,编码端将虚拟现实应用的虚拟空间编码压缩为一个或多个全景视频流,解码端先解码出覆盖用户当前位置的单元的关键帧至内存,然后再根据用户的具体位置快速解码出其对应位置的P帧,从而实现用户在虚拟空间内的活动。

Description

一种基于位置的虚拟现实压缩方法
技术领域
本发明属于虚拟现实技术领域,特别涉及一种基于位置的虚拟现实压缩方法。
背景技术
虚拟现实(Virtual Reality,以下简称VR),在为用户提供了颠覆性的沉浸式交互体验的同时也给VR系统本身带来了极大的计算和渲染开销。为了实现高质量的VR应用体验,满足VR应用:1)低响应延迟,2)高帧刷新率和3)高质量画面的三个性能需求,VR系统通常将繁重的渲染工作交给一台强大的主机完成。主机实时地将渲染好的画面帧传输给用户所佩戴的头戴式显示器。由于VR应用的高帧刷新率和高质量画面的需求,传输这些画面帧通常需要消耗好几个Gbps的带宽资源。
目前主流的无线网络技术(例如802.11ac的理论峰值带宽只有450Mbps)都难以满足如此高的传输带宽需求,因此现在的VR系统通常都使用HDMI数据线来实现主机到头戴式显示器的传输。HDMI数据线虽然使得VR高质量画面帧的传输成为可能,但是也极大地限制了VR系统的移动性。并且由于用户在使用头戴式显示器体验VR应用时无法看到周围的真实环境,数据线的使用也使得用户在体验时存在被绊倒的风险。
为了解决使用数据线引入的问题,有的研究提出了利用高频段无线网络(60GHz毫米波)来提供足够的传输带宽资源。但是毫米波的信号容易被干扰,VR体验中用户的移动也会导致天线的重新校准。因此利用毫米波实现VR画面帧传输时需要巧妙地假设反射板来解决上述问题。但这也无疑增加了VR系统部署的复杂度和成本。
除了增加无线网络的带宽资源,还可以考虑利用额外的计算开销(压缩、解码)来减小传输带宽的消耗。视频压缩已经在流媒体领域长期应用和发展,像H.264、H.265这样的主流视频压缩技术已经使得高码率视频流在互联网中的传输成为可能。但由于视频压缩技术是针对视频这一时间维度主导的资源优化设计的,并不能直接应用在VR场景下。因此,如何设计出面向VR应用场景的压缩方法就成为了解决VR系统高带宽需求中至关重要的问题。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种基于位置的虚拟现实压缩方法,利用视频压缩技术针对VR应用场景压缩,有效降低VR系统的传输带宽需求。
为了实现上述目的,本发明采用的技术方案是:
一种基于位置的虚拟现实压缩方法,利用空间中相邻位置全景图具有高度冗余的特性,借助视频编码技术,在虚拟现实场景下按照以下步骤实现:
步骤(1),编码端将VR应用的虚拟空间按照固定间隔(通常小于0.05米)进行离散化采样取点,对于每个位置采样点,取其全景图作为待编码的视频帧,同时编码端维护每个位置采样点的三维坐标信息作为其全景图的索引;
步骤(2),将在一定位置范围内相似的采样点组合为一个单元,VR应用的虚拟空间由一系列互不重合的单元组成,当编码端采用视频压缩技术时,每个单元就被视为一个GOP(Group of Pictures,画面组);编码端确定单元的大小,即GOP的大小,将步骤(1)得到的一系列全景视频帧重新组合、划分为一系列互不重合的视频帧单元;
步骤(3),对于每一个单元,编码端将处于正中央的位置采样点的全景视频帧编码为该GOP的关键帧,即I帧,该单元内其他位置采样点的全景视频帧将被编码为P帧,并且只将该单元内的关键帧作为其唯一的参考帧;
步骤(4),编码端按步骤(3)的编码规则将VR应用的虚拟空间编码为一个或多个全景视频流,每个位置采样点的全景图对应这些全景视频流中不同时刻的视频帧,编码端维护一个三维坐标信息到该时间戳信息的映射,并将其和GOP大小作为视频流的元信息一并传给解码端;
步骤(5),解码端根据用户当前位置,利用视频流的元信息定位到覆盖用户当前位置的单元,解码端首先将该单元的关键帧解码并存在内存中,然后再根据用户的实际位置快速解码出对应位置采样点的P帧;
步骤(6),当用户离开当前单元覆盖范围并移动至另一个单元时,解码端释放内存中当前单元的关键帧并解码下一单元的关键帧至内存。
与现有技术相比,本本发明借助视频压缩技术,利用近邻位置全景图具有大量冗余的特性,实现了高效的压缩方法从而有效减少了VR系统画面帧传输时的高带宽需求,从而为实现高质量VR画面帧的无线传输提供基础。相比于连线型VR系统,本方法无需使用HDMI数据线传输,保证了VR系统的移动性也消除了用户被绊倒的风险;相比于利用60GHz毫米波传输,本方法无需其复杂的部署和高昂的成本。
附图说明
图1为本发明的离散化编码单元示意图(该单元采样间隔为0.02米,覆盖一个1米*1米的立体空间),图中的立方体代表该位置采样点的全景图。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
本发明一种基于位置的虚拟现实压缩方法,由编码端和解码端合作实现。在VR应用场景下,编码端通常是负责渲染工作的主机,解码端则通常是负责显示的头戴式显示器。
首先,将VR应用对应的虚拟空间按照固定的间隔(小于0.05米,之前的研究表明人眼无法识别这一间隔带来的细微变化)进行离散化取点。经过离散化操作,无限的连续空间就转换为有限的位置采样点。对于每一个位置采样点,编码端都将其对应的全景图作为待压缩的视频帧。用户在虚拟空间内的活动就简化为了不同位置采样点上全景视频帧的切换(由于每个位置上各个方向的信息都包含在了全景图中,用户的头部转动就不会再带来额外的计算或渲染开销)。
由于采样间隔十分微小,因此在一定位置范围内的一系列全景视频帧将非常相似。基于以上事实,本方法将这些在一定位置范围内相似的采样点组合为一个单元(如图1所示),VR应用的虚拟空间就由一系列这样互不重合的单元组成。当编码端采用视频压缩技术(例如H.264)时,每个单元就被视为一个GOP(Group of Pictures,画面组)。每个单元内处于正中央的位置采样点的全景视频帧被编码为该GOP的关键帧(也就是I帧)。该单元内其他位置采样点的全景视频帧则全部编码为P帧,并且这些P帧都只依赖于其所在单元内唯一的I帧。整个VR应用就可以编码压缩为一个或多个全景视频流,视频流中的每一帧都对应VR虚拟空间中唯一的一个位置。
经过上述基于位置的VR压缩编码,用户的VR应用体验实际上就变成了全景视频流的解码播放。当用户在虚拟空间内活动时,解码端只需要解码显示当前位置对应的全景视频帧即可。由于在视频编码技术中只有I帧是自给的,P帧等的解码都需要依赖其参考帧(本方法下所有的P帧都只有一个参考帧)的解码结果。因此,解码端在用户进入到一个单元所覆盖的位置范围时将首先解码该单元对应GOP的关键帧并将其存在内存中,然后再根据用户实际所在位置快速解码出其对应的P帧。该方法实现了一个单元内任意P帧的快速随机解码。
本发明的主要步骤具体如下:
步骤(1)编码端对VR应用的虚拟空间进行离散化处理。即按照固定间隔(通常需要小于0.05米)进行采样取点,得到一组位置采样点集合position_set={p1,p2,p3,p4,...,pn}。每个位置采样点pk都是一个唯一的三维空间坐标[xk,yk,zk]。
步骤(2)编码端确定单元覆盖的空间大小(即GOP的大小),将步骤(1)得到的一系列全景视频帧重新组合、划分为一系列互不重合的视频帧单元(如图1所示)。
步骤(2)对于position_set中所有元素(位置采样点),编码端都渲染出该位置唯一的全景图,得到一组全景图集合pano_frame_set={f1,f2,f3,f4,...,fn}。position_set和pano_frame_set构成一个一一对应的映射关系:pk→fk
步骤(3)编码端确定编码单元的大小,此处假设大小为m。跟据编码单元大小,将position_set和pano_frame_set分别划分为个互不相交的子集。每个position_set子集都对应虚拟空间中一个不重叠的立方体区域,如图1所示。
position_set={p11,p12,p13,...,p1m}∪{p21,p22,p23,...,p2m}∪...;
pano_frame_set={f11,f12,f13,...,f1m}∪{f21,f22,f23,...,f2m}∪...;
步骤(4)对于pano_frame_set的每一个子集,编码端将其编码为H.264视频流中的一个GOP。以{p11,p12,p13,...,p1m}子集和它对应的{f11,f12,f13,...,f1m}子集为例,编码端将处于中间位置的全景图f1(m+1/2)编码为该GOP的关键帧,该子集内剩下的全景图f1k被编码为P帧,并且只将该单元内的关键帧作为其唯一的参考帧。
步骤(5)编码端按照步骤(4)的规则将整个pano_frame_set编码为一个或多个全景视频流(每个视频流需覆盖虚拟空间中的连续区域)。每个位置采样点的全景图fk就对应这些全景视频流中不同时刻的视频帧。编码端维护一个position_set到该时间戳信息的映射:pk→tik。其中tik表示第i个视频流的k时刻。
步骤(6)解码端从服务器获取编码好的视频流,该视频流的元信息除了包含GOP大小等常规信息外还包含以下映射信息:pk→fk和pk→tik
步骤(7)为了提供、展现虚拟现实的虚拟环境,解码端需要从视频流中获取用户当前位置的全景图并解码显示。当用户在虚拟环境内移动时,解码端将快速地在视频流中跳转、解码显示对应位置的全景图。
步骤(8)解码端根据用户当前位置及映射信息快速定位并跳转到到视频流对应的GOP。解码端首先将该GOP的关键帧解码并存在内存中。然后再根据用户的实际位置快速解码出对应的P帧。
步骤(9)当用户不离开当前GOP覆盖范围时,解码端只需要依赖内存中的关键帧快速解码出对应P帧即可。当用户离开当前GOP覆盖范围并移动至另一个编码单元时,解码端会释放内存中当前GOP的关键帧并解码下一GOP的关键帧至内存。
综上,本发明可降低VR系统的高传输带宽需求,为虚拟现实系统利用当前无线网络技术实现高质量画面帧的无线传输提供基础。本发明旨在基于虚拟现实中相邻位置全景图存在大量冗余的事实,利用视频压缩技术实现面向虚拟现实应用的高效压缩方法。
综上所述,本发明提出了一种基于位置的虚拟现实压缩方法。该方法将无限的VR虚拟空间离散化为有限的全景图集合,并利于相邻全景图之间存在高度冗余的特性,利用视频压缩技术设计了基于位置的高效压缩方法。该方法能够极大地降低VR系统的传输带宽需求,同时也无需复杂、高成本的部署,对于无线VR系统的推广、部署具有重大意义。

Claims (3)

1.一种基于位置的虚拟现实压缩方法,利用空间中相邻位置全景图具有高度冗余的特性,借助视频编码技术,在虚拟现实场景下按照以下步骤实现:
步骤(1),编码端将VR应用的虚拟空间按照固定间隔进行离散化采样取点,对于每个位置采样点,取其全景图作为待编码的视频帧,同时编码端维护每个位置采样点的三维坐标信息作为其全景图的索引;
步骤(2),将在一定位置范围内相似的采样点组合为一个单元,VR应用的虚拟空间由一系列互不重合的单元组成,当编码端采用视频压缩技术时,每个单元就被视为一个GOP(Group of Pictures,画面组);编码端确定单元的大小,即GOP的大小,将步骤(1)得到的一系列全景视频帧重新组合、划分为一系列互不重合的视频帧单元;
步骤(3),对于每一个单元,编码端将处于正中央的位置采样点的全景视频帧编码为该GOP的关键帧,即I帧,该单元内其他位置采样点的全景视频帧将被编码为P帧,并且只将该单元内的关键帧作为其唯一的参考帧;
步骤(4),编码端按步骤(3)的编码规则将VR应用的虚拟空间编码为一个或多个全景视频流,每个位置采样点的全景图对应这些全景视频流中不同时刻的视频帧,编码端维护一个三维坐标信息到该时间戳信息的映射,并将其和GOP大小作为视频流的元信息一并传给解码端;
步骤(5),解码端根据用户当前位置,利用视频流的元信息定位到覆盖用户当前位置的单元,解码端首先将该单元的关键帧解码并存在内存中,然后再根据用户的实际位置快速解码出对应位置采样点的P帧;
步骤(6),当用户离开当前单元覆盖范围并移动至另一个单元时,解码端释放内存中当前单元的关键帧并解码下一单元的关键帧至内存。
2.根据权利要求1所述基于位置的虚拟现实压缩方法,其特征在于,所述固定间隔小于0.05米。
3.根据权利要求1所述基于位置的虚拟现实压缩方法,其特征在于,所述编码端为负责渲染工作的主机,所述解码端为负责显示的头戴式显示器。
CN201710419645.2A 2017-06-06 2017-06-06 一种基于位置的虚拟现实压缩方法 Active CN107197285B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710419645.2A CN107197285B (zh) 2017-06-06 2017-06-06 一种基于位置的虚拟现实压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710419645.2A CN107197285B (zh) 2017-06-06 2017-06-06 一种基于位置的虚拟现实压缩方法

Publications (2)

Publication Number Publication Date
CN107197285A true CN107197285A (zh) 2017-09-22
CN107197285B CN107197285B (zh) 2019-09-27

Family

ID=59876344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710419645.2A Active CN107197285B (zh) 2017-06-06 2017-06-06 一种基于位置的虚拟现实压缩方法

Country Status (1)

Country Link
CN (1) CN107197285B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107659804A (zh) * 2017-10-30 2018-02-02 河海大学 一种针对虚拟现实头戴式显示设备的屏幕内容视频编码算法
WO2019100247A1 (zh) * 2017-11-22 2019-05-31 华为技术有限公司 应用于虚拟现实的图像显示方法、装置、设备及系统
CN111757185A (zh) * 2019-03-29 2020-10-09 理光软件研究所(北京)有限公司 一种视频播放方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101645176A (zh) * 2008-08-06 2010-02-10 刘俊杰 一种用于网络的三维图像交互技术
WO2016072757A1 (ko) * 2014-11-05 2016-05-12 삼성전자 주식회사 블록과 관련하여 결정된 적어도 하나의 샘플값 및 적어도 하나의 패턴에 기초한 인트라 예측을 수행하는 영상 부호화 방법 및 장치 또는 영상 복호화 방법 및 장치
CN105959702A (zh) * 2016-05-30 2016-09-21 北京奇艺世纪科技有限公司 一种球面视频编码方法和装置
CN106210716A (zh) * 2016-08-01 2016-12-07 上海国茂数字技术有限公司 一种全景视频等密度采样方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101645176A (zh) * 2008-08-06 2010-02-10 刘俊杰 一种用于网络的三维图像交互技术
WO2016072757A1 (ko) * 2014-11-05 2016-05-12 삼성전자 주식회사 블록과 관련하여 결정된 적어도 하나의 샘플값 및 적어도 하나의 패턴에 기초한 인트라 예측을 수행하는 영상 부호화 방법 및 장치 또는 영상 복호화 방법 및 장치
CN105959702A (zh) * 2016-05-30 2016-09-21 北京奇艺世纪科技有限公司 一种球面视频编码方法和装置
CN106210716A (zh) * 2016-08-01 2016-12-07 上海国茂数字技术有限公司 一种全景视频等密度采样方法及装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107659804A (zh) * 2017-10-30 2018-02-02 河海大学 一种针对虚拟现实头戴式显示设备的屏幕内容视频编码算法
CN107659804B (zh) * 2017-10-30 2019-03-12 河海大学 一种针对虚拟现实头戴式显示设备的屏幕内容视频编码算法
WO2019100247A1 (zh) * 2017-11-22 2019-05-31 华为技术有限公司 应用于虚拟现实的图像显示方法、装置、设备及系统
CN111757185A (zh) * 2019-03-29 2020-10-09 理光软件研究所(北京)有限公司 一种视频播放方法和装置
CN111757185B (zh) * 2019-03-29 2022-04-26 理光软件研究所(北京)有限公司 一种视频播放方法和装置

Also Published As

Publication number Publication date
CN107197285B (zh) 2019-09-27

Similar Documents

Publication Publication Date Title
KR102155681B1 (ko) 가상 현실 비디오 변환 및 스트리밍을 위한 시스템 및 방법
CN111355954B (zh) 为视频播放器装置处理视频数据
KR102492565B1 (ko) 가상 현실 미디어 컨텐츠의 패키징 및 스트리밍을 위한 방법 및 장치
CN100588250C (zh) 一种多视点视频流的自由视点视频重建方法及系统
US20190141323A1 (en) Video image encoding method and apparatus, and video image decoding method and apparatus
CN109511284A (zh) 视窗自适应360度视频传送的方法和设备
KR20170123656A (ko) 구면 영상 스트리밍
CN103813213A (zh) 基于移动云计算的实时视频分享平台和方法
CN107945101B (zh) 图像处理方法和装置
CN107197285B (zh) 一种基于位置的虚拟现实压缩方法
JP7177034B2 (ja) レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム
CN102611878A (zh) 低带宽占用的高清摄像头映射方法
Zhang et al. Deepvista: 16k panoramic cinema on your mobile device
Zhang et al. Innovating multi-user volumetric video streaming through cross-layer design
WO2023221764A1 (zh) 视频编码方法、视频解码方法及相关装置
Palash et al. Robust 360 video streaming via non-linear sampling
CN114930812B (zh) 用于解码3d视频的方法和装置
Shafiei et al. Jiku live: a live zoomable video streaming system
WO2022073796A1 (en) A method and apparatus for adapting a volumetric video to client devices
KR102183895B1 (ko) 가상 현실 비디오 스트리밍에서의 관심영역 타일 인덱싱
CN201821460U (zh) 一种编码装置
EP3767953A1 (en) Methods for transmitting and rendering a 3d scene, method for generating patches, and corresponding devices and computer programs
Pańka et al. Visualization of multidimensional data on distributed mobile devices using interactive video streaming techniques
Pańka et al. Data centered collaboration in a mobile environment

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant