CN101521823A - 空间相关的全景数据压缩方法 - Google Patents

空间相关的全景数据压缩方法 Download PDF

Info

Publication number
CN101521823A
CN101521823A CN 200910081023 CN200910081023A CN101521823A CN 101521823 A CN101521823 A CN 101521823A CN 200910081023 CN200910081023 CN 200910081023 CN 200910081023 A CN200910081023 A CN 200910081023A CN 101521823 A CN101521823 A CN 101521823A
Authority
CN
China
Prior art keywords
picture
scene point
reference picture
predicted picture
predicted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 200910081023
Other languages
English (en)
Other versions
CN101521823B (zh
Inventor
周忠
吴威
陈珂
牛犇
李艳丽
赵沁平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN 200910081023 priority Critical patent/CN101521823B/zh
Publication of CN101521823A publication Critical patent/CN101521823A/zh
Application granted granted Critical
Publication of CN101521823B publication Critical patent/CN101521823B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种空间相关的全景数据压缩方法,其步骤如下:(1)获取预测图像相对于参考图像的相机外参数,相机外参数包括相机的旋转矩阵R和平移量T;(2)完成步骤(1)以后,获取参考图像和预测图像的深度信息,即图像中每一个像素点的深度值;(3)根据步骤(2)的参考图像和预测图像的深度信息,获取参考图像和预测图像的场景点;(4)根据步骤(1)获取的相机外参数,利用空间相关性对步骤(3)获取的参考图像和预测图像的场景点进行融合,得到预测图像新增加的场景点;(5)完成步骤(4)以后,对参考图像本身的颜色信息和深度信息以及预测图像新增加的场景点进行编码。本发明利用连续采集的全景图像之间场景空间的相关性,压缩存在于全景图像里的空间冗余信息。

Description

空间相关的全景数据压缩方法
技术领域
本发明涉及全景图像技术领域,更具体地讲,涉及一种利用空间相关性对连续采集的全景数据进行压缩的方法。
背景技术
全景图像是由某一点拍摄的多幅实景图像拼接而成的。其具体的生成过程是:将相互重叠图像映射到简单的几何体表面上,如球面、立方体表面或圆柱面,然后对投影图像进行无缝拼接,就可以得到全景图像。根据所映射的几何体,全景图像可以分为柱面全景图像、球面全景图像和立方体全景图像。
全景图像覆盖了360度的场景范围,所以其数据量巨大,这对图像的存储和传输造成了很大的困难。因此,需要对全景视频进行压缩编码,以降低存储空间和减少传输时占用的网络带宽。在视频图像压缩中,运动估计用来根据己经编码的参考帧产生当前预测帧的运动补偿预测,去除视频序列中存在的时间冗余。运动估计的方法是将预测帧分成若干大小相同的块,根据不同的搜索算法和匹配原则在参考帧一定大小的窗口内搜索最相似的匹配块。本发明前,中国发明专利“快速视频运动估计方法”,专利号为01100544.4,公开号为CN1333634,该专利公开了一种运动估计的方法,采用菱形搜索并自适应的终止搜索过程。该方法主要是针对普通视频采用固定顺序进行块匹配搜索,并没有充分利用视频图像间的空间冗余信息,从而不能有效地对全景图像进行压缩。中国发明专利“用于全景图像的运动估计和补偿的方法和设备”,申请号为200580027187.3,公开号为CN101002479A,该专利公开了一种利用全景图的左右边界之间的空间关系进行运动估计和补偿的方法。该方法只适用于柱面全景图,而且没有充分利用整幅全景图像的场景空间相关性,因而图像压缩效率不高。
对于通过相机运动在同一场景空间里连续采集的全景图像,这些全景图像所覆盖的大部分场景空间都是相同的。由于图像都来自同一场景空间,只是根据相机位置变化而采集了多次,所以图像与图像之间的数据相近,其差异主要是来自于空间采集位置的不同,其数据具有空间相关性。因此,本发明的空间相关的全景数据压缩方法利用连续采集的全景图像之间场景空间的相关性,压缩存在于全景图像里的空间冗余信息。
发明内容
本发明的目的是:克服现有方法没有充分利用场景空间相关性不能有效地提高全景图像压缩比的不足,提供一种利用空间相关性的全景数据压缩方法,该方法在全景数据压缩的过程中,可以有效地压缩存在于连续采集的全景图像间的空间冗余信息,提高全景图像数据的压缩比。
为了实现上述目的,本发明所采取的技术方案是:将连续采集的全景数据分为参考图像和预测图像,参考图像保存了整个图像的场景空间的场景点,预测图像只存储场景空间的新增加的场景点,预测图像可以根据相机的外参数从参考图像生成,从而减少全景图像的数据量,具体包含的步骤如下:
(1)获取预测图像相对于参考图像的相机外参数,所述相机外参数包括相机的旋转矩阵R和平移量T;
(2)完成步骤(1)以后,获取参考图像和预测图像的深度信息,即图像中每一个像素点的深度值;
(3)根据步骤(2)的参考图像和预测图像的深度信息,获取参考图像和预测图像的场景点;
(4)根据步骤(1)获取的相机外参数,利用空间相关性对步骤(3)获取的参考图像和预测图像的场景点进行融合,得到预测图像新增加的场景点;
(5)完成步骤(4)以后,对参考图像本身的颜色信息和深度信息以及预测图像新增加的场景点进行编码,从而完成空间相关的全景数据压缩。
本发明的原理是:在同一场景空间里连续采集了多幅全景图像,这些全景图像所覆盖的大部分场景空间都是相同的,利用全景图像间的空间相关性对图像进行压缩,通过相机外参数计算出参考图像和预测图像的所有场景点,然后对场景点进行融合,判断预测图像新增加的场景点,对于预测图像仅保存新增加的场景点的相关信息,从而对全景图像的数据量进行压缩。
本发明与现有技术相比的优点在于:本发明充分利用了场景空间的相关性对全景数据进行压缩,根据相机的外参数,计算出预测图像相对于参考图像新增加的场景点,参考图像保存了整个图像的场景点,预测图像仅存储新增加的场景点,从而减少全景数据的数据量,提高了全景数据的压缩比。
附图说明
图1为本发明中参考图像和预测图像的空间相关性的示意图;
图2为本发明空间相关的全景数据压缩方法的流程图;
图3为本发明中全景图像场景点生成的示意图;
图4为本发明中利用空间相关性对场景点进行融合的示意图。
具体实施方法
下面结合附图和实施例对本发明作进一步详细的描述:
本发明将连续采集的全景图像分为参考图像和预测图像。参考图像和预测图像具体可以按照固定比率(如1:5、1:10、1:15等),也可以根据相机的平移量,按照相机相对于当前参考图像的位置进行划分。参考图像保存整幅图像本身的颜色信息以及相应的深度信息,通过参考图像可以获取整幅图像所对应的场景点。预测图像保存了相对于参考图像的场景点增量信息,其增量信息包括新增加的场景点的位置信息和颜色信息。预测图像可以根据相机的位置和方向利用空间相关性通过参考图像和场景点增量信息生成。对于连续采集的多幅全景图像来说,本发明利用场景的空间相关性对全景图像进行压缩。
在介绍本发明的具体实施步骤之前,对参考图像和预测图像的空间相关性进行说明。如图1所示,把参考图像11和预测图像12到映射单位球面上,对于出现在参考图像11和预测图像12中的同一个场景点X,该场景点在参考图像11和预测图像12上投影分别为P点和Q点,则P点和Q点的坐标变换如公式(1)所示。
Q = R ( l * P - T ) | R ( l * P - T ) | - - - ( 1 )
在公式(1)中,R和T是预测图像相对于参考图像的相机外参数13的旋转矩阵和平移量,1是在参考图像11中场景点X的深度值14,即场景点X与参考图像11相机中心0的距离。相机外参数的旋转矩阵R和平移量T如公式(2)所示。
Figure A200910081023D00062
T=[tx ty tz]T
在公式(2)中,(α,β,γ)表示相机绕X方向、Y方向和Z方向的旋转量,(tx,ty,tz)表示相机沿X方向、Y方向和Z方向的平移量。
场景点X在预测图像12中的投影点Q,可以根据预测图像相对于参考图像的相机外参数13和场景点X的深度值14,利用参考图像11和预测图像12的场景空间相关性,从参考图像11生成。
本发明利用空间相关性的全景数据压缩方法的流程如图2所示,其步骤如下:
(1)使用Structure From Motion(运动结构重建)算法获取预测图像相对于参考图像的相机外参数,包括相机的旋转矩阵R和平移量T,也可以采用其它方法获取相机外参数。
上述的运动结构重建算法主要包括以下步骤:首先,提取参考图像和预测图像的特征点,例如KLT(Kanade-Lucas-Tomasi)特征点,并根据特征点的描述子信息寻找相邻两幅图像中匹配的特征点;其次,根据特征点的匹配关系计算相邻两幅图像的相机外参数;然后,根据相邻两幅图像之间的相机外参数,计算所有图像相对参考图像的相机外参数;最后,对所有的相机外参数进行捆绑调整。
(2)完成步骤(1)以后,使用Plane Sweeping(平扫)算法获取参考图像和预测图像的深度信息,即图像中每一个像素点的深度值,也可以采用其它方法获取图像的深度信息。
上述的平扫算法主要包括以下步骤:首先,在空间中预定义一系列的平面,每一个平面对应一个深度值;然后,让图像中心与像素点所构成的射线与预定义的各平面相交,并计算各交点在其它图像上的投影点;最后,统计投影点与原像素点的颜色误差和,选取颜色误差和最小的交点所对应的平面的深度值作为原像素点的深度值。
(3)根据步骤(2)获取的深度信息,获取参考图像和预测图像各自的三维场景点。
如图3所示,P点是全景图像31上的一个像素点,1是像素点P相对于全景图像中心的深度32,(
Figure A200910081023D0007155826QIETU
θ)是像素点P的经纬度33,其中
Figure A200910081023D0007155826QIETU
的取值范围是(-π,π),θ的取值范围是(-π/2,π/2)。像素点P所对应的场景点X的三维坐标如公式(3)所示。
Figure A200910081023D00071
根据像素点的经纬度和深度信息,利用公式(3)可以生成全景图像中所有像素点所对应的场景点。
(4)根据步骤(1)获取的相机外参数,利用空间相关性对步骤(3)获取的场景点进行融合,得到预测图像新增加的场景点。
如图4所示,对于同时在参考图像41和预测图像42中投影的场景点X,X1是场景点X相对于参考图像中心的坐标44,X2是场景点X相对于预测图像中心的坐标45,则X1和X2的坐标变换如公式(4)所示。
X2=R(X1-T)     (4)
其中,R和T是预测图像相对于参考图像的相机外参数43的旋转矩阵和平移量。
根据公式(4),对预测图像的每一个场景点进行判断,如果存在一个参考图像的场景点与所述预测图像的场景点满足上述公式(4),则该预测图像的场景点不是新增加的场景点;如果不存在一个参考图像的场景与预测图像的场景点满足上述公式(4),则该预测图像的场景点是新增加的场景点。
对于已经在参考图像中存在的场景点,如图4中同时在参考图像41和预测图像42中投影的场景点X,这类点的深度和颜色信息只需要在参考图像中保存,而它们在预测图像中的投影点Q可以根据相机的旋转和平移利用空间相关性通过公式(1)生成。对于预测图像新增加的场景点,如图4中仅在预测图像42中投影的场景点Y,需要在预测图像42中保存新增加的场景点的位置和颜色。
(5)完成步骤(4)以后,对参考图像本身的颜色信息和深度信息以及预测图像新增加的场景点进行编码。对于参考图像本身的颜色信息采用JPEG标准压缩编码方式,其深度信息被组织成深度图像也采用JPEG标准压缩编码方式。对于预测图像新增加的场景点的位置信息和颜色信息采用HUFFMAN压缩编码。参考图像和预测图像的压缩编码也可以采用其它编码方法。
本发明中未详细阐述的部分属于本领域技术人员的公知技术。
最后所应说明的是,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明利用空间相关性对全景数据进行压缩前提下,还可以做出若干改进或等同替换,这些改进和等同替换也应视为本发明的保护范围。

Claims (4)

1、一种空间相关的全景数据压缩方法,其特征在于步骤如下:
(1)获取预测图像相对于参考图像的相机外参数,所述相机外参数包括相机的旋转矩阵R和平移量T;
(2)完成步骤(1)以后,获取参考图像和预测图像的深度信息,即图像中每一个像素点的深度值;
(3)根据步骤(2)的参考图像和预测图像的深度信息,获取参考图像和预测图像的场景点;
(4)根据步骤(1)获取的相机外参数,利用空间相关性对步骤(3)获取的参考图像和预测图像的场景点进行融合,得到预测图像新增加的场景点;
(5)完成步骤(4)以后,对参考图像本身的颜色信息和深度信息以及预测图像新增加的场景点进行编码,从而完成空间相关的全景数据压缩。
2、根据权利要求1所述的空间相关的全景数据压缩方法,其特征在于:所述步骤(3)中获取参考图像和预测图像场景点的方法为:根据参考图像和预测图像每个像素点的深度值1,利用下列公式(a)计算参考图像和预测图像每个像素点所对应的场景点的三维坐标(x,y,z),从而得到参考图像和预测图像的场景点:
其中,θ为像素点的纬度,
Figure A200910081023C00022
为像素点的经度,1为像素点的深度值。
3、根据权利要求1所述的空间相关的全景数据压缩方法,其特征在于:所述步骤(4)中根据相机外参数,利用空间相关性对参考图像和预测图像的场景点进行融合,得到预测图像相对于参考图像新增加的场景点的方法为:对预测图像的每一个场景点进行判断,如果存在参考图像的场景点与所述预测图像的场景点满足下述公式(b),则该预测图像的场景点不是新增加的场景点;如果不存在参考图像的场景点与该所述预测图像的场景点满足下述公式b,则该预测图像的场景点是新增加的场景点,
X2=R(X1-T)           (b)
其中,X1是参考图像的场景点相对于参考图像中心的坐标,X2是预测图像的场景点相对于预测图像中心的坐标,R和T是预测图像相对于参考图像的相机外参数的旋转矩阵和平移量。
4、根据权利要求1-3之一所述的空间相关的全景数据压缩方法,其特征在于:所述的参考图像保存整幅图像本身的颜色信息以及相应的深度信息,预测图像保存新增加的场景点的位置信息和颜色信息。
CN 200910081023 2009-03-27 2009-03-27 空间相关的全景数据压缩方法 Expired - Fee Related CN101521823B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200910081023 CN101521823B (zh) 2009-03-27 2009-03-27 空间相关的全景数据压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200910081023 CN101521823B (zh) 2009-03-27 2009-03-27 空间相关的全景数据压缩方法

Publications (2)

Publication Number Publication Date
CN101521823A true CN101521823A (zh) 2009-09-02
CN101521823B CN101521823B (zh) 2010-12-01

Family

ID=41082158

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200910081023 Expired - Fee Related CN101521823B (zh) 2009-03-27 2009-03-27 空间相关的全景数据压缩方法

Country Status (1)

Country Link
CN (1) CN101521823B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014036848A1 (en) * 2012-09-05 2014-03-13 Lg Electronics (China) R & D Center Co., Ltd. Depth picture intra coding /decoding method and video coder/decoder
WO2014048242A1 (zh) * 2012-09-29 2014-04-03 中兴通讯股份有限公司 预测图像生成方法和装置
CN104137544A (zh) * 2012-02-29 2014-11-05 三菱电机株式会社 图像编码装置、图像解码装置、图像编码方法以及图像解码方法
CN105933688A (zh) * 2015-10-26 2016-09-07 北京蚁视科技有限公司 一种基于全景图显示的图像存储方法
WO2018059500A1 (zh) * 2016-09-30 2018-04-05 华为技术有限公司 运动补偿预测方法和设备
CN109819233A (zh) * 2019-01-21 2019-05-28 哈工大机器人(合肥)国际创新研究院 一种基于虚拟成像技术的数字孪生系统
CN111161404A (zh) * 2019-12-23 2020-05-15 华中科技大学鄂州工业技术研究院 一种环形扫描形貌三维重建方法、装置及系统
CN111462311A (zh) * 2020-03-31 2020-07-28 北京小米松果电子有限公司 全景图生成方法及装置、存储介质
US10779000B2 (en) 2016-09-30 2020-09-15 Huawei Technologies Co., Ltd. Motion-compensated prediction method and apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100700218B1 (ko) * 2004-08-13 2007-03-27 경희대학교 산학협력단 파노라마 영상의 움직임 추정 및 보상을 위해 가상 영상영역을 생성하는 방법 및 장치
KR100732958B1 (ko) * 2004-08-13 2007-06-27 경희대학교 산학협력단 20면체 파노라마 영상의 부호화 및 복호화를 위한 방법 및장치
CN100388792C (zh) * 2006-04-24 2008-05-14 李博航 一种提高信息编解码效率的图像处理方法
CN100553347C (zh) * 2006-10-26 2009-10-21 上海交通大学 立体视觉系统的场景深度恢复和三维重建方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104137544A (zh) * 2012-02-29 2014-11-05 三菱电机株式会社 图像编码装置、图像解码装置、图像编码方法以及图像解码方法
CN104137544B (zh) * 2012-02-29 2017-10-20 三菱电机株式会社 图像编码装置、图像解码装置、图像编码方法以及图像解码方法
CN103686165A (zh) * 2012-09-05 2014-03-26 乐金电子(中国)研究开发中心有限公司 深度图像帧内编解码方法及视频编解码器
WO2014036848A1 (en) * 2012-09-05 2014-03-13 Lg Electronics (China) R & D Center Co., Ltd. Depth picture intra coding /decoding method and video coder/decoder
CN103686165B (zh) * 2012-09-05 2018-01-09 乐金电子(中国)研究开发中心有限公司 深度图像帧内编解码方法及视频编解码器
US10154282B2 (en) 2012-09-29 2018-12-11 Shanghai Zhongxing Software Company Limited Method and device for generating predicted pictures
WO2014048242A1 (zh) * 2012-09-29 2014-04-03 中兴通讯股份有限公司 预测图像生成方法和装置
US10708619B2 (en) 2012-09-29 2020-07-07 Xi'an Zhongxing New Software Co., Ltd. Method and device for generating predicted pictures
CN105933688A (zh) * 2015-10-26 2016-09-07 北京蚁视科技有限公司 一种基于全景图显示的图像存储方法
CN105933688B (zh) * 2015-10-26 2018-05-04 北京蚁视科技有限公司 一种基于全景图显示的图像存储方法
WO2018059500A1 (zh) * 2016-09-30 2018-04-05 华为技术有限公司 运动补偿预测方法和设备
US10779000B2 (en) 2016-09-30 2020-09-15 Huawei Technologies Co., Ltd. Motion-compensated prediction method and apparatus
CN109819233A (zh) * 2019-01-21 2019-05-28 哈工大机器人(合肥)国际创新研究院 一种基于虚拟成像技术的数字孪生系统
CN109819233B (zh) * 2019-01-21 2020-12-08 合肥哈工热气球数字科技有限公司 一种基于虚拟成像技术的数字孪生系统
CN111161404A (zh) * 2019-12-23 2020-05-15 华中科技大学鄂州工业技术研究院 一种环形扫描形貌三维重建方法、装置及系统
CN111161404B (zh) * 2019-12-23 2023-05-09 华中科技大学鄂州工业技术研究院 一种环形扫描形貌三维重建方法、装置及系统
CN111462311A (zh) * 2020-03-31 2020-07-28 北京小米松果电子有限公司 全景图生成方法及装置、存储介质
CN111462311B (zh) * 2020-03-31 2023-10-24 北京小米松果电子有限公司 全景图生成方法及装置、存储介质

Also Published As

Publication number Publication date
CN101521823B (zh) 2010-12-01

Similar Documents

Publication Publication Date Title
CN101521823B (zh) 空间相关的全景数据压缩方法
CN111615715B (zh) 编码/解码体积视频的方法、装置和流
CN104301677B (zh) 面向大场景的全景视频监控的方法及装置
US20190141323A1 (en) Video image encoding method and apparatus, and video image decoding method and apparatus
CN100576934C (zh) 基于深度和遮挡信息的虚拟视点合成方法
CN111527752B (zh) 图像编码和解码的方法和装置以及存储比特流的记录介质
CN108377377A (zh) 球面或者立方体图像序列的视频编码或者解码方法及装置
CN102905150B (zh) 一种新的多视点视频分形编码压缩与解压缩方法
JP7407703B2 (ja) 3dシーンの点を生成するための方法およびデバイス
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN104715496B (zh) 云环境下基于三维点云模型的图像预测方法、系统及装置
CN101350920A (zh) 一种面向全景视频的全局运动估计方法
CN103402097B (zh) 一种自由视点视频深度图编码方法及其失真预测方法
CN107426491B (zh) 一种360度全景视频的实现方法
CN105681805A (zh) 视频编码、解码方法及其帧间预测方法和装置
CN111667438B (zh) 视频重建方法、系统、设备及计算机可读存储介质
CN103873867B (zh) 自由视点视频深度图失真预测方法和编码方法
BR102020020345A2 (pt) Método para compressão de nuvens de pontos
CN103561267A (zh) 基于运动信息与深度信息的3d视频编码传输方法
CN102611893A (zh) 基于直方图匹配和sad判决的dmvc边信息融合方法
CN102316323B (zh) 一种快速的双目立体视频分形压缩与解压缩方法
CN106791869B (zh) 基于光场子孔径图像相对位置关系的快速运动搜索方法
CN116071412A (zh) 融合全尺度和相邻帧特征信息的无监督单目深度估计方法
JP7171169B2 (ja) ライトフィールド・コンテンツを表す信号を符号化する方法および装置
CN101547363B (zh) 一种空间相关的全景数据恢复方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20101201

Termination date: 20130327