CN104768018A - 一种基于深度图的快速视点预测方法 - Google Patents

一种基于深度图的快速视点预测方法 Download PDF

Info

Publication number
CN104768018A
CN104768018A CN201510057153.4A CN201510057153A CN104768018A CN 104768018 A CN104768018 A CN 104768018A CN 201510057153 A CN201510057153 A CN 201510057153A CN 104768018 A CN104768018 A CN 104768018A
Authority
CN
China
Prior art keywords
viewpoint
depth
depth map
point
reference view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510057153.4A
Other languages
English (en)
Other versions
CN104768018B (zh
Inventor
杨柏林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN201510057153.4A priority Critical patent/CN104768018B/zh
Publication of CN104768018A publication Critical patent/CN104768018A/zh
Application granted granted Critical
Publication of CN104768018B publication Critical patent/CN104768018B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于深度图的快速视点预测方法。本发明首先,根据初始视点绘制生成当前视点v0下的深度图获取深度图右边界处的深度信息,遍历此深度信息获得深度最小值及对应的点像素位置(xl,yl)。然后,根据这个深度最小值及点像素位置(xl,yl),求取得到其在世界中间的位置信息(xt,yt,zt),并根据此信息求得移动初始视点的距离r,使得(xt,yt,zt)位置处的点刚好投影到新视点下的图像的最左边界。最后,根据求得的移动初始视点的距离r,最终计算得到预测的参考视点vr。本发明既能够实现参考视点的快速预测,又能保证预测视点不会出现过大或者过小的情况。

Description

一种基于深度图的快速视点预测方法
技术领域
本发明属于无线网络中移动设备端绘制三维图形的多媒体技术领域,特别涉及一种基于深度图的快速视点预测方法。
背景技术
随着手机硬件迅速发展,计算处理能力越来越强,手机的功能越来越强大,计算机三维图形应用程序也慢慢出现在手机上,如移动三维游戏、移动三维虚拟展示与漫游和移动增强现实系统等应用近几年得到快速发展。然而,由于手机运算能力及硬件方面的限制的问题,使得手机上面只能运行小规模场景的三维图形应用程序,对大型场景、精细模型、高级特效的绘制显得无能为力。
基于图像的远程绘制是一种解决此问题的可行方法。在此方法中,服务端完成海量复杂三维场景的绘制和计算,并将绘制后的图像传输到移动客户端。可以看出,此方法中远程客户端不需要任何3D图形处理能力即可得到具有强烈真实感三维效果。通常,基于图像的远程绘制方法主要有基于图像替代物(image impostor)、环境图(Environment Map)和深度图(Depth Map)三种方法。
基于图像替代物的方法在服务端仅需要生成一种单精度渲染图像,而客户端也只需发出简单的交互命令即可完成远程绘制。然而,此方法的主要缺陷在于每帧的绘制,都需要与服务器进行通信传输新视点下的图像,交互时延较长,不能满足实时交互的需求。
基于环境图方法通常被应用于简化复杂的三维场景中的背景部分。此方法的服务端可以对于一个给定的视点位置产生一个360度的全景环境图,而此图在客户端可以被投影为任意视角方向下的标准图像,从而使客户端用户可以360度任意漫游。然而,当用户使用此方法进行三维漫游时部分区域会产生较大的图像变形失真现象。
基于深度图的绘制方法中,服务端根据当前视点预测出多个参考视点,绘制生成参考视点下的颜色图和深度图并将其传输给客户端。客户端根据 参考视点的深度图和颜色图,采用3D Warp算法合成当前新视点下的绘制图像。这种方法能保证当前视点在参考视点范围内的时候不需要传输新的图像数据,只根据参考视点的深度图和颜色图便可无延迟的生成绘制新视点下的图像。
基于深度图的绘制方法中,有两种参考点预测算法,基于全搜索的方法和基于预测的快速预测方法。基于全搜索能够获得较为精准的参考视点,但是,此绘预测算法在预测过程中需要不断的绘制场景的颜色图和深度图,其运行时间与绘制场景成正比,当场景较大时,算法运行时间甚至达到十几分钟,不满足实时交互式需求。基于预测的快速预测方法可以快速计算出参考视点,获得实时预测效果,但是算法并不能获得精确的参考视点,经常会出现预测视点范围过大或者过小的特殊情况。
发明内容
本发明针对现有方法中预测视点过大或者过小的特殊情况,提出了一种基于边缘深度的快速预测方法,能快速预测参考视点,使预测的参考视点vr与初始参考vl刚好能覆盖vl到vr视点间所有区域,不会出现预测视点过大或者过小的情况。
本发明解决其技术问题所采用的技术方案如下:
本发明首先,根据初始视点绘制生成当前视点v0下的深度图获取深度图右边界处的深度信息,遍历此深度信息获得深度最小值及对应的点像素位置(xl,yl)。然后,根据这个深度最小值及点像素位置(xl,yl),求取得到其在世界中间的位置信息(xt,yt,zt),并根据此信息求得移动初始视点的距离r,使得(xt,yt,zt)位置处的点刚好投影到新视点下的图像的最左边界。最后,根据求得的移动初始视点的距离r,最终计算得到预测的参考视点vr
本发明与背景技术相比,具有的有益的效果是:本发明适用于基于深度图绘制方法中参考视点预测,既能够实现参考视点的快速预测,又能保证预测视点不会出现过大或者过小的情况。
附图说明
图1为视点预测过大会导致参考视点间有部分未被覆盖的区域;
图2为左参考视点下图像最右边的像素都能在右参考视点下捕获。
具体实施方式
以下结合附图对本发明作进一步说明:
传统的快速预测方法中,由于用计算空洞值大小时使用的是部分空洞,因此可能造成求取的空洞值会大于或小于实际产生的误差(空洞),最终造成预测视点值过大或过小,视点预测过大会导致参考视点间有部分未被覆盖的区域(如图1),造成合成目标视点图像质量差,视点预测过小,会导致客户端频繁请求数据,增大延迟。通过分析发现,在预测参考视点时,如果vl参考视点下图像最右边边缘的像素都能在右参考视点vr下捕获到(如图2),那么这两个参考视点的图像在经过WARPING融合后就不会因为捕获不到的空白区域的存在而出现大的“空洞”,同时存在一个临界点参考视点,这个视点恰好覆盖初始参考视点的边界区域,则这个临界视点与初始视点距离也不会出现过小的情况。基于此事实,通过下列具体方法完成基于深度边界的视点选取。本方法的具体实施步骤如下:
首先,根据初始视点绘制生成当前视点vl下的深度图,获取深度图右边界处的深度信息depth,遍历此深度信息获得深度最小值dmin及其对应的点像素位置(xl,yl)。
然后,根据这个深度最小值dmin及点像素位置(xl,yl),求取得到其在世界中间的位置信息(xt,yt,zt),并根据此信息求得移动初始视点的距离r,使得(xt,yt,zt)位置处的点刚好投影到新视点下的图像的最左边界。此时,这里定义f(x0,dl)为将二维空间图像上位置为(x0,ymax)及深度为dl的点映射到三维空间的函数。
f(x0,dl)=x0*dl/q,0<y<h       公式(1)
其中h代表图像高度,q代表焦距。
为保证vl参考视点下最右边界的像素都可以在vr视点下看到,则将vl视点下的最右边像素映射到vr视点下的三维空间中,并保证这个点的位置在vr视点的摄像机空间范围内。通过公式(2)完成上述功能。
f(d0,dl)-m*i≥f(xl,dl)   0<y<MAXm,0<y<h  公式(2)
其中m代表视点移动的单位距离,i代表左参考视点到右参考视点的移动距离,q代表摄像机焦距,x0表示图像上X方向上的最左边的坐标位置(一般为零),x1表示图像上X方向上的最右边的坐标位置(一般为图像宽度减1)。
由公式(2)可得从视点vl到视点vr的移动距离i:
i≤(x1-x0)·dl/q·m
则当dl为最小值dmin时,(x1-x0)·dmin/q·m取得最小值。因此满足条件的i的最大值为(x1-x0)·dmin/q·m。
最后,根据求得的移动移动初始视点的移动距离r(r=i*m),得到预测的参考视点vr=vl+r。

Claims (1)

1.一种基于深度图的快速视点预测方法,其特征在于:
步骤1,根据初始视点绘制生成当前视点vl下的深度图,获取深度图右边界处的深度信息depth,遍历此深度信息获得深度最小值dmin及其对应的点像素位置(xl,yl);
步骤2,根据深度最小值dmin及点像素位置(xl,yl),求取得到其在世界中间的位置信息(xt,yt,zt),并根据此信息求得移动初始视点的距离r,使得(xt,yt,zt)位置处的点刚好投影到新视点下的图像的最左边界;定义f(x0,dl)为将二维空间图像上位置为(x0,ymax)及深度为dl的点映射到三维空间的函数,则
f(x0,dl)=x0*dl/q,0<y<h      公式(1)
其中h代表图像高度,q代表摄像机焦距;
为保证vl参考视点下最右边界的像素都可以在vr视点下看到,则将vl视点下的最右边像素映射到vr视点下的三维空间中,并保证这个点的位置在vr视点的摄像机空间范围内,得到:
f(d0,dl)-m*i≥f(xl,dl) 0<y<MAXm,0<y<h   公式(2)
其中m代表视点移动的单位距离,i代表左参考视点到右参考视点的移动距离,x0表示图像上X方向上的最左边的坐标位置,x1表示图像上X方向上的最右边的坐标位置;
由公式(2)可得从视点vl到视点vr的移动距离i:
i≤(x1-x0)·dl/q·m
则当dl为最小值dmin时,(x1-x0)·dmin/q·m取得最小值;因此满足条件的i的最大值为(x1-x0)·dmin/q·m;
步骤3,根据求得的移动移动初始视点的移动距离r,r=i*m,得到预测的参考视点vr=vl+r。
CN201510057153.4A 2015-02-04 2015-02-04 一种基于深度图的快速视点预测方法 Active CN104768018B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510057153.4A CN104768018B (zh) 2015-02-04 2015-02-04 一种基于深度图的快速视点预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510057153.4A CN104768018B (zh) 2015-02-04 2015-02-04 一种基于深度图的快速视点预测方法

Publications (2)

Publication Number Publication Date
CN104768018A true CN104768018A (zh) 2015-07-08
CN104768018B CN104768018B (zh) 2016-09-21

Family

ID=53649574

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510057153.4A Active CN104768018B (zh) 2015-02-04 2015-02-04 一种基于深度图的快速视点预测方法

Country Status (1)

Country Link
CN (1) CN104768018B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074681A (zh) * 2016-04-18 2018-12-21 索尼公司 信息处理装置、信息处理方法和程序
CN109257584A (zh) * 2018-08-06 2019-01-22 上海交通大学 360度视频传输的用户观看视点序列预测方法
WO2020259682A1 (zh) * 2019-06-28 2020-12-30 上海交通大学 基于三维点云的初始视角控制和呈现方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100337252C (zh) * 2002-03-25 2007-09-12 汤姆森许可贸易公司 用于建模3d场景的方法
CN101937578A (zh) * 2010-09-08 2011-01-05 宁波大学 一种虚拟视点彩色图像绘制方法
CN103002306A (zh) * 2012-11-27 2013-03-27 宁波大学 一种深度图像编码方法
US8675040B2 (en) * 2010-12-21 2014-03-18 Electronics And Telecommunications Research Institute Method and device for adjusting depth perception, terminal including function for adjusting depth perception and method for operating the terminal
CN104077796A (zh) * 2013-03-28 2014-10-01 北京京东方光电科技有限公司 一种将二维图像转换为三维图像的方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100337252C (zh) * 2002-03-25 2007-09-12 汤姆森许可贸易公司 用于建模3d场景的方法
CN101937578A (zh) * 2010-09-08 2011-01-05 宁波大学 一种虚拟视点彩色图像绘制方法
US8675040B2 (en) * 2010-12-21 2014-03-18 Electronics And Telecommunications Research Institute Method and device for adjusting depth perception, terminal including function for adjusting depth perception and method for operating the terminal
CN103002306A (zh) * 2012-11-27 2013-03-27 宁波大学 一种深度图像编码方法
CN104077796A (zh) * 2013-03-28 2014-10-01 北京京东方光电科技有限公司 一种将二维图像转换为三维图像的方法和装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074681A (zh) * 2016-04-18 2018-12-21 索尼公司 信息处理装置、信息处理方法和程序
CN109074681B (zh) * 2016-04-18 2023-03-21 索尼公司 信息处理装置、信息处理方法和程序
CN109257584A (zh) * 2018-08-06 2019-01-22 上海交通大学 360度视频传输的用户观看视点序列预测方法
CN109257584B (zh) * 2018-08-06 2020-03-10 上海交通大学 360度视频传输的用户观看视点序列预测方法
WO2020259682A1 (zh) * 2019-06-28 2020-12-30 上海交通大学 基于三维点云的初始视角控制和呈现方法及系统
US11836882B2 (en) 2019-06-28 2023-12-05 Shanghai Jiao Tong University Three-dimensional point cloud-based initial viewing angle control and presentation method and system

Also Published As

Publication number Publication date
CN104768018B (zh) 2016-09-21

Similar Documents

Publication Publication Date Title
CN107292965B (zh) 一种基于深度图像数据流的虚实遮挡处理方法
CN106780576B (zh) 一种面向rgbd数据流的相机位姿估计方法
US9299152B2 (en) Systems and methods for image depth map generation
US9117310B2 (en) Virtual camera system
US9361660B2 (en) Image processing device and method, supplement image generation device and method, program, and recording medium
CN106548516B (zh) 三维漫游方法和装置
CN103198488B (zh) Ptz监控摄像机实时姿态快速估算方法
CN103400409A (zh) 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法
CN103810685A (zh) 一种深度图的超分辨率处理方法
CN111539973A (zh) 用于检测车辆位姿的方法及装置
CN103250184A (zh) 基于全局运动的深度估计
EP3533218B1 (en) Simulating depth of field
CN108961423B (zh) 虚拟信息处理方法、装置、设备及存储介质
JP2015114905A (ja) 情報処理装置、情報処理方法およびプログラム
JP2021056679A (ja) 画像処理装置、方法及びプログラム
CN104768018A (zh) 一种基于深度图的快速视点预测方法
KR101125061B1 (ko) Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
CN114935316B (zh) 基于光学跟踪与单目视觉的标准深度图像生成方法
Narducci et al. Enabling consistent hand-based interaction in mixed reality by occlusions handling
CN104766363B (zh) 基于深度图绘制的多方向参考视点的warping方法
TW201608480A (zh) 三維成型可靠點之選擇方法和裝置以及電腦可讀式儲存媒體
CN108647222B (zh) 一种线路三维漫游热点图标定位方法及系统
CN108769458A (zh) 一种深度视频场景分析方法
US11145109B1 (en) Method for editing computer-generated images to maintain alignment between objects specified in frame space and objects specified in scene space
US11677923B1 (en) Method for image processing of image data for high-resolution images on a two-dimensional display wall

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant