CN101556696B - 基于阵列摄像机的深度图实时获取算法 - Google Patents

基于阵列摄像机的深度图实时获取算法 Download PDF

Info

Publication number
CN101556696B
CN101556696B CN2009100987900A CN200910098790A CN101556696B CN 101556696 B CN101556696 B CN 101556696B CN 2009100987900 A CN2009100987900 A CN 2009100987900A CN 200910098790 A CN200910098790 A CN 200910098790A CN 101556696 B CN101556696 B CN 101556696B
Authority
CN
China
Prior art keywords
depth
visible light
camera
depth map
light camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009100987900A
Other languages
English (en)
Other versions
CN101556696A (zh
Inventor
于慧敏
吴嘉
周颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2009100987900A priority Critical patent/CN101556696B/zh
Publication of CN101556696A publication Critical patent/CN101556696A/zh
Application granted granted Critical
Publication of CN101556696B publication Critical patent/CN101556696B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种基于阵列摄像机的深度图实时获取算法,其摄像机阵列包含一个3D摄像机和若干个可见光摄像机,本算法根据3D摄像机提供的低分辨率深度图,来得到每个可见光摄像机视点上的高分辨率深度图,本算法的步骤为:首先,对摄像机阵列进行标定,将3D摄像机深度图投影到每个可见光摄像机视野下,得到可见光摄像机视野下的初始深度图;其次,用本算法中定义的新的融合了颜色信息和初始深度信息的能量函数,以可见光摄像机彩色图或灰度图为参考,迭代的修正初始深度图,得到最终的高分辨率深度图。本算法是一种能实时地获得普通摄像机视野下的高分辨率深度图的方法,它可以满足立体电视、虚拟现实等多方面应用的需求。

Description

基于阵列摄像机的深度图实时获取算法
技术领域
本发明涉及一种三维深度信息获取系统,特别涉及一种基于阵列摄像机的深度图获取算法。
背景技术
近年来,三维深度信息的获取已经成为计算机视觉领域一个非常热门的研究方向,国内外的许多机构和专家已经做了大量相关的工作,提出一些方法和技术。但是,这些方法和技术都存在着各自的缺点,尚没有一个方法或者技术能够满足各方面的应用,所以在深度信息的获取方面仍然存在着很多挑战。
传统的基于可见光摄像机阵列的立体匹配方法,虽然在理论上是完美的,但是在实际应用中,因为无法找到准确的匹配点,该方法对于无纹理的平面区域、渐变的曲面无能为力。再加上传统的深度信息获取传感器是逐点扫描的,无法达到实时的要求,这导致该项技术只能用于静态的场景。因此,立体匹配方法和传统的深度信息获取传感器在应用方面受到了极大的限制。
随着新的传感器技术的发展,使实时获取动态场景的深度信息成为可能,例如:Time-of-Flight。这些新的传感器技术采用极其快速的快门,通过向整个场景中每一点发送脉冲式光波,并检测其反射回来的光波,来计算这两种光波之间的时延来估算场景中每一点和传感器之间的距离。这种传感器目前已经得到了一定的应用,但它也有如下不足之处:在边缘的地方深度信息不准,对噪声、物体的材料敏感,不容易被标定,以及分辨率低等。
由于传统的立体匹配在纹理丰富的区域可以求到准确的深度值,而3D摄像机可以在平坦的颜色均一的区域提供准确的深度数据,利用3D摄像机和可见光摄像机一起来获得深度信息成为一种趋势。已有的技术中,采用双边滤波器或者马尔可夫随机场的方法,来得到高分辨率的深度图,这些方法是建立在深度的不连续性和颜色的不连续性基本一致的假设的基础上。它们对高分辨率深度图中的每一点都进行处理,这往往会破环平坦区域的3D原始数据,并且在具有近似相同深度值但处于纹理丰富区域的那些点上无法得到好的效果,会形成不必要的深度突变。而且,它对高分辨率深度图的每个点都进行处理,也很难满足实时的要求。
发明内容:
本发明的目的在于提供一种可以实时地获得普通摄像机视野下的高分辨率深度图的方法,它可以满足立体电视、虚拟现实等多方面应用的需求。
为此,本发明提出一种基于阵列摄像机的深度图获取算法,其摄像机阵列包含一个3D摄像机和若干个可见光摄像机,本算法根据3D摄像机提供的低分辨率深度图,来得到每个可见光摄像机视点上的高分辨率深度图,本算法步骤为:首先,对摄像机阵列进行标定,将3D摄像机深度图投影到每个可见光摄像机视野下,得到可见光摄像机视野下的初始深度图;然后,用本算法中定义的新的融合了颜色信息和初始深度信息的能量函数,以可见光摄像机彩色图或者灰度图为参考,迭代的修正初始深度图,得到最终的高分辨率深度图。
所述高分辨率深度图的分辨率高于3D摄像机提供的深度图。优选为,所述所述高分辨率深度图的分辨率为3D摄像机提供的深度图的2倍。
在进行可见光摄像机视野下深度图的获取之前,要对每个可见光摄像机和3D摄像机进行标定,得到将3D摄像机低分辨率深度图投影到每个可见光摄像机视野下的参数,即平移矩阵 T = t 1 ij t 2 ij t 3 ij 和旋转矩阵 R = r 11 ij r 12 ij r 13 ij r 21 ij r 22 ij r 23 ij r 31 ij r 32 ij r 33 ij .
在标定以后,用本发明中提出的算法来生成每个可见光摄像机视野下的高分辨率的深度图。对于每个可见光摄像机,算法只用到了该可见光摄像机视野下的高分辨率彩色图或灰度图以及3D摄像机的深度图。
首先,利用标定时得到的参数将3D摄像机的低分辨率深度图投影到可见光摄像机视野下,得到每个可见光摄像机视点上的初始高分辨率深度图。进一步的,用离每个无深度值的点最近的有深度值的点的深度值,对初始高分辨率深度图中的那些无深度值的点进行填充,得到完整的初始深度图。
然后,定义了一个融合了颜色信息和初始深度信息的能量函数,以对应的可见光摄像机的高分辨率彩色图或者灰度图为参考,对每个初始高分辨率深度图进行迭代修正。
在每次迭代中,首先,根据深度图中的像素点和其四个相邻像素点之间深度值之差的最大值,将上一次迭代后得到的深度图中的像素点分为可靠点和不可靠点两类;然后,针对这些不可靠点,用能量函数来修正这些点的深度值;能量函数定义为:
E ( i , j , Z t ( i , j ) ) = Σ u = - M / 2 M / 2 Σ v = - N / 2 N / 2 a ( i + u , j + v ) ·
e - b · C ( i + u , j + v ) · ( Z t ( i , j ) - Z t - 1 ( i + u , j + v ) ) 2
其中:
a ( i + u , j + v ) = 1.2 if D max < &eta; 0.2 esle
若以可见光摄像机彩色图为参考:
C ( i + u , j + v ) = 1 3 ( | R ( i + u , j + v ) - R ( i , j ) | + | G ( i + u , j + v ) - G ( i , j ) | + | B ( i + u , j + v ) - B ( i , j ) | )
以可见光摄像机灰度图为参考:
C(i+u,j+v)=|I(i+u,j+v)-I(i,j)|
(i,j)为可见光摄像机视野下深度图中的一点,Zt(i,j)为第t次迭代中要计算的该点的深度值,Zt-1(i+u,j+v)为点(i+u,j+v)经过t-1次迭代后得到的深度值,RGB是可见光摄像机彩色图的三个颜色通道,I为可见光摄像机灰度图的灰度值,Dmax是点(i+u,j+v)和其相邻的四个像素点深度值之差的最大值,M×N是以点(i,j)为中心的窗口的大小,b和η是常数。
以能量函数最小为原则,对那些不可靠点的深度值进行修正,在每个可见光摄像机视点上,该迭代过程持续到最终高分辨率深度图无明显变化为止。
本发明的优点是:
1、提出了一种基于阵列摄像机的深度图实时获取算法,该算法能根据3D摄像机得到的低分辨率深度图,得到阵列中每个可见光摄像机视点上的高分辨率深度图。
2、本发明中的算法速度快,能得到255级高分辨率深度图,且实现简单,整个过程自动完成。
附图说明:
图1为本发明的一种基于阵列摄像机的深度图实时获取算法实施例的总流程图;
图2为图1中的投影模块流程图;
图3为图1中的迭代修正模块流程图。
具体实施方式:
下面,结合附图和具体实施例对本发明作进一步说明。
该实施例中用到的可见光摄像机采用CCD传感器,可以提供分辨率为768×576的彩色图或者灰度图,用到的3D摄像机为Swiss Ranger 3000(TOF摄像机),可以提供分辨率为176×144的深度图和灰度图。
摄像机阵列具体的标定方法是:首先,对每个CCD摄像机的灰度图进行下采样,使其分辨率为384×288,并对TOF摄像机的灰度图进行上采样,使其分辨率达到352×288;然后,采用传统的平板摄像机的标定方法对每个CCD摄像机和TOF摄像机进行标定(张正友平板摄像机标定法),得到从TOF摄像机投影到每个CCD摄像机的参数:平移矩阵 T = t 1 ij t 2 ij t 3 ij 和旋转矩阵 R = r 11 ij r 12 ij r 13 ij r 21 ij r 22 ij r 23 ij r 31 ij r 32 ij r 33 ij .
本实施例算法的总流程图见图1,具体做法分为以下三步:第一步通过投影得到CCD摄像机视野下的初始高分辨率深度图,投影部分的流程图见图2;第二步和第三步属于迭代模块,通过对初始深度图的迭代修正来得到最终的高分辨率深度图,迭代模块的流程图见图3。
第一步:由于标定是在384×288的灰度图和352×288的深度图之间完成的,所以将TOF深度图上采样到354×288;然后利用标定时得到的参数 T = t 1 ij t 2 ij t 3 ij R = r 11 ij r 12 ij r 13 ij r 21 ij r 22 ij r 23 ij r 31 ij r 32 ij r 33 ij 将上采样过的TOF深度图投影到普通摄像机视野下,公式为:
x j = r 11 ij &CenterDot; x i + r 12 ij &CenterDot; y i + r 13 ij &CenterDot; z i + t 1 ij y j = r 21 ij &CenterDot; x i + r 22 ij &CenterDot; y i + r 23 ij &CenterDot; z i + t 2 ij z j = r 31 ij &CenterDot; x i + r 32 ij &CenterDot; y i + r 33 ij &CenterDot; z i + t 3 ij
(xi,yi,zi)为TOF深度图中的一点,(xj,yj,zj)为CCD摄像机视野下的投影点。这样就得到了分辨率为384×288的初始深度图。由于遮挡和分辨率不同,该初始深度图中存在着一些没有深度值的点,通过将离这些点最近的有深度值的点的深度值赋给这些点来得到完整的初始深度图。
第二步:定义一个分类器将初始深度图中的像素点分为可靠点和不可靠点两类,分类器定义如下:
Figure G2009100987900D00055
其中Dmax(i,j)是点(i,j)和与其相邻的四个点的深度值之差的最大值,η为一常数。
第三步:针对第二步得到的那些不可靠点,定义了一个融合了颜色数据和深度数据的能量函数,来迭代的修正这些点。能量函数定义如下:
E ( i , j , Z t ( i , j ) ) = &Sigma; u = - M / 2 M / 2 &Sigma; v = - N / 2 N / 2 a ( i + u , j + v ) &CenterDot;
e - b &CenterDot; C ( i + u , j + v ) &CenterDot; ( Z t ( i , j ) - Z t - 1 ( i + u , j + v ) ) 2
其中:
a ( i + u , j + v ) = 1.2 if D max < &eta; 0.2 esle
若以可见光摄像机彩色图为参考:
C ( i + u , j + v ) = 1 3 ( | R ( i + u , j + v ) - R ( i , j ) | + | G ( i + u , j + v ) - G ( i , j ) | + | B ( i + u , j + v ) - B ( i , j ) | )
以可见光摄像机灰度图为参考:
C(i+u,j+v)=|I(i+u,j+v)-I(i,j)|
(i,j)为可见光摄像机视野下深度图中的一点,Zt(i,j)为第t次迭代中要计算的该点的深度值,Zt-1(i+u,j+v)为点(i+u,j+v)经过t-1次迭代后得到的深度值,RGB是可见光摄像机彩色图的三个颜色通道,I为可见光摄像机灰度图的灰度值,Dmax是点(i+u,j+v)和其相邻的四个像素点深度值之差的最大值,M×N是以点(i,j)为中心的窗口的大小,b和η是常数。
在每次迭代过程中以能量函数最小为原则,得到那些不可靠点的迭代公式,对其深度值进行修正。
第二步和第三步是一个循环迭代的过程,在每次的迭代过程中,总是先找出上一次迭代得到的高分辨率深度图中那些不可靠的点,然后用能量函数来修正这些点,直至高分辨率深度图没有明显的变化为止。
运用该算法,可以得到摄像机阵列中每个CCD摄像机视点上的分辨率为384×288,深度等级为255的深度图。

Claims (4)

1.一种基于阵列摄像机的深度图的实时获取算法,所述阵列摄像机阵列包含一个3D摄像机和若干个可见光摄像机,本算法根据3D摄像机提供的低分辨率深度图,来得到每个可见光摄像机视野下的高分辨率深度图,其特征在于,本算法的步骤为:首先,对阵列摄像机进行标定,将3D摄像机深度图投影到每个可见光摄像机视野下,得到可见光摄像机视野下的初始深度图;其次,用本算法中定义的新的融合了颜色信息和初始深度信息的能量函数,以可见光摄像机彩色图或灰度图为参考,迭代的修正初始深度图,得到最终的高分辨率深度图;所述能量函数定义如下:
E ( i , j , Z t ( i , j ) ) = &Sigma; u = - M / 2 M / 2 &Sigma; v = - N / 2 N / 2 a ( i + u , j + v ) .
e - b + C ( i + u , j + v ) &CenterDot; ( Z t ( i , j ) - Z t - 1 ( i + u , j + v ) ) 2
其中:
a ( i + u , j + v ) = 1.2 if D max < &eta; 0.2 esle
若以可见光摄像机彩色图为参考:
G ( i + u , j + v ) = 1 3 ( | R ( i + u , j + v ) - R ( i , j ) | + | G ( i + u , j + v ) - G ( i , j ) | + | B ( i + u , j + v ) - B ( i , j ) | )
以可见光摄像机灰度图为参考:
C(i+u,j+v)=|I(i+u,j+v)-I(i,j)|
(i,j)为可见光摄像机视野下高分辨率深度图中的一点,zt(i,j)为第t次迭代中要计算的该点的深度值,zt-1(i+u,j+v)为点(i+u,j+v)经过t-1次迭代后得到的深度值,RGB是可见光摄像机彩色图的三个颜色通道,I为可见光摄像机灰度图的灰度值,Dmax是点(i+u,j+v)和其相邻的四个像素点深度值之差的最大值,M×N是以点(i,j)为中心的窗口的大小,b和η是常数。
2.如权利要求1所述的基于阵列摄像机的深度图的实时获取算法,其特征在于其得到可见光摄像机视野下初始深度图的步骤为:首先,对3D摄像机和每个可见光摄像机进行标定,得到每个可见光摄像机和3D摄像机之间转换的平移矩阵和旋转矩阵其次,利用这两个矩阵将3D摄像机得到的低分辨率深度图投影到每个可见光摄像机视野下,得到初始的高分辨率深度图。
3.如权利要求2所述的基于阵列摄像机的深度图的实时获取算法,其特征在于,在得到每个可见光摄像机视野下的初始深度图后,用离每个无深度值的点最近的有深度值的点的深度值,对这些无深度值的点进行填充,得到完整的初始深度图。
4.如权利要求1-3任一项所述的基于阵列摄像机的深度图的实时获取算法,其特征在于:在每次迭代中,若点(i,j)和其相邻的四个像素点深度值之差的最小值大于T,则用该能量函数对该点的深度值进行调整。
CN2009100987900A 2009-05-14 2009-05-14 基于阵列摄像机的深度图实时获取算法 Expired - Fee Related CN101556696B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100987900A CN101556696B (zh) 2009-05-14 2009-05-14 基于阵列摄像机的深度图实时获取算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100987900A CN101556696B (zh) 2009-05-14 2009-05-14 基于阵列摄像机的深度图实时获取算法

Publications (2)

Publication Number Publication Date
CN101556696A CN101556696A (zh) 2009-10-14
CN101556696B true CN101556696B (zh) 2011-09-14

Family

ID=41174801

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100987900A Expired - Fee Related CN101556696B (zh) 2009-05-14 2009-05-14 基于阵列摄像机的深度图实时获取算法

Country Status (1)

Country Link
CN (1) CN101556696B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI489418B (zh) * 2011-12-30 2015-06-21 Nat Univ Chung Cheng Parallax Estimation Depth Generation

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
EP2595116A1 (en) * 2010-05-07 2013-05-22 Telefónica, S.A. Method for generating depth maps for converting moving 2d images to 3d
CN102387374B (zh) * 2010-08-30 2015-07-29 三星电子株式会社 用于获得高精度深度图的设备和方法
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US8548270B2 (en) * 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US8773427B2 (en) 2010-12-22 2014-07-08 Sony Corporation Method and apparatus for multiview image generation using depth map information
US8532425B2 (en) * 2011-01-28 2013-09-10 Sony Corporation Method and apparatus for generating a dense depth map using an adaptive joint bilateral filter
IL216515A (en) 2011-11-22 2015-02-26 Israel Aerospace Ind Ltd A system and method for processing images from a camera set
CN102609977B (zh) * 2012-01-12 2014-07-16 浙江大学 基于深度融合和曲面演变的多视点三维重建方法
CN103440662B (zh) * 2013-09-04 2016-03-09 清华大学深圳研究生院 Kinect深度图像获取方法与装置
CN103440664B (zh) * 2013-09-05 2017-04-19 Tcl集团股份有限公司 一种生成高分辨率深度图的方法、系统及计算设备
CN103500471A (zh) * 2013-09-27 2014-01-08 深圳市中视典数字科技有限公司 实现高分辨率增强现实系统的方法
CN104780313A (zh) * 2015-03-26 2015-07-15 广东欧珀移动通信有限公司 一种图像处理的方法及移动终端
CN107534764B (zh) * 2015-04-30 2020-03-17 深圳市大疆创新科技有限公司 增强图像分辨率的系统及方法
TWI553591B (zh) * 2015-12-28 2016-10-11 緯創資通股份有限公司 深度影像處理方法及深度影像處理系統
CN108604371A (zh) 2016-02-25 2018-09-28 深圳市大疆创新科技有限公司 成像系统和方法
CN105869167A (zh) * 2016-03-30 2016-08-17 天津大学 基于主被动融合的高分辨率深度图获取方法
CN109905691A (zh) * 2017-12-08 2019-06-18 浙江舜宇智能光学技术有限公司 深度图像采集装置和深度图像采集系统及其图像处理方法
CN110349083A (zh) * 2018-04-08 2019-10-18 清华大学 一种基于深度相机旋转的图像超分辨方法和装置
CN113994382A (zh) * 2020-04-28 2022-01-28 深圳市大疆创新科技有限公司 深度图生成方法、电子设备、计算处理设备及存储介质
CN112700484B (zh) * 2020-12-31 2024-10-11 南京理工大学智能计算成像研究院有限公司 一种基于单目深度相机的深度图彩色化方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI489418B (zh) * 2011-12-30 2015-06-21 Nat Univ Chung Cheng Parallax Estimation Depth Generation

Also Published As

Publication number Publication date
CN101556696A (zh) 2009-10-14

Similar Documents

Publication Publication Date Title
CN101556696B (zh) 基于阵列摄像机的深度图实时获取算法
US11982775B2 (en) Systems and methods for augmentation of sensor systems and imaging systems with polarization
EP2887311B1 (en) Method and apparatus for performing depth estimation
CN101887589B (zh) 一种基于立体视觉的实拍低纹理图像重建方法
US9369689B1 (en) Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
Waechter et al. Let there be color! Large-scale texturing of 3D reconstructions
Wu et al. Repetition-based dense single-view reconstruction
CN101908230B (zh) 一种基于区域深度边缘检测和双目立体匹配的三维重建方法
Rönnholm et al. Integration of laser scanning and photogrammetry
CN102387374B (zh) 用于获得高精度深度图的设备和方法
US20080080852A1 (en) Single lens auto focus system for stereo image generation and method thereof
EP3438872A1 (en) Method, apparatus and computer program for a vehicle
CN104156957A (zh) 一种稳定高效的高分辨率立体匹配方法
CN103248911B (zh) 多视点视频中基于空时结合的虚拟视点绘制方法
CN104899870A (zh) 基于光场数据分布的深度估计方法
CN102609977B (zh) 基于深度融合和曲面演变的多视点三维重建方法
CN102036094B (zh) 一种基于数字分数延时技术的立体匹配方法
CN103971404A (zh) 一种高性价比的3d实景复制装置
CN103971408A (zh) 三维人脸模型生成系统及方法
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN103440653A (zh) 双目视觉立体匹配方法
JP2009139995A (ja) ステレオ画像対における画素のリアルタイムマッチングのための装置及びプログラム
CN104065947A (zh) 一种集成成像系统的深度图获取方法
CN105139355A (zh) 一种深度图像的增强方法
CN109218706B (zh) 一种由单张图像生成立体视觉图像的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110914

Termination date: 20150514

EXPY Termination of patent right or utility model