CN103440662A - Kinect深度图像获取方法与装置 - Google Patents

Kinect深度图像获取方法与装置 Download PDF

Info

Publication number
CN103440662A
CN103440662A CN2013103990371A CN201310399037A CN103440662A CN 103440662 A CN103440662 A CN 103440662A CN 2013103990371 A CN2013103990371 A CN 2013103990371A CN 201310399037 A CN201310399037 A CN 201310399037A CN 103440662 A CN103440662 A CN 103440662A
Authority
CN
China
Prior art keywords
depth
kinect
image
depth image
defocusing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013103990371A
Other languages
English (en)
Other versions
CN103440662B (zh
Inventor
王好谦
田雨时
张永兵
李凯
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201310399037.1A priority Critical patent/CN103440662B/zh
Publication of CN103440662A publication Critical patent/CN103440662A/zh
Application granted granted Critical
Publication of CN103440662B publication Critical patent/CN103440662B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于散焦法和图像融合的Kinect深度图像获取方法与装置,包括:对Kinect彩色图应用Mean Shift算法进行图像分割;根据Kinect彩色图像使用散焦法提取深度;将散焦法提取的深度图和Kinect传感器捕获的深度图融合;对融合生成的深度图进行三边滤波。其中,基于散焦法的单幅图像深度提取方法,通过边缘点处LOG滤波响应的正负双峰间距计算散焦模糊参数进而获得边缘点处深度值,使用matting Laplacian插值生成稠密深度图;利用自适应权值选取方法将散焦法深度图与Kinect原始深度图融合。本发明的有益效果是:能够结合散焦法提取深度与Kinect主动式提取深度各自的优点,获得比Kinect原始深度图质量更好的深度图像,该深度图像不包含空洞、平滑性更好且噪声水平更低。

Description

Kinect深度图像获取方法与装置
【技术领域】
本发明属于计算机视觉领域,具体涉及一种Kinect深度图像获取方法与装置。
【技术背景】
微软公司的Kinect体感交互设备正在引领着自然人机交互技术的热潮。Kinect for Xbox360作为Xbox360游戏机的外接设备,利用动态骨骼追踪、影像识别、语音识别等功能使玩家能够摆脱传统游戏手柄的束缚,带来全新的体感交互游戏体验。2012年初微软正式发布了Kinect for Windows,意味着Kinect被推广到Windows平台。Kinect在3D重建、动作捕捉、机器人控制、虚拟现实、增强现实等方面都有很好的应用前景,这极大地激发了科研和开发人员的兴趣与热情。
Kinect的技术核心之一是深度获取。Kinect拥有一个RGB摄像头、一个红外线发射器和一个红外摄像头,能够同时捕获场景的彩色图像与深度图像。Kinect使用一家以色列公司PrimeSense的光编码(light coding)技术来获取深度信息,它属于一种新的结构光技术。红外线发射器发射出激光散斑对场景形成光编码,红外摄像头捕获散斑图像之后结合光源标定时得到的参考散斑图案进行一系列计算,便可以得到场景中物体的深度信息。
Kinect捕获的深度图像存在较多空洞区域,即深度信息缺失,另外还存在闪烁现象以及光学噪声等问题。如果要用于3D重建或是基于深度图渲染(DIBR)的虚拟视点绘制,则需要更高质量的深度图像。
【发明内容】
为了克服现有技术的不足,本发明提供了一种Kinect深度图像获取方法与装置,以获取深度图像并改善Kinect深度图像质量。
为此,本发明提出一种Kinect深度图像获取方法与装置,装置包括Kinect设备以及配套的软件系统,方法包括如下步骤:
1)对Kinect彩色图应用Mean Shift算法(指一个迭代的步骤,即先算出当前点的偏移均值,移动该点到其偏移均值,然后以此为新的起始点,继续移动,直到满足一定的条件结束。详见百度文库,mean-shift算法概述,http://wenku.baidu.com/view/0d9eb876a417866fb84a8eb2.html)进行图像分割;
2)根据Kinect彩色图像使用散焦法提取深度;
3)自适应权值的深度图像融合(图像融合,Image Fusion,是指将多源信道所采集到的关于同一目标的图像数据经过图像处理和计算机技术等,最大限度的提取各自信道中的有利信息,最后综合成高质量的图像);
4)对融合生成的深度图进行三边滤波(百度文库,http://wenku.baidu.com/view/6df033c74028915f804dc2d5,《三边滤波的图像插值》,提出了一种三边滤波插值法,该方法利用平滑不同自然图像轮廓的行为,并试图通过抑制边缘凸角落像素克服轮廓锯齿问题)。
其中步骤2)中通过边缘点处LOG滤波(LOG滤波器是高斯(GAUSS)滤波和拉普拉斯(LAPLACIAN)滤波的结合,即先用高斯滤波器进行平滑滤波,以过虑调噪声,再提取边缘,所以效果较好。LOG滤波器原理:设I(x,y)代表灰度变化,灰度变化剧烈的地方就是阶跃点,而阶跃点的一次微商为极大值,二次微商为零。因此二次微商为零的地方就是图像的边缘所在。百度文库,http://wenku.baidu.com/view/fb9b916d1eb91a37f1115cdf.html)响应的正负双峰间距计算散焦模糊参数进而获得边缘点处深度值,使用matting Laplacian(拉普拉斯抠图法)插值生成稠密深度图;
步骤3中,利用自适应权值选取方法将散焦法深度图与Kinect原始深度图融合。
本发明的有益效果是:能够结合散焦法提取深度与Kinect主动式提取深度各自的优点,获得比Kinect原始深度图质量更好的深度图像,该深度图像不包含空洞、平滑性更好且噪声水平更低。
【附图说明】
图1是本发明一种实施例的结合散焦法的Kinect深度图像获取方法与装置的流程示意图。
图2是本发明一种实施例的基于散焦法的单幅图像深度提取方法的流程示意图。
【具体实施方式】
以下将结合附图,对本发明的具体实施例作进一步详细说明。
如图1所示,本发明的一种实施例的结合散焦法的Kinect深度图像获取方法与装置,包括如下步骤:
一、对Kinect彩色图应用Mean Shift算法进行图像分割
Mean Shift算法可以用来根据颜色信息实现图像分割,其基本原理是MeanShift向量总是指向概率密度梯度的方向,因而通过迭代算法可以收敛到概率密度函数的一个局部稳态点。对Kinect彩色图应用Mean Shift算法进行图像分割的具体方法如下:
1)由于RGB彩色空间是视觉感知非线性的彩色空间,为便于彩色图像分割,先将彩色图像转换到视觉感知近似线性的LUV彩色空间。LUV彩色空间全称CIE1976(L*,u*,v*)或CIELUV彩色空间,由CIEXYZ空间经简单变换得到,其中L*表示亮度,取值为0到100;u*和v*分别表示色调和饱和度,取值为-100到+100。由RGB空间到LUV空间的转换公式如下:
X Y Z = 1 0.17697 0.49 0.31 0.20 0.17697 0.81240 0.01063 0.00 0.01 0.99 R G B
u ′ = 4 X / ( X + 15 Y + 3 Z ) v ′ = 9 Y / ( X + 15 Y + 3 Z )
L * = 116 Y 1 / 3 - 16 , Y > 0.008856 903.3 Y , Y ≤ 0.008856
u * = 13 L * / ( u ′ - 0.19793943 ) v * = 13 L * / ( v ′ - 0.46831096 )
根据上式可由彩色图像的(R,G,B)坐标值计算出LUV彩色空间中的(L*,u*,v*)坐标值。
2)将图像中每个像素的空间坐标和彩色信息组成一个5维的增广向量x=(xs,xr),其中空间坐标xs=(x,y),彩色信息xr=(L*,u*,v*),即增广向量x=(x,y,L*,u*,v*)。
3)对每个像素进行以下迭代过程:
i.按照下式计算Mean Shift向量Mh(xt):
M h ( x t ) = x t + 1 - x t = Σ i = 1 n K h s , h r ( x i - x t ) - x i Σ i = 1 n K h s , h r ( x i - x t ) - x t
其中t表示迭代次数,n为落入区域Sh的像素个数。
Figure BDA0000377385110000043
为核函数,定义如下:
K h s , h r = C 0 h s 2 h r 3 k ( | | x s h s | | 2 ) k ( | | x r h r | | 2 )
式中C0为归一化常数,hs和hr为控制核函数带宽的参数,可根据实际情况按经验取值,如(hs,hr)=(8,8),(hs,hr)=(16,8)等,不同的参数配置下分割结果会有所不同,理论上讲图像尺寸较大时hs也应较大,图像灰度级较多时则hr应大些,可参阅Mean Shift算法的经典论文《Mean shift:a robust approach toward featurespace analysis》,http://ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=1000236,发表于《Pattern Analysis and Machine Intelligence》,IEEE Transactions onVolume:24,Issue:5),k是核函数的剖面函数,为保证收敛性要求k是凸的、单调递减的。x是前面2)中定义的增广向量
Figure BDA0000377385110000042
xi为落入区域Sh的像素,i为下标表示第i个。
ii.计算xt+1=xt+Mh(xt)。如果Mean Shift向量满足||Mh(xt)||<εh,其中εh是设定的阈值,阈值εh也视经验设定,会影响收敛精度和速度,一般可设为0.001或10-6等,阈值更小时收敛精度更高,但收敛速度会慢些,则迭代终止,xt+1为收敛终点;否则返回i步在xt+1点处继续迭代过程。
4)将收敛到同一个点的像素聚为一类。如果两类的中心间距小于hs,则将此两类合并;如果某一类包含的像素点少于预先设定的像素数目阈值(此阈值为一类最少需包含的像素数目,如取100),也将该类合并到相邻的类中。
Mean Shift算法结束时得到c个聚类,对应Kinect彩色图像分割结果的c个区域R1,R2,...,Rc。其中c是分割区域的数目。
二、根据Kinect彩色图像使用散焦法提取深度
散焦法是一种较为有效的可以从单目图像中提取深度的方法。散焦现象是指当物体没有位于聚焦点时,拍摄的图像会产生模糊,并且根据物体到聚焦平面的距离不同,模糊程度也不同。因此散焦可以作为一种单目深度线索用来提取深度信息,其中的关键是估计散焦模糊参数,进而结合相机参数计算出深度值。根据点光源成像模型,当实际的成像平面不在焦平面时,所成的像不是一个点,而是一个弥散斑。可以使用二维高斯函数作为点扩散函数(PSF):
h ( x , y , &sigma; ) = 1 2 &pi; &sigma; 2 e - x 2 + y 2 2 &sigma; 2
散焦图像可视为各像素位置完全聚焦的图像与此点扩散函数卷积而成,σ称为散焦参数,与弥散斑半径b的关系为σ=kb,k为与相机有关的常数。
将原散焦图像C(x,y)转换为灰度图像I0(x,y),其待估计的散焦参数为σ。下面通过LOG滤波和边缘检测来估计散焦参数σ,得到边缘点处的稀疏深度图,进而使用拉普拉斯抠图法(matting Laplacian)插值生成稠密深度图。提出的基于散焦法的单幅图像深度提取方法如图2所示,具体步骤如下:
1)使用标准差为σ1的上述二维高斯函数h(x,y,σ1)对I0(x,y)进行再模糊,即用此高斯核与原散焦图像进行卷积:
I 1 ( x , y ) = h ( x , y , &sigma; 1 ) &CircleTimes; I 0 ( x , y )
二维高斯函数h(x,y,σ1)的定义为再模糊尺度σ1是预先设定的,可取σ1=1;
2)对I0(x,y)均使用Canny(Canny边缘检测算子是JohnF.Canny于1986年开发出来的一个多级边缘检测算法,Canny的目标是找到一个最优的边缘检测算法,见http://zh.wikipedia.org/zh-cn/Canny%E7%AE%97%E5%AD%90,维基百科)进行边缘检测,记得到的边缘点集分别为E0。由于Canny边缘检测的第一步为对图像进行高斯滤波,因此可以直接使用1)中的再模糊结果I1(x,y);
3)对I0(x,y)使用LOG算子进行滤波,等价于将再模糊结果I1(x,y)与拉普拉斯算子卷积:
I 2 ( x , y ) = [ &dtri; 2 h ( x , y , &sigma; 1 ) ] &CircleTimes; I 0 ( x , y ) = &dtri; 2 [ h ( x , y , &sigma; 1 ) &CircleTimes; I 0 ( x , y ) ] = &dtri; 2 I 1 ( x , y )
其中
Figure BDA0000377385110000055
为拉普拉斯算子
Figure BDA0000377385110000056
,而将拉普拉斯算子应用于高斯函数即为高斯拉普拉斯(LOG)算子
Figure BDA0000377385110000057
4)对于2)中检测到的边缘点(x,y)∈E0,计算I2(x,y)中该边缘点处的梯度向量
Figure BDA0000377385110000054
。由于在边缘处LOG滤波响应会出现一正一负两个峰值,因此在I2(x,y)中,以(x,y)为中心沿着正梯度方向
Figure BDA0000377385110000058
搜索第一个灰度极大值点(xh,yh),沿着负梯度方向
Figure BDA0000377385110000059
搜索第一个灰度极小值点(xl,yl)。计算这两个极值点之间的空间距离,即边缘处LOG滤波响应的正负双峰间距:
a ( x , y ) = ( x h - x l ) 2 + ( y h - y l ) 2 , ( x , y ) &Element; E 0
5)边缘点(x,y)∈E0处,如果a(x,y)<2σ1,则舍弃该边缘点并继续处理下一个边缘点;否则跟据a(x,y)和σ1计算原散焦图像在边缘点处的散焦参数:
&sigma; ( x , y ) = ( a ( x , y ) 2 ) 2 - &sigma; 1 2 , ( x , y ) &Element; E 0
6)根据边缘点处的散焦参数σ(x,y)根据下式计算边缘点处的深度值:
D ^ 2 ( x , y ) = f 0 s 0 s 0 - f 0 - 2 &sigma; ( x , y ) F 0 k 0 , ( x , y ) &Element; E 0
其中
Figure BDA0000377385110000064
为物体到透镜平面的距离,即所要估计的深度;s0为成像平面到透镜平面的距离,f0和D0分别为透镜的焦距和直径,且有光圈指数F0=f0/D0;k为常数,通常可取
Figure BDA0000377385110000068
。由于相机参数(f0,F0,s0)未知,在此可以手动设置一组相机参数并根据散焦参数σ计算深度,此时得到的深度值并不是实际中真实的深度值,但仍可表示各物体间的相对深度。
7)通过上一步得到一幅只在边缘点处有深度估计值的稀疏深度图
Figure BDA0000377385110000069
,将它表示为列向量
Figure BDA00003773851100000610
。下面对稀疏深度图插值生成稠密深度图D2(x,y),对应列向量d。使用拉普拉斯抠图法(matting Laplacian)完成深度图插值,此问题可以描述为以下的能量函数最小化问题:
d = arg min { d T Ld + &lambda; ( d T - d ^ T ) D S ( d - d ^ ) }
其中Ds为对角矩阵,当像素i为边缘像素时,矩阵元素Ds(i,i)的值为1,否则为0。L的定义如下:
&Sigma; k | ( i , j ) &Element; w k ( &delta; ij - 1 | w k | ( 1 + ( C i - &mu; k ) ( &Sigma; k + &epsiv; | w k | U 3 ) - 1 ( C j - &mu; k ) ) )
其中δij为克罗内克函数,U3为3×3的单位矩阵,μk和∑k分别表示窗口wk内3通道彩色图像的均值和协方差矩阵,|wk|为窗口wk内的像素数目,Ci和Cj分别表示像素i和j处的颜色值,ε为归一化参数。
上述能量最小化问题可通过求解下面的稀疏线性方程得到解d:
( L + &lambda; D S ) d = &lambda; d ^
将解得的d转换为二维图像即是根据Kinect彩色图像使用散焦法获得的深度图D2(x,y)。
三、自适应权值的深度图融合
在前述步骤中根据Kinect彩色图像使用散焦法得到了深度图D2(x,y),将D2(x,y)与Kinect传感器捕获的深度图D1(x,y)融合,生成图像质量更好的深度图
Figure BDA0000377385110000071
融合是以前述步骤中Mean Shift图像分割结果的区域为单位的,为充分利用散焦法所得深度图和Kinect原始深度图各自的优点,保证融合后的深度图像质量,采用自适应权值的融合方法。每个像素处融合时对于D1(x,y)和D2(x,y)的权值不仅与该像素所属区域的平滑程度有关,也与该像素到边缘像素的距离有关。融合的具体方法如下,对每个分割区域Ri,i=1,2,...,c:
1)计算深度图D1和D2中区域Ri内的像素灰度均值之差:
diff R i = D &OverBar; 1 ( R i ) - D &OverBar; 2 ( R i )
其中
Figure BDA0000377385110000073
Figure BDA0000377385110000074
分别是深度图D1和D2中区域Ri内的像素灰度均值。
2)计算与区域内方差有关的权值
Figure BDA0000377385110000075
w R l = var ( D 2 ( R i ) ) var ( D 1 ( R i ) ) + var ( D 2 ( R i ) )
其中var(D1(Ri))和var(D2(Ri))分别为深度图D1和D2中区域Ri内的像素灰度值方差。
3)对区域Ri内每个像素点计算与该像素到边缘像素点之间的空间距离有关的权值wS(x,y):
w S ( x , y ) = 1 - ( d &OverBar; ( x , y ) d max ( x , y ) ) 2 , ( x , y ) &Element; R i
其中
Figure BDA0000377385110000078
分别为当前像素点(x,y)到离它最近的m个边缘像素点(xk,yk),k=1,2,...,m的平均距离和最大距离:
d &OverBar; ( x , y ) = 1 m &Sigma; k = 1 m ( x - x k ) 2 + ( y - y k ) 2 , ( x , y ) &Element; R i , ( x k , y k ) &Element; E 0
d max ( x , y ) = max k = 1,2 , . . . , m ( x - x k ) 2 + ( y - y k ) 2 , ( x , y ) &Element; R i , ( x k , y k ) &Element; E 0
4)根据以上权值和ws(x,y)对区域Ri内进行逐像素融合:
D ^ 3 ( x , y ) = w R i ( 1 - w S ( x , y ) ) D 1 ( x , y ) + ( 1 - w R i ) w S ( x , y ) ( D 2 ( x , y ) + diff R i ) , ( x , y ) &Element; R i
四、对融合生成的深度图进行三边滤波
对融合生成的深度图
Figure BDA0000377385110000082
应用具有保边去噪功能的三边滤波器,对深度图
Figure BDA0000377385110000083
中的每个像素p=(xp,yp):
D 3 ( p ) = 1 &Sigma; q &Element; N ( p ) w s ( p , q ) w C ( p , q ) w D ( p , q ) &Sigma; q &Element; N ( p ) w s ( p , q ) w C ( p , q ) w D ( p , q ) D ^ 3 ( q )
其中
w s ( p , q ) = e - | | p - q | | 2 2 &sigma; s 2
w C ( p , q ) = e - | | C ( p ) - C ( q ) | | 2 2 &sigma; C 2
w D ( p , q ) = e - | | D ^ 3 ( p ) D ^ 3 ( q ) | | 2 2 &sigma; D 2
分别表征空间距离、颜色值差异和深度值差异,σs、σC和σD为预设的滤波器参数,N(p)为p的邻域像素集合。
综上所述,本发明在Kinect的原始深度图像的基础上,利用同时刻的彩色图像通过散焦法得到另一幅深度图,将它与Kinect原始深度图融合并优化后得到质量更好的精细深度图,通过自适应的融合权值选取方法使得融合生成的深度图结合了散焦法提取深度与Kinect主动式提取深度各自的优点,有效填补了空洞区域、平滑性更好且噪声水平更低。本领域的普通技术人员在本发明的启发下所做出的变通均属于本发明的保护范围。

Claims (7)

1.一种Kinect深度图像获取方法,其特征是,包括如下步骤:
1)对Kinect彩色图应用Mean Shift算法进行图像分割;
2)根据Kinect彩色图像使用散焦法提取深度D2(x,y);
3)自适应权值的深度图融合:将D2(x,y)与Kinect传感器捕获的深度图D1(x,y)融合,生成图像质量更好的深度图
Figure FDA0000377385100000011
(x,y);
4)对融合生成的深度图进行三边滤波。
2.如权利要求1所述的Kinect深度图像获取方法,其特征是:所述步骤1)中,将Kinect彩色图转换到LUV彩色空间并使用Mean Shift算法将图像分割为c个区域R1,R2,...,Rc,其中c为Mean Shift图像分割结果的分割区域数目,即类别数。
3.如权利要求1所述的Kinect深度图像获取方法,其特征是:所述步骤2)中,根据Kinect彩色图像使用散焦法提取深度的方法是,将Kinect彩色图转换为灰度图,使用Canny算子检测边缘并计算LOG滤波响应,通过边缘点处LOG滤波响应的正负双峰间距计算散焦模糊参数进而获得边缘点处深度值,得到稀疏深度图。
4.如权利要求3所述的Kinect深度图像获取方法,其特征是:根据只包含边缘点处深度值的稀疏深度图使用matting Laplacian插值生成稠密深度图。
5.如权利要求1所述的Kinect深度图像获取方法,其特征是:所述步骤3)中,自适应权值的深度图融合方法是,根据散焦法得到的深度图和Kinect原始深度图,以Mean Shift分割区域为单位进行像素级加权融合,根据该像素所述区域的灰度值方差和该像素到边缘像素的距离自适应地计算融合的权值。
6.如权利要求1所述的Kinect深度图像获取方法,其特征是:所述步骤4)中,对融合生成的深度图进行三边滤波,三边滤波器的权值包括三项,分别表征空间距离、颜色值差异和深度值差异。
7.一种Kinect深度图像获取装置,其特征是,包括Kinect设备以及配套的软件系统,其中软件系统采用如权利要求1-6所述的Kinect深度图像获取方法。
CN201310399037.1A 2013-09-04 2013-09-04 Kinect深度图像获取方法与装置 Active CN103440662B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310399037.1A CN103440662B (zh) 2013-09-04 2013-09-04 Kinect深度图像获取方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310399037.1A CN103440662B (zh) 2013-09-04 2013-09-04 Kinect深度图像获取方法与装置

Publications (2)

Publication Number Publication Date
CN103440662A true CN103440662A (zh) 2013-12-11
CN103440662B CN103440662B (zh) 2016-03-09

Family

ID=49694355

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310399037.1A Active CN103440662B (zh) 2013-09-04 2013-09-04 Kinect深度图像获取方法与装置

Country Status (1)

Country Link
CN (1) CN103440662B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104856720A (zh) * 2015-05-07 2015-08-26 东北电力大学 一种基于rgb-d传感器的机器人辅助超声扫描系统
CN105354812A (zh) * 2014-07-10 2016-02-24 北京中科盘古科技发展有限公司 基于多Kinect协同的深度阈值分割算法识别轮廓交互方法
CN105869115A (zh) * 2016-03-25 2016-08-17 浙江大学 一种基于kinect2.0的深度图像超分辨率方法
CN106855656A (zh) * 2015-12-08 2017-06-16 通用汽车环球科技运作有限责任公司 增强现实系统及被遮蔽物体的图像处理
CN106875436A (zh) * 2016-12-14 2017-06-20 北京信息科技大学 一种基于特征点密度由聚焦堆栈估计深度的方法和装置
CN108399610A (zh) * 2018-03-20 2018-08-14 上海应用技术大学 一种融合rgb图像信息的深度图像增强方法
CN108701361A (zh) * 2017-11-30 2018-10-23 深圳市大疆创新科技有限公司 深度值确定方法和装置
CN109215046A (zh) * 2018-08-06 2019-01-15 浙江工贸职业技术学院 一种基于图像插值运算的拉普拉斯算子边缘检测方法
CN109802939A (zh) * 2018-12-12 2019-05-24 山东大学 基于星型网络结构的三维场景数据获取方法及系统
CN110470219A (zh) * 2019-08-16 2019-11-19 福建农林大学 基于边缘频谱保留的散焦图像测距方法及装置
WO2021087819A1 (zh) * 2019-11-06 2021-05-14 Oppo广东移动通信有限公司 信息处理方法、终端设备及存储介质
CN113838114A (zh) * 2021-09-22 2021-12-24 中南大学 一种基于边缘散焦追踪的高炉料面深度估计方法及系统
US11379988B2 (en) * 2018-06-29 2022-07-05 Boe Technology Group Co., Ltd. Method and apparatus for extracting edge of object in depth image and computer readable storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556696A (zh) * 2009-05-14 2009-10-14 浙江大学 基于阵列摄像机的深度图实时获取算法
CN101582171A (zh) * 2009-06-10 2009-11-18 清华大学 一种创建深度图的方法及装置
US20110141237A1 (en) * 2009-12-15 2011-06-16 Himax Technologies Limited Depth map generation for a video conversion system
CN102314683A (zh) * 2011-07-15 2012-01-11 清华大学 一种非平面图像传感器的计算成像方法和成像装置
CN102663721A (zh) * 2012-04-01 2012-09-12 清华大学 动态场景的散焦深度估计和全聚焦图像获取方法
TW201327474A (zh) * 2011-12-30 2013-07-01 Nat Univ Chung Cheng 視差估計深度產生方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556696A (zh) * 2009-05-14 2009-10-14 浙江大学 基于阵列摄像机的深度图实时获取算法
CN101582171A (zh) * 2009-06-10 2009-11-18 清华大学 一种创建深度图的方法及装置
US20110141237A1 (en) * 2009-12-15 2011-06-16 Himax Technologies Limited Depth map generation for a video conversion system
CN102314683A (zh) * 2011-07-15 2012-01-11 清华大学 一种非平面图像传感器的计算成像方法和成像装置
TW201327474A (zh) * 2011-12-30 2013-07-01 Nat Univ Chung Cheng 視差估計深度產生方法
US20130170736A1 (en) * 2011-12-30 2013-07-04 Jiun-In Guo Disparity estimation depth generation method
CN102663721A (zh) * 2012-04-01 2012-09-12 清华大学 动态场景的散焦深度估计和全聚焦图像获取方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ARNAV V. BHAVSAR 等: "Depth estimation with a practical camera", 《BMVC》 *
JAESIK PARK 等: "High Quality Depth Map Upsampling for 3D-TOF Cameras", 《2011 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
S. BATTIATO 等: "3D Stereoscopic Image Pairs by Depth-Map Generation", 《3DPVT 2004》 *
杨宇翔,汪增福: "基于彩色图像局部结构特征的深度图超分辨率算法", 《模式识别与人工智能》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354812B (zh) * 2014-07-10 2020-10-16 北京中科盘古科技发展有限公司 基于多Kinect协同的深度阈值分割算法识别轮廓交互方法
CN105354812A (zh) * 2014-07-10 2016-02-24 北京中科盘古科技发展有限公司 基于多Kinect协同的深度阈值分割算法识别轮廓交互方法
CN104856720B (zh) * 2015-05-07 2017-08-08 东北电力大学 一种基于rgb‑d传感器的机器人辅助超声扫描系统
CN104856720A (zh) * 2015-05-07 2015-08-26 东北电力大学 一种基于rgb-d传感器的机器人辅助超声扫描系统
CN106855656A (zh) * 2015-12-08 2017-06-16 通用汽车环球科技运作有限责任公司 增强现实系统及被遮蔽物体的图像处理
CN105869115A (zh) * 2016-03-25 2016-08-17 浙江大学 一种基于kinect2.0的深度图像超分辨率方法
CN105869115B (zh) * 2016-03-25 2019-02-22 浙江大学 一种基于kinect2.0的深度图像超分辨率方法
CN106875436A (zh) * 2016-12-14 2017-06-20 北京信息科技大学 一种基于特征点密度由聚焦堆栈估计深度的方法和装置
CN106875436B (zh) * 2016-12-14 2019-10-22 北京信息科技大学 一种基于特征点密度由聚焦堆栈估计深度的方法和装置
CN108701361A (zh) * 2017-11-30 2018-10-23 深圳市大疆创新科技有限公司 深度值确定方法和装置
CN108399610A (zh) * 2018-03-20 2018-08-14 上海应用技术大学 一种融合rgb图像信息的深度图像增强方法
US11379988B2 (en) * 2018-06-29 2022-07-05 Boe Technology Group Co., Ltd. Method and apparatus for extracting edge of object in depth image and computer readable storage medium
CN109215046A (zh) * 2018-08-06 2019-01-15 浙江工贸职业技术学院 一种基于图像插值运算的拉普拉斯算子边缘检测方法
CN109215046B (zh) * 2018-08-06 2021-05-21 浙江工贸职业技术学院 一种基于图像插值运算的拉普拉斯算子边缘检测方法
CN109802939A (zh) * 2018-12-12 2019-05-24 山东大学 基于星型网络结构的三维场景数据获取方法及系统
CN110470219A (zh) * 2019-08-16 2019-11-19 福建农林大学 基于边缘频谱保留的散焦图像测距方法及装置
WO2021087819A1 (zh) * 2019-11-06 2021-05-14 Oppo广东移动通信有限公司 信息处理方法、终端设备及存储介质
CN113838114A (zh) * 2021-09-22 2021-12-24 中南大学 一种基于边缘散焦追踪的高炉料面深度估计方法及系统
CN113838114B (zh) * 2021-09-22 2023-08-29 中南大学 一种基于边缘散焦追踪的高炉料面深度估计方法及系统

Also Published As

Publication number Publication date
CN103440662B (zh) 2016-03-09

Similar Documents

Publication Publication Date Title
CN103440662B (zh) Kinect深度图像获取方法与装置
CN112435325B (zh) 基于vi-slam和深度估计网络的无人机场景稠密重建方法
EP3971825B1 (en) Systems and methods for hybrid depth regularization
CN109740465B (zh) 一种基于实例分割神经网络框架的车道线检测算法
US10353271B2 (en) Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
CN106651938B (zh) 一种融合高分辨率彩色图像的深度图增强方法
Xiao et al. Fast image dehazing using guided joint bilateral filter
CN108446694B (zh) 一种目标检测方法及装置
US20180063511A1 (en) Apparatus and method for detecting object automatically and estimating depth information of image captured by imaging device having multiple color-filter aperture
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
CN111402170B (zh) 图像增强方法、装置、终端及计算机可读存储介质
CN102903098A (zh) 一种基于图像清晰度差异的深度估计方法
EP2757789A1 (en) Image processing system, image processing method, and image processing program
JP6102928B2 (ja) 画像処理装置、画像処理方法、および、プログラム
CN110189390B (zh) 一种单目视觉slam方法及系统
CN108377374A (zh) 用于产生与图像相关的深度信息的方法和系统
CN111144213A (zh) 一种对象检测方法和相关设备
CN102034247A (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
CN113065397B (zh) 行人检测方法及装置
US10567635B2 (en) Three dimensional moving pictures with a single imager and microfluidic lens
CN111951339A (zh) 利用异构双目相机进行视差计算的图像处理方法
CN110009683B (zh) 基于MaskRCNN的实时平面上物体检测方法
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
US9077963B2 (en) Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data
CN112634331A (zh) 一种光流预测方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant