CN104680496B - 一种基于彩色图像分割的Kinect深度图修复方法 - Google Patents
一种基于彩色图像分割的Kinect深度图修复方法 Download PDFInfo
- Publication number
- CN104680496B CN104680496B CN201510117062.5A CN201510117062A CN104680496B CN 104680496 B CN104680496 B CN 104680496B CN 201510117062 A CN201510117062 A CN 201510117062A CN 104680496 B CN104680496 B CN 104680496B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- depth map
- depth
- coloured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种基于彩色图像分割的Kinect深度图修复方法,本方法将对应的彩色图像分割结果作为参考信息修复深度图,来重建深度图的无效区域,再利用彩色图像作为引导信息对重建后的深度图滤波,达到去噪的效果;以实现在同时拍摄的彩色图像的提供参考信息的基础上,通过对彩色图像分割处理,获得深度图空洞重建区域,得到较好质量的Kinect深度图。
Description
技术领域:
本发明涉及一种基于彩色图像分割的Kinect深度图修复方法,属于图像处理的技术领域。
背景技术:
随着立体显示技术和视频处理技术的发展,深度图成为近年来立体视觉技术中的研究热点,并被广泛应用于三维重建、3D电视、深度图像渲染(DIBR)、图像分割等众多领域。深度图可以通过立体匹配算法或深度相机获得。立体匹配算法是在由双目相机获取的图像对中确定像素对应点来计算视差图,然后根据几何关系转换为深度图。由于该类方法计算成本高,大部分的立体匹配方法无法用于实际应用。深度相机直接获取深度信息,一般通过发射和接收反射光来计算深度信息以实现深度信息的实时提取。
随着传感器技术的发展,现在市场上出现了很多深度摄像机。其中Kinect是由微软研发的深度相机,可以同时获得深度图和彩色图像。由于价格低以及实时的深度图像获取能力,Kinect相机在游戏产业和科学研究中都得到了广泛应用。但Kinect获取的深度图也存在着很多问题。首先,由于作用距离的限制以及反射、遮挡等因素影响,Kinect深度图存在很多空洞——没有有效深度的区域,特别是在前景对象的边界部分;第二,Kinect深度图中也存在着严重噪声。
Kinect的深度图需修复以便用于需要高质量深度图的实际应用中,在这个问题上人们已有很多研究。Dan Miao等在论文“Texture-assisted Kinect Depth Inpainting”中提出了利用彩色图像纹理作为辅助信息的Kinect的深度修补算法,其中,在彩色图像中纹理边缘被提取为辅助信息,在深度图中对平滑区域和边缘区域中采用不同的修复方案。Junyi Liu等人在论文“Guided Inpainting and Filtering for Kinect Depth Maps”中提出了引导快速行进算法(guided fast marching method,GFFM)来修复Kinect深度图。S.Matyunin在论文“Temporal filtering for depth maps generated by Kinect depthcamera”提出了使用从视频中物体的运动和颜色信息来处理Kinect深度图。但是现有的Kinect深度图修复方法很难处理大的空洞,在由于边界遮挡而形成空洞处也难于给出比较准确的深度值。
发明内容:
针对现有技术方案所存在的缺陷和不足,本发明提供一种基于彩色图像分割的Kinect深度图修复方法,本方法将对应的彩色图像分割结果作为参考信息修复深度图,来重建深度图的无效区域,再利用彩色图像作为引导信息对重建后的深度图滤波,达到去噪的效果;以实现在同时拍摄的彩色图像的提供参考信息的基础上,通过对彩色图像分割处理,获得深度图空洞重建区域,得到较好质量的Kinect深度图。
专业技术术语:
有效深度:在Kinect获得的深度图是一副灰度图,灰度取值范围在[0,255]之间,有效深度指取值范围在[1,255]之间的深度,而无效深度是指由于遮挡、反光等因素而造成的取值为0的深度,表示Kinect相机没有获得该像素的实际深度。
引导滤波:是现有的一种新的滤波技术,使用一副图像(引导图像)对另一幅图像进行滤波,能够有效的保持待滤波图像的边缘信息。
本发明的技术方案如下:
一种基于彩色图像分割的Kinect深度图修复方法,包括步骤如下:
A、获取彩色图像和深度图;
将同时获得的彩色图像和深度图对齐;
B、对彩色图像做分割预处理;
对彩色图像做分割预处理,得到彩色图像的所有分割物体区域;
C、缺失深度值Dp估计;
对空洞边界上缺失深度值的像素p所在的分割物体区域Rk,在分割后的彩色图像中选择对应的分割物体区域Rk;在深度图的分割物体区域Rk中,选择像素p周围深度值已知的像素点的深度值Dq;利用彩色图像中的分割物体区域Rk和深度图的分割物体区域Rk中深度值Dq进行缺失深度值Dp估计,得到中间深度图;
使用像素p周围深度值已知的像素点的深度值Dq计算p的深度值,并只在同一个分割物体区域Rk中的像素被选择用于计算,这避免不同的对象的深度值的干扰,因此它可以产生一个具有更精确边界的深度图;
D、对中间深度图进行去噪。
本发明所述方法包括两个大的步骤。首先基于彩色图像分割给出估计的空洞中缺失的深度值;第二,对空洞填充后的深度图进行滤波去噪。本方法的创新在于,利用彩色图像分割结果在深度图估计缺失的深度值,从而可以消除在计算深度值过程中的不同物体的影响,并在深度图中给出前景物体的更准确的边界。在深度图修复中使用彩色图像作为引导,颜色信息被用来区分不同的物体。假定具有类似颜色的相邻像素属于同一物体,具有相似的深度值。
根据本发明优选的,所述步骤A、获取彩色图像和深度图的方法包括:
使用Kinect相机同时获取彩色图像和深度图,将所述彩色图像和深度图对齐;所述对齐是指所获取的彩色图像和深度图中,同一位置的彩色像素和深度值是一一对应的。
根据本发明优选的,所述步骤B、对彩色图像做分割预处理的方法包括:
对彩色图像进行图像分割,得到彩色图像的所有分割物体区域;彩色图像分割后的分割物体区域为(R1,R2,…,Rn),其中,n是分割物体区域的个数;
在步骤A中已经将所述彩色图像和深度图进行了对齐处理,因此所述分割物体区域,在彩色图像和深度图中表示坐标位置相同的区域。
图像分割是现有的图像处理技术,这里的分割可以采用一些常见方法,例如分水岭的方法,mean shift方法。
根据本发明优选的,所述步骤C、缺失深度值估计的方法包括:
在深度图中顺时针或者逆时针沿着空洞的边界从外到内进行缺失深度值估计;对空洞边界上缺失深度值的像素p所在的分割物体区域Rk,其中,k∈(1,…,n),在分割后的彩色图像中选择对应的分割物体区域Rk;按照现有技术沿着空洞边界,从外到内可以有效地利用已有的深度值(包括实际拍摄和估计得到的)对无效深度进行计算。在深度图的分割物体区域Rk中,使用像素p周围深度值已知的像素点的深度值Dq计算p的深度值Dp,Dp的计算公式为:
其中,N(p)表示像素邻域,所述像素邻域是M×M的正方形窗口,ωq表示深度值Dp的群权重,是空域高斯权重ωqs和颜色高斯权重ωqc的乘积,即:
ωq=ωqsωqc (2)
空域高斯权重ωqs是由像素p的坐标sp(xp,yp)和q的坐标sq(xq,yq)定义,表示两者之间距离对深度值Dp的群权重ωq的影响;
σs表示空域高斯权重ωqs的标准差,是根据实际应用选择的;
颜色高斯权重ωqc由彩色图像中像素p的颜色值Cp(Rp,Gp,Bp)和彩色图像中像素q的颜色值Cq(Rq,Gq,Bq)定义,表示两者之间颜色差异对深度值Dp的群权重ωq的影响;
σc表示颜色高斯权重ωqc的标准差,是根据实际应用选择的;
使用像素p周围深度值已知的像素点的深度值计算p的深度值Dp,并只在同一个分割物体区域Rk中的像素被选择用于计算,用于产生一个具有更精确边界的深度图;对Dp的值进行计算的过程即是对深度图中的空洞进行重建的过程,得到空洞重建后的中间深度图;只在同一个分割物体区域Rk中的像素被选择用于计算,这避免不同的对象的深度值的干扰。
根据本发明优选的,所述步骤D中所述去噪的方法是引导滤波的方法;以彩色图像作为引导信息,采用引导滤波(Guided filter)进行滤波。
根据本发明优选的,所述步骤D中所述去噪的方法是双边滤波。
本发明的优势在于:
1、本发明所述基于彩色图像分割的Kinect深度图修复方法,利用彩色图像分割结果在深度图估计缺失的深度值,从而可以消除在计算深度值过程中的不同物体的影响,并在深度图中给出前景物体的更准确的边界;
2、本发明所述基于彩色图像分割的Kinect深度图修复方法,在同时拍摄的彩色图像的提供参考信息的基础上,通过对彩色图像分割处理,获得深度图空洞重建区域,得到较好质量的Kinect深度图;
3、本发明所述基于彩色图像分割的Kinect深度图修复方法,步骤简单,易于实现,信息处理量小,处理效率高,图像处理效果好。
附图说明:
图1为本发明所述基于彩色图像分割的Kinect深度图修复方法的流程图;
图2是本发明所述基于彩色图像分割的Kinect深度图修复方法获取的彩色图像;
图3是本发明所述基于彩色图像分割的Kinect深度图修复方法分割后的彩色图像;
图4是本发明所述基于彩色图像分割的Kinect深度图修复方法获取的深度图;
图5是本发明所述基于彩色图像分割的Kinect深度图修复方法显示分割区域的深度图;
图6是本发明所述深度图空洞重建示意图;
图7是本发明基于彩色图像分割的Kinect深度图修复方法输出的空洞重建后的中间深度图;
图8是本发明所述基于彩色图像分割的Kinect深度图修复方法输出的去噪后最终深度图;
图9是本发明所述基于彩色图像分割的Kinect深度图修复方法输出的显示彩色图像分割区域的最终深度图。
具体实施方式:
下面结合实施例和说明书附图对本发明做详细的说明,但不限于此。
实施例1、
如图1-9所示。
一种基于彩色图像分割的Kinect深度图修复方法,步骤如下:
A、获取彩色图像和深度图;
使用Kinect相机同时获取彩色图像和深度图,将所述彩色图像和深度图对齐;图2为彩色图像,图4为深度图,场景为实验室中的站立人;
对齐是指我们获取的彩色图像和深度图中,同一位置的彩色像素和深度值是一一对应的。
B、对彩色图像做分割预处理;
对彩色图像采用水岭的方法进行图像分割,得到彩色图像的所有分割物体区域,假设彩色图像分割后的分割物体区域为(R1,R2,…,Rn),其中,n是分割物体区域的个数;图3显示了彩色图像分割的结果,图4为深度图中标注了图像分割区域边界作为比对;
C、缺失深度值估计;
在深度图中顺时针或者逆时针沿着空洞的边界从外到内进行缺失深度值估计;对空洞边界上缺失深度值的像素p所在的分割物体区域Rk其中,k∈(1,n),在分割后的彩色图像中选择对应的分割物体区域Rk;沿着空洞边界,从外到内可以有效地利用已有的深度值(包括实际拍摄和估计得到的)对无效深度进行计算。在深度图的分割物体区域Rk中,使用像素p周围深度值已知的像素点的深度值Dq计算p的深度值Dp,Dp的计算公式为:
其中,N(p)表示像素邻域,所述像素邻域是M×M的正方形窗口,ωq表示Dp的群权重,是空域高斯权重ωqs和颜色高斯权重ωqc的乘积,即:
ωq=ωqsωqc (6)
空域高斯权重ωqs是由像素p的坐标sp(xp,yp)和q的坐标sq(xq,yq)定义,表示两者之间距离对权重ωq的影响;
σs表示空域高斯权重ωqs的标准差,可根据实际应用选择合适数值;
颜色高斯权重ωqc由对应的彩色像素p的颜色值Cp(Rp,Gp,Bp)和像素q的颜色值Cq(Rq,Gq,Bq)定义,表示两者之间颜色差异对权重ωq的影响;
σc表示颜色高斯权重ωqc的标准差,可根据实际应用选择合适数值;
使用像素p周围深度值已知的像素点的深度值Dq计算p的深度值,并只在同一个分割物体区域Rk中的像素被选择用于计算,这避免不同的对象的深度值的干扰,因此它可以产生一个具有更精确边界的深度图;图6黑色部分示意了对像素点p进行深度值估计所用的邻域范围;对Dp的值进行计算的过程实际上是对深度图中的空洞进行重建的过程,得到空洞重建后的中间深度图,如图7。
D、对重建完空洞的深度图进行去噪,如图8、图9。
实施例2、
如实施例1所述的一种基于彩色图像分割的Kinect深度图修复方法,区别在于:步骤D中所述去噪的具体方法是引导滤波的方法;以彩色图像作为引导信息,采用引导滤波(Guided filter)进行滤波。
实施例3、
如实施例1所述的一种基于彩色图像分割的Kinect深度图修复方法,区别在于:步骤D中所述去噪的具体方法是双边滤波。
Claims (4)
1.一种基于彩色图像分割的Kinect深度图修复方法,其特征在于,包括步骤如下:
A、获取彩色图像和深度图;
B、对彩色图像做分割预处理;
C、缺失深度值Dp估计;
对空洞边界上缺失深度值的像素p所在的分割物体区域Rk,在分割后的彩色图像中选择对应的分割物体区域Rk;在深度图的分割物体区域Rk中,选择像素p周围深度值已知的像素点的深度值Dq;利用彩色图像中的分割物体区域Rk和深度图的分割物体区域Rk中深度值Dq进行缺失深度值Dp估计,得到中间深度图;
缺失深度值估计的方法包括:
在深度图中顺时针或者逆时针沿着空洞的边界从外到内进行缺失深度值估计;对空洞边界上缺失深度值的像素p所在的分割物体区域Rk,其中,k∈(1,…,n),在分割后的彩色图像中选择对应的分割物体区域Rk;在深度图的分割物体区域Rk中,使用像素p周围深度值已知的像素点的深度值Dq计算p的深度值Dp,Dp的计算公式为:
<mrow>
<msub>
<mi>D</mi>
<mi>p</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msub>
<mi>&Sigma;&omega;</mi>
<mi>q</mi>
</msub>
</mrow>
</mfrac>
<mrow>
<mo>(</mo>
<mrow>
<munder>
<mi>&Sigma;</mi>
<mrow>
<mi>q</mi>
<mo>&Element;</mo>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>q</mi>
<mo>&Element;</mo>
<msub>
<mi>R</mi>
<mi>k</mi>
</msub>
</mrow>
</munder>
<msub>
<mi>&omega;</mi>
<mi>q</mi>
</msub>
<msub>
<mi>D</mi>
<mi>q</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
其中,N(p)表示像素邻域,所述像素邻域是M×M的正方形窗口,ωq表示深度值Dp的群权重,是空域高斯权重ωqs和颜色高斯权重ωqc的乘积,即:
ωq=ωqsωqc
空域高斯权重ωqs是由像素p的坐标sp(xp,yp)和q的坐标sq(xq,yq)定义,表示两者之间距离对深度值Dp的群权重ωq的影响;
<mrow>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>q</mi>
<mi>s</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>s</mi>
<mi>p</mi>
</msub>
<mo>-</mo>
<msub>
<mi>s</mi>
<mi>q</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>s</mi>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>x</mi>
<mi>p</mi>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mi>q</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>y</mi>
<mi>p</mi>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mi>q</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>s</mi>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
σs表示空域高斯权重ωqs的标准差,是根据实际应用选择的;
颜色高斯权重ωqc由彩色图像中像素p的颜色值Cp(Rp,Gp,Bp)和彩色图像中像素q的颜色值Cq(Rq,Gq,Bq)定义,表示两者之间颜色差异对深度值Dp的群权重ωq的影响;
<mrow>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>q</mi>
<mi>c</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>C</mi>
<mi>p</mi>
</msub>
<mo>-</mo>
<msub>
<mi>C</mi>
<mi>q</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>c</mi>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
</mrow>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>R</mi>
<mi>p</mi>
</msub>
<mo>-</mo>
<msub>
<mi>R</mi>
<mi>q</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>G</mi>
<mi>p</mi>
</msub>
<mo>-</mo>
<msub>
<mi>G</mi>
<mi>q</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>B</mi>
<mi>p</mi>
</msub>
<mo>-</mo>
<msub>
<mi>B</mi>
<mi>q</mi>
</msub>
</mrow>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mi>c</mi>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
</mrow>
<mo>)</mo>
</mrow>
</mrow>
σc表示颜色高斯权重ωqc的标准差,是根据实际应用选择的;
D、对中间深度图进行去噪;所述去噪的方法是引导滤波的方法;以彩色图像作为引导信息,采用引导滤波(Guided filter)进行滤波。
2.如权利要求1所述的基于彩色图像分割的Kinect深度图修复方法,其特征在于:所述步骤A、获取彩色图像和深度图的方法包括:
使用Kinect相机同时获取彩色图像和深度图,将所述彩色图像和深度图对齐。
3.如权利要求1所述的基于彩色图像分割的Kinect深度图修复方法,其特征在于:所述步骤B、对彩色图像做分割预处理的方法包括:
对彩色图像进行图像分割,得到彩色图像的所有分割物体区域;彩色图像分割后的分割物体区域为(R1,R2,…,Rn),其中,n是分割物体区域的个数。
4.如权利要求1所述的基于彩色图像分割的Kinect深度图修复方法,其特征在于:所述步骤D中所述去噪的方法是双边滤波。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510117062.5A CN104680496B (zh) | 2015-03-17 | 2015-03-17 | 一种基于彩色图像分割的Kinect深度图修复方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510117062.5A CN104680496B (zh) | 2015-03-17 | 2015-03-17 | 一种基于彩色图像分割的Kinect深度图修复方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104680496A CN104680496A (zh) | 2015-06-03 |
CN104680496B true CN104680496B (zh) | 2018-01-05 |
Family
ID=53315495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510117062.5A Active CN104680496B (zh) | 2015-03-17 | 2015-03-17 | 一种基于彩色图像分割的Kinect深度图修复方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104680496B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105069751B (zh) * | 2015-07-17 | 2017-12-22 | 江西欧酷智能科技有限公司 | 一种深度图像缺失数据的插值方法 |
CN105139355A (zh) * | 2015-08-18 | 2015-12-09 | 山东中金融仕文化科技股份有限公司 | 一种深度图像的增强方法 |
CN105894503B (zh) * | 2016-03-30 | 2019-10-01 | 江苏大学 | 一种对Kinect植株彩色和深度检测图像的修复方法 |
CN106204554A (zh) * | 2016-07-01 | 2016-12-07 | 厦门美图之家科技有限公司 | 基于多聚焦图像的景深信息获取方法、系统及拍摄终端 |
CN106340036A (zh) * | 2016-08-08 | 2017-01-18 | 东南大学 | 一种基于双目立体视觉的立体匹配方法 |
CN107945234A (zh) * | 2016-10-12 | 2018-04-20 | 杭州海康威视数字技术股份有限公司 | 一种立体摄像机外部参数的确定方法及装置 |
CN106651871B (zh) * | 2016-11-18 | 2019-12-17 | 华东师范大学 | 一种深度图像空洞的自动填充方法 |
CN107248143B (zh) * | 2017-04-26 | 2020-12-25 | 中山大学 | 一种基于图像分割的深度图像修复方法 |
CN107767456A (zh) * | 2017-09-22 | 2018-03-06 | 福州大学 | 一种基于rgb‑d相机的物体三维重建方法 |
CN107622480B (zh) * | 2017-09-25 | 2020-11-24 | 长春理工大学 | 一种Kinect深度图像增强方法 |
CN109905691A (zh) * | 2017-12-08 | 2019-06-18 | 浙江舜宇智能光学技术有限公司 | 深度图像采集装置和深度图像采集系统及其图像处理方法 |
CN109961406B (zh) * | 2017-12-25 | 2021-06-25 | 深圳市优必选科技有限公司 | 一种图像处理的方法、装置及终端设备 |
CN108399610A (zh) * | 2018-03-20 | 2018-08-14 | 上海应用技术大学 | 一种融合rgb图像信息的深度图像增强方法 |
CN108629756B (zh) * | 2018-04-28 | 2021-06-25 | 东北大学 | 一种Kinectv2深度图像无效点修复方法 |
CN108765477A (zh) * | 2018-05-15 | 2018-11-06 | 江苏大学 | 一种基于最优化的Kinect深度图修复方法 |
CN108986156B (zh) * | 2018-06-07 | 2021-05-14 | 成都通甲优博科技有限责任公司 | 深度图处理方法及装置 |
CN109636732B (zh) * | 2018-10-24 | 2023-06-23 | 深圳先进技术研究院 | 一种深度图像的空洞修复方法以及图像处理装置 |
WO2021035746A1 (zh) * | 2019-08-30 | 2021-03-04 | 深圳市大疆创新科技有限公司 | 图像处理方法、装置和可移动平台 |
CN112037142B (zh) * | 2020-08-24 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 一种图像去噪方法、装置、计算机及可读存储介质 |
CN112116602A (zh) * | 2020-08-31 | 2020-12-22 | 北京的卢深视科技有限公司 | 深度图修复方法、装置和可读存储介质 |
CN112102199A (zh) * | 2020-09-18 | 2020-12-18 | 贝壳技术有限公司 | 深度图像的空洞区域填充方法、装置和系统 |
CN112465723A (zh) * | 2020-12-04 | 2021-03-09 | 北京华捷艾米科技有限公司 | 深度图像的修复方法、装置、电子设备和计算机存储介质 |
CN112802081B (zh) * | 2021-01-26 | 2024-05-24 | 深圳市商汤科技有限公司 | 一种深度检测方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102611904A (zh) * | 2012-02-15 | 2012-07-25 | 山东大学 | 三维电视系统中基于图像分割的立体匹配方法 |
CN102710951A (zh) * | 2012-05-09 | 2012-10-03 | 天津大学 | 基于散斑结构光深度相机的多视点计算成像方法 |
CN102831582A (zh) * | 2012-07-27 | 2012-12-19 | 湖南大学 | 一种微软体感装置深度图像增强方法 |
-
2015
- 2015-03-17 CN CN201510117062.5A patent/CN104680496B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102611904A (zh) * | 2012-02-15 | 2012-07-25 | 山东大学 | 三维电视系统中基于图像分割的立体匹配方法 |
CN102710951A (zh) * | 2012-05-09 | 2012-10-03 | 天津大学 | 基于散斑结构光深度相机的多视点计算成像方法 |
CN102831582A (zh) * | 2012-07-27 | 2012-12-19 | 湖南大学 | 一种微软体感装置深度图像增强方法 |
Non-Patent Citations (1)
Title |
---|
"Depth Image Enhancement for Kinect Using Region Growing and Bilateral Filter";Li Chen 等;《ICPR》;20121115;图1、2,第2.1、2.2节,第2.3节第1-2段 * |
Also Published As
Publication number | Publication date |
---|---|
CN104680496A (zh) | 2015-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104680496B (zh) | 一种基于彩色图像分割的Kinect深度图修复方法 | |
CN103868460B (zh) | 基于视差优化算法的双目立体视觉自动测量方法 | |
CN106091984B (zh) | 一种基于线激光的三维点云数据获取方法 | |
CN105205858B (zh) | 一种基于单个深度视觉传感器的室内场景三维重建方法 | |
CN107392947B (zh) | 基于轮廓共面四点集的2d-3d图像配准方法 | |
CN105279372B (zh) | 一种确定建筑物高度的方法和装置 | |
CN111127318B (zh) | 一种机场环境下的全景图像拼接方法 | |
CN111062905A (zh) | 一种基于显著图增强的红外和可见光融合方法 | |
CN109360235A (zh) | 一种基于光场数据的混合深度估计方法 | |
CN102903098A (zh) | 一种基于图像清晰度差异的深度估计方法 | |
CN104616284A (zh) | 彩色深度相机的彩色图像到深度图像的像素级对准算法 | |
CN108665535A (zh) | 一种基于编码光栅结构光的三维结构重建方法与系统 | |
CN103971404A (zh) | 一种高性价比的3d实景复制装置 | |
EP2650843A2 (en) | Image processor, lighting processor and method therefor | |
CN104299220A (zh) | 一种对Kinect深度图像中的空洞进行实时填充的方法 | |
CN107909543A (zh) | 一种鱼眼双目视觉立体匹配空间定位方法 | |
CN108154536A (zh) | 二维平面迭代的相机标定法 | |
CN104182968A (zh) | 宽基线多阵列光学探测系统模糊动目标分割方法 | |
CN108460792A (zh) | 一种基于图像分割的高效聚焦立体匹配方法 | |
CN105277144A (zh) | 基于双目视觉的土地面积快速检测方法及其检测装置 | |
Mutahira et al. | Focus measurement in color space for shape from focus systems | |
CN105335968A (zh) | 一种基于置信度传播算法的深度图提取方法及装置 | |
CN104778673B (zh) | 一种改进的高斯混合模型深度图像增强方法 | |
CN106780309A (zh) | 一种合成孔径雷达图像拼接方法 | |
CN111951339A (zh) | 利用异构双目相机进行视差计算的图像处理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200103 Address after: 250002 room 1010, 10 / F, building a1-4, Hanyu Jinggu, jingshidong Road, Jinan area, China (Shandong) pilot Free Trade Zone, Jinan City, Shandong Province Patentee after: Shandong zhikan Shenjian Information Technology Co., Ltd Address before: Licheng Alexander Road in Ji'nan City, Shandong province 250199 No. 27 Patentee before: Shandong University |