CN104809698A - 一种基于改进三边滤波的Kinect深度图像修复方法 - Google Patents

一种基于改进三边滤波的Kinect深度图像修复方法 Download PDF

Info

Publication number
CN104809698A
CN104809698A CN201510117532.8A CN201510117532A CN104809698A CN 104809698 A CN104809698 A CN 104809698A CN 201510117532 A CN201510117532 A CN 201510117532A CN 104809698 A CN104809698 A CN 104809698A
Authority
CN
China
Prior art keywords
depth
edge
point
cromogram
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201510117532.8A
Other languages
English (en)
Inventor
项学智
徐旺旺
南长君
白二伟
王猛
包文龙
葛长赟
张磊
乔玉龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201510117532.8A priority Critical patent/CN104809698A/zh
Publication of CN104809698A publication Critical patent/CN104809698A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明属于深度图像修复技术领域,具体涉及对kinect深度图像的基于改进三边滤波的Kinect深度图像修复方法。本发明包括:利用Kinect同步获取深度图与彩色图;对彩色图和深度图进行对齐;提取深度图边缘信息;提取彩色图边缘信息;去除彩色图中的非边界纹理信息;用区域生长方法,在深度图中找出深度值错误的像素点并去除该点的错误深度值;用基于色差与结构相似度系数的改进三边滤波方法对深度图空洞区域进行填充修复。该方法针对kinect深度图像具有良好的空洞填充效果,能够较好地保持深度图边缘信息。

Description

一种基于改进三边滤波的Kinect深度图像修复方法
技术领域
本发明属于深度图像修复技术领域,具体涉及对kinect深度图像的基于改进三边滤波的Kinect深度图像修复方法。
背景技术
深度图像是一种全新的图像模式,在计算机视觉、自动导航等领域中有着广泛的应用前景.
Kinect作为一台相对廉价的深度图像与彩色图像获取设备,通过特殊的结构光技术获取深度图像,且获取深度图像分辨率较高,受到了科学研发工作者以及工业界的普遍重视。但是由于Kinect的结构特性和测距原理所限,所获取的深度图像存在一些缺陷:如由于无法准确测得深度值所产生的空洞区域,以及深度图与彩色图边缘不匹配等。这些问题限制了kinect深度图应用,因此对kinect获取的深度图像进行修复具有重要意义。
目前,对Kinect深度图像修复主要有两种方法:一种方法是直接针对深度图像进行修复,不借助纹理图像,其修复效果较差;另一种是结合纹理图像进行修复的方法,由于借助了纹理图像的信息,该类方法对深度图边缘保持具有较好的效果。
发明内容
本发明的目的在于提出一种基于改进三边滤波的Kinect深度图像修复方法。
本发明包括如下步骤:
(1)利用Kinect同步获取深度图与彩色图;
(2)对彩色图和深度图进行对齐;
(3)提取深度图边缘信息;
(4)提取彩色图边缘信息;
(5)去除彩色图中的非边界纹理信息;
(6)用区域生长方法,在深度图中找出深度值错误的像素点并去除该点的错误深度值;
(7)用基于色差与结构相似度系数的改进三边滤波方法对深度图空洞区域进行填充修复。
所述的步骤(3)包括:采用Canny算子对深度图进行边缘检测,得到深度图边缘Depth_edge(i,j)。
所述的步骤(4)包括:采用Canny算子对灰度化的彩色图进行边缘检测,得到包含内部纹理信息的彩色图边缘Color1_edge(i,j)。
步骤(5)中采用距离变换方法去除彩色图轮廓边缘内部纹理信息,,包括以下步骤:
(5.1)对深度图边缘进行欧氏距离变换,将深度图边缘中的所有边缘点作为一个点集,并计算深度图中每一个像素点到该点集的最小欧氏距离,将其作为距离变换图中相应点的像素值,即每一点的像素值代表该点到深度图边缘的最近距离,距离变换图中的某一点像素值越大,则该点距离物体的边界越远;像素值越小,则该点距离物体的边界越近;
(5.2)根据下面的公式去除彩色图轮廓边缘内部纹理信息:
Color 2 _ edge ( i , j ) = Color 1 _ edge ( i , j ) if Depth _ dist ( i , j ) < th 0 else
式中:利用得到的Depth Dist Map进行判断:遍历彩色图边缘中的边缘点,若该点坐标对应的Depth Dist Map像素值小于阈值th,则认为该边缘像素是与深度图像边缘相对应的边缘点,保留该点,反之,当阈值大于th,则认为是物体内部的纹理,深度图像边缘中不存在相对应的边缘,去除该点。
在所述步骤(6)利用区域生长方法去除错误深度值具体包括:对彩色图边缘Colo2r_edg(ei,j)进行欧氏距离变换得到一幅彩色图的距离变换图Color Dist Map,得到的彩色图的边缘点Color2_edge(i,j)和深度图的边缘点Depth_edge(i,j)作为种子(seed),利用彩色图距离变换图Color Dist Map和深度图距离变换图Depth Dist Map作为生长方向引导,通过区域生长方式分别从一个边缘点向另一个边缘点进行遍历寻找深度值错误的点,并去除该点的深度值。
在所述步骤(7)中改进双边滤波器的步骤如下:
(7.1)基于色差的改进空域滤波器:通过邻域像素与中心像素之间的色差来判断邻域像素对中心像素的贡献,
Gauss ( p ) = &Sigma; q &Element; &omega; F ( | | I p - I q | | ) I q
其中, F ( | | I p - I q | | ) = Gauss if &Delta;E < th 0 else
其中,Iq为邻域像素值,F(||Ip-Iq||为改进的高斯卷积核,ΔE为两个像素之间的色差,th是色差阈值,当色差ΔE小于阈值th时,表示像素相似度较高,认为该点对中心点有贡献;当色差ΔE大于阈值th,表示像素相似度较低,则该点与中心点不在同一个区域,认为没有贡献,在滤波过程中不作为邻域点处理;
(7.2)引入结构相似度系数:
x,y为两幅输入图像,亮度比较函数l(x,y)由图像均值ux,uy表示,对比度比较函数c(x,y)由图像标准差σxy来表示,结构比较函数s(x,y)由两幅图像协方差σxy来表示:
L ( x , y ) = 2 u x u y + a u x 2 + u y 2 + a ;
C ( x , y ) = 2 &sigma; x &sigma; y + b &sigma; x 2 + &sigma; y 2 + b ;
S ( x , y ) = &sigma; xy + c &sigma; x &sigma; y + c ;
获得两幅图片的结构相似度系数:
SSIM(x,y)=[L(x,y)]α[C(x,y)]β[S(x,y)]γ
其中,α,β,γ分别为三个部分权重的参数,满足a=(K1L)2,b=(K2L)2,c=(K3L)2,其中K1,K2,K3<<1,L为像素值的动态范围,若为8位灰度图像,则L=255,设α=β=γ=1,c=0.5b,简化得出机构相似度表达式为:
SSIM ( x , y ) = 1 3 ( 2 u x u y + a ) ( 2 &sigma; x &sigma; y + b ) ( u x 2 + u y 2 + a ) ( &sigma; x 2 + &sigma; y 2 + b )
为了减少与中心点差异较大的邻域点在空洞填充过程中带来的影响,本文对结构相似度系数设置了阈值,其中Sp,Sq为以p,q为中心的图像块:
SSIM ( S p , S q ) = SSIM ( S p , S q ) if SSIM ( S p , S q ) > th 0 else
H ( p ) = k - 1 ( p ) &Sigma; q &Element; &omega; I q F ( | | I p - I q | | ) g ( | | I p - I q | | ) SSIM ( S p , S q )
其中: k ( p ) = &Sigma; q &Element; &omega; F ( | | I p - I q | | ) g ( | | I p - I q | | ) SSIM ( S p , S q )
g ( | | p - q | | ) = exp ( - ( R p - R q ) 2 + ( G p - G q ) 2 + ( B p - B q ) 2 / 2 &sigma; g 2 ) .
本发明的有益效果在于:该方法针对kinect深度图像具有良好的空洞填充效果,能够较好地保持深度图边缘信息。
附图说明
图1为本发明的流程图;
图2为修复效果图。
具体实施方式
下面结合附图对本发明做进一步描述。
该方法利用结合了色差与结构相似性系数的改进三边滤波方法对深度图进行修复,在填充深度图空洞的同时,有效保留深度边缘信息。
基于改进三边滤波的深度图修复方法包括以下步骤。
S1利用kinect深度传感器同步获取深度图像和彩色图像;
S2对彩色图和深度图进行对齐;
S3提取深度图边缘信息Depth_edge(i,j);
S4提取彩色图边缘信息Color1_edge(i,j);
S5去除彩色图轮廓边缘Color1_edge(i,j)中非边界纹理信息。首先对深度图边缘进行欧氏距离变换,将深度图边缘中的所有边缘点作为一个点集,并计算每一个像素点到该点集的最小欧氏距离作为该点的像素值,即每一点的像素值代表该点到深度图像边缘的最近距离,得到一幅深度图的距离变换DepthDistMap。然后根据下面的公式去除彩色图非边界纹理信息:
Color 2 _ edge ( i , j ) = Color 1 _ edge ( i , j ) if Depth _ dist ( i , j ) < th 0 else - - - ( 1 )
th检测边界的门限值;
S6对彩色图边缘Color2_edge(i,j)进行欧氏距离变换得到彩色图的距离变换ColorDistMap。得到的彩色图边缘点Color2_edge(i,j)和深度图边缘点Depth_edge(i,j)作为种子(seed),利用彩色图距离变换ColorDistMap和深度图距离变换DepthDistMap作为生长方向引导,通过区域生长方式分别从一个边缘点向另一个边缘点进行遍历寻找深度值错误的点,并去除该点的深度值;
S7对预处理后的深度图像,采用一种基于色差和结构相似性系数的改进三边滤波修复方法对深度图空洞区域进行填充修复。
本发明提出一种改进的Kinect深度图修复方法,该方法利用基于色差与结构相似性系数的改进双边滤波器对深度图进行修复,填充深度图空洞效果良好,有效保留边缘信息。
图1为本发明方法的流程图,结合图1进一步说明本方法的具体实施步骤,如下:
S1利用kinect深度传感器同步获取深度图和彩色图;
S2对彩色图和深度图进行对齐;
S3采用Canny算子对深度图进行边缘检测,深度图边缘Depth_edge(i,j);
S4采用Canny算子对灰度化的彩色图和进行边缘检测,得到包含内部纹理信息的彩色图边缘Color1_edge(i,j);
S5去除彩色图轮廓边缘非边界纹理信息。对深度图边缘进行欧氏距离变换,将深度图像边缘中的所有边缘点作为一个点集,并计算每一个像素点到该点集的最小欧氏距离作为该点的像素值,即每一点的像素值代表该点到深度图边缘的最近距离,得到一幅深度图的距离变换Depth Dist Map;
Color 2 _ edge ( i , j ) = Color 1 _ edge ( i , j ) if Depth _ dist ( i , j ) < th 0 else - - - ( 1 )
th检测边界的门限值。式中:利用得到的Depth Dist Map按公式(1)进行判断:遍历彩色图像边缘中的边缘点,若该点坐标对应的Depth Dist Map像素值小于阈值th,则认为该边缘像素是与深度图,边缘相对应的边缘点,保留该点。反之,当阈值大于th时,则认为是物体内部的纹理,深度图边缘中不存在相对应的边缘,去除该点,得到彩色图边缘Color2_edge(i,j);
S6对彩色图边缘进行欧氏距离变换,将深度图边缘中的所有边缘点作为一个点集,并计算每一个像素点到该点集的最小欧氏距离作为该点的像素值,即每一点的像素值代表该点到彩色图边缘的最近距离,得到一幅彩色图的距离变换Color Dist Map。得到的深度图边缘点Depth_edge(i,j)和彩色图边缘点Color2_edge(i,j)作为种子(seed),利用彩色图距离变换Color Dist Map和深度图距离变换Depth Dist Map作为生长方向引导,通过区域生长的方式分别从一个边缘点向另一个边缘点进行遍历寻找深度值错误的点,并把这些错误的深度值去除;
S7利用改进三边滤波器对深度图像空洞区域进行填充修复,对双边滤波器改进如下:
基于色差的改进空域滤波器。为了减少滤波过程在边缘处的模糊,本发明对空域滤波器进行改进,通过邻域像素与中心像素之间的色差来判断邻域对中心像素的贡献。改进后的算法如公式(2)所示:
Gauss ( p ) = &Sigma; q &Element; &omega; F ( | | I p - I q | | ) I q - - - ( 2 )
F ( | | I p - I q | | ) = Gauss if &Delta;E < th 0 else - - - ( 3 )
其中,Iq为邻域像素值,F(||Ip-Iq||)为改进的高斯卷积核,ΔE为两个像素之间的色差,th是色差阈值。当色差ΔE小于阈值th时,表示像素相似度较高,认为该点对中心点有贡献;当色差ΔE大于阈值th,表示像素相似度较低,则该点与中心点不在同一个区域,认为没有贡献,在滤波过程中不作为邻域点处理。
结构相似度系数。传统双边滤波的值域滤波只是利用邻域中像素值作为依据,并不能很好体现两点之间的像素相似程度。本发明引入了结构相似度系数,可以更准确地判断两点之间的相似程度。
设x,y为两幅输入图像,亮度比较函数l(x,y)由图像均值ux,uy表示,对比度比较函数c(x,y)由图像标准差σxy来表示,结构比较函数s(x,y)由两幅图像协方差σxy来表示。公式 表示如下:
L ( x , y ) = 2 u x u y + a u x 2 + u y 2 + a - - - ( 4 )
C ( x , y ) = 2 &sigma; x &sigma; y + b &sigma; x 2 + &sigma; y 2 + b - - - ( 5 )
S ( x , y ) = &sigma; xy + c &sigma; x &sigma; y + c - - - ( 6 )
结合以上三个比较函数获得两幅图片的结构相似度系数:
SSIM(x,y)=[L(x,y)]α[C(x,y)]β[S(x,y)]γ          (7) 
其中,α,β,γ分别为三个部分权重的参数,a,b,c是为了避免出现分母为零而设置的小整数,满足a=(K1L)2,b=(K2L)2,c=(K3L)2,其中K1,K2,K3<<1,L为像素值的动态范围(若为8位灰度图像,则L=255),为了减小计算的复杂度,文中设α=β=γ=1,c=0.5b。最终简化得出机构相似度表达式为:
SSIM ( x , y ) = 1 3 ( 2 u x u y + a ) ( 2 &sigma; x &sigma; y + b ) ( u x 2 + u y 2 + a ) ( &sigma; x 2 + &sigma; y 2 + b ) - - - ( 8 )
为了减少与中心点差异较大的邻域点在空洞填充过程中带来的影响,本文对结构相似度系数设置了阈值,其中Sp,Sq为以p,q为中心的图像块,公式如下:
SSIM ( S p , S q ) = SSIM ( S p , S q ) if SSIM ( S p , S q ) > th 0 else - - - ( 9 )
结合以上改进,本发明提出改进三边滤波算法公式如(10)所示,
H ( p ) = k - 1 ( p ) &Sigma; q &Element; &omega; I q F ( | | I p - I q | | ) g ( | | I p - I q | | ) SSIM ( S p , S q ) - - - ( 10 )
其中: k ( p ) = &Sigma; q &Element; &omega; F ( | | I p - I q | | ) g ( | | I p - I q | | ) SSIM ( S p , S q ) - - - ( 11 )
g ( | | p - q | | ) = exp ( - ( R p - R q ) 2 + ( G p - G q ) 2 + ( B p - B q ) 2 / 2 &sigma; g 2 ) - - - ( 12 )

Claims (6)

1.一种基于改进三边滤波的Kinect深度图像修复方法,其特征在于,包括如下步骤:
(1)利用Kinect同步获取深度图与彩色图;
(2)对彩色图和深度图进行对齐;
(3)提取深度图边缘信息;
(4)提取彩色图边缘信息;
(5)去除彩色图中的非边界纹理信息;
(6)用区域生长方法,在深度图中找出深度值错误的像素点并去除该点的错误深度值;
(7)用基于色差与结构相似度系数的改进三边滤波方法对深度图空洞区域进行填充修复。
2.根据权利要求1所述的一种基于改进三边滤波的Kinect深度图像修复方法,其特征在于,所述的步骤(3)包括:采用Canny算子对深度图进行边缘检测,得到深度图边缘Depth_edge(i,j)。
3.根据权利要求1所述的一种基于改进三边滤波的Kinect深度图像修复方法,其特征在于,所述的步骤(4)包括:采用Canny算子对灰度化的彩色图进行边缘检测,得到包含内部纹理信息的彩色图边缘Color1_edge(i,j)。
4.根据权利要求1所述的一种基于改进三边滤波的Kinect深度图像修复方法,其特征在于,所述的步骤(5)中采用距离变换方法去除彩色图轮廓边缘内部纹理信息,,包括以下步骤:
(5.1)对深度图边缘进行欧氏距离变换,将深度图边缘中的所有边缘点作为一个点集,并计算深度图中每一个像素点到该点集的最小欧氏距离,将其作为距离变换图中相应点的像素值,即每一点的像素值代表该点到深度图边缘的最近距离,距离变换图中的某一点像素值越大,则该点距离物体的边界越远;像素值越小,则该点距离物体的边界越近;
(5.2)根据下面的公式去除彩色图轮廓边缘内部纹理信息:
式中:利用得到的Depth Dist Map进行判断:遍历彩色图边缘中的边缘点,若该点坐标对应的Depth Dist Map像素值小于阈值th,则认为该边缘像素是与深度图像边缘相对应的边缘点,保留该点,反之,当阈值大于th,则认为是物体内部的纹理,深度图像边缘中不存在相对应的边缘,去除该点。
5.根据权利要求1所述的一种基于改进三边滤波的Kinect深度图像修复方法,其特征 在于,在所述步骤(6)利用区域生长方法去除错误深度值具体包括:对彩色图边缘Color2_edge(i,j)进行欧氏距离变换得到一幅彩色图的距离变换图Color Dist Map,得到的彩色图的边缘点Color2_edge(i,j)和深度图的边缘点Depth_edge(i,j)作为种子(seed),利用彩色图距离变换图Color Dist Map和深度图距离变换图Depth Dist Map作为生长方向引导,通过区域生长方式分别从一个边缘点向另一个边缘点进行遍历寻找深度值错误的点,并去除该点的深度值。
6.根据权利要求1所述的一种基于改进三边滤波的Kinect深度图像修复方法,其特征在于,在所述步骤(7)中改进双边滤波器的步骤如下:
(7.1)基于色差的改进空域滤波器:通过邻域像素与中心像素之间的色差来判断邻域像素对中心像素的贡献,
其中,
其中,Iq为邻域像素值,F(||Ip-Iq||为改进的高斯卷积核,ΔE为两个像素之间的色差,th是色差阈值,当色差ΔE小于阈值th时,表示像素相似度较高,认为该点对中心点有贡献;当色差ΔE大于阈值th,表示像素相似度较低,则该点与中心点不在同一个区域,认为没有贡献,在滤波过程中不作为邻域点处理;
(7.2)引入结构相似度系数:
x,y为两幅输入图像,亮度比较函数l(x,y)由图像均值ux,uy表示,对比度比较函数c(x,y)由图像标准差σxy来表示,结构比较函数s(x,y)由两幅图像协方差σxy来表示:
获得两幅图片的结构相似度系数:
SSIM(x,y)=[L(x,y)]α[C(x,y)]β[S(x,y)]γ
其中,α,β,γ分别为三个部分权重的参数,满足a=(K1L)2,b=(K2L)2,c=(K3L)2,其中K1,K2,K3<<1,L为像素值的动态范围,若为8位灰度图像,则L=255,设α=β=γ=1,c=0.5b,简化得出机构相似度表达式为:
为了减少与中心点差异较大的邻域点在空洞填充过程中带来的影响,本文对结构相似度系数设置了阈值,其中Sp,Sq为以p,q为中心的图像块:
其中:
CN201510117532.8A 2015-03-18 2015-03-18 一种基于改进三边滤波的Kinect深度图像修复方法 Pending CN104809698A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510117532.8A CN104809698A (zh) 2015-03-18 2015-03-18 一种基于改进三边滤波的Kinect深度图像修复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510117532.8A CN104809698A (zh) 2015-03-18 2015-03-18 一种基于改进三边滤波的Kinect深度图像修复方法

Publications (1)

Publication Number Publication Date
CN104809698A true CN104809698A (zh) 2015-07-29

Family

ID=53694503

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510117532.8A Pending CN104809698A (zh) 2015-03-18 2015-03-18 一种基于改进三边滤波的Kinect深度图像修复方法

Country Status (1)

Country Link
CN (1) CN104809698A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741265A (zh) * 2016-01-21 2016-07-06 中国科学院深圳先进技术研究院 深度图像的处理方法及装置
CN105894503A (zh) * 2016-03-30 2016-08-24 江苏大学 一种对Kinect植株彩色和深度检测图像的修复方法
CN106162147A (zh) * 2016-07-28 2016-11-23 天津大学 基于双目Kinect深度相机系统的深度恢复方法
CN106898048A (zh) * 2017-01-19 2017-06-27 大连理工大学 一种可适应复杂场景的无畸变集成成像三维显示方法
CN107292826A (zh) * 2016-03-31 2017-10-24 富士通株式会社 图像处理设备、图像处理方法以及图像处理装置
CN107316283A (zh) * 2017-07-14 2017-11-03 天津大学 基于多窗口融合的数字图像修复算法
CN107689050A (zh) * 2017-08-15 2018-02-13 武汉科技大学 一种基于彩色图像边缘引导的深度图像上采样方法
CN107895353A (zh) * 2017-11-09 2018-04-10 武汉大学 一种交互式的深度图纹理拷贝瑕疵去除方法
CN108399610A (zh) * 2018-03-20 2018-08-14 上海应用技术大学 一种融合rgb图像信息的深度图像增强方法
CN108765477A (zh) * 2018-05-15 2018-11-06 江苏大学 一种基于最优化的Kinect深度图修复方法
CN109661683A (zh) * 2017-12-15 2019-04-19 深圳配天智能技术研究院有限公司 基于图像内容的投射结构光方法、深度检测方法及结构光投射装置
CN109685732A (zh) * 2018-12-18 2019-04-26 重庆邮电大学 一种基于边界捕捉的深度图像高精度修复方法
CN109961406A (zh) * 2017-12-25 2019-07-02 深圳市优必选科技有限公司 一种图像处理的方法、装置及终端设备
CN111107337A (zh) * 2018-10-29 2020-05-05 曜科智能科技(上海)有限公司 深度信息补全方法及其装置、监控系统和存储介质
CN112634219A (zh) * 2020-12-17 2021-04-09 五邑大学 一种金属表面缺陷检测方法、系统、装置和存储介质
CN113313648A (zh) * 2021-06-01 2021-08-27 百度在线网络技术(北京)有限公司 图像矫正方法、装置、电子设备和介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102710951A (zh) * 2012-05-09 2012-10-03 天津大学 基于散斑结构光深度相机的多视点计算成像方法
CN103455984A (zh) * 2013-09-02 2013-12-18 清华大学深圳研究生院 一种Kinect深度图像获取方法与装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102710951A (zh) * 2012-05-09 2012-10-03 天津大学 基于散斑结构光深度相机的多视点计算成像方法
CN103455984A (zh) * 2013-09-02 2013-12-18 清华大学深圳研究生院 一种Kinect深度图像获取方法与装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
李雪威等: "保持边缘的高斯平滑滤波算法研究", 《计算机应用与软件》 *
赵旭: "Kinect深度图像修复技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
陈理: "Kinect深度图像增强算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741265A (zh) * 2016-01-21 2016-07-06 中国科学院深圳先进技术研究院 深度图像的处理方法及装置
CN105741265B (zh) * 2016-01-21 2019-03-01 中国科学院深圳先进技术研究院 深度图像的处理方法及装置
CN105894503A (zh) * 2016-03-30 2016-08-24 江苏大学 一种对Kinect植株彩色和深度检测图像的修复方法
CN105894503B (zh) * 2016-03-30 2019-10-01 江苏大学 一种对Kinect植株彩色和深度检测图像的修复方法
CN107292826A (zh) * 2016-03-31 2017-10-24 富士通株式会社 图像处理设备、图像处理方法以及图像处理装置
CN106162147B (zh) * 2016-07-28 2018-10-16 天津大学 基于双目Kinect深度相机系统的深度恢复方法
CN106162147A (zh) * 2016-07-28 2016-11-23 天津大学 基于双目Kinect深度相机系统的深度恢复方法
CN106898048A (zh) * 2017-01-19 2017-06-27 大连理工大学 一种可适应复杂场景的无畸变集成成像三维显示方法
CN106898048B (zh) * 2017-01-19 2019-10-29 大连理工大学 一种可适应复杂场景的无畸变集成成像三维显示方法
CN107316283B (zh) * 2017-07-14 2020-08-14 天津大学 基于多窗口融合的数字图像修复方法
CN107316283A (zh) * 2017-07-14 2017-11-03 天津大学 基于多窗口融合的数字图像修复算法
CN107689050B (zh) * 2017-08-15 2020-11-17 武汉科技大学 一种基于彩色图像边缘引导的深度图像上采样方法
CN107689050A (zh) * 2017-08-15 2018-02-13 武汉科技大学 一种基于彩色图像边缘引导的深度图像上采样方法
CN107895353B (zh) * 2017-11-09 2021-05-25 武汉大学 一种交互式的深度图纹理拷贝瑕疵去除方法
CN107895353A (zh) * 2017-11-09 2018-04-10 武汉大学 一种交互式的深度图纹理拷贝瑕疵去除方法
WO2019113968A1 (zh) * 2017-12-15 2019-06-20 深圳配天智能技术研究院有限公司 基于图像内容的投射结构光方法、深度检测方法及结构光投射装置
CN109661683A (zh) * 2017-12-15 2019-04-19 深圳配天智能技术研究院有限公司 基于图像内容的投射结构光方法、深度检测方法及结构光投射装置
CN109961406B (zh) * 2017-12-25 2021-06-25 深圳市优必选科技有限公司 一种图像处理的方法、装置及终端设备
CN109961406A (zh) * 2017-12-25 2019-07-02 深圳市优必选科技有限公司 一种图像处理的方法、装置及终端设备
CN108399610A (zh) * 2018-03-20 2018-08-14 上海应用技术大学 一种融合rgb图像信息的深度图像增强方法
CN108765477A (zh) * 2018-05-15 2018-11-06 江苏大学 一种基于最优化的Kinect深度图修复方法
CN111107337A (zh) * 2018-10-29 2020-05-05 曜科智能科技(上海)有限公司 深度信息补全方法及其装置、监控系统和存储介质
CN111107337B (zh) * 2018-10-29 2021-08-27 曜科智能科技(上海)有限公司 深度信息补全方法及其装置、监控系统和存储介质
CN109685732A (zh) * 2018-12-18 2019-04-26 重庆邮电大学 一种基于边界捕捉的深度图像高精度修复方法
CN109685732B (zh) * 2018-12-18 2023-02-17 重庆邮电大学 一种基于边界捕捉的深度图像高精度修复方法
CN112634219A (zh) * 2020-12-17 2021-04-09 五邑大学 一种金属表面缺陷检测方法、系统、装置和存储介质
CN112634219B (zh) * 2020-12-17 2024-02-20 五邑大学 一种金属表面缺陷检测方法、系统、装置和存储介质
CN113313648A (zh) * 2021-06-01 2021-08-27 百度在线网络技术(北京)有限公司 图像矫正方法、装置、电子设备和介质
CN113313648B (zh) * 2021-06-01 2023-08-29 百度在线网络技术(北京)有限公司 图像矫正方法、装置、电子设备和介质

Similar Documents

Publication Publication Date Title
CN104809698A (zh) 一种基于改进三边滤波的Kinect深度图像修复方法
CN110264416B (zh) 稀疏点云分割方法及装置
CN103927717B (zh) 基于改进型双边滤波的深度图像恢复方法
CN107767413A (zh) 一种基于卷积神经网络的图像深度估计方法
CN102831591B (zh) 一种基于高斯滤波的单幅图像的实时去雾方法
CN103971338B (zh) 一种基于显著图的可变块图像修复方法
CN104376535A (zh) 一种基于样本的快速图像修复方法
CN105913407B (zh) 一种基于差值图对多聚焦度图像融合优化的方法
CN103942758A (zh) 基于多尺度融合的暗通道先验图像去雾方法
CN103996198A (zh) 复杂自然环境下感兴趣区域的检测方法
CN101571950A (zh) 基于各向同性扩散和稀疏表示的图像修复方法
CN103049906A (zh) 一种图像深度提取方法
CN103955945B (zh) 基于双目视差和活动轮廓的自适应彩色图像分割方法
CN106197612A (zh) 一种基于机器视觉的透明瓶装液位检测方法
CN103914820A (zh) 一种基于图像分层增强的图像去雾方法及系统
CN105446333B (zh) 视觉agv导航系统
CN103578085A (zh) 基于可变块的图像空洞区域修补方法
CN104091339A (zh) 一种图像快速立体匹配方法及装置
CN112669280B (zh) 一种基于lsd算法的无人机倾斜航拍直角像控点目标检测方法
CN103942756B (zh) 一种深度图后处理滤波的方法
CN106898048A (zh) 一种可适应复杂场景的无畸变集成成像三维显示方法
CN106504294A (zh) 基于扩散曲线的rgbd图像矢量化方法
CN105335968A (zh) 一种基于置信度传播算法的深度图提取方法及装置
CN105069757B (zh) 无人机载红外获取沥青图像的双向迭代双边滤波方法
CN104778673B (zh) 一种改进的高斯混合模型深度图像增强方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20150729