CN110866882B - 基于深度置信度的分层联合双边滤波深度图修复方法 - Google Patents

基于深度置信度的分层联合双边滤波深度图修复方法 Download PDF

Info

Publication number
CN110866882B
CN110866882B CN201911146605.0A CN201911146605A CN110866882B CN 110866882 B CN110866882 B CN 110866882B CN 201911146605 A CN201911146605 A CN 201911146605A CN 110866882 B CN110866882 B CN 110866882B
Authority
CN
China
Prior art keywords
depth
pixel
confidence
depth map
bilateral filtering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911146605.0A
Other languages
English (en)
Other versions
CN110866882A (zh
Inventor
万琴
朱晓林
陈国泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Institute of Engineering
Original Assignee
Hunan Institute of Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Institute of Engineering filed Critical Hunan Institute of Engineering
Priority to CN201911146605.0A priority Critical patent/CN110866882B/zh
Publication of CN110866882A publication Critical patent/CN110866882A/zh
Application granted granted Critical
Publication of CN110866882B publication Critical patent/CN110866882B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度置信度的分层联合双边滤波深度图修复方法,首先基于深度信息获取构建RGB‑D相机深度退化模型;其次对获取的深度图进行深度像素置信度分类,然后在联合双边滤波的基础上结合深度置信度测量机制提出分层联合双边滤波;最后利用分层联合双边滤波对修复区域完成深度图修复。相比现有技术,本发明方法对深度图的修复在边缘保持效果、深度值连续性上进一步提高了精度,能获取高精度三维深度图。

Description

基于深度置信度的分层联合双边滤波深度图修复方法
技术领域
本发明属于深度图像修复技术领域,具体涉及一种基于深度置信度的分层联合双边滤波深度图修复方法。
背景技术
在三维重建、人机交互(Human-Computer Interaction,HCI)和汽车辅助驾驶等图像分割、目标检测、物体跟踪等领域中三维深度信息是三维场景信息的重要特征。深度信息的获取则成为三维信息的研究热点。深度图能够直接反映出场景物体到相机的距离,目前深度图通常通过三维深度相机(例如Kinect和Time of Flight,ToF)获取,但其存在分辨率低、深度值缺失和噪声污染等问题。
到目前为止,主要获取深度信息的两类方法:被动方法和主动方法。被动方法(立体匹配)是在多视图中进行对应像素点匹配,然后估计像素点的视差求取深度,是获取深度信息的经典算法,该方法不依赖于复杂的设备,只需要拍摄双视图或多视图图像计算估计深度信息,如通过立体匹配和三角测量计算图像的深度信息,但实际应用仍然存在需精度高的图像校正算法以及无纹理区域低效率问题等。与被动方法不同,获取深度信息的主动方法是通过基于3D飞行时间相机(例如,3D-ToF,Kinectv2和基于结构光相机(例如,Kinectv1)来实现动态场景的深度信息实时获取。ToF相机可以获取实时动态场景的深度信息,但是存在分辨率低和噪声干扰等问题。而Kinect相机生成的深度图通常容易产生与深度距离相关的测量误差,导致深度不连续、彩色图像中边缘之间的不匹配,以及由于无效测量引起的各种空洞。针对ToF相机存在的问题,主要通过扩大空间分辨率和平滑噪声来进行深度修复;而针对Kinect相机深度不连续和空洞问题,主要利用丢失的深度值来填充空洞进行深度修复。针对以上两种深度图像的修复问题,现有技术中存在用于以上深度图中深度数据的优化算法,如联合双边滤波器(Joint Bilateral filtering,JBF)和扩展双边滤波器(Bilateral filtering,BF)可有效用于深度图修复,基于彩色图像引导设定双边权重,但深度图像的边缘信息/纹理信息被忽略,不充分考虑彩色纹理信息,容易产生纹理伪像和深度不连续性问题。而由于深度图的待修复区域主要分布在发生遮挡区域和无纹理区域,其他区域是单独的小噪声像素,联合双边滤波器窗口尺寸大小固定,小尺寸窗口处理大空洞区域效果有限,采用大尺寸窗口则会增加算法的处理时间,造成边缘模糊和纹理伪像。
发明内容
有鉴于此,本发明的目的在于避免现有技术中的不足而提供一种基于深度置信度的分层联合双边滤波深度图修复方法,其对深度图的修复在边缘保持效果、深度值连续性上进一步提高了精度,能获取高精度三维深度图。
本发明的目的通过以下技术方案实现:提供基于深度置信度的分层联合双边滤波深度图修复方法,所述方法包括以下步骤:
S1、基于深度信息获取构建RGB-D相机深度退化模型;
S2、采用深度置信度测量机制对获取的深度图进行深度像素置信度分类;
S3、依据联合双边滤波结合深度置信度测量机制提出分层联合双边滤波;
S4、利用分层联合双边滤波对修复区域完成深度图修复。
作为进一步的改进,所述步骤S1中深度退化模型为:
I0=P*I+n (1)
式中,I和I0分别表示深度信息实际值和深度相机设备捕获的深度图,P表示观测矩阵,n是随机产生的噪声。
作为进一步的改进,观测矩阵P在不同类型的深度相机设备、不同的场景环境中采用不同的矩阵形式。
作为进一步的改进,所述步骤S2中深度置信度测量机制通过左右一致性检查进行判断将深度像素分为高置信度、低置信度和被遮挡像素,具体步骤为:
S21、定义Pij(x,y,d)表示深度值为d的一个像素,Pij-R(xR,yR,dR)表示Pij像素右邻域的像素,Pij-L(xL,yL,dL)表示Pij像素左邻域的像素,其中,i表示原始深度图中随机像素的滤波器窗口,j是像素邻域中的像素索引号,x表示深度值为d的Pij像素的横坐标,y表示深度值为d的Pij像素的纵坐标;
S22、设定左右一致性LRC为:
Figure GDA0003106843630000031
S23、设定阈值
Figure GDA0003106843630000032
Figure GDA0003106843630000033
若CLRC小于预先设定的阈值
Figure GDA0003106843630000034
时,被判定为高置信度像素;若CLRC大于预先设定的阈值
Figure GDA0003106843630000035
且小于预先设定的阈值
Figure GDA0003106843630000036
时,被判定为低置信度像素;若CLRC大于阈值
Figure GDA0003106843630000037
被判定为被遮挡像素。
作为进一步的改进,所述步骤S3具体表现为依据联合双边滤波结合深度置信度测量机制,确定分层联合双边滤波的权重值Q,并同时选择相应的滤波器大小,其中:
Figure GDA0003106843630000038
式中,L是距滤波器中心像素的距离,σs表示用于调整空间近似度的参数,且
Figure GDA0003106843630000039
作为进一步的改进,所述滤波器大小选择与深度像素置信度类别和权重值的关系为:
若权重值为1,则认定为高置信度像素,选择的滤波器大小为
Figure GDA00031068436300000310
若权重值为0,则认定为低置信度像素,选择的滤波器大小为
Figure GDA00031068436300000311
若权重值大于0且小于1,则认定为被遮挡像素,选择的滤波器大小为
Figure GDA0003106843630000041
作为进一步的改进,所述步骤S4分层联合双边滤波具体根据当前像素类别、权重值、滤波器大小,对不同置信度类别的深度像素进行深度图修复,以获得高质量、高分辨率的深度图。
作为进一步的改进,所述分层联合双边滤波器表示为:
Figure GDA0003106843630000042
式中,p表示原始深度图中的一个像素点,N(p)表示像素点p的一个邻域,q表示p的邻域N(p)中的另一个像素点,Di(q)表示像素点q第i个滤波器窗口的深度值,Wi(q)表示像素点q第i个滤波器窗口的加权函数,其中:
Figure GDA0003106843630000043
式中,Qi(q)表示像素点q的权重值,Ii(p)表示待修复彩色图像像素点p,Ii(q)表示待修复彩色图像像素点q,
Figure GDA0003106843630000044
表示联合双边滤波的距离加权函数,且
Figure GDA0003106843630000045
采用高斯核形式计算:
Figure GDA0003106843630000046
式中,σR表示用于调整亮度近似度的参数。
作为进一步的改进,低置信度区域选择用相应大尺寸滤波器窗口7*7进行深度修复;高置信度区域采用小尺寸滤波器窗口3*3进行深度修复。
针对上述研究中深度图修复存在边缘模糊、纹理伪像以及耗时长等问题,本发明提出一种基于深度置信度的分层联合双边滤波深度图修复方法,首先基于深度信息获取构建RGB-D相机深度退化模型;其次对获取的深度图进行深度像素置信度分类,然后在联合双边滤波的基础上结合深度置信度测量机制提出分层联合双边滤波;最后利用分层联合双边滤波对修复区域完成深度图修复,本发明方法对深度图的修复在边缘保持效果、深度值连续性上进一步提高了精度,能获取高精度三维深度图。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是基于深度置信度的分层联合双边滤波深度图修复方法的总体框架图;
图2是本发明基于深度置信度的分层联合双边滤波深度图修复方法的总体框架图一实施例的流程图;
图3是深度置信度测量机制的流程图;
图4a为BF算法的图像修复效果图;
图4b为JBF算法的图像修复效果图;
图4c为JABDU算法的图像修复效果图;
图4d为本发明方法的图像修复效果图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施例对本发明作进一步详细的描述,需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
如图1和图2所示,本发明实施例提供的基于深度置信度的分层联合双边滤波深度图修复方法,包括以下步骤:
S1、基于深度信息获取构建RGB-D(RGB+Depth Map,红绿蓝色彩模式+深度图)相机深度退化模型;
本步骤主要针对随机深度缺失和结构性深度缺失两种退化形式,建立了深度退化模型如下:
I0=P*I+n (1)
式中,I和I0分别表示深度信息实际值和深度相机设备捕获的深度图,P表示观测矩阵,n是随机产生的噪声,需要说明的是,观测矩阵P在不同类型的深度相机设备、不同的场景环境中采用不同的矩阵形式。
S2、采用深度置信度测量机制对获取的深度图进行深度像素置信度分类;
通过确定强大而有效的置信度分类度量,能极大地提高置信度测量的稳定性和精确性,优选地,深度置信度测量机制通过左右一致性检查进行判断将深度像素分为高置信度、低置信度和被遮挡像素。
S3、依据联合双边滤波结合深度置信度测量机制提出分层联合双边滤波;
具体地,该步骤中依据联合双边滤波结合深度置信度测量机制,确定分层联合双边滤波的权重Q,并同时选择相应的滤波器大小。
S4、利用分层联合双边滤波对修复区域完成深度图修复;
优选地,该步骤中分层联合双边滤波具体根据当前像素类别、权重值、滤波器大小,对不同置信度类别的深度像素进行深度图修复,以获得高质量、高分辨率的深度图。
上述修复方法,首先基于深度信息获取存在的问题提出相应的深度退化模型,再采用深度置信度测量机制对深度像素进行置信度分类,根据深度置信度确定滤波器窗口权重值,最后利用提出的分层联合双边滤波算法对修复区域完成深度图修复,对深度图修复后边缘更加清晰合理,消除了边缘模糊和纹理伪像,有效提高了三维深度图修复的精确度。
作为进一步优选的实施方式,所述步骤S2中深度置信度测量机制的具体为:
S21、定义Pi(xi,yj,d)表示深度值为d的一个像素,Pij-R(xR,yR,dR)表示Pij像素右邻域的像素,Pij-L(xL,yL,dL)表示Pij像素左邻域的像素,其中,i表示原始深度图中随机像素的滤波器窗口,j是像素邻域中的像素索引号,x表示深度值为d的Pij像素的横坐标,y表示深度值为d的Pij像素的纵坐标;
S22、设定左右一致性LRC(Left Right Consistency,左右一致性)为:
Figure GDA0003106843630000071
S23、设定阈值
Figure GDA0003106843630000072
Figure GDA0003106843630000073
若CLRC小于预先设定的阈值
Figure GDA0003106843630000074
时,被判定为高置信度像素;若CLRC大于预先设定的阈值
Figure GDA0003106843630000075
且小于预先设定的阈值
Figure GDA0003106843630000076
时,被判定为低置信度像素;若CLRC大于阈值
Figure GDA0003106843630000077
被判定为被遮挡像素。
深度置信度测量机制流程图如图3所示,通过引入深度置信度测量机制,对待修复深度像素进行置信度大小分类,区分出了高置信度像素、低置信度像素、被遮挡像素,有利于提高后续深度修复速度和精度。
在进一步地技术方案中,本发明通过分层联合双边滤波对不同置信度类别的深度像素进行深度图修复,以获得高质量、高分辨率的深度图,下文将对该部分重点展开论述。
通过置信度测量机制从高置信度像素到低置信度像素的方式对需修复的深度图进行处理。生成深度置信度用于后续联合双边滤波处理,动态估计深度像素的权重。提出的分层联合双边滤波算法重点关注低置信度和被遮挡的像素,在联合双边滤波基础上结合置信度分层机制,提高像素级别的深度修复的上下文适应性。
假设p表示原始深度图中的一个像素点,则双边滤波器可表示为:
Figure GDA0003106843630000081
式中,q是p的邻域N(p)中的另一个像素点,Kp表示权重归一化系数,Ip表示p处的颜色强度,Iq表示q处的颜色强度,
Figure GDA0003106843630000082
表示空间域的权重值函数,
Figure GDA0003106843630000083
表示像素范围域的权重值函数,其中:
Figure GDA0003106843630000084
Figure GDA0003106843630000085
式中,σS表示用于调整空间近似度的参数,σC表示用于调整色度相似性的参数。
当像素点q和p之间的空间距离增加时,两个内核计算的权重会取较小的值,不同的相邻像素被空间距离分开,可以很好地保留图像边缘。
但双边滤波器的权重值并不稳定,在边缘区域滤除噪声能力弱,为了改善双边滤波器的稳定性问题,通过使用空间近似度和亮度相似度计算相邻像素的权重值,并通过加权平均值对缺失像素进行插值。
设D和d分别表示上采样深度图和给定的低分辨率深度图的深度值,然后根据下式计算深度图中的p位置处的深度值:
Figure GDA0003106843630000086
式中,j是相邻像素的像素索引号,qj是相邻像素对应位置,
Figure GDA0003106843630000087
是qj处像素的深度值,H表示权重值,其表达式为:
Figure GDA0003106843630000088
式中Ip
Figure GDA0003106843630000089
分别是p和qj处的颜色强度,σs和σR分别表示调整空间近似度和亮度相似度的参数。
本发明设定高置信度深度像素的滤波器窗口权重值为1,则分层联合双边滤波的权重值Q定义为:
Figure GDA0003106843630000091
式中,L是距滤波器中心像素的距离,且
Figure GDA0003106843630000092
进一步地,Di表示第i个滤波器窗口的深度值,Ii表示输入的待修复彩色图,本发明分层联合双边滤波器表示为:
Figure GDA0003106843630000093
式中,p表示原始深度图中的一个像素点,N(p)表示像素点p的一个邻域,q表示p的邻域N(p)中的另一个像素点,Di表示第i个滤波器窗口的深度值,Wi表示第i个滤波器窗口的加权函数,其中:
Figure GDA0003106843630000094
式中,Qi(q)表示像素点q的权重值,Ii(p)表示待修复彩色图像像素点p,Ii(q)表示待修复彩色图像像素点q,
Figure GDA0003106843630000095
表示联合双边滤波的距离加权函数,且
Figure GDA0003106843630000096
采用高斯核形式计算:
Figure GDA0003106843630000097
式中,σR表示用于调整亮度近似度的参数。
此外,值得提及的是,本发明中滤波器大小选择与深度像素置信度类别和权重值的关系为:
若权重值为1,则认定为高置信度像素,选择的滤波器大小为
Figure GDA0003106843630000098
若权重值为0,则认定为低置信度像素,选择的滤波器大小为
Figure GDA0003106843630000101
若权重值大于0且小于1,则认定为被遮挡像素,选择的滤波器大小为
Figure GDA0003106843630000102
上述关系可以如下公式表示:
Figure GDA0003106843630000103
优选地,如大空洞、大噪声区域等低置信度区域选择用相应大尺寸滤波器窗口7*7进行深度修复;高置信度区域采用小尺寸滤波器窗口3*3,一定程度地解决联合双边滤波器窗口尺寸大小存在的问题,同时减少边缘模糊和纹理伪像,算法的处理速度也大大提高。
图4a为BF(Bilateral filtering,双边滤波)算法的图像修复效果图,图4b为JBF(Joint Bilateral filtering,联合双边滤波)算法的图像修复效果图,图4c为JABDU(Joint-adaptive bilateral depth map upsampling,联合自适应双边上采样)算法的图像修复效果图,图4d为本发明算法的图像修复效果图。在图4a-4d中用小矩形框突出深度修复明显区域,从中可以看出本发明明显提高了深度数据修复效果,深度图像质量明显提高。
综上所述,本发明基于深度置信度的分层联合双边滤波深度图修复方法,具有如下优点:
1)针对不同的RGB-D获取深度信息存在分辨率低、深度值缺失和噪声污染等问题,Kinect深度图可能会丢失随机深度数据,而ToF深度图经常会出现分辨率低和噪声污染退化问题,本发明提出的深度退化模型,在数学形式上准确描述深度图的多种退化形式。
2)为了能提高深度修复的处理速度和精度,本发明在深度图退化模型的基础上进一步提出深度置信度测量机制,结合感兴趣空洞区域窗口化和深度像素范围搜索特点,将深度像素的置信度测量通过左右一致性(Left Right Consistency,LRC)检查进行判断,通过置信度测量将深度像素分为高置信度、低置信度和被遮挡像素。
3)本发明提出RGB-D相机深度图修复统一算法框架,通过深度置信度测量机制从高置信度像素到低置信度像素的方式对需修复的深度图进行处理,提出基于分层联合双边滤波的深度图修复统一算法框架,进一步地,通过置信度测量机制和权重分配,在大空洞、大噪声区域等低置信度区域可选择用相应大尺寸滤波器窗口7*7进行深度修复,高置信度区域采用小尺寸滤波器窗口3*3,确保获取高精度三维深度图。
上面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,不能理解为对本发明保护范围的限制。
总之,本发明虽然列举了上述优选实施方式,但是应该说明,虽然本领域的技术人员可以进行各种变化和改型,除非这样的变化和改型偏离了本发明的范围,否则都应该包括在本发明的保护范围内。

Claims (6)

1.基于深度置信度的分层联合双边滤波深度图修复方法,其特征在于,所述方法包括以下步骤:
S1、基于深度信息获取构建RGB-D相机深度退化模型;
S2、采用深度置信度测量机制对获取的深度图进行深度像素置信度分类,分为高置信度、低置信度和被遮挡像素;
S3、依据联合双边滤波结合深度置信度测量机制提出分层联合双边滤波,确定分层联合双边滤波的权重值Q,并同时选择相应的滤波器大小,其中:
Figure FDA0003106843620000011
式中,L是距滤波器中心像素的距离,σs表示用于调整空间近似度的参数,且
Figure FDA0003106843620000012
S4、利用分层联合双边滤波对修复区域完成深度图修复;
所述步骤S4具体表现为分层联合双边滤波具体根据当前像素类别、权重值、滤波器大小,对不同置信度类别的深度像素进行深度图修复,以获得高质量、高分辨率的深度图,其中,分层联合双边滤波时分层联合双边滤波器表示为:
Figure FDA0003106843620000013
式中,p表示原始深度图中的一个像素点,N(p)表示像素点p的一个邻域,q表示p的邻域N(p)中的另一个像素点,Di(q)表示像素点q第i个滤波器窗口的深度值,Wi(q)表示像素点q第i个滤波器窗口的加权函数,其中:
Figure FDA0003106843620000014
式中,Qi(q)表示像素点q的权重值,Ii(p)表示待修复彩色图像像素点p,Ii(q)表示待修复彩色图像像素点q,
Figure FDA0003106843620000021
表示联合双边滤波的距离加权函数,且
Figure FDA0003106843620000022
采用高斯核形式计算:
Figure FDA0003106843620000023
式中,σR表示用于调整亮度近似度的参数。
2.根据权利要求1所述的基于深度置信度的分层联合双边滤波深度图修复方法,其特征在于,所述步骤S1中深度退化模型为:
I0=P*I+n (1)
式中,I和I0分别表示深度信息实际值和深度相机设备捕获的深度图,P表示观测矩阵,n是随机产生的噪声。
3.根据权利要求2所述的基于深度置信度的分层联合双边滤波深度图修复方法,其特征在于,观测矩阵P在不同类型的深度相机设备、不同的场景环境中采用不同的矩阵形式。
4.根据权利要求3所述的基于深度置信度的分层联合双边滤波深度图修复方法,其特征在于,所述步骤S2中深度置信度测量机制通过左右一致性检查进行判断将深度像素分为高置信度、低置信度和被遮挡像素,具体步骤为:
S21、定义Pij(x,y,d)表示深度值为d的一个像素,Pij-R(xR,yR,dR)表示Pij像素右邻域的像素,Pij-L(xL,yL,dL)表示Pij像素左邻域的像素,其中,i表示原始深度图中随机像素的滤波器窗口,j是像素邻域中的像素索引号,x表示深度值为d的Pij像素的横坐标,y表示深度值为d的Pij像素的纵坐标;
S22、设定左右一致性LRC为:
Figure FDA0003106843620000024
S23、设定阈值
Figure FDA0003106843620000031
Figure FDA0003106843620000032
若CLRC小于预先设定的阈值
Figure FDA0003106843620000033
时,被判定为高置信度像素;若CLRC大于预先设定的阈值
Figure FDA0003106843620000034
且小于预先设定的阈值
Figure FDA0003106843620000035
时,被判定为低置信度像素;若CLRC大于阈值
Figure FDA0003106843620000036
被判定为被遮挡像素。
5.根据权利要求4所述的基于深度置信度的分层联合双边滤波深度图修复方法,其特征在于,所述滤波器大小选择与深度像素置信度类别和权重值的关系为:
若权重值为1,则认定为高置信度像素,选择的滤波器大小为
Figure FDA0003106843620000037
若权重值为0,则认定为低置信度像素,选择的滤波器大小为
Figure FDA0003106843620000038
若权重值大于0且小于1,则认定为被遮挡像素,选择的滤波器大小为
Figure FDA0003106843620000039
6.根据权利要求5所述的基于深度置信度的分层联合双边滤波深度图修复方法,其特征在于,低置信度区域选择用相应大尺寸滤波器窗口7*7进行深度修复;高置信度区域采用小尺寸滤波器窗口3*3进行深度修复。
CN201911146605.0A 2019-11-21 2019-11-21 基于深度置信度的分层联合双边滤波深度图修复方法 Active CN110866882B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911146605.0A CN110866882B (zh) 2019-11-21 2019-11-21 基于深度置信度的分层联合双边滤波深度图修复方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911146605.0A CN110866882B (zh) 2019-11-21 2019-11-21 基于深度置信度的分层联合双边滤波深度图修复方法

Publications (2)

Publication Number Publication Date
CN110866882A CN110866882A (zh) 2020-03-06
CN110866882B true CN110866882B (zh) 2021-09-07

Family

ID=69655909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911146605.0A Active CN110866882B (zh) 2019-11-21 2019-11-21 基于深度置信度的分层联合双边滤波深度图修复方法

Country Status (1)

Country Link
CN (1) CN110866882B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111489383B (zh) * 2020-04-10 2022-06-10 山东师范大学 基于深度边缘点与彩色图像的深度图像上采样方法及系统
CN111986124B (zh) * 2020-09-07 2024-05-28 凌云光技术股份有限公司 一种深度图像缺失像素的填充方法及装置
CN112991193B (zh) * 2020-11-16 2022-09-23 武汉科技大学 深度图像修复方法、设备及计算机可读存储介质
CN115546274B (zh) * 2022-11-29 2023-02-17 城云科技(中国)有限公司 一种画面深度判断模型及其构建方法、装置及应用
CN117934728B (zh) * 2024-03-21 2024-08-02 海纳云物联科技有限公司 三维重建方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399632A (zh) * 2018-03-02 2018-08-14 重庆邮电大学 一种联合彩色图像的rgb-d相机深度图像修复方法
CN108648221A (zh) * 2018-05-10 2018-10-12 重庆大学 一种基于混合滤波的深度图空洞修复方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103024420B (zh) * 2013-01-17 2014-12-10 宁波工程学院 一种rgbd数据深度迁移的单幅图像2d转3d方法
US10462445B2 (en) * 2016-07-19 2019-10-29 Fotonation Limited Systems and methods for estimating and refining depth maps
CN108062769B (zh) * 2017-12-22 2020-11-17 中山大学 一种用于三维重建的快速深度恢复方法
CN108764064A (zh) * 2018-05-07 2018-11-06 西北工业大学 基于导向滤波器与自编码器的sar目标识别算法
CN109300190B (zh) * 2018-09-06 2021-08-10 百度在线网络技术(北京)有限公司 三维数据的处理方法、装置、设备和存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399632A (zh) * 2018-03-02 2018-08-14 重庆邮电大学 一种联合彩色图像的rgb-d相机深度图像修复方法
CN108648221A (zh) * 2018-05-10 2018-10-12 重庆大学 一种基于混合滤波的深度图空洞修复方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
High-Quality Depth Map Upsampling and Completion for RGB-D Cameras;Jaesik Park 等;《IEEE Transactions on Image Processing》;20141212;全文 *
基于自适应联合双边滤波的深度图像空洞填充与优化算法;王得成 等;《中国激光》;20191031;全文 *

Also Published As

Publication number Publication date
CN110866882A (zh) 2020-03-06

Similar Documents

Publication Publication Date Title
CN110866882B (zh) 基于深度置信度的分层联合双边滤波深度图修复方法
CN103606132B (zh) 基于空域和时域联合滤波的多帧数字图像去噪方法
CN106780590B (zh) 一种深度图的获取方法及系统
CN109741356B (zh) 一种亚像素边缘检测方法及系统
US8644596B1 (en) Conversion of monoscopic visual content using image-depth database
Gao et al. Sand-dust image restoration based on reversing the blue channel prior
CN101765022B (zh) 一种基于光流与图像分割的深度表示方法
CN102665086B (zh) 利用基于区域的局部立体匹配获取视差的方法
EP3311361B1 (en) Method and apparatus for determining a depth map for an image
CN108898575B (zh) 一种新型自适应权重立体匹配方法
CN106408513B (zh) 深度图超分辨率重建方法
CN107578430B (zh) 一种基于自适应权值和局部熵的立体匹配方法
CN109360235A (zh) 一种基于光场数据的混合深度估计方法
CN108682039B (zh) 一种双目立体视觉测量方法
CN111105452A (zh) 基于双目视觉的高低分辨率融合立体匹配方法
CN103065320A (zh) 基于恒虚警阈值的sar图像变化检测方法
CN115330653A (zh) 基于边窗滤波的多源图像融合方法
CN104038752B (zh) 基于三维高斯混合模型的多视点视频直方图颜色校正
CN113038123A (zh) 无参考全景视频质量评价方法、系统、终端及介质
Chen et al. A color-guided, region-adaptive and depth-selective unified framework for Kinect depth recovery
CN115631223A (zh) 基于自适应学习和聚合的多视图立体重建方法
CN116342519A (zh) 一种基于机器学习的图像处理方法
CN101887579A (zh) 基于散射模型的水下图像复原方法
CN108805841B (zh) 一种基于彩色图引导的深度图恢复及视点合成优化方法
CN113888509A (zh) 一种图像清晰度的评价方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant