CN110264433A - 一种基于彩色分割指导的深度图插值方法 - Google Patents

一种基于彩色分割指导的深度图插值方法 Download PDF

Info

Publication number
CN110264433A
CN110264433A CN201910367937.5A CN201910367937A CN110264433A CN 110264433 A CN110264433 A CN 110264433A CN 201910367937 A CN201910367937 A CN 201910367937A CN 110264433 A CN110264433 A CN 110264433A
Authority
CN
China
Prior art keywords
depth
pixel
interpolation
denoted
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910367937.5A
Other languages
English (en)
Other versions
CN110264433B (zh
Inventor
杨宇翔
朱益中
高明煜
何志伟
曾毓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201910367937.5A priority Critical patent/CN110264433B/zh
Publication of CN110264433A publication Critical patent/CN110264433A/zh
Application granted granted Critical
Publication of CN110264433B publication Critical patent/CN110264433B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于彩色分割指导的深度图插值方法。由于实际应用中彩色相机和深度相机之间存在的旋转和平移矩阵不准确等问题,现有的基于彩色图像的深度图插值方法无法有效重建高质量高分辨率的深度图像,因此在实际应用中受到很大限制。本发明先利用双三次插值方法对低分辨率深度图像进行两倍插值,然后借助彩色分割信息提出了一种鲁棒的插值策略来重建得到高分辨率的深度图。本发明可以有效提高深度图像的插值效果,获得高质量高分辨的深度图像。

Description

一种基于彩色分割指导的深度图插值方法
技术领域
本发明属于计算机视觉领域,具体涉及一种基于彩色分割指导的深度图插值方法。
背景技术
如何提升深度图分辨率是计算机视觉领域一个比较重要且有挑战性的课题,其相关技术广泛应用于三维重建、移动机器人等应用场景。目前,深度图像的获取手段主要有:1)通过立体匹配的方法计算得到深度图像;2)通过直接的测量仪器观测得到深度图像。
立体匹配算法在实际应用中存在很大的局限性。对于无纹理或者具备重复纹理的场景以及左右图像之间由于视角不同造成的遮挡情况,立体匹配方法都不能得到可靠的深度数据。深度相机能够直接测量和输出帧率较高的深度数据。市面上常见的深度相机有ToF相机和Kinect相机。但由于ToF相机的分辨率低,而Kinect相机获得的深度边缘偏差太大,因此其在实际应用中受到很大限制。因此,如何获得场景的高分辨率高质量深度图一直是学界研究的热点。针对上述两类方法各自的限制,一般在深度相机的基础上,通过增加一个或多个成本较低的标准彩色相机将深度图的分辨率提升至与彩色图等同。由于实际应用中彩色相机和深度相机之间存在的遮蔽以及旋转平移矩阵不准确等问题,现有的基于彩色图像的深度图插值方法无法重建高质量高分辨率的深度图像。
发明内容
本发明针对现有技术的不足,提出了一种基于彩色分割指导的深度图插值方法。
本发明先利用双三次插值方法对低分辨率深度图像进行两倍插值,然后借助彩色分割信息提出了一种鲁棒的插值策略来重建得到高分辨率的深度图,本发明可以有效提高深度图像的插值效果,获得高质量高分辨的深度图像。其具体步骤是:
步骤(1)采集深度图像和彩色图像,深度相机采集的低分辨率深度图像记为D,彩色相机采集的高分辨率彩色图像记为I,深度相机坐标系和彩色相机坐标系之间的转换矩阵记为MRT
步骤(2)采用sobel边缘检测算子提取低分辨率深度图像D的边缘图,记为ED
步骤(3)采用双三次插值方法对深度相机获取的原始低分辨率深度图D进行两倍插值,得到长和宽是原先两倍的深度图Dscale_2;遍历Dscale_2内所有像素点Dscale_2(x,y),其中x表示横坐标值,y表示纵坐标值;
如果ED(x/2,y/2)等于1,则认为该处深度值位于深度边缘位置附近,剔除该深度值;如果ED(x/2,y/2)等于0,则保留该深度值;得到一幅大小为初始尺寸2倍的、仅保留平滑区域深度值的深度图,记为DdeE
步骤(4)深度图DdeE上的每一个非零点都对应一个深度相机坐标系下的三维点通过坐标系转换矩阵MRT将每一个点转换为彩色相机坐标系下的
然后利用彩色相机的内参将投影到彩色图像平面上,得到在彩色图像平面的像素坐标[ui,vi]:
其中KC是彩色相机的内参;
从而将DdeE上的每一个非零像素点都投影到彩色图像平面上,得到一幅与彩色图像配准的稀疏深度图Dsparse
步骤(5)采用meanshift分割算法对高分辨率彩色图像I进行分割,获得分割区域图,记为SC
步骤(6)对深度图平滑区域的插值:
①遍历稀疏深度图Dsparse中的待插值像素点,根据SC的分割信息,如果当前像素p在深度散点图中的K个最近邻像素点属于SC的同一分割区域,则认为当前像素p位于平滑区域,执行步骤②;否则重新执行步骤①对下一个待插值像素进行判断;
②计算当前待插值像素p邻域Ωp内其他像素的颜色权值和距离权值计算公式如下:
其中q是p在Ωp内的邻域像素,σc和σd分别表示高斯分布的方差;
计算代表像素p邻域内的像素q对应的总权重ωp,q,其计算公式如下:
其中G是掩膜,有深度值的像素位置为1,没有深度值的像素位置为0;
③根据ωp,q计算当前目标像素的深度值:
其中Dq是邻域Ωp内像素q对应的深度值;
循环执行步骤(6),直至完成平滑区域内所有像素点的插值;
步骤(7)对深度不连续区域的插值:
(a)遍历剩下的未插值像素点,po是当前目标像素,首先获取po邻域内的所有深度数据的集合记为
其中qo是po邻域内的像素;
(b)然后选取内目标像素po的K个最近邻数据构成集合,记为Sknn
Sknn={qo|qo是po的K个最近邻之一}
其中K是选择的po的最近邻的个数;
(c)在邻域内,选取与po处于同一分割区域的所有深度数据构成集合Sseg
(d)取集合Sknn与Sseg的交集,记为Sssnn
(e)选取集合Sssnn中距离分割区域边缘最远的N个深度值构成一个集合,记为SdistN
(f)选取集合SdistN中的众数,记为dmode
(g)将属于Sseg的数据点,分成两类,其中dmode所属的那一类构成一个集合,记为Sproper
(h)在集合Sproper中,选择最靠近当前目标像素po的深度值作为其填充值;
循环执行步骤(7),直至完成所有像素点的插值,从而插值得到最终的高分辨率深度图像记为Dhigh
本发明相对于现有技术所具有的有益效果:本发明提出一种鲁棒的彩色分割指导的深度图插值,可以有效解决由于深度相机与彩色相机联合标定的旋转平移矩阵不够准确而影响插值效果的问题。从而使得插值得到的高分辨率深度图边缘明确,消除了锯齿效应,并且与彩色图的边缘完全一致。
具体实施步骤
步骤(1)采集深度图像和彩色图像,深度相机采集的低分辨率深度图像记为D,彩色相机采集的高分辨率彩色图像记为I,深度相机坐标系和彩色相机坐标系之间的转换矩阵记为MRT
步骤(2)采用sobel边缘检测算子提取低分辨率深度图像D的边缘图,记为ED,sobel算子的灵敏度阈值设为0.02;
步骤(3)采用双三次插值方法对深度相机获取的原始低分辨率深度图D进行两倍插值,得到长和宽是原先两倍的深度图Dscale_2;遍历Dscale_2内所有像素点Dscale_2(x,y),其中x表示横坐标值,y表示纵坐标值;
如果ED(x/2,y/2)等于1,则认为该处深度值位于深度边缘位置附近,剔除该深度值;如果ED(x/2,y/2)等于0,则保留该深度值;得到一幅大小为初始尺寸2倍的、仅保留平滑区域深度值的深度图,记为DdeE
步骤(4)深度图DdeE上的每一个非零点都对应一个深度相机坐标系下的三维点通过坐标系转换矩阵MRT将每一个点转换为彩色相机坐标系下的
然后利用彩色相机的内参可以将投影到彩色图像平面上,得到在彩色图像平面的像素坐标[ui,vi]:
其中KC是彩色相机的内参。
从而得到一幅与彩色图像配准的稀疏深度图Dsparse
步骤(5)采用meanshift分割算法对彩色图进行分割,获得分割区域图,记为SC
步骤(6)对深度图平滑区域的插值:
④遍历稀疏深度图Dsparse中的待插值像素点,根据SC的分割信息,如果当前像素p在深度散点图中的k个最近邻像素点属于SC的同一分割区域,则认为当前像素p位于平滑区域,执行步骤②;否则重新执行步骤①对下一个待插值像素进行判断;
其中k=16;
⑤若是平滑区域,首先计算当前待插值像素p邻域Ωp内其他像素的颜色权值和距离权值计算公式如下:
其中q是p在Ωp内的邻域像素,σc和σd分别表示高斯分布的方差;
其中σc=0.1,σd=10;
计算代表像素p邻域内的像素q对应的总权重ωp,q,其计算公式如下:
其中G是掩膜,有深度值的像素位置为1,没有深度值的位置为0;
⑥根据ωp,q计算当前目标像素的深度值:
其中Dq是邻域Ωp内像素q对应的深度值。
循环执行步骤(6),直至完成平滑区域内所有像素点的插值;
步骤(7)对深度不连续区域的插值:
(a)遍历剩下的未插值像素点,po是当前目标像素,首先获取po邻域内的所有深度数据的集合记为
其中qo是po邻域内的像素;
(b)然后选取内目标像素po的k个最近邻数据构成集合,记为Sknn
Sknn={qo|qo是po的k个最近邻之一}
其中k是选择的po的最近邻的个数,其中k=16;
(c)在邻域内,选取与po处于同一分割区域的所有深度数据构成集合Sseg
(d)取集合Sknn与Sseg的交集,记为Sssnn
(e)选取集合Sssnn中距离分割区域边缘最远的n个深度值构成一个集合,记为SdistN,其中n=5;
(f)选取集合SdistN中的众数,记为dmode
(g)将属于Sseg的数据点,分成两类,其中dmode所属的那一类构成一个集合,记为Sproper
(h)在集合Sproper中,选择最靠近当前目标像素po的深度值作为其填充值;
循环执行步骤(7),直至完成所有像素点的插值,从而插值得到最终的高分辨率深度图像记为Dhigh

Claims (1)

1.一种基于彩色分割指导的深度图插值方法,其特征在于该方法的具体步骤是:
步骤(1)采集深度图像和彩色图像,深度相机采集的低分辨率深度图像记为D,彩色相机采集的高分辨率彩色图像记为I,深度相机坐标系和彩色相机坐标系之间的转换矩阵记为MRT
步骤(2)采用sobel边缘检测算子提取低分辨率深度图像D的边缘图,记为ED
步骤(3)采用双三次插值方法对深度相机获取的原始低分辨率深度图D进行两倍插值,得到长和宽是原先两倍的深度图Dscale_2;遍历Dscale_2内所有像素点Dscale_2(x,y),其中x表示横坐标值,y表示纵坐标值;
如果ED(x/2,y/2)等于1,则认为该处深度值位于深度边缘位置附近,剔除该深度值;如果ED(x/2,y/2)等于0,则保留该深度值;得到一幅大小为初始尺寸2倍的、仅保留平滑区域深度值的深度图,记为DdeE
步骤(4)深度图DdeE上的每一个非零点都对应一个深度相机坐标系下的三维点通过坐标系转换矩阵MRT将每一个点转换为彩色相机坐标系下的
然后利用彩色相机的内参将投影到彩色图像平面上,得到在彩色图像平面的像素坐标[ui,vi]:
其中KC是彩色相机的内参;
从而将DdeE上的每一个非零像素点都投影到彩色图像平面上,得到一幅与彩色图像配准的稀疏深度图Dsparse
步骤(5)采用meanshift分割算法对高分辨率彩色图像I进行分割,获得分割区域图,记为SC
步骤(6)对深度图平滑区域的插值:
①遍历稀疏深度图Dsparse中的待插值像素点,根据SC的分割信息,如果当前像素p在深度散点图中的K个最近邻像素点属于SC的同一分割区域,则认为当前像素p位于平滑区域,执行步骤②;否则重新执行步骤①对下一个待插值像素进行判断;
②计算当前待插值像素p邻域Ωp内其他像素的颜色权值和距离权值计算公式如下:
其中q是p在Ωp内的邻域像素,σc和σd分别表示高斯分布的方差;
计算代表像素p邻域内的像素q对应的总权重ωp,q,其计算公式如下:
其中G是掩膜,有深度值的像素位置为1,没有深度值的像素位置为0;
③根据ωp,q计算当前目标像素的深度值:
其中Dq是邻域Ωp内像素q对应的深度值;
循环执行步骤(6),直至完成平滑区域内所有像素点的插值;
步骤(7)对深度不连续区域的插值:
(a)遍历剩下的未插值像素点,po是当前目标像素,首先获取po邻域内的所有深度数据的集合记为
其中qo是po邻域内的像素;
(b)然后选取内目标像素po的K个最近邻数据构成集合,记为Sknn
Sknn={qo|qo是po的K个最近邻之一}
其中K是选择的po的最近邻的个数;
(c)在邻域内,选取与po处于同一分割区域的所有深度数据构成集合Sseg
(d)取集合Sknn与Sseg的交集,记为Sssnn
(e)选取集合Sssnn中距离分割区域边缘最远的N个深度值构成一个集合,记为SdistN
(f)选取集合SdistN中的众数,记为dmode
(g)将属于Sseg的数据点,分成两类,其中dmode所属的那一类构成一个集合,记为Sproper
(h)在集合Sproper中,选择最靠近当前目标像素po的深度值作为其填充值;
循环执行步骤(7),直至完成所有像素点的插值,从而插值得到最终的高分辨率深度图像记为Dhigh
CN201910367937.5A 2019-05-05 2019-05-05 一种基于彩色分割指导的深度图插值方法 Active CN110264433B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910367937.5A CN110264433B (zh) 2019-05-05 2019-05-05 一种基于彩色分割指导的深度图插值方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910367937.5A CN110264433B (zh) 2019-05-05 2019-05-05 一种基于彩色分割指导的深度图插值方法

Publications (2)

Publication Number Publication Date
CN110264433A true CN110264433A (zh) 2019-09-20
CN110264433B CN110264433B (zh) 2021-04-09

Family

ID=67914186

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910367937.5A Active CN110264433B (zh) 2019-05-05 2019-05-05 一种基于彩色分割指导的深度图插值方法

Country Status (1)

Country Link
CN (1) CN110264433B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669220A (zh) * 2021-01-29 2021-04-16 百度时代网络技术(北京)有限公司 深度图像插值方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150193910A1 (en) * 2013-02-01 2015-07-09 Mitsubishi Electric Research Laboratories, Inc. Method for Increasing Resolutions of Depth Images
CN106651938A (zh) * 2017-01-17 2017-05-10 湖南优象科技有限公司 一种融合高分辨率彩色图像的深度图增强方法
CN108062769A (zh) * 2017-12-22 2018-05-22 中山大学 一种用于三维重建的快速深度恢复方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150193910A1 (en) * 2013-02-01 2015-07-09 Mitsubishi Electric Research Laboratories, Inc. Method for Increasing Resolutions of Depth Images
CN106651938A (zh) * 2017-01-17 2017-05-10 湖南优象科技有限公司 一种融合高分辨率彩色图像的深度图增强方法
CN108062769A (zh) * 2017-12-22 2018-05-22 中山大学 一种用于三维重建的快速深度恢复方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669220A (zh) * 2021-01-29 2021-04-16 百度时代网络技术(北京)有限公司 深度图像插值方法、装置、设备和介质
CN112669220B (zh) * 2021-01-29 2024-04-16 百度时代网络技术(北京)有限公司 深度图像插值方法、装置、设备和介质

Also Published As

Publication number Publication date
CN110264433B (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
CN110569704B (zh) 一种基于立体视觉的多策略自适应车道线检测方法
CN107977997B (zh) 一种结合激光雷达三维点云数据的相机自标定方法
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN103345736B (zh) 一种虚拟视点绘制方法
CN103955920B (zh) 基于三维点云分割的双目视觉障碍物检测方法
CN103400366B (zh) 基于条纹结构光的动态场景深度获取方法
CN104156972B (zh) 基于激光扫描测距仪与多相机融合的透视成像方法
CN106127787B (zh) 一种基于逆投影变换的相机标定方法
CN102609941A (zh) 基于ToF深度相机的三维注册方法
CN102831601A (zh) 基于联合相似性测度和自适应支持权重的立体匹配方法
CN106709948A (zh) 一种基于超像素分割的快速双目立体匹配方法
CN103971404A (zh) 一种高性价比的3d实景复制装置
CN102927908A (zh) 机器人手眼系统结构光平面参数标定装置及方法
CN111091076B (zh) 基于立体视觉的隧道限界数据测量方法
CN106875437A (zh) 一种面向rgbd三维重建的关键帧提取方法
CN108182722B (zh) 一种三维物体边缘优化的真正射影像生成方法
CN104236479A (zh) 一种线结构光三维测量系统及3d纹理图像构造算法
CN103761765A (zh) 基于映射边界优化的三维物体模型纹理映射算法
CN109102546A (zh) 一种基于多标定板的机器人相机的标定方法
CN112967330B (zh) 一种结合SfM和双目匹配的内窥图像三维重建方法
CN113205604A (zh) 一种基于摄像机和激光雷达的可行区域检测方法
CN110738731A (zh) 一种用于双目视觉的3d重建方法和系统
CN105303518A (zh) 一种基于区域特征的视频帧间拼接方法
CN102012213B (zh) 单副图像测量前景高度的新方法
CN106952262A (zh) 一种基于立体视觉的船板加工精度分析方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant