CN111260706A - 一种基于单目相机的稠密深度图计算方法 - Google Patents

一种基于单目相机的稠密深度图计算方法 Download PDF

Info

Publication number
CN111260706A
CN111260706A CN202010089935.7A CN202010089935A CN111260706A CN 111260706 A CN111260706 A CN 111260706A CN 202010089935 A CN202010089935 A CN 202010089935A CN 111260706 A CN111260706 A CN 111260706A
Authority
CN
China
Prior art keywords
depth
pixel
value
image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010089935.7A
Other languages
English (en)
Other versions
CN111260706B (zh
Inventor
纪刚
杨丰拓
朱慧
蒋云飞
柴琦
安帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Lianhe Chuangzhi Technology Co ltd
Original Assignee
Qingdao Lianhe Chuangzhi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Lianhe Chuangzhi Technology Co ltd filed Critical Qingdao Lianhe Chuangzhi Technology Co ltd
Priority to CN202010089935.7A priority Critical patent/CN111260706B/zh
Publication of CN111260706A publication Critical patent/CN111260706A/zh
Application granted granted Critical
Publication of CN111260706B publication Critical patent/CN111260706B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于单目相机的稠密深度图计算方法,包括如下步骤:提取图像上的特征点进行特征匹配,计算图像位姿,以及图像的最大深度和最小深度;利用图像的最大深度和最小深度计算离散深度值集合;对每个像素测试一定数量的从离散深度值集合内随机获取的深度值,得到初始深度值;四通路传播像素的深度;时序融合优化深度图的深度。本发明所公开的方法可以降低存储空间的使用、提高深度传播的并行性、并且有效去除异常点。

Description

一种基于单目相机的稠密深度图计算方法
技术领域
本发明涉及一种深度图计算方法,特别涉及一种基于单目相机的稠密深度图计算方法。
背景技术
深度图计算是基于单目相机的三维重建,SLAM等领域的一项关键技术,深度图计算的精度,速度和稠密度对重建的结果具有重要影响。当前能较为完善的在线深度计算方法有REMODE,VI-MEAN,Quadtree-mapping,monofusion等。这些算法要么需要较多的图片-位姿对参与滤波器过滤,要么需要采样一系列离散深度值(一般为64个)估计深度图,使用了较大的存储空间,或者串行处理整幅图像,耗时较多。
发明内容
为解决上述技术问题,本发明提供了一种基于单目相机的稠密深度图计算方法,以达到降低存储空间的使用、提高深度传播的并行性、并且有效去除异常点的目的。
为达到上述目的,本发明的技术方案如下:
一种基于单目相机的稠密深度图计算方法,包括如下步骤:
步骤一,提取图像上的特征点进行特征匹配,计算图像位姿,以及图像的最大深度和最小深度;
步骤二,利用图像的最大深度和最小深度计算离散深度值集合;
步骤三,对每个像素测试一定数量的从离散深度值集合内随机获取的深度值,得到初始深度值;
步骤四,四通路传播像素的深度;
步骤五,时序融合优化深度图的深度。
上述方案中,所述步骤一的具体方法如下:
(1)单目相机拍摄的图像在时间上连续,选取时间上相近且具有一定基线长度的两帧图像提取SURF特征点,计算两帧图像上的匹配关系,获得一系列匹配点对;
(2)使用RANSAC算法通过二维点到二维点的匹配关系计算单应矩阵和基础矩阵,选择重投影误差较小的矩阵分解出两帧之间的相对位姿;
(3)对相对位姿转化为相对于世界坐标系的位姿,然后使用集束调整方法进行优化,获得图像位姿和稀疏点云,反投影稀疏点云到图像上计算该图像的最大深度和最小深度。
上述方案中,所述步骤二的具体方法如下:
离散深度值集合D计算方法如下:
D={d0 d1…dl…dL},l={0,1,2,…,L}
dl=dmin+l×ε1
Figure BDA0002383334560000021
L为所有可能的深度总数,是一个整数;l为深度索引,dl为第l个深度值,精度阈值ε1为自定义值,dmax为最大深度,dmin为最小深度。
上述方案中,所述步骤三的具体方法如下:
使用并行计算平台CUDA并行处理每一个像素,对每个像素测试J个从离散深度值集合内随机获取的深度值,具体方法如下:
选取当前帧之前计算过的一帧为参考帧,将当前帧上的像素i依据测试深度投影到参考帧上,计算匹配损失;
像素i在深度d处的匹配损失Cost(i,d)计算公式为:
Figure BDA0002383334560000022
其中,W为以选定像素为中心的5*5像素块,p为像素块中的某一像素,Ic(p)为当前帧上以像素i为中心的像素块中某一像素的灰度值,Ir(p)为参考帧上以投影像素ri为中心的像素块中某一像素的灰度值,
Figure BDA0002383334560000023
和σ(Ii)分别为以像素i为中心的像素块均值和标准差,
Figure BDA0002383334560000024
和σ(Iri)分别为以投影像素ri为中心的像素块均值和标准差;
像素的投影计算过程如下:
Trc=Trw×T-1 cw
Figure BDA0002383334560000025
j∈J
Figure BDA0002383334560000031
其中,Trw和Tcw为参考帧位姿和当前帧位姿,而Trc为当前帧变换到参考帧的位姿变换,ui、uri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的纵坐标,vi、vri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的横坐标,dj为第j个深度值,K为已知的相机内参矩阵,Pri是当前帧上的一个像素i在深度dj时对应的空间点在参考帧坐标系下的坐标值,Pri.z为Pri的第三维坐标;
保留匹配损失最低的深度测试值和匹配损失,设置匹配损失最低的深度测试值为当前像素的深度初始值。
上述方案中,所述步骤四的具体方法如下:
使用四路径传播方法将好的深度值传播它的相邻像素位置上去,依次执行自左向右,自上向下,自右向左,自下向上传播,传播过程中每个像素的深度更新公式为:
Figure BDA0002383334560000032
其中,
Figure BDA0002383334560000033
为像素i更新后的深度值,di,df(i-1)分别为像素i更新前的深度和沿深度传播方向的前一个像素的深度值;
深度传播后移除匹配损失大于-0.5的深度值。
上述方案中,所述步骤五的具体方法如下:
根据步骤三中的像素投影计算公式与步骤一中得到的下一帧图像的位姿Tnw,可得当前帧图像变换到下一帧图像的位姿Tnc,以及当前帧上的任意像素i投影到下一帧上的像素ni的坐标(uni,vni)和深度值dni
对当前帧图像上的所有像素执行投影计算,对于多个像素投影到一个像素上的情况,被投影像素取深度最小的值作为深度值;此时获得当前帧传递到下一帧图像的深度图,使用二维插值方法填补传递后的深度图上的微小空洞;
将传递后下一帧的深度图与下一帧经深度传播后的深度图进行融合,得到稠密深度图,具体方法如下:
传递后下一帧的参数包括标准差σ'、深度值d'、贝塔分布参数a'、贝塔分布参数b',下一帧计算出的深度值和标准差分别为d,σ,计算高斯融合后的均值m和方差s2
Figure BDA0002383334560000041
Figure BDA0002383334560000042
计算权重系数c1,c2
Figure BDA0002383334560000043
Figure BDA0002383334560000044
归一化权重系数:
Figure BDA0002383334560000045
Figure BDA0002383334560000046
Figure BDA0002383334560000047
可得更新后的参数为
Figure BDA0002383334560000048
Figure BDA0002383334560000049
Figure BDA00023833345600000410
Figure BDA00023833345600000411
其中,a,b为贝塔分布的参数,e,f为中间变量,
Figure BDA00023833345600000412
分别为更新后的深度值、方差、贝塔分布参数a、贝塔分布参数b;
移除融合后
Figure BDA00023833345600000413
的深度值,输出
Figure BDA00023833345600000414
且更新后方差较小的深度值。
通过上述技术方案,本发明提供的基于单目相机的稠密深度图计算方法具有如下有益效果:
1、相对于局部块匹配的方法,本发明采用概率取点+深度传播的方式,降低存储空间的使用,占用较少的存储资源。
2、相对于现有方法串行传播深度,使用四通路并行传播深度的方法,提高了深度传播的可并行性,加快了深度传播的速度。
3、与现有技术相比,不使用直接生成的深度图去生成三维模型,而是使用了帧间传播更新的方法,有效的去除了噪点,提高了深度图的精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种基于单目相机的稠密深度图计算方法整体流程示意图;
图2为本发明实施例所公开的离散深度集合示意图;
图3为像素投影模型示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种基于单目相机的稠密深度图计算方法,如图1所示,具体方法如下:
步骤一,提取图像上的特征点进行特征匹配,计算图像位姿,以及图像的最大深度和最小深度;
(1)单目相机拍摄的图像在时间上连续,选取时间上相近且具有一定基线长度的两帧图像提取SURF特征点,计算两帧图像上的匹配关系,获得一系列匹配点对;
(2)使用RANSAC算法通过二维点到二维点的匹配关系计算单应矩阵和基础矩阵,选择重投影误差较小的矩阵分解出两帧之间的相对位姿;
(3)对相对位姿转化为相对于世界坐标系的位姿,然后使用集束调整方法进行优化,获得图像位姿和稀疏点云,反投影稀疏点云到图像上计算该图像的最大深度和最小深度。
步骤二,利用图像的最大深度和最小深度计算离散深度值集合,如图2所示;
离散深度值集合D计算方法如下:
D={d0 d1…dl…dL},l={0,1,2,…,L}
dl=dmin+l×ε1
Figure BDA0002383334560000061
L为所有可能的深度总数,是一个整数;l为深度索引,dl为第l个深度值,精度阈值ε1为自定义值,dmax为最大深度,dmin为最小深度。
步骤三,对每个像素测试一定数量的从离散深度值集合内随机获取的深度值,得到初始深度值;
上述方案中,所述步骤三的具体方法如下:
使用并行计算平台CUDA并行处理每一个像素,对每个像素测试J个从离散深度值集合内随机获取的深度值,具体方法如下:
选取当前帧之前计算过的一帧为参考帧,将当前帧上的像素i依据测试深度投影到参考帧上,计算匹配损失;
像素i在深度d处的匹配损失Cost(i,d)计算公式为:
Figure BDA0002383334560000062
其中,W为以选定像素为中心的5*5像素块,p为像素块中的某一像素,Ic(p)为当前帧上以像素i为中心的像素块中某一像素的灰度值,Ir(p)为参考帧上以投影像素ri为中心的像素块中某一像素的灰度值,
Figure BDA0002383334560000063
和σ(Ii)分别为以像素i为中心的像素块均值和标准差,
Figure BDA0002383334560000064
和σ(Iri)分别为以投影像素ri为中心的像素块均值和标准差;
如图3所示,像素的投影计算过程如下:
Trc=Trw×T-1 cw
Figure BDA0002383334560000065
j∈J
Figure BDA0002383334560000071
其中,Trw和Tcw为参考帧位姿和当前帧位姿,而Trc为当前帧变换到参考帧的位姿变换,ui、uri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的纵坐标,vi、vri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的横坐标,dj为第j个深度值,K为已知的相机内参矩阵,Pri是当前帧上的一个像素i在深度dj时对应的空间点在参考帧坐标系下的坐标值,Pri.z为Pri的第三维坐标;
保留匹配损失最低的深度测试值和匹配损失,设置匹配损失最低的深度测试值为当前像素的深度初始值。
步骤四,四通路传播像素的深度;
使用四路径传播方法将好的深度值传播它的相邻像素位置上去,依次执行自左向右,自上向下,自右向左,自下向上传播,传播过程中每个像素的深度更新公式为:
Figure BDA0002383334560000072
其中,
Figure BDA0002383334560000073
为像素i更新后的深度值,di,df(i-1)分别为像素i更新前的深度和沿深度传播方向的前一个像素的深度值;
深度传播后移除匹配损失大于-0.5的深度值。
步骤五,时序融合优化深度图的深度。
根据步骤三中的像素投影计算公式与步骤一中得到的下一帧图像的位姿Tnw,可得当前帧图像变换到下一帧图像的位姿Tnc,以及当前帧上的任意像素i投影到下一帧上的像素ni的坐标(uni,vni)和深度值dni
对当前帧图像上的所有像素执行投影计算,对于多个像素投影到一个像素上的情况,被投影像素取深度最小的值作为深度值;此时获得当前帧传递到下一帧图像的深度图,使用二维插值方法填补传递后的深度图上的微小空洞;
将传递后下一帧的深度图与下一帧经深度传播后的深度图进行融合,得到稠密深度图,具体方法如下:
传递后下一帧的参数包括标准差σ'、深度值d'、贝塔分布参数a'、贝塔分布参数b',下一帧计算出的深度值和标准差分别为d,σ,计算高斯融合后的均值m和方差s2
Figure BDA0002383334560000081
Figure BDA0002383334560000082
计算权重系数c1,c2
Figure BDA0002383334560000083
Figure BDA0002383334560000084
归一化权重系数:
Figure BDA0002383334560000085
Figure BDA0002383334560000086
Figure BDA0002383334560000087
可得更新后的参数为
Figure BDA0002383334560000088
Figure BDA0002383334560000089
Figure BDA00023833345600000810
Figure BDA00023833345600000811
其中,a,b为贝塔分布的参数,e,f为中间变量,
Figure BDA00023833345600000812
分别为更新后的深度值、方差、贝塔分布参数a、贝塔分布参数b;
移除融合后
Figure BDA00023833345600000813
的深度值,输出
Figure BDA00023833345600000814
且更新后方差较小的深度值。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种基于单目相机的稠密深度图计算方法,其特征在于,包括如下步骤:
步骤一,提取图像上的特征点进行特征匹配,计算图像位姿,以及图像的最大深度和最小深度;
步骤二,利用图像的最大深度和最小深度计算离散深度值集合;
步骤三,对每个像素测试一定数量的从离散深度值集合内随机获取的深度值,得到初始深度值;
步骤四,四通路传播像素的深度;
步骤五,时序融合优化深度图的深度。
2.根据权利要求1所述的一种基于单目相机的稠密深度图计算方法,其特征在于,所述步骤一的具体方法如下:
(1)单目相机拍摄的图像在时间上连续,选取时间上相近且具有一定基线长度的两帧图像提取SURF特征点,计算两帧图像上的匹配关系,获得一系列匹配点对;
(2)使用RANSAC算法通过二维点到二维点的匹配关系计算单应矩阵和基础矩阵,选择重投影误差较小的矩阵分解出两帧之间的相对位姿;
(3)对相对位姿转化为相对于世界坐标系的位姿,然后使用集束调整方法进行优化,获得图像位姿和稀疏点云,反投影稀疏点云到图像上计算该图像的最大深度和最小深度。
3.根据权利要求2所述的一种基于单目相机的稠密深度图计算方法,其特征在于,所述步骤二的具体方法如下:
离散深度值集合D计算方法如下:
D={d0 d1…dl…dL},l={0,1,2,…,L}
dl=dmin+l×ε1
Figure FDA0002383334550000011
L为所有可能的深度总数,是一个整数;l为深度索引,dl为第l个深度值,精度阈值ε1为自定义值,dmax为最大深度,dmin为最小深度。
4.根据权利要求3所述的一种基于单目相机的稠密深度图计算方法,其特征在于,所述步骤三的具体方法如下:
使用并行计算平台CUDA并行处理每一个像素,对每个像素测试J个从离散深度值集合内随机获取的深度值,具体方法如下:
选取当前帧之前计算过的一帧为参考帧,将当前帧上的像素i依据测试深度投影到参考帧上,计算匹配损失;
像素i在深度d处的匹配损失Cost(i,d)计算公式为:
Figure FDA0002383334550000021
其中,W为以选定像素为中心的5*5像素块,p为像素块中的某一像素,Ic(p)为当前帧上以像素i为中心的像素块中某一像素的灰度值,Ir(p)为参考帧上以投影像素ri为中心的像素块中某一像素的灰度值,
Figure FDA0002383334550000022
和σ(Ii)分别为以像素i为中心的像素块均值和标准差,
Figure FDA0002383334550000023
和σ(Iri)分别为以投影像素ri为中心的像素块均值和标准差;
像素的投影计算过程如下:
Trc=Trw×T-1 cw
Figure FDA0002383334550000024
Figure FDA0002383334550000025
其中,Trw和Tcw为参考帧位姿和当前帧位姿,而Trc为当前帧变换到参考帧的位姿变换,ui、uri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的纵坐标,vi、vri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的横坐标,dj为第j个深度值,K为已知的相机内参矩阵,Pri是当前帧上的一个像素i在深度dj时对应的空间点在参考帧坐标系下的坐标值,Pri.z为Pri的第三维坐标;
保留匹配损失最低的深度测试值和匹配损失,设置匹配损失最低的深度测试值为当前像素的深度初始值。
5.根据权利要求4所述的一种基于单目相机的稠密深度图计算方法,其特征在于,所述步骤四的具体方法如下:
使用四路径传播方法将好的深度值传播它的相邻像素位置上去,依次执行自左向右,自上向下,自右向左,自下向上传播,传播过程中每个像素的深度更新公式为:
Figure FDA0002383334550000031
其中,
Figure FDA0002383334550000032
为像素i更新后的深度值,di,df(i-1)分别为像素i更新前的深度和沿深度传播方向的前一个像素的深度值;
深度传播后移除匹配损失大于-0.5的深度值。
6.根据权利要求5所述的一种基于单目相机的稠密深度图计算方法,其特征在于,所述步骤五的具体方法如下:
根据步骤三中的像素投影计算公式与步骤一中得到的下一帧图像的位姿Tnw,可得当前帧图像变换到下一帧图像的位姿Tnc,以及当前帧上的任意像素i投影到下一帧上的像素ni的坐标(uni,vni)和深度值dni
对当前帧图像上的所有像素执行投影计算,对于多个像素投影到一个像素上的情况,被投影像素取深度最小的值作为深度值;此时获得当前帧传递到下一帧图像的深度图,使用二维插值方法填补传递后的深度图上的微小空洞;
将传递后下一帧的深度图与下一帧经深度传播后的深度图进行融合,得到稠密深度图,具体方法如下:
传递后下一帧的参数包括标准差σ'、深度值d'、贝塔分布参数a'、贝塔分布参数b',下一帧计算出的深度值和标准差分别为d,σ,计算高斯融合后的均值m和方差s2
Figure FDA0002383334550000033
Figure FDA0002383334550000034
计算权重系数c1,c2
Figure FDA0002383334550000041
Figure FDA0002383334550000042
归一化权重系数:
Figure FDA0002383334550000043
Figure FDA0002383334550000044
Figure FDA0002383334550000045
可得更新后的参数为
Figure FDA0002383334550000046
Figure FDA0002383334550000047
Figure FDA0002383334550000048
Figure FDA0002383334550000049
其中,a,b为贝塔分布的参数,e,f为中间变量,
Figure FDA00023833345500000410
分别为更新后的深度值、方差、贝塔分布参数a、贝塔分布参数b;
移除融合后
Figure FDA00023833345500000411
的深度值,输出
Figure FDA00023833345500000412
且更新后方差较小的深度值。
CN202010089935.7A 2020-02-13 2020-02-13 一种基于单目相机的稠密深度图计算方法 Active CN111260706B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010089935.7A CN111260706B (zh) 2020-02-13 2020-02-13 一种基于单目相机的稠密深度图计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010089935.7A CN111260706B (zh) 2020-02-13 2020-02-13 一种基于单目相机的稠密深度图计算方法

Publications (2)

Publication Number Publication Date
CN111260706A true CN111260706A (zh) 2020-06-09
CN111260706B CN111260706B (zh) 2023-04-25

Family

ID=70951267

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010089935.7A Active CN111260706B (zh) 2020-02-13 2020-02-13 一种基于单目相机的稠密深度图计算方法

Country Status (1)

Country Link
CN (1) CN111260706B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112948814A (zh) * 2021-03-19 2021-06-11 合肥京东方光电科技有限公司 一种账号密码的管理方法、装置及存储介质
CN113834463A (zh) * 2021-09-01 2021-12-24 重庆邮电大学 基于绝对尺寸的智能车侧方行人/车单目深度测距方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654492A (zh) * 2015-12-30 2016-06-08 哈尔滨工业大学 基于消费级摄像头的鲁棒实时三维重建方法
CN107945265A (zh) * 2017-11-29 2018-04-20 华中科技大学 基于在线学习深度预测网络的实时稠密单目slam方法与系统
WO2018105513A1 (en) * 2016-12-06 2018-06-14 Nidec Corporation Waveguide device module and microwave module
CN108416840A (zh) * 2018-03-14 2018-08-17 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN108520554A (zh) * 2018-04-12 2018-09-11 无锡信捷电气股份有限公司 一种基于orb-slam2的双目三维稠密建图方法
US20180322646A1 (en) * 2016-01-05 2018-11-08 California Institute Of Technology Gaussian mixture models for temporal depth fusion
CN109461180A (zh) * 2018-09-25 2019-03-12 北京理工大学 一种基于深度学习的三维场景重建方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654492A (zh) * 2015-12-30 2016-06-08 哈尔滨工业大学 基于消费级摄像头的鲁棒实时三维重建方法
US20180322646A1 (en) * 2016-01-05 2018-11-08 California Institute Of Technology Gaussian mixture models for temporal depth fusion
WO2018105513A1 (en) * 2016-12-06 2018-06-14 Nidec Corporation Waveguide device module and microwave module
CN107945265A (zh) * 2017-11-29 2018-04-20 华中科技大学 基于在线学习深度预测网络的实时稠密单目slam方法与系统
CN108416840A (zh) * 2018-03-14 2018-08-17 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN108520554A (zh) * 2018-04-12 2018-09-11 无锡信捷电气股份有限公司 一种基于orb-slam2的双目三维稠密建图方法
CN109461180A (zh) * 2018-09-25 2019-03-12 北京理工大学 一种基于深度学习的三维场景重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LONG CHEN: "《SLAM-based dense surface reconstruction in monocular Minimally Invasive Surgery and its application to Augmented Reality》" *
杨海清: "《基于深度滤波器优化的SLAM单目稠密重建》" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112948814A (zh) * 2021-03-19 2021-06-11 合肥京东方光电科技有限公司 一种账号密码的管理方法、装置及存储介质
CN113834463A (zh) * 2021-09-01 2021-12-24 重庆邮电大学 基于绝对尺寸的智能车侧方行人/车单目深度测距方法

Also Published As

Publication number Publication date
CN111260706B (zh) 2023-04-25

Similar Documents

Publication Publication Date Title
CN111444811B (zh) 一种三维点云目标检测的方法
CN108648161B (zh) 非对称核卷积神经网络的双目视觉障碍物检测系统及方法
CN111161364B (zh) 一种针对单视角深度图的实时形状补全和姿态估计方法
CN114782691A (zh) 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备
CN113723317B (zh) 3d人脸的重建方法、装置、电子设备和存储介质
CN109410266A (zh) 基于四模Census变换和离散视差搜索的立体匹配算法
CN109389156B (zh) 一种图像定位模型的训练方法、装置及图像定位方法
CN111260706B (zh) 一种基于单目相机的稠密深度图计算方法
CN111680573B (zh) 人脸识别方法、装置、电子设备和存储介质
CN113920270B (zh) 一种基于多视角全景的布局重建方法及其系统
CN115375844A (zh) 一种融合注意力机制的单目三维重建方法
CN115482268A (zh) 一种基于散斑匹配网络的高精度三维形貌测量方法与系统
CN116721216A (zh) 基于GCF-MVSNet网络的多视图三维重建方法
CN110889868A (zh) 一种结合梯度和纹理特征的单目图像深度估计方法
CN114155406A (zh) 一种基于区域级特征融合的位姿估计方法
CN108921852B (zh) 基于视差与平面拟合的双分支室外非结构化地形分割网络
CN116188728A (zh) 一种建筑网格模型重构为cad指令模型的方法及装置
CN113808006B (zh) 一种基于二维图像重建三维网格模型的方法及装置
CN113902847B (zh) 基于三维特征约束的单目深度图像位姿优化方法
CN111669563B (zh) 一种基于强化学习的立体图像视觉舒适度增强方法
CN107194931A (zh) 一种基于双目图像匹配获取目标深度信息的方法和系统
CN114611667A (zh) 一种基于小规模参数矩阵计算特征图边界的重构方法
CN113242419A (zh) 基于静态建筑的2d转3d方法及系统
CN116824086B (zh) 一种三维运动目标重建方法及系统
CN113496521B (zh) 利用多张彩色图片生成深度图像与相机外参的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant