CN111260706A - 一种基于单目相机的稠密深度图计算方法 - Google Patents
一种基于单目相机的稠密深度图计算方法 Download PDFInfo
- Publication number
- CN111260706A CN111260706A CN202010089935.7A CN202010089935A CN111260706A CN 111260706 A CN111260706 A CN 111260706A CN 202010089935 A CN202010089935 A CN 202010089935A CN 111260706 A CN111260706 A CN 111260706A
- Authority
- CN
- China
- Prior art keywords
- depth
- pixel
- value
- image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000012360 testing method Methods 0.000 claims abstract description 16
- 230000004927 fusion Effects 0.000 claims abstract description 7
- 230000005540 biological transmission Effects 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 6
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 claims description 3
- 230000002159 abnormal effect Effects 0.000 abstract 1
- 230000002123 temporal effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于单目相机的稠密深度图计算方法,包括如下步骤:提取图像上的特征点进行特征匹配,计算图像位姿,以及图像的最大深度和最小深度;利用图像的最大深度和最小深度计算离散深度值集合;对每个像素测试一定数量的从离散深度值集合内随机获取的深度值,得到初始深度值;四通路传播像素的深度;时序融合优化深度图的深度。本发明所公开的方法可以降低存储空间的使用、提高深度传播的并行性、并且有效去除异常点。
Description
技术领域
本发明涉及一种深度图计算方法,特别涉及一种基于单目相机的稠密深度图计算方法。
背景技术
深度图计算是基于单目相机的三维重建,SLAM等领域的一项关键技术,深度图计算的精度,速度和稠密度对重建的结果具有重要影响。当前能较为完善的在线深度计算方法有REMODE,VI-MEAN,Quadtree-mapping,monofusion等。这些算法要么需要较多的图片-位姿对参与滤波器过滤,要么需要采样一系列离散深度值(一般为64个)估计深度图,使用了较大的存储空间,或者串行处理整幅图像,耗时较多。
发明内容
为解决上述技术问题,本发明提供了一种基于单目相机的稠密深度图计算方法,以达到降低存储空间的使用、提高深度传播的并行性、并且有效去除异常点的目的。
为达到上述目的,本发明的技术方案如下:
一种基于单目相机的稠密深度图计算方法,包括如下步骤:
步骤一,提取图像上的特征点进行特征匹配,计算图像位姿,以及图像的最大深度和最小深度;
步骤二,利用图像的最大深度和最小深度计算离散深度值集合;
步骤三,对每个像素测试一定数量的从离散深度值集合内随机获取的深度值,得到初始深度值;
步骤四,四通路传播像素的深度;
步骤五,时序融合优化深度图的深度。
上述方案中,所述步骤一的具体方法如下:
(1)单目相机拍摄的图像在时间上连续,选取时间上相近且具有一定基线长度的两帧图像提取SURF特征点,计算两帧图像上的匹配关系,获得一系列匹配点对;
(2)使用RANSAC算法通过二维点到二维点的匹配关系计算单应矩阵和基础矩阵,选择重投影误差较小的矩阵分解出两帧之间的相对位姿;
(3)对相对位姿转化为相对于世界坐标系的位姿,然后使用集束调整方法进行优化,获得图像位姿和稀疏点云,反投影稀疏点云到图像上计算该图像的最大深度和最小深度。
上述方案中,所述步骤二的具体方法如下:
离散深度值集合D计算方法如下:
D={d0 d1…dl…dL},l={0,1,2,…,L}
dl=dmin+l×ε1
L为所有可能的深度总数,是一个整数;l为深度索引,dl为第l个深度值,精度阈值ε1为自定义值,dmax为最大深度,dmin为最小深度。
上述方案中,所述步骤三的具体方法如下:
使用并行计算平台CUDA并行处理每一个像素,对每个像素测试J个从离散深度值集合内随机获取的深度值,具体方法如下:
选取当前帧之前计算过的一帧为参考帧,将当前帧上的像素i依据测试深度投影到参考帧上,计算匹配损失;
像素i在深度d处的匹配损失Cost(i,d)计算公式为:
其中,W为以选定像素为中心的5*5像素块,p为像素块中的某一像素,Ic(p)为当前帧上以像素i为中心的像素块中某一像素的灰度值,Ir(p)为参考帧上以投影像素ri为中心的像素块中某一像素的灰度值,和σ(Ii)分别为以像素i为中心的像素块均值和标准差,和σ(Iri)分别为以投影像素ri为中心的像素块均值和标准差;
像素的投影计算过程如下:
Trc=Trw×T-1 cw
其中,Trw和Tcw为参考帧位姿和当前帧位姿,而Trc为当前帧变换到参考帧的位姿变换,ui、uri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的纵坐标,vi、vri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的横坐标,dj为第j个深度值,K为已知的相机内参矩阵,Pri是当前帧上的一个像素i在深度dj时对应的空间点在参考帧坐标系下的坐标值,Pri.z为Pri的第三维坐标;
保留匹配损失最低的深度测试值和匹配损失,设置匹配损失最低的深度测试值为当前像素的深度初始值。
上述方案中,所述步骤四的具体方法如下:
使用四路径传播方法将好的深度值传播它的相邻像素位置上去,依次执行自左向右,自上向下,自右向左,自下向上传播,传播过程中每个像素的深度更新公式为:
深度传播后移除匹配损失大于-0.5的深度值。
上述方案中,所述步骤五的具体方法如下:
根据步骤三中的像素投影计算公式与步骤一中得到的下一帧图像的位姿Tnw,可得当前帧图像变换到下一帧图像的位姿Tnc,以及当前帧上的任意像素i投影到下一帧上的像素ni的坐标(uni,vni)和深度值dni;
对当前帧图像上的所有像素执行投影计算,对于多个像素投影到一个像素上的情况,被投影像素取深度最小的值作为深度值;此时获得当前帧传递到下一帧图像的深度图,使用二维插值方法填补传递后的深度图上的微小空洞;
将传递后下一帧的深度图与下一帧经深度传播后的深度图进行融合,得到稠密深度图,具体方法如下:
传递后下一帧的参数包括标准差σ'、深度值d'、贝塔分布参数a'、贝塔分布参数b',下一帧计算出的深度值和标准差分别为d,σ,计算高斯融合后的均值m和方差s2:
计算权重系数c1,c2:
归一化权重系数:
可得更新后的参数为
通过上述技术方案,本发明提供的基于单目相机的稠密深度图计算方法具有如下有益效果:
1、相对于局部块匹配的方法,本发明采用概率取点+深度传播的方式,降低存储空间的使用,占用较少的存储资源。
2、相对于现有方法串行传播深度,使用四通路并行传播深度的方法,提高了深度传播的可并行性,加快了深度传播的速度。
3、与现有技术相比,不使用直接生成的深度图去生成三维模型,而是使用了帧间传播更新的方法,有效的去除了噪点,提高了深度图的精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本发明实施例所公开的一种基于单目相机的稠密深度图计算方法整体流程示意图;
图2为本发明实施例所公开的离散深度集合示意图;
图3为像素投影模型示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
本发明提供了一种基于单目相机的稠密深度图计算方法,如图1所示,具体方法如下:
步骤一,提取图像上的特征点进行特征匹配,计算图像位姿,以及图像的最大深度和最小深度;
(1)单目相机拍摄的图像在时间上连续,选取时间上相近且具有一定基线长度的两帧图像提取SURF特征点,计算两帧图像上的匹配关系,获得一系列匹配点对;
(2)使用RANSAC算法通过二维点到二维点的匹配关系计算单应矩阵和基础矩阵,选择重投影误差较小的矩阵分解出两帧之间的相对位姿;
(3)对相对位姿转化为相对于世界坐标系的位姿,然后使用集束调整方法进行优化,获得图像位姿和稀疏点云,反投影稀疏点云到图像上计算该图像的最大深度和最小深度。
步骤二,利用图像的最大深度和最小深度计算离散深度值集合,如图2所示;
离散深度值集合D计算方法如下:
D={d0 d1…dl…dL},l={0,1,2,…,L}
dl=dmin+l×ε1
L为所有可能的深度总数,是一个整数;l为深度索引,dl为第l个深度值,精度阈值ε1为自定义值,dmax为最大深度,dmin为最小深度。
步骤三,对每个像素测试一定数量的从离散深度值集合内随机获取的深度值,得到初始深度值;
上述方案中,所述步骤三的具体方法如下:
使用并行计算平台CUDA并行处理每一个像素,对每个像素测试J个从离散深度值集合内随机获取的深度值,具体方法如下:
选取当前帧之前计算过的一帧为参考帧,将当前帧上的像素i依据测试深度投影到参考帧上,计算匹配损失;
像素i在深度d处的匹配损失Cost(i,d)计算公式为:
其中,W为以选定像素为中心的5*5像素块,p为像素块中的某一像素,Ic(p)为当前帧上以像素i为中心的像素块中某一像素的灰度值,Ir(p)为参考帧上以投影像素ri为中心的像素块中某一像素的灰度值,和σ(Ii)分别为以像素i为中心的像素块均值和标准差,和σ(Iri)分别为以投影像素ri为中心的像素块均值和标准差;
如图3所示,像素的投影计算过程如下:
Trc=Trw×T-1 cw
其中,Trw和Tcw为参考帧位姿和当前帧位姿,而Trc为当前帧变换到参考帧的位姿变换,ui、uri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的纵坐标,vi、vri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的横坐标,dj为第j个深度值,K为已知的相机内参矩阵,Pri是当前帧上的一个像素i在深度dj时对应的空间点在参考帧坐标系下的坐标值,Pri.z为Pri的第三维坐标;
保留匹配损失最低的深度测试值和匹配损失,设置匹配损失最低的深度测试值为当前像素的深度初始值。
步骤四,四通路传播像素的深度;
使用四路径传播方法将好的深度值传播它的相邻像素位置上去,依次执行自左向右,自上向下,自右向左,自下向上传播,传播过程中每个像素的深度更新公式为:
深度传播后移除匹配损失大于-0.5的深度值。
步骤五,时序融合优化深度图的深度。
根据步骤三中的像素投影计算公式与步骤一中得到的下一帧图像的位姿Tnw,可得当前帧图像变换到下一帧图像的位姿Tnc,以及当前帧上的任意像素i投影到下一帧上的像素ni的坐标(uni,vni)和深度值dni;
对当前帧图像上的所有像素执行投影计算,对于多个像素投影到一个像素上的情况,被投影像素取深度最小的值作为深度值;此时获得当前帧传递到下一帧图像的深度图,使用二维插值方法填补传递后的深度图上的微小空洞;
将传递后下一帧的深度图与下一帧经深度传播后的深度图进行融合,得到稠密深度图,具体方法如下:
传递后下一帧的参数包括标准差σ'、深度值d'、贝塔分布参数a'、贝塔分布参数b',下一帧计算出的深度值和标准差分别为d,σ,计算高斯融合后的均值m和方差s2:
计算权重系数c1,c2:
归一化权重系数:
可得更新后的参数为
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (6)
1.一种基于单目相机的稠密深度图计算方法,其特征在于,包括如下步骤:
步骤一,提取图像上的特征点进行特征匹配,计算图像位姿,以及图像的最大深度和最小深度;
步骤二,利用图像的最大深度和最小深度计算离散深度值集合;
步骤三,对每个像素测试一定数量的从离散深度值集合内随机获取的深度值,得到初始深度值;
步骤四,四通路传播像素的深度;
步骤五,时序融合优化深度图的深度。
2.根据权利要求1所述的一种基于单目相机的稠密深度图计算方法,其特征在于,所述步骤一的具体方法如下:
(1)单目相机拍摄的图像在时间上连续,选取时间上相近且具有一定基线长度的两帧图像提取SURF特征点,计算两帧图像上的匹配关系,获得一系列匹配点对;
(2)使用RANSAC算法通过二维点到二维点的匹配关系计算单应矩阵和基础矩阵,选择重投影误差较小的矩阵分解出两帧之间的相对位姿;
(3)对相对位姿转化为相对于世界坐标系的位姿,然后使用集束调整方法进行优化,获得图像位姿和稀疏点云,反投影稀疏点云到图像上计算该图像的最大深度和最小深度。
4.根据权利要求3所述的一种基于单目相机的稠密深度图计算方法,其特征在于,所述步骤三的具体方法如下:
使用并行计算平台CUDA并行处理每一个像素,对每个像素测试J个从离散深度值集合内随机获取的深度值,具体方法如下:
选取当前帧之前计算过的一帧为参考帧,将当前帧上的像素i依据测试深度投影到参考帧上,计算匹配损失;
像素i在深度d处的匹配损失Cost(i,d)计算公式为:
其中,W为以选定像素为中心的5*5像素块,p为像素块中的某一像素,Ic(p)为当前帧上以像素i为中心的像素块中某一像素的灰度值,Ir(p)为参考帧上以投影像素ri为中心的像素块中某一像素的灰度值,和σ(Ii)分别为以像素i为中心的像素块均值和标准差,和σ(Iri)分别为以投影像素ri为中心的像素块均值和标准差;
像素的投影计算过程如下:
Trc=Trw×T-1 cw
其中,Trw和Tcw为参考帧位姿和当前帧位姿,而Trc为当前帧变换到参考帧的位姿变换,ui、uri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的纵坐标,vi、vri分别为当前帧上任意一个像素i和该像素i投影到参考帧上像素ri的横坐标,dj为第j个深度值,K为已知的相机内参矩阵,Pri是当前帧上的一个像素i在深度dj时对应的空间点在参考帧坐标系下的坐标值,Pri.z为Pri的第三维坐标;
保留匹配损失最低的深度测试值和匹配损失,设置匹配损失最低的深度测试值为当前像素的深度初始值。
6.根据权利要求5所述的一种基于单目相机的稠密深度图计算方法,其特征在于,所述步骤五的具体方法如下:
根据步骤三中的像素投影计算公式与步骤一中得到的下一帧图像的位姿Tnw,可得当前帧图像变换到下一帧图像的位姿Tnc,以及当前帧上的任意像素i投影到下一帧上的像素ni的坐标(uni,vni)和深度值dni;
对当前帧图像上的所有像素执行投影计算,对于多个像素投影到一个像素上的情况,被投影像素取深度最小的值作为深度值;此时获得当前帧传递到下一帧图像的深度图,使用二维插值方法填补传递后的深度图上的微小空洞;
将传递后下一帧的深度图与下一帧经深度传播后的深度图进行融合,得到稠密深度图,具体方法如下:
传递后下一帧的参数包括标准差σ'、深度值d'、贝塔分布参数a'、贝塔分布参数b',下一帧计算出的深度值和标准差分别为d,σ,计算高斯融合后的均值m和方差s2:
计算权重系数c1,c2:
归一化权重系数:
可得更新后的参数为
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010089935.7A CN111260706B (zh) | 2020-02-13 | 2020-02-13 | 一种基于单目相机的稠密深度图计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010089935.7A CN111260706B (zh) | 2020-02-13 | 2020-02-13 | 一种基于单目相机的稠密深度图计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111260706A true CN111260706A (zh) | 2020-06-09 |
CN111260706B CN111260706B (zh) | 2023-04-25 |
Family
ID=70951267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010089935.7A Active CN111260706B (zh) | 2020-02-13 | 2020-02-13 | 一种基于单目相机的稠密深度图计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111260706B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112948814A (zh) * | 2021-03-19 | 2021-06-11 | 合肥京东方光电科技有限公司 | 一种账号密码的管理方法、装置及存储介质 |
CN113834463A (zh) * | 2021-09-01 | 2021-12-24 | 重庆邮电大学 | 基于绝对尺寸的智能车侧方行人/车单目深度测距方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654492A (zh) * | 2015-12-30 | 2016-06-08 | 哈尔滨工业大学 | 基于消费级摄像头的鲁棒实时三维重建方法 |
CN107945265A (zh) * | 2017-11-29 | 2018-04-20 | 华中科技大学 | 基于在线学习深度预测网络的实时稠密单目slam方法与系统 |
WO2018105513A1 (en) * | 2016-12-06 | 2018-06-14 | Nidec Corporation | Waveguide device module and microwave module |
CN108416840A (zh) * | 2018-03-14 | 2018-08-17 | 大连理工大学 | 一种基于单目相机的三维场景稠密重建方法 |
CN108520554A (zh) * | 2018-04-12 | 2018-09-11 | 无锡信捷电气股份有限公司 | 一种基于orb-slam2的双目三维稠密建图方法 |
US20180322646A1 (en) * | 2016-01-05 | 2018-11-08 | California Institute Of Technology | Gaussian mixture models for temporal depth fusion |
CN109461180A (zh) * | 2018-09-25 | 2019-03-12 | 北京理工大学 | 一种基于深度学习的三维场景重建方法 |
-
2020
- 2020-02-13 CN CN202010089935.7A patent/CN111260706B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654492A (zh) * | 2015-12-30 | 2016-06-08 | 哈尔滨工业大学 | 基于消费级摄像头的鲁棒实时三维重建方法 |
US20180322646A1 (en) * | 2016-01-05 | 2018-11-08 | California Institute Of Technology | Gaussian mixture models for temporal depth fusion |
WO2018105513A1 (en) * | 2016-12-06 | 2018-06-14 | Nidec Corporation | Waveguide device module and microwave module |
CN107945265A (zh) * | 2017-11-29 | 2018-04-20 | 华中科技大学 | 基于在线学习深度预测网络的实时稠密单目slam方法与系统 |
CN108416840A (zh) * | 2018-03-14 | 2018-08-17 | 大连理工大学 | 一种基于单目相机的三维场景稠密重建方法 |
CN108520554A (zh) * | 2018-04-12 | 2018-09-11 | 无锡信捷电气股份有限公司 | 一种基于orb-slam2的双目三维稠密建图方法 |
CN109461180A (zh) * | 2018-09-25 | 2019-03-12 | 北京理工大学 | 一种基于深度学习的三维场景重建方法 |
Non-Patent Citations (2)
Title |
---|
LONG CHEN: "《SLAM-based dense surface reconstruction in monocular Minimally Invasive Surgery and its application to Augmented Reality》" * |
杨海清: "《基于深度滤波器优化的SLAM单目稠密重建》" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112948814A (zh) * | 2021-03-19 | 2021-06-11 | 合肥京东方光电科技有限公司 | 一种账号密码的管理方法、装置及存储介质 |
CN113834463A (zh) * | 2021-09-01 | 2021-12-24 | 重庆邮电大学 | 基于绝对尺寸的智能车侧方行人/车单目深度测距方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111260706B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444811B (zh) | 一种三维点云目标检测的方法 | |
CN108648161B (zh) | 非对称核卷积神经网络的双目视觉障碍物检测系统及方法 | |
CN111161364B (zh) | 一种针对单视角深度图的实时形状补全和姿态估计方法 | |
CN114782691A (zh) | 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备 | |
CN113723317B (zh) | 3d人脸的重建方法、装置、电子设备和存储介质 | |
CN109410266A (zh) | 基于四模Census变换和离散视差搜索的立体匹配算法 | |
CN109389156B (zh) | 一种图像定位模型的训练方法、装置及图像定位方法 | |
CN111260706B (zh) | 一种基于单目相机的稠密深度图计算方法 | |
CN111680573B (zh) | 人脸识别方法、装置、电子设备和存储介质 | |
CN113920270B (zh) | 一种基于多视角全景的布局重建方法及其系统 | |
CN115375844A (zh) | 一种融合注意力机制的单目三维重建方法 | |
CN115482268A (zh) | 一种基于散斑匹配网络的高精度三维形貌测量方法与系统 | |
CN116721216A (zh) | 基于GCF-MVSNet网络的多视图三维重建方法 | |
CN110889868A (zh) | 一种结合梯度和纹理特征的单目图像深度估计方法 | |
CN114155406A (zh) | 一种基于区域级特征融合的位姿估计方法 | |
CN108921852B (zh) | 基于视差与平面拟合的双分支室外非结构化地形分割网络 | |
CN116188728A (zh) | 一种建筑网格模型重构为cad指令模型的方法及装置 | |
CN113808006B (zh) | 一种基于二维图像重建三维网格模型的方法及装置 | |
CN113902847B (zh) | 基于三维特征约束的单目深度图像位姿优化方法 | |
CN111669563B (zh) | 一种基于强化学习的立体图像视觉舒适度增强方法 | |
CN107194931A (zh) | 一种基于双目图像匹配获取目标深度信息的方法和系统 | |
CN114611667A (zh) | 一种基于小规模参数矩阵计算特征图边界的重构方法 | |
CN113242419A (zh) | 基于静态建筑的2d转3d方法及系统 | |
CN116824086B (zh) | 一种三维运动目标重建方法及系统 | |
CN113496521B (zh) | 利用多张彩色图片生成深度图像与相机外参的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |