CN114332348B - 一种融合激光雷达与图像数据的轨道三维重建方法 - Google Patents

一种融合激光雷达与图像数据的轨道三维重建方法 Download PDF

Info

Publication number
CN114332348B
CN114332348B CN202111351860.6A CN202111351860A CN114332348B CN 114332348 B CN114332348 B CN 114332348B CN 202111351860 A CN202111351860 A CN 202111351860A CN 114332348 B CN114332348 B CN 114332348B
Authority
CN
China
Prior art keywords
point cloud
point
points
image
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111351860.6A
Other languages
English (en)
Other versions
CN114332348A (zh
Inventor
何庆
付彬
王启航
王平
曾楚琦
王晓明
陈正兴
杨康华
郝翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN202111351860.6A priority Critical patent/CN114332348B/zh
Publication of CN114332348A publication Critical patent/CN114332348A/zh
Application granted granted Critical
Publication of CN114332348B publication Critical patent/CN114332348B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明涉及三维重建领域,具体为一种融合激光雷达与图像数据的轨道三维重建方法。其包括如下步骤:S1、将激光雷达传感器、惯导系统安装于手持搭载设备上,并通过数据接口与电脑相连;S2、运行传感器驱动并开始数据采集,使用摄像设备获取照片数据;S3.1、激光点云通过RANSAC算法评估局部区域点的凹凸程度来提取边缘和平面特征点;S3.2、使用SFM重建稀疏点云,而后使用CMVS重建稠密点云;S4.1、进行激光点云与图像点云尺度拟合;S4.2、通过求解对应点变换后的距离误差和来判断当前配准变换的性能;S4.3、融合纹理色彩信息;S5、拟合两组点云。本发明优化了点云密度和点云数据类型,采集设备移动轻便,满足实时移动,三维模型精度高、纹理完善。

Description

一种融合激光雷达与图像数据的轨道三维重建方法
技术领域
本发明涉及三维重建领域,特别是涉及一种融合激光雷达与图像数据的轨道三维重建方法。
背景技术
轨道在三维重建方面多依赖于BIM建模,通过设计图纸在软件中直接进行建模重现,这种方式需要人工处理数据完成建模,且无法还原真实的环境。而目前应用较为常见的三维建模技术是近景测量,这种方式易受距离、光线和人工影响,且智能化程度低,模型精度无法达到需求。激光雷达技术可用于对既有环境的大范围、高精度扫描,快速得到三维几何数据,且激光雷达受环境因素影响小,具有较高实时性,非常适合三维建模。但缺乏目标物体的色彩纹理,单纯的点云图像无法满足轨道模型的使用要求。
目前使用激光雷达与图像进行三维重建的方法多依赖于设备的高精度,且基本无法获取目标物体的纹理信息,无法对大场景进行快速准确的三维重建。对融合的图像数据采集要求繁琐复杂,且效果多依赖人工经验。
发明内容
本发明目的是针对背景技术中存在的问题,提出一种融合激光雷达与图像数据的轨道三维重建方法,优化了点云密度和点云数据类型,采集数据方便,采集设备移动轻便,满足实时移动,三维模型精度高、纹理完善。
本发明的技术方案,一种融合激光雷达与图像数据的轨道三维重建方法,包括如下步骤:
S1、将激光雷达传感器、惯导系统安装于手持搭载设备上,并通过数据接口与电脑相连,传感器上电,待雷达转数平稳后开始S2;
S2、在电脑上运行传感器驱动并开始数据采集,围绕被测物体运动或沿被测物体匀速运动,采集点云数据,同时使用摄像设备获取照片数据;
S3.1、激光点云通过RANSAC算法评估局部区域点的凹凸程度来提取边缘和平面特征点;基于提取的特征点构建约束关系,采用关键帧策略进行优化配准和相对转换计算;最后将点云配准至全局地图中;
S3.2、使用SFM重建稀疏点云,而后使用CMVS重建稠密点云,以提取拍摄的图像特征,生成片面,特征片面聚类,而后得到图像点云;两组点云通过分割后得到轨道部位的点云,采用直通滤波方式对点云进行降噪处理,去除噪点;
S4.1、通过Match scales进行激光点云与图像点云尺度拟合;
S4.2、为在融合两组点云时降低误差,首先使用RANSAC拟合出激光点云和图像点云中的轨道板平面,设定采样最小距离阈值,计算点云中每个点的表面法线n,确定一个邻域半径r,以每个点为原点,选择半径r内的所有近邻并计算PFH(Point FeatureHistogram)特征,对于每个点pi、pj,i≠j,在邻域中有法线ni、nj,其局部坐标轴计算如下:
Figure BDA0003356059310000021
而后通过下式计算得到表面法线的角度变换:
Figure BDA0003356059310000022
式中:(a,φ,θ)为每个点的PFH特征;
然后在图像点云中索引具有相同FPFH(Fast Point Feature Histogram)特征的一个或多个相似点,从中选取一个点作为激光点云在图像点云中的对应点;最后计算对应点之间的刚体变换矩阵,通过求解对应点变换后的距离误差和来判断当前配准变换的性能;
S4.3、以激光点云
Figure BDA0003356059310000031
为基准,对于通过图像重建点云/>
Figure BDA0003356059310000032
有点集合/>
Figure BDA0003356059310000033
通过配准后,对于/>
Figure BDA0003356059310000034
有/>
Figure BDA0003356059310000035
过Kdtree索引将/>
Figure BDA0003356059310000036
最邻近/>
Figure BDA0003356059310000037
的RGB值赋予/>
Figure BDA0003356059310000038
融合纹理色彩信息;根据K叉树更新点云位置关系:
Figure BDA0003356059310000039
Figure BDA00033560593100000310
Figure BDA00033560593100000311
S5、拟合两组点云,进行信息互补,最终得到轨道完整点云。
优选的,S3.1中的具体点云配准流程如下:
1).通过将每一帧点云进行RANSAC平面拟合分割为边缘(非平面)特征点集合
Figure BDA00033560593100000312
和平面特征点集合/>
Figure BDA00033560593100000313
得到雷达帧/>
Figure BDA00033560593100000314
2).根据IMU估计的机器人运动矩阵
Figure BDA00033560593100000315
将/>
Figure BDA00033560593100000316
从坐标系B转换到坐标系W,获得/>
Figure BDA00033560593100000317
而后在边缘体素地图/>
Figure BDA00033560593100000318
和平面体素地图/>
Figure BDA00033560593100000319
中,找到每一个/>
Figure BDA00033560593100000320
Figure BDA00033560593100000321
特征点;
3).计算一个特征与其相关的边缘或平面之间的距离dek、dpk
4).使用高斯牛顿法最小化下列残差模型求解最优转换:
Figure BDA00033560593100000322
式中:
Figure BDA00033560593100000323
为/>
Figure BDA00033560593100000324
中的一个平面特征,/>
Figure BDA00033560593100000325
为/>
Figure BDA00033560593100000326
中的一个平面特征;
5).使用滑窗的方式产生一个包含最近时刻固定帧数的点云地图;因为采用分割边缘点和平面点的方式,因此构成的体素地图Mi由两个子体素地图边特征体素地图
Figure BDA00033560593100000327
和面特征体素地图/>
Figure BDA00033560593100000328
组成,其相关性如下:/>
Figure BDA0003356059310000041
式中:
Figure BDA0003356059310000042
优选的,S3.2中,重建点云的重叠聚类公式:
Figure BDA0003356059310000043
Figure BDA0003356059310000044
Figure BDA0003356059310000045
式中:∑k|Ck|为最小化输出集群的图像总数,α由计算资源决定,Ii为输入影像,δ设置为0.7。
优选的,还包括S6、通过连续性概率分布函数WEIBULL统计两组点云的最邻近点的分布来估计两组点云的拟合精度,并与传统的点云配准的结果进行对比,连续性概率分布函数为:
Figure BDA0003356059310000046
式中:x为随机变量,λ>0,λ为比例参数,k>0,k为形状参数。
与现有技术相比,本发明具有如下有益的技术效果:
本发明优化了点云密度,相较于传统的激光雷达测绘所得到的点云三维地图,融合点云地图的点密度最高可提升至原有的一倍。本发明优化了点云数据类型,通过结合图像数据,丰富点云色彩纹理信息,使融合点云同时具有高精度和富有真实感。本发明基于便携式激光雷达里程计融合图像数据对铁路进行三维重建。铁路复杂环境下需采集数据方便,轻便的采集设备,满足实时移动,快速采集的要求。三维模型需满足精度高、纹理完善的要求,因此,基于便携式激光里程计融合图像数据的优化程度更高。
附图说明
图1为本发明实施例的结构示意图;
图2为激光点云配准至全局地图中的示意图;
图3为图像点云重建后的示意图;
图4为激光点云和图像点云的拟合图;
图5为降低两组点云融合误差后的成果的全局图;
图6为图5的局部图。
具体实施方式
本发明提出的一种融合激光雷达与图像数据的轨道三维重建方法,如图1所示,包括如下步骤:
S1、将激光雷达传感器、惯导系统安装于手持搭载设备上,并通过数据接口与电脑相连,传感器上电,待雷达转数平稳后开始S2;
S2、在电脑上运行传感器驱动并开始数据采集,围绕被测物体运动或沿被测物体匀速运动,采集点云数据,同时使用摄像设备获取照片数据;
S3.1、激光点云通过RANSAC算法评估局部区域点的凹凸程度来提取边缘和平面特征点;基于提取的特征点构建约束关系,采用关键帧策略进行优化配准和相对转换计算;最后将点云配准至全局地图中,如图2所示;具体点云配准流程如下:
1).通过将每一帧点云进行RANSAC平面拟合分割为边缘(非平面)特征点集合
Figure BDA0003356059310000051
和平面特征点集合/>
Figure BDA0003356059310000052
得到雷达帧/>
Figure BDA0003356059310000053
2).根据IMU估计的机器人运动矩阵
Figure BDA0003356059310000054
将/>
Figure BDA0003356059310000055
从坐标系B转换到坐标系W,获得/>
Figure BDA0003356059310000056
而后在边缘体素地图/>
Figure BDA0003356059310000057
和平面体素地图/>
Figure BDA0003356059310000058
中,找到每一个/>
Figure BDA0003356059310000059
Figure BDA00033560593100000510
特征点;
3).计算一个特征与其相关的边缘或平面之间的距离dek、dpk
4).使用高斯牛顿法最小化下列残差模型求解最优转换:
Figure BDA0003356059310000061
式中:
Figure BDA0003356059310000062
为/>
Figure BDA0003356059310000063
中的一个平面特征,/>
Figure BDA0003356059310000064
为/>
Figure BDA0003356059310000065
中的一个平面特征;
5).使用滑窗的方式产生一个包含最近时刻固定帧数的点云地图;因为采用分割边缘点和平面点的方式,因此构成的体素地图Mi由两个子体素地图边特征体素地图
Figure BDA0003356059310000066
和面特征体素地图/>
Figure BDA0003356059310000067
组成,其相关性如下:
Figure BDA0003356059310000068
式中:
Figure BDA0003356059310000069
S3.2、使用SFM重建稀疏点云,而后使用CMVS重建稠密点云,如图3所示;以提取拍摄的图像特征,生成片面,特征片面聚类,而后得到图像点云;两组点云通过分割后得到轨道部位的点云,采用直通滤波方式对点云进行降噪处理,去除噪点,重建点云的重叠聚类公式:
Figure BDA00033560593100000610
Figure BDA00033560593100000611
Figure BDA00033560593100000612
式中:∑k|Ck|为最小化输出集群的图像总数,α由计算资源决定,Ii为输入影像,δ设置为0.7;
S4.1、通过Match scales进行激光点云与图像点云尺度拟合,如图4所示;
S4.2、如图5-6所示,为在融合两组点云时降低误差,首先使用RANSAC拟合出激光点云和图像点云中的轨道板平面,设定采样最小距离阈值,计算点云中每个点的表面法线n,确定一个邻域半径r,以每个点为原点,选择半径r内的所有近邻并计算PFH(PointFeature Histogram)特征,对于每个点pi、pj,i≠j,在邻域中有法线ni、nj,其局部坐标轴计算如下:
Figure BDA0003356059310000071
而后通过下式计算得到表面法线的角度变换:
Figure BDA0003356059310000072
式中:(a,φ,θ)为每个点的PFH特征;
然后在图像点云中索引具有相同FPFH(Fast Point Feature Histogram)特征的一个或多个相似点,从中选取一个点作为激光点云在图像点云中的对应点;最后计算对应点之间的刚体变换矩阵,通过求解对应点变换后的距离误差和来判断当前配准变换的性能;
S4.3、以激光点云
Figure BDA0003356059310000073
为基准,对于通过图像重建点云/>
Figure BDA0003356059310000074
有点集合/>
Figure BDA0003356059310000075
通过配准后,对于/>
Figure BDA0003356059310000076
有/>
Figure BDA0003356059310000077
通过Kdtree索引将/>
Figure BDA0003356059310000078
最邻近/>
Figure BDA0003356059310000079
的RGB值赋予/>
Figure BDA00033560593100000710
融合纹理色彩信息;根据K叉树更新点云位置关系:
Figure BDA00033560593100000711
Figure BDA00033560593100000712
Figure BDA00033560593100000713
S5、拟合两组点云,进行信息互补,最终得到轨道完整点云;
S6、通过连续性概率分布函数WEIBULL统计两组点云的最邻近点的分布来估计两组点云的拟合精度,并与传统的点云配准的结果进行对比,连续性概率分布函数为:
Figure BDA0003356059310000081
式中:x为随机变量,λ>0,λ为比例参数,k>0,k为形状参数。
本发明优化了点云密度,相较于传统的激光雷达测绘所得到的点云三维地图,融合点云地图的点密度最高可提升至原有的一倍。本发明优化了点云数据类型,通过结合图像数据,丰富点云色彩纹理信息,使融合点云同时具有高精度和富有真实感;两组点云数据的融合采用的都是特征迭代,通过大量的电脑计算,得到最佳的匹配矩阵,相较人工的处理方式,在精度和效率上都得到了很大提升。本发明基于便携式激光雷达里程计融合图像数据对铁路进行三维重建。铁路复杂环境下需采集数据方便,轻便的采集设备,满足实时移动,快速采集的要求。三维模型需满足精度高、纹理完善的要求,因此,基于便携式激光里程计融合图像数据的优化程度更高。
上面结合附图对本发明的实施方式作了详细说明,但是本发明并不限于此,在所属技术领域的技术人员所具备的知识范围内,在不脱离本发明宗旨的前提下还可以作出各种变化。

Claims (3)

1.一种融合激光雷达与图像数据的轨道三维重建方法,其特征在于,包括如下步骤:
S1、将激光雷达传感器、惯导系统安装于手持搭载设备上,并通过数据接口与电脑相连,传感器上电,待雷达转数平稳后开始S2;
S2、在电脑上运行传感器驱动并开始数据采集,围绕被测物体运动或沿被测物体匀速运动,采集点云数据,同时使用摄像设备获取照片数据;
S3.1、激光点云通过RANSAC算法评估局部区域点的凹凸程度来提取边缘和平面特征点;基于提取的特征点构建约束关系,采用关键帧策略进行优化配准和相对转换计算;最后将点云配准至全局地图中;
S3.1中的具体点云配准流程如下:
1)通过将每一帧点云进行RANSAC平面拟合分割为边缘特征点集合
Figure FDA0004199047220000011
和平面特征点几何/>
Figure FDA0004199047220000012
得到雷达帧/>
Figure FDA0004199047220000013
2)根据IMU估计的机器人运动矩阵
Figure FDA0004199047220000014
将/>
Figure FDA0004199047220000015
从坐标系B转换到坐标系W,获得
Figure FDA0004199047220000016
而后在边缘体素地图/>
Figure FDA0004199047220000017
和平面体素地图/>
Figure FDA0004199047220000018
中,找到每一个/>
Figure FDA0004199047220000019
和/>
Figure FDA00041990472200000110
特征点;
3)计算一个特征与其相关的边缘或平面之间的距离dek、dpk
4)使用高斯牛顿法最小化下列残差模型求解最优转换:
Figure FDA00041990472200000111
式中,
Figure FDA00041990472200000112
为/>
Figure FDA00041990472200000113
中的一个平面特征,/>
Figure FDA00041990472200000114
为/>
Figure FDA00041990472200000115
中的一个平面特征;
5)使用滑窗的方式产生一个包含最近时刻固定帧数的点云地图;因为采用分割边缘点和平面点的方式,因此构成的体素地图Mi由两个子体素地图边特征体素地图
Figure FDA0004199047220000021
和面特征体素地图/>
Figure FDA0004199047220000022
组成,其相关性如下:
Figure FDA0004199047220000023
式中:
Figure FDA0004199047220000024
S3.2、使用SFM重建稀疏点云,而后使用CMVS重建稠密点云,以提取拍摄的图像特征,生成片面,特征片面聚类,而后得到图像点云;两组点云通过分割后得到轨道部位的点云,采用直通滤波方式对点云进行降噪处理,去除噪点;
S4.1、通过Match scales进行激光点云与图像点云尺度拟合;
S4.2、为在融合两组点云时降低误差,首先使用RANSAC拟合出激光点云和图像点云中的轨道板平面,设定采样最小距离阈值,计算点云中每个点的表面法线n,确定一个邻域半径r,以每个点为原点,选择半径r内的所有近邻并计算PFH特征,对于每个点pi、pj,i≠j,在邻域中有法线ni、nj,其局部坐标轴计算如下:
Figure FDA0004199047220000025
而后通过下式计算得到表面法线的角度变换:
Figure FDA0004199047220000026
式中:(a,φ,θ)为每个点的PFH特征;
然后在图像点云中索引具有相同FPFH特征的一个或多个相似点,从中选取一个点作为激光点云在图像点云中的对应点;最后计算对应点之间的刚体变换矩阵,通过求解对应点变换后的距离误差和来判断当前配准变换的性能;
S4.3、以激光点云
Figure FDA0004199047220000027
为基准,对于通过图像重建点云/>
Figure FDA0004199047220000028
有点集合/>
Figure FDA0004199047220000031
通过配准后,对于/>
Figure FDA0004199047220000032
有/>
Figure FDA0004199047220000033
通过Kdtree索引将/>
Figure FDA0004199047220000034
最邻近/>
Figure FDA0004199047220000035
的RGB值赋予/>
Figure FDA0004199047220000036
融合纹理色彩信息;根据K叉树更新点云位置关系:
Figure FDA0004199047220000037
Figure FDA0004199047220000038
Figure FDA0004199047220000039
S5、拟合两组点云,进行信息互补,最终得到轨道完整点云。
2.根据权利要求1所述的一种融合激光雷达与图像数据的轨道三维重建方法,其特征在于,S3.2中,重建点云的重叠聚类公式:
Figure FDA00041990472200000310
式中:∑k|Ck|为最小化输出集群的图像总数,α由计算资源决定,Ii为输入影像,δ设置为0.7。
3.根据权利要求1所述的一种融合激光雷达与图像数据的轨道三维重建方法,其特征在于,还包括S6、通过连续性概率分布函数WEIBULL统计两组点云的最邻近点的分布来估计两组点云的拟合精度,并与传统的点云配准的结果进行对比,连续性概率分布函数为:
Figure FDA00041990472200000311
/>
式中:x为随机变量,λ>0,λ为比例参数,l>0,l为形状参数。
CN202111351860.6A 2021-11-16 2021-11-16 一种融合激光雷达与图像数据的轨道三维重建方法 Active CN114332348B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111351860.6A CN114332348B (zh) 2021-11-16 2021-11-16 一种融合激光雷达与图像数据的轨道三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111351860.6A CN114332348B (zh) 2021-11-16 2021-11-16 一种融合激光雷达与图像数据的轨道三维重建方法

Publications (2)

Publication Number Publication Date
CN114332348A CN114332348A (zh) 2022-04-12
CN114332348B true CN114332348B (zh) 2023-06-02

Family

ID=81045230

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111351860.6A Active CN114332348B (zh) 2021-11-16 2021-11-16 一种融合激光雷达与图像数据的轨道三维重建方法

Country Status (1)

Country Link
CN (1) CN114332348B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758006B (zh) * 2023-05-18 2024-02-06 广州广检建设工程检测中心有限公司 脚手架质量检测方法及装置
CN116740288B (zh) * 2023-08-14 2023-10-20 北京数慧时空信息技术有限公司 一种融合激光雷达、倾斜摄影的三维重建方法
CN116858215B (zh) * 2023-09-05 2023-12-05 武汉大学 一种ar导航地图生成方法及装置
CN117036622B (zh) * 2023-10-08 2024-02-23 海纳云物联科技有限公司 融合航拍图像和地面扫描的三维重建方法、装置和设备
CN117115362B (zh) * 2023-10-20 2024-04-26 成都量芯集成科技有限公司 一种室内结构化场景三维重建方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106872963A (zh) * 2017-03-31 2017-06-20 厦门大学 一种多组多线激光雷达的自动标定算法
CN109658444A (zh) * 2018-11-23 2019-04-19 大连理工大学 一种基于多模态特征的规则三维彩色点云配准方法
CN110415342A (zh) * 2019-08-02 2019-11-05 深圳市唯特视科技有限公司 一种基于多融合传感器的三维点云重建装置与方法
CN110717983A (zh) * 2019-09-07 2020-01-21 苏州工业园区测绘地理信息有限公司 一种基于背包式三维激光点云数据的建筑物立面三维重建方法
WO2020155616A1 (zh) * 2019-01-29 2020-08-06 浙江省北大信息技术高等研究院 一种基于数字视网膜的拍摄装置的定位方法
CN113066162A (zh) * 2021-03-12 2021-07-02 武汉大学 一种用于电磁计算的城市环境快速建模方法
CN113298934A (zh) * 2021-05-26 2021-08-24 重庆邮电大学 一种基于双向匹配的单目视觉图像三维重建方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106872963A (zh) * 2017-03-31 2017-06-20 厦门大学 一种多组多线激光雷达的自动标定算法
CN109658444A (zh) * 2018-11-23 2019-04-19 大连理工大学 一种基于多模态特征的规则三维彩色点云配准方法
WO2020155616A1 (zh) * 2019-01-29 2020-08-06 浙江省北大信息技术高等研究院 一种基于数字视网膜的拍摄装置的定位方法
CN110415342A (zh) * 2019-08-02 2019-11-05 深圳市唯特视科技有限公司 一种基于多融合传感器的三维点云重建装置与方法
CN110717983A (zh) * 2019-09-07 2020-01-21 苏州工业园区测绘地理信息有限公司 一种基于背包式三维激光点云数据的建筑物立面三维重建方法
CN113066162A (zh) * 2021-03-12 2021-07-02 武汉大学 一种用于电磁计算的城市环境快速建模方法
CN113298934A (zh) * 2021-05-26 2021-08-24 重庆邮电大学 一种基于双向匹配的单目视觉图像三维重建方法及系统

Also Published As

Publication number Publication date
CN114332348A (zh) 2022-04-12

Similar Documents

Publication Publication Date Title
CN114332348B (zh) 一种融合激光雷达与图像数据的轨道三维重建方法
Xia et al. Geometric primitives in LiDAR point clouds: A review
CN109410321B (zh) 基于卷积神经网络的三维重建方法
CN112288875B (zh) 一种面向无人机矿山巡检场景的快速三维重建方法
Sun et al. Aerial 3D building detection and modeling from airborne LiDAR point clouds
CN111340797A (zh) 一种激光雷达与双目相机数据融合检测方法及系统
CN104156536B (zh) 一种盾构机刀具磨损的可视化定量标定及分析方法
CN111899328B (zh) 一种基于rgb数据与生成对抗网络的点云三维重建方法
CN112418245B (zh) 基于城市环境物理模型的电磁发射点定位方法
CN111652892A (zh) 一种基于深度学习的遥感影像建筑物矢量提取及优化方法
CN107862735B (zh) 一种基于结构信息的rgbd三维场景重建方法
CN110363054B (zh) 道路标识线识别方法、装置和系统
CN113192200B (zh) 一种基于空三并行计算算法的城市实景三维模型的构建方法
CN113706710A (zh) 基于fpfh特征差异的虚拟点多源点云融合方法及系统
CN113516664A (zh) 一种基于语义分割动态点的视觉slam方法
CN115032648A (zh) 一种基于激光雷达密集点云的三维目标识别与定位方法
CN110490915B (zh) 一种基于卷积受限玻尔兹曼机的点云配准方法
CN115272599A (zh) 一种面向城市信息模型的三维语义地图构建方法
CN116740288B (zh) 一种融合激光雷达、倾斜摄影的三维重建方法
CN113536959A (zh) 一种基于立体视觉的动态障碍物检测方法
CN117132737A (zh) 一种三维建筑模型构建方法、系统及设备
CN116385892A (zh) 基于目标上下文卷积神经网络的数字高程模型提取方法
CN115690138A (zh) 一种融合车载影像与点云的道路边界提取与矢量化方法
CN113781639B (zh) 一种大场景道路基础设施数字化模型快速构建方法
CN115790539A (zh) 一种合作靶标水下摄影测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant