CN114332348B - 一种融合激光雷达与图像数据的轨道三维重建方法 - Google Patents
一种融合激光雷达与图像数据的轨道三维重建方法 Download PDFInfo
- Publication number
- CN114332348B CN114332348B CN202111351860.6A CN202111351860A CN114332348B CN 114332348 B CN114332348 B CN 114332348B CN 202111351860 A CN202111351860 A CN 202111351860A CN 114332348 B CN114332348 B CN 114332348B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- point
- points
- image
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明涉及三维重建领域,具体为一种融合激光雷达与图像数据的轨道三维重建方法。其包括如下步骤:S1、将激光雷达传感器、惯导系统安装于手持搭载设备上,并通过数据接口与电脑相连;S2、运行传感器驱动并开始数据采集,使用摄像设备获取照片数据;S3.1、激光点云通过RANSAC算法评估局部区域点的凹凸程度来提取边缘和平面特征点;S3.2、使用SFM重建稀疏点云,而后使用CMVS重建稠密点云;S4.1、进行激光点云与图像点云尺度拟合;S4.2、通过求解对应点变换后的距离误差和来判断当前配准变换的性能;S4.3、融合纹理色彩信息;S5、拟合两组点云。本发明优化了点云密度和点云数据类型,采集设备移动轻便,满足实时移动,三维模型精度高、纹理完善。
Description
技术领域
本发明涉及三维重建领域,特别是涉及一种融合激光雷达与图像数据的轨道三维重建方法。
背景技术
轨道在三维重建方面多依赖于BIM建模,通过设计图纸在软件中直接进行建模重现,这种方式需要人工处理数据完成建模,且无法还原真实的环境。而目前应用较为常见的三维建模技术是近景测量,这种方式易受距离、光线和人工影响,且智能化程度低,模型精度无法达到需求。激光雷达技术可用于对既有环境的大范围、高精度扫描,快速得到三维几何数据,且激光雷达受环境因素影响小,具有较高实时性,非常适合三维建模。但缺乏目标物体的色彩纹理,单纯的点云图像无法满足轨道模型的使用要求。
目前使用激光雷达与图像进行三维重建的方法多依赖于设备的高精度,且基本无法获取目标物体的纹理信息,无法对大场景进行快速准确的三维重建。对融合的图像数据采集要求繁琐复杂,且效果多依赖人工经验。
发明内容
本发明目的是针对背景技术中存在的问题,提出一种融合激光雷达与图像数据的轨道三维重建方法,优化了点云密度和点云数据类型,采集数据方便,采集设备移动轻便,满足实时移动,三维模型精度高、纹理完善。
本发明的技术方案,一种融合激光雷达与图像数据的轨道三维重建方法,包括如下步骤:
S1、将激光雷达传感器、惯导系统安装于手持搭载设备上,并通过数据接口与电脑相连,传感器上电,待雷达转数平稳后开始S2;
S2、在电脑上运行传感器驱动并开始数据采集,围绕被测物体运动或沿被测物体匀速运动,采集点云数据,同时使用摄像设备获取照片数据;
S3.1、激光点云通过RANSAC算法评估局部区域点的凹凸程度来提取边缘和平面特征点;基于提取的特征点构建约束关系,采用关键帧策略进行优化配准和相对转换计算;最后将点云配准至全局地图中;
S3.2、使用SFM重建稀疏点云,而后使用CMVS重建稠密点云,以提取拍摄的图像特征,生成片面,特征片面聚类,而后得到图像点云;两组点云通过分割后得到轨道部位的点云,采用直通滤波方式对点云进行降噪处理,去除噪点;
S4.1、通过Match scales进行激光点云与图像点云尺度拟合;
S4.2、为在融合两组点云时降低误差,首先使用RANSAC拟合出激光点云和图像点云中的轨道板平面,设定采样最小距离阈值,计算点云中每个点的表面法线n,确定一个邻域半径r,以每个点为原点,选择半径r内的所有近邻并计算PFH(Point FeatureHistogram)特征,对于每个点pi、pj,i≠j,在邻域中有法线ni、nj,其局部坐标轴计算如下:
而后通过下式计算得到表面法线的角度变换:
式中:(a,φ,θ)为每个点的PFH特征;
然后在图像点云中索引具有相同FPFH(Fast Point Feature Histogram)特征的一个或多个相似点,从中选取一个点作为激光点云在图像点云中的对应点;最后计算对应点之间的刚体变换矩阵,通过求解对应点变换后的距离误差和来判断当前配准变换的性能;
S5、拟合两组点云,进行信息互补,最终得到轨道完整点云。
优选的,S3.1中的具体点云配准流程如下:
3).计算一个特征与其相关的边缘或平面之间的距离dek、dpk;
4).使用高斯牛顿法最小化下列残差模型求解最优转换:
优选的,S3.2中,重建点云的重叠聚类公式:
式中:∑k|Ck|为最小化输出集群的图像总数,α由计算资源决定,Ii为输入影像,δ设置为0.7。
优选的,还包括S6、通过连续性概率分布函数WEIBULL统计两组点云的最邻近点的分布来估计两组点云的拟合精度,并与传统的点云配准的结果进行对比,连续性概率分布函数为:
式中:x为随机变量,λ>0,λ为比例参数,k>0,k为形状参数。
与现有技术相比,本发明具有如下有益的技术效果:
本发明优化了点云密度,相较于传统的激光雷达测绘所得到的点云三维地图,融合点云地图的点密度最高可提升至原有的一倍。本发明优化了点云数据类型,通过结合图像数据,丰富点云色彩纹理信息,使融合点云同时具有高精度和富有真实感。本发明基于便携式激光雷达里程计融合图像数据对铁路进行三维重建。铁路复杂环境下需采集数据方便,轻便的采集设备,满足实时移动,快速采集的要求。三维模型需满足精度高、纹理完善的要求,因此,基于便携式激光里程计融合图像数据的优化程度更高。
附图说明
图1为本发明实施例的结构示意图;
图2为激光点云配准至全局地图中的示意图;
图3为图像点云重建后的示意图;
图4为激光点云和图像点云的拟合图;
图5为降低两组点云融合误差后的成果的全局图;
图6为图5的局部图。
具体实施方式
本发明提出的一种融合激光雷达与图像数据的轨道三维重建方法,如图1所示,包括如下步骤:
S1、将激光雷达传感器、惯导系统安装于手持搭载设备上,并通过数据接口与电脑相连,传感器上电,待雷达转数平稳后开始S2;
S2、在电脑上运行传感器驱动并开始数据采集,围绕被测物体运动或沿被测物体匀速运动,采集点云数据,同时使用摄像设备获取照片数据;
S3.1、激光点云通过RANSAC算法评估局部区域点的凹凸程度来提取边缘和平面特征点;基于提取的特征点构建约束关系,采用关键帧策略进行优化配准和相对转换计算;最后将点云配准至全局地图中,如图2所示;具体点云配准流程如下:
3).计算一个特征与其相关的边缘或平面之间的距离dek、dpk;
4).使用高斯牛顿法最小化下列残差模型求解最优转换:
S3.2、使用SFM重建稀疏点云,而后使用CMVS重建稠密点云,如图3所示;以提取拍摄的图像特征,生成片面,特征片面聚类,而后得到图像点云;两组点云通过分割后得到轨道部位的点云,采用直通滤波方式对点云进行降噪处理,去除噪点,重建点云的重叠聚类公式:
式中:∑k|Ck|为最小化输出集群的图像总数,α由计算资源决定,Ii为输入影像,δ设置为0.7;
S4.1、通过Match scales进行激光点云与图像点云尺度拟合,如图4所示;
S4.2、如图5-6所示,为在融合两组点云时降低误差,首先使用RANSAC拟合出激光点云和图像点云中的轨道板平面,设定采样最小距离阈值,计算点云中每个点的表面法线n,确定一个邻域半径r,以每个点为原点,选择半径r内的所有近邻并计算PFH(PointFeature Histogram)特征,对于每个点pi、pj,i≠j,在邻域中有法线ni、nj,其局部坐标轴计算如下:
而后通过下式计算得到表面法线的角度变换:
式中:(a,φ,θ)为每个点的PFH特征;
然后在图像点云中索引具有相同FPFH(Fast Point Feature Histogram)特征的一个或多个相似点,从中选取一个点作为激光点云在图像点云中的对应点;最后计算对应点之间的刚体变换矩阵,通过求解对应点变换后的距离误差和来判断当前配准变换的性能;
S5、拟合两组点云,进行信息互补,最终得到轨道完整点云;
S6、通过连续性概率分布函数WEIBULL统计两组点云的最邻近点的分布来估计两组点云的拟合精度,并与传统的点云配准的结果进行对比,连续性概率分布函数为:
式中:x为随机变量,λ>0,λ为比例参数,k>0,k为形状参数。
本发明优化了点云密度,相较于传统的激光雷达测绘所得到的点云三维地图,融合点云地图的点密度最高可提升至原有的一倍。本发明优化了点云数据类型,通过结合图像数据,丰富点云色彩纹理信息,使融合点云同时具有高精度和富有真实感;两组点云数据的融合采用的都是特征迭代,通过大量的电脑计算,得到最佳的匹配矩阵,相较人工的处理方式,在精度和效率上都得到了很大提升。本发明基于便携式激光雷达里程计融合图像数据对铁路进行三维重建。铁路复杂环境下需采集数据方便,轻便的采集设备,满足实时移动,快速采集的要求。三维模型需满足精度高、纹理完善的要求,因此,基于便携式激光里程计融合图像数据的优化程度更高。
上面结合附图对本发明的实施方式作了详细说明,但是本发明并不限于此,在所属技术领域的技术人员所具备的知识范围内,在不脱离本发明宗旨的前提下还可以作出各种变化。
Claims (3)
1.一种融合激光雷达与图像数据的轨道三维重建方法,其特征在于,包括如下步骤:
S1、将激光雷达传感器、惯导系统安装于手持搭载设备上,并通过数据接口与电脑相连,传感器上电,待雷达转数平稳后开始S2;
S2、在电脑上运行传感器驱动并开始数据采集,围绕被测物体运动或沿被测物体匀速运动,采集点云数据,同时使用摄像设备获取照片数据;
S3.1、激光点云通过RANSAC算法评估局部区域点的凹凸程度来提取边缘和平面特征点;基于提取的特征点构建约束关系,采用关键帧策略进行优化配准和相对转换计算;最后将点云配准至全局地图中;
S3.1中的具体点云配准流程如下:
3)计算一个特征与其相关的边缘或平面之间的距离dek、dpk;
4)使用高斯牛顿法最小化下列残差模型求解最优转换:
S3.2、使用SFM重建稀疏点云,而后使用CMVS重建稠密点云,以提取拍摄的图像特征,生成片面,特征片面聚类,而后得到图像点云;两组点云通过分割后得到轨道部位的点云,采用直通滤波方式对点云进行降噪处理,去除噪点;
S4.1、通过Match scales进行激光点云与图像点云尺度拟合;
S4.2、为在融合两组点云时降低误差,首先使用RANSAC拟合出激光点云和图像点云中的轨道板平面,设定采样最小距离阈值,计算点云中每个点的表面法线n,确定一个邻域半径r,以每个点为原点,选择半径r内的所有近邻并计算PFH特征,对于每个点pi、pj,i≠j,在邻域中有法线ni、nj,其局部坐标轴计算如下:
而后通过下式计算得到表面法线的角度变换:
式中:(a,φ,θ)为每个点的PFH特征;
然后在图像点云中索引具有相同FPFH特征的一个或多个相似点,从中选取一个点作为激光点云在图像点云中的对应点;最后计算对应点之间的刚体变换矩阵,通过求解对应点变换后的距离误差和来判断当前配准变换的性能;
S5、拟合两组点云,进行信息互补,最终得到轨道完整点云。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111351860.6A CN114332348B (zh) | 2021-11-16 | 2021-11-16 | 一种融合激光雷达与图像数据的轨道三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111351860.6A CN114332348B (zh) | 2021-11-16 | 2021-11-16 | 一种融合激光雷达与图像数据的轨道三维重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114332348A CN114332348A (zh) | 2022-04-12 |
CN114332348B true CN114332348B (zh) | 2023-06-02 |
Family
ID=81045230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111351860.6A Active CN114332348B (zh) | 2021-11-16 | 2021-11-16 | 一种融合激光雷达与图像数据的轨道三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114332348B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116758006B (zh) * | 2023-05-18 | 2024-02-06 | 广州广检建设工程检测中心有限公司 | 脚手架质量检测方法及装置 |
CN116740288B (zh) * | 2023-08-14 | 2023-10-20 | 北京数慧时空信息技术有限公司 | 一种融合激光雷达、倾斜摄影的三维重建方法 |
CN116858215B (zh) * | 2023-09-05 | 2023-12-05 | 武汉大学 | 一种ar导航地图生成方法及装置 |
CN117036622B (zh) * | 2023-10-08 | 2024-02-23 | 海纳云物联科技有限公司 | 融合航拍图像和地面扫描的三维重建方法、装置和设备 |
CN117115362B (zh) * | 2023-10-20 | 2024-04-26 | 成都量芯集成科技有限公司 | 一种室内结构化场景三维重建方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106872963A (zh) * | 2017-03-31 | 2017-06-20 | 厦门大学 | 一种多组多线激光雷达的自动标定算法 |
CN109658444A (zh) * | 2018-11-23 | 2019-04-19 | 大连理工大学 | 一种基于多模态特征的规则三维彩色点云配准方法 |
CN110415342A (zh) * | 2019-08-02 | 2019-11-05 | 深圳市唯特视科技有限公司 | 一种基于多融合传感器的三维点云重建装置与方法 |
CN110717983A (zh) * | 2019-09-07 | 2020-01-21 | 苏州工业园区测绘地理信息有限公司 | 一种基于背包式三维激光点云数据的建筑物立面三维重建方法 |
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
CN113066162A (zh) * | 2021-03-12 | 2021-07-02 | 武汉大学 | 一种用于电磁计算的城市环境快速建模方法 |
CN113298934A (zh) * | 2021-05-26 | 2021-08-24 | 重庆邮电大学 | 一种基于双向匹配的单目视觉图像三维重建方法及系统 |
-
2021
- 2021-11-16 CN CN202111351860.6A patent/CN114332348B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106872963A (zh) * | 2017-03-31 | 2017-06-20 | 厦门大学 | 一种多组多线激光雷达的自动标定算法 |
CN109658444A (zh) * | 2018-11-23 | 2019-04-19 | 大连理工大学 | 一种基于多模态特征的规则三维彩色点云配准方法 |
WO2020155616A1 (zh) * | 2019-01-29 | 2020-08-06 | 浙江省北大信息技术高等研究院 | 一种基于数字视网膜的拍摄装置的定位方法 |
CN110415342A (zh) * | 2019-08-02 | 2019-11-05 | 深圳市唯特视科技有限公司 | 一种基于多融合传感器的三维点云重建装置与方法 |
CN110717983A (zh) * | 2019-09-07 | 2020-01-21 | 苏州工业园区测绘地理信息有限公司 | 一种基于背包式三维激光点云数据的建筑物立面三维重建方法 |
CN113066162A (zh) * | 2021-03-12 | 2021-07-02 | 武汉大学 | 一种用于电磁计算的城市环境快速建模方法 |
CN113298934A (zh) * | 2021-05-26 | 2021-08-24 | 重庆邮电大学 | 一种基于双向匹配的单目视觉图像三维重建方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114332348A (zh) | 2022-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114332348B (zh) | 一种融合激光雷达与图像数据的轨道三维重建方法 | |
Xia et al. | Geometric primitives in LiDAR point clouds: A review | |
CN109410321B (zh) | 基于卷积神经网络的三维重建方法 | |
CN112288875B (zh) | 一种面向无人机矿山巡检场景的快速三维重建方法 | |
Sun et al. | Aerial 3D building detection and modeling from airborne LiDAR point clouds | |
CN111340797A (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN104156536B (zh) | 一种盾构机刀具磨损的可视化定量标定及分析方法 | |
CN111899328B (zh) | 一种基于rgb数据与生成对抗网络的点云三维重建方法 | |
CN112418245B (zh) | 基于城市环境物理模型的电磁发射点定位方法 | |
CN111652892A (zh) | 一种基于深度学习的遥感影像建筑物矢量提取及优化方法 | |
CN107862735B (zh) | 一种基于结构信息的rgbd三维场景重建方法 | |
CN110363054B (zh) | 道路标识线识别方法、装置和系统 | |
CN113192200B (zh) | 一种基于空三并行计算算法的城市实景三维模型的构建方法 | |
CN113706710A (zh) | 基于fpfh特征差异的虚拟点多源点云融合方法及系统 | |
CN113516664A (zh) | 一种基于语义分割动态点的视觉slam方法 | |
CN115032648A (zh) | 一种基于激光雷达密集点云的三维目标识别与定位方法 | |
CN110490915B (zh) | 一种基于卷积受限玻尔兹曼机的点云配准方法 | |
CN115272599A (zh) | 一种面向城市信息模型的三维语义地图构建方法 | |
CN116740288B (zh) | 一种融合激光雷达、倾斜摄影的三维重建方法 | |
CN113536959A (zh) | 一种基于立体视觉的动态障碍物检测方法 | |
CN117132737A (zh) | 一种三维建筑模型构建方法、系统及设备 | |
CN116385892A (zh) | 基于目标上下文卷积神经网络的数字高程模型提取方法 | |
CN115690138A (zh) | 一种融合车载影像与点云的道路边界提取与矢量化方法 | |
CN113781639B (zh) | 一种大场景道路基础设施数字化模型快速构建方法 | |
CN115790539A (zh) | 一种合作靶标水下摄影测量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |