CN116012737A - 基于无人机激光和视觉融合的高速施工监测方法和系统 - Google Patents

基于无人机激光和视觉融合的高速施工监测方法和系统 Download PDF

Info

Publication number
CN116012737A
CN116012737A CN202310023610.2A CN202310023610A CN116012737A CN 116012737 A CN116012737 A CN 116012737A CN 202310023610 A CN202310023610 A CN 202310023610A CN 116012737 A CN116012737 A CN 116012737A
Authority
CN
China
Prior art keywords
point cloud
point
unmanned aerial
aerial vehicle
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310023610.2A
Other languages
English (en)
Inventor
曾磊
邓志华
杨飚
周祖衡
杨刚
吕彦松
曾广鸿
陈静群
谢森辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Huitu Zihuan Technology Development Co ltd
Road and Bridge International Co Ltd
Guangzhou Expressway Co Ltd
Original Assignee
Guangdong Huitu Zihuan Technology Development Co ltd
Road and Bridge International Co Ltd
Guangzhou Expressway Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Huitu Zihuan Technology Development Co ltd, Road and Bridge International Co Ltd, Guangzhou Expressway Co Ltd filed Critical Guangdong Huitu Zihuan Technology Development Co ltd
Priority to CN202310023610.2A priority Critical patent/CN116012737A/zh
Publication of CN116012737A publication Critical patent/CN116012737A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于无人机激光和视觉融合的高速施工监测方法和系统,包括如下步骤:步骤1:利用无人机采集不同时相的影像;步骤2:对无人机影像利用多测度半全局匹配算法匹配得到影像点云;步骤3:利用无人机采集不同时相LiDAR点云;步骤4:对LiDAR点云进行噪声去除;步骤5:利用迭代最近点算法对两种点云数据进行配准;步骤6:采用局部分箱算法建立其数字表面模型。步骤7:计算不同时相数字表面模型之间的差值,进行变化检测。本发明具有能够以相对较低成本自动化对无人机激光和视觉进行融合并完成高速施工监测的优点。

Description

基于无人机激光和视觉融合的高速施工监测方法和系统
技术领域
本发明涉及工程监测领域,更具体地说是涉及一种基于无人机激光和视觉融合的高速施工监测方法。
背景技术
高速公路的建设极大地促进了交通物流行业、区域经济等的快速发展,可以有效减少运营成本,缩短运输时间,加快产业建设,对于生产生活投资、日常交通出行等都带来了巨大的影响。因此,对于高速施工建设的质量和可靠性提出了更高的要求,如何准确有效地对高速施工过程进行监测显得十分重要。
传统的高速施工监测方法主要采用水准仪、全站仪等设备进行测量,该类方法需要耗费大量的人力物力,工作效率十分低下,并且存在一定的危险性。随着遥感技术的快速发展,大大提升了施工监测的工作效率。遥感影像具有覆盖范围广、语义信息丰富、几何精度高等优点,是目前进行变化检测最常用的数据源。但由于地物内部的复杂构造、混合像元、影像分辨率较低等问题,使得基于遥感影像的变化检测精度难以得到有效保证。与此同时,遥感影像更多体现的是地物的二维信息,难以对地物三维属性变化进行有效的检测。激光雷达(Light Detection and Ranging,LiDAR)技术可以快速获取地物的三维空间信息,具有高精度、高效率、高密度等优点,在地物复杂结构拓扑关系的三维表征上具有无可比拟的优势。但由于LiDAR数据采集难度大、成本高,处理较为困难,一定程度上限制了其在变化检测研究中的应用。为了弥补以上方法存在的不足,可利用无人机拍摄航空像片,通过多视影像密集匹配的方式生成三维点云数据,表征地物的三维结构信息。但是,通过影像视觉获得的三维点云数据相对于LiDAR采集的点云数据的精度较低,且易受密集匹配算法的影响。
因此,融合无人机激光和影像数据,充分利用二者的优势,以相对较低成本的方式快速高效地获得高精度的变化检测结果用以高速施工监测是很有必要的。
发明内容
本发明的目的是为了提一种基于无人机激光和视觉融合的高速施工监测方法,能够以相对较低成本自动化对无人机激光和视觉进行融合并完成高速施工监测。
为了实现上述目的,本发明的技术方案为:一种基于无人机激光和视觉融合的高速施工监测方法,其特征在于:包括如下步骤,
步骤1:不同时相无人机影像数据采集;
操作无人机,多次在高速施工路段进行常规的拍摄,得到不同时相的高速施工路段无人机影像;
步骤2:利用步骤1得到的不同时相无人机影像数据,利用多测度半全局匹配算法进行匹配,并进一步处理得到影像点云;
步骤3:LiDAR点云数据采集,执行步骤1同时,对LiDAR点云数据进行采集,得到不同时相的高速施工路段LiDAR点云数据;
步骤4:LiDAR点云去噪,对步骤3获得的点云数据进行去噪;
步骤5:点云数据配准,利用迭代最近点算法对步骤2和步骤4得到的点云数据进行配准;
步骤6:数字表面模型的建立,根据步骤5得到的配准后的点云数据,采用局部分箱算法建立数字表面模型;
步骤7:施工变化监测,在不同时间重复步骤1~6,得到不同时相的数字表面模型,计算不同时相之间DSM之间的差值,与设定的阈值进行对比,得到变化检测结果。
优选的,步骤2中,多测度半全局匹配算法的具体过程是:
(1)采用自动色阶法对原始影像进行增强,然后生成核线影像并建立影像金字塔,将影像层级由下至上分别定义为r0,1,…rn
(2)在影像金字塔最高层级rn采用Census相似性测度,遍历每个像素p,计算其在视差搜索范围drange内视差为d时的匹配代价C(p,d)。
(3)依次计算像素p在不同方向的路径代价,并计算得到累积代价S(p,d),选取累积代价最小时对应的视差作为该像素的视差结果。
(4)对视差d、d-1和d+1处的累积代价采用二次抛物线进行拟合,计算最优子像素级别视差,以提高匹配精度。
(5)依据相邻像素视差的变化值小于某一阈值的原则,对视差图进行分割,若分割面积小于某阈值,则认为存在误差并将其剔除。
(6)动态调整下一层级影像中像素的视差搜索范围drange,从第rn-1层级开始采用互信息作为相似性测度,其视差初值为上一层级视差结果,重复进行过程(2)至(5),直到匹配至最底层金字塔影像时结束匹配。
(7)通过多测度半全局匹配算法匹配得到视差图后,依次对每张影像进行处理,对其视差图进行融合,进而得到离散的三维点云数据。
优选的,步骤5中,迭代最近点算法的具体过程是:
(1)对于待配准点云P={p0,p1,…pm}中的每个点,在参考点云Q={q0,q1,…qn}中寻找与其欧式距离最近的点构成点对集合Ck={(pi k,qi k)|i=1,2,…,N},N为点对数,k为迭代次数。
(2)以式(1)作为目标函数,令其误差值最小,计算得到新的旋转矩阵Rk和平移矩阵Tk
Figure BDA0004043573040000031
(3)利用计算得到的变换矩阵参数Rk和Tk对待配准点云进行变换,得到新的待配准点云pi k+1如下:
pi k+1=Rkpi k+Tk  (2)
(4)计算新的待配准点云与参考点云对应点对之间的距离平均值dk+1如下:
Figure BDA0004043573040000032
(5)若迭代次数k达到指定的最大迭代次数、dk+1-dk<ε或dk<ξ,则停止迭代,否则重复进行上述过程,ε为相邻两次迭代的点对距离平均值的差值阈值,ξ为单次迭代的点对距离平均值阈值。
优选的,步骤6中,局部分箱算法的过程是:
将配准后的点云投影至XY平面上建立虚拟格网,每个格网均为正方形,其边长为Res,可计算得到格网的行数m和列数n分别为:
Figure BDA0004043573040000041
式中:Xmax、Xmin、Ymax、Ymin分别为点云X、Y坐标的最大值和最小值,ceil(*)表示向上取整运算。由此可得到每个格网角点的坐标(Xi,Yj)如下:
Figure BDA0004043573040000042
式中:i=0,1,2,…n、j=0,1,2,…m分别表示每个格网角点的列序号和行序号。
令P={pk,k=1,2,…,τ}为点云集合,τ为点云总数量,对于每个格网角点Vi,j,定义一个半径为r的圆形邻域,则在该邻域范围内的点云集合可表示为:
R(Vi,j,r)={pk|d(Vi,j,pk)≤r,pk∈P}  (6)
式中:
Figure BDA0004043573040000043
为格网角点Vi,j与点pk(xk,yk,zk)在XY平面上的几何距离。令点云集合R(Vi,j,r)中各点的高程集合为
Figure BDA0004043573040000044
则格网角点的值Zi,j可计算如下:
Figure BDA0004043573040000045
式中:NaN表示空值,
Figure BDA0004043573040000046
表示空集。当格网角点的r邻域范围内无点云存在时,则该格网角点的值为空值。通过遍历所有的格网角点,即可计算得到目标点云的数字表面模型。
优选的,步骤7中,变形监测的过程是:利用局部分箱算法分别计算得到两个不同时相点云数据的数字表面模型,比较数字表面模型中对应格网的高程差,设定高差阈值Dth,若高程差大于Dth,则该格网为高程增大区域,若高程差小于-th,则该格网为高程减小区域。通过遍历计算数字表面模型中所有格网的高程差,并与高差阈值相比较,即可识别出所有的变化区域。
本发明提供一种基于无人机激光和视觉融合的高速施工监测系统,包括如下模块:
影像数据采集模块,用于不同时相无人机影像数据采集;
操作无人机,多次在高速施工路段进行常规的拍摄,得到不同时相的高速施工路段无人机影像;
匹配模块,用于利用得到的不同时相无人机影像数据,利用多测度半全局匹配算法进行匹配,并进一步处理得到影像点云;
点云数据采集模块,用于LiDAR点云数据采集,在进行影像数据采集的同时对LiDAR点云数据进行采集,得到不同时相的高速施工路段LiDAR点云数据;
去噪模块,用于LiDAR点云去噪,对点云数据采集模块获得的点云数据进行去噪;
配准模块,用于点云数据配准,利用迭代最近点算法对匹配模块和去噪模块得到的点云数据进行配准;
数字表面模型建立模块,用于数字表面模型的建立,根据配准模块得到的配准后的点云数据,采用局部分箱算法建立数字表面模型;
变化监测模块,用于施工变化监测,在不同时间重复上述所有模块,得到不同时相的数字表面模型,计算不同时相之间DSM之间的差值,与设定的阈值进行对比,得到变化检测结果。
优选的,匹配模块中,多测度半全局匹配算法的具体过程是:
(21)采用自动色阶法对原始影像进行增强,然后生成核线影像并建立影像金字塔,将影像层级由下至上分别定义为r0,1,…rn
(22)在影像金字塔最高层级rn采用Census相似性测度,遍历每个像素p,计算其在视差搜索范围drange内视差为d时的匹配代价C(p,d);
(23)依次计算像素p在不同方向的路径代价,并计算得到累积代价S(p,d),选取累积代价最小时对应的视差作为该像素的视差结果;
(24)对视差d、d-1和d+1处的累积代价采用二次抛物线进行拟合,计算最优子像素级别视差,以提高匹配精度;
(25)依据相邻像素视差的变化值小于某一阈值的原则,对视差图进行分割,若分割面积小于某阈值,则认为存在误差并将其剔除;
(26)动态调整下一层级影像中像素的视差搜索范围drange,从第rn-1层级开始采用互信息作为相似性测度,其视差初值为上一层级视差结果,重复进行过程(22)至(25),直到匹配至最底层金字塔影像时结束匹配;
(27)通过多测度半全局匹配算法匹配得到视差图后,依次对每张影像进行处理,对其视差图进行融合,进而得到离散的三维点云数据。
优选的,配准模块中,迭代最近点算法的具体过程是:
(51)对于待配准点云P={p0,1,…pm}中的每个点,在参考点云Q={q0,1,…qn}中寻找与其欧式距离最近的点构成点对集合Ck={(pi k,i k)|=1,2,…,N},N为点对数,k为迭代次数;
(52)以式(51)作为目标函数,令其误差值最小,计算得到新的旋转矩阵Rk和平移矩阵Tk
Figure BDA0004043573040000061
(53)利用计算得到的变换矩阵参数Rk和Tk对待配准点云进行变换,得到新的待配准点云pi k+1如下:
pi k+1=Rkpi k+Tk (2)
(54)计算新的待配准点云与参考点云对应点对之间的距离平均值dk+1如下:
Figure BDA0004043573040000071
(55)若迭代次数k达到指定的最大迭代次数、dk+1-dk<ε或dk<ξ,则停止迭代,否则重复进行上述过程,ε为相邻两次迭代的点对距离平均值的差值阈值,ξ为单次迭代的点对距离平均值阈值。
优选的,数字表面模型建立模块中,局部分箱算法的过程是:
将配准后的点云投影至XY平面上建立虚拟格网,每个格网均为正方形,其边长为Res,可计算得到格网的行数m和列数n分别为:
Figure BDA0004043573040000072
式中:Xmax、Xmin、Ymax、Ymin分别为点云X、Y坐标的最大值和最小值,ceil(*)表示向上取整运算,由此可得到每个格网角点的坐标(Xi,Yj)如下:
Figure BDA0004043573040000073
式中:i=0,1,2,…n、j=0,1,2,…m分别表示每个格网角点的列序号和行序号;
令P={pk,k=1,2,…,τ}为点云集合,τ为点云总数量,对于每个格网角点Vi,j,定义一个半径为r的圆形邻域,则在该邻域范围内的点云集合可表示为:
R(Vi,j,r)={pk|d(Vi,j,pk)≤r,pk∈P}  (6)
式中:
Figure BDA0004043573040000074
为格网角点Vi,j与点pk(xk,yk,zk)在XY平面上的几何距离;令点云集合R(Vi,j,r)中各点的高程集合为
Figure BDA0004043573040000075
则格网角点的值Zi,j可计算如下:
Figure BDA0004043573040000076
式中:NaN表示空值,
Figure BDA0004043573040000077
表示空集,当格网角点的r邻域范围内无点云存在时,则该格网角点的值为空值,通过遍历所有的格网角点,即可计算得到目标点云的数字表面模型。
优选的,变化监测模块中,变形监测的过程是:
利用局部分箱算法分别计算得到两个不同时相点云数据的数字表面模型,比较数字表面模型中对应格网的高程差,设定高差阈值Dth,若高程差大于Dth,则该格网为高程增大区域,若高程差小于-th,则该格网为高程减小区域。通过遍历计算数字表面模型中所有格网的高程差,并与高差阈值相比较,即可识别出所有的变化区域。
与现有技术相比,本发明具有以下优点:
1)本发明成本较低,无需耗费大量的人力物力,工作效率较高,并且不存在危险性。
2)本发明数据采集难度低,处理较为简单。
3)本发明引入LiDAR数据进行配准,提高了整体精度。
附图说明
图1为本发明的流程图。
图2为本发明采用局部分箱算法建立数字表面模型示意图。
图3为本发明采集无人机影像示例图。
图4为本发明利用采集无人机影像密集匹配生成的点云示例图。
图5为本发明采集LiDAR点云示例图。
图6为2022年8月26日利用本发明于某某省某某市某一高速施工路段生成的数字表面模型示例图。
图7为2022年10月8日利用本发明于某某省某某市某一高速施工路段生成的数字表面模型示例图。
图8为于某某省某某市某一高速施工路段数字表面模型示差值图。
图9为于某某省某某市某一高速施工路段变化检测结果图。
具体实施方式
下面结合附图详细说明本发明的实施情况,但它们并不构成对本发明的限定,仅作举例而已。同时通过说明使本发明的优点更加清楚和容易理解。
现以本发明应用于某某省某某市某一高速施工路段作为研究区域对本发明进行详细说明,对本发明应用于其它高速施工路段监测同样具有指导作用。
本实施例中,某某省某某市某一高速施工路段监测方法,包括以下步骤:
步骤1:不同时相无人机影像数据采集;
操作无人机,多次在高速施工路段进行常规的拍摄,得到不同时相的高速施工路段无人机影像,示例如图3所示;
步骤2:利用步骤1得到的不同时相无人机影像数据,利用多测度半全局匹配算法进行匹配,并进一步处理得到影像点云,结果如图4所示;
步骤2中,多测度半全局匹配算法的具体过程是:
(1)采用自动色阶法对原始影像进行增强,然后生成核线影像并建立影像金字塔,将影像层级由下至上分别定义为r0,1,…rn
(2)在影像金字塔最高层级rn采用Census相似性测度,遍历每个像素p,计算其在视差搜索范围drange内视差为d时的匹配代价C(p,d)。
(3)依次计算像素p在不同方向的路径代价,并计算得到累积代价S(p,d),选取累积代价最小时对应的视差作为该像素的视差结果。
(4)对视差d、d-1和d+1处的累积代价采用二次抛物线进行拟合,计算最优子像素级别视差,以提高匹配精度。
(5)依据相邻像素视差的变化值小于某一阈值的原则,对视差图进行分割,若分割面积小于某阈值,则认为存在误差并将其剔除。
(6)动态调整下一层级影像中像素的视差搜索范围drange,从第rn-1层级开始采用互信息作为相似性测度,其视差初值为上一层级视差结果,重复进行过程(2)至(5),直到匹配至最底层金字塔影像时结束匹配。
(7)通过多测度半全局匹配算法匹配得到视差图后,依次对每张影像进行处理,对其视差图进行融合,进而得到离散的三维点云数据。
步骤3:LiDAR点云数据采集,执行步骤1同时,对LiDAR点云数据进行采集,得到不同时相的高速施工路段LiDAR点云数据,示例如图5所示;
步骤4:LiDAR点云去噪,对步骤3获得的点云数据进行去噪;
将步骤2得到的露天矿坑航迹信息导入无人机的飞行控制系统,起飞无人机自动进行拍摄,得到高分辨率的露天矿坑目标影像;
步骤4:精细点云成果获取;
步骤5:点云数据配准,利用迭代最近点算法对步骤2和步骤4得到的点云数据进行配准;
步骤5中,迭代最近点算法的具体过程是:
(1)对于待配准点云P={p0,1,…pm}中的每个点,在参考点云Q={q0,1,…qn}中寻找与其欧式距离最近的点构成点对集合Ck={(pi k,i k)|=1,2,…,N},N为点对数,k为迭代次数。
(2)以式(1)作为目标函数,令其误差值最小,计算得到新的旋转矩阵Rk和平移矩阵Tk
Figure BDA0004043573040000101
(3)利用计算得到的变换矩阵参数Rk和Tk对待配准点云进行变换,得到新的待配准点云pi k+1如下:
pi k+1=Rkpi k+Tk (2)
(4)计算新的待配准点云与参考点云对应点对之间的距离平均值dk+1如下:
Figure BDA0004043573040000102
(5)若迭代次数k达到指定的最大迭代次数、dk+1-k<或dk<,则停止迭代,否则重复进行上述过程,ε为相邻两次迭代的点对距离平均值的差值阈值,ξ为单次迭代的点对距离平均值阈值。
步骤6:数字表面模型的建立,根据步骤5得到的配准后的点云数据,采用局部分箱算法建立数字表面模型,结果如图6图7所示;
步骤6中,局部分箱算法的过程是:
将配准后的点云投影至XY平面上建立虚拟格网,每个格网均为正方形,其边长为Res,可计算得到格网的行数m和列数n分别为:
Figure BDA0004043573040000111
式中:Xmax、Xmin、Ymax、Ymin分别为点云X、Y坐标的最大值和最小值,ceil(*)表示向上取整运算。由此可得到每个格网角点的坐标(Xi,Yj)如下:
Figure BDA0004043573040000112
式中:i=0,1,2,…n、j=0,1,2,…m分别表示每个格网角点的列序号和行序号。
令P={pk,k=1,2,…,τ}为点云集合,τ为点云总数量,对于每个格网角点Vi,j,定义一个半径为r的圆形邻域,则在该邻域范围内的点云集合可表示为:
R(Vi,j,r)={pk|d(Vi,j,pk)≤r,pk∈P}  (6)
式中:
Figure BDA0004043573040000113
为格网角点Vi,j与点pk(xk,yk,zk)在XY平面上的几何距离。令点云集合R(Vi,j,r)中各点的高程集合为
Figure BDA0004043573040000114
则格网角点的值Zi,j可计算如下:
Figure BDA0004043573040000115
式中:NaN表示空值,
Figure BDA0004043573040000116
表示空集。当格网角点的r邻域范围内无点云存在时,则该格网角点的值为空值。通过遍历所有的格网角点,即可计算得到目标点云的数字表面模型。
步骤7:施工变化监测,在不同时间重复步骤1~6,得到不同时相的数字表面模型,计算不同时相之间DSM之间的差值,与设定的阈值进行对比,得到变化检测结果,结果如图8图9所示。
步骤7中,变形监测的过程是:利用局部分箱算法分别计算得到两个不同时相点云数据的数字表面模型,比较数字表面模型中对应格网的高程差,设定高差阈值Dth,若高程差大于Dth,则该格网为高程增大区域,若高程差小于-th,则该格网为高程减小区域。通过遍历计算数字表面模型中所有格网的高程差,并与高差阈值相比较,即可识别出所有的变化区域。
结论:本实施例能够以相对较低成本自动化对无人机激光和视觉进行融合并完成高速施工监测。
本发明还提供一种基于无人机激光和视觉融合的高速施工监测系统,包括如下模块:
影像数据采集模块,用于不同时相无人机影像数据采集;
操作无人机,多次在高速施工路段进行常规的拍摄,得到不同时相的高速施工路段无人机影像;
匹配模块,用于利用得到的不同时相无人机影像数据,利用多测度半全局匹配算法进行匹配,并进一步处理得到影像点云;
点云数据采集模块,用于LiDAR点云数据采集,在进行影像数据采集的同时对LiDAR点云数据进行采集,得到不同时相的高速施工路段LiDAR点云数据;
去噪模块,用于LiDAR点云去噪,对点云数据采集模块获得的点云数据进行去噪;
配准模块,用于点云数据配准,利用迭代最近点算法对匹配模块和去噪模块得到的点云数据进行配准;
数字表面模型建立模块,用于数字表面模型的建立,根据配准模块得到的配准后的点云数据,采用局部分箱算法建立数字表面模型;
变化监测模块,用于施工变化监测,在不同时间重复上述所有模块,得到不同时相的数字表面模型,计算不同时相之间DSM之间的差值,与设定的阈值进行对比,得到变化检测结果。
各模块的具体实现和各步骤相应,本发明不予撰述。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (10)

1.一种基于无人机激光和视觉融合的高速施工监测方法,其特征在于:包括如下步骤,
步骤1,不同时相无人机影像数据采集;
操作无人机,多次在高速施工路段进行常规的拍摄,得到不同时相的高速施工路段无人机影像;
步骤2,利用步骤1得到的不同时相无人机影像数据,利用多测度半全局匹配算法进行匹配,并进一步处理得到影像点云;
步骤3,LiDAR点云数据采集,执行步骤1同时,对LiDAR点云数据进行采集,得到不同时相的高速施工路段LiDAR点云数据;
步骤4,LiDAR点云去噪,对步骤3获得的点云数据进行去噪;
步骤5,点云数据配准,利用迭代最近点算法对步骤2和步骤4得到的点云数据进行配准;
步骤6,数字表面模型的建立,根据步骤5得到的配准后的点云数据,采用局部分箱算法建立数字表面模型;
步骤7,施工变化监测,在不同时间重复步骤1~6,得到不同时相的数字表面模型,计算不同时相之间DSM之间的差值,与设定的阈值进行对比,得到变化检测结果。
2.根据权利要求1所述的一种基于无人机激光和视觉融合的高速施工监测方法,其特征在于:步骤2中,多测度半全局匹配算法的具体过程是:
(21)采用自动色阶法对原始影像进行增强,然后生成核线影像并建立影像金字塔,将影像层级由下至上分别定义为r0,r1,…rn
(22)在影像金字塔最高层级rn采用Census相似性测度,遍历每个像素p,计算其在视差搜索范围drange内视差为d时的匹配代价C(p,d);
(23)依次计算像素p在不同方向的路径代价,并计算得到累积代价S(p,d),选取累积代价最小时对应的视差作为该像素的视差结果;
(24)对视差d、d-1和d+1处的累积代价采用二次抛物线进行拟合,计算最优子像素级别视差,以提高匹配精度;
(25)依据相邻像素视差的变化值小于某一阈值的原则,对视差图进行分割,若分割面积小于某阈值,则认为存在误差并将其剔除;
(26)动态调整下一层级影像中像素的视差搜索范围drange,从第rn-1层级开始采用互信息作为相似性测度,其视差初值为上一层级视差结果,重复进行过程(22)至(25),直到匹配至最底层金字塔影像时结束匹配;
(27)通过多测度半全局匹配算法匹配得到视差图后,依次对每张影像进行处理,对其视差图进行融合,进而得到离散的三维点云数据。
3.根据权利要求1所述的一种基于无人机激光和视觉融合的高速施工监测方法,其特征在于:步骤5中,迭代最近点算法的具体过程是:
(51)对于待配准点云P={p0,p1,…pm}中的每个点,在参考点云Q={q0,q1,…qn}中寻找与其欧式距离最近的点构成点对集合Ck={(pi k,qi k)|i=1,2,…,N},N为点对数,k为迭代次数;
(52)以式(51)作为目标函数,令其误差值最小,计算得到新的旋转矩阵Rk和平移矩阵Tk
Figure FDA0004043573030000021
(53)利用计算得到的变换矩阵参数Rk和Tk对待配准点云进行变换,得到新的待配准点云pi k+1如下:
pi k+1=Rkpi k+Tk    (2)
(54)计算新的待配准点云与参考点云对应点对之间的距离平均值dk+1如下:
Figure FDA0004043573030000022
(55)若迭代次数k达到指定的最大迭代次数、dk+1-dk<ε或dk<ξ,则停止迭代,否则重复进行上述过程,ε为相邻两次迭代的点对距离平均值的差值阈值,ξ为单次迭代的点对距离平均值阈值。
4.根据权利要求1所述的一种基于无人机激光和视觉融合的高速施工监测方法,其特征在于:步骤6中,局部分箱算法的过程是:
将配准后的点云投影至XY平面上建立虚拟格网,每个格网均为正方形,其边长为Res,可计算得到格网的行数m和列数n分别为:
Figure FDA0004043573030000031
式中:Xmax、Xmin、Ymax、Ymin分别为点云X、Y坐标的最大值和最小值,ceil(*)表示向上取整运算,由此可得到每个格网角点的坐标(Xi,Yj)如下:
Figure FDA0004043573030000032
式中:i=0,1,2,…n、j=0,1,2,…m分别表示每个格网角点的列序号和行序号;
令P={pk,k=1,2,…,τ}为点云集合,τ为点云总数量,对于每个格网角点Vi,j,定义一个半径为r的圆形邻域,则在该邻域范围内的点云集合可表示为:
R(Vi,j,r)={pk|d(Vi,j,pk)≤r,pk∈P}    (6)
式中:
Figure FDA0004043573030000033
为格网角点Vi,j与点pk(xk,yk,zk)在XY平面上的几何距离;令点云集合R(Vi,j,r)中各点的高程集合为
Figure FDA0004043573030000034
则格网角点的值Zi,j可计算如下:
Figure FDA0004043573030000035
式中:NaN表示空值,
Figure FDA0004043573030000036
表示空集,当格网角点的r邻域范围内无点云存在时,则该格网角点的值为空值,通过遍历所有的格网角点,即可计算得到目标点云的数字表面模型。
5.根据权利要求1所述的一种基于无人机激光和视觉融合的高速施工监测方法,其特征在于:步骤7中,变形监测的过程是:
利用局部分箱算法分别计算得到两个不同时相点云数据的数字表面模型,比较数字表面模型中对应格网的高程差,设定高差阈值Dth,若高程差大于Dth,则该格网为高程增大区域,若高程差小于-th,则该格网为高程减小区域;通过遍历计算数字表面模型中所有格网的高程差,并与高差阈值相比较,即可识别出所有的变化区域。
6.一种基于无人机激光和视觉融合的高速施工监测系统,其特征在于,包括如下模块:
影像数据采集模块,用于不同时相无人机影像数据采集;
操作无人机,多次在高速施工路段进行常规的拍摄,得到不同时相的高速施工路段无人机影像;
匹配模块,用于利用得到的不同时相无人机影像数据,利用多测度半全局匹配算法进行匹配,并进一步处理得到影像点云;
点云数据采集模块,用于LiDAR点云数据采集,在进行影像数据采集的同时对LiDAR点云数据进行采集,得到不同时相的高速施工路段LiDAR点云数据;
去噪模块,用于LiDAR点云去噪,对点云数据采集模块获得的点云数据进行去噪;
配准模块,用于点云数据配准,利用迭代最近点算法对匹配模块和去噪模块得到的点云数据进行配准;
数字表面模型建立模块,用于数字表面模型的建立,根据配准模块得到的配准后的点云数据,采用局部分箱算法建立数字表面模型;
变化监测模块,用于施工变化监测,在不同时间重复上述所有模块,得到不同时相的数字表面模型,计算不同时相之间DSM之间的差值,与设定的阈值进行对比,得到变化检测结果。
7.如权利要求6所述的一种基于无人机激光和视觉融合的高速施工监测系统,其特征在于:匹配模块中,多测度半全局匹配算法的具体过程是:
(21)采用自动色阶法对原始影像进行增强,然后生成核线影像并建立影像金字塔,将影像层级由下至上分别定义为r0,r1,…rn
(22)在影像金字塔最高层级rn采用Census相似性测度,遍历每个像素p,计算其在视差搜索范围drange内视差为d时的匹配代价C(p,d);
(23)依次计算像素p在不同方向的路径代价,并计算得到累积代价S(p,d),选取累积代价最小时对应的视差作为该像素的视差结果;
(24)对视差d、d-1和d+1处的累积代价采用二次抛物线进行拟合,计算最优子像素级别视差,以提高匹配精度;
(25)依据相邻像素视差的变化值小于某一阈值的原则,对视差图进行分割,若分割面积小于某阈值,则认为存在误差并将其剔除;
(26)动态调整下一层级影像中像素的视差搜索范围drange,从第rn-1层级开始采用互信息作为相似性测度,其视差初值为上一层级视差结果,重复进行过程(22)至(25),直到匹配至最底层金字塔影像时结束匹配;
(27)通过多测度半全局匹配算法匹配得到视差图后,依次对每张影像进行处理,对其视差图进行融合,进而得到离散的三维点云数据。
8.根据权利要求6所述的一种基于无人机激光和视觉融合的高速施工监测系统,其特征在于:配准模块中,迭代最近点算法的具体过程是:
(51)对于待配准点云P={p0,p1,…pm}中的每个点,在参考点云Q={q0,q1,…qn}中寻找与其欧式距离最近的点构成点对集合Ck={(pi k,qi k)|i=1,2,…,N},N为点对数,k为迭代次数;
(52)以式(51)作为目标函数,令其误差值最小,计算得到新的旋转矩阵Rk和平移矩阵Tk
Figure FDA0004043573030000051
(53)利用计算得到的变换矩阵参数Rk和Tk对待配准点云进行变换,得到新的待配准点云pi k+1如下:
pi k+1=Rkpi k+Tk      (2)
(54)计算新的待配准点云与参考点云对应点对之间的距离平均值dk+1如下:
Figure FDA0004043573030000061
(55)若迭代次数k达到指定的最大迭代次数、dk+1-dk<ε或dk<ξ,则停止迭代,否则重复进行上述过程,ε为相邻两次迭代的点对距离平均值的差值阈值,ξ为单次迭代的点对距离平均值阈值。
9.根据权利要求6所述的一种基于无人机激光和视觉融合的高速施工监测系统,其特征在于:数字表面模型建立模块中,局部分箱算法的过程是:
将配准后的点云投影至XY平面上建立虚拟格网,每个格网均为正方形,其边长为Res,可计算得到格网的行数m和列数n分别为:
Figure FDA0004043573030000062
式中:Xmax、Xmin、Ymax、Ymin分别为点云X、Y坐标的最大值和最小值,ceil(*)表示向上取整运算,由此可得到每个格网角点的坐标(Xi,Yj)如下:
Figure FDA0004043573030000063
式中:i=0,1,2,…n、j=0,1,2,…m分别表示每个格网角点的列序号和行序号;
令P={pk,k=1,2,…,τ}为点云集合,τ为点云总数量,对于每个格网角点Vi,j,定义一个半径为r的圆形邻域,则在该邻域范围内的点云集合可表示为:
R(Vi,j,r)={pk|d(Vi,j,pk)≤r,pk∈P}    (6)
式中:
Figure FDA0004043573030000064
为格网角点Vi,j与点pk(xk,yk,zk)在XY平面上的几何距离;令点云集合R(Vi,j,r)中各点的高程集合为
Figure FDA0004043573030000065
则格网角点的值Zi,j可计算如下:
Figure FDA0004043573030000071
式中:NaN表示空值,
Figure FDA0004043573030000072
表示空集,当格网角点的r邻域范围内无点云存在时,则该格网角点的值为空值,通过遍历所有的格网角点,即可计算得到目标点云的数字表面模型。
10.根据权利要求6所述的一种基于无人机激光和视觉融合的高速施工监测系统,其特征在于:变化监测模块中,变形监测的过程是:
利用局部分箱算法分别计算得到两个不同时相点云数据的数字表面模型,比较数字表面模型中对应格网的高程差,设定高差阈值Dth,若高程差大于Dth,则该格网为高程增大区域,若高程差小于-th,则该格网为高程减小区域。通过遍历计算数字表面模型中所有格网的高程差,并与高差阈值相比较,即可识别出所有的变化区域。
CN202310023610.2A 2023-01-09 2023-01-09 基于无人机激光和视觉融合的高速施工监测方法和系统 Pending CN116012737A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310023610.2A CN116012737A (zh) 2023-01-09 2023-01-09 基于无人机激光和视觉融合的高速施工监测方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310023610.2A CN116012737A (zh) 2023-01-09 2023-01-09 基于无人机激光和视觉融合的高速施工监测方法和系统

Publications (1)

Publication Number Publication Date
CN116012737A true CN116012737A (zh) 2023-04-25

Family

ID=86019045

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310023610.2A Pending CN116012737A (zh) 2023-01-09 2023-01-09 基于无人机激光和视觉融合的高速施工监测方法和系统

Country Status (1)

Country Link
CN (1) CN116012737A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117475381A (zh) * 2023-12-22 2024-01-30 济宁久邦工程机械设备有限公司 一种高空作业平台运行状态实时监测系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117475381A (zh) * 2023-12-22 2024-01-30 济宁久邦工程机械设备有限公司 一种高空作业平台运行状态实时监测系统
CN117475381B (zh) * 2023-12-22 2024-03-29 济宁久邦工程机械设备有限公司 一种高空作业平台运行状态实时监测系统

Similar Documents

Publication Publication Date Title
CN109961440B (zh) 一种基于深度图的三维激光雷达点云目标分割方法
CN109243289B (zh) 高精度地图制作中地下车库停车位提取方法及系统
CN105160702A (zh) 基于LiDAR点云辅助的立体影像密集匹配方法及系统
Wei Building boundary extraction based on lidar point clouds data
CN112215958B (zh) 一种基于分布式计算的激光雷达点云数据投影方法
CN115372989A (zh) 基于激光雷达的越野自动小车长距离实时定位系统及方法
CN111429527B (zh) 一种车载相机的外参自动标定方法及系统
CN111354083B (zh) 一种基于原始激光点云的递进式建筑物提取方法
KR101549155B1 (ko) 라이다 자료를 활용한 구조물의 직선경계 추출방법
Karsli et al. Automatic building extraction from very high-resolution image and LiDAR data with SVM algorithm
CN114782729A (zh) 一种基于激光雷达与视觉融合的实时目标检测方法
CN115128628A (zh) 基于激光slam和单目视觉的道路栅格地图构建方法
CN116452852A (zh) 一种高精度矢量地图的自动生成方法
CN116012737A (zh) 基于无人机激光和视觉融合的高速施工监测方法和系统
CN115690138A (zh) 一种融合车载影像与点云的道路边界提取与矢量化方法
CN110458938B (zh) 一种散货料堆实时三维重建方法及系统
CN112197773A (zh) 基于平面信息的视觉和激光定位建图方法
CN117590362B (zh) 一种多激光雷达外参标定方法、装置和设备
CN117420143B (zh) 基于多源传感器融合的路面缺陷检测方法、装置和计算机设备
CN114821522A (zh) 基于车载激光点云数据的城市道路横坡和超高值计算方法
CN111861946B (zh) 自适应多尺度车载激光雷达稠密点云数据滤波方法
Dos Santos et al. Building boundary extraction from LiDAR data using a local estimated parameter for alpha shape algorithm
CN111323026B (zh) 一种基于高精度点云地图的地面过滤方法
CN114563000B (zh) 一种基于改进型激光雷达里程计的室内外slam方法
CN112348950B (zh) 一种基于激光点云分布特性的拓扑地图节点生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination