CN114663596B - 基于无人机实时仿地飞行方法的大场景建图方法 - Google Patents
基于无人机实时仿地飞行方法的大场景建图方法 Download PDFInfo
- Publication number
- CN114663596B CN114663596B CN202210352226.2A CN202210352226A CN114663596B CN 114663596 B CN114663596 B CN 114663596B CN 202210352226 A CN202210352226 A CN 202210352226A CN 114663596 B CN114663596 B CN 114663596B
- Authority
- CN
- China
- Prior art keywords
- aerial vehicle
- unmanned aerial
- ground
- point
- flight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013507 mapping Methods 0.000 title claims description 11
- 238000005457 optimization Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 238000007689 inspection Methods 0.000 claims description 4
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 230000000903 blocking effect Effects 0.000 claims 3
- 230000000694 effects Effects 0.000 abstract description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提出一种基于无人机实时仿地飞行方法的大场景建图方法,首先选取兴趣区域进行航线规划,其次当无人机飞行到所述拍摄点时,对无人机下方区域进行实时拍摄,实时获得无人机下方相机拍摄区域的地面稀疏点云以及稠密点云;利用稀疏点云实时计算无人机在航线中的下一飞行区域内各路径点位置与地面的垂直距离,实时进行无人机仿地飞行路径生成;无人机根据生成的路径进行仿地飞行,根据相邻帧之间的位姿对稠密点云进行拼接,直至飞行任务执行完毕,得到基于稠密点云的全局地图。本发明可适用于各种复杂地形条件,在复杂地形下依然可以较好地进行实时的仿地飞行,在进行仿地飞行的同时,能够获得效果更好的数据集,并对仿地飞行地区进行实时的稠密三维重建。
Description
技术领域
本发明属于无人机地图构建技术领域,具体涉及一种基于无人机实时仿地飞行方法的大场景建图方法。
背景技术
在一些行业,如农业、灾害监测、城市规划等,对指定区域的快速概览已成为一种日益增长的需求,因此需要速度更快,精度更高的方式去完成兴趣区域的三维重建。航线规划是航空摄影测量的第一步,确定一个合适的飞行航线对成功、高效完成任务至关重要,因为不同的飞行参数组合会影响飞行工作量。对于地势平坦的地区,采用传统的固定相机曝光基线、固定航线间距和固定飞行高度的传统方法,可以方便地进行航线规划,得到精细度一致的模型;但对于地形陡峭的地区,照片重叠和地面采样距离(Ground samplingdistance,GSD)会随着地形的变化而发生很大的变化,使用上述的传统方法会使采集到的图像分辨率剧烈变化,从而达不到飞行任务的GSD的要求,这导致后续的三维重建的模型精细度不达标。因此为了得到精细度更好的重建结果,开发更好的依靠无人机感知能力的地形跟踪技术非常重要。
目前大多数关于无人机地形跟随算法,涉及依赖于周围地形的已知高程地图,无人机需要在飞行开始前根据已知高程地图计算最佳地形跟随路线。这些算法的主要缺点是无人机不能实时地对地形变化作出反应,或者需要先对兴趣区域进行绘测,再离线生成地形模型,再根据生成的模型进行二次规划来达到无人机仿地飞行的目的;另外还有一些使用激光雷达的无人机实时仿地飞行方法,但其缺点是激光雷达固定在无人机的底部,且高精度激光雷达重量较大,会加大无人机能源消耗,也难以随动控制,导致当无人机在飞行期间向前倾斜时,激光雷达获得的是无人机后方的距离信息。
发明内容
为解决现有技术所存在的不足之处,本发明提供一种基于无人机实时仿地飞行方法的大场景建图方法,可适用于各种复杂地形条件,在复杂地形下依然可以较好地进行实时的仿地飞行,在进行仿地飞行的同时,能够获得效果更好的数据集,并对仿地飞行地区进行实时的稠密三维重建。
为实现上述目的,本发明所提供的技术解决方案是:
一种基于无人机实时仿地飞行方法的大场景建图方法,无人机底部搭载相机;具体包括以下步骤:
步骤1:选取兴趣区域进行航线规划:
根据任务需求的GSD与图片重叠率计算无人机相对地面的飞行高度,以及飞行路径上的拍摄点,实时生成无人机X-Y平面上的航线;所述X-Y平面为水平面;
步骤2:当无人机飞行到所述拍摄点时,对无人机下方区域进行实时拍摄,提取图片特征点,对相邻图片帧的特征点进行匹配并获得当前帧相对于上一帧的位姿,然后结合GPS信息进行位姿优化,实时获得无人机下方相机拍摄区域的地面稀疏点云;
步骤3、根据步骤2优化得到的位姿信息进行三维重建,生成地面稠密点云;
步骤4、根据步骤2得到的稀疏点云实时计算无人机在航线中的下一飞行区域内各路径点位置与地面的垂直距离;
步骤5、根据步骤2得到的稀疏点云以及步骤4计算得到的各路径点位置与地面的垂直距离,实时进行无人机仿地飞行路径生成;
步骤6、无人机根据步骤5生成的路径进行仿地飞行;
步骤7、根据相邻帧之间的位姿对步骤3获得的稠密点云进行拼接,然后返回步骤2,直至飞行任务执行完毕,得到基于稠密点云的全局地图。
进一步的,步骤1中,以机头方向为X方向,无人机左方为Y方向,无人机上方为Z方向定义坐标系,并确定兴趣区域顶点的X-Y坐标。
进一步的,步骤1中,根据飞行任务需求的GSD与重叠率计算期望的无人机相对地面的飞行高度、X方向上的相邻拍摄点之间的距离、以及航线间在Y方向上的距离,以此生成无人机X-Y平面上的航线:
其中:
期望的无人机相对地面飞行高度确定为Ha=GSD*f*HI/Hs,其中Ha是无人机期望与地面的垂直距离,f是相机焦距,HI是图片的宽度,Hs为相机传感器的物理大小;
X方向上的相邻拍摄点之间的距离Dx=GSD*Px(1-Ox);相邻航线间在Y方向上的距离Dy=GSD*Py(1-Oy),Px为航向上的飞行像素数,Py为相邻航线上的飞行像素数,Ox、Oy分别为航向重叠率与纵向重叠率。
进一步的,步骤2具体为:
对拍摄的每一帧图片进行SiftGPU特征点提取并计算描述子,进行特征匹配;通过特征匹配构建本质矩阵,并进行SVD分解得到相邻帧之间的相对位姿信息;
根据在拍摄点记录下的GPS信息,利用求解出的位姿与记录下的GPS信息对当前帧的位姿进行优化,得到更精确的位姿与稀疏点云。
进一步的,步骤3中,对一组相邻帧使用稠密立体视觉匹配算法进行快速的立体匹配,获得深度图;再对得到的深度图进行滤波处理,并进行连续图像一致性检查,得到精度更高的深度图;一致性检查后,除去相邻帧中的冗余点,生成稠密点云地图。
进一步的,步骤4中,获得稀疏点云地图后,进行位姿转换,将点云数据转换到无人机机体坐标系下;之后将无人机前方航线上的下一区域的稀疏点云沿X方向进行分块处理,计算每个分块内点云中的各点与无人机在垂直方向上的距离的均值作为该分块区域内航线路径点对应的Z向插值zi+n,n表示第n个分块;再根据公式Hi,n=zi+n-Ha,n得到无人机为到达该路径点应该上升或下降的距离;其中Ha,n为步骤1得到的无人机在该路径点处期望与地面的垂直距离。
进一步的,步骤4中,获得稀疏点云地图后,进行位姿转换,将点云数据转换到无人机机体坐标系下;之后对于无人机前方航线上的下一区域内的每个设定的航线路径点,找到点云中与该航线路径点在X-Y平面上距离最小的K个点,使用公式计算航线路径点的Z向插值zi+n,其中Wtotal代表权重,sk为第k个点距离航线路径点在X-Y平面内的欧式距离,Dk为第k个点与无人机在垂直方向上的距离;再根据公式Hi,n=zi+n-Ha,n得到无人机为到达该路径点应该上升或下降的距离;其中Ha,n为步骤S1得到的无人机在该路径点处期望与地面的垂直距离。
进一步的,步骤5中,对根据稀疏点云得到的X方向上的路径点进行可达性检查,并对检查后的路径点进行曲线拟合,生成无人机仿地飞行路径。
有益效果
本发明与现有技术相比,具有以下的有益效果:
1.本发明改进的无人机仿地飞行方法,可适用于各种复杂地形条件,在复杂地形下依然可以较好地实现仿地飞行效果;在进行仿地飞行的同时,能够获得分辨率更均衡的数据集,并对仿地飞行的地区进行稠密的三维重建。
2.在本发明的飞行方法中使用相机进行仿地飞行,相对于激光雷达,对无人机负担较小,精度更高,相对于传统的需要先验地图或者需要二次飞行的仿地飞行方法,
飞行次数少,因为传统的方法需要某一块区域的先验地形图,或者要进行二次飞行,即首先飞行一次采集数据,然后根据数据生成地形图,再根据生成的地形图进行仿地飞行;如此,本发明方法节省了电池的损耗同时获得了兴趣区域的稠密点云地图。
3.本发明相对于激光雷达仅能得到地表上的稀疏高度信息,无法得到稠密信息的缺点,既能得到地表上的稀疏高度信息,又能得到稠密信息;并且相机的质量较轻,相机拍摄的图片信息丰富,受到地面的遮挡、纹理或其他因素影响较小,可以在进行仿地飞行的同时对兴趣区域进行三维重建。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明的面向实时稠密点云地图的无人机仿地飞行方法的流程图;
图2无人机对根据任务需求对兴趣区域进行航线规划;
图3本发明的SLAM前端用于解算位姿示意图;
图4本发明的获取稠密点云及其处理的示意图;
图5本发明步骤4中方法1对点云进行分块插值获得路径点的高度值;
图6本发明步骤4中方法2使用反距离加权平均插值算法插值出路径点的高度值;
图7本发明的对离散的路径点使用三次B样条进行轨迹优化的示意图;
图8本发明的根据路径点获得Z轴方向上的速度的示意。
具体实施方式
以下结合附图和具体实施例对本发明的内容作进一步的详细描述:
基于无人机实时仿地飞行方法的大场景建图方法,具体方法为:
S1、对兴趣区域进行X-Y航线规划,以机头方向为X方向,无人机上方为Z方向,无人机左方为Y方向,将兴趣区X-Y范围(一般为矩形)的四个顶点(x1,y1),(x2,y1),(x2,y2),(x1,y2)送往计算单元,并以最近的点作为起飞点(x1,y1)。如图2所示,灰色部分为兴趣区域。
根据飞行任务需求的GSD与重叠率计算期望的无人机相对地面的飞行高度,航向X方向上的相邻拍摄点之间的距离,以及航线之间Y方向上的距离。飞行高度确定为Ha=GSD*f*HI/Hs,其中,Ha是无人机期望与地面的垂直距离,f是相机焦距,HI是图片的宽度,Hs为传感器的物理大小。
X方向的航线为从点(x1,y1)到(x2,y1)方向,X方向上的相邻相机拍摄点的距离根据航向重叠率确定,即Dx=GSD*Px(1-Ox),相邻航线之间的间隔距离为:Dy=GSD*Py(1-Oy),其中,Dx为航向上相机两个相邻拍摄点之间的间距,Dy为相邻航线的间隔距离,Px为航向上的飞行像素数,Py为相邻航线上的飞行像素数,Ox、Oy分别为航向重叠率与纵向重叠率,如图2所示。
S2、如图3所示,在拍摄点对无人机下方进行实时拍摄并记录此时的GPS信息,解算此时拍摄到的当前帧相对于上一帧的位姿。对于每一帧,先使用SiftGPU提取每一帧图像的特征点与描述子,然后对上一帧与当前帧提取到的特征点进行匹配,得到匹配点对xi与x′i,xi为上一帧的关键点,x′i为当前帧的关键点;进行特征点匹配以后使用本质矩阵的奇异值(SVD)分解获得当前帧相对上一帧的位姿,利用得到的位姿与匹配好的点特征点进行三角化求解出稀疏的三维地图点。得到三维点以后,对于将来时刻拍摄的到的图片,可以通过构建PNP问题求解将来时刻拍摄到的图片的位姿。
根据SLAM求解出来的位姿与记录下的GPS信息进行联合优化,可以提高位姿和地图点的精度。根据航拍图形的提供的GPS信息对相邻帧进行优化,设计损失函数其中x′i代表代表当前帧中对应的关键点,/> K∈R3x3,其中/>是重投影到当前帧后关键点的位置,K代表相机内参矩阵,代表相机的位姿,它是李代数的表示形式,∈∧是李代数的反对称矩阵表达形式,Pi∈R3代表三维的地图点它,它是由x′i与/>进行三角化得到的,或者之前已经存在。
GPS的误差定义为eg=||tGPS-tSLAM||2,它是SLAM提供的位移与观测到的GPS信息之间差异的2-范数。总的误差定义为e=er+αeg,其中α为权重系数,其作用是为了防止重投影误差和GPS误差差异过大,进行优化以后可以得到更精确的位姿与稀疏的三维地图点云。
S3、传统的实时密集点云生成是基于双目摄像机的。然而,航空测绘的飞行高度一般是几百米或几千米,传统的双目相机由于基线长度的限制,不适合进行精确的深度估计。因此,在相邻两帧之间构建一个虚拟的立体像对并通过对图片的立体矫正来进行更精确的深度估计。
先使用Bouguet算法来进行图片的矫正,矫正后两张图片的极点无穷大,两张照片拍摄时的光轴平行,矫正之后左右两幅图像的对应点间距高度相同,大大提高了地图稠密化时像素的匹配效率。为了获得密集的视差图,使用ELAS算法来进行快速的立体匹配,然后把得到的视差图转换为深度图。
由于上述步骤得到的视差图不够精确,因此由此获得的深度图精度不够,需要深度图进行滤波处理,使用连续图像的一致性约束来细化深度图,一致性反映了像素之间的相关性,当相关性高时,像素深度具有更高的精度。具体方法为:设计一个队列,每当得到一帧深度图以后将其插入此队列,当队列中深度图超过数量N(为奇数)以后,进行一致性检查。将队列中的中间帧作为当前帧,将其深度图转换为3D点并投影到其他N-1帧的视图中从而产生对应帧的2D坐标pi和深度值d`i,如果则匹配被认为是一致的,其中d`i表示pi的深度值,di定义为其他帧中同一3D点的深度值,feq是一致性的阈值,可灵活调整,这里本申请设定N为5,feq为0.01。如果至少其他3帧中像素点的深度与当前帧中像素点的深度一致,则接受为相应的像素,否则将其删除。对于接受的点,其深度设置为其他视图中一致深度的平局值以抑制噪声。
一致性检查后,要去除相邻帧的冗余点,以此减少融合的计算负担,具体方法为:设计一个过滤队列,当队列中的深度图数超过I时,以I/2为当前帧,将该帧的深度图中每个深度大于0的点都反投影到3D空间中然后重新投影到其他I-1帧的深度图中,将其他I-1帧对应的点深度设置为零。最后,将最后一帧从队列中弹出,这样重复的点云就不会被重复发布,这样就可以得到稠密的点云地图。
S4、为更好的获得无人机实时相对地面的距离,提出两种方法对S3得到的稀疏点云进行处理。
为实现仿地飞行,需要获得无人机前方的地面相对无人机的垂直距离。将点云坐标转换到无人机坐标系下,可以得到无人机前后方地面每一个点云的坐标,对无人机前方路径进行实时生成,对无人机前方20m的路径区域,以1m为单位去插值得到20个离散点,对于每一个离散点Pi+1(xi+1,y,zi+1)、Pi+2(xi+2,y,zi+2)…Pi+n(xi+n,y,zi+n)的x,y坐标的确定方式为:xi+n+1=xi+n+1,其中xi+n为上一个点的X方向坐标(第一个点为无人机此时坐标),xi+n+1为下一个点的X方向坐标,最远点的X方向坐标为xi+20=xi+20,y为无人机此时的Y方向坐标;Z坐标的确定设计了两种方法。
方法1:选取X方向上20段区域,每一段选取X方向长度为1m,Y方向长度为10m的矩形区域块,遍历每一段区域里面的点云,使用公式计算出每一个区域内对应的插值点Z方向的值,其中m为区域内的点云数量,Di为每个点与无人机在垂直方向上的距离。上述计算过程的示意如图5所示,其中黑色方框代表插值出的路径点,灰色的圆点为此区域块内的点云。
将得到的每一个路径点的Z方向的值,即无人机的前方与地面的垂直距离,使用公式Hi=zi+n-Ha即可得到无人机为到达路径点应该上升或下降的距离,即可达到仿地飞行的目的。
方法2:使用反距离加权平均插值算法进行计算,对于前方的每一个路径点,找到8个与该路径点在X-Y平面上距离最小的点,使用公式 计算路径点的Z方向的值,其中Wtotal代表总的权重,它表示每个路径点与其X-Y平面上距离最小的8个点的距离成反比,Sk为每个点距离此路径点的X-Y平面的欧式距离,zi+n为插值出无人机前方距离地面的垂直距离,Dk为这八个点中每个点的距离无人机垂直方向上的高度值,如图6,其中黑色方框为插值出的路径点,黑色的圆形为无人机下方的点云,连线代表此插值点是由哪些点云计算的。
将得到的每一个路径点的Z方向的值,即此点下方的地面距离无人机的垂直距离,使用公式Hi=zi+n-Ha即可得到无人机为到达路径点应该上升或下降的距离,即可达到仿地飞行的目的。
方法2相对于方法1的好处为:每一个插值的路径点都与前后方周围点云有关,即既考虑的过去的状态也考虑了将来的状态,而方法1得到的路径点只与路径点前方的点云有关,没有考虑到过去的状态,方法2考虑了过去的状态,可以防止前后路径点突变而使无人机产生很大的z方向加速度。
S5、根据稀疏点云地图进行无人机仿地飞行路径生成,经过S4计算得到前方航向一系列的路径点坐标后,对离散的坐标进行可达性检查,对相邻的路径点Pi+1(xi+1,y,zi+1)、Pi+2(xi+2,y,zi+2),计算其两点Z方向上的可达性,若|zi+2-zi+1|-h>0,则继续判断zi+2-zi+1是否大于0,若大于0则zi+2=zi+1+h,否则zi+2=zi+1-h,此处令h为3m,防止无人机路径点发生突变,令使无人机的运动更加顺滑。为了获得更加平滑的轨迹,使用三次B样条对可达性检查后的离散点进行拟合得到B样条曲线B(x),其中x是航向上的点,B(x)代表此点对应的无人机应到达的高度,如图7。
S6、无人机根据优化后的曲线进行仿地飞行。每间隔固定时间计算下一时刻的点,根据公式xf=vx*Δt,其中vx为航向速度,vx为恒定速度,Δt为时间间隔,xf为下一目标点的航向坐标,将其带入S6得到B(x)即可得到无人机下一时刻应到达的高度zt+1。将下一时刻的目标点T(xf,zt+1),与此时的位置T(xn,zn)做差得到方向向量根据公式vz=vx*tanα计算出Z轴方向上的速度,其中α为方向向量与航向速度的夹角,vz是应达到的爬升或下降速度,如图8。
通过对生成曲线的寻迹即可保证实时相对地面的高度一定,即GSD一定。根据航向重叠率确定下一张照片的拍摄点,在拍摄点进行拍摄。
S7、合成全局地图。在拍摄点进行拍摄后,根据S3生成图片的稠密点云与其对应的位姿,根据位姿之间的关系对获得的局部稠密点云进行拼接,最终获得飞行区域的全局稠密点云,完成飞行区域的仿地飞行并获得三维地图。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明公开的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。
Claims (8)
1.一种基于无人机实时仿地飞行方法的大场景建图方法,其特征在于:无人机底部搭载相机;具体包括以下步骤:
步骤1:选取兴趣区域进行航线规划:
根据任务需求的GSD与图片重叠率计算无人机相对地面的飞行高度,以及飞行路径上的拍摄点,实时生成无人机X-Y平面上的航线;所述X-Y平面为水平面;
步骤2:当无人机飞行到所述拍摄点时,对无人机下方区域进行实时拍摄,提取图片特征点,对相邻图片帧的特征点进行匹配并获得当前帧相对于上一帧的位姿,然后结合GPS信息进行位姿优化,实时获得无人机下方相机拍摄区域的地面稀疏点云;
步骤3、根据步骤2优化得到的位姿信息进行三维重建,生成地面稠密点云;
步骤4、根据步骤2得到的稀疏点云实时计算无人机在航线中的下一飞行区域内各路径点位置与地面的垂直距离;
步骤5、根据步骤2得到的稀疏点云以及步骤4计算得到的各路径点位置与地面的垂直距离,实时进行无人机仿地飞行路径生成;
步骤6、无人机根据步骤5生成的路径进行仿地飞行;
步骤7、根据相邻帧之间的位姿对步骤3获得的稠密点云进行拼接,然后返回步骤2,直至飞行任务执行完毕,得到基于稠密点云的全局地图。
2.根据权利要求1所述一种基于无人机实时仿地飞行方法的大场景建图方法,其特征在于:步骤1中,以机头方向为X方向,无人机左方为Y方向,无人机上方为Z方向定义坐标系,并确定兴趣区域顶点的X-Y坐标。
3.根据权利要求2所述一种基于无人机实时仿地飞行方法的大场景建图方法,其特征在于:步骤1中,根据飞行任务需求的GSD与重叠率计算期望的无人机相对地面的飞行高度、X方向上的相邻拍摄点之间的距离、以及航线间在Y方向上的距离,以此生成无人机X-Y平面上的航线:
其中:
期望的无人机相对地面飞行高度确定为Ha=GSD*f*HI/Hs,其中Ha是无人机期望与地面的垂直距离,f是相机焦距,HI是图片的宽度,Hs为相机传感器的物理大小;
X方向上的相邻拍摄点之间的距离Dx=GSD*Px(1-Ox);相邻航线间在Y方向上的距离Dy=GSD*Py(1-Oy),Px为航向上的飞行像素数,Py为相邻航线上的飞行像素数,Ox、Oy分别为航向重叠率与纵向重叠率。
4.根据权利要求1所述一种基于无人机实时仿地飞行方法的大场景建图方法,其特征在于:步骤2具体为:
对拍摄的每一帧图片进行SiftGPU特征点提取并计算描述子,进行特征匹配;通过特征匹配构建本质矩阵,并进行SVD分解得到相邻帧之间的相对位姿信息;
根据在拍摄点记录下的GPS信息,利用求解出的位姿与记录下的GPS信息对当前帧的位姿进行优化,得到更精确的位姿与稀疏点云。
5.根据权利要求1所述一种基于无人机实时仿地飞行方法的大场景建图方法,其特征在于:步骤3中,对一组相邻帧使用稠密立体视觉匹配算法进行快速的立体匹配,获得深度图;再对得到的深度图进行滤波处理,并进行连续图像一致性检查,得到精度更高的深度图;一致性检查后,除去相邻帧中的冗余点,生成稠密点云地图。
6.根据权利要求3所述一种基于无人机实时仿地飞行方法的大场景建图方法,其特征在于:步骤4中,获得稀疏点云地图后,进行位姿转换,将点云数据转换到无人机机体坐标系下;之后将无人机前方航线上的下一区域的稀疏点云沿X方向进行分块处理,计算每个分块内点云中的各点与无人机在垂直方向上的距离的均值作为该分块区域内航线路径点对应的Z向插值zi+n,n表示第n个分块;再根据公式Hi,n=zi+n-Ha,n得到无人机为到达该路径点应该上升或下降的距离;其中Ha,n为步骤1得到的无人机在该路径点处期望与地面的垂直距离。
7.根据权利要求1所述一种基于无人机实时仿地飞行方法的大场景建图方法,其特征在于:步骤4中,获得稀疏点云地图后,进行位姿转换,将点云数据转换到无人机机体坐标系下;之后对于无人机前方航线上的下一区域内的每个设定的航线路径点,找到点云中与该航线路径点在X-Y平面上距离最小的K个点,使用公式计算航线路径点的Z向插值zi+n,其中Wtotal代表权重,sk为第k个点距离航线路径点在X-Y平面内的欧式距离,Dk为第k个点与无人机在垂直方向上的距离;再根据公式Hi,n=zi+n-Ha,n得到无人机为到达该路径点应该上升或下降的距离;其中Ha,n为步骤S1得到的无人机在该路径点处期望与地面的垂直距离。
8.根据权利要求6或7所述一种基于无人机实时仿地飞行方法的大场景建图方法,其特征在于:步骤5中,对根据稀疏点云得到的X方向上的路径点进行可达性检查,并对检查后的路径点进行曲线拟合,生成无人机仿地飞行路径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210352226.2A CN114663596B (zh) | 2022-04-03 | 2022-04-03 | 基于无人机实时仿地飞行方法的大场景建图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210352226.2A CN114663596B (zh) | 2022-04-03 | 2022-04-03 | 基于无人机实时仿地飞行方法的大场景建图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114663596A CN114663596A (zh) | 2022-06-24 |
CN114663596B true CN114663596B (zh) | 2024-02-23 |
Family
ID=82034776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210352226.2A Active CN114663596B (zh) | 2022-04-03 | 2022-04-03 | 基于无人机实时仿地飞行方法的大场景建图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114663596B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085845A (zh) * | 2020-09-11 | 2020-12-15 | 中国人民解放军军事科学院国防科技创新研究院 | 基于无人机影像的室外场景快速三维重建装置 |
CN112434709A (zh) * | 2020-11-20 | 2021-03-02 | 西安视野慧图智能科技有限公司 | 基于无人机实时稠密三维点云和dsm的航测方法及系统 |
CN112435325A (zh) * | 2020-09-29 | 2021-03-02 | 北京航空航天大学 | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 |
WO2021072696A1 (zh) * | 2019-10-17 | 2021-04-22 | 深圳市大疆创新科技有限公司 | 目标检测与跟踪方法、系统、可移动平台、相机及介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110873565B (zh) * | 2019-11-21 | 2021-06-04 | 北京航空航天大学 | 用于城市场景重建的无人机实时路径规划方法 |
-
2022
- 2022-04-03 CN CN202210352226.2A patent/CN114663596B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021072696A1 (zh) * | 2019-10-17 | 2021-04-22 | 深圳市大疆创新科技有限公司 | 目标检测与跟踪方法、系统、可移动平台、相机及介质 |
CN112085845A (zh) * | 2020-09-11 | 2020-12-15 | 中国人民解放军军事科学院国防科技创新研究院 | 基于无人机影像的室外场景快速三维重建装置 |
CN112435325A (zh) * | 2020-09-29 | 2021-03-02 | 北京航空航天大学 | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 |
CN112434709A (zh) * | 2020-11-20 | 2021-03-02 | 西安视野慧图智能科技有限公司 | 基于无人机实时稠密三维点云和dsm的航测方法及系统 |
Non-Patent Citations (2)
Title |
---|
基于单目多视角影像的场景三维重建;吴铮铮;寇展;;光学与光电技术;20201010(第05期);全文 * |
基于稀疏直接法和图优化的移动机器人SLAM;吴玉香;王超;冼颖宪;;仪器仪表学报;20180415(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114663596A (zh) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107945220B (zh) | 一种基于双目视觉的重建方法 | |
CN112132972B (zh) | 一种激光与图像数据融合的三维重建方法及系统 | |
CN111929699B (zh) | 一种顾及动态障碍物的激光雷达惯导里程计与建图方法及系统 | |
CN112435325B (zh) | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 | |
CN111275750B (zh) | 基于多传感器融合的室内空间全景图像生成方法 | |
CN108520554B (zh) | 一种基于orb-slam2的双目三维稠密建图方法 | |
CN106803271B (zh) | 一种视觉导航无人机的摄像机标定方法及装置 | |
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
JP4392507B2 (ja) | 3次元サーフェス生成方法 | |
US20170310892A1 (en) | Method of 3d panoramic mosaicing of a scene | |
CN110319772B (zh) | 基于无人机的视觉大跨度测距方法 | |
CN111141264B (zh) | 一种基于无人机的城市三维测绘方法和系统 | |
CN106780712B (zh) | 联合激光扫描和影像匹配的三维点云生成方法 | |
CN109900274B (zh) | 一种图像匹配方法及系统 | |
CN114066960B (zh) | 三维重建方法、点云融合方法、装置、设备及存储介质 | |
CN110488871B (zh) | 一种基于二三维一体化的无人机路径动态规划方法 | |
JP7502440B2 (ja) | 環境のトポグラフィを測定するための方法 | |
CN110889899A (zh) | 一种数字地表模型的生成方法及装置 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN112270698A (zh) | 基于最邻近曲面的非刚性几何配准方法 | |
CN114638897B (zh) | 基于无重叠视域的多相机系统的初始化方法、系统及装置 | |
CN113034571A (zh) | 一种基于视觉—惯性的物体三维尺寸测量方法 | |
CN114266821A (zh) | 在线定位方法、装置、终端设备及存储介质 | |
Liu et al. | Dense stereo matching strategy for oblique images that considers the plane directions in urban areas | |
CN113670316A (zh) | 基于双雷达的路径规划方法、系统、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |