CN114509070A - 一种无人机导航定位方法 - Google Patents
一种无人机导航定位方法 Download PDFInfo
- Publication number
- CN114509070A CN114509070A CN202210142961.0A CN202210142961A CN114509070A CN 114509070 A CN114509070 A CN 114509070A CN 202210142961 A CN202210142961 A CN 202210142961A CN 114509070 A CN114509070 A CN 114509070A
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- image
- semantic
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000011218 segmentation Effects 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims description 19
- 230000003044 adaptive effect Effects 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 12
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 8
- 230000009286 beneficial effect Effects 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000006978 adaptation Effects 0.000 abstract 2
- 238000005516 engineering process Methods 0.000 description 4
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Geometry (AREA)
- Navigation (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种无人机导航定位方法,属于无人机导航定位和异源图像语义匹配领域。包括:对飞行区域的遥感图像进行语义分割,得到适配区和各景物之间的拓扑关系;利用航拍图像和IMU,通过SLAM算法完成无人机定位;判断无人机是否在适配区,是则对航拍图像进行校正和语义分割;确定匹配区域,进行语义匹配;匹配成功后,对航拍图像和遥感图像进行特征匹配得到对应的特征点;求得无人机的位置和航向,并对SLAM方法进行校正更新。本发明克服了GPS信号差或无GPS信号等情况下的无人机定位问题,通过遥感图像与航拍图像的匹配对SLAM的进行校正,消除了长时间航行带来的累积误差问题,匹配过程中引入了语义匹配方法,减少了总体的计算量并提高了特征匹配的准确率。
Description
技术领域
本发明属于无人机导航定位和异源图像语义匹配领域,尤其涉及到无人机导航技术和异源图像语义匹配和定位方法。
背景技术
目前无人机采用的定位导航技术主要依赖于全球定位系统(GPS)、惯性导航(INS)、无线电定位(UWB)等技术或组合。GPS定位系统依赖与卫星的良好通信,容易受遮挡、电磁信号等因素的干扰,在非合作场景中适应性较差。INS由于累积误差的存在,无法用于长距离的导航定位。无线电定位往往需要额外部署其他设备,无法应用于非合作场景。
为解决上述问题,无人机领域相关研究人员对基于被动视觉的定位技术展开了研究,该方法不容易受外界干扰,且定位精度较高,已在巡航导弹领域取得了广泛的应用。该类方法以景象匹配为主,且主要应用在末端制导中,与无人机定位导航的应用场景还存在较大差异。
发明内容
本发明提供了一种无人机导航定位方法,用于通过被动视觉方案实现无人机定位导航。
为实现上述目的,本发明采用的技术方案为:
一种无人机导航定位方法,包括以下步骤:
步骤1,根据无人机预设飞行区域加载对应的遥感图像,对遥感图像进行语义分割处理得到语义信息,并筛选出适配区和非适配区以及得到各语义区域之间的拓扑关系;
步骤2,根据无人机的航拍图像和IMU信息,利用SLAM方法,得到无人机位姿,并转换为经纬度、航向和位姿信息;
步骤3,根据无人机经纬度定位信息,判断无人机是否在适配区区域,是则对无人机航拍图像进行校正处理和语义分割处理,得到语义信息及各语义区域之间的拓扑关系;
步骤4,以无人机位置为中心,根据无人机定位误差,得到遥感图像中的预匹配区域,并利用步骤1和步骤3得到的语义信息及各语义区域之间的拓扑关系,对遥感图像和航拍图像进行语义匹配;
步骤5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,并计算求解无人机相对遥感图像的位姿;
步骤6,根据无人机相对遥感图像的位姿,经坐标变换得到无人机导航信息,对SLAM方法中信息和无人机定位信息进行更新校正。
进一步的,步骤1具体包括以下步骤:
步骤101,根据无人机预设飞行区域加载对应的遥感图像;
步骤102,对遥感图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
步骤103,以单幅航拍图像大小为标准,当场景中不存在语义信息或语义信息全部为不利于图像匹配的区域时,设定对应区域为非适配区,剩余区域为适配区;其中,不利于图像匹配的区域包括沙漠、水体和草原;
步骤104,根据分割结果,以遥感图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
进一步的,步骤2具体包括以下步骤:
步骤201,设定无人机SLAM坐标系的原点和方向,确定相机、惯性传感器和无人机三者之间的位置变换关系,并将三者位姿统一以无人机位姿表示;
步骤202,对航拍图像序列进行特征检测,得到特征点的位置信息和描述子信息,并通过特征跟踪的方式得到同一特征点在不同航拍图像中的位置;
步骤203,通过多视图几何方法计算不同航拍图像之间的位姿变换,并通过三角化方法将航拍图像中的特征点恢复为三维点云;
步骤204,使用光束平差法方法对无人机位姿和三维点云坐标进行优化;
步骤205,根据优化后的无人机位姿信息和惯性传感器输出的数据,计算并优化惯性传感器的参数,计算得到惯性传感器的预积分量;
步骤206,融合步骤204和206得到的视觉和惯性传感器信息,建立带有尺度信息的无人机SLAM地图;
步骤207,将SLAM地图坐标系与经纬高坐标系进行转换,得到无人机经纬度、航向和位姿信息。
进一步的,步骤3中对无人机航拍图像进行校正处理和语义分割处理,具体包括以下步骤:
步骤3011,根据无人机航向,校正航拍图像与遥感图像同向;根据无人机姿态,校正航拍图像成为水平等效拍摄图像;根据无人机飞行高度、视场角和图像像素尺寸,调整航拍图像分辨率与遥感图像相同;
步骤3012,对校正和调整后的航拍图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
步骤3013,根据分割结果,以航拍图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
进一步的,步骤4中对遥感图像和航拍图像进行语义匹配,具体包括以下步骤:
步骤4011,根据航拍图像中各语义信息的种类和面积大小,与预匹配区域内的遥感图像进行匹配;
步骤4012,当某区域与航拍图像中存在种类和面积相同的语义信息数目超过设定值时,语义匹配成功。
进一步的,步骤4中对遥感图像和航拍图像进行语义匹配,包括以下步骤:
步骤4021,根据航拍图像中各语义信息的种类和面积所占图像百分比,与预匹配区域内的遥感图像进行匹配;
步骤4022,当某区域与航拍图像中存在种类和面积所占图像百分比相同的语义信息数目超过设定值时,语义匹配成功。
进一步的,步骤4中对遥感图像和航拍图像进行语义匹配,包括以下步骤:
步骤4031,根据航拍图像中各语义信息的种类和拓扑关系,与预匹配区域内的遥感图像进行匹配;
步骤4032,当某区域与航拍图像的语义信息中存在拓扑关系相同的情况时,语义匹配成功。
进一步的,步骤5中对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括以下步骤:
步骤5011,使用特征检测方法,包括SIFT、SURF、ORB和光流,对航拍图像和遥感图像匹配区域进行特征检测;
步骤5012,对特征点进行特征匹配,得到两者之间对应的特征点。
进一步的,步骤5中对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括以下步骤:
步骤5021,对语义匹配成功的区域,得到两幅图像中对应的语义区域;
步骤5022,将图像中对应的语义区域中心设定为匹配成功的特征点。
进一步的,步骤5中计算求解无人机相对遥感图像的位姿,包括以下步骤:
步骤5031,根据SLAM获得特征点在SLAM坐标系中的坐标,获得特征点的高度;
步骤5032,当特征点数目达到设定数量时,根据PNP方法利用特征点的高度信息得到航拍图像与遥感图像之间的相对位姿关系。
进一步的,步骤6具体包括以下步骤:
步骤601,根据无人机相对遥感图像的位姿,通过坐标变换,得到无人机的经纬度、航向和位姿信息,对无人机定位信息进行更新;
步骤602,将无人机当前坐标输入SLAM作为约束信息,对SLAM中无人机位姿和点云进行优化。
与现有方法相比,本发明的有益效果有:
1.本发明通过无人机航拍图像和IMU利用SLAM方法获得无人机的位置和航向信息,克服了GPS信号差或无GPS信号等情况下的无人机定位问题;
2.本发明通过遥感图像与航拍图像的匹配对SLAM的进行校正,消除了长时间航行给SLAM和IMU带来的累积误差问题;
3.本发明匹配过程中引入了语义匹配方法,减少了算法总体的计算量并提高了特征匹配的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明提供的一种无人机导航定位方法的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方法
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
无特殊说明,所使用的药品/试剂均为市售。
本发明提出一种无人机导航定位方法,如图1所示,包括:
S1,根据无人机预设飞行区域加载对应的遥感图像,对遥感图像进行语义分割处理得到语义信息,并筛选出适配区和非适配区以及得到各语义区域之间的拓扑关系;
S2,根据无人机的航拍图像和IMU信息,利用SLAM方法,得到无人机位姿,并转换为经纬度、航向和位姿信息;
S3,根据无人机经纬度定位信息,判断无人机是否在适配区区域,是则对无人机航拍图像进行校正处理和语义分割处理,得到语义信息及各语义区域之间的拓扑关系;
S4,以无人机位置为中心,根据无人机定位误差,得到遥感图像中的预匹配区域,并利用步骤1和步骤3得到的语义信息及各语义区域之间的拓扑关系,对遥感图像和航拍图像进行语义匹配;
S5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,并计算求解无人机相对遥感图像的位姿;
S6,根据无人机相对遥感图像的位姿,经坐标变换得到无人机导航信息,对SLAM方法中信息和无人机定位信息进行更新校正。
在其中一个实施例中,对于步骤S1,包括:
S11,根据无人机预设飞行区域加载对应的遥感图像;
S12,对遥感图像进行语义分割处理,得到包括但不限于房屋、道路、农田、草原、沙漠、水体等景物区域的语义信息;
S13,以单幅航拍图像大小为标准,当场景中不存在语义信息或语义信息全部为沙漠、水体、草原等不利于图像匹配的区域时,则设定该区域为非适配区,剩余区域为适配区;
S14,根据分割结果,以遥感图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
在其中一个实施例中,对于步骤S2,包括:
S21,设定无人机SLAM坐标系的原点和方向,确定相机、惯性传感器和无人机三者之间的位置变换关系,并将三者位姿统一以无人机位姿表示;
S22,对航拍图像序列进行特征检测,得到特征点的位置信息和描述子信息,通过特征跟踪的方式得到同一特征点在不同航拍图像中的位置;
S23,通过多视图几何方法计算不同航拍图像之间的位姿变换,并通过三角化方法将相机图像中的特征点恢复为三维点云;
S24,使用光束平差法方法对无人机位姿和三维点云坐标进行优化;
S25,根据优化后的无人机位姿信息和惯性传感器输出的数据,计算并优化惯性传感器的参数,并计算得到惯性传感器的预积分量;
S26,融合步骤204和206得到的视觉和惯性传感器信息,建立带有尺度信息的无人机SLAM地图
S27,将SLAM地图坐标系与经纬高坐标系进行转换,得到无人机经纬度、航向和位姿信息。
在其中一个实施例中,对于步骤S3,对无人机航拍图像进行校正处理和语义分割处理,包括:
S311,根据无人机航向,校正航拍图像与遥感图像同向;根据无人机姿态,校正航拍图像成为水平等效拍摄图像;根据无人机飞行高度、视场角和图像像素尺寸,调整航拍图像分辨率与遥感图像相同;
S322,对校正和调整后的航拍图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
S333,根据分割结果,以航拍图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
在其中一个实施例中,对于步骤S4,对遥感图像和航拍图像进行语义匹配,包括:
S411,根据航拍图像中各语义信息的种类和面积大小,与预匹配区域内的遥感图像进行匹配;
S412,当某区域与航拍图像中存在种类和面积相同(误差在10%以内)的语义信息数目超过2时,认为语义匹配成功。
在其中一个实施例中,对于步骤S4,对遥感图像和航拍图像进行语义匹配,包括:
S421,根据航拍图像中各语义信息的种类和面积所占图像百分比,与预匹配区域内的遥感图像进行匹配;
S422,当某区域与航拍图像中存在种类和面积所占图像百分比相同(误差在10%以内)的语义信息数目超过2时,认为语义匹配成功。
在其中一个实施例中,对于步骤S4,对遥感图像和航拍图像进行语义匹配,包括:
S431,根据航拍图像中各语义信息的种类和拓扑关系,与预匹配区域内的遥感图像进行匹配;
S432,当某区域与航拍图像的语义信息中存在拓扑关系相同的情况时,认为语义匹配成功。
在其中一个实施例中,对于步骤S5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括:
S511,使用包括但不限于SIFT、SURF、ORB、光流等方法,对航拍图像和遥感图像匹配区域进行特征检测;
S512,对特征点进行特征匹配,得到两者之间对应的特征点。
在其中一个实施例中,对于步骤S5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括:
S521,对上一步语义匹配成功的区域,得到两幅图像中对应的语义区域;
S522,图像中对应的语义区域中心设定为匹配成功的特征点。
在其中一个实施例中,对于步骤S52,计算求解无人机相对遥感图像的位姿,包括:
S531,根据SLAM可以获得上一步骤中特征点在SLAM坐标系中的坐标,进而可以获得特征点的高度;
S532,当特征点数目达到3时,利用PNP方法得到航拍图像与遥感图像之间的想对位姿关系。其中,PNP方法为一种根据三维点和两幅图像中的特征点计算两幅图像之间相对位姿的方法。
在其中一个实施例中,对于步骤S6,包括:
S61:根据无人机相对遥感图像的位姿,通过坐标变换,得到无人机的经纬度、航向和位姿信息,对无人机定位信息进行更新;
S62:将无人机当前坐标输入SLAM作为约束信息,对SLAM中无人机位姿和点云进行优化。
Claims (11)
1.一种无人机导航定位方法,其特征在于,包括以下步骤:
步骤1,根据无人机预设飞行区域加载对应的遥感图像,对遥感图像进行语义分割处理得到语义信息,并筛选出适配区和非适配区以及得到各语义区域之间的拓扑关系;
步骤2,根据无人机的航拍图像和IMU信息,利用SLAM方法,得到无人机位姿,并转换为经纬度、航向和位姿信息;
步骤3,根据无人机经纬度定位信息,判断无人机是否在适配区区域,是则对无人机航拍图像进行校正处理和语义分割处理,得到语义信息及各语义区域之间的拓扑关系;
步骤4,以无人机位置为中心,根据无人机定位误差,得到遥感图像中的预匹配区域,并利用步骤1和步骤3得到的语义信息及各语义区域之间的拓扑关系,对遥感图像和航拍图像进行语义匹配;
步骤5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,并计算求解无人机相对遥感图像的位姿;
步骤6,根据无人机相对遥感图像的位姿,经坐标变换得到无人机导航信息,对SLAM方法中信息和无人机定位信息进行更新校正。
2.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤1具体包括以下步骤:
步骤101,根据无人机预设飞行区域加载对应的遥感图像;
步骤102,对遥感图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
步骤103,以单幅航拍图像大小为标准,当场景中不存在语义信息或语义信息全部为不利于图像匹配的区域时,设定对应区域为非适配区,剩余区域为适配区;其中,不利于图像匹配的区域包括沙漠、水体和草原;
步骤104,根据分割结果,以遥感图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
3.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤2具体包括以下步骤:
步骤201,设定无人机SLAM坐标系的原点和方向,确定相机、惯性传感器和无人机三者之间的位置变换关系,并将三者位姿统一以无人机位姿表示;
步骤202,对航拍图像序列进行特征检测,得到特征点的位置信息和描述子信息,并通过特征跟踪的方式得到同一特征点在不同航拍图像中的位置;
步骤203,通过多视图几何方法计算不同航拍图像之间的位姿变换,并通过三角化方法将航拍图像中的特征点恢复为三维点云;
步骤204,使用光束平差法方法对无人机位姿和三维点云坐标进行优化;
步骤205,根据优化后的无人机位姿信息和惯性传感器输出的数据,计算并优化惯性传感器的参数,计算得到惯性传感器的预积分量;
步骤206,融合步骤204和206得到的视觉和惯性传感器信息,建立带有尺度信息的无人机SLAM地图;
步骤207,将SLAM地图坐标系与经纬高坐标系进行转换,得到无人机经纬度、航向和位姿信息。
4.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤3中对无人机航拍图像进行校正处理和语义分割处理,具体包括以下步骤:
步骤3011,根据无人机航向,校正航拍图像与遥感图像同向;根据无人机姿态,校正航拍图像成为水平等效拍摄图像;根据无人机飞行高度、视场角和图像像素尺寸,调整航拍图像分辨率与遥感图像相同;
步骤3012,对校正和调整后的航拍图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
步骤3013,根据分割结果,以航拍图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
5.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤4中对遥感图像和航拍图像进行语义匹配,具体包括以下步骤:
步骤4011,根据航拍图像中各语义信息的种类和面积大小,与预匹配区域内的遥感图像进行匹配;
步骤4012,当某区域与航拍图像中存在种类和面积相同的语义信息数目超过设定值时,语义匹配成功。
6.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤4中对遥感图像和航拍图像进行语义匹配,包括以下步骤:
步骤4021,根据航拍图像中各语义信息的种类和面积所占图像百分比,与预匹配区域内的遥感图像进行匹配;
步骤4022,当某区域与航拍图像中存在种类和面积所占图像百分比相同的语义信息数目超过设定值时,语义匹配成功。
7.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤4中对遥感图像和航拍图像进行语义匹配,包括以下步骤:
步骤4031,根据航拍图像中各语义信息的种类和拓扑关系,与预匹配区域内的遥感图像进行匹配;
步骤4032,当某区域与航拍图像的语义信息中存在拓扑关系相同的情况时,语义匹配成功。
8.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤5中对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括以下步骤:
步骤5011,使用特征检测方法,包括SIFT、SURF、ORB和光流,对航拍图像和遥感图像匹配区域进行特征检测;
步骤5012,对特征点进行特征匹配,得到两者之间对应的特征点。
9.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤5中对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括以下步骤:
步骤5021,对语义匹配成功的区域,得到两幅图像中对应的语义区域;
步骤5022,将图像中对应的语义区域中心设定为匹配成功的特征点。
10.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤5中计算求解无人机相对遥感图像的位姿,包括以下步骤:
步骤5031,根据SLAM获得特征点在SLAM坐标系中的坐标,获得特征点的高度;
步骤5032,当特征点数目达到设定数量时,根据PNP方法利用特征点的高度信息得到航拍图像与遥感图像之间的相对位姿关系。
11.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤6具体包括以下步骤:
步骤601,根据无人机相对遥感图像的位姿,通过坐标变换,得到无人机的经纬度、航向和位姿信息,对无人机定位信息进行更新;
步骤602,将无人机当前坐标输入SLAM作为约束信息,对SLAM中无人机位姿和点云进行优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210142961.0A CN114509070B (zh) | 2022-02-16 | 2022-02-16 | 一种无人机导航定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210142961.0A CN114509070B (zh) | 2022-02-16 | 2022-02-16 | 一种无人机导航定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114509070A true CN114509070A (zh) | 2022-05-17 |
CN114509070B CN114509070B (zh) | 2024-03-15 |
Family
ID=81551502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210142961.0A Active CN114509070B (zh) | 2022-02-16 | 2022-02-16 | 一种无人机导航定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114509070B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114637876A (zh) * | 2022-05-19 | 2022-06-17 | 中国电子科技集团公司第五十四研究所 | 基于矢量地图特征表达的大场景无人机图像快速定位方法 |
CN115495611A (zh) * | 2022-11-18 | 2022-12-20 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机自主定位的空间场景检索方法 |
CN115597592A (zh) * | 2022-09-19 | 2023-01-13 | 中国人民解放军国防科技大学(Cn) | 一种应用于无人机巡检的综合定位方法 |
CN117876723A (zh) * | 2024-03-11 | 2024-04-12 | 湖南大学 | 一种拒止环境下无人机航拍图像全局检索定位方法 |
CN117876723B (zh) * | 2024-03-11 | 2024-05-31 | 湖南大学 | 一种拒止环境下无人机航拍图像全局检索定位方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102052925A (zh) * | 2010-12-16 | 2011-05-11 | 西北工业大学 | 基于空间关系约束的适配区景象匹配方法 |
CN108416168A (zh) * | 2018-03-29 | 2018-08-17 | 北京航空航天大学 | 基于分层决策的地形适配区选取方案 |
CN108665477A (zh) * | 2018-04-17 | 2018-10-16 | 华中科技大学 | 一种实时目标匹配定位中的适配区域自适应选取方法 |
US10515458B1 (en) * | 2017-09-06 | 2019-12-24 | The United States Of America, As Represented By The Secretary Of The Navy | Image-matching navigation method and apparatus for aerial vehicles |
CN110866079A (zh) * | 2019-11-11 | 2020-03-06 | 桂林理工大学 | 一种智慧景区实景语义地图的生成与辅助定位方法 |
CN112577493A (zh) * | 2021-03-01 | 2021-03-30 | 中国人民解放军国防科技大学 | 一种基于遥感地图辅助的无人机自主定位方法及系统 |
-
2022
- 2022-02-16 CN CN202210142961.0A patent/CN114509070B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102052925A (zh) * | 2010-12-16 | 2011-05-11 | 西北工业大学 | 基于空间关系约束的适配区景象匹配方法 |
US10515458B1 (en) * | 2017-09-06 | 2019-12-24 | The United States Of America, As Represented By The Secretary Of The Navy | Image-matching navigation method and apparatus for aerial vehicles |
CN108416168A (zh) * | 2018-03-29 | 2018-08-17 | 北京航空航天大学 | 基于分层决策的地形适配区选取方案 |
CN108665477A (zh) * | 2018-04-17 | 2018-10-16 | 华中科技大学 | 一种实时目标匹配定位中的适配区域自适应选取方法 |
CN110866079A (zh) * | 2019-11-11 | 2020-03-06 | 桂林理工大学 | 一种智慧景区实景语义地图的生成与辅助定位方法 |
CN112577493A (zh) * | 2021-03-01 | 2021-03-30 | 中国人民解放军国防科技大学 | 一种基于遥感地图辅助的无人机自主定位方法及系统 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114637876A (zh) * | 2022-05-19 | 2022-06-17 | 中国电子科技集团公司第五十四研究所 | 基于矢量地图特征表达的大场景无人机图像快速定位方法 |
CN114637876B (zh) * | 2022-05-19 | 2022-08-12 | 中国电子科技集团公司第五十四研究所 | 基于矢量地图特征表达的大场景无人机图像快速定位方法 |
CN115597592A (zh) * | 2022-09-19 | 2023-01-13 | 中国人民解放军国防科技大学(Cn) | 一种应用于无人机巡检的综合定位方法 |
CN115597592B (zh) * | 2022-09-19 | 2024-04-02 | 中国人民解放军国防科技大学 | 一种应用于无人机巡检的综合定位方法 |
CN115495611A (zh) * | 2022-11-18 | 2022-12-20 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机自主定位的空间场景检索方法 |
CN117876723A (zh) * | 2024-03-11 | 2024-04-12 | 湖南大学 | 一种拒止环境下无人机航拍图像全局检索定位方法 |
CN117876723B (zh) * | 2024-03-11 | 2024-05-31 | 湖南大学 | 一种拒止环境下无人机航拍图像全局检索定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114509070B (zh) | 2024-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114509070B (zh) | 一种无人机导航定位方法 | |
US10386188B2 (en) | Geo-location or navigation camera, and aircraft and navigation method therefor | |
US20230360260A1 (en) | Method and device to determine the camera position and angle | |
US10437252B1 (en) | High-precision multi-layer visual and semantic map for autonomous driving | |
US10794710B1 (en) | High-precision multi-layer visual and semantic map by autonomous units | |
CN102353377B (zh) | 一种高空长航时无人机组合导航系统及其导航定位方法 | |
CN109931939B (zh) | 车辆的定位方法、装置、设备及计算机可读存储介质 | |
US20170372149A1 (en) | Object recognition device, object recognition method and self-driving system | |
CN111426320B (zh) | 一种基于图像匹配/惯导/里程计的车辆自主导航方法 | |
CN112414417B (zh) | 自动驾驶地图生成方法、装置、电子设备及可读存储介质 | |
CN108549376A (zh) | 一种基于信标的导航定位方法及系统 | |
JP2596364B2 (ja) | 干渉型合成開口レーダ装置から得た3次元情報を用いる地形図作成装置 | |
Grelsson et al. | Highly accurate attitude estimation via horizon detection | |
CN117321638A (zh) | 校正或扩展现有高清地图 | |
CN116047565A (zh) | 一种多传感器数据融合定位系统 | |
CN114119659A (zh) | 一种多传感器融合的目标跟踪方法 | |
WO2022269609A1 (en) | Automatic camera registration and calibration using marine sensors | |
IL267309B (en) | Terrestrial observation device with positioning functionality | |
CN110390252B (zh) | 基于先验地图信息的障碍物检测方法、装置和存储介质 | |
CN113227711A (zh) | 导航装置、导航参数计算方法及程序 | |
US20200382903A1 (en) | System and method for navigation and geolocation in gps-denied environments | |
CN111121779A (zh) | 一种无人机所处飞行区域的实时检测方法 | |
CN113850864B (zh) | 一种面向室外移动机器人的gnss/lidar回环检测方法 | |
CN112902957A (zh) | 一种弹载平台导航方法及系统 | |
CN115082562A (zh) | 一种外参标定方法、装置、设备、服务器及车载计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |