CN114509070A - 一种无人机导航定位方法 - Google Patents

一种无人机导航定位方法 Download PDF

Info

Publication number
CN114509070A
CN114509070A CN202210142961.0A CN202210142961A CN114509070A CN 114509070 A CN114509070 A CN 114509070A CN 202210142961 A CN202210142961 A CN 202210142961A CN 114509070 A CN114509070 A CN 114509070A
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
image
semantic
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210142961.0A
Other languages
English (en)
Other versions
CN114509070B (zh
Inventor
耿虎军
高峰
李晨阳
关俊志
张泽勇
柴兴华
陈彦桥
王雅涵
蔡迎哲
牛韶源
李森磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 54 Research Institute
Original Assignee
CETC 54 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 54 Research Institute filed Critical CETC 54 Research Institute
Priority to CN202210142961.0A priority Critical patent/CN114509070B/zh
Publication of CN114509070A publication Critical patent/CN114509070A/zh
Application granted granted Critical
Publication of CN114509070B publication Critical patent/CN114509070B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种无人机导航定位方法,属于无人机导航定位和异源图像语义匹配领域。包括:对飞行区域的遥感图像进行语义分割,得到适配区和各景物之间的拓扑关系;利用航拍图像和IMU,通过SLAM算法完成无人机定位;判断无人机是否在适配区,是则对航拍图像进行校正和语义分割;确定匹配区域,进行语义匹配;匹配成功后,对航拍图像和遥感图像进行特征匹配得到对应的特征点;求得无人机的位置和航向,并对SLAM方法进行校正更新。本发明克服了GPS信号差或无GPS信号等情况下的无人机定位问题,通过遥感图像与航拍图像的匹配对SLAM的进行校正,消除了长时间航行带来的累积误差问题,匹配过程中引入了语义匹配方法,减少了总体的计算量并提高了特征匹配的准确率。

Description

一种无人机导航定位方法
技术领域
本发明属于无人机导航定位和异源图像语义匹配领域,尤其涉及到无人机导航技术和异源图像语义匹配和定位方法。
背景技术
目前无人机采用的定位导航技术主要依赖于全球定位系统(GPS)、惯性导航(INS)、无线电定位(UWB)等技术或组合。GPS定位系统依赖与卫星的良好通信,容易受遮挡、电磁信号等因素的干扰,在非合作场景中适应性较差。INS由于累积误差的存在,无法用于长距离的导航定位。无线电定位往往需要额外部署其他设备,无法应用于非合作场景。
为解决上述问题,无人机领域相关研究人员对基于被动视觉的定位技术展开了研究,该方法不容易受外界干扰,且定位精度较高,已在巡航导弹领域取得了广泛的应用。该类方法以景象匹配为主,且主要应用在末端制导中,与无人机定位导航的应用场景还存在较大差异。
发明内容
本发明提供了一种无人机导航定位方法,用于通过被动视觉方案实现无人机定位导航。
为实现上述目的,本发明采用的技术方案为:
一种无人机导航定位方法,包括以下步骤:
步骤1,根据无人机预设飞行区域加载对应的遥感图像,对遥感图像进行语义分割处理得到语义信息,并筛选出适配区和非适配区以及得到各语义区域之间的拓扑关系;
步骤2,根据无人机的航拍图像和IMU信息,利用SLAM方法,得到无人机位姿,并转换为经纬度、航向和位姿信息;
步骤3,根据无人机经纬度定位信息,判断无人机是否在适配区区域,是则对无人机航拍图像进行校正处理和语义分割处理,得到语义信息及各语义区域之间的拓扑关系;
步骤4,以无人机位置为中心,根据无人机定位误差,得到遥感图像中的预匹配区域,并利用步骤1和步骤3得到的语义信息及各语义区域之间的拓扑关系,对遥感图像和航拍图像进行语义匹配;
步骤5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,并计算求解无人机相对遥感图像的位姿;
步骤6,根据无人机相对遥感图像的位姿,经坐标变换得到无人机导航信息,对SLAM方法中信息和无人机定位信息进行更新校正。
进一步的,步骤1具体包括以下步骤:
步骤101,根据无人机预设飞行区域加载对应的遥感图像;
步骤102,对遥感图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
步骤103,以单幅航拍图像大小为标准,当场景中不存在语义信息或语义信息全部为不利于图像匹配的区域时,设定对应区域为非适配区,剩余区域为适配区;其中,不利于图像匹配的区域包括沙漠、水体和草原;
步骤104,根据分割结果,以遥感图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
进一步的,步骤2具体包括以下步骤:
步骤201,设定无人机SLAM坐标系的原点和方向,确定相机、惯性传感器和无人机三者之间的位置变换关系,并将三者位姿统一以无人机位姿表示;
步骤202,对航拍图像序列进行特征检测,得到特征点的位置信息和描述子信息,并通过特征跟踪的方式得到同一特征点在不同航拍图像中的位置;
步骤203,通过多视图几何方法计算不同航拍图像之间的位姿变换,并通过三角化方法将航拍图像中的特征点恢复为三维点云;
步骤204,使用光束平差法方法对无人机位姿和三维点云坐标进行优化;
步骤205,根据优化后的无人机位姿信息和惯性传感器输出的数据,计算并优化惯性传感器的参数,计算得到惯性传感器的预积分量;
步骤206,融合步骤204和206得到的视觉和惯性传感器信息,建立带有尺度信息的无人机SLAM地图;
步骤207,将SLAM地图坐标系与经纬高坐标系进行转换,得到无人机经纬度、航向和位姿信息。
进一步的,步骤3中对无人机航拍图像进行校正处理和语义分割处理,具体包括以下步骤:
步骤3011,根据无人机航向,校正航拍图像与遥感图像同向;根据无人机姿态,校正航拍图像成为水平等效拍摄图像;根据无人机飞行高度、视场角和图像像素尺寸,调整航拍图像分辨率与遥感图像相同;
步骤3012,对校正和调整后的航拍图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
步骤3013,根据分割结果,以航拍图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
进一步的,步骤4中对遥感图像和航拍图像进行语义匹配,具体包括以下步骤:
步骤4011,根据航拍图像中各语义信息的种类和面积大小,与预匹配区域内的遥感图像进行匹配;
步骤4012,当某区域与航拍图像中存在种类和面积相同的语义信息数目超过设定值时,语义匹配成功。
进一步的,步骤4中对遥感图像和航拍图像进行语义匹配,包括以下步骤:
步骤4021,根据航拍图像中各语义信息的种类和面积所占图像百分比,与预匹配区域内的遥感图像进行匹配;
步骤4022,当某区域与航拍图像中存在种类和面积所占图像百分比相同的语义信息数目超过设定值时,语义匹配成功。
进一步的,步骤4中对遥感图像和航拍图像进行语义匹配,包括以下步骤:
步骤4031,根据航拍图像中各语义信息的种类和拓扑关系,与预匹配区域内的遥感图像进行匹配;
步骤4032,当某区域与航拍图像的语义信息中存在拓扑关系相同的情况时,语义匹配成功。
进一步的,步骤5中对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括以下步骤:
步骤5011,使用特征检测方法,包括SIFT、SURF、ORB和光流,对航拍图像和遥感图像匹配区域进行特征检测;
步骤5012,对特征点进行特征匹配,得到两者之间对应的特征点。
进一步的,步骤5中对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括以下步骤:
步骤5021,对语义匹配成功的区域,得到两幅图像中对应的语义区域;
步骤5022,将图像中对应的语义区域中心设定为匹配成功的特征点。
进一步的,步骤5中计算求解无人机相对遥感图像的位姿,包括以下步骤:
步骤5031,根据SLAM获得特征点在SLAM坐标系中的坐标,获得特征点的高度;
步骤5032,当特征点数目达到设定数量时,根据PNP方法利用特征点的高度信息得到航拍图像与遥感图像之间的相对位姿关系。
进一步的,步骤6具体包括以下步骤:
步骤601,根据无人机相对遥感图像的位姿,通过坐标变换,得到无人机的经纬度、航向和位姿信息,对无人机定位信息进行更新;
步骤602,将无人机当前坐标输入SLAM作为约束信息,对SLAM中无人机位姿和点云进行优化。
与现有方法相比,本发明的有益效果有:
1.本发明通过无人机航拍图像和IMU利用SLAM方法获得无人机的位置和航向信息,克服了GPS信号差或无GPS信号等情况下的无人机定位问题;
2.本发明通过遥感图像与航拍图像的匹配对SLAM的进行校正,消除了长时间航行给SLAM和IMU带来的累积误差问题;
3.本发明匹配过程中引入了语义匹配方法,减少了算法总体的计算量并提高了特征匹配的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明提供的一种无人机导航定位方法的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方法
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
另外,本发明各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
无特殊说明,所使用的药品/试剂均为市售。
本发明提出一种无人机导航定位方法,如图1所示,包括:
S1,根据无人机预设飞行区域加载对应的遥感图像,对遥感图像进行语义分割处理得到语义信息,并筛选出适配区和非适配区以及得到各语义区域之间的拓扑关系;
S2,根据无人机的航拍图像和IMU信息,利用SLAM方法,得到无人机位姿,并转换为经纬度、航向和位姿信息;
S3,根据无人机经纬度定位信息,判断无人机是否在适配区区域,是则对无人机航拍图像进行校正处理和语义分割处理,得到语义信息及各语义区域之间的拓扑关系;
S4,以无人机位置为中心,根据无人机定位误差,得到遥感图像中的预匹配区域,并利用步骤1和步骤3得到的语义信息及各语义区域之间的拓扑关系,对遥感图像和航拍图像进行语义匹配;
S5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,并计算求解无人机相对遥感图像的位姿;
S6,根据无人机相对遥感图像的位姿,经坐标变换得到无人机导航信息,对SLAM方法中信息和无人机定位信息进行更新校正。
在其中一个实施例中,对于步骤S1,包括:
S11,根据无人机预设飞行区域加载对应的遥感图像;
S12,对遥感图像进行语义分割处理,得到包括但不限于房屋、道路、农田、草原、沙漠、水体等景物区域的语义信息;
S13,以单幅航拍图像大小为标准,当场景中不存在语义信息或语义信息全部为沙漠、水体、草原等不利于图像匹配的区域时,则设定该区域为非适配区,剩余区域为适配区;
S14,根据分割结果,以遥感图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
在其中一个实施例中,对于步骤S2,包括:
S21,设定无人机SLAM坐标系的原点和方向,确定相机、惯性传感器和无人机三者之间的位置变换关系,并将三者位姿统一以无人机位姿表示;
S22,对航拍图像序列进行特征检测,得到特征点的位置信息和描述子信息,通过特征跟踪的方式得到同一特征点在不同航拍图像中的位置;
S23,通过多视图几何方法计算不同航拍图像之间的位姿变换,并通过三角化方法将相机图像中的特征点恢复为三维点云;
S24,使用光束平差法方法对无人机位姿和三维点云坐标进行优化;
S25,根据优化后的无人机位姿信息和惯性传感器输出的数据,计算并优化惯性传感器的参数,并计算得到惯性传感器的预积分量;
S26,融合步骤204和206得到的视觉和惯性传感器信息,建立带有尺度信息的无人机SLAM地图
S27,将SLAM地图坐标系与经纬高坐标系进行转换,得到无人机经纬度、航向和位姿信息。
在其中一个实施例中,对于步骤S3,对无人机航拍图像进行校正处理和语义分割处理,包括:
S311,根据无人机航向,校正航拍图像与遥感图像同向;根据无人机姿态,校正航拍图像成为水平等效拍摄图像;根据无人机飞行高度、视场角和图像像素尺寸,调整航拍图像分辨率与遥感图像相同;
S322,对校正和调整后的航拍图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
S333,根据分割结果,以航拍图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
在其中一个实施例中,对于步骤S4,对遥感图像和航拍图像进行语义匹配,包括:
S411,根据航拍图像中各语义信息的种类和面积大小,与预匹配区域内的遥感图像进行匹配;
S412,当某区域与航拍图像中存在种类和面积相同(误差在10%以内)的语义信息数目超过2时,认为语义匹配成功。
在其中一个实施例中,对于步骤S4,对遥感图像和航拍图像进行语义匹配,包括:
S421,根据航拍图像中各语义信息的种类和面积所占图像百分比,与预匹配区域内的遥感图像进行匹配;
S422,当某区域与航拍图像中存在种类和面积所占图像百分比相同(误差在10%以内)的语义信息数目超过2时,认为语义匹配成功。
在其中一个实施例中,对于步骤S4,对遥感图像和航拍图像进行语义匹配,包括:
S431,根据航拍图像中各语义信息的种类和拓扑关系,与预匹配区域内的遥感图像进行匹配;
S432,当某区域与航拍图像的语义信息中存在拓扑关系相同的情况时,认为语义匹配成功。
在其中一个实施例中,对于步骤S5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括:
S511,使用包括但不限于SIFT、SURF、ORB、光流等方法,对航拍图像和遥感图像匹配区域进行特征检测;
S512,对特征点进行特征匹配,得到两者之间对应的特征点。
在其中一个实施例中,对于步骤S5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括:
S521,对上一步语义匹配成功的区域,得到两幅图像中对应的语义区域;
S522,图像中对应的语义区域中心设定为匹配成功的特征点。
在其中一个实施例中,对于步骤S52,计算求解无人机相对遥感图像的位姿,包括:
S531,根据SLAM可以获得上一步骤中特征点在SLAM坐标系中的坐标,进而可以获得特征点的高度;
S532,当特征点数目达到3时,利用PNP方法得到航拍图像与遥感图像之间的想对位姿关系。其中,PNP方法为一种根据三维点和两幅图像中的特征点计算两幅图像之间相对位姿的方法。
在其中一个实施例中,对于步骤S6,包括:
S61:根据无人机相对遥感图像的位姿,通过坐标变换,得到无人机的经纬度、航向和位姿信息,对无人机定位信息进行更新;
S62:将无人机当前坐标输入SLAM作为约束信息,对SLAM中无人机位姿和点云进行优化。

Claims (11)

1.一种无人机导航定位方法,其特征在于,包括以下步骤:
步骤1,根据无人机预设飞行区域加载对应的遥感图像,对遥感图像进行语义分割处理得到语义信息,并筛选出适配区和非适配区以及得到各语义区域之间的拓扑关系;
步骤2,根据无人机的航拍图像和IMU信息,利用SLAM方法,得到无人机位姿,并转换为经纬度、航向和位姿信息;
步骤3,根据无人机经纬度定位信息,判断无人机是否在适配区区域,是则对无人机航拍图像进行校正处理和语义分割处理,得到语义信息及各语义区域之间的拓扑关系;
步骤4,以无人机位置为中心,根据无人机定位误差,得到遥感图像中的预匹配区域,并利用步骤1和步骤3得到的语义信息及各语义区域之间的拓扑关系,对遥感图像和航拍图像进行语义匹配;
步骤5,对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,并计算求解无人机相对遥感图像的位姿;
步骤6,根据无人机相对遥感图像的位姿,经坐标变换得到无人机导航信息,对SLAM方法中信息和无人机定位信息进行更新校正。
2.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤1具体包括以下步骤:
步骤101,根据无人机预设飞行区域加载对应的遥感图像;
步骤102,对遥感图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
步骤103,以单幅航拍图像大小为标准,当场景中不存在语义信息或语义信息全部为不利于图像匹配的区域时,设定对应区域为非适配区,剩余区域为适配区;其中,不利于图像匹配的区域包括沙漠、水体和草原;
步骤104,根据分割结果,以遥感图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
3.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤2具体包括以下步骤:
步骤201,设定无人机SLAM坐标系的原点和方向,确定相机、惯性传感器和无人机三者之间的位置变换关系,并将三者位姿统一以无人机位姿表示;
步骤202,对航拍图像序列进行特征检测,得到特征点的位置信息和描述子信息,并通过特征跟踪的方式得到同一特征点在不同航拍图像中的位置;
步骤203,通过多视图几何方法计算不同航拍图像之间的位姿变换,并通过三角化方法将航拍图像中的特征点恢复为三维点云;
步骤204,使用光束平差法方法对无人机位姿和三维点云坐标进行优化;
步骤205,根据优化后的无人机位姿信息和惯性传感器输出的数据,计算并优化惯性传感器的参数,计算得到惯性传感器的预积分量;
步骤206,融合步骤204和206得到的视觉和惯性传感器信息,建立带有尺度信息的无人机SLAM地图;
步骤207,将SLAM地图坐标系与经纬高坐标系进行转换,得到无人机经纬度、航向和位姿信息。
4.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤3中对无人机航拍图像进行校正处理和语义分割处理,具体包括以下步骤:
步骤3011,根据无人机航向,校正航拍图像与遥感图像同向;根据无人机姿态,校正航拍图像成为水平等效拍摄图像;根据无人机飞行高度、视场角和图像像素尺寸,调整航拍图像分辨率与遥感图像相同;
步骤3012,对校正和调整后的航拍图像进行语义分割处理,得到包括景物区域的语义信息;其中,景物区域包括房屋、道路、农田、草原、沙漠和水体;
步骤3013,根据分割结果,以航拍图像左上角为坐标原点,以各语义区域像素中心为参考点,计算各中心间的向量,得到各语义区域的拓扑关系。
5.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤4中对遥感图像和航拍图像进行语义匹配,具体包括以下步骤:
步骤4011,根据航拍图像中各语义信息的种类和面积大小,与预匹配区域内的遥感图像进行匹配;
步骤4012,当某区域与航拍图像中存在种类和面积相同的语义信息数目超过设定值时,语义匹配成功。
6.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤4中对遥感图像和航拍图像进行语义匹配,包括以下步骤:
步骤4021,根据航拍图像中各语义信息的种类和面积所占图像百分比,与预匹配区域内的遥感图像进行匹配;
步骤4022,当某区域与航拍图像中存在种类和面积所占图像百分比相同的语义信息数目超过设定值时,语义匹配成功。
7.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤4中对遥感图像和航拍图像进行语义匹配,包括以下步骤:
步骤4031,根据航拍图像中各语义信息的种类和拓扑关系,与预匹配区域内的遥感图像进行匹配;
步骤4032,当某区域与航拍图像的语义信息中存在拓扑关系相同的情况时,语义匹配成功。
8.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤5中对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括以下步骤:
步骤5011,使用特征检测方法,包括SIFT、SURF、ORB和光流,对航拍图像和遥感图像匹配区域进行特征检测;
步骤5012,对特征点进行特征匹配,得到两者之间对应的特征点。
9.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤5中对语义匹配成功的两幅图像进行特征匹配,得到对应的特征点,包括以下步骤:
步骤5021,对语义匹配成功的区域,得到两幅图像中对应的语义区域;
步骤5022,将图像中对应的语义区域中心设定为匹配成功的特征点。
10.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤5中计算求解无人机相对遥感图像的位姿,包括以下步骤:
步骤5031,根据SLAM获得特征点在SLAM坐标系中的坐标,获得特征点的高度;
步骤5032,当特征点数目达到设定数量时,根据PNP方法利用特征点的高度信息得到航拍图像与遥感图像之间的相对位姿关系。
11.根据权利要求1所述的一种无人机导航定位方法,其特征在于,步骤6具体包括以下步骤:
步骤601,根据无人机相对遥感图像的位姿,通过坐标变换,得到无人机的经纬度、航向和位姿信息,对无人机定位信息进行更新;
步骤602,将无人机当前坐标输入SLAM作为约束信息,对SLAM中无人机位姿和点云进行优化。
CN202210142961.0A 2022-02-16 2022-02-16 一种无人机导航定位方法 Active CN114509070B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210142961.0A CN114509070B (zh) 2022-02-16 2022-02-16 一种无人机导航定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210142961.0A CN114509070B (zh) 2022-02-16 2022-02-16 一种无人机导航定位方法

Publications (2)

Publication Number Publication Date
CN114509070A true CN114509070A (zh) 2022-05-17
CN114509070B CN114509070B (zh) 2024-03-15

Family

ID=81551502

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210142961.0A Active CN114509070B (zh) 2022-02-16 2022-02-16 一种无人机导航定位方法

Country Status (1)

Country Link
CN (1) CN114509070B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114637876A (zh) * 2022-05-19 2022-06-17 中国电子科技集团公司第五十四研究所 基于矢量地图特征表达的大场景无人机图像快速定位方法
CN115495611A (zh) * 2022-11-18 2022-12-20 中国电子科技集团公司第五十四研究所 一种面向无人机自主定位的空间场景检索方法
CN115597592A (zh) * 2022-09-19 2023-01-13 中国人民解放军国防科技大学(Cn) 一种应用于无人机巡检的综合定位方法
CN117876723A (zh) * 2024-03-11 2024-04-12 湖南大学 一种拒止环境下无人机航拍图像全局检索定位方法
CN117876723B (zh) * 2024-03-11 2024-05-31 湖南大学 一种拒止环境下无人机航拍图像全局检索定位方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102052925A (zh) * 2010-12-16 2011-05-11 西北工业大学 基于空间关系约束的适配区景象匹配方法
CN108416168A (zh) * 2018-03-29 2018-08-17 北京航空航天大学 基于分层决策的地形适配区选取方案
CN108665477A (zh) * 2018-04-17 2018-10-16 华中科技大学 一种实时目标匹配定位中的适配区域自适应选取方法
US10515458B1 (en) * 2017-09-06 2019-12-24 The United States Of America, As Represented By The Secretary Of The Navy Image-matching navigation method and apparatus for aerial vehicles
CN110866079A (zh) * 2019-11-11 2020-03-06 桂林理工大学 一种智慧景区实景语义地图的生成与辅助定位方法
CN112577493A (zh) * 2021-03-01 2021-03-30 中国人民解放军国防科技大学 一种基于遥感地图辅助的无人机自主定位方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102052925A (zh) * 2010-12-16 2011-05-11 西北工业大学 基于空间关系约束的适配区景象匹配方法
US10515458B1 (en) * 2017-09-06 2019-12-24 The United States Of America, As Represented By The Secretary Of The Navy Image-matching navigation method and apparatus for aerial vehicles
CN108416168A (zh) * 2018-03-29 2018-08-17 北京航空航天大学 基于分层决策的地形适配区选取方案
CN108665477A (zh) * 2018-04-17 2018-10-16 华中科技大学 一种实时目标匹配定位中的适配区域自适应选取方法
CN110866079A (zh) * 2019-11-11 2020-03-06 桂林理工大学 一种智慧景区实景语义地图的生成与辅助定位方法
CN112577493A (zh) * 2021-03-01 2021-03-30 中国人民解放军国防科技大学 一种基于遥感地图辅助的无人机自主定位方法及系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114637876A (zh) * 2022-05-19 2022-06-17 中国电子科技集团公司第五十四研究所 基于矢量地图特征表达的大场景无人机图像快速定位方法
CN114637876B (zh) * 2022-05-19 2022-08-12 中国电子科技集团公司第五十四研究所 基于矢量地图特征表达的大场景无人机图像快速定位方法
CN115597592A (zh) * 2022-09-19 2023-01-13 中国人民解放军国防科技大学(Cn) 一种应用于无人机巡检的综合定位方法
CN115597592B (zh) * 2022-09-19 2024-04-02 中国人民解放军国防科技大学 一种应用于无人机巡检的综合定位方法
CN115495611A (zh) * 2022-11-18 2022-12-20 中国电子科技集团公司第五十四研究所 一种面向无人机自主定位的空间场景检索方法
CN117876723A (zh) * 2024-03-11 2024-04-12 湖南大学 一种拒止环境下无人机航拍图像全局检索定位方法
CN117876723B (zh) * 2024-03-11 2024-05-31 湖南大学 一种拒止环境下无人机航拍图像全局检索定位方法

Also Published As

Publication number Publication date
CN114509070B (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
CN114509070B (zh) 一种无人机导航定位方法
US10386188B2 (en) Geo-location or navigation camera, and aircraft and navigation method therefor
US20230360260A1 (en) Method and device to determine the camera position and angle
US10437252B1 (en) High-precision multi-layer visual and semantic map for autonomous driving
US10794710B1 (en) High-precision multi-layer visual and semantic map by autonomous units
CN102353377B (zh) 一种高空长航时无人机组合导航系统及其导航定位方法
CN109931939B (zh) 车辆的定位方法、装置、设备及计算机可读存储介质
US20170372149A1 (en) Object recognition device, object recognition method and self-driving system
CN111426320B (zh) 一种基于图像匹配/惯导/里程计的车辆自主导航方法
CN112414417B (zh) 自动驾驶地图生成方法、装置、电子设备及可读存储介质
CN108549376A (zh) 一种基于信标的导航定位方法及系统
JP2596364B2 (ja) 干渉型合成開口レーダ装置から得た3次元情報を用いる地形図作成装置
Grelsson et al. Highly accurate attitude estimation via horizon detection
CN117321638A (zh) 校正或扩展现有高清地图
CN116047565A (zh) 一种多传感器数据融合定位系统
CN114119659A (zh) 一种多传感器融合的目标跟踪方法
WO2022269609A1 (en) Automatic camera registration and calibration using marine sensors
IL267309B (en) Terrestrial observation device with positioning functionality
CN110390252B (zh) 基于先验地图信息的障碍物检测方法、装置和存储介质
CN113227711A (zh) 导航装置、导航参数计算方法及程序
US20200382903A1 (en) System and method for navigation and geolocation in gps-denied environments
CN111121779A (zh) 一种无人机所处飞行区域的实时检测方法
CN113850864B (zh) 一种面向室外移动机器人的gnss/lidar回环检测方法
CN112902957A (zh) 一种弹载平台导航方法及系统
CN115082562A (zh) 一种外参标定方法、装置、设备、服务器及车载计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant