CN116109949A - 无人机全局定位方法、装置、电子设备及存储介质 - Google Patents

无人机全局定位方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN116109949A
CN116109949A CN202211627127.7A CN202211627127A CN116109949A CN 116109949 A CN116109949 A CN 116109949A CN 202211627127 A CN202211627127 A CN 202211627127A CN 116109949 A CN116109949 A CN 116109949A
Authority
CN
China
Prior art keywords
image
candidate position
preset
images
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211627127.7A
Other languages
English (en)
Inventor
孟子阳
贺梦凡
尤政
邢飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202211627127.7A priority Critical patent/CN116109949A/zh
Publication of CN116109949A publication Critical patent/CN116109949A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种无人机全局定位方法、装置、电子设备及存储介质,包括:通过预设的卷积神经网络处理俯视航拍图像的变换图像,得到向量化特征图像;从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,筛选出目标候选位置对象集合;从目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,根据位置重叠结果确定最终候选位置,根据最终候选位置和当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,进行全局定位。解决了不存在任何位置先验条件下如何进行全局定位的问题,在保证算法快速性的同时提升了定位结果的正确性。

Description

无人机全局定位方法、装置、电子设备及存储介质
技术领域
本申请涉及定位技术领域,特别涉及一种无人机全局定位方法、装置、电子设备及存储介质。
背景技术
随着机载端处理能力与图像传感器的发展,使用地图辅助的无人机视觉定位技术逐渐变成GNSS(Global Navigation Satellite System,全球导航卫星系统)定位的一个必要的补充。在复杂环境下工作的无人机需要有着更强的全局自主定位能力,以SLAM(Simultaneous Localization and Mapping,定位与地图构建)方法为主的相对定位手段虽然已经得到了长足的发展,但是其由于无法做到绝对位姿的获取,因而容易出现定位结果的漂移问题。使用地图辅助的视觉定位技术为无人机的绝对定位提供了有效的解决手段,无人机可以仅凭借一个俯视相机以及预先储存的带有地理位置信息的基准地图来获取当前飞行的绝对位置信息,具有较强的自主性以及鲁棒性。特别是,通过对遥感地图进行有效编码,构建出特征地图库,进而使用检索的手段实现全局定位的结果逐渐成为一种主流的定位手段。
针对于基于检索的定位问题,使用地图辅助的视觉定位技术与计算机视觉领域的视觉场景重识别问题VPR(视觉场景识别,Visual Place Recognition)比较类似,研究人员主要着眼于有效的图像特征描述方式的构造。对于地图检索问题,实拍图像与基准图像之间通常会由于传感器差异、季节差异、光照差异以及图像分辨率差异等诸多因素而导致检索失败,地理位置上的一致性并不意味着图像的一致性,因此研究人员们的研究目的是提出对于时域环境变化更具有稳定性的图像特征构建方案。早期图像全局描述子构建主要是基于手动构建的特征的,例如人们所熟知的SIFT(Scale-invariant feature transform,尺度不变特征变换)特征以及SURF(Speeded Up Robust Feature,加速稳健特征)特征等。在此基础上,2003年牛津大学的Sivic与Zisserman两人提出了视觉词包方法BoVW(Bag ofVisual Words,视觉词袋模型),在SIFT特征点的基础上实现了一种基于特征聚类统计的图像全局描述,这也是后续众多视觉图像检索方案的基础。在视觉词包的基础上,视觉局部聚合向量描述方法VLAD(Vectors of Locally Aggregated Descriptors,视觉局部聚合向量)进行了描述维度的拓展,使用了描述子残差聚合的思想构建视觉特征,其也作为一种更为有效的检索特征有着广泛的应用。此外,2003年MIT的Oliva等使用了Gabor滤波器对图像进行处理,整合了图像的梯度信息,由此来对图像进行全局描述,在特征点方法之外提出了一种解决场景识别任务的新角度。
近些年来,计算机视觉领域由于深度学习方法的出现,已经取得了令人瞩目的发展。越来越多与视觉任务都可以从借助深度学习的力量得到一定程度的解决,而基于卷积神经网络CNN(Convolutional Neural Networks,卷积神经网络)发展演变而来的各种网络架构在计算机视觉任务中有着广泛的应用。2016年Arandjelovic等人改进了VLAD算子的结构,修改成了可微的VLAD实现,并且将CNN的图像提取架构与其结合,实现了可端到端训练的NetVLAD方法。此后,基于深度学习的VLAD图像全局描述子成为场景重识别问题的主流解决方案,研究人员在其基础上有诸多的额外设计,也都取得了较大进步。
虽然图像检索领域已经得到了相对较长时间的发展,从算法层面与应用层面而言也有比较好的解决方案,但是此前更多的解决对象针对的是地面视角的平台,鲜有工作针对于无人机的应用场景提出一套解决方案。无人机对象相较于车载平台此类地面视角的对象而言,其场景范围复杂程度远超地面视角的图像,因此也更容易受到时域变化因素的干扰。此外,由于无人机平台使用的地图并不是事先采集的场景地图数据库,而是直接使用当地公开获取的遥感图像,因此存在更强的图像异源性以及平台差异性,这些都给无人机平台的场景重识别任务提出了挑战。如何更好地将场景重识别与无人机视觉匹配系统相结合,仍然需要更多的探索与解决方案。
发明内容
本申请提供一种无人机全局定位方法、装置、电子设备及存储介质,解决了不存在任何位置先验条件下如何进行全局定位的问题,在保证算法快速性的同时提升了定位结果的正确性。
本申请第一方面实施例提供一种无人机全局定位方法,包括以下步骤:获取当前时刻飞行区域的俯视航拍图像,并基于预设的单应矩阵变换所述俯视航拍图像,得到所述俯视航拍图像的变换图像,并通过预设的卷积神经网络处理所述俯视航拍图像的变换图像,得到向量化特征图像;基于所述向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从所述候选位置对象集合中筛选出目标候选位置对象集合;从所述目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据所述最终候选位置集合中的位置重叠结果确定最终候选位置,并根据所述最终候选位置和所述当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,以根据所述实际平移量和所述最终候选位置进行全局定位。
可选地,所述从所述目标候选位置对象集合筛选出满足特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,包括:将所述向量化特征图像和所述目标候选位置对象集合中的图像进行特征点关联,得到所述图像间特征点对数;获取出所述向量化特征图像与所述目标候选位置对象集合中的图像间匹配的所述目标单应矩阵;筛选出满足特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合。
可选地,在基于所述向量化特征图像,从所述预设的瓦片地图全局图像特征数据库搜索之前,还包括:将原始遥感地图转化为满足预设要求的瓦片地图库;将所述瓦片地图库输入至所述预设的卷积神经网络进行处理,得到所述预设的瓦片地图全局图像特征数据库。
可选地,所述根据所述最终候选位置集合中的位置重叠结果确定最终候选位置,包括:若所述最终候选位置集合中存在位置重叠结果,则以存在位置重叠结果的图像间关联点对数最多的候选位置作为所述最终候选位置;若是所述最终候选位置集合中不存在位置重叠结果,则将所述最终候选位置集合中图像间关联点对数最多的候选位置作为所述最终候选位置。
可选地,所述第一筛选策略为:
{P}={p1,p2,…,pk′}={pj′|num(pj′)>t};
其中,{P}={p1,p2,…,pk′}为图像所对应的最终候选结果集合,k′为候选位置对象的数量,j′为目标位置索引,num()为计数函数,t为候选位置集合中出现的阈值次数。
可选地,所述预设的单应矩阵为:
Figure BDA0004003959530000031
其中,a为图像变换的缩放大小,θ为单应变化所代表的图像所需旋转角度大小,tx为图像在横向方向的平移量,ty为图像在纵向方向上的平移量。
本申请第二方面实施例提供一种无人机全局定位装置,包括:获取模块,用于获取当前时刻飞行区域的俯视航拍图像,并基于预设的单应矩阵变换所述俯视航拍图像,得到所述俯视航拍图像的变换图像,并通过预设的卷积神经网络处理所述俯视航拍图像的变换图像,得到向量化特征图像;筛选模块,用于基于所述向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从所述候选位置对象集合中筛选出目标候选位置对象集合;定位模块,用于从所述目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据所述最终候选位置集合中的位置重叠结果确定最终候选位置,并根据所述最终候选位置和所述当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,以根据所述实际平移量和所述最终候选位置进行全局定位。
可选地,所述定位模块,具体用于:将所述向量化特征图像和所述目标候选位置对象集合中的图像进行特征点关联,得到所述图像间特征点对数;获取出所述向量化特征图像与所述目标候选位置对象集合中的图像间匹配的所述目标单应矩阵;筛选出满足特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合。
可选地,在基于所述向量化特征图像,从所述预设的瓦片地图全局图像特征数据库搜索之前,所述定位模块,还用于:将原始遥感地图转化为满足预设要求的瓦片地图库;将所述瓦片地图库输入至所述预设的卷积神经网络进行处理,得到所述预设的瓦片地图全局图像特征数据库。
可选地,所述根据所述最终候选位置集合中的位置重叠结果确定最终候选位置,所述定位模块,还用于:若所述最终候选位置集合中存在位置重叠结果,则以存在位置重叠结果的图像间关联点对数最多的候选位置作为所述最终候选位置;若是所述最终候选位置集合中不存在位置重叠结果,则将所述最终候选位置集合中图像间关联点对数最多的候选位置作为所述最终候选位置。
可选地,所述第一筛选策略为:
{P}={p1,p2,…,pk′}={pj′|num(pj′)>t};
其中,{P}={p1,p2,…,pk′}为图像所对应的最终候选结果集合,k′为候选位置对象的数量,j′为目标位置索引,num()为计数函数,t为候选位置集合中出现的阈值次数。
可选地,所述预设的单应矩阵为:
Figure BDA0004003959530000041
其中,a为图像变换的缩放大小,θ为单应变化所代表的图像所需旋转角度大小,tx为图像在横向方向的平移量,ty为图像在纵向方向上的平移量。
本申请第三方面实施例提供一种电子设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序,以实现如上述实施例所述的无人机全局定位方法。
本申请第四方面实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行,以用于实现如上述实施例所述的无人机全局定位方法。
本申请通过获取当前时刻飞行区域的俯视航拍图像,并基于预设的单应矩阵变换俯视航拍图像,得到俯视航拍图像的变换图像,并通过预设的卷积神经网络处理俯视航拍图像的变换图像,得到向量化特征图像;基于向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从候选位置对象集合中筛选出目标候选位置对象集合;从目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据最终候选位置集合中的位置重叠结果确定最终候选位置,并根据最终候选位置和当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,以根据实际平移量和最终候选位置进行全局定位。由此,解决了不存在任何位置先验条件下如何进行全局定位的问题,在保证算法快速性的同时提升了定位结果的正确性。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本申请实施例提供的一种无人机全局定位方法的流程图;
图2为根据本申请一个实施例的无人机全局定位方法的整体流程图;
图3为根据本申请一个实施例的使用单应变换的模型增强方法的流程图;
图4为根据本申请一个实施例的使用局部描述子进行候选确认的样例展示的示意图;
图5为根据本申请一个实施例的数据集验证结果的检索结果的样例展示的示意图;
图6为根据本申请实施例的无人机全局定位装置的方框示意图;
图7为本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的无人机全局定位方法、装置、电子设备及存储介质。针对上述背景技术中心提到的不存在任何位置先验条件下如何进行全局定位的问题,本申请提供了一种无人机全局定位方法,在该方法中,获取当前时刻飞行区域的俯视航拍图像,并基于预设的单应矩阵变换俯视航拍图像,得到俯视航拍图像的变换图像,并通过预设的卷积神经网络处理所述俯视航拍图像的变换图像,得到向量化特征图像;基于向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从候选位置对象集合中筛选出目标候选位置对象集合;从目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据最终候选位置集合中的位置重叠结果确定最终候选位置,并根据最终候选位置和当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,以根据实际平移量和最终候选位置进行全局定位。由此,解决了不存在任何位置先验条件下如何进行全局定位的问题,在保证算法快速性的同时提升了定位结果的正确性。
在实施本申请实施例之前,本实施例中选用了USGS公开卫星地图数据网络提供的地图资源,测试范围为3km*3km的城市区域,所下载地图尺寸10000*10000,分辨率每像素0.3m,所下载数据年份分别为2003年、2005年、2011年以及2015年。本申请实施例中挑选2015年的地图作为基准遥感地图,并且使用滑动窗口的方法对于地图整体分割瓦片图库,窗口大小为400*400,滑动步长为100像素,进行重叠采样,共生成8464张瓦片地图。使用卷积网络对于整个图库构建全局描述子,每张瓦片生成长度为4096的向量,构成供全局搜索的编码特征地图库。与此同时,本实施例中还在其余三个年份的遥感地图中随机采样了1200张图像,每个时段各400张,以用来模拟不同时间段所拍摄得到的实时图。实时图与基准瓦片地图库均进行了相应的标注,用于判断本发明中的检索结果是否正确。图2,展示了检索流程的示意图,通过三步骤的瓦片筛选,得到最终的检索位置结果。其中,图3展示了本申请实施例中所设计的实时图单应矩阵变换增强方法的流程,主要包括单应矩阵的图像变化构造以及检索结果聚合两部分内容。图4展示的是在使用局部描述子进行图像间特征匹配时,编码特征地图库的候选结果与实时俯视航拍图的匹配对图像,图中展示的是三个不同时间段的模拟实时图各自的成功匹配结果,可以发现匹配对象正确时,所形成的特征点对匹配关系数量丰富且分布均匀。最终,本实施例的测试结果定性结果如图5所示,该结果中展示了三处检索结果,其中包含正确检索与错误检索的地图瓦片,通过本申请实施例中所给出的局部特征关联点对以及共位关系的判据,可以筛选得到最终正确的候选位置结果。而对于本申请实施例的定量测试结果,本本申请实施例中所构造的数据集共1200处检索目标,本申请实施例经过合理的参数配置后,可最高达到75.06%的定位成功率,平均定位耗时在本实施例的测试环境下,也可以达到约6秒左右的水平,可以说明本申请实施例具有一定的高效性以及准确性。
该实施例中,搭建与本方法所相适配的无人机飞行系统。硬件层面,系统内除搭载常用的传感器单元之外,在目标无人机平台上还应该具备有俯视相机以及机载的计算单元;软件层面,机载平台需要储存目标飞行区域内带有标注地理信息的基准地图,并且需要提前部署好训练完成的相关网络模型以及软件运行环境。
进一步地,图1为本申请实施例所提供的一种无人机全局定位方法的流程示意图。
如图1所示,该无人机全局定位方法包括以下步骤:
在步骤S101中,获取当前时刻飞行区域的俯视航拍图像,并基于预设的单应矩阵变换俯视航拍图像,得到俯视航拍图像的变换图像,并通过预设的卷积神经网络处理俯视航拍图像的变换图像,得到向量化特征图像。
机载视觉定位模块开始工作后,算法输入端从系统所搭载的俯视相机读取得到当前时刻飞行区域的俯视航拍图像I,俯视航拍图像由于在较高的空中飞行,可以近似忽略掉地面景物高度起伏,因而可视作为平面图像。对于平面图像而言,单应矩阵可以刻画图像间的变化关系,每个单应矩阵均对应了一个图像的变换操作,可以构造单应矩阵H1,H2,…,HN(N一般可选5左右的整数),实现一系列特殊的单应矩阵的构造,用来模拟比较微小的图像变化,例如平移较短的距离、旋转一个较小的角度等。这些单应矩阵可对实时获取的图像I进行变换,得到变换之后的一组向量化特征图像I1,I2,…,IN。由于这些图像变化均比较微小,可以认为这N个图像仍然是代表了同一处位置,仅仅是存在有图像上的差异,因此其检索的结果也应该保持一致。
其中,在一些实施例中,预设的单应矩阵为:
Figure BDA0004003959530000071
其中,a为图像变换的缩放大小,θ为单应变化所代表的图像所需旋转角度大小,tx为图像在横向方向的平移量,ty为图像在纵向方向上的平移量。
在步骤S102中,基于向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从候选位置对象集合中筛选出目标候选位置对象集合。
可选地,在一些实施例中,在基于向量化特征图像,从预设的瓦片地图全局图像特征数据库搜索之前,还包括:将原始遥感地图转化为满足预设要求的瓦片地图库;将瓦片地图库输入至预设的卷积神经网络进行处理,得到预设的瓦片地图全局图像特征数据库。
其中,在一些实施例中,第一筛选策略为:
{P}={p1,p2,…,pk′}={pj′|num(pj′)>t};         (2)
其中,{P}={p1,p2,…,pk′}为图像所对应的最终候选结果集合,k′为候选位置对象的数量,j′为目标位置索引,num()为计数函数,t为候选位置集合中出现的阈值次数。
本领域技术人员应该理解到的是,对于原始遥感地图,为了便于后续的检索定位的步骤,需要将其变成与实时拍摄的图像方向一致,区域大小相近的地图瓦片的格式。根据飞行高度信息以及原始获取的遥感地图分辨率信息,可以得到划分时各瓦片所应当占用的地理范围大小;另外,可以使用飞行云台固定俯拍相机的拍摄方向,以便在无人机航向改变时,所拍摄的图像仍可保证方向一致,进而根据初始夹角对于原始遥感地图进行相应的旋转调整。由此矫正了图像大小以及图像航向的信息之后,使用滑窗采样的方式在原始遥感图像上进行重叠采集,得到满足要求的预设要求的瓦片地图库。
由于图像差异因素的存在,采集得到的瓦片地图库并不会直接用于检索过程,而是经由卷积网络的描述之后作为图像描述向量的形式构成预设的瓦片地图全局图像特征数据库,这种向量描述方式可将一张遥感图像瓦片编码为n维(一般为数千)向量的形式,并且可以有效提取更为鲁棒的图像特征,克服图像本身的时域差异。由此众多的n维向量构成了供后续检索使用的预设的瓦片地图全局图像特征数据库,进一步使用k-d树的数据格式组织后,可供快速检索和匹配,编码之后的特征数据库可储存在机载端作为后续检索的基础。
具体地,本申请实施例使用与预设的瓦片地图全局图像特征数据库构造方式相同的卷积网络对于这组向量化特征图像I1,I2,…,IN进行处理,得到使用单应变化后的这N个图像经向量化之后的n维向量的形式,可将其记为q1,q2,…,qN。而对于瓦片地图库,可以假定共有M张瓦片地图,将其原图像记为S1,S2,…,SM,即代表无人机所在的M处可能的位置,特征图库可以表示为d1,d2,…,dM,因而基于地图编码的检索定位过程可以由以下的式子给出定义:
{P}i=argminj∈{1,2,…,M}{(qi-dj)2};         (3)
式(3)中使用二范数刻画距离,表示对经过第i个变换后的实时图与基准图库进行最近邻检索,并记录下最近邻的目标位置索引j。其中,{P}i代表了可能的候选目标集合,即选取的目标位置索引可能并不唯一,对于某一个搜索对象qi,其检索结果最近邻的前k个位置都可作为候选的最终结果,表示如下:
{P}i={p1,p2,…,pk}i;     (4)
式(4)表示的是搜索目标找到k个候选位置对象,而对于实时图I,由于共经过了N组单应变换,因此实则是存在有N组候选集合,分别为:{P}1,{P}2,…,{P}N。由于单应矩阵H1,H2,…,HN对应的单应变化比较微小,从检索的结果来看,在理想情况下,不同的候选集合:{P}1,{P}2,…,{P}N,表示的应当是同一组位置。因此,可以要求最终的候选位置应当是N组候选集合中那些公共的候选位置,据此来进行k个候选位置对象的筛选,具体的筛选公式如下:
{p}={p1,p2,…,pk′}={pj′|num(pj′)>t};         (5)
式(5)中{P}={p1,p2,…,pk′}代表了图像I所对应的最终候选结果集合,其中,k’应当是不大于k的,由此可以起到错误候选筛选的作用,而num()函数则是一个计数函数,具体计算方式:
Figure BDA0004003959530000091
式(6)中,if函数表示位置pj是否属于位置集合{P}i之中,属于则记1,否则记为0,num()函数则代表了在这N个候选位置集合中,待校验位置所出现的次数。结合式(5)与式(4)的具体形式可以知道,某一个位置如果为图像I的最终候选位置,则需要要求其在N个候选位置集合中出现次数大于阈值次数t。通过这样单应性的构建方式可以滤去各个候选位置集合{p1,p2,…,pk}i中的一部分干扰项,由此得到最终的候选位置集合{p1,p2,…,pk′}。
在步骤S103中,从目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据最终候选位置集合中的位置重叠结果确定最终候选位置,并根据最终候选位置和当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,以根据实际平移量和最终候选位置进行全局定位。
可选地,在一些实施例中,从目标候选位置对象集合筛选出满足特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,包括:将向量化特征图像和目标候选位置对象集合中的图像进行特征点关联,得到图像间特征点对数;获取出向量化特征图像与目标候选位置对象集合中的图像间匹配的目标单应矩阵;筛选出满足特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合。
本领域技术人员应该理解到的是,对于最终的候选位置{p1,p2,…,pk′},由于此时的候选位置是经过筛选之后的,因此会少于原有选定的候选数量k,这样就便于更为快速的确认出正确的位置。为了提升检索定位算法的正确率,这里使用局部图像描述子匹配的方式对于候选结果{p1,p2,…,pk′}进行进一步筛选。候选位置pj对应了原有划分得到的瓦片地图块Spj,而正确的候选位置其对应的瓦片地图块应与实时俯视航拍图像之间可经由局部描述子构建稳定的匹配关系。据此,对于候选位置,使用基于深度学习方法的superpoint图像局部描述子对于相应的瓦片地图块进行特征提取,并同时对于实时俯视航拍图像进行特征提取,在这里的提取结果的基础之上进行后续筛选与校验流程。
具体地,在构建匹配关联点对的过程中,使用暴力匹配的方式对于提取出的两者图像特征进行特征关联。进行匹配搜索的过程中,算法使用的是最近邻搜索的策略,并且设定当最近邻点对间距小于次最近邻点对距离的0.75倍时,将此特征点对作为能够建立关联的一组特征点对。当图像间能够建立关联的特征点对大于10对时,可以认为此候选位置是一个正确的候选位置,并且使用RANSAC的方式计算出图像两者间匹配的单应矩阵;而当建立关联关系的点对少于10对时,则认为这里的两者图像并不存在关联关系,即该候选位置为一个错误的候选位置,需要滤除掉该筛选结果。
得到了图像两者之间的单应矩阵后,结合式(1)对于平面图像两者之间的单应变化的定义,单应矩阵的第一行最后一个元素以及第二行的最后一个元素代表了图像两者之间在横向与纵向上的实际平移量。对于计算得到的单应矩阵,当这两者移动距离大于图像的边长时,则滤除掉这种数值异常的候选结果,得到最终的候选位置集合。
可选地,在一些实施例中,根据最终候选位置集合中的位置重叠结果确定最终候选位置,包括:若最终候选位置集合中存在位置重叠结果,则以存在位置重叠结果的图像间关联点对数最多的候选位置作为最终候选位置;若是最终候选位置集合中不存在位置重叠结果,则将最终候选位置集合中图像间关联点对数最多的候选位置作为最终候选位置。
经过图像局部描述子方法的筛选之后,候选位置一般可控制在十个以内,根据特征图库构建时重叠采样的方式,最终候选位置同样也会存在重叠的情况,即同一区域内存在有多个筛选结果。假如最终结果中存在有位置重叠的结果,选择其中匹配关联点对数最多的候选位置作为最终的候选结果;而当最终候选中不存在位置重叠或者位置重叠处不唯一的情况时,则将所有候选位置集合中匹配关联点对数最多的候选位置作为最终的候选结果输出。
得到最终的候选位置之后,将其与实时俯视航拍图之间匹配得到的单应矩阵的平移分量提取出来,通过已计算得到的图像像素真实分辨率大小,计算得出图像间的实际平移量大小,结合目标候选位置自身所带有的经纬度,可以计算得出当前俯视航拍图所代表位置处的经纬度坐标,由此实现最终的定位。
综上所述,本申请实施例有以下有益效果:本申请实施例能够适用于多场景类型、大范围的飞行环境,并且在保证检索正确性的同时,对于算法鲁棒性也做出了相应的设计。通过卷积网络提取的向量编码描述,对于划分得到的瓦片基准图库进行特征描述,并且使用同样的卷积网络对于实时图进行向量描述,进而在基准编码地图库中进行检索定位。在进行检索定位时,本申请实施例还采用了单应矩阵实现了对于实时图像的增强,提升了卷积网络模型的特征检索效果。对于候选位置,进一步使用图像局部描述子进行图像匹配的工作,通过实时俯视航拍图与候选瓦片地图之间建立的关联点对数量,来判断候选是否为正确的目标位置。最后使用重叠采样的图库特征点判断正确检索位置,反解并输出定位结果。能够在等外部定位设备失效时给出一定精度的绝对定位信息,还可以与成熟相对导航系统,例如:惯性导航系统,SLAM等相组合,形成稳定性更强且能消除相对定位漂移的定位系统。本申请实施例同时还兼具了三点优势:无需复杂的基准图制备过程,仅需使用网络上开放获取的卫星地图资源;系统传感器端仅依靠单目相机实现,没有过于复杂的设备要求;对于复杂飞行场景,较大飞行范围均有着很好的适应性。以上优势使得本申请实施例可以比较方便地部署在无人机系统之上,并且有着较高的鲁棒性以及准确性。
根据本申请实施例提出的无人机全局定位方法,基于预设的单应矩阵变换当前时刻飞行区域的俯视航拍图像,得到俯视航拍图像的变换图像,并通过预设的卷积神经网络处理俯视航拍图像的变换图像,得到向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从候选位置对象集合中筛选出目标候选位置对象集合,从目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据最终候选位置集合中的位置重叠结果确定最终候选位置,并根据当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,根据实际平移量和最终候选位置进行全局定位。由此,解决了不存在任何位置先验条件下如何进行全局定位的问题,在保证算法快速性的同时提升了定位结果的正确性。
其次参照附图描述根据本申请实施例提出的无人机全局定位装置。
图6是本申请实施例的无人机全局定位装置的方框示意图。
如图6所示,该无人机全局定位装置10包括:获取模块100、筛选模块200和定位模块300。
其中,获取模块100,用于获取当前时刻飞行区域的俯视航拍图像,并基于预设的单应矩阵变换俯视航拍图像,得到俯视航拍图像的变换图像,并通过预设的卷积神经网络处理俯视航拍图像的变换图像,得到向量化特征图像;筛选模块200,用于基于向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从候选位置对象集合中筛选出目标候选位置对象集合;定位模块300,用于从目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据最终候选位置集合中的位置重叠结果确定最终候选位置,并根据最终候选位置和当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,以根据实际平移量和最终候选位置进行全局定位。
可选地,在一些实施例中,定位模块300,具体用于:将向量化特征图像和目标候选位置对象集合中的图像进行特征点关联,得到图像间特征点对数;获取出向量化特征图像与目标候选位置对象集合中的图像间匹配的目标单应矩阵;筛选出满足特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合。
可选地,在一些实施例中,在基于向量化特征图像,从预设的瓦片地图全局图像特征数据库搜索之前,定位模块300,还用于:将原始遥感地图转化为满足预设要求的瓦片地图库;将瓦片地图库输入至预设的卷积神经网络进行处理,得到预设的瓦片地图全局图像特征数据库。
可选地,在一些实施例中,根据最终候选位置集合中的位置重叠结果确定最终候选位置,定位模块300,还用于:若最终候选位置集合中存在位置重叠结果,则以存在位置重叠结果的图像间关联点对数最多的候选位置作为最终候选位置;若是最终候选位置集合中不存在位置重叠结果,则将最终候选位置集合中图像间关联点对数最多的候选位置作为最终候选位置。
可选地,在一些实施例中,第一筛选策略为:
{P}={p1,p2,…,pk′}={pj′|num(pj′)>t};
其中,{P}={p1,p2,…,pk′}为图像所对应的最终候选结果集合,k′为候选位置对象的数量,j′为目标位置索引,num()为计数函数,t为候选位置集合中出现的阈值次数。
可选地,在一些实施例中,预设的单应矩阵为:
Figure BDA0004003959530000121
其中,a为图像变换的缩放大小,θ为单应变化所代表的图像所需旋转角度大小,tx为图像在横向方向的平移量,ty为图像在纵向方向上的平移量。
需要说明的是,前述对无人机全局定位方法实施例的解释说明也适用于该实施例的无人机全局定位装置,此处不再赘述。
根据本申请实施例提出的无人机全局定位装置,基于预设的单应矩阵变换当前时刻飞行区域的俯视航拍图像,得到俯视航拍图像的变换图像,并通过预设的卷积神经网络处理俯视航拍图像的变换图像,得到向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从候选位置对象集合中筛选出目标候选位置对象集合,从目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据最终候选位置集合中的位置重叠结果确定最终候选位置,并根据当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,根据实际平移量和最终候选位置进行全局定位。由此,解决了不存在任何位置先验条件下如何进行全局定位的问题,在保证算法快速性的同时提升了定位结果的正确性。
图7为本申请实施例提供的电子设备的结构示意图。该电子设备可以包括:
存储器701、处理器702及存储在存储器701上并可在处理器702上运行的计算机程序。
处理器702执行程序时实现上述实施例中提供的无人机全局定位方法。
进一步地,电子设备还包括:
通信接口703,用于存储器701和处理器702之间的通信。
存储器701,用于存放可在处理器702上运行的计算机程序。
存储器701可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器701、处理器702和通信接口703独立实现,则通信接口703、存储器701和处理器702可以通过总线相互连接并完成相互间的通信。总线可以是工业标准体系结构(Industry Standard Architecture,简称为ISA)总线、外部设备互连(PeripheralComponent,简称为PCI)总线或扩展工业标准体系结构(Extended Industry StandardArchitecture,简称为EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器701、处理器702及通信接口703,集成在一块芯片上实现,则存储器701、处理器702及通信接口703可以通过内部接口完成相互间的通信。
处理器702可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本申请实施例的一个或多个集成电路。
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上的无人机全局定位方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或N个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“N个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更N个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或N个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,N个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种无人机全局定位方法,其特征在于,包括以下步骤:
获取当前时刻飞行区域的俯视航拍图像,并基于预设的单应矩阵变换所述俯视航拍图像,得到所述俯视航拍图像的变换图像,并通过预设的卷积神经网络处理所述俯视航拍图像的变换图像,得到向量化特征图像;
基于所述向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从所述候选位置对象集合中筛选出目标候选位置对象集合;以及
从所述目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据所述最终候选位置集合中的位置重叠结果确定最终候选位置,并根据所述最终候选位置和所述当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,以根据所述实际平移量和所述最终候选位置进行全局定位。
2.根据权利要求1所述的方法,其特征在于,所述从所述目标候选位置对象集合筛选出满足特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,包括:
将所述向量化特征图像和所述目标候选位置对象集合中的图像进行特征点关联,得到所述图像间特征点对数;
获取出所述向量化特征图像与所述目标候选位置对象集合中的图像间匹配的所述目标单应矩阵;
筛选出满足特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合。
3.根据权利要求1或2所述的方法,其特征在于,在基于所述向量化特征图像,从所述预设的瓦片地图全局图像特征数据库搜索之前,还包括:
将原始遥感地图转化为满足预设要求的瓦片地图库;
将所述瓦片地图库输入至所述预设的卷积神经网络进行处理,得到所述预设的瓦片地图全局图像特征数据库。
4.根据权利要求3所述的方法,其特征在于,所述根据所述最终候选位置集合中的位置重叠结果确定最终候选位置,包括:
若所述最终候选位置集合中存在位置重叠结果,则以存在位置重叠结果的图像间关联点对数最多的候选位置作为所述最终候选位置;
若是所述最终候选位置集合中不存在位置重叠结果,则将所述最终候选位置集合中图像间关联点对数最多的候选位置作为所述最终候选位置。
5.根据权利要求1所述的方法,其特征在于,所述第一筛选策略为:
{P}={p1,p2,…,pk′}={pj′|num(pj′)>t};
其中,{P}={p1,p2,…,pk′}为图像所对应的最终候选结果集合,k′为候选位置对象的数量,j′为目标位置索引,num()为计数函数,t为候选位置集合中出现的阈值次数。
6.根据权利要求1或5所述的方法,其特征在于,所述预设的单应矩阵为:
Figure FDA0004003959520000021
其中,a为图像变换的缩放大小,θ为单应变化所代表的图像所需旋转角度大小,tx为图像在横向方向的平移量,ty为图像在纵向方向上的平移量。
7.一种无人机全局定位装置,其特征在于,包括:
获取模块,用于获取当前时刻飞行区域的俯视航拍图像,并基于预设的单应矩阵变换所述俯视航拍图像,得到所述俯视航拍图像的变换图像,并通过预设的卷积神经网络处理所述俯视航拍图像的变换图像,得到向量化特征图像;
筛选模块,用于基于所述向量化特征图像,从预设的瓦片地图全局图像特征数据库进行搜索,得到候选位置对象集合,并基于第一筛选策略,从所述候选位置对象集合中筛选出目标候选位置对象集合;以及
定位模块,用于从所述目标候选位置对象集合筛选出满足图像间特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合,并根据所述最终候选位置集合中的位置重叠结果确定最终候选位置,并根据所述最终候选位置和所述当前时刻飞行区域的俯视航拍图像匹配得到的单应矩阵的平移分量计算图像间的实际平移量,以根据所述实际平移量和所述最终候选位置进行全局定位。
8.根据权利要求7所述的装置,其特征在于,所述定位模块,具体用于:
将所述向量化特征图像和所述目标候选位置对象集合中的图像进行特征点关联,得到所述图像间特征点对数;
获取出所述向量化特征图像与所述目标候选位置对象集合中的图像间匹配的所述目标单应矩阵;
筛选出满足特征点对数大于预设对数,且目标单应矩阵满足预设要求的图像,得到最终候选位置集合。
9.一种电子设备,其特征在于,包括存储器、处理器;
其中,所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于实现如权利要求1-6中任一所述的无人机全局定位方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的无人机全局定位方法。
CN202211627127.7A 2022-12-16 2022-12-16 无人机全局定位方法、装置、电子设备及存储介质 Pending CN116109949A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211627127.7A CN116109949A (zh) 2022-12-16 2022-12-16 无人机全局定位方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211627127.7A CN116109949A (zh) 2022-12-16 2022-12-16 无人机全局定位方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN116109949A true CN116109949A (zh) 2023-05-12

Family

ID=86257172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211627127.7A Pending CN116109949A (zh) 2022-12-16 2022-12-16 无人机全局定位方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116109949A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117253029A (zh) * 2023-09-07 2023-12-19 北京自动化控制设备研究所 基于深度学习的图像匹配定位方法及计算机设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117253029A (zh) * 2023-09-07 2023-12-19 北京自动化控制设备研究所 基于深度学习的图像匹配定位方法及计算机设备

Similar Documents

Publication Publication Date Title
US10782137B2 (en) Methods, apparatus, and systems for localization and mapping
EP3440428B1 (en) Remote determination of quantity stored in containers in geographical region
WO2020186678A1 (zh) 无人机三维地图构建方法、装置、计算机设备及存储介质
CN110047108B (zh) 无人机位姿确定方法、装置、计算机设备及存储介质
CN111666855B (zh) 基于无人机的动物三维参数提取方法、系统及电子设备
CN115861860B (zh) 一种无人机的目标跟踪定位方法和系统
CN115867939A (zh) 用于空中到地面配准的系统和方法
CN116109949A (zh) 无人机全局定位方法、装置、电子设备及存储介质
CN112634130A (zh) Quick-SIFT算子下无人机航拍图像拼接方法
Zhao et al. YOLO-highway: An improved highway center marking detection model for unmanned aerial vehicle autonomous flight
CN111914596B (zh) 车道线检测方法、装置、系统及存储介质
Cabrera-Ponce et al. Convolutional neural networks for geo-localisation with a single aerial image
Jiang et al. Leveraging vocabulary tree for simultaneous match pair selection and guided feature matching of UAV images
CN111695572A (zh) 一种基于卷积层特征提取的船只检索方法及装置
CN113012215A (zh) 一种空间定位的方法、系统及设备
CN114648709A (zh) 一种确定图像差异信息的方法与设备
CN110472092B (zh) 一种街景图片的地理定位方法及系统
CN114556425A (zh) 定位的方法、设备、无人机和存储介质
US20230298335A1 (en) Computer-implemented method, data processing apparatus and computer program for object detection
CN112818837B (zh) 一种基于姿态校正和困难样本感知的航拍车辆重识别方法
CN114973038A (zh) 一种基于transformer的机场跑道线检测方法
Fernández et al. A study of visual descriptors for outdoor navigation using google street view images
CN113836251A (zh) 一种认知地图构建方法、装置、设备及介质
Le Barz et al. Absolute geo-localization thanks to Hidden Markov Model and exemplar-based metric learning
Zhang et al. Video image target recognition and geolocation method for UAV based on landmarks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination