CN114417048A - 基于图像语义引导的缺少定位设备的无人机定位方法 - Google Patents

基于图像语义引导的缺少定位设备的无人机定位方法 Download PDF

Info

Publication number
CN114417048A
CN114417048A CN202210049843.5A CN202210049843A CN114417048A CN 114417048 A CN114417048 A CN 114417048A CN 202210049843 A CN202210049843 A CN 202210049843A CN 114417048 A CN114417048 A CN 114417048A
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
image
neural network
positioning method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210049843.5A
Other languages
English (en)
Inventor
庄杰栋
郑恩辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN202210049843.5A priority Critical patent/CN114417048A/zh
Publication of CN114417048A publication Critical patent/CN114417048A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Library & Information Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于图像语义引导的缺少定位设备的无人机定位方法。设计神经网络,神经网络用于预测输出不同语义的特征;将数据集输入到神经网络中进行训练;将各个卫星图像输入到神经网络获得各个卫星图像的不同语义的融合特征;在无人机实时飞行中,将无人机实时采集的无人机图像输入到神经网络获得无人机图像的不同语义的融合特征;再计算无人机图像的融合特征分别与各个卫星图像的融合特征间相似度,匹配实现定位。本发明利用特殊的神经网络提取无人机与卫星图像中的特征信息,通过将无人机实时拍摄的图像与已有GPS标记的卫星图库中的图像匹配,实现无人机无导航系统下的自主定位,具有较好的鲁棒性和匹配精度。

Description

基于图像语义引导的缺少定位设备的无人机定位方法
技术领域
本发明涉图像处理、深度学习领域的一种无人机定位方法,特别涉及了一种基于图像语义引导的缺少定位设备的无人机定位方法。
背景技术
长期以来,遥感影像的研究一直是一个热门话题。有一部分研究致力于从遥感图像中检测目标。其他一些工作致力于遥感图像的语义分割。另一系列作品专注于大场景图像分类。但是利用遥感影像进行无人机定位的研究缺口较大。
无人机(UAV)近年来发展迅速,由于其操作方便、数据采集能力强,逐渐成为遥感图像采集的主要平台。Alexander等人使用来自无人机的数据来定位雨林中的树木。Ammour等人提出了一种在无人机图像中检测汽车的深度学习方法。邓等人将基于无人机的多光谱遥感应用于精准农业。无人机应用涉及许多领域,如摄影测量、农业和测绘。但目前无人机的定位导航主要依靠GPS、GNSS等定位系统。如何在没有定位系统帮助的情况下实现无人机的自主定位和导航是一项具有挑战性的任务。交叉视角图像匹配技术将卫星图像与地理位置标签进行匹配,将无人机图像与没有地理位置标签的无人机图像进行匹配,从而实现无人机图像定位和导航。
在一些缺少GPS信号的特殊环境中,或者无人机本身没有携带定位设备的情况下,无人机可以通过实时拍摄地面图像并与预先准备好的该地区的卫星图像库中带GPS标注的图像进行匹配,从而实现无人机的实时定位。
发明内容
本发明提出了一种基于图像语义引导的缺少定位设备的无人机定位方法,要解决的技术问题是,通过设计一个神经网络,提取无人机与卫星图像中的特征,基于特征的相似度比对,实现相同地理位置的图像的匹配来解决无人机缺少GPS等定位设备情况下的定位问题。
如图1所示,本发明所采用的技术方案是:
步骤1:设计用于提取无人机图像与卫星图像特征的神经网络,神经网络用于预测输出不同语义的特征;
步骤2:将采集的无人机图像与卫星图像组成的数据集输入到神经网络中进行训练;
步骤3:在离线状态下,将卫星图库中的各个卫星图像输入到步骤1获得的神经网络中,提取获得各个卫星图像的不同语义的特征,对于每个卫星图像的不同语义的特征进行融合获得融合特征;具体实施的融合采用拼接方式处理。
步骤4:在无人机实时飞行中,将无人机实时采集的无人机图像输入到步骤1获得的神经网络中,提取获得无人机图像的不同语义的特征,对于每个无人机图像的不同语义的特征进行融合获得融合特征;再计算无人机图像的融合特征分别与各个卫星图像的融合特征之间的相似度,进行匹配实现定位。
将卫星图所带的GPS信息作为无人机图像拍摄的位置,实现无人机的定位。
如图2所示,所述步骤1中的神经网络主要由连续四个自注意力模块和一个语义引导模块依次连接构成;四个自注意力模块构成了主干部分,图像经连续四个自注意力模块处理获得注意力特征图,再将注意力特征图经语义引导模块处理分解为代表不同地理对象的不同语义部分。
所述的第一个自注意力模块、第二个自注意力模块、第四个自注意力模块结构的拓扑结构均相同,均由线性压缩层和连续两个自注意力层依次连接构成;
所述的第三个自注意力模块结构的拓扑结构由线性压缩层和连续六个自注意力层依次连接构成。
所述的语义引导模块具体为:是将主干部分获得的注意力特征图的热力图上各个像素的响应值的大小进行从大到小排序,特征图的热力图是由特征图中的各个通道维度求和获得,再计算相邻两个像素之间响应值的变化梯度,以梯度大于预设梯度阈值的相邻两个像素之间作为分界,将特征图划分为若干个不同语义部分,并且从中提取不同语义部分的特征。不同语义部分可以是非连通的,如前景(目标建筑)和背景(环境)。例如可以获得了建筑物、马路、植被树木等。
传统现有方法以CNN为主干,本发明方法采用自注意力层Swin-transfomer作为整个神经网络的主干部分,迁移到匹配任务上,相比于CNN能提取到更多细粒度的特征。
而且,现存的方法采用硬分块的策略,通过将特征图划分为多个环形的部分来实现图各部分的对齐,当图像中的目标建筑物偏移中心点时会引入特征向量间距离计算的误差,无法准确的实现图像中上下文信息的对齐。传统的语义分割模型,需要通过人工的标注,对模型的语义分支进行训练,实现不同语义的划分,这既增大了人工工作量,也增加了模型的参数量和计算量。
而本发明提出的语义引导模块处理后,不需要增加模型额外的参数量,并且不需要人工标注和额外的训练,增加了模型的前向传播速度并减少了人工成本。语义引导模块还能够增加网络的分支,使网络提取到图像中更多的上下文信息,并且使网络在推断阶段实现特征对齐。
本发明方法使得模型在测试数据集上取得了大大超越现有方法的性能,在测试集上的检索精度提升了8%。
所述步骤2中,针对不同的建筑物采集无人机图像与卫星图像,对于同一建筑物采集无人机图像与卫星图像组成一组,从而建立数据集。
具体实施中的卫星图像是由卫星图库中的卫星图像获得,卫星图库中的各个卫星图像均带有GPS定位信息。
所述的步骤2中,将数据集输入到神经网络前,先进行预处理,包括依次进行的随机旋转和随机截取。
通过随机旋转能够利用卫星图像与无人机图像存在角度不固定的特性,增强网络对于旋转的鲁棒性。
通过随机截取,能够利用无人机所拍摄的目标对于图像中心存在一定的偏移特点,增加网络对偏移的鲁棒性。
所述的神经网络的局部是指将神经网络中的最后一层全连接层删除后的结果,仅保留最后一层全连接层删除后的部分。
所述步骤4中,计算无人机图像的融合特征分别与各个卫星图像的融合特征之间的欧氏距离,取欧式距离最小下对应的卫星图像中的定位信息作为当前无人机的定位位置。从而实现无人机与卫星图中同一建筑物目标物的匹配。
本发明方法通过将无人机实时拍摄的图像与已有GPS标记的卫星图库中的图像匹配,实现无人机无导航系统下的自主定位。
本发明方法利用神经网络提取无人机与卫星图像中的特征信息,并通过计算两者特征的相似度来进行匹配,在已有数据集上,本方法体现了较好的鲁棒性和匹配精度。
本发明的有益效果:
本发明提出了一种特殊的神经网络结构来通过匹配无人机图像和卫星图像的方式实现无人机的定位。
本发明提出并使用语义引导模块来实现上下文信息挖掘和推理阶段的特征对齐,提高模型在偏移和尺度下的准确性。
本发明方法取得了优异的性能。在基准数据集的各种精度指标上,该方法比现有方法提高了10%。
附图说明
图1是本发明方法的流程示意图。
图2是本发明中神经网络的结构示意图。
图3是本发明中神经网络训练与预测流程示意图。
具体实施方式
下面结合附图和具体实施对本发明作进一步说明。
如图1所示,按照本发明完整方法实施的实施例包括如下步骤:
步骤S1、设计用于提取无人机图像与卫星图像特征的神经网络,神经网络用于预测输出不同语义的特征;
神经网络主要由连续四个自注意力模块和一个语义引导模块依次连接构成;四个自注意力模块构成了主干部分,图像经连续四个自注意力模块处理获得注意力特征图,再将注意力特征图经语义引导模块处理分解为代表不同地理对象的不同语义部分。
第一个自注意力模块、第二个自注意力模块、第四个自注意力模块结构的拓扑结构均相同,均由线性压缩层和连续两个自注意力层依次连接构成;第三个自注意力模块结构的拓扑结构由线性压缩层和连续六个自注意力层依次连接构成。
语义引导模块具体为:是将主干部分获得的注意力特征图的热力图上各个像素的响应值的大小进行从大到小排序,特征图的热力图是由特征图中的各个通道维度求和获得,再计算相邻两个像素之间响应值的变化梯度,以梯度大于预设梯度阈值的相邻两个像素之间作为分界,将特征图划分为若干个不同语义部分,并且从中提取不同语义部分的特征。不同语义部分可以是非连通的,如前景(目标建筑)和背景(环境)。例如可以获得了建筑物、马路、植被树木等。
采用Swin-transfomer作为整个神经网络的主干部分。将分辨率为256*256的图像分成网格状4个等分辨率的部分输入transformer主干,经过layer1到layer4的处理之后输出大小64*768的特征图。将该特征图输入到语义引导模块后,语义引导模块先对特征图第二个维度进行求和,生成64*1的向量。语义引导模块会根据该向量每个位置上的值的大小对该向量进行聚类,并将该向量拆分为指定数量的部分。
如图2中所示,语义引导模块将该图像拆分为前景(标志建筑)和背景(环境)两部分,形成网络的两个分支。网络会在后续的过程中对前景和背景分别提取特征,从而挖掘到图像中更多的上下文信息,而不是仅仅只关注图像前景(标志建筑)部分。这样做的好处在于,既能充分挖掘图像中的信息,也能在中心标志物发生偏移时实现准确的定位,使网络更加鲁棒。在推断阶段计算两个图像特征向量之间的欧式距离时,能够保证前景的特征之间计算距离,背景的特征之间计算距离,从而提高相似度计算结果的准确率。
步骤S2、将采集的无人机图像与卫星图像组成的数据集输入到神经网络中进行训练。将数据集输入到神经网络前,先进行预处理,包括依次进行的随机旋转和随机截取。
具体实施中,如图3所示,将图像预处理后转换为张量信息作为神经网络的输入,所拍摄的建筑物类型的标签作为监督信号,使用交叉熵作为损失函数。训练神经网络多个周期。
张量信息输入GPU,实现加速。测试过程中将Batchsize设置为256,提高测试的速度。
其中首先读取数据库中的图像并对其进行预处理(其中包括随机旋转和随机截取。前者的好处在于,卫星图像与无人机图像都存在角度不固定的特性,采用随机旋转能增强网络对于旋转的鲁棒性。后者的好处在于,无人机所拍摄的目标对于图像中心存在一定的偏移,随机截取能够增加网络对偏移的鲁棒性)。将预处理后的图像的像素信息转换为张量信息并作为网络的输入,所拍摄的建筑的标签作为监督信号,使用交叉熵作为损失函数。选择SGD作为优化器,其中优化器中的momentum参数设为0.9,weight decay参数设为5e-4。训练网络140个周期。模型主干部分初始的学习率设为9e-4,其他部分初始学习率设为9e-3。在训练80和120个周期时,学习率下降为原来的十分之一。
步骤S3、在离线状态下,将卫星图库中的各个卫星图像输入到步骤1获得的神经网络中,提取获得各个卫星图像的不同语义的特征,对于每个卫星图像的不同语义的特征进行融合获得融合特征;具体实施的融合采用拼接方式处理。
将拍摄的无人机图像输入到训练完成的网络中,提取图像中的特征,并压缩成特征向量。将卫星图库中带GPS标记的所有卫星图像输入到训练完成的网络中,提取每张图像的特征,并压缩成特征向量。计算无人机图像与每张卫星图像特征向量之间的欧式距离。
步骤S4、在无人机实时飞行中,将无人机实时采集的无人机图像输入到步骤1获得的神经网络中,提取获得无人机图像的不同语义的特征,对于每个无人机图像的不同语义的特征进行融合获得融合特征;再计算无人机图像的融合特征分别与各个卫星图像的融合特征之间的相似度,进行匹配实现定位。
将步骤S3中计算获得的所有欧式距离进行排序,取欧式距离最小的两个特征向量所代表的图像对最为相似度最高的匹配。将该图像对中的卫星图像所标记的GPS信息作为该图像对中无人机所拍摄的位置,即当前无人机的位置,实现无人机的定位。
经过测试,上述神经网络在测试集上的匹配精度远远超过现有的方法。并且在加上偏移和尺度变化的测试集上,表现出的鲁棒性明显优于现有方法。该方法可以用于无人机在无GPS辅助下的自主定位,并提高定位的准确率。

Claims (8)

1.一种基于图像语义引导的缺少定位设备的无人机定位方法,其特征在于,所述方法包括如下:
步骤1:设计用于提取无人机图像与卫星图像特征的神经网络,神经网络用于预测输出不同语义的特征;
步骤2:将采集的无人机图像与卫星图像组成的数据集输入到神经网络中进行训练;
步骤3:将卫星图库中的各个卫星图像输入到步骤1获得的神经网络中,提取获得各个卫星图像的不同语义的特征,对于每个卫星图像的不同语义的特征进行融合获得融合特征;
步骤4:在无人机实时飞行中,将无人机实时采集的无人机图像输入到步骤1获得的神经网络中,提取获得无人机图像的不同语义的特征,对于每个无人机图像的不同语义的特征进行融合获得融合特征;再计算无人机图像的融合特征分别与各个卫星图像的融合特征之间的相似度,进行匹配实现定位。
2.根据权利要求1所述的基于图像语义引导的缺少定位设备的无人机定位方法,其特征是:
所述步骤1中的神经网络主要由连续四个自注意力模块和一个语义引导模块依次连接构成;图像经连续四个自注意力模块处理获得注意力特征图,再将注意力特征图经语义引导模块处理分解为代表不同地理对象的不同语义部分。
3.根据权利要求1所述的基于图像语义引导的缺少定位设备的无人机定位方法,其特征是:
所述的第一个自注意力模块、第二个自注意力模块、第四个自注意力模块结构的拓扑结构均相同,均由线性压缩层和连续两个自注意力层依次连接构成;
所述的第三个自注意力模块结构的拓扑结构由线性压缩层和连续六个自注意力层依次连接构成。
4.根据权利要求1所述的基于图像语义引导的缺少定位设备的无人机定位方法,其特征是:
所述的语义引导模块具体为:是将特征图的热力图上各个像素的响应值的大小进行从大到小排序,特征图的热力图是由特征图中的各个通道维度求和获得,再计算相邻两个像素之间响应值的变化梯度,以梯度大于预设梯度阈值的相邻两个像素之间作为分界,将特征图划分为若干个不同语义部分,并且从中提取不同语义部分的特征。
5.根据权利要求1所述的基于图像语义引导的缺少定位设备的无人机定位方法,其特征是:所述步骤2中,针对不同的建筑物采集无人机图像与卫星图像,对于同一建筑物采集无人机图像与卫星图像组成一组,从而建立数据集。
6.根据权利要求1所述的基于图像语义引导的缺少定位设备的无人机定位方法,其特征是:所述的步骤2中,将数据集输入到神经网络前,先进行预处理,包括依次进行的随机旋转和随机截取。
7.根据权利要求1所述的基于图像语义引导的缺少定位设备的无人机定位方法,其特征是:所述的神经网络的局部是指将神经网络中的最后一层全连接层删除后的结果。
8.根据权利要求1所述的基于图像语义引导的缺少定位设备的无人机定位方法,其特征是:
所述步骤4中,计算无人机图像的融合特征分别与各个卫星图像的融合特征之间的欧氏距离,取欧式距离最小下对应的卫星图像中的定位信息作为当前无人机的定位位置。
CN202210049843.5A 2022-01-17 2022-01-17 基于图像语义引导的缺少定位设备的无人机定位方法 Pending CN114417048A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210049843.5A CN114417048A (zh) 2022-01-17 2022-01-17 基于图像语义引导的缺少定位设备的无人机定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210049843.5A CN114417048A (zh) 2022-01-17 2022-01-17 基于图像语义引导的缺少定位设备的无人机定位方法

Publications (1)

Publication Number Publication Date
CN114417048A true CN114417048A (zh) 2022-04-29

Family

ID=81274315

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210049843.5A Pending CN114417048A (zh) 2022-01-17 2022-01-17 基于图像语义引导的缺少定位设备的无人机定位方法

Country Status (1)

Country Link
CN (1) CN114417048A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035389A (zh) * 2022-08-10 2022-09-09 华东交通大学 基于可靠性评估和迭代学习的细粒度图像识别方法和装置
CN115861591A (zh) * 2022-12-09 2023-03-28 南京航空航天大学 基于transformer关键纹理编码匹配的无人机定位方法
CN116168221A (zh) * 2023-04-25 2023-05-26 中国人民解放军火箭军工程大学 基于Transformer的跨模态图像匹配定位方法及装置
CN117889831A (zh) * 2024-03-13 2024-04-16 成都本原星通科技有限公司 一种基于低轨卫星图像匹配的终端定位方法
CN117889831B (zh) * 2024-03-13 2024-06-04 成都本原星通科技有限公司 一种基于低轨卫星图像匹配的终端定位方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035389A (zh) * 2022-08-10 2022-09-09 华东交通大学 基于可靠性评估和迭代学习的细粒度图像识别方法和装置
CN115035389B (zh) * 2022-08-10 2022-10-25 华东交通大学 基于可靠性评估和迭代学习的细粒度图像识别方法和装置
CN115861591A (zh) * 2022-12-09 2023-03-28 南京航空航天大学 基于transformer关键纹理编码匹配的无人机定位方法
CN115861591B (zh) * 2022-12-09 2024-02-02 南京航空航天大学 基于transformer关键纹理编码匹配的无人机定位方法
CN116168221A (zh) * 2023-04-25 2023-05-26 中国人民解放军火箭军工程大学 基于Transformer的跨模态图像匹配定位方法及装置
CN117889831A (zh) * 2024-03-13 2024-04-16 成都本原星通科技有限公司 一种基于低轨卫星图像匹配的终端定位方法
CN117889831B (zh) * 2024-03-13 2024-06-04 成都本原星通科技有限公司 一种基于低轨卫星图像匹配的终端定位方法

Similar Documents

Publication Publication Date Title
CN114417048A (zh) 基于图像语义引导的缺少定位设备的无人机定位方法
CN110009739B (zh) 移动摄像机的数字视网膜的运动特征的提取与编码方法
US20210390329A1 (en) Image processing method, device, movable platform, unmanned aerial vehicle, and storage medium
Cieslewski et al. Point cloud descriptors for place recognition using sparse visual information
CN103679674A (zh) 一种无人飞行器实时图像拼接方法及系统
CN108986168A (zh) 一种基于深度度量学习结合词袋树模型的机器人回环检测方法和装置
CN110322511A (zh) 一种基于物体和平面特征的语义slam方法和系统
CN103745498A (zh) 一种基于图像的快速定位方法
CN108267121A (zh) 一种可变场景下多设备的视觉导航方法及系统
CN109033245B (zh) 一种移动机器人视觉-雷达图像跨模态检索方法
CN113239952B (zh) 一种基于空间尺度注意力机制和矢量地图的航空图像地理定位方法
Nassar et al. Simultaneous multi-view instance detection with learned geometric soft-constraints
CN112580546B (zh) 一种用于无人机图像和卫星图像跨视角图像匹配方法
CN111582356B (zh) 一种目标信息统一表示及关联方法
CN113052106A (zh) 一种基于PSPNet网络的飞机起降跑道识别方法
Bui et al. A part-aware attention neural network for cross-view geo-localization between uav and satellite
Zhuang et al. A semantic guidance and transformer-based matching method for UAVs and satellite images for UAV geo-localization
CN110569387B (zh) 基于深度哈希算法的雷达-图像跨模态检索方法
CN110751077B (zh) 一种基于部件匹配与距离约束的光学遥感图片船舶检测方法
Liu et al. Locate where you are by block joint learning network
Yuan et al. A novel approach to image-sequence-based mobile robot place recognition
CN114399689A (zh) 基于多视角无人机图像的缺少定位设备的无人机定位方法
Tsintotas et al. Visual place recognition for simultaneous localization and mapping
Hofstetter et al. On ambiguities in feature-based vehicle localization and their a priori detection in maps
CN111950524A (zh) 一种基于双目视觉和rtk的果园局部稀疏建图方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination