CN112580546B - 一种用于无人机图像和卫星图像跨视角图像匹配方法 - Google Patents

一种用于无人机图像和卫星图像跨视角图像匹配方法 Download PDF

Info

Publication number
CN112580546B
CN112580546B CN202011553525.XA CN202011553525A CN112580546B CN 112580546 B CN112580546 B CN 112580546B CN 202011553525 A CN202011553525 A CN 202011553525A CN 112580546 B CN112580546 B CN 112580546B
Authority
CN
China
Prior art keywords
image
unmanned aerial
aerial vehicle
image feature
satellite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011553525.XA
Other languages
English (en)
Other versions
CN112580546A (zh
Inventor
周纪
丁利荣
张旭
浩然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202011553525.XA priority Critical patent/CN112580546B/zh
Publication of CN112580546A publication Critical patent/CN112580546A/zh
Application granted granted Critical
Publication of CN112580546B publication Critical patent/CN112580546B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种用于无人机图像和卫星图像之间的跨视角图像匹配方法,属于遥感图像技术领域。本发明在考虑无人机视角与卫星视角图像本身的相似性后,将同一目标地点的两个视角的图像无差别的看做同一类图像,即将地点作为类别,训练两种视角下的地点分类模型。并将去除分类层的分类模型作为图像特征提取器;再基于该图像特征提取器,分别对请求匹配的图像和候选图像库中的每幅图像进行特征提取,得到各图像的图像特征向量;基于图像特征向量,计算请求匹配的图像和候选图像库中的每幅图像之间的图像特征相似度,将最高图像特征相似度作为请求匹配的图像的匹配结果。本发明可以用于基于图像的无人机图像定位和无人机导航。

Description

一种用于无人机图像和卫星图像跨视角图像匹配方法
技术领域
本发明属于遥感图像技术领域,具体涉及一种用于无人机图像和卫星图像之间的跨视角图像匹配方法。
背景技术
遥感技术在近几十年快速发展,遥感平台逐渐向多样化发展。卫星平台、航空平台、无人机平台都已成为重要的遥感图像获取平台。尤其是无人机,因为其具有机动性强、受天气影响小、成本低廉等优点,已经被广泛用于各行各业。在大部分情况下,无人机图像定位和无人机导航可以通全球定位系统很好的被解决。但是人们还是会面临定位没有地理标签的无人机图像和导航没有全球定位系统的问题。跨视角图像匹配由于可以实现基于图像的地理定位,近年来已收到广泛关注。其主要内容是将没有地理标签的图像和有地理标签的图像进行匹配,实现基于图像的地理定位。其中含有地理标签的图像主要是高空间分辨率的卫星图像。因此如何基于卫星图像实现无人机图像的地理定位和无人机导航就成为了一个很有意义的问题。其中一个可能的有效途径是无人机图像与卫星图像的跨视角匹配。深度学习近年来已经在图像处理中取得巨大成就,因此利用深度学习技术来完成无人机与卫星之间的跨视角图像匹配是可行的。
先前的跨视角图像匹配都是基于地面视角图像和卫星视角图像或者航空视角图像进行。这些方法考虑的情况都是在同一目标地点且每个视角都只有一张图像的情况。两张来自不同视角的图像被称为图像对。属于同一地点叫正图像对,否则叫负图像对。在进行匹配处理时,利用双分支卷积神经网络分别提取两个视角的图像特征,然后优化正图像对之间的特征距离,使其最小化,优化负图像对之间的距离,使其最大化。最后通过计算特征距离的方式实现两个视角的图像匹配。
但是,现有的地面与卫星图像(航空图像)的跨视角匹配方法不适用于无人机与卫星视角之间的跨视角图像匹配处理,其原因主要有三个。第一,地面与卫星图像(航空图像)的跨视角匹配方法在模型的训练过程中没有考虑一个目标地点在某一个视角有多个视点图像的情况,这些方法所采用的训练数据在每个目标地点的某个视角都只有一张图像,因此处理时都只用考虑目标地点两个视角下的图像对之间的对应关系;但是在无人机与卫星图像的匹配过程中,无人机在同一个目标地点往往可以在不同角度和高度以不同的姿态获取多张无人机视角图像,与相同地点的一张卫星图片存在多对一的对应关系。第二,地面图像与卫星图像(航空图像)的跨视角匹配方法针对的是地面视角图像和空中视角图像的匹配,这两个视角存在巨大的视角差异,地面视角是水平视角,大多数情况下获取的地面物体的侧面信息,而空中视角是垂直向下或者倾斜向下的视角,这种视角下的图像获取的都是地面物体的顶部和上表面信息。因此这两种视角几乎没有相似性,在方法构建时不用考虑视角的相似性。而本发明的发明人在本发明的实现过程中发现,无人机视角和卫星视角都属于空中视角,它们有一定的视角相似性。当无人机获取图像是倾斜拍摄时,无人机图像与卫星图的相似性会被减弱,而当无人机图像的拍摄角度与卫星图像的拍摄角度一致时,无人机图像与卫星图像有最大的视角相似。无论无人机以何种方式获取图像,只要无人机飞行高度较高,都会获取到地面物体的顶部信息。因此在进行无人机图像与卫星图像的跨视角匹配时,考虑它们之间的视角相似性是十分必要的。第三,地面图像与卫星图像(航空图像)的跨视角匹配方法考虑的往往是如何将两个视角的图像特征如何拉近到同一空间,最终目标是削弱视角差异带来的图像特征差异。而无人机图像与卫星图像应该更加注重的是目的地点之间的差异。
发明内容
本发明的发明目的在于:针对现有的地面与卫星图像(航空图像)的跨视角匹配方法不适用于无人机与卫星视角之间的跨视角图像匹配处理的技术问题,基于无人机图像和卫星图像的相似性,利用地点分类的思想,实现卫星视角图像与无人机视角图像的相互匹配。
本发明的用于无人机图像和卫星图像跨视角图像匹配方法,包括下列步骤:
步骤1:设置及训练图像特征提取网络模型;
其中,图像特征提取网络模型的骨干网络为多层卷积网络,且所述骨干网络之后顺次连接一个全局池化层、多维的全连接层和分类层;且所述分类层的分类类别为图像对应的目标地点;
对所述图像特征提取网络模型的训练为:
采集用于模型训练的训练样本数据集,包括不同目的地点的无人机视角图像和卫星视角图像;若训练数据集中,同一目标地点无人机视角图像和卫星视角图像的样本数量不一致时,对样本数量较少的视角图像通过数据增广的方式扩展至与另外一个视角样本数量一致;
对训练样本数据集进行图像预处理,使得预处理后的图像与图像特征提取网络模型的输入相匹配;
基于图像预处理后的训练样本数据集对图像特征提取网络模型进行深度学习训练,当满足训练停止条件时,得到训练好的图像特征提取网络模型,并删除分类层作为图像特征提取器;
步骤2:基于步骤1得到的图像特征提取器,分别对请求匹配的图像和候选图像库中的每幅图像进行特征提取,得到各图像的图像特征向量;
基于图像特征向量,计算请求匹配的图像和候选图像库中的每幅图像之间的图像特征相似度,将最高图像特征相似度作为请求匹配的图像的匹配结果。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
本发明通过充分利用某一个目标地点在无人机视角下有多张不同视点图像的优势,将每一个地点视为一个类别并将目标地点下的卫星图像扩展至于无人机图像数量一致,将无人机图像与卫星图像跨视角匹配问题在考虑了无人机视角与卫星视角之间的相似性后简化为一个类别未知的分类任务,实现了无人机视角图像与卫星视角图像的相互匹配,该方法可以用于基于图像的无人机图像定位和无人机导航。
附图说明
图1为具体实施方式中,本发明的跨视角图像匹配处理过程示意图;
图2为实施例中,根据一张卫星图像请求图像匹配无人机图像的可视化结果,其中,左边第一列是卫星视角的请求图像,右边五列是无人机图像库匹配结果中排名前五的无人机图像,图像下有√的表示正确匹配图像,图像下有×的表示错误匹配的结果;
图3为实施例中,根据一张无人机图像请求图像匹配卫星图像的可视化结果,其中,左边第一列是无人机视角的请求图像,右边五列是卫星图像库匹配结果中排名前五的卫星图像,图像下有√的表示正确匹配图像,图像下有×的表示错误匹配的结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明作进一步地详细描述。
针对现有的跨视角图像匹配方法主要是正对地面视角图像和卫星视角或者航空视角图像的,没有考虑地无人机视角图像与卫星视角图像之间的相似性,更没有利用他们之间的相似性和同一目标地点有较多图像样本的特性来实现它们之间的跨视角图像匹配。本发明提出了一种基于带有地理标签的卫星图像实现无人机图像定位和无人导航的跨视角图像匹配方法。本发明在考虑无人机视角与卫星视角图像本身的相似性后,将同一目标地点的两个视角的图像无差别的看做同一类图像,即将地点作为类别,训练两种视角下的地点分类模型。通过分类,两种视角的图像特征被拉近到同一分类空间。模型训练完成后,对于请求匹配图像(请求图像)的视角,定义为视角1,对于候选图像库中的视角定义为视角2,将视角1的请求图像A与视角2的候选图像库B送入到模型中提取图像特征。最后比较A与B中各图像特征的相似度,特征相似度更高的判定为与A属于同一地点,实现两个视角的图像匹配。
参见图1,本发明的跨视角图像匹配方法的具体实现过程包括模型训练阶段和图像匹配阶段两个阶段。
其中,模型训练阶段可以分为4个部分:
(1)对于采集的用于模型训练的数据集,当同一目标地点无人机视角图像和卫星视角图像样本数量不平衡时,即数量不一致时,将样本数量较少的一个视角的图像通过数据增广的方式扩展至与另外一个视角样本数量一致。数据增广的方式主要包括随机旋转、随机裁剪、随机擦除等。两个视角的图像数量相等,可以让模型在训练过程中均等的学习两个视角的图像特征表达。
(2)第二部分是通过卷积层提取图像的高层特征。在本发明具体实施方式中,将移除了原有分类层的Resnet50作为本发明提取图像深度特征的骨干网络,如图1所示。因此骨干网络共有49个卷积层,这个49个卷积层共分为5个部分。第一部分是一个单层的卷积,使用7×7的卷积核。第二部分是一个三层的残差块,三层的卷积核大小分别是1×1,3×3,1×1,这个残差块重复三次,输出的特征尺寸是96×96×256,其中第三个参数(256)表示通道数。第三部分同样是一个三层的残差块,三层的卷积核大小分别是1×1,3×3,1×1,这个残差块重复4次,输出的特征尺寸是48×48×512。第四部分采用的三层残差块,该三层卷积的残差块的卷积核大小分别是1×1,3×3,1×1,该残差块重复6次,输出的特征尺寸是24×24×1024。第五部分采用的三层卷积的残差块的卷积核大小分别是1×1,3×3,1×1,这个残差块重复3次,输出的特征尺寸是12×12×2048。将无人机视角的图像和经过扩展的卫星视角的图像忽略掉视角差异,无差别的送进网络中提取图像高层特征,再将提取得到的特征经过全局池化得到一个特征向量。
(3)将第二部分得到特征向量送入一个输出为512维的全连接层对特征向量进行降维。并将得到的512维特征向量送入最后的分类层,得到最后的分类结果。
(4)将分类结果与分类标签进行比较,计算交叉熵,并通过反向传递优化损失函数,得到一个精度较高的地点分类模型。其中,交叉熵的计算公式如式(1)所示。
Figure BDA0002858652770000041
式中p和q分别是标签向量和分类的输出结果向量,x表示向量元素索引,p(x)、p(x)分别表示p和q中的元素。
图像匹配阶段可以分为两个部分,具体为:
(1)第一部分为特征提取部分。基于训练阶段得到的分类模型,将请求图像和待匹配的候选图像库都送进分类模型中,在最后的分类层前,通过全连接层获得图像A与B中图像的图像特征。即将去掉分类层的分类模型作为特征提取网络模型,对输入的图像进行图像特征提取。
(2)第二部分是图像特征相似度计算。基于第一部分得到的图像特征计算A与B中图像的相似度,进行图像匹配。
本具体实施方式中,相似度度量方法为余弦距离,其计算公式如式(2)所示。
Figure BDA0002858652770000051
式中,fA和fB分别表示请求图像A和B中图像的特征向量。fAi和fBi是特征向量中的元素,n表示特征向量的维数。
实施例
将本发明的跨视角图像匹配方法应用于无人机定位数据集(university-1652)实现无人机视角和卫星视角之间的跨视角图像匹配。本发明实现的方法具有网络结构简单、模型训练速度快、匹配精度高等优点,同时最大限度的考虑了无人机视角与卫星视角之间相似性,通过分类将两种视角的图像特征拉到了同一特征空间。
本实施例中,选取的数据集为最近发布的University-1652数据集。其中包含卫星视角、无人机视角和地面视角三个视角的图像,其中无人机视角图像是基于谷歌地球上建筑物的3D模型模拟得到的。每个目标点包含54张无人机图像和一张卫星图像。本实施例使用数据集中的无人机数据集和卫星数据并将其划分为训练数据和测试数据两部分。
(1)卫星图像数据扩展。
对训练集中每一个目标地点的卫星图像进行随机旋转、裁剪、擦除后生成生成一系列新的卫星数据集,通过这种方式将卫星数据扩展至54张。将每一个目标地点扩充后的卫星视角图像和无人机视角图像放在一起,并赋予同一个地点标签。
(2)深度学习网络搭建。
使用深度学习中最常用的Resnet50作为特征提取骨干网络,Resnet50原有的分类层被移除,最后的池化层变为全局池化。在骨干网络后嵌入一个新的全连接层,特征输出纬度为512,最后嵌入一个分类层。
(3)分类模型训练。
将处理好的卫星视角图像和无人机视角图像放入搭建好的分类网络中进行训练,让网络能够将同一个地点的两种视角的数据都能正确的分类为同一类。网络的训练过程中,为了能把同一目标地点的两种图像都分类为一类,会不断的将两个视角的图像特征拉近到同一特征空间。当损失函数和分类误差最小使,模型可以最大限度的让两种视角的图像靠拢在同一特征空间。
(4)图像匹配测试。
在测试集上对训练好的模型进性测试,评估本发明对于卫星视角图像和无人机视角图像的匹配精度。分别将卫星视角图像和无人机视角图像作为请求图像,在无人机视角图像库和卫星视角图像库匹配与请求图像属于同一地点图像,实现无人机与卫星图像之间的匹配。匹配方法是,通过分类模型提取出请求图像和候选图像库的图像特征,计算请求图像与候选图像库中所有图像的余弦相似性,然后进行排序,相似性越高的图像,则被判定为与请求图像属于同一目标地点的可能性越高,即将最高相似性的图像作为请求图像的匹配结果,如图2和图3所示,其中,图2中是将卫星视角图像作为请求图像,左边第一列是卫星视角的请求图像,右边五列是无人机图像库匹配结果中排名前五的无人机图像,图2的匹配结果中,错误匹配图像为第二行的第4和第5幅图像,其余的为正确匹配图像;图3中是将无人机视角图像作为请求图像,左边第一列是无人机视角的请求图像,右边五列是卫星图像库匹配结果中排名前五的卫星图像,图3的匹配结果中,正确匹配图像为第一行第1个、第二行第3个、以及第三行第1个其余为错误匹配图像。
本发明的实施,能带来下述有益效果:
1、本可以最大限度的实现无人机视角图像与卫星视角图像的相互匹配。
2、本发明不管是将无人机作为请求图像还是将卫星图像作为请求图像都有较高的匹配精度。
3、本发明的深度学习模型具有网络简单,训练时间短等特点。
以上所述,仅为本发明的具体实施方式,本说明书中所公开的任一特征,除非特别叙述,均可被其他等效或具有类似目的的替代特征加以替换;所公开的所有特征、或所有方法或过程中的步骤,除了互相排斥的特征和/或步骤以外,均可以任何方式组合。

Claims (7)

1.用于无人机图像和卫星图像跨视角图像匹配方法,其特征在于,包括下列步骤:
步骤1:设置及训练图像特征提取网络模型;
其中,图像特征提取网络模型的骨干网络为多层卷积网络,且所述骨干网络之后顺次连接一个全局池化层、多维的全连接层和分类层;且所述分类层的分类类别为图像对应的目标地点;
对所述图像特征提取网络模型的训练为:
采集用于模型训练的训练样本数据集,包括不同目的地点的无人机视角图像和卫星视角图像;若训练数据集中,同一目标地点无人机视角图像和卫星视角图像的样本数量不一致时,对样本数量较少的视角图像通过数据增广的方式扩展至与另外一个视角样本数量一致;
对训练样本数据集进行图像预处理,使得预处理后的图像与图像特征提取网络模型的输入相匹配;
基于图像预处理后的训练样本数据集对图像特征提取网络模型进行深度学习训练,当满足训练停止条件时,得到训练好的图像特征提取网络模型,并删除分类层作为图像特征提取器;
步骤2:基于步骤1得到的图像特征提取器,分别对请求匹配的图像和候选图像库中的每幅图像进行特征提取,得到各图像的图像特征向量;
基于图像特征向量,计算请求匹配的图像和候选图像库中的每幅图像之间的图像特征相似度,将最高图像特征相似度作为请求匹配的图像的匹配结果。
2.如权利要求1所述的方法,其特征在于,图像特征提取网络模型的骨干网络为多层的残差网络。
3.如权利要求1或2所述的方法,其特征在于,训练图像特征提取网络模型时采用的损失函数为交叉熵损失函数。
4.如权利要求3所述的方法,其特征在于,图像特征提取网络模型的骨干网络为残差网络Resnet50中的前49个卷积层。
5.如权利要求1或2所述的方法,其特征在于,图像特征提取网络模型的全连接层的输出维度为512。
6.如权利要求3所述的方法,其特征在于,图像特征提取网络模型的全连接层的输出维度为512。
7.如权利要求1所述的方法,其特征在于,图像特征相似度为图像特征向量之间的余弦距离。
CN202011553525.XA 2020-12-24 2020-12-24 一种用于无人机图像和卫星图像跨视角图像匹配方法 Active CN112580546B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011553525.XA CN112580546B (zh) 2020-12-24 2020-12-24 一种用于无人机图像和卫星图像跨视角图像匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011553525.XA CN112580546B (zh) 2020-12-24 2020-12-24 一种用于无人机图像和卫星图像跨视角图像匹配方法

Publications (2)

Publication Number Publication Date
CN112580546A CN112580546A (zh) 2021-03-30
CN112580546B true CN112580546B (zh) 2022-05-03

Family

ID=75139691

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011553525.XA Active CN112580546B (zh) 2020-12-24 2020-12-24 一种用于无人机图像和卫星图像跨视角图像匹配方法

Country Status (1)

Country Link
CN (1) CN112580546B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361508B (zh) * 2021-08-11 2021-10-22 四川省人工智能研究院(宜宾) 一种基于无人机-卫星的跨视角地理定位方法
WO2024072320A1 (en) * 2022-09-26 2024-04-04 Grabtaxi Holdings Pte. Ltd. A computer implemented method, and a server
CN117078985B (zh) * 2023-10-17 2024-01-30 之江实验室 一种景象匹配方法、装置、存储介质及电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8861893B2 (en) * 2011-09-27 2014-10-14 The Boeing Company Enhancing video using super-resolution
CN108805151B (zh) * 2017-05-05 2021-05-25 杭州微禾迅科技有限公司 一种基于深度相似性网络的图像分类方法
CN107203745B (zh) * 2017-05-11 2020-06-26 天津大学 一种基于跨域学习的跨视角动作识别方法
CN110222568B (zh) * 2019-05-05 2023-09-29 暨南大学 一种基于时空图的跨视角步态识别方法
CN111985274B (zh) * 2019-05-23 2023-08-04 中国科学院沈阳自动化研究所 一种基于卷积神经网络的遥感图像分割方法

Also Published As

Publication number Publication date
CN112580546A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN112580546B (zh) 一种用于无人机图像和卫星图像跨视角图像匹配方法
Hu et al. Cvm-net: Cross-view matching network for image-based ground-to-aerial geo-localization
CN107133325B (zh) 一种基于街景地图的互联网照片地理空间定位方法
CN112085844B (zh) 面向野外未知环境的无人机影像快速三维重建方法
CN111652934B (zh) 定位方法及地图构建方法、装置、设备、存储介质
Chen et al. City-scale landmark identification on mobile devices
Bansal et al. Geo-localization of street views with aerial image databases
CN103745498B (zh) 一种基于图像的快速定位方法
EP3274964B1 (en) Automatic connection of images using visual features
CN111323024B (zh) 定位方法及装置、设备、存储介质
CN104794219A (zh) 一种基于地理位置信息的场景检索方法
CN106373088A (zh) 大倾斜低重叠率航空图像的快速拼接方法
Shi et al. Accurate 3-dof camera geo-localization via ground-to-satellite image matching
CN114241464A (zh) 基于深度学习的跨视角影像实时匹配地理定位方法及系统
CN115861591B (zh) 基于transformer关键纹理编码匹配的无人机定位方法
CN106096658A (zh) 基于无监督深度空间特征编码的航拍图像分类方法
CN107563366A (zh) 一种定位方法及装置、电子设备
Zhuang et al. A semantic guidance and transformer-based matching method for UAVs and satellite images for UAV geo-localization
Zhang et al. Multi-path fusion network for high-resolution height estimation from a single orthophoto
CN114972506A (zh) 一种基于深度学习和街景图像的图像定位方法
Zhu et al. Large-scale architectural asset extraction from panoramic imagery
CN114556425A (zh) 定位的方法、设备、无人机和存储介质
CN113192204B (zh) 单幅倾斜遥感图像中建筑物的三维重建方法
Liu et al. Detect geographical location by multi-view scene matching
Yuan et al. Graph neural network based multi-feature fusion for building change detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information

Inventor after: Zhou Ji

Inventor after: Ding Lirong

Inventor after: Zhang Xu

Inventor after: Sun Haoran

Inventor before: Zhou Ji

Inventor before: Ding Lirong

Inventor before: Zhang Xu

Inventor before: great

CB03 Change of inventor or designer information