CN114199250A - 一种基于卷积神经网络的景象匹配导航方法及装置 - Google Patents

一种基于卷积神经网络的景象匹配导航方法及装置 Download PDF

Info

Publication number
CN114199250A
CN114199250A CN202111465329.1A CN202111465329A CN114199250A CN 114199250 A CN114199250 A CN 114199250A CN 202111465329 A CN202111465329 A CN 202111465329A CN 114199250 A CN114199250 A CN 114199250A
Authority
CN
China
Prior art keywords
image
positioning
real
time
absolute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111465329.1A
Other languages
English (en)
Inventor
孟子阳
贺梦凡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202111465329.1A priority Critical patent/CN114199250A/zh
Publication of CN114199250A publication Critical patent/CN114199250A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

本发明公开了一种基于卷积神经网络的景象匹配导航方法及装置,首先通过航拍实时图特征点追踪得到相对定位信息,然后由卷积网络提取图片深度特征进行图像对准得到的绝对定位信息。采用了逐层细化的定位策略进行优化,完成了整个视觉匹配导航算法的设计。本发明是一套结合深度学习方法的视觉导航系统,并且在多种类型的飞行数据上进行了测试,验证了本发明的可行性以及稳定性,具有良好的工程应用价值。

Description

一种基于卷积神经网络的景象匹配导航方法及装置
技术领域
本发明涉及导航技术领域,特别涉及一种基于卷积神经网络的景象匹配导航方法及装置。
背景技术
随着图像传感器、图像处理算法的日趋成熟,以及机载高速计算终端、大容量存储器的广泛应用,视觉匹配导航技术作为一类辅助导航系统受到了人们的广泛关注,并且在无人机领域有着广泛的应用。景象匹配技术通过引入视觉定位信息,为主动导航系统提供位置修正,进而辅助无人机实现高精度、高鲁棒性的自主定位功能。在景象匹配系统中,定位算法要求机载终端预存带有地理位置信息的基准地图,无人机进入目标区域后,通过其所携带的图像传感器对于当地图像信息进行实时的获取;此后,无人内部的处理器通过相应的匹配算法处理采集到的实时图像,将实时图像与事先预存好的基准图像进行相关的匹配比较,从而在基准地图中找出当前拍摄的实时图的具体位置。
尽管视觉匹配导航问题已经得到了较长时间的研究与发展,也出现了很多不同的解决方案,但仍然需要更具有稳定性与鲁棒性的视觉导航系统。当前对于视觉匹配导航算法研究的着眼点主要是克服匹配图像对两者之间的差异。围绕具有光照不变性的相位相关(Phase Correlation)方法展开定位研究,并进行了全天候的定位实飞测试,证明其算法对于光照变化具有优秀的鲁棒性。但该方法并未考虑更大时间变化尺度上的地理元素的变化,而只是简单地对于光照变化进行了考虑。面对异源图像之间的匹配问题以及可能存在的各种干扰因素,传统算法的鲁棒性仍然需要得到进一步的提高,研究者们也旨在提出对环境变化更具稳定性的视觉匹配定位算法,解决异源图像之间由于传感器差异、季节差异、光照差异以及图像分辨率差异等诸多因素所导致的定位失准问题。
近些年来,深度学习在计算机视觉领域取得了令人瞩目的进展,越来越多与视觉有关的问题都从深度学习的角度得到了一定程度的解决,而深度学习方法中,卷积神经网络又是诸多计算机视觉相关的问题最为有效的解决方法,基于卷积神经网络而发展演变而来的各种网络架构在计算机视觉任务中有着广泛的应用。通过U-Net网络提取航拍图像中的建筑语义信息辅助进行景象匹配工作,将深度学习使用在了视觉导航系统之中,但是这种方法无法适用于建筑信息较少的乡村环境,局限性较大。如何更好地将深度学习技术与无人机视觉匹配系统相结合,仍然需要更多的探索与解决方案。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于卷积神经网络的景象匹配导航方法,本发明使用了相对定位与绝对定位相结合的整体框架,首先通过航拍实时图特征点追踪得到相对定位信息,然后由卷积网络提取图片深度特征进行图像对准得到的绝对定位信息,采用了一种逐层细化的定位策略进行优化,完成了整个视觉匹配导航算法的设计。本发明是一套结合深度学习方法的视觉导航方法,并且在多种类型的飞行数据上进行了测试,验证了本发明的可行性以及稳定性,具有良好的工程应用价值。
本发明的另一个目的在于提出一种基于卷积神经网络的景象匹配导航装置。
为达到上述目的,本发明一方面提出了基于卷积神经网络的景象匹配导航方法,包括以下步骤:S1,在无人机系统中搭载多种传感器以及目标无人机上搭载俯视相机与机载计算单元,储存带有目标飞行区域真实地理信息的基准地图,并且于机载计算机单元提前部署好训练完成的卷积网络模型;S2,基于无人机系统对定位系统进行初始化,通过定位系统和多种传感器得到当前无人机系统的飞行位置、飞行航向以及飞行高度三个初始数据,通过三个初始数据提取得到首次进行视觉匹配的目标图像区域,以开始视觉匹配导航过程;S3,基于视觉匹配导航过程,算法输入端从俯视相机读取得到当前时刻无人机的实时航拍图像,基于实时航拍图像之间的相对位姿变化,得到当前实时帧图像绝对位姿信息的单应矩阵,以获得绝对定位结果;S4,基于单应矩阵,从基准地图中提取与当前无人机飞行区域接近的基准子图,以构成实时图-基准子图图像对;S5,将基准子图与实时航拍图象进行匹配对准,引入基准地图的绝对定位信息优化绝对定位结果,以得到最终定位结果;S6,保存实时航拍图像及最终定位结果,作为下次定位的相对定位约束信息,等待下一个进行视觉定位的航拍图像输入,得到输入航拍图像之后直接进行S3,循环进行图像序列的定位任务。
本发明实施例的基于卷积神经网络的视觉匹配导航方法,研究内容主要着眼于更具有稳定性与鲁棒性的视觉定位算法研究。本发明使用了相对定位与绝对定位相结合的整体框架,首先通过航拍实时图特征点追踪得到相对定位信息,然后由卷积网络提取图片深度特征进行图像对准得到的绝对定位信息,采用了一种逐层细化的定位策略进行优化,完成了整个视觉匹配导航算法的设计。本发明是一套结合深度学习方法的视觉导航方法,并且在多种类型的飞行数据上进行了测试,验证了本发明的可行性以及稳定性,具有良好的工程应用价值。
另外,根据本发明上述实施例的基于卷积神经网络的景象匹配导航方法还可以具有以下附加的技术特征:
进一步地,在本发明的一个实施例中,所述S3,包括:
S3.1,当t为初始时刻,根据系统输入,获取实时航拍图像It所对应的绝对定位信息,将初始航拍图像作为图像序列定位的迭代初始,进入下一帧的定位过程中提供相对定位约束;
S3.2,当t不为初始时刻,It为中间某一时刻的无人机实时航拍图,在相对定位过程中,通过计算It与上一帧实时航拍图It-1之间的相对位姿变化,得到相对单应矩阵结果
Figure BDA0003391179970000031
计算公式为:
Figure BDA0003391179970000032
完全展开得到如下形式:
Figure BDA0003391179970000033
其中,根据图像帧间位置递推得到的相对单应矩阵
Figure BDA0003391179970000034
结合上一帧实时航拍图正确的绝对位姿信息
Figure BDA0003391179970000035
得到表示当前实时帧图像绝对位姿信息的单应矩阵
Figure BDA0003391179970000036
储存当前绝对单应矩阵用于当前帧后续定位过程使用。
进一步地,在本发明的一个实施例中,所述S5,包括:
S5.1,采用经过训练之后的VGG16卷积神经网络作为图像对特征提取器,在预先的训练过程中,选择不同时间、季节的城区、郊区的遥感图像,构成待匹配图像对,以模拟实际匹配过程中所面临的季节、光照以及建筑物变化。
进一步地,在本发明的一个实施例中,所述S5,还包括:
S5.2,基于所述S5.1中神经网络提取得到的图像特征,设计对于卷积网络特征图的直接法匹配方式,优化目标如下所示:
Figure BDA0003391179970000037
其中,求和符中x∈Ω的含义是所选取的特征点对象x属于某一个点集Ω,点集的区域代表通过卷积网络提取得到的深度特征图的每个像素位置,FI(x)代表的是实时图I上的x点处的特征,FM(W(x;p))代表的是基准图M上的位置为W(x;p)的特征,W(x;p)函数代表的是图像变换操作,自变量为目标变换坐标x,函数中的变换参数为p,W(x;p)为进行变换之后的结果,通过变换参数p的选取,优化目标E(p)达到阈值,变换参数p为基准地图M与实时航拍图I之间变换的单应矩阵H变换为向量的形式;
对于图像变换参数p使用泰勒展开的方式进行迭代求解,得到第一变换参数,所述第一变换参数为与基准卫星地图对准之后得到绝对单应矩阵
Figure BDA0003391179970000041
进一步地,在本发明的一个实施例中,所述S5,还包括:
S5.3,基于所述绝对单应矩阵
Figure BDA0003391179970000042
返回算法初始状态,在基准图中提取相应区域的基准子图,进入所述S4提取基准子图
Figure BDA0003391179970000043
并进行特征提取以及直接法对准,以细化所述绝对单应矩阵
Figure BDA0003391179970000044
作为最终当前无人机航拍图位置的定位输出。
为达到上述目的,本发明另一方面提出了一种基于卷积神经网络的景象匹配导航装置,匹配模块,用于在无人机系统中搭载多种传感器以及目标无人机上搭载俯视相机与机载计算单元,储存带有目标飞行区域真实地理信息的基准地图,并且于机载计算机单元提前部署好训练完成的卷积网络模型;定位模块,用于基于无人机系统对定位系统进行初始化,通过定位系统和多种传感器得到当前无人机系统的飞行位置、飞行航向以及飞行高度三个初始数据,通过三个初始数据提取得到首次进行视觉匹配的目标图像区域,以开始视觉匹配导航过程;读取模块,用于基于视觉匹配导航过程,算法输入端从俯视相机读取得到当前时刻无人机的实时航拍图像,基于实时航拍图像之间的相对位姿变化,得到当前实时帧图像绝对位姿信息的单应矩阵,以获得绝对定位结果;提取模块,用于基于单应矩阵,从基准地图中提取与当前无人机飞行区域接近的基准子图,以构成实时图-基准子图图像对;对准模块,用于将基准子图与实时航拍图象进行匹配对准,引入基准地图的绝对定位信息优化绝对定位结果,以得到最终定位结果;保存模块,用于保存实时航拍图像及最终定位结果,作为下次定位的相对定位约束信息,等待下一个进行视觉定位的航拍图像输入,得到输入航拍图像之后直接执行读取模块,循环进行图像序列的定位任务。
本发明实施例的基于卷积神经网络的景象匹配导航装置,研究内容主要着眼于更具有稳定性与鲁棒性的视觉定位算法研究。本发明使用了相对定位与绝对定位相结合的整体框架,首先通过航拍实时图特征点追踪得到相对定位信息,然后由卷积网络提取图片深度特征进行图像对准得到的绝对定位信息,采用了一种逐层细化的定位策略进行优化,完成了整个视觉匹配导航算法的设计。本发明在多种类型的飞行数据上进行了测试,验证了本发明的可行性以及稳定性,具有良好的工程应用价值。
本发明的特点及有益效果在于:
本发明完成了一种视觉匹配导航系统,能够适用于多类型的飞行环境,并且对于存在差异的视觉采集结果有着比较强的鲁棒性。通过结合航拍实时图特征点追踪得到的相对定位信息,以及由卷积网络提取图片深度特征进行图像对准得到的绝对定位信息,进行综合的定位过程,在保证良好的定位精度的同时极大程度上提高了系统的鲁棒性,有效解决了传统视觉匹配导航算法适用范围窄的问题。本发明主要用于无人机对象的辅助定位任务,能够在GPS信息无法获取的情况下给出一定精度的绝对定位信息,并通过与视觉、IMU等相对导航设备相结合,组合构成一套具有较强定位可信度的机载自主导航系统。本发明同时还兼具了三点优势:无需复杂的基准图制备过程,仅需使用网络上开放获取的卫星地图资源;系统传感器实现仅需单目相机,没有复杂的设备要求;对于各种飞行环境均有着很好的适应性。以上优势使得本发明可以比较方便地在无人机系统上进行部署,所需成本也较为低廉。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明实施例的基于卷积神经网络的景象匹配导航方法流程图;
图2为根据本发明实施例的基于卷积神经网络的景象匹配导航方法的整体示意图;
图3为根据本发明实施例的对测试飞行数据的定位结果在地图上的展示示意图;
图4为本发明实施例中用作网络训练的实时图-基准图图像匹配对数据展示示意图;
图5为本发明实施例中使用VGG16提取图像特征进行变换参数解算的流程图;
图6为本发明实施例中进行从粗到细的定位结果优化策略的流程图;
图7为根据本发明实施例的基于卷积神经网络的景象匹配导航装置结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参照附图描述根据本发明实施例提出的基于卷积神经网络的景象匹配导航方法及装置,首先将参照附图描述根据本发明实施例提出的基于卷积神经网络的景象匹配导航方法。
本发明在于利用卷积神经网络提取图片深度特征进行图像对准,以得到绝对定位信息,并且使用从粗到细的方式进行定位结果的优化,使用了相对定位与绝对定位相结合的整体框架,首先通过航拍实时图特征点追踪得到相对定位信息,然后由卷积网络提取图片深度特征进行图像对准得到的绝对定位信息,采用了一种逐层细化的定位策略进行优化,完成了整个视觉匹配导航算法的设计,整体的流程示意图如图2所示。
图1是本发明一个实施例的基于卷积神经网络的景象匹配导航方法流程图。
如图1所示,该基于卷积神经网络的景象匹配导航方法包括以下步骤:
S1,在无人机系统中搭载多种传感器以及目标无人机上搭载俯视相机与机载计算单元,储存带有目标飞行区域真实地理信息的基准地图,并且于机载计算机单元提前部署好训练完成的卷积网络模型。
可以理解的是,本发明搭建适配本方法的无人机飞行系统,除搭载常用的各种传感器之外,该方法需要目标无人机上搭载好俯视相机与机载计算单元,储存带有目标飞行区域真实地理信息的基准地图,并且于机载计算机上提前部署好训练完成的卷积网络模型。
S2,基于无人机系统对定位系统进行初始化,通过定位系统和多种传感器得到当前无人机系统的飞行位置、飞行航向以及飞行高度三个初始数据,通过三个初始数据提取得到首次进行视觉匹配的目标图像区域,以开始视觉匹配导航过程。
具体的,开展视觉匹配导航任务之前,需进行定位系统的初始化工作。初始化算法通过当前机载的GPS以及高度计等传感器信息得到当前无人机系统的飞行位置、飞行航向以及飞行高度,通过这三个初始数据提取得到首次进行视觉匹配的目标图像区域,进而开始视觉匹配导航过程。初始化步骤之后,本方法的工作流程中仅依靠俯视相机获取定位信息,不再依靠GPS以及高度计等传感器的外界信息辅助。
S3,基于视觉匹配导航过程,算法输入端从俯视相机读取得到当前时刻无人机的实时航拍图像,基于实时航拍图像之间的相对位姿变化,得到当前实时帧图像绝对位姿信息的单应矩阵,以获得绝对定位结果。
具体的,视觉匹配导航过程开始,算法输入端从无人机系统搭载的俯视相机读取得到当前t时刻无人机的实时航拍图像It
S3.1,当t为初始时刻,根据系统输入,可以获取实时航拍图像It所对应的绝对定位信息。从视觉匹配的角度,可认为其相对于基准地图M的绝对单应矩阵
Figure BDA0003391179970000061
已知。该初始航拍图像作为图像序列定位的迭代初始,进入下一帧的定位过程中提供相对定位约束;
S3.2,当t不为初始时刻,It即为中间某一时刻的无人机实时航拍图,在相对定位过程中,通过计算It与上一帧实时航拍图It-1之间的相对位姿变化(该方法使用常见的SIFT+RANSAC算法),得到相对单应矩阵结果
Figure BDA0003391179970000062
根据图像单应矩阵变换的可传递性有着以下的单应矩阵计算公式:
Figure BDA0003391179970000063
完全展开得到如下形式:
Figure BDA0003391179970000071
其中式(1)描述了该图像递推步骤的原理,根据图像帧间位置递推得到的相对单应矩阵
Figure BDA0003391179970000072
结合上一帧实时航拍图正确的绝对位姿信息
Figure BDA0003391179970000073
(这一绝对单应矩阵来源于图像序列的迭代求解过程),可以得到一个表示当前实时帧图像绝对位姿信息的单应矩阵
Figure BDA0003391179970000074
储存当前绝对单应矩阵用于当前帧后续进一步定位过程使用;
S4,基于单应矩阵,从基准地图中提取与当前无人机飞行区域接近的基准子图,以构成实时图-基准子图图像对。
可以理解的是,由于S3中计算得到绝对单应矩阵
Figure BDA0003391179970000075
本S4步骤相当于已知当前无人机的绝对位置信息。然而基于帧间图像匹配的跟踪过程可能由于无人机飞行速度过快,当前飞行区域纹理结构特征较少等原因导致相对定位信息漂移,因此对于S3中得到的定位结果
Figure BDA0003391179970000076
可以认为是粗略的定位结果。根据此粗略的绝对单应矩阵
Figure BDA0003391179970000077
从大范围基准地图M中提取与当前无人机飞行区域比较接近的基准图子图
Figure BDA0003391179970000078
构成实时图-基准子图图像对,该步骤中提取得到的基准子图
Figure BDA0003391179970000079
与实时航拍图It所表示的真实地理区域是基本保持一致的。
S5,将基准子图与实时航拍图象进行匹配对准,引入基准地图的绝对定位信息优化绝对定位结果,以得到最终定位结果。
作为一种示例,本发明用作网络训练的实时图-基准图图像匹配对数据展示,如图4所示。
具体的,将包含有基准地图精确定位信息的基准子图
Figure BDA00033911799700000710
与当前实时航拍图It进行匹配对准工作,引入基准地图的绝对定位信息,进而优化此前通过航拍图帧间图像跟踪递推得到的绝对定位结果,该步骤分为以下三部分进行:
S5.1,为克服无人机拍摄得到的实时图与卫星基准地图之间存在的差异,本方法采用经过训练之后的VGG16卷积神经网络作为图像对特征提取器,目的是提取得到图像对之间更为鲁棒的图像特征。本发明使用VGG16提取图像特征进行变换参数解算的流程图,如图5所示,在预先的训练过程中,选择不同时间、季节的城区、郊区的遥感图像,构成待匹配图像对,以模拟实际匹配过程中所面临的季节、光照以及建筑物变化。通过这些带有差异因素的数据的训练,该方法所使用的卷积网络能够对于待匹配图像对实现稳定的特征提取工作,从而克服图像对之间所存在的差异,便于后续图像对准任务的开展;
S5.2,基于步骤S5.1中神经网络提取得到的图像特征,设计对于卷积网络特征图的直接法匹配方式。该部分算法设计借鉴传统图像对准中逐像素对比的LK(Lucas-Kanade)算法,有着如式(3)所示的优化目标:
Figure BDA0003391179970000081
其中式(3)求和符中x∈Ω的含义是所选取的特征点对象x属于某一个点集Ω,此处的区域代表的就是整个图像区域,即通过卷积网络提取得到的深度特征图的每个像素位置,FI(x)代表的是实时图I上的x点处的特征,FM(W(x;p))代表的是基准图M上的位置为W(x;p)的特征,这里所述两者的特征代表的是通过VGG16网络提取得到的深度特征。W(x;p)函数代表的是图像变换操作,其自变量为目标变换坐标x,函数中的变换参数为p,W(x;p)为进行变换之后的结果。通过变换参数p的选取,使得此处优化目标E(p)达到最小。变换参数p即此前所述的基准地图M与实时航拍图I之间变换的单应矩阵H,p参数相当于将矩阵H变换为向量的形式,便于优化问题中参数的解算与后续求导工作。该方法中对于图像变换参数p使用了泰勒展开的方式进行了迭代求解,最终得到最符合要求的变换参数,即与基准卫星地图对准之后得到的绝对单应矩阵
Figure BDA0003391179970000082
S5.3,从S5.2中得到的绝对单应矩阵
Figure BDA0003391179970000083
相较于S3)得到的绝对单应阵
Figure BDA0003391179970000084
由于引入了基准地图的绝对定位信息,因此在定位精度上有着一定的提升。为了进一步提高定位精度,本步骤包含从粗到细的匹配方法,即:图像对准算法得到的更精准的定位结果
Figure BDA0003391179970000085
会返回算法初始步骤,再一次在基准图中提取相应区域的基准子图,即进入步骤S4提取
Figure BDA0003391179970000086
由此前的算法说明可以得知,此时提取得到的基准子图与实时图所表示的地理区域会更加的一致。与此前相同,再次进行特征提取以及直接法对准的步骤,以细化最后的绝对单应矩阵,作为最终当前无人机航拍图位置的定位输出。该步骤可重复多次进行,以得到最优的定位结果,具体循环次数可根据飞行区域匹配任务难易进行灵活调整。
S6,保存实时航拍图像及最终定位结果,作为下次定位的相对定位约束信息,等待下一个进行视觉定位的航拍图像输入,得到输入航拍图像之后直接进行S3,循环进行图像序列的定位任务。
可以理解的是,本步骤是保存当前实时航拍图像及其最终定位结果,作为下次定位的相对定位约束信息,并且等待下一个需要进行视觉定位的航拍图像输入,得到输入航拍图像之后直接进行S3的操作,循环进行图像序列的定位任务。
下面结合附图和具体实施例,对本发明进行详细阐述说明。
本发明实施例部署在台式计算机上,处理器Intel Core i7-9700k,处理主频3.6GHz,配置了8G的运行内存,并且配备有RTX2070作为深度学习平台。发明代码部分的实现基于Python语言,并使用Pytorch作为深度学习框架。
为了模拟在真实无人机飞行环境中的定位过程,本实施例将无人机在飞行过程中采集得到的图片保存在文件夹中,在验证时对于文件夹中的图像依次进行处理,以模拟真实情况下连续采集的过程。本实施例选用了由senseFly公司提供的一个免费数据集,其无人机于瑞士的一个村庄上空进行了飞行实验,并且于200m高度采集了13张航拍图像,该航段共持续0.85km,每张航拍图之间间隔稳定为50m。在测试过程中,算法单次求解所用时间稳定在500ms以内,系统使用的从粗到细的匹配框架进行了两次的重复求解,已获得更精确地定位结果,因此单次定位结果的输出约耗时1s,满足视觉匹配辅助导航系统的实时性要求。本实施例中使用的基准地图为当地卫星影像,采集时间较航拍图有一年时长的时间间隔。本实施例的测试结果如图3所示。图中展示了三种颜色的路标点,其中图3子图,(1)中的绿色点代表无人机获取图像时的由差分GPS给出的真实位置;红色点代表优化前仅仅使用图像帧间跟踪所估计的定位结果,即基准子图的提取位置;蓝色点代表优化后位姿结果,即使用实时图与基准图之间的配准信息对于此前估计的粗略定位结果进行优化后的位置。可以在图3子图,(1)中发现,蓝色点相较于红色点更加靠近于真实位置,这也说明了实时图与基准图之间的配准步骤对于图像定位结果的优化作用。图3子图,(2)、(3)是具体求解过程的展示,这里选取的是飞行航拍图像序列中的第5幅以及第9幅图像,第一行展现的是使用初始绝对位姿提取出的粗略的基准子图,第三行展示的是当前飞行采集集到的实时图像,通过第一行图像与第三行图像的配准,获得更加细化的定位信息;最后经过深度学习配准之后的真实基准图展示在第二行,其与第三行的实时图更加接近,也证明了对准算法的在实际过程中的作用。数据集共17个定位点,算法定位结果的平均误差为18.48m,并且能够保证稳定的位置信息跟踪过程。
作为一种示例,本发明在于利用卷积神经网络提取图片深度特征进行图像对准,以得到绝对定位信息,并且使用从粗到细的方式进行定位结果的优化,如图6所示,图6是本发明方法中进行从粗到细的定位结果优化策略的流程图。
根据本发明实施例的基于卷积神经网络的视觉匹配导航方法,研究内容主要着眼于更具有稳定性与鲁棒性的视觉定位算法研究。本发明使用了相对定位与绝对定位相结合的整体框架,首先通过航拍实时图特征点追踪得到相对定位信息,然后由卷积网络提取图片深度特征进行图像对准得到的绝对定位信息,采用了一种逐层细化的定位策略进行优化,完成了整个视觉匹配导航算法的设计。本发明是一套结合深度学习方法的视觉导航方法,并且在多种类型的飞行数据上进行了测试,验证了本发明的可行性以及稳定性,具有良好的工程应用价值。
其次参照附图描述根据本发明实施例提出的基于卷积神经网络的景象匹配导航装置。
图7是本发明一个实施例的基于卷积神经网络的景象匹配导航装置结构示意图。
如图7所示,该基于卷积神经网络的景象匹配导航装置10包括:匹配模块100、定位模块200、读取模块300、提取模块400、对准模块500和保存模块600。
匹配模块100,用于在无人机系统中搭载多种传感器以及目标无人机上搭载俯视相机与机载计算单元,储存带有目标飞行区域真实地理信息的基准地图,并且于机载计算机单元提前部署好训练完成的卷积网络模型;
定位模块200,用于基于无人机系统对定位系统进行初始化,通过定位系统和多种传感器得到当前无人机系统的飞行位置、飞行航向以及飞行高度三个初始数据,通过三个初始数据提取得到首次进行视觉匹配的目标图像区域,以开始视觉匹配导航过程;
读取模块300,用于基于视觉匹配导航过程,算法输入端从俯视相机读取得到当前时刻无人机的实时航拍图像,基于实时航拍图像之间的相对位姿变化,得到当前实时帧图像绝对位姿信息的单应矩阵,以获得绝对定位结果;
提取模块400,用于基于单应矩阵,从基准地图中提取与当前无人机飞行区域接近的基准子图,以构成实时图-基准子图图像对;
对准模块500,用于将基准子图与实时航拍图象进行匹配对准,引入基准地图的绝对定位信息优化绝对定位结果,以得到最终定位结果;
保存模块600,用于保存实时航拍图像及最终定位结果,作为下次定位的相对定位约束信息,等待下一个进行视觉定位的航拍图像输入,得到输入航拍图像之后直接执行读取模块,循环进行图像序列的定位任务。
进一步地,上述读取模块300,包括:
第一读取子模块,用于当t为初始时刻,根据系统输入,获取实时航拍图像It所对应的绝对定位信息,将初始航拍图像作为图像序列定位的迭代初始,进入下一帧的定位过程中提供相对定位约束;
第二读取子模块,用于当t不为初始时刻,It为中间某一时刻的无人机实时航拍图,在相对定位过程中,通过计算It与上一帧实时航拍图It-1之间的相对位姿变化,得到相对单应矩阵结果
Figure BDA0003391179970000101
计算公式为:
Figure BDA0003391179970000102
完全展开得到如下形式:
Figure BDA0003391179970000103
其中,根据图像帧间位置递推得到的相对单应矩阵
Figure BDA0003391179970000104
结合上一帧实时航拍图正确的绝对位姿信息
Figure BDA0003391179970000105
得到表示当前实时帧图像绝对位姿信息的单应矩阵
Figure BDA0003391179970000106
储存当前绝对单应矩阵用于当前帧后续定位过程使用。
进一步地,上述对准模块500,包括:
模拟模块,用于采用经过训练之后的VGG16卷积神经网络作为图像对特征提取器,在预先的训练过程中,选择不同时间、季节的城区、郊区的遥感图像,构成待匹配图像对,以模拟实际匹配过程中所面临的季节、光照以及建筑物变化。
进一步地,上述对准模块500,还包括:
优化模块,用于基于模拟模块中神经网络提取得到的图像特征,设计对于卷积网络特征图的直接法匹配方式,优化目标如下所示:
Figure BDA0003391179970000111
其中,求和符中x∈Ω的含义是所选取的特征点对象x属于某一个点集Ω,点集的区域代表通过卷积网络提取得到的深度特征图的每个像素位置,FI(x)代表的是实时图I上的x点处的特征,FM(W(x;p))代表的是基准图M上的位置为W(x;p)的特征,W(x;p)函数代表的是图像变换操作,自变量为目标变换坐标x,函数中的变换参数为p,W(x;p)为进行变换之后的结果,通过变换参数p的选取,优化目标E(p)达到阈值,变换参数p为基准地图M与实时航拍图I之间变换的单应矩阵H变换为向量的形式;
对于图像变换参数p使用泰勒展开的方式进行迭代求解,得到第一变换参数,第一变换参数为与基准卫星地图对准之后得到绝对单应矩阵
Figure BDA0003391179970000112
进一步地,上述对准模块500,还包括:
循环模块,用于基于绝对单应矩阵
Figure BDA0003391179970000113
返回算法初始状态,在基准图中提取相应区域的基准子图,进入提取模块以提取基准子图
Figure BDA0003391179970000114
并进行特征提取以及直接法对准,以细化绝对单应矩阵
Figure BDA0003391179970000115
作为最终当前无人机航拍图位置的定位输出。
根据本发明实施例提出的基于卷积神经网络的景象匹配导航装置,通过匹配模块,用于在无人机系统中搭载多种传感器以及目标无人机上搭载俯视相机与机载计算单元,储存带有目标飞行区域真实地理信息的基准地图,并且于机载计算机单元提前部署好训练完成的卷积网络模型;定位模块,用于基于无人机系统对定位系统进行初始化,通过定位系统和多种传感器得到当前无人机系统的飞行位置、飞行航向以及飞行高度三个初始数据,通过三个初始数据提取得到首次进行视觉匹配的目标图像区域,以开始视觉匹配导航过程;读取模块,用于基于视觉匹配导航过程,算法输入端从俯视相机读取得到当前时刻无人机的实时航拍图像,基于实时航拍图像之间的相对位姿变化,得到当前实时帧图像绝对位姿信息的单应矩阵,以获得绝对定位结果;提取模块,用于基于单应矩阵,从基准地图中提取与当前无人机飞行区域接近的基准子图,以构成实时图-基准子图图像对;对准模块,用于将基准子图与实时航拍图象进行匹配对准,引入基准地图的绝对定位信息优化绝对定位结果,以得到最终定位结果;保存模块,用于保存实时航拍图像及最终定位结果,作为下次定位的相对定位约束信息,等待下一个进行视觉定位的航拍图像输入,得到输入航拍图像之后直接执行读取模块,循环进行图像序列的定位任务。本发明通过结合航拍实时图特征点追踪得到的相对定位信息,以及由卷积网络提取图片深度特征进行图像对准得到的绝对定位信息,进行综合的定位过程,在保证良好的定位精度的同时极大程度上提高了系统的鲁棒性,有效解决了传统视觉匹配导航算法适用范围窄的问题。
需要说明的是,前述对基于卷积神经网络的景象匹配导航方法实施例的解释说明也适用于该装置,此处不再赘述。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于卷积神经网络的景象匹配导航方法,其特征在于,包括以下步骤:
S1,在无人机系统中搭载多种传感器以及目标无人机上搭载俯视相机与机载计算单元,储存带有目标飞行区域真实地理信息的基准地图,并且于所述机载计算机单元提前部署好训练完成的卷积网络模型;
S2,基于所述无人机系统对定位系统进行初始化,通过所述定位系统和多种传感器得到当前无人机系统的飞行位置、飞行航向以及飞行高度三个初始数据,通过所述三个初始数据提取得到首次进行视觉匹配的目标图像区域,以开始视觉匹配导航过程;
S3,基于所述视觉匹配导航过程,算法输入端从所述俯视相机读取得到当前时刻无人机的实时航拍图像,基于实时航拍图像之间的相对位姿变化,得到当前实时帧图像绝对位姿信息的单应矩阵,以获得绝对定位结果;
S4,基于所述单应矩阵,从所述基准地图中提取与当前无人机飞行区域接近的基准子图,以构成实时图-基准子图图像对;
S5,将所述基准子图与所述实时航拍图象进行匹配对准,引入所述基准地图的绝对定位信息优化所述绝对定位结果,以得到最终定位结果;
S6,保存所述实时航拍图像及最终定位结果,作为下次定位的相对定位约束信息,等待下一个进行视觉定位的航拍图像输入,得到输入航拍图像之后直接进行所述S3,循环进行图像序列的定位任务。
2.根据权利要求1所述的基于卷积神经网络的景象匹配导航方法,其特征在于,所述S3,包括:
S3.1,当t为初始时刻,根据系统输入,获取实时航拍图像It所对应的绝对定位信息,将初始航拍图像作为图像序列定位的迭代初始,进入下一帧的定位过程中提供相对定位约束;
S3.2,当t不为初始时刻,It为中间某一时刻的无人机实时航拍图,在相对定位过程中,通过计算It与上一帧实时航拍图It-1之间的相对位姿变化,得到相对单应矩阵结果
Figure FDA0003391179960000011
计算公式为:
Figure FDA0003391179960000012
完全展开得到如下形式:
Figure FDA0003391179960000013
其中,根据图像帧间位置递推得到的相对单应矩阵
Figure FDA0003391179960000014
结合上一帧实时航拍图正确的绝对位姿信息
Figure FDA0003391179960000015
得到表示当前实时帧图像绝对位姿信息的单应矩阵
Figure FDA0003391179960000016
储存当前绝对单应矩阵用于当前帧后续定位过程使用。
3.根据权利要求2所述的基于卷积神经网络的景象匹配导航方法,其特征在于,所述S5,包括:
S5.1,采用经过训练之后的VGG16卷积神经网络作为图像对特征提取器,在预先的训练过程中,选择不同时间、季节的城区、郊区的遥感图像,构成待匹配图像对,以模拟实际匹配过程中所面临的季节、光照以及建筑物变化。
4.根据权利要求3所述的基于卷积神经网络的景象匹配导航方法,其特征在于,所述S5,还包括:
S5.2,基于所述S5.1中神经网络提取得到的图像特征,设计对于卷积网络特征图的直接法匹配方式,优化目标如下所示:
Figure FDA0003391179960000021
其中,求和符中x∈Ω的含义是所选取的特征点对象x属于某一个点集Ω,点集的区域代表通过卷积网络提取得到的深度特征图的每个像素位置,FI(x)代表的是实时图I上的x点处的特征,FM(W(x;p))代表的是基准图M上的位置为W(x;p)的特征,W(x;p)函数代表的是图像变换操作,自变量为目标变换坐标x,函数中的变换参数为p,W(x;p)为进行变换之后的结果,通过变换参数p的选取,优化目标E(p)达到阈值,变换参数p为基准地图M与实时航拍图I之间变换的单应矩阵H变换为向量的形式;
对于图像变换参数p使用泰勒展开的方式进行迭代求解,得到第一变换参数,所述第一变换参数为与基准卫星地图对准之后得到绝对单应矩阵
Figure FDA0003391179960000022
5.根据权利要求4所述的基于卷积神经网络的景象匹配导航方法,其特征在于,所述S5,还包括:
S5.3,基于所述绝对单应矩阵
Figure FDA0003391179960000023
返回算法初始状态,在基准图中提取相应区域的基准子图,进入所述S4提取基准子图
Figure FDA0003391179960000024
并进行特征提取以及直接法对准,以细化所述绝对单应矩阵
Figure FDA0003391179960000025
作为最终当前无人机航拍图位置的定位输出。
6.一种基于卷积神经网络的景象匹配导航装置,其特征在于,包括:
匹配模块,用于在无人机系统中搭载多种传感器以及目标无人机上搭载俯视相机与机载计算单元,储存带有目标飞行区域真实地理信息的基准地图,并且于所述机载计算机单元提前部署好训练完成的卷积网络模型;
定位模块,用于基于所述无人机系统对定位系统进行初始化,通过所述定位系统和多种传感器得到当前无人机系统的飞行位置、飞行航向以及飞行高度三个初始数据,通过所述三个初始数据提取得到首次进行视觉匹配的目标图像区域,以开始视觉匹配导航过程;
读取模块,用于基于所述视觉匹配导航过程,算法输入端从所述俯视相机读取得到当前时刻无人机的实时航拍图像,基于实时航拍图像之间的相对位姿变化,得到当前实时帧图像绝对位姿信息的单应矩阵,以获得绝对定位结果;
提取模块,用于基于所述单应矩阵,从所述基准地图中提取与当前无人机飞行区域接近的基准子图,以构成实时图-基准子图图像对;
对准模块,用于将所述基准子图与所述实时航拍图象进行匹配对准,引入所述基准地图的绝对定位信息优化所述绝对定位结果,以得到最终定位结果;
保存模块,用于保存所述实时航拍图像及最终定位结果,作为下次定位的相对定位约束信息,等待下一个进行视觉定位的航拍图像输入,得到输入航拍图像之后直接执行所述读取模块,循环进行图像序列的定位任务。
7.根据权利要求6所述的基于卷积神经网络的景象匹配导航装置,其特征在于,所述读取模块,包括:
第一读取子模块,用于当t为初始时刻,根据系统输入,获取实时航拍图像It所对应的绝对定位信息,将初始航拍图像作为图像序列定位的迭代初始,进入下一帧的定位过程中提供相对定位约束;
第二读取子模块,用于当t不为初始时刻,It为中间某一时刻的无人机实时航拍图,在相对定位过程中,通过计算It与上一帧实时航拍图It-1之间的相对位姿变化,得到相对单应矩阵结果
Figure FDA0003391179960000031
计算公式为:
Figure FDA0003391179960000032
完全展开得到如下形式:
Figure FDA0003391179960000033
其中,根据图像帧间位置递推得到的相对单应矩阵
Figure FDA0003391179960000034
结合上一帧实时航拍图正确的绝对位姿信息
Figure FDA0003391179960000035
得到表示当前实时帧图像绝对位姿信息的单应矩阵
Figure FDA0003391179960000036
储存当前绝对单应矩阵用于当前帧后续定位过程使用。
8.根据权利要求7所述的基于卷积神经网络的景象匹配导航装置,其特征在于,所述对准模块,包括:
模拟模块,用于采用经过训练之后的VGG16卷积神经网络作为图像对特征提取器,在预先的训练过程中,选择不同时间、季节的城区、郊区的遥感图像,构成待匹配图像对,以模拟实际匹配过程中所面临的季节、光照以及建筑物变化。
9.根据权利要求8所述的基于卷积神经网络的景象匹配导航装置,其特征在于,所述对准模块,还包括:
优化模块,用于基于所述模拟模块中神经网络提取得到的图像特征,设计对于卷积网络特征图的直接法匹配方式,优化目标如下所示:
Figure FDA0003391179960000041
其中,求和符中x∈Ω的含义是所选取的特征点对象x属于某一个点集Ω,点集的区域代表通过卷积网络提取得到的深度特征图的每个像素位置,FI(x)代表的是实时图I上的x点处的特征,FM(W(x;p))代表的是基准图M上的位置为W(x;p)的特征,W(x;p)函数代表的是图像变换操作,自变量为目标变换坐标x,函数中的变换参数为p,W(x;p)为进行变换之后的结果,通过变换参数p的选取,优化目标E(p)达到阈值,变换参数p为基准地图M与实时航拍图I之间变换的单应矩阵H变换为向量的形式;
对于图像变换参数p使用泰勒展开的方式进行迭代求解,得到第一变换参数,所述第一变换参数为与基准卫星地图对准之后得到绝对单应矩阵
Figure FDA0003391179960000042
10.根据权利要求9所述的基于卷积神经网络的景象匹配导航装置,其特征在于,所述对准模块,还包括:
循环模块,用于基于所述绝对单应矩阵
Figure FDA0003391179960000043
返回算法初始状态,在基准图中提取相应区域的基准子图,进入所述提取模块以提取基准子图
Figure FDA0003391179960000044
并进行特征提取以及直接法对准,以细化所述绝对单应矩阵
Figure FDA0003391179960000045
作为最终当前无人机航拍图位置的定位输出。
CN202111465329.1A 2021-12-03 2021-12-03 一种基于卷积神经网络的景象匹配导航方法及装置 Pending CN114199250A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111465329.1A CN114199250A (zh) 2021-12-03 2021-12-03 一种基于卷积神经网络的景象匹配导航方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111465329.1A CN114199250A (zh) 2021-12-03 2021-12-03 一种基于卷积神经网络的景象匹配导航方法及装置

Publications (1)

Publication Number Publication Date
CN114199250A true CN114199250A (zh) 2022-03-18

Family

ID=80650324

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111465329.1A Pending CN114199250A (zh) 2021-12-03 2021-12-03 一种基于卷积神经网络的景象匹配导航方法及装置

Country Status (1)

Country Link
CN (1) CN114199250A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998773A (zh) * 2022-08-08 2022-09-02 四川腾盾科技有限公司 适用于无人机系统航拍图像的特征误匹配剔除方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347854A (zh) * 2019-06-13 2019-10-18 西安理工大学 基于目标定位的图像检索方法
CN111506759A (zh) * 2020-03-04 2020-08-07 中国人民解放军战略支援部队信息工程大学 一种基于深度特征的影像匹配方法及装置
CN111553939A (zh) * 2020-04-21 2020-08-18 东南大学 一种多目摄像机的图像配准算法
CN111693047A (zh) * 2020-05-08 2020-09-22 中国航空工业集团公司西安航空计算技术研究所 一种高动态场景下的微小型无人机视觉导航方法
US20200300637A1 (en) * 2016-03-28 2020-09-24 Sri International Collaborative navigation and mapping
CN113418527A (zh) * 2021-06-15 2021-09-21 西安微电子技术研究所 一种强实时双构连续景象融合匹配导航定位方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200300637A1 (en) * 2016-03-28 2020-09-24 Sri International Collaborative navigation and mapping
CN110347854A (zh) * 2019-06-13 2019-10-18 西安理工大学 基于目标定位的图像检索方法
CN111506759A (zh) * 2020-03-04 2020-08-07 中国人民解放军战略支援部队信息工程大学 一种基于深度特征的影像匹配方法及装置
CN111553939A (zh) * 2020-04-21 2020-08-18 东南大学 一种多目摄像机的图像配准算法
CN111693047A (zh) * 2020-05-08 2020-09-22 中国航空工业集团公司西安航空计算技术研究所 一种高动态场景下的微小型无人机视觉导航方法
CN113418527A (zh) * 2021-06-15 2021-09-21 西安微电子技术研究所 一种强实时双构连续景象融合匹配导航定位方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998773A (zh) * 2022-08-08 2022-09-02 四川腾盾科技有限公司 适用于无人机系统航拍图像的特征误匹配剔除方法及系统
CN114998773B (zh) * 2022-08-08 2023-02-17 四川腾盾科技有限公司 适用于无人机系统航拍图像的特征误匹配剔除方法及系统

Similar Documents

Publication Publication Date Title
CN108665496B (zh) 一种基于深度学习的端到端的语义即时定位与建图方法
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
US10546387B2 (en) Pose determination with semantic segmentation
Yahyanejad et al. A fast and mobile system for registration of low-altitude visual and thermal aerial images using multiple small-scale UAVs
Patel et al. Visual localization with google earth images for robust global pose estimation of uavs
EP2423873B1 (en) Apparatus and Method for Generating an Overview Image of a Plurality of Images Using a Reference Plane
US20120050524A1 (en) Apparatus and method for generating an overview image of a plurality of images using an accuracy information
CN112419374B (zh) 一种基于图像配准的无人机定位方法
CN106373088A (zh) 大倾斜低重叠率航空图像的快速拼接方法
Barfoot et al. Into darkness: Visual navigation based on a lidar-intensity-image pipeline
CN109900274B (zh) 一种图像匹配方法及系统
CN111736586A (zh) 用于路径规划的自动驾驶车辆位置的方法及其装置
Zhao et al. A robust stereo feature-aided semi-direct SLAM system
CN113220818A (zh) 一种停车场自动建图与高精度定位方法
CN113343875A (zh) 一种用于机器人的可行驶区域感知方法
CN106780309A (zh) 一种合成孔径雷达图像拼接方法
CN115471748A (zh) 一种面向动态环境的单目视觉slam方法
Chen et al. Real-time geo-localization using satellite imagery and topography for unmanned aerial vehicles
Yang et al. RCPNet: Deep-learning based relative camera pose estimation for UAVs
CN117367427A (zh) 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法
CN109764864B (zh) 一种基于颜色识别的室内无人机位姿获取方法及系统
CN114199250A (zh) 一种基于卷积神经网络的景象匹配导航方法及装置
Zhu et al. Architecture for asymmetric collaborative navigation
CN116989772B (zh) 一种空地多模态多智能体协同定位与建图方法
Zhang et al. An UAV navigation aided with computer vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination