CN115359271A - 一种大尺度不变性的深空小天体图像匹配的方法 - Google Patents

一种大尺度不变性的深空小天体图像匹配的方法 Download PDF

Info

Publication number
CN115359271A
CN115359271A CN202210975909.3A CN202210975909A CN115359271A CN 115359271 A CN115359271 A CN 115359271A CN 202210975909 A CN202210975909 A CN 202210975909A CN 115359271 A CN115359271 A CN 115359271A
Authority
CN
China
Prior art keywords
scale
image
celestial body
small celestial
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210975909.3A
Other languages
English (en)
Other versions
CN115359271B (zh
Inventor
樊铭瑞
芦文龙
牛文龙
彭晓东
杨震
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Space Science Center of CAS
Original Assignee
National Space Science Center of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Space Science Center of CAS filed Critical National Space Science Center of CAS
Priority to CN202210975909.3A priority Critical patent/CN115359271B/zh
Publication of CN115359271A publication Critical patent/CN115359271A/zh
Application granted granted Critical
Publication of CN115359271B publication Critical patent/CN115359271B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种大尺度不变性的深空小天体图像匹配的方法,所述方法包括:仿真生成不同轨道绕飞小天体时拍摄的图像,建立训练数据集和测试数据集;然后构建深空尺度估计网络模型,使用训练数据集对网络模型进行训练,通过测试数据集获得输入的测试图像之间的尺度分布,进而实现深空小天体图像匹配;深空尺度估计网络模型包括全局注意力密集ASPP模块和相关感知分布预测模块;全局注意力密集ASPP模块,用于获取相关特征图;相关感知分布预测模块基于Transformer结构的下采样模块建立,用于对相关特征图进行处理得到尺度分布;将尺度分布转换为尺度因子,根据尺度因子实现大尺度变化下的图像匹配。本发明解决了小天体图像在发生大尺度变化时无法正确匹配的问题。

Description

一种大尺度不变性的深空小天体图像匹配的方法
技术领域
本发明涉及图像特征提取和匹配领域,具体涉及一种大尺度不变性的深空小天体图像匹配的方法。
背景技术
小天体探测任务近些年越来越受到关注,考虑到可靠性和安全性,现有很多任务仍需要地面操作人员进行,然而由于小天体一般距地球较远,通讯延迟长,因此数据经过有带宽限制的传输难以完成实时观测、着陆,也无法及时应对各类突发状况。因此未来的小天体探测器需要具备高度自主探测能力,以实现在深空的智能探测。
自主视觉导航是小天体探测任务中的重要技术手段之一,其中图像特征的提取和匹配是视觉导航的基础和前提,其精度直接影响导航的精度和性能。但小天体不同于地面场景,从绕飞到降落的过程中高度变化剧烈,图像会产生非常大程度的特征变化,如在20km观测到的小天体特征与500m的时候完全不同。甚至在距离很远时,小天体只占据画面中的几十个像素点。同时由于小天体探测任务周期长,参考图像和导航图像的光照情况可能差异很大。尺度和光照的变化改变图像特征,影响匹配的鲁棒性,进而影响着陆导航精度。
现有的一些具有光照和尺度不变性的特征方法如SIFT,SURF在深空场景的研究中应用广泛,它们能适应一定范围内尺度的变化,但是对于大于10倍的大范围尺度变化检测能力有限,当光照发生较为强烈的变化时,无法有效匹配对应点。为了解决图像匹配中尺度、光照、视角的鲁棒性,在图像特征提取和匹配领域一些基于深度学习的方法被提出,这些方法通过卷积层提取特征,再利用传统匹配方法或者图神经网络等对特征进行匹配,然而它们在图像发生大尺度变化时表现差强人意。针对大尺度变化的问题,也有一些方法提出先估计大尺度变化图像间的尺度因子,随后将图像变换到相同的尺度层级,进而提高匹配精度。但这些方法能解决的最大尺度范围也不适用于小天体场景。
发明内容
与现有技术的方法不同,针对小天体图像特征匹配中面临的大尺度变化导致的无法有效匹配问题,本发明提出了一种适用于大尺度变化下的小天体图像匹配方法,并设计了一个基于注意力机制的深空尺度估计网络模型用于估计图像的尺度因子,这是第一个应用于深空大尺度图像匹配的方法。大尺度下两张图像无法正确匹配的原因主要是:两张图像的特征金字塔所在级别相距较远,导致无法正确匹配对应的特征描述子。本发明通过深空尺度估计网络模型获得的尺度因子将两张图像调整到相似的尺度层级,能进一步提高大尺度图像的匹配精度。为了适用于深空图像中远大于地面场景的尺度跨度,本发明将全局注意力机制与密集ASPP(Atrous Spatial Pyramid Pooling,空洞空间卷积池化金字塔)结合设计了全局注意力密集ASPP模块(Global Attention-DenseASPP,GA-DenseASPP)用于提取特征,它能融合更大的感受野,全局注意机制融合信道和空间信息的能力以及ASPP的密集连接被证明可以提高网络对深空背景等大尺度场景的特征提取能力;并构建了基于Transformer的相关感知分布预测模块(Correlation-Aware Distribution Predictor,CADP)用于提高尺度分布度量精度,这是首次将Transformer应用到尺度估计问题,并且成功获得了比传统CNN(Convolutional Neural Networks,卷积神经网络)更加准确的效果。在实验结果部分,通过本发明仿真的数据对比了所提出方法和现有匹配方法的性能,所提方法皆达到了SOTA,同时也研究了本发明方法的边界条件,包括尺度跨度和像素占比。本发明方法对小天体表面的不同光照变化更加鲁棒,并且可以从绕飞的不同角度准确预测。
本发明的目的为了解决深空小天体图像在发生大尺度变化时无法正确特征匹配的问题,其能提升图像匹配准确率,有效提高在之后的小天体探测任务中基于视觉导航的精度。为达到上述目的,本发明提出了一种大尺度不变性的深空小天体图像匹配的方法,
本发明提出了一种大尺度不变性的深空小天体图像匹配方法,所述方法包括:
仿真生成不同轨道绕飞小天体时拍摄的图像,建立训练数据集和测试数据集;然后建立深空尺度估计网络模型,使用训练数据集对网络模型进行训练,通过测试数据集获得输入的测试图像之间的尺度分布;
所述深空尺度估计网络模型包括:全局注意力密集ASPP模块和相关感知分布预测模块;所述全局注意力密集ASPP模块,用于对输入图像的特征图进行处理获取相关特征图;所述相关感知分布预测模块基于Transformer结构的下采样模块建立,用于对相关特征图进行处理得到尺度分布;
将尺度分布转换为尺度因子,根据尺度因子对输入图像进行缩放调整到相同级别,实现输入图像的匹配。
作为上述技术方案的改进之一,所述方法中,使用训练数据集对网络模型进行训练时包括以下步骤:
1)仿真生成不同轨道绕飞小天体时拍摄的图像,建立训练数据集和测试数据集;
2)建立深空尺度估计网络模型:所述深空尺度估计网络还包括预训练模型,用于对输入图像进行特征图提取;
基于全局注意力机制、空洞空间卷积池化金字塔ASPP模块,并基于空洞空间卷积池化金字塔ASPP模块和广义相加模型建立全局注意力密集ASPP模块;基于Transformer结构的下采样模块、平均池层和全连接层建立相关感知分布预测模块;基于预训练模型、全局注意力密集ASPP模块和相关感知分布预测模块建立深空尺度估计网络模型;
3)设置损失函数,使用训练数据集对深空尺度估计网络模型进行训练,得到训练好的网络模型。
作为上述技术方案的改进之一,所述步骤1)使用Blender仿真引擎生成小天体图像数据集,具体包括:在Blender仿真引擎中添加小天体模型,将其质心作为世界坐标系原点,在小天体附近放置四个光源,将相机放置在不同轨道高度,环绕拍摄多张图像,其中相机z轴始终指向小天体质心。
作为上述技术方案的改进之一,所述获取相关特征图的过程,具体包括:
首先,对输入的不同轨道绕飞小天体时拍摄的图像,包括高轨道拍摄图像A和低轨道拍摄图像B,分别通过VGG特征提取器获取特征图,并分别将对应的特征图F输入全局注意力密集ASPP模块;
然后,通过广义相加模型对特征图进行处理:分别通过通道注意力门和空间注意力门进行细化,表达式为:
Figure BDA0003797503210000031
Figure BDA0003797503210000032
其中,F′和F″分别为通道细化和空间细化的特征图,Mc(F)为通过通道注意力门后得到通道模块的注意力特征图、Ms(F′)为通过空间注意力门后得到空间模块的注意力特征图,
Figure BDA0003797503210000041
为元素级别乘法;
最后,将细化的特征图F″送入致密空洞空间卷积池化金字塔ASPP模块,通过密集的连接对特征图的多尺度信息进行编码,分别获得图像A、图像B的自相关特征图地图以及图像A和图像B的互相关特征图地图,并将图像A和图像B的自相关特征图地图以及互相关特征图地图在通道维度上进行拼接。
作为上述技术方案的改进之一,所述致密空洞空间卷积池化金字塔ASPP模块包括一个级联的空洞卷积层。
作为上述技术方案的改进之一,所述相关感知分布预测模块包括:堆叠的变换器下采样模块、平均池层和一组全连接层。
作为上述技术方案的改进之一,所述对相关特征图进行处理得到尺度分布,包括:
首先,将拼接后的相关图Ccat输入相关感知分布预测模块;
然后,通过Transformer结构的下采样模块对Ccat的高度和宽度进行下采样处理;
之后,将处理后的相关图前馈到平均池化层进行池化操作;
最后,将池化后的相关图扁平化,并通过一组全连接层处理以获得尺度分布。
作为上述技术方案的改进之一,所述Transformer结构的下采样模块的数量N=2;所述下采样模块包括一个3×3卷积层,一个多头注意力层,最后是一个3×3卷积层;每个3×3卷积层之后是一个批处理归一化层和ReLu激活函数,最后一个卷积层的步长设置为2。
作为上述技术方案的改进之一,所述方法使用Kullback-Leibler散度作为损失函数Loss(A,B),表达式为:
Figure BDA0003797503210000042
其中,KL(·,·)为Kullback-Leibler散度函数,Ps→A为估计分布,
Figure BDA0003797503210000043
为真实分布。
作为上述技术方案的改进之一,所述方法将尺度分布转换为尺度因子,包括:图像A到图像B的尺度因子SA→B,表达式为:
Figure BDA0003797503210000051
其中,σ=2;
Figure BDA0003797503210000052
为定义在尺度空间的图像A到B的全局尺度因子(注:对原有尺度因子进行对数运算后的结果为定义在尺度空间中的尺度因子,
Figure BDA0003797503210000053
Figure BDA0003797503210000054
其中SA→B为原有尺度因子,
Figure BDA0003797503210000055
为定义在尺度空间的尺度因子),由两部分构成:
Figure BDA0003797503210000056
Figure BDA0003797503210000057
为在尺度空间中图像A到B的尺度因子,
Figure BDA0003797503210000058
Figure BDA0003797503210000059
为在尺度空间中图像B到A的尺度因子,
Figure BDA00037975032100000510
当算法估计的
Figure BDA00037975032100000511
Figure BDA00037975032100000512
完全准确时,二者互为相反数,即可得到
Figure BDA00037975032100000513
L为尺度级别,L=13;Si为第i个级别的尺度因子,Si=σt;上角标i表示第i个尺度等级,i∈[0,1…,L-1];t的取值范围是
Figure BDA00037975032100000514
范围内的所有整数;一个尺度等级Si分别对应一个分布概率
Figure BDA00037975032100000515
(对于图像A到B)或
Figure BDA00037975032100000516
(对于图像B到A);
Figure BDA00037975032100000517
表示第i个级别的对于图像A到B的分布概率;
Figure BDA00037975032100000518
表示第i个级别的对于图像B到A的分布概率。
相比于传统的小天体表面图像匹配方法,一种大尺度不变性的深空小天体图像匹配的方法具有以下优势:
1)提出了用于深空小天体场景的大尺度图像估计深度学习方法,解决了小天体图像在发生大尺度变化时无法正确匹配的问题。实验结果表明,本发明所提方法在尺度估计、图像匹配和相机位姿估计方面皆表现优异。
2)设计了适用于该场景的深空尺度估计网络模型,使用全局注意力机制与密集ASPP相结合的方法提高深空背景下的大尺度特征提取能力,使用基于transformer的CADP模块,获得更高的尺度估计精度。通过与几个最先进的方法进行对比实验,深空尺度估计网络模型能实现从绕飞的不同角度准确预测出更准确的尺度因子,同时对于小天体表面的不同光照情况更加鲁棒。
3)生成了第一个用于小天体尺度估计和图像匹配的仿真数据集,可用于小天体场景的图像匹配、视觉定位、超分辨率重建、语义分割、三维重建等任务。
附图说明
图1为在小天体着陆过程中结合深空尺度估计网络的图像匹配方法示意图;
图2为本发明提出的具有大尺度不变性的小天体图像匹配方法流程图;
图3为本发明建立的深空尺度估计网络总体架构图;
图4为GA-DenseASPP模块架构图;
图5为CADP模块架构图;
图6为仿真图像生成示意图;
图7(a)为真实的67P小天体图像,图7(b)为仿真的67P小天体图像;
图8(a)-(h)为不同光照和尺度下的仿真图像,其中图8(a)、图8(b)、图8(c)、图8(d)是在同一个视角下的不同光照的小天体仿真图像,图8(e)、图8(f)、图8(g)、图8(h)是不同高度拍摄的小天体仿真图像;
图9为本发明建立的Virtual SCB Dataset尺度因子分布示意图;
图10为表2中采样本方法与现有方法进行对比实验时使用的图像对示意图,其中图10(a1)、图10(a2)为表2中第(1)栏使用的图像对,图10(b1)、图10(b2)为表2中第(2)栏使用的图像对,图10(c1)、图10(c2)为表2中第(3)栏使用的图像对,图10(d1)、图10(d2)为表2中第(4)栏使用的图像对。
具体实施方式
以下结合实施例进一步说明本发明所提供的技术方案。
一、大尺度不变性的深空小天体图像匹配方法
如图1所示,在不同尺度之间的图像提取对应点具有挑战性,现有的匹配方法性能不足以达到要求。深空探测是一个典型场景:在绕飞观测和下降着陆过程中,目标小天体在视野中的像素占比差异很大。为了解决该问题,本发明提出了一种具有大尺度不变性的深空小天体图像匹配方法,并提出深空尺度估计网络用于估计小天体图像之间的尺度变化。
1.大尺度不变性的深空小天体图像匹配方法流程
探测器在不同轨道高度时拍摄到的小天体尺度差异很大,甚至在距离很远的时候,小天体只占据几个像素位置。传统基于特征金字塔的多尺度提取方法都是搜索相近的尺度层级,但尺度差异很大时无法有效匹配,甚至在目标很小时经过上采样的特征图,目标会被淹没在噪声中。
因此本发明提出如图2所示的具有大尺度不变性的小天体图像匹配方法,先估计图像之间的尺度因子,再通过尺度因子缩放图像将其调整到相同级别,进而进行匹配。
2.尺度分布
对图像A和图像B,定义L=13个尺度等级。每个等级分别对应一个分布概率
Figure BDA0003797503210000071
(对于图像A到B)或
Figure BDA0003797503210000072
(对于图像B到A),i∈[0,1…,L-1],Si是图A到图B在第i个等级的尺度因子,Si=σt,其中:σ=2,t是
Figure BDA0003797503210000073
范围内的所有整数。因此在尺度空间中图A到B和图B到A的尺度因子为:
Figure BDA0003797503210000074
联合上式则图A到B的尺度因子
Figure BDA0003797503210000075
为:
Figure BDA0003797503210000076
将其转换到图像之间的尺度因子为:
Figure BDA0003797503210000077
3.深空尺度估计网络模型
3.1总体架构图
本发明的深空尺度估计网络模型的总体架构图如图3所示,网络的输入是ImageA和ImageB。ImageB是在高轨道绕飞时拍摄的图像,而ImageA则是在低轨道接近小天体时的拍摄图像。
首先通过预训练模型提取特征,然后通过GA-DenseASPP模块获取全局注意机制融合通道信息和空间信息,通过空洞卷积获得多尺度信息,利用这些信息获得自相关特征图地图CA、CB和互相关CA-B地图。最后,将三个相关图在通道维度上进行拼接,并输入到CADP中进行尺度分布的估计。得到网络估计的尺度因子之后,对ImageB进行缩放并与ImageA进行匹配。
3.2全局注意力密集ASPP模块(Global Attention-DenseASPP,GA-DenseASPP)
注意机制在特征提取和语义分割等计算机视觉任务中得到了广泛的应用。为了准确提取多尺度信息,本发明提出了GA-DenseASPP来代替ASPP。
如图4所示,特征图以F∈R675×H×W为输入,其中512、H、W分别表示F的通道、高度、宽度。然后,通过GAM(广义相加模型,Generalized additive model)对特征图进行处理,分别通过通道门和空间门进行细化,可以更好地探索特征图的通道关系和空间关系,如下所示:
Figure BDA0003797503210000081
Figure BDA0003797503210000082
其中F′和F″分别为通道细化和空间细化的特征图,Mc(F)、Ms(F′)分别为通道模块和空间模块的注意图,
Figure BDA0003797503210000083
为元素级别乘法。最后,将最终细化的特征图送入致密空洞空间金字塔池(DenseASPP)。
DenseASPP由一个级联的空洞卷积层组成,它可以通过密集的连接对特征图的多尺度信息进行编码。本发明的GA-DenseASPP对于深空等多尺度场景更有效,可以从不同尺度的特征中准确提取信息。通过GAM将预训练模型提取的特征映射与空间和信道信息进行融合。然后,将其送入DenseASPP的级联卷积层。
3.3相关感知分布预测模块(Correlation-aware Distribution PredictorModule,CADP)
全连接层由于不能捕捉到相关图之间的内在关系,从而导致尺度估计不准确。为了解决这个问题,本发明提出了相关感知分布预测模块(CADP),它由几个堆叠的变换器下采样模块、平均池层和一组全连接层组成。
如图4所示,CADP将串联的相关图Ccat∈R675×H×W作为输入,其中675、H、W分别表示F的通道、高度和宽度,然后Ccat被送入Transformer下采样模块以降低其高度和宽度。它的多头注意力层,即使是在最低层也可以捕获整个相关图的长距离依赖关系。之后,下采样的相关图被前馈到平均池化层,其高度和宽度被减少到1。最后,它被扁平化并被一组全连接层处理以预测规模分布。
Transformer下采样块的数量N=2。该块包括一个3×3卷积层,一个多头注意力层,最后是一个3×3卷积层。每个3×3卷积层之后是一个批处理归一化层和ReLu。为了在特征提取的准确性和计算效率之间进行权衡,减少了相关图的高度和宽度,将后一个卷积层的步长设置为2。与只使用全连接层的方法相比,本发明的CADP更具有相关性意识,其自我注意机制可以整合相关图的内在关系。
3.4损失函数
由于深空尺度估计网络模型输出的是一个尺度的分布,因此使用Kullback-Leibler散度作为损失函数,他可以用来衡量两个分部之间的差异。其中PB→A为估计分布,
Figure BDA0003797503210000091
为真实分布。
Figure BDA0003797503210000092
二、数据集的生成
由于现有的小天体只有实拍任务图像,缺乏能用于特征检测及尺度估计的公开数据集,因此本发明使用Blender生成小天体图像数据集。Blender是一款开源的三维仿真引擎,支持使用python脚本。使用的小天体模型有67P/Churyumov–Gerasimenko。具体过程如下图所示,添加小天体模型,将其质心作为世界坐标系原点,在小天体附近放置四个光源,模拟不同光照强度和光照方向下的相机成像。为了生成不同尺度的图像,将相机放置在不同轨道高度,环绕拍摄多张图像,其中相机z轴(相机的光轴)始终指向小天体质心,以保证小天体处于画面重心,如图6所示。相机的分辨率设置为1024*1024像素。
图7(a)是真实的67P小天体的图像,图7(b)为仿真的67P小天体的图像,与真实图像相比,仿真图像的纹理和阴影都非常逼真,基本能反映真实图像的表面特征。
图8(a)、图8(b)、图8(c)、图8(d)分别是在同一个视角下的不同光照(光源A、B、C、D)小天体的仿真图像,图8(e)、图8(f)、图8(g)、图8(h)分别是不同高度(4km,10km,20km,40km)拍摄的小天体,可以看出当光照和尺度发生剧烈变化时候,小天体表面特征产生了了显著变化,进而影响特征匹配的精度。
本发明生成的小天体图像的高度范围在[5,150]之间,单位是km。一组图像以5km的间隔生成,每组有51张小天体图像。如图9所示,为数据集中各个尺度等级对应的匹配对数量示意图。当生成图像对(pairs)时,每张图像都与其他高度的一到三张拍摄角度相邻的图像配对。总共生成了9145对图像,其中6655对用于训练,864对用于验证,1626对用于测试。
三、实验结果与分析
1.参数设置
输入深空尺度估计网络模型用于训练的图像大小被设置于240*240像素,尺度分布范围为[0.05,20],参数设置为L=13和σ=2。设置DenseASPP的膨胀率为{1,6,12,18}。数据增强包括翻转、旋转和色彩增强。所有的实验都运行在RTX 3080GPU上。它使用预先训练的VGG模型作为特征提取器。
2.尺度估计实验
对比深空尺度估计网络模型和现有方法在本发明提出的数据集上的尺度估计性能:主要使用方法包括基于深度学习的(1)IBE(参考文献:Rau A,Garcia-Hernando G,Stoyanov D,et al.Predicting visual overlap of images through interpretablenon-metric box embeddings[C]//European Conference on ComputerVision.Springer,Cham,2020:629-646.)、(2)ScaleNet和(参考文献:Barroso-Laguna A,Tian Y,Mikolajczyk K.ScaleNet:A Shallow Architecture for Scale Estimation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and PatternRecognition.2022:12808-12818.)基于物理的方法:Area Algorithm。Area Algorithm主要是将图像二值化,大于阈值的设置灰度值为255定义为小行星区域,小于阈值设置为0定义为深空背景,以此来区分小天体和背景:
Figure BDA0003797503210000101
其中,value是灰度值,theshold为设定阈值。
对比不同图像的小天体面积占比S,并将此定义为图像间的尺度估计结果。
Figure BDA0003797503210000102
其中,a1是灰度值为图1的小行星区域面积,a2为图2的小行星区域面积。
使用E1和E2作为真实尺度因子S和预测的尺度因子
Figure BDA0003797503210000105
之间的误差:
Figure BDA0003797503210000103
Figure BDA0003797503210000104
不同方法之间的对比实验结果如表1所示,数字越小表示预测结果越精确,可以看出不管在全尺度范围还是在不同的尺度层级中,深空尺度估计网络模型皆取得了最优异的结果,相比于其他方法甚至能达到一个数量级的提升。
表1
Figure BDA0003797503210000111
尺度估计定性结果如表2所示。在进行试验生成数据的过程中会对不同图像对进行标注,标注包括GT(Ground-truth)尺度,用来评估这些方法的精度。
表2
Figure BDA0003797503210000112
表中数据记录了使用本申请方法与其他方法(IBE、ScaleNet和Area Algorithm)对不同尺度下测试集的图像对进行匹配的试验结果,其中第二列对应的是不同图像对的真实。可以看到,与其他方法相比,深空尺度估计网络模型对光照变化和视点变化的鲁棒性更强,从而能得到更精确的尺度分布。
从上述对本发明的具体描述可以看出,本发明解决了小天体图像在发生大尺度变化时无法正确匹配的问题,生成了第一个用于小天体尺度估计和图像匹配的仿真数据集,可用于小天体场景的图像匹配、视觉定位、超分辨率重建、语义分割、三维重建等任务。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种大尺度不变性的深空小天体图像匹配方法,所述方法包括:
仿真生成不同轨道绕飞小天体时拍摄的图像,建立训练数据集和测试数据集;然后建立深空尺度估计网络模型,使用训练数据集对网络模型进行训练,通过测试数据集获得输入的测试图像之间的尺度分布;
所述深空尺度估计网络模型包括:全局注意力密集ASPP模块和相关感知分布预测模块;所述全局注意力密集ASPP模块,用于对输入图像的特征图进行处理获取相关特征图;所述相关感知分布预测模块基于Transformer结构的下采样模块建立,用于对相关特征图进行处理得到尺度分布;
最后,将尺度分布转换为尺度因子,根据尺度因子对输入图像进行缩放将图像特征调整到相同尺度级别,实现大尺度变化下的图像匹配。
2.根据权利要求1所述的大尺度不变性的深空小天体图像匹配的方法,其特征在于,所述方法中,使用训练数据集对网络模型进行训练时包括以下步骤:
1)仿真生成不同轨道绕飞小天体时拍摄的图像,建立训练数据集和测试数据集;
2)建立深空尺度估计网络模型:所述深空尺度估计网络还包括预训练模型,用于对输入图像进行特征图提取;
建立基于全局注意力机制的空洞空间卷积池化金字塔ASPP模块,并基于空洞空间卷积池化金字塔ASPP模块和广义相加模型建立全局注意力密集ASPP模块;基于Transformer结构的下采样模块、平均池层和全连接层建立相关感知分布预测模块;基于预训练模型、全局注意力密集ASPP模块和相关感知分布预测模块建立深空尺度估计网络模型;
3)设置损失函数,使用训练数据集对深空尺度估计网络模型进行训练,得到训练好的网络模型。
3.根据权利要求2所述的大尺度不变性的深空小天体图像匹配的方法,其特征在于,所述步骤1)使用Blender仿真引擎生成小天体图像数据集,具体包括:在Blender仿真引擎中添加小天体模型,将其质心作为世界坐标系原点,在小天体附近放置四个光源,将相机放置在不同轨道高度,环绕拍摄多张图像,其中相机z轴始终指向小天体质心。
4.根据权利要求1所述的大尺度不变性的深空小天体图像匹配的方法,其特征在于,所述获取相关特征图的过程具体包括:
首先,对输入的不同轨道绕飞小天体时拍摄的图像,包括高轨道拍摄图像A和低轨道拍摄图像B,分别通过VGG特征提取器获取特征图,并分别将对应的特征图F输入全局注意力密集ASPP模块;
然后,通过广义相加模型对特征图进行处理:分别通过通道注意力门和空间注意力门进行细化,表达式为:
Figure FDA0003797503200000021
Figure FDA0003797503200000022
其中,F′和F″分别为通道细化和空间细化的特征图,Mc(F)为通过通道注意力门后得到通道模块的注意力特征图、Ms(F′)为通过空间注意力门后得到空间模块的注意力特征图,
Figure FDA0003797503200000023
为元素级别乘法;
最后,将细化的特征图F″送入致密空洞空间卷积池化金字塔ASPP模块,通过密集的连接对特征图的多尺度信息进行编码,分别获得图像A、图像B的自相关特征图地图以及图像A和图像B的互相关特征图地图,并将图像A和图像B的自相关特征图地图以及互相关特征图地图在通道维度上进行拼接。
5.根据权利要求4所述的大尺度不变性的深空小天体图像匹配的方法,其特征在于,所述致密空洞空间卷积池化金字塔ASPP模块包括一个级联的空洞卷积层。
6.根据权利要求4所述的大尺度不变性的深空小天体图像匹配的方法,其特征在于,所述相关感知分布预测模块包括:堆叠的变换器下采样模块、平均池层和一组全连接层。
7.根据权利要求6所述的大尺度不变性的深空小天体图像匹配的方法,其特征在于,所述对相关特征图进行处理得到尺度分布,包括:
首先,将拼接后的相关图Ccat输入相关感知分布预测模块;
然后,通过Transformer结构的下采样模块对Ccat的高度和宽度进行下采样处理;
之后,将处理后的相关图前馈到平均池化层进行池化操作;
最后,将池化后的相关图扁平化,并通过一组全连接层处理以获得尺度分布。
8.根据权利要求7所述的大尺度不变性的深空小天体图像匹配的方法,其特征在于,所述Transformer结构的下采样模块的数量N=2;所述下采样模块包括一个3×3卷积层,一个多头注意力层,最后是一个3×3卷积层;每个3×3卷积层之后是一个批处理归一化层和ReLu激活函数,最后一个卷积层的步长设置为2。
9.根据权利要求2所述的大尺度不变性的深空小天体图像匹配的方法,其特征在于,所述方法使用Kullback-Leibler散度作为损失函数Loss(A,B),表达式为:
Figure FDA0003797503200000031
其中,KL(·,·)为Kullback-Leibler散度函数,PB→A为估计分布,
Figure FDA0003797503200000032
为真实分布。
10.根据权利要求1所述的大尺度不变性的深空小天体图像匹配的方法,其特征在于,所述方法将尺度分布转换为尺度因子,包括:图像A到图像B的尺度因子SA→B,表达式为:
Figure FDA0003797503200000033
其中,σ=2;
Figure FDA0003797503200000034
为定义在尺度空间的图像A到B的全局尺度因子,
Figure FDA0003797503200000035
Figure FDA0003797503200000036
Figure FDA0003797503200000037
为在尺度空间的图像A到B的尺度因子,
Figure FDA0003797503200000038
Figure FDA0003797503200000039
Figure FDA00037975032000000310
为在尺度空间的图像B到A的尺度因子,
Figure FDA00037975032000000311
Figure FDA00037975032000000312
当算法估计的
Figure FDA00037975032000000313
Figure FDA00037975032000000314
完全准确时,二者互为相反数,即可得到
Figure FDA00037975032000000315
L为尺度级别,L=13;Si为第i个级别的尺度因子,Si=σt;上角标i表示第i个尺度等级,i∈[0,1…,L-1];t的取值范围是
Figure FDA00037975032000000316
范围内的所有整数;一个尺度等级Si分别对应一个分布概率
Figure FDA00037975032000000317
Figure FDA00037975032000000318
Figure FDA00037975032000000319
表示第i个级别的对于图像A到B的分布概率;
Figure FDA00037975032000000320
表示第i个级别的对于图像B到A的分布概率。
CN202210975909.3A 2022-08-15 2022-08-15 一种大尺度不变性的深空小天体图像匹配的方法 Active CN115359271B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210975909.3A CN115359271B (zh) 2022-08-15 2022-08-15 一种大尺度不变性的深空小天体图像匹配的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210975909.3A CN115359271B (zh) 2022-08-15 2022-08-15 一种大尺度不变性的深空小天体图像匹配的方法

Publications (2)

Publication Number Publication Date
CN115359271A true CN115359271A (zh) 2022-11-18
CN115359271B CN115359271B (zh) 2023-04-18

Family

ID=84033159

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210975909.3A Active CN115359271B (zh) 2022-08-15 2022-08-15 一种大尺度不变性的深空小天体图像匹配的方法

Country Status (1)

Country Link
CN (1) CN115359271B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626300A (zh) * 2020-05-07 2020-09-04 南京邮电大学 基于上下文感知的图像语义分割模型及建模方法
CN112668494A (zh) * 2020-12-31 2021-04-16 西安电子科技大学 基于多尺度特征提取的小样本变化检测方法
CN113435495A (zh) * 2021-06-23 2021-09-24 北京理工大学 行星着陆协同导航特征匹配方法
CN113870335A (zh) * 2021-10-22 2021-12-31 重庆邮电大学 一种基于多尺度特征融合的单目深度估计方法
CN114155210A (zh) * 2021-11-17 2022-03-08 大连民族大学 基于注意力机制与标准化密集空洞空间多尺度融合网络的人群计数方法
US20220108542A1 (en) * 2019-02-18 2022-04-07 Samsung Electronics Co., Ltd. Image processing method and apparatus, electronic device and computer readable storage medium
CN114723973A (zh) * 2022-02-22 2022-07-08 中国科学院自动化研究所 大尺度变化鲁棒的图像特征匹配方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220108542A1 (en) * 2019-02-18 2022-04-07 Samsung Electronics Co., Ltd. Image processing method and apparatus, electronic device and computer readable storage medium
CN111626300A (zh) * 2020-05-07 2020-09-04 南京邮电大学 基于上下文感知的图像语义分割模型及建模方法
CN112668494A (zh) * 2020-12-31 2021-04-16 西安电子科技大学 基于多尺度特征提取的小样本变化检测方法
CN113435495A (zh) * 2021-06-23 2021-09-24 北京理工大学 行星着陆协同导航特征匹配方法
CN113870335A (zh) * 2021-10-22 2021-12-31 重庆邮电大学 一种基于多尺度特征融合的单目深度估计方法
CN114155210A (zh) * 2021-11-17 2022-03-08 大连民族大学 基于注意力机制与标准化密集空洞空间多尺度融合网络的人群计数方法
CN114723973A (zh) * 2022-02-22 2022-07-08 中国科学院自动化研究所 大尺度变化鲁棒的图像特征匹配方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FU,YUJIE等: "Scale-Net:Learning to Reduce Scale Differences for Large-Scale Invariant Image Matching" *
王博宁: "小天体探测器着陆段导航特征提取及位姿估计算法研究" *

Also Published As

Publication number Publication date
CN115359271B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
US20230184927A1 (en) Contextual visual-based sar target detection method and apparatus, and storage medium
RU2476825C2 (ru) Способ управления движущимся объектом и устройство для его осуществления
Cai et al. MHA-Net: Multipath Hybrid Attention Network for building footprint extraction from high-resolution remote sensing imagery
CN110189304A (zh) 基于人工智能的光学遥感图像目标在线快速检测方法
CN113554032B (zh) 基于高度感知的多路并行网络的遥感图像分割方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN111223087B (zh) 一种基于生成对抗网络的桥梁裂缝自动检测方法
CN113610905B (zh) 基于子图像匹配的深度学习遥感图像配准方法及应用
CN117237740B (zh) 一种基于CNN和Transformer的SAR图像分类方法
CN114241053A (zh) 基于改进的注意力机制FairMOT多类别跟踪方法
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
CN112785636A (zh) 一种多尺度增强式的单目深度估计方法
CN115188066A (zh) 基于协同注意力和多尺度融合的运动目标检测系统及方法
Guo et al. Dim space target detection via convolutional neural network in single optical image
CN114266805A (zh) 一种用于无人机目标跟踪的孪生区域建议网络模型
Cao et al. Detection method based on image enhancement and an improved faster R-CNN for failed satellite components
CN113160085B (zh) 一种基于生成对抗网络的水花遮挡图像数据集采集方法
CN115359271B (zh) 一种大尺度不变性的深空小天体图像匹配的方法
CN112132880A (zh) 一种基于稀疏测量和单目rgb图像的实时稠密深度估计方法
CN116402874A (zh) 基于时序光学图像与激光雷达数据的航天器深度补全方法
Ufuktepe et al. Learning-based shadow detection in aerial imagery using automatic training supervision from 3D point clouds
CN115984443A (zh) 一种可见光相机的空间卫星目标图像仿真方法
CN115035429A (zh) 一种基于复合主干网络和多预测头的航拍目标检测方法
Yin et al. M2F2-RCNN: Multi-functional faster RCNN based on multi-scale feature fusion for region search in remote sensing images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant