CN113610905A - 基于子图像匹配的深度学习遥感图像配准方法及应用 - Google Patents
基于子图像匹配的深度学习遥感图像配准方法及应用 Download PDFInfo
- Publication number
- CN113610905A CN113610905A CN202110883234.5A CN202110883234A CN113610905A CN 113610905 A CN113610905 A CN 113610905A CN 202110883234 A CN202110883234 A CN 202110883234A CN 113610905 A CN113610905 A CN 113610905A
- Authority
- CN
- China
- Prior art keywords
- image
- sub
- images
- matching
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000013135 deep learning Methods 0.000 title claims abstract description 26
- 230000009466 transformation Effects 0.000 claims abstract description 43
- 230000004927 fusion Effects 0.000 claims abstract description 27
- 239000013598 vector Substances 0.000 claims abstract description 22
- 238000012216 screening Methods 0.000 claims abstract description 12
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims abstract description 8
- 230000000875 corresponding effect Effects 0.000 claims description 34
- 238000012549 training Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000013519 translation Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 230000002596 correlated effect Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000009827 uniform distribution Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 6
- 238000012360 testing method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
基于子图像匹配的深度学习遥感图像配准方法及应用,包含由卷积神经网络完成的子图像匹配和变换参数估计两个阶段,1,从图像中裁剪一系列含有多个特征的子图像,通过带特征向量内积结构的子图像相似度学习网络ScoreCNN提取子图像特征,并在融合阶段估计子图像的相似度;根据相似度利用快速筛选算法寻找置信度高的匹配的子图像;2,把匹配的子图像对其对应的在原图像中的坐标输入到带有权重结构和位置编码的变换参数估计网络ETPN中,输出待配准图像之间的变换矩阵。本发明解决了传统配准框架中对于特征变化大的图像配准存在的正确匹配的特征数量不足导致算法失败的问题,同时提高了基于参数回归的深度学习配准方法的精度。
Description
技术领域
本发明涉及一种图像配准方法及其应用,尤其是涉及一种基于子图像匹配的深度学习遥感图像配准方法及其应用,属于图像处理领域。
背景技术
图像配准是遥感图像处理的重要过程之一,是后续遥感信息应用的基础。近年来,遥感图像逐渐向高空间分辨率、高光谱分辨率、高时间分辨率方向发展,高分辨率的航空和卫星遥感图像的应用场景越来越多,如城市发展、地理变化评估、土地分析等。遥感图像配准的鲁棒性和精度对变化检测、图像融合等后续任务有重要的影响。多时相高分辨率的光学遥感图像通常受到复杂变化的影响,如日照、云、雾、霾等引起的遮挡和亮度、对比度等的变化,人类活动和自然灾害造成的土地和建筑物的外观和边界的变化,低空拍摄起伏的地形和高大建筑物产生复杂几何形变等,这些都使遥感图像配准变得困难。
遥感图像配准是建立不同条件下拍摄的某一相同区域的遥感图像之间的对应关系。目前,遥感图像配准技术已取得了很多研究成果,但大部分配准方法是基于传统特征匹配的框架,即在图像中利用手工设计的算子提取并描述点、线或面特征,然后对特征进行匹配和异常点剔除,利用筛选后的匹配特征位置计算变换关系。
现有技术,如申请号:CN 202110166034.8,公开号:CN112861714A公开一种基于深度学习和多子图匹配的遥感图像匹配方法,然而,该现有技术中的子图指遥感图像中不同地物类型的分布图,大小与原图相同。该技术是基于传统特征匹配的框架的方法之一。
这类算法在正确的匹配点较多时精度较高,但应用场景局限大且对高分辨率、存在大幅度的几何变形和复杂内容改变的遥感图像容易因为正确匹配少而配准失败。随着深度学习在计算机视觉领域的发展,有一些研究利用神经网络提取特征实现遥感图像的配准,取得了一定成效,但也受限于需要足够多的匹配的局部特征点的要求。为了实现快速配准,也有研究直接向神经网络输入整幅遥感图像自动回归变换模型参数,获得了很高的鲁棒性,但大幅度的降采样使得这种方法依赖于明显的轮廓特征,精度也相应较差。目前还没有一种充分利用遥感图像的高分辨率信息,且基于参数回归的深度学习遥感图像配准方法。
发明内容
为了解决对于对具有较大差异的多时相高分辨率遥感图像,基于局部特征的方法容易失效和基于参数回归的深度学习方法精度较低的问题,本发明提出了一种基于子图像匹配的深度学习遥感图像配准方法。
本发明的方法采用如下技术方案:
一种基于子图像匹配的深度学习遥感图像配准方法,以实现光学遥感图像之间的配准,该方法包含由卷积神经网络完成的子图像匹配和变换参数估计两个阶段,阶段一:从图像中裁剪一系列含有多个特征的子图像,通过带特征向量内积结构的子图像相似度学习网络ScoreCNN提取子图像特征,并在融合阶段估计子图像的相似度;根据相似度利用快速筛选算法寻找置信度高的匹配的子图像;阶段二:把所述匹配的子图像对其对应的在原图像中的坐标输入到带有权重结构和位置编码的变换参数估计网络ETPN中,输出待配准图像之间的变换矩阵。
进一步的,所述的子图像匹配为:从图像中裁剪一系列中等大小的图像块作为子图像,通过基于孪生卷积神经网络的带特征向量内积结构的子图像相似度学习网络ScoreCNN提取子图像特征,并在融合阶段估计子图像的相似度。
进一步的,所述的子图像匹配具体步骤为:
(2)、根据热图Mk寻找与匹配的子图像,存在基准子图像与匹配的条件是:①Mk的最大值m1大于相似度阈值l,②第二大极值m2满足m2<m1-t,t 为相似度差的阈值,③m2所在位置在m1的半径为r的邻域之外;
(5)、重复以上步骤直到遍历所有待配准图像中的子图像。
进一步的,所述的子图像相似度学习网络ScoreCNN结构中,在特征网络提取子图像的稠密特征后,在特征融合阶段把子图像特征图中的各特征向量进行内积,随后主要通过两个卷积层和一个全连接层实现从融合特征到相似度的映射;卷积层后紧跟着ReLU激活函数和最大池化。
进一步的,所述ETPN提取和融合子图像对的特征和对应的坐标编码向量;为了利用不确定数量的匹配子图像直接估计变换矩阵和减小低质量的输入的影响,根据学习的权重对子图像的特征进行加权平均;权重结构中通过卷积层和特征图平均的操作进一步提取特征,与子图像的特征进行相关,产生每对子图像的权重。
进一步的,ETPN网络的参数估计过程如下:
(1)、向所述ETPN的特征提取和位置编码模块分别输入筛选后的所有匹配子图像及其在原图像中的中心坐标,得到每个子图像的特征集和位置编码向量;
(2)、融合对应两个子图像特征得到子图像对的特征集,连接所述的子图像对的特征集和对应的位置编码向量,得到融合特征集;
(3)、把所述融合特征集输入到所述ETPN中带权重结构的回归模块中,输出回归的变换模型的参数预测结果;所述回归模块的主干由通道注意力结构、加权平均层、卷积层和全连接层组成;所述的权重结构为主干中的分支结构,位于通道注意力结构和加权平均层之间;所述融合特征集在经过通道注意力结构后流经分支中的卷积层和特征图平均层得到合并的特征图并自相关,经过权重生成层得到各匹配子图像对应的权重值。
进一步的,所述的ScoreCNN和ETPN网络采用样本共用的训练方式,具体步骤如下:
(1)、从待配准图像中以相等间隔或根据其他方式提取的特征点位置裁剪出一定数量的大小相同且适中的子图像Is,其中子图像包含的区域要求分布均匀且大致覆盖整个图像;
(2)、根据真实的变换模型计算基准图像中相应的子图像区域中心,裁剪同样大小的邻域与步骤(1)中对应的Is组成正样本,负样本由任意两个非对应位置的子图像组成;
(3)、把所述的正样本中,中心点变换后超出边界的和含有弱纹理子图像的样本重新设置为负样本,其中弱纹理图像的G、B通道的标准差σG、σB同时满足:
σG<TH,σB<TH;
其中TH是设定的非弱纹理图像块像素值的最小标准差阈值;
(4)、向ScoreCNN输入数量比约1:1的所述正负样本进行训练;选取相似度大于设定的匹配阈值Ts的所述正样本,输入ETPN进行训练,实现正样本共用;
(5)、根据网络的预测结果和真值计算分类损失函数和回归损失函数,进行反向传播。
进一步的,所述的ScoreCNN和ETPN网络训练样本采用基于区域外接矩形的随机平移的数据增强策略,具体步骤如下:
(1)、根据真实的变换关系H,计算待配准子图像的中心点和四个顶点在基准图像中对应的坐标(x',y')=H((x,y)),其中(x,y)是点在待配准图像上的坐标, (x',y')是点在基准图像上的坐标;
(2)、根据所述中心点变换后的位置选取固定大小的初始基准子图像,该基准子图像位置可在一定范围内平移,该范围内的子图像仍覆盖了对应的特征;所述的平移范围为四个顶点在基准图像上所构成的四边形区域的外接矩形边框与初始基准子图像边框的间隙。
本发明还将所述基于子图像匹配的深度学习遥感图像配准方法应用于遥感卫星采集的遥感图像中。
本发明的技术方案能够实现如下有益的技术效果:
本发明提出了一种快速筛选算法从候选图像中筛选出高质量的匹配对,该算法通过不同位置的相似度组成的热图制定规则;在子图像匹配阶段中,提出的 ScoreCNN网络用于估计图像块之间的相似性,该网络包含一个用于特征融合的内积结构。在匹配的子图像的基础上,在变换参数估计中提出的带有权重结构和位置编码的ETPN网络用于直接估计不确定数目的匹配子图像的变换模型参数,同时减轻低质量输入的影响。
此外,为了对提出的模型进行充分的训练,本发明提出了在线生成共用训练样本的方法和基于区域外接矩形的随机平移数据增强策略,提高了训练效率和泛化性能。本发明在各种地形的多时相高分辨率的光学遥感图像中具有鲁棒性强,匹配准确率高的特点,且提升配准精度和性能。
附图说明
图1为本发明中遥感图像配准方法工作流程;
图2为本发明ScoreCNN结构图;
图3为本发明ETPN结构和工作流程;
图4为本发明ETPN中的带权重结构的参数回归模块;
图5为本发明训练正样本的生成和数据增强示意图;
图6为本发明的具体实施例中定性的配准结果对比图。
具体实施方式
基于子图像匹配的深度学习遥感图像配准方法,该方法实现光学遥感图像之间的配准,包含由卷积神经网络完成的子图像匹配和变换参数估计两个阶段,其特征在于:
阶段一:从图像中裁剪一系列含有多个特征的子图像,通过带特征向量内积结构的子图像相似度学习网络ScoreCNN提取子图像特征,并在融合阶段估计子图像的相似度;根据相似度利用快速筛选算法寻找置信度高的匹配的子图像;
阶段二:把所述匹配的子图像对其对应的在原图像中的坐标输入到带有权重结构和位置编码的变换参数估计网络ETPN中,输出待配准图像之间的变换矩阵。
下面我们将对上述技术方案作出详细阐述。
参见附图1所示,本发明提出的基于子图像匹配的深度学习遥感图像配准方法,包含了基于孪生卷积神经网络完成的子图像匹配和变换参数估计两个阶段,其中,阶段一结合了子图像匹配网络和一种快速筛选算法;阶段二是一个带权重结构和位置编码的变换参数估计网络。
本发明提出的遥感图像配准方法输入为尺寸大于子图像的两幅待配准的光学遥感图像,其中裁剪的子图像大小为240×240,输出为输入的两幅图像之间的变换模型参数。图像间的变换模型可以设置为仿射模型、投影模型、多项式模型等,不同的设置影响变换参数估计网络ETPN最后一层的输出参数个数和训练时的变换参数真值。方法的整个执行过程除了上述输入输出外,还具体包括如下工作流程:
子图像匹配:从图像中裁剪一系列中等大小的图像块作为子图像,通过基于孪生卷积神经网络的带特征向量内积结构的子图像相似度学习网络ScoreCNN 提取子图像特征,并在融合阶段估计子图像的相似度;根据相似度利用快速筛选算法寻找置信度高的匹配的子图像。
该子图像匹配具体方法如下:
1)相似度学习网络构建:
参见图2所示,构建的所述子图像匹配中的相似度学习网络ScoreCNN是一个孪生网络,由特征提取、特征融合和度量层三个部分组成。
①特征提取
特征提取部分采用双流共享权重的结构,骨干网络采用ResNet-18,选取其中的第一到三层。从输入的子图像中提取三维稠密特征,得到d×h×w大小的特征图,其中d是特征的维数,随着采用的骨干网络不同而变化,在ResNet-18 的骨干网络下d、h、w分别为256、15、15。
②特征融合
对基准子图像和待配准子图像的特征图中的特征向量根据公式cAB=< fA,fB>进行内积,得到融合特征图CAB,其中fA、fB分别为待配准子图像和基准子图像的特征图中的特征向量,基准子图像的特征图被展开为二维的特征,cAB为某一行某一列的fA与某一fB相乘后的标量。
③度量层
度量层对融合特征图中的特征向量的相关信息估计输入子图像的相似度,由两个3×3的卷积滤波器、ReLU激活函数、最大池化和自适应平均池化层、全连接层组成,其中两个3×3卷积滤波器的通道数分别为128和64,步长为1,填充为0,后面紧跟ReLU和最大池化层。在训练过程中对输出用Sigmoid函数进行逻辑回归。度量层输出两个子图像之间的相似度。
2)快速筛选算法
所述子图像匹配中,一种快速筛选算法具体步骤如下:
步骤b、寻找热图Mk中的最大值m1及其所在的位置;
步骤e、重复以上步骤直到遍历所有待配准图像中的子图像。
其中st的设置应小于子图像的大小,可设为20个像素;l、r、t设置为0.5、 5、1。r是热图中的距离,对应到原图中的像素距离为r·st。
变换参数估计:把所述的匹配的子图像对及其对应的在原图像中的坐标输入到带有权重结构和位置编码的变换参数估计网络ETPN中。ETPN提取和融合子图像对的特征,并根据学习的权重对子图像的特征进行加权,最后输出待配准图像间的变换矩阵。
该变换参数估计方法具体如下:
变换参数估计网络构建
参见图3所示,所述的变换参数估计中,ETPN主要由以下四个部分组成:特征提取、位置编码、特征融合和参数回归。
①特征提取
特征提取的骨干网络采用SE-ResNeXt101以达到最好的性能,选取其中的第一到三层,输入为子图像Is,i、It,i,i=1,2,…,m,输出d×h×w大小的特征图fA,i、 fB,i,i=1,2,…,m,其中d是特征的维数,随着采用的骨干网络不同而变化,在该骨干网络下大小为512×15×15。
②位置编码
位置编码用于对图像块在原图上的坐标进行编码,采用可学习的编码方式,由两个共享权重的全连接层组成,输入为子图像在原图像中对应的归一化图像坐标,输出为15×15大小的二维向量,基准子图像坐标和待配准子图像坐标连接成为编码向量集其中h和w皆为15。
③特征融合
特征融合用于获得匹配子图像特征的相似信息,与对应的坐标编码信息一同输入到后续的网络中。对①中对应的基准子图像和待配准子图像特征图的特征向量进行内积,过程与ScoreCNN的特征融合部分类似,得到子图像对的特征集各子图像对的特征与对应的位置编码向量按特征维度拼接成融合特征集其中h和w皆为15。
④参数回归
参数回归的网络结构如图4所示,主干依次由通道注意力结构、加权平均层、三个卷积层和两个连续的全连接层组成,其中卷积层后紧跟归一化层和ReLU激活函数。为了同时利用不确定数量的匹配子图像融合特征{Vi}直接估计变换矩阵的参数,并减小低质量的子图像的影响,本发明设计了权重结构分支,使得网络允许任意数目的输入并学习各子图像特征的加权系数,实现特征的进一步融合和对异常进行自识别和抑制。
其中,所述通道注意力中的特征通道数压缩倍数为16,即从227维到14维。所述的权重结构分支位于通道注意力结构和加权平均层之间,包含两个卷积层、特征图平均层和权重生成块,其中每个卷积层后紧跟归一化和ReLU函数,特征图平均层即对特征集中的对应位置的参数取平均。权重结构有两种不同的可行的结构,区别在于卷积层和特征图平均层的先后位置不同,如图4所示,结构1 为先卷积后平均,结构2为先平均后卷积,相应地卷积通道数也随之不同,但共同点是卷积和平均后的模板特征图大小一致,并且与{CAi}进行相关,本质上完成了特征自相关的操作。权重结构的后端的权重生成块由全局平均池化层、两个连续的1×1大小的卷积核和Softmax函数构成,生成对应于每个特征图CAi的归一化权重系数。
ETPN中的卷积核默认步长为1,填充为0。
为了使ScoreCNN和ETPN可以同时训练,提高训练效率的同时不影响最终的配准性能,本发明提出了在线生成共用的样本的训练方法,具体步骤如下:
①从待配准图像中裁剪出数量为ns的大小为Hs×Ws的子图像Is;
②根据真实的变换模型H计算基准图像中相应的子图像区域中心H((xc,yc)),其中(xc,yc)为待配准子图像的中心坐标;
③裁剪同样大小的邻域与对应的Is组成正样本,如图5所示,负样本由任意两个非对应位置的子图像组成;
④把所述的正样本中,中心点变换后超出边界的和含有弱纹理子图像的样本重新设置为负样本,其中弱纹理图像的G、B通道的像素值的标准差σG、σB同时满足:
σG<TH,σB<TH; (3)
其中阈值TH是设定的非弱纹理图像块像素值的最小标准差。
⑤向ScoreCNN输入数量比约1:1的所述正负样本;选取相似度大于阈值Ts的所述正样本输入ETPN;根据网络的预测结果和真值计算分类损失函数和回归损失函数,进行反向传播。
其中①裁剪的子图像由于需要包含多个特征,不能过小,考虑到计算成本也不宜过大,Hs×Ws可取240×240;子图像所包含的区域要求分布均匀且大致覆盖整个图像,如对于1080×1080大小的遥感图像,ns应不小于25,选取的方式可采用等间隔均匀选取或利用特征算子提取并筛选出均匀分布的特征点。步骤③和④中的负样本个数多于正样本,为了平衡正负样本,使比例趋于1:1,可以采取减少负样本或者重新在图像中选取其他位置的正样本替换由④中的负样本。步骤⑤中ScoreCNN和ETPN共用的是生成的正样本。在线生成指每次输入的样本不是事先存储而是在线计算的,目的是减少本地存储的占用和增加输入的不重复样本的数量,充分利用原遥感图像中的信息。阈值TH和Ts分别设置为0.3和 0.5。
为了进一步增加训练样本的数量,加强网络的泛化性能,本发明提出了对于裁剪的正样本的数据增强,即基于外接矩形的随即平移,可应用于ScoreCNN和 ETPN的训练以及类似的需要生成对应样本的训练。由于负样本是随机选取产生的,本身的位置带有随机性,所以不需要应用该策略。数据增强的过程具体如下:
①根据真实的变换关系H,计算待配准子图像的中心点和四个顶点在基准图像中对应的坐标(x',y')=H((x,y)),其中(x,y)是点在待配准图像上的坐标, (x',y')是点在基准图像上的坐标;
②以所述中心点(xc,yc)变换后的位置(x'c,y'c)为子图像中心,选取初始基准子图像It;
③对It的位置以(x'c,y'c)为中心在一定范围内进行随机平移,生成增强后的基准子图像I't;
其中所述的平移范围为四个变换后的顶点(x',y')在基准图像上所构成的四边形区域的外接矩形边框与初始基准子图像边框的间隙。当所述外接矩形比子图像尺寸大时,子图像始终位于外接矩形边框内部;反之则外接矩形始终位于子图像边框内部。上述两种情况的示意图参见图5右侧。
具体实施效果
用训练好的网络模型根据实施例中的流程进行配准,并用Google Earth采集的500张高分辨率遥感图像进行测试。测试集的图像包含了各类地形如高楼、河岸、桥梁、田地、荒地、森林等,且每张图设置了20个控制点用以评估配准性能。将本发明的算法配准结果与传统配准框架和现有的最新的基于参数回归的深度学习方法进行对比。对于该测试集采用的总体评价指标为PCK(The probability of correct keypoints),反映的是配准的鲁棒性和整体的精度。 PCK的定义如下:
其中,N为所有点的数量,为点变换后的位置,为点的真实位置,若它们之间的距离小于L,则认为是匹配,L=τ·max(h,w),τ是匹配的阈值, (h,w)是图像的高和宽。配准的结果如表1,从表中可以看出本发明的方法在仅采用主干结构(无权重结构)和加入了权重结构1和2的模型下都获得了最佳的配准性能。
表1是对所有测试图像配准的PCK对比。表中SIFT的完整配准方法流是 SIFT+RANSAC,DAM是现有的基于参数回归的双流结构神经网络配准模型,骨干网络为SE-ResNeXt101。k是设置的选取参考图像中的子图像数量。
表1
选取部分具有代表性的图像,如时间跨度大、植被变化、地形起伏大、遮挡、存在剧烈变换的遥感图像,对不同的配准方法进行定性和定量的对比展示。不同方法配准的定性对比结果如图6,可以看出在在关键部分如道路的衔接上比其他方法更佳,配准的精度更高。
图6中每一行展示了一个来自测试图像的例子。结果对齐的好坏以交错覆盖的棋盘格形式展现,黄框和红框分别是本发明和其他方法配准的部分关键局部细节。
对于图6中的测试图像的定量结果对比如表1,采用的评价指标为平均绝对误差(MAE),反映了配准的像素误差,其定义如下:
表2是定量的配准结果对比,分别利用SIFT、DAM和本方法配准的误差,”\”表示配准完全失败的结果。MAE:平均绝对误差。k:设置的选取参考图像中的子图像数量。
表2
本发明提出的子图像匹配技术基于中等大小的包含多个特征的图像块,而非以精确的特征点为中心的邻域,使后续流程无需进行传统方法中繁琐的异常点剔除的同时降低了对特征定位和匹配的难度,解决了传统配准框架中对于特征变化大的图像配准存在的正确匹配的特征数量不足导致算法失败的问题。本发明利用匹配子图像的相似度热图进行快速筛选,提高了匹配的准确率。针对不确定数量的子图像对的输入,提出的变换参数估计网络通过权重结构和位置编码实现了子图像对的快速变换参数回归,充分利用了输入图像的高分辨信息,减轻了低质量输入的影响,提高了配准的精度。本发明利用计算的真实的对应子图像中心坐标生成训练的子图像对,在ScoreCNN和ETPN的训练中共用生成的正样本,提高了训练效率。提出的数据增强策略在基于区域外接矩形的有效范围内随机平移对应基准子图像的选取框,提高了模型的泛化性能。本发明提供的两阶段基于子图像匹配的深度学习遥感图像配准方法,在保留深度学习方法鲁棒性强等优点的同时把配准网络细化,提高了基于参数回归的深度学习配准方法的精度,对于各种地形的多时相高分辨率的光学遥感图像的配准具有鲁棒性强,匹配准确率高的优点。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明的范围内。本发明要求的保护范围由所附的权利要求书及其等同物界定。
Claims (9)
1.一种基于子图像匹配的深度学习遥感图像配准方法,以实现光学遥感图像之间的配准,该方法包含由卷积神经网络完成的子图像匹配和变换参数估计两个阶段,其特征在于:阶段一:从图像中裁剪一系列含有多个特征的子图像,通过带特征向量内积结构的子图像相似度学习网络ScoreCNN提取子图像特征,并在融合阶段估计子图像的相似度;根据相似度利用快速筛选算法寻找置信度高的匹配的子图像;阶段二:把所述匹配的子图像对其对应的在原图像中的坐标输入到带有权重结构和位置编码的变换参数估计网络ETPN中,输出待配准图像之间的变换矩阵。
2.根据权利要求1所述的一种基于子图像匹配的深度学习遥感图像配准方法,其特征在于:所述的子图像匹配为:从图像中裁剪一系列中等大小的图像块作为子图像,通过基于孪生卷积神经网络的带特征向量内积结构的子图像相似度学习网络ScoreCNN提取子图像特征,并在融合阶段估计子图像的相似度。
3.根据权利要求2所述的一种基于子图像匹配的深度学习遥感图像配准方法,其特征在于:所述的子图像匹配具体步骤为:
(2)根据热图Mk寻找与匹配的子图像,存在基准子图像与匹配的条件是:①Mk的最大值m1大于相似度阈值l,②第二大极值m2满足m2<m1-t,t为相似度差的阈值,③m2所在位置在m1的半径为r的邻域之外;
(5)重复以上步骤直到遍历所有待配准图像中的子图像。
4.根据权利要求2所述的一种基于子图像匹配的深度学习遥感图像配准方法,其特征在于:所述的子图像相似度学习网络ScoreCNN结构中,在特征网络提取子图像的稠密特征后,在特征融合阶段把子图像特征图中的各特征向量进行内积,随后主要通过两个卷积层和一个全连接层实现从融合特征到相似度的映射;卷积层后紧跟着ReLU激活函数和最大池化。
5.根据权利要求1所述的一种基于子图像匹配的深度学习遥感图像配准方法,其特征在于:所述ETPN提取和融合子图像对的特征和对应的坐标编码向量;为了利用不确定数量的匹配子图像直接估计变换矩阵和减小低质量的输入的影响,根据学习的权重对子图像的特征进行加权平均;权重结构中通过卷积层和特征图平均的操作进一步提取特征,与子图像的特征进行相关,产生每对子图像的权重。
6.根据权利要求5所述的一种基于子图像匹配的深度学习遥感图像配准方法,其特征在于:ETPN网络的参数估计过程如下:
(1)向所述ETPN的特征提取和位置编码模块分别输入筛选后的所有匹配子图像及其在原图像中的中心坐标,得到每个子图像的特征集和位置编码向量;
(2)融合对应两个子图像特征得到子图像对的特征集,连接所述的子图像对的特征集和对应的位置编码向量,得到融合特征集;
(3)把所述融合特征集输入到所述ETPN中带权重结构的回归模块中,输出回归的变换模型的参数预测结果;所述回归模块的主干由通道注意力结构、加权平均层、卷积层和全连接层组成;所述的权重结构为主干中的分支结构,位于通道注意力结构和加权平均层之间;所述融合特征集在经过通道注意力结构后流经分支中的卷积层和特征图平均层得到合并的特征图并自相关,经过权重生成层得到各匹配子图像对应的权重值。
7.根据权利要求1所述的一种基于子图像匹配的深度学习遥感图像配准方法,其特征在于:所述的ScoreCNN和ETPN网络采用样本共用的训练方式,具体步骤如下:
(1)从待配准图像中以相等间隔或根据其他方式提取的特征点位置裁剪出一定数量的大小相同且适中的子图像Is,其中子图像包含的区域要求分布均匀且大致覆盖整个图像;
(2)根据真实的变换模型计算基准图像中相应的子图像区域中心,裁剪同样大小的邻域与步骤(1)中对应的Is组成正样本,负样本由任意两个非对应位置的子图像组成;
(3)把所述的正样本中,中心点变换后超出边界的和含有弱纹理子图像的样本重新设置为负样本,其中弱纹理图像的G、B通道的标准差σG、σB同时满足:
σG<TH,σB<TH;
其中TH是设定的非弱纹理图像块像素值的最小标准差阈值;
(4)向ScoreCNN输入数量比约1:1的所述正负样本进行训练;选取相似度大于设定的匹配阈值Ts的所述正样本,输入ETPN进行训练,实现正样本共用;
(5)根据网络的预测结果和真值计算分类损失函数和回归损失函数,进行反向传播。
8.根据权利要求1所述的一种基于子图像匹配的深度学习遥感图像配准方法,其特征在于:所述的ScoreCNN和ETPN网络训练样本采用基于区域外接矩形的随机平移的数据增强策略,具体步骤如下:
(1)根据真实的变换关系H,计算待配准子图像的中心点和四个顶点在基准图像中对应的坐标(x′,y′)=H((x,y)),其中(x,y)是点在待配准图像上的坐标,(x′,y′)是点在基准图像上的坐标;
(2)根据所述中心点变换后的位置选取固定大小的初始基准子图像,该基准子图像位置可在一定范围内平移,该范围内的子图像仍覆盖了对应的特征;所述的平移范围为四个顶点在基准图像上所构成的四边形区域的外接矩形边框与初始基准子图像边框的间隙。
9.将权利要求1-8任一所述基于子图像匹配的深度学习遥感图像配准方法应用于遥感卫星采集的遥感图像中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110883234.5A CN113610905B (zh) | 2021-08-02 | 2021-08-02 | 基于子图像匹配的深度学习遥感图像配准方法及应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110883234.5A CN113610905B (zh) | 2021-08-02 | 2021-08-02 | 基于子图像匹配的深度学习遥感图像配准方法及应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113610905A true CN113610905A (zh) | 2021-11-05 |
CN113610905B CN113610905B (zh) | 2024-05-07 |
Family
ID=78306532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110883234.5A Active CN113610905B (zh) | 2021-08-02 | 2021-08-02 | 基于子图像匹配的深度学习遥感图像配准方法及应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610905B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114359355A (zh) * | 2021-12-24 | 2022-04-15 | 上海应用技术大学 | 遥感图像配准方法 |
CN114463584A (zh) * | 2022-01-29 | 2022-05-10 | 北京百度网讯科技有限公司 | 图像处理、模型训练方法、装置、设备、存储介质及程序 |
CN114937153A (zh) * | 2022-06-07 | 2022-08-23 | 北京理工大学 | 弱纹理环境下基于神经网络的视觉特征处理系统及方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002065455A1 (en) * | 2001-02-15 | 2002-08-22 | Spescom Datavoice (Pty) Limited | Evaluation system and method for binary classification systems utilizing unsupervised database |
CN105354307A (zh) * | 2015-11-06 | 2016-02-24 | 腾讯科技(深圳)有限公司 | 一种图像内容识别方法及装置 |
-
2021
- 2021-08-02 CN CN202110883234.5A patent/CN113610905B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002065455A1 (en) * | 2001-02-15 | 2002-08-22 | Spescom Datavoice (Pty) Limited | Evaluation system and method for binary classification systems utilizing unsupervised database |
CN105354307A (zh) * | 2015-11-06 | 2016-02-24 | 腾讯科技(深圳)有限公司 | 一种图像内容识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
秦佳;杨建峰;薛彬;卜凡;: "基于向量相似度匹配准则的图像配准与拼接", 微电子学与计算机, no. 06 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114359355A (zh) * | 2021-12-24 | 2022-04-15 | 上海应用技术大学 | 遥感图像配准方法 |
CN114359355B (zh) * | 2021-12-24 | 2023-08-01 | 上海应用技术大学 | 遥感图像配准方法 |
CN114463584A (zh) * | 2022-01-29 | 2022-05-10 | 北京百度网讯科技有限公司 | 图像处理、模型训练方法、装置、设备、存储介质及程序 |
CN114463584B (zh) * | 2022-01-29 | 2023-03-24 | 北京百度网讯科技有限公司 | 图像处理、模型训练方法、装置、设备、存储介质及程序 |
CN114937153A (zh) * | 2022-06-07 | 2022-08-23 | 北京理工大学 | 弱纹理环境下基于神经网络的视觉特征处理系统及方法 |
CN114937153B (zh) * | 2022-06-07 | 2023-06-30 | 北京理工大学 | 弱纹理环境下基于神经网络的视觉特征处理系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113610905B (zh) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113065558B (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN110135366B (zh) | 基于多尺度生成对抗网络的遮挡行人重识别方法 | |
CN113298818B (zh) | 基于注意力机制与多尺度特征的遥感图像建筑物分割方法 | |
CN109584248B (zh) | 基于特征融合和稠密连接网络的红外面目标实例分割方法 | |
CN110363215B (zh) | 基于生成式对抗网络的sar图像转化为光学图像的方法 | |
CN111523521B (zh) | 一种双支路融合多尺度注意神经网络的遥感图像分类方法 | |
CN113610905B (zh) | 基于子图像匹配的深度学习遥感图像配准方法及应用 | |
CN111612008B (zh) | 基于卷积网络的图像分割方法 | |
CN110728658A (zh) | 一种基于深度学习的高分辨率遥感影像弱目标检测方法 | |
CN111738110A (zh) | 基于多尺度注意力机制的遥感图像车辆目标检测方法 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
CN113076871B (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN110197505B (zh) | 基于深度网络及语义信息的遥感图像双目立体匹配方法 | |
CN112084869A (zh) | 一种基于紧致四边形表示的建筑物目标检测方法 | |
CN114782298B (zh) | 一种具有区域注意力的红外与可见光图像融合方法 | |
CN113095371B (zh) | 一种面向三维重建的特征点匹配方法及系统 | |
CN115359372A (zh) | 一种基于光流网络的无人机视频运动目标检测方法 | |
CN114708313A (zh) | 基于双支路神经网络的光学与sar图像配准方法 | |
CN117218201A (zh) | Gnss拒止条件下无人机影像定位精度提升方法及系统 | |
Lentsch et al. | Slicematch: Geometry-guided aggregation for cross-view pose estimation | |
CN114663880A (zh) | 基于多层级跨模态自注意力机制的三维目标检测方法 | |
Wu et al. | TAL: Topography-aware multi-resolution fusion learning for enhanced building footprint extraction | |
CN112529828B (zh) | 参考数据非敏感的遥感影像时空融合模型构建方法 | |
CN112767267B (zh) | 基于仿真偏振带雾场景数据集的图像去雾方法 | |
CN113989612A (zh) | 基于注意力及生成对抗网络的遥感影像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |