CN112733788B - 基于跨传感器迁移的高分辨率遥感影像不透水面提取方法 - Google Patents

基于跨传感器迁移的高分辨率遥感影像不透水面提取方法 Download PDF

Info

Publication number
CN112733788B
CN112733788B CN202110077757.0A CN202110077757A CN112733788B CN 112733788 B CN112733788 B CN 112733788B CN 202110077757 A CN202110077757 A CN 202110077757A CN 112733788 B CN112733788 B CN 112733788B
Authority
CN
China
Prior art keywords
sensor
cross
image
discriminator
domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110077757.0A
Other languages
English (en)
Other versions
CN112733788A (zh
Inventor
王俊珏
钟燕飞
马爱龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202110077757.0A priority Critical patent/CN112733788B/zh
Publication of CN112733788A publication Critical patent/CN112733788A/zh
Application granted granted Critical
Publication of CN112733788B publication Critical patent/CN112733788B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于跨传感器迁移的高分辨率遥感影像不透水面提取方法。本发明结合深度学习理论,设计跨传感器归一化层,利用数据驱动方式层次化自动学习传感器自身辐射特性归一化参数,消除不同遥感传感器间特性差异;并设计传感器相关对抗优化训练,高效优化地物语义相关卷积参数与各传感器相关归一化参数,增强不同数据源影像间深度学习模型的迁移能力。本发明能够解决现有深度迁移学习方法无法顾及传感器特性差异所带来的跨传感器迁移困难的问题,实现从高分辨率机载影像到星载影像的深度不透水面提取模型的迁移,有效提升跨传感器迁移分类与制图的精度。

Description

基于跨传感器迁移的高分辨率遥感影像不透水面提取方法
技术领域
本发明基于遥感图像技术处理领域,特别涉及一种基于跨传感器迁移的高分辨率遥感影像不透水面提取方法。
背景技术
随着对地观测技术的飞速发展,海量多源高分辨率遥感影像不断被各种传感器获取。高分辨率影像使更小的地面物体可见,并可用于探索城市内部的精细结构。城市不透水面指人为的地表覆盖类型,例如道路,建筑物和停车场等防止水渗入土壤的地物。基于多源高分辨率遥感影像高效、精确地绘制和监视城市不透水表面,能够为城市化过程中的城市规划和防灾提供重要信息。
传统的高分辨率遥感影像不透水面提取方法主要为基于支持向量机、随机森林等像素分类与回归方法。为了提高物体识别的完整性,一些面向对象的方法如分水岭算法、分型网络演化算法也被应用,相比基于像素分类方法,面向对象方法考虑了上下文信息和地面物体之间的关系。最近,深度学习算法已成为机器学习和模式识别中的主要范式。相比传统的人工特征提取方法,深度学习为数据驱动方法,能够端对端层次化提取高分辨率遥感影像判别性特征。卷积神经网络(Convolutional Neural Network,CNN)作为一种优秀的深度学习架构,主要包含多个基本算子(卷积,激活,批处理归一化等)。这些基本单元堆叠在一起,能够拟合高分辨率遥感影像复杂地物特征分布。
各测绘部门或事业单位往往拥有小规模航天影像数据及标注,为实现大规模不透水面制图需将识别模型迁移至大规模航天影像上进行制图。然而,现有深度学习方法尚未考虑不同遥感传感器特性,导致不同传感器之间方法迁移能力差。在小规模航天影像不透水面数据集训练得到的网络模型往往不适用于大规模航空影像分类与制图。为了解决此问题,亟需一种跨传感器迁移的高分辨率遥感影像不透水面提取方法,以实现大规模航天影像不透水面提取。
发明内容
本发明的目的在于提出一种基于跨传感器迁移的高分辨率遥感影像不透水面提取方法。
本发明提出了一种基于跨传感器迁移的高分辨率遥感影像不透水面提取方法,考虑不同传感器的差异特性,提高深度学习架构的迁移性,促进基于高分辨率遥感影像的大规模不透水表面提取与制图。从结构和优化的新视角研发了跨传感器不透水面表面提取框架:(1)对于模型结构,提出了具有跨传感器归一化(Cross-sensor Normalization,CSN)的跨传感器特征提取器。CSN包含源归一化和目标归一化,用于编码传感器差异特性。(2)对于模型优化,在传感器相关(Sensor-related Optimization,SR)对抗优化下训练与源域相关的权重(共享卷积和源归一化)和与目标域相关的权重(目标归一化)。所提出的方法通过CSN分离编码传感器差异性,并通过SR优化分别学习共享地物语义特征与传感器相关特征,从而提高了CNN的可迁移性。
本发明方法具有以下显著效果:(1)考虑了不同传感器差异特性,并基于数据驱动自动学习归一化参数,增强深度学习模型对不同传感器的拟合能力;(2)基于传感器相关对抗优化高效训练共享地物语义特征与传感器相关特征,显著提升不同传感器间深度学习模型泛化与迁移能力。
本发明提供基于跨传感器迁移的高分辨率遥感影像不透水面提取方法,实现步骤如下:
步骤1,获取跨传感器高分辨率遥感影像不透水面提取数据集,包括航空机载高分辨率遥感影像与航天星载高分辨率遥感影像,对输入数据进行归一化与数据增强;
步骤2,构建深度跨传感器迁移不透水面提取模型,包括跨传感器归一化层设计与跨传感器特征提取器设计,基于不同源影像输入,获取对应深层特征;
步骤3,设计全卷积判别器,利用跨传感器特征提取器获取的深层特征,判别影像来源;
步骤4,设计传感器相关损失函数对抗优化训练,包括不透水面提取损失函数,对抗损失函数与判别器损失函数的设计,最终迭代对抗优化各类可学习参数;
步骤5,基于训练收敛后的深度跨传感器迁移不透水面提取模型,对未标记星载影像进行预测,利用输出概率获取分类结果。
进一步的,步骤1的具体实现包括如下子步骤,
步骤1.1,利用航空机载传感器与航天星载传感器进行拍摄获取大量高空间分辨率影像;
步骤1.2,对所有影像进行几何校正、辐射校正,并裁剪成1024×1024大小的影像块;
步骤1.3,构建跨传感器不透水面提取数据集,采集航空影像中不透水面像素样本,将样本掩膜与对应区域影像制作成深度学习不透水面分类源域训练集,由于尚未标注航天星载传感器获得的影像,此影像即为待迁移目标域影像;
步骤1.4,源域与目标域影像同时进行归一化,并利用水平翻转、垂直翻转、随机旋转进行数据增强。
进一步的,步骤2的具体实现包括如下子步骤,
步骤2.1,设计跨传感器归一化层,跨传感器归一化层拥有两套归一化参数,一套针对源域传感器参数:βs与γs,一套针对目标域传感器参数:βt与γt;在训练过程中,输入航空源域影像为:
Figure GDA0003705687050000031
航天目标域影像
Figure GDA0003705687050000032
M表示一个批次中影像的数量;首先分别计算源域与目标域影像均值与方差:
Figure GDA0003705687050000033
Figure GDA0003705687050000034
Figure GDA0003705687050000035
然后基于均值与方差对输入影像分别进行归一化:
Figure GDA0003705687050000041
Figure GDA0003705687050000042
其中,
Figure GDA0003705687050000043
为源域影像特征,
Figure GDA0003705687050000044
为目标域影像特征,M表示一个批次中影像的数量,μs与μt分别为源域与目标域特征均值,σs与σt分别为源域与目标域特征标准差,
Figure GDA0003705687050000045
Figure GDA0003705687050000046
分别为源域与目标域归一化后的特征;为了不破坏之前影像特征分布,分别对归一化后的特征进行平移与放缩:
Figure GDA0003705687050000047
Figure GDA0003705687050000048
其中,
Figure GDA0003705687050000049
Figure GDA00037056870500000410
分别为源域与目标域放缩平移后的特征,传感器相关参数βs、γs与βt、γt均为可学习性参数,利用反向传播自动更新;
步骤2.2,设计跨传感器特征提取器,包含深度残差神经网络与多尺度空洞金字塔池化层,深度残差神经网络采用ResNet34网络架构,其中包含16个跨传感器残差模块,每个残差模块包含两个卷积层、一个跨传感器归一化层、一个ReLU激活层与一个残差链接,其中最后3个残差模块中,卷积层的空洞率设置为2,使特征图在保持较高空间分辨率的同时拥有较大感受野;设计多尺度空洞金字塔模型放于深度残差神经网络输出位置,对高层语义与定位特征进行多尺度信息提取,具体包含并行的五个分支:1×1卷积核,3×3空洞率为6卷积核,3×3空洞率为12卷积核,3×3空洞率为18卷积核以及全局平均池化;跨传感器特征提取器为F,其包含卷积层参数为:w,源域归一化参数:βs、γs,目标域归一化参数:βt、γt;源域影像通过跨传感器特征提取器,获取提取器特征:fs=F(S;w,γss);目标影像通过跨传感器特征提取器,获取提取器特征:ft=F(T;w,γtt)。
进一步的,步骤3中构建全卷积判别器与跨传感器特征提取器进行对抗训练,判别提取器处理后的特征来源于目标域或源域;全卷积判别器由5个卷积层组成,卷积核大小为4×4,步长为2;基于此,判别器能够进行为空间压缩表征,并且捕获大量空间上下文信息,特征图随着卷积,通道数量从64个增加到512个,更多的语义特征被抽象化,每个卷积后面接上Leakly-ReLU激活层,公式为:y=max{αx,x},α为负斜率;然后,接入1×1卷积输出二分类概率,判别来自于源域或者目标域,最后对特征图进行双线性内插上采样32倍恢复至原始影像分辨率;全卷积判别器为D,参数为wD,源域提取器特征通过判别器,获取判别器特征:ds=D(fs;wD),目标域提取器特征通过判别器,获取判别器特征:dt=D(ft;wD)。
进一步的,步骤4的具体实现包括如下子步骤,
4.1,不透水面提取损失函数设计,不透水面损失函数为监督多分类损失,基于航空源域影像S与标签Y进行计算得到:
Ls=-YlogΘ(fs) (5)
其中Θ表示softmax归一化层,利用不透水面损失,能够优化跨传感器特征提取器使其学习得到地物分类语义特征;
4.2,对抗损失函数设计,对抗损失函数用于度量目标域特征与源域特征的空间距离,其定义如下:
La=-log(1-θ(dt)) (6)
其中θ表示sigmoid层,对抗损失函数引导跨传感器特征提取器提取域不变特征,提升模型迁移性能;
4.3,判别器损失函数设计,判别器损失用于优化判别器参数,相较于特征提取器用于混淆源域与目标域特征,判别器目的则是正确分辨数据的域来源,判别器损失定义如下:
Ld=-log(1-θ(ds))-log(θ(dt)) (7)
通过Ld优化判别器参数wD,增强其判别能力;
4.4,传感器相关对抗优化训练,基于上述不同损失,迭代进行优化三类可学习性参数:(1)跨传感器特征提取器卷积参数:w;(2)源域归一化参数:βs、γs(3)目标域归一化参数:βt、γt;(4)判别器参数:wD;基于对抗训练策略,具体优化过程如下:
Figure GDA0003705687050000061
Figure GDA0003705687050000062
Figure GDA0003705687050000063
其中,λ表示放缩尺度,(8)与(9)用于优化跨传感器特征提取器,(10)用于优化判别器,不断迭代优化(8)、(9)与(10)直至收敛。
进一步的,对于新的待预测星载遥感影像,将其进行归一化之后输入到步骤4中训练得到的跨传感器特征提取器中,利用收敛后的卷积层参数w与目标域归一化参数βt、γt,得到网络输出的分类概率,取最大值获取分类标签结果,得到不透水层制图结果。
与现有技术相比,本发明的优点和有益效果:本发明结合深度学习理论,设计跨传感器归一化层,利用数据驱动方式层次化自动学习传感器自身辐射特性归一化参数,消除不同遥感传感器间特性差异;并设计传感器相关对抗优化训练,高效优化地物语义相关卷积参数与各传感器相关归一化参数,增强不同数据源影像间深度学习模型的迁移能力。本发明能够解决现有深度迁移学习方法无法顾及传感器特性差异所带来的跨传感器迁移困难的问题,实现从高分辨率机载影像到星载影像的深度不透水面提取模型的迁移,有效提升跨传感器迁移分类与制图的精度。
附图说明
图1是本发明实施例步骤1中某某市跨传感器数据集示意图。
图2是本发明实施例步骤2、3、4中基于跨传感器迁移的高分辨率遥感影像不透水面提取框架图。
图3是本发明实施例步骤5中所输出的2016年0.3米某某市不透水面提取结果。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
如图2所示,本发明提供的一种基于跨传感器迁移的高分辨率遥感影像不透水面提取方法,包括以下步骤:
步骤1,构建2016年某某市跨传感器高分辨率遥感影像不透水面提取数据集,包括航空机载高分辨率遥感影像与航天星载高分辨率遥感影像,为了增加数据的挑战与地物特征方差其中两种影像既包含城区也包含郊区,对输入数据进行归一化与数据增强,如图1所示,此步骤进一步包括:
步骤1.1,利用航空机载传感器与航天星载传感器进行拍摄获取大量高空间分辨率影像;
步骤1.2,对所有影像进行几何校正、辐射校正,并裁剪成1024×1024大小的影像块。
步骤1.3,构建某某市航空机载影像不透水面提取数据集,采集航空影像中不透水面像素样本(Region Of Interest,ROI),将样本掩膜与对应区域影像制作成深度学习不透水面分类源域训练集。由于尚未标注航天星载传感器获得的影像,此影像即为待迁移目标域影像。
步骤1.4,源域与目标域影像同时进行归一化,并利用水平翻转、垂直翻转、随机旋转进行数据增强。
步骤2,构建深度跨传感器迁移不透水面提取模型,主要包括跨传感器归一化层设计与跨传感器特征提取器设计,基于不同源影像输入,获取对应深层特征,如图2所示,此步骤进一步包括:
步骤2.1,设计跨传感器归一化层,跨传感器归一化层拥有两套归一化参数,一套针对源域传感器参数:βs与γs,一套针对目标域传感器参数:βt与γt。在训练过程中,输入航空源域影像为:
Figure GDA0003705687050000081
航天目标域影像
Figure GDA0003705687050000082
M表示一个批次中影像的数量。首先分别计算源域与目标域影像均值与方差:
Figure GDA0003705687050000083
Figure GDA0003705687050000084
其中,
Figure GDA0003705687050000085
为源域影像特征,
Figure GDA0003705687050000086
为目标域影像特征,μs与μt分别为源域与目标域特征均值,σs与σt分别为源域与目标域特征标准差,然后基于均值与标准差对输入影像分别进行归一化:
Figure GDA0003705687050000087
Figure GDA0003705687050000088
其中,
Figure GDA0003705687050000089
Figure GDA00037056870500000810
分别为源域与目标域归一化后的特征,为了不破坏之前影像特征分布,分别对归一化后的特征进行平移与放缩:
Figure GDA00037056870500000811
Figure GDA00037056870500000812
其中,
Figure GDA00037056870500000813
Figure GDA00037056870500000814
分别为源域与目标域放缩平移后的特征,其中传感器相关参数(βs、γs与βt、γt)均为可学习性参数,利用反向传播自动更新。
步骤2.2,设计跨传感器特征提取器,主要包含深度残差神经网络与多尺度空洞金字塔池化层,深度残差神经网络主要采用ResNet34网络架构,其中包含16个跨传感器残差模块,每个残差模块包含两个卷积层、一个跨传感器归一化层、一个ReLU激活层与一个残差链接,其中最后3个残差模块中,卷积层的空洞率设置为2,使特征图在保持较高空间分辨率的同时拥有较大感受野。设计多尺度空洞金字塔模型放于深度残差神经网络输出位置,对高层语义与定位特征进行多尺度信息提取。具体包含并行的五个分支:1×1卷积核,3×3空洞率为6卷积核,3×3空洞率为12卷积核,3×3空洞率为18卷积核以及全局平均池化。跨传感器特征提取器为F,其包含卷积层参数为:w,源域归一化参数:βs、γs,目标域归一化参数:βt、γt。源域影像通过跨传感器特征提取器,获取提取器特征:fs=F(S;w,γss);目标影像通过跨传感器特征提取器,获取提取器特征:ft=F(T;w,γtt);
步骤3,设计全卷积判别器,利用跨传感器特征提取器获取的深层特征,判别影像来源,构建全卷积判别器与跨传感器特征提取器进行对抗训练,判别提取器处理后的特征来源于目标域或源域。全卷积判别器由5个卷积层组成,卷积核大小为4×4,步长为2。基于此,判别器能够进行为空间压缩表征,并且捕获大量空间上下文信息。特征图随着卷积,通道数量从64个增加到512个,更多的语义特征被抽象化。每个卷积后面接上Leakly-ReLU激活层,公式为:y=max{αx,x},α为负斜率,设置为0.2。然后,接入1×1卷积输出二分类概率,判别来自于源域或者目标域,最后对特征图进行双线性内插上采样32倍恢复至原始影像分辨率。全卷积判别器为D,参数为wD,源域提取器特征通过判别器,获取判别器特征:ds=D(fs;wD),目标域提取器特征通过判别器,获取判别器特征:dt=D(ft;wD)。
步骤4,设计传感器相关对抗优化训练,主要包括不透水面提取损失函数,对抗损失函数与判别器损失函数设计,最终迭代对抗优化各类可学习参数,如图2所示,此步骤进一步包括:
步骤4.1,不透水面提取损失函数设计,不透水面损失函数为监督多分类损失,基于航空源域影像S与标签Y进行计算得到:
Ls=-YlogΘ(fs) (5)
其中Θ表示softmax归一化层,利用不透水面损失,能够优化跨传感器特征提取器使其学习得到地物分类语义特征。
步骤4.2,对抗损失函数设计,对抗损失函数用于度量目标域特征与源域特征的空间距离。其定义如下:
La=-log(1-θ(dt)) (6)
其中θ表示sigmoid层,对抗损失函数引导跨传感器特征提取器提取域不变特征,提升模型迁移性能。
步骤4.3,判别器损失函数设计,判别器损失用于优化判别器参数,相较于特征提取器用于混淆源域与目标域特征,判别器目的则是正确分辨数据的域来源。判别器损失定义如下:
Ld=-log(1-θ(ds))-log(θ(dt)) (7)
通过Ld优化判别器参数wD,增强其判别能力。
步骤4.4,传感器相关对抗优化训练,基于上述不同损失,迭代进行优化三类可学习性参数:(1)跨传感器特征提取器卷积参数:w;(2)源域归一化参数:βs、γs(3)目标域归一化参数:βt、γt;(4)判别器参数:wD。基于对抗训练策略,具体优化过程如下:
Figure GDA0003705687050000101
Figure GDA0003705687050000102
Figure GDA0003705687050000103
其中,λ表示放缩尺度,(8)与(9)用于优化跨传感器特征提取器,(10)用于优化判别器。不断迭代优化(8)、(9)与(10)直至收敛。
步骤5,对于新的待预测星载遥感影像,将其进行归一化之后输入到步骤4中训练得到的跨传感器特征提取器中,利用收敛后的卷积层参数w与目标域归一化参数βt、γt,得到网络输出的分类概率,取最大值获取分类标签结果,最终得到基于航天影像的某某市不透水层制图结果,如图3所示。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (4)

1.一种基于跨传感器迁移的高分辨率遥感影像不透水面提取方法,其特征在于,包括以下步骤:
步骤1,获取跨传感器高分辨率遥感影像不透水面提取数据集,包括航空机载高分辨率遥感影像与航天星载高分辨率遥感影像,对输入数据进行归一化与数据增强;
步骤2,构建深度跨传感器迁移不透水面提取模型,包括跨传感器归一化层设计与跨传感器特征提取器设计,基于不同源影像输入,获取对应深层特征;
步骤2的具体实现包括如下子步骤,
步骤2.1,设计跨传感器归一化层,跨传感器归一化层拥有两套归一化参数,一套针对源域传感器参数:βs与γs,一套针对目标域传感器参数:βt与γt;在训练过程中,输入航空源域影像为:
Figure FDA0003705687040000011
航天目标域影像
Figure FDA0003705687040000012
M表示一个批次中影像的数量;首先分别计算源域与目标域影像均值与方差:
Figure FDA0003705687040000013
Figure FDA0003705687040000014
然后基于均值与方差对输入影像分别进行归一化:
Figure FDA0003705687040000015
Figure FDA0003705687040000016
其中,
Figure FDA0003705687040000017
为源域影像特征,
Figure FDA0003705687040000018
为目标域影像特征,M表示一个批次中影像的数量,μs与μt分别为源域与目标域特征均值,σs与σt分别为源域与目标域特征标准差,
Figure FDA0003705687040000019
Figure FDA00037056870400000110
分别为源域与目标域归一化后的特征;为了不破坏之前影像特征分布,分别对归一化后的特征进行平移与放缩:
Figure FDA00037056870400000111
Figure FDA00037056870400000112
其中,
Figure FDA00037056870400000113
Figure FDA00037056870400000114
分别为源域与目标域放缩平移后的特征,传感器相关参数βs、γs与βt、γt均为可学习性参数,利用反向传播自动更新;
步骤2.2,设计跨传感器特征提取器,包含深度残差神经网络与多尺度空洞金字塔池化层,深度残差神经网络采用ResNet34网络架构,其中包含16个跨传感器残差模块,每个残差模块包含两个卷积层、一个跨传感器归一化层、一个ReLU激活层与一个残差链接,其中最后3个残差模块中,卷积层的空洞率设置为2,使特征图在保持较高空间分辨率的同时拥有较大感受野;设计多尺度空洞金字塔模型放于深度残差神经网络输出位置,对高层语义与定位特征进行多尺度信息提取,具体包含并行的五个分支:1×1卷积核,3×3空洞率为6卷积核,3×3空洞率为12卷积核,3×3空洞率为18卷积核以及全局平均池化;跨传感器特征提取器为F,其包含卷积层参数为:w,源域归一化参数:βs、γs,目标域归一化参数:βt、γt;源域影像通过跨传感器特征提取器,获取提取器特征:fs=F(S;w,γss);目标影像通过跨传感器特征提取器,获取提取器特征:ft=F(T;w,γtt);
步骤3,设计全卷积判别器,利用跨传感器特征提取器获取的深层特征,判别影像来源;
步骤4,设计传感器相关损失函数对抗优化训练,包括不透水面提取损失函数,对抗损失函数与判别器损失函数的设计,最终迭代对抗优化各类可学习参数;
步骤4的具体实现包括如下子步骤;
4.1,不透水面提取损失函数设计,不透水面损失函数为监督多分类损失,基于航空源域影像S与标签Y进行计算得到:
Ls=-YlogΘ(fs) (5)
其中Θ表示softmax归一化层,利用不透水面损失,能够优化跨传感器特征提取器使其学习得到地物分类语义特征;
4.2,对抗损失函数设计,对抗损失函数用于度量目标域特征与源域特征的空间距离,其定义如下:
La=-log(1-θ(dt)) (6)
其中θ表示sigmoid层,对抗损失函数引导跨传感器特征提取器提取域不变特征,提升模型迁移性能;
4.3,判别器损失函数设计,判别器损失用于优化判别器参数,相较于特征提取器用于混淆源域与目标域特征,判别器目的则是正确分辨数据的域来源,判别器损失定义如下:
Ld=-log(1-θ(ds))-log(θ(dt)) (7)
通过Ld优化判别器参数wD,增强其判别能力;
4.4,传感器相关对抗优化训练,基于上述不同损失,迭代进行优化三类可学习性参数:(1)跨传感器特征提取器卷积参数:w;(2)源域归一化参数:βs、γs(3)目标域归一化参数:βt、γt;(4)判别器参数:wD;基于对抗训练策略,具体优化过程如下:
Figure FDA0003705687040000031
Figure FDA0003705687040000032
Figure FDA0003705687040000033
其中,λ表示放缩尺度,(8)与(9)用于优化跨传感器特征提取器,(10)用于优化判别器,不断迭代优化(8)、(9)与(10)直至收敛;
步骤5,基于训练收敛后的深度跨传感器迁移不透水面提取模型,对未标记星载影像进行预测,利用输出概率获取分类结果。
2.根据权利要求1所述的一种基于跨传感器迁移的高分辨率遥感影像不透水面提取方法,其特征在于:步骤1的具体实现包括如下子步骤;
步骤1.1,利用航空机载传感器与航天星载传感器进行拍摄获取大量高空间分辨率影像;
步骤1.2,对所有影像进行几何校正、辐射校正,并裁剪成1024×1024大小的影像块;
步骤1.3,构建跨传感器不透水面提取数据集,采集航空影像中不透水面像素样本,将样本掩膜与对应区域影像制作成深度学习不透水面分类源域训练集,由于尚未标注航天星载传感器获得的影像,此影像即为待迁移目标域影像;
步骤1.4,源域与目标域影像同时进行归一化,并利用水平翻转、垂直翻转、随机旋转进行数据增强。
3.根据权利要求1所述的一种基于跨传感器迁移的高分辨率遥感影像不透水面提取方法,其特征在于:步骤3中构建全卷积判别器与跨传感器特征提取器进行对抗训练,判别提取器处理后的特征来源于目标域或源域;全卷积判别器由5个卷积层组成,卷积核大小为4×4,步长为2;基于此,判别器能够进行为空间压缩表征,并且捕获大量空间上下文信息,特征图随着卷积,通道数量从64个增加到512个,更多的语义特征被抽象化,每个卷积后面接上Leakly-ReLU激活层,公式为:y=max{αx,x},α为负斜率;然后,接入1×1卷积输出二分类概率,判别来自于源域或者目标域,最后对特征图进行双线性内插上采样32倍恢复至原始影像分辨率;全卷积判别器为D,参数为wD,源域提取器特征通过判别器,获取判别器特征:ds=D(fs;wD),目标域提取器特征通过判别器,获取判别器特征:dt=D(ft;wD)。
4.根据权利要求1所述的一种基于跨传感器迁移的高分辨率遥感影像不透水面提取方法,其特征在于:对于新的待预测星载遥感影像,将其进行归一化之后输入到步骤4中训练得到的跨传感器特征提取器中,利用收敛后的卷积层参数w与目标域归一化参数βt、γt,得到网络输出的分类概率,取最大值获取分类标签结果,得到不透水层制图结果。
CN202110077757.0A 2021-01-20 2021-01-20 基于跨传感器迁移的高分辨率遥感影像不透水面提取方法 Active CN112733788B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110077757.0A CN112733788B (zh) 2021-01-20 2021-01-20 基于跨传感器迁移的高分辨率遥感影像不透水面提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110077757.0A CN112733788B (zh) 2021-01-20 2021-01-20 基于跨传感器迁移的高分辨率遥感影像不透水面提取方法

Publications (2)

Publication Number Publication Date
CN112733788A CN112733788A (zh) 2021-04-30
CN112733788B true CN112733788B (zh) 2022-08-05

Family

ID=75594311

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110077757.0A Active CN112733788B (zh) 2021-01-20 2021-01-20 基于跨传感器迁移的高分辨率遥感影像不透水面提取方法

Country Status (1)

Country Link
CN (1) CN112733788B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385808B (zh) * 2023-06-02 2023-08-01 合肥城市云数据中心股份有限公司 大数据跨域图像分类模型训练方法、图像分类方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058197B1 (en) * 1999-11-04 2006-06-06 Board Of Trustees Of The University Of Illinois Multi-variable model for identifying crop response zones in a field
CN108830296A (zh) * 2018-05-18 2018-11-16 河海大学 一种改进的基于深度学习的高分遥感影像分类方法
CN108985238A (zh) * 2018-07-23 2018-12-11 武汉大学 联合深度学习和语义概率的高分辨率遥感影像不透水面提取方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058197B1 (en) * 1999-11-04 2006-06-06 Board Of Trustees Of The University Of Illinois Multi-variable model for identifying crop response zones in a field
CN108830296A (zh) * 2018-05-18 2018-11-16 河海大学 一种改进的基于深度学习的高分遥感影像分类方法
CN108985238A (zh) * 2018-07-23 2018-12-11 武汉大学 联合深度学习和语义概率的高分辨率遥感影像不透水面提取方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
光学遥感影像智能化处理研究进展;龚健雅等;《遥感学报》;20160925(第05期);全文 *
面向多源遥感图像的自适应目标检测;张天坤等;《信号处理》;20200925(第09期);全文 *

Also Published As

Publication number Publication date
CN112733788A (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
Li et al. A deep translation (GAN) based change detection network for optical and SAR remote sensing images
Sony et al. A systematic review of convolutional neural network-based structural condition assessment techniques
CN108985238B (zh) 联合深度学习和语义概率的不透水面提取方法及系统
Cao et al. Review of pavement defect detection methods
Zhang et al. Deep learning for processing and analysis of remote sensing big data: A technical review
Wu et al. Vehicle detection of multi-source remote sensing data using active fine-tuning network
CN112052783B (zh) 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法
CN111461258A (zh) 耦合卷积神经网络和图卷积网络的遥感影像场景分类方法
CN111310666B (zh) 一种基于纹理特征的高分辨率影像地物识别与分割方法
Liu et al. Survey of road extraction methods in remote sensing images based on deep learning
Kakooei et al. A two-level fusion for building irregularity detection in post-disaster VHR oblique images
CN112836614B (zh) 一种基于残差网络和迁移学习的高分遥感图像分类方法
CN111178304A (zh) 基于全卷积神经网络的高分辨率遥感影像像素级解译方法
Ahmed et al. A real-time efficient object segmentation system based on U-Net using aerial drone images
Akshay et al. Satellite image classification for detecting unused landscape using CNN
Li et al. An aerial image segmentation approach based on enhanced multi-scale convolutional neural network
Cai et al. A comparative study of deep learning approaches to rooftop detection in aerial images
CN112733788B (zh) 基于跨传感器迁移的高分辨率遥感影像不透水面提取方法
CN115908924A (zh) 一种基于多分类器的小样本高光谱图像语义分割方法及系统
CN117058546A (zh) 全局局部细节感知条件随机场的高分辨率遥感影像建筑物提取方法
Zuo et al. A remote sensing image semantic segmentation method by combining deformable convolution with conditional random fields
Chen et al. Ground 3D object reconstruction based on multi-view 3D occupancy network using satellite remote sensing image
Saxena et al. An Optimized Technique for Image Classification Using Deep Learning
CN116630610A (zh) 基于语义分割模型和条件随机场的roi区域提取方法
Yuan et al. Graph neural network based multi-feature fusion for building change detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant