CN107194349A - 基于深度学习的高分辨率PolSAR图像城区地物分类方法 - Google Patents

基于深度学习的高分辨率PolSAR图像城区地物分类方法 Download PDF

Info

Publication number
CN107194349A
CN107194349A CN201710357202.5A CN201710357202A CN107194349A CN 107194349 A CN107194349 A CN 107194349A CN 201710357202 A CN201710357202 A CN 201710357202A CN 107194349 A CN107194349 A CN 107194349A
Authority
CN
China
Prior art keywords
mrow
msub
layer
polsar
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710357202.5A
Other languages
English (en)
Inventor
王云艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN201710357202.5A priority Critical patent/CN107194349A/zh
Publication of CN107194349A publication Critical patent/CN107194349A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及基于深度学习的高分辨率PolSAR图像城区地物分类方法,包括以下步骤:步骤1,定义一个由两层结构构成的深度学习神经网络,其中第一层是一个深度反卷积网络,第二层是高层特征迁移学习自适应单元;步骤2,通过收集足够类似的高分辨率PolSAR源数据,训练所述深度反卷积网络,学习高分辨率PolSAR图像的高层特征feature1;步骤3,通过待分类城区数据中的训练数据对高层特征迁移学习自适应单元进行训练,完成高层特征feature1的迁移学习,获得更利于城区数据分类的特征feature2;步骤4,将待分类的PolSAR城区图像的测试数据引入训练好的深度学习神经网络,得到最后的分类结果。本发明能够有效的解决高分辨率PolSAR图像城区地物的分类问题,稳定性和准确率更高。

Description

基于深度学习的高分辨率PolSAR图像城区地物分类方法
技术领域
本发明属于图像解译技术领域,特别涉及一种高分辨率PolSAR图像分类方法,可用于SAR图像分类,目标识别,目标跟踪等领域。
背景技术
随着社会经济的发展,城区人口规模不断扩张,城区用地不断向郊区扩展,城市化进程越来越快。城市范围的扩张与城区内部环境结构的变化,极大地改变了城区内部地物类型的分布,对城区的生态环境、生活方式乃至社会经济都产生了一定程度的影响。合成孔径雷达(SAR)是对地观测的一种重要手段之一,它能不受光照和气候条件的限制全天时、全天候地工作,在获取城区地物信息上比其它传统方式更具有优势。近年来,随着高分辨率传感器和极化SAR系统的飞速发展,各种各样的高分辨率PolSAR数据被不断获取,给SAR图像解译带来了更清晰的几何信息、更精细的结构信息和更丰富的物理信息,有助于进一步进行信息挖掘,为城区地物分类研究提供了基础条件。因此,高分辨率PolSAR在城区地物信息获取方面具有独特的优越性,开展面向高分辨率PolSAR图像的城区地物分类研究将有助于城市规划、路网识别和灾害预测,对于城区地物目标的监测具有重要意义。
但城区地物环境复杂,通常包括建筑物、水体、山地、绿地、道路等多种地物,其中道路、水体等地物表面相对光滑,易发生较强前向反射,仅有少量的后向回波能被观测,而山体、建筑等地物易形成阴影,这些现象容易造成PolSAR图像信息的缺失。另外,在高分辨率条件下,地物目标高度复杂,二面体、三面体、螺旋体、偶极子等各种基本结构和散射单元混杂出现;目标在方向、尺度上的差异和随机性增大,极大的提高了对解译方法在稳定可靠和不变性上的要求。上述现象无疑大大增加了高分辨率PolSAR城区图像解译的难度。因此,高分辨率PolSAR图像在提供丰富地物信息的同时也为PolSAR图像的特征提取与表达提出了巨大的挑战,如何充分利用高分辨PolSAR图像丰富的地物信息实现城区地物的精细化分类成为了一个急需深入研究的重要课题。
近年来,为了改善高分辨率PolSAR图像地物的分类精度,国内外学者已经开展了一系列研究与探索,主要包括:(1)利用时序PolSAR数据的相干性。各类地物的时间相干性存在较大差别,如裸土、水泥路时间相干性均接近1,而水体、阴影等地物相干性极低。利用时序影像可以在一定程度上将混淆的城区地物区分开。(2)利用多源数据的互补性。多源数据联合分类是指将PolSAR图像、城市三维模型、可见光图像、热红外图像等数据联合起来,利用各种数据的信息互补性来进行目标地物的分类。(3)利用不同特征间的完备性和互异性。提取多种类型的特征,如极化分解特征、电磁特征、纹理特征等,采用特征融合算法以形成更有效的特征组合进行地物分类。但是各类特征的融合必定会导致冗余,过多的特征对训练样本可能产生过度拟合,不能很好的识别训练样本。
虽然上述研究对改善PolSAR图像地物的分类精度开展了一系列有益的探索,但仍然面临着这样三个问题:(1)虽然现有方法多时相、多源数据的信息互补性可以改善地物分类的精度,但是数据的时效一致性、传感器重访周期、获取成本及处理难度也是不容忽视的问题,在一定程度上制约了该类方法的应用;(2)PolSAR图像特征提取层次较低,主要依赖人为经验,描述能力有限,难以适应城区复杂场景;(3)高分辨率PolSAR蕴含的丰富场景信息没有得到充分挖掘,城区地物的形状属性、环境语义等没有得到充分利用,如:道路弯曲度与水体不同;阴影形状与水体形状的规则度不同;阴影与传感器间常存在建筑物、山体等高大地物的叠掩等。
近年来,深度学习(Deep Learning)在高层特征提取和海量信息挖掘方面展现出了巨大的优势,已在语音识别、图像分类、机器视觉等领域创造了诸多奇迹,并出现了很多经典的深度学习模型,如深度置信网络(DBN)、自动编码器(AE)等。深度学习可以通过构建多层网络模型来挖掘海量数据,获得更抽象的特征表达,从而最终提升分类的准确性,为高层特征挖掘和图像分类提供了新的思路。为了解决传统PolSAR图像特征描述能力不足,丰富地物信息挖掘不充分等诸多问题,许多雷达工作者也开始逐渐将深度学习用于SAR图像或PolSAR图像分类与目标识别方面,并初步得到了成功应用。如焦李成等人提出了一种基于深度小波神经网络的PolSAR图像分类方法,成功避免了分类技术中存在的特征数较少或者特征学习不充分,不合理的问题,提高了PolSAR图像的分类精度。丁军等人将相似性约束的深度置信网络用于SAR图像的目标识别,实验结果表明,该文构建的深度置信网络相比主成分分析(PCA)以及传统DBN具有更好的识别性能。
尽管国内外学者已经初步开始了一些将深度学习用于高分辨率SAR图像或PolSAR分类与识别的有益探索,但是这些方法仅是将深度学习的现有模型直接应用于SAR图像的特征学习与地物分类,未充分考虑高分辨率PolSAR数据的具体特点,其研究仍然不够深入,主要存在以下问题亟待解决:(1)PolSAR的成像机理与光学图像不一样,传统的深度学习模型若直接用于PolSAR图像分类效果并未明显改善。(2)PolSAR图像较光学图像信息更丰富,如何充分利用PolSAR图像的4种极化状态的丰富地物信息是传统的深度学习模型急需解决的一个难题。(3)深度学习往往需要大数据对多层网络模型进行训练,这与少量的PolSAR城区训练数据形成了矛盾。
发明内容
本发明的目的在于针对上述分类方法的不足,提出基于一种深度学习的高分辨率PolSAR图像城区地物分类方法,以提高分类准确率。
本发明的技术方案是这样实现的,一种基于深度学习的高分辨率PolSAR图像城区地物分类方法,其特征在于,包括以下步骤:
步骤1,定义一个由两层结构构成的深度学习神经网络,其中第一层是一个深度反卷积网络,第二层是高层特征迁移学习自适应单元,所述高层特征迁移学习自适应单元是将深度反卷积网络模型中用于分类的softmax层去掉,在深度反卷积网络模型后面增加2层的自适应层A1和A2;
步骤2,通过收集足够类似的高分辨率PolSAR源数据,训练所述深度反卷积网络,学习高分辨率PolSAR图像的高层特征feature1,具体实现包括如下步骤;
步骤2a,首先固定滤波器,根据以下公式对代价函数进行最小化,反推输入图像的特征图;
其中,f为滤波器,z为特征图,Cl(y)为第l层的深度反卷积网络的代价函数,由两部分组成,第一项是重建图像与原图像的误差项,第二项是具有稀疏1范数的关于特征图z正则项,λl为权重,权衡误差项和正则项的比重;第一项中yHH,yHV,yVV分别为通道HH、HV、VV的原始图像,分别为通道HH、HV、VV的重建图像,第二项中Kl为第l层特征图的个数,zk,l为第l层的第k个特征图,
步骤2b,然后固定得到的特征图,根据上述公式对代价函数最小化,更新滤波器;
步骤2c,对深度反卷积网络模型的每一层重复步骤2a-2b,直到代价函数收敛,得到训练好的深度反卷积网络模型,深度反卷积网络模型的输出即为高分辨率PolSAR图像的高层特征feature1;
步骤3,通过待分类城区数据中的训练数据对高层特征迁移学习自适应单元进行训练,完成高层特征feature1的迁移学习,获得更利于城区数据分类的特征feature2,具体实现包括如下;
将步骤2中得到的高层特征feature1输入自适应层,保持深度反卷积网络模型的网络参数不变,用待分类城区数据中的训练数据来训练后面的自适应层,若待分类城区数据中有N个训练样本,类别个数为C,则由深度反卷积网络和自适应网络构成的整个网络的代价函数如公式(8)所示,根据公式(8)不断训练自适应层,直至EN<ε,得到利于目标城区分类的特征feature2,
其中,表示N个训练样本目标输出与实际输出的总误差,t表示目标输出,y表示实际输出,表示第n个样本的目标输出的第k维,表示第n个样本的实际输出的第k维;
步骤4,将待分类的PolSAR城区图像的测试数据引入训练好的深度学习神经网络,得到最后的分类结果。
而且,步骤1中所述自适应层A1和A2通过如下公式进行计算,
YA1=ρ(WA1Y+BA1) (6)
YA2=C(WA2YAl+BA2) (7)
其中,YA1表示第A1层的输出,YA2表示第A2层的输出,Y表示深度反卷积网络的输出feature1,WA1、BA1表示第A1层需要训练的参数,WA2、BA2表示第A2层需要训练的参数,ρ和C通过ReLU和SoftMax获得。
本发明与传统SAR图像地物分类方法相比,具有以下优点:
1本发明引入了多通道的无监督深度反卷积网络模型,发展面向高分辨率PolSAR图像的高层本征特征深度挖掘方法,克服传统经验模型提取与融合图像特征表达能力不足的缺点,深层次逼近对地物高度抽象的本质认知,客服了已有技术挖掘高分辨率PolSAR图像高层特征能力有限的缺点。
2本项目将深度学习和迁移学习相结合,构建面向高层特征的迁移学习模型,解决了深度学习城区训练数据不足的问题,既充分利用了深度学习在数据挖掘上的优势又能切实提高特征在目标分类数据上的可分性。
实验结果表明,本发明能够有效的解决高分辨率PolSAR图像城区地物的分类问题,获得了比传统高分辨率PolSAR图像分类方法更高的稳定性和准确率,可进一步应用与地物更复杂,类别更多的SAR图像的地物分类识别问题。
附图说明
图1是本发明的流程图;
图2是本发明中深度反卷积网络结构示意图;
图3是本发明中高分辨率PolSAR图像高层特征的迁移学习示意图;
图4是本发明待分类城区数据的训练样本图;
图5是本发明待分类城区数据的测试样本图;
具体实施方式
深度反卷积网络模型的技术原理如下:
如图2所示,深度反卷积网络模型的构建原理在于是它基于原始输入图像的重建,是一种非监督的特征学习方法。该模型采用分层的方式,每层由反卷积稀疏编码和池化(Pooling)组成,二者交替进行。在一个超完备集的稀疏限制下,模型每一层的重建都与原始输入图像的误差最小。假设l层反卷积网络的代价函数Cl(y),则Cl(y)由两部分组成,第一项是重构图像与原图像的误差,第二项是具有稀疏1范数的关于特征图z正则项。如公式(1)所示:
其中,f为滤波器,z为特征图,Kl为第l层特征图的个数,zk,l为第l层的第k个特征图,λl作为权重可以权衡误差项和正则项的比重。从Cl(y)可以看出,本文模型是最小化当前层重建与原始图像的误差,而不是与前一层的输出之间的误差。这样随着网络的层数增加,得到的特征图与原始输入图像的联系不会随之疏远,系统更加符合实际。
全极化SAR图像有HH、HV、VH、VV四个不同极化通道的图像数据,考虑到在互易条件下SHV=SVH,因此,在本发明所建立的深度反卷积网络模型只考虑三个通道的SAR图像的数据,分别是:SHH,SHV,SVH。将传统的深度反卷积网络模型的单通道扩展为3通道。
对于第1层网络,各个极化通道的SAR幅度数据分别被分解为第1层的特征图Z1与第1层的滤波器f1的卷积,即反卷积编码公式如下式所示:
由于本发明是针对全极化SAR图像的多层反卷积网络,原始输入图像y和重建图像都是三个通道HH、HV、VV的SAR图像,即原始图像为:y=(yHH,yHV,yVV),重建图像为:因此,相应的第l层的代价函数Cl(y)如公式(5)所示:
传统的深度反卷积网络是用于针对单幅图像进行深度学习挖掘高层特征,不适合于多通道的高分辨率PolSAR图像,本发明的出发点就是改进传统的深度反卷积网络,让其能学习挖掘多个通道的PolSAR图像。另外,针对目标PolSAR图像城区数据不足与深度学习需要大数据的矛盾,本发明引入了特征学习迁移模型,着眼于利用相似源数据训练深度学习模型,然后再利用目标数据对深度模型获得的高层特征进行迁移,较好的解决了这一问题。
下面结合附图和实施例详细说明本发明技术方案。
参照图1,对本发明的实施步骤详述如下:
步骤1,定义一个由两层结构构成的深度学习神经网络。
如图1所示,本发明定义的深度学习神经网络包括两层结构,其中第一层是一个深度反卷积网络,第二层是高层特征迁移学习自适应单元,是将深度反卷积网络模型中用于分类的softmax层去掉,在深度反卷积网络模型后面增加2层的自适应层A1和A2。
步骤2,通过收集足够类似的高分辨率PolSAR源数据,训练上述的第一层结构深度反卷积网络,学习高分辨率PolSAR图像的高层特征feature1。
收集的源数据与待分类城区数据相似,均为高分辨率的PolSAR数据,分辨率尽量一致,都是包含城区的数据,以解决PolSAR城区训练数据不足的问题。深度反卷积模型的训练就是利用训练样本估计模型中未定的参数。本发明采用交替如下两个步骤来对深度反卷积网络进行训练:1)固定滤波器fl,推断特征图Zl;2)固定特征图Zl,更新滤波器fl。其主要训练思路是:
步骤2a,首先固定滤波器,根据公式(5)对代价函数进行最小化,反推输入图像的特征图;
步骤2b,然后固定得到的特征图,根据公式(5)对代价函数最小化,更新滤波器;
步骤2c,上述训练过程是从第1层开始,每一层都要重复上述操作(2a-2b),当上述算法收敛后即可得到训练好的深度反卷积网络模型,深度反卷积网络模型的输出即为高分辨率PolSAR图像的高层特征feature1。
步骤3,通过待分类城区数据中的训练数据对高层特征迁移学习自适应单元进行训练,完成高层特征feature1的迁移学习,获得更利于目标城区数据分类的特征feature2,其中,训练样本如图4所示,从左至右分别代表绿地、建筑物、道路和水体四类实物。
本发明采用的训练方法是将深度反卷积网络模型获得的特征作为高层特征feature1导入下一个两层的自适应网络,保持深度反卷积网络模型的网络参数不变,用待分类城区数据中的训练数据对自适应网络进行微调,让整个网络更适宜对目标城区数据进行分类。具体的训练方法和分类过程如下所示:
如图3所示,将深度反卷积网络模型中用于分类的softmax层去掉,在深度反卷积网络模型后面增加2层的自适应层A1和A2,即自适应层包括的具体内容就是一个两层的网络结构单元,以调节高层特征feature1,得到特征feature2,使特征feature2更利于目标图像的分类,把深度反卷积网络模型的输出当成高层特征feature1,输入自适应层,保持深度反卷积网络模型的网络参数不变,用待分类的PolSAR城区训练数据来训练后面的自适应层,自适应层得到的特征即为feature2,该特征更利于目标数据的分类。两个自适应层A1和A2是通过如下公式进行计算的:
YA1=ρ(WAlY+BAl) (6)
YA2=C(WA2YA1+BA2) (7)
其中,YA1表示第A1层的输出,YA2表示第A2层的输出,Y表示深度反卷积网络的输出feature1,WA1、BA1表示第A1层需要训练的参数,WA2、BA2表示第A2层需要训练的参数,,ρ和C通过ReLU和SoftMax获得,具体计算为现有技术,本发明不予撰述,自适应A1层的维数为150,而A2层的维数与目标类别数相同。前面深度反卷积网络是针对其他类似的PolSAR源数据进行训练的,当迁移到现有网络时参数保持不变,待分类PolSAR训练数据训练的是自适应层A1、A2的参数。
若待分类城区数据有N个训练样本,类别个数为C,则由深度反卷积网络和自适应网络构成的整个网络的代价函数如公式(8)所示,根据公式(8)不断训练自适应层,直到得到利于目标城区分类的特征feature2。
其中,EN表示N个训练样本目标输出与实际输出的总误差,t表示目标输出,y表示实际输出,表示第n个样本的目标输出的第k维,表示第n个样本的实际输出的第k维。训练自适应网络参数,直至EN<ε,得到一个训练好的CNN;
步骤4,将待分类的PolSAR城区图像的测试数据引入该训练好的深度学习神经网络,得到最后的分类结果。其中,测试样本如图5所示,从左至右分别代表绿地、建筑物、道路和水体四类实物。将预测出实验测试样本地物分类特征的标签与实验给定的测试样本标签进行对比,统计标签相同的样本个数,得到利用深度学习神经网络对高分辨率PolSAR图像城区地物的分类结果。
本发明的效果可以通过以下实验来进行验证。
1.实验条件:
在CPU为i7-6700HQ,内存16G,WINDOWS 10系统上使用Matlab2012a进行实验。
2.实验内容与结果:
利用本发明的深度学习神经网络、普通深度反卷积网络和支撑向量机SVM三种方法对第一个实验获得的低层统计分布特征进行训练,从而实现分类。分类准确率的对比结果如表1所示。
表1分类准确率的对比结果
从表1可见,由于本发明的深度学习神经网络既利用了深度学习在地物高层特征挖掘上的优势,又利用自适应迁移学习解决了目标训练数据过少不能训练深度学习网络的问题,所以其分类结果明显优于支撑向量机SVM和普通深度反卷积网络。
以上实验说明了本发明的深度学习神经网络在高分辨率PolSAR图像城区地物分类问题上的优势明显优于现有技术,体现了其分类性能的的优势。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (2)

1.一种基于深度学习的高分辨率PolSAR图像城区地物分类方法,其特征在于,包括以下步骤:
步骤1,定义一个由两层结构构成的深度学习神经网络,其中第一层是一个深度反卷积网络,第二层是高层特征迁移学习自适应单元,所述高层特征迁移学习自适应单元是将深度反卷积网络模型中用于分类的softmax层去掉,在深度反卷积网络模型后面增加2层的自适应层A1和A2;
步骤2,通过收集足够类似的高分辨率PolSAR源数据,训练所述深度反卷积网络,学习高分辨率PolSAR图像的高层特征feature1,具体实现包括如下步骤;
步骤2a,首先固定滤波器,根据以下公式对代价函数进行最小化,反推输入图像的特征图;
<mrow> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>f</mi> <mo>,</mo> <mi>z</mi> </mrow> </munder> <msub> <mi>C</mi> <mi>l</mi> </msub> <mrow> <mo>(</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&amp;lambda;</mi> <mi>l</mi> </msub> <mrow> <mo>(</mo> <mo>|</mo> <mo>|</mo> <mover> <msub> <mi>y</mi> <mrow> <mi>H</mi> <mi>H</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <mo>^</mo> </mover> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>H</mi> <mi>H</mi> </mrow> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <mo>|</mo> <mo>|</mo> <mover> <msub> <mi>y</mi> <mrow> <mi>H</mi> <mi>V</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <mo>^</mo> </mover> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>H</mi> <mi>V</mi> </mrow> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>+</mo> <mo>|</mo> <mo>|</mo> <mover> <msub> <mi>y</mi> <mrow> <mi>V</mi> <mi>V</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <mo>^</mo> </mover> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>V</mi> <mi>V</mi> </mrow> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>)</mo> </mrow> <mo>+</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>K</mi> <mi>l</mi> </msub> </munderover> <mo>|</mo> <msub> <mi>z</mi> <mrow> <mi>k</mi> <mo>,</mo> <mi>l</mi> </mrow> </msub> <msub> <mo>|</mo> <mn>1</mn> </msub> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,f为滤波器,z为特征图,Cl(y)为第l层的深度反卷积网络的代价函数,由两部分组成,第一项是重建图像与原图像的误差项,第二项是具有稀疏1范数的关于特征图z正则项,λl为权重,权衡误差项和正则项的比重;第一项中yHH,yHV,yVV分别为通道HH、HV、VV的原始图像,分别为通道HH、HV、VV的重建图像,第二项中Kl为第l层特征图的个数,zk,l为第l层的第k个特征图,
步骤2b,然后固定得到的特征图,根据上述公式对代价函数最小化,更新滤波器;
步骤2c,对深度反卷积网络模型的每一层重复步骤2a-2b,直到代价函数收敛,得到训练好的深度反卷积网络模型,深度反卷积网络模型的输出即为高分辨率PolSAR图像的高层特征feature1;
步骤3,通过待分类城区数据中的训练数据对高层特征迁移学习自适应单元进行训练,完成高层特征feature1的迁移学习,获得更利于城区数据分类的特征feature2,具体实现包括如下;
将步骤2中得到的高层特征feature1输入自适应层,保持深度反卷积网络模型的网络参数不变,用待分类城区数据中的训练数据来训练后面的自适应层,若待分类城区数据中有N个训练样本,类别个数为C,则由深度反卷积网络和自适应网络构成的整个网络的代价函数如公式(8)所示,根据公式(8)不断训练自适应层,直至EN<ε,得到利于目标城区分类的特征feature2,
<mrow> <msup> <mi>E</mi> <mi>N</mi> </msup> <mo>=</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>n</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>N</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>C</mi> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>t</mi> <mi>k</mi> <mi>n</mi> </msubsup> <mo>-</mo> <msubsup> <mi>y</mi> <mi>k</mi> <mi>n</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
其中,EN表示N个训练样本目标输出与实际输出的总误差,t表示目标输出,y表示实际输出,表示第n个样本的目标输出的第k维,表示第n个样本的实际输出的第k维;
步骤4,将待分类的PolSAR城区图像的测试数据引入训练好的深度学习神经网络,得到最后的分类结果。
2.如权利要求1所述的一种基于深度学习的高分辨率PolSAR图像城区地物分类方法,其特征在于:步骤1中所述自适应层A1和A2通过如下公式进行计算,
YA1=ρ(WA1Y+BA1) (6)
YA2=C(WA2YA1+BA2) (7)
其中,YA1表示第A1层的输出,YA2表示第A2层的输出,Y表示深度反卷积网络的输出feature1,WA1、BA1表示第A1层需要训练的参数,WA2、BA2表示第A2层需要训练的参数,ρ和C通过ReLU和SoftMax获得。
CN201710357202.5A 2017-05-19 2017-05-19 基于深度学习的高分辨率PolSAR图像城区地物分类方法 Pending CN107194349A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710357202.5A CN107194349A (zh) 2017-05-19 2017-05-19 基于深度学习的高分辨率PolSAR图像城区地物分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710357202.5A CN107194349A (zh) 2017-05-19 2017-05-19 基于深度学习的高分辨率PolSAR图像城区地物分类方法

Publications (1)

Publication Number Publication Date
CN107194349A true CN107194349A (zh) 2017-09-22

Family

ID=59875371

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710357202.5A Pending CN107194349A (zh) 2017-05-19 2017-05-19 基于深度学习的高分辨率PolSAR图像城区地物分类方法

Country Status (1)

Country Link
CN (1) CN107194349A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090520A (zh) * 2018-01-08 2018-05-29 北京中关村科金技术有限公司 意图识别模型的训练方法、系统、装置及可读存储介质
CN108710910A (zh) * 2018-05-18 2018-10-26 中国科学院光电研究院 一种基于卷积神经网络的目标识别方法及系统
CN109325527A (zh) * 2018-09-05 2019-02-12 哈尔滨工程大学 一种基于迁移学习与深度学习的侧扫声呐图像目标自动分类方法
CN109584279A (zh) * 2017-09-29 2019-04-05 中国科学院遥感与数字地球研究所 基于sar图像的船舶检测方法、装置及船舶检测系统
CN110008854A (zh) * 2019-03-18 2019-07-12 中交第二公路勘察设计研究院有限公司 基于预训练dcnn的无人机影像公路地质灾害识别方法
CN111640087A (zh) * 2020-04-14 2020-09-08 中国测绘科学研究院 一种基于sar深度全卷积神经网络的影像变化检测方法
CN118314464A (zh) * 2024-06-11 2024-07-09 华侨大学 基于图神经网络的历史城区界线判断方法、系统、设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王云艳 等: "基于多层反卷积网络的SAR图像分类", 《武汉大学学报信息科学版》 *
王云艳: "基于多层网络模型的全极化SAR图像分类", 《中国博士学位论文全文数据库基础科学辑》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109584279A (zh) * 2017-09-29 2019-04-05 中国科学院遥感与数字地球研究所 基于sar图像的船舶检测方法、装置及船舶检测系统
CN108090520A (zh) * 2018-01-08 2018-05-29 北京中关村科金技术有限公司 意图识别模型的训练方法、系统、装置及可读存储介质
CN108710910A (zh) * 2018-05-18 2018-10-26 中国科学院光电研究院 一种基于卷积神经网络的目标识别方法及系统
CN108710910B (zh) * 2018-05-18 2020-12-04 中国科学院光电研究院 一种基于卷积神经网络的目标识别方法及系统
CN109325527A (zh) * 2018-09-05 2019-02-12 哈尔滨工程大学 一种基于迁移学习与深度学习的侧扫声呐图像目标自动分类方法
CN110008854A (zh) * 2019-03-18 2019-07-12 中交第二公路勘察设计研究院有限公司 基于预训练dcnn的无人机影像公路地质灾害识别方法
CN110008854B (zh) * 2019-03-18 2021-04-30 中交第二公路勘察设计研究院有限公司 基于预训练dcnn的无人机影像公路地质灾害识别方法
CN111640087A (zh) * 2020-04-14 2020-09-08 中国测绘科学研究院 一种基于sar深度全卷积神经网络的影像变化检测方法
CN118314464A (zh) * 2024-06-11 2024-07-09 华侨大学 基于图神经网络的历史城区界线判断方法、系统、设备

Similar Documents

Publication Publication Date Title
CN107194349A (zh) 基于深度学习的高分辨率PolSAR图像城区地物分类方法
CN108038445B (zh) 一种基于多视角深度学习框架的sar自动目标识别方法
Xu et al. Mineral prospectivity mapping by deep learning method in Yawan-Daqiao area, Gansu
CN111291639B (zh) 基于分层变分自编码的跨源舰船特征融合学习与识别方法
CN110263833A (zh) 基于编码-解码结构的图像语义分割方法
CN105787501A (zh) 输电线路走廊区域自动选择特征的植被分类方法
CN113359212B (zh) 一种基于深度学习的储层特征预测方法及模型
CN101276420A (zh) 一种融合光谱信息和多点模拟空间信息的分类方法
CN114638794A (zh) 基于深度学习和slam技术的裂缝检测与三维定位方法
Wang et al. Seismic stratum segmentation using an encoder–decoder convolutional neural network
CN114417693A (zh) 一种基于深度学习的海洋三维温度场反演方法
Fan et al. Land cover classification of resources survey remote sensing images based on segmentation model
Wang et al. Ground object information extraction from hyperspectral remote sensing images using deep learning algorithm
Sheng et al. Seismic Foundation Model (SFM): a new generation deep learning model in geophysics
CN112712087A (zh) 一种基于深度卷积神经网络的遥感影像地物语义分割方法
Yu et al. Data-driven geophysics: From dictionary learning to deep learning
Hou et al. Reconstructing Three-dimensional geological structures by the Multiple-point statistics method coupled with a deep neural network: A case study of a metro station in Guangzhou, China
Chi et al. Remote sensing data processing and analysis for the identification of geological entities
Kuchkorov et al. Perspectives of deep learning based satellite imagery analysis and efficient training of the U-Net architecture for land-use classification
CN117217381A (zh) 一种属性增强的感知时序图卷积网络交通速度预测方法
Lyu et al. A deep information based transfer learning method to detect annual urban dynamics of Beijing and Newyork from 1984–2016
O’brien et al. Information fusion for feature extraction and the development of geospatial information
Yin et al. M2F2-RCNN: Multi-functional faster RCNN based on multi-scale feature fusion for region search in remote sensing images
Li et al. An enhanced squeezenet based network for real-time road-object segmentation
Lynda Systematic survey of convolutional neural network in satellite image classification for geological mapping

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170922

RJ01 Rejection of invention patent application after publication