CN113392871B - 一种基于散射机制多通道扩张卷积神经网络的极化sar地物分类方法 - Google Patents
一种基于散射机制多通道扩张卷积神经网络的极化sar地物分类方法 Download PDFInfo
- Publication number
- CN113392871B CN113392871B CN202110365566.4A CN202110365566A CN113392871B CN 113392871 B CN113392871 B CN 113392871B CN 202110365566 A CN202110365566 A CN 202110365566A CN 113392871 B CN113392871 B CN 113392871B
- Authority
- CN
- China
- Prior art keywords
- training
- network
- scattering
- layer
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 43
- 230000007246 mechanism Effects 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 53
- 230000010287 polarization Effects 0.000 claims abstract description 46
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 230000000694 effects Effects 0.000 claims abstract description 5
- 238000007781 pre-processing Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 44
- 239000011159 matrix material Substances 0.000 claims description 25
- 238000012360 testing method Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 11
- 238000000354 decomposition reaction Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 230000036961 partial effect Effects 0.000 claims description 5
- 230000002411 adverse Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 238000009825 accumulation Methods 0.000 claims description 2
- 238000009795 derivation Methods 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims 1
- 238000013507 mapping Methods 0.000 claims 1
- 230000000644 propagated effect Effects 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000002829 reductive effect Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 229910002056 binary alloy Inorganic materials 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于散射机制多通道扩张卷积神经网络的极化SAR地物分类方法,该方法的实施流程如下:步骤1、数据预处理;步骤2、样本的划分;步骤3、构建基于散射机制的多通道卷积神经网络;步骤4、训练网络模型;步骤5、PolSAR图像地物分类;本发明降低了特征提取过程中的复杂度,并且为了避免特征之间的相互干扰,将三种极化特征按照散射机制分别输入到三通道卷积神经网络进行特征提取,每个通道的网络参数设置相同,保证了每个通道对最终结果贡献相同;最终的分类结果也达到了比较好的效果。
Description
技术领域
本发明涉及一种基于散射机制的多通道扩张卷积神经网络的极化SAR图像地物分类方法,属于极化合成孔径雷达地物分类技术领域。
背景技术
全极化SAR可以工作在不同的收发极化组合下,具有比单极化SAR信息含量高的特点。通过测量的极化散射矩阵可以完整地表征在特定姿态和观测频率下目标的极化散射特性,而且电磁波的极化组合对目标的形状、尺寸、结构、材料等敏感,因此全极化SAR可以极大地提升目标信息获取能力,已被广泛应用于土地覆盖分类、目标识别、检测等领域。
近年来,基于深度学习的极化SAR地物分类方法得到了快速的发展。有别于传统的机器学习和基于统计的方法,深度学习算法能够从低层的特征中学习高层特征,极大地提高了特征对目标的表征能力。卷积神经网络(Convolutional Neural Network,CNN)作为深度学习的一个重要分支,因其优越的特征提取能力被广泛的应用在PolSAR图像分类中。在先前的工作中每个卷积层之后都会使用一个局部池化,来减小特征图的大小。但这样会损失一部分信息,不利于图像进行精确分类。
目前研究者已经使用分解得到的多个极化特征输入到卷积神经网络中应用于PolSAR图像地物分类,这些方法使用了丰富的极化信息和高效的特征提取能力取得了不错的结果。考虑到分解得到的极化特征之间不是相互独立的,将所有的极化特征堆叠在一起输入网络增加了特征学习的难度,增加了计算成本,不利于分类精度的进一步提升。并且在传统的卷积神经网络中,每个卷积层之后都有一个池化层用于局部汇聚,来降低特征图的大小,简化网络复杂度的同时减少计算量。但是这种方式会造成部分信息的损失,不利于更精确的分类。
本发明将分解得到的极化特征按照不同的散射机制划分,其中包括面散射、二面角散射和体散射,并且将这些划分好的极化特征分别输入到不同的网络通道中,避免了特征提取过程中不同极化特征之间的相互干扰,同时降低了网络学习的复杂度,提高了学习的效率。为了避免在特征提取的过程中池化层会导致某些信息的丢失,本发明的每一个网络通道设计使用扩展卷积神经网络用于特征提取,避免了下采样造成的特征损失,以保留原始数据中的细节。每个通道的网络结构以及参数相同,保证每个通道对最终分类结果的贡献相同。在网络上最后将三通道提取得到的高级散射特征级联,经过两个全连接层后使用Softmax分类器,用交叉熵作为损失函数来监督网络分类的结果。
发明内容
本发明主要目的是针对PolSAR图像分类过程中散射模型之间相互影响以及特征冗余的问题,并且使用扩张卷积代替普通卷积,降低下采样造成的信息损失,提供了一种基于散射机制的多通道扩张卷积神经网络的PolSAR图像地物分类方法(DMCNN)。
本发明是在对PolSAR图像分类的相关方向进行了充分调研后,提出了基于散射机制的多通道扩张卷积神经网络。和传统深度学习方法分类时直接输入待分类样本后输出样本的预测类别不同。本发明使用了多通道卷积神经网络作为基础网络结构,将PolSAR图像数据分解得到的极化特征按散射机制划分输入三个通道,每个通道使用扩张卷积神经网络代替了传统的卷积神经网络,减少了下采样造成的信息损失,并且每个通道的网络结构和参数设置相同。最后将三个通道提取的高级特征级联经过两个全连接层和Softmax分类器得到分类结果。
本发明的技术方案具体来说,主要包括如下技术内容:
1、基于散射机制的多通道卷积神经网络提取PolSAR数据高级特征。将极化特征按不同的散射机制分通道输入网络中,避免特征之间的相互干扰,三个通道的结构相同保证每个通道对最终结果贡献相同。
2、多通道扩张卷积神经网络。每个通道中使用扩张卷积代替传统的卷积来提取高级特征,采用BN层来加快网络的训练和收敛速度,同时采用ReLU函数作为激活函数来引入非线性因素使得神经网络能够解决非线性分类任务。
基于散射机制的多通道扩张卷积神经网络的PolSAR图像地物分类方法,该方法的实施流程如下:
步骤1、数据预处理:
对PolSAR数据滤波、特征提取。
S1.1将PolSAR数据进行5×5的Lee滤波,由于原始数据中的噪声会对分类精度造成很大的影响,所以通过滤波来减少分类过程的噪声影响。
S1.2利用Freeman-Durden分解方法特征提取。
Freeman-Durden分解是一种非相干矩阵分解方法,该分解方法以物理实际为基础,分别对三种基本散射机制进行建模:由随机取向偶极子组成的云状冠层散射。由一对不同介电常数的正交平面构成的偶次或二次散射,以及适度粗糙表面的布拉格散射。
在全极化观测中,假定用于发送和接收的方式是线性水平和垂直极化,则极化后向散射矩阵[S]表示为:
其中,H和V代表极化方式,H表示水平方向极化,V表示垂直方向极化。SHH表示水平方向发射水平方向接收的极化回波数据,SVV表示垂直方向发射垂直方向接收的极化回波数据。SHV表示水平方向发射垂直方向接收的极化回波数据,SVH表示垂直方向发射水平方向接收的极化回波数据。
将S矩阵进行变换可以得到极化SAR数据的另一种表示形式,极化协方差矩阵C。首先将S矩阵向量化得:
式中,[]T表示矩阵转置。然后,将此向量跟自身的共轭转置矩阵相乘就可得到极化协方差矩阵:
进一步整理得到完整的协方差矩阵表示为:
其中,()*表示这个数据的共轭,<>表示按照极化视数取平均值。
将目标的极化协方差矩阵C分解为3种基本散射分量之和,过程如公式(2)所示:
式中,[C]s对应表面散射,[C]d对应二面角散射,[C]v对应体散射。fs对应着布拉格表面散射分量的贡献,fd对应着二面角散射分量的贡献,fv对应着体散射分量的贡献。β时表示HH后向散射与VV后向散射的比值,α被定义为α=RghRvh/RgvRvv,其中Rgh和Rgv分别表示地表的水平和垂直Fresnel系数,Rvh和Rvv表示竖直墙体的Fresnel系数。
Freeman-Durden分解的主要思路则是将极化协方差矩阵C分解为三种主要的散射机理,即面散射、二面角散射和体散射,其表现形式为:
其中,fs,fd,fv分别对应面散射、二面角散射和体散射分量,Ps,Pd,Pv则对应着每个分量的散射功率。
步骤2、样本的划分:
在训练网络模型之前,需要划分数据样本:从所有标记样本中随机选取一定比例的训练样本,剩余标记样本作为测试样本。
S2.1将预处理后的PoLSAR数据按行归一化。使得预处理的数据限定在[0,1]的范围内,从而消除奇异样本数据导致的不良影响。
S2.2进行训练样本和测试样本的挑选,用15×15的滑动窗在每类标记样本中随机挑选1%的标记样本作为训练样本,剩余标记样本作为测试样本。按照类别挑选训练样本,并且保证每一类至少有10个样本用于训练。
步骤3、构建基于散射机制的多通道卷积神经网络:
S3.1网络结构
基于散射机制的多通道卷积神经网络主要由3个扩张卷积神经网络(Dilated-CNN)通道组成。为保证每个通道对最终的结果贡献相同,每个通道的结构设计相同,输入的数据尺寸大小也相同。基于散射机制的多通道扩张卷积神经网络结构如下表所示:
表1网络结构表
每个通道的输入都为尺寸为15×15大小的一维特征的patch块,每个通道包含三个扩张卷积层和一个最大池化层。扩张卷积层包含三个操作:扩张卷积、批量归一化(BN)、修正线性单元(ReLU)函数。每个扩张卷积层内核包含3×3个非零权重,第一个卷积层有64个滤波器,膨胀因子为1;第二个卷积层有128个滤波器,膨胀因子为2;第三个卷积层有256个滤波器,膨胀因子为5。每个卷积层后面都有一个BN层,每一个卷积层的激活函数均为ReLU函数,最后一层是pool_size为2×2的最大池化层。将通过三通道提取得到的高级特征级联得到最终的特征输出。接着将输出的特征展开为一个1维张量再用全连接层将这个张量进一步抽象为一个1维长度为1024的特征张量,再通过一个全连接层变为一个1维长度为512的特征张量。再将该特征张量输入到一个全连接层中,全连接层使用Softmax函数激活,输出每一类预测的概率。
S3.2损失函数
交叉熵是深度学习中一个常见的概念,一般用来求预测值和标签之间的差距。使用交叉熵作为损失函数来衡量预测值与标签的相似程度,再通过优化器来不断优化,来更新权值W与偏置b。交叉熵作为损失函数loss的表达式如式(1)所示,其中y为标签,为预测值,n为一个训练批次的样本总量,i为从1到n的样本下标。
S3.3优化器
使用AdaDelta优化器来更新网络中的参数,将学习率设置为0.1。AdaDelta算法结合AdaGrad和RMSProp两种算法,在模型训练的初期和中期,训练速度快。AdaDelta算法策略如式(8)所示:
其中Wt为第t次迭代的模型参数,gt=ΔJ(Wt)为代价函数关于W的梯度。E[g2]t表示前t次的梯度平方的均值。表示前t-1模型参数每次的更新步长累加求根。
步骤4、训练网络模型:
网络的训练流程如下所示:
(1)对网络参数初始化
(2)开始进行一轮迭代,把一个批次的PolSAR图像数据训练样本输入到三通道网络中,经过网络的前向计算得到输出结果。
在完成了网络的构建和初始化后,就开始对网络的模型进行训练。先将PolSAR数据的训练样本和测试样本加载到显存中。然后每次迭代前从训练样本中随机抽选100组数据作为一个batch,并将每一组数据按照散射机制划分通道输入至每通道网络中,将这个batch输入至初始化后的网络开始进行前向传播。
在前向传播时,每个通道中由卷积层提取特征,将输入的PolSAR图像极化特征训练为高级特征。特征提取过程如下式所示:
其中,代表扩展卷积获得的第l层的第i分特征图,/>代表扩展卷积获得的第l+1层第i个特征图。/>是第l+1层中的第i个卷积核,n是支配KD中0元素个数的膨胀因子。例如,以下内核称为2-扩张卷积:
在这里我们也假设核是平方的。在式(13)中,只有权重wij是可学习的参数,n-扩张卷积代表在wij和w(i+1)j/wi(j+1)之间有n-1个零点,1-扩张卷积与传统的3*3卷积相同。
在卷积层后使用的激活函数是ReLU激活函数,如公式(10)所示,相比于其他激活函数,ReLU激活函数将所有负值都变为0,正值不变。这种操作被称为单侧抑制,使得计算变得简单,同时还让神经网络具有稀疏激活性。而且ReLU激活函数具有较宽的兴奋边界,这能加快神经网络的训练,不存在梯度消失的问题。但是如果学习率设置的太高,就会导致神经元在训练过程中不可逆的死亡。所以需要设置适当的学习率来规避这个问题。
f(x)=max(0,x) (14)
在网络的末尾使用了一个全连接层来进行分类。最后使用Softmax层将输出结果映射到[0,1]区间内且使其总和为1,从而得到样本是属于每一类别的概率值。其中Softmax的表达式如公式(11)所示:
其中,Vi表示向量V的第i个元素,K为V的整体维度,k表示V的第k个维度,Si为Vi经过Softmax层后的输出。
(3)使用自定义损失函数得到本次迭代的损失,通过梯度求导的链式法则,将损失反向传播到网络的每一通道每一层得到该层权重W和偏置b的梯度,通过AdaDelta优化函数更新网络参数。
要使用梯度下降,肯定需要一个损失函数,在本发明中,使用交叉熵和平均交叉熵相结合的新的损失函数。考虑到样本不平衡的问题,根据样本数量的先验概率为均匀分布的交叉熵加入一个权重系数,定义的新的损失函数如公式(4)所示。
前向传播最后输出一个预测值,将这个预测值和真实值用定义的损失函数来计算误差,然后将误差进行反向传播至每一个网络通道中,利用链式法则对权重求偏导数,然后对各个权重进行更新。最后通过AdaDelta优化函数更新网络参数。
(4)回到步骤(2)进行下一个批次的迭代,直到所有的批次全都完成计算即为完成一轮迭代。
设置训练任务的迭代次数和模型保存的准确率阈值,然后网络不断的迭代训练,更新权重。每次迭代都输出损失函数,并且每次迭代输出当前迭代次数和损失函数。
(5)重复以上步骤,最后一直训练到达到满足迭代停止条件,保存最优的模型。训练过程中保存loss和accuracy的迭代值,存储后并输出。
步骤5、PolSAR图像地物分类:
在基于散射机制的多通道神经网络的训练完成之后,得到训练后的最优模型,在测试时加载模型。在对测试样本进行分类时,先将测试样本按照散射机制划分为三个特征通道数据,将三组数据分别输入网络的三通道中,得到分类结果概率矩阵,根据one-hot反编码得到最终的分类结果,保存分类结果并统计分类的准确率并在命令行显示。测试流程如下:
1)加载训练完成的模型。
2)将测试样本按照散射机制划分为三通道输入。
3)得到分类结果并保存,统计准确率并在命令行显示。
本发明仅仅使用Freeman-Durden分解得到的三特征作为特征输入,降低了特征提取过程中的复杂度,并且为了避免特征之间的相互干扰,将三种极化特征按照散射机制(面散射、二面角散射和体散射)分别输入到三通道卷积神经网络进行特征提取,每个通道的网络参数设置相同,保证了每个通道对最终结果贡献相同;考虑到特征提取过程中下采样会造成特征信息损失,我们使用扩张卷积代替了普通卷积,舍弃了池化层,扩大了感受野,使得特征提取更加丰富有效,利于最终的分类结果。相较于使用所丰富的极化特征一股脑输入到网络中进行分类,本发明提出的基于散射机制的多通道扩张卷积神经网络,仅仅利用了三个特征,降低了特征提取复杂度的同时,最终的分类结果也达到了比较好的效果。
附图说明
图1为选取样本数据并划分通道示意图
图2为本发明基于散射机制的多通道扩张卷积神经网络结构图
图3为本发明实施的整体流程图
具体实施方式
本发明的PolSAR图像地物分类基本流程如图3所示,具体包括以下步骤:
1)使用PolSARpro软件对原始的PolSAR数据滤波,做特征提取。首先将PolSAR原始数据进行5×5的滤波,减少噪声的影响,使用Freeman-Durden方法提取三个极化特征,这三个极化特征代表三种主要的散射机理:面散射、体散射和二面角散射,这三种极化特征在后面的步骤中将会被按照散射机制划分输入到多通道网络中。
2)数据预处理以及样本的划分。首先将上一步骤中得到的三个极化特征二进制.bin文件转换为.mat类型的数据,将所有样本数据按行归一化,将数据限定在[0,1]的范围内,消除奇异样本数据造成的不良影响。然后使用15×15的滑动窗在每类的标记样本中随机挑选1%的标记样本作为训练样本,由于每一类标记样本的数据量差异很大,要保证每一类至少有10个标记样本用于训练,剩余的标记样本则作为测试样本,制作成为一个整体的.mat格式数据。
3)对基于散射机制的多通道扩张卷积神经网络的搭建和初始化。首先搭建基于散射机制的多通道卷积神经网络的结构,规定每一个通道输入patch块的尺寸为15×15×1。基于散射机制的多通道卷积神经网络主要是由三个Dilated-CNN通道构成,每一个通道的结构相同且每一个通道的权重是共享的。
扩张卷积层包含三个操作:扩张卷积、批量归一化(BN)、修正线性单元(ReLU)函数。每个扩张卷积层内核包含3×3个非零权重,第一个卷积层有64个滤波器,膨胀因子为1;第二个卷积层有128个滤波器,膨胀因子为2;第三个卷积层有256个滤波器,膨胀因子为5。每个卷积层后面都有一个BN层,每一个卷积层的激活函数均为ReLU函数,最后一层是pool_size为2×2的最大池化层。将通过三通道提取得到的高级特征级联得到最终的特征输出。接着将输出的特征展开为一个1维张量再用全连接层将这个张量进一步抽象为一个1维长度为1024的特征张量,再通过一个全连接层变为一个1维长度为512的特征张量。
为了防止网络过拟合,在两个全连接层之后加入一个dropout层,并将保留概率设置为0.2。网络的末尾使用了一个全连接层来进行分类。使用Softmax层将输出结果映射到[0,1]区间且使其总和为1,从而得到样本属于每一个类别的概率值。
4)网络的训练
设置batch的大小参数batch_size为100,设置最大迭代次数为n,模型保存的最大准确率best。
每次迭代前随即从训练样本中抽取100个输入作为一个batch进行训练,这100个输入首先按特征划分为三个通道的输入。
在进行迭代时将batch里的数据输入到网络中得到预测值,计算loss,更新权重w和偏置b。
在迭代范围内,不断更新模型,计算模型准确率best,若高于best则保存模型,更新best,继续迭代,否则直接继续迭代。
迭代次数达到n后停止迭代,训练完成。
网络的训练过程伪代码如下:
5)结果验证
为了验证本发明的方法在PolSAR图像地物分类上的优势,从所有标记样本中随机抽取1%的标记样本作为训练样本,剩余标记样本作为测试样本对模型进行评价,并将最终的分类结果与真实值做对比,统计准确率,并在命令行显示。下表展示了在经典的AIRSARFlevoland数据集上本发明所使用的方法与其他经典方法分类结果对比,包括支持向量机(SVM),CNN以及多通道卷积神经网络(MCNN)。
表2不同方法的分类结果
方法 | SVM | CNN | MCNN | DMCNN |
分类精度(%) | 75.31 | 92.45 | 94.58 | 96.38 |
从上述表格中的结果可以看出,本发明提出的基于散射机制的扩张卷积神经网络在PolSAR图像上的分类结果相较于其他经典的分类方法具有一定的优势,即使在样本量较小的情况下能够达到96.38%的分类精度。
Claims (4)
1.一种基于散射机制多通道扩张卷积神经网络的极化SAR地物分类方法,其特征在于:该方法的实施流程如下:
步骤1、数据预处理:
对PolSAR数据滤波、特征提取;
S1.1将PolSAR数据进行5×5的Lee滤波;
S1.2利用Freeman-Durden分解方法特征提取;
在全极化观测中,用于发送和接收的方式是线性水平和垂直极化,则极化后向散射矩阵[S]表示为:
H和V代表极化方式,H表示水平方向极化,V表示垂直方向极化;SHH表示水平方向发射水平方向接收的极化回波数据,SVV表示垂直方向发射垂直方向接收的极化回波数据;SHV表示水平方向发射垂直方向接收的极化回波数据,SVH表示垂直方向发射水平方向接收的极化回波数据;
将S矩阵进行变换得到极化SAR数据的另一种表示形式,极化协方差矩阵C;首先将S矩阵向量化得:
式中,[]T表示矩阵转置;然后,将此向量跟自身的共轭转置矩阵相乘就可得到极化协方差矩阵:
完整的协方差矩阵表示为:
其中,()*表示这个数据的共轭,<>表示按照极化视数取平均值;
将目标的极化协方差矩阵C分解为3种基本散射分量之和,过程如公式(5)所示:
式中,[C]s对应表面散射,[C]d对应二面角散射,[C]v对应体散射;fs对应着布拉格表面散射分量的贡献,fd对应着二面角散射分量的贡献,fv对应着体散射分量的贡献;β表示HH后向散射与VV后向散射的比值,α被定义为α=RghRvh/RgvRvv,其中Rgh和Rgv分别表示地表的水平和垂直Fresnel系数,Rvh和Rvv表示竖直墙体的Fresnel系数;
Freeman-Durden分解的主要思路则是将极化协方差矩阵C分解为三种主要的散射机理,即面散射、二面角散射和体散射,其表现形式为:
其中,fs,fd,fv分别对应面散射、二面角散射和体散射分量,Ps,Pd,Pv则对应着每个分量的散射功率;
步骤2、样本的划分:
在训练网络模型之前,需要划分数据样本:从所有标记样本中随机选取一定比例的训练样本,剩余标记样本作为测试样本;
步骤3、构建基于散射机制的多通道卷积神经网络:
S3.1网络结构
基于散射机制的多通道卷积神经网络由3个扩张卷积神经网络Dilated-CNN通道组成;为保证每个通道对最终的结果贡献相同,每个通道的结构设计相同,输入的数据尺寸大小也相同;每个通道的输入都为尺寸为15×15大小的一维特征的patch块,每个通道包含三个扩张卷积层和一个最大池化层;扩张卷积层包含三个操作:扩张卷积、批量归一化BN、修正线性单元ReLU函数;每个扩张卷积层内核包含3×3个非零权重,第一个卷积层有64个滤波器,膨胀因子为1;第二个卷积层有128个滤波器,膨胀因子为2;第三个卷积层有256个滤波器,膨胀因子为5;每个卷积层后面都有一个BN层,每一个卷积层的激活函数均为ReLU函数,最后一层是pool_size为2×2的最大池化层;将通过三通道提取得到的高级特征级联得到最终的特征输出;接着将输出的特征展开为一个1维张量再用全连接层将这个张量进一步抽象为一个1维长度为1024的特征张量,再通过一个全连接层变为一个1维长度为512的特征张量;再将该特征张量输入到一个全连接层中,全连接层使用Softmax函数激活,输出每一类预测的概率;
S3.2损失函数
交叉熵作为损失函数loss的表达式如式(7)所示,其中y为标签,为预测值,n为一个训练批次的样本总量,i为从1到n的样本下标;
S3.3优化器
使用AdaDelta优化器来更新网络中的参数,将学习率设置为0.1;AdaDelta算法结合AdaGrad和RMSProp两种算法,在模型训练的初期和中期,训练速度快;AdaDelta算法策略如式(11)所示:
其中Wt为第t次迭代的模型参数,gt=ΔJ(Wt)为代价函数关于W的梯度;E[g2]t表示前t次的梯度平方的均值;表示前t-1模型参数每次的更新步长累加求根;
步骤4、训练网络模型:
网络的训练流程如下所示:
S4.1对网络参数初始化
S4.2开始进行一轮迭代,把一个批次的PolSAR图像数据训练样本输入到三通道网络中,经过网络的前向计算得到输出结果;
S4.3使用自定义损失函数得到本次迭代的损失,通过梯度求导的链式法则,将损失反向传播到网络的每一通道每一层得到该层权重W和偏置b的梯度,通过AdaDelta优化函数更新网络参数;
使用交叉熵和平均交叉熵相结合的新的损失函数;考虑到样本不平衡的问题,根据样本数量的先验概率为均匀分布的交叉熵加入一个权重系数,定义的新的损失函数;前向传播最后输出一个预测值,将这个预测值和真实值用定义的损失函数来计算误差,然后将误差进行反向传播至每一个网络通道中,利用链式法则对权重求偏导数,然后对各个权重进行更新;最后通过AdaDelta优化函数更新网络参数;
S4.4回到S4.2进行下一个批次的迭代,直到所有的批次全都完成计算即为完成一轮迭代;
设置训练任务的迭代次数和模型保存的准确率阈值,然后网络不断的迭代训练,更新权重;每次迭代都输出损失函数,并且每次迭代输出当前迭代次数和损失函数;
S4.5重复以上步骤S4.1-S4.4,最后一直训练到达到满足迭代停止条件,保存最优的模型;训练过程中保存loss和accuracy的迭代值,存储后并输出;
步骤5、PolSAR图像地物分类:
在基于散射机制的多通道神经网络的训练完成之后,得到训练后的最优模型,在测试时加载模型;在对测试样本进行分类时,先将测试样本按照散射机制划分为三个特征通道数据,将三组数据分别输入网络的三通道中,得到分类结果概率矩阵,根据one-hot反编码得到最终的分类结果,保存分类结果并统计分类的准确率并在命令行显示。
2.根据权利要求1所述的一种基于散射机制多通道扩张卷积神经网络的极化SAR地物分类方法,其特征在于:步骤2中,
S2.1将预处理后的PoLSAR数据按行归一化;使得预处理的数据限定在[0,1]的范围内,从而消除奇异样本数据导致的不良影响;
S2.2进行训练样本和测试样本的挑选,用15×15的滑动窗在每类标记样本中随机挑选1%的标记样本作为训练样本,剩余标记样本作为测试样本;按照类别挑选训练样本,并且保证每一类至少有10个样本用于训练。
3.根据权利要求1所述的一种基于散射机制多通道扩张卷积神经网络的极化SAR地物分类方法,其特征在于:步骤4中,
在完成了网络的构建和初始化后,开始对网络的模型进行训练;将PolSAR数据的训练样本和测试样本加载到显存中;然后每次迭代前从训练样本中随机抽选100组数据作为一个batch,并将每一组数据按照散射机制划分通道输入至每通道网络中,将这个batch输入至初始化后的网络开始进行前向传播;
在前向传播时,每个通道中由卷积层提取特征,将输入的PolSAR图像极化特征训练为高级特征;特征提取过程如下式所示:
其中,代表扩展卷积获得的第l层的第i分特征图,/>代表扩展卷积获得的第l+1层第i个特征图;/>是第l+1层中的第i个卷积核,n是支配KD中0元素个数的膨胀因子;内核为2-扩张卷积如下:
在式(13)中,只有权重wij是可学习的参数,n-扩张卷积代表在wij和w(i+1)j/wi(j+1)之间有n-1个零点,1-扩张卷积与传统的3*3卷积相同;
在卷积层后使用的激活函数是ReLU激活函数;
f(x)=max(0,x) (14)
在网络的末尾使用了一个全连接层来进行分类;最后使用Softmax层将输出结果映射到[0,1]区间内且使其总和为1,从而得到样本是属于每一类别的概率值;其中Softmax的表达式如公式(15)所示:
其中,Vi表示向量V的第i个元素,K为V的整体维度,k表示V的第k个维度,Si为Vi经过Softmax层后的输出。
4.根据权利要求1所述的一种基于散射机制多通道扩张卷积神经网络的极化SAR地物分类方法,其特征在于:步骤5中的测试流程如下:
1)加载训练完成的模型;
2)将测试样本按照散射机制划分为三通道输入;
3)得到分类结果并保存,统计准确率并在命令行显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110365566.4A CN113392871B (zh) | 2021-04-06 | 2021-04-06 | 一种基于散射机制多通道扩张卷积神经网络的极化sar地物分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110365566.4A CN113392871B (zh) | 2021-04-06 | 2021-04-06 | 一种基于散射机制多通道扩张卷积神经网络的极化sar地物分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113392871A CN113392871A (zh) | 2021-09-14 |
CN113392871B true CN113392871B (zh) | 2023-10-24 |
Family
ID=77617597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110365566.4A Active CN113392871B (zh) | 2021-04-06 | 2021-04-06 | 一种基于散射机制多通道扩张卷积神经网络的极化sar地物分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113392871B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114037896B (zh) * | 2021-11-09 | 2024-02-13 | 合肥工业大学 | 基于多指标卷积自编码器的PolSAR地物精细分类方法 |
CN116612603A (zh) * | 2023-07-17 | 2023-08-18 | 微网优联科技(成都)有限公司 | 一种移动物监控系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564006A (zh) * | 2018-03-26 | 2018-09-21 | 西安电子科技大学 | 基于自步学习卷积神经网络的极化sar地物分类方法 |
CN110516728A (zh) * | 2019-08-20 | 2019-11-29 | 西安电子科技大学 | 基于去噪卷积神经网络的极化sar地物分类方法 |
KR20190133442A (ko) * | 2018-05-23 | 2019-12-03 | 한국해양과학기술원 | 인공위성 sar 영상기반 인공신경망을 이용한 오일 유출 탐지 방법 |
CN110781830A (zh) * | 2019-10-28 | 2020-02-11 | 西安电子科技大学 | 基于空-时联合卷积的sar序列图像分类方法 |
CN110780271A (zh) * | 2019-10-18 | 2020-02-11 | 西安电子科技大学 | 基于卷积神经网络的空间目标多模式雷达分类方法 |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
-
2021
- 2021-04-06 CN CN202110365566.4A patent/CN113392871B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564006A (zh) * | 2018-03-26 | 2018-09-21 | 西安电子科技大学 | 基于自步学习卷积神经网络的极化sar地物分类方法 |
KR20190133442A (ko) * | 2018-05-23 | 2019-12-03 | 한국해양과학기술원 | 인공위성 sar 영상기반 인공신경망을 이용한 오일 유출 탐지 방법 |
CN110516728A (zh) * | 2019-08-20 | 2019-11-29 | 西安电子科技大学 | 基于去噪卷积神经网络的极化sar地物分类方法 |
CN110780271A (zh) * | 2019-10-18 | 2020-02-11 | 西安电子科技大学 | 基于卷积神经网络的空间目标多模式雷达分类方法 |
CN110781830A (zh) * | 2019-10-28 | 2020-02-11 | 西安电子科技大学 | 基于空-时联合卷积的sar序列图像分类方法 |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
Non-Patent Citations (1)
Title |
---|
全卷积网络和条件随机场相结合的全极化SAR土地覆盖分类;赵泉华;谢凯浪;王光辉;李玉;;测绘学报(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113392871A (zh) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110516596B (zh) | 基于Octave卷积的空谱注意力高光谱图像分类方法 | |
CN107316013B (zh) | 基于nsct变换和dcnn的高光谱图像分类方法 | |
CN109492556B (zh) | 面向小样本残差学习的合成孔径雷达目标识别方法 | |
CN110348399B (zh) | 基于原型学习机制和多维残差网络的高光谱智能分类方法 | |
CN107292317B (zh) | 基于浅层特征与t矩阵深度学习的极化sar分类方法 | |
CN112308152B (zh) | 基于光谱分割与同质区域检测的高光谱图像地物分类方法 | |
CN113392871B (zh) | 一种基于散射机制多通道扩张卷积神经网络的极化sar地物分类方法 | |
CN111914728B (zh) | 高光谱遥感影像半监督分类方法、装置及存储介质 | |
CN105069796B (zh) | 基于小波散射网络的sar图像分割方法 | |
CN107944483B (zh) | 基于双通道dcgan和特征融合的多光谱图像分类方法 | |
CN109190511B (zh) | 基于局部与结构约束低秩表示的高光谱分类方法 | |
CN109359525B (zh) | 基于稀疏低秩的判别谱聚类的极化sar图像分类方法 | |
CN112699899A (zh) | 一种基于生成对抗网络的高光谱图像特征提取方法 | |
CN103839073A (zh) | 一种基于极化特征和近邻传播聚类的极化sar图像分类方法 | |
CN112200123B (zh) | 联合稠密连接网络和样本分布的高光谱开放集分类方法 | |
CN111027630B (zh) | 一种基于卷积神经网络的图像分类方法 | |
CN110766084A (zh) | 基于cae与hl-cnn的小样本sar目标识别方法 | |
Chen et al. | Application of improved convolutional neural network in image classification | |
CN114998958A (zh) | 一种基于轻量化卷积神经网络的人脸识别方法 | |
CN107680081B (zh) | 基于卷积神经网络的高光谱图像解混方法 | |
CN113837314A (zh) | 一种基于混合卷积神经网络的高光谱图像分类方法 | |
CN107273919A (zh) | 一种基于置信度构造类属字典的高光谱无监督分类方法 | |
Kate et al. | A 3 Tier CNN model with deep discriminative feature extraction for discovering malignant growth in multi-scale histopathology images | |
CN113516019B (zh) | 高光谱图像解混方法、装置及电子设备 | |
CN112906716A (zh) | 基于小波去噪阈值自学习的带噪sar图像目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |