CN107516082A - 基于自步学习的sar图像变化区域检测方法 - Google Patents
基于自步学习的sar图像变化区域检测方法 Download PDFInfo
- Publication number
- CN107516082A CN107516082A CN201710739750.4A CN201710739750A CN107516082A CN 107516082 A CN107516082 A CN 107516082A CN 201710739750 A CN201710739750 A CN 201710739750A CN 107516082 A CN107516082 A CN 107516082A
- Authority
- CN
- China
- Prior art keywords
- synthetic aperture
- sar image
- mrow
- aperture radar
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008859 change Effects 0.000 title claims abstract description 92
- 238000001514 detection method Methods 0.000 title claims abstract description 76
- 239000011159 matrix material Substances 0.000 claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 53
- 239000013598 vector Substances 0.000 claims description 22
- 238000010606 normalization Methods 0.000 claims description 16
- 238000012937 correction Methods 0.000 claims description 3
- 238000007667 floating Methods 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 description 35
- 238000012360 testing method Methods 0.000 description 30
- 238000004458 analytical method Methods 0.000 description 7
- 238000007689 inspection Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了的一种自步学习的合成孔径雷达SAR图像变化区域检测方法,主要解决现有技术对合成孔径雷达SAR图像的斑点噪声敏感,易造成合成孔径雷达SAR图像的部分纹理信息丢失的问题。本发明的具体步骤如下:(1)读入合成孔径雷达SAR图像;(2)归一化;(3)构建变化检测矩阵;(4)选择训练样本集;(5)训练深度信念网络;(6)构建概率矩阵;(7)更新概率矩阵;(8)获得变化检测图像。本发明有效利用原始图像的局部信息和深度信念网络的自学习能力减少了斑点噪声,保留了图像局部信息,提高了变化检测的精度。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及遥感图像变化检测技术领域中的一种基于自步学习的合成孔径雷达SAR(Synthetic Aperture Radar,SAR)图像变化检测方法。本发明可用于提取同一地区不同时段的两幅合成孔径雷达SAR图像的邻域像素信息,并用自步学习算法对提取的像素信息进行学习,得到最终的变化检测图。
背景技术
合成孔径雷达作为一种主动微波传感器,具有分辨率高、全天候、全天时工作以及穿透力强的特点,使合成孔径雷达SAR具有光学遥感图像无法比拟的优势。合成孔径雷达SAR图像变化检测技术是研究同一场景不同时段的两幅或者多幅合成孔径雷达SAR图像发生的区域性变化。其应用场景较为广泛,主要包括自然生态的监控、自然灾害评估和预防、获取地貌变化信息等。
目前合成孔径雷达SAR图像变化检测的分析步骤大致分为两步:(1)生成差异图。此步骤是初步区分2幅合成孔径雷达SAR图像中的未变化类和变化类,并为差异图分析提供基础。其典型算法包括:差值法、均值比值法和对数比值法。这些算法存在的缺点是对相干斑噪声敏感,检测变化精度不高;(2)分析差异图。该步骤是对步骤(1)获得的差异图进行分析,提取变化信息,最终得到两幅图像的变化区域和非变化区域。
Zheng等人在其发表的论文“Using combined difference image and k-meansclustering for合成孔径雷达SAR image change detection”(IEEE Geoscience andRemote Sensing Letters,2014,11(3):691-695)中提出了一种简单实用的差异图融合方法,即组合差异图CDI(Combined Difference Image)法。该方法的步骤是,首先用差值算子和对数比值算子分别得到合成孔径雷达SAR图像的差值差异图和对数比值差异图。然后对上述差异图进行均值滤波和中值滤波,初步去除噪声干扰和野点。然后再利用人工参数加权法获得做最终融合差异图。最终使用K-means算法分析融合差异图。该方法存在的不足之处是,算法中含有人工参数,需要多次测试才能得出最优参数值,不易根据影像本身的性质进行自动选择。
西安电子科技大学在其申请的专利“基于无监督深度神经网络的合成孔径雷达SAR图像变化检测”(专利申请号:201410818305.3,公开号:CN104517124A)中提出了一种基于无监督深度神经网络的合成孔径雷达SAR图像变化检测。该方法首先对同一地区不同时相的合成孔径雷达SAR图像进行联合FCM分类获得粗糙的变化检测结果;然后根据初始的变化检测结果选择可能性大的非噪声点作为深度神经网络的训练样本;再将这些样本输入到深度神经网络中进行训练;最后将两幅待检测的图像输入训练好的深度神经网络中得到最终的变化检测结果。该方法存在的不足之处是,该方法在联合分类的时候未考虑合成孔径雷达SAR图像斑点噪声的影响,易造成图像的部分纹理信息丢失。
发明内容
本发明的目的在于克服上述已有技术的缺点,提出了一种基于自步学习的合成孔径雷达SAR图像变化区域检测方法,以实现对合成孔径雷达SAR图像变化区域的准确检测。该方法采用自步学习算法,从差异值矩阵中分别随机选择不同的训练样本集依次训练深度信念网络,提升深度信念网络的自学习能力,提高了差异值矩阵中每个元素被划分为变化类的概率的准确度。该方法思路简单明确,通过有效利用原始图像的局部信息和深度信念网络的自学习能力提高了变化检测的精度。
本发明实现上述目的的思路是:首先运用邻域比值方法构建归一化合成孔径雷达SAR图像的差异值矩阵,从检测矩阵中分别随机选择不同的训练样本集,依次训练一个深度信念网络。再把差异值矩阵所有元素作为测试数据,依次输入到训练好的深度信念网络里进行测试,将深度信念网络的输出结果依次保存到概率矩阵中,更新概率矩阵,最终输出变化检测图像。
本发明实现的具体步骤包括如下:
(1)读入合成孔径雷达SAR图像:
读入同一地区不同时相的两幅已配准且校正的合成孔径雷达SAR图像I1和I2;
(2)归一化:
使用归一化公式,对合成孔径雷达SAR图像I1和I2分别进行归一化处理,得到归一化后的合成孔径雷达SAR图像I1'和I2';
(3)构建变化检测矩阵:
(3a)将归一化后的合成孔径雷达SAR图像I1'的每一个像素点与其周围3×3邻域的9个像素点作为检测子矩阵M1的行向量,组成一个检测子矩阵M1;
(3b)将归一化后的合成孔径雷达SAR图像I2'的每一个像素点与其周围3×3邻域的9个像素点作为检测子矩阵M2的行向量,组成一个检测子矩阵M2;
(3c)将检测子矩阵M1和检测子矩阵M2的所有行向量,依次存放在变化检测矩阵的行向量中,组成一个变化检测矩阵;
(4)选择训练样本集:
(4a)从变化检测矩阵中随机选择一个行向量,作为一个训练样本;
(4b)除变化检测矩阵中所选行向量外,从变化检测矩阵中分别随机选择行向量总数的15%,30%,45%,60%,75%的行向量,组成5个训练样本集;
(5)训练深度信念网络:
将5个训练样本集的不同样本,依次输入到深度信念网络中,训练深度信念网络;
(6)构建概率矩阵:
将变化检测矩阵的每一个元素及其周围3×3邻域元素,依次输入到训练好的深度信念网络中,得到每一个元素的变化概率,将变化概率保存到概率矩阵中;
(7)更新概率矩阵:
(7a)判断概率矩阵中的每一个元素是否大于等于0.5,若是,则执行步骤(7b),否则,执行步骤(7c);
(7b)将元素的值更新为255后执行步骤(8);
(7c)将元素的值更新为0后执行步骤(8);
(8)获得变化检测图像:
将更新的概率矩阵中的所有元素值作为像素灰度值,将像素灰度值转化为变化检测图像。
本发明与现有技术相比具有以下优点:
第一,由于本发明采用了深度信念网络自学习结构,构建了归一化后合成孔径雷达SAR图像的变化检测矩阵,克服了现有技术中受噪声影响导致不能有效检测出变化区域的问题,使得本发明在进行合成孔径雷达SAR图像变化检测时提升深度信念网路自学习能力,使得本发明在进行合成孔径雷达SAR图像变化检测时,提高了变化检测的精度。
第二,由于本发明采用了自步学习方法,从变化检测矩阵中分别随机选择不同的训练样本集后再依次训练深度信念网络,克服了现有技术中含有人工参数,需要多次测试才能得出最优参数值,不易根据影像本身的性质进行自动选择,易造成部分纹理图像信息丢失的问题,提高了变化检测矩阵中每个元素被划分为变化类的准确度。
附图说明
图1是本发明的流程图;
图2是本发明仿真实验中对Bern地区合成孔径雷达SAR图像的变化检测结果图;
图3是本发明仿真实验中对Ottawa地区合成孔径雷达SAR图像的变化检测结果图;
图4是本发明仿真实验中对Mulargia地区合成孔径雷达SAR图像的变化检测结果图;
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1,本发明的具体实现步骤如下:
步骤1,读入合成孔径雷达SAR图像。
读入同一地区不同时相的两幅已配准且校正的合成孔径雷达SAR图像I1和I2。
步骤2,归一化。
使用下式,对合成孔径雷达SAR图像I1和I2分别进行归一化处理,得到归一化后的合成孔径雷达SAR图像I1'和I2':
其中,I1'表示合成孔径雷达SAR图像I1归一化后的合成孔径雷达SAR图像,min表示取最小值操作,max表示取最大值操作,I2'表示合成孔径雷达SAR图像I2归一化后的合成孔径雷达SAR图像。
步骤3,构建变化检测矩阵。
第一步,将归一化后的合成孔径雷达SAR图像I1'的每一个像素点与其周围3×3邻域的9个像素点作为检测子矩阵M1的行向量,组成一个检测子矩阵M1。
第二步,将归一化后的合成孔径雷达SAR图像I2'的每一个像素点与其周围3×3邻域的9个像素点作为检测子矩阵M2的行向量,组成一个检测子矩阵M2。
第三步,将检测子矩阵M1和检测子矩阵M2的所有行向量,依次存放在变化检测矩阵的行向量中,组成一个变化检测矩阵。
步骤4,选择训练样本集。
第一步,从变化检测矩阵中随机选择一个行向量,作为一个训练样本。
第二步,除变化检测矩阵中所选行向量外,从变化检测矩阵中分别随机选择行向量总数的15%,30%,45%,60%,75%的行向量,组成5个训练样本集。
步骤5,训练深度信念网络。
将5个训练样本集的不同样本,依次输入到深度信念网络中,训练深度信念网络
训练深度神经网络的具体操作步骤如下:
第一步,将深度信念网络的隐藏层层数设为4,每个隐藏层的节点数目分别为250,150,100,1,深度信念网络的每个隐藏层的结构为一个由多神经元组成的受限玻尔兹曼机RBM网络,深度信念网络的输入层的节点数目为9,输出层的节点数目为1。
第二步,用0到50以内的浮点数随机初始化每个隐藏层受限玻尔兹曼机RBM的权重和偏置,用所选的训练样本集单独地无监督训练每一层RBM网络,将每个隐藏层的受限玻尔兹曼机RBM训练100次,得到每一层RBM网络的最优权重和偏置。
第三步,使用基于最小交叉熵的反向传播算法,对深度信念网络进行微调,得到训练好的深度信念网络。
步骤6,构建概率矩阵。
将变化检测矩阵的每一个元素及其周围3×3邻域元素,依次输入到训练好的深度信念网络中,得到每一个元素的变化概率,将变化概率保存到概率矩阵中。
步骤7,更新概率矩阵。
第一步,判断概率矩阵中的每一个元素是否大于等于0.5,若是,则执行第二步,否则,执行第三步。
第二步,将元素的值更新为255后执行步骤8。
第三步,将元素的值更新为0后执行步骤8。
步骤8,获得变化检测图像。
将更新的概率矩阵中的所有元素值作为像素灰度值,调用Matlab的imshow函数将像素灰度值转化为变化检测图像。
下面结合仿真实验对本发明的效果做进一步的说明。
1、仿真条件:
本发明的仿真实验是在主频2.30GHz的Intel Pentium(R)Dual-Core CPU、内存5GB的硬件环境和MATLAB R2014a的软件环境下进行的。
本发明仿真实验所使用的仿真参数如下:
漏检数:统计实验结果图中发生变化区域的像素个数,与参考图中变化区域的像素个数进行对比,把参考图中发生变化但实验结果图中检测为未变化的像素个数,称为漏检数FN。
误检数:统计实验结果图中未发生变化区域的像素个数,与参考图中未变化区域的像素个数进行对比,把参考图中未发生变化但实验结果图中检测为变化的像素个数,称为误检数FP。
总错误数=漏检数+误检数;
正确率PCC:PCC=1-总错误数/总像素数。
衡量检测结果图与参考图一致性的Kappa系数:
其中,PRE表示理论检测精度的一致率,Nc表示实验结果图中像素值是255的像素的总个数,Nu表示实验结果图中像素值是0的像素的总个数,Mc为标准参考图像的像素点的总个数,PCC表示实际检测精度的一致率,卡帕系数Kappa指标检验变化检测结果的精度。
2、仿真内容与结果分析:
本发明的仿真实验使用了三组真实的合成孔径雷达SAR图像数据及相应的变化检测参考图,仿真实验中采用的实验图像数据如下:
图2是本发明仿真实验中对Bern地区合成孔径雷达SAR图像的变化检测结果图。图2(a)是本发明仿真实验中使用的真实的合成孔径雷达SAR图像,该图像选自于Bern地区1999年4月的一幅合成孔径雷达SAR图像,图2(b)是本发明仿真实验中使用的真实的合成孔径雷达SAR图像,该图像选自于Bern地区1999年5月的一幅合成孔径雷达SAR图像,图2(c)是本发明仿真实验中使用的Bern地区的变化检测参考图,图2(d)是本发明仿真实验中采用现有技术的基于邻域比值差异图NR方法,获得Bern地区的合成孔径雷达SAR图像的变化检测结果,图2(e)是本发明仿真实验中采用现有技术的基于深度对称卷积耦合网络SCCN方法,获得Bern地区的合成孔径雷达SAR图像的变化检测结果,图2(f)是采用本发明技术,获得Bern地区的合成孔径雷达SAR图像的变化检测结果。
图3是本发明仿真实验中对Ottawa地区合成孔径雷达SAR图像的变化检测结果图。图3(a)是本发明仿真实验中使用的真实的合成孔径雷达SAR图像,该图像选自于Ottawa地区1997年5月的一幅合成孔径雷达SAR图像,图3(b)是本发明仿真实验中使用的真实的合成孔径雷达SAR图像,该图像选自于Ottawa地区1997年8月的一幅合成孔径雷达SAR图像,图3(c)是本发明仿真实验中使用的Ottawa地区的变化检测参考图,
图3(d)是本发明仿真实验中采用现有技术的基于邻域比值差异图NR方法,获得Ottawa地区的合成孔径雷达SAR图像的变化检测结果,图3(e)是本发明仿真实验中采用现有技术的基于深度对称卷积耦合网络SCCN方法,获得Ottawa地区的合成孔径雷达SAR图像的变化检测结果,图3(f)采用本发明技术,获得Ottawa地区的合成孔径雷达SAR图像的变化检测结果。
图4是本发明仿真实验中对意大利撒丁岛Mulargia湖泊区域合成孔径雷达SAR图像的变化检测结果图。图4(a)是本发明仿真实验中使用的真实的合成孔径雷达SAR图像,该图像选自于意大利撒丁岛Mulargia湖泊区域1996年7月的一幅合成孔径雷达SAR图像,图4(b)是本发明仿真实验中使用的真实的合成孔径雷达SAR图像,该图像选自于意大利撒丁岛Mulargia湖泊区域的1996年9月的一幅合成孔径雷达SAR图像,图4(c)是本发明仿真实验中使用的意大利撒丁岛Mulargia湖泊区域的变化检测参考图,图4(d)是本发明仿真实验中采用现有技术的基于邻域比值差异图NR方法,获得意大利撒丁岛Mulargia湖泊区域的合成孔径雷达SAR图像的变化检测结果,图4(e)是本发明仿真实验中采用现有技术的基于深度对称卷积耦合网络SCCN方法,获得意大利撒丁岛Mulargia湖泊区域的合成孔径雷达SAR图像的变化检测结果,图4(f)是采用本发明技术,获得意大利撒丁岛Mulargia湖泊区域的合成孔径雷达SAR图像的变化检测结果。
本发明的仿真实验采用基于邻域比值差异图NR方法、基于深度对称卷积耦合网络SCCN(Symmetric Convolutional Coupling Network,SCCN)方法和采用本发明方法,分别对Bern地区、Ottawa地区和意大利撒丁岛Mulargia湖泊区域合成孔径雷达SAR图像进行变化检测的检测结果进行对比。
图2(c),图2(d),图2(e)和图2(f)中的黑色部分表示仿真实验后检测到的变化区域,白色部分表示仿真实验后检测到的非变化区域。由图2(d)和图2(e)可见,两图中的黑色部分与图2(c)中的黑色部分相同,两图中白色部分比图2(c)中的白色部分多,黑色部分相同表示可以正确检测到非变化区域,白色部分多表示错误检测到变化区域。由图2(f)可见,图中黑色部分和与图2(c)中的黑色部分相同,图2(f)中白色部分比图2(c)中的白色部分少,黑色部分相同表示可以正确检测到非变化区域,白色部分少表示可以正确检测到变化区域。
由表1可见,本发明的总错误像素数分别比NR方法和SCCN方法少了159个和2421个,总错误像素数小表示检测精度高。Kappa系数比NR方法和SCCN方法分别高0.043和0.217,Kappa系数高表示检测精度高。
经分析,采用NR方法和SCCN方法误检测的非变化区域多,采用本发明的方法误检测的非变化区域少,采用本发明方法得到的检测结果图与参考图最为接近。
表1 Bern地区变化检测结果一览表
方法 | 漏检像素数 | 错检像素数 | 总错误像素数 | 检测正确率 | Kappa系数 |
NR | 415 | 82 | 497 | 0.9945 | 0.809 |
SCCN | 2068 | 691 | 2759 | 0.9214 | 0.635 |
本发明 | 167 | 171 | 338 | 0.9963 | 0.852 |
图3(c),图3(d),图3(e)和图3(f)中的黑色部分表示仿真实验后检测到的变化区域,白色部分表示仿真实验后检测到的非变化区域。由图3(d)和图3(e)可见,两图中的黑色部分与图3(c)中的黑色部分相同,两图中白色部分比图3(c)中的白色部分多,黑色部分相同表示可以正确检测到非变化区域,白色部分多表示错误检测到变化区域。由图3(f)可见,图中黑色部分和与图3(c)中的黑色部分相同,图3(f)中白色部分比图3(c)中的白色部分少,黑色部分相同表示可以正确检测到非变化区域,白色部分少表示可以正确检测到变化区域。
由表2可见,本发明的总错误像素数分别比NR方法和SCCN方法少了1308个和4579个,总错误像素数小表示检测精度高。Kappa系数比NR方法和SCCN方法分别高0.038和0.174,Kappa系数高表示检测精度高。
经分析,采用NR方法和SCCN方法误检测的非变化区域多,采用本发明的方法误检测的非变化区域少,采用本发明方法得到的检测结果图与参考图最为接近。
表2 Ottawa地区变化检测结果一览表
方法 | 漏检像素数 | 错检像素数 | 总错误像素数 | 检测正确率 | Kappa系数 |
NR | 2473 | 1272 | 3745 | 0.9753 | 0.866 |
SCCN | 2774 | 4242 | 7016 | 0.9308 | 0.730 |
本发明 | 517 | 1920 | 2437 | 0.9759 | 0.904 |
图4(c),图4(d),图4(e)和图4(f)中的黑色部分表示仿真实验后检测到的变化区域,白色部分表示仿真实验后检测到的非变化区域。由图4(d)和图4(e)可见,两图中的黑色部分与图4(c)中的黑色部分相同,两图中白色部分比图4(c)中的白色部分多,黑色部分相同表示可以正确检测到非变化区域,白色部分多表示错误检测到变化区域。由图4(f)可见,图中黑色部分和与图4(c)中的黑色部分相同,图4(f)中白色部分比图4(c)中的白色部分少,黑色部分相同表示可以正确检测到非变化区域,白色部分少表示可以正确检测到变化区域。
由表3可见,本发明的总错误像素数分别比NR方法和SCCN方法少了430个和861个,总错误像素数小表示检测精度高。Kappa系数比NR方法和SCCN方法分别高0.01和0.029,Kappa系数高表示检测精度高。
经分析,采用NR方法和SCCN方法误检测的非变化区域多,采用本发明的方法误检测的非变化区域少,采用本发明方法得到的检测结果图与参考图最为接近。
表3意大利撒丁岛Mulargia湖泊区域变化检测结果一览表
方法 | 漏检像素数 | 错检像素数 | 总错误像素数 | 检测正确率 | Kappa系数 |
NR | 6296 | 3923 | 10219 | 0.9173 | 0.558 |
SCCN | 6511 | 4139 | 10650 | 0.9138 | 0.539 |
本发明 | 4615 | 5174 | 9789 | 0.9208 | 0.568 |
Claims (3)
1.一种基于自步学习的合成孔径雷达SAR图像变化区域检测方法,其特征在于,包括如下步骤:
(1)读入合成孔径雷达SAR图像:
读入同一地区不同时相的两幅已配准且校正的合成孔径雷达SAR图像I1和I2;
(2)归一化:
使用归一化公式,对合成孔径雷达SAR图像I1和I2分别进行归一化处理,得到归一化后的合成孔径雷达SAR图像I1'和I2';
(3)构建变化检测矩阵:
(3a)将归一化后的合成孔径雷达SAR图像I1'的每一个像素点与其周围3×3邻域的9个像素点作为检测子矩阵M1的行向量,组成一个检测子矩阵M1;
(3b)将归一化后的合成孔径雷达SAR图像I2'的每一个像素点与其周围3×3邻域的9个像素点作为检测子矩阵M2的行向量,组成一个检测子矩阵M2;
(3c)将检测子矩阵M1和检测子矩阵M2的所有行向量,依次存放在变化检测矩阵的行向量中,组成一个变化检测矩阵;
(4)选择训练样本集:
(4a)从变化检测矩阵中随机选择一个行向量,作为一个训练样本;
(4b)除变化检测矩阵中所选行向量外,从变化检测矩阵中分别随机选择行向量总数的15%,30%,45%,60%,75%的行向量,组成5个训练样本集;
(5)训练深度信念网络:
将5个训练样本集的不同样本,依次输入到深度信念网络中,训练深度信念网络;
(6)构建概率矩阵:
将变化检测矩阵的每一个元素及其周围3×3邻域元素,依次输入到训练好的深度信念网络中,得到每一个元素的变化概率,将变化概率保存到概率矩阵中;
(7)更新概率矩阵:
(7a)判断概率矩阵中的每一个元素是否大于等于0.5,若是,则执行步骤(7b),否则,执行步骤(7c);
(7b)将元素的值更新为255后执行步骤(8);
(7c)将元素的值更新为0后执行步骤(8);
(8)获得变化检测图像:
将更新的概率矩阵中的所有元素值作为像素灰度值,将像素灰度值转化为变化检测图像。
2.基于权利要求1所述的基于自步学习的合成孔径雷达SAR图像变化检测的方法,其特征在于:步骤(2)所述的归一化公式如下:
<mrow>
<msup>
<msub>
<mi>I</mi>
<mn>1</mn>
</msub>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>I</mi>
<mn>1</mn>
</msub>
<mo>-</mo>
<mi>min</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>max</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
<mrow>
<msup>
<msub>
<mi>I</mi>
<mn>2</mn>
</msub>
<mo>&prime;</mo>
</msup>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>I</mi>
<mn>2</mn>
</msub>
<mo>-</mo>
<mi>min</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
其中,I1'表示合成孔径雷达SAR图像I1归一化后的合成孔径雷达SAR图像,min表示取最小值操作,max表示取最大值操作,I2'表示合成孔径雷达SAR图像I2归一化后的合成孔径雷达SAR图像。
3.基于权利要求1所述的基于自步学习的合成孔径雷达SAR图像变化检测的方法,其特征在于:步骤(5)所述的训练深度信念网络的具体步骤如下:
第一步,将深度信念网络的隐藏层层数设为4,每个隐藏层的节点数目分别为250,150,100,1,深度信念网络的每个隐藏层的结构为一个由多神经元组成的受限玻尔兹曼机RBM网络,深度信念网络的输入层的节点数目为9,输出层的节点数目为1;
第二步,用0到50以内的浮点数随机初始化每个隐藏层受限玻尔兹曼机RBM的权重和偏置,用所选的训练样本集单独地无监督训练每一层RBM网络,将每个隐藏层的受限玻尔兹曼机RBM训练100次,得到每一层RBM网络的最优权重和偏置;
第三步,使用基于最小交叉熵的反向传播算法,对深度信念网络进行微调,得到训练好的深度信念网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710739750.4A CN107516082B (zh) | 2017-08-25 | 2017-08-25 | 基于自步学习的sar图像变化区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710739750.4A CN107516082B (zh) | 2017-08-25 | 2017-08-25 | 基于自步学习的sar图像变化区域检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107516082A true CN107516082A (zh) | 2017-12-26 |
CN107516082B CN107516082B (zh) | 2019-11-22 |
Family
ID=60724259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710739750.4A Active CN107516082B (zh) | 2017-08-25 | 2017-08-25 | 基于自步学习的sar图像变化区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107516082B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108447055A (zh) * | 2018-03-26 | 2018-08-24 | 西安电子科技大学 | 基于spl和ccn的sar图像变化检测方法 |
CN108460392A (zh) * | 2018-03-09 | 2018-08-28 | 西安电子科技大学 | 基于网络结构优化的sar图像变化区域检测方法 |
CN108629785A (zh) * | 2018-05-10 | 2018-10-09 | 西安电子科技大学 | 基于自步学习的三维磁共振胰腺图像分割方法 |
CN108846835A (zh) * | 2018-05-31 | 2018-11-20 | 西安电子科技大学 | 基于深度可分离卷积网络的图像变化检测方法 |
CN111663865A (zh) * | 2019-03-08 | 2020-09-15 | 通用汽车环球科技运作有限责任公司 | 用于汽车应用的雷达的自学习、噪声过滤 |
CN112418282A (zh) * | 2020-11-13 | 2021-02-26 | 江苏禹空间科技有限公司 | 一种基于cnn-cdcn的图像变化检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101634709A (zh) * | 2009-08-19 | 2010-01-27 | 西安电子科技大学 | 基于多尺度积和主成分分析的sar图像变化检测方法 |
CN101694720A (zh) * | 2009-10-13 | 2010-04-14 | 西安电子科技大学 | 基于空间关联条件概率融合的多时相sar图像变化检测方法 |
US20100303340A1 (en) * | 2007-10-23 | 2010-12-02 | Elta Systems Ltd. | Stereo-image registration and change detection system and method |
CN101923711A (zh) * | 2010-07-16 | 2010-12-22 | 西安电子科技大学 | 基于邻域相似性及掩模增强的sar图像变化检测方法 |
CN101950364A (zh) * | 2010-08-30 | 2011-01-19 | 西安电子科技大学 | 基于邻域相似度和阈值分割的遥感图像变化检测方法 |
-
2017
- 2017-08-25 CN CN201710739750.4A patent/CN107516082B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100303340A1 (en) * | 2007-10-23 | 2010-12-02 | Elta Systems Ltd. | Stereo-image registration and change detection system and method |
CN101634709A (zh) * | 2009-08-19 | 2010-01-27 | 西安电子科技大学 | 基于多尺度积和主成分分析的sar图像变化检测方法 |
CN101694720A (zh) * | 2009-10-13 | 2010-04-14 | 西安电子科技大学 | 基于空间关联条件概率融合的多时相sar图像变化检测方法 |
CN101923711A (zh) * | 2010-07-16 | 2010-12-22 | 西安电子科技大学 | 基于邻域相似性及掩模增强的sar图像变化检测方法 |
CN101950364A (zh) * | 2010-08-30 | 2011-01-19 | 西安电子科技大学 | 基于邻域相似度和阈值分割的遥感图像变化检测方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460392A (zh) * | 2018-03-09 | 2018-08-28 | 西安电子科技大学 | 基于网络结构优化的sar图像变化区域检测方法 |
CN108460392B (zh) * | 2018-03-09 | 2020-04-07 | 西安电子科技大学 | 基于网络结构优化的sar图像变化区域检测方法 |
CN108447055A (zh) * | 2018-03-26 | 2018-08-24 | 西安电子科技大学 | 基于spl和ccn的sar图像变化检测方法 |
CN108629785A (zh) * | 2018-05-10 | 2018-10-09 | 西安电子科技大学 | 基于自步学习的三维磁共振胰腺图像分割方法 |
CN108629785B (zh) * | 2018-05-10 | 2021-09-10 | 西安电子科技大学 | 基于自步学习的三维磁共振胰腺图像分割方法 |
CN108846835A (zh) * | 2018-05-31 | 2018-11-20 | 西安电子科技大学 | 基于深度可分离卷积网络的图像变化检测方法 |
CN108846835B (zh) * | 2018-05-31 | 2020-04-14 | 西安电子科技大学 | 基于深度可分离卷积网络的图像变化检测方法 |
CN111663865A (zh) * | 2019-03-08 | 2020-09-15 | 通用汽车环球科技运作有限责任公司 | 用于汽车应用的雷达的自学习、噪声过滤 |
CN111663865B (zh) * | 2019-03-08 | 2021-10-15 | 通用汽车环球科技运作有限责任公司 | 用于汽车应用的雷达的自学习、噪声过滤 |
CN112418282A (zh) * | 2020-11-13 | 2021-02-26 | 江苏禹空间科技有限公司 | 一种基于cnn-cdcn的图像变化检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107516082B (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107516082A (zh) | 基于自步学习的sar图像变化区域检测方法 | |
CN110533631B (zh) | 基于金字塔池化孪生网络的sar图像变化检测方法 | |
CN107563428B (zh) | 基于生成对抗网络的极化sar图像分类方法 | |
CN105844279A (zh) | 基于深度学习和sift特征的sar图像变化检测方法 | |
CN103810699B (zh) | 基于无监督深度神经网络的sar图像变化检测方法 | |
CN104680542B (zh) | 基于在线学习的遥感影像变化检测方法 | |
CN103955926B (zh) | 基于Semi-NMF的遥感图像变化检测方法 | |
CN103971364B (zh) | 基于加权Gabor小波特征和两级聚类的遥感图像变化检测方法 | |
CN103198480B (zh) | 基于区域和Kmeans聚类的遥感图像变化检测方法 | |
CN104751185B (zh) | 基于均值漂移遗传聚类的sar图像变化检测方法 | |
CN105608698A (zh) | 一种基于sae的遥感图像变化检测方法 | |
CN108447055A (zh) | 基于spl和ccn的sar图像变化检测方法 | |
CN110188774A (zh) | 一种基于深度学习的电涡流扫描图像分类识别方法 | |
CN106875380A (zh) | 一种基于无监督深度神经网络的异质图像变化检测方法 | |
CN108492298A (zh) | 基于生成对抗网络的多光谱图像变化检测方法 | |
CN108537790A (zh) | 基于耦合翻译网络的异源图像变化检测方法 | |
CN105760900A (zh) | 基于近邻传播聚类和稀疏多核学习的高光谱图像分类方法 | |
CN105023024B (zh) | 一种基于正则化集合度量学习的遥感图像分类方法及系统 | |
CN104794729A (zh) | 基于显著性引导的sar图像变化检测方法 | |
Tang et al. | A multiple-point spatially weighted k-NN method for object-based classification | |
CN103824302A (zh) | 基于方向波域图像融合的sar图像变化检测方法 | |
CN106780446A (zh) | 一种无参考混合失真图像质量评价方法 | |
CN107644413B (zh) | 基于邻域比值和自步学习的sar图像变化区域检测方法 | |
CN105374047A (zh) | 基于改进的双边滤波与聚类的sar图像变化检测方法 | |
CN105205807B (zh) | 基于稀疏自动编码机的遥感图像变化检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared |