CN111640087B - 一种基于sar深度全卷积神经网络的影像变化检测方法 - Google Patents
一种基于sar深度全卷积神经网络的影像变化检测方法 Download PDFInfo
- Publication number
- CN111640087B CN111640087B CN202010290436.4A CN202010290436A CN111640087B CN 111640087 B CN111640087 B CN 111640087B CN 202010290436 A CN202010290436 A CN 202010290436A CN 111640087 B CN111640087 B CN 111640087B
- Authority
- CN
- China
- Prior art keywords
- neural network
- dfcn
- convolution
- training
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
发明公开了一种基于SAR深度全卷积神经网络的影像变化检测方法,包括以下步骤:步骤S1,构建DFCN神经网络,步骤S2,训练所述DFCN神经网络,步骤S3,输入测试影像数据,步骤S4,利用训练好的所述DFCN神经网络输出所述测试影像变化检测结果;本方法中通过利用ELU激活函数以及批量归一法有效地保证在深度神经网络中各输入数据统计分布的一致性,解决了神经网络模型训练的梯度消失以及弥散问题;通过利用深度学习和特征堆叠,能够对不同时相SAR影像间的差异性特征进行较为充分并且精细地描述,并且有效地降低在传统学习方法中因人工设计特征的不完备性;有效地解决由SAR固有相干斑噪声引起的误检问题,实现了变化类和非变化类的高精度分割。
Description
技术领域
本发明涉及遥感影像变化检测技术领域,特别涉及一种基于SAR深度全卷积神经网络的影像变化检测方法。
背景技术
合成孔径雷达(Synthetic Aperture Radar,SAR)遥感变化检测的主要目的是利用覆盖同一地理位置、不同时相遥感影像的信息差异来获取地表地物的变化,已被广泛地应用于土地利用变化监测、灾害评估、农作物生长状况等监测;对于自然资源监测、灾害评估、农业资源调查、通信瘫痪等领域具有重要的实际应用价值,传统SAR变化检测方法有差异图分析法、分类后比较法等。
差异图分析法通常在计算不同时相影像的差异图后,再对差异图进行变化/非变化区域的分类,差异图计算能够利用的影像信息较为单一(辐射信息、或统计信息),但SAR遥感影像场景中往往包含繁杂的地物类型、变化各异,不同差异图计算方法只对特定的变化类型较优,没有一种差异图可以一次性很好地描述出各种变化;同时,受SAR影像相干斑噪声及分类算法本身的影响,差异图的分类结果也存在很大的不确定性,因此,差异图分析法依赖于差异图的质量和差异图的分割精度;而分类后比较法,是分别对不同时相影像分类后再对分类结果进行对比分析,同样地,分类精度直接影响了变化检测精度。
近年来,深度学习技术重新成为计算机视觉和人工智能领域的最热门技术。它将影像特征学习和数据处理任务(如影像分类、分割等)结合在一起,提供了一种端对端的“一站式”数据处理方式,特征学习融合在网络模型的训练过程中,降低了人工设计特征的专业知识门槛,而且减少了人工设计特征的不完备性;通过构建深度合理的神经网络、设置一定数量的卷积核个数,可以挖掘潜藏在影像中的大量特征表达,充分学习不同时相影像间存在的差异性特征,便于提高变化的检测精度。因此,利用深度学习技术进行SAR影像变化检测具有重要的理论研究价值,国内外学者曾将受限玻尔兹曼机(Restricted BoltzmannMachines,RBMs)和卷积神经网络(Convolutional Neural Networks,CNN)应用于SAR变化检测;利用RBMs进行影像处理,需要将栅格影像向量化,易产生影像像素间上下文信息的丢失,而利用CNN进行变化检测时,需要取每个像素点为中心、一定滑窗大小的影像块输入CNN来判断该像素点的所属类别;这就导致相邻像点的滑动窗口存在大量冗余计算、计算耗时长、占用存储开销大;而且影像块大小的确定直接限制了神经元的感知性能,影像块太小容易丢失上下文信息,反之太大则产生大量的冗余计算,然而,全卷积神经网络(FullyConvolutional Neural Network,FCN)利用反卷积层代替CNN中的全连接层,能够直接从抽象的影像特征中恢复判别影像每个像素所属类别的能力,大幅提高运算效率,且有利于提升影像的分割性能。
发明内容
(一)发明目的
基于此为克服上述现有技术存在的至少一种缺陷,本申请提供了一种基于SAR深度全卷积神经网络的影像变化检测方法,通过人工解译判读获得训练样本集训练DFCN神经网络,实现影像的变化/非变化的检测结果输出,本发明公开了以下技术方案。
(二)技术方案
本发明公开了一种基于SAR深度全卷积神经网络的影像变化检测方法,包括以下步骤:
S1、构建DFCN神经网络;
S2、训练所述DFCN神经网络;
S3、输入测试影像数据;
S4、利用训练好的所述DFCN神经网络输出所述测试影像变化检测结果。
在一种可能的实施方式中,所述S1步骤具体包括以下步骤实现:
S11、编码阶段由多个卷积单元组和多个最大池化层组成,解码阶段为特征影像上采样部分和卷积层组成;
S12、在各卷积层的输入端引入批量归一化法,各卷积层的输出端使用ELU激活函数;
S13、利用卷积单元组提取影像特征数据和对提取的特征数据进行拷贝,以及采用最大池化层操作降低影像特征数据的特征维度。
在一种可能的实施方式中,所述S1步骤具体还包括以下步骤实现:
S14、利用反卷积层重新构建影像的特征数据并与步骤S13中提取的特征数据进行叠加;
S15、在各反卷积层的输入端引入批量归一化法,用于保证每层输入数据的稳定性,各反卷积的输出端使用ELU激活函数;
S16、使用分类函数对最后卷积层的输出进行逻辑分类。
在一种可能的实施方式中,所述步骤S11中的卷积单元组包含两个卷积层。
在一种可能的实施方式中,所述解码阶段上采样部分通过反卷积层处理。
在一种可能的实施方式中,所述S2步骤包括以下步骤实现:
S21、构建训练样本集;
S22、初始化所述DFCN神经网络中各卷积核的网络参数;
S23、采用监管学习机制训练所述DFCN神经网络,并且利用步骤S21每轮分整数个批次、每批次输入一定数量带标签数据的不同时相影像数据。
在一种可能的实施方式中,所述各卷积核网络参数指DFCN神经网络中的权重和偏置。
在一种可能的实施方式中,所述监管学习机制训练所述DFCN神经网络的步骤具体包括以下步骤:
S231、选取代价函数并计算所述代价函数关于所述DFCN神经网络权重的偏导数和所述偏置的偏导数;
S232、设定所述DFCN神经网络的训练周期;
S233、根据步骤S22应用Adam优化器进行所述DFCN神经网络的迭代训练,用于更新DFCN神经网络中所述网络参数。
在一种可能的实施方式中,所述监管学习机制的步骤还包括设置训练参数,所述训练参数包括学习率、训练梯度。
在一种可能的实施方式中,所述DFCN神经网络的权重的偏导数和所述偏置的偏导数记为所述训练梯度。
(三)有益效果
本发明公开的一种基于SAR深度全卷积神经网络的影像变化检测方法,具有如下有益效果:
1.通过利用ELU激活函数以及批量归一法有效地保证在深度神经网络中各输入数据统计分布的一致性,解决了神经网络模型训练的梯度消失以及弥散问题;
2.通过利用深度学习和特征堆叠,能够对不同时相SAR影像间的差异性特征进行较为充分并且精细地描述,并且有效地降低在传统学习方法中因人工设计特征的不完备性;
3.有效地解决由SAR固有相干斑噪声引起的误检问题,实现了变化类和非变化类的高精度分割。
附图说明
以下参考附图描述的实施例是示例性的,旨在用于解释和说明本发明,而不能理解为对本发明的保护范围的限制。
图1是一种基于SAR深度全卷积神经网络的影像变化检测方法的流程示意图;
图2是一种基于SAR深度全卷积神经网络的影像变化检测方法的详细流程示意图;
附图标记:1-第一卷积单元组,2-第一最大池化层,3-第二卷积单元组,4-第二最大池化层,5-第三卷积单元组,6-第三最大池化层,7-第四卷积单元组,8-第一反卷积层,9-第五卷积单元组,10-第二反卷积层,11-第六卷积单元组,12-第三反卷积层,13-第七卷积单元组,14-最后卷积层。
具体实施方式
为使本发明实施的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行更加详细的描述。
需要说明的是:在附图中,自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。所描述的实施例是本发明一部分实施例,而不是全部的实施例,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本文中,“第一”、“第二”等仅用于彼此的区分,而非表示它们的重要程度及顺序等。
下面参考图1-图2详细描述本发明公开的一种基于SAR深度全卷积神经网络的影像变化检测方法;如图1-图2所示,一种基于SAR深度全卷积神经网络的影像变化检测方法,主要包括以下步骤:步骤S1,构建DFCN神经网络,在构建DFCN神经网络过程中,主要分为两个阶段,编码阶段和解码阶段,并且为了充分并且精细地描述不同时相SAR影像间的差异性特征,本申请采用深度学习和影像特征堆叠;在本实施例中,深度全卷积神经网络(DeepFully Convolutional Neural Network,DFCN)通过将传统的卷积神经网络(Convolutional Neural Networks,CNN)中的全连接层替换成反卷积层。
本方法还包括步骤S2,采取一定机制训练DFCN神经网络,具体的训练过程将在后文进行详细阐述。
本方法还包括步骤S3,将待检测的测试影像数据输入通过步骤S2训练好的DFCN神经网络进行变化/非变化区域的影像检测。
本方法还包括步骤S4,利用训练好的DFCN神经网络,将步骤S3输入的待检测影像数据进行影像配准操作,然后再对配准后的多时相SAR影像进行变化/非变化检测,输出影像变化/非变化的结果,并获得高精度影像变化/非变化的分类图,需要说明的是,在对配准后的多时相SAR影像进行变化/非变化检测之前,为保证检测结果的准确度,需进行影像预处理的操作,一般采用辐射校正,校正由非人为因素引起的影像变化,例如所摄地理位置的光照强度,云层以及空气条件等非人为因素;由于采集影像数据时的视角以及方位不同而导致采集的影像数据存在一定的差异性,因此才会进行影像配准操作,一般采用数学变换的方法使不同时相SAR影像在几何位置上保持一致,另外,在本实施例中,对于输出影像变化/非变化的表现形式为,白色:表示变化区域,黑色:表示非变化区域。
在一种可能的实施方式中,如图2所示,本方法中的步骤S1具体包括以下步骤实现:
步骤S11,编码阶段由多个卷积单元组和多个最大池化层组成,在本实施例中,编码阶段具体组成可以表现为:使用连续的第一卷积单元组1和第一最大池化层2,第二卷积单元组3和第二最大池化层4、第三卷积单元组5和第三最大池化层6以及第四卷积单元组7,并且在上述第一卷积单元组1、第二卷积单元组3以及第三卷积单元组5均设有特征影像拷贝操作,具体用途将在后文进行阐述;上述第一卷积单元组1、第二卷积单元组3、第三卷积单元组5以及第四卷积单元组7均包含两个卷积层,卷积层的内部包含了多个3×3的卷积核个数。
并且编码阶段具体表现为,第一层为第一卷积单元组1包括卷积层,卷积核大小为3×3,通道数为10,步长为1,第一特征影像拷贝,通道数为20,以及第一最大池化层2,滤波器大小为2×2,通道数为10,步长为2;第二层为第二卷积单元组3包括卷积层,卷积核大小为3×3,通道数为10,步长为1,第二特征影像拷贝,通道数为20,以及第二最大池化层4,滤波器大小为2×2,通道数为10,步长为2;第三层为第三卷积单元组5包括卷积层,卷积核大小为3×3,通道数为10,步长为1,第三特征影像拷贝,通道数为20,以及第三最大池化层6,滤波器大小为2×2,通道数为10,步长为2;第四层为第四卷积单元组7包括卷积层,卷积核大小为3×3,通道数为10,步长为1。
解码阶段为特征影像上采样部分和卷积层组成,用于学习表征不同时相的SAR(Synthetic Aperture Radar,合成孔径雷达)影像间从精细到抽象的多尺度差异性特征;解码阶段为特征影像上采样部分和卷积层组成,在本实施例中,解码阶段具体组成可以表现为:使用连续的第一反卷积层8、第三特征影像叠加操作和第五卷积单元组9,第二反卷积层10、第二特征影像叠加操作和第六卷积单元组11,第三反卷积层12、第一特征影像叠加操作和第七卷积单元组13,以及最后卷积层14组成,上述第五卷积单元组9、第六卷积单元组11、第七卷积单元组13也均包括两个卷积层。
解码阶段组成具体表现为:第五层为第一反卷积层8,卷积核大小为3×3,通道数为10,步长为2,第三特征影像叠加,通道数为20,以及第五卷积单元组9,第五卷积单元组9为卷积层,卷积核大小为3×3,通道数为10,步长为1;第六层为第二反卷积层10,卷积核大小为3×3,通道数为10,步长为2,第二特征影像叠加,通道数为20,以及第六卷积单元组11,第六卷积单元组11为卷积层,卷积核大小为3×3,通道数为10,步长为1;第七层为第三反卷积层12,卷积核大小为3×3,通道数为10,步长为2,第一特征影像叠加,通道数为20,以及第七卷积单元组13,第七卷积单元组13为卷积层,卷积核大小为3×3,通道数为10,步长为1;第八层为最后卷积层14,卷积核大小为1×1,通道数为1,上述各反卷积层的内部也包含了多个3×3的卷积核个数,并且组成卷积核的每个元素均对应这一个权重wi和一个偏置bi(即DFCN神经网络训练时待学习的参数)。
其中,上述最后卷积层14用于保证像素定位的准确性,结合第七卷积单元组13提高识别像素的精准度,对农业资源调查和自然资源监测等中的植被等物体的影像特征提取能力增强,需要说明的是,在本实施例中,附图1中的各卷积单元组以及个池化层上的字母n表示通道数,并且其数值可根据实际的需要进行选择设置,为权衡GPU显存大小和检测的精度,在本实施例中,将显存的值选择为2GB,通道数n设为10;另外,本实施例中的第一特征影像拷贝与第一特征影像叠加对应,第二特征影像拷贝与第二特征影像叠加对应,以及第三特征影像拷贝与第三特征影像叠加对应都用于避免影像数据的特征丢失。
本方法中步骤S1还包括步骤S12,在各卷积层的输入端引入批量归一化法,用于保证每层输入数据的稳定性,各卷积层的输出端使用ELU激活函数;具体的引入方法参照附图2,按照批量归一化+卷积层+ELU激活函数+卷积层+ELU激活函数的顺序引入批量归一化方法和ELU激活函数,引入的批量归一化方法,即BN(Batch Normalization,BN)算法,其表达定义式具体如下:
上述表达定义式中,参数xi表示网络中各神经元每次小批量输入影像或特征影像的像素值;参数μB和参数σB分别为每批次影像的均值和方差;参数γ和参数β是网络的待训练参数;参数ε是预设的很小常数(此处为10-8),以避免分母为0时产生的参数yi为无效值。
本实施例中,引入的ELU(Exponential Linear Unit,指数线性单元)激活函数,其表达定义式具体如下:
上述表达定义式中,参数x表示影像卷积或转置卷积(即反卷积)计算的输出值;参数α是网络超参数,是人为预设的可调参数,用于控制ELU激活函数的负值部分何时饱和(在本实施例中,此处α默认值为1)。
本方法中步骤S1还包括步骤S13,利用卷积单元组提取影像特征数据和对提取的特征数据进行拷贝,以及采用最大池化层操作降低影像特征数据的特征维度,需要说明的是,在步骤S11中解码阶段所涉及的每个反卷积层,分别与编码阶段中的各卷积单元组一一对应,具体对应关系表现为:第一卷积单元组1与第三反卷积层12对应,第二卷积单元组3与第二反卷积层10对应,第三卷积单元组5与第一反卷积层8对应,这样的好处是,以便恢复影像原来的大小并且与各特征进行最大池化前的影像大小保持一致,例如,通过第一卷积单元组1的影像大小为128×128,那么与第一卷积单元组1对应的第三反卷积层12恢复的影像大小也为128×128,通过第二卷积单元组3的影像大小为64×64,那么与第二卷积单元组3对应的第二反卷积层10恢复的影像大小也为64×64。
在一种可能的实施方式中,本方法中步骤S1具体还包括以下步骤实现:
步骤S14,利用反卷积层重新构建影像的特征数据并与步骤S13中提取的特征数据进行叠加,然后再进行后续的一系列卷积操作,这样的好处是,可以有效地避免由上采样引起的影像的特征细节丢失,尽可能地减少最终DFCN神经网络的变化/非变化输出检测结果的误差。
本方法中步骤S1还包括步骤S15,在各反卷积层的输入端引入批量归一化法,用于保证每层输入数据的稳定性,各反卷积的输出端使用ELU激活函数,具体引入形式为:按照批量归一化方法+反卷积层+ELU激活函数的顺序进行引入。
本方法中步骤S1还包括步骤S16,使用分类函数对最后卷积层14的输出进行逻辑分类,需要说明的是,这里的分类函数采用的是Sigmoid函数,这样的好处是,Sigmoid函数的输出值域在0和1之间、趋近于正无穷或者负无穷时,Sigmoid函数趋近于平滑状态,以及函数具有非常好的对称性。
在一种可能的实施方式中,本方法中解码阶段的上采样部分通过反卷积层进行影像特征数据的处理。
在一种可能的实施方式中,本方法中步骤S2包括以下步骤实现:
步骤S21,构建训练样本集,需要说明的是,在本方法中,训练样本集采用人工解译判读标注方式,并且将训练样本集中每张影像大小规范为128×128作为DFCN神经网络的输入,然后在通过多个卷积单元组和多个池化层组成的编码器对影像的特征提取;这样的好处是,对于影像信息的提取,人工判读相对于计算机具有的优点为:利用判读人员的知识更擅长提取空间信息。
本方法中的步骤S2还包括步骤S22,初始化DFCN神经网络中各卷积核的网络参数,需要说明的是,这里的初始化网络参数,即在对DFCN神经网络进行训练时,首先将神经网络模型中的各卷积核的权重w初始化为服从均值为0、方差为的正态分布的随机数,并且偏置b初始化为0。
本方法中的步骤S2还包括步骤S23,采用监管学习机制方法训练本方法中的DFCN神经网络,并且利用步骤S21生成的训练样本集Ω={X1,X2,L,Xm},将训练样本集每轮分m/n(取整数)个批次、且每批次输入n个带有标签数据的不同时相SAR影像数据,需要说明的是,这里的输入个数n小于训练样本集总数m。
在一种可能的实施方式中,本方法中的各卷积核网络参数指权重w和偏置b。
在一种可能的实施方式中,在本方法中所涉及的监管学习机制训练DFCN神经网络的步骤S23具体通过以下步骤实现:
步骤S231,首先,通过对步骤S23输入的带有标签数据的不同时相SAR影像,进行神经网络的前馈计算,然后选取二元交叉熵作为本方法中的代价函数,并通过该代价函数来衡量前馈计算出的预测值,与训练样本集中带标签(真实值)的不同时相SAR影像之间的误差,当该误差即loss值连续5次未发生变化,会以衰减因子为0.5的比例减小后文所提及的训练参数学习率η(即η’=η*0.5),然后继续对DFCN神经网络进行训练;若loss值连续20次未发生变化,即作为神经网络训练停止的标志,最后并计算所述代价函数关于所述DFCN神经网络权重的偏导数和偏置的偏导数/>具体计算表达式如下:
上述表达式中,η表示神经网络的学习率(也称为学习步长),上述网络权重w和偏置b统称为网络参数θ,代价函数关于网络权重w和偏置b的偏导数记为梯度▽θL(θ);本方法中所选取的二元交叉熵损失函数的定义式为:
本方法中的步骤S23还包括步骤S232,本方法中还包括设定DFCN神经网络的训练周期,在网络训练时,将DFCN神经网络的训练周期预设为t=300,表示该DFCN神经网络经训练300次后训练停止,也可以是步骤S221中的loss值连续20次未发生变化,即使训练周期t未达到300次,训练也停止,需要说明的是,在整个训练过程中,程序会实时监控本方法中损失函数的取值大小;
本方法中的步骤S23还包括步骤S233,根据步骤S22应用Adam优化器进行DFCN神经网络的迭代训练,迭代训练的周期为t个轮次,用于更新DFCN神经网络中的网络参数,从而获得训练好的DFCN神经网络模型,Adam优化器主要按照以下方式进行网络参数θ的更新:
gt=▽θL(θt-1)
mt=β1·mt-1+(1-β1)·gt
mt=mt/(1-(β1)t)
上述各式中,β1,β2∈[0,1),表示用于控制一阶矩mt和非中心化二阶矩vt更新的指数衰减率,在本实施例中,β1、β2的值分别默认为0.9、0.999;学习步长η默认为0.001;参数ε是一个预设很小的常数,在本实施例中,设为10-8,避免分母为0产生无效值的情况,式中,gt为训练第t个轮次(即周期)的损失函数关于DFCN神经网络中的训练参数的梯度,为偏差纠正后的非中心化二阶矩,mt为偏差纠正后的一阶矩,并且上式中的▽θL(θt-1)就是计算DFCN神经网络中的权重的偏导数和偏置的偏导数式中的下列表达式:
在一种可能的实施方式中,本方法中的监管学习机制的步骤还包括设置训练参数,所述训练参数包括学习率、训练梯度。
在一种可能的实施方式中,本方法中所涉及DFCN神经网络中权重的偏导数和偏置的偏导数记为训练梯度。
另外,需要说明的是,本申请所涉及的方法能够利用批量归一化(BN)方法和ELU激活函数能够有效地保证深度神经网络中各神经元输入数据统计分布的一致性,避免了网络训练时梯度消失和弥散问题,关于避免梯度消失,具体表现为:在每一层卷积层的输入端加入批量归一化,非线性函数映射后的特征值的取值趋近于饱和,从而对输出特征值的分布进行了标准化处理,因而避免了DFCN神经网络训练梯度的消失;并且基于编码-解码对称网络架构,利用系列卷积、特征拷贝、池化、反卷积以及特征堆叠等影像多尺度特征学习和融合策略,能够较为充分并且精细地描述不同时相SAR影像的差异性特征,大大降低了传统方法中人工设计特征的不完备性,并有效解决由SAR固有的相干斑噪声引起的误检问题,实现了变化/非变化的高精度分割,提供的方法可以在SAR变化检测中起到重要作用,具有较佳的技术效果。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (5)
1.一种基于SAR深度全卷积神经网络的影像变化检测方法,其特征在于,包括以下步骤:
S1、构建DFCN神经网络;
S2、训练所述DFCN神经网络;
S3、输入测试影像数据;
S4、利用训练好的所述DFCN神经网络输出所述测试影像变化检测结果;
其中,所述S1步骤具体包括以下步骤实现:
S11、编码阶段由多个卷积单元组和多个最大池化层组成,解码阶段为特征影像上采样部分和卷积层组成;
S12、在各卷积层的输入端引入批量归一化法,各卷积层的输出端使用ELU激活函数;
S13、利用卷积单元组提取影像特征数据和对提取的特征数据进行拷贝,以及采用最大池化层操作降低影像特征数据的特征维度;
所述S1步骤具体还包括以下步骤实现:S14、利用反卷积层重新构建影像的特征数据并与步骤S13中提取的特征数据进行叠加;
S15、在各反卷积层的输入端引入批量归一化法,用于保证每层输入数据的稳定性,各反卷积的输出端使用ELU激活函数;
S16、使用分类函数对最后卷积层的输出进行逻辑分类;
所述S2步骤包括以下步骤实现:
S21、构建训练样本集;
S22、初始化所述DFCN神经网络中各卷积核的网络参数;
S23、采用监管学习机制训练所述DFCN神经网络,并且利用步骤S21每轮分整数个批次、每批次输入一定数量带标签数据的不同时相影像数据;
所述各卷积核网络参数指DFCN神经网络中的权重和偏置;
所述监管学习机制训练所述DFCN神经网络的步骤具体包括以下步骤:
S231、选取代价函数并计算所述代价函数关于所述DFCN神经网络权重的偏导数和所述偏置的偏导数;
S232、设定所述DFCN神经网络的训练周期;
S233、根据步骤S22应用Adam优化器进行所述DFCN神经网络的迭代训练,用于更新DFCN神经网络中所述网络参数。
2.如权利要求1所述的一种基于SAR深度全卷积神经网络的影像变化检测方法,其特征在于,所述步骤S11中的卷积单元组包含两个卷积层。
3.如权利要求1所述的一种基于SAR深度全卷积神经网络的影像变化检测方法,其特征在于,所述解码阶段上采样部分通过反卷积层处理。
4.如权利要求1所述的一种基于SAR深度全卷积神经网络的影像变化检测方法,其特征在于,所述监管学习机制的步骤还包括设置训练参数,所述训练参数包括学习率、训练梯度。
5.如权利要求4所述的一种基于SAR深度全卷积神经网络的影像变化检测方法,其特征在于,所述DFCN神经网络的权重的偏导数和所述偏置的偏导数记为所述训练梯度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010290436.4A CN111640087B (zh) | 2020-04-14 | 2020-04-14 | 一种基于sar深度全卷积神经网络的影像变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010290436.4A CN111640087B (zh) | 2020-04-14 | 2020-04-14 | 一种基于sar深度全卷积神经网络的影像变化检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111640087A CN111640087A (zh) | 2020-09-08 |
CN111640087B true CN111640087B (zh) | 2023-07-14 |
Family
ID=72329571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010290436.4A Active CN111640087B (zh) | 2020-04-14 | 2020-04-14 | 一种基于sar深度全卷积神经网络的影像变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111640087B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112560577A (zh) * | 2020-11-13 | 2021-03-26 | 空间信息产业发展股份有限公司 | 一种基于语义分割的遥感图像地物分类方法 |
CN112800929B (zh) * | 2021-01-25 | 2022-05-31 | 安徽农业大学 | 一种基于深度学习的竹笋数量与高生长率在线监测方法 |
CN116343301B (zh) * | 2023-03-27 | 2024-03-08 | 滨州市沾化区退役军人服务中心 | 基于人脸识别的人员信息智能校验系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909924B (zh) * | 2017-02-18 | 2020-08-28 | 北京工业大学 | 一种基于深度显著性的遥感影像快速检索方法 |
CN107194349A (zh) * | 2017-05-19 | 2017-09-22 | 湖北工业大学 | 基于深度学习的高分辨率PolSAR图像城区地物分类方法 |
CN107944370B (zh) * | 2017-11-17 | 2019-07-02 | 西安电子科技大学 | 基于dccgan模型的极化sar图像分类方法 |
JP2019125203A (ja) * | 2018-01-17 | 2019-07-25 | 株式会社東芝 | 目標認識装置、目標認識方法、プログラム及び畳み込みニューラルネットワーク |
CN108510467B (zh) * | 2018-03-28 | 2022-04-08 | 西安电子科技大学 | 基于深度可变形卷积神经网络的sar图像目标识别方法 |
CN109063569B (zh) * | 2018-07-04 | 2021-08-24 | 北京航空航天大学 | 一种基于遥感影像的语义级变化检测方法 |
CN110516561B (zh) * | 2019-08-05 | 2022-12-06 | 西安电子科技大学 | 基于dcgan和cnn的sar图像目标识别方法 |
CN110895682B (zh) * | 2019-10-15 | 2023-06-06 | 东北大学 | 一种基于深度学习的sar目标识别方法 |
-
2020
- 2020-04-14 CN CN202010290436.4A patent/CN111640087B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111640087A (zh) | 2020-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107292339B (zh) | 基于特征融合的无人机低空遥感影像高分地貌分类方法 | |
CN111640087B (zh) | 一种基于sar深度全卷积神经网络的影像变化检测方法 | |
Storie et al. | Deep learning neural networks for land use land cover mapping | |
CN107133569B (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
Hussain et al. | Change detection from remotely sensed images: From pixel-based to object-based approaches | |
Xu et al. | High-resolution remote sensing image change detection combined with pixel-level and object-level | |
Wei et al. | Boosting deep attribute learning via support vector regression for fast moving crowd counting | |
Jia et al. | Object-oriented feature selection of high spatial resolution images using an improved Relief algorithm | |
Sun et al. | Classification for remote sensing data with improved CNN-SVM method | |
CN112836713A (zh) | 基于图像无锚框检测的中尺度对流系统识别与追踪方法 | |
CN111611874B (zh) | 基于ResNet和Canny的人脸口罩佩戴检测方法 | |
CN107491734B (zh) | 基于多核融合与空间Wishart LapSVM的半监督极化SAR图像分类方法 | |
Miao et al. | Classification of farmland images based on color features | |
CN106096655B (zh) | 一种基于卷积神经网络的光学遥感图像飞机检测方法 | |
Xia et al. | Dilated multi-scale cascade forest for satellite image classification | |
CN110717451B (zh) | 一种基于深度学习的药用植物叶部病害图像识别方法 | |
Shen et al. | Biomimetic vision for zoom object detection based on improved vertical grid number YOLO algorithm | |
CN111460966B (zh) | 基于度量学习和近邻增强的高光谱遥感图像分类方法 | |
CN111079807A (zh) | 一种地物分类方法及装置 | |
Deepa et al. | FHGSO: Flower Henry gas solubility optimization integrated deep convolutional neural network for image classification | |
CN111652265A (zh) | 一种基于自调整图的鲁棒半监督稀疏特征选择方法 | |
CN111242028A (zh) | 基于U-Net的遥感图像地物分割方法 | |
CN113591608A (zh) | 一种基于深度学习的高分辨率遥感影像不透水面提取方法 | |
Pan et al. | Enhanced FCN for farmland extraction from remote sensing image | |
Li et al. | Smart vision for quality apple classification using SURF–Harris optimizing techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |