CN112115793A - 基于改进Segnet的遥感图像变化检测方法 - Google Patents
基于改进Segnet的遥感图像变化检测方法 Download PDFInfo
- Publication number
- CN112115793A CN112115793A CN202010837479.XA CN202010837479A CN112115793A CN 112115793 A CN112115793 A CN 112115793A CN 202010837479 A CN202010837479 A CN 202010837479A CN 112115793 A CN112115793 A CN 112115793A
- Authority
- CN
- China
- Prior art keywords
- image
- change detection
- remote sensing
- deconvolution
- pooling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进Segnet的遥感图像变化检测方法,通过将对应图像合并为第一合并图像,采用改进Segnet神经网络对第一合并图像进行训练,得到变化检测网络,将待测遥感图像用滑动切割的方式切割为多个图像块,将同一区域两个时相的图像块合并为第二合并图像,对第二合并图像进行多次卷积和多次池化,进行多次上采样和多次反卷积,对反卷积结果再进行一次卷积后,经过变化检测网络的softmax层后将像素划分为变化类和未变化类,根据变化类和未变化类确定图像块的变化检测图,获取待测遥感图像中各个区域每一对图像块的变化检测图,合并各个变化检测图,得到变化检测图,以依据变化检测图实现对待测遥感图像的变化检测。
Description
技术领域
本发明涉及图像变化检测技术领域,尤其涉及一种基于改进Segnet的遥感图像变化检测方法。
背景技术
遥感,即远距离感知。遥感一词最早于1960年出现在一项军事科研计划之中,在1962年密执安大学等单位举行的第一届环境遥感学术研讨会上被正式采用。如今,遥感技术应用于越来越多的领域,比如:森林或植被的动态变化监测、对自然灾害的灾后分析及评估、对土地利用的变化分析、对农田进行监控、对城镇变化实时监测、分析农作物生长状况、对军事战略目标(机场、道路等)进行动态监视等领域,极大地促进了经济和社会的发展。
遥感图像变化检测属于遥感图像处理领域,用于分析处理同一地点不同时期的遥感图像而获得变化信息。国内外学者已经对遥感图像变化检测问题进行了大量的研究,提出了各种各样的变化检测方法。其中基于特征的变化检测方法是利用图像中的光谱特征、纹理特征、空间结构等特性,对遥感图像进行变化检测。而使用传统的方法提取图像的特征不具有代表性,用在遥感图像变化检测上识别精度较低。随着最近20年来GPU的不断进步与发展,使得深度学习的实现变得容易,大量的实验表明,深度学习的方法在图像语义分割上有着良好的效果。此发明借鉴遥感图像语义分割的方法对于遥感图像进行变化检测。
使用传统的方法提取的图像特征不具有代表性,难以获取到有效特征。
发明内容
针对以上问题,本发明提出一种基于改进Segnet的遥感图像变化检测方法。
为实现本发明的目的,提供一种基于改进Segnet的遥感图像变化检测方法,包括如下步骤:
S30,将对应图像合并为第一合并图像,将第一合并图像输入预先搭建的改进Segnet神经网络;所述对应图像为一个图像数据包中除参考图像之外的两个图像;
S40,在改进Segnet神经网络中对第一合并图像进行训练,得到变化检测网络;
S50,将待测遥感图像用滑动切割的方式切割为多个图像块,将同一区域两个时相的图像块合并为第二合并图像,将第二合并图像输入变化检测网络;
S60,在变化检测网络对第二合并图像进行多次卷积和多次池化,得到特征图像,对特征图像进行多次上采样和多次反卷积,得到反卷积结果;
S70,对反卷积结果再进行一次卷积后,经过变化检测网络的softmax层后将像素划分为变化类和未变化类,根据变化类和未变化类确定图像块的变化检测图;
S80,获取待测遥感图像中各个区域每一对图像块的变化检测图,合并各个变化检测图,得到待测遥感图像的变化检测图。
在一个实施例中,步骤S30之前,还包括:
S10,选用遥感图像训练集,所述遥感图像训练集包括多个图像数据包;所述图像数据包括一个参考图像和两个常规图像;
S20,搭建改进Segnet神经网络,所述改进Segnet神经网络包括10次卷积和9次反卷积。
在一个实施例中,在改进Segnet神经网络中对第一合并图像进行训练,得到变化检测网络包括:
在改进Segnet神经网络中对第一合并图像进行9次卷积和4次池化,每次经过池化层后保存池化索引,记录对应的索引值,得到初始训练图像;
对初始训练图像进行4次上采样和9次反卷积,对反卷积结果再进行一次卷积,经过改进Segnet神经网络的softmax层后将图像中的像素分为变化类和未变化类,利用Loss函数和梯度下降算法优化改进Segnet神经网络的参数,以得到变化检测网络。
在一个实施例中,在变化检测网络对第二合并图像进行多次卷积和多次池化,得到特征图像,对特征图像进行多次上采样和多次反卷积,得到反卷积结果包括:
在变化检测网络对第二合并图像9次卷积和4次池化,得到特征图像,对特征图像进行4次上采样和9次反卷积,得到反卷积结果。
上述基于改进Segnet的遥感图像变化检测方法,通过将对应图像合并为第一合并图像,将第一合并图像输入预先搭建的改进Segnet神经网络,在改进Segnet神经网络中对第一合并图像进行训练,得到变化检测网络,将待测遥感图像用滑动切割的方式切割为多个图像块,将同一区域两个时相的图像块合并为第二合并图像,将第二合并图像输入变化检测网络,在变化检测网络对第二合并图像进行多次卷积和多次池化,得到特征图像,对特征图像进行多次上采样和多次反卷积,得到反卷积结果,对反卷积结果再进行一次卷积后,经过变化检测网络的softmax层后将像素划分为变化类和未变化类,根据变化类和未变化类确定图像块的变化检测图,获取待测遥感图像中各个区域每一对图像块的变化检测图,合并各个变化检测图,得到待测遥感图像的变化检测图,以依据变化检测图实现对待测遥感图像的变化检测,可以检测得到对待测遥感图像中的有效特征,具有较高的检测效果。
附图说明
图1是一个实施例的基于改进Segnet的遥感图像变化检测方法流程图;
图2是另一个实施例的基于改进Segnet的遥感图像变化检测方法流程图;
图3是一个实施例的深度卷积神经网络结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
参考图1所示,图1为一个实施例的基于改进Segnet的遥感图像变化检测方法流程图,包括如下步骤:
S30,将对应图像合并为第一合并图像,将第一合并图像输入预先搭建的改进Segnet神经网络;所述对应图像为一个图像数据包中除参考图像之外的两个图像。
改进Segnet神经网络为减少了卷积次数和反卷积次数的神经网络,对应图像为一个图像数据包中除参考图像之外的两个图像,这两个图像是一对一对的,如同一地区不同时间的两个图像,对应的图像往往是一对的图像。
S40,在改进Segnet神经网络中对第一合并图像进行训练,得到变化检测网络。
在一个实施例中,在改进Segnet神经网络中对第一合并图像进行训练,得到变化检测网络包括:
在改进Segnet神经网络中对第一合并图像进行9次卷积和4次池化,每次经过池化层后保存池化索引,记录对应的索引值,得到初始训练图像;
对初始训练图像进行4次上采样和9次反卷积,对反卷积结果再进行一次卷积,经过改进Segnet神经网络的softmax层后将图像中的像素分为变化类和未变化类,利用Loss函数和梯度下降算法优化改进Segnet神经网络的参数,以得到变化检测网络。
S50,将待测遥感图像用滑动切割的方式切割为多个图像块,将同一区域两个时相的图像块合并为第二合并图像,将第二合并图像输入变化检测网络。
待测遥感图像可以为遥感图像训练集中的一个图像。在一个示例中,可以预先制作遥感图像训练集,选用SZTAKI AirChange Benchmark数据集,该数据集由三个分别命名为SZADA,TISZADOB和ARCHIEVE的子数据集构成,其中每组分别包含7,5和1对分辨率为1.5米/像素,大小为952×640,将数据集中图像是用滑动切割的方式切割为224×224大小的图像块,参照两幅图像由人工手动标注标签。
上述步骤可以将待测遥感图像用滑动切割的方式切割为224×224的多个图像块。
S60,在变化检测网络对第二合并图像进行多次卷积和多次池化,得到特征图像,对特征图像进行多次上采样和多次反卷积,得到反卷积结果。
在一个实施例中,在变化检测网络对第二合并图像进行多次卷积和多次池化,得到特征图像,对特征图像进行多次上采样和多次反卷积,得到反卷积结果包括:
在变化检测网络对第二合并图像9次卷积和4次池化,得到特征图像,对特征图像进行4次上采样和9次反卷积,得到反卷积结果。
本实施例在变化检测网络对第二合并图像9次卷积和4次池化,得到特征图像,每次经过池化层后保存池化索引,记录对应的索引值。
S70,对反卷积结果再进行一次卷积后,经过变化检测网络的softmax层后将像素划分为变化类和未变化类,根据变化类和未变化类确定图像块的变化检测图。
S80,获取待测遥感图像中各个区域每一对图像块的变化检测图,合并各个变化检测图,得到待测遥感图像的变化检测图。
上述步骤得到每一对图像块的变化检测图后,将得到的结果(每一对图像块的变化检测图)根据原图像(相应图像数据包中的参考图像)合并,得到最后待检测图像的变化检测图。
上述基于改进Segnet的遥感图像变化检测方法,通过将对应图像合并为第一合并图像,将第一合并图像输入预先搭建的改进Segnet神经网络,在改进Segnet神经网络中对第一合并图像进行训练,得到变化检测网络,将待测遥感图像用滑动切割的方式切割为多个图像块,将同一区域两个时相的图像块合并为第二合并图像,将第二合并图像输入变化检测网络,在变化检测网络对第二合并图像进行多次卷积和多次池化,得到特征图像,对特征图像进行多次上采样和多次反卷积,得到反卷积结果,对反卷积结果再进行一次卷积后,经过变化检测网络的softmax层后将像素划分为变化类和未变化类,根据变化类和未变化类确定图像块的变化检测图,获取待测遥感图像中各个区域每一对图像块的变化检测图,合并各个变化检测图,得到待测遥感图像的变化检测图,以依据变化检测图实现对待测遥感图像的变化检测,可以检测得到对待测遥感图像中的有效特征,具有较高的检测效果。
在一个实施例中,步骤S30之前,还包括:
S10,选用遥感图像训练集,所述遥感图像训练集包括多个图像数据包;所述图像数据包括一个参考图像和两个常规图像;
S20,搭建改进Segnet神经网络,所述改进Segnet神经网络包括10次卷积和9次反卷积。
本实施例制作遥感图像训练集,选用SZTAKI AirChange Benchmark数据集,该数据集由三个分别命名为SZADA,TISZADOB和ARCHIEVE的子数据集,其中每组分别包含7,5和1对分辨率为1.5米/像素,大小为952×640,将数据集中图像是用滑动切割的方式切割为224×224大小的图像块,参照两幅图像由人工手动标注标签。具体地,遥感图像训练集包括多个图像数据包,图像数据包包括一个参考图像和两个常规图像。待测遥感图像为遥感图像训练集中一个图像数据包中所包括的图像。
上述基于改进Segnet的遥感图像变化检测方法,具有以下有益效果:整体网络框架借鉴了Segnet网络,减少了网络中的卷积次数,简化网络,更易在实际应用中实现,并且能加快训练速度。传统的变化检测方法中有很多会生成差值图,差值图会对结果的精确度有一定的影响,此方法避免了差值图的产生。使用卷积网络提取深度特征,深度特征能有效地捕获目标特征。
在一个实施例中,上述基于改进Segnet的遥感图像变化检测方法也可以参考图2所示,包括训练阶段和测试阶段。其中训练阶段包括以下步骤:
(1)制作遥感图像训练集,选用SZTAKI AirChange Benchmark数据集,将数据集中图像是用滑动切割的方式切割为224×224大小的图像块,参照两幅图像由人工手动标注标签;
(2)搭建改进的Segnet神经网络,改进的Segnet网络(Segnet神经网络)包括10次卷积和9次反卷积。在一个示例中,Segnet网络为深度卷积神经网络结构图,可以参考图3所示。
(3)将对应的图像合并为一个图像,输入到步骤(2)中的卷积神经网络中,经过9次卷积和4次池化,每次经过池化层后保存池化索引,记录对应的索引值;
(4)将步骤(3)中得到的图像进行4次上采样和9次反卷积;
(5)最后再进行一次卷积,经过softmax层后将图像中的像素分为变化类和未变化类。
所述测试阶段包括以下步骤:
(6)处理要测试的遥感图像,将SZTAKI AirChange Benchmark数据集中待检测的遥感图像用滑动切割的方式切割为224×224的图像块。
(7)将同一区域两个时相的的图像块合并为一个图像,输入到步骤(2)中的卷积神经网络中,经过9次卷积和4次池化,每次经过池化层后保存池化索引,记录对应的索引值;
(8)将步骤(7)中得到的的特征图像进行4次上采样和9次反卷积;
(9)最后进行一次卷积,经过softmax层后将图像块中的像素分为变化类和未变化类,得到图像块的变化检测图。
(10)得到每一对图像块的变化检测图后,将得到的结果根据原图像合并,得到最后待检测图像的变化检测图。
上述步骤(3)和步骤(7)中的卷积网络结构如下:
(3.1)假设切割后的图像块都是224×224×3,在图像合并为一个图像后大小变为224×224×6。在输入层中,对图像进行局部响应归一化处理,每一个遥感图像为224×224×3;
(3.2)在第一层卷积层中,用两组64个3×3的卷积核,输出的特征图像为224×224×64;设定步长为1;在layer1的池化层,池化方法设为MAX pooling,,输出的特征图像为112×112×64;
(3.3)在第二层卷积层中,用两组128个3×3的卷积核,设定步长为1,输出的特征图像为112×112×128;在layer2的池化层,池化方法设为MAX pooling,输出的特征图像为56×56×128;
(3.4)在第三层卷积层中,用三组256个3×3的卷积核,设定步长为1,,输出的特征图像为56×56×256;在layer3的池化层,池化方法设为MAX pooling,输出的特征图像为28×28×256;
(3.5)在第四层卷积层中,用三组512个3×3的卷积核,设定步长为1,输出的特征图像为28×28×512;在layer4的池化层,池化方法设为MAX pooling,输出的特征图像为14×14×512;
(3.6)在每一次池化后,保存池化索引,记录最大值的位置。
上述步骤(4)和步骤(8)中的相关卷积网络结构可以如下:
(4.1)在第一层的反卷积层中,先是上采样,上采样时根据layer4的池化索引值对图像进行填充,输出图像为28×28×512;再进行反卷积,反卷积层是三组512个尺寸为3×3的卷积核,设定步长为1,输出图像为28×28×512;
(4.2)在第二层的反卷积层中,先是上采样,上采样时根据layer3的池化索引值对图像进行填充,输出图像为56×56×512;再进行反卷积,反卷积层是三组256个尺寸为3×3的卷积核,设定步长为1,输出图像为56×56×256;
(4.3)在第三层的反卷积层中,先是上采样,上采样时根据layer2的池化索引值对图像进行填充,输出图像为112×112×256;再进行反卷积,反卷积层是两组128个尺寸为3×3的卷积核,设定步长为1,输出图像为112×112×128;
(4.4)在第四层的反卷积层中,先是上采样,上采样时根据layer1的池化索引值对图像进行填充,输出图像为224×224×128;再进行反卷积,反卷积层是两组64个尺寸为3×3的卷积核,设定步长为1,输出图像为224×224×64;
上述步骤(5)和步骤(9)中的具体步骤可以如下:
(5.1)最后一层卷积层中,定义2个尺寸为3×3的卷积核,步长定为1,输出图像为224×224×2;
(5.2)此时可将遥感图像变化检测理解为图像二分类的问题。在经过最后一次卷积后,softmax操作得到的是一个概率二值化图像。有变化的像素点p1为1,无变化的像素点p0为0。
(5.3)采用交叉熵作为损失函数,如下:
上式中,m为样本数,即图像中的像素点数,即为224×224。y0和y1是实际标签,分别代表无变化的像素点和有变化的像素点。
本申请实施例的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或模块的过程、方法、装置、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或模块。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (4)
1.一种基于改进Segnet的遥感图像变化检测方法,其特征在于,包括如下步骤:
S30,将对应图像合并为第一合并图像,将第一合并图像输入预先搭建的改进Segnet神经网络;所述对应图像为一个图像数据包中除参考图像之外的两个图像;
S40,在改进Segnet神经网络中对第一合并图像进行训练,得到变化检测网络;
S50,将待测遥感图像用滑动切割的方式切割为多个图像块,将同一区域两个时相的图像块合并为第二合并图像,将第二合并图像输入变化检测网络;
S60,在变化检测网络对第二合并图像进行多次卷积和多次池化,得到特征图像,对特征图像进行多次上采样和多次反卷积,得到反卷积结果;
S70,对反卷积结果再进行一次卷积后,经过变化检测网络的softmax层后将像素划分为变化类和未变化类,根据变化类和未变化类确定图像块的变化检测图;
S80,获取待测遥感图像中各个区域每一对图像块的变化检测图,合并各个变化检测图,得到待测遥感图像的变化检测图。
2.根据权利要求1所述的基于改进Segnet的遥感图像变化检测方法,其特征在于,步骤S30之前,还包括:
S10,选用遥感图像训练集,所述遥感图像训练集包括多个图像数据包;所述图像数据包括一个参考图像和两个常规图像;
S20,搭建改进Segnet神经网络,所述改进Segnet神经网络包括10次卷积和9次反卷积。
3.根据权利要求1所述的基于改进Segnet的遥感图像变化检测方法,其特征在于,在改进Segnet神经网络中对第一合并图像进行训练,得到变化检测网络包括:
在改进Segnet神经网络中对第一合并图像进行9次卷积和4次池化,每次经过池化层后保存池化索引,记录对应的索引值,得到初始训练图像;
对初始训练图像进行4次上采样和9次反卷积,对反卷积结果再进行一次卷积,经过改进Segnet神经网络的softmax层后将图像中的像素分为变化类和未变化类,利用Loss函数和梯度下降算法优化改进Segnet神经网络的参数,以得到变化检测网络。
4.根据权利要求1所述的基于改进Segnet的遥感图像变化检测方法,其特征在于,在变化检测网络对第二合并图像进行多次卷积和多次池化,得到特征图像,对特征图像进行多次上采样和多次反卷积,得到反卷积结果包括:
在变化检测网络对第二合并图像9次卷积和4次池化,得到特征图像,对特征图像进行4次上采样和9次反卷积,得到反卷积结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010837479.XA CN112115793A (zh) | 2020-08-19 | 2020-08-19 | 基于改进Segnet的遥感图像变化检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010837479.XA CN112115793A (zh) | 2020-08-19 | 2020-08-19 | 基于改进Segnet的遥感图像变化检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112115793A true CN112115793A (zh) | 2020-12-22 |
Family
ID=73804268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010837479.XA Withdrawn CN112115793A (zh) | 2020-08-19 | 2020-08-19 | 基于改进Segnet的遥感图像变化检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112115793A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115828079A (zh) * | 2022-04-20 | 2023-03-21 | 北京爱芯科技有限公司 | 一种最大池化运算的方法及装置 |
-
2020
- 2020-08-19 CN CN202010837479.XA patent/CN112115793A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115828079A (zh) * | 2022-04-20 | 2023-03-21 | 北京爱芯科技有限公司 | 一种最大池化运算的方法及装置 |
CN115828079B (zh) * | 2022-04-20 | 2023-08-11 | 北京爱芯科技有限公司 | 一种最大池化运算的方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xia et al. | Cloud/shadow segmentation based on global attention feature fusion residual network for remote sensing imagery | |
Huang et al. | Road centreline extraction from high‐resolution imagery based on multiscale structural features and support vector machines | |
Smith | Image segmentation scale parameter optimization and land cover classification using the Random Forest algorithm | |
Bui et al. | Whale Optimization Algorithm and Adaptive Neuro-Fuzzy Inference System: a hybrid method for feature selection and land pattern classification | |
CN112084923B (zh) | 一种遥感图像语义分割方法、存储介质及计算设备 | |
Jiang et al. | Intelligent image semantic segmentation: a review through deep learning techniques for remote sensing image analysis | |
CN111767962A (zh) | 基于生成对抗式网络的一阶段目标检测方法、系统及装置 | |
Kim et al. | Deep learning-based monitoring of overshooting cloud tops from geostationary satellite data | |
Myint et al. | Object vs. pixel: a systematic evaluation in urban environments | |
Guo et al. | Identify urban area from remote sensing image using deep learning method | |
Bhardwaj et al. | Threshold-free attribute profile for classification of hyperspectral images | |
Yates et al. | Evaluation of synthetic aerial imagery using unconditional generative adversarial networks | |
Meng et al. | A block object detection method based on feature fusion networks for autonomous vehicles | |
Ps et al. | Building footprint extraction from very high-resolution satellite images using deep learning | |
Luo et al. | Extraction of bridges over water from IKONOS panchromatic data | |
Zhao et al. | Ship detection from scratch in Synthetic Aperture Radar (SAR) images | |
Zhao et al. | A flow base bi-path network for cross-scene video crowd understanding in aerial view | |
CN114240949A (zh) | 宫颈细胞分割网络训练方法、宫颈细胞分割方法、装置 | |
CN112115793A (zh) | 基于改进Segnet的遥感图像变化检测方法 | |
Shi et al. | A photometry pipeline for SDSS images based on convolutional neural networks | |
Chen et al. | Alfpn: adaptive learning feature pyramid network for small object detection | |
CN117437555A (zh) | 一种基于深度学习的遥感影像目标提取处理方法及装置 | |
Paul et al. | Dimensionality reduction of hyperspectral images: a data-driven approach for band selection | |
Lv et al. | Developing a general post-classification framework for land-cover mapping improvement using high-spatial-resolution remote sensing imagery | |
Zhao et al. | Hyperspectral image classification with multi-scale graph convolution network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201222 |
|
WW01 | Invention patent application withdrawn after publication |