CN116704350B - 基于高分辨遥感影像水域变化监测方法、系统及电子设备 - Google Patents

基于高分辨遥感影像水域变化监测方法、系统及电子设备 Download PDF

Info

Publication number
CN116704350B
CN116704350B CN202310723841.4A CN202310723841A CN116704350B CN 116704350 B CN116704350 B CN 116704350B CN 202310723841 A CN202310723841 A CN 202310723841A CN 116704350 B CN116704350 B CN 116704350B
Authority
CN
China
Prior art keywords
remote sensing
module
sensing image
convolution
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310723841.4A
Other languages
English (en)
Other versions
CN116704350A (zh
Inventor
舒弥
储国中
黄鹏
傅宇杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hengshan Reservoir Management Station In Fenghua District Ningbo City
Zhejiang Shizizhizi Big Data Co ltd
Original Assignee
Hengshan Reservoir Management Station In Fenghua District Ningbo City
Zhejiang Shizizhizi Big Data Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hengshan Reservoir Management Station In Fenghua District Ningbo City, Zhejiang Shizizhizi Big Data Co ltd filed Critical Hengshan Reservoir Management Station In Fenghua District Ningbo City
Priority to CN202310723841.4A priority Critical patent/CN116704350B/zh
Publication of CN116704350A publication Critical patent/CN116704350A/zh
Application granted granted Critical
Publication of CN116704350B publication Critical patent/CN116704350B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/182Network patterns, e.g. roads or rivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于高分辨遥感影像水域变化监测方法、系统及电子设备,其方法包括:S1、基于Unet模型为基础框架构建改进型EfficientUnet网络模型,将遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练;S2、将配准后的前后时相的高分辨遥感影像数据输入改进型EfficientUnet网络模型并得到水体识别结果,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行栅格求差计算,根据差值的结果输出水域增加或/和水域减少的图斑,得到水域变化矢量数据。本发明具有对异常水体和微小水体特征的深度挖掘能力,充分保证大面积、多时相水体识别结果的准确率,实现对水域面变化信息快速、精准监测。

Description

基于高分辨遥感影像水域变化监测方法、系统及电子设备
技术领域
本发明涉及遥感图像处理技术领域,尤其涉及一种基于深度学习方法的高分辨遥感影像水域变化监测方法、系统及电子设备。
背景技术
水资源是人类生存及社会生产发展所依赖的最基本资源,精细化的水体识别结果和及时的水域面动态变化信息在水利规划、洪灾监测、水系交通布局等方面具有重要的意义。传统的水文信息通常由人工野外测量和水文站监测获取,随着卫星遥感技术的发展和数据获取渠道的增加,利用遥感影像提取水体信息并进行动态变化检测已经成为水资源调查监测的重要方法和手段。
传统的遥感影像水体识别可以分为基于光谱特征的识别方法和基于分类器的识别方法。基于光谱特征的水域面识别方法,如水体指数法、阈值分割法等。该方法可以快速在大范围区域进行水体的识别,但是多适用于中低等分辨率影像,水域识别结果的精细化程度较低;基于分类器的识别方法是综合考虑光谱、纹理、几何特征的监督分类方法,如面向对象分类、随机森林分类法、决策树等;该方法识别精度可行,但算法的迁移能力差,识别效率较低。
随着深度学习技术的发展,诸多卷积神经网络模型被广泛应用到影像数据中来,但卷积神经网络受卷积层深度和卷积计算的局限性,小尺度对象在模型中感受野不利于全局特征的捕获,导致微小特征(举例微小水体)的识别精度不高。此外,受水体悬浮物含量不同的影响,水体在影像中呈现不同的光谱特征会导致水体边缘轮廓识别不准确的情况,水体类型的多样化也会导致模型泛化能力不足的问题。
发明内容
本发明的目的在于解决背景技术所指出的技术问题,提供一种基于高分辨遥感影像水域变化监测方法、系统及电子设备,增强了对异常水体和微小水体特征的挖掘能力,充分保证大面积、多时相水体识别结果的准确率,减少了分类后变化检测中的误差传递,实现对水域面变化信息快速、精准的自动化监测。
本发明的目的通过下述技术方案实现:
一种基于高分辨遥感影像水域变化监测方法(本发明的第一种方法,不包括全连接条件随机场处理模块的处理过程),其方法包括:
S1、构建遥感影像样本数据,遥感影像样本数据包括水体样本、非水体样本,水体样本分类标注为1,非水体样本分类标注为0;基于Unet模型为基础框架构建改进型EfficientUnet网络模型,改进型EfficientUnet网络模型的编码结构采用EfficientUnetB0网络结构,编码结构包括由若干个下采样层,每个下采样层包括移动翻转瓶颈卷积模块和所对应的卷积层,移动翻转瓶颈卷积模块内部包括坐标注意力机制模块,编码结构对遥感影像样本数据提取影像中的高层次特征及位置关联信息;改进型EfficientUnet网络模型的解码结构包括五个上采样组合模块和一个1×1卷积模块,每个上采样组合模块为基础卷积与上采样的组合模块,上采样组合模块对应跨越连接获取下采样层相对应的高层次特征并进行特征融合,1×1卷积模块完成特征融合后的特征图与分类类别的映射并输出分类结果及水体识别结果,将遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练;
S2、获取前后时相的高分辨遥感影像数据,将配准后的前后时相的高分辨遥感影像数据输入改进型EfficientUnet网络模型并得到水体识别结果,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行栅格求差计算,根据差值的结果输出水域增加或/和水域减少的图斑,提取图斑的矢量化数据得到水域变化矢量数据。
一种基于高分辨遥感影像水域变化监测方法(本发明的第二种方法,包括全连接条件随机场处理模块的处理过程),其方法包括:
S1、构建遥感影像样本数据,遥感影像样本数据包括水体样本、非水体样本,水体样本分类标注为1,非水体样本分类标注为0;基于Unet模型为基础框架构建改进型EfficientUnet网络模型,改进型EfficientUnet网络模型的编码结构采用EfficientUnetB0网络结构,编码结构包括由若干个下采样层,每个下采样层包括移动翻转瓶颈卷积模块和所对应的卷积层,移动翻转瓶颈卷积模块内部包括坐标注意力机制模块,编码结构对遥感影像样本数据提取影像中的高层次特征及位置关联信息;改进型EfficientUnet网络模型的解码结构包括五个上采样组合模块和一个1×1卷积模块,每个上采样组合模块为基础卷积与上采样的组合模块,上采样组合模块对应跨越连接获取下采样层相对应的高层次特征并进行特征融合,1×1卷积模块完成特征融合后的特征图与分类类别的映射并输出初步的分类结果及水体识别结果;
S10、改进型EfficientUnet网络模型还包括全连接条件随机场处理模块,全连接条件随机场处理模块以初步的分类结果及水体识别结果作为全连接的输入,计算各像素之间的相似性并对水体和非水体进行进一步分类,输出最终的分类结果及水体识别结果;
将遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练;
S2、获取前后时相的高分辨遥感影像数据,将配准后的前后时相的高分辨遥感影像数据输入改进型EfficientUnet网络模型并得到水体识别结果,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行栅格求差计算,根据差值的结果输出水域增加或/和水域减少的图斑,提取图斑的矢量化数据得到水域变化矢量数据。
为了更好地实现本发明,改进型EfficientUnet网络模型的编码结构包括七个下采样层,第一个下采样层依次包括深度可分离卷积核、坐标注意力机制模块、1×1卷积核、随机失活层;第二个下采样层至第七个下采样层结构相同,第二个下采样层依次包括1×1卷积核、深度可分离卷积核、坐标注意力机制模块、1×1卷积核、随机失活层;第一个下采样层的深度可分离卷积核卷积操作后的特征图与坐标注意力机制模块增强后的注意力特征图进行通道级相乘得到包含注意力信息的特征映射,然后特征映射经过第二个下采样层至第七个下采样层的依次处理得到高层次特征及位置关联信息,高层次特征为特征像素,位置关联信息为特征像素的位置关联信息和通道关系;
改进型EfficientUnet网络模型的解码结构的第一个上采样组合模块与第六个下采样层跨越连接,第二个上采样组合模块与第四个下采样层跨越连接,第三个上采样组合模块与第三个下采样层跨越连接,第四个上采样组合模块与第二个下采样层跨越连接。
优选地,本发明遥感影像样本数据构建方法如下:
S11、获取高分辨遥感影像样本数据,将高分辨遥感影像样本数据按照25%的重叠度采用滑动窗口裁剪的方式获取影像切片,影像切片包括含有分类标注的标签数据,影像切片大小为512像素×512像素;
S12、对影像切片进行旋转、缩放、色彩度变换和添加噪声操作以增加影像切片的数量和多样性;所有影像切片组成遥感影像样本数据;遥感影像样本数据按照7∶2∶1的比例划分成训练集、验证集和测试集。
优选地,本发明坐标注意力机制模块处理方法如下:
坐标注意力机制模块输入的特征图X,维度为h×w×c,h表示输入特征图的高度,w表示输入特征图的宽度,c表示输入特征图的通道数;采用池化核沿着水平和垂直方向编码,则高度为h的第c个通道的输出以及宽度为w的第c个通道的输出/>
其中,H和W表示池化核的尺寸,i表示图像的横坐标,j表示图像的纵坐标;
然后,对上述输出特征进行特征拼接,并使用1×1的卷积变换函数F1进行特征信息整合,由此得到包含水平和垂直方向上进行空间位置信息编码的中间特征图f:
f=δ(F1([zh,zw])),其中δ表示非线性激活函数,zh表示高度为h的特征输出,zw表示宽度为w的特征输出;
接着将中间特征图f沿水平和垂直方向拆分为两个独立的特征图fh和fw,采用两个卷积变换函数Fh、Fw将两个特征图fh、fw分别转换成通道数一致的特征图:
gh=σ(Fh(fh)),
gw=σ(Fw(fw)),
其中,gh表示特征图fh经过卷积变换函数Fh转换后得到的特征图,gw表示fw经过卷积变换函数Fw转换后得到的特征图,σ表示sigmoid激活函数,Fh、Fw分别表示两个1×1的卷积变换函数;
将输入的特征图X与包含位置信息的特征图gh、特征图gw做相乘操作并输出特征图F:
F=X×gh×gw
优选地,本发明全连接条件随机场处理模块以初步的分类结果及水体识别结果作为全连接的输入,通过结合所有像素之间的关系将相邻像元之间进行全连接建模,模型中的全连接条件随机场符合吉布斯分布,根据分割结果计算像元的类别归属概率。
优选地,本发明改进型EfficientUnet网络模型的模型训练过程中采用Adam优化器更新模型参数、二次交叉熵损失函数并设置初始学习率1r,通过监测模型在验证集的损失值和精度,当验证集精度达到一定阈值且损失值减少的程度连续小于给定阈值时,保存训练过程中的最优模型并获取最优模型的权重文件。
优选地,在步骤S2中,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行逐像素的求差值计算,表达式如下:
Xij=Xt2ij-Xt1ij,其中Xij为前后时相下配准后同一像素坐标(i,j)的水体识别结果差值,水体识别结果为0和1的二值化结果,Xt2ij表示时相t2在像素坐标(i,j)的水体识别结果,Xt1ij表示时相t1在像素坐标(i,j)的水体识别结果;
当Xij=0时,则该像素所处位置未发生水域变化;当Xij=-1时,则该像素所处位置发生水域减少;当Xij=1时,则该像素所处位置发生水域增加;
提取水域减少或/和水域增加的像素构成图斑并得到水域变化矢量数据。
一种基于高分辨遥感影像水域变化监测系统,包括数据采集模块、改进型EfficientUnet网络模型、水域面变化识别处理系统和输出模块;数据采集模块用于采集遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练,数据采集模块用于采集不同时相的高分辨遥感影像数据输入改进型EfficientUnet网络模型得到水体识别结果;改进型EfficientUnet网络模型基于Unet模型为基础框架构建,改进型EfficientUnet网络模型的编码结构采用EfficientUnet B0网络结构,编码结构包括由若干个下采样层,每个下采样层包括移动翻转瓶颈卷积模块和所对应的卷积层,移动翻转瓶颈卷积模块内部包括坐标注意力机制模块,编码结构对遥感影像样本数据提取影像中的高层次特征及位置关联信息;改进型EfficientUnet网络模型的解码结构包括五个上采样组合模块和一个1×1卷积模块,每个上采样组合模块为基础卷积与上采样的组合模块,上采样组合模块对应跨越连接获取下采样层相对应的高层次特征并进行特征融合,1×1卷积模块完成特征融合后的特征图与分类类别的映射并输出分类结果及水体识别结果;水域面变化识别处理系统用于前后时相的高分辨遥感影像数据进行配准处理输入改进型EfficientUnet网络模型并得到前后时相所对应的水体识别结果,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行逐像素的求差值计算,提取水域减少或/和水域增加的像素构成图斑并得到水域变化矢量数据;输出模块用于输出水域增加或/和水域减少的图斑,以及水域变化欠量数据。
一种电了设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行本发明基于高分辨遥感影像水域变化监测方法的步骤。
本发明较现有技术相比,具有以下优点及有益效果:
(1)本发明改进型EfficientUnet网络模型采用Efficientnet B0模型构建编码结构,提高了模型的局部特征提取能力,并进一步引用了坐标注意力机制来强化跨通道特征挖掘能力,捕获方向和位置感知信息,使得改进型EfficientUnet网络模型更加精准的定位和识别感兴趣的目标,提高了微小水体的识别精度;坐标注意力机制模块在提高网络性能的同时,未增加模型的参数,保证了模型的快速训练。
(2)本发明改进型EfficientUnet网络模型还包括有全连接条件随机场处理模块,将改进型EfficientUnet网络模型的初步输出作为全连接CRFs的输入,使用全连接CRFs对分类结果进一步优化,通过计算像素之间的相似性对水体和非水体进行类别判断,减少了异常水体和周边地物的干扰,保证了水域边缘结果的准确性。
(3)本发明使用采用分类后栅格求差方法进行水域面变化监测,在保证获取高精度的单一时相水域识别结果的前提下,避免了分类后变化监测中的误差传递,因此在获取准确的水域面变化信息的同时,可以准确掌握不同时相的水域空间分布,同步实现了水体的自动化提取和水域面变化监测。
附图说明
图1为本发明基于高分辨遥感影像水域变化监测方法的方法流程图;
图2为本发明基于高分辨遥感影像水域变化监测方法的方法原理图;
图3为实施例中改进型EfficientUnet网络模型的原理示意图;
图4为实施例中改进型EfficientUnet网络模型中第一个下采样层的原理示意图;
图5为实施例中改进型EfficientUnet网络模型中第二至第七个下采样层的原理示意图;
图6为实施例中坐标注意力机制模块的机制原理图;
图7为本发明举例遥感影像获取水域面结果和水域面变化结果的案例图;
图8为本发明基于高分辨遥感影像水域变化监测系统的原理结构框图。
具体实施方式
下面结合实施例对本发明作进一步地详细说明:
实施例一
如图1~图7所示,一种基于高分辨遥感影像水域变化监测方法,其方法包括:
S1、构建遥感影像样本数据,遥感影像样本数据包括水体样本、非水体样本,水体样本分类标注为1,非水体样本分类标注为0;基于Unet模型为基础框架构建改进型EfficientUnet网络模型,改进型EfficientUnet网络模型的编码结构采用EfficientUnetB0网络结构,编码结构包括由若干个下采样层,每个下采样层包括移动翻转瓶颈卷积模块和所对应的卷积层,移动翻转瓶颈卷积模块内部包括坐标注意力机制模块,编码结构对遥感影像样本数据提取影像中的高层次特征及位置关联信息;改进型EfficientUnet网络模型的解码结构包括五个上采样组合模块和一个1×1卷积模块,每个上采样组合模块为基础卷积与上采样的组合模块,上采样组合模块对应跨越连接获取下采样层相对应的高层次特征并进行特征融合,1×1卷积模块完成特征融合后的特征图与分类类别的映射并输出分类结果及水体识别结果,将遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练。
在一些实施例中,坐标注意力机制模块处理方法如下:
坐标注意力机制模块输入的特征图X,维度为h×w×c,h表示输入特征图的高度,w表示输入特征图的宽度,c表示输入特征图的通道数。采用池化核沿着水平和垂直方向编码,则高度为h的第c个通道的输出以及宽度为w的第c个通道的输出/>
其中,H和W表示池化核的尺寸,i表示图像的横坐标,j表示图像的纵坐标。
然后,对上述输出特征进行特征拼接,并使用1×1的卷积变换函数F1进行特征信息整合,由此得到包含水平和垂直方向上进行空间位置信息编码的中间特征图f:
f=δ(F1([zh,zw])),其中δ表示非线性激活函数,zh表示高度为h的特征输出,zw表示宽度为w的特征输出。
接着将中间特征图f沿水平和垂直方向拆分为两个独立的特征图fh和fw,采用两个卷积变换函数Fh、Fw将两个特征图fh、fw分别转换成通道数一致的特征图:
gh=σ(Fh(fh)),
gw=σ(Fw(fw)),
其中,gh表示特征图fh经过卷积变换函数Fh转换后得到的特征图,gw表示fw经过卷积变换函数Fw转换后得到的特征图,σ表示sigmoid激活函数,Fh、Fw分别表示两个1×1的卷积变换函数。
将输入的特征图X与包含位置信息的特征图gh、特征图gw做相乘操作并输出特征图F:
F=X×gh×gw
S2、获取前后时相的高分辨遥感影像数据,将配准后的前后时相的高分辨遥感影像数据输入改进型EfficientUnet网络模型并得到水体识别结果,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行栅格求差计算,根据差值的结果输出水域增加或/和水域减少的图斑,提取图斑的矢量化数据得到水域变化欠量数据。
实施例二
如图1~图7所示,一种基于高分辨遥感影像水域变化监测方法,其方法包括:
S1、构建遥感影像样本数据,遥感影像样本数据包括水体样本、非水体样本,水体样本分类标注为1,非水体样本分类标注为0。遥感影像样本数据构建方法如下:
S11、获取高分辨遥感影像样本数据,将高分辨遥感影像样本数据(为了保证高分辨遥感影像样本数据的样本的丰富性,需考虑不同时相的样本、不同类型的样本等方面)按照25%的重叠度采用滑动窗口裁剪的方式获取影像切片,影像切片包括含有分类标注的标签数据,影像切片大小为512像素×512像素,从所有影像切片中剔除水体占比小于10%的影像切片样本。
S12、对影像切片进行旋转、缩放、色彩度变换和添加噪声操作等处理以增加影像切片的数量和多样性。所有影像切片组成遥感影像样本数据。遥感影像样本数据按照7∶2∶1的比例划分成训练集、验证集和测试集。训练集用于模型训练,进行特征学习;验证集用于评估训练阶段模型的性能,便于调整训练参数;测试集用于评估模型训练完成时网络的识别效果和精度。
基于Unet模型为基础框架构建改进型EfficientUnet网络模型,改进型EfficientUnet网络模型的编码结构采用EfficientUnet B0网络结构,编码结构包括由若干个下采样层,每个下采样层包括移动翻转瓶颈卷积模块(英文全称:Mobile InvertBottleneck Convolution,简称:MB Conv)和所对应的卷积层,移动翻转瓶颈卷积模块内部包括坐标注意力机制模块(英文全称:Coordinate Attention,简称:CA或CA模块),编码结构对遥感影像样本数据提取影像中的高层次特征及位置关联信息。改进型EfficientUnet网络模型的解码结构包括五个上采样组合模块和一个1×1卷积模块,每个上采样组合模块为基础卷积与上采样的组合模块,上采样组合模块对应跨越连接(改进型EfficientUnet网络模型的编解码架构间具有“跳跃连接”结构,以进行深浅层特征融合,深浅层特征又可称高低层特征)获取下采样层相对应的高层次特征并进行特征融合,1×1卷积模块完成特征融合后的特征图与分类类别的映射并输出初步的分类结果及水体识别结果。EfficientUnetB0由多个MB Conv堆叠而成,该模块通过一个1×1的逐点卷积按照扩展比例对特征进行升维,然后使用深度卷积代替普通卷积进行特征学习和表征;在深度可分离卷积模块后通过增加压缩和激励(英文全称:Squeeze and Extraction,简称:SE)模块进行全局特征提取能力。解码部分由5个上采样模块和最后的1×1卷积组成,为了改善模型整体性能,左侧编码阶段的结构更深,因此本实施例构建的网络模型并非完全对称的“U”型结构。
在一些实施例中,如图3所示,改进型EfficientUnet网络模型的编码结构包括七个下采样层(图3中对应B1~B7),如图4所示,第一个下采样层依次包括深度可分离卷积核、坐标注意力机制模块、1×1卷积核、随机失活层。如图5所示,第二个下采样层至第七个下采样层结构相同,第二个下采样层依次包括1×1卷积核、深度可分离卷积核、坐标注意力机制模块、1×1卷积核、随机失活层。第一个下采样层的深度可分离卷积核卷积操作后的特征图与坐标注意力机制模块增强后的注意力特征图进行通道级相乘得到包含注意力信息的特征映射,然后特征映射经过第二个下采样层至第七个下采样层的依次处理得到高层次特征及位置关联信息,高层次特征为特征像素,位置关联信息为特征像素的位置关联信息和通道关系。
改进型EfficientUnet网络模型的解码结构包括五个上采样组合模块(图3中对应D1~B5),改进型EfficientUnet网络模型的解码结构的第一个上采样组合模块与第六个下采样层跨越连接,第二个上采样组合模块与第四个下采样层跨越连接,第三个上采样组合模块与第三个下采样层跨越连接,第四个上采样组合模块与第二个下采样层跨越连接;改进型EfficientUnet网络模型的编解码架构间具有“跳跃连接”结构,以进行深浅层特征融合,深浅层特征又可称高低层特征。
S10、改进型EfficientUnet网络模型还包括全连接条件随机场处理模块(英文全称:fulLy connected conditional random fields,简称:CRFs或CRFs模块),全连接条件随机场处理模块以初步的分类结果及水体识别结果作为全连接的输入,计算各像素之间的相似性并对水体和非水体进行进一步分类,输出最终的分类结果及水体识别结果。在一些实施例中,改进型EfficientUnet网络模型不包括全连接条件随机场处理模块,改进型EfficientUnet网络模型输出初步的分类结果及水体识别结果作为分类结果及水体识别结果。
将遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练。
在一些实施例中,全连接条件随机场处理模块以初步的分类结果及水体识别结果作为全连接的输入,通过结合所有像素之间的关系将相邻像元之间进行全连接建模,模型中的全连接条件随机场符合吉布斯分布,根据分割结果计算像元的类别归属概率。具体包括如下方法:在条件随机场中,每一个像素x都拥有一个类别标签xi且具有一个对应的观测值yi,这样在无向图中每个像素点都成为某一个节点,若使用像素与像表之间的关系作为边连接,便组成了全连接条件随机场;全连接条件随机场符合吉布斯分布,表达式为:
式中:x表示观测值,E(X|I)表示能量函数,该能量函数由一元势函数和二元势函数构成,表达式如下:
其中,一元势函数ψu用于衡量像素点i的观测值为yi时该像素点属于类别标签xi的概率,该概率和卷积神经网络的后端输出一致;二元势函数ψp结合了像素之间的关联性,用于衡量两件事情同时发生的概率P(xi,yi),当相邻像素点的颜色值yi、yj非常接近时,相邻像表i和j属于同一个类别的概率就大;当相邻像素点的颜色值yi、yj差异较大时,则被划分为不同的类别。基于此,全连接条件随机场处理模块(简称:全连接CRFs)弥补了改进型EfficientUnet网络模型输出的分类结果及水体识别结果(分割结果)中边界模糊的不足,也改善了因水体悬浮物浓度不同导致近岸区和其他水域光谱不一致从而识别不准确的情况。
在一些实施例中,改进型EfficientUnet网络模型的模型训练过程中采用Adam优化器更新模型参数、二次交叉熵损失函数并设置初始学习率1r,通过监测模型在验证集的损失值和精度,当验证集精度达到一定阈值且损失值减少的程度连续小于给定阈值时,保存训练过程中的最优模型并获取最优模型的权重文件。优选地,基于获取的最优模型的权重文件,采用滑窗预测的方法进行结果预测;具体的,用给定的重叠度对影像裁剪并进行逐块预测,每次预测结果只保留中心区域,舍弃图像边缘的预测结果由此得到无拼接痕迹的大尺寸遥感影像的预测结果。
在一些实施例中,如图6所示,改进型EfficientUnet网络模型内部包括坐标注意力机制模块,更能注重位置特征信息(其他卷积网络基本忽略位置特征信息),能够获取更加准确的通道关系和位置信息,坐标注意力机制模块(使深度神经网络更加聚焦水体所在区域的关键信息)处理方法如下:
坐标注意力机制模块输入的特征图X,维度为h×w×c,h表示输入特征图的高度,w表示输入特征图的宽度,c表示输入特征图的通道数。采用池化核沿着水平(水平方向对应高度方向)和垂直方向(垂直方向对应宽度方向)编码,则高度为h的第c个通道的输出以及宽度为w的第c个通道的输出/>
其中,H和W表示池化核的尺寸,i表示图像的横坐标,j表示图像的纵坐标,xc(h,i)表示图像沿高度方向横坐标为i、第c个通道的特征,xc(j,w)表示图像沿高度方向纵坐标为j、第c个通道的特征。
然后,对上述输出特征进行特征拼接,并使用1×1的卷积变换函数F1进行特征信息整合,由此得到包含水平和垂直方向(即高度和宽度方向)上进行空间位置信息编码的中间特征图f:
f=δ(F1([zh,zw])),其中δ表示非线性激活函数.zh表示高度为h的特征输出(zh表示高度为h所有通道的集合),zw表示宽度为w的特征输出(zw表示宽度为w所有通道的集合)。
接着将中间特征图f沿水平和垂直方向拆分为两个独立的特征图fn和fw,采用两个卷积变换函数Fh、Fw将两个特征图fh、fw分别转换成通道数一致的特征图:
gh=σ(Fh(fh)),
gw=σ(Fw(fw)),
其中,gh表示特征图fh经过卷积变换函数Fh转换后得到的特征图,gw表示fw经过卷积变换函数Fw转换后得到的特征图,σ表示sigmoid激活函数,Fh、Fw分别表示两个1×1的卷积变换函数,其中Fh表示水平方向对应的卷积变换函数,Fw表示垂直方向对应的卷积变换函数。
将输入的特征图X与包含位置信息的特征图gh、特征图gw做相乘操作并输出特征图F:
F=X×gh×gw,其中F表示CA模块最后输出的特征图,X表示CA模块输入的特征图,gh和gw分别表示获取位置信息的两个方向的特征图。在实施例中,坐标注意力机制能够在卷积后的通道图上,结合其所处的位置信息,输出的特征图保留特征像素和位置之间的关联信息,能够提高边缘部分以及微小区域的识别能力。
S2、获取前后时相的高分辨遥感影像数据,将配准后的前后时相的高分辨遥感影像数据输入改进型EfficientUnet网络模型并得到水体识别结果,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行栅格求差计算,根据差值的结果输出水域增加或/和水域减少的图斑,提取图斑的矢量化数据得到水域变化矢量数据。
在一些实施例中,步骤S2的求差值计算具体方法如下:将前后时相的高分辨遥感影像数据所对应的水体识别结果进行逐像素的求差值计算,表达式如下:
Xij=Xt2ij-Xt1ij,其中Xij为前后时相下配准后同一像素坐标(i,j)的水体识别结果差值,水体识别结果为0和1的二值化结果,Xt2ij表示时相t2在像素坐标(i,j)的水体识别结果,Xt1ij表示时相t1在像素坐标(i,j)的水体识别结果。
当Xij=0时,则该像素所处位置未发生水域变化;当Xij=-1时,则该像素所处位置发生水域减少;当Xij=1时,则该像素所处位置发生水域增加;提取水域减少或/和水域增加的像素构成图斑(或又称水域变化图斑)并得到水域变化矢量数据。进一步地,对水域变化图斑进行轮廓边界矢量化处理方法如下:从水域变化图斑的多边形轮廓上某个节点出发,沿除了轮廓进入方向的其它七个方向搜索下一个边界点,直到连接成边界弧段;判断边界弧段与其它多边形的空间关系以形成具有拓扑完整性的结果,去除多余点并对曲线进行圆滑后得到水域变化图斑的轮廓边界,便于进一步通过轮廓边界计算得到水域变化矢量数据。
如图8所示,一种基于高分辨遥感影像水域变化监测系统,包括数据采集模块、改进型EfficientUnet网络模型、水域面变化识别处理系统和输出模块。数据采集模块用于采集遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练,数据采集模块用于采集不同时相的高分辨遥感影像数据输入改进型EfficientUnet网络模型得到水体识别结果。改进型EfficientUnet网络模型基于Unet模型为基础框架构建,改进型EfficientUnet网络模型的编码结构采用EfficientUnet B0网络结构,编码结构包括由若干个下采样层,每个下采样层包括移动翻转瓶颈卷积模块和所对应的卷积层,移动翻转瓶颈卷积模块内部包括坐标注意力机制模块,编码结构对遥感影像样本数据提取影像中的高层次特征及位置关联信息。改进型EfficientUnet网络模型的解码结构包括五个上采样组合模块和一个1×1卷积模块,每个上采样组合模块为基础卷积与上采样的组合模块,上采样组合模块对应跨越连接获取下采样层相对应的高层次特征并进行特征融合,1×1卷积模块完成特征融合后的特征图与分类类别的映射并输出分类结果及水体识别结果。水域面变化识别处理系统用于前后时相的高分辨遥感影像数据进行配准处理输入改进型EfficientUnet网络模型并得到前后时相所对应的水体识别结果,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行逐像素的求差值计算,提取水域减少或/和水域增加的像素构成图斑并得到水域变化欠量数据。输出模块用于输出水域增加或/和水域减少的图斑,以及水域变化矢量数据。
一种电子设备,包括:至少一个处理器。以及与所述至少一个处理器通信连接的存储器。其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行本发明基于高分辨遥感影像水域变化监测方法的步骤。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于高分辨遥感影像水域变化监测方法,其特征在于:其方法包括:
S1、构建遥感影像样本数据,遥感影像样本数据包括水体样本、非水体样本,水体样本分类标注为1,非水体样本分类标注为0;基于Unet模型为基础框架构建改进型EfficientUnet网络模型,改进型EfficientUnet网络模型的编码结构采用EfficientUnetB0网络结构,编码结构包括由若干个下采样层,每个下采样层包括移动翻转瓶颈卷积模块和所对应的卷积层,移动翻转瓶颈卷积模块内部包括坐标注意力机制模块,编码结构对遥感影像样本数据提取影像中的高层次特征及位置关联信息;改进型EfficientUnet网络模型的编码结构包括七个下采样层,第一个下采样层依次包括深度可分离卷积核、坐标注意力机制模块、1×1卷积核、随机失活层;第二个下采样层至第七个下采样层结构相同,第二个下采样层依次包括1×1卷积核、深度可分离卷积核、坐标注意力机制模块、1×1卷积核、随机失活层;第一个下采样层的深度可分离卷积核卷积操作后的特征图与坐标注意力机制模块增强后的注意力特征图进行通道级相乘得到包含注意力信息的特征映射,然后特征映射经过第二个下采样层至第七个下采样层的依次处理得到高层次特征及位置关联信息,高层次特征为特征像素,位置关联信息为特征像素的位置关联信息和通道关系;改进型EfficientUnet网络模型的解码结构包括五个上采样组合模块和一个1×1卷积模块,每个上采样组合模块为基础卷积与上采样的组合模块,上采样组合模块对应跨越连接获取下采样层相对应的高层次特征并进行特征融合,1×1卷积模块完成特征融合后的特征图与分类类别的映射并输出初步的分类结果及水体识别结果;改进型EfficientUnet网络模型的解码结构的第一个上采样组合模块与第六个下采样层跨越连接,第二个上采样组合模块与第四个下采样层跨越连接,第三个上采样组合模块与第三个下采样层跨越连接,第四个上采样组合模块与第二个下采样层跨越连接;
S10、改进型EfficientUnet网络模型还包括全连接条件随机场处理模块,全连接条件随机场处理模块以初步的分类结果及水体识别结果作为全连接的输入,计算各像素之间的相似性并对水体和非水体进行进一步分类,输出最终的分类结果及水体识别结果;
将遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练;
S2、获取前后时相的高分辨遥感影像数据,将配准后的前后时相的高分辨遥感影像数据输入改进型EfficientUnet网络模型并得到水体识别结果,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行栅格求差计算,根据差值的结果输出水域增加或/和水域减少的图斑,提取图斑的矢量化数据得到水域变化矢量数据。
2.按照权利要求1所述的基于高分辨遥感影像水域变化监测方法,其特征在于:遥感影像样本数据构建方法如下:
S11、获取高分辨遥感影像样本数据,将高分辨遥感影像样本数据按照25%的重叠度采用滑动窗口裁剪的方式获取影像切片,影像切片包括含有分类标注的标签数据,影像切片大小为512像素×512像素;
S12、对影像切片进行旋转、缩放、色彩度变换和添加噪声操作以增加影像切片的数量和多样性;所有影像切片组成遥感影像样本数据;遥感影像样本数据按照7∶2∶1的比例划分成训练集、验证集和测试集。
3.按照权利要求1所述的基于高分辨遥感影像水域变化监测方法,其特征在于:所述坐标注意力机制模块处理方法如下:
坐标注意力机制模块输入的特征图X,维度为h×w×c,h表示输入特征图的高度,w表示输入特征图的宽度,c表示输入特征图的通道数;采用池化核沿着水平和垂直方向编码,则高度为h的第c个通道的输出以及宽度为w的第c个通道的输出/>
其中,H和W表示池化核的尺寸,i表示图像的横坐标,j表示图像的纵坐标;
然后,对上述输出特征进行特征拼接,并使用1×1的卷积变换函数F1进行特征信息整合,由此得到包含水平和垂直方向上进行空间位置信息编码的中间特征图f:
f=δ(F1([zh,zw])),其中δ表示非线性激活函数,zh表示高度为h的特征输出,zw表示宽度为w的特征输出;
接着将中间特征图f沿水平和垂直方向拆分为两个独立的特征图fh和fw,采用两个卷积变换函数Fh、Fw将两个特征图fh、fw分别转换成通道数一致的特征图:
gh=σ(Fh(fh)),
gw=σ(Fw(fw)),
其中,gh表示特征图fh经过卷积变换函数Fh转换后得到的特征图,gw表示fw经过卷积变换函数Fw转换后得到的特征图,σ表示sigmoid激活函数,Fh、Fw分别表示两个1×1的卷积变换函数;
将输入的特征图X与包含位置信息的特征图gh、特征图gw做相乘操作并输出特征图F:
F=X×gh×gw
4.按照权利要求1所述的基于高分辨遥感影像水域变化监测方法,其特征在于:全连接条件随机场处理模块以初步的分类结果及水体识别结果作为全连接的输入,通过结合所有像素之间的关系将相邻像元之间进行全连接建模,模型中的全连接条件随机场符合吉布斯分布,根据分割结果计算像元的类别归属概率。
5.按照权利要求2所述的基于高分辨遥感影像水域变化监测方法,其特征在于:改进型EfficientUnet网络模型的模型训练过程中采用Adam优化器更新模型参数、二次交叉熵损失函数并设置初始学习率1r,通过监测模型在验证集的损失值和精度,当验证集精度达到一定阈值且损失值减少的程度连续小于给定阈值时,保存训练过程中的最优模型并获取最优模型的权重文件。
6.按照权利要求1所述的基于高分辨遥感影像水域变化监测方法,其特征在于:在步骤S2中,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行逐像素的求差值计算,表达式如下:
Xij=Xt2ij-Xt1ij,其中Xij为前后时相下配准后同一像素坐标(i,j)的水体识别结果差值,水体识别结果为0和1的二值化结果,Xt2ij表示时相t2在像素坐标(i,j)的水体识别结果,Xt1ij表示时相t1在像素坐标(i,j)的水体识别结果;
当Xij=0时,则该像素所处位置未发生水域变化;当Xij=-1时,则该像素所处位置发生水域减少;当Xij=1时,则该像素所处位置发生水域增加;
提取水域减少或/和水域增加的像素构成图斑并得到水域变化矢量数据。
7.一种基于高分辨遥感影像水域变化监测系统,其特征在于:包括数据采集模块、改进型EfficientUnet网络模型、水域面变化识别处理系统和输出模块;数据采集模块用于采集遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练,数据采集模块用于采集不同时相的高分辨遥感影像数据输入改进型EfficientUnet网络模型得到水体识别结果;改进型EfficientUnet网络模型基于Unet模型为基础框架构建,改进型EfficientUnet网络模型的编码结构采用EfficientUnet B0网络结构,编码结构包括由若干个下采样层,每个下采样层包括移动翻转瓶颈卷积模块和所对应的卷积层,移动翻转瓶颈卷积模块内部包括坐标注意力机制模块,编码结构对遥感影像样本数据提取影像中的高层次特征及位置关联信息;改进型EfficientUnet网络模型的编码结构包括七个下采样层,第一个下采样层依次包括深度可分离卷积核、坐标注意力机制模块、1×1卷积核、随机失活层;第二个下采样层至第七个下采样层结构相同,第二个下采样层依次包括1×1卷积核、深度可分离卷积核、坐标注意力机制模块、1×1卷积核、随机失活层;第一个下采样层的深度可分离卷积核卷积操作后的特征图与坐标注意力机制模块增强后的注意力特征图进行通道级相乘得到包含注意力信息的特征映射,然后特征映射经过第二个下采样层至第七个下采样层的依次处理得到高层次特征及位置关联信息,高层次特征为特征像素,位置关联信息为特征像素的位置关联信息和通道关系;改进型EfficientUnet网络模型的解码结构包括五个上采样组合模块和一个1×1卷积模块,每个上采样组合模块为基础卷积与上采样的组合模块,上采样组合模块对应跨越连接获取下采样层相对应的高层次特征并进行特征融合,1×1卷积模块完成特征融合后的特征图与分类类别的映射并输出分类结果及水体识别结果;改进型EfficientUnet网络模型还包括全连接条件随机场处理模块,全连接条件随机场处理模块以初步的分类结果及水体识别结果作为全连接的输入,计算各像素之间的相似性并对水体和非水体进行进一步分类,输出最终的分类结果及水体识别结果;改进型EfficientUnet网络模型的解码结构的第一个上采样组合模块与第六个下采样层跨越连接,第二个上采样组合模块与第四个下采样层跨越连接,第三个上采样组合模块与第三个下采样层跨越连接,第四个上采样组合模块与第二个下采样层跨越连接;将遥感影像样本数据输入改进型EfficientUnet网络模型进行模型训练;水域面变化识别处理系统用于前后时相的高分辨遥感影像数据进行配准处理输入改进型EfficientUnet网络模型并得到前后时相所对应的水体识别结果,将前后时相的高分辨遥感影像数据所对应的水体识别结果进行逐像素的求差值计算,提取水域减少或/和水域增加的像素构成图斑并得到水域变化矢量数据;输出模块用于输出水域增加或/和水域减少的图斑,以及水域变化矢量数据。
8.一种电子设备,其特征在于:包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器执行如权利要求1~6任一所述的方法的步骤。
CN202310723841.4A 2023-06-16 2023-06-16 基于高分辨遥感影像水域变化监测方法、系统及电子设备 Active CN116704350B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310723841.4A CN116704350B (zh) 2023-06-16 2023-06-16 基于高分辨遥感影像水域变化监测方法、系统及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310723841.4A CN116704350B (zh) 2023-06-16 2023-06-16 基于高分辨遥感影像水域变化监测方法、系统及电子设备

Publications (2)

Publication Number Publication Date
CN116704350A CN116704350A (zh) 2023-09-05
CN116704350B true CN116704350B (zh) 2024-01-30

Family

ID=87823566

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310723841.4A Active CN116704350B (zh) 2023-06-16 2023-06-16 基于高分辨遥感影像水域变化监测方法、系统及电子设备

Country Status (1)

Country Link
CN (1) CN116704350B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117612020A (zh) * 2024-01-24 2024-02-27 西安宇速防务集团有限公司 基于sgan对抗神经网络遥感影像要素变化的检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990365A (zh) * 2021-04-22 2021-06-18 宝略科技(浙江)有限公司 一种面向遥感图像语义分割的深度学习模型的训练方法
CN114266898A (zh) * 2022-01-11 2022-04-01 辽宁石油化工大学 一种基于改进EfficientNet的肝癌识别方法
WO2022083202A1 (zh) * 2020-10-20 2022-04-28 山东科技大学 基于U-net神经网络的精细水体提取方法
CN114581761A (zh) * 2021-05-21 2022-06-03 正泰集团研发中心(上海)有限公司 遥感图像识别方法、装置、设备和计算机可读存储介质
US11521379B1 (en) * 2021-09-16 2022-12-06 Nanjing University Of Information Sci. & Tech. Method for flood disaster monitoring and disaster analysis based on vision transformer
CN115861818A (zh) * 2022-12-26 2023-03-28 四川农业大学 基于注意力机制联合卷积神经网络的细小水体提取方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022083202A1 (zh) * 2020-10-20 2022-04-28 山东科技大学 基于U-net神经网络的精细水体提取方法
CN112990365A (zh) * 2021-04-22 2021-06-18 宝略科技(浙江)有限公司 一种面向遥感图像语义分割的深度学习模型的训练方法
CN114581761A (zh) * 2021-05-21 2022-06-03 正泰集团研发中心(上海)有限公司 遥感图像识别方法、装置、设备和计算机可读存储介质
US11521379B1 (en) * 2021-09-16 2022-12-06 Nanjing University Of Information Sci. & Tech. Method for flood disaster monitoring and disaster analysis based on vision transformer
CN114266898A (zh) * 2022-01-11 2022-04-01 辽宁石油化工大学 一种基于改进EfficientNet的肝癌识别方法
CN115861818A (zh) * 2022-12-26 2023-03-28 四川农业大学 基于注意力机制联合卷积神经网络的细小水体提取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于改进U-Net网络的高分遥感影像水体提取;何红术;黄晓霞;李红旮;倪凌佳;王新歌;陈崇;柳泽;;地球信息科学学报(第10期);全文 *
应用SVM算法进行TM多光谱图像地物分类;刘治国;;信息技术(第05期);全文 *

Also Published As

Publication number Publication date
CN116704350A (zh) 2023-09-05

Similar Documents

Publication Publication Date Title
CN109446992B (zh) 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备
CN108961235B (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN109871798B (zh) 一种基于卷积神经网络的遥感影像建筑物提取方法
CN110619282B (zh) 一种无人机正射影像建筑物自动提取方法
CN115049936B (zh) 一种面向高分遥感影像的边界增强型语义分割方法
CN110889449A (zh) 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法
CN112183258A (zh) 一种基于上下文信息和注意力机制的遥感图像道路分割方法
CN110070091B (zh) 用于街景理解的基于动态插值重建的语义分割方法及系统
CN112488025B (zh) 基于多模态特征融合的双时相遥感影像语义变化检测方法
CN110399840B (zh) 一种快速的草坪语义分割及边界检测方法
CN116704350B (zh) 基于高分辨遥感影像水域变化监测方法、系统及电子设备
CN114266794B (zh) 基于全卷积神经网络的病理切片图像癌症区域分割系统
CN115131680A (zh) 基于深度可分离卷积和跳跃连接的遥感影像水体提取方法
CN114187520B (zh) 一种建筑物提取模型的构建及应用方法
CN112750125B (zh) 一种基于端到端关键点检测的玻璃绝缘子片定位方法
CN116343053B (zh) 基于光学遥感影像和sar遥感影像融合的固废自动提取方法
CN114724155A (zh) 基于深度卷积神经网络的场景文本检测方法、系统及设备
CN116363521B (zh) 一种遥感影像语义预测方法
CN114120125A (zh) 基于双流深度网络的农田识别方法、装置及存储介质
CN114821342A (zh) 一种遥感影像道路提取方法及系统
CN116958827A (zh) 一种基于深度学习的撂荒区域提取方法
CN107545281B (zh) 一种基于深度学习的单一有害气体红外图像分类识别方法
CN115937736A (zh) 基于注意力和上下文感知的小目标检测方法
CN115661655A (zh) 高光谱和高分影像深度特征融合的西南山区耕地提取方法
CN114782949A (zh) 一种边界引导上下文聚合的交通场景语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20231025

Address after: 315200 floor 5, Qihang building, Ningbo National University Science Park, No. 777, Zhongguan West Road, Zhuangshi street, Zhenhai District, Ningbo City, Zhejiang Province

Applicant after: Zhejiang shizizhizi big data Co.,Ltd.

Applicant after: Hengshan Reservoir Management Station in Fenghua District, Ningbo City

Address before: 315200 floor 5, Qihang building, Ningbo National University Science Park, No. 777, Zhongguan West Road, Zhuangshi street, Zhenhai District, Ningbo City, Zhejiang Province

Applicant before: Zhejiang shizizhizi big data Co.,Ltd.

GR01 Patent grant
GR01 Patent grant