CN114612787A - 一种尺度变化策略支持的城市绿地深度学习提取方法 - Google Patents

一种尺度变化策略支持的城市绿地深度学习提取方法 Download PDF

Info

Publication number
CN114612787A
CN114612787A CN202210277432.1A CN202210277432A CN114612787A CN 114612787 A CN114612787 A CN 114612787A CN 202210277432 A CN202210277432 A CN 202210277432A CN 114612787 A CN114612787 A CN 114612787A
Authority
CN
China
Prior art keywords
scene
object unit
urban green
scene classification
green land
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210277432.1A
Other languages
English (en)
Other versions
CN114612787B (zh
Inventor
林聪�
李二珠
傅俊豪
周梦潇
胡春霞
卢婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Surveying And Mapping Research Institute Co ltd
Original Assignee
Nanjing Surveying And Mapping Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Surveying And Mapping Research Institute Co ltd filed Critical Nanjing Surveying And Mapping Research Institute Co ltd
Priority to CN202210277432.1A priority Critical patent/CN114612787B/zh
Priority claimed from CN202210277432.1A external-priority patent/CN114612787B/zh
Publication of CN114612787A publication Critical patent/CN114612787A/zh
Application granted granted Critical
Publication of CN114612787B publication Critical patent/CN114612787B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种尺度变化策略支持的城市绿地深度学习提取方法,主要包括四部分:(1)对象单元提取:利用尺度寻优算法支持的影像多尺度分割,获得对象单元与对象级特征;(2)场景种子点提取:利用二叉树采样算法,逐对象单元计算场景种子点个数,并采用无监督算法计算场景种子点集合;(3)场景分类网络训练:以种子点为中心进行影像裁切,构建场景分类数据集并训练场景分类网络;(4)场景分类与像素级结果还原:预测场景分类结果,利用多数投票法获取单个对象单元的分类结果,并生成城市绿地像素级提取结果。本算法通过尺度变化策略,实现了样本由像素级向场景级的转换,降低了样本标注难度,达到以较低的成本自动提取城市绿地的目的。

Description

一种尺度变化策略支持的城市绿地深度学习提取方法
技术领域
本发明属于遥感智能信息提取技术领域,具体涉及一种尺度变化策略支持的城市绿地深度学习提取方法。
背景技术
城市绿地是指城市建成区空间范围内以自然/人工植被组成的城市土地利用类型,是城市生态用地的主要组成部分。城市绿地在城市中发挥着固碳释氧、调节微气候、涵养水源、吸收污染物等重要生态效益。随着我国城镇化发展的不断推进,城市人工地表快速扩张,与城市绿地相互穿插交织。因此城市绿地相对于森林、草原等天然绿地存在破碎度高、形状多样性复杂等特点,给城市绿地的精细化制图带来了一定的困难。城市绿地的高效精准提取,对自然资源管理、城市生态环境监测、城市碳汇估算等工作具有重要意义。随着对地观测技术的不断发展,遥感影像具有越来越高的分辨率,地物细节更加丰富,城市绿地的精准提取提供了数据基础。当前深度学习为主的人工智能方法成为了高分影像地物提取的主流技术手段,以U-Net、SegNet、DeepLabV3等为代表的的语义分割网络在遥感影像智能解译研究与应用中得到了广泛的使用。虽然当前语义分割为主的深度学习算法在精度上可以一定程度满足地物精细提取制图需求,但是此类方法与样本数据集质量与数量具有极强的依赖关系,且其像素级尺度样本制作及标注过程复杂且繁琐,需具备较高的领域专家知识及人力、物力成本,同时需要以辅助影像、数据为参考,乃至实地调查来确保样本标注真实可靠。
因此,对于遥感影像城市绿地提取问题,传统基于像素级样本的深度学习的遥感影像提取方法存在以下局限性:1)高质量像素级训练样本制作成本较高,需要大量的人力、物力及时间成本投入;2)对于边缘信息,由于其对整体影像的裁切操作、人工标注的不确定性以及训练过程中数据的卷积操作,导致边缘信息残缺,难以保持边缘信息的完整性,使得提取成果轮廓信息较差,无法达到理想状态。
发明内容
本发明针对现有技术中的不足,提供一种尺度变化策略支持的城市绿地深度学习提取方法,采用的技术方案如下:
一种尺度变化策略支持的城市绿地深度学习提取方法,包括以下步骤:
步骤1:利用尺度寻优算法支持的影像多尺度分割,获取遥感影像中的对象单元并提取每个对象单元的对象级特征;
步骤2:通过设定对象级特征的多层次阈值及各层次阈值影响因子,利用二叉树采样算法分别计算每个对象单元的场景个数,并将场景个数作为场景种子点数量;
步骤3:以步骤2中的场景种子点数量为聚类簇数,采用K-Means算法分别计算每个对象单元中各场景的聚类中心,并将对象单元中与该聚类中心距离最近的像素点作为该场景的中心位置;
步骤4:设定场景尺寸,规定边界限制,以步骤3中获取的场景中心位置为中心构建矩形范围并裁剪遥感影像,分别对裁剪得到的单场景图像进行类别标注,形成场景分类数据集;
步骤5:利用步骤4中构建的场景分类数据集训练场景分类网络,并对训练完成的场景分类网络进行精度评估和泛化性测试,若不达标则重新训练;
步骤6:对待提取城市绿地的遥感影像图,按照步骤1到4获取该遥感影像图的单场景图像,并将其分别输入到训练完成的场景分类网络中以获取场景类别;
步骤7:分别对单个对象单元中的所有场景类别进行统计,并利用多数投票法获取对象单元的类别,即,若单个对象单元中的所有场景类别中多数为城市绿地,则该对象单元的类别也为城市绿地,否则该对象单元为非城市绿地;
步骤8:根据对象单元及其像素点的空间位置关系,对待提取城市绿地的遥感影像图进行逐像素类别标定,以获取像素级城市绿地提取结果,即,若对象单元的类别为城市绿地,则待提取城市绿地的遥感影像图中与该对象单元对应的每个像素的类别也为城市绿地。
进一步地,步骤1中,通过在eCognition软件中使用多尺度分割算法完成对遥感影像的分割,其中尺度因子由ESP2插件计算获得,获取遥感影像中的对象单元并提取每个对象单元的对象级特征,所述对象级特征包括面积和密度。
进一步地,步骤2中:
若对象单元的面积小于0.1,则其面积影响因子ta为0.5,
若对象单元的面积大于0.8,则其面积影响因子ta为1.0,
若对象单元的面积不小于0.1且不大于0.8,则其面积影响因子ta为0.8;
若对象单元的密度T小于0.1,则其密度影响因子tb为0.5,
若对象单元的密度T大于0.8,则其密度影响因子tb为1.0,
若对象单元的密度T不小于0.1且不大于0.8,则其密度影响因子tb为0.8;
每个对象单元的场景个数num的计算公式为:num=Max_num*ta*T*tb,其中Max_num为该对象单元的最大场景个数,且
Figure BDA0003555581970000021
pts为该对象单元的总像素点数,
Figure BDA0003555581970000022
表示取整。
进一步地,步骤3中,以步骤2中获取的单个对象单元的场景种子点数量为聚类簇数k,利用K-Means++算法完成聚类中心的初始化:首先,从该对象单元的像素点集Py={p1,p2,…,pn}中随机选择一个点作为第一个聚类中心,记为C1;然后,计算Py中的每个点到聚类中心的欧式距离,用Dx表示,Dx越大则其被选为下一个聚类中心的概率越大;最后,采用轮盘选择法选取第二个聚类中心,按照此步骤,依次初始化k个聚类中心;
聚类中心初始化完成后,采用标准的K-Means算法完成聚类过程,获得最终的k个聚类中心,并将对象单元中与该k个聚类中心距离最近的像素点作为对应聚类中心代表的场景的中心位置。
进一步地,步骤5中,选取ResNet50网络作为场景分类网络,将场景分类数据集按照一定比例分为训练集、测试集和验证集,利用训练集通过变换损失函数、调整学习率和迭代次数训练场景分类网络,并利用测试集和验证集对训练后的场景分类网络进行精度评估和泛化性测试,若测试精度小于设定阈值则重新训练。
进一步地,训练集、测试集和验证集的划分比例为6:2:2,并将单张遥感影像的最大训练样本量设为100000,以防止训练过拟合;场景分类网络训练时的优化器为SGD,学习率为0.002,动量因子为0.9,权重衰减为0.0001,迭代次数为100,步长为32。
本发明的有益效果如下:
(1)提出了一种尺度变化策略,解决了像素级样本标注困难的问题;实现了由影像-对象-场景-像素的尺度变化,通过标注场景样本类别信息,即可最终完成像素级成果提取。
(2)引入了以二叉树采样与K-means结合的场景种子点计算方法,以对象单元采样个数为聚类簇数,使用K-means逐对象计算其内场景种子点位置,达到场景自动化提取的目的,该方法计算不同对象单元时相互独立,并可采用并行计算保障其运行效率。
(3)构建了像素级成果还原方法,通过反映射字典及多数投票算法,结合空间位置匹配关系,逐像素复原类别,实现场景-像素的尺度变化,获得像素级城市绿地提取结果。
本发明方法在多期国产高分辨率遥感影像城市绿地提取中取得了良好的提取效果,边缘精细,提取总体精度高且模型迁移性强。相较于传统深度学习方法,能够有效降低样本标注成本,更加高效的完成城市绿地的提取,为城市绿地深度学习提取提供了新的解决思路。
附图说明
图1为本发明中的尺度变化示意图;
图2为本发明方法的流程图;
图3为场景分类数据集生成方法的流程图;
图4为像素级成果还原方法的流程图;
图5为城市绿地原始图像、真值标签及提取结果示意图。
具体实施方式
本发明实例研究区域为南京主城地区,产品类型为0.5m国产高分辨率遥感影像,产品数据获取时间为2019年,为了方便描述,后续将产品简称为“主城高分2019”。
本实施案例基于一种尺度变化策略支持的城市绿地深度学习提取方法,其中尺度变化示意图如图1所示,方法流程图如图2所示,包括以下步骤:
第一步:获取南京市主城六区国产高分辨率遥感影像(空间分辨率0.5m),在ArcMap中生成矢量文件,对影像进行裁剪获得研究区原始影像。通过使用遥感处理软件ENVI(The Environment for Visualizing Image),对研究区原始影像进行数据预处理以及感兴趣地物标注,生成真实值标签图“eCogResult2019”。
第二步:在eCognition软件中使用ESP2插件完成多尺度遥感影像分割,获取对象单元及其对象级特征提取。读取栅格格式的“主城高分2019”,在其进程树中加载ESP2插件,执行插件并设置参数:Shape为0.1,Compactness为0.5,Produce LV Graph为1。分割完成后,为尽可能保证其分割单元的精细性及后续计算步骤的边缘信息,导出Level1级对象单元结果及其面积、密度等对象级特征,分别以“.tif”和“.csv”文件形式进行保存。
第三步:利用Python编程完成单个对象单元场景种子点个数的提取。利用二叉树采样算法,设定对象级特征:面积和密度的阈值范围及其影响因子,读取第一步中的栅格结果eCogResult2019与表格结果,依据序号一一对应,遍历其中所有的对象单元;对每个对象单元计算最大场景种子点个数限制,生成种子点个数3×3矩阵,以面积与密度为参数,获取其单个对象单元场景种子点个数。具体参数及公式如表1所示。
第四步:利用Python编程实现K-Means++算法初始化K-Means算法,获得初始聚类中心并最终得到每个对象单元全部种子点位置。以第三步获取的单个对象单元场景种子点个数为聚类簇数k,从点集Py={p1,p2,…,pn}中随机选择一个点作为第一个聚类中心,记为C1;然后计算Py中的每一个点到聚类中心的欧式距离,用Dx表示,Dx越大,则被选为下一个聚类中心的概率越大,最后,采用轮盘法选取第二个聚类中心,按照此步骤,依次初始化k个聚类中心。
当获得第k个聚类中心时,即使用K-Means++完成聚类中心初始化的目标,后续便可使用标准K-Means算法,计算并获取最终的k个聚类中心,即对应k个种子点。对所获取到的k个种子点,计算其与所有点的欧式距离,选取与其最邻近点的值替换相应的种子点,以达到取整的目标,以文档的形式记录并保存场景种子点位置信息。
相比于K-Means算法随机选取聚类中心,K-Means++则按照如下的思想选取k个聚类中心:假设已经选取了n个初始聚类中心(0<n<k),则在选取第n+1个聚类中心时:距离当前n个聚类中心越远的点会有更高的概率被选为第n+1个聚类中心。这也更符合我们的直觉,聚类中心当然是互相离得越远越好。
表1
Figure BDA0003555581970000051
pts表示单个分割单元的总像素点数,样本个数需最终取整;Max_num即为对象单元的最大场景个数,ta表示面积影响因子,tb表示密度影响因子。
第五步:利用Python编程实现场景分类数据集的构建,整体流程如图3所示。利用第四步所获取的种子点作为中心点,设定场景尺寸,以种子点x,y坐标为原点,获取裁剪矩形框四点坐标,参数及其位置分别为:
Figure BDA0003555581970000052
读取原始影像,依据矩形框坐标,裁切影像,若坐标位置超出整体图幅范围,则使用图幅范围作为边界,形成无标签场景样本;利用人机交互,赋值无标签样本场景类别:背景值设为0,城市绿地设为1,达到以对象单元为基础,重新划分其中各个场景类别信息的目的,最终形成场景分类数据集。
第六步:数据集构建完成后,按6:2:2的比例划分训练集、测试集与验证集,设置单张原始影像最大训练样本量为100000,以防止训练过拟合。利用Python编程实现深度学习场景分类网络训练,选择ResNet50作为基础训练网络,将训练集送入网络中,设置其网络基础参数。优化器选择SGD,其学习率设置为0.002,动量因子设置为0.9,权重衰减设置为0.0001,迭代次数为100,步长为32,完成场景分类模型训练。
第七步:模型训练完成后,使用第六步划分的测试集,对场景分类模型的总体精度进行评定,输出模型并以文本形式记录单一场景图片属性信息及其类别信息。重选同期不同区域或不同期数据,按步骤生成无标签场景数据集,利用模型进行预测,再次评定其总体精度,完成模型迁移性测试。
第八步:读取第七步所获得的场景分类结果,统计单个对象单元中所有场景类别,以多数投票算法评定对象单元类别,依据反映射字典,重建对象单元类别标签。读取第二步获取的“eCogResult2019”结果,利用单个像素点所在对象单元的位置信息,逐像素赋值其所匹配的对象单元类别属性,从而完成像素级结果还原,具体流程图如图4所示。结合第一步所标注的部分真值标签,计算像素级结果精度,包含:总体精度、召回率、F1、MIoU四项指标。最终实现城市绿地深度学习提取的目的,城市绿地提取结果图如图5所示,结果图中的高亮区域即为提取到的城市绿地区域。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。

Claims (6)

1.一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,包括以下步骤:
步骤1:利用尺度寻优算法支持的影像多尺度分割,获取遥感影像中的对象单元并提取每个对象单元的对象级特征;
步骤2:通过设定对象级特征的多层次阈值及各层次阈值影响因子,利用二叉树采样算法分别计算每个对象单元的场景个数,并将场景个数作为场景种子点数量;
步骤3:以步骤2中的场景种子点数量为聚类簇数,采用K-Means算法分别计算每个对象单元中各场景的聚类中心,并将对象单元中与该聚类中心距离最近的像素点作为该场景的中心位置;
步骤4:设定场景尺寸,规定边界限制,以步骤3中获取的场景中心位置为中心构建矩形范围并裁剪遥感影像,分别对裁剪得到的单场景图像进行类别标注,形成场景分类数据集;
步骤5:利用步骤4中构建的场景分类数据集训练场景分类网络,并对训练完成的场景分类网络进行精度评估和泛化性测试,若不达标则重新训练;
步骤6:对待提取城市绿地的遥感影像图,按照步骤1到4获取该遥感影像图的单场景图像,并将其分别输入到训练完成的场景分类网络中以获取场景类别;
步骤7:分别对单个对象单元中的所有场景类别进行统计,并利用多数投票法获取对象单元的类别,即,若单个对象单元中的所有场景类别中多数为城市绿地,则该对象单元的类别也为城市绿地,否则该对象单元为非城市绿地;
步骤8:根据对象单元及其像素点的空间位置关系,对待提取城市绿地的遥感影像图进行逐像素类别标定,以获取像素级城市绿地提取结果,即,若对象单元的类别为城市绿地,则待提取城市绿地的遥感影像图中与该对象单元对应的每个像素的类别也为城市绿地。
2.如权利要求1所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,步骤1中,通过在eCognition软件中使用多尺度分割算法完成对遥感影像的分割,其中尺度因子由ESP2插件计算获得;获取遥感影像中的对象单元并提取每个对象单元的对象级特征,所述对象级特征包括面积和密度。
3.如权利要求2所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,步骤2中:
若对象单元的面积小于0.1,则其面积影响因子ta为0.5,
若对象单元的面积大于0.8,则其面积影响因子ta为1.0,
若对象单元的面积不小于0.1且不大于0.8,则其面积影响因子ta为0.8;
若对象单元的密度T小于0.1,则其密度影响因子tb为0.5,
若对象单元的密度T大于0.8,则其密度影响因子tb为1.0,
若对象单元的密度T不小于0.1且不大于0.8,则其密度影响因子tb为0.8;
每个对象单元的场景个数num的计算公式为:num=Max_num*ta*T*tb,其中Max_num为该对象单元的最大场景个数,且
Figure FDA0003555581960000021
pts为该对象单元的总像素点数,
Figure FDA0003555581960000022
表示取整。
4.如权利要求1所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,步骤3中,以步骤2中获取的单个对象单元的场景种子点数量为聚类簇数k,利用K-Means++算法完成聚类中心的初始化:首先,从该对象单元的像素点集Py={p1,p2,…,pn}中随机选择一个点作为第一个聚类中心,记为C1;然后,计算Py中的每个点到聚类中心的欧式距离,用Dx表示,Dx越大则其被选为下一个聚类中心的概率越大;最后,采用轮盘选择法选取第二个聚类中心,按照此步骤,依次初始化k个聚类中心;
聚类中心初始化完成后,采用标准的K-Means算法完成聚类过程,获得最终的k个聚类中心,并将对象单元中与该k个聚类中心距离最近的像素点作为对应聚类中心代表的场景的中心位置。
5.如权利要求1所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,步骤5中,选取ResNet50网络作为场景分类网络,将场景分类数据集按照一定比例分为训练集、测试集和验证集,利用训练集通过变换损失函数、调整学习率和迭代次数训练场景分类网络,并利用测试集和验证集对训练后的场景分类网络进行精度评估和泛化性测试,若测试精度小于设定阈值则重新训练。
6.如权利要求5所述的一种尺度变化策略支持的城市绿地深度学习提取方法,其特征在于,训练集、测试集和验证集的划分比例为6:2:2,并将单张遥感影像的最大训练样本量设为100000,以防止训练过拟合;场景分类网络训练时的优化器为SGD,学习率为0.002,动量因子为0.9,权重衰减为0.0001,迭代次数为100,步长为32。
CN202210277432.1A 2022-03-21 一种尺度变化策略支持的城市绿地深度学习提取方法 Active CN114612787B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210277432.1A CN114612787B (zh) 2022-03-21 一种尺度变化策略支持的城市绿地深度学习提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210277432.1A CN114612787B (zh) 2022-03-21 一种尺度变化策略支持的城市绿地深度学习提取方法

Publications (2)

Publication Number Publication Date
CN114612787A true CN114612787A (zh) 2022-06-10
CN114612787B CN114612787B (zh) 2024-05-10

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116363520A (zh) * 2023-06-02 2023-06-30 青岛海滨风景区小鱼山管理服务中心 一种城市绿地规划用景观生态检测系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160307073A1 (en) * 2015-04-20 2016-10-20 Los Alamos National Security, Llc Change detection and change monitoring of natural and man-made features in multispectral and hyperspectral satellite imagery
CN112215186A (zh) * 2020-10-21 2021-01-12 深圳市赛为智能股份有限公司 沼泽湿地植被分类方法、装置、计算机设备及存储介质
CN112396029A (zh) * 2020-12-03 2021-02-23 宁波大学 一种聚类分割与耦合端元提取协同的高光谱滨海湿地亚像元变化检测方法
CN112836614A (zh) * 2021-01-27 2021-05-25 国网江苏省电力有限公司泰州供电分公司 一种基于残差网络和迁移学习的高分遥感图像分类方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160307073A1 (en) * 2015-04-20 2016-10-20 Los Alamos National Security, Llc Change detection and change monitoring of natural and man-made features in multispectral and hyperspectral satellite imagery
CN112215186A (zh) * 2020-10-21 2021-01-12 深圳市赛为智能股份有限公司 沼泽湿地植被分类方法、装置、计算机设备及存储介质
CN112396029A (zh) * 2020-12-03 2021-02-23 宁波大学 一种聚类分割与耦合端元提取协同的高光谱滨海湿地亚像元变化检测方法
CN112836614A (zh) * 2021-01-27 2021-05-25 国网江苏省电力有限公司泰州供电分公司 一种基于残差网络和迁移学习的高分遥感图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘文雅;岳安志;季珏;师卫华;邓孺孺;梁业恒;熊龙海;: "基于DeepLabv3+语义分割模型的GF-2影像城市绿地提取", 国土资源遥感, no. 02, 15 June 2020 (2020-06-15) *
张学良: "高空间分辨率遥感图像语义分割研究", 《中国博士学位论文全文数据库工程科技Ⅱ辑》, 31 May 2021 (2021-05-31), pages 028 - 3 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116363520A (zh) * 2023-06-02 2023-06-30 青岛海滨风景区小鱼山管理服务中心 一种城市绿地规划用景观生态检测系统
CN116363520B (zh) * 2023-06-02 2023-08-04 青岛海滨风景区小鱼山管理服务中心 一种城市绿地规划用景观生态检测系统

Similar Documents

Publication Publication Date Title
WO2022184088A1 (zh) 一种基于集成学习的洪水敏感性风险评估方法
CN109325960B (zh) 一种红外云图气旋分析方法及分析系统
CN111540006B (zh) 基于深度迁移学习的植物气孔智能检测与识别方法及系统
CN114092832B (zh) 一种基于并联混合卷积网络的高分辨率遥感影像分类方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN113449594B (zh) 一种多层网络组合的遥感影像地类语义分割与面积计算方法
CN110569747A (zh) 一种利用图像金字塔与Faster-RCNN快速统计大田水稻稻穗数的方法
CN111626993A (zh) 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统
CN113223042B (zh) 一种遥感影像深度学习样本智能采集方法及设备
CN112949517B (zh) 基于深度迁移学习的植物气孔密度和开度识别方法及系统
CN109063754A (zh) 一种基于OpenStreetMap的遥感影像多特征联合分类方法
CN110853070A (zh) 基于显著性与Grabcut的水下海参图像分割方法
CN101276420A (zh) 一种融合光谱信息和多点模拟空间信息的分类方法
CN114694038A (zh) 基于深度学习的高分辨率遥感影像分类方法及系统
CN109543693A (zh) 基于正则化标签传播的弱标注数据降噪方法
CN113111716A (zh) 一种基于深度学习的遥感影像半自动标注方法和装置
CN114283285A (zh) 交叉一致性自训练遥感图像语义分割网络训练方法及装置
CN116543282A (zh) 基于多尺度融合与CBAM-ResNet50的农作物病害分割方法、系统、设备及介质
CN113032613B (zh) 一种基于交互注意力卷积神经网络的三维模型检索方法
CN116863341B (zh) 基于时间序列卫星遥感影像的作物分类和识别方法和系统
CN116563205A (zh) 基于小目标检测和改进YOLOv5的麦穗计数检测方法
CN114219049B (zh) 一种基于层级约束的细粒度笔石图像分类方法和装置
CN114612787A (zh) 一种尺度变化策略支持的城市绿地深度学习提取方法
CN116188489A (zh) 一种基于深度学习和几何校正的麦穗点云分割方法和系统
CN114612787B (zh) 一种尺度变化策略支持的城市绿地深度学习提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant