CN110991430B - 基于遥感图像的地物识别及覆盖率计算方法及系统 - Google Patents
基于遥感图像的地物识别及覆盖率计算方法及系统 Download PDFInfo
- Publication number
- CN110991430B CN110991430B CN202010133677.8A CN202010133677A CN110991430B CN 110991430 B CN110991430 B CN 110991430B CN 202010133677 A CN202010133677 A CN 202010133677A CN 110991430 B CN110991430 B CN 110991430B
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- sensing image
- resolution
- training set
- band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本公开的实施例提供了基于遥感图像的地物识别及覆盖率计算方法、系统、设备和计算机可读存储介质。所述方法包括对卫星遥感图像进行分辨率提升预处理;将预处理后的遥感图像输入预先训练的深度卷积神经网络模型,得到地物分割结果;根据所述地物分割结果,进行地物覆盖率计算;其中,所述分辨率提升预处理包括将所述遥感图像输入预先训练的生成对抗网络模型,输出对应的超分辨率遥感图像。以此方式,可以仅需要一张彩色三通道卫星遥感图像即可进行超分辨率处理进行分辨率提升;获得了更精确的地物识别及覆盖率计算结果。
Description
技术领域
本公开的实施例一般涉及遥感图像处理技术领域,并且更具体地,涉及基于遥感图像的地物识别及覆盖率计算方法、系统、设备和计算机可读存储介质。
背景技术
遥感技术作为获取地物信息的重要手段,在资源调查、土地利用、城市规划、作物估产、国土普查、建筑物选址、荒漠化监测、环境保护、天气预报、灾害监测、气候变化及国防军工等方面均取得了显著的社会效益和经济效益,有着重要的作用。
地物覆盖率信息是遥感图像信息中重要的一部分,现有方式大多是利用ENVI等专业软件根据遥感图像多光谱信息来粗略统计覆盖率或是直接利用遥感图像统计地物覆盖率,在精度和速度上无法满足要求。同时,遥感影像的空间分辨率是衡量遥感影像质量的关键性指标,利用分辨率高的影像可获得更为丰富和清晰的地物细节,提高遥感影像的应用潜力,便于高层次的视觉判读,是遥感数据获取技术的趋向之一。
但是,受限于卫星遥感成像环境、成像平台、传感器成本和数据库数据现有数据的质量等多方面的制约,在卫星遥感图像智能解译与分析中,通常难以获得满足实际应用的高清卫星遥感影像。由于分辨率不足对算法精度造成的影响,造成生产成本高,对业务的发展产生限制。
发明内容
根据本公开的实施例,提供了一种基于遥感图像的地物识别及覆盖率计算方案。
在本公开的第一方面,提供了一种基于遥感图像的地物识别及覆盖率计算方法,该方法包括对卫星遥感图像进行分辨率提升预处理;将预处理后的遥感图像输入预先训练的深度卷积神经网络模型,得到地物分割结果;根据所述地物分割结果,进行地物覆盖率计算;其中,所述分辨率提升预处理包括将所述遥感图像输入预先训练的生成对抗网络模型,输出对应的超分辨率遥感图像。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述预先训练的深度卷积神经网络模型通过以下步骤训练得到:对所述超分辨率遥感图像根据待分割类别进行逐像素分割,构建语义分割数据集;将所述语义分割数据集输入全卷积神经网络模型,进行迭代训练,更新网络参数,直至训练结果满足预设的收敛条件。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述方法还包括引入条件随机场,对所述分割结果进行重构优化。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述地物包括水体、植被、建筑和道路。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述地物覆盖率计算包括:根据分割结果,遍历计算结果中像素所属各类地物的个数,计算出各类地物垂直投影面积,最终推出其覆盖率。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述卫星遥感图像包括高分辨率P1的全色遥感图像和低分辨率P2的多光谱遥感图像;所述预先训练的生成对抗网络模型通过以下步骤训练得到:生成全色遥感图像训练集、蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集;首先使用全色遥感图像训练集,对生成对抗网络模型进行预训练;然后使用蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集分别对预训练后的生成对抗网络模型进行微调,得到对应的训练后的生成对抗网络模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,将待处理的遥感图像输入预先训练的生成对抗网络模型,输出对应的超分辨率遥感图像包括:将分辨率P2的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像分别输入对应的预先训练的生成对抗网络模型,输出对应的分辨率P1的蓝光波段超分辨率遥感图像、绿光波段超分辨率遥感图像、红光波段超分辨率遥感图像和近红外波段超分辨率遥感图像。
在本公开的第二方面,提供了基于遥感图像的地物识别及覆盖率计算系统,该系统包括预处理模块,用于将所述遥感图像输入预先训练的生成对抗网络模型,输出对应的超分辨率遥感图像;分割模块,用于将预处理后的遥感图像输入预先训练的深度卷积神经网络模型,得到地物分割结果;计算模块,用于根据所述地物分割结果,进行地物覆盖率计算。
在本公开的第三方面,提供了一种电子设备。该电子设备包括:存储器和处理器,所述存储器上存储有计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
在本公开的第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如根据本公开的第一方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开的实施例的关键或重要特征,亦非用于限制本公开的范围。本公开的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了根据本公开的实施例的基于遥感图像的地物识别及覆盖率计算方法的流程图;
图2示出了根据本公开的实施例的基于遥感图像的地物识别及覆盖率计算方法中分辨率提高步骤的流程图;
图3示出了根据本公开的实施例的基于遥感图像的地物识别及覆盖率计算系统的方框图;
图4示出了能够实施本公开的实施例的示例性电子设备的方框图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本公开保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1示出了根据本公开实施例的基于遥感图像的地物识别及覆盖率计算方法100的流程图。所述方法包括以下步骤:
在框102,对卫星遥感图像进行分辨率提升预处理;
由于卫星遥感图像分辨率不足,很难进行精确的地物识别及覆盖率计算方法,因此,需要对卫星遥感图像进行分辨率提升,如图2所示,包括以下子步骤:
在框202,对卫星遥感图像进行预处理,得到图像训练集;
所述卫星遥感图像包括高分辨率P1的全色遥感图像和低分辨率P2的多光谱遥感图像,以高分一号(GF-1)为例,GF-1 PMS相机可以获取2米的全色黑白图像、8米多光谱彩色图像(例如蓝、绿、红和近红外4个波段)。全色遥感图像波长450-900nm;多光谱遥感图像包括蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像,其中,蓝光波段遥感图像波长450-520nm,绿光波段遥感图像波长520-590nm,红光波段遥感图像波长630-690nm,近红外波段遥感图像波长770-890nm。在一些实施例中,多光谱遥感图像也可以包括TM7个波段光谱图像中的一个或多个波段,不限于本实施例中上述蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像。
在一些实施例中,对所述全色遥感图像和多光谱遥感图像进行预处理,使所述全色遥感图像的分辨率为所述多光谱遥感图像分辨率的4倍数。
在一些实施例中,由于基于卷积神经网络的超分辨率重建方法是以大量的不同场景、目标、条件下的高分辨率自然图像为样本进行训练,样本越多,则训练效果越好。则需要大量的高质量遥感图像作为训练样本。而现实情况中难以收集如此多场景、目标、条件下的高分辨率多光谱彩色图像,因此,采用迁移学习的方法对基于生成对抗网络的神经网络模型进行训练。
在一些实施例中,所述图像训练集包括全色遥感图像训练集、蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集;通过上述处理,将现有的RGB三通道遥感图像或四通道遥感图像分别进行处理,可以大幅增加图像训练集的样本数量,并可以有针对性地分别对蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像进行分辨率提升。
所述全色遥感图像训练集包括高分辨率P1的全色遥感图像,以及对所述高分辨率P1的全色遥感图像进行降采样得到的分辨率P2的全色遥感图像。
所述蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集分别包括高分辨率P1的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像、近红外波段遥感图像,以及对所述高分辨率P1的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像进行降采样得到的分辨率P2的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像,例如,所述蓝光波段遥感图像训练集包括高分辨率P1的蓝光波段遥感图像和对所述高分辨率P1的蓝光波段遥感图像进行降采样得到的分辨率P2的蓝光波段遥感图像。
在一些实施例中,对图像训练集中的对应图像(高分辨率图像及对应的低分辨率图像)进行图像翻转、旋转等数据增广操作,以得到更多的图像训练集。
在框204,根据所述图像训练集训练基于生成对抗网络的神经网络模型;
在一些实施例中,将所述图像训练集分别用于训练生成网络架构的生成网络损失函数和用于训练判别网络架构的判别网络损失函数,对生成网络架构和判别网络架构进行交替训练,得到训练后的生成对抗网络模型;
所述生成对抗网络包括生成网络G和判别网络D;将所述训练集中的低分辨率图像输入生成网络G,得到输出的超分辨率图像,训练生成网络G的生成网络损失函数;将生成网络G输出的超分辨率图像与所述训练集中的高分辨率图像输入所述判别网络D,判别所述超分辨率图像的真伪,训练所述判别网络D的判别网络损失函数;对所述生成网络G和判别网络D进行交替训练,得到训练后的生成对抗网络。
在一些实施例中,所述生成网络G包括特征提取模块、残差密集学习模块、边缘增强融合模块和图像上采样模块;先用特征提取模块提取低层次特征,然后用残差密集学习模块提取更高层次的特征,再用边缘增强融合模块对所述图像全局深层特征和所述图像边缘深层特征进行边缘增强融合,得到边缘增强的低分辨率图像特征图;接着采用上采样模块对所述低分辨率图像特征图进行上采样,并通过激活函数对所述低分辨率图像特征图进行重建,得到超分辨率图像;最后将重建得到的超分辨率图像通过一卷积层后输出。
在一些实施例中,所述生成网络G的残差密集学习模块,即残差卷积层不包括BN层,图像超分辨率需要尽可能恢复出图像的特征细节,将BN层去除,不仅可以降低计算量,节约GPU资源,而且可以更好地提取图像特征。
在一些实施例中,判别网络D由卷积层、密集连接层、ReLU激活函数层组成。基于判别网络D和所述原始高分辨率P1的全色遥感图像集对重建得到的超分辨率图像进行真伪判别;当所述重建得到的超分辨率图像为伪图像时,基于判别结果学习隐藏在所述生成网络中的损失函数,调整所述生成网络的隐变量参数,基于学习调整后的所述生成网络,重复得到超分辨率图像,直至所述重建得到的超分辨率图像判别为真图像,结束训练。
在一些实施例中,利用梯度下降法来最优化融合损失函数,更新迭代网络权值,最终得到训练完成的网络模型。
在本实施例中,通过利用判别网络与生成网络以交替的方式进行训练,不断优化训练结果,解决了二元博弈问题。
在一些实施例中,首先使用全色遥感图像训练集,对生成对抗网络模型进行预训练;然后使用蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集分别对预训练后的生成对抗网络模型进行微调,得到对应的训练后的生成对抗网络模型,例如,蓝光波段对应的训练后的生成对抗网络模型、绿光波段对应的训练后的生成对抗网络模型、红光波段对应的训练后的生成对抗网络模型和近红外波段对应的训练后的生成对抗网络模型。
在一些实施例中,在用全色遥感图像训练集对生成对抗网络模型进行初步的预训练之后,针对本发明的目标任务:实现蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像的超分辨率重建,使用蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集分别对预训练后的生成网络架构进行微调(finetune)。具体来说,固定生成网络架构前面卷积层的权值参数,用少量,例如各80张蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像分别微调预训练后的生成网络架构最后三层的权值参数,并将微调过程中的学习率降为预训练时学习率的0.1倍。
在本公开的实施例中,微调(finetune)的优势是显然的,包括:
(1)不需要针对目标任务从头开始训练网络,节省了时间成本;
(2)预训练好的生成对抗网络模型是在全色遥感图像训练集上进行的,无形中扩充了遥感训练数据,使得最终训练后的生成对抗网络模型更鲁棒、泛化能力更好;
(3)微调实现简单。
在框206,将待处理的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像分别输入对应的预先训练的生成对抗网络模型,输出对应的超分辨率遥感图像。
在一些实施例中,若待处理的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像分辨率大于P2,先对其降低分辨率,得到分辨率为P2的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像。
在一些实施例中,将分辨率P2的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像分别输入对应的预先训练的生成对抗网络模型,输出对应的分辨率P1的蓝光波段超分辨率遥感图像、绿光波段超分辨率遥感图像、红光波段超分辨率遥感图像和近红外波段超分辨率遥感图像。
在一些实施例中,将对应的分辨率P1的蓝光波段超分辨率遥感图像、绿光波段超分辨率遥感图像、红光波段超分辨率遥感图像和近红外波段超分辨率遥感图像融合为多光谱超分辨率遥感图像。
在框104,将预处理后的遥感图像输入预先训练的深度卷积神经网络模型,得到地物分割结果;
不同波段的遥感图像可用于进行不同测量工作。在一些实施例中,TM波段的波段1:对水体有较强的透视能力,对叶绿素和叶色素浓度敏感,用于区分土壤与植被。波段2:对无病害植物叶绿素反射敏感,对水的穿透力较强。波段3:对叶绿素吸收敏感,用于区分植物种类和植被覆盖度。波段4:区分植被类型,绘制水体边界、探测水中生物的含量和土壤湿度。波段5:探测植物含水量和土壤湿度,区别雪和云。波段7:处于水的强吸收带,可区分主要岩石类型、岩石的水热蚀变。因此,根据不同波段对土壤、植被、岩石等进行测量。
在一些实施例中,可以根据不同地物采用对应波段的遥感图像进行地物分割。也可以利用融合后的多光谱超分辨率遥感图像进行地物分割。
在一些实施例中,所述预先训练的深度卷积神经网络模型通过以下步骤训练得到:
对所述超分辨率遥感图像根据待分割类别进行逐像素分割,构建语义分割数据集;
将所述语义分割数据集输入构建的全卷积神经网络模型,进行迭代训练,更新网络参数,直至训练结果满足预设的收敛条件。
在一些实施例中,对超分辨率遥感图像按照待分割类别进行逐像素标注。
在一些实施例中,利用滑动窗口切割算法对标注后的遥感图像进行切割,对切割得到的子图像块进行旋转、翻转、缩放、拼接等操作以扩大数据量。在一些实施例中,对所述切割得到的字图像块进行添加高斯、椒盐噪声的操作来增强数据。根据增强后的数据生成训练集和测试集。
将训练集中的超分辨率遥感图像输入构建好的深度卷积神经网络,利用损失函数计算输出与标注之间的误差,使用随机梯度下降算法(SGD)对预测误差进行反向传播,更新网络的参数,并用poly方式更新网络学习率(learning rate)。直至网络达到预设的收敛条件或者训练达到最大迭代次数M(M取20000)。
在一些实施例中,通过利用条件随机场对各类分割结果进行优化,调整各类分割结果像素范围,实现图像边缘部分所属的类别优化,提高分割精度。
在框106,根据所述地物分割结果,进行地物覆盖率计算。
在一些实施例中,根据所述地物分割结果,遍历计算结果中像素所属各类地物的个数,计算出各类地物垂直投影面积,最终推出其覆盖率。
根据本公开的实施例,实现了以下技术效果:
获得了更精确的地物识别及覆盖率计算结果;仅需要一张卫星遥感图像即可进行超分辨率处理,提高了蓝光、绿光、红光和近红外波段卫星遥感图像的分辨率,以便进行更精确的地物识别。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本公开并不受所描述的动作顺序的限制,因为依据本公开,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于可选实施例,所涉及的动作和模块并不一定是本公开所必须的。
以上是关于方法实施例的介绍,以下通过装置实施例,对本公开所述方案进行进一步说明。
图3示出了根据本公开的实施例的基于遥感图像的地物识别及覆盖率计算系统300的方框图。如图3所示,所述系统300包括:
预处理模块310,用于将所述遥感图像输入预先训练的生成对抗网络模型,输出对应的超分辨率遥感图像;
分割模块320,用于将预处理后的遥感图像输入预先训练的深度卷积神经网络模型,得到地物分割结果;
计算模块330,用于根据所述地物分割结果,进行地物覆盖率计算。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图4示出了可以用来实施本公开的实施例的电子设备400的示意性框图。设备400可以用于实现图3的基于遥感图像的地物识别及覆盖率计算系统400。如图所示,设备400包括中央处理单元(CPU)401,其可以根据存储在只读存储器(ROM)402中的计算机程序指令或者从存储单元408加载到随机访问存储器(RAM)403中的计算机程序指令,来执行各种适当的动作和处理。在RAM 403中,还可以存储设备400操作所需的各种程序和数据。CPU 401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
设备400中的多个部件连接至I/O接口405,包括:输入单元406,例如键盘、鼠标等;输出单元407,例如各种类型的显示器、扬声器等;存储单元408,例如磁盘、光盘等;以及通信单元409,例如网卡、调制解调器、无线通信收发机等。通信单元409允许设备400通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元401执行上文所描述的各个方法和处理,例如方法100、200。例如,在一些实施例中,方法100、200可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元408。在一些实施例中,计算机程序的部分或者全部可以经由ROM 402和/或通信单元409而被载入和/或安装到设备400上。当计算机程序加载到RAM 403并由CPU 401执行时,可以执行上文描述的方法100、200的一个或多个步骤。备选地,在其他实施例中,CPU401可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法100、200。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (8)
1.一种基于遥感图像的地物识别及覆盖率计算方法,其特征在于,包括:
对卫星遥感图像进行分辨率提升预处理;其中,所述卫星遥感图像包括高分辨率P1的全色遥感图像和低分辨率P2的多光谱遥感图像;所述分辨率提升预处理包括将分辨率P2的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像分别输入对应的预先训练的生成对抗网络模型,输出对应的分辨率P1的蓝光波段超分辨率遥感图像、绿光波段超分辨率遥感图像、红光波段超分辨率遥感图像和近红外波段超分辨率遥感图像;
所述预先训练的生成对抗网络模型通过以下步骤训练得到:生成全色遥感图像训练集、蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集;首先使用全色遥感图像训练集,对生成对抗网络模型进行预训练;然后使用蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集分别对预训练后的生成对抗网络模型进行微调,得到对应的训练后的生成对抗网络模型;所述全色遥感图像训练集包括高分辨率P1的全色遥感图像,以及对所述高分辨率P1的全色遥感图像进行降采样得到的分辨率P2的全色遥感图像;所述蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集分别包括高分辨率P1的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像、近红外波段遥感图像,以及对所述高分辨率P1的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像进行降采样得到的分辨率P2的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像;
将预处理后的遥感图像输入预先训练的深度卷积神经网络模型,得到地物分割结果;
根据所述地物分割结果,进行地物覆盖率计算。
2.根据权利要求1所述的方法,其特征在于,所述预先训练的深度卷积神经网络模型通过以下步骤训练得到:
对所述超分辨率遥感图像根据待分割类别进行逐像素分割,构建语义分割数据集;
将所述语义分割数据集输入全卷积神经网络模型,进行迭代训练,更新网络参数,直至训练结果满足预设的收敛条件。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
引入条件随机场,对所述分割结果进行重构优化。
4.根据权利要求1所述的方法,其特征在于,所述地物包括水体、植被、建筑和道路。
5.根据权利要求1所述的方法,其特征在于,所述地物覆盖率计算包括:
根据分割结果,遍历计算结果中像素所属各类地物的个数,计算出各类地物垂直投影面积,最终推出其覆盖率。
6.一种基于遥感图像的地物识别及覆盖率计算系统,其特征在于,包括:
预处理模块,用于将所述遥感图像输入预先训练的生成对抗网络模型,输出对应的超分辨率遥感图像;其中,所述遥感图像包括高分辨率P1的全色遥感图像和低分辨率P2的多光谱遥感图像;所述分辨率提升预处理包括将分辨率P2的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像分别输入对应的预先训练的生成对抗网络模型,输出对应的分辨率P1的蓝光波段超分辨率遥感图像、绿光波段超分辨率遥感图像、红光波段超分辨率遥感图像和近红外波段超分辨率遥感图像;所述预先训练的生成对抗网络模型通过以下步骤训练得到:生成全色遥感图像训练集、蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集;首先使用全色遥感图像训练集,对生成对抗网络模型进行预训练;然后使用蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集分别对预训练后的生成对抗网络模型进行微调,得到对应的训练后的生成对抗网络模型;所述全色遥感图像训练集包括高分辨率P1的全色遥感图像,以及对所述高分辨率P1的全色遥感图像进行降采样得到的分辨率P2的全色遥感图像;所述蓝光波段遥感图像训练集、绿光波段遥感图像训练集、红光波段遥感图像训练集和近红外波段遥感图像训练集分别包括高分辨率P1的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像、近红外波段遥感图像,以及对所述高分辨率P1的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像进行降采样得到的分辨率P2的蓝光波段遥感图像、绿光波段遥感图像、红光波段遥感图像和近红外波段遥感图像;
分割模块,用于将预处理后的遥感图像输入预先训练的深度卷积神经网络模型,得到地物分割结果;
计算模块,用于根据所述地物分割结果,进行地物覆盖率计算。
7.一种电子设备,包括存储器和处理器,所述存储器上存储有计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~5中任一项所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010133677.8A CN110991430B (zh) | 2020-03-02 | 2020-03-02 | 基于遥感图像的地物识别及覆盖率计算方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010133677.8A CN110991430B (zh) | 2020-03-02 | 2020-03-02 | 基于遥感图像的地物识别及覆盖率计算方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110991430A CN110991430A (zh) | 2020-04-10 |
CN110991430B true CN110991430B (zh) | 2020-06-23 |
Family
ID=70081497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010133677.8A Active CN110991430B (zh) | 2020-03-02 | 2020-03-02 | 基于遥感图像的地物识别及覆盖率计算方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110991430B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016596B (zh) * | 2020-08-10 | 2024-04-09 | 西安科技大学 | 基于卷积神经网络的农田土壤肥力评价方法 |
CN112200456B (zh) * | 2020-10-10 | 2024-04-30 | 深圳前海微众银行股份有限公司 | 企业环境影响评估方法、装置、设备及计算机存储介质 |
CN112651987A (zh) * | 2020-12-30 | 2021-04-13 | 内蒙古自治区农牧业科学院 | 一种样方草地覆盖度计算方法及系统 |
CN114460013B (zh) * | 2022-01-28 | 2023-10-17 | 自然资源部第一海洋研究所 | 滨海湿地植被地上生物量gan模型自学习遥感反演方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105931179B (zh) * | 2016-04-08 | 2018-10-26 | 武汉大学 | 一种联合稀疏表示与深度学习的图像超分辨率方法及系统 |
CN109255334B (zh) * | 2018-09-27 | 2021-12-07 | 中国电子科技集团公司第五十四研究所 | 基于深度学习语义分割网络的遥感影像地物分类方法 |
CN109801215B (zh) * | 2018-12-12 | 2020-04-28 | 天津津航技术物理研究所 | 基于对抗生成网络的红外超分辨率成像方法 |
CN110110679A (zh) * | 2019-05-13 | 2019-08-09 | 成都图必优科技有限公司 | 基于全卷积网络和条件随机场的地物覆盖率计算方法 |
CN110211046B (zh) * | 2019-06-03 | 2023-07-14 | 重庆邮电大学 | 一种基于生成对抗网络的遥感图像融合方法、系统和终端 |
-
2020
- 2020-03-02 CN CN202010133677.8A patent/CN110991430B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110991430A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991430B (zh) | 基于遥感图像的地物识别及覆盖率计算方法及系统 | |
CN111986099B (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 | |
Giang et al. | U-Net convolutional networks for mining land cover classification based on high-resolution UAV imagery | |
Han et al. | Remote sensing image building detection method based on Mask R-CNN | |
CN113780296B (zh) | 基于多尺度信息融合的遥感图像语义分割方法及系统 | |
CN112016436A (zh) | 一种基于深度学习的遥感影像变化检测方法 | |
Mohajerani et al. | Cloud and cloud shadow segmentation for remote sensing imagery via filtered jaccard loss function and parametric augmentation | |
Chen et al. | The application of the tasseled cap transformation and feature knowledge for the extraction of coastline information from remote sensing images | |
CN113239736B (zh) | 一种基于多源遥感数据的土地覆盖分类标注图获取方法 | |
CN116091497B (zh) | 遥感变化检测方法、装置、电子设备和存储介质 | |
CN114494821A (zh) | 基于特征多尺度感知与自适应聚合的遥感影像云检测方法 | |
CN115512222A (zh) | 一种线下训练-线上学习的灾害场景地物损毁评估方法 | |
Venugopal | Sample selection based change detection with dilated network learning in remote sensing images | |
Lin et al. | A novel convolutional neural network architecture of multispectral remote sensing images for automatic material classification | |
Shit et al. | An encoder‐decoder based CNN architecture using end to end dehaze and detection network for proper image visualization and detection | |
CN113887472A (zh) | 基于级联颜色及纹理特征注意力的遥感图像云检测方法 | |
Sui et al. | Processing of multitemporal data and change detection | |
Sharifi et al. | Efficiency evaluating of automatic lineament extraction by means of remote sensing (Case study: Venarch, Iran) | |
Meedeniya et al. | Prediction of paddy cultivation using deep learning on land cover variation for sustainable agriculture | |
Zhang et al. | Forest roads extraction through a convolution neural network aided method | |
Zhou et al. | Superpixel-based time-series reconstruction for optical images incorporating SAR data using autoencoder networks | |
Wang et al. | Remote Sensing Satellite Image-Based Monitoring of Agricultural Ecosystem | |
Parape et al. | Optimization of structure elements for morphological hit-or-miss transform for building extraction from VHR airborne imagery in natural hazard areas | |
Alatalo et al. | Improved Difference Images for Change Detection Classifiers in SAR Imagery Using Deep Learning | |
Shun et al. | Research on remote sensing image extraction based on deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Liu Shuaipu Inventor after: Zhang Difei Inventor before: Liu Shuaipu |