WO2021184891A1 - 遥感影像地物分类方法及系统 - Google Patents

遥感影像地物分类方法及系统 Download PDF

Info

Publication number
WO2021184891A1
WO2021184891A1 PCT/CN2020/140266 CN2020140266W WO2021184891A1 WO 2021184891 A1 WO2021184891 A1 WO 2021184891A1 CN 2020140266 W CN2020140266 W CN 2020140266W WO 2021184891 A1 WO2021184891 A1 WO 2021184891A1
Authority
WO
WIPO (PCT)
Prior art keywords
remote sensing
network model
training
sensing image
red
Prior art date
Application number
PCT/CN2020/140266
Other languages
English (en)
French (fr)
Inventor
徐文娜
陈劲松
Original Assignee
中国科学院深圳先进技术研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中国科学院深圳先进技术研究院 filed Critical 中国科学院深圳先进技术研究院
Publication of WO2021184891A1 publication Critical patent/WO2021184891A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images

Definitions

  • the invention relates to a remote sensing image feature classification method and system.
  • this method uses a single image as the discriminant unit, and each image can only contain one type of feature, and the overall characteristics of the image are learned through the convolutional neural network.
  • the core of this type of algorithm is image recognition. After cutting the entire image into several sub-images containing a single feature, the features in the sub-images are identified separately.
  • the disadvantage of this method is that it cannot give pixel-level classification results, and it is insufficient to solve the problem of inaccurate classification of detailed information.
  • the main shortcomings of the prior art are: remote sensing image details and general feature information require different resolutions for remote sensing images, remote sensing images with different resolutions are difficult to fuse due to different sensors; traditional remote sensing image classification algorithms rely on features Extraction is not suitable for processing large-scale remote sensing images; in the end-to-end method, the down-sampling process of the convolutional neural network leads to the loss of high-resolution information, which is not conducive to the classification of detailed information.
  • the present invention provides a remote sensing image feature classification method.
  • the method includes the following steps: a. preprocessing the remote sensing image; b. Band data set and perform image cropping to construct training set and test set; c. Propose an end-to-end algorithm framework and build a network model; d. Input the above training set into the network model constructed above for training to obtain a network parameter model for Use the obtained network parameter model to classify remote sensing images.
  • the method further includes the step of inputting the test set into the network model constructed above, and evaluating the classification result.
  • the step a specifically includes: using arcgis and ENVI to perform radiation correction and spatial domain enhancement processing and filtering on the remote sensing image.
  • the step b specifically includes the following steps: select the data of the red, green and blue bands, the near-infrared and red-green bands, and the full bands of the remote sensing image, respectively construct three corresponding data sets, and construct the remote sensing data after the data set
  • the images were cut into multiple block images of 256 pixels * 256 pixels, the three data sets were obtained after cropping, and each data set was randomly divided into a training set and a test set at a ratio of 4:1.
  • the network model includes:
  • Up-sampling layer module for restoring feature information of various scales
  • the present invention provides a remote sensing image feature classification system.
  • the system includes a preprocessing unit, a training set test set building unit, a network model building unit, and a network model training unit.
  • the preprocessing unit is used to preprocess the remote sensing image.
  • the training set test set construction unit is used to select red, green and blue bands, near-infrared and red and green bands, and full-band data sets for preprocessed remote sensing images and perform image cropping to construct a training set and a test set;
  • the network model building unit is used to propose an end-to-end algorithm framework and construct a network model;
  • the network model training unit is used to input the above training set into the above constructed network model for training, to obtain a network parameter model, so as to use the obtained network parameters
  • the model classifies remotely sensed images.
  • system further includes: a network model testing unit, which is used to input the test set into the network model constructed above and evaluate the classification result.
  • the preprocessing unit is specifically used to perform radiation correction and spatial domain enhancement processing filtering on the remote sensing image by using arcgis and ENVI.
  • the training set test set construction unit is specifically used to select the data of the red-green-blue band, the near-infrared and the red-green band, and the full band of the remote sensing image, respectively construct three corresponding data sets, and construct the data set
  • the latter remote sensing images were cut into multiple block images of 256 pixels * 256 pixels, and the three data sets were obtained after cropping, and each data set was randomly divided into a training set and a test set at a ratio of 4:1.
  • the network model includes:
  • Up-sampling layer module for restoring feature information of various scales
  • the remote sensing image feature classification method and system of the present invention does not require remote sensing image fusion.
  • the end-to-end method based on multi-scale features is also suitable for processing large-scale remote sensing images and can improve the problem of high-resolution information loss in convolutional neural networks. Better classify the detailed information in remote sensing images.
  • this application can maintain more remote sensing image detail information, so that the details of the ground object classification results are more accurate, the edge information is richer, and the overall classification accuracy higher.
  • Figure 1 is a flow chart of the remote sensing image feature classification method of the present invention
  • FIG. 2 is a schematic diagram of a network model structure based on an end-to-end algorithm framework provided by an embodiment of the present invention
  • Figure 3 is a schematic diagram of the traditional U-Net full convolutional network structure
  • Figure 4 is a hardware architecture diagram of the remote sensing image feature classification system of the present invention.
  • FIG. 5 is a schematic diagram of the comparison of the detailed classification effects of the results of the three methods for each data set in Embodiment 1 of the present invention.
  • Fig. 1 is a flowchart of a preferred embodiment of the remote sensing image feature classification method of the present invention.
  • Step S1 preprocessing the remote sensing image. in particular:
  • Download Landset remote sensing images and use arcgis and ENVI to perform radiation correction and spatial domain enhancement processing filtering on the remote sensing images.
  • Step S2 Select a specific band data set for the preprocessed remote sensing image and perform image cropping to construct a training set and a test set. in particular:
  • a block image of 256 pixels * 256 pixels is obtained by random sampling on the remote sensing image after the data set is constructed.
  • Step S3 Propose an end-to-end algorithm framework and construct a network model. in particular:
  • the network model of this embodiment is constructed based on the PyTorch deep learning framework, and the hardware used is TitanX GPU.
  • the main network structure includes a convolutional layer module, a down-sampling layer module, an up-sampling layer module, and continuous parallel multi-resolution Rate subnets and repeated multi-scale fusion modules.
  • the function of the convolutional layer module is mainly to perform feature extraction.
  • Different feature maps contain convolutional layer modules in the middle, and each convolutional layer module consists of two convolutional layers with a 3*3 convolution kernel, followed by a relu activation function.
  • a convolutional layer module with a step size of 2 is used to replace the pooling layer of the U-Net full convolutional network for down-sampling, which reduces the loss of high-resolution information when multi-scale features are obtained.
  • the convolution layer module is composed of two convolution kernels of 3*3 convolution.
  • the feature map is gradually restored from the lowest resolution layer to the input image size, and multi-scale features and the classification result map of the same size as the input image are obtained.
  • This embodiment includes 5 layers of different resolutions. Compared with the U-Net full convolutional network (see Figure 3), it simply uses jump connections to fuse the original resolution feature map and the feature map obtained after upsampling (see Figure 3). In this embodiment, the corresponding resolution information is retained throughout each resolution layer, and continuous parallel multi-resolution subnets can better maintain detailed information (as shown by the horizontal arrow in FIG. 2).
  • the oblique downward arrow on the periphery of the network is mainly used to generate different resolution layers
  • the internal oblique upward arrow is mainly for multi-scale fusion, so as to recover as much high resolution from low-resolution information as possible. Rate information, and further maintain the detailed information of the remote sensing image.
  • Step S4 Input the above-mentioned training set into the above-mentioned constructed network model for training to obtain a network parameter model, so as to use the obtained network parameter model to classify remote sensing images.
  • the network parameter model includes specific setting parameters of the network model constructed in step S3.
  • Step S5 Input the test set into the network model constructed above, and evaluate the classification result. Specifically:
  • test set constructed above is input into the trained network parameter model to obtain the classification result of the test set image, and the network structure proposed in this embodiment is evaluated quantitatively and qualitatively.
  • Quantitative evaluation uses overall accuracy, Kappa coefficient, and F1-score to evaluate classification accuracy; qualitative evaluation uses classification result maps to evaluate the effect of detailed classification.
  • FIG. 4 is a hardware architecture diagram of the remote sensing image feature classification system 10 of the present invention.
  • the system includes: a preprocessing unit 101, a training set test set construction unit 102, a network model construction unit 103, a network model training unit 104, and a network model testing unit 105.
  • the preprocessing unit 101 is used for preprocessing the remote sensing image. in particular:
  • the preprocessing unit 101 downloads Landset remote sensing images, and uses arcgis and ENVI to perform radiation correction and spatial domain enhancement processing filtering on the remote sensing images.
  • the training set and test set construction unit 102 is used to select a specific waveband data set for the preprocessed remote sensing image and perform image cropping to construct a training set and a test set. in particular:
  • the training set test set construction unit 102 selects the red, green, and blue bands, the near-infrared and red-green bands, and the data of the full band of the remote sensing image, respectively constructs three corresponding data sets, and constructs the remote sensing after the data set
  • the images were cut into multiple block images of 256 pixels * 256 pixels, the three data sets were obtained after cropping, and each data set was randomly divided into a training set and a test set at a ratio of 4:1.
  • a block image of 256 pixels*256 pixels is obtained by random sampling on the remote sensing image after the data set is constructed.
  • the network model construction unit 103 is used to propose an end-to-end algorithm framework and construct a network model. in particular:
  • the network model of this embodiment is constructed based on the PyTorch deep learning framework, and the hardware used is TitanX GPU.
  • the main network structure includes a convolutional layer module, a down-sampling layer module, an up-sampling layer module, and continuous parallel multi-resolution Rate subnets and repeated multi-scale fusion modules.
  • the function of the convolutional layer module is mainly to perform feature extraction.
  • Different feature maps contain convolutional layer modules in the middle, and each convolutional layer module is composed of two convolutional layers with a 3*3 convolution kernel, followed by a relu activation function.
  • a convolutional layer module with a step size of 2 is used to replace the pooling layer of the U-Net full convolutional network for down-sampling, which reduces the loss of high-resolution information when obtaining multi-scale features.
  • the convolution layer module is composed of two convolution kernels of 3*3 convolution.
  • the feature map is gradually restored from the lowest resolution layer to the input image size, and multi-scale features and the classification result map of the same size as the input image are obtained.
  • This embodiment includes 5 layers of different resolutions. Compared with the U-Net full convolutional network (see Figure 3), it simply uses jump connections to fuse the original resolution feature map and the feature map obtained after upsampling (see Figure 3). In this embodiment, the corresponding resolution information is retained throughout each resolution layer, and continuous parallel multi-resolution subnets can better maintain detailed information (as shown by the horizontal arrow in FIG. 2).
  • the oblique downward arrow on the periphery of the network is mainly used to generate different resolution layers
  • the internal oblique upward arrow is mainly for multi-scale fusion, so as to recover as much high resolution from low-resolution information as possible. Rate information, and further maintain the detailed information of the remote sensing image.
  • the network model training unit 104 is configured to input the above training set into the above constructed network model for training to obtain a network parameter model. in particular:
  • the network parameter model includes specific setting parameters of the network model constructed by the network model construction unit 103.
  • the network model testing unit 105 is used to input the test set into the network model constructed as described above, and evaluate the classification result. Specifically:
  • test set constructed above is input into the trained network parameter model described above to obtain the extraction result of the test set image, and the network structure proposed in this embodiment is evaluated quantitatively and qualitatively.
  • Quantitative evaluation uses overall accuracy, Kappa coefficient, and F1-score to evaluate classification accuracy; qualitative evaluation uses classification result maps to evaluate the effect of detailed classification.
  • the overall accuracy (Acc.), kappa coefficient (K) and F1-Score (F1) are specifically used as evaluation indicators.
  • This application uses three data sets (TMall, TMnrg, TMnrg). The three evaluation indicators are higher than the random forest and U-Net algorithm.

Abstract

本发明涉及一种遥感影像地物分类方法,包括:对遥感影像进行预处理;对经过预处理的遥感影像选择红绿蓝波段、近红外和红绿波段、全波段的数据集并进行图像裁剪,构建训练集和测试集;提出端到端算法框架,构建网络模型;将上述训练集输入上述构建的网络模型进行训练,得到网络参数模型,以便使用得到的网络参数模型对遥感影像进行地物分类。本发明还涉及一种遥感影像地物分类系统。本发明不需要进行遥感影像融合,能够改善卷积神经网络中高分辨率信息丢失问题,更好地对遥感影像中的细节信息进行分类,使得地物分类结果的细节更精确,边缘信息更丰富,总体分类精度更高。

Description

遥感影像地物分类方法及系统 技术领域
本发明涉及一种遥感影像地物分类方法及系统。
背景技术
遥感影像中有着大量的细节信息(边缘信息、梯度信息、小目标等),由于遥感影像分辨率有限,在地物分类过程中这些细节信息很难被提取和分类,使得最终的分类结果细节丢失严重,地物边缘模糊失真,也影响了最终的地物分类精度。影像中细节信息精确分类要求遥感影像能提供更多的高分辨率信息,而影像中普通地物的提取为了更高的提取效率要求影像具有较大的幅宽,对分辨率要求不高,同时不同分辨率遥感影像由于传感器不同出现融合困难。
近年来,深度学习在遥感影像地物分类领域发展迅速,主要采用的有图片级分类和像素级分类两种方法。
1)在图片级分类算法领域,该方法以单个图像为判别单元,每个图像只能包含一种地物类别,通过卷积神经网络对图像的整体特征进行学习。这类算法的核心是图像的识别,通过将整幅影像切割成包含单一地物的若干子影像后,分别对子影像中的地物进行识别。这种方法的缺点是无法给出像素级的分类结果,对于细节信息分类不准的问题解决不足。
2)在像素级分类算法领域,以每个像素为判别单元,采用的全卷积网络去掉了卷积神经网络中的全连接层,换成了1*1卷积层,来实现端到端(像素到像素)的分类方法。这种替换保留了图像内容的空间信息,解除了卷积神经网络对输入图像大小的限制,同时大大减少了模型参数量,提高了算法效率。其中具有代表性的有,Jamie Sherrah提出了一种不带下采样层的FCN算法,在ISPRS数据集中实现了89.1%的总体精度。Marmanis等人设计了一个像素级分割架构,合成FCN和反卷积网络,并将CRF应用于后处理以进行细化,在基于ISPRS Vaihingen数据集标签的人工数据集中取得了88.5%的总体精度。Chen等人采用叠加策略对FCN的分段结果进行后处理,相比传统的FCN-8和SegNet模型具有更高的精度。
然而,在将像素级分类算法应用到遥感影像耕地提取过程中,为了获取不同尺度区域特征,深度卷积网络往往需要将高分辨率图像转化为低分辨率图像(polling),来提取抽象不同尺度的语义信息作为特征用于后续分类。而重采样是常用的方式之一,这个过程进一步造成图像细节信息(边缘信息,梯度信息或高频噪声信号等)的丢失,使得地物分类结果边缘模糊,细节不够丰富准确,并影响最终的分类精度。
综上所述,现有技术的缺点主要有:遥感影像上细节信息和普通地物信息对遥感影像分辨率要求不同,不同分辨率遥感影像由于传感器不同融合困难;传统遥感影像分类算法依赖于特征提取,不适用于处理大规模遥感影像;端到端方法中,卷积神经网络的下采样过程导致高分辨率信息丢失,更不利于细节信息分类。
发明内容
有鉴于此,有必要提供一种遥感影像地物分类方法及系统。
本发明提供一种遥感影像地物分类方法,该方法包括如下步骤:a.对遥感影像进行预处理;b.对经过预处理的遥感影像选择红绿蓝波段、近红外和红绿波段、全波段的数据集并进行图像裁剪,构建训练集和测试集;c.提出端到端算法框架,构建网络模型;d.将上述训练集输入上述构建的网络模型进行训练,得到网络参数模型,以便使用得到的网络参数模型对遥感影像进行地物分类。
其中,该方法还包括步骤:将测试集输入上述构建的网络模型,评价分类结果。
所述的步骤a具体包括:利用arcgis和ENVI对所述遥感影像进行辐射校正和空间域增强处理滤波。
所述的步骤b具体包括如下步骤:选择所述遥感影像的红绿蓝波段、近红外和红绿波段、全波段的数据,分别构建相应的三个数据集,并将构建数据集后的遥感影像分别剪成256像素*256像素的多个块状图像,获取裁剪后的上述三个数据集,并将每个数据集按照4:1的比例随机分成训练集和测试集。
所述的网络模型包括:
进行特征提取的卷积层模块;
得到多尺度特征的下采样层模块;
恢复各尺度特征信息的上采样层模块;
保留各尺度特征的连续并行多分辨率子网;
以及从低分辨率信息中恢复高分辨率信息的重复多尺度融合模块。
本发明提供一种遥感影像地物分类系统,该系统包括预处理单元、训练集测试集构建单元、网络模型构建单元、网络模型训练单元,其中:所述预处理单元用于对遥感影像进行预处理;所述训练集测试集构建单元用于对经过预处理的遥感影像选择红绿蓝波段、近红外和红绿波段、全波段的数据集并进行图像裁剪,构建训练集和测试集;所述网络模型构建单元用于提出端到端算法框架,构建网络模型;所述网络模型训练单元用于将上述训练集输入上述构建的网络模型进行训练,得到网络参数模型,以便使用得到的网络参数模型对遥感影像进行地物分类。
其中,所述系统还包括:网络模型测试单元,用于将测试集输入上述构建的网络模型,评价分类结果。
所述的预处理单元具体用于:利用arcgis和ENVI对所述遥感影像进行辐射校正和空间域增强处理滤波。
所述的训练集测试集构建单元具体用于:选择所述遥感影像的红绿蓝波段、近红外和红绿波段、全波段的数据,分别构建相应的三个数据集,并将构建数据集后的遥感影像分别剪成256像素*256像素的多个块状图像,获取裁剪后的上述三个数据集,并将每个数据集按照4:1的比例随机分成训练集和测试集。
所述的网络模型包括:
进行特征提取的卷积层模块;
得到多尺度特征的下采样层模块;
恢复各尺度特征信息的上采样层模块;
保留各尺度特征的连续并行多分辨率子网;
以及从低分辨率信息中恢复高分辨率信息的重复多尺度融合模块。
本发明遥感影像地物分类方法及系统,不需要进行遥感影像融合,基于多尺度特征的端到端方法,亦适用于处理大规模遥感影像,能够改善卷积神经网络中高分辨率信息丢失问题,更好地对遥感影像中的细节信息进行分类。与现有方法相比,如相比随机森林方法和U-Net算法,本申请能够保持住更多的遥感影像细节信息,使得地物分类结果的细节更精确,边缘信息更丰富,总体分类精度更高。
附图说明
图1为本发明遥感影像地物分类方法的流程图;
图2为本发明实施例提供的基于端到端算法框架构建的网络模型结构示意图;
图3为传统的U-Net全卷积网络结构示意图;
图4为本发明遥感影像地物分类系统的硬件架构图;
图5为本发明实施例一各数据集三种方法结果细节分类效果对比示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步详细的说明。
参阅图1所示,是本发明遥感影像地物分类方法较佳实施例的 作业流程图。
步骤S1,对遥感影像进行预处理。具体而言:
下载Landset遥感影像,利用arcgis和ENVI对所述遥感影像进行辐射校正和空间域增强处理滤波。
步骤S2,对经过预处理的遥感影像选择特定波段数据集并进行图像裁剪,构建训练集和测试集。具体而言:
选择所述遥感影像的红绿蓝波段、近红外和红绿波段、全波段的数据,分别构建相应的三个数据集,并将构建数据集后的遥感影像分别剪成256像素*256像素的多个块状图像,获取裁剪后的上述三个数据集,并将每个数据集按照4:1的比例随机分成训练集和测试集。
本实施例中裁剪的作用是因为原影像太大,裁剪可以使得训练更快,本实施例直接在构建数据集后的遥感影像上随机采样得到256像素*256像素的块状图像。
步骤S3,提出端到端算法框架,构建网络模型。具体而言:
本实施例的网络模型基于PyTorch深度学习框架构建,使用的硬件为TitanX GPU。
本发明构建的网络模型,相比于卷积神经网络,去掉了全连接层,主要网络结构(请参阅图2)包括卷积层模块、下采样层模块、上采样层模块、连续并行多分辨率子网以及重复多尺度融合模块。
具体内容如下:
(1)卷积层模块,进行特征提取;
卷积层模块的作用主要是进行特征提取。不同特征图中间均包 含卷积层模块,每个卷积层模块由两层卷积核为3*3的卷积层组成,后接relu激活函数。
(2)下采样层模块,得到多尺度特征;
本实施例利用步长为2的卷积层模块替代U-Net全卷积网络的池化层进行下采样,在得到多尺度特征时,减少高分辨率信息的丢失。其中,所述卷积层模块由两个卷积核为3*3的卷积构成。
(3)上采样层模块,恢复各尺度特征信息;
利用反卷积方法,把特征图从最低分辨率层逐步恢复成输入图片大小,得到多尺度特征以及和输入图片同样大小的分类结果图。
(4)连续并行多分辨率子网,保留各尺度特征;
本实施例包含5层不同分辨率层,相比于U-Net全卷积网络(请参阅图3)简单的利用跳跃连接融合原始分辨率特征图和上采样后得到的特征图(如图3中横向虚线箭头所示),本实施例在每个分辨率层全程保留相应分辨率信息,连续并行多分辨率子网可以更好地保持细节信息(如图2横向箭头所示)。
(5)重复多尺度融合模块,尽可能多的从低分辨率信息中恢复高分辨率信息。
本实施例的结构图中,网络外围的斜向下箭头主要作用是产生不同分辨率层,内部的斜向上箭头则主要是进行多尺度融合,尽可能多的从低分辨率信息中恢复高分辨率信息,进一步保持遥感影像地物细节信息。
步骤S4,将上述训练集输入上述构建的网络模型进行训练,得到网络参数模型,以便使用得到的网络参数模型对遥感影像进行地 物分类。具体而言:
将建好的训练集输入搭建好的网络模型,设定学习率为0.0001、迭代次数为200个epoch等超参数,设置用于优化网络参数的损失函数,根据训练的损失曲线调整训练过程,最终得到训练好的网络参数模型。
其中,所述网络参数模型包括步骤S3构建的网络模型的具体设定参数。
步骤S5:将测试集输入上述构建的网络模型,评价分类结果。具体包括:
将上述构建的测试集输入上述训练好的网络参数模型,得到测试集图像的分类结果,对本实施例提出的网络结构进行定量和定性评价。
定量评价使用整体精度、Kappa系数以及F1-score来评价分类精度;定性评价通过分类结果图评估细节分类效果。
参阅图4所示,是本发明遥感影像地物分类系统10的硬件架构图。该系统包括:预处理单元101、训练集测试集构建单元102、网络模型构建单元103、网络模型训练单元104以及网络模型测试单元105。
所述预处理单元101用于对遥感影像进行预处理。具体而言:
所述预处理单元101下载Landset遥感影像,利用arcgis和ENVI对所述遥感影像进行辐射校正和空间域增强处理滤波。
所述训练集测试集构建单元102用于对经过预处理的遥感影像选择特定波段数据集并进行图像裁剪,构建训练集和测试集。具体而言:
所述训练集测试集构建单元102选择所述遥感影像的红绿蓝波段,近红外和红绿波段,以及全波段的数据,分别构建相应的三个数据集,并将构建数据集后的遥感影像分别剪成256像素*256像素的多个块状图像,获取裁剪后的上述三个数据集,并将每个数据集按照4:1的比例随机分成训练集和测试集。
本实施例中裁剪的作用是因为原影像太大,裁剪可以使得训练更快,本实施例直接在构建数据集后的遥感影像上随机采样得到256像素*256像素的块状图像。
所述网络模型构建单元103用于提出端到端算法框架,构建网络模型。具体而言:
本实施例的网络模型基于PyTorch深度学习框架构建,使用的硬件为TitanX GPU。
本发明构建的网络模型,相比于卷积神经网络,去掉了全连接层,主要网络结构(请参阅图2)包括卷积层模块、下采样层模块、上采样层模块、连续并行多分辨率子网以及重复多尺度融合模块。
具体内容如下:
(1)卷积层模块,进行特征提取;
卷积层模块的作用主要是进行特征提取。不同特征图中间均包含卷积层模块,每个卷积层模块由两层卷积核为3*3的卷积层组成,后接relu激活函数。
(2)下采样层模块,得到多尺度特征;
本实施例利用步长为2的卷积层模块替代U-Net全卷积网络的池化层进行下采样,在得到多尺度特征时,减少高分辨率信息的丢 失。其中,所述卷积层模块由两个卷积核为3*3的卷积构成。
(3)上采样层模块,恢复各尺度特征信息;
利用反卷积方法,把特征图从最低分辨率层逐步恢复成输入图片大小,得到多尺度特征以及和输入图片同样大小的分类结果图。
(4)连续并行多分辨率子网,保留各尺度特征;
本实施例包含5层不同分辨率层,相比于U-Net全卷积网络(请参阅图3)简单的利用跳跃连接融合原始分辨率特征图和上采样后得到的特征图(如图3中横向虚线箭头所示),本实施例在每个分辨率层全程保留相应分辨率信息,连续并行多分辨率子网可以更好地保持细节信息(如图2横向箭头所示)。
(5)重复多尺度融合模块,尽可能多的从低分辨率信息中恢复高分辨率信息。
本实施例的结构图中,网络外围的斜向下箭头主要作用是产生不同分辨率层,内部的斜向上箭头则主要是进行多尺度融合,尽可能多的从低分辨率信息中恢复高分辨率信息,进一步保持遥感影像地物细节信息。
所述网络模型训练单元104用于将上述训练集输入上述构建的网络模型进行训练,得到网络参数模型。具体而言:
将建好的训练集输入搭建好的网络模型,设定学习率为0.0001、迭代次数为200个epoch等超参数,设置用于优化网络参数的损失函数,根据训练的损失曲线调整训练过程,最终得到训练好的网络参数模型。
其中,所述网络参数模型包括述网络模型构建单元103构建的网 络模型的具体设定参数。
所述网络模型测试单元105用于将测试集输入上述构建的网络模型,评价分类结果。具体包括:
将上述构建的测试集输入上述训练好的网络参数模型,得到测试集图像的提取结果,对本实施例提出的网络结构进行定量和定性评价。
定量评价使用整体精度、Kappa系数以及F1-score来评价分类精度;定性评价通过分类结果图评估细节分类效果。
本申请实施例一测试结果:
利用Landset影像构成的三个训练集分别对本申请提出的网络模型进行训练,使用测试集进行了测试,同时与随机森林、U-Net全卷积网络的结果进行了对比:
(1)分类精度更高
如表1所示,具体采用了整体精度(Acc.),kappa系数(K)以及F1-Score(F1)作为评价指标,本申请在三个数据集(TMall,TMnrg,TMnrg)中,采用的三个评价指标均高于随机森林和U-Net算法。
Figure PCTCN2020140266-appb-000001
(2)细节信息更为丰富准确
如图5所示,分别从三个数据集(TMall,TMnrg,TMnrg)中选取了两张图片,(a)列为原始输入图像,(b)列为参考标签,(c)列为 本发明方法结果,(d)列为U-Net方法结果。可以看出相比于U-Net全卷积网络,本申请的结果细节更加精确,边缘信息也更为丰富准确。
虽然本发明参照当前的较佳实施方式进行了描述,但本领域的技术人员应能理解,上述较佳实施方式仅用来说明本发明,并非用来限定本发明的保护范围,任何在本发明的精神和原则范围之内,所做的任何修饰、等效替换、改进等,均应包含在本发明的权利保护范围之内。

Claims (10)

  1. 一种遥感影像地物分类方法,其特征在于,该方法包括如下步骤:
    a.对遥感影像进行预处理;
    b.对经过预处理的遥感影像选择红绿蓝波段、近红外和红绿波段、全波段的数据集并进行图像裁剪,构建训练集和测试集;
    c.提出端到端算法框架,构建网络模型;
    d.将上述训练集输入上述构建的网络模型进行训练,得到网络参数模型,以便使用得到的网络参数模型对遥感影像进行地物分类。
  2. 如权利要求1所述的方法,其特征在于,该方法还包括步骤:
    将测试集输入上述构建的网络模型,评价分类结果。
  3. 如权利要求1所述的方法,其特征在于,所述的步骤a具体包括:
    利用arcgis和ENVI对所述遥感影像进行辐射校正和空间域增强处理滤波。
  4. 如权利要求3所述的方法,其特征在于,所述的步骤b具体包括如下步骤:
    选择所述遥感影像的红绿蓝波段、近红外和红绿波段、全波段的数据,分别构建相应的三个数据集,并将构建数据集后的遥感影像分别剪成256像素*256像素的多个块状图像,获取裁剪后的上述三个数据集,并将每个数据集按照4:1的比例随机分成训练集和测试集。
  5. 如权利要求4所述的方法,其特征在于,所述的网络模型包括:
    进行特征提取的卷积层模块;
    得到多尺度特征的下采样层模块;
    恢复各尺度特征信息的上采样层模块;
    保留各尺度特征的连续并行多分辨率子网;
    以及从低分辨率信息中恢复高分辨率信息的重复多尺度融合模块。
  6. 一种遥感影像地物分类系统,其特征在于,该系统包括预处理单元、训练集测试集构建单元、网络模型构建单元、网络模型训练单元,其中:
    所述预处理单元用于对遥感影像进行预处理;
    所述训练集测试集构建单元用于对经过预处理的遥感影像选择红绿蓝波段、近红外和红绿波段、全波段的数据集并进行图像裁剪,构建训练集和测试集;
    所述网络模型构建单元用于提出端到端算法框架,构建网络模型;
    所述网络模型训练单元用于将上述训练集输入上述构建的网络模型进行训练,得到网络参数模型,以便使用得到的网络参数模型对遥感影像进行地物分类。
  7. 如权利要求6所述的系统,其特征在于,所述系统还包括:
    网络模型测试单元,用于将测试集输入上述构建的网络模型,评价分类结果。
  8. 如权利要求7所述的系统,其特征在于,所述的预处理单元具体用于:
    利用arcgis和ENVI对所述遥感影像进行辐射校正和空间域增强处理滤波。
  9. 如权利要求8所述的系统,其特征在于,所述的训练集测试集构建单元具体用于:
    选择所述遥感影像的红绿蓝波段、近红外和红绿波段、全波段的数据,分别构建相应的三个数据集,并将构建数据集后的遥感影像分别剪成256像素*256像素的多个块状图像,获取裁剪后的上述三个数据集,并将每个数据集按照4:1的比例随机分成训练集和测试集。
  10. 如权利要求9所述的系统,其特征在于,所述的网络模型包括:
    进行特征提取的卷积层模块;
    得到多尺度特征的下采样层模块;
    恢复各尺度特征信息的上采样层模块;
    保留各尺度特征的连续并行多分辨率子网;
    以及从低分辨率信息中恢复高分辨率信息的重复多尺度融合模块。
PCT/CN2020/140266 2020-03-20 2020-12-28 遥感影像地物分类方法及系统 WO2021184891A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010201027.2 2020-03-20
CN202010201027.2A CN111428781A (zh) 2020-03-20 2020-03-20 遥感影像地物分类方法及系统

Publications (1)

Publication Number Publication Date
WO2021184891A1 true WO2021184891A1 (zh) 2021-09-23

Family

ID=71548387

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/140266 WO2021184891A1 (zh) 2020-03-20 2020-12-28 遥感影像地物分类方法及系统

Country Status (2)

Country Link
CN (1) CN111428781A (zh)
WO (1) WO2021184891A1 (zh)

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113902793A (zh) * 2021-11-05 2022-01-07 长光卫星技术有限公司 基于单视觉遥感影像端到端建筑物高度预测方法、系统和电子设备
CN113989652A (zh) * 2021-12-27 2022-01-28 中国测绘科学研究院 分层多重判定规则下的耕地变化检测方法及系统
CN114067245A (zh) * 2021-11-16 2022-02-18 中国铁路兰州局集团有限公司 一种铁路外部环境隐患识别方法及系统
CN114091531A (zh) * 2021-11-12 2022-02-25 哈尔滨工程大学 基于多尺度的环境特征提取方法
CN114387512A (zh) * 2021-12-28 2022-04-22 南京邮电大学 基于多尺度特征融合与增强的遥感影像建筑物提取方法
CN114494851A (zh) * 2021-12-23 2022-05-13 青岛星科瑞升信息科技有限公司 一种基于多时相遥感影像差异信息的滑坡提取方法
CN114549534A (zh) * 2022-01-17 2022-05-27 中国矿业大学(北京) 矿区土地利用识别方法、装置、设备、介质及产品
CN114549972A (zh) * 2022-01-17 2022-05-27 中国矿业大学(北京) 露天矿采场提取方法、装置、设备、介质及程序产品
CN114565858A (zh) * 2022-02-25 2022-05-31 辽宁师范大学 基于地理空间感知低秩重建网络的多光谱影像变化检测方法
CN114663301A (zh) * 2022-03-05 2022-06-24 西北工业大学 一种基于小波层的卷积神经网络全色锐化方法
CN114724030A (zh) * 2022-04-06 2022-07-08 西安电子科技大学 基于对比学习的极化sar地物分类方法
CN114792116A (zh) * 2022-05-26 2022-07-26 中国科学院东北地理与农业生态研究所 一种时间序列深度卷积网络农作物遥感分类方法
CN114821354A (zh) * 2022-04-19 2022-07-29 福州大学 一种基于孪生多任务网络的城市建筑物变化遥感检测方法
CN114821376A (zh) * 2022-06-27 2022-07-29 中咨数据有限公司 一种基于深度学习的无人机影像地质灾害自动提取方法
CN114821315A (zh) * 2022-04-24 2022-07-29 福州大学 结合边缘检测和多任务学习的遥感影像耕地地块提取方法
CN114862731A (zh) * 2022-03-29 2022-08-05 武汉大学 低秩先验与空谱信息引导的多-高光谱影像融合方法
CN114882139A (zh) * 2022-04-12 2022-08-09 北京理工大学 一种多层级地图的端到端智能生成方法及系统
CN114898097A (zh) * 2022-06-01 2022-08-12 首都师范大学 图像识别方法及系统
CN114998703A (zh) * 2022-05-10 2022-09-02 西北工业大学 一种基于高分辨卷积神经网络的遥感图像变化检测方法
CN114998758A (zh) * 2022-05-26 2022-09-02 电子科技大学 一种基于多源遥感卫星影像的输电线路绝缘子检测方法
CN115017418A (zh) * 2022-08-10 2022-09-06 北京数慧时空信息技术有限公司 基于强化学习的遥感影像推荐系统及方法
CN115082808A (zh) * 2022-06-17 2022-09-20 安徽大学 基于高分一号数据与U-Net模型的大豆种植区提取方法
CN115100540A (zh) * 2022-06-30 2022-09-23 电子科技大学 一种高分辨率遥感影像道路自动提取的方法
CN115527123A (zh) * 2022-10-21 2022-12-27 河北省科学院地理科学研究所 一种基于多源特征融合的土地覆被遥感监测方法
CN115661681A (zh) * 2022-11-17 2023-01-31 中国科学院空天信息创新研究院 一种基于深度学习的滑坡灾害自动识别方法及系统
CN115661655A (zh) * 2022-11-03 2023-01-31 重庆市地理信息和遥感应用中心 高光谱和高分影像深度特征融合的西南山区耕地提取方法
CN115761346A (zh) * 2022-11-22 2023-03-07 山东农业工程学院 一种基于多模型融合的遥感图像分类方法
CN115797184A (zh) * 2023-02-09 2023-03-14 天地信息网络研究院(安徽)有限公司 一种基于遥感影像的水体超分辨率提取模型
CN115841625A (zh) * 2023-02-23 2023-03-24 杭州电子科技大学 一种基于改进U-Net模型的遥感建筑物影像提取方法
CN115995005A (zh) * 2023-03-22 2023-04-21 航天宏图信息技术股份有限公司 基于单期高分辨率遥感影像的农作物的提取方法和装置
CN116030352A (zh) * 2023-03-29 2023-04-28 山东锋士信息技术有限公司 融合多尺度分割和超像素分割的长时序土地利用分类方法
CN116129278A (zh) * 2023-04-10 2023-05-16 牧马人(山东)勘察测绘集团有限公司 一种基于遥感影像的土地利用分类识别系统
CN116385881A (zh) * 2023-04-10 2023-07-04 北京卫星信息工程研究所 遥感图像地物变化检测方法及装置
CN116503677A (zh) * 2023-06-28 2023-07-28 武汉大学 一种湿地分类信息提取方法、系统、电子设备及存储介质
CN116563210A (zh) * 2023-03-21 2023-08-08 安徽中新云谷数字技术有限公司 一种虚拟现实图像质量评价方法及系统
CN116597318A (zh) * 2023-07-17 2023-08-15 山东锋士信息技术有限公司 基于遥感影像的灌区耕地精准提取方法、设备及存储介质
CN116702065A (zh) * 2023-05-30 2023-09-05 浙江时空智子大数据有限公司 基于影像数据黑臭水体生态治理污染监测方法及系统
CN116740578A (zh) * 2023-08-14 2023-09-12 北京数慧时空信息技术有限公司 基于用户选择的遥感影像推荐方法
CN116778104A (zh) * 2023-08-16 2023-09-19 江西省国土资源测绘工程总院有限公司 一种动态遥感监测的测绘方法及系统
CN117456369A (zh) * 2023-12-25 2024-01-26 广东海洋大学 智能化红树林生长情况的视觉识别方法
CN117689579B (zh) * 2023-12-12 2024-05-03 安徽大学 一种渐进式双解耦的sar辅助遥感影像厚云去除方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428781A (zh) * 2020-03-20 2020-07-17 中国科学院深圳先进技术研究院 遥感影像地物分类方法及系统
CN112836610B (zh) * 2021-01-26 2022-05-27 平衡机器科技(深圳)有限公司 一种基于遥感数据的土地利用变化与碳储量定量估算方法
CN115797788B (zh) * 2023-02-17 2023-04-14 武汉大学 基于深度学习的多模态铁路设计要素遥感特征提取方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564109A (zh) * 2018-03-21 2018-09-21 天津大学 一种基于深度学习的遥感图像目标检测方法
CN108805874A (zh) * 2018-06-11 2018-11-13 中国电子科技集团公司第三研究所 一种基于卷积神经网络的多光谱图像语义切割方法
CN109711449A (zh) * 2018-12-20 2019-05-03 北京以萨技术股份有限公司 一种基于全卷积网络的图像分类算法
US20190325269A1 (en) * 2018-04-20 2019-10-24 XNOR.ai, Inc. Image Classification through Label Progression
CN110633633A (zh) * 2019-08-08 2019-12-31 北京工业大学 一种基于自适应阈值的遥感影像道路提取方法
CN110717420A (zh) * 2019-09-25 2020-01-21 中国科学院深圳先进技术研究院 一种基于遥感图像的耕地提取方法、系统及电子设备
CN111428781A (zh) * 2020-03-20 2020-07-17 中国科学院深圳先进技术研究院 遥感影像地物分类方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255334B (zh) * 2018-09-27 2021-12-07 中国电子科技集团公司第五十四研究所 基于深度学习语义分割网络的遥感影像地物分类方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108564109A (zh) * 2018-03-21 2018-09-21 天津大学 一种基于深度学习的遥感图像目标检测方法
US20190325269A1 (en) * 2018-04-20 2019-10-24 XNOR.ai, Inc. Image Classification through Label Progression
CN108805874A (zh) * 2018-06-11 2018-11-13 中国电子科技集团公司第三研究所 一种基于卷积神经网络的多光谱图像语义切割方法
CN109711449A (zh) * 2018-12-20 2019-05-03 北京以萨技术股份有限公司 一种基于全卷积网络的图像分类算法
CN110633633A (zh) * 2019-08-08 2019-12-31 北京工业大学 一种基于自适应阈值的遥感影像道路提取方法
CN110717420A (zh) * 2019-09-25 2020-01-21 中国科学院深圳先进技术研究院 一种基于遥感图像的耕地提取方法、系统及电子设备
CN111428781A (zh) * 2020-03-20 2020-07-17 中国科学院深圳先进技术研究院 遥感影像地物分类方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WANG HAIJUN: "Research and Application of Deep Convolutional Neural Networks in Remote Sensing Image Classification", CHINESE DOCTORAL DISSERTATIONS FULL-TEXT DATABASE, UNIVERSITY OF CHINESE ACADEMY OF SCIENCES, CN, 15 October 2018 (2018-10-15), CN, XP055852586, ISSN: 1674-022X *
XIANG JINRONG, REN JIANWEI, LI BAOYONG, WAN ZHI, LIU ZEXUN, LIU HONGXING, LI XIANSHENG, SUN JINGXU: "Research on Ground Scenery Spectral Radiation Source with Tunable Spectra", SPECTROSCOPY AND SPECTRAL ANALYSIS, BEIJING DAXUE CHUBANSHE, CN, vol. 35, no. 2, 28 February 2015 (2015-02-28), CN, pages 298 - 303, XP055852601, ISSN: 1000-0593, DOI: 10.3964/j.issn.1000-0593(2015)02-0298-06 *

Cited By (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113902793A (zh) * 2021-11-05 2022-01-07 长光卫星技术有限公司 基于单视觉遥感影像端到端建筑物高度预测方法、系统和电子设备
CN114091531A (zh) * 2021-11-12 2022-02-25 哈尔滨工程大学 基于多尺度的环境特征提取方法
CN114067245A (zh) * 2021-11-16 2022-02-18 中国铁路兰州局集团有限公司 一种铁路外部环境隐患识别方法及系统
CN114494851A (zh) * 2021-12-23 2022-05-13 青岛星科瑞升信息科技有限公司 一种基于多时相遥感影像差异信息的滑坡提取方法
CN113989652A (zh) * 2021-12-27 2022-01-28 中国测绘科学研究院 分层多重判定规则下的耕地变化检测方法及系统
CN114387512A (zh) * 2021-12-28 2022-04-22 南京邮电大学 基于多尺度特征融合与增强的遥感影像建筑物提取方法
CN114387512B (zh) * 2021-12-28 2024-04-19 南京邮电大学 基于多尺度特征融合与增强的遥感影像建筑物提取方法
CN114549534A (zh) * 2022-01-17 2022-05-27 中国矿业大学(北京) 矿区土地利用识别方法、装置、设备、介质及产品
CN114549972A (zh) * 2022-01-17 2022-05-27 中国矿业大学(北京) 露天矿采场提取方法、装置、设备、介质及程序产品
CN114549972B (zh) * 2022-01-17 2023-01-03 中国矿业大学(北京) 露天矿采场提取方法、装置、设备及介质
CN114565858A (zh) * 2022-02-25 2022-05-31 辽宁师范大学 基于地理空间感知低秩重建网络的多光谱影像变化检测方法
CN114565858B (zh) * 2022-02-25 2024-04-05 辽宁师范大学 基于地理空间感知低秩重建网络的多光谱影像变化检测方法
CN114663301A (zh) * 2022-03-05 2022-06-24 西北工业大学 一种基于小波层的卷积神经网络全色锐化方法
CN114663301B (zh) * 2022-03-05 2024-03-08 西北工业大学 一种基于小波层的卷积神经网络全色锐化方法
CN114862731A (zh) * 2022-03-29 2022-08-05 武汉大学 低秩先验与空谱信息引导的多-高光谱影像融合方法
CN114862731B (zh) * 2022-03-29 2024-04-16 武汉大学 低秩先验与空谱信息引导的多-高光谱影像融合方法
CN114724030A (zh) * 2022-04-06 2022-07-08 西安电子科技大学 基于对比学习的极化sar地物分类方法
CN114882139A (zh) * 2022-04-12 2022-08-09 北京理工大学 一种多层级地图的端到端智能生成方法及系统
CN114821354A (zh) * 2022-04-19 2022-07-29 福州大学 一种基于孪生多任务网络的城市建筑物变化遥感检测方法
CN114821315A (zh) * 2022-04-24 2022-07-29 福州大学 结合边缘检测和多任务学习的遥感影像耕地地块提取方法
CN114998703A (zh) * 2022-05-10 2022-09-02 西北工业大学 一种基于高分辨卷积神经网络的遥感图像变化检测方法
CN114998703B (zh) * 2022-05-10 2024-03-08 西北工业大学 一种基于高分辨卷积神经网络的遥感图像变化检测方法
CN114998758A (zh) * 2022-05-26 2022-09-02 电子科技大学 一种基于多源遥感卫星影像的输电线路绝缘子检测方法
CN114792116A (zh) * 2022-05-26 2022-07-26 中国科学院东北地理与农业生态研究所 一种时间序列深度卷积网络农作物遥感分类方法
CN114998758B (zh) * 2022-05-26 2024-05-03 电子科技大学 一种基于多源遥感卫星影像的输电线路绝缘子检测方法
CN114792116B (zh) * 2022-05-26 2024-05-03 中国科学院东北地理与农业生态研究所 一种时间序列深度卷积网络农作物遥感分类方法
CN114898097A (zh) * 2022-06-01 2022-08-12 首都师范大学 图像识别方法及系统
CN115082808A (zh) * 2022-06-17 2022-09-20 安徽大学 基于高分一号数据与U-Net模型的大豆种植区提取方法
CN114821376A (zh) * 2022-06-27 2022-07-29 中咨数据有限公司 一种基于深度学习的无人机影像地质灾害自动提取方法
CN115100540A (zh) * 2022-06-30 2022-09-23 电子科技大学 一种高分辨率遥感影像道路自动提取的方法
CN115017418A (zh) * 2022-08-10 2022-09-06 北京数慧时空信息技术有限公司 基于强化学习的遥感影像推荐系统及方法
CN115017418B (zh) * 2022-08-10 2022-11-01 北京数慧时空信息技术有限公司 基于强化学习的遥感影像推荐系统及方法
CN115527123A (zh) * 2022-10-21 2022-12-27 河北省科学院地理科学研究所 一种基于多源特征融合的土地覆被遥感监测方法
CN115661655A (zh) * 2022-11-03 2023-01-31 重庆市地理信息和遥感应用中心 高光谱和高分影像深度特征融合的西南山区耕地提取方法
CN115661655B (zh) * 2022-11-03 2024-03-22 重庆市地理信息和遥感应用中心 高光谱和高分影像深度特征融合的西南山区耕地提取方法
CN115661681A (zh) * 2022-11-17 2023-01-31 中国科学院空天信息创新研究院 一种基于深度学习的滑坡灾害自动识别方法及系统
CN115761346A (zh) * 2022-11-22 2023-03-07 山东农业工程学院 一种基于多模型融合的遥感图像分类方法
CN115797184A (zh) * 2023-02-09 2023-03-14 天地信息网络研究院(安徽)有限公司 一种基于遥感影像的水体超分辨率提取模型
CN115797184B (zh) * 2023-02-09 2023-06-30 天地信息网络研究院(安徽)有限公司 一种地表水体超分辨率提取方法
CN115841625A (zh) * 2023-02-23 2023-03-24 杭州电子科技大学 一种基于改进U-Net模型的遥感建筑物影像提取方法
CN116563210B (zh) * 2023-03-21 2023-12-08 安徽中新云谷数字技术有限公司 一种虚拟现实图像质量评价方法及系统
CN116563210A (zh) * 2023-03-21 2023-08-08 安徽中新云谷数字技术有限公司 一种虚拟现实图像质量评价方法及系统
CN115995005B (zh) * 2023-03-22 2023-08-01 航天宏图信息技术股份有限公司 基于单期高分辨率遥感影像的农作物的提取方法和装置
CN115995005A (zh) * 2023-03-22 2023-04-21 航天宏图信息技术股份有限公司 基于单期高分辨率遥感影像的农作物的提取方法和装置
CN116030352A (zh) * 2023-03-29 2023-04-28 山东锋士信息技术有限公司 融合多尺度分割和超像素分割的长时序土地利用分类方法
CN116385881B (zh) * 2023-04-10 2023-11-14 北京卫星信息工程研究所 遥感图像地物变化检测方法及装置
CN116129278A (zh) * 2023-04-10 2023-05-16 牧马人(山东)勘察测绘集团有限公司 一种基于遥感影像的土地利用分类识别系统
CN116385881A (zh) * 2023-04-10 2023-07-04 北京卫星信息工程研究所 遥感图像地物变化检测方法及装置
CN116702065B (zh) * 2023-05-30 2024-04-16 浙江时空智子大数据有限公司 基于影像数据黑臭水体生态治理污染监测方法及系统
CN116702065A (zh) * 2023-05-30 2023-09-05 浙江时空智子大数据有限公司 基于影像数据黑臭水体生态治理污染监测方法及系统
CN116503677A (zh) * 2023-06-28 2023-07-28 武汉大学 一种湿地分类信息提取方法、系统、电子设备及存储介质
CN116503677B (zh) * 2023-06-28 2023-09-05 武汉大学 一种湿地分类信息提取方法、系统、电子设备及存储介质
CN116597318A (zh) * 2023-07-17 2023-08-15 山东锋士信息技术有限公司 基于遥感影像的灌区耕地精准提取方法、设备及存储介质
CN116597318B (zh) * 2023-07-17 2023-09-26 山东锋士信息技术有限公司 基于遥感影像的灌区耕地精准提取方法、设备及存储介质
CN116740578B (zh) * 2023-08-14 2023-10-27 北京数慧时空信息技术有限公司 基于用户选择的遥感影像推荐方法
CN116740578A (zh) * 2023-08-14 2023-09-12 北京数慧时空信息技术有限公司 基于用户选择的遥感影像推荐方法
CN116778104B (zh) * 2023-08-16 2023-11-14 江西省国土资源测绘工程总院有限公司 一种动态遥感监测的测绘方法及系统
CN116778104A (zh) * 2023-08-16 2023-09-19 江西省国土资源测绘工程总院有限公司 一种动态遥感监测的测绘方法及系统
CN117689579B (zh) * 2023-12-12 2024-05-03 安徽大学 一种渐进式双解耦的sar辅助遥感影像厚云去除方法
CN117456369B (zh) * 2023-12-25 2024-02-27 广东海洋大学 智能化红树林生长情况的视觉识别方法
CN117456369A (zh) * 2023-12-25 2024-01-26 广东海洋大学 智能化红树林生长情况的视觉识别方法

Also Published As

Publication number Publication date
CN111428781A (zh) 2020-07-17

Similar Documents

Publication Publication Date Title
WO2021184891A1 (zh) 遥感影像地物分类方法及系统
CN111259905B (zh) 一种基于下采样的特征融合遥感图像语义分割方法
CN110119780B (zh) 基于生成对抗网络的高光谱图像超分辨重建方法
Wang et al. Ultra-dense GAN for satellite imagery super-resolution
CN112507997B (zh) 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统
CN112287940A (zh) 一种基于深度学习的注意力机制的语义分割的方法
CN110415199B (zh) 基于残差学习的多光谱遥感图像融合方法及装置
CN107392130A (zh) 基于阈值自适应和卷积神经网络的多光谱图像分类方法
CN111127374A (zh) 一种基于多尺度密集网络的Pan-sharpening方法
CN109636769A (zh) 基于双路密集残差网络的高光谱和多光谱图像融合方法
CN110717420A (zh) 一种基于遥感图像的耕地提取方法、系统及电子设备
CN112488978A (zh) 基于模糊核估计的多光谱图像融合成像方法及系统
CN113870263B (zh) 一种路面缺陷损伤实时监测方法及系统
CN111696043A (zh) 一种三维fsrcnn的高光谱图像超分辨率重建算法
CN116309070A (zh) 一种高光谱遥感图像超分辨率重建方法、装置及计算机设备
CN111951164A (zh) 一种图像超分辨率重建网络结构及图像重建效果分析方法
CN113139902A (zh) 一种高光谱图像超分辨率重建方法、装置及电子设备
CN110717921A (zh) 改进型编码解码结构的全卷积神经网络语义分割方法
CN114359297A (zh) 基于注意力金字塔的多分辨率语义分割方法及装置
CN114581347B (zh) 无参考影像的光学遥感空谱融合方法、装置、设备及介质
CN115565045A (zh) 基于多尺度空谱变换的高光谱与多光谱图像融合方法
CN116503677B (zh) 一种湿地分类信息提取方法、系统、电子设备及存储介质
CN112132145B (zh) 一种基于模型扩展卷积神经网络的图像分类方法及系统
CN113689370A (zh) 基于深度卷积神经网络的遥感图像融合方法
CN112712526A (zh) 基于非对称卷积神经网络双通道的视网膜血管分割方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20926052

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20926052

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 04.07.2023)