CN113591614B - 一种基于紧邻空间特征学习的遥感影像道路提取方法 - Google Patents
一种基于紧邻空间特征学习的遥感影像道路提取方法 Download PDFInfo
- Publication number
- CN113591614B CN113591614B CN202110794274.2A CN202110794274A CN113591614B CN 113591614 B CN113591614 B CN 113591614B CN 202110794274 A CN202110794274 A CN 202110794274A CN 113591614 B CN113591614 B CN 113591614B
- Authority
- CN
- China
- Prior art keywords
- feature
- convolution
- network
- layer
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 37
- 230000011218 segmentation Effects 0.000 claims abstract description 29
- 238000012360 testing method Methods 0.000 claims abstract description 14
- 238000012795 verification Methods 0.000 claims abstract description 9
- 238000013434 data augmentation Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 30
- 238000005070 sampling Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 claims description 2
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 claims description 2
- 238000010200 validation analysis Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于紧邻空间特征学习的遥感影像道路提取方法,首先将带有道路标记标签的高分辨卫星遥感数据集划分为训练集、验证集和测试集;然后对训练集数据归一化,并进行数据增广;接下来构建带有密集连接结构的U型编‑解码网络;再构建紧邻空间卷积特征学习的U型编‑解码分割网络;最后对网络进行训练,提取遥感图像路网。本发明从空间层次上增强拓扑结构,显著了提高道路提取的连通性和平滑性,能够更为准确地分割遥感目标。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种遥感影像道路提取方法。
背景技术
近年来随着空间成像设备的增多,遥感影像空间分辨率的不断提高,原本在中低分辨率影像中难以辨识的细节信息,在高分影像中变得清晰可见,因而有关从高分辨率影像中提取遥感目标语义信息和区域分割的理论与方法研究也逐步受到重视。从遥感卫星图像中自动生成道路地图可以应用于很多领域,例如自动驾驶、土地调查和城市规划。
研究中,研究人员为道路提取设计了各种手工制作的特征。这些传统的基于专家知识的方法通常利用纹理结构信息、超像素划分、曲线演化技术和区域生长算法来获得完整的道路区域。这些算法都考虑了图像的上下文信息和纹理信息,在一定的条件下,取得了较好的分割效果。但在实际应用中,这些算法需要依靠人工标注的特征库,不但花费时间和精力,而且对复杂场景自动化程度和提取效果皆不理想。
利用深度卷积神经网络算法解译自然图像的技术得到了广泛的研究,与传统的机器学习算法相比,它突破了以往的计算机视觉领域算法的结构限制,使得自动化处理高分辨遥感影像、像素级解译分割遥感地物目标信息成为了可能。Wang等人在文献“hang Z,LiuQ,Wang Y.Road extraction by deep residual u-net[J].IEEE Geoscience and RemoteSensing Letters,2018”提出了基于U-Net的高分辨率遥感图像语义分割方法,实现了端到端的像素级语义分割;随着研究的深入,上述方法在理论和应用上仍然存在一些局限和待解决的问题。与自然图像相比,遥感图像在进行分割时存在着空间分布疏密不一致造成的特征表达歧义、编解码网络中目标先验结构易丢失以及多分辨等难点,使得直接将深度卷积神经网络理论应用于遥感图像分割任务中难以获得理想的效果,高效自动化地进行遥感影像语义理解仍面临着很多挑战。
发明内容
为了克服现有技术的不足,本发明提供了一种基于紧邻空间特征学习的遥感影像道路提取方法,首先将带有道路标记标签的高分辨卫星遥感数据集划分为训练集、验证集和测试集;然后对训练集数据归一化,并进行数据增广;接下来构建带有密集连接结构的U型编-解码网络;再构建紧邻空间卷积特征学习的U型编-解码分割网络;最后对网络进行训练,提取遥感图像路网。本发明从空间层次上增强拓扑结构,显著了提高道路提取的连通性和平滑性,能够更为准确地分割遥感目标。
本发明解决其技术问题所采用的技术方案包括如下步骤:
步骤1:将带有道路标记标签的高分辨卫星遥感数据集划分为训练集、验证集和测试集;
步骤2:对训练集数据归一化,并进行数据增广;
将训练集数据进行图像正则化和标准化处理;并采用随机裁剪、中轴翻转以及随机翻转来进行数据增广;
步骤3:构建带有密集连接结构的U型编-解码网络;
所述带有密集连接结构的U型编-解码网络包括4个尺度依次由大到小带有密集连接结构的特征编码模块、3个尺度依次由小到大带有上采样层的特征解码模块和 Sigmoid激活层;
所述每个带有密集连接结构的特征编码模块包括4个密集连接的卷积特征提取单元和1个特征下采样单元;所述密集连接的卷积特征提取单元由BN层、ReLU层、 3x3卷积层和Dropout层组成;特征下采样单元的输入为密集连接的卷积特征提取单元的输出,特征下采样单元包含BN层、ReLU层、3x3卷积层、Dropout层和平均池化层;
所述带有密集连接结构的特征编码模块包括1个特征上采样单元和1个特征联合单元;所述特征上采样单元由上采样层、BN层、3x3卷积层和ReLU层相连组成,特征联合单元的输入为特征上采样单元的输出;
步骤4:构建紧邻空间卷积特征学习的U型编-解码分割网络;
将第二个密集连接结构的特征编码模块的输出输入到第一紧邻空间卷积特征学习模块,第一紧邻空间卷积特征学习模块的输出输入到第一个带有密集连接结构的特征编码模块的特征联合单元;将第三个密集连接结构的特征编码模块的输出输入到第二紧邻空间卷积特征学习模块,第二紧邻空间卷积特征学习模块的输出输入到第二个带有密集连接结构的特征编码模块的特征联合单元;即构建了紧邻空间卷积特征学习的 U型编-解码分割网络,用于学习不同方向上的空间特征;
所述紧邻空间卷积特征学习模块由四个不同方向的特征增强模型CNN_D相连组成,四个方向指从上到下、从下到上、从左到右和从右到左;
所述特征增强模型CNN_D,首先将带有密集连接结构的特征编码模块输出的特征图X分成H个切片,再将这些切片层定义为CNN_D的迭代计算过程如下:
其中,和/>分别是计算前和计算后的特征切片;运算符/>表示与C核的卷积, f是ReLU激活函数;每个卷积核的大小为C×ω;C、H、W分别表示特征图X的大小、高度和宽度;
步骤5:训练模型;
将步骤2中预处理过的训练集图像和标签数据输入步骤4的紧邻空间卷积特征学习的U型编-解码网络,提取图像的二值分割结果图像;通过使用Adam优化器动态调整学习率来训练网络,在给定输入图像Yi和相应的标签数据Gi的情况下,利用联合损失函数来学习网络,联合损失函数结合了像素级的二进制交叉熵损失BCE和Dice分量,联合损失函数为:
其中N是一个训练批次中的图像数量,F(Yi)表示给定输入图像Yi的训练网络的输出概率图;
训练完成之后,使用步骤2预处理过的验证集数据测试训练好的分割网络,并调整网络参数,得到训练完成的紧邻空间卷积特征学习的U型编-解码分割网络;
步骤6:遥感图像路网提取;
将步骤1得到的测试集输入到步骤5紧邻空间卷积特征学习的U型编-解码分割网络,即自动输出分割后的真值图。
优选地,所述步骤1中的数据集划分方法为:在数据集中随机抽取总样本的90%作为训练集,总样本的5%作为验证集,总样本的剩余5%作为测试集。
本发明的有益效果如下:
1、与传统图像不同,遥感影像道路目标表观体现出纹理不够明显,但结构上存在着一定的连续性,边缘形状上存在着一定的规则先验的特点,本发明构建U型编-解码网络,从空间层次上增强拓扑结构,显著了提高道路提取的连通性和平滑性。
2、为了适应遥感目标表现出空间上疏密分布不一致、不同对象尺度差异性大的特性,本发明提出多尺度密集卷积模型,将密集连接结构引入到传统的编解码分割模型中,在编码过程中,提高卷积核感受野,充分挖掘高分辨遥感影像的空间特征,能够更为准确地分割遥感目标。
3、考虑到传统的CNN模型虽然有强大的特征提取能力,但没有充分利用图像局部空间像素间的关联关系,本发明采用紧邻空间卷积特征学习模型,在同层特征图上也进行卷积行和列累加与非线性激活,使得空间信息能够在同层的神经元上传播,增强模型空间信息感知能力,进而更为有效地解译遥感影像中道路信息。
附图说明
图1为本发明方法流程图。
图2为本发明紧邻空间卷积特征学习的U型编-解码分割网络结构图。
图3为本发明方法与其他方法对遥感图像道路提取的结果对比图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明公开了一种新的遥感影像道路路网提取方法,主要解决了现有遥感影像路网提取方法准确性差、连通度低的不足。本发明的目的在于改善以下几个方面:
1、传统路网提取算法对高分辨率遥感影像上下文信息利用不足。
2、现有的遥感影像分割方法无法克服路网疏密分布不一致、道路表观差异性大的问题。
3、传统的CNN模型没有充分利用图像局部空间像素间的关联关系,无法有效地解译遥感影像路网结构。
如图1所示,一种基于紧邻空间特征学习的遥感影像道路提取方法,包括如下步骤:
步骤1:将带有道路标记标签的高分辨卫星遥感数据集划分为训练集、验证集和测试集;在数据集中随机抽取总样本的90%作为训练集,总样本的5%作为验证集,总样本的剩余5%作为测试集;
步骤2:对训练集数据归一化,并进行数据增广;
将训练集数据进行图像正则化和标准化处理;并采用随机裁剪、中轴翻转以及随机翻转来进行数据增广;从而扩充训练集样本丰富性,使得神经网络识别数据集中不需要的特征的可能性降低;
步骤3:构建带有密集连接结构的U型编-解码网络;
选取U型编-解码网络方法构建成语义分割模型,所述带有密集连接结构的U型编-解码网络包括4个尺度依次由大到小带有密集连接结构的特征编码模块、3个尺度依次由小到大带有上采样层的特征解码模块和Sigmoid激活层;
所述每个带有密集连接结构的特征编码模块包括4个密集连接的卷积特征提取单元和1个特征下采样单元;所述密集连接的卷积特征提取单元由BN层、ReLU层、 3x3卷积层和Dropout层组成;特征下采样单元的输入为密集连接的卷积特征提取单元的输出,特征下采样单元包含BN层、ReLU层、3x3卷积层、Dropout层和平均池化层;
所述带有密集连接结构的特征编码模块包括1个特征上采样单元和1个特征联合单元;所述特征上采样单元由上采样层、BN层、3x3卷积层和ReLU层相连组成,特征联合单元的输入为特征上采样单元的输出;将对应层的编码特征和上层的解码特征拼接,以获取到多尺度特征;
步骤4:构建紧邻空间卷积特征学习的U型编-解码分割网络;
如图3所示,将第二个密集连接结构的特征编码模块的输出输入到第一紧邻空间卷积特征学习模块,第一紧邻空间卷积特征学习模块的输出输入到第一个带有密集连接结构的特征编码模块的特征联合单元;将第三个密集连接结构的特征编码模块的输出输入到第二紧邻空间卷积特征学习模块,第二紧邻空间卷积特征学习模块的输出输入到第二个带有密集连接结构的特征编码模块的特征联合单元;即构建了紧邻空间卷积特征学习的U型编-解码分割网络,用于学习不同方向上的空间特征;
所述紧邻空间卷积特征学习模块由四个不同方向的特征增强模型CNN_D相连组成,四个方向指从上到下、从下到上、从左到右和从右到左;特征增强模型在同层特征图上也进行卷积行和列累加与非线性激活,使得空间信息能够在同层的神经元上传播;
所述特征增强模型CNN_D,首先将带有密集连接结构的特征编码模块输出的特征图X分成H个切片,再将这些切片层定义为CNN_D的迭代计算过程如下:
其中,和/>分别是计算前和计算后的特征切片;运算符/>表示与C核的卷积, f是ReLU激活函数;每个卷积核的大小为C×ω;C、H、W分别表示特征图X的大小、高度和宽度;
步骤5:训练模型;
将步骤2中预处理过的训练集图像和标签数据输入步骤4的紧邻空间卷积特征学习的U型编-解码网络,提取图像的二值分割结果图像;通过使用Adam优化器动态调整学习率来训练网络,在给定输入图像Yi和相应的标签数据Gi的情况下,利用联合损失函数来学习网络,联合损失函数结合了像素级的二进制交叉熵损失BCE和Dice分量,联合损失函数为:
其中N是一个训练批次中的图像数量,F(Yi)表示给定输入图像Yi的训练网络的输出概率图;
训练完成之后,使用步骤2预处理过的验证集数据测试训练好的分割网络,并调整网络参数,得到训练完成的紧邻空间卷积特征学习的U型编-解码分割网络;
步骤6:遥感图像路网提取;
将步骤1得到的测试集输入到步骤5紧邻空间卷积特征学习的U型编-解码分割网络,即自动输出分割后的真值图。
具体实施例:
本发明是在中央处理器为CoreTM i7-6800K 3.40GHz CPU、2张Nvidia1080Ti显卡、Ubuntu操作系统上,运用Pytorch框架进行的仿真。
实验中使用的遥感卫星图片来自于Massachusetts数据集,该数据库由V.Mnih等人在文献“Mnih V.Machine learning for aerial image labeling[M].University ofToronto (Canada),2013.”中提出,该数据集提供了1171幅大小为1500×1500的图像,图像分辨率为每像素1m,数据集中的图像覆盖了从城市、郊区到乡村的500平方公里空间,包括多条道路、建筑物、树木和庄稼在内的各种复杂地物。
用本发明方法在上述仿真条件下进行实验。
表1给出了采用本发明方法与其他方法针对遥感图像道路提取任务的定量对比结果。
表1实验结果对比
Precision | Recall | F1 | IoU | |
UNet | 0.747 | 0.721 | 0.722 | 0.682 |
D-LinkNet | 0.767 | 0.747 | 0.737 | 0.717 |
HsgNet | 0.769 | 0.752 | 0.749 | 0.720 |
本发明 | 0.812 | 0.757 | 0.784 | 0.741 |
与其他道路提取方法相比,本发明提出的方法在F1-Score和IOU上都取得了更好的性能。本发明方法在F1评分和IOU上分别比基准模型(U-NET)提高6.2%和5.9%。本发明方法的F1评分为4.7%,高于D-Linknet和HsgNet的3.5%,IOU分别比D-Linknet 和HsgNet高2.4%和2.1%。总体来看,本发明在提取复杂遥感地貌场景路网信息时,取得更好的结果。
图3给出了采用本发明方法与其他方法针对遥感图像道路提取任务的可视化对比结果。从图中可以看出,从用矩形表示的区域可以观察到,传统方法不能很好利用遥感影像中道路结构的连续性、狭长性信息,往往容易导致路网提取上的断点。而本发明方法可以从空间层次上增强拓扑结构,显著了提高道路提取的连通性和平滑性。
Claims (2)
1.一种基于紧邻空间特征学习的遥感影像道路提取方法,其特征在于,包括以下步骤:
步骤1:将带有道路标记标签的高分辨卫星遥感数据集划分为训练集、验证集和测试集;
步骤2:对训练集数据归一化,并进行数据增广;
将训练集数据进行图像正则化和标准化处理;并采用随机裁剪、中轴翻转以及随机翻转来进行数据增广;
步骤3:构建带有密集连接结构的U型编-解码网络;
所述带有密集连接结构的U型编-解码网络包括4个尺度依次由大到小带有密集连接结构的特征编码模块、3个尺度依次由小到大带有上采样层的特征解码模块和Sigmoid激活层;
所述每个带有密集连接结构的特征编码模块包括4个密集连接的卷积特征提取单元和1个特征下采样单元;所述密集连接的卷积特征提取单元由BN层、ReLU层、3x3卷积层和Dropout层组成;特征下采样单元的输入为密集连接的卷积特征提取单元的输出,特征下采样单元包含BN层、ReLU层、3x3卷积层、Dropout层和平均池化层;
所述带有密集连接结构的特征编码模块包括1个特征上采样单元和1个特征联合单元;所述特征上采样单元由上采样层、BN层、3x3卷积层和ReLU层相连组成,特征联合单元的输入为特征上采样单元的输出;
步骤4:构建紧邻空间卷积特征学习的U型编-解码分割网络;
将第二个密集连接结构的特征编码模块的输出输入到第一紧邻空间卷积特征学习模块,第一紧邻空间卷积特征学习模块的输出输入到第一个带有密集连接结构的特征编码模块的特征联合单元;将第三个密集连接结构的特征编码模块的输出输入到第二紧邻空间卷积特征学习模块,第二紧邻空间卷积特征学习模块的输出输入到第二个带有密集连接结构的特征编码模块的特征联合单元;即构建了紧邻空间卷积特征学习的U型编-解码分割网络,用于学习不同方向上的空间特征;
所述紧邻空间卷积特征学习模块由四个不同方向的特征增强模型CNN_D相连组成,四个方向指从上到下、从下到上、从左到右和从右到左;
所述特征增强模型CNN_D,首先将带有密集连接结构的特征编码模块输出的特征图X分成H个切片,再将这些切片层定义为CNN_D的迭代计算过程如下:
其中,和/>分别是计算前和计算后的特征切片;运算符/>表示与C核的卷积,f是ReLU激活函数;每个卷积核的大小为C×ω;C、H、W分别表示特征图X的大小、高度和宽度;
步骤5:训练模型;
将步骤2中预处理过的训练集图像和标签数据输入步骤4的紧邻空间卷积特征学习的U型编-解码网络,提取图像的二值分割结果图像;通过使用Adam优化器动态调整学习率来训练网络,在给定输入图像Yi和相应的标签数据Gi的情况下,利用联合损失函数来学习网络,联合损失函数结合了像素级的二进制交叉熵损失BCE和Dice分量,联合损失函数为:
其中N是一个训练批次中的图像数量,F(Yi)表示给定输入图像Yi的训练网络的输出概率图;
训练完成之后,使用步骤2预处理过的验证集数据测试训练好的分割网络,并调整网络参数,得到训练完成的紧邻空间卷积特征学习的U型编-解码分割网络;
步骤6:遥感图像路网提取;
将步骤1得到的测试集输入到步骤5紧邻空间卷积特征学习的U型编-解码分割网络,即自动输出分割后的真值图。
2.根据权利要求1所述的一种基于紧邻空间特征学习的遥感影像道路提取方法,其特征在于,所述步骤1中的数据集划分方法为:在数据集中随机抽取总样本的90%作为训练集,总样本的5%作为验证集,总样本的剩余5%作为测试集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110794274.2A CN113591614B (zh) | 2021-07-14 | 2021-07-14 | 一种基于紧邻空间特征学习的遥感影像道路提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110794274.2A CN113591614B (zh) | 2021-07-14 | 2021-07-14 | 一种基于紧邻空间特征学习的遥感影像道路提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113591614A CN113591614A (zh) | 2021-11-02 |
CN113591614B true CN113591614B (zh) | 2024-05-28 |
Family
ID=78247228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110794274.2A Active CN113591614B (zh) | 2021-07-14 | 2021-07-14 | 一种基于紧邻空间特征学习的遥感影像道路提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113591614B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114596502B (zh) * | 2022-03-03 | 2023-04-07 | 合肥工业大学 | 基于边缘增强的高分辨率遥感影像的耕地信息提取方法 |
CN115131680B (zh) * | 2022-07-05 | 2024-08-20 | 西安电子科技大学 | 基于深度可分离卷积和跳跃连接的遥感影像水体提取方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898092A (zh) * | 2018-06-26 | 2018-11-27 | 北京工业大学 | 基于全卷积神经网络的多光谱遥感影像路网提取方法 |
CN110276267A (zh) * | 2019-05-28 | 2019-09-24 | 江苏金海星导航科技有限公司 | 基于Spatial-LargeFOV深度学习网络的车道线检测方法 |
CN111160276A (zh) * | 2019-12-31 | 2020-05-15 | 重庆大学 | 基于遥感影像的u型空洞全卷积分割网络识别模型 |
CN112991354A (zh) * | 2021-03-11 | 2021-06-18 | 东北大学 | 一种基于深度学习的高分辨率遥感影像语义分割方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858309B (zh) * | 2017-11-30 | 2021-04-20 | 东软睿驰汽车技术(上海)有限公司 | 一种识别道路线的方法和装置 |
CN108985238B (zh) * | 2018-07-23 | 2021-10-22 | 武汉大学 | 联合深度学习和语义概率的不透水面提取方法及系统 |
-
2021
- 2021-07-14 CN CN202110794274.2A patent/CN113591614B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898092A (zh) * | 2018-06-26 | 2018-11-27 | 北京工业大学 | 基于全卷积神经网络的多光谱遥感影像路网提取方法 |
CN110276267A (zh) * | 2019-05-28 | 2019-09-24 | 江苏金海星导航科技有限公司 | 基于Spatial-LargeFOV深度学习网络的车道线检测方法 |
CN111160276A (zh) * | 2019-12-31 | 2020-05-15 | 重庆大学 | 基于遥感影像的u型空洞全卷积分割网络识别模型 |
CN112991354A (zh) * | 2021-03-11 | 2021-06-18 | 东北大学 | 一种基于深度学习的高分辨率遥感影像语义分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113591614A (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113011427B (zh) | 基于自监督对比学习的遥感图像语义分割方法 | |
CN111986099B (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 | |
CN111563902B (zh) | 一种基于三维卷积神经网络的肺叶分割方法及系统 | |
CN110070091B (zh) | 用于街景理解的基于动态插值重建的语义分割方法及系统 | |
CN111582104B (zh) | 基于自注意特征聚合网络的遥感图像语义分割方法及装置 | |
CN113591614B (zh) | 一种基于紧邻空间特征学习的遥感影像道路提取方法 | |
CN110599502B (zh) | 一种基于深度学习的皮肤病变分割方法 | |
CN110570440A (zh) | 一种基于深度学习边缘检测的图像自动分割方法及装置 | |
CN112733693B (zh) | 一种全局感知高分辨率遥感影像多尺度残差道路提取方法 | |
CN111709387B (zh) | 一种高分辨率遥感影像的建筑物分割方法及系统 | |
CN113256649B (zh) | 一种基于深度学习的遥感图像选站选线语义分割方法 | |
CN115205672A (zh) | 一种基于多尺度区域注意力的遥感建筑物语义分割方法及系统 | |
CN113988147B (zh) | 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置 | |
Liu et al. | CT-UNet: Context-transfer-UNet for building segmentation in remote sensing images | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN114283285A (zh) | 交叉一致性自训练遥感图像语义分割网络训练方法及装置 | |
Cheng et al. | Remote sensing image segmentation method based on hrnet | |
Li et al. | An aerial image segmentation approach based on enhanced multi-scale convolutional neural network | |
Liu et al. | A new multi-channel deep convolutional neural network for semantic segmentation of remote sensing image | |
Cui et al. | A graph-based dual convolutional network for automatic road extraction from high resolution remote sensing images | |
Li et al. | Fruit tree canopy segmentation from UAV orthophoto maps based on a lightweight improved U-Net | |
George et al. | Efficient Road Segmentation Techniques with Attention-Enhanced Conditional GANs | |
CN117197462A (zh) | 基于多尺度特征融合和对齐的轻量地基云分割方法及系统 | |
Jiao et al. | A Novel Data Augmentation Method to Enhance the Training Dataset for Road Extraction from Historical Maps | |
Pu et al. | An automatic method for tree species point cloud segmentation based on deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |