CN111192267A - 一种基于unet网络的多源感知融合遥感图像分割方法及应用 - Google Patents
一种基于unet网络的多源感知融合遥感图像分割方法及应用 Download PDFInfo
- Publication number
- CN111192267A CN111192267A CN201911408500.8A CN201911408500A CN111192267A CN 111192267 A CN111192267 A CN 111192267A CN 201911408500 A CN201911408500 A CN 201911408500A CN 111192267 A CN111192267 A CN 111192267A
- Authority
- CN
- China
- Prior art keywords
- data
- segmentation
- remote sensing
- model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000004927 fusion Effects 0.000 title claims abstract description 23
- 238000003709 image segmentation Methods 0.000 title claims abstract description 22
- 230000008447 perception Effects 0.000 title claims abstract description 15
- 230000011218 segmentation Effects 0.000 claims abstract description 59
- 238000012549 training Methods 0.000 claims abstract description 34
- 238000002372 labelling Methods 0.000 claims abstract description 11
- 238000012360 testing method Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000007306 turnover Effects 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 5
- 238000002790 cross-validation Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims description 4
- 238000013145 classification model Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000010008 shearing Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 235000019804 chlorophyll Nutrition 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 229930002875 chlorophyll Natural products 0.000 description 1
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于UNET网络的多源感知融合遥感图像分割方法及应用,所述分割方法使用同一深度神经网络模型,对多源遥感图像信息进行融合处理,有效利用多个通道的遥感数据。不需要手动设计所需要的分割的类别的特征,在经过标注和网络训练之后,即可对目标进行自动分割。同时能够对针对不同分割目标的分割结果进行自动融合。通过GPU加速运算,可以较快地得到分割结果,同时本发明所述分割方法应用到无人机领域,可以进一步提高无人机各项传感器特征的精确度,以及更精确的获取无人机飞行高度。
Description
【技术领域】
本发明涉及多源融合感知遥感探测技术领域,尤其涉及一种基于UNET网络的多源感知融合遥感图像分割方法及应用。
【背景技术】
传统的遥感数据分析大量依赖人力和一些简单的统计图像处理方法,随着近年来人工智能等相关领域的发展,遥感数据的分析也大量地使用人工智能方法。利用人工智能处理分析数据的优势,可以提高遥感数据分析的智能化、自动化,提升分析的精度与效率。本课题拟构建遥感图像分割数据集,实现基于深度神经网络的遥感图像自动化分割方法。并利用数据集对该方法的性能指标进行评估。同时,对该网络进行剪枝和优化处理,实现遥感图像高效、准确的自动化处理。
目前在遥感图像分割的方法中,常采用的方法有基于边缘的多光谱法、基于相位一致的分割方法、基于标记分水岭的算法等。以上的方法在对遥感图像分割处理中有一定的效果。但是对于对分割精度有较高要求,分割类别较多的情况下,上述分割方式并不能满足我们对遥感图像多目标精确分割的要求。
在对遥感图像高精度多类别的分割过程中,上述方法主要面临以下问题:
1)遥感设备所处环境复杂,容易受到大气、温度以及等压面等外界因素的干扰;
2)对不同的地质以及生态环境,以及不同的监测目标之间的差异性显著,上述的方式很难得到在不同遥感场景下具有鲁棒性的结果;
3)如果遥感探测图像中所需分割的目标发生变换,需要手动选择新的分割目标特征,手动标注特征需要较大的工作量;
4)不能对多个传感器取得的遥感数据进行统一处理。针对不同的传感源,需要设计不同的分割算法。
因此,有必要研究一种基于UNET网络的多源感知融合遥感图像分割方法来应对现有技术的不足,以解决或减轻上述一个或多个问题。
【发明内容】
有鉴于此,本发明提供了一种基于UNET网络的多源感知融合遥感图像分割方法及应用,所述分割方法使用同一深度神经网络模型,对多源遥感图像信息进行融合处理,有效利用多个通道的遥感数据。不需要手动设计所需要的分割的类别的特征,在经过标注和网络训练之后,即可对目标进行自动分割。同时能够对针对不同分割目标的分割结果进行自动融合。通过GPU加速运算,可以较快地得到分割结果,同时本发明所述分割方法应用到无人机领域,可以进一步提高无人机各项传感器特征的精确度,以及更精确的获取无人机飞行高度。
一方面,本发明提供一种基于UNET网络的多源感知融合遥感图像分割方法,所述分割方法包括以下步骤:
S1:采集多通道遥感图像数据并对数据进行标注和分类处理;
S2:设计基于UNET网络的多元数据分割模型;
S3:对分类处理后的数据进行数据增强得到训练模型所需数据集;
S4:使用S3得到的数据集对多元数据分割模型进行训练,并调整训练参数;
S5:通过S4得到的多元数据分割模型对分类处理后的数据进行测试,得到多个类别的遥感目标分割结果;
所述S1和S2顺序不固定。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S1具体为:采集多通道的遥感数据,并对8-12个不同类别的数据进行标注,数据标注完成后,以70%、10%和20%的比例分别将数据分为训练集、验证集和测试集。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S2具体包括:
S21:通过多光谱图像输入多通道UNET网络模型,;
S22:对每个UNET网络模型训练一个二分类模型;
S23:对单张遥感图像中每一类物体进行预测,得到多张预测图;
S24:对预测图进行叠加、合并得到完整预测结果;
S25:通过模型融合设计基于投票法的多分割模板融合算法。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S3具体为:对分类处理后的遥感图像数据的数据集进行数据增强操作,以增加模型泛化能力,所述数据增强操作包括旋转45度、垂直翻转、水平翻转缩放15-25%、剪切操作和切换频段。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S4具体为:通过S3中增强后的数据集对S2中构建好的网络模型进行训练,采用Adam算法更新神经网络权重,同时利用训练集和验证集进行交叉验证,调整训练参数,重复以上过程,直到模型收敛。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S5具体为:利用调整过训练参数的网络模型,对测试集中的数据进行预测,然后利用投票法得到多个类别的遥感目标分割结果。
如上所述的方面和任一可能的实现方式,进一步提供一种基于UNET网络的多源感知融合遥感图像分割方法的应用,所述应用具体如下:通过所述分割方法获得的多个类别的遥感目标分割结果,获取无人机在不同传感器上的特征数据,以测量无人机飞行高度。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述测量无人机飞行高度的具体方法为:基于图像及地速的气压高度标定法,通过光流算法和投影法测量无人机飞行高度。
与现有技术相比,本发明可以获得包括以下技术效果:
1)能够多传感源的遥感数据利用同一个网络模型进行统一处理,充分用不同传感器对不同被探测目标的敏感性。
2)能够自适应的学习不同探测目标,在不同传感器上的特征。在改变分割目标时,不需要重新构建检测算法,只需要依据不同的探测目标数据集重新训练网络即可。
3)使用网络融合算法,可以对不同的探测目标的分割结果进行融合,在同一张分割图像中得到多类别的分割结果;
4)将本发明所述分割方法获得的结果应用到无人机领域,可以测量无人机飞行高度,并且相比现有的测量方法,其测量的精确度更高。
当然,实施本发明的任一产品并不一定需要同时达到以上所述的所有技术效果。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明一个实施例提供的分割方法流程图;
图2是本发明一个实施例提供的分割方法的网络模型结构图。
【具体实施方式】
为了更好的理解本发明的技术方案,下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
本发明提供一种基于UNET网络的多源感知融合遥感图像分割方法及应用,如图1所示为本发明所述分割方法的流程图,所述分割方法具体包括以下步骤:
S1:采集多通道遥感图像数据并对数据进行标注和分类处理,进一步地包括,采集多通道的遥感数据,并对8-12个不同类别的数据进行标注,数据标注完成后,以70%、10%和20%的比例分别将数据分为训练集、验证集和测试集;
S2:设计基于UNET网络的多元数据分割模型,进一步地包括,设计用于图像分割的多通道UNET网络模型,不同于通常在图像分割任务中使用的RGB三通道图像,多通道UNET网络模型的输入采用多光谱图像,这使得模型可以学习到人类视觉外的重要特征。为了得到更精确的分类结果,对于每个类别训练一个二分类模型。对单张遥感图像中每一类物体进行预测,得到多张预测图,再对预测图进行叠加、合并得到完整预测结果。最后采取模型融合的思路,设计基于投票法的多分割模板融合算法。上述二分类模型采用Adam算法更新神经网络权重;
S3:分类处理后的遥感图像数据进行数据增强操作,进一步地包括,对数据集中的数据进行图像增强处理,以增加模型泛化能力,所述数据增强操作包括旋转45度、垂直翻转、水平翻转缩放15-25%、剪切操作和切换频段;
S4:通过设计的多元数据分割模型,对图像增强处理后的数据进行训练,并调整训练参数,进一步地包括,通过S3中增强后的数据集(数据集的内容根据S3中结果而定)对S2中构建好的网络模型进行训练,同时利用训练集和验证集进行交叉验证,调整训练参数,重复以上过程,直到模型收敛,收敛的具体方法为通过使用Adam算法更新网络权重使模型收敛;
S5:通过调整训练参数后的多元数据分割模型,对分类处理后的数据进行测试,并用投票法进行融合,得到多个类别的遥感目标分割结果,进一步地包括,利用调整过训练参数的网络模型,对测试集中的数据进行预测,然后利用投票法得到多个类别的遥感目标分割结果;
所述S1和S2顺序不固定,S2-S4中网络模型的结构如图2中所示。
与此同时,本发明还提供一种基于UNET网络的多源感知融合遥感图像分割方法的应用,通过所述分割方法获得的多个类别的遥感目标分割结果,获取无人机在不同传感器上的特征数据,以测量无人机飞行高度,所述测量无人机飞行高度的具体方法为:基于图像及地速的气压高度标定法,通过光流算法和投影法测量无人机飞行高度。
实施例1
本发明所述一种基于UNET网络的多源感知融合遥感图像分割方法及其应用,基于人工智能中最为常用的卷积神经网络结构,来研究遥感图像的分割。本发明将研究如何设计更合适的深度神经网络结构,提高其在遥感图像分割上的正确率;针对分割网络模型在遥感图像分割上的不足,改进分割网络的损失函数和训练方式,提高遥感图像分割性能。
本发明首先构建了里包含了25个1平方公里大小地区的高分辨率卫星图像,具体任务是通过算法进行识别10个不同类型的对象,分别是:1.房屋和楼房;2.混杂的人工建筑;3.道路;4.铁路;5.树木;6.农作物;7.河流;8.积水区;9.大型车辆;10.小型车辆。同时,针对不同的类别,对原始图像数据进行人工标注。并将其分为训练集和测试集。
其次对初始数据集进行初始预处理。将多尺度图像块与滑动窗口生成方法相结合,利用区域块重叠技术覆盖到整个图像的边缘。最初将尺度为256x256和288x288的图像块相结合,后来又加入了尺度为224x224和320x320的图像块;
然后组合不同的频段(bands)和尺度(scales),来训练和融合网络模型,得到最优的UNET网络;对小样本类别进行过采样。过采样在小样本图像上以较小的步长来滑动采样窗口,在大样本图像上以比默认值更大的步长来滑动采样窗口;作用于河流对象的指标法,组合无差别水分指数(Non-Differential Water Index)和顶端叶绿素含量指数(CanopyChlorophyl Content Index)这两个指标来辨识河流;对道路、积水区、河流、小轿车与大型车辆这些对象进行后期处理。这种后期处理办法解决了积水区和河流之间的类别混乱,同时去除道路上的伪影,并在计算大型车辆得分时设置附加权值;大型车辆识别在这里使用了一些技巧来训练用于预测道路和房屋的网络,本专利使用RGB频段的。对于农作物,先将图像的尺度降低为1024×1024,然后利用滑动窗口重叠采样,得到尺度为256x256的图像块。
在交叉验证方面,根据不同类别,使用了10%到20%的随机图像块,大样本类别比例更高。对于过采样的小样本类别,只使用5%的随机图像块。这样,整体上减少了模型的运行时间。数据集的图像(包括图像和标签)通过旋转45度、缩放15-25%、剪切操作、切换频段(仅针对某些网络)和垂直+水平翻转等图像增强操作,增加泛化能力,网络的训练时间也随之增加。对验证集或测试集不进行上述操作。在优化策略方面,使用Adam作为优化器,用Jaccard Loss作为训练指标。学习率优化方法是,每经过30次迭代,学习率减小为原来的0.2倍。在处理网络输出上,大多数类直接使用标签算术平均,对于积水区和大型车辆类别采用相加方法,仅在使用NDWI指数和CCCI指数的河流上使用了交叉选取的方法。本发明能够对多源遥感数据进行融合统一处理,不需要针对不同的数据源设计不同的分割网络模型。针对不同场景下的遥感图像数据,不需要针对该场景设计不同的分割算法,只需要将该场景的数据集加入训练数据集中即可,对不同场景的分割目标有着较强的鲁棒性。分割算法的性能可以随着训练数据集的增加得到提升,能够对多个分割目标类别进行自动融合。
本发明所述分割方法获得的结果应用到无人机领域,可以测量无人机飞行高度,并且相比现有的测量方法,其测量的精确度更高。
以上对本申请实施例所提供的一种基于UNET网络的多源感知融合遥感图像分割方法及其应用,进行了详细介绍。以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
如在说明书及权利要求书当中使用了某些词汇来指称特定组件。本领域技术人员应可理解,硬件制造商可能会用不同名词来称呼同一个组件。本说明书及权利要求书并不以名称的差异来作为区分组件的方式,而是以组件在功能上的差异来作为区分的准则。如在通篇说明书及权利要求书当中所提及的“包含”、“包括”为一开放式用语,故应解释成“包含/包括但不限定于”。“大致”是指在可接收的误差范围内,本领域技术人员能够在一定误差范围内解决所述技术问题,基本达到所述技术效果。说明书后续描述为实施本申请的较佳实施方式,然所述描述乃以说明本申请的一般原则为目的,并非用以限定本申请的范围。本申请的保护范围当视所附权利要求书所界定者为准。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
上述说明示出并描述了本申请的若干优选实施例,但如前所述,应当理解本申请并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述申请构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本申请的精神和范围,则都应在本申请所附权利要求书的保护范围内。
Claims (8)
1.一种基于UNET网络的多源感知融合遥感图像分割方法,其特征在于,所述分割方法包括以下步骤:
S1:采集多通道遥感图像数据并对数据进行标注和分类处理;
S2:设计基于UNET网络的多元数据分割模型;
S3:对分类处理后的数据进行数据增强得到训练模型所需数据集;
S4:使用S3得到的数据集对多元数据分割模型进行训练,并调整训练参数;
S5:通过S4得到的多元数据分割模型对分类处理后的数据进行测试,得到多个类别的遥感目标分割结果;
所述S1和S2顺序不固定。
2.根据权利要求1所述的分割方法,其特征在于,所述S1具体为:采集多通道的遥感数据,并对8-12个不同类别的数据进行标注,数据标注完成后,以70%、10%和20%的比例分别将数据分为训练集、验证集和测试集。
3.根据权利要求2所述的分割方法,其特征在于,所述S2具体为
S21:通过多光谱图像输入多通道UNET网络模型,;
S22:对每个UNET网络模型训练一个二分类模型;
S23:对单张遥感图像中每一类物体进行预测,得到多张预测图;
S24:对预测图进行叠加、合并得到完整预测结果;
S25:通过模型融合设计基于投票法的多分割模板融合算法。
4.根据权利要求3所述的分割方法,其特征在于,所述S3具体为:对分类处理后的遥感图像数据的训练集进行数据增强操作,以增加模型泛化能力,所述数据增强操作包括旋转45度、垂直翻转、水平翻转缩放15-25%、剪切操作和切换频段。
5.根据权利要求4所述的分割方法,其特征在于,所述S4具体为:通过S3中增强后的数据集对S2中构建好的网络模型进行训练,采用Adam算法更新神经网络权重,同时利用训练集和验证集进行交叉验证,调整训练参数,重复以上过程,直到模型收敛。
6.根据权利要求5所述的分割方法,其特征在于,所述S5具体为:利用调整过训练参数的网络模型,对测试集中的数据进行预测,然后利用投票法得到多个类别的遥感目标分割结果。
7.一种基于UNET网络的多源感知融合遥感图像分割方法的应用,包括权利要求1-6之一所述的分割方法,其特征在于,所述应用具体如下:通过所述分割方法获得的多个类别的遥感目标分割结果,获取无人机在不同传感器上的特征数据,以测量无人机飞行高度。
8.根据权利要求7所述的应用,其特征在于,所述测量无人机飞行高度的具体方法为:基于图像及地速的气压高度标定法,通过光流算法和投影法测量无人机飞行高度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911408500.8A CN111192267A (zh) | 2019-12-31 | 2019-12-31 | 一种基于unet网络的多源感知融合遥感图像分割方法及应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911408500.8A CN111192267A (zh) | 2019-12-31 | 2019-12-31 | 一种基于unet网络的多源感知融合遥感图像分割方法及应用 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111192267A true CN111192267A (zh) | 2020-05-22 |
Family
ID=70707808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911408500.8A Pending CN111192267A (zh) | 2019-12-31 | 2019-12-31 | 一种基于unet网络的多源感知融合遥感图像分割方法及应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111192267A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712087A (zh) * | 2020-12-29 | 2021-04-27 | 哈尔滨工业大学 | 一种基于深度卷积神经网络的遥感影像地物语义分割方法 |
CN112966546A (zh) * | 2021-01-04 | 2021-06-15 | 航天时代飞鸿技术有限公司 | 一种基于无人机侦察图像的嵌入式姿态估计方法 |
CN113255607A (zh) * | 2021-06-30 | 2021-08-13 | 北京道达天际科技有限公司 | 基于多模型融合的遥感房屋检测方法及装置 |
CN117788737A (zh) * | 2023-12-27 | 2024-03-29 | 中水珠江规划勘测设计有限公司 | 一种基于无人机高光谱遥感的测绘方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180108139A1 (en) * | 2016-10-19 | 2018-04-19 | U.S. Department Of Veterans Affairs | System And Method For N-Dimensional Image Segmentation Using Convolutional Neural Networks |
CN110120033A (zh) * | 2019-04-12 | 2019-08-13 | 天津大学 | 基于改进的U-Net神经网络三维脑肿瘤图像分割方法 |
CN110136154A (zh) * | 2019-05-16 | 2019-08-16 | 西安电子科技大学 | 基于全卷积网络与形态学处理的遥感图像语义分割方法 |
CN110163213A (zh) * | 2019-05-16 | 2019-08-23 | 西安电子科技大学 | 基于视差图和多尺度深度网络模型的遥感图像分割方法 |
CN110349247A (zh) * | 2018-04-08 | 2019-10-18 | 哈尔滨工业大学 | 一种基于语义理解的室内场景cad三维重建方法 |
-
2019
- 2019-12-31 CN CN201911408500.8A patent/CN111192267A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180108139A1 (en) * | 2016-10-19 | 2018-04-19 | U.S. Department Of Veterans Affairs | System And Method For N-Dimensional Image Segmentation Using Convolutional Neural Networks |
CN110349247A (zh) * | 2018-04-08 | 2019-10-18 | 哈尔滨工业大学 | 一种基于语义理解的室内场景cad三维重建方法 |
CN110120033A (zh) * | 2019-04-12 | 2019-08-13 | 天津大学 | 基于改进的U-Net神经网络三维脑肿瘤图像分割方法 |
CN110136154A (zh) * | 2019-05-16 | 2019-08-16 | 西安电子科技大学 | 基于全卷积网络与形态学处理的遥感图像语义分割方法 |
CN110163213A (zh) * | 2019-05-16 | 2019-08-23 | 西安电子科技大学 | 基于视差图和多尺度深度网络模型的遥感图像分割方法 |
Non-Patent Citations (2)
Title |
---|
WEI ZHANG等: "A Comparative Study of U-Nets with Various Convolution Components for Building Extraction", 《2019 JOINT URBAN REMOTE SENSING EVENT (JURSE)》 * |
许慧敏: "基于深度学习U-Net模型的高分辨率遥感影像分类方法研究", 《中国优秀硕士学位论文全文数据库基础科学辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712087A (zh) * | 2020-12-29 | 2021-04-27 | 哈尔滨工业大学 | 一种基于深度卷积神经网络的遥感影像地物语义分割方法 |
CN112966546A (zh) * | 2021-01-04 | 2021-06-15 | 航天时代飞鸿技术有限公司 | 一种基于无人机侦察图像的嵌入式姿态估计方法 |
CN113255607A (zh) * | 2021-06-30 | 2021-08-13 | 北京道达天际科技有限公司 | 基于多模型融合的遥感房屋检测方法及装置 |
CN117788737A (zh) * | 2023-12-27 | 2024-03-29 | 中水珠江规划勘测设计有限公司 | 一种基于无人机高光谱遥感的测绘方法 |
CN117788737B (zh) * | 2023-12-27 | 2024-05-28 | 中水珠江规划勘测设计有限公司 | 一种基于无人机高光谱遥感的测绘方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111192267A (zh) | 一种基于unet网络的多源感知融合遥感图像分割方法及应用 | |
CN113919448B (zh) | 一种任意时空位置二氧化碳浓度预测影响因素分析方法 | |
CN110378196B (zh) | 一种结合激光点云数据的道路视觉检测方法 | |
EP3926582B1 (en) | Model generating apparatus, method, and program, and prediction apparatus | |
US20220139070A1 (en) | Learning apparatus, estimation apparatus, data generation apparatus, learning method, and computer-readable storage medium storing a learning program | |
CN109117883B (zh) | 基于长短时记忆网络的sar影像海冰分类方法及系统 | |
CN111598098B (zh) | 一种基于全卷积神经网络的水尺水位线检测及有效性识别方法 | |
CN112733800B (zh) | 基于卷积神经网络的遥感图像道路信息提取方法和装置 | |
CN112749627A (zh) | 一种基于多源遥感影像的烟草动态监测的方法和装置 | |
CN110956207B (zh) | 一种光学遥感影像全要素变化检测方法 | |
CN113743013A (zh) | 一种基于XGBoost气温预测数据修正的方法 | |
CN110595968B (zh) | 一种基于静止轨道卫星的pm2.5浓度估算方法 | |
CN115372282B (zh) | 一种基于无人机高光谱影像的农田土壤含水量监测方法 | |
CN113901384A (zh) | 顾及全局空间自相关性和局部异质性的地面pm2.5浓度建模方法 | |
CN113469950A (zh) | 一种基于深度学习的复合绝缘子异常发热缺陷的诊断方法 | |
CN115223063A (zh) | 基于深度学习的无人机遥感小麦新品种倒伏面积提取方法及系统 | |
CN112950780A (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN112464745A (zh) | 一种基于语义分割的地物识别与分类方法和装置 | |
CN111242028A (zh) | 基于U-Net的遥感图像地物分割方法 | |
CN111291818A (zh) | 一种面向云掩膜的非均匀类别的样本均衡化方法 | |
CN111079807A (zh) | 一种地物分类方法及装置 | |
CN116091940B (zh) | 一种基于高分辨率卫星遥感影像的作物分类和识别方法 | |
CN112991425B (zh) | 一种水域水位提取方法、系统及存储介质 | |
CN114998731A (zh) | 智能终端导航场景感知识别的方法 | |
CN113191536A (zh) | 基于机器学习的近地面环境要素预测模型训练和预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200522 |
|
RJ01 | Rejection of invention patent application after publication |