CN113326847A - 一种基于全卷积神经网络的遥感图像语义分割方法及装置 - Google Patents
一种基于全卷积神经网络的遥感图像语义分割方法及装置 Download PDFInfo
- Publication number
- CN113326847A CN113326847A CN202110625909.6A CN202110625909A CN113326847A CN 113326847 A CN113326847 A CN 113326847A CN 202110625909 A CN202110625909 A CN 202110625909A CN 113326847 A CN113326847 A CN 113326847A
- Authority
- CN
- China
- Prior art keywords
- sampling
- neural network
- remote sensing
- sensing image
- dense
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000011218 segmentation Effects 0.000 title claims abstract description 37
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 25
- 238000005070 sampling Methods 0.000 claims abstract description 49
- 230000006870 function Effects 0.000 claims abstract description 21
- 239000002131 composite material Substances 0.000 claims abstract description 8
- 238000005259 measurement Methods 0.000 claims abstract description 5
- 238000003860 storage Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 238000011524 similarity measure Methods 0.000 claims 1
- 238000003062 neural network model Methods 0.000 abstract description 3
- 238000004422 calculation algorithm Methods 0.000 description 19
- 238000013461 design Methods 0.000 description 9
- 238000003709 image segmentation Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000002779 inactivation Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于全卷积神经网络的遥感图像语义分割方法及装置,方法包括:构建由卷积模块BasicConv和瓶颈层Bottleneck组成的全卷积神经网络,将密集块Dense Block中的每一密集层定义为瓶颈层与卷积核尺寸为3的卷积模块的复合操作;在密集块内部的特征图尺寸一致的情况下,设计了Down Sampling和Up Sampling模块进行下采样和上采样;不同阶梯通过下采样或上采样连接,同一阶梯的向下通路和向上通路之间使用跳跃连接相连;构建相似度度量函数,基于所述函数实现对遥感图像的语义分割。装置包括:处理器和存储器。本发明以少量的内存空间开销为代价显著减少参数量,压缩神经网络模型,并且可以有效整合不同层次和尺度的特征信息。
Description
技术领域
本发明涉及遥感图像领域,尤其涉及一种基于全卷积神经网络的遥感图像语义分割方法及装置。
背景技术
图像分割是许多视觉理解系统的重要组成部分,它涉及到将图像(或视频帧)分割成多个段或对象。其发展经历了从最早的阈值化、基于直方图的分组、区域生长、k-means聚类、分水岭等算法,到更先进的主动轮廓、图割、条件和马尔科夫随机域、稀疏等算法。然而,在过去的几年里,深度学习算法已经产生了新一代的图像分割模型,其性能有了显著的提高。
随着深度学习的发展,在分割任务中出现了许多优秀的算法。目前图像分割公开流行的是语义分割和实例分割算法,主要包括:FCN(全卷积网络)算法、SegNet(用于图像分割的深度卷积编码-解码架构)算法、UNet(U型网络)算法、PSPNet(金字塔场景解析网络)算法、DeepLab(基于深度卷积网络和全连接的语义分割)算法、Mask RCNN(有Mask分支的目标检测)算法等。虽然这些算法最初都是针对自然图像而设计,但遥感图像分类与自然图像分割在计算机视觉领域属于同一问题。遥感图像分类需要在此基础上,结合自身的特点设计出适于该场景的深度学习算法。
在遥感图像语义分割领域,由于遥感图像的特殊性,使用现有语义分割算法会导致预测分辨率低于输入分辨率的输出,并且会极大地占用内存和增加计算开销,因此无法用现有的语义分割算法得到理想的分割结果,需要根据该领域的特殊性设计出符合该任务的语义分割算法。
发明内容
本发明提供了一种基于全卷积神经网络的遥感图像语义分割方法及装置,本发明以少量的内存空间开销为代价显著减少参数量,压缩神经网络模型,并且可以有效整合不同层次和尺度的特征信息,详见下文描述:
第一方面,一种基于全卷积神经网络的遥感图像语义分割方法,所述方法包括:
构建由卷积模块BasicConv和瓶颈层Bottleneck组成的全卷积神经网络,使用线性插值的上采样模块与瓶颈层Bottleneck组成向上路径;
将密集块Dense Block中的每一密集层定义为瓶颈层与卷积核尺寸为3的卷积模块的复合操作;
在密集块内部的特征图尺寸一致的情况下,设计了Down Sampling和Up Sampling模块进行下采样和上采样;
不同阶梯通过下采样或上采样连接,同一阶梯的向下通路和向上通路之间使用跳跃连接相连;
构建相似度度量函数,基于所述函数实现对遥感图像的语义分割。
第二方面,一种基于全卷积神经网络的遥感图像语义分割装置,所述装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行第一方面中的任一项所述的方法步骤。
第三方面,一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时使所述处理器执行第一方面中的任一项所述的方法步骤。
本发明提供的技术方案的有益效果是:
(1)本方法不仅可以有效整合多层次多尺度特征信息,而且通过压缩模型,显著减少了参数量;
(2)本方法通过精心设计的BasicConv模块能够有效降低空间复杂度;本方法得到的结果更加精细,对图像中的细节更加敏感;本方法充分考虑了像素与像素之间的关系,使结果更具有空间一致性;
(3)本方法设计采用的损失函数更适合处理遥感语义分割,可以加速该任务的收敛性并且有效提高性能;
(4)通过实验证明本方法适合在遥感图像语义分割领域进行应用和推广。
附图说明
图1为神经网络的组成模块图;
图2为网络内部的结构图;
图3为一种基于全卷积神经网络的遥感图像语义分割方法的流程图;
图4为一种基于全卷积神经网络的遥感图像语义分割装置的结构示意图。
表1为不同分割模型在屋顶分割中的性能表现。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
本发明实施例提供了一种基于全卷积神经网络的遥感图像语义分割方法,参见图1-图3,该方法包括以下步骤:
一、精心设计的BasicConv与Bottleneck模块
1)设计复合运算模块BasicConv;
其中,BasicConv(卷积模块)是由常见的神经网络操作构成的复合运算,如图1左侧所示,依次包括5个基本操作:连接(Concatenation)、BatchNorm(批标准化)、激活函数(ReLU)、卷积以及随机失活(Dropout)。连接操作是指将来自不同层的特征图进行连接使其在空间上连续,以满足后续运算的输入要求。
为了克服深度神经网络难以训练的弊病,BatchNorm操作通过将特征图的均值和方差规范到一致的分布,有效地防止训练时的梯度消失和梯度爆炸,同时使不同尺度的参数在总体上更新步调一致。值得注意的是,BatchNorm和激活函数在卷积操作之前进行。Dropout在设定的超参数随机失活比例大于0时调用。
其中,规范到一致的分布为本领域技术人员所公知,本发明实施例对此不做赘述。
2)Bottleneck的创新设计;
本发明实施例使用了类似Dense Block(密集块)进行特征提取,使用下采样模块降低分辨率;为了将输出尺寸恢复到输入分辨率,使用线性插值的上采样模块与Bottleneck(瓶颈层)组成向上路径。Bottleneck会在Dense Block以及跳跃连接中被大量使用,它可以以少量的内存空间开销为代价显著减少参数量,压缩神经网络模型,并有效整合不同层次和尺度的特征信息。
Bottleneck和BasicConv作为整个网络最基础的操作将被广泛用于网络的各个部分。
二、Dense Block的复合操作的创新设计
1)Dense Layer的创新定义;
Dense Block中的每一层Dense Layer(密集层)定义为Bottleneck与卷积核尺寸为3的BasicConv的复合操作,即两个卷积核大小分别为1和3的BasicConv相连。
2)Dense Layer的具体设计;
具体地,一个L层的Dense Block由L层Dense Layer构成,第l层与前面的1,2,…,l-1层相连,其输出连接到后继的l+1,l+2,…,L-1,L层。设输入Dense Block的特征图数量为k0,增长率为k,即每层新产生k个特征图,容易得到第l层的输入特征图数量为k0+(l-1)·k。图2是一个增长率k=3的Dense Block示意图。
来自不同层的特征图被连接后输入下一层中,即每层除了k个输出特征图外,还产生额外l×k个中间结果特征图,不难得出对于一个L层的Dense Block,这些中间结果造成了平方级的空间复杂度。如果不保留这些中间结果,即每层只需要保留k个特征图,DenseBlock的空间复杂度即可降低至O(L×k)线性级别。此外,通过精心设计的BasicConv模块能够有效降低空间复杂度。
三、Down Sampling(下采样)与Up Sampling(上采样)的创新设计
在Dense Block内部的特征图尺寸一致的情况下,本发明实施例设计了DownSampling和Up Sampling模块进行下采样和上采样。Down Sampling模块将两个DenseBlock连接起来,使用Bottleneck降低特征图数量,使用步长为2的卷积操作对特征图下采样,使用线性插值方法进行上采样。
四、整体算法结构
算法结构总体上由一条向下通路(图3左侧部分的向下箭头)和一条向上通路(图3右侧部分的向上箭头)构成,包含两个或多个阶梯,每个阶梯的特征图分辨率相等,不同阶梯通过下采样或上采样连接,同一阶梯的向下通路和向上通路之间使用跳跃连接相连(图3中间的横向通路,即向右的箭头)。
1)算法的向下通路的设计;
该结构主要运算都集中在向下通路。具体地,向下通路由Dense Block和DownSampling两部分构成,Dense Block负责特征提取,Down Sampling负责下采样。向上通路由Up Sampling和Bottleneck组成,Up Sampling将特征图逐步恢复为原始分辨率,Bottleneck对两个相邻阶梯的特征图进行整合。
2)聚合不同层次特征信息的设计;
具体地,在跳跃连接中加入连续的Bottleneck来聚合Dense Block产生的不同层次的特征信息。最后的Bottleneck对所有的特征进一步整合并将特征图数量降到k个(用于k类目标的分割),并使用Softmax归一化的概率值作为预测结果。
五、Soft Dice Loss的有效设计
具体地,对于k类分割目标的神经网络,Softmax层输出k个与原图像尺寸相同的特征图。设每个特征图体积为N,则第i个特征图包含N个预测值,用集合Pi表示,每个预测值表示第j个像素属于第i类的概率;真值G为one-hot编码的类别标签,表示第i个特征图中的第j个像素是否属于第i类,用1或0表示;ε为光滑系数,Soft Dice Loss代价函数如下式所示。
式子右部表示k个分类的平均Soft Dice(相似度度量函数)系数,该值介于0和1之间。使用很小的光滑系数ε可以带来更好的数值稳定性:当真值和预测值全部为0时,SDL=0;当真值或预测值中的一个全部为0时,SDL≈1,SDL为语义分割相似度度量损失函数。
六、实验结果
本方法在多种模型上进行了实验。实验结果如表1所示。公平起见,使用了最新的DeepLabv3和PSPNet在PyTorch框架上实现,并将其整合至代码中,与本方法使用相同的数据增广和训练方式。
表1不同分割模型在屋顶分割中的性能表现
方法 | mean IoU | mean accuracy | pixel accuracy |
DeepLabv3 | 86.11 | 92.29 | 95.37 |
PSPNet | 86.83 | 92.37 | 95.66 |
本方法 | 87.11 | 92.71 | 95.81 |
分析表1得到如下结论:在同等环境下,采用本方法进行遥感图像语义分割时,其分割性能相比DeepLabv3和PSPNet,本方法为最佳。具体地:本方法IoU较DeepLabv3高1.00,较PSPNet高0.28;本方法平均准确率较DeepLabv3高0.08,较PSPNet高0.34;像素精度较DeepLabv3高0.29,较PSPNet高0.15。
基于同一发明构思,本发明实施例还提供了一种基于全卷积神经网络的遥感图像语义分割装置,参见图4,该装置包括:处理器1和存储器2,存储器2中存储有程序指令,处理器1调用存储器2中存储的程序指令以使装置执行实施例中的以下方法步骤:
构建由卷积模块BasicConv和瓶颈层Bottleneck组成的全卷积神经网络,使用线性插值的上采样模块与瓶颈层Bottleneck组成向上路径;
将密集块Dense Block中的每一密集层定义为瓶颈层与卷积核尺寸为3的卷积模块的复合操作;
在密集块内部的特征图尺寸一致的情况下,设计了Down Sampling和Up Sampling模块进行下采样和上采样;
不同阶梯通过下采样或上采样连接,同一阶梯的向下通路和向上通路之间使用跳跃连接相连;
构建相似度度量函数,基于所述函数实现对遥感图像的语义分割。
一个L层的密集块由L层密集层构成,第l层与前面的1,2,…,l-1层相连,其输出连接到后继的l+1,l+2,…,L-1,L层。
所述向下通路由Dense Block和Down Sampling两部分构成,Dense Block负责特征提取,Down Sampling负责下采样;
所述向上通路由Up Sampling和Bottleneck组成,Up Sampling将特征图逐步恢复为原始分辨率,Bottleneck对两个相邻阶梯的特征图进行整合。
在跳跃连接中加入连续的瓶颈层来聚合密集块产生的不同层次的特征信息;最后的瓶颈层对所有的特征进一步整合并将特征图数量降到k个,并使用Softmax归一化的概率值作为预测结果。
在一种实施方式中,相似度度量函数为:
设每个特征图体积为N,则第i个特征图包含N个预测值,用集合Pi表示,每个预测值表示第j个像素属于第i类的概率;真值G为one-hot编码的类别标签,表示第i个特征图中的第j个像素是否属于第i类,用1或0表示;ε为光滑系数,代价函数为:
这里需要指出的是,以上实施例中的装置描述是与实施例中的方法描述相对应的,本发明实施例在此不做赘述。
上述的处理器1和存储器2的执行主体可以是计算机、单片机、微控制器等具有计算功能的器件,具体实现时,本发明实施例对执行主体不做限制,根据实际应用中的需要进行选择。
存储器2和处理器1之间通过总线3传输数据信号,本发明实施例对此不做赘述。
基于同一发明构思,本发明实施例还提供了一种计算机可读存储介质,存储介质包括存储的程序,在程序运行时控制存储介质所在的设备执行上述实施例中的方法步骤。
该计算机可读存储介质包括但不限于快闪存储器、硬盘、固态硬盘等。
这里需要指出的是,以上实施例中的可读存储介质描述是与实施例中的方法描述相对应的,本发明实施例在此不做赘述。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例的流程或功能。
计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者通过计算机可读存储介质进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质或者半导体介质等。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于全卷积神经网络的遥感图像语义分割方法,其特征在于,所述方法包括:
构建由卷积模块BasicConv和瓶颈层Bottleneck组成的全卷积神经网络,使用线性插值的上采样模块与瓶颈层Bottleneck组成向上路径;
将密集块Dense Block中的每一密集层定义为瓶颈层与卷积核尺寸为3的卷积模块的复合操作;
在密集块内部的特征图尺寸一致的情况下,设计了Down Sampling和Up Sampling模块进行下采样和上采样;
不同阶梯通过下采样或上采样连接,同一阶梯的向下通路和向上通路之间使用跳跃连接相连;
构建相似度度量函数,基于所述函数实现对遥感图像的语义分割。
2.根据权利要求1所述的一种基于全卷积神经网络的遥感图像语义分割方法,其特征在于,
一个L层的密集块由L层密集层构成,第l层与前面的1,2,…,l-1层相连,其输出连接到后继的l+1,l+2,…,L-1,L层。
3.根据权利要求1所述的一种基于全卷积神经网络的遥感图像语义分割方法,其特征在于,
所述向下通路由Dense Block和Down Sampling两部分构成,Dense Block负责特征提取,Down Sampling负责下采样;
所述向上通路由Up Sampling和Bottleneck组成,Up Sampling将特征图逐步恢复为原始分辨率,Bottleneck对两个相邻阶梯的特征图进行整合。
4.根据权利要求1所述的一种基于全卷积神经网络的遥感图像语义分割方法,其特征在于,在跳跃连接中加入连续的瓶颈层来聚合密集块产生的不同层次的特征信息;最后的瓶颈层对所有的特征进一步整合并将特征图数量降到k个,并使用Softmax归一化的概率值作为预测结果。
6.一种基于全卷积神经网络的遥感图像语义分割装置,其特征在于,所述装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行权利要求1-5中的任一项所述的方法步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时使所述处理器执行权利要求1-5中的任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110625909.6A CN113326847B (zh) | 2021-06-04 | 2021-06-04 | 一种基于全卷积神经网络的遥感图像语义分割方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110625909.6A CN113326847B (zh) | 2021-06-04 | 2021-06-04 | 一种基于全卷积神经网络的遥感图像语义分割方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113326847A true CN113326847A (zh) | 2021-08-31 |
CN113326847B CN113326847B (zh) | 2023-07-14 |
Family
ID=77419709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110625909.6A Active CN113326847B (zh) | 2021-06-04 | 2021-06-04 | 一种基于全卷积神经网络的遥感图像语义分割方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113326847B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117710711A (zh) * | 2024-02-06 | 2024-03-15 | 东华理工大学南昌校区 | 一种基于轻量化深度卷积网络的光学和sar图像匹配方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190128989A1 (en) * | 2017-11-01 | 2019-05-02 | Siemens Healthcare Gmbh | Motion artifact reduction of magnetic resonance images with an adversarial trained network |
CN109948517A (zh) * | 2019-03-18 | 2019-06-28 | 长沙理工大学 | 一种基于密集全卷积网络的高分辨率遥感图像语义分割方法 |
CN110084817A (zh) * | 2019-03-21 | 2019-08-02 | 西安电子科技大学 | 基于深度学习的数字高程模型生产方法 |
CN110689544A (zh) * | 2019-09-06 | 2020-01-14 | 哈尔滨工程大学 | 一种遥感图像细弱目标分割方法 |
CN111127447A (zh) * | 2019-12-26 | 2020-05-08 | 河南工业大学 | 基于生成式对抗网络的血管分割网络及方法 |
CN112183360A (zh) * | 2020-09-29 | 2021-01-05 | 上海交通大学 | 高分辨率遥感影像的轻量化语义分割方法 |
CN112258526A (zh) * | 2020-10-30 | 2021-01-22 | 南京信息工程大学 | 一种基于对偶注意力机制的ct肾脏区域级联分割方法 |
CN112418176A (zh) * | 2020-12-09 | 2021-02-26 | 江西师范大学 | 一种基于金字塔池化多级特征融合网络的遥感图像语义分割方法 |
CN112508066A (zh) * | 2020-11-25 | 2021-03-16 | 四川大学 | 一种基于残差全卷积分割网络的高光谱图像分类方法 |
CN112560624A (zh) * | 2020-12-08 | 2021-03-26 | 中南大学 | 基于模型深度集成的高分遥感影像语义分割方法 |
CN112686903A (zh) * | 2020-12-07 | 2021-04-20 | 嘉兴职业技术学院 | 一种改进的高分辨率遥感图像语义分割模型 |
-
2021
- 2021-06-04 CN CN202110625909.6A patent/CN113326847B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190128989A1 (en) * | 2017-11-01 | 2019-05-02 | Siemens Healthcare Gmbh | Motion artifact reduction of magnetic resonance images with an adversarial trained network |
CN109948517A (zh) * | 2019-03-18 | 2019-06-28 | 长沙理工大学 | 一种基于密集全卷积网络的高分辨率遥感图像语义分割方法 |
CN110084817A (zh) * | 2019-03-21 | 2019-08-02 | 西安电子科技大学 | 基于深度学习的数字高程模型生产方法 |
CN110689544A (zh) * | 2019-09-06 | 2020-01-14 | 哈尔滨工程大学 | 一种遥感图像细弱目标分割方法 |
CN111127447A (zh) * | 2019-12-26 | 2020-05-08 | 河南工业大学 | 基于生成式对抗网络的血管分割网络及方法 |
CN112183360A (zh) * | 2020-09-29 | 2021-01-05 | 上海交通大学 | 高分辨率遥感影像的轻量化语义分割方法 |
CN112258526A (zh) * | 2020-10-30 | 2021-01-22 | 南京信息工程大学 | 一种基于对偶注意力机制的ct肾脏区域级联分割方法 |
CN112508066A (zh) * | 2020-11-25 | 2021-03-16 | 四川大学 | 一种基于残差全卷积分割网络的高光谱图像分类方法 |
CN112686903A (zh) * | 2020-12-07 | 2021-04-20 | 嘉兴职业技术学院 | 一种改进的高分辨率遥感图像语义分割模型 |
CN112560624A (zh) * | 2020-12-08 | 2021-03-26 | 中南大学 | 基于模型深度集成的高分遥感影像语义分割方法 |
CN112418176A (zh) * | 2020-12-09 | 2021-02-26 | 江西师范大学 | 一种基于金字塔池化多级特征融合网络的遥感图像语义分割方法 |
Non-Patent Citations (4)
Title |
---|
FOIVOS I.DIAKOGIANNIS等: ""ResUNet-a: a deep learning framework for semantic segmentation of remotely sensed data"", 《ARXIV》 * |
FOIVOS I.DIAKOGIANNIS等: ""ResUNet-a: a deep learning framework for semantic segmentation of remotely sensed data"", 《ARXIV》, 15 January 2020 (2020-01-15), pages 1 - 24 * |
林锦发: ""基于深度学习的遥感图像语义分割方法研究"", 《中国优秀硕士学位论文全文数据库工程科技II辑》 * |
林锦发: ""基于深度学习的遥感图像语义分割方法研究"", 《中国优秀硕士学位论文全文数据库工程科技II辑》, 15 February 2020 (2020-02-15), pages 18 - 42 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117710711A (zh) * | 2024-02-06 | 2024-03-15 | 东华理工大学南昌校区 | 一种基于轻量化深度卷积网络的光学和sar图像匹配方法 |
CN117710711B (zh) * | 2024-02-06 | 2024-05-10 | 东华理工大学南昌校区 | 一种基于轻量化深度卷积网络的光学和sar图像匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113326847B (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501415B2 (en) | Method and system for high-resolution image inpainting | |
CN108830280B (zh) | 一种基于区域提名的小目标检测方法 | |
CN113033570B (zh) | 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法 | |
CN108288270B (zh) | 一种基于通道修剪与全卷积深度学习的目标检测方法 | |
CN111476719B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN107729809B (zh) | 一种自适应生成视频摘要的方法、装置及其可读存储介质 | |
CN110826596A (zh) | 一种基于多尺度可变形卷积的语义分割方法 | |
CN112529146B (zh) | 神经网络模型训练的方法和装置 | |
CN112699937A (zh) | 基于特征引导网络的图像分类与分割的装置、方法、设备及介质 | |
CN111860398A (zh) | 遥感图像目标检测方法、系统及终端设备 | |
CN110633640A (zh) | 优化PointNet对于复杂场景的识别方法 | |
WO2023277974A1 (en) | Systems and methods of hierarchical implicit representation in octree for 3d modeling | |
CN116863194A (zh) | 一种足溃疡图像分类方法、系统、设备及介质 | |
CN115410030A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
Kaul et al. | Focusnet++: Attentive aggregated transformations for efficient and accurate medical image segmentation | |
CN113326847A (zh) | 一种基于全卷积神经网络的遥感图像语义分割方法及装置 | |
CN114241388A (zh) | 基于时空记忆信息的视频实例分割方法和分割装置 | |
CN113963272A (zh) | 一种基于改进yolov3的无人机图像目标检测方法 | |
CN113033448A (zh) | 一种基于多尺度卷积和注意力的遥感影像去云残差神经网络系统、方法、设备及存储介质 | |
CN112132207A (zh) | 基于多分支特征映射目标检测神经网络构建方法 | |
CN116385281A (zh) | 一种基于真实噪声模型与生成对抗网络的遥感图像去噪方法 | |
CN116091792A (zh) | 视觉注意力预测模型的构建方法、系统、终端及介质 | |
CN115860802A (zh) | 产品价值预测方法、装置、计算机设备和存储介质 | |
CN113378722B (zh) | 基于3d卷积和多级语义信息融合的行为识别方法及系统 | |
CN112001479B (zh) | 基于深度学习模型的处理方法、系统及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |