CN111401373B - 基于分组非对称卷积的高效语义分割方法 - Google Patents
基于分组非对称卷积的高效语义分割方法 Download PDFInfo
- Publication number
- CN111401373B CN111401373B CN202010141909.4A CN202010141909A CN111401373B CN 111401373 B CN111401373 B CN 111401373B CN 202010141909 A CN202010141909 A CN 202010141909A CN 111401373 B CN111401373 B CN 111401373B
- Authority
- CN
- China
- Prior art keywords
- convolution
- group
- semantic segmentation
- asymmetric
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000005070 sampling Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 9
- 230000006798 recombination Effects 0.000 claims description 7
- 238000005215 recombination Methods 0.000 claims description 7
- 238000004040 coloring Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 8
- 238000012545 processing Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000010339 dilation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明设计了一种基于分组非对称卷积的高效语义分割方法,该方法采用pytorch框架构建网络。该方法以分组非对称卷积瓶颈层作为主要模块,辅以下采样模块和反卷积模块等模块,搭建编码器和解码器结构,进而构建了一个高效的语义分割网络。相比于同类方法,本发明改进了瓶颈层的结构,提出了一种新的设计方案,通过分组非对称卷积的方式减少了瓶颈层的参数量,提高了瓶颈层的运算效率,进而提高了网络的推理速度,同时通过分组级联的方式赋予瓶颈层获取多尺度信息的能力。
Description
技术领域
本发明可以应用于图像语义分割领域,以pytorch作为卷积神经网络的搭建框架,构建编解码器结构以实现对图像的语义信息分割。
背景技术
图像分割技术一直以来都是图像处理领域的研究热点,传统的图像分割算法只能简单的分割出图像的前景和背景,却无法得知前景所蕴含的语义信息,这给后期应用带来了许多不便。
随着深度学习的兴起,卷积神经网络开始在图像处理领域广泛应用并取得了不错的成果。卷积神经网络具有非常强的特征提取能力,特别适合于做分类和分割任务,于是这就为图像语义分割技术的发展带来了契机。
目前基于深度学习的语义分割方法主要可以分为两种,一种是以FCN为代表的采用编解码器结构的语义分割网络,使用长连接即跨越几个甚至十几个卷积层的连接来做多尺度特征融合,然后采用反卷积的方式得到最终结果,另一种是以RefineNet为代表的使用多路径做多尺度特征融合的语义分割网络,然后通过插值得到最终结果输出。以上这两类网络在语义分割任务上均可取得不错的精度,但是由于这两类网络采用均resnet101作为模型的瓶颈层,模型参数量庞大,运行速度非常缓慢,处理一帧图像需要十几秒,这就给实际应用带来了困难。
综上所述,目前语义分割网络存在网络模型冗余,瓶颈层参数量过大,多尺度特征获取效率不高等问题。如何在尽量少损失精度的前提下,尽可能的减少网络的参数量,提高多尺度特征的获取效率是解决上述问题的关键。
发明内容
鉴于现有方法存在的问题和缺陷,本发明提供了一种基于分组非对称卷积的语义分割方法,可以有效的解决该问题。该方法的关键在于构建一种新型高效的瓶颈层,该瓶颈层在保证卷积可以有效获得图像特征的同时,还提高了瓶颈层运算的速度,减少了卷积核的参数,缩小了模型的体积。
本发明的技术方案为一种基于分组非对称卷积的高效语义分割方法,包括如下步骤:
步骤1,构建语义分割网络,由编码器和解码器两大部分组成,其中编码器部分用于提取图像的多尺度特征信息,包含m个下采样模块和n个分组非对称卷积瓶颈层,编码器最终输出的特征图分辨率为原始输入分辨率的解码器部分包含m个反卷积模块和l个分组非对称卷积瓶颈层,用于解析编码器的输出结果,并将输出特征图放大至与原始输入分辨率一致;
所述下采样模块由两个分支组成,一个分支完成最大池化操作,另一个分支完成卷积操作,接着将两个结果拼接,最后通过重组操作整合两个分支的信息得到最后的输出;
所述分组非对称卷积瓶颈层ga-bottleneck采用分组卷积和非对称卷积来优化瓶颈层的参数量,首先将瓶颈层的输入划分为四个具有相同通道数的卷积组,其中第一组用于获取输入的原始特征信息,第二组、第三组和第四组的卷积输入,分别为原始输入与上一组的输出的叠加入;每个卷积组之间通过级联方式进行信息沟通,然后将每个组的输出结果拼接后,通过重组操作整合各个组的信息,得到最终的输出结果;
反卷积模块采用2×2大小的卷积核,步幅为2的卷积方式,扩大输入特征图分辨率,减少输出通道;
步骤2,使用数据集训练语义分割网络得到相应的网络模型权重;
步骤3,将需要处理的图像数据做归一化处理,转化为用于计算的张量数据,输入到训练好的网络模型中,得到预测的标签;
步骤4,根据预测的标签对网络输出的特征图进行上色,进而得到分割后图像。
进一步的,步骤2中训练时使用交叉熵作为损失函数,如式1.1所示;
进一步的,m的取值为3,n的取值为13,l的取值为4。
进一步的,分组非对称卷积瓶颈层中的第二组、第三组、第四组所采用的卷积方式均为3×1和1×3的非对称卷积。
进一步的,编码器提取多尺度特征信息包含三个阶段,第一阶段由下采样模块和连续三个ga-bottleneck构成,将输入图像的分辨率减少一半,并加深其通道数,在保留输入图像的全局特征同时为提取图像的深层次特征做准备;
第二阶段由下采样模块和连续两个ga-bottleneck构成,将上一阶段的特征图分辨率再减半,同时翻倍输出通道数;
第三阶段由下采样模块和连续八个不同扩张率的ga-bottleneck构成,提取图像的多尺度特征用于区分每个像素的类别。
进一步的,第三阶段中ga-bottleneck的扩张率d取值分别为1、1、1、2、2、2、4、4。
本发明是一种应用于图像语义分割的方法,与现有的技术相比具有以下优点:
(1)本发明针对基于残差结构的瓶颈层的参数量过大问题,设计了一种高效的分组非对称卷积瓶颈层,使得瓶颈层的参数量下降了8倍,提高了瓶颈层的运算效率。
(2)本发明针对瓶颈层不具备获取多尺度特征信息能力的问题,设计了一种级联分组卷积的方式,通过扩张率大小来控制瓶颈层的卷积视野,给与瓶颈层获取多尺度特征信息的能力,同时分组卷积的方式也提高了多尺度特征获取的效率。
(3)本发明针对下采样层输出特征图通道之间没有信息交互的问题,设计了一种带重组(shuffle)操作的下采样层,通过重组操作增加通道间的信息交流已适应后续瓶颈层的分组操作,减少特征信息丢失。
附图说明
图1为本发明的总体流程图。
图2为本发明的整体网络模型结构。
图3为本发明的下采样模块设计方式。
图4为本发明的分组非对称卷积瓶颈层设计方式(d为扩张率大小)。
图5为本发明的图像分割结果,其中(上)为原始输入图像,(中)为标签图像,(下)为分割结果。
具体实施方式
下面将结合实例和附图,详述具体的图像语义分割流程。
如图1所示,本发明提供一种基于分组非对称卷积的高效语义分割方法,通过该方法构建的语义分割网络主要由编码器和解码器两大部分组成,包括分组非对称卷积瓶颈层、下采样模块和反卷积模块。
如图3所示,下采样模块(downsample block)由两个分支组成,一个分支完成最大池化操作,另一个分支完成卷积操作,接着将两个结果拼接,最后通过重组(shuffle)操作整合两个分支的信息得到最后的输入。
如图4所示,分组非对称卷积瓶颈层(ga-bottleneck,group asymmetricbottleneck)采用分组卷积和非对称卷积来优化瓶颈层的参数量,首先将瓶颈层的输入划分为四个具有相同通道数的卷积组,每个卷积组之间通过级联方式进行信息沟通。然后将每个组的输出结果拼接后,通过重组(shuffle)操作整合各个组的信息,得到最终的输出结果。第一组用于获取输入的原始特征信息,第二组卷积的输入为原始输入与上一组输出的叠加结果,依次类推可以得到第三组和第四组的卷积输入,即除第一组外,每组的原始输入与上一组的输出叠加构成该组的卷积输入。其中第一组由于直接获取特征信息故其输出等于输入不做卷积运算操作,第二组、第三组、第四组所采用的卷积方式均为3×1和1×3的非对称卷积,等效于3×3的卷积但参数量会下降约33%。此外,第四组卷积还引入了扩张率以提高该组的视野。由于采用级联的方式做信息沟通,第一组的特征为原始输入特征,第二组卷积的感受视野为3×3,第三组卷积的感受视野为5×5,第四组卷积由于带有一定的扩张率其感受视野大于或等于7×7。在相同条件下,以卷积核大小为3,输入通道和输出通道数分别为M和N为例,采用残差结构的瓶颈层的参数量约为3×3×M×N,采用本发明所设计的瓶颈层的参数量为相比于残差结构采用该方法设计的瓶颈层参数量下降了约8倍。故使用本发明设计的瓶颈层构建网络不仅可以减少模型的参数量,还可以高效地获取多尺度特征信息。
反卷积模块(deconvolution)采用2×2大小的卷积核,步幅为2的卷积方式,扩大输入特征图分辨率,减少输出通道。
编码器(encoder)和解码器(decoder)部分在基于上述模块的基础上构建。其中编码器部分包含3个下采样模块和13个分组非对称卷积瓶颈层,编码器最终输出特征图分辨率为输入分辨率的解码器部分包含3个反卷积模块和4个分组非对称卷积瓶颈层,用于解析编码器的输出结果,并将输出特征图放大至与原始输入分辨率一致。
该方法的步骤是首先使用数据集训练网络得到相应的网络模型权重,接着加载此模型权重构建已训练的网络模型,然后将需要处理的图像数据做归一化处理转化为可以用于计算的张量数据,该张量数据在编码器层被网络提取为包含多尺度信息的复杂特征图,接着该复杂特征图进入解码器层被网络解析为相应的标签预测信息并且将特征图的分辨率通过双线性插值方法扩大至与输入图像的分辨率大小一致,最后根据预测的标签对网络输出的特征图进行上色,进而得到分割后图像。
下面以512×1024×3的图像作为训练和测试图像,主要步骤包括:
1)训练网络模型
首先将cityscapes数据集的图像大小重新调整为1024×512×3,然后把调整后的图像转化为pytorch框架可以处理的张量数据,并对其每个像素做归一化处理。训练的batch size为6,全部训练数据迭代的次数为1000次,得到训练完成的网络模型权重。训练时使用交叉熵作为损失函数如式1.1所示。
2)编码器提取多尺度特征信息
第一阶段由下采样模块和连续三个ga-bottleneck构成,将输入图像的分辨率减少一半,并加深其通道数,在保留输入图像的全局特征同时为提取图像的深层次特征做准备。
第二阶段由下采样模块和连续两个ga-bottleneck构成,将上一阶段的特征图分辨率再减半,同时翻倍输出通道数,此时输出特征图大小为256×128×64。
第三阶段由下采样模块和连续八个不同扩张率的ga-bottleneck构成,这一阶段主要负责提取图像的多尺度特征用于区分每个像素的类别,最后输出的特征图的大小为128×64×128。扩张率的大小决定了ga-bottleneck的卷积视野,实验中发现扩张率d取值分别为1、1、1、2、2、2、4、4的情况下可使网络的性能达到最优,编码器的具体结构如图2的encoder部分所示。
3)解码器解析多尺度特征
解码器部分包括三个反卷积层和四个ga-bottleneck(反卷积层-2个ga-bottleneck-反卷积层-ga-bottleneck-反卷积层),其中反卷积层用于恢复特征图尺寸,ga-bottleneck用于解析特征图得到多尺度信息以得到各个像素点的概率分布向量,从而实现像素分类,解码器的具体结构如图2的decoder部分所示。
4)特征图上色
各个像素的概率分布向量中的最大值代表该像素所属的类别,每个类别由不同的颜色表示,最后根据像素所属的类别对其进行上色就可以得到语义分割结果,最终分割结果如图5所示。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (6)
1.基于分组非对称卷积的高效语义分割方法,其特征在于,包括如下步骤:
步骤1,构建语义分割网络,由编码器和解码器两大部分组成,其中编码器部分用于提取图像的多尺度特征信息,包含m个下采样模块和n个分组非对称卷积瓶颈层,编码器最终输出的特征图分辨率为原始输入分辨率的解码器部分包含m个反卷积模块和l个分组非对称卷积瓶颈层,用于解析编码器的输出结果,并将输出特征图放大至与原始输入分辨率一致;
所述下采样模块由两个分支组成,一个分支完成最大池化操作,另一个分支完成卷积操作,接着将两个结果拼接,最后通过重组操作整合两个分支的信息得到最后的输出;
所述分组非对称卷积瓶颈层ga-bottleneck采用分组卷积和非对称卷积来优化瓶颈层的参数量,首先将瓶颈层的输入划分为四个具有相同通道数的卷积组,其中第一组用于获取输入的原始特征信息,第二组、第三组和第四组的卷积输入,分别为原始输入与上一组的输出的叠加入;每个卷积组之间通过级联方式进行信息沟通,然后将每个组的输出结果拼接后,通过重组操作整合各个组的信息,得到最终的输出结果;
反卷积模块采用2×2大小的卷积核,步幅为2的卷积方式,扩大输入特征图分辨率,减少输出通道;
步骤2,使用数据集训练语义分割网络得到相应的网络模型权重;
步骤3,将需要处理的图像数据做归一化处理,转化为用于计算的张量数据,输入到训练好的网络模型中,得到预测的标签;
步骤4,根据预测的标签对网络输出的特征图进行上色,进而得到分割后图像。
3.如权利要求1所述的基于分组非对称卷积的高效语义分割方法,其特征在于:m的取值为3,n的取值为13,l的取值为4。
4.如权利要求1所述的基于分组非对称卷积的高效语义分割方法,其特征在于:分组非对称卷积瓶颈层中的第二组、第三组、第四组所采用的卷积方式均为3×1和1×3的非对称卷积。
5.如权利要求1所述的基于分组非对称卷积的高效语义分割方法,其特征在于:编码器提取多尺度特征信息包含三个阶段,第一阶段由下采样模块和连续三个ga-bottleneck构成,将输入图像的分辨率减少一半,并加深其通道数,在保留输入图像的全局特征同时为提取图像的深层次特征做准备;
第二阶段由下采样模块和连续两个ga-bottleneck构成,将上一阶段的特征图分辨率再减半,同时翻倍输出通道数;
第三阶段由下采样模块和连续八个不同扩张率的ga-bottleneck构成,提取图像的多尺度特征用于区分每个像素的类别。
6.如权利要求5所述的基于分组非对称卷积的高效语义分割方法,其特征在于:第三阶段中ga-bottleneck的扩张率d取值分别为1、1、1、2、2、2、4、4。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010141909.4A CN111401373B (zh) | 2020-03-04 | 2020-03-04 | 基于分组非对称卷积的高效语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010141909.4A CN111401373B (zh) | 2020-03-04 | 2020-03-04 | 基于分组非对称卷积的高效语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111401373A CN111401373A (zh) | 2020-07-10 |
CN111401373B true CN111401373B (zh) | 2022-02-15 |
Family
ID=71434465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010141909.4A Expired - Fee Related CN111401373B (zh) | 2020-03-04 | 2020-03-04 | 基于分组非对称卷积的高效语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111401373B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085162B (zh) * | 2020-08-12 | 2024-02-09 | 北京师范大学 | 基于神经网络的磁共振脑组织分割方法、装置、计算设备及存储介质 |
CN112149526B (zh) * | 2020-09-07 | 2023-11-28 | 中国科学院声学研究所南海研究站 | 一种基于长距离信息融合的车道线检测方法及系统 |
CN112702599B (zh) * | 2020-12-24 | 2022-05-20 | 重庆理工大学 | 一种基于深度学习的vvc帧内快速编码方法 |
CN115082703B (zh) * | 2022-07-19 | 2022-11-11 | 深圳大学 | 概念关联颜色提取方法、装置、计算机设备和存储介质 |
CN117058507B (zh) * | 2023-08-17 | 2024-03-19 | 浙江航天润博测控技术有限公司 | 基于傅里叶卷积可见光和红外图像多尺度特征融合方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447990A (zh) * | 2018-10-22 | 2019-03-08 | 北京旷视科技有限公司 | 图像语义分割方法、装置、电子设备和计算机可读介质 |
CN110348487A (zh) * | 2019-06-13 | 2019-10-18 | 武汉大学 | 一种基于深度学习的高光谱图像压缩方法及装置 |
CN110414498A (zh) * | 2019-06-14 | 2019-11-05 | 华南理工大学 | 一种基于交叉注意力机制的自然场景文本识别方法 |
CN110475505A (zh) * | 2017-01-27 | 2019-11-19 | 阿特瑞斯公司 | 利用全卷积网络的自动分割 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11057446B2 (en) * | 2015-05-14 | 2021-07-06 | Bright Data Ltd. | System and method for streaming content from multiple servers |
US10176388B1 (en) * | 2016-11-14 | 2019-01-08 | Zoox, Inc. | Spatial and temporal information for semantic segmentation |
-
2020
- 2020-03-04 CN CN202010141909.4A patent/CN111401373B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110475505A (zh) * | 2017-01-27 | 2019-11-19 | 阿特瑞斯公司 | 利用全卷积网络的自动分割 |
CN109447990A (zh) * | 2018-10-22 | 2019-03-08 | 北京旷视科技有限公司 | 图像语义分割方法、装置、电子设备和计算机可读介质 |
CN110348487A (zh) * | 2019-06-13 | 2019-10-18 | 武汉大学 | 一种基于深度学习的高光谱图像压缩方法及装置 |
CN110414498A (zh) * | 2019-06-14 | 2019-11-05 | 华南理工大学 | 一种基于交叉注意力机制的自然场景文本识别方法 |
Non-Patent Citations (3)
Title |
---|
DABNet: Depth-wise Asymmetric Bottleneck for Real-time Semantic Segmentation;Gen Li 等;《arXiv》;20190731;第1-12页 * |
LEDNET: A LIGHTWEIGHT ENCODER-DECODER NETWORK FOR REAL-TIME SEMANTIC SEGMENTATION;Yu Wang 等;《arXiv》;20190531;第1-5页 * |
基于全卷积神经网络的非对称并行语义分割模型;李宝奇 等;《电子学报》;20190531;第1058-1064页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111401373A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111401373B (zh) | 基于分组非对称卷积的高效语义分割方法 | |
CN115049936B (zh) | 一种面向高分遥感影像的边界增强型语义分割方法 | |
CN108921786B (zh) | 基于残差卷积神经网络的图像超分辨率重构方法 | |
CN107480707B (zh) | 一种基于信息无损池化的深度神经网络方法 | |
CN111091130A (zh) | 基于轻量级卷积神经网络的实时图像语义分割方法及系统 | |
CN111340814A (zh) | 一种基于多模态自适应卷积的rgb-d图像语义分割方法 | |
CN111696110B (zh) | 场景分割方法及系统 | |
CN110569851B (zh) | 门控多层融合的实时语义分割方法 | |
CN110909801A (zh) | 基于卷积神经网络的数据分类方法、系统、介质及设备 | |
CN113706545A (zh) | 一种基于双分支神经判别降维的半监督图像分割方法 | |
CN113628201A (zh) | 基于深度学习的病理切片分析方法、电子设备及可读存储介质 | |
CN113240683A (zh) | 基于注意力机制的轻量化语义分割模型构建方法 | |
CN116542991A (zh) | 一种用于裂缝图像分割的网络架构及其训练方法和分割方法 | |
CN110264483B (zh) | 一种基于深度学习的语义图像分割方法 | |
CN112085655A (zh) | 一种基于密集残差注意面部先验网络的人脸超分辨率方法 | |
CN117152438A (zh) | 一种基于改进DeepLabV3+网络的轻量级街景图像语义分割方法 | |
CN114996495A (zh) | 一种基于多原型和迭代增强的单样本图像分割方法及装置 | |
CN117114994B (zh) | 基于层次特征融合的矿井图像超分辨率重建方法及系统 | |
CN113888505A (zh) | 一种基于语义分割的自然场景文本检测方法 | |
CN113436198A (zh) | 一种协同图像超分辨率重建的遥感图像语义分割方法 | |
CN117237641A (zh) | 一种基于双分支特征融合网络的息肉分割方法及系统 | |
CN111461169A (zh) | 基于正反卷积和多层分支深度网络的行人属性识别方法 | |
CN111126451A (zh) | 一种对偶式语义分割方法 | |
CN113297899B (zh) | 一种基于深度学习的视频哈希算法 | |
CN114332103A (zh) | 一种基于改进FastFCN的图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220215 |
|
CF01 | Termination of patent right due to non-payment of annual fee |