CN110298843A - 基于改进DeepLab的二维图像部件分割方法及应用 - Google Patents
基于改进DeepLab的二维图像部件分割方法及应用 Download PDFInfo
- Publication number
- CN110298843A CN110298843A CN201910414473.9A CN201910414473A CN110298843A CN 110298843 A CN110298843 A CN 110298843A CN 201910414473 A CN201910414473 A CN 201910414473A CN 110298843 A CN110298843 A CN 110298843A
- Authority
- CN
- China
- Prior art keywords
- layer
- deeplab
- dimensional image
- improving
- dividing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于改进DeepLab的二维图像部件分割方法及应用,所述方法通过一改进DeepLab网络对获取的二维图像进行部件分割,所述改进DeepLab网络包括编码器和跳跃式解码器,所述编码器包括多卷积层单元和多尺度自适应形态特征提取单元,所述多尺度自适应形态特征提取单元与多卷积层单元的输出端连接,所述跳跃式解码器同时获取深层特征和浅层特征,所述浅层特征由多卷积层单元的中间层获取。与现有技术相比,本发明具有适应性强、分割结构边缘清晰等优点。
Description
技术领域
本发明涉及一种图像处理,尤其是涉及一种基于改进DeepLab的二维图像部件分割方法及应用。
背景技术
二维图像的部件分割在自动驾驶、医学图像处理、无人机应用、航空航天技术等方面拥有良好的应用前景。与根据图中物体类别进行像素标注的语义分割不同,部件分割是将属于某一物体的像素点进一步分割为该物体的不同组成部件。
在图像语义分割研究中,具有强大特征学习能力的卷积神经网络(ConvolutionalNeural Network,CNN)的出现,极大地推动其发展,实践证明卷积神经网络较传统方法更适合于图像特征的学习与表达。
DeepLab算法是现阶段精度比较高的语义分割算法之一,但直接利用DeepLab网络进行物体部件分割并不能获得很好的分割效果(整体结构如图1所示),主要原因有以下三点:首先,DeepLab网络结构更注重全局信息的获取(如图1中ASPP模块中带孔卷积的空洞率选择6、12、18、24等比较大的值),以正确对物体进行分类;而物体部件分割网络需更关注局部细节,以获得更精确的分割边界。其次,DeepLab网络中每层卷积核的形状固定、大小固定、下采样因子固定,所以网络同一层中所有激活单元的感受野形状和大小是固定的,只能提取固定形状(正方形)的特征,限制了网络处理物体或物体部件的形状、姿态、观察视角等发生变化的能力。最后,DeepLab算法直接使用双线性插值在ASPP模块的输出特征图上进行上采样,获得与输入图像同分辨率的输出。解码过程中只利用了最后一层的卷积特征,底层细节特征丢失较多;且双线性插值直接利用目标点周围四个(上下左右)像素值通过固定公式计算,得到待插入的值,不具有学习的能力。
目前,基于卷积神经网络的部件分割算法多数是针对人体分割进行设计的,在语义分割网络的基础上,借助人体姿势信息或部件检测框提升分割精度,但是网络框架复杂,迁移性差。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于改进DeepLab的二维图像部件分割方法及应用。
本发明的目的可以通过以下技术方案来实现:
一种基于改进DeepLab的二维图像部件分割方法,该方法通过一改进DeepLab网络对获取的二维图像进行部件分割,所述改进DeepLab网络包括编码器和跳跃式解码器,所述编码器包括多卷积层单元和多尺度自适应形态特征提取单元,所述多尺度自适应形态特征提取单元与多卷积层单元的输出端连接,所述跳跃式解码器同时获取深层特征和浅层特征,所述浅层特征由多卷积层单元的中间层获取。
进一步地,所述多卷积层单元基于ResNet101分类网络实现,由多个依次连接的标准卷积层组成。
进一步地,所述多卷积层单元中,最后一个卷积模块的输出特征分辨率及输出步长与前一个卷积模块相同。
进一步地,所述多尺度自适应形态特征提取单元包括1×1卷积层、多个可形变卷积层和合并层,所述1×1卷积层和多个可形变卷积层级联,并分别与合并层连接,所述可形变卷积层和合并层后设置有激励函数。
进一步地,所述多个可形变卷积层采用不同空洞率。
进一步地,所述激励函数为ReLU函数。
进一步地,所述跳跃式解码器包括可形变卷积层、转置卷积层、合并层和输出卷积层,所述可变卷积层的输入端与多卷积层单元的中间层连接,输出端与合并层连接,所述转置卷积层的输入端获取深层特征,输出端也与合并层连接,所述合并层与输出卷积层连接。
进一步地,所述多卷积层单元的中间层为第二卷积模块或第三卷积模块的输出层。
进一步地,所述跳跃式解码器可有多个,各跳跃式解码器与多卷积层单元的不同中间层连接。
本发明还提供一种所述的基于改进DeepLab的二维图像部件分割方法在汽车图像中的应用。
与现有技术相比,本发明具有以如下有益效果:
(1)本发明采用的ResNet101-PS网络去除了ResNet101分类网络的全连接层,确保网络输出的空间维度。
(2)多尺度自适应形态特征提取模块的加入,解决了DeepLab对局部信息关注过少以及标准卷积对物体形变适应性差的问题,增强模型对不同形变的处理能力;同时使用不同空洞率的可形变卷积先级联,再并行相加的采样模式对特征进行采样,逐层扩大了感受野,进一步减少了局部信息的丢失;通过对不同层可形变卷积空洞率的设计,能够同时兼顾全局信息以及局部细节。
(3)多尺度自适应形态特征提取模块中,在每个可形变卷积后面设置有ReLU激励函数,增强模块的非线性因素,提高模块对复杂的图像特征学习能力。
(4)利用基于跳跃式架构的解码器模块连接来自深层的语义信息和来自浅层的表征信息,解决了DeepLab解码过程未利用底层细节特征,输出边缘较为粗糙的问题。
(5)本发明在上采样的过程中减少高层特征的通道数,使其与浅层特征通道数相同,减少计算量,且不会损害浅层特征中有用的信息。
(6)本发明提出的部件分割模型不需要借助额外的信息或操作提升分割精度,具有较好的泛化性能。
附图说明
图1为DeepLab整体结构框图;
图2为基于DeepLab的部件分割网络整体架构;
图3为ResNet101-PS网络结构;
图4为MAFE模块结构图;
图5为DSC模块示意图;
图6为汽车部件分割样本示例,其中,(6a)为原图,(6b)分割标记图像;
图7为融合不同浅层信息网络示意图,其中,(7a)为只融合Conv2_x的输出特征,(7b)为只融合Conv3_x的输出特征,(7c)为同时融合Conv2_x和Conv3_x的输出特征;
图8为PASCAL-Vehicle-Part数据集分割效果图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明提供一种基于改进DeepLab的二维图像部件分割方法,该方法通过一改进DeepLab网络对获取的二维图像进行部件分割,所述改进DeepLab网络采用编码器-解码器的语义分割架构,如图2所示,包括编码器和跳跃式解码器(Decoder based on SkipConnection,DSC),所述编码器包括多卷积层单元和多尺度自适应形态特征提取(Multi-scale Adaptive-pattern Feature Extraction,MAFE)单元,所述多尺度自适应形态特征提取单元与多卷积层单元的输出端连接,所述跳跃式解码器同时获取深层特征和浅层特征,所述浅层特征由多卷积层单元的中间层获取,深层特征可以是多尺度自适应形态特征提取单元的输出,在设置有多个跳跃式解码器时,深层特征可以也可以是其它跳跃式解码器的输出。多卷积层单元的中间层为浅层特征输出层,如第二卷积模块或第三卷积模块的输出层。
多卷积层单元基于ResNet101分类网络实现,由多个依次连接的标准卷积层组成,称为ResNet101-PS(Part Segmentation)基网络,其结构如图3所示。所述多卷积层单元中,最后一个卷积模块的输出特征分辨率及输出步长与前一个相同(输出步长output stride:输入图片与输出特征图在空间分辨率的比值)。ResNet101-PS网络去除了ResNet101分类网络的全连接层,确保网络输出的空间维度。
本实施例中,为了在获取更稠密的特征图的同时不降低感受野,设置Conv5_1残差块中的3×3卷积核的步长为1,并将Conv5_x模块中3×3卷积的空洞率变为2。经过上述调整后Conv5_x模块输出特征的分辨率与Conv4_x模块相同,输出步长为16。
如图4所示,多尺度自适应形态特征提取单元包括1×1卷积层、多个可形变卷积层和合并层(concat层),所述1×1卷积层和多个可形变卷积层级联,并分别与合并层连接,所述可形变卷积层和合并层后设置有激励函数。多尺度自适应形态特征提取单元基于可形变卷积、卷积层的级联、小空洞率带孔卷积等思想实现,增强对不同形变的处理能力。本实施例中,所述激励函数为ReLU函数。
多个可形变卷积层可采用不同空洞率先级联,再并行相加的采样模式对编码器的输出特征进行采样。
本实施例中,MAFE单元的输入为ResNet101-PS网络最后输出的2048维特征(图3中Conv5_x卷积模块的输出),先利用1×1卷积核对输入特征进行降维,然后级联3个不同空洞率的可形变卷积,来逐步捕获物体组成部件不同大小与形状的信息,最后对每层可形变卷积的输出进行连接。
因为不同层级的输出特征具有一定的差异性,只通过简单的叠加操作进行特征融合对优化分割结果的影响较小。因此,本发明设计一个基于跳跃式连接的解码器(DSC),对深层信息和浅层信息分别处理后再进行融合。跳跃式解码器的结构如图5所示,包括可变卷积层、转置卷积层、合并层(concat层)和输出卷积层,所述可变卷积层的输入端与多卷积层单元的中间层连接,输出端与合并层连接,所述转置卷积层的输入端获取深层特征,输出端也与合并层连接,所述合并层与输出卷积层连接。转置卷积层可对更抽象、语义更强的深层特征图进行上采样,以结合浅层输出的高分辨率特征。由于深层特征的通道数比浅层特征更多,直接将两者进行连接不仅会增大计算量,一定程度上也会损害浅层特征中有用的信息,为了避免这种情况,本发明在上采样的过程中减少高层特征的通道数,使其与浅层特征通道数相同。同时还利用可形变卷积的自调整特性对编码器中的浅层特征进行处理,以获得符合物体部件大小与形状的细节信息,之后将两者合并。最后,用输出卷积层对合并后的特征图进行卷积操作,细化这些特征,进行后续上采样操作。本实施例中输出卷积层为3×3卷积+转置卷积。因为解码器中只包括标准卷积、可形变卷积、转置卷积以及连接操作,因此可以进行反向传播训练。
跳跃式解码器可以设有多个,各跳跃式解码器与多卷积层单元的不同中间层连接。
本实施例还提供一种所述的基于改进DeepLab的二维图像部件分割方法在汽车图像中的应用。
(1)训练数据与参数设置
本实施例采用MXNet深度学习框架进行网络训练与测试。
鉴于数据集的通用性,选用PASCAL-Part数据集中汽车类(包括小轿车、公交巴士、跑车等)的图片对部件分割网格进行训练与测试。每辆车都按照9个组成部分,分别是前面、侧面、后面、顶部、车灯、后视镜、车门、车窗、车轮进行分割标记,其余物体都被归为背景,图6为原图与标记图像示例。
ResNet101-PS的卷积层采用初始ResNet分类网络在ImageNet训练得到的参数进行初始化,对于新加入的卷积层的权值初始化均值为0,标准差为0.01的正态分布,对于偏置则直接初始化为0。同时按照ImageNet的图像标准,将输入样本RGB三通道分别减去123、117、104,并做归一化处理,将输入x(范围在0到255之间)归一化为(x-128)/160,以加快训练速度。在训练过程中,数据层对输入图片进行了镜像处理,以增强数据集。
训练中采取了带动量的随机梯度下降算法并以随机顺序选择图片进入batch,batch_size=2,激活函数采取ReLU函数,损失函数采取Softmax交叉熵损失函数。采用step策略确定学习率。本发明一共训练15Epoch,在训练开始时,学习率为0.001,训练到第10个Epoch时,学习率下降变为10-4。
(2)实验对比与分析
根据前面的介绍,级联不同空洞率的可形变卷积能够获得不同尺度的特征。为了比较不同尺度特征融合对分割精度的影响,本发明对MAFE模块中三个可形变卷积的空洞率做了不同的改变,实验结果如表1所示。将模型记为DeepLab-MAFE-XXX,其中XXX分别为三个可形变卷积的空洞率,如DeepLab-MAFE-111表示三个可形变卷积的空洞率均为1。
表1级联不同空洞率的可形变卷积对部件分割的影响
模型名称 | 对应的感受野 | PA(%) | MIoU(%) |
DeepLab-MAFE-111 | (3、5、7) | 83.76 | 60.19 |
DeepLab-MAFE-112 | (3、5、9) | 83.62 | 59.84 |
DeepLab-MAFE-121 | (3、7、9) | 83.62 | 60.03 |
DeepLab-MAFE-123 | (3、7、15) | 83.38 | 59.31 |
DeepLab-MAFE-131 | (3、9、11) | 83.78 | 59.92 |
从实验结果可以看出,当MAFE模块中三个可形变卷积的空洞率均为1,MAFE模块的作用效果最好;而当模块中可形变卷积的空洞率分别为1、2、3时,模块的作用效果最差。这间接证明了对于部件分割网络,相较于大感受野的全局特征,利用小感受野的局部特征更有利于提高分割精度
如何选择融合浅层信息也是需要重点关注的问题。考虑到编码器中Conv4_x、Conv5_x模块输出特征的分辨率较低,且包含信息多为语义信息;而Conv1输出的特征虽然具有较多的局部细节,但是感受野范围过小,所以本实施例分别对只融合编码器中Conv2_x模块输出特征的解码器(网络结构如图(7a)),只融合编码器中Conv3_x模块输出特征的解码器(网络结构如图(7b)),以及同时融合Conv2_x、Conv3_x模块输出特征的解码器(网络结构如图(7c))进行测试,实验结果如表2所示。将模型记为DeepLab-DSC(X),其中括号中X表示待融合的浅层信息为编码器中Conv_x模块的输出特征图。
表2融合不同浅层信息的解码器性能比较
模型名称 | 测试时间(s) | PA(%) | MIoU(%) |
DeepLab-DSC(2) | 0.089 | 84.46 | 60.98 |
DeepLab-DSC(3) | 0.090 | 84.33 | 60.84 |
DeepLab-DSC(2/3) | 0.163 | 84.53 | 61.06 |
分析实验数据可发现解码过程中只结合Conv3_x模块的输出特征对分割精度的提升不如只结合Conv2_x模块特征的效果明显。而同时结合编码器中Conv2_x、Conv3_x模块输出特征的网络性能,同只结合Conv2_x特征的网络相比,性能没有明显的提升(MIoU只提升了0.08%),但是网络的结构复杂,参数多,导致测试速度大幅下降,每张图片的处理时间约为0.163s。因此,在综合耗时、精度以及显存资源等因素后,可以选择只融合Conv2_x模块输出特征的解码器。
在PASCAL-Vehicle-Part数据的测试集上,得到的MIoU为60.98%,PA为84.46%,与DeepLab v3+比较,平均交并比MIoU提升3.67%,像素精度PA提升了4.56%。表3为最终模型与DeepLab v3+网络的性能比较,图8为两个模型对汽车图片进行部件分割的效果图。
表3本发明网络与DeepLab v3+网络性能比较
模型名称 | 测试时间(s) | PA(%) | MIoU(%) |
DeepLab-V3+ | 0.089 | 79.90 | 57.31 |
本发明方法 | 0.080 | 84.46 | 60.98 |
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (10)
1.一种基于改进DeepLab的二维图像部件分割方法,其特征在于,该方法通过一改进DeepLab网络对获取的二维图像进行部件分割,所述改进DeepLab网络包括编码器和跳跃式解码器,所述编码器包括多卷积层单元和多尺度自适应形态特征提取单元,所述多尺度自适应形态特征提取单元与多卷积层单元的输出端连接,所述跳跃式解码器同时获取深层特征和浅层特征,所述浅层特征由多卷积层单元的中间层获取。
2.根据权利要求1所述的基于改进DeepLab的二维图像部件分割方法,其特征在于,所述多卷积层单元基于ResNet101分类网络实现,由多个依次连接的标准卷积层组成。
3.根据权利要求2所述的基于改进DeepLab的二维图像部件分割方法,其特征在于,所述多卷积层单元中,最后一个卷积模块的输出特征分辨率及输出步长与前一个卷积模块相同。
4.根据权利要求1所述的基于改进DeepLab的二维图像部件分割方法,其特征在于,所述多尺度自适应形态特征提取单元包括1×1卷积层、多个可形变卷积层和合并层,所述1×1卷积层和多个可形变卷积层级联,并分别与合并层连接,所述可形变卷积层和合并层后设置有激励函数。
5.根据权利要求4所述的基于改进DeepLab的二维图像部件分割方法,其特征在于,所述多个可形变卷积层采用不同空洞率。
6.根据权利要求4所述的基于改进DeepLab的二维图像部件分割方法,其特征在于,所述激励函数为ReLU函数。
7.根据权利要求1所述的基于改进DeepLab的二维图像部件分割方法,其特征在于,所述跳跃式解码器包括可形变卷积层、转置卷积层、合并层和输出卷积层,所述可变卷积层的输入端与多卷积层单元的中间层连接,输出端与合并层连接,所述转置卷积层的输入端获取深层特征,输出端也与合并层连接,所述合并层与输出卷积层连接。
8.根据权利要求1或7所述的基于改进DeepLab的二维图像部件分割方法,其特征在于,所述多卷积层单元的中间层为第二卷积模块或第三卷积模块的输出层。
9.根据权利要求1或7所述的基于改进DeepLab的二维图像部件分割方法,其特征在于,所述跳跃式解码器可有多个,各跳跃式解码器与多卷积层单元的不同中间层连接。
10.一种如权利要求1-9任一所述的基于改进DeepLab的二维图像部件分割方法在汽车图像中的应用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910414473.9A CN110298843B (zh) | 2019-05-17 | 2019-05-17 | 基于改进DeepLab的二维图像部件分割方法及应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910414473.9A CN110298843B (zh) | 2019-05-17 | 2019-05-17 | 基于改进DeepLab的二维图像部件分割方法及应用 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110298843A true CN110298843A (zh) | 2019-10-01 |
CN110298843B CN110298843B (zh) | 2023-02-10 |
Family
ID=68026841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910414473.9A Active CN110298843B (zh) | 2019-05-17 | 2019-05-17 | 基于改进DeepLab的二维图像部件分割方法及应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110298843B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111079511A (zh) * | 2019-10-25 | 2020-04-28 | 湖北富瑞尔科技有限公司 | 基于深度学习的文档自动归类及光学字符识别方法及系统 |
CN111274892A (zh) * | 2020-01-14 | 2020-06-12 | 北京科技大学 | 一种鲁棒的遥感影像变化检测方法及系统 |
CN111507998A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 基于深度级联的多尺度激励机制隧道表面缺陷分割方法 |
CN111860233A (zh) * | 2020-07-06 | 2020-10-30 | 中国科学院空天信息创新研究院 | 基于选择注意力网络的sar图像复杂建筑物提取方法及系统 |
CN112884772A (zh) * | 2019-11-29 | 2021-06-01 | 北京四维图新科技股份有限公司 | 语义分割架构 |
CN113486716A (zh) * | 2021-06-04 | 2021-10-08 | 电子科技大学长三角研究院(衢州) | 机场场面目标分割方法及其系统 |
CN113688956A (zh) * | 2021-10-26 | 2021-11-23 | 西南石油大学 | 一种基于深度特征融合网络的砂岩薄片分割和识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018125580A1 (en) * | 2016-12-30 | 2018-07-05 | Konica Minolta Laboratory U.S.A., Inc. | Gland segmentation with deeply-supervised multi-level deconvolution networks |
GB201813276D0 (en) * | 2017-10-31 | 2018-09-26 | Adobe Systems Inc | Deep sealant content neural networks for efficient digital object segmentation |
CN109636905A (zh) * | 2018-12-07 | 2019-04-16 | 东北大学 | 基于深度卷积神经网络的环境语义建图方法 |
-
2019
- 2019-05-17 CN CN201910414473.9A patent/CN110298843B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018125580A1 (en) * | 2016-12-30 | 2018-07-05 | Konica Minolta Laboratory U.S.A., Inc. | Gland segmentation with deeply-supervised multi-level deconvolution networks |
GB201813276D0 (en) * | 2017-10-31 | 2018-09-26 | Adobe Systems Inc | Deep sealant content neural networks for efficient digital object segmentation |
CN109636905A (zh) * | 2018-12-07 | 2019-04-16 | 东北大学 | 基于深度卷积神经网络的环境语义建图方法 |
Non-Patent Citations (2)
Title |
---|
庹谦: "最大熵结合遗传算法的图像阈值分割算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
陈天华: "采用改进DeepLab网络的遥感图像分割", 《测控技术》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111079511A (zh) * | 2019-10-25 | 2020-04-28 | 湖北富瑞尔科技有限公司 | 基于深度学习的文档自动归类及光学字符识别方法及系统 |
CN112884772A (zh) * | 2019-11-29 | 2021-06-01 | 北京四维图新科技股份有限公司 | 语义分割架构 |
CN112884772B (zh) * | 2019-11-29 | 2024-03-19 | 北京四维图新科技股份有限公司 | 语义分割架构 |
CN111274892A (zh) * | 2020-01-14 | 2020-06-12 | 北京科技大学 | 一种鲁棒的遥感影像变化检测方法及系统 |
CN111274892B (zh) * | 2020-01-14 | 2020-12-18 | 北京科技大学 | 一种鲁棒的遥感影像变化检测方法及系统 |
CN111507998A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 基于深度级联的多尺度激励机制隧道表面缺陷分割方法 |
CN111860233A (zh) * | 2020-07-06 | 2020-10-30 | 中国科学院空天信息创新研究院 | 基于选择注意力网络的sar图像复杂建筑物提取方法及系统 |
CN113486716A (zh) * | 2021-06-04 | 2021-10-08 | 电子科技大学长三角研究院(衢州) | 机场场面目标分割方法及其系统 |
CN113688956A (zh) * | 2021-10-26 | 2021-11-23 | 西南石油大学 | 一种基于深度特征融合网络的砂岩薄片分割和识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110298843B (zh) | 2023-02-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298843A (zh) | 基于改进DeepLab的二维图像部件分割方法及应用 | |
CN113159051B (zh) | 一种基于边缘解耦的遥感图像轻量化语义分割方法 | |
CN105224951B (zh) | 一种车型分类方法及分类装置 | |
CN110309723B (zh) | 一种基于人体特征细分类的驾驶员行为识别方法 | |
CN112836597B (zh) | 基于级联并行卷积神经网络的多手姿态关键点估计方法 | |
CN114821238B (zh) | 基于全局细节补充的卷积神经网络的图像识别方法及系统 | |
CN111353544A (zh) | 一种基于改进的Mixed Pooling-YOLOV3目标检测方法 | |
CN112508960A (zh) | 一种基于改进注意力机制的低精度图像语义分割方法 | |
CN113762209A (zh) | 一种基于yolo的多尺度并行特征融合路标检测方法 | |
CN112070158A (zh) | 一种基于卷积神经网络和双边滤波的面部瑕疵检测方法 | |
CN113255837A (zh) | 工业环境下基于改进的CenterNet网络目标检测方法 | |
CN110717921B (zh) | 改进型编码解码结构的全卷积神经网络语义分割方法 | |
CN112270366B (zh) | 基于自适应多特征融合的微小目标检测方法 | |
CN113850324B (zh) | 一种基于Yolov4的多光谱目标检测方法 | |
CN112183649A (zh) | 一种用于对金字塔特征图进行预测的算法 | |
CN113052057A (zh) | 一种基于改进卷积神经网络的交通标志识别方法 | |
CN110796022A (zh) | 一种基于多流形耦合映射的低分辨人脸识别方法 | |
CN113743505A (zh) | 基于自注意力和特征融合的改进ssd目标检测方法 | |
CN113066025A (zh) | 一种基于增量学习与特征、注意力传递的图像去雾方法 | |
CN113298817A (zh) | 一种准确率高的遥感图像语义分割方法 | |
CN107330381A (zh) | 一种人脸识别方法 | |
CN111881743A (zh) | 一种基于语义分割的人脸特征点定位方法 | |
CN112507904A (zh) | 一种基于多尺度特征的教室人体姿态实时检测方法 | |
CN112364838A (zh) | 一种利用合成的联机文本图像改进手写ocr性能的方法 | |
Zhang et al. | Small object detection with multiple receptive fields |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |