CN112634289A - 一种基于非对称空洞卷积的快速可行域分割方法 - Google Patents

一种基于非对称空洞卷积的快速可行域分割方法 Download PDF

Info

Publication number
CN112634289A
CN112634289A CN202011585360.4A CN202011585360A CN112634289A CN 112634289 A CN112634289 A CN 112634289A CN 202011585360 A CN202011585360 A CN 202011585360A CN 112634289 A CN112634289 A CN 112634289A
Authority
CN
China
Prior art keywords
convolution
image
output
feature
asymmetric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011585360.4A
Other languages
English (en)
Other versions
CN112634289B (zh
Inventor
周瑜
龚石
白翔
方聪
李益群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN202011585360.4A priority Critical patent/CN112634289B/zh
Publication of CN112634289A publication Critical patent/CN112634289A/zh
Application granted granted Critical
Publication of CN112634289B publication Critical patent/CN112634289B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于非对称空洞卷积的快速可行域分割方法:对单目相机采集的图像进行多尺度图像特征提取,在最后一个卷积块使用非对称空洞卷积块消除局部噪声,获得具有区分力的表征;特征解码模块对特征编码器提取的多尺度图像特征进行逐点融合,得到高分辨率的高区分力的图像特征图;采用分类器基于融合后的图像特征,预测输出图像场景中的可行域分割结果,将图像中的所有像素划分为可行驶区域和不可行驶区域两类。本发明引入了一种全新的非对称空洞卷积模块来提高特征的区分力,大幅减少对不可行驶道路的误判,并且没有引入额外的计算量。基于轻量化的模块和网络设计,在保证精度的前提下,实现了对可行域的快速分割。

Description

一种基于非对称空洞卷积的快速可行域分割方法
技术领域
本发明属于计算机视觉技术领域,更具体地,涉及一种基于非对称空洞卷积的快速可行域分割方法。
背景技术
近年来,可行域分割已经成为自动驾驶技术中的研究热点。由于板载相机相比高精度3D激光雷达具有极大的成本优势,因此以单目图像作为输入的可行域分割成为了自动驾驶中不可或缺的部分。在可行域分割任务中,图像中的像素被预定义为三类:背景,可行驶道路,以及不可行驶道路(比如高速公路的逆向车道,人行道等)。这里的可行域分割任务是要将图像中的可行驶道路像素分割出来。
早期的可行域分割方法使用低层次的特征,比如颜色,边缘和纹理等,进行逐像素或者逐块的分类,并引入条件随机场来建模全局依赖关系。近年来,由于高性能并行计算能力的提升和大规模数据集的提出,深度卷积网络在计算机视觉领域中取得了突破性进展,可行域分割领域也随之进展迅速。
现有的基于深度卷积网络的方法,大多依赖于复杂的网络设计来提升精度,但是造成了极大的计算复杂度,难以应用于实时性的自动驾驶场景。还有少数方法通过降低模型复杂度来提升模型推理速度,但是它们也无法在移动嵌入式平台达到实时性。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种快速、准确的基于非对称空洞卷积的快速可行域分割方法。为达到上述目的,本发明提供如下技术方案:
一种基于非对称空洞卷积的快速可行域分割方法,包括以下步骤:
步骤S1,多尺度特征提取,利用深度卷积神经网络特征编码器(2)对单目相机采集的图像(1)进行多尺度图像特征提取;
步骤S2,采用特征解码模块(3)对步骤S1提取的多尺度图像特征进行融合,得到分辨率扩大的高层语义的特征图;
步骤S3,逐像素预测,基于步骤S2输出的图像特征,采用分类器预测图像场景中的可行域分割结果,将输入单帧图像的所有像素划分为可行驶区域和不可行驶区域两类。
优选地,深度卷积网络特征编码器(2)分为四个卷积块:
将第四个卷积块替换成非对称空洞卷积块,以消除局部噪声;从第一到第四个卷积块输出的图像特征图尺寸分别为输入图像的1/4,1/8,1/16和1/32,通道数分别为C1,C2,C3,C4,其中C1,C2,C3,C4分别为预设值。
优选地,所述深度卷积神经网络特征编码器(2)中将第四个卷积块替换成非对称空洞卷积块,假设非对称空洞卷积核的水平半径和垂直半径分别为rh和rv,非对称率为
Figure BDA0002865921940000021
基本空洞率为d,则由于不同的区域(即不可行驶道路,可行驶道路和背景)分布在水平方向上,r>>1的情况下非对称空洞卷积获取水平方向上不同区域之间的上下文关联,同时尽可能避免引入背景噪声,d、rh和rv分别为预设值。
优选地,特征解码模块(3)采用反向逐层融合的策略,在每层进行逐点融合,具体包括:
步骤S2-1,将步骤S1中第四个卷积块输出的1/32分辨率的特征图进行2倍双线性插值,并将它与第三个卷积块输出的1/16分辨率特征图在通道维度上堆叠,使用1×1卷积进行逐点融合
Figure BDA0002865921940000031
然后使用ReLU激活函数进行激活。
步骤S2-2,将步骤S2-1输出的特征图进行2倍双线性插值,并将其与步骤S1中第二个卷积块输出的1/8分辨率特征图在通道维度上堆叠,使用1×1卷积进行逐点融合
Figure BDA0002865921940000032
使用ReLU进行激活。
步骤S2-3,将步骤S2-2输出的特征图进行2倍双线性插值,并将其与步骤S1中第一个卷积块输出的1/4分辨率特征图在通道维度上堆叠,使用1×1卷积做逐点融合
Figure BDA0002865921940000033
将并使用ReLu激活。
优选地,在训练阶段,步骤S3包含第一分类器和第二分类器两个分类器,各自输出最终的可行域分割概率图;第一分类器(4)的输入为S2-3的输出(1/4的分辨率),它使用1×1卷积进行逐像素的预测RC→R2(C被设置为128),其中R2分别表示可行域/非可行域的分类得分,使用softmax函数对得分进行归一化,将结果插值到输入图像尺寸作为最终预测的结果。第二分类器(5)作为辅助分支,它的输入为步骤S2-2的输出(1/8的分辨率),同样使用1×1卷积预测分类分数,并经过softmax函数做概率归一化。在测试阶段,仅保留第一分类器(4)输出的可行域预测结果。
优选地,本方法采用端到端的方式进行模型的参数学习,优化的目标函数(6)为:
L=L1+γ·L2
其中L1和L2分别为第一分类器和第二分类器输出的概率图与真实值之间的逐像素难样本挖掘-交叉熵损失(7),γ为超参数用来控制两项损失值的权重。
优选地,难样本挖掘-交叉熵损失(7)旨于解决数据集中仅包含少量的难样本(如可行域边缘,阴影区域,过曝区域等),以及大量的容易样本(如平坦的路面区域,天空等),自动地给难样本以更大的训练强度,如下公式所示:
Figure BDA0002865921940000041
其中λb为批数据中的置信度阈值,p是预测的概率,I(·)是指示函数,Np是批数据中的像素数量,i,j是图像中的像素索引,Lbce是二元交叉熵损失函数。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有如下有益效果:
(1)本发明提出了一种新颖的非对称空洞卷积模块,该模块采用非对称空洞卷积核,用来在水平方向上捕捉更多的上下文信息,增强不同区域之间的特征区分力,减少对非可行驶道路的误判。该模块可以作为特征提取网络的一部分,并没有带来额外的计算开销,使得提取的特征更具鉴别力,使得后续的特征解码器可以设计得更加轻巧而不会带来精度下降;
(2)本发明提出了一种新颖的特征解码模块,该模块摈弃了传统的解码器的复杂设计,完全基于轻量的1×1卷积操作,用于逐步恢复特征图的分辨率。与经典的特征解码器U-Net相比,该模块降低了94%的参数和93%的计算开销。
附图说明
图1是本发明提供的基于非对称空洞卷积的快速可行域分割方法的整体流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明提供了一种基于非对称空洞卷积的快速可行域分割方法,如图1所示,包括以下步骤:
步骤S1,多尺度特征提取,利用深度卷积神经网络特征编码器(2)对单目相机采集的图像(1)进行多尺度图像特征提取;
步骤S2,采用特征解码模块(3)对步骤S1提取的多尺度图像特征进行融合,得到高分辨率高语义的图像特征;
步骤S3,逐像素预测,基于步骤S2输出图像特征,采用分类器预测图像中的可行域分割结果,将输入单帧图像的所有像素划分为可行驶区域和不可行驶区域两类。
主要有三个实现部分:1)多尺度的有鉴别力的特征提取;2)轻量化的特征解码器;3)分类器和目标函数。接下来对本发明中步骤进行详细说明。
1.多尺度的有鉴别力的特征提取
本发明实施例采用ResNet18作为骨干网络进行多尺度特征提取,将第四个卷积块替换成非对称空洞卷积块,它使用3×3非对称空洞卷积,假设非对称空洞卷积核的水平半径和垂直半径分别为rh和rv,非对称率为
Figure BDA0002865921940000051
基本空洞率为d,则由于不同的区域(即不可行驶道路,可行驶道路和背景)分布在水平方向上,r>>1的情况下非对称空洞卷积获取水平方向上不同区域之间的上下文关联,同时尽可能避免引入背景噪声。实施例中d的数值从前往后依次为3,5,5和12。为满足数据集中道路横纵比特点,实施例中将r设置为3。
2.轻量化的特征解码器
特征解码模块(3)采用反向逐层融合的策略,在每层进行逐点融合,具体包括:
步骤S2-1,将步骤S1中第四个卷积块输出的1/32分辨率的特征图进行2倍双线性插值,并将它与第三个卷积块输出的1/16分辨率特征图在通道维度上堆叠,使用1×1卷积进行逐点融合
Figure BDA0002865921940000061
然后使用ReLU激活函数进行激活。
步骤S2-2,将步骤S2-1输出的特征图进行2倍双线性插值,并将其与步骤S1中第二个卷积块输出的1/8分辨率特征图在通道维度上堆叠,使用1×1卷积进行逐点融合
Figure BDA0002865921940000062
并使用ReLU进行激活。
步骤S2-3,将步骤S2-2输出的特征图进行2倍双线性插值,并将其与步骤S1中第一个卷积块输出的1/4分辨率特征图在通道维度上堆叠,使用1×1卷积做逐点融合
Figure BDA0002865921940000063
将并使用ReLu激活。
3.分类器和目标函数
本发明实施例在训练阶段,步骤S3包含第一分类器(4)和第二分类器(5)两个分类器,各自输出最终的可行域分割概率图;第一分类器(4)的输入为S2-3的输出(1/4的分辨率),它使用1×1卷积进行逐像素的预测RC→R2(C被设置为128),其中R2表示可行域/非可行域的分类得分,使用softmax函数对得分进行归一化,将结果插值到输入图像尺寸作为最终预测的结果。第二分类器(5)作为辅助分支,它的输入为步骤S2-2的输出(1/8的分辨率),同样使用1×1卷积预测分类分数,并经过softmax函数做概率归一化。在测试阶段,仅保留第一分类器(4)输出的可行域预测结果。本发明实施例采用端到端的方式进行模型的参数学习,优化的目标函数(6)为:
L=L1+γ·L2
其中L1和L2分别为第一分类器和第二分类器输出的概率图与真实值之间的逐像素难样本挖掘-交叉熵损失,γ为超参数用来控制两项损失值的权重,本发明实施例设定γ=0.5。
优选地,难样本挖掘-交叉熵损失旨于解决数据集中仅包含少量的难样本(如可行域边缘,阴影区域,过曝区域等),以及大量的容易样本(如平坦的路面区域,天空等),自动地给难样本以更大的训练强度,如下公式所示:
Figure BDA0002865921940000071
其中λb为批数据中的置信度阈值,p是预测的概率,I(·)是指示函数,Np是批数据中的像素数量,i,j是图像中的像素索引,Lbce是二元交叉熵损失函数。
本发明提出了一种基于非对称空洞卷积的快速可行域分割方法。采用了一个浅层的特征编码器进行多尺度的特征提取,并设计了一个轻量级的特征解码器恢复特征图的分辨率。为了避免网络简化带来的精度下降,本发明引入了一种全新的非对称空洞卷积模块来提高特征的区分力,大幅减少对不可行驶道路的误判,并且没有引入额外的计算量。基于轻量化的模块和网络设计,本发明在保证精度的前提下,实现了对可行域的快速分割。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于非对称空洞卷积的快速可行域分割方法,其特征在于,包括以下步骤:
步骤S1,多尺度特征提取,利用深度卷积神经网络特征编码器对单目相机采集的图像进行多尺度图像特征提取;
步骤S2,采用特征解码模块对步骤S1提取的多尺度图像特征进行融合,得到分辨率扩大的高层语义的特征图;
步骤S3,逐像素预测,基于步骤S2输出的图像特征,采用分类器预测图像场景中的可行域分割结果,将输入单帧图像的所有像素划分为可行驶区域和不可行驶区域两类。
2.如权利要求1所述的基于非对称空洞卷积的快速可行域分割方法,其特征在于,所述步骤S1中的深度卷积神经网络特征编码器,采用ResNet作为骨干网络进行多尺度图像特征提取,将第四个卷积块替换成非对称空洞卷积块;从第一到第四个卷积块输出的图像特征图尺寸分别为输入图像的1/4,1/8,1/16和1/32,通道数分别为C1,C2,C3,C4,C1,C2,C3,C4分别为预设值。
3.如权利要求2所述的基于非对称空洞卷积的快速可行域分割方法,其特征在于,所述深度卷积神经网络特征编码器中将第四个卷积块替换成非对称空洞卷积块,具体为:
将普通的3×3卷积替换成3×3非对称空洞卷积,非对称空洞卷积核的水平半径和垂直半径分别为rh和rv,非对称率为
Figure FDA0002865921930000011
基本空洞率为d,d、rh和rv分别为预设值。
4.如权利要求2所述的基于非对称空洞卷积的快速可行域分割方法,其特征在于,步骤S2中特征解码模块采用反向逐层融合的策略,在每层进行逐点融合,具体包括:
步骤S2-1,将步骤S1中第四个卷积块输出的1/32分辨率的特征图进行2倍双线性插值,并将它与第三个卷积块输出的1/16分辨率特征图在通道维度上堆叠,使用1×1卷积进行逐点融合
Figure FDA0002865921930000021
然后使用ReLU激活函数进行激活;
步骤S2-2,将步骤S2-1输出的特征图进行2倍双线性插值,并将其与步骤S1中第二个卷积块输出的1/8分辨率特征图在通道维度上堆叠,使用1×1卷积进行逐点融合
Figure FDA0002865921930000022
使用ReLU进行激活;
步骤S2-3,将步骤S2-2输出的特征图进行2倍双线性插值,并将其与步骤S1中第一个卷积块输出的1/4分辨率特征图在通道维度上堆叠,使用1×1卷积做逐点融合
Figure FDA0002865921930000023
将并使用ReLu激活。
5.如权利要求1或2所述的基于非对称空洞卷积的快速可行域分割方法,其特征在于,在训练阶段,步骤S3包含第一分类器和第二分类器两个分类器,各自输出最终的可行域分割概率图;第一分类器的输入为步骤S2-3的输出,它使用1×1卷积进行逐像素的预测RC→R2,其中R2表示可行域/非可行域的分类得分,使用softmax函数对得分进行归一化,将结果插值到输入图像尺寸作为最终预测的结果;第二分类器作为辅助分支,它的输入为步骤S2-2的输出,同样使用1×1卷积预测分类分数,并经过softmax函数做概率归一化。
6.如权利要求5所述的基于非对称空洞卷积的快速可行域分割方法,其特征在于,在测试阶段,仅保留第一分类器输出的可行域预测结果。
7.如权利要求1所述的基于非对称空洞卷积的快速可行域分割方法,其特征在于,采用端到端的方式进行模型的参数学习,优化的目标函数为:
L=L1+γ·L2
其中L1和L2分别为第一分类器和第二分类器输出的概率图与真实值之间的逐像素难样本挖掘-交叉熵损失,γ为超参数用来控制两项损失值的权重。
8.如权利要求7所述的基于非对称空洞卷积的快速可行域分割方法,其特征在于,难样本挖掘-交叉熵损失如下公式所示:
Figure FDA0002865921930000031
其中λb为批数据中的置信度阈值,p是预测的概率,I(·)是指示函数,Np是批数据中的像素数量,i,j是图像中的像素索引,Lbce是二元交叉熵损失函数。
CN202011585360.4A 2020-12-28 2020-12-28 一种基于非对称空洞卷积的快速可行域分割方法 Active CN112634289B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011585360.4A CN112634289B (zh) 2020-12-28 2020-12-28 一种基于非对称空洞卷积的快速可行域分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011585360.4A CN112634289B (zh) 2020-12-28 2020-12-28 一种基于非对称空洞卷积的快速可行域分割方法

Publications (2)

Publication Number Publication Date
CN112634289A true CN112634289A (zh) 2021-04-09
CN112634289B CN112634289B (zh) 2022-05-27

Family

ID=75285860

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011585360.4A Active CN112634289B (zh) 2020-12-28 2020-12-28 一种基于非对称空洞卷积的快速可行域分割方法

Country Status (1)

Country Link
CN (1) CN112634289B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116384448A (zh) * 2023-04-10 2023-07-04 中国人民解放军陆军军医大学 基于混合高阶非对称卷积网络的cd严重程度分级系统

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180157904A1 (en) * 2016-12-01 2018-06-07 Sasken Communication Technologies Ltd Method and apparatus for human detection in images
US10067509B1 (en) * 2017-03-10 2018-09-04 TuSimple System and method for occluding contour detection
CN109816100A (zh) * 2019-01-30 2019-05-28 中科人工智能创新技术研究院(青岛)有限公司 一种基于双向融合网络的显著性物体检测方法及装置
CN109948524A (zh) * 2019-03-18 2019-06-28 北京航空航天大学 一种基于空基监视的交通车辆密度估计方法
CN110020606A (zh) * 2019-03-13 2019-07-16 北京工业大学 一种基于多尺度卷积神经网络的人群密度估计方法
CN110059768A (zh) * 2019-04-30 2019-07-26 福州大学 用于街景理解的融合点与区域特征的语义分割方法及系统
CN110263833A (zh) * 2019-06-03 2019-09-20 韩慧慧 基于编码-解码结构的图像语义分割方法
CN110490884A (zh) * 2019-08-23 2019-11-22 北京工业大学 一种基于对抗的轻量级网络语义分割方法
CN110751111A (zh) * 2019-10-24 2020-02-04 成都大成均图科技有限公司 基于高阶空间信息全局自动感知的道路提取方法和系统
CN110992379A (zh) * 2019-12-05 2020-04-10 华中科技大学 一种基于方向超像素的快速图像分割方法
CN111161279A (zh) * 2019-12-12 2020-05-15 中国科学院深圳先进技术研究院 医学图像分割方法、装置及服务器
CN111767922A (zh) * 2020-05-22 2020-10-13 上海大学 一种基于卷积神经网络的图像语义分割方法及网络
CN111882620A (zh) * 2020-06-19 2020-11-03 江苏大学 一种基于多尺度信息道路可行驶区域分割方法
CN111914654A (zh) * 2020-07-03 2020-11-10 苏州开心盒子软件有限公司 一种文本版面分析方法、装置、设备和介质

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180157904A1 (en) * 2016-12-01 2018-06-07 Sasken Communication Technologies Ltd Method and apparatus for human detection in images
US10067509B1 (en) * 2017-03-10 2018-09-04 TuSimple System and method for occluding contour detection
CN109816100A (zh) * 2019-01-30 2019-05-28 中科人工智能创新技术研究院(青岛)有限公司 一种基于双向融合网络的显著性物体检测方法及装置
CN110020606A (zh) * 2019-03-13 2019-07-16 北京工业大学 一种基于多尺度卷积神经网络的人群密度估计方法
CN109948524A (zh) * 2019-03-18 2019-06-28 北京航空航天大学 一种基于空基监视的交通车辆密度估计方法
CN110059768A (zh) * 2019-04-30 2019-07-26 福州大学 用于街景理解的融合点与区域特征的语义分割方法及系统
CN110263833A (zh) * 2019-06-03 2019-09-20 韩慧慧 基于编码-解码结构的图像语义分割方法
CN110490884A (zh) * 2019-08-23 2019-11-22 北京工业大学 一种基于对抗的轻量级网络语义分割方法
CN110751111A (zh) * 2019-10-24 2020-02-04 成都大成均图科技有限公司 基于高阶空间信息全局自动感知的道路提取方法和系统
CN110992379A (zh) * 2019-12-05 2020-04-10 华中科技大学 一种基于方向超像素的快速图像分割方法
CN111161279A (zh) * 2019-12-12 2020-05-15 中国科学院深圳先进技术研究院 医学图像分割方法、装置及服务器
CN111767922A (zh) * 2020-05-22 2020-10-13 上海大学 一种基于卷积神经网络的图像语义分割方法及网络
CN111882620A (zh) * 2020-06-19 2020-11-03 江苏大学 一种基于多尺度信息道路可行驶区域分割方法
CN111914654A (zh) * 2020-07-03 2020-11-10 苏州开心盒子软件有限公司 一种文本版面分析方法、装置、设备和介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WANG, J. ET AL.: "ADSCNet: asymmetric depthwise separable convolution for semantic segmentation in real-time", 《APPLIED INTELLIGENCE》 *
Z. ZHU ET AL.: "Asymmetric Non-Local Neural Networks for Semantic Segmentation", 《2019 IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116384448A (zh) * 2023-04-10 2023-07-04 中国人民解放军陆军军医大学 基于混合高阶非对称卷积网络的cd严重程度分级系统
CN116384448B (zh) * 2023-04-10 2023-09-12 中国人民解放军陆军军医大学 基于混合高阶非对称卷积网络的cd严重程度分级系统

Also Published As

Publication number Publication date
CN112634289B (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
CN109740465B (zh) 一种基于实例分割神经网络框架的车道线检测算法
CN110111366B (zh) 一种基于多级损失量的端到端光流估计方法
CN108509978B (zh) 基于cnn的多级特征融合的多类目标检测方法及模型
CN109753913B (zh) 计算高效的多模式视频语义分割方法
CN111563909B (zh) 一种复杂街景图像语义分割方法
CN110766098A (zh) 基于改进YOLOv3的交通场景小目标检测方法
CN111832453B (zh) 基于双路深度神经网络的无人驾驶场景实时语义分割方法
CN114693924A (zh) 一种基于多模型融合的道路场景语义分割方法
CN110717921B (zh) 改进型编码解码结构的全卷积神经网络语义分割方法
CN113255837A (zh) 工业环境下基于改进的CenterNet网络目标检测方法
CN114048822A (zh) 一种图像的注意力机制特征融合分割方法
CN112766136A (zh) 一种基于深度学习的空间车位检测方法
CN116665176A (zh) 一种面向车辆自动驾驶的多任务网络道路目标检测方法
CN112819000A (zh) 街景图像语义分割系统及分割方法、电子设备及计算机可读介质
CN114120272A (zh) 一种融合边缘检测的多监督智能车道线语义分割方法
CN112766056A (zh) 一种基于深度神经网络的弱光环境车道线检测方法、装置
CN116051977A (zh) 一种基于多分支融合的轻量型雾天街景语义分割算法
CN115527096A (zh) 一种基于改进YOLOv5的小目标检测方法
CN112634289B (zh) 一种基于非对称空洞卷积的快速可行域分割方法
CN111612803B (zh) 一种基于图像清晰度的车辆图像语义分割方法
CN111160282B (zh) 一种基于二值化Yolov3网络的红绿灯检测方法
CN110532868B (zh) 一种预测自由空间语义边界的方法
CN116704194A (zh) 一种基于BiSeNet网络和注意力机制的街景图像分割算法
CN113223006B (zh) 一种基于深度学习的轻量级目标语义分割方法
CN112446292B (zh) 一种2d图像显著目标检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant