CN110706239A - 融合全卷积神经网络与改进aspp模块的场景分割方法 - Google Patents

融合全卷积神经网络与改进aspp模块的场景分割方法 Download PDF

Info

Publication number
CN110706239A
CN110706239A CN201910914699.5A CN201910914699A CN110706239A CN 110706239 A CN110706239 A CN 110706239A CN 201910914699 A CN201910914699 A CN 201910914699A CN 110706239 A CN110706239 A CN 110706239A
Authority
CN
China
Prior art keywords
neural network
improved
sampling
module
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910914699.5A
Other languages
English (en)
Other versions
CN110706239B (zh
Inventor
王宏健
胡文月
李庆
管凤旭
肖瑶
班喜程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN201910914699.5A priority Critical patent/CN110706239B/zh
Publication of CN110706239A publication Critical patent/CN110706239A/zh
Application granted granted Critical
Publication of CN110706239B publication Critical patent/CN110706239B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于深度学习及机器视觉领域,具体涉及一种融合全卷积神经网络与改进ASPP模块的场景分割方法。本发明采用图像预处理操作能够防止模型过拟合,同时提高模型的适应能力;针对池化和下采样的重复组合的操作引起特征分辨率下降的问题,采用全卷积神经网络;在第五层卷积层后面加入改进的ASPP模块,融入图像级别的特征来捕获远距离信息,增加模型本身的适应能力;采用反卷积进行上采样,优势是可以自己学习参数;针对网络层数加深,边缘细节信息损失严重的问题,保留二倍下采样信息并与四倍上采样信息进行融合。

Description

融合全卷积神经网络与改进ASPP模块的场景分割方法
技术领域
本发明属于深度学习及机器视觉领域,具体涉及一种融合全卷积神经网络与改进ASPP模块的场景分割方法。
背景技术
语义分割是计算机视觉的关键问题之一。从宏观意义上来说,语义分割是为场景理解铺平了道路的一种高层任务。最为计算机视觉的核心问题,场景理解的重要性越来越突出,因为现实中越来越多的场景需要从影像中推理出相关的知识或语义。这些应用可以应用在自动驾驶上。而在实际应用中场景是复杂多变的,分割出精准的语义分割图是十分困难的。因此,探寻一个准确、简单、高效的语义分割神经网络是具有重大理论与实践价值的。目前,将神经网络应用于语义分割领域具有代表性的例如文献“Fully ConvolutionalNetworks for Semantic Segmentation”的Long J等人提出全卷积网络FCN,使得卷积神经网络不需要全连接层就可以实现密集的像素级分类,从而成为当前流行的像素级分类CNN架构。由于不需要全连接层,所以可以对任意大小的图像进行语义分割,而且比传统方法要快上很多。文献“Semantic Image Segmentation with Deep Convolutional Nets andFully Connected CRFs”采用的是atrous带孔算法扩展感受野,获取更多的上下文信息,且是由两个非常成熟的模块DCNN和CRFs级联而成。文献“DeepLab:Semantic ImageSegmenta-tion with Deep Convolutional Nets,Atrous Convolution,and FullyConnected CRFs”借用空间金字塔池化的思想,使用了ASPP来解决某些特征扭曲或者消失的问题。
现有的技术缺陷:传统的图像分割方法包括阈值分割方法、基于边缘的分割方法、基于区域的分割方法等,这些方法大多是基于对图像进行人工的特征提取,如颜色、纹理信息等,但是人工设计的特征往往是浅层的,这就使得传统方法具有很大的局限性,性能提高的空间非常有限。与传统方法相比,基于深度学习的框架进行的语义分割在精度和效率上有很大的优势。虽然已经设计出比较好的网络进行语义分割,但结果仍不能适用于各类图像,图像的多样性使得需要准备的训练数据量很大,而且各类别之间会进行相互的干扰,这就降低了像素预测的准确性。同时,随着神经网络的层数加深,图像的边缘信息也会损失严重,这些因素严重影响了图像分割的效果。例如文献“Fully Convolutional Networks forSemantic Segmentation”Chen L C等人提出虽然FCN是语义分割领域中的一种坚实的方法,但是FCN网络缺乏对于上下文等特征的建模,而这些信息有可能会提高准确率;文献“Semantic Image Segmentation with Deep Convolutional Nets and Fully ConnectedCRFs”将DCNNs层的响应和完全连接的条件随机场CRF结合。同时模型创新性的将hole,即空洞卷积,算法应用到DCNNs模型上,但针对多尺度下的物体的存在,并未采取相应策略;文献“DeepLab:Semantic Image Segmenta-tion with Deep Convolutional Nets,AtrousConvolution,and Fully Connected CRFs”中借用空间金字塔池化的思想,使用了ASPP,但在此模块中,随着采样率的增加,滤波器中有效的权重减少,因此难以捕获远距离信息。
发明内容
针对现有技术的以上缺陷或改进需求,本发明的目的在于提供一种解决现有的适用于语义分割的卷积神经网络对语义分割边缘信息损失严重的问题的融合全卷积神经网络与改进ASPP模块的场景分割方法。
本发明的目的通过如下技术方案实现:包括以下步骤:
步骤1:根据待识别的图片,搜集相关数据,制作数据集;
步骤2:对数据集中的图片预处理;
步骤3:搭建神经网络模型框架;
所述的神经网络模型框架包括图像预处理模块、下采样模块、改进ASPP模块和上采样模块;所述的神经网络模型框架基于resnet-101改进,将神经网络的第四层和第五层的卷积分别换成步长为2和4的带孔卷积;去掉神经网络中所有的池化层;在第五层卷积层后面加入改进的ASPP模块,融入图像级别的特征来捕获远距离信息;采用反卷积进行上采样;随着网络层数加深,边缘细节信息损失严重,因此保留2倍下采样信息,将其与四倍上采样信息进行融合;所述的改进ASPP模块是用不同采样率的多个并行的多孔卷积层;对每个采样率提取的特征进一步在单独的分支中进行处理,并进行融合以产生最终结果;
步骤4:训练神经网络模型;
步骤5:将待识别的图片输入训练好的神经网络模型中,得到识别结果。
本发明还可以包括:
所述的步骤2中图片预处理的过程包括翻转、旋转、缩放和剪裁,设置开关函数,将尺度变换与当前迭代的步数和当前损失关联,迭代初期减少尺度变换出现的频率,同时控制尺度变换随机种子均匀选择四种操作;在迭代中期,将尺度变换出现的频率增加,同时利用损失值起伏的幅度控制随机种子进行一种尺度变换操作还是多种尺度变换操作;在迭代后期,将尺度变换出现的频率减少,同时每次变换都进行四次尺度变换。
所述的步骤4中训练神经网络模型具体包括:采用自适应学习率的方法训练神经网络模型,采用交叉熵损失作为损失函数;所述的自适应学习率的数学表达式为:
Figure BDA0002215741430000021
其中,Current_step为当前学习率,base_rate为初始学习率,current_step为当前迭代步数,max_step为最大迭代步数,power为常量0.9,初始学习率设为2.5e-4;
所述的损失函数的表达式为:
Figure BDA0002215741430000031
其中y=ytruth,y'=ypred
Figure BDA0002215741430000032
w表示被限制的变量。
本发明的有益效果在于:
(1)本发明采用的图像预处理操作不仅提高了模型的精度,而且也增强了模型的稳定性,能够防止模型过拟合,并且将尺度变换与当前迭代的步数和当前损失关联起来,通过控制尺度变换规则增强数据集本身的容错性,提高模型的适应能力
(2)本发明针对池化和下采样的重复组合的操作引起特征分辨率下降的问题,采用全卷积神经网络,进而提高了语义分割的准确性。
(3)在第五层卷积层后面加入改进的ASPP模块,融入图像级别的特征来捕获远距离信息,因此来增加模型本身的适应能力。
(4)采用反卷积进行上采样,优势是可以自己学习参数。
(5)本发明针对随着网络层数加深,边缘细节信息损失严重的问题,保留二倍下采样信息,将其与四倍上采样信息进行融合。
附图说明
图1为本发明的神经网络模型结构图。
图2为本发明的总体流程示意图。
图3(a)为r=1的标准卷积图。
图3(b)为r=2的多孔卷积图。
图4(a)为图片A的原图。
图4(b)为图片B的原图。
图4(c)为图片A的标签图。
图4(d)为图片B的标签图。
图4(e)为图片A的基于deeplab v2的分割图。
图4(f)为图片B的基于deeplab v2的分割图。
图4(g)为图片A的本发明神经网络框架下的分割图。
图4(h)为图片B的本发明神经网络框架下的分割图。
具体实施方式
下面结合附图对本发明做进一步的描述。
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示为本发明的神经网络模型结构图,在图1所示的神经网络模型结构图中依次包括图像预处理模块、下采样模块、改进ASPP模块、上采样模块。
如图2所示为本发明的流程示意图,主要包括以下几个步骤:1)数据的搜集与预处理;2)神经网络模型的搭建;3)网络模型参数的设置和修改;4)根据交叉熵损失函数曲线图和mIoU的曲线图,针对分割效果图做出分析。为实现上述目的,本发明具体涉及一种融合全卷积神经网络与改进ASPP模块的场景分割方法,具体步骤如下:
S1、搜集街道场景的数据并制作数据集,并将数据集中的图片进行预处理操作。制作数据集包括以下子步骤:
S1.1、如图4(a)所示,当以街道场景为研究对象时,拍摄符合条件的场景图片。
S1.2、制作标签图。根据道路场景,将图片内容分为12大类,分别为人、停车位、小汽车、公共汽车、树、草坪、建筑物、道路、马路牙子、摩托车、自行车和背景。将每个大类标记上相应颜色,其余为背景色并标记为黑色,依次为:[220,20,60]、[250,170,160]、[0,0,142]、[0,60,100]、[107,142,35]、[152,251,152]、[70,70,70]、[128,64,128]、[244,35,232]、[0,0,230]、[119,11,32]、[0,0,0]。所标记的图片即为Ground-truth图。
S1.3、将Ground-truth图中的颜色按照类别依次从0标记到11,从而做成最终的标签图。
预处理过程主要包括旋转、缩放、剪裁和翻转等,这些操作不仅增强了模型的稳定性,而且能够防止模型过拟合,并在程序中设置开关函数,通过控制的尺度变换规格增强数据集本身的容错性。本发明将当前迭代的步数和当前损失与尺度变换关联起来。迭代初期同一样本出现次数很少,因此减少尺度变换出现的频率,同时控制尺度变换随机种子均匀选择四种操作;在迭代中期的时候,同一样本出现的概率次数增多并且损失值伴随着起伏,将尺度变换出现的频率增加,同时利用损失值起伏的幅度来控制随机种子进行一种尺度变换操作还是多种尺度变换操作,损失值变换幅度大,说明模型参数适应能力变弱,所以通过进行多次变换操作在一定程度上较快的提高模型的适应能力;在迭代后期,将尺度变换出现的频率减少来增快训练速度,但是同时每次变换都进行四次尺度变换。
S2、搭建本发明所需要的神经网络模型框架。本发明的网络框架是基于resnet-101改进的,将神经网络的第四层和第五层的卷积分别换成步长为2、4的带孔卷积,其作用是使得网络结构不降低特征映射的分辨率的同时增大了特征的感受野;考虑到池化的操作会降低特征映射的分辨率,去掉神经网络所有的池化层;在第五层卷积层后面加入改进的ASPP模块,融入图像级别的特征来捕获远距离信息,因此来增加模型本身的适应能力;采用反卷积进行上采样,优势是可以自己学习参数;随着网络层数加深,边缘细节信息损失严重,因此保留2倍下采样信息,将其与四倍上采样信息进行融合。
其中,步骤S2具体包括以下内容:
采用用于密集特征提取和视野扩展的多孔卷积。多孔卷积也被称为扩张卷积,这就相当于在卷积核各个权重之间插入孔洞。使用带孔卷积,能够在深度卷积神经网络不需要学习额外的参数的情况下控制特征映射的分辨率。在本发明的神经网络模型中,在第四层和第五层卷积层中采用带孔卷积,其中第四层卷积层中r=2,第五层卷积层中r=4。
以一维信号为例,将具有长度为K的滤波器w[k]的一维输入信号x[i]的输出y[i]定义为:
Figure BDA0002215741430000051
公式中,r是对输入信息采样的步长。
图3(a)和图3(b)给出了标准卷积核多孔卷积的区别,图3(a)为标准卷积中r=1,图3(b)为r=2的多孔卷积。
在深度卷积神经网络中,池化层的存在会引起特征分辨率下降,虽然这一操作可以使深度卷积神经网络学习到越来越多的抽象特征,但是却损失掉了许多细节信息,语义分割任务需要详细的空间信息,此操作妨碍精细的预测任务。为了克服这一问题,在本发明的神经网络模型中去掉所有的池化层。
引入改进的ASPP模块。ASPP是用不同采样率的多个并行的多孔卷积层。对每个采样率提取的特征进一步在单独的分支中进行处理,并进行融合以产生最终结果。在用不同尺度重复采样特征提高精确率方面是有效的而且任意的尺度都对分割很有效果。随着采样率的提高,有效的滤波器权重,即有效特征区域而不是补零区域的权重,却在变小。本发明采用图像级别特征,将全局内容信息整合进模型中对捕获远距离信息是有优势的。
采用反卷积进行上采样操作。相比于双线性差值方法,反卷积的操作可以自己学习参数,而双线性插值算法只能按照固定的算法进行上采样,学习能力相对较低。
借鉴U-net的神经网络模型框架,保留下采样的特征信息,并与上采样特征图进行信息融合的思想。本发明保留了二倍下采样的特征信息,与四倍上采样信息进行融合。其目的是为了平衡精度和运行时间。
S3、网络模型参数的设置和修改。
本发明使用的GPU为Tesla k80。
神经网络模型训练初期的时候,最优点距离极值点比较远,一般将学习速率设置的较大,较大的学习速率可以快速靠近极值点;在训练的中期以及后期,因为已经靠近极值点,模型即将收敛,在这两个阶段,采用较小的学习速率,较大的学习速率,容易导致在真实极值点附近来回波动,无法收敛到极值点。本发明采用自适应学习率的方法训练本发明的神经网络模型。自适应学习率的数学表达式为:
Figure BDA0002215741430000061
其中,Current_step为当前学习率,power为常量0.9,base_rate为初始学习率,max_step为最大迭代步数,current_step为当前迭代步数,初始学习率设为2.5e-4。
本发明采用简单的交叉熵损失作为损失函数,其数学表达式为:
Figure BDA0002215741430000062
其中y=ytruth,y'=ypred
为了提高泛化能力,在损失函数的后面加上L2正则化。
L2正则化的数学表达式为:
Figure BDA0002215741430000063
因此,此刻的损失函数表达式为:
Figure BDA0002215741430000064
其中α∈[0,∞)。
对分割效果图进行评估,采用频率加权交并比(FWIoU)来进行性能评估,这是对平均像素交叠率(mIoU)的改进。对每个类别按照重要性进行加权,重要性来自于其出现的频率。
Figure BDA0002215741430000065
假设共有k+1类,其中pii表示真正预测正确的像素数量,pij表示本属于i类但被预测为j类的像素数量,pji表示本属于j类但被预测为i类的像素数量。
对本发明的效果验证:
S4、根据交叉熵损失曲线图和mIoU的曲线图,针对分割效果图做出分析。
图4(a)为图片A的原图;图4(b)为图片B的原图;图4(c)为图片A的标签图;图4(d)为图片B的标签图;图4(e)为图片A的基于deeplab v2的分割图;图4(f)为图片B的基于deeplab v2的分割图;图4(g)为图片A的本发明神经网络框架下的分割图;图4(h)为图片B的本发明神经网络框架下的分割图。通过分割效果图可以看出,本发明使用的神经网络框架分割出来的效果图精确度更高一些,表明本发明采用的网络结构可以进一步提高分割效果。
本发明采用的图像预处理操作能够防止模型过拟合,同时提高模型的适应能力;针对池化和下采样的重复组合的操作引起特征分辨率下降的问题,采用全卷积神经网络;在第五层卷积层后面加入改进的ASPP模块,融入图像级别的特征来捕获远距离信息,增加模型本身的适应能力;采用反卷积进行上采样,优势是可以自己学习参数;针对网络层数加深,边缘细节信息损失严重的问题,保留二倍下采样信息并与四倍上采样信息进行融合。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (3)

1.融合全卷积神经网络与改进ASPP模块的场景分割方法,其特征在于,包括以下步骤:
步骤1:根据待识别的图片,搜集相关数据,制作数据集;
步骤2:对数据集中的图片预处理;
步骤3:搭建神经网络模型框架;
所述的神经网络模型框架包括图像预处理模块、下采样模块、改进ASPP模块和上采样模块;所述的神经网络模型框架基于resnet-101改进,将神经网络的第四层和第五层的卷积分别换成步长为2和4的带孔卷积;去掉神经网络中所有的池化层;在第五层卷积层后面加入改进的ASPP模块,融入图像级别的特征来捕获远距离信息;采用反卷积进行上采样;随着网络层数加深,边缘细节信息损失严重,因此保留2倍下采样信息,将其与四倍上采样信息进行融合;所述的改进ASPP模块是用不同采样率的多个并行的多孔卷积层;对每个采样率提取的特征进一步在单独的分支中进行处理,并进行融合以产生最终结果;
步骤4:训练神经网络模型;
步骤5:将待识别的图片输入训练好的神经网络模型中,得到识别结果。
2.根据权利要求1所述的融合全卷积神经网络与改进ASPP模块的场景分割方法,其特征在于:所述的步骤2中图片预处理的过程包括翻转、旋转、缩放和剪裁,设置开关函数,将尺度变换与当前迭代的步数和当前损失关联,迭代初期减少尺度变换出现的频率,同时控制尺度变换随机种子均匀选择四种操作;在迭代中期,将尺度变换出现的频率增加,同时利用损失值起伏的幅度控制随机种子进行一种尺度变换操作还是多种尺度变换操作;在迭代后期,将尺度变换出现的频率减少,同时每次变换都进行四次尺度变换。
3.根据权利要求1或2所述的融合全卷积神经网络与改进ASPP模块的场景分割方法,其特征在于:所述的步骤4中训练神经网络模型具体包括:采用自适应学习率的方法训练神经网络模型,采用交叉熵损失作为损失函数;所述的自适应学习率的数学表达式为:
Figure FDA0002215741420000011
其中,Current_step为当前学习率,base_rate为初始学习率,current_step为当前迭代步数,max_step为最大迭代步数,power为常量0.9,初始学习率设为2.5e-4;
所述的损失函数的表达式为:
Figure FDA0002215741420000012
其中y=ytruth,y'=ypred
Figure FDA0002215741420000013
w表示被限制的变量。
CN201910914699.5A 2019-09-26 2019-09-26 融合全卷积神经网络与改进aspp模块的场景分割方法 Active CN110706239B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910914699.5A CN110706239B (zh) 2019-09-26 2019-09-26 融合全卷积神经网络与改进aspp模块的场景分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910914699.5A CN110706239B (zh) 2019-09-26 2019-09-26 融合全卷积神经网络与改进aspp模块的场景分割方法

Publications (2)

Publication Number Publication Date
CN110706239A true CN110706239A (zh) 2020-01-17
CN110706239B CN110706239B (zh) 2022-11-11

Family

ID=69196404

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910914699.5A Active CN110706239B (zh) 2019-09-26 2019-09-26 融合全卷积神经网络与改进aspp模块的场景分割方法

Country Status (1)

Country Link
CN (1) CN110706239B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429403A (zh) * 2020-02-26 2020-07-17 北京航空航天大学杭州创新研究院 一种基于机器视觉的汽车齿轮成品缺陷检测方法
CN111488887A (zh) * 2020-04-09 2020-08-04 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、装置
CN112037219A (zh) * 2020-09-27 2020-12-04 上海电力大学 一种基于两阶段卷积神经网络的金属表面缺陷检测方法
CN112329603A (zh) * 2020-11-03 2021-02-05 西南科技大学 一种基于图像级联的坝面裂纹缺陷定位方法
CN113033570A (zh) * 2021-03-29 2021-06-25 同济大学 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法
CN113470048A (zh) * 2021-07-06 2021-10-01 北京深睿博联科技有限责任公司 场景分割方法、装置、设备及计算机可读存储介质
CN113688956A (zh) * 2021-10-26 2021-11-23 西南石油大学 一种基于深度特征融合网络的砂岩薄片分割和识别方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480726A (zh) * 2017-08-25 2017-12-15 电子科技大学 一种基于全卷积和长短期记忆单元的场景语义分割方法
CN107767413A (zh) * 2017-09-20 2018-03-06 华南理工大学 一种基于卷积神经网络的图像深度估计方法
US20180075142A1 (en) * 2016-09-14 2018-03-15 Ants Technology (Hk) Limited. Methods circuits devices systems and functionally associated machine executable code for generating a searchable real-scene database
CN108062756A (zh) * 2018-01-29 2018-05-22 重庆理工大学 基于深度全卷积网络和条件随机场的图像语义分割方法
WO2018125580A1 (en) * 2016-12-30 2018-07-05 Konica Minolta Laboratory U.S.A., Inc. Gland segmentation with deeply-supervised multi-level deconvolution networks
CN109255334A (zh) * 2018-09-27 2019-01-22 中国电子科技集团公司第五十四研究所 基于深度学习语义分割网络的遥感影像地物分类方法
US20190236738A1 (en) * 2018-02-01 2019-08-01 Fst21 Ltd System and method for detection of identity fraud
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN110147794A (zh) * 2019-05-21 2019-08-20 东北大学 一种基于深度学习的无人车室外场景实时分割方法
CN110232394A (zh) * 2018-03-06 2019-09-13 华南理工大学 一种多尺度图像语义分割方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075142A1 (en) * 2016-09-14 2018-03-15 Ants Technology (Hk) Limited. Methods circuits devices systems and functionally associated machine executable code for generating a searchable real-scene database
US20190258674A1 (en) * 2016-09-14 2019-08-22 Ants Technology (Hk) Limited. Methods circuits devices systems and functionally associated machine executable code for generating a searchable real-scene database
WO2018125580A1 (en) * 2016-12-30 2018-07-05 Konica Minolta Laboratory U.S.A., Inc. Gland segmentation with deeply-supervised multi-level deconvolution networks
CN107480726A (zh) * 2017-08-25 2017-12-15 电子科技大学 一种基于全卷积和长短期记忆单元的场景语义分割方法
CN107767413A (zh) * 2017-09-20 2018-03-06 华南理工大学 一种基于卷积神经网络的图像深度估计方法
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN108062756A (zh) * 2018-01-29 2018-05-22 重庆理工大学 基于深度全卷积网络和条件随机场的图像语义分割方法
US20190236738A1 (en) * 2018-02-01 2019-08-01 Fst21 Ltd System and method for detection of identity fraud
CN110232394A (zh) * 2018-03-06 2019-09-13 华南理工大学 一种多尺度图像语义分割方法
CN109255334A (zh) * 2018-09-27 2019-01-22 中国电子科技集团公司第五十四研究所 基于深度学习语义分割网络的遥感影像地物分类方法
CN110147794A (zh) * 2019-05-21 2019-08-20 东北大学 一种基于深度学习的无人车室外场景实时分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
VIJAY BADRINARAYANAN 等: ""SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
王宏健: ""基于遗传算法DDBN参数学习的UUV威胁评估"", 《哈尔滨工程大学学报》 *
谢岩 等: ""基于编解码器模型的车道识别与车辆检测算法"", 《广东工业大学学报》 *
郑菲 等: ""基于反卷积特征学习的图像语义分割算法"", 《计算机系统应用》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429403A (zh) * 2020-02-26 2020-07-17 北京航空航天大学杭州创新研究院 一种基于机器视觉的汽车齿轮成品缺陷检测方法
CN111429403B (zh) * 2020-02-26 2022-11-08 北京航空航天大学杭州创新研究院 一种基于机器视觉的汽车齿轮成品缺陷检测方法
CN111488887A (zh) * 2020-04-09 2020-08-04 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、装置
CN111488887B (zh) * 2020-04-09 2023-04-18 腾讯科技(深圳)有限公司 基于人工智能的图像处理方法、装置
CN112037219A (zh) * 2020-09-27 2020-12-04 上海电力大学 一种基于两阶段卷积神经网络的金属表面缺陷检测方法
CN112037219B (zh) * 2020-09-27 2024-01-26 上海电力大学 一种基于两阶段卷积神经网络的金属表面缺陷检测方法
CN112329603A (zh) * 2020-11-03 2021-02-05 西南科技大学 一种基于图像级联的坝面裂纹缺陷定位方法
CN112329603B (zh) * 2020-11-03 2022-09-13 西南科技大学 一种基于图像级联的坝面裂纹缺陷定位方法
CN113033570A (zh) * 2021-03-29 2021-06-25 同济大学 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法
CN113033570B (zh) * 2021-03-29 2022-11-11 同济大学 一种改进空洞卷积和多层次特征信息融合的图像语义分割方法
CN113470048A (zh) * 2021-07-06 2021-10-01 北京深睿博联科技有限责任公司 场景分割方法、装置、设备及计算机可读存储介质
CN113688956A (zh) * 2021-10-26 2021-11-23 西南石油大学 一种基于深度特征融合网络的砂岩薄片分割和识别方法

Also Published As

Publication number Publication date
CN110706239B (zh) 2022-11-11

Similar Documents

Publication Publication Date Title
CN110706239B (zh) 融合全卷积神经网络与改进aspp模块的场景分割方法
CN113421269B (zh) 一种基于双分支深度卷积神经网络的实时语义分割方法
CN111259905B (zh) 一种基于下采样的特征融合遥感图像语义分割方法
CN106599773B (zh) 用于智能驾驶的深度学习图像识别方法、系统及终端设备
CN110717921B (zh) 改进型编码解码结构的全卷积神经网络语义分割方法
CN107392925B (zh) 基于超像素编码和卷积神经网络的遥感影像地物分类方法
CN111428781A (zh) 遥感影像地物分类方法及系统
CN113902915B (zh) 一种基于低光照复杂道路场景下的语义分割方法及系统
CN112101175A (zh) 基于局部图像的高速公路车辆检测及多属性特征提取方法
CN107516103B (zh) 一种影像分类方法和系统
CN111882620B (zh) 一种基于多尺度信息道路可行驶区域分割方法
CN111160205B (zh) 一种交通场景嵌入式多类目标端对端统一检测方法
CN110399840B (zh) 一种快速的草坪语义分割及边界检测方法
CN107564009B (zh) 基于深度卷积神经网络的室外场景多目标分割方法
CN110991349B (zh) 一种基于度量学习的轻量级车辆属性识别方法
CN112508960A (zh) 一种基于改进注意力机制的低精度图像语义分割方法
CN112132145B (zh) 一种基于模型扩展卷积神经网络的图像分类方法及系统
CN113298039B (zh) 一种顾及遥感图像旋转目标的目标检测方法
CN113255837A (zh) 工业环境下基于改进的CenterNet网络目标检测方法
CN111832453A (zh) 基于双路深度神经网络的无人驾驶场景实时语义分割方法
CN116453121B (zh) 一种车道线识别模型的训练方法及装置
CN114693924A (zh) 一种基于多模型融合的道路场景语义分割方法
CN113780132A (zh) 一种基于卷积神经网络的车道线检测方法
CN114037640A (zh) 图像生成方法及装置
CN113409355A (zh) 一种基于fpga的运动目标识别系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant