CN109740451B - 基于重要性加权的道路场景图像语义分割方法 - Google Patents
基于重要性加权的道路场景图像语义分割方法 Download PDFInfo
- Publication number
- CN109740451B CN109740451B CN201811544813.1A CN201811544813A CN109740451B CN 109740451 B CN109740451 B CN 109740451B CN 201811544813 A CN201811544813 A CN 201811544813A CN 109740451 B CN109740451 B CN 109740451B
- Authority
- CN
- China
- Prior art keywords
- importance
- road scene
- weighting
- data set
- semantic segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了基于重要性加权的道路场景图像语义分割方法,首先建立基于重要性加权的损失函数的SegNet神经网络架构;然后选择CityScapes数据集,划分成训练数据集、验证数据集、测试数据集,训练神经网络模型,进行道路场景图像语义分割。本发明使用损失函数加权的方法分割道路场景图像,车辆和行人的分割更精细。
Description
技术领域
本发明属于道路分割技术,具体是涉及一种基于重要性加权的道路场景图像语义分割方法。
背景技术
语义分割是计算机视觉中十分重要的领域,它是指像素级地识别图像,即标注出图像中每个像素所属的对象类别。近年的自动驾驶技术中,也需要用到这种技术。车载摄像头探查到图像,后台计算机可以自动将图像分割归类,以避让行人和车辆等障碍。目前图像语义分割大部分都在采用深度学习技术,但是基于深度学习的几种网络模型都各有侧重点,专门用于道路场景的图像分割的方法比较少。
发明内容
本发明的目的在于提供一种基于重要性加权的道路场景图像语义分割方法,提升了车辆和行人的分割精度。
实现本发明目的的技术解决方案为:一种基于重要性加权的道路场景图像语义分割方法,首先建立基于重要性加权的损失函数的SegNet神经网络架构;然后选择CityScapes数据集,划分成训练数据集、验证数据集、测试数据集,训练神经网络模型,进行道路场景图像语义分割。
作为一种优选实施方式,SegNet神经网络架构包括5个卷积模块和反卷积模块,每个卷积模块中包含3个卷积层和一个最大池化的池化层,每个反卷积模块包含3个反卷积层和一个上采样层。
作为一种更优选实施方式,卷积模块和反卷积模块的卷积核选取大小为3*3的卷积核。
作为一种更优选实施方式,卷积模块和反卷积模块采用ReLu激活函数。
作为一种优选实施方式,重要性加权的损失函数,将道路场景中车辆和行人作为重要类别,确定重要类别和非重要类别的交叉熵损失值,再按照两种重要性类别的系数进行加权,得到重要性加权的损失函数值;使用向量IG1,IG2来表示两种重要性类别的交叉熵损失值,则第j个元素(IGi)j(i=1,2)的损失函数值具体为:
其中,Wi表示第i组像素点的重要性权重,P表示像素点在整个图片所有像素点中所占的频率,q表示独热编码(one-hot),c表示第c种场景类别的像素点。
作为一种优选实施方式,训练神经网络模型时,把整个数据集均分成K个子集,每次选取一个子集作为测试集,从K-1个子集中选出3/4作为训练数据集,剩下的1/4作为验证数据集,进行K次交叉验证,得到训练好的神经网络模型。
作为一种优选实施方式,在训练前,对CityScapes数据集的图像进行基于色彩饱和度的图像增强、基于图像尺寸的数据增强,扩充数据集。
本发明与现有技术相比,其显著优点为:1)本发明使用损失函数加权的方法分割道路场景图像,车辆和行人的分割更精细;2)本发明在网络结构的反卷积和上采样部分,使用在卷积阶段记录的最大池化的指数信息,使得最后分割结果更好。
附图说明
图1为本发明的基于重要性加权的道路场景图像语义分割方法的流程图。
图2为最大池化的池化层的示意图。
图3为第一层卷积的变换示意图。
图4为第二层卷积的变换示意图。
具体实施方式
下面结合附图和具体实施例,进一步说明本发明方案。
一种重要性加权的道路场景图像语义分割方法,包括以下步骤:
步骤1、建立基于重要性加权的损失函数的SegNet神经网络架构,使用卷积神经网络对道路场景图像进行多级分层的特征提取,产生多级特征图,然后对多级特征图按照从低级到高级的顺序,进行对称性的反卷积和上采样操作,在最终的输出结果前加入基于重要性加权的损失函数,不断更新模型参数,使得最后的分割结果中,车辆和行人的分割效果更好。
本发明采用的是经典神经网络结构SegNet,同时进行结构上的改进,具体是构建5个卷积模块(CONV_BLOCK),每个卷积块中包含3个卷积层和一个最大池化的池化层,如图2所示。通过对每张输入图像进行第一层的卷积和池化的处理,使得通道数变为64,特征图尺寸变为原来的1/2,如图3所示;通过对中间层的特征图进行卷积和池化处理,使得通道数翻倍,特征图尺寸变为上一层的1/2,如图4所示。对称地,构建5个反卷积模块,每个反卷积模块包含3个反卷积层和一个上采样层。
关于卷积核的选择,鉴于以往的深度学习经验,本发明选取大小为3*3的卷积核,所有的卷积层都是用这个卷积核的尺寸。
关于激活函数,本发明使用ReLu作为激活函数,这是由于ReLu激活函数本身的一些优点,包括:
(1)采用sigmoid等函数,算激活函数时(指数运算),计算量大,反向传播求误差梯度时,求导涉及除法,计算量相对大,而采用Relu激活函数,整个过程的计算量节省很多。
(2)对于深层网络,sigmoid函数反向传播时,很容易就会出现梯度消失的情况,ReLu能有效解决这个问题。
(3)ReLu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生。
关于架构的损失函数,采用重要性加权的损失函数,将道路场景中车辆和行人作为重要类别,确定重要类别和非重要类别的交叉熵损失值,再按照两种重要性类别的系数进行加权,得到重要性加权的损失函数值;使用向量IG1,IG2来表示两种重要性类别的交叉熵损失值,则第j个元素(IGi)j(i=1,2)的损失函数值具体为:
其中,Wi表示第i组像素点的重要性权重,P表示像素点在整个图片所有像素点中所占的频率,q表示独热编码(one-hot),c表示第c种场景类别的像素点,本发明中设置这个比例系数为2,也就是说,车辆和行人的重要性是其他类别的两倍。
步骤2、选择CityScapes数据集,划分成训练数据集、验证数据集、测试数据集,训练神经网络模型;
先介绍数据集各组成部分的作用,训练数据用于模型构建;验证数据可选,用于辅助模型构建,可以重复使用。测试数据用于检测模型构建,此数据只在模型检验时使用,用于评估模型的准确率,绝对不允许用于模型构建过程,否则会导致过拟合。
本发明把整个数据集均分成K个子集,每次选取一个子集作为测试集,从K-1个子集中选出3/4作为训练数据集,剩下的1/4作为验证数据集,进行K次交叉验证,得到训练好的神经网络模型。
训练神经网络模型时,卷积部分,使用VGG16在ImageNet上进行预训练的权重初始化,反卷积部分,使用随机初始化参数的方法,这样可以明显减少训练时间,在更少的时间内取得更好的分割效果。此外还需要设置一些超参数,包括迭代次数epoch,每次输入到神经网络进行训练的图像数量batch-size的大小设置,确定训练结束条件。本发明中设置epoch的值为50,batch-size的大小为64。通过设置初始网络权重,网络参数采用随机初始化的方法,不断进行迭代训练,直到加权平均损失小于设定的阈值或者迭代次数大于设定的阈值,结束训练。
作为一种优选实施方式,还可以在训练前,对CityScapes数据集的图像进行基于色彩饱和度的图像增强、基于图像尺寸的数据增强,扩充数据集,然后对扩充的数据集,进行上述处理。
步骤3、利用训练好的模型,进行道路场景图像语义分割。
本发明在分割道路场景图像的车辆和行人部分时,利用损失函数加权的方法,使得重要部分的分割精度更高;在分割道路场景图像的非车辆和行人部分时,使用权重较低的损失函数进行训练;然后得到最终的神经网络模型,即得到训练好的参数值。
Claims (6)
1.基于重要性加权的道路场景图像语义分割方法,其特点在于,首先建立基于重要性加权的损失函数的SegNet神经网络架构;然后选择CityScapes数据集,划分成训练数据集、验证数据集、测试数据集,训练神经网络模型,进行道路场景图像语义分割;
重要性加权的损失函数,将道路场景中车辆和行人作为重要类别,确定重要类别和非重要类别的交叉熵损失值,再按照两种重要性类别的系数进行加权,得到重要性加权的损失函数值;使用向量IG1,IG2来表示两种重要性类别的交叉熵损失值,则第j个元素(IGi)j,i=1,2的损失函数值具体为:
其中,Wi表示第i组类别像素的重要性权重值,P表示像素点在整个图片所有像素点中所占的频率,q表示独热编码one-hot,c表示第c种场景类别的像素点。
2.根据权利要求1所述的基于重要性加权的道路场景图像语义分割方法,其特点在于,SegNet神经网络架构包括5个卷积模块和反卷积模块,每个卷积块中包含3个卷积层和一个最大池化的池化层,每个反卷积模块包含3个反卷积层和一个上采样层。
3.根据权利要求2所述的基于重要性加权的道路场景图像语义分割方法,其特点在于,卷积模块和反卷积模块的卷积核选取大小为3*3的卷积核。
4.根据权利要求2所述的基于重要性加权的道路场景图像语义分割方法,其特点在于,卷积模块和反卷积模块采用ReLu激活函数。
5.根据权利要求1所述的基于重要性加权的道路场景图像语义分割方法,其特点在于,训练神经网络模型时,把整个数据集均分成K个子集,每次选取一个子集作为测试集,从K-1个子集中选出3/4作为训练数据集,剩下的1/4作为验证数据集,进行K次交叉验证,得到训练好的神经网络模型。
6.根据权利要求1所述的基于重要性加权的道路场景图像语义分割方法,其特点在于,在训练前,对CityScapes数据集的图像进行基于色彩饱和度的图像增强、基于图像尺寸的数据增强,扩充数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811544813.1A CN109740451B (zh) | 2018-12-17 | 2018-12-17 | 基于重要性加权的道路场景图像语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811544813.1A CN109740451B (zh) | 2018-12-17 | 2018-12-17 | 基于重要性加权的道路场景图像语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109740451A CN109740451A (zh) | 2019-05-10 |
CN109740451B true CN109740451B (zh) | 2022-11-25 |
Family
ID=66360360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811544813.1A Active CN109740451B (zh) | 2018-12-17 | 2018-12-17 | 基于重要性加权的道路场景图像语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109740451B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135591B (zh) * | 2019-05-16 | 2024-08-16 | 数坤科技股份有限公司 | 一种基于深度学习的损失值优化方法及设备 |
CN110349124A (zh) * | 2019-06-13 | 2019-10-18 | 平安科技(深圳)有限公司 | 车辆外观损伤智能检测方法、装置及计算机可读存储介质 |
CN110287932B (zh) * | 2019-07-02 | 2021-04-13 | 中国科学院空天信息创新研究院 | 基于深度学习图像语义分割的道路阻断信息提取方法 |
CN110853069A (zh) * | 2019-10-09 | 2020-02-28 | 上海眼控科技股份有限公司 | 一种用于车辆外观分割的神经网络模型构建方法与系统 |
CN111080551B (zh) * | 2019-12-13 | 2023-05-05 | 太原科技大学 | 基于深度卷积特征和语义近邻的多标签图像补全方法 |
CN112101364B (zh) * | 2020-09-10 | 2023-10-20 | 西安电子科技大学 | 基于参数重要性增量学习的语义分割方法 |
US20220176998A1 (en) * | 2020-12-08 | 2022-06-09 | Guangzhou Automobile Group Co., Ltd. | Method and Device for Loss Evaluation to Automated Driving |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108319972B (zh) * | 2018-01-18 | 2021-11-02 | 南京师范大学 | 一种针对图像语义分割的端到端差异网络学习方法 |
CN108446616B (zh) * | 2018-03-09 | 2021-09-03 | 西安电子科技大学 | 基于全卷积神经网络集成学习的道路提取方法 |
-
2018
- 2018-12-17 CN CN201811544813.1A patent/CN109740451B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109740451A (zh) | 2019-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740451B (zh) | 基于重要性加权的道路场景图像语义分割方法 | |
US20210089922A1 (en) | Joint pruning and quantization scheme for deep neural networks | |
CN110232394B (zh) | 一种多尺度图像语义分割方法 | |
CN110826596A (zh) | 一种基于多尺度可变形卷积的语义分割方法 | |
CN109345508B (zh) | 一种基于两阶段神经网络的骨龄评价方法 | |
CN109753913B (zh) | 计算高效的多模式视频语义分割方法 | |
EP3608844A1 (en) | Methods for training a crnn and for semantic segmentation of an inputted video using said crnn | |
US10354185B2 (en) | Learning apparatus, learning program, and learning method | |
CN105657402B (zh) | 一种深度图恢复方法 | |
CN111861925A (zh) | 一种基于注意力机制与门控循环单元的图像去雨方法 | |
CN112634296A (zh) | 门机制引导边缘信息蒸馏的rgb-d图像语义分割方法及终端 | |
CN112101364B (zh) | 基于参数重要性增量学习的语义分割方法 | |
US11487998B2 (en) | Depth-first convolution in deep neural networks | |
CN113807356B (zh) | 一种端到端的低能见度图像语义分割方法 | |
CN113962878B (zh) | 一种低能见度图像去雾模型方法 | |
CN109460815A (zh) | 一种单目视觉深度估计方法 | |
CN109508639B (zh) | 基于多尺度带孔卷积神经网络的道路场景语义分割方法 | |
CN114821058A (zh) | 一种图像语义分割方法、装置、电子设备及存储介质 | |
CN116863194A (zh) | 一种足溃疡图像分类方法、系统、设备及介质 | |
CN114463727A (zh) | 一种地铁驾驶员行为识别方法 | |
CN116740362A (zh) | 一种基于注意力的轻量化非对称场景语义分割方法及系统 | |
CN111160282B (zh) | 一种基于二值化Yolov3网络的红绿灯检测方法 | |
CN116523888B (zh) | 路面裂缝的检测方法、装置、设备及介质 | |
Di et al. | FDNet: An end-to-end fusion decomposition network for infrared and visible images | |
CN113052810B (zh) | 一种适用于移动应用的小巧医学影像病灶分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |