CN109902600B - 一种道路区域检测方法 - Google Patents
一种道路区域检测方法 Download PDFInfo
- Publication number
- CN109902600B CN109902600B CN201910105358.3A CN201910105358A CN109902600B CN 109902600 B CN109902600 B CN 109902600B CN 201910105358 A CN201910105358 A CN 201910105358A CN 109902600 B CN109902600 B CN 109902600B
- Authority
- CN
- China
- Prior art keywords
- road
- seg
- segmentation
- decoding module
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种道路区域检测方法,该方法包括:S1,设计道路数据增强方法,生成道路数据增强函数;S2,采用道路数据增强函数,输入训练样本,输出增强道路数据;S3,设计并训练生成特征编码网络模型,利用增强道路数据,通过特征编码网络模型,输出编码特征图;S4,设计并训练生成道路分割解码模块和道路类型分类解码模块,采用道路分割解码模块和道路类型分类解码模块,通过输入编码特征图,能够输出道路分割结果和道路类型分类结果。本发明提供道路区域像素级分割和多类型分类结果,可用于智能车辆的可通行区域检测,也可为智能车辆的避障和路径规划提供依据。
Description
技术领域
本发明涉及自动驾驶领域,特别是涉及一种基于几何边缘分割优化和深度学习特征编解码的道路区域检测方法。
背景技术
随着深度学习技术和智能车辆技术的快速发展,深度学习已在智能车辆领域中的环境感知和决策规划中得到了应用广泛。道路区域检测作为智能车辆环境感知系统的核心组成部分,是智能车辆进行避障和规划的基础。若使用摄像头传感器数据作为输入,则对于图像通道中的每一个像素点,道路区域检测的目标是判断该像素点类别是属于道路区域,还是非道路区域(障碍物区域)。相比于其它传感器,单目摄像头由于语义特征丰富、可扩展性强、性价比高和具有多任务属性等特点,受到了广泛的关注,得到了深入的研究。
然而,基于单目摄像头的智能车辆行驶道路区域检测这一具体的感知任务,现有研究方法针对的是道路分割问题,缺少对道路类型分类任务的研究,特别是道路分割和分类的融合问题。对道路分割问题,在传统的研究中,常用的方法是采用一种或多种围绕道路几何形状、灰度、边缘和纹理等人为设计特征,并结合最近邻法、K均值聚类和支持向量机等算法进行图像像素的分类,从而实现道路区域分割任务,在结构化道路上能取得较好的分割性能,但无法适应城市无车道线的道路类型。这类传统的道路区域分割方法,虽然简单易于实现和理解,但是具有特征表现能力不足、模型泛化能力受限,以及易受外界光照条件和道路类型等干扰的缺点。针对这些问题,近十年来,具有特征自学习能力的基于深度卷积神经网络(DCNN)的分割方法将用于通用图像语义分割任务的全卷积神经网络进行改进,在损失函数设计中将道路边缘与道路中心像素同等对待,用于道路分割。虽然这些基于DCNN的方法相比于传统方法有了更好的分割性能,但是仍存在道路边缘分割粗糙、对道路类型敏感和分割准确率有限等问题。
总体来说,现阶段针对智能车辆的道路区域检测具有以下几个方面的问题:1)不能普遍适用于复杂的城市道路类型,包括城市无车道线,城市单车道和城市多车道;2)没有充分考虑不同道路区域像素点的特性,没有区别道路边缘与道路中心像素,导致道路边界处的分割效果较差;3)常见公开数据集中,不同道路几何形状的训练样本数量不平衡,导致易受具有不同道路几何结构的道路类型等干扰,导致道路分割鲁棒性不足。
因此,希望有一种技术方案来克服或至少减轻现有技术的上述缺陷中的至少一个。
发明内容
本发明的目的在于提供一种基于几何边缘分割优化和深度学习特征编解码的道路区域检测方法来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目的,本发明提供一种道路区域检测方法,所述道路区域检测方法包括:S1,设计道路数据增强方法,并生成道路数据增强函数;其中,道路数据增强方法具体包括像素值变化和图像扭曲变换;S2,采用S1生成的所述道路数据增强函数,输入训练样本,输出增强道路数据,所述增强道路数据包括大小相同的所述训练样本和增强后的样本;其中,所述训练样本包括原始道路RGB图像和与该原始道路RGB图像相对应的真值标注二值化图像;S3,设计并训练生成特征编码网络模型,利用S2得到的所述增强道路数据,通过所述特征编码网络模型,输出编码特征图;S4,设计并训练生成多任务解码网络模型,所述多任务解码网络模型包括道路分割解码模块和道路类型分类解码模块,其中,所述道路分割解码模块对应的优化损失函数为道路分割损失函数Lseg(θseg);所述道路类型分类解码模块对应的优化损失函数为道路类型分类损失函数Lcls(θcls),组成总的损失函数L(Θ);采用所述道路分割解码模块,通过输入S3得到的所述编码特征图,能够输出道路分割结果;采用所述道路类型分类解码模块,通过输入S3得到的所述编码特征图,能够输出道路类型分类结果。
进一步地,S2中的所述道路数据增强函数对所述训练样本的处理过程包括:根据所述训练样本,在所述真值标注二值化图像的轮廓中,随机取出若干轮廓点作为扭曲变形的控制点,对所述原始道路RGB图像和其对应的真值标注二值化图像进行小幅扭曲图像变换,改变道路原有的几何形状。
进一步地,S3中的特征编码网络模型的设计过程包括:S31,采用带有混合空洞卷积的全卷积深度残差网络ResNet作为共享的编码网络,其编码网络包括5个卷积层conv和1个最大池化层,conv_i表示网络中的第i阶段卷积,其中,conv_1阶段采用3层连续的3x3的卷积核,conv_2、conv_3阶段分别含有3个和4个ResNet中普通的瓶颈模块,conv_4阶段中的6个瓶颈模块采用空洞大小分别为1,2,5,9,2和2的混合空洞卷积核,conv_5阶段中的3个瓶颈模块采用空洞大小分别为5,9,17的混合空洞卷积核;原始图像输入到conv_1,并先后依序通过所述最大池化层、conv_2、conv_3和conv_4,并经由conv_5后输出;
S3中的特征编码网络模型的训练生成过程包括:S32,采用S31设计好的所述特征编码网络模型,输入S2得到的所述增强道路数据,通过所述特征编码网络模型图像特征提取学习,输出所述编码特征图,所述编码特征图表示为H/8×W/8×204。
进一步地,S4包括:S41,设计所述道路分割解码模块,所述道路分割解码模块包括第一1×1卷积通道压缩层,原始图像输入到所述第一1×1卷积通道压缩层,并先后依序通过上采样层、第一1×1卷积分类层和第一softmax层,并经由类别合并后输出;S42,采用所述道路分割解码模块,通过输入S3得到的所述编码特征图输出道路分割结果,所述道路分割结果包括带有道路和背景两类分割结果的RGB图像,该图像中所有像素点中,道路区域标为第一种颜色,背景区域的颜色与所述原始图像相同,S42具体包括:S421,通过所述第一1×1卷积通道压缩层,压缩S32输出的所述H/8×W/8×2048,并输出H/8×W/8×128的多通道特征图;S422,通过所述上采样层利用无参数学习的双线性插值法进行上采样,将所述H/8×W/8×128的多通道特征图采样至S2得到的所述增强道路数据的大小,并输出H×W×128的多通道特征图;S423,先后依序通过所述第一1×1卷积分类层和第一softmax层,得到道路内部像素Pin、道路边缘像素Pbd、背景内部像素Nin和背景边缘像素Nbd的概率,并输出H×W×4的多通道特征图;以及S424,合并边缘像素和内部像素的类别,得到所述道路分割结果,表示为H×W×2的二通道特征图,即道路分割像素类别得分图。
进一步地,S4中的所述道路分割损失函数Lseg(θseg)表示为式(1):
Lseg(θseg)=Lin(θseg)+αLbd(θseg) (1)
式(1)中,θseg表示所述道路分割解码模块的学习参数,Lin(θseg)表示道路内部和边缘的损失函数项,Lbd(θseg)表示道路边缘和背景边缘的损失函数项,如下式(2):
式(2)中,GTx,y表示所述原始道路RGB图像中像素(x,y)的真值标签,PRx,y(θseg)表示在参数θseg下,像素(x,y)的预测标签,损失函数采用交叉熵损失函数,如式(3)所示:
进一步地,S4还包括:S43,采用所述道路分割损失函数Lseg(θseg)训练生成所述道路分割解码模块的过程包括:S431,根据道路和非道路两类,将S2中的所述增强道路数据中的所有像素二划分,生成二值化标注的图像;S432,将S431输出的图像中的像素进行四划分,获取二划分的二值标注图像中的连通域边界;其中:对于连通域边界上的每一个像素点,以其为圆心,半径为k的圆包含的像素中,将所述原始道路RGB图像中像素(x,y)的真值标签为道路类别的像素变更为道路边缘像素Pbd类别,原始标注为背景类别的像素变更为背景边缘像素Nbd类别;对于其它未包含在任意圆内的像素,将原始标注中的道路类别变更为道路内部像素Pin,原始标注中的背景类别变更为背景内部像素Nin。
进一步地,S4还包括:S44,设计道路类型分类解码模块,所述道路类型分类解码模块包括第二1×1卷积通道压缩层,原始图像输入到所述第二1×1卷积通道压缩层,并先后依序通过下采样层、全局平均池化层和第二1×1卷积分类层,并经由第二softmax层后输出;S45,采用所述道路类型分类解码模块,通过输入S3得到的所述编码特征图输出道路类型分类结果,所述道路类型分类结果为每张S2中的所述训练样本属于三种城市道路类型{uu,um,umm}中某一道路类型的概率,表示为1×1×3的向量,uu为城市无车道线,um为城市单车道,umm为城市多车道,S45其具体包括:S451,通过所述第二1×1卷积通道压缩层,压缩S32输出的所述H/8×W/8×2048,并输出H/8×W/8×64的多通道特征图;S452,通过下采样层利用双线性下采样,降低S451压缩后的编码特征图的尺寸,并输出H/32×W/32×64的多通道特征图;S453,采用所述全局平均池化层,输入H/32×W/32×64的多通道特征图,输出用于分类的1×1×64的列向量形式的特征图;S454,将S453输出的1×1×64的列向量形式的特征图先后依序通过第二1×1卷积分类层和第二softmax层,输出所述道路类型分类结果。
进一步地,S4中的所述道路类型分类损失函数Lcls(θcls)采用Lseg函数中使用的交叉熵损失函数(3),多任务解码模型的总体损失函数为:
L(Θ)=Lseg(θseg)+βLcls(θcls) (4)
式(4)中,权重系数β用于调整道路分割和道路场景分类两个子任务的损失权重,L(Θ)用于学习各类网络层的权值W和偏值B;
S4还包括:S46,采用所述道路类型分类损失函数Lcls(θcls)训练生成所述道路类型分类解码模块的过程。
本发明能够在车辆行驶过程中准确获取行驶道路区域的像素级分割和多类型分类结果,可用于智能车辆的可通行区域检测,也可为智能车辆的避障和路径规划提供依据。
附图说明
图1是本发明实施例所提供的道路区域检测方法的流程图;
图2是本发明实施例所提供的道路区域检测方法中的道形状几何变形数据增强效果示意图;
图3是本发明实施例所提供的道路区域检测方法中的道路分割类别划分方法示意图;
图4是本发明实施例所提供的道路区域检测方法中的特征编码网络模型的结构示意图;
图5是本发明实施例所提供的道路区域检测方法中的多任务解码网络模型的结构示意图。
具体实施方式
在附图中,使用相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面结合附图对本发明的实施例进行详细说明。
在本发明的描述中,术语“中心”、“纵向”、“横向”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明保护范围的限制。
本发明所提供的基于几何边缘分割优化和深度学习特征编解码的道路区域检测方法可以为智能车辆提供实时更新的行驶道路的类型和区域分割结果,可用于智能车辆的可通行区域检测,也可为智能车辆的避障和路径规划提供依据。
如图1至图3所示,本实施例提供的道路区域检测方法包括:
S1,设计道路数据增强方法,并生成道路数据增强函数RoadDateUpdate。其中,道路数据增强方法具体包括像素值变化和图像扭曲变换。像素值变化具体指的是随机高斯模糊,颜色抖动(包括随机小幅改变亮度、饱和度和对比度的),以及随机剪裁、随机尺寸缩放、随机旋转、随机水平镜像翻转等。图像扭曲变换是对输入的原始图像对应标注的轮廓中随机取出若干轮廓点作为扭曲变形的控制点,进而同时对原始图像和其真值标注二值化图像进行小幅的扭曲图像变换,改变道路原有的几何形状。效果示意图如图2所示,图2中的“数据增强”的左侧为原始图像和其真值标注二值化图像,图2中的“数据增强”的右侧为数据增强后的原始图像和其真值标注二值化图像。道路数据增强函数RoadDateUpdate包括深度学习中数据增强常采用的图像剪裁(每个输入样本是将1242×375像素大小的原始图像随机剪裁为W=800,H=375像素大小的图像块),随机高斯模糊,颜色抖动(包括随机小幅改变亮度、饱和度和对比度的),以及随机尺寸缩放,随机旋转,随机水平镜像翻转一系列的图像处理函数。
S2,采用S1生成的所述道路数据增强函数,输入训练样本,输出增强道路数据,所述增强道路数据包括大小相同的所述训练样本和增强后的样本。其中,所述训练样本从道路检测数据集的训练数据集中获取得到,所述训练样本包括原始道路RGB图像(如图2中的上部分图像)和与该原始道路RGB图像相对应的真值标注二值化图像(如图2中的下部分图像)。“大小”指的是图像的高H和宽W。“大小相同”指的是所述训练样本的高H和宽W与增强后的样本的高H和宽W相同。
S3,设计并训练生成特征编码网络模型RoadCodeNet,利用S2得到的所述增强道路数据,通过所述特征编码网络模型,输出编码特征图。
S4,设计并训练生成多任务解码网络模型RoadDecodeNet,所述多任务解码网络模型包括道路分割解码模块和道路类型分类解码模块,其中,所述道路分割解码模块对应的优化损失函数为道路分割损失函数Lseg(θseg);所述道路类型分类解码模块对应的优化损失函数为道路类型分类损失函数Lcls(θcls),组成总的损失函数L(Θ);采用所述道路分割解码模块,通过输入S3得到的所述编码特征图,能够输出道路分割结果;采用所述道路类型分类解码模块,通过输入S3得到的所述编码特征图,能够输出道路类型分类结果。
在一个实施例中,S2中的所述道路数据增强函数对所述训练样本的处理过程包括:
根据所述训练样本,在所述真值标注二值化图像的轮廓中,随机取出若干轮廓点作为扭曲变形的控制点,对所述原始道路RGB图像和其对应的真值标注二值化图像进行小幅扭曲图像变换,改变道路原有的几何形状。本步骤提供的数据增强方法能够扩充道路的几何形状,平衡训练数据集中直道和弯道场景的数量,进而提升训练样本的丰富程度,提高模型的泛化能力。
在一个实施例中,如图4所示,S3中的特征编码网络模型的设计过程包括:
S31,采用带有混合空洞卷积(HDC)的全卷积深度残差网络ResNet作为共享的编码网络,用于原始图像特征的提取。其编码网络包括5个卷积层conv和1个最大池化层,conv_i表示网络中的第i阶段卷积,原始图像输入到conv_1,并先后依序通过所述最大池化层、conv_2、conv_3和conv_4,并经由conv_5后输出。conv_1将原始的7×7的卷积核改为3层连续的3×3的卷积核。conv_2、conv_3分别含有3个和4个ResNet中普通的瓶颈模块。conv_4中的6个瓶颈模块采用空洞大小分别为1、2、5、9、2和2的混合空洞卷积核。conv_5中的3个瓶颈模块采用空洞大小分别为5、9和17的混合空洞卷积核。
S3中的特征编码网络模型的训练生成过程包括:
S32,采用S31设计好的所述特征编码网络模型,输入S2得到的所述增强道路数据,通过所述特征编码网络模型图像特征提取学习,输出所述编码特征图,所述编码特征图表示为H/8×W/8×2048,H/8×W/8×2048中的H/8指的是所述编码特征图的高是所述增强道路数据的高的1/8,W/8指的是所述编码特征图的宽是所述增强道路数据的宽的1/8,2048指的是所述编码特征图的维度。H/8×W/8×2048作为多任务解码网络的输入。
在一个实施例中,S4包括:
S41,设计所述道路分割解码模块,所述道路分割解码模块包括第一1×1卷积通道压缩层,原始图像输入到所述第一1×1卷积通道压缩层,并先后依序通过上采样层、第一1×1卷积分类层和第一softmax层,并经由类别合并后输出。
S42,采用所述道路分割解码模块,通过输入S3得到的所述编码特征图输出道路分割结果,所述道路分割结果包括带有道路和背景两类分割结果的RGB图像,该图像中所有像素点中,道路区域标为第一种颜色,与原始道路区域的颜色相区别,背景区域的颜色保持不变,S42具体包括:
S421,通过所述第一1×1卷积通道压缩层,压缩S32输出的所述H/8×W/8×2048,并输出H/8×W/8×128的多通道特征图。也就是说,通过所述第二1×1卷积通道压缩层压缩2048通道特征图压缩至128通道特征图。
S422,通过所述上采样层利用无参数学习的双线性插值法进行上采样,将所述H/8×W/8×128的多通道特征图采样至S2得到的所述增强道路数据的大小,并输出H×W×128的多通道特征图。
S423,如图3所示,先后依序通过所述第一1×1卷积分类层和第一softmax层,得到道路内部像素Pin(白色区域)、道路边缘像素Pbd(深灰色区域)、背景内部像素Nin(黑色区域)和背景边缘像素Nbd(浅灰区域)的概率,并输出H×W×4的多通道特征图。也就是说,道路内部像素Pin、道路边缘像素Pbd、背景内部像素Nin和背景边缘像素Nbd的概率之和为1,属于4类中的每一类的概率最大,就确定为该类别。例如,属于各类别的概率是:背景边缘0.2,背景内部0.1,道路边缘0.3,道路内部0.4,说明该像素点类别为道路内部。
S424,合并边缘像素和内部像素的类别,背景边缘和背景内部均属于背景,道路边缘和道路内部均属于道路,从而得到所述道路分割结果,表示为H×W×2的二通道特征图,即道路分割像素类别得分图,该图是高为H宽为W的二值化图像。
在一个实施例中,S4中的所述道路分割损失函数Lseg(θseg)表示为式(1):
Lseg(θseg)=Lin(θseg)+αLbd(θseg) (1)
式(1)中,θseg表示多任务解码网络模型的学习参数,其用来估量模型的预测值与真实值的不一致程度,以求预测值;θseg是在道路分割解码模块训练中自学习获取,即通过自动调整θseg参数让模型输出的预测值与真实值尽可能接近;Lin(θseg)表示道路内部和边缘的损失函数项,Lbd(θseg)表示道路边缘和背景边缘的损失函数项,如下式(2):
式(2)中,GTx,y表示所述原始道路RGB图像中像素(x,y)的真值标签,PRx,y(θseg)表示在参数θseg下,像素(x,y)的预测标签,损失函数采用交叉熵损失函数,如式(3)所示:
在模型训练时,令边缘像素损失权重α>1,则表示道路分割的网络模型更聚焦于边缘区域的分类,以此缓解道路边缘区域分类困难问题。
在一个实施例中,S4还包括:
S43,采用所述道路分割损失函数Lseg(θseg)训练生成所述道路分割解码模块的过程包括:
S431,根据道路和非道路(非道路类别也称背景、障碍物)两类,将S2中的所述增强道路数据中的所有像素二划分,生成二值化标注的图像,比如道路区域为1,非道路区域为0。
S432,将S431输出的图像中的像素进行四划分,获取二划分的二值标注图像中的连通域边界;其中:对于连通域边界上的每一个像素点,以其为圆心,半径为k的圆包含的像素中,将所述原始道路RGB图像中像素(x,y)的真值标签为道路类别的像素变更为道路边缘像素Pbd类别,原始标注为背景类别的像素变更为背景边缘像素Nbd类别;对于其它未包含在任意圆内的像素,将原始标注中的道路类别变更为道路内部像素Pin,原始标注中的背景类别变更为背景内部像素Nin。
本实施例通过重新划分输入训练样本中的原始的道路RGB图像的道路像素类别,增加道路边缘像素类别损失函数权重和采样频率,将道路区域增强数据进行像素点的四划分,优化道路边缘的分割效果,提供给下一单元训练多任务解码网络模型单元中的道路分割任务学习。
在一个实施例中,如图5所示,S4还包括:
S44,设计道路类型分类解码模块,所述道路类型分类解码模块包括第二1×1卷积通道压缩层,原始图像输入到所述第二1×1卷积通道压缩层,并先后依序通过下采样层、全局平均池化层和第二1×1卷积分类层,并经由第二softmax层后输出。
S45,采用所述道路类型分类解码模块,通过输入S3得到的所述编码特征图输出道路类型分类结果,所述道路类型分类结果为每张S2中的所述训练样本属于三种城市道路类型{uu,um,umm}中某一道路类型的概率,表示为1×1×3的向量,uu为城市无车道线,um为城市单车道,umm为城市多车道,S45其具体包括:
S451,通过所述第二1×1卷积通道压缩层,压缩S32输出的所述H/8×W/8×2048,并输出H/8×W/8×64的多通道特征图。也就是说,通过所述第二1×1卷积通道压缩层,压缩S32输出的2048通道特征图压缩至64通道。
S452,通过下采样层利用双线性下采样,降低S451压缩后的编码特征图的尺寸,并输出H/32×W/32×64的多通道特征图。也就是说,将S451压缩后的编码特征图的尺寸降为原图的1/32。
S453,采用所述全局平均池化层,输入H/32×W/32×64的多通道特征图,输出用于分类的1×1×64的列向量形式的特征图。一个H/32×W/32的特征图全局平均池化后得到一个值,该值为一个特征图所有像素值的平均值。
S454,将S453输出的1×1×64的列向量形式的特征图先后依序通过第二1×1卷积分类层和第二softmax层,输出所述道路类型分类结果。
在一个实施例中,S4中的所述道路类型分类损失函数Lcls(θcls)采用Lseg函数中使用的交叉熵损失函数(3),多任务解码模型的总体损失函数表示为式(4):
L(Θ)=Lseg(θseg)+βLcls(θcls) (4)
式(4)中,Θ={θseg,θcls}表示多任务网络模型的总体参数;权重系数β用于调整道路分割和道路场景分类两个子任务的损失权重,L(Θ)用于学习各类网络层的权值W和偏值B。
S4还包括:
S46,采用所述道路类型分类损失函数Lcls(θcls)训练生成所述道路类型分类解码模块的过程。
当然,需要说明的是,上述道路数据增强函数RoadDateUpdate、道路分割损失函数Lseg(θseg)和道路类型分类损失函数Lcls(θcls)以及特征编码网络模型RoadCodeNet和多任务解码网络模型RoadDecodeNet,均需要进行测试,以判断各函数和模型的性能好坏。鉴于此,本实施例提供的道路区域检测方法还包括:
S5,模型测试:采用道路数据增强函数RoadDateUpdate对输入的测试样本进行数据增强,然后利用特征编码网络模型RoadCodeNet对样本数据提取编码特征,接着结合分割损失函数Lseg,使用多任务解码网络模型RoadDecodeNet进行道路分割和道路类型分类两个任务,并输出最终的道路区域检测结果,包括道路分割和道路类型结果。
其中,需要指出的是,测试样本可以有两个来源:一个是训练样本中,单独挑选出来作为验证集,以同时判断训练模型的收敛情况的49张训练样本,同时提供了包括原始的道路RGB图像和对应的真值标注二值化图像两部分,可以在本地利用国际通用的标准评价指标--平均精确率(Average Precision,AP)和最大F1值(Maximum F1-measure)等,进行整个模型测试性能的评价;另一个是数据库KITTI_Road的测试数据集,该测试数据集只提供原始的道路RGB图像,需要利用官方提供的在线服务器进行结果提交和评价。另外,基于像素值变化和几何变形的道路数据增强方法,模型学习时使用,在模型测试中可以不采用,对实际道路分割性能影响不大时,需要采用基于像素值变化和几何变形的道路数据增强方法来扩展训练数据的多样性;而在测试阶段,可以不用采用数据增强方法。
测试时,所述道路分割损失函数Lseg(θseg)中的边缘像素权重系数α和多任务解码模型的总体损失函数的权重系数β由多组试验确定。具体地,首先通过改变边缘像素权重系数α寻找较优的α*,然后使用固定的α*和变化的权重系数β寻找较优的β*,最终采用α*=2,β*=0.25的权重系数设置。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (7)
1.一种道路区域检测方法,其特征在于,包括:
S1,设计道路数据增强方法,并生成道路数据增强函数;其中,道路数据增强方法具体包括像素值变化和图像扭曲变换;
S2,采用S1生成的所述道路数据增强函数,输入训练样本,输出增强道路数据,所述增强道路数据包括大小相同的所述训练样本和增强后的样本;其中,所述训练样本包括原始道路RGB图像和与该原始道路RGB图像相对应的真值标注二值化图像;
S3,设计并训练生成特征编码网络模型,利用S2得到的所述增强道路数据,通过所述特征编码网络模型,输出编码特征图;
S4,设计并训练生成多任务解码网络模型,所述多任务解码网络模型包括道路分割解码模块和道路类型分类解码模块,其中,所述道路分割解码模块对应的优化损失函数为道路分割损失函数Lseg(θseg);所述道路类型分类解码模块对应的优化损失函数为道路类型分类损失函数Lcls(θcls),组成总的损失函数L(Θ);采用所述道路分割解码模块,通过输入S3得到的所述编码特征图,能够输出道路分割结果;采用所述道路类型分类解码模块,通过输入S3得到的所述编码特征图,能够输出道路类型分类结果;S4包括:
S41,设计所述道路分割解码模块,所述道路分割解码模块包括第一1×1卷积通道压缩层,原始图像输入到所述第一1×1卷积通道压缩层,并先后依序通过上采样层、第一1×1卷积分类层和第一softmax层,并经由类别合并后输出;
S42,采用所述道路分割解码模块,通过输入S3得到的所述编码特征图输出道路分割结果,所述道路分割结果包括带有道路和背景两类分割结果的RGB图像,该图像中所有像素点中,道路区域标为第一种颜色,背景区域的颜色与所述原始图像相同,S42具体包括:
S421,通过所述第一1×1卷积通道压缩层,压缩S32输出的所述H/8×W/8×2048,并输出H/8×W/8×128的多通道特征图;
S422,通过所述上采样层利用无参数学习的双线性插值法进行上采样,将所述H/8×W/8×128的多通道特征图采样至S2得到的所述增强道路数据的大小,并输出H×W×128的多通道特征图;
S423,先后依序通过所述第一1×1卷积分类层和第一softmax层,得到道路内部像素Pin、道路边缘像素Pbd、背景内部像素Nin和背景边缘像素Nbd的概率,并输出H×W×4的多通道特征图;以及
S424,合并边缘像素和内部像素的类别,得到所述道路分割结果,表示为H×W×2的二通道特征图,即道路分割像素类别得分图;
H和W分别为相应图像的高和宽。
2.如权利要求1所述的道路区域检测方法,其特征在于,S2中的所述道路数据增强函数对所述训练样本的处理过程包括:
根据所述训练样本,在所述真值标注二值化图像的轮廓中,随机取出若干轮廓点作为扭曲变形的控制点,对所述原始道路RGB图像和其对应的真值标注二值化图像进行小幅扭曲图像变换,改变道路原有的几何形状。
3.如权利要求1所述的道路区域检测方法,其特征在于,S3中的特征编码网络模型的设计过程包括:
S31,采用带有混合空洞卷积的全卷积深度残差网络ResNet作为共享的编码网络,其编码网络包括5个卷积层conv和1个最大池化层,conv_i表示网络中的第i阶段卷积,其中,conv_1阶段采用3层连续的3x3的卷积核,conv_2、conv_3阶段分别含有3个和4个ResNet中普通的瓶颈模块,conv_4阶段中的6个瓶颈模块采用空洞大小分别为1,2,5,9,2和2的混合空洞卷积核,conv_5阶段中的3个瓶颈模块采用空洞大小分别为5,9,17的混合空洞卷积核;原始图像输入到conv_1,并先后依序通过所述最大池化层、conv_2、conv_3和conv_4,并经由conv_5后输出;
S3中的特征编码网络模型的训练生成过程包括:
S32,采用S31设计好的所述特征编码网络模型,输入S2得到的所述增强道路数据,通过所述特征编码网络模型图像特征提取学习,输出所述编码特征图,所述编码特征图表示为H/8×W/8×204。
4.如权利要求1所述的道路区域检测方法,其特征在于,S4中的所述道路分割损失函数Lseg(θseg)表示为式(1):
Lseg(θseg)=Lin(θseg)+αLbd(θseg) (1)
式(1)中,θseg表示所述道路分割解码模块的学习参数,Lin(θseg)表示道路内部和边缘的损失函数项,Lbd(θseg)表示道路边缘和背景边缘的损失函数项,如下式(2):
式(2)中,GTx,y表示所述原始道路RGB图像中像素(x,y)的真值标签,PRx,y(θseg)表示在参数θseg下,像素(x,y)的预测标签,损失函数采用交叉熵损失函数,如式(3)所示:
5.如权利要求4所述的道路区域检测方法,其特征在于,S4还包括:
S43,采用所述道路分割损失函数Lseg(θseg)训练生成所述道路分割解码模块的过程包括:
S431,根据道路和非道路两类,将S2中的所述增强道路数据中的所有像素二划分,生成二值化标注的图像;
S432,将S431输出的图像中的像素进行四划分,获取二划分的二值标注图像中的连通域边界;其中:对于连通域边界上的每一个像素点,以其为圆心,半径为k的圆包含的像素中,将所述原始道路RGB图像中像素(x,y)的真值标签为道路类别的像素变更为道路边缘像素Pbd类别,原始标注为背景类别的像素变更为背景边缘像素Nbd类别;对于其它未包含在任意圆内的像素,将原始标注中的道路类别变更为道路内部像素Pin,原始标注中的背景类别变更为背景内部像素Nin。
6.如权利要求1所述的道路区域检测方法,其特征在于,S4还包括:
S44,设计道路类型分类解码模块,所述道路类型分类解码模块包括第二1×1卷积通道压缩层,原始图像输入到所述第二1×1卷积通道压缩层,并先后依序通过下采样层、全局平均池化层和第二1×1卷积分类层,并经由第二softmax层后输出;
S45,采用所述道路类型分类解码模块,通过输入S3得到的所述编码特征图输出道路类型分类结果,所述道路类型分类结果为每张S2中的所述训练样本属于三种城市道路类型{uu,um,umm}中某一道路类型的概率,表示为1×1×3的向量,uu为城市无车道线,um为城市单车道,umm为城市多车道,S45其具体包括:
S451,通过所述第二1×1卷积通道压缩层,压缩S32输出的所述H/8×W/8×2048,并输出H/8×W/8×64的多通道特征图;
S452,通过下采样层利用双线性下采样,降低S451压缩后的编码特征图的尺寸,并输出H/32×W/32×64的多通道特征图;
S453,采用所述全局平均池化层,输入H/32×W/32×64的多通道特征图,输出用于分类的1×1×64的列向量形式的特征图;
S454,将S453输出的1×1×64的列向量形式的特征图先后依序通过第二1×1卷积分类层和第二softmax层,输出所述道路类型分类结果。
7.如权利要求6所述的道路区域检测方法,其特征在于,S4中的所述道路类型分类损失函数Lcls(θcls)采用Lseg函数中使用的交叉熵损失函数(3),多任务解码模型的总体损失函数为:
L(Θ)=Lseg(θseg)+βLcls(θcls) (4)
式(4)中,权重系数β用于调整道路分割和道路场景分类两个子任务的损失权重,L(Θ)用于学习各类网络层的权值W和偏值B;
S4还包括:
S46,采用所述道路类型分类损失函数Lcls(θcls)训练生成所述道路类型分类解码模块的过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910105358.3A CN109902600B (zh) | 2019-02-01 | 2019-02-01 | 一种道路区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910105358.3A CN109902600B (zh) | 2019-02-01 | 2019-02-01 | 一种道路区域检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109902600A CN109902600A (zh) | 2019-06-18 |
CN109902600B true CN109902600B (zh) | 2020-10-27 |
Family
ID=66944686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910105358.3A Active CN109902600B (zh) | 2019-02-01 | 2019-02-01 | 一种道路区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109902600B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110414387B (zh) * | 2019-07-12 | 2021-10-15 | 武汉理工大学 | 一种基于道路分割的车道线多任务学习检测方法 |
CN110598711B (zh) * | 2019-08-31 | 2022-12-16 | 华南理工大学 | 一种结合分类任务的目标分割方法 |
CN110705381A (zh) * | 2019-09-09 | 2020-01-17 | 北京工业大学 | 遥感影像道路提取方法及装置 |
CN110781773B (zh) * | 2019-10-10 | 2021-05-18 | 湖北工业大学 | 一种基于残差神经网络的道路提取方法 |
CN110874598B (zh) * | 2019-11-05 | 2022-09-27 | 西南交通大学 | 一种基于深度学习的高速公路水痕检测方法 |
CN111080609B (zh) * | 2019-12-12 | 2020-12-15 | 哈尔滨市科佳通用机电股份有限公司 | 一种基于深度学习的闸瓦插销丢失检测方法 |
CN111160230B (zh) * | 2019-12-27 | 2023-06-06 | 清华大学苏州汽车研究院(吴江) | 一种基于深度学习的道路不规则区域检测网络 |
CN111709356B (zh) * | 2020-06-12 | 2023-09-01 | 阿波罗智联(北京)科技有限公司 | 识别目标区域的方法、装置、电子设备和路侧设备 |
CN112287912B (zh) * | 2020-12-25 | 2021-03-30 | 浙江大华技术股份有限公司 | 基于深度学习的车道线检测方法以及装置 |
CN112927310B (zh) * | 2021-01-29 | 2022-11-18 | 上海工程技术大学 | 一种基于轻量级神经网络的车道图像分割方法 |
CN113205051B (zh) * | 2021-05-10 | 2022-01-25 | 中国科学院空天信息创新研究院 | 基于高空间分辨率遥感影像的储油罐提取方法 |
CN113343817A (zh) * | 2021-05-31 | 2021-09-03 | 扬州大学 | 一种面向目标区域的无人车路径检测方法、装置及介质 |
CN113449690A (zh) * | 2021-07-21 | 2021-09-28 | 华雁智科(杭州)信息技术有限公司 | 图像场景变化的检测方法、系统及电子设备 |
CN113793330B (zh) * | 2021-11-10 | 2022-03-18 | 北京中科慧眼科技有限公司 | 路面平坦度区域检测方法和系统 |
US20230213945A1 (en) * | 2021-12-30 | 2023-07-06 | Nvidia Corporation | Obstacle to path assignment for autonomous systems and applications |
CN116823807B (zh) * | 2023-08-02 | 2024-04-05 | 北京梦诚科技有限公司 | 一种桥梁上部结构现浇梁识别方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104766046A (zh) * | 2015-02-06 | 2015-07-08 | 哈尔滨工业大学深圳研究生院 | 一种利用交通标识颜色及形状特征进行检测与识别算法 |
CN105989334A (zh) * | 2015-02-12 | 2016-10-05 | 中国科学院西安光学精密机械研究所 | 基于单目视觉的道路检测方法 |
CN109993082A (zh) * | 2019-03-20 | 2019-07-09 | 上海理工大学 | 卷积神经网络道路场景分类与道路分割方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488534B (zh) * | 2015-12-04 | 2018-12-07 | 中国科学院深圳先进技术研究院 | 交通场景深度解析方法、装置及系统 |
CN107169440A (zh) * | 2017-05-11 | 2017-09-15 | 南宁市正祥科技有限公司 | 一种基于图模型的道路检测方法 |
CN107609602A (zh) * | 2017-09-28 | 2018-01-19 | 吉林大学 | 一种基于卷积神经网络的驾驶场景分类方法 |
CN108304787A (zh) * | 2018-01-17 | 2018-07-20 | 河南工业大学 | 基于卷积神经网络的道路目标检测方法 |
-
2019
- 2019-02-01 CN CN201910105358.3A patent/CN109902600B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104766046A (zh) * | 2015-02-06 | 2015-07-08 | 哈尔滨工业大学深圳研究生院 | 一种利用交通标识颜色及形状特征进行检测与识别算法 |
CN105989334A (zh) * | 2015-02-12 | 2016-10-05 | 中国科学院西安光学精密机械研究所 | 基于单目视觉的道路检测方法 |
CN109993082A (zh) * | 2019-03-20 | 2019-07-09 | 上海理工大学 | 卷积神经网络道路场景分类与道路分割方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109902600A (zh) | 2019-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902600B (zh) | 一种道路区域检测方法 | |
CN108830285B (zh) | 一种基于Faster-RCNN的加强学习的目标检测方法 | |
CN112132156B (zh) | 多深度特征融合的图像显著性目标检测方法及系统 | |
CN113610822B (zh) | 一种基于多尺度信息融合的表面缺陷检测方法 | |
CN113421269A (zh) | 一种基于双分支深度卷积神经网络的实时语义分割方法 | |
CN112488025B (zh) | 基于多模态特征融合的双时相遥感影像语义变化检测方法 | |
CN112613343B (zh) | 一种基于改进YOLOv4的河道废弃物监测方法 | |
CN114155527A (zh) | 一种场景文本识别方法和装置 | |
CN117253154B (zh) | 一种基于深度学习的集装箱弱小序列号目标检测识别方法 | |
CN114627052A (zh) | 一种基于深度学习的红外图像漏气漏液检测方法及系统 | |
CN111882620A (zh) | 一种基于多尺度信息道路可行驶区域分割方法 | |
CN114724155A (zh) | 基于深度卷积神经网络的场景文本检测方法、系统及设备 | |
CN114742799B (zh) | 基于自监督异构网络的工业场景未知类型缺陷分割方法 | |
CN115631344B (zh) | 一种基于特征自适应聚合的目标检测方法 | |
CN116129291A (zh) | 一种面向无人机畜牧的图像目标识别方法及其装置 | |
CN111062347A (zh) | 一种自动驾驶中交通要素分割方法、电子设备及存储介质 | |
CN114445620A (zh) | 一种改进Mask R-CNN的目标分割方法 | |
CN111476226A (zh) | 一种文本定位方法、装置及模型训练方法 | |
CN116363064A (zh) | 融合目标检测模型和图像分割模型的缺陷识别方法及装置 | |
CN113255704B (zh) | 一种基于局部二值模式的像素差卷积边缘检测方法 | |
CN116052149A (zh) | 一种基于CS-ABCNet的电力塔牌检测识别方法 | |
CN114565764A (zh) | 基于舰船实例分割的港口全景感知系统 | |
CN114998701A (zh) | 基于像素特征匹配的目标检测损失优化方法 | |
CN115205624A (zh) | 一种跨维度注意力聚合的云雪辩识方法、设备及存储介质 | |
CN114882205A (zh) | 基于注意力机制的目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |