CN110363182B - 基于深度学习的车道线检测方法 - Google Patents

基于深度学习的车道线检测方法 Download PDF

Info

Publication number
CN110363182B
CN110363182B CN201910672937.6A CN201910672937A CN110363182B CN 110363182 B CN110363182 B CN 110363182B CN 201910672937 A CN201910672937 A CN 201910672937A CN 110363182 B CN110363182 B CN 110363182B
Authority
CN
China
Prior art keywords
lane line
lane
image
points
mask image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910672937.6A
Other languages
English (en)
Other versions
CN110363182A (zh
Inventor
王超
付子昂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Shixi Maternal and Infant Products Co.,Ltd.
Original Assignee
Beijing Information Science and Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Information Science and Technology University filed Critical Beijing Information Science and Technology University
Priority to CN201910672937.6A priority Critical patent/CN110363182B/zh
Publication of CN110363182A publication Critical patent/CN110363182A/zh
Application granted granted Critical
Publication of CN110363182B publication Critical patent/CN110363182B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

基于深度学习的车道线检测方法,它属于车道线检测技术领域。本发明解决了传统的车道线检测方法耗时且检测的精度低的问题。本发明首先将检测车道线的任务视作像素级的语义分割问题,通过全卷积神经网络FCN8s划分车道线和背景,再通过后处理和DBSCAN聚类方法提取当前车道两侧的左右车道线坐标,最后通过拟合算法对左右车道线进行拟合,本发明方法对视频检测达到平均50帧每秒,检测精度能够达到92.3%,可以实现精确快速的检测效果。本发明可以应用于车道线检测技术领域。

Description

基于深度学习的车道线检测方法
技术领域
本发明属于车道线检测技术领域,具体涉及一种基于深度学习的车道线检测方法。
背景技术
自动驾驶在缓解交通拥堵、减少交通事故、提高道路及车辆利用率等方面具有巨大潜能,已成为众多企业的竞争热点。自动驾驶集中运用了现代传感技术、信息与通信技术、自动控制技术、计算机技术和人工智能等技术,代表着未来汽车技术的战略制高点,是汽车产业转型升级的关键,也是目前世界公认的发展方向。其中车道线检测是自动驾驶的核心技术,传统的车道线检测方法多是手工特征提取或采用霍夫变换进行检测,这种方法耗时且泛化性差,特别是对于车道线的检测精度较低。
发明内容
本发明的目的是为解决传统的车道线检测方法耗时且检测的精度低的问题,而提出了一种基于深度学习的车道线检测方法。
本发明为解决上述技术问题采取的技术方案是:基于深度学习的车道线检测方法,该方法包括以下步骤:
步骤一、从TuSimple数据集中随机选取出M张图像,并对选取出的M张图像中包含的车道线进行标注,获得标注后图像;
步骤二、将步骤一获得的标注后图像输入全卷积神经网络FCN8s,利用输入图像对全卷积神经网络FCN8s进行训练,直至损失函数值不再减小时停止训练,获得训练好的全卷积神经网络FCN8s;
步骤三、将待进行车道线检测的图像输入步骤二训练好的全卷积神经网络FCN8s,得到全卷积神经网络FCN8s输出的二值化车道线掩码图;
步骤四、对步骤三的二值化车道线掩码图进行后处理,获得后处理过的二值化车道线掩码图;
步骤五、提取后处理过的二值化车道线掩码图中的全部车道线点,并对提取出的车道线点进行聚类,以将每个车道线点归类到对应的车道线;
根据聚类结果,提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点;
步骤六、分别对提取出的两条车道线上的点进行拟合,得到驾驶系统当前所在车道的左侧车道线以及右侧车道线;
步骤七、将步骤六拟合得到的左侧车道线以及右侧车道线显示在待测图像中,完成待测图像中的车道线检测。
本发明的有益效果是:本发明提出了一种基于深度学习的车道线检测方法,首先将检测车道线的任务视作像素级的语义分割问题,通过全卷积神经网络FCN8s划分车道线和背景,再通过后处理和DBSCAN聚类方法提取当前车道两侧的左右车道线坐标,最后通过拟合算法对左右车道线进行拟合,本发明方法对视频检测达到平均50帧每秒,检测精度能够达到92.3%,可以实现精确快速的检测效果,有效克服了传统的车道线检测方法耗时且检测的精度低的问题。
附图说明
图1是本发明的基于深度学习的车道线检测方法的流程图;
图2是本发明的FCN8s网络输出的二值化车道线掩码图;
图3为后处理输出的二值化车道线掩码图;
图4为车道线检测结果示意图。
具体实施方式
具体实施方式一:如图1所示,本实施方式所述的基于深度学习的车道线检测方法,该方法包括以下步骤:
步骤一、从TuSimple数据集中随机选取出M张图像,并对选取出的M张图像中包含的车道线进行标注,获得标注后图像;
步骤二、将步骤一获得的标注后图像输入全卷积神经网络FCN8s,利用输入图像对全卷积神经网络FCN8s进行训练,直至损失函数值不再减小时停止训练,获得训练好的全卷积神经网络FCN8s;
FCN的网络结构根据最终恢复到输入图像尺寸的倍数,可分为FCN-32s、FCN-16s、FCN-8s,本发明中选用FCN-8s;
步骤三、将待进行车道线检测的图像输入步骤二训练好的全卷积神经网络FCN8s,得到全卷积神经网络FCN8s输出的二值化车道线掩码图;
步骤四、对步骤三的二值化车道线掩码图进行后处理,获得后处理过的二值化车道线掩码图;
步骤五、提取后处理过的二值化车道线掩码图中的全部车道线点,并对提取出的车道线点进行聚类,以将每个车道线点归类到对应的车道线;
根据聚类结果,提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点;
步骤六、分别对提取出的两条车道线上的点进行拟合,得到驾驶系统当前所在车道的左侧车道线以及右侧车道线;
步骤七、将步骤六拟合得到的左侧车道线以及右侧车道线显示在待测图像中,完成待测图像中的车道线检测。
步骤三输入至训练好的全卷积神经网络FCN8s的图像为3通道RGB图像;而且图像输入全卷积神经网络FCN8s之前,均进行图像的预处理,预处理包括对图像的缩放并归一化;对图像进行缩放的目的是使输入图像与网络训练时图像尺寸保持一致。
二值化车道线掩码图上每个像素值表示该通道所属类别:车道线或背景;
FCN8s的网络结构如表1所示,表1中详细的描述了FCN8s网络每一层的网络结构名称、输入来源、输入通道、输出通道、卷积核尺寸、步长、填充(padding)、当前层的图像或特征图尺寸以及补充说明,此外在解码层对转置卷积涉及的Dilation和Output_padding参数取值额外进行了说明。
总的来看,FCN8s网络分为编码层和解码层,编码层也称下采样层,本发明采用VGG16结构进行提取特征,原始的VGG16是包含16个卷积层,本发明中采用了前13个卷积层(Conv)作为编码层,避免层数越深时,下采样过程中对车道线信息全部丢失。编码层的输入是一个三通道的320*160的图像,每次卷积运算后接上Relu激活函数和批处理层,能使模型学习到的特征更复杂,且能优化训练过程。在卷积运算中,卷积核大小设置为3*3、步长为1、padding为1,这样使得每次进行卷积运算后不改变特征图的尺寸,经过2-3次卷积提取特征后使用最大池化层(Maxpooling)使特征图尺寸折半进行下采样,而通道个数不发生改变,下一个卷积层中使特征图的通道翻倍,直到放大到512维通道数时通道不再增加。在编码层中,从320*160的三通道图像输入,最终生成10*5的512通道的特征图,输出到解码层。
在解码层,也称上采样层,使用转置卷积运算进行上采样过程,转置卷积运算上卷积运算的反向过程,解码层的首个转置卷积层TransConv1将Maxpooling5层的输出进行上采样两倍尺寸,得到20*10的特征图,再与Maxpooling4得到的特征图相加并再进行两倍上采样,得到40*20的特征图,再与Maxpooling3得到的特征图相加后再进行两倍上采样,得到80*40的特征图。这是因为每次进行上采样都会结合在编码层得到的浅层特征,从浅层特征图中能很好的获得关于图片的语义信息,尤其是对于车道线检测来说,下采样的层数越深,由于车道线占图片总比例非常小,通常情况下学习的多为背景的特征信息,所以在解码过程中上采样与浅层特征的结合尤为重要。FCN8s网络结构通常的做法是在第21层转置卷积层TransConv3将与Maxpooling3叠加的特征图直接从40*20上采样8倍恢复到320*160的尺寸,但是本发明在设计中分三次转置卷积运算(TransConv3、TransConv4、TransConv5)进行上采样,每次上采样两倍,这种方式可以与直接上采样8倍达到相同的效果,同时使模型在解码层的学习效果更好。
第24层分类层(classifier)是利用1*1的卷积核整合通道信息,将32维降低为2维,生成每个像素点预测的类别向量,再对每个类别向量利用Softmax函数,将类别向量归一化,每个像素点的所属类别为类别向量中概率最大的类,最终生成二值化的车道线掩码图。
表1 FCN8s网络结构表
Figure BDA0002142299050000041
Figure BDA0002142299050000051
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤二中采用的损失函数为带权交叉熵损失函数(Weighted Cross Entropy Loss),对于待测图像中的任一像素,该像素的真实类别为y(y=1代表该像素为车道线点,否则该像素点为非车道线点),该像素预测为类别y的概率为p,则该像素的交叉熵损失值WCE(p,y)为:
WCE(p,y)=-αt log(pt)
其中:
Figure BDA0002142299050000052
αt代表权重系数;
将待测图像中所有像素的交叉熵损失值做加和运算,获得总的交叉熵损失值;
直至总的交叉熵损失值不再减小时停止训练。
本实施方式的损失函数与标准交叉熵损失函数的区别在于多了一项αt参数,αt是给定每一个类别一个权重,给定样本个数较少的类别更多的权值,可以使模型对样本个数较少的类别也能学习的很好。使得样本少的样本的总损失与样本多的样本的总损失平衡,以解决样本不均衡的问题。
本发明中采用有界逆类加权(Uijlings J R R,K.E.A.van de Sande….Selective Search for Object Recognition[J].International Journal of ComputerVision,2013,104(2):154-171.)的方法,确定αt的取值;
Figure BDA0002142299050000061
Figure BDA0002142299050000062
在车道线检测中,共分为背景和车道线两类。pclass代表所有像素点中每一类的像素点出现的频率,由于pclass的取值范围为[0,1],加上一个超参数c,默认取值为1.02,用于保证c+pclass>1,ln(c+pclass)>0,接着计算对数的倒数
Figure BDA0002142299050000063
超参数的取值和概率的取值范围共同限制了αt的取值范围为[1,50],对于样本较少的类别,该类的权值会较大,最大取值为50,对于样本较多的类别,该类的权值会较小,最小取值为1。
具体实施方式三:本实施方式与具体实施方式一不同的是:所述步骤二中采用的损失函数为Focal Loss(Lin T Y,Goyal P,Girshick R,et al.Focal Loss for DenseObject Detection[J].IEEE Transactions on Pattern Analysis&MachineIntelligence,2017,PP(99):2999-3007),对于待测图像中的任一像素,该像素的真实类别为y,该像素预测为类别y的概率为p,则该像素的损失值FL(p,y)为:
FL(p,y)=-αt(1-pt)γlog(pt)
其中:
Figure BDA0002142299050000064
αt和γ均代表权重系数;
将待测图像中所有像素的损失值做加和运算,获得总的损失值;
直至总的损失值不再减小时停止训练。
本实施方式的损失函数在带权交叉熵损失函数基础上乘上(1-pt)γ,可以平衡易分类样本点和难分类样本点的差异,在带权交叉熵损失函数中,若有两个车道线样本点的预测概率为0.7和0.3,则前者为易分类样本点,后者为难分类样本点。对于易分类样本点(前者)通过乘以(1-0.7)γ,使得该损失值相对缩小,而难分类样本点通过乘以(1-0.3)γ使得其损失值要大于易分类样本点损失值,从而更好的学习难分类样本点;γ参数用于调节易分类与难分类样本学习的权重,也需要提前给定。
Focal Loss损失函数中涉及αt和γ两个参数,αt的含义与它在带权交叉熵损失函数中的含义相同,但取值范围不同,在这里为[0,1],而γ参数控制着难分类像素点和易分类像素点的加权比例,γ取0时,Focal Loss损失函数转化为带权交叉熵损失函数,γ一般取值为0.5,1,1.5,2等。
在本发明中,可以选择带权交叉熵损失函数与Focal Loss损失函数中的任一种作为损失函数。
具体实施方式四:本实施方式与具体实施方式二或三不同的是:所述步骤五的具体过程为:
将后处理过的二值化车道线掩码图的左上角顶点作为坐标原点,以二值化车道线掩码图的宽度方向为x轴、高度方向为y轴,从左上角顶点到右下角坐标依次增大;
设定高度阈值Q,高度阈值Q的设定原则为:将后处理过的二值化车道线掩码图中所有车道线点在y轴方向的最低点加上25,获得高度阈值Q的取值;
利用高度阈值Q对后处理过的二值化车道线掩码图中的全部车道线点进行筛选,即筛选出y轴方向坐标大于等于Q的车道线点;
对筛选出的车道线点进行聚类(采用的是DBSCAN算法),以将筛选出的每个车道线点归类到对应的车道线;
提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点。
归好类之后,需要提取当前车道两侧的车道线。本发明中将图像底端中点视作当前车辆的中点,其在图像中的坐标为(图像宽度/2,图像高度)。提取当前车道两侧车道线分三步进行:第一,计算每类车道线的中点坐标,记为MeanLi,计算其与当前车道中点的距离,记为DistLi;第二,找到每类车道线最底端的横坐标,并计算其与当前车辆中点横坐标的差值,记为DiffLi,这是因为根据最低端的横坐标可以判断该车道是在当前车辆的左边或是右边;第三,从当前车辆右边的车道中(Diff≥0)找到这些车道距离车辆中点MeanLi最小的一个车道,视为当前车道右车道,同样的从当前车辆左边的车道中(Diff<0)找到这些车道距离车辆中点MeanLi最小的一个车道,视为当前车道左车道,将左车道和右车道上的点的坐标输出,用于车道线的拟合。
具体实施方式五:本实施方式与具体实施方式四不同的是:所述步骤六中采用的拟合方法为线性回归(最小二乘法)或多项式岭回归。
为了保证拟合结果,考虑到在某条车道线上具有的车道线点可能比较少,那么对一个较少的样本采用曲线拟合的方法可能造成与真实车道线形状不符的情况。所以,当车道线点数较少时采用线性回归(最小二乘法)进行拟合,否则采用多项式岭回归进行曲线拟合。
具体实施方式六:本实施方式与具体实施方式五不同的是:所述步骤四的具体过程为:
经过形态学闭运算(先膨胀后腐蚀)将步骤三获得的二值化车道线掩码图中同一条车道线上存在的断点进行连接,并对全部的车道线点进行平滑,获得平滑后的二值化车道线掩码图;
对平滑后的二值化车道线掩码图进行去噪处理,获得后处理过的二值化车道线掩码图。
所述对平滑后的二值化车道线掩码图进行去噪处理具体为:对平滑后的二值化车道线掩码图进行邻接区域(图像中窄条的长方形区域)分析,统计每个邻接区域的车道线点个数和每个车道线点对应的坐标,给定噪声区域的阈值,若某个邻接区域中车道线点个数少于噪声区域的阈值,则将该邻接区域视作噪声区域,从平滑后的二值化车道线掩码图中去掉,获得后处理后的二值化车道线掩码图。
最终得到的后处理后的二值化车道线掩码图能够保证同一条车道线的车道线点尽可能的相连,同时图像上没有噪声干扰。
图2展示了FCN8s网络输出的二值化车道线掩码图,经过后处理得到的二值化车道线掩码图如图3所示,虚线圈内区域表示同一条车道线存在断点,而在后处理得到的车道线掩码图中被很好的连接上,有利于聚类模块更好的归类。而在两幅图的实线圈区域可以看到由于进行了闭运算操作,不同车道线在距离较远的位置由于拍摄视角的原因较为接近,以至于被误连接。对于这种情况,通过舍去车道线距离较远的位置的车道线点,以此来提高聚类模块的精度和稳定性。
特别地,本发明方法不仅适用于单张图像的检测,同样适用于视频图像的检测,检测时只需先将视频图像分割为多个单张图像即可。
实验部分
1、车道线数据集
深度学习网络的学习是基于大数据样本的,数据集的复杂性越高,模型学习的性能和泛化性相对较高,本发明采用的是TuSimple车道线检测数据集(The TuSimple lanechallange)。
TuSimple数据集介绍
本发明选用2018年6月举办的TuSimple车道线检测挑战数据集,相比于传统车道线数据集,TuSimple数据集更加注重实用性,将很多智能驾驶当中的实际问题考虑了进来。
FCN8s模型训练
由于车道线检测可以视作样本不平衡的分类问题,其背景的样本个数远大于车道线样本;
FCN8s模型训练过程中选取了标准交叉熵损失函数(Cross Entropy Loss,CE),带权交叉熵损失函数(Weighted CE)和Focal Loss三种损失损失函数,共设计了7组实验,包含5组不同参数情况下的Focal Loss的对比、1组带权交叉熵损失函数和1组标准交叉熵损失函数,下面的表2中将对这7组实验参数和实验结果进行详细说明。
表2 模型训练对应损失函数参数列表
Figure BDA0002142299050000091
模型训练除损失函数外的其他参数均一致,如表3所示:
表3 实验其他参数列表
Figure BDA0002142299050000092
Figure BDA0002142299050000101
FCN8s共进行了30Epoch进行训练,采用Adam优化算法,初始学习率设置为0.01,在第10、18、24轮时减半学习率,模型训练的Batchsize为32,网络输入分辨率为320*160,网络输入归一化参数为每个通道的均值和方差,数值上为mean=[0.36221257,0.4058522,0.4073866],std=[0.19146983,0.21310195,0.23031688],该数值通过计算所有TuSimple样本每个RGB通道的像素值统计得出。
IoU指标反映的是预测车道线点与真实车道线标注重合的情况。在训练集的训练结果可以看出,WEIGHTED CE训练的模型检测车道线的能力远低于其他损失函数学习的模型;在训练集上γ取1的Focal Loss训练的模型取得最高的IoU指标得分0.4,γ取2.5训练的模型在训练集上呈现上升的趋势。
Recall指标反映的是所有标注出的车道线的预测情况,Recall指标也称查全率。在训练集上的训练结果可以看出,CE的检测车道线的能力远低于其他损失函数学习的模型;在训练集上Weighted CE取得最高的Recall指标得分0.98,但是在后续的实验中发现,Weighted CE训练的模型的泛化性不强;在Focal Loss训练的模型中,γ取1时的模型在训练集上取得0.81。
Precision指标反映的是所有预测为车道线的像素点实际为车道线的比例,也称准确率。在训练集上的训练结果可以看出,CE的准确率明显高于其他模型,这与Recall指标呈现相反的结果,CE训练的模型在训练集上Precision指标收敛在0.64,说明CE训练的模型对于车道线点的准确率很高;Focal Loss训练的模型中,各参数均取得相似的收敛结果,为0.4左右。
本实验中IoU和Precision指标值相对较低,是因为在Label标注文件中,车道线相对较细,在损失函数设计时会放大车道线点的损失值,因而模型在学习时更多的将车道线周围点也都预测为了车道线,因此车道线分割结果与真实标注的结果的IoU和Precision指标值就相对偏低。
通过分析7组模型在训练集和测试集IoU、Recall、Precision三种指标的对比结果,可以发现在Precision指标上CE训练的模型的效果最佳,但是CE训练的模型在IoU和Recall指标的表现上都比较差,这说明CE训练的模型对于车道线点虽然准确率高,但是全面预测能力较弱,所以不考虑CE训练的模型;我们还可以看出在本次实验中,γ取1的FocalLoss训练的模型在三种指标上较优于WEIGHTED CE和其他γ取值的Focal Loss训练的模型,所以,我们选取采用γ取1的Focal Loss损失函数在Epoch为30训练的模型作为训练模型权重。
FCN8s的参数量为18643746,检测一张320*640分辨率的图片在GPU1070的环境下平均10毫秒左右。
DBSCAN聚类算法参数选取:
聚类模块采用的是DBSCAN聚类算法,该算法需要指定邻域范围Eps和邻域内最少核心点个数MinPts。本发明中对训练集的Label图片进行聚类,在理想车道线分割的情况下,对Eps和MinPts两个参数分别取值,共设计8组对比实验,如表4所示,从中选取最优参数。
在8组对比实验中,Eps和MinPts的取值都是取在一个(0,3]之间较小的范围内,这是由于实际的交通场景中距离越近,车道线与车道线之间间隔越大,距离越远,车道线与车道线之间间隔越小,对于间隔越大的车道线,DBSCAN参数对聚类效果影响较小,但是对于间隔越小的车道线,Eps和MinPts两个参数有可能会使得两个车道线被分类为同一条。
本发明为尽可能的将距离较远处同时不同车道线之间间隔较小的样本正确的进行聚类,将Eps和MinPts参数均取在一个较小的范围内。从表4中可以看出,当Eps=1和MinPts=1或Eps=1和MinPts=2时,平均归类正确的准确率最大且为98.0%,当Eps小于1时,准确率为0%;Eps大于1时准确率逐渐降低。本发明选取Eps=1、MinPts=1作为DBSCAN聚类算法的输入参数。
表4 DBSCAN聚类参数选取
Figure BDA0002142299050000111
Figure BDA0002142299050000121
各阶段结果展示:
各个模块整合后,每张图片的检测流程及每个模块的输出结果进行展示,如图4所示:
车道线检测系统会先读取一张图片或获取视频的一帧,通过语义分割模块的FCN8s网络得到车道线分割掩码图,通过后处理填补车道线断点,其中闭运算采用椭圆形结构核,并进行1次闭运算,邻域分析结束后对样本点(即车道线点)个数少于70的邻域区间进行舍去,保留主要的车道线;接着在聚类模块中对于320*160分辨率的图像舍去纵坐标低于某一个阈值(车道线纵轴最低点加上25)的车道线点,再对剩余车道线点进行归类并提取当前车道所在车道线,在拟合模块对两条车道线进行分别拟合,其中拟合模块的判断阈值选取为100,若左右两条车道线中至少有一条样本个数少于100,则采用线性回归方式拟合,若左右两条车道线的样本点个数均等于或大于100,则采样2阶多项式岭回归拟合,最终将拟合结果显示在图像上。
车道线检测精度及用时分析
本发明设计的车道线检测方法以精度(Accuracy)作为整个系统的评价指标。
Figure BDA0002142299050000122
精度指标反映了每张图像上,预测车道线正确坐标个数Cim与真实标注车道线坐标个数Sim的比值。与Precision指标不同的是,一个预测为车道线的像素坐标点是否预测正确,取决于在同一高度下与真实标注的同一条车道线的像素点的距离差,是否小于像素数阈值。若小于像素数阈值,则称该车道线像素点预测正确,否则预测错误。像素数阈值的计算过程如下代码所示:
Figure BDA0002142299050000123
Figure BDA0002142299050000131
像素数阈值计算代码
pixel_thresh=50#初始像素数阈值
#计算当前车道左右车道线的倾斜角度
angles=[LaneEval.get_angle(np.array(x_gts),np.array(y_samples))forx_gts in gt]
#根据倾斜角度,角度越靠近90°,像素数阈值相对降低,容错范围减小
#角度越偏离90°,像素数阈值相对提高,容错范围提高
threshs=[LaneEval.pixel_thresh/np.cos(angle)for angle in angles]
由于较远处的车道线相比近处的车道线产生的影响较少,对远处车道线进行舍去。在初始像素数阈值为50的条件下,TuSimple训练集检测精度为92.3%。
车道线检测系统各个部分的用时,在实际路况检测中,模型是处于预先加载好的状态,图像是通过摄像头采集的,不需要单独去加载,所以总时间中不计入读取模型和读取图像的时间。
320*160分辨率的图像读取后,对数据进行预处理用时1ms,输入到网络中进行车道线分割用时9ms,对分割掩码图进行后处理用时3ms,聚类并提取当前车道所在车道线用时3ms,拟合2ms,最后拟合车道线展示在图像上用时1ms,总计用时19ms,相当于平均20ms每张图像,视频检测平均50帧每秒,可满足实时性检测的要求。
本发明的上述算例仅为详细地说明本发明的计算模型和计算流程,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。

Claims (4)

1.基于深度学习的车道线检测方法,其特征在于,该方法包括以下步骤:
步骤一、从TuSimple数据集中随机选取出M张图像,并对选取出的M张图像中包含的车道线进行标注,获得标注后图像;
步骤二、将步骤一获得的标注后图像输入全卷积神经网络FCN8s,利用输入图像对全卷积神经网络FCN8s进行训练,直至损失函数值不再减小时停止训练,获得训练好的全卷积神经网络FCN8s;
所述步骤二中采用的损失函数为Focal Loss,对于待测图像中的任一像素,该像素的真实类别为y,该像素预测为类别y的概率为p,则该像素的损失值FL(p,y)为:
FL(p,y)=-αt(1-pt)γlog(pt)
其中:
Figure FDA0003018123270000011
αt和γ均代表权重系数;
将待测图像中所有像素的损失值做加和运算,获得总的损失值;
直至总的损失值不再减小时停止训练;
步骤三、将待进行车道线检测的图像输入步骤二训练好的全卷积神经网络FCN8s,得到全卷积神经网络FCN8s输出的二值化车道线掩码图;
步骤四、对步骤三的二值化车道线掩码图进行后处理,获得后处理过的二值化车道线掩码图;
步骤五、提取后处理过的二值化车道线掩码图中的全部车道线点,并对提取出的车道线点进行聚类,以将每个车道线点归类到对应的车道线;
根据聚类结果,提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点;其具体过程为:
将后处理过的二值化车道线掩码图的左上角顶点作为坐标原点,以二值化车道线掩码图的宽度方向为x轴、高度方向为y轴,从左上角顶点到右下角坐标依次增大;
设定高度阈值Q,高度阈值Q的设定原则为:将后处理过的二值化车道线掩码图中所有车道线点在y轴方向的最低点加上25,获得高度阈值Q的取值;
利用高度阈值Q对后处理过的二值化车道线掩码图中的全部车道线点进行筛选,即筛选出y轴方向坐标大于等于Q的车道线点;
对筛选出的车道线点进行聚类,以将筛选出的每个车道线点归类到对应的车道线;
提取出驾驶系统当前所在车道的左侧车道线上的车道线点以及右侧车道线上的车道线点;
步骤六、分别对提取出的两条车道线上的点进行拟合,得到驾驶系统当前所在车道的左侧车道线以及右侧车道线;
步骤七、将步骤六拟合得到的左侧车道线以及右侧车道线显示在待测图像中,完成待测图像中的车道线检测。
2.根据权利要求1所述的基于深度学习的车道线检测方法,其特征在于,所述步骤二中采用的损失函数为带权交叉熵损失函数,对于待测图像中的任一像素,该像素的真实类别为y,该像素预测为类别y的概率为p,则该像素的交叉熵损失值WCE(p,y)为:
WCE(p,y)=-αtlog(pt)
其中:
Figure FDA0003018123270000021
αt代表权重系数;
将待测图像中所有像素的交叉熵损失值做加和运算,获得总的交叉熵损失值;
直至总的交叉熵损失值不再减小时停止训练。
3.根据权利要求1所述的基于深度学习的车道线检测方法,其特征在于,所述步骤六中采用的拟合方法为线性回归或多项式岭回归。
4.根据权利要求3所述的基于深度学习的车道线检测方法,其特征在于,所述步骤四的具体过程为:
经过形态学闭运算将步骤三获得的二值化车道线掩码图中同一条车道线上存在的断点进行连接,并对全部的车道线点进行平滑,获得平滑后的二值化车道线掩码图;
对平滑后的二值化车道线掩码图进行去噪处理,获得后处理过的二值化车道线掩码图。
CN201910672937.6A 2019-07-24 2019-07-24 基于深度学习的车道线检测方法 Active CN110363182B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910672937.6A CN110363182B (zh) 2019-07-24 2019-07-24 基于深度学习的车道线检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910672937.6A CN110363182B (zh) 2019-07-24 2019-07-24 基于深度学习的车道线检测方法

Publications (2)

Publication Number Publication Date
CN110363182A CN110363182A (zh) 2019-10-22
CN110363182B true CN110363182B (zh) 2021-06-18

Family

ID=68220659

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910672937.6A Active CN110363182B (zh) 2019-07-24 2019-07-24 基于深度学习的车道线检测方法

Country Status (1)

Country Link
CN (1) CN110363182B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112926354A (zh) * 2019-12-05 2021-06-08 北京超星未来科技有限公司 一种基于深度学习的车道线检测方法及装置
CN111126327B (zh) * 2019-12-30 2023-09-15 中国科学院自动化研究所 车道线检测方法、系统、车载系统及车辆
CN111275044A (zh) * 2020-02-21 2020-06-12 西北工业大学 基于样本选择和自适应难例挖掘的弱监督目标检测方法
CN111460921B (zh) * 2020-03-13 2023-05-26 华南理工大学 一种基于多任务语义分割的车道线检测方法
CN111597913B (zh) * 2020-04-23 2022-05-17 浙江大学 一种基于语义分割模型的车道线图片检测分割方法
CN111582083B (zh) * 2020-04-25 2023-05-23 华南理工大学 一种基于消失点估计与语义分割的车道线检测方法
CN111539402B (zh) * 2020-07-13 2020-10-20 平安国际智慧城市科技股份有限公司 基于深度学习的车道线检测方法、装置、终端及存储介质
CN112163496B (zh) * 2020-09-22 2024-05-28 广东华南水电高新技术开发有限公司 一种基于语义分割的嵌入式终端水库水位预警方法
CN112613344B (zh) * 2020-12-01 2024-04-16 浙江华锐捷技术有限公司 车辆占道检测方法、装置、计算机设备和可读存储介质
CN114612736A (zh) * 2020-12-08 2022-06-10 广州汽车集团股份有限公司 一种车道线检测方法、系统及计算机可读介质
CN112613392A (zh) * 2020-12-18 2021-04-06 北京新能源汽车技术创新中心有限公司 基于语义分割的车道线检测方法、装置、系统及存储介质
CN112907597A (zh) * 2021-02-04 2021-06-04 西华师范大学 基于深度卷积神经网络的铁路轨道线检测方法
CN115049994B (zh) * 2021-02-25 2024-06-11 广州汽车集团股份有限公司 一种车道线检测方法及系统、计算机可读存储介质
CN112990009A (zh) * 2021-03-12 2021-06-18 平安科技(深圳)有限公司 基于端到端的车道线检测方法、装置、设备及存储介质
CN113095164A (zh) * 2021-03-22 2021-07-09 西北工业大学 基于强化学习和标志点表征的车道线检测定位方法
CN113313031B (zh) * 2021-05-31 2022-04-22 南京航空航天大学 一种基于深度学习的车道线检测和车辆横向定位方法
CN113361447A (zh) * 2021-06-23 2021-09-07 中国科学技术大学 一种基于滑动窗口自注意力机制的车道线检测方法及系统
CN113569663B (zh) * 2021-07-08 2022-11-22 东南大学 车辆车道偏移的测量方法
CN113269171B (zh) * 2021-07-20 2021-10-12 魔视智能科技(上海)有限公司 车道线检测方法、电子设备及车辆
CN113780069B (zh) * 2021-07-30 2024-02-20 武汉中海庭数据技术有限公司 一种汇流场景下的车道线分离绘制方法及装置
CN113903015B (zh) * 2021-12-09 2022-04-05 深圳佑驾创新科技有限公司 车道线识别方法及装置
CN114419421A (zh) * 2022-01-21 2022-04-29 中国地质大学(北京) 一种基于影像的地铁隧道裂缝识别系统及方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101226597A (zh) * 2007-01-18 2008-07-23 中国科学院自动化研究所 一种基于热红外步态的夜间行人识别方法及系统
CN105513054A (zh) * 2015-11-26 2016-04-20 北京市计算中心 基于三维扫描的拓印方法
CN105550682A (zh) * 2015-11-26 2016-05-04 北京市计算中心 钟鼎碑刻拓印方法
CN106842231A (zh) * 2016-11-08 2017-06-13 长安大学 一种道路边界检测及跟踪方法
CN108921089A (zh) * 2018-06-29 2018-11-30 驭势科技(北京)有限公司 车道线检测方法、装置和系统及存储介质
CN109345547A (zh) * 2018-10-19 2019-02-15 天津天地伟业投资管理有限公司 基于深度学习多任务网络的交通车道线检测方法及装置
CN109389102A (zh) * 2018-11-23 2019-02-26 合肥工业大学 基于深度学习的车道线检测方法及其应用的系统
CN109447033A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于yolo的车辆前方障碍物检测方法
CN109635744A (zh) * 2018-12-13 2019-04-16 合肥工业大学 一种基于深度分割网络的车道线检测方法
CN109740465A (zh) * 2018-12-24 2019-05-10 南京理工大学 一种基于实例分割神经网络框架的车道线检测算法
CN109740469A (zh) * 2018-12-24 2019-05-10 百度在线网络技术(北京)有限公司 车道线检测方法、装置、计算机设备和存储介质
CN109886081A (zh) * 2018-12-31 2019-06-14 武汉中海庭数据技术有限公司 一种车道线形点串提取方法和装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108805070A (zh) * 2018-06-05 2018-11-13 合肥湛达智能科技有限公司 一种基于嵌入式终端的深度学习行人检测方法
DE102018004569A1 (de) * 2018-06-08 2018-11-15 Daimler Ag Verfahren zur Steuerung oder Regelung von Funktionen eines Fahrwerks eines Fahrzeugs
CN109902637B (zh) * 2019-03-05 2021-03-19 长沙智能驾驶研究院有限公司 车道线检测方法、装置、计算机设备和存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101226597A (zh) * 2007-01-18 2008-07-23 中国科学院自动化研究所 一种基于热红外步态的夜间行人识别方法及系统
CN105513054A (zh) * 2015-11-26 2016-04-20 北京市计算中心 基于三维扫描的拓印方法
CN105550682A (zh) * 2015-11-26 2016-05-04 北京市计算中心 钟鼎碑刻拓印方法
CN106842231A (zh) * 2016-11-08 2017-06-13 长安大学 一种道路边界检测及跟踪方法
CN108921089A (zh) * 2018-06-29 2018-11-30 驭势科技(北京)有限公司 车道线检测方法、装置和系统及存储介质
CN109345547A (zh) * 2018-10-19 2019-02-15 天津天地伟业投资管理有限公司 基于深度学习多任务网络的交通车道线检测方法及装置
CN109447033A (zh) * 2018-11-14 2019-03-08 北京信息科技大学 基于yolo的车辆前方障碍物检测方法
CN109389102A (zh) * 2018-11-23 2019-02-26 合肥工业大学 基于深度学习的车道线检测方法及其应用的系统
CN109635744A (zh) * 2018-12-13 2019-04-16 合肥工业大学 一种基于深度分割网络的车道线检测方法
CN109740465A (zh) * 2018-12-24 2019-05-10 南京理工大学 一种基于实例分割神经网络框架的车道线检测算法
CN109740469A (zh) * 2018-12-24 2019-05-10 百度在线网络技术(北京)有限公司 车道线检测方法、装置、计算机设备和存储介质
CN109886081A (zh) * 2018-12-31 2019-06-14 武汉中海庭数据技术有限公司 一种车道线形点串提取方法和装置

Also Published As

Publication number Publication date
CN110363182A (zh) 2019-10-22

Similar Documents

Publication Publication Date Title
CN110363182B (zh) 基于深度学习的车道线检测方法
CN110287960B (zh) 自然场景图像中曲线文字的检测识别方法
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
CN107564025B (zh) 一种基于深度神经网络的电力设备红外图像语义分割方法
CN108830188B (zh) 基于深度学习的车辆检测方法
CN110929593B (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN111160249A (zh) 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN111898432B (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
CN112232371B (zh) 一种基于YOLOv3与文本识别的美式车牌识别方法
CN108305260B (zh) 一种图像中角点的检测方法、装置及设备
CN109934216B (zh) 图像处理的方法、装置、计算机可读存储介质
CN111709313B (zh) 基于局部和通道组合特征的行人重识别方法
CN109903339B (zh) 一种基于多维融合特征的视频群体人物定位检测方法
CN114758288A (zh) 一种配电网工程安全管控检测方法及装置
CN113537211B (zh) 一种基于非对称iou的深度学习车牌框定位方法
CN114299383A (zh) 基于密度图与注意力机制融合的遥感图像目标检测方法
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN110991374B (zh) 一种基于rcnn的指纹奇异点检测方法
CN113139979A (zh) 一种基于深度学习的边缘识别方法
CN114332921A (zh) 基于改进聚类算法的Faster R-CNN网络的行人检测方法
CN116469020A (zh) 一种基于多尺度和高斯Wasserstein距离的无人机图像目标检测方法
CN113191352A (zh) 一种基于目标检测和二值图像检测的水表指针读数识别方法
CN110910497B (zh) 实现增强现实地图的方法和系统
JP4749884B2 (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
CN112784494A (zh) 假阳性识别模型的训练方法、目标识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230322

Address after: Room 655, 6th Floor, Building 9, Yard 9, Linhe Street, Renhe Town, Shunyi District, Beijing, 101320

Patentee after: Beijing Shixi Maternal and Infant Products Co.,Ltd.

Address before: 100101 No. 35 middle Fourth Ring Road, Chaoyang District, Beijing

Patentee before: BEIJING INFORMATION SCIENCE AND TECHNOLOGY University