CN114120069B - 基于方向自注意力的车道线检测系统、方法和存储介质 - Google Patents

基于方向自注意力的车道线检测系统、方法和存储介质 Download PDF

Info

Publication number
CN114120069B
CN114120069B CN202210097199.9A CN202210097199A CN114120069B CN 114120069 B CN114120069 B CN 114120069B CN 202210097199 A CN202210097199 A CN 202210097199A CN 114120069 B CN114120069 B CN 114120069B
Authority
CN
China
Prior art keywords
network
branch
attention
information
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210097199.9A
Other languages
English (en)
Other versions
CN114120069A (zh
Inventor
张晓磊
赵燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Bochenghui Frontier Technology Co ltd
Original Assignee
Sichuan Bochenghui Frontier Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Bochenghui Frontier Technology Co ltd filed Critical Sichuan Bochenghui Frontier Technology Co ltd
Priority to CN202210097199.9A priority Critical patent/CN114120069B/zh
Publication of CN114120069A publication Critical patent/CN114120069A/zh
Application granted granted Critical
Publication of CN114120069B publication Critical patent/CN114120069B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于方向自注意力的车道线检测系统、方法和存储介质,所述网络模型包括主干部分网络和双分支下游网络,双分支下游网络包括与主干部分网络尺度对称的分割解码器网络分支以及方向自注意力网络分支,所述方向自注意力网络分支包括多尺度特征拼接模块、方向自注意力模块。本发明通过分割解码器网络分支逐层恢复特征信息的分辨率,捕获高分率信息提高模型检测的感知区域;通过方向自注意力模块将特征信息按水平和垂直方向进行投影映射,计算出特征点的预测置信度,提高重要区域的信息贡献度。本发明加强了网络模型的特征表达能力,提高了车道线模糊场景下的分割精度,在车辆拥挤、极端光线下感知能力更强,分割轮廓更细腻。

Description

基于方向自注意力的车道线检测系统、方法和存储介质
技术领域
本发明属于自动驾驶的技术领域,具体涉及一种基于方向自注意力的车道线检测系统、方法和存储介质。
背景技术
随着智慧交通相关技术的不断兴起,自动驾驶技术成为感知道路的重要领域之一,交通行业正逐渐智慧化地发展着。自动驾驶技术主要通过激光雷达、毫米波雷达等外部设备技术,和视频、图像等人工智能检测技术达到盲区检测、自动紧急制动、车道保持等辅助功能,可以及时预防制止大量的交通事故,提高行车途中的安全性。
车道线检测是自动驾驶技术中较为重要的功能之一,车道线检测通过确定车道线的位置从而定位可行驶的区域,利于提高车辆行驶的安全性,严格遵守道路交通规则。近几年,车道线检测方法主要分为基于传统图像处理的车道线检测方法和基于深度学习的车道线检测方法,但是随着应用场景的不断增多,基于传统图像处理的车道线检测方法变得不够适用了,所以基于深度学习的车道线检测方法成为了主流算法。基于深度学习的车道线检测方法按任务处理方式可分为基于语义分割的检测方法和非基于语义分割的检测方法,前者将检测任务当作一个语义分割任务,通过对整张图像进行像素级密集预测,对每个像素进行分类,从而得到目标所在的区域,而后者方法种类繁多,如目标检测方法、线点检测方法等等,没有统一的评价标准,但较于后者方法,前者方法相对简单直观,具有更好的易用性。
目前,大多数基于语义分割的车道线检测方法都是使用卷积神经网络构建的,存在部分车道线几何信息和上下文信息的缺失问题,从而限制了模型的鲁棒性,在部分极端光照和车辆拥挤场景下检测性能降低。因此,急需提出一种网络结构简单、提高检测速度的车道线检测方案,以实现对车道线外形变化和外界因素具有较强的鲁棒性。
发明内容
本发明的目的在于提供一种基于方向自注意力的车道线检测系统、方法和存储介质,旨在解决上述问题。
本发明主要通过以下技术方案实现:
基于方向自注意力的车道线检测系统,包括数据处理模块、训练模块、检测模块,所述数据处理模块用于形成训练集;所述训练模块用于采用训练集训练网络模型,所述检测模块用于将待检测图片输入训练后的网络模型并输出车道线检测结果;
所述网络模型包括主干部分网络和双分支下游网络,所述双分支下游网络包括分割解码器网络分支和方向自注意力网络分支;所述主干部分网络用于提取训练集中图像的深度特征信息,所述主干部分网络分别与分割解码器网络分支、方向自注意力网络分支连接,且与分割解码器网络分支的尺度对称设置;所述分割解码器网络分支用于逐层恢复特征信息的分辨率,捕获高分率信息;所述方向自注意力网络分支用于提取图像全局的上下文信息,全局搜索预测率高的区域;
所述方向自注意力网络分支包括从前至后依次设置的多尺度特征拼接模块、方向自注意力模块,所述多尺度特征拼接模块用于自适应地融合多层特征信息,所述方向自注意力模块用于结合目标特性将特征信息按水平和垂直方向进行投影映射,计算出特征点的预测置信度,提高重要区域的信息贡献度。
为了更好地实现本发明,进一步地,所述方向自注意力模块包括若干个分支单元以及特征拼接融合层,所述分支单元包括从前至后依次设置的特征映射模块、自注意力机制模块、特征重构层;若干个分支单元分别用于将特征信息沿垂直方向和水平方向进行投影,并通过特征拼接融合层与输入的特征信息拼接融合。
为了更好地实现本发明,进一步地,所述方向自注意力模块的前端设置有第一分支、第二分支、第三分支,且第一分支、第二分支、第三分支的输出端分别与特征拼接融合层连接;所述第一分支和第三分支的结构相同,且分别为分支单元;所述第二分支包括1×1卷积核的卷积层压缩维度的卷积层,用于保留输入的特征信息;所述第一分支用于利用特征映射模块将特征信息映射成H×1×C维度的特征信息,所述第三分支用于利用特征映射模块将特征信息映射成1×W×C维度的特征信息。其中C、H、W分别表示为图像通道数、图像高度、图像宽度,为本领域的常规表达,故不再赘述。
所述方向自注意力模块是先使用特征映射模块将特征信息沿水平和垂直方向进行投影映射,这种操作可以将特征信息的感受野更改成几何矩形,更加贴合车道线的几何外形,另一方面,车道线一般横穿或竖穿整张图像,映射之后能全局的搜索车道线所在的区域,再使用自注意力机制用几何的感受野去分析特征信息之间的关联性,从有限的视觉线索里提取出上下文信息,将置信度高的区域权重加重,然后使用特征重构层将条状特征信息的维度与第二分支的维度保持一直,才能完成特征拼接。
车道线具有细长的外观、很强的透视关系的特点,而且车道线在现实场景中展现的实际形态受外界光线影响以及受外界目标约束。目前,通用的车道线检测方法使用卷积神经网络进行目标搜索,但卷积操作具有局部性,不适用于车道线这种条状感受野的目标。本发明中方向自注意力模块可以更加结合车道线的几何外形,达到更强的表达能力。
车道线外形通常是呈现几何矩形,方向自注意力模块采取的特征映射模块可以将特征信息映射成条状特征信息,后续的自注意力模块用几何的感受野去分析特征信息之间的关联性,从有限的视觉线索里提取出上下文信息,将置信度高的区域权重加重,所以可以针对几何外形的车道线具有鲁棒性。另外外界因素是指光照影响车道线的明暗度,如光照强(白天),车道线就很明显,而光照弱(晚上)时,车道线就很模糊,方向自注意力模块能结合车道线的几何外形能更好的提取全局特征,结合图像上下文信息,可以预测出车道线模糊的地方,提高检测性能。
为了更好地实现本发明,进一步地,所述多尺度特征拼接模块用于将尺度一致的特征信息通过特征相加层进行融合,用于自适应地融合多层特征信息;不同尺度的特征信息分别对应经过上采样层、下采样层处理后得到尺度一致的特征信息。
为了更好地实现本发明,进一步地,所述主干部分网络包括不同层次、不同尺度的卷积层,所述分割解码器网络分支包括尺度对应设置的转置卷积层,所述转置卷积层用于逐层恢复特征信息的分辨率,捕获高分率信息。
为了更好地实现本发明,进一步地,所述分割解码器网络分支包括从前至后依次设置的转置卷积层、批归一化层、激活函数层、残差块。
本发明主要通过以下技术方案实现:
基于方向自注意力的车道线检测方法,采用上述的系统进行,包括以下步骤:
步骤S100:将包含车道线的图像和已标注的分割信息组成一一对应的训练集;
步骤S200:搭建网络模型并采用训练集训练网络模型,采用主干部分网络提取训练集中图像的深度特征信息,然后,通过分割解码器网络分支提取不同分支的高分辨率特征信息,为分割定位提供有效的依据;通过方向自注意力网络分支提取全局上下文信息,增强网络模型对于模糊目标的表达能力,所述方向自注意力网络分支的方向自注意力模块用于从水平和垂直方向计算特征点的预测置信度,提高重要区域的信息贡献度;
步骤S300:迭代优化像素级损失值,利用损失函数计算预测分割图与真实分割图之间的损失差异值,并预先设定每个损失值在总损失值中的占比;
步骤S400:采用衰减法对损失值进行衰减,对网络模型的权重参数进行随机初始化后进行训练,多次迭代优化,得到训练后的网络模型;
步骤S500:将待检测图片输入训练后的网络模型并输出车道线检测结果。
为了更好地实现本发明,进一步地,所述损失函数包括主损失函数和辅助损失函数,所述主损失函数用于优化分割解码器网络分支,所述辅助损失函数用于优化方向自注意力网络分支,在训练时,主损失函数和辅助损失函数同时计算。
为了更好地实现本发明,进一步地,所述主损失函数和辅助损失函数均为焦点损失函数。
一种计算机可读存储介质,存储有计算机程序指令,所述程序指令被处理器执行时实现上述的方法。
本发明的有益效果:
(1)本发明结合车道线目标的特性,将特征信息按水平和垂直方向进行投影映射,计算出特征点的预测置信度,提高重要区域的信息贡献度,能更好的解决目标模糊的场景;
(2)本发明通过高分辨率信息提高模型检测的感知区域,同时利用方向自注意力模块从水平和垂直方向上提取全局信息,大大增强模型特征的表达能力,提高车道线模糊场景下的分割精度;
(3)本发明根据车道线的几何外貌和实际场景构搭建出不同特性的分支网络,加强了网络模型的特征表达能力,提高了车道线模糊场景下的分割精度;本发明能更好的解决车道线几何信息和上下文信息的缺失问题。本发明与已有的车道线检测方法相比较,在车辆拥挤、极端光线下感知能力更强,分割轮廓更细腻;
(4)本发明采用双损失函数主要是为了在保证模型整体分割精度的前提下,要对方向自注意力网络分支进行优化,提高全局信息的质量,使最后进行分割的特征信息的表达能力大于通用的分割网络,从而提高车道线检测任务的性能,具有较好的实用性。
附图说明
图1为本发明整体网络模型的结构示意图;
图2为分割解码器网络分支的结构示意图;
图3为多尺度特征拼接模块的结构示意图;
图4为方向自注意力模块的结构示意图。
具体实施方式
实施例1:
基于方向自注意力的车道线检测系统,包括数据处理模块、训练模块、检测模块,所述数据处理模块用于形成训练集;所述训练模块用于采用训练集训练网络模型,所述检测模块用于将待检测图片输入训练后的网络模型并输出车道线检测结果。
如图1所示,所述网络模型包括主干部分网络和双分支下游网络,所述双分支下游网络包括分割解码器网络分支和方向自注意力网络分支;所述主干部分网络用于提取训练集中图像的深度特征信息,所述主干部分网络分别与分割解码器网络分支、方向自注意力网络分支连接,且与分割解码器网络分支的尺度对称设置;所述分割解码器网络分支用于逐层恢复特征信息的分辨率,捕获高分率信息;所述方向自注意力网络分支用于提取图像全局的上下文信息,全局搜索预测率高的区域;
所述方向自注意力网络分支包括从前至后依次设置的多尺度特征拼接模块、方向自注意力模块,所述多尺度特征拼接模块用于自适应地融合多层特征信息,所述方向自注意力模块用于结合目标特性将特征信息按水平和垂直方向进行投影映射,计算出特征点的预测置信度,提高重要区域的信息贡献度。
本发明根据车道线的几何外貌和实际场景构搭建出不同特性的分支网络,加强了网络模型的特征表达能力,提高了车道线模糊场景下的分割精度;本发明能更好的解决车道线几何信息和上下文信息的缺失问题。本发明与已有的车道线检测方法相比较,在车辆拥挤、极端光线下感知能力更强,分割轮廓更细腻。
实施例2:
本实施例是在实施例1的基础上进行优化,所述方向自注意力模块包括若干个分支单元以及特征拼接融合层,所述分支单元包括从前至后依次设置的特征映射模块、自注意力机制模块、特征重构层;若干个分支单元分别用于将特征信息沿垂直方向和水平方向进行投影,并通过特征拼接融合层与输入的特征信息拼接融合。
进一步地,如图4所示,所述方向自注意力模块的前端设置有第一分支、第二分支、第三分支,且第一分支、第二分支、第三分支的输出端分别与特征拼接融合层连接;所述第一分支和第三分支的结构相同,且分别为分支单元;所述第二分支包括1×1卷积核的卷积层压缩维度的卷积层,用于保留输入的特征信息;所述第一分支用于利用特征映射模块将特征信息映射成H×1×C维度的特征信息,所述第三分支用于利用特征映射模块将特征信息映射成1×W×C维度的特征信息。
进一步地,如图3所示,所述多尺度特征拼接模块用于将尺度一致的特征信息通过特征相加层进行融合,用于自适应地融合多层特征信息;不同尺度的特征信息分别对应经过上采样层、下采样层处理后得到尺度一致的特征信。
本发明通过高分辨率信息提高模型检测的感知区域,同时利用方向自注意力模块从水平和垂直方向上提取全局信息,大大增强模型特征的表达能力,提高车道线模糊场景下的分割精度。本发明根据车道线的几何外貌和实际场景构搭建出不同特性的分支网络,加强了网络模型的特征表达能力,提高了车道线模糊场景下的分割精度;本发明能更好的解决车道线几何信息和上下文信息的缺失问题。本发明与已有的车道线检测方法相比较,在车辆拥挤、极端光线下感知能力更强,分割轮廓更细腻。
本实施例的其他部分与实施例1相同,故不再赘述。
实施例3:
本实施例是在实施例1或2的基础上进行优化,所述主干部分网络包括不同层次、不同尺度的卷积层,所述分割解码器网络分支包括尺度对应设置的转置卷积层,所述转置卷积层用于逐层恢复特征信息的分辨率,捕获高分率信息。
进一步地,所述分割解码器网络分支包括从前至后依次设置的转置卷积层、批归一化层、激活函数层、残差块。
本发明根据车道线的几何外貌和实际场景构搭建出不同特性的分支网络,加强了网络模型的特征表达能力,提高了车道线模糊场景下的分割精度;本发明能更好的解决车道线几何信息和上下文信息的缺失问题。本发明与已有的车道线检测方法相比较,在车辆拥挤、极端光线下感知能力更强,分割轮廓更细腻。
本实施例的其他部分与上述实施例1或2相同,故不再赘述。
实施例4:
基于方向自注意力的车道线检测方法,采用上述的系统进行,包括以下步骤:
步骤S100:将包含车道线的图像和已标注的分割信息组成一一对应的训练集;
步骤S200:搭建网络模型并采用训练集训练网络模型,采用主干部分网络提取训练集中图像的深度特征信息,然后,通过分割解码器网络分支提取不同分支的高分辨率特征信息,为分割定位提供有效的依据;通过方向自注意力网络分支提取全局上下文信息,增强网络模型对于模糊目标的表达能力,所述方向自注意力网络分支的方向自注意力模块用于从水平和垂直方向计算特征点的预测置信度,提高重要区域的信息贡献度;
步骤S300:迭代优化像素级损失值,利用损失函数计算预测分割图与真实分割图之间的损失差异值,并预先设定每个损失值在总损失值中的占比;
步骤S400:采用衰减法对损失值进行衰减,对网络模型的权重参数进行随机初始化后进行训练,多次迭代优化,得到训练后的网络模型;
步骤S500:将待检测图片输入训练后的网络模型并输出车道线检测结果。
进一步地,如图1所示,所述损失函数包括主损失函数和辅助损失函数,所述主损失函数用于优化分割解码器网络分支,所述辅助损失函数用于优化方向自注意力网络分支,在训练时,主损失函数和辅助损失函数同时计。本发明采用双损失函数主要是为了在保证模型整体分割精度的前提下,要对方向自注意力网络分支进行优化,提高全局信息的质量,使最后进行分割的特征信息的表达能力大于通用的分割网络,从而提高车道线检测任务的性能,具有较好的实用性。
进一步地,所述主损失函数和辅助损失函数均为焦点损失函数。
本发明通过高分辨率信息提高模型检测的感知区域,同时利用方向自注意力模块从水平和垂直方向上提取全局信息,大大增强模型特征的表达能力,提高车道线模糊场景下的分割精度。本发明能更好的解决车道线几何信息和上下文信息的缺失问题。本发明与已有的车道线检测方法相比较,在车辆拥挤、极端光线下感知能力更强,分割轮廓更细腻。
实施例5:
基于方向自注意力的车道线检测方法,包括以下步骤:
将包含车道线的图像和已标注的分割信息组成一一对应的模型训练集,后续采集实时的图像作为测试集;
首先按照设计结构搭建网络模型,然后由主干部分网络提取训练图像的深度特征信息,再由分割解码器网络分支提取不同分支的高分辨率特征信息,方向自注意力网络分支提取全局上下文信息并提炼细化,最后迭代优化像素级损失值;
利用损失函数计算预测分割图与真实分割图之间的损失差异值,并预先设定每个损失值在总损失值中的占比;
在模型训练之前设置最大迭代次数和相关超参数,然后选用合适的衰减法对损失值进行衰减,对模型的权重参数进行随机初始化后准备训练,多次迭代优化,最后测试最优模型。
进一步地,如图1所示,所述网络模型分为主干部分网络和双分支下游网络,主干部分网络采用具有不同层次、不同尺度的卷积层构成的通用网络,而双分支下游网络分为分割解码器网络分支和方向自注意力网络分支。
进一步地,所述的分割解码器网络分支与主干部分网络形成对称性,包括尺度对应的转置卷积层。如图2所示,分割解码器网络分支在结构上包括若干个从前至后依次设置的转置卷积层、批归一化层、激活函数层、若干个残差块,用于逐层恢复特征信息的分辨率,捕获高分辨率信息。
进一步地,如图1所示,所述的方向自注意力网络分支从前至后由多尺度特征拼接模块、方向自注意力模块组成,其作用是提取图像全局的上下文信息,全局搜索预测率高的区域,减少外界因素对目标的影响。如图3所示,所述多尺度特征拼接模块由不同层次的主干网络特征信息构成,包括上采样层、下采样层、特征相加层,用于自适应地融合多层特征信息。
进一步地,如图4所示,所述的方向自注意力模块包括若干个从前至后依次设置的特征映射模块、自注意力机制模块、特征重构层以及特征拼接融合层,主要操作是结合目标特性将特征信息按水平和垂直方向进行投影映射,计算出特征点的预测置信度,提高重要区域的信息贡献度,能更好的解决目标模糊的场景。
进一步地,如图1所示,所述网络模型的损失函数分为主损失函数和辅助损失函数,主损失函数用于优化分割解码器网络分支,辅助损失函数用于优化方向自注意力网络分支,训练时两分支同时计算。
本发明结合车道线的几何外貌和实际场景构建出一种多分支车道线分割方法,通过搭建不同特性的分支网络加强模型的特征表达能力,提高了车道线模糊场景下的分割精度。本发明根据车道线的几何外貌和实际场景构搭建出不同特性的分支网络,加强了网络模型的特征表达能力,提高了车道线模糊场景下的分割精度;本发明能更好的解决车道线几何信息和上下文信息的缺失问题。本发明与已有的车道线检测方法相比较,在车辆拥挤、极端光线下感知能力更强,分割轮廓更细腻。
实施例6:
基于方向自注意力的车道线检测系统,如图1所示,网络模型分为主干部分网络和双分支下游网络,主干部分网络采用具有不同层次、不同尺度的卷积层构成的通用网络,而双分支下游网络分为分割解码器网络分支和方向自注意力网络分支,其中分割解码器网络分支与主干部分网络在尺度上形成对称性。
如图2所示,分割解码器网络分支在结构上包括从前至后依次设置的转置卷积层、批归一化层、激活函数层、残差块,利用转置卷积层的特性逐层恢复特征信息的分辨率,捕获高分辨率信息,提高模型的感知区域。所述激活函数层采用参数修正线性单元层。
所述方向自注意力网络分支从前至后由多尺度特征拼接模块、方向自注意力模块组成,其作用是提取图像全局的上下文信息,全局搜索预测率高的区域,减少外界因素对目标的影响。如图3所示,包括不同层次的主干网络特征信息,多尺度特征拼接模块包括采样层、下采样层、特征相加层,自适应地融合多层特征信息。例如,原图像尺度为H×W,图中
Figure 24716DEST_PATH_IMAGE001
分别为对应的尺度为
Figure DEST_PATH_IMAGE002
Figure 269752DEST_PATH_IMAGE003
Figure DEST_PATH_IMAGE004
Figure 3484DEST_PATH_IMAGE005
的主干网络特征信息,且尺度逐层降低。因为
Figure 133114DEST_PATH_IMAGE001
尺度不一致,所以要选用某种尺度进行融合,f1和f2的尺度过大,会造成模型参数增加,所以选用了f3特征信息的尺度,不会额外增加很多参数,还能保留特征信息的细节信息,使融合之后的特征具有多尺度性、语义信息丰富等优点。
所述方向自注意力模块包括若干个从前至后依次设置的特征映射模块、自注意力机制模块、特征重构层以及特征拼接融合层。具体地,如图4所示,方向自注意力模块前端分成了三个分支,第一条分支利用特征映射模块将特征信息映射成H×1×C维度的特征信息,从空间上可以理解为将特征信息沿垂直方向进行投影,第二条分支保留了输入的特征信息,而且为了减少最后特征块的维度的增加,选用1×1卷积核的卷积层压缩维度,最后第三条分支利用特征映射模块将特征信息映射成1×W×C维度的特征信息,从空间上可以理解为将特征信息沿水平方向进行投影。所以,方向自注意力模块结合目标特性将特征信息按水平和垂直方向进行投影映射,计算出特征点的预测置信度,提高重要区域的信息贡献度,能更好的解决目标模糊的场景。
进一步地,如图4所示,所述特征映射模块包括从前之后设置的卷积层、批归一化层、神经元失活层、卷积层、最大值池化层、全连接层、修正线性单元层。
基于方向自注意力的车道线检测方法,采用上述的系统进行,在网络模型搭建完成后,预先设置相关训练参数,然后针对损失值选用适配的优化策略,最后开始迭代训练。其中,损失函数分为主损失函数和辅助损失函数,主损失函数用于优化分割解码器网络分支,辅助损失函数用于优化方向自注意力网络分支,训练时两分支同时计算。损失函数公式如下:
Figure DEST_PATH_IMAGE006
公式中
Figure 426780DEST_PATH_IMAGE007
表示网络模型在某个像素点的预测概率值,γ为伽马参数,用于调整贡献度不同的样本的损失比重,α为阿尔法参数,用于调节正样本的惩罚比例,y是真实标签,为人工标注信息。该公式为某像素点的损失计算方式,遍历完整张图像才完成损失值计算。所以总的损失值计算公式如下:
Figure DEST_PATH_IMAGE008
其中L 1为主损失函数,L 2为辅助损失函数,β参数为调节常量,本实施例中设为0.6。本发明采用双损失函数的操作,主要是为了在保证模型整体分割精度的前提下,要对方向自注意力网络分支进行优化,提高全局信息的质量,使最后进行分割的特征信息的表达能力大于通用的分割网络,从而提高车道线检测任务的性能。
综上所述,本发明构建的多分支车道线检测方法能更好的解决车道线几何信息和上下文信息的缺失问题。本发明提出的车道线检测方法与已有的方法相比较,在车辆拥挤、极端光线下感知能力更强,分割轮廓更细腻。
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化,均落入本发明的保护范围之内。

Claims (8)

1.基于方向自注意力的车道线检测系统,其特征在于,包括数据处理模块、训练模块、检测模块,所述数据处理模块用于形成训练集;所述训练模块用于采用训练集训练网络模型,所述检测模块用于将待检测图片输入训练后的网络模型并输出车道线检测结果;
所述网络模型包括主干部分网络和双分支下游网络,所述双分支下游网络包括分割解码器网络分支和方向自注意力网络分支;所述主干部分网络用于提取训练集中图像的深度特征信息,所述主干部分网络分别与分割解码器网络分支、方向自注意力网络分支连接,且与分割解码器网络分支的尺度对称设置;所述分割解码器网络分支用于逐层恢复特征信息的分辨率,捕获高分辨率信息;所述方向自注意力网络分支用于提取图像全局的上下文信息,全局搜索预测率高的区域;
所述方向自注意力网络分支包括从前至后依次设置的多尺度特征拼接模块、方向自注意力模块,所述多尺度特征拼接模块用于自适应地融合多层特征信息,所述方向自注意力模块用于结合目标特性将特征信息按水平和垂直方向进行投影映射,计算出特征点的预测置信度,提高重要区域的信息贡献度;
所述方向自注意力模块包括若干个分支单元以及特征拼接融合层,所述分支单元包括从前至后依次设置的特征映射模块、自注意力机制模块、特征重构层;若干个分支单元分别用于将特征信息沿垂直方向和水平方向进行投影,并通过特征拼接融合层与输入的特征信息拼接融合;
所述方向自注意力模块的前端设置有第一分支、第二分支、第三分支,且第一分支、第二分支、第三分支的输出端分别与特征拼接融合层连接;所述第一分支和第三分支的结构相同,且分别为分支单元;所述第二分支包括1×1卷积核的卷积层压缩维度的卷积层,用于保留输入的特征信息;所述第一分支用于利用特征映射模块将特征信息映射成H×1×C维度的特征信息,所述第三分支用于利用特征映射模块将特征信息映射成1×W×C维度的特征信息。
2.根据权利要求1所述的基于方向自注意力的车道线检测系统,其特征在于,所述多尺度特征拼接模块用于将尺度一致的特征信息通过特征相加层进行融合,用于自适应地融合多层特征信息;不同尺度的特征信息分别对应经过上采样层、下采样层处理后得到尺度一致的特征信息。
3.根据权利要求1所述的基于方向自注意力的车道线检测系统,其特征在于,所述主干部分网络包括不同层次、不同尺度的卷积层,所述分割解码器网络分支包括尺度对应设置的转置卷积层,所述转置卷积层用于逐层恢复特征信息的分辨率,捕获高分辨率信息。
4.根据权利要求3所述的基于方向自注意力的车道线检测系统,其特征在于,所述分割解码器网络分支包括从前至后依次设置的转置卷积层、批归一化层、激活函数层、残差块。
5.基于方向自注意力的车道线检测方法,采用权利要求1-4任一项所述的系统进行,其特征在于,包括以下步骤:
步骤S100:将包含车道线的图像和已标注的分割信息组成一一对应的训练集;
步骤S200:搭建网络模型并采用训练集训练网络模型,采用主干部分网络提取训练集中图像的深度特征信息,然后,通过分割解码器网络分支提取不同分支的高分辨率特征信息,为分割定位提供有效的依据;通过方向自注意力网络分支提取全局上下文信息,增强网络模型对于模糊目标的表达能力,所述方向自注意力网络分支的方向自注意力模块用于从水平和垂直方向计算特征点的预测置信度,提高重要区域的信息贡献度;
步骤S300:迭代优化像素级损失值,利用损失函数计算预测分割图与真实分割图之间的损失差异值,并预先设定每个损失值在总损失值中的占比;
步骤S400:采用衰减法对损失值进行衰减,对网络模型的权重参数进行随机初始化后进行训练,多次迭代优化,得到训练后的网络模型;
步骤S500:将待检测图片输入训练后的网络模型并输出车道线检测结果。
6.根据权利要求5所述的基于方向自注意力的车道线检测方法,其特征在于,所述损失函数包括主损失函数和辅助损失函数,所述主损失函数用于优化分割解码器网络分支,所述辅助损失函数用于优化方向自注意力网络分支,在训练时,主损失函数和辅助损失函数同时计算。
7.根据权利要求6所述的基于方向自注意力的车道线检测方法,其特征在于,所述主损失函数和辅助损失函数均为焦点损失函数。
8.一种计算机可读存储介质,存储有计算机程序指令,其特征在于,所述程序指令被处理器执行时实现权利要求5-7任一项所述的方法。
CN202210097199.9A 2022-01-27 2022-01-27 基于方向自注意力的车道线检测系统、方法和存储介质 Active CN114120069B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210097199.9A CN114120069B (zh) 2022-01-27 2022-01-27 基于方向自注意力的车道线检测系统、方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210097199.9A CN114120069B (zh) 2022-01-27 2022-01-27 基于方向自注意力的车道线检测系统、方法和存储介质

Publications (2)

Publication Number Publication Date
CN114120069A CN114120069A (zh) 2022-03-01
CN114120069B true CN114120069B (zh) 2022-04-12

Family

ID=80361785

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210097199.9A Active CN114120069B (zh) 2022-01-27 2022-01-27 基于方向自注意力的车道线检测系统、方法和存储介质

Country Status (1)

Country Link
CN (1) CN114120069B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114782915B (zh) * 2022-04-11 2023-04-07 哈尔滨工业大学 基于辅助监督和知识蒸馏的智能汽车端到端车道线检测系统及设备
CN115131968B (zh) * 2022-06-28 2023-07-11 重庆长安汽车股份有限公司 一种基于车道线点集与注意力机制的匹配融合方法
CN116971052B (zh) * 2023-07-07 2024-03-08 杭州帝凯工业布有限公司 一种高强度尼龙长丝及其制备方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10467500B1 (en) * 2018-12-31 2019-11-05 Didi Research America, Llc Method and system for semantic segmentation involving multi-task convolutional neural network
CN111242037A (zh) * 2020-01-15 2020-06-05 华南理工大学 基于结构信息的车道线检测方法
CN111368815A (zh) * 2020-05-28 2020-07-03 之江实验室 一种基于多部件自注意力机制的行人重识别方法
CN111950467A (zh) * 2020-08-14 2020-11-17 清华大学 基于注意力机制的融合网络车道线检测方法及终端设备
CN112633177A (zh) * 2020-12-24 2021-04-09 浙江大学 一种基于注意力空间卷积神经网络的车道线检测分割方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN113158768A (zh) * 2021-03-03 2021-07-23 中山大学 基于ResNeSt和自注意力蒸馏的智能车辆车道线检测方法
CN113361447A (zh) * 2021-06-23 2021-09-07 中国科学技术大学 一种基于滑动窗口自注意力机制的车道线检测方法及系统
CN113591509A (zh) * 2020-04-30 2021-11-02 深圳市丰驰顺行信息技术有限公司 车道线检测模型的训练方法、图像处理方法及装置
CN113850825A (zh) * 2021-09-27 2021-12-28 太原理工大学 基于上下文信息和多尺度特征融合的遥感图像道路分割方法
CN113902915A (zh) * 2021-10-12 2022-01-07 江苏大学 一种基于低光照复杂道路场景下的语义分割方法及系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10467500B1 (en) * 2018-12-31 2019-11-05 Didi Research America, Llc Method and system for semantic segmentation involving multi-task convolutional neural network
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN111242037A (zh) * 2020-01-15 2020-06-05 华南理工大学 基于结构信息的车道线检测方法
CN113591509A (zh) * 2020-04-30 2021-11-02 深圳市丰驰顺行信息技术有限公司 车道线检测模型的训练方法、图像处理方法及装置
CN111368815A (zh) * 2020-05-28 2020-07-03 之江实验室 一种基于多部件自注意力机制的行人重识别方法
CN111950467A (zh) * 2020-08-14 2020-11-17 清华大学 基于注意力机制的融合网络车道线检测方法及终端设备
CN112633177A (zh) * 2020-12-24 2021-04-09 浙江大学 一种基于注意力空间卷积神经网络的车道线检测分割方法
CN113158768A (zh) * 2021-03-03 2021-07-23 中山大学 基于ResNeSt和自注意力蒸馏的智能车辆车道线检测方法
CN113361447A (zh) * 2021-06-23 2021-09-07 中国科学技术大学 一种基于滑动窗口自注意力机制的车道线检测方法及系统
CN113850825A (zh) * 2021-09-27 2021-12-28 太原理工大学 基于上下文信息和多尺度特征融合的遥感图像道路分割方法
CN113902915A (zh) * 2021-10-12 2022-01-07 江苏大学 一种基于低光照复杂道路场景下的语义分割方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Lane Mark Detection with Pre-Aligned Spatial-Temporal Attention;Yiman Chen 等;《https://doi.org/10.3390/s22030794》;20220121;1-10 *
Robust Lane Detection via Expanded Self Attention;Minhyeok Lee 等;《https://arxiv.org/abs/2102.07037》;20210214;1-15 *
基于目标特征蒸馏的车道线检测;龙建武等;《重庆理工大学学报(自然科学)》;20200414;第34卷(第09期);198-208 *
引入辅助损失的多场景车道线检测;陈立潮等;《中国图象图形学报》;20200916;第25卷(第09期);1882-1893 *

Also Published As

Publication number Publication date
CN114120069A (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
CN114120069B (zh) 基于方向自注意力的车道线检测系统、方法和存储介质
CN111797716B (zh) 一种基于Siamese网络的单目标跟踪方法
CN109977793B (zh) 基于变尺度多特征融合卷积网络的路侧图像行人分割方法
CN110929578B (zh) 一种基于注意力机制的抗遮挡行人检测方法
CN111612008B (zh) 基于卷积网络的图像分割方法
CN109101914B (zh) 一种基于多尺度的行人检测方法和装置
CN114565900A (zh) 基于改进YOLOv5和双目立体视觉的目标检测方法
CN111368846B (zh) 一种基于边界语义分割的道路积水识别方法
CN112464911A (zh) 基于改进YOLOv3-tiny的交通标志检测与识别方法
CN115546768B (zh) 基于多尺度机制和注意力机制的路面标线识别方法及系统
CN111461221B (zh) 一种面向自动驾驶的多源传感器融合目标检测方法和系统
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN113344971B (zh) 一种融合卡尔曼滤波的孪生红外目标跟踪方法
CN117095368A (zh) 一种基于yolov5融合多目标特征增强网络和注意力机制的交通小目标检测方法
CN112613392A (zh) 基于语义分割的车道线检测方法、装置、系统及存储介质
CN114926498B (zh) 一种基于时空约束与可学习特征匹配的快速目标跟踪方法
CN115346071A (zh) 高置信局部特征与全局特征学习的图片分类方法及系统
CN114764856A (zh) 图像语义分割方法和图像语义分割装置
CN112766056A (zh) 一种基于深度神经网络的弱光环境车道线检测方法、装置
CN115527096A (zh) 一种基于改进YOLOv5的小目标检测方法
CN115063704A (zh) 一种立体特征融合语义分割的无人机监测目标分类方法
CN114463721A (zh) 一种基于空间特征交互的车道线检测方法
CN116993933A (zh) 应急场景下的实景地图构建方法、装置、设备及存储介质
CN115731517A (zh) 一种基于Crowd-RetinaNet网络的拥挤人群检测方法
CN116189136A (zh) 一种基于深度学习的雨雪天气下交通信号灯检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant