CN116188779A - 一种基于UFLane-Detection的车道线检测方法 - Google Patents

一种基于UFLane-Detection的车道线检测方法 Download PDF

Info

Publication number
CN116188779A
CN116188779A CN202310162660.9A CN202310162660A CN116188779A CN 116188779 A CN116188779 A CN 116188779A CN 202310162660 A CN202310162660 A CN 202310162660A CN 116188779 A CN116188779 A CN 116188779A
Authority
CN
China
Prior art keywords
lane
lane line
feature
detection
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310162660.9A
Other languages
English (en)
Inventor
高尚兵
刘宇
张秦涛
张莹莹
李�杰
胡序洋
张海艳
陈晓兵
于永涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaiyin Institute of Technology
Original Assignee
Huaiyin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaiyin Institute of Technology filed Critical Huaiyin Institute of Technology
Priority to CN202310162660.9A priority Critical patent/CN116188779A/zh
Publication of CN116188779A publication Critical patent/CN116188779A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于UFLane‑Detection的车道线检测方法,采集行车记录仪拍摄的车道线图片,并对图片进行清洗后获得训练集;构建基于UFLane‑Detection的车道线检测模型,主干网络通过下采样,将车道线和背景分离,提取其车道线特征,同时不断压缩图像像素;利用Lane‑Decoder解码器还原图像像素,同时结合全局通道注意力模块,将主干网络提取的特征信息进行进一步的加强;利用Softmax分类器对车道线进一步识别;将训练集输入到车道线检测模型中进行训练,最终模型输出结果再重新缩放回待测图片的原始大小,得到最终的分割结果。本发明能够实现复杂交通场景车道线的识别,具有较高的准确率,具有稳定性好、抗干扰能力强、通用性高,鲁棒性好等优点,能够应用于驾驶辅助系统或者无人驾驶系统中。

Description

一种基于UFLane-Detection的车道线检测方法
技术领域
本发明属于语义分割、图像处理及智能驾驶领域,具体涉及一种基于UFLane-Detection的车道线检测方法。
背景技术
语义分割在计算机视觉领域有着十分重要的作用,它通过图片像素的标注从而识别出图像中不同的类别。随着智能化系统被应用到车辆驾驶领域中,越来越多的车辆上配置了能够实现自动驾驶功能或者辅助驾驶功能的智能系统。为了实现自动驾驶或辅助驾驶功能,车辆上智能系统通常需要从车辆周围的道路图像中识别出车道线,以确定车辆附近的行驶车道,从而指导车辆的驾驶。
在现有车道线检测技术中,通常是人为的设计特征提取的方法处理图像,对操作后的边缘图像进行霍夫变换等处理后得到车道线标记图像,但是该方式只能对特定情况下的图片进行特征提取,无法有效的对车道线遮挡、模糊、弯道、曲线等复杂情况进行检测。目前,图像语义分割大部分都采用了深度学习技术,但是不同的深度学习框架侧重点不同,对于车道线检测方向大多数的物体检测算法还不能完美的适用,只局限于表象上的车道线,无法对语义上的车道线进行准确识别。
发明内容
发明目的:针对传统的车道线检测方法对于复杂交通环境下的车道线检测准确率不高的情况,提供一种基于UFLane Detection的车道线检测方法,利用多特征融合的检测方法来提高车道线检测效果。
技术方案:本发明提供一种基于UFLane-Detection的车道线检测方法,具体包括以下步骤:
(1)采集行车记录仪拍摄的车道线图片构成数据集,车道线图片包含道路上标识的不同类别的车道线;
(2)对数据集进行清洗后获得训练集;
(3)构建基于UFLane-Detection的车道线检测模型,包括主干网络、特征翻转融合模块、全局通道注意力模块GCA以及Lane-Decoder解码器;主干网络通过下采样,将车道线和背景分离,提取其车道线特征,同时不断压缩图像像素;利用Lane-Decoder解码器还原图像像素,同时结合全局通道注意力模块,将主干网络提取的特征信息进行进一步的加强;利用Softmax分类器对车道线进一步识别;
(4)将训练集输入到基于UFLane-Detection的车道线检测模型中进行训练,最终模型输出结果再重新缩放回待测图片的原始大小,得到最终的分割结果。
进一步地,步骤(1)所述不同类别的车道线包括车道分界线、导向线、停止线、V形线、泊车线、斑马线。
进一步地,所述步骤(2)实现过程如下:
遍历数据集中所有车道线图片,删除模糊、过曝、过暗以及图片中不包含车道线目标的图片,形成用于训练的数据集并标注;对图片进行数据增强处理,从亮度、饱和度、噪声、对比度、裁剪、缩放多方面进行调整,获得更多图片。
进一步地,所述步骤(3)实现过程如下:
将图片输入主干网络中进行车道线特征提取,主干网络分为四层W1-W4,特征提取主要采用含有3个3×3的残差结构,每层的残差结构数量分别为1,3,3,6;
将分层特征层Wi送入特征翻转融合模块,对Wi输入的特征X进行两种处理,一种是flip翻转得到特征Ff,将特征图进行垂直翻转;与此同时,使用1×1的卷积核对原特征图进行提取,得到特征图F1,两种处理后的特征图进行相加得到特征F2;随后对F2使用一个3×3卷积,并与F1,Ff相乘,最后使用全局平均池化GAP,关联全局特征,达到对车道线特点进行强化的目的;相关公式如下:
F2(x)=concat[F1(x)+Ff(x)]
F3=Conv3[F2(x)]·F1(x)·Ff(x)
F=GAP(F3)
将特征翻转融合后的特征分别送入各层的Lane-Decoder解码器中,该解码器包括两个3×3卷积和PSCN模块,通过PSCN模块获取空间信息;然后输入带状池化模块获取长距离依赖信息,空间信息由向上、向下、向左和向右四个方向上的PSCN模块提取各自提取;首先,PSCN模块将大小为C×H×W的三维张量作为输入,其中C、H和W分别表示通道、行和列的数目;分割后的张量中的第一个切片被送到PSCN模块的卷积层中,其中卷积核的尺寸为C×ω,ω是卷积核宽度;而后,卷积层的输出被添加到下一层,并成为一个新的切片,这个新的切片被送到下一个PSCN模块的卷积层;上述过程一直重复直至最后一个切片更新完成;将向上与向下,向左与向右并行组合;PSCN中切片公式如下:
Figure BDA0004094733990000031
具体来说,假设有一个三维核张量K,其中元素Km,i,n表示切片的通道m中的元素和当前切片的通道i中的元素之间的权重,两个元素之间的偏移量为n;将输入三维张量X的元素表示为Xi,j,k,其中i,j,k分别表示通道、行和列的索引,X'i,j,k是更新后的值,f是ReLU激活函数。
进一步地,所述全局注意力机制模块附着在各层的Lane-Decoder解码器之中,将其添加到每个编码器3×3的卷积之中,对融合后的特征进行权重分配,保留车道特征信息;所述全局注意力模块独立地使用全局平均池和全局最大池来聚合两种不同的空间上下文信息;通过池化的特征送入全连接层;最后通过元素求和以及sigmoid函数合并输出特征向量:
Mc(F)=σ(FC1(AvgPool(x))+FC2(Max Pool(x)))
其中,x是输入特征,Avg Pool为平均池化,Max Pool为最大池化,FC为全连接层,σ是sigmod激活函数。
进一步地,所述基于UFLane-Detection的车道线检测模型的损失函数为:
Figure BDA0004094733990000032
式中,W和H代表分割模型最终输出特征图的宽度和高度;
Figure BDA0004094733990000033
代表语义分割真实标签;6代表预测的语义信息。
有益效果:与现有技术相比,本发明的有益效果:本发明将检测车道线的任务视作像素级的语义分割问题,通过UFLane-Detection网络划分车道线和背景,然后结合了车道线连续、细长且对称的特点,设计具有针对性的车道线特征提取模块,并利用好空间信息,提高了车道线检测在复杂行车环境下的鲁棒性,提升了车道线检测的精度;接着,通过全局的注意力机制,将高级语义信息与低级语义信息相融合,并且增加重要信息的权重分配,使得在一般场景下的车道线分割结果更加准确;最后,通过拟合算法将分割后的车道线拟合到图像当中;本发明能够在应对复杂行车环境时,还有较好的车道线检测效果。
附图说明
图1是本发明的流程图;
图2本发明基于UFLane Detection的车道线检测方法结构图;
图3是本发明主干网络结构图;
图4是本发明特征反转融合模块结构图;
图5是本发明Lane-Decoder解码器结构图;
图6是本发明PSCN结构图;
图7是本发明GCA模块结构图;
图8是复杂的交通图;
图9是本发明道路分割线检测实例图;
图10为本发明车道线拟合示意图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
本发明提出一种基于UFLane-Detection的车道线检测方法,如图1所示,包括以下步骤:
步骤1:采集行车记录仪拍摄的车道线图片构成数据集,车道线图片包含道路上标识的不同类别的车道线,所述的车道线主要分为以下6类:车道分界线、导向线、停止线、V形线、泊车线、斑马线。
步骤2:对数据集进行预处理;具体是遍历数据集中所有车道线图片,删除所有模糊、过曝、过暗以及图片中不包含车道线目标的图片,形成最终用于训练的数据集并标注。再对图片进行数据增强处理,从亮度、饱和度、噪声、对比度、裁剪、缩放等多个方面进行调整,获得更多图片,能增强模型的鲁棒性。数据增强处理是对于一张训练图片,随机在亮度、饱和度、对比度、噪声、裁剪和缩放中选择一项,并随机改变图片该项的属性值,其中亮度和饱和度的权重因子在0.7~1.3随机取值,对比度因子在0.1~0.3随机取值,噪声为高斯噪声,方差因子在0~1之间随机取值,裁剪尺度为0.9。
步骤3:构建基于UFLane-Detection的车道线检测模型。
具体实施中,如图2所示,本发明实施例构建的UFLane-Detection的车道线检测模型包括包括主干网络、特征翻转融合模块、全局通道注意力模块GCA以及Lane-Decoder解码器。其中主干网络主要用于在不同图像细粒度上聚合并形成图像特征的卷积神经网络,抑制大量无用的背景信息,收集车道线的特征信息;特征翻转融合模块是针对车道线独有的特点,连续、细长、对称,对特征进行垂直方向翻转相加,更好地进行车道线特征加强;Lane-Decoder解码器是融合不同尺度的特征,并以细长的切片的方式滑动遍历,进一步对车道线特征进行采集;全局通道注意力模块则是附着在各层编码器中,为了达到不同层次的注意机制可以借鉴其他层次信息的目的,对融合后的特征进行权重分配,依次更好地保留车道特征信息。
具体实施中,如图3所示,主干网络分为四层W1-W4,特征提取主要采用含有3个3×3的残差结构,每层的残差结构数量分别为1,3,3,6;使用结构简单的残差模块进行作为主干网络进行特征提取,是因为车道线的特征信息较少,同时车道线目标单一,残差结构就可以有效获取,并且参数较少,有利于轻量化部署。
具体实施中,如图4所示,将分层特征层Wi送入特征翻转融合模块。考虑到图像中车道线往往以垂直方向对称地出现,因此,对Wi输入的特征X进行两种处理,一种是flip翻转得到特征Ff,将特征图进行垂直翻转;与此同时,另一种是使用1×1的卷积核对原特征图进行提取,得到特征图F1,接着把以上两种处理后的特征图进行相加得到特征F2,随后对F2使用一个3×3卷积,并与F1,Ff相乘,最后使用全局平均池化GAP,更好地关联全局特征,达到对车道线特点进行强化的目的。相关公式如下:
F2(x)=concat[F1(x)+Ff(x)]
F3=Conv3[F2(x)]·F1(x)·Ff(x)
F=GAP(F3)
具体实施中,如图5所示将特征翻转融合后的特征分别送入各层的Lane-Decoder解码器中,该解码器包括两个3×3卷积和PSCN模块,通过PSCN模块获取空间信息,如图6所示;然后输入带状池化模块获取长距离依赖信息,空间信息由向上、向下、向左和向右四个方向上的PSCN模块提取各自提取;首先,PSCN模块将大小为C×H×W的三维张量作为输入,其中C、H和W分别表示通道、行和列的数目;分割后的张量中的第一个切片被送到PSCN模块的卷积层中,其中卷积核的尺寸为C×ω,ω是卷积核宽度;而后,卷积层的输出被添加到下一层,并成为一个新的切片,这个新的切片被送到下一个PSCN模块的卷积层;上述过程一直重复直至最后一个切片更新完成。为了提高检测速度,将向上与向下,向左与向右并行组合,虽运算量不变,但是大大减少了运算时间。PSCN中切片公式如下:
Figure BDA0004094733990000061
具体来说,假设有一个三维核张量K,其中元素Km,i,n表示切片的通道m中的元素和当前切片的通道i中的元素之间的权重,两个元素之间的偏移量为n。也将输入三维张量X的元素表示为Xi,j,k,其中i,j,k分别表示通道、行和列的索引,X'i,j,k是更新后的值,f是ReLU激活函数。
具体实施中,如图7所示,全局注意力机制模块GCA附着在各层的Lane-Decoder解码器之中,为了达到不同层次的注意机制可以借鉴其他层次信息的目的,将其添加到每个编码器两个3×3的卷积之中,在特征经过PSCN特征加强前后的信息进行权重分配,以此更好地保留车道特征信息。该模块由最大池化和平均池化并行组成,经过池化后使用全连接,而后将其结果相加,最后使用sigmod函数进行加权。GCA模块的公式如下:
GCA(F)=σ(FC1(Avg Pool(x))+FC2(Max Pool(x)))
其中,x是输入特征,AvgPool为平均池化,MaxPool为最大池化,FC为全连接层,σ是sigmod激活函数。
总体模型损失由车道线检测损失Llane组成,用二元交叉熵BCE损失函数来计算,而同样采用Sigmoid函数将BCE损失函数的输入数据转换到[0,1]之间,其中整张图的损失是对每个像素的损失求平均值,计算公式如下:
Figure BDA0004094733990000071
式中,W和H代表分割模型最终输出特征图的宽度和高度;
Figure BDA0004094733990000072
代表语义分割真实标签;6代表预测的语义信息。
步骤4:将训练集输入到基于UFLane-Detection的车道线检测模型中进行训练,最终模型输出结果再重新缩放回待测图片的原始大小,得到最终的分割结果。
UFLane-Detection网络模型进行训练,设置相应参数,包括初始学习率1e-3、batch-size为16、Epoch为300。图片经过模型训练及预测后,由复杂的交通图片图8得到含有车道线的二值图像如图9所示。本发明可以很好的分割无关背景(黑色),并且能够精确地提取车道线(白色),在获得含有车道线的二值图像后,再将分割的车道线的像素点拟合至原图中,拟合效果如图10所示。
以上显示和描述为本发明的基本原理和主要特征和本发明的优点。本领域的技术人员应该了解,本发明不受上述实施方式的限制,上述实施方式和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书界定。

Claims (6)

1.一种基于UFLane-Detection的车道线检测方法,其特征在于,包括以下步骤:
(1)采集行车记录仪拍摄的车道线图片构成数据集,车道线图片包含道路上标识的不同类别的车道线;
(2)对数据集进行清洗后获得训练集;
(3)构建基于UFLane-Detection的车道线检测模型,包括主干网络、特征翻转融合模块、全局通道注意力模块GCA以及Lane-Decoder解码器;主干网络通过下采样,将车道线和背景分离,提取其车道线特征,同时不断压缩图像像素;利用Lane-Decoder解码器还原图像像素,同时结合全局通道注意力模块,将主干网络提取的特征信息进行进一步的加强;利用Softmax分类器对车道线进一步识别;
(4)将训练集输入到基于UFLane-Detection的车道线检测模型中进行训练,最终模型输出结果再重新缩放回待测图片的原始大小,得到最终的分割结果。
2.根据权利要求1所述的一种基于UFLane-Detection的车道线检测方法,其特征在于,步骤(1)所述不同类别的车道线包括车道分界线、导向线、停止线、V形线、泊车线、斑马线。
3.根据权利要求1所述的一种基于UFLane-Detection的车道线检测方法,其特征在于,所述步骤(2)实现过程如下:
遍历数据集中所有车道线图片,删除模糊、过曝、过暗以及图片中不包含车道线目标的图片,形成用于训练的数据集并标注;对图片进行数据增强处理,从亮度、饱和度、噪声、对比度、裁剪、缩放多方面进行调整,获得更多图片。
4.根据权利要求1所述的一种基于UFLane-Detection的车道线检测方法,其特征在于,所述步骤(3)实现过程如下:
将图片输入主干网络中进行车道线特征提取,主干网络分为四层W1-W4,特征提取主要采用含有3个3×3的残差结构,每层的残差结构数量分别为1,3,3,6;
将分层特征层Wi送入特征翻转融合模块,对Wi输入的特征X进行两种处理,一种是flip翻转得到特征Ff,将特征图进行垂直翻转;与此同时,使用1×1的卷积核对原特征图进行提取,得到特征图F1,两种处理后的特征图进行相加得到特征F2;随后对F2使用一个3×3卷积,并与F1,Ff相乘,最后使用全局平均池化GAP,关联全局特征,达到对车道线特点进行强化的目的;相关公式如下:
F2(x)=concat[F1(x)+Ff(x)]
F3=Conv3[F2(x)]·F1(x)·Ff(x)
F=GAP(F3)
将特征翻转融合后的特征分别送入各层的Lane-Decoder解码器中,该解码器包括两个3×3卷积和PSCN模块,通过PSCN模块获取空间信息;然后输入带状池化模块获取长距离依赖信息,空间信息由向上、向下、向左和向右四个方向上的PSCN模块提取各自提取;首先,PSCN模块将大小为C×H×W的三维张量作为输入,其中C、H和W分别表示通道、行和列的数目;分割后的张量中的第一个切片被送到PSCN模块的卷积层中,其中卷积核的尺寸为C×ω,ω是卷积核宽度;而后,卷积层的输出被添加到下一层,并成为一个新的切片,这个新的切片被送到下一个PSCN模块的卷积层;上述过程一直重复直至最后一个切片更新完成;将向上与向下,向左与向右并行组合;PSCN中切片公式如下:
Figure FDA0004094733980000021
具体来说,假设有一个三维核张量K,其中元素Km,i,n表示切片的通道m中的元素和当前切片的通道i中的元素之间的权重,两个元素之间的偏移量为n;将输入三维张量X的元素表示为Xi,j,k,其中i,j,k分别表示通道、行和列的索引,X'i,j,k是更新后的值,f是ReLU激活函数。
5.根据权利要求1所述的一种基于UFLane-Detection的车道线检测方法,其特征在于,所述全局注意力机制模块附着在各层的Lane-Decoder解码器之中,将其添加到每个编码器3×3的卷积之中,对融合后的特征进行权重分配,保留车道特征信息;所述全局注意力模块独立地使用全局平均池和全局最大池来聚合两种不同的空间上下文信息;通过池化的特征送入全连接层;最后通过元素求和以及sigmoid函数合并输出特征向量:
Mc(F)=σ(FC1(Avg Pool(x))+FC2(Max Pool(x)))
其中,x是输入特征,AvgPool为平均池化,MaxPool为最大池化,FC为全连接层,σ是sigmod激活函数。
6.根据权利要求1所述的一种基于UFLane-Detection的车道线检测方法,其特征在于,所述基于UFLane-Detection的车道线检测模型的损失函数为:
Figure FDA0004094733980000031
式中,W和H代表分割模型最终输出特征图的宽度和高度;
Figure FDA0004094733980000032
代表语义分割真实标签;6代表预测的语义信息。
CN202310162660.9A 2023-02-24 2023-02-24 一种基于UFLane-Detection的车道线检测方法 Pending CN116188779A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310162660.9A CN116188779A (zh) 2023-02-24 2023-02-24 一种基于UFLane-Detection的车道线检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310162660.9A CN116188779A (zh) 2023-02-24 2023-02-24 一种基于UFLane-Detection的车道线检测方法

Publications (1)

Publication Number Publication Date
CN116188779A true CN116188779A (zh) 2023-05-30

Family

ID=86445980

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310162660.9A Pending CN116188779A (zh) 2023-02-24 2023-02-24 一种基于UFLane-Detection的车道线检测方法

Country Status (1)

Country Link
CN (1) CN116188779A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116682087A (zh) * 2023-07-28 2023-09-01 安徽中科星驰自动驾驶技术有限公司 基于空间池化网络车道检测的自适应辅助驾驶方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116682087A (zh) * 2023-07-28 2023-09-01 安徽中科星驰自动驾驶技术有限公司 基于空间池化网络车道检测的自适应辅助驾驶方法
CN116682087B (zh) * 2023-07-28 2023-10-31 安徽中科星驰自动驾驶技术有限公司 基于空间池化网络车道检测的自适应辅助驾驶方法

Similar Documents

Publication Publication Date Title
CN109740465B (zh) 一种基于实例分割神经网络框架的车道线检测算法
CN111460921A (zh) 一种基于多任务语义分割的车道线检测方法
CN112395951B (zh) 一种面向复杂场景的域适应交通目标检测与识别方法
CN112990065B (zh) 一种基于优化的YOLOv5模型的车辆分类检测方法
CN111310593B (zh) 一种基于结构感知的超快速车道线检测方法
CN109753959B (zh) 基于自适应多尺度特征融合的路面交通标志检测方法
CN109815802A (zh) 一种基于卷积神经网络的监控视频车辆检测与识别方法
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质
Han et al. A method based on multi-convolution layers joint and generative adversarial networks for vehicle detection
CN112766056A (zh) 一种基于深度神经网络的弱光环境车道线检测方法、装置
CN114973199A (zh) 一种基于卷积神经网络的轨道交通列车障碍物检测方法
CN116188779A (zh) 一种基于UFLane-Detection的车道线检测方法
Zhan et al. Pedestrian detection and behavior recognition based on vision
CN115527096A (zh) 一种基于改进YOLOv5的小目标检测方法
CN112801021B (zh) 基于多级语义信息的车道线检测方法及系统
CN111881914B (zh) 一种基于自学习阈值的车牌字符分割方法及系统
CN114821510B (zh) 基于改进U-Net网络的车道线检测方法及装置
CN111950476A (zh) 基于深度学习的复杂环境下河道船舶自动识别方法
CN115131206B (zh) 一种基于语义理解的卫星视频超分辨率重建方法及系统
Yang et al. A novel vision-based framework for real-time lane detection and tracking
Wang OpenCV-based Lane Line Detection Method for Mountain Curves
CN110738113B (zh) 一种基于邻近尺度特征滤除与转移的物体检测方法
Wei et al. Single Image Desnow Based on Vision Transformer and Conditional Generative Adversarial Network for Internet of Vehicles.
CN113191944A (zh) 一种多通道图像内容特征融合风格迁移方法及系统
CN112435194A (zh) 一种基于生成对抗网络的域自适应去雾方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination