CN114022863B - 基于深度学习的车道线检测方法、系统、计算机及存储介质 - Google Patents
基于深度学习的车道线检测方法、系统、计算机及存储介质 Download PDFInfo
- Publication number
- CN114022863B CN114022863B CN202111264209.5A CN202111264209A CN114022863B CN 114022863 B CN114022863 B CN 114022863B CN 202111264209 A CN202111264209 A CN 202111264209A CN 114022863 B CN114022863 B CN 114022863B
- Authority
- CN
- China
- Prior art keywords
- lane line
- image
- lane
- line detection
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 73
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims description 24
- 238000000034 method Methods 0.000 claims description 22
- 238000007781 pre-processing Methods 0.000 claims description 18
- 238000012544 monitoring process Methods 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 10
- 101100400452 Caenorhabditis elegans map-2 gene Proteins 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 101150064138 MAP1 gene Proteins 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000004140 cleaning Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000003709 image segmentation Methods 0.000 abstract description 12
- 230000007246 mechanism Effects 0.000 abstract description 3
- 230000002708 enhancing effect Effects 0.000 abstract description 2
- 238000012805 post-processing Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于深度学习的车道线检测方法、系统、计算机及存储介质,引入图像分割网络,图像分割网络在车道线被部分遮挡或不连续时,检测模型仍然能得到车道线的区域和走势,二值图作为Mask提取特征图中表征车道线的特征图,利用权值矩阵增强车道线特征,并利用车道线特征相似的特性,使用现有的车道特征补足车道特征不明显区域。二值图Mask的引入大大增强了模型对车道线区域的捕获能力。另外,引入Transformer的注意力机制并且在embedding输入Transformer之前做车道线相似区域的特征增强,因此对于车道线有较强的捕捉能力,能很好的把车道线作为前景信息从图像中判别出,减少了无效离散点和算力消耗。
Description
技术领域
本发明涉及机器视觉检测的技术领域,尤其涉及到基于深度学习的车道线检测方法、系统、计算机及存储介质。
背景技术
城市道路智慧交通系统需要对交通路口的交通环境、态势进行感知与理解,交通路口的交通环境包括路口内的等待车辆、车道线以及交通信号灯等。城市交通路口的车道线检测对于智慧交通系统中合理控制不同向车道的交通信号灯时长、缓解交通拥堵有着极其重要的作用,当交通高峰期时,利用车道线检测,区分不同驶向的车道,合理分配每条车道、不同行驶方向的交通灯等待时长和通行时长对于缓解城市交通拥堵,能极大地提高交通行驶效率,避免交通事故发生。
车道线检测研究常用于自动驾驶辅助技术,几乎没有基于交通摄像枪的检测任务和数据集,本发明方法是把车道线检测技术应用于路口交通监控摄像枪,利用摄像枪获取图像数据并检测车道线。车道线的检测任务中,传统方法主要是利用图像分割和后处理方法,预测得出的车道线由离散点组成,导致车道线不连续,具体实现为采用性能较好的图像分割网络得出车道Mask,利用Mask提取车道特征,最后使用后处理方法,得出能表示车道线走势的坐标点,但这些网络模型的推理过程需占用较大的显存,并且需要算力较高的设备支持,无法实现实时检测且无法嵌入到交通摄像枪中;目前研究中有人提出直接使用深度学习的Transformer得到对应车道线的方法,该类方法能得出平滑的车道线,且拥有较快的推理速度,但其具有大量使用魔法数字、泛化性不好的特点,并且缺乏车道线的预测推理能力,针对车道线不明显的状况,这类方法无法对车道线进行准确的检测和预测推理。
发明内容
本发明的目的在于克服现有技术的不足,提供一种能克服图像拍摄角度、即使在车道线特征弱或是被遮挡场景下也能进行检测、检测速度快、检测准确率高的基于深度学习的车道线检测方法。
为实现上述目的,本发明所提供的技术方案为:
基于深度学习的车道线检测方法,包括以下步骤:
S1、通过交通监控摄像枪拍摄带有车道线的视频,并从视频中截取多张带有车道线的图像,形成数据集;
S2、对步骤S1形成的数据集进行预处理,并将预处理后的数据集划分为训练集和测试集;
S3、构建双分支的车道线检测模型,两个分支分别设特征提取器和图像分割器;
S4、通过训练集训练双分支的车道线检测模型;
S5、通过训练好的双分支的车道线检测模型对测试集进行检测。
进一步地,所述步骤S2中,对步骤S1形成的数据集进行预处理,具体包括:
S2-1、使用图像标注工具labelme中的linestrip标注图像中的车道线并生成json文件;
S2-2、利用Tusimple处理方法对json文件进行处理,生成二值图,作为标签信息;
S2-3、采用仿射变换、旋转和色彩变换对生成的二值图进行数据增强,拓展数据集;
S2-4、利用Python并引入第三方库OpenCV读取拓展后的数据集,对数据集进行数据清洗。
进一步地,所述步骤S3中,构建的双分支的车道线检测模型中,语义分割网络ENet作为backbone,由五个stage组成,stage1-3属于encoder部分,stage4-5属于decoder部分;
模型构建时,特征提取器和图像分割器共享stage1和stage2,stage3作为特征提取器,decoder作为图像分割器;
经过特征提取器得出特征图-1,尺度为:W*H*C;经过图像分割器得出二值图,尺度为:W*H*2,W、H为原图像宽、高,C为特征图通道数;
融合特征图-1和二值图得到特征图-2,为了避免过拟合同时避免丢失车道线信息,特征图-2再经过卷积、下采样操作得到特征图-3,把特征图-3展平,得到长度为wh*c的embedding,w、h、c分别为特征图-3的宽、高、通道数;embedding作为Transformer结构中第一个encoder的输入;
Transformer结构由六个串联的encoder和六个串联的decoder构成,经过Transformer最终得出车道线坐标。
进一步地,融合特征图-1和二值图得到特征图-2时,二值图作为Mask弥补缺失车道特征,利用权值矩阵增强车道线特征,采用的公式如下:
Wreg=softmax(Rmask·F1)
F2=F1·Wreg
上式中,Rmask为二值图,F1为特征图-1,Wreg为权重矩阵。
进一步地,所述图像分割器的损失函数为:
Lp=BCE(Op,Gp)
上式中,Op,Gp分别为网络的预测坐标和真实坐标;
Transformer的encoder点乘为:
上式中,Q、K、V分别表示对每个输入行进行线性转换的查询、键和值序列,A为注意力图,衡量区域间的相关性,为Transformer拥有长距离捕捉能力的关键,O为自注意力的输出;
输出预测坐标的损失函数:
上式中,xi为预测坐标,xGT为实际坐标;
总损失函数:
Ltotal=Lp+Lpx。
进一步地,所述步骤S4中,用步骤S2得到的训练集对步骤S3构建的双分支的车道检测模型进行训练,epoch为12000,学习率为:0.00025,batch为16,动态减小学习率,利用自适应矩估计Adam优化器进行参数优化,结合Adam优化损失下降。
为实现上述目的,本发明另外提供一种基于深度学习的车道线检测系统,该系统用于实现上述车道线检测方法,具体包括交通监控摄像枪、图像截取模块、预处理模块、车道线检测模块;
其中,
所述交通监控摄像枪,用于拍摄带有车道线的视频;
所述图像截取模块,用于从视频中截取多张带有车道线的图像,形成数据集;
所述预处理模块,用于对形成的数据集进行预处理,并将预处理后的数据集划分为训练集和测试集;
所述车道线检测模块,用于构建、训练双分支的车道线检测模型,并通过训练好的双分支的车道线检测模型对车道线进行检测。
为实现上述目的,本发明另外提供一种计算机,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述车道线检测方法的步骤。
为实现上述目的,本发明另外提供一种存储介质,其存储有计算机程序,该程序被处理器执行时实现上述车道线检测方法的步骤。
与现有技术相比,本方案原理及优点如下:
1)许多现有的深度学习模型仅仅是通过图像分割或者多项式回归得到车道线,其训练的损失函数依赖于相机内参和相机高度等外参,模型泛化性差且体积较大,模型推理能力弱。相比于此,本方案引入图像分割网络,图像分割网络在车道线被部分遮挡或不连续时,检测模型仍然能得到车道线的区域和走势,二值图作为Mask提取特征图中表征车道线的特征图,利用权值矩阵增强车道线特征,并利用车道线特征相似的特性,使用现有的车道特征补足车道特征不明显区域。二值图Mask的引入大大增强了模型对车道线区域的捕获能力。
2)现有的基于图像分割的车道线检测模型在得出车道线Mask之后会通过不同后处理方法得出能表示车道线的离散点,但是这类方法仍然不能准确表示车道线位置,预测点中包含了大量离散点。相比于此,本方案引入Transformer的注意力机制并且在embedding输入Transformer之前做了车道线相似区域的特征增强,因此对于车道线有较强的捕捉能力,能很好的把车道线作为前景信息从图像中判别出,减少了无效离散点和算力消耗。
3)现有的准确率较高的基于图像分割的车道线检测模型体积大、实时性不高、资源占用高,而参数量少、资源占用少的Transformer车道检测模型泛化性不好且需要精炼模型参数。相比于此,本方案融合图像分割与Transformer,使用二值图做监督信息和特征增强,充分利用Transformer优秀的特征提取能力,解决了车道线被遮挡问题和把自动驾驶领域的车道线检测方法应用交通监控摄像领域时因二者视角差别较大带来的车道线无法准确拟合的问题,拥有较好的准确率和鲁棒性,且参数量比纯图像分割模型少。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的服务作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于深度学习的车道线检测方法的原理流程图;
图2为本发明基于深度学习的车道线检测方法中数据预处理的原理流程图;
图3为Tusimple方法处理后的二值图;
图4为双分支的车道线检测模型的结构示意图;
图5为车道线检测的效果图。
具体实施方式
下面结合具体实施例对本发明作进一步说明:
实施例一:
本实施例所述的基于深度学习的车道线检测方法,包括以下步骤:
S1、通过交通监控摄像枪拍摄带有车道线的视频,并从视频中截取多张带有车道线的图像,形成数据集;
S2、对步骤S1形成的数据集进行预处理,并将预处理后的数据集划分为训练集和测试集;
本步骤中,如图2所示,对步骤S1形成的数据集进行预处理,具体包括:
S2-1、使用图像标注工具labelme中的linestrip标注图像中的车道线并生成json文件;
S2-2、利用Tusimple处理方法对json文件进行处理,生成二值图(如图3所示),作为标签信息;
S2-3、采用仿射变换、旋转和色彩变换对生成的二值图进行数据增强,拓展数据集;
S2-4、利用Python并引入第三方库OpenCV读取拓展后的数据集,对数据集进行数据清洗。
S3、构建如图4所示的双分支的车道线检测模型,两个分支分别设特征提取器和图像分割器;
具体地,本步骤构建的双分支的车道线检测模型中,语义分割网络ENet作为backbone,由五个stage组成,stage1-3属于encoder部分,stage4-5属于decoder部分;
模型构建时,特征提取器和图像分割器共享stage1和stage2,stage3作为特征提取器,decoder作为图像分割器;
经过特征提取器得出特征图-1,尺度为:W*H*C;经过图像分割器得出二值图,尺度为:W*H*2,W、H为原图像宽、高,C为特征图通道数;
融合特征图-1和二值图得到特征图-2,为了避免过拟合同时避免丢失车道线信息,特征图-2再经过卷积、下采样操作得到特征图-3,把特征图-3展平,得到长度为wh*c的embedding,w、h、c分别为特征图-3的宽、高、通道数;embedding作为Transformer结构中第一个encoder的输入;
Transformer结构由六个串联的encoder和六个串联的decoder构成,经过Transformer最终得出车道线坐标。
上述融合特征图-1和二值图得到特征图-2时,二值图作为Mask弥补缺失车道特征,利用权值矩阵增强车道线特征,采用的公式如下:
Wreg=softmax(Rmask·F1)
F2=F1·Wreg
上式中,Rmask为二值图,F1为特征图-1,Wreg为权重矩阵。
图像分割器的损失函数为:
Lp=BCE(Op,Gp)
上式中,Op,Gp分别为网络的预测坐标和真实坐标;
Transformer的encoder点乘为:
上式中,Q、K、V分别表示对每个输入行进行线性转换的查询、键和值序列,A为注意力图,衡量区域间的相关性,为Transformer拥有长距离捕捉能力的关键,O为自注意力的输出;
输出预测坐标的损失函数:
上式中,xi为预测坐标,xGT为实际坐标;
总损失函数:
Ltotal=Lp+Lpx。
S4、通过训练集训练双分支的车道线检测模型;
本步骤中,用步骤S2得到的训练集对步骤S3构建的双分支的车道检测模型进行训练,epoch为12000,学习率为:0.00025,batch为16,动态减小学习率,利用自适应矩估计Adam优化器进行参数优化,结合Adam优化损失下降。
S5、通过训练好的双分支的车道线检测模型对测试集进行检测,检测效果如图5所示。
本实施例引入图像分割网络,图像分割网络在车道线被部分遮挡或不连续时,检测模型仍然能得到车道线的区域和走势,二值图作为Mask提取特征图中表征车道线的特征图,利用权值矩阵增强车道线特征,并利用车道线特征相似的特性,使用现有的车道特征补足车道特征不明显区域。二值图Mask的引入大大增强了模型对车道线区域的捕获能力。还有的是,引入Transformer的注意力机制并且在embedding输入Transformer之前做了车道线相似区域的特征增强,因此对于车道线有较强的捕捉能力,能很好的把车道线作为前景信息从图像中判别出,减少了无效离散点和算力消耗。最后,融合图像分割与Transformer,使用二值图做监督信息和特征增强,充分利用Transformer优秀的特征提取能力,解决了车道线被遮挡问题和把自动驾驶领域的车道线检测方法应用交通监控摄像领域时因二者视角差别较大带来的车道线无法准确拟合的问题,拥有较好的准确率和鲁棒性,且参数量比纯图像分割模型少。
实施例二:
本实施例所述的基于深度学习的车道线检测系统用于实现上述基于深度学习的车道线检测方法,具体包括交通监控摄像枪1、图像截取模块2、预处理模块3、车道线检测模块4;
其中,
所述交通监控摄像枪1,用于拍摄带有车道线的视频;
所述图像截取模块2,用于从视频中截取多张带有车道线的图像,形成数据集;
所述预处理模块3,用于对形成的数据集进行预处理,并将预处理后的数据集划分为训练集和测试集;
所述车道线检测模块4,用于构建、训练双分支的车道线检测模型,并通过训练好的双分支的车道线检测模型对车道线进行检测。
实施例三:
本实施例所述的一种计算机,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述基于深度学习的车道线检测方法的步骤。
步骤具体包括:S1、通过交通监控摄像枪拍摄带有车道线的视频,并从视频中截取多张带有车道线的图像,形成数据集;S2、对步骤S1形成的数据集进行预处理,并将预处理后的数据集划分为训练集和测试集;S3、构建双分支的车道线检测模型,两个分支分别设特征提取器和图像分割器;S4、通过训练集训练双分支的车道线检测模型;S5、通过训练好的双分支的车道线检测模型对测试集进行检测。
实施例四:
本实施例所述的一种存储介质,其存储有计算机程序,该程序被处理器执行时实现上述基于深度学习的车道线检测方法的步骤。
步骤具体包括:S1、通过交通监控摄像枪拍摄带有车道线的视频,并从视频中截取多张带有车道线的图像,形成数据集;S2、对步骤S1形成的数据集进行预处理,并将预处理后的数据集划分为训练集和测试集;S3、构建双分支的车道线检测模型,两个分支分别设特征提取器和图像分割器;S4、通过训练集训练双分支的车道线检测模型;S5、通过训练好的双分支的车道线检测模型对测试集进行检测。
以上所述之实施例子只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (6)
1.基于深度学习的车道线检测方法,其特征在于,包括以下步骤:
S1、通过交通监控摄像枪拍摄带有车道线的视频,并从视频中截取多张带有车道线的图像,形成数据集;
S2、对步骤S1形成的数据集进行预处理,并将预处理后的数据集划分为训练集和测试集;
S3、构建双分支的车道线检测模型,两个分支分别设特征提取器和图像分割器;
S4、通过训练集训练双分支的车道线检测模型;
S5、通过训练好的双分支的车道线检测模型对测试集进行检测;
所述步骤S3中,构建的双分支的车道线检测模型中,语义分割网络ENet作为backbone,由五个stage组成,stage1-3属于encoder部分,stage4-5属于decoder部分;
模型构建时,特征提取器和图像分割器共享stage1和stage2,stage3作为特征提取器,decoder作为图像分割器;
经过特征提取器得出特征图-1,尺度为:W*H*C;经过图像分割器得出二值图,尺度为:W*H*2,W、H为原图像宽、高,C为特征图通道数;
融合特征图-1和二值图得到特征图-2,为了避免过拟合同时避免丢失车道线信息,特征图-2再经过卷积、下采样操作得到特征图-3,把特征图-3展平,得到长度为wh*c的embedding,w、h、c分别为特征图-3的宽、高、通道数;embedding作为Transformer结构中第一个encoder的输入;
Transformer结构由六个串联的encoder和六个串联的decoder构成,经过Transformer最终得出车道线坐标;
融合特征图-1和二值图得到特征图-2时,二值图作为Mask弥补缺失车道特征,利用权值矩阵增强车道线特征,采用的公式如下:
Wreg=softmax(Rmask·F1)
F2=F1·Wreg
上式中,Rmask为二值图,F1为特征图-1,Wreg为权重矩阵;
所述图像分割器的损失函数为:
Lp=BCE(Op,Gp)
上式中,Op,Gp分别为网络的预测坐标和真实坐标;
Transformer的encoder点乘为:
上式中,Q、k、V分别表示对每个输入行进行线性转换的查询、键和值序列,A为注意力图,衡量区域间的相关性,为Transformer拥有长距离捕捉能力的关键,O为自注意力的输出;
输出预测坐标的损失函数:
上式中,xi为预测坐标,xGT为实际坐标;
总损失函数:
Ltotal=Lp+Lpx。
2.根据权利要求1所述的基于深度学习的车道线检测方法,其特征在于,所述步骤S2中,对步骤S1形成的数据集进行预处理,具体包括:
S2-1、使用图像标注工具labelme中的linestrip标注图像中的车道线并生成json文件;
S2-2、利用Tusimple处理方法对json文件进行处理,生成二值图,作为标签信息;
S2-3、采用仿射变换、旋转和色彩变换对生成的二值图进行数据增强,拓展数据集;
S2-4、利用Python并引入第三方库OpenCV读取拓展后的数据集,对数据集进行数据清洗。
3.根据权利要求1所述的基于深度学习的车道线检测方法,其特征在于,所述步骤S4中,用步骤S2得到的训练集对步骤S3构建的双分支的车道检测模型进行训练,epoch为12000,学习率为:0.00025,batch为16,动态减小学习率,利用自适应矩估计Adam优化器进行参数优化,结合Adam优化损失下降。
4.一种基于深度学习的车道线检测系统,所述基于深度学习的车道线检测系统用于实现权利要求1-3中任一的基于深度学习的车道线检测方法,其特征在于,包括交通监控摄像枪(1)、图像截取模块(2)、预处理模块(3)、车道线检测模块(4);
其中,
所述交通监控摄像枪(1),用于拍摄带有车道线的视频;
所述图像截取模块(2),用于从视频中截取多张带有车道线的图像,形成数据集;
所述预处理模块(3),用于对形成的数据集进行预处理,并将预处理后的数据集划分为训练集和测试集;
所述车道线检测模块(4),用于构建、训练双分支的车道线检测模型,并通过训练好的双分支的车道线检测模型对车道线进行检测。
5.一种计算机,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-3任意一项所述方法的步骤。
6.一种存储介质,其存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-3任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111264209.5A CN114022863B (zh) | 2021-10-28 | 2021-10-28 | 基于深度学习的车道线检测方法、系统、计算机及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111264209.5A CN114022863B (zh) | 2021-10-28 | 2021-10-28 | 基于深度学习的车道线检测方法、系统、计算机及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114022863A CN114022863A (zh) | 2022-02-08 |
CN114022863B true CN114022863B (zh) | 2022-10-11 |
Family
ID=80058437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111264209.5A Active CN114022863B (zh) | 2021-10-28 | 2021-10-28 | 基于深度学习的车道线检测方法、系统、计算机及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114022863B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115131968B (zh) * | 2022-06-28 | 2023-07-11 | 重庆长安汽车股份有限公司 | 一种基于车道线点集与注意力机制的匹配融合方法 |
CN116129379B (zh) * | 2022-12-28 | 2023-11-07 | 国网安徽省电力有限公司芜湖供电公司 | 一种雾天环境下的车道线检测方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101998584B1 (ko) * | 2017-11-15 | 2019-07-10 | 전자부품연구원 | 차선 검출 장치 및 차선 검출 방법 |
CN109345547B (zh) * | 2018-10-19 | 2021-08-24 | 天津天地伟业投资管理有限公司 | 基于深度学习多任务网络的交通车道线检测方法及装置 |
TWI696144B (zh) * | 2018-12-19 | 2020-06-11 | 財團法人工業技術研究院 | 影像生成器的訓練方法 |
CN109740465B (zh) * | 2018-12-24 | 2022-09-27 | 南京理工大学 | 一种基于实例分割神经网络框架的车道线检测算法 |
CN110222591B (zh) * | 2019-05-16 | 2023-04-07 | 天津大学 | 一种基于深度神经网络的车道线检测方法 |
CN110197151A (zh) * | 2019-05-28 | 2019-09-03 | 大连理工大学 | 一种结合双分支网络和自定义函数网络的车道线检测系统及方法 |
CN112699711B (zh) * | 2019-10-22 | 2024-05-31 | 珠海格力电器股份有限公司 | 车道线检测方法、装置、存储介质及电子设备 |
CN111242037B (zh) * | 2020-01-15 | 2023-03-21 | 华南理工大学 | 基于结构信息的车道线检测方法 |
CN111539402B (zh) * | 2020-07-13 | 2020-10-20 | 平安国际智慧城市科技股份有限公司 | 基于深度学习的车道线检测方法、装置、终端及存储介质 |
CN112215058A (zh) * | 2020-08-26 | 2021-01-12 | 中国矿业大学(北京) | 一种基于机器视觉的摩托车车道偏离报警方法和系统 |
CN112016463A (zh) * | 2020-08-28 | 2020-12-01 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的车道线检测方法 |
CN112241728B (zh) * | 2020-10-30 | 2023-04-07 | 中国科学院合肥物质科学研究院 | 采用注意力机制学习上下文信息的实时车道线检测方法及系统 |
CN112560717B (zh) * | 2020-12-21 | 2023-04-21 | 青岛科技大学 | 一种基于深度学习的车道线检测方法 |
CN112862899B (zh) * | 2021-02-07 | 2023-02-28 | 黑芝麻智能科技(重庆)有限公司 | 用于图像获取设备的外参标定方法、装置和系统 |
CN113158768B (zh) * | 2021-03-03 | 2023-02-24 | 中山大学 | 基于ResNeSt和自注意力蒸馏的智能车辆车道线检测方法 |
CN113128382A (zh) * | 2021-04-06 | 2021-07-16 | 青岛以萨数据技术有限公司 | 交通路口车道线检测方法及系统 |
CN113239865B (zh) * | 2021-05-31 | 2023-03-10 | 西安电子科技大学 | 基于深度学习的车道线检测方法 |
-
2021
- 2021-10-28 CN CN202111264209.5A patent/CN114022863B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114022863A (zh) | 2022-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liang et al. | Rangercnn: Towards fast and accurate 3d object detection with range image representation | |
CN114022863B (zh) | 基于深度学习的车道线检测方法、系统、计算机及存储介质 | |
CN112884064A (zh) | 一种基于神经网络的目标检测与识别方法 | |
CN110348383B (zh) | 一种基于卷积神经网络回归的道路中心线和双线提取方法 | |
CN109886176B (zh) | 复杂驾驶场景下的车道线检测方法 | |
CN114639042A (zh) | 基于改进CenterNet骨干网络的视频目标检测算法 | |
CN117197727B (zh) | 一种基于全局时空特征学习的行为检测方法与系统 | |
CN115830575A (zh) | 一种基于Transformer与跨维度注意力的交通标志检测方法 | |
CN115223009A (zh) | 基于改进型YOLOv5的小目标检测方法及装置 | |
CN117409412A (zh) | 一种基于细节增强的双分辨率实时语义分割方法 | |
Lv et al. | Lane marking regression from confidence area detection to field inference | |
CN115631513A (zh) | 基于Transformer的多尺度行人重识别方法 | |
Xu et al. | TransMIN: Transformer-guided multi-interaction network for remote sensing object detection | |
Qiu et al. | MFIALane: Multiscale feature information aggregator network for lane detection | |
CN114926796A (zh) | 一种基于新式混合注意力模块的弯道检测方法 | |
Zou et al. | Hft: Lifting perspective representations via hybrid feature transformation for bev perception | |
Zhou et al. | PASSIM: parking slot recognition using attentional semantic segmentation and instance matching | |
CN117611994A (zh) | 基于注意力机制加权特征融合的遥感图像目标检测方法 | |
CN116863437A (zh) | 车道线检测模型训练方法、装置、设备、介质及车辆 | |
CN116229406A (zh) | 车道线检测方法、系统、电子设备及存储介质 | |
CN116311052A (zh) | 一种人群计数方法、装置、电子设备及存储介质 | |
Liu et al. | Weakly but deeply supervised occlusion-reasoned parametric road layouts | |
CN114612517A (zh) | 基于时空信息融合的目标跟踪方法 | |
CN113920317A (zh) | 基于可见光图像和低分辨率深度图像的语义分割方法 | |
Sun et al. | A Lightweight Network with Lane Feature Enhancement for Multilane Drivable Area Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |