CN115205811A - 一种基于深度学习方法的遮挡车道线检测方法 - Google Patents
一种基于深度学习方法的遮挡车道线检测方法 Download PDFInfo
- Publication number
- CN115205811A CN115205811A CN202210184350.2A CN202210184350A CN115205811A CN 115205811 A CN115205811 A CN 115205811A CN 202210184350 A CN202210184350 A CN 202210184350A CN 115205811 A CN115205811 A CN 115205811A
- Authority
- CN
- China
- Prior art keywords
- lane line
- network
- feature
- loss
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000013135 deep learning Methods 0.000 title claims abstract description 21
- 238000004364 calculation method Methods 0.000 claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims abstract description 10
- 230000004927 fusion Effects 0.000 claims abstract description 9
- 230000002708 enhancing effect Effects 0.000 claims abstract description 6
- 238000010586 diagram Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 13
- 125000004122 cyclic group Chemical group 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 7
- 230000002776 aggregation Effects 0.000 claims description 6
- 238000004220 aggregation Methods 0.000 claims description 6
- 238000013459 approach Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000002474 experimental method Methods 0.000 abstract description 5
- 230000000694 effects Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000002679 ablation Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习方法的遮挡车道线检测方法,其方法包括:对车道线数据进行增强及尺寸统一操作;利用多通道特征空间金字塔为特征提取网络,进行对预处理完毕的车道线信息进行语义分割及多尺度特征融合;引入双注意力机制的循环特征丰富模块,将遮挡前后的车道线空间信息丰富到原始特征中,增加了车道线细粒度特征细节;通过二分类损失计算将车道线与背景信息分离,以完成对遮挡前后的车道线检测实验,最终对结果进行分析评价。本发明的方法可实现对遮挡条件下的车道线检测,为自动驾驶和高级驾驶辅助系统(ADAS)提供重要参考。
Description
技术领域
本发明涉及智能驾驶辅助决策技术,具体涉及一种基于深度学习方法的遮挡车道线检测方法。
背景技术
目前,神经网络已广泛应用于车道线检测,其常作为自动驾驶和高级驾驶辅助系统 (ADAS)的重要参考。车道线检测存在由其他车辆造成的遮挡的现象、天气多变造成的弱光环境、车道线固有的稀疏特性等情况,这些情况对神经网络的提取特征提取能力产生挑战,同时给车道检测带来问题。
传统方法使用普通卷积神经网络(CNN),一方面易将遮挡前后的车道线误分类为道路背景,另一方面无法将图像里的空间信息及细微特征之间的相关性联系起来。
发明内容
本发明的主要目的在于提供一种基于深度学习方法的遮挡车道线检测方法。
本发明采用的技术方案是:一种基于深度学习方法的遮挡车道线检测方法,包括:
步骤1,对车道线数据进行增强及尺寸统一操作;
步骤2,利用多通道特征空间金字塔为特征提取网络,进行对预处理完毕的车道线信息进行语义分割及多尺度特征融合;
步骤3,引入双注意力机制的循环特征丰富模块,将遮挡前后的车道线空间信息丰富到原始特征中,增加了车道线细粒度特征细节;
步骤4,通过二分类损失计算将车道线与背景信息分离。
进一步地,所述步骤1包括:
步骤101,将CULane数据集的原始图像尺寸进行裁剪以去除非车道线的特征部分;
步骤102,将CULane数据集的原始图像及对应标签尺寸调整为288 * 800;
步骤103,对尺寸统一后的CULane数据进行随机旋转,平移,模糊等操作将数据进行增强以在训练时提升网络的鲁棒性。
更进一步地,所述步骤2包括:
步骤201,在CuLane数据集上预训练ResNet卷积神经网络;
步骤202,在ResNet50-FPN主干网络中导入预训练模型的权值参数从而初始化网络;
步骤203,不断优化分割BCE损失函数,提升网络对车道线特征的提取能力。
更进一步地,所述步骤2还包括:
利用RestNet50-FPN对浅层特征图的局部语义信息和深层特征图的全局语义信息进行信息特征融合;在ResNet50网络的基础上,额外增加了一条由上至下的侧路用于将全局语义和局部语义相融合;对ResNet50的四个阶段中,从最深层特征图开始,经过 1*1 卷积与上采样操作之后,分别产生4个阶段对应的金字塔特征图,然后通过特征图相加的方式将四个阶段分别得到的特征元素进行融合;最后经过1*1的卷积,对融合的特征图进行下采样,降低特征图尺寸至128*36 * 100。
更进一步地,所述步骤3包括:
循环特征丰富模块在特征图的上下左右四个方向把特征切片信息聚合起来;在信息聚合过程,在网络加入Polarized Self-Attention模块,让网络能够好的拟合出细粒度车道线特征;经过4次迭代使用循环特征丰富模块,最后将所有信息融合在一张特征图的过程,融合后的特征尺寸为128*1 * 1。
更进一步地,所述步骤4包括:
二分类损失计算检测出车道线具体为:
分割BCE损失具体计算公式如下:
公式(2),y是标签0或1,a是网络经过sigmoid函数的输出,范围是(0,1),n是样本数;网络输出一个值,BCE根据该数值与对应标签的情况给出一个损失;当y取0时,ylna消除,剩下-ln(1-a),所以a需要越接近0才能让loss降下来;
当y取1时,(1-y)ln(1-a)消除,剩下-lna,所以a需要越接近1才能让loss降下来;该loss将0和1的情况的均考虑了进来,可用于二分类;
存在分类CE(softmax+log损失)log损失的计算公式如下:
公式(3):y代表标签0或1,a代表网络经softmax的输出值,n是样本数;
网络输出多个值,CE根据只根据对应标签为1的网络输出给出一个损失;
当y取0时,没有计算损失;当y取1时,剩下-lna,所以a需要越接近1才能让loss降下来;该公式只专注于让对应标签为1的网络输出为1;
由于softmax的公式:这属于归一化,当有一项逼近1时,其他项则逼近0。
本发明的优点:
本发明针对遮挡车道线检测问题,提出了一种基于深度学习方法的遮挡车道线检测方法。通过多通道特征空间金字塔融合车道线全局与局部特征信息,解决小目标错检和漏检问题,使用双注意力机制的循环特征丰富模块,将遮挡前后的细粒度车道线空间信息丰富到原始特征中,最终由二分类损失计算得出检测的车道线结果,为智能驾驶辅助决策供准确的参考意义。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1是本发明的基于深度学习的遮挡车道检测方法的流程示意图;
图2是本发明的基于深度学习方法的遮挡车道线检测方法的本网络与传统网络的效果对比图;
图3是本发明的基于深度学习方法的遮挡车道线检测方法的网络结构示意图;
图4是本发明的基于深度学习方法的遮挡车道线检测方法的双注意力机制的循环特征丰富模块方法示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
一种基于深度学习方法的遮挡车道线检测方法,包括:
步骤1,对车道线数据进行增强及尺寸统一操作;
步骤2,利用多通道特征空间金字塔为特征提取网络,进行对预处理完毕的车道线信息进行语义分割及多尺度特征融合;
步骤3,引入双注意力机制的循环特征丰富模块,将遮挡前后的车道线空间信息丰富到原始特征中,增加了车道线细粒度特征细节;
步骤4,通过二分类损失计算将车道线与背景信息分离,以完成对遮挡前后的车道线检测实验,最终对结果进行分析评价。
本发明的一种基于深度学习方法的遮挡车道线检测方法。通过多通道特征空间金字塔融合车道线全局与局部特征信息,解决小目标错检和漏检问题,使用双注意力机制的循环特征丰富模块,将遮挡前后的细粒度车道线空间信息丰富到原始特征中,最终由二分类损失计算得出检测的车道线结果,为智能驾驶辅助决策供准确的参考意义。
所述步骤1包括:
步骤101,将CULane数据集的原始图像尺寸进行裁剪以去除非车道线的特征部分(如天空及车身);
步骤102,将CULane数据集的原始图像及对应标签尺寸调整为288 * 800;
步骤103,对尺寸统一后的CULane数据进行随机旋转,平移,模糊等操作将数据进行增强以在训练时提升网络的鲁棒性。
所述步骤2包括:
步骤201,在CuLane数据集上预训练ResNet卷积神经网络;
步骤202,在ResNet50-FPN主干网络中导入预训练模型的权值参数从而初始化网络;
步骤203,不断优化分割BCE损失函数,提升网络对车道线特征的提取能力。
所述步骤2还包括:
利用RestNet50-FPN对浅层特征图的局部语义信息和深层特征图的全局语义信息进行信息特征融合;在ResNet50网络的基础上,额外增加了一条由上至下的侧路用于将全局语义和局部语义相融合;对ResNet50的四个阶段中,从最深层特征图开始,经过 1*1 卷积与上采样操作之后,分别产生4个阶段对应的金字塔特征图,然后通过特征图相加的方式将四个阶段分别得到的特征元素进行融合;最后经过1*1的卷积,对融合的特征图进行下采样,降低特征图尺寸至128*36 * 100。
所述步骤3包括:循环特征丰富模块在特征图的上下左右四个方向把特征切片信息聚合起来;在信息聚合过程,在网络加入Polarized Self-Attention(PSA)模块,让网络能够好的拟合出细粒度车道线特征;经过4次迭代(实验结果参照实施过程章节)使用循环特征丰富模块,最后将所有信息融合在一张特征图的过程,融合后的特征尺寸为128*1 *1。
所述步骤4包括:
二分类损失计算检测出车道线具体为:
分割BCE损失具体计算公式如下:
公式(2),y是标签0或1,a是网络经过sigmoid函数的输出,范围是(0,1),n是样本数;网络输出一个值,BCE根据该数值与对应标签的情况给出一个损失;当y取0时,ylna消除,剩下-ln(1-a),所以a需要越接近0才能让loss降下来;
当y取1时,(1-y)ln(1-a)消除,剩下-lna,所以a需要越接近1才能让loss降下来;该loss将0和1的情况的均考虑了进来,可用于二分类;
存在分类CE(softmax+log损失)log损失的计算公式如下:
公式(3):y代表标签0或1,a代表网络经softmax的输出值,n是样本数;网络输出多个值,CE根据只根据对应标签为1的网络输出给出一个损失;
当y取0时,没有计算损失;当y取1时,剩下-lna,所以a需要越接近1才能让loss降下来;该公式只专注于让对应标签为1的网络输出为1;
由于softmax的公式:这属于归一化,当有一项逼近1时,其他项则逼近0。
如图1所示,一种基于深度学习方法的遮挡车道线检测方法,所述方法包括如下:
如图2所示,在本发明实施例中,针对传统卷积神经网络无法检测遮挡前后车道线的问题。第一阶段,本方法对车道线数据进行增强及尺寸统一操作:将CULane数据集的原始图像尺寸进行裁剪以去除非车道线的特征部分,并将所有原图像尺寸调整为288 * 800,随后对尺寸统一后的CULane数据集进行随机旋转,平移,模糊等操作将数据进行增强;
第二阶段针对实际车道线固有的稀疏特性等情况,就整张图像而言,车道线目标属于小目标检测范畴,为了提升网络对车道线目标特征的提取能力,利用多通道特征空间金字塔进行特征融合,在ResNet50网络的基础上,额外增加了一条由上至下的侧路用于将全局语义和局部语义相融合; 第三阶段为丰富网络对遮挡前后的特征空间信息,使用循环特征丰富模块,让网络在特征图“深度”方向上,重复4次,对每一片特征图具有指向性(上下左右)的卷积运动,最后将所有信息融合在一张特征图的过程,融合后的特征尺寸为128*1* 1。
第四阶段,经过二分类损失计算检测出车道线,网络训练过程使用BCE分割损失和存在分类CE损失,优化网络提取车道线特征及分离车道线与背景特征的能力。
在本发明实施例中,采用残差网络(residual neural networks,ResNet50)结合特征金字塔网络(feature pyramid networks, FPN)提取输入图像的深层卷积特征图。对ResNet50的四个阶段中,从最深层特征图开始,经过 1*1 卷积与上采样操作之后,分别产生4个阶段对应的金字塔特征图,然后通过特征图相加的将全局和局部特征融合,丰富小目标特征的特征细节。为了进一步丰富遮挡前后车道线空间信息,使用循环特征丰富模块,在每个特征块信息迭代过程中,将特征图分为若干切片,同时在4个方向上循环移动垂直和水平地传递信息,传递过程中加入了PSA块让网络更加注意细粒度特征。随着需要4次迭代,以确保每个位置都可以接收整个feature map中的信息。最后经过二分类损失计算,分离车道线与车道线背景,输出遮挡前后车道线信息。
本发明实施过程包括:
如图3所示,网络由三大结构组成:编码器、循环特征丰富模块及二分类损失计算解码器组成。编码器选择ResNet50-FPN从原始图像提取初步特征。然后应用循环特征丰富模块对车道特征进行聚合,丰富的初始特征图,解码器利用二分类损失计算直接对车道线作二分类操作,预测出车道线信息。
(1)采用残差网络ResNet50作为特征提取网络,结合FPN算法构建多尺度特征金字塔模型,主要解决小目标检测的问题,最终融合的特征经过1*1卷积,将特征尺寸调节为128*36*100。
(2)如图4所示,循环特征丰富模块方法核心想法是通过迭代聚合在特征的上下左右四个方向把特征切片信息聚合起来,在信息传递过程,为了能够好的拟合出细粒度车道线特征,我们加入了Polarized Self-Attention(PSA)模块。与传统Attention模块不同的是,PSA在通道(图左侧)和空间(图右侧)分支都在采用了和相结合的函数可帮助卷积网络提取出更加细节特征信息。相关计算如公式(4)至(10)所示。
公式(4)、(5)实现了卷积网络在特征图“深度方向”上,水平和竖直过程的信息聚合。公式(6)、(7)中X为特征切片,对公式(4)、(5)是经过PSA处理后,凝聚了更多遮挡前后的空间信息;公式(8)、(9)是PSA模块,公式(10)从数学公式可推理出信息聚合模块应有的迭代次数。
(3)二分类损失函数上,考虑到背景标记与车道标记之间的不平衡,所以我们让分割BCE损失乘以0.4。
实施例
训练网络使用的CULane数据集约有133,235张图片,9种场景类别,除了在标签和数据量不是很多的数据上表现差以外,在充足数据情况下,模型表现效果较为理想。在特征提取阶段,考虑到不同网络对实验结果的影响较大,选取ResNet34+FPN和ResNet50+FPN特征提取网络进行实验。
网络训练时使用SGD(动量设为0.9和重量衰减1e-4去优化训练模型。学习率设置为2.5e-2。在第一次500 batches时使用了热身策略,然后应用多项式学习速率衰减政策,功率设置为0.9。训练时批量大小设置为8,epoch为12。所有模型在Ubuntu18和两块TeslaT4 GPU(16G显存)上进行训练,代码用Pytorch1.7.0实现。实验结果如表1所示。评分使用F1-Score和FP值进行效果评估(由于IOU和F1及FP相关计算属于常识,这里不在赘述)。
表 1:网络在 CULane 上IoU值为0.5 时的表现效果,对于十字路口,仅显示 FP值
双注意力机制的循环特征丰富模块,确定融合次数的消融研究结果如表2所示。本实验以ResNet50+FPN作为编码器,在CULane数据集对迭代次数取值进行实验测试,结合公式(10)得或,即时候模型将达到最佳状态。从实验结果课发现k=4时候模型已经达到最佳效果。
表 2:使用 ResNet50+FPN作为主干对特征丰富模块进行消融实验
在本发明实施例中,如图2所示,针对传统神经网络无法对遮挡车道线进行的检测问题,提出了一种基于深度学习方法的遮挡车道线检测方法。利用ResNet50+FPN提取小目标特征,再结合双注意力机制的循环特征丰富模块分别在空间和通道维度增强网络的细粒度空间信息提取能力。在聚合特征信息的过程中,通过反复跨行和跨列的切片卷积,使网络收集到更多的空间信息以丰富原始特征细节,间接增加网络感受野,最后由二分类损失计算输出车道线结果。此方法在CULane数据集上达到了不错的效果。可以理解,在一些实施例中,可以包含如上述各实施例中的部分或全部可选实施方式。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于深度学习方法的遮挡车道线检测方法,其特征在于,所述方法包括:
步骤1,对车道线数据进行增强及尺寸统一操作;
步骤2,利用多通道特征空间金字塔为特征提取网络,进行对预处理完毕的车道线信息进行语义分割及多尺度特征融合;
步骤3,引入双注意力机制的循环特征丰富模块,将遮挡前后的车道线空间信息丰富到原始特征中,增加了车道线细粒度特征细节;
步骤4,通过二分类损失计算将车道线与背景信息分离。
2.根据权利要求1所述的一种基于深度学习方法的遮挡车道线检测方法,其特征在于,对车道线数据进行增强及尺寸统一操作具体步骤为:其特征在于,所述步骤1包括:
步骤101,将CULane数据集的原始图像尺寸进行裁剪以去除非车道线的特征部分;
步骤102,将CULane数据集的原始图像及对应标签尺寸调整为288 * 800;
步骤103,对尺寸统一后的CULane数据进行随机旋转,平移,模糊等操作将数据进行增强以在训练时提升网络的鲁棒性。
3.根据权利要求1所述的基于深度学习方法的遮挡车道线检测方法,其特征在于,所述步骤2包括:
步骤201,在CuLane数据集上预训练ResNet卷积神经网络;
步骤202,在ResNet50-FPN主干网络中导入预训练模型的权值参数从而初始化网络;
步骤203,不断优化分割BCE损失函数,提升网络对车道线特征的提取能力。
4.根据权利要求1所述的基于深度学习方法的遮挡车道线检测方法,其特征在于,所述步骤2还包括:利用RestNet50-FPN对浅层特征图的局部语义信息和深层特征图的全局语义信息进行信息特征融合;在ResNet50网络的基础上,额外增加了一条由上至下的侧路用于将全局语义和局部语义相融合;对ResNet50的四个阶段中,从最深层特征图开始,经过 1*1卷积与上采样操作之后,分别产生4个阶段对应的金字塔特征图,然后通过特征图相加的方式将四个阶段分别得到的特征元素进行融合;最后经过1*1的卷积,对融合的特征图进行下采样,降低特征图尺寸至128*36 * 100。
5.根据权利要求1所述的基于深度学习方法的遮挡车道线检测方法,其特征在于,所述步骤3包括:循环特征丰富模块在特征图的上下左右四个方向把特征切片信息聚合起来;在信息聚合过程,在网络加入Polarized Self-Attention模块,让网络能够好的拟合出细粒度车道线特征;经过4次迭代使用循环特征丰富模块,最后将所有信息融合在一张特征图的过程,融合后的特征尺寸为128*1 * 1。
6.根据权利要求1所述的基于深度学习方法的遮挡车道线检测方法,其特征在于,所述步骤4包括:
二分类损失计算检测出车道线具体为:
分割BCE损失具体计算公式如下:
公式(2),y是标签0或1,a是网络经过sigmoid函数的输出,范围是(0,1),n是样本数;网络输出一个值,BCE根据该数值与对应标签的情况给出一个损失;当y取0时,ylna消除,剩下-ln(1-a),所以a需要越接近0才能让loss降下来;当y取1时,(1-y)ln(1-a)消除,剩下-lna,所以a需要越接近1才能让loss降下来;该loss将0和1的情况的均考虑了进来,可用于二分类;存在分类CE(softmax+log损失)log损失的计算公式如下:
公式(3):y代表标签0或1,a代表网络经softmax的输出值,n是样本数;网络输出多个值,CE根据只根据对应标签为1的网络输出给出一个损失;当y取0时,没有计算损失;当y取1时,剩下-lna,所以a需要越接近1才能让loss降下来;该公式只专注于让对应标签为1的网络输出为1;由于softmax的公式:这属于归一化,当有一项逼近1时,其他项则逼近0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210184350.2A CN115205811A (zh) | 2022-02-28 | 2022-02-28 | 一种基于深度学习方法的遮挡车道线检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210184350.2A CN115205811A (zh) | 2022-02-28 | 2022-02-28 | 一种基于深度学习方法的遮挡车道线检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115205811A true CN115205811A (zh) | 2022-10-18 |
Family
ID=83574212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210184350.2A Withdrawn CN115205811A (zh) | 2022-02-28 | 2022-02-28 | 一种基于深度学习方法的遮挡车道线检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115205811A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071374A (zh) * | 2023-02-28 | 2023-05-05 | 华中科技大学 | 一种车道线实例分割方法及系统 |
-
2022
- 2022-02-28 CN CN202210184350.2A patent/CN115205811A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116071374A (zh) * | 2023-02-28 | 2023-05-05 | 华中科技大学 | 一种车道线实例分割方法及系统 |
CN116071374B (zh) * | 2023-02-28 | 2023-09-12 | 华中科技大学 | 一种车道线实例分割方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188817B (zh) | 一种基于深度学习的实时高性能街景图像语义分割方法 | |
CN110852316B (zh) | 一种采用密集结构卷积网络的图像篡改检测和定位方法 | |
CN113642390B (zh) | 一种基于局部注意力网络的街景图像语义分割方法 | |
CN111814621A (zh) | 一种基于注意力机制的多尺度车辆行人检测方法及装置 | |
CN111612008A (zh) | 基于卷积网络的图像分割方法 | |
CN111339917B (zh) | 一种真实场景下玻璃检测的方法 | |
CN111882620A (zh) | 一种基于多尺度信息道路可行驶区域分割方法 | |
CN116189180A (zh) | 一种城市街景广告图像分割方法 | |
CN112766136A (zh) | 一种基于深度学习的空间车位检测方法 | |
CN111353544A (zh) | 一种基于改进的Mixed Pooling-YOLOV3目标检测方法 | |
CN112949578B (zh) | 车灯状态识别方法、装置、设备及存储介质 | |
CN111914726B (zh) | 基于多通道自适应注意力机制的行人检测方法 | |
CN110717863A (zh) | 一种基于生成对抗网络的单图像去雪方法 | |
CN113628297A (zh) | 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统 | |
CN115019039A (zh) | 一种结合自监督和全局信息增强的实例分割方法及系统 | |
CN115205811A (zh) | 一种基于深度学习方法的遮挡车道线检测方法 | |
CN116310386A (zh) | 基于浅层自适应增强上下文的CenterNet小目标检测方法 | |
CN115222750A (zh) | 基于多尺度融合注意力的遥感图像分割方法及系统 | |
CN115171074A (zh) | 一种基于多尺度yolo算法的车辆目标识别方法 | |
CN109543519B (zh) | 一种用于物体检测的深度分割引导网络 | |
CN111612803B (zh) | 一种基于图像清晰度的车辆图像语义分割方法 | |
CN111582057B (zh) | 一种基于局部感受野的人脸验证方法 | |
CN115995002B (zh) | 一种网络构建方法及城市场景实时语义分割方法 | |
CN116309545A (zh) | 一种面向医学显微图像的单阶段细胞核实例分割方法 | |
CN116363361A (zh) | 基于实时语义分割网络的自动驾驶方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20221018 |
|
WW01 | Invention patent application withdrawn after publication |