CN113313031B - 一种基于深度学习的车道线检测和车辆横向定位方法 - Google Patents

一种基于深度学习的车道线检测和车辆横向定位方法 Download PDF

Info

Publication number
CN113313031B
CN113313031B CN202110600027.4A CN202110600027A CN113313031B CN 113313031 B CN113313031 B CN 113313031B CN 202110600027 A CN202110600027 A CN 202110600027A CN 113313031 B CN113313031 B CN 113313031B
Authority
CN
China
Prior art keywords
lane line
lane
vehicle
feature map
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110600027.4A
Other languages
English (en)
Other versions
CN113313031A (zh
Inventor
李立君
张艳磊
郑康诚
苏洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202110600027.4A priority Critical patent/CN113313031B/zh
Publication of CN113313031A publication Critical patent/CN113313031A/zh
Application granted granted Critical
Publication of CN113313031B publication Critical patent/CN113313031B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于深度学习的车道线检测和车辆横向定位方法,首先训练深度学习网络,然后获得图像中各个车道线的参数,最后根据各个车道线的参数来求出车辆的横向定位信息(车辆所在车道的序号,车辆与车辆所在车道左右两条车道线的距离)。本发明发挥了深度学习提取图像特征的优势,且免去了耗时较长的后处理模块,能够更加准确、快速地预测出图像中车道线的参数以及车辆的横向定位信息。

Description

一种基于深度学习的车道线检测和车辆横向定位方法
技术领域
本发明涉及自动驾驶技术领域,尤其涉及一种基于深度学习的车道线检测和车辆横向定位方法。
背景技术
横向定位信息作为自动驾驶决策规划模块的输入,对自动驾驶行驶的安全性有着十分重要的影响,而车道线检测的结果直接影响自动驾驶横向定位的准确性。目前,车道线检测主要分为两种方案:基于传统图像处理的方法和基于深度学习的方法。
基于传统图像处理的方法的主要步骤有:图像预处理,过滤图像中的干扰项,根据车道线像素特征与周围像素特征的不同手动选取特征,提取出车道线的特征信息,用曲线模型去拟合车道线。这种方法主要依赖于人工选取特征,在遇到车道线被遮挡、缺失、光照变化等情况效果不佳,鲁棒性较差。
而基于深度学习的方法依赖于大数据,模型通过自主学习得到车道线的特征,在面对车道线被遮挡、缺失、光照变化等情况有更好的准确性,鲁棒性较强,但深度学习对计算机硬件的需求较高,且对得到的车道线特征要进行聚类、拟合等后处理操作才能得到有用的车道线参数,耗时较长,难以满足自动驾驶的实时性需求。
发明内容
本发明所要解决的技术问题是针对背景技术中所涉及到的缺陷,提供一种基于深度学习的车道线检测和车辆横向定位方法。
本发明为解决上述技术问题采用以下技术方案:
一种基于深度学习的车道线检测和车辆横向定位方法,包括:
步骤A),训练深度学习网络;
步骤A.1),搭建编码网络:
将Resnet18网络中的平均池化层和全连接层去除后,用深度可分离卷积替换其中的3×3的卷积核,在第二和第三残差层中添加通道注意力机制,输出第三和第四残差层得到的特征图;
步骤A.2),搭建解码网络:
将编码网络中第四残差层输出的特征图通过CBAM模块,得到带有注意力权重的特征图后,对特征图的宽度、长度和通道维度依次进行1×1卷积,与下采样后的第三残差层输出的特征图相融合,对融合后的特征图进行池化和卷积操作得到各个车道线的参数;所述车道线参数包含车道线存在的置信度、车道线在图片中最低点和最高点的纵坐标、以及车道线四次多项式的系数;
步骤A.3),确定损失函数,采集交通场景图片并用关键点来表示车道线,使用Adam梯度下降算法训练编码网络和解码网络,所述损失函数包括车道线存在的置信度损失函数、车道线在图片中最低点和最高点纵坐标的距离损失函数、以及车道线坐标点的距离损失函数,其中:
所述车道线存在的置信度损失函数用于预测是否存在车道线带来的误差LossC
Figure BDA0003092596310000021
n为图像中车道线的数量,cj、cj *分别为预测的概率、真实的概率,Lcls为第j个车道线的二元交叉熵函数;
所述车道线在图片中最低点和最高点纵坐标的距离损失函数用于预测车道线在图像中端点纵坐标的误差LossS
Figure BDA0003092596310000022
yj、yj *分别代表预测的纵坐标值、真实的纵坐标值,Lreg为第j个车道线的均方误差函数;
所述车道线坐标点的距离损失函数用于预测车道线关键点纵坐标的误差LossP
Figure BDA0003092596310000023
m为车道线关键点的数量,Pi为车道线的四次多项式表达式,yj、yj *分别为预测的纵坐标值、真实的纵坐标值,Lreg为第j个车道线的均方误差函数;
步骤B),对于待进行车道线检测和车辆横向定位的图像,基于训练好的编码网络和解码网络,获得图像中各个车道线的参数;
步骤C),根据图像中各个车道线的参数来求出车辆的横向定位信息,所述横向定位信息包含车辆所在车道的序号、以及车辆与车辆所在车道左右两条车道线的距离:
步骤C.1),筛选出车道线存在置信度值大于预设的置信度阈值的车道线,对于其中的每一条车道线,求出车道线的纵坐标Yj等于图像高度时其横坐标Xj的值;
步骤C.2),将得到各个车道线按照其横坐标Xj的值进行从小到大的排序,得到车道线集合;
步骤C.3),令图像的宽度为L,从前往后遍历车道线集合,获得第一个Xj大于L/2的车道线,将其作为车辆所在车道的右车道线;
步骤C.4),获得右车道线在车道线集合中的上一个车道线,将其作为车辆所在车道的左车道线;
步骤C.5),分别计算右车道线、左车道线的Xj和L/2差值的绝对值,得到车辆和其所在车道右车道线、左车道线的像素距离,车辆所在车道的右车道线在车道线集合中的序号即为车辆所在车道的序号。
作为本发明一种基于深度学习的车道线检测和车辆横向定位方法进一步的优化方案,步骤A.2)中对特征图的宽度、长度和通道维度依次进行1×1卷积的具体步骤为:
将特征图的维度N×C×H×W转置为N×W×H×C,然后进行1×1卷积操作,再转置为N×H×W×C,进行1×1卷积,最后转置回原来的维度N×C×H×W,进行1×1卷积。
作为本发明一种基于深度学习的车道线检测和车辆横向定位方法进一步的优化方案,步骤A.2)中对融合后的特征图进行池化和卷积操作得到每条车道线的参数的具体步骤如下:
首先对融合后的特征图进行1×1卷积的操作,降低特征图的通道数,然后依次进行全局平均池化和全局最大池化,将两个池化结果相加后进行1×1卷积,得到各个车道线的参数。
作为本发明一种基于深度学习的车道线检测和车辆横向定位方法进一步的优化方案,步骤A.3)中采集交通图片并用车道线的关键点来表示车道线时,对关键点的横纵坐标值进行归一化,将坐标值的阈值限制在0~1之间,即将关键点横坐标的值除以图像的长度作为关键点归一化后的横坐标、将关键点纵坐标的值除以图像的高度作为关键点归一化后的纵坐标。
作为本发明一种基于深度学习的车道线检测和车辆横向定位方法进一步的优化方案,所述预设的置信度阈值取0.5。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
本发明针对如何快速、准确地从图像中得到车道线的参数并求出车辆的横向定位信息(车辆所在车道的序号,车辆与车辆所在车道左右两条车道线的距离),提供了一种基于深度学习的车道线检测和横向定位方法,它在搭建深度学习网络时运用了深度可分离卷积,降低了深度学习网络运算的参数量,且可以直接输出车道线的参数,摈弃了耗时较长的后处理模块,在充分发挥深度学习的优势的同时,较大地提高了车道线检测的速度,保证了算法能够同时满足自动驾驶对于准确性和实时性的需求。
附图说明
图1是本发明所提供方法的流程图;
图2是Resnet18网络的示意图;
图3是本发明编码网络结构的示意图;
图4是本发明解码网络结构的示意图;
图5是本发明求取车辆横向定位信息的流程图;
图6是本发明测试的效果图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
本发明可以以许多不同的形式实现,而不应当认为限于这里所述的实施例。相反,提供这些实施例以便使本公开透彻且完整,并且将向本领域技术人员充分表达本发明的范围。在附图中,为了清楚起见放大了组件。
本发明具体实验中所用的数据来自于Tusimple数据集,包含了6408张带有标注的图像,该数据集是通过一系列点的坐标来进行车道线的标注,在图像上等间隔的划分高度,生成车道线的纵坐标值,根据这些纵坐标值来生成具体每条车道线的横坐标。
如图1所示,本发明公开了一种基于深度学习的车道线检测和车辆横向定位方法,包括:
步骤A),训练深度学习网络;
步骤A.1),搭建编码网络:
如图2所示,为Resnet18网络的结构示意图,它主要包括预处理模块,四个残差层和输出层,可以对图像进行32倍下采样,提取图像中检测目标的特征。如图3所示,首先将Resnet18网络中的输出层去除;然后用深度可分离卷积替换其中的3×3的卷积核,降低网络的参数量,提高网络的运行速度;在第二(Resnet block2)和第三残差层(Resnetblock3)中添加通道注意力机制(CA=True),加强网络对于重要通道特征的学习,提高检测的准确性;输出第三和第四残差层(Resnet block3)得到的特征图out3和out4。
步骤A.2),搭建解码网络:
如图4所示,首先将编码网络中第四残差层(Resnet block4)输出的特征图out4通过CBAM模块,得到带有注意力权重的特征图;然后对特征图的宽度、长度和通道维度依次进行1×1卷积,具体步骤为:将特征图的维度由N×C×H×W转置为N×W×H×C,然后进行1×1卷积操作,再转置为N×H×W×C,进行1×1卷积,最后转置回原来的维度N×C×H×W,进行1×1卷积;最后与下采样后的第三残差层(Resnet block3)输出的特征图out3相融合,对融合后的特征图首先进行1×1卷积的操作,降低特征图的通道数,然后依次进行全局平均池化和全局最大池化,将两个池化结果相加后进行1×1卷积,各个车道线的参数;所述车道线参数包含车道线存在的置信度、车道线在图片中最低点和最高点的纵坐标、以及车道线四次多项式的系数。
步骤A.3),确定损失函数,采集交通场景图片并用关键点来表示车道线,使用Adam梯度下降算法训练编码网络和解码网络,所述损失函数包括车道线存在的置信度损失函数、车道线在图片中最低点和最高点纵坐标的距离损失函数、以及车道线坐标点的距离损失函数,其中:
所述车道线存在的置信度损失函数用于预测是否存在车道线带来的误差LossC
Figure BDA0003092596310000051
n为图像中车道线的数量,cj、cj *分别为预测的概率、真实的概率,Lcls为第j个车道线的二元交叉熵函数;
所述车道线在图片中最低点和最高点纵坐标的距离损失函数用于预测车道线在图像中端点纵坐标的误差LossS
Figure BDA0003092596310000052
yj、yj *分别代表预测的纵坐标值、真实的纵坐标值,Lreg为第j个车道线的均方误差函数;
所述车道线坐标点的距离损失函数用于预测车道线关键点纵坐标的误差LossP
Figure BDA0003092596310000053
m为车道线关键点的数量,Pi为车道线的四次多项式表达式,yj、yj *分别为预测的纵坐标值、真实的纵坐标值,Lreg为第j个车道线的均方误差函数。
采集交通图片并用车道线的关键点来表示车道线时,要对关键点的横纵坐标值进行归一化,将坐标值的阈值限制在0~1之间,即将关键点横坐标的值除以图像的长度作为关键点归一化后的横坐标、将关键点纵坐标的值除以图像的高度作为关键点归一化后的纵坐标。
将Tusimple数据集中车道线关键点的横纵坐标归一化后,使用Adam梯度下降算法训练网络,使损失函数的值不断下降,获得训练后的网络模型。将交通场景的图像输入到训练好的模型中,便可得到图像中各个车道线的参数。
步骤B),对于待进行车道线检测和车辆横向定位的图像,基于训练好的编码网络和解码网络,获得图像中各个车道线的参数;
步骤C),如图5所示,根据图像中各个车道线的参数来求出车辆的横向定位信息,所述横向定位信息包含车辆所在车道的序号、以及车辆与车辆所在车道左右两条车道线的距离:
步骤C.1),筛选出车道线存在置信度值大于预设的置信度阈值0.5的车道线,对于其中的每一条车道线,求出车道线的纵坐标Yj等于图像高度h时其横坐标Xj的值;
步骤C.2),将得到各个车道线按照其横坐标Xj的值进行从小到大的排序,得到车道线集合;
步骤C.3),令图像的宽度为L,从前往后遍历车道线集合,获得第一个Xj大于L/2的车道线,将其作为车辆所在车道的右车道线;
步骤C.4),获得右车道线在车道线集合中的上一个车道线,将其作为车辆所在车道的左车道线;
步骤C.5),分别计算右车道线、左车道线的Xj和L/2差值的绝对值,得到车辆和其所在车道右车道线、左车道线的像素距离,车辆所在车道的右车道线在车道线集合中的序号即为车辆所在车道的序号。
本发明实施实例的测试效果图如图6所示,lane_ID代表车辆所在车道的序号,l_d代表车辆与车辆所在车道左车道线的距离,r_d代表车辆与车辆所在车道左车道线的距离。
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于深度学习的车道线检测和车辆横向定位方法,其特征在于,包括:
步骤A),训练深度学习网络;
步骤A.1),搭建编码网络:
将Resnet18网络中的平均池化层和全连接层去除后,用深度可分离卷积替换其中的3×3的卷积核,在第二和第三残差层中添加通道注意力机制,输出第三和第四残差层得到的特征图;
步骤A.2),搭建解码网络:
将编码网络中第四残差层输出的特征图通过CBAM模块,得到带有注意力权重的特征图后,对特征图的宽度、长度和通道维度依次进行1×1卷积,与下采样后的第三残差层输出的特征图相融合,对融合后的特征图进行池化和卷积操作得到各个车道线的参数;所述车道线参数包含车道线存在的置信度、车道线在图片中最低点和最高点的纵坐标、以及车道线四次多项式的系数;
步骤A.3),确定损失函数,采集交通场景图片并用关键点来表示车道线,使用Adam梯度下降算法训练编码网络和解码网络,所述损失函数包括车道线存在的置信度损失函数、车道线在图片中最低点和最高点纵坐标的距离损失函数、以及车道线坐标点的距离损失函数,其中:
所述车道线存在的置信度损失函数用于预测是否存在车道线带来的误差LossC
Figure FDA0003092596300000011
n为图像中车道线的数量,cj、cj *分别为预测的概率、真实的概率,Lcls为第j个车道线的二元交叉熵函数;
所述车道线在图片中最低点和最高点纵坐标的距离损失函数用于预测车道线在图像中端点纵坐标的误差LossS
Figure FDA0003092596300000012
yj、yj *分别代表预测的纵坐标值、真实的纵坐标值,Lreg为第j个车道线的均方误差函数;
所述车道线坐标点的距离损失函数用于预测车道线关键点纵坐标的误差LossP
Figure FDA0003092596300000013
m为车道线关键点的数量,Pi为车道线的四次多项式表达式,yj、yj *分别为预测的纵坐标值、真实的纵坐标值,Lreg为第j个车道线的均方误差函数;
步骤B),对于待进行车道线检测和车辆横向定位的图像,基于训练好的编码网络和解码网络,获得图像中各个车道线的参数;
步骤C),根据图像中各个车道线的参数来求出车辆的横向定位信息,所述横向定位信息包含车辆所在车道的序号、以及车辆与车辆所在车道左右两条车道线的距离:
步骤C.1),筛选出车道线存在置信度值大于预设的置信度阈值的车道线,对于其中的每一条车道线,求出车道线的纵坐标Yj等于图像高度时其横坐标Xj的值;
步骤C.2),将得到各个车道线按照其横坐标Xj的值进行从小到大的排序,得到车道线集合;
步骤C.3),令图像的宽度为L,从前往后遍历车道线集合,获得第一个Xj大于L/2的车道线,将其作为车辆所在车道的右车道线;
步骤C.4),获得右车道线在车道线集合中的上一个车道线,将其作为车辆所在车道的左车道线;
步骤C.5),分别计算右车道线、左车道线的Xj和L/2差值的绝对值,得到车辆和其所在车道右车道线、左车道线的像素距离,车辆所在车道的右车道线在车道线集合中的序号即为车辆所在车道的序号。
2.根据权利要求1所述的基于深度学习的车道线检测和车辆横向定位方法,其特征在于,步骤A.2)中对特征图的宽度、长度和通道维度依次进行1×1卷积的具体步骤为:
将特征图的维度N×C×H×W转置为N×W×H×C,然后进行1×1卷积操作,再转置为N×H×W×C,进行1×1卷积,最后转置回原来的维度N×C×H×W,进行1×1卷积。
3.根据权利要求1所述的基于深度学习的车道线检测和车辆横向定位方法,其特征在于,步骤A.2)中对融合后的特征图进行池化和卷积操作得到每条车道线的参数的具体步骤如下:
首先对融合后的特征图进行1×1卷积的操作,降低特征图的通道数,然后依次进行全局平均池化和全局最大池化,将两个池化结果相加后进行1×1卷积,得到各个车道线的参数。
4.根据权利要求1所述的基于深度学习的车道线检测和车辆横向定位方法,其特征在于,步骤A.3)中采集交通图片并用车道线的关键点来表示车道线时,对关键点的横纵坐标值进行归一化,将坐标值的阈值限制在0~1之间,即将关键点横坐标的值除以图像的长度作为关键点归一化后的横坐标、将关键点纵坐标的值除以图像的高度作为关键点归一化后的纵坐标。
5.根据权利要求1所述的基于深度学习的车道线检测和车辆横向定位方法,其特征在于,所述预设的置信度阈值取0.5。
CN202110600027.4A 2021-05-31 2021-05-31 一种基于深度学习的车道线检测和车辆横向定位方法 Active CN113313031B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110600027.4A CN113313031B (zh) 2021-05-31 2021-05-31 一种基于深度学习的车道线检测和车辆横向定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110600027.4A CN113313031B (zh) 2021-05-31 2021-05-31 一种基于深度学习的车道线检测和车辆横向定位方法

Publications (2)

Publication Number Publication Date
CN113313031A CN113313031A (zh) 2021-08-27
CN113313031B true CN113313031B (zh) 2022-04-22

Family

ID=77376497

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110600027.4A Active CN113313031B (zh) 2021-05-31 2021-05-31 一种基于深度学习的车道线检测和车辆横向定位方法

Country Status (1)

Country Link
CN (1) CN113313031B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114677442B (zh) * 2022-05-26 2022-10-28 之江实验室 一种基于序列预测的车道线检测系统、装置和方法
CN115294548B (zh) * 2022-07-28 2023-05-02 烟台大学 一种基于行方向上位置选择和分类方法的车道线检测方法
CN115147801B (zh) * 2022-08-29 2022-12-23 北京百度网讯科技有限公司 车道线识别方法、装置、电子设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020047302A1 (en) * 2018-08-29 2020-03-05 Buffalo Automation Group Inc. Lane and object detection systems and methods
CN110363182B (zh) * 2019-07-24 2021-06-18 北京信息科技大学 基于深度学习的车道线检测方法
CN111242037B (zh) * 2020-01-15 2023-03-21 华南理工大学 基于结构信息的车道线检测方法
CN112861619B (zh) * 2020-12-31 2024-04-16 浙江大华技术股份有限公司 模型的训练方法、车道线检测方法、设备及装置

Also Published As

Publication number Publication date
CN113313031A (zh) 2021-08-27

Similar Documents

Publication Publication Date Title
CN110348376B (zh) 一种基于神经网络的行人实时检测方法
CN113313031B (zh) 一种基于深度学习的车道线检测和车辆横向定位方法
CN109840556B (zh) 一种基于孪生网络的图像分类识别方法
CN110599537A (zh) 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统
CN112232391B (zh) 一种基于U-net网络和SC-SAM注意力机制的大坝裂缝检测方法
CN110276264B (zh) 一种基于前景分割图的人群密度估计方法
CN111160205B (zh) 一种交通场景嵌入式多类目标端对端统一检测方法
CN111080609B (zh) 一种基于深度学习的闸瓦插销丢失检测方法
CN112766136B (zh) 一种基于深度学习的空间车位检测方法
CN111832484A (zh) 一种基于卷积感知哈希算法的回环检测方法
CN112488046B (zh) 一种基于无人机高分辨率影像的车道线提取方法
CN113139489B (zh) 基于背景提取和多尺度融合网络的人群计数方法及系统
CN107944354A (zh) 一种基于深度学习的车辆检测方法
CN116030396B (zh) 一种用于视频结构化提取的精确分割方法
CN112991364A (zh) 基于卷积神经网络跨模态融合的道路场景语义分割方法
CN112990065A (zh) 一种基于优化的YOLOv5模型的车辆分类检测方法
CN115457277A (zh) 一种智能化路面病害识别检测方法及系统
CN112766056A (zh) 一种基于深度神经网络的弱光环境车道线检测方法、装置
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN111881914B (zh) 一种基于自学习阈值的车牌字符分割方法及系统
CN112785610B (zh) 一种融合低层特征的车道线语义分割方法
CN115830514B (zh) 一种适用于带弯曲河道的全河段表面流速计算方法及系统
CN116597270A (zh) 基于注意力机制集成学习网络的道路损毁目标检测方法
CN116129327A (zh) 一种基于改进YOLOv7算法的红外车辆检测方法
Chen et al. An image restoration and detection method for picking robot based on convolutional auto-encoder

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant