CN115223123A - 基于计算机视觉识别的路面目标检测方法 - Google Patents
基于计算机视觉识别的路面目标检测方法 Download PDFInfo
- Publication number
- CN115223123A CN115223123A CN202210801989.0A CN202210801989A CN115223123A CN 115223123 A CN115223123 A CN 115223123A CN 202210801989 A CN202210801989 A CN 202210801989A CN 115223123 A CN115223123 A CN 115223123A
- Authority
- CN
- China
- Prior art keywords
- road surface
- training
- target
- model network
- training model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于计算机视觉识别的路面目标检测方法,包括S1、制作数据集并从数据集中的每个路面图片中提取路面目标且对路面目标进行分类;S2、搭建基于图像语义分割的训练模型网络,通过数据集对训练模型网络进行训练,使训练模型网络的性能达到最优;S3、将相机采集的图片输入到完成测试的训练模型网络中进行图像语义分割获得分割结果,将激光雷达采集的点云数据投影到相机采集的图片上,根据分割结果确定路面目标的类别。本发明使用语义分割方法对路面目标进行检测与识别,可以更准确的提取路面坑洼等不规则的轮廓信息,以便精确的进行点云分类。
Description
技术领域
本发明涉及视觉识别图像语义分割技术领域,特别涉及一种基于计算机视觉识别的路面目标检测方法。
背景技术
随着计算机视觉及智能驾驶感知技术的蓬勃发展,促进了主动悬架系统路面预瞄技术的变革,由最初的轴间预瞄发展为加装摄像头或激光雷达等可以采集路面三维数据的传感器,提前采集路面激励输入主动悬架系统的车前预瞄。但是由于没有类别标签信息,仅利用三维信息的车前预瞄容易对路面上的柔性物体如塑料袋、树叶等产生误判,造成悬架系统的错误动作,导致车辆舒适性和安全性的降低。同时路面上的坑洼多为不规则形状,若采用一般目标检测方法识别路面目标,算法框出的目标范围并不能很好贴合目标轮廓,导致悬架系统针对目标的动作精度降低。
发明内容
本发明的目的是为了克服已有技术的缺陷,提出一种基于计算机视觉识别的路面目标检测方法,通过对路面目标进行检测和分类,同时提供像素级的目标检测精度,提高悬架系统的动作精度和控制效果,保证车辆的舒适性和安全性。
为实现上述目的,本发明采用以下具体技术方案:
本发明提供的基于计算机视觉识别的路面目标检测方法,其特征在于,包括如下步骤:
S1、制作数据集并从所述数据集中的每个路面图片中提取路面目标且对所述路面目标进行分类;
S2、搭建基于图像语义分割的训练模型网络,并通过所述数据集对所述训练模型网络进行训练;
S3、将相机采集的图片输入到完成训练的训练模型网络中进行图像语义分割获得分割结果,将激光雷达采集的点云数据投影到所述相机采集的图片上,根据所述分割结果确定所述路面目标的类别。
优选地,步骤S1具体包括如下子步骤:
S11、使用开源图片标记工具对每个路面图片中的路面目标进行轮廓提取,同时进行类别标注;其中,路面目标的类别分为减速带、井盖和路面坑洼;
S12、将完成类别标注的数据集按照6∶2∶2的比例划分成训练集、验证集和测试集。
优选地,将数据集分成训练集、验证集和测试集,以及步骤S2具体包括如下步骤:
S21、将所述训练集输入训练模型网络进行训练,并将训练结果使用验证集进行验证,通过调整初始超参数使训练模型网络的性能达到最优;
S22、将测试集输入完成训练的训练模型网络进行测试,计算训练模型网络识别路面目标的准确率、精确率和召回率,衡量训练模型网络的识别性能和泛化能力。
优选地,在步骤S2搭建训练模型网络的过程中,使用pytorch深度学习框架,搭建maskrcnn检测算法,使用Resnet101作为主干网络进行特征提取,使用FPN作为颈部网络进行特征融合,使用RPN网络进行区域建议,使用ROIAlign层调整特征尺寸,使用全卷积网络进行像素分类;
训练模型网络的损失函数Lfinal为:
Lfinal=L({pi},{ti})+(Lcls+Lbox+Lmask);
其中,L({pi},{ti})为训练RPN网络的损失,Lcls为类别损失,Lbox为目标框损失,Lmask为掩码损失。
优选地,ROIAlign层通过双线性差值法调整特征尺寸,利用路面图片中四个点的像素值计算目标值;其中,路面图片中四个点的四个点分别为Q11(x1,y1),Q12(x1,y2),Q21(x2,y1)和Q22(x2,y2);
首先,在x方向上进行线性插值,得到R1和R2两个点:
之后,在y方向上进行线性插值,通过R1、R2计算目标点P。
优选地,在将训练集输入训练模型网络进行训练之前,先设置初始超参数并对训练集进行数据增强。
优选地,对训练集中的路面图片进行几何变换和颜色变换,实现数据增强。
优选地,路面目标的准确率Pacc的计算公式为:
Pacc=(TP+TN)/(TP+TN+FP+FN);
路面目标的精确率Ppre的计算公式为:
Ppre=TP/(TP+FP);
路面目标的召回率Pre的计算公式为:
Pre=TP/(TP+FN);
其中,TP表示将正类预测为正类数,TN表示将负类预测为负类数,FP表示将负类预测为正类数,FN表示将正类预测为负类数。
优选地,步骤S4在将激光雷达采集的点云数据投影到相机采集的图片上的过程中,通过坐标变换矩阵T将点云数据置于相机坐标系下,再通过相机内参数矩阵K将点云数据投影于相机采集的图片上。
优选地,设Pc是点云数据Pl在相机坐标系下的坐标,使用旋转矩阵Rm和平移向量t,将Pc变换为Pl,则:
Pc=RmPl+t;
其中,Rm为3×3的旋转矩阵,t为3×1的平移向量,将Pc改写为齐次坐标的形式:
其中,Xc、Yc、Zc表示Pc的三维坐标;
相机内参变换矩阵K写成齐次坐标的形式为:
其中,fx,fy分别为相机在u轴和v轴方向上的尺度因子,(cx,cy)为相机主点。
本发明能够取得如下技术效果:
1、本发明使用语义分割方法对路面目标进行检测与识别,可以更准确的提取路面坑洼等不规则的轮廓信息,以便精确的进行点云分类;
2、本发明通过投影对点云数据增加类别信息,保证悬架的正确动作,提高车辆的舒适性及安全性;
3、本发明使用maskrcnn检测方法进行路面检测,其对于路面目标的检测精度,准确率更高。
附图说明
图1是根据本发明实施例提供的基于计算机视觉识别的路面目标检测方法的流程示意图。
具体实施方式
在下文中,将参考附图描述本发明的实施例。在下面的描述中,相同的模块使用相同的附图标记表示。在相同的附图标记的情况下,它们的名称和功能也相同。因此,将不重复其详细描述。
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,而不构成对本发明的限制。
图1示出了根据本发明实施例提供的基于计算机视觉识别的路面目标检测方法的流程。
如图1所示,本发明实施例提供的基于计算机视觉识别的路面目标检测方法,包括入下步骤:
S1、制作数据集并从数据集中的每个路面图片中提取路面目标且对路面目标进行分类;其中,将所述数据集分成训练集、验证集和测试集。
步骤S1具体包括如下子步骤:
S11、使用开源图片标记工具对每个路面图片中的路面目标进行轮廓提取,同时进行类别标注。
对路面目标进行轮廓提取以将路面目标从背景中分离出来,再对路面目标的类别进行标注,以对路面目标添加类别信息,在将点云数据投影到标注类别信息的图像后,实现对点云数据的分类。
路面目标的类别主要分为减速带、井盖和路面坑洼三大类。
S12、将完成类别标注的数据集按照6∶2∶2的比例划分成训练集、验证集和测试集。
将划分好的数据集转化成coco数据集的json文件,以便后续输入模型进行训练。训练集用于对训练模型网络进行训练,验证集用于对完成训练的训练模型网络进行验证,测试集用于对完成验证的训练模型网络进行测试。
S2、搭建基于图像语义分割的训练模型网络,将训练集输入训练模型网络进行训练,并将训练结果使用验证集进行验证,通过调整初始超参数使训练模型网络的性能达到最优。
在搭建训练模型网络的过程中,使用pytorch深度学习框架,搭建maskrcnn检测算法,使用Resnet101作为主干网络进行特征提取,使用FPN作为颈部网络进行特征融合,使用RPN网络进行区域建议,使用ROIAlign层调整特征尺寸,使用全卷积网络进行像素分类;
训练模型网络的损失函数Lfinal为:
Lfinal=L({pi},{ti})+(Lcls+Lbox+Lmask);
其中,L({pi},{ti})为训练RPN网络的损失,Lcls为类别损失,Lbox为目标框损失,Lmask为掩码损失。
搭建训练模型网络时使用迁移学习方法,作为主干网络的残差网络是在imagenet数据集预训练过后的网络。
ROIAlign层通过双线性差值法调整特征尺寸,利用路面图片中四个点的像素值计算目标值;其中,路面图片中四个点的四个点分别为Q11(x1,y1),Q12(x1,y2),Q21(x2,y1)和Q22(x2,y2);
首先,在x方向上进行线性插值,得到R1和R2两个点:
之后,在y方向上进行线性插值,通过R1、R2计算目标点P。
在将训练集输入训练模型网络进行训练之前,先设置初始超参数并对训练集进行数据增强。采用有监督的增强方式对训练集进行数据增强,在已有训练集的基础上对训练集的图片进行几何变换和颜色变换。
S3、将测试集输入完成训练的训练模型网络进行测试,计算训练模型网络识别路面目标的准确率、精确率和召回率,衡量训练模型网络的识别性能和泛化能力。
泛化能力就是指训练模型网络对新鲜样本的适应能力,而泛化能力与训练模型网络的预测新数据的准确率有关,在测试集中,训练模型网络预测新数据的准确率越高,训练模型网络的泛化能力越好。
路面目标的准确率Pacc的计算公式为:
Pacc=(TP+TN)/(TP+TN+FP+FN);
路面目标的精确率Ppre的计算公式为:
Ppre=TP/(TP+FP);
路面目标的召回率Pre的计算公式为:
Pre=TP/(TP+FN);
其中,TP表示将正类预测为正类数,TN表示将负类预测为负类数,FP表示将负类预测为正类数,FN表示将正类预测为负类数。
S4、将相机采集的图片输入到完成测试的训练模型网络中进行图像语义分割获得分割结果,将激光雷达采集的点云数据投影到相机采集的图片上,根据分割结果确定路面目标的类别。
由于maskrcnn检测算法就是语义分割算法,训练模型网络的作用就是对图像进行语义分割,也就是对路面图片进行像素级的分类。
在将激光雷达采集的点云数据投影到相机采集的图片上时,需要对点云数据进行坐标变换,通过坐标变换矩阵T将点云数据从激光雷达坐标系转换到相机坐标系下,再通过相机内参数矩阵K将点云数据投影于相机采集的图片上。
设Pc是点云数据Pl在相机坐标系下的坐标,使用旋转矩阵Rm和平移向量t,将Pc变换为Pl,则:
Pc=RmPl+t;
其中,Rm为3×3的旋转矩阵,t为3×1的平移向量,将Pc改写为齐次坐标的形式:
其中,Xc、Yc、Zc表示Pc的三维坐标;
将相机内参变换矩阵K写成齐次坐标的形式为:
其中,fx,fy分别为相机在u轴和v轴方向上的尺度因子,(cx,cy)为相机主点。
相机采集的图片输入到训练模型网络后,通过训练模型网络对图像进行语义分割,提取出路面目标并进行类别标注,当点云数据投影到该图片上时,根据对应的像素类别就可以点云数据的类别。
本发明实施例在晴天条件下进行测试,路面特征识别准率达到86.32%,在Ubuntu系统下,以Intel i7-9700,RTX3070的硬件条件下单帧处理时间小于0.1s。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
以上本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所作出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。
Claims (10)
1.一种基于计算机视觉识别的路面目标检测方法,其特征在于,包括如下步骤:
S1、制作数据集并从所述数据集中的每个路面图片中提取路面目标且对所述路面目标进行分类;
S2、搭建基于图像语义分割的训练模型网络,并通过所述数据集对所述训练模型网络进行训练;
S3、将相机采集的图片输入到完成训练的训练模型网络中进行图像语义分割获得分割结果,将激光雷达采集的点云数据投影到所述相机采集的图片上,根据所述分割结果确定所述路面目标的类别。
2.如权利要求1所述的基于计算机视觉识别的路面目标检测方法,其特征在于,所述步骤S1具体包括如下子步骤:
S11、使用开源图片标记工具对每个路面图片中的路面目标进行轮廓提取,同时进行类别标注;其中,所述路面目标的类别分为减速带、井盖和路面坑洼;
S12、将完成类别标注的数据集按照6∶2∶2的比例划分成训练集、验证集和测试集。
3.如权利要求1或2所述的基于计算机视觉识别的路面目标检测方法,其特征在于,将所述数据集分成训练集、验证集和测试集,以及步骤S2具体包括如下步骤:
S21、将所述训练集输入所述训练模型网络进行训练,并将训练结果使用所述验证集进行验证,通过调整初始超参数使所述训练模型网络的性能达到最优;
S22、将所述测试集输入完成训练的训练模型网络进行测试,计算所述训练模型网络识别路面目标的准确率、精确率和召回率,衡量所述训练模型网络的识别性能和泛化能力。
4.如权利要求3所述的基于计算机视觉识别的路面目标检测方法,其特征在于,在所述步骤S2搭建训练模型网络的过程中,使用pytorch深度学习框架,搭建maskrcnn检测算法,使用Resnet101作为主干网络进行特征提取,使用FPN作为颈部网络进行特征融合,使用RPN网络进行区域建议,使用ROIAlign层调整特征尺寸,使用全卷积网络进行像素分类;
所述训练模型网络的损失函数Lfinal为:
Lfinal=L({pi},{ti})+(Lcls+Lbox+Lmask);
其中,L({pi},{ti})为训练RPN网络的损失,Lcls为类别损失,Lbox为目标框损失,Lmask为掩码损失。
6.如权利要求3所述的基于计算机视觉识别的路面目标检测方法,其特征在于,在将所述训练集输入所述训练模型网络进行训练之前,先设置初始超参数并对所述训练集进行数据增强。
7.如权利要求6所述的基于计算机视觉识别的路面目标检测方法,其特征在于,对所述训练集中的路面图片进行几何变换和颜色变换,实现数据增强。
8.如权利要求3所述的基于计算机视觉识别的路面目标检测方法,其特征在于,所述路面目标的准确率Pacc的计算公式为:
Pacc=(TP+TN)/(TP+TN+FP+FN);
所述路面目标的精确率Ppre的计算公式为:
Ppre=TP/(TP+FP);
所述路面目标的召回率Pre的计算公式为:
Pre=TP/(TP+FN);
其中,TP表示将正类预测为正类数,TN表示将负类预测为负类数,FP表示将负类预测为正类数,FN表示将正类预测为负类数。
9.如权利要求1所述的基于计算机视觉识别的路面目标检测方法,其特征在于,所述步骤S4在将激光雷达采集的点云数据投影到所述相机采集的图片上的过程中,通过坐标变换矩阵T将点云数据置于相机坐标系下,再通过相机内参数矩阵K将点云数据投影于所述相机采集的图片上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210801989.0A CN115223123A (zh) | 2022-07-08 | 2022-07-08 | 基于计算机视觉识别的路面目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210801989.0A CN115223123A (zh) | 2022-07-08 | 2022-07-08 | 基于计算机视觉识别的路面目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115223123A true CN115223123A (zh) | 2022-10-21 |
Family
ID=83609933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210801989.0A Pending CN115223123A (zh) | 2022-07-08 | 2022-07-08 | 基于计算机视觉识别的路面目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115223123A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116413740A (zh) * | 2023-06-09 | 2023-07-11 | 广汽埃安新能源汽车股份有限公司 | 一种激光雷达点云地面检测方法及装置 |
TWI831552B (zh) * | 2022-12-30 | 2024-02-01 | 鴻海精密工業股份有限公司 | 圖像識別模型訓練方法、圖像深度識別方法及相關設備 |
-
2022
- 2022-07-08 CN CN202210801989.0A patent/CN115223123A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI831552B (zh) * | 2022-12-30 | 2024-02-01 | 鴻海精密工業股份有限公司 | 圖像識別模型訓練方法、圖像深度識別方法及相關設備 |
CN116413740A (zh) * | 2023-06-09 | 2023-07-11 | 广汽埃安新能源汽车股份有限公司 | 一种激光雷达点云地面检测方法及装置 |
CN116413740B (zh) * | 2023-06-09 | 2023-09-05 | 广汽埃安新能源汽车股份有限公司 | 一种激光雷达点云地面检测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110942000B (zh) | 一种基于深度学习的无人驾驶车辆目标检测方法 | |
CN108830188B (zh) | 基于深度学习的车辆检测方法 | |
CN107563372B (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
US11144889B2 (en) | Automatic assessment of damage and repair costs in vehicles | |
US11144786B2 (en) | Information processing apparatus, method for controlling information processing apparatus, and storage medium | |
CN106875381B (zh) | 一种基于深度学习的手机外壳缺陷检测方法 | |
JP6897335B2 (ja) | 学習プログラム、学習方法および物体検知装置 | |
CN115223123A (zh) | 基于计算机视觉识别的路面目标检测方法 | |
CN113033604B (zh) | 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质 | |
US20070058856A1 (en) | Character recoginition in video data | |
CN107545263B (zh) | 一种物体检测方法及装置 | |
Nandi et al. | Traffic sign detection based on color segmentation of obscure image candidates: a comprehensive study | |
CN105989334B (zh) | 基于单目视觉的道路检测方法 | |
CN111340855A (zh) | 一种基于轨迹预测的道路移动目标检测方法 | |
CN108960074B (zh) | 基于深度学习的小尺寸行人目标检测方法 | |
CN113066047A (zh) | 轮胎x射线图像杂质缺陷检测方法 | |
CN111126393A (zh) | 车辆外观改装判断方法、装置、计算机设备及存储介质 | |
CN115376089A (zh) | 一种基于深度学习的车道线检测方法 | |
CN109977862B (zh) | 一种车位限位器的识别方法 | |
Fan et al. | Covered vehicle detection in autonomous driving based on faster rcnn | |
CN108830182B (zh) | 一种基于级联卷积神经网络的道线检测方法 | |
CN114898306B (zh) | 一种检测目标朝向的方法、装置及电子设备 | |
CN116468931A (zh) | 车辆部件检测方法、装置、终端及存储介质 | |
CN114067186B (zh) | 一种行人检测方法、装置、电子设备及存储介质 | |
CN115512330A (zh) | 基于图像分割与激光雷达点云补全的物体检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |