CN115223123A - 基于计算机视觉识别的路面目标检测方法 - Google Patents

基于计算机视觉识别的路面目标检测方法 Download PDF

Info

Publication number
CN115223123A
CN115223123A CN202210801989.0A CN202210801989A CN115223123A CN 115223123 A CN115223123 A CN 115223123A CN 202210801989 A CN202210801989 A CN 202210801989A CN 115223123 A CN115223123 A CN 115223123A
Authority
CN
China
Prior art keywords
road surface
training
target
model network
training model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210801989.0A
Other languages
English (en)
Inventor
赵添一郎
张博宇
董志圣
李朝健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Kong Hui Automobile Technology Co ltd
Original Assignee
Zhejiang Kong Hui Automobile Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Kong Hui Automobile Technology Co ltd filed Critical Zhejiang Kong Hui Automobile Technology Co ltd
Priority to CN202210801989.0A priority Critical patent/CN115223123A/zh
Publication of CN115223123A publication Critical patent/CN115223123A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于计算机视觉识别的路面目标检测方法,包括S1、制作数据集并从数据集中的每个路面图片中提取路面目标且对路面目标进行分类;S2、搭建基于图像语义分割的训练模型网络,通过数据集对训练模型网络进行训练,使训练模型网络的性能达到最优;S3、将相机采集的图片输入到完成测试的训练模型网络中进行图像语义分割获得分割结果,将激光雷达采集的点云数据投影到相机采集的图片上,根据分割结果确定路面目标的类别。本发明使用语义分割方法对路面目标进行检测与识别,可以更准确的提取路面坑洼等不规则的轮廓信息,以便精确的进行点云分类。

Description

基于计算机视觉识别的路面目标检测方法
技术领域
本发明涉及视觉识别图像语义分割技术领域,特别涉及一种基于计算机视觉识别的路面目标检测方法。
背景技术
随着计算机视觉及智能驾驶感知技术的蓬勃发展,促进了主动悬架系统路面预瞄技术的变革,由最初的轴间预瞄发展为加装摄像头或激光雷达等可以采集路面三维数据的传感器,提前采集路面激励输入主动悬架系统的车前预瞄。但是由于没有类别标签信息,仅利用三维信息的车前预瞄容易对路面上的柔性物体如塑料袋、树叶等产生误判,造成悬架系统的错误动作,导致车辆舒适性和安全性的降低。同时路面上的坑洼多为不规则形状,若采用一般目标检测方法识别路面目标,算法框出的目标范围并不能很好贴合目标轮廓,导致悬架系统针对目标的动作精度降低。
发明内容
本发明的目的是为了克服已有技术的缺陷,提出一种基于计算机视觉识别的路面目标检测方法,通过对路面目标进行检测和分类,同时提供像素级的目标检测精度,提高悬架系统的动作精度和控制效果,保证车辆的舒适性和安全性。
为实现上述目的,本发明采用以下具体技术方案:
本发明提供的基于计算机视觉识别的路面目标检测方法,其特征在于,包括如下步骤:
S1、制作数据集并从所述数据集中的每个路面图片中提取路面目标且对所述路面目标进行分类;
S2、搭建基于图像语义分割的训练模型网络,并通过所述数据集对所述训练模型网络进行训练;
S3、将相机采集的图片输入到完成训练的训练模型网络中进行图像语义分割获得分割结果,将激光雷达采集的点云数据投影到所述相机采集的图片上,根据所述分割结果确定所述路面目标的类别。
优选地,步骤S1具体包括如下子步骤:
S11、使用开源图片标记工具对每个路面图片中的路面目标进行轮廓提取,同时进行类别标注;其中,路面目标的类别分为减速带、井盖和路面坑洼;
S12、将完成类别标注的数据集按照6∶2∶2的比例划分成训练集、验证集和测试集。
优选地,将数据集分成训练集、验证集和测试集,以及步骤S2具体包括如下步骤:
S21、将所述训练集输入训练模型网络进行训练,并将训练结果使用验证集进行验证,通过调整初始超参数使训练模型网络的性能达到最优;
S22、将测试集输入完成训练的训练模型网络进行测试,计算训练模型网络识别路面目标的准确率、精确率和召回率,衡量训练模型网络的识别性能和泛化能力。
优选地,在步骤S2搭建训练模型网络的过程中,使用pytorch深度学习框架,搭建maskrcnn检测算法,使用Resnet101作为主干网络进行特征提取,使用FPN作为颈部网络进行特征融合,使用RPN网络进行区域建议,使用ROIAlign层调整特征尺寸,使用全卷积网络进行像素分类;
训练模型网络的损失函数Lfinal为:
Lfinal=L({pi},{ti})+(Lcls+Lbox+Lmask);
其中,L({pi},{ti})为训练RPN网络的损失,Lcls为类别损失,Lbox为目标框损失,Lmask为掩码损失。
优选地,ROIAlign层通过双线性差值法调整特征尺寸,利用路面图片中四个点的像素值计算目标值;其中,路面图片中四个点的四个点分别为Q11(x1,y1),Q12(x1,y2),Q21(x2,y1)和Q22(x2,y2);
首先,在x方向上进行线性插值,得到R1和R2两个点:
Figure BDA0003738132390000031
Figure BDA0003738132390000032
之后,在y方向上进行线性插值,通过R1、R2计算目标点P。
Figure BDA0003738132390000033
优选地,在将训练集输入训练模型网络进行训练之前,先设置初始超参数并对训练集进行数据增强。
优选地,对训练集中的路面图片进行几何变换和颜色变换,实现数据增强。
优选地,路面目标的准确率Pacc的计算公式为:
Pacc=(TP+TN)/(TP+TN+FP+FN);
路面目标的精确率Ppre的计算公式为:
Ppre=TP/(TP+FP);
路面目标的召回率Pre的计算公式为:
Pre=TP/(TP+FN);
其中,TP表示将正类预测为正类数,TN表示将负类预测为负类数,FP表示将负类预测为正类数,FN表示将正类预测为负类数。
优选地,步骤S4在将激光雷达采集的点云数据投影到相机采集的图片上的过程中,通过坐标变换矩阵T将点云数据置于相机坐标系下,再通过相机内参数矩阵K将点云数据投影于相机采集的图片上。
优选地,设Pc是点云数据Pl在相机坐标系下的坐标,使用旋转矩阵Rm和平移向量t,将Pc变换为Pl,则:
Pc=RmPl+t;
其中,Rm为3×3的旋转矩阵,t为3×1的平移向量,将Pc改写为齐次坐标的形式:
Figure BDA0003738132390000041
其中,Xc、Yc、Zc表示Pc的三维坐标;
相机内参变换矩阵K写成齐次坐标的形式为:
Figure BDA0003738132390000042
其中,fx,fy分别为相机在u轴和v轴方向上的尺度因子,(cx,cy)为相机主点。
本发明能够取得如下技术效果:
1、本发明使用语义分割方法对路面目标进行检测与识别,可以更准确的提取路面坑洼等不规则的轮廓信息,以便精确的进行点云分类;
2、本发明通过投影对点云数据增加类别信息,保证悬架的正确动作,提高车辆的舒适性及安全性;
3、本发明使用maskrcnn检测方法进行路面检测,其对于路面目标的检测精度,准确率更高。
附图说明
图1是根据本发明实施例提供的基于计算机视觉识别的路面目标检测方法的流程示意图。
具体实施方式
在下文中,将参考附图描述本发明的实施例。在下面的描述中,相同的模块使用相同的附图标记表示。在相同的附图标记的情况下,它们的名称和功能也相同。因此,将不重复其详细描述。
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,而不构成对本发明的限制。
图1示出了根据本发明实施例提供的基于计算机视觉识别的路面目标检测方法的流程。
如图1所示,本发明实施例提供的基于计算机视觉识别的路面目标检测方法,包括入下步骤:
S1、制作数据集并从数据集中的每个路面图片中提取路面目标且对路面目标进行分类;其中,将所述数据集分成训练集、验证集和测试集。
步骤S1具体包括如下子步骤:
S11、使用开源图片标记工具对每个路面图片中的路面目标进行轮廓提取,同时进行类别标注。
对路面目标进行轮廓提取以将路面目标从背景中分离出来,再对路面目标的类别进行标注,以对路面目标添加类别信息,在将点云数据投影到标注类别信息的图像后,实现对点云数据的分类。
路面目标的类别主要分为减速带、井盖和路面坑洼三大类。
S12、将完成类别标注的数据集按照6∶2∶2的比例划分成训练集、验证集和测试集。
将划分好的数据集转化成coco数据集的json文件,以便后续输入模型进行训练。训练集用于对训练模型网络进行训练,验证集用于对完成训练的训练模型网络进行验证,测试集用于对完成验证的训练模型网络进行测试。
S2、搭建基于图像语义分割的训练模型网络,将训练集输入训练模型网络进行训练,并将训练结果使用验证集进行验证,通过调整初始超参数使训练模型网络的性能达到最优。
在搭建训练模型网络的过程中,使用pytorch深度学习框架,搭建maskrcnn检测算法,使用Resnet101作为主干网络进行特征提取,使用FPN作为颈部网络进行特征融合,使用RPN网络进行区域建议,使用ROIAlign层调整特征尺寸,使用全卷积网络进行像素分类;
训练模型网络的损失函数Lfinal为:
Lfinal=L({pi},{ti})+(Lcls+Lbox+Lmask);
其中,L({pi},{ti})为训练RPN网络的损失,Lcls为类别损失,Lbox为目标框损失,Lmask为掩码损失。
搭建训练模型网络时使用迁移学习方法,作为主干网络的残差网络是在imagenet数据集预训练过后的网络。
ROIAlign层通过双线性差值法调整特征尺寸,利用路面图片中四个点的像素值计算目标值;其中,路面图片中四个点的四个点分别为Q11(x1,y1),Q12(x1,y2),Q21(x2,y1)和Q22(x2,y2);
首先,在x方向上进行线性插值,得到R1和R2两个点:
Figure BDA0003738132390000061
Figure BDA0003738132390000062
之后,在y方向上进行线性插值,通过R1、R2计算目标点P。
Figure BDA0003738132390000063
在将训练集输入训练模型网络进行训练之前,先设置初始超参数并对训练集进行数据增强。采用有监督的增强方式对训练集进行数据增强,在已有训练集的基础上对训练集的图片进行几何变换和颜色变换。
S3、将测试集输入完成训练的训练模型网络进行测试,计算训练模型网络识别路面目标的准确率、精确率和召回率,衡量训练模型网络的识别性能和泛化能力。
泛化能力就是指训练模型网络对新鲜样本的适应能力,而泛化能力与训练模型网络的预测新数据的准确率有关,在测试集中,训练模型网络预测新数据的准确率越高,训练模型网络的泛化能力越好。
路面目标的准确率Pacc的计算公式为:
Pacc=(TP+TN)/(TP+TN+FP+FN);
路面目标的精确率Ppre的计算公式为:
Ppre=TP/(TP+FP);
路面目标的召回率Pre的计算公式为:
Pre=TP/(TP+FN);
其中,TP表示将正类预测为正类数,TN表示将负类预测为负类数,FP表示将负类预测为正类数,FN表示将正类预测为负类数。
S4、将相机采集的图片输入到完成测试的训练模型网络中进行图像语义分割获得分割结果,将激光雷达采集的点云数据投影到相机采集的图片上,根据分割结果确定路面目标的类别。
由于maskrcnn检测算法就是语义分割算法,训练模型网络的作用就是对图像进行语义分割,也就是对路面图片进行像素级的分类。
在将激光雷达采集的点云数据投影到相机采集的图片上时,需要对点云数据进行坐标变换,通过坐标变换矩阵T将点云数据从激光雷达坐标系转换到相机坐标系下,再通过相机内参数矩阵K将点云数据投影于相机采集的图片上。
设Pc是点云数据Pl在相机坐标系下的坐标,使用旋转矩阵Rm和平移向量t,将Pc变换为Pl,则:
Pc=RmPl+t;
其中,Rm为3×3的旋转矩阵,t为3×1的平移向量,将Pc改写为齐次坐标的形式:
Figure BDA0003738132390000071
其中,Xc、Yc、Zc表示Pc的三维坐标;
将相机内参变换矩阵K写成齐次坐标的形式为:
Figure BDA0003738132390000072
其中,fx,fy分别为相机在u轴和v轴方向上的尺度因子,(cx,cy)为相机主点。
相机采集的图片输入到训练模型网络后,通过训练模型网络对图像进行语义分割,提取出路面目标并进行类别标注,当点云数据投影到该图片上时,根据对应的像素类别就可以点云数据的类别。
本发明实施例在晴天条件下进行测试,路面特征识别准率达到86.32%,在Ubuntu系统下,以Intel i7-9700,RTX3070的硬件条件下单帧处理时间小于0.1s。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
以上本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所作出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。

Claims (10)

1.一种基于计算机视觉识别的路面目标检测方法,其特征在于,包括如下步骤:
S1、制作数据集并从所述数据集中的每个路面图片中提取路面目标且对所述路面目标进行分类;
S2、搭建基于图像语义分割的训练模型网络,并通过所述数据集对所述训练模型网络进行训练;
S3、将相机采集的图片输入到完成训练的训练模型网络中进行图像语义分割获得分割结果,将激光雷达采集的点云数据投影到所述相机采集的图片上,根据所述分割结果确定所述路面目标的类别。
2.如权利要求1所述的基于计算机视觉识别的路面目标检测方法,其特征在于,所述步骤S1具体包括如下子步骤:
S11、使用开源图片标记工具对每个路面图片中的路面目标进行轮廓提取,同时进行类别标注;其中,所述路面目标的类别分为减速带、井盖和路面坑洼;
S12、将完成类别标注的数据集按照6∶2∶2的比例划分成训练集、验证集和测试集。
3.如权利要求1或2所述的基于计算机视觉识别的路面目标检测方法,其特征在于,将所述数据集分成训练集、验证集和测试集,以及步骤S2具体包括如下步骤:
S21、将所述训练集输入所述训练模型网络进行训练,并将训练结果使用所述验证集进行验证,通过调整初始超参数使所述训练模型网络的性能达到最优;
S22、将所述测试集输入完成训练的训练模型网络进行测试,计算所述训练模型网络识别路面目标的准确率、精确率和召回率,衡量所述训练模型网络的识别性能和泛化能力。
4.如权利要求3所述的基于计算机视觉识别的路面目标检测方法,其特征在于,在所述步骤S2搭建训练模型网络的过程中,使用pytorch深度学习框架,搭建maskrcnn检测算法,使用Resnet101作为主干网络进行特征提取,使用FPN作为颈部网络进行特征融合,使用RPN网络进行区域建议,使用ROIAlign层调整特征尺寸,使用全卷积网络进行像素分类;
所述训练模型网络的损失函数Lfinal为:
Lfinal=L({pi},{ti})+(Lcls+Lbox+Lmask);
其中,L({pi},{ti})为训练RPN网络的损失,Lcls为类别损失,Lbox为目标框损失,Lmask为掩码损失。
5.如权利要求4所述的基于计算机视觉识别的路面目标检测方法,其特征在于,所述ROIAlign层通过双线性差值法调整特征尺寸,利用路面图片中四个点的像素值计算目标值;其中,路面图片中四个点的四个点分别为Q11(x1,y1),Q12(x1,y2),Q21(x2,y1)和Q22(x2,y2);
首先,在x方向上进行线性插值,得到R1和R2两个点:
Figure FDA0003738132380000021
Figure FDA0003738132380000022
之后,在y方向上进行线性插值,通过R1、R2计算目标点P。
Figure FDA0003738132380000023
6.如权利要求3所述的基于计算机视觉识别的路面目标检测方法,其特征在于,在将所述训练集输入所述训练模型网络进行训练之前,先设置初始超参数并对所述训练集进行数据增强。
7.如权利要求6所述的基于计算机视觉识别的路面目标检测方法,其特征在于,对所述训练集中的路面图片进行几何变换和颜色变换,实现数据增强。
8.如权利要求3所述的基于计算机视觉识别的路面目标检测方法,其特征在于,所述路面目标的准确率Pacc的计算公式为:
Pacc=(TP+TN)/(TP+TN+FP+FN);
所述路面目标的精确率Ppre的计算公式为:
Ppre=TP/(TP+FP);
所述路面目标的召回率Pre的计算公式为:
Pre=TP/(TP+FN);
其中,TP表示将正类预测为正类数,TN表示将负类预测为负类数,FP表示将负类预测为正类数,FN表示将正类预测为负类数。
9.如权利要求1所述的基于计算机视觉识别的路面目标检测方法,其特征在于,所述步骤S4在将激光雷达采集的点云数据投影到所述相机采集的图片上的过程中,通过坐标变换矩阵T将点云数据置于相机坐标系下,再通过相机内参数矩阵K将点云数据投影于所述相机采集的图片上。
10.如权利要求9所述的基于计算机视觉识别的路面目标检测方法,其特征在于,设Pc是点云数据Pl在相机坐标系下的坐标,使用旋转矩阵Rm和平移向量t,将Pc变换为Pl,则:
Pc=RmPl+t;
其中,Rm为3×3的旋转矩阵,t为3×1的平移向量,将Pc改写为齐次坐标的形式:
Figure FDA0003738132380000031
相机内参变换矩阵K写成齐次坐标的形式为:
Figure FDA0003738132380000032
其中,fx,fy分别为相机在u轴和v轴方向上的尺度因子,(cx,cy)为相机主点。
CN202210801989.0A 2022-07-08 2022-07-08 基于计算机视觉识别的路面目标检测方法 Pending CN115223123A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210801989.0A CN115223123A (zh) 2022-07-08 2022-07-08 基于计算机视觉识别的路面目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210801989.0A CN115223123A (zh) 2022-07-08 2022-07-08 基于计算机视觉识别的路面目标检测方法

Publications (1)

Publication Number Publication Date
CN115223123A true CN115223123A (zh) 2022-10-21

Family

ID=83609933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210801989.0A Pending CN115223123A (zh) 2022-07-08 2022-07-08 基于计算机视觉识别的路面目标检测方法

Country Status (1)

Country Link
CN (1) CN115223123A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116413740A (zh) * 2023-06-09 2023-07-11 广汽埃安新能源汽车股份有限公司 一种激光雷达点云地面检测方法及装置
TWI831552B (zh) * 2022-12-30 2024-02-01 鴻海精密工業股份有限公司 圖像識別模型訓練方法、圖像深度識別方法及相關設備

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI831552B (zh) * 2022-12-30 2024-02-01 鴻海精密工業股份有限公司 圖像識別模型訓練方法、圖像深度識別方法及相關設備
CN116413740A (zh) * 2023-06-09 2023-07-11 广汽埃安新能源汽车股份有限公司 一种激光雷达点云地面检测方法及装置
CN116413740B (zh) * 2023-06-09 2023-09-05 广汽埃安新能源汽车股份有限公司 一种激光雷达点云地面检测方法及装置

Similar Documents

Publication Publication Date Title
CN110942000B (zh) 一种基于深度学习的无人驾驶车辆目标检测方法
CN108830188B (zh) 基于深度学习的车辆检测方法
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
US11144889B2 (en) Automatic assessment of damage and repair costs in vehicles
US11144786B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
CN106875381B (zh) 一种基于深度学习的手机外壳缺陷检测方法
JP6897335B2 (ja) 学習プログラム、学習方法および物体検知装置
CN115223123A (zh) 基于计算机视觉识别的路面目标检测方法
CN113033604B (zh) 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质
US20070058856A1 (en) Character recoginition in video data
CN107545263B (zh) 一种物体检测方法及装置
Nandi et al. Traffic sign detection based on color segmentation of obscure image candidates: a comprehensive study
CN105989334B (zh) 基于单目视觉的道路检测方法
CN111340855A (zh) 一种基于轨迹预测的道路移动目标检测方法
CN108960074B (zh) 基于深度学习的小尺寸行人目标检测方法
CN113066047A (zh) 轮胎x射线图像杂质缺陷检测方法
CN111126393A (zh) 车辆外观改装判断方法、装置、计算机设备及存储介质
CN115376089A (zh) 一种基于深度学习的车道线检测方法
CN109977862B (zh) 一种车位限位器的识别方法
Fan et al. Covered vehicle detection in autonomous driving based on faster rcnn
CN108830182B (zh) 一种基于级联卷积神经网络的道线检测方法
CN114898306B (zh) 一种检测目标朝向的方法、装置及电子设备
CN116468931A (zh) 车辆部件检测方法、装置、终端及存储介质
CN114067186B (zh) 一种行人检测方法、装置、电子设备及存储介质
CN115512330A (zh) 基于图像分割与激光雷达点云补全的物体检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination