CN117854031A - 一种斑马线检测方法及装置、相关产品 - Google Patents
一种斑马线检测方法及装置、相关产品 Download PDFInfo
- Publication number
- CN117854031A CN117854031A CN202211202194.4A CN202211202194A CN117854031A CN 117854031 A CN117854031 A CN 117854031A CN 202211202194 A CN202211202194 A CN 202211202194A CN 117854031 A CN117854031 A CN 117854031A
- Authority
- CN
- China
- Prior art keywords
- zebra
- image
- detection
- corner
- zebra crossing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000283070 Equus zebra Species 0.000 title claims abstract description 206
- 238000001514 detection method Methods 0.000 title claims abstract description 181
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 40
- 238000012549 training Methods 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 19
- 238000013135 deep learning Methods 0.000 claims description 12
- 230000001360 synchronised effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010865 sewage Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种斑马线检测方法及装置、相关产品,方法包括:获取车辆前视图像,通过斑马线检测模型检测车辆前视图像,生成斑马线检测框;提取斑马线检测框中的图像,生成第一目标图像数据;将第一目标图像数据进行灰度化处理,生成第二目标图像数据;根据角点检测算法对第二目标图像数据进行角点检测,生成角点图像坐标集;连接角点图像坐标集中的顶点图像坐标,生成图像坐标系下的第一斑马线区域信息。本发明实施例提供的斑马线检测方法通过生成斑马线在图像中的检测框,对检测框内的斑马线图像进行角点检测,减少了原始图像中的冗余信息,提高了检测效率;再从角点中找到顶点图像坐标,从而准确的生成斑马线的实际区域。
Description
技术领域
本发明涉及自动驾驶领域,尤其涉及一种斑马线检测方法、装置、程序产品、介质、计算机装置和移动工具。
背景技术
自动驾驶车辆通过车身传感器实时获取周围环境信息,如车辆、行人等动态障碍物和路面上的车道线、标志牌等静态交通指示信息。其中,对斑马线进行实时准确的识别可以确保自动驾驶车辆能够在邻近斑马线时提前减速,提升自动驾驶的安全性。
目前,针对斑马线的视觉检测方法主要有两类,一类是通过视觉加传统图像算法,该类方法通过传统图像处理的方式先寻找感兴趣区域,粗略的框出斑马线区域,再通过传统图像处理中的逆透视变换、滤波、边缘检测等方法,找到斑马的所有边缘特征,再使用统计或直方图的方法,按照斑马线的等间距特性,计算斑马线的准确区域。一类是一类是视觉加深度学习算法,该类方法通过深度学习的目标检测模型,在候选区域进行生成、特征提取、分类、位置微调等步骤,确定目标的类别和位置。
实际采集的斑马线图像数据,由于道路面的复杂情况,通常会出现不清晰、缺损或被遮挡等现象,单一使用传统图像算法需要根据实际道路面情况调整算法参数,数据处理难度增加,识别效果不理想,同时,单一的传统图像算法特征学习能力差,精度低。
单一的深度学习算法通过目标检测模型输出的结果都是水平矩形的锚框,对于类似斑马线这种长条形状图像角度经常倾斜的目标,无法直接准确定位到斑马线的实际区域。
发明内容
本发明的目的是针对现有技术的缺陷,提供一种斑马线检测方法及装置、相关产品,以解决现有技术中斑马线检测存在的问题。
为实现上述目的,本发明第一方面提供了一种斑马线检测方法,所述方法包括:
获取车辆前视图像,通过斑马线检测模型检测所述车辆前视图像,生成斑马线检测框;
提取所述斑马线检测框中的图像,生成第一目标图像数据;
将所述第一目标图像数据进行灰度化处理,生成第二目标图像数据;
根据角点检测算法对所述第二目标图像数据进行角点检测,生成角点图像坐标集;
连接所述角点图像坐标集中的顶点图像坐标,生成图像坐标系下的第一斑马线区域信息,所述顶点图像坐标为位于所述检测框的左上、右上、左下和右下的角点图像坐标。
进一步,所述连接所述角点图像坐标集中的顶点图像坐标,生成图像坐标系下的第一斑马线区域信息,之后,所述方法还包括:
获取同步激光点云数据,根据所述激光点云数据将所述顶点图像坐标转换为顶点世界坐标;
连接所述顶点世界坐标,生成世界坐标系下的第二斑马线区域信息。
进一步,所述通过斑马线检测模型检测所述车辆前视图像,生成斑马线检测框,具体为:
通过深度学习目标检测模型对斑马线图像数据训练集进行训练,生成所述斑马线检测模型;
输入车辆前视图像数据至所述斑马线检测模型,生成斑马线检测框。
进一步,所述检测框的左上、右上、左下和右下的角点图像坐标为所述角点图像坐标集中横坐标或纵坐标为最大或最小的角点图像坐标;
或为所述角点图像坐标集中与所述斑马线检测框的四个顶点距离最近的角点图像坐标。
进一步,所述深度学习目标检测模型采用YOLO算法。
进一步,所述角点检测算法为ORB算法。
本发明第二方面提供了一种斑马线检测装置,所述斑马线检测装置包括:
第一数据处理模块,用于获取车辆前视图像,通过斑马线检测模型检测所述车辆前视图像,生成斑马线检测框;
第二数据处理模块,用于提取所述斑马线检测框中的图像,生成第一目标图像数据;
第三数据处理模块,用于将所述第一目标图像数据进行灰度化处理,生成第二目标图像数据;
第四数据处理模块,用于根据角点检测算法对所述第二目标图像数据进行角点检测,生成角点图像坐标集;
所述第四数据处理模块,还用于连接所述角点图像坐标集中的顶点图像坐标,生成图像坐标系下的第一斑马线区域信息,所述顶点图像坐标为位于所述检测框的左上、右上、左下和右下的角点图像坐标。
本发明第三方面提供了一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如第一方面任一项所述的斑马线检测方法。
本发明第四方面提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现第一方面任一项所述斑马线检测方法的步骤。
本发明第五方面提供了一种计算机装置,包括存储器、处理器及存储在存储器上的计算机程序,所述处理器执行所述计算机程序以实现第一方面任一项所述斑马线检测方法的步骤。
本发明第六方面提供了一种移动工具,其特征在于,包括第五方面所述的计算机装置。
本发明提供的斑马线检测方法及装置、相关产品,先通过斑马线检测模型生成斑马线在图像中的检测框,对检测框内的斑马线图像通过角点检测算法进行所有角点的检测,减少了原始图像中的冗余信息,提高了检测效率;再从检测得到的检测框内的每条斑马线的角点中,找到并连接角点中的顶点图像坐标,从而准确的生成斑马线的实际区域。
附图说明
图1为本发明实施例一提供的斑马线检测方法的流程图之一;
图2为本发明实施例一提供的斑马线检测框示意图;
图3为本发明实施例一提供的斑马线角点检测示意图;
图4为本发明实施例一提供的斑马线区域顶点示意图;
图5为本发明实施例一提供的斑马线检测方法的流程图之二;
图6为本发明实施例二提供的斑马线检测装置结构示意图;
图7为本发明实施例三提供的计算机程序产品结构示意图;
图8为本发明实施例五提供的计算机装置结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
本发明实施例提供的斑马线检测方法,先通过由深度学习目标检测模型和斑马线图像数据训练集训练得到的斑马线检测模型生成斑马线在图像中的方形检测框,对检测框内的每条长条形的斑马线图像通过角点检测算法进行四个角点的检测,再从检测框内的所有斑马线的角点中,找到并连接角点中位于检测框的左上、右上、左下和右下的顶点图像坐标,从而准确的生成斑马线的实际区域。通过先检测出斑马线的大致区域,可以减少原始图像的冗余信息,在识别出斑马线的初步区域后,由于斑马线的四角特性,可通过简单的角点检测方式结合顶点判断,可准确的生成斑马线的实际覆盖区域,为自动驾驶决策模块提供更精确的数据。
实施例一
本申请的执行主体为具有计算功能的终端、服务器或者处理器。示例而非限定,本申请以将该方法应用在自动驾驶车为例进行说明,当将该方法应用在自动驾驶车时,该方法的执行主体为自动驾驶车控制单元,也称自动驾驶域控制器,其具备感知、定位、路径规划、决策控制、通讯等能力,通常外接摄像头、毫米波雷达、激光雷达、惯性测量单元IMU等传感器。图1为本发明实施例一提供的斑马线检测方法的流程图之一,如图1所示,方法包括:
步骤110,获取车辆前视图像,通过斑马线检测模型检测所述车辆前视图像,生成斑马线检测框。
车辆的前视图像可通过车载摄像头进行图像数据采集,采集的每帧图像按时序依次送入斑马线检测模型进行斑马线的位置初步判断,生成斑马线检测框。
在一种可选的方案中,通过斑马线检测模型检测车辆前视图像,生成斑马线检测框,具体为:
S1,通过深度学习目标检测模型对斑马线图像数据训练集进行训练,生成斑马线检测模型。
在一种可能的实施方式中,深度学习目标检测模型采用YOLO算法,YOLO算法为一种单次目标检测算法,单次目标检测算法使用神经网络作为特征提取器,后面接一个卷积层,并在之后根据输出的类别数和锚框添加自定义卷积层,最后直接采用卷积进行检测。YOLO将物体检测任务直接当做回归问题来处理,将候选区和检测两个阶段合二而一,整张图作为网络的输入,直接在输出层回归包含物体的矩形框位置和类别,检测速度快。YOLO算法目前已更新到第七版本,即YOLOv7,本实施例以第5版本,即YOLOv5进行说明。
其中,斑马线图像数据训练集包含多张斑马线图像数据和相对应的斑马线区域标注数据,用于训练的斑马线图像数据可从网络上随机爬取,对爬取的每张图片中的待识别物斑马线区域用矩形框标注位置,包含矩形框的四个角的角点坐标和标注类别,本实施例中的训练对象只有斑马线,标注类别为1种。
其中,为保障深度学习目标检测模型的训练效果,图像保证多样性,如一天中不同时间、不同季节、不同天气、不同光照、不同角度,不同来源,其中不同来源可以是在线抓取、本地手机和不同相机等的图像。保证标签的准确性,标签的矩形框必须紧密包围每个对象,每张图片内的任何对象不可缺少标签。为避免斑马线区域类似斑马线的长条形有间隔的栅栏或路障导致的误报,可在斑马线图像数据训练集增加多张不包括斑马线的背景图片参与训练。
按预设的训练轮数进行训练,生成训练结果并保存训练指标最好的一轮模型结果;判断训练结果参数中的置信度是否达到预设置信度,若达到预设置信度,将该最后一轮训练后的检测模型设置为斑马线检测模型;若未达到预设置信度,对最后一轮训练后的检测模型继续按预设的训练轮数进行训练,直到训练结果参数中的置信度达到预设置信度,将最终达到预设置信度的检测模型设置为斑马线检测模型。
S2,输入车辆前视图像数据至所述斑马线检测模型,生成斑马线检测框。
其中,斑马线检测模型为采用YOLO算法训练完成后的用于只对斑马线区域进行检测的模型,斑马线检测模型的输入端为车辆前视图像数据,输出端为标记有斑马线检测框的车辆前视图像数据,斑马线检测框为轴对齐方框。图2为本发明实施例一提供的斑马线检测框示意图,如图2所示,包括斑马线1、斑马线检测框2和前视图像边框3。多条斑马线1组成的斑马线区域在车辆前视图中为上窄下宽的梯形,斑马线检测框2为轴对齐封闭的边界框,可粗略标定出斑马线区域的位置。
步骤120,提取所述斑马线检测框中的图像,生成第一目标图像数据。
由于摄像头所获取到的斑马线区域不是矩形,通常是梯形或其它四边形形状,因此矩形框会比真实斑马线位置更宽,即斑马线检测框中的图像为斑马线区域的粗略定位。根据S2中斑马线检测框的标记位置提取出斑马线检测框中的图像,作为感兴趣区域图像,生成第一目标图像数据,第一目标图像数据较车辆前视图像数据去掉了大量的冗余信息。
步骤130,将所述第一目标图像数据进行灰度化处理,生成第二目标图像数据。
其中,第一目标图像数据为RGB图像,在对斑马线区域识别的过程中,只需要根据其形状特征进行识别,与颜色无关,将第一目标图像数据转成灰度图像可减小数据量占用内存小,简化矩阵,提高运算速度。根据彩色图像的RGB值,灰度化处理可采用浮点算法、整数算法、移位算法、平均值法等。在一种可能的实施方式中,在对第一目标图像数据进行灰度化处理还包括对灰度化处理后的第一目标图像数据进行去燥处理,去除图中与斑马线灰度相似的杂点,可选用高斯滤波器去除噪声信息。
步骤140,根据角点检测算法对所述第二目标图像数据进行角点检测,生成角点图像坐标集。
斑马线条纹具有固定的特点,每条条纹由四条直线围成,交点处有明显的角点,即使前视图像会有角度变形,但是角点的特点具有不变性,在进行斑马线检测时,不需要对斑马线进行复杂的边缘检测,只需检测出每条斑马线的四个角点即可定位整条斑马线的位置。
在一种可能的实施方式中,采用基于亮度的角点检测算法进行角点检测,该算法通过比对灰度图中像素点与周围领域内足够多的像素点处于不同的区域,则该像素点可能为角点。可选的,采用ORB(Oriented FAST and Rotated BRIEF)算法,ORB算法先由Oriented FAST快速特征点提取算法获取特征点,再由Rotated BRIEF描述算法对获取的特征点周围图像区域进行特征描述,通常为一个向量,通过ORB算法获取的角点图像坐标集内的每个元素包括一个角点的图像坐标和对该角点图像坐标的描述。
图3为本发明实施例一提供的斑马线角点检测示意图,如图3所示,包括斑马线1、斑马线检测框2和角点4。斑马线检测框2内的区域为从前视图像中提取出的斑马线区域,在斑马线区域内,通过ORB算法对斑马线区域内的图像进行角点检测,每条斑马线具有突出的4个位于四个角上的特征点,且与斑马线相交的路面背景单一、灰度趋于一致,无干扰点,特征点易于检测,在对角点检测算法进行选择时,选择快速特征点提取算法能同时满足检测准确度和速度。
步骤150,连接所述角点图像坐标集中的顶点图像坐标,生成图像坐标系下的第一斑马线区域信息,所述顶点图像坐标为位于所述检测框的左上、右上、左下和右下的角点图像坐标。
拍摄到的斑马线组成的实际覆盖区域通常是梯形或其它的四边形。图4为本发明实施例一提供的斑马线区域顶点示意图,如图4所示,包括斑马线1、斑马线检测框2、左上角顶点51、左下角顶点52、右上角顶点53、右下角顶点54和第一斑马线区域6。第一斑马线区域6为斑马线实际覆盖区域,为梯形结构,左上角顶点51、左下角顶点52、右上角顶点53、右下角顶点54为通过角点检测算法检测出的多个角点中靠近方形检测框四个角的边缘角点,连接四个边缘角点包围的区域为斑马线实际覆盖区域。
在一种可能的实施方式中,检测框的左上、右上、左下和右下的角点图像坐标为角点图像坐标集中横坐标或纵坐标为最大或最小的角点图像坐标。
具体的,将角点图像坐标进行上角点和下角点分组,两个不同角点的纵坐标差值在预设偏差范围内的角点归为一组,纵坐标大的一组标记为上角点组,纵坐标小的一组标记为下角点;分别比较上角点组和下角点组的横坐标大小,上角点组中横坐标最大和最小的角点分别标记为右上角点和左上角点,下角点组中横坐标最大和最小的角点分别标记为右下角点和左下角点。
在另一种可能的实施方式中,检测框的左上、右上、左下和右下的角点图像坐标为角点图像坐标集中与所述斑马线检测框的四个顶点距离最近的角点图像坐标。
具体的,提取斑马线检测框的四个顶点图像坐标,计算角点图像坐标集中的每个角点坐标与斑马线检测框四个顶点的距离,分别找到与斑马线检测框四个顶点距离最近的四个角,标记为角点图像坐标集中的顶点图像坐标。
在一种可选的方案中,图5为本发明实施例一提供的斑马线检测方法的流程图之二,如图5所示,步骤150之后,还包括:
步骤210,获取同步激光点云数据,根据所述激光点云数据将所述顶点图像坐标转换为顶点世界坐标。
具体的,同步激光点云数据的获取时间与送入斑马线检测模型的车辆前视图像的获取时间相同,通过车载激光雷达等设备可获取车辆前视同步激光点云数据。将同步激光点云数据通过平面拟合算法进行地面点云提取,具体的,对靠近地面的n个点云,计算其协方差矩阵,对协方差矩阵进行SVD分解,得到对应的特征值和特征向量,其中最小特征值对应的特征向量就是地面方程的法向量,地面方程Ax+By+Cz=0的系数A、B和C为地面方程的法向量即最小特征值对应的特征向量,地面方程得解。根据车载相机的内外参计算角点图像坐标集中的顶点图像坐标与地面方程的交点,得到顶点世界坐标。
步骤220,连接所述顶点世界坐标,生成世界坐标系下的第二斑马线区域信息。
其中,第二斑马线区域为世界坐标系下的斑马线实际覆盖区域。将图像坐标系下的斑马线实际覆盖区域转化为世界坐标系下的斑马线实际覆盖区域,所生产的第二斑马线区域信息可用于高精地图中斑马线位置的标注。
本实施例提供的斑马线检测方法,先对斑马线区域进行快速粗定位,对该粗定位区域进行提取后,利用斑马线的四角不变特性,进行斑马线实际区域的精确定位。快速粗定位,并提取感兴趣区域,在后续的图像分析中,减少了原始图像的冗余信息,避免了对干扰对象的分析,在对感兴趣区域进行分析时,可根据检测对象的特征,选择简单的角点检测结合顶点判断方式,可准确的生成斑马线的实际覆盖区域,在简化识别算法的同时,为自动驾驶决策模块提供精确的斑马线区域数据。
实施例二
本发明实施例二提供了一种斑马线检测装置。图6为本发明实施例二提供的斑马线检测装置结构示意图,该斑马线检测装置300包括:第一数据处理模块301、第二数据处理模块302、第三数据处理模块303和第四数据处理模块304。
第一数据处理模块301,用于获取车辆前视图像,通过斑马线检测模型检测车辆前视图像,生成斑马线检测框。
其中,通过斑马线检测模型检测车辆前视图像,生成斑马线检测框,具体为:通过深度学习目标检测模型对斑马线图像数据训练集进行训练,生成斑马线检测模型;输入车辆前视图像数据至斑马线检测模型,生成斑马线检测框。可选的,深度学习目标检测模型采用YOLO算法。
第二数据处理模块302,用于提取斑马线检测框中的图像,生成第一目标图像数据。
第三数据处理模块303,用于将第一目标图像数据进行灰度化处理,生成第二目标图像数据。
第四数据处理模块304,用于根据角点检测算法对第二目标图像数据进行角点检测,生成角点图像坐标集。其中,角点检测算法为ORB算法。
第四数据处理模块304,还用于连接角点图像坐标集中的顶点图像坐标,生成图像坐标系下的第一斑马线区域信息,顶点图像坐标为位于检测框的左上、右上、左下和右下的角点图像坐标。
其中,检测框的左上、右上、左下和右下的角点图像坐标为角点图像坐标集中横坐标或纵坐标为最大或最小的角点图像坐标;
或为角点图像坐标集中与斑马线检测框的四个顶点距离最近的角点图像坐标。
在一种可能的方案中,斑马线检测装置300还包括:
第五数据处理模块305,用于获取同步激光点云数据,根据激光点云数据将顶点图像坐标转换为顶点世界坐标;连接顶点世界坐标,生成世界坐标系下的第二斑马线区域信息。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,第一数据处理模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上确定模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所描述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,ASIC),或,一个或多个微处理器(Digital Signal Processor,DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(CentralProcessing Unit,CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(System-on-a-chip,SOC)的形式实现。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行该计算机程序指令时,全部或部分地产生按照本申请实施例所描述的流程或功能。上述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。上述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,上述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线路((Digital Subscriber Line,DSL))或无线(例如红外、无线、蓝牙、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。上述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。上述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
实施例三
实施例三提供了一种包含指令的计算机程序产品,图7为本发明实施例三提供的计算机程序产品结构示意图,如图7所示,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如实施例一提供的任意一种斑马线检测方法。
实施例四
本发明实施例四提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如实施例一提供的任意一种斑马线检测方法。
实施例五
本发明实施例五提供了一种计算机装置,图8为本发明实施例五提供的计算机装置结构示意图。如图8所示,包括存储器100、处理器200及存储在存储器上的计算机程序,处理器执行所述计算机程序以实现上述实施例一提供的任意一种斑马线检测方法。
实施例六
本发明实施例六提供了一种移动工具,包括上述实施例五的计算机装置。
本申请所称的移动工具可以是具有如下各种功能的车辆设备或机器人设备:
(1)载人功能,如家用轿车、公共汽车等;
(2)载货功能,如普通货车、厢式货车、甩挂车、封闭货车、罐式货车、平板货车、集装厢车、自卸货车、特殊结构货车等;
(3)工具功能,如物流配送车、自动导引运输车AGV、巡逻车、起重机、吊车、挖掘机、推土机、铲车、压路机、装载机、越野工程车、装甲工程车、污水处理车、环卫车、吸尘车、洗地车、洒水车、扫地机器人、送餐机器人、导购机器人、割草机、高尔夫球车等;
(4)娱乐功能,如娱乐车、游乐场装置、平衡车等;
(5)特殊救援功能,如消防车、救护车、电力抢修车、工程抢险车等。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (11)
1.一种斑马线检测方法,其特征在于,所述方法包括:
获取车辆前视图像,通过斑马线检测模型检测所述车辆前视图像,生成斑马线检测框;
提取所述斑马线检测框中的图像,生成第一目标图像数据;
将所述第一目标图像数据进行灰度化处理,生成第二目标图像数据;
根据角点检测算法对所述第二目标图像数据进行角点检测,生成角点图像坐标集;
连接所述角点图像坐标集中的顶点图像坐标,生成图像坐标系下的第一斑马线区域信息,所述顶点图像坐标为位于所述检测框的左上、右上、左下和右下的角点图像坐标。
2.根据权利要求1所述的斑马线检测方法,其特征在于,所述连接所述角点图像坐标集中的顶点图像坐标,生成图像坐标系下的第一斑马线区域信息,之后,所述方法还包括:
获取同步激光点云数据,根据所述激光点云数据将所述顶点图像坐标转换为顶点世界坐标;
连接所述顶点世界坐标,生成世界坐标系下的第二斑马线区域信息。
3.根据权利要求1所述的斑马线检测方法,其特征在于,所述通过斑马线检测模型检测所述车辆前视图像,生成斑马线检测框,具体为:
通过深度学习目标检测模型对斑马线图像数据训练集进行训练,生成所述斑马线检测模型;
输入车辆前视图像数据至所述斑马线检测模型,生成斑马线检测框。
4.根据权利要求1所述的斑马线检测方法,其特征在于,所述检测框的左上、右上、左下和右下的角点图像坐标为所述角点图像坐标集中横坐标或纵坐标为最大或最小的角点图像坐标;
或为所述角点图像坐标集中与所述斑马线检测框的四个顶点距离最近的角点图像坐标。
5.估计权利要求3所述的斑马线检测方法,其特征在于,所述深度学习目标检测模型采用YOLO算法。
6.根据权利要求1所述的斑马线检测方法,其特征在于,所述角点检测算法为ORB算法。
7.一种斑马线检测装置,其特征在于,所述斑马线检测装置包括:
第一数据处理模块,用于获取车辆前视图像,通过斑马线检测模型检测所述车辆前视图像,生成斑马线检测框;
第二数据处理模块,用于提取所述斑马线检测框中的图像,生成第一目标图像数据;
第三数据处理模块,用于将所述第一目标图像数据进行灰度化处理,生成第二目标图像数据;
第四数据处理模块,用于根据角点检测算法对所述第二目标图像数据进行角点检测,生成角点图像坐标集;
所述第四数据处理模块,还用于连接所述角点图像坐标集中的顶点图像坐标,生成图像坐标系下的第一斑马线区域信息,所述顶点图像坐标为位于所述检测框的左上、右上、左下和右下的角点图像坐标。
8.一种计算机程序产品,其特征在于,当所述计算机程序产品在计算机上运行时,使得所述计算机执行如权利要求1-6任一项所述的斑马线检测方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1-6所述的斑马线检测方法的步骤。
10.一种计算机装置,包括存储器、处理器及存储在存储器上的计算机程序,其特征在于,所述处理器执行所述计算机程序以实现权利要求1-6所述的斑马线检测方法的步骤。
11.一种移动工具,其特征在于,包括如权利要求10所述的计算机装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211202194.4A CN117854031A (zh) | 2022-09-29 | 2022-09-29 | 一种斑马线检测方法及装置、相关产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211202194.4A CN117854031A (zh) | 2022-09-29 | 2022-09-29 | 一种斑马线检测方法及装置、相关产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117854031A true CN117854031A (zh) | 2024-04-09 |
Family
ID=90529591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211202194.4A Pending CN117854031A (zh) | 2022-09-29 | 2022-09-29 | 一种斑马线检测方法及装置、相关产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117854031A (zh) |
-
2022
- 2022-09-29 CN CN202211202194.4A patent/CN117854031A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10859684B1 (en) | Method and system for camera-lidar calibration | |
CN110148185B (zh) | 确定成像设备坐标系转换参数的方法、装置和电子设备 | |
Pandey et al. | Automatic extrinsic calibration of vision and lidar by maximizing mutual information | |
Vandapel et al. | Natural terrain classification using 3-d ladar data | |
US8154594B2 (en) | Mobile peripheral monitor | |
CN108596058A (zh) | 基于计算机视觉的行车障碍物测距方法 | |
CN107609483B (zh) | 面向驾驶辅助系统的危险目标检测方法、装置 | |
CN110879994A (zh) | 基于形状注意力机制的三维目测检测方法、系统、装置 | |
US20090169052A1 (en) | Object Detector | |
CN102682292A (zh) | 基于单目视觉的道路边缘检测及粗定位方法 | |
CN112740225B (zh) | 一种路面要素确定方法及装置 | |
US20190065824A1 (en) | Spatial data analysis | |
CN115049700A (zh) | 一种目标检测方法及装置 | |
Kortli et al. | A novel illumination-invariant lane detection system | |
Pinggera et al. | High-performance long range obstacle detection using stereo vision | |
Houben et al. | On-vehicle video-based parking lot recognition with fisheye optics | |
CN103065323A (zh) | 一种基于单应性变换矩阵的分段空间对准方法 | |
Youjin et al. | A robust lane detection method based on vanishing point estimation | |
Taylor et al. | Automatic calibration of multi-modal sensor systems using a gradient orientation measure | |
CN112683228A (zh) | 单目相机测距方法及装置 | |
Farag | A comprehensive real-time road-lanes tracking technique for autonomous driving | |
Barua et al. | An Efficient Method of Lane Detection and Tracking for Highway Safety | |
CN115683109B (zh) | 基于cuda和三维栅格地图的视觉动态障碍物检测方法 | |
CN112733678A (zh) | 测距方法、装置、计算机设备和存储介质 | |
Cai et al. | Robust road lane detection from shape and color feature fusion for vehicle self-localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |