CN116229423A - 基于改进的Canny边缘检测算法和SVM的无人驾驶中的小目标检测方法 - Google Patents

基于改进的Canny边缘检测算法和SVM的无人驾驶中的小目标检测方法 Download PDF

Info

Publication number
CN116229423A
CN116229423A CN202310268480.9A CN202310268480A CN116229423A CN 116229423 A CN116229423 A CN 116229423A CN 202310268480 A CN202310268480 A CN 202310268480A CN 116229423 A CN116229423 A CN 116229423A
Authority
CN
China
Prior art keywords
image
classifier
svm
hog
sliding window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310268480.9A
Other languages
English (en)
Inventor
陈如意
刘堂友
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN202310268480.9A priority Critical patent/CN116229423A/zh
Publication of CN116229423A publication Critical patent/CN116229423A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进的Canny边缘检测算法和SVM分类器的无人驾驶中的小目标检测方法,解决传统目标检测中的滑动窗口机制计算成本高,滑动窗口本身的窗口大小大部分情况下并不完全贴合目标尺度的两大缺点。基于改进的HOG‑LBP融合特征的SVM级联分类器,解决传统单一特征提取算法效果不佳,鲁棒性不强的问题;采用分类器级联机制,保证准确率的同时提高分类检测的速度。本发明充分发挥改进的Canny算法与基于改进的HOG‑LBP融合特征的SVM级联分类器的各自的优势,能够提高传统目标检测的准确率和定位精确度,准确的识别出低速无人驾驶场景中的小型障碍物,提高无人驾驶汽车的平稳性和乘客的舒适性。

Description

基于改进的Canny边缘检测算法和SVM的无人驾驶中的小目标 检测方法
技术领域
本发明属于图像处理相关领域,尤其涉及一种基于改进的Canny边缘检测算法和SVM(Support Vector Machine)的无人驾驶中的小目标检测方法。
背景技术
在无人驾驶场景中,道路中的小型障碍物,会引起车辆的剧烈振动,这极大地破坏了汽车行驶过程中的平稳性。检测出影响车辆平稳性的小型障碍物,然后无人驾驶的规划层根据检测得到的信息完成决策并且发送相应的指令给控制层。无人驾驶的控制层再根据规划层的指令完成对车辆的方向盘、油门和刹车等方面的控制,实现减速或避开障碍物,从而保证无人驾驶的平稳性。
近些年来的目标检测算法总体上分为两大类,一类是传统的目标检测算法,另一类是新兴起的基于深度学习的目标检测算法。传统的目标检测算法采用滑动窗口机制遍历整张图像,一方面是计算成本高,另一方面滑动窗口本身的窗口大小大部分情况下并不完全贴合目标尺度。背景、环境、目标形状的差异等多种因素的影响使得传统特征提取方法效果较差。基于深度学习的目标检测方法尽管检测准确率较高,但有着检测模型极为复杂、样本集需求量大以及训练时间长等缺点。
发明内容
为克服上述现有技术的不足,本发明提供了一种基于改进的Canny边缘检测算法和SVM分类器的无人驾驶中的小目标检测方法,用于检测石块、减速带和路面坑洼三种影响车辆平稳性的目标障碍物。该方法采用一种改进的Canny边缘检测算法和一种基于新改进的HOG-LBP融合特征的SVM级联分类器对目标进行检测,充分发挥边缘检测算法的优势提取目标轮廓,解决传统目标检测中的滑动窗口机制计算成本高,滑动窗口本身的窗口大小大部分情况下并不完全贴合目标尺度的两大缺点。基于新改进的HOG-LBP融合特征的SVM级联分类器,解决传统单一特征提取算法效果不佳,鲁棒性不强的问题。同时设计一种使用的分类器级联机制,保证准确率的同时提高算法速度。
本发明解决其技术问题所采用的技术方案具体为:一种基于改进的Canny边缘检测算法和SVM分类器的无人驾驶中的小目标检测方法,其中,包括以下步骤:
S1:在车辆上安装相机设备获取高清晰度的道路图像。
S2:针对路面的椒盐噪声以及光照的影响,将传统Canny边缘检测方法中的高斯滤波部分替换为自适应中值滤波,再采用滑动窗口结合OTSU(大津法)算法自动设置Canny检测的双阀值,从而得到一种改进的Canny边缘检测方法获取道路图像内的边缘信息。改进后的Canny检测算法自动设置Canny检测的双阀值不仅具备自适应性,并且其局部自适应性降低了对光照的敏感性,算法的自适应性更强,鲁棒性更好。
S3:调用OpenCV函数库中的findContours(image,contours,hierarchy,mode,method,Point offset=Point())函数,对改进的Canny算法检测的边缘进行轮廓提取。
S4:调用OpenCV中的boundingRect(points)函数计算轮廓的最小外接矩形,并将该矩形内的子图像作为待检测区域。
S5:计算待检测区域图像的HOG-LBP融合特征向量。
S6:使用SVM级联分类器对HOG-LBP融合特征向量进行分类识别。
S7:对SVM级联分类器的识别结果进行处理,即若分类器识别为目标障碍物,则使用OpenCV中的cvRectangle(img,Point1,Point2,color)函数将其在原图像中标注出来,否则不进行标注。
进一步地,所述步骤S2中,改进的Canny边缘检测方法,具体包括以下步骤:
S21:对道路图像进行自适应中值滤波。自适应中值滤波:首先建立一个滑动窗口,定义Gmin、Gmax和Gmid分别为滑动窗口内所有像素灰度值的最小值、最大值和中值,G(x,y)为滑动窗口中心像素点的灰度值。若Gmin<Gmid<Gmax,则不需要调整滑动窗口,否则增大滑动窗口的尺寸,直到滑动窗口的尺寸大于图像尺寸或Gmin<Gmid<Gmax为止。判断如果Gmin<G(x,y)<Gmax不成立,则用Gmid替换G(x,y),否则不替换
S22:计算图像中像素点的梯度。定义S(x,y)为自适应滤波后的图像,(x,y)为图像中任一像素点的坐标,Sx代表S(x,y)在水平方向上的梯度,Sy代表S(x,y)在垂直方向上的梯度,则(x,y)点的梯度幅值A(x,y)和梯度方向θ(x,y)的计算公式如下:
Figure BDA0004133856910000031
S23:非极大值抑制。通过获取的梯度幅值和梯度方向对图像边缘进行非极大值抑制操作,判断每个像素点的梯度幅值是否是周围梯度方向相同像素点中的最大值,若是则保留该点,否则将其丢弃。
S24:通过滑动窗口结合OTSU算法自动设置Canny检测的双阀值。首先建立一个滑动窗口,并设置其长和宽,以及滑动步长。对于一幅包含G个灰度级的图像,滑动窗口遍历该图像,并计算窗口内子图像的灰度直方图H(0),H(1),…,H(G-1),并除以滑动窗口中的像素个数进行直方图归一化。遍历所有可能的阈值t=0,…,G-2,找出使得方差σ(t)最小的t的取值,并将其设为窗口内子图像的Canny算法的高阈值,Canny算法的低阈值设为高阈值的二分之一。阈值t将直方图分为前景F(灰度级大于t)和背景B(灰度级小于或等于t),定义前景和背景的灰度级方差分别为σF(t)和σB(t),H(i)表示一个像素是背景的概率,H(j)表示一个像素是前景的概率,则前景和背景的类间方差σ(t)的计算公式如下:
Figure BDA0004133856910000032
进一步地,所述步骤S5中,计算待检测区域图像的HOG-LBP融合特征向量,具体包括以下步骤:
S51:将原始HOG(histogram of oriented gradients)特征提取时的划分方法调整为3×3像素/cell,及2×2cell/Block;每个cell的特征描述子与原始HOG特征的计算方法一致,而每个Block的HOG特征描述子由2×2个cell的特征描述子相加并求平均值,将图像内的所有Block的HOG特征描述子串联起来就得到该图像的改进HOG特征向量。
S52:与HOG特征提取的图像划分方法类似,MB-LBP(multi-scale block localbinary patterns)特征提取方法是将图像划分为3×3像素/cell,及3×3cell/Block,并将每个cell内所有像素的灰度平均值作为该cell的灰度值。以每个Block中心cell的灰度值为阈值,相邻的8个cell的灰度值与该Block中心cell的灰度值进行比较。若相邻的cell的灰度值大于中心cell的灰度值,则将该cell标记为1,否则标记为0。进过比较每个Block内可产生8位二进制数,从Block内左上角的cell开始,按顺时针方向将该8位二进制数排列形成一个二进制数,并将其转换为十进制数作为该Block的MB-LBP值,将图像内的所有Block的MB-LBP值串联起来就得到该图像的MB-LBP特征向量。
S53:将改进的HOG特征向量和MB-LBP特征向量串联形成HOG-LBP融合特征向量。
进一步地,所述步骤S6中,使用SVM级联分类器对HOG-LBP融合特征向量进行分类识别,具体包括以下步骤:
S61:先为石块、减速带和路面坑洼三种目标障碍物分别训练一个二分类SVM分类器。
S62:以每个分类器的准确率优先进行级联,若准确率相同则再根据实际交通场景中三种目标障碍物出现的概率进行级联,出现概率高的优先进行级联,形成SVM级联分类器实现多分类。级联分类器上一级的分类错误会影响下一级分类器,导致错误的累积,正确率优先的级联方式可以保证整个级联分类器的正确率最高。正确率相同时再根据实际交通场景中三种目标障碍物出现的概率进行级联,出现概率大的目标分类器先级联,这样可以减少级联分类器的分类次数,提高分类器的检测速度。
S63:HOG-LBP融合特征向量输入SVM级联分类器进行分类识别。
与现有技术相比,本发明的有益效果是,充分发挥改进的Canny算法与基于改进的HOG-LBP融合特征的SVM级联分类器的各自的优势,能够提高传统目标检测的检测准确率和IOU,不仅能准确识别出低速无人驾驶场景中的小型障碍物,并且能得到贴合目标的轮廓。辅助无人驾驶汽车精确避障或减速,提高无人驾驶汽车的平稳性和乘客的舒适性。
附图说明
图1为基于改进的Canny边缘检测算法和SVM分类器的无人驾驶中的小目标检测方法流程图。
图2为SVM级联分类器(IMCA-SVM)结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图本发明进行进一步详细说明。
如图1所示,为基于改进的Canny边缘检测算法和SVM分类器的无人驾驶中的小目标检测方法流程图,该方法包括以下步骤:
S1:在车辆上安装相机设备获取高清晰度的道路图像,并调用OpenCV中的imread(filename,flags)读取图像。
S2:针对路面的椒盐噪声以及光照的影响,将传统Canny边缘检测方法中的高斯滤波部分替换为自适应中值滤波,再采用滑动窗口结合OTSU(大津法)算法自动设置Canny检测的双阀值,从而得到一种改进的Canny边缘检测方法获取道路图像内的边缘信息。
具体包括以下步骤:
S21:对道路图像进行自适应中值滤波。自适应中值滤波:首先建立一个滑动窗口,定义Gmin、Gmax和Gmid分别为滑动窗口内所有像素灰度值的最小值、最大值和中值,G(x,y)为滑动窗口中心像素点的灰度值。若Gmin<Gmid<Gmax,则不需要调整滑动窗口,否则增大滑动窗口的尺寸,直到滑动窗口的尺寸大于图像尺寸或Gmin<Gmid<Gmax为止。判断如果Gmin<G(x,y)<Gmax不成立,则用Gmid替换G(x,y),否则不替换
S22:计算图像中像素点的梯度。定义S(x,y)为自适应滤波后的图像,(x,y)为图像中任一像素点的坐标,Sx代表S(x,y)在水平方向上的梯度,Sy代表S(x,y)在垂直方向上的梯度,则梯度幅值A(x,y)和梯度方向θ(x,y)的计算公式如下:
Figure BDA0004133856910000051
S23:非极大值抑制。通过获取的梯度幅值和梯度方向对图像边缘进行非极大值抑制操作,判断每个像素点的梯度幅值是否是周围梯度方向相同像素点中的最大值,若是则保留该点,否则将其丢弃。
S24:通过滑动窗口结合OTSU算法自动设置Canny检测的双阀值。首先建立一个滑动窗口,并设置其长和宽,以及滑动步长。对于一幅包含G个灰度级的图像,滑动窗口遍历该图像,并计算窗口内子图像的灰度直方图H(0),H(1),…,H(G-1),并除以滑动窗口中的像素个数进行直方图归一化。遍历所有可能的阈值t=0,…,G-2,找出使得方差σ(t)最小的t的取值,并将其设为窗口内子图像的Canny算法的高阈值,Canny算法的低阈值设为高阈值的二分之一。阈值t将直方图分为前景F(灰度级大于t)和背景B(灰度级小于或等于t),定义前景和背景的灰度级方差分别为σF(t)和σB(t),H(i)表示一个像素是背景的概率,H(j)表示一个像素是前景的概率,则前景和背景的类间方差σ(t)的计算公式如下:
Figure BDA0004133856910000061
S3:调用OpenCV函数库中的findContours(image,contours,hierarchy,mode,method,Point offset=Point())函数,对改进的Canny算法检测的边缘进行轮廓提取。
S4:调用OpenCV中的boundingRect(points)函数计算轮廓的最小外接矩形,并将该矩形内的子图像作为待检测区域。
S5:计算待检测区域图像的HOG-LBP融合特征向量。
具体包括以下步骤:
S51:将原始HOG(histogram of oriented gradients)特征提取时的划分方法调整为3×3像素/cell,及2×2cell/Block;每个cell的特征描述子与原始HOG特征的计算方法一致,而每个Block的HOG特征描述子由2×2个cell的特征描述子相加并求平均值,将图像内的所有Block的HOG特征描述子串联起来就得到该图像的改进HOG特征向量。
S52:与HOG特征提取的图像划分方法类似,MB-LBP(multi-scale block localbinary patterns)特征提取方法是将图像划分为3×3像素/cell,及3×3cell/Block,并将每个cell内所有像素的灰度平均值作为该cell的灰度值。以每个Block中心cell的灰度值为阈值,相邻的8个cell的灰度值与该Block中心cell的灰度值进行比较。若相邻的cell的灰度值大于中心cell的灰度值,则将该cell标记为1,否则标记为0。进过比较每个Block内可产生8位二进制数,从Block内左上角的cell开始,按顺时针方向将该8位二进制数排列形成一个二进制数,并将其转换为十进制数作为该Block的MB-LBP值,将图像内的所有Block的MB-LBP值串联起来就得到该图像的MB-LBP特征向量。
S53:将改进的HOG特征向量和MB-LBP特征向量串联形成HOG-LBP融合特征向量。
S6:使用SVM级联分类器对HOG-LBP融合特征向量进行分类识别。
具体包括以下步骤:
S61:先为石块(A)、减速带(B)和路面坑洼(C),这三种目标障碍物,训练三个二分类SVM分类器,分别为SVM-A、SVM-B和SVM-C。
S62:以每个分类器的准确率优先进行级联,若准确率相同则再根据实际交通场景中三种目标障碍物出现的概率进行级联,出现概率高的优先进行级联,形成SVM级联分类器。若SVM-A的准确率最高,SVM-B和SVM-C的准确率相同,且实际交通场景中B出现的概率比C大,则构建的IMCA-SVM如图2所示。
S63:HOG-LBP融合特征向量输入SVM级联分类器进行分类识别。
S7:对SVM级联分类器的识别结果进行处理,即若分类器识别为目标障碍物,则使用OpenCV中的cvRectangle(img,Point1,Point2,color)函数将其在原图像中标注出来,否则不进行标注。
对改进Canny检测算法得到的边缘信息进行轮廓提取,将其轮廓的最小外接矩形区域代替传统目标检测中的滑动窗口作为检测区域。采用改进的HOG-LBP融合特征对检测区域进行特征提取。采用构建好的IMCA-SVM对提取的特征向量进行分类,检测图像是否存在目标以及判断目标类别。

Claims (4)

1.一种基于改进的Canny边缘检测算法和SVM分类器的无人驾驶中的小目标检测方法,其特征在于,包括以下步骤:
S1:在车辆上安装相机设备获取高清晰度的道路图像;
S2:针对路面的椒盐噪声以及光照的影响,将高斯滤波部分替换为自适应中值滤波,再采用滑动窗口结合OTSU算法自动设置Canny检测的双阀值,利用改进的Canny边缘检测方法获取道路图像内的边缘信息;
S3:调用OpenCV函数库中的findContours(image,contours,hierarchy,mode,method,Point offset=Point())函数,对边缘进行轮廓提取;
S4:调用OpenCV中的boundingRect(points)函数计算轮廓的最小外接矩形,并将该矩形内的子图像作为待检测区域;
S5:计算待检测区域图像的HOG-LBP融合特征向量;
S6:使用SVM级联分类器对HOG-LBP融合特征向量进行分类识别;
S7:对SVM级联分类器的识别结果进行处理,即若分类器识别为目标障碍物,则使用OpenCV中的cvRectangle(img,Point1,Point2,color)函数将其在原图像中标注出来,否则不进行标注。
2.根据权利要求1所述的小目标检测方法,其特征在于,上述步骤S2中,改进的Canny边缘检测方法,具体包括以下步骤:
S21:对道路图像进行自适应中值滤波:首先建立一个滑动窗口,定义Gmin、Gmax和Gmid分别为滑动窗口内所有像素灰度值的最小值、最大值和中值,G(x,y)为滑动窗口中心像素点的灰度值;若Gmin<Gmid<Gmax,则不需要调整滑动窗口,否则增大滑动窗口的尺寸,直到滑动窗口的尺寸大于图像尺寸或Gmin<Gmid<Gmax为止;判断如果Gmin<G(x,y)<Gmax不成立,则用Gmid替换G(x,y),否则不替换;
S22:计算图像中像素点的梯度:(x,y)点的梯度幅值A(x,y)和梯度方向θ(x,y)的计算公式如下:
Figure FDA0004133856900000021
其中S(x,y)为自适应滤波后的图像,(x,y)为图像中任一像素点的坐标,Sx代表S(x,y)在水平方向上的梯度,Sy代表S(x,y)在垂直方向上的梯度;
S23:非极大值抑制:通过获取的梯度幅值和梯度方向对图像边缘进行非极大值抑制操作,判断每个像素点的梯度幅值是否是周围梯度方向相同像素点中的最大值,若是则保留该点,否则将其丢弃;
S24:通过滑动窗口结合OTSU算法自动设置Canny检测的双阀值:首先建立一个滑动窗口,并设置其长和宽,以及滑动步长:对于一幅包含G个灰度级的图像,滑动窗口遍历该图像,并计算窗口内子图像的灰度直方图H(0),H(1),…,H(G-1),并除以滑动窗口中的像素个数进行直方图归一化;遍历所有可能的阈值t=0,…,G-2,找出使得方差σ(t)最小的t的取值,并将其设为窗口内子图像的Canny算法的高阈值,Canny算法的低阈值设为高阈值的二分之一;阈值t将直方图分为前景F和背景B,定义前景和背景的灰度级方差分别为σF(t)和σB(t),H(i)表示一个像素是背景的概率,H(j)表示一个像素是前景的概率,则前景和背景的类间方差σ(t)的计算公式如下:
Figure FDA0004133856900000022
3.根据权利要求2所述的小目标检测方法,其特征在于,上述步骤S5中,计算待检测区域图像的HOG-LBP融合特征向量,具体包括以下步骤:
S51:将原始HOG特征提取时的划分方法调整为3×3像素/cell,及2×2cell/Block;每个cell的特征描述子与原始HOG特征的计算方法一致,而每个Block的HOG特征描述子由2×2个cell的特征描述子相加并求平均值,将图像内的所有Block的HOG特征描述子串联起来就得到该图像的改进HOG特征向量;
S52:与HOG特征提取的图像划分方法类似,MB-LBP特征提取方法是将图像划分为3×3像素/cell,及3×3cell/Block,并将每个cell内所有像素的灰度平均值作为该cell的灰度值。以每个Block中心cell的灰度值为阈值,相邻的8个cell的灰度值与该Block中心cell的灰度值进行比较;若相邻的cell的灰度值大于中心cell的灰度值,则将该cell标记为1,否则标记为0;进过比较每个Block内可产生8位二进制数,从Block内左上角的cell开始,按顺时针方向将该8位二进制数排列形成一个二进制数,并将其转换为十进制数作为该Block的MB-LBP值,将图像内的所有Block的MB-LBP值串联起来就得到该图像的MB-LBP特征向量;
S53:将改进的HOG特征向量和MB-LBP特征向量串联形成HOG-LBP融合特征向量。
4.根据权利要求3所述的小目标检测方法,其特征在于,上述步骤S6中,使用SVM级联分类器对HOG-LBP融合特征向量进行分类识别,具体包括以下步骤:
S61:先为石块、减速带和路面坑洼三种目标障碍物分别训练一个二分类SVM分类器;
S62:以每个分类器的准确率优先进行级联,若准确率相同则再根据实际交通场景中三种目标障碍物出现的概率进行级联,出现概率高的优先进行级联,形成SVM级联分类器实现多分类;级联分类器上一级的分类错误会影响下一级分类器,导致错误的累积,正确率优先的级联方式保证整个级联分类器的正确率最高;正确率相同时再根据实际交通场景中三种目标障碍物出现的概率进行级联,出现概率大的目标分类器先级联,减少级联分类器的分类次数,提高分类器的检测速度;
S63:HOG-LBP融合特征向量输入SVM级联分类器进行分类识别。
CN202310268480.9A 2023-03-16 2023-03-16 基于改进的Canny边缘检测算法和SVM的无人驾驶中的小目标检测方法 Pending CN116229423A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310268480.9A CN116229423A (zh) 2023-03-16 2023-03-16 基于改进的Canny边缘检测算法和SVM的无人驾驶中的小目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310268480.9A CN116229423A (zh) 2023-03-16 2023-03-16 基于改进的Canny边缘检测算法和SVM的无人驾驶中的小目标检测方法

Publications (1)

Publication Number Publication Date
CN116229423A true CN116229423A (zh) 2023-06-06

Family

ID=86571301

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310268480.9A Pending CN116229423A (zh) 2023-03-16 2023-03-16 基于改进的Canny边缘检测算法和SVM的无人驾驶中的小目标检测方法

Country Status (1)

Country Link
CN (1) CN116229423A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758077A (zh) * 2023-08-18 2023-09-15 山东航宇游艇发展有限公司 一种冲浪板表面平整度在线检测方法及系统
CN118115975A (zh) * 2024-04-23 2024-05-31 名商科技有限公司 一种基于障碍物检测的低速无人驾驶控制方法和系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116758077A (zh) * 2023-08-18 2023-09-15 山东航宇游艇发展有限公司 一种冲浪板表面平整度在线检测方法及系统
CN116758077B (zh) * 2023-08-18 2023-10-20 山东航宇游艇发展有限公司 一种冲浪板表面平整度在线检测方法及系统
CN118115975A (zh) * 2024-04-23 2024-05-31 名商科技有限公司 一种基于障碍物检测的低速无人驾驶控制方法和系统
CN118115975B (zh) * 2024-04-23 2024-07-23 名商科技有限公司 一种基于障碍物检测的低速无人驾驶控制方法和系统

Similar Documents

Publication Publication Date Title
CN107798335B (zh) 一种融合滑动窗口与Faster R-CNN卷积神经网络的车标识别方法
CN108596129B (zh) 一种基于智能视频分析技术的车辆越线检测方法
CN108549864B (zh) 面向车载热成像行人检测的感兴趣区域过滤方法和装置
Wen et al. An algorithm for license plate recognition applied to intelligent transportation system
CN116229423A (zh) 基于改进的Canny边缘检测算法和SVM的无人驾驶中的小目标检测方法
CN107301405A (zh) 自然场景下的交通标志检测方法
CN107729812B (zh) 一种适用于监控场景中的车辆颜色识别的方法
CN104899554A (zh) 一种基于单目视觉的车辆测距方法
CN111553214B (zh) 一种驾驶员吸烟行为检测方法及系统
CN110706235B (zh) 一种基于双级级联分割的远红外行人检测方法
CN109255326B (zh) 一种基于多维信息特征融合的交通场景烟雾智能检测方法
CN110782409B (zh) 一种去除多运动物体阴影的方法
CN107122732B (zh) 一种监控场景下高鲁棒性的快速车牌定位方法
CN103116984A (zh) 检测违章停车的方法
CN110427979B (zh) 基于K-Means聚类算法的道路水坑识别方法
CN113516853A (zh) 一种针对复杂监控场景的多车道车流量检测方法
CN109784216A (zh) 基于概率图的车载热成像行人检测RoIs提取方法
CN107977608B (zh) 一种应用于公路视频图像道路区域提取的方法
CN113221739B (zh) 基于单目视觉的车距测量方法
CN110321828B (zh) 一种基于双目摄像机和车底阴影的前方车辆检测方法
CN109145875B (zh) 一种人脸图像中的黑框眼镜去除方法及装置
CN116152758A (zh) 一种智能实时事故检测及车辆跟踪方法
CN111476233A (zh) 一种车牌号码的定位方法和装置
Meshram et al. Vehicle detection and tracking techniques used in moving vehicles
CN116071713A (zh) 斑马线确定方法、装置、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination