CN113221739A - 基于单目视觉的车距测量方法 - Google Patents

基于单目视觉的车距测量方法 Download PDF

Info

Publication number
CN113221739A
CN113221739A CN202110515969.2A CN202110515969A CN113221739A CN 113221739 A CN113221739 A CN 113221739A CN 202110515969 A CN202110515969 A CN 202110515969A CN 113221739 A CN113221739 A CN 113221739A
Authority
CN
China
Prior art keywords
vehicle
region
measuring method
distance measuring
adaboost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110515969.2A
Other languages
English (en)
Other versions
CN113221739B (zh
Inventor
秦家虎
周文华
王帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202110515969.2A priority Critical patent/CN113221739B/zh
Publication of CN113221739A publication Critical patent/CN113221739A/zh
Application granted granted Critical
Publication of CN113221739B publication Critical patent/CN113221739B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于单目视觉的车距测量方法,包括以下步骤:在输入图像中选择与车辆检测区域相对应的感兴趣区域;从所述关注区域中提取聚合通道特征,并将所述聚合通道特征输入到采用基于改进AdaBoost的ACF算法训练的车辆检测器检测车辆;基于检测到的车辆的边界框区域的中心坐标来估计当前车辆到检测到的车辆的距离。同传统的车辆检测算法相比,本发明针对原始ACF算法中使用的经典AdaBoost算法中困难样本的权重增长速度过快易引起“退化问题”,采用鲁棒交替的AdaBoost对其进行改进,提高检测效果。

Description

基于单目视觉的车距测量方法
技术领域
本发明涉及计算机视觉检测领域,特别涉及一种基于单目视觉的车距测量方法。
背景技术
目前,车载视觉传感器的测距系统按照传感器的数目可以简单划分为单相机的单目视觉系统和多相机的立体视觉系统。立体视觉方案多见于智能车辆,其中最流行的是双目视觉测距方案,其主要的测距原理是使用两个相机从不同的视点位置观察同一场景目标,通过采集的左、右图像的视差进而估计目标距离。相较于立体视觉系统,单目视觉系统结构简单,无需进行复杂的图像匹配而得到了更加广泛的应用。
许多基于视觉传感器的研究已经被用于车辆检测和对称距离估计。基于视觉传感器的特征,可以以不同的方式应用图像处理。通过使用图像处理在输入图像上检测车辆,可以获得关于检测到的车辆的各种信息。车辆检测研究包括,例如,基于特征的模板匹配方法,神经网络或支持向量机,或基于形状和运动的方法。车辆检测方法主要是基于假设车辆形状不变的特征。车辆到车辆的距离估计研究包括基于检测到的车辆尺寸的距离估计方法,基于立体摄像机的方法,以及比较道路基础设施的方法。车辆距离估计方法主要基于检测到的车辆形状信息。虽然基于立体摄像机的距离估计提供了相对准确的结果,但是立体摄像机比单目摄像机更昂贵,并且计算量更有限。
目前常用的前方车辆检测方法主要有四种,其中,基于车辆特征
的方法主要是利用车辆上的一些特征,通过提取特征来检测车辆,该方法在复杂的外界环境下检测效果较差,容易受到外界环境的影响。基于模板匹配的方法主要是建立好的车辆几何模型与检测的图像进行相关匹配操作,而车辆的位置就由相关匹配度来确定,但该方法需要一定的先验知识与大量的各种不同类型的车辆图像来建立车辆的几何模型,计算量大,过分依赖于车辆模型,且建立的车辆模板无法适用于任何汽车。基于车辆运动的方法主要利用视频帧序列的帧与帧之间的连续性对前方车辆进行检测,该方法容易受到光照条件以及外界噪声的影响,且计算较为复杂,对车辆的运动速度有一定的要求。因此这三种方法都会有受到一定的外界因素的限制,而基于机器学习的方法在这方面明显优于他们,具有几个明显的优点,如:鲁棒性好,稳定性相对较好,不易受外界环境的影响。
发明内容
有鉴于此,本发明的主要目的在于提供一种基于单目视觉的车距测量方法,以期部分地解决上述技术问题中的至少之一。
为了实现上述目的,作为本发明的一方面,提供了一种基于单目视觉的车距测量方法,包括以下步骤:
在输入图像中选择与车辆检测区域相对应的感兴趣区域;
从所述关注区域中提取聚合通道特征,并将所述聚合通道特征输入到采用基于改进AdaBoost的ACF算法训练的车辆检测器检测车辆;
基于检测到的车辆的边界框区域的中心坐标来估计当前车辆到检测到的车辆的距离。
其中,所述改进AdaBoost的ACF算法的改进之处在于修改弱分类器权重值αt的计算方法,改进后的计算方法具体如下:
Figure BDA0003062114450000021
其中,εt表示计算错误率,γ表示鲁棒参数,
Figure BDA0003062114450000022
其中,所述感兴趣区域的选择包括行驶车道的左右车道和移动的车辆获得的图像的中心部分。
其中,所述聚合通道特征包括三个颜色通道、一个梯度幅值通道和六个梯度方向通道。
其中,所述提取聚合通道特征的过程如下:
在从输入图像提取特征信息之后,生成第k个特征信息,同时在下采样k次的同时保持第(k-1)个特征信息。
其中,所述将所述聚合通道特征输入到采用基于改进AdaBoost的ACF算法训练的车辆检测器检测车辆包括:
所述车辆检测器预先从训练图像中提取聚合通道特征,然后构建金字塔,并与基于AdaBoost的学习算法结合起来以生成强分类器。
其中,从车辆和非车辆训练图像中提取的聚合通道特征是匹配的,用于区分车辆和非车辆这两个类别;特征的相互匹配过程不仅执行一次,而且在各种条件下执行;通过生成具有弱分类器的线性组合的强分类器,所述各种条件由弱分类器组成。
其中,在进行车辆距离估计前还包括车辆跟踪,具体为跟踪先前在车辆检测步骤中检测到的车辆区域;基于检测到的车辆区域中包含的特征信息,通过搜索具有最相似特征信息的相邻区域来跟踪车辆区域。
其中,在减少像素匹配处理时间的方法中,设置了与相邻帧中最相似区域进行比较的范围。
其中,所述基于检测到的车辆的边界框区域的中心坐标来估计当前车辆到检测到的车辆的距离是通过将相机焦距与真实物体的大小相结合,利用物体在图像空间中的大小来估计物体的距离的;
对于侧向小汽车,采用经验百分比来获取一部分分段区域以进行距离测量,通过估计被遮挡部分的遮罩来计算分段车的绝对距离,并计算部分被遮挡车的距离。
基于上述技术方案可知,本发明的基于单目视觉的车距测量方法相对于现有技术至少具有如下有益效果之一:
(1)同传统的车辆检测算法相比,本发明针对原始ACF算法中使用的经典AdaBoost算法中困难样本的权重增长速度过快易引起“退化问题”,采用鲁棒交替的AdaBoost对其进行改进,提高检测效果。
(2)根据单目测距原理,考虑了部分遮挡汽车的情况,基于不同类型的汽车的尺寸信息与其遮罩值之间的关系来计算图像中汽车的绝对距离。
附图说明
图1为本发明实施例提供的车辆测距方法流程图;
图2为本发明实施例提供的车辆检测算法流程图;
图3为本发明实施例提供的单目相机测距原理图;
图4为本发明实施例提供的确定车辆位置示意图。
具体实施方式
本发明将车载单目摄像头输入图像分解为多分辨率图像进行实时处理,然后提取聚合通道特征,根据单目相机测距原理,基于不同类型的汽车的尺寸信息与其遮罩值之间的关系来计算图像中汽车的绝对距离。
本发明的目的是通过车载单目摄像头采集的前方车辆图像,采用出基于改进AdaBoost的ACF算法检测向前移动的车辆,并根据单目相机测距原理,基于不同类型的汽车的尺寸信息与其遮罩值之间的关系来计算图像中汽车的绝对距离。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
如图1所示,为车辆测距方法流程图,包括以下步骤:
(1)车辆检测:首先在输入图像中选择与车辆检测区域相对应的关注区域(ROI)。接下来,从ROI中提取聚合通道特征(ACF),并使用基于ACF的车辆检测器检测车辆。
(2)距离估计:基于检测到的车辆的边界框区域的中心坐标来估计当前车辆到检测到的车辆的距离。
下面详细说明该方法的具体步骤:
1.车辆检测
步骤1:首先在输入图像中选择对应于车辆检测区域的感兴趣区域(ROI),减小检测处理范围。在本发明问题定义中,ROI的选择包括行驶车道的左右车道,因为它确定了在同一车道上行驶的车辆的检测范围和距离估计。此外,从从移动的车辆获得的图像的中心部分选择用于车辆检测的ROI。通过在输入图像上应用预定义的像素大小过滤,无需进行任何处理即可选择ROI,以减少执行时间。
步骤2:从ROI中的车辆检测区域中提取ACF,然后通过将其输入到先前训练的车辆检测器中来检测车辆。ACF包含了三种特征通道,其中,颜色通道有三个,梯度幅值通道有一个,梯度方向通道有六个。提取ACF的过程如下:在从输入图像提取特征信息之后,生成第k个特征信息,同时在下采样k次的同时保持第(k-1)个特征信息。也就是说,ACF具有保持第(k-1)个提取的特征信息的特性,即使它是第k个下采样的提取的特征信息。因此,可以从低分辨率图像(其中尺寸被减小)中提取输入图像的独特特征,而无需处理输入图像。
步骤3:参考算法1,使用基于ACF的车辆检测器在输入图像中检测车辆。车辆检测器预先从训练图像中提取聚合通道特征,然后构建金字塔,并将其与基于AdaBoost的学习算法结合起来以生成强分类器。AdaBoost算法是一种基于训练图像特征通过匹配过程进行二进制分类的方法。从车辆和非车辆训练图像中提取的ACF是匹配的,可用于区分这两个类别。特征的相互匹配过程不仅执行一次,而且在各种条件下执行。结果,通过生成具有弱分类器的线性组合的强分类器,这些多个条件由弱分类器组成。所得分类器可以快速产生具有良好准确性的结果。
如图2所示,为车辆检测算法流程图。
ACF是一种基于机器学习的检测算法。ACF采用聚合通道特征作为采样特征,使用AdaBoost算法作为分类器,经过训练得到了检测性能较好的检测器。
聚合通道特征(Aggregated Channel Feature,ACF)
聚合通道特征中包含了三种特征通道,其中,颜色通道有三个,梯度幅值通道有一个,梯度方向通道有六个。
(1)颜色特征:检测的主要颜色特征有:LUV、RGB、HSV。
(2)HOG特征:HOG特征能够描述图像的局部梯度方向和梯度强度分布,能够在边缘位置未知时,利用边缘方向的分布来表示目标的外形轮廓。
构造特征金字塔
传统特征金字塔方法首先是将图像缩放到所有的尺度层,然后在每个尺度层上都计算特征,这种方式是非常消耗时间的。快速特征金字塔的计算方法:将待检测的图像缩小为原来的1倍、2倍、4倍,然后计算这三个尺度上的特征,用已经计算出的三个尺度上的特征去估计其他尺度上的特征,从而加快特征计算的速度。
步骤4:针对原始ACF算法中使用的经典AdaBoost算法中困难样本的权重增长速度过快易引起“退化问题”,采用鲁棒交替的AdaBoost对其进行改进,提高检测效果。修改弱分类器权重值αt的计算方法为:
Figure BDA0003062114450000061
其中
Figure BDA0003062114450000062
r为鲁棒参数。
鲁棒交替过程:
利用上式计算弱分类器权重值αt,防止任一样本的经验分布在某一阶段中显著增长。
具体的,在每一步更新经验分布,经过几次迭代之后,与其它样本相比,被重复错误分类的样本的概率权重的值会大大增加。因此,为每个样本引入变量β(i)和变量life(i)。
β(i)作用:初始值为1时,按照经典AdaBoost算法处理样本,即,当样本被错误分类时,就增加其经验分布,否则减小其经验分布;β(i)的值是-1时,则算法就按照逆AdaBoost处理样本,即,当样本被错误分类时,减小其经验分布,否则增加其其经验分布。
变量life(i)计算样本i被按顺序错误分类的次数,如果该数量超过阈值τ,则将β(i)的值反转为-1。也就是说,被错误分类的样本的权重会持续增长,直到迭代次数达到极限τ,然后开始减小。如果β(i)在被反转为-1后,样本在接下来的步骤中被正确分类,那么就将β(i)在的值又反转回1。
改进后的算法在经典AdaBoost和逆AdaBoost之间交替。通过将异常值的影响限制在经验分布中,检测并减少困难样本的经验概率,执行更准确的分类,使得其性能更加稳定。
为了更便于理解本发明的改进的AdaBoost算法,下面介绍原始的AdaBoost算法及其所存在的缺陷:
原始的AdaBoost算法给定训练样本及其分类(x1,y1),…,(xn,yn),其中xi∈X,yi∈Y={-1,+1}。初始化样本的权重D1(i)=1/n,即初始时,各个样本权重相等。首先对给定样本进行训练,对于第t=1,…,T次迭代,使用样本的初始权值分布Dt训练弱分类器,得到弱分类器假设ht;X→{-1,+1},按式(1)所示计算错误率εt
Figure BDA0003062114450000074
在训练过程中,每个样本的权值都会被重新调整。如果样本在上一次被正确分类,其权值会被降低,反之则会被升高,依此逐个训练若干弱分类器。原始的AdaBoost算法依据之前训练过程中的错误率为每个弱分类器设置了一个权重值αt,其计算如式(2)
Figure BDA0003062114450000071
根据当前弱分类器的αt值及分类结果,调整样本权值。如果样本被正确分类,则其权值如式(3)所示
Figure BDA0003062114450000072
如果样本被错误分类,则其权值如式(4)所示
Figure BDA0003062114450000073
然后计算在该权值分布下的弱分类器误差εt,并开始下一次迭代。直到训练的错误率趋近于0或者弱分类器的数量满足预定要求,构成一个强分类器。设样本集为(x1,…,xN),弱分类器输出为h(x)∈{-1,1},所有弱分类器输出的加权和就是强分类器的输出,表示如下:
Figure BDA0003062114450000081
由上述训练过程得到的强分类器对样本的判定与设定的阈值相关,当强分类器输出达到阈值时,判定为正样本,反之判定为负样本。
分析:上述传统的AdaBoost算法对难度较大的样本进行分类时,会使困难样本的权重以非常快的速度增长,这样就产生了“退化问题”。此外,AdaBoost易受噪声干扰,执行效果依赖于弱分类器的选择,且弱分类器训练时间偏长。
2.车辆跟踪
此步骤中,跟踪先前在车辆检测步骤中检测到的车辆区域。基于检测到的车辆区域中包含的特征信息,通过搜索具有最相似特征信息的相邻区域来跟踪车辆区域。在所提出的减少像素匹配处理时间的方法中,设置了与相邻帧中最相似区域进行比较的范围。通常,在以每秒15帧的速度获得的图像中,行驶中的车辆在相邻帧中的位置小于大约20个像素。因此,在车辆检测步骤中检测到的车辆区域中,将20个像素的区域设置为关注中心。在相邻帧的相应区域中执行像素匹配。
3.车辆距离估计
基于单眼视觉与相机的固有参数即fx和fy(焦距)实现距离估计。将焦距(以像素为单位)与真实物体的大小相结合,就可以利用物体在图像空间中的大小来估计物体的距离。
步骤1:如图3(a)所示,(x,y)表示图像坐标系,(X,Y,Z)表示相机坐标系。
Figure BDA0003062114450000082
如图3(b)所示,定义像素坐标系为(u,v),O1(u0,v0)是图像坐标系平面与光轴的交点。
Figure BDA0003062114450000091
其中,dx,dy表示每个像素的物理大小。摄像机坐标系到像素坐标系的转换,可以写成
Figure BDA0003062114450000092
所以
Figure BDA0003062114450000093
其中Spixel表示像素坐标系中汽车S的面积。由此,可求得前方车辆距离为
Figure BDA0003062114450000094
步骤2:对于侧向车,通过车段划分提供的位置将混合车的后部以及车的侧面区域。在这项工作中,对于侧向小汽车,采用经验百分比来获取一部分分段区域(假定为小汽车后部的尺寸)以进行距离测量,通过估计被遮挡部分的遮罩来计算分段车的绝对距离,并可以计算部分被遮挡车的距离。
图4显示了重叠区域像素检测的过程。首先,我们从图像中检测出汽车的所有边界框。在边界框重叠的地方,汽车的某些部分可能会被遮盖。比较了两个边界框左上角的y坐标。在两个边界框之间具有较小y值的汽车被视为已遮挡。与y值较大的边界框相对应的重叠区域中的汽车本身的遮罩值是被遮挡的汽车缺少的遮罩值。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于单目视觉的车距测量方法,其特征在于,包括以下步骤:
在输入图像中选择与车辆检测区域相对应的感兴趣区域;
从所述关注区域中提取聚合通道特征,并将所述聚合通道特征输入到采用基于改进AdaBoost的ACF算法训练的车辆检测器检测车辆;
基于检测到的车辆的边界框区域的中心坐标来估计当前车辆到检测到的车辆的距离。
2.根据权利要求1所述的车距测量方法,其特征在于,所述改进AdaBoost的ACF算法的改进之处在于修改弱分类器权重值αt的计算方法,改进后的计算方法具体如下:
Figure FDA0003062114440000011
其中,εt表示计算错误率,γ表示鲁棒参数,
Figure FDA0003062114440000012
3.根据权利要求1所述的车距测量方法,其特征在于,所述感兴趣区域的选择包括行驶车道的左右车道和移动的车辆获得的图像的中心部分。
4.根据权利要求1所述的车距测量方法,其特征在于,所述聚合通道特征包括三个颜色通道、一个梯度幅值通道和六个梯度方向通道。
5.根据权利要求1所述的车距测量方法,其特征在于,所述提取聚合通道特征的过程如下:
在从输入图像提取特征信息之后,生成第k个特征信息,同时在下采样k次的同时保持第(k-1)个特征信息。
6.根据权利要求1所述的车距测量方法,其特征在于,所述将所述聚合通道特征输入到采用基于改进AdaBoost的ACF算法训练的车辆检测器检测车辆包括:
所述车辆检测器预先从训练图像中提取聚合通道特征,然后构建金字塔,并与基于AdaBoost的学习算法结合起来以生成强分类器。
7.根据权利要求1所述的车距测量方法,其特征在于,从车辆和非车辆训练图像中提取的聚合通道特征是匹配的,用于区分车辆和非车辆这两个类别;特征的相互匹配过程不仅执行一次,而且在各种条件下执行;通过生成具有弱分类器的线性组合的强分类器,所述各种条件由弱分类器组成。
8.根据权利要求1所述的车距测量方法,其特征在于,在进行车辆距离估计前还包括车辆跟踪,具体为跟踪先前在车辆检测步骤中检测到的车辆区域;基于检测到的车辆区域中包含的特征信息,通过搜索具有最相似特征信息的相邻区域来跟踪车辆区域。
9.根据权利要求8所述的车距测量方法,其特征在于,在减少像素匹配处理时间的方法中,设置了与相邻帧中最相似区域进行比较的范围。
10.根据权利要求1所述的车距测量方法,其特征在于,所述基于检测到的车辆的边界框区域的中心坐标来估计当前车辆到检测到的车辆的距离是通过将相机焦距与真实物体的大小相结合,利用物体在图像空间中的大小来估计物体的距离的;
对于侧向小汽车,采用经验百分比来获取一部分分段区域以进行距离测量,通过估计被遮挡部分的遮罩来计算分段车的绝对距离,并计算部分被遮挡车的距离。
CN202110515969.2A 2021-05-12 2021-05-12 基于单目视觉的车距测量方法 Active CN113221739B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110515969.2A CN113221739B (zh) 2021-05-12 2021-05-12 基于单目视觉的车距测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110515969.2A CN113221739B (zh) 2021-05-12 2021-05-12 基于单目视觉的车距测量方法

Publications (2)

Publication Number Publication Date
CN113221739A true CN113221739A (zh) 2021-08-06
CN113221739B CN113221739B (zh) 2023-04-14

Family

ID=77094958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110515969.2A Active CN113221739B (zh) 2021-05-12 2021-05-12 基于单目视觉的车距测量方法

Country Status (1)

Country Link
CN (1) CN113221739B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863083A (zh) * 2022-04-06 2022-08-05 包头钢铁(集团)有限责任公司 一种车辆定位与尺寸测量的方法与系统
CN117073692A (zh) * 2023-10-13 2023-11-17 深圳市诺达方舟电子科技有限公司 一种测量安全车距的导航仪及其控制方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6300865B1 (en) * 1996-05-08 2001-10-09 Daimlerchrysler Ag Process for detecting the road conditions ahead for motor vehicles
JP2014085219A (ja) * 2012-10-23 2014-05-12 Toyota Motor Corp 位置検出装置、位置検出方法、及び運転支援装置
CN104899554A (zh) * 2015-05-07 2015-09-09 东北大学 一种基于单目视觉的车辆测距方法
CN107796373A (zh) * 2017-10-09 2018-03-13 长安大学 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法
CN108230393A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 一种智能车前方运动车辆的测距方法
CN108564594A (zh) * 2018-04-24 2018-09-21 河海大学常州校区 一种目标物体三维空间运动距离计算方法
CN108604405A (zh) * 2016-02-03 2018-09-28 本田技研工业株式会社 利用环境和深度次序探测局部被遮挡的物体
CN108759667A (zh) * 2018-05-29 2018-11-06 福州大学 车载摄像头下基于单目视觉与图像分割的前车测距方法
CN111814602A (zh) * 2020-06-23 2020-10-23 成都信息工程大学 一种基于视觉的智能车环境动态目标检测的方法
CN112406901A (zh) * 2020-12-05 2021-02-26 深圳瑞为智能科技有限公司 一种用于车辆盲区检测报警装置的双目测距方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6300865B1 (en) * 1996-05-08 2001-10-09 Daimlerchrysler Ag Process for detecting the road conditions ahead for motor vehicles
JP2014085219A (ja) * 2012-10-23 2014-05-12 Toyota Motor Corp 位置検出装置、位置検出方法、及び運転支援装置
CN104899554A (zh) * 2015-05-07 2015-09-09 东北大学 一种基于单目视觉的车辆测距方法
CN108604405A (zh) * 2016-02-03 2018-09-28 本田技研工业株式会社 利用环境和深度次序探测局部被遮挡的物体
CN108230393A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 一种智能车前方运动车辆的测距方法
CN107796373A (zh) * 2017-10-09 2018-03-13 长安大学 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法
CN108564594A (zh) * 2018-04-24 2018-09-21 河海大学常州校区 一种目标物体三维空间运动距离计算方法
CN108759667A (zh) * 2018-05-29 2018-11-06 福州大学 车载摄像头下基于单目视觉与图像分割的前车测距方法
CN111814602A (zh) * 2020-06-23 2020-10-23 成都信息工程大学 一种基于视觉的智能车环境动态目标检测的方法
CN112406901A (zh) * 2020-12-05 2021-02-26 深圳瑞为智能科技有限公司 一种用于车辆盲区检测报警装置的双目测距方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
HANEEN FARAH ET AL: "Modelling overtaking strategy and lateral distance in car-to-cyclist overtaking on rural roads: A driving simulator experiment", 《TRANSPORTATION RESEARCH PART F: TRAFFIC PSYCHOLOGY AND BEHAVIOUR》 *
杜宇人等: "一种遮挡情况下运动车辆的跟踪算法", 《扬州大学学报(自然科学版)》 *
沈勇等: "城市地下智能交通汽车侧方距离精确提示方法", 《自动化与仪器仪表》 *
王衍等: "基于改进 ACF 算法的道路行人检测算法研究", 《图形图象》 *
陈存弟: "基于DSP的智能交通车辆动态图像识别", 《中国优秀硕士学位论文全文数据库》 *
陈镜任: "基于视觉跟踪的行人运动轨迹预测方法研究", 《中国优秀硕士学位论文全文数据库》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863083A (zh) * 2022-04-06 2022-08-05 包头钢铁(集团)有限责任公司 一种车辆定位与尺寸测量的方法与系统
CN117073692A (zh) * 2023-10-13 2023-11-17 深圳市诺达方舟电子科技有限公司 一种测量安全车距的导航仪及其控制方法

Also Published As

Publication number Publication date
CN113221739B (zh) 2023-04-14

Similar Documents

Publication Publication Date Title
CN108596129B (zh) 一种基于智能视频分析技术的车辆越线检测方法
Kim et al. End-to-end ego lane estimation based on sequential transfer learning for self-driving cars
Kühnl et al. Monocular road segmentation using slow feature analysis
Liu et al. Rear vehicle detection and tracking for lane change assist
US10878259B2 (en) Vehicle detecting method, nighttime vehicle detecting method based on dynamic light intensity and system thereof
US20090309966A1 (en) Method of detecting moving objects
CN106682586A (zh) 一种复杂光照条件下基于视觉的实时车道线检测的方法
CN104408460A (zh) 一种车道线检测及跟踪检测方法
CN112825192B (zh) 基于机器学习的对象辨识系统及其方法
CN113221739B (zh) 基于单目视觉的车距测量方法
Siogkas et al. Random-walker monocular road detection in adverse conditions using automated spatiotemporal seed selection
Kim et al. Autonomous vehicle detection system using visible and infrared camera
CN113370977A (zh) 一种基于视觉的智能车辆前向碰撞预警方法及系统
Liu et al. Multi-type road marking recognition using adaboost detection and extreme learning machine classification
CN114708567B (zh) 一种基于双目摄像头的路面坑洼检测和避让方法及系统
CN101320477B (zh) 一种人体跟踪方法及其设备
CN109784216A (zh) 基于概率图的车载热成像行人检测RoIs提取方法
CN110837769B (zh) 一种图像处理与深度学习的嵌入式远红外行人检测方法
CN113516853B (zh) 一种针对复杂监控场景的多车道车流量检测方法
Wang et al. An improved hough transform method for detecting forward vehicle and lane in road
CN107977608B (zh) 一种应用于公路视频图像道路区域提取的方法
Gu et al. Vision-based multi-scaled vehicle detection and distance relevant mix tracking for driver assistance system
CN106446832B (zh) 一种基于视频的实时检测行人的方法
CN104966064A (zh) 基于视觉的前方行人测距方法
Tourani et al. Challenges of video-based vehicle detection and tracking in intelligent transportation systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant