CN109580979B - 基于视频处理的车速实时测量方法 - Google Patents

基于视频处理的车速实时测量方法 Download PDF

Info

Publication number
CN109580979B
CN109580979B CN201810602470.3A CN201810602470A CN109580979B CN 109580979 B CN109580979 B CN 109580979B CN 201810602470 A CN201810602470 A CN 201810602470A CN 109580979 B CN109580979 B CN 109580979B
Authority
CN
China
Prior art keywords
coordinate system
video
road surface
road
vehicle speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810602470.3A
Other languages
English (en)
Other versions
CN109580979A (zh
Inventor
陈珂
吴建平
范广慧
许旻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Intelligent Transportation Information Technology Co.,Ltd.
Original Assignee
Suzhou Vocational University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Vocational University filed Critical Suzhou Vocational University
Priority to CN201810602470.3A priority Critical patent/CN109580979B/zh
Publication of CN109580979A publication Critical patent/CN109580979A/zh
Application granted granted Critical
Publication of CN109580979B publication Critical patent/CN109580979B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/64Devices characterised by the determination of the time taken to traverse a fixed distance
    • G01P3/68Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Abstract

本发明公开了一种基于视频处理的车速实时测量方法,将路面上的物体从视频画面坐标系(u,v)转换到路面坐标系(x,z)中:
Figure DDA0001693587090000011
其中,a为路面坐标系中两条平行分道线的距离,b为路面坐标系中分道线的长度,v为消失点在视频画面坐标系中的v轴坐标,uleft、uright分别为视频画面坐标系中路面上两条平行的分道线与u轴的交点坐标,v1、v2分别为视频画面坐标系中同一分道线两端的v轴坐标;通过相邻两帧视频画面中同一运动物体转化到路面坐标系后的坐标移动距离除以相邻两帧视频画面的时间差即可得出路面上的运动物体的时速。本发明利用我国完善的既有道路交通视频监控网络作为其原始数据源来实施自动、方便、精确的车速实时测量。

Description

基于视频处理的车速实时测量方法
技术领域
本发明涉及交通管理技术领域。更具体地说,本发明涉及一种基于视频处理的车速实时测量方法。
背景技术
交通管理系统是治理交通拥堵的有效手段,在疏导交通、提高行车效率、降低交通事故风险、节能减排等多方面具有重要的应用前景。这一系统运行过程中需要对路网中各点的车辆速度和流量等重要交通参数进行实时采集。目前采集此类数据的主要手段包括感应线圈检测、激光检测、雷达检测等。感应线圈需要埋设在地下,建设和维护均需对路面进行开挖和重建,因此成本较高,且维护过程会阻断正常的交通,此外,感应线圈的使用寿命与平均车流呈反比关系,我国近年来公路车流的爆炸性增长对感应线圈的使用寿命影响巨大,进一步拉低了其性价比和产品竞争力。激光测速则由于激光发散度低导致其误检和漏检概率高,且激光测速对车辆的司乘人员存在一定的眼睛伤害风险。目前流行的雷达测速一般需要对测速对象的运动方向进行限制(雷达波与运动方向需要小于15度)以确保测量精度,此外雷达测速往往会受到相近射频波段(如为躲避测速雷达而安装的车载雷达干扰设备)或与测试对象相邻的其他车辆表面反射的雷达波的干扰而发生漏测或误测。最后,上述三中测速方法还存在一个共同缺陷,即它们均不能直接记录测速对象的身份,因此在需要确定测速对象身份的场合还需额外安装辅助的高速摄像器材对测速对象进行一一同步抓拍,这不仅显著推高了这两种测速方法的复杂度和使用成本,也对其可靠性产生一定的负面影响。
发明内容
本发明的一个目的是解决至少上述问题,并提供至少后面将说明的优点。
本发明还有一个目的是提供一种利用我国完善的既有道路交通视频监控网络作为其原始数据源来实施自动、方便、精确的基于视频处理的车速实时测量方法。
为了实现根据本发明的这些目的和其它优点,提供了一种基于视频处理的车速实时测量方法,物体从视频画面坐标系转换到路面坐标系的坐标转换公式为:
Figure BDA0001693587070000021
其中,路面坐标系中路面宽度方向为x轴,路面延伸方向为z轴,视频画面坐标系以画面中显示的路面宽度方向为u轴,以画面中显示的路面延伸方向为v轴,a为路面坐标系中两条平行分道线的距离(单位:米),b为路面坐标系中分道线的长度(单位:米),v为消失点(相当于路面延伸方向的无穷远点)在视频画面坐标系中的v轴坐标,uleft、uright分别为视频画面坐标系中路面上两条平行的分道线与u轴的交点坐标,v1、v2分别为视频画面坐标系中同一分道线两端的v轴坐标;
通过相邻两帧视频画面中同一运动物体转化到路面坐标系后的坐标距离除以相邻两帧视频画面的时间差即可得出运动物体的时速。
优选的是,消失点的检测过程包括以下步骤:
步骤一、提取道路监控视频画面中静态物体的边缘像素点;
步骤二、逐行扫描道路监控视频画面中的每一像素点,并以扫描到的未被搜索过的静态物体边缘像素点为起点,通过纵向优先方式搜索所有未被搜索过且直接或间接与起点相连且其梯度方向与起点梯度方向之间的夹角小于Λ的其他边缘像素点,并将它们按照搜索的顺序保存于同一数组中,把数组中包含的所有像素点标记为“已搜”以避免重复搜索,其中,Λ为确保数组中包含的边缘像素形成一条准直线段所使用的阈值,Λ越小,则数组中的像素在分布上越接近于直线;
步骤三、筛选出包含大于Ω个像素点的数组作为分道线候选对象,然后采用RANSAC算法得出道路监控视频画面的消失点,其中,Ω为区分人造的静态物体(如分道线)边缘轮廓线段和自然的静态物体(云彩、树木,草地)边缘轮廓线段的阈值,人造物体的轮廓更加规则,因此其直线段长度比自然物体更长。
优选的是,同一运动物体的确定过程包括以下步骤:
步骤一、提取道路监控视频每一帧画面中运动物体的边缘像素点;
步骤二、将每一帧画面中运动物体的所有边缘像素点简化为运动物体的轮廓中心点,并转换到路面坐标系上,再对比找出相邻两帧画面中在路面坐标系实际距离小于3米的一对运动物体即为同一运动物体。
优选的是,消失点的检测过程中,已保存的静态物体边缘像素点不再作为起点。
优选的是,采用混合高斯模型算法提取道路监控视频画面中只包含静态物体的像素点,再采用canny边缘检测算法从只包含静态物体像素点的道路监控视频画面中提取静态物体边缘像素点。
优选的是,采用混合高斯模型算法提取道路监控视频画面中只包含运动物体的像素点,再采用canny边缘检测算法从只包含运动物体像素点的道路监控视频画面中提取运动物体边缘像素点。
优选的是,采用混合高斯模型算法每隔200帧完全更新一次只包含静态物体像素点的道路监控视频画面。
优选的是,采用混合高斯模型算法时包含高斯模型的个数为5。
优选的是,采用混合高斯模型算法时混合高斯模型的标准差个数为2.5,初始方差为100。
优选的是,采用混合高斯模型算法时混合高斯模型的初始权重为0.05。
本发明至少包括以下有益效果:
1、鉴于目前视频测速中普遍采用的手工标定方式(即由人工对场地中已知尺寸的参照物的位置和坐标进行标注并在此基础上标定车辆从视频坐标系到三维场景坐标系的变换关系)既不方便,又容易引入较大人为误差,本发明提出根据分道线长度和间距服从国家标准的特点,完成车辆从视频坐标系到路面坐标系之间变换关系的参数标定,更为简洁和可靠。
2、通过将静态物体的边缘轮廓分割为多条准直线段,并通过自然静态物体与人造静态物体的边缘轮廓区别(前者的边缘呈随机分布,经分割后长度较短,而后者的轮廓通常呈现为规则的直线或曲线段,经分割后长度普遍较长),挑选出具有一定长度的人造静态物体的边缘轮廓线段,而场景中人们感兴趣的消失点一般都由人造物产生,因此,通过选取较长的边缘轮廓线段进行深度处理,既可避免处理自然静态物体边缘导致的运算开销,又可有效降低消失点的误检风险。
3、由于车辆在相邻两帧视频画面采集的时间段内的位移远小于车辆之间的前后间距,从而给车辆的跟踪带来了很大的便利和可靠性,如以车速120公里/小时(约33米/秒,目前我国高速公路的最高限速)和处理速度25帧/秒为例,则相邻帧之间车辆的位移约为1.32米,小于绝大多数车身长度的一半,更远小于该速度下前后车辆的安全距离(20米),也远远小于两辆平行车辆之间的安全横向间距(3米),因此,采用本发明提供的方法能确保车辆的跟踪不会出现任何失误。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明
图1为本发明所述的视频画面坐标系与路面坐标系的示意图;
图2为本发明所述道路监控视频画面坐标系以及消失点位置示意图;
图3为本发明所述道路监控视频画面中t1时刻运动车辆的位置示意图;
图4为本发明所述道路监控视频画面中t2时刻运动车辆的位置示意图;
图5为本发明一实施例中铁道线画面内静态物体的边缘像素点图;
图6为本发明一实施例中铁道线画面内静态物体边缘轮廓被分割为不同长度线段的数量统计图。
具体实施方式
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
需要说明的是,在本发明的描述中,术语“横向”、“纵向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,并不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
如图1所示,现有的交通信息采集装置一般将摄像机1架设于道路2中央的上方,摄像机获取道路交通信息视频后再交由与摄像机连接的处理器处理,本发明提供一种基于视频处理的车速实时测量方法,物体从摄像机获得的视频画面坐标系转换到路面坐标系的坐标转换公式为:
Figure BDA0001693587070000041
其中,路面坐标系中路面宽度方向为x轴,路面延伸方向为z轴,视频画面坐标系以画面中显示的路面宽度方向为u轴,以画面中显示的路面延伸方向为v轴,a为路面坐标系中两条平行分道线间的距离,b为路面坐标系中分道线的长度,v为消失点在视频画面坐标系中的v轴坐标,uleft、uright分别为视频画面坐标系中路面上两条平行的分道线与u轴的交点坐标,v1、v2分别为视频画面坐标系中同一分道线两端的v轴坐标;
通过相邻两帧视频画面中同一运动物体转化到路面坐标系后的坐标距离除以相邻两帧视频画面的时间差即可得出运动物体的时速。
鉴于目前视频测速中普遍采用的手工标定方式(即由人工对场地中已知尺寸的参照物的位置和坐标进行标注并在此基础上标定车辆从视频坐标系到三维场景坐标系的变换关系)既不方便,又容易引入较大误差,本发明提出根据分道线长度和间距服从国家标准的特点,完成车辆从视频坐标系到路面坐标系之间变换关系的参数标定,更为简洁和可靠。
如图2所示,下面以我国的分道线标准和一幅道路监控视频画面为例来说明,根据我国的国家标准,分道线的长度为6米,车道的标准宽度为3.75米物体从视频画面坐标系转换到路面坐标系的坐标转换公式为:
Figure BDA0001693587070000051
在获得上述精确的坐标变换关系后,设任一运动车辆在前一帧画面的t1时刻位于(x1,z1),后一帧画面的t2时刻移动至(x2,z2),则该车的速度speed可以由下式推得:
Figure BDA0001693587070000052
在图3、图4中,通过检测一辆行驶着的汽车3的中心点坐标计算得该行驶汽车的时速为82km/h,而汽车的中心点为汽车边缘轮廓的几何中心。
在另一实施例中,消失点的检测过程包括以下步骤:
步骤一、提取道路监控视频画面中静态物体的边缘像素点;
步骤二、逐行扫描道路监控视频画面中的每一像素点,并以扫描到的静态物体边缘像素点为起点,搜索梯度方向与起点的梯度方向之间的夹角小于Λ的另外的静态物体边缘像素点,并将起点与另外的静态物体边缘像素点保存于同一数组中,其中,Λ为将静态物体的边缘轮廓分割为多条由起点与另外的静态物体边缘像素点组成的准直线段的阈值;
步骤三、筛选出包含大于Ω个像素点的数组,然后采用RANSAC算法得出道路监控视频画面的消失点,其中,Ω为区分人造的静态物体边缘轮廓线段和自然的静态物体边缘轮廓线段的阈值。
上述实施例在实际运用过程中,首先根据像素点的梯度方向角对道路监控视频画面中静态物体的边缘像素点进行标记,边缘像素点标记为1,非边缘像素点标记为0,然后对静态物体的边缘轮廓线进行分割,主要基于下述机理,即线段的切线方向几乎总是跟其灰度的梯度方向垂直,因此在进行线段检测时,线段上的所有像素的梯度方向原则上应分布在一个相对集中的范围内,如其梯度方向的分布范围为Λ,因此可以通过从线段的起点像素点(设其梯度方向角为θ),利用纵向优先搜索(Depth First Search)方法把跟起点相连且梯度方向跟θ之间的夹角小于一定阈值Λ的所有像素点找出来。实际的线段搜索算法分为两部分,第一部分进行逐行扫描找到尚未搜索过的像素点作为线段的起点,第二部分对起点调用纵向优先搜索进行递归搜索,找出线段的其他像素点。纵向优先搜索Depth-First-Search(G,u)是一种无向图的快速递归搜索算法,首先它在搜索开始时创建一个新的堆栈用于顺序存放搜出的边缘像素点信息,然后从起点的相邻点开始一步步调用函数本身直到搜出所有跟起点相连(直接或间接)且满足梯度方向角条件的所有未搜过的像素点。上述方法获得的线段一般为直线段或跨度较小的弧线,而场景中人们感兴趣的消失点一般都由人造物产生,自然产生的静态物体包括云彩、树木、绿草、地貌等,其边缘轮廓呈随机分布,经分割后长度较短,人造的静态物体包括道路、建筑物、各种设备等,其边缘轮廓通常呈现为规则的直线或曲线段,经分割后长度普遍较长,因此,通过选取较长的边缘轮廓线段进行深度处理,既可避免处理自然静态物体边缘导致的运算开销,又可有效降低消失点的误检风险。
如图5所示,是一幅经过处理的铁道线画面中静态物体的边缘像素点图,图中景深较远处为树木轮廓,景深较近处为铁道线轮廓,从图中可以看出,树木的边缘轮廓基本均为跨度较小的弧线,而铁道线的边缘轮廓基本均为规则的长直线段。同时,经统计图中一共包含51106个边缘像素点,经边缘分割后,形成了8984条准直线段,其数量随长度的分布如图6所示,长度大于10像素的线段为1840条,占总数的20.5%,而长度大于30像素的线段仅有58条,且大部分是指向消失点的局内线段。因此,当把RANSAC消失点检测中参与抽样的线段长度阈值设置得足够大(如大于30),既可以大大减少抽样的组数从而确保算法的速度,又不会造成消失点的漏检。
在另一实施例中,同一运动物体的确定过程包括以下步骤:
步骤一、提取道路监控视频每一帧画面中运动物体的边缘像素点;
步骤二、将每一帧画面中运动物体的所有边缘像素点简化为运动物体的轮廓中心点,即取所有边缘像素点的平均值就可得出运动物体的轮廓中心点,再转换到路面坐标系上,对比找出相邻两帧画面中在路面坐标系实际距离小于3米的一对运动物体即为同一运动物体。
上述实施例在实际运用过程中,由于车辆在相邻两帧视频画面采集的时间段内的位移远小于车辆之间的前后间距,从而给车辆的跟踪带来了很大的便利,如以车速120公里/小时(约33米/秒,目前我国高速公路的最高限速)和处理速度25帧/秒为例,则相邻帧之间车辆的位移约为1.32米,小于绝大多数车身长度的一半,更远小于该速度下前后车辆的安全距离(20米),也远远小于两辆平行车辆之间的安全横向间距(3米),因此,采用本发明提供的方法能确保车辆的跟踪不会出现任何失误。
在另一实施例中,消失点的检测过程中,已保存的静态物体边缘像素点不再作为起点,这样能在确保所有边缘像素点不被重复搜索,减小了运算量提高了运算速度。
在另一实施例中,采用混合高斯模型算法提取道路监控视频画面中只包含静态物体的像素点,再采用canny边缘检测算法从只包含静态物体像素点的道路监控视频画面中提取静态物体边缘像素点。
混合高斯模型是一种专门用于对静止摄像机拍摄视频中的运动物体进行检测的算法。具体而言,混合高斯模型把视频图像中的像素分为两类,即前景像素和背景像素。其中前景通常是由运动物体直接产生,而背景则由静态物体产生,混合高斯模型通过统计方法能有效判断当前图像中每个像素是否是由运动物体还是由静态物体产生的,前者判断为前景像素,后者判断为背景像素。
混合高斯模型是相对单分布高斯模型而言的。单分布高斯模型中,背景只能由一个高斯分布组成,不能处理背景物体处于运动前景的阴影中的情况。运动物体在场景中通常会在周边一定区域内产生阴影(如阳光投射在路面上的影子),这类阴影虽然由运动物体产生,但是它们跟运动物体有本质区别,原则上应仍然归类于背景。单高斯背景模型一般会把阴影区域误检为前景。
混合高斯模型通过统计方式构造多个高斯背景模型(一个高斯背景模型用于静态背景不处于运动物体的阴影中的情况,另外一个高斯背景模型用于描述静态物体处于运动物体阴影中的情况),因此可以把阴影正确地作为背景去掉。
Canny边缘检测拥有较好的实时性和鲁棒性,处理一幅1000×1000像素的图像时耗时不足30毫秒,且获得的轮廓线具有较好的抗噪性和极窄的宽度(接近于单像素),便于对边缘线段的截距和斜率进行精确估算。
在另一实施例中,采用混合高斯模型算法提取道路监控视频画面中只包含运动物体的像素点,再采用canny边缘检测算法从只包含运动物体像素点的道路监控视频画面中提取运动物体边缘像素点。
在另一实施例中,采用混合高斯模型算法每隔200帧完全更新一次只包含静态物体像素点的道路监控视频画面,原则上,静态物体变化越平缓,则更新帧数应设置得越大,以确保在场景中缓慢移动的物体也能被准确检测。
在另一实施例中,采用混合高斯模型算法时包含高斯模型的个数为5,这样能准确形成同一物体在不同情况下的像素点状态图,如路面在有车情况下会存在两种亮度(阳光直接照射下的亮度和阳光被运动车辆遮挡下的亮度)。
在另一实施例中,采用混合高斯模型算法时混合高斯模型的标准差个数为2.5,初始方差为100。标准差个数确定了运动物体像素点与静态物体像素点之间的亮度差达到标准差的多少倍时该运动物体像素点会被视作静态物体像素点,初始方差用于表示静态物体像素点分布的亮度范围,这两个值越大,则运动物体像素点被判断为静态物体像素点的可能性越大,从而使得运动物体漏检的概率越高,同时静态物体被误检为运动前景的概率越小;这两个值越小,则运动物体被判断为静态物体的可能性越小,从而使得运动物体漏检的概率越低,同时静态物体被误检为运动前景的概率越高,本实施例提供的数值刚好在合理范围,确保了漏检和误检之间的平衡。
在另一实施例中,采用混合高斯模型算法时混合高斯模型的初始权重为0.05,其代表计算初始静态物体像素点图时每帧画面的贡献率,值越小则获得混合高斯模型初始背景所需的帧数越大,本实施例提供的数值需要对最初的20帧(1/0.05)画面进行累积处理以完成静态物体像素点图的提取。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (9)

1.一种基于视频处理的车速实时测量方法,其特征在于,路面上的物体从视频画面坐标系(u,v)转换到路面坐标系(x,z)的坐标转换公式为:
Figure FDA0002718011280000011
其中,路面坐标系中路面宽度方向为x轴,路面延伸方向为z轴,视频画面坐标系以画面中显示的路面宽度方向为u轴,以画面中显示的路面延伸方向为v轴,a为路面坐标系中两条平行分道线的距离,b为路面坐标系中分道线的长度,v为消失点在视频画面坐标系中的v轴坐标,uleft、uright分别为视频画面坐标系中路面上两条平行的分道线与u轴的交点坐标,v1、v2分别为视频画面坐标系中同一分道线两端的v轴坐标;
通过相邻两帧视频画面中同一运动物体转化到路面坐标系后的坐标距离除以相邻两帧视频画面的时间差即可得出运动物体的时速;
其中,消失点的检测过程包括以下步骤:
步骤一、提取道路监控视频画面中静态物体的边缘像素点;
步骤二、逐行扫描道路监控视频画面中的每一像素点,并以扫描到的静态物体边缘像素点为起点,通过纵向优先方式搜索所有与起点直接或间接相连且梯度方向与起点梯度方向之间的夹角小于Λ的其他边缘像素点,并将它们按照搜索的顺序保存于同一数组中,把数组中包含的所有像素点标记为已搜以避免重复搜索,其中,Λ为确保数组中包含的边缘像素点形成一条准直线段所使用的阈值;
步骤三、筛选出包含大于Ω个像素点的数组作为分道线候选对象,然后采用RANSAC算法得出道路延伸方向的消失点,其中,Ω为区分人造的静态物体边缘轮廓线段和自然的静态物体边缘轮廓线段的阈值。
2.如权利要求1所述的基于视频处理的车速实时测量方法,其特征在于,同一运动物体的确定过程包括以下步骤:
步骤一、提取道路监控视频每一帧画面中运动物体的边缘像素点;
步骤二、将每一帧画面中运动物体的所有边缘像素点简化为运动物体的轮廓中心点,并转换到路面坐标系上,再对比找出相邻两帧画面中在路面坐标系实际距离小于3米的一对运动物体即为同一运动物体。
3.如权利要求1所述的基于视频处理的车速实时测量方法,其特征在于,消失点的检测过程中,已保存的静态物体边缘像素点不再作为起点。
4.如权利要求1中所述的基于视频处理的车速实时测量方法,其特征在于,采用混合高斯模型算法提取道路监控视频画面中只包含静态物体的像素点,再采用canny边缘检测算法从只包含静态物体像素点的道路监控视频画面中提取静态物体边缘像素点。
5.如权利要求2中所述的基于视频处理的车速实时测量方法,其特征在于,采用混合高斯模型算法提取道路监控视频画面中只包含运动物体的像素点,再采用canny边缘检测算法从只包含运动物体像素点的道路监控视频画面中提取运动物体边缘像素点。
6.如权利要求4或5中所述的基于视频处理的车速实时测量方法,其特征在于,采用混合高斯模型算法每隔200帧完全更新一次只包含静态物体像素点的道路监控视频画面。
7.如权利要求4或5中所述的基于视频处理的车速实时测量方法,其特征在于,采用混合高斯模型算法时包含高斯模型的个数为5。
8.如权利要求4或5中所述的基于视频处理的车速实时测量方法,其特征在于,采用混合高斯模型算法时混合高斯模型的标准差个数为2.5,初始方差为100。
9.如权利要求4或5中所述的基于视频处理的车速实时测量方法,其特征在于,采用混合高斯模型算法时混合高斯模型的初始权重为0.05。
CN201810602470.3A 2018-06-12 2018-06-12 基于视频处理的车速实时测量方法 Active CN109580979B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810602470.3A CN109580979B (zh) 2018-06-12 2018-06-12 基于视频处理的车速实时测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810602470.3A CN109580979B (zh) 2018-06-12 2018-06-12 基于视频处理的车速实时测量方法

Publications (2)

Publication Number Publication Date
CN109580979A CN109580979A (zh) 2019-04-05
CN109580979B true CN109580979B (zh) 2021-02-09

Family

ID=65919532

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810602470.3A Active CN109580979B (zh) 2018-06-12 2018-06-12 基于视频处理的车速实时测量方法

Country Status (1)

Country Link
CN (1) CN109580979B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110556003B (zh) * 2019-08-27 2021-04-06 精英数智科技股份有限公司 无轨胶轮车速度的监控方法、装置、设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101608924A (zh) * 2009-05-20 2009-12-23 电子科技大学 一种基于灰度估计和级联霍夫变换的车道线检测方法
CN103177584A (zh) * 2013-02-05 2013-06-26 长安大学 一种基于枚举试探的车速检测方法
KR101645717B1 (ko) * 2015-01-28 2016-08-12 (주)한양정보통신 첨단 운전자 보조 시스템의 적응적 보정 장치 및 방법
CN106778668A (zh) * 2016-12-30 2017-05-31 明见(厦门)技术有限公司 一种联合ransac和cnn的鲁棒的车道线检测方法
CN108121941A (zh) * 2016-11-30 2018-06-05 上海联合道路交通安全科学研究中心 一种基于监控设备的目标物速度计算方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101608924A (zh) * 2009-05-20 2009-12-23 电子科技大学 一种基于灰度估计和级联霍夫变换的车道线检测方法
CN103177584A (zh) * 2013-02-05 2013-06-26 长安大学 一种基于枚举试探的车速检测方法
KR101645717B1 (ko) * 2015-01-28 2016-08-12 (주)한양정보통신 첨단 운전자 보조 시스템의 적응적 보정 장치 및 방법
CN108121941A (zh) * 2016-11-30 2018-06-05 上海联合道路交通安全科学研究中心 一种基于监控设备的目标物速度计算方法
CN106778668A (zh) * 2016-12-30 2017-05-31 明见(厦门)技术有限公司 一种联合ransac和cnn的鲁棒的车道线检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于消失点的坐标校准算法;谭方勇 等;《计算机应用》;20110131;第31卷(第1期);第58-60页 *
基于视频的车速检测算法研究;于艳玲 等;《现代电子技术》;20130201;第36卷(第3期);第158-161页 *

Also Published As

Publication number Publication date
CN109580979A (zh) 2019-04-05

Similar Documents

Publication Publication Date Title
CN106951879B (zh) 基于摄像头与毫米波雷达的多特征融合车辆检测方法
US20210350149A1 (en) Lane detection method and apparatus,lane detection device,and movable platform
CN106290388A (zh) 一种绝缘子故障自动检测方法
CN110738121A (zh) 一种前方车辆检测方法及检测系统
CN108052904B (zh) 车道线的获取方法及装置
CN103605953A (zh) 基于滑窗搜索的车辆兴趣目标检测方法
CN114677554A (zh) 一种基于YOLOv5与Deepsort的统计滤波红外小目标检测跟踪方法
CN110163871A (zh) 一种多线激光雷达的地面分割方法
EP4120123A1 (en) Scan line-based road point cloud extraction method
CN110197173B (zh) 一种基于双目视觉的路沿检测方法
Börcs et al. Fast 3-D urban object detection on streaming point clouds
CN102393902A (zh) 基于h_s二维直方图和区域颜色匹配的车辆颜色检测方法
Li et al. A lane marking detection and tracking algorithm based on sub-regions
CN110321855A (zh) 一种雾天检测预警装置
CN113781537A (zh) 一种轨道弹条扣件缺陷识别方法、装置和计算机设备
CN112597926A (zh) 基于fod影像对飞机目标的识别方法、设备、存储介质
CN109580979B (zh) 基于视频处理的车速实时测量方法
CN103927523B (zh) 一种基于纵向灰度特征的雾天等级检测方法
CN111814773A (zh) 一种划线车位识别方法及系统
CN111353481A (zh) 基于激光点云与视频图像的道路障碍物识别方法
CN112817006B (zh) 一种车载智能道路病害检测方法及系统
CN110969875B (zh) 一种用于道路交叉口交通管理的方法及系统
CN108985233B (zh) 一种基于数字图像相关的高精度车辆跟踪方法
CN109308468B (zh) 一种车道线检测方法
CN107153823B (zh) 一种基于视觉关联双空间的车道线特征提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211215

Address after: 215000 floor 18, North building, No. 1, Nanhuan East Road, Gusu District, Suzhou City, Jiangsu Province

Patentee after: Suzhou Intelligent Transportation Information Technology Co.,Ltd.

Address before: 215104 No. 106, Da Neng Avenue, Suzhou International Education Park, Jiangsu

Patentee before: SUZHOU VOCATIONAL University