CN102810250A - 基于视频的多车型交通信息检测方法 - Google Patents

基于视频的多车型交通信息检测方法 Download PDF

Info

Publication number
CN102810250A
CN102810250A CN201210269207XA CN201210269207A CN102810250A CN 102810250 A CN102810250 A CN 102810250A CN 201210269207X A CN201210269207X A CN 201210269207XA CN 201210269207 A CN201210269207 A CN 201210269207A CN 102810250 A CN102810250 A CN 102810250A
Authority
CN
China
Prior art keywords
vehicle
frame
agglomerate
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201210269207XA
Other languages
English (en)
Other versions
CN102810250B (zh
Inventor
李曙光
余洪凯
张敬茹
岳珂
郑常科
贾晨
王为达
张婷玉
陈开放
薛超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changan University
Original Assignee
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changan University filed Critical Changan University
Priority to CN201210269207.XA priority Critical patent/CN102810250B/zh
Publication of CN102810250A publication Critical patent/CN102810250A/zh
Application granted granted Critical
Publication of CN102810250B publication Critical patent/CN102810250B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于视频的多车型交通信息检测方法,包括如下步骤:交通视频采集;参数设置;系统初始化;车辆目标检测:结合初始彩色背景图像和视频当前帧的RGB彩色图像,得到自适应的动态实时彩色背景图像;提取出彩色差分结果图像fgi;自适应Otsu阈值分割;对前景目标图像去除阴影;形态学操作和车辆团块填充;车辆计数:判断是否至少有一个虚拟检测线圈检测到车辆,是则判定该虚拟检测线圈检测到车辆,将总车辆数加1,然后执行步骤5;否则执行步骤406;多车型交通信息采集。本发明的方法跟踪经过的每一辆车并记录车型和速度,得到不同车型的流量和平均速度等多车型交通信息,且充分考虑了跨车道车辆、车辆粘连和遮挡因素,抗干扰性强,检测精确度高。

Description

基于视频的多车型交通信息检测方法
技术领域
本发明属于智能交通领域,主要用于高速公路和城市道路的多种车型的交通信息采集,尤其涉及一种基于视频的多车型交通信息检测方法。 
背景技术
在智能交通系统应用、交通管理、交通仿真和交通流理论研究中,一项非常重要的工作就是对交通信息的采集。目前绝大多数交通信息采集设备能够提供的信息主要是单一车型的流量、速度、密度等宏观参数,这些交通信息并不区分车辆类型。大型车辆由于较大的车型结构和较低的动力性能,在运行过程中表现出速度小和对道路时空消耗过大的运行特征,在降低道路通行能力的同时,对交通安全产生不良影响。因此采集多车型交通信息对于交通管理和理论研究具有重要意义。 
传统的交通信息采集方法主要有:地埋式感应线圈法、红外线检测法和超声波检测法等。这些传统方法的成本高、维护困难。而且中国的道路交通环境复杂,导致这些传统方法不能有效地分辨车型。随着视频处理技术的快速发展,基于视频的交通信息采集系统得到广泛应用。相比传统的交通信息采集方法,视频检测系统具有安装简单、维护方便、采集参数多等优点,而且可以在复杂交通场景下有效识别车型。 
目前绝大多数的交通信息视频采集系统只是提供不考虑车型分类的宏观交通信息,经常忽视跨车道行驶的车辆造成漏检,也会对同一车辆的重复计数,对于车辆粘连和遮挡等因素照成的误差抗干扰性较差。因此本发明提供了一种基于视频的多车型交通信息采集方法。本发明跟踪经过检测断面的每一辆车,记录每一辆经过车辆的车型和速度,采集区分车型的流量和平均速度等交通信息。本发明采用了基于彩色图像的自适应背景差分算法识别车辆目标,提取了更加准确的车辆目标;使用了诸如阴影去除和设置道路检测区域等一系列措施来提高系统的鲁棒性和抗干扰性;考虑了跨车道行驶车辆避免漏检,也避免了对同一车辆的重复计数,提高了车辆计数准确率;应用K-means聚类算法得到更加准确的车型分类阈值参数,引进了车辆占空比参数和数据融合技术减少车辆粘连和遮挡造成的车型识别误差,提高了车型分类准确率。 
发明内容
针对上述现有技术存在的缺陷或不足,本发明的目的在于,提供一种基于视频的多车型 交通信息检测方法,该方法跟踪经过的每一辆车,并记录每一辆车的车型和速度,得到不同车型的流量和平均速度等多车型交通信息,本发明充分考虑了跨车道车辆,避免对同一车辆重复计数,并充分考虑了车辆粘连和遮挡因素,抗干扰性强,检测精确度高。 
为了实现上述目的,本发明采用如下技术解决方案: 
基于视频的多车型交通信息检测方法,其特征在于,至少包括如下步骤: 
步骤1:交通视频采集; 
步骤2:参数设置:设置虚拟检测线圈大小和位置; 
步骤3:系统初始化:以帧为单位读取采集到的交通视频流,对图像进行预处理去噪,计算初始彩色背景图像,标定交通场景,设置道路检测区域; 
步骤4:车辆目标检测:具体包括如下步骤: 
Step400:读取下一帧图像; 
Step401:通过公式(5),结合初始彩色背景图像和视频当前帧的RGB彩色图像,得到自适应的动态实时彩色背景图像;通过公式(6)提取出彩色差分结果图像fgi; 
b g i + 1 = { R i + 1 , G i + 1 , B i + 1 } = R i + 1 = ( 1 - α ) R i + α f i + 1 R G i + 1 = ( 1 - α ) G i + α f i + 1 G B i + 1 = ( 1 - α ) B i + α f i + 1 B , i ≥ 0,0 ≤ α ≤ 1 - - - ( 5 )
其中,α为调节更新速率,α=0.005,bgi的RGB三通道分量分别为Ri、Gi、Bi,第i+1帧的彩色背景图像是bgi+1,bgi+1的RGB三通道分量分别为Ri+1、Gi+1、Bi+1; 
f g i = { f g i R , f g i G , fg i B } = f g i R = f i R - R i f g i G = f i G - G i f g i B = f i B - B i , i ≥ 1 - - - ( 6 )
其中,fgi为彩色差分结果图像,fi为第i帧RGB彩色图像; 
Step402:自适应Otsu阈值分割:对彩色差分结果图像fgi灰度化处理后,再经过自适应Otsu阈值分割得到前景目标图像; 
Step403:利用基于HSV(Hue、Saturation、Value)空间的阴影检测去除算法,对步骤402得到的前景目标图像去除阴影; 
Step404:对步骤403得到的结果进行形态学操作和车辆团块填充; 
Step405:车辆计数:判断是否至少有一个虚拟检测线圈检测到车辆,如果是,则判定该虚拟检测线圈LoopX检测到车辆,将总车辆数加1,然后执行步骤5;否则执行步骤406; 记录当前帧数Fc,在当前帧数Fc以后的连续Fs帧中,该虚拟检测线圈LoopX以及它的冲突线圈均停止检测;Fs通过下式得到: 
F S = 2 L ‾ V ‾ * fps - - - ( 8 )
其中 
Figure BDA00001952525200032
为平均车辆长度,单位:米, 
Figure BDA00001952525200033
为平均车速,单位:米每秒,fps为视频的采集帧率,单位:帧每秒; 
Step406:判断步骤1拍摄的交通视频流是否读取结束,是则执行步骤6;否则执行步骤400; 
步骤5:车辆跟踪和分类:某个虚拟检测线圈检测到车辆后,开始连续跟踪该车M帧;跟踪车辆过程中,转换坐标,计算每一帧中车辆的瞬时速度,对于被跟踪车辆得到M个瞬时速度;每一帧都提取车辆的长度、面积和占空比等几何参数识别其车型,得到M个瞬时车型识别结果;每一辆车被连续跟踪M帧结束后,采用数据融合的方法判断被跟踪车辆的最终速度和最终车型;执行步骤400; 
步骤6:多车型交通信息采集。 
进一步的,所述步骤3中系统初始化具体包括以下步骤: 
Step300:以帧为单位读取采集到的交通视频; 
Step301:图像预处理; 
Step302:计算初始彩色背景图像:对视频起始的前N帧图像的求平均值,作为初始彩色背景图像; 
Step303:交通场景标定:采用直接线性变换算法标定交通场景; 
Step304:设置道路检测区域;对步骤302得到的初始彩色背景图像灰度化,利用Canny算子进行边沿检测,再利用Hough变换检测道路左右边沿直线,然后将道路左右边沿直线均向外平移后得到道路检测区域。 
进一步的,所述步骤5具体包括如下步骤: 
Step501:特征匹配跟踪车辆:设图像的坐标原点在左下角,对于每一个车辆团块,定义车辆团块范围内的Y坐标最小的那个点为车头特征点。如果要跟踪第K帧的第i个车辆团块,计算这个车辆团块的车头特征点与第K+1帧每一个车辆团块的车头特征点的像素距离: 
D ( i , j ) = ( x k + 1 j - x k i ) 2 + ( y k + 1 j - y k i ) 2 , 1 ≤ j ≤ h - - - ( 9 )
其中, 
Figure BDA00001952525200035
是第K帧的第i个车辆团块的车头特征点在图像坐标系中的坐标; 
Figure BDA00001952525200041
是第K+1帧的第j个车辆团块的车头特征点在图像坐标系中的坐标;h是第K+1帧的车辆团块总数;在第K+1帧中,与第K帧的第i个车辆团块的最佳匹配目标可以由下式得出: 
Figure BDA00001952525200042
其中,第K+1帧的第p个车辆团块的车头特征点与第K帧的第i个车辆团块的车头特征点距离最小,则这两个车辆团块是同一辆车。以此类推,连续跟踪车辆M帧,M取10到15之间的值;车辆跟踪M帧的过程中,伴随着瞬时车速测量和车型分类步骤; 
Step501-A:瞬时车速测量; 
跟踪车辆过程中,利用交通场景标定结果把车头特征点的图像坐标转换到世界坐标系中的对应坐标;得到第K+t帧被跟踪车辆的车头特征点在世界坐标系中对应点为(Xk+t,Yk+t);每相邻两帧计算被跟踪车辆的瞬时速度Vt(m/s),具体如下式: 
V t = ( X k + t - X k + t - 1 ) 2 + ( Y k + t - Y k + t - 1 ) 2 ΔT , 1 ≤ t ≤ M - - - ( 11 )
其中,△T表示连续视频图像的采样时间间隔,取1/29秒;每辆车都被连续跟踪M帧,共得到M个瞬时速度Vt(m/s); 
Step501-B:瞬时车型分类; 
车型分为大车LV和小车SV两种;在车辆前景目标图像中,首先提取团块目标的最小外接矩形,再提取团块目标的像素长度L和像素面积S,并计算团块目标的占空比R,设定阈值后判断车型: 
Type t = LV ifL > l 1 andS > s 1 andR > r 1 Type t = SV otherwise , 1 ≤ t ≤ M - - - ( 12 )
其中,l1、s1和r1分别是车辆团块目标的车长、面积和占空比的阈值参数; 
Step502:数据融合: 
计算最终速度:利用式(11)得到M个瞬时速度Vt,单位:m/s,通过式(13)计算该被跟踪车辆的最终速度V,单位:km/h: 
V = 3.6 * ( 1 M Σ t = 1 M V t ) - - - ( 13 )
其中,1≤t≤M;3.6是m/s到km/h的单位转换因子; 
判断最终车型:利用式(12)得到M个瞬时车型分类结果,再利用式(14)所示的投票算法对最终车型判断;统计这M个车型判断结果,其中,瞬时车型分类为大型车LV的数量为NLV,瞬时车型分类为小型车SV的数量为NSV。 
Type = LV if N LV > N SV Type = SV otherwise , N LV + N SV = M - - - ( 14 )
进一步的,所述Step501-B的瞬时车型分类中,车辆团块目标的车长l1、面积s1和占空比r1的阈值参数分别为:l1=141,s1=10162,r1=0.65。 
进一步的,所述的步骤6多车型交通信息采集具体如下: 
t=n/fps                   (15) 
SVNum=VehicleNum-LVNum    (16) 
Ratio = LVNum VehicleNum * 100 % - - - ( 17 )
Q = 3600 * VehicleNum t - - - ( 18 )
Q LV = 3600 * LVNum t - - - ( 19 )
QSV=Q-QLV                 (20) 
U t = 1 VehicleNum * Σ i = 1 VehicleNum V i - - - ( 21 )
U t LV = 1 LVNum * Σ i = 1 LVNum V i LV - - - ( 22 )
U t SV = 1 SVNum * Σ i = 1 SVNum V i SV - - - ( 23 )
其中,t是当前时刻,单位:秒;n是当前帧数,单位:帧;fps是视频采集帧率,单位:帧/秒;SVNum是小车数量,单位:辆;Ratio是大车混入率;Q是总交通流量,单位:辆/小时;QLV是大车交通流量,单位:辆/小时;QSV是小车交通流量,单位:辆/小时;Ut是总时间平均速度,单位:千米/小时; 
Figure BDA00001952525200058
是大车的时间平均速度,单位:千米/小时; 
Figure BDA00001952525200059
是小车的时间平均速度,单位:千米/小时;Vi是第i辆车的速度,单位:千米/小时; 
Figure BDA000019525252000510
是第 i辆大车的速度,单位:千米/小时; 
Figure BDA00001952525200061
是第i辆小车的速度,单位:千米/小时。 
附图说明
图1是本发明方法的流程图。 
图2是设置虚拟检测线圈的示意图。 
图3是系统初始化的流程图。 
图4是系统初始化的效果示意图。其中,图4(a)是视频中一帧图像,图4(b)是提取的初始彩色背景图像,图4(c)是4个标定参考点的选取示意图,图4(d)是由4个标定参考点建立的世界坐标系示意图,图4(e)是Hough变换检测道路边沿直线示意图,图4(f)是设定道路检测区域示意图。 
图5是避免重复计数的流程图。 
图6是车辆跟踪和分类的流程图。 
图7是车辆粘连的示意图。其中,图7(a)是车辆横向粘连示意图,图7(b)是车辆斜向粘连示意图,图7(c)是车辆纵向粘连示意图。 
图8是K-means聚类的结果图。 
图9是本发明测速与雷达枪测速比较图。其中,图9(a)是测试视频ⅰ的测速结果与雷达枪测速结果比较图,图9(b)是测试视频ⅱ的测速结果与雷达枪测速结果比较图,图9(c)是测试视频ⅲ的测速结果与雷达枪测速结果比较图,图9(d)是测试视频ⅳ的测速结果与雷达枪测速结果比较图。 
图10是本发明测速误差分布直方图。其中,图10(a)是测试视频ⅰ的测速误差分布图,(b)是测试视频ⅱ的测速误差分布图,图10(c)是测试视频ⅲ的测速误差分布图,图10(d)是测试视频ⅳ的测速误差分布图。 
以下结合附图和具体实施方式对本发明做进一步详细说明。 
具体实施方式
如图1所示,本发明的基于视频的多车型交通信息检测方法,具体包括如下步骤: 
步骤1:交通视频采集。利用架设在道路上方的摄像机采集交通视频,拍摄迎面驶来的交通流。交通视频流输出的每一帧图像为RGB彩色图像,图像采集帧率至少为29帧每秒。 
步骤2:参数设置。参见图2,设置虚拟检测线圈大小和位置。设置的虚拟检测线圈为矩形,其宽度等于其所在的车道宽度,在每个车道放置一个车道内虚拟检测线圈,且每两个相邻车道间均放置一个跨车道虚拟检测线圈,以避免车辆漏检,虚拟检测线圈的摆放位置与交通流方向垂直,且摆放在车辆清晰可见且粘连较少出现的位置。如图2所示,其中的道路 共有三个车道,因此,设置3个车道内虚拟检测线圈(Loop1、Loop2和Loop3)和2个跨车道虚拟检测线圈(Loop4和Loop5)。 
步骤3:系统初始化。如图3所示,以帧为单位读取采集到的交通视频流,对图像进行预处理去噪,计算初始彩色背景图像,标定交通场景,设置道路检测区域。系统初始化处理的效果如图4所示。 
参照图3,其中,所述步骤3中系统初始化包括以下步骤: 
Step300:以帧为单位读取采集到的交通视频。 
Step301:预处理。视频图像采集的过程中,不可避免的存在一些干扰,由此采集的图像就会失真,进而给后续的图像分析和识别带来困难。为了提高精度,使系统检测到的交通流信息更加准确,就需要对采集到的检测区域内的图像进行预处理。预处理操作主要是对视频图像进行图像平滑、滤波和对比度增强等操作。 
Step302:计算初始彩色背景图像。对视频起始的前N帧图像的求平均值,作为初始彩色背景图像。设第i帧彩色图像为fi,每一帧图像fi由R、G、B三通道组成: 
f i = { f i R , f i G , f i B } - - - ( 1 )
其中 
Figure BDA00001952525200072
分别为第i帧彩色图像fi的RGB三通道分量。设初始彩色背景为bg0,bg0的RGB三通道分量分别为R0、G0、B0,初始彩色背景的计算方法如下所示: 
b g 0 = { R 0 , G 0 , B 0 } = R 0 = 1 N Σ i = 1 N f i R G 0 = 1 N Σ i = 1 N f i G B 0 = 1 N Σ i = 1 N f i B - - - ( 2 )
其中,取经验值N=500。得到图4(b)所示的初始彩色背景图像。 
Step303:交通场景标定。采用直接线性变换算法标定交通场景。直接线性变换算法参考文献1:“Abdel-Aziz Y.I.,Karara H.M.Direct Linear Transformation into Obiect Space Coordinates in Close-Range Photogrammetry[C]:Proceedings of the Symposium on Close-Range Photogrammetry.1971:1-18”。在被检测路面上随机选取四个参考点,该四个参考点形成一个矩形区域,定义该矩形区域的中心为世界坐标系的原点,建立图像坐标系对应的世界坐标系。比如图4(c)显示了在一个三车道的道路上所选取的四个参考点1-4,图4(d)显示了由参考点1-4所建立的图像坐标系对应的世界坐标系。设x1-y4为4个参考点在图像坐标系中的坐 标,X1-Y4为4个参考点在对应的世界坐标系中的坐标。得到x1-y4和X1-Y4的数值后,4个参考点的坐标变换满足下式: 
X 1 Y 1 1 0 0 0 x 1 X 1 x 1 Y 1 0 0 0 X 1 Y 1 1 y 1 X 1 y 1 Y 1 X 2 Y 2 1 0 0 0 x 2 X 2 x 2 Y 2 0 0 0 X 2 Y 2 1 y 2 X 2 y 2 Y 2 X 3 Y 3 1 0 0 0 x 3 X 3 x 3 Y 3 0 0 0 X 3 Y 3 1 y 3 X 3 y 3 Y 3 X 4 Y 4 1 0 0 0 x 4 X 3 x 4 Y 4 0 0 0 X 4 Y 4 1 y 4 X 4 y 4 Y 4 * P 1 P 2 P 3 P 4 P 5 P 6 P 7 P 8 = - x 1 y 1 x 2 y 2 x 3 y 3 x 4 y 4 - - - ( 3 )
其中P1-P8为8个标定变换系数。解式(3)所示的方程组得到所述8个变换系数P1-P8,然后可以利用公式(4)把图像坐标系中的任意一点转换到对应的世界坐标系中,具体算法如下式所示: 
X = ( P 2 + x P 8 ) ( P 6 + y ) - ( P 5 + y P 8 ) ( P 3 + x ) ( P 1 + x P 7 ) ( P 5 + y P 8 ) - ( P 4 + y P 7 ) ( P 3 + x P 8 ) Y = ( P 4 + y P 7 ) ( P 3 + x ) - ( P 1 + x P 7 ) ( P 6 + y ) ( P 1 + x P 7 ) ( P 5 + y P 8 ) - ( P 4 + y P 7 ) ( P 2 + x P 8 ) - - - ( 4 )
其中(x,y)为图像坐标系中的某一点的坐标,(X,Y)为该点在对应的世界坐标中的坐标。 
Step304:设置道路检测区域。对步骤302得到的初始彩色背景图像灰度化,利用Canny算子进行边沿检测,再利用Hough变换检测道路左右边沿直线,如图4(e)所示,然后将道路左右边沿直线均向外平移一定距离后得到道路检测区域,该距离满足所得到的道路检测区域的宽度能够显示车辆的全身。如图4(f)显示了根据图4(e)得到的道路边沿直线所确定的道路检测区域。后续的所有操作都在该道路检测区域内进行,减少了算法计算量,也提高了系统的抗干扰性。 
步骤4:车辆目标检测。本发明使用背景差分算法来检测车辆目标。对于常用的基于灰度图像的背景差分算法,当车辆的灰度和背景灰度相近时,车辆的抽取就将面临失败。为了抑制这些干扰因素,考虑对RGB彩色图像的三通道信息分别进行背景差分提取车辆目标,即自适应彩色背景差分算法。然后使用自适应Otsu阈值分割彩色背景差分结果,得到二值化的车辆目标图像。再利用基于HSV空间的阴影检测算法去除车辆运动阴影干扰。然后对车辆目标图像进行形态学操作和填充,使得车辆目标更完整。监测虚拟检测线圈相邻帧的灰度变化百分比,检测车辆,进而对车辆计数。车辆计数时,本发明考虑了跨车道行驶的车辆避免漏检,也避免了对同一辆车的重复计数。 
其中,所述步骤4的车辆目标检测具体包括以下步骤: 
Step400:读取下一帧图像; 
Step401:自适应彩色背景差分,包括Step401-A和Step401-B; 
Step401-A:动态背景更新 
通过公式(5),结合初始彩色背景图像和视频当前帧的RGB彩色图像,得到自适应的动态实时彩色背景图像。设第i帧动态实时彩色背景图像是bgi,bgi的RGB三通道分量分别为Ri、Gi、Bi,第i+1帧的彩色背景图像是bgi+1,bgi+1的RGB三通道分量分别为Ri+1、Gi+1、Bi+1。 
b g i + 1 = { R i + 1 , G i + 1 , B i + 1 } = R i + 1 = ( 1 - α ) R i + α f i + 1 R G i + 1 = ( 1 - α ) G i + α f i + 1 G B i + 1 = ( 1 - α ) B i + α f i + 1 B , i ≥ 0,0 ≤ α ≤ 1 - - - ( 5 )
其中α为调节更新速率,它是一个控制背景更新速度的经验值,能够缓慢修正背景图像。选取合适的α值使背景信息更全面的保留非常重要,本发明取经验值α=0.005。 
Step401-B:多通道彩色背景差分。通过第i帧RGB彩色图像fi和第i帧动态实时彩色背景图像bgi在R、G、B三个通道分别作差,提取出彩色差分结果图像fgi,公式如下: 
f g i = { f g i R , f g i G , fg i B } = f g i R = f i R - R i f g i G = f i G - G i f g i B = f i B - B i , i ≥ 1 - - - ( 6 )
Step402:自适应Otsu阈值分割。对彩色差分结果图像fgi灰度化处理后,再经过自适应Otsu阈值分割得到前景目标图像。 
Step403:利用基于HSV(Hue、Saturation、Value)空间的阴影检测去除算法,对步骤402得到的前景目标图像去除阴影。该算法参考文献2:“Cucchiara R.,Piccardi M.,Prati A.et al.Improving Shadow Suppression in Moving Object Detection with HSV Color Information[C]:Proceedings ofIEEE Intelligent Transportation Systems Conference.2001:334-339”。即区分阴影和背景,是将阴影的像素值同背景的该点像素值相比较,如果其包含的相应色彩值和亮度值都在一定的阈值之下,那么就认为该点是阴影。具体公式如下: 
Figure BDA00001952525200093
其中,SM(x,y)是前景目标图像在坐标(x,y)处的阴影掩模,SM(x,y)等于1代表坐标 (x,y)处是阴影,τS和τH分别是饱和度与色彩分量的阈值, 分别代表第K帧彩色图像转化到HSV空间后在(x,y)坐标处的三通道分量值。 
Figure BDA00001952525200102
Figure BDA00001952525200103
分别代表第K帧动态彩色背景图像转化到HSV空间后在(x,y)坐标处的三通道分量值。其中阈值的选择可以通过试验方式选取,建议取α=0.5,β=0.8,τS=0.37,τH=0.37。得到阴影掩模后,去掉相应的阴影干扰。 
Step404:对步骤403得到的结果进行形态学操作和车辆团块填充。形态学操作包括腐蚀、膨胀以及由这两种运算组合而成的闭运算,填充车辆团块内部的孔洞以保证每辆车尽量为一个完整的车辆团块。此时得到处理后的前景目标图像。 
Step405:车辆计数。定义道路检测区域中有重合部分的虚拟检测线圈互为冲突线圈,如图2中的Loop2和Loop4。参照图5,判断是否至少有一个虚拟检测线圈检测到车辆,如果是,则判定该虚拟检测线圈LoopX检测到车辆,将总车辆数加1,然后执行步骤5;否则执行步骤406;检测到车辆的判断条件为:虚拟检测线圈上的相邻两帧图像上的平均灰度变化百分比超过计数阈值;记录当前帧数Fc,在当前帧数Fc以后的连续Fs帧中,该虚拟检测线圈LoopX以及它的冲突线圈均停止检测;Fs通过下式得到: 
F S = 2 L ‾ V ‾ * fps - - - ( 8 )
其中 
Figure BDA00001952525200105
为平均车辆长度(单位:米), 
Figure BDA00001952525200106
为平均车速(单位:米每秒),fps为视频的采集帧率(单位:帧每秒)。例如在测试实验中,平均车辆长度 
Figure BDA00001952525200107
估值取5米,平均车速 估值取14米每秒(约50千米每小时),视频采集帧率fps为29帧每秒,由公式(8)得Fs取值为21帧。 
Step406:判断步骤1拍摄的交通视频流是否读取结束,是则执行步骤6;否则执行步骤400; 
步骤5:车辆跟踪和分类。车辆跟踪和分类的具体流程如图6所示。某个虚拟检测线圈检测到车辆后,开始连续跟踪该车M帧。本发明的方法能够同时跟踪多个车辆目标,不同车辆的跟踪过程互不影响。跟踪车辆过程中,转换坐标,计算每一帧中车辆的瞬时速度,对于被跟踪车辆得到M个瞬时速度。跟踪车辆过程中,每一帧都提取车辆的长度、面积和占空比等几何参数识别其车型,得到M个瞬时车型识别结果。最后利用数据融合技术综合分析这M个瞬时速度和车型识别结果,综合判断这个被跟踪车辆的速度和车型。 
步骤5具体包括如下步骤: 
Step501:特征匹配跟踪车辆; 
车辆运动是连续的,单帧时间车辆运动相对较小,因此利用相邻两帧图像同一辆车的车头运动较小这一特征跟踪车辆。设图像的坐标原点在左下角,对于每一个车辆团块,定义车辆团块范围内的Y坐标最小的那个点为车头特征点。如果要跟踪第K帧的第i个车辆团块,计算这个车辆团块的车头特征点与第K+1帧每一个车辆团块的车头特征点的像素距离: 
D ( i , j ) = ( x k + 1 j - x k i ) 2 + ( y k + 1 j - y k i ) 2 , 1 ≤ j ≤ h - - - ( 9 )
其中 
Figure BDA00001952525200112
是第K帧的第i个车辆团块的车头特征点在图像坐标系中的坐标; 
Figure BDA00001952525200113
是第K+1帧的第j个车辆团块的车头特征点在图像坐标系中的坐标;h是第K+1帧的车辆团块总数。D(i,j)越小说明这两个车辆团块越接近,即这两个车辆团块是同一辆车的概率越大。在第K+1帧中,与第K帧的第i个车辆团块的最佳匹配目标可以由下式得出: 
Figure BDA00001952525200114
其中,第K+1帧的第p个车辆团块的车头特征点与第K帧的第i个车辆团块的车头特征点距离最小,则这两个车辆团块是同一辆车。以此类推,连续跟踪车辆M帧,本发明中M取10到15之间的值。 
车辆跟踪M帧的过程中,伴随着瞬时车速测量和车型分类步骤; 
Step501-A:瞬时车速测量; 
跟踪车辆过程中,利用交通场景标定结果把车头特征点的图像坐标转换到世界坐标系中的对应坐标。利用公式(4)转换坐标后,第K+t帧被跟踪车辆的车头特征点在世界坐标系中对应点为(Xk+t,Yk+t)。每相邻两帧计算被跟踪车辆的瞬时速度Vt(m/s),具体如下式所示: 
V t = ( X k + t - X k + t - 1 ) 2 + ( Y k + t - Y k + t - 1 ) 2 ΔT , 1 ≤ t ≤ M - - - ( 11 )
其中,△T表示连续视频图像的采样时间间隔,本发明中取1/29秒。每辆车都被连续跟踪M帧,共得到M个瞬时速度Vt(m/s)。 
Step501-B:瞬时车型分类; 
车型分类需要考虑车辆粘连和遮挡造成的误差。车辆粘连和遮挡会导致车辆面积和长度提取失真,将小型车误检为大型车,照成车型分类误差。为了提高车型分类准确率,本发明分析了车辆粘连和遮挡情况,提出了减少车辆粘连和遮挡造成车型分类误差的方法。安置在 车道正上方的摄像机拍摄迎面而来的车流时,粘连现象主要分为以下三种情况:横向粘连,斜向粘连和纵向粘连,具体如图7所示。图7(a)所示的横向粘连主要是车辆阴影照成的,去除阴影就去除了绝大部分横向粘连照成的误差干扰。针对图7(b)所示的斜向粘连现象,提取运动目标的占空比R(前景目标图中,车辆团块的像素面积与车辆团块最小外接矩形的像素面积的比值)来判断减少这种误差。针对图7(c)所示纵向粘连现象,本发明通过数据融合的方法减少这种误差。 
本发明根据多车型交通信息的实际需求,把车型分为大车LV(Large Vehicle)和小车SV(Small Vehicle)两种。在车辆前景目标图像中,首先提取团块目标的最小外接矩形,再提取团块目标的像素长度L和像素面积S,并计算团块目标的占空比R,设定阈值便可判断车型: 
Type t = LV ifL > l 1 andS > s 1 andR > r 1 Type t = SV otherwise , 1 ≤ t ≤ M - - - ( 12 )
其中l1、s1和r1分别是车辆团块目标的车长、面积和占空比的阈值参数。这三个车型分类阈值参数可以通过K-means聚类的方法确定。根据实际需求,本系统也可以把上述的两车型识别算法扩展为更多种车型的识别算法。 
发明人通过下面的试验得到式(12)中的l1、s1和r1三个分类阈值,具体试验过程如下: 
Step A:提取100组车辆团块目标的像素车长L、像素面积S和占空比参数R,分为两类(大车和小车),该试验中车辆目标的部分计算数据见表1。 
表1车辆团块目标的部分数据 
  车辆团块目标   车长L/像素   面积S/像素   占空比R
  大车   186   15864   0.83
  大车   174   13416   0.76
  小车   97   5897   0.80
  小车   87   5691   0.83
  两辆小车斜向粘连   174   11871   0.59
  两辆小车斜向粘连   180   11948   0.57
  两辆小车纵向粘连   168   9959   0.75
  两辆小车纵向粘连   179   10911   0.71
Step B:对提取的100组数据进行K-means聚类。输入:聚类个数k=2(两种车型),H=100个d=3维的待分类数据对象{x1,x2,…,xH},其中xi={xi1,xi2,xi3}。xi1、xi2和xi3分别代表车辆目 标的像素车长L、像素面积S和占空比参数R。经过K-means聚类,输出:大车和小车两种类型的聚类,得到两个聚类中心。对这100组数据进行K-means聚类分析,得出两个聚类中心(车长L,面积S,占空比R)分别为(178,14143,1)和(104,6180,1),其聚类结果如图8所示。 
Step C:分析聚类结果,得到式(12)中的l1、s1和r1三个分类阈值。根据聚类结果,计算两个聚类中心的车长L和面积S的平均值作为车型分类阈值参数l1和s1,即式(12)中的分类阈值l1=141,s1=10162。由图8可知,用车长和面积基本可以分辨出大车和小车,图中椭圆圈内为大车,椭圆圈外为小车。进一步分析图8发现,大车中又细分为两类,一部分占空比值较大(大于等于0.65,图中黑色虚线以上),另一部分占空比值较小(小于0.65,图中黑色虚线以下)。进一步分析可知,前者是真正的大车,而后者是两辆小车的斜向粘连干扰。因此,设定占空比阈值r1=0.65可以减少斜向粘连造成的车型分类误差。综上所述,得到车型分类阈值:l1=141,s1=10162,r1=0.65。 
Step502:数据融合; 
每一辆车被连续跟踪M帧结束后,采用数据融合的方法综合判断被跟踪车辆的最终速度和最终车型,借此提高本发明的检测准确率,减少车辆粘连和遮挡造成的误差。数据融合细分为以下两部分: 
Step502-A:计算最终速度; 
每辆车都被连续跟踪M帧,利用式(11)得到M个瞬时速度Vt(m/s),通过式(13)计算该被跟踪车辆的最终速度V(km/h): 
V = 3.6 * ( 1 M Σ t = 1 M V t ) - - - ( 13 )
其中,1≤t≤M;3.6是m/s到km/h的单位转换因子。 
Step502-B:判断最终车型; 
每辆车都被连续跟踪M帧,利用式(12)得到M个瞬时车型分类结果,再利用式(14)所示的投票算法,根据多数原则,最后对车型再进行一次投票综合判断。统计这M个车型判断结果,其中,瞬时车型分类为大型车(LV)的数量为NLV,瞬时车型分类为小型车(SV)的数量为NSV。 
Type = LV if N LV > N SV Type = SV otherwise , N LV + N SV = M - - - ( 14 )
Step503:执行Step400; 
步骤6:多车型交通信息采集。通过虚拟检测线圈的检测计数,得到所有车数量为 VehicleNum;通过车型识别和跟踪系统记录大车数量为LVNum;通过车辆跟踪和车型分类,得到经过检测路段的每辆车的速度和车型。然后根据如下公式得到下列多车型交通信息: 
t=n/fps                   (15) 
SVNum=VehicleNum-LVNum    (16) 
Ratio = LVNum VehicleNum * 100 % - - - ( 17 )
Q = 3600 * VehicleNum t - - - ( 18 )
Q LV = 3600 * LVNum t - - - ( 19 )
QSV=Q-QLV                 (20) 
U t = 1 VehicleNum * Σ i = 1 VehicleNum V i - - - ( 21 )
U t LV = 1 LVNum * Σ i = 1 LVNum V i LV - - - ( 22 )
U t SV = 1 SVNum * Σ i = 1 SVNum V i SV - - - ( 23 )
其中,t是当前时刻(单位:秒),n是当前帧数(单位:帧),fps是视频采集帧率(单位:帧/秒),SVNum是小车数量(单位:辆),Ratio是大车混入率,Q是总交通流量(单位:辆/小时),QLV是大车交通流量(单位:辆/小时),QSV是小车交通流量(单位:辆/小时),Ut是总时间平均速度(单位:千米/小时), 
Figure BDA00001952525200147
是大车的时间平均速度(单位:千米/小时), 
Figure BDA00001952525200148
是小车的时间平均速度(单位:千米/小时),Vi是第i辆车的速度(单位:千米/小时), 是第i辆大车的速度(单位:千米/小时), 
Figure BDA000019525252001410
是第i辆小车的速度(单位:千米/小时)。 
本发明通过跟踪经过检测路段的每一辆车,记录每一辆经过车辆的车型和速度,得到了不同车型的流量和平均速度等多车型交通信息。本发明采用基于彩色图像的自适应背景差分算法,得到了更加准确的车辆目标图像;使用了一系列措施来提高系统鲁棒性,比如设置道路检测区域、阴影去除等;考虑了跨车道行驶的车辆避免漏检,也避免了对同一辆车的重复 计数,提高了车辆计数准确率;使用K-means聚类算法得到了更加准确的车型分类阈值参数,使用车辆目标团块的占空比参数和数据融合算法减少了车辆粘连和遮挡造成的车型分类误差,提高了车型分类的准确率。 
综上所述,本发明具有以下优点: 
1、本发明获取了不同车型的流量和平均速度等多车型交通信息。相对于单一车型的宏观交通信息,本发明丰富了交通信息采集的研究和应用,为交通管理和控制提供了更详细的交通数据。而且本发明利用的是视频处理技术,具有推广价值。本发明可以同时监控多车道交通场景,适用于单向双车道、三车道和四车道道路信息的监控。 
2、本发明使用基于彩色图像的自适应背景差分算法检测车辆目标,考虑了彩色图像里的多通道信息,提取了更加准确的车辆目标。 
3、本发明使用了诸如阴影去除和设置道路检测区域等措施来提高系统鲁棒性,比如设置道路检测区域、阴影去除等,提高了系统鲁棒性和抗干扰性。 
4、本发明考虑了跨车道行驶的车辆避免漏检,也避免了对同一辆车的重复计数,提高了车辆计数准确率。 
5、本发明应用K-means聚类算法得到更加准确的车型分类阈值参数,使用车辆目标团块的占空比参数和数据融合算法减少了车辆粘连和遮挡造成的车型分类误差,提高了车型分类的准确率。 
因此,本发明相对同领域现有的交通信息采集方法具有输出参数全面、推广价值高、监测范围广和准确率高的优点。本发明方法对于系统的鲁棒性、抗干扰性、准确率和算法复杂度方面都有适当考虑。 
为了验证本发明的准确性,四段不同天气下的交通视频序列被用来测试。测试视频i拍摄于2011年3月15日下午3点,天气晴朗,存在强阴影干扰。测试视频ii拍摄于2011年3月20日下午4点,天气晴朗,存在弱阴影干扰。测试视频iii拍摄于2011年7月10日下午1点,多云天气,无阴影干扰。测试视频ⅳ拍摄于2011年6月9日下午3点,毛毛细雨天气,路面相对潮湿。四段测试视频都拍摄于西安市南二环中段的城市快速路,每段视频时长10分钟。拍摄视频的同时使用雷达枪检测同一检测路面上连续驶过车辆的速度,以便后期与本发明测速结果对比。 
表2是系统车辆计数和分类结果与实际车流的比较。由表2可见,本发明对车辆统计准确率达97.4%,采用数据融合前车型分类的相对误差达18.8%,但是采用数据融合后车型分类的相对误差减少到8.3%。粘连和遮挡会照成系统对于大车的误检导致大车的过多计数, 表2说明数据融合技术可以减少这种误差。 
表2车辆计数和分类结果 
Figure BDA00001952525200161
注:a:丢失(missed);b:误计数(over-counted) 
对比本发明测速结果和雷达枪测速结果,四段测试视频的本发明测速与雷达枪测速结果的比较如图9所示。本发明测速与雷达枪测速比较:(a)测试视频ⅰ测速结果与雷达枪测速结果比较,二者相关系数为0.834;(b)测试视频ⅱ测速结果与雷达枪测速结果比较,二者相关系数为0.927;(c)测试视频ⅲ测速结果与雷达枪测速结果比较,二者相关系数为0.936;(d)测试视频ⅳ测速结果与雷达枪测速结果比较,二者相关系数为0.895。本发明测速与雷达枪测速的平均相关系数为0.898,平均绝对误差仅为2.3km/h。 
以雷达枪测速结果为基准,给出本发明测速误差分布直方图,如图10所示。图10(a)测试视频ⅰ测速误差分布,平均误差为2.6km/h;图10(b)测试视频ⅱ测速误差分布,平均误差为2.4km/h;图10(c)测试视频ⅲ测速误差分布,平均绝对误差为1.8km/h;图10(d)测试视频ⅳ测速误差分布,平均绝对误差为2.2km/h。从图10可以看出,本发明测速与雷达枪测速存在微小的偏差,本发明测速误差关于平均误差几乎左右对称,且误差分布接近正态分布。图9和图10充分说明本发明测速结果的准确性和可靠性。 

Claims (5)

1.一种基于视频的多车型交通信息检测方法,其特征在于,具体包括如下步骤:
步骤1:交通视频采集;
步骤2:参数设置:设置虚拟检测线圈大小和位置;
步骤3:系统初始化:以帧为单位读取采集到的交通视频流,对图像进行预处理去噪,计算初始彩色背景图像,标定交通场景,设置道路检测区域;
步骤4:车辆目标检测:具体包括如下步骤:
Step400:读取下一帧图像;
Step401:通过公式(5),结合初始彩色背景图像和视频当前帧的RGB彩色图像,得到自适应的动态实时彩色背景图像;通过公式(6)提取出彩色差分结果图像fgi
b g i + 1 = { R i + 1 , G i + 1 , B i + 1 } = R i + 1 = ( 1 - α ) R i + α f i + 1 R G i + 1 = ( 1 - α ) G i + α f i + 1 G B i + 1 = ( 1 - α ) B i + α f i + 1 B , i ≥ 0,0 ≤ α ≤ 1 - - - ( 5 )
其中,α为调节更新速率,α=0.005,bgi的RGB三通道分量分别为Ri、Gi、Bi,第i+1帧的彩色背景图像是bgi+1,bgi+1的RGB三通道分量分别为Ri+1、Gi+1、Bi+1
f g i = { f g i R , f g i G , fg i B } = f g i R = f i R - R i f g i G = f i G - G i f g i B = f i B - B i , i ≥ 1 - - - ( 6 )
其中,fgi为彩色差分结果图像,fi为第i帧RGB彩色图像;
Step402:自适应Otsu阈值分割:对彩色差分结果图像fgi灰度化处理后,再经过自适应Otsu阈值分割得到前景目标图像;
Step403:利用基于HSV(Hue、Saturation、Value)空间的阴影检测去除算法,对步骤402得到的前景目标图像去除阴影;
Step404:对步骤403得到的结果进行形态学操作和车辆团块填充;
Step405:车辆计数:判断是否至少有一个虚拟检测线圈检测到车辆,如果是,则判定该虚拟检测线圈LoopX检测到车辆,将总车辆数加1,然后执行步骤5;否则执行步骤406;记录当前帧数Fc,在当前帧数Fc以后的连续Fs帧中,该虚拟检测线圈LoopX以及它的冲突线圈均停止检测;Fs通过下式得到:
F S = 2 L ‾ V ‾ * fps - - - ( 8 )
其中
Figure FDA00001952525100022
为平均车辆长度,单位:米,
Figure FDA00001952525100023
为平均车速,单位:米每秒,fps为视频的采集帧率,单位:帧每秒;
Step406:判断步骤1拍摄的交通视频流是否读取结束,是则执行步骤6;否则执行步骤400;
步骤5:车辆跟踪和分类:某个虚拟检测线圈检测到车辆后,开始连续跟踪该车M帧;跟踪车辆过程中,转换坐标,计算每一帧中车辆的瞬时速度,对于被跟踪车辆得到M个瞬时速度;每一帧都提取车辆的长度、面积和占空比等几何参数识别其车型,得到M个瞬时车型识别结果;每一辆车被连续跟踪M帧结束后,采用数据融合的方法判断被跟踪车辆的最终速度和最终车型;执行步骤400;
步骤6:多车型交通信息采集。
2.如权利要求1所述的基于视频的多车型交通信息检测方法,其特征在于,所述步骤3中系统初始化具体包括以下步骤:
Step300:以帧为单位读取采集到的交通视频;
Step301:图像预处理;
Step302:计算初始彩色背景图像:对视频起始的前N帧图像的求平均值,作为初始彩色背景图像;
Step303:交通场景标定:采用直接线性变换算法标定交通场景;
Step304:设置道路检测区域;对步骤302得到的初始彩色背景图像灰度化,利用Canny算子进行边沿检测,再利用Hough变换检测道路左右边沿直线,然后将道路左右边沿直线均向外平移后得到道路检测区域。
3.如权利要求1所述的基于视频的多车型交通信息检测方法,其特征在于,所述步骤5具体包括如下步骤:
Step501:特征匹配跟踪车辆:设图像的坐标原点在左下角,对于每一个车辆团块,定义车辆团块范围内的Y坐标最小的那个点为车头特征点。如果要跟踪第K帧的第i个车辆团块,计算这个车辆团块的车头特征点与第K+1帧每一个车辆团块的车头特征点的像素距离:
D ( i , j ) = ( x k + 1 j - x k i ) 2 + ( y k + 1 j - y k i ) 2 , 1 ≤ j ≤ h - - - ( 9 )
其中,是第K帧的第i个车辆团块的车头特征点在图像坐标系中的坐标;
Figure FDA00001952525100031
是第K+1帧的第j个车辆团块的车头特征点在图像坐标系中的坐标;h是第K+1帧的车辆团块总数;在第K+1帧中,与第K帧的第i个车辆团块的最佳匹配目标可以由下式得出:
其中,第K+1帧的第p个车辆团块的车头特征点与第K帧的第i个车辆团块的车头特征点距离最小,则这两个车辆团块是同一辆车。以此类推,连续跟踪车辆M帧,M取10到15之间的值;车辆跟踪M帧的过程中,伴随着瞬时车速测量和车型分类步骤;
Step501-A:瞬时车速测量;
跟踪车辆过程中,利用交通场景标定结果把车头特征点的图像坐标转换到世界坐标系中的对应坐标;得到第K+t帧被跟踪车辆的车头特征点在世界坐标系中对应点为(Xk+t,Yk+t);每相邻两帧计算被跟踪车辆的瞬时速度Vt(m/s),具体如下式:
V t = ( X k + t - X k + t - 1 ) 2 + ( Y k + t - Y k + t - 1 ) 2 ΔT , 1 ≤ t ≤ M - - - ( 11 )
其中,△T表示连续视频图像的采样时间间隔,取1/29秒;每辆车都被连续跟踪M帧,共得到M个瞬时速度Vt(m/s);
Step501-B:瞬时车型分类;
车型分为大车LV和小车SV两种;在车辆前景目标图像中,首先提取团块目标的最小外接矩形,再提取团块目标的像素长度L和像素面积S,并计算团块目标的占空比R,设定阈值后判断车型:
Type t = LV ifL > l 1 andS > s 1 andR > r 1 Type t = SV otherwise , 1 ≤ t ≤ M - - - ( 12 )
其中,l1、s1和r1分别是车辆团块目标的车长、面积和占空比的阈值参数;
Step502:数据融合:
计算最终速度:利用式(11)得到M个瞬时速度Vt,单位:m/s,通过式(13)计算该被跟踪车辆的最终速度V,单位:km/h:
V = 3.6 * ( 1 M Σ t = 1 M V t ) - - - ( 13 )
其中,1≤t≤M;3.6是m/s到km/h的单位转换因子;
判断最终车型:利用式(12)得到M个瞬时车型分类结果,再利用式(14)所示的投票算法对最终车型判断;统计这M个车型判断结果,其中,瞬时车型分类为大型车LV的数量为NLV,瞬时车型分类为小型车SV的数量为NSV
Type = LV if N LV > N SV Type = SV otherwise , N LV + N SV = M - - - ( 14 )
4.如权利要求3所述的基于视频的多车型交通信息检测方法,其特征在于,所述Step501-B的瞬时车型分类中,车辆团块目标的车长l1、面积s1和占空比r1的阈值参数分别为:l1=141,s1=10162,r1=0.65。
5.如权利要求1所述的基于视频的多车型交通信息检测方法,其特征在于,所述的步骤6多车型交通信息采集具体如下:
t=n/fps                 (15)
SVNum=VehicleNum-LVNum  (16)
Ratio = LVNum VehicleNum * 100 % - - - ( 17 )
Q = 3600 * VehicleNum t - - - ( 18 )
Q LV = 3600 * LVNum t - - - ( 19 )
QSV=Q-QLV               (20)
U t = 1 VehicleNum * Σ i = 1 VehicleNum V i - - - ( 21 )
U t LV = 1 LVNum * Σ i = 1 LVNum V i LV - - - ( 22 )
U t SV = 1 SVNum * Σ i = 1 SVNum V i SV - - - ( 23 )
其中,t是当前时刻,单位:秒;n是当前帧数,单位:帧;fps是视频采集帧率,单位:帧/秒;SVNum是小车数量,单位:辆;Ratio是大车混入率;Q是总交通流量,单位:辆/小时;QLV是大车交通流量,单位:辆/小时;QSV是小车交通流量,单位:辆/小时;Ut是总时间平均速度,单位:千米/小时;
Figure FDA00001952525100051
是大车的时间平均速度,单位:千米/小时;是小车的时间平均速度,单位:千米/小时;Vi是第i辆车的速度,单位:千米/小时;
Figure FDA00001952525100053
是第i辆大车的速度,单位:千米/小时;是第i辆小车的速度,单位:千米/小时。
CN201210269207.XA 2012-07-31 2012-07-31 基于视频的多车型交通信息检测方法 Expired - Fee Related CN102810250B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210269207.XA CN102810250B (zh) 2012-07-31 2012-07-31 基于视频的多车型交通信息检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210269207.XA CN102810250B (zh) 2012-07-31 2012-07-31 基于视频的多车型交通信息检测方法

Publications (2)

Publication Number Publication Date
CN102810250A true CN102810250A (zh) 2012-12-05
CN102810250B CN102810250B (zh) 2014-07-02

Family

ID=47233950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210269207.XA Expired - Fee Related CN102810250B (zh) 2012-07-31 2012-07-31 基于视频的多车型交通信息检测方法

Country Status (1)

Country Link
CN (1) CN102810250B (zh)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218829A (zh) * 2013-04-01 2013-07-24 上海交通大学 一种适应于动态背景的前景提取方法
CN104036288A (zh) * 2014-05-30 2014-09-10 宁波海视智能系统有限公司 一种基于视频的车型分类方法
CN104504912A (zh) * 2014-12-31 2015-04-08 长安大学 一种基于三维水平逆投影面的车速检测方法
CN104680795A (zh) * 2015-02-28 2015-06-03 武汉烽火众智数字技术有限责任公司 一种基于局部区域特征的车型识别方法和装置
CN105719304A (zh) * 2016-01-25 2016-06-29 中山大学 一种基于Otsu的花朵图像分割方法
CN105788287A (zh) * 2016-02-04 2016-07-20 李福军 城市道路车辆信息采集系统
CN105869413A (zh) * 2016-06-23 2016-08-17 常州海蓝利科物联网技术有限公司 基于摄像头视频检测车流量和车速的方法
CN106097726A (zh) * 2016-08-23 2016-11-09 苏州科达科技股份有限公司 检测区域的确定、交通信息检测方法及装置
CN106448202A (zh) * 2016-10-31 2017-02-22 长安大学 一种基于视频的弯道预警系统及预警方法
CN106446790A (zh) * 2016-08-30 2017-02-22 上海交通大学 一种对固定摄像头的交通视频流量追踪分析方法
CN106791277A (zh) * 2016-12-27 2017-05-31 重庆峰创科技有限公司 一种视频监控中的车辆追踪方法
WO2017125063A1 (zh) * 2016-01-20 2017-07-27 中兴通讯股份有限公司 违规车辆处理方法及装置
CN107066953A (zh) * 2017-03-22 2017-08-18 北京邮电大学 一种面向监控视频的车型识别、跟踪及矫正方法和装置
CN107315095A (zh) * 2017-06-19 2017-11-03 哈尔滨工业大学 基于视频处理的具有光照适应性的多车辆自动测速方法
US20180075605A1 (en) * 2016-09-13 2018-03-15 Intelligent Fusion Technology, Inc Method and system for detecting multiple moving objects from real-time aerial images
CN108229244A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 一种智能车前方运动车辆的检测方法
CN109461312A (zh) * 2018-12-27 2019-03-12 泰华智慧产业集团股份有限公司 基于redis的过车数据去重方法
US10249047B2 (en) 2016-09-13 2019-04-02 Intelligent Fusion Technology, Inc. System and method for detecting and tracking multiple moving targets based on wide-area motion imagery
CN109785621A (zh) * 2019-02-02 2019-05-21 重庆港力环保股份有限公司 一种依托大数据的道路交通噪声智能优化控制方法
CN110021174A (zh) * 2019-04-02 2019-07-16 北京同方软件有限公司 一种基于视频图像的适用多场景的车流量计算方法
CN110232823A (zh) * 2019-06-14 2019-09-13 重庆大学 一种基于rfid电子车牌数据的慢行车判定分析方法
CN110610118A (zh) * 2018-06-15 2019-12-24 杭州海康威视数字技术股份有限公司 交通参数采集方法及装置
CN110648542A (zh) * 2019-11-08 2020-01-03 深圳市哈工大业信息技术股份有限公司 基于方位识别窄波雷达的高精度车流量检测系统
CN111008730A (zh) * 2019-11-07 2020-04-14 长安大学 基于城市空间结构的人群聚集度预测模型构建方法及装置
CN111145551A (zh) * 2020-01-03 2020-05-12 南京邮电大学 一种基于cnn检测遵章率的路口交通规划系统
CN111951547A (zh) * 2020-07-29 2020-11-17 苏交科集团股份有限公司 一种国省干线交通流量信息监测方法
CN112070805A (zh) * 2020-09-10 2020-12-11 深圳市豪恩汽车电子装备股份有限公司 机动车目标实时图像跟踪装置及方法
CN112309134A (zh) * 2019-07-29 2021-02-02 富士通株式会社 车辆速度检测方法和装置
CN114495520A (zh) * 2021-12-30 2022-05-13 北京万集科技股份有限公司 一种车辆的计数方法、装置、终端和存储介质
CN115482474A (zh) * 2022-08-24 2022-12-16 湖南科技大学 一种基于高空航拍图像的桥面车辆荷载识别方法和系统
WO2023108931A1 (zh) * 2021-12-14 2023-06-22 江苏航天大为科技股份有限公司 一种基于视频雷达融合感知的判断车型方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1909012A (zh) * 2005-08-05 2007-02-07 同济大学 一种用于交通信息实时采集的视频图像处理方法及系统
CN101872546A (zh) * 2010-05-06 2010-10-27 复旦大学 一种基于视频的过境车辆快速检测方法
KR20100124370A (ko) * 2009-05-19 2010-11-29 조용성 교통류의 차량군집현상을 예방하는 실시간 교통정보 제공 시스템 및 그 방법
CN102157063A (zh) * 2011-05-17 2011-08-17 北京工业大学 基于车载gps的泛在化交通检测系统及方法
WO2011126215A2 (ko) * 2010-04-09 2011-10-13 고려대학교 산학협력단 양방향 통신 기능을 결합한 차량용 네비게이터 기반 실시간 교통망 구조 제어와 연계한 교통 흐름 제어 및 동적 경로 제공 시스템 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1909012A (zh) * 2005-08-05 2007-02-07 同济大学 一种用于交通信息实时采集的视频图像处理方法及系统
KR20100124370A (ko) * 2009-05-19 2010-11-29 조용성 교통류의 차량군집현상을 예방하는 실시간 교통정보 제공 시스템 및 그 방법
WO2011126215A2 (ko) * 2010-04-09 2011-10-13 고려대학교 산학협력단 양방향 통신 기능을 결합한 차량용 네비게이터 기반 실시간 교통망 구조 제어와 연계한 교통 흐름 제어 및 동적 경로 제공 시스템 및 그 방법
CN101872546A (zh) * 2010-05-06 2010-10-27 复旦大学 一种基于视频的过境车辆快速检测方法
CN102157063A (zh) * 2011-05-17 2011-08-17 北京工业大学 基于车载gps的泛在化交通检测系统及方法

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218829B (zh) * 2013-04-01 2016-04-13 上海交通大学 一种适应于动态背景的前景提取方法
CN103218829A (zh) * 2013-04-01 2013-07-24 上海交通大学 一种适应于动态背景的前景提取方法
CN104036288A (zh) * 2014-05-30 2014-09-10 宁波海视智能系统有限公司 一种基于视频的车型分类方法
CN104504912A (zh) * 2014-12-31 2015-04-08 长安大学 一种基于三维水平逆投影面的车速检测方法
CN104680795A (zh) * 2015-02-28 2015-06-03 武汉烽火众智数字技术有限责任公司 一种基于局部区域特征的车型识别方法和装置
WO2017125063A1 (zh) * 2016-01-20 2017-07-27 中兴通讯股份有限公司 违规车辆处理方法及装置
CN105719304A (zh) * 2016-01-25 2016-06-29 中山大学 一种基于Otsu的花朵图像分割方法
CN105719304B (zh) * 2016-01-25 2018-04-13 中山大学 一种基于Otsu的花朵图像分割方法
CN105788287A (zh) * 2016-02-04 2016-07-20 李福军 城市道路车辆信息采集系统
CN105869413A (zh) * 2016-06-23 2016-08-17 常州海蓝利科物联网技术有限公司 基于摄像头视频检测车流量和车速的方法
CN106097726A (zh) * 2016-08-23 2016-11-09 苏州科达科技股份有限公司 检测区域的确定、交通信息检测方法及装置
CN106446790A (zh) * 2016-08-30 2017-02-22 上海交通大学 一种对固定摄像头的交通视频流量追踪分析方法
US10249047B2 (en) 2016-09-13 2019-04-02 Intelligent Fusion Technology, Inc. System and method for detecting and tracking multiple moving targets based on wide-area motion imagery
US20180075605A1 (en) * 2016-09-13 2018-03-15 Intelligent Fusion Technology, Inc Method and system for detecting multiple moving objects from real-time aerial images
US9940724B2 (en) * 2016-09-13 2018-04-10 Intelligent Fusion Technology, Inc. Method and system for detecting multiple moving objects from real-time aerial images
CN106448202A (zh) * 2016-10-31 2017-02-22 长安大学 一种基于视频的弯道预警系统及预警方法
CN108229244A (zh) * 2016-12-14 2018-06-29 贵港市瑞成科技有限公司 一种智能车前方运动车辆的检测方法
CN106791277A (zh) * 2016-12-27 2017-05-31 重庆峰创科技有限公司 一种视频监控中的车辆追踪方法
CN107066953A (zh) * 2017-03-22 2017-08-18 北京邮电大学 一种面向监控视频的车型识别、跟踪及矫正方法和装置
CN107066953B (zh) * 2017-03-22 2019-06-07 北京邮电大学 一种面向监控视频的车型识别、跟踪及矫正方法和装置
CN107315095A (zh) * 2017-06-19 2017-11-03 哈尔滨工业大学 基于视频处理的具有光照适应性的多车辆自动测速方法
CN107315095B (zh) * 2017-06-19 2019-07-02 哈尔滨工业大学 基于视频处理的具有光照适应性的多车辆自动测速方法
CN110610118A (zh) * 2018-06-15 2019-12-24 杭州海康威视数字技术股份有限公司 交通参数采集方法及装置
CN109461312A (zh) * 2018-12-27 2019-03-12 泰华智慧产业集团股份有限公司 基于redis的过车数据去重方法
CN109785621B (zh) * 2019-02-02 2021-08-27 重庆港力环保股份有限公司 一种依托大数据的道路交通噪声智能优化控制方法
CN109785621A (zh) * 2019-02-02 2019-05-21 重庆港力环保股份有限公司 一种依托大数据的道路交通噪声智能优化控制方法
CN110021174A (zh) * 2019-04-02 2019-07-16 北京同方软件有限公司 一种基于视频图像的适用多场景的车流量计算方法
CN110232823A (zh) * 2019-06-14 2019-09-13 重庆大学 一种基于rfid电子车牌数据的慢行车判定分析方法
CN112309134B (zh) * 2019-07-29 2022-12-16 富士通株式会社 车辆速度检测方法和装置
CN112309134A (zh) * 2019-07-29 2021-02-02 富士通株式会社 车辆速度检测方法和装置
CN111008730A (zh) * 2019-11-07 2020-04-14 长安大学 基于城市空间结构的人群聚集度预测模型构建方法及装置
CN111008730B (zh) * 2019-11-07 2023-08-11 长安大学 基于城市空间结构的人群聚集度预测模型构建方法及装置
CN110648542A (zh) * 2019-11-08 2020-01-03 深圳市哈工大业信息技术股份有限公司 基于方位识别窄波雷达的高精度车流量检测系统
CN110648542B (zh) * 2019-11-08 2021-09-21 深圳市哈工大业信息技术股份有限公司 基于方位识别窄波雷达的高精度车流量检测系统
CN111145551A (zh) * 2020-01-03 2020-05-12 南京邮电大学 一种基于cnn检测遵章率的路口交通规划系统
CN111951547A (zh) * 2020-07-29 2020-11-17 苏交科集团股份有限公司 一种国省干线交通流量信息监测方法
CN112070805B (zh) * 2020-09-10 2021-05-14 深圳市豪恩汽车电子装备股份有限公司 机动车目标实时图像跟踪装置及方法
CN112070805A (zh) * 2020-09-10 2020-12-11 深圳市豪恩汽车电子装备股份有限公司 机动车目标实时图像跟踪装置及方法
WO2023108931A1 (zh) * 2021-12-14 2023-06-22 江苏航天大为科技股份有限公司 一种基于视频雷达融合感知的判断车型方法
CN114495520A (zh) * 2021-12-30 2022-05-13 北京万集科技股份有限公司 一种车辆的计数方法、装置、终端和存储介质
CN114495520B (zh) * 2021-12-30 2023-10-03 北京万集科技股份有限公司 一种车辆的计数方法、装置、终端和存储介质
CN115482474A (zh) * 2022-08-24 2022-12-16 湖南科技大学 一种基于高空航拍图像的桥面车辆荷载识别方法和系统

Also Published As

Publication number Publication date
CN102810250B (zh) 2014-07-02

Similar Documents

Publication Publication Date Title
CN102810250B (zh) 基于视频的多车型交通信息检测方法
CN103021186B (zh) 一种车辆监控的方法及系统
CN103400157B (zh) 一种基于视频分析的道路行人及非机动车检测方法
CN102324183B (zh) 基于复合虚拟线圈的车辆检测与抓拍方法
CN104200657B (zh) 一种基于视频和传感器的交通流量参数采集方法
CN103324913B (zh) 一种基于形状特征和轨迹分析的行人事件检测方法
KR100969995B1 (ko) 영상처리기법을 이용한 신호교차로의 교통상충 판단 시스템및 방법
CN101510356B (zh) 视频检测系统及其数据处理装置、视频检测方法
Pan et al. Traffic surveillance system for vehicle flow detection
CN107301776A (zh) 基于视频检测技术的车道路况处理及发布方法
CN110379168B (zh) 一种基于Mask R-CNN的交通车辆信息获取方法
CN101025862A (zh) 基于视频的混合交通流参数的检测方法
CN101727748A (zh) 一种基于车辆尾灯检测的车辆监控方法、系统和设备
CN103425764B (zh) 一种基于视频的车辆匹配方法
CN101615342B (zh) 一种车辆检测方法
CN105575125A (zh) 一种车流视频侦测分析系统
CN105513342A (zh) 一种基于视频跟踪的车辆排队长度计算方法
CN105513349A (zh) 基于双视角学习的山区高速公路车辆事件检测方法
CN103077387B (zh) 视频中货运列车车厢自动检测方法
CN105261034A (zh) 一种高速公路上车流量的统计方法及装置
CN107609472A (zh) 一种基于车载双摄像头的无人驾驶汽车机器视觉系统
CN103810854B (zh) 一种基于人工标定的智能交通参数检测方法
CN103730015A (zh) 交叉路口车流量检测方法及装置
CN104157160A (zh) 车辆行驶控制方法、装置及车辆
CN102252859A (zh) 汽车列车直线行驶横向稳定性自动辨识系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140702

Termination date: 20160731