CN107103292A - 一种基于运动车辆跟踪的车流量统计方法 - Google Patents
一种基于运动车辆跟踪的车流量统计方法 Download PDFInfo
- Publication number
- CN107103292A CN107103292A CN201710236794.5A CN201710236794A CN107103292A CN 107103292 A CN107103292 A CN 107103292A CN 201710236794 A CN201710236794 A CN 201710236794A CN 107103292 A CN107103292 A CN 107103292A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- target
- pixel
- formula
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于运动车辆跟踪的车流量统计方法,其涉及计算机视觉领域。该方法首先利用多尺度的形态学算子进行图像预处理,再结合8邻域帧差法和自适应背景更新率的混合高斯模型进行运动车辆检测,最后根据车辆检测结果,进行卡尔曼滤波的多目标跟踪来统计车流量。该方法可有效快速地统计出单车道或多车道的车流量,将车流量信息传递给交通信号灯平台,可实时改变红绿灯时间,提高城市交通的利用率,改善城市车辆拥堵问题。
Description
技术领域
本发明涉及计算机视觉领域,特指一种基于运动车辆跟踪的车流量统计方法。
背景技术
智能交通系统(ITS)是通过实时的交通信息反馈来掌控道路上车辆的运行情况,从而能够及时地避免交通拥堵,使得交通运行更加安全和顺畅。因此,交通信息的采集是智能交通系统的基础,车流量作为交通的重要信息应该被及时准确地获取。
目前对交通流量信息的采集主要包括非视频处理方法和基于视频技术的处理方法。其中,基于视频技术的处理方法无需破坏路面,保护环境,不影响正常交通;摄像机检测器安装方便;维护费用低;可进行多车道检测,信息获取面积大,监控范围广,可提供交通场景实时图像,使用寿命长,性价比高、软件可以随时拓展。基于视频的交通流量统计一般包括三个部分:实时视频采集、运动车辆检测和车流计数统计。
其中,运动车辆检测主要有光流法、帧间差分法和背景减差法三种。光流法需要专门的硬件支持,计算复杂且计算量大,一般较少使用。帧间差分法原理简单,对噪声和光线变化不敏感,但是目标检测结果容易出现空洞现象,当运动目标有缓慢变化转为快速运动的时候,背景减差法容易将背景显露区域(即当前背景还留有上一帧的运动目标信息,但运动目标此时已不在该区域)检测为前景,出现“影子“现象,且在有树枝摆动等复杂场景中对噪声的处理效果不佳,对环境的适应性较差,这样的误检会对后续的目标个数统计等操作造成困难。再者,利用基于虚拟线圈的方法进行车流量统计,即在背景设置几个虚拟线圈区域,当车辆经过时,该虚拟线圈内的像素值会产生较大的变化,最后根据虚拟线圈区域像素的变化大小和频率来判断车辆是否经过,这种方法在车辆变道或者车辆较大时对车辆的计数统计会失效。
发明内容
本发明的目的在于克服上述现有技术的不足,提出一种基于运动车辆跟踪的车流量统计方法,实现了实时性的车流量统计。
为实现上述目的,本发明技术方案具体如下:
本发明为一种基于运动车辆跟踪的车流量统计方法,其包括以下步骤:
S1采集车辆视频流图像,利用多尺度的形态学梯度算子对该视频流图像进行预处理;
S2采用自适应背景更新率的混合高斯模型进行运动车辆检测;
S2.1建立混合高斯模型;
S2.2结合8邻域帧差法和混合高斯模型确定自适应背景更新率;
S2.3进行高斯模型匹配来更新高斯背景模型以及运动车辆检测。
S3进行卡尔曼(Kalman)滤波的运动车辆跟踪和车流量统计。
作为本发明的优选技术方案,所述S2.1中,假设图像中每个像素点的观测样本为{X1,X2,X3....Xt},使用K个高斯分布描述t时刻Xt属于背景的数学模型为:
(1)式中,i表示某个混合高斯模型,i=1,2,...K;K表示混合高斯模型的个数;ωi,t表示t时刻第i个高斯模型的权值,其中ωi,t满足∑ωi,t=1;η(Xt,μi,t,∑i,t)表示t时刻第i个高斯分布,其定义为:
(2)式中,∑i,t为协方差矩阵(表示像素点在t时刻的第i个高斯模型的方差);n为Xt的维数。
作为本发明的优选技术方案,所述S2.2具体包括以下步骤:
S2.2.1将图像分为背景区域Bg、背景显露区域Bv和运动区域F,并求取所述背景区域Bg、背景显露区域Bv和运动区域F;
1)进行相邻两帧间变化区域的检测;
两帧差法的表达式为:
Di(x,y)=|fi(x,y)-fi-1(x,y)| (3)
(3)式中,fi(x,y)为当前帧图像的像素点(x,y)灰度值,fi-1(x,y)为当前一帧图像的相同位置像素点(x,y)的灰度值;
对像素点f(x,y)进行8邻域帧差法的公式为:
利用下面公式(5)进行8邻域帧差法的相邻两帧间变化区域的检测:
(5)式中,φi(x,y)为相邻两帧间变化区域,T1、T2为阈值。
2)去除阴影部分;
采用基于YUV色彩空间方法消除公式(5)获得的相邻两帧间变化区域的阴影部分,设定一个下限阈值来防止出现阴影区域的错误判断,检测阴影区域的判别公式为:
(6)式中,α、β为设定阈值,P(x,y)的值为1的像素点代表属于阴影区域;
将公式(6)获得阴影区域从公式(5)获得的相邻两帧间变化区域剔除掉,得到去除阴影后的两帧间发生变化的区域A;
3)求取背景区域Bg,背景显露区域Bv和运动区域F;
所述区域A包括运动区域F,背景显露区域Bv。
假设当前图像为I,则背景区域Bg为:
Bg=I-A (7)
定义公式|Xt-μi,t(x,y)|≤2.5σi,t-1 (8)
其中,μi,t为t时刻第i个高斯分布的均值;σi,t-1为t-1时刻第i个高斯分布的的标准差。
当图像像素点Xt满足公式(8),则可认为该像素点与混合高斯分布中第i个高斯分布模型匹配;
按照比值ωi,t/σi,t的由大到小对K个高斯模型重新排列,其中ωi,t为某个高斯分布的权值,σi,t为该高斯分布的标准差;
取前面B个高斯分布作为背景像素的最佳描述为:
式中,ωk为高斯分布的权值,T为阈值。
从而,再将区分出来的相邻两帧间的变化区域A逐像素与前B个高斯分布利用公式(8)进行高斯匹配,从而可以获得运动区域F和背景显露区域Bv,如公式(10)所示:
式中,xt(x,y)当前时刻A区域的像素点的像素值,μi,t-1为t-1时刻第i个高斯分布的均值,σi,t-1为t-1时刻第i个高斯分布的标准差,0<i≤B;
S2.2.2确定自适应背景更新率;
对这两个区域设定不同的背景更新率,来适应运动物体速度变化的情况,消除混合高斯模型检测运动车辆时出现的“重影“现象。
作为本发明的优选技术方案,所述S2.3具体包括以下步骤:
S2.3.1利用公式(8)对获取的当前帧图像的各个像素点分别与已经存在的K个高斯分布进行匹配;
S2.3.2若是像素点存在满足公式(8)的情况,则认为该像素点与第i个高斯模型匹配,对匹配的高斯模型参数做如下更新:
μi,t=(1-ρ)μi,t-1+ρXt (14)
式中,Xt为当前帧像素点,μi,t为当前帧第i个高斯分布的均值,σi,t为当前帧第i个高斯分布的标准差,∑i,t为协方差矩阵,为步骤S2.2的S2.2.2求得的各个区域背景更新率,ρ为第二背景更新率;
同时,做衰减处理以减少其他与像素点Xt不匹配的高斯分布模型的权值,衰减处理为:
S2.3.3若当前像素点Xt如不存在可以匹配的高斯模型,则建立一个新的高斯模型来代替ωi,t/σi,t最小的高斯模型,该新的高斯模型以当前像素点Xt的像素值为均值,并初始化方差为80;
S2.3.4判断光线是否突变,及时对背景进行更新;
假设光线突变系数为ξ:
ξ=(N1/N2)*100% (11)
(11)式中,N1为区域A像素点总数,N2为像素点的总数,当ξ大于75%时,认为光线发生突变;
对高斯混合模型做响应的调整以保证光线突变后混合高斯模型能够快速地更新到真实背景,该调整的步骤为:对每个像素点中ωi,t/σi,t最大的高斯模型进行更新,即利用当前像素点灰度值为该高斯分布的均值,该高斯分布的权值为所有高斯分布权值的最大值,该高斯分布的方差保持不变;
S2.3.5将K个高斯分布按照ωi,t/σi,t从大到小进行排列,取前B个高斯分布描述背景像素,利用公式(8)将像素点Xt与B个高斯模型进行匹配,如果能与任意一个高斯分布匹配成功,则判断该像素点Xt为背景点,否则该像素点Xt为运动车辆目标,即前景点;
S2.3.6将S2.3.5中获得前景和背景进行二值化处理,得到二值化图像。
作为本发明的优选技术方案,所述S3具体包括以下步骤:
S3.1设置跟踪窗口:利用步骤S2中提取的当前帧的运动目标,设定运动目标的跟踪窗口,即用矩形窗包围运动目标;
S3.2选择当前帧目标的跟踪特征值:设跟踪窗口区域的零阶矩为m00,沿水平方向和垂直方向的一阶矩阵分别为m10和m01,目标图像的灰度值用f(i,j)表示,求取跟踪窗口中质心坐标(x,y):
S3.3提取当前帧车辆信息,其包括质心坐标、当前帧数、跟踪次数,并保存该车辆信息和对每个车辆目标进行不重复的连续编号,为每个车辆目标建立卡尔曼跟踪模型并进行多目标跟踪;
S3.4假设第k帧的第n个车辆目标标记为Ok,n,第k-1帧的第m个车辆目标记为Ok-1,m,利用S3.3中方法进行运动车辆跟踪;
若利用步骤S3.1中进行跟踪,得到Ok,n与Ok-1,m相匹配,且两者连续5帧都两目标都匹配,即两者是同一车辆,则将Ok-1,m车辆的编号赋给Ok,n,为目标车辆Ok,n建立卡尔曼跟踪模型,计数器加1,并且记录已经参加计数的车辆编号,不参与重复计数;已经参与计数的车辆目标会在一定时间后消失,当某个车辆目标连续5帧都不能找到与之相匹配的车辆时,再删除该车辆目标;若Ok,n未能在第k-1帧中找到相匹配的目标,则为该车辆目标赋予新的不重复的连续编号,并为其建立卡尔曼跟踪模型,并进行跟踪匹配;
S3.5重复步骤S3.4,继续进行持续的车辆跟踪,从而统计出所需图像帧中车道的车辆信息。
作为本发明的优选技术方案,所述S3.1具体包括以下步骤:
S3.3.1卡尔曼跟踪中的运动模型估计:假设卡尔曼滤波过程中系统在k时刻的状态向量为Xk,观测向量为Zk,
Xk=CXk-1+Wk-1 (20)
Zk=HXk+Vk (21)
式中,C为状态转移矩阵,H为观测矩阵,Wk-1、Vk分别为动态噪声和观测噪声,状态向量Xk是一个四维向量:
Xk=[xk,yk,vx,k,vy,k]T (22)
其中,xk,yk分别为目标质心坐标,vx,k,vy,k分别为质心坐标在x,y方向上的速度;
S3.3.2模型更新和建立目标匹配矩阵:采用卡尔曼滤波器为运动目标建立运动模型,利用检测到的当前目标信息对下一帧目标进行预测;
1)利用前后两帧目标的重叠区域所包含的像素数进行目标匹配度判断,如公式(23)所示:
其中,表示k-1时刻目标i的预测值,表示k时刻目标j的测量值,为k时刻目标j所占的像素个数,为k-1时刻目标i与k时刻目标j重叠像素的个数,mij表示k-1时刻目标i与k时刻目标j匹配的程度;
2)利用公式(24)来建立相邻帧间目标的匹配矩阵来表示前后两帧间的匹配关系,匹配矩阵为:
其中,m为k-1时刻的目标总数,n为k时刻的目标总数,M即为相邻帧间的匹配矩阵,大小为m*n(m行n列),mij是上一帧目标i与当前帧目标j的匹配度;
匹配矩阵M中的值为0或1,匹配矩阵的每一行是表示上一帧里的目标与当前帧的每一个目标的匹配状态,通过对匹配矩阵的行扫描判断出上一帧的目标在当前帧时发生的变化。
与现有技术相比,本发明具有以下有益效果:
1、结合8邻域帧差法和混合高斯模型匹配方法将图像分为背景区域Bg、背景显露区域Bv和运动区域F,对不同的区域自适应的赋予不同背景更新率,来适应运动物体速度变化的情况,消除混合高斯模型检测运动车辆时出现的“重影“现象;并且同时判断了是否存在光线突变的情况,光线突变时对对每个像素点中ωi,t/σi,t最大的高斯模型进行更新,这样使算法及时响应背景的变化,提高目标检测的精度。
2、设置了跟踪窗口,提取了目标的特征,通过Kalman滤波算法和建立目标匹配矩阵对检测到的运动目标进行多目标跟踪,综合考虑了多目标跟踪过程的目标遮挡、目标消失和新目标出现的问题,跟踪效果精确;在基于跟踪结果的基础上,对运动车流量进行了统计,考虑了何时进行车辆计数累加、何时删除已经参与过计数的车辆目标、何时对新的车辆建立卡尔曼跟踪模型。可有效地、实时地对单多车道进行车流量统计,在车辆变速和车辆改道时也能正确的进行车流量统计。
附图说明
图1是本实施例基于运动车辆跟踪的车流量统计方法流程图;
图2是本实施例所述自适应背景更新率的混合高斯模型的运动车辆检测算法流程图;
图3是本实施例所述的进行卡尔曼滤波的运动车辆跟踪和车流量统计流程图。
具体实施方式
下面结合附图对本发明做进一步详细说明。
本发明的一种基于运动车辆跟踪的车流量统计方法,其整体算法流程如图1所示,包括以下步骤S1-S3。
S1采集车辆视频流图像,利用多尺度的形态学梯度算子对该视频流图像进行预处理;
采用梯度滤波器对图像进行处理后,可以抑制亮度、阴影变化和噪声对图像的影响。因此本发明中采用多尺度的形态学梯度算子对视频流图像进行预处理,多尺度的形态学梯度算子通过采用平均运算的方法使得算子获得更强的抗噪的能力。
假设形多尺度的形态学梯度算子为E,预处理的公式为:
上式中,Bi(0≤i≤n)为一组正方形的结构元素;I(x,y)为原始图像;IE(x,y)为预处理后的图像。
S2采用自适应背景更新率的混合高斯模型进行运动车辆检测;
本发明的自适应背景更新率的混合高斯模型的运动车辆检测算法流程图如图2所示,具体步骤如下:
S2.1建立混合高斯模型;
混合高斯模型是通过对图像每个像素点建立K个相互独立且不相关的高斯分布来表征图像特征的,K取值越大,计算量也就越大,K一般取3~7。
假设每个像素点的观测样本为{X1,X2,X3....Xt},使用K个高斯分布描述t时刻Xt属于背景的数学模型为:
(1)式中,i表示某个混合高斯模型,i=1,2,...K;K表示混合高斯模型的个数;ωi,t表示t时刻第i个高斯模型的权值,其中ωi,t满足∑ωi,t=1;η(Xt,μi,t,∑i,t)表示t时刻第i个高斯分布,其定义为:
(2)式中,∑i,t为协方差矩阵,(表示像素点在t时刻的第i个高斯模型的方差),n为Xt的维数。
S2.2结合8邻域帧差法和混合高斯模型确定自适应背景更新率;
原本静止在背景中的物体突然发生运动,运动物体脱离背景时被物体覆盖的背景显露出来,但是由于混合高斯模型是按照图像像素值判断前景和背景的,这部分显露出来的背景显然不能和长时间训练的混合高斯分布匹配,因此会被判断出前景,也常被称为“鬼影”。在传统的混合高斯模型算法中,由于整幅图像采用固定的背景更新率,使得这样的新的观测值(也就是显露出的背景)在一段时间内不能和背景分布匹配,从而不断出现误检,最终影响运动目标检测和目标个数的统计。同时在光照突变的复杂环境下,传统混合高斯模型容易将与背景不匹配的像素点误检为前景目标,影响目标的检测精度。针对传统的混合高斯模型算法存在的不足,本发明不采用固定的背景更新率,而是具体结合8邻域帧差法和混合高斯模型确定自适应背景更新率,其步骤为:
S2.2.1将图像分为背景区域Bg,背景显露区域Bv和运动区域F,并求取背景区域Bg,背景显露区域Bv和运动区域F;
1)进行相邻两帧间变化区域的检测;
两帧差法的表达式为:
Di(x,y)=|fi(x,y)-fi-1(x,y)| (3)
(3)式中,fi(x,y)为当前帧图像的像素点(x,y)灰度值,fi-1(x,y)为当前一帧图像的相同位置像素点(x,y)的灰度值。
对像素点f(x,y)进行8邻域帧差法的公式为:
利用下面公式进行8邻域帧差法的相邻两帧间变化区域的检测:
式中,φi(x,y)为相邻两帧间变化区域;阈值T1取值0.01,阈值T2取值0.07。
2)去除阴影部分;
为防止车辆的形状受到阴影的影响,使后续的车辆分类和判断运动车辆的位置不准确,本发明采用基于YUV色彩空间方法消除公式(5)获得的相邻两帧间变化区域的阴影部分。
在YUV色彩空间中,有阴影的背景图像和没有阴影的背景图像相比,代表亮度信息的Y分量存在明显的不同,而代表颜色信息的U、V分量大致相同,所以对阴影的分析可以都集中在代表亮度信息的Y分量上。具有阴影的区域比没有阴影的区域的亮度值低,即当前图像的阴影区域与对应的背景区域在Y分量上的比值IY(x,y)/BY(x,y)始终要小于1。其中,IY(x,y)为当前图像的阴影区域内像素点(x,y)的亮度值,BY(x,y)为对应的背景区域内像素点(x,y)的亮度值。由于作为前景的运动车辆区域内像素点的亮度值可能会比阴影区域内像素点亮度值还要低一些,因此需要设定一个下限阈值来防止出现阴影区域的错误判断。
本发明设定的检测阴影区域的判别公式为:
(6)式中,阈值α取值0.3,阈值β取值0.95,P(x,y)的值为1的像素点代表属于阴影区域。
将公式(6)获得阴影区域从公式(5)获得的相邻两帧间变化区域剔除掉,就可获得去除阴影后的两帧间发生变化的区域A。
3)求取背景区域Bg,背景显露区域Bv和运动区域F。
相邻两帧间发生变化的区域A包括运动区域F(运动目标在当前帧中所覆盖的区域),背景显露区域Bv(运动目标在前一帧所覆盖的区域,在当前帧由于物体的运动而显露出来的区域)。
假设当前图像为I,则背景区域Bg为:
Bg=I-A (7)
在Stauffer的经典混合高斯模型中,如果像素点Xt满足下面公式:
|Xt-μi,t(x,y)|≤2.5σi,t-1 (8)
其中,μi,t为t时刻第i个高斯分布的均值;则可认为该像素点与混合高斯分布中第i个高斯分布模型匹配。
按照比值ωi,t/σi,t(ωi,t为某个高斯分布的权值;σi,t为该高斯分布的标准差)的由大到小对K个高斯模型重新排列,取前面B个高斯分布作为背景像素的最佳描述为:
式中,ωk为高斯分布的权值,b表示为第几个高斯分布能够满足公式(9)中的函数argmin();阈值T的取值范围为0.5~0.7。
从而,再将区分出来的相邻两帧间的变化区域A逐像素与前B个高斯分布利用公式(8)进行高斯匹配,从而可以获得运动区域F和背景显露区域Bv,即用公式表示为:
式中,xt(x,y)当前时刻A区域的像素点的像素值;μi,t-1为t-1时刻第i个高斯分布的均值;σi,t-1为t-1时刻第i个高斯分布的标准差;0<i≤B。
S2.2.2确定自适应背景更新率;
在求得背景区域Bg、背景显露区域Bv和运动区域F之后,对这两个区域设定不同的背景更新率,来适应运动物体速度变化的情况,消除混合高斯模型检测运动车辆时出现的“重影“现象。
根据经典的混合高斯模型可知,背景更新率的取值范围为0~1。背景区域最稳定,为背景区域赋较小的背景更新率取值为0.005。对于背景显露区域,为了使显露出的背景区域能迅速地恢复,需要提高此背景区域的背景更新率,则应该为背景显露区域赋予较大的背景更新率取值为0.08。对于运动区域,此区域的背景更新率取大值会将运动目标迅速同化到背景中,从而将运动目标当成背景而造成目标漏检,因此运动区域的更新率智能取较小值,设定
S2.3进行高斯模型匹配来更新高斯背景模型以及运动车辆检测。
利用步骤S2.2.2中各区域的背景更新率对相对应区域进行高斯模型的各参数更新和运动车辆检测的步骤为:
S2.3.1利用公式(8)对获取的当前帧图像的各个像素值分别与已经存在的K个高斯分布进行匹配;
S2.3.2若是像素点存在满足公式(8)的情况,则认为该像素点与第i个高斯模型匹配,对匹配的高斯模型参数做如下更新:
μi,t=(1-ρ)μi,t-1+ρXt (14)
式中,Xt为当前帧像素点,μi,t为当前帧第i个高斯分布的均值,σi,t为当前帧第i个高斯分布的标准差,∑i,t为协方差矩阵,为步骤S2.2.2求得的各个区域背景更新率,ρ为第二背景更新率。
同时,对于其他与像素点Xt不匹配的高斯分布模型,需要做衰减处理以减少他们的权值,衰减处理为:
S2.3.3若当前像素点Xt如不存在可以匹配的高斯模型,则建立一个新的高斯模型来代替ωi,t/σi,t(ωi,t为某个高斯模型的权值,σi,t为该高斯模型的标准差)最小的高斯模型,新的高斯模型以当前像素点Xt的像素值为均值,并初始化一个大的方差,方差取80。
S2.3.4判断光线是否突变,及时对背景进行更新。
由于经典的混合高斯模型散发对于光线变化较为敏感,当光线发生突变,此时大部分的背景点的像素值会发生跳变而被误检为前景点,造成运动目标区域会出现大面积的“雪花“现象。
假设光线突变系数为ξ:
ξ=(N1/N2)*100% (11)
式中,N1为区域A像素点总数;N2为像素点的总数。当ξ大于75%时,认为光线发生突变。为了保证光线突变后,混合高斯模型能够快速地更新到真实背景,准确的提取运动目标,本发明对高斯混合模型做响应的调整,调整的步骤为:对每个像素点中ωi,t/σi,t(ωi,t为某个高斯分布的权值;σi,t为该高斯分布的标准差)最大的高斯模型进行更新,即利用当前像素点灰度值为该高斯分布的均值,该高斯分布的权值为所有高斯分布权值的最大值,该高斯分布的方差保持不变。
S2.3.5将K个高斯分布按照ωi,t/σi,t从大到小进行排列,取前B个高斯分布描述背景像素,利用公式(8)将像素点Xt与B个高斯模型进行匹配,如果能与任意一个高斯分布匹配成功,则判断该像素点Xt为背景点,否则该像素点Xt为运动车辆目标,即前景点。
S2.3.6将S2.3.5中获得前景和背景进行二值化处理,得到二值化图像。
S3进行卡尔曼滤波的运动车辆跟踪和车流量统计。
本发明的进行卡尔曼滤波的运动车辆跟踪和车流量统计流程图如图3所示,其具体包括以下步骤:
S3.1跟踪窗口的设置:利用步骤S2中提取的当前帧的运动目标,设定运动目标的跟踪窗口,即用矩形窗包围运动目标,跟踪窗口不宜过大,略大于目标图像,这样不但可以减少噪声干扰,还能减少跟踪过程中处理图像的大小,减少跟踪运算量,提高运算速度。
S3.2当前帧目标的跟踪特征值的选择:设跟踪窗口区域的零阶矩为m00,沿水平方向和垂直方向的一阶矩阵分别为m10和m01,目标图像的灰度值用f(i,j)表示,那么可以通过下面的公式求取跟踪窗口中质心坐标(x,y):
S3.3利用S3.2方法提取当前帧车辆信息,包括质心坐标、当前帧数、跟踪次数,并保存这些车辆信息和对每个车辆进行不重复的连续编号,为每个车辆目标建立卡尔曼跟踪模型进行多目标跟踪,其具体包括以下步骤:
S3.3.1Kalman跟踪中的运动模型估计:利用Kalman滤波进行运动估计,可以有效地减少噪声干扰,只需检测当前跟踪窗口,大大减少了计算量。假设Kalman滤波过程中系统在k时刻的状态向量为Xk,它由k-1时刻的状态Xk-1和动态噪声Wk-1共同决定,状态方程如公式(20)所示。而观测向量Zk也由两部分决定,即由k时刻状态向量Xk的观测函数和观测噪声Vk组成,观测方程如公式(21)所示。
Xk=CXk-1+Wk-1 (20)
Zk=HXk+Vk (21)
式中,C为状态转移矩阵;H为观测矩阵;Wk-1、Vk分别为动态噪声和观测噪声;状态向量Xk是一个四维向量:
Xk=[xk,yk,vx,k,vy,k]T (22)
其中,xk,yk分别为目标质心坐标,vx,k,vy,k分别为质心坐标在x,y方向上的速度。
S3.3.2模型更新和建立目标匹配矩阵:采用Kalman滤波器为运动目标建立运动模型,利用检测到的当前目标信息对下一帧目标进行预测,缩小了搜索范围和搜索时间;
1)运动目标跟踪是确定统一运动目标在不同帧中的位置的过程,即对相邻帧之间的各目标正确匹配的过程,在各目标建立对应关系之前,需要一个衡量匹配程度的原则,匹配完成之后,得到新的系统参数更新模型,反复迭代即可实现运动目标的连续跟踪。
视频图像相邻帧间的时间间隔很短,同一目标在前后帧间位置变化不会很大,即统一目标在相邻帧间有大部分是重叠区域,并且通过Kalman滤波器对上一帧运动目标轨迹进行了一个可靠的估计,可利用前后两帧目标的重叠区域所包含的像素数进行目标匹配度判断,如公式(23)所示:
其中,表示k-1时刻目标i的预测值,表示k时刻目标j的测量值,为k时刻目标j所占的像素个数,为k-1时刻目标i与k时刻目标j重叠像素的个数,mij表示k-1时刻目标i与k时刻目标j匹配的程度。
2)视频序列中出现的目标可能会不止一个,同时出现多个目标后,目标间就会变得复杂起来目标互相遮挡,目标遮挡后分离,目标被背景物体遮挡而暂时消失,不断有新目标出现和目标消失。为处理多目标跟踪中复杂情况,利用公式(24)来建立相邻帧间目标的匹配矩阵来表示前后两帧间的匹配关系,匹配矩阵为:
其中,m为k-1时刻的目标总数,n为k时刻的目标总数,M即为相邻帧间的匹配矩阵,大小为m*n(m行n列),mij是上一帧目标i与当前帧目标j的匹配度。
匹配矩阵M中的值为0或1,匹配矩阵的每一行是表示上一帧里的目标与当前帧的每一个目标的匹配状态,所以通过对匹配矩阵的行扫描可以判断出上一帧的目标在当前帧时发生的变化。如果第k行每一个元素皆为0,则表示上一帧的第k个目标消失,这说明目标可能永久消失也可能是被背景这单而暂时消失;如果第k行只有p列一个元素为1,则说明上一帧第k个目标与当前帧的第p个目标匹配;如果第k行有多个元素为1,则表示上一帧中的第k个目标在当前帧中被分离为多个目标,这说明可能是上一帧的遮挡发生了分离,也可能是上一帧目标在当前帧中产生了目标碎片,此时需合并碎片,再重新建立匹配矩阵和重新分析矩阵。匹配矩阵的每一列是表示当前帧的目标与上一帧的每一个目标的匹配状态,则通过对匹配矩阵的列扫描可以判断出当前帧目标的目标状态。如果第k列的元素皆为0,则表示当前帧的第k个目标是新出现的目标;如果第k列只有第h行的一个元素为1,这说明当前帧的第k个目标与上一帧的第h个目标匹配;如果第k列存在一个以上的元素为1,这表示上一帧的目标在当前帧中发生了遮挡。
S3.4假设第k帧的第n个车辆目标标记为Ok,n,第k-1帧的第m个车辆目标记为Ok-1,m,利用S3.3中方法进行运动车辆跟踪。
若利用步骤S3.1中进行跟踪,得到Ok,n与Ok-1,m相匹配,且两者连续5帧都两目标都匹配,两者是同一车辆,则将Ok-1,m车辆的编号赋给Ok,n,为目标车辆Ok,n建立步骤S3.1中的卡尔曼跟踪模型,计数器加1,并且记录已经参加计数的车辆编号,不参与重复计数。已经参与计数的车辆目标会在一定时间后消失,但是不能马上删除该车辆目标。因为在跟踪过程中目标之间发生了遮挡或是车辆目标分离成了碎片的现象,使得该车辆暂时消失,此时要是马上删除该目标,当该车辆目标再次完整出现时,跟踪过程中会被视作新的车辆目标而再次参与计数操作,所以当某个车辆目标连续5帧都不能找到与之相匹配的车辆时,再删除该车辆目标。
若Ok,n未能在第k-1帧中找到相匹配的目标,则为该车辆目标赋予新的不重复的连续编号,并为其建立卡尔曼跟踪模型,进行跟踪匹配。
S3.5重复步骤S3.4,继续进行持续的车辆跟踪,从而统计出所需图像帧中车道的车辆信息。
本发明方法能够准确的检测出运动车辆和对车辆进行实时跟踪,在跟踪的基础上可有效地、实时地对单多车道进行车流量统计,在车辆变速和车辆改道时也能正确的进行车流量统计。根据车流量信息可使交通信号灯实时改变红绿灯时间,提高城市交通的利用率,改善城市车辆拥堵问题。
本发明中提出的方法实际上可嵌入FPGA实现,运用于具有实时的车流统计相机或摄像机中。本领域技术人员将清楚本发明的范围不限制于以上讨论的示例,有可能对其进行若干改变和修改,而不脱离所附权利要求书限定的本发明的范围。尽管己经在附图和说明书中详细图示和描述了本发明,但这样的说明和描述仅是说明或示意性的,而非限制性的。本发明并不限于所公开的实施例。
Claims (6)
1.一种基于运动车辆跟踪的车流量统计方法,其特征在于,包括以下步骤:
S1采集车辆视频流图像,利用多尺度的形态学梯度算子对该视频流图像进行预处理;
S2采用自适应背景更新率的混合高斯模型进行运动目标检测;
S2.1建立混合高斯模型;
S2.2结合8邻域帧差法和混合高斯模型确定自适应背景更新率;
S2.3进行高斯模型匹配来更新高斯背景模型以及运动车辆检测;
S3进行卡尔曼滤波的运动车辆跟踪和车流量统计。
2.根据权利要求1所述的一种基于运动车辆跟踪的车流量统计方法,其特征在于,所述S2.1中,假设图像中每个像素点的观测样本为{X1,X2,X3....Xt},使用K个高斯分布描述t时刻Xt属于背景的数学模型为:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<mi>&eta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
(1)式中,i表示某个混合高斯模型,i=1,2,...K;K表示混合高斯模型的个数;ωi,t表示t时刻第i个高斯模型的权值,其中ωi,t满足∑ωi,t=1;η(Xt,μi,t,∑i,t)表示t时刻第i个高斯分布,其定义为:
<mrow>
<mi>&eta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mi>&pi;</mi>
<mo>)</mo>
</mrow>
<mfrac>
<mi>n</mi>
<mn>2</mn>
</mfrac>
</msup>
<mo>|</mo>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<msup>
<mo>|</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
</msup>
</mrow>
</mfrac>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
(2)式中,∑i,t为协方差矩阵其中表示像素点在t时刻的第i个高斯模型的方差,n为Xt的维数。
3.根据权利要求1所述的一种基于运动车辆跟踪的车流量统计方法,其特征在于,所述S2.2具体包括以下步骤:
S2.2.1将图像分为背景区域Bg、背景显露区域Bv和运动区域F,并求取所述背景区域Bg、背景显露区域Bv和运动区域F;
1)进行相邻两帧间变化区域的检测;
两帧差法的表达式为:
Di(x,y)=|fi(x,y)-fi-1(x,y)| (3)
(3)式中,fi(x,y)为当前帧图像的像素点(x,y)灰度值,fi-1(x,y)为当前一帧图像的相同位置像素点(x,y)的灰度值;
对像素点f(x,y)进行8邻域帧差法的公式为:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<munder>
<mo>&Sigma;</mo>
<mi>i</mi>
</munder>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>D</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>D</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>D</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>D</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>D</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>D</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>D</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>D</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>y</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
利用下面公式(5)进行8邻域帧差法的相邻两帧间变化区域的检测:
(5)式中,φi(x,y)为相邻两帧间变化区域,T1、T2为阈值;
2)去除阴影部分;
采用基于YUV色彩空间方法消除公式(5)获得的相邻两帧间变化区域的阴影部分,设定一个下限阈值来防止出现阴影区域的错误判断,检测阴影区域的判别公式为:
(6)式中,α、β为设定阈值,P(x,y)的值为1的像素点代表属于阴影区域;
将公式(6)获得阴影区域从公式(5)获得的相邻两帧间变化区域剔除掉,得到去除阴影后的两帧间发生变化的区域A;
3)求取背景区域Bg,背景显露区域Bv和运动区域F;
所述区域A包括运动区域F,背景显露区域Bv;
假设当前图像为I,则背景区域Bg为:
Bg=I-A (7)
定义公式|Xt-μi,t(x,y)|≤2.5σi,t-1 (8)
其中,μi,t为t时刻第i个高斯分布的均值;σi,t-1为t-1时刻第i个高斯分布的的标准差;
当图像像素点Xt满足公式(8),则可认为该像素点与混合高斯分布中第i个高斯分布模型匹配;
按照比值ωi,t/σi,t的由大到小对K个高斯模型重新排列,其中ωi,t为某个高斯分布的权值,σi,t为该高斯分布的标准差;
取前面B个高斯分布作为背景像素的最佳描述为:
<mrow>
<mi>B</mi>
<mo>=</mo>
<munder>
<mrow>
<mi>arg</mi>
<mi>min</mi>
</mrow>
<mi>b</mi>
</munder>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>b</mi>
</munderover>
<msub>
<mi>&omega;</mi>
<mi>k</mi>
</msub>
<mo>></mo>
<mi>T</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,ωk为高斯分布的权值,T为阈值;
从而,再将区分出来的相邻两帧间的变化区域A逐像素与前B个高斯分布利用公式(8)进行高斯匹配,从而可以获得运动区域F和背景显露区域Bv,如公式(10)所示:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>|</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>|</mo>
<mo>&le;</mo>
<mn>25</mn>
<msub>
<mi>&sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>&Element;</mo>
<msub>
<mi>B</mi>
<mi>v</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>|</mo>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>|</mo>
<mo>></mo>
<mn>25</mn>
<msub>
<mi>&sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>x</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>&Element;</mo>
<mi>F</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,xt(x,y)当前时刻A区域的像素点的像素值,μi,t-1为t-1时刻第i个高斯分布的均值,σi,t-1为t-1时刻第i个高斯分布的标准差,0<i≤B;
S2.2.2确定自适应背景更新率;
对这两个区域设定不同的背景更新率,来适应运动物体速度变化的情况,消除混合高斯模型检测运动车辆时出现的重影现象。
4.根据权利要求3所述的一种基于运动车辆跟踪的车流量统计方法,其特征在于,所述S2.3具体包括以下步骤:
S2.3.1利用公式(8)对获取的当前帧图像的各个像素点分别与已经存在的K个高斯分布进行匹配;
S2.3.2若是像素点存在满足公式(8)的情况,则认为该像素点与第i个高斯模型匹配,对匹配的高斯模型参数做如下更新:
<mrow>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mo>&part;</mo>
<mo>)</mo>
</mrow>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>+</mo>
<mo>&part;</mo>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>13</mn>
<mo>)</mo>
</mrow>
</mrow>
2
μi,t=(1-ρ)μi,t-1+ρXt (14)
<mrow>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
<mn>2</mn>
</msubsup>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mi>&rho;</mi>
<mo>)</mo>
</mrow>
<msubsup>
<mi>&sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<mi>&rho;</mi>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>15</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>&rho;</mi>
<mo>=</mo>
<mo>&part;</mo>
<mo>&CenterDot;</mo>
<mi>&eta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>t</mi>
</msub>
<mo>,</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>16</mn>
<mo>)</mo>
</mrow>
</mrow>
上式中,Xt为当前帧像素点,μi,t为当前帧第i个高斯分布的均值,σi,t为当前帧第i个高斯分布的标准差,∑i,t为协方差矩阵,为步骤S2.2.2求得的各个区域背景更新率,ρ为第二背景更新率;
同时,减少其他与像素点Xt不匹配的高斯分布模型的权值,衰减处理为:
<mrow>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<mo>&part;</mo>
<mo>)</mo>
</mrow>
<msub>
<mi>&omega;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>17</mn>
<mo>)</mo>
</mrow>
</mrow>
S2.3.3若当前像素点Xt如不存在可以匹配的高斯模型,则建立一个新的高斯模型来代替ωi,t/σi,t最小的高斯模型,该新的高斯模型以当前像素点Xt的像素值为均值,并初始化方差为80;
S2.3.4判断光线是否突变,及时对背景进行更新;
假设光线突变系数为ξ:
ξ=(N1/N2)*100% (11)
(11)式中,N1为区域A像素点总数,N2为像素点的总数,当ξ大于75%时,认为光线发生突变;
对高斯混合模型做响应的调整以保证光线突变后混合高斯模型能够快速地更新到真实背景,该调整的步骤为:对每个像素点中ωi,t/σi,t最大的高斯模型进行更新,即利用当前像素点灰度值为该高斯分布的均值,该高斯分布的权值为所有高斯分布权值的最大值,该高斯分布的方差保持不变;
S2.3.5将K个高斯分布按照ωi,t/σi,t从大到小进行排列,取前B个高斯分布描述背景像素,利用公式(8)将像素点Xt与B个高斯模型进行匹配,如果能与任意一个高斯分布匹配成功,则判断该像素点Xt为背景点,否则该像素点Xt为运动车辆目标,即前景点;
S2.3.6将S2.3.5中获得前景和背景进行二值化处理,得到二值化图像。
5.根据权利要求3所述的一种基于运动车辆跟踪的车流量统计方法,其特征在于,所述S3具体包括以下步骤:
S3.1设置跟踪窗口:利用步骤S2中提取的当前帧的运动目标,设定运动目标的跟踪窗口,即用矩形窗包围运动目标;
S3.2选择当前帧目标的跟踪特征值:设跟踪窗口区域的零阶矩为m00,沿水平方向和垂直方向的一阶矩阵分别为m10和m01,目标图像的灰度值用f(i,j)表示,求取跟踪窗口中质心坐标(x,y):
<mrow>
<mi>x</mi>
<mo>=</mo>
<mfrac>
<msub>
<mi>m</mi>
<mn>10</mn>
</msub>
<msub>
<mi>m</mi>
<mn>00</mn>
</msub>
</mfrac>
<mo>=</mo>
<mfrac>
<mrow>
<munder>
<mo>&Sigma;</mo>
<mi>i</mi>
</munder>
<munder>
<mo>&Sigma;</mo>
<mi>j</mi>
</munder>
<mi>i</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<munder>
<mo>&Sigma;</mo>
<mi>i</mi>
</munder>
<munder>
<mo>&Sigma;</mo>
<mi>j</mi>
</munder>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>18</mn>
<mo>)</mo>
</mrow>
</mrow>
3
<mrow>
<mi>y</mi>
<mo>=</mo>
<mfrac>
<msub>
<mi>m</mi>
<mn>01</mn>
</msub>
<msub>
<mi>m</mi>
<mn>00</mn>
</msub>
</mfrac>
<mo>=</mo>
<mfrac>
<mrow>
<munder>
<mo>&Sigma;</mo>
<mi>i</mi>
</munder>
<munder>
<mo>&Sigma;</mo>
<mi>j</mi>
</munder>
<mi>j</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<munder>
<mo>&Sigma;</mo>
<mi>i</mi>
</munder>
<munder>
<mo>&Sigma;</mo>
<mi>j</mi>
</munder>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>19</mn>
<mo>)</mo>
</mrow>
</mrow>
S3.3提取当前帧车辆信息,其包括质心坐标、当前帧数、跟踪次数,并保存该车辆信息和对每个车辆目标进行不重复的连续编号,为每个车辆目标建立卡尔曼跟踪模型并进行多目标跟踪;
S3.4假设第k帧的第n个车辆目标标记为Ok,n,第k-1帧的第m个车辆目标记为Ok-1,m,利用S3.3中方法进行运动车辆跟踪;
若利用步骤S3.1中进行跟踪,得到Ok,n与Ok-1,m相匹配,且两者连续5帧都两目标都匹配,即两者是同一车辆,则将Ok-1,m车辆的编号赋给Ok,n,为目标车辆Ok,n建立卡尔曼跟踪模型,计数器加1,并且记录已经参加计数的车辆编号,不参与重复计数;已经参与计数的车辆目标会在一定时间后消失,当某个车辆目标连续5帧都不能找到与之相匹配的车辆时,再删除该车辆目标;若Ok,n未能在第k-1帧中找到相匹配的目标,则为该车辆目标赋予新的不重复的连续编号,并为其建立卡尔曼跟踪模型,并进行跟踪匹配;
S3.5重复步骤S3.4,继续进行持续的车辆跟踪,从而统计出所需图像帧中车道的车辆信息。
6.根据权利要求5所述的一种基于运动车辆跟踪的车流量统计方法,其特征在于,所述S3.1具体包括以下步骤:
S3.3.1卡尔曼跟踪中的运动模型估计:假设卡尔曼滤波过程中系统在k时刻的状态向量为Xk,观测向量为Zk,
Xk=CXk-1+Wk-1 (20)
Zk=HXk+Vk (21)
式中,C为状态转移矩阵,H为观测矩阵,Wk-1、Vk分别为动态噪声和观测噪声,状态向量Xk是一个四维向量:
Xk=[xk,yk,vx,k,vy,k]T (22)
其中,xk,yk分别为目标质心坐标,vx,k,vy,k分别为质心坐标在x,y方向上的速度;
S3.3.2模型更新和建立目标匹配矩阵:采用卡尔曼滤波器为运动目标建立运动模型,利用检测到的当前目标信息对下一帧目标进行预测;
1)利用前后两帧目标的重叠区域所包含的像素数进行目标匹配度判断,如公式(23)所示:
<mrow>
<msub>
<mi>m</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>M</mi>
<mi>a</mi>
<mi>t</mi>
<mi>c</mi>
<mi>h</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>O</mi>
<mi>i</mi>
<mrow>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>O</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mi>S</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>O</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>23</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,表示k-1时刻目标i的预测值,表示k时刻目标j的测量值,为k时刻目标j所占的像素个数,为k-1时刻目标i与k时刻目标j重叠像素的个数,mij表示k-1时刻目标i与k时刻目标j匹配的程度;
2)利用公式(24)来建立相邻帧间目标的匹配矩阵来表示前后两帧间的匹配关系,匹配矩阵为:
其中,m为k-1时刻的目标总数,n为k时刻的目标总数,M即为相邻帧间的匹配矩阵,大小为m*n(m行n列),mij是上一帧目标i与当前帧目标j的匹配度;
匹配矩阵M中的值为0或1,匹配矩阵的每一行是表示上一帧里的目标与当前帧的每一个目标的匹配状态,通过对匹配矩阵的行扫描判断出上一帧的目标在当前帧时发生的变化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710236794.5A CN107103292A (zh) | 2017-04-12 | 2017-04-12 | 一种基于运动车辆跟踪的车流量统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710236794.5A CN107103292A (zh) | 2017-04-12 | 2017-04-12 | 一种基于运动车辆跟踪的车流量统计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107103292A true CN107103292A (zh) | 2017-08-29 |
Family
ID=59674976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710236794.5A Pending CN107103292A (zh) | 2017-04-12 | 2017-04-12 | 一种基于运动车辆跟踪的车流量统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107103292A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107564307A (zh) * | 2017-10-26 | 2018-01-09 | 郑州大学 | 用于相邻车道的智能隔离方法及其用智能移动隔离桩系统 |
CN107945523A (zh) * | 2017-11-27 | 2018-04-20 | 北京华道兴科技有限公司 | 一种道路车辆检测方法、交通参数检测方法及装置 |
CN108320299A (zh) * | 2017-12-28 | 2018-07-24 | 广州万威伟创网络科技有限公司 | 一种基于运动行为分析的目标跟踪算法 |
CN108762309A (zh) * | 2018-05-03 | 2018-11-06 | 浙江工业大学 | 一种基于假设卡尔曼滤波的人体目标跟随方法 |
CN109063675A (zh) * | 2018-08-23 | 2018-12-21 | 深圳大学 | 车流密度计算方法、系统、终端及计算机可读存储介质 |
CN109102526A (zh) * | 2018-07-27 | 2018-12-28 | 东莞职业技术学院 | 无人机的监控系统的前景检测方法以及装置 |
CN109165628A (zh) * | 2018-09-12 | 2019-01-08 | 首都师范大学 | 提高动目标检测精度的方法、装置、电子设备及存储介质 |
CN109255948A (zh) * | 2018-08-10 | 2019-01-22 | 昆明理工大学 | 一种基于卡尔曼滤波的分车道车流比例预测方法 |
CN109544592A (zh) * | 2018-10-26 | 2019-03-29 | 天津理工大学 | 针对相机移动的运动目标检测算法 |
CN110136453A (zh) * | 2019-06-14 | 2019-08-16 | 内蒙古工业大学 | 基于lk局部差分光流法的车流量检测方法 |
CN111445699A (zh) * | 2020-04-13 | 2020-07-24 | 黑龙江工程学院 | 基于实时车辆轨迹的交叉口交通冲突判别方法 |
CN111833598A (zh) * | 2020-05-14 | 2020-10-27 | 山东科技大学 | 一种高速公路无人机交通事件自动监测方法及系统 |
CN113628242A (zh) * | 2021-07-07 | 2021-11-09 | 武汉大学 | 一种基于背景减除法的卫星视频目标跟踪方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1937000A (zh) * | 2006-10-19 | 2007-03-28 | 上海交通大学 | 城市交叉路口远程监控及车流识别检测方法 |
CN102867416A (zh) * | 2012-09-13 | 2013-01-09 | 中国科学院自动化研究所 | 一种基于车辆部位特征的车辆检测与跟踪方法 |
CN103413046A (zh) * | 2013-08-14 | 2013-11-27 | 深圳市智美达科技有限公司 | 车流量统计方法 |
CN105678214A (zh) * | 2015-12-21 | 2016-06-15 | 中国石油大学(华东) | 云环境下基于卷积神经网络车型识别的车流量统计方法 |
-
2017
- 2017-04-12 CN CN201710236794.5A patent/CN107103292A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1937000A (zh) * | 2006-10-19 | 2007-03-28 | 上海交通大学 | 城市交叉路口远程监控及车流识别检测方法 |
CN102867416A (zh) * | 2012-09-13 | 2013-01-09 | 中国科学院自动化研究所 | 一种基于车辆部位特征的车辆检测与跟踪方法 |
CN103413046A (zh) * | 2013-08-14 | 2013-11-27 | 深圳市智美达科技有限公司 | 车流量统计方法 |
CN105678214A (zh) * | 2015-12-21 | 2016-06-15 | 中国石油大学(华东) | 云环境下基于卷积神经网络车型识别的车流量统计方法 |
Non-Patent Citations (6)
Title |
---|
丁艳 等: "基于全方位视觉的多目标检测跟踪", 《中国优秀硕士学位论文全文数据库(电子期刊) 信息科技辑》 * |
华媛蕾,刘万军: "改进混合高斯模型的运动目标检测算法", 《计算机应用》 * |
崔凤英: "基于视频的车流量检测算法研究", 《中国优秀硕士学位论文全文数据库(电子期刊) 工程科技II辑》 * |
梁艳磊: "基于固定摄像头的车流量检测技术算法研究", 《中国优秀硕士学位论文全文数据库(电子期刊) 工程科技II辑》 * |
赵小川: "《现代数字图像处理技术提高及应用案例详解 MATLAB版》", 30 April 2012 * |
黄海涛 等: "快速混合高斯模型的运动目标检测", 《计算机系统应用》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107564307A (zh) * | 2017-10-26 | 2018-01-09 | 郑州大学 | 用于相邻车道的智能隔离方法及其用智能移动隔离桩系统 |
CN107945523B (zh) * | 2017-11-27 | 2020-01-03 | 北京华道兴科技有限公司 | 一种道路车辆检测方法、交通参数检测方法及装置 |
CN107945523A (zh) * | 2017-11-27 | 2018-04-20 | 北京华道兴科技有限公司 | 一种道路车辆检测方法、交通参数检测方法及装置 |
CN108320299A (zh) * | 2017-12-28 | 2018-07-24 | 广州万威伟创网络科技有限公司 | 一种基于运动行为分析的目标跟踪算法 |
CN108762309A (zh) * | 2018-05-03 | 2018-11-06 | 浙江工业大学 | 一种基于假设卡尔曼滤波的人体目标跟随方法 |
CN108762309B (zh) * | 2018-05-03 | 2021-05-18 | 浙江工业大学 | 一种基于假设卡尔曼滤波的人体目标跟随方法 |
CN109102526A (zh) * | 2018-07-27 | 2018-12-28 | 东莞职业技术学院 | 无人机的监控系统的前景检测方法以及装置 |
CN109102526B (zh) * | 2018-07-27 | 2022-07-05 | 东莞职业技术学院 | 无人机的监控系统的前景检测方法以及装置 |
CN109255948A (zh) * | 2018-08-10 | 2019-01-22 | 昆明理工大学 | 一种基于卡尔曼滤波的分车道车流比例预测方法 |
CN109063675A (zh) * | 2018-08-23 | 2018-12-21 | 深圳大学 | 车流密度计算方法、系统、终端及计算机可读存储介质 |
CN109063675B (zh) * | 2018-08-23 | 2021-05-28 | 深圳大学 | 车流密度计算方法、系统、终端及计算机可读存储介质 |
CN109165628A (zh) * | 2018-09-12 | 2019-01-08 | 首都师范大学 | 提高动目标检测精度的方法、装置、电子设备及存储介质 |
CN109165628B (zh) * | 2018-09-12 | 2022-06-28 | 首都师范大学 | 提高动目标检测精度的方法、装置、电子设备及存储介质 |
CN109544592A (zh) * | 2018-10-26 | 2019-03-29 | 天津理工大学 | 针对相机移动的运动目标检测算法 |
CN109544592B (zh) * | 2018-10-26 | 2023-01-17 | 天津理工大学 | 针对相机移动的运动目标检测算法 |
CN110136453A (zh) * | 2019-06-14 | 2019-08-16 | 内蒙古工业大学 | 基于lk局部差分光流法的车流量检测方法 |
CN111445699A (zh) * | 2020-04-13 | 2020-07-24 | 黑龙江工程学院 | 基于实时车辆轨迹的交叉口交通冲突判别方法 |
CN111445699B (zh) * | 2020-04-13 | 2021-10-26 | 黑龙江工程学院 | 基于实时车辆轨迹的交叉口交通冲突判别方法 |
CN111833598A (zh) * | 2020-05-14 | 2020-10-27 | 山东科技大学 | 一种高速公路无人机交通事件自动监测方法及系统 |
CN113628242A (zh) * | 2021-07-07 | 2021-11-09 | 武汉大学 | 一种基于背景减除法的卫星视频目标跟踪方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107103292A (zh) | 一种基于运动车辆跟踪的车流量统计方法 | |
CN106875424B (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
CN105404847B (zh) | 一种遗留物实时检测方法 | |
CN104091348B (zh) | 融合显著特征和分块模板的多目标跟踪方法 | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN107507221A (zh) | 结合帧差法和混合高斯模型的运动目标检测与跟踪方法 | |
CN104392468B (zh) | 基于改进视觉背景提取的运动目标检测方法 | |
CN105427626B (zh) | 一种基于视频分析的车流量统计方法 | |
CN109145769A (zh) | 融合图像分割特征的目标检测网络设计方法 | |
CN110517288A (zh) | 基于全景多路4k视频图像的实时目标检测跟踪方法 | |
CN106651913A (zh) | 基于相关滤波和颜色直方图统计的目标跟踪方法及adas系统 | |
CN105678803A (zh) | 基于w4算法和帧间差分的视频监控目标检测方法 | |
CN104318258A (zh) | 一种基于时域模糊和卡尔曼滤波器的车道线检测方法 | |
CN108230364A (zh) | 一种基于神经网络的前景物体运动状态分析方法 | |
CN103136537B (zh) | 一种基于支持向量机的车型识别方法 | |
CN103903278A (zh) | 运动目标检测与跟踪系统 | |
CN112802054B (zh) | 一种融合图像分割的混合高斯模型前景检测方法 | |
CN107564022A (zh) | 基于贝叶斯融合的视频显著性检测方法 | |
CN104751466B (zh) | 一种基于显著性的形变物体跟踪方法及其系统 | |
CN103034862A (zh) | 基于特征信息分类的道路雨雪状态自动识别方法 | |
CN104599291B (zh) | 基于结构相似度和显著性分析的红外运动目标检测方法 | |
CN102930248A (zh) | 基于机器学习的人群异常行为检测方法 | |
CN109919053A (zh) | 一种基于监控视频的深度学习车辆停车检测方法 | |
CN110633678B (zh) | 一种基于视频图像的快速高效的车流量计算方法 | |
CN106952474A (zh) | 基于运动车辆检测的车流量统计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170829 |
|
RJ01 | Rejection of invention patent application after publication |