CN107590462B - 基于模式识别与st-mrf相结合的交通流参数提取方法 - Google Patents

基于模式识别与st-mrf相结合的交通流参数提取方法 Download PDF

Info

Publication number
CN107590462B
CN107590462B CN201710821434.1A CN201710821434A CN107590462B CN 107590462 B CN107590462 B CN 107590462B CN 201710821434 A CN201710821434 A CN 201710821434A CN 107590462 B CN107590462 B CN 107590462B
Authority
CN
China
Prior art keywords
vehicle
motion vector
mrf
pattern recognition
traffic flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710821434.1A
Other languages
English (en)
Other versions
CN107590462A (zh
Inventor
周君
高尚兵
包旭
常绿
夏晶晶
郝大景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaiyin Institute of Technology
Original Assignee
Huaiyin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaiyin Institute of Technology filed Critical Huaiyin Institute of Technology
Priority to CN201710821434.1A priority Critical patent/CN107590462B/zh
Publication of CN107590462A publication Critical patent/CN107590462A/zh
Application granted granted Critical
Publication of CN107590462B publication Critical patent/CN107590462B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于模式识别与ST‑MRF相结合的交通流参数提取方法,其特征在于,包括如下步骤:步骤一、通过模式识别技术分割遮挡严重的单个车辆区域,识别被遮挡车辆的边缘间隙以及边界信息;步骤二、通过ST‑MRF中的能量函数分配标号进行提炼及优化处理,结合模式识别技术融合不完整的分割部分,得到车辆跟踪算法;步骤三、基于摄像机标定的坐标转换方法,对同一点在实际交通场景中的坐标和图像平面上的坐标进行相互转换;步骤四、提取交通流参数。优点:在原始ST‑MRF算法的基础上,结合车辆模式识别技术,以解决车辆在行驶中的遮挡问题,从而提高车辆跟踪精度,获得准确的交通流参数。

Description

基于模式识别与ST-MRF相结合的交通流参数提取方法
技术领域
本发明涉及一种基于模式识别与ST-MRF相结合的交通流参数提取方法。
背景技术
在交通视频检测技术中,交通流参数来源于车辆跟踪,因此车辆跟踪精度直接影响到数据的准确性。最早的车辆跟踪算法是基于车辆轮廓的方法,如Peterfreund使用“snake”方法为跟踪目标提取车辆的轮廓,后来发现当道路处于饱和状态时车辆重叠遮挡比较严重,该方法得不到较好的跟踪结果。为了在车辆遮挡严重的饱和道路处获得较好的跟踪结果,各国学者提出了不同的算法,这些算法可以归结为二类,第一类是基于计算机图像处理技术算法,包括背景差分法、相邻帧差法、匹配法等;第二类是基于数学模型算法,包括Mean-shift、卡尔曼滤波法、蒙特卡罗算法、HMM/MRF算法等。本人公开了一种基于ST-MRF的自适应车辆跟踪算法研究,其基于ST-MRF模型的自适应车辆跟踪算法能在交通量比较大、且车辆出现相互遮挡的情况下,较准确的获得车辆跟踪数据,但是当道路处于饱和状态时,车辆在行驶中出现长时间(视频监控区域始终遮挡)的遮挡将严重影响车辆跟踪精度,另外,由于环境光照变化的影响,车辆与其阴影之间的遮挡也同样会降低车辆跟踪精度。原有的ST-MRF算法无法对遮挡严重的车辆进行高精度跟踪获取车辆动态信息。因此,本文将在原始ST-MRF算法的基础上,结合车辆模式识别技术,以解决车辆在行驶中的遮挡问题,从而提高车辆跟踪精度,获得准确的交通流参数。
发明内容
本发明所要解决的技术问题是克服现有技术的缺陷,提供一种基于模式识别与ST-MRF相结合的交通流参数提取方法,在ST-MRF算法的基础上,结合车辆模式识别技术,以解决车辆在行驶中的遮挡问题,从而提高车辆跟踪精度,获得准确的交通流参数。
为解决上述技术问题,本发明提供一种基于模式识别与ST-MRF相结合的交通流参数提取方法,其特征在于,包括如下步骤:
步骤一、通过模式识别技术分割遮挡严重的单个车辆区域,识别被遮挡车辆的边缘间隙以及边界信息;
步骤二、通过ST-MRF中的能量函数分配标号进行提炼及优化处理,结合模式识别技术融合不完整的分割部分,得到车辆跟踪算法;
步骤三、基于摄像机标定的坐标转换方法,对同一点在实际交通场景中的坐标和图像平面上的坐标进行相互转换;
步骤四、提取交通流参数。
进一步的,所述步骤一包括如下步骤:
1)识别被遮挡车辆边缘间隙:使用边缘间隔密度模式算法识别3种不同的间隙:第一种是存在于大型卡车与小汽车边界之间的宽度间隙,第二种是存在于相同类型或不同类型的小汽车边界之间的主要轴线上的间隙,第三种是存在于小汽车自身阴影与小汽车边界之间的边缘间隔的密度间隙,具体步骤如下:
Step1:使用传统的canny边缘检测算法进行车辆水平边界检测;
Step2:统计边界的数量;
Step3:阈值计算:阈值=高度/边界数量;
Step4:通过阈值的大小确定边界类型;
Step5:根据边界类型识别不同的边缘间隙;
2)确定车辆边界:在边缘间隙识别的基础上,侧重在一辆车区域检测到两辆车后,检测从原始图像中提取与车辆行驶方向正交的直线边缘,然后再扫描边缘,使用边缘间隔密度模式算法确定车辆边界,具体步骤如下:
Step1:使用传统的canny边缘检测算法进行车辆水平边界检测;
Step2:统计边界的数量;
Step3:阈值计算:阈值=高度/边界数量;
Step4:通过阈值的大小确定边界类型;
Step5:根据边界类型识别不同的边缘间隙;
Step6:计算边缘间隔评估值,找出最大评估值;
Step7:最大评估值区域即为两辆车的边界处。
进一步的,所述步骤二中的能量函数是:
Figure BDA0001406411170000031
式中:第一部分a(Nyk-μNy)2表示在目标地图中,标号的相邻关系,第二部分b(Mxyk-μMxy)2表示在连续目标地图中的标号的遮挡关系,第三部分
Figure BDA0001406411170000032
表示与运动矢量有关的连续图像中的纹理关系,第四部分
Figure BDA0001406411170000033
表示在运动矢量地图中的运动矢量的相邻关系;
Nyk:指一个像素块的相邻像素块和该像素块有相同标号的数目;
Nxk:表示一个像素块的相邻像素块的数目;
Dxyk:代表t-1时刻的图像与t时刻的图像之间的纹理相关性,在发生遮挡时,分别计算属于各辆车的概率;
Mxyk:部分遮挡的两个像素块中遮挡部分的像素个数;
μMxy:遮挡部分的像素个数,最大值为64,最小值为0;
μNy:邻域基团,本文采用二阶邻域系统,也称为8-邻域基团,它的每一个位置有8个邻域,则μNy=8为最大值;
Ck:当前像素块;
Bk:相邻像素块;
Figure BDA0001406411170000034
表示运动矢量;
Figure BDA0001406411170000035
在(t-1)时刻,当前像素块与相邻像素块的运动矢量之差;
a、b、c、f和μMxy为设定的参数,为获得最大能量函数值,取a=1/2,b=1/256,c=32/1000000,f=1/4,μMxy=0。
进一步的,所述步骤二中的提炼及优化处理:根据前一时刻的目标地图、运动矢量和当前图像,同时考虑在相邻像素块中的运动矢量和连续图像中的纹理关系的相似性来最小化当前时刻的目标地图和运动矢量的最小能量,具体包括如下步骤:
1)通过块匹配方法获得所有像素块的运动矢量,确定运动矢量地图的初始状态
Figure BDA0001406411170000041
Figure BDA0001406411170000042
Figure BDA0001406411170000043
表示时刻t-1到t,每个像素块的运动矢量;
2)根据运动矢量地图的初始状态,将每一像素块的候选标号设置为目标地图的二维初始状态X(t)=y0;
3)估算目标地图和运动矢量地图在进行X(t)=yi和
Figure BDA0001406411170000044
次迭代后的总能量,i为迭代次数;
4)随机同时转换在当前状态下的目标地图X(t)=yi和运动矢量地图
Figure BDA0001406411170000045
到下一状态的目标地图X(t+1)=yi+1和运动矢量地图
Figure BDA0001406411170000046
5)在步骤03)和04)之间反复循环操作,直到X(t)和
Figure BDA0001406411170000047
收敛到能量函数值Ustmrf到极小值。
进一步的,所述步骤二中,结合模式识别技术融合不完整的分割部分,与ST-MRF相结合的图像分割的后验概率是:
Figure BDA0001406411170000048
G(t-1)=g,G(t)=h:图像G在时刻t-1时的值为g,在时刻t时,值为h,X(t-1)=x,X(t)=y:目标地图X在时刻t-1时被检测到标号分布为x,在时刻t时被检测到的标号分布为y;
式中,P(G(t-1)=g,X(t-1)=x,G(t)=h)是常数,所以后验概率的最大值取决于式(2)的分子。
进一步的,所述步骤三中,设实际交通场景中的坐标为右手坐标系(x,y,z),z为垂直地面向上的法线方向,在成像空间上的坐标系为右手坐标系(u,v,w),v为光轴方向,像平面上的任一点的坐标为(u,w),假设摄像机镜头中心位于空间点(xc,yc,zc),摄像机的偏角、仰俯角以及旋转角分别为α,β,γ,不考虑镜头的变形,根据摄像机针孔透视变换原理,两个坐标系之间的变换关系可表示为:
(u,v,w,1)=(x,y,z,1)·T-1·M 式(3)
Figure BDA0001406411170000051
Figure BDA0001406411170000052
考虑到交通场景坐标中的一点P1=(x1,y1,z1),假定它在像平面上的投影点是P1’=(u1,w1),则摄像机镜头中心的实际坐标为:
Figure BDA0001406411170000053
其中T为摄像机的安装高度,j为摄像机的有效焦距,在工程安装中测量出相应的摄像机安装高度T和焦距j,以及相应的安装倾角α,β,γ,依据上述公式的变换关系,对同一点在实际交通场景中的坐标和图像平面上的坐标进行相互转换。
进一步的,所述步骤二,车辆跟踪算法获得两种地图:一种是目标地图,用于表示车辆ID分布图的分割结果,目标地图是车辆标号的集合,同一辆车的相同标号组成跟车辆形状相似的几何体,对遮挡的车辆进行分离;另一种是运动矢量地图,用于表示与车辆ID号对应的块的运动矢量分布;通过步骤三和步骤四,从目标地图和运动矢量地图获得不同的交通参数,如交通量、速度、密度、加速度和减速度。
本发明所达到的有益效果:
(1)可靠的车辆跟踪是实现交通事件自动检测的重要前提,对于开发事件自动检测和监控交通流的系统而言意义重大。
(2)提出了一种基于模式识别与ST-MRF相结合的车辆跟踪方法。该方法先用车辆模式识别技术,确定被遮挡的车辆的边缘间隙以及边界信息,从而准确获得单个车辆区域,然后将模式识别技术结果反馈给ST-MRF跟踪算法。
(3)本发明的车辆跟踪方法通过运用运动矢量的最优化和融合不完整的分割部分对遮挡严重的车辆进行了比较完美的分割,能解决车辆在行驶中的遮挡问题,从而提高车辆的跟踪精度,为交通流参数提取提供了准确信息。
(4)本发明的交通流提取方法适用于交叉路口,交叉路口车辆遮挡现象严重,传统的ST-MRF跟踪算法针对这种遮挡严重的场景不能准确提取交通流参数。本发明将实验数据与商用Autoscope软件所测量数据进行比较,得出使用该方法所获得的交通流参数误差较小,精度比较高。
附图说明
图1是本发明的流程示意图;
图2-1、2-2和2-3分别是本发明三种不同的间隙仿真图;
图3-1和3-2分别是图像扫描仿真图和图像扫描示意图;
图4-1和4-2分别是边界数的仿真图和边缘间隔评估值的仿真图;
图5是交通流参数获取流程图;
图6-1和6-2分别是车辆速度-密度关系图和实际值与视频值的比较图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图1所示,一种基于模式识别与ST-MRF相结合的交通流参数提取方法,其特征在于,包括如下步骤:
步骤一、通过模式识别技术分割遮挡严重的单个车辆区域,识别被遮挡车辆的边缘间隙以及边界信息;
步骤二、通过ST-MRF中的能量函数分配标号进行提炼及优化处理,结合模式识别技术融合不完整的分割部分,得到车辆跟踪算法;
步骤三、基于摄像机标定的坐标转换方法,对同一点在实际交通场景中的坐标和图像平面上的坐标进行相互转换;
步骤四、提取交通流参数。
如图2-1、2-2和2-3所示,道路处于饱和状态时车辆相互之间、光线不佳时车辆与其阴影之间的间隙识别:
1)识别被遮挡车辆边缘间隙:使用边缘间隔密度模式算法识别3种不同的间隙:第一种是存在于大型卡车与小汽车边界之间的宽度间隙,第二种是存在于相同类型或不同类型的小汽车边界之间的主要轴线上的间隙,第三种是存在于小汽车自身阴影与小汽车边界之间的边缘间隔的密度间隙,具体步骤如下:
Step1:使用传统的canny边缘检测算法进行车辆水平边界检测;
Step2:统计边界的数量,如图4-1所示;
Step3:阈值计算:阈值=高度/边界数量;
Step4:通过阈值的大小确定边界类型;
Step5:根据边界类型识别不同的边缘间隙;
2)确定车辆边界:在边缘间隙识别的基础上,侧重在一辆车区域检测到两辆车后,检测从原始图像中提取与车辆行驶方向正交的直线边缘,然后再扫描边缘,如图3-1和3-2所示。使用边缘间隔密度模式算法确定车辆边界,具体步骤如下:
Step1:使用传统的canny边缘检测算法进行车辆水平边界检测;
Step2:统计边界的数量,如图4-1所示;
Step3:阈值计算:阈值=高度/边界数量;
Step4:通过阈值的大小确定边界类型;
Step5:根据边界类型识别不同的边缘间隙;
Step6:计算边缘间隔评估值,找出最大评估值,最大评估值如图4-2所示;
Step7:最大评估值区域即为两辆车的边界处,如图2-3。
本实施例中,在使用跟踪算法的时候,首先决定一个初始标号分配,然后通过ST‐MRF中的能量函数分配标号进行提炼及优化处理。在提炼过程中,算法考虑块在时间域和空间域(二维x‐y坐标)的联系,也就是连续图像之间的块的联系以及与相邻块之间的联系,通过ST‐MRF模型,把标号赋给像素块。在ST‐MRF模型中块对应一个场景,块被标号作为目标区域的一部分与背景图像的纹理不一样,这些块聚集在一起被称为目标地图,每个块上都有代表块的运动矢量,ST‐MRF模型就是根据前一时刻的目标地图估计下一个时刻的目标地图,通过ST‐MRF模型,优化目标地图和运动矢量地图的问题就变成了最小化公式(1)的能量函数:
Figure BDA0001406411170000081
式中:第一部分a(Nyk-μNy)2表示在目标地图中,标号的相邻关系,第二部分b(Mxyk-μMxy)2表示在连续目标地图中的标号的遮挡关系,第三部分
Figure BDA0001406411170000082
表示与运动矢量有关的连续图像中的纹理关系,第四部分
Figure BDA0001406411170000083
表示在运动矢量地图中的运动矢量的相邻关系;
Nyk:指一个像素块的相邻像素块和该像素块有相同标号的数目;
Nxk:表示一个像素块的相邻像素块的数目;
Dxyk:代表t-1时刻的图像与t时刻的图像之间的纹理相关性,在发生遮挡时,分别计算属于各辆车的概率;
Mxyk:部分遮挡的两个像素块中遮挡部分的像素个数;
μMxy:遮挡部分的像素个数,最大值为64,最小值为0;
μNy:邻域基团,本文采用二阶邻域系统,也称为8-邻域基团,它的每一个位置有8个邻域,则μNy=8为最大值;
Ck:当前像素块;
Bk:相邻像素块;
Figure BDA0001406411170000091
表示运动矢量;
Figure BDA0001406411170000092
在(t-1)时刻,当前像素块与相邻像素块的运动矢量之差;
a、b、c、f和μMxy为设定的参数,为获得最大能量函数值,取a=1/2,b=1/256,c=32/1000000,f=1/4,μMxy=0。
本实施例中,所述步骤二中的提炼及优化处理:根据前一时刻的目标地图、运动矢量和当前图像,同时考虑在相邻像素块中的运动矢量和连续图像中的纹理关系的相似性来最小化当前时刻的目标地图和运动矢量的最小能量,具体包括如下步骤:
1)通过块匹配方法获得所有像素块的运动矢量,确定运动矢量地图的初始状态
Figure BDA0001406411170000093
Figure BDA0001406411170000094
Figure BDA0001406411170000095
表示时刻t-1到t,每个像素块的运动矢量;
2)根据运动矢量地图的初始状态,将每一像素块的候选标号设置为目标地图的二维初始状态X(t)=y0;
3)估算目标地图和运动矢量地图在进行X(t)=yi和
Figure BDA0001406411170000096
次迭代后的总能量,i为迭代次数;
4)随机同时转换在当前状态下的目标地图X(t)=yi和运动矢量地图
Figure BDA0001406411170000097
到下一状态的目标地图X(t+1)=yi+1和运动矢量地图
Figure BDA0001406411170000101
5)在步骤03)和04)之间反复循环操作,直到X(t)和
Figure BDA0001406411170000102
收敛到能量函数值Ustmrf到极小值。
本实施例中,所述步骤二中,结合模式识别技术融合不完整的分割部分,与ST-MRF相结合的图像分割的后验概率是:
Figure BDA0001406411170000103
G(t-1)=g,G(t)=h:图像G在时刻t-1时的值为g,在时刻t时,值为h,X(t-1)=x,X(t)=y:目标地图X在时刻t-1时被检测到标号分布为x,在时刻t时被检测到的标号分布为y;
式中,P(G(t-1)=g,X(t-1)=x,G(t)=h)是常数,所以后验概率的最大值取决于式(2)的分子。
本实施例中,所述步骤三中,设实际交通场景中的坐标为右手坐标系(x,y,z),z为垂直地面向上的法线方向,在成像空间上的坐标系为右手坐标系(u,v,w),v为光轴方向,像平面上的任一点的坐标为(u,w),假设摄像机镜头中心位于空间点(xc,yc,zc),摄像机的偏角、仰俯角以及旋转角分别为α,β,γ,不考虑镜头的变形,根据摄像机针孔透视变换原理,两个坐标系之间的变换关系可表示为:
(u,v,w,1)=(x,y,z,1)·T-1·M 式(3)
Figure BDA0001406411170000104
Figure BDA0001406411170000111
考虑到交通场景坐标中的一点P1=(x1,y1,z1),假定它在像平面上的投影点是P1’=(u1,w1),则摄像机镜头中心的实际坐标为:
Figure BDA0001406411170000112
其中T为摄像机的安装高度,j为摄像机的有效焦距,在工程安装中测量出相应的摄像机安装高度T和焦距j,以及相应的安装倾角α,β,γ,依据上述公式的变换关系,对同一点在实际交通场景中的坐标和图像平面上的坐标进行相互转换。
本实施例中,使用车辆跟踪算法对输入的视频序列图像获得两种地图。一种是目标地图,目标地图是车辆标号的集合,同一辆车的相同标号组成跟车辆形状相似的几何体,它能对遮挡的车辆进行分离。表示车辆ID分布图的分割结果;另一种是运动矢量地图,表示与车辆ID号对应的块的运动矢量分布。从目标地图和运动矢量地图可以获得不同的交通参数,如交通量、速度、密度和加(减)速度。对交通参数的获取可以采用层次结构流程图表示,具体过程如图5所示。
实施例:
本次实验拍摄的视频为上午9:30某城市道路一段,在该路段交通量为2500辆/h。通过实验得出结果并进行分析得知:图6-1为速度-密度关系图,不符合格林希尔兹关系即线性关系,说明交通流密度比较大,交通拥挤,速度与密度为对数关系,与实际调查交通流情况吻合;图6-2是用雷达测速仪测得的瞬时车速与通过该算法测出的瞬时速度的比较图。图上可以看出这两条线差别不大,说明通过该算法测出的速度与实际值之间的误差很小,精度比较高。从实验发现运用本发明方法能进行准确的车辆跟踪,且在交通拥挤情况下,获得较准确的交通流数据。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (6)

1.一种基于模式识别与ST-MRF相结合的交通流参数提取方法,其特征在于,包括如下步骤:
步骤一、通过模式识别技术分割遮挡严重的单个车辆区域,识别被遮挡车辆的边缘间隙以及边界信息,包括如下步骤:
1)识别被遮挡车辆边缘间隙:使用边缘间隔密度模式算法识别3种不同的间隙:第一种是存在于大型卡车与小汽车边界之间的宽度间隙,第二种是存在于相同类型或不同类型的小汽车边界之间的主要轴线上的间隙,第三种是存在于小汽车自身阴影与小汽车边界之间的边缘间隔的密度间隙,具体步骤如下:
Step1:使用传统的canny边缘检测算法进行车辆水平边界检测;
Step2:统计边界的数量;
Step3:阈值计算:阈值=高度/边界数量;
Step4:通过阈值的大小确定边界类型;
Step5:根据边界类型识别不同的边缘间隙;
2)确定车辆边界:在边缘间隙识别的基础上,侧重在一辆车区域检测到两辆车后,检测从原始图像中提取与车辆行驶方向正交的直线边缘,然后再扫描边缘,使用边缘间隔密度模式算法确定车辆边界,具体步骤如下:
Step1:使用传统的canny边缘检测算法进行车辆水平边界检测;
Step2:统计边界的数量;
Step3:阈值计算:阈值=高度/边界数量;
Step4:通过阈值的大小确定边界类型;
Step5:根据边界类型识别不同的边缘间隙;
Step6:计算边缘间隔评估值,找出最大评估值;
Step7:最大评估值区域即为两辆车的边界处;
步骤二、通过ST-MRF中的能量函数分配标号进行提炼及优化处理,结合模式识别技术融合不完整的分割部分,得到车辆跟踪算法;
步骤三、基于摄像机标定的坐标转换方法,对同一点在实际交通场景中的坐标和图像平面上的坐标进行相互转换;
步骤四、提取交通流参数。
2.根据权利要求1所述的基于模式识别与ST-MRF相结合的交通流参数提取方法,其特征是,所述步骤二中的能量函数是:
Figure FDA0002701283450000021
式中:第一部分a(Nyk-μNy)2表示在目标地图中,标号的相邻关系,第二部分b(Mxyk-μMxy)2表示在连续目标地图中的标号的遮挡关系,第三部分
Figure FDA0002701283450000022
表示与运动矢量有关的连续图像中的纹理关系,第四部分
Figure FDA0002701283450000023
表示在运动矢量地图中的运动矢量的相邻关系;
Nyk:指一个像素块的相邻像素块和该像素块有相同标号的数目;
Nxk:表示一个像素块的相邻像素块的数目;
Dxyk:代表t-1时刻的图像与t时刻的图像之间的纹理相关性,在发生遮挡时,分别计算属于各辆车的概率;
Mxyk:部分遮挡的两个像素块中遮挡部分的像素个数;
μMxy:遮挡部分的像素个数,最大值为64,最小值为0;
μNy:邻域基团,采用二阶邻域系统,也称为8-邻域基团,它的每一个位置有8个邻域,则μNy=8为最大值;
Ck:当前像素块;
Bk:相邻像素块;
Figure FDA0002701283450000024
表示运动矢量;
Figure FDA0002701283450000025
在(t-1)时刻,当前像素块与相邻像素块的运动矢量之差;
a、b、c、f和μMxy为设定的参数,为获得最大能量函数值,取a=1/2,b=1/256,c=32/1000000,f=1/4,μMxy=0。
3.根据权利要求1所述的基于模式识别与ST-MRF相结合的交通流参数提取方法,其特征是,所述步骤二中的提炼及优化处理:根据前一时刻的目标地图、运动矢量和当前图像,同时考虑在相邻像素块中的运动矢量和连续图像中的纹理关系的相似性来最小化当前时刻的目标地图和运动矢量的最小能量,具体包括如下步骤:
1)通过块匹配方法获得所有像素块的运动矢量,确定运动矢量地图的初始状态
Figure FDA0002701283450000031
Figure FDA0002701283450000032
Figure FDA0002701283450000033
表示时刻t-1到t,每个像素块的运动矢量;
2)根据运动矢量地图的初始状态,将每一像素块的候选标号设置为目标地图的二维初始状态X(t)=y0;
3)估算目标地图和运动矢量地图在进行X(t)=yi和
Figure FDA0002701283450000034
次迭代后的总能量,i为迭代次数;
4)随机同时转换在当前状态下的目标地图X(t)=yi和运动矢量地图
Figure FDA0002701283450000035
Figure FDA0002701283450000036
到下一状态的目标地图X(t+1)=yi+1和运动矢量地图
Figure FDA0002701283450000037
5)在步骤3)和4)之间反复循环操作,直到X(t)和
Figure FDA0002701283450000038
收敛到能量函数值Ustmrf到极小值。
4.根据权利要求1所述的基于模式识别与ST-MRF相结合的交通流参数提取方法,其特征是,所述步骤二中,结合模式识别技术融合不完整的分割部分,与ST-MRF相结合的图像分割的后验概率是:
Figure FDA0002701283450000039
G(t-1)=g,G(t)=h:图像G在时刻t-1时的值为g,在时刻t时,值为h,X(t-1)=x,X(t)=y:目标地图X在时刻t-1时被检测到标号分布为x,在时刻t时被检测到的标号分布为y;
式中,P(G(t-1)=g,X(t-1)=x,G(t)=h)是常数,所以后验概率的最大值取决于式(2)的分子。
5.根据权利要求1所述的基于模式识别与ST-MRF相结合的交通流参数提取方法,其特征是,所述步骤三中,设实际交通场景中的坐标为右手坐标系(x,y,z),z为垂直地面向上的法线方向,在成像空间上的坐标系为右手坐标系(u,v,w),v为光轴方向,像平面上的任一点的坐标为(u,w),假设摄像机镜头中心位于空间点(xc,yc,zc),摄像机的偏角、仰俯角以及旋转角分别为α,β,γ,不考虑镜头的变形,根据摄像机针孔透视变换原理,两个坐标系之间的变换关系可表示为:
(u,v,w,1)=(x,y,z,1)·T-1·M 式(3)
Figure FDA0002701283450000041
Figure FDA0002701283450000042
考虑到交通场景坐标中的一点P1=(x1,y1,z1),假定它在像平面上的投影点是P1’=(u1,w1),则摄像机镜头中心的实际坐标为:
Figure FDA0002701283450000043
其中T为摄像机的安装高度,j为摄像机的有效焦距,在工程安装中测量出相应的摄像机安装高度T和焦距j,以及相应的安装倾角α,β,γ,依据上述公式(3)的变换关系,对同一点在实际交通场景中的坐标和图像平面上的坐标进行相互转换。
6.根据权利要求1所述的基于模式识别与ST-MRF相结合的交通流参数提取方法,其特征是,所述步骤二,车辆跟踪算法获得两种地图:一种是目标地图,用于表示车辆ID分布图的分割结果,目标地图是车辆标号的集合,同一辆车的相同标号组成跟车辆形状相似的几何体,对遮挡的车辆进行分离;另一种是运动矢量地图,用于表示与车辆ID号对应的块的运动矢量分布;通过步骤三和步骤四,从目标地图和运动矢量地图获得不同的交通流参数,所述交通流参数包括交通量、速度、密度、加速度和减速度。
CN201710821434.1A 2017-09-13 2017-09-13 基于模式识别与st-mrf相结合的交通流参数提取方法 Active CN107590462B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710821434.1A CN107590462B (zh) 2017-09-13 2017-09-13 基于模式识别与st-mrf相结合的交通流参数提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710821434.1A CN107590462B (zh) 2017-09-13 2017-09-13 基于模式识别与st-mrf相结合的交通流参数提取方法

Publications (2)

Publication Number Publication Date
CN107590462A CN107590462A (zh) 2018-01-16
CN107590462B true CN107590462B (zh) 2020-11-20

Family

ID=61051273

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710821434.1A Active CN107590462B (zh) 2017-09-13 2017-09-13 基于模式识别与st-mrf相结合的交通流参数提取方法

Country Status (1)

Country Link
CN (1) CN107590462B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102073866A (zh) * 2010-12-27 2011-05-25 清华大学 一种利用时空马尔科夫随机场模型的视频超分辨方法
CN102789686A (zh) * 2012-07-10 2012-11-21 华南理工大学 一种基于路面亮度组合模式识别的道路交通流检测方法
CN106530825A (zh) * 2016-11-16 2017-03-22 淮阴工学院 基于st‑mrf模型的电动自行车与汽车交通冲突检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3007099B1 (en) * 2014-10-10 2022-12-07 Continental Autonomous Mobility Germany GmbH Image recognition system for a vehicle and corresponding method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102073866A (zh) * 2010-12-27 2011-05-25 清华大学 一种利用时空马尔科夫随机场模型的视频超分辨方法
CN102789686A (zh) * 2012-07-10 2012-11-21 华南理工大学 一种基于路面亮度组合模式识别的道路交通流检测方法
CN106530825A (zh) * 2016-11-16 2017-03-22 淮阴工学院 基于st‑mrf模型的电动自行车与汽车交通冲突检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于ST-MRF的自适应车辆跟踪算法研究;周君 等;《交通运输系统工程与信息》;20130630;第13卷(第3期);第66-70页 *
融合边缘和形状先验的MRF目标分割;张微;《重庆理工大学学报》;20141031;第28卷(第10期);第80-84页 *

Also Published As

Publication number Publication date
CN107590462A (zh) 2018-01-16

Similar Documents

Publication Publication Date Title
Luvizon et al. A video-based system for vehicle speed measurement in urban roadways
CN111693972B (zh) 一种基于双目序列图像的车辆位置与速度估计方法
Teoh et al. Symmetry-based monocular vehicle detection system
Tang et al. Single-camera and inter-camera vehicle tracking and 3D speed estimation based on fusion of visual and semantic features
Bogoslavskyi et al. Efficient online segmentation for sparse 3D laser scans
Geiger et al. Are we ready for autonomous driving? the kitti vision benchmark suite
Zhangyu et al. A camera and LiDAR data fusion method for railway object detection
Nguyen et al. Compensating background for noise due to camera vibration in uncalibrated-camera-based vehicle speed measurement system
WO2017130640A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
CN112825192B (zh) 基于机器学习的对象辨识系统及其方法
CN110189363B (zh) 一种机场场面移动目标低视角视频测速方法
EP2813973B1 (en) Method and system for processing video image
CN105912977B (zh) 基于点聚类的车道线检测方法
Börcs et al. Fast 3-D urban object detection on streaming point clouds
Li et al. Road markings extraction based on threshold segmentation
JP2015064752A (ja) 車両監視装置、および車両監視方法
KR20180098945A (ko) 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치
US20220171975A1 (en) Method for Determining a Semantic Free Space
CN113221739B (zh) 基于单目视觉的车距测量方法
Pletzer et al. Robust traffic state estimation on smart cameras
Chen et al. Object tracking over a multiple-camera network
Giosan et al. Superpixel-based obstacle segmentation from dense stereo urban traffic scenarios using intensity, depth and optical flow information
CN109063543B (zh) 一种考虑局部形变的视频车辆重识别方法、系统及装置
CN107590462B (zh) 基于模式识别与st-mrf相结合的交通流参数提取方法
Tourani et al. Challenges of video-based vehicle detection and tracking in intelligent transportation systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20180116

Assignee: Huai'an Municipal Design and Research Institute Co.,Ltd.

Assignor: HUAIYIN INSTITUTE OF TECHNOLOGY

Contract record no.: X2023980035194

Denomination of invention: A Method for Extracting Traffic Flow Parameters Based on the Combination of Pattern Recognition and ST-MRF

Granted publication date: 20201120

License type: Common License

Record date: 20230505