CN104200657B - 一种基于视频和传感器的交通流量参数采集方法 - Google Patents
一种基于视频和传感器的交通流量参数采集方法 Download PDFInfo
- Publication number
- CN104200657B CN104200657B CN201410350548.9A CN201410350548A CN104200657B CN 104200657 B CN104200657 B CN 104200657B CN 201410350548 A CN201410350548 A CN 201410350548A CN 104200657 B CN104200657 B CN 104200657B
- Authority
- CN
- China
- Prior art keywords
- target
- video
- flow
- traffic
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Traffic Control Systems (AREA)
Abstract
本发明涉及交通流量参数采集方法,公开了基于视频和传感器的交通流量参数采集方法,步骤包括视频输入、离线学习、目标检测、目标跟踪、在线学习、视频流量统计、传感器流量统计和多数据融合统计。本发明提供一种基于视频和传感器的交通流量参数采集方法,通过离线学习得到目标检测器及对交通视频图像进行检测,快速确定当前视频场景中对象类型和数量,运用目标跟踪确定目标轨迹,采用在线学习机制,不间断更新目标模型及其特征向量,修正目标检测器和跟踪器,保证目标能够被持续跟踪,确保通过视频检测准确获取当前路段交通流量参数信息,并通过多数据融合统计分析道路内传感器采集的交通数据,进一步提高采集的交通流量参数数据的准确性。
Description
技术领域
本发明涉及交通流量参数采集方法,尤其涉及了一种基于视频和传感器的交通流量参数采集方法。
背景技术
随着中国社会经济持续快速的发展,以及机动车辆的迅速增加,城市交通问题显得日益严峻。为了提高交通管理水平和交通的运行效率,人们提出了智能交通系统(Intelligent Transportation Systems,ITS)。在智能交通系统中,准确的获取交通参数:如交通量、平均车速、车头间距、时间占有率、空间占有率和密度等,其在智能交通中的研究具有十分重要的理论意义和应用价值。
目前获取交通参数的方式主要有:环形线圈法、雷达(微波)法、超声波法、基于GPS数据法等。这些方法各有利弊都不能实现准确、实时、方便地检测道路交通状况。视频处理技术由于具有处理信息量大、无需破坏地面、安装维护方便等优点,在道路交通拥堵检测方面具有较好的应用前景。
目前常用的基于视频的流量统计方法主要包含两个技术模块:车辆检测模块和车辆跟踪模块。首先通过车辆检测模块,根据序列图像的灰度信息进行车辆的检测,判断是否有车辆进入交通场景,然后再通过车辆跟踪模块,根据运动目标的特征如形状、运动矢量等信息,对进入场景的车辆进行跟踪。现有的基于视频的流量统计方法由于现场环境复杂,将不可避免的发生形状变化、光照条件变化、尺度变化、遮挡等情况,导致跟踪的目标丢失,影响流量统计的准确性。
发明内容
本发明针对现有技术中基于视频的流量统计方法存在跟踪目标丢失而影响流量统计的准确性的缺点,提供了一种基于视频和传感器的具有在线学习机制、不间断根据目标检测和目标跟踪结果更新目标模型及其特征向量,进一步修正目标检测器和跟踪器,保证了目标能够被持续跟踪,确保通过视频检测准确获取当前路段交通流量参数信息。同时,通过多数据融合统计分析道路内传感器采集的交通数据,进一步提高采集的交通流量参数数据的准确性。
为了解决上述技术问题,本发明通过下述技术方案得以解决:
一种基于视频和传感器的交通流量参数采集方法,步骤包括:
A、视频输入:包括在线实时的摄像头采集视频图像信息输入和离线已有视频图像信息输入;
B、离线学习:以离线视频图像信息数据为样本,训练学习得到强分类器;
C、目标检测:获取视频图像信息中所有目标;
D、目标跟踪:从获取的目标起始点开始,根据特征向量,计算运动轨迹;
E、在线学习:不间断根据目标检测和目标跟踪结果更新目标模型及其特征向量,进一步修正目标检测器和跟踪器;
F、视频流量统计:通过计算统计流量信息;
G、传感器流量统计:通过传感器获取行经检测路段内的交通流量信息数据,计算传感器获取数据的权值;
H、多数据融合统计:视频流量统计数据与传感器流量统计数据的融合,输出当前道路流量情况,最终得到道路流量具体数据。
作为优选,视频输入包括以下步骤:
A、直接接入前端网络摄像;
B、接入前端编码器,前端编码器为DVR或NVR或视频编码器;
C、直接接入摄像机模拟信号;
D、从第三方监控平台获取视频数据。
作为优选,离线学习包括以下步骤:
A、图像预处理:将获取到的离线视频图像数据进行颜色空间变换,如将输入的RGB、HSV、HIS、CMY信号转化为YUV信号;采用中值滤波算法消除图像中的随机噪声对检测的影响;
B、基于样本积分图,应用特征值算法,得到样本Haar特征;将训练样本集记为:{(x1,y1),(x2,y2).....(xn,yn)},xi为样本特征向量,yi为对应标签;n个样本的权重Wi;
C、初始化:初始样本权值为
D、循环过程:For j=1to T,根据样本分布得到弱分离器hj=P(x,y,w),计算弱分离器hj的分类误差:调整弱分离器权重:调整样本分布:其中:Zj是归一化系数;
D、依据训练结果组合出如下强分离器:其中:弱分类器h(x)=(h1,h2,...ht)和权重αt=(α1,α2,...αt)。
作为优选,目标检测包括以下步骤:
A、图像预处理:将获取到的离线视频图像数据进行颜色空间变换,如将输入的RGB、HSV、HIS、CMY信号转化为YUV信号;采用中值滤波算法消除图像中的随机噪声对检测的影响;
B、视频输入序列记为{(x1,y1,t1),(x2,y2,t2).....(xi,yi,ti)};
C、应用特征值算法,得到第i帧内第一个特定目标的特征向量,记为
D、获取目标位置:
基于S102得到目标检测器模型,得到特定目标和目标位置
E、重复执行步骤B、C、D得到多个目标则目标对应的目标位置为目标的特征向量为n表示得到目标检测器检测获得的目标数,n∈{1,2,3....N}。
作为优选,目标跟踪器采用光流法,光流法是通过检测图像像素点的强度随时间的变化,进而推断出物体移动速度及方向的方法。目标跟踪包括以下步骤:
A、基于S103获取的第i帧的特定目标初始位置和特定目标的特征向量
B、采用光流法获得特定目标在第i+1帧中的位置相对于的速度向量,设速度的y分量为Q,速度的x分量为U,是图像关于x方向变量的偏导数,是图像关于y方向变量的偏导数,是关于图像随时间t的偏导数,则将求解U和V表示成如下迭代方程:
其中m表示迭代次数,和表示光流的初始值,一般取为零;当相邻两次迭代结果的值小于预定的某一小值时,迭代过程终止;
C、按如下公式计算得到第i+1帧的特定目标位置:
作为优选,在线学习包括以下步骤:
A、初始化,视频输入目标检测器进行检测,得到特定目标在当前图像帧中的位置和特征值
B、以目标位置为中心在半径为α的范围内密集的选取了一些正样本 以目标位置为中心,在半径α<β范围内随机地选取负样本 以作为正负样本集,获得目标模型OM;
C、计算与目标模型OM的相似度得到置信度
D、目标跟踪器对目标检测器获取的目标进行跟踪,得到目标在下一帧中的位置并计算得到跟踪置信度
E、通过比较和值,若则以跟踪结果为目标在下一帧中的位置,将该样本标记为正样本,增加到目标模型中;若则跟踪失败,目标检测器在全局范围内进行重新检测,并将该样本标记为负样本,增加到目标模型中;
F、使用目标模型增量训练目标检测器并更新目标跟踪器的跟踪框位置。
作为优选,视频流量统计在视频输入、目标检测、目标跟踪、在线学习的基础上通过运算实现,具体包括以下运算方法:
设t时刻车辆在车道的位置为虚拟线圈的位置为O(xj,yj),则车辆运动轨迹距虚拟线圈的像素距离为:
目标检测流量统计:N帧时间内,计算目标检测器获取的目标与虚拟线圈的距离为E,设表示为目标检测器获取的目标与虚拟线圈的距离的离散程度,则:
若S较小,表示车辆未通过线圈或已离开线圈,若S较大,超过规定阀值M时,表示车辆通过线圈;表示流量,其权重为
目标跟踪流量统计:N帧时间内,计算目标跟踪器获取的目标与虚拟线圈的距离为E,设表示为目标检测器获取的目标与虚拟线圈的距离的离散程度,则:
若S较小,表示车辆未通过线圈或已离开线圈,若S较大,超过规定阀值M时,表示车辆通过线圈;表示流量,其权重为
视频流量统计:
作为优选,多数据融合统计包括以下步骤:
A、获取地感线圈、雷达、卡口、浮动车、视频传感器采集的交通参数数据,具体如下:
地感线圈采集:通过电感线圈传感器采集的行经当前道路的流量数据:当车辆通过检测区域时,在电磁感应的作用下交通检测器内电流会跳跃式上升,当该电流超过指定的阀值时触发记录仪,实现对车辆及通过时间的检测,获取的交通参数设为:
雷达采集:通过雷达传感器采集的行经当前道路的流量数据:雷达是利用雷达线性调频技术原理,对路面发射微波,通过对回波信号进行高速实时的数字化处理分析,检测车流量,占有率、速度和车型等交通基本信息的非接触式交通检测器,获取交通参数设为:
卡口采集:通过卡口设备采集的行经当前道路的流量数据:系统通过对行经当前路段的每个车辆进行图像抓拍,可以根据需要统计交通参数,如按照车道、时段等统计车流量、车型、平均车速和车头间距等,获取的交通参数设为:
浮动车采集:通过浮动车采集的行经当前道路的流量数据:通过在测定区间内驾车反复行驶测量,求得区间内断面平均交通量,此外还可以同时获的路段的平均行程时间、区间平均速度,是一种较好的、综合交通调查方法,获取的交通参数设为:
视频采集:通过视频分析采集的行经当前道路的流量数据,获取的交通参数设为:
B、分别计算传感器权重:
设传感器工作作态为αi,传感器的位置为βi,且计算位工作状态与位置的相关性为计算传感器的权重为获取各种传感器的权重Wi=[wFVN,wRAD,wBAY,wGPS,wvido],其中wFVN为地感线圈采集的流量权重,wRAD为雷达采集的流量权重,wBAY为卡口采集的流量权重,wGPS为浮动车采集的流量权重,wvido为视频采集的流量权重;
C、多数据融合计算流量为
其中,表示在t时刻各个传感器采集到的流量情况;表示多数据融合统计分析获得的当前道路车流量情况。
本发明由于采用了以上技术方案,具有显著的技术效果:通过离线学习得到目标检测器及对交通视频图像进行检测,快速确定当前视频场景中对象类型和数量,运用目标跟踪确定目标轨迹,采用在线学习机制,不间断更新目标模型及其特征向量,修正目标检测器和跟踪器,保证目标能够被持续跟踪,确保通过视频检测准确获取当前路段交通流量参数信息,并通过多数据融合统计分析道路内传感器采集的交通数据,进一步提高采集的交通流量参数数据的准确性。
附图说明
图1是本发明实施例的原理流程图。
具体实施方式
下面结合附图与实施例对本发明作进一步详细描述。
实施例1
一种基于视频和传感器的交通流量参数采集方法,如图1所示,步骤包括:
A、视频输入:包括在线实时的摄像头采集视频图像信息输入和离线已有视频图像信息输入;
B、离线学习:以离线视频图像信息数据为样本,训练学习得到强分类器;
C、目标检测:获取视频图像信息中所有目标;
D、目标跟踪:从获取的目标起始点开始,根据特征向量,计算运动轨迹;
E、在线学习:不间断根据目标检测和目标跟踪结果更新目标模型及其特征向量,进一步修正目标检测器和跟踪器;
F、视频流量统计:通过计算统计流量信息;
G、传感器流量统计:通过传感器获取行经检测路段内的交通流量信息数据,计算传感器获取数据的权值;
H、多数据融合统计:视频流量统计数据与传感器流量统计数据的融合,输出当前道路流量情况,最终得到道路流量具体数据。
视频输入包括以下步骤:
A、直接接入前端网络摄像;
B、接入前端编码器,前端编码器为DVR或NVR或视频编码器;
C、直接接入摄像机模拟信号;
D、从第三方监控平台获取视频数据。
离线学习包括以下步骤:
A、图像预处理:将获取到的离线视频图像数据进行颜色空间变换,如将输入的RGB、HSV、HIS、CMY信号转化为YUV信号;采用中值滤波算法消除图像中的随机噪声对检测的影响;
B、基于样本积分图,应用特征值算法,得到样本Haar特征;将训练样本集记为:{(x1,y1),(x2,y2).....(xn,yn)},xi为样本特征向量,yi为对应标签;n个样本的权重Wi;
C、初始化:初始样本权值为
D、循环过程:For j=1to T,根据样本分布得到弱分离器hj=P(x,y,w),计算弱分离器hj的分类误差:调整弱分离器权重:
调整样本分布:其中:Zj是归一化系数;
D、依据训练结果组合出如下强分离器:其中:弱分类器h(x)=(h1,h2,...ht)和权重αt=(α1,α2,...αt)。
目标检测包括以下步骤:
A、图像预处理:将获取到的离线视频图像数据进行颜色空间变换,如将输入的RGB、HSV、HIS、CMY信号转化为YUV信号;采用中值滤波算法消除图像中的随机噪声对检测的影响;
B、视频输入序列记为{(x1,y1,t1),(x2,y2,t2).....(xi,yi,ti)};
C、应用特征值算法,得到第i帧内第一个特定目标的特征向量,记为
D、获取目标位置:
基于S102得到目标检测器模型,得到特定目标和目标位置
E、重复执行步骤B、C、D得到多个目标则目标对应的目标位置为目标的特征向量为n表示得到目标检测器检测获得的目标数,n∈{1,2,3....N}。
目标跟踪器采用光流法,光流法是通过检测图像像素点的强度随时间的变化,进而推断出物体移动速度及方向的方法。目标跟踪包括以下步骤:
A、基于S103获取的第i帧的特定目标初始位置和特定目标的特征向量
B、采用光流法获得特定目标在第i+1帧中的位置相对于的速度向量,设速度的y分量为Q,速度的x分量为U,是图像关于x方向变量的偏导数,是图像关于y方向变量的偏导数,是关于图像随时间t的偏导数,则将求解U和V表示成如下迭代方程:
其中m表示迭代次数,和表示光流的初始值,一般取为零;当相邻两次迭代结果的值小于预定的某一小值时,迭代过程终止;
C、按如下公式计算得到第i+1帧的特定目标位置:
在线学习包括以下步骤:
A、初始化,视频输入目标检测器进行检测,得到特定目标在当前图像帧中的位置和特征值
B、以目标位置为中心在半径为α的范围内密集的选取了一些正样本 以目标位置为中心,在半径α<β范围内随机地选取负样本
以作为正负样本集,获得目标模型OM;
C、计算与目标模型OM的相似度得到置信度
D、目标跟踪器对目标检测器获取的目标进行跟踪,得到目标在下一帧中的位置并计算得到跟踪置信度
E、通过比较和值,若则以跟踪结果为目标在下一帧中的位置,将该样本标记为正样本,增加到目标模型中;若则跟踪失败,目标检测器在全局范围内进行重新检测,并将该样本标记为负样本,增加到目标模型中;
F、使用目标模型增量训练目标检测器并更新目标跟踪器的跟踪框位置。
视频流量统计在视频输入、目标检测、目标跟踪、在线学习的基础上通过运算实现,具体包括以下运算方法:
设t时刻车辆在车道的位置为虚拟线圈的位置为O(xj,yj),则车辆运动轨迹距虚拟线圈的像素距离为:
目标检测流量统计:N帧时间内,计算目标检测器获取的目标与虚拟线圈的距离为E,设表示为目标检测器获取的目标与虚拟线圈的距离的离散程度,则:
若S较小,表示车辆未通过线圈或已离开线圈,若S较大,超过规定阀值M时,表示车辆通过线圈;表示流量,其权重为
目标跟踪流量统计:N帧时间内,计算目标跟踪器获取的目标与虚拟线圈的距离为E,设表示为目标检测器获取的目标与虚拟线圈的距离的离散程度,则:
若S较小,表示车辆未通过线圈或已离开线圈,若S较大,超过规定阀值M时,表示车辆通过线圈;表示流量,其权重为
视频流量统计:
多数据融合统计包括以下步骤:
A、获取地感线圈、雷达、卡口、浮动车、视频传感器采集的交通参数数据,具体如下:
地感线圈采集:通过电感线圈传感器采集的行经当前道路的流量数据:当车辆通过检测区域时,在电磁感应的作用下交通检测器内电流会跳跃式上升,当该电流超过指定的阀值时触发记录仪,实现对车辆及通过时间的检测,获取的交通参数设为:
雷达采集:通过雷达传感器采集的行经当前道路的流量数据:雷达是利用雷达线性调频技术原理,对路面发射微波,通过对回波信号进行高速实时的数字化处理分析,检测车流量,占有率、速度和车型等交通基本信息的非接触式交通检测器,获取交通参数设为:
卡口采集:通过卡口设备采集的行经当前道路的流量数据:系统通过对行经当前路段的每个车辆进行图像抓拍,可以根据需要统计交通参数,如按照车道、时段等统计车流量、车型、平均车速和车头间距等,获取的交通参数设为:
浮动车采集:通过浮动车采集的行经当前道路的流量数据:通过在测定区间内驾车反复行驶测量,求得区间内断面平均交通量,此外还可以同时获的路段的平均行程时间、区间平均速度,是一种较好的、综合交通调查方法,获取的交通参数设为:
视频采集:通过视频分析采集的行经当前道路的流量数据,获取的交通参数设为:
B、分别计算传感器权重:
设传感器工作作态为αi,传感器的位置为βi,且计算位工作状态与位置的相关性为计算传感器的权重为获取各种传感器的权重Wi=[wFVN,wRAD,wBAY,wGPS,wvido],其中wFVN为地感线圈采集的流量权重,wRAD为雷达采集的流量权重,wBAY为卡口采集的流量权重,wGPS为浮动车采集的流量权重,wvido为视频采集的流量权重;
C、多数据融合计算流量为
其中,表示在t时刻各个传感器采集到的流量情况;表示多数据融合统计分析获得的当前道路车流量情况。
总之,以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所作的均等变化与修饰,皆应属本发明专利的涵盖范围。
Claims (1)
1.一种基于视频和传感器的交通流量参数采集方法,其特征在于:步骤包括:
A、视频输入:包括在线实时的摄像头采集视频图像信息输入和离线已有视频图像信息输入;
B、离线学习:以离线视频图像信息数据为样本,训练学习得到强分类器;
C、目标检测:获取视频图像信息中所有目标;
D、目标跟踪:从获取的目标起始点开始,根据特征向量,计算运动轨迹;
E、在线学习:不间断根据目标检测和目标跟踪结果更新目标模型及其特征向量,进一步修正目标检测器和跟踪器;
F、视频流量统计:通过计算统计流量信息;
G、传感器流量统计:通过传感器获取行经检测路段内的交通流量信息数据,计算传感器获取数据的权值;
H、多数据融合统计:视频流量统计数据与传感器流量统计数据的融合,输出当前道路流量情况,最终得到当前道路流量情况;
视频输入包括以下:
1、直接接入前端网络摄像;
2、接入前端编码器,前端编码器为DVR或NVR或视频编码器;
3、直接接入摄像机模拟信号;
4、从第三方监控平台获取视频数据;
离线学习包括以下步骤:
A1、图像预处理:将获取到的离线视频图像数据进行颜色空间变换;采用中值滤波算法消除图像中的随机噪声对检测的影响;
B1、基于样本积分图,应用特征值算法,得到样本Haar特征;将训练样本集记为:{(x1,y1),(x2,y2).....(xn,yn)},xi为样本特征向量,yi为对应标签;n个样本的权重Wi;
C1、初始化:初始样本权值为
D1、循环过程:For j=1to T,根据样本分布得到弱分离器hj=P(x,y,w),计算弱分离器hj的分类误差:调整弱分离器权重:调整样本分布:其中:Zj是归一化系数;
E1、依据训练结果组合出如下强分离器:其中:弱分类器h(x)=(h1,h2,...ht)和权重αt=(α1,α2,...αt);
目标检测包括以下步骤:
A2、图像预处理:将获取到的离线视频图像数据进行颜色空间变换;采用中值滤波算法消除图像中的随机噪声对检测的影响;
B2、视频输入序列记为{(x1,y1,t1),(x2,y2,t2).....(xi,yi,ti)};
C2、应用特征值算法,得到第i帧内第一个特定目标的特征向量,记为
D2、获取目标位置:
基于步骤B得到目标检测器模型,得到特定目标和目标位置
E2、重复执行步骤B、C、D得到多个目标则目标对应的目标位置为目标的特征向量为n表示得到目标检测器检测获得的目标数,n∈{1,2,3....N};
目标跟踪包括以下步骤:
A3、基于步骤C获取的第i帧的特定目标初始位置和特定目标的特征向量
B3、采用光流法获得特定目标在第i+1帧中的位置相对于的速度向量,设速度的y分量为Q,速度的x分量为U,是图像关于x方向变量的偏导数,是图像关于y方向变量的偏导数,是关于图像随时间t的偏导数,则将求解U和V表示成如下迭代方程:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msup>
<mi>U</mi>
<mrow>
<mi>m</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>=</mo>
<mover>
<mi>U</mi>
<mrow>
<mo>-</mo>
<mi>m</mi>
</mrow>
</mover>
<mo>-</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>x</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mfrac>
<mrow>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>x</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mover>
<mi>U</mi>
<mrow>
<mo>-</mo>
<mi>m</mi>
</mrow>
</mover>
<mo>+</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>y</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mover>
<mi>Q</mi>
<mrow>
<mo>-</mo>
<mi>m</mi>
</mrow>
</mover>
<mo>+</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>t</mi>
</mrow>
<mi>m</mi>
</msubsup>
</mrow>
<mrow>
<mi>&alpha;</mi>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>x</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>y</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msup>
<mi>Q</mi>
<mrow>
<mi>m</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>=</mo>
<mover>
<mi>Q</mi>
<mrow>
<mo>-</mo>
<mi>m</mi>
</mrow>
</mover>
<mo>-</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>y</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mfrac>
<mrow>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>x</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mover>
<mi>U</mi>
<mrow>
<mo>-</mo>
<mi>m</mi>
</mrow>
</mover>
<mo>+</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>y</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mover>
<mi>Q</mi>
<mrow>
<mo>-</mo>
<mi>m</mi>
</mrow>
</mover>
<mo>+</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>t</mi>
</mrow>
<mi>m</mi>
</msubsup>
</mrow>
<mrow>
<mi>&alpha;</mi>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>x</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>H</mi>
<mrow>
<mi>i</mi>
<mi>y</mi>
</mrow>
<mi>n</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中m表示迭代次数,和表示光流的初始值,一般取为零;当相邻两次迭代结果的值小于预定的某一小值时,迭代过程终止;
C3、按如下公式计算得到第i+1帧的特定目标位置:
<mrow>
<msubsup>
<mi>A</mi>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>i</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>A</mi>
<mi>i</mi>
<mi>n</mi>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>&lsqb;</mo>
<msup>
<mi>U</mi>
<mrow>
<mi>m</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>,</mo>
<msup>
<mi>Q</mi>
<mrow>
<mi>m</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>&rsqb;</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>;</mo>
</mrow>
在线学习包括以下步骤:
A4、初始化,视频输入目标检测器进行检测,得到特定目标在当前图像帧中的位置和特征值
B4、以目标位置为中心在半径为α的范围内密集的选取了一些正样本 以目标位置为中心,在半径α<β范围内随机地选取负样本 以作为正负样本集,获得目标模型OM;
C4、计算与目标模型OM的相似度得到置信度
D4、目标跟踪器对目标检测器获取的目标进行跟踪,得到目标在下一帧中的位置并计算得到跟踪置信度
E4、通过比较和值,若则以跟踪结果为目标在下一帧中的位置,将该样本标记为正样本,增加到目标模型中;若则跟踪失败,目标检测器在全局范围内进行重新检测,并将该样本标记为负样本,增加到目标模型中;
F4、使用目标模型增量训练目标检测器并更新目标跟踪器的跟踪框位置;
视频流量统计在视频输入、目标检测、目标跟踪、在线学习的基础上通过运算实现,具体包括以下运算方法:
设t时刻车辆在车道的位置为虚拟线圈的位置为O(xj,yj),则车辆运动轨迹距虚拟线圈的像素距离为:
目标检测流量统计:N帧时间内,计算目标检测器获取的目标与虚拟线圈的距离为E,设表示为目标检测器获取的目标与虚拟线圈的距离的离散程度,则:
<mrow>
<msubsup>
<mi>S</mi>
<mi>i</mi>
<mi>D</mi>
</msubsup>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>y</mi>
<mi>i</mi>
<mi>D</mi>
</msubsup>
<mo>-</mo>
<mi>E</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>;</mo>
</mrow>
若S较小,表示车辆未通过线圈或已离开线圈,若S较大,超过规定阀值M时,表示车辆通过线圈;表示流量,其权重为
<mrow>
<msubsup>
<mi>C</mi>
<mi>i</mi>
<mi>D</mi>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>1......</mn>
<msubsup>
<mi>S</mi>
<mi>i</mi>
<mrow>
<mi>n</mi>
<mi>D</mi>
</mrow>
</msubsup>
<mo>></mo>
<mi>M</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>0......</mn>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>s</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
目标跟踪流量统计:N帧时间内,计算目标跟踪器获取的目标与虚拟线圈的距离为E,设表示为目标检测器获取的目标与虚拟线圈的距离的离散程度,则:
<mrow>
<msubsup>
<mi>S</mi>
<mi>i</mi>
<mrow>
<mi>n</mi>
<mi>T</mi>
</mrow>
</msubsup>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>N</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>y</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<mo>-</mo>
<mi>E</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>;</mo>
</mrow>
若S较小,表示车辆未通过线圈或已离开线圈,若S较大,超过规定阀值M时,表示车辆通过线圈;表示流量,其权重为
<mrow>
<msubsup>
<mi>C</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>1......</mn>
<msubsup>
<mi>S</mi>
<mi>i</mi>
<mrow>
<mi>n</mi>
<mi>T</mi>
</mrow>
</msubsup>
<mo>></mo>
<mi>M</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>0......</mn>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>s</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
视频流量统计:
<mrow>
<msubsup>
<mi>C</mi>
<mrow>
<mi>v</mi>
<mi>i</mi>
<mi>d</mi>
<mi>o</mi>
</mrow>
<mi>t</mi>
</msubsup>
<mrow>
<mo>(</mo>
<msub>
<mi>t</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>&alpha;</mi>
<mi>i</mi>
<mi>D</mi>
</msubsup>
<msubsup>
<mi>C</mi>
<mi>i</mi>
<mi>D</mi>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>&alpha;</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
<msubsup>
<mi>C</mi>
<mi>i</mi>
<mi>T</mi>
</msubsup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>0.........</mn>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>;</mo>
</mrow>
多数据融合统计包括以下步骤:
A5、获取地感线圈、雷达、卡口、浮动车、视频传感器采集的交通参数数据,具体如下:
地感线圈采集:通过电感线圈传感器采集的行经当前道路的流量数据:当车辆通过检测区域时,在电磁感应的作用下交通检测器内电流会跳跃式上升,当该电流超过指定的阀值时触发记录仪,实现对车辆及通过时间的检测,获取的交通参数设为:
雷达采集:通过雷达传感器采集的行经当前道路的流量数据:雷达是利用雷达线性调频技术原理,对路面发射微波,通过对回波信号进行高速实时的数字化处理分析,检测车流量,占有率、速度和车型交通基本信息的非接触式交通检测器,获取交通参数设为:
卡口采集:通过卡口设备采集的行经当前道路的流量数据:系统通过对行经当前路段的每个车辆进行图像抓拍,根据需要统计交通参数,按照车道、时段统计车流量、车型、平均车速和车头间距,获取的交通参数设为:
浮动车采集:通过浮动车采集的行经当前道路的流量数据:通过在测定区间内驾车反复行驶测量,求得区间内断面平均交通量,此外还同时获的路段的平均行程时间、区间平均速度,是一种较好的、综合交通调查方法,获取的交通参数设为:
视频采集:通过视频分析采集的行经当前道路的流量数据,获取的交通参数设为:
B5、分别计算传感器权重:
设传感器工作作态为αi,传感器的位置为βi,且计算位工作状态与位置的相关性为计算传感器的权重为获取各种传感器的权重Wi=[wFVN,wRAD,wBAY,wGPS,wvido],其中wFVN为地感线圈采集的流量权重,wRAD为雷达采集的流量权重,wBAY为卡口采集的流量权重,wGPS为浮动车采集的流量权重,wvido为视频采集的流量权重;
C5、多数据融合计算流量为
其中,表示在t时刻各个传感器采集到的流量情况;表示多数据融合统计分析获得的当前道路车流量情况。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410350548.9A CN104200657B (zh) | 2014-07-22 | 2014-07-22 | 一种基于视频和传感器的交通流量参数采集方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410350548.9A CN104200657B (zh) | 2014-07-22 | 2014-07-22 | 一种基于视频和传感器的交通流量参数采集方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104200657A CN104200657A (zh) | 2014-12-10 |
CN104200657B true CN104200657B (zh) | 2018-04-10 |
Family
ID=52085941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410350548.9A Active CN104200657B (zh) | 2014-07-22 | 2014-07-22 | 一种基于视频和传感器的交通流量参数采集方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104200657B (zh) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105389978B (zh) * | 2015-09-15 | 2017-12-05 | 安徽省综合交通研究院股份有限公司 | 封闭快速道路监测系统及监控数据处理方法 |
CN106570014B (zh) * | 2015-10-09 | 2020-09-25 | 阿里巴巴集团控股有限公司 | 用于确定用户的家庭属性信息的方法与设备 |
CN105869396A (zh) * | 2016-04-28 | 2016-08-17 | 泰华智慧产业集团股份有限公司 | 基于大数据平台的过车指数统计方法及系统 |
CN106327868B (zh) * | 2016-08-30 | 2019-10-22 | 山东高速信息工程有限公司 | 基于车流检测设备状态的道路拥堵分析方法 |
CN106257553A (zh) * | 2016-09-13 | 2016-12-28 | 成都创慧科达科技有限公司 | 一种多功能智能化交通流量监测系统及方法 |
CN106408940B (zh) * | 2016-11-02 | 2023-04-14 | 南京慧尔视智能科技有限公司 | 基于微波和视频数据融合的交通检测方法及装置 |
CN106652458B (zh) * | 2017-02-20 | 2019-01-29 | 东南大学 | 基于虚拟车辆轨迹重构的在线城市道路路径行程时间估计方法 |
CN107204116A (zh) * | 2017-07-03 | 2017-09-26 | 太仓贝岭思拓软件科技有限公司 | 一种区域交通流量信息采集系统 |
GB2564882B (en) * | 2017-07-25 | 2022-04-13 | Red Fox Id Ltd | Apparatus and methods for assessing vehicles straddled between lanes |
CN110610118A (zh) * | 2018-06-15 | 2019-12-24 | 杭州海康威视数字技术股份有限公司 | 交通参数采集方法及装置 |
CN109032658A (zh) * | 2018-07-13 | 2018-12-18 | 深圳至宝网络科技有限公司 | 一种课程包自动生成的方法 |
JP7311250B2 (ja) * | 2018-08-31 | 2023-07-19 | 株式会社小松製作所 | 作業機械の運搬物特定装置、作業機械、作業機械の運搬物特定方法、補完モデルの生産方法、および学習用データセット |
CN109166313B (zh) * | 2018-09-10 | 2021-06-25 | 南京市公安局交通管理局 | 一种根据过车数据的溢出预警方法 |
CN109212513B (zh) * | 2018-09-29 | 2021-11-12 | 河北德冠隆电子科技有限公司 | 多目标在雷达间数据传递、数据融合及连续跟踪定位方法 |
KR102545105B1 (ko) * | 2018-10-10 | 2023-06-19 | 현대자동차주식회사 | 차량용 허위 타겟 판별 장치 및 그의 허위 타겟 판별 방법과 그를 포함하는 차량 |
CN109785614A (zh) * | 2018-12-17 | 2019-05-21 | 北京掌行通信息技术有限公司 | 一种海量移动位置数据的监测方法及装置 |
CN109613537A (zh) * | 2019-01-16 | 2019-04-12 | 南京奥杰智能科技有限公司 | 一种全息雷达 |
CN110164127B (zh) * | 2019-04-04 | 2021-06-25 | 中兴飞流信息科技有限公司 | 一种车流量预测的方法、装置及服务器 |
CN111815942B (zh) * | 2019-04-10 | 2022-12-23 | 阿里巴巴集团控股有限公司 | 一种轨迹的处理方法、装置、及电子设备 |
CN110033479B (zh) * | 2019-04-15 | 2023-10-27 | 四川九洲视讯科技有限责任公司 | 基于交通监控视频的交通流参数实时检测方法 |
CN110807924A (zh) * | 2019-11-04 | 2020-02-18 | 吴钢 | 基于全量全样实时交通数据的多参数融合方法及系统 |
CN110827540B (zh) * | 2019-11-04 | 2021-03-12 | 黄传明 | 一种多模态数据融合的机动车移动模式识别方法及系统 |
CN111063189B (zh) * | 2019-11-05 | 2022-05-03 | 阿里巴巴集团控股有限公司 | 一种车流量的处理方法、装置、及电子设备 |
CN111161545B (zh) * | 2019-12-24 | 2021-01-05 | 北京工业大学 | 基于视频的交叉口区域交通参数统计方法 |
CN111489555A (zh) * | 2020-05-14 | 2020-08-04 | 武汉理工大学 | 一种交通运行状态预测方法、装置和系统 |
CN111814648A (zh) * | 2020-06-30 | 2020-10-23 | 北京百度网讯科技有限公司 | 一种站口拥堵情况确定方法、装置、设备及存储介质 |
CN111951547A (zh) * | 2020-07-29 | 2020-11-17 | 苏交科集团股份有限公司 | 一种国省干线交通流量信息监测方法 |
CN112750305B (zh) * | 2020-12-29 | 2022-03-08 | 江苏航天大为科技股份有限公司 | 一种基于雷达检测的车辆连续跟踪方法 |
CN113139495A (zh) * | 2021-04-29 | 2021-07-20 | 姜冬阳 | 一种基于深度学习的隧道侧装视频交通流检测方法和系统 |
CN113791410B (zh) * | 2021-08-20 | 2023-10-24 | 北京市公安局公安交通管理局 | 一种基于多传感器信息融合的道路环境综合认知方法 |
CN113870563B (zh) * | 2021-10-11 | 2023-01-24 | 海南谨而信信息科技有限公司 | 一种基于人工智能的红外激光交通信息采集装置 |
CN115662121B (zh) * | 2022-10-19 | 2024-05-10 | 吉林大学 | 混行信控交叉口以排队方式估算通行能力上下限的方法 |
CN116798237B (zh) * | 2023-03-24 | 2024-04-30 | 浪潮智慧科技有限公司 | 一种交通流量监测方法及设备 |
CN116189116B (zh) * | 2023-04-24 | 2024-02-23 | 江西方兴科技股份有限公司 | 一种交通状态感知方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2010238762C1 (en) * | 2009-04-22 | 2015-01-22 | Inrix, Inc. | Predicting expected road traffic conditions based on historical and current data |
CN101751782A (zh) * | 2009-12-30 | 2010-06-23 | 北京大学深圳研究生院 | 一种基于多源信息融合的十字路口交通事件自动检测系统 |
CN101968927B (zh) * | 2010-09-21 | 2015-07-01 | 隋亚刚 | 可选择使用高清视频、微波检测获得交通流量的检测系统 |
CN202472944U (zh) * | 2011-12-28 | 2012-10-03 | 百年金海安防科技有限公司 | 基于多传感器数据融合的城市交通信息采集与处理系统 |
-
2014
- 2014-07-22 CN CN201410350548.9A patent/CN104200657B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104200657A (zh) | 2014-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104200657B (zh) | 一种基于视频和传感器的交通流量参数采集方法 | |
CN110244322B (zh) | 基于多源传感器的路面施工机器人环境感知系统及方法 | |
CN108596129B (zh) | 一种基于智能视频分析技术的车辆越线检测方法 | |
US11313950B2 (en) | Machine learning based highway radar vehicle classification across multiple lanes and speeds | |
CN108986064B (zh) | 一种人流量统计方法、设备及系统 | |
CN106935035B (zh) | 基于ssd神经网络的违章停车车辆实时检测方法 | |
CN111369541B (zh) | 一种智能汽车恶劣天气条件下车辆检测方法 | |
CN106096525B (zh) | 一种复合型车道识别系统及方法 | |
CN108230254B (zh) | 一种自适应场景切换的高速交通全车道线自动检测方法 | |
US9213901B2 (en) | Robust and computationally efficient video-based object tracking in regularized motion environments | |
CN103064086B (zh) | 一种基于深度信息的车辆跟踪方法 | |
Lin et al. | A real-time vehicle counting, speed estimation, and classification system based on virtual detection zone and YOLO | |
CN106128121B (zh) | 基于局部特征分析的车辆排队长度快速检测算法 | |
CN103425764B (zh) | 一种基于视频的车辆匹配方法 | |
CN104282020A (zh) | 一种基于目标运动轨迹的车辆速度检测方法 | |
CN104134222A (zh) | 基于多特征融合的车流监控图像检测和跟踪系统及方法 | |
CN102426785B (zh) | 基于轮廓和局部特征点的交通流信息感知方法及系统 | |
Pan et al. | Traffic surveillance system for vehicle flow detection | |
CN103985182A (zh) | 一种公交客流自动计数方法及自动计数系统 | |
CN103400157A (zh) | 一种基于视频分析的道路行人及非机动车检测方法 | |
CN111781600A (zh) | 一种适用于信号交叉口场景的车辆排队长度检测方法 | |
CN107038411A (zh) | 一种基于视频中车辆运动轨迹的路侧停车行为精确识别方法 | |
CN115113206B (zh) | 井下有轨车辅助驾驶的行人与障碍物检测方法 | |
CN106228570A (zh) | 一种真值数据确定方法和装置 | |
CN111797738A (zh) | 基于视频识别的多目标交通行为快速提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |