CN112990128A - 一种基于视频跟踪的多车辆测速方法 - Google Patents
一种基于视频跟踪的多车辆测速方法 Download PDFInfo
- Publication number
- CN112990128A CN112990128A CN202110456696.9A CN202110456696A CN112990128A CN 112990128 A CN112990128 A CN 112990128A CN 202110456696 A CN202110456696 A CN 202110456696A CN 112990128 A CN112990128 A CN 112990128A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- vehicle
- coordinates
- current frame
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 30
- 239000011159 matrix material Substances 0.000 claims description 15
- 239000013598 vector Substances 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 12
- 238000013519 translation Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 claims description 4
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000009434 installation Methods 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 8
- 230000002349 favourable effect Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 230000007547 defect Effects 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
该发明公开了一种基于视频跟踪的多车辆测速方法,涉及视频图像处理领域。本发明解决现有技术中存在的仅能获得单一车道中单一车辆的速度,而无法同时获取道路上多车道中多车辆的行驶速度的技术问题。本发明方案通过视频信息,可以记录道路中多车辆的行驶速度,车辆变更车道及小范围遮挡均不影响车辆测速,车速检测具有较高的灵活性。相较于传统只进行单一区间测速及单一车辆测速而言,记录多车辆行驶速度更能体现当前实时的道路交通环境,有助于判断道路的交通拥堵情况。
Description
技术领域
本发明涉及视频图像处理领域,基于固定的监控摄像头的地理位置信息和视频帧中车辆的位置不同进行车辆速度的测量。
背景技术
随着我国社会经济的快速发展,车辆的私人拥有量每年都大幅增长,针对于智慧城市的道路交通流量统计以及是否拥挤的判断中,当前道路上各个车辆行驶速度是十分重要的一个评价指标。测速的方法很多,常用的有超声波测速、微波雷达测速和激光测速以及视频测速,其中视频测速不受地形以及路面情况的限制,在公路交通中具有极高的实用价值。
目前常见的视频测速方法有背景差法、帧差法、光流法以及频域法。其中帧差法虽然可以利用不同之间的位置不同计算出检测目标在图像中的像素点差值,但是如何将图像中的像素点和现实中的地理位置进行对应便成为了决定检测准确率的关键因素。在传统道路车速检测方法中,采用固定两个摄像头拍摄同一车辆。利用固定距离和拍摄的时间差进行车速计算,虽然可以准确计算出车辆的行驶速度,但是不足之处在于仅能获得单一车道中单一车辆的速度,而无法同时获取道路上多车道中多车辆的行驶速度。另一部分车速检测方法中,车速检测局限于小部分检测区域,无法对处于摄像头拍摄范围的所有车辆进行测速。如果车辆在行驶中途存在倒车或者停车的情况则无法及时给出车辆行驶速度的准确判断。为了更好的进行路口的车辆行驶速度的判断,本发明提出了一种基于视频跟踪的多车辆测速方法,可以更加高效准确地计算视频中所有车辆的行驶速度,可以更加准确的获取道路的拥堵信息。
发明内容
本发明针对背景技术的不足,解决现有技术中存在的仅能获得单一车道中单一车辆的速度,而无法同时获取道路上多车道中多车辆的行驶速度的技术问题。
本发明技术方案为一种基于视频跟踪的多车辆测速方法,该方法包括:
步骤1:安装监控摄像头于道路上方,摄像机安装高度为H,摄像机镜头光心与地面夹角为a;步骤2:使用深度卷积神经网络对进入摄像头拍摄范围的目标进行检测,得到当前帧中所有车辆目标的在像素坐标系中定位框的中心点坐标,un为当前帧检测车辆目标在像素坐标系中的中心点横坐标,vn为当前帧检测车辆目标在像素坐标系中的中心点纵坐标,tn为当前帧检测时间戳,以[un vn tn]的向量形式记录当前帧检测得到的所有车辆信息;
步骤3:从第二帧开始,对于每一个进入摄像头范围的目标进行跟踪,将当前帧检测到的车辆目标与已保存的车辆目标利用特征矩阵及卡尔曼滤波进行关联匹配;匹配成功则当前帧中的车辆沿用之前帧中匹配到的车辆id,否则为当前未成功匹配的车辆分配新id;
步骤3.1:id为之前30帧中识别及跟踪的所有车辆标识,ub为之前30帧中id对应车辆目标在像素坐标系中距离当前帧最近一次检测的中心点的横坐标,vb为之前30帧中id对应车辆目标在像素坐标系中距离当前帧最近一次检测的中心点的纵坐标,tb为之前30帧中id对应车辆目标在像素坐标系中距离当前帧最近一次检测的中心点的时间戳,以[id ub vbtb]的向量形式记录之前30帧内实现目标检测及目标跟踪的每一辆车辆最新位置信息;
步骤3.2:利用卡尔曼滤波器得到之前帧图像的检测目标的预测位置,利用目标所处帧距离当前帧的帧差进行优先级的划分,目标所处帧距离当前帧的帧差越少则优先级越高;高优先级的目标优先进行预测位置和实际检测位置的匹配;
步骤3.3:当前帧中匹配成功的车辆目标沿用之前帧中的车辆id,更新当前车辆的位置信息以及当前车辆最近一次出现的时间戳;利用当前帧中匹配到的目标检测框更新卡尔曼滤波器,计算卡尔曼增益,进行预测位置的更新;为下一次目标跟踪进行准备;为没有匹配到的目标分配新的id,并在下一帧中对其进行跟踪;
步骤4:计算当前帧与之前帧中成功进行匹配的车辆计算当前帧与之前帧的时间差Δt=tn-tb,以[id un vn ub vbΔt]的向量形式记录当前帧中与之前帧成功匹配的每一辆车辆信息;步骤5:计算视频帧中像素坐标(u,v)和视频检测区域的实际地理坐标(XW,YW,ZW)的对应关系;采用地理坐标系与像素坐标系的转换得到图像中像素坐标和实际地理坐标系的对应关系,包括以下步骤:
步骤5.1:利用刚性变和平移获得地理坐标(XW,YW,ZW)和相机坐标(XC,YC,ZC)的转换方程,其中R为地理坐标系到相机坐标系的旋转矩阵,cosα11为地理坐标系中XW到相机坐标系XC的旋转角的余弦值,cosα12为地理坐标系Y轴到相机坐标系X轴的旋转角的余弦值,cosα13为地理坐标系Z轴到相机坐标系X轴的旋转角的余弦值,cosα21为地理坐标系中X轴到相机坐标系Y 轴的旋转角的余弦值,cosα22为地理坐标系Y轴到相机坐标系Y轴的旋转角的余弦值,cosα23为地理坐标系Z轴到相机坐标系Y轴的旋转角的余弦值,cosα31为地理坐标系中X轴到相机坐标系Z轴的旋转角的余弦值,cosα32为地理坐标系Y轴到相机坐标系Z轴的旋转角的余弦值, cosα33为地理坐标系Z轴到相机坐标系Z轴的旋转角的余弦值;T为地理坐标系到相机坐标系的平移矩阵,H为摄像头到地面的高度;
步骤5.2:利用焦距对角矩阵得到相机坐标(XC,YC,ZC)和图像坐标(x,y)的变换,其中f为成像坐标系与相机坐标系的距离;
步骤5.3:图像坐标(x,y)和像素坐标(u,v)之间进行转换,其中像素的尺寸为px*py,由于像素坐标与图像坐标原点坐标位置不同,图像坐标以图像中心点作为原点,像素坐标以图像左上角作为原点坐标,因此需要进行坐标的平移变换,(u0,v0)为图像坐标系的原点在像素坐标系中的对应坐标;
步骤5.4:获取相机坐标Z轴Zc与像素点位置坐标(u,v)的对应关系,根据上述步骤5.1-步骤 5.3的公式,得到像素坐标(u,v)和地理坐标(XW,YW,ZW)的转换矩阵,由于轿车车辆高度在 1.4m-1.6m之间,因此设ZW为平均轿车高度1.5m,根据等式左右两边列向量中第三个元素相等得出每一个像素坐标(u,v)与Zc之间的关系,设Zc=f(u,v);
步骤5.5:获取目标车辆的地理位置坐标,将求得的Zc的值代入公式中,根据车辆的像素坐标 (u,v)求得对应地理位置坐标(XW,YW,ZW);
步骤6:将步骤4中记录的当前帧中所有成功匹配车辆前后的中心点像素坐标(un,vn)、(ub,vb) 分别代入步骤5的像素坐标(u,v)中,计算得出的地理位置坐标分别作为成功匹配车辆的当前帧与之前帧的地理位置坐标,利用向量的二范数得出车辆的行驶距离,结合距离和时间的关系成功计算当前帧中所有成功匹配车辆的行驶速度;
步骤6.1:计算当前帧中所有成功匹配车辆的行驶距离,根据步骤4中记录的不同车辆id分别求解车辆的行驶距离,利用成功匹配车辆前后距离差值的二范数可以得出成功匹配车辆在地理坐标系中的移动距离D;公式如下所示:
步骤6.2:计算当前帧中所有成功匹配车辆的行驶速度;根据步骤4中记录的不同车辆id分别求解车辆的行驶速度,利用步骤6.1中获得的每一辆车的行驶距离D以及步骤4中成功匹配车辆的当前帧与之前帧的时间差Δt可以求得每一辆车辆行驶速度s;公式如下所示:
s=D/Δt。
本发明相较于传统的车速检测算法具有两方面的优势:
1.可以记录道路中多车辆的行驶速度,车辆变更车道及小范围遮挡均不影响车辆测速,车速检测具有较高的灵活性。
2.相较于传统只进行单一区间测速及单一车辆测速而言,记录多车辆行驶速度更能体现当前实时的道路交通环境,有助于判断道路的交通拥堵情况。
附图说明
图1是根据示例性实施例的基于视频跟踪的多车辆测速系统组成示意图;
图2是具体实施方式中的结果。
具体实施方式:
步骤1:安装监控摄像头于道路上方,摄像机安装高度为H,摄像机镜头光心与地面夹角为а。
步骤2:使用深度卷积神经网络对进入摄像头拍摄范围的目标进行检测,得到当前帧中所有车辆目标的在像素坐标系中定位框的中心点坐标,un为当前帧检测车辆目标在像素坐标系中的中心点横坐标,vn为当前帧检测车辆目标在像素坐标系中的中心点纵坐标,tn为当前帧检测时间戳,以[un vn tn]的向量形式记录当前帧检测得到的所有车辆信息。
步骤3:从第二帧开始,对于每一个进入摄像头范围的目标进行跟踪,将当前帧检测到的车辆目标与已保存的车辆目标利用特征矩阵及卡尔曼滤波进行关联匹配。匹配成功则当前帧中的车辆沿用之前帧中匹配到的车辆id,否则为当前未成功匹配的车辆分配新id。
步骤3.1:id为之前30帧中识别及跟踪的所有车辆标识,ub为之前30帧中id对应车辆目标在像素坐标系中距离当前帧最近一次检测的中心点的横坐标,vb为之前30帧中id对应车辆目标在像素坐标系中距离当前帧最近一次检测的中心点的纵坐标,tb为之前30帧中id对应车辆目标在像素坐标系中距离当前帧最近一次检测的中心点的时间戳,以[id ub vbtb]的向量形式记录之前30帧内实现目标检测及目标跟踪的每一辆车辆最新位置信息。
步骤3.2:利用卡尔曼滤波器得到之前帧图像的检测目标的预测位置,利用目标所处帧距离当前帧的帧差进行优先级的划分,目标所处帧距离当前帧的帧差越少则优先级越高。高优先级的目标优先进行预测位置和实际检测位置的匹配。
步骤3.3:当前帧中匹配成功的车辆目标沿用之前帧中的车辆id,更新当前车辆的位置信息以及当前车辆最近一次出现的时间戳。利用当前帧中匹配到的目标检测框更新卡尔曼滤波器,计算卡尔曼增益,进行预测位置的更新。为下一次目标跟踪进行准备。为没有匹配到的目标分配新的id,并在下一帧中对其进行跟踪。
步骤4:计算当前帧与之前帧中成功进行匹配的车辆计算当前帧与之前帧的时间差Δt=tn-tb,以[id un vn ub vbΔt]的向量形式记录当前帧中与之前帧成功匹配的每一辆车辆信息。步骤5:计算视频帧中像素坐标(u,v)和视频检测区域的实际地理坐标(XW,YW,ZW)的对应关系。本专利采用了地理坐标系与像素坐标系的转换得到图像中像素坐标和实际地理坐标系的对应关系,包括以下步骤:
步骤5.1:利用刚性变和平移获得地理坐标(XW,YW,ZW)和相机坐标(XC,YC,ZC)的转换方程。其中R为地理坐标系到相机坐标系的旋转矩阵,cosα11为地理坐标系中XW到相机坐标系XC的旋转角的余弦值,cosα12为地理坐标系Y轴到相机坐标系X轴的旋转角的余弦值,cosα13为地理坐标系Z轴到相机坐标系X轴的旋转角的余弦值,cosα21为地理坐标系中X轴到相机坐标系Y 轴的旋转角的余弦值,cosα22为地理坐标系Y轴到相机坐标系Y轴的旋转角的余弦值,cosα23为地理坐标系Z轴到相机坐标系Y轴的旋转角的余弦值,cosα31为地理坐标系中X轴到相机坐标系Z轴的旋转角的余弦值,cosα32为地理坐标系Y轴到相机坐标系Z轴的旋转角的余弦值, cosα33为地理坐标系Z轴到相机坐标系Z轴的旋转角的余弦值。T为地理坐标系到相机坐标系的平移矩阵,H为摄像头到地面的高度。
步骤5.2:利用焦距对角矩阵得到相机坐标(XC,YC,ZC)和图像坐标(x,y)的变换,本次变换为将物体从三维坐标系投影到二维坐标系,其中f为成像坐标系与相机坐标系的距离。
步骤5.3:图像坐标(x,y)和像素坐标(u,v)之间进行转换。其中像素的尺寸为px*py,由于像素坐标与图像坐标原点坐标位置不同,图像坐标以图像中心点作为原点,像素坐标以图像左上角作为原点坐标,因此需要进行坐标的平移变换,(u0,v0)为图像坐标系的原点在像素坐标系中的对应坐标。
步骤5.4:获取相机坐标Z轴Zc与像素点位置坐标(u,v)的对应关系。根据上述步骤5.1-步骤 5.3的公式,可以得到像素坐标(u,v)和地理坐标(XW,YW,ZW)的转换矩阵。由于轿车车辆高度在1.4m-1.6m之间,因此设ZW为平均轿车高度1.5m。根据等式左右两边列向量中第三个元素相等可以得出每一个像素坐标(u,v)与Zc之间的关系,设Zc=f(u,v)。
步骤5.5:获取目标车辆的地理位置坐标。将求得的Zc的值代入公式中可以根据车辆的像素坐标(u,v)求得对应地理位置坐标(XW,YW,ZW)。
步骤6:将步骤4中记录的当前帧中所有成功匹配车辆前后的中心点像素坐标(un,vn)、(ub,vb) 分别代入步骤5的像素坐标(u,v)中,计算得出的地理位置坐标分别作为成功匹配车辆的当前帧与之前帧的地理位置坐标,利用向量的二范数可以得出车辆的行驶距离,结合距离和时间的关系成功计算当前帧中所有成功匹配车辆的行驶速度。
步骤6.1:计算当前帧中所有成功匹配车辆的行驶距离。根据步骤4中记录的不同车辆id分别求解车辆的行驶距离,利用成功匹配车辆前后距离差值的二范数可以得出成功匹配车辆在地理坐标系中的移动距离D。公式如下所示:
步骤6.2:计算当前帧中所有成功匹配车辆的行驶速度。根据步骤4中记录的不同车辆id分别求解车辆的行驶速度,利用步骤6.1中获得的每一辆车的行驶距离D以及步骤4中成功匹配车辆的当前帧与之前帧的时间差Δt可以求得每一辆车辆行驶速度s。公式如下所示:
s=D/Δt
在具体测试中,相机高度为3米,相机倾斜角度为45°,图像尺寸为980*540。在图2中的车辆实际车速及检测车速如下所示:
车编号 | 26 | 27 | 30 | 32 | 统计信息 |
实际车速(km/h) | 24 | 15 | 29 | 17 | 85 |
检测车速(km/h) | 21.2 | 13.2 | 27.4 | 16.8 | 78.6 |
精准度 | 88% | 88% | 94% | 99% | 92% |
Claims (4)
1.一种基于视频跟踪的多车辆测速方法,该方法包括:
步骤1:安装监控摄像头于道路上方,摄像机安装高度为H,摄像机镜头光心与地面夹角为a;
步骤2:使用深度卷积神经网络对进入摄像头拍摄范围的目标进行检测,得到当前帧中所有车辆目标的在像素坐标系中定位框的中心点坐标,un为当前帧检测车辆目标在像素坐标系中的中心点横坐标,vn为当前帧检测车辆目标在像素坐标系中的中心点纵坐标,tn为当前帧检测时间戳,以[un vn tn]的向量形式记录当前帧检测得到的所有车辆信息;
步骤3:从第二帧开始,对于每一个进入摄像头范围的目标进行跟踪,将当前帧检测到的车辆目标与已保存的车辆目标利用特征矩阵及卡尔曼滤波进行关联匹配;匹配成功则当前帧中的车辆沿用之前帧中匹配到的车辆id,否则为当前未成功匹配的车辆分配新id;
步骤4:计算当前帧与之前帧中成功进行匹配的车辆计算当前帧与之前帧的时间差Δt=tn-tb,以[id un vn ub vb Δt]的向量形式记录当前帧中与之前帧成功匹配的每一辆车辆信息;
步骤5:计算视频帧中像素坐标(u,v)和视频检测区域的实际地理坐标(XW,YW,ZW)的对应关系;采用地理坐标系与像素坐标系的转换得到图像中像素坐标和实际地理坐标系的对应关系;
步骤6:将步骤4中记录的当前帧中所有成功匹配车辆前后的中心点像素坐标(un,vn)、(ub,vb)分别代入步骤5的像素坐标(u,v)中,计算得出的地理位置坐标分别作为成功匹配车辆的当前帧与之前帧的地理位置坐标,利用向量的二范数得出车辆的行驶距离,结合距离和时间的关系成功计算当前帧中所有成功匹配车辆的行驶速度。
2.如权利要求1所述的一种基于视频跟踪的多车辆测速方法,其特征在于,所述步骤3的具体方法为:
步骤3.1:id为之前30帧中识别及跟踪的所有车辆标识,ub为之前30帧中id对应车辆目标在像素坐标系中距离当前帧最近一次检测的中心点的横坐标,vb为之前30帧中id对应车辆目标在像素坐标系中距离当前帧最近一次检测的中心点的纵坐标,tb为之前30帧中id对应车辆目标在像素坐标系中距离当前帧最近一次检测的中心点的时间戳,以[id ub vb tb]的向量形式记录之前30帧内实现目标检测及目标跟踪的每一辆车辆最新位置信息;
步骤3.2:利用卡尔曼滤波器得到之前帧图像的检测目标的预测位置,利用目标所处帧距离当前帧的帧差进行优先级的划分,目标所处帧距离当前帧的帧差越少则优先级越高;高优先级的目标优先进行预测位置和实际检测位置的匹配;
步骤3.3:当前帧中匹配成功的车辆目标沿用之前帧中的车辆id,更新当前车辆的位置信息以及当前车辆最近一次出现的时间戳;利用当前帧中匹配到的目标检测框更新卡尔曼滤波器,计算卡尔曼增益,进行预测位置的更新;为下一次目标跟踪进行准备;为没有匹配到的目标分配新的id,并在下一帧中对其进行跟踪。
3.如权利要求1所述的一种基于视频跟踪的多车辆测速方法,其特征在于,所述步骤5的具体方法为:
步骤5.1:利用刚性变和平移获得地理坐标(XW,YW,ZW)和相机坐标(XC,YC,ZC)的转换方程,其中R为地理坐标系到相机坐标系的旋转矩阵,cosα11为地理坐标系中XW到相机坐标系XC的旋转角的余弦值,cosα12为地理坐标系Y轴到相机坐标系X轴的旋转角的余弦值,cosα13为地理坐标系Z轴到相机坐标系X轴的旋转角的余弦值,cosα21为地理坐标系中X轴到相机坐标系Y轴的旋转角的余弦值,cosα22为地理坐标系Y轴到相机坐标系Y轴的旋转角的余弦值,cosα23为地理坐标系Z轴到相机坐标系Y轴的旋转角的余弦值,cosα31为地理坐标系中X轴到相机坐标系Z轴的旋转角的余弦值,cosα32为地理坐标系Y轴到相机坐标系Z轴的旋转角的余弦值,cosα33为地理坐标系Z轴到相机坐标系Z轴的旋转角的余弦值;T为地理坐标系到相机坐标系的平移矩阵,H为摄像头到地面的高度;
步骤5.2:利用焦距对角矩阵得到相机坐标(XC,YC,ZC)和图像坐标(x,y)的变换,其中f为成像坐标系与相机坐标系的距离;
步骤5.3:图像坐标(x,y)和像素坐标(u,v)之间进行转换,其中像素的尺寸为px*py,由于像素坐标与图像坐标原点坐标位置不同,图像坐标以图像中心点作为原点,像素坐标以图像左上角作为原点坐标,因此需要进行坐标的平移变换,(u0,v0)为图像坐标系的原点在像素坐标系中的对应坐标;
步骤5.4:获取相机坐标Z轴Zc与像素点位置坐标(u,v)的对应关系,根据上述步骤5.1-步骤5.3的公式,得到像素坐标(u,v)和地理坐标(XW,YW,ZW)的转换矩阵,由于轿车车辆高度在1.4m-1.6m之间,因此设ZW为平均轿车高度1.5m,根据等式左右两边列向量中第三个元素相等得出每一个像素坐标(u,v)与Zc之间的关系,设Zc=f(u,v);
步骤5.5:获取目标车辆的地理位置坐标,将求得的Zc的值代入公式中,根据车辆的像素坐标(u,v)求得对应地理位置坐标(XW,YW,ZW);
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110456696.9A CN112990128A (zh) | 2021-04-27 | 2021-04-27 | 一种基于视频跟踪的多车辆测速方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110456696.9A CN112990128A (zh) | 2021-04-27 | 2021-04-27 | 一种基于视频跟踪的多车辆测速方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112990128A true CN112990128A (zh) | 2021-06-18 |
Family
ID=76340352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110456696.9A Pending CN112990128A (zh) | 2021-04-27 | 2021-04-27 | 一种基于视频跟踪的多车辆测速方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112990128A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592799A (zh) * | 2021-07-22 | 2021-11-02 | 象山电力实业有限公司 | 一种电力海缆的防护方法与系统 |
CN114155511A (zh) * | 2021-12-13 | 2022-03-08 | 吉林大学 | 一种用于自动驾驶汽车在公共道路的环境信息采集方法 |
CN117636270A (zh) * | 2024-01-23 | 2024-03-01 | 南京理工大学 | 基于单目摄像头的车辆抢道事件识别方法及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102044151A (zh) * | 2010-10-14 | 2011-05-04 | 吉林大学 | 基于光照可见度辨识的夜间车辆视频检测方法 |
CN104155470A (zh) * | 2014-07-15 | 2014-11-19 | 华南理工大学 | 一种基于双目摄像头的实时车速检测方法及系统 |
CN109102702A (zh) * | 2018-08-24 | 2018-12-28 | 南京理工大学 | 基于视频车辆检测和雷达信号融合的车辆测速方法 |
CN110648354A (zh) * | 2019-09-29 | 2020-01-03 | 电子科技大学 | 一种动态环境下的slam方法 |
US10694148B1 (en) * | 2019-05-13 | 2020-06-23 | The Boeing Company | Image-based navigation using quality-assured line-of-sight measurements |
CN111753797A (zh) * | 2020-07-02 | 2020-10-09 | 浙江工业大学 | 一种基于视频分析的车辆测速方法 |
CN112053572A (zh) * | 2020-09-07 | 2020-12-08 | 重庆同枥信息技术有限公司 | 基于视频和距离网格标定的车辆测速方法、设备及系统 |
-
2021
- 2021-04-27 CN CN202110456696.9A patent/CN112990128A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102044151A (zh) * | 2010-10-14 | 2011-05-04 | 吉林大学 | 基于光照可见度辨识的夜间车辆视频检测方法 |
CN104155470A (zh) * | 2014-07-15 | 2014-11-19 | 华南理工大学 | 一种基于双目摄像头的实时车速检测方法及系统 |
CN109102702A (zh) * | 2018-08-24 | 2018-12-28 | 南京理工大学 | 基于视频车辆检测和雷达信号融合的车辆测速方法 |
US10694148B1 (en) * | 2019-05-13 | 2020-06-23 | The Boeing Company | Image-based navigation using quality-assured line-of-sight measurements |
CN110648354A (zh) * | 2019-09-29 | 2020-01-03 | 电子科技大学 | 一种动态环境下的slam方法 |
CN111753797A (zh) * | 2020-07-02 | 2020-10-09 | 浙江工业大学 | 一种基于视频分析的车辆测速方法 |
CN112053572A (zh) * | 2020-09-07 | 2020-12-08 | 重庆同枥信息技术有限公司 | 基于视频和距离网格标定的车辆测速方法、设备及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592799A (zh) * | 2021-07-22 | 2021-11-02 | 象山电力实业有限公司 | 一种电力海缆的防护方法与系统 |
CN114155511A (zh) * | 2021-12-13 | 2022-03-08 | 吉林大学 | 一种用于自动驾驶汽车在公共道路的环境信息采集方法 |
CN117636270A (zh) * | 2024-01-23 | 2024-03-01 | 南京理工大学 | 基于单目摄像头的车辆抢道事件识别方法及设备 |
CN117636270B (zh) * | 2024-01-23 | 2024-04-09 | 南京理工大学 | 基于单目摄像头的车辆抢道事件识别方法及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110285793B (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
WO2021004548A1 (zh) | 一种基于双目立体视觉系统的车辆智能测速方法 | |
US8238610B2 (en) | Homography-based passive vehicle speed measuring | |
CN112990128A (zh) | 一种基于视频跟踪的多车辆测速方法 | |
CN111429484B (zh) | 一种基于交通监控视频的多目标车辆轨迹实时构建方法 | |
CN105300403B (zh) | 一种基于双目视觉的车辆里程计算法 | |
CN103487034B (zh) | 一种基于立式标靶的车载单目摄像头测距测高方法 | |
US10909395B2 (en) | Object detection apparatus | |
CN103499337B (zh) | 一种基于立式标靶的车载单目摄像头测距测高装置 | |
EP3676796A1 (en) | Systems and methods for correcting a high-definition map based on detection of obstructing objects | |
CN107796373B (zh) | 一种基于车道平面几何模型驱动的前方车辆单目视觉的测距方法 | |
CN107589069B (zh) | 一种物体碰撞恢复系数的非接触式测量方法 | |
WO2020106329A1 (en) | System and method for camera commissioning beacons | |
US10554951B2 (en) | Method and apparatus for the autocalibration of a vehicle camera system | |
CN110189363A (zh) | 一种机场场面移动目标低视角视频测速方法 | |
Cordes et al. | Roadsaw: A large-scale dataset for camera-based road surface and wetness estimation | |
CN106709432B (zh) | 基于双目立体视觉的人头检测计数方法 | |
CN113029185A (zh) | 众包式高精度地图更新中道路标线变化检测方法及系统 | |
CN109345576B (zh) | 车辆行驶速度鉴定方法及系统 | |
CN111598956A (zh) | 标定方法、装置和系统 | |
CN106898023B (zh) | 一种基于视频图像的车头间距测量方法及系统 | |
CN113191239A (zh) | 一种基于计算机视觉的车辆外廓尺寸动态检测系统 | |
CN111489398B (zh) | 一种成像设备标定方法以及装置 | |
CN110766747B (zh) | 基于热成像技术的前方车辆的定位方法 | |
JP2012122923A (ja) | 対象物検出装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210618 |
|
RJ01 | Rejection of invention patent application after publication |