CN113092807A - 基于多目标跟踪算法的城市高架道路车辆测速方法 - Google Patents

基于多目标跟踪算法的城市高架道路车辆测速方法 Download PDF

Info

Publication number
CN113092807A
CN113092807A CN202110429725.2A CN202110429725A CN113092807A CN 113092807 A CN113092807 A CN 113092807A CN 202110429725 A CN202110429725 A CN 202110429725A CN 113092807 A CN113092807 A CN 113092807A
Authority
CN
China
Prior art keywords
target
frame
vehicle
image
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110429725.2A
Other languages
English (en)
Other versions
CN113092807B (zh
Inventor
封玲
王晓宇
王一明
胡珉
高新闻
薛子欣
赵鹏
陈莹锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Municipal Maintenance & Management Co ltd
Shanghai Urban Construction City Operation Group Co ltd
Shanghai Huang Pu River Bridges And Tunnel Operation And Management Co ltd
University of Shanghai for Science and Technology
Original Assignee
Shanghai Municipal Maintenance & Management Co ltd
Shanghai Urban Construction City Operation Group Co ltd
Shanghai Huang Pu River Bridges And Tunnel Operation And Management Co ltd
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Municipal Maintenance & Management Co ltd, Shanghai Urban Construction City Operation Group Co ltd, Shanghai Huang Pu River Bridges And Tunnel Operation And Management Co ltd, University of Shanghai for Science and Technology filed Critical Shanghai Municipal Maintenance & Management Co ltd
Priority to CN202110429725.2A priority Critical patent/CN113092807B/zh
Publication of CN113092807A publication Critical patent/CN113092807A/zh
Application granted granted Critical
Publication of CN113092807B publication Critical patent/CN113092807B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/64Devices characterised by the determination of the time taken to traverse a fixed distance
    • G01P3/68Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了基于多目标跟踪算法的城市高架道路车辆测速方法,本发明的有益效果:本发明采用先进的多目标跟踪算法,实现对城市高架道路中车辆行驶速度的精确测量,能够提高道路交通的安全性和效率,同时本发明能够在无需添加外部设备的情况下,通过软件的方式,在任意已有的视频监控设备上实现车辆测速功能,大大降低了城市道路车辆测速的成本和复杂性。

Description

基于多目标跟踪算法的城市高架道路车辆测速方法
技术领域:
本发明属于图像处理技术领域,具体涉及一种基于多目标跟踪算法的城市高架道路车辆测速方法,常用于城市高架道路,桥梁等设施。
背景技术:
车辆超速行驶一直是引起交通事较为普遍和直接的因素,若不进行严格的监测,将会对人们生命健康和社会秩序造成巨大的影响。同时对车辆行驶速度的监测也对减少交通拥堵和有效进行车辆调控有着重大帮助。
目前最为普遍的车辆测速方式是采用超声波和激光测速仪,这种方式测速准确,但是由于其昂贵的设备费用以及较为严格的工作环境,目前无法像视频监控一样广泛的安装在城市道路的各个角落,虽有采用深度学习技术,通过Faster RCNN目标检测技术和SORT多目标跟踪技术实现了车辆测速,但是由于其采用的技术较为简单,检测的速度和准确度仍存在不足。
发明内容:
本发明的目的就在于为了解决上述问题而提供基于多目标跟踪算法的城市高架道路车辆测速方法。
为了解决上述问题,本发明提供了一种技术方案:
一种基于多目标跟踪算法的城市高架道路车辆测速方法,具体包括如下步骤:
步骤1)采集待测区域的视频数据,并将其分为训练用数据和测试用数据;
步骤2)对步骤1)采集的视频数据进行预处理,对训练用视频数据逐帧进行标记,制作标签。具体步骤如下:
步骤2.1)逐帧切分视频数据,得到单帧图像数据;
步骤2.2)标出首帧图像中所有的车辆的位置,并且为每一个车辆初始化独立的轨迹ID;
步骤2.3)对于在后续帧中出现的车辆,若其在先前帧中出现并已经获得相应的轨迹ID,则采用同样的轨迹ID在后续帧中标记其位置。若为首次出现,则为其初始化独立的轨迹ID,并利用该ID标记其位置;
步骤2.4)生成相应的坐标文件,并和单帧图像数据相对应,组合成为训练数据集;
步骤3)部署通用多目标跟踪算法,并且利用步骤2)制作得到的训练数据集对初始模型进行特向训练。具体步骤如下:
步骤3.1)首先采用YOLOv3目标检测算法,检测出每一帧图像中的车辆。具体步骤如下:
步骤3.1.1)对每帧输入的图像,首先送入YOLOv3模型,输出一组向量。其中包含了所有目标的位置信息及其类别向量,对于本方法的应用场景,只需检测车辆,故只取其中的车辆检测类别。如此输出的结果只包含了车辆在图片中的位置信息,具体为检测框的左上角坐标与宽高大小,格式如下公式:
pi=[x,y,w,h]T
步骤3.1.2)考虑到每一帧中新目标的出现以及旧目标删除的特殊性,故在对检测结果进行运动估计和数据关联之前,设定关于新旧目标建立和删除的规则,如下公式:
Booli=(x<20or y<20or(xmax-x)<20
Figure BDA0003030929650000021
上式为逻辑表达式,其中布尔型变量Booli取值为1表示第i个新对象被建立,取值为0表示已存在的第i个对象被删除。
Figure BDA0003030929650000022
表示第i个对象是否已存在的取反。(x<20or y<20or(xmax-x)<20or(ymax-y)<20)表示目标位置是否处于图像边缘。即当目标出现在图像边缘时,若其已经存在则代表就目标即将消失,考虑将其删除;若不存在则代表新目标的出现,对其进行初始化。
步骤3.2)部署通用多目标跟踪算法,通过相邻帧之间的运动估计和数据关联实现在多帧图像中多个目标的实时跟踪。具体步骤如下:
步骤3.2.1)对于通过步骤2.1)成功检测和初始化的目标,将采用卡尔曼滤波器对其进行运动估计。首先对卡尔曼滤波器的目标状态参数进行初始化,由于专利应用场景的特点,模型采用了匀速线性运动假设。其中估计模型的参数如下所示:
Figure BDA0003030929650000031
其中u和v分别代表目标中心在图像中的坐标,s和r分别代表目标边框占图像总面积的比例和长宽比。
Figure BDA0003030929650000032
分别代表这三个量在时间上的差分。故该状态估计的观测变量可以直接写作下式:
Observation=[u,v,s,r]T
基于上述的估计模型和观测变量,卡尔曼模型将进行迭代更新。针对车辆目标运动,引入一个离散控制过程系统。该系统可用一个随机线性微分方程来描述,使用k-1时刻的最优估计预测得到k时刻车辆的先验状态估计,表示为
Figure BDA0003030929650000033
Figure BDA0003030929650000034
上式中,xk是k时刻的n维系统状态向量,uk是k时刻对系统的一维控制向量。A是n*n维状态转移矩阵,B是系统控制矩阵。ωk表示预测过程中的噪声,假设其为高斯白噪声。
步骤3.2.2)当运动估计模型根据上一帧的状态,输出目标在当前状态的先验估计状态(以下简称预测值)之后。需要对当前帧的预测值和检测值进行匹配。匹配成功之后才能进行下一步的修正,得到当前帧目标的最优估计。
本方法采用加权方式融合运动相似度和外观相似度的方式来进行数据关联,完成对预测值和检测的匹配。其中运动相似度计算采用马哈拉诺比斯距离,外观相似度采用了余弦距离。马哈拉诺比斯距离的计算方式如下所示:
Figure BDA0003030929650000041
其中(yi,Si)表示第i条轨迹分布yi在测量空间Si上的投影,dj则表示第j个检测框结果。马哈拉诺比斯距离代表了检测结果的不确定性,即检测结果距离平均跟踪结果相差了多少个标准差,在物理上反映了物体运动的剧烈程度。因此该指标可以用作物体运动特征的度量。
外观相似度的计算方式采用最小余弦距离,如下公式:
Figure BDA0003030929650000042
其中ri代表了通过对每个检测结果截取出的局部图像数据计算得到的外观特征描述子。关于外观特征的计算,本方法采用多层卷积神经网络,提取其深层外观特征,作为每个目标的外观特征描述子。
其中卷积神经网络的结构由两个卷积层和六个残差结构组成,最终的整体特征图通过最后的全连接层得到。同时通过标准化将外观特征投影到单位超球面上,以方便将外观特征代入到最小余弦公式的计算中。该网络结构将会利用步骤2)制作的车辆训练数据集进行训练,从而提高其对车辆这一物体外观特征提取的能力。
最终对于度量目标运动程度的马哈拉比斯距离和度量目标之间外观特征相似度的最小余弦距离这两种度量指标,采用加权求和的方式对两者进行融合,如下所示:
Figure BDA0003030929650000043
ci,j代表了第i个目标检测结果与第j条轨迹之间的整体匹配相似度。其中λ代表了两种度量指标的累加权重。当目标的运动程度剧烈或者遮挡情况较多时,可以适当调小λ的取值。但是本方法主要的应用对象在城市道路上的行驶车辆,目标的运动较为规律且可见光传感器的视角较高,故λ取值为0.5;
步骤3.2.3)经过步骤3.2.2)完成当前帧的检测值zk和目标的先验估计状态(预测值)
Figure BDA0003030929650000051
的匹配之后,利用当前状态的检测值对先验状态估计进行修正,得到当前状态的最优估计,即后验状态估计
Figure BDA0003030929650000052
如下式:
Figure BDA0003030929650000058
其中zk是m维的测量向量,代表了k时刻的测量值。H是m*n大小观测矩阵。
Figure BDA0003030929650000053
表示测量向量与其预测量(先验估计)的差,也称为测量过程的残余,它反映了预测值与实际值之间的误差。残余为0表示预测准确。K为m*n大小矩阵,称为残余的增益,其计算方式如下式所示:
Figure BDA0003030929650000054
Figure BDA0003030929650000055
其中
Figure BDA0003030929650000056
为先验协方差,由k-1帧后验协方差预测得到。基于获得的K值,更新当前状态的后验协方差,如下式所示:
Figure BDA0003030929650000057
上式计算获得的后验协方差Pk将会送入到下一步预测中,并用于先验协方差的预测。当上一帧的预测结果和当前帧的检测结果成功的进行数据关联之后,当前帧的检测结果将用于更新当前帧的目标状态,即更新卡尔曼滤波器迭代参数,并在该状态下通过卡尔曼滤波器框架最优地求解速度分量。如果数据关联失败,则不利用检测值对卡尔曼滤波器进行更新和修正,而是简单预测其状态。这表明旧目标在新帧中没有被找到,将通过其上一帧的状态简单的线性预测当前帧的状态,直到被找到或者进入对象删除判断条件。
步骤3.3)利用步骤2)制作得到的关于车辆的专项训练数据集,对通用多目标跟踪算法进行关于车辆跟踪的特向训练;
步骤4)采用步骤3)训练得到特向多目标跟踪算法,对步骤1)采集得到的视频数据进行跟踪,得到车辆的运动轨迹。
步骤5)通过仿射变换完成图像空间到现实空间的映射,再根据车辆的运动轨迹对其行驶速度进行测定。具体步骤如下:
步骤5.1)事先通过测量和标定,将现实场景中,位于摄像机视角内的道路等距离分为若干区域,区域的形状近似为矩形。取区域的四个顶点,并且为其赋予坐标(x′1,y′1),(x'2,y'2),(x'3,y'3),(x'4,y'4);
步骤5.2)通过测量和标定,找出每个区域四个顶点在图像中的像素坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4);
步骤5.3)通过仿射变换计算两者的变换参数,计算公式如下:
Figure BDA0003030929650000061
其中i∈[1,4],分别代入实现标定的四个点,求得该区域所对应的仿射变换参数a,b,c,d,e,f的值。然后重复该步骤,计算获得所有候选区域从图像空间向现实空间的仿射变换参数值。
步骤5.4)对于某一区域内的车辆,逐帧分解其行驶轨迹,得到车辆在k-1帧和k帧时的图像坐标分别为(xk-1,yk-1)和(xk,yk)。通过该区域的仿射变换参数将改坐标映射到现实空间中,得到现实坐标为(x'k-1,y'k-1)和(x'k,y'k)。则车辆在k帧的行驶速度可以表示为:
Figure BDA0003030929650000071
vk=Sk*Fps
其中Sk为车辆在k-1和k帧之间,在现实空间中行驶的距离。Fps为摄像机视频的帧率。
步骤5.5)重复步骤5.4),直至所有车辆在每一帧时的行驶速度,并在距离与时间二维坐标轴中画出其每一点的坐标,最终拟合得出车辆的行驶速度曲线。
本发明的有益效果:本发明采用先进的多目标跟踪算法,实现对城市高架道路中车辆行驶速度的精确测量,能够提高道路交通的安全性和效率,同时本发明能够在无需添加外部设备的情况下,通过软件的方式,在任意已有的视频监控设备上实现车辆测速功能,大大降低了城市道路车辆测速的成本和复杂性。
附图说明:
为了易于说明,本发明由下述的具体实施及附图作以详细描述。
图1为本发明的整体结构流程图;
图2为卡尔曼滤波预测和修正流程图;
图3为速度曲线拟合示意图。
具体实施方式:
如图1-3所示,本具体实施方式采用以下技术方案:一种基于多目标跟踪算法的城市高架道路车辆测速方法,具体包括如下步骤:
a.使用城市高架道路监控,采集待测区域的视频数据,并按照固定比例将其分为训练用数据和测试用数据;
b.对步骤a中采集的视频数据进行预处理,首先逐帧切分视频数据,得到单帧图像数据;
然后标出首帧图像中所有的车辆的位置,并且为每一个车辆初始化独立的轨迹ID;对于在后续帧中出现的车辆,若其在先前帧中出现并已经获得相应的轨迹ID,则采用同样的轨迹ID在后续帧中标记其位置。若为首次出现,则为其初始化独立的轨迹ID,并利用该ID标记其位置;最后生成相应的坐标文件,并和单帧图像数据相对应,组合成为训练数据集;
c.部署通用目标检测算法。首先对于目标检测算法采用YOLOv3算法,检测出每一帧图像中的车辆。对每帧输入的图像,首先送入YOLOv3模型,输出一组向量。其中包含了所有目标的位置信息及其类别向量,对所用的COCO数据集训练的YOLOv3模型来说,类别向量
Figure BDA0003030929650000083
是一组81维向量,表示81个物体类别。
对于本专利的应用场景,只需检测车辆,故只取其中的车辆检测类别。如此输出的结果只包含了车辆在图片中的位置信息,具体为检测框的左上角坐标与宽高大小,格式如下公式:
pi=[x,y,w,h]T
d.设定新旧目标初始化和删除的规则。考虑到每一帧中新目标的出现以及旧目标删除的特殊性,故在对检测结果进行运动估计和数据关联之前,设定关于新旧目标建立和删除的规则,如下公式:
Booli=(x<20or y<20or(xmax-x)<20
Figure BDA0003030929650000081
上式为逻辑表达式,其中布尔型变量Booli取值为1表示第i个新对象被建立,取值为0表示已存在的第i个对象被删除。
Figure BDA0003030929650000082
表示第i个对象是否已存在的取反。(x<20or y<20or(xmax-x)<20or(ymax-y)<20)表示目标位置是否处于图像边缘。即当目标出现在图像边缘时,若其已经存在则代表就目标即将消失,考虑将其删除;若不存在则代表新目标的出现,对其进行初始化。
e.采用卡尔曼滤波算法实现相邻帧之间的运动估计。对于通过步骤d成功检测和初始化的目标,将采用卡尔曼滤波器对其进行运动估计。首先对卡尔曼滤波器的目标状态参数进行初始化,由于专利应用场景的特点,模型采用了匀速线性运动假设。其中估计模型的参数如下所示:
Figure BDA0003030929650000091
其中u和v分别代表目标中心在图像中的坐标,s和r分别代表目标边框占图像总面积的比例和长宽比。
Figure BDA0003030929650000092
分别代表这三个量在时间上的差分。故该状态估计的观测变量可以直接写作下式:
Observation=[u,v,s,r]T
基于上述的估计模型和观测变量,卡尔曼模型将进行迭代更新。针对车辆目标运动,引入一个离散控制过程系统。该系统可用一个随机线性微分方程来描述,使用k-1时刻的最优估计预测得到k时刻车辆的先验状态估计,表示为
Figure BDA0003030929650000093
Figure BDA0003030929650000094
上式中,xk是k时刻的n维系统状态向量,uk是k时刻对系统的一维控制向量。A是n*n维状态转移矩阵,B是系统控制矩阵。ωk表示预测过程中的噪声,假设其为高斯白噪声。
f.利用运动相似度和外观相似度实现预测值和检测之间的数据关联。当步骤e根据上一帧的状态,输出目标在当前状态的先验估计状态(以下简称预测值)之后。需要对当前帧的预测值和检测值进行匹配。匹配成功之后才能进行下一步的修正,得到当前帧目标的最优估计。
本专利采用加权方式融合运动相似度和外观相似度的方式来进行数据关联,完成对预测值和检测的匹配。其中运动相似度计算采用马哈拉诺比斯距离,外观相似度采用了余弦距离。马哈拉诺比斯距离的计算方式如下所示:
Figure BDA0003030929650000101
其中(yi,Si)表示第i条轨迹分布yi在测量空间Si上的投影,dj则表示第j个检测框结果。马哈拉诺比斯距离代表了检测结果的不确定性,即检测结果距离平均跟踪结果相差了多少个标准差,在物理上反映了物体运动的剧烈程度。因此该指标可以用作物体运动特征的度量。
当运动不确定性较低,即物体的运动程度较为平缓,马哈拉诺比斯距离的度量性能较为优秀。但是针对本专利的城市道路车辆行驶的应用场景,极易出现车辆相互遮挡的情况,此时卡尔曼滤波预测的状态分布将快速离散,马哈拉比斯距离的度量性能将大幅下降。针对于此,本专利引入目标的外观特征距离作为另一度量指标来应对此问题。
外观相似度的计算方式采用最小余弦距离,如下公式:
Figure BDA0003030929650000102
其中ri代表了通过对每个检测结果截取出的局部图像数据计算得到的外观特征描述子。关于外观特征的计算,本专利采用多层卷积神经网络,提取其深层外观特征,作为每个目标的外观特征描述子。
其中卷积神经网络的结构由两个卷积层和六个残差结构组成,最终的整体特征图通过最后的全连接层得到。同时通过标准化将外观特征投影到单位超球面上,以方便将外观特征代入到最小余弦公式的计算中。该网络结构将会利用步骤b制作的车辆训练数据集进行训练,从而提高其对车辆这一物体外观特征提取的能力。
最终对于度量目标运动程度的马哈拉比斯距离和度量目标之间外观特征相似度的最小余弦距离这两种度量指标,采用加权求和的方式对两者进行融合,如下所示:
Figure BDA0003030929650000111
ci,j代表了第i个目标检测结果与第j条轨迹之间的整体匹配相似度。其中λ代表了两种度量指标的累加权重。当目标的运动程度剧烈或者遮挡情况较多时,可以适当调小λ的取值。但是本专利主要的应用对象在城市道路上的行驶车辆,目标的运动较为规律且可见光传感器的视角较高,故λ取值为0.5;
g.再次利用卡尔曼滤波算法,实现当前帧最终跟踪结果的输出。经过步骤f完成当前帧的检测值zk和目标的先验估计状态(预测值)
Figure BDA0003030929650000112
的匹配之后,利用当前状态的检测值对先验状态估计进行修正,得到当前状态的最优估计,即后验状态估计
Figure BDA0003030929650000113
如下式:
Figure BDA0003030929650000114
其中zk是m维的测量向量,代表了k时刻的测量值。H是m*n大小观测矩阵。
Figure BDA0003030929650000115
表示测量向量与其预测量(先验估计)的差,也称为测量过程的残余,它反映了预测值与实际值之间的误差。残余为0表示预测准确。K为m*n大小矩阵,称为残余的增益,其计算方式如下式所示:
Figure BDA0003030929650000116
Figure BDA0003030929650000117
其中
Figure BDA0003030929650000118
为先验协方差,由k-1帧后验协方差预测得到。基于获得的K值,更新当前状态的后验协方差,如下式所示:
Figure BDA0003030929650000121
上式计算获得的后验协方差Pk将会送入到下一步预测中,并用于先验协方差的预测。当上一帧的预测结果和当前帧的检测结果成功的进行数据关联之后,当前帧的检测结果将用于更新当前帧的目标状态,即更新卡尔曼滤波器迭代参数,并在该状态下通过卡尔曼滤波器框架最优地求解速度分量。如果数据关联失败,则不利用检测值对卡尔曼滤波器进行更新和修正,而是简单预测其状态。这表明旧目标在新帧中没有被找到,将通过其上一帧的状态简单的线性预测当前帧的状态,直到被找到或者进入对象删除判断条件。
h.利用步骤b制作得到的关于车辆的专项训练数据集,对通用多目标跟踪算法进行关于车辆跟踪的特向训练。其中训练过程采用Adam optimizer对模型进行10个epoch的特向训练。软件采用pyTorch实现,硬件采用NVIDIA Tesla T4-16GB显卡。
i.采用步骤h训练得到特向多目标跟踪算法,对步骤a采集得到的视频数据进行跟踪,得到车辆的运动轨迹。
j.通过仿射变换完成图像空间到现实空间的映射,再根据车辆的运动轨迹对其行驶速度进行测定。事先通过测量和标定,将现实场景中,位于摄像机视角内的道路等距离分为若干区域,区域的形状近似为矩形。取区域的四个顶点,并且为其赋予坐标(x′1,y′1),(x'2,y'2),(x'3,y'3),(x'4,y'4);再通过测量和标定,找出每个区域四个顶点在图像中的像素坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4);通过仿射变换计算两者的变换参数,计算公式如下:
Figure BDA0003030929650000122
其中i∈[1,4],分别代入实现标定的四个点,求得该区域所对应的仿射变换参数a,b,c,d,e,f的值。然后重复该步骤,计算获得所有候选区域从图像空间向现实空间的仿射变换参数值;
然后对于某一区域内的车辆,逐帧分解其行驶轨迹,得到车辆在k-1帧和k帧时的图像坐标分别为(xk-1,yk-1)和(xk,yk)。通过该区域的仿射变换参数将改坐标映射到现实空间中,得到现实坐标为(x'k-1,y'k-1)和(x'k,y'k)。则车辆在k帧的行驶速度可以表示为:
Figure BDA0003030929650000131
vk=Sk*Fps
其中Sk为车辆在k-1和k帧之间,在现实空间中行驶的距离。Fps为摄像机视频的帧率。
最后重复上述操作,直至所有车辆在每一帧时的行驶速度,并在距离与时间二维坐标轴中画出其每一点的坐标,最终拟合得出车辆的行驶速度曲线。
以上显示和描述了本发明的基本原理和主要特征和本发明的优点,本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内,本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (6)

1.一种基于多目标跟踪算法的城市高架道路车辆测速方法,其特征在于,具体包括如下步骤:
步骤1)、采集待测区域的视频数据,并将其分为训练用数据和测试用数据;
步骤2)、对步骤1)采集的视频数据进行预处理,对训练用视频数据逐帧进行标记,制作标签;
步骤3)、部署通用多目标跟踪算法,并且利用步骤2)制作得到的训练数据集对初始模型进行特向训练;
步骤4)、采用步骤3)训练得到特向多目标跟踪算法,对步骤1)采集得到的视频数据进行跟踪,得到车辆的运动轨迹。
步骤5)、通过仿射变换完成图像空间到现实空间的映射,再根据车辆的运动轨迹对其行驶速度进行测定。
2.根据权利要求1所述的基于多目标跟踪算法的城市高架道路车辆测速方法,其特征在于,所述的步骤2)对步骤1)采集的视频数据进行预处理,对训练用视频数据逐帧进行标记,制作标签,具体检测步骤如下:
步骤2.1)、逐帧切分视频数据,得到单帧图像数据;
步骤2.2)、标出首帧图像中所有的车辆的位置,并且为每一个车辆初始化独立的轨迹ID;
步骤2.3)、对于在后续帧中出现的车辆,若其在先前帧中出现并已经获得相应的轨迹ID,则采用同样的轨迹ID在后续帧中标记其位置。若为首次出现,则为其初始化独立的轨迹ID,并利用该ID标记其位置;
步骤2.4)、生成相应的坐标文件,并和单帧图像数据相对应,组合成为训练数据集。
3.根据权利要求1所述的基于多目标跟踪算法的城市高架道路车辆测速方法,其特征在于,所述步骤3)部署通用多目标跟踪算法,并且利用步骤2)制作得到的训练数据集对初始模型进行特向训练,具体如下:
步骤3.1)、首先采用YOLOv3目标检测算法,检测出每一帧图像中的车辆;
步骤3.2)、部署通用多目标跟踪算法,通过相邻帧之间的运动估计和数据关联实现在多帧图像中多个目标的实时跟踪;
步骤3.3)、利用步骤2)制作得到的关于车辆的专项训练数据集,对通用多目标跟踪算法进行关于车辆跟踪的特向训练。
4.根据权利要求3所述的基于多目标跟踪算法的城市高架道路车辆测速方法,其特征在于,所述步骤3.1)采用YOLOv3目标检测算法,检测出每一帧图像中的车辆,具体如下:
步骤3.1.1)、对每帧输入的图像,首先送入YOLOv3模型,输出一组向量。其中包含了所有目标的位置信息及其类别向量,对于本方法的应用场景,只需检测车辆,故只取其中的车辆检测类别。如此输出的结果只包含了车辆在图片中的位置信息,具体为检测框的左上角坐标与宽高大小,格式如下公式:
pi=[x,y,w,h]T
步骤3.1.2)、考虑到每一帧中新目标的出现以及旧目标删除的特殊性,故在对检测结果进行运动估计和数据关联之前,设定关于新旧目标建立和删除的规则,如下公式:
Booli=(x<20 or y<20 or(xmax-x)<20
Figure FDA0003030929640000021
上式为逻辑表达式,其中布尔型变量Booli取值为1表示第i个新对象被建立,取值为0表示已存在的第i个对象被删除。
Figure FDA0003030929640000022
表示第i个对象是否已存在的取反。(x<20 or y<20or(xmax-x)<20 or(ymax-y)<20)表示目标位置是否处于图像边缘。即当目标出现在图像边缘时,若其已经存在则代表就目标即将消失,考虑将其删除;若不存在则代表新目标的出现,对其进行初始化。
5.根据权利要求3所述的基于多目标跟踪算法的城市高架道路车辆测速方法,其特征在于,所述步骤3.2)部署通用多目标跟踪算法,通过相邻帧之间的运动估计和数据关联实现在多帧图像中多个目标的实时跟踪,具体如下:
步骤3.2.1)、对于通过步骤2.1)成功检测和初始化的目标,将采用卡尔曼滤波器对其进行运动估计。首先对卡尔曼滤波器的目标状态参数进行初始化,由于专利应用场景的特点,模型采用了匀速线性运动假设。其中估计模型的参数如下所示:
Figure FDA0003030929640000031
其中u和v分别代表目标中心在图像中的坐标,s和r分别代表目标边框占图像总面积的比例和长宽比。
Figure FDA0003030929640000032
分别代表这三个量在时间上的差分。故该状态估计的观测变量可以直接写作下式:
Observation=[u,v,s,r]T
基于上述的估计模型和观测变量,卡尔曼模型将进行迭代更新。针对车辆目标运动,引入一个离散控制过程系统。该系统可用一个随机线性微分方程来描述,使用k-1时刻的最优估计预测得到k时刻车辆的先验状态估计,表示为
Figure FDA0003030929640000033
Figure FDA0003030929640000034
上式中,xk是k时刻的n维系统状态向量,uk是k时刻对系统的一维控制向量。A是n*n维状态转移矩阵,B是系统控制矩阵。ωk表示预测过程中的噪声,假设其为高斯白噪声。
步骤3.2.2)、当运动估计模型根据上一帧的状态,输出目标在当前状态的先验估计状态(以下简称预测值)之后。需要对当前帧的预测值和检测值进行匹配。匹配成功之后才能进行下一步的修正,得到当前帧目标的最优估计。
本方法采用加权方式融合运动相似度和外观相似度的方式来进行数据关联,完成对预测值和检测的匹配。其中运动相似度计算采用马哈拉诺比斯距离,外观相似度采用了余弦距离。马哈拉诺比斯距离的计算方式如下所示:
Figure FDA0003030929640000041
其中(yi,Si)表示第i条轨迹分布yi在测量空间Si上的投影,dj则表示第j个检测框结果。马哈拉诺比斯距离代表了检测结果的不确定性,即检测结果距离平均跟踪结果相差了多少个标准差,在物理上反映了物体运动的剧烈程度。因此该指标可以用作物体运动特征的度量。
外观相似度的计算方式采用最小余弦距离,如下公式:
Figure FDA0003030929640000042
其中ri代表了通过对每个检测结果截取出的局部图像数据计算得到的外观特征描述子。关于外观特征的计算,本方法采用多层卷积神经网络,提取其深层外观特征,作为每个目标的外观特征描述子。
其中卷积神经网络的结构由两个卷积层和六个残差结构组成,最终的整体特征图通过最后的全连接层得到。同时通过标准化将外观特征投影到单位超球面上,以方便将外观特征代入到最小余弦公式的计算中。该网络结构将会利用步骤2)制作的车辆训练数据集进行训练,从而提高其对车辆这一物体外观特征提取的能力。
最终对于度量目标运动程度的马哈拉比斯距离和度量目标之间外观特征相似度的最小余弦距离这两种度量指标,采用加权求和的方式对两者进行融合,如下所示:
Figure FDA0003030929640000043
ci,j代表了第i个目标检测结果与第j条轨迹之间的整体匹配相似度。其中λ代表了两种度量指标的累加权重。当目标的运动程度剧烈或遮挡情况较多时,可以适当调小λ的取值。但是本方法主要的应用对象在城市道路上的行驶车辆,目标的运动较为规律且可见光传感器的视角较高,故λ取值为0.5;
步骤3.2.3)、经过步骤3.2.2)完成当前帧的检测值zk和目标的先验估计状态(预测值)
Figure FDA0003030929640000051
的匹配之后,利用当前状态的检测值对先验状态估计进行修正,得到当前状态的最优估计,即后验状态估计
Figure FDA0003030929640000052
如下式:
Figure FDA0003030929640000053
其中zk是m维的测量向量,代表了k时刻的测量值。H是m*n大小观测矩阵。
Figure FDA0003030929640000054
表示测量向量与其预测量(先验估计)的差,也称为测量过程的残余,它反映了预测值与实际值之间的误差。残余为0表示预测准确。K为m*n大小矩阵,称为残余的增益,其计算方式如下式所示:
Figure FDA0003030929640000058
Figure FDA0003030929640000055
其中
Figure FDA0003030929640000056
为先验协方差,由k-1帧后验协方差预测得到。基于获得的K值,更新当前状态的后验协方差,如下式所示:
Figure FDA0003030929640000057
上式计算获得的后验协方差Pk将会送入到下一步预测中,并用于先验协方差的预测;当上一帧的预测结果和当前帧的检测结果成功的进行数据关联之后,当前帧的检测结果将用于更新当前帧的目标状态,即更新卡尔曼滤波器迭代参数,并在该状态下通过卡尔曼滤波器最优地求解速度分量;如果数据关联失败,则不利用检测值对卡尔曼滤波器进行更新和修正,而是简单预测其状态;这表明旧目标在新帧中没有被找到,将通过其上一帧的状态简单的线性预测当前帧的状态,直到被找到或进入对象删除判断条件。
6.根据权利要求1所述的基于多目标跟踪算法的城市高架道路车辆测速方法,其特征在于,所述步骤5)通过仿射变换完成图像空间到现实空间的映射,再根据车辆的运动轨迹对其行驶速度进行测定,具体步骤如下:
步骤5.1)、事先通过测量和标定,将现实场景中,位于摄像机视角内的道路等距离分为若干区域,区域的形状近似为矩形。取区域的四个顶点,并且为其赋予坐标(x′1,y′1),(x'2,y'2),(x'3,y'3),(x'4,y'4);
步骤5.2)、通过测量和标定,找出每个区域四个顶点在图像中的像素坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4);
步骤5.3)、通过仿射变换计算两者的变换参数,计算公式如下:
Figure FDA0003030929640000061
其中i∈[1,4],分别代入实现标定的四个点,求得该区域所对应的仿射变换参数a,b,c,d,e,f的值。然后重复该步骤,计算获得所有候选区域从图像空间向现实空间的仿射变换参数值。
步骤5.4)、对于某一区域内的车辆,逐帧分解其行驶轨迹,得到车辆在k-1帧和k帧时的图像坐标分别为(xk-1,yk-1)和(xk,yk)。通过该区域的仿射变换参数将改坐标映射到现实空间中,得到现实坐标为(x'k-1,y'k-1)和(x'k,y'k)。则车辆在k帧的行驶速度可以表示为:
Figure FDA0003030929640000062
vk=Sk*Fps
其中Sk为车辆在k-1和k帧之间,在现实空间中行驶的距离。Fps为摄像机视频的帧率。
步骤5.5)重复步骤5.4),直至所有车辆在每一帧时的行驶速度,并在距离与时间二维坐标轴中画出其每一点的坐标,最终拟合得出车辆的行驶速度曲线。
CN202110429725.2A 2021-04-21 2021-04-21 基于多目标跟踪算法的城市高架道路车辆测速方法 Active CN113092807B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110429725.2A CN113092807B (zh) 2021-04-21 2021-04-21 基于多目标跟踪算法的城市高架道路车辆测速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110429725.2A CN113092807B (zh) 2021-04-21 2021-04-21 基于多目标跟踪算法的城市高架道路车辆测速方法

Publications (2)

Publication Number Publication Date
CN113092807A true CN113092807A (zh) 2021-07-09
CN113092807B CN113092807B (zh) 2024-05-14

Family

ID=76679268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110429725.2A Active CN113092807B (zh) 2021-04-21 2021-04-21 基于多目标跟踪算法的城市高架道路车辆测速方法

Country Status (1)

Country Link
CN (1) CN113092807B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114527294A (zh) * 2022-04-24 2022-05-24 安徽科大擎天科技有限公司 一种基于单个摄像头的目标速度测量方法
CN114758504A (zh) * 2022-06-13 2022-07-15 之江实验室 一种基于滤波校正的网联车超速预警方法及系统
CN118171782A (zh) * 2024-05-13 2024-06-11 成都理工大学工程技术学院 一种汽车噪声预测方法及系统
CN118171782B (zh) * 2024-05-13 2024-07-16 成都理工大学工程技术学院 一种汽车噪声预测方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472496A (zh) * 2019-07-08 2019-11-19 长安大学 一种基于目标检测与跟踪的交通视频智能分析方法
CN110738690A (zh) * 2019-09-16 2020-01-31 南京理工大学 一种基于多目标追踪框架的无人机视频中车速校正方法
AU2020100371A4 (en) * 2020-03-12 2020-04-16 Jilin University Hierarchical multi-object tracking method based on saliency detection
KR102122859B1 (ko) * 2020-03-03 2020-06-15 (주)사라다 교통 영상감시시스템의 멀티 표적 추적 방법
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法
CN111932580A (zh) * 2020-07-03 2020-11-13 江苏大学 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统
CN112001948A (zh) * 2020-07-30 2020-11-27 浙江大华技术股份有限公司 一种目标跟踪处理方法及装置
CN112037249A (zh) * 2020-07-21 2020-12-04 贵州宽凳智云科技有限公司北京分公司 一种对摄像装置影像中物体进行跟踪的方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472496A (zh) * 2019-07-08 2019-11-19 长安大学 一种基于目标检测与跟踪的交通视频智能分析方法
CN110738690A (zh) * 2019-09-16 2020-01-31 南京理工大学 一种基于多目标追踪框架的无人机视频中车速校正方法
KR102122859B1 (ko) * 2020-03-03 2020-06-15 (주)사라다 교통 영상감시시스템의 멀티 표적 추적 방법
AU2020100371A4 (en) * 2020-03-12 2020-04-16 Jilin University Hierarchical multi-object tracking method based on saliency detection
CN111932580A (zh) * 2020-07-03 2020-11-13 江苏大学 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统
CN111914664A (zh) * 2020-07-06 2020-11-10 同济大学 基于重识别的车辆多目标检测和轨迹跟踪方法
CN112037249A (zh) * 2020-07-21 2020-12-04 贵州宽凳智云科技有限公司北京分公司 一种对摄像装置影像中物体进行跟踪的方法及装置
CN112001948A (zh) * 2020-07-30 2020-11-27 浙江大华技术股份有限公司 一种目标跟踪处理方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高新闻 等: "基于多目标跟踪的交通异常事件检测", 计算机应用研究, vol. 38, no. 06, 1 December 2020 (2020-12-01), pages 1879 - 1883 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114527294A (zh) * 2022-04-24 2022-05-24 安徽科大擎天科技有限公司 一种基于单个摄像头的目标速度测量方法
CN114758504A (zh) * 2022-06-13 2022-07-15 之江实验室 一种基于滤波校正的网联车超速预警方法及系统
CN118171782A (zh) * 2024-05-13 2024-06-11 成都理工大学工程技术学院 一种汽车噪声预测方法及系统
CN118171782B (zh) * 2024-05-13 2024-07-16 成都理工大学工程技术学院 一种汽车噪声预测方法及系统

Also Published As

Publication number Publication date
CN113092807B (zh) 2024-05-14

Similar Documents

Publication Publication Date Title
CN110097568B (zh) 一种基于时空双分支网络的视频对象检测与分割方法
US11763485B1 (en) Deep learning based robot target recognition and motion detection method, storage medium and apparatus
CN111709416B (zh) 车牌定位方法、装置、系统及存储介质
CN110599537A (zh) 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统
EP3633615A1 (en) Deep learning network and average drift-based automatic vessel tracking method and system
CN110287826B (zh) 一种基于注意力机制的视频目标检测方法
CN111046856B (zh) 基于动静态特征提取并行位姿跟踪与地图创建的方法
CN105335986A (zh) 基于特征匹配和MeanShift算法的目标跟踪方法
CN111882586B (zh) 一种面向剧场环境的多演员目标跟踪方法
CN113312973B (zh) 一种手势识别关键点特征提取方法及系统
CN113223059A (zh) 基于超分辨率特征增强的弱小空域目标检测方法
CN113516664A (zh) 一种基于语义分割动态点的视觉slam方法
Zhang et al. Monocular visual traffic surveillance: A review
CN113092807A (zh) 基于多目标跟踪算法的城市高架道路车辆测速方法
Ushani et al. Feature learning for scene flow estimation from lidar
Yu et al. Cracklab: A high-precision and efficient concrete crack segmentation and quantification network
CN114677633A (zh) 基于多部件特征融合的行人检测多目标跟踪系统及方法
CN110176022B (zh) 一种基于视频检测的隧道全景监控系统及方法
Kim et al. Automated bridge component recognition using close-range images from unmanned aerial vehicles
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation
CN113657225B (zh) 一种目标检测方法
Liu et al. Visual tracking based on dynamic coupled conditional random field model
CN110766728B (zh) 基于深度学习的组合图像特征精确匹配方法
CN112634294A (zh) 用于测量语义分割网络的边界性能的方法
CN115100565B (zh) 一种基于空间相关性与光流配准的多目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant