CN109064495B - 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法 - Google Patents

一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法 Download PDF

Info

Publication number
CN109064495B
CN109064495B CN201811091873.2A CN201811091873A CN109064495B CN 109064495 B CN109064495 B CN 109064495B CN 201811091873 A CN201811091873 A CN 201811091873A CN 109064495 B CN109064495 B CN 109064495B
Authority
CN
China
Prior art keywords
vehicle
detection area
frame
target
cnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811091873.2A
Other languages
English (en)
Other versions
CN109064495A (zh
Inventor
张建
张博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201811091873.2A priority Critical patent/CN109064495B/zh
Publication of CN109064495A publication Critical patent/CN109064495A/zh
Application granted granted Critical
Publication of CN109064495B publication Critical patent/CN109064495B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于Faster R‑CNN与视频技术的桥面车辆时空信息获取方法,包括基于Faster R‑CNN的目标检测、多目标跟踪、车道判断及图像标定方法。该方法仅以桥面上布置的两个监控摄像头作为输入端,结合创建的虚拟检测区来对通过车辆的参数包括车型、车长、轴数、车速、所在车道进行识别。之后利用所得参数即可以获得车辆的时空信息。本发明有效解决了传统移动目标检测方法在目标检测与分类方面稳定性与精度较低的问题,提高了跟踪方法的鲁棒性,同时在标定过程中无需中断交通,方便快捷。

Description

一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取 方法
技术领域
本发明涉及一种桥面车辆时空信息获取技术,属于桥梁监测技术领域。
背景技术
桥面车辆时空信息包含车辆的位置、速度、类型、大小、轴数等信息,它是反映桥梁受力状态与交通量的重要依据也是智慧交通的重要组成部分。因此研究人员提出了多种技术手段来获取该信息,为桥梁的维护、管理及加固提供支持。
当前获得车辆时空信息的方式主要有三种。第一种为浸入式传感方式。在这种传感方式中,通常将感应线圈、磁力计、压电电缆等传感器埋入路面铺装层之下,用来直接获得桥梁或道路的交通量、车速、轴距等参数。这种浸入式传感方式的优点是测量精度较高,稳定性强,但难以对传感器进行安装、更换及维护且可能对结构造成破坏。基于这些原因,关于桥梁的表面粘贴传感方式被广泛研究。一些研究人员通过在桥梁特定位置安装应变传感器利用弯曲应变或剪应变来反演车辆参数。这些粘贴在结构表面的传感器较浸入式传感器安装更方便,然而当多辆车同时在桥面上行驶时,车辆参数很难被精准识别。近几年来,计算机视觉技术作为一项新的手段被用来获取桥面车辆信息。通过在桥面上安装摄像机,利用多种视频技术来对桥面车辆进行识别。这种基于监控视频的非接触方式成本较低,不会对结构造成破坏,并且摄像头方便安装与维护。然而当前基于视频的识别方法存在如下缺陷:(1)常用的移动目标检测方法如帧差法、基于高斯混合模型的背景消除法、光流法等在阴影去除、部分遮挡分割与光线快速变化下的目标检测方面缺乏鲁棒性。(2)基于外形轮廓及像素个数的车型分类方法不精确。(3)由于车轴可能被其他车辆遮挡及视频清晰度有限,在实际应用中很难通过视频直接识别轴数。
发明内容
针对上述现有方法与技术存在的不足,本发明提出了一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法,该方法包括基于Faster R-CNN的目标检测方法,基于距离判断的多目标跟踪方法,车辆所在车道判断方法及基于已知长度移动标准车的图像标定方法,整体方法框架如图1所示。利用该方法可获得车辆参数如车型、车长、轴数、车速及车辆所在车道。根据得到的车辆参数,通过计算最终可得到桥面车辆的时空信息。
一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法,包括以下步骤:
S1:将车辆按车宽分为三类,分别是宽体车、中体车和窄体车,在每条车道上分别选定两辆长度已知的宽体标准车与窄体标准车,对视频监控画面进行标定;
S2:在视频监控画面中建立四边形虚拟检测区,在检测区内用直线标注车道分界线并建立对应的直线方程;
S3:建立车辆图片数据库用于训练Faster R-CNN网络,将训练后的网络用于视频的逐帧目标检测;
S4:根据基于Faster R-CNN的车辆检测结果,通过计算在四边形虚拟检测区内不同帧中边界框中心间的距离来判断跟踪目标,在跟踪的同时建立每辆车对应的信息序列,序列中的每个元素包含边界框坐标、车型、车道编号及当前帧号;
S5:在跟踪过程中利用车辆边界框左下角坐标与车道分界线所在直线的位置关系来判断车辆所在车道;
S6:当车辆离开检测区后,根据图像标定结果、车辆信息序列及虚拟检测区信息,计算得到车型、车长、轴数、车速、所在车道;
S7:根据车辆参数及检测区位置并结合车速不变假设计算获得桥面车辆的时空信息。
进一步地,步骤S1包括以下步骤:
S11:当已知长度的宽体标准车和窄体标准车在视频中行驶时,对视频间隔4帧进行采样,在各车道的每个采样帧上,以车辆左边缘的X坐标XA为参考来标定不同位置上宽体车与窄体车车宽所占像素个数NF,中体车的车宽标定结果取宽体车与窄体车的中间值;
S12:根据宽体标准车或窄体标准车已知的车辆长度以对应车辆侧面中点X坐标XC为参考来标定像素所代表的沿车道方向实际长度RL;
S13:在所有采样帧上用多项式并基于最小二乘法来拟合XA与NF的关系:
Figure GDA0003089210360000021
其中,
Figure GDA0003089210360000022
是拟合XA与NF关系的最优多项式系数向量,αK,Q是拟合XA与NF关系的候选多项式系数向量,
Figure GDA0003089210360000023
是标准车左边缘的X坐标,
Figure GDA0003089210360000024
是沿X轴标准车车宽所占像素个数,fK,Q是关于
Figure GDA0003089210360000031
和αK,Q的多项式函数,下标K为车辆类型,Q为车道号,A代表车辆左边缘,上标i是采样帧的编号;
S14:在所有采样帧上用多项式并基于最小二乘法来拟合XC与RL的关系:
Figure GDA0003089210360000032
其中,
Figure GDA0003089210360000033
是拟合XC与RL关系的最优多项式系数向量,βK,Q是拟合XC与RL关系的候选多项式系数向量,
Figure GDA0003089210360000034
是标准车侧面中点X坐标XC
Figure GDA0003089210360000035
是沿X轴标准车侧面所占像素个数,LCV,K为标准车实际长度,gK,Q是关于
Figure GDA0003089210360000036
和βK,Q的多项式函数,下标K为车辆类型,Q为车道号,C代表车辆侧面中点,上标j是采样帧的编号。
进一步地,宽体车包括重型货车、重型厢式货车、罐车、轿运车、客车,中体车包括轻型卡车、轻型厢式货车,窄体车为小型车。
进一步地,所述的四边形虚拟检测区长度可覆盖3-5个常见大型货车,宽度可覆盖单向所有车道。
进一步地,步骤S3包括以下步骤:
S31:搭建基于ZF模型的Faster R-CNN网络;Faster R-CNN(Faster Region-basedConvolutional Neural Network,基于区域生成的更快速卷积神经网络)是一个多任务网络可同时对目标进行定位与分类。它由RPN(Region Proposal Network,区域生成网络)及Fast R-CNN(Fast Region-based Convolutional Neural Network,基于区域生成的快速卷积神经网络)组成,二者共享卷积层。RPN以图像作为输入,输出一系列矩形目标框并伴随相应的得分。它采用随机梯度下降的方法进行端到端的训练,对目标进行二元分类与回归。在Fast R-CNN中,特征图通过共享卷积层被提取出来,然后将由RPN生成的候选区域映射到特征图中形成了ROIs(Regions of Interest,感兴趣区域)。这些感兴趣区域被池化为固定长度的向量,并作为后面全连接层的输入,最后进行目标分类与边界框回归。为了尽量减少检测时间,我们选择具有5层卷积层的ZF(Zeiler和Fergus)模型作为共享卷积层。
S32:建立包括重型货车、重型厢式货车、罐车、轿运车、客车、轻型卡车、轻型厢式货车、小型车的车型图片数据库,在数据库中只标注面向摄像头的车辆,并且标注边界框紧紧包裹车辆目标;数据库中的图像分为训练集与测试集。其中训练集中的图片采用水平翻转的方式用于数据增强。
S33:网络经车型数据库训练后用于目标检测,在检测时只选择中心在检测区内的目标边界框作为计算对象。采用四步交替训练方法。第一步,RPN首先由经ILSVRC(ImageNetLarge Scale Visual Recognition Challenge,大规模视觉识别挑战赛)数据库上预训练的模型进行初始化,之后采用端到端的训练方式进行训练。第二步,Fast R-CNN利用前面RPN生成的候选框进行训练,其初始化与第一步中采用的模型一致。第三步,固定Fast R-CNN训练后的卷积层对RPN再次训练。最后一步,保持卷积层固定的同时,对Fast R-CNN独有层进行微调。测试中当一个候选区关于某一类车型的概率超过阈值,则将其标记为该类,否则将其标记为背景。
进一步地,步骤S4包括以下步骤:
S41:当在检测区内检测到车辆目标时,判断在当前存储空间内是否存在车辆的信息序列;
S42:若当前存在车辆的信息序列,则对在当前帧检测区中检测到的每一个目标边界框计算其与当前存在的每一个信息序列的最后一个元素所对应的边界框的距离dI,J,其中
Figure GDA0003089210360000041
C为边界框的中点坐标,cur代表在当前帧中检测出的在检测区内的边界框,eis代表存在的信息序列最后元素所对应的边界框,I和J为边界框的编号;
S43:对于当前帧检测区内的一个目标边界框,将计算得到的距离dI,J最小值与距离阈值δ进行比较,若该距离最小值小于阈值则说明距离最小的两个边界框代表的是同一目标,并将当前帧中该目标边界框所对应的坐标、车型、车道号、当前帧号封装为一个元素加入到对应的信息序列的末尾;若没有与其距离小于阈值δ的相应目标或者在当前帧时刻不存在信息序列,则说明目标边界框所对应的车辆此刻刚进入检测区;
S44:当一信息序列超过q帧都未增加元素则说明对应的车辆已离开了检测区,q根据目标检测的灵敏度来设定,当确定车辆离开检测区后,根据完整的信息序列计算车辆参数,然后在存储空间内删除该信息序列仅保存车辆参数。
进一步地,步骤S6中计算车辆长度包括以下步骤:
S611:计算一帧中的车辆长度,
Figure GDA0003089210360000051
其中,
Figure GDA0003089210360000052
LV为车辆的长度,XA和XD分别为检测到的车辆边界框的左右边X坐标,NS是沿X轴属于车侧面的像素个数,XC是车辆侧面中点X坐标,gK,Q是关于XC
Figure GDA0003089210360000053
的多项式函数,
Figure GDA0003089210360000054
是拟合XC与RL关系的最优多项式系数向量,fK,Q是关于XA
Figure GDA0003089210360000055
的多项式函数,
Figure GDA0003089210360000056
是拟合XA与NF关系的最优多项式系数向量,下标K为车辆类型,Q为车道号;
S612:按大小对所有计算帧中的车长计算结果进行排序并排除其中占比不超过20%的最大值和占比不超过20%的最小值,将剩余结果取平均值作为最终车辆计算长度。
进一步地,步骤S6中的车辆轴数根据车型与车长反演得到。
进一步地,步骤S6中计算车速包括以下步骤:
S621:根据多目标跟踪方法识别出车辆关于检测区的进入帧及离开帧;
S622:利用RL的标定结果采用分段计算行驶距离,计算每段距离,
Figure GDA0003089210360000057
其中:上标o为分段号,上标Ent和Lea分别代表车辆关于检测区的进入帧与离开帧,NR为分段数量,
Figure GDA0003089210360000058
为第o段中线的横坐标,
Figure GDA0003089210360000059
为第o段的长度,gK,Q是关于
Figure GDA00030892103600000510
Figure GDA00030892103600000511
的多项式函数,
Figure GDA00030892103600000512
是拟合XC与RL关系的最优多项式系数向量,
Figure GDA00030892103600000513
为车辆进入帧中车辆侧面中点的X坐标,
Figure GDA00030892103600000514
为车辆离开帧中车辆侧面中点的X坐标,下标K为车辆类型,Q为车道号;
S623:将检测区内车辆行驶各分段距离相加得到车辆行驶的总距离,同时相应的车辆行驶时间可通过视频的帧率来获得,计算车速V,
Figure GDA00030892103600000515
式中:Ld为车辆在检测区中的行驶距离;Tm为相应的行驶时间,Fv为视频的帧率,Nf为车辆在检测区行驶过程中的总帧数。
进一步地,步骤S7中任意时刻的车辆位置PT根据所得车辆参数及虚拟检测区的位置,结合车速不变假设计算,
PT=(T-Tl)V+Pl (6),
其中,T为需要计算的任意时刻,Tl为车辆离开检测区的时刻,Pl为检测区的出口位置。
与现有技术相比,本发明的有益效果在于:
(1)结合ZF模型的Faster R-CNN被用于对视频中的车辆进行逐帧定位及分类,有效解决了传统移动目标检测方法在阴影去除、部分遮挡分割与光线快速变化下的目标检测方面鲁棒性较弱的问题,同时较传统的基于外形轮廓及像素个数的车型分类方法提升了精度。
(2)在多目标跟踪方法中利用生成的车辆信息序列,实现了在视频丢帧及目标漏检的情况下不丢失跟踪目标,大幅提高了跟踪方法的稳定性。
(3)基于长度已知移动标准车的图像标定方法不需要在桥面布置特殊标定物或寻找参考点。标定过程中无需中断交通,方便快捷。
(4)本发明只需两个摄像头作为输入端而不需要其他辅助传感器,安装与维护方便,成本低,适用于公路网中的大量桥梁。
附图说明
图1是本发明提出的桥面车辆时空信息获取方法框架图。
图2是本发明中虚拟检测区及车道分界线位置示意图。
图3是本发明所提出的图像标定方法示意图。
图4是本发明提出的车速计算示意图。
图5是本发明实施例中桥面摄像头安装位置示意图。
图6是本发明实施例中图像标定结果。
图7是本发明实施例中四辆车的长度计算结果。
图8是本发明实施例中四个不同时刻的车辆空间分布结果。
具体实施方式
下面结合具体实施方式对本发明作更进一步的说明。
以一座双塔斜拉索桥为例,如图5所示。其主桥长为1040米,采用双向四车道。为了监控桥面车辆,两个摄像头分别被安装在南北桥塔上,每个摄像头监测两条车道,其分辨率为1280×720像素。
1.建立数据库
车辆的图像数据库采集来自8台不同地区的监控摄像头,其中包括桥梁,公路与城市街道。车型被分为八种,包括:重型货车、重型厢式货车、罐车、轿运车、客车、轻型卡车、轻型厢式货车、小型车。开发了相应的人工标注工具对图片进行标注。在数据库中共有1694张像素为1280×720的已标注图片,其中1200张用于训练,其余的用于测试。训练图像被水平翻转用于数据增强。在标注数据时应注意以下几点:(1)为了精确定位,需要用矩形框紧紧包裹住车辆目标;(2)为了提升部分被遮挡的目标的识别精度,车辆遮挡的情况被大量加入到数据库中;(3)因为车辆的正面包含了主要特征,所以仅标注面向摄像头的车辆;(4)为了提升标注效率,在图像中忽略离摄像头很远的车辆。
2.网络搭建,测试及训练
选取具有5层卷积层的ZF模型作为共享卷积层,用在ILSVRC数据库上预训练的结果将其初始化。采用四步交替训练方法,在训练RPN中,如果某锚点区域对于一个标注边界框的交叠率是最高的或者对于任一个标注边界框的交叠率高于0.7,则该锚点区域被标记为正的(即目标)。如果一个锚点区域关于所有标注边界框的交叠率都低于0.3,则其被标记为负(即背景)。在训练Fast R-CNN中,如果一个候选区域对于一个标注边界框的交叠率高于0.5则其被标记为正。如果一个候选区域与标注边界框的最大交叠率在[0.1,0.5)之间,则其被标记为负的。因为RPN可能会生成大量重叠的候选区,因此采用了阈值为0.7的非极大值抑制方法来减少冗余。在经过非极大值抑制后,每张图中得分前2000的候选区被选出来训练Fast R-CNN,在最后一步的测试中选择得分前300的候选区。当一个感兴趣区域被Fast R-CNN中的softmax分类时,如果他关于某一类车型的概率超过0.6,则将其标记为该类,否则将其标记为背景。关于Faster R-CNN每层的参数设定如表1所示。
表1 Faster R-CNN各层参数
Figure GDA0003089210360000071
Figure GDA0003089210360000081
为了定量评估测试结果,在测试集上计算每种车型的平均精度(AP),如表2所示,八种车型的平均精度均值(mAP)为81.5%。
表2在测试集上八种车型的平均精度(AP)
Figure GDA0003089210360000082
3.建立虚拟检测区及标注车道分界线
在图像中创建四边形虚拟检测区,其长度可覆盖3-5个常见大型货车,宽度可覆盖单向所有车道。检测时只选择中心在检测区内的车辆边界框,忽略外部的边界框。为了判断车辆所在车道,对车道分界线进行标注。如图2所示,当车辆边界框的左下角坐标在车道分界线上方则判断为1车道,边界框的左下角坐标在车道分界线下方则判断为2车道。
4.图像标定
为了在视频中获得车辆的长度与速度,本发明提出一种基于已知长度移动标准车的图像标定方法。如图3所示,一辆车在X轴方向由正面及侧面所组成,其中NF和NS是属于车正面及侧面的像素个数,横坐标XA,XB,XC和XD分别对应于车辆左边缘,车辆正面与侧面分隔线,车辆侧面中线及车辆右边缘。为了计算车辆的长度及速度,需要获得的是每条车道上车辆的NS值及像素所代表的沿车道方向的实际长度。
1)车宽所占像素数的标定
为了计算车辆长度,首先需要获得NS。而一个车辆边界框的宽度由NF及NS组成,如果已知NF则会很容易得到NS的值。因此以XA为参考坐标来标定NF,即在每条车道上找到关于不同车宽的NF与XA的关系。首先将常见车辆按车宽分为三类,包括宽体车(重型货车、重型厢式货车、罐车、轿运车及客车),中体车(轻型卡车、轻型厢式货车)和窄体车(小型车)。为了在一条车道上标定NF,当标准车在视频中移动时对视频间隔4帧进行采样。当在每个采样帧中标定NF时,需要手动标记车辆对应的XA和XB并通过XB–XA来计算NF。为了在所有采样帧上用多项式并基于最小二乘法来拟合XA和NF的关系,在每个采样帧中将XA和NF成对保存。多项式的系数按公式
Figure GDA0003089210360000091
来计算。实际上只有宽体与窄体车被选为标准车,中体车在每条车道上的NF值按宽体、窄体车标定结果的中间值来计算以此来提高标定效率。
2)像素代表长度值的标定
在标定完NF后,对像素所代表的沿每条车道的真实长度进行标定。结合标准车的已知长度,位于车辆侧面中线上的像素所代表的沿车道真实长度RL以参考坐标XC来标定。RL为车辆侧面所有像素的平均代表值,它通过标准车总长度LCV除以NS而得。NS与XC分别由XD–XB与(XB+XD)/2计算而得,其中XD应被手动标记而XB已在车宽所占像素数的标定中获得。XC和RL的关系在所有采样帧上用基于最小二乘法的多项式进行拟合,类似于基于参考坐标XA来标定NF。多项式的系数按公式
Figure GDA0003089210360000092
来计算。图6展示了四条车道的标定结果。如图6中的图a、图6中的图b、图6中的图c、图6中的图d所示,对于宽体与窄体标准车,XA和NF的关系在采样帧上都表现出了明显的线性。因此在所有车道上,用基于最小二乘法的线性拟合来标定宽体与窄体车的NF。为了提高标定效率对于中体车的NF取宽体车与窄体车标定结果的平均值而不再单独对其进行标定,相关结果也展示在图中。相比于XA与NF的关系,XC与RL的关系在采样帧中展现出了非线性如图6中的图e、图6中的图f、图6中的图g、图6中的图h所示,用基于最小二乘法的三次多项式去拟合该关系。值得注意的是在同一车道中关于宽体、窄体车的RL标定结果是非常接近的,这证明了在一条车道中,同一横坐标所对应的不同车的RL近似为常数。因此在标定RL时可不分车型。
5.多目标跟踪
用已训练好的Faster R-CNN模型对视频中的车辆进行逐帧检测。当车辆进入检测区后对其进行跟踪,并且生成相应的车辆信息序列,为车辆参数的计算提供基础。在跟踪中距离阈值δ设为40像素。当车辆离开检测区后,根据相应车辆的信息序列计算车辆参数,车辆参数获得后,在存储空间删除该信息序列,只保留车辆参数。
6.车辆参数计算
利用图像标定结果,通过公式
Figure GDA0003089210360000101
逐帧对车辆长度进行计算。当一辆车离开检测区后,对其所有的车长计算结果进行排序,位于前20%和后20%的结果被排除,剩余的结果经过平均作为最终车辆计算长度。图7分别展示了4辆车每帧车长的计算结果。其中,长度计算结果围绕着真值波动,这是因为边界框不能在每一帧中都紧紧包裹目标。在排除极值并平均剩余值后,计算结果与真值之间的误差被大大减小。车辆轴数可由车长及车辆类型反演得出。而车速则通过公式
Figure GDA0003089210360000102
来计算。详细步骤如下:
1)计算车辆长度与轴数
图像标定后,当一辆车出现在检测区内,车辆的长度LV可根据相关信息序列元素中的车型、车道号及边界框坐标用公式
Figure GDA0003089210360000103
来计算。因为检测得到的边界框位置和真实目标边界框的位置在一些帧上可能会有比较明显的差别,所以当车辆在检测区行进时逐帧计算其车长。当判断车辆离开检测区后,所有的车长计算结果按大小进行排序,并排除其中20%的最大值和20%的最小值,之后将剩余结果进行平均后作为车辆长度。这种车长计算方法可以大幅降低偶然误差。
车辆的轴数可根据车长及车型来估算。根据相关规范标准和对公路上常见车型的调查,轻型卡车、轻型厢式货车、客车及小型车的轴数通常为2,其余车型的轴数与对应的车长展示在表3中。
表3四种车型的车辆长度所对应的车辆轴数
Figure GDA0003089210360000104
Figure GDA0003089210360000111
2)车速计算
根据车辆在检测区内行驶的距离和时间来计算车速。为计算车辆行驶距离,首先根据多目标跟踪方法识别出车辆在检测区中行驶的第一帧及最后一帧。利用RL的标定结果来计算行驶距离。由于行驶距离的长度通常较车长长很多,因此其距离采用分段计算的方式来提升精度。每段距离按公式
Figure GDA0003089210360000112
计算。车速根据公式
Figure GDA0003089210360000113
计算获得,计算示意图如图4所示。
3)计算车辆空间位置
在获得车速后,通过公式PT=(T-Tl)V+Pl并结合车速不变假设可估算出任意时刻沿车道的车辆位置PT
综前所述,根据本专利提出的方法可获得车辆参数及任意时刻的车辆位置,即可得到车辆在桥面上的时空信息。
7.时空分布
根据计算得到的车辆参数及空间位置,即获得了桥面车辆的时空信息。图8展示了一日内4个不同时刻的车辆空间分布情况,其直观地展示了交通密度及桥面车辆信息。
综上,根据本发明提出的方法成功实现了桥面车辆时空信息的获取,该方法拥有约每秒16帧的处理速度,接近于实时。

Claims (10)

1.一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法,其特征在于包括以下步骤:
S1:将车辆按车宽分为三类,分别是宽体车、中体车和窄体车,在每条车道上分别选定两辆长度已知的宽体标准车与窄体标准车,对视频监控画面进行标定;
S2:在视频监控画面中建立四边形虚拟检测区,在检测区内用直线标注车道分界线并建立对应的直线方程;
S3:建立车辆图片数据库用于训练Faster R-CNN网络,将训练后的网络用于视频的逐帧目标检测;
S4:根据基于Faster R-CNN的车辆检测结果,通过计算在四边形虚拟检测区内不同帧中边界框中心间的距离来判断跟踪目标,在跟踪的同时建立每辆车对应的信息序列,序列中的每个元素包含边界框坐标、车型、车道编号及当前帧号;
S5:在跟踪过程中利用车辆边界框左下角坐标与车道分界线所在直线的位置关系来判断车辆所在车道;
S6:当车辆离开检测区后,根据图像标定结果、车辆信息序列及虚拟检测区信息,计算得到车型、车长、轴数、车速、所在车道;
S7:根据车辆参数及检测区位置并结合车速不变假设计算获得桥面车辆的时空信息。
2.根据权利要求1所述的桥面车辆时空信息获取方法,其特征在于所述的步骤S1包括以下步骤:
S11:当已知长度的宽体标准车和窄体标准车在视频中行驶时,对视频间隔4帧进行采样,在各车道的每个采样帧上,以车辆左边缘的X坐标XA为参考来标定不同位置上宽体车与窄体车车宽所占像素个数NF,中体车的车宽标定结果取宽体车与窄体车的中间值;
S12:根据宽体标准车或窄体标准车已知的车辆长度以对应车辆侧面中点X坐标XC为参考来标定像素所代表的沿车道方向实际长度RL;
S13:在所有采样帧上用多项式并基于最小二乘法来拟合XA与NF的关系:
Figure FDA0001804565170000011
其中,
Figure FDA0001804565170000012
是拟合XA与NF关系的最优多项式系数向量,αK,Q是拟合XA与NF关系的候选多项式系数向量,
Figure FDA0001804565170000013
是标准车左边缘的X坐标,
Figure FDA0001804565170000014
是沿X轴标准车车宽所占像素个数,fK,Q是关于
Figure FDA0001804565170000015
和αK,Q的多项式函数,下标K为车辆类型,Q为车道号,上标i是采样帧的编号;
S14:在所有采样帧上用多项式并基于最小二乘法来拟合XC与RL的关系:
Figure FDA0001804565170000021
其中,
Figure FDA0001804565170000022
是拟合XC与RL关系的最优多项式系数向量,βK,Q是拟合XC与RL关系的候选多项式系数向量,
Figure FDA0001804565170000023
是标准车侧面中点X坐标XC
Figure FDA0001804565170000024
是沿X轴标准车侧面所占像素个数,LCV,K为标准车实际长度,gK,Q是关于
Figure FDA0001804565170000025
和βK,Q的多项式函数,下标K为车辆类型,Q为车道号,上标j是采样帧的编号。
3.根据权利要求1所述的桥面车辆时空信息获取方法,其特征在于所述的四边形虚拟检测区长度覆盖3-5个常见大型货车,宽度覆盖单向所有车道。
4.根据权利要求1或2所述的桥面车辆时空信息获取方法,其特征在于所述的宽体车包括重型货车、重型厢式货车、罐车、轿运车、客车,中体车包括轻型卡车、轻型厢式货车,窄体车为小型车。
5.根据权利要求1所述的一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法,其特征在于所述的步骤S3包括以下步骤:
S31:搭建基于ZF模型的Faster R-CNN网络;
S32:建立包括重型货车、重型厢式货车、罐车、轿运车、客车、轻型卡车、轻型厢式货车、小型车的车型图片数据库,在数据库中只标注面向摄像头的车辆,并且标注边界框紧紧包裹车辆目标;
S33:网络经车型数据库训练后用于目标检测,在检测时只选择中心在检测区内的目标边界框作为计算对象。
6.根据权利要求1所述的一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法,其特征在于所述步骤S4包括以下步骤:
S41:当在检测区内检测到车辆目标时,判断在当前存储空间内是否存在车辆的信息序列;
S42:若当前存在车辆的信息序列,则对在当前帧检测区中检测到的每一个目标边界框计算其与当前存在的每一个信息序列的最后一个元素所对应的边界框的距离dI,J,其中
Figure FDA0001804565170000026
C为边界框的中点坐标,cur代表在当前帧中检测出的在检测区内的边界框,eis代表存在的信息序列最后元素所对应的边界框,I和J为边界框的编号;
S43:对于当前帧检测区内的一个目标边界框,将计算得到的距离dI,J最小值与距离阈值δ进行比较,若该距离最小值小于阈值则说明距离最小的两个边界框代表的是同一目标,并将当前帧中该目标边界框所对应的坐标、车型、车道号、当前帧号封装为一个元素加入到对应的信息序列的末尾;若没有与其距离小于阈值δ的相应目标或者在当前帧时刻不存在信息序列,则说明该目标边界框所对应的车辆此刻刚进入检测区;
S44:当一信息序列超过q帧都未增加元素则说明对应的车辆已离开了检测区,q根据目标检测的灵敏度来设定,当确定车辆离开检测区后,根据完整的信息序列计算车辆参数,然后在存储空间内删除该信息序列仅保存车辆参数。
7.根据权利要求1所述的一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法,其特征在于所述步骤S6中计算车辆长度包括以下步骤:
S611:计算一帧中的车辆长度,
Figure FDA0001804565170000031
其中,
Figure FDA0001804565170000032
是沿X轴属于车侧面的像素个数,LV为车辆的长度,XA和XD分别为检测到的车辆边界框的左右边X坐标,XC是车辆侧面中点X坐标,gK,Q是关于XC
Figure FDA0001804565170000033
的多项式函数,
Figure FDA0001804565170000034
是拟合XC与RL关系的最优多项式系数向量,fK,Q是关于XA
Figure FDA0001804565170000035
的多项式函数,
Figure FDA0001804565170000036
是拟合XA与NF关系的最优多项式系数向量,下标K为车辆类型,Q为车道号;
S612:按大小对所有计算帧中的车长计算结果进行排序并排除其中占比不超过20%的最大值和占比不超过20%的最小值,将剩余结果取平均值作为最终车辆计算长度。
8.根据权利要求1所述的一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法,其特征在于所述步骤S6中的车辆轴数根据车型与车长反演得到。
9.根据权利要求1所述的一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法,其特征在于所述步骤S6中计算车速包括以下步骤:
S621:根据多目标跟踪方法识别出车辆关于检测区的进入帧及离开帧;
S622:利用RL的标定结果采用分段计算行驶距离,计算每段距离,
Figure FDA0001804565170000037
其中:上标o为分段号,上标Ent和Lea分别代表车辆关于检测区的进入帧与离开帧,NR为分段数量,
Figure FDA0001804565170000038
为第o段中线的横坐标,
Figure FDA0001804565170000039
为第o段的长度,gK,Q是关于
Figure FDA00018045651700000310
Figure FDA00018045651700000311
的多项式函数,
Figure FDA00018045651700000312
是拟合XC与RL关系的最优多项式系数向量,
Figure FDA00018045651700000313
为车辆进入帧中车辆侧面中点的X坐标,
Figure FDA00018045651700000314
为车辆离开帧中车辆侧面中点的X坐标,下标K为车辆类型,Q为车道号;
S623:将检测区内车辆行驶各分段距离相加得到车辆行驶的总距离,同时相应的车辆行驶时间可通过视频的帧率来获得,计算车速V,
Figure FDA0001804565170000041
式中:Ld为车辆在检测区中的行驶距离;Tm为相应的行驶时间,Fv为视频的帧率,Nf为车辆在检测区行驶过程中的总帧数。
10.根据权利要求1所述的一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法,其特征在于所述步骤S7中任意时刻的车辆位置PT根据车速及虚拟检测区的位置,结合车速不变假设计算:
PT=(T-Tl)V+Pl
其中,T为需要计算的任意时刻,Tl为车辆离开检测区的时刻,Pl为检测区的出口位置。
CN201811091873.2A 2018-09-19 2018-09-19 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法 Active CN109064495B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811091873.2A CN109064495B (zh) 2018-09-19 2018-09-19 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811091873.2A CN109064495B (zh) 2018-09-19 2018-09-19 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法

Publications (2)

Publication Number Publication Date
CN109064495A CN109064495A (zh) 2018-12-21
CN109064495B true CN109064495B (zh) 2021-09-28

Family

ID=64763061

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811091873.2A Active CN109064495B (zh) 2018-09-19 2018-09-19 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法

Country Status (1)

Country Link
CN (1) CN109064495B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110379168B (zh) * 2019-06-24 2021-09-24 东南大学 一种基于Mask R-CNN的交通车辆信息获取方法
CN110516524A (zh) * 2019-06-26 2019-11-29 东南大学 一种交通场景中基于Mask R-CNN的车辆轴数识别方法
CN110399816B (zh) * 2019-07-15 2023-04-07 广西大学 一种基于Faster R-CNN的高速列车车底异物检测方法
CN110633690B (zh) * 2019-09-24 2022-07-01 北京邮电大学 基于桥梁监控的车辆特征识别方法及系统
CN111597959B (zh) * 2020-05-12 2023-09-26 盛景智能科技(嘉兴)有限公司 行为检测方法、装置及电子设备
CN111709332B (zh) 2020-06-04 2022-04-26 浙江大学 基于稠密卷积神经网络的桥梁车辆荷载时空分布识别方法
CN111860201B (zh) * 2020-06-28 2023-07-25 中铁大桥科学研究院有限公司 图像识别与桥梁监测相结合的匝道重车识别方法及系统
CN111966857B (zh) * 2020-08-19 2023-09-29 南京英德利汽车有限公司 一种检测改装车辆的方法及检测系统
CN112289022B (zh) * 2020-09-29 2022-02-25 西安电子科技大学 基于时空背景比对的黑烟车检测判定方法及系统
CN112365741B (zh) * 2020-10-23 2021-09-28 淮阴工学院 一种基于多车道车距检测的安全预警方法及系统
CN113537283A (zh) * 2021-05-31 2021-10-22 浙江大华技术股份有限公司 目标跟踪方法及相关装置
CN113657551B (zh) * 2021-09-01 2023-10-20 陕西工业职业技术学院 一种用于分拣堆叠多目标的机器人抓取姿态任务规划方法
CN113850995B (zh) * 2021-09-14 2022-12-27 华设设计集团股份有限公司 一种基于隧道雷视数据融合的事件检测方法、装置及系统
CN114708730B (zh) * 2022-04-01 2023-06-13 广州大学 桥面车流时空分布重构随机车流虚实混合模拟方法及装置
CN116542560B (zh) * 2023-05-06 2024-01-09 哈尔滨工业大学(深圳) 一种基于多源数据融合的社区适老性评价方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903019A (zh) * 2014-04-11 2014-07-02 北京工业大学 一种多车道车辆轨迹时空图的自动生成方法
CN107578048A (zh) * 2017-08-02 2018-01-12 浙江工业大学 一种基于车型粗分类的远视场景车辆检测方法
CN108399745A (zh) * 2018-03-01 2018-08-14 北京航空航天大学合肥创新研究院 一种基于无人机的分时段城市路网状态预测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103903019A (zh) * 2014-04-11 2014-07-02 北京工业大学 一种多车道车辆轨迹时空图的自动生成方法
CN107578048A (zh) * 2017-08-02 2018-01-12 浙江工业大学 一种基于车型粗分类的远视场景车辆检测方法
CN108399745A (zh) * 2018-03-01 2018-08-14 北京航空航天大学合肥创新研究院 一种基于无人机的分时段城市路网状态预测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
时空特征提取方法研究;苗捷;《中国博士学位论文全文数据库 信息科技辑》;20170215;全文 *

Also Published As

Publication number Publication date
CN109064495A (zh) 2018-12-21

Similar Documents

Publication Publication Date Title
CN109064495B (zh) 一种基于Faster R-CNN与视频技术的桥面车辆时空信息获取方法
CN107576960B (zh) 视觉雷达时空信息融合的目标检测方法及系统
CN110298307B (zh) 一种基于深度学习的异常停车实时检测方法
CN109791598A (zh) 用于识别地面标记的图像处理方法以及地面标记检测系统
Kumar et al. A semi-automatic 2D solution for vehicle speed estimation from monocular videos
CN111787481A (zh) 一种基于5g的路车协调高精度感知方法
CN111272139B (zh) 一种基于单目视觉的车辆长度测量方法
CN110738081B (zh) 异常路况检测方法及装置
CN110826412B (zh) 高速公路能见度检测系统和方法
CN109753841B (zh) 车道线识别方法和装置
CN111027447B (zh) 一种基于深度学习的道路溢出实时检测方法
EP3364336B1 (en) A method and apparatus for estimating a range of a moving object
CN108416798A (zh) 一种基于光流的车辆距离估计方法
Wei et al. Damage inspection for road markings based on images with hierarchical semantic segmentation strategy and dynamic homography estimation
CN107506753B (zh) 一种面向动态视频监控的多车辆跟踪方法
CN105300390A (zh) 障碍物体运动轨迹的确定方法及装置
CN116631187B (zh) 一种案件现场勘查信息智能采集分析系统
CN113392817A (zh) 一种基于多列卷积神经网络的车辆密度估计的方法及装置
CN115240471B (zh) 一种基于图像采集的智慧厂区避撞预警方法和系统
Khosravi et al. Vehicle speed and dimensions estimation using on-road cameras by identifying popular vehicles
CN111353481A (zh) 基于激光点云与视频图像的道路障碍物识别方法
CN116311903A (zh) 一种基于视频分析评估道路运行指数的方法
CN114926729A (zh) 一种基于行车视频的高风险路段鉴别系统及方法
KR102161972B1 (ko) 객체 간 거리를 이용한 교통량 산출장치
CN112070839A (zh) 一种对后方车辆横纵向定位测距方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant