CN112884816A - 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 - Google Patents

一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 Download PDF

Info

Publication number
CN112884816A
CN112884816A CN202110307138.6A CN202110307138A CN112884816A CN 112884816 A CN112884816 A CN 112884816A CN 202110307138 A CN202110307138 A CN 202110307138A CN 112884816 A CN112884816 A CN 112884816A
Authority
CN
China
Prior art keywords
frame
vehicle target
vehicle
mth
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110307138.6A
Other languages
English (en)
Other versions
CN112884816B (zh
Inventor
贺宜
曹博
张青青
诸葛玥
成相璋
李珍平
贾爱玲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202110307138.6A priority Critical patent/CN112884816B/zh
Publication of CN112884816A publication Critical patent/CN112884816A/zh
Application granted granted Critical
Publication of CN112884816B publication Critical patent/CN112884816B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明提出了一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法。本发明系统用包括:道路监控摄像头、计算处理主机、显示屏。本发明方法首先对摄像头采集到的图像进行深度学习算法目标识别,得到原始图像车辆目标边框数据集,然后对原始图像进行空间投影变换,得到投影图像车辆目标边框数据集,并利用卡尔曼滤波和匈牙利算法对投影图像车辆目标进行关联,进而生成投影图像车辆目标轨迹。本发明提出了一种可地面安装的、利于卡尔曼滤波对目标运动建模的车辆跟踪方法。

Description

一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法
技术领域
本发明属于车辆检测技术领域,特别是涉及一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法。
背景技术
随着车辆识别技术的迅速发展,特别是基于图像深度学习的车辆识别技术成为主流,多目标跟踪领域也扩展了新的设计流程。通常而言,基于图像深度学习的多目标跟踪技术大致分为两步骤:首先利用目标识别算法识别提取目标信息,然后利用卡尔曼滤波和数据关联技术对视频连续帧下目标边界框进行关联匹配,从而达到目标跟踪目标的目的。然而此类流程应用场景拍摄的视频资料经常是斜视视角下的拍摄视频,这种情况下导致视频中的目标运动状态受到拍摄距离的远近而增加了目标运动速度的不确定性,同时使用卡尔曼滤波需要对目标运动状态进行建模,对于斜视视角下的目标运动状态由于其将难以评估其运动状态进而建模,发明专利CN110675431B和发明专利申请CN112098993A、CN112070807A在应用卡尔曼滤波时均未注意应用场景目标建模状态,发明专利CN110673620B、CN110706266B和发明专利申请CN112132862A利用无人机从高空视角下对目标轨迹进行跟踪,然而无人机的飞行条件有限,且不利于推广。
发明内容
为了解决上述技术问题,本发明提出一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法。
本发明系统的技术方案为一种基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,所述系统装置包括:
道路监控摄像头,用于高位采集路段车辆图像数据;
计算处理主机,用于处理摄像头采集到的视频序列图像,包括车辆识别、轨迹跟踪和轨迹生成过程;
显示投影装置,用于显示车辆图像识别结果和轨迹生成结果;
所述道路监控摄像头,安装于道路上方中间位置,摄像头拍摄视角面向道路平面,摄像头拍摄中心线与道路平面夹角为θ;
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,包括以下步骤:
步骤1:利用摄像头拍摄道路原始图像视频序列,形成原始图像序列数据集,对原始图像序列每帧图像进行图像投影变换,投影面与道路平面平行,使图像中的道路车道线平行且车辆大小同处于高空视角水平,形成投影图像序列数据集。
步骤2:引入YOLOv5深度学习网络模型,使用VOC数据集训练网络模型,识别原始图像序列中的车辆目标,得到原始图像序列车辆目标识别边框集合。将原始图像序列车辆目标识别边框集合中的车辆目标识别边框坐标进行投影变换,形成投影图像序列车辆目标识别边框集合。
步骤3:从投影图像序列车辆目标识别边框集合中的第一帧图像开始,进行一下处理过程:对前一帧车辆目标边界框应用卡尔曼滤波,得到当前帧的车辆目标估计边框集合,使用匈牙利关联算法对当前帧的车辆目标识别边框集合和车辆目标估计边框集合中的同一车辆目标进行关联匹配。直到投影图像序列结束为止;
步骤4:计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标,对不同帧中属于同一车辆目标识别边框中心进行连接,生成车辆目标轨迹,并将其转换成实际场景真实道路轨迹线。
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,包括以下步骤:
步骤1所述道路拍摄路段长度为L,路宽为W,原始视频图像序列尺寸大小为l和w,原始图像序列数据集为:
{datat(x,y),x∈[1,X],y∈[1,Y]}
其中,datat(x,y)表示原始图像序列中第t帧图像第x行第y列像素信息,X为原始图像序列中图像的行数,Y为原始图像序列中图像的列数;
所述投影后的视频图像序列尺寸大小为l*和w*,投影图像视频序列数据集为:
{datat(x*,y*),x*∈[1,X*],y*∈[1,Y*]}
其中,datat(x*,y*)表示投影图像序列中第t帧图像第x行第y列像素信息,X*为投影图像序列中图像的行数,Y*为投影图像序列中图像的列数;
步骤1所述图像坐标投影变换公式为:
Figure BDA0002987965690000031
其中,Η为可逆齐次矩阵,作用为在空间中将平面点投影到另一平面上,
所述投影后的图像序列尺寸长宽与道路尺寸长宽等比,即:
Figure BDA0002987965690000032
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,包括以下步骤:
步骤2所述训练YOLOv5识别模型使用的数据集为Pascal VOC2007数据集;
步骤2所述YOLOv5网络框架具体为yolo5l网络结构,网络输出量为车辆目标边界框左上角横坐标、左上角纵坐标、右下角横坐标、右下角纵坐标和车辆目标类型;
步骤2所述原始图像序列识别的车辆目标外接矩形边框集合为
Figure BDA0002987965690000033
其中,
Figure BDA0002987965690000034
表示原始图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,
Figure BDA0002987965690000035
表示图像序列中第t帧原始图像中第n个车辆目标外接矩形边框的左上角纵坐标;
Figure BDA0002987965690000036
表示图像序列中第t帧货运车辆图像中第n个车辆目标外接矩形边框右下角横坐标,
Figure BDA0002987965690000037
表示图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示图像序列中第t帧原始图像中第n个车辆目标的类别;
将识别到的原始图像序列的车辆目标外接矩形边框集合中车辆目标外接矩形做投影变换,投影后的车辆目标外接矩形边框坐标集合为投影图像序列的车辆目标外接矩形边框集合,即:
Figure BDA0002987965690000038
其中,
Figure BDA0002987965690000039
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,
Figure BDA00029879656900000310
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角纵坐标;
Figure BDA0002987965690000041
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框右下角横坐标,
Figure BDA0002987965690000042
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示投影图像序列中第t帧图像中第n个车辆目标的类别;
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于:
步骤3所述卡尔曼滤波处理过程依次包括:初始化车辆目标状态向量;初始化状态转移矩阵,初始化协方差矩阵,初始化观测矩阵,初始化系统噪音矩阵;根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量,得到当前帧车辆目标状态向量预测值;根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵,得到当前帧车辆目标系统误差协方差矩阵预测值;利用当前帧车辆目标系统协方差矩阵预测值更新卡尔曼系数;根据当前帧车辆目标状态向量预测值和系统观测值估计,得到当前帧车辆目标状态向量最优估计值;更新当前帧车辆目标系统误差协方差矩阵;从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合;
步骤3所述卡尔曼滤波初始化车辆目标状态向量过程中,使用车辆目标边界框中心的横坐标,边界框中心的纵坐标,边界框的面积和边界框横纵比来描述车辆目标边界框特征,并采用线性匀速模型来描述边界框的运动状态信息,即:
Figure BDA0002987965690000043
其中,
Figure BDA0002987965690000044
表示边界框的运动状态信息,u表示边界框中心的横坐标,v表示边界框中心的纵坐标,s表示边界框的面积,r表示边界框横纵比,通常为常数,
Figure BDA0002987965690000045
表示边界框中心横坐标变化率,
Figure BDA0002987965690000046
表示边界框中心的纵坐标,
Figure BDA0002987965690000047
表示边界框的面积变化率。第t-1帧第m个车辆目标边界框的运动状态信息描述为:
Figure BDA0002987965690000048
其中,
Figure BDA0002987965690000049
表示第t-1帧第m个车辆目标边界框的运动状态信息,ut-1,m表示第t-1帧第m个车辆目标边界框中心的横坐标,vt-1,m表示第t-1帧第m个车辆目标边界框中心的纵坐标,st-1,m表示第t-1帧第m个车辆目标边界框的面积,rt-1,m表示第t-1帧第m个车辆目标边界框横纵比,
Figure BDA00029879656900000410
表示第t-1帧第m个车辆目标边界框中心横坐标变化率,
Figure BDA0002987965690000051
表示第t-1帧第m个车辆目标边界框中心的纵坐标,
Figure BDA0002987965690000052
表示第t-1帧第m个车辆目标边界框的面积变化率;
第t-1帧第m个车辆目标边框中心的横坐标、纵坐标和边界框面积计算公式如下:
Figure BDA0002987965690000053
其中,
Figure BDA0002987965690000054
表示第t-1帧第m个车辆目标边框左上角横坐标,
Figure BDA0002987965690000055
表示第t-1帧第m个车辆目标边框右下角横坐标,
Figure BDA0002987965690000056
表示第t-1帧第m个车辆目标边框左上角纵坐标,
Figure BDA0002987965690000057
表示第t-1帧第m个车辆目标边框右下角纵坐标;
步骤3所述初始化状态转移矩阵中,状态转移矩阵F是对目标状态向量的运动建模,采用的匀速运动模型对应的状态转移矩阵F初始化为:
Figure BDA0002987965690000058
初始化协方差矩阵中,协方差矩阵P表示目标位置信息的不确定性,协方差矩阵为经验参数;
初始化系统噪音协方差矩阵中,由于过程噪声不可测,一般假设系统噪音协方差矩阵Q符合正态分布;
初始化观测矩阵中,观测矩阵H与可观测变量有关,其值初始化为:
Figure BDA0002987965690000061
初始化观测噪音协方差矩阵中,由于观测噪声不可测,一般假设观测噪音协方差矩阵R符合正态分布;
步骤3所述卡尔曼滤波根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量中,得到的第t帧第m个车辆目标状态向量预测值计算公式为:
Figure BDA0002987965690000062
其中,
Figure BDA0002987965690000063
表示第t-1帧第m个车辆目标状态向量最优估计值,
Figure BDA0002987965690000064
表示第t帧第m个车辆目标状态向量预测值,F为状态转移矩阵,B为控制矩阵,ut-1,m表示控制增益矩阵;
步骤3所述卡尔曼滤波根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵中,得到的第t帧第m个车辆目标系统误差协方差矩阵预测值计算公式为:
Figure BDA0002987965690000065
其中,Pt-1,m表示第t-1帧第m个车辆目标系统误差协方差矩阵,
Figure BDA0002987965690000066
表示第t帧第m个车辆目标系统误差协方差矩阵预测值,Q为过程噪音的协方差矩阵;
步骤三所述卡尔曼滤波利用当前帧系统误差协方差矩阵的预测值更新卡尔曼系数中,第t帧第m个车辆目标卡尔曼系数计算公式为:
Figure BDA0002987965690000067
其中,H为观测矩阵,R为观测噪音的协方差矩阵,Kt,m为第t帧第m个车辆目标卡尔曼系数;
步骤3所述卡尔曼滤波根据当前帧车辆目标状态向量预测值和系统观测值计算当前帧车辆目标状态向量最优估计值中,第t帧第m个车辆目标状态向量最优估计值计算公式为:
Figure BDA0002987965690000068
其中,
Figure BDA0002987965690000071
为第t帧第m个车辆目标状态向量最优估计值,zt为观测值;
步骤3所述卡尔曼滤波更新当前帧系统误差协方差矩阵中,第t帧第m个车辆目标系统误差协方差矩阵更新计算公式为:
Figure BDA0002987965690000072
其中,Pt,m为第t帧第m个车辆目标系统协方差矩阵;
步骤3所述从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合中,第t帧第m个目标状态向量最优估计值描述为:
Figure BDA0002987965690000073
其中,ut,m表示最优估计的第t帧第m个车辆目标边界框中心的横坐标的最优估计值,vt,m表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标的最优估计值,st,m表示最优估计的第t帧第m个车辆目标边界框的面积的最优估计值,rt,m表示最优估计的第t帧第m个车辆目标边界框横纵比的最优估计值,
Figure BDA0002987965690000074
表示最优估计的第t帧第m个车辆目标边界框中心横坐标变化率的最优估计值,
Figure BDA0002987965690000075
表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标变化率,
Figure BDA0002987965690000076
表示最优估计的第t帧第m个车辆目标边界框的面积变化率;
当前帧车辆目标估计边框坐标计算公式为:
Figure BDA0002987965690000077
其中,
Figure BDA0002987965690000078
表示最优估计的第t帧第m个车辆目标边框左上角横坐标,
Figure BDA0002987965690000079
表示最优估计的第t帧第m个车辆目标边框左上角纵坐标,
Figure BDA00029879656900000710
表示最优估计的第t帧第m个车辆目标边框右下角横坐标,
Figure BDA00029879656900000711
表示最优估计的第t帧第m个车辆目标边框右下角纵坐标,
因此,当前帧车辆目标估计边框集合为:
Figure BDA0002987965690000081
所述的基于图像深度学习的车辆特征识别和轨迹跟踪方法,其特征在于,步骤3所述匈牙利关联算法通过计算车辆目标边框IOU交并比进行匹配;
步骤3所述匈牙利关联算法计算车辆目标边框IOU交并比匹配为:计算当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的IOU交并比,相交面积计算公式为:
Figure BDA0002987965690000082
其中,S1表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的相交面积;
合并计算公式为:
Figure BDA0002987965690000083
其中,S2表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的合并面积;
IOU交并比计算公式为:
Figure BDA0002987965690000084
所述匈牙利关联算法车辆边框IOU交并比匹配原则为:若计算出的第t帧第m个车辆目标估计边框与第t帧第n个车辆目标边识别框的IOU交并比值最大且同属于同一车辆类别,则第t-1帧第m个车辆目标与第t帧第n个车辆目标属于同一车辆目标;
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,步骤4所述计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标为:
Figure BDA0002987965690000085
Figure BDA0002987965690000086
其中,
Figure BDA0002987965690000091
表示第t帧第n个车辆目标识别边框中心点横坐标,
Figure BDA0002987965690000092
表示第t帧第n个车辆目标识别边框中心点纵坐标;
步骤4所述对不同帧中属于同一车辆目标识别边框中心进行连接,其连接轨迹为:
Figure BDA0002987965690000093
其中,
Figure BDA0002987965690000094
表示第t帧第n个车辆目标所属车辆轨迹线上第f个中心点横坐标,
Figure BDA0002987965690000095
表示第t帧第n个车辆目标所属车辆轨迹线上第f个中心点纵坐标;
所述转换为实际场景道路真实轨迹线坐标为:
Figure BDA0002987965690000096
其中,
Figure BDA0002987965690000097
表示第t帧道路真实场景第n个车辆目标所属车辆轨迹线上第f个中心点横坐标,
Figure BDA0002987965690000098
表示第t帧道路真实场景第n个车辆目标所属车辆轨迹线上第f个中心点纵坐标;
本发明的有益之处在于利用图像的投影变换,将处于斜视视角下的视频图像变换为处于高空视角下的视频图像,从而将车辆目标的运动状态模型转换为匀速线性模型,减少了卡尔曼滤波对目标运动状态建模的复杂度,并有利于应用场景的推广。
附图说明
图1为本发明系统图;
图2为本发明系统应用场景图;
图3为本发明方法流程图;
图4为图像投影变换图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法。
所述图像系统包括:
道路监控摄像头,用于高位采集路段车辆图像数据;
计算处理主机,用于处理摄像头采集到的视频序列图像,包括车辆识别、轨迹跟踪和轨迹生成过程;
显示投影装置,用于显示车辆图像识别结果和轨迹生成结果;
所述道路监控摄像头选型为:海康威视DS-2CD1221D-I3型号摄像头;
所述计算处理主机的配置为:i7 9700k型号CPU;RTX2080型号GPU;华硕PRIMEZ390-A型号主板;DDR4 3000HZ 16G内存条两条;GW-EPS1250DA型号电源;
所述显示屏选型为:AOC22B2H型号显示屏。
如图2所示,为装置应用场景图,所述道路监控摄像头,安装于道路上方中间位置,摄像头拍摄视角面向道路平面,摄像头拍摄中心线与道路平面夹角为θ;
如图3所示,为基于图像系统的车辆特征深度学习识别轨迹跟踪方法流程图,一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法,具体包括以下步骤:
步骤1:利用摄像头拍摄道路原始图像视频序列,形成原始图像序列数据集,对原始图像序列每帧图像进行图像投影变换,投影面与道路平面平行,使图像中的道路车道线平行且车辆大小同处于高空视角水平,形成投影图像序列数据集,投影变换方法如图4所示;
步骤1所述道路拍摄路段长度为L,路宽为W,原始视频图像序列尺寸大小为l和w,原始图像序列数据集为:
{datat(x,y),x∈[1,X],y∈[1,Y]}
其中,datat(x,y)表示原始图像序列中第t帧图像第x行第y列像素信息,X为原始图像序列中图像的行数,Y为原始图像序列中图像的列数;
所述投影后的视频图像序列尺寸大小为l*和w*,投影图像视频序列数据集为:
{datat(x*,y*),x*∈[1,X*],y*∈[1,Y*]}
其中,datat(x*,y*)表示投影图像序列中第t帧图像第x行第y列像素信息,X*为投影图像序列中图像的行数,Y*为投影图像序列中图像的列数;
步骤1所述图像坐标投影变换公式为:
Figure BDA0002987965690000111
其中,Η为可逆齐次矩阵,作用为在空间中将平面点投影到另一平面上,
所述投影后的图像序列尺寸长宽与道路尺寸长宽等比,即:
Figure BDA0002987965690000112
步骤2:引入YOLOv5深度学习网络模型,使用VOC数据集训练网络模型,识别原始图像序列中的车辆目标,得到原始图像序列车辆目标识别边框集合。将原始图像序列车辆目标识别边框集合中的车辆目标识别边框坐标进行投影变换,形成投影图像序列车辆目标识别边框集合。
步骤2所述训练YOLOv5识别模型使用的数据集为Pascal VOC2007数据集,其包括9963幅图像,包括20个车辆类别;
步骤2所述YOLOv5网络框架具体为yolo5l网络结构,网络输出量为车辆目标边界框左上角横坐标、左上角纵坐标、右下角横坐标、右下角纵坐标和车辆目标类型;
步骤2所述原始图像序列识别的车辆目标外接矩形边框集合为
Figure BDA0002987965690000113
其中,
Figure BDA0002987965690000114
表示原始图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,
Figure BDA0002987965690000115
表示图像序列中第t帧原始图像中第n个车辆目标外接矩形边框的左上角纵坐标;
Figure BDA0002987965690000116
表示图像序列中第t帧货运车辆图像中第n个车辆目标外接矩形边框右下角横坐标,
Figure BDA0002987965690000117
表示图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示图像序列中第t帧原始图像中第n个车辆目标的类别;
将识别到的原始图像序列的车辆目标外接矩形边框集合中车辆目标外接矩形做投影变换,投影后的车辆目标外接矩形边框坐标集合为投影图像序列的车辆目标外接矩形边框集合,即:
Figure BDA0002987965690000121
其中,
Figure BDA0002987965690000122
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,
Figure BDA0002987965690000123
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角纵坐标;
Figure BDA0002987965690000124
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框右下角横坐标,
Figure BDA0002987965690000125
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示投影图像序列中第t帧图像中第n个车辆目标的类别;
步骤3:从投影图像序列车辆目标识别边框集合中的第一帧图像开始,进行一下处理过程:对前一帧车辆目标边界框应用卡尔曼滤波,得到当前帧的车辆目标估计边框集合,使用匈牙利关联算法对当前帧的车辆目标识别边框集合和车辆目标估计边框集合中的同一车辆目标进行关联匹配。直到投影图像序列结束为止;
步骤3所述卡尔曼滤波处理过程依次包括:初始化车辆目标状态向量;初始化状态转移矩阵,初始化协方差矩阵,初始化观测矩阵,初始化系统噪音矩阵;根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量,得到当前帧车辆目标状态向量预测值;根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵,得到当前帧车辆目标系统误差协方差矩阵预测值;利用当前帧车辆目标系统协方差矩阵预测值更新卡尔曼系数;根据当前帧车辆目标状态向量预测值和系统观测值估计,得到当前帧车辆目标状态向量最优估计值;更新当前帧车辆目标系统误差协方差矩阵;从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合;
步骤3所述卡尔曼滤波初始化车辆目标状态向量过程中,使用车辆目标边界框中心的横坐标,边界框中心的纵坐标,边界框的面积和边界框横纵比来描述车辆目标边界框特征,并采用线性匀速模型来描述边界框的运动状态信息,即:
Figure BDA0002987965690000126
其中,
Figure BDA0002987965690000127
表示边界框的运动状态信息,u表示边界框中心的横坐标,v表示边界框中心的纵坐标,s表示边界框的面积,r表示边界框横纵比,通常为常数,
Figure BDA0002987965690000131
表示边界框中心横坐标变化率,
Figure BDA0002987965690000132
表示边界框中心的纵坐标,
Figure BDA0002987965690000133
表示边界框的面积变化率。第t-1帧第m个车辆目标边界框的运动状态信息描述为:
Figure BDA0002987965690000134
其中,
Figure BDA0002987965690000135
表示第t-1帧第m个车辆目标边界框的运动状态信息,ut-1,m表示第t-1帧第m个车辆目标边界框中心的横坐标,vt-1,m表示第t-1帧第m个车辆目标边界框中心的纵坐标,st-1,m表示第t-1帧第m个车辆目标边界框的面积,rt-1,m表示第t-1帧第m个车辆目标边界框横纵比,
Figure BDA0002987965690000136
表示第t-1帧第m个车辆目标边界框中心横坐标变化率,
Figure BDA00029879656900001314
表示第t-1帧第m个车辆目标边界框中心的纵坐标,
Figure BDA0002987965690000138
表示第t-1帧第m个车辆目标边界框的面积变化率;
第t-1帧第m个车辆目标边框中心的横坐标、纵坐标和边界框面积计算公式如下:
Figure BDA0002987965690000139
其中,
Figure BDA00029879656900001310
表示第t-1帧第m个车辆目标边框左上角横坐标,
Figure BDA00029879656900001311
表示第t-1帧第m个车辆目标边框右下角横坐标,
Figure BDA00029879656900001312
表示第t-1帧第m个车辆目标边框左上角纵坐标,
Figure BDA00029879656900001313
表示第t-1帧第m个车辆目标边框右下角纵坐标;
步骤3所述初始化状态转移矩阵中,状态转移矩阵F是对目标状态向量的运动建模,采用的匀速运动模型对应的状态转移矩阵F初始化为:
Figure BDA0002987965690000141
初始化协方差矩阵中,协方差矩阵P表示目标位置信息的不确定性,协方差矩阵为经验参数;
初始化系统噪音协方差矩阵中,由于过程噪声不可测,一般假设系统噪音协方差矩阵Q符合正态分布;
初始化观测矩阵中,观测矩阵H与可观测变量有关,其值初始化为:
Figure BDA0002987965690000142
初始化观测噪音协方差矩阵中,由于观测噪声不可测,一般假设观测噪音协方差矩阵R符合正态分布;
步骤3所述卡尔曼滤波根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量中,得到的第t帧第m个车辆目标状态向量预测值计算公式为:
Figure BDA0002987965690000143
其中,
Figure BDA0002987965690000144
表示第t-1帧第m个车辆目标状态向量最优估计值,
Figure BDA0002987965690000145
表示第t帧第m个车辆目标状态向量预测值,F为状态转移矩阵,B为控制矩阵,ut-1,m表示控制增益矩阵;
步骤3所述卡尔曼滤波根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵中,得到的第t帧第m个车辆目标系统误差协方差矩阵预测值计算公式为:
Figure BDA0002987965690000146
其中,Pt-1,m表示第t-1帧第m个车辆目标系统误差协方差矩阵,
Figure BDA0002987965690000147
表示第t帧第m个车辆目标系统误差协方差矩阵预测值,Q为过程噪音的协方差矩阵;
步骤三所述卡尔曼滤波利用当前帧系统误差协方差矩阵的预测值更新卡尔曼系数中,第t帧第m个车辆目标卡尔曼系数计算公式为:
Figure BDA0002987965690000151
其中,H为观测矩阵,R为观测噪音的协方差矩阵,Kt,m为第t帧第m个车辆目标卡尔曼系数;
步骤3所述卡尔曼滤波根据当前帧车辆目标状态向量预测值和系统观测值计算当前帧车辆目标状态向量最优估计值中,第t帧第m个车辆目标状态向量最优估计值计算公式为:
Figure BDA0002987965690000152
其中,
Figure BDA0002987965690000153
为第t帧第m个车辆目标状态向量最优估计值,zt为观测值;
步骤3所述卡尔曼滤波更新当前帧系统误差协方差矩阵中,第t帧第m个车辆目标系统误差协方差矩阵更新计算公式为:
Figure BDA0002987965690000154
其中,Pt,m为第t帧第m个车辆目标系统协方差矩阵;
步骤3所述从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合中,第t帧第m个目标状态向量最优估计值描述为:
Figure BDA0002987965690000155
其中,ut,m表示最优估计的第t帧第m个车辆目标边界框中心的横坐标的最优估计值,vt,m表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标的最优估计值,st,m表示最优估计的第t帧第m个车辆目标边界框的面积的最优估计值,rt,m表示最优估计的第t帧第m个车辆目标边界框横纵比的最优估计值,
Figure BDA0002987965690000156
表示最优估计的第t帧第m个车辆目标边界框中心横坐标变化率的最优估计值,
Figure BDA0002987965690000157
表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标变化率,
Figure BDA0002987965690000158
表示最优估计的第t帧第m个车辆目标边界框的面积变化率;
当前帧车辆目标估计边框坐标计算公式为:
Figure BDA0002987965690000161
其中,
Figure BDA0002987965690000162
表示最优估计的第t帧第m个车辆目标边框左上角横坐标,
Figure BDA0002987965690000163
表示最优估计的第t帧第m个车辆目标边框左上角纵坐标,
Figure BDA0002987965690000164
表示最优估计的第t帧第m个车辆目标边框右下角横坐标,
Figure BDA0002987965690000165
表示最优估计的第t帧第m个车辆目标边框右下角纵坐标,
因此,当前帧车辆目标估计边框集合为:
Figure BDA0002987965690000166
步骤3所述匈牙利关联算法通过计算车辆目标边框IOU交并比进行匹配;
步骤3所述匈牙利关联算法计算车辆目标边框IOU交并比匹配为:计算当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的IOU交并比,相交面积计算公式为:
Figure BDA0002987965690000167
其中,S1表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的相交面积;
合并计算公式为:
Figure BDA0002987965690000168
其中,S2表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的合并面积;
IOU交并比计算公式为:
Figure BDA0002987965690000169
所述匈牙利关联算法车辆边框IOU交并比匹配原则为:若计算出的第t帧第m个车辆目标估计边框与第t帧第n个车辆目标边识别框的IOU交并比值最大且同属于同一车辆类别,则第t-1帧第m个车辆目标与第t帧第n个车辆目标属于同一车辆目标;
步骤4:计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标,对不同帧中属于同一车辆目标识别边框中心进行连接,生成车辆目标轨迹,并将其转换成实际场景真实道路轨迹线。
步骤4所述计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标为:
Figure BDA0002987965690000171
Figure BDA0002987965690000172
其中,
Figure BDA0002987965690000173
表示第t帧第n个车辆目标识别边框中心点横坐标,
Figure BDA0002987965690000174
表示第t帧第n个车辆目标识别边框中心点纵坐标;
步骤4所述对不同帧中属于同一车辆目标识别边框中心进行连接,其连接轨迹为:
Figure BDA0002987965690000175
其中,
Figure BDA0002987965690000176
表示第t帧第n个车辆目标所属车辆轨迹线上第f个中心点横坐标,
Figure BDA0002987965690000177
表示第t帧第n个车辆目标所属车辆轨迹线上第f个中心点纵坐标;
所述转换为实际场景道路真实轨迹线坐标为:
Figure BDA0002987965690000178
其中,
Figure BDA0002987965690000179
表示第t帧道路真实场景第n个车辆目标所属车辆轨迹线上第f个中心点横坐标,
Figure BDA00029879656900001710
表示第t帧道路真实场景第n个车辆目标所属车辆轨迹线上第f个中心点纵坐标。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护。

Claims (5)

1.一种基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,所述系统装置包括:
道路监控摄像头,用于高位采集路段车辆图像数据;
计算处理主机,用于处理摄像头采集到的视频序列图像,包括车辆识别、轨迹跟踪和轨迹生成过程;
显示投影装置,用于显示车辆图像识别结果和轨迹生成结果;
所述道路监控摄像头,安装于道路上方中间位置,摄像头拍摄视角面向道路平面,摄像头拍摄中心线与道路平面夹角为θ;
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,包括以下步骤:
步骤1:利用摄像头拍摄道路原始图像视频序列,形成原始图像序列数据集,对原始图像序列每帧图像进行图像投影变换,投影面与道路平面平行,使图像中的道路车道线平行且车辆大小同处于高空视角水平,形成投影图像序列数据集;
步骤2:引入YOLOv5深度学习网络模型,使用VOC数据集训练网络模型,识别原始图像序列中的车辆目标,得到原始图像序列车辆目标识别边框集合;将原始图像序列车辆目标识别边框集合中的车辆目标识别边框坐标进行投影变换,形成投影图像序列车辆目标识别边框集合;
步骤3:从投影图像序列车辆目标识别边框集合中的第一帧图像开始,进行一下处理过程:对前一帧车辆目标边界框应用卡尔曼滤波,得到当前帧的车辆目标估计边框集合,使用匈牙利关联算法对当前帧的车辆目标识别边框集合和车辆目标估计边框集合中的同一车辆目标进行关联匹配;直到投影图像序列结束为止;
步骤4:计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标,对不同帧中属于同一车辆目标识别边框中心进行连接,生成车辆目标轨迹,并将其转换成实际场景真实道路轨迹线。
2.根据权利要求1所述的基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,
步骤1所述道路拍摄路段长度为L,路宽为W,原始视频图像序列尺寸大小为l和w,原始图像序列数据集为:
{datat(x,y),x∈[1,X],y∈[1,Y]}
其中,datat(x,y)表示原始图像序列中第t帧图像第x行第y列像素信息,X为原始图像序列中图像的行数,Y为原始图像序列中图像的列数;
所述投影后的视频图像序列尺寸大小为l*和w*,投影图像视频序列数据集为:
{datat(x*,y*),x*∈[1,X*],y*∈[1,Y*]}
其中,datat(x*,y*)表示投影图像序列中第t帧图像第x行第y列像素信息,X*为投影图像序列中图像的行数,Y*为投影图像序列中图像的列数;
步骤1所述图像坐标投影变换公式为:
Figure FDA0002987965680000021
其中,Η为可逆齐次矩阵,作用为在空间中将平面点投影到另一平面上,
所述投影后的图像序列尺寸长宽与道路尺寸长宽等比,即:
Figure FDA0002987965680000022
3.根据权利要求1所述的基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,
步骤2所述训练YOLOv5识别模型使用的数据集为Pascal VOC2007数据集;
步骤2所述YOLOv5网络框架具体为yolo5l网络结构,网络输出量为车辆目标边界框左上角横坐标、左上角纵坐标、右下角横坐标、右下角纵坐标和车辆目标类型;
步骤2所述原始图像序列识别的车辆目标外接矩形边框集合为
Figure FDA0002987965680000023
其中,
Figure FDA0002987965680000024
表示原始图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,
Figure FDA0002987965680000025
表示图像序列中第t帧原始图像中第n个车辆目标外接矩形边框的左上角纵坐标;
Figure FDA0002987965680000026
表示图像序列中第t帧货运车辆图像中第n个车辆目标外接矩形边框右下角横坐标,
Figure FDA0002987965680000027
表示图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示图像序列中第t帧原始图像中第n个车辆目标的类别;
将识别到的原始图像序列的车辆目标外接矩形边框集合中车辆目标外接矩形做投影变换,投影后的车辆目标外接矩形边框坐标集合为投影图像序列的车辆目标外接矩形边框集合,即:
Figure FDA0002987965680000031
其中,
Figure FDA0002987965680000032
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,
Figure FDA0002987965680000033
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角纵坐标;
Figure FDA0002987965680000034
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框右下角横坐标,
Figure FDA0002987965680000035
表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示投影图像序列中第t帧图像中第n个车辆目标的类别。
4.根据权利要求1所述的基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,
步骤3所述卡尔曼滤波处理过程依次包括:初始化车辆目标状态向量;初始化状态转移矩阵,初始化协方差矩阵,初始化观测矩阵,初始化系统噪音矩阵;根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量,得到当前帧车辆目标状态向量预测值;根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵,得到当前帧车辆目标系统误差协方差矩阵预测值;利用当前帧车辆目标系统协方差矩阵预测值更新卡尔曼系数;根据当前帧车辆目标状态向量预测值和系统观测值估计,得到当前帧车辆目标状态向量最优估计值;更新当前帧车辆目标系统误差协方差矩阵;从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合;
步骤3所述卡尔曼滤波初始化车辆目标状态向量过程中,使用车辆目标边界框中心的横坐标,边界框中心的纵坐标,边界框的面积和边界框横纵比来描述车辆目标边界框特征,并采用线性匀速模型来描述边界框的运动状态信息,即:
Figure FDA0002987965680000036
其中,
Figure FDA0002987965680000041
表示边界框的运动状态信息,u表示边界框中心的横坐标,v表示边界框中心的纵坐标,s表示边界框的面积,r表示边界框横纵比,通常为常数,
Figure FDA0002987965680000042
表示边界框中心横坐标变化率,
Figure FDA0002987965680000043
表示边界框中心的纵坐标,
Figure FDA0002987965680000044
表示边界框的面积变化率;第t-1帧第m个车辆目标边界框的运动状态信息描述为:
Figure FDA0002987965680000045
其中,
Figure FDA0002987965680000046
表示第t-1帧第m个车辆目标边界框的运动状态信息,ut-1,m表示第t-1帧第m个车辆目标边界框中心的横坐标,vt-1,m表示第t-1帧第m个车辆目标边界框中心的纵坐标,st-1,m表示第t-1帧第m个车辆目标边界框的面积,rt-1,m表示第t-1帧第m个车辆目标边界框横纵比,
Figure FDA0002987965680000047
表示第t-1帧第m个车辆目标边界框中心横坐标变化率,
Figure FDA0002987965680000048
表示第t-1帧第m个车辆目标边界框中心的纵坐标,
Figure FDA0002987965680000049
表示第t-1帧第m个车辆目标边界框的面积变化率;
第t-1帧第m个车辆目标边框中心的横坐标、纵坐标和边界框面积计算公式如下:
Figure FDA00029879656800000410
其中,
Figure FDA00029879656800000411
表示第t-1帧第m个车辆目标边框左上角横坐标,
Figure FDA00029879656800000412
表示第t-1帧第m个车辆目标边框右下角横坐标,
Figure FDA00029879656800000413
表示第t-1帧第m个车辆目标边框左上角纵坐标,
Figure FDA00029879656800000414
表示第t-1帧第m个车辆目标边框右下角纵坐标;
步骤3所述初始化状态转移矩阵中,状态转移矩阵F是对目标状态向量的运动建模,采用的匀速运动模型对应的状态转移矩阵F初始化为:
Figure FDA0002987965680000051
初始化协方差矩阵中,协方差矩阵P表示目标位置信息的不确定性,协方差矩阵为经验参数;
初始化系统噪音协方差矩阵中,由于过程噪声不可测,一般假设系统噪音协方差矩阵Q符合正态分布;
初始化观测矩阵中,观测矩阵H与可观测变量有关,其值初始化为:
Figure FDA0002987965680000052
初始化观测噪音协方差矩阵中,由于观测噪声不可测,一般假设观测噪音协方差矩阵R符合正态分布;
步骤3所述卡尔曼滤波根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量中,得到的第t帧第m个车辆目标状态向量预测值计算公式为:
Figure FDA0002987965680000053
其中,
Figure FDA0002987965680000054
表示第t-1帧第m个车辆目标状态向量最优估计值,
Figure FDA0002987965680000055
表示第t帧第m个车辆目标状态向量预测值,F为状态转移矩阵,B为控制矩阵,ut-1,m表示控制增益矩阵;
步骤3所述卡尔曼滤波根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵中,得到的第t帧第m个车辆目标系统误差协方差矩阵预测值计算公式为:
Figure FDA0002987965680000056
其中,Pt-1,m表示第t-1帧第m个车辆目标系统误差协方差矩阵,
Figure FDA0002987965680000057
表示第t帧第m个车辆目标系统误差协方差矩阵预测值,Q为过程噪音的协方差矩阵;
步骤三所述卡尔曼滤波利用当前帧系统误差协方差矩阵的预测值更新卡尔曼系数中,第t帧第m个车辆目标卡尔曼系数计算公式为:
Figure FDA0002987965680000061
其中,H为观测矩阵,R为观测噪音的协方差矩阵,Kt,m为第t帧第m个车辆目标卡尔曼系数;
步骤3所述卡尔曼滤波根据当前帧车辆目标状态向量预测值和系统观测值计算当前帧车辆目标状态向量最优估计值中,第t帧第m个车辆目标状态向量最优估计值计算公式为:
Figure FDA0002987965680000062
其中,
Figure FDA0002987965680000063
为第t帧第m个车辆目标状态向量最优估计值,zt为观测值;
步骤3所述卡尔曼滤波更新当前帧系统误差协方差矩阵中,第t帧第m个车辆目标系统误差协方差矩阵更新计算公式为:
Figure FDA0002987965680000064
其中,Pt,m为第t帧第m个车辆目标系统协方差矩阵;
步骤3所述从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合中,第t帧第m个目标状态向量最优估计值描述为:
Figure FDA0002987965680000065
其中,ut,m表示最优估计的第t帧第m个车辆目标边界框中心的横坐标的最优估计值,vt,m表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标的最优估计值,st,m表示最优估计的第t帧第m个车辆目标边界框的面积的最优估计值,rt,m表示最优估计的第t帧第m个车辆目标边界框横纵比的最优估计值,
Figure FDA0002987965680000066
表示最优估计的第t帧第m个车辆目标边界框中心横坐标变化率的最优估计值,
Figure FDA0002987965680000067
表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标变化率,
Figure FDA0002987965680000068
表示最优估计的第t帧第m个车辆目标边界框的面积变化率;
当前帧车辆目标估计边框坐标计算公式为:
Figure FDA0002987965680000071
其中,
Figure FDA0002987965680000072
表示最优估计的第t帧第m个车辆目标边框左上角横坐标,
Figure FDA0002987965680000073
表示最优估计的第t帧第m个车辆目标边框左上角纵坐标,
Figure FDA0002987965680000074
表示最优估计的第t帧第m个车辆目标边框右下角横坐标,
Figure FDA0002987965680000075
表示最优估计的第t帧第m个车辆目标边框右下角纵坐标,
因此,当前帧车辆目标估计边框集合为:
Figure FDA0002987965680000076
所述的基于图像深度学习的车辆特征识别和轨迹跟踪方法,其特征在于,步骤3所述匈牙利关联算法通过计算车辆目标边框IOU交并比进行匹配;
步骤3所述匈牙利关联算法计算车辆目标边框IOU交并比匹配为:计算当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的IOU交并比,相交面积计算公式为:
Figure FDA0002987965680000077
其中,S1表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的相交面积;
合并计算公式为:
Figure FDA0002987965680000078
其中,S2表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的合并面积;
IOU交并比计算公式为:
Figure FDA0002987965680000081
所述匈牙利关联算法车辆边框IOU交并比匹配原则为:若计算出的第t帧第m个车辆目标估计边框与第t帧第n个车辆目标边识别框的IOU交并比值最大且同属于同一车辆类别,则第t-1帧第m个车辆目标与第t帧第n个车辆目标属于同一车辆目标。
5.根据权利要求1所述的基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,
步骤4所述计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标为:
Figure FDA0002987965680000082
Figure FDA0002987965680000083
其中,
Figure FDA0002987965680000084
表示第t帧第n个车辆目标识别边框中心点横坐标,
Figure FDA0002987965680000085
表示第t帧第n个车辆目标识别边框中心点纵坐标;
步骤4所述对不同帧中属于同一车辆目标识别边框中心进行连接,其连接轨迹为:
Figure FDA0002987965680000086
其中,
Figure FDA0002987965680000087
表示第t帧第n个车辆目标所属车辆轨迹线上第f个中心点横坐标,
Figure FDA0002987965680000088
表示第t帧第n个车辆目标所属车辆轨迹线上第f个中心点纵坐标;
所述转换为实际场景道路真实轨迹线坐标为:
Figure FDA0002987965680000089
其中,
Figure FDA00029879656800000810
表示第t帧道路真实场景第n个车辆目标所属车辆轨迹线上第f个中心点横坐标,
Figure FDA00029879656800000811
表示第t帧道路真实场景第n个车辆目标所属车辆轨迹线上第f个中心点纵坐标。
CN202110307138.6A 2021-03-23 2021-03-23 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 Active CN112884816B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110307138.6A CN112884816B (zh) 2021-03-23 2021-03-23 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110307138.6A CN112884816B (zh) 2021-03-23 2021-03-23 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法

Publications (2)

Publication Number Publication Date
CN112884816A true CN112884816A (zh) 2021-06-01
CN112884816B CN112884816B (zh) 2023-12-15

Family

ID=76041210

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110307138.6A Active CN112884816B (zh) 2021-03-23 2021-03-23 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法

Country Status (1)

Country Link
CN (1) CN112884816B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361478A (zh) * 2021-07-05 2021-09-07 上海大学 一种细胞运动过程中的形变跟踪方法及系统
CN113658449A (zh) * 2021-07-27 2021-11-16 上海交通大学 停车场车辆定位系统及方法
CN113658222A (zh) * 2021-08-02 2021-11-16 上海影谱科技有限公司 一种车辆检测跟踪方法及装置
CN114022791A (zh) * 2021-10-15 2022-02-08 武汉理工大学 一种基于高空视角识别系统的车辆轨迹运动特征识别方法
CN114549593A (zh) * 2022-02-25 2022-05-27 北京拙河科技有限公司 一种多目标多摄像头的目标追踪方法及系统
CN115661720A (zh) * 2022-11-10 2023-01-31 南京智蓝芯联信息科技有限公司 一种被遮挡车辆的目标跟踪识别方法及系统
CN116681721A (zh) * 2023-06-07 2023-09-01 东南大学 一种基于视觉的直线轨迹检测与跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919072A (zh) * 2019-02-28 2019-06-21 桂林电子科技大学 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
CN110738690A (zh) * 2019-09-16 2020-01-31 南京理工大学 一种基于多目标追踪框架的无人机视频中车速校正方法
CN111488795A (zh) * 2020-03-09 2020-08-04 天津大学 应用于无人驾驶车辆的实时行人跟踪方法
CN111932580A (zh) * 2020-07-03 2020-11-13 江苏大学 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统
CN112329569A (zh) * 2020-10-27 2021-02-05 武汉理工大学 一种基于图像深度学习系统的货运车辆状态实时识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919072A (zh) * 2019-02-28 2019-06-21 桂林电子科技大学 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
CN110738690A (zh) * 2019-09-16 2020-01-31 南京理工大学 一种基于多目标追踪框架的无人机视频中车速校正方法
CN111488795A (zh) * 2020-03-09 2020-08-04 天津大学 应用于无人驾驶车辆的实时行人跟踪方法
CN111932580A (zh) * 2020-07-03 2020-11-13 江苏大学 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统
CN112329569A (zh) * 2020-10-27 2021-02-05 武汉理工大学 一种基于图像深度学习系统的货运车辆状态实时识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
殷妍 等: "基于车道映射矩阵的多车道车辆计数系统", 计算机工程与设计 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361478A (zh) * 2021-07-05 2021-09-07 上海大学 一种细胞运动过程中的形变跟踪方法及系统
CN113361478B (zh) * 2021-07-05 2023-08-22 上海大学 一种细胞运动过程中的形变跟踪方法及系统
CN113658449A (zh) * 2021-07-27 2021-11-16 上海交通大学 停车场车辆定位系统及方法
CN113658222A (zh) * 2021-08-02 2021-11-16 上海影谱科技有限公司 一种车辆检测跟踪方法及装置
CN114022791A (zh) * 2021-10-15 2022-02-08 武汉理工大学 一种基于高空视角识别系统的车辆轨迹运动特征识别方法
CN114549593A (zh) * 2022-02-25 2022-05-27 北京拙河科技有限公司 一种多目标多摄像头的目标追踪方法及系统
CN115661720A (zh) * 2022-11-10 2023-01-31 南京智蓝芯联信息科技有限公司 一种被遮挡车辆的目标跟踪识别方法及系统
CN116681721A (zh) * 2023-06-07 2023-09-01 东南大学 一种基于视觉的直线轨迹检测与跟踪方法
CN116681721B (zh) * 2023-06-07 2023-12-29 东南大学 一种基于视觉的直线轨迹检测与跟踪方法

Also Published As

Publication number Publication date
CN112884816B (zh) 2023-12-15

Similar Documents

Publication Publication Date Title
CN112884816A (zh) 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法
EP2164041B1 (en) Tracking method and device adopting a series of observation models with different lifespans
Malik Fast vehicle detection with probabilistic feature grouping and its application to vehicle tracking
Sidla et al. Pedestrian detection and tracking for counting applications in crowded situations
CN101120382B (zh) 跟踪用相机获得的场景视频中的移动物体的方法
CN112669349B (zh) 一种客流统计方法、电子设备及存储介质
CN111932580A (zh) 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统
US20130148848A1 (en) Method and apparatus for video analytics based object counting
CN103530619A (zh) 基于rgb-d数据构成的少量训练样本的手势识别方法
CN111784746A (zh) 一种鱼眼镜头下行人多目标跟踪方法、装置及计算机系统
CN108182695B (zh) 目标跟踪模型训练方法及装置、电子设备和存储介质
CN110827320B (zh) 基于时序预测的目标跟踪方法和装置
CN107730889B (zh) 一种基于交通视频的目标车辆检索方法
CN111008994A (zh) 基于MPSoC的运动目标实时检测跟踪系统及方法
CN108510520A (zh) 一种图像处理方法、装置及ar设备
CN109242019A (zh) 一种水面光学小目标快速检测与跟踪方法
CN113850136A (zh) 基于yolov5与BCNN的车辆朝向识别方法及系统
CN111783675A (zh) 基于车辆语义感知的智慧城市视频自适应hdr控制方法
Gu et al. Local Fast R-CNN flow for object-centric event recognition in complex traffic scenes
CN101877134A (zh) 一种机场监视视频目标鲁棒跟踪方法
CN113689459A (zh) 动态环境下基于gmm结合yolo实时跟踪与建图方法
CN112232240A (zh) 一种基于优化交并比函数的道路抛洒物检测与识别方法
杜绪伟 et al. Real-time hand tracking based on YOLOv4 model and Kalman filter
CN114550219B (zh) 行人追踪方法及装置
Cheng et al. C 2-YOLO: Rotating Object Detection Network for Remote Sensing Images with Complex Backgrounds

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant