CN112884816A - 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 - Google Patents
一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 Download PDFInfo
- Publication number
- CN112884816A CN112884816A CN202110307138.6A CN202110307138A CN112884816A CN 112884816 A CN112884816 A CN 112884816A CN 202110307138 A CN202110307138 A CN 202110307138A CN 112884816 A CN112884816 A CN 112884816A
- Authority
- CN
- China
- Prior art keywords
- frame
- vehicle target
- vehicle
- mth
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000013135 deep learning Methods 0.000 title claims abstract description 27
- 238000004364 calculation method Methods 0.000 claims abstract description 31
- 238000001914 filtration Methods 0.000 claims abstract description 30
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 14
- 230000009466 transformation Effects 0.000 claims abstract description 14
- 239000011159 matrix material Substances 0.000 claims description 111
- 239000000126 substance Substances 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 15
- 230000007704 transition Effects 0.000 claims description 15
- 238000012544 monitoring process Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000002441 reversible effect Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明提出了一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法。本发明系统用包括:道路监控摄像头、计算处理主机、显示屏。本发明方法首先对摄像头采集到的图像进行深度学习算法目标识别,得到原始图像车辆目标边框数据集,然后对原始图像进行空间投影变换,得到投影图像车辆目标边框数据集,并利用卡尔曼滤波和匈牙利算法对投影图像车辆目标进行关联,进而生成投影图像车辆目标轨迹。本发明提出了一种可地面安装的、利于卡尔曼滤波对目标运动建模的车辆跟踪方法。
Description
技术领域
本发明属于车辆检测技术领域,特别是涉及一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法。
背景技术
随着车辆识别技术的迅速发展,特别是基于图像深度学习的车辆识别技术成为主流,多目标跟踪领域也扩展了新的设计流程。通常而言,基于图像深度学习的多目标跟踪技术大致分为两步骤:首先利用目标识别算法识别提取目标信息,然后利用卡尔曼滤波和数据关联技术对视频连续帧下目标边界框进行关联匹配,从而达到目标跟踪目标的目的。然而此类流程应用场景拍摄的视频资料经常是斜视视角下的拍摄视频,这种情况下导致视频中的目标运动状态受到拍摄距离的远近而增加了目标运动速度的不确定性,同时使用卡尔曼滤波需要对目标运动状态进行建模,对于斜视视角下的目标运动状态由于其将难以评估其运动状态进而建模,发明专利CN110675431B和发明专利申请CN112098993A、CN112070807A在应用卡尔曼滤波时均未注意应用场景目标建模状态,发明专利CN110673620B、CN110706266B和发明专利申请CN112132862A利用无人机从高空视角下对目标轨迹进行跟踪,然而无人机的飞行条件有限,且不利于推广。
发明内容
为了解决上述技术问题,本发明提出一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法。
本发明系统的技术方案为一种基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,所述系统装置包括:
道路监控摄像头,用于高位采集路段车辆图像数据;
计算处理主机,用于处理摄像头采集到的视频序列图像,包括车辆识别、轨迹跟踪和轨迹生成过程;
显示投影装置,用于显示车辆图像识别结果和轨迹生成结果;
所述道路监控摄像头,安装于道路上方中间位置,摄像头拍摄视角面向道路平面,摄像头拍摄中心线与道路平面夹角为θ;
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,包括以下步骤:
步骤1:利用摄像头拍摄道路原始图像视频序列,形成原始图像序列数据集,对原始图像序列每帧图像进行图像投影变换,投影面与道路平面平行,使图像中的道路车道线平行且车辆大小同处于高空视角水平,形成投影图像序列数据集。
步骤2:引入YOLOv5深度学习网络模型,使用VOC数据集训练网络模型,识别原始图像序列中的车辆目标,得到原始图像序列车辆目标识别边框集合。将原始图像序列车辆目标识别边框集合中的车辆目标识别边框坐标进行投影变换,形成投影图像序列车辆目标识别边框集合。
步骤3:从投影图像序列车辆目标识别边框集合中的第一帧图像开始,进行一下处理过程:对前一帧车辆目标边界框应用卡尔曼滤波,得到当前帧的车辆目标估计边框集合,使用匈牙利关联算法对当前帧的车辆目标识别边框集合和车辆目标估计边框集合中的同一车辆目标进行关联匹配。直到投影图像序列结束为止;
步骤4:计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标,对不同帧中属于同一车辆目标识别边框中心进行连接,生成车辆目标轨迹,并将其转换成实际场景真实道路轨迹线。
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,包括以下步骤:
步骤1所述道路拍摄路段长度为L,路宽为W,原始视频图像序列尺寸大小为l和w,原始图像序列数据集为:
{datat(x,y),x∈[1,X],y∈[1,Y]}
其中,datat(x,y)表示原始图像序列中第t帧图像第x行第y列像素信息,X为原始图像序列中图像的行数,Y为原始图像序列中图像的列数;
所述投影后的视频图像序列尺寸大小为l*和w*,投影图像视频序列数据集为:
{datat(x*,y*),x*∈[1,X*],y*∈[1,Y*]}
其中,datat(x*,y*)表示投影图像序列中第t帧图像第x行第y列像素信息,X*为投影图像序列中图像的行数,Y*为投影图像序列中图像的列数;
步骤1所述图像坐标投影变换公式为:
其中,Η为可逆齐次矩阵,作用为在空间中将平面点投影到另一平面上,
所述投影后的图像序列尺寸长宽与道路尺寸长宽等比,即:
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,包括以下步骤:
步骤2所述训练YOLOv5识别模型使用的数据集为Pascal VOC2007数据集;
步骤2所述YOLOv5网络框架具体为yolo5l网络结构,网络输出量为车辆目标边界框左上角横坐标、左上角纵坐标、右下角横坐标、右下角纵坐标和车辆目标类型;
步骤2所述原始图像序列识别的车辆目标外接矩形边框集合为
其中,表示原始图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,表示图像序列中第t帧原始图像中第n个车辆目标外接矩形边框的左上角纵坐标;表示图像序列中第t帧货运车辆图像中第n个车辆目标外接矩形边框右下角横坐标,表示图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示图像序列中第t帧原始图像中第n个车辆目标的类别;
将识别到的原始图像序列的车辆目标外接矩形边框集合中车辆目标外接矩形做投影变换,投影后的车辆目标外接矩形边框坐标集合为投影图像序列的车辆目标外接矩形边框集合,即:
其中,表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角纵坐标;表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框右下角横坐标,表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示投影图像序列中第t帧图像中第n个车辆目标的类别;
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于:
步骤3所述卡尔曼滤波处理过程依次包括:初始化车辆目标状态向量;初始化状态转移矩阵,初始化协方差矩阵,初始化观测矩阵,初始化系统噪音矩阵;根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量,得到当前帧车辆目标状态向量预测值;根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵,得到当前帧车辆目标系统误差协方差矩阵预测值;利用当前帧车辆目标系统协方差矩阵预测值更新卡尔曼系数;根据当前帧车辆目标状态向量预测值和系统观测值估计,得到当前帧车辆目标状态向量最优估计值;更新当前帧车辆目标系统误差协方差矩阵;从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合;
步骤3所述卡尔曼滤波初始化车辆目标状态向量过程中,使用车辆目标边界框中心的横坐标,边界框中心的纵坐标,边界框的面积和边界框横纵比来描述车辆目标边界框特征,并采用线性匀速模型来描述边界框的运动状态信息,即:
其中,表示边界框的运动状态信息,u表示边界框中心的横坐标,v表示边界框中心的纵坐标,s表示边界框的面积,r表示边界框横纵比,通常为常数,表示边界框中心横坐标变化率,表示边界框中心的纵坐标,表示边界框的面积变化率。第t-1帧第m个车辆目标边界框的运动状态信息描述为:
其中,表示第t-1帧第m个车辆目标边界框的运动状态信息,ut-1,m表示第t-1帧第m个车辆目标边界框中心的横坐标,vt-1,m表示第t-1帧第m个车辆目标边界框中心的纵坐标,st-1,m表示第t-1帧第m个车辆目标边界框的面积,rt-1,m表示第t-1帧第m个车辆目标边界框横纵比,表示第t-1帧第m个车辆目标边界框中心横坐标变化率,表示第t-1帧第m个车辆目标边界框中心的纵坐标,表示第t-1帧第m个车辆目标边界框的面积变化率;
第t-1帧第m个车辆目标边框中心的横坐标、纵坐标和边界框面积计算公式如下:
步骤3所述初始化状态转移矩阵中,状态转移矩阵F是对目标状态向量的运动建模,采用的匀速运动模型对应的状态转移矩阵F初始化为:
初始化协方差矩阵中,协方差矩阵P表示目标位置信息的不确定性,协方差矩阵为经验参数;
初始化系统噪音协方差矩阵中,由于过程噪声不可测,一般假设系统噪音协方差矩阵Q符合正态分布;
初始化观测矩阵中,观测矩阵H与可观测变量有关,其值初始化为:
初始化观测噪音协方差矩阵中,由于观测噪声不可测,一般假设观测噪音协方差矩阵R符合正态分布;
步骤3所述卡尔曼滤波根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量中,得到的第t帧第m个车辆目标状态向量预测值计算公式为:
步骤3所述卡尔曼滤波根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵中,得到的第t帧第m个车辆目标系统误差协方差矩阵预测值计算公式为:
步骤三所述卡尔曼滤波利用当前帧系统误差协方差矩阵的预测值更新卡尔曼系数中,第t帧第m个车辆目标卡尔曼系数计算公式为:
其中,H为观测矩阵,R为观测噪音的协方差矩阵,Kt,m为第t帧第m个车辆目标卡尔曼系数;
步骤3所述卡尔曼滤波根据当前帧车辆目标状态向量预测值和系统观测值计算当前帧车辆目标状态向量最优估计值中,第t帧第m个车辆目标状态向量最优估计值计算公式为:
步骤3所述卡尔曼滤波更新当前帧系统误差协方差矩阵中,第t帧第m个车辆目标系统误差协方差矩阵更新计算公式为:
其中,Pt,m为第t帧第m个车辆目标系统协方差矩阵;
步骤3所述从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合中,第t帧第m个目标状态向量最优估计值描述为:
其中,ut,m表示最优估计的第t帧第m个车辆目标边界框中心的横坐标的最优估计值,vt,m表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标的最优估计值,st,m表示最优估计的第t帧第m个车辆目标边界框的面积的最优估计值,rt,m表示最优估计的第t帧第m个车辆目标边界框横纵比的最优估计值,表示最优估计的第t帧第m个车辆目标边界框中心横坐标变化率的最优估计值,表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标变化率,表示最优估计的第t帧第m个车辆目标边界框的面积变化率;
当前帧车辆目标估计边框坐标计算公式为:
其中,表示最优估计的第t帧第m个车辆目标边框左上角横坐标,表示最优估计的第t帧第m个车辆目标边框左上角纵坐标,表示最优估计的第t帧第m个车辆目标边框右下角横坐标,表示最优估计的第t帧第m个车辆目标边框右下角纵坐标,
因此,当前帧车辆目标估计边框集合为:
所述的基于图像深度学习的车辆特征识别和轨迹跟踪方法,其特征在于,步骤3所述匈牙利关联算法通过计算车辆目标边框IOU交并比进行匹配;
步骤3所述匈牙利关联算法计算车辆目标边框IOU交并比匹配为:计算当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的IOU交并比,相交面积计算公式为:
其中,S1表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的相交面积;
合并计算公式为:
其中,S2表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的合并面积;
IOU交并比计算公式为:
所述匈牙利关联算法车辆边框IOU交并比匹配原则为:若计算出的第t帧第m个车辆目标估计边框与第t帧第n个车辆目标边识别框的IOU交并比值最大且同属于同一车辆类别,则第t-1帧第m个车辆目标与第t帧第n个车辆目标属于同一车辆目标;
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,步骤4所述计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标为:
步骤4所述对不同帧中属于同一车辆目标识别边框中心进行连接,其连接轨迹为:
所述转换为实际场景道路真实轨迹线坐标为:
本发明的有益之处在于利用图像的投影变换,将处于斜视视角下的视频图像变换为处于高空视角下的视频图像,从而将车辆目标的运动状态模型转换为匀速线性模型,减少了卡尔曼滤波对目标运动状态建模的复杂度,并有利于应用场景的推广。
附图说明
图1为本发明系统图;
图2为本发明系统应用场景图;
图3为本发明方法流程图;
图4为图像投影变换图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法。
所述图像系统包括:
道路监控摄像头,用于高位采集路段车辆图像数据;
计算处理主机,用于处理摄像头采集到的视频序列图像,包括车辆识别、轨迹跟踪和轨迹生成过程;
显示投影装置,用于显示车辆图像识别结果和轨迹生成结果;
所述道路监控摄像头选型为:海康威视DS-2CD1221D-I3型号摄像头;
所述计算处理主机的配置为:i7 9700k型号CPU;RTX2080型号GPU;华硕PRIMEZ390-A型号主板;DDR4 3000HZ 16G内存条两条;GW-EPS1250DA型号电源;
所述显示屏选型为:AOC22B2H型号显示屏。
如图2所示,为装置应用场景图,所述道路监控摄像头,安装于道路上方中间位置,摄像头拍摄视角面向道路平面,摄像头拍摄中心线与道路平面夹角为θ;
如图3所示,为基于图像系统的车辆特征深度学习识别轨迹跟踪方法流程图,一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法,具体包括以下步骤:
步骤1:利用摄像头拍摄道路原始图像视频序列,形成原始图像序列数据集,对原始图像序列每帧图像进行图像投影变换,投影面与道路平面平行,使图像中的道路车道线平行且车辆大小同处于高空视角水平,形成投影图像序列数据集,投影变换方法如图4所示;
步骤1所述道路拍摄路段长度为L,路宽为W,原始视频图像序列尺寸大小为l和w,原始图像序列数据集为:
{datat(x,y),x∈[1,X],y∈[1,Y]}
其中,datat(x,y)表示原始图像序列中第t帧图像第x行第y列像素信息,X为原始图像序列中图像的行数,Y为原始图像序列中图像的列数;
所述投影后的视频图像序列尺寸大小为l*和w*,投影图像视频序列数据集为:
{datat(x*,y*),x*∈[1,X*],y*∈[1,Y*]}
其中,datat(x*,y*)表示投影图像序列中第t帧图像第x行第y列像素信息,X*为投影图像序列中图像的行数,Y*为投影图像序列中图像的列数;
步骤1所述图像坐标投影变换公式为:
其中,Η为可逆齐次矩阵,作用为在空间中将平面点投影到另一平面上,
所述投影后的图像序列尺寸长宽与道路尺寸长宽等比,即:
步骤2:引入YOLOv5深度学习网络模型,使用VOC数据集训练网络模型,识别原始图像序列中的车辆目标,得到原始图像序列车辆目标识别边框集合。将原始图像序列车辆目标识别边框集合中的车辆目标识别边框坐标进行投影变换,形成投影图像序列车辆目标识别边框集合。
步骤2所述训练YOLOv5识别模型使用的数据集为Pascal VOC2007数据集,其包括9963幅图像,包括20个车辆类别;
步骤2所述YOLOv5网络框架具体为yolo5l网络结构,网络输出量为车辆目标边界框左上角横坐标、左上角纵坐标、右下角横坐标、右下角纵坐标和车辆目标类型;
步骤2所述原始图像序列识别的车辆目标外接矩形边框集合为
其中,表示原始图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,表示图像序列中第t帧原始图像中第n个车辆目标外接矩形边框的左上角纵坐标;表示图像序列中第t帧货运车辆图像中第n个车辆目标外接矩形边框右下角横坐标,表示图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示图像序列中第t帧原始图像中第n个车辆目标的类别;
将识别到的原始图像序列的车辆目标外接矩形边框集合中车辆目标外接矩形做投影变换,投影后的车辆目标外接矩形边框坐标集合为投影图像序列的车辆目标外接矩形边框集合,即:
其中,表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角纵坐标;表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框右下角横坐标,表示投影图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示投影图像序列中第t帧图像中第n个车辆目标的类别;
步骤3:从投影图像序列车辆目标识别边框集合中的第一帧图像开始,进行一下处理过程:对前一帧车辆目标边界框应用卡尔曼滤波,得到当前帧的车辆目标估计边框集合,使用匈牙利关联算法对当前帧的车辆目标识别边框集合和车辆目标估计边框集合中的同一车辆目标进行关联匹配。直到投影图像序列结束为止;
步骤3所述卡尔曼滤波处理过程依次包括:初始化车辆目标状态向量;初始化状态转移矩阵,初始化协方差矩阵,初始化观测矩阵,初始化系统噪音矩阵;根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量,得到当前帧车辆目标状态向量预测值;根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵,得到当前帧车辆目标系统误差协方差矩阵预测值;利用当前帧车辆目标系统协方差矩阵预测值更新卡尔曼系数;根据当前帧车辆目标状态向量预测值和系统观测值估计,得到当前帧车辆目标状态向量最优估计值;更新当前帧车辆目标系统误差协方差矩阵;从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合;
步骤3所述卡尔曼滤波初始化车辆目标状态向量过程中,使用车辆目标边界框中心的横坐标,边界框中心的纵坐标,边界框的面积和边界框横纵比来描述车辆目标边界框特征,并采用线性匀速模型来描述边界框的运动状态信息,即:
其中,表示边界框的运动状态信息,u表示边界框中心的横坐标,v表示边界框中心的纵坐标,s表示边界框的面积,r表示边界框横纵比,通常为常数,表示边界框中心横坐标变化率,表示边界框中心的纵坐标,表示边界框的面积变化率。第t-1帧第m个车辆目标边界框的运动状态信息描述为:
其中,表示第t-1帧第m个车辆目标边界框的运动状态信息,ut-1,m表示第t-1帧第m个车辆目标边界框中心的横坐标,vt-1,m表示第t-1帧第m个车辆目标边界框中心的纵坐标,st-1,m表示第t-1帧第m个车辆目标边界框的面积,rt-1,m表示第t-1帧第m个车辆目标边界框横纵比,表示第t-1帧第m个车辆目标边界框中心横坐标变化率,表示第t-1帧第m个车辆目标边界框中心的纵坐标,表示第t-1帧第m个车辆目标边界框的面积变化率;
第t-1帧第m个车辆目标边框中心的横坐标、纵坐标和边界框面积计算公式如下:
步骤3所述初始化状态转移矩阵中,状态转移矩阵F是对目标状态向量的运动建模,采用的匀速运动模型对应的状态转移矩阵F初始化为:
初始化协方差矩阵中,协方差矩阵P表示目标位置信息的不确定性,协方差矩阵为经验参数;
初始化系统噪音协方差矩阵中,由于过程噪声不可测,一般假设系统噪音协方差矩阵Q符合正态分布;
初始化观测矩阵中,观测矩阵H与可观测变量有关,其值初始化为:
初始化观测噪音协方差矩阵中,由于观测噪声不可测,一般假设观测噪音协方差矩阵R符合正态分布;
步骤3所述卡尔曼滤波根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量中,得到的第t帧第m个车辆目标状态向量预测值计算公式为:
步骤3所述卡尔曼滤波根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵中,得到的第t帧第m个车辆目标系统误差协方差矩阵预测值计算公式为:
步骤三所述卡尔曼滤波利用当前帧系统误差协方差矩阵的预测值更新卡尔曼系数中,第t帧第m个车辆目标卡尔曼系数计算公式为:
其中,H为观测矩阵,R为观测噪音的协方差矩阵,Kt,m为第t帧第m个车辆目标卡尔曼系数;
步骤3所述卡尔曼滤波根据当前帧车辆目标状态向量预测值和系统观测值计算当前帧车辆目标状态向量最优估计值中,第t帧第m个车辆目标状态向量最优估计值计算公式为:
步骤3所述卡尔曼滤波更新当前帧系统误差协方差矩阵中,第t帧第m个车辆目标系统误差协方差矩阵更新计算公式为:
其中,Pt,m为第t帧第m个车辆目标系统协方差矩阵;
步骤3所述从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合中,第t帧第m个目标状态向量最优估计值描述为:
其中,ut,m表示最优估计的第t帧第m个车辆目标边界框中心的横坐标的最优估计值,vt,m表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标的最优估计值,st,m表示最优估计的第t帧第m个车辆目标边界框的面积的最优估计值,rt,m表示最优估计的第t帧第m个车辆目标边界框横纵比的最优估计值,表示最优估计的第t帧第m个车辆目标边界框中心横坐标变化率的最优估计值,表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标变化率,表示最优估计的第t帧第m个车辆目标边界框的面积变化率;
当前帧车辆目标估计边框坐标计算公式为:
其中,表示最优估计的第t帧第m个车辆目标边框左上角横坐标,表示最优估计的第t帧第m个车辆目标边框左上角纵坐标,表示最优估计的第t帧第m个车辆目标边框右下角横坐标,表示最优估计的第t帧第m个车辆目标边框右下角纵坐标,
因此,当前帧车辆目标估计边框集合为:
步骤3所述匈牙利关联算法通过计算车辆目标边框IOU交并比进行匹配;
步骤3所述匈牙利关联算法计算车辆目标边框IOU交并比匹配为:计算当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的IOU交并比,相交面积计算公式为:
其中,S1表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的相交面积;
合并计算公式为:
其中,S2表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的合并面积;
IOU交并比计算公式为:
所述匈牙利关联算法车辆边框IOU交并比匹配原则为:若计算出的第t帧第m个车辆目标估计边框与第t帧第n个车辆目标边识别框的IOU交并比值最大且同属于同一车辆类别,则第t-1帧第m个车辆目标与第t帧第n个车辆目标属于同一车辆目标;
步骤4:计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标,对不同帧中属于同一车辆目标识别边框中心进行连接,生成车辆目标轨迹,并将其转换成实际场景真实道路轨迹线。
步骤4所述计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标为:
步骤4所述对不同帧中属于同一车辆目标识别边框中心进行连接,其连接轨迹为:
所述转换为实际场景道路真实轨迹线坐标为:
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护。
Claims (5)
1.一种基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,所述系统装置包括:
道路监控摄像头,用于高位采集路段车辆图像数据;
计算处理主机,用于处理摄像头采集到的视频序列图像,包括车辆识别、轨迹跟踪和轨迹生成过程;
显示投影装置,用于显示车辆图像识别结果和轨迹生成结果;
所述道路监控摄像头,安装于道路上方中间位置,摄像头拍摄视角面向道路平面,摄像头拍摄中心线与道路平面夹角为θ;
所述的基于图像系统的车辆特征深度学习识别轨迹跟踪方法,其特征在于,包括以下步骤:
步骤1:利用摄像头拍摄道路原始图像视频序列,形成原始图像序列数据集,对原始图像序列每帧图像进行图像投影变换,投影面与道路平面平行,使图像中的道路车道线平行且车辆大小同处于高空视角水平,形成投影图像序列数据集;
步骤2:引入YOLOv5深度学习网络模型,使用VOC数据集训练网络模型,识别原始图像序列中的车辆目标,得到原始图像序列车辆目标识别边框集合;将原始图像序列车辆目标识别边框集合中的车辆目标识别边框坐标进行投影变换,形成投影图像序列车辆目标识别边框集合;
步骤3:从投影图像序列车辆目标识别边框集合中的第一帧图像开始,进行一下处理过程:对前一帧车辆目标边界框应用卡尔曼滤波,得到当前帧的车辆目标估计边框集合,使用匈牙利关联算法对当前帧的车辆目标识别边框集合和车辆目标估计边框集合中的同一车辆目标进行关联匹配;直到投影图像序列结束为止;
步骤4:计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标,对不同帧中属于同一车辆目标识别边框中心进行连接,生成车辆目标轨迹,并将其转换成实际场景真实道路轨迹线。
2.根据权利要求1所述的基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,
步骤1所述道路拍摄路段长度为L,路宽为W,原始视频图像序列尺寸大小为l和w,原始图像序列数据集为:
{datat(x,y),x∈[1,X],y∈[1,Y]}
其中,datat(x,y)表示原始图像序列中第t帧图像第x行第y列像素信息,X为原始图像序列中图像的行数,Y为原始图像序列中图像的列数;
所述投影后的视频图像序列尺寸大小为l*和w*,投影图像视频序列数据集为:
{datat(x*,y*),x*∈[1,X*],y*∈[1,Y*]}
其中,datat(x*,y*)表示投影图像序列中第t帧图像第x行第y列像素信息,X*为投影图像序列中图像的行数,Y*为投影图像序列中图像的列数;
步骤1所述图像坐标投影变换公式为:
其中,Η为可逆齐次矩阵,作用为在空间中将平面点投影到另一平面上,
所述投影后的图像序列尺寸长宽与道路尺寸长宽等比,即:
3.根据权利要求1所述的基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,
步骤2所述训练YOLOv5识别模型使用的数据集为Pascal VOC2007数据集;
步骤2所述YOLOv5网络框架具体为yolo5l网络结构,网络输出量为车辆目标边界框左上角横坐标、左上角纵坐标、右下角横坐标、右下角纵坐标和车辆目标类型;
步骤2所述原始图像序列识别的车辆目标外接矩形边框集合为
其中,表示原始图像序列中第t帧图像中第n个车辆目标外接矩形边框的左上角横坐标,表示图像序列中第t帧原始图像中第n个车辆目标外接矩形边框的左上角纵坐标;表示图像序列中第t帧货运车辆图像中第n个车辆目标外接矩形边框右下角横坐标,表示图像序列中第t帧图像中第n个车辆目标外接矩形边框的右下角纵坐标;typet,n,s表示图像序列中第t帧原始图像中第n个车辆目标的类别;
将识别到的原始图像序列的车辆目标外接矩形边框集合中车辆目标外接矩形做投影变换,投影后的车辆目标外接矩形边框坐标集合为投影图像序列的车辆目标外接矩形边框集合,即:
4.根据权利要求1所述的基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,
步骤3所述卡尔曼滤波处理过程依次包括:初始化车辆目标状态向量;初始化状态转移矩阵,初始化协方差矩阵,初始化观测矩阵,初始化系统噪音矩阵;根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量,得到当前帧车辆目标状态向量预测值;根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵,得到当前帧车辆目标系统误差协方差矩阵预测值;利用当前帧车辆目标系统协方差矩阵预测值更新卡尔曼系数;根据当前帧车辆目标状态向量预测值和系统观测值估计,得到当前帧车辆目标状态向量最优估计值;更新当前帧车辆目标系统误差协方差矩阵;从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合;
步骤3所述卡尔曼滤波初始化车辆目标状态向量过程中,使用车辆目标边界框中心的横坐标,边界框中心的纵坐标,边界框的面积和边界框横纵比来描述车辆目标边界框特征,并采用线性匀速模型来描述边界框的运动状态信息,即:
其中,表示边界框的运动状态信息,u表示边界框中心的横坐标,v表示边界框中心的纵坐标,s表示边界框的面积,r表示边界框横纵比,通常为常数,表示边界框中心横坐标变化率,表示边界框中心的纵坐标,表示边界框的面积变化率;第t-1帧第m个车辆目标边界框的运动状态信息描述为:
其中,表示第t-1帧第m个车辆目标边界框的运动状态信息,ut-1,m表示第t-1帧第m个车辆目标边界框中心的横坐标,vt-1,m表示第t-1帧第m个车辆目标边界框中心的纵坐标,st-1,m表示第t-1帧第m个车辆目标边界框的面积,rt-1,m表示第t-1帧第m个车辆目标边界框横纵比,表示第t-1帧第m个车辆目标边界框中心横坐标变化率,表示第t-1帧第m个车辆目标边界框中心的纵坐标,表示第t-1帧第m个车辆目标边界框的面积变化率;
第t-1帧第m个车辆目标边框中心的横坐标、纵坐标和边界框面积计算公式如下:
步骤3所述初始化状态转移矩阵中,状态转移矩阵F是对目标状态向量的运动建模,采用的匀速运动模型对应的状态转移矩阵F初始化为:
初始化协方差矩阵中,协方差矩阵P表示目标位置信息的不确定性,协方差矩阵为经验参数;
初始化系统噪音协方差矩阵中,由于过程噪声不可测,一般假设系统噪音协方差矩阵Q符合正态分布;
初始化观测矩阵中,观测矩阵H与可观测变量有关,其值初始化为:
初始化观测噪音协方差矩阵中,由于观测噪声不可测,一般假设观测噪音协方差矩阵R符合正态分布;
步骤3所述卡尔曼滤波根据上一帧车辆目标状态向量最优估计值预测当前帧车辆目标状态向量中,得到的第t帧第m个车辆目标状态向量预测值计算公式为:
步骤3所述卡尔曼滤波根据上一帧车辆目标系统误差协方差矩阵预测当前帧车辆目标系统误差协方差矩阵中,得到的第t帧第m个车辆目标系统误差协方差矩阵预测值计算公式为:
步骤三所述卡尔曼滤波利用当前帧系统误差协方差矩阵的预测值更新卡尔曼系数中,第t帧第m个车辆目标卡尔曼系数计算公式为:
其中,H为观测矩阵,R为观测噪音的协方差矩阵,Kt,m为第t帧第m个车辆目标卡尔曼系数;
步骤3所述卡尔曼滤波根据当前帧车辆目标状态向量预测值和系统观测值计算当前帧车辆目标状态向量最优估计值中,第t帧第m个车辆目标状态向量最优估计值计算公式为:
步骤3所述卡尔曼滤波更新当前帧系统误差协方差矩阵中,第t帧第m个车辆目标系统误差协方差矩阵更新计算公式为:
其中,Pt,m为第t帧第m个车辆目标系统协方差矩阵;
步骤3所述从当前帧车辆目标状态向量最优估计值中提取当前帧车辆目标估计边框集合中,第t帧第m个目标状态向量最优估计值描述为:
其中,ut,m表示最优估计的第t帧第m个车辆目标边界框中心的横坐标的最优估计值,vt,m表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标的最优估计值,st,m表示最优估计的第t帧第m个车辆目标边界框的面积的最优估计值,rt,m表示最优估计的第t帧第m个车辆目标边界框横纵比的最优估计值,表示最优估计的第t帧第m个车辆目标边界框中心横坐标变化率的最优估计值,表示最优估计的第t帧第m个车辆目标边界框中心的纵坐标变化率,表示最优估计的第t帧第m个车辆目标边界框的面积变化率;
当前帧车辆目标估计边框坐标计算公式为:
其中,表示最优估计的第t帧第m个车辆目标边框左上角横坐标,表示最优估计的第t帧第m个车辆目标边框左上角纵坐标,表示最优估计的第t帧第m个车辆目标边框右下角横坐标,表示最优估计的第t帧第m个车辆目标边框右下角纵坐标,
因此,当前帧车辆目标估计边框集合为:
所述的基于图像深度学习的车辆特征识别和轨迹跟踪方法,其特征在于,步骤3所述匈牙利关联算法通过计算车辆目标边框IOU交并比进行匹配;
步骤3所述匈牙利关联算法计算车辆目标边框IOU交并比匹配为:计算当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的IOU交并比,相交面积计算公式为:
其中,S1表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的相交面积;
合并计算公式为:
其中,S2表示当前帧车辆目标估计边框集合中第t帧第m个车辆目标估计边框和当前帧车辆目标识别边框集合中第t帧第n个车辆目标边识别框的合并面积;
IOU交并比计算公式为:
所述匈牙利关联算法车辆边框IOU交并比匹配原则为:若计算出的第t帧第m个车辆目标估计边框与第t帧第n个车辆目标边识别框的IOU交并比值最大且同属于同一车辆类别,则第t-1帧第m个车辆目标与第t帧第n个车辆目标属于同一车辆目标。
5.根据权利要求1所述的基于图像系统的车辆特征深度学习识别轨迹跟踪系统,其特征在于,
步骤4所述计算关联后的投影图像序列车辆目标识别边框集合中的车辆目标识别边框的中心坐标为:
步骤4所述对不同帧中属于同一车辆目标识别边框中心进行连接,其连接轨迹为:
所述转换为实际场景道路真实轨迹线坐标为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110307138.6A CN112884816B (zh) | 2021-03-23 | 2021-03-23 | 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110307138.6A CN112884816B (zh) | 2021-03-23 | 2021-03-23 | 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112884816A true CN112884816A (zh) | 2021-06-01 |
CN112884816B CN112884816B (zh) | 2023-12-15 |
Family
ID=76041210
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110307138.6A Active CN112884816B (zh) | 2021-03-23 | 2021-03-23 | 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112884816B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113361478A (zh) * | 2021-07-05 | 2021-09-07 | 上海大学 | 一种细胞运动过程中的形变跟踪方法及系统 |
CN113658449A (zh) * | 2021-07-27 | 2021-11-16 | 上海交通大学 | 停车场车辆定位系统及方法 |
CN113658222A (zh) * | 2021-08-02 | 2021-11-16 | 上海影谱科技有限公司 | 一种车辆检测跟踪方法及装置 |
CN114022791A (zh) * | 2021-10-15 | 2022-02-08 | 武汉理工大学 | 一种基于高空视角识别系统的车辆轨迹运动特征识别方法 |
CN114549593A (zh) * | 2022-02-25 | 2022-05-27 | 北京拙河科技有限公司 | 一种多目标多摄像头的目标追踪方法及系统 |
CN115661720A (zh) * | 2022-11-10 | 2023-01-31 | 南京智蓝芯联信息科技有限公司 | 一种被遮挡车辆的目标跟踪识别方法及系统 |
CN116681721A (zh) * | 2023-06-07 | 2023-09-01 | 东南大学 | 一种基于视觉的直线轨迹检测与跟踪方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919072A (zh) * | 2019-02-28 | 2019-06-21 | 桂林电子科技大学 | 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法 |
CN110738690A (zh) * | 2019-09-16 | 2020-01-31 | 南京理工大学 | 一种基于多目标追踪框架的无人机视频中车速校正方法 |
CN111488795A (zh) * | 2020-03-09 | 2020-08-04 | 天津大学 | 应用于无人驾驶车辆的实时行人跟踪方法 |
CN111932580A (zh) * | 2020-07-03 | 2020-11-13 | 江苏大学 | 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统 |
CN112329569A (zh) * | 2020-10-27 | 2021-02-05 | 武汉理工大学 | 一种基于图像深度学习系统的货运车辆状态实时识别方法 |
-
2021
- 2021-03-23 CN CN202110307138.6A patent/CN112884816B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919072A (zh) * | 2019-02-28 | 2019-06-21 | 桂林电子科技大学 | 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法 |
CN110738690A (zh) * | 2019-09-16 | 2020-01-31 | 南京理工大学 | 一种基于多目标追踪框架的无人机视频中车速校正方法 |
CN111488795A (zh) * | 2020-03-09 | 2020-08-04 | 天津大学 | 应用于无人驾驶车辆的实时行人跟踪方法 |
CN111932580A (zh) * | 2020-07-03 | 2020-11-13 | 江苏大学 | 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统 |
CN112329569A (zh) * | 2020-10-27 | 2021-02-05 | 武汉理工大学 | 一种基于图像深度学习系统的货运车辆状态实时识别方法 |
Non-Patent Citations (1)
Title |
---|
殷妍 等: "基于车道映射矩阵的多车道车辆计数系统", 计算机工程与设计 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113361478A (zh) * | 2021-07-05 | 2021-09-07 | 上海大学 | 一种细胞运动过程中的形变跟踪方法及系统 |
CN113361478B (zh) * | 2021-07-05 | 2023-08-22 | 上海大学 | 一种细胞运动过程中的形变跟踪方法及系统 |
CN113658449A (zh) * | 2021-07-27 | 2021-11-16 | 上海交通大学 | 停车场车辆定位系统及方法 |
CN113658222A (zh) * | 2021-08-02 | 2021-11-16 | 上海影谱科技有限公司 | 一种车辆检测跟踪方法及装置 |
CN114022791A (zh) * | 2021-10-15 | 2022-02-08 | 武汉理工大学 | 一种基于高空视角识别系统的车辆轨迹运动特征识别方法 |
CN114549593A (zh) * | 2022-02-25 | 2022-05-27 | 北京拙河科技有限公司 | 一种多目标多摄像头的目标追踪方法及系统 |
CN115661720A (zh) * | 2022-11-10 | 2023-01-31 | 南京智蓝芯联信息科技有限公司 | 一种被遮挡车辆的目标跟踪识别方法及系统 |
CN116681721A (zh) * | 2023-06-07 | 2023-09-01 | 东南大学 | 一种基于视觉的直线轨迹检测与跟踪方法 |
CN116681721B (zh) * | 2023-06-07 | 2023-12-29 | 东南大学 | 一种基于视觉的直线轨迹检测与跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112884816B (zh) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112884816A (zh) | 一种基于图像系统的车辆特征深度学习识别轨迹跟踪方法 | |
EP2164041B1 (en) | Tracking method and device adopting a series of observation models with different lifespans | |
Malik | Fast vehicle detection with probabilistic feature grouping and its application to vehicle tracking | |
Sidla et al. | Pedestrian detection and tracking for counting applications in crowded situations | |
CN101120382B (zh) | 跟踪用相机获得的场景视频中的移动物体的方法 | |
CN112669349B (zh) | 一种客流统计方法、电子设备及存储介质 | |
CN111932580A (zh) | 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统 | |
US20130148848A1 (en) | Method and apparatus for video analytics based object counting | |
CN103530619A (zh) | 基于rgb-d数据构成的少量训练样本的手势识别方法 | |
CN111784746A (zh) | 一种鱼眼镜头下行人多目标跟踪方法、装置及计算机系统 | |
CN108182695B (zh) | 目标跟踪模型训练方法及装置、电子设备和存储介质 | |
CN110827320B (zh) | 基于时序预测的目标跟踪方法和装置 | |
CN107730889B (zh) | 一种基于交通视频的目标车辆检索方法 | |
CN111008994A (zh) | 基于MPSoC的运动目标实时检测跟踪系统及方法 | |
CN108510520A (zh) | 一种图像处理方法、装置及ar设备 | |
CN109242019A (zh) | 一种水面光学小目标快速检测与跟踪方法 | |
CN113850136A (zh) | 基于yolov5与BCNN的车辆朝向识别方法及系统 | |
CN111783675A (zh) | 基于车辆语义感知的智慧城市视频自适应hdr控制方法 | |
Gu et al. | Local Fast R-CNN flow for object-centric event recognition in complex traffic scenes | |
CN101877134A (zh) | 一种机场监视视频目标鲁棒跟踪方法 | |
CN113689459A (zh) | 动态环境下基于gmm结合yolo实时跟踪与建图方法 | |
CN112232240A (zh) | 一种基于优化交并比函数的道路抛洒物检测与识别方法 | |
杜绪伟 et al. | Real-time hand tracking based on YOLOv4 model and Kalman filter | |
CN114550219B (zh) | 行人追踪方法及装置 | |
Cheng et al. | C 2-YOLO: Rotating Object Detection Network for Remote Sensing Images with Complex Backgrounds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |