CN114782500A - 基于多目标跟踪的卡丁车比赛行为分析方法 - Google Patents

基于多目标跟踪的卡丁车比赛行为分析方法 Download PDF

Info

Publication number
CN114782500A
CN114782500A CN202210433273.XA CN202210433273A CN114782500A CN 114782500 A CN114782500 A CN 114782500A CN 202210433273 A CN202210433273 A CN 202210433273A CN 114782500 A CN114782500 A CN 114782500A
Authority
CN
China
Prior art keywords
kart
detection
video
frame
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210433273.XA
Other languages
English (en)
Inventor
吴学毅
刘伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202210433273.XA priority Critical patent/CN114782500A/zh
Publication of CN114782500A publication Critical patent/CN114782500A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于多目标跟踪的卡丁车比赛行为分析方法,首先,检测图像中卡丁车的位置,绘制卡丁车外接矩形检测框,提取图像特征;通过卡尔曼滤波预测卡丁车的运动状态;利用图像特征和检测框进行相似度计算,输出相似度矩阵并进行匹配,完成对卡丁车的多目标跟踪;之后对卡丁车赛道进行场景标定,实现像素坐标与其在真实世界中点的坐标之间的互相转换,输出卡丁车在真实世界中的坐标变化,形成完整的运动轨迹和速度时序变化,再将运动轨迹输入到网络中训练,得到卡丁车行为分析结果。本发明的方法,可以识别卡丁车的比赛行为,并记录有车辆碰撞、超车、缠斗等精彩行为的画面,还可记录同一画面多辆车的运动轨迹,分析多辆卡丁车之间的比赛行为。

Description

基于多目标跟踪的卡丁车比赛行为分析方法
技术领域
本发明属于视觉目标跟踪技术领域,具体涉及一种基于多目标跟踪的卡丁车比赛行为分析方法。
背景技术
在各种汽车类运动中,卡丁车具有速度快、体积小、轨迹多变等特点,人们无法准确判断卡丁车的运动行为、测量卡丁车的运动速度,运动轨迹无法保留,经常错过比赛过程中的精彩画面。因此,需要对卡丁车进行检测、跟踪、分析,从而获得卡丁车比赛过程中的一些精彩运动信息。
常用的线圈检测器方法,只能定点检测经过的卡丁车,功能比较单一,并且安装维护时需要破坏卡丁车赛道。雷达、红外探测等方法相关设备昂贵,只能识别是否有卡丁车经过,测得其速度。利用GPS的方法需要配合其他相关设备,且在室内GPS信号会受到影响。以上方法的使用范围受到很多限制。
通过计算机视觉技术对卡丁车比赛的监控视频进行分析可以采集多种信息,而且开发和维护成本较低,可以广泛应用。由于监控系统汇集了大量的视频,视频中存在一些无可利用信息的片段,利用深度学习目标检测技术,可以排除监控视频中存在的冗余视频片段,相较于传统的运动目标检测技术,可以排除其它非目标的运动物体的影响。
发明内容
本发明的目的是提供基于多目标跟踪的卡丁车比赛行为分析方法,解决现有技术中存在的卡丁车比赛中无法准确识别运动行为的问题。
本发明所采用的技术方案是,基于多目标跟踪的卡丁车比赛行为分析方法,具体按照以下步骤实施:
步骤1,制作卡丁车目标检测数据集,并训练卡丁车目标检测所需的YOLOv3网络权重;
步骤2,选取待处理的卡丁车监控视频,读取视频的第一帧图像,利用YOLOv3目标检测网络和步骤1训练得到的网络权重,检测视频帧图像中的卡丁车的位置,并绘制每辆卡丁车的外接矩形检测框,提取卡丁车的图像特征;
步骤3,读取视频的第二帧图像,利用YOLOv3目标检测网络和网络权重,检测视频帧图像中的卡丁车的位置,绘制卡丁车的外接矩形检测框,提取卡丁车的图像特征;然后通过卡尔曼滤波预测卡丁车的运动状态;
步骤4,将步骤2和步骤3得到的图像特征和检测框进行相似度计算,输出相似度矩阵;
步骤5,采用匈牙利算法以及步骤4得出的相似度矩阵对历史帧检测框ID和当前预测框进行匹配,完成对卡丁车的多目标跟踪;
步骤6,采用直接线性变换法对卡丁车赛道进行场景标定,实现视频中的像素坐标与其在真实世界中点的坐标之间进行互相转换,输出卡丁车在真实世界中的坐标变化;
步骤7,重复步骤3至步骤6,直到读取完视频中的图像,输出每辆卡丁车在视频中完整的运动轨迹和速度时序变化,并保存到csv格式的文件中;
步骤8,将步骤7中有车辆碰撞、超车、缠斗行为的卡丁车运动轨迹csv文件输入到LSTM网络中训练,直到网络的损失函数趋于收敛,保存训练得到的权重;
步骤9,通过训练好的LSTM网络,读取步骤7中卡丁车跟踪得到的csv格式轨迹和速度数据,输出包括碰撞、超车、缠斗或无特殊行为分类标签,即可得到该视频中卡丁车行为分析结果。
本发明的特点还在于,
步骤1中,具体过程如下:
步骤1.1,将卡丁车监控视频拆分成帧图像,通过labelimg目标检测标注工具将每一帧图像中的卡丁车进行数据标注,形成卡丁车检测数据集;
其中,标注的信息有filename:图片的文件名;name:标注物体名称;xmin、ymin:卡丁车位置的左上角坐标;xmax、ymax:卡丁车位置的右下角坐标;
步骤1.2,使用YOLOv3网络对步骤1.1制作的卡丁车检测数据集进行训练,直到损失函数趋于收敛,保存训练好的网络权重文件。
步骤4中,具体为:将步骤2和步骤3的检测框提取到的两帧图像特征进行余弦距离计算;将步骤3卡尔曼滤波算法预测的检测框和步骤2中的检测框进行马氏距离计算,把这两个距离进行融合输入到相似度计算的矩阵里面,输出相似度矩阵。
步骤8中,具体为:
步骤8.1,将目标跟踪得到的卡丁车比赛行为轨迹和速度数据,按照时序排列存放到.csv文件中;
步骤8.2,使用python编程读入.csv文件,并存放到数据结构list中;以one-hot的方式对数据标签进行编码,[1,0,0]表示碰撞,[0,0,1]表示超车,[0,1,0]表示缠斗;
步骤8.3,将数据和标签转成tensorflow框架所支持的张量形式,传输给LSTM网络并且加入注意力机制训练,将训练好的网络权重保存为.h5文件。
本发明的有益效果是,本发明的方法,可以识别卡丁车的比赛行为和记录有车辆碰撞、超车、缠斗等精彩行为的画面,提供车手和观众回顾、观赏和留念;还可以识别记录同一画面多辆车的运动轨迹,分析多辆卡丁车之间的行为;较传统方法来说能够使卡丁车检测的精度更高、效率更高、智能化程度更高,排除其他非目标运动物体的干扰。
附图说明
图1是本发明基于多目标跟踪的卡丁车比赛行为分析方法的流程图;
图2是本发明方法中卡丁车跟踪结果图;
图3是本发明方法中卡丁车行为分析结果图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于多目标跟踪的卡丁车比赛行为分析方法,如图1所示,具体按照以下步骤实施:
步骤1,制作卡丁车目标检测数据集,并训练卡丁车目标检测所需的YOLOv3网络权重,具体过程如下:
步骤1.1,将卡丁车监控视频拆分成帧图像,通过labelimg目标检测标注工具将每一帧图像中的卡丁车进行数据标注,形成卡丁车检测数据集;
其中,标注的信息有filename:图片的文件名;name:标注物体名称(卡丁车);xmin、ymin:卡丁车位置的左上角坐标;xmax、ymax:卡丁车位置的右下角坐标;
步骤1.2,使用YOLOv3网络对步骤1.1制作的卡丁车检测数据集进行训练,直到损失函数趋于收敛,保存训练好的网络权重文件;
步骤2,选取待处理的卡丁车监控视频,读取视频的第一帧图像,利用YOLOv3目标检测网络和步骤1训练得到的网络权重,检测视频帧图像中的卡丁车的位置,并绘制每辆卡丁车的外接矩形检测框(ROI),提取卡丁车的图像特征;
步骤3,读取视频的第二帧图像,利用YOLOv3目标检测网络和步骤1训练得到的网络权重,检测视频帧图像中的卡丁车的位置,并绘制每辆卡丁车的外接矩形检测框(ROI),提取卡丁车的图像特征;然后通过卡尔曼滤波预测卡丁车的运动状态,即检测框的位置和移动速度;
采用卡尔曼滤波算法估计物体运动状态,即检测框的位置和移动的速度。根据历史帧的信息,能够得到当前帧的检测框的位置和估计值,根据现有帧的检测器,可以得到当前检测框位置的观测值,卡尔曼滤波综合估计值和观测值,获得更加精准的数值。
(1)预测阶段:通过之前边界框移动的信息,预测出当前框的位置。
预测当前最佳估计值:
Figure BDA0003609972710000061
预测当前的协方差矩阵:pk=FkPk-1FT+Qk
(2)修正阶段:
计算卡尔曼增益:
Figure BDA0003609972710000062
更新最佳估计:
Figure BDA0003609972710000063
更新协方差矩阵:P′k=Pk-K′HkPk
其中输入的变量xk=[cx,cy,w,h,vx,vy,vw,vh]是四维检测框相关变量和四维检测框相关变量的动量,cx,cy为边界框的中心点;w,h为边界框的宽和高,vx,vy,vw,vh为上述变量的变化速度;F为状态转移矩阵,用来对目标的运动建模;Pk代表位置精确度(即协方差矩阵);Qk为环境中的噪声,即预测过程中所带来的干扰;k′是滤波增益矩阵,是滤波的中间计算结果;Hk是状态变量到观测值的转换矩阵,将m维的测量值转换到n维,使之符合状态变量的数学形式;R为测量噪声协方差;
通过当前帧的修正可以得到现在的估计值,把估计值拿到下一帧,预测下一帧的数值,预测出来以后又通过修正进一步进行迭代,通过不断的迭代卡尔曼滤波估计使运动状态越来越精准。
步骤4,将步骤2和步骤3得到的图像特征和检测框进行相似度计算,输出相似度矩阵;
具体为:将步骤2和步骤3的检测框提取到的两帧图像特征进行余弦距离计算;将步骤3卡尔曼滤波算法预测的检测框和步骤2中的检测框进行马氏距离计算,把这两个距离进行融合输入到相似度计算的矩阵里面,输出相似度矩阵;
步骤5,采用匈牙利算法和步骤4得出的相似度矩阵对历史帧检测框ID和当前预测框进行匹配(即得出当前帧检测出的卡丁车1是上一帧ID为1的卡丁车),完成对卡丁车的多目标跟踪;
步骤6,计算卡丁车的速度并提取卡丁车的运动轨迹;采用直接线性变换(DLT)法对卡丁车赛道进行场景标定,实现视频中的像素坐标与其在真实世界中点的坐标之间进行互相转换,即可以输出卡丁车在真实世界中的坐标变化;
具体过程如下:
步骤6.1,在卡丁车赛道上放置四个特征点(圆点)标志物,四个点形成一个矩形,以矩形中一个点为坐标原点,建立卡丁车赛道平面坐标系,然后测量每个点之间的距离,得到四个点在卡丁车赛道平面坐标系上的坐标;通过上述四个点可以求出摄像头的内外参数。卡丁车赛道平面坐标P=(X,Y,Z)与图像坐标p=(x,y)之间的映射关系为:
Figure BDA0003609972710000081
其中,s是个非零实数,K为相机内参矩阵;R为旋转矩阵、T为平移矩阵,属于相机外参;
步骤6.2,截取监控摄像头四个标志点的赛道图像,利用霍夫圆检测,检测出图像中的特征点(圆点)标志,并输出圆心的像素坐标;
步骤6.3,利用上述信息,采用直接线性变换(DLT)法求出卡丁车赛道平面坐标系和赛道图像坐标系之间的转换关系;根据步骤6.1公式得出从卡丁车赛道平面坐标到图像坐标的映射F的表达式:
Figure BDA0003609972710000082
其中,A=KR=(aij),1≤i,j≤3,B=KT=(b1,b2,b3)T
步骤7,重复步骤3至步骤6,直到读取完视频中的每一帧图像,输出每辆卡丁车在视频中完整的运动轨迹和速度时序变化,并保存到csv格式的文件中;
步骤8,将步骤7中有车辆碰撞、超车、缠斗行为的卡丁车运动轨迹csv文件输入到LSTM网络中训练,直到网络的损失函数趋于收敛,保存训练得到的权重;具体为:
步骤8.1,将目标跟踪得到的卡丁车比赛行为轨迹和速度数据,按照时序排列存放到.csv文件中;
步骤8.2,使用python编程读入.csv文件,并存放到数据结构list中;以one-hot的方式对数据标签进行编码,[1,0,0]表示碰撞,[0,0,1]表示超车,[0,1,0]表示缠斗;
步骤8.3,将数据和标签转成tensorflow框架所支持的张量形式,传输给LSTM网络并且加入注意力机制训练,将训练好的网络权重保存为.h5文件;
步骤9,通过训练好的LSTM网络,读取步骤7中卡丁车跟踪得到的csv格式轨迹和速度数据,输出包括碰撞、超车、缠斗或无特殊行为分类标签,即可得到卡丁车行为分析结果。
本发明的方法可以有效并精确地识别视频帧中的卡丁车,标记卡丁车的位置,并且在8个不同场景的监控视频帧得到的400幅卡丁车图像数据集上测试,结果如表1,平均检测精准度在91.38%-99.76%之间。
表1卡丁车检测实验结果
Figure BDA0003609972710000091
上述评价指标如下所示:
精确率:正确预测为正样本的占全部预测为正样本的比例,即模型检测出来的目标有多大比例是真正的目标物体。
Figure BDA0003609972710000092
召回率:正确预测为正样本的占全部实际为正样本的比例,即所有真实的目标有多大比例被模型检测出来了。
Figure BDA0003609972710000093
平均精准度是对Precision-Recall(PR)曲线上的精确率的值求均值。使用对PR曲线积分来进行计算。
Figure BDA0003609972710000101
图2为卡丁车跟踪结果,图3为卡丁车行为分析结果,由图可知,本方法可以识别卡丁车的比赛行为;另外,本发明的方法可以跟踪连续视频帧中的不同车辆,绘制出它们的运动轨迹,并且在一段时常30s,帧率25fps的视频测得本方法的多目标追踪精度为90.6%。
MOTA(Multiple Object Tracking Accuracy)多目标跟踪的准确度,如式所示:
Figure BDA0003609972710000102
式中,IDSWt表示在时间t内ID改变的总数量,FNt(False Negatives)为t时间内的漏检总数,也即是未匹配成功的真实值个数;FPt(False Positives)称为误检总数,也即是预测错误的跟踪结果个数。GTt(Ground Truth)为t时间内跟踪目标个数。
本发明的方法可以分析监控视频中卡丁车比赛过程中的比赛行为和记录有车辆碰撞、超车、缠斗等行为的精彩画面,提供车手和观众回顾、观赏和留念。自动化测量卡丁车的运动速度,保留运动轨迹。采用深度学习的卡丁车检测方法,较传统方法来说能够使卡丁车检测的精度更高、效率更高、智能化程度更高,排除其他非目标运动物体的干扰。采用多目标跟踪的卡丁车跟踪方法,可以识别记录同一画面多辆车的运动轨迹,分析多辆卡丁车之间的行为。其开发维护成本低,减少资源浪费,自动化程度高并且广泛适用于对卡丁车比赛行为分析。

Claims (4)

1.基于多目标跟踪的卡丁车比赛行为分析方法,其特征在于,具体按照以下步骤实施:
步骤1,制作卡丁车目标检测数据集,并训练卡丁车目标检测所需的YOLOv3网络权重;
步骤2,选取待处理的卡丁车监控视频,读取视频的第一帧图像,利用YOLOv3目标检测网络和步骤1训练得到的网络权重,检测视频帧图像中的卡丁车的位置,并绘制每辆卡丁车的外接矩形检测框,提取卡丁车的图像特征;
步骤3,读取视频的第二帧图像,利用YOLOv3目标检测网络和网络权重,检测视频帧图像中的卡丁车的位置,绘制卡丁车的外接矩形检测框,提取卡丁车的图像特征;然后通过卡尔曼滤波预测卡丁车的运动状态;
步骤4,将步骤2和步骤3得到的图像特征和检测框进行相似度计算,输出相似度矩阵;
步骤5,采用匈牙利算法以及步骤4得出的相似度矩阵对历史帧检测框ID和当前预测框进行匹配,完成对卡丁车的多目标跟踪;
步骤6,采用直接线性变换法对卡丁车赛道进行场景标定,实现视频中的像素坐标与其在真实世界中点的坐标之间进行互相转换,输出卡丁车在真实世界中的坐标变化;
步骤7,重复步骤3至步骤6,直到读取完视频中的图像,输出每辆卡丁车在视频中完整的运动轨迹和速度时序变化,并保存到csv格式的文件中;
步骤8,将步骤7中有车辆碰撞、超车、缠斗行为的卡丁车运动轨迹csv文件输入到LSTM网络中训练,直到网络的损失函数趋于收敛,保存训练得到的权重;
步骤9,通过训练好的LSTM网络,读取步骤7中卡丁车跟踪得到的csv格式轨迹和速度数据,输出包括碰撞、超车、缠斗或无特殊行为的分类标签,即可得到卡丁车行为分析结果。
2.根据权利要求1所述的基于多目标跟踪的卡丁车比赛行为分析方法,其特征在于,所述步骤1中,具体过程如下:
步骤1.1,将卡丁车监控视频拆分成帧图像,通过labelimg目标检测标注工具将每一帧图像中的卡丁车进行数据标注,形成卡丁车检测数据集;
其中,标注的信息有filename:图片的文件名;name:标注物体名称;xmin、ymin:卡丁车位置的左上角坐标;xmax、ymax:卡丁车位置的右下角坐标;
步骤1.2,使用YOLOv3网络对步骤1.1制作的卡丁车检测数据集进行训练,直到损失函数趋于收敛,保存训练好的网络权重文件。
3.根据权利要求1所述的基于多目标跟踪的卡丁车比赛行为分析方法,其特征在于,所述步骤4中,具体为:将步骤2和步骤3的检测框提取到的两帧图像特征进行余弦距离计算;将步骤3卡尔曼滤波算法预测的检测框和步骤2中的检测框进行马氏距离计算,把这两个距离进行融合输入到相似度计算的矩阵里面,输出相似度矩阵。
4.根据权利要求1所述的基于多目标跟踪的卡丁车比赛行为分析方法,其特征在于,所述步骤8中,具体为:
步骤8.1,将目标跟踪得到的卡丁车比赛行为轨迹和速度数据,按照时序排列存放到.csv文件中;
步骤8.2,使用python编程读入.csv文件,并存放到数据结构list中;以one-hot的方式对数据标签进行编码,[1,0,0]表示碰撞,[0,0,1]表示超车,[0,1,0]表示缠斗;
步骤8.3,将数据和标签转成tensorflow框架所支持的张量形式,传输给LSTM网络并且加入注意力机制训练,将训练好的网络权重保存为.h5文件。
CN202210433273.XA 2022-04-22 2022-04-22 基于多目标跟踪的卡丁车比赛行为分析方法 Pending CN114782500A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210433273.XA CN114782500A (zh) 2022-04-22 2022-04-22 基于多目标跟踪的卡丁车比赛行为分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210433273.XA CN114782500A (zh) 2022-04-22 2022-04-22 基于多目标跟踪的卡丁车比赛行为分析方法

Publications (1)

Publication Number Publication Date
CN114782500A true CN114782500A (zh) 2022-07-22

Family

ID=82433360

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210433273.XA Pending CN114782500A (zh) 2022-04-22 2022-04-22 基于多目标跟踪的卡丁车比赛行为分析方法

Country Status (1)

Country Link
CN (1) CN114782500A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116935074A (zh) * 2023-07-25 2023-10-24 苏州驾驶宝智能科技有限公司 基于深度亲和网络自适应关联的多目标跟踪方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116935074A (zh) * 2023-07-25 2023-10-24 苏州驾驶宝智能科技有限公司 基于深度亲和网络自适应关联的多目标跟踪方法及装置
CN116935074B (zh) * 2023-07-25 2024-03-26 苏州驾驶宝智能科技有限公司 基于深度亲和网络自适应关联的多目标跟踪方法及装置

Similar Documents

Publication Publication Date Title
EP3633615A1 (en) Deep learning network and average drift-based automatic vessel tracking method and system
CN111429484B (zh) 一种基于交通监控视频的多目标车辆轨迹实时构建方法
CN110660083A (zh) 一种结合视频场景特征感知的多目标跟踪方法
CN114049382B (zh) 一种智能网联环境下目标融合跟踪方法、系统和介质
CN108711172B (zh) 基于细粒度分类的无人机识别与定位方法
CN114170580A (zh) 一种面向高速公路的异常事件检测方法
CN113592905B (zh) 基于单目摄像头的车辆行驶轨迹预测方法
CN113256690B (zh) 一种基于视频监控的行人多目标跟踪方法
CN112329645B (zh) 图像检测方法、装置、电子设备及存储介质
CN109934170B (zh) 一种基于计算机视觉的矿山资源统计方法
CN114627447A (zh) 基于注意力机制和多目标跟踪的公路车辆跟踪方法及系统
CN113256731A (zh) 基于单目视觉的目标检测方法及装置
Cao et al. Correlation-based tracking of multiple targets with hierarchical layered structure
CN114283355A (zh) 一种基于小样本学习的多目标濒危动物跟踪方法
CN113744316A (zh) 一种基于深度神经网络的多目标跟踪方法
CN110781788B (zh) 一种基于少量标注的野外机器人地面分类方法及系统
CN113538585B (zh) 基于无人机的高精度多目标智能识别定位追踪方法及系统
CN114782500A (zh) 基于多目标跟踪的卡丁车比赛行为分析方法
CN115147644A (zh) 图像描述模型的训练和描述方法、系统、设备及存储介质
CN113724293A (zh) 一种基于视觉的智能网联公交场景下目标跟踪方法及系统
Notz et al. Extraction and assessment of naturalistic human driving trajectories from infrastructure camera and radar sensors
CN117333846A (zh) 恶劣天气下基于传感器融合和增量学习的检测方法及系统
CN117037085A (zh) 基于改进YOLOv5的车辆识别及数量统计的监控方法
CN116862832A (zh) 一种基于三维实景模型的作业人员定位方法
CN110503663B (zh) 一种基于抽帧检测的随机多目标自动检测跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination