CN111476817A - 一种基于yolov3的多目标行人检测跟踪方法 - Google Patents

一种基于yolov3的多目标行人检测跟踪方法 Download PDF

Info

Publication number
CN111476817A
CN111476817A CN202010123538.7A CN202010123538A CN111476817A CN 111476817 A CN111476817 A CN 111476817A CN 202010123538 A CN202010123538 A CN 202010123538A CN 111476817 A CN111476817 A CN 111476817A
Authority
CN
China
Prior art keywords
target
frame
detection
distance
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010123538.7A
Other languages
English (en)
Inventor
周德龙
朱思聪
张捷
王国华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010123538.7A priority Critical patent/CN111476817A/zh
Publication of CN111476817A publication Critical patent/CN111476817A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

一种基于yolov3的多目标行人检测跟踪方法,所述方法包括以下步骤:步骤1:改进的yolov3目标检测子网络,目标检测是基于检测跟踪的基本操作;步骤2:跟踪器的建立,将当前帧的目标与跟踪目标进行数据关联,需要先建立跟踪器;步骤3:数据关联,将当前帧的目标与跟踪目标进行数据关联,一般融合目标的运动信息以及目标的特征信息。本发明针对多目标跟踪中存在的行人小目标易漏检的问题,改进了YOLOv3的网络结构并应用于多目标行人跟踪。

Description

一种基于yolov3的多目标行人检测跟踪方法
技术领域
本发明涉及在线行人多目标跟踪的研究,具体是针对多目标跟踪中存在的行人小目标易漏检的问题,改进了YOLOv3的网络结构,使得模型对行人的检测精度有所提高从而改善了整个跟踪模型的性能。检测部分采用改进的YOLOv3算法检测目标,跟踪部分使用卡尔曼滤波算法预测目标运动轨迹,数据关联部分使用匈牙利算法对候选目标进行匹配关联。
背景技术
视频在线多目标跟踪作为智能视觉领域的一个重要方向,有着极大的场景应用价值。例如在视频监控的人流分析,智能城市交通、智能视觉导航等新兴人工智能应用场景发挥着极高作用。近几年随着人工智能的兴起,产生了基于深度学习的表观特征提取的改进模型以及深度学习网络侧重于关联匹配的各类模型下衍生的跟踪算法。
最近,越来越多的跟踪算法已开始采用各种形式深度神经网络。深层神经网络(DNN)可以从输入帧中提取复杂和抽象的特征,并且可以学习图像中目标的丰富表示形式。卷积神经网络(CNN)目前是空间图像特征提取的最新技术,并用于诸如图像分类或物体检测之类的任务中。该系列的一般分为四个步骤:一是检测阶段,即用目标检测网络提取出目标位置框;二是特征提取阶段,采取一种或多种特征提取算法分析检测提取外观信息以及运动信息用以预测每个跟踪目标的下一个位置;三是计算相似度阶段:将特征和运动预测用于计算前后两帧检测中目标的相似度距离分;四是匹配阶段:将当前帧中检测到的目标与已跟踪到的目标进行距离度量,得分小于一定阈值则关联成功,属于同一目标,为其分配相同ID。
发明内容
为了克服现有技术的不足,本发明提供一种基于yolov3的行人检测跟踪方法,针对多目标跟踪中存在的行人小目标易漏检的问题,改进了YOLOv3的网络结构并应用于多目标行人跟踪。
本发明解决其技术问题所采用的技术方案是:
一种基于yolov3的多目标行人检测跟踪方法,所述方法包括以下步骤:
步骤1:改进的yolov3目标检测子网络,目标检测是基于检测跟踪的基本操作,过程如下:;
步骤1.1:多尺度特征融合
主干网络是DarkNet-53网络,引入多尺度特征融合,再继续增加尺度,增加尺度数目可根据实际需求调整,选择输出为5种不同尺度的特征图,除第顶层特征图除外,其余特征图均融合相邻下层特征图的特征信息;
步骤1.2:k-means聚类产生锚点框
检测网络沿用K-means聚类的方法确定初始锚点框的位置,K-means聚类算法随机选取K个目标点,具体对象是训练集的边界框;
首先将真实的目标框中心坐标下采样到对应的特征图上;然后,如果该目标框中心落在对应的特征图网格中,然后在对应的特征图网格中使用K-means计算出的锚点框与下采样后的真实目标框进行IOU值计算;其次,取与目标框的最大IOU值对应的锚点来负责该对象的检测,记为正样本;而其他锚点与目标框的IOU值大于0.5的将被忽略,不计入负样本;IOU值小于0.5的锚点框则被记为负样本;
步骤2:跟踪器的建立,将当前帧的目标与跟踪目标进行数据关联,需要先建立跟踪器,过程如下:
步骤2.1:对运动模型进行估计
采取卡尔曼滤波作为运动估计模型,根据估计下一帧中目标的位置与检测网络检测到的目标位置进行数据关联;
步骤3:数据关联,将当前帧的目标与跟踪目标进行数据关联,一般融合目标的运动信息以及目标的特征信息,过程如下:
步骤3.1:目标间距离的度量方法
将特征和运动预测用于计算前后两帧检测中目标的相似度距离分,
计算相似度阶段:
其中描述运动关联程度使用了马氏距离作为距离函数:
d(1)(i,j)=(dj-yi)TSi -1(dj-yi) (1)
其中,dj表示第j个检测目标框的位置,yi表示第i个跟踪器在当前帧的预测目标框位置,Si表示检测目标框位置与平均跟踪目标框位置之间的协方差矩阵,距离函数d(1)用来衡量检测框与跟踪器预测框之间的匹配程度;
其中描述图像特征之间的距离函数d(2),采用余弦距离,为检测目标的特征与跟踪到目标特征之间的距离;
最终度量结合了两种度量方式的线性加权,公式如下:
Di,j=λd(1)(i,j)+(1-λ)d(2)(i,j) (2)
同时虑了目标运动信息的关联以及目标外观特征信息的关联;
步骤3.2:多目标间的匹配方法
将步骤3.1中的目标间距离设立一定的阈值作为匹配的度量准则,最终同时考虑了目标运动信息的关联以及目标图像特征信息的关联,匹配问题可等效为二分图的最优匹配问题,二分图的最优匹配问题采用匈牙利匹配方法解决。
本发明的有益效果主要表现在:本发明针对多目标跟踪中存在的行人小目标易漏检的问题,改进了YOLOv3的网络结构并应用于多目标行人跟踪。
附图说明
图1为本发明的多尺度特征融合示意图。
图2为本发明改进的目标检测网络结构图。
图3为二分图最优匹配示意图。
图4为本发明的跟踪模型流程图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图4,一种基于yolov3的多目标行人检测跟踪方法,所述方法包括以下步骤:
步骤1:改进的yolov3目标检测子网络,目标检测是基于检测跟踪的基本操作,过程如下:
步骤1.1:多尺度特征融合
其中,主干网络是DarkNet-53网络,一般的CNN特征提取网络采取层级的下采样结构,往往使用单尺度特征图进行检测输出。以输入图片为416*416为例,DarkNet-53网络最后输出为3种不同尺度的特征图。然而该方法主要针对多分类大目标检测,为了使检测模型对小目标行人更加鲁棒,本发明提出在原来的基础上,引入多尺度特征融合,再继续增加尺度,详细示意如附图1。
但是由于其对在不同的场景信息中,同一类目标的尺寸大小不同可能会导致检测错误,引入多尺度融合的概念,图像浅层特征信息的语义信息少,而且经过多层卷积后部分信息丢失,影响检测结果。因此可以在原来的基础上再继续增加尺度,上采样融合下层特征图信息,将浅层信息提取出来。网络结构图如附图2。
步骤1.2:k-means聚类产生锚点框
本发明的检测网络沿用K-means聚类的方法确定初始锚点框(bbox)的位置。K-means聚类算法随机选取K个目标点,具体对象是训练集的边界框。这种方式相比手工选取锚点尺度具有一点随机性,但是在数据集足够大的情况下更贴合实际。尤其是行人整体特征长宽比范围有一定特性。
首先将真实的目标框中心坐标下采样到对应的特征图上;然后,如果该目标框中心落在对应的特征图网格中,然后在对应的特征图网格中使用K-means计算出的锚点框与下采样后的真实目标框进行IOU值计算;其次,取与目标框的最大IOU值对应的锚点来负责该对象的检测,记为正样本;而其他锚点与目标框的IOU值大于0.5的将被忽略,不计入负样本;IOU值小于0.5的锚点框则被记为负样本。
步骤2:跟踪器的建立,将当前帧的目标与跟踪目标进行数据关联,需要先建立跟踪器,过程如下:
步骤2.1:对运动模型进行估计:
本发明采取卡尔曼滤波作为运动估计模型,根据估计下一帧中目标的位置与检测网络检测到的目标位置进行数据关联。
卡尔曼滤波在解决线性问题时,有优异的表现。将其应用于行人这类多目标跟踪有很好的效果。在简单场景下,一般行人的移动速度以及轨迹较为线性。而且该方法通过递归得到解,更新前后状态无需考虑过去观测值,仅与上一帧得到估计值与当前观测值有关。
步骤3:数据关联,将当前帧的目标与跟踪目标进行数据关联,一般融合目标的运动信息以及目标的特征信息,过程如下:
步骤3.1:目标间距离的度量方法
本发明将特征和运动预测用于计算前后两帧检测中目标的相似度距离分。
计算相似度阶段:
其中描述运动关联程度使用了马氏距离作为距离函数:
d(1)(i,j)=(dj-yi)TSi -1(dj-yi) (1)
其中,dj表示第j个检测框的位置,yi表示第i个跟踪到的目标在当前帧的预测位置,Si表示检测位置与平均跟踪位置之间的协方差矩阵。衡量检测框与跟踪器预测框之间的匹配程度。
其中描述图像特征之间的距离函数d(2),采用余弦距离。具体为检测目标的特征与跟踪到目标特征之间的距离。
最终度量结合了两种度量方式的线性加权,公式如下:
Di,j=λd(1)(i,j)+(1-λ)d(2)(i,j) (2)
同时虑了目标运动信息的关联以及目标外观特征信息的关联。
步骤3.2:多目标间的匹配方法
将步骤3.1中的目标间距离设立一定的阈值作为匹配的度量准则,最终同时考虑了目标运动信息的关联以及目标图像特征信息的关联,匹配问题可等效为二分图的最优匹配问题,二分图的最优匹配问题采用匈牙利匹配方法解决。
步骤4:跟踪算法模型整体框架流程
以上阐述的是本发明提出一种融合多尺度特征信息的多目标行人检测跟踪算法,具体流程图为附图4。核心思想是改进检测阶段的目标子网络,用该目标检测子网络提取出目标位置框;特征提取阶段采取一种或多种特征提取算法分析检测提取外观信息以及运动信息用以预测每个跟踪目标的下一个位置;计算相似度阶段:将特征和运动预测用于计算前后两帧检测中目标的相似度距离分;四是匹配阶段:将当前帧中检测到的目标与已跟踪到的目标进行距离度量,得分小于一定阈值则关联成功,属于同一目标,为其分配相同ID。
本发明针对多目标跟踪中存在的行人小目标易漏检的问题,改进了YOLOv3的网络结构并应用于多目标行人跟踪。

Claims (1)

1.一种基于yolov3的多目标行人检测跟踪方法,其特征在于,所述方法包括以下步骤:
步骤1:改进的yolov3目标检测子网络,目标检测是基于检测跟踪的基本操作,过程如下:;
步骤1.1:多尺度特征融合
主干网络是DarkNet-53网络,引入多尺度特征融合,再继续增加尺度,增加尺度数目可根据实际需求调整,选择输出为5种不同尺度的特征图,除第顶层特征图除外,其余特征图均融合相邻下层特征图的特征信息;
步骤1.2:k-means聚类产生锚点框
检测网络沿用K-means聚类的方法确定初始锚点框的位置,K-means聚类算法随机选取K个目标点,具体对象是训练集的边界框;
首先将真实的目标框中心坐标下采样到对应的特征图上;然后,如果该目标框中心落在对应的特征图网格中,然后在对应的特征图网格中使用K-means计算出的锚点框与下采样后的真实目标框进行IOU值计算;其次,取与目标框的最大IOU值对应的锚点来负责该对象的检测,记为正样本;而其他锚点与目标框的IOU值大于0.5的将被忽略,不计入负样本;IOU值小于0.5的锚点框则被记为负样本;
步骤2:跟踪器的建立,将当前帧的目标与跟踪目标进行数据关联,需要先建立跟踪器,过程如下:
步骤2.1:对运动模型进行估计
采取卡尔曼滤波作为运动估计模型,根据估计下一帧中目标的位置与检测网络检测到的目标位置进行数据关联;
步骤3:数据关联,将当前帧的目标与跟踪目标进行数据关联,一般融合目标的运动信息以及目标的特征信息,过程如下:
步骤3.1:目标间距离的度量方法
将特征和运动预测用于计算前后两帧检测中目标的相似度距离分,计算相似度阶段:
其中描述运动关联程度使用了马氏距离作为距离函数:
d(1)(i,j)=(dj-yi)TSi -1(dj-yi) (1)
其中,dj表示第j个检测目标框的位置,yi表示第i个跟踪器在当前帧的预测目标框位置,Si表示检测目标框位置与平均跟踪目标框位置之间的协方差矩阵,距离函数d(1)用来衡量检测框与跟踪器预测框之间的匹配程度;
其中描述图像特征之间的距离函数d(2),采用余弦距离,为检测目标的特征与跟踪到目标特征之间的距离;
最终度量结合了两种度量方式的线性加权,公式如下:
Di,j=λd(1)(i,j)+(1-λ)d(2)(i,j) (2)
同时虑了目标运动信息的关联以及目标外观特征信息的关联;
步骤3.2:多目标间的匹配方法
将步骤3.1中的目标间距离设立一定的阈值作为匹配的度量准则,最终同时考虑了目标运动信息的关联以及目标图像特征信息的关联,匹配问题可等效为二分图的最优匹配问题,二分图的最优匹配问题采用匈牙利匹配方法解决。
CN202010123538.7A 2020-02-27 2020-02-27 一种基于yolov3的多目标行人检测跟踪方法 Pending CN111476817A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010123538.7A CN111476817A (zh) 2020-02-27 2020-02-27 一种基于yolov3的多目标行人检测跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010123538.7A CN111476817A (zh) 2020-02-27 2020-02-27 一种基于yolov3的多目标行人检测跟踪方法

Publications (1)

Publication Number Publication Date
CN111476817A true CN111476817A (zh) 2020-07-31

Family

ID=71748024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010123538.7A Pending CN111476817A (zh) 2020-02-27 2020-02-27 一种基于yolov3的多目标行人检测跟踪方法

Country Status (1)

Country Link
CN (1) CN111476817A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200021A (zh) * 2020-09-22 2021-01-08 燕山大学 基于有限范围场景内的目标人群跟踪监控方法
CN112215163A (zh) * 2020-10-13 2021-01-12 北京中电兴发科技有限公司 一种应用于人脸检测预测框的加权后处理方法
CN112288773A (zh) * 2020-10-19 2021-01-29 慧视江山科技(北京)有限公司 基于Soft-NMS的多尺度人体跟踪方法及装置
CN112308881A (zh) * 2020-11-02 2021-02-02 西安电子科技大学 一种基于遥感图像的舰船多目标跟踪方法
CN112508030A (zh) * 2020-12-18 2021-03-16 山西省信息产业技术研究院有限公司 一种基于双深度学习模型的隧道裂缝检测及测量方法
CN112614155A (zh) * 2020-12-16 2021-04-06 深圳市图敏智能视频股份有限公司 一种客流的跟踪方法
CN112669345A (zh) * 2020-12-30 2021-04-16 中山大学 一种面向云端部署的多目标轨迹跟踪方法及系统
CN112668487A (zh) * 2020-12-29 2021-04-16 杭州晨安科技股份有限公司 一种基于身体重合度与人体相似性相融合的老师跟踪方法
CN112836640A (zh) * 2021-02-04 2021-05-25 浙江工业大学 一种单摄像头多目标行人跟踪方法
CN113066107A (zh) * 2021-04-28 2021-07-02 电子科技大学 基于id向量时序一致性的防漏检一体化多目标跟踪系统
CN113112524A (zh) * 2021-04-21 2021-07-13 智道网联科技(北京)有限公司 自动驾驶中移动对象的轨迹预测方法、装置及计算设备
CN113298053A (zh) * 2021-07-26 2021-08-24 季华实验室 多目标无人机追踪识别方法、装置、电子设备及存储介质
CN113409359A (zh) * 2021-06-25 2021-09-17 之江实验室 一种基于特征聚合的多目标跟踪方法
CN113470076A (zh) * 2021-07-13 2021-10-01 南京农业大学 一种平养鸡舍黄羽鸡多目标跟踪方法
CN113763418A (zh) * 2021-03-02 2021-12-07 华南理工大学 一种基于头肩检测的多目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985186A (zh) * 2018-06-27 2018-12-11 武汉理工大学 一种基于改进YOLOv2的无人驾驶中行人检测方法
CN109117794A (zh) * 2018-08-16 2019-01-01 广东工业大学 一种运动目标行为跟踪方法、装置、设备及可读存储介质
CN109816690A (zh) * 2018-12-25 2019-05-28 北京飞搜科技有限公司 基于深度特征的多目标追踪方法及系统
CN110766098A (zh) * 2019-11-07 2020-02-07 中国石油大学(华东) 基于改进YOLOv3的交通场景小目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985186A (zh) * 2018-06-27 2018-12-11 武汉理工大学 一种基于改进YOLOv2的无人驾驶中行人检测方法
CN109117794A (zh) * 2018-08-16 2019-01-01 广东工业大学 一种运动目标行为跟踪方法、装置、设备及可读存储介质
CN109816690A (zh) * 2018-12-25 2019-05-28 北京飞搜科技有限公司 基于深度特征的多目标追踪方法及系统
CN110766098A (zh) * 2019-11-07 2020-02-07 中国石油大学(华东) 基于改进YOLOv3的交通场景小目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ALEX BEWLEY: "Simple online and realtime tracking", 《2016 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING(ICIP)》 *
NICOLAI WOJKE: "Simple online and realtime tracking with a deep association metric", 《2017 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING(ICIP)》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200021A (zh) * 2020-09-22 2021-01-08 燕山大学 基于有限范围场景内的目标人群跟踪监控方法
CN112215163A (zh) * 2020-10-13 2021-01-12 北京中电兴发科技有限公司 一种应用于人脸检测预测框的加权后处理方法
CN112288773A (zh) * 2020-10-19 2021-01-29 慧视江山科技(北京)有限公司 基于Soft-NMS的多尺度人体跟踪方法及装置
CN112308881A (zh) * 2020-11-02 2021-02-02 西安电子科技大学 一种基于遥感图像的舰船多目标跟踪方法
CN112308881B (zh) * 2020-11-02 2023-08-15 西安电子科技大学 一种基于遥感图像的舰船多目标跟踪方法
CN112614155A (zh) * 2020-12-16 2021-04-06 深圳市图敏智能视频股份有限公司 一种客流的跟踪方法
CN112508030A (zh) * 2020-12-18 2021-03-16 山西省信息产业技术研究院有限公司 一种基于双深度学习模型的隧道裂缝检测及测量方法
CN112668487B (zh) * 2020-12-29 2022-05-27 杭州晨安科技股份有限公司 一种基于身体重合度与人体相似性相融合的老师跟踪方法
CN112668487A (zh) * 2020-12-29 2021-04-16 杭州晨安科技股份有限公司 一种基于身体重合度与人体相似性相融合的老师跟踪方法
CN112669345B (zh) * 2020-12-30 2023-10-20 中山大学 一种面向云端部署的多目标轨迹跟踪方法及系统
CN112669345A (zh) * 2020-12-30 2021-04-16 中山大学 一种面向云端部署的多目标轨迹跟踪方法及系统
CN112836640A (zh) * 2021-02-04 2021-05-25 浙江工业大学 一种单摄像头多目标行人跟踪方法
CN112836640B (zh) * 2021-02-04 2024-04-19 浙江工业大学 一种单摄像头多目标行人跟踪方法
CN113763418A (zh) * 2021-03-02 2021-12-07 华南理工大学 一种基于头肩检测的多目标跟踪方法
CN113112524A (zh) * 2021-04-21 2021-07-13 智道网联科技(北京)有限公司 自动驾驶中移动对象的轨迹预测方法、装置及计算设备
CN113112524B (zh) * 2021-04-21 2024-02-20 智道网联科技(北京)有限公司 自动驾驶中移动对象的轨迹预测方法、装置及计算设备
CN113066107A (zh) * 2021-04-28 2021-07-02 电子科技大学 基于id向量时序一致性的防漏检一体化多目标跟踪系统
CN113409359A (zh) * 2021-06-25 2021-09-17 之江实验室 一种基于特征聚合的多目标跟踪方法
CN113470076A (zh) * 2021-07-13 2021-10-01 南京农业大学 一种平养鸡舍黄羽鸡多目标跟踪方法
CN113470076B (zh) * 2021-07-13 2024-03-12 南京农业大学 一种平养鸡舍黄羽鸡多目标跟踪方法
CN113298053A (zh) * 2021-07-26 2021-08-24 季华实验室 多目标无人机追踪识别方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN111476817A (zh) 一种基于yolov3的多目标行人检测跟踪方法
CN111797716B (zh) 一种基于Siamese网络的单目标跟踪方法
CN111126152B (zh) 一种基于视频的多目标行人检测与跟踪的方法
CN109360226B (zh) 一种基于时间序列多特征融合的多目标跟踪方法
CN107609525B (zh) 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法
CN110660082B (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN110084836B (zh) 基于深度卷积特征分层响应融合的目标跟踪方法
CN110033473B (zh) 基于模板匹配和深度分类网络的运动目标跟踪方法
CN107145862B (zh) 一种基于霍夫森林的多特征匹配多目标跟踪方法
CN112184752A (zh) 一种基于金字塔卷积的视频目标跟踪方法
CN112489081B (zh) 一种视觉目标跟踪方法及装置
CN111311647B (zh) 一种基于全局-局部及卡尔曼滤波的目标跟踪方法及装置
CN111767847B (zh) 一种集成目标检测和关联的行人多目标跟踪方法
CN109658442B (zh) 多目标跟踪方法、装置、设备及计算机可读存储介质
CN111739053B (zh) 一种复杂场景下的在线多行人检测跟踪方法
CN110555868A (zh) 一种复杂地面背景下运动小目标检测方法
CN113327272B (zh) 一种基于相关滤波的鲁棒性长时跟踪方法
CN110728694A (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN110569706A (zh) 一种基于时间和空间网络的深度集成目标跟踪算法
CN116030396B (zh) 一种用于视频结构化提取的精确分割方法
CN115761393A (zh) 一种基于模板在线学习的无锚目标跟踪方法
CN113256690B (zh) 一种基于视频监控的行人多目标跟踪方法
Zhu et al. (Retracted) Transfer learning-based YOLOv3 model for road dense object detection
CN112614158B (zh) 一种采样框自适应的多特征融合在线目标跟踪方法
CN112200831B (zh) 一种基于动态模板的密集连接孪生神经网络目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination