CN111739053B - 一种复杂场景下的在线多行人检测跟踪方法 - Google Patents
一种复杂场景下的在线多行人检测跟踪方法 Download PDFInfo
- Publication number
- CN111739053B CN111739053B CN201910218195.XA CN201910218195A CN111739053B CN 111739053 B CN111739053 B CN 111739053B CN 201910218195 A CN201910218195 A CN 201910218195A CN 111739053 B CN111739053 B CN 111739053B
- Authority
- CN
- China
- Prior art keywords
- track
- detection
- pedestrian
- tracking
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于检测的在线多行人跟踪算法研究,采用了基于深度学习的目标检测网络YOLOv3作为检测器,利用深度学习网络来提取行人特征和卡尔曼滤波预测行人运动位置信息,提出了基于检测置信度、表观相似度与运动相似度的联合度量方式来度量检测与跟踪之间的相关性,提出了一种自适应调整表观相似度与运动相似度权重因子的算法,最后采用KM匹配算法和IOU匹配算法实现检测行人的实时匹配。实验结果表明,本发明在复杂场景下,能够实现在线的多行人检测跟踪,并实现了较高的准确率。在线多行人检测跟踪的实际应用价值尤为突出,广泛应用于智能视频监控、自动驾驶、机器人视觉导航、人机交互等领域。
Description
技术领域
本发明涉及计算机视觉中的在线行人检测和在线行人跟踪问题,特别是复杂场景下的在线行人检测和跟踪,即实时获取视频中行人的位置坐标信息及其运动轨迹。
背景技术
多目标检测和跟踪作为计算机视觉中的一项关键技术,越来越受到人们的广泛关注,其中多行人检测跟踪的实际应用价值尤为突出,广泛应用于智能视频监控、自动驾驶、机器人视觉导航、人机交互等领域。
目标跟踪算法则主要分类单目标跟踪和多目标跟踪,相比于多目标跟踪算法,视觉单目标跟踪算法研究更为广泛和成熟,比较典型的有Mean Shift算法,卡尔曼滤波算法,粒子滤波算法,TLD算法,KCF算法等。而多目标算法目前仍处在探究阶段,并没有一个较好的解决方案,主流的研究均是在基于检测的跟踪框架上进行优化改进的。多目标算法主要分为在线多目标跟踪和离线多目标跟踪,在线多目标跟踪是由图像序列一步步处理得到视频中目标的运动轨迹,如MHT,POI,DeepSort等。而离线多目标跟踪则是提前获取所有视频帧的目标信息,然后经过计算分析得到不同目标的最终轨迹。目前多目标跟踪算法的研究主要集中在表观模型,运动模型,交互模型,排斥模型的设计以及针对遮挡问题的处理上。
发明内容
本发明的目的是实现在复杂环境下的多行人检测跟踪,可以在线实时获取视频中行人的运动信息,从而便于对城市的管理规划提供帮助。本发明针对在线多目标跟踪算法的实时性需求,采用速度和和精度都较高的YOLOv3目标检测网络,并将YOLOv3的多类别回归问题改为行人框预测的回归问题,并结合多个公开数据集构建大型的行人训练数据集。提高YOLOv3了对行人检测能力。基于YOLOv3检测出的行人后,采用在Re-id上训练的浅层深度学习网络提取行人的表观特征,以及采用卡尔曼滤波进行行人运动的预测,最后结合表观相似度和运动相似度来联合度量行人轨迹与行人检测之间的亲和度,通过KM匹配算法实现检测的行人与已有轨迹的一个关联,进而更新轨迹信息,得到每个行人在新的一帧中的相应位置。
YOLO系列算法的核心思想是将一幅原始图像分成n*n个网格,每个网格负责预测中心点落在该网格中的目标。因此在网络结构中抽取不同层之间的特征图进行融合得到三种不同尺寸的特征图,三种特征图中张量在原始图像上具有不同尺度的感受野,分别适合检测不同尺度的行人。通过卷积神经网络后得到三种尺寸的特征图谱,在每个尺度的特征图上都会进行目标的位置预测,其中19*19的特征图谱用来检测尺寸较大的行人,38*38的特征图谱用来检测中等尺寸的行人,而76*76的特征图谱则用来检测尺寸较小的行人。从而使得该网络模型在保持速度优势的同时,也能很好的对不同尺寸的目标进行精确的位置预测。
首先通过Darknet-53基础卷积神经网络提取图的特征图谱集合,Darknet-53结合了Inception网络结构和Resnet网络结构,采用1*1降维后通过3*3提取特征并升维,同时引入了残差网络结构来解决网络层数的加深而引起梯度弥散的问题,然后由得到的特征图谱的每个张量来负责每一个栅格内的行人边框的回归任务,每个张量分别负责3个初始化边界框的偏移量回归计算,并针对3个不同的尺度的特征图像进行边界框回归。
基于逐帧检测的数据关联是在线多目标跟踪算法的关键步骤,比较流行的做法有多假设跟踪(MHT)和联合概率数据关联滤波器(JPDAF)。在JPDAF中,一个单一的状态假设是通过加权个体测量的关联概率产生的。在MHT中,所有可能的假设都被跟踪,但为了计算的可操作性,必须采用剪枝方案。因此本发明提出了一种新的多行人跟踪框架,引入了基于神经网络提取的外观特征和基于预测得到的运动特征联合关联的方式来解决多目标跟踪中的帧内行人的相异性和帧间行人的相似性两个问题,在跟踪过程中,考虑到短期遮挡、长期遮挡以及目标丢失等因素,通过构建四种轨迹状态以及三种亲和度度量方式来实现行人的有效跟踪。
本发明针对跟踪行人过程中行人误检、目标丢失、遮挡以及新目标的出现等因素,将已经跟踪的轨迹分为五种状态:初始态,跟踪态,短期丢失态,长期丢失态,终止态。
初始态:当检测到的行人未能与已有轨迹进行匹配时,则将该行人视为新出现的行人。针对新出现的行人,需要为其初始化一条新的轨迹,但考虑到误检的情况,不会立即对该轨迹进行实时跟踪,即处于初始态的轨迹是假性存在的轨迹,并不是真实可靠的行人跟踪轨迹。通过设置轨迹初始态能够大量减少误检造成的短轨迹的出现,一定程度上提高的跟踪精度。
跟踪态:当处于初始态的轨迹在连续三帧中都有检测到的行人与之匹配,我们就将其状态转化为跟踪态,确立该轨迹的真实性,表明该行人正处于跟踪状态,处于跟踪态轨迹在与检测行人进行关联时,应该实时更新其轨迹信息,将最近跟踪的行人状态信息保存为轨迹信息。
短期丢失态:当处于跟踪态的轨迹在连续30帧内未与检测到的行人进行匹配时将其标注为丢失态。这样做的好处是在行人被短期遮挡时,不会立马终止该轨迹,而是短暂的保留,当该目标重新出现时能够与该轨迹关联上,能够能够避免行人被短时遮挡造成的ID切换问题。
长期丢失态:当轨迹在连续30帧到120帧未与检测进行匹配时,为长期丢失态。目标在长时间被遮挡时容易出现位置突变或运动方式的改变造成的错误跟踪。为此增加长期丢失态以至于在针对这类轨迹做跟踪时采用表观特征信息作为唯一的参考因素。
终止态:当处于丢失态的的轨迹连续120帧没有跟踪到检测行人时则标注为终止态,表明该行人的跟踪已经结束。
为使本发明的上述目的、特征和优点能更加明显易懂,下文配合所附附图,作详细说明如下。
附图说明
图1为本发明一种复杂场景下的在线多行人检测跟踪方法系统框图;
图2为本发明所提的基于深度学习的行人检测网络结构图;
图3为本发明所提的复杂场景下的多行人跟踪算法结构图;
图4-a为本发明的多尺度预测示意图,图4-b为本发明改进的金字塔池化示意图,图4-c为本发明的基于预选框策略的行人坐标预测示意图;
图5为本发明的基于深度学习的表观特征提取网络结构图;
图6为本发明的多行人跟踪轨迹状态转换示意图。
具体实施方式
下面结合附图及实施例对本发明作进一步的详细说明,有必要指出的是,以下的实施例只用于对本发明做进一步的说明,不能理解为对本发明保护范围的限制,所属领域技术熟悉人员根据上述发明内容,对本发明做出一些非本质的改进和调整进行具体实施,应仍属于本发明的保护范围。
复杂场景下的在线多行人检测跟踪方法,包括以下步骤:
(1)读取视频进行检测,将新的检测目标初始化为初始态轨迹;
(2)逐帧读取视频帧序列,根据轨迹的不同状态采用不同的关联决策求取轨迹与检测的亲和度;
(3)根据轨迹与检测之间的亲和度进行二部图匹配,实现检测与轨迹的关联匹配,并更新轨迹状态;
(4)保存轨迹信息以及实时显示;
(5)重复(2),(3),(4)步骤直至视频读取结束。
具体地,所述步骤(1)中,训练好的深度学习模型读取视频帧进行多行人检测,并将检测出的新出现的目标初始化为初始态轨迹,有新的检测出现时,不会立即为该目标创建一条新轨迹,主要是避免误检测时造成过多的短轨迹的出现,而是通过将该检测划分到初始态的轨迹中,当连续3帧有检测与初始态轨迹关联上时,则确立该轨迹的真实性,将轨迹状态转为跟踪态。
所述步骤(2)中,视频帧序列是步骤(1)中处理过的结果,视频帧序列中检测目标的轨迹有四种不同的状态,根据不同的轨迹状态采取不同的关联策略。关联策略分为以下三种:
①针对初始态轨迹和跟踪态轨迹的度量方法
在跟踪初始态轨迹或者跟踪态轨迹时其实就是关联连续帧之间的行人。考虑到连续帧之间同一行人的外观和运动不会发生较大的变化,因此通过计算轨迹的最近一帧的目标位置与检测目标的位置之间的IOU值以及轨迹的表观特征以及目标的表观特征之间的相似度来联合度量轨迹与行人之间的亲和度。亲和度ω_1计算公式为:
ω=αiωiou+αaωapperance
其中αi为位置信息的度量权重,αa为表观信息的度量权重。在本发明中的取值均为0.5,代表着位置信息与表观特征信息具有相同的度量权重。ωiou为轨迹与检测行人之间位置信息的相似性度量值,ωapperance为轨迹与检测行人之间的表观信息相似性度量。
位置信息度量因子ωiou通过计算轨迹中最近一帧图像中行人的边界框信息bboxt与当前帧的检测行人边界框信息bboxd之间的IOU得到,计算表达式为:
bboxt是轨迹中最近一帧图像中行人的边界框信息,bboxd是当前帧中检测行人的边界框信息。
②针对短期丢失态轨迹的度量方法
当目标在短时间内丢失跟踪时,基于位置关系的度量方法就显得不太合理,因为在短时间丢失之后行人重新出现时会产生位置上的偏差。因此引入运动模型来预测该轨迹在当前帧可能出现的位置信息则较为精确。表观特征信息同样能够很好处理行人之间的相互遮挡与位置交错等问题,因此针对短期丢失态的轨迹与检测行人之间的亲和度ω2计算公式为:
ω2=αmωmotion+αaωapperance
其中αm为运动信息的度量权重,αa为表观特征信息的度量权重。ωmotion为运动模型预测的位置信息与当前帧的检测行人之间的相似性度量。ωapperance为轨迹与检测行人之间的表观信息相似性度量。
运动信息度量因子ωmotion是由卡尔曼滤波根据轨迹信息预测当前帧的位置信息和当前帧检测得到的行人位置信息之间的马氏距离求得,计算表达式为:
ωmotion=(bboxd-bbox′t)TS-1(bboxd-bbox′t)
bboxd是当前帧的行人检测信息,bbox′t是由卡尔曼滤波器通过对轨迹进行预测更新得到的位置信息,S是卡尔曼滤波器在当前时刻的跟踪位置与检测的行人位置之间的协方差矩阵。运动模型和外观模型对整体的贡献权值会直接影响最终的跟踪结果,因此本发明引入了一种自适应调解权重的方法,通过计算轨迹在当前帧内候选目标之间的标准差来确立权值αm和αa的大小。位置和外观的贡献是值得研究的,本发明重新考虑位置与外观的平衡,提出了利用空间边缘进行自适应加权的方法。跟踪策略中的αm和αa是通过帧间的外观变化自适应确定的,通过余弦距离来度量外观之间的相似度。
αm=1-αa
③针对长期丢失态轨迹的度量方法
对于长期丢失跟踪的目标而言,重新出现在视频当中时,位置信息可能发生较大变化同时运动模型的预测也会产生较大的偏移误差,只有表观信息能够提供较为可靠的判别依据,所以针对长期丢失态的轨迹本发明仅采用表观特征的相似度来度量检测行人与轨迹之间的亲和度ω3,其计算公式为:
ω3=ωapp
其中ωapp为轨迹与检测行人之间的表观特征相似度。
所述步骤(3)中,根据轨迹与检测之间的亲和度进行二部图匹配,实现检测与轨迹的数据关联,并更新轨迹状态,采用KM算法能够对其进行有效的求解,但轨迹与检测行人之间的数据关联并不需要考虑完全匹配,因此对KM匹配算法进行简化,具体的算法流程为:
1.为集合A中的所有元素进行初始化,设定标定值为与该元素相连的所有边的最大值,
2.按照集合A的标定值从大到小依次进行匹配,并对集合A和集合B中已匹配元素进行标记。
3.若发生匹配冲突时,则对集合A中剩余未进行匹配的元素重新设定标定值。4.重复2,3的步骤,当集合A中都完成匹配或未匹配元素的标定值小于阈值时终止匹配。
为了证明本发明的算法的有效性,我们对其进行了实验验证,其结果如表1-2所示。
表1本发明算法与其他行人检测算法性能比较
表2本发明算法与其他算法基于不同线索下的跟踪结果比较
Claims (4)
1.一种复杂场景下的在线多行人检测跟踪方法,其特征在于包括以下过程步骤:
(1)读取视频进行检测,将新的检测目标初始化为初始态轨迹;
(2)逐帧读取视频帧序列,针对初始态和跟踪态轨迹状态,采取的关联决策方法是联合目标的位置信息与表观特征来度量轨迹与检测的亲和度;针对短期丢失态轨迹状态,采取的关联决策方法是使用运动模型和表观特征来度量轨迹与检测的亲和度;针对长期丢失态轨迹状态,采取的关联决策方法是运用表观特征来度量轨迹与检测的亲和度;
(3)采用KM算法对轨迹与检测之间的亲和度进行二部图匹配,进行有效的求解,实现检测与轨迹的关联匹配,并更新轨迹状态;
(4)保存轨迹信息以及实时显示;
(5)重复(2),(3),(4)步骤直至视频读取结束。
2.如权利要求1所述的复杂场景下的在线多行人检测跟踪方法,其特征在于在步骤(1)中当有新的检测出现时,不会立即为该目标创建一条新轨迹,而是通过将该检测划分到初试态的轨迹中,当连续3帧有检测与初始态轨迹关联上时,则确立该轨迹的真实性,将轨迹状态转为跟踪态。
3.如权利要求1所述的复杂场景下的在线多行人检测跟踪方法,其特征在于在步骤(2)中根据轨迹的不同状态采用不同的关联决策,由此确定轨迹与检测的亲和度;针对初始态和跟踪态轨迹,计算轨迹的最近一帧的目标位置与检测目标的位置之间的IOU值以及轨迹的表观特征以及目标的表观特征之间的相似度来联合度量轨迹与行人之间的亲和度,位置信息的度量权重αi以及表观信息的度量权重αa的值均设置为0.5;针对短期丢失态轨迹,引入运动模型来预测该轨迹在当前帧出现的位置信息,运用的是一种自适应调解权重的方法,通过计算轨迹在当前帧内候选目标之间的标准差来确立运动信息的度量权值αm;针对长期丢失态轨迹,以表观信息作为轨迹的判别依据,表观信息度量因子ωapperance由当前帧的检测行人表观特征信息Appd与轨迹中最近60帧中行人表观特征信息的最大余弦距离值来度量;基于神经网络提取的外观特征和基于预测得到的运动特征联合关联的方式来解决多目标跟踪中的帧内行人的相异性和帧间行人的相似性两个问题,在跟踪过程中,考虑到短期遮挡、长期遮挡以及目标丢失因素,通过构建四种轨迹状态以及三种亲和度度量方式来实现行人的有效跟踪。
4.如权利要求1所述的复杂场景下的在线多行人检测跟踪方法,其特征在于在步骤(3)中根据轨迹与检测之间的亲和度进行二部图匹配,实现检测与轨迹的数据关联并更新轨迹状态,轨迹与检测行人之间的数据关联并不需要考虑完全匹配,因此采用贪心算法逐帧求取最佳轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910218195.XA CN111739053B (zh) | 2019-03-21 | 2019-03-21 | 一种复杂场景下的在线多行人检测跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910218195.XA CN111739053B (zh) | 2019-03-21 | 2019-03-21 | 一种复杂场景下的在线多行人检测跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111739053A CN111739053A (zh) | 2020-10-02 |
CN111739053B true CN111739053B (zh) | 2022-10-21 |
Family
ID=72645630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910218195.XA Active CN111739053B (zh) | 2019-03-21 | 2019-03-21 | 一种复杂场景下的在线多行人检测跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111739053B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112070807B (zh) * | 2020-11-11 | 2021-02-05 | 湖北亿咖通科技有限公司 | 多目标跟踪方法和电子装置 |
CN112949615B (zh) * | 2021-05-13 | 2021-08-17 | 浙江力嘉电子科技有限公司 | 一种基于融合检测技术的多目标跟踪系统及跟踪方法 |
CN113781521B (zh) * | 2021-07-12 | 2023-08-08 | 山东建筑大学 | 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法 |
CN113674306A (zh) * | 2021-07-29 | 2021-11-19 | 杭州宇泛智能科技有限公司 | 基于鱼眼镜头的行人轨迹获取方法、系统、装置和介质 |
CN114882068B (zh) * | 2022-04-24 | 2023-09-01 | 电子科技大学 | 多目标跟踪方法、装置、计算机设备和存储介质 |
CN116758110B (zh) * | 2023-08-15 | 2023-11-17 | 中国科学技术大学 | 复杂运动场景下的鲁棒多目标跟踪方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2834877A1 (en) * | 2012-11-28 | 2014-05-28 | Henry Leung | System and method for event monitoring and detection |
CN104200488A (zh) * | 2014-08-04 | 2014-12-10 | 合肥工业大学 | 一种基于图表示和匹配的多目标跟踪方法 |
CN104915970A (zh) * | 2015-06-12 | 2015-09-16 | 南京邮电大学 | 一种基于轨迹关联的多目标跟踪方法 |
US9582718B1 (en) * | 2015-06-30 | 2017-02-28 | Disney Enterprises, Inc. | Method and device for multi-target tracking by coupling multiple detection sources |
CN106874856A (zh) * | 2017-01-19 | 2017-06-20 | 博康智能信息技术有限公司 | 一种目标跟踪状态模型训练方法及装置 |
CN106875417A (zh) * | 2017-01-10 | 2017-06-20 | 南京邮电大学 | 一种基于高阶图跨时域关联的多目标跟踪方法 |
CN107016412A (zh) * | 2017-03-29 | 2017-08-04 | 北京北昂科技有限公司 | 基于外观和运动连续性交叉验证的自适应模板更新策略 |
CN107545582A (zh) * | 2017-07-04 | 2018-01-05 | 深圳大学 | 基于模糊逻辑的视频多目标跟踪方法及装置 |
CN108182693A (zh) * | 2017-12-12 | 2018-06-19 | 嘉兴慧康智能科技有限公司 | 一种基于跟踪片段置信度和外观学习的多目标跟踪算法 |
CN108447080A (zh) * | 2018-03-02 | 2018-08-24 | 哈尔滨工业大学深圳研究生院 | 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质 |
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10564714B2 (en) * | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
-
2019
- 2019-03-21 CN CN201910218195.XA patent/CN111739053B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2834877A1 (en) * | 2012-11-28 | 2014-05-28 | Henry Leung | System and method for event monitoring and detection |
CN104200488A (zh) * | 2014-08-04 | 2014-12-10 | 合肥工业大学 | 一种基于图表示和匹配的多目标跟踪方法 |
CN104915970A (zh) * | 2015-06-12 | 2015-09-16 | 南京邮电大学 | 一种基于轨迹关联的多目标跟踪方法 |
US9582718B1 (en) * | 2015-06-30 | 2017-02-28 | Disney Enterprises, Inc. | Method and device for multi-target tracking by coupling multiple detection sources |
CN106875417A (zh) * | 2017-01-10 | 2017-06-20 | 南京邮电大学 | 一种基于高阶图跨时域关联的多目标跟踪方法 |
CN106874856A (zh) * | 2017-01-19 | 2017-06-20 | 博康智能信息技术有限公司 | 一种目标跟踪状态模型训练方法及装置 |
CN107016412A (zh) * | 2017-03-29 | 2017-08-04 | 北京北昂科技有限公司 | 基于外观和运动连续性交叉验证的自适应模板更新策略 |
CN107545582A (zh) * | 2017-07-04 | 2018-01-05 | 深圳大学 | 基于模糊逻辑的视频多目标跟踪方法及装置 |
CN108182693A (zh) * | 2017-12-12 | 2018-06-19 | 嘉兴慧康智能科技有限公司 | 一种基于跟踪片段置信度和外观学习的多目标跟踪算法 |
CN108447080A (zh) * | 2018-03-02 | 2018-08-24 | 哈尔滨工业大学深圳研究生院 | 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质 |
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
Non-Patent Citations (7)
Title |
---|
"Confidence-based data association and discriminative deep appearance learning for robust online multi-object tracking";BAE S 等;《IEEE》;20180301;第40卷(第3期);595-610 * |
"Motion-Based Feature Selection and Adaptive Template Update Strategy for Robust Visual Tracking";Baofeng Wang 等;《2016 3rd International Conference on Information Science and Control Engineering》;20161103;1-7 * |
"Multi-object tracking cascade with multi-step data association and occlusion handling";AL-SHAKARJI N M 等;《IEEE》;20181231;1-6 * |
"Simple online and realtime tracking with a deep association metric";WOJKE N 等;《IEEE》;20180222;3645-3649 * |
"城市量化研究中视频人流统计分析";曹诚 等;《计算机系统应用》;20180415;第27卷(第04期);88-93 * |
"基于GPS定位的智能公交服务系统研究与设计";文雄军;《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》;20070515(第(2007)05期);C034-236 * |
"基于表观判别模型的多目标跟踪研究";蒋帅;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20190315(第(2019)03期);I138-907 * |
Also Published As
Publication number | Publication date |
---|---|
CN111739053A (zh) | 2020-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111739053B (zh) | 一种复杂场景下的在线多行人检测跟踪方法 | |
Hausler et al. | Multi-process fusion: Visual place recognition using multiple image processing methods | |
WO2020215492A1 (zh) | 基于YOLOv3多伯努利视频多目标检测跟踪方法 | |
CN107545582B (zh) | 基于模糊逻辑的视频多目标跟踪方法及装置 | |
CN108447080B (zh) | 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质 | |
CN113506317B (zh) | 一种基于Mask R-CNN和表观特征融合的多目标跟踪方法 | |
CN104200495B (zh) | 一种视频监控中的多目标跟踪方法 | |
CN110288627B (zh) | 一种基于深度学习和数据关联的在线多目标跟踪方法 | |
CN107145862B (zh) | 一种基于霍夫森林的多特征匹配多目标跟踪方法 | |
CN109919981A (zh) | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 | |
CN109360226A (zh) | 一种基于时间序列多特征融合的多目标跟踪方法 | |
CN109800624A (zh) | 一种基于行人重识别的多目标跟踪方法 | |
CN112200021B (zh) | 基于有限范围场景内的目标人群跟踪监控方法 | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
CN111626194A (zh) | 一种使用深度关联度量的行人多目标跟踪方法 | |
CN109086648A (zh) | 一种融合目标检测和特征匹配的目标跟踪方法 | |
CN113256690B (zh) | 一种基于视频监控的行人多目标跟踪方法 | |
CN113223045A (zh) | 基于动态物体语义分割的视觉与imu传感器融合定位系统 | |
CN110728694A (zh) | 一种基于持续学习的长时视觉目标跟踪方法 | |
CN110569706A (zh) | 一种基于时间和空间网络的深度集成目标跟踪算法 | |
CN111008991A (zh) | 一种背景感知的相关滤波目标跟踪方法 | |
CN116245949A (zh) | 一种基于改进四叉树特征点提取的高精度视觉slam方法 | |
CN110660084A (zh) | 一种多目标跟踪的方法及装置 | |
Yi et al. | Multi-Person tracking algorithm based on data association | |
CN109448024A (zh) | 利用深度数据构建约束相关滤波器的视觉跟踪方法、系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |