CN110660083A - 一种结合视频场景特征感知的多目标跟踪方法 - Google Patents

一种结合视频场景特征感知的多目标跟踪方法 Download PDF

Info

Publication number
CN110660083A
CN110660083A CN201910924481.8A CN201910924481A CN110660083A CN 110660083 A CN110660083 A CN 110660083A CN 201910924481 A CN201910924481 A CN 201910924481A CN 110660083 A CN110660083 A CN 110660083A
Authority
CN
China
Prior art keywords
target
video
track
feature
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910924481.8A
Other languages
English (en)
Other versions
CN110660083B (zh
Inventor
陈勇
刘迪
杜长青
谢洪平
黄涛
吴威
王昊
陈磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jinmao New Energy Group Co Ltd
Jiangsu Electric Power Engineering Consulting Co Ltd
Southeast University
State Grid Jiangsu Electric Power Co Ltd
Original Assignee
Jinmao New Energy Group Co Ltd
Jiangsu Electric Power Engineering Consulting Co Ltd
Southeast University
State Grid Jiangsu Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jinmao New Energy Group Co Ltd, Jiangsu Electric Power Engineering Consulting Co Ltd, Southeast University, State Grid Jiangsu Electric Power Co Ltd filed Critical Jinmao New Energy Group Co Ltd
Priority to CN201910924481.8A priority Critical patent/CN110660083B/zh
Publication of CN110660083A publication Critical patent/CN110660083A/zh
Application granted granted Critical
Publication of CN110660083B publication Critical patent/CN110660083B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明公开了一种结合视频场景特征感知的多目标跟踪方法,包括如下步骤:采用深度网络检测初始视频帧中的目标,确定目标的位置、尺寸等信息;将目标图像输入到特征提取网络提取目标的外观特征,同时将视频图像输入CNN进行场景感知,结合场景特征和检测目标的信息,通过LSTM网络预测目标的运动状态;根据目标的外观特征和运动特征分别计算检测目标与已跟踪目标的外观相似度和运动匹配度,融合得到最终的距离度量;根据距离度量采用匈牙利方法进行检测目标和轨迹的匹配;采用上述方法进行下一帧视频的处理,直至视频结束。所述方法克服了已有多目标跟踪方法在复杂场景下跟踪精度低的问题,因此具有更加广泛的适用性,同时具有实时跟踪的能力。

Description

一种结合视频场景特征感知的多目标跟踪方法
技术领域
本发明涉及一种结合视频场景特征感知的多目标跟踪方法,属于计算机视觉中的多目标跟踪技术领域。
背景技术
目标跟踪是计算机视觉的一个重要研究领域。近年来,深度学习在计算机视觉领域得到了广泛应用,许多研究者也开始将深度学习模型引入到目标跟踪中,并取得了很好的效果。同时视频中目标跟踪技术也被广泛应用于人类生产生活的各个领域,包括精确制导、视频监控、无人驾驶
根据跟踪目标的数量,目标跟踪可分为单目标跟踪和多目标跟踪,单目标跟踪的主要研究内容是如何克服光照变化、物体形变、互相重叠、尺寸变化等造成的影响,实现对单一目标的准确、高效跟踪。不同于单目标跟踪,多目标跟踪的核心是如何实现各个目标在前后视频帧的准确、高效匹配。因此多目标跟踪在实际的视频分析应用中具有更大的应用价值和研究意义。
目前多目标跟踪技术已经有了不少研究成果:多假设跟踪(MHT)、概率数据滤波法(JPDAF)和基于卡曼滤波和匈牙利算法的多目标跟踪算法,是多目标跟踪中常用的三个方法,不同于检测跟踪类方法将跟踪问题视为全局优化问题,MHT和JPDAF采用逐帧关联的数据关联方式。在JPDAF中,单个状态假设是通过关联概率对单个测量值进行加权而产生的。在MHT中,所有可能的假设都被跟踪,但为了计算的可行性,必须应用剪枝方案。最近,这两种方法都在检测跟踪场景中被重新使用,并产生了较好的效果。然而,这些方法都是以牺牲计算和实现复杂度为代价的,并不适合实际应用中的实时性要求。
基于卡曼滤波和匈牙利算法的多目标跟踪算法,在Sort(Simple Online andRealtime Tracking)算法的基础上进行改进,结合了目标的外观特征信息,同时采用了级联匹配的数据关联策略,减轻了目标发生混叠时产生IDSwitch的问题。算法在进行目标运动特征匹配时,采用匀速线性运动模型对目标的运动状态进行估计,并使用卡曼滤波方法进行状态更新,当跟踪目标的运动受环境影响较小时,该方法能够很好地估计目标未来的运动状态,因此在简单场景中具有良好的跟踪效果,具有较高的跟踪鲁棒性,同时具有简单、高效、实时性好的优点。但在复杂场景下,目标的运动状态往往是非线性变化的,如躲避障碍物、走向出口,此时仍然采用该方法进行运动状态预测会产生较大误差,目标跟踪的效果也会因此降低。
现有的多目标跟踪算法进行目标跟踪时大多没有考虑到场景对目标运动的影响,因此在复杂场景下对目标进行跟踪会产生较大的误差,因此需要一种结合视频场景信息的多目标跟踪方法,能够对复杂场景中的多个目标进行快速、准确跟踪。
发明内容
本发明为了解决现有技术中多目标跟踪算法在复杂场景下对目标进行跟踪时误差大的不足,提供一种能够感知视频场景信息的多目标跟踪方法,从而实现对复杂场景中的多个目标进行快速、准确跟踪。
为了达到上述目的,本发明提出的技术方案为:一种结合视频场景特征感知的多目标跟踪方法,其特征在于,包括以下步骤:
步骤一、采用FasterRCNN算法检测初始视频帧图像中的目标,得到t时刻第i个目标的检测信息
Figure BDA0002218505090000021
步骤二、在初始情况下(t=0时),直接进入步骤四。
t>0非初始状态时,将目标图像输入到特征提取网络中提取目标的外观特征
Figure BDA0002218505090000022
同时采用CNN网络对视频图像的场景信息进行感知得到场景特征St
将检测信息
Figure BDA0002218505090000023
和场景特征St输入到LSTM网络中,计算第i个目标的LSTM在t时刻的隐藏状态向量
Figure BDA0002218505090000024
Figure BDA0002218505090000025
其中WL为LSTM网络的权值矩阵,
Figure BDA0002218505090000026
为LSTM在t-1时刻的隐藏状态向量;
通过下式得到t时刻第i个目标的运动特征
Figure BDA0002218505090000027
Figure BDA0002218505090000028
其中Wo为LSTM网络输出层的权值矩阵,bo为输出层的偏置矩阵,(p,q)为目标检测信息中的目标位置坐标,v为运动速度;
步骤三、计算当前视频帧中检测目标与已跟踪目标之间的外观匹配度da和运动特征匹配度dm,并将二者融合得到最终的距离度量d;
计算目标i与已跟踪目标j的外观特征向量之间的最小余弦距离:
Figure BDA0002218505090000029
其中,
Figure BDA00022185050900000210
代表目标i的外观特征向量,Tj代表已跟踪目标j的轨迹,
Figure BDA00022185050900000211
代表轨迹Tj在k时刻的检测的特征向量;
设定阈值ta排除不可能的数据关联:
计算目标i与已跟踪目标j在当前时刻的运动状态之间的马氏距离:
Figure BDA0002218505090000031
其中
Figure BDA0002218505090000032
为当前时刻将检测目标i加入轨迹Tj时计算得到的轨迹Tj的运动状态,即
Figure BDA0002218505090000033
为轨迹Tj中的最后一个检测;
Figure BDA0002218505090000035
是由LSTM网络预测的目标i在当前时间和空间的协方差矩阵;
设定阈值tm排除不可能的数据关联:
Figure BDA0002218505090000036
将da和dm通过加权平均得目标di与轨迹Tj最终的距离度量d:
d(i,j)=ca·cm(α·da(i,j)+(1-α)·dm(i,j))
其中α为超参数;
步骤四、在初始情况下(t=0时),直接将目标的检测
Figure BDA0002218505090000037
初始化为轨迹Ti。然后返回步骤一,进行下一视频帧的处理,直至视频结束。
在非初始情况下,根据距离度量d采用匈牙利方法进行当前检测目标和已跟踪目标的匹配。若目标i与已跟踪目标j的距离d最短,则将目标i的检测
Figure BDA0002218505090000038
加入轨迹Tj,除非轨迹Tj已与目标k匹配,且d(i,k)<d(i,j)。然后返回步骤一,进行下一视频帧的处理,直至视频结束。
对上述技术方案的进一步设计为:所述步骤一中使用FasterRCNN算法对其中的目标进行检测,t时刻第i个目标检测信息记为
Figure BDA0002218505090000039
其中t代表物体的种类代码,(p,q)是检测框底边的中点坐标,v是检测物体的运动速度,初始化时v设置为0,h是检测框的高度,γ为检测框的纵横比。
所述步骤二中将目标图像输入到特征提取网络提取目标的外观特征的具体方法如下:
利用步骤一中FasterRCNN算法中的检测框将目标图像从视频帧中分割出来,并将其输入到特征提取网络CNN网络中进行外观特征提取,t时刻视频帧中的第i个目标的特征记为
Figure BDA00022185050900000310
所述特征提取CNN网络为具有2个卷积层和6个残差块的宽频域网络,并由全连接层输出128维特征向量r。
所述步骤二中用于感知视频图像的场景特征的CNN网络包含3个卷积层,每个卷积层后面设有1层极大化层,并通过2个全连接层输出256维的特征向量St
所述步骤四中采用采用匈牙利方法将检测目标和轨迹进行匹配的条件是,目标i只和与其距离最短的轨迹Tj匹配,除非轨迹Tj已与目标k匹配,且d(i,k)<d(i,j)。
本发明的技术方案与现有技术相比产生的技术效果为:
本发明提出的一种结合视频场景特征感知的多目标跟踪方法,使用深度神经网络感知场景信息,并结合目标的运动、场景等信息,利用循环神经网络对复杂场景下对目标的运动状态进行更加准确的预测,从而更好地辅助目标跟踪。克服了现有多目标跟踪算法在复杂场景下跟踪鲁棒性低,容易跟踪失败的问题。
本发明同时结合了外观特征和运动特征进行跟踪目标相似度的计算,既具有外观特征在轨迹长时间丢失的情况下进行匹配比较有效的特点,又具有运动特征对于短期的预测和匹配效果好的特点,因此短时期和长时期跟踪的性能都比较好。
本发明提出的方法可以实现对复杂场景下多个目标进行跟踪,方法实现过程中不需要针对跟踪目标进行特殊训练,因此具有广泛的适用性。同时,该方法对复杂环境下的干扰具有较强的抵抗能力,与现有多目标跟踪算法相比,该方法精度高,实时性好,更加符合现实应用中的跟踪需求。
附图说明
图1是本发明实施例所述方法的流程图;
图2为本发明实施例所述方法的框架结构图;
图3为本发明实施例所述方法的场景感知和运动状态预测模块示意图;
图4为本发明实施例的跟踪数据关联算法流程图;
具体实施方式
下面结合附图以及具体实施例对本发明进行详细说明。
实施例
如图1和图2所示,本发明设计了一种结合视频场景特征感知的多目标跟踪方法,该方法具体包括以下步骤:
步骤1:采用深度网络检测初始视频帧中的目标,确定目标的位置、尺寸等信息。
对于t时刻的视频帧f,使用FasterRCNN算法对其中的目标进行检测,每个检测记为其中t代表物体的种类代码,(p,q)是检测框底边的中点坐标,v是检测物体的运动速度,初始化时v设置为0,h是检测框的高度,γ为检测框的纵横比。
步骤2:在初始情况下(t=0时),直接进入步骤4。
在非初始情况下,将目标图像输入到特征提取网络提取目标的外观特征
Figure BDA0002218505090000042
同时采用CNN网络对视频图像的场景信息进行感知得到场景特征St,并结合场景特征St和检测目标的信息通过LSTM网络预测目标的运动状态
Figure BDA0002218505090000044
如图3。具体实现如下:
(1)根据目标检测框将目标图像从视频帧中分割出来,并将其输入到预训练的CNN网络中进行外观特征提取。
其中,特征提取网络是一个在大规模行人重识别数据集上进行训练的具有2个卷积层和6个残差块的宽频域网络,并由最后的全连接层输出128维特征向量r。时刻t的视频帧中第i个目标的特征记为
Figure BDA0002218505090000051
(2)将时刻t的视频帧输入预训练的CNN网络中提取场景特征St。该CNN包含3个卷积层,每个卷积层后面有1层极大化层,最后通过2个全连接层输出256维的特征向量St
(3)将t时刻第i个目标的检测
Figure BDA0002218505090000052
和场景特征向量St输入到LSTM网络中,计算第i个目标的LSTM在t时刻的隐藏状态向量
Figure BDA0002218505090000053
其中WL为LSTM网络的权值矩阵,其值通过网络的训练确定。
Figure BDA0002218505090000055
为LSTM在t-1时刻的隐藏状态向量。
LSTM网络的具体实现方法如下:
输入门定义为Git=σ(Wixxt+Wihht-1+Wicct-1+bi),遗忘门定义为Gft=σ(Wfxxt+Wfhht-1+Wfcct-1+bf),输出门定义为Got=σ(Woxxt+Wohht-1+Wocct+bo)。
其中ct=Gftct-1+Gittanh(Wcxxt+Wchht-1)+bc,ht=Gottanh(ct),σ(·)为sigmoid激活函数,Wij表示网络第i层与第j层之间的权值矩阵,b表示网络各层的偏置矩阵。
(4)LSTM网络对目标i在t时刻的状态预测通过下式得到:
Figure BDA0002218505090000056
其中Wo为LSTM网络输出层的权值矩阵,bo为输出层的偏置矩阵,其值通过网络的训练确定。构成m的三个参数p,q,v即为目标检测向量d中的目标位置坐标和运动速度参数。
预测目标运动状态所使用的网络,采用端到端的方式进行训练,即将CNN和LSTM网络组成目标运动状态预测网络进行训练。
步骤3:根据提取到的外观特征预测的运动特征
Figure BDA0002218505090000058
分别计算当前视频帧中检测目标和已跟踪目标的外观匹配度da和运动状态匹配度dm,并将二者融合得到最终的距离度量d。
具体的方法如下:
(1)计算目标i与已跟踪目标j的外观特征向量之间的最小余弦距离:
Figure BDA0002218505090000059
其中,
Figure BDA00022185050900000510
代表目标i的外观特征向量,Tj代表已跟踪目标j的轨迹,
Figure BDA00022185050900000511
代表轨迹Tj在k时刻的检测的特征向量;
并通过设定阈值ta以95%的置信度排除不可能的数据关联:
Figure BDA0002218505090000061
在CNN网络的训练过程中,该阈值通过计算正确与错误的数据关联之间的距离来确定。
(2)计算目标i与已跟踪目标j在当前时刻的运动状态之间的马氏距离:
Figure BDA0002218505090000062
其中
Figure BDA0002218505090000063
为当前时刻将检测目标i加入轨迹Tj时计算得到的轨迹Tj的运动状态,即
Figure BDA0002218505090000064
具体地,
Figure BDA0002218505090000066
Figure BDA0002218505090000067
是由LSTM网络预测的目标i在当前时间和空间的协方差矩阵;
类似地,设定阈值tm以排除不可能的数据关联:
(3)da和dm通过加权平均得目标di与轨迹Tj最终的距离度量:
d(i,j)=ca·cm(α·da(i,j)+(1-α)·dm(i,j))
其中α为超参数。
步骤4:在初始情况下(t=0时),直接将目标的检测
Figure BDA0002218505090000069
初始化为轨迹Ti。然后进入步骤5。
非初始情况下,根据距离度量d采用匈牙利方法进行当前检测目标和轨迹的匹配,具体的算法如图3所示:
图3所示算法用于对t(t≠0)时刻的视频帧中的检测目标与跟踪轨迹进行数据关联,算法中将目标检测
Figure BDA00022185050900000610
记为di。算法正确运行的前提条件是检测目标的数量与跟踪轨迹的数量相等。
步骤4.1、算法初始化,采用步骤3中的距离度量公式计算距离度量矩阵D=d(i,j),初始化两个数组M1,M2,分别用来记录检测目标和轨迹的匹配对象(如M1[i]=j,表示与检测目标di匹配的轨迹为Tj),两个数组的元素初始值都为-1,表示处于未匹配状态。定义并初始化未匹配检测目标的集合U和轨迹数组T。
步骤4.2、从集合U中选取一个检测di,若集合U为空则进入步骤4.6,集合U不为空则将j初始化为0,与T中的轨迹数据Tj逐个进行匹配。匹配的基本思想是:将目标与距离度量最小的轨迹进行匹配。
步骤4.3、匹配分为以下几种情况,
算法流程如图4所示:
a.轨迹Tj还未与其他检测匹配:若检测di与轨迹Tj之间的距离小于检测di当前匹配的距离,则撤销检测di当前的匹配,将其与轨迹Tj进行匹配,若di在集合U中,将其从集合U中移除,进入步骤4.4。否则,进入步骤4.4。
b1.轨迹Tj还已与其他检测匹配,检测di与轨迹Tj之间的距离小于检测di当前匹配的距离,且若检测di与轨迹Tj之间的距离小于轨迹Tj当前匹配的距离,撤销检测di和轨迹Tj当前的匹配,将检测di与轨迹Tj进行匹配,若di在集合U中,将其从集合U中移除,并将轨迹Tj之前的匹配对象加入到待匹配检测集合U中,进入步骤4.4。
b2.轨迹Tj还已与其他检测匹配,检测di与轨迹Tj之间的距离小于检测di当前匹配的距离,但若检测di与轨迹Tj之间的距离不小于轨迹Tj当前匹配的距离,进入步骤4.4。
b3.轨迹Tj还已与其他检测匹配,且检测di与轨迹Tj之间的距离不小于检测di当前匹配的距离,进入步骤4.4。
步骤4.4、j自增1,准备处理轨迹Tj+1,此时需要判断是否已完成所有轨迹的处理,若没有,则进入步骤4.3,否则,进入步骤4.5。
步骤4.5、判断集合U是否为空,即是否完成了所有检测与轨迹数据的匹配,若为空,则进入步骤4.6,否则进入步骤4.2。
步骤4.6、后处理。根据匹配数组M1完成检测数据和轨迹数据的关联,如M1[i]=j,则将检测di加入估计Tj中。
步骤5:重复以上步骤进行下一帧视频的处理,直至视频结束。
上述方法克服了现有多目标跟踪算法跟踪鲁棒性低,在复杂环境的影响下易跟踪失败的问题,同时保持了在线实时跟踪的能力,因此具有更强的实用性,能够满足实际场景中目标跟踪的需求。
使用本发明方法在多目标跟踪数据集的MOT16-14视频序列上进行跟踪测试,跟踪结果显示本发明算法能够很好地应对复杂场景为目标跟踪带来的挑战,准确跟踪目标并给出目标区域di
本发明的不局限于上述各实施例,凡采用等同替换方式得到的技术方案均落在本发明要求保护的范围内。

Claims (6)

1.一种结合视频场景特征感知的多目标跟踪方法,其特征在于,包括以下步骤:
步骤一、采用FasterRCNN算法检测初始视频帧图像中的目标,得到t时刻第i个目标的检测信息
Figure FDA0002218505080000011
步骤二、当t=0时,为初始状态,直接进入步骤四。
t>0非初始状态时,将目标图像输入到特征提取网络中提取目标的外观特征
Figure FDA0002218505080000012
同时采用CNN网络对视频图像的场景信息进行感知得到场景特征St
将检测信息
Figure FDA0002218505080000013
和场景特征St输入到LSTM网络中,计算第i个目标的LSTM在t时刻的隐藏状态向量
Figure FDA0002218505080000014
Figure FDA0002218505080000015
其中WL为LSTM网络的权值矩阵,
Figure FDA0002218505080000016
为LSTM在t-1时刻的隐藏状态向量;
通过下式得到t时刻第i个目标的运动特征
Figure FDA0002218505080000017
Figure FDA0002218505080000018
其中Wo为LSTM网络输出层的权值矩阵,bo为输出层的偏置矩阵,(p,q)为目标检测信息中的目标位置坐标,v为运动速度;
步骤三、计算当前视频帧中检测目标与已跟踪目标之间的外观匹配度da和运动特征匹配度dm,并将二者融合得到最终的距离度量d;
计算目标i与已跟踪目标j的外观特征向量之间的最小余弦距离:
Figure FDA0002218505080000019
其中,
Figure FDA00022185050800000110
代表目标i的外观特征向量,Tj代表已跟踪目标j的轨迹,代表轨迹Tj在k时刻的检测的特征向量;
设定阈值ta排除不可能的数据关联:
Figure FDA00022185050800000112
计算目标i与已跟踪目标j在当前时刻的运动状态之间的马氏距离:
Figure FDA00022185050800000113
其中
Figure FDA00022185050800000114
为当前时刻将检测目标i加入轨迹Tj时计算得到的轨迹Tj的运动状态,即
Figure FDA00022185050800000115
Figure FDA00022185050800000116
为轨迹Tj中的最后一个检测;
Figure FDA00022185050800000117
是由LSTM网络预测的目标i在当前时间和空间的协方差矩阵;
设定阈值tm排除不可能的数据关联:
Figure FDA0002218505080000021
将da和dm通过加权平均得目标di与轨迹Tj最终的距离度量d:
d(i,j)=ca·cm(α·da(i,j)+(1-α)·dm(i,j))
其中α为超参数;
步骤四、当t=0时,将目标的检测
Figure FDA0002218505080000022
初始化为轨迹Ti,即该目标为已跟踪目标;然后返回步骤一,进行下一视频帧的处理,直至视频结束。
当非初始情况时,根据距离度量d采用匈牙利方法进行当前检测目标和已跟踪目标的匹配。若目标i与已跟踪目标j的距离d最短,则将目标i的检测加入轨迹Tj,除非轨迹Tj已与目标k匹配,且d(i,k)<d(i,j)。然后返回步骤一,进行下一视频帧的处理,直至视频结束。
2.根据权利要求1所述结合视频场景特征感知的多目标跟踪方法,其特征在于:所述步骤一中使用FasterRCNN算法对其中的目标进行检测,t时刻第i个目标检测信息记为
Figure FDA0002218505080000024
Figure FDA0002218505080000025
其中t代表物体的种类代码,(p,q)是检测框底边的中点坐标,v是检测物体的运动速度,初始化时v设置为0,h是检测框的高度,γ为检测框的纵横比。
3.根据权利要求1所述结合视频场景特征感知的多目标跟踪方法,其特征在于:所述步骤二中将目标图像输入到特征提取网络提取目标的外观特征的具体方法如下:
利用步骤一中FasterRCNN算法中的检测框将目标图像从视频帧中分割出来,并将其输入到特征提取网络CNN网络中进行外观特征提取,t时刻视频帧中的第i个目标的特征记为
4.根据权利要求3所述结合视频场景特征感知的多目标跟踪方法,其特征在于:所述特征提取CNN网络为具有2个卷积层和6个残差块的宽频域网络,并由全连接层输出128维特征向量r。
5.根据权利要求4所述结合视频场景特征感知的多目标跟踪方法,其特征在于:所述步骤二中用于感知视频图像的场景特征的CNN网络包含3个卷积层,每个卷积层后面设有1层极大化层,并通过2个全连接层输出256维的特征向量St
6.根据权利要求1所述结合视频场景特征感知的多目标跟踪方法,其特征在于:所述步骤四中采用采用匈牙利方法将检测目标和轨迹进行匹配的条件是,目标i只与其距离最短的轨迹Tj匹配,除非轨迹Tj已与目标k匹配,且d(i,k)<d(i,j)。
CN201910924481.8A 2019-09-27 2019-09-27 一种结合视频场景特征感知的多目标跟踪方法 Active CN110660083B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910924481.8A CN110660083B (zh) 2019-09-27 2019-09-27 一种结合视频场景特征感知的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910924481.8A CN110660083B (zh) 2019-09-27 2019-09-27 一种结合视频场景特征感知的多目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110660083A true CN110660083A (zh) 2020-01-07
CN110660083B CN110660083B (zh) 2022-12-23

Family

ID=69039482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910924481.8A Active CN110660083B (zh) 2019-09-27 2019-09-27 一种结合视频场景特征感知的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110660083B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111354023A (zh) * 2020-03-09 2020-06-30 中振同辂(江苏)机器人有限公司 一种基于摄像头的视觉多目标跟踪方法
CN111666871A (zh) * 2020-06-03 2020-09-15 南京航空航天大学 一种面向无人机的改进yolo与sift相结合的多小目标检测跟踪方法
CN111681264A (zh) * 2020-06-05 2020-09-18 浙江新再灵科技股份有限公司 一种监控场景的实时多目标跟踪方法
CN111768430A (zh) * 2020-06-23 2020-10-13 重庆大学 一种基于多特征级联匹配的高速公路外场车辆跟踪方法
CN111862153A (zh) * 2020-07-10 2020-10-30 电子科技大学 一种面向行人的长时间多目标跟踪方法
CN111932583A (zh) * 2020-06-05 2020-11-13 西安羚控电子科技有限公司 一种基于复杂背景下的时空信息一体化智能跟踪方法
CN111986228A (zh) * 2020-09-02 2020-11-24 华侨大学 一种基于lstm模型扶梯场景下的行人跟踪方法、装置和介质
CN112132152A (zh) * 2020-09-21 2020-12-25 厦门大学 一种利用短程关联和长程修剪的多目标跟踪与分割方法
CN112215873A (zh) * 2020-08-27 2021-01-12 国网浙江省电力有限公司电力科学研究院 用于对变电站内多目标跟踪定位的方法
CN112396033A (zh) * 2020-12-03 2021-02-23 天津大学 一种鸟类寤寐节律检测方法、装置、终端设备及存储介质
CN112802067A (zh) * 2021-01-26 2021-05-14 深圳市普汇智联科技有限公司 一种基于图网络的多目标跟踪方法及系统
CN113012203A (zh) * 2021-04-15 2021-06-22 南京莱斯电子设备有限公司 一种复杂背景下高精度多目标跟踪方法
CN114972418A (zh) * 2022-03-30 2022-08-30 北京航空航天大学 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919974A (zh) * 2019-02-21 2019-06-21 上海理工大学 基于r-fcn框架多候选关联的在线多目标跟踪方法
CN110135314A (zh) * 2019-05-07 2019-08-16 电子科技大学 一种基于深度轨迹预测的多目标跟踪方法
US20190266420A1 (en) * 2018-02-27 2019-08-29 TuSimple System and method for online real-time multi-object tracking

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190266420A1 (en) * 2018-02-27 2019-08-29 TuSimple System and method for online real-time multi-object tracking
CN109919974A (zh) * 2019-02-21 2019-06-21 上海理工大学 基于r-fcn框架多候选关联的在线多目标跟踪方法
CN110135314A (zh) * 2019-05-07 2019-08-16 电子科技大学 一种基于深度轨迹预测的多目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李明华等: "基于分层数据关联的在线多目标跟踪算法", 《现代计算机(专业版)》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111354023A (zh) * 2020-03-09 2020-06-30 中振同辂(江苏)机器人有限公司 一种基于摄像头的视觉多目标跟踪方法
CN111666871A (zh) * 2020-06-03 2020-09-15 南京航空航天大学 一种面向无人机的改进yolo与sift相结合的多小目标检测跟踪方法
CN111666871B (zh) * 2020-06-03 2024-02-09 南京航空航天大学 一种面向无人机的改进yolo与sift相结合的多小目标检测跟踪方法
CN111932583A (zh) * 2020-06-05 2020-11-13 西安羚控电子科技有限公司 一种基于复杂背景下的时空信息一体化智能跟踪方法
CN111681264A (zh) * 2020-06-05 2020-09-18 浙江新再灵科技股份有限公司 一种监控场景的实时多目标跟踪方法
CN111768430A (zh) * 2020-06-23 2020-10-13 重庆大学 一种基于多特征级联匹配的高速公路外场车辆跟踪方法
CN111768430B (zh) * 2020-06-23 2023-08-11 重庆大学 一种基于多特征级联匹配的高速公路外场车辆跟踪方法
CN111862153A (zh) * 2020-07-10 2020-10-30 电子科技大学 一种面向行人的长时间多目标跟踪方法
CN111862153B (zh) * 2020-07-10 2022-06-24 电子科技大学 一种面向行人的长时间多目标跟踪方法
CN112215873A (zh) * 2020-08-27 2021-01-12 国网浙江省电力有限公司电力科学研究院 用于对变电站内多目标跟踪定位的方法
CN111986228A (zh) * 2020-09-02 2020-11-24 华侨大学 一种基于lstm模型扶梯场景下的行人跟踪方法、装置和介质
CN111986228B (zh) * 2020-09-02 2023-06-02 华侨大学 一种基于lstm模型扶梯场景下的行人跟踪方法、装置和介质
CN112132152A (zh) * 2020-09-21 2020-12-25 厦门大学 一种利用短程关联和长程修剪的多目标跟踪与分割方法
CN112132152B (zh) * 2020-09-21 2022-05-27 厦门大学 一种利用短程关联和长程修剪的多目标跟踪与分割方法
CN112396033B (zh) * 2020-12-03 2023-02-28 天津大学 一种鸟类寤寐节律检测方法、装置、终端设备及存储介质
CN112396033A (zh) * 2020-12-03 2021-02-23 天津大学 一种鸟类寤寐节律检测方法、装置、终端设备及存储介质
CN112802067A (zh) * 2021-01-26 2021-05-14 深圳市普汇智联科技有限公司 一种基于图网络的多目标跟踪方法及系统
CN112802067B (zh) * 2021-01-26 2024-01-26 深圳市普汇智联科技有限公司 一种基于图网络的多目标跟踪方法及系统
CN113012203A (zh) * 2021-04-15 2021-06-22 南京莱斯电子设备有限公司 一种复杂背景下高精度多目标跟踪方法
CN113012203B (zh) * 2021-04-15 2023-10-20 南京莱斯电子设备有限公司 一种复杂背景下高精度多目标跟踪方法
CN114972418A (zh) * 2022-03-30 2022-08-30 北京航空航天大学 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法
CN114972418B (zh) * 2022-03-30 2023-11-21 北京航空航天大学 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法

Also Published As

Publication number Publication date
CN110660083B (zh) 2022-12-23

Similar Documents

Publication Publication Date Title
CN110660083B (zh) 一种结合视频场景特征感知的多目标跟踪方法
Dewan et al. Motion-based detection and tracking in 3d lidar scans
CN110070074B (zh) 一种构建行人检测模型的方法
CN109341703B (zh) 一种全周期采用CNNs特征检测的视觉SLAM算法
EP3633615A1 (en) Deep learning network and average drift-based automatic vessel tracking method and system
CN108961308B (zh) 一种漂移检测的残差深度特征目标跟踪方法
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN103617636A (zh) 基于运动信息及稀疏投影的视频目标自动检测跟踪方法
CN107622507B (zh) 一种基于深度学习的空中目标跟踪方法
Cao et al. Correlation-based tracking of multiple targets with hierarchical layered structure
CN110310305A (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN114283355A (zh) 一种基于小样本学习的多目标濒危动物跟踪方法
He et al. Fast online multi-pedestrian tracking via integrating motion model and deep appearance model
CN111739066A (zh) 一种基于高斯过程的视觉定位方法、系统及存储介质
CN111639570A (zh) 一种基于运动模型和单目标线索的在线多目标跟踪方法
EP4194881A1 (en) Deep smartphone sensors fusion for indoor positioning and tracking
CN109493370A (zh) 一种基于空间偏移学习的目标跟踪方法
Mohedano et al. Camera localization usingtrajectories and maps
Luo et al. Research on UAV multi-object tracking based on deep learning
Neloy et al. Alpha-N-V2: Shortest path finder automated delivery robot with obstacle detection and avoiding system
CN115050095A (zh) 一种基于高斯过程回归和渐进滤波的人体姿态预测方法
CN113781563B (zh) 一种基于深度学习的移动机器人回环检测方法
Liu et al. Multipedestrian online tracking based on social force-predicted deformable key-points mapping via compressive sensing
CN114782500A (zh) 基于多目标跟踪的卡丁车比赛行为分析方法
CN105654514A (zh) 一种图像目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant