CN110660083A - 一种结合视频场景特征感知的多目标跟踪方法 - Google Patents
一种结合视频场景特征感知的多目标跟踪方法 Download PDFInfo
- Publication number
- CN110660083A CN110660083A CN201910924481.8A CN201910924481A CN110660083A CN 110660083 A CN110660083 A CN 110660083A CN 201910924481 A CN201910924481 A CN 201910924481A CN 110660083 A CN110660083 A CN 110660083A
- Authority
- CN
- China
- Prior art keywords
- target
- video
- track
- feature
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了一种结合视频场景特征感知的多目标跟踪方法,包括如下步骤:采用深度网络检测初始视频帧中的目标,确定目标的位置、尺寸等信息;将目标图像输入到特征提取网络提取目标的外观特征,同时将视频图像输入CNN进行场景感知,结合场景特征和检测目标的信息,通过LSTM网络预测目标的运动状态;根据目标的外观特征和运动特征分别计算检测目标与已跟踪目标的外观相似度和运动匹配度,融合得到最终的距离度量;根据距离度量采用匈牙利方法进行检测目标和轨迹的匹配;采用上述方法进行下一帧视频的处理,直至视频结束。所述方法克服了已有多目标跟踪方法在复杂场景下跟踪精度低的问题,因此具有更加广泛的适用性,同时具有实时跟踪的能力。
Description
技术领域
本发明涉及一种结合视频场景特征感知的多目标跟踪方法,属于计算机视觉中的多目标跟踪技术领域。
背景技术
目标跟踪是计算机视觉的一个重要研究领域。近年来,深度学习在计算机视觉领域得到了广泛应用,许多研究者也开始将深度学习模型引入到目标跟踪中,并取得了很好的效果。同时视频中目标跟踪技术也被广泛应用于人类生产生活的各个领域,包括精确制导、视频监控、无人驾驶
根据跟踪目标的数量,目标跟踪可分为单目标跟踪和多目标跟踪,单目标跟踪的主要研究内容是如何克服光照变化、物体形变、互相重叠、尺寸变化等造成的影响,实现对单一目标的准确、高效跟踪。不同于单目标跟踪,多目标跟踪的核心是如何实现各个目标在前后视频帧的准确、高效匹配。因此多目标跟踪在实际的视频分析应用中具有更大的应用价值和研究意义。
目前多目标跟踪技术已经有了不少研究成果:多假设跟踪(MHT)、概率数据滤波法(JPDAF)和基于卡曼滤波和匈牙利算法的多目标跟踪算法,是多目标跟踪中常用的三个方法,不同于检测跟踪类方法将跟踪问题视为全局优化问题,MHT和JPDAF采用逐帧关联的数据关联方式。在JPDAF中,单个状态假设是通过关联概率对单个测量值进行加权而产生的。在MHT中,所有可能的假设都被跟踪,但为了计算的可行性,必须应用剪枝方案。最近,这两种方法都在检测跟踪场景中被重新使用,并产生了较好的效果。然而,这些方法都是以牺牲计算和实现复杂度为代价的,并不适合实际应用中的实时性要求。
基于卡曼滤波和匈牙利算法的多目标跟踪算法,在Sort(Simple Online andRealtime Tracking)算法的基础上进行改进,结合了目标的外观特征信息,同时采用了级联匹配的数据关联策略,减轻了目标发生混叠时产生IDSwitch的问题。算法在进行目标运动特征匹配时,采用匀速线性运动模型对目标的运动状态进行估计,并使用卡曼滤波方法进行状态更新,当跟踪目标的运动受环境影响较小时,该方法能够很好地估计目标未来的运动状态,因此在简单场景中具有良好的跟踪效果,具有较高的跟踪鲁棒性,同时具有简单、高效、实时性好的优点。但在复杂场景下,目标的运动状态往往是非线性变化的,如躲避障碍物、走向出口,此时仍然采用该方法进行运动状态预测会产生较大误差,目标跟踪的效果也会因此降低。
现有的多目标跟踪算法进行目标跟踪时大多没有考虑到场景对目标运动的影响,因此在复杂场景下对目标进行跟踪会产生较大的误差,因此需要一种结合视频场景信息的多目标跟踪方法,能够对复杂场景中的多个目标进行快速、准确跟踪。
发明内容
本发明为了解决现有技术中多目标跟踪算法在复杂场景下对目标进行跟踪时误差大的不足,提供一种能够感知视频场景信息的多目标跟踪方法,从而实现对复杂场景中的多个目标进行快速、准确跟踪。
为了达到上述目的,本发明提出的技术方案为:一种结合视频场景特征感知的多目标跟踪方法,其特征在于,包括以下步骤:
步骤二、在初始情况下(t=0时),直接进入步骤四。
其中Wo为LSTM网络输出层的权值矩阵,bo为输出层的偏置矩阵,(p,q)为目标检测信息中的目标位置坐标,v为运动速度;
步骤三、计算当前视频帧中检测目标与已跟踪目标之间的外观匹配度da和运动特征匹配度dm,并将二者融合得到最终的距离度量d;
计算目标i与已跟踪目标j的外观特征向量之间的最小余弦距离:
设定阈值ta排除不可能的数据关联:
计算目标i与已跟踪目标j在当前时刻的运动状态之间的马氏距离:
设定阈值tm排除不可能的数据关联:
将da和dm通过加权平均得目标di与轨迹Tj最终的距离度量d:
d(i,j)=ca·cm(α·da(i,j)+(1-α)·dm(i,j))
其中α为超参数;
在非初始情况下,根据距离度量d采用匈牙利方法进行当前检测目标和已跟踪目标的匹配。若目标i与已跟踪目标j的距离d最短,则将目标i的检测加入轨迹Tj,除非轨迹Tj已与目标k匹配,且d(i,k)<d(i,j)。然后返回步骤一,进行下一视频帧的处理,直至视频结束。
对上述技术方案的进一步设计为:所述步骤一中使用FasterRCNN算法对其中的目标进行检测,t时刻第i个目标检测信息记为其中t代表物体的种类代码,(p,q)是检测框底边的中点坐标,v是检测物体的运动速度,初始化时v设置为0,h是检测框的高度,γ为检测框的纵横比。
所述步骤二中将目标图像输入到特征提取网络提取目标的外观特征的具体方法如下:
所述特征提取CNN网络为具有2个卷积层和6个残差块的宽频域网络,并由全连接层输出128维特征向量r。
所述步骤二中用于感知视频图像的场景特征的CNN网络包含3个卷积层,每个卷积层后面设有1层极大化层,并通过2个全连接层输出256维的特征向量St。
所述步骤四中采用采用匈牙利方法将检测目标和轨迹进行匹配的条件是,目标i只和与其距离最短的轨迹Tj匹配,除非轨迹Tj已与目标k匹配,且d(i,k)<d(i,j)。
本发明的技术方案与现有技术相比产生的技术效果为:
本发明提出的一种结合视频场景特征感知的多目标跟踪方法,使用深度神经网络感知场景信息,并结合目标的运动、场景等信息,利用循环神经网络对复杂场景下对目标的运动状态进行更加准确的预测,从而更好地辅助目标跟踪。克服了现有多目标跟踪算法在复杂场景下跟踪鲁棒性低,容易跟踪失败的问题。
本发明同时结合了外观特征和运动特征进行跟踪目标相似度的计算,既具有外观特征在轨迹长时间丢失的情况下进行匹配比较有效的特点,又具有运动特征对于短期的预测和匹配效果好的特点,因此短时期和长时期跟踪的性能都比较好。
本发明提出的方法可以实现对复杂场景下多个目标进行跟踪,方法实现过程中不需要针对跟踪目标进行特殊训练,因此具有广泛的适用性。同时,该方法对复杂环境下的干扰具有较强的抵抗能力,与现有多目标跟踪算法相比,该方法精度高,实时性好,更加符合现实应用中的跟踪需求。
附图说明
图1是本发明实施例所述方法的流程图;
图2为本发明实施例所述方法的框架结构图;
图3为本发明实施例所述方法的场景感知和运动状态预测模块示意图;
图4为本发明实施例的跟踪数据关联算法流程图;
具体实施方式
下面结合附图以及具体实施例对本发明进行详细说明。
实施例
如图1和图2所示,本发明设计了一种结合视频场景特征感知的多目标跟踪方法,该方法具体包括以下步骤:
步骤1:采用深度网络检测初始视频帧中的目标,确定目标的位置、尺寸等信息。
对于t时刻的视频帧f,使用FasterRCNN算法对其中的目标进行检测,每个检测记为其中t代表物体的种类代码,(p,q)是检测框底边的中点坐标,v是检测物体的运动速度,初始化时v设置为0,h是检测框的高度,γ为检测框的纵横比。
步骤2:在初始情况下(t=0时),直接进入步骤4。
在非初始情况下,将目标图像输入到特征提取网络提取目标的外观特征同时采用CNN网络对视频图像的场景信息进行感知得到场景特征St,并结合场景特征St和检测目标的信息通过LSTM网络预测目标的运动状态如图3。具体实现如下:
(1)根据目标检测框将目标图像从视频帧中分割出来,并将其输入到预训练的CNN网络中进行外观特征提取。
(2)将时刻t的视频帧输入预训练的CNN网络中提取场景特征St。该CNN包含3个卷积层,每个卷积层后面有1层极大化层,最后通过2个全连接层输出256维的特征向量St。
LSTM网络的具体实现方法如下:
输入门定义为Git=σ(Wixxt+Wihht-1+Wicct-1+bi),遗忘门定义为Gft=σ(Wfxxt+Wfhht-1+Wfcct-1+bf),输出门定义为Got=σ(Woxxt+Wohht-1+Wocct+bo)。
其中ct=Gftct-1+Gittanh(Wcxxt+Wchht-1)+bc,ht=Gottanh(ct),σ(·)为sigmoid激活函数,Wij表示网络第i层与第j层之间的权值矩阵,b表示网络各层的偏置矩阵。
(4)LSTM网络对目标i在t时刻的状态预测通过下式得到:
其中Wo为LSTM网络输出层的权值矩阵,bo为输出层的偏置矩阵,其值通过网络的训练确定。构成m的三个参数p,q,v即为目标检测向量d中的目标位置坐标和运动速度参数。
预测目标运动状态所使用的网络,采用端到端的方式进行训练,即将CNN和LSTM网络组成目标运动状态预测网络进行训练。
具体的方法如下:
(1)计算目标i与已跟踪目标j的外观特征向量之间的最小余弦距离:
并通过设定阈值ta以95%的置信度排除不可能的数据关联:
在CNN网络的训练过程中,该阈值通过计算正确与错误的数据关联之间的距离来确定。
(2)计算目标i与已跟踪目标j在当前时刻的运动状态之间的马氏距离:
类似地,设定阈值tm以排除不可能的数据关联:
(3)da和dm通过加权平均得目标di与轨迹Tj最终的距离度量:
d(i,j)=ca·cm(α·da(i,j)+(1-α)·dm(i,j))
其中α为超参数。
非初始情况下,根据距离度量d采用匈牙利方法进行当前检测目标和轨迹的匹配,具体的算法如图3所示:
步骤4.1、算法初始化,采用步骤3中的距离度量公式计算距离度量矩阵D=d(i,j),初始化两个数组M1,M2,分别用来记录检测目标和轨迹的匹配对象(如M1[i]=j,表示与检测目标di匹配的轨迹为Tj),两个数组的元素初始值都为-1,表示处于未匹配状态。定义并初始化未匹配检测目标的集合U和轨迹数组T。
步骤4.2、从集合U中选取一个检测di,若集合U为空则进入步骤4.6,集合U不为空则将j初始化为0,与T中的轨迹数据Tj逐个进行匹配。匹配的基本思想是:将目标与距离度量最小的轨迹进行匹配。
步骤4.3、匹配分为以下几种情况,
算法流程如图4所示:
a.轨迹Tj还未与其他检测匹配:若检测di与轨迹Tj之间的距离小于检测di当前匹配的距离,则撤销检测di当前的匹配,将其与轨迹Tj进行匹配,若di在集合U中,将其从集合U中移除,进入步骤4.4。否则,进入步骤4.4。
b1.轨迹Tj还已与其他检测匹配,检测di与轨迹Tj之间的距离小于检测di当前匹配的距离,且若检测di与轨迹Tj之间的距离小于轨迹Tj当前匹配的距离,撤销检测di和轨迹Tj当前的匹配,将检测di与轨迹Tj进行匹配,若di在集合U中,将其从集合U中移除,并将轨迹Tj之前的匹配对象加入到待匹配检测集合U中,进入步骤4.4。
b2.轨迹Tj还已与其他检测匹配,检测di与轨迹Tj之间的距离小于检测di当前匹配的距离,但若检测di与轨迹Tj之间的距离不小于轨迹Tj当前匹配的距离,进入步骤4.4。
b3.轨迹Tj还已与其他检测匹配,且检测di与轨迹Tj之间的距离不小于检测di当前匹配的距离,进入步骤4.4。
步骤4.4、j自增1,准备处理轨迹Tj+1,此时需要判断是否已完成所有轨迹的处理,若没有,则进入步骤4.3,否则,进入步骤4.5。
步骤4.5、判断集合U是否为空,即是否完成了所有检测与轨迹数据的匹配,若为空,则进入步骤4.6,否则进入步骤4.2。
步骤4.6、后处理。根据匹配数组M1完成检测数据和轨迹数据的关联,如M1[i]=j,则将检测di加入估计Tj中。
步骤5:重复以上步骤进行下一帧视频的处理,直至视频结束。
上述方法克服了现有多目标跟踪算法跟踪鲁棒性低,在复杂环境的影响下易跟踪失败的问题,同时保持了在线实时跟踪的能力,因此具有更强的实用性,能够满足实际场景中目标跟踪的需求。
使用本发明方法在多目标跟踪数据集的MOT16-14视频序列上进行跟踪测试,跟踪结果显示本发明算法能够很好地应对复杂场景为目标跟踪带来的挑战,准确跟踪目标并给出目标区域di。
本发明的不局限于上述各实施例,凡采用等同替换方式得到的技术方案均落在本发明要求保护的范围内。
Claims (6)
1.一种结合视频场景特征感知的多目标跟踪方法,其特征在于,包括以下步骤:
步骤二、当t=0时,为初始状态,直接进入步骤四。
其中Wo为LSTM网络输出层的权值矩阵,bo为输出层的偏置矩阵,(p,q)为目标检测信息中的目标位置坐标,v为运动速度;
步骤三、计算当前视频帧中检测目标与已跟踪目标之间的外观匹配度da和运动特征匹配度dm,并将二者融合得到最终的距离度量d;
计算目标i与已跟踪目标j的外观特征向量之间的最小余弦距离:
设定阈值ta排除不可能的数据关联:
计算目标i与已跟踪目标j在当前时刻的运动状态之间的马氏距离:
设定阈值tm排除不可能的数据关联:
将da和dm通过加权平均得目标di与轨迹Tj最终的距离度量d:
d(i,j)=ca·cm(α·da(i,j)+(1-α)·dm(i,j))
其中α为超参数;
当非初始情况时,根据距离度量d采用匈牙利方法进行当前检测目标和已跟踪目标的匹配。若目标i与已跟踪目标j的距离d最短,则将目标i的检测加入轨迹Tj,除非轨迹Tj已与目标k匹配,且d(i,k)<d(i,j)。然后返回步骤一,进行下一视频帧的处理,直至视频结束。
3.根据权利要求1所述结合视频场景特征感知的多目标跟踪方法,其特征在于:所述步骤二中将目标图像输入到特征提取网络提取目标的外观特征的具体方法如下:
利用步骤一中FasterRCNN算法中的检测框将目标图像从视频帧中分割出来,并将其输入到特征提取网络CNN网络中进行外观特征提取,t时刻视频帧中的第i个目标的特征记为
4.根据权利要求3所述结合视频场景特征感知的多目标跟踪方法,其特征在于:所述特征提取CNN网络为具有2个卷积层和6个残差块的宽频域网络,并由全连接层输出128维特征向量r。
5.根据权利要求4所述结合视频场景特征感知的多目标跟踪方法,其特征在于:所述步骤二中用于感知视频图像的场景特征的CNN网络包含3个卷积层,每个卷积层后面设有1层极大化层,并通过2个全连接层输出256维的特征向量St。
6.根据权利要求1所述结合视频场景特征感知的多目标跟踪方法,其特征在于:所述步骤四中采用采用匈牙利方法将检测目标和轨迹进行匹配的条件是,目标i只与其距离最短的轨迹Tj匹配,除非轨迹Tj已与目标k匹配,且d(i,k)<d(i,j)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910924481.8A CN110660083B (zh) | 2019-09-27 | 2019-09-27 | 一种结合视频场景特征感知的多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910924481.8A CN110660083B (zh) | 2019-09-27 | 2019-09-27 | 一种结合视频场景特征感知的多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110660083A true CN110660083A (zh) | 2020-01-07 |
CN110660083B CN110660083B (zh) | 2022-12-23 |
Family
ID=69039482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910924481.8A Active CN110660083B (zh) | 2019-09-27 | 2019-09-27 | 一种结合视频场景特征感知的多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110660083B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111354023A (zh) * | 2020-03-09 | 2020-06-30 | 中振同辂(江苏)机器人有限公司 | 一种基于摄像头的视觉多目标跟踪方法 |
CN111666871A (zh) * | 2020-06-03 | 2020-09-15 | 南京航空航天大学 | 一种面向无人机的改进yolo与sift相结合的多小目标检测跟踪方法 |
CN111681264A (zh) * | 2020-06-05 | 2020-09-18 | 浙江新再灵科技股份有限公司 | 一种监控场景的实时多目标跟踪方法 |
CN111768430A (zh) * | 2020-06-23 | 2020-10-13 | 重庆大学 | 一种基于多特征级联匹配的高速公路外场车辆跟踪方法 |
CN111862153A (zh) * | 2020-07-10 | 2020-10-30 | 电子科技大学 | 一种面向行人的长时间多目标跟踪方法 |
CN111932583A (zh) * | 2020-06-05 | 2020-11-13 | 西安羚控电子科技有限公司 | 一种基于复杂背景下的时空信息一体化智能跟踪方法 |
CN111986228A (zh) * | 2020-09-02 | 2020-11-24 | 华侨大学 | 一种基于lstm模型扶梯场景下的行人跟踪方法、装置和介质 |
CN112132152A (zh) * | 2020-09-21 | 2020-12-25 | 厦门大学 | 一种利用短程关联和长程修剪的多目标跟踪与分割方法 |
CN112215873A (zh) * | 2020-08-27 | 2021-01-12 | 国网浙江省电力有限公司电力科学研究院 | 用于对变电站内多目标跟踪定位的方法 |
CN112396033A (zh) * | 2020-12-03 | 2021-02-23 | 天津大学 | 一种鸟类寤寐节律检测方法、装置、终端设备及存储介质 |
CN112802067A (zh) * | 2021-01-26 | 2021-05-14 | 深圳市普汇智联科技有限公司 | 一种基于图网络的多目标跟踪方法及系统 |
CN113012203A (zh) * | 2021-04-15 | 2021-06-22 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
CN114972418A (zh) * | 2022-03-30 | 2022-08-30 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919974A (zh) * | 2019-02-21 | 2019-06-21 | 上海理工大学 | 基于r-fcn框架多候选关联的在线多目标跟踪方法 |
CN110135314A (zh) * | 2019-05-07 | 2019-08-16 | 电子科技大学 | 一种基于深度轨迹预测的多目标跟踪方法 |
US20190266420A1 (en) * | 2018-02-27 | 2019-08-29 | TuSimple | System and method for online real-time multi-object tracking |
-
2019
- 2019-09-27 CN CN201910924481.8A patent/CN110660083B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190266420A1 (en) * | 2018-02-27 | 2019-08-29 | TuSimple | System and method for online real-time multi-object tracking |
CN109919974A (zh) * | 2019-02-21 | 2019-06-21 | 上海理工大学 | 基于r-fcn框架多候选关联的在线多目标跟踪方法 |
CN110135314A (zh) * | 2019-05-07 | 2019-08-16 | 电子科技大学 | 一种基于深度轨迹预测的多目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
李明华等: "基于分层数据关联的在线多目标跟踪算法", 《现代计算机(专业版)》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111354023A (zh) * | 2020-03-09 | 2020-06-30 | 中振同辂(江苏)机器人有限公司 | 一种基于摄像头的视觉多目标跟踪方法 |
CN111666871A (zh) * | 2020-06-03 | 2020-09-15 | 南京航空航天大学 | 一种面向无人机的改进yolo与sift相结合的多小目标检测跟踪方法 |
CN111666871B (zh) * | 2020-06-03 | 2024-02-09 | 南京航空航天大学 | 一种面向无人机的改进yolo与sift相结合的多小目标检测跟踪方法 |
CN111932583A (zh) * | 2020-06-05 | 2020-11-13 | 西安羚控电子科技有限公司 | 一种基于复杂背景下的时空信息一体化智能跟踪方法 |
CN111681264A (zh) * | 2020-06-05 | 2020-09-18 | 浙江新再灵科技股份有限公司 | 一种监控场景的实时多目标跟踪方法 |
CN111768430A (zh) * | 2020-06-23 | 2020-10-13 | 重庆大学 | 一种基于多特征级联匹配的高速公路外场车辆跟踪方法 |
CN111768430B (zh) * | 2020-06-23 | 2023-08-11 | 重庆大学 | 一种基于多特征级联匹配的高速公路外场车辆跟踪方法 |
CN111862153A (zh) * | 2020-07-10 | 2020-10-30 | 电子科技大学 | 一种面向行人的长时间多目标跟踪方法 |
CN111862153B (zh) * | 2020-07-10 | 2022-06-24 | 电子科技大学 | 一种面向行人的长时间多目标跟踪方法 |
CN112215873A (zh) * | 2020-08-27 | 2021-01-12 | 国网浙江省电力有限公司电力科学研究院 | 用于对变电站内多目标跟踪定位的方法 |
CN111986228A (zh) * | 2020-09-02 | 2020-11-24 | 华侨大学 | 一种基于lstm模型扶梯场景下的行人跟踪方法、装置和介质 |
CN111986228B (zh) * | 2020-09-02 | 2023-06-02 | 华侨大学 | 一种基于lstm模型扶梯场景下的行人跟踪方法、装置和介质 |
CN112132152A (zh) * | 2020-09-21 | 2020-12-25 | 厦门大学 | 一种利用短程关联和长程修剪的多目标跟踪与分割方法 |
CN112132152B (zh) * | 2020-09-21 | 2022-05-27 | 厦门大学 | 一种利用短程关联和长程修剪的多目标跟踪与分割方法 |
CN112396033B (zh) * | 2020-12-03 | 2023-02-28 | 天津大学 | 一种鸟类寤寐节律检测方法、装置、终端设备及存储介质 |
CN112396033A (zh) * | 2020-12-03 | 2021-02-23 | 天津大学 | 一种鸟类寤寐节律检测方法、装置、终端设备及存储介质 |
CN112802067A (zh) * | 2021-01-26 | 2021-05-14 | 深圳市普汇智联科技有限公司 | 一种基于图网络的多目标跟踪方法及系统 |
CN112802067B (zh) * | 2021-01-26 | 2024-01-26 | 深圳市普汇智联科技有限公司 | 一种基于图网络的多目标跟踪方法及系统 |
CN113012203A (zh) * | 2021-04-15 | 2021-06-22 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
CN113012203B (zh) * | 2021-04-15 | 2023-10-20 | 南京莱斯电子设备有限公司 | 一种复杂背景下高精度多目标跟踪方法 |
CN114972418A (zh) * | 2022-03-30 | 2022-08-30 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
CN114972418B (zh) * | 2022-03-30 | 2023-11-21 | 北京航空航天大学 | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110660083B (zh) | 2022-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110660083B (zh) | 一种结合视频场景特征感知的多目标跟踪方法 | |
Dewan et al. | Motion-based detection and tracking in 3d lidar scans | |
CN110070074B (zh) | 一种构建行人检测模型的方法 | |
CN109341703B (zh) | 一种全周期采用CNNs特征检测的视觉SLAM算法 | |
EP3633615A1 (en) | Deep learning network and average drift-based automatic vessel tracking method and system | |
CN108961308B (zh) | 一种漂移检测的残差深度特征目标跟踪方法 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN103617636A (zh) | 基于运动信息及稀疏投影的视频目标自动检测跟踪方法 | |
CN107622507B (zh) | 一种基于深度学习的空中目标跟踪方法 | |
Cao et al. | Correlation-based tracking of multiple targets with hierarchical layered structure | |
CN110310305A (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
CN114283355A (zh) | 一种基于小样本学习的多目标濒危动物跟踪方法 | |
He et al. | Fast online multi-pedestrian tracking via integrating motion model and deep appearance model | |
CN111739066A (zh) | 一种基于高斯过程的视觉定位方法、系统及存储介质 | |
CN111639570A (zh) | 一种基于运动模型和单目标线索的在线多目标跟踪方法 | |
EP4194881A1 (en) | Deep smartphone sensors fusion for indoor positioning and tracking | |
CN109493370A (zh) | 一种基于空间偏移学习的目标跟踪方法 | |
Mohedano et al. | Camera localization usingtrajectories and maps | |
Luo et al. | Research on UAV multi-object tracking based on deep learning | |
Neloy et al. | Alpha-N-V2: Shortest path finder automated delivery robot with obstacle detection and avoiding system | |
CN115050095A (zh) | 一种基于高斯过程回归和渐进滤波的人体姿态预测方法 | |
CN113781563B (zh) | 一种基于深度学习的移动机器人回环检测方法 | |
Liu et al. | Multipedestrian online tracking based on social force-predicted deformable key-points mapping via compressive sensing | |
CN114782500A (zh) | 基于多目标跟踪的卡丁车比赛行为分析方法 | |
CN105654514A (zh) | 一种图像目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |