CN111862145B - 一种基于多尺度行人检测的目标跟踪方法 - Google Patents

一种基于多尺度行人检测的目标跟踪方法 Download PDF

Info

Publication number
CN111862145B
CN111862145B CN201910335888.7A CN201910335888A CN111862145B CN 111862145 B CN111862145 B CN 111862145B CN 201910335888 A CN201910335888 A CN 201910335888A CN 111862145 B CN111862145 B CN 111862145B
Authority
CN
China
Prior art keywords
target
pedestrian
tracking
motion
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910335888.7A
Other languages
English (en)
Other versions
CN111862145A (zh
Inventor
王正勇
程玉
何小海
吴晓红
卿粼波
滕奇志
吴小强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201910335888.7A priority Critical patent/CN111862145B/zh
Publication of CN111862145A publication Critical patent/CN111862145A/zh
Application granted granted Critical
Publication of CN111862145B publication Critical patent/CN111862145B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

本发明公开了一种基于多尺度行人检测的目标跟踪方法,涉及智能视频监控、计算机视觉等领域。包括以下步骤:首先在经典检测算法SSD的基础网络中叠加一系列卷积预测块,使之能检测尺度不同的候选行人目标,然后采用卡尔曼滤波算法迭代地预测和更新行人目标的运动状态,并且结合目标表观特征、运动特征及形状大小特征,构建融合关联矩阵以计算总的相似度,最后采用匈牙利算法进行行人目标和运动轨迹的关联,实现多目标行人跟踪。本发明所提方法针对视频中行人目标尺寸大小变化以及相互遮挡等特点,以改善多目标行人跟踪效果为目的,有效地降低了由目标相互遮挡导致跟踪失败的比率,可以应用于智能视频监控等领域。

Description

一种基于多尺度行人检测的目标跟踪方法
技术领域
本发明涉及一种基于多尺度行人检测的目标跟踪方法,属于计算机视觉与智能信息处理领域。
背景技术
视频多目标跟踪技术是计算机视觉领域的重要课题之一,在智能视频监控、人机交互和无人驾驶等多种视频分析场景中有着广泛的应用。近年来随着目标检测技术的研究进展,基于检测的多目标跟踪算法已成为当前多目标跟踪领域的主流算法。一般情况下,多目标问题可以看作是一个数据关联问题,其目的是将视频序列中连续帧的检测结果关联起来。当预先训练好的检测器给出目标行人的检测结果时,将检测结果与跟踪预测得到的结果进行关联匹配,从而得到目标的运动轨迹。其中,匈牙利算法是目前多目标跟踪算法中使用最多的数据关联方法。然而光照变化、背景杂乱、遮挡等因素影响使得视频连续帧中目标之间的轨迹关联变得困难。为了辅助数据关联过程,跟踪器使用各种方法对场景中物体的运动和外观进行建模。除此之外,利用行人重识别领域的训练模型来提取目标的深度表观特征,并将深度表观特征引入多目标跟踪算法也可以提高多目标跟踪算法的鲁棒性。
发明内容
本发明提出了一种基于多尺度行人检测的目标跟踪方法,首先使用经典检测算法SSD的网络结构,在SSD框架的基础网络中叠加一系列卷积预测块,使之能检测尺度不同的候选行人目标,然后采用卡尔曼滤波算法迭代地预测和更新行人目标的运动状态,并且结合目标表观特征、运动特征及形状大小特征,构建融合关联矩阵以计算总的相似度,最后采用匈牙利算法进行行人目标和运动轨迹的关联,实现多目标行人跟踪。
本发明通过以下技术方案来实现上述目的:
(1)行人目标检测:输入视频,采用多尺度行人检测方法对视频中不同尺度的行人目标的位置进行有效的检测;初始化跟踪目标,采用基于卡尔曼滤波模型的跟踪算法预测目标的运动状态;
(2)目标特征提取:提取目标区域的表观特征、运动特征和形状大小特征,计算目标外观特征矩阵、运动特征矩阵以及形状大小特征矩阵,然后构建融合关联矩阵;
(3)目标关联:利用卡尔曼滤波模型迭代地预测和更新目标的状态,检测到行人目标的位置之后,采用匈牙利算法对视频中行人目标的检测结果和跟踪轨迹进行关联;
(4)目标状态更新:将行人目标的检测结果和跟踪预测信息相互结合,并更新行人目标的运动状态和跟踪轨迹。
附图说明
图1为本发明基于多尺度行人检测的目标跟踪方法框图;
图2为本发明基于多尺度行人检测模型框架图;
图3为本发明形状相似度结构框图。
具体实施方式
下面结合附图对本发明作进一步说明:
建立多尺度行人检测模型的过程如下:
首先在基础网络中提取行人目标的特征,这4层特征图由原始图像分别下采样8、16、32和64倍得到,将这些尺度特征用于目标位置预测以提高对不同尺度行人目标定位的准确度。当输入图像经过基础网络提取特征之后,在每层特征图中分别添加3个卷积预测块(图3中只标出1个卷积预测块),通过卷积预测块对图像中目标的位置进行多次预测,逐步逼近目标的真实位置。在当前层完成预测之后,将当前层尺度特征继续传到下一层重新生成新的目标候选框,得到新的置信度分数和目标位置偏移量,如此重复多次在最后一层得到图像中行人目标的最终候选框。
多特征融合的相似度计算方法如下:
行人目标的形状相似度结构如附图3所示,其中Ti表示第i个行人目标的检测候选框大小,Oj表示第j条跟踪轨迹中行人目标的形状大小,
Figure BDA0002039128100000021
Figure BDA0002039128100000022
分别表示它们的面积,Scom表示中间重叠部分的面积大小,w和h分别表示矩形框的宽度和高度。则行人目标的形状相似度ssimij计算方法为:
Figure BDA0002039128100000023
Figure BDA0002039128100000035
Figure BDA0002039128100000031
行人目标的形状相似度体现了检测结果与跟踪结果在形状大小上的关联程度,若行人目标和轨迹的形状越接近,则表示形状相似度越高,ssimij值越大,关联程度越高。通过行人目标的形状相似度可以建立形状大小特征矩阵S:
Figure BDA0002039128100000032
其中,ssimij为第i(i=1,...m)个检测框和第j(j=1,...m)条跟踪轨迹之间的形状大小相似程度。
当检测器检测到t时刻图像中的目标之后,为每一个目标分配一个矩形框(Detection Boundingbox),并且计算目标区域的表观特征{X1,…,Xi,…,Xn},其中Xi表示t时刻图像中检测到的第i个行人目标的表观特征;在此同时,利用卡尔曼滤波模型对前(t-1)时刻图像中的行人目标进行状态预测和协方差预测,预测得到t时刻图像中行人目标的位置,对每一个目标分配一个矩形框(Tracking Boundingbox),并且计算目标区域的表观特征{Y1,…,Yj,…,Yn},其中Yj表示t时刻图像中预测得到的第j条跟踪轨迹中行人目标的表观特征;最后计算{X1,…,Xi,…,Xn}和{Y1,…,Yi,…,Yn}之间的表观特征矩阵H:
Figure BDA0002039128100000033
其中,hij为第i(i=1,...m)个检测框和第j(j=1,...m)条跟踪轨迹之间的表观相似程度。
除此之外,利用卡尔曼运动模型计算行人目标的运动特征矩阵P:
Figure BDA0002039128100000034
其中,pij是第i(i=1,...m)个检测框和第j(j=1,...m)条跟踪轨迹之间的运动相似程度。
将形状大小特征矩阵S、表观特征矩阵H和运动特征矩阵P进行加权结合,得到多特征融合的关联矩阵M:
M=αS+βH+γP (21)
其中,α、β和γ是融合关联矩阵的自适应加权系数,α、β和γ∈[0,1]且满足α+β+γ=1。当目标之间相互遮挡时,原有目标的表观信息或者形状大小可能会发生改变,从而导致跟踪失败。而本文提出构建多特征融合的关联矩阵,将行人目标的形状大小特征与表观特征、运动特征相结合,进行行人与轨迹之间的关联匹配,可以使算法对行人被遮挡场景下的多目标跟踪更具有适应性,有效地降低了由于目标遮挡问题造成的跟踪失败的比率。
为了更加客观准确地分析本文算法的有效性,选用标准的MOT指标对本文算法进行分析。实验采用的评价指标包括多目标跟踪准确度(MOTA)、误检次数(FP)、漏检次数(FN)以及目标ID变化次数(IDsw)。本文选取近年来跟踪效果比较好的SORT与本文的跟踪算法进行分析比较。从表1可以看出,本文算法在2DMOT2015数据集上的准确度达到了34.3%,与SORT算法相比提升了0.9%,与其他算法相比也有一定程度的提高;另外,相较于SORT算法,本文算法目标误检次数和漏检次数也都有所降低。
表1:2D MOT 2015数据集上的对比结果
Figure BDA0002039128100000041

Claims (3)

1.一种基于多尺度行人检测的目标跟踪方法,其特征在于包括以下步骤:
(1)行人目标检测:输入视频,采用多尺度行人检测方法对视频中不同尺度的行人目标的位置进行有效的检测;初始化跟踪目标,采用基于卡尔曼滤波模型的跟踪算法预测目标的运动状态;
(2)目标特征提取:提取目标区域的表观特征、运动特征和形状大小特征,计算目标表观特征矩阵、运动特征矩阵以及形状大小特征矩阵,然后构建融合关联矩阵;
(3)目标关联:利用卡尔曼滤波模型迭代地预测和更新目标的状态,检测到行人目标的位置之后,采用匈牙利算法对视频中行人目标的检测结果和跟踪轨迹进行关联;
(4)目标状态更新:将行人目标的检测结果和跟踪预测信息相互结合,并更新行人目标的运动状态和跟踪轨迹;
步骤(1)中检测视频中不同尺度的行人目标的具体检测方法如下:
首先在基础网络中提取行人目标的特征,4层特征图由原始图像分别下采样8、16、32和64倍得到,将尺度特征用于目标位置预测以提高对不同尺度行人目标定位的准确度;当输入图像经过基础网络提取特征之后,在每层特征图中分别添加3个卷积预测块,通过卷积预测块对图像中目标的位置进行多次预测,逐步逼近目标的真实位置;在当前层完成预测之后,将当前层尺度特征继续传到下一层重新生成新的目标候选框,得到新的置信度分数和目标位置偏移量,最终在最后一层得到图像中行人目标的最终候选框。
2.根据权利要求1所述的方法,其特征在于步骤(2)中形状大小特征矩阵,计算方法如下:
行人目标的形状相似度ssimij计算方法为:
Figure FDA0003556527430000011
Figure FDA0003556527430000012
Figure FDA0003556527430000013
其中Ti表示第i个行人目标的检测候选框大小,Oj表示第j条跟踪轨迹中行人目标的形状大小,
Figure FDA0003556527430000014
Figure FDA0003556527430000015
分别表示它们的面积,Scom表示中间重叠部分的面积大小,w和h分别表示矩形框的宽度和高度;
通过行人目标的形状相似度可以建立形状大小特征矩阵S:
Figure FDA0003556527430000021
其中,ssimij为第i(i=1,...m)个检测框和第j(j=1,...m)条跟踪轨迹之间的形状大小相似程度。
3.根据权利要求1所述的方法,其特征在于步骤(2)中构建融合关联矩阵,构建方法如下:
计算{X1,…,Xi,…,Xn}和{Y1,…,Yi,…,Yn}之间的表观特征矩阵H:
Figure FDA0003556527430000022
其中,hij为第i(i=1,...m)个检测框和第j(j=1,...m)条跟踪轨迹之间的表观相似程度;
利用卡尔曼运动模型计算行人目标的运动特征矩阵P:
Figure FDA0003556527430000023
其中,Xi表示t时刻图像中检测到的第i个行人目标的表观特征,Yj表示t时刻图像中预测得到的第j条跟踪轨迹中行人目标的表观特征,pij是第i(i=1,...m)个检测框和第j(j=1,...m)条跟踪轨迹之间的运动相似程度;
将形状大小特征矩阵S、表观特征矩阵H和运动特征矩阵P进行加权结合,得到多特征融合的关联矩阵M:
M=αS+βH+γP (7)
其中,α、β和γ是融合关联矩阵的自适应加权系数,α、β和γ∈[0,1]且满足α+β+γ=1。
CN201910335888.7A 2019-04-24 2019-04-24 一种基于多尺度行人检测的目标跟踪方法 Active CN111862145B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910335888.7A CN111862145B (zh) 2019-04-24 2019-04-24 一种基于多尺度行人检测的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910335888.7A CN111862145B (zh) 2019-04-24 2019-04-24 一种基于多尺度行人检测的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111862145A CN111862145A (zh) 2020-10-30
CN111862145B true CN111862145B (zh) 2022-05-17

Family

ID=72952223

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910335888.7A Active CN111862145B (zh) 2019-04-24 2019-04-24 一种基于多尺度行人检测的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111862145B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112634325B (zh) * 2020-12-10 2022-09-09 重庆邮电大学 一种无人机视频多目标跟踪方法
CN112818771A (zh) * 2021-01-19 2021-05-18 江苏大学 一种基于特征聚合的多目标跟踪算法
CN112861071B (zh) * 2021-02-05 2022-09-02 哈尔滨工程大学 一种基于深度自编码的高铁牵引系统异常检测方法
CN113114850B (zh) * 2021-03-18 2021-09-21 电子科技大学 一种基于监控视频和pdr在线融合定位方法
CN113450385B (zh) * 2021-06-04 2023-08-18 广州大学 一种夜间工作工程机械视觉跟踪方法、装置及存储介质
CN114170561B (zh) * 2022-02-14 2022-05-06 盈嘉互联(北京)科技有限公司 一种应用于智能建筑的机器视觉行为意图预测方法
CN117636480B (zh) * 2024-01-25 2024-04-12 中科方寸知微(南京)科技有限公司 基于动态区域检测和多目标追踪的实时人体检测方法及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI357582B (en) * 2008-04-18 2012-02-01 Univ Nat Taiwan Image tracking system and method thereof
US9633275B2 (en) * 2008-09-11 2017-04-25 Wesley Kenneth Cobb Pixel-level based micro-feature extraction
CN104657940B (zh) * 2013-11-22 2019-03-15 中兴通讯股份有限公司 畸变图像校正复原与分析报警的方法和装置
US10198624B2 (en) * 2016-02-18 2019-02-05 Pinscreen, Inc. Segmentation-guided real-time facial performance capture
CN106056628B (zh) * 2016-05-30 2019-06-18 中国科学院计算技术研究所 基于深度卷积神经网络特征融合的目标跟踪方法及系统
US10402697B2 (en) * 2016-08-01 2019-09-03 Nvidia Corporation Fusing multilayer and multimodal deep neural networks for video classification
CN106570893A (zh) * 2016-11-02 2017-04-19 中国人民解放军国防科学技术大学 一种基于相关滤波的快速稳健视觉跟踪方法
GB2557316A (en) * 2016-12-06 2018-06-20 Canon Kk Methods, devices and computer programs for distance metric generation, error detection and correction in trajectories for mono-camera tracking
CN107564034A (zh) * 2017-07-27 2018-01-09 华南理工大学 一种监控视频中多目标的行人检测与跟踪方法
CN108985204A (zh) * 2018-07-04 2018-12-11 北京师范大学珠海分校 行人检测跟踪方法及装置
CN108986143B (zh) * 2018-08-17 2022-05-03 浙江捷尚视觉科技股份有限公司 一种视频中目标检测跟踪方法

Also Published As

Publication number Publication date
CN111862145A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN111862145B (zh) 一种基于多尺度行人检测的目标跟踪方法
US10706285B2 (en) Automatic ship tracking method and system based on deep learning network and mean shift
CN110084836B (zh) 基于深度卷积特征分层响应融合的目标跟踪方法
CN101276468B (zh) 在视频帧序列中跟踪目标的由计算机执行的方法
CN112836639A (zh) 基于改进YOLOv3模型的行人多目标跟踪视频识别方法
CN105654139A (zh) 一种采用时间动态表观模型的实时在线多目标跟踪方法
CN112507845B (zh) 基于CenterNet与深度关联矩阵的行人多目标跟踪方法
CN104778699B (zh) 一种自适应对象特征的跟踪方法
CN112164093A (zh) 一种基于边缘特征和相关滤波的人物自动跟踪方法
CN106127798B (zh) 基于自适应模型的稠密时空上下文目标跟踪方法
CN114283355A (zh) 一种基于小样本学习的多目标濒危动物跟踪方法
CN109493370A (zh) 一种基于空间偏移学习的目标跟踪方法
CN108288283A (zh) 一种基于相关滤波的视频跟踪方法
Cao et al. A long-memory pedestrian target tracking algorithm incorporating spatiotemporal trajectory feature enhancement model
CN112767438B (zh) 结合时空运动的多目标跟踪方法
CN115457082A (zh) 一种基于多特征融合增强的行人多目标跟踪算法
CN115359091A (zh) 一种用于移动机器人的装甲板检测跟踪方法
CN108921073A (zh) 一种基于多尺度时空区别性显著图的非刚性目标追踪模型
Mahjoub et al. Naive Bayesian fusion for action recognition from Kinect
CN111191524A (zh) 运动人群计数方法
CN117058627B (zh) 一种公共场所人群安全距离监测方法、介质及系统
CN115731517B (zh) 一种基于Crowd-RetinaNet网络的拥挤人群检测方法
CN113724291B (zh) 多熊猫跟踪方法、系统、终端设备及可读存储介质
CN114879891B (zh) 一种自监督多目标跟踪下的多模态人机互动方法
CN117011335B (zh) 一种基于自适应双解码器的多目标跟踪方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant