CN110660079A - 一种基于时空上下文的单目标跟踪方法 - Google Patents
一种基于时空上下文的单目标跟踪方法 Download PDFInfo
- Publication number
- CN110660079A CN110660079A CN201910859204.3A CN201910859204A CN110660079A CN 110660079 A CN110660079 A CN 110660079A CN 201910859204 A CN201910859204 A CN 201910859204A CN 110660079 A CN110660079 A CN 110660079A
- Authority
- CN
- China
- Prior art keywords
- target
- space
- time context
- tracking
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000004044 response Effects 0.000 claims abstract description 19
- 230000008859 change Effects 0.000 claims abstract description 7
- 230000004927 fusion Effects 0.000 claims abstract description 5
- 238000001914 filtration Methods 0.000 claims description 13
- 230000009467 reduction Effects 0.000 claims description 7
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000007500 overflow downdraw method Methods 0.000 claims description 3
- 238000000513 principal component analysis Methods 0.000 claims description 3
- 238000012847 principal component analysis method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 2
- 238000005286 illumination Methods 0.000 abstract description 2
- 238000007476 Maximum Likelihood Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于时空上下文的单目标跟踪方法,属于视频目标跟踪技术领域。本发明首先从目标和背景区域提取方向梯度直方图特征和颜色直方图特征,通过固定权重策略融合两种特征的相关滤波响应,然后利用PCA算法降维目标周围提取的背景颜色特征,基于贝叶斯框架通过最大化似然函数得到时空上下文响应。采用自适应权重融合策略融合两种模型响应,基于融合后的响应图得到估计目标位置并采用尺度估计方法解决目标尺度变化问题;本发明能够有效缓解跟踪目标由于遮挡、尺度变化、光照等因素造成的跟踪漂移状况的发生,实现鲁棒的目标跟踪。
Description
技术领域
本发明涉及一种基于时空上下文的单目标跟踪方法,属于视频目标跟踪技术领域。
背景技术
目标跟踪技术目前广泛应用于智能交通、视频监控、人机交互、和军事制导等领域。近几十年来目标跟踪领域取得了很大进展,但是由于物体运动过程中视频场景和目标外观的复杂变化,设计一个鲁棒高效的目标跟踪算法,仍是一个极具挑战的难题。
根据目标模型的建模方式差异,可将目标跟踪模型分成两类:生成式模型和判别式模型。基于生成式模型的目标跟踪算法,使用生成式模型描述目标的表观特征,通过采样搜索出来的候选目标实现重构误差最小化,再对比候选目标和模型的相似程度,找到最大相似目标作为跟踪结果。这类算法通常从目标前景区域学习目标外观,忽略了更有效的背景信息,所以在跟踪过程中算法很容易受到背景中相似物体的影响而产生漂移。判别式表观模型则是通过训练各种各样的分类器来区分被跟踪的目标物体和背景区域,将目标跟踪看作一个二分类问题,把图像分为前景图像和背景图像,利用最适合实际场景的图像特征和最佳的分类方法,将目标从背景区域中区分出来,期间不断的在线更新分类器来估计目标的位置。其中最具代表的是基于相关滤波的Staple算法,该算法采用两种互补特征建立目标外观模型,分别转化为两个独立的岭回归问题求解。该算法在更好的适应目标外观变化以及光照的不连续性的同时保持较高的执行速率。但是当跟踪目标发生部分遮挡或者完全遮挡时,算法容易丢失目标,出现模型漂移的情况。
因此发明一种基于时空上下文的单目标跟踪方法,在相关滤波基础上引入时空上下文模型以减少在跟踪过程中因遮挡和姿态变化等因素产生的对跟踪模型的干扰,同时避免了单个跟踪模型在描述跟踪目标时的不足。能够有效面对各种复杂挑战因素,实现鲁棒的目标跟踪。
发明内容
本发明提供了一种基于时空上下文的单目标跟踪方法,以用于解决在视觉目标跟踪过程中,目标因受到复杂视频场景干扰和目标本身变化带来的跟踪效果低下,准确率不高等问题。
本发明的技术方案是:一种基于时空上下文的单目标跟踪方法,所述基于时空上下文的单目标跟踪方法的具体步骤如下:
Step1、获取目标的初始位置信息以及尺度信息。
Step2、根据Step1获取的初始信息提取目标的HOG特征和颜色直方图特征以及目标周围的CN特征,并利用主成分分析将11维的CN特征降至3维。
Step3、根据Step2提取的HOG特征和颜色直方图特征分别建立相关滤波模型,
并采用固定系数融合的方式得到相关滤波响应。
Step4、基于Step2中降维后的CN特征建立目标时空上下文模型,得到目标时空上下文响应。
Step5、采用自适应融合的方法融合Step3得到的相关滤波响应和Step4得到的时空上下文响应,并预测目标位置。
Step6、利用step5得到的目标位置信息,添加尺度滤波器预测目标的尺度变化。
Step7、得到目标的位置信息和尺度信息后,更新相关滤波模型以及时空上下文模型,进行跟踪,直到最后一帧。
式中:αp是权重函数,M×N指上下文领域大小,(m,n)∈{0,...,M-1}{0,...,N-1},是Bj中的各向量且其权值由决定,然后通过线性投影进行降维,将D1维的局部上下文颜色特征xp(m,n)将至D2维的颜色特征xp(m,n)。
所述步骤Step3中利用提取的特征建立相关滤波模型的具体步骤如下:定义提取跟踪目标x的第d个通道的HOG特征表示为xd,d∈{1,2,...D}。由D个单通道滤波器wd组成的滤波器w可通过最小化目标函数ε求解,即:
其中,λ为正则化系数,*代表循环相关操作,y为样本x对应标签。在傅里叶域中可快速求解得到相关滤波器为:
本发明的有益效果在于:
(1)该目标跟踪方法高效整合了不同模型在目标跟踪过程中的优点,形成优势互补,有效提升了跟踪精度。
(2)该目标跟踪方法利用目标时空上下文信息,能够有效减少在跟踪过程中因部分遮挡导致的模型漂移现象的发生。
(3)该目标跟踪方法在准确追踪目标位置和尺度变化的同时,能够以较高的执行速度跟踪目标。
附图说明
图1为本发明中的流程示意图。
图2为本发明中的具体流程示意图。
具体实施方式
实施例1:如图1和图2所示,一种基于时空上下文的单目标跟踪方法,所述基于时空上下文的单目标跟踪方法的具体步骤如下:
Step1、获取目标的初始位置信息以及尺度信息。
所述Step1中由于本发明是在公开测试集OTB-2013上验证发明有效性,所以跟踪目标第一帧的位置信息和尺度信息在测试集中都有标注。通过读取测试集的标注文件,就可以得到目标初始信息。
Step2、根据Step1获取的初始信息提取目标的HOG特征和颜色直方图特征以及目标周围的CN特征,并利用主成分分析将11维的CN特征降至3维。
式中:α1,…,αp是权重函数,M×N指上下文领域大小,(m,n)∈{0,...,M-1}{0,...,N-1},是Bj中的各向量且其权值由决定,然后通过线性投影进行降维,将D1维的局部上下文颜色特征xp(m,n)将至D2维的颜色特征xp(m,n)。
Step3、根据Step2提取的HOG特征和颜色直方图特征分别建立相关滤波模型,并采用固定系数融合的方式得到相关滤波响应。定义提取跟踪目标x的第d个通道的HOG特征表示为xd,d∈{1,2,...D}。由D个单通道滤波器wd组成的滤波器w可通过最小化目标函数ε求解,即:
其中,λ为正则化系数,*代表循环相关操作,y为样本x对应标签。在傅里叶域中可快速求解得到相关滤波器为:
Step4、基于Step2中降维后的CN特征建立目标时空上下文模型,得到目标时空上下文响应。时空上下文模型的置信图定义如下:
其中x是跟踪目标,o表示目标在场景内,物体坐标X*代表跟踪目标中心的坐标。上下文特征集定义集Xc={c(z)=(I(z),z)|z∈Ωc(x*)},I(z)表示坐标z的图像灰度值。目标坐标x*的置信图定义如下:
α是尺度参数,β是形状参数,b是归一化常数,P(c(z),o)是上下文先验概率,用于建模局部上下文的表观:
P(c(z)|o)=I(z)ωσ(z-x*)
条件概率P(x|c(z),o)建模目标和其上下文信息的空间关系。通过计算置信图函数m(x)和上下文先验模型P(c(z),o),求得空间上下文模型P(x|c(z),o)并转换到频域,用快速傅里叶算法快速卷积,再进行傅里叶逆变换得到空间上下文模型hsc(x)。
Step5、采用自适应融合的方法融合Step3得到的相关滤波响应和Step4得到的时空上下文响应,并预测目标位置。利用视频帧的峰值旁瓣比来衡量各模型对跟踪模型的贡献度,动态分配模型响应图融合权重。
Step6、利用step5得到的目标位置信息,添加尺度滤波器预测目标的尺度变化。
在之前预测到的跟踪位置进行尺度“金字塔”采样。用于尺度评估的目标样本尺寸选择原则为:
其中,P、R分别为目标在上一帧的宽、高,a是尺度因子,S为尺度总级数。然后将得到的不同尺度的目标样本统一缩放为P×R的大小,再和一维尺度相关滤波器进行相关操作获得尺度响应图,其最大响应值位置即为对应目标最佳尺度。
Step7、得到目标的位置信息和尺度信息后,更新相关滤波模型以及时空上下文模型,进行跟踪,直到最后一帧。
上面结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (3)
1.一种基于时空上下文的单目标跟踪方法,其特征在于:所述基于时空上下文的单目标跟踪方法的具体步骤如下:
Step1、获取目标的初始位置信息以及尺度信息。
Step2、根据Step1获取的初始信息提取目标的HOG特征和颜色直方图特征以及目标周围的CN特征,并利用主成分分析将11维的CN特征降至3维。
Step3、根据Step2提取的HOG特征和颜色直方图特征分别建立相关滤波模型,
并采用固定系数融合的方式得到相关滤波响应。
Step4、基于Step2降维后的CN特征建立目标时空上下文模型,得到目标时空上下文响应。
Step5、采用自适应融合的方法融合Step3得到的相关滤波响应和Step4得到的时空上下文响应,并预测目标位置。
Step6、利用step5得到的目标位置信息,添加尺度滤波器预测目标的尺度变化。
Step7、得到目标的位置信息和尺度信息后,更新相关滤波模型以及时空上下文
模型,进行跟踪,直到最后一帧。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910859204.3A CN110660079A (zh) | 2019-09-11 | 2019-09-11 | 一种基于时空上下文的单目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910859204.3A CN110660079A (zh) | 2019-09-11 | 2019-09-11 | 一种基于时空上下文的单目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110660079A true CN110660079A (zh) | 2020-01-07 |
Family
ID=69037370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910859204.3A Pending CN110660079A (zh) | 2019-09-11 | 2019-09-11 | 一种基于时空上下文的单目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110660079A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651999A (zh) * | 2021-01-19 | 2021-04-13 | 滨州学院 | 基于时空上下文感知的无人机对地目标实时跟踪方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107680119A (zh) * | 2017-09-05 | 2018-02-09 | 燕山大学 | 一种基于时空上下文融合多特征及尺度滤波的跟踪算法 |
CN108447078A (zh) * | 2018-02-28 | 2018-08-24 | 长沙师范学院 | 基于视觉显著性的干扰感知跟踪算法 |
CN108549839A (zh) * | 2018-03-13 | 2018-09-18 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN108573499A (zh) * | 2018-03-16 | 2018-09-25 | 东华大学 | 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 |
CN108647694A (zh) * | 2018-04-24 | 2018-10-12 | 武汉大学 | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 |
CN108805902A (zh) * | 2018-05-17 | 2018-11-13 | 重庆邮电大学 | 一种自适应尺度的时空上下文目标跟踪方法 |
-
2019
- 2019-09-11 CN CN201910859204.3A patent/CN110660079A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107680119A (zh) * | 2017-09-05 | 2018-02-09 | 燕山大学 | 一种基于时空上下文融合多特征及尺度滤波的跟踪算法 |
CN108447078A (zh) * | 2018-02-28 | 2018-08-24 | 长沙师范学院 | 基于视觉显著性的干扰感知跟踪算法 |
CN108549839A (zh) * | 2018-03-13 | 2018-09-18 | 华侨大学 | 自适应特征融合的多尺度相关滤波视觉跟踪方法 |
CN108573499A (zh) * | 2018-03-16 | 2018-09-25 | 东华大学 | 一种基于尺度自适应和遮挡检测的视觉目标跟踪方法 |
CN108647694A (zh) * | 2018-04-24 | 2018-10-12 | 武汉大学 | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 |
CN108805902A (zh) * | 2018-05-17 | 2018-11-13 | 重庆邮电大学 | 一种自适应尺度的时空上下文目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
周海英等: ""基于颜色特征和尺度自适应的时空上下文算法"", 《计算机工程与设计》 * |
谢柳等: ""基于相关滤波融合多特征的运动目标跟踪方法"", 《数据采集与处理》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651999A (zh) * | 2021-01-19 | 2021-04-13 | 滨州学院 | 基于时空上下文感知的无人机对地目标实时跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108734723B (zh) | 一种基于自适应权重联合学习的相关滤波目标跟踪方法 | |
CN110910391B (zh) | 一种双模块神经网络结构视频对象分割方法 | |
CN107680120B (zh) | 基于稀疏表示和转移受限粒子滤波的红外小目标跟踪方法 | |
CN111080675B (zh) | 一种基于时空约束相关滤波的目标跟踪方法 | |
CN107341820B (zh) | 一种融合Cuckoo搜索和KCF的突变运动目标跟踪方法 | |
CN107369166B (zh) | 一种基于多分辨率神经网络的目标跟踪方法及系统 | |
CN107689052B (zh) | 基于多模型融合和结构化深度特征的视觉目标跟踪方法 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN110706253B (zh) | 基于表观特征和深度特征的目标跟踪方法、系统、装置 | |
CN109544603A (zh) | 基于深度迁移学习的目标跟踪方法 | |
CN113379789B (zh) | 一种复杂环境下运动目标跟踪方法 | |
CN106157330A (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
Medouakh et al. | Improved object tracking via joint color-LPQ texture histogram based mean shift algorithm | |
CN110827327B (zh) | 一种基于融合的长期目标跟踪方法 | |
CN113033356B (zh) | 一种尺度自适应的长期相关性目标跟踪方法 | |
CN109241932B (zh) | 一种基于运动方差图相位特征的热红外人体动作识别方法 | |
CN110751671B (zh) | 一种基于核相关滤波与运动估计的目标跟踪方法 | |
Sui et al. | Tracking completion | |
Dai et al. | Object tracking in the presence of shaking motions | |
CN110751670B (zh) | 一种基于融合的目标跟踪方法 | |
Zhang et al. | An infrared dim target detection algorithm based on density peak search and region consistency | |
CN110660079A (zh) | 一种基于时空上下文的单目标跟踪方法 | |
CN116342653A (zh) | 一种基于相关滤波器的目标跟踪方法、系统、设备及介质 | |
CN115984325A (zh) | 一种靶向寻量时空正则化的目标跟踪方法 | |
CN112614158B (zh) | 一种采样框自适应的多特征融合在线目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200107 |