CN107045726A - 一种改良的基于时空上下文模型的目标跟踪方法 - Google Patents

一种改良的基于时空上下文模型的目标跟踪方法 Download PDF

Info

Publication number
CN107045726A
CN107045726A CN201710285659.XA CN201710285659A CN107045726A CN 107045726 A CN107045726 A CN 107045726A CN 201710285659 A CN201710285659 A CN 201710285659A CN 107045726 A CN107045726 A CN 107045726A
Authority
CN
China
Prior art keywords
mrow
msubsup
msup
target
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710285659.XA
Other languages
English (en)
Other versions
CN107045726B (zh
Inventor
贾燕晨
刘敦强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN201710285659.XA priority Critical patent/CN107045726B/zh
Publication of CN107045726A publication Critical patent/CN107045726A/zh
Application granted granted Critical
Publication of CN107045726B publication Critical patent/CN107045726B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

本发明公开了一种改良的基于时空上下文模型的目标跟踪方法,包括的步骤:首先采用传统的时空上下文目标跟踪算法(STC)对图像中的目标进行跟踪,然后对时空上下文模型进行反向重建,即利用更新的时空上下文模型反求出前一帧图片的目标中心点x*并与前一帧的目标中心点对比进行误差分析,若误差小于设定的阈值则认为目标并未跟丢,若误差大于设定的阈值,则系统认为目标跟丢。最后针对目标跟丢的情况下,引入一个加权参数W,来评价目标周围整个上下文区域对跟踪的贡献程度,有助于进一步增强STC算法的鲁棒性。

Description

一种改良的基于时空上下文模型的目标跟踪方法
技术领域:
本发明涉及目标跟踪技术领域,具体涉及一种计算机视觉领域的视觉目标跟踪方法。
背景技术:
目标跟踪是计算机视觉领域中十分重要的一个分支,因其的重要地位而受到国内外的学者广泛的关注和研究。与此同时,目标跟踪在实际应用中具有广泛的应用,例如:视频监控、人机交互、车辆监控等多个领域。
目标跟踪是智能监控的重要环节,对目标跟踪的研究对智能视频监控和国防安全可以起到指导作用。
但是在目标出现遮挡,大变形等情况下,现有的目标跟踪方法准确性大大降低。
发明内容:
针对现有技术的不足,本发明提供一种改良的基于时空上下文模型的目标跟踪方法,能够有效降低在目标出现大变形情况下跟踪失误率,提高准确率。
为实现上述目的,本发明采用如下技术方案:
一种改良的基于时空上下文模型的目标跟踪方法,包括如下步骤:
步骤1:建立目标位置估计模型
目标位置估计模型为:
x表示图像目标区域内的任意位置,o表示目标出现;假定当前帧图像中,目标位置为x*,则其中I(z)是上下文位置z处的图像灰度,是目标位置x*的局部区域;P(x|c(z),o)是目标与周围上下文信息空间关系的条件概率,P(c(z)|o)是局部上下文位置x的上下文先验概率;
步骤2:建立空间上下文模型
空间上下文模型为:
P(x|c(z),o)=hsc(x-z) (2)
hsc(x-z)为关于目标x与上下文位置z的距离方向函数;
步骤3:建立上下文先验概率模型
上下文先验概率模型为:
P(c(z)|o)=I(z)ωσ(z-x*) (3)
其中ωσ(z-x*)为加权函数;
步骤4:时空上下文模型的快速在线学习更新
将式(2)、(3)带入式(1),可得目标位置x的似然估计模型为:
表示卷积,对式(4)两边同时进行快速傅立叶变换,得到:
F(c(x))=F(hsc(x))⊙F(I(x)ωσ(x-x*)) (5)
⊙表示点乘,F(·)表示快速傅立叶变换,空间上下文模型为:
F-1(·)表示傅立叶逆变换;时空上下文模型由下式进行更新:
在获取t+1时刻新的时空上下文关系后,用两个正傅立叶变换和一个逆傅立叶变换来加速计算新一帧中目标位置的目标位置估计模型:
目标在下一帧的位置对应目标位置估计模型最大的位置:
步骤5:对时空上下文模型的反向重建
对时空上下文模型的反向重建:
在获取t+1时刻的时空上下文关系后,将带入式(10),反求出t时刻的时空上下文关系
步骤6:误差分析,设置阈值T
反向求出t时刻的时空上下文关系后将其带入式(7)求出代入公式(8)求出ct+1(x)′,与正向求解出的置信度响应ct+1(x)作差,若差值小于设定的阈值T则认为是目标,反之则认为目标跟丢,即:
|ct+1(x)-ct+1(x)′|≤T,跟踪成功; (11)
|ct+1(x)-ct+1(x)′|>T,跟踪失败; (12)
步骤7:空间上下文模型的加权
如果|ct+1(x)-ct+1(x)′|>T,对空间上下文模型P(x|c(z),o)=hsc(x-z),即式(2)进行加权:
P(x|c(z),o)=hsc(x-z)×W(z) (13)
W(z)为位置z点位置的相应权值,获取过程如下:
步骤7.1:在第t-1帧提取一定数量的Harris角点,表示为一个集合:其中表示第i个Harris角点,下标表示第t-1帧;
步骤7.2:采用Lucas-Kanade光流算法,得到t帧的跟踪结果:
步骤7.3:计算每个角点的位移向量,表示为
步骤7.4:计算中心点的位移向量,表示为
步骤7.5:将上述位移向量转化为极坐标形式:
其中,为位移向量的极坐标表示,rt i分别为位移向量的长度和角度,dx和dy分别为位移向量在x轴和y轴方向的分量,arctan为反正切函数;
步骤7.6:计算目标中心与Harris角点之间的距离:
步骤G.7:计算每个角点的权值:
Wt为第t帧的上下文权值矩阵,为第i个角点对应的权值,γ为尺度参数;
步骤8:将Wt代入空间上下文模型(2),根据加权后的空间上下文模型重复步骤3和4对目标位置进行跟踪。
本发明的有益效果为:
在目标出现大变形,传统的时空上下文目标跟踪方法跟踪准确率较低情况下,本发明可有效提升目标跟踪成功率,提升了时空上下文目标跟踪方法的鲁棒性,稳定性,也可为其他目标跟踪方法提供借鉴。
附图说明:
图1为本发明的方法流程图。
具体实施方式:
下面结合附图对本发明作进一步的阐述。
如图1所述,本发明提供一种改良的基于时空上下文模型的目标跟踪方法,包括如下步骤:
步骤1:建立目标位置估计模型
将目标跟踪看成是求解目标位置估计似然函数的最大值问题,即求解目标位置似然的置信度:
ct(x)=P(xt|st),ct(x)为目标位置的似然函数,xt∈Xc是当前帧中目标位置,S(xt)代表目标当前状态;
引入上下文信息对目标位置进行估计:
使置信度值最大的x*就是目标位置;从公式(2)可知,似然函数可分解为两个概率函数:P(x|c(z),o)是目标与周围上下文信息空间关系的条件概率,P(c(z)|o)是局部上下文位置点x的上下文先验概率;
步骤2:建立目标与上下文的空间关系模型
空间上下文模型描述的是条件概率函数,将其建模为:
P(x|c(z),o)=hsc(x-z) (3)
hsc(x-z)是一个关于目标x与上下文位置z的距离方向函数,它表征目标与上下文的空间关系,该函数具有径向不对称性,有助于分辨二义性,防止跟踪漂移到相似目标上;
步骤3:建立上下文先验概率模型
由于生物视觉系统机制,处于某个视觉区域内的目标,离其越近的点关注的越多,反之关注的越少;该视觉系统机制反映在物理描述上就是离目标越近的点被赋予的权重越大;据此,将上下文先验概率P(c(z)|o)建模为:
P(c(z)|o)=I(z)ωσ(z-x*) (4)
其中I(z)是点z的灰度,ωσ(z-x*)为一个加权函数,z离x*越近,权值越大:
步骤4:时空上下文模型的快速在线学习更新
将式(3)、(4)带入式(2),可得目标位置的似然估计值为:
表示卷积,对式(5)两边同时进行快速傅立叶变换,得到:
F(c(x))=F(hsc(x))⊙F(I(x)ωσ(x-x*)) (6)
⊙表示点乘,F(·)表示快速傅立叶变换,空间上下文模型为:
F-1(·)表示傅立叶逆变换,即利用两个傅立叶变换和一个傅立叶逆变换,求取空间上下文条件概率;时空上下文模型由下式进行更新:
在获取t+1时刻新的时空上下文关系后,用两个正傅立叶变换和一个逆傅立叶变换来加速计算新一帧中目标位置的置信度响应:
目标在下一帧的位置对应置信度响应最大的位置:
步骤5:对时空上下文模型的反向重建
对时空上下文模型的反向重建:
在获取t+1时刻的时空上下文关系后,将带入式(11),反求出t时刻的时空上下文关系
步骤6:误差分析,设置阈值T
反向求出t时刻的时空上下文关系后将其带入式(8)反向求出代入公式(9)求出ct+1(x)′,即t+1时刻反向求出的置信度响应,与正向求解出的置信度响应ct+1(x)作差,若差值小于设定的阈值T则认为是目标,反之则认为目标跟丢:
|ct+1(x)-ct+1(x)′|≤T(跟踪成功) (12)
|ct+1(x)-ct+1(x)′|>T(跟踪失败) (13)
步骤7:空间上下文模型的加权
在确认目标跟丢之后,对空间上下文模型hsc(x-z)即式(3)进行加权:
P(x|c(z),o)=hsc(x-z)×W(z) (14)
之后重复步骤3和4。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (1)

1.一种改良的基于时空上下文模型的目标跟踪方法,其特征在于,包括如下步骤:
步骤1:建立目标位置估计模型
目标位置估计模型为:
<mrow> <mi>c</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mi>P</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>|</mo> <mi>o</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&amp;Sigma;</mi> <mrow> <mi>c</mi> <mrow> <mo>(</mo> <mi>z</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msup> <mi>X</mi> <mi>c</mi> </msup> </mrow> </msub> <mi>P</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>c</mi> <mo>(</mo> <mi>z</mi> <mo>)</mo> <mo>|</mo> <mi>o</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&amp;Sigma;</mi> <mrow> <mi>c</mi> <mrow> <mo>(</mo> <mi>z</mi> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <msup> <mi>X</mi> <mi>c</mi> </msup> </mrow> </msub> <mi>P</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>|</mo> <mi>c</mi> <mo>(</mo> <mi>z</mi> <mo>)</mo> </mrow> <mo>,</mo> <mi>o</mi> <mo>)</mo> <mi>P</mi> <mrow> <mo>(</mo> <mi>c</mi> <mo>(</mo> <mi>z</mi> <mo>)</mo> <mo>|</mo> <mi>o</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
x表示图像目标区域内的任意位置,o表示目标出现;假定当前帧图像中,目标位置为x*,则其中I(z)是上下文位置z处的图像灰度,是目标位置x*的局部区域;P(x|c(z),o)是目标与周围上下文信息空间关系的条件概率,P(c(z)|o)是局部上下文位置x的上下文先验概率;
步骤2:建立空间上下文模型
空间上下文模型为:
P(x|c(z),o)=hsc(x-z) (2)
hsc(x-z)为关于目标x与上下文位置z的距离方向函数;
步骤3:建立上下文先验概率模型
上下文先验概率模型为:
P(c(z)|o)=I(z)ωσ(z-x*) (3)
其中ωσ(z-x*)为加权函数;
步骤4:时空上下文模型的快速在线学习更新
将式(2)、(3)带入式(1),可得目标位置x的似然估计模型为:
<mrow> <mi>c</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&amp;Sigma;</mi> <mrow> <mi>z</mi> <mo>&amp;Element;</mo> <mi>&amp;Omega;</mi> <mi>c</mi> <mrow> <mo>(</mo> <msup> <mi>x</mi> <mo>*</mo> </msup> <mo>)</mo> </mrow> </mrow> </msub> <msup> <mi>h</mi> <mrow> <mi>s</mi> <mi>c</mi> </mrow> </msup> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <mi>z</mi> </mrow> <mo>)</mo> </mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>z</mi> <mo>)</mo> </mrow> <msub> <mi>&amp;omega;</mi> <mi>&amp;sigma;</mi> </msub> <mrow> <mo>(</mo> <mrow> <mi>z</mi> <mo>-</mo> <msup> <mi>x</mi> <mo>*</mo> </msup> </mrow> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>h</mi> <mrow> <mi>s</mi> <mi>c</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>&amp;CircleTimes;</mo> <mrow> <mo>(</mo> <mrow> <mi>I</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <msub> <mi>&amp;omega;</mi> <mi>&amp;sigma;</mi> </msub> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <msup> <mi>x</mi> <mo>*</mo> </msup> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
表示卷积,对式(4)两边同时进行快速傅立叶变换,得到:
F(c(x))=F(hsc(x))⊙F(I(x)ωσ(x-x*)) (5)
⊙表示点乘,F(·)表示快速傅立叶变换,空间上下文模型为:
<mrow> <msup> <mi>h</mi> <mrow> <mi>s</mi> <mi>c</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>F</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>F</mi> <mrow> <mo>(</mo> <mi>c</mi> <mo>(</mo> <mi>x</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow> <mrow> <mi>F</mi> <mrow> <mo>(</mo> <mi>I</mi> <mo>(</mo> <mi>x</mi> <mo>)</mo> <msub> <mi>&amp;omega;</mi> <mi>&amp;sigma;</mi> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <msup> <mi>x</mi> <mo>*</mo> </msup> </mrow> <mo>)</mo> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
F-1(·)表示傅立叶逆变换;时空上下文模型由下式进行更新:
<mrow> <msubsup> <mi>H</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mrow> <mi>s</mi> <mi>t</mi> <mi>c</mi> </mrow> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;rho;</mi> <mo>)</mo> </mrow> <msubsup> <mi>H</mi> <mi>t</mi> <mrow> <mi>s</mi> <mi>t</mi> <mi>c</mi> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>&amp;rho;h</mi> <mi>t</mi> <mrow> <mi>s</mi> <mi>c</mi> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>7</mn> <mo>)</mo> </mrow> </mrow>
在获取t+1时刻新的时空上下文关系后,用两个正傅立叶变换和一个逆傅立叶变换来加速计算新一帧中目标位置的目标位置估计模型:
目标在下一帧的位置对应目标位置估计模型最大的位置:
<mrow> <msubsup> <mi>x</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mo>*</mo> </msubsup> <mo>=</mo> <munder> <mrow> <msub> <mi>argmaxc</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> <mrow> <mi>x</mi> <mo>&amp;Element;</mo> <msub> <mi>&amp;Omega;</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>t</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> </mrow> </munder> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
步骤5:对时空上下文模型的反向重建
对时空上下文模型的反向重建:
<mrow> <msubsup> <mi>H</mi> <mi>t</mi> <mrow> <msup> <mi>stc</mi> <mo>&amp;prime;</mo> </msup> </mrow> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;lambda;</mi> <mo>)</mo> </mrow> <msubsup> <mi>H</mi> <mrow> <mi>t</mi> <mo>+</mo> <mn>1</mn> </mrow> <mrow> <mi>s</mi> <mi>t</mi> <mi>c</mi> </mrow> </msubsup> <mo>+</mo> <msubsup> <mi>&amp;lambda;h</mi> <mi>t</mi> <mrow> <mi>s</mi> <mi>c</mi> </mrow> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
在获取t+1时刻的时空上下文关系后,将带入式(10),反求出t时刻的时空上下文关系
步骤6:误差分析,设置阈值T
反向求出t时刻的时空上下文关系后将其带入式(7)求出代入公式(8)求出ct+1(x)′,与正向求解出的置信度响应ct+1(x)作差,若差值小于设定的阈值T则认为是目标,反之则认为目标跟丢,即:
|ct+1(x)-ct+1(x)′|≤T,跟踪成功; (11)
|ct+1(x)-ct+1(x)′|>T,跟踪失败; (12)
步骤7:空间上下文模型的加权
如果|ct+1(x)-ct+1(x)′|>T,对空间上下文模型P(x|c(z),o)=hsc(x-z),即式(2)进行加权:
P(x|c(z),o)=hsc(x-z)×W(z) (13)
W(z)为位置z点位置的相应权值,获取过程如下:
步骤7.1:在第t-1帧提取一定数量的Harris角点,表示为一个集合:其中表示第i个Harris角点,下标表示第t-1帧;
步骤7.2:采用Lucas-Kanade光流算法,得到t帧的跟踪结果:
步骤7.3:计算每个角点的位移向量,表示为
步骤7.4:计算中心点的位移向量,表示为
步骤7.5:将上述位移向量转化为极坐标形式:
<mrow> <msubsup> <mi>p</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>r</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>,</mo> <msubsup> <mi>&amp;theta;</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <mi>d</mi> <mi>x</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mi>d</mi> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>,</mo> <mi>arctan</mi> <mfrac> <mrow> <mi>d</mi> <mi>y</mi> </mrow> <mrow> <mi>d</mi> <mi>x</mi> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>14</mn> <mo>)</mo> </mrow> </mrow>
其中,为位移向量的极坐标表示,分别为位移向量的长度和角度,dx和dy分别为位移向量在x轴和y轴方向的分量,arctan为反正切函数;
步骤7.6:计算目标中心与Harris角点之间的距离:
<mrow> <msubsup> <mi>d</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>r</mi> <mi>t</mi> <mo>*</mo> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>r</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mn>2</mn> <msubsup> <mi>r</mi> <mi>t</mi> <mo>*</mo> </msubsup> <msubsup> <mi>r</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mi>c</mi> <mi>o</mi> <mi>s</mi> <mrow> <mo>(</mo> <msubsup> <mi>&amp;theta;</mi> <mi>t</mi> <mo>*</mo> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;theta;</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>)</mo> </mrow> </mrow> </msqrt> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>15</mn> <mo>)</mo> </mrow> </mrow>
步骤G.7:计算每个角点的权值:
<mrow> <msubsup> <mi>W</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>=</mo> <mfrac> <mn>1</mn> <msqrt> <mrow> <mn>2</mn> <mi>&amp;pi;</mi> <mi>&amp;gamma;</mi> </mrow> </msqrt> </mfrac> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <msup> <mrow> <mo>(</mo> <msubsup> <mi>d</mi> <mi>t</mi> <mi>i</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <mn>2</mn> <msup> <mi>&amp;gamma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>16</mn> <mo>)</mo> </mrow> </mrow>
Wt为第t帧的上下文权值矩阵,Wt i为第i个角点对应的权值,γ为尺度参数;
步骤8:将Wt代入空间上下文模型(2),根据加权后的空间上下文模型重复步骤3和4对目标位置进行跟踪。
CN201710285659.XA 2017-04-27 2017-04-27 一种基于时空上下文模型的目标跟踪方法 Expired - Fee Related CN107045726B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710285659.XA CN107045726B (zh) 2017-04-27 2017-04-27 一种基于时空上下文模型的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710285659.XA CN107045726B (zh) 2017-04-27 2017-04-27 一种基于时空上下文模型的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107045726A true CN107045726A (zh) 2017-08-15
CN107045726B CN107045726B (zh) 2019-12-24

Family

ID=59546501

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710285659.XA Expired - Fee Related CN107045726B (zh) 2017-04-27 2017-04-27 一种基于时空上下文模型的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107045726B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053491A (zh) * 2017-12-12 2018-05-18 重庆邮电大学 动态视角条件下实现平面目标三维跟踪和增强现实的方法
CN108537250A (zh) * 2018-03-16 2018-09-14 新智认知数据服务有限公司 一种目标跟踪模型构建方法及装置
CN113901920A (zh) * 2021-10-11 2022-01-07 华南理工大学 结构模态参数识别方法、装置、计算机设备及存储介质
CN115712354A (zh) * 2022-07-06 2023-02-24 陈伟 一种基于视觉和算法的人机交互系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894276A (zh) * 2010-06-01 2010-11-24 中国科学院计算技术研究所 人体动作识别的训练方法和识别方法
CN104537692A (zh) * 2014-12-30 2015-04-22 中国人民解放军国防科学技术大学 基于时空上下文信息辅助的关键点稳定跟踪方法
CN105989358A (zh) * 2016-01-21 2016-10-05 中山大学 一种自然场景视频识别方法
CN106485732A (zh) * 2016-09-09 2017-03-08 南京航空航天大学 一种视频序列的目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101894276A (zh) * 2010-06-01 2010-11-24 中国科学院计算技术研究所 人体动作识别的训练方法和识别方法
CN104537692A (zh) * 2014-12-30 2015-04-22 中国人民解放军国防科学技术大学 基于时空上下文信息辅助的关键点稳定跟踪方法
CN105989358A (zh) * 2016-01-21 2016-10-05 中山大学 一种自然场景视频识别方法
CN106485732A (zh) * 2016-09-09 2017-03-08 南京航空航天大学 一种视频序列的目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙钟前: "基于上下文信息的运动目标跟踪算法的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053491A (zh) * 2017-12-12 2018-05-18 重庆邮电大学 动态视角条件下实现平面目标三维跟踪和增强现实的方法
CN108537250A (zh) * 2018-03-16 2018-09-14 新智认知数据服务有限公司 一种目标跟踪模型构建方法及装置
CN108537250B (zh) * 2018-03-16 2022-06-14 新智认知数据服务有限公司 一种目标跟踪模型构建方法及装置
CN113901920A (zh) * 2021-10-11 2022-01-07 华南理工大学 结构模态参数识别方法、装置、计算机设备及存储介质
CN113901920B (zh) * 2021-10-11 2022-10-25 华南理工大学 结构模态参数识别方法、装置、计算机设备及存储介质
CN115712354A (zh) * 2022-07-06 2023-02-24 陈伟 一种基于视觉和算法的人机交互系统

Also Published As

Publication number Publication date
CN107045726B (zh) 2019-12-24

Similar Documents

Publication Publication Date Title
CN111563915B (zh) 一种融合运动信息检测和Radon变换的KCF目标跟踪方法
CN108447078B (zh) 基于视觉显著性的干扰感知跟踪算法
WO2020173226A1 (zh) 一种时空行为检测方法
CN107045726A (zh) 一种改良的基于时空上下文模型的目标跟踪方法
CN103259962B (zh) 一种目标追踪方法和相关装置
CN109118523A (zh) 一种基于yolo的图像目标跟踪方法
CN108470355B (zh) 融合卷积网络特征和判别式相关滤波器的目标跟踪方法
CN111627044B (zh) 基于深度网络的目标追踪攻击与防御方法
CN106952288A (zh) 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN106338733A (zh) 基于蛙眼视觉特性的前视声呐目标跟踪方法
CN110084201B (zh) 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN104424638A (zh) 一种基于遮挡情况下的目标跟踪方法
CN106485732A (zh) 一种视频序列的目标跟踪方法
CN107833239B (zh) 一种基于加权模型约束的寻优匹配目标跟踪方法
CN103578119A (zh) 基于超像素的Codebook动态场景中目标检测方法
CN105046664A (zh) 一种基于自适应epll算法的图像去噪方法
CN111080675A (zh) 一种基于时空约束相关滤波的目标跟踪方法
CN110969105B (zh) 一种人体姿态估计方法
CN109241995A (zh) 一种基于改进型ArcFace损失函数的图像识别方法
CN110246154B (zh) 一种基于ica-r多特征融合与自适应更新的视觉目标跟踪方法
Li et al. Object tracking in satellite videos: Correlation particle filter tracking method with motion estimation by Kalman filter
CN110378932B (zh) 一种基于空间正则矫正的相关滤波视觉跟踪方法
CN111429485A (zh) 基于自适应正则化和高信度更新的跨模态滤波跟踪方法
CN108734722B (zh) 一种基于psr的视觉跟踪错误修正方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20191224

CF01 Termination of patent right due to non-payment of annual fee