CN105225253A - 一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法 - Google Patents

一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法 Download PDF

Info

Publication number
CN105225253A
CN105225253A CN201510606707.1A CN201510606707A CN105225253A CN 105225253 A CN105225253 A CN 105225253A CN 201510606707 A CN201510606707 A CN 201510606707A CN 105225253 A CN105225253 A CN 105225253A
Authority
CN
China
Prior art keywords
image
context
fourier transform
target
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510606707.1A
Other languages
English (en)
Other versions
CN105225253B (zh
Inventor
赵钦君
程金
徐元
张勇
张勤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Jinan
Original Assignee
University of Jinan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Jinan filed Critical University of Jinan
Priority to CN201510606707.1A priority Critical patent/CN105225253B/zh
Publication of CN105225253A publication Critical patent/CN105225253A/zh
Application granted granted Critical
Publication of CN105225253B publication Critical patent/CN105225253B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法,步骤:生成模板核函数并归一化;计算目标置信度图模板的快速傅里叶变换;获取被跟踪目标在第一帧图像中的初始位置;获取目标的空间上下文图像;求取当前帧图像中置信度最大的点;求取新位置目标的空间上下文图像;更新时空上下文模型并计算其傅里叶变换的相位;预测下一帧图像中目标空间上下文图像的相位。本发明中的模板核函数,减小了目标周围的背景图像对目标模板的干扰。将目标上下文图像的分辨率统一为设定的像素大小和快速傅里叶变换的应用相结合,提高了目标跟踪方法的实时性。上下文图像的选取,对背景变化不大并且目标在一定程度上存在遮挡的情况具有较好的跟踪效果。

Description

一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法
技术领域
本发明涉及一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法。
背景技术
视频图像序列中的运动目标跟踪技术是计算机视觉领域的研究热点之一。它是图像处理、模式识别、人工智能、神经生物学、概率与随机过程等多学科交叉的结晶。随着计算机视觉技术和计算机硬件技术的不断进步,图像序列中目标检测与跟踪技术在军事和民用领域(如智能监控、人机交互、视觉导航、辅助驾驶等)都具有广泛的应用。
在背景较简单,目标外观基本不变的情况下,已有的跟踪技术具有较好的跟踪效果。但在实际应用中,由于外部环境的复杂性和目标本身特征存在的多样性和变化因素,使得目标跟踪技术在实际应用中仍具有很大的挑战性。比如,在跟踪过程中,目标的外观常常发生变化,其主要变化有两种:内部变化和外部变化。内部变化主要有姿态变化,非刚体目标存在的形变以及外观轮廓的变化;外部变化主要有环境的光照变化对目标的外观造成的影响,以及目标在运动过程中有时会被其它目标部分或全部遮挡。因此,在实际应用中,要求一个好的跟踪方法能够适应目标的外观变化。
当前的目标跟踪方法主要可分为两类:判别式模型和生成式模型。
生成式模型需要建立一个外观模型来表示目标,然后寻找整帧图像中与外观模型最匹配的图像区域,但该方法忽略了目标周围的有用信息,这些信息往往有助于区别目标与背景。
判别式模型将跟踪看成一个二分类问题,即判断一个图像区域是目标还是背景。但该方法的目的是预测目标的类别,这与跟踪的目的(找出目标的位置)还是有区别的。
发明内容
本发明的目的就是为了解决上述问题,提供一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法,该方法在建立目标外观模型时,将目标周围的背景也作为模型的一部分,可在一定程度上解决目标自身存在形变甚至遮挡情况下的跟踪问题。另外,该方法利用了图像傅里叶变换的相位包含了图像的边缘纹理信息,对光照变化明显的目标具有很好的跟踪效果。与已有的光流法相比,快速傅里叶变换的应用也提高了目标跟踪方法的实时性。
为了实现上述目的,本发明采用如下技术方案:
一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法,包括如下步骤:
步骤(1):预先利用汉宁窗生成模板核函数,然后对模板核函数进行归一化;
步骤(2):生成被跟踪的目标区域所在的图像的置信度图模板并归一化,计算被跟踪的目标区域所在的图像的置信度图模板的快速傅里叶变换;
步骤(3):读取视频中的第一帧图像,获取被跟踪的目标区域在第一帧图像中的初始位置和大小;
步骤(4):以步骤(3)得到的初始位置或步骤(5)得到的新位置为中心,获取被跟踪的目标区域的上下文图像;归一化上下文图像;利用归一化的上下文图像与步骤(1)生成的模板核函数,得到当前帧被跟踪的目标区域的空间上下文图像,即贝叶斯框架的先验概率;
步骤(5):利用步骤(4)得到的当前帧被跟踪的目标区域的空间上下文图像,求取当前帧图像的置信度图,即贝叶斯框架的后验概率,进而求取当前帧图像的置信度图中置信度最大的点,将置信度最大的点作为被跟踪的目标区域的新位置;
步骤(6):以步骤(5)得到的新位置为中心,求取被跟踪的目标区域的空间上下文图像;
步骤(7):用步骤(4)或步骤(6)得到的被跟踪的目标区域的空间上下文图像更新时空上下文模型,并计算时空上下文模型傅里叶变换的相位;
步骤(8):利用步骤(2)得到的被跟踪的目标区域所在的图像的置信度图模板的快速傅里叶变换和步骤(7)得到的时空上下文模型,预测下一帧图像中被跟踪的目标区域的空间上下文图像的相位,读取下一帧图像,转到步骤(4)。
所述步骤(1)通过模板核函数来突出被跟踪的目标区域所在的图像中心,弱化目标图像边缘;所述目标图像指在每一帧图像中被跟踪的目标区域所在的图像;
在被跟踪的目标区域所在的图像中,越靠近中心的区域,其作为目标的一部分的可能性越大,对生成目标模板的贡献也应越大,为了生成更好的目标模板,应给予这些区域更大的权重。相反,越靠近目标图像边缘的区域,其作为目标的一部分的可能性越小,对生成目标模板的贡献也应越小,因此应给予这些区域更小的权重。
所述步骤(1)模板核函数的生成方法如下:
利用一维汉宁窗向量w1(n)与一维汉宁窗向量自身的转置[w1(n)]T相乘,生成二维汉宁核函数w2(n):
w2(n)=w1(n)*[w1(n)]T;(1)
其中,一维汉宁窗向量w1(n),如式(2)所示:
w 1 ( n ) = 1 2 ( c o s ( 2 π n L - 1 ) ) , 0 ≤ n ≤ L - 1 ; - - - ( 2 )
其中,L为汉宁窗的长度,n为向量的元素编号,从0开始编号。
所述步骤(1)对模板核函数wσ(z)进行归一化的公式为:
wσ(z)=aw2(n);(3)
其中,a为模板核函数的归一化常数,w2(n)为二维汉宁核函数。
所述步骤(2)的步骤为:
步骤(21):生成目标图像的置信度图模板并归一化;
所述目标图像的置信度图模板c(z),即被跟踪的目标区域在每个位置的可能性P(z|o),如公式(4)所示:
c ( z ) = P ( z | o ) = be - | z - z * | 2 * α ; - - - ( 4 )
其中,b为目标置信度图模板的归一化常数,α为函数的宽度参数,z∈R2为101×101模板中各点的坐标,z*为模板的中心点坐标;
步骤(22):求取归一化后的置信度图模板的快速傅里叶变换F(c)。
所述步骤(3)中被跟踪的目标区域在第一帧图像中的初始位置为已知,由目标检测方法或人工标记给出,被跟踪的目标区域的初始位置和大小通过一个矩形框表示。
所述步骤(4)的步骤如下:
步骤(41):判断步骤(3)或步骤(8)所读取的图像是彩色图像还是灰度图像,如果是彩色图像,则将其转换为灰度图Igray,若是灰度图像,则直接转到步骤(42):
Igray=0.299Ir+0.587Ig+0.114Ib;(5)
其中,Igray指灰度图像,Ir指彩色图像中的红色分量,Ig指彩色图像中的绿色分量,Ib指彩色图像中的蓝色分量。
步骤(42):获取被跟踪的目标区域的上下文图像:
设t-1时刻计算得到的图像中目标的宽为wt-1,高为ht-1,中心点坐标为在当前帧图像中以为中心,截取宽和高分别为2wt-1和2ht-1的图像区域作为被跟踪的目标区域的上下文图像;
步骤(43):归一化上下文图像:先将上下文图像的分辨率缩放为统一的设定像素,然后将缩放后的图像中每个像素点的灰度值减去该图像中所有像素点灰度值的平均值,作为每个像素点新的像素值,从而减少被跟踪目标表面的光照变化对图像的影响;
步骤(44):计算当前帧目标的空间上下文图像hsc:将步骤(43)求得的归一化的上下文图像与步骤(1)生成的模板核函数相乘,从而强化被跟踪的目标区域所在的图像中心附近像素点,弱化被跟踪的目标区域所在的图像边缘像素点,同时也为后续的图像傅里叶变换去除了图像边缘的频率响应影响;
步骤(45):判断是否是第一帧图像,若是第一帧图像,则跳到步骤(7),若不是,则执行步骤(5)。
所述步骤(5)的步骤为:
步骤(51):对当前帧被跟踪的目标区域的空间上下文图像hsc进行快速傅里叶变换并取其相位
F ( h s c ) = M h e jθ t ; - - - ( 6 ) ;
步骤(52):求取当前帧被跟踪的目标区域的空间上下文图像的置信度图的傅里叶变换;
将当前帧被跟踪的目标区域的空间上下文图像的傅里叶变换的相位与上一帧预测的被跟踪的目标区域傅里叶变换的相位相乘,计算出当前帧图像置信度图的傅里叶变换F(ct);
步骤(53):对F(ct)做傅里叶反变换求取当前帧图像的置信度图c;
步骤(54):求取目标在当前帧图像中的新位置:以置信度图c中置信度最大的点z(cmax)作为被跟踪的目标区域的新位置zt
步骤(55):以新位置zt为中心,重复步骤(4)和步骤(5),直至位置不再发生变化,求得当前帧图像中被跟踪的目标区域的最终位置zt
所述步骤(6)的步骤为:以被跟踪的目标区域在当前帧图像中的新位置zt为中心,重复步骤(4),生成当前帧被跟踪的目标区域的空间上下文图像hsc
所述步骤(7)的步骤为:
步骤(71):利用空间上下文图像更新时空上下文模型:若是第一帧图像,则将空间上下文图像hsc作为时空上下文模型若不是第一帧图像,则以步骤(54)得到的新位置目标的空间上下文图像更新时空上下文模型:
H t + 1 s t c = ( 1 - ρ ) H t s t c + ρh t s c ; - - - ( 7 ) ;
其中,ρ为模板更新速率,为更新后的时空上下文模型,为更新前的时空上下文模型,为空间上下文模型。
步骤(72):对更新后的时空上下文模型进行傅里叶变换,并取傅里叶变换的相位,由于其傅里叶变换的相位决定了图像的边缘,因此取其相位
F ( H t + 1 s t c ) = Me jθ t + 1 ; - - - ( 8 ) ;
其中,表示时空上下文模型的傅里叶变换,M表示傅里叶变换的幅值,表示傅里叶变换的相位。
所述步骤(8)的步骤为:
步骤(81):利用公式(9)计算与时空上下文模型对应的目标的相位预测
e jθ p = F ( c ) e j θ ; - - - ( 9 ) ;
其中,表示预测的相位,e表示时空上下文模型的相位,j为虚数单位。
步骤(82):读取下一帧图像,若无图像可读,则结束;并转到步骤(4)继续执行。
本发明的有益效果:
1、上述步骤(1)中模板核函数的应用,弱化了目标图像边缘的影响,强化了目标图像中心的作用,减小了目标周围的背景图像对目标模板的干扰。
2、上述步骤(43)中将目标上下文图像的分辨率统一为设定的像素大小,可减小大目标图像傅里叶变换的计算量,与步骤(2)中快速傅里叶变换的应用相结合,提高了目标跟踪方法的实时性。
3、上述步骤(42)中上下文图像的选取,利用了目标周围的背景图像的信息,对背景变化不大并且目标在一定程度上存在遮挡的情况具有较好的跟踪效果。
4、上述步骤(51)中利用傅里叶变换的相位包含了丰富的纹理信息,且该信息在目标表面的光照变化较大的情况下基本不变,因此本方法在光照变化较大的情况下,具有很好的跟踪效果。
附图说明
图1为本发明的流程图;
图2为二维汉宁核函数图;
图3为置信度图模板;
图4为Dudek视频图像中第一帧的目标空间上下文图像;
图5为Dudek视频图像中第100帧图像的置信度图;
图6为Dudek视频图像跟踪到第100帧时的时空上下文模型;
图7(a)-图7(j)为Dudek视频图像跟踪的效果图;
图8(a)-图8(j)为David视频的跟踪效果图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
如图1所示,一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法,包括如下步骤:
步骤1:生成模板核函数并归一化
在目标图像中,越靠近中心的区域,其作为目标的一部分的可能性越大,对生成目标模板的贡献也应越大,为了生成更好的目标表示模板,应给予这些区域更大的权重。相反,越靠近目标图像边缘的区域,其作为目标的一部分的可能性越小,对生成目标模板的贡献也应越小,因此应给予这些区域更小的权重。因此,首先需要建立一个模板核函数来实现这一突出目标图像中心,弱化图像边缘的功能。本发明采用的模板核函数的生成方法如下:
(1)利用一维汉宁窗向量w1(n)与其自身的转置w1(n)'相乘,生成二维汉宁核函数w2(n):
w2(n)=w1(n)*[w1(n)]T
其中一维汉宁窗向量如下式所示:
w 1 ( n ) = 1 2 ( c o s ( 2 π n L - 1 ) ) , 0 ≤ n ≤ L - 1
本发明中取L=101,为汉宁窗的长度,生成的二维汉宁核函数w2(n)如下图2所示:
(2)归一化模板核函数:
wσ(z)=aw2(n)
其中a为归一化常数。
步骤2:计算目标置信度图模板的快速傅里叶变换
求取目标的置信度图模板的傅里叶变换。
(1)生成目标的置信度图模板并归一化。目标的置信度图,即目标在每个位置的可能性,如下式所示:
c ( z ) = P ( z | o ) = be - | z - z * | 2 * α
其中b为归一化常数,本发明中α取2.25,z∈R2为101×101模板中各点的坐标,z*为模板的中心点坐标。置信度图模板的图形化表示如下图3所示,由图3可见,目标置信度最大的点为模板的中心位置。
(2)求取归一化的置信度图模板的傅里叶变换F(c)。
步骤3:获取被跟踪目标在第一帧图像中的初始位置
读取视频中的第一帧图像,目标在第一帧图像中的初始位置为已知,可由目标检测方法或人工标记给出。目标的初始位置和大小由一个矩形框表示。
步骤4:获取目标的空间上下文图像
(1)读取的图像如果是彩色图像,则将其转换为灰度图Igray
Igray=0.299Ir+0.587Ig+0.114Ib
(2)获取目标的上下文图像。设上一次计算得到的图像中目标的宽为wt-1,高为ht-1,中心点坐标为在当前帧图像中以为中心,截取宽和高分别为2wt-1和2ht-1的图像区域作为目标的上下文图像。
(3)归一化上下文图像:先将上下文图像的分辨率缩放为统一的101×101像素,然后将该图像中每个像素点的灰度值减去该图像中所有像素点灰度值的平均值,作为该像素点新的像素值,这样处理可以在一定程度上减少目标表面的光照变化对图像的影响。
(4)计算当前帧目标的空间上下文图像hsc:将上一步求得的归一化的上下文图像与第1步生成的模板核函数wσ(z)相乘,强化目标图像中心附近像素点的作用,弱化目标图像边缘像素点的作用,同时也为后续的图像傅里叶变换去除图像边缘的频率响应影响。以Dudek视频图像为例,计算出其第一帧的目标空间上下文图像如图4所示:
(5)若是第一帧图像,则跳到步骤7。
步骤5:求取当前帧图像中置信度最大的点
(1)对当前帧目标的空间上下文图像hsc进行快速傅里叶变换并取其相位由于图像傅里叶变换的相位包含了图像的纹理信息,因此在很大程度上去除了光照变化对图像的影响;
F ( h s c ) = M h e jθ t
(2)求取当前帧目标的空间上下文图像的置信度图的傅里叶变换。
将当前帧目标的空间上下文图像的傅里叶变换的相位与上一帧预测的目标傅里叶变换的相位相乘,计算出当前帧图像置信度图的傅里叶变换F(ct)
(3)对F(ct)做傅里叶反变换求取当前帧图像的置信度图c。以Dudek视频图像为例,第100帧图像的置信度图如图5所示:
(4)求取目标在当前帧图像中的新位置:以置信度图c中置信度最大的点z(cmax)作为目标的新位置zt
(5)以新位置zt为中心,重复步骤4和步骤5,直至位置不再发生变化,求得当前帧图像中目标的最终位置zt
步骤6:求取新位置目标的空间上下文图像
以目标在当前帧图像中的新位置zt为中心,重复步骤4,生成当前帧目标的最终空间上下文图像hsc
步骤7:更新时空上下文模型并计算其傅里叶变换的相位
(1)更新时空上下文模型:若是第一帧图像,则将该空间上下文图像hsc作为时空上下文模型若不是第一帧图像,则以新位置目标的空间上下文图像更新时空上下文模型:
H t + 1 s t c = ( 1 - ρ ) H t s t c + ρh t s c
本发明中ρ=0.08。以Dudek视频图像为例,跟踪到第100帧图像时的时空上下文模型如图6所示:
(2)对时空上下文模型进行傅里叶变换,并取其相位,由于其傅里叶变换的相位信息决定了图像的边缘,因此取其相位
F ( H t + 1 s t c ) = Me jθ t + 1
步骤8:预测下一帧图像中目标空间上下文图像的相位
(1)利用下式计算与时空上下文模型对应的目标的相位预测
e jθ p = F ( c ) e j θ
(2)读取下一帧图像,并转到步骤4继续执行。
3、有益效果
以Dudek视频图像为例,跟踪的效果图如图7(a)-图7(j)所示:由图7(a)-图7(j)可见,在背景变化情况下,虽然目标的姿态发生了一定程度的变化,目标的表情存在很大的变化,目标有时戴着眼镜,有时摘下眼镜,本发明给出的方法都具有较好的跟踪效果。
以下是David视频的跟踪效果图:由图8(a)-图8(j)可见,在背景变化较大的情况下,虽然视频中的光照变化非常大,目标的表情也有很大的变化,同样也有戴上眼镜和摘下眼镜的情况,本发明给出的方法都能很好地对目标进行跟踪。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (10)

1.一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法,其特征是,包括如下步骤:
步骤(1):预先利用汉宁窗生成模板核函数,然后对模板核函数进行归一化;
步骤(2):生成被跟踪的目标区域所在的图像的置信度图模板并归一化,计算被跟踪的目标区域所在的图像的置信度图模板的快速傅里叶变换;
步骤(3):读取视频中的第一帧图像,获取被跟踪的目标区域在第一帧图像中的初始位置和大小;
步骤(4):以步骤(3)得到的初始位置或步骤(5)得到的新位置为中心,获取被跟踪的目标区域的上下文图像;归一化上下文图像;利用归一化的上下文图像与步骤(1)生成的模板核函数,得到当前帧被跟踪的目标区域的空间上下文图像,即贝叶斯框架的先验概率;
步骤(5):利用步骤(4)得到的当前帧被跟踪的目标区域的空间上下文图像,求取当前帧图像的置信度图,即贝叶斯框架的后验概率,进而求取当前帧图像的置信度图中置信度最大的点,将置信度最大的点作为被跟踪的目标区域的新位置;
步骤(6):以步骤(5)得到的新位置为中心,求取被跟踪的目标区域的空间上下文图像;
步骤(7):用步骤(4)或步骤(6)得到的被跟踪的目标区域的空间上下文图像更新时空上下文模型,并计算时空上下文模型傅里叶变换的相位;
步骤(8):利用步骤(2)得到的被跟踪的目标区域所在的图像的置信度图模板的快速傅里叶变换和步骤(7)得到的时空上下文模型,预测下一帧图像中被跟踪的目标区域的空间上下文图像的相位,读取下一帧图像,转到步骤(4)。
2.如权利要求1所述的方法,其特征是,所述步骤(1)模板核函数的生成方法如下:
利用一维汉宁窗向量w1(n)与一维汉宁窗向量自身的转置[w1(n)]T相乘,生成二维汉宁核函数w2(n):
w2(n)=w1(n)*[w1(n)]T;(1)
其中,一维汉宁窗向量w1(n),如式(2)所示:
w 1 ( n ) = 1 2 ( c o s ( 2 π n L - 1 ) ) , 0 ≤ n ≤ L - 1 ; - - - ( 2 )
其中,L为汉宁窗的长度,n为向量的元素编号,从0开始编号。
3.如权利要求1所述的方法,其特征是,所述步骤(1)对模板核函数wσ(z)进行归一化的公式为:
wσ(z)=aw2(n);(3)
其中,a为模板核函数的归一化常数,w2(n)为二维汉宁核函数。
4.如权利要求1所述的方法,其特征是,所述步骤(2)的步骤为:
步骤(21):生成目标图像的置信度图模板并归一化;
所述目标图像的置信度图模板c(z),即被跟踪的目标区域在每个位置的可能性P(z|o),如公式(4)所示:
c ( z ) = P ( z | o ) = be - | z - z * | 2 * α ; - - - ( 4 )
其中,b为目标置信度图模板的归一化常数,α为函数的宽度参数,z∈R2为101×101模板中各点的坐标,z*为模板的中心点坐标;
步骤(22):求取归一化后的置信度图模板的快速傅里叶变换F(c)。
5.如权利要求1所述的方法,其特征是,所述步骤(3)中被跟踪的目标区域在第一帧图像中的初始位置为已知,由目标检测方法或人工标记给出,被跟踪的目标区域的初始位置和大小通过一个矩形框表示。
6.如权利要求1所述的方法,其特征是,所述步骤(4)的步骤如下:
步骤(41):判断步骤(3)或步骤(8)所读取的图像是彩色图像还是灰度图像,如果是彩色图像,则将其转换为灰度图Igray,若是灰度图像,则直接转到步骤(42):
Igray=0.299Ir+0.587Ig+0.114Ib;(5)
其中,Igray指灰度图像,Ir指彩色图像中的红色分量,Ig指彩色图像中的绿色分量,Ib指彩色图像中的蓝色分量;
步骤(42):获取被跟踪的目标区域的上下文图像:
设t-1时刻计算得到的图像中目标的宽为wt-1,高为ht-1,中心点坐标为在当前帧图像中以为中心,截取宽和高分别为2wt-1和2ht-1的图像区域作为被跟踪的目标区域的上下文图像;
步骤(43):归一化上下文图像:先将上下文图像的分辨率缩放为统一的设定像素,然后将缩放后的图像中每个像素点的灰度值减去该图像中所有像素点灰度值的平均值,作为每个像素点新的像素值,从而减少被跟踪目标表面的光照变化对图像的影响;
步骤(44):计算当前帧目标的空间上下文图像hsc:将步骤(43)求得的归一化的上下文图像与步骤(1)生成的模板核函数相乘,从而强化被跟踪的目标区域所在的图像中心附近像素点,弱化被跟踪的目标区域所在的图像边缘像素点,同时也为后续的图像傅里叶变换去除了图像边缘的频率响应影响;
步骤(45):判断是否是第一帧图像,若是第一帧图像,则跳到步骤(7),若不是,则执行步骤(5)。
7.如权利要求1所述的方法,其特征是,所述步骤(5)的步骤为:
步骤(51):对当前帧被跟踪的目标区域的空间上下文图像hsc进行快速傅里叶变换并取其相位
F ( h s c ) = M h e jθ t ; - - - ( 6 ) ;
步骤(52):求取当前帧被跟踪的目标区域的空间上下文图像的置信度图的傅里叶变换;
将当前帧被跟踪的目标区域的空间上下文图像的傅里叶变换的相位与上一帧预测的被跟踪的目标区域傅里叶变换的相位相乘,计算出当前帧图像置信度图的傅里叶变换F(ct);
步骤(53):对F(ct)做傅里叶反变换求取当前帧图像的置信度图c;
步骤(54):求取目标在当前帧图像中的新位置:以置信度图c中置信度最大的点z(cmax)作为被跟踪的目标区域的新位置zt
步骤(55):以新位置zt为中心,重复步骤(4)和步骤(5),直至位置不再发生变化,求得当前帧图像中被跟踪的目标区域的最终位置zt
8.如权利要求1所述的方法,其特征是,所述步骤(6)的步骤为:以被跟踪的目标区域在当前帧图像中的新位置zt为中心,重复步骤(4),生成当前帧被跟踪的目标区域的空间上下文图像hsc
9.如权利要求1所述的方法,其特征是,所述步骤(7)的步骤为:
步骤(71):利用空间上下文图像更新时空上下文模型:若是第一帧图像,则将空间上下文图像hsc作为时空上下文模型若不是第一帧图像,则以步骤(54)得到的新位置目标的空间上下文图像更新时空上下文模型:
H t + 1 s t c = ( 1 - ρ ) H t s t c + ρh t s c ; - - - ( 7 ) ;
其中,ρ为模板更新速率,为更新后的时空上下文模型,为更新前的时空上下文模型,为空间上下文模型;
步骤(72):对更新后的时空上下文模型进行傅里叶变换,并取傅里叶变换的相位,由于其傅里叶变换的相位决定了图像的边缘,因此取其相位
F ( H t + 1 s t c ) = Me jθ t + 1 ; - - - ( 8 ) ;
其中,表示时空上下文模型的傅里叶变换,M表示傅里叶变换的幅值,表示傅里叶变换的相位。
10.如权利要求1所述的方法,其特征是,所述步骤(8)的步骤为:
步骤(81):利用公式(9)计算与时空上下文模型对应的目标的相位预测
e jθ p = F ( c ) e j θ ; - - - ( 9 ) ;
其中,表示预测的相位,e表示时空上下文模型的相位,j为虚数单位;
步骤(82):读取下一帧图像,若无图像可读,则结束;并转到步骤(4)继续执行。
CN201510606707.1A 2015-09-22 2015-09-22 一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法 Active CN105225253B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510606707.1A CN105225253B (zh) 2015-09-22 2015-09-22 一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510606707.1A CN105225253B (zh) 2015-09-22 2015-09-22 一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN105225253A true CN105225253A (zh) 2016-01-06
CN105225253B CN105225253B (zh) 2018-01-02

Family

ID=54994202

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510606707.1A Active CN105225253B (zh) 2015-09-22 2015-09-22 一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN105225253B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355204A (zh) * 2016-08-31 2017-01-25 武汉大学 基于贝叶斯学习和增量子空间学习的目标跟踪方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050163341A1 (en) * 2000-12-19 2005-07-28 Ruey-Yuan Han Fast fourier transform correlation tracking algorithm with background correction
US20060165258A1 (en) * 2005-01-24 2006-07-27 Shmuel Avidan Tracking objects in videos with adaptive classifiers
CN101867699A (zh) * 2010-05-25 2010-10-20 中国科学技术大学 基于分块的非特定目标实时跟踪方法
US20110085702A1 (en) * 2009-10-08 2011-04-14 University Of Southern California Object tracking by hierarchical association of detection responses
CN102737386A (zh) * 2012-05-15 2012-10-17 北京硅盾安全技术有限公司 一种运动目标抗融合遮挡跟踪算法
CN103020986A (zh) * 2012-11-26 2013-04-03 哈尔滨工程大学 一种运动目标跟踪方法
CN103886619A (zh) * 2014-03-18 2014-06-25 电子科技大学 一种融合多尺度超像素的目标跟踪方法
CN104392466A (zh) * 2014-11-13 2015-03-04 南京航空航天大学 一种基于视觉显著原始目标的检测跟踪方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050163341A1 (en) * 2000-12-19 2005-07-28 Ruey-Yuan Han Fast fourier transform correlation tracking algorithm with background correction
US20060165258A1 (en) * 2005-01-24 2006-07-27 Shmuel Avidan Tracking objects in videos with adaptive classifiers
US20110085702A1 (en) * 2009-10-08 2011-04-14 University Of Southern California Object tracking by hierarchical association of detection responses
CN101867699A (zh) * 2010-05-25 2010-10-20 中国科学技术大学 基于分块的非特定目标实时跟踪方法
CN102737386A (zh) * 2012-05-15 2012-10-17 北京硅盾安全技术有限公司 一种运动目标抗融合遮挡跟踪算法
CN103020986A (zh) * 2012-11-26 2013-04-03 哈尔滨工程大学 一种运动目标跟踪方法
CN103886619A (zh) * 2014-03-18 2014-06-25 电子科技大学 一种融合多尺度超像素的目标跟踪方法
CN104392466A (zh) * 2014-11-13 2015-03-04 南京航空航天大学 一种基于视觉显著原始目标的检测跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
肖鹏等: "基于置信图自适应融合的视觉目标跟踪", 《信号与信息处理》 *
赵钦君等: "一种尺度和旋转自适应的目标跟踪算法", 《中南大学学报(自然科学版)》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106355204A (zh) * 2016-08-31 2017-01-25 武汉大学 基于贝叶斯学习和增量子空间学习的目标跟踪方法
CN106355204B (zh) * 2016-08-31 2019-08-20 武汉大学 基于贝叶斯学习和增量子空间学习的目标跟踪方法

Also Published As

Publication number Publication date
CN105225253B (zh) 2018-01-02

Similar Documents

Publication Publication Date Title
CN108986140B (zh) 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN104794733B (zh) 对象跟踪方法和装置
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP4677046B2 (ja) 多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定
CN103700114B (zh) 一种基于可变高斯混合数的复杂背景建模方法
CN106991689B (zh) 基于fhog和颜色特征的目标跟踪方法及gpu加速
US20170213100A1 (en) Apparatus and method for detecting foreground in image
US8712182B2 (en) Image processing device, image processing method, and program
CN110084201B (zh) 一种监控场景下基于特定目标跟踪的卷积神经网络的人体动作识别方法
CN103455991A (zh) 一种多聚焦图像融合方法
JP6597914B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10692215B2 (en) Image processing apparatus, image processing method, and storage medium
CN112597847B (zh) 人脸姿态估计方法、装置、电子设备和存储介质
US8320620B1 (en) Methods and apparatus for robust rigid and non-rigid motion tracking
CN102930511B (zh) 一种基于灰阶超声图像的心脏流场速度矢量分析方法
US11821986B1 (en) Target tracking method, system, device and storage medium
CN105654518B (zh) 一种跟踪模板自适应方法
CN113724155A (zh) 用于自监督单目深度估计的自提升学习方法、装置及设备
Ju et al. IDBP: Image dehazing using blended priors including non-local, local, and global priors
CN108229650B (zh) 卷积处理方法、装置及电子设备
CN103500454A (zh) 一种抖动视频运动目标提取方法
CN111105444B (zh) 一种适用于水下机器人目标抓取的连续跟踪方法
US8938119B1 (en) Facade illumination removal
Xu et al. Robust tracking via weighted spatio-temporal context learning
CN105225253B (zh) 一种基于贝叶斯框架和快速傅里叶变换的目标跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant