CN107862680B - 一种基于相关滤波器的目标跟踪优化方法 - Google Patents

一种基于相关滤波器的目标跟踪优化方法 Download PDF

Info

Publication number
CN107862680B
CN107862680B CN201711037914.5A CN201711037914A CN107862680B CN 107862680 B CN107862680 B CN 107862680B CN 201711037914 A CN201711037914 A CN 201711037914A CN 107862680 B CN107862680 B CN 107862680B
Authority
CN
China
Prior art keywords
frame picture
target
color
hog
search domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711037914.5A
Other languages
English (en)
Other versions
CN107862680A (zh
Inventor
赵亦工
岑晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Electronic Science and Technology
Original Assignee
Xian University of Electronic Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Electronic Science and Technology filed Critical Xian University of Electronic Science and Technology
Priority to CN201711037914.5A priority Critical patent/CN107862680B/zh
Publication of CN107862680A publication Critical patent/CN107862680A/zh
Application granted granted Critical
Publication of CN107862680B publication Critical patent/CN107862680B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

本发明公开了一种基于相关滤波器的目标跟踪优化方法,其主要思路为:获取一个视频,所述视频包括T帧图片,每帧图片中分别包含一个目标,其中第1帧图片上目标位置已知,剩余T‑1帧图片上各自目标位置未知;然后计算T帧图片目标搜索域区域;分别得到第1帧图片目标搜索域区域的HOG特征向量fHOG,1至第T帧图片目标搜索域区域的HOG特征向量fHOG,T,以及第1帧图片目标搜索域区域的颜色特征矩阵至第T帧图片目标搜索域区域的颜色特征矩阵,确定相关滤波器,计算第t帧图片的目标中心点进而分别得到第T帧图片的目标中心点后结束跟踪,至此得到了第2帧图片的目标中心点至第T帧图片的目标中心点以及第1帧图片的目标中心点实现了T帧图片中每个目标的实时跟踪。

Description

一种基于相关滤波器的目标跟踪优化方法
技术领域
本发明属于计算机视觉领域,特别涉及一种基于相关滤波器的目标跟踪优化方法,适应于实际应用。
背景技术
视频目标跟踪是计算机视觉领域的重要研究课题,其定义是:给定视频序列初始帧中目标的位置框,在接下来的视频序列中自动给出该目标的位置框.视频目标跟踪研究在视频监控、人机交互、机器人等领域有广泛应用。
经过30多年研究与发展,大量视频目标跟踪算法相继提出。早期工作主要集中于生成学习跟踪方法研究,如Lucas—Kanade算法、Kalman滤波算法和Mean—shift跟踪算法等;但早期研究工作通过经典的数学模型难以准确把握目标的动态表观信息,因此经常导致若干帧后跟踪失败。接着,研究人员尝试在跟踪问题中引入包含考量背景信息在内的鉴别学习方法,以判别分类角度为出发点的鉴别学习跟踪算法得到了广泛研究和发展;如2009年B.Babenko等提出在线多例学习跟踪算法(MIL)与S.Hare建立的利用核方法的结构化输出模型(Struck);基于相关滤波视频目标跟踪算法近年来受到广泛关注,其初衷是设计一个对目标高响应、同时对背景低响应的滤波器,由此实现对目标模式的快速检测;该方法本身可以有效实现对目标定位,但是对训练样本提出了数量要求,直至Bolme在2010年提出了最小平方误差输出总和滤波器(MOSSE),该状况得以改善。利用自适应训练框架,MOSSE实现了鲁棒高效的跟踪模式,在MOSSE基础上,出现了大量改进算法;如Henriques等于2012年构建的循环结构检测跟踪算法(CSK)和于2015年提出的核化相关滤波器算法。
但是目前的相关滤波算法仍然有一些不足之处,如对快速物体与形变物体的进行目标跟踪时容易丢失目标;搜索域的大小不够精确,当目标在搜索域的占比过高时目标信息过多,当目标在搜索域的占比过低时背景信息过多。
发明内容
针对上述现有技术存在的缺点,本发明的目的在于提出一种基于相关滤波器的目标跟踪优化方法,该种基于相关滤波器的目标跟踪优化方法采用HOG特征与颜色特征比较的方法进行特征提取,能够增强跟踪目标鲁棒性。
为达到上述技术目的,本发明采用如下技术方案予以实现。
一种基于相关滤波器的目标跟踪优化方法,包括以下步骤:
步骤1,获取一个视频,所述视频包括T帧图片,每帧图片中分别包含一个目标,其中第1帧图片上目标位置已知,剩余T-1帧图片上各自目标位置未知;然后计算T帧图片目标搜索域区域;其中,T为大于或等于2的正整数;
步骤2,对第t'帧图片目标搜索域区域分别进行HOG特征和颜色特征的提取,分别得到第t'帧图片目标搜索域区域的HOG特征向量和第t'帧图片目标搜索域区域的颜色特征矩阵;1≤t′≤T,t'的初始值为1;
步骤3,令t'的值分别取1至T,重复步骤2,进而分别得到第1帧图片目标搜索域区域的HOG特征向量fHOG,1至第T帧图片目标搜索域区域的HOG特征向量fHOG,T,以及第1帧图片目标搜索域区域的颜色特征矩阵至第T帧图片目标搜索域区域的颜色特征矩阵;
初始化:令t∈{2,3,…,T},令表示第t帧图片目标搜索域区域,t的初始值为2;
步骤4,确定相关滤波器,并将第t帧图片目标搜索域区域的HOG特征向量和第t帧图片目标搜索域区域的颜色特征矩阵分别作为相关滤波器的输入,分别计算第t帧图片的HOG特征响应矩阵和第t帧图片的颜色特征响应矩阵即为相关滤波器的输出,进而分别得到第t帧图片的HOG特征响应矩阵中的最大值,以及第t帧图片的颜色特征响应矩阵中的最大值;
步骤5,比较第t帧图片的HOG特征响应矩阵中的最大值,以及第t帧图片的颜色特征响应矩阵中的最大值,并选取大的最大值位置,作为第t帧图片的目标中心点
步骤6,令t的值加1,返回步骤4,直到得到第T帧图片的目标中心点后结束跟踪,至此得到了第2帧图片的目标中心点至第T帧图片的目标中心点以及根据第1帧图片上目标位置得到第1帧图片的目标中心点实现了T帧图片中每个目标的实时跟踪。
本发明的有益效果:
本发明提出了一种基于相关滤波器的改进方法,不同于传统的人工设定搜索域大小,本发明利用了熵的特点来自适应的选择搜索域的大小;在特征提取方面,采用了HOG特征与颜色特征比较的方法进行特征提取,使得跟踪器对跟踪目标有着更加鲁棒的效果。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细说明。
图1为本发明的一种基于相关滤波器的目标跟踪优化方法流程图;
图2为自适应搜索域的原理图;
图3为HOG特征提取的原理图;
图4为颜色特征提取的原理图;
图5a为视频的第1帧图片示意图;
图5b为视频的第103帧图片示意图;
图5c为视频的第162帧图片示意图;
图5d为视频的第404帧图片示意图;
图5e为视频的第456帧图片示意图;
图5f为视频的第476帧图片示意图。
具体实施方式
参照图1,为本发明的一种基于相关滤波器的目标跟踪优化方法流程图;其中所述基于相关滤波器的目标跟踪优化方法,包括以下步骤:
步骤1,计算搜索域的大小。
利用熵的性质自动选择搜索域的大小;首先,输入一个视频,所述视频包括T帧图片,每帧图片中分别包含一个目标,其中第1帧图片上目标位置是已知的,剩余T-1帧图片上各自目标位置都是未知的;第1帧图片上目标大小为q1,计算第1帧图片上目标的熵E(q1),p1i表示第1帧图片内灰度值i在q1中出现的概率,b1表示第1帧图片中的灰度值最大值,本实施例中b1取值为255。
确定第2帧图片上目标搜索域区域初始值为s0,s0=O×q1,O为大于0的正整数,本实施例O取值为3。
1.1计算得到第1帧图片上目标的熵E(q1)与第2帧图片上第k-1次更新后目标搜索域区域的熵E(sk-1)之间的比R(k-1),其表达式为:
R(k-1)=E(q1)/E(sk-1) (1)
其中,1≤k≤K,K为设定的搜索域更新次数最大值,本实施例K取值为9;k的初始值为1,sk-1表示第2帧图片上第k-1次更新后目标搜索域区域,pk-1,2,l表示第2帧图片内灰度值l在sk-1中出现的概率,log2表示底数为2的对数,b2表示第2帧图片中的灰度值最大值,本实施例中b2取值为255。
1.2令k的值加1,且令sk-1=sk-2-Q,返回1.1,直到得到第1帧图片上目标的熵E(q1)与第2帧图片上第K-1次更新后搜索域的熵E(sK-1)之间的比R(K-1)或者sk-1=1.2q1时停止更新,将停止更新时对应的第1帧图片上目标的熵与第2帧图片上第k-1次更新后搜索域的熵之间的比,记为第1帧图片上目标的熵E(q1)与第2帧图片上第k'次更新后搜索域的熵E(sk')之间的比R(k'),1≤k'≤K,k'表示停止更新时对应的更新次数。
1.3根据第1帧图片上目标的熵E(q1)与第2帧图片上第k'次更新后目标搜索域区域的熵E(sk')之间的比R(k'),并通过如下公式得到第2帧图片上的最优目标搜索域区域,记为第2帧图片目标搜索域区域
其中,表示取最小时对应的j值,R(j-1)表示第1帧图片上目标的熵E(q1)与第2帧图片上第j-1次更新后目标搜索域区域的熵E(sj-1)之间的比,表示第2帧图片目标搜索域区域的最优更新次数,Q为设定常数,0<Q<1,本实施例中Q取值为0.2;O表示设定整数,O>1,本实施例中O取值为3;结果如图2所示。
令第1帧图片目标搜索域区域q1表示第1帧图片上目标大小。
1.4令表示第t帧图片目标搜索域区域, 表示第2帧图片目标搜索域区域的最优更新次数,qt-1表示第t-1帧图片上目标大小,t∈{2,3,…,T}。
1.5令t的值从2取至T,重复执行1.4,直到得到第T帧图片目标搜索域区域将第2帧图片目标搜索域区域至第T帧图片目标搜索域区域以及第1帧图片目标搜索域区域记为T帧图片目标搜索域区域,然后将t的值初始化为2。
步骤2,提取第t'帧图片目标搜索域区域的特征,具体为对第t'帧图片目标搜索域区域分别进行方向梯度直方图(HOG)特征和颜色特征的提取,1≤t′≤T,t'的初始值为1。
HOG特征的提取过程如图3所示;首先,对第t'帧图片目标搜索域区域进行灰度化,得到灰度化后第t'帧图片目标搜索域区域;然后采用Gamma校正法对灰度化后第t'帧图片目标搜索域区域进行颜色空间的标准化,目的是调节灰度化后第t帧图片目标搜索域区域的对比度,降低灰度化后第t'帧图片目标搜索域区域局部的阴影和光照变化所造成的影响,同时抑制噪音的干扰,进而得到Gamma校正法后第t'帧图片目标搜索域区域,所述Gamma校正法后第t'帧图片目标搜索域区域中包括A×B个像素,A表示Gamma校正法后第t'帧图片目标搜索域区域的高,B表示Gamma校正法后第t'帧图片目标搜索域区域的宽;再计算Gamma校正法后第t'帧图片目标搜索域区域中A×B个像素的梯度,得到A×B个像素的梯度值,得到A×B个像素的梯度值主要是为了捕获轮廓信息,同时进一步弱化光照的干扰。
接着,将Gamma校正法后第t'帧图片目标搜索域区域中每C×C个像素分别作为一个cell,进而得到E个cell, 表示向下取整,本实施例中C取值为6;确定每个cell包含H个梯度方向,本实施例中H取值为8;将每个cell的H个梯度方向分别记为对应cell的梯度直方图,进而得到E个cell的梯度直方图,每个cell的梯度直方图都为H×1维;将E个cell的梯度直方图作为E个cell的特征描述符。
将E个cell中每D×D个cell分别组成一个block,本实施例中D取值为2;进而得到F个block, 表示向下取整;将每个block内D×D个cell的特征描述符分别依次串接起来,进而得到F个block的HOG特征描述符,所述F个block的HOG特征描述符都为H×D维;最后将F个block的HOG特征描述符依次串接起来,得到第t'帧图片的HOG特征描述符,所述第t'帧图片的HOG特征描述符为H×D×F维;将第t'帧图片的HOG特征描述符按照block个数维依次串接,形成H×D维矩阵,所述H×D维矩阵为第t'帧图片目标搜索域区域的HOG特征向量fHOG,t',所述第t'帧图片搜索域区域的HOG特征向量fHOG,t'是可供分类使用特征向量。
颜色特征的提取过程如图4所示。首先,使用RGB色彩提取原理方法对第t'帧图片目标搜索域区域进行RGB颜色特征提取,进而得到3个颜色特征向量,每个向量长度为I;其中3个颜色依次为红色red、绿色green、蓝色blue,本实施例中I取值为8。
使用matlab图像处理宝典中的颜色映射方法对3个颜色特征向量进行颜色映射,进而得到11个颜色特征向量,每个颜色向量长度分别为I;其中11个颜色依次为黑色black、蓝色blue、棕色brown、绿色green、灰色grey、橙色orange、粉色pink、紫色purple、红色red、白色white、黄色yellow,得到11个颜色特征向量。
对11个颜色特征向量分别做快速傅里叶变换(FFT),再分别进行核映射,进而得到新的11个颜色特征向量,每个新的颜色特征向量长度都为I。
然后通过PCA降维方法对所述新的11个颜色特征向量进行降维处理,得到降维处理后的2个颜色特征向量,所述降维处理后的2个颜色特征向量为第t'帧图片目标搜索域区域中主要颜色的2个向量,将降维处理后的2个颜色特征向量依次串接,得到一个I×2维矩阵,所述I×2维矩阵即为第t'帧图片目标搜索域区域的颜色特征矩阵fcolor,t'
步骤3,令t'的值分别取1至T,重复步骤2,进而分别得到第1帧图片目标搜索域区域的HOG特征向量fHOG,1至第T帧图片目标搜索域区域的HOG特征向量fHOG,T,以及第1帧图片目标搜索域区域的颜色特征矩阵fcolor,1至第T帧图片目标搜索域区域的颜色特征矩阵fcolor,T
步骤4,获取相关滤波器。
确定相关滤波器,并将第t帧图片目标搜索域区域的HOG特征向量fHOG,t和第t帧图片目标搜索域区域的颜色特征矩阵fcolor,t分别作为相关滤波器的输入,分别计算第t帧图片目标搜索域区域的最优HOG拟合代价系数和第t帧图片目标搜索域区域的最优颜色拟合代价系数进而分别计算第t帧图片目标搜索域区域的HOG系数矩阵aHOG,t和第t帧图片目标搜索域区域的颜色系数矩阵acolor,t,然后根据aHOG,t和acolor,t,分别计算第t帧图片的HOG特征响应矩阵和第t帧图片的颜色特征响应矩阵即为相关滤波器的输出;其具体过程如下所述:
令yt-1表示第t-1帧图片上目标大小qt-1的二维高斯分布矩阵,大小为Mt-1×Nt-1;第1帧图片上目标大小q1的二维高斯分布矩阵大小至第T-1帧图片上目标大小qT-1的二维高斯分布矩阵大小取值分别相等;令yt-1(m,n)表示二维高斯分布矩阵yt-1上坐标(m,n)处的值,0≤m≤Mt-1,0≤n≤Nt-1,则yt-1(m,n)的计算公式为:
其中,wt-1表示第t-1帧图片上目标大小qt-1的宽,ht-1表示第t-1帧图片上目标大小qt-1的高,exp表示指数函数。
计算得到第t帧图片搜索域区域的最优HOG拟合代价系数
其中,将满足时对应的值,记为第t帧图片目标搜索域区域的HOG拟合代价系数ωHOG,t;本实施例中ε取值0.01;φ(xm,n)表示的核函数,表示第t帧图片目标搜索域区域的HOG特征向量fHOG,t中坐标(m1,n1)处的值,0≤m1≤H,0≤n1≤D;yt-1(m,n)表示二维高斯分布矩阵yt-1上坐标(m,n)处的值,0≤m≤Mt-1,0≤n≤Nt-1,Mt-1表示二维高斯分布矩阵yt-1的行数,Nt-1表示二维高斯分布矩阵yt-1的列数;λ表示惩罚项系数,值为0.075。
计算得到第t帧图片目标搜索域区域的最优颜色拟合代价系数
其中,将满足时对应的值,记为第t帧图片目标搜索域区域的颜色拟合代价系数ωcolor,t表示的核函数,表示第t帧图片目标搜索域区域的颜色特征矩阵fcolor,t中坐标(m2,n2)处的值,0≤m2≤I,0≤n2≤2;λ表示惩罚项系数,值为0.075。
分别设定第t帧图片目标搜索域区域的HOG系数矩阵为aHOG,t,设定第t帧图片目标搜索域区域的颜色系数矩阵为acolor,t,aHOG,t和acolor,t分别为Rt×Qt维,Rt与H取值相等,Qt与D取值相等。
ωHOG,t可以通过FFT加快计算,
其中,aHOG,t(m5,n5)表示第t帧图片目标搜索域区域的HOG系数矩阵为aHOG,t中坐标(m5,n5)处的值,0≤m5≤Rt,0≤n5≤Qt;φ(m6,n6)表示(m6,n6)的核函数,0≤m6≤Rt,0≤n6≤Qt,m5与m6对应,n5与n6对应。
对第t帧图片目标搜索域区域的HOG系数矩阵aHOG,t进行快速傅里叶变换FFT:
其中,F(yt-1)表示对第t-1帧图片上目标大小qt-1的二维高斯分布矩阵yt-1做快速傅里叶变换FFT,φ(fHOG,t-1)表示第t-1帧图片目标搜索域区域的HOG特征向量fHOG,t-1的核函数,F(φ(fHOG,t-1)×φ(fHOG,t-1))表示对两个相乘后的核函数做快速傅里叶变换FFT,λ表示惩罚项系数,值为0.075;F(aHOG,t)表示对第t帧图片目标搜索域区域的HOG系数矩阵aHOG,t做快速傅里叶变换FFT。
只要将F(aHOG,t)做逆快速傅里叶变换FFT就可得到第t帧图片目标搜索域区域的HOG系数矩阵aHOG,t
ωcolor,t也可以通过FFT加快计算,
其中,acolor,t(m7,n7)表示第t帧图片目标搜索域区域的颜色系数矩阵acolor,t中坐标(m7,n7)处的值,φ(m8,n8)表示(m8,n8)的核函数,0≤m7≤Rt,0≤n7≤Qt,0≤m8≤Rt,0≤n8≤Qt,m7与m8对应,n7与n8对应。
对第t帧图片目标搜索域区域的颜色系数矩阵acolor,t进行FFT:
其中,F(yt-1)表示对第t-1帧图片上目标大小qt-1的二维高斯分布矩阵yt-1做快速傅里叶变换FFT,φ(fcolor,t-1)表示第t-1帧图片目标搜索域区域的颜色特征向量fcolor,t-1的核函数,F(φ(fcolor,t-1)×φ(fcolor,t-1))表示对φ(fcolor,t-1)和φ(fcolor,t-1)相乘后的核函数做快速傅里叶变换FFT,λ表示惩罚项系数,值为0.075;F(acolor,t)表示对第t帧图片目标搜索域区域的颜色系数矩阵做快速傅里叶变换FFT。
只要将F(acolor,t)做逆快速傅里叶变换FFT变换,就可得到第t帧图片目标搜索域区域的颜色系数矩阵acolor,t
再运用如下公式求得第t帧图片的HOG特征响应矩阵和第t帧图片的颜色特征响应矩阵
其中,表示第t帧图片的目标模板,qg表示第g帧图片上的目标大小;表示第t帧图片目标搜索域区域的核函数,表示第t帧目标模板的核函数,表示对相乘后的结果进行快速傅里叶变换FFT,⊙表示点乘,上标-1表示求逆。
分别找到第t帧图片的HOG特征响应矩阵和第t帧图片的颜色特征响应矩阵中的最大值,进而分别得到第t帧图片的HOG特征响应矩阵中的最大值YHOG,t,以及第t帧图片的颜色特征响应矩阵中的最大值Ycolor,t
步骤5,目标的跟踪阶段。
通过HOG特征与颜色特征最终得到了第t帧图片的HOG特征响应矩阵中的最大值YHOG,t,以及第t帧图片的颜色特征响应矩阵中的最大值Ycolor,t
比较第t帧图片的HOG特征响应矩阵中的最大值YHOG,t,以及第t帧图片的颜色特征响应矩阵中的最大值Ycolor,t,并选取大的最大值位置,作为第t帧图片的目标中心点
步骤6,令t的值加1,返回步骤4,直到得到第T帧图片的目标中心点后结束跟踪,至此得到了第2帧图片的目标中心点至第T帧图片的目标中心点以及根据第1帧图片上目标位置得到第1帧图片的目标中心点实现了T帧图片中每个目标的实时跟踪。
将一个500帧的视频作为输入的跟踪效果展示,整个跟踪过程如图5a至图5f所示,图5a表示视频的第1帧图片,在图5a上选取了想要跟踪的目标,在本视频中目标为一位女生;图5b表示视频的第103帧图片,女生在转动全身,转到背面时,一头黑发与之前正脸的颜色完全不同,但本发明方法仍然能够跟踪到这一头黑发是跟踪目标;图5c表示视频的第162帧图片,女生又从背面转回了正面,这种情况下也仍然能够跟踪到目标;图5d表示视频的第404帧图片,女生又恢复了类似时的状态,此时跟踪正常;图5e表示视频的第456帧图片,有一位男生挡住了女生的脸庞,对跟踪造成了干扰,但可以看到目标框仍在女生的面部没有转移到男生的面部;图5f是视频的第476帧图片,男生不再遮挡女生,离开时本发明方法并没有将男生误认为目标,仍然跟踪到了女生的面庞。通过图5b和图5c可以看出即使目标的颜色完全改变了,也不会丢失目标;通过图5e和图5f可以看出即使有与目标相近的物体进入目标搜索域区域,对应目标搜索域区域也能准确的锁定目标,不会被其他相近物体迷惑,这就是本发明的优势所在。
本发明使用了自适应选择搜索域大小的方法。传统的搜索域都是人为设定的,每一帧的搜索域大小都不会发生改变。搜索域过大时,背景信息太多即负样本太多;搜索域过小时,目标信息太多即正样本太多,两种情况都会导致正负样本不平衡,得到的目标函数不够准确,采用自适应搜索域避免了此类情况发生。
本发明采用了HOG特征与颜色特征比较的方法进行特征提取,是因为当目标剧烈形变,如旋转,缩放时,用HOG特征提取的效果并不好,但是颜色特征可以很好地提取目标的特征;当目标与背景的颜色比较相近时,颜色特征提取的效果并不好,但是用HOG特征提取的特征可以很好的分辨目标与背景,两种特征提取方式很好地进行了互补;所以在任何环境或情景下,本发明的特征提取方式都可以很好地对目标进行特征提取,增加了算法的鲁棒性和稳定性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围;这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (1)

1.一种基于相关滤波器的目标跟踪优化方法,其特征在于,包括以下步骤:
步骤1,获取一个视频,所述视频包括T帧图片,每帧图片中分别包含一个目标,其中第1帧图片上目标位置已知,剩余T-1帧图片上各自目标位置未知;然后计算T帧图片目标搜索域区域;其中,T为大于或等于2的正整数;
步骤2,对第t'帧图片目标搜索域区域分别进行HOG特征和颜色特征的提取,分别得到第t'帧图片目标搜索域区域的HOG特征向量和第t'帧图片目标搜索域区域的颜色特征矩阵;1≤t′≤T,t'的初始值为1;
步骤3,令t'的值分别取1至T,重复步骤2,进而分别得到第1帧图片目标搜索域区域的HOG特征向量fHOG,1至第T帧图片目标搜索域区域的HOG特征向量fHOG,T,以及第1帧图片目标搜索域区域的颜色特征矩阵至第T帧图片目标搜索域区域的颜色特征矩阵;
初始化:令t∈{2,3,…,T},令表示第t帧图片目标搜索域区域,t的初始值为2;
步骤4,确定相关滤波器,并将第t帧图片目标搜索域区域的HOG特征向量和第t帧图片目标搜索域区域的颜色特征矩阵分别作为相关滤波器的输入,分别计算第t帧图片的HOG特征响应矩阵和第t帧图片的颜色特征响应矩阵即为相关滤波器的输出,进而分别得到第t帧图片的HOG特征响应矩阵中的最大值,以及第t帧图片的颜色特征响应矩阵中的最大值;
步骤5,比较第t帧图片的HOG特征响应矩阵中的最大值,以及第t帧图片的颜色特征响应矩阵中的最大值,并选取大的最大值位置,作为第t帧图片的目标中心点
步骤6,令t的值加1,返回步骤4,直到得到第T帧图片的目标中心点后结束跟踪,至此得到了第2帧图片的目标中心点至第T帧图片的目标中心点以及根据第1帧图片上目标位置得到第1帧图片的目标中心点实现了T帧图片中每个目标的实时跟踪;
其中,在步骤1中,所述T帧图片目标搜索域区域,其过程为:
1.1 计算得到第1帧图片上目标的熵E(q1)与第2帧图片上第k-1次更新后目标搜索域区域的熵E(sk-1)之间的比R(k-1),其表达式为:
R(k-1)=E(q1)/E(sk-1)
其中,K为设定的搜索域更新次数最大值;k的初始值为1,sk-1表示第2帧图片上第k-1次更新后目标搜索域区域,pk-1,2,l表示第2帧图片内灰度值l在sk-1中出现的概率,log2表示底数为2的对数,b2表示第2帧图片中的灰度值最大值;p1i表示第1帧图片内灰度值i在q1中出现的概率,b1表示第1帧图片中的灰度值最大值,q1表示第1帧图片上目标大小;
1.2 令k的值加1,且令sk-1=sk-2-Q,返回1.1,直到得到第1帧图片上目标的熵E(q1)与第2帧图片上第K-1次更新后搜索域的熵E(sK-1)之间的比R(K-1)或者sk-1=1.2q1时停止更新,将停止更新时对应的第1帧图片上目标的熵与第2帧图片上第k-1次更新后搜索域的熵之间的比,记为第1帧图片上目标的熵E(q1)与第2帧图片上第k'次更新后搜索域的熵E(sk')之间的比R(k'),1≤k'≤K,k'表示停止更新时对应的更新次数;其中,Q为设定常数,0<Q<1;
1.3 根据第1帧图片上目标的熵E(q1)与第2帧图片上第k'次更新后目标搜索域区域的熵E(sk')之间的比R(k'),并通过如下公式得到第2帧图片上的最优目标搜索域区域,记为第2帧图片目标搜索域区域
其中,表示取最小时对应的j值,R(j-1)表示第1帧图片上目标的熵E(q1)与第2帧图片上第j-1次更新后目标搜索域区域的熵E(sj-1)之间的比,表示第2帧图片目标搜索域区域的最优更新次数,Q为设定常数,0<Q<1;令第1帧图片目标搜索域区域 O表示设定整数,O>1;
1.4 令表示第t帧图片目标搜索域区域,qt-1表示第t-1帧图片上目标大小,t∈{2,3,…,T};
1.5 令t的值从2取至T,重复执行1.4,直到得到第T帧图片目标搜索域区域将第2帧图片目标搜索域区域至第T帧图片目标搜索域区域以及第1帧图片目标搜索域区域记为T帧图片目标搜索域区域,然后将t的值初始化为2;
在步骤2中,所述第t'帧图片目标搜索域区域的HOG特征向量和第t'帧图片目标搜索域区域的颜色特征矩阵,其得到过程为:
2.1 对第t'帧图片目标搜索域区域进行灰度化,得到灰度化后第t'帧图片目标搜索域区域;然后采用Gamma校正法对灰度化后第t'帧图片目标搜索域区域进行颜色空间的标准化,进而得到Gamma校正法后第t'帧图片目标搜索域区域,所述Gamma校正法后第t'帧图片目标搜索域区域中包括A×B个像素,A表示Gamma校正法后第t'帧图片目标搜索域区域的高,B表示Gamma校正法后第t'帧图片目标搜索域区域的宽;再计算Gamma校正法后第t'帧图片目标搜索域区域中A×B个像素的梯度,得到A×B个像素的梯度值;A、B分别为大于0的正整数;
2.2 将Gamma校正法后第t'帧图片目标搜索域区域中每C×C个像素分别作为一个cell,进而得到E个cell, 表示向下取整;确定每个cell包含H个梯度方向,将每个cell的H个梯度方向分别记为对应cell的梯度直方图,进而得到E个cell的梯度直方图,每个cell的梯度直方图都为H×1维,将E个cell的梯度直方图作为E个cell的特征描述符;C、H分别为大于0的正整数;
2.3 将E个cell中每D×D个cell分别组成一个block,进而得到F个block, 表示向下取整;将每个block内D×D个cell的特征描述符分别依次串接起来,进而得到F个block的HOG特征描述符,所述F个block的HOG特征描述符都为H×D维;D、F分别为大于0的正整数
将F个block的HOG特征描述符依次串接起来,得到第t'帧图片的HOG特征描述符,所述第t'帧图片的HOG特征描述符为H×D×F维;将第t'帧图片的HOG特征描述符按照block个数维依次串接,形成H×D维矩阵,所述H×D维矩阵为第t'帧图片目标搜索域区域的HOG特征向量fHOG,t'
2.4 对第t'帧图片目标搜索域区域进行RGB颜色特征提取,进而得到3个颜色特征向量,每个向量长度为I;其中3个颜色依次为红色red、绿色green、蓝色blue,I为大于0的正整数;
使用颜色映射方法对3个颜色特征向量进行颜色映射,进而得到11个颜色特征向量,每个颜色向量长度分别为I;其中11个颜色依次为黑色black、蓝色blue、棕色brown、绿色green、灰色grey、橙色orange、粉色pink、紫色purple、红色red、白色white、黄色yellow,得到11个颜色特征向量;
对11个颜色特征向量分别做快速傅里叶变换,再分别进行核映射,进而得到新的11个颜色特征向量,每个新的颜色特征向量长度都为I;
然后通过PCA降维方法对所述新的11个颜色特征向量进行降维处理,得到降维处理后的2个颜色特征向量,将降维处理后的2个颜色特征向量依次串接,得到一个I×2维矩阵,所述I×2维矩阵即为第t'帧图片目标搜索域区域的颜色特征矩阵fcolor,t'
在步骤4中,所述第t帧图片的HOG特征响应矩阵中的最大值,以及第t帧图片的颜色特征响应矩阵中的最大值,其得到过程为:
4.1 令yt-1表示第t-1帧图片上目标大小qt-1的二维高斯分布矩阵,大小为Mt-1×Nt-1;第1帧图片上目标大小q1的二维高斯分布矩阵大小至第T-1帧图片上目标大小qT-1的二维高斯分布矩阵大小取值分别相等;令yt-1(m,n)表示二维高斯分布矩阵yt-1上坐标(m,n)处的值,0≤m≤Mt-1,0≤n≤Nt-1,则yt-1(m,n)的计算公式为:
yt-1(m,n)=exp(-((m-Mt-1/2)2+(n-Nt-1/2)2)/σt-1 2),
其中,wt-1表示第t-1帧图片上目标大小qt-1的宽,ht-1表示第t-1帧图片上目标大小qt-1的高,exp表示指数函数;
计算得到第t帧图片目标搜索域区域的最优HOG拟合代价系数
其中,将满足时对应的值,记为第t帧图片目标搜索域区域的HOG拟合代价系数ωHOG,t;ε为小于1的常数,φ(xm,n)表示的核函数,表示第t帧图片目标搜索域区域的HOG特征向量fHOG,t中坐标(m1,n1)处的值,0≤m1≤H,0≤n1≤D;Mt-1表示二维高斯分布矩阵yt-1的行数,Nt-1表示二维高斯分布矩阵yt-1的列数,λ表示惩罚项系数;
计算得到第t帧图片目标搜索域区域的最优颜色拟合代价系数
其中,将满足时对应的值,记为第t帧图片搜索域目标区域的颜色拟合代价系数ωcolor,t表示的核函数,表示第t帧图片目标搜索域区域的颜色特征矩阵fcolor,t中坐标(m2,n2)处的值,0≤m2≤I,0≤n2≤2;λ表示惩罚项系数;
4.2 分别设定第t帧图片目标搜索域区域的HOG系数矩阵为aHOG,t,设定第t帧图片目标搜索域区域的颜色系数矩阵为acolor,t,aHOG,t和acolor,t分别为Rt×Qt维,Rt与H取值相等,Qt与D取值相等;
对第t帧图片目标搜索域区域的HOG系数矩阵aHOG,t进行快速傅里叶变换:
其中,F(yt-1)表示对第t-1帧图片上目标大小qt-1的二维高斯分布矩阵yt-1做快速傅里叶变换,φ(fHOG,t-1)表示第t-1帧图片目标搜索域区域的HOG特征向量fHOG,t-1的核函数,F(φ(fHOG,t-1)×φ(fHOG,t-1))表示对两个相乘后的核函数做快速傅里叶变换,F(aHOG,t)表示对第t帧图片目标搜索域区域的HOG系数矩阵aHOG,t做快速傅里叶变换;
将F(aHOG,t)做逆快速傅里叶变换,得到第t帧图片目标搜索域区域的HOG系数矩阵aHOG,t
4.3 对第t帧图片目标搜索域区域的颜色系数矩阵acolor,t进行快速傅里叶变换:
其中,F(yt-1)表示对第t-1帧图片上目标大小qt-1的二维高斯分布矩阵yt-1做快速傅里叶变换,φ(fcolor,t-1)表示第t-1帧图片目标搜索域区域的颜色特征向量fcolor,t-1的核函数,F(φ(fcolor,t-1)×φ(fcolor,t-1))表示对φ(fcolor,t-1)和φ(fcolor,t-1)相乘后的核函数做快速傅里叶变换,F(acolor,t)表示对第t帧图片目标搜索域区域的颜色系数矩阵做快速傅里叶变换;
将F(acolor,t)做逆快速傅里叶变换,得到第t帧图片目标搜索域区域的颜色系数矩阵acolor,t
4.4 分别计算第t帧图片的HOG特征响应矩阵和第t帧图片的颜色特征响应矩阵
其中,表示第t帧图片的目标模板,qg表示第g帧图片上的目标大小;表示第t帧图片目标搜索域区域的核函数,表示第t帧目标模板的核函数,表示对相乘后的结果进行快速傅里叶变换,⊙表示点乘,上标-1表示求逆;
4.5 分别找到第t帧图片的HOG特征响应矩阵和第t帧图片的颜色特征响应矩阵中的最大值,进而分别得到第t帧图片的HOG特征响应矩阵中的最大值YHOG,t,以及第t帧图片的颜色特征响应矩阵中的最大值Ycolor,t
CN201711037914.5A 2017-10-31 2017-10-31 一种基于相关滤波器的目标跟踪优化方法 Active CN107862680B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711037914.5A CN107862680B (zh) 2017-10-31 2017-10-31 一种基于相关滤波器的目标跟踪优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711037914.5A CN107862680B (zh) 2017-10-31 2017-10-31 一种基于相关滤波器的目标跟踪优化方法

Publications (2)

Publication Number Publication Date
CN107862680A CN107862680A (zh) 2018-03-30
CN107862680B true CN107862680B (zh) 2019-12-10

Family

ID=61696312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711037914.5A Active CN107862680B (zh) 2017-10-31 2017-10-31 一种基于相关滤波器的目标跟踪优化方法

Country Status (1)

Country Link
CN (1) CN107862680B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734178A (zh) * 2018-05-18 2018-11-02 电子科技大学 一种基于规则化模板的hog特征提取方法
CN109034193A (zh) * 2018-06-20 2018-12-18 上海理工大学 多特征融合与尺度自适应核相关滤波跟踪方法
CN111860532B (zh) * 2019-04-25 2022-11-25 四川大学 基于两种互补跟踪算法的自适应目标跟踪方法
CN110706253B (zh) * 2019-09-19 2022-03-08 中国科学院自动化研究所 基于表观特征和深度特征的目标跟踪方法、系统、装置
CN112598710B (zh) * 2020-12-25 2024-03-12 杭州电子科技大学 基于特征在线选择的时空相关滤波目标跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112279A (zh) * 2013-04-19 2014-10-22 浙江大华技术股份有限公司 一种目标检测方法及装置
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置
CN106887011A (zh) * 2017-01-20 2017-06-23 北京理工大学 一种基于cnn和cf的多模板目标跟踪方法
CN107146240A (zh) * 2017-05-05 2017-09-08 西北工业大学 基于相关滤波和显著性检测的航拍视频目标跟踪方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103577824B (zh) * 2012-07-24 2017-11-21 浙江大华技术股份有限公司 一种提取目标图像的方法及装置
CN106570486B (zh) * 2016-11-09 2019-05-14 华南理工大学 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112279A (zh) * 2013-04-19 2014-10-22 浙江大华技术股份有限公司 一种目标检测方法及装置
CN104574445A (zh) * 2015-01-23 2015-04-29 北京航空航天大学 一种目标跟踪方法及装置
CN106887011A (zh) * 2017-01-20 2017-06-23 北京理工大学 一种基于cnn和cf的多模板目标跟踪方法
CN107146240A (zh) * 2017-05-05 2017-09-08 西北工业大学 基于相关滤波和显著性检测的航拍视频目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于新的梯度特征相似度量的目标跟踪算法;郭伟等;《光电工程》;20080430;第35卷(第4期);全文 *
基于背景差分的动目标检测算法研究;李强等;《遥测遥控》;20071231;第28卷(第6期);全文 *

Also Published As

Publication number Publication date
CN107862680A (zh) 2018-03-30

Similar Documents

Publication Publication Date Title
CN107862680B (zh) 一种基于相关滤波器的目标跟踪优化方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
Li et al. SCL-MLNet: Boosting few-shot remote sensing scene classification via self-supervised contrastive learning
Li et al. SAR image change detection using PCANet guided by saliency detection
WO2019100724A1 (zh) 训练多标签分类模型的方法和装置
CN107194937B (zh) 一种开放环境下中医舌象图像分割方法
CN112184752A (zh) 一种基于金字塔卷积的视频目标跟踪方法
CN108021869A (zh) 一种结合高斯核函数的卷积神经网络跟踪方法
Xu et al. End-to-end illuminant estimation based on deep metric learning
CN110717451B (zh) 一种基于深度学习的药用植物叶部病害图像识别方法
CN107301643A (zh) 基于鲁棒稀疏表示与拉普拉斯正则项的显著目标检测方法
CN111177447B (zh) 一种基于深度网络模型的行人图像识别方法
CN110135435B (zh) 一种基于广度学习系统的显著性检测方法及装置
CN113378620B (zh) 监控视频噪声环境下跨摄像头行人重识别方法
Gaston et al. Matching larger image areas for unconstrained face identification
Singh et al. Wavelet based histogram of oriented gradients feature descriptors for classification of partially occluded objects
Wu et al. Exploiting superpixel and hybrid hash for kernel-based visual tracking
Zhang et al. Digital instruments recognition based on PCA-BP neural network
Feng et al. Study on the optimization of CNN based on image identification
WO2023273337A1 (zh) 一种基于代表特征的遥感图像中的密集目标检测方法
Masilamani et al. Art classification with pytorch using transfer learning
CN108596048B (zh) 一种基于相关滤波器的目标跟踪检测方法
CN112417961B (zh) 一种基于场景先验知识的海面目标检测方法
CN115294424A (zh) 一种基于生成对抗网络的样本数据增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant