CN105844665B - 视频对象追踪方法及装置 - Google Patents
视频对象追踪方法及装置 Download PDFInfo
- Publication number
- CN105844665B CN105844665B CN201610160370.0A CN201610160370A CN105844665B CN 105844665 B CN105844665 B CN 105844665B CN 201610160370 A CN201610160370 A CN 201610160370A CN 105844665 B CN105844665 B CN 105844665B
- Authority
- CN
- China
- Prior art keywords
- target object
- training sample
- matrix
- window
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种视频对象追踪方法及装置,其中,该方法包括:获取训练样本,其中,训练样本为输入视频的第一帧画面中目标对象的目标对象窗口;获取训练样本的标注,其中,训练样本的标注为根据目标对象窗口的旋转矩阵特性构造的高斯类标矩阵;根据训练样本的标注计算出用于追踪目标对象的相关滤波参数;根据相关滤波参数在输入视频的下一帧画面中进行目标对象的检测和追踪;以及根据目标对象在下一帧画面中的追踪结果对训练样本进行更新,并返回获取训练样本步骤。该方法实现了对目标对象尺寸变化的检测和控制,进一步提高了追踪效率,具有较高的实用性、适应性和鲁棒性。
Description
技术领域
本发明涉及计算机多媒体技术领域,尤其涉及一种视频对象追踪方法及装置。
背景技术
视频对象追踪技术是计算机视觉领域的一个基本问题,在诸多现实场景中有着广泛的应用,如安全监控、人机交互、自动控制系统等。通常来说,视频追踪问题可以简化为图像在线学习问题,因此如何构建准确、高效、可维护的追踪模型是视频追踪技术中最重要的一步。相关的视频追踪方法可以分为两类,一类为生成模型,即在视频中搜寻与目标对象最为相似的区域;另一类为判决模型,即使用图像分类器对前景对象和背景区域进行区分,从而在多个候选区域中找出目标对象。由于判决模型大多利用改良的对象检测技术进行在线追踪,因此此类方法又被称为“检测-追踪”(tracking-by-detection)方法。
近年来,基于相关滤波器的对象检测追踪方法被证实可以高质、高效地完成追踪任务,其追踪效果不亚于其他更为复杂的方法,但是追踪速度却大大提升。在普通精度的视频上实验,它的追踪速度从以前的几十帧每秒提高到几百帧每秒,而在高清视频上则能保持实时追踪。因此,该方法逐渐被广泛应用,并出现了多个版本的改良技术。在所有的相关滤波追踪方法中,由Bolme等人提出的最小误差平方和滤波器(MOSSE,Minimum Output Sumof Squared Error Filter)以及由Heriques等人提出的核化相关滤波器(KCF,KernelizedCorrelation Filter)的影响最为深远。MOSSE使用图像灰度值作为输入,通过一个线性的相关滤波分类器进行对象检测;KCF则首先提取图像的方向梯度直方图(HOG,Histogram ofOriented Gradient)特征作为输入,而后利用核化的非线性相关滤波分类器进行检测与追踪。其他的相关滤波追踪方法都是对此两种方法在某一方面的改进与提升,如改进现有的“插值”更新策略,或者加入追踪失效重检技术,或者引入更为复杂的外观特征或运动特征。
从目前的研究来看,尺度可变的对象追踪问题已经成为相关滤波方法所面临的困难之一。如果目标对象在追踪过程中存在较大的尺度变化,单一的相关滤波追踪器并不能与之适配地进行尺度缩放,最终将导致追踪失效。而已有的改进方法往往利用多个滤波器或多层的尺度空间金字塔来应对这一问题,虽然在一定程度上能够检测到目标对象的尺度变化,但却因为在单帧中多次进行滤波操作而大大降低了追踪效率。而且,如果不对追踪过程中的尺度变化加以控制,就有可能造成更为严重的偏移与错检,降低追踪器的鲁棒性。所以,如何在保证效率的前提下对多尺度对象进行精确的追踪是需要解决的问题。
发明内容
本发明的目的旨在至少在一定程度上解决上述的技术问题之一。
为此,本发明的第一个目的在于提出一种视频对象追踪方法。该方法实现了对目标对象尺寸变化的检测和控制,进一步提高了追踪效率,具有较高的实用性、适应性和鲁棒性。
本发明的第二个目的在于提出了一种视频对象追踪装置。
为达上述目的,本发明第一方面实施例的视频对象追踪方法,包括以下步骤:S1:获取训练样本,其中,所述训练样本为输入视频的第一帧画面中目标对象的目标对象窗口;S2:获取训练样本的标注,其中,所述训练样本的标注为根据所述目标对象窗口的旋转矩阵特性构造的高斯类标矩阵;S3:根据所述训练样本的标注计算出用于追踪所述目标对象的相关滤波参数;S4:根据所述相关滤波参数在所述输入视频的下一帧画面中进行所述目标对象的检测和追踪;以及S5:根据所述目标对象在所述下一帧画面中的追踪结果对所述训练样本进行更新,并返回所述步骤S1。
本发明实施例的视频对象追踪方法,通过获取训练样本及其标注,接着根据训练样本的标注计算出用于追踪目标对象的相关滤波参数,再根据相关滤波参数在输入视频的下一帧画面中进行目标对象的检测和追踪,最后根据目标对象在下一帧画面中的追踪结果对训练样本进行更新,并返回获取训练样本步骤。该方法实现了对目标对象尺寸变化的检测和控制,进一步提高了追踪效率,具有较高的实用性、适应性和鲁棒性。
在本发明的一个实施例中,所述S5,进一步包括:通过插值更新策略将所述追踪结果作为新的训练样本,以更新所述滤波参数,其中,所述插值更新策略为:其中,所述α为所述训练样本的滤波参数,所述为所述新的训练样本的滤波参数,所述μ为可调节的更新比例参数,所述p为新的目标对象窗口的后验概率。
在本发明的一个实施例中,所述S2,进一步包括:根据所述目标对象窗口的旋转矩阵特性确定类标矩阵y,其中,yij表示所述目标对象窗口向下偏移i个单位和向右偏移j个单位后所得到的偏移窗口的标注得分;设定所述类标矩阵y的元素yij为1,并以(i,j)为中心应用高斯函数得到所述高斯类标矩阵,其中,所述高斯类标矩阵为:
在本发明的一个实施例中,所述的视频对象追踪方法,通过岭回归算法计算所述训练样本的滤波参数α,所述α=(K+λI)-1y,其中,所述y为类标矩阵,所述k为样本之间的核矩阵,所述I代表单位矩阵。
在本发明的一个实施例中,所述S3中,通过快速傅里叶变换方法计算出用于追中所述目标对象的相关滤波参数。
为达上述目的,本发明第二方面实施例的视频对象追踪装置,包括:第一获取模块,所述第一获取模块包括:S1,获取训练样本,其中,所述训练样本为输入视频的第一帧画面中目标对象的目标对象窗口;第二获取模块,所述第二获取模块包括:S2,获取训练样本的标注,其中,所述训练样本的标注为根据所述目标对象窗口的旋转矩阵特性构造的高斯类标矩阵;计算模块,所述计算模块包括:S3,根据所述训练样本的标注计算出用于追踪所述目标对象的相关滤波参数;追踪模块,所述追踪模块包括:S4,根据所述相关滤波参数在所述输入视频的下一帧画面中进行所述目标对象的检测和追踪;更新模块,所述更新模块包括:S5,根据所述目标对象在所述下一帧画面中的追踪结果对所述训练样本进行更新,并返回所述步骤S1。
本发明实施例的视频对象追踪装置,通过第一获取模块和第二获取模块分别获取训练样本及其标注,接着计算模块根据训练样本的标注计算出用于追踪目标对象的相关滤波参数,追踪模块再根据相关滤波参数在输入视频的下一帧画面中进行目标对象的检测和追踪,最后更新模块根据目标对象在下一帧画面中的追踪结果对训练样本进行更新,并返回获取训练样本步骤。该装置实现了对目标对象尺寸变化的检测和控制,进一步提高了追踪效率,具有较高的实用性、适应性和鲁棒性。
在本发明的一个实施例中,所述更新模块具体用于:通过插值更新策略将所述追踪结果作为新的训练样本,以更新所述滤波参数,其中,所述插值更新策略为:其中,所述α为所述训练样本的滤波参数,所述为所述新的训练样本的滤波参数,所述μ为可调节的更新比例参数,所述p为新的目标对象窗口的后验概率。
在本发明的一个实施例中,所述第二获取模块具体用于:根据所述目标对象窗口的旋转矩阵特性确定类标矩阵y,其中,yij表示所述目标对象窗口向下偏移i个单位和向右偏移j个单位后所得到的偏移窗口的标注得分;设定所述类标矩阵y的元素yij为1,并以(i,j)为中心应用高斯函数得到所述高斯类标矩阵,其中,所述高斯类标矩阵为:
在本发明的一个实施例中,所述的视频对象追踪装置,通过岭回归算法计算所述训练样本的滤波参数α,所述α=(K+λI)-1y,其中,所述y为类标矩阵,所述k为样本之间的核矩阵,所述I代表单位矩阵。
在本发明的一个实施例中,所述计算模块中,通过快速傅里叶变换方法计算出用于追中所述目标对象的相关滤波参数。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明一个实施例的视频对象追踪方法的流程图;
图2是根据本发明一个实施例的视频对象追踪方法的追踪目标示意图;
图3是根据本发明一个实施例的单个KCF追踪器在尺度不变情况下的追踪方法的流程图;
图4是根据本发明一个实施例的视频对象追踪装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
基于相关滤波器的追踪方法主要是利用快速傅立叶变换(FFT,Fast FourierTransformation)的点乘操作来加速追踪过程中的“检测”任务。首先将视频第一帧中标识出目标对象的窗口作为相关滤波器的正例输入,然后在下一帧同样位置的更大窗口中进行相关滤波操作,得到最大响应的位置即为目标对象的新位置。同时,由于视频中的对象外观可能随时间不断变化,因此相关滤波分类器也要根据检测结果进行实时更新,防止其在长时间不间断的追踪过程中失效。
下面参考附图描述本发明实施例的视频对象追踪方法及装置。
图1为根据本发明一个实施例的视频对象追踪方法的流程图。
如图1所示,该视频对象追踪方法可以包括:
S1:获取训练样本,其中,训练样本为输入视频的第一帧画面中目标对象的目标对象窗口。
S2:获取训练样本的标注,其中,训练样本的标注为根据目标对象窗口的旋转矩阵特性构造的高斯类标矩阵。
具体地,在本发明的一个实施例中,根据目标对象窗口的旋转矩阵特性确定类标矩阵y,其中,yij表示目标对象窗口向下偏移i个单位和向右偏移j个单位后所得到的偏移窗口的标注得分。设定类标矩阵y的元素yij为1,并以(i,j)为中心应用高斯函数得到高斯类标矩阵,其中,高斯类标矩阵为:
举例而言,类标矩阵y是对训练样本的各种偏移情况的标注,该矩阵(ij)位置的元素yij表示窗口向下偏移i个单位、向右偏移j个单位后所得到的偏移窗口的标注得分。然而由于KCF方法仅考虑寻找最优的偏移量,没有同时考虑对象大小的变化,因此其对类标矩阵y的定义过于简单且不可扩展。在初始帧的训练样本中,零偏移窗口(即对象的原始位置)被视为正例,如图2(左);而其余所有的偏移情况都被视为负例,如图2(右)。则矩阵y的(0 0)位置(左上角)的元素为1,其余为0。由于回归算法要求输入连续的类标,因此KCF追踪器将高斯函数应用于y矩阵,并称之为高斯类标矩阵。需要说明的是,使用连续值的标注可以获得较为平滑的分类结果,在对象追踪时对偏移窗口的定位比使用二值类标更为准确。
为了确定对象中心的实际偏移量,原始KCF方法以目标对象的初始位置为中心,首先在初始帧中截取一个扩大的窗口为训练样本,而后再在后续帧中截取一个同尺寸的大窗口作为测试样本,以便于在该窗口上进行偏移转置,最后通过相关滤波操作推断最佳偏移。图2(左)即为KCF方法所用训练样本的正例。由于此过程以对象中心为追踪目标,因此KCF方法仅能确定目标位置,却无法感知对象尺度的变化。
以追踪目标对象的位置并确定对象大小为目的,重新定义了类标矩阵y,将目标对象的边缘信息融入追踪模型中。不再以零偏移窗口为正例样本,而是以目标对象分别位于窗口四个角落的偏移图像为正例,以便确定对象边界。如图2(右)所示,此示例为左上角样本,亦即原始窗口向左上角方向进行偏移的变换结果。左下角样本、右上角样本和右下角样本与此同理。在实际操作中,将左上角样本当成正例无需改动原有窗口,而是通过修改类标矩阵y的元素取值完成。如果原窗口即图2(左)向下偏移i、向右偏移j后可得左上角样本图2(右),则设元素yij为1,并以(ij)为中心应用高斯函数。以四角样本为正例则需取矩阵中的四个元素为1,分别应用高斯函数后叠加形成“四角型”高斯类标矩阵。将重新定义的高斯类标矩阵y输入追踪模型,即可训练得到以寻找四个边缘偏移图像为目的的核化相关滤波器,而后利用前后帧中边缘图像之间的相对偏移量即可确定目标对象的位置和尺寸。
S3:根据训练样本的标注计算出用于追踪目标对象的相关滤波参数。
需要说明的是,在本发明的一个实施例中,可以通过岭回归算法计算训练样本的滤波参数α,α=(K+λI)-1y,其中,y为类标矩阵,k为样本之间的核矩阵,I代表单位矩阵。
举例而言,在本发明的一个实施例中,可以通过快速傅里叶变换方法计算出用于追中目标对象的相关滤波参数。
例如,通过成熟的计算机视觉分类(或回归)算法即可在候选窗口中找出与目标对象最为接近者,从而完成两帧之间的对象追踪。在计算机视觉常用的回归算法中,核化的岭回归算法比较为简单有效,复杂程度低于经典的SVM分类算法,然而其在视频追踪领域的效果基本与之持平。以y为训练类标,k为样本之间的核矩阵,而I代表单位矩阵,则岭回归模型:相关滤波参数α的计算公式为
α=(K+λI)-1y (1)
对于某候选窗口z,其在当前回归模型下的评分yz可通过以下公式计算得到:
其中,αi表示与第i个训练样本xi相关的参数,而k(z,xi)则为待回归目标z和训练样本xi之间的核。
需要说明的是,计算参数α前需要先计算样本核矩阵k中的行向量k,此过程亦可通过快速傅立叶变换在O(nlogn)时间内完成。具体而言,本发明沿用KCF方法中的高斯核函数按照以下公式计算:
其中,x与x′均表示训练样本窗口的HOG特征。而后即可应用公式1计算参数α。
基本KCF方法将目标对象在视频空间中的移动看作循环矩阵的偏移,如果直接利用图像灰度值作为特征,则矩阵偏移量即为对象的移动量。故而KCF方法将目标对象的所有转置偏移情况都视为候选窗口,通过引入快速傅立叶变换算法,可以在O(nlogn)的时间复杂度下对n2个偏移矩阵进行回归,找出其中与原对象最相近的窗口。利用循环矩阵特性和卷积定理,可将原始的岭回归算法公式化为
其中,y为训练类标,k为样本之间的核矩阵k中的一个向量,可以证明核矩阵k也是一个循环矩阵。而和则分别为傅立叶变换及其逆变换。针对候选窗口z,可得到以下公式:
其中,向量包含了对候选窗口z的所有偏移变换的检测结果,而kxz则为原始窗口x的所有偏移变换与目标窗口z的所有偏移变换之间的核矩阵的一个行向量。利用上式,我们可以通过一次计算即求出所有候选偏移的响应,而不需要遍历n2个偏移窗口并依次计算他们的回归评分。
S4:根据相关滤波参数在输入视频的下一帧画面中进行目标对象的检测和追踪。
举例而言,设初始帧中左上角、左下角、右上角和右下角四个样本的偏移量分别为(i1,j1),(i2,j2),(i3,j3),(i4,j4),接下来需要在后续帧中确定每一角所对应的最优偏移。对于偏移(t,l)单位后形成的转置图像,它成为某一边缘样本的最优偏移的概率可通过贝叶斯公式计算。
无差别假设我们需要计算(t,l)偏移成为左上角样本最优偏移的概率p(t,l|i1,j1)。首先,根据贝叶斯公式可以推得
其中,p(i1,j1)为初始左上角样本的先验概率,对任何偏移都取相同值,因此可以忽略。而p(i1,j1|t,l)为(t,l)偏移图像对应左上角样本的相关滤波响应,计算得到的ft,l(z),矩阵f(z)中(t,l)位置的元素值。另外,由于视频内容的连续性,可以认定距离初始位置越远的偏移量,其成为最优偏移的概率越小。又因为纵向偏移量t和横向偏移量l之间彼此独立,因此可以定义
其中,h,w分别表示训练窗口的高度和宽度。最终可得左上角最优偏移概率的计算式
p(t,l|i1,j1)∝ft,l(z)×p(t)×p(l) (8)
本发明所提出的追踪器仅追踪标准矩形窗口,不考虑对象在视频平面上的角度变化。因此,推断目标对象在候选帧中的位置和大小,只需要找到四个边缘样本的最优偏移(t,l),(b,l),(t,r),(b,r),其中(t,l)为左上角偏移,(b,l)为左下角偏移,(t,r)为右上角偏移,(b,r)为右下角偏移。根据公式8可推得以下公式
可推知最优偏移值(t,b,l,r)。
初始左上角样本的偏移值(i1,j1)与最优偏移(t,l)之间的差值,即为对象的左上角部分在两帧之间的变化距离。分别计算目标对象的四角在两帧间的位移,即可直接确定对象的四角在后续帧中的绝对位置,而后便可以通过四角定位计算出对象的新尺寸。因此,本发明通过修改高斯类标矩阵y,将原始KCF追踪器的“中心”追踪改为尺度可变的“边缘”追踪,在追踪目标的同时确定目标大小,并且不增加任何额外的滤波操作,保证计算效率。
S5:根据目标对象在下一帧画面中的追踪结果对训练样本进行更新,并返回步骤S1。
具体地,在本发明的一个实施例中,通过插值更新策略将追踪结果作为新的训练样本,以更新滤波参数,其中,插值更新策略为:其中,α为训练样本的滤波参数,为新的训练样本的滤波参数,μ为可调节的更新比例参数,p为新的目标对象窗口的后验概率。
举例而言,沿用KCF追踪器所用的插值更新策略,即在确定目标对象的新位置与尺寸之后,裁剪该窗口画面作为样本,方案重新训练模型参数,并将训练得到的新模型和新的窗口特征向量以一定比例融入原始模型参数α和原特征向量x中。
另外,推算最优偏移时,已经计算出对象新窗口的后验概率p(t,b,l,r|θ),其中θ表示四个边缘样本的偏移(i1,j1),(i2,j2),(i3,j3),(i4,j4)。因此可将该结果作为对象新窗口的权重,若概率值高说明该窗口与目标对象的相似度高,可以按照较大比例融入原始模型,反之则以较小比例融入。综上所述,可得下面的带权插值更新策略
其中μ为可调节的更新比例参数,与后验概率p(t,b,l,r|θ)相乘后即为新模型参数a的权重。该方案不仅可以记录目标对象的外观变化,并且能有效应对视频噪声,提升追踪效果。
本发明实施例的视频对象追踪方法,通过获取训练样本及其标注,接着根据训练样本的标注计算出用于追踪目标对象的相关滤波参数,再根据相关滤波参数在输入视频的下一帧画面中进行目标对象的检测和追踪,最后根据目标对象在下一帧画面中的追踪结果对训练样本进行更新,并返回获取训练样本步骤。该方法实现了对目标对象尺寸变化的检测和控制,进一步提高了追踪效率,具有较高的实用性、适应性和鲁棒性。
图3是根据本发明一个实施例的单个KCF追踪器在尺度不变情况下的追踪方法的流程图。
首先,模型训练201:基本的KCF方法要求输入视频第一帧画面中用户指定的目标对象窗口作为初始的训练样本,而后根据视频中对象运动所具有的旋转矩阵特性,以高斯类标矩阵作为训练样本标注,利用快速傅立叶变换方法计算出追踪该对象所需的相关滤波参数。相关滤波追踪203:模型训练完毕后,该方法继续输入视频的后续内容,并根据训练得到的模型参数在后续的每一帧中进行目标对象的检测与追踪,直到视频结束或用户人为中断。模型更新202:由于视频中的物体形态始终处于变化状态,因此该方法利用插值更新策略,在追踪目标的同时将追踪结果作为新的训练样本,不断地重新训练追踪模型并更新参数。
由此该过程描述了单个KCF追踪器在尺度不变情况下的追踪流程。由于原始的相关滤波追踪器不检测尺度变化,因此其所输入的高斯类标矩阵只能用来检测目标对象相对于上一位置的偏移量,而不考虑物体变大或者变小对追踪模型所带来的影响。通过调整了目标对象的追踪方法,并重新定义了训练模型所必须用到的高斯类标矩阵。利用新定义的“四角型”高斯类标矩阵,将对象边缘信息引入追踪模型,通过该模型可以直接计算出目标对象在下一帧的位置与大小,从而实现对目标对象尺度变化的检测与控制。
需要说明的是,视频中对象的运动特征往往不可预测,已有的多追踪器方法和空间金字塔方法虽然也可以检测到对象的尺度变化,但是不能根据实际情况自我调整。因此无论对象的尺度变化与否,此两种追踪器都必须进行多次滤波操作,从而导致其追踪效率大幅下降。本发明可以灵活应对各种尺度变化情况,仅使用一次相关滤波操作即可同时得到目标对象的位置信息和大小信息,因此相对而言具有较高的实用性、适应性和鲁棒性。
与上述实施例提供的视频对象追踪方法相对应,本发明的一种实施例还提供一种视频对象追踪装置,由于本发明实施例提供的视频对象追踪装置与上述实施例提供的视频对象追踪方法具有相同或相似的技术特征,因此在前述视频对象追踪方法的实施方式也适用于本实施例提供的视频对象追踪装置,在本实施例中不再详细描述。如图4所示,该视频对象追踪装置可包括:第一获取模块10、第二获取模块20、计算模块30、追踪模块40和更新模块50。
其中,第一获取模块10,第一获取模块10包括:S1,获取训练样本,其中,训练样本为输入视频的第一帧画面中目标对象的目标对象窗口。
第二获取模块20,第二获取模块20包括:S2,获取训练样本的标注,其中,训练样本的标注为根据目标对象窗口的旋转矩阵特性构造的高斯类标矩阵。
计算模块30,计算模块30包括:S3,根据训练样本的标注计算出用于追所述目标对象的相关滤波参数。
追踪模块40,追踪模块40包括:S4,根据相关滤波参数在输入视频的下一帧画面中进行目标对象的检测和追踪。
更新模块50,更新模块50包括:S5,根据目标对象在下一帧画面中的追踪结果对训练样本进行更新,并返回步骤S1。
在本发明的一个实施例中,更新模块50具体用于:通过插值更新策略将追踪结果作为新的训练样本,以更新滤波参数,其中,插值更新策略为:其中,α为训练样本的滤波参数,为新的训练样本的滤波参数,μ为可调节的更新比例参数,p为新的目标对象窗口的后验概率。
在本发明的一个实施例中,第二获取模块20具体用于:根据目标对象窗口的旋转矩阵特性确定类标矩阵y,其中,yij表示目标对象窗口向下偏移i个单位和向右偏移j个单位后所得到的偏移窗口的标注得分。设定类标矩阵y的元素yij为1,并以(i,j)为中心应用高斯函数得到高斯类标矩阵,其中,高斯类标矩阵为:
在本发明的一个实施例中,通过岭回归算法计算训练样本的滤波参数α,α=(K+λI)-1y,其中,y为类标矩阵,k为样本之间的核矩阵,I代表单位矩阵。
在本发明的一个实施例中,计算模块30中,通过快速傅里叶变换方法计算出用于追中目标对象的相关滤波参数。
本发明实施例的视频对象追踪装置,通过第一获取模块和第二获取模块分别获取训练样本及其标注,接着计算模块根据训练样本的标注计算出用于追踪目标对象的相关滤波参数,追踪模块再根据相关滤波参数在输入视频的下一帧画面中进行目标对象的检测和追踪,最后更新模块根据目标对象在下一帧画面中的追踪结果对训练样本进行更新,并返回获取训练样本步骤。该装置实现了对目标对象尺寸变化的检测和控制,进一步提高了追踪效率,具有较高的实用性、适应性和鲁棒性。
在本发明的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种视频对象追踪方法,其特征在于,包括以下步骤:
S1:获取训练样本,其中,所述训练样本为输入视频的第一帧画面中目标对象的目标对象窗口;
S2:获取训练样本的标注,其中,所述训练样本的标注为根据所述目标对象窗口的旋转矩阵特性构造的高斯类标矩阵,其中通过将目标对象的边缘信息融入到追踪模型中,以所述目标对象分别位于所述目标对象窗口的四个角落的偏移图像为正例,确定所述目标对象边界,并以所述目标对象窗口的四个角落的偏移图像为正例,获取所述目标对象窗口的旋转矩阵中四个取值为1的元素,并分别应用高斯函数叠加形成高斯类标矩阵;
S3:根据所述训练样本的标注计算出用于追踪所述目标对象的相关滤波参数;S4:根据所述相关滤波参数在所述输入视频的下一帧画面中进行所述目标对象的检测和追踪,其中根据所述输入视频的下一帧画面与前一帧画面中边缘图像的相对偏移量,对所述目标对象进行检测和追踪;以及
S5:根据所述目标对象在所述下一帧画面中的追踪结果对所述训练样本进行更新,并返回所述步骤S2。
2.根据权利要求1所述的视频对象追踪方法,其特征在于,所述S5,进一步包括:
通过插值更新策略将所述追踪结果作为新的训练样本,以更新所述滤波参数,其中,所述插值更新策略为:
其中,所述α为所述训练样本的滤波参数,所述为所述新的训练样本的滤波参数,所述μ为可调节的更新比例参数,所述p为新的目标对象窗口的后验概率。
3.根据权利要求1所述的视频对象追踪方法,其特征在于,所述S2,进一步包括:
根据所述目标对象窗口的旋转矩阵特性确定类标矩阵y,其中,yij表示所述目标对象窗口向下偏移i个单位和向右偏移j个单位后所得到的偏移窗口的标注得分;
设定所述类标矩阵y的元素yij为1,并以(i,j)为中心应用高斯函数得到所述高斯类标矩阵,其中,所述高斯类标矩阵为:
4.根据权利要求1所述的视频对象追踪方法,其特征在于,通过岭回归算法计算所述训练样本的滤波参数α,所述α=(K+λI)-1y,其中,所述y为类标矩阵,所述K为样本之间的核矩阵,所述I代表单位矩阵。
5.根据权利要求1所述的视频对象追踪方法,其特征在于,所述S3中,通过快速傅里叶变换方法计算出用于追踪所述目标对象的相关滤波参数。
6.一种视频对象追踪装置,其特征在于,包括:
第一获取模块,所述第一获取模块包括:S1,获取训练样本,其中,所述训练样本为输入视频的第一帧画面中目标对象的目标对象窗口;
第二获取模块,所述第二获取模块包括:S2,获取训练样本的标注,其中,所述训练样本的标注为根据所述目标对象窗口的旋转矩阵特性构造的高斯类标矩阵,其中通过将目标对象的边缘信息融入到追踪模型中,以所述目标对象分别位于所述目标对象窗口的四个角落的偏移图像为正例,确定所述目标对象边界,并以所述目标对象窗口的四个角落的偏移图像为正例,获取所述目标对象窗口的旋转矩阵中四个取值为1的元素,并分别应用高斯函数叠加形成高斯类标矩阵;
计算模块,所述计算模块包括:S3,根据所述训练样本的标注计算出用于追踪所述目标对象的相关滤波参数;
追踪模块,所述追踪模块包括:S4,根据所述相关滤波参数在所述输入视频的下一帧画面中进行所述目标对象的检测和追踪,其中根据所述输入视频的下一帧画面与前一帧画面中边缘图像的相对偏移量,对所述目标对象进行检测和追踪;
更新模块,所述更新模块包括:S5,根据所述目标对象在所述下一帧画面中的追踪结果对所述训练样本进行更新,并返回所述第二获取模块。
7.如权利要求6所述的视频对象追踪装置,其特征在于,所述更新模块具体用于:
通过插值更新策略将所述追踪结果作为新的训练样本,以更新所述滤波参数,其中,所述插值更新策略为:
其中,所述α为所述训练样本的滤波参数,所述为所述新的训练样本的滤波参数,所述μ为可调节的更新比例参数,所述p为新的目标对象窗口的后验概率。
8.如权利要求6所述的视频对象追踪装置,其特征在于,所述第二获取模块具体用于:
根据所述目标对象窗口的旋转矩阵特性确定类标矩阵y,其中,yij表示所述目标对象窗口向下偏移i个单位和向右偏移j个单位后所得到的偏移窗口的标注得分;
设定所述类标矩阵y的元素yij为1,并以(i,j)为中心应用高斯函数得到所述高斯类标矩阵,其中,所述高斯类标矩阵为:
9.如权利要求6所述的视频对象追踪装置,其特征在于,通过岭回归算法计算所述训练样本的滤波参数α,所述α=(K+λI)-1y,其中,所述y为类标矩阵,所述K为样本之间的核矩阵,所述I代表单位矩阵。
10.根据权利要求6所述的视频对象追踪装置,其特征在于,所述计算模块中,通过快速傅里叶变换方法计算出用于追踪所述目标对象的相关滤波参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610160370.0A CN105844665B (zh) | 2016-03-21 | 2016-03-21 | 视频对象追踪方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610160370.0A CN105844665B (zh) | 2016-03-21 | 2016-03-21 | 视频对象追踪方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105844665A CN105844665A (zh) | 2016-08-10 |
CN105844665B true CN105844665B (zh) | 2018-11-27 |
Family
ID=56587611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610160370.0A Active CN105844665B (zh) | 2016-03-21 | 2016-03-21 | 视频对象追踪方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105844665B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111598926A (zh) * | 2020-05-15 | 2020-08-28 | 武汉卓目科技有限公司 | 对eco特征提取性能进行优化的目标跟踪方法及装置 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106981071B (zh) * | 2017-03-21 | 2020-06-26 | 广东华中科技大学工业技术研究院 | 一种基于无人艇应用的目标跟踪方法 |
CN107368802B (zh) * | 2017-07-14 | 2021-06-01 | 北京理工大学 | 基于kcf和人脑记忆机制的运动目标跟踪方法 |
CN107730536B (zh) * | 2017-09-15 | 2020-05-12 | 苏州飞搜科技有限公司 | 一种基于深度特征的高速相关滤波物体追踪方法 |
US11430312B2 (en) * | 2018-07-05 | 2022-08-30 | Movidius Limited | Video surveillance with neural networks |
CN110751671B (zh) * | 2018-07-23 | 2022-08-19 | 中国科学院长春光学精密机械与物理研究所 | 一种基于核相关滤波与运动估计的目标跟踪方法 |
CN109308713B (zh) * | 2018-08-02 | 2021-11-19 | 哈尔滨工程大学 | 一种基于前视声纳的改进核相关滤波水下目标跟踪方法 |
CN109101646B (zh) * | 2018-08-21 | 2020-12-18 | 北京深瞐科技有限公司 | 数据处理方法、装置、系统及计算机可读介质 |
CN110378361B (zh) * | 2018-11-23 | 2022-04-12 | 北京京东乾石科技有限公司 | 一种用于密集拿取物品检测的方法和装置 |
CN111242981A (zh) * | 2020-01-21 | 2020-06-05 | 北京捷通华声科技股份有限公司 | 一种定置物品的跟踪方法、装置和安保设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102074034A (zh) * | 2011-01-06 | 2011-05-25 | 西安电子科技大学 | 多模型人体运动跟踪方法 |
CN102881024A (zh) * | 2012-08-24 | 2013-01-16 | 南京航空航天大学 | 一种基于tld的视频目标跟踪方法 |
CN104200237A (zh) * | 2014-08-22 | 2014-12-10 | 浙江生辉照明有限公司 | 一种基于核化相关滤波高速自动多目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8520956B2 (en) * | 2009-06-09 | 2013-08-27 | Colorado State University Research Foundation | Optimized correlation filters for signal processing |
-
2016
- 2016-03-21 CN CN201610160370.0A patent/CN105844665B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102074034A (zh) * | 2011-01-06 | 2011-05-25 | 西安电子科技大学 | 多模型人体运动跟踪方法 |
CN102881024A (zh) * | 2012-08-24 | 2013-01-16 | 南京航空航天大学 | 一种基于tld的视频目标跟踪方法 |
CN104200237A (zh) * | 2014-08-22 | 2014-12-10 | 浙江生辉照明有限公司 | 一种基于核化相关滤波高速自动多目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
High-Speed Tracking with Kernelized Correlation Filters;Joao F.Henriques et al.;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20150501;第37卷(第3期);第4-8节 * |
Multi-Template Scale-Adaptive Kernelized Correlation Filters;Adel Bibi et al.;《Computer Vision Workshop(CCVW),2015 IEEE International Conference on》;20160215;第50-57页 * |
改进的核相关滤波器目标跟踪算法;余礼杨 等;《计算机应用》;20151210;第35卷(第12期);第1节 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111598926A (zh) * | 2020-05-15 | 2020-08-28 | 武汉卓目科技有限公司 | 对eco特征提取性能进行优化的目标跟踪方法及装置 |
CN111598926B (zh) * | 2020-05-15 | 2023-10-13 | 武汉卓目科技有限公司 | 对eco特征提取性能进行优化的目标跟踪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN105844665A (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105844665B (zh) | 视频对象追踪方法及装置 | |
CN106204638B (zh) | 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法 | |
Chen et al. | A hierarchical model incorporating segmented regions and pixel descriptors for video background subtraction | |
Ni et al. | Visual tracking using neuromorphic asynchronous event-based cameras | |
CN107481264A (zh) | 一种自适应尺度的视频目标跟踪方法 | |
CN107424171A (zh) | 一种基于分块的抗遮挡目标跟踪方法 | |
CN107358623A (zh) | 一种基于显著性检测和鲁棒性尺度估计的相关滤波跟踪算法 | |
CN108647694A (zh) | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 | |
Wang et al. | Robust tracking via monocular active vision for an intelligent teaching system | |
Gong et al. | Pagerank tracker: From ranking to tracking | |
CN112836640A (zh) | 一种单摄像头多目标行人跟踪方法 | |
CN110211157A (zh) | 一种基于相关滤波的目标长时跟踪方法 | |
Xiao et al. | MeMu: Metric correlation Siamese network and multi-class negative sampling for visual tracking | |
Zhang et al. | A background-aware correlation filter with adaptive saliency-aware regularization for visual tracking | |
Luque-Baena et al. | A self-organizing map to improve vehicle detection in flow monitoring systems | |
Li et al. | Robust object tracking via multi-feature adaptive fusion based on stability: contrast analysis | |
Romero-Ramirez et al. | Tracking fiducial markers with discriminative correlation filters | |
Yang et al. | Improvement of honey bee tracking on 2D video with hough transform and Kalman filter | |
Gu et al. | Linear time offline tracking and lower envelope algorithms | |
Liu et al. | Inverse nonnegative local coordinate factorization for visual tracking | |
Yan et al. | Real-time unmanned aerial vehicle tracking of fast moving small target on ground | |
Feng et al. | Sparse representation combined with context information for visual tracking | |
Shan et al. | Visual tracking using IPCA and sparse representation | |
Lo Presti et al. | Deep motion model for pedestrian tracking in 360 degrees videos | |
Chen et al. | Facial landmark detection via pose-induced auto-encoder networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Chen Wenshuo Inventor after: Ding Guiguang Inventor after: Hu Ruimin Inventor after: Chen Jun Inventor before: Chen Wenshuo Inventor before: Ding Guiguang |
|
GR01 | Patent grant | ||
GR01 | Patent grant |