CN111127505B - 基于空间规划的在线学习跟踪以及工程化实现方法 - Google Patents

基于空间规划的在线学习跟踪以及工程化实现方法 Download PDF

Info

Publication number
CN111127505B
CN111127505B CN201911179310.3A CN201911179310A CN111127505B CN 111127505 B CN111127505 B CN 111127505B CN 201911179310 A CN201911179310 A CN 201911179310A CN 111127505 B CN111127505 B CN 111127505B
Authority
CN
China
Prior art keywords
sample
classifier
matrix
tracking
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911179310.3A
Other languages
English (en)
Other versions
CN111127505A (zh
Inventor
王悦行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Jinhang Institute of Technical Physics
Original Assignee
Tianjin Jinhang Institute of Technical Physics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Jinhang Institute of Technical Physics filed Critical Tianjin Jinhang Institute of Technical Physics
Priority to CN201911179310.3A priority Critical patent/CN111127505B/zh
Publication of CN111127505A publication Critical patent/CN111127505A/zh
Application granted granted Critical
Publication of CN111127505B publication Critical patent/CN111127505B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于空间规划的在线学习跟踪以及工程化实现方法,属于跟踪算法技术领域。本发明采用在线学习的思想,在跟踪过程中对样本进行实时更新,通过样本训练得到分类器,对候选目标进行检测;为抵消跟踪过程中的边界效应,算法设置惩罚因子调整搜索区域的权重,用于惩罚背景区域的相关值,以消除背景区域的重复性干扰,并且采用高斯迭代方法提高算法实时性。然后对SOT算法进行工程化实现,并将其移植到C66x系列浮点型DSP处理器,采用DSP双核工作模式,保证算法具有良好的跟踪精度,并且满足每秒50帧的跟踪速度要求。

Description

基于空间规划的在线学习跟踪以及工程化实现方法
技术领域
本发明属于跟踪算法技术领域,具体涉及一种基于空间规划的在线学习跟踪以及工程化实现方法。
背景技术
跟踪的目的是在图像序列中通过目标的初始帧位置信息预测目标的运动轨迹。跟踪器需要在数量很少的训练样本中得到目标的表观特征,并且要求所提取的特征能够对目标遮挡、快速运动和形变等复杂场景具有较好的鲁棒性。因此,目标表观模型的选择是决定跟踪器性能好坏的关键因素。在复杂战场环境中,存在大量人为或者非人为因素所导致的目标遮挡、重复模式、目标旋转、尺度变化等跟踪难点,需要建立具有鲁棒性的跟踪器。
近几年,基于在线学习的跟踪方法已经成功地应用到跟踪领域。Bolme等提出了最小输出平方误差和(Minimum Output Sum of Squared Error,MOSSE)跟踪算法,该算法只需要一个目标区域的样本图像来训练目标的外观模型,从而显著地提升了跟踪算法的运行速度,但是该算法选取的训练样本较少。K.Zhang等将压缩感知理论应用到目标跟踪中,使得目标特征维度大大降低;Z.Kalal等提出将检测与跟踪相结合的方法(Tracking-learning detection,TLD),用检测的结果辅助判断跟踪结果的准确性,同时在跟踪丢失时重新检测目标,取得了很好的跟踪效果。但是之前算法存在边界问题,产生背景区域的重复性干扰,对算法的跟踪性能造成影响。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是:如何设计一种基于空间规划的在线学习跟踪以及工程化实现方法。
(二)技术方案
为了解决上述技术问题,本发明提供了一种基于空间规划的在线学习跟踪方法,包括以下步骤:构造正负样本——训练分类器——分类器检测——更新分类器。
本发明还提供了一种基于空间规划的在线学习跟踪方法的工程化实现方法。
(三)有益效果
本发明采用在线学习的思想,在跟踪过程中对样本进行实时更新,通过样本训练得到分类器,对候选目标进行检测;为抵消跟踪过程中的边界效应,算法设置惩罚因子调整搜索区域的权重,用于惩罚背景区域的相关值,以消除背景区域的重复性干扰,并且采用高斯迭代方法提高算法实时性。然后对SOT算法进行工程化实现,并将其移植到C66x系列浮点型DSP处理器,采用DSP双核工作模式,保证算法具有良好的跟踪精度,并且满足每秒50帧的跟踪速度要求。
附图说明
图1为训练样本的循环移位结果图;
图2为空间权重因子ω数值曲线图;
图3为本发明SOT算法工作原理流程图;
图4为SOT双核工作流程图;
图5为SOT每6帧跟踪流程示意图。
具体实施方式
为使本发明的目的、内容、和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本发明的时空规划在线学习跟踪方法是一种基于空间规划的在线学习跟踪方法(The Spatial Online-Learning Tracking,简称SOT),是相关滤波类跟踪算法,它将目标跟踪视为分类问题,通过在上一帧图像的目标周围进行足够数量的样本选取并将这些样本划分成正、负样本集来训练得到分类器,然后使用分类器对候选样本进行概率评估,概率最高的候选样本即为目标。该相关滤波器类跟踪方法的实现过程分为以下步骤:构造正负样本——训练分类器——分类器检测——更新分类器——空间加权设计。
步骤1、构造正负样本
训练分类器首先需要构造正负样本,正负样本的构建采用循环移位的方法,如图1所示。以一维信号为例:第一行是在目标中心采样的样本(正样本,维度为N),第二行由第一行向右平移一位得到,依此平移至第N行得到N×N矩阵,这样就构造了一个正样本和若干个“负样本”(正负样本的分类结果是由1到0递减的高斯函数)。
步骤2、训练分类器
得到正负样本集后,采用岭回归思想训练分类器;假设从图像区域提取的特征共有d维,则回归函数为:
其中,*为卷积运算符,x为训练样本,f为待训练的滤波器,d是总的特征维数,第l维特征对应的滤波器为fl,通过滤波器投影得到分类结果Sf(x)。因此,下一步是求出滤波器f,f的计算公式为:
通过对公式(2)近似处理并且考虑在频域使用,可以推导出:
f=(XHX+λI)-1XHy (3)
其中,X矩阵是图1中N*N矩阵,它的每行代表一个样本xi,i指的是第i个样本,XH是X的复共轭转置矩阵,所有样本xi的实际分类结果yi构成矩阵y,λ是正则化系数,I表示单位矩阵。公式(3)包含求逆运算而且待求解等式较多,采用上文介绍的循环矩阵对其进行简化。
循环矩阵有如下性质:
其中,x是X中的第一行矩阵(母矩阵),是x的傅里叶变换,/>表示/>的对角阵,/>F是与x无关的离散傅里叶变换矩阵,n表示x中含有的元素个数,FH是F的复共轭转置矩阵。
公式3则可以转化为:
其中,是y的傅里叶变换,⊙是矩阵的点乘运算,*表示矩阵的复共轭,/>的计算时间复杂度由O(n3)降为O(nlogn)。
为了提高训练分类器的准确性,将线性问题的输出投影到核函数构成的非线性空间。f可分解为:
其中f是线性空间系数,α是复空间的系数,αi表示第i个样本对应的复空间系数,φ(x)是样本x的非线性函数,因此,我们的目的由求f变为求α。
φ(x)有以下性质,x和x′表示两个不同的样本:
φT(x)φ(x′)=k(x,x′) (7)
因此,φ(x)可以由核函数k计算(核函数是高斯函数或者多项式函数),所有样本两两点乘存储在一个n×n维的核矩阵K中:
Kij=k(xi,xj) (8)
其中xi和xj表示两个不同的样本;
将线性空间的输入样本z投影到核函数构成的非线性空间中,得到:
z表示线性空间的输入样本;
α的计算公式为:
α=(K+λI)-1y (10)
其中,K是核函数,当K满足循环矩阵时,可以将公式(10)转化为:
其中,kxx是循环矩阵K的第一行,K是满足循环矩阵的核矩阵;可以证明,高斯矩阵、多项式矩阵以及线性矩阵等都具有循环结构。因此,只需要计算核自相关,而它的复杂度是随着样本的数量线性增长。在检测过程和计算核相关过程中,循环矩阵也起到重要的作用。
步骤3、分类器检测
由于样本X和候选目标Z都是循环矩阵,两者的核函数设为KZ,KZ的元素为kxz=k(Pi-1z,Pj-1x),P表示平移矩阵,i-1和j-1表示平移像素数,可以证明KZ也是循环矩阵,则有:
KZ=C(kxz) (12)
得到:
其中,xi表示第i个样本,共m个样本,f(z)表示置信度结果。
从而可以推导出:
每一个都是核函数/>的线性加权,加权系数为/>这样就完成了在频域候选目标的置信度计算。
步骤4、分类器更新
通过在当前帧进行分类器检测,置信度最大位置对应的就是当前帧跟踪的目标位置,将当前帧跟踪的目标作为新的样本xnew,与之前的训练样本x进行线性加权,如公式(15)所示,得到最新分类器x,并且将xnew代入公式(11),计算得到新的分类器αnew,将αnew与之前分类器α进行线性加权,如公式(16)所示,得到最新分类器α:
x=μ*x+(1-μ)*xnew (15)
α=μ*α+(1-μ)*αnew (16)
其中,μ为线性加权系数,μ设置越大则保留之前样本信息较多,设置较小则保留当前帧样本信息较多;
步骤5、空间加权设计
为解决循环移位带来的重复性问题,本发明在DCF公式(2)中加入空间权重因子ω:
其中,ω为空间权重因子,如图2所示。空间权重因子即惩罚因子,数值越大则对该区域的抑制作用越强,由于可能存在目标遮挡或者旋转变化等情况,目标边缘区域的特征与目标中心区域相比,可信赖程度较低。因此,我们设置空间权重因子使之从目标区域到背景缓慢变大,同时增加了ω在频域的稀疏性。将公式(17)中就可以得到标准DCF公式(2)。
本发明的时空规划在线学习跟踪(SOT)方法的工程化实现方法为:
步骤1、SOT算法功能模块设计
SOT跟踪地址分配模块:SetMemoryAddr,用于完成SOT算法使用变量内存地址的分配;
函数声明原型:
void SetMemoryAddr(float*pADD1,float*pADD2,float*pDDR);
函数的输入输出如表1所示:
表1 SOT跟踪地址分配模块输入输出
方向 标识 类型 说明
输入 L2BaseAddr float* 指向片内地址,所需内存为400k
输入 L3BaseAddr float* 指向片内地址,所需内存为2.9M
输入 DDRBaseAddr float* 指向片外地址,所需内存为200M
输出
SOT跟踪地址分配模块首先设置三块内存区域的首地址,然后将地址变量作为输入传给函数SetMemoryAddr,示例如下:
(float*)Wp2=(float*)0x80000000;//片内地址
(float*)Wp3=(float*)0x81000000;//片内地址
(float*)pDDR=(float*)0x90000000;//片外地址
SetMemoryAddr(Wp2,Wp3,pDDR);
SOT初始化跟踪器参数模块:SOT_Begin,用于初始化跟踪器参数并且调整目标尺寸和搜索区域尺寸。
函数声明原型:
void SOT_Begin(Uint16 Img_width,Uint16 Img_height,Uint16patch_width,Uint16 patch_height);
函数的输入输出如表2所示:
表2 SOT初始化跟踪器参数模块输入输出
SOT初始化跟踪器参数模块需要在SOT_Begin函数中输入图像的尺寸以及跟踪目标区域的尺寸,示例如下:
SOT_Begin(640,512,32,32);
SOT初始分类器生成模块:CacuFirhf_vec,用于计算第一帧图像目标分类器的初始值和更新所需的变量。
函数声明原型:
CacuFirhf_vec(Uint8*InputImage,Uint16*pos_x,Uint16*pos_y,Yc_Data*YC_test);
函数的输入输出如表3所示:
表3 SOT初始分类器生成模块输入输出
方向 标识 类型 说明
输入 InputImage Uint8* 输入图像地址
输入 pos_x Uint16* 目标中心点的横坐标
输入 pos_y Uint16* 目标中心点的纵坐标
输入/输出 YC_test Yc_Data* 待输出监控数据
SOT初始分类器生成模块需要在CacuFirhf_vec函数中输入跟踪初始帧图像、初始帧目标中心点位置和待输出的跟踪监控数据,示例如下:
(Uint8*)pLearn=(Uint8*)Image_ADD;//Image_ADD为跟踪初始帧图像存储地址;
(Uint16*)cx=(Uint16*)posX_ADD;//posX_ADD为初始帧目标中心点横坐标存储地址;
(Uint16*)cy=(Uint16*)posY_ADD;//posY_ADD为初始帧目标中心点纵坐标存储地址;
(Yc_Data*)pResultSOT=(Yc_Data*)SOT_state_ADD;//SOT_state_ADD为待输出跟踪监控数据的地址;
CacuFirhf_vec(pLearn,cx,cy,pResultSOT);
上面实例中,Yc_Data类型为定义的结构体类型,定义输出的跟踪监测数据,通过CacuFirhf_vec将pResultSOT进行初始化,Yc_Data结构体定义如表4:
表4结构体Yc_Data定义
SOT目标跟踪位置计算模块:CacuProb,用于计算当前帧图像目标的跟踪点位置和尺度。
函数声明原型:
void CacuProb(Uint8*InputImage,Uint16*pos_x,Uint16*pos_y,ComplexFloat*hf_input,Yc_Data*YC_test);
函数的输入输出如表5所示:
表5 SOT目标跟踪位置计算模块输入输出
SOT目标跟踪位置计算模块需要在CacuProb函数中输入图像、上一帧目标跟踪中心点位置以及分类器,得到当前帧目标跟踪位置以及监控数据,示例如下:
(Uint8*)pLearn=(Uint8*)Image_ADD;//Image_ADD为跟踪当前帧图像存储地址;
(Uint16*)cx=(Uint16*)posX_ADD;//posX_ADD为上一帧目标中心点横坐标存储地址;
(Uint16*)cy=(Uint16*)posY_ADD;//posY_ADD为上一帧目标中心点纵坐标存储地址;
(ComplexFloat*)hf=(ComplexFloat*)hf_ADD;//hf_ADD存储之前训练的SOT分类器;
(Yc_Data*)pResultSOT=(Yc_Data*)SOT_state_ADD;//SOT_state_ADD为待输出跟踪监控数据的地址;
CacuProb(pLearn,cx,cy,hf,pResultSOT);
上面实例中,hf的类型ComplexFloat为定义的结构体类型,定义浮点型复数,ComplexFloat结构体定义如表6:
表6结构体ComplexFloat定义
SOT当前帧目标分类器变量生成模块:CacuRefMem,用于计算当前帧图像目标的分类器待更新变量。
函数声明原型:
void CacuRefMem(Uint8*InputImage,Uint16*pos_x,Uint16*pos_y);
函数的输入输出如表7所示:
表7 SOT当前帧目标分类器变量生成模块输入输出
方向 标识 类型 说明
输入 InputImage Uint8* 输入图像地址
输入 pos_x Uint16* 目标中心点横坐标
输入 pos_y Uint16* 目标中心点纵坐标
SOT当前帧目标分类器变量生成模块需要在CacuRefMem函数中输入当前帧图像、当前帧跟踪后目标中心点位置,得到由当前帧训练的分类器,示例如下:
(Uint8*)pLearn=(Uint8*)Image_ADD;//Image_ADD为当前帧图像存储地址;
(Uint16*)cx=(Uint16*)posX_ADD;//posX_ADD为当前帧跟踪后目标中心点横坐标地址;
(Uint16*)cy=(Uint16*)posY_ADD;//posY_ADD为当前帧跟踪后目标中心点纵坐标地址;
CacuRefMem(pLearn,cx,cy);
SOT当前帧分类器参数更新模块:Renewhf,用于更新当前帧跟踪分类器的参数。
函数声明原型:
void Renewhf();
SOT当前帧分类器参数更新模块是对当前帧的分类器参数进行更新,示例如下:
Renewhf();
SOT当前帧分类器生成模块:Cacuhf,用于计算当前帧的跟踪分类器。
函数声明原型:
void Cacuhf(ComplexFloat*hf_output);
函数的输入输出如表8所示:
表8 SOT当前帧分类器生成模块输入输出
方向 标识 类型 说明
输入/输出 hf_output ComplexFloat* 训练得到分类器
SOT当前帧分类器生成模块生成当前帧的分类器,需要输入之前训练得到的分类器hf_output,示例如下:
ComplexFloat*hf_data=(ComplexFloat*)hf_ADD;//hf_ADD存储分类器;
Cacuhf(hf_data);
SOT工作流程设计:
SOT算法采用C66x系列多核DSP进行运算,两个核同时工作可以保证跟踪实时性(50fps)。算法分为七个功能模块,每个模块运行核心工作以及耗时如表9所示,其中,跟踪地址分配和参数初始化模块在开机后即可计算,要求跟踪前计算完成,分类器初始化模块在每次跟踪流程中只执行一次。
表9 SOT功能模块及耗时
模块 核号 耗时
跟踪地址分配模块SetMemoryAddr Core_t/Core_p <5ms
跟踪参数初始化模块SOT_Begin Core_t/Core_p <10s
分类器初始化模块CacuFirhf_vec Core_p 114ms
目标跟踪模块CacuProb Core_t 10ms
模板更新模块1:CacuRefMem Core_t 7ms
模板更新函数2:Renewhf Core_t 6ms
分类器学习模块Cacuhf Core_p 104ms
SOT的算法工作原理流程如图3所示,SOT双核工作流程图如图4所示,SOT每6帧跟踪流程示意图如图5所示,对应图4省略点处流程。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (1)

1.一种基于空间规划的在线学习跟踪方法,其特征在于,包括以下步骤:构造正负样本——训练分类器——分类器检测——更新分类器;
步骤1构造正负样本具体为:
训练分类器首先需要构造正负样本,正负样本的构建采用循环移位的方法,以一维信号为例:第一行是在目标中心采样的样本,正样本,维度为N,第二行由第一行向右平移一位得到,依此平移至第N行得到N×N矩阵,这样就构造了一个正样本和若干个“负样本”;
步骤2训练分类器具体为:
得到正负样本集后,采用岭回归思想训练分类器;假设从图像区域提取的特征共有d维,则回归函数为:
其中,*为卷积运算符,x为训练样本,f为待训练的滤波器,d是总的特征维数,第l维特征对应的滤波器为fl,通过滤波器投影得到分类结果Sf(x),因此,下一步是求出滤波器f,f的计算公式为:
通过对公式(2)近似处理并且考虑在频域使用,推导出:
f=(XHX+λI)-1XHy (3)
其中,X矩阵是图1中N*N矩阵,它的每行代表一个样本xi,i指的是第i个样本,XH是X的复共轭转置矩阵,所有样本xi的实际分类结果yi构成矩阵y,λ是正则化系数,I表示单位矩阵,下面采用循环矩阵对公式(3)进行简化:
循环矩阵有如下性质:
其中,x是X中的第一行矩阵,是x的傅里叶变换,/>表示/>的对角阵,/>F是与x无关的离散傅里叶变换矩阵,n表示x中含有的元素个数,FH是F的复共轭转置矩阵;
则公式(3)转化为:
其中,是y的傅里叶变换,⊙是矩阵的点乘运算,*表示矩阵的复共轭,/>的计算时间复杂度由O(n3)降为O(nlogn);
将线性问题的输出投影到核函数构成的非线性空间,f分解为:
其中f是线性空间系数,α是复空间的系数,αi表示第i个样本对应的复空间系数,φ(x)是样本x的非线性函数,因此,目的由求f变为求α;
φ(x)有以下性质,x和x′表示两个不同的样本:
φT(x)φ(x′)=k(x,x′) (7)
因此,φ(x)由核函数k计算,所有样本两两点乘存储在一个n×n维的核矩阵K中:
Kij=k(xi,xj) (8)
其中xi和xj表示两个不同的样本;
将线性空间的输入样本z投影到核函数构成的非线性空间中,得到:
z表示线性空间的输入样本;
α的计算公式为:
α=(K+λI)-1y (10)
其中,K是核函数,当K满足循环矩阵时,将公式(10)转化为:
其中,kxx是循环矩阵K的第一行,K是满足循环矩阵的核矩阵;
步骤3分类器检测具体为:
由于样本X和候选目标Z都是循环矩阵,两者的核函数设为KZ,KZ的元素为kxz=k(Pi-1z,Pj-1x),P表示平移矩阵,i-1和j-1表示平移像素数,KZ也是循环矩阵,则有:
KZ=C(kxz) (12)
得到:
其中,xi表示第i个样本,共m个样本,f(z)表示置信度结果;
从而推导出:
每一个都是核函数/>的线性加权,加权系数为/>这样就完成了在频域候选目标的置信度计算;
步骤4分类器更新具体为:
通过在当前帧进行分类器检测,置信度最大位置对应的就是当前帧跟踪的目标位置,将当前帧跟踪的目标作为新的样本xnew,与之前的训练样本x进行线性加权,如公式(15),得到最新分类器x,并且将xnew代入公式(11),计算得到新的分类器αnew,将αnew与之前分类器α进行线性加权,如公式(16)所示,得到最新分类器α:
x=μ*x+(1-μ)*xnew (15)
α=μ*α+(1-μ)*αnew (16)
其中,μ为线性加权系数,μ设置越大则保留之前样本信息较多,设置较小则保留当前帧样本信息较多;
还包括步骤5、空间加权设计:
在DCF公式(2)中加入空间权重因子ω:
其中,ω为空间权重因子,空间权重因子即惩罚因子,设置空间权重因子使之从目标区域到背景缓慢变大,同时增加了ω在频域的稀疏性。
CN201911179310.3A 2019-11-27 2019-11-27 基于空间规划的在线学习跟踪以及工程化实现方法 Active CN111127505B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911179310.3A CN111127505B (zh) 2019-11-27 2019-11-27 基于空间规划的在线学习跟踪以及工程化实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911179310.3A CN111127505B (zh) 2019-11-27 2019-11-27 基于空间规划的在线学习跟踪以及工程化实现方法

Publications (2)

Publication Number Publication Date
CN111127505A CN111127505A (zh) 2020-05-08
CN111127505B true CN111127505B (zh) 2024-03-26

Family

ID=70496745

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911179310.3A Active CN111127505B (zh) 2019-11-27 2019-11-27 基于空间规划的在线学习跟踪以及工程化实现方法

Country Status (1)

Country Link
CN (1) CN111127505B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104459089A (zh) * 2014-12-12 2015-03-25 东北大学 一种高浓磨浆系统游离度的软测量方法
CN105654029A (zh) * 2015-11-30 2016-06-08 辽宁师范大学 可提高识别精度及效率的三维点云耳廓识别方法
CN106447026A (zh) * 2016-09-13 2017-02-22 哈尔滨工程大学 一种基于布谷鸟和声搜索机制的iir数字滤波器生成方法
US10033602B1 (en) * 2015-09-29 2018-07-24 Amazon Technologies, Inc. Network health management using metrics from encapsulation protocol endpoints
CN108986146A (zh) * 2017-12-11 2018-12-11 罗普特(厦门)科技集团有限公司 一种基于背景信息与自适应回归标签的相关滤波跟踪方法
CN109003290A (zh) * 2017-12-11 2018-12-14 罗普特(厦门)科技集团有限公司 一种监控系统的视频跟踪方法
CN109685073A (zh) * 2018-12-28 2019-04-26 南京工程学院 一种基于核相关滤波的尺度自适应目标跟踪算法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104459089A (zh) * 2014-12-12 2015-03-25 东北大学 一种高浓磨浆系统游离度的软测量方法
US10033602B1 (en) * 2015-09-29 2018-07-24 Amazon Technologies, Inc. Network health management using metrics from encapsulation protocol endpoints
CN105654029A (zh) * 2015-11-30 2016-06-08 辽宁师范大学 可提高识别精度及效率的三维点云耳廓识别方法
CN106447026A (zh) * 2016-09-13 2017-02-22 哈尔滨工程大学 一种基于布谷鸟和声搜索机制的iir数字滤波器生成方法
CN108986146A (zh) * 2017-12-11 2018-12-11 罗普特(厦门)科技集团有限公司 一种基于背景信息与自适应回归标签的相关滤波跟踪方法
CN109003290A (zh) * 2017-12-11 2018-12-14 罗普特(厦门)科技集团有限公司 一种监控系统的视频跟踪方法
CN109685073A (zh) * 2018-12-28 2019-04-26 南京工程学院 一种基于核相关滤波的尺度自适应目标跟踪算法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
GPRS复合中继设备在船舶定位中的应用;王辉;金丽娟;严建强;吴健;;舰船科学技术;20180223(第04期);全文 *
吴厚航.博客藏经阁丛书 深入浅出玩转FPGA 第3版.北京航空航天大学出版社,2017,第68-69页. *
居超 ; 黄影平 ; 胡兴 ; .一种抗遮挡尺度自适应核相关滤波器跟踪算法.上海理工大学学报.2018,(第05期),正文第410-414页. *
常运 ; 杜玉红 ; 焉台郎 ; 赵地 ; 李兴 ; .基于云台摄像机的快速移动人群的检测与跟踪.液晶与显示.2016,(第10期),全文. *
曾碧 ; 张伟 ; .基于机器视觉的打磨工件跟踪方法研究.计算机应用研究.2018,(第11期),全文. *

Also Published As

Publication number Publication date
CN111127505A (zh) 2020-05-08

Similar Documents

Publication Publication Date Title
US10019629B2 (en) Skeleton-based action detection using recurrent neural network
CN112348849B (zh) 一种孪生网络视频目标跟踪方法及装置
Ruck et al. Comparative analysis of backpropagation and the extended Kalman filter for training multilayer perceptrons
CN107833208B (zh) 一种基于动态权重深度自编码的高光谱异常检测方法
CN109029363A (zh) 一种基于深度学习的目标测距方法
CN111401565B (zh) 一种基于机器学习算法XGBoost的DOA估计方法
CN111415379B (zh) 一种基于布谷鸟优化的三维点云数据配准方法
CN108470358B (zh) 一种基于二阶震荡人工蜂群算法的点云配准方法
CN109741364A (zh) 目标跟踪方法及装置
CN110555864B (zh) 基于pspce的自适应目标跟踪方法
CN106067165A (zh) 基于聚类化稀疏随机场的高光谱图像去噪方法
CN109191503B (zh) 基于条件随机场的遥感影像变化检测方法及系统
CN105160666B (zh) 基于非平稳分析与条件随机场的sar图像变化检测方法
CN117544904A (zh) 射频识别定位方法、装置、设备、存储介质和程序产品
CN111127505B (zh) 基于空间规划的在线学习跟踪以及工程化实现方法
CN111242102B (zh) 基于判别性特征导向的高斯混合模型的细粒度图像识别算法
Mustafa et al. Evaluating convolution neural network optimization algorithms for classification of cervical cancer macro images
Zhang et al. Contrastive learning ideas in underwater terrain image matching
CN115329938A (zh) 一种基于鉴别器森林提高生成对抗网络泛化能力的方法
Liu et al. Swarm intelligence for classification of remote sensing data
Taştan et al. Robust spectral clustering: A locality preserving feature mapping based on M-estimation
CN112507826A (zh) 一种端到端生态变化监测方法、终端、计算机设备及介质
Tzikas et al. Incremental relevance vector machine with kernel learning
Cisty et al. Ensemble Prediction of Stream Flows Enhanced by Harmony Search Optimization
Kittler Image processing for remote sensing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant