CN107729800A - 移动目标跟踪方法及系统 - Google Patents

移动目标跟踪方法及系统 Download PDF

Info

Publication number
CN107729800A
CN107729800A CN201710516577.1A CN201710516577A CN107729800A CN 107729800 A CN107729800 A CN 107729800A CN 201710516577 A CN201710516577 A CN 201710516577A CN 107729800 A CN107729800 A CN 107729800A
Authority
CN
China
Prior art keywords
target
subspace
sample
matrix
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710516577.1A
Other languages
English (en)
Inventor
汤雅妃
王志军
邓瑞
李伟杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China United Network Communications Group Co Ltd
Original Assignee
China United Network Communications Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China United Network Communications Group Co Ltd filed Critical China United Network Communications Group Co Ltd
Priority to CN201710516577.1A priority Critical patent/CN107729800A/zh
Publication of CN107729800A publication Critical patent/CN107729800A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种移动目标跟踪方法及系统,该方法包括:在当前帧上确定多个目标候选者;确定预设数量的最近已定位目标作为目标样本,并在最新定位目标附近采样得到一系列背景样本;根据目标样本和背景样本构建子空间和训练获得线性分类器;对每个目标候选者经由子空间重建,并使用线性分类器获取该重建的目标候选者的分类可靠性,分类可靠性作为表征判断所述目标候选者成为目标的可能性的因素;确定可能性最大的目标候选者作为目标。本发明结合了子空间学习和鉴别式学习方法的优势,可以提高在多种复杂跟踪场景下的性能。

Description

移动目标跟踪方法及系统
技术领域
本发明属于互联网技术领域,具体涉及一种移动目标跟踪方法及系 统。
背景技术
移动目标跟踪已经成为智能技术领域的核心技术之一,如,智能交 通中的对肇事车辆的自动视频监控、智能娱乐设备中对运动人体的自动 跟踪等。
从模型构建方法的角度出发,目标跟踪模型分为生成式和鉴别式。 其中,生成式模型为寻找一个与目标外观模型最为匹配的候选目标作为 当前目标;鉴别式模型为训练一个二元分类器将目标从背景中分离出 来。在跟踪应用中,若能够得到足够多的目标和背景样本,鉴别式模型 具有一定的优势,但是,实际应用中获得足够多的目标和背景样本是很 不现实的,而且,假使若能够获得,由于跟踪应用的运行速度的要求, 在巨大的样本机上训练分类器的时间往往很长,无法被接受的。因此, 现有技术中通常采用生成式模型实现对移动目标的跟踪。
在生成式模型中,目标的表达方法对跟踪算法很重要,甚至在某些 场景下决定了跟踪任务的成败。一种经典的目标表达方法为子空间学习 方法,具体为:假设目标在一个低维子空间中,首先,在之前帧上定位 的目标使用主成分分析方法学习得到子空间的基向量,构建出这一低维 子空间,在后续帧中,进一步将候选目标分别经由学习得到的子空间重 建,并在当前帧上对每个候选目标计算表达误差,确定表达误差最小的 候选目标作为当前帧上的目标。该方法已经被证明可以很有效地处理场 景光照变化、小幅度地目标姿态变化等的跟踪问题。
然而,在实际应用中发现,目前的生成式模型的移动跟踪方法和系 统在多种复杂跟踪场景下的性能还较差。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提出了一种 移动目标跟踪方法及系统,可以提高在多种复杂跟踪场景下的性能。
本发明提供了一种移动目标跟踪方法,包括以下步骤:
在当前帧上确定多个目标候选者;
确定预设数量的最近已定位目标作为目标样本,并在最新定位目标 附近采样得到一系列背景样本;
根据所述目标样本和所述背景样本构建子空间和训练获得线性分 类器;
对每个所述目标候选者经由所述子空间重建,并使用所述线性分类 器获取该重建的目标候选者的分类可靠性,所述分类可靠性作为表征判 断所述目标候选者成为目标的可能性的因素;
确定可能性最大的所述目标候选者作为目标。
优选地,采用如下方式根据所述目标样本和所述背景样本构建子空 间和训练获得线性分类器:
其中,低秩矩阵A表示经由学习得到的子空间对X重建的样本;
X=[Y,B],Y表示目标样本的矩阵;B表示背景样本的矩阵;
稀疏矩阵E表示子空间的表达误差;
{w,b}表示学习得到的线性分类器;
向量z表示样本类别标签,其元素zi∈{+1,-1};
向量Ι表示所有元素均为1的列向量;
函数rank(A)返回矩阵A的秩;
表达式||E||0求取矩阵E中非零元的个数;
参数λ>0、μ>0为权重系数;
对矩阵A应用矩阵奇异值分解:
[U,S,VT]=svd(A)
其中,正交矩阵U为学到的子空间的基向量;
SVT为所述背景样本和所述目标样本的子空间表达;
记最终学习得到的子空间基向量由含有r个基向量的矩阵P表示, 取r=rank(A):
P=U1:rank(A)
优选地,按照如下公式使用所述线性分类器求取该重建的目标候选 者的分类可靠性:
g(c;P,w,b)=wTPq+b
其中,g表示为分类可靠性;c表示为目标候选者;P表示为所述 子空间;q表示为目标候选者c在子空间p中的表达;e为稀疏向量, 表示为表达误差,{w,b}表示所述线性分类器。
优选地,还包括:
根据如下公式计算每个所述目标候选者成为目标的可能性:
其中,p(c|si)表示运动状态变量为si的目标候选者c的可能性;
δ(c;P)=||e||1,e表示所述表达误差;
ρ>0,预设常数,用来平衡所述分类可靠性和所述表达误差的重要 性;
l>0为指数函数的尺度参数。
优选地,还包括:
根据如下公式计算每个所述目标候选者成为目标的可能性:
其中,gc和δc分别为候选者c∈C归一化了的分类可靠性和表达误 差。
优选地,还包括以下步骤:
在保证所述目标样本数量一定的情况下,动态地更新所述最新定位 目标并去除最早定位的目标;
所述目标样本中始终包括初始输入的目标;
按照预设周期基于所述目标样本和所述背景样本重新构建所述子 空间和训练获得所述线性分类器。
本发明还提供一种移动目标跟踪系统,包括:
候选者选取模块,用于在当前帧上确定多个目标候选者;
样本确定模块,用于确定预设数量的最近已定位目标作为目标样 本,并在最新定位目标附近采样得到一系列背景样本;
学习模块,用于根据所述目标样本和所述背景样本构建子空间和训 练获得线性分类器;
分类可靠性获取模块,用于对每个所述目标候选者经由所述子空间 重建,并使用所述线性分类器获取该重建的目标候选者的分类可靠性, 所述分类可靠性作为表征判断所述目标候选者成为目标的可能性的因 素;
目标确定模块,用于确定可能性最大的所述目标候选者作为目标。
优选地,所述学习模块被设置成:采用如下方式根据所述目标样本 和所述背景样本构建子空间和训练获得线性分类器:
其中,低秩矩阵A表示经由学习得到的子空间对X重建的样本;
X=[Y,B],Y表示目标样本的矩阵;B表示背景样本的矩阵;
稀疏矩阵E表示子空间的表达误差;
{w,b}表示学习得到的线性分类器;
向量z表示样本类别标签,其元素zi∈{+1,-1};
向量Ι表示所有元素均为1的列向量;
函数rank(A)返回矩阵A的秩;
表达式||E||0求取矩阵E中非零元的个数;
参数λ>0、μ>0为权重系数;
对矩阵A应用矩阵奇异值分解:
[U,S,VT]=svd(A)
其中,正交矩阵U为学到的子空间的基向量;
SVT为所述背景样本和所述目标样本的子空间表达;
记最终学习得到的子空间基向量由含有r个基向量的矩阵P表示, 取r=rank(A):
P=U1:rank(A)
优选地,所述分类可靠性获取模块被设置成:按照如下公式使用所 述线性分类器求取该重建的目标候选者的分类可靠性:
g(c;P,w,b)=wTPq+b
其中,g表示为分类可靠性;c表示为目标候选者;P表示为所述 子空间;q表示为目标候选者c在子空间p中的表达;e为稀疏向量, 表示为表达误差,{w,b}表示所述线性分类器。
优选地,所述目标确定模块被设置成:根据如下方式计算每个所述 目标候选者成为目标的可能性:
其中,p(c|si)表示运动状态变量为si的目标候选者c的可能性;
δ(c;P)=||e||1,e表示所述表达误差;
ρ>0,预设常数,用来平衡所述分类可靠性和所述表达误差的重要 性;
l>0为指数函数的尺度参数。
优选地,所述目标确定模块被设置成:根据如下方式计算每个所述 目标候选者成为目标的可能性:
其中,gc和δc分别为候选者c∈C归一化了的分类可靠性和表达误 差。
优选地,还包括:
更新模块,用于在保证所述目标样本数量一定的情况下,动态地更 新所述最新定位目标并去除最早定位的目标,且所述目标样本中始终包 括初始输入的目标;
所述学习模块,还用于按照预设周期基于所述目标样本和所述背景 样本重新构建所述子空间和训练获得所述线性分类器。
本发明具有以下有益效果:
在本发明中,在当前帧上选取多个目标候选者;选择预设数量的最 近已定位目标作为目标样本,并在最新定位目标附近采样得到一系列背 景样本;根据目标样本和背景样本构建子空间和训练获得线性分类器, 也即,本发明将鉴别性结构引入至子空间学习中,构建了一个鉴别性子 空间,用以同时表达目标和背景,并通过线性分类器将识别出目标类别 和背景类别;对每个目标候选者经由子空间重建,并使用线性分类器求 取该重建的目标候选者的分类可靠性,分类可靠性作为表征判断目标候 选者成为目标的可能性的因素,因此,可基于分类可靠性判断目标候选 者称为目标的可能性,本发明实际上结合了子空间学习和鉴别式学习方 法的优势,可以提高在多种复杂跟踪场景下的性能。
附图说明
图1为本发明实施例提供的移动目标跟踪方法的流程图;
图2a为6个目标候选者;
图2b为6个目标候选者各自的分类可靠性性;
图2c为6个候选者的表达误差;
图2d为6个候选者的表达错误的大小;
图3为本发明实施例提供的移动目标跟踪系统的原理框图。
具体实施方式
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附 图来对本发明提供的移动目标跟踪方法及系统进行详细描述。
实施例1
图1为本发明实施例提供的移动目标跟踪方法的流程图,请参阅图 1,本发明实施例提供的移动目标跟踪方法,包括以下步骤:
S1,在当前帧上确定多个目标候选者(也即,目标候选区域)。
具体地,本发明提出的跟踪方法基于粒子滤波跟踪框架实现,故, 每个粒子对应着一幅帧图像上的一个区域,每个区域由如下的运动状态 变量所定义:
s={x,y,σ} (公式1)
其中x和y表示该区域在图像上的二维坐标,σ表示该区域的尺度 参数。
当前帧的每个目标候选区域的运动状态变量可以根据之前定位目 标的信息进行推断。
再根据推断的运动状态变量,可以将其在帧图像上对应着的图像块 切割出来。
接着,将这些图像块尺度缩放到相同大小,再分别将之拉成列向量, 则本发明称这些列向量为目标候选者。
相应地,本发明的目标定位方法将逐个对候选者进行评估,并赋予 其成为目标的可能性大小。最有可能成为目标的候者则被确定为当前帧 的目标,并在当前帧上根据其对应的运动状态变量使用矩形框将其标记 出来。
S2,确定预设数量的最近已定位目标作为目标样本,并在最新定位 目标附近采样得到一系列背景样本,所谓最近已定位目标是指从当前帧 开始按照时间顺序自后往前的各个帧已定位的目标;因此,最新定位目 标是指当前帧的前一帧已定位的目标。
在此需要说明的是,在本发明中,步骤S1和步骤S2的先后顺序没 有固定限定。
具体地,沿最新定位目标的不同方向平移预设距离(一般该预设距 离很小),采集该预设距离的图像作为背景样本。
具体地,目标样本用Y表示,在第t(当前)帧上,Y=[yt-n,...,yt-1] 表示n个最近定位的目标,其每一列yi表示在第i帧上定位的目标。
进一步具体地,将采样的图像缩放到于yi对应尺寸相同的大小,再 将其分别拉成列向量,用矩阵B表示,其每一列表示一个背景样本。
S3,根据所述目标样本和所述背景样本构建子空间(也可称之为鉴 别性子空间)和训练获得线性分类器。
优选地,由于采用附近紧密采样策略,背景样本和最近定位目标有 着很大的相似性,因此,假设最近定位目标Y和最新定位目标的背景样 本B处于一个低维的子空间中,这意味着样本矩阵X=[Y,B]具有较小的 秩取值(即低秩),为了确保子空间的鲁棒性,假设样本矩阵X中存在 一些野点(如遮挡物),故,需要使用一个稀疏的加性误差对这些野点 加以补偿,因此,使得子空间可以精确的同时表达目标和背景样本。
而且,本发明期望子空间可以鉴别性地表达目标和背景样本,所以, 在构建该子空间的同时,也训练了一个线性分类器,用以提供所期望的 鉴别能力。至此,该子空间可以精确地表达目标和背景样本的同时,线 性分类器可以可靠地将其分开至两个类别(即背景类别和目标类别)中。
基于以上分析,该子空间学习问题可以经由下式定义:
其中,低秩矩阵A表示经由学习得到的子空间对X重建的样本;
稀疏矩阵E表示子空间的表达误差;
{w,b}表示学习得到的线性分类器;
向量z表示样本类别标签,其元素zi∈{+1,-1};
向量Ι表示所有元素均为1的列向量;
函数rank(A)返回矩阵A的秩;
表达式||E||0求取矩阵E中非零元的个数;
参数λ>0、μ>0为权重系数。
在此需要指出的是,由于在公式2中子空间被视为一个隐变量,由 其重建样本A所完全刻画,因此,只需要简单地对矩阵A应用矩阵奇 异值分解(singular valuedecomposition,SVD)可获得该子空间:
[U,S,VT]=svd(A) (公式3)
其中,正交矩阵U即为学到的子空间的基向量;
SVT(即矩阵S和矩阵V的转置的乘积)为背景样本和目标样本的 子空间表达;
进一步,为了赋予该子空间一个合适的维度r,需要只保留矩阵U 的前r列。记最终学习得到的子空间基向量由含有r个基向量的矩阵P 表示,本发明取r=rank(A):
P=U1:rank(A) (公式4)
在此需要说明的是,针对子空间的降维问题,现有技术通常设置子 空间维度为固定的经验取值,或者使用一个硬阈值方法施加于训练样本 的主成分上,而本发明中,基于低维子空间的假设,将训练样本向量排 成一个矩阵,通过最小化样本矩阵的秩,间接地构建子空间,从而得到 一个自适应的维度。
S4,对每个目标候选者经由子空间重建,并使用线性分类器求取该 重建的目标候选者的分类可靠性,所述分类可靠性作为表征判断所述目 标候选者成为目标的可能性的因素。
对于一个候选者c,其分类可靠性定义为如下公式5,其中,g表示 为分类可靠性;q表示在子空间P中该候选者c的表达,稀疏向量e为 表达误差;线性分类器表示为{w,b}。
g(c;P,w,b)=wTPq+b
在此需要强调,公式5中使用了向量的l0-“范数”来引入稀疏性, 该“范数”的约束使得上式成为一个NP-hard问题。所以,实际中经常 使用其凸松弛版本的l1-范数来逼近求解。有许多算法可以用来求解上式 的l1-范数逼近问题,如OMP算法和LASSO算法。
S5,确定可能性最大的所述目标候选者作为目标。
根据如下公式计算每个所述目标候选者成为目标的可能性:
其中,p(c|si)表示运动状态变量为si的目标候选者c的可能性;
δ(c;P)=||e||1,表达误差e可以由公式5解得;
ρ>0,预设常数,用于平衡分类可靠性和表达误差的重要性;具体 地,预设常数的设置,通常都是根据输入的实验数据的预设输出和实际 输出值的差值不断调节实验参数,最终选择合适的预设常数;
l>0为指数函数的尺度参数。
优选地,由于参数ρ是高度依赖于候选者c,其取值可能因候选者 c的不同而变化较大。为此,本发明使用如下公式12的归一化方法来处 理该问题,其中gc和δc分别为候选者c∈C归一化了的分类可靠性和表达 误差:
基于公式11和公式12可知,判断目标候选者称为目标的可能性既 跟分类可靠性相关,又跟表达误差相关,也即,该移动目标跟踪方法根 据鉴别性子空间对候选目标区域(目标候选者)的分类可靠性和表达准 确性判断该目标候选者成为目标的可能性。基于表达误差,可以有效地 识别出一个测试区域是否属于学习得到的子空间,而通过线性分类器, 可以可靠地识别出一个子空间内的测试区域是属于目标类别还是背景 类别,因而该方法同时兼顾了对样本表达的精确性和分类的可靠性。
更为重要的是,本发明的线性分类器使用的训练样本中,背景类别 只包含在目标附近的背景区域,这使得目标和其附近的背景可以被分类 器可靠地分开,而那些远离目标的背景区域则是由生成式的信息(表达 误差)来区分的,从而在一定程度上可以有效地的解决鉴别式跟踪模型 中存在的类别标签歧义性问题。
下面结合图2a-图2d说明上述公式表征可能性的原理。其中,图 2a中给出了6个目标候选者,图2b中给出了6个目标候选者的分类可 靠性性;图2c中给出了6个候选者的表达误差,较深的颜色表示较小 的取值;图2d中给出了6个候选者的表达错误的大小。一方面,从鉴 别式模型的层面来看,一个可能成为目标的目标候选者越尽可能地接近 +1(目标样本的类别标签),意味着该目标候选者与目标较为形似;另 一方面,从生成式模型的层面来看,一个可能成为目标的目标候选者的 表达误差尽越小,意味着该目标候选者可以被学习到的子空间表达的较 为准确。从图2a-图2d的图中可以看出,最终从左至右的第一个目标候 选者被确定为目标的可能性较大。
需要在此说明的是,在第t帧上,已知从第1帧到第(t-1)帧定位的 目标y1:t-1,一个目标候选者的运动状变量st可以通过最大化下面的后验 密度来推断:
p(st|y1:t-1)=∫p(st|st-1)p(st-1|y1:t-1)dst-1 (公式6)
其中p(st|st-1)定义为运动模型。
接下来,该候选者c可以根据其推断的运动状态变量st被观测到(从 帧图像中切割出来并由前所述的操作将其转化成列向量形式)。
则上述的后验密度可以更新为:
其中,p(c|st)定义为观测模型。
注意上式中的分母p(c|y1:t-1)一个常量,这是因为:
p(c|y1:t-1)=∫p(c|st)p(st|y1:t-1)dst (公式8)
因此,给定一个包含所有候选者的集合C,则第t帧上的目标yt可 以由下式得到:
本发明将上述的运动模型定义为一个高斯分布:
p(s|st-1):N(s|st-1,∑) (公式10)
其中,协方差矩阵∑为一个对角矩阵,其对角元素分别表示公式 1中的x、y和σ的方差。观测模型p(c|st)用来度量一个关于运动状态变 量st的候选者c成为目标的可能性。
优选地,由于在跟踪过程中,由于目标的外观可能随着时间变化, 为了能够捕捉最新的目标外观变化,因此,在保证所述目标样本数量(例 如50个)的情况下,将最新定位的目标认定为目标样本,去除最早定 位的目标;目标样本中始终包括初始输入的目标,这是因为初始输入的 目标包含有目标最精确的信息,所以始终将其保存在矩阵Y中作为目标样本;按照预设周期(例如,每10帧画面)基于所述目标样本和所述 背景样本X重新构建所述子空间和训练获得所述线性分类器。
下面描述本发明提供的移动目标跟踪方法的主要实现步骤:
第一,算法1:基于鉴别性子空间的移动目标跟踪方法
输入:目标的初始运动状态s1
输出:在后续每一帧t上定位的目标yt
(1),通过在输入目标区域(即,输入目标)空间位置扰动,初 始化含有预设数量的(例如,50个)目标样本的矩阵Y。
(2),初始目标区域(即,初始输入的目标)附近沿着不同方向 进行小幅度的位移,生成背景样本矩阵B。
(3),在样本矩阵X=[Y,B]上,使用算法2构建子空间P和线性 分类器{w,b}。
(4),For每一帧t do
(4.1)根据公式6生成一系列目标候选者。
(4.2)for每一个目标候选者c do
根据公式12求取观测模型。
End
(4.3)根据公式9定位第t帧上的目标yt
(4.4)更新目标样本Y和背景样本B。
(4.5)每隔10帧重新构建子空间P和线性分类器{w,b}
End
第二,公式2中定义的模型涉及到了rank-和l0-最小化,是一个 NP-hard的问题,无法在多项式时间内进行求解。通常,在实际应用中 会使用二者的凸松弛度量trace-范数和l1-范数进行近似求解:
其中,||A||*为trace-范数,计算矩阵A的奇异值之和,||E||1为l1-范数, 计算矩阵E的所有元素的绝对值之和。公式13定义的问题没有闭式解, 需要开发一个迭代算法进行逼近求解。该迭代算法的基本思路是固定住 其他的变量取值而独立求解一个变量的最优取值,这样交替逐个变量进 行优化,最终算法会收敛。另外,由于变量A耦合于trace-范数与线性 约束中,为了方便求解,引入另一个变量M:
本发明使用增强拉格朗日乘子法(augmented Lagrange multiplier, ALM)对上式求解,其增强拉格朗日乘子函数为:
其中,J1、J2和J3为拉格朗日乘子,<·,·>为矩阵内积操作符,||·||F为Frobenius-范数,τ>0为该增强拉格朗日乘子函数的惩罚参数。
当函数Γ(A,E,M,w,b)被最小化的时候,即求得公式2的解。
(21)求解变量A
当固定其他变量而独立优化A时,最小化Γ(A,E,M,w,b)等价于
上式可由配方法导出,并可以使用奇异值收缩阈值(singular valuesthresholding)算法求解:
其中,为收缩阈值操作符,其操作独立 地作用于输入变量x的每个元素上。
(22)求解变量M
当固定其他变量而独立优化M时,最小化Γ(A,E,M,w,b)等价于
上式为关于M的最小二乘问题,可以很容易地解出:
(23)求解变量E
当固定其他变量而独立优化E时,最小化Γ(A,E,M,w,b)等价于
上式可由配方法导出,并可以使用迭代收缩阈值(iterative shrinkagethresholding)算法求解得:
(24)求解变量w和b
当固定其他变量而独立优化w和b时,最小化Γ(A,E,M,w,b)等价于:
上述两式均为最小二乘问题,并存在闭式解:
其中,N为训练样本的数量。
该迭代算法的主要步骤在算法2中给出。
当函数Γ(A,E,M,w,b)在连续再次迭代中取值区别很小时,该算法停 机。仍需要指出的是,本发明中设置参数μ=1,以说明正则项||A||*对本发明的学习模型具有相同的贡献。其他参数λ、τ和κ的取值则使 用现有技术推荐值,如算法2的第一步和第二步中所示。
第三,算法2:鉴别性低秩学习
输入:训练样本{X∈Rd×N,z∈R1×N}
输出:子空间P和线性分类器{w,b}。
(31)初始化变量A=M=X、E=0、w,b:N(0,1)、J1=J2=J3=0、
(32)设置参数μ=1、κ=1.6。
(33)在样本矩阵X=[Y,B]上,使用算法2构建子空间P和线性 分类器{w,b}。
(34)while算法不收敛do
(34.1)使用公式17求解变量A。
(34.2)使用公式19求解变量M。
(34.3)使用公式21求解变量E。
(34.4)使用公式23求解变量w和b。
(34.5)更新拉格朗日乘子J1=J1+τ(X-A-E)。
(34.6)更新拉格朗日乘子J2=J2+τ(z-wTM-bΙ)
(34.7)更新拉格朗日乘子J3=J3+τ(A-M)
(34.8)更新拉格惩罚参数τ=κτ
End
(35)计算P=U1:rank(A),其中[U,S,VT]=svd(A)。
(36)Return P、{w,b}、A和E。
实施例2
图3为本发明实施例提供的移动目标跟踪系统的原理框图。请参阅 图3,本发明实施例提供的移动目标跟踪系统,包括:
候选者选取模块10,用于在当前帧上确定多个目标候选者。
样本确定模块11,用于确定预设数量的最近已定位目标作为目标 样本,并在最新定位目标附近采样得到一系列背景样本。
学习模块12,用于根据所述目标样本和所述背景样本构建子空间 和训练获得线性分类器。
分类可靠性获取模块13,用于对每个所述目标候选者经由所述子 空间重建,并使用所述线性分类器获取该重建的目标候选者的分类可靠 性,所述分类可靠性作为表征判断所述目标候选者成为目标的可能性的 因素。
目标确定模块14,用于确定可能性最大的所述目标候选者作为目 标。
具体地,学习模块被12设置成:采用如下方式根据所述目标样本 和所述背景样本构建子空间和训练获得线性分类器:
其中,低秩矩阵A表示经由学习得到的子空间对X重建的样本;
X=[Y,B],Y表示目标样本的矩阵;B表示背景样本的矩阵;
稀疏矩阵E表示子空间的表达误差;
{w,b}表示学习得到的线性分类器;
向量z表示样本类别标签,其元素zi∈{+1,-1};
向量Ι表示所有元素均为1的列向量;
函数rank(A)返回矩阵A的秩;
表达式||E||0求取矩阵E中非零元的个数;
参数λ>0、μ>0为权重系数;
对矩阵A应用矩阵奇异值分解:
[U,S,VT]=svd(A)
其中,正交矩阵U为学到的子空间的基向量;
SVT为所述背景样本和所述目标样本的子空间表达。
记最终学习得到的子空间基向量由含有r个基向量的矩阵P表示, 取r=rank(A):
P=U1:rank(A)
具体地,所述分类可靠性获取模块13被设置成:按照如下公式使 用所述线性分类器求取该重建的目标候选者的分类可靠性:
g(c;P,w,b)=wTPq+b
其中,g表示为分类可靠性;c表示为目标候选者;P表示为所述 子空间;q表示为目标候选者c在子空间p中的表达;e为稀疏向量, 表示为表达误差,{w,b}表示所述线性分类器。
具体地,所述目标确定模块14被设置成:根据如下方式计算每个 所述目标候选者成为目标的可能性:
其中,p(c|si)表示运动状态变量为si的目标候选者c的可能性;
δ(c;P)=||e||1,表达误差e可以由公式5解得;
ρ>0,预设常数,用来平衡所述分类可靠性和所述表达误差的重要 性;
l>0为指数函数的尺度参数。
优选地,所述目标确定模块14被设置成:根据如下方式计算每个 所述目标候选者成为目标的可能性:
其中,gc和δc分别为候选者c∈C归一化了的分类可靠性和表达误 差。
具体地,还包括:更新模块15,用于在保证所述目标样本数量一 定的情况下,动态地更新所述最新定位目标并去除最早定位的目标,且 所述目标样本中始终包括初始输入的目标;学习模块12还用于按照预 设周期基于所述目标样本和所述背景样本重新构建所述子空间和训练 获得所述线性分类器。
本发明实施例提供的移动目标跟踪系统为上述实施例1提供的移 动目标跟踪方法对应的产品,因此,在此不再详述。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用 的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技 术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变 型和改进,这些变型和改进也视为本发明的保护范围。

Claims (12)

1.一种移动目标跟踪方法,其特征在于,包括以下步骤:
在当前帧上确定多个目标候选者;
确定预设数量的最近已定位目标作为目标样本,并在最新定位目标附近采样得到一系列背景样本;
根据所述目标样本和所述背景样本构建子空间和训练获得线性分类器;
对每个所述目标候选者经由所述子空间重建,并使用所述线性分类器获取该重建的目标候选者的分类可靠性,所述分类可靠性作为表征判断所述目标候选者成为目标的可能性的因素;
确定可能性最大的所述目标候选者作为目标。
2.根据权利要求1所述的移动目标跟踪方法,其特征在于,采用如下方式根据所述目标样本和所述背景样本构建子空间和训练获得线性分类器:
<mrow> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>A</mi> <mo>,</mo> <mi>E</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>b</mi> </mrow> </munder> <mi>r</mi> <mi>a</mi> <mi>n</mi> <mi>k</mi> <mrow> <mo>(</mo> <mi>A</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;lambda;</mi> <mo>|</mo> <mo>|</mo> <mi>E</mi> <mo>|</mo> <msub> <mo>|</mo> <mn>0</mn> </msub> <mo>+</mo> <mi>&amp;mu;</mi> <mo>|</mo> <mo>|</mo> <mi>w</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow>
<mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>X</mi> <mo>=</mo> <mi>A</mi> <mo>+</mo> <mi>E</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>z</mi> <mo>=</mo> <msup> <mi>w</mi> <mi>T</mi> </msup> <mi>A</mi> <mo>+</mo> <mi>b</mi> <mi>I</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,低秩矩阵A表示经由学习得到的子空间对X重建的样本;
X=[Y,B],Y表示目标样本的矩阵;B表示背景样本的矩阵;
稀疏矩阵E表示子空间的表达误差;
{w,b}表示学习得到的线性分类器;
向量z表示样本类别标签,其元素zi∈{+1,-1};
向量Ι表示所有元素均为1的列向量;
函数rank(A)返回矩阵A的秩;
表达式||E||0求取矩阵E中非零元的个数;
参数λ>0、μ>0为权重系数;
对矩阵A应用矩阵奇异值分解:
[U,S,VT]=svd(A)
其中,正交矩阵U为学到的子空间的基向量;
SVT为所述背景样本和所述目标样本的子空间表达;
记最终学习得到的子空间基向量由含有r个基向量的矩阵P表示,取r=rank(A):
P=U1:rank(A)
3.根据权利要求1所述的移动目标跟踪方法,其特征在于,按照如下公式使用所述线性分类器求取该重建的目标候选者的分类可靠性:
g(c;P,w,b)=wTPq+b
<mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>q</mi> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>q</mi> <mo>,</mo> <mi>e</mi> </mrow> </munder> <mo>|</mo> <mo>|</mo> <mi>e</mi> <mo>|</mo> <msub> <mo>|</mo> <mn>0</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>c</mi> <mo>=</mo> <mi>P</mi> <mi>q</mi> <mo>+</mo> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,g表示为分类可靠性;c表示为目标候选者;P表示为所述子空间;q表示为目标候选者c在子空间p中的表达;e为稀疏向量,表示为表达误差,{w,b}表示所述线性分类器。
4.根据权利要求3所述的移动目标跟踪方法,其特征在于,还包括:
根据如下公式计算每个所述目标候选者成为目标的可能性:
<mrow> <mi>p</mi> <mrow> <mo>(</mo> <mi>c</mi> <mo>|</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;Proportional;</mo> <mi>exp</mi> <mo>{</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mi>l</mi> </mfrac> <mrow> <mo>(</mo> <mo>|</mo> <mn>1</mn> <mo>-</mo> <mi>g</mi> <mo>(</mo> <mrow> <mi>c</mi> <mo>;</mo> <mi>P</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>b</mi> </mrow> <mo>)</mo> <mo>|</mo> <mo>+</mo> <mi>&amp;rho;</mi> <mi>&amp;delta;</mi> <mo>(</mo> <mrow> <mi>c</mi> <mo>;</mo> <mi>P</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>}</mo> </mrow>
其中,p(c|si)表示运动状态变量为si的目标候选者c的可能性;
δ(c;P)=||e||1,e表示所述表达误差;
ρ>0,预设常数,用来平衡所述分类可靠性和所述表达误差的重要性;
l>0为指数函数的尺度参数。
5.根据权利要求3所述的移动目标跟踪方法,其特征在于,还包括:
根据如下公式计算每个所述目标候选者成为目标的可能性:
<mrow> <mi>p</mi> <mrow> <mo>(</mo> <mi>c</mi> <mo>|</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;Proportional;</mo> <mi>exp</mi> <mo>{</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mi>l</mi> </mfrac> <mrow> <mo>(</mo> <msub> <mi>g</mi> <mi>c</mi> </msub> <mo>+</mo> <msub> <mi>&amp;delta;</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> <mo>}</mo> </mrow>
<mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> <msub> <mi>g</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mo>|</mo> <mn>1</mn> <mo>-</mo> <mi>g</mi> <mrow> <mo>(</mo> <mrow> <mi>c</mi> <mo>;</mo> <mi>P</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>b</mi> </mrow> <mo>)</mo> </mrow> <mo>|</mo> </mrow> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mo>|</mo> <mn>1</mn> <mo>-</mo> <mi>g</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>;</mo> <mi>P</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>b</mi> </mrow> <mo>)</mo> </mrow> <mo>|</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mrow> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>&amp;Element;</mo> <mi>C</mi> </mrow> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> </mrow> </mfrac> <mo>,</mo> <msub> <mi>&amp;delta;</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mi>&amp;delta;</mi> <mrow> <mo>(</mo> <mrow> <mi>c</mi> <mo>;</mo> <mi>P</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mi>&amp;delta;</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>;</mo> <mi>P</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mrow> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>&amp;Element;</mo> <mi>C</mi> </mrow> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> </mrow> </mfrac> <mo>;</mo> </mrow>
其中,gc和δc分别为候选者c∈C归一化了的分类可靠性和表达误差。
6.根据权利要求2所述的移动目标跟踪方法,其特征在于,还包括以下步骤:
在保证所述目标样本数量一定的情况下,动态地更新所述最新定位目标并去除最早定位的目标;
所述目标样本中始终包括初始输入的目标;
按照预设周期基于所述目标样本和所述背景样本重新构建所述子空间和训练获得所述线性分类器。
7.一种移动目标跟踪系统,其特征在于,包括:
候选者选取模块,用于在当前帧上确定多个目标候选者;
样本确定模块,用于确定预设数量的最近已定位目标作为目标样本,并在最新定位目标附近采样得到一系列背景样本;
学习模块,用于根据所述目标样本和所述背景样本构建子空间和训练获得线性分类器;
分类可靠性获取模块,用于对每个所述目标候选者经由所述子空间重建,并使用所述线性分类器获取该重建的目标候选者的分类可靠性,所述分类可靠性作为表征判断所述目标候选者成为目标的可能性的因素;
目标确定模块,用于确定可能性最大的所述目标候选者作为目标。
8.根据权利要求7所述的移动目标跟踪系统,其特征在于,所述学习模块被设置成:采用如下方式根据所述目标样本和所述背景样本构建子空间和训练获得线性分类器:
<mrow> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>A</mi> <mo>,</mo> <mi>E</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>b</mi> </mrow> </munder> <mi>r</mi> <mi>a</mi> <mi>n</mi> <mi>k</mi> <mrow> <mo>(</mo> <mi>A</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;lambda;</mi> <mo>|</mo> <mo>|</mo> <mi>E</mi> <mo>|</mo> <msub> <mo>|</mo> <mn>0</mn> </msub> <mo>+</mo> <mi>&amp;mu;</mi> <mo>|</mo> <mo>|</mo> <mi>w</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow>
<mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>X</mi> <mo>=</mo> <mi>A</mi> <mo>+</mo> <mi>E</mi> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>z</mi> <mo>=</mo> <msup> <mi>w</mi> <mi>T</mi> </msup> <mi>A</mi> <mo>+</mo> <mi>b</mi> <mi>I</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,低秩矩阵A表示经由学习得到的子空间对X重建的样本;
X=[Y,B],Y表示目标样本的矩阵;B表示背景样本的矩阵;
稀疏矩阵E表示子空间的表达误差;
{w,b}表示学习得到的线性分类器;
向量z表示样本类别标签,其元素zi∈{+1,-1};
向量Ι表示所有元素均为1的列向量;
函数rank(A)返回矩阵A的秩;
表达式||E||0求取矩阵E中非零元的个数;
参数λ>0、μ>0为权重系数;
对矩阵A应用矩阵奇异值分解:
[U,S,VT]=svd(A)
其中,正交矩阵U为学到的子空间的基向量;
SVT为所述背景样本和所述目标样本的子空间表达;
记最终学习得到的子空间基向量由含有r个基向量的矩阵P表示,取r=rank(A):
P=U1:rank(A)
9.根据权利要求7所述的移动目标跟踪系统,其特征在于,所述分类可靠性获取模块被设置成:按照如下公式使用所述线性分类器求取该重建的目标候选者的分类可靠性:
g(c;P,w,b)=wTPq+b
<mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mi>q</mi> <mo>=</mo> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mrow> <mi>q</mi> <mo>,</mo> <mi>e</mi> </mrow> </munder> <mo>|</mo> <mo>|</mo> <mi>e</mi> <mo>|</mo> <msub> <mo>|</mo> <mn>0</mn> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>c</mi> <mo>=</mo> <mi>P</mi> <mi>q</mi> <mo>+</mo> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,g表示为分类可靠性;c表示为目标候选者;P表示为所述子空间;q表示为目标候选者c在子空间p中的表达;e为稀疏向量,表示为表达误差,{w,b}表示所述线性分类器。
10.根据权利要求9所述的移动目标跟踪系统,其特征在于,所述目标确定模块被设置成:根据如下方式计算每个所述目标候选者成为目标的可能性:
<mrow> <mi>p</mi> <mrow> <mo>(</mo> <mi>c</mi> <mo>|</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;Proportional;</mo> <mi>exp</mi> <mo>{</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mi>l</mi> </mfrac> <mrow> <mo>(</mo> <mo>|</mo> <mn>1</mn> <mo>-</mo> <mi>g</mi> <mo>(</mo> <mrow> <mi>c</mi> <mo>;</mo> <mi>P</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>b</mi> </mrow> <mo>)</mo> <mo>|</mo> <mo>+</mo> <mi>&amp;rho;</mi> <mi>&amp;delta;</mi> <mo>(</mo> <mrow> <mi>c</mi> <mo>;</mo> <mi>P</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mo>}</mo> </mrow>
其中,p(c|si)表示运动状态变量为si的目标候选者c的可能性;
δ(c;P)=||e||1,e表示所述表达误差;
ρ>0,预设常数,用来平衡所述分类可靠性和所述表达误差的重要性;
l>0为指数函数的尺度参数。
11.根据权利要求9所述的移动目标跟踪系统,其特征在于,所述目标确定模块被设置成:根据如下方式计算每个所述目标候选者成为目标的可能性:
<mrow> <mi>p</mi> <mrow> <mo>(</mo> <mi>c</mi> <mo>|</mo> <msub> <mi>s</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;Proportional;</mo> <mi>exp</mi> <mo>{</mo> <mo>-</mo> <mfrac> <mn>1</mn> <mi>l</mi> </mfrac> <mrow> <mo>(</mo> <msub> <mi>g</mi> <mi>c</mi> </msub> <mo>+</mo> <msub> <mi>&amp;delta;</mi> <mi>c</mi> </msub> <mo>)</mo> </mrow> <mo>}</mo> </mrow>
<mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> <msub> <mi>g</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mo>|</mo> <mn>1</mn> <mo>-</mo> <mi>g</mi> <mrow> <mo>(</mo> <mrow> <mi>c</mi> <mo>;</mo> <mi>P</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>b</mi> </mrow> <mo>)</mo> </mrow> <mo>|</mo> </mrow> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mo>|</mo> <mn>1</mn> <mo>-</mo> <mi>g</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>;</mo> <mi>P</mi> <mo>,</mo> <mi>w</mi> <mo>,</mo> <mi>b</mi> </mrow> <mo>)</mo> </mrow> <mo>|</mo> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mrow> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>&amp;Element;</mo> <mi>C</mi> </mrow> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> </mrow> </mfrac> <mo>,</mo> <msub> <mi>&amp;delta;</mi> <mi>c</mi> </msub> <mo>=</mo> <mfrac> <mrow> <mi>&amp;delta;</mi> <mrow> <mo>(</mo> <mrow> <mi>c</mi> <mo>;</mo> <mi>P</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mrow> <mo>|</mo> <mo>|</mo> <msub> <mrow> <mo>&amp;lsqb;</mo> <mrow> <mi>&amp;delta;</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>;</mo> <mi>P</mi> </mrow> <mo>)</mo> </mrow> </mrow> <mo>&amp;rsqb;</mo> </mrow> <mrow> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>&amp;Element;</mo> <mi>C</mi> </mrow> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> </mrow> </mfrac> </mrow>
其中,gc和δc分别为候选者c∈C归一化了的分类可靠性和表达误差。
12.根据权利要求7所述的移动目标跟踪系统,其特征在于,还包括:
更新模块,用于在保证所述目标样本数量一定的情况下,动态地更新所述最新定位目标并去除最早定位的目标,且所述目标样本中始终包括初始输入的目标;
所述学习模块,还用于按照预设周期基于所述目标样本和所述背景样本重新构建所述子空间和训练获得所述线性分类器。
CN201710516577.1A 2017-06-29 2017-06-29 移动目标跟踪方法及系统 Pending CN107729800A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710516577.1A CN107729800A (zh) 2017-06-29 2017-06-29 移动目标跟踪方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710516577.1A CN107729800A (zh) 2017-06-29 2017-06-29 移动目标跟踪方法及系统

Publications (1)

Publication Number Publication Date
CN107729800A true CN107729800A (zh) 2018-02-23

Family

ID=61201082

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710516577.1A Pending CN107729800A (zh) 2017-06-29 2017-06-29 移动目标跟踪方法及系统

Country Status (1)

Country Link
CN (1) CN107729800A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110189356A (zh) * 2019-04-24 2019-08-30 沈阳大学 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105096343A (zh) * 2015-08-14 2015-11-25 中国联合网络通信集团有限公司 一种移动目标跟踪方法及装置
CN106355204A (zh) * 2016-08-31 2017-01-25 武汉大学 基于贝叶斯学习和增量子空间学习的目标跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105096343A (zh) * 2015-08-14 2015-11-25 中国联合网络通信集团有限公司 一种移动目标跟踪方法及装置
CN106355204A (zh) * 2016-08-31 2017-01-25 武汉大学 基于贝叶斯学习和增量子空间学习的目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YAO SUI ET AL: "Discriminative Low-Rank Tracking", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110189356A (zh) * 2019-04-24 2019-08-30 沈阳大学 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法
CN110189356B (zh) * 2019-04-24 2023-05-12 沈阳大学 一种反向低秩稀疏约束下的融合Lasso目标跟踪方法

Similar Documents

Publication Publication Date Title
Mao et al. Multi-level motion attention for human motion prediction
Denton et al. Stochastic video generation with a learned prior
Reda et al. Unsupervised video interpolation using cycle consistency
Minhas et al. Incremental learning in human action recognition based on snippets
Shakeri et al. COROLA: A sequential solution to moving object detection using low-rank approximation
CN108229347B (zh) 用于人识别的拟吉布斯结构采样的深层置换的方法和装置
CN105144196B (zh) 用于计算相机或对象姿态的方法和设备
Del Bue et al. Non-rigid metric shape and motion recovery from uncalibrated images using priors
CN108960059A (zh) 一种视频动作识别方法及装置
CN107730482B (zh) 一种基于区域能量和方差的稀疏融合方法
US9247139B2 (en) Method for video background subtraction using factorized matrix completion
CN107203988B (zh) 一种由二维x光图像重建三维体图像的方法及其应用
EP3012781A1 (en) Method and apparatus for extracting feature correspondences from multiple images
US10657625B2 (en) Image processing device, an image processing method, and computer-readable recording medium
Yoo et al. Variational autoencoded regression: high dimensional regression of visual data on complex manifold
Larsson et al. Rank minimization with structured data patterns
Cho et al. Complex non-rigid 3D shape recovery using a procrustean normal distribution mixture model
Huber et al. Bayesian active object recognition via Gaussian process regression
CN116579966B (zh) 一种图像重建方法、装置、电子设备及存储介质
Boukhayma et al. Surface motion capture transfer with gaussian process regression
CN106971176A (zh) 基于稀疏表示的红外人体目标跟踪方法
CN104463245B (zh) 一种目标识别方法
CN107729800A (zh) 移动目标跟踪方法及系统
Ali et al. Deep multi view spatio temporal spectral feature embedding on skeletal sign language videos for recognition
Capogrosso et al. Split-et-impera: a framework for the design of distributed deep learning applications

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180223

RJ01 Rejection of invention patent application after publication