CN107330912A - 一种基于多特征融合的稀疏表示的目标追踪方法 - Google Patents

一种基于多特征融合的稀疏表示的目标追踪方法 Download PDF

Info

Publication number
CN107330912A
CN107330912A CN201710323852.8A CN201710323852A CN107330912A CN 107330912 A CN107330912 A CN 107330912A CN 201710323852 A CN201710323852 A CN 201710323852A CN 107330912 A CN107330912 A CN 107330912A
Authority
CN
China
Prior art keywords
mrow
msup
msub
msubsup
theta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710323852.8A
Other languages
English (en)
Other versions
CN107330912B (zh
Inventor
曹雯雯
康彬
陈舒康
颜俊
朱卫平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Post and Telecommunication University
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing Post and Telecommunication University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Post and Telecommunication University filed Critical Nanjing Post and Telecommunication University
Priority to CN201710323852.8A priority Critical patent/CN107330912B/zh
Publication of CN107330912A publication Critical patent/CN107330912A/zh
Application granted granted Critical
Publication of CN107330912B publication Critical patent/CN107330912B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2136Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明公开了一种基于多特征融合的稀疏表示的目标追踪方法,所述方法采用稀疏表示的目标追踪方法,包括训练核权重、获得粒子观测的稀疏表示以及稀疏重建算法三个部分。本发明将fisher判别标准引入多特征核函数权重训练模型中,可准确判断出特征向量的鲁棒性强弱,提升多特征核函数融合的可靠性;使采用混合范数自适应的选择相关高的粒子观察用于多任务稀疏重建,可有效排除非相关采样粒子的干扰;重构算法具有快速收敛性以及较强的鲁棒性。

Description

一种基于多特征融合的稀疏表示的目标追踪方法
技术领域
本发明属于图像处理技术技术领域,具体涉及一种基于多特征融合的稀疏表示目标追踪方法。
背景技术
图像信号处理一直是人们研究的热门领域,在移动互联的数据化时代,对于高效鲁棒性的图像处理技术的需求更是推动了该领域的长足发展,同时也对该领域的研究人员提出了更大的挑战。近年来,视频追踪将计算机视觉、模式识别、人工智能等学科的技术很好地融合在一起,成为视觉研究领域内一个非常活跃的分支。视频处理领域中的运动目标追踪主要是对传感器采集到的视频序列进行分析,提取场景中感兴趣的运动目标,给对应于同一目标的像素区域分配相同的标记,在连续的图像帧之间跟踪各个标记目标的位置、轮廓、形状、速度、纹理、颜色等特征信息的变化情况。实现目标跟踪的关键在于完整地分割目标、合理地提取特征和准确地识别目标,同时要考虑算法实现的时间,保证实时性。
近年来,稀疏表示方法已成为计算机视觉发展新的方向。稀疏表示的目的就是在给定的超完备字典中用尽可能少的原子来表示信号,可以获得信号更为简洁的表示方式,从而使我们更容易地获取信号中所蕴含的信息,更方便进一步对信号进行加工处理,如压缩、编码等。
设A为一过完备字典,A=[a1,a2,…,an]∈Rm×n,m<n,字典A中每个列向量为一个模板原子。观察样本y∈Rm×1可以通过字典A线性表示:
y=x1a1+x2a2+…+xnan (1)
上式中,x=[x1,x2,…,xn]T为y关于字典A的系数向量。由于m<n,所以上述线性方程是欠定的。稀疏表示指的是在求解欠定方程的过程中,对解向量x中非零元素个数进行约束,使得解向量x尽可能稀疏,即非零解个数尽可能少。对系数向量x加上稀疏约,则样本y关于字典A的系数求解变为如下所示:
x=arg minx||x||0subject to Ax=y (2)
上式中,||·||0是l0范数,表示向量里非零项的个数。在实际应用中,观察样本会受到噪声的影响,所以需要在线性方程中考虑误差,则优化问题变为:
x=arg minx||x||0subject to||y-Ax||2≤ε (3)
上式中,ε表示误差常数。
稀疏表示系数求解指的是给定观察样本y∈Rm×1和过完备字典A∈Rm×n,求解y关于A的稀疏向量x的过程。求解方式可以分为贪婪算法和凸松弛算法等。
典型的贪婪算法包括匹配追踪算法MP(Matching Pursuit)和正交匹配追踪OMP(Orthogonal Matching Pursuit)等。匹配追踪算法通过计算样本图像在过完备字典上的最佳非线性估计来直接得到信号的稀疏表示。匹配追踪算法迭代进行样本残差与字典中原子的内积计算并选择最佳原子,然后更新新样本与该原子投影的残差,最后算法在迭代结束时输出样本的最优稀疏估计。由于字典原子是不正交的,因此有可能被重复选择,导致匹配追踪算法可能出现不收敛的情况。在改进的正交匹配追踪算法中,样本残差总是与选择的字典原子正交,意味着同一个字典原子不会被重复选择,算法能保证有限迭代次数内收敛。
凸松弛法可将原本非凸的l0问题通过凸优化理论来求解。在受限等距约束(Restricted Isometry Property)条件下,l1范数与l0范数最小化问题有着相同的解。用l1范数取代上述优化问题中的l0范数,公式(3)变为:
x=arg minx||x||1subject to||y-Ax||2≤ε (4)
凸松弛处理后问题(4)常用的求解方法有内点方法(Interior Point methods)、同伦算法 (homotopy)、迭代收缩算法(Iterative Shrinkage)、近端梯度法(ProximalGradient methods) 和增广拉格朗日乘子法(Augmented Lagrange Multiplier)等。
目前,基于稀疏表示的目标追踪算法是学术界研究的热点,被称为L1tracker的经典追踪算法,因其单独对每个粒子采样观测值进行稀疏表示建模而使目标追踪具有较高复杂度。除此之外,独立构建的稀疏表示模型将忽略粒子关系使跟踪器出现目标漂移。将类似L1tracker 的稀疏表示目标追踪方法推向实际工程应用需解决如下问题:1)降低稀疏表示计算复杂度; 2)观测系数的有效融合方法;3)保证遮挡、光照变化等复杂场景下的追踪精度。已提出的目标追踪算法,重点针对以上一个或者两个难点展开的,并没有一种算法系统的对上述三个难点同时进行考虑。
发明内容
本发明针对基于稀疏表示的目标追踪方法推向实际工程应用的难点,提出了一种基于多特征融合的稀疏表示的目标追踪方法。
为解决上述技术问题,本发明所采用的技术方案是一种基于多特征融合的稀疏表示的目标追踪方法,包括如下步骤:
步骤A,训练核权重;
步骤B,获取观测粒子值;
步骤C,稀疏重构算法求解Θ;
步骤D,利用Θ进行状态估计。
进一步,上述步骤A中训练核权重的步骤为:
步骤A1,采用视频第一帧训练核权重wm,所提出的权重训练模型为:
步骤A2,用NSGA-Ⅱ算法求解权重训练模型中的Bm,最终的权重计算方法为:
进一步,上述步骤B获取观测粒子值又包含:
步骤B1,通过粒子滤波器获取当前帧的特征子空间的粒子观测值矩阵构建多任务稀疏表示模型来估计粒子观测矩阵的稀疏表示矩阵,稀疏表示模型如下表示:
步骤B2,为优化问题(6),其改进模型为:
进一步,上述步骤C中稀疏重构算法求解Θ又包含:
步骤C1,使用可微函数bu(·)来近似上述模型的l1范数,降低l1和l2,1的混合范数的计算复杂度,问题(7)转换为:
步骤C2,公式(8)可以使用APG算法来求解。
进一步,上述步骤D中利用Θ进行状态估计又包含:
步骤D1,观测可能值为:
步骤D2,更新粒子权重ωt为:
步骤D3,最终优化追踪结果为:
相比于现有技术,本发明的优点在于:
1)本发明将所有粒子采样观测向量统一起来组成观测向量矩阵,利用观测向量矩阵进行稀疏表示便于探究粒子采样观测向量间的相关性;
2)本发明在进行基于核函数的多特征融合时,能自适应训练核函数的加权系数,核函数的加权系数反映不同类型目标特征对于遮挡、光照变化等干扰的鲁棒性强弱,通过自适应训练的加权系数的训练可有效排除鲁棒性弱的目标外观特征对目标追踪造成的干扰;
3)本发明所构造的稀疏表示模型中稀疏字典的构造不需要众多模板向量,这将明显降低稀疏表示模型的运算复杂度;
4)本发明将fisher判别标准引入多特征核函数权重训练模型中,可准确判断出特征向量的鲁棒性强弱,提升多特征核函数融合的可靠性;使采用混合范数自适应的选择相关高的粒子观察用于多任务稀疏重建,可有效排除非相关采样粒子的干扰;重构算法具有快速收敛性以及较强的鲁棒性。
附图说明
图1本发明的的结构示意图。
图2本发明中稀疏建模流程图。
具体实施方式
现结合附图对本发明做详细的说明。本发明提出的基于多特征融合的稀疏表示目标追踪方法,其结构内容如图1所示。
本发明针对的是视频序列集,其处理流程为:采用视频第一帧训练核权重,将视频当前帧通过粒子滤波器获得粒子观测值,使用基于多特征稀疏表示的模型估计粒子观测值矩阵的稀疏表示稀疏,利用稀疏表示系数进行下一帧运动位置预测。整个目标追踪的详细实现步骤如下,其中稀疏建模流程图如图2所示:
步骤1:训练核权重,权重训练模型为:
其中,M表示目标模板中有M个特征;表示第m个特征空间中的采样矩阵;n是指特征空间中的采样粒子数目;而是在第m个采样空间里的第i个采样训练向量;是对矩阵Φ(Tm)进行稀疏优化后获取的稀疏表示系数矩阵;是第m个特征空间中的对角加权矩阵。本专利为训练Bm,先使用稀疏表示工具箱估计Xm,再采用NSGA-Ⅱ算法获取Bm中不同特征向量。其中目标函数的数目 M取为256,粒子数n为400,NSGA-Ⅱ算法集群数N为50。内核函数映射结果wm的计算方法为
步骤2:通过粒子滤波器获取当前帧在不同特征子空间的粒子观测值矩阵构建多特征稀疏表示模型来估计粒子观测矩阵的稀疏表示矩阵,发明基于多特征的稀疏表示模型,如下所示:
上述模型中,M表示M个目标外观特征,Am是第m个特征的目标模板矩阵,包括目标模板向量和背景模板向量,设置为Ai∈R256×20(i=1,2,3);是第m个特征空间的粒子观测矩阵;wm(m=1,2,...,M)是核函数的权重系数;称为混合范数。使用混合范数可以自适应地选择高度相关的粒子观测值用于多任务稀疏重建。该模型采用不同特征映射函数的加权组合来表示目标模板,这样做的优点是可实现特征之间的互补。
为求解问题(12),需先将(12)改写为:
式(13)中K(A,A)是核矩阵,它的计算方式为[K[A,A]]i,j=φ(ai)Tφ(aj)=k(ai,aj),其中k(·)是核函数。核函数的表达式为:k(ai,aj)=(<xi,xj>+1)p。相似的K(A,Y)是另一种核矩阵,计算公式为 [K[A,Y]]i,j=φ(ai)Tφ(yj)=k(ai,yj);tr(·)表示一个矩阵的轨迹。
步骤3:为了解决模型中混合范数所引起的不平滑问题,本发明采用可微函数bu(·)来近似问题中的l1范数,模型(13)转换为:
可微函数bu(·)定义为V*=S(μ-1Θ)。设a为一个标量, S(a)=min(1,max(-1,a))。S(μ-1Θ)输出为矩阵,矩阵中的每个元素用S(·)计算。由于bu(·)是可微的,本发明采用APG算法解决问题(14),同时可以达到快速收敛。
完整稀疏重构具体算法流程如下:
首先,输入参数K1,K2,λ1和λ2,设置λ1=0.001τ,λ2=0.001(1-τ),而且τ∈[0,1],输出结果为Θ。
步骤Ⅰ,初始化参数
初始化k=0,Θ0=U0=H0=0,以及
步骤Ⅱ,判断公式是否收敛,如果不收敛,转到步骤Ⅲ;如果收敛,算法结束。
步骤Ⅲ,更新Hk
Hk+1=Uk-η(K1Uk-K21V*)
步骤Ⅳ,最小化
步骤Ⅴ,更新
步骤Ⅵ,更新Uk
步骤Ⅶ,迭代更新
将迭代次数加一,转到步骤Ⅱ。
上述迭代更新过程中,首先要判断算式是否收敛,在不收敛的情况下进行迭代。在H的第k+1次迭代更新过程中,先通过已知参数:η=0.01,V*,输入的参数K1、K2以及λ1,根据步骤里的等式迭代更新获得Hk+1。然后对简化模型优化,得到Θ。对参数α更新,并带入 Uk的迭代更新等式里,这时候得到的是Uk+1与Θk+1的一个关系式。迭代更新后再进行收敛判断,如果仍然不收敛,此时继续开始更新Hk,同时也是得到由Θk表示的一个等式。对Θk最小优化又一次得到一个Θ值。如此循环迭代,直到Θ收敛为止。
步骤4:得到Θ后可以判断最优追踪结果。本发明的追踪算法中的观测可能值为:
式(15)中,是控制高斯模型形状的参数;Γ是一个标准化系数。
根据更新粒子权重ωt,更新公式为最终优化的追踪结果在t 帧时可以计算为:
本发明对目标外观可以在遮挡、背景杂波或照明改变等情况下都能很好的追踪,表现出基于多特征融合的稀疏表示目标追踪方法有较高的精度。为了验证本发明所提的算法功能,实验仿真首先选取了20个视频序列来评估我们提出的视觉跟踪算法的性能,这些视频序列在以下意义上是非常具有挑战性的:它们包含许多对视觉跟踪的不利因素,例如:快速运动,姿态和尺度的大变化,遮挡和非刚性物体变形等。实验对比了提出的跟踪算法与八个最先进的方法:IVT、CT、11-APG、MTT、LRT、PLS、CSK和基于KSR的追踪方法(KSRT)。首先,本发明使用慢跑和地铁序列,分别使用等核权重的单核和多核融合结果分方法,以及本发明提出的方法。实验结果很明显看出所提出的内核权重训练模型可以给出最佳融合结果并增强跟踪性能。然后,再挑选6个具有挑战性的视频序列,分别有快速移动和移动模糊、尺度和姿势的变化、照明变化和严重遮挡的问题。各个问题的视频序列在使用本发明提出的模型都能很好的识别出目标,正确追踪。这说明新的稀疏表示模型具有很好的鲁棒性。
应当理解的是,上述针对本发明实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本发明的专利保护范围应以所附权利要求书为准。

Claims (5)

1.一种基于多特征融合的稀疏表示的目标追踪方法,其特征在于包含以下步骤:
步骤A,训练核权重;
步骤B,获取观测粒子值;
步骤C,稀疏重构算法求解Θ;
步骤D,利用Θ进行状态估计。
2.根据权利要求1所述的一种基于多特征融合的稀疏表示的目标追踪方法,其特征在于,所述步骤A中训练核权重的步骤为:
步骤A1,采用视频第一帧训练核权重wm,所提出的权重训练模型为:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <munder> <mi>min</mi> <mrow> <msup> <mi>B</mi> <mn>1</mn> </msup> <mo>,</mo> <msup> <mi>B</mi> <mn>2</mn> </msup> <mo>,</mo> <mn>...</mn> <mo>,</mo> <msup> <mi>B</mi> <mi>M</mi> </msup> </mrow> </munder> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <mo>|</mo> <mo>|</mo> <mrow> <mo>(</mo> <mi>&amp;Phi;</mi> <mo>(</mo> <msup> <mi>T</mi> <mi>m</mi> </msup> <mo>)</mo> <mo>-</mo> <mi>&amp;Phi;</mi> <mo>(</mo> <msup> <mi>A</mi> <mi>m</mi> </msup> <mo>)</mo> <msup> <mi>X</mi> <mi>m</mi> </msup> <mo>)</mo> </mrow> <msup> <mi>B</mi> <mi>m</mi> </msup> <mo>|</mo> <msubsup> <mo>|</mo> <mi>F</mi> <mn>2</mn> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <munder> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> <mrow> <msup> <mi>B</mi> <mn>1</mn> </msup> <mo>,</mo> <msup> <mi>B</mi> <mn>2</mn> </msup> <mo>,</mo> <mo>...</mo> <mo>,</mo> <msup> <mi>B</mi> <mi>M</mi> </msup> </mrow> </munder> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <munderover> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>u</mi> <mo>&amp;NotEqual;</mo> <mi>m</mi> </mrow> </munder> <mrow> <mi>u</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <mo>|</mo> <mo>|</mo> <mrow> <mo>(</mo> <mi>&amp;Phi;</mi> <mo>(</mo> <msup> <mi>T</mi> <mi>u</mi> </msup> <mo>)</mo> <mo>-</mo> <mi>&amp;Phi;</mi> <mo>(</mo> <msup> <mi>A</mi> <mi>m</mi> </msup> <mo>)</mo> <msup> <mi>X</mi> <mi>m</mi> </msup> <mo>)</mo> </mrow> <msup> <mi>B</mi> <mi>u</mi> </msup> <mo>|</mo> <msubsup> <mo>|</mo> <mi>F</mi> <mn>2</mn> </msubsup> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
步骤A2,用NSGA-Ⅱ算法求解权重训练模型中的Bm,最终的权重计算方法为:
3.根据权利要求1所述的一种基于多特征融合的稀疏表示的目标追踪方法,其特征在于,所述步骤B获取观测粒子值的步骤为:
步骤B1,通过粒子滤波器获取当前帧的特征子空间的粒子观测值矩阵构建多任务稀疏表示模型来估计粒子观测矩阵的稀疏表示矩阵,稀疏表示模型如下表示:
<mrow> <munder> <mi>min</mi> <mi>&amp;Theta;</mi> </munder> <mi>&amp;lambda;</mi> <mo>|</mo> <mo>|</mo> <mi>&amp;Theta;</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mo>*</mo> <mi>&amp;gamma;</mi> </msubsup> <mo>+</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>|</mo> <mo>|</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>w</mi> <mi>m</mi> </msub> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <msub> <mi>Y</mi> <mi>m</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>&amp;lsqb;</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>w</mi> <mi>m</mi> </msub> <mi>&amp;Phi;</mi> <mrow> <mo>(</mo> <msup> <mi>A</mi> <mi>m</mi> </msup> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mi>&amp;Theta;</mi> <mo>|</mo> <msubsup> <mo>|</mo> <mi>F</mi> <mn>2</mn> </msubsup> <mo>;</mo> </mrow>
步骤B2,为优化问题,其改进模型为:
<mrow> <munder> <mi>min</mi> <mi>&amp;Theta;</mi> </munder> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mi>&amp;Theta;</mi> <mi>T</mi> </msup> <msub> <mi>K</mi> <mn>1</mn> </msub> <mi>&amp;Theta;</mi> <mo>-</mo> <msubsup> <mi>K</mi> <mn>2</mn> <mi>T</mi> </msubsup> <mi>&amp;Theta;</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>1</mn> </msub> <mo>|</mo> <mo>|</mo> <mi>&amp;Theta;</mi> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>2</mn> </msub> <mo>|</mo> <mo>|</mo> <mi>&amp;Theta;</mi> <mo>|</mo> <msub> <mo>|</mo> <mrow> <mn>2</mn> <mo>,</mo> <mn>1</mn> </mrow> </msub> <mo>.</mo> </mrow>
4.根据权利要求1所述的一种基于多特征融合的稀疏表示的目标追踪方法,其特征在于,所述步骤C稀疏重构算法求解Θ的具体步骤为:
步骤C1,使用可微函数bu(·)来近似上述模型的l1范数,降低l1和l2,1的混合范数的计算复杂度,问题转换为:
<mrow> <munder> <mi>min</mi> <mi>&amp;Theta;</mi> </munder> <mi>t</mi> <mi>r</mi> <mrow> <mo>(</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msup> <mi>&amp;Theta;</mi> <mi>T</mi> </msup> <msub> <mi>K</mi> <mn>1</mn> </msub> <mi>&amp;Theta;</mi> <mo>-</mo> <msubsup> <mi>K</mi> <mn>2</mn> <mi>T</mi> </msubsup> <mi>&amp;Theta;</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>1</mn> </msub> <msub> <mi>b</mi> <mi>u</mi> </msub> <mrow> <mo>(</mo> <mi>&amp;Theta;</mi> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>2</mn> </msub> <mo>|</mo> <mo>|</mo> <mi>&amp;Theta;</mi> <mo>|</mo> <msub> <mo>|</mo> <mrow> <mn>2</mn> <mo>,</mo> <mn>1</mn> </mrow> </msub> <mo>;</mo> </mrow>
步骤C2,使用APG算法来求解。
5.根据权利要求1所述的一种基于多特征融合的稀疏表示的目标追踪方法,其特征在于,所述步骤D利用Θ进行状态估计的具体步骤为:
步骤D1,观测可能值为:
<mrow> <mi>p</mi> <mrow> <mo>(</mo> <msup> <mi>y</mi> <mi>t</mi> </msup> <mo>|</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mi>t</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mi>&amp;Gamma;</mi> </mfrac> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mo>&amp;part;</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>m</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>w</mi> <mi>m</mi> </msub> <mo>|</mo> <mo>|</mo> <mi>&amp;Phi;</mi> <mo>(</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>)</mo> <mo>-</mo> <mi>&amp;Phi;</mi> <mo>(</mo> <mi>A</mi> <mo>)</mo> <msub> <mi>&amp;theta;</mi> <mi>i</mi> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> <mo>)</mo> </mrow> <mo>;</mo> </mrow> 1
步骤D2,更新粒子权重ωt为:
步骤D3,最终优化追踪结果为:
<mrow> <msup> <mover> <mi>x</mi> <mo>&amp;OverBar;</mo> </mover> <mi>t</mi> </msup> <mo>=</mo> <mfrac> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </msubsup> <msubsup> <mi>&amp;omega;</mi> <mi>i</mi> <mi>t</mi> </msubsup> <msubsup> <mi>x</mi> <mi>i</mi> <mi>t</mi> </msubsup> </mrow> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </msubsup> <msubsup> <mi>&amp;omega;</mi> <mi>i</mi> <mi>t</mi> </msubsup> </mrow> </mfrac> <mo>.</mo> </mrow> 2
CN201710323852.8A 2017-05-10 2017-05-10 一种基于多特征融合的稀疏表示的目标追踪方法 Active CN107330912B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710323852.8A CN107330912B (zh) 2017-05-10 2017-05-10 一种基于多特征融合的稀疏表示的目标追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710323852.8A CN107330912B (zh) 2017-05-10 2017-05-10 一种基于多特征融合的稀疏表示的目标追踪方法

Publications (2)

Publication Number Publication Date
CN107330912A true CN107330912A (zh) 2017-11-07
CN107330912B CN107330912B (zh) 2021-06-11

Family

ID=60192577

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710323852.8A Active CN107330912B (zh) 2017-05-10 2017-05-10 一种基于多特征融合的稀疏表示的目标追踪方法

Country Status (1)

Country Link
CN (1) CN107330912B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111328015A (zh) * 2020-01-28 2020-06-23 浙江大学 一种基于Fisher信息距离的无线传感器网络目标跟踪方法
CN113537302A (zh) * 2021-06-24 2021-10-22 四川大学 一种多传感器随机化数据关联融合方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930301A (zh) * 2012-10-16 2013-02-13 西安电子科技大学 基于特征权重学习与核稀疏表示的图像分类方法
CN103077535A (zh) * 2012-12-31 2013-05-01 中国科学院自动化研究所 一种基于多任务联合稀疏表示的目标跟踪方法
CN103295242A (zh) * 2013-06-18 2013-09-11 南京信息工程大学 一种多特征联合稀疏表示的目标跟踪方法
CN104484890A (zh) * 2014-12-18 2015-04-01 上海交通大学 基于复合稀疏模型的视频目标跟踪方法
CN104899567A (zh) * 2015-06-05 2015-09-09 重庆大学 基于稀疏表示的小弱运动目标跟踪方法
CN105469431A (zh) * 2015-12-21 2016-04-06 电子科技大学 基于稀疏子空间的追踪方法
CN106530330A (zh) * 2016-12-08 2017-03-22 中国人民解放军国防科学技术大学 基于低秩稀疏的视频目标跟踪方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102930301A (zh) * 2012-10-16 2013-02-13 西安电子科技大学 基于特征权重学习与核稀疏表示的图像分类方法
CN103077535A (zh) * 2012-12-31 2013-05-01 中国科学院自动化研究所 一种基于多任务联合稀疏表示的目标跟踪方法
CN103295242A (zh) * 2013-06-18 2013-09-11 南京信息工程大学 一种多特征联合稀疏表示的目标跟踪方法
CN104484890A (zh) * 2014-12-18 2015-04-01 上海交通大学 基于复合稀疏模型的视频目标跟踪方法
CN104899567A (zh) * 2015-06-05 2015-09-09 重庆大学 基于稀疏表示的小弱运动目标跟踪方法
CN105469431A (zh) * 2015-12-21 2016-04-06 电子科技大学 基于稀疏子空间的追踪方法
CN106530330A (zh) * 2016-12-08 2017-03-22 中国人民解放军国防科学技术大学 基于低秩稀疏的视频目标跟踪方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111328015A (zh) * 2020-01-28 2020-06-23 浙江大学 一种基于Fisher信息距离的无线传感器网络目标跟踪方法
CN111328015B (zh) * 2020-01-28 2021-02-26 浙江大学 一种基于Fisher信息距离的无线传感器网络目标跟踪方法
CN113537302A (zh) * 2021-06-24 2021-10-22 四川大学 一种多传感器随机化数据关联融合方法
CN113537302B (zh) * 2021-06-24 2023-05-26 四川大学 一种多传感器随机化数据关联融合方法

Also Published As

Publication number Publication date
CN107330912B (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
Qin et al. U2-Net: Going deeper with nested U-structure for salient object detection
Li et al. Infrared and visible image fusion using a deep learning framework
Li et al. Unsupervised learning of edges
CN112052886A (zh) 基于卷积神经网络的人体动作姿态智能估计方法及装置
CN110689543A (zh) 基于注意机制的改进卷积神经网络脑肿瘤图像分割方法
CN108710830A (zh) 一种结合密集连接注意力金字塔残差网络和等距限制的人体3d姿势估计方法
CN108764308A (zh) 一种基于卷积循环网络的行人重识别方法
CN108960059A (zh) 一种视频动作识别方法及装置
CN112465827A (zh) 一种基于逐类卷积操作的轮廓感知多器官分割网络构建方法
CN107680116A (zh) 一种监测视频图像中运动目标的方法
CN109711401A (zh) 一种基于Faster Rcnn的自然场景图像中的文本检测方法
Li et al. SEGAN: structure-enhanced generative adversarial network for compressed sensing MRI reconstruction
CN110648311A (zh) 一种基于多任务学习的痤疮图像病灶分割与计数网络模型
CN104899896A (zh) 一种基于子空间特征的多任务学习目标跟踪方法
CN107330912A (zh) 一种基于多特征融合的稀疏表示的目标追踪方法
CN113034371B (zh) 一种基于特征嵌入的红外与可见光图像融合方法
Wang et al. AST-Net: Lightweight hybrid transformer for multimodal brain tumor segmentation
Zhou et al. Multi-objective evolutionary generative adversarial network compression for image translation
Chen et al. Teacher-student knowledge distillation for real-time correlation tracking
Tang et al. MPCFusion: Multi-scale parallel cross fusion for infrared and visible images via convolution and vision Transformer
Li et al. Deformable medical image registration based on unsupervised generative adversarial network integrating dual attention mechanisms
CN117079095A (zh) 基于深度学习的高空抛物检测方法、系统、介质和设备
CN114821632A (zh) 一种遮挡行人重识别方法
CN114140524A (zh) 一种多尺度特征融合的闭环检测系统及方法
CN115205308A (zh) 一种基于线状滤波和深度学习的眼底图像血管分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant