CN109272533B - 一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法 - Google Patents

一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法 Download PDF

Info

Publication number
CN109272533B
CN109272533B CN201811187764.0A CN201811187764A CN109272533B CN 109272533 B CN109272533 B CN 109272533B CN 201811187764 A CN201811187764 A CN 201811187764A CN 109272533 B CN109272533 B CN 109272533B
Authority
CN
China
Prior art keywords
compact
tracking
template
template set
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811187764.0A
Other languages
English (en)
Other versions
CN109272533A (zh
Inventor
秦学英
王同翰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201811187764.0A priority Critical patent/CN109272533B/zh
Publication of CN109272533A publication Critical patent/CN109272533A/zh
Application granted granted Critical
Publication of CN109272533B publication Critical patent/CN109272533B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于紧致表达的物体鲁棒跟踪装置及其跟踪方法,属于物体跟踪技术领域。本发明用于在虚拟现实环境下实现鲁棒跟踪的物体紧致表达(字典)的方法,方法主要为捕获目标的子图像、构建实例池、学习紧凑模板、扩充实例池得到最优模板、计算物体二维位置、三维物体轨迹和模拟虚拟物体等,其基本思想是利用稀疏表达基于有关目标的图像数据学习描述物体的紧致表达;实现方法包括三个步骤,首先收集包含目标的图像,其次利用稀疏表达的残差初始化一个字典,最后利用支持向量机寻找目标流形上的稀疏区域,通过再采样和第二步中的方法构造一个完备字典。该方法可以学习到一个目标的紧致且完备的表达,可用来在虚拟现实应用中实现鲁棒跟踪。

Description

一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法
技术领域
本发明涉及一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法,属于物体跟踪技术领域。
背景技术
增强现实(Augmented Reality,简称AR)应用需要实现对真实世界动态物体的认知,从而获得对于运动物体的适当响应。物体跟踪提供了兴趣对象在画面中的空间信息,但鲁棒而准确的追踪往往是一个困难的任务。一旦跟踪失败,增强现实应用就失去了对物体的感知,从而无法进行正确的反馈,导致系统失败。其中,由于观察角度变化、物体自身的动态性、遮挡造成目标的外观变化、光照环境的变化,是追踪失败的一个主要原因。为此,要实现准确鲁棒的追踪,我们需要一个物体外观的全面表达,同时,考虑到实时性要求,这个全面的表达必须是紧致的。
物体的视觉跟踪是计算机视觉的经典问题,主要分为生成式的跟踪和判别式的跟踪。视觉跟踪存在两个基本问题,即如何有效地表示目标,即通常所说的外观表示模型,以及如何有效地找到目标,也即通常所说的目标搜索策略。这两个问题是相辅相成的:精确的外观表示模型使得物体与背景具有良好的区分度,从而能够准确地定位目标;但是精确的目标常常导致其表述的复杂性,从而导致搜索计算的效率降低。如果要保持其实时性,往往需要外观表示具有精炼性。由于一般的目标跟踪跟踪问题仅有第一帧的目标定义,其外观的定义往往是不完整的,导致在其发生动态变化时,外观与初始定义的模板差异过大,导致跟踪的失败。因此,下面分别阐述这两方面的进展情况。
外观表示模型是指如何有效地表示被跟踪物体。常见的外观表示模型有基于概率密度表示的、基于协方差矩阵表示的、基于模板表示的、基于稀疏表示的、基于判别学习的,等等。但是,这些目标的表示方法都是对于一个目标初始帧的表示方法,并允许在跟踪过程中逐渐丰富其表达。然而,无论采用何种方式,都无法保障完全准确的跟踪结果。一旦发生跟踪错误,这种错误又被集成到物体的表达之中时,物体的外观表示就形成了错误的表达,很容易导致后续跟踪的失败。
目标的搜索策略主要用来确定目标在视频帧画面中的位置,在跟踪过程中也起着关键作用。其主要涉及到跟踪的效率问题。常用的有基于迭代搜索的策略、基于滑动窗口的策略、以及基于随机采样的策略。由于目标在画面上的运动往往具有很大的随机性,尽管随机采样相比于滑动窗口策略可以大大减少采样数量,但往往也需要很大样本进行计算。比如在目标跟踪过程中,通常需要600个采样点才能获得比较好的性能。因此,在实际跟踪过程中,即使采用随机采样的策略,对一些比较耗时的外观表示模型,尤其是具有复杂表示物体模型来说,要想实现实时的目标跟踪还是异常困难。
为了提高目标跟踪的精确性和鲁棒性,已经提出了很多策略,采用多跟踪器策略,从中选用最佳结果,可以明显提高准确性;采用多示例学习的方法,也能提高跟踪器从偶然错误中恢复的性能。基于检测的跟踪方法,则采取检测的方法进行跟踪。尤其是深度卷积神经网络出现后,也出现了很多深度网络的跟踪方法,提高了跟踪器的性能。但是,深度学习一般针对通用目标,仍未解决特定目标的鲁棒跟踪问题。
发明内容
针对现有技术的不足,本发明提供一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法,通过稀疏表示模型,快速获取与紧凑模板表示最为相似的目标,从而实现实时、鲁棒、稳定的跟踪效果。
术语解释:SVM,支持向量机(Support Vector Machine,简称SVM)。
本发明采用以下技术方案:
一方面,本发明提供一种基于紧致表达的物体鲁棒性跟踪装置,包括计算机和与其连接的摄像头,可通过数据连接一台计算机和一台摄像机实现。
另一方面,本发明还提供一种上述基于紧致表达的物体鲁棒跟踪装置的跟踪方法,包括以下步骤:
1)建立完备紧致的目标字典;为了在无标记AR环境中实现稳健跟踪,我们首先需要创建对象的表示,我们将这个问题视作构建目标对象的所有可能外观的标准化子图像的高维流形的一种表示。
1.1)从多个视角、多个背景下和在变化的光照条件下通过摄像头捕获关于目标的子图像;需要注意这些子图像不应有任何遮挡,为了方便大量、快速地获取这样的图像,可以利用拍摄的视频序列和计算机合成的图像,这些子图像应该构成关于目标的完备描述,即他们应该包含了目标在各种角度、各种光照条件、各种背景下的图像。
1.2)由步骤1.1)得到的子图像组成实例池,从实例池中,通过稀疏字典学习的迭代方法,采取顺序倒序相间的方法构建紧凑的模板集;可以通过学习表示物体的所有图像构成的流形空间中的一组紧凑模板,该组模板也是一组图像,存贮于指定目录中;这组模板就是实例池中图像的紧凑表达,因为这组紧凑模板中的图像,在预先定义的误差范围内,使得实例池中的任何一幅图像,都可以在误差范围内,由紧凑模板来表示;
1.3)通过使用基于SVM的稀疏度检测方法确保步骤1.2)模板集是真正完备且紧致的;步骤1.2)能保证当前模板集对于当前的实例池是完备集凑的,但却无法保证对于目标满足这个条件,这是因为实例池中的实例可能不完备。使用支持向量机SVM来检测实例池中实例的完备性;若实例在流形上某个区域是稀疏的,那么用SVM(由所有实例作为正样例训练而来)确定的分界线在该区域将是模糊的,其后果是若用该SVM来分类,在这个区域将会有很多分类错误;利用这一观察,用这样的SVM来对整个实例池中的实例进行分类,如果在某些相类似的实例上SVM的错误率超过了某个阈值,那么认为在这些实例附近需要进行再采样;实验证明这样的稀疏检测算法确实检测出了流形上的样例稀疏区域;
1.4)再采样扩充原实例池,产生新的实例池,不断重复步骤1.2)和步骤1.3),直至新的实例池相对于前一实例池不再增大,得到最优的模板集;
1.5)将步骤1.4)得到的最优的模板集被用于视频和增强现实系统中在线跟踪目标,通过稀疏表示判断最终目标的位置;
2)将步骤1)得到的目标字典用于增强现实应用中,将图像的对象区域转换为三维空间区域。
优选的,步骤1.2)中,稀疏字典学习的迭代方法实现的优化方程如下:
Figure BDA0001826682130000031
Figure BDA0001826682130000032
Figure BDA0001826682130000033
其中,T为当前模板集,T*则是最终求解到的最优的模板集,xj为实例池中的一个实例,j=1,2,...,m,m为实例个数,||·||2表示l2范数,μ、λ为设定常数,cols(T)为模板集含有的模板的数量,α为稀疏系数向量,
Figure BDA0001826682130000034
为式(2)中稀疏表达xj的最佳系数向量,其求解方法与已有方法相同,这个系数向量
Figure BDA0001826682130000035
进一步用于式(1)中,用来求解紧凑模板集,本质上是决定是否加入xj到紧凑模板集中。
优选的,稀疏字典学习的迭代方法的渐进式的模板构建方法,采取顺序倒序相间的方法构建模板集,具体过程为:
初始化模板集由实例池中最初的若干个随机选择的实例构成(例如10个实例、8个实例或者9个实例均可,只要保证2个及以上即可),设当前模板集为T(k),则xj通过模板集T(k)的稀疏表示,通过优化如下方程获得:
Figure BDA0001826682130000041
Figure BDA0001826682130000042
其中,xj为实例池中的一个实例,j=1,2,...,m,m为实例个数,||·||2表示l2范数,λ为设定常数,α为稀疏系数向量,
Figure BDA0001826682130000043
为稀疏表达xj的最佳系数向量;
定义误差函数:
Figure BDA0001826682130000044
则error表示了实例xj由模板集为T(k)重构时的误差;设定一个阈值τ2,如果error>τ2,则认为T(k)不能良好地表达xj,因此将xj加入T(k),得到T(k+1),这个过程对实例池中所有的实例xj都顺序进行一遍,完成一次顺序执行的模板选择;
在完成一次顺序选择之后,可以保证实例池中所有的实例都可以被模板集中的某些模板准确地稀疏表示,但是,并不能保证这个模板集是紧凑的,其中很可能存在一些冗余的模板,即使它们不存在于模板集中,实例池中的实例也能被很好的表达;通过倒序排序排查模板集中的每一个模板,如果该模板xj能够被T(k)中除xj以外的其它模板准确地稀疏表达,即error≤τ2,那么该模板将被从模板集中删除,得到模板集T(k-1)
将顺序添加和倒叙排除将交替进行,直至模板集不发生变化或者表达的总参差不再明显下降为止。
优选的,步骤2)中包括通过约束和先验将图像中的对象区域转换为物理世界中的三维空间区域,具体过程为:约束条件是场景中的几何形状,由三维模型表示,通过目标跟踪获得在图像上的区域,根据约束条件建立该区域与约束条件的交点,由搭载摄像头的相机位置与该位置连接构成一条射线,该射线与约束条件定义的几何形状求交,获得一个三维空间点;再由对象的先验信息,如:大致的圆柱体、球体等,根据图像区域的大小,推算其在三维空间所占据的体积,完成二维区域到三维区域的转换,虚拟人将根据检测出的真实物体的空间区域进行路径规划,输出虚实融合场景;在完成该二维区域到三维空间区域的转换过程中,我们先后用到了相机定标和场景定标,该标定过程将确定转换所需的变换矩阵,依据该三维空间区域,在AR环境中可以避免虚拟物体和行人之间发生空间碰撞,在此期间跟踪中的三维形状变形被忽略。
本发明的方法,用于在虚拟现实环境下实现鲁棒跟踪的物体紧致表达(字典)的方法,其基本思想是利用稀疏表达基于有关目标的图像数据学习描述物体的紧致表达;实现方法包括三个步骤,首先收集包含目标的图像,其次利用稀疏表达的残差初始化一个字典,最后利用支持向量机寻找目标流形上的稀疏区域,通过再采样和第二步中的方法构造一个完备字典;该方法可以学习到一个目标的紧致且完备的表达,可用来在虚拟现实应用中实现鲁棒跟踪,未详尽说明之处,均可采用本领域的常规技术实施。
本发明的有益效果为:
1.本发明预先构建了跟踪目标对象的紧凑模板表示,该表示采用最为紧致的表达,表示对象在各种环境和光照条件下以及各种动态间的外观图像所形成的流形空间。
2.本发明采用该紧凑模板表示进行目标跟踪,通过稀疏表示模型,快速获取与紧凑模板表示最为相似的目标,从而实现实时、鲁棒、稳定的跟踪效果。
3.本发明用于增强现实环境中,基于环境中的约束条件,提供目标的空间位置,从而实现目标三维空间的定位,以及与虚拟物体间的交互。
4.本发明提出了一种全新的基于线性编码的搜索策略,该策略通过吸收迭代搜索策略和随机采样搜索策略的优点,在随机采样的基础上,在物体的外观空间构建一个连续的空间,从而可以迭代搜索的得到目标解,而不需要像粒子滤波一样,需要分别计算每个采样点的权重值,从而可以大大减少时间,同时也取得了比粒子滤波更加准确的解。
附图说明
图1为本发明的基于紧致表达的物体鲁棒跟踪装置的结构示意图;
图2为本发明的基于紧致表达的物体鲁棒跟踪装置的跟踪方法的流程示意图;
图3为本发明的一个实施例的过程示意图;
图4(a)、4(b)、4(c)、4(d)、4(e)、4(f)、4(g)、4(h)分别为对比例1-13和本发明在不同条件下标准数据集上的不同方法的运行结果对比;
图5(a)、5(b)、5(c)、5(d)、5(e)、5(f)、5(g)、5(h)、5(i)、5(j)、5(k)、5(l)分别为对比例1-13和本发明一个视频序列上不同方法的运行的结果图。
具体实施方式:
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述,但不仅限于此,本发明未详尽说明的,均按本领域常规技术。
实施例1:
如图1所示,一种基于紧致表达的物理鲁棒跟踪装置,包括计算机和与其连接的摄像头。
实施例2:
一种基于紧致表达的物理鲁棒跟踪方法,如图2所示,包括以下步骤:
1)构建完备紧致的目标字典。为了在无标记AR环境中实现稳健跟踪,我们首先需要创建对象的表示,我们将这个问题视作构建目标对象的所有可能外观的标准化子图像的高维流形的一种表示。具体分为以下五个步骤:
1.1)从多个视角、多个背景下和在变化的光照条件下通过摄像头捕获关于目标的子图像,组成实例池,需要注意这些子图像不应有任何遮挡。为了方便大量、快速地获取这样的图像,可以利用拍摄的视频序列和计算机合成的图像。这些子图像应该构成关于目标的完备描述,即他们应该包含了目标在各种角度、各种光照条件、各种背景下的图像。
1.2)由这些子图像组成的实例池,采用文件列表的方式存储于指定目录。从实例池中,通过稀疏字典学习的迭代方法,学习表示物体的所有图像构成的流形空间中的一组紧凑模板,该组模板也是一组图像,存贮于指定目录中。这组模板就是实例池中图像的紧凑表达,因为这组紧凑模板中的图像,在预先定义的误差范围内,使得实例池中的任何一幅图像,都可以在误差范围内,由紧凑模板来表示。稀疏字典学习迭代方法的详细步骤如下:
实现的优化总的优化方程如下:
Figure BDA0001826682130000061
Figure BDA0001826682130000062
Figure BDA0001826682130000063
其中:T为当前模板集,T*则是最终求解到的最优的模板集,是由多个紧凑模板构成的,xj为实例池中的一个实例,j=1,2,...,m,m为实例个数,||·||2表示l2范数,μ、λ为设定常数,cols(T)为模板集含有的模板的数量,α为稀疏系数向量,
Figure BDA0001826682130000064
为式(2)中,稀疏表达xj的最佳系数向量,其求解方法与已有方法相同。这个系数向量
Figure BDA0001826682130000071
进一步用于式(1)中,用来求解紧凑模板集,本质上是决定是否加入xj到紧凑模板集中。
针对式(1)、(2)提出一个渐进式的模板构建方法,该方法采取顺序倒序相间的方法来构建模板集。具体来说,初始化模板集由实例池中最初10个随机选择的实例构成;设当前模板集为T(k),则xj通过模板集T(k)的稀疏表示,通过优化如下方程获得:
Figure BDA0001826682130000072
Figure BDA0001826682130000073
其中的参数与式(1)、(2)相同;
定义表示误差函数:
Figure BDA0001826682130000074
则error表示了实例xj由模板集为T(k)重构时的误差;设定一个阈值τ2,如果error>τ2,则认为T(k)不能良好地表达xj,因此将xj加入T(k),得到T(k+1);这个过程对实例池中所有的实例xj都顺序进行一遍,完成一次顺序执行的模板选择;
在完成一次顺序选择之后,可以保证实例池中所有的实例都可以被模板集中的某些模板准确地稀疏表示,但是,我们现在并不能保证这个模板集是紧凑的,因为其中很可能存在一些冗余的模板,即使它们不存在于模板集中,实例池中的实例也能被很好的表达,于是需要一个倒序的排除过程,排查模板集中的每一个模板,如果该模板xj能够被T(k)中除xj以外的其它模板准确地稀疏表达(即error≤τ2),那么该模板将被从模板集中删除,得到模板集T(k-1)
顺序添加和倒叙排出将交替进行,直至模板集不发生变化或者表达的总参差不再明显下降为止;
1.3)通过使用基于SVM的稀疏度检测方法确保模板集是真正完备且紧致的,步骤1.2)能保证当前模板集对于当前的实例池是完备集凑的,但却无法保证对于目标满足这个条件,这是因为实例池中的实例可能不完备。我们使用支持向量机SVM来检测实例池中实例的完备性;若实例在流形上某个区域是稀疏的,那么用SVM(由所有实例作为正样例训练而来)确定的分界线在该区域将是模糊的,其后果是若用该SVM来分类,在这个区域将会有很多分类错误。我们利用了这一观察,用这样的SVM来对整个实例池中的实例进行分类,如果在某些相类似的实例上SVM的错误率超过了某个阈值,那么我们认为在这些实例附近需要进行再采样,实验证明这样的稀疏检测算法确实检测出了流形上的样例稀疏区域。
1.4)再采样扩充原实例池,产生了新的实例池,在该实例池上,1.2)和1.3)将被重复,直至实例池不再增大。关于目标的完备紧致描述将从该实例池中学习出来。
1.5)该紧凑、完整的模板集将用于在视频和增强现实(AR)系统中在线跟踪目标。实验表明,即使目标被部分遮挡,我们的方法也能够实时且准确地实时跟踪,而其他现有的跟踪方法无法满足AR应用的运行时要求。
2)将目标字典用于增强现实(AR)应用之中。通过一些简单,明确定义的约束和先验将图像中的对象区域转换为物理世界中的三维空间区域,具体来说,约束条件是场景中的几何形状,由三维模型表示;通过目标跟踪获得在图像上的区域,根据约束条件建立该区域与约束条件的交点,由相机位置与该位置连接构成一条射线,该射线与约束条件定义的几何形状求交,就获得了一个三维空间点;再由对象的一些先验信息(如:大致的圆柱体、球体等),根据图像区域的大小,推算其再三维空间所占据的体积,完成二维区域到三维区域的转换;在完成该二维区域到三维空间区域的转换过程中,先后用到了相机定标和场景定标,该标定过程将确定转换所需的变换矩阵。依据该三维空间区域,在AR环境中可以避免虚拟物体和行人之间发生空间碰撞,在此期间跟踪中的三维形状变形被忽略。虚拟人将根据检测出的真实物体的空间区域进行路径规划,输出虚实融合场景。
实施例3:
一种基于紧致表达的物体鲁棒跟踪方法,如图3所示,在训练阶段,如图3的上一行从右至左,采集一个人物的各种视频画面,对该人物进行一般意义的目标跟踪,在跟踪失败时,通过人工干预去除或者纠正错误;将准确跟踪到的目标对应的子图像取出,从而获得数千至数十万不等的实例{xj,j=1,2,...,m},构成实例池;进一步通过迭代的稀疏学习方法,挑选出紧凑模板集T*;在在线阶段(如图3的下一行从左至右),这个模板集T*被用来跟踪目标,从而获得稳定的二维区域,并通过约束条件,即人物行走在地面上,可知二维区域的最下端与平面接触,从而获得脚步位置的三维坐标,进一步根据人物的大体形状,推算出人物的三维空间区域,这样,虚拟的机器人就可以跟随或者与真实人物实现交互,避免相互碰撞。
对比例1-对比例13:
对比例1-对比例13分别为多域卷积神经网络(MDnet)、卷积神经网络-支持向量机(CNN-SVM)、条件级联跟踪(CCT)、视觉跟踪分解(VTD)、结构输出跟踪(Struck)、核循环结构法(CSK)、采样跟踪法(VTS)、局部敏感直方图跟踪法(LSHT)、内容跟踪法(CXT)、正负样本跟踪法(TLD)、递归尺度近似法(RS-V)、局部稀疏表示与K选择法(LSK)、在线强化学习法(OAB)。
其中,MDnet方法的详细过程参见文献H.Nam and B.Han,“Learning multi-domain convolutional neuralnetworks for visual tracking,”in 2016IEEEConference on ComputerVision and Pattern Recognition,2016,pp.4293–4302;
CNN-SVM方法的详细过程参见文献S.Hong,T.You,S.Kwak,and B.Han,“Onlinetracking by learningdiscriminative saliency map with convolutional neuralnetwork,”inProceedings of the 32nd International Conference on MachineLearning,2015,pp.597–606.;
其他方法请参见文献Y.Wu,J.Lim,and M.Yang,“Object tracking benchmark,”IEEE Trans.Pattern Anal.Mach.Intell.,vol.37,no.9,pp.1834–1848,2015;
对比例1-13的各种方法均为现有较为流行的跟踪方法,其详细跟踪原理此处不再赘述。
实验例1:
目标跟踪的方法一般在标注数据集上进行对比,本发明所采用的方法与对比例1-13对比,结果如图4(a)-4(h)。其中,图4是不同算法在不同条件的标准数据集上的运行结果对比,数据集分别为背景杂乱、目标形变、光照变化、平面旋转、低解像度、遮挡、非平面旋转、尺度变化等8种情况,由图4(a)-4(h)8幅图表示,图例中MDnet[0.664]中系数0.664代表准确率,是由标准数据测试平台给出的评分,满分为1.0,这些图的横坐标均表示跟踪到目标区域与真实目标区域的重合度,纵坐标均表示了以相应的重合度作为目标跟踪成功的标准,所获得的各种算法的成功率,因此曲线的取值越高,说明算法越好。
在图4(a)-4(h)中,本发明所产生的曲线如图中箭头所示,可见其取值几乎是最高的,尤其是当以更高的重合度为标准时,有更好的性能,体现了算法的优越性。
实验例2:
图5(a)-5(l)为对比例1-对比例13在一个视频序列上运行的结果图,以人的头部作为跟踪目标,其中,虚线框为本发明的运行结果,其他实线框为各种对比例的跟踪结果图,从图中可知,对比例1-13和本发明相比,不管在何种情况下,本发明均能获得跟踪结果,而对比例1-13中在某些情况下是不能获得跟踪目标的,即是对比例1-13中有些情况下能够获得跟踪目标,但是,显而易见,本发明获得的跟踪结果均较为接近真实结果,本发明的跟踪方法能够非常鲁棒地跟踪目标,尽管目标外观和光照都有很大变化。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (4)

1.一种基于紧致表达的物体鲁棒跟踪装置的跟踪方法,其特征在于,物体鲁棒跟踪装置包括计算机和与其连接的摄像头;
跟踪方法包括以下步骤:
1)建立完备紧致的目标字典;
1.1)从多个视角、多个背景下和在变化的光照条件下通过摄像头捕获关于目标的子图像;
1.2)由步骤1.1)得到的子图像组成实例池,从实例池中,通过稀疏字典学习的迭代方法,采取顺序倒序相间的方法构建紧凑的模板集;
1.3)通过使用基于SVM的稀疏度检测方法确保步骤1.2)模板集是真正完备且紧致的;
1.4)再采样扩充原实例池,产生新的实例池,不断重复步骤1.2)和步骤1.3),直至新的实例池相对于前一实例池不再增大,得到最优的模板集;
1.5)将步骤1.4)得到的最优的模板集被用于视频和增强现实系统中在线跟踪目标,通过稀疏表示判断最终目标的位置;
2)将步骤1)得到的目标字典用于增强现实应用中,将图像的对象区域转换为三维空间区域。
2.根据权利要求1所述的基于紧致表达的物体鲁棒跟踪装置的跟踪方法,其特征在于,所述步骤1.2)中,稀疏字典学习的迭代方法实现的优化方程如下:
Figure FDA0003123494910000011
Figure FDA0003123494910000012
Figure FDA0003123494910000013
其中,T为当前模板集,T*则是最终求解到的最优的模板集,xj为实例池中的一个实例,j=1,2,...,m,m为实例个数,||·||2表示l2范数,μ、λ为设定常数,cols(T)为模板集含有的模板的数量,α为稀疏系数向量,
Figure FDA0003123494910000014
为式(2)中稀疏表达xj的最佳系数向量。
3.根据权利要求2所述的基于紧致表达的物体鲁棒跟踪装置的跟踪方法,其特征在于,稀疏字典学习的迭代方法的渐进式的模板构建方法,采取顺序倒序相间的方法构建模板集,具体过程为:
初始化模板集由实例池中最初的若干个随机选择的实例构成,设当前模板集为T(k),则xj通过模板集T(k)的稀疏表示,通过优化如下方程获得:
Figure FDA0003123494910000024
Figure FDA0003123494910000021
其中,xj为实例池中的一个实例,j=1,2,...,m,m为实例个数,||·||2表示l2范数,λ为设定常数,α为稀疏系数向量,
Figure FDA0003123494910000022
为稀疏表达xj的最佳系数向量;
定义误差函数:
Figure FDA0003123494910000023
则error表示了实例xj由模板集为T(k)重构时的误差;设定一个阈值τ2,如果error>τ2,则认为T(k)不能良好地表达xj,因此将xj加入T(k),得到T(k+1),这个过程对实例池中所有的实例xj都顺序进行一遍,完成一次顺序执行的模板选择;
在完成一次顺序选择之后,保证实例池中所有的实例都被模板集中的某些模板准确地稀疏表示,但是,并不能保证这个模板集是紧凑的,其中很可能存在一些冗余的模板,通过倒序排序排查模板集中的每一个模板,如果该模板xj能够被T(k)中除xj以外的其它模板准确地稀疏表达,即error≤τ2,那么该模板将被从模板集中删除,得到模板集T(k-1)
将顺序添加和倒序排除交替进行,直至模板集不发生变化或者表达的总参差不再明显下降为止。
4.根据权利要求3所述的基于紧致表达的物体鲁棒跟踪装置的跟踪方法,其特征在于,步骤2)中包括通过约束和先验将图像中的对象区域转换为物理世界中的三维空间区域,具体过程为:约束条件是场景中的几何形状,由三维模型表示,通过目标跟踪获得在图像上的区域,根据约束条件建立该区域与约束条件的交点,由搭载摄像头的相机位置与该位置连接构成一条射线,该射线与约束条件定义的几何形状求交,获得一个三维空间点;再由对象的先验信息,根据图像区域的大小,推算其在三维空间所占据的体积,完成二维区域到三维区域的转换,虚拟人将根据检测出的真实物体的空间区域进行路径规划,输出虚实融合场景。
CN201811187764.0A 2018-10-12 2018-10-12 一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法 Active CN109272533B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811187764.0A CN109272533B (zh) 2018-10-12 2018-10-12 一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811187764.0A CN109272533B (zh) 2018-10-12 2018-10-12 一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法

Publications (2)

Publication Number Publication Date
CN109272533A CN109272533A (zh) 2019-01-25
CN109272533B true CN109272533B (zh) 2021-08-17

Family

ID=65197074

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811187764.0A Active CN109272533B (zh) 2018-10-12 2018-10-12 一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法

Country Status (1)

Country Link
CN (1) CN109272533B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101276468A (zh) * 2007-03-27 2008-10-01 三菱电机株式会社 在视频帧序列中跟踪目标的由计算机执行的方法
CN103279580A (zh) * 2013-06-24 2013-09-04 魏骁勇 基于新型语义空间的视频检索方法
CN105844667A (zh) * 2016-03-25 2016-08-10 中国矿业大学 一种紧凑颜色编码的结构化目标跟踪方法
CN107886525A (zh) * 2017-11-28 2018-04-06 南京莱斯信息技术股份有限公司 一种冗余数据数据字典压缩感知视频目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101276468A (zh) * 2007-03-27 2008-10-01 三菱电机株式会社 在视频帧序列中跟踪目标的由计算机执行的方法
CN103279580A (zh) * 2013-06-24 2013-09-04 魏骁勇 基于新型语义空间的视频检索方法
CN105844667A (zh) * 2016-03-25 2016-08-10 中国矿业大学 一种紧凑颜色编码的结构化目标跟踪方法
CN107886525A (zh) * 2017-11-28 2018-04-06 南京莱斯信息技术股份有限公司 一种冗余数据数据字典压缩感知视频目标跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
An Adaptive SVM Technique for Object Tracking;Supreeth Hsg et al;《International Journal of Pure and Applied Mathematics》;20180404;全文 *
Learning a Deep Compact Image Representation for Visual Tracking;Naiyan Wang et al;《NIPS》;20131231;全文 *
Learning Compact Binary Codes for Visual Tracking;Xi Li et al;《2013 IEEE Conference on Computer Vision and Pattern Recognition》;20131231;全文 *
一种结合粒子滤波和张量子空间的目标跟踪算法;温静 等;《光子学报》;20100630;第39卷(第6期);全文 *

Also Published As

Publication number Publication date
CN109272533A (zh) 2019-01-25

Similar Documents

Publication Publication Date Title
US10915731B2 (en) Detecting objects in video data
Tan et al. Indirect deep structured learning for 3d human body shape and pose prediction
CN110458939B (zh) 基于视角生成的室内场景建模方法
EP3881285A1 (en) Three-dimensional object reconstruction
JP2018520425A (ja) 三次元空間のモデリング
Jellal et al. LS-ELAS: Line segment based efficient large scale stereo matching
CN111368759B (zh) 基于单目视觉的移动机器人语义地图构建系统
Lafarge et al. Insertion of 3-D-primitives in mesh-based representations: Towards compact models preserving the details
CN113312973B (zh) 一种手势识别关键点特征提取方法及系统
CN111598995B (zh) 一种基于原型分析的自监督多目三维人体姿态估计方法
CN112270694B (zh) 基于激光雷达扫描图进行城市环境动态目标检测的方法
Huang et al. Tracking-by-detection of 3d human shapes: from surfaces to volumes
CN109241981B (zh) 一种基于稀疏编码的特征检测方法
Wan et al. Boosting image-based localization via randomly geometric data augmentation
CN109272533B (zh) 一种基于紧致表达的物体鲁棒跟踪装置及跟踪方法
Tangkuampien et al. Real-Time Human Pose Inference using Kernel Principal Component Pre-image Approximations.
CN111311648A (zh) 基于协作差分进化滤波的人手-物体交互过程跟踪方法
Wang et al. 3D-2D spatiotemporal registration for sports motion analysis
Chen et al. Improvement of AnyNet-based end-to-end phased binocular stereo matching network
Saini et al. Human pose tracking in low-dimensional subspace using manifold learning by charting
Herrera-Granda et al. Monocular Visual SLAM, Visual Odometry, and Structure from Motion Methods Applied to 3D Reconstruction: A Comprehensive Survey
Kosiba et al. Machine vision
Wang et al. A Robust and Accurate Simultaneous Localization and Mapping System for RGB-D Cameras
Singer View-Agnostic Point Cloud Generation
Jia 3D Human Pose Estimation: A Survey

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant