CN107918772A - 基于压缩感知理论和gcForest的目标跟踪方法 - Google Patents

基于压缩感知理论和gcForest的目标跟踪方法 Download PDF

Info

Publication number
CN107918772A
CN107918772A CN201711300706.XA CN201711300706A CN107918772A CN 107918772 A CN107918772 A CN 107918772A CN 201711300706 A CN201711300706 A CN 201711300706A CN 107918772 A CN107918772 A CN 107918772A
Authority
CN
China
Prior art keywords
mrow
vector
mtd
target
gcforest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711300706.XA
Other languages
English (en)
Other versions
CN107918772B (zh
Inventor
刘芳
杨安喆
王洪娟
黄光伟
路丽霞
王鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201711300706.XA priority Critical patent/CN107918772B/zh
Publication of CN107918772A publication Critical patent/CN107918772A/zh
Application granted granted Critical
Publication of CN107918772B publication Critical patent/CN107918772B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Abstract

本发明公开了基于压缩感知理论和gcForest的目标跟踪方法,包括以下步骤:获取跟踪目标的初始帧视频图像;提取正、负样本图像片并进行多尺度变换得到多维向量;通过gcForest网络来提取跟踪目标的深层次特征,获得目标的深层次表达;采用压缩感知理论对其特征进行降维,得到最终特征表达并训练分类器;下一帧图像在上一帧的目标位置周围采样n个窗口,使用前一帧训练好的分类器进行分类,得到分类分数最大的窗口即为跟踪目标,并以此来更新分类器参数。本发明有效的提高了视频目标跟踪的精度性,能够在复杂条件下稳定地跟踪目标,同时因计算量的减少,有效的提高了目标跟踪的实时性。

Description

基于压缩感知理论和gcForest的目标跟踪方法
技术领域
本发明涉及一种视频目标跟踪方法,融合了图像处理、模式识别、人工智能、自动控制以及计算机等许多领域的先进技术,特别涉及一种基于压缩感知理论和gcForest的目标跟踪算法。
背景技术
视频目标跟踪技术是计算机视觉研究领域中研究的重要问题,广泛应用于视频监控、视频检索、交通运输、自动驾驶等方面。视频目标跟踪主要解决在视频图像序列中,选定一个或多个特定的目标,并在这连续的视频序列中持续找出此目标在每一帧的位置,同时提供完整的目标区域,从而完成跟踪的任务。此技术涉及多个领域的内容,包括图像处理、模式识别、概率统计、深度学习等,是一个交叉多个领域的综合性研究任务。
当前对于视频目标跟踪问题的处理主要有两种思路,分别为自底向上和自顶向下。前者不依赖于先验知识,主要把视频图像的目标和背景分开,进行变化检测来获取运动目标,并进行识别以完成跟踪任务;后者依赖于先验知识和所构建的模型,对视频图像中的目标搭建模型库,求解后验概率,并对下一帧的图像进行匹配寻找其中具有最大后验概率的状态向量最为当前目标状态,以完成跟踪任务。目前所有的跟踪问题都是基于上述两种思路来进行的。最近几年出现了很多经典的视频目标跟踪算法,如Struck、CSK、TLD、IVT、CT等,主要分为生成式和判别式跟踪算法,不过这些算法都是基于人为设计的特征(如HOG、SIFT等)所设计出来的。经过实验表明,人为设计特征在不同的跟踪目标下具有局限性,对于光线变化、尺度变化和遮挡问题的处理没有很好的鲁棒性,所以当前比较火热的深度学习就为自动提取特征提供了可能。当前所采用的深度模型大多为卷积神经网络(CNN),因为CNN采用局部感受野权值共享,其具有平移不变性、光照不变性和遮挡的鲁棒性等重要特性。FAN等人基于3个卷积层和若干降采样层的CNN对当前帧和上一帧进行采样,获取目标和背景的空间、时间特征;NAM等人所用的深度模型分为共享层和特定层,其中共享层采用VGG-Net,截取3个卷积层和2个全连接层,特定层由若干域组成,包含了目标正样本和负样本;WANG等人也将VGG-Net网络应用到所提出的算法中,此外还添加了一般性网络(GNet)和特殊性网络(SNet),两者具有相同结构。近年来使用深度学习的跟踪算法着实提高了跟踪的准确性和鲁棒性,不过随之而来带来了许多问题,如需要大量的训练数据、需要强大的硬件性能、需要调整过多的超参数、具有复杂的结构使运算速度过慢等。
为了解决上述存在的问题和缺陷,提出了把压缩感知理论和gcForest结合的跟踪算法。gcForest是一种决策树合成方法,它相比于深度学习更易于训练,并且可以根据几乎相同的超参数来实现出色的性能,更能在小规模的训练数据下得到很好的结果,且运算速度相比卷积神经网络提高不少。之后根据压缩跟踪算法(CT)的原理,利用压缩感知理论对所提取的特征进行降维,减少运算信息量,更加提升跟踪的速度,满足实时性的要求。
现有的方法存在的不足:一方面,经典的跟踪算法对于特定目标的跟踪效果很好,而且可以达到实时性,但不具有泛化性,不能应用于各种场合中,且对于遮挡、形变、光照问题解决不好,容易导致跟踪失败;另一方面,基于深度学习的跟踪算法在跟踪精度上有很大的提升,基本可以达到95%以上的精度,可是算法结构复杂度高,运算量大,不能满足实时性的要求。
发明内容
本发明旨在解决上述技术缺陷,利用压缩跟踪算法中提取的图像中正、负样本的多尺度矩形特征向量训练gcForest级联森林来提取深层特征,并根据压缩感知理论将高维特征压缩成低维特征,减少后期跟踪运算量,同时训练在二分类上拥有出色性能的支持向量机(SVM)分类器来分类正、负样本,得到追踪目标的位置,并通过预测下一帧的图像目标位置来在线更新分类器参数,不断调整最优分界面,进而形成一种在多种复杂环境下具有较高准确率并满足实时性的目标跟踪算法。
为达到上述目的,本发明提出一种基于压缩感知理论和gcForest的目标跟踪方法,包括以下步骤:
S1:选取大量跟所要跟踪目标有关的图像序列,并离线预训练一个gcForest网络,具体如下:
S1.1:提取每个图像中的正、负样本并构建多个图像片,然后进行多尺度变换,得到正、负样本的多尺度图像特征矢量;
S1.2:使用大量图像提取出来的多尺度特征矢量离线训练一个gcForest网络,训练好的gcForest网络用于提取所要跟踪目标的特征;
S2:将视频转化为图像帧输入系统;
S3:提取初始帧的正、负样本图像片,并进行多尺度变换,输入到训练好的gcForest中计算所要跟踪目标的特征,得到具有高鲁棒性的特征向量;
S4:通过一个稀疏测量矩阵对特征向量进行降维,该稀疏测量矩阵只需要在程序启动时计算一次,然后在跟踪过程中保持不变;
S5:通过积分图高效计算出降维后的特征矢量,特征矢量包括目标和背景,用这些特征去训练在二分类问题上有出色性能的支持向量机(SVM)分类器;
S6:在每一帧图像中,取该帧图像的上一帧图像的目标位置周围的n个窗口进行多尺度变换、特征提取、降维工作,并使用上一帧图像训练好的分类器进行分类,分类分数最大的窗口即为跟踪目标;
S7:得到跟踪目标后,更新分类器参数,具体步骤如下:
S7.1:分别采集两个子图像集合Dα={z|||l(z)-lt||<α}及Dε,β={z|ε<||l(z)-lt||<β},其中α<ε<β,其中l(z)是目标位置周围的集合,lt是第t帧的目标位置,D是范围集合,上标α、ε、β代表着第t帧的目标位置范围与第t帧的目标位置距离的最大值,也就是l(z)与lt的距离要小于α或β;
S7.2:在两个样本集合中提取特征,然后更新分类器参数,不断调整最优分界面,保证分类间隔最大,实现在线更新的方法。
S8:将得到的跟踪目标位置输入视频进行视频目标跟踪,得到并输出视频跟踪结果。
有益效果
根据本发明实施例的基于压缩感知理论和gcForest的目标跟踪算法,本方法在特征提取方面,通过gcForest网络来提取跟踪目标的深层特征,获取目标的深层次表达。然后,基于压缩感知理论并利用稀疏测量矩阵对提取出来的特征向量进行降维,同时使用这些特征训练分类器,即在下一帧使用训练好的分类器进行分类,分类分数最大的窗口即为跟踪目标,即确定当前目标状态实现跟踪任务。仿真实验表明,本发明能够在遮挡、光照、尺度变化的条件下快速且稳定地跟踪目标,具有很高的精度和鲁棒性,同时因降维后计算量减少,也具有相应的实时性。
附图说明
本发明上述和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例的基于压缩感知理论和gcForest的目标跟踪算法方法的流程图;以及
图2为本发明一个实施例的一个gcForest网络示意图。
图3为本发明一个实施例的一个降维过程示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的原件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
如图1所示,根据本发明基于压缩感知理论和gcForest的目标跟踪方法,包括以下几个步骤:
S1:选取大量跟所要跟踪目标有关的图像序列离线预训练一个gcForest网络用于提取目标特征;
gcForest网络首先进行离线训练,具体训练过程如下:
典型的gcForest网络主要由多粒子扫描层和级联森林层组成。
1)输入正、负样本图像片多尺度变换后的多维向量。首先经过多粒子扫描层,共有3个不同尺寸大小的窗口对向量进行滑动扫描得到新的向量,这三个窗口分别为d/16-dim、d/8-dim、d/4-dim,其中d为输入的向量总数,dim为向量单位。
2)经过多粒子扫描后产生的结果经过多重Forest的处理分别产生(d+1-d/16)*2-dim、(d+1-d/8)*2-dim、(d+1-d/4)*2-dim的向量,最后将所有的向量全部连接到一个向量中,形成了(6d+6-7d/8)-dim的向量作为级联层的输入。
3)每一级的级联都有一个或多个完全随机森林和随机森林,每个森林包含500棵树。假设每个级联有两个完全随机森林和两个随机森林。经过其中一个级联层后,将四个Forest产生的8个向量与之前的输入向量连接得到(6d+14-7d/8)-dim的向量。之后用上一级类矢量产生的变换后的特征矢量分别用于训练第二级和第三级级联森林,最终将众多森林产生的向量取平均,产生了一个总重的向量,这就是gcForest网络最终得到的特征向量。
4)实验的训练集将被分为生长集和评估集,生长集用于增长级联,而评估集用于评估性能。当扩展新一级级联后,评估集将对整个级联的性能进行评估,如果没有显著性的性能增益,那么训练程序将会停止。这样就可以自适应的决定级联的数量,减少无谓的层数增长。
S2:将视频转化为图像帧输入系统;
S3:提取初始帧的正、负样本图像片,并进行多尺度变换,输入到训练好的gcForest里计算特征,得到具有较高鲁棒性的特征向量,多尺度变换方法如下:
为了实现尺度不变性,对每一个样本都将通过一系列的多尺度矩形滤波器{h1,1,…,hw,h}进行卷积运算,其中w和h是图像帧的分辨率大小,矩形滤波器定义如下:
其中,i和j分别是矩形滤波器模板的宽和高。
将滤波后的图像片矩阵展宽成一个w*h维的列向量,且维数在106到1010之间。
S4:通过一个稀疏测量矩阵对特征向量进行降维,这个稀疏测量矩阵只需要在程序启动时计算一次,然后在跟踪过程中保持不变,降维过程具体如下:
主要思想是高维矢量通过一个满足RIP条件的非常稀疏的测量矩阵进行投影,得到一个低维压缩子空间,低维子空间很好的保留了高维矢量的信息。
1)采用一个非常稀疏的随机测量矩阵,其矩阵元素定义为:
其中,rij是稀疏测量矩阵中的某一像素,s是系数。
2)当s取2或3时,矩阵就满足Johnson-Linden Strauss推论,且当s取3时,矩阵就会变得非常稀疏,计算量将会减少2/3。
S5:通过积分图高效计算出降维后的特征矢量(包括目标和背景),用这些特征去训练在二分类问题上有出色性能的支持向量机(SVM)分类器;
S6:在下一帧图像中,取上一帧目标位置周围的n个窗口进行多尺度变换、特征提取、降维工作,并使用前一帧训练好的分类器进行分类,分类分数最大的窗口即为跟踪目标;
S7:得到跟踪目标后,更新分类器参数,具体步骤如下:
S7.1:分别采集两个子图像集合Dα={z|||l(z)-lt||<α}及Dε,β={z|ε<||l(z)-lt||<β},其中α<ε<β,其中l(z)是目标位置周围的集合,lt是第t帧的目标位置,D是范围集合,上标α、ε、β代表着第t帧的目标位置范围与第t帧的目标位置距离的最大值,也就是l(z)与lt的距离要小于α或β;
S7.2:在两个样本集合中提取特征,然后更新分类器参数,不断调整最优分界面,保证分类间隔最大,实现在线更新的方法。
S8:将得到的跟踪目标位置输入视频进行视频目标跟踪,得到并输出视频跟踪结果。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改替换和变形,本发明的范围有所附权利要求及其等同限定。

Claims (2)

1.基于压缩感知理论和gcForest的目标跟踪方法,其特征在于:包括以下步骤:
S1:选取大量跟所要跟踪目标有关的图像序列,并离线预训练一个gcForest网络,具体如下:
S1.1:提取每个图像中的正、负样本并构建多个图像片,然后进行多尺度变换,得到正、负样本的多尺度图像特征矢量;
S1.2:使用大量图像提取出来的多尺度特征矢量离线训练一个gcForest网络,训练好的gcForest网络用于提取所要跟踪目标的特征;
S2:将视频转化为图像帧输入系统;
S3:提取初始帧的正、负样本图像片,并进行多尺度变换,输入到训练好的gcForest中计算所要跟踪目标的特征,得到具有高鲁棒性的特征向量;
S4:通过一个稀疏测量矩阵对特征向量进行降维,该稀疏测量矩阵只需要在程序启动时计算一次,然后在跟踪过程中保持不变;
S5:通过积分图高效计算出降维后的特征矢量,特征矢量包括目标和背景,用这些特征去训练在二分类问题上有出色性能的支持向量机(SVM)分类器;
S6:在每一帧图像中,取该帧图像的上一帧图像的目标位置周围的n个窗口进行多尺度变换、特征提取、降维工作,并使用上一帧图像训练好的分类器进行分类,分类分数最大的窗口即为跟踪目标;
S7:得到跟踪目标后,更新分类器参数,具体步骤如下:
S7.1:分别采集两个子图像集合Dα={z| ||l(z)-lt||<α}及Dε,β={z|ε<||l(z)-lt||<β},其中α<ε<β,其中l(z)是目标位置周围的集合,lt是第t帧的目标位置,D是范围集合,上标α、ε、β代表着第t帧的目标位置范围与第t帧的目标位置距离的最大值,也就是l(z)与lt的距离要小于α或β;
S7.2:在两个样本集合中提取特征,然后更新分类器参数,不断调整最优分界面,保证分类间隔最大,实现在线更新的方法;
S8:将得到的跟踪目标位置输入视频进行视频目标跟踪,得到并输出视频跟踪结果。
2.根据权利要求1所述的基于压缩感知理论和gcForest的目标跟踪方法,其特征在于:包括以下几个步骤:
S1:选取大量跟所要跟踪目标有关的图像序列离线预训练一个gcForest网络用于提取目标特征;
gcForest网络首先进行离线训练,具体训练过程如下:
典型的gcForest网络主要由多粒子扫描层和级联森林层组成;
1)输入正、负样本图像片多尺度变换后的多维向量;首先经过多粒子扫描层,共有3个不同尺寸大小的窗口对向量进行滑动扫描得到新的向量,这三个窗口分别为d/16-dim、d/8-dim、d/4-dim,其中d为输入的向量总数,dim为向量单位;
2)经过多粒子扫描后产生的结果经过多重Forest的处理分别产生(d+1-d/16)*2-dim、(d+1-d/8)*2-dim、(d+1-d/4)*2-dim的向量,最后将所有的向量全部连接到一个向量中,形成了(6d+6-7d/8)-dim的向量作为级联层的输入;
3)每一级的级联都有一个或多个完全随机森林和随机森林,每个森林包含500棵树;假设每个级联有两个完全随机森林和两个随机森林;经过其中一个级联层后,将四个Forest产生的8个向量与之前的输入向量连接得到(6d+14-7d/8)-dim的向量;之后用上一级类矢量产生的变换后的特征矢量分别用于训练第二级和第三级级联森林,最终将众多森林产生的向量取平均,产生了一个总重的向量,这就是gcForest网络最终得到的特征向量;
4)实验的训练集将被分为生长集和评估集,生长集用于增长级联,而评估集用于评估性能;当扩展新一级级联后,评估集将对整个级联的性能进行评估,如果没有显著性的性能增益,那么训练程序将会停止;这样就可以自适应的决定级联的数量,减少无谓的层数增长;
S2:将视频转化为图像帧输入系统;
S3:提取初始帧的正、负样本图像片,并进行多尺度变换,输入到训练好的gcForest里计算特征,得到具有较高鲁棒性的特征向量,多尺度变换方法如下:
为了实现尺度不变性,对每一个样本都将通过一系列的多尺度矩形滤波器{h1,1,…,hw,h}进行卷积运算,其中w和h是图像帧的分辨率大小,矩形滤波器定义如下:
<mrow> <msub> <mi>h</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mn>1</mn> <mo>&amp;le;</mo> <mi>x</mi> <mo>&amp;le;</mo> <mi>i</mi> <mi> </mi> <mi>a</mi> <mi>n</mi> <mi>d</mi> <mn>1</mn> <mo>&amp;le;</mo> <mi>y</mi> <mo>&amp;le;</mo> <mi>j</mi> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,i和j分别是矩形滤波器模板的宽和高;
将滤波后的图像片矩阵展宽成一个w*h维的列向量,且维数在106到1010之间;
S4:通过一个稀疏测量矩阵对特征向量进行降维,这个稀疏测量矩阵只需要在程序启动时计算一次,然后在跟踪过程中保持不变,降维过程具体如下:
主要思想是高维矢量通过一个满足RIP条件的非常稀疏的测量矩阵进行投影,得到一个低维压缩子空间,低维子空间很好的保留了高维矢量的信息;
1)采用一个非常稀疏的随机测量矩阵,其矩阵元素定义为:
<mrow> <msub> <mi>r</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <msqrt> <mi>s</mi> </msqrt> <mo>*</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> </mtd> <mtd> <mrow> <mi>w</mi> <mi>i</mi> <mi>t</mi> <mi>h</mi> <mi> </mi> <mi>p</mi> <mi>r</mi> <mi>o</mi> <mi>b</mi> <mi>a</mi> <mi>b</mi> <mi>i</mi> <mi>l</mi> <mi>i</mi> <mi>t</mi> <mi>y</mi> <mfrac> <mn>1</mn> <mrow> <mn>2</mn> <mi>s</mi> </mrow> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mrow> <mi>w</mi> <mi>i</mi> <mi>t</mi> <mi>h</mi> <mi> </mi> <mi>p</mi> <mi>r</mi> <mi>o</mi> <mi>b</mi> <mi>a</mi> <mi>b</mi> <mi>i</mi> <mi>l</mi> <mi>i</mi> <mi>t</mi> <mi>y</mi> <mn>1</mn> <mo>-</mo> <mfrac> <mn>1</mn> <mi>s</mi> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </mtd> <mtd> <mrow> <mi>w</mi> <mi>i</mi> <mi>t</mi> <mi>h</mi> <mi> </mi> <mi>p</mi> <mi>r</mi> <mi>o</mi> <mi>b</mi> <mi>a</mi> <mi>b</mi> <mi>i</mi> <mi>l</mi> <mi>i</mi> <mi>t</mi> <mi>y</mi> <mfrac> <mn>1</mn> <mrow> <mn>2</mn> <mi>s</mi> </mrow> </mfrac> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
其中,rij是稀疏测量矩阵中的某一像素,s是系数;
2)当s取2或3时,矩阵就满足Johnson-Linden Strauss推论,且当s取3时,矩阵就会变得非常稀疏,计算量将会减少2/3;
S5:通过积分图高效计算出降维后的特征矢量(包括目标和背景),用这些特征去训练在二分类问题上有出色性能的支持向量机(SVM)分类器;
S6:在下一帧图像中,取上一帧目标位置周围的n个窗口进行多尺度变换、特征提取、降维工作,并使用前一帧训练好的分类器进行分类,分类分数最大的窗口即为跟踪目标;
S7:得到跟踪目标后,更新分类器参数,具体步骤如下:
S7.1:分别采集两个子图像集合Dα={z| ||l(z)-lt||<α}及Dε,β={z|ε<||l(z)-lt||<β},其中α<ε<β,其中l(z)是目标位置周围的集合,lt是第t帧的目标位置,D是范围集合,上标α、ε、β代表着第t帧的目标位置范围与第t帧的目标位置距离的最大值,也就是l(z)与lt的距离要小于α或β;
S7.2:在两个样本集合中提取特征,然后更新分类器参数,不断调整最优分界面,保证分类间隔最大,实现在线更新的方法;
S8:将得到的跟踪目标位置输入视频进行视频目标跟踪,得到并输出视频跟踪结果。
CN201711300706.XA 2017-12-10 2017-12-10 基于压缩感知理论和gcForest的目标跟踪方法 Active CN107918772B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711300706.XA CN107918772B (zh) 2017-12-10 2017-12-10 基于压缩感知理论和gcForest的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711300706.XA CN107918772B (zh) 2017-12-10 2017-12-10 基于压缩感知理论和gcForest的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN107918772A true CN107918772A (zh) 2018-04-17
CN107918772B CN107918772B (zh) 2021-04-30

Family

ID=61893036

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711300706.XA Active CN107918772B (zh) 2017-12-10 2017-12-10 基于压缩感知理论和gcForest的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN107918772B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596953A (zh) * 2018-04-24 2018-09-28 开放智能机器(上海)有限公司 一种单目标跟踪模型的训练方法
CN109445453A (zh) * 2018-09-12 2019-03-08 湖南农业大学 一种基于OpenCV的无人机实时压缩跟踪方法
CN109614488A (zh) * 2018-12-04 2019-04-12 广西大学 基于文本分类和图像识别的配网带电作业条件判别方法
CN109859242A (zh) * 2019-01-16 2019-06-07 重庆邮电大学 一种预测自适应学习的目标跟踪方法
CN110675959A (zh) * 2019-08-19 2020-01-10 平安科技(深圳)有限公司 数据智能分析方法、装置、计算机设备及存储介质
CN111062291A (zh) * 2019-12-10 2020-04-24 中国人民解放军海军航空大学 一种机器人视觉跟踪方法及系统
CN111105436A (zh) * 2018-10-26 2020-05-05 曜科智能科技(上海)有限公司 目标跟踪方法、计算机设备及存储介质
CN111881941A (zh) * 2020-07-02 2020-11-03 中国空间技术研究院 一种基于压缩感知域的图像智能分类方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226835A (zh) * 2013-04-15 2013-07-31 北京大学深圳研究生院 基于在线初始化梯度增强回归树的目标跟踪方法及系统
CN104281852A (zh) * 2013-07-11 2015-01-14 上海瀛联体感智能科技有限公司 一种基于融合2d检测的目标跟踪算法
US20150243031A1 (en) * 2014-02-21 2015-08-27 Metaio Gmbh Method and device for determining at least one object feature of an object comprised in an image
CN106503734A (zh) * 2016-10-14 2017-03-15 哈尔滨工程大学 基于三边滤波器和堆栈稀疏自动编码器的图像分类方法
CN106529574A (zh) * 2016-10-17 2017-03-22 北京工业大学 基于稀疏自动编码器和支持向量机的图像分类方法
CN107220991A (zh) * 2017-05-12 2017-09-29 深圳市美好幸福生活安全系统有限公司 一种基于压缩感知的实时目标跟踪算法
CN107358300A (zh) * 2017-06-19 2017-11-17 北京至信普林科技有限公司 一种基于多平台自主预测的智能运维告警过滤方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226835A (zh) * 2013-04-15 2013-07-31 北京大学深圳研究生院 基于在线初始化梯度增强回归树的目标跟踪方法及系统
CN104281852A (zh) * 2013-07-11 2015-01-14 上海瀛联体感智能科技有限公司 一种基于融合2d检测的目标跟踪算法
US20150243031A1 (en) * 2014-02-21 2015-08-27 Metaio Gmbh Method and device for determining at least one object feature of an object comprised in an image
CN106503734A (zh) * 2016-10-14 2017-03-15 哈尔滨工程大学 基于三边滤波器和堆栈稀疏自动编码器的图像分类方法
CN106529574A (zh) * 2016-10-17 2017-03-22 北京工业大学 基于稀疏自动编码器和支持向量机的图像分类方法
CN107220991A (zh) * 2017-05-12 2017-09-29 深圳市美好幸福生活安全系统有限公司 一种基于压缩感知的实时目标跟踪算法
CN107358300A (zh) * 2017-06-19 2017-11-17 北京至信普林科技有限公司 一种基于多平台自主预测的智能运维告警过滤方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHI-HUA ZHOU等: "Deep Forest: Towards an Alternative to Deep Neural Networks", 《ARXIV:1702.08835V2 》 *
曹冬寅等: "基于稀疏重构残差和随机森林的集成分类算法", 《南京大学学报(自然科学)》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596953A (zh) * 2018-04-24 2018-09-28 开放智能机器(上海)有限公司 一种单目标跟踪模型的训练方法
CN109445453A (zh) * 2018-09-12 2019-03-08 湖南农业大学 一种基于OpenCV的无人机实时压缩跟踪方法
CN111105436A (zh) * 2018-10-26 2020-05-05 曜科智能科技(上海)有限公司 目标跟踪方法、计算机设备及存储介质
CN111105436B (zh) * 2018-10-26 2023-05-09 曜科智能科技(上海)有限公司 目标跟踪方法、计算机设备及存储介质
CN109614488B (zh) * 2018-12-04 2022-12-02 广西大学 基于文本分类和图像识别的配网带电作业条件判别方法
CN109614488A (zh) * 2018-12-04 2019-04-12 广西大学 基于文本分类和图像识别的配网带电作业条件判别方法
CN109859242B (zh) * 2019-01-16 2022-09-09 重庆邮电大学 一种预测自适应学习的目标跟踪方法
CN109859242A (zh) * 2019-01-16 2019-06-07 重庆邮电大学 一种预测自适应学习的目标跟踪方法
CN110675959A (zh) * 2019-08-19 2020-01-10 平安科技(深圳)有限公司 数据智能分析方法、装置、计算机设备及存储介质
CN110675959B (zh) * 2019-08-19 2023-07-07 平安科技(深圳)有限公司 数据智能分析方法、装置、计算机设备及存储介质
CN111062291A (zh) * 2019-12-10 2020-04-24 中国人民解放军海军航空大学 一种机器人视觉跟踪方法及系统
CN111881941A (zh) * 2020-07-02 2020-11-03 中国空间技术研究院 一种基于压缩感知域的图像智能分类方法及系统
CN111881941B (zh) * 2020-07-02 2024-03-29 中国空间技术研究院 一种基于压缩感知域的图像智能分类方法及系统

Also Published As

Publication number Publication date
CN107918772B (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
CN107918772A (zh) 基于压缩感知理论和gcForest的目标跟踪方法
Huang et al. A YOLO-based table detection method
WO2019140767A1 (zh) 安检识别系统及其控制方法
CN111079639B (zh) 垃圾图像分类模型构建的方法、装置、设备及存储介质
CN107247956B (zh) 一种基于网格判断的快速目标检测方法
WO2017113232A1 (zh) 一种基于深度学习的产品分类方法及装置
Sajanraj et al. Indian sign language numeral recognition using region of interest convolutional neural network
CN108537102A (zh) 基于稀疏特征与条件随机场的高分辨sar图像分类方法
US20240119646A1 (en) Text editing of digital images
CN105426919A (zh) 基于显著性指导非监督特征学习的图像分类方法
Prashanth et al. Handwritten devanagari character recognition using modified lenet and alexnet convolution neural networks
Xiao et al. Salient object detection based on eye tracking data
CN104680193B (zh) 基于快速相似性网络融合算法的在线目标分类方法与系统
CN111160407A (zh) 一种深度学习目标检测方法及系统
Nagata et al. Defect detection method using deep convolutional neural network, support vector machine and template matching techniques
Li et al. Unsupervised band selection of hyperspectral images via multi-dictionary sparse representation
Gu et al. An advanced deep learning approach for safety helmet wearing detection
CN109558803B (zh) 基于卷积神经网络与np准则的sar目标鉴别方法
Liu et al. Image classification method on class imbalance datasets using multi-scale CNN and two-stage transfer learning
Cui et al. Edge detection algorithm optimization and simulation based on machine learning method and image depth information
Shao et al. Pedestrian detection algorithm based on improved faster rcnn
Masruroh et al. Deep Convolutional Neural Networks Transfer Learning Comparison on Arabic Handwriting Recognition System
Liang et al. Figure-ground image segmentation using genetic programming and feature selection
Sonthi et al. Automated Telugu printed and handwritten character recognition in single image using Aquila Optimizer based deep learning model
Zanwar et al. A comprehensive survey on soft computing based optical character recognition techniques

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant