CN108038515A - 无监督多目标检测跟踪方法及其存储装置与摄像装置 - Google Patents
无监督多目标检测跟踪方法及其存储装置与摄像装置 Download PDFInfo
- Publication number
- CN108038515A CN108038515A CN201711449126.7A CN201711449126A CN108038515A CN 108038515 A CN108038515 A CN 108038515A CN 201711449126 A CN201711449126 A CN 201711449126A CN 108038515 A CN108038515 A CN 108038515A
- Authority
- CN
- China
- Prior art keywords
- classifier
- osf
- sample
- target
- samples
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种无监督多目标跟踪检测方法及其存储装置与摄像装置,对获取的图像数据的每一帧分别进行仿射变换以构建训练样本集,根据预设的置信度阈值β和自适应阈值θ,采用OSF分类器对第一帧之后的图像数据进行分类,分类出每一帧的OSF正样本、OSF负样本以及OSF困难样本,通过ISVM分类器对OSF困难样本进行分类,以ISVM分类器分类后形成的新的θ更新自适应阈值θ,反复进行上述步骤直至达到自适应阈值θ收敛到预设程度,利用训练完成之后的OSF分类器和ISVM分类器,对获取的视频目标中的目标进行跟踪检测。本方法在完全不需要人为干预的情况下,只需在视频的第一帧中人为框选需要检测跟踪的目标,便能不断自主学习,逐步提高分类器性能,最终实现多目标检测与跟踪。
Description
技术领域
本发明涉及目标跟踪领域,尤其涉及基于颜色的目标跟踪方法方面,更具体地说,涉及一种无监督多目标检测跟踪方法及其存储装置与摄像装置。
背景技术
视频目标检测跟踪是计算机视觉等领域的研究热点,在视频监控、虚拟现实、人机交互、自主导航等应用中具有重要的理论研究意义和实际价值。目前,大部分视频目标检测跟踪系统包括了目标定位、目标数据关联跟踪及轨迹生成三个模块。其中数据关联跟踪算法已随着基于检测的跟踪方法的深入研究取得了巨大的突破。但是,目标定位模块仍大量采用离线学习算法训练分类器实现。当面对不同的监控场景时,由于成像条件、光照、目标形变均不同,需重新采集样本训练不同场景的目标检测器,耗费大量人力、物力。
近年来,在线学习算法已被广泛用于提高检测模型的自适应能力。但是,基于以下两个问题,这种在线学习算法很难用于多场景多成像条件下的视频目标检测跟踪系统:
(1)需人工采集、标注部分训练样本在线学习目标检测系统的初始目标模型需要通过人工采集、标注的少量样本训练(人工标注样本数通常为200-400个),再通过在线学习逐渐提高该模型的检测精度。相对于离线训练模型,降低了人工标注样本个数。但是,当监控场景众多时,人工标注每个场景的初始训练样本仍需耗费大量人力物力。近年来,半监督学习,迁移学习以及弱监督学习已被用于降低人工标注工作量。但如何实现无需人工标注的自主学习模型,仍然是当前的研究热点。
(2)在线学习样本的自主获取、标注方法基于在线学习的目标检测系统通常要求自主获取在线学习的新样本,并对其类别进行自动标注,否则无法实现检测系统的智能化。但是如何对获得的新样本进行自动的、正确的标注仍然没有很好的解决办法,而训练样本标注的正确与否决定了整个训练过程的有效性,这是在线学习的难点。
目前,样本自动获取、标注方法分为以下几种:(1)基于协同训练的方法;(2)基于背景建模的方法;(3)基于产生式模型的方法;(4)基于跟踪的方法。在协同训练的方法中,同时初始化两个分类器,共同训练,互相为对方标注训练样本;基于背景建模的方法通过背景模型标注在线学习样本;基于产生式模型的方法通过重构误差验证检测结果,从而实现在线学习样本的获取和标注;基于跟踪的方法通过获取目标移动轨迹识别漏检及虚警;并分别作为在线学习的正负样本训练目标检测模型。但是,以上方法对分类面附近的样本(即困难样本)标注错误率较高,其分类正确率难以和手工标注的离线学习分类器比较。
发明内容
本发明要解决的技术问题在于,针对上述的现有的基于协同训练的方法、基于背景建模的方法、基于产生式模型的方法及基于跟踪的方法对分类面附近的样本(即困难样本)标注错误率较高,其分类正确率难以和手工标注的离线学习分类器比较的技术缺陷,提供了一种无监督多目标检测跟踪方法及其存储装置与摄像装置。
根据本发明的其中一方面,本发明为解决其技术问题,提供了一种无监督多目标跟踪检测方法,包括以下步骤:
S1、对获取的图像数据的每一帧分别进行仿射变换以构建训练样本集,仿射变换是根据人为选定的第一帧的框选目标进行的,框选目标同时包括人为选定的待跟踪目标形成的正样本和人为选定的非待跟踪目标形成的负样本;
S2、根据预设的置信度阈值β和自适应阈值θ,采用OSF分类器对第一帧之后的图像数据进行分类,分类出每一帧的OSF正样本、OSF负样本以及OSF困难样本,其中分类时,样本标签的分布概率大于(β+θ)时形成所述OSF正样本,小于(β-θ)时形成所述OSF负样本,否则形成所述OSF困难样本;
S3、通过ISVM分类器对OSF困难样本进行分类;
S4、以ISVM分类器分类后形成的新的θ更新步骤S2中自适应阈值θ,反复进行步骤S2、S3直至达到自适应阈值θ收敛到预设程度,所述新的θ定义为:θ=1–ξλk,ξ为敏感系数,λk衡量随机蕨分类器性能,Mtol表示需要标注的所有困难样本个数,Mr为随机蕨和SVM将困难样本分为同一类的个数;
S5、利用步骤S4训练完成之后的OSF分类器和ISVM分类器,对获取的视频目标中的目标进行跟踪检测。
根据本发明的另一方面,本发明为解决其技术问题,还提供了一种存储装置,存储有上述任一项所述的无监督多目标跟踪检测方法。
根据本发明的再一方面,本发明为解决其技术问题,还提供了一种摄像装置,该摄像装置采用上述的任一项的无监督多目标跟踪检测方法进行无监督多目标跟踪检测。
实施本发明的无监督多目标检测跟踪方法及其存储装置,在完全不需要人为干预的情况下,本方法能自主训练分类器用于目标检测跟踪,只需在视频的第一帧中,用人为框选需要检测跟踪的目标和非待跟踪目标,本方法便能不断自主学习,逐步提高分类器性能,最终实现多目标检测与跟踪;检测过程中,绝大部分滑动窗由速度较快的OSF分类器进行分类,能在保持较高的检测精度情况下进行实时视频目标检测。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明的无监督多目标检测跟踪方法的流程图;
图2是本发明的OSF分类器结构形成示意图;
图3是本发明的无监督多目标检测跟踪算法流程图;
图4是本发明的无监督多目标检测跟踪方法一实施例的流程图;
图5是本发明的检测结果图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
如图1所示,其为本发明的无监督多目标检测跟踪方法的流程图。在本实施例的一种无监督多目标跟踪检测方法,包括以下步骤:
S1、对获取的图像数据的每一帧分别进行仿射变换以构建训练样本集,仿射变换是根据人为选定的第一帧的框选目标进行的,框选目标同时包括人为选定的待跟踪目标形成的正样本和人为选定的非待跟踪目标形成的负样本;
S2、根据预设的置信度阈值β和自适应阈值θ,采用OSF分类器对第一帧之后的图像数据进行分类,分类出每一帧的OSF正样本、OSF负样本以及OSF困难样本,其中分类时,样本标签的分布概率大于(β+θ)时形成所述OSF正样本,小于(β-θ)时形成所述OSF负样本,否则形成所述OSF困难样本;
S3、通过ISVM分类器对OSF困难样本进行分类;
S4、以ISVM分类器分类后形成的新的θ更新步骤S2中自适应阈值θ;
上述新的θ定义为:θ=1–ξλk,ξ为敏感系数,λk衡量随机蕨分类器性能,Mtol表示需要标注的所有困难样本个数,Mr为随机蕨和SVM将困难样本分为同一类的个数;
S5、判断自适应阈值θ收敛到预设程度,若是则进行步骤S6,否则跳转至步骤S2;
S6、利用步骤S4训练完成之后的OSF分类器和ISVM分类器,对获取的视频目标中的目标进行跟踪检测。本步骤具体为:利用步骤S5训练完成之后的OSF分类器和ISVM分类器,采用滑动窗搜索的方式对图像数据进行处理,利用OSF分类器进行目标检测,将检测结果分为正样本、负样本及困难样本,运用ISVM分类器对困难样本进一步分类,并对正确的检测结果进行跟踪,由跟踪进一步收集正负样本作为待处理的图像数据,进一步利用步骤S1-S5进行分类器的更新。对目标进行跟踪检测时采用基于颜色特征的目标跟踪算法CN进行跟踪。
OSF分类器:
参考图2,OSF分类器由J个随机蕨组成,每个随机蕨Fj由N个随机的二值特征组成Fj=(fj1,fj2,...,fjN),对于任意的n∈[1,N],且n为整数,每个二值特征fjn取决于图像帧x中随机选取的djn,1与djn,2两点像素强度大小:
图像帧x在Fj上的输出为Fj(x)=z,其中x的二值特征z=(fj1,fj2,...,fjN)2+1,z∈{1,2,...,2N},随机蕨分类器对x分类置信度为:
CONF(X)=P(y=+1|fj1,fj2,...,fjN)
式中,y为OSF分类器中x的分类标签,取值范围为{+1,-1},
OSF分类器的形成步骤包含:
(1)通过多个带有分类标签的图像帧进行训练,进行最大似然估计得出概率分布:
式中, 表示在第j个随机蕨中输出为z的正样本个数,表示在第j个随机蕨中输出为z的负样本个数;
(2)初始化M组随机蕨,选取每组随机蕨中概率分布的统计直方图间的巴氏距离最小的随机蕨组和,形成OSF分类器:
式中,表示从第M组随机蕨中选取出的第k个随机蕨,每个随机蕨上正负样本对应的统计直方图间的巴氏距离为:
步骤S2中的所述分布概率为所述M组随机蕨的P(y=+1|Fj(x)=z)的平均概率。
ISVM分类器:
SVM分类器是一种常见的有监督分类器,但是为了实现全自主学习的目标检测跟踪系统,本发明采用一种无监督迭代SVM分类器以构建出ISVM分类器,具体步骤如下:
(1)根据仿射变换产生的训练样本集,提取HOG特征初始化SVM分类器
(2)对OSF分类器产生的困难样本集U={xn+1,xn+2,...,xn+r}分类得到样本标签及其分布概率
(3)选取与的样本更新SVM分类器,其中Tp与Tn分别为自定义正、负阈值;
(4)用步骤(3)中更新后的SVM分类器再次对U分类,得到新的样本标签L1与分数
(5)选取与的样本更新SVM分类器;
(6)用步骤(5)中更新后的SVM分类器再次对U分类,得到新的样本标签L2与分数
……
当相邻两次的样本标签一致,则停止迭代,得到困难样本集的最终的分类器作为ISVM分类器,k的含义为直至经过k次迭代后样本标签不再发生变化。实验中,迭代2 5次均可收敛。
图3是本发明的无监督多目标检测跟踪算法流程图,针对上述步骤S2-S5中OSF分类器和ISVM分类器进行的交替更新,采用无监督学习方式进行处理。其中OSF分类器速度较快,用于整帧进行搜索,根据OSF分类器计算的分布概率,将检测跟踪结果xi标注为正样本Spos、负样本Sneg和困难样本Shard,再由ISVM分类器对困难样本进行学习。
在OSF分类器分类进行分类时,可采用下述公式进行分类,其中β、θ均具有预设值,Hfern为分布概率。
OSF分类器的θ后续采用ISVM分类器中的θ进行更新,在ISVM分类器中θ定义为:
θ=1–ξλk (9)
ξ为敏感系数,λk衡量随机蕨分类器性能,通过
计算得到。Mtol表示需要标注的所有困难样本个数,Mr为随机蕨和SVM将困难样本分为同一类的个数。
式中xi∈Shard。
在步骤S6中采用CN(COLOR NAME)跟踪算法,CN跟踪器主要包括分类器训练模型更新和自适应颜色选取两部分。训练模型由学习目标表观模型和分类器参数AP两部分组成,设x为M×N的包含目标区域,通过循环采样得稠密样本xm,n,m∈{0,1,…,M-1},n∈{0,1,…,N-1},将样本用高斯函数标记得到带标签的样本(xm,n,ym,n)训练分类器。训练过程中,通过不断调整ω使代价函数最小:
其中,p为当前帧索引,βj为第j帧图像所占权重,φ()是通过内积核<φ(f),φ(g)>=k(f,g)定义的映射到Hilbert空间的函数,常数λ为正则化参数,y为以目标中心点为中心的二维高斯函数。
当Ap满足
时,代价函数最小。其中,Y=Fourier(y),A=Fourier(a).
的训练模型更新方式如下:
式中,γ为学习速率.
CN跟踪器将RGB投影到黑、蓝、棕、灰、绿、橙、粉、紫、红、白、黄11维特征空间得到颜色特征。为了提高算法运算速度,利用PCA主成分分析思想进行降维处理。降维后样本可表示为用重构最小代价函数作为决策函数,得到降维映射矩阵Bp:
其中,bj为投影矩阵Bp的列向量。通过更新训练模型计算响应分数
其中,Uz=Fourier(uz),响应分数最大的位置即为新目标的中心位置。
参考图4,本发明的无监督多目标检测跟踪方法一实施例的流程图,其中跟踪队列表示要跟踪的目标形成的队列,等待队列表示要等待跟踪的目标形成的队列。
具体的检测结果可参见图5。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种无监督多目标跟踪检测方法,其特征在于,包括以下步骤:
S1、对获取的图像数据的每一帧分别进行仿射变换以构建训练样本集,仿射变换是根据人为选定的第一帧的框选目标进行的,框选目标同时包括人为选定的待跟踪目标形成的正样本和人为选定的非待跟踪目标形成的负样本;
S2、根据预设的置信度阈值β和自适应阈值θ,采用OSF分类器对第一帧之后的图像数据进行分类,分类出每一帧的OSF正样本、OSF负样本以及OSF困难样本,其中分类时,样本标签的分布概率大于(β+θ)时形成所述OSF正样本,小于(β-θ)时形成所述OSF负样本,否则形成所述OSF困难样本;
S3、通过ISVM分类器对OSF困难样本进行分类;
S4、以ISVM分类器分类后形成的新的θ更新步骤S2中自适应阈值θ,反复进行步骤S2、S3直至达到自适应阈值θ收敛到预设程度,所述新的θ定义为:θ=1–ξλk,ξ为敏感系数,λk衡量随机蕨分类器性能,Mtol表示需要标注的所有困难样本个数,Mr为随机蕨和SVM将困难样本分为同一类的个数;
S5、利用步骤S4训练完成之后的OSF分类器和ISVM分类器,对获取的视频目标中的目标进行跟踪检测。
2.根据权利要求1所述的无监督多目标跟踪检测方法,其特征在于,所述步骤S5具体为:利用步骤S4训练完成之后的OSF分类器和ISVM分类器,采用滑动窗搜索的方式对图像数据进行处理,利用OSF分类器进行目标检测,将检测结果分为正样本、负样本及困难样本,运用ISVM分类器对困难样本进一步分类,并对正确的检测结果进行跟踪,由跟踪进一步收集正负样本作为待处理的图像数据,进一步利用步骤S1-S4进行分类器的更新。
3.根据权利要求1所述的无监督多目标跟踪检测方法,其特征在于,所述OSF分类器的构成如下:由J个随机蕨组成,每个随机蕨Fj由N个随机的二值特征组成Fj=(fj1,fj2,...,fjN),对于任意的n∈[1,N],且n为整数,每个二值特征fjn取决于图像帧x中随机选取的djn,1与djn,2两点像素强度大小:
4.根据权利要求3所述的无监督多目标跟踪检测方法,其特征在于,图像帧x在Fj上的输出为Fj(x)=z,其中x的二值特征z=(fj1,fj2,...,fjN)2+1,z∈{1,2,...,2N},随机蕨分类器对x分类置信度为:
CONF(X)=P(y=+1|fj1,fj2,...,fjN)
式中,y为OSF分类器中x的分类标签,取值范围为{+1,-1},
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>y</mi>
<mo>=</mo>
<mo>+</mo>
<mn>1</mn>
<mo>|</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>j</mi>
<mn>1</mn>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>j</mi>
<mn>2</mn>
</mrow>
</msub>
<mo>,</mo>
<mn>...</mn>
<mo>,</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>j</mi>
<mi>N</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>J</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>J</mi>
</munderover>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>y</mi>
<mo>=</mo>
<mo>+</mo>
<mn>1</mn>
<mo>|</mo>
<msub>
<mi>F</mi>
<mi>j</mi>
</msub>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
<mo>=</mo>
<mi>z</mi>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
5.根据权利要求4所述的无监督多目标跟踪检测方法,其特征在于,OSF分类器的形成步骤包含:
(1)通过多个带有分类标签的图像帧进行训练,进行最大似然估计得出概率分布:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>y</mi>
<mo>=</mo>
<mo>+</mo>
<mn>1</mn>
<mo>|</mo>
<msub>
<mi>F</mi>
<mi>j</mi>
</msub>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
<mo>=</mo>
<mi>z</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<msubsup>
<mi>X</mi>
<mrow>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>j</mi>
<mo>,</mo>
<mi>z</mi>
</mrow>
</msubsup>
<mrow>
<msubsup>
<mi>X</mi>
<mrow>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>j</mi>
<mo>,</mo>
<mi>z</mi>
</mrow>
</msubsup>
<mo>+</mo>
<msubsup>
<mi>X</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>j</mi>
<mo>,</mo>
<mi>z</mi>
</mrow>
</msubsup>
</mrow>
</mfrac>
</mrow>
式中, 表示在第j个随机蕨中输出为z的正样本个数,表示在第j个随机蕨中输出为z的负样本个数;
(2)初始化M组随机蕨,选取每组随机蕨中概率分布的统计直方图间的巴氏距离最小的随机蕨组和,形成OSF分类器:
<mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>f</mi>
<mi>e</mi>
<mi>r</mi>
<mi>n</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>s</mi>
<mi>i</mi>
<mi>g</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mn>1</mn>
<mi>M</mi>
</mfrac>
<msub>
<mi>&Sigma;</mi>
<mi>M</mi>
</msub>
<msubsup>
<mi>Sel</mi>
<mi>k</mi>
<mi>M</mi>
</msubsup>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
式中,表示从第M组随机蕨中选取出的第k个随机蕨,每个随机蕨上正负样本对应的统计直方图间的巴氏距离为:
<mrow>
<msub>
<mi>B</mi>
<mi>j</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>z</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msup>
<mn>2</mn>
<mi>N</mi>
</msup>
</munderover>
<msqrt>
<mrow>
<mo>(</mo>
<msubsup>
<mi>X</mi>
<mrow>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>j</mi>
<mo>,</mo>
<mi>z</mi>
</mrow>
</msubsup>
<mo>-</mo>
<msubsup>
<mi>X</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>j</mi>
<mo>,</mo>
<mi>z</mi>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
</msqrt>
<mo>.</mo>
</mrow>
6.根据权利要求5所述的无监督多目标跟踪检测方法,其特征在于,步骤S2中的所述分布概率为所述M组随机蕨的P(y=+1|Fj(x)=z)的平均概率。
7.根据权利要求1所述的无监督多目标跟踪检测方法,其特征在于,所述ISVM分类器的形成步骤如下:
(1)根据仿射变换产生的训练样本集,提取HOG特征初始化SVM分类器
(2)对OSF分类器产生的困难样本集U={xn+1,xn+2,...,xn+r}分类得到样本标签及其分布概率
(3)选取与的样本更新SVM分类器,其中Tp与Tn分别为自定义正、负阈值;
(4)用步骤(3)中更新后的SVM分类器再次对U分类,得到新的样本标签L1与分数
(5)选取与的样本更新SVM分类器;
(6)用步骤(5)中更新后的SVM分类器再次对U分类,得到新的样本标签L2与分数
……
当相邻两次的样本标签一致,则停止迭代,得到困难样本集的最终的分类器作为ISVM分类器,k的含义为直至经过k次迭代后样本标签不再发生变化。
8.根据权利要求1所述的无监督多目标跟踪检测方法,其特征在于,步骤S5中对目标进行跟踪检测时采用基于颜色特征的目标跟踪算法CN进行跟踪。
9.一种存储装置,其特征在于,存储有如权利要求1-8任一项所述的无监督多目标跟踪检测方法。
10.一种摄像装置,其特征在于,采用如权利要求1-8任一项所述的无监督多目标跟踪检测方法进行无监督多目标跟踪检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711449126.7A CN108038515A (zh) | 2017-12-27 | 2017-12-27 | 无监督多目标检测跟踪方法及其存储装置与摄像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711449126.7A CN108038515A (zh) | 2017-12-27 | 2017-12-27 | 无监督多目标检测跟踪方法及其存储装置与摄像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108038515A true CN108038515A (zh) | 2018-05-15 |
Family
ID=62097584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711449126.7A Pending CN108038515A (zh) | 2017-12-27 | 2017-12-27 | 无监督多目标检测跟踪方法及其存储装置与摄像装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108038515A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109409414A (zh) * | 2018-09-28 | 2019-03-01 | 北京达佳互联信息技术有限公司 | 样本图像确定方法和装置、电子设备及存储介质 |
CN109711296A (zh) * | 2018-12-14 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 物体分类方法及其装置、计算机程序产品、可读存储介质 |
CN109740676A (zh) * | 2019-01-07 | 2019-05-10 | 电子科技大学 | 基于相似目标的物体检测迁移方法 |
CN110555339A (zh) * | 2018-05-31 | 2019-12-10 | 北京嘀嘀无限科技发展有限公司 | 一种目标检测方法、系统、装置及存储介质 |
CN110647931A (zh) * | 2019-09-20 | 2020-01-03 | 深圳市网心科技有限公司 | 物体检测方法、电子设备、系统及介质 |
WO2021051230A1 (en) * | 2019-09-16 | 2021-03-25 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for object detection |
CN113100898A (zh) * | 2021-04-20 | 2021-07-13 | 电子科技大学 | 脊椎生长检测的智能生长棒及控制方法 |
CN113129337A (zh) * | 2021-04-14 | 2021-07-16 | 桂林电子科技大学 | 背景感知跟踪方法、计算机可读存储介质及计算机设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708384A (zh) * | 2012-06-04 | 2012-10-03 | 西南交通大学 | 一种基于随机蕨的自举弱学习方法及其分类器 |
CN102722725A (zh) * | 2012-06-04 | 2012-10-10 | 西南交通大学 | 一种基于主动场景学习的对象跟踪方法 |
CN102982340A (zh) * | 2012-10-31 | 2013-03-20 | 中国科学院长春光学精密机械与物理研究所 | 基于半监督学习和随机蕨类分类器的目标跟踪方法 |
CN104156734A (zh) * | 2014-08-19 | 2014-11-19 | 中国地质大学(武汉) | 一种基于随机蕨分类器的全自主在线学习方法 |
CN105006003A (zh) * | 2015-07-09 | 2015-10-28 | 北京航空航天大学 | 基于随机投影蕨的实时目标跟踪算法 |
CN105825233A (zh) * | 2016-03-16 | 2016-08-03 | 中国地质大学(武汉) | 一种基于在线学习随机蕨分类器的行人检测方法 |
CN107092878A (zh) * | 2017-04-13 | 2017-08-25 | 中国地质大学(武汉) | 一种基于混合分类器的可自主学习多目标检测方法 |
CN107481264A (zh) * | 2017-08-11 | 2017-12-15 | 江南大学 | 一种自适应尺度的视频目标跟踪方法 |
-
2017
- 2017-12-27 CN CN201711449126.7A patent/CN108038515A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102708384A (zh) * | 2012-06-04 | 2012-10-03 | 西南交通大学 | 一种基于随机蕨的自举弱学习方法及其分类器 |
CN102722725A (zh) * | 2012-06-04 | 2012-10-10 | 西南交通大学 | 一种基于主动场景学习的对象跟踪方法 |
CN102982340A (zh) * | 2012-10-31 | 2013-03-20 | 中国科学院长春光学精密机械与物理研究所 | 基于半监督学习和随机蕨类分类器的目标跟踪方法 |
CN104156734A (zh) * | 2014-08-19 | 2014-11-19 | 中国地质大学(武汉) | 一种基于随机蕨分类器的全自主在线学习方法 |
CN105006003A (zh) * | 2015-07-09 | 2015-10-28 | 北京航空航天大学 | 基于随机投影蕨的实时目标跟踪算法 |
CN105825233A (zh) * | 2016-03-16 | 2016-08-03 | 中国地质大学(武汉) | 一种基于在线学习随机蕨分类器的行人检测方法 |
CN107092878A (zh) * | 2017-04-13 | 2017-08-25 | 中国地质大学(武汉) | 一种基于混合分类器的可自主学习多目标检测方法 |
CN107481264A (zh) * | 2017-08-11 | 2017-12-15 | 江南大学 | 一种自适应尺度的视频目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
DAPENG LUO 等: ""Online Generative-Discriminative Model for Object Detection in Video: An Unsupervised Learning Framework"", 《ARXIV:1611.03968V3 [CS.CV]》 * |
吴晓光 等: ""基于自适应颜色特征学习的目标跟踪技术"", 《计算机工程与应用》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555339A (zh) * | 2018-05-31 | 2019-12-10 | 北京嘀嘀无限科技发展有限公司 | 一种目标检测方法、系统、装置及存储介质 |
CN109409414A (zh) * | 2018-09-28 | 2019-03-01 | 北京达佳互联信息技术有限公司 | 样本图像确定方法和装置、电子设备及存储介质 |
CN109711296A (zh) * | 2018-12-14 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 物体分类方法及其装置、计算机程序产品、可读存储介质 |
CN109740676A (zh) * | 2019-01-07 | 2019-05-10 | 电子科技大学 | 基于相似目标的物体检测迁移方法 |
WO2021051230A1 (en) * | 2019-09-16 | 2021-03-25 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for object detection |
CN110647931A (zh) * | 2019-09-20 | 2020-01-03 | 深圳市网心科技有限公司 | 物体检测方法、电子设备、系统及介质 |
CN113129337A (zh) * | 2021-04-14 | 2021-07-16 | 桂林电子科技大学 | 背景感知跟踪方法、计算机可读存储介质及计算机设备 |
CN113129337B (zh) * | 2021-04-14 | 2022-07-19 | 桂林电子科技大学 | 背景感知跟踪方法、计算机可读存储介质及计算机设备 |
CN113100898A (zh) * | 2021-04-20 | 2021-07-13 | 电子科技大学 | 脊椎生长检测的智能生长棒及控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108038515A (zh) | 无监督多目标检测跟踪方法及其存储装置与摄像装置 | |
Jalal et al. | Scene semantic recognition based on modified fuzzy C-mean and maximum entropy using object-to-object relations | |
US9798923B2 (en) | System and method for tracking and recognizing people | |
WO2022218396A1 (zh) | 图像处理方法、装置和计算机可读存储介质 | |
Hu et al. | Detection and recognition for life state of cell cancer using two-stage cascade CNNs | |
Mei et al. | Recent advances of target tracking applications in aquaculture with emphasis on fish | |
Gao et al. | An end-to-end broad learning system for event-based object classification | |
CN113408584A (zh) | Rgb-d多模态特征融合3d目标检测方法 | |
Hsu et al. | Human body motion parameters capturing using kinect | |
CN111985333A (zh) | 一种基于图结构信息交互增强的行为检测方法及电子装置 | |
Wang et al. | Pig face recognition model based on a cascaded network | |
Rosales et al. | Faster r-cnn based fish detector for smart aquaculture system | |
Lin et al. | An object tracking method based on CNN and optical flow | |
Huberman-Spiegelglas et al. | Single image object counting and localizing using active-learning | |
Kacete et al. | [POSTER] Decision Forest For Efficient and Robust Camera Relocalization | |
CN110414301B (zh) | 一种基于双摄头的列车车厢人群密度估计方法 | |
Huang et al. | An anti-occlusion and scale adaptive kernel correlation filter for visual object tracking | |
CN111401519A (zh) | 一种基于物体内和物体间相似性距离的深层神经网络无监督学习方法 | |
Murthi et al. | A semi-automated system for smart harvesting of tea leaves | |
Boragno et al. | Object classification for real-time video-surveillance applications | |
Lin et al. | Dual-mode iterative denoiser: tackling the weak label for anomaly detection | |
Kadim et al. | Training configuration analysis of a convolutional neural network object tracker for night surveillance application | |
Sahay et al. | Multi-Object Detection and Tracking Using Machine Learning | |
CN111259843B (zh) | 基于视觉稳定特征分类配准的多媒体导航仪测试方法 | |
Singh et al. | CHELM: Convex Hull based Extreme Learning Machine for salient object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180515 |