CN102663419A - 基于表示模型和分类模型的云台跟踪方法 - Google Patents
基于表示模型和分类模型的云台跟踪方法 Download PDFInfo
- Publication number
- CN102663419A CN102663419A CN2012100776386A CN201210077638A CN102663419A CN 102663419 A CN102663419 A CN 102663419A CN 2012100776386 A CN2012100776386 A CN 2012100776386A CN 201210077638 A CN201210077638 A CN 201210077638A CN 102663419 A CN102663419 A CN 102663419A
- Authority
- CN
- China
- Prior art keywords
- benchmark
- affine matrix
- prototype
- profile
- gray scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
本发明公开了一种基于表示模型和分类模型的云台跟踪方法,主要包括以下步骤:a)目标初始化:生成灰度基准仿射矩阵和轮廓原型基准仿射矩阵;b)根据上述灰度基准仿射矩阵和轮廓原型基准仿射矩阵生成粒子;c)初始化分类器;d)对上述b步骤中生成的粒子进行带重新初始化的粒子滤波;e)估计检测的目标位置;f)利用c步骤中的分类器判断上述检测到的目标位置是否丢失;g)若上述分类器的返回值超过阀值,则更新分类器,返回步骤d,如上述分类器的返回值没有超过阀值,则对目标进行检测。这样,可避免目标在跟踪过程中由于受到光照剧烈变化,快速非平面运动或者被其他物体遮挡等影响而发生漂移。<b/>
Description
技术领域
本发明涉及视频监控领域,确切地说,涉及视觉目标跟踪领域,是一种基于表示模型和分类模型的云台跟踪方法。
背景技术
云台跟踪算法,通过云台摄像机拍摄的视频,跟踪选定的目标。在云台摄像机跟踪目标物体的过程中,由于不能像静态摄像机那样创建静态背景,因此需要通过外观和分类模型等方法来区分前景和背景,以最终确定被跟踪目标的位置,给出准确的目标框。利用此技术可以对被监控区域的感兴趣行人目标进行跟踪,为智能视频分析的上层应用提供重要的目标位置信息。
当前流行的云台跟踪算法主要是通过增量学习被跟踪的目标的灰度外观模型来不断的自适应目标的外观变化。这种方法假设目标灰度外观在任何时刻的状态都是从一个高斯分布中采样得到,因此目标的外观可以通过高斯的期望与主元的加权和来表示。高斯的期望和主元是通过增量主元分析算法(IPCA)完成的,这个方法可以在目标的外观变化不是特别快,没有遮挡的情况下保持非常精确的跟踪效果。然而,在真实的云台监控环境下,往往达不到如此理想的条件,被监控的目标往往会发生迅速的非平面运动,或者因为摄像机运动导致外观变模糊,而且遮挡也经常出现。所以,在实际应用中只采用灰度外观模型的跟踪算法无法发挥有效作用。
发明内容
本发明的目的在于,针对上述问题,提出一种基于表示模型和分类模型的云台跟踪方法,以使目标在受到光照剧烈变化,快速非平面运动或者被其他物体遮挡影响,等情况下避免发生目标跟踪漂移的优点。
为实现上述目的,本发明采用的技术方案是:
一种基于表示模型和分类模型的云台跟踪方法,包括以下步骤:
a):目标初始化:生成灰度基准仿射矩阵和轮廓原型基准仿射矩阵;
b):根据上述灰度基准仿射矩阵和轮廓原型基准仿射矩阵生成粒子;
c):初始化分类器;
d):对上述b步骤中生成的粒子进行带重新初始化的粒子滤波;
e):估计检测的目标位置;
f):利用c步骤中的分类器判断上述检测到的目标位置是否丢失;
g):若上述分类器的返回值超过阀值,则更新分类器,返回步骤d,如上述分类器的返回值没有超过阀值,则对目标进行检测。
根据本发明的优选实施例,上述生成灰度基准仿射矩阵和轮廓原型基准仿射矩阵包括以下步骤:
轮廓原型基准仿射矩阵包括正面轮廓原型基准仿射矩阵和侧面轮廓原型基准仿射矩阵。正面轮廓的外接矩形的左下,左上,右上,右下角坐标为,侧面轮廓的外接矩形的左下,左上,右上,右下角坐标为。计算目标框相对于正面和侧面轮廓圆形的外接矩形区域基准仿射矩阵和。与灰度基准矩阵计算类似,为避免得到过决定问题,计算过程中没有使用右下角坐标:
根据本发明的优选实施例,上述外观似然函数为:
本发明的技术方案中,加入由一组控制点的连线来表示的行人轮廓,因为行人的轮廓具有相似性,所以在学习轮廓特征的时候可以共有的特性为基础开始学习。我们称这个共有特性为原型。为了获得轮廓的原型,收集了一组对齐的正面和侧面的行人图片。通过计算这些行人轮廓的平均位置来获得正面和侧面的轮廓原型。此外,假设这个偏移向量符合一个高斯分布,因此可以通过增量主元分析来获得这个偏移向量的主元。进而,通过偏移向量的主元可以计算一个椭圆分布函数来估计观测的轮廓的似然性。
在灰度和轮廓的增量主元分析表示模型以外,还采用了一个判别式模型来解决跟踪失败后处理问题。因为表示模型只能用来计算观测的似然度,所以对于跟踪失败很难进行目标检测。在此,采用了一个增量的多实例分类器用来判断是否跟踪失败,在跟踪失败后重获检测目标,恢复跟踪。普通的多实例分类器的训练集只要求被训练的目标在图像中,而不需要知道目标在训练图像中的具体位置。而多实例分类器比一般的分类器具有更鲁棒的特性。在多实例分类器的基础上,我们增加增量功能,采用增量多实例分类器。增量多实例分类器可以在学习新的训练集的时候保持之前训练集的分类结果;此外还可以对已经学习的训练集进行反学习操作。这样我们可以维持一个只由最近的观测值训练的检测器。在跟踪的过程通过增量多实例分类器来判断跟踪是否失败和重新获得目标。通过表示和分类模型的共同作用可以有效的捕捉行人目标在特征空间中的流型,有效的克服了跟踪中的目标漂移的问题。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例所述的基于表示模型和分类模型的云台跟踪方法的流程图;
图2a为本发明实施例所述的行人轮廓的正面轮廓原型的示意图;
图2b为本发明实施例所述的行人轮廓的侧面轮廓原型的示意图;
图3为图2a和图2b中控制点处的RMS误差的曲线图;
图4为本发明实施例中灰度和轮廓模板通过仿射变换映射到目标区域过程的示意图;
图5为本发明实施例中轮廓偏移向量过程的示意图;
图6为本发明实施例中通过分类器标注的样本训练来更新分类器的示意图;
图7为本发明实施例中灰度表示模型在跟踪视频中的更新展示图;
图8为本发明实施例中在跟踪过程中,正面和侧面轮廓的自适应跳转情况图;
图9为跟踪过程中,增量多实例分类器的分类性能(精确度/召回率曲线)的变化情况图;
图10为本发明实施例中跟踪目标通过遮挡物时候的跟踪效果。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
如图1所示,一种基于表示模型和分类模型的云台跟踪方法,包括以下步骤:
a):目标初始化:生成灰度基准仿射矩阵和轮廓原型基准仿射矩阵;
b):根据上述灰度基准仿射矩阵和轮廓原型基准仿射矩阵生成粒子;
c):初始化分类器;
d):对上述b步骤中生成的粒子进行带重新初始化的粒子滤波;
e):估计检测的目标位置;
f):利用c步骤中的分类器判断上述检测到的目标位置是否丢失;
g):若上述分类器的返回值超过阀值,则更新分类器,返回步骤d,如上述分类器的返回值超过阀值没有超过阀值,则对目标进行检测。
其中,生成灰度基准仿射矩阵和轮廓原型基准仿射矩阵包括以下步骤:
轮廓原型基准仿射矩阵包括正面轮廓原型基准仿射矩阵和侧面轮廓原型基准仿射矩阵。正面轮廓的外接矩形的左下,左上,右上,右下角坐标为,侧面轮廓的外接矩形的左下,左上,右上,右下角坐标为。计算目标框相对于正面和侧面轮廓圆形的外接矩形区域基准仿射矩阵和。与灰度基准矩阵计算类似,为避免得到过决定问题,计算过程中没有使用右下角坐标:
其中用到的各种模型和公式如下:
1. 表示模型:
行人的外观同时由灰度和轮廓两方面刻画。每一个特定的行人的外观由灰度主元空间中的一个数据点以及轮廓主元空间中的一个数据点加上它们各自的残差组成。
a) 轮廓模型:一个轮廓通过一组控制点的连线来表示。轮廓的演变与其他的动态轮廓算法相同:所有的控制点可以沿着各自的法方向内外移动。每一个控制点的法方向通过相邻的两个点的连线的法方向来近似。
不同的行人个体的轮廓在特定角度看上去都是相似的,所以不同个体的轮廓的子空间具有相同的期望。我们在这里称这个期望为原型,如图2a和图2b所示。为了提高轮廓模型自适应目标轮廓的速度,算法直接基于轮廓原型进行学习。正面和侧面轮廓的原型是通过计算已对齐好且标注好轮廓的训练图片的轮廓平均位置获得的。
轮廓的模板是在轮廓的原型的控制点法方向上设置偏移来获得的。所有控制点上面的偏移量组成一个向量,这里是一个类型标记。我们假设行人的上半身轮廓可以由正面或者侧面的轮廓原型加上偏移来获得。此外,我们按照动态形状模型算法(ASM)的思路假设偏移向量符合一个高斯分布。因此,行人的上半身轮廓的计算公式为
其中,是偏移向量的期望,是偏移向量的主元集合,是偏移向量在主元上面的响应值,是一个很小的残差。这个残差无法在主元空间中表示。注意是演化的轮廓子空间的期望,也就是根据观测得到的行人上半身轮廓的自适应轮廓。,和对应的特征值通过IPCA进行更新。因为我们维护了正面和侧面两个轮廓模板,所以它们各自的模型由对应的IPCA来维护。
b)灰度模型:目标的灰度通过一个向量来表示。这个向量是在目标框内均匀采集的32x32点阵对应位置的灰度值。我们假设这个向量符合一个高斯分布,因此行人的灰度可以表示为
2. 分类模型:
行人目标在初始化后,由一个增量的多实例分类器(INCMIL)来进行检测。INCMIL是通过增量支持向量机(INCSVM)和多实例分类器(mi-SVM)两个算法共同导出的。
INCSVM是一个用来训练支持向量集的在线递归算法,每次可以只训练一个样本。此外,这个算法是一个可逆的过程,所以已经训练的样本可以从判别模型中反学习掉。这个算法在每次获得一个新的训练样本的时候,通过解一个二次规划问题来进行训练。这个凸的二次规划问题的目标公式为
其中是训练数据点的权重。是核矩阵的一个元素。当对一个新的数据点进行训练的时候,它的权重被初始化成0。接下选择一个非常小的加入到权重。这个必须足够小,以使已经训练的数据点不会在支持向量集合,错误向量集合和其他向量集合之间转移。在服从支持向量机的Kuhn-Tucker限制条件下,带来的影响通过 的适当的调整来抵消。这个影响抵消的过程叫做增量绝热过程。 的调整应该满足
其中是的变化量。是核矩阵的支持向量对应的行和列的子矩阵。因为和与的数值一起改变,所以一些数据集会在支持向量集合与错误向量集合之间或者支持向量集合与其他向量集合之间发生迁移。如果在这个增量绝热迭代过程中,对于数据集在三个集合之间进行合理的迁移,那么训练就会在有限步结束。类似的,减量绝热过程可以从模型中反学习一个数据点。
mi-SVM是一个基于支持向量机的MIL分类器的实现。MIL是一个泛化的监督分类问题。这个问题中样本标注都是与一个包含许多样本的包相对应的,而不是和单一样本相对应。所以在保持包的标注不变的情况下,包内的样本的各自的标注是存在多组可能。mi-SVM希望找到一组标注,使按照这组标注训练的支持向量机的margin最大。因此mi-SVM的目标公式可以写成
为了在学习新的包的同时保持已经学习的包的分类结果,本发明提出了一种新的增量多实例分类器。它由INCSVM和mi-SVM两个算法组合而成。这个增量多实例分类器的伪代码如下
初始化:for
Repeat
End if
End for
3. 跟踪过程
目标初始化:目标通过手动或者任何一种最近的行人检测算法(比如Viola Jones检测器,Alpha-Beta-Gamma检测器)来初始化。我们假设目标初始框被准确的指定,所以初始的灰度和轮廓模板可以直接从指定的目标框内的观测获得。为了将灰度采样用的点阵和轮廓原型映射模板到选定目标框区域,需要对于它们各自计算一个仿射矩阵,如图3所示。因为灰度采样点阵和轮廓原型大小不同,所以需要两个不同的仿射矩阵,分别用和表示。另外,需要注意的是正面和侧面的轮廓原型具有不同的外接矩形大小,所以是从和中选择的。具体选择哪一个按照d)中将要介绍的方法分别计算两种轮廓原型与观测值的相似度。哪个相似度高就选择哪个轮廓原型的外接矩形对应的仿射矩阵。之后的所有采样目标框中的灰度点阵和轮廓原型的对应的仿射矩阵都是分别基于和两个仿射矩阵进行变换的。
其中是在时刻的状态。轮廓模板的原型类别的跳转通过带重新初始化粒子的条件概率密度传播(ICONDENSATION)算法来实现,因为该算法可以在粒子滤波的重新采样粒子阶段重新初始化随机轮廓原型类别的粒子。通过形式方式表示,基于观测历史条件下对于状态分布函数进行传播的公式为
其中是重新初始化粒子的概率。是从视频中获得的观测的历史。是重新初始化粒子先验概率。是标准条件概率密度传播(CONDENSATION)算法的粒子先验概率。是观测历史的概率密度函数在处的取值。如果我们假设观测历史随机变量符合均匀分布,那么是一个常量。
c)运动模型:目标的运动状态可以通过一个一阶的自回归模型近似描述:
d)外观似然:用来估计似然度。它通过给采样打分来实现。因为我假设过灰度和轮廓的偏移向量都符合高斯分布。所以我们通过两个椭圆分布密度函数的相乘来计算权重
其中是在时刻观测到的图象。是经过仿射变换的模板。从式(12)中可以看到灰度和轮廓模板都被映射到采样对应的目标框区域。和分别由轮廓的偏移向量和灰度向量的主元组成的矩阵。和是由轮廓偏移向量和灰度向量的特征值组成的对角矩阵。因此和分别是轮廓偏移向量和灰度向量的协方差矩阵。
。 (13)
观测的轮廓偏移向量通过将仿射后的模板放到Canny响应图上面获得的,如图4所示。我们通过搜索模板上面每一个空间点沿法方向最近一个Canny响应非零点的位置来获得偏移大小,组成偏移向量。我们定义向轮廓模板外部偏移为正偏移,向内部偏移为负偏移。观测的偏移向量的似然计算方法为
其中第一个指数因子是通过马式距离对于观测偏移的评估。第二个指数因子是为了避免与实际轮廓平移偏移过大的采样被打一个很高的分数。
灰度模板是一个灰度向量。向量的每一个元素都对应采样点阵中的一个点。这个采样方阵的点的坐标通过矩阵来表示,其中是采样点阵中点的总数。对于给定的采样仿射矩阵,灰度模板被仿射到采样对应的区域与观测灰度进行比较。观测的灰度向量的似然计算方法为
e) 粒子重新初始化:粒子重新初始化是对于防止各种轮廓类型的粒子灭绝的必要手段。在重新初始化的过程中,轮廓的类别按照均匀分布随机的赋值。也就是说,重新初始化的粒子在轮廓类型的边缘分布上具有相同的正面和侧面的概率。重新初始化的粒子的仿射矩阵可以被赋值为上次估计出的仿射状态,因为这个状态是对于目标位置的一个最可靠的猜测。
g)外观学习和检测:行人检测是为了通过学习一个模型来将行人从背景中区分开来。我们选择了灰度向量作为特征向量放入INCMIL进行训练。与P-N学习的框架相似,我们通过已有的分类器将没有标注的数据进行标注,然后用标注的数据更新已有的分类器,如图5所示。如果跟踪估计得到的目标框的大小为,我们假设当目标框内的灰度观测在分类器的响应值超过1,那么中心与估计目标框中心距离不超过的目标框内的观测灰度向量都放入正包中,而中心距离超过的目标框的观测灰度向量都放入负包中。另外,分类器在背景区域进行搜索,寻找困难负样本。也就是在背景中采样目标框,如果分类器结果为正样本,则将采样框内的观测灰度加入困难负样本集合。所有这些被标注的包放入INCMIL进行训练,得到更新的分类器。
因为用来实现INCMIL的INCSVM算法随着训练的数据点的数量的增加,速度有所减慢。所以我们值保持800个训练样本在INCMIL中,而反学习掉多余的。为了最小化分类器因为反学习带来的分类性能的损失,算法首先反学习掉所有在其他训练样本集合中的样本,然后才是最早进入INCMIL训练的样本。这样不但可以维持分类器的训练和分类速度,而且可以实现分类器不断自适应最新的观测,不断排除旧的观测。
当在目标框内的观测灰度向量被分类器分类成负样本时候,目标被认为暂时丢失。跟踪算法通过在所有可能的位置通过分类器检测目标存在来重新获得目标。
具体流程为:
跟踪一个目标,需要线上和线下的准备。
根据已经对齐的正面行人图片,学习行人的一个正面的行人轮廓原型,学习的方法同主动轮廓模型(ASM)算法学习的方法相同。就是在训练样本上面标记轮廓控制点位置。将训练样本对齐以后,计算对应控制点的期望位置。如图2a。同样的方法训练出行人的侧面轮廓原型,如图2b。
轮廓原型基准仿射矩阵包括正面轮廓原型基准仿射矩阵和侧面轮廓原型基准仿射矩阵。正面轮廓的外接矩形的左下,左上,右上,右下角坐标为,侧面轮廓的外接矩形的左下,左上,右上,右下角坐标为。然后,计算目标框相对于正面和侧面轮廓圆形的外接矩形区域基准仿射矩阵和。与灰度基准矩阵计算类似,为避免得到过决定问题,计算过程中没有使用右下角坐标。
轮廓的基准仿射矩阵要从和中选择一个。选择方式是看正面和侧面轮廓原型哪个通过它们各自的基准仿射矩阵仿射变换后能够与目标的轮廓更为匹配,利用外观似然在目标初始化的时候设置和为0,。和的计算方法如具体实施方式3(d)和图3所示。比如下图中的目标初始化的时候经过仿射变换的正面和侧面轮廓原型可以看出,所以。
设置若干个形如上述公式(6)的粒子。每个粒子的都设置成单位阵,表示所有的粒子都表示目标初始化的目标框位置,一半粒子的设置成front,另一半设置成side。表示一半粒子表示选用在正面轮廓原型上进行演化,另一半粒子表示选用在侧面轮廓原型上进行演化。
最后,按照图5所示进行初始化INCMIL分类器。因为第一帧目标框是手工或者行人检测算法提供的。所以人为目标框足够可靠。认为目标区域以及附近的带有稍微偏差的区域(图5中的标注为1目标框)都为目标的正实例。所以把所有红框中的灰度进行下采样到1024维的向量放入正包。然后在距离目标中心水平距离超过w/2,垂直距离超过h/2的区域随机采样目标框(图5中的标注为2目标框)作为目标的负实例。将每一个负实例放入各自的负包。放入INCMIL得到一个分类器,在第一帧中进行穷尽搜索,检查是否有非目标区域但是分类成正例的区域。将改区域中的灰度向量放入负包放入INCMIL进行训练。得到目标的初始检测器。
采用公式(7)所示的概率密度传播公式来对粒子采样。采用的方法为ICONDENSATION方法。
然后,采一个符合上符合均匀分布的随机变量。如果随机变量大于,那么在现有的粒子中进行带放回的权重采样。粒子权重是上次粒子滤波中粒子计算得到的权重,如果是第一帧跟踪,那么为。如果随机变量小于,那么创建新的粒子。创建的新粒子中为上一帧粒子滤波估计目标的位置对应的仿射矩阵。如果是第一帧为单位阵。新粒子的按照均匀分布随机在进行选择。然后对于新粒子按照概率进行传播。新采样的粒子的数量和原来的一样。
最后,根据粒子的权重按照公式(16)估计目标的状态。
检测和分类器更新
对于粒子滤波估计的目标位置中的灰度向量进行分类。如果被INCMIL分类为反例那么认为目标丢失。则在全图进行检测。如果估计的目标框内的灰度向量被分类成正例并且分类器的返回值超过阈值就按照目标初始化时候的方式更新分类器。也就是对于目标框周围的若干目标框内的灰度放入正包。远一些的目标框内的灰度放入负包。训练出来的分类器在全图检测。如果检测到非目标框区域的正例,则把虚警区域的灰度放入负包进行训练。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于表示模型和分类模型的云台跟踪方法,主要包括以下步骤:
a):目标初始化:生成灰度基准仿射矩阵和轮廓原型基准仿射矩阵;
b):根据上述灰度基准仿射矩阵和轮廓原型基准仿射矩阵生成粒子;
c):初始化分类器;
d):对上述b步骤中生成的粒子进行带重新初始化的粒子滤波;
e):估计目标位置;
f):利用c步骤中的分类器判断上述检测到的目标位置是否丢失;
g):若上述分类器的返回值超过阀值,则更新分类器,返回步骤d,如上述分类器的返回值没有超过阀值,则对目标进行检测。
2.根据权利要求1所述的基于表示模型和分类模型的云台跟踪方法,上述生成灰度基准仿射矩阵和轮廓原型基准仿射矩阵包括以下步骤:
与灰度基准矩阵计算类似,为了避免得到过决定问题,计算过程中没有使用右下角坐标:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100776386A CN102663419A (zh) | 2012-03-21 | 2012-03-21 | 基于表示模型和分类模型的云台跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2012100776386A CN102663419A (zh) | 2012-03-21 | 2012-03-21 | 基于表示模型和分类模型的云台跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102663419A true CN102663419A (zh) | 2012-09-12 |
Family
ID=46772903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2012100776386A Pending CN102663419A (zh) | 2012-03-21 | 2012-03-21 | 基于表示模型和分类模型的云台跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102663419A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102915043A (zh) * | 2012-10-17 | 2013-02-06 | 天津市亚安科技股份有限公司 | 一种提高云台定位精度的方法 |
CN107749068A (zh) * | 2017-09-20 | 2018-03-02 | 天津大学 | 粒子滤波与感知hash算法实现目标实时跟踪方法 |
CN107958463A (zh) * | 2017-12-04 | 2018-04-24 | 华中科技大学 | 一种改进的多专家熵最小化跟踪算法 |
CN110619434A (zh) * | 2019-09-17 | 2019-12-27 | 北谷电子有限公司上海分公司 | 一种预测还款概率的方法、装置、电子设备和存储介质 |
CN115953433A (zh) * | 2023-02-06 | 2023-04-11 | 宿迁学院 | 一种混合式图像目标跟踪方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110002548A1 (en) * | 2009-07-02 | 2011-01-06 | Honeywell International Inc. | Systems and methods of video navigation |
CN102184551A (zh) * | 2011-05-10 | 2011-09-14 | 东北大学 | 结合多种特征匹配和粒子滤波的目标自动跟踪方法及系统 |
-
2012
- 2012-03-21 CN CN2012100776386A patent/CN102663419A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110002548A1 (en) * | 2009-07-02 | 2011-01-06 | Honeywell International Inc. | Systems and methods of video navigation |
CN102184551A (zh) * | 2011-05-10 | 2011-09-14 | 东北大学 | 结合多种特征匹配和粒子滤波的目标自动跟踪方法及系统 |
Non-Patent Citations (2)
Title |
---|
YI XIE等: ""TRACKING PEDESTRIANS WITH INCREMENTAL LEARNED INTENSITY AND CONTOUR TEMPLATES FOR PTZ CAMERA VISUAL SURVEILLANCE", 《IEEE》 * |
朱明清等: "基于灰色预测模型和粒子滤波的视觉目标跟踪算法", 《控制与决策》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102915043A (zh) * | 2012-10-17 | 2013-02-06 | 天津市亚安科技股份有限公司 | 一种提高云台定位精度的方法 |
CN102915043B (zh) * | 2012-10-17 | 2015-02-11 | 天津市亚安科技股份有限公司 | 一种提高云台定位精度的方法 |
CN107749068A (zh) * | 2017-09-20 | 2018-03-02 | 天津大学 | 粒子滤波与感知hash算法实现目标实时跟踪方法 |
CN107958463A (zh) * | 2017-12-04 | 2018-04-24 | 华中科技大学 | 一种改进的多专家熵最小化跟踪算法 |
CN107958463B (zh) * | 2017-12-04 | 2020-07-03 | 华中科技大学 | 一种改进的多专家熵最小化跟踪方法 |
CN110619434A (zh) * | 2019-09-17 | 2019-12-27 | 北谷电子有限公司上海分公司 | 一种预测还款概率的方法、装置、电子设备和存储介质 |
CN115953433A (zh) * | 2023-02-06 | 2023-04-11 | 宿迁学院 | 一种混合式图像目标跟踪方法 |
CN115953433B (zh) * | 2023-02-06 | 2023-09-19 | 宿迁学院 | 一种混合式图像目标跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110543837B (zh) | 一种基于潜在目标点的可见光机场飞机检测方法 | |
CN111508002B (zh) | 一种小型低飞目标视觉检测跟踪系统及其方法 | |
JP5227629B2 (ja) | オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム | |
CN103198493B (zh) | 一种基于多特征自适应融合和在线学习的目标跟踪方法 | |
CN103886325B (zh) | 一种分块的循环矩阵视频跟踪方法 | |
Liu et al. | Optical flow based urban road vehicle tracking | |
CN104123544A (zh) | 基于视频分析的异常行为检测方法及系统 | |
CN104680559B (zh) | 基于运动行为模式的多视角室内行人跟踪方法 | |
CN108445480A (zh) | 基于激光雷达的移动平台自适应扩展目标跟踪系统及方法 | |
CN107784291A (zh) | 基于红外视频的目标检测跟踪方法和装置 | |
KR101414670B1 (ko) | 온라인 랜덤 포레스트 및 파티클 필터를 이용한 열 영상에서의 객체 추적 방법 | |
CN103632382A (zh) | 一种基于压缩感知的实时多尺度目标跟踪方法 | |
CN104318258A (zh) | 一种基于时域模糊和卡尔曼滤波器的车道线检测方法 | |
CN101493943B (zh) | 一种粒子滤波跟踪方法和跟踪装置 | |
CN107424171A (zh) | 一种基于分块的抗遮挡目标跟踪方法 | |
CN106778570B (zh) | 一种行人实时检测与跟踪方法 | |
CN102663419A (zh) | 基于表示模型和分类模型的云台跟踪方法 | |
CN106991686A (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN103065163B (zh) | 一种基于静态图片的快速目标检测识别系统及方法 | |
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
CN104537689A (zh) | 基于局部对比显著性联合特征的目标跟踪方法 | |
CN106228570A (zh) | 一种真值数据确定方法和装置 | |
CN109242019A (zh) | 一种水面光学小目标快速检测与跟踪方法 | |
CN108805902A (zh) | 一种自适应尺度的时空上下文目标跟踪方法 | |
Feng | Mask RCNN-based single shot multibox detector for gesture recognition in physical education |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20181121 Address after: Room 217, Building 11-1, Hongyi Road, Xinwu District, Wuxi City, Jiangsu Province Applicant after: Wuxi Dacheng Consulting Co., Ltd. Address before: 214122 North Post, University Science Park, 97 Linghu Avenue, Wuxi New District, Jiangsu Province Applicant before: Jiangsu Shiruan Intelligent System Co.,Ltd. |
|
AD01 | Patent right deemed abandoned | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20190628 |