CN108537250B - 一种目标跟踪模型构建方法及装置 - Google Patents
一种目标跟踪模型构建方法及装置 Download PDFInfo
- Publication number
- CN108537250B CN108537250B CN201810219008.5A CN201810219008A CN108537250B CN 108537250 B CN108537250 B CN 108537250B CN 201810219008 A CN201810219008 A CN 201810219008A CN 108537250 B CN108537250 B CN 108537250B
- Authority
- CN
- China
- Prior art keywords
- sample
- target
- samples
- average
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种目标跟踪模型构建方法及装置,通过获取跟踪目标的历史样本;对所述跟踪目标的历史样本进行带时间约束的聚类;计算每类样本的平均代表图;对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型。根据不断更新的历史样本,对计算获得的代表样本进行循环的自步学习,实现了通过不断回顾历史样本和循环自步学习获得的目标跟踪模型对于当前帧目标与背景的区分度最大,利用模型对当前目标的预测误差来确定样本权重,提高了目标跟踪的稳定性,有效防止目标跟踪的漂移。
Description
技术领域
本发明涉及目标跟踪技术领域,具体涉及一种目标跟踪模型构建方法及装置。
背景技术
目标跟踪是计算机视觉中的热门领域,其广泛应用于智能监控、自动驾驶、人机交互等方面。目标跟踪过程中由于目标外观与姿态的变化、背景的变化、光照的变化等,使得目标在跟踪过程很容易产生漂移。建立准确的目标外观模型及其更新方法对于目标跟踪的性能至关重要。
现有的目标跟踪算法中,目标跟踪模型一般根据每帧跟踪结果采集正负样本进行线性更新的方法。随着跟踪的进行,如果发生跟踪错误或者目标外观不稳定,这样的更新往往会导致模型产生误差并最终导致跟踪漂移。应对这样的问题,大部分的解决方法是,根据目标对模型的适应程度来调节学习率,由于每次跟踪结果都是由模型得到的,因此其必然与模型的适应程度有较大关联,如果发生误差将导致错误积累并最终漂移;也有做法是,判断是否发生遮挡,遮挡则不更新,这样的策略在判断失效的情况下容易错过更新。
发明内容
本发明要解决的技术问题在于克服现有的目标跟踪过程中目标跟踪模型更新误差较大易导致跟踪漂移的缺陷。
本发明提供一种目标跟踪模型构建方法,包括:
获取跟踪目标的历史样本;
对所述跟踪目标的历史样本进行带时间约束的聚类;
计算每类样本的平均代表图;
对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型。
优选地,在所述对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型的步骤之后,还包括:
根据当前确定的时空上下文模型对目标进行跟踪;
将跟踪的目标作为历史样本。
优选地,所述对所述跟踪目标的历史样本进行带时间约束的聚类,包括:
提取预设时间段内所述跟踪目标的历史样本的特征;
计算相邻的两个历史样本的所述特征之间的距离;
判断所述特征之间的距离是否小于两个类别内部平均距离之和的1/2;
当所述特征之间的距离小于两个类别内部平均距离之和的1/2时,将所述相邻的两个历史样本合并为同一个类别。
优选地,所述计算每类样本的平均代表图,包括:
计算每类样本的原始灰度图;
对所述每类样本的原始灰度图进行平均计算得到每类样本的平均代表图。
优选地,所述对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型,包括:
获取每类样本的平均代表图的空间上下文模型;
根据所述空间上下文模型计算每帧的目标响应值;
根据所述目标响应值计算所述每类样本的样本权重,并根据所述权重确定时空上下文模型。
本发明还提供一种目标跟踪模型构建装置,包括:
历史样本获取单元,用于获取跟踪目标的历史样本;
聚类单元,用于对所述跟踪目标的历史样本进行带时间约束的聚类;
计算单元,用于计算每类样本的平均代表图;
确定单元,用于对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型。
优选地,还包括:
目标跟踪单元,用于根据当前确定的时空上下文模型对目标进行跟踪;
样本保存单元,用于将跟踪的目标作为历史样本。
优选地,所述聚类单元包括:
提取子单元,用于提取预设时间段内所述跟踪目标的历史样本的特征;
距离计算子单元,用于计算相邻的两个历史样本的所述特征之间的距离;
判断子单元,用于判断所述特征之间的距离是否小于两个类别内部平均距离之和的1/2;
合并子单元,用于当所述特征之间的距离小于两个类别内部平均距离之和的1/2时,将所述相邻的两个历史样本合并为同一个类别。
优选地,所述计算单元包括:
灰度图计算子单元,用于计算每类样本的原始灰度图;
平均计算子单元,用于对所述每类样本的原始灰度图进行平均计算得到每类样本的平均代表图。
优选地,所述确定单元包括:
模型获取子单元,用于获取每类样本的平均代表图的空间上下文模型;
响应值计算子单元,用于根据所述空间上下文模型计算每帧的目标响应值;
权重计算及模型确定子单元,用于根据所述目标响应值计算所述每类样本的样本权重,并根据所述权重确定时空上下文模型。
本发明技术方案,具有如下优点:
本发明提供一种目标跟踪模型构建方法及装置,通过获取跟踪目标的历史样本;对所述跟踪目标的历史样本进行带时间约束的聚类;计算每类样本的平均代表图;对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型。根据不断更新的历史样本,对计算获得的代表样本进行循环的自步学习,实现了通过不断回顾历史样本和循环自步学习获得的目标跟踪模型对于当前帧目标与背景的区分度最大,利用模型对当前目标的预测误差来确定样本权重,提高了目标跟踪的稳定性,有效防止目标跟踪的漂移。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一种目标跟踪模型构建方法的流程图;
图2为一种目标跟踪模型构建装置的示意图。
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,还可以是两个元件内部的连通,可以是无线连接,也可以是有线连接。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
实施例1
本实施例提供一种目标跟踪模型构建方法,该方法的流程图如图1所示。包括如下步骤:
S1:获取跟踪目标的历史样本。在目标跟踪过程中,对采集的视频序列的每一帧进行目标检测,都会获得目标样本。
S2:对所述跟踪目标的历史样本进行带时间约束的聚类。为了很好地利用目标的历史样本,本实施例将所有的历史样本保留。但随着样本数目不断增多很难全部利用,而且每次回顾所有样本也不合理,并且有些带噪声的样本对模型可能会有伤害,而相邻帧间的样本通常是具有较大的相似性的,因此对历史样本进行带时间约束的聚类。
每个类别的样本在时间上是连续的,保证了这些类内样本间的相似性,同时需要保持不同类别间的差异性。当目标运动比较平滑、没有发生严重遮挡或者平面外旋转,那么邻近帧间的目标外观是十分相似的,当目标发生剧烈变化的时候,目标外观与先前相比则会有较大区别。如果对目标的整个过程进行带时间约束的聚类,类内有较大相关性的类别表示了一段时间内目标外观的变化较小。
S3:计算每类样本的平均代表图。为了更好地利用稳定的历史样本,在获得样本聚类后,根据原始图像得到每个类别的平均外观。具体地,根据每个类别中的原始样本,计算每类样本的原始灰度图;对每类样本的原始灰度图进行平均得到每类的平均代表样本,以此作为该类样本的平均代表图,即对所述每类样本的原始灰度图进行平均计算得到每类样本的平均代表图。
S4:对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型。采用对历史样本带时间约束的聚类而获得数目有限的平均代表图,使得对整个历史样本进行循环学习有了可执行的基础。将平均代表图作为时空上下文模型学习的样本,为了获得准确合适的模型,需要确定这些样本在时空上下文模型中的权重,从而构建出准确合适的时空上下文模型。
对平均代表图进行循环学习,重新确定每类样本的权重,使模型对于当前帧目标与背景的区分度最大,区分度利用时空上下文模型跟踪响应图的峰值与旁瓣比获得。具体地,将平均代表图作为时空上下文模型学习的样本,可以采用自步学习的方法,对平均代表图进行循环学习,以获取最佳的组合顺序即训练样本的权重。这样获得的时空上下文模型,既能保持与历史状态的一致性,又能保持对新的变化的判别性。
本发明提供的目标跟踪模型构建方法,通过获取跟踪目标的历史样本;对所述跟踪目标的历史样本进行带时间约束的聚类;计算每类样本的平均代表图;对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型。根据不断更新的历史样本,对计算获得的代表样本进行循环的自步学习,实现了通过不断回顾历史样本和循环自步学习获得的目标跟踪模型对于当前帧目标与背景的区分度最大,利用模型对当前目标的预测误差来确定样本权重,提高了目标跟踪的稳定性,有效防止目标跟踪的漂移。
作为一个具体的实施方式,在上述步骤S4之后,还包括:
根据当前确定的时空上下文模型对目标进行跟踪。用获得的模型进行新的一帧目标预测,在新的一帧中,将学习得到的时空上下文响应图中最大值的位置作为目标位置。
将跟踪的目标作为历史样本。将新获得的目标作为历史样本,用于持续更新时空上下文模型。
作为一个具体的实施方式,上述步骤S2包括以下子步骤:
S21:提取预设时间段内所述跟踪目标的历史样本的特征。在进行聚类过程中,进行样本间距离计算时采用的样本特征为压缩特征,其目的在于减小计算复杂度。具体地,每次先将样本按照时间上连续的形式,将其按照时间顺序每5帧一个类,然后对这些初始类再进行聚类。
S22:计算相邻的两个历史样本的所述特征之间的距离。
S23:判断所述特征之间的距离是否小于两个类别内部平均距离之和的1/2。
具体地,每个类别都是在邻近的子类基础上进行合并处理,两个子类的合并准则如式(1)所示,其中,c(sh)表示每个子集sh内部的样本间的距离平均值。
即合并后的子类内部的平均距离要小于两个子类内部平均距离之和的一半。
最终聚类需要满足式(2),其中,M为总的类别数,η为类别系数。
S24:当所述特征之间的距离小于两个类别内部平均距离之和的1/2时,将所述相邻的两个历史样本合并为同一个类别。
作为一个具体的实施方式,上述步骤S4包括以下子步骤:
S41:获取每类样本的平均代表图的空间上下文模型。
时空上下文模型,是利用时空上下文进行视觉跟踪,通过建立要跟踪的目标与周围内容的时空关系,在图像灰度和位置上对目标与附近区域进行统计关系建模,时空上下文模型具有很好的实时性和鲁棒性。通过计算置信图,找到似然概率最大的位置,即为目标跟踪结果。首先获取每类样本的平均代表图的空间上下文模型。
S42:根据所述空间上下文模型计算每帧的目标响应值。
S43:根据所述目标响应值计算所述每类样本的样本权重,并根据所述权重确定时空上下文模型。
现有技术中进行自步学习构建时空上下文模型具有以下缺陷:假设为学习得到的时空上下文模型,而时空上下文模型又可以表示为其中为第t帧的空间上下文模型。根据式(3)计算时空上下文模型中每帧的目标响应值,其中F表示快速傅里叶变换,Ix表示新的检测区域响应,ρ表示权重。
从式(3)可以看出,在计算每帧的目标响应值时,实际上是计算每帧获得的空间上下文模型与新的检测区域响应值的加权和,而权重是随着时间而递减的,因此在新获取的样本不够理想的情况下很容易导致目标跟着漂移。
为了提高时空上下文模型的准确性,本实施例使用准确的样本且样本的权重是一样的。样本的权重是根据每个独立样本对于当前目标响应最高值与目标中心间的位置差以及每个样本与初始目标响应最高值与最初目标中心间的位置差决定的,如式(4)所示。
式(4)中,pk为平均样本k的权重,所有的样本权重之和为1,dk1为平均样本k与第一帧目标响应最高值与第一帧目标中心的距离,dkt为平均样本k与当前帧目标响应最高值与当前目标中心的距离。
利用获得的聚类平均代表图,获得每个代表图的空间上下文模型,然后利用循环学习的方法获取最佳样本组合。利用聚类得到的目标样本,首先每个类别计算类内所有样本的平均灰度样本,将这些平均样本作为代表性样本。接着需要对这些代表样本进行选择,利用选择的样本构建下一帧中使用的目标跟踪模型。
实施例2
本实施例提供一种目标跟踪模型构建装置,该装置的示意图如图2所示。包括:
历史样本获取单元10,用于获取跟踪目标的历史样本。在目标跟踪过程中,对采集的视频序列的每一帧进行目标检测,都会获得目标样本。
聚类单元20,用于对所述跟踪目标的历史样本进行带时间约束的聚类。为了很好地利用目标的历史样本,本实施例将所有的历史样本保留。但随着样本数目不断增多很难全部利用,而且每次回顾所有样本也不合理,并且有些带噪声的样本对模型可能会有伤害,而相邻帧间的样本通常是具有较大的相似性的,因此对历史样本进行带时间约束的聚类。
计算单元30,用于计算每类样本的平均代表图。为了更好地利用稳定的历史样本,在获得样本聚类后,根据原始图像得到每个类别的平均外观。具体地,计算单元30包括:灰度图计算子单元,用于计算每类样本的原始灰度图;平均计算子单元,用于所述每类样本的原始灰度图进行平均计算得到每类样本的平均代表图。
确定单元40,用于对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型。采用对历史样本带时间约束的聚类而获得数目有限的平均代表图,使得对整个历史样本进行循环学习有了可执行的基础。将平均代表图作为时空上下文模型学习的样本,为了获得准确合适的模型,需要确定这些样本在时空上下文模型中的权重,从而构建出准确合适的时空上下文模型。
本发明提供的目标跟踪模型构建装置,通过获取跟踪目标的历史样本;对所述跟踪目标的历史样本进行带时间约束的聚类;计算每类样本的平均代表图;对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型。根据不断更新的历史样本,对计算获得的代表样本进行循环的自步学习,实现了通过不断回顾历史样本和循环自步学习获得的目标跟踪模型对于当前帧目标与背景的区分度最大,利用模型对当前目标的预测误差来确定样本权重,提高了目标跟踪的稳定性,有效防止目标跟踪的漂移。
作为一个具体的实施方式,该装置还包括:
目标跟踪单元,用于根据当前确定的时空上下文模型对目标进行跟踪。用获得的模型进行新的一帧目标预测,在新的一帧中,将学习得到的时空上下文响应图中最大值的位置作为目标位置。
样本保存单元,用于将跟踪的目标作为历史样本。将新获得的目标作为历史样本,用于持续更新时空上下文模型。
作为一个具体的实施方式,聚类单元20包括:
提取子单元,用于提取预设时间段内所述跟踪目标的历史样本的特征。在进行聚类过程中,进行样本间距离计算时采用的样本特征为压缩特征,其目的在于减小计算复杂度。具体地,每次先将样本按照时间上连续的形式,将其按照时间顺序每5帧一个类,然后对这些初始类再进行聚类。
距离计算子单元,用于计算相邻的两个历史样本的所述特征之间的距离。
判断子单元,用于判断所述特征之间的距离是否小于两个类别内部平均距离之和的1/2。
具体地,每个类别都是在邻近的子类基础上进行合并处理,两个子类的合并准则如式(1)所示,其中,c(sh)表示每个子集sh内部的样本间的距离平均值。
即合并后的子类内部的平均距离要小于两个子类内部平均距离之和的一半。
最终聚类需要满足式(2),其中,M为总的类别数,η为类别系数。
合并子单元,用于当所述特征之间的距离小于两个类别内部平均距离之和的1/2时,将所述相邻的两个历史样本合并为同一个类别。
作为一个具体的实施方式,确定单元40包括:
模型获取子单元,用于获取每类样本的平均代表图的空间上下文模型。时空上下文模型,是利用时空上下文进行视觉跟踪,通过建立要跟踪的目标与周围内容的时空关系,在图像灰度和位置上对目标与附近区域进行统计关系建模,时空上下文模型具有很好的实时性和鲁棒性。通过计算置信图,找到似然概率最大的位置,即为目标跟踪结果。首先获取每类样本的平均代表图的空间上下文模型。
响应值计算子单元,用于根据所述空间上下文模型计算每帧的目标响应值。
权重计算及模型确定子单元,用于根据所述目标响应值计算所述每类样本的样本权重,并根据所述权重确定时空上下文模型。现有技术中进行自步学习构建时空上下文模型具有以下缺陷:假设为学习得到的时空上下文模型,而时空上下文模型又可以表示为其中为第t帧的空间上下文模型。根据式(3)计算时空上下文模型中每帧的目标响应值,其中F表示快速傅里叶变换,Ix表示新的检测区域响应,ρ表示权重。
从式(3)可以看出,在计算每帧的目标响应值时,实际上是计算每帧获得的空间上下文模型与新的检测区域响应值的加权和,而权重是随着时间而递减的,因此在新获取的样本不够理想的情况下很容易导致目标跟着漂移。
为了提高时空上下文模型的准确性,本实施例使用准确的样本且样本的权重是一样的。样本的权重是根据每个独立样本对于当前目标响应最高值与目标中心间的位置差以及每个样本与初始目标响应最高值与最初目标中心间的位置差决定的,如式(4)所示。
式(4)中,pk为平均样本k的权重,所有的样本权重之和为1,dk1为平均样本k与第一帧目标响应最高值与第一帧目标中心的距离,dkt为平均样本k与当前帧目标响应最高值与当前目标中心的距离。
利用获得的聚类平均代表图,获得每个代表图的空间上下文模型,然后利用循环学习的方法获取最佳样本组合。利用聚类得到的目标样本,首先每个类别计算类内所有样本的平均灰度样本,将这些平均样本作为代表性样本。接着需要对这些代表样本进行选择,利用选择的样本构建下一帧中使用的目标跟踪模型。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (9)
1.一种目标跟踪模型构建方法,其特征在于,包括:
获取跟踪目标的历史样本;
对所述跟踪目标的历史样本进行带时间约束的聚类;
计算每类样本的平均代表图,所述每类样本的平均代表图为每个类别的平均外观;
对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型;
所述平均代表图,通过以下步骤计算获得:
计算每类样本的原始灰度图;
对所述每类样本的原始灰度图进行平均计算得到每类样本的平均代表图。
2.根据权利要求1所述的方法,其特征在于,在所述对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型的步骤之后,还包括:
根据当前确定的时空上下文模型对目标进行跟踪;
将跟踪的目标作为历史样本。
3.根据权利要求1所述的方法,其特征在于,所述对所述跟踪目标的历史样本进行带时间约束的聚类,包括:
提取预设时间段内所述跟踪目标的历史样本的特征;
计算相邻的两个历史样本的所述特征之间的距离;
判断所述特征之间的距离是否小于两个类别内部平均距离之和的1/2;
当所述特征之间的距离小于两个类别内部平均距离之和的1/2时,将所述相邻的两个历史样本合并为同一个类别。
4.根据权利要求1所述的方法,其特征在于,所述对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型,包括:
获取每类样本的平均代表图的空间上下文模型;
根据所述空间上下文模型计算每帧的目标响应值;
根据所述目标响应值计算所述每类样本的样本权重,并根据所述权重确定时空上下文模型。
5.一种目标跟踪模型构建装置,其特征在于,包括:
历史样本获取单元,用于获取跟踪目标的历史样本;
聚类单元,用于对所述跟踪目标的历史样本进行带时间约束的聚类;
计算单元,用于计算每类样本的平均代表图,所述每类样本的平均代表图为每个类别的平均外观;
所述平均代表图,通过以下步骤计算获得:
计算每类样本的原始灰度图;
对所述每类样本的原始灰度图进行平均计算得到每类样本的平均代表图;
确定单元,用于对所有类别样本的所述平均代表图进行循环学习以获得样本权重,并根据所述权重确定时空上下文模型。
6.根据权利要求5所述的装置,其特征在于,还包括:
目标跟踪单元,用于根据当前确定的时空上下文模型对目标进行跟踪;
样本保存单元,用于将跟踪的目标作为历史样本。
7.根据权利要求5所述的装置,其特征在于,所述聚类单元包括:
提取子单元,用于提取预设时间段内所述跟踪目标的历史样本的特征;
距离计算子单元,用于计算相邻的两个历史样本的所述特征之间的距离;
判断子单元,用于判断所述特征之间的距离是否小于两个类别内部平均距离之和的1/2;
合并子单元,用于当所述特征之间的距离小于两个类别内部平均距离之和的1/2时,将所述相邻的两个历史样本合并为同一个类别。
8.根据权利要求5所述的装置,其特征在于,所述计算单元包括:
灰度图计算子单元,用于计算每类样本的原始灰度图;
平均计算子单元,用于对所述每类样本的原始灰度图进行平均计算得到每类样本的平均代表图。
9.根据权利要求8所述的装置,其特征在于,所述确定单元包括:
模型获取子单元,用于获取每类样本的平均代表图的空间上下文模型;
响应值计算子单元,用于根据所述空间上下文模型计算每帧的目标响应值;
权重计算及模型确定子单元,用于根据所述目标响应值计算所述每类样本的样本权重,并根据所述权重确定时空上下文模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810219008.5A CN108537250B (zh) | 2018-03-16 | 2018-03-16 | 一种目标跟踪模型构建方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810219008.5A CN108537250B (zh) | 2018-03-16 | 2018-03-16 | 一种目标跟踪模型构建方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108537250A CN108537250A (zh) | 2018-09-14 |
CN108537250B true CN108537250B (zh) | 2022-06-14 |
Family
ID=63484131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810219008.5A Active CN108537250B (zh) | 2018-03-16 | 2018-03-16 | 一种目标跟踪模型构建方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108537250B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102855639A (zh) * | 2012-08-16 | 2013-01-02 | 大连大学 | 一种运动捕捉数据的关键帧提取方法 |
CN103413324A (zh) * | 2013-07-29 | 2013-11-27 | 西北工业大学 | 航拍视频自动目标跟踪方法 |
CN103578119A (zh) * | 2013-10-31 | 2014-02-12 | 苏州大学 | 基于超像素的Codebook动态场景中目标检测方法 |
CN105160649A (zh) * | 2015-06-30 | 2015-12-16 | 上海交通大学 | 基于核函数非监督聚类的多目标跟踪方法及系统 |
CN107045726A (zh) * | 2017-04-27 | 2017-08-15 | 南京航空航天大学 | 一种改良的基于时空上下文模型的目标跟踪方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103034858B (zh) * | 2012-11-30 | 2016-04-13 | 宁波大学 | 一种卫星云图的二次聚类分割方法 |
CN104680120B (zh) * | 2013-12-02 | 2018-10-19 | 华为技术有限公司 | 一种人脸检测的强分类器的生成方法及装置 |
CN105894037B (zh) * | 2016-04-21 | 2019-02-26 | 北京航空航天大学 | 一种基于sift训练样本提取的遥感图像全监督分类方法 |
CN106651886A (zh) * | 2017-01-03 | 2017-05-10 | 北京工业大学 | 一种基于超像素聚类优化cnn的云图分割方法 |
-
2018
- 2018-03-16 CN CN201810219008.5A patent/CN108537250B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102855639A (zh) * | 2012-08-16 | 2013-01-02 | 大连大学 | 一种运动捕捉数据的关键帧提取方法 |
CN103413324A (zh) * | 2013-07-29 | 2013-11-27 | 西北工业大学 | 航拍视频自动目标跟踪方法 |
CN103578119A (zh) * | 2013-10-31 | 2014-02-12 | 苏州大学 | 基于超像素的Codebook动态场景中目标检测方法 |
CN105160649A (zh) * | 2015-06-30 | 2015-12-16 | 上海交通大学 | 基于核函数非监督聚类的多目标跟踪方法及系统 |
CN107045726A (zh) * | 2017-04-27 | 2017-08-15 | 南京航空航天大学 | 一种改良的基于时空上下文模型的目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
卷积神经网络与时空上下文结合的目标跟踪算法;闵召阳等;《红外技术》;20170815;第39卷(第8期);740-745页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108537250A (zh) | 2018-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210073573A1 (en) | Ship identity recognition method based on fusion of ais data and video data | |
JP5753966B2 (ja) | 顔画像登録装置および方法 | |
CN103971386B (zh) | 一种动态背景场景下的前景检测方法 | |
US9989626B2 (en) | Mobile robot and sound source position estimation system | |
CN106920248A (zh) | 一种目标跟踪方法及装置 | |
CN113313763B (zh) | 一种基于神经网络的单目相机位姿优化方法及装置 | |
CN110717408B (zh) | 一种基于tof相机的人流计数方法 | |
WO2019064375A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN110175649A (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
CN111768430B (zh) | 一种基于多特征级联匹配的高速公路外场车辆跟踪方法 | |
CN109141395A (zh) | 一种基于视觉回环校准陀螺仪的扫地机定位方法及装置 | |
CN111241928B (zh) | 人脸识别底库优化方法、系统、设备、可读存储介质 | |
CN110633643A (zh) | 一种面向智慧社区的异常行为检测方法及系统 | |
CN113052869A (zh) | 一种基于智慧ai测温的轨迹跟踪方法、系统及存储介质 | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
JP5027758B2 (ja) | 画像監視装置 | |
CN109711239B (zh) | 基于改进混合增量动态贝叶斯网络的视觉注意力检测方法 | |
CN111339811B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN108537250B (zh) | 一种目标跟踪模型构建方法及装置 | |
CN113569656B (zh) | 一种基于深度学习的考场监控方法 | |
CN108549928B (zh) | 深度强化学习指导下基于连续移动的视觉跟踪方法及装置 | |
CN116259070A (zh) | 云边协同感知的多终端跨时空行人重识别方法及系统 | |
CN113705672B (zh) | 图像目标检测的阈值选取方法、系统、装置及存储介质 | |
CN115984768A (zh) | 一种基于固定型单目摄像头的多目标行人实时检测定位方法 | |
CN110827319A (zh) | 一种基于局部敏感直方图改进的Staple目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |