CN109711445A - 目标跟踪分类器在线训练样本的超像素中智相似加权方法 - Google Patents
目标跟踪分类器在线训练样本的超像素中智相似加权方法 Download PDFInfo
- Publication number
- CN109711445A CN109711445A CN201811547139.2A CN201811547139A CN109711445A CN 109711445 A CN109711445 A CN 109711445A CN 201811547139 A CN201811547139 A CN 201811547139A CN 109711445 A CN109711445 A CN 109711445A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- intelligence
- degree
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,所述方法包括:读取视频帧,依据初始目标位置提取样本,初始化目标跟踪分类器;读取视频新帧,确定目标位置,计算相应超像素图像;基于相交区域的超像素中智隶属度、不确定性度和非隶属度量测;基于区域形状距离的超像素中智隶属度、不确定性度和非隶属度量测;计算超像素类目标置信向量;提取训练样本,计算样本中智权值;利用加权样本更新目标跟踪分类器。本发明的方法实现简单、抗干扰能力强,能够较好地适应背景复杂多变、光照变化等极具挑战的情况;本发明适用于基于鲁棒目标跟踪的应用,如视频监控、自动驾驶等,适用于大规模推广应用。
Description
技术领域
本发明涉及计算机机器视觉技术领域,具体是指一种目标跟踪分类器在线训练样本的超像素中智相似加权方法。
背景技术
目标跟踪是计算机视觉中的一项基础技术,其主要是综合利用统计学、图形图像理论、机器学习等多种理论共同分析确定兴趣目标在视频中每一帧的位置。目标跟踪是众多视觉应用中的一项关键技术,广泛用于视觉智慧交通、视觉监控、自动驾驶等应用。由于现实场景多变,如何鲁棒跟踪兴趣目标仍然是一个具有挑战性的热点性问题。
基于分类器的目标跟踪算法在目标跟踪领域一直占据着重要位置。分类器跟踪算法一般在选定目标区域的第一帧初始化分类器参数,在之后每一帧中的前帧目标位置周围区域求取以每一像素为跟踪框中心点的分类器响应,依据分类器最大响应原则求取当前帧目标位置。为适应被跟踪目标周围环境以及目标自身在图像中呈现的变化,分类器必须在跟踪过程中在线提取训练样本更新分类器模型。样本提取的质量将直接影响分类器的分类精度,通常将距离目标位置很近的图像块作为正样本,距离较远的图像块作为负样本,这些图像块与目标跟踪框具有同样大小。若样本提取出现偏差,将会逐步降低分类器分类精度,最终导致跟踪失败。基于此类问题,样本加权被引入,如依据距离加权、时空关联特性加权、类目标度加权等。类目标度加权得到了较好的效果,然而,直接利用超像素图像获取类目标度,容易引入较多的目标背景干扰,在干扰较大时极易造成分类器衰弱,跟踪失败。
发明内容
本发明的目的是提供一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,实现简单、抗干扰能力强,能够较好地适应背景复杂多变、光照变化等极具挑战的情况。
为了实现上述目的,本发明具有如下构成:
该目标跟踪分类器在线训练样本的超像素中智相似加权方法,包括如下步骤:
S100:读取视频帧,依据初始目标位置提取样本,初始化目标跟踪分类器;
S200:读取视频新帧,确定目标位置,计算相应超像素图像;
S300:基于相交区域进行超像素中智隶属度、不确定性度和非隶属度量测;
S400:基于区域形状距离进行超像素中智隶属度、不确定性度和非隶属度量测;
S500:根据步骤S300和步骤S400的结果计算超像素类目标置信向量;
S600:在该视频中提取训练样本,根据所述超像素类目标置信向量计算样本中智权值;
S700:根据所述样本中智权值,利用加权样本更新目标跟踪分类器。
可选地,所述步骤S700之后,还包括如下步骤:
判断是否所有帧均读取完毕,如果是,则结束退出,否则返回步骤S200。
可选地,所述步骤S300中,基于相交区域进行超像素中智隶属度、不确定性度和非隶属度量测,包括根据如下公式量测所述超像素中智隶属度、不确定性度和非隶属度:
FA(i)=1-TA(i)
其中,TA(i)、IA(i)和FA(i)分别为当前帧第i个超像素基于相交区域条件的中智隶属度、不确定性度和非隶属度的量测值,A(i)为第i个超像素区域的面积,Ao为当前目标跟踪框区域的面积,Ain(i)为第i个超像素区域和目标跟踪框区域相交的面积,此处所述面积均以图像像素个数为单位。
可选地,所述步骤S400中,基于区域形状距离进行超像素中智隶属度、不确定性度和非隶属度量测,包括根据如下公式量测所述超像素中智隶属度、不确定性度和非隶属度:
FS(i)=1-TS(i)
其中,TS(i)、IS(i)和FS(i)分别为当前帧第i个超像素基于区域形状距离条件的中智隶属度、不确定性度和非隶属度的量测值,ws、hs分别为超像素区域外接矩形框的宽,wo、ho分别为当前目标跟踪框的宽和高,xs、xo分别为超像素区域的质心坐标和目标跟踪框的几何中心坐标,D为目标跟踪框的对角线长度的一半,此处所述宽、高和坐标均以图像像素为单位;
其中,函数f(x)定义为:
其中,erfc(x)为互补误差函数。
可选地,所述步骤S500中,根据如下公式计算所述超像素类目标置信向量:
其中,Hi为第i个超像素对应的类目标置信值,α为门限值,在0到1范围内,ll(i)为第i个超像素的中智可信度量,其根据如下公式计算得到:
其中,weA和weS在0到1范围内,且二者之和为1,TA(i)、IA(i)和FA(i)分别为当前帧第i个超像素基于相交区域条件的中智隶属度、不确定性度和非隶属度的量测值,TS(i)、IS(i)和FS(i)分别为当前帧第i个超像素基于区域形状距离条件的中智隶属度、不确定性度和非隶属度的量测值。
可选地,所述步骤S600中,根据如下公式计算所述样本中智权值:
其中,ss(j)为第j个样本对应的中智权值,Hi为第i个超像素对应的类目标置信值,si为该帧中第i个超像素,S表示当前帧的所有超像素集合,Xj表示第j个样本,所述样本均为和目标跟踪框具有同样大小的矩形框在当前帧图像中截取的子图像,|si\Xj|为第i个超像素中落在样本Xj区域以外的图像像素点个数,|si∩Xj|为第i个超像素中落在样本Xj区域内的图像像素点个数,|Xj|为样本Xj包含的总像素点个数。
可选地,所述步骤S700中,根据如下公式利用加权样本更新目标跟踪分类器:
其中,sw(j)为最终用于分类器更新的样本权值,ss(j)为第j个样本对应的中智权值,N为当前帧的样本总数,β为门限值,在0到1范围内。
本发明所提供的目标跟踪分类器在线训练样本的超像素中智相似加权方法,具有如下有益效果:
本发明提出了一种可以广泛用于面向目标跟踪的基于分类器目标定位的样本加权方法,适用于现有的多种分类器跟踪方法,方便方法迁移;本发明利用中智理论,将基于相交区域和形状距离的不确定模糊度量引入,以此排除可能对样本权值造成干扰的超像素,有效降低了不确定样本弱化目标跟踪分类器的可能性,提升了基于分类器的目标跟踪算法的抗干扰性能;本发明适用于基于鲁棒目标跟踪的应用,如视频监控、自动驾驶等,适用于大规模推广应用。
附图说明
图1为本发明的目标跟踪分类器在线训练样本的超像素中智相似加权方法的流程图;
图2为本发明一实施例的目标跟踪分类器在线训练样本的超像素中智相似加权方法的流程图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
为了解决现有技术的鲁棒性问题,本发明主要提出一种面向目标跟踪分类器在线训练样本的超像素中智相似加权方法,首先对超像素区域进行可靠度过滤,以此获取更为可靠的样本权重,提升跟踪算法抗干扰性。
中智理论由Smarandache提出,由于其针对分析对象同时建立隶属度、不确定性度和非隶属度量测,相较传统模糊理论表现出了较好的不确定信息处理能力。中智理论已被广泛用于图像分割、压缩等视觉分析领域,同时在汽轮机故障诊断、医疗诊断、机械控制等方面表现出较明显的理论优势。针对样本加权问题,如何利用中智理论将超像素筛选过程中的不确定因素恰当引入以提升样本加权可靠度,构成了本发明的核心问题。
如图1所示,为了解决现有技术中的鲁棒性问题,本发明提供了一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,包括如下步骤:
S100:读取视频帧,依据初始目标位置提取样本,初始化目标跟踪分类器;
S200:读取视频新帧,确定目标位置,计算相应超像素图像;
S300:基于相交区域进行超像素中智隶属度、不确定性度和非隶属度量测;
S400:基于区域形状距离进行超像素中智隶属度、不确定性度和非隶属度量测;
S500:根据步骤S300和步骤S400的结果计算超像素类目标置信向量;
S600:在该视频中提取训练样本,根据所述超像素类目标置信向量计算样本中智权值;
S700:根据所述样本中智权值,利用加权样本更新目标跟踪分类器。
本发明提出了一种可以广泛用于面向目标跟踪的基于分类器目标定位的样本加权方法,适用于现有的多种分类器跟踪方法,方便方法迁移;本发明利用中智理论,将基于相交区域和形状距离的不确定模糊度量引入,以此排除可能对样本权值造成干扰的超像素,有效降低了不确定样本弱化目标跟踪分类器的可能性,提升了基于分类器的目标跟踪算法的抗干扰性能。
在该实施例中,进一步地,所述步骤S700之后,还包括判断是否所有帧均读取完毕,如果是,则结束退出,否则返回步骤S200。
如图2所示,为本发明一实施例的目标跟踪分类器在线训练样本的超像素中智相似加权方法的流程图。以下通过具体的实施例来进一步说明本发明。
步骤一:在监控区域架设一台网络摄像机,并将其采集的视频数据实时传输至计算机终端。
步骤二:计算机终端以RGB格式读取摄像机实时传来的图像数据。
步骤三:当兴趣目标在图像中出现时框选目标,以此目标框为基准,将样本框中心距离目标中心距离8像素点以内的所有图像块作为正样本,在距离目标中心10像素到14像素的图像区域随机提取50个图像块作为负样本,图像块的大小和目标框大小一致,且图像块的中心落在规定像素区域内;以多示例学习分类器作为目标跟踪分类器,以所提取样本为输入,训练分类器,得到初始目标跟踪分类器。
其中,该实施例的步骤一到步骤三对应于本发明的步骤S100,即如何依据初始目标位置提取样本视频,初始化目标跟踪分类器。
步骤四:读取新的图像帧,在距离前帧目标中心25像素点范围区域求取以每一像素为跟踪框中心点的分类器响应,将分类器响应最大的位置作为当前帧目标位置;计算当前图像帧的超像素图像。步骤四即对应于本发明的步骤S200,即如何计算当前图像帧的超像素图像。超像素就是把一幅原本是像素级(pixel-level)的图,划分成区域级(district-level)的图。可以将其看做是对基本信息进行的抽象或对原图像的分割结果。
步骤五:针对相交区域条件属性,计算当前帧第i个超像素的中智隶属度不确定性度非隶属度FA(i)=1-TA(i)。A(i)为第i个超像素区域的面积,Ao为当前目标跟踪框区域的面积,Ain(i)为第i个超像素区域和目标跟踪框区域相交的面积,此处所述面积均以图像像素个数为单位。此处步骤五即对应于上述步骤S300,即如何基于相交区域计算中智隶属度、不确定度和非隶属度。
步骤六:针对区域形状距离条件属性,计算当前帧第i个超像素的中智隶属度不确定性度非隶属度FS(i)=1-TS(i)。ws、hs分别为超像素区域外接矩形框的宽,wo、ho分别为当前目标跟踪框的宽和高,xs、xo分别为超像素区域的质心坐标和目标跟踪框的几何中心坐标,D为目标跟踪框的对角线长度的一半,此处所述宽、高和坐标均以图像像素为单位,函数f(x)的定义为:
其中erfc(x)为互补误差函数。
此处步骤六即对应于上述步骤S400,即如何基于基于区域形状距离条件属性计算中智隶属度、不确定度和非隶属度。
步骤七:计算各超像素类目标置信向量Hi为第i个超像素对应的类目标置信值,α为门限值,在0到1范围内,ll(i)为第i个超像素的中智可信度量,其计算方法为:
其中weA和weS在0到1范围内,二者之和为1。本实施例中的α、weA和weS分别被设定为0.4,0.5和0.5。
此处步骤七即对应于上述步骤S500,即如何计算超像素类目标置信向量。
步骤八:在当前帧中,将样本框中心距离目标中心距离8像素点以内的所有图像块作为正样本,在距离目标中心10像素到14像素的图像区域随机提取50个图像块作为负样本,图像块的大小和目标框大小一致,且图像块的中心落在规定像素区域内;计算正样本中智权值ss(j)为第j个样本对应的中智权值,si为该帧中第i个超像素,S表示当前帧的所有超像素集合,Xj表示第j个样本,所述样本均为和目标跟踪框具有同样大小的矩形框在当前帧图像中截取的子图像,|si\Xj|为第i个超像素中落在样本Xj区域以外的图像像素点个数,|si∩Xj|为第i个超像素中落在样本Xj区域内的图像像素点个数,|Xj|为样本Xj包含的总像素点个数。
此处步骤八即对应于上述步骤S600,即如何根据所述超像素类目标置信向量计算样本中智权值。
步骤九:基于样本中智权值,计算用于更新目标跟踪分类器的最终样本权值sw(j)为最终用于分类器更新的正样本权值,负样本权值均为1,N为当前帧的正样本总数,β为门限值,在0到1范围内;最后利用所提取的样本以及相应权值更新目标跟踪分类器,返回步骤四继续完成后续帧目标跟踪任务。本实施例中的β被设定为0.4。
此处步骤九即对应于上述步骤S700,即如何更新目标跟踪分类器。
本发明所提供的目标跟踪分类器在线训练样本的超像素中智相似加权方法,具有如下有益效果:
本发明提出了一种可以广泛用于面向目标跟踪的基于分类器目标定位的样本加权方法,适用于现有的多种分类器跟踪方法,方便方法迁移;本发明利用中智理论,将基于相交区域和形状距离的不确定模糊度量引入,以此排除可能对样本权值造成干扰的超像素,有效降低了不确定样本弱化目标跟踪分类器的可能性,提升了基于分类器的目标跟踪算法的抗干扰性能;本发明适用于基于鲁棒目标跟踪的应用,如视频监控、自动驾驶等,适用于大规模推广应用。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。
Claims (7)
1.一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,其特征在于,包括如下步骤:
S100:读取视频帧,依据初始目标位置提取样本,初始化目标跟踪分类器;
S200:读取视频新帧,确定目标位置,计算相应超像素图像;
S300:基于相交区域进行超像素中智隶属度、不确定性度和非隶属度量测;
S400:基于区域形状距离进行超像素中智隶属度、不确定性度和非隶属度量测;
S500:根据步骤S300和步骤S400的结果计算超像素类目标置信向量;
S600:在该视频中提取训练样本,根据所述超像素类目标置信向量计算样本中智权值;
S700:根据所述样本中智权值,利用加权样本更新目标跟踪分类器。
2.根据权利要求1所述的一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,其特征在于,所述步骤S700之后,还包括如下步骤:
判断是否所有帧均读取完毕,如果是,则结束退出,否则返回步骤S200。
3.根据权利要求1所述的一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,其特征在于,所述步骤S300中,基于相交区域进行超像素中智隶属度、不确定性度和非隶属度量测,包括根据如下公式量测所述超像素中智隶属度、不确定性度和非隶属度:
其中,TA(i)、IA(i)和FA(i)分别为当前帧第i个超像素基于相交区域条件的中智隶属度、不确定性度和非隶属度的量测值,A(i)为第i个超像素区域的面积,Ao为当前目标跟踪框区域的面积,Ain(i)为第i个超像素区域和目标跟踪框区域相交的面积,此处所述面积均以图像像素个数为单位。
4.根据权利要求1所述的一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,其特征在于,所述步骤S400中,基于区域形状距离进行超像素中智隶属度、不确定性度和非隶属度量测,包括根据如下公式量测所述超像素中智隶属度、不确定性度和非隶属度:
其中,TS(i)、IS(i)和FS(i)分别为当前帧第i个超像素基于区域形状距离条件的中智隶属度、不确定性度和非隶属度的量测值,ws、hs分别为超像素区域外接矩形框的宽,wo、ho分别为当前目标跟踪框的宽和高,xs、xo分别为超像素区域的质心坐标和目标跟踪框的几何中心坐标,D为目标跟踪框的对角线长度的一半,此处所述宽、高和坐标均以图像像素为单位;
其中,函数f(x)定义为:
其中,erfc(x)为互补误差函数。
5.根据权利要求1所述的一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,其特征在于,所述步骤S500中,根据如下公式计算所述超像素类目标置信向量:
其中,Hi为第i个超像素对应的类目标置信值,α为门限值,在0到1范围内,ll(i)为第i个超像素的中智可信度量,其根据如下公式计算得到:
其中,weA和weS在0到1范围内,且二者之和为1,TA(i)、IA(i)和FA(i)分别为当前帧第i个超像素基于相交区域条件的中智隶属度、不确定性度和非隶属度的量测值,TS(i)、IS(i)和FS(i)分别为当前帧第i个超像素基于区域形状距离条件的中智隶属度、不确定性度和非隶属度的量测值。
6.根据权利要求1所述的一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,其特征在于,所述步骤S600中,根据如下公式计算所述样本中智权值:
其中,ss(j)为第j个样本对应的中智权值,Hi为第i个超像素对应的类目标置信值,si为该帧中第i个超像素,S表示当前帧的所有超像素集合,Xj表示第j个样本,所述样本均为和目标跟踪框具有同样大小的矩形框在当前帧图像中截取的子图像,|si\Xj|为第i个超像素中落在样本Xj区域以外的图像像素点个数,|si∩Xj|为第i个超像素中落在样本Xj区域内的图像像素点个数,|Xj|为样本Xj包含的总像素点个数。
7.根据权利要求1所述的一种目标跟踪分类器在线训练样本的超像素中智相似加权方法,其特征在于,所述步骤S700中,根据如下公式利用加权样本更新目标跟踪分类器:
其中,sw(j)为最终用于分类器更新的样本权值,ss(j)为第j个样本对应的中智权值,N为当前帧的样本总数,β为门限值,在0到1范围内。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811547139.2A CN109711445B (zh) | 2018-12-18 | 2018-12-18 | 目标跟踪分类器在线训练样本的超像素中智相似加权方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811547139.2A CN109711445B (zh) | 2018-12-18 | 2018-12-18 | 目标跟踪分类器在线训练样本的超像素中智相似加权方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109711445A true CN109711445A (zh) | 2019-05-03 |
CN109711445B CN109711445B (zh) | 2020-10-16 |
Family
ID=66256631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811547139.2A Active CN109711445B (zh) | 2018-12-18 | 2018-12-18 | 目标跟踪分类器在线训练样本的超像素中智相似加权方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109711445B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110176027A (zh) * | 2019-05-27 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413120A (zh) * | 2013-07-25 | 2013-11-27 | 华南农业大学 | 基于物体整体性和局部性识别的跟踪方法 |
CN103578119A (zh) * | 2013-10-31 | 2014-02-12 | 苏州大学 | 基于超像素的Codebook动态场景中目标检测方法 |
CN104298968A (zh) * | 2014-09-25 | 2015-01-21 | 电子科技大学 | 一种基于超像素的复杂场景下的目标跟踪方法 |
US20150242697A1 (en) * | 2014-02-24 | 2015-08-27 | MedSight Tech Corp. | Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores |
CN108038905A (zh) * | 2017-12-25 | 2018-05-15 | 北京航空航天大学 | 一种基于超像素的目标重建方法 |
CN108492313A (zh) * | 2018-02-05 | 2018-09-04 | 绍兴文理学院 | 一种基于中智相似度量的尺度自适应视觉目标跟踪方法 |
CN108648212A (zh) * | 2018-04-24 | 2018-10-12 | 青岛科技大学 | 基于超像素模型的自适应分块目标跟踪方法 |
-
2018
- 2018-12-18 CN CN201811547139.2A patent/CN109711445B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413120A (zh) * | 2013-07-25 | 2013-11-27 | 华南农业大学 | 基于物体整体性和局部性识别的跟踪方法 |
CN103578119A (zh) * | 2013-10-31 | 2014-02-12 | 苏州大学 | 基于超像素的Codebook动态场景中目标检测方法 |
US20150242697A1 (en) * | 2014-02-24 | 2015-08-27 | MedSight Tech Corp. | Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores |
CN104298968A (zh) * | 2014-09-25 | 2015-01-21 | 电子科技大学 | 一种基于超像素的复杂场景下的目标跟踪方法 |
CN108038905A (zh) * | 2017-12-25 | 2018-05-15 | 北京航空航天大学 | 一种基于超像素的目标重建方法 |
CN108492313A (zh) * | 2018-02-05 | 2018-09-04 | 绍兴文理学院 | 一种基于中智相似度量的尺度自适应视觉目标跟踪方法 |
CN108648212A (zh) * | 2018-04-24 | 2018-10-12 | 青岛科技大学 | 基于超像素模型的自适应分块目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
KELI HU 等: "A novel object tracking algorithm by fusing color and depth information based on single valued neutrosophic cross-entropy", 《JOURNAL OF INTELLIGENT & FUZZY SYSTEMS》 * |
KELI HU 等: "Neutrosophic Similarity Score Based Weighted Histogram for Robust Mean-Shift Tracking", 《INFORMATION》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110176027A (zh) * | 2019-05-27 | 2019-08-27 | 腾讯科技(深圳)有限公司 | 视频目标跟踪方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109711445B (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105069472B (zh) | 一种基于卷积神经网络自适应的车辆检测方法 | |
CN109147254B (zh) | 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法 | |
CN106570486B (zh) | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN109344717B (zh) | 一种多阈值动态统计的深海目标在线检测识别方法 | |
CN108648211A (zh) | 一种基于深度学习的小目标检测方法、装置、设备和介质 | |
KR101414670B1 (ko) | 온라인 랜덤 포레스트 및 파티클 필터를 이용한 열 영상에서의 객체 추적 방법 | |
CN103886325B (zh) | 一种分块的循环矩阵视频跟踪方法 | |
CN110298297A (zh) | 火焰识别方法和装置 | |
CN108492298A (zh) | 基于生成对抗网络的多光谱图像变化检测方法 | |
CN107657244A (zh) | 一种基于多摄像机的人体跌倒行为检测系统及其检测方法 | |
CN108256462A (zh) | 一种商场监控视频中的人数统计方法 | |
CN109886356A (zh) | 一种基于三分支神经网络的目标追踪方法 | |
CN108320300A (zh) | 一种融合粒子滤波的时空上下文视觉跟踪方法 | |
CN115115672B (zh) | 基于目标检测和特征点速度约束的动态视觉slam方法 | |
CN110458022A (zh) | 一种基于域适应的可自主学习目标检测方法 | |
CN104036526A (zh) | 一种基于自适应窗的灰度目标跟踪方法 | |
CN112616023A (zh) | 复杂环境下的多摄像机视频目标追踪方法 | |
Guo et al. | Gesture recognition of traffic police based on static and dynamic descriptor fusion | |
Hu et al. | Human interaction recognition using spatial-temporal salient feature | |
Ding et al. | Machine learning model for feature recognition of sports competition based on improved TLD algorithm | |
CN112766145B (zh) | 人工神经网络的人脸动态表情识别方法及装置 | |
CN108257148A (zh) | 特定对象的目标建议窗口生成方法及其在目标跟踪的应用 | |
CN109711445A (zh) | 目标跟踪分类器在线训练样本的超像素中智相似加权方法 | |
CN107886060A (zh) | 基于视频的行人自动检测与跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |