CN107564035A - 基于重要区域识别和匹配的视频跟踪方法 - Google Patents

基于重要区域识别和匹配的视频跟踪方法 Download PDF

Info

Publication number
CN107564035A
CN107564035A CN201710643069.XA CN201710643069A CN107564035A CN 107564035 A CN107564035 A CN 107564035A CN 201710643069 A CN201710643069 A CN 201710643069A CN 107564035 A CN107564035 A CN 107564035A
Authority
CN
China
Prior art keywords
sample
target
template
area
important area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710643069.XA
Other languages
English (en)
Other versions
CN107564035B (zh
Inventor
梁云
王美华
胡月明
陈湘骥
刘汉兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Kapark Network Technology Co ltd
Original Assignee
South China Agricultural University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China Agricultural University filed Critical South China Agricultural University
Priority to CN201710643069.XA priority Critical patent/CN107564035B/zh
Publication of CN107564035A publication Critical patent/CN107564035A/zh
Application granted granted Critical
Publication of CN107564035B publication Critical patent/CN107564035B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于重要区域识别和匹配的视频跟踪方法,包括下述步骤:首先,基于最小生成树理论识别初始目标的重要区域,得到目标重要区域并构建目标模板;然后,识别后续帧目标扩展区域的重要区域,并将该区域作为采样区域进行样本采集;接着,计算每个样本与目标模版的形状相似度值、颜色相似度值、皮尔逊相关系数值,并对三个值进行加权计算得到样本与目标模版的匹配度;最后,基于阈值比较方法更新目标模板以支持后续跟踪直至跟踪完成。本发明方法基于重要区域识别可以较好地描述动态变化的跟踪场景中的目标物体,结合目标的重要区域进行样本采集,提高了采样质量,增强了跟踪的准确率和稳定性。

Description

基于重要区域识别和匹配的视频跟踪方法
技术领域
本发明涉及计算机视觉领域,更具体地说,涉及一种基于重要区域识别和匹配的视频跟踪方法。
背景技术
视频跟踪通过跟踪运动物体可对目标进行实时监控、行为分析、运动估计,它是计算机视觉领域的一个研究热点,近年来已引起人们的广泛关注。该技术具有广阔的应用前景,在多个领域起着重要作用,如安全监控、人机交互、医疗诊断和车辆流量监控等等。尽管人们已经提出了大量的视频跟踪方法,但在物体外形变化较大或有严重遮挡的情况下,这些方法经常不能提供理想的跟踪结果,常无法追踪到目标物体。因此,提出一种有效的物体跟踪方法具有重要的应用价值和现实意义。
当前,虽然很多的目标跟踪算法已经被提出,但是要提出一个能处理复杂的、动态的场景的健壮算法仍然是一个具有挑战性的问题。因为光照发生变化、镜头发生移动、物体发生形变、目标物体发生部分或全部遮挡等等会导致场景的外观发生很大的变化。这些变化只能通过能够增量更新它们的表达的自适应方法进行处理。因此,能够不断学习的在线更新对跟踪物体表观的表达对于跟踪任务而言是很有必要的。基于重要区域识别方法在目标物体发生遮挡或发生形变情况下的跟踪有不错的效果。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种基于重要区域识别和匹配的视频跟踪方法,在搜索机制中结合重要区域识别,通过形状相似度、颜色相似度以及区域相似度加权评分来匹配目标模板,以确定目标区域,旨在增强搜索机制对确定目标区域的准确率和稳定性。
为了达到上述目的,本发明采用以下技术方案:
本发明一种基于重要区域识别和匹配的视频跟踪方法,包括以下步骤:
(1)根据初始帧和初始目标区域构建目标模板,得到最佳识别区域;
(2)基于重要区域识别算法构建采样区域并进行采样,得到可匹配的样本;
(3)基于颜色相似度、形状相似度以及区域相似度计算目标模板和样本的匹配度,找到最佳样本;
(4)基于阈值比较方法以最佳样本更新目标模板,找最佳样本,以匹配度最高的样本作为最佳样本;
(5)以最佳样本作为跟踪结果输出;
(6)重复步骤(2)到步骤(5),直到所有帧处理完毕。
作为优选的技术方案,所述步骤(1)中,根据初始帧和初始目标区域构建目标模板具体为:
(1-1)以初始目标区域为中心,对上下左右四个方向分别扩展k个像素m次,得到总共4m+1个扩展区域;
(1-2)识别扩展区域的重要区域并提取基于4邻域的最大连通区域;
(1-3)计算连通区域与初始目标区域的重合度,
重合度D=α1×D12×D2
D1=|Mh-Nh|+|Mw-Nw|,
其中,α1和α2是权值且α12=1,D1表示初始目标区域M与连通区域N的对应长宽差绝对值之和,D2表示初始目标区域M中心坐标(Pmx,Pmy)与连通区域N中心坐标(Pnx,Pny)的欧式距离;
(1-4)以重合度最大的连通区域作为一部分,连通区域位置相对应的目标区域作为另一部分构建目标模板;重合度最大的连通区域所对应的扩展区域称为最佳识别区域。
作为优选的技术方案,所述步骤(2)中,基于重要区域识别算法构建采样区域并进行采样具体为:
(2-1)对步骤(1)中的最佳识别区域进一步扩展h像素并识别重要区域,以识别结果中重要区域的最小外接矩阵区域作为采样区域;
(2-2)平均划分采样区域为m个子区域,从m个子区域中总共随机选取n个坐标点作为样本中心坐标,目标模板的长宽作为样本长宽构建样本;
(2-3)过滤掉样本区域超越越过原图边界的样本,剩下的样本即为可匹配样本。
作为优选的技术方案,所述步骤(3)具体为:
(3-1)以颜色直方图H(i)=ni计算样本与目标模板的颜色相似度,i=0,1,2…k-1,H(i)表示颜色直方图,i表示颜色分量的颜色等级,相当直方图横坐标上的取值,ni是像素落在i所代表颜色区间的个数,k表示最大颜色等级,相当直方图横坐标的最大取值;通过夹角余弦距离计算样本与目标模板的颜色相似度Ai表示样本颜色直方图i颜色区间的像素个数,Bi表示目标模板颜色直方图i颜色区间的像素个数,n表示颜色区间个数;
(3-2)以重要区域计算样本与目标模板的形状相似度,通过重要区域重合度计算样本与目标模板的形状相似度S表示二值化重要区域的交集面积,S表示二值化重要区域的并集面积;
(3-3)以皮尔逊相关系数计算样本与目标模板的区域相似度,Amn表示像素矩阵A在(m,n)上的取值,表示像素矩阵A的均值,Bmn表示像素矩阵B在(m,n)上的取值,表示像素矩阵B的均值;
(3-4)设定三个相似度的权值比重,计算得到样本和目标模板的匹配度D=β1×Dc2×Ds3×Dr,以匹配度最高的样本作为最佳样本。
作为优选的技术方案,所述步骤(4)具体为:
目标模板以更新度C=γ1×Cf2×Cd作为判断条件进行更新,其中,Cd表示最佳样本与目标模板的匹配度,Cf表示最佳样本与初始目标区域的颜色相似度,通过引入初始目标区域因素,使得目标模板的更新更加准确;假设Ci表示第i帧的更新度,t表示阈值;当Ci-1-Ci<t时以最佳样本更新目标模板,当Ci-1-Ci≥t时不更新目标模板。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明以形状相似度、颜色相似度、区域相似度等作为物体物体匹配度度量的线索,并给出各自的评分规则,结合线索对采样区域中所有检测窗口进行评分,根据评分确定最有可能覆盖目标的检测窗口,物体物体匹配度度量使检测窗口能很好地收敛于标物体,既尽可能使检测窗口覆盖目标物体,又使得检测窗口中背景内容尽量少。
2、本发明在搜索机制中结合重要区域识别,以重要区域作为采样区域进行样本采集,通过物体相似性度量匹配最佳样本,从而确定目标位置。搜索机制的优化可以提高跟踪过程中样本采集的质量,实现准确高效地搜索目标物体。
3、本发明能较为准确地描述目标的形状特征;通过构建目标模板时不断扩展初始目标区域并进行重要区域识别,以重合度最大的重要区域作为目标的形状特征较为准确,因为重合度大说明重要区域与初始目标区域较为相似,而初始目标区域就是目标的准确描述。
4、本发明采样质量高,以重要区域作为采样区域,有效避免在背景区域的采样,提高了采样质量。
5、本发明结合重要区域识别,通过形状相似度、颜色相似度以及区域相似度加权评分来匹配目标模板,以确定目标区域,增强了搜索机制对确定目标区域的准确率和稳定性。
附图说明
本发明与2016年的两个目标跟踪算法进行跟踪效果对比。两个算法分别是目标自响应相关滤波跟踪(以下简称TRA)和基于双线性结构向量机和显示特征图的目标跟踪(以下简称DLSSVM)。除了与TRA和DLSSVM进行对比之外,本发明还与Visual TrackerBenchmark中的九个经典算法进行对比。九个经典算法分别是CSK、CT、CXT、DFT、LOT、LSK、Struck、VTD、以及VTS。
图1为本发明的方法执行步骤示意图。
图2(a)为本发明、TRA以及DLSSVM对“girl2”在目标遮挡情况下的跟踪效果对比图。
图2(b)为本发明、TRA以及DLSSVM对“jogging”在目标遮挡情况下的跟踪效果对比图。
图3(a)为本发明、TRA以及DLSSVM对“panda”在目标变形情况下的跟踪效果对比图。
图3(b)为本发明、TRA以及DLSSVM对“dog”在目标变形情况下的跟踪效果对比图。
图4为本发明与VTS和Struck跟踪算法,以及VTD个CT算法对“basketball”在目标遮挡情况下的跟踪效果对比图。
图5为本发明与VTS和Struck跟踪算法,以及VTD个CT算法对“bird2”在目标遮挡情况下的跟踪效果对比图。
图6为本发明与CT、VTD、VTS、Struck对“skater2”在目标变形情况下的跟踪效果对比图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例基于重要区域识别和匹配的视频跟踪方法,包括下述步骤:
(1)目标模板构建阶段:首先,以初始目标区域为中心,对上下左右四个方向分别扩展5个像素6次,得到总共47个扩展区域;然后,识别扩展区域的重要区域并提取基于4邻域的最大连通区域。接着,计算连通区域与初始目标区域的重合度,重合度D=0.2×D1+0.8×D2,D1=|Mh-Nh|+|Mw-Nw|,D1表示初始目标区域M与连通区域N的对应长宽差绝对值之和,D2表示M中心坐标(Pmx,Pmy)与连通区域N中心坐标(Pnx,Pny)的欧式距离。最后,以重合度最大的连通区域和位置相对应的原图区域作为目标模板。另外,重合度最大的连通区域所对应的扩展区域称为最佳识别区域。
(2)样本采集阶段:首先,对步骤(1)中的最佳识别区域进一步扩展5和20像素并识别重要区域,以识别结果中重要区域的最小外接矩阵区域作为采样区域;然后,平均划分采样区域为100个子区域,对中间16个子区域每个区域随机采样10个坐标,得到160个样本中心坐标,对四周84个子区域每个区域随机采样5个样本,得到420个样本宗欣坐标,总共得到580个样本中心坐标。以目标模板长宽作为样本长宽和样本中心坐标构建样本;最后,过滤掉样本区域超越越过原图边界的样本,剩下的样本即为可匹配样本。
(3)样本匹配阶段:首先,以颜色直方图H(i)=ni(i=0,1,2…k-1)表示颜色特征,H(i)表示颜色直方图,i表示颜色分量的颜色等级,相当直方图横坐标上的取值,ni是像素落在i所代表颜色区间的个数,k表示最大颜色等级,相当直方图横坐标的最大取值。通过夹角余弦距离计算样本与目标模板的颜色相似度Ai表示样本颜色直方图i颜色区间的像素个数,Bi表示目标模板颜色直方图i颜色区间的像素个数,n表示颜色区间个数;然后,以重要区域表示形状特征。通过重要区域重合度计算样本与目标模板的形状相似度S表示二值化重要区域的交集面积,S表示二值化重要区域的并集面积;接着,以皮尔逊相关系数表示归一化相关系数,Amn表示像素矩阵A在(m,n)上的取值,表示像素矩阵A的均值,Bmn表示像素矩阵B在(m,n)上的取值,表示像素矩阵B的均值;最后,设定三个相似度的权值比重,计算得到样本和目标模板的匹配度D=0.4×Dc+0.2×Ds+0.4×Dr,以匹配度最高的样本作为最佳样本。
(4)目标模板更新阶段:目标模板以更新度C=0.3×Cf+0.7×Cd作为判断条件进行更新,其中,Cd表示最佳样本与目标模板的匹配度,Cf表示最佳样本与初始目标区域的颜色相似度。通过引入初始目标区域因素,可以使得目标模板的更新更加准确。假设Ci表示第i帧的更新度,更新阈值t=0.01。当Di-1-Di<0.01时以最佳样本更新目标模板,当Di-1-Di≥0.01时不更新目标模板。
图2(a)、图2(b)和图3(a)、图3(b)为本发明、TRA和DLSSVM的跟踪效果对比图。其中,图中左上角数字为视频帧的计数,深色实框为本发明跟踪结果,设色虚框为TRA跟踪结果,浅色虚框为DLSSVM跟踪结果。图4和图5是本发明与多个经典算法的跟踪效果对比图。其中各算法跟踪效果如图中标注所示。
如图2(a)所示,小女孩作为目标物体在第112帧的时候被白衣男子完全遮挡,在第127帧的时候重新出现。从实验结果看出,本发明在第127帧目标重新出现时准确跟踪到目标,TRA和DLSSVM都无法准确跟踪目标。同理,如图2(b)所示,白色衣服跑步者作为目标物体在第52帧的时候被柱子完全遮挡,在第61帧的时候重新出现。本发明和TRA在目标重新出现时准确跟踪目标,DLSSVM无法准确跟踪目标。因此,本发明针对目标完全遮挡的跟踪效果更好。首先,本发明的采样算法中对目标所处的扩展区域进行重要区域识别,并以识别到的重要区域作为采样区域进行采样。通过区域扩展、重要区域识别以及采样可以在目标重新出现时采集到包含目标的样本;然后,本发明的目标模板更新算法使得被遮挡前目标信息保留为目标模板;最后,本发明的匹配算法使得包含目标的样本与目标模板的匹配度最高,从而达到目标被遮挡后重新出现时准确跟踪的效果。
如图3(a)所示,熊猫作为目标物体在第296帧和第513帧时都发生较大的形变。从实验结果看出,本发明可以在目标发生较大形变的情况下准确跟踪目标,DLSSVM也能准确跟踪目标,但是TRA在第513帧的时候无法准确跟踪目标。同理,如图3(b)所示,花斑狗作为目标物体在第15帧和第82帧的时候都发生较大的形变,本发明、TRA和DLSSVM都可以准确跟踪目标。首先,本发明的采样算法基于重要区域识别,对于目标发生较大形变都可以采集到包含目标的样本;其次,本发明的目标模板更新算法基于阈值比较进行目标模板更新,对于目标形变情况可以动态更新目标模板,从而达到准确跟踪的效果。
如图4所示,目标物体在第17帧时目标被运动员遮挡,本发明可以跟踪到目标,Struck跟踪效果不佳;目标在第28帧时重新出现,本发明依旧可以跟踪到目标,VTS跟踪效果不佳。如图5所示,鹤作为目标物体在第16帧时被小鸡部分遮挡,本发明可以准确跟踪目标,CT跟踪丢失,VTD都出现了不同程度的偏差。目标在第19帧时重新出现,本发明依旧可以跟踪到目标,CT和VTD跟踪丢失。
如图6所示,溜冰者作为目标物体在第40帧时发生较大形变,本发明与四个经典算法都可以较为准确跟踪目标,但CT的跟踪区域变得较大;目标在第60帧时再次发生较大形变,本发明与VTD、VTS、Struck的跟踪效果较好,其它算法都出现了一定程度的偏差。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种基于重要区域识别和匹配的视频跟踪方法,其特征在于,包括以下步骤:
(1)基于最小生成树理论识别初始目标的重要区域,得到目标重要区域并构建目标模板;
(2)识别后续帧目标扩展区域的重要区域,并将该区域作为采样区域进行样本采集;
(3)计算每个样本与目标模版的形状相似度值、颜色相似度值、皮尔逊相关系数值,并对三个值进行加权计算得到样本与目标模版的匹配度;
(4)基于阈值比较方法更新目标模板以支持后续跟踪直至跟踪完成,并以匹配度最高的样本作为最佳样本;
(5)以最佳样本作为跟踪结果输出;
(6)重复步骤(2)到步骤(5),直到所有帧处理完毕。
2.根据权利要求1所述基于重要区域识别和匹配的视频跟踪方法,其特征在于,所述步骤(1)具体为:
(1-1)以初始目标区域为中心,对上下左右四个方向分别扩展k个像素m次,得到总共4m +1个扩展区域;
(1-2)识别扩展区域的重要区域并提取基于4邻域的最大连通区域;
(1-3)计算连通区域与初始目标区域的重合度,
重合度D=α1×D12×D2
D1=|Mh-Nh|+|Mw-Nw|,
<mrow> <msub> <mi>D</mi> <mn>2</mn> </msub> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>P</mi> <mrow> <mi>m</mi> <mi>x</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>P</mi> <mrow> <mi>n</mi> <mi>x</mi> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>P</mi> <mrow> <mi>m</mi> <mi>y</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>P</mi> <mrow> <mi>n</mi> <mi>y</mi> </mrow> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mo>,</mo> </mrow>
其中,α1和α2是权值且α12=1,D1表示初始目标区域M与连通区域N的对应长宽差绝对值之和,D2表示初始目标区域M中心坐标(Pmx,Pmy)与连通区域N中心坐标(Pnx,Pny)的欧式距离;
(1-4)以重合度最大的连通区域作为一部分,连通区域位置相对应的目标区域作为另一部分构建目标模板;重合度最大的连通区域所对应的扩展区域称为最佳识别区域。
3.根据权利要求1所述基于重要区域识别和匹配的视频跟踪方法,其特征在于,所述步骤(2)中,基于重要区域识别算法构建采样区域并进行采样具体为:
(2-1)对步骤(1)中的最佳识别区域进一步扩展h像素并识别重要区域,以识别结果中重要区域的最小外接矩阵区域作为采样区域;
(2-2)平均划分采样区域为m个子区域,从m个子区域中总共随机选取n个坐标点作为样本中心坐标,目标模板的长宽作为样本长宽构建样本;
(2-3)过滤掉样本区域超越越过原图边界的样本,剩下的样本即为可匹配样本。
4.根据权利要求1所述基于重要区域识别和匹配的视频跟踪方法,其特征在于,所述步骤(3)具体为:
(3-1)以颜色直方图H(i)=ni计算样本与目标模板的颜色相似度,i=0,1,2…k-1,H(i)表示颜色直方图,i表示颜色分量的颜色等级,相当直方图横坐标上的取值,ni是像素落在i所代表颜色区间的个数,k表示最大颜色等级,相当直方图横坐标的最大取值;通过夹角余弦距离计算样本与目标模板的颜色相似度Ai表示样本颜色直方图i颜色区间的像素个数,Bi表示目标模板颜色直方图i颜色区间的像素个数,n表示颜色区间个数;
(3-2)以重要区域计算样本与目标模板的形状相似度,通过重要区域重合度计算样本与目标模板的形状相似度S表示二值化重要区域的交集面积,S表示二值化重要区域的并集面积;
(3-3)以皮尔逊相关系数计算样本与目标模板的区域相似度,Amn表示像素矩阵A在(m,n)上的取值,表示像素矩阵A的均值,Bmn表示像素矩阵B在(m,n)上的取值,表示像素矩阵B的均值;
(3-4)设定三个相似度的权值比重,计算得到样本和目标模板的匹配度D=β1×Dc2×Ds3×Dr,以匹配度最高的样本作为最佳样本。
5.根据权利要求1所述基于重要区域识别和匹配的视频跟踪方法,其特征在于,所述步骤(4)具体为:
目标模板以更新度C=γ1×Cf2×Cd作为判断条件进行更新,其中,Cd表示最佳样本与目标模板的匹配度,Cf表示最佳样本与初始目标区域的颜色相似度,通过引入初始目标区域因素,使得目标模板的更新更加准确;假设Ci表示第i帧的更新度,t表示阈值;当Ci-1-Ci<t时以最佳样本更新目标模板,当Ci-1-Ci≥t时不更新目标模板。
CN201710643069.XA 2017-07-31 2017-07-31 基于重要区域识别和匹配的视频跟踪方法 Active CN107564035B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710643069.XA CN107564035B (zh) 2017-07-31 2017-07-31 基于重要区域识别和匹配的视频跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710643069.XA CN107564035B (zh) 2017-07-31 2017-07-31 基于重要区域识别和匹配的视频跟踪方法

Publications (2)

Publication Number Publication Date
CN107564035A true CN107564035A (zh) 2018-01-09
CN107564035B CN107564035B (zh) 2020-10-09

Family

ID=60974851

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710643069.XA Active CN107564035B (zh) 2017-07-31 2017-07-31 基于重要区域识别和匹配的视频跟踪方法

Country Status (1)

Country Link
CN (1) CN107564035B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109089160A (zh) * 2018-09-19 2018-12-25 中国石油大学(华东) 一种高校餐厅食品加工违规行为视频分析系统及方法
CN109191496A (zh) * 2018-08-02 2019-01-11 阿依瓦(北京)技术有限公司 一种基于形状匹配的运动预测方法
CN110414443A (zh) * 2019-07-31 2019-11-05 苏州市科远软件技术开发有限公司 一种目标跟踪方法、装置及枪球联动跟踪方法
CN110619276A (zh) * 2019-08-15 2019-12-27 杭州电子科技大学 基于无人机移动监控的异常及暴力检测系统和方法
CN110807792A (zh) * 2018-08-06 2020-02-18 财团法人资讯工业策进会 比对追踪物件的方法及电子装置
CN110956648A (zh) * 2019-11-15 2020-04-03 深圳市宏电技术股份有限公司 一种视频图像处理方法、装置、设备及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101308607A (zh) * 2008-06-25 2008-11-19 河海大学 基于视频的混合交通环境下移动目标多特征融合跟踪方法
CN102663777A (zh) * 2012-04-26 2012-09-12 安科智慧城市技术(中国)有限公司 基于多视点视频的目标跟踪方法及系统
CN103413120A (zh) * 2013-07-25 2013-11-27 华南农业大学 基于物体整体性和局部性识别的跟踪方法
US20140126639A1 (en) * 2009-04-02 2014-05-08 Mstar Semiconductor, Inc. Motion Estimation Method
CN104637062A (zh) * 2015-02-17 2015-05-20 海南大学 融合颜色与surf特征的基于粒子滤波的目标追踪方法
US20150279051A1 (en) * 2012-09-12 2015-10-01 Enlighted, Inc. Image detection and processing for building control
CN105243667A (zh) * 2015-10-13 2016-01-13 中国科学院自动化研究所 基于局部特征融合的目标再识别方法
US20160358341A1 (en) * 2015-06-07 2016-12-08 Apple Inc. Fast Template-Based Tracking
CN106934846A (zh) * 2015-12-29 2017-07-07 深圳先进技术研究院 一种布料图像处理方法及系统

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101308607A (zh) * 2008-06-25 2008-11-19 河海大学 基于视频的混合交通环境下移动目标多特征融合跟踪方法
US20140126639A1 (en) * 2009-04-02 2014-05-08 Mstar Semiconductor, Inc. Motion Estimation Method
CN102663777A (zh) * 2012-04-26 2012-09-12 安科智慧城市技术(中国)有限公司 基于多视点视频的目标跟踪方法及系统
US20150279051A1 (en) * 2012-09-12 2015-10-01 Enlighted, Inc. Image detection and processing for building control
CN103413120A (zh) * 2013-07-25 2013-11-27 华南农业大学 基于物体整体性和局部性识别的跟踪方法
CN104637062A (zh) * 2015-02-17 2015-05-20 海南大学 融合颜色与surf特征的基于粒子滤波的目标追踪方法
US20160358341A1 (en) * 2015-06-07 2016-12-08 Apple Inc. Fast Template-Based Tracking
CN105243667A (zh) * 2015-10-13 2016-01-13 中国科学院自动化研究所 基于局部特征融合的目标再识别方法
CN106934846A (zh) * 2015-12-29 2017-07-07 深圳先进技术研究院 一种布料图像处理方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DUDDELA SAI PRASHANTH等: "Reduction of sample impoverishment problem in particle filter for object tracking", 《 2015 ANNUAL IEEE INDIA CONFERENCE (INDICON)》 *
袁文博等: "基于局部特征融合的目标再识别方法", 《华中科技大学学报(自然科学版)》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191496A (zh) * 2018-08-02 2019-01-11 阿依瓦(北京)技术有限公司 一种基于形状匹配的运动预测方法
CN109191496B (zh) * 2018-08-02 2020-10-02 阿依瓦(北京)技术有限公司 一种基于形状匹配的运动预测方法
CN110807792A (zh) * 2018-08-06 2020-02-18 财团法人资讯工业策进会 比对追踪物件的方法及电子装置
CN109089160A (zh) * 2018-09-19 2018-12-25 中国石油大学(华东) 一种高校餐厅食品加工违规行为视频分析系统及方法
CN110414443A (zh) * 2019-07-31 2019-11-05 苏州市科远软件技术开发有限公司 一种目标跟踪方法、装置及枪球联动跟踪方法
CN110619276A (zh) * 2019-08-15 2019-12-27 杭州电子科技大学 基于无人机移动监控的异常及暴力检测系统和方法
CN110619276B (zh) * 2019-08-15 2021-12-21 杭州电子科技大学 基于无人机移动监控的异常及暴力检测系统和方法
CN110956648A (zh) * 2019-11-15 2020-04-03 深圳市宏电技术股份有限公司 一种视频图像处理方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN107564035B (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
CN107564035A (zh) 基于重要区域识别和匹配的视频跟踪方法
CN108717531B (zh) 基于Faster R-CNN的人体姿态估计方法
Huang et al. A pointing gesture based egocentric interaction system: Dataset, approach and application
CN104361353B (zh) 一种感兴趣区域的定位方法在仪表监控识别中的应用
CN109285179A (zh) 一种基于多特征融合的运动目标跟踪方法
CN107335192A (zh) 运动辅助训练方法、装置及存储装置
CN109949340A (zh) 基于OpenCV的目标尺度自适应跟踪方法
CN106295564B (zh) 一种邻域高斯结构和视频特征融合的动作识别方法
CN101587591B (zh) 基于双参数阈值分割的视觉精确跟踪方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN105243664B (zh) 一种基于视觉的轮式移动机器人快速目标跟踪方法
CN108062525A (zh) 一种基于手部区域预测的深度学习手部检测方法
CN106125087A (zh) 基于激光雷达的舞蹈机器人室内行人跟踪方法
CN103632137B (zh) 一种人眼虹膜图像分割方法
CN104794451B (zh) 基于分块匹配结构的行人比对方法
CN104715493A (zh) 一种运动人体姿态估计的方法
CN110110649A (zh) 基于速度方向的可选择性人脸检测方法
CN105512618B (zh) 视频跟踪方法
Nassu et al. A vision-based approach for rail extraction and its application in a camera pan–tilt control system
CN103955950B (zh) 一种利用关键点特征匹配的图像跟踪方法
CN108960115A (zh) 基于角点的多方向文本检测方法
CN106296743A (zh) 一种自适应运动目标跟踪方法及无人机跟踪系统
CN109191255A (zh) 一种基于无监督特征点检测的商品对齐方法
CN111476077A (zh) 一种基于深度学习的多视角步态识别方法
CN106327528A (zh) 无人机运动目标跟踪方法及无人机的工作方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240603

Address after: Room 2932-1, 29th Floor, No. 12 Keyun Road, Tianhe District, Guangzhou City, Guangdong Province, 510000 (for office purposes only) (cannot be used as a factory building)

Patentee after: GUANGZHOU KAPARK NETWORK TECHNOLOGY CO.,LTD.

Country or region after: China

Address before: 510642 No. five, 483 mountain road, Guangzhou, Guangdong, Tianhe District

Patentee before: SOUTH CHINA AGRICULTURAL University

Country or region before: China