CN106530340A - 一种指定物体跟踪方法 - Google Patents
一种指定物体跟踪方法 Download PDFInfo
- Publication number
- CN106530340A CN106530340A CN201610939923.2A CN201610939923A CN106530340A CN 106530340 A CN106530340 A CN 106530340A CN 201610939923 A CN201610939923 A CN 201610939923A CN 106530340 A CN106530340 A CN 106530340A
- Authority
- CN
- China
- Prior art keywords
- search
- region
- tracking
- characteristic
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种指定物体跟踪方法,其中,该指定物体跟踪方法包括:获取当前帧中跟踪目标的位置信息,根据所述位置信息确定所述跟踪目标的第一搜索区域,根据所述第一搜索区域确定第一混合特征,以所述第一混合特征作为输入,计算目标模板,获取下一帧中所述跟踪目标在相同的所述位置信息下的M个第二搜索区域,根据所述M个第二搜索区域确定M个分别对应的第二混合特征图,根据所述目标模板和所述第二混合特征图计算所述跟踪目标的特征响应图;确定所述特征响应图中滤波响应最大的特征点的位置为所述跟踪目标的位置。
Description
技术领域
本发明涉及智能监控技术领域,具体涉及一种指定物体跟踪方法。
背景技术
指定物体跟踪是计算机视觉和模式识别领域的一个热点和基础问题,所谓指定物体跟踪就是,用户可以在输入视频中任意指定一个目标,标记出目标在视频中的位置,目标矩形框大小以及在视频中的初始帧,跟踪系统就可以在输入视频初始帧之后的第二帧视频开始,对用户指定的目标进行跟踪,每帧跟踪完成后,输出目标在视频中的位置坐标和矩形框大小。指定物体跟踪和指定物体跟踪系统可以被广泛应用到工业生产和生活的很多领域,包括智能机器人平台(无人机),视频监控系统,工业流水线,智能汽车(辅助驾驶)等。例如,使用带摄像头的无人机跟踪并跟拍用户指定的人,车辆或者其他目标;在视频监控系统中跟踪用户标记的可疑物体或行人;在工业流水线上跟踪指定的工业零件;在智能汽车的辅助驾驶系统中跟踪指定车辆跟车行驶。
从工业生产和生活的实际应用场景出发,指定物体跟踪与其它目标跟踪问题相比有其特有的一些要求:
任意指定物体,指定物体跟踪算法要求跟踪的目标类型,大小,形状,颜色具有任意性,可对用户输入的任意目标进行跟踪。因此并不局限于单一类型的目标跟踪,如人脸,行人,汽车等。
准确度高,通常要求指定物体的跟踪系统必须同时具有高的准确性和实时的处理速度。在指定目标跟踪的过程中需要对目标的位置和大小进行准确的估计,通常成功跟踪到目标时交集占并集比率(IOU,Intersection over Union)>50%;IOU过低或者偏离目标,就不能有效完成跟踪任务。
高处理速度,跟踪系统需要具有实时的处理速度才能在实际的工业现场和生活场景中使用,通常需要跟踪算法达到每秒处理25-30帧以上的处理速度。
平台计算资源限制,由于指定目标跟踪系统的硬件资源一般非常有限,在完成目标跟踪任务的同时还要进行其它任务的处理,因此该类型的算法不宜占用过多的计算资源和存储资源。
目前现有的目标跟踪技术一般可以分为三类,第一类是使用特定目标的检测器先检测出目标,然后进行跟踪。第二类是基于目标跟踪算法,使用手工设计的特征描述目标,并通过在线学习建立目标的模型,在跟踪过程中更新目标的模型。第三类是基于复杂的深度学习网络,完成对目标特征的建模,然后使用深度学习在线更新目标模型,完成跟踪任务。
由于跟踪目标具有任意性,所以特定目标的检测和跟踪系统很难被应用来解决此类问题。例如目前已经非常成熟的人脸跟踪方法,或者行人跟踪方法都是针对特定目标设计的,很难被推广到任意目标的跟踪。
由于在视频中目标的形状可能发生变化,光照突变,目标遮挡,目标快速运动等因素的影响,基于传统特征例如目标边缘,目标颜色的跟踪系统很难在复杂环境中取得高的跟踪精度。
目前现有的指定目标跟踪算法一般需要经过复杂的计算,具有较高的时间复杂度和空间复杂度。很难做到对目标的实时跟踪以及占用少的硬件资源。
跟踪目标的初始化,需要提供目标的矩形框,操作比较复杂,一般需要暂停视频或者在待跟踪目标慢速时进行标注。
综上所述,指定目标的跟踪问题非常困难和具有挑战性,很难做到高跟踪精度同时兼具实时的处理速度和小的硬件资源消耗。
现有技术中的一种指定目标跟踪方法,如CN 104574445 A;该方法包括:在初始化帧中,设计一个特殊的映射环节将图像转换成多向量混合特征;采用提取的多向量混合特征训练多向量相关滤波器;针对随后的序列图像,采用训练好的多向量相关滤波器生成所有搜索位置的置信图;选取置信图的峰值为目标位置,对此位置像第一步相同的方式提取多向量混合特征,并在线更新相关滤波器,能够实现快速跟踪。
在上述现有技术中,CN104574445 A中使用了相关滤波器来在线训练目标的外观模型。虽然还是使用传统特征,但是在特征提取过程中加入了在线有监督学习,因此可以得到对目标外观更好的特征表达。同时,由于使用了相关滤波器来进行训练,大大缩短了模型训练时间。然而,由于使用的依然是传统特征,其目标表达能力依然有限。同时,在跟踪过程中如果目标大小发生变化,该方法不能检测出目标大小的变化,因此会影响跟踪的准确性和稳定性。
发明内容
本发明提供一种指定物体跟踪方法和指定物体跟踪装置,用于实现对被跟丢的人体的继续跟踪。
本发明提供一种指定物体跟踪方法,包括:
获取当前帧中跟踪目标的位置信息;
根据所述位置信息确定所述跟踪目标的第一搜索区域Rorg;
根据所述第一搜索区域Rstd确定第一混合特征Zfea,所述第一混合特征Zfea包括:卷积神经网络特征Zcnn、方向梯度直方图HOG特征Zhog和颜色特征Zlab;
以所述第一混合特征Zfea作为输入,计算目标模板tmpl,所述目标模板tmpl用于将所述跟踪目标的特征信息转化为位置信息;
获取下一帧中所述跟踪目标在相同的所述位置信息下的M个第二搜索区域Rsi,所述M为大于或等于3的整数,所述M个第二搜索区域Rsi分别对应M个不同的搜索尺寸;
根据所述M个第二搜索区域Rsi确定M个分别对应的第二混合特征图Zsi;
根据所述目标模板tmpl和所述第二混合特征图Zsi计算所述跟踪目标的特征响应图Rmapsi;
确定所述特征响应图Rmapsi中滤波响应最大的特征点的位置为所述跟踪目标的位置。
由上可见,本发明实施例在确认跟踪目标之后,根据跟踪目标的位置信息确定第一搜索区域,再根据所述第一搜索区域确定第一混合特征;其中,所述第一混合特征包括:卷积神经网络特征、HOG特征和颜色特征;以所述第一混合特征作为输入,计算目标模板;然后,获取下一帧中所述跟踪目标在相同的所述位置信息下的M个第二搜索区域,并根据所述M个第二搜索区域确定M个分别对应的第二混合特征图;最后,根据所述目标模板和所述第二混合特征图计算所述跟踪目标的特征响应图,确定所述特征响应图中滤波响应最大的特征点的位置为所述跟踪目标的位置,完成跟踪目标的跟踪。为了适应各种复杂的跟踪场景,本发明实施例将卷积神经网络特征和HOG特征,LAB颜色特征级联起来,可进一步提升跟踪效果,提高跟踪的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种指定物体跟踪方法一个实施例流程示意图;
图2为本发明实施例提供的一种指定物体跟踪方法另一个实施例流程示意图;
图3为本发明实施例提供的加权混合特征图;
图4为本发明实施例提供的快速相邻尺度搜索策略图。
具体实施方式
为使得本发明的发明目的、特征、优点能够更加的明显和易懂,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而非全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
本发明实例提供一种指定物体跟踪方法。如图1所示,本发明实施例中的指定物体跟踪方法包括:
步骤101、获取当前帧中跟踪目标的位置信息;
在步骤101中,指定物体跟踪装置获取当前帧中跟踪目标的位置信息。在实际应用中的,在跟踪视频实时播放时,用户实时对跟踪视频中的当前帧进行标注,标注出跟踪目标的矩形框,指定物体跟踪装置获取所述矩形框中跟踪目标对应的位置信息。
具体的,所述位置信息包括:所述跟踪目标的中心点坐标(x,y)、宽度信息w和高度信息h。
步骤102、根据所述位置信息确定所述跟踪目标的第一搜索区域;
在步骤102中,指定物体跟踪装置根据所述位置信息确定所述跟踪目标的第一搜索区域Rorg,所述第一搜索区域为当前帧对应的搜索区域。Rorg的高hR=pad*h,宽wR=pad*w;其中,pad值表示搜索区域相对于跟踪目标的矩形框的大小倍数,该pad值可以取2.5。
具体的,指定物体跟踪装置可以以所述跟踪目标的中心点坐标(x,y)为中心,并根据所述宽度信息w和高度信息h的比例确定所述跟踪目标的第一搜索区域Rorg。
可以理解的是,在实际应用中,第一搜索区域的确定方式可以有多种,本发明实施例仅举出一种实现方式,该实现方式不应理解为本发明实施例的唯一实现方法。
步骤103、根据所述第一搜索区域确定第一混合特征;
在步骤103中,指定物体跟踪装置根据所述第一搜索区域Rstd确定第一混合特征Zfea,请参阅图3,上述第一混合特征Zfea包括:卷积神经网络特征Zcnn、方向梯度直方图(HOG,Histogram of Oriented Gradient)特征Zhog和颜色特征Zlab。
示例性的,在实际应用中,上述第一混合特征Zfea可以具体为a*Zcnn,,(1-a)*Zhog,或者(1-a)*Zlab,其中,a为权重系数,控制卷积神经网络特征和传统特征(边缘,颜色)之间的比重。
具体的,所述卷积神经网络特征Zcnn可以通过对所述第一搜索区域Rstd进行卷积网络的滤波得到;在实际应用中,在得到第一搜索区域后,可以在该区域中利用多域卷积神经网络的视觉跟踪(MDNet,Multi-Domain Convolutional Neural Networks for VisualTracking)训练得到的卷积网络的第一层滤波器进行滤波。
因为MDNet的卷积层特征可以学习到前景目标的共性特征,所以这种卷积神经网络提取的特征更适合完成任意目标的跟踪任务,可以获得更高的跟踪精度。
具体的,HOG特征Zhog和颜色特征Zlab可以从归一化的第一搜索区域中提取得到。
步骤104、以所述第一混合特征作为输入,计算目标模板;
在步骤104中,指定物体跟踪装置以所述第一混合特征Zfea作为输入,计算目标模板tmpl,所述目标模板tmpl用于将所述跟踪目标的特征信息转化为位置信息,从而实现对跟踪目标的跟踪。在实际应用中,目标模板可以为一个权重矩阵,把跟踪目标的特征矩阵映射成跟踪目标的位置分布矩阵。
示例性的,在实际应用中,目标模板tmpl可以为其中,公式中的⊙表示矩阵元素相乘,公式中的除法为矩阵元素相除,公式中的λ为正则化参数,公式中的表示对应变量的快速傅里叶变换(FFT,Fast Fourier Transformation),公式中的*表示复数的共轭,公式中的是经过FFT变换后的高斯核。
可以理解的是,在实际应用中,目标模板tmpl可以有多种表现形式,本发明实施例仅举出一种实现方式,该实现方式不应理解为本发明实施例的唯一实现方法。
步骤105、获取下一帧中所述跟踪目标在相同的所述位置信息下的M个第二搜索区域;
在步骤105中,指定物体跟踪装置获取下一帧中所述跟踪目标在相同的所述位置信息下的M个第二搜索区域RSi,所述M为大于或等于3的整数,所述M个第二搜索区域RSi分别对应M个不同的搜索尺寸。
其中,第二搜索区域为下一帧图像对应的搜索区域,且所述第二搜索区域可以有多个,在实际应用中,为了能实时检测出目标大小,M=3是最小的尺度变化量化量。取M=5,7,9….等较大的M值可以获得更精确的目标大小信息,但是会损失运算速度,影响跟踪算法的速度。
步骤106、根据所述M个第二搜索区域确定M个分别对应的第二混合特征图;
在步骤106中,指定物体跟踪装置根据所述M个第二搜索区域RSi确定M个分别对应的第二混合特征图ZSi。具体的,所述第二混合特征图也包括卷积神经网络特征、HOG特征和颜色特征;并且,根据第二搜索区域确定第二混合特征图的方式可以参数上述步骤103相似,此次不再赘述。
步骤107、根据所述目标模板和所述第二混合特征图计算所述跟踪目标的特征响应图;
在步骤107中,指定物体跟踪装置根据所述目标模板tmpl和所述第二混合特征图ZSi计算所述跟踪目标的特征响应图Rmapsi。
示例性的,指定物体跟踪装置可以以所述目标模板tmpl和所述第二混合特征图ZSi作为输入,根据公式Rmapsi=FFT-1(tmpl⊙FFT(Zsi))计算特征响应图Rmapsi。
可以理解的是,在实际应用中,计算特征响应图的计算方式可以有多种,本发明实施例仅举出一种实现方式,该实现方式不应理解为本发明实施例的唯一实现方法。
步骤108、确定所述特征响应图中滤波响应最大的特征点的位置为所述跟踪目标的位置。
在步骤108中,指定物体跟踪装置确定所述特征响应图Rmapsi中滤波响应最大的特征点的位置为所述跟踪目标的位置。
具体的,在实际应用中,指定物体跟踪装置分别确定每一个搜索尺度对应的特征响应图Rmapsi中滤波响应最大的特征点的位置Lsi(x,y)=argmax(x,y)Rmapsi(x,y);再在M个搜索尺度对应的最大的特征点的位置中,确定滤波响应最大的特征点为所述跟踪目标的位置(xt,yt)=maxsi(Lsi(x,y))。
本发明实施例中,在确认跟踪目标之后,根据跟踪目标的位置信息确定第一搜索区域,再根据所述第一搜索区域确定第一混合特征;其中,所述第一混合特征包括:卷积神经网络特征、HOG特征和颜色特征;以所述第一混合特征作为输入,计算目标模板;然后,获取下一帧中所述跟踪目标在相同的所述位置信息下的M个第二搜索区域,并根据所述M个第二搜索区域确定M个分别对应的第二混合特征图;最后,根据所述目标模板和所述第二混合特征图计算所述跟踪目标的特征响应图,确定所述特征响应图中滤波响应最大的特征点的位置为所述跟踪目标的位置,完成跟踪目标的跟踪。为了适应各种复杂的跟踪场景,本发明实施例将卷积神经网络特征和HOG特征,LAB颜色特征级联起来,可进一步提升跟踪效果,提高跟踪的准确率。
需要说明的是,本发明实施例中的指定物体跟踪方法可以由指定物体跟踪装置执行。上述指定物体跟踪装置可以集成在机器人、监控终端或其它终端中,此处不作限定。
实施例二
请参阅图2,在实际应用中,由于指定目标跟踪系统的硬件资源一般非常有限,在完成目标跟踪任务的同时还要进行其它任务的处理,因此该类型的算法不宜占用过多的计算资源和存储资源,本发明实施例做了相应的优化,具体包括:
步骤201、获取当前帧中跟踪目标的位置信息;
在步骤201中,指定物体跟踪装置获取当前帧中跟踪目标的位置信息。在实际应用中的,在跟踪视频实时播放时,用户实时对跟踪视频中的当前帧进行标注,标注出跟踪目标的矩形框,指定物体跟踪装置获取所述矩形框中跟踪目标对应的位置信息。
具体的,所述位置信息包括:所述跟踪目标的中心点坐标(x,y)、宽度信息w和高度信息h。
步骤202、根据所述位置信息确定所述跟踪目标的第一搜索区域;
在步骤202中,指定物体跟踪装置根据所述位置信息确定所述跟踪目标的第一搜索区域Rorg,所述第一搜索区域为当前帧对应的搜索区域。Rorg的高hR=pad*h,宽wR=pad*w;其中,pad值表示搜索区域相对于跟踪目标的矩形框的大小倍数,该pad值可以取2.5。
具体的,指定物体跟踪装置可以以所述跟踪目标的中心点坐标(x,y)为中心,并根据所述宽度信息w和高度信息h的比例确定所述跟踪目标的第一搜索区域Rorg。
可以理解的是,在实际应用中,第一搜索区域的确定方式可以有多种,本发明实施例仅举出一种实现方式,该实现方式不应理解为本发明实施例的唯一实现方法。
步骤203、根据所述宽度信息和高度信息确定所述第一搜索区域的缩放尺度值;
在步骤203中,指定物体跟踪装置根据所述宽度信息和高度信息确定所述第一搜索区域的缩放尺度值。具体的,指定物体跟踪装置根据所述跟踪目标的宽度信息w和高度信息h,确定所述跟踪目标的长边LR,所述跟踪目标的长边LR为所述第一搜索区域中长度最长的边框线段;然后,再根据所述跟踪目标的长边LR确定所述第一搜索区域Rorg的缩放尺度值SR。
示例性的,所述长边LR可以根据公式LR=max(hR,wR)确定,在本发明实施例中,跟踪目标的长边被限制为固定长度LR_max。缩放尺度值SR可以根据公式SR=LR_max/LR确定。
在本发明实施例中,针对输入目标任意,以及算法实时性的要求,将输入目标矩形保持比例映射为长边固定大小,短边按照长边缩放比例缩放。这样可以把目标按照比例缩小,减少程序计算特征以及计算目标模板的时间。
步骤204、根据所述缩放尺度值将所述第一搜索区域缩放为第一标准搜索区域;
在步骤204中,指定物体跟踪装置根据所述缩放尺度值SR将所述第一搜索区域Rorg缩放为第一标准搜索区域Rstd,所述第一标准搜索区域为长边固定大小的搜索区域。具体的,Rstd的高和宽为(hstd,wstd)=(hR*SR,wR*SR)。
步骤205、对第一标准搜索区域中的图像进行卷积网络的滤波;
在步骤205中,指定物体跟踪装置对第一标准搜索区域Rstd中的图像进行卷积网络的滤波,得到卷积神经网络特征Zcnn。
在实际应用中,在得到第一标准搜索区域后,可以在该区域中利用MDNet训练得到的卷积网络的第一层滤波器进行滤波。因为MDNet的卷积层特征可以学习到前景目标的共性特征,所以这种卷积神经网络提取的特征更适合完成任意目标的跟踪任务,可以获得更高的跟踪精度。
具体的,滤波后得到的卷积神经网络特征Zcnn的大小为hZ*wZ*cZ,其中hZ,wZ为卷积神经网络特征的高和宽,cZ为卷积神经网络特征的通道数。
步骤206、对所述卷积神经网络特征进行空间降维和通道降维;
在步骤206中,指定物体跟踪装置对所述卷积神经网络特征Zcnn进行空间降维和通道降维。示例性的,卷积神经网络特征图的空间降维,对得到的卷积神经网络特征Zcnn的每一个通道分别进行4*4Max pooling(最大值池化操作),将其宽,高降低为Zcnn的一半,从而将空间维度降低为Zcnn的四分之一。卷积神经网络特征的通道降维,对空间降维后的卷积神经网络特征图进行降维,将特征图的特征通道数降到cZ_min=32。经过空间以及通道降维后的特征卷积Zmin的维度降低为(0.5*hZ,0.5*wZ,cZ_min)。
在本发明实施例中,由于原始的卷积神经网络提取的第一层特征维度较高,直接用于跟踪,在特征提取以及后续处理过程中会大大降低处理速度。同时,在获取的首层卷积神经网络的特征中,存在大量的冗余,包括空间冗余和通道冗余。在原来的网络中由于存在多层神经网络,冗余信息可以在后面被消除掉。因此,本发明实施例通过空间降维和通道降维结合的方式来消除空间冗余和减少特征通道,从而达到在保证跟踪性能的前提下,大大提升了跟踪速度。
步骤207、根据所述第一标准搜索区域提取方向梯度直方图HOG特征和颜色特征;
在步骤207中,指定物体跟踪装置根据所述第一标准搜索区域Rstd提取方向梯度直方图HOG特征Zlog和颜色特征Zlab。示例性的,指定物体跟踪装置可以提取核大小为(4×4)的HOG特征Zlog,得到维度为(0.5*hZ,0.5*wZ,chog)的特征矩阵。特征的通道数为chog=31;指定物体跟踪装置可以提取核大小为(4×4)的LAB颜色特征Zlab,特征的维度为(0.5*hZ,0.5*wZ,clabg),其中颜色特征的通道数为clab=15。
步骤208、输出第一混合特征;
在步骤208中,指定物体跟踪装置根据预算权重将所述卷积神经网络特征Rstd、所述HOG特征Zlog和所述颜色特征Zlab配置为第一混合特征Zfea。
示例性的,上述第一混合特征Zfea具体可以为:a*Zcnn,(1-a)*Zhog,或者(1-a)*Zlab,其中,a为权重系数,控制卷积神经网络特征和传统特征(边缘,颜色)之间的比重。
步骤209、以所述第一混合特征作为输入,计算目标模板;
在步骤209中,指定物体跟踪装置以所述第一混合特征Zfea作为输入,计算目标模板tmpl,所述目标模板tmpl用于将所述跟踪目标的特征信息转化为位置信息,从而实现对跟踪目标的跟踪。在实际应用中,目标模板可以为一个权重矩阵,把跟踪目标的特征矩阵映射成跟踪目标的位置分布矩阵。
示例性的,在实际应用中,目标模板tmpl可以为其中,公式中的⊙表示矩阵元素相乘,公式中的除法为矩阵元素相除,公式中的λ为正则化参数,公式中的表示对应变量的快速傅里叶变换,公式中的*表示复数的共轭,公式中的是经过FFT变换后的高斯核。
可以理解的是,在实际应用中,目标模板tmpl可以有多种表现形式,本发明实施例仅举出一种实现方式,该实现方式不应理解为本发明实施例的唯一实现方法。
步骤210、获取下一帧中所述跟踪目标在相同的所述位置信息下的M个第二搜索区域;
在步骤210中,指定物体跟踪装置获取下一帧中所述跟踪目标在相同的所述位置信息下的M个第二搜索区域RSi,所述M为大于或等于3的整数,所述M个第二搜索区域RSi分别对应M个不同的搜索尺寸。
其中,第二搜索区域为下一帧图像对应的搜索区域,且所述第二搜索区域可以有多个,在实际应用中,为了能实时检测出目标大小,M=3是最小的尺度变化量化量。取M=5,7,9….等较大的M值可以获得更精确的目标大小信息,但是会损失运算速度,影响跟踪算法的速度。
示例性的,请参阅图4,本发明实施例以M=3为例进行说明。其中,Ri∈{RS-1,RS0,RS+1},i∈{-1,0,1}。RS0的大小与前一帧搜索区域的大小一样。RS1为(x,y,w,h),RS+1为(x,y,w*Sstep,h*Sstep),RS-1为(x,y,w/Sstep,h/Sstep),其中,Sstep为尺度变化因子,Sstep=1.05;所述尺度因子为扩大或者缩小搜索区域的系数,用于生成不同尺度的搜索区域。
指定物体跟踪装置将提取到的不同尺度的搜索区域Ri∈{RS-1,RS0,RS+1}归一化到指定大小(hstd,wstd),从而得到归一化的搜索区,RstdSi={RstdS-1,RstdS0,RstdS+1}。
步骤211、根据所述M个第二搜索区域确定M个分别对应的第二混合特征图;
在步骤211中,指定物体跟踪装置根据所述M个第二搜索区域RSi确定M个分别对应的第二混合特征图ZSi。在RstdSi∈{RstdS-1,RstdS0,RstdS+1}上提取带权重的级联的混合特征Z=wcnn*Zcnn+whog*Zhog+wlab*Zlab。得到各个尺度搜索区域相对应的混合特征Zi∈{ZS-1,ZS0,ZS+1}。
步骤212、根据所述目标模板和所述第二混合特征图计算所述跟踪目标的特征响应图;
在步骤212中,指定物体跟踪装置根据所述目标模板tmpl和所述第二混合特征图Zst计算所述跟踪目标的特征响应图Rmapsi。
示例性的,指定物体跟踪装置可以以所述目标模板tmpl和所述第二混合特征图Zst作为输入,根据公式Rmapsi=FFT-1(tmpl⊙FFT(Zsi))计算特征响应图Rmapsi。
可以理解的是,在实际应用中,计算特征响应图的计算方式可以有多种,本发明实施例仅举出一种实现方式,该实现方式不应理解为本发明实施例的唯一实现方法。
步骤213、确定所述特征响应图中滤波响应最大的特征点的位置为所述跟踪目标的位置;
在步骤213中,指定物体跟踪装置确定所述特征响应图Rmapsi中滤波响应最大的特征点的位置为所述跟踪目标的位置。
具体的,在实际应用中,指定物体跟踪装置分别确定每一个搜索尺度对应的特征响应图Rmapsi中滤波响应最大的特征点的位置Lsi(x,y)=argmax(x,y)Rmapsi(x,y);再在M个搜索尺度对应的最大的特征点的位置中,确定滤波响应最大的特征点为所述跟踪目标的位置(xt,yt)=maxsi(Lsi(x,y))。
步骤214、获取所述滤波响应最大的特征点对应的搜索尺度,以及所述搜索尺度对应的特征图;
指定物体跟踪装置获取所述滤波响应最大的特征点对应的搜索尺度St,以及所述搜索尺度St对应的特征图Zst。
步骤215、使用所述特征图更新所述目标模板;
指定物体跟踪装置使用所述特征图Zst更新所述目标模板tmpl,由于目标在跟踪过程中会不断变化,所以需要使用目标当前特征图不断更新目标模板。
步骤216、根据更新后的目标模板判断所述跟踪目标是否走出视频区域;
指定物体跟踪装置根据更新后的目标模板tmpl判断所述跟踪目标是否走出视频区域,若是,则停止跟踪算法;若否,则执行步骤217。
步骤217、检测用户是否停止跟踪;
指定物体跟踪装置检测用户是否停止跟踪,若是,则停止跟踪算法;若否,则返回执行步骤210,在下一帧中提取尺度为St+i,i∈{-1,0,1}的三个不同尺度的搜索区域。
本发明实施例具有以下有益效果:
1、本发明实施例针对输入目标任意,以及算法实时性的要求,将输入目标矩形保持比例映射为长边固定大小,短边按照长边缩放比例缩放。可以把目标按照比例缩小,减少程序计算特征以及计算目标模板的时间。
2、本发明实施例使用MDNet的卷积神经网络的第一层特征作为输入,由于MDNet的卷积层特征可以学习到前景目标的共性特征,所以这种卷积神经网络提取的特征更适合完成任意目标的跟踪任务,可以获得更高的跟踪精度。
3、本发明实施例使用空间降维和通道降维结合的方式来消除空间冗余和减少特征通道,从而达到在保证跟踪性能的前提下,大大提升了跟踪速度。
4、为了适应各种复杂的跟踪场景,卷积神经网络特征可以和HOG特征,LAB颜色特征级联起来,共同作为输入。进一步提升跟踪效果。由于卷积神经网络特征已经经过了降维处理,因此加HOG和LAB特征后不会增加很多处理时间。
5、通常视频采集的速度可以达到25~30fps,因此物体在靠近或者原理摄像头的过程中不会尺度快速变大或者变小。在本发明实施例中,只依据现在的搜索区域大小,对其做变大和变小两个尺度的处理,然后将不同尺度的搜索区域归一化到目标模型大小。目标模型只在当前尺度下生成。这样只需要生成一个尺度的目标模型,同时待检测的区域只包含当前尺度和两个临近尺度,可以进一步提升处理速度。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上为对本发明所提供的一种指定物体跟踪方法的描述,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种指定物体跟踪方法,其特征在于,包括:
获取当前帧中跟踪目标的位置信息;
根据所述位置信息确定所述跟踪目标的第一搜索区域Rorg;
根据所述第一搜索区域Rstd确定第一混合特征Zfea,所述第一混合特征Zfea包括:卷积神经网络特征Zcnn、方向梯度直方图HOG特征Zhog和颜色特征Zlab;
以所述第一混合特征Zfea作为输入,计算目标模板tmpl,所述目标模板tmpl用于将所述跟踪目标的特征信息转化为位置信息;
获取下一帧中所述跟踪目标在相同的所述位置信息下的M个第二搜索区域Rsi,所述M为大于或等于3的整数,所述M个第二搜索区域Rsi分别对应M个不同的搜索尺寸;
根据所述M个第二搜索区域Rsi确定M个分别对应的第二混合特征图Zsi;
根据所述目标模板tmpl和所述第二混合特征图Zsi计算所述跟踪目标的特征响应图Rmapsi;
确定所述特征响应图Rmapsi中滤波响应最大的特征点的位置为所述跟踪目标的位置。
2.根据权利要求1所述的方法,其特征在于,所述位置信息包括:所述跟踪目标的中心点坐标(x,y)、宽度信息w和高度信息h;
相应的,所述根据所述位置信息确定所述跟踪目标的第一搜索区域Rorg,包括:
以所述中心点坐标(x,y)为中心,并根据所述宽度信息w和高度信息h的比例确定所述跟踪目标的第一搜索区域Rorg。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一搜索区域Rstd确定第一混合特征Zfea之前,还包括:
根据所述宽度信息w和高度信息h确定所述第一搜索区域Rorg的缩放尺度值SR;
根据所述缩放尺度值SR将所述第一搜索区域Rorg缩放为第一标准搜索区域Rstd。
4.根据权利要求3所述的方法,其特征在于,所述根据所述宽度信息w和高度信息h确定所述第一搜索区域Rorg的缩放尺度值SR,包括:
根据所述跟踪目标的宽度信息w和高度信息h,确定所述跟踪目标的长边LR,所述跟踪目标的长边LR为所述第一搜索区域中长度最长的边框线段;
根据所述跟踪目标的长边LR确定所述第一搜索区域Rorg的缩放尺度值SR。
5.根据权利要求3所述的方法,其特征在于,所述根据所述第一标准搜索区域Rstd确定第一混合特征Zfea,具体为:
对第一标准搜索区域Rstd中的图像进行卷积网络的滤波,得到卷积神经网络特征Zcnn;
根据所述第一标准搜索区域Rstd提取方向梯度直方图HOG特征Zhog和颜色特征Zlab;
根据预算权重将所述卷积神经网络特征Zcnn、所述HOG特征Zhog和所述颜色特征Zlab配置为第一混合特征Zfea。
6.根据权利要求5所述的方法,其特征在于,对第一标准搜索区域Rstd中的图像进行卷积网络的滤波,得到卷积神经网络特征Zcnn之后,还包括:
对所述卷积神经网络特征Zcnn进行空间降维和通道降维。
7.根据权利要求1所述的方法,其特征在于,所述以所述第一混合特征Zfea作为输入,计算目标模板tmpl,具体为:
将所述第一混合特征Zfea作为公式的输入,计算目标模板tmpl;
其中,公式中的⊙表示矩阵元素相乘,公式中的除法为矩阵元素相除,公式中的λ为正则化参数,公式中的表示对应变量的快速傅里叶变换FFT,公式中的*表示复数的共轭,公式中的是经过FFT变换后的高斯核。
8.根据权利要求1所述的方法,其特征在于,所述根据所述目标模板tmpl和所述第二混合特征图Zst计算所述跟踪目标的特征响应图Rmapsi,具体为:
以所述目标模板tmpl和所述第二混合特征图Zst作为输入,根据公式Rmapsi=FFT-1(tmpl⊙FFT(Zsi))计算特征响应图Rmapsi。
9.根据权利要求8所述的方法,其特征在于,所述确定所述特征响应图Rmapsi中滤波响应最大的特征点的位置为所述跟踪目标的位置,包括:
分别确定每一个搜索尺度对应的特征响应图Rmapsi中滤波响应最大的特征点的位置Lsi(x,y)=argmax(x,y)Rmapsi(x,y);
在M个搜索尺度对应的最大的特征点的位置中,确定滤波响应最大的特征点为所述跟踪目标的位置(xt,yt)=maxsi(Lsi(x,y))。
10.根据权利要求9所述的方法,其特征在于,所述在M个搜索尺度对应的最大的特征点的位置中,确定滤波响应最大的特征点为所述跟踪目标的位置之后,包括:
获取所述滤波响应最大的特征点对应的搜索尺度St,以及所述搜索尺度St对应的特征图Zst;
使用所述特征图Zst更新所述目标模板tmpl;
根据更新后的目标模板tmpl判断所述跟踪目标是否走出视频区域,若是,则停止跟踪算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610939923.2A CN106530340B (zh) | 2016-10-24 | 2016-10-24 | 一种指定物体跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610939923.2A CN106530340B (zh) | 2016-10-24 | 2016-10-24 | 一种指定物体跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106530340A true CN106530340A (zh) | 2017-03-22 |
CN106530340B CN106530340B (zh) | 2019-04-26 |
Family
ID=58292515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610939923.2A Active CN106530340B (zh) | 2016-10-24 | 2016-10-24 | 一种指定物体跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106530340B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108206941A (zh) * | 2017-09-27 | 2018-06-26 | 深圳市商汤科技有限公司 | 目标跟踪方法、系统、终端设备及存储介质 |
CN108304834A (zh) * | 2018-02-27 | 2018-07-20 | 弗徕威智能机器人科技(上海)有限公司 | 一种物体跟随方法 |
CN108846855A (zh) * | 2018-05-24 | 2018-11-20 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
CN108921008A (zh) * | 2018-05-14 | 2018-11-30 | 深圳市商汤科技有限公司 | 人像识别方法、装置及电子设备 |
CN109064493A (zh) * | 2018-08-01 | 2018-12-21 | 北京飞搜科技有限公司 | 一种基于元学习的目标跟踪方法及装置 |
CN109359552A (zh) * | 2018-09-21 | 2019-02-19 | 中山大学 | 一种高效的跨摄像头行人双向跟踪方法 |
CN109697499A (zh) * | 2017-10-24 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 行人流量漏斗生成方法及装置、存储介质、电子设备 |
CN110223325A (zh) * | 2019-06-18 | 2019-09-10 | 北京字节跳动网络技术有限公司 | 对象跟踪方法、装置及设备 |
CN110276784A (zh) * | 2019-06-03 | 2019-09-24 | 北京理工大学 | 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法 |
CN111862151A (zh) * | 2020-06-23 | 2020-10-30 | 北京轩宇空间科技有限公司 | 用于目标跟踪的方法及装置、设备 |
CN112037272A (zh) * | 2020-08-30 | 2020-12-04 | 哈尔滨工程大学 | 一种基于相关滤波的快速区域搜索的目标跟踪方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020986A (zh) * | 2012-11-26 | 2013-04-03 | 哈尔滨工程大学 | 一种运动目标跟踪方法 |
CN104574445A (zh) * | 2015-01-23 | 2015-04-29 | 北京航空航天大学 | 一种目标跟踪方法及装置 |
CN105741316A (zh) * | 2016-01-20 | 2016-07-06 | 西北工业大学 | 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 |
-
2016
- 2016-10-24 CN CN201610939923.2A patent/CN106530340B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020986A (zh) * | 2012-11-26 | 2013-04-03 | 哈尔滨工程大学 | 一种运动目标跟踪方法 |
CN104574445A (zh) * | 2015-01-23 | 2015-04-29 | 北京航空航天大学 | 一种目标跟踪方法及装置 |
CN105741316A (zh) * | 2016-01-20 | 2016-07-06 | 西北工业大学 | 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
MARTIN DANELLJAN ET AL: "Convolutional Features for Correlation Filter Based Visual Tracking", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOPS》 * |
周明珠 等: "结合运动特征的目标跟踪方法", 《计算机工程》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108206941A (zh) * | 2017-09-27 | 2018-06-26 | 深圳市商汤科技有限公司 | 目标跟踪方法、系统、终端设备及存储介质 |
CN109697499B (zh) * | 2017-10-24 | 2021-09-07 | 北京京东尚科信息技术有限公司 | 行人流量漏斗生成方法及装置、存储介质、电子设备 |
CN109697499A (zh) * | 2017-10-24 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 行人流量漏斗生成方法及装置、存储介质、电子设备 |
US11210795B2 (en) | 2017-10-24 | 2021-12-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Pedestrian flow funnel generation method and apparatus, storage medium and electronic device |
CN108304834A (zh) * | 2018-02-27 | 2018-07-20 | 弗徕威智能机器人科技(上海)有限公司 | 一种物体跟随方法 |
CN108921008A (zh) * | 2018-05-14 | 2018-11-30 | 深圳市商汤科技有限公司 | 人像识别方法、装置及电子设备 |
CN108921008B (zh) * | 2018-05-14 | 2024-06-11 | 深圳市商汤科技有限公司 | 人像识别方法、装置及电子设备 |
CN108846855A (zh) * | 2018-05-24 | 2018-11-20 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
CN109064493A (zh) * | 2018-08-01 | 2018-12-21 | 北京飞搜科技有限公司 | 一种基于元学习的目标跟踪方法及装置 |
CN109359552A (zh) * | 2018-09-21 | 2019-02-19 | 中山大学 | 一种高效的跨摄像头行人双向跟踪方法 |
CN109359552B (zh) * | 2018-09-21 | 2020-11-13 | 中山大学 | 一种高效的跨摄像头行人双向跟踪方法 |
CN110276784A (zh) * | 2019-06-03 | 2019-09-24 | 北京理工大学 | 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法 |
CN110276784B (zh) * | 2019-06-03 | 2021-04-06 | 北京理工大学 | 基于记忆机制与卷积特征的相关滤波运动目标跟踪方法 |
CN110223325A (zh) * | 2019-06-18 | 2019-09-10 | 北京字节跳动网络技术有限公司 | 对象跟踪方法、装置及设备 |
CN111862151A (zh) * | 2020-06-23 | 2020-10-30 | 北京轩宇空间科技有限公司 | 用于目标跟踪的方法及装置、设备 |
CN112037272A (zh) * | 2020-08-30 | 2020-12-04 | 哈尔滨工程大学 | 一种基于相关滤波的快速区域搜索的目标跟踪方法 |
CN112037272B (zh) * | 2020-08-30 | 2023-11-17 | 哈尔滨工程大学 | 一种基于相关滤波的快速区域搜索的目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106530340B (zh) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106530340B (zh) | 一种指定物体跟踪方法 | |
CN106650630B (zh) | 一种目标跟踪方法及电子设备 | |
CN107103613B (zh) | 一种三维手势姿态估计方法 | |
CN107748873B (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
CN104933738B (zh) | 一种基于局部结构检测和对比度的视觉显著图生成方法 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN107622257A (zh) | 一种神经网络训练方法及三维手势姿态估计方法 | |
CN106951840A (zh) | 一种人脸特征点检测方法 | |
CN107545263B (zh) | 一种物体检测方法及装置 | |
CN104794737B (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
US20220262093A1 (en) | Object detection method and system, and non-transitory computer-readable medium | |
CN106446862A (zh) | 一种人脸检测方法及系统 | |
CN107292907A (zh) | 一种对跟随目标进行定位的方法以及跟随设备 | |
CN108052989A (zh) | 一种基于样条卷积神经网络的图像分类方法 | |
CN102360504A (zh) | 一种基于多自然特征的自适应虚实三维注册方法 | |
CN109658442A (zh) | 多目标跟踪方法、装置、设备及计算机可读存储介质 | |
CN114926747A (zh) | 一种基于多特征聚合与交互的遥感图像定向目标检测方法 | |
CN113591763B (zh) | 人脸脸型的分类识别方法、装置、存储介质及计算机设备 | |
Montserrat et al. | Logo detection and recognition with synthetic images | |
CN107886110A (zh) | 人脸检测方法、装置及电子设备 | |
CN109816694A (zh) | 目标跟踪方法、装置及电子设备 | |
Jiang et al. | Deep transfer learning enable end-to-end steering angles prediction for self-driving car | |
CN111027586A (zh) | 一种基于新型响应图融合的目标跟踪方法 | |
CN106887012A (zh) | 一种基于循环矩阵的快速自适应多尺度目标跟踪方法 | |
CN112489089A (zh) | 一种微型固定翼无人机机载地面运动目标识别与跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |