CN101162525A - 基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法 - Google Patents

基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法 Download PDF

Info

Publication number
CN101162525A
CN101162525A CNA2007101446965A CN200710144696A CN101162525A CN 101162525 A CN101162525 A CN 101162525A CN A2007101446965 A CNA2007101446965 A CN A2007101446965A CN 200710144696 A CN200710144696 A CN 200710144696A CN 101162525 A CN101162525 A CN 101162525A
Authority
CN
China
Prior art keywords
target
artificial fish
human body
state
fish
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2007101446965A
Other languages
English (en)
Inventor
李金�
于虹
丛望
梁洪
唐广
郭卓维
徐俊红
周璐璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CNA2007101446965A priority Critical patent/CN101162525A/zh
Publication of CN101162525A publication Critical patent/CN101162525A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供的是一种基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法。首先基于目标模型的颜色分布特征,根据前一帧图像的信息利用人工鱼群智能优化算法得到被跟踪人体多关节特征目标在当前帧的优化位置,然后根据目标模型的颜色分布特征运用Mean Shift迭代算法在其优化位置的领域内进行目标搜索,其中与目标模型颜色分布最相似的候选目标即为被跟踪目标。本发明对传统Mean Shift进行了改进,引入人工鱼群智能优化候选目标区域,实现了对人体多关节特征目标的准确跟踪。

Description

基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法
(一)技术领域
本发明涉及的是基于视频图像技术领域的自适应人体关节目标跟踪的方法。
(二)背景技术
人体多关节特征跟踪是当前计算机视觉研究领域中最具有挑战性的研究方向,在当前一些重要的应用领域如医疗诊断、体育运动分析和智能监控等方面都有着广泛的需求。针对跟踪对象和应用场景的不同,国内外学者提出了不同的跟踪算法。均值偏移(Mean Shift,MS)算法是利用颜色分布对运动目标进行检测与跟踪的常用方法,它采用密度梯度爬升来找到概率分布峰值的非参数方法。
传统的均值偏移算法当视频场景中目标的运动速度较快、目标区域在相邻两帧间出现重叠区域的情况时,搜索到的目标往往收敛于背景与目标颜色分布比较相似的物体,而不是视频场景中真正的运动目标(Nguyen,H.T.,Wowing,M,andBoomgaard R.v.d..Occlusion Robust Adaptive Template Tracking.Proceedings of theIEEE International Conference on Computer Vision,2001,v.1,678~683P),从而出现了跟踪不准确的现象。
除此之外,该算法收敛速度不快。对此,在2005年Duke大学的Mark Fashing和Carlo Tomasi证明了在采用均布核的情况下,均值偏移步长就是牛顿法步长,并认为均值偏移方法是一种边界优化方法(Mark Fashing,Carlo Tomasi.MeanShift Is a Bound Optimization,IEEE Transactions on Pattern Analysis and MachineIntelligence,2005,27(3):471~474P)。如果要对其进行改进,则需要收缩边界,其难度在于找到合适的边界将耗费较多的计算资源,但他们并未给出具体的加快均值偏移收敛速度的方法和途径。人工鱼群智能优化算法(李晓磊,邵之江等.一种基于动物自治体的寻优模式:鱼群算法[J].系统工程理论与实践,2002,22(11):32-38)被应用于鲁棒PID控制器参数的优化中,得到了令人满意的结果。但到目前为止,还没有人将该算法应用于人体运动跟踪。
(三)发明内容
本发明的目的在于提供一种可有效地解决目标运动速度和幅度均较大和/或目标区域在相邻两帧间出现重叠区域的运动目标的跟踪问题,并且具有更快的收敛速度的基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法。
本发明的目的是这样实现的:
首先基于目标模型的颜色分布特征,根据前一帧图像的信息利用人工鱼群智能优化算法得到被跟踪人体多关节特征目标在当前帧的优化位置,然后根据目标模型的颜色分布特征运用Mean Shift迭代算法在其优化位置的领域内进行目标搜索,其中与目标模型颜色分布最相似的候选目标即为被跟踪目标。
本发明的方法步骤为:
1、选取核函数K(x)
选取Epanechnikov核作为核函数K(x);
2、目标颜色分布模型
采用颜色直方图作为人体多关节特征目标的颜色分布模型;
3、人工鱼群智能优化算法
根据前一帧视频图像的数据集信息利用人工鱼群智能优化算法得到被跟踪的人体多关节特征目标在当前帧的优化位置;
4、食物浓度
根据人体多关节特征目标作为人工鱼个体模型的特殊性,所采用的食物浓度评价函数为:
f ( X i ) = 1 N ( Σ i = 1 N X i 2 - N X - 2 )
式中,Xi
Figure S2007101446965D00022
分别表示鱼群中第i条人工鱼当前所处位置和鱼群中所有人工鱼当前所处位置的均值,N表示鱼群的大小;
(1)觅食行为:人工鱼当前状态Xi在其感知范围(di,j=‖Xi-Dj‖≤Visual)内随机选择一个目标状态Xj,如果该状态的食物浓度Yj优于当前状态Xi的食物浓度Yi,则按Xinextm=Xim+Random(AF_Step)(Xjm-Xim)/di,j  Yi<Yj,向该状态Xj方向前进一步;反之,Xi在其感知范围内重新随机选择状态Xj,判断是否满足前进条件;反复尝试try_number次后,如仍不满足前进条件的话,则按Xinextm=Xim+Random(AF_Step)Yi≥Yj,随机移动一步;其中,m=1,2;Xjm、Xim和Xinextm分别表示状态向量Xj,Yi以及人工鱼下一步状态向量Xinextm的m个分量。Random(AF_Step)表示[0,AF_Step]间的随机数;
(2)聚群行为:人工鱼对当前状态Xi搜索其感知范围di,j内的伙伴数目nf,如果(nf/N)<δ,这表明伙伴中心有较多的食物且不太拥挤,则按下式计算伙伴中心位置Xc
X cm = ( Σ j = 1 n f X jm ) / n f
式中,Xcm表示中心位置状态向量Xc的第m个元素;Xjm表示第j(j=1,2,...,nf)个伙伴的第m个分量;计算该中心位置的食物浓度Yc,如果Yi<Yc,则表明伙伴中心位置安全度较高并且不太拥挤,按下式向伙伴的中心位置方向前进一步;否则执行觅食行为
Xinextm=Xim+Random(AF_Step)(Xcm-Xim)/di,c
(3)追尾行为:探索人工鱼当前状态Xi的感知范围内状态最优的邻居Xmax,如果Yi<Ymax,并且Xamx领域内伙伴的数目nf,满足(nf/N)<δ,这表明Xmax的附近有较多的食物且不太拥挤,则按下式向Xmax的位置方向前进一步;否则执行觅食行为
Xinextm=Xim+Random(AF_Step)(Xmaxm-Xim)/di,max
式中,Xmaxm表示状态向量Xmax的第m个分量;
(4)每条人工鱼个体在寻优过程中,每次行动完毕都要检验自身状态与公告板的状态,如果自身状态优于公告板状态,就将公告板的状态替换为自身状态,这样的话,公告板就记录下历史最优的状态,即人体多关节特征目标在当前帧的最优值;
5、候选目标颜色分布模型
人体多关节特征的候选目标采用与目标模型一样的Epanechnikov核函数K(x)为候选跟踪目标区域的像素分配权值,并用 p ^ ( y ) = { p ^ u ( y ) } u = 1 , . . . , m 表示中心点在y处的候选目标区域的颜色分布,则
p ^ u ( y ) = C h Σ x i ∈ R 2 k ( | | ( y - x i ) / h | | 2 ) δ [ b ( x i ) - u ]
其中,参数 h = ( a 2 + b 2 ) 是描述跟踪目标区域的大小;规范化常数
6、Bhattacharyya距离
引入Bhattacharyya距离d来度量两者之间的相似度,
d = 1 - ρ [ p ^ ( X d ) , q ^ ]
其中,Xd是采用人工鱼群算法得到被跟踪的人体多关节特征目标在当前帧的优化位置,ρ是人体多关节特征目标模型的颜色直方图
Figure S2007101446965D00046
和候选目标的颜色直方图
Figure S2007101446965D00047
之间的Bhattacharyya系数,
ρ [ p ^ ( X d ) , q ^ ] = Σ u = 1 m p ^ u ( X d ) q ^ u
这样,Bhattacharyya系数越大,距离就越小,目标和候选目标也就越相似;
7、Mean Shift跟踪
利用颜色直方图作为人体多关节目标特征,通过Mean Shift迭代运算,对经过人工鱼群智能优化而得到当前帧的最优位置Xd区域进行搜索与目标模型颜色直方图最相似的候选目标,最相似的候选目标即为被跟踪的人体多关节特征目标在当前帧的位置。
所述的人工鱼群智能优化算法的具体实施步骤如下:
步骤l:初始化鱼群,采用初始化时设定的人工鱼当前状态、个体极值、鱼群最优位置和相关鱼群参数;
步骤2:利用式 f ( X i ) = 1 N ( Σ i = 1 N X i 2 - N X - 2 ) 计算人工鱼当前状态的食物浓度;
步骤3:首先对鱼群中每条人工鱼分别计算觅食行为、聚群行为和追尾行为等三种行为的个体极值;
步骤4:对每条人工鱼三种行为的个体极值进行比较,并执行相应的最优极值的行为;
步骤5:如果连续五次鱼群最优位置没有进行更新,则停止迭代计算;否则继续选择新的行为并转向步骤3。
针对人体多关节特征目标运动速度较快和/或多关节特征目标在相邻两帧间出现重叠区域的跟踪问题,本发明提出了基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法。在该发明中,对传统Mean Shift进行了改进,引入人工鱼群智能优化候选目标区域,从而避免了仅采用传统Mean Shift易陷入局部极值的缺点,实现了对人体多关节特征目标在运动速度较快和/或多关节特征目标在相邻两帧间出现重叠区域的较好跟踪,提高了跟踪人体多关节特征目标的准确性;并且由于采用人工鱼群智能优化候选目标区域,减少了Mean Shift算法进行跟踪计算时的迭代次数,因而相应地也减少了大约10%~15%的计算时间。
(四)附图说明
图1为Mean Shift示意图;
图2为基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法的总体框图。
(五)具体实施方式
下面结合附图举例对本发明做更详细地描述:
本发明是通过以下技术方案来实现的:本发明首先基于目标模型的颜色分布特征,根据前一帧图像的信息利用人工鱼群智能优化算法得到被跟踪人体多关节特征目标在当前帧的优化位置,然后根据目标模型的颜色分布特征运用MeanShift迭代算法在其优化位置的领域内进行目标搜索,其中与目标模型颜色分布最相似的候选目标即为被跟踪目标。
以下对本发明方法做进一步的说明,具体内容如下:
1、选取Epanechnikov核作为核函数K(x)
不同的核函数将会导致Mean Shift算法具有不同的收敛速度。因而,核函数的选取对Mean Shift算法是很重要的。本发明中选取Epanechnikov核作为核函数K(x),可使均值偏移变为具有二阶收敛速度的牛顿方法。因此,从理论角度和实际跟踪结果均可获得比均布核更快的收敛速度。
2、目标颜色分布模型
本发明采用颜色直方图作为人体多关节特征目标的颜色分布模型。设颜色空间被离散化成m个子区域,统计视频图像中每个像素的颜色向量落在相应子区域中的频数,从而得到由m个条柱组成的颜色直方图。由 q ^ = { q ^ u } u = 1 , . . . , m 获得跟踪目标模型的直方图,其中
Figure S2007101446965D00062
是跟踪目标模型的第u个直方图。因而,在本发明中,基于核函数K(x)的目标模型
Figure S2007101446965D00063
可由下式确定:
q ^ u = C Σ x i * ∈ R 1 k ( | | d ( x i * ) | | 2 ) δ [ b ( x i * ) - u ]
其中,b(xi *)表示点xi *的颜色分配给颜色直方图中的相应条柱;R1是在跟踪目标区域内的归一化坐标;δ是狄拉克函数;C是规范化常数,即 C = 1 / ( Σ x i * ∈ R k ( | | d ( x i * ) | | 2 ) , 使得 Σ u = 1 m q ^ u = 1 . x i * = ( x i * , y i * ) 相对于矩形区域中心点 x c * = ( x c * , y c * ) 的归一化坐标 d ( x i * ) = ( d x ( x i * ) , d y ( y i * ) ) 的计算为:
d x ( x i * ) = ( x i * - x c * ) a , d y ( y i * ) = ( y i * - y c * b )
3、人工鱼群智能优化算法
人工鱼群智能优化算法(Artiricial Fish School Optimization,AFSO)是一种基于模拟鱼群行为的智能优化算法,它采用了自下而上的设计方法,对寻优空间的形式和性质并没有特殊要求。本发明将人体多关节特征目标的位置构造为人工鱼的个体模型,然后人工鱼个体在寻优的过程中自适应地选择合适的行为,最终的人体多关节特征目标的全局最优结果通过鱼群中每个个体的局部寻优而得到。因而,本发明根据前一帧视频图像的数据集信息利用人工鱼群智能优化算法得到被跟踪的人体多关节特征目标在当前帧的优化位置。
4、食物浓度
食物浓度是衡量人工鱼当前所处位置优劣的标志,其作用类似于粒子群优化算法中的适应度。在本发明中,食物浓度是衡量人体多关节特征目标当前所处位置优劣的标志。本发明根据人体多关节特征目标作为人工鱼个体模型的特殊性,所采用的食物浓度评价函数为:
f ( X i ) = 1 N ( Σ i = 1 N X i 2 - N X - 2 )
式中,Xi
Figure S2007101446965D00072
分别表示鱼群中第i条人工鱼当前所处位置和鱼群中所有人工鱼当前所处位置的均值,N表示鱼群的大小。
(1)觅食行为:在本发明中的觅食行为就是人体多关节特征目标根据食物浓度像鱼那样循着食物多的方向进行游动的一种行为。人工鱼当前状态Xi在其感知范围(di,j=‖Xi-Xj‖≤Visual)内随机选择一个目标状态Xj,如果该状态的食物浓度Yj优于当前状态Xi的食物浓度Yi,则按Xinextm=Xim+Random(AF_Step)(Xjm-Xim)/di,j Yi<Yj,向该状态Xj方向前进一步;反之,Xi在其感知范围内重新随机选择状态Xj,判断是否满足前进条件。反复尝试try_number次后,如仍不满足前进条件的话,则按Xinextm=Xim+Random(AF_Step)Yi≥Yj,随机移动一步。其中,m=1,2;Xjm、Xim和Xinextm分别表示状态向量Xj,Xi以及人工鱼下一步状态向量Xinextm的m个分量。Random(AF_Step)表示[0,AF_Step]间的随机数。以下各式中的符号含义与此相同。
(2)聚群行为:在本发明中的聚群行为指的是依据人体多关节特征目标所形成的多条人工鱼个体,在游动过程中尽量向周围临近伙伴们的中心移动,以避免过分拥挤。人工鱼对当前状态Xi搜索其感知范围di,j内的伙伴数目nf,如果(nf/N)<δ,这表明伙伴中心有较多的食物且不太拥挤,则按下式计算伙伴中心位置Xc
X cm = ( Σ j = 1 n f X jm ) / n f
式中,Xcm表示中心位置状态向量Xc的第m个元素;Xjm表示第j(j=1,2,...,nf)个伙伴的第m个分量。计算该中心位置的食物浓度Yc,如果Yi<Yc,则表明伙伴中心位置安全度较高并且不太拥挤,按下式向伙伴的中心位置方向前进一步;否则执行觅食行为。
Xinextm=Xim+Random(AF_Step)(Xcm-Xim)/di,c
(3)追尾行为:在本发明中的追尾行为指的是依据人体多关节特征目标而形成的多条人工鱼个体向临近的最活跃者追逐的行为。探索人工鱼当前状态Xi的感知范围内状态最优的邻居Xmax,如果Yi<Ymax,并且Xmax领域内伙伴的数目nf,满足(nf/N)<δ,这表明Xmax的附近有较多的食物且不太拥挤,则按下式向Xmax的位置方向前进一步;否则执行觅食行为。
Xinextm=Xim+Random(AF_Step)(Xmaxm-Xim)/di,max
式中,Xmaxm表示状态向量Xmax的第m个分量。
(4)公告板是用来记录最优人工鱼个体的状态。每条人工鱼个体在寻优过程中,每次行动完毕都要检验自身状态与公告板的状态,如果自身状态优于公告板状态,就将公告板的状态替换为自身状态,这样的话,公告板就记录下历史最优的状态,即人体多关节特征目标在当前帧的最优值。
通过对人工鱼的行为描述我们可以看出,每条人工鱼探索它当前所处的环境状况,从而选择一个合适的行为,使得向最优方向前进最快。最终,人工鱼集结在几个局部极值的周围,且值较优的极值区域周围一般能集结较多条人工鱼。
人工鱼群智能优化算法的具体实施步骤如下。
步骤1:初始化鱼群。采用本发明初始化时设定的人工鱼当前状态、个体极值、鱼群最优位置和相关鱼群参数;
步骤2:利用式 f ( X i ) = 1 N ( Σ i = 1 N X i 2 - N X - 2 ) 计算人工鱼当前状态的食物浓度;
步骤3:首先对鱼群中每条人工鱼分别计算觅食行为、聚群行为和追尾行为等三种行为的个体极值;
步骤4:对每条人工鱼三种行为的个体极值进行比较,并执行相应的最优极值的行为;
步骤5:如果连续五次鱼群最优位置没有进行更新;则停止迭代计算;否则继续选择新的行为并转向步骤3。
5、候选目标颜色分布模型
在本发明中人体多关节特征的候选目标采用与目标模型一样的Epanechnikov核函数K(x)为候选跟踪目标区域的像素分配权值,并用 p ^ ( y ) = { p ^ u ( y ) } u = 1 , . . . , m 表示中心点在y处的候选目标区域的颜色分布,则
p ^ u ( y ) = C h Σ x i ∈ R 2 k ( | | ( y - x i ) / h | | 2 ) δ [ b ( x i ) - u ]
其中,参数 h = ( a 2 + b 2 ) 是描述跟踪目标区域的大小;规范化常数 C h = 1 / ( Σ x i ∈ R 2 k ( | | ( y - x i ) / h | | 2 ) 满足 Σ u = 1 m p ^ u ( y ) = 1 .
6、Bhattacharyya距离
为了比较相邻帧人体多关节特征目标颜色分布的相似程度,本发明引入Bhattacharyya距离d来度量两者之间的相似度。
d = 1 - ρ [ p ^ ( X d ) , q ^ ]
其中,Xd是采用人工鱼群算法得到被跟踪的人体多关节特征目标在当前帧的优化位置,ρ是人体多关节特征目标模型的颜色直方图
Figure S2007101446965D00097
和候选目标的颜色直方图
Figure S2007101446965D00098
之间的Bhattacharyya系数。
ρ [ p ^ ( X d ) , q ^ ] = Σ u = 1 m p ^ u ( X d ) q ^ u
这样,Bhattacharyya系数越大,距离就越小,目标和候选目标也就越相似。
7、Mean Shift跟踪
本发明利用颜色直方图作为人体多关节目标特征,通过Mean Shift迭代运算,对经过人工鱼群智能优化而得到当前帧的最优位置Xd区域进行搜索与目标模型颜色直方图最相似的候选目标。最相似的候选目标即为被跟踪的人体多关节特征目标在当前帧的位置。

Claims (3)

1.一种基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法,其特征是:首先基于目标模型的颜色分布特征,根据前一帧图像的信息利用人工鱼群智能优化算法得到被跟踪人体多关节特征目标在当前帧的优化位置,然后根据目标模型的颜色分布特征运用Mean Shift迭代算法在其优化位置的领域内进行候选目标搜索,其中与目标模型颜色分布最相似的候选目标即为被跟踪目标。
2.根据权利要求1所述的基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法,其特征是:
选取核函数K(x)
选取Epanechnikov核作为核函数K(x);
目标颜色分布模型
采用颜色直方图作为人体多关节特征目标的颜色分布模型;
人工鱼群智能优化算法
根据前一帧视频图像的数据集信息利用人工鱼群智能优化算法得到被跟踪的人体多关节特征目标在当前帧的优化位置;
食物浓度
根据人体多关节特征目标作为人工鱼个体模型的特殊性,所采用的食物浓度评价函数为:
f ( X i ) = 1 N ( Σ i = 1 N X i 2 - N X - 2 )
式中,Xi
Figure S2007101446965C00012
分别表示鱼群中第i条人工鱼当前所处位置和鱼群中所有人工鱼当前所处位置的均值,N表示鱼群的大小;
(1)觅食行为:人工鱼当前状态Xi在其感知范围(di,j=‖Xi-Xj‖≤Visual)内随机选择一个目标状态Xj,如果该状态的食物浓度Yj优于当前状态Xi的食物浓度Yi,则按Xinextm=Xim+Random(AF_Step)(Xjm-Xim)/di,j Yi<Yj,向该状态Xj方向前进一步;反之,Xi在其感知范围内重新随机选择状态Xj,判断是否满足前进条件;反复尝试try_number次后,如仍不满足前进条件的话,则按Xinextm=Xim+Random(AF_Step)Yi≥Yj,随机移动一步;其中,m=1,2;Xjm、Xim和Xinextm分别表示状态向量Xj,Xi以及人工鱼下一步状态向量Xinextm的m个分量。Random(AF_Step)表示[0,AF_Step]间的随机数;
(2)聚群行为:人工鱼对当前状态Xi搜索其感知范围di,j内的伙伴数目nf,如果(nf/N)<δ,这表明伙伴中心有较多的食物且不太拥挤,则按下式计算伙伴中心位置Xc
X cm = ( Σ j = 1 n f X jm ) / n f
式中,Xcm表示中心位置状态向量Xc的第m个元素;Xjm表示第j(j=1,2,...,nf)个伙伴的第m个分量;计算该中心位置的食物浓度Yc,如果Yi<Yc,则表明伙伴中心位置安全度较高并且不太拥挤,按下式向伙伴的中心位置方向前进一步;否则执行觅食行为
Xinextm=Xim+Random(AF_Step)(Xcm-Xim)/di,c
(3)追尾行为:探索人工鱼当前状态Xi的感知范围内状态最优的邻居Xmax,如果Yi<Ymax,并且Xmax领域内伙伴的数目nf,满足(nf/N)<δ,这表明Xmax的附近有较多的食物且不太拥挤,则按下式向Xmax的位置方向前进一步;否则执行觅食行为
Xinextm=Xim+Random(AF_Step)(Xmaxm-Xim)/di,max
式中,Xmaxm表示状态向量Xmax的第m个分量;
(4)每条人工鱼个体在寻优过程中,每次行动完毕都要检验自身状态与公告板的状态,如果自身状态优于公告板状态,就将公告板的状态替换为自身状态,这样的话,公告板就记录下历史最优的状态,即人体多关节特征目标在当前帧的最优值;
候选目标颜色分布模型
人体多关节特征的候选目标采用与目标模型一样的Epanechnikov核函数K(x)为候选跟踪目标区域的像素分配权值,并用 p ^ ( y ) = { p ^ u ( y ) } u = 1 , . . . , m 表示中心点在y处的候选目标区域的颜色分布,则
p ^ u ( y ) = C h Σ x i ∈ R 2 k ( | | ( y - x i ) / h | | 2 ) δ [ b ( x i ) - u ]
其中,参数 h = ( a 2 + b 2 ) 是描述跟踪目标区域的大小;规范化常数
Figure S2007101446965C00034
Bhattacharyya距离
引入Bhattacharyya距离d来度量两者之间的相似度,
d = 1 - ρ [ p ^ ( X d ) , q ^ ]
其中,Xd是采用人工鱼群算法得到被跟踪的人体多关节特征目标在当前帧的优化位置,ρ是人体多关节特征目标模型的颜色直方图
Figure S2007101446965C00036
和候选目标的颜色直方图
Figure S2007101446965C00037
之间的Bhattacharyya系数,
ρ [ p ^ ( X d ) , q ^ ] = Σ u = 1 m p ^ u ( X d ) q ^ u
这样,Bhattacharyya系数越大,距离就越小,目标和候选目标也就越相似;
Mean Shift跟踪
利用颜色直方图作为人体多关节目标特征,通过Mean Shift迭代运算,对经过人工鱼群智能优化而得到当前帧的最优位置Xd区域进行搜索与目标模型颜色直方图最相似的候选目标,最相似的候选目标即为被跟踪的人体多关节特征目标在当前帧的位置。
3.根据权利要求2所述的基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法,其跟踪特征是目标颜色分布模型,所述采用的对当前帧目标的优化位置的人工鱼群智能优化算法的具体实施步骤如下:
步骤1:初始化鱼群,采用初始化时设定的人工鱼当前状态、个体极值、鱼群最优位置和相关鱼群参数;
步骤2:利用式 f ( X i ) = 1 N ( Σ i = 1 N X i 2 - N X - 2 ) 计算人工鱼当前状态的食物浓度;
步骤3:首先对鱼群中每条人工鱼分别计算觅食行为、聚群行为和追尾行为等三种行为的个体极值;
步骤4:对每条人工鱼三种行为的个体极值进行比较,并执行相应的最优极值的行为;
步骤5:如果连续五次鱼群最优位置没有进行更新,则停止迭代计算;否则继续选择新的行为并转向步骤3。
CNA2007101446965A 2007-11-29 2007-11-29 基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法 Pending CN101162525A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNA2007101446965A CN101162525A (zh) 2007-11-29 2007-11-29 基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNA2007101446965A CN101162525A (zh) 2007-11-29 2007-11-29 基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法

Publications (1)

Publication Number Publication Date
CN101162525A true CN101162525A (zh) 2008-04-16

Family

ID=39297445

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2007101446965A Pending CN101162525A (zh) 2007-11-29 2007-11-29 基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法

Country Status (1)

Country Link
CN (1) CN101162525A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102074000A (zh) * 2010-11-23 2011-05-25 天津市亚安科技电子有限公司 一种利用方差率最优解自适应调整窗宽的跟踪方法
CN102622765A (zh) * 2012-02-28 2012-08-01 中国科学院自动化研究所 基于黎曼流型度量的鱼群算法的目标跟踪方法
CN102999920A (zh) * 2012-10-25 2013-03-27 西安电子科技大学 基于最近邻分类器和均值漂移的目标跟踪方法
CN103513574A (zh) * 2013-05-06 2014-01-15 江苏大学 轴向混合磁轴承鱼群算法分数阶pid控制器的构造方法
CN104766346A (zh) * 2015-04-15 2015-07-08 楚雄师范学院 一种基于视频图像的斑马鱼跟踪方法
CN110675426A (zh) * 2018-07-02 2020-01-10 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、设备及存储介质

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102074000A (zh) * 2010-11-23 2011-05-25 天津市亚安科技电子有限公司 一种利用方差率最优解自适应调整窗宽的跟踪方法
CN102074000B (zh) * 2010-11-23 2014-06-04 天津市亚安科技股份有限公司 一种利用方差率最优解自适应调整窗宽的跟踪方法
CN102622765A (zh) * 2012-02-28 2012-08-01 中国科学院自动化研究所 基于黎曼流型度量的鱼群算法的目标跟踪方法
CN102622765B (zh) * 2012-02-28 2015-01-07 中国科学院自动化研究所 基于黎曼流型度量的鱼群算法的目标跟踪方法
CN102999920B (zh) * 2012-10-25 2015-02-18 西安电子科技大学 基于最近邻分类器和均值漂移的目标跟踪方法
CN102999920A (zh) * 2012-10-25 2013-03-27 西安电子科技大学 基于最近邻分类器和均值漂移的目标跟踪方法
CN103513574A (zh) * 2013-05-06 2014-01-15 江苏大学 轴向混合磁轴承鱼群算法分数阶pid控制器的构造方法
CN103513574B (zh) * 2013-05-06 2016-01-20 江苏大学 轴向混合磁轴承鱼群算法分数阶pid控制器的构造方法
CN104766346A (zh) * 2015-04-15 2015-07-08 楚雄师范学院 一种基于视频图像的斑马鱼跟踪方法
CN104766346B (zh) * 2015-04-15 2017-06-20 楚雄师范学院 一种基于视频图像的斑马鱼跟踪方法
CN110675426A (zh) * 2018-07-02 2020-01-10 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、设备及存储介质
US11348354B2 (en) 2018-07-02 2022-05-31 Baidu Online Network Technology (Beijing) Co., Ltd. Human body tracing method, apparatus and device, and storage medium
CN110675426B (zh) * 2018-07-02 2022-11-22 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
Wu et al. Vision-based real-time aerial object localization and tracking for UAV sensing system
Butail et al. Three-dimensional reconstruction of the fast-start swimming kinematics of densely schooling fish
CN109191491A (zh) 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统
CN106204638A (zh) 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法
CN112233147B (zh) 一种基于双路孪生网络的视频运动目标跟踪方法及装置
CN104794737B (zh) 一种深度信息辅助粒子滤波跟踪方法
CN103714322A (zh) 一种实时手势识别方法及装置
CN101162525A (zh) 基于Mean Shift和人工鱼群智能优化的人体多关节特征跟踪方法
CN106127125A (zh) 基于人体行为特征的分布式dtw人体行为意图识别方法
CN104766346B (zh) 一种基于视频图像的斑马鱼跟踪方法
CN104299245A (zh) 基于神经网络的增强现实跟踪方法
Papic et al. Improving data acquisition speed and accuracy in sport using neural networks
CN103714556A (zh) 一种基于金字塔表观模型的运动目标跟踪方法
CN102592135B (zh) 融合目标空间分布和时序分布特征子空间的视觉跟踪方法
CN103714554A (zh) 一种基于传播融合的视频跟踪方法
CN109448023A (zh) 一种结合空间置信图和轨迹估计的卫星视频小目标实时跟踪方法
Yang et al. Borderpointsmask: One-stage instance segmentation with boundary points representation
CN111462180B (zh) 基于与或图aog的目标跟踪方法
CN104866853A (zh) 一种足球比赛视频中的多运动员的行为特征提取方法
Zhou et al. Faster R-CNN for marine organism detection and recognition using data augmentation
Li et al. Video-based table tennis tracking and trajectory prediction using convolutional neural networks
Wang et al. Basketball motion video target tracking algorithm based on improved gray neural network
CN106127119A (zh) 基于彩色图像和深度图像多特征的联合数据关联方法
CN105069829A (zh) 一种基于多目视频的人体动画生成方法
CN105353352B (zh) 改进搜索策略的mm‑pphdf机动多目标跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Open date: 20080416