CN111242971A - 一种基于改进的双中心粒子群优化算法的目标跟踪方法 - Google Patents

一种基于改进的双中心粒子群优化算法的目标跟踪方法 Download PDF

Info

Publication number
CN111242971A
CN111242971A CN201911217566.9A CN201911217566A CN111242971A CN 111242971 A CN111242971 A CN 111242971A CN 201911217566 A CN201911217566 A CN 201911217566A CN 111242971 A CN111242971 A CN 111242971A
Authority
CN
China
Prior art keywords
target
particle
value
image
iteration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911217566.9A
Other languages
English (en)
Other versions
CN111242971B (zh
Inventor
朱娟娟
朱倩蓓
郭宝龙
李赫一
管智
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201911217566.9A priority Critical patent/CN111242971B/zh
Publication of CN111242971A publication Critical patent/CN111242971A/zh
Application granted granted Critical
Publication of CN111242971B publication Critical patent/CN111242971B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/45Analysis of texture based on statistical description of texture using co-occurrence matrix computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于数字图像处理技术领域,具体涉及一种基于改进的双中心粒子群优化算法的目标跟踪方法。首先,框选出图像序列中首帧图像的目标位置;根据框选的目标,对目标区域的图像计算Hu不变矩来描述目标的形状特征;同时,根据框选的目标,对目标区域的图像计算HSV颜色直方图来描述目标的颜色特征;然后计算出的形状特征向量H和颜色特征向量G进行串联,得到特征融合后的目标特征向量[H,G],即目标模板特征;接着对后续图像帧应用双中心粒子群优化算法,获取所述图像帧中的全局最优粒子的位置;最后利用提出的抗遮挡的目标模板更新策略,得到更新后的新目标模板特征。本发明方法对目标具有较好的跟踪准确度,对目标跟踪具有较好的实时性,抗遮挡性和鲁棒性。

Description

一种基于改进的双中心粒子群优化算法的目标跟踪方法
技术领域
本发明属于数字图像处理技术领域,具体涉及一种基于改进的双中心粒子群优化算法的目标跟踪方法。
背景技术
目标跟踪的主要任务是在一段视频序列中定位感兴趣的运动目标,并形成目标运动的轨迹。目标跟踪技术在对运动目标的图像分析和应用中产生,并成为计算机视觉领域中的一个重要的研究热点。目前传统的目标跟踪方法主要有帧差法、光流法、相关跟踪法以及卡尔曼滤波法、粒子滤波跟踪法等。但是帧差法对于较大的、颜色一致的运动目标,可能在目标内部产生空洞,无法完整提取运动目标。光流法对噪声、多光源、遮挡等因素鲁棒性较差而且光流法计算复杂,很难实现实时处理。粒子滤波需要大量的样本数量才能很好的近似系统的后验概率密度,但是重采样阶段会造成样本有效性和多样性的损失,导致样本贫化现象。
随着研究的不断深入,新的跟踪算法不断出现。粒子群优化算法(Particle SwarmOptimization,PSO)作为一种新的群体智能优化算法,是从鸟群或者鱼群的捕食行为中模拟抽象出来的。粒子群优化算法容易实现且简单高效,可以快速遍历搜索空间,快速收敛。由于该算法处理多峰复杂问题时,具有很好的搜索能力,使其在解决目标跟踪过程中具有一定的优势,但是传统的粒子群优化算法存在粒子的多样性丢失,粒子容易陷入局部最优,造成早熟收敛的现象。
近来不少研究人员提出针对其的改进算法。梁菁,李岚均等人(CN110286383A)提出基于传统粒子群算法改进得到降维粒子群算法,解决了容易陷入局部最优解的问题,但是收敛速度较慢。李静梅,韩俊妍等人(CN109858606A)针对粒子群算法前期收敛速度快后期收敛速度慢的缺点,提出引入压缩因子改进粒子的速度更新方式,有效地提高算法的收敛速度和全局搜索能力,但具有较大计算量的问题。黄荣辉等人(CN106295674B)提出基于多粒子群算法的图像目标匹配检测的方法,能够降低计算量,但是其精度不高。ChangseokBae等人(IEEE Computer Society,2018)提出Effective object tracking frameworkusing weight adjustment of particle swarm optimization,与其他现有的基于群体智能的对象跟踪器相比,该框架显著减少了对附近干扰物的收敛,但是其抗遮挡能力较弱。
发明内容
本发明针对上述现有技术存在的不足,提出一种简单精确且工程容易实现的基于改进的双中心粒子群优化算法目标跟踪方法,旨在解决目标本身存在多样的特征,粒子早熟收敛现象以及跟踪过程中的遮挡问题。
本发明要解决的技术问题通过以下技术方案实现:
包括以下步骤:
步骤1.读取要处理的图像序列,在首帧图像中对要跟踪的目标进行框选,得到目标在首帧中的位置;
步骤2.根据框选的目标,对目标区域的图像计算Hu不变矩来描述目标的形状特征;
步骤3.将目标区域的图像由RGB空间转换到HSV空间,并计算目标区域图像的HSV颜色直方图来描述目标的颜色特征;
步骤4.对步骤2和步骤3的形状特征向量和颜色特征向量进行串联,得到特征融合后的目标特征向量,即目标模板特征;
步骤5.对后续图像帧应用改进的双中心粒子群优化算法,获取所述图像帧中的全局最优粒子的位置;
步骤6.提出抗遮挡的目标模板更新策略。判断目标是否被遮挡,若目标被遮挡,不进行目标模板更新,使用前一帧的目标模板进行目标跟踪,否则将最优粒子的特征和目标模板特征进行线性融合,得到新的目标模板特征,并用于下一帧的目标跟踪。
作为本发明方案进一步的说明,所述步骤2的具体处理过程是:
子步骤2a、对目标区域的图像灰度化;
Gary=R*0.3+G*0.59+B*0.11;
子步骤2b、用Canny边缘检测提取边缘,保留边缘灰度图像;
子步骤2c、使用Otsu提出的类判别分析法自动为灰度图像选定阈值,用该阈值对图像二值化;
子步骤2d、计算二值图像的质心
Figure BDA0002299906100000031
Figure BDA0002299906100000032
Figure BDA0002299906100000033
Figure BDA0002299906100000034
Figure BDA0002299906100000035
上式中mpq为数字图像(p+q)阶几何矩,根据零阶几何矩和一阶几何矩计算出图像质心x和y;
子步骤2e、根据二值图像的质心计算出中心距μpq,通过归一化中心矩构造7个不变矩,即为Hu不变矩;
Figure BDA0002299906100000041
ηpq=μpq/(μ00)ρp,q=0,1,2...;
上式中ηpq为归一化的中心距,其中ρ=(p+q)/2+1,构造7个不变矩,并根据7个不变矩构造形状特征向量H。
作为本发明方案进一步的说明,所述步骤3的具体处理过程是:
子步骤3a、将目标区域的图像由RGB空间转换到HSV空间;
Figure BDA0002299906100000042
Figure BDA0002299906100000043
Figure BDA0002299906100000044
Figure BDA0002299906100000045
Figure BDA0002299906100000046
Figure BDA0002299906100000047
上式为颜色空间转换公式,R,G,B的取值范围是[0,255],
Figure BDA0002299906100000048
的取值范围是[0,1],H的取值范围是[0,360],S的取值范围是[0,1],V的取值范围是[0,1];
子步骤3b、将HSV颜色空间非等间隔量化,构造颜色特征向量G,构造公式表示为:G=4H+3S+3V+1。
作为本发明方案进一步的说明,所述步骤5的具体处理过程是:
子步骤5a、设定双中心粒子群优化算法的参数;
包括:
种群规模,
粒子的位置范围:[LB,UB],LB为粒子位置的下界对应目标区域图像的最小行列数,UB为粒子位置的上界对应目标区域图像的最大行列数;
粒子的速度范围:[-Vmax,Vmax];
认知参数:个体认知参数c1=1.4,全局认知参数c2=1.4;
惯性权重:最大惯性权重wmax=0.9,最小惯性权重wmin=0.4;
终止条件:粒子的全局最优值的阈值M=0.8,最大迭代次数Tmax=10;
遮挡阈值:S=0.2;
子步骤5b、初始化粒子的位置并计算每个粒子的适应度值;
根据上一帧中目标最优粒子的位置,在搜索范围内对粒子的位置随机初始化;然后计算每个粒子候选区域图像的Hu不变矩和HSV颜色直方图,得到每个粒子的特征融合向量,分别与目标模板特征计算距离来度量相似性,相似性即为每个粒子的适应度值;
距离选用欧式距离
Figure BDA0002299906100000051
上式中,d为欧式距离,x为粒子特征向量,y为目标模板特征向量;
Figure BDA0002299906100000052
上式中,f为粒子的适应度值,利用欧氏距离度量粒子的适应度值,距离越小,相似性越大,粒子的适应度值越大;
子步骤5c、自适应调整粒子的惯性权重;
根据迭代次数iter和粒子的适应度值f对惯性权重w进行自适应调整,具体公式为:
Figure BDA0002299906100000061
上式中,wmax为惯性权重的最大值,wmin为惯性权重的最小值,Tmax为粒子群优化算法的最大迭代次数,iters为当前迭代次数,f为当前粒子的适应度值,fmax为粒子的最大适应度值;
子步骤5d、根据所述的自适应惯性权重和公式,更新每个粒子的速度vi t+1和位置
Figure BDA0002299906100000062
Figure BDA0002299906100000063
Figure BDA0002299906100000064
上式中,n为粒子群优化算法中的种群大小,w为自适应的惯性权重,c1、c2为加速因子,一般取值为c1=c2=1.4,r1、r2为两个取值范围为[0,1]的随机数;vi t为粒子i在第t次迭代时的速度,xi t粒子i在第t次迭代时的速度时的位置,
Figure BDA0002299906100000065
为粒子i在t次迭代中的个体极值位置,xgbest t为在t次迭代中粒子群中粒子的全局最优位置;
子步骤5e、引入两个加权中心粒子,粒子群体加权中心xc t和个体极值加权中心xpc t参与全局最优值的竞争,其中,中心粒子位置的更新公式分别为:
Figure BDA0002299906100000066
Figure BDA0002299906100000067
上式中,xi t为粒子i在第t次迭代时的位置,fi t为粒子i在第t次迭代时的适应度值,ci t为粒子i在第t次迭代时归一化的适应度值,xc t为第t次迭代时粒子群体加权中心粒子位置;
Figure BDA0002299906100000071
Figure BDA0002299906100000072
上式中,xpbesti t为粒子i在t次迭代中的个体极值位置,fpbesti t为粒子i在t次迭代中的个体最优的适应度值,cpbesti t为fpbesti t归一化后的适应度值,xpc t为第t次迭代时个体极值加权中心粒子位置;
子步骤5f、计算第t次迭代时全局最优值:
f(xgbest t)=max(f(xpbest1 t),f(xpbest2 t),…f(xpbestn t),f(xc t),f(xpc t));
上式为第t次迭代时全局最优值f(xgbesti t)的更新公式,比较在t次迭代中每个基础粒子的个体极值和引入的两个加权中心粒子的适应度值,最大值即为第t次迭代时全局最优值;
子步骤5g、根据计算出的第t次迭代时全局最优值,若粒子的全局最优值达到设定的阈值或当前的迭代次数达到预设的迭代次数迭代结束,保留全局最优粒子的位置,否则重复子步骤5c;
子步骤5h、标记全局最优粒子的位置,输出当前帧中目标的位置。
作为本发明方案进一步的说明,所述步骤6的具体处理过程是:
子步骤6a、计算当前帧中全局最优粒子位置的适应度值;
子步骤6b、比较当前帧中全局最优粒子位置的适应度值和遮挡阈值大小,判断目标是否发生遮挡;
子步骤6c、若当前帧中全局最优粒子位置的适应度值小于遮挡阈值时,判定目标发生遮挡,不进行目标模板更新,使用前一帧的目标模板进行目标跟踪,否则进行模板更新,将全局最优粒子的特征和目标模板特征进行线性融合,得到新的目标模板特征,并用于下一帧的目标跟踪;
F=0.8F1+0.2Fbest
上式为目标模板更新公式,F1为前一帧的目标模板特征,Fbest为全局最优粒子的特征,F为更新后新的目标模板特征。
通过与现有技术相比,本发明具有以下优点:
1.为了解决单一特征不能很好地表达出目标外观模型,本发明提取目标的颜色特征和形状特征进行特征融合,可以更加有效地表达目标模型,实现在复杂环境下更为准确的目标跟踪,提高目标跟踪的鲁棒性;
2.在传统的PSO算法目标跟踪方法中,PSO算法中的惯性权重w通常是一个常量或者是线性递减的变量,本发明提出一种自适应调节惯性权重的策略,根据迭代次数和适应度值共同决定当前粒子的惯性权重,平衡全局搜索能力和局部搜索能力,自适应地调整惯性权重大小使得算法能够精确的确定目标的位置;采用这种方法能够减少迭代次数,提高算法的运行效率;
3.本发明提出双中心的粒子群优化目标跟踪算法,引入两个加权中心粒子,即粒子群体的加权中心和全体粒子的个体极值加权中心,扩大了搜索覆盖范围,使得每个粒子搜索到的个体极值得到显著改善,解决了容易陷入局部最优解的问题,并且加快了种群的收敛速度,能进一步提高跟踪实时性和跟踪精度;
4.本发明还加入抗遮挡的目标模板更新策略,判断目标是否被遮挡,当目标被遮挡后能保证及时恢复准确、有效的跟踪,提高目标跟踪的鲁棒性。
附图说明
图1是本发明目标跟踪方法的整体流程框图;
图2是本发明目标跟踪方法中步骤5的内部流程图;
图3是本发明目标跟踪方法中步骤6的内部流程图;
图4是两种算法对不同图像序列中相同图像帧的跟踪结果;
其中,图4中(a)、(b)是同一图像序列的第45帧图像分别采用粒子群优化算法和本发明提出的改进的双中心粒子群优算法对图像中目标的跟踪结果;图4(c)、(d)是另同一图像序列的第62帧图像分别采用粒子群优化算法和本发明提出的改进的双中心粒子群优算法对图像中目标的跟踪结果;图4中(e)、(f)给出了两种对比算法在同一图像序列第240帧图像的跟踪结果;
图5是两种算法的跟踪位置误差对比;
图6是两种算法的跟踪时间对比。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
本发明针对传统粒子群优化算法的局限性,提出了基于双中心粒子群优化的目标跟踪算法,目的是实现一种稳定、准确、抗遮挡的实时的目标跟踪方法。
首先,在首帧框选出感兴趣的目标;然后计算目标区域的图像特征;接着,对后续图像帧应用改进的双中心粒子群优化算法,获取所述图像帧中的全局最优粒子的位置,即目标的位置;最后判断目标是否发生遮挡,若目标发生遮挡,不进行目标模板更新,否则进行目标模板更新。
参照图1的流程图,本发明基于改进的双中心粒子群优化算法的目标跟踪方法,其具体步骤如下:
步骤1,框选出图像序列中首帧图像的目标位置
读取要处理的图像序列,在首帧图像中用鼠标对要跟踪的目标进行框选,得到目标中心位置和目标区域的长度和宽度;
步骤2,根据框选的目标,对目标区域的图像计算Hu不变矩来描述目标的形状特征;
子步骤2a、对目标区域的图像灰度化;
Gary=R*0.3+G*0.59+B*0.11;
子步骤2b、用Canny边缘检测提取边缘,保留边缘灰度图像;
子步骤2c、Otsu提出的类判别分析法自动为灰度图像选定阈值,用该阈值对图像二值化;
子步骤2d、计算二值图像的质心
Figure BDA0002299906100000101
Figure BDA0002299906100000102
Figure BDA0002299906100000103
Figure BDA0002299906100000104
Figure BDA0002299906100000105
上式中mpq为数字图像(p+q)阶几何矩,根据零阶几何矩和一阶几何矩计算出图像质心
Figure BDA0002299906100000106
Figure BDA0002299906100000107
子步骤2e、根据二值图像的质心计算出中心距μpq,通过归一化中心矩构造7个不变矩,即为Hu不变矩;
Figure BDA0002299906100000108
ηpq=μpq/(μ00)ρp,q=0,1,2...;
上式中ηpq为归一化的中心距,其中ρ=(p+q)/2+1,构造的7个不变矩为:
构造的7个不变矩为:
φ1=η2002
φ2=(η2002)2+4η11 2
φ3=(η30-3η12)2+(3η2103)2
φ4=(η3012)2+(η2103)2
φ5=(η30-3η12)(η3012)[(η3012)2-3(η2103)2]+(3η2103)(η2103)[3(η3012)2-(η2103)2]
φ6=(η2002)[(η3012)2-(η2103)2]+4η113012)(η2103)
φ7=(3η2103)(η3012)[(η3012)2-3(η2103)2]-(η30-3η12)(η2130)[3(η3012)2-(η2130)2]
并根据此构造形状特征向量H,即根据二阶和三阶的归一化中心距构造。
步骤3,根据框选的目标,对目标区域的图像计算HSV颜色直方图来描述目标的颜色特征;
子步骤3a、将目标区域的图像由RGB空间转换到HSV空间;
Figure BDA0002299906100000111
Figure BDA0002299906100000112
Figure BDA0002299906100000113
Figure BDA0002299906100000114
Figure BDA0002299906100000115
Figure BDA0002299906100000116
上式为颜色空间转换公式,R,G,B的取值范围是[0,255],
Figure BDA0002299906100000121
的取值范围是[0,1],H的取值范围是[0,360],S的取值范围是[0,1],V的取值范围是[0,1];
子步骤3b、将HSV颜色空间非等间隔量化:H量化为16级,S量化为4级,V量化为4级;
Figure BDA0002299906100000122
Figure BDA0002299906100000123
Figure BDA0002299906100000124
根据上式构造颜色特征向量G,构造公式表示为:G=4H+3S+3V+1。
步骤4,对步骤3和步骤4计算出的形状特征向量H和颜色特征向量G进行串联,得到特征融合后的目标特征向量[H,G],即目标模板特征;
步骤5,参照图2的流程图对后续图像帧应用双中心粒子群优化算法,获取所述图像帧中的全局最优粒子的位置;
子步骤5a、设定双中心粒子群优化算法的参数;
种群规模:原始粒子数目N=50,粒子维度m=2;
粒子的位置范围:[LB,UB],LB为粒子位置的下界对应目标区域图像的最小行列数,UB为粒子位置的上界对应目标区域图像的最大行列数;
粒子的速度范围:[-Vmax,Vmax],Vmax的每一维取对应搜索空间的10%;
认知参数:个体认知参数c1=1.4,全局认知参数c2=1.4;
惯性权重:最大惯性权重wmax=0.9,最小惯性权重wmin=0.4;
终止条件:粒子的全局最优值的阈值M=0.8,最大迭代次数Tmax=10;
遮挡阈值:S=0.2;
子步骤5b、初始化粒子的位置并计算每个粒子的适应度值;
具体来说,根据上一帧中目标最优粒子的位置,在搜索范围内对粒子的位置随机初始化。然后计算每个粒子候选区域图像的Hu不变矩和HSV颜色直方图,得到每个粒子的特征融合向量,分别与目标模板特征计算距离来度量相似性,相似性即为每个粒子的适应度值。
距离可选用多种不同的方式定义,如欧式距离,巴氏距离,汉明距离等,考虑计算效率,这里选取欧式距离。
Figure BDA0002299906100000131
上式中为d欧式距离,x为粒子特征向量,y为目标模板特征向量;
Figure BDA0002299906100000132
上式中f为粒子的适应度值,利用欧氏距离度量粒子的适应度值,距离越小,相似性越大,粒子的适应度值越大。
子步骤5c、自适应调整粒子的惯性权重;
根据迭代次数iter和粒子的适应度值f对惯性权重w进行自适应调整,具体公式为:
Figure BDA0002299906100000141
上式中,wmax为惯性权重的最大值,wmin为惯性权重的最小值,Tmax为粒子群优化算法的最大迭代次数,iters为当前迭代次数,f为当前粒子的适应度值,fmax为粒子的最大适应度值;
子步骤5d.根据所述的自适应惯性权重和公式,更新每个粒子的速度
Figure BDA0002299906100000142
和位置
Figure BDA0002299906100000143
Figure BDA0002299906100000144
Figure BDA0002299906100000145
上式中n为粒子群优化算法中的种群大小,w为自适应的惯性权重,c1、c2为加速因子,一般取值为c1=c2=1.4,r1、r2为两个取值范围为[0,1]的随机数。vi t为粒子i在第t次迭代时的速度,xi t粒子i在第t次迭代时的速度时的位置,
Figure BDA0002299906100000146
为粒子i在t次迭代中的个体极值位置,xgbest t为在t次迭代中粒子群中粒子的全局最优位置;
子步骤5e.引入两个加权中心粒子,粒子群体加权中心xc t和个体极值加权中心xpc t参与全局最优值的竞争,其中,中心粒子位置的更新公式分别为:
Figure BDA0002299906100000147
Figure BDA0002299906100000148
上式中,xi t为粒子i在第t次迭代时的位置,fi t为粒子i在第t次迭代时的适应度值,ci t为粒子i在第t次迭代时归一化的适应度值,xc t为第t次迭代时粒子群体加权中心粒子位置;
Figure BDA0002299906100000151
Figure BDA0002299906100000152
上式中,xpbesti t为粒子i在t次迭代中的个体极值位置,fpbesti t为粒子i在t次迭代中的个体最优的适应度值,cpbesti t为fpbesti t归一化后的适应度值,xpc t为第t次迭代时个体极值加权中心粒子位置;
子步骤5f、计算第t次迭代时全局最优值:
f(xgbest t)=max(f(xpbest1 t),f(xpbest2 t),…f(xpbestn t),f(xc t),f(xpc t));
上式为第t次迭代时全局最优值f(xgbesti t)的更新公式,比较在t次迭代中每个基础粒子的个体极值和引入的两个加权中心粒子的适应度值,最大值即为第t次迭代时全局最优值;
子步骤5g、根据计算出的第t次迭代时全局最优值,若粒子的全局最优值达到设定的阈值或当前的迭代次数达到预设的迭代次数迭代结束,保留全局最优粒子的位置,否则重复子步骤5c;
子步骤5h、标记全局最优粒子的位置,输出当前帧中目标的位置;
步骤6.参照图3的流程图,提出抗遮挡的目标模板更新策略;
子步骤6a、计算当前帧中全局最优粒子位置的适应度值;
子步骤6b、比较当前帧中全局最优粒子位置的适应度值和遮挡阈值大小,判断目标是否发生遮挡;
子步骤6c、若当前帧中全局最优粒子位置的适应度值小于遮挡阈值时,判定目标发生遮挡,不进行目标模板更新,使用前一帧的目标模板进行目标跟踪,否则进行模板更新,将全局最优粒子的特征和目标模板特征进行线性融合,得到新的目标模板特征,并用于下一帧的目标跟踪。
F=0.8F1+0.2Fbest
上式为目标模板更新公式,F1为前一帧的目标模板特征,Fbest为全局最优粒子的特征,F为更新后新的目标模板特征。
为了验证本发明提出的改进的双中心粒子群优化算法对图像序列中目标跟踪的有效性,本发明选用粒子群优化算法作为对比实验,图4给出了两种对比算法在同一图像序列中的跟踪结果,图4中的图像都是从OTB数据集中获取的,分别跟踪的是易拉罐、人脸、女士;图4中(a)、(b)是同一图像序列的第45帧图像分别采用粒子群优化算法和本发明提出的改进的双中心粒子群优算法对图像中目标的跟踪结果,图4(c)、(d)是另同一图像序列的第62帧图像分别采用粒子群优化算法和本发明提出的改进的双中心粒子群优算法对图像中目标的跟踪结果。为了说明本发明方法在目标发生遮挡时的跟踪情况,图4中(e)、(f)给出了两种对比算法在同一图像序列第240帧图像的跟踪结果,从图中可以看出,当目标发生遮挡时,粒子群优化算法对图像中的目标跟踪失败,本发明方法可以得到较好的跟踪结果。通过图4的对比,可以看出本发明提出的算法具有一定的抗遮挡性和更好的跟踪准确性。
最后为了客观评价本发明提出的改进的双中心的粒子群优化算法的效果,对目标跟踪的精度和跟踪算法的运行时间两个方面对本发明进行评价。图5给出了两种对比算法的位置误差对比,可以发现,本发明算法提高了目标跟踪的精度。图6给出了两种算法的运行时间,对比可知,本发明提出的改进的算法运行时间比较短,具有较好的实时性。通过对图像序列中的目标跟踪实验对比,验证了本发明提出的改进的双中心粒子群优化算法对图像序列中的目标具有较好的跟踪准确度,并且本专利的算法对于目标跟踪具有较好的实时性,抗遮挡性和鲁棒性。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (5)

1.一种基于改进的双中心粒子群优化算法的目标跟踪方法,其特征在于,具体步骤如下:
步骤1,框选出图像序列中首帧图像的目标位置
读取要处理的图像序列,在首帧图像中用鼠标对要跟踪的目标进行框选,得到目标中心位置和目标区域的长度和宽度;
步骤2,根据框选的目标,对目标区域的图像计算Hu不变矩来描述目标的形状特征;
步骤3,根据框选的目标,对目标区域的图像计算HSV颜色直方图来描述目标的颜色特征;
步骤4,对步骤3和步骤4计算出的形状特征向量H和颜色特征向量G进行串联,得到特征融合后的目标特征向量[H,G],即目标模板特征;
步骤5,对后续图像帧应用双中心粒子群优化算法,获取所述图像帧中的全局最优粒子的位置;
步骤6.提出抗遮挡的目标模板更新策略,得到更新后的新目标模板特征。
2.根据权利要求1所述的一种基于改进的双中心粒子群优化算法的目标跟踪方法,其特征在于,所述步骤2的具体处理过程是:
子步骤2a、对目标区域的图像灰度化;
Gary=R*0.3+G*0.59+B*0.11;
子步骤2b、用Canny边缘检测提取边缘,保留边缘灰度图像;
子步骤2c、使用Otsu提出的类判别分析法自动为灰度图像选定阈值,用该阈值对图像二值化;
子步骤2d、计算二值图像的质心
Figure FDA0002299906090000011
Figure FDA0002299906090000012
Figure FDA0002299906090000021
Figure FDA0002299906090000022
Figure FDA0002299906090000023
上式中mpq为数字图像(p+q)阶几何矩,根据零阶几何矩和一阶几何矩计算出图像质心
Figure FDA0002299906090000024
Figure FDA0002299906090000025
子步骤2e、根据二值图像的质心计算出中心距μpq,通过归一化中心矩构造7个不变矩,即为Hu不变矩;
Figure FDA0002299906090000026
ηpq=μpq/(μ00)ρp,q=0,1,2...;
上式中ηpq为归一化的中心距,其中ρ=(p+q)/2+1,构造7个不变矩,并根据7个不变矩构造形状特征向量H。
3.根据权利要求1所述的一种基于改进的双中心粒子群优化算法的目标跟踪方法,其特征在于,所述步骤3的具体处理过程是:
子步骤3a、将目标区域的图像由RGB空间转换到HSV空间;
Figure FDA0002299906090000027
Figure FDA0002299906090000028
Figure FDA0002299906090000029
Figure FDA00022999060900000210
Figure FDA00022999060900000211
Figure FDA0002299906090000031
上式为颜色空间转换公式,R,G,B的取值范围是[0,255],
Figure FDA0002299906090000032
的取值范围是[0,1],H的取值范围是[0,360],S的取值范围是[0,1],V的取值范围是[0,1];
子步骤3b、将HSV颜色空间非等间隔量化,构造颜色特征向量G,构造公式表示为:G=4H+3S+3V+1。
4.根据权利要求1所述的一种基于改进的双中心粒子群优化算法的目标跟踪方法,其特征在于,所述步骤5的具体处理过程是:
子步骤5a、设定双中心粒子群优化算法的参数;
包括:
种群规模,
粒子的位置范围:[LB,UB],LB为粒子位置的下界对应目标区域图像的最小行列数,UB为粒子位置的上界对应目标区域图像的最大行列数;
粒子的速度范围:[-Vmax,Vmax];
认知参数:个体认知参数c1=1.4,全局认知参数c2=1.4;
惯性权重:最大惯性权重wmax=0.9,最小惯性权重wmin=0.4;
终止条件:粒子的全局最优值的阈值M=0.8,最大迭代次数Tmax=10;
遮挡阈值:S=0.2;
子步骤5b、初始化粒子的位置并计算每个粒子的适应度值;
根据上一帧中目标最优粒子的位置,在搜索范围内对粒子的位置随机初始化;然后计算每个粒子候选区域图像的Hu不变矩和HSV颜色直方图,得到每个粒子的特征融合向量,分别与目标模板特征计算距离来度量相似性,相似性即为每个粒子的适应度值;
距离选用欧式距离
Figure FDA0002299906090000041
上式中,d为欧式距离,x为粒子特征向量,y为目标模板特征向量;
Figure FDA0002299906090000042
上式中,f为粒子的适应度值,利用欧氏距离度量粒子的适应度值,距离越小,相似性越大,粒子的适应度值越大;
子步骤5c、自适应调整粒子的惯性权重;
根据迭代次数iter和粒子的适应度值f对惯性权重w进行自适应调整,具体公式为:
Figure FDA0002299906090000043
上式中,wmax为惯性权重的最大值,wmin为惯性权重的最小值,Tmax为粒子群优化算法的最大迭代次数,iters为当前迭代次数,f为当前粒子的适应度值,fmax为粒子的最大适应度值;
子步骤5d、根据所述的自适应惯性权重和公式,更新每个粒子的速度vi t+1和位置
Figure FDA0002299906090000044
Figure FDA0002299906090000046
Figure FDA0002299906090000045
上式中,n为粒子群优化算法中的种群大小,w为自适应的惯性权重,c1、c2为加速因子,一般取值为c1=c2=1.4,r1、r2为两个取值范围为[0,1]的随机数;vi t为粒子i在第t次迭代时的速度,xi t粒子i在第t次迭代时的速度时的位置,
Figure FDA0002299906090000056
为粒子i在t次迭代中的个体极值位置,
Figure FDA0002299906090000057
为在t次迭代中粒子群中粒子的全局最优位置;
子步骤5e、引入两个加权中心粒子,粒子群体加权中心xc t和个体极值加权中心xpc t参与全局最优值的竞争,其中,中心粒子位置的更新公式分别为:
Figure FDA0002299906090000051
Figure FDA0002299906090000052
上式中,xi t为粒子i在第t次迭代时的位置,fi t为粒子i在第t次迭代时的适应度值,ci t为粒子i在第t次迭代时归一化的适应度值,xc t为第t次迭代时粒子群体加权中心粒子位置;
Figure FDA0002299906090000053
Figure FDA0002299906090000054
上式中,
Figure FDA0002299906090000058
为粒子i在t次迭代中的个体极值位置,
Figure FDA0002299906090000059
为粒子i在t次迭代中的个体最优的适应度值,
Figure FDA0002299906090000055
Figure FDA00022999060900000510
归一化后的适应度值,xpc t为第t次迭代时个体极值加权中心粒子位置;
子步骤5f、计算第t次迭代时全局最优值:
Figure FDA00022999060900000511
上式为第t次迭代时全局最优值
Figure FDA00022999060900000512
的更新公式,比较在t次迭代中每个基础粒子的个体极值和引入的两个加权中心粒子的适应度值,最大值即为第t次迭代时全局最优值;
子步骤5g、根据计算出的第t次迭代时全局最优值,若粒子的全局最优值达到设定的阈值或当前的迭代次数达到预设的迭代次数迭代结束,保留全局最优粒子的位置,否则重复子步骤5c;
子步骤5h、标记全局最优粒子的位置,输出当前帧中目标的位置。
5.根据权利要求4所述的一种基于改进的双中心粒子群优化算法的目标跟踪方法,其特征在于,所述步骤6的具体处理过程是:
子步骤6a、计算当前帧中全局最优粒子位置的适应度值;
子步骤6b、比较当前帧中全局最优粒子位置的适应度值和遮挡阈值大小,判断目标是否发生遮挡;
子步骤6c、若当前帧中全局最优粒子位置的适应度值小于遮挡阈值时,判定目标发生遮挡,不进行目标模板更新,使用前一帧的目标模板进行目标跟踪,否则进行模板更新,将全局最优粒子的特征和目标模板特征进行线性融合,得到新的目标模板特征,并用于下一帧的目标跟踪;
F=0.8F1+0.2Fbest
上式为目标模板更新公式,F1为前一帧的目标模板特征,Fbest为全局最优粒子的特征,F为更新后新的目标模板特征。
CN201911217566.9A 2019-12-03 2019-12-03 一种基于改进的双中心粒子群优化算法的目标跟踪方法 Active CN111242971B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911217566.9A CN111242971B (zh) 2019-12-03 2019-12-03 一种基于改进的双中心粒子群优化算法的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911217566.9A CN111242971B (zh) 2019-12-03 2019-12-03 一种基于改进的双中心粒子群优化算法的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN111242971A true CN111242971A (zh) 2020-06-05
CN111242971B CN111242971B (zh) 2023-05-02

Family

ID=70871875

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911217566.9A Active CN111242971B (zh) 2019-12-03 2019-12-03 一种基于改进的双中心粒子群优化算法的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN111242971B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860622A (zh) * 2020-07-03 2020-10-30 北京科技大学 一种应用于编程现场大数据的聚类方法及系统
CN113470072A (zh) * 2021-07-06 2021-10-01 吉林省田车科技有限公司 一种基于运动粒子的粒子群目标跟踪算法
CN113923591A (zh) * 2021-10-08 2022-01-11 西安电子科技大学 提高超宽带测距精度的滤波函数智能优化方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018072351A1 (zh) * 2016-10-20 2018-04-26 北京工业大学 一种基于粒子群优化算法对支持向量机的优化方法
CN109146922A (zh) * 2018-07-11 2019-01-04 哈尔滨工程大学 一种基于自适应粒子群优化的前视声纳水下目标跟踪方法
CN110288634A (zh) * 2019-06-05 2019-09-27 成都启泰智联信息科技有限公司 一种基于改进粒子群优化算法的目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018072351A1 (zh) * 2016-10-20 2018-04-26 北京工业大学 一种基于粒子群优化算法对支持向量机的优化方法
CN109146922A (zh) * 2018-07-11 2019-01-04 哈尔滨工程大学 一种基于自适应粒子群优化的前视声纳水下目标跟踪方法
CN110288634A (zh) * 2019-06-05 2019-09-27 成都启泰智联信息科技有限公司 一种基于改进粒子群优化算法的目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
厉丹等: "基于局部不变特征与Camshift复杂环境跟踪技术研究", 《现代电子技术》 *
曹洁等: "抗遮挡的鸡群优化粒子滤波目标跟踪方法", 《微电子学与计算机》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860622A (zh) * 2020-07-03 2020-10-30 北京科技大学 一种应用于编程现场大数据的聚类方法及系统
CN111860622B (zh) * 2020-07-03 2023-12-22 北京科技大学 一种应用于编程现场大数据的聚类方法及系统
CN113470072A (zh) * 2021-07-06 2021-10-01 吉林省田车科技有限公司 一种基于运动粒子的粒子群目标跟踪算法
CN113470072B (zh) * 2021-07-06 2022-09-13 吉林省田车科技有限公司 一种基于运动粒子的粒子群目标跟踪算法
CN113923591A (zh) * 2021-10-08 2022-01-11 西安电子科技大学 提高超宽带测距精度的滤波函数智能优化方法及系统

Also Published As

Publication number Publication date
CN111242971B (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
CN110598554B (zh) 基于对抗学习的多人姿态估计方法
Wang et al. Transferring rich feature hierarchies for robust visual tracking
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN108389211B (zh) 基于改进鲸鱼优化模糊聚类的图像分割方法
AU2007259040B2 (en) Improvements relating to target tracking
CN111242971B (zh) 一种基于改进的双中心粒子群优化算法的目标跟踪方法
Morris A pyramid CNN for dense-leaves segmentation
Prasetyo et al. A comparison of yolo and mask r-cnn for segmenting head and tail of fish
Chen et al. Using FTOC to track shuttlecock for the badminton robot
CN111860587B (zh) 一种用于图片小目标的检测方法
Zhang et al. A swarm intelligence based searching strategy for articulated 3D human body tracking
CN112329784A (zh) 一种基于时空感知及多峰响应的相关滤波跟踪方法
CN111241957A (zh) 一种基于多特征融合和de-elm的手指静脉活体检测方法
CN107330918B (zh) 一种基于在线多示例学习的足球视频球员跟踪方法
CN110097067B (zh) 一种基于层进式特征变换的弱监督细粒度图像分类方法
Zhou et al. Model uncertainty guides visual object tracking
CN108921872B (zh) 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法
CN110837818A (zh) 一种基于卷积神经网路的中华白海豚背鳍识别方法
CN110163103A (zh) 一种基于视频图像的生猪行为识别方法和装置
Li et al. Robust visual tracking by exploiting the historical tracker snapshots
Li et al. Distortion-aware correlation tracking
CN105809707B (zh) 一种基于随机森林算法的行人跟踪方法
CN110751671B (zh) 一种基于核相关滤波与运动估计的目标跟踪方法
Ma et al. An improved kernel correlation filter for occlusion target tracking
CN112614158B (zh) 一种采样框自适应的多特征融合在线目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant