CN112102366B - 基于动态目标的无人机跟踪改进算法 - Google Patents
基于动态目标的无人机跟踪改进算法 Download PDFInfo
- Publication number
- CN112102366B CN112102366B CN202011018319.9A CN202011018319A CN112102366B CN 112102366 B CN112102366 B CN 112102366B CN 202011018319 A CN202011018319 A CN 202011018319A CN 112102366 B CN112102366 B CN 112102366B
- Authority
- CN
- China
- Prior art keywords
- individuals
- neural network
- weight
- unmanned aerial
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006872 improvement Effects 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 claims abstract description 51
- 238000013528 artificial neural network Methods 0.000 claims abstract description 47
- 239000002245 particle Substances 0.000 claims abstract description 43
- 230000008569 process Effects 0.000 claims abstract description 29
- 238000001914 filtration Methods 0.000 claims abstract description 20
- 230000002068 genetic effect Effects 0.000 claims abstract description 18
- 238000012952 Resampling Methods 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 5
- 230000035772 mutation Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 11
- 108090000623 proteins and genes Proteins 0.000 claims description 7
- 210000000349 chromosome Anatomy 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000002452 interceptive effect Effects 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 2
- 230000037237 body shape Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Computational Biology (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了基于动态目标的无人机跟踪改进算法,涉及无人机以及无人机动态目标跟踪技术领域,该算法改进过程包括:优化BP神经网络训练过程;通过个体编码,构建适应度函数和遗传算法来获取BP神经网络最优权值;通过提取目标轮廓特征来完成对目标的特征提取,再基于交互式遗传算法改进粒子滤波的重采样过程从而达到改进基于粒子滤波算法的动态跟踪算法性能的目的。本发明能够在无人机动态跟踪领域提高无人机对动态目标识别的精确度并能提高无人机动态跟踪的精确度和抗干扰能力,具有较高的鲁棒性。
Description
技术领域
本发明专利涉及无人机动态目标跟踪技术领域和机器学习领域,尤其涉及基于动态目标的无人机跟踪改进算法。
背景技术
利用无人机来跟踪动态目标(如移动的人)这项技术具有良好的应用前景。为了保持追踪的隐蔽性等要求,无人机必须远远地跟在目标的后面,通过体型、着装等特征来识别跟踪目标。然而虽然无人机飞得高、看得远,但由于环境遮挡因素,无人机对目标识别的准确性较低,同时其抗干扰能力也非常差。
实现动态目标跟踪主要有两个部分,一是通过人脸识别技术确定跟踪的目标,二是通过体型、着装等特征识别技术实现对动态目标持续、精准的跟踪。在人脸识别方面,目前已有基于BP神经网络的人脸识别技术来实现目标识别。而在动态跟踪方面目前已有均值漂移算法等动态目标追踪算法。但这两种算法对动态目标跟踪的精度不高、抗干扰能力差,容易丢失跟踪目标,基于此,如何使得无人机在动态目标跟踪方面具有更高的精度和更好的抗干扰能力成为了本领域亟需突破的难点。为此,我们提出了基于动态目标的无人机跟踪改进算法
发明内容
本发明的目的是为了解决现有技术中存在的缺点,而提出的基于动态目标的无人机跟踪改进算法。
为了实现上述目的,本发明采用了如下技术方案:
基于动态目标的无人机跟踪改进算法,所述无人机跟踪算法改进过程包括:
改进BP神经网络的训练过程来优化BP神经网络性能。
改进基于BP神经网络的人脸识别算法来获取BP神经网络最优权值。
改进基于粒子滤波的动态跟踪算法来提高跟踪时的精确度和抗干扰能力。
针对BP神经网络训练过程的优化流程具体分为:
1、选定训练集。由相应的训练策略选择样本图像作为训练集。
2、初始化各权值Vij,Wjk和阈值φj,θk,将其设置为一个接近于0的随机值,并初始化精度控制参数ε和学习率α。
3、从训练集中取一个输入向量X加到网络,并给定它的目标输出向量D。
4、利用式计算出一个中间层输出H,再用式/>计算出网络的实际输出Y。
5、将输出矢量中的元素yk与目标矢量中的元素dk进行比较,计算出M个输出误差项δk=(dk-yk)yk(1-yk)对中间层的隐单元也计算出L个误差项
6、依次计算各权值和阈值的调整量:
ΔWjk()n=(a/(1+L))*(ΔWjk(n-1)+1)*δk*hj
Δθk(n)=(a/(1+L))*(Δθk(n-1)+1)*δk
7、调整所述权值和所述阈值
Wik(n+1)=Wik(n)+ΔWik(n)
Vii(n+1)=Vii(n)+ΔVii(n)
θk(n+1)=θk(n)+Δθk(n)
φj(n+1)=φj(n)+Δφ(n)
8、当k每经历1至M后,判断指标是否满足精度要求:E≤ε,其中E是总误差函数,且如果不满足,就返回所述第三步,继续迭代。如果满足,就进入下一步。
9、训练结束,将权值和阈值保存在文件中。这时可以认为各个权值已经达到稳定,分类器形成。再一次进行训练时,直接从文件导出权值和阈值进行训练,不需要进行初始化。
针对基于BP神经网络的人脸识别算法中获取最优权值的步骤大致分为个体编码、构建适应度函数和通过遗传操作获得所述BP神经网络的最优权值。
所述个体编码过程为:以BP神经网络权值作为编码对象,实现十进制编码;
所述编码长度为所述BP神经网络的输入层和隐含层之间权重与其隐含层和输出层之间权重的和;
所述构建适应度函数过程为:通过所述个体解码过程之后,获得所述BP神经网络的权值W1、W2和其隐含层输出A1和输出层输出A2以及训练输出值T,则所述适应度函数F具体表示为:通过遗传算法实现对所述BP神经网络权值的在线优化;
所述遗传算法操作分为选择,交叉,变异操作;所述选择操作采用的是轮盘赌法,根据由所述BP神经网络得到的适应度值来计算出每个个体i的选择概率然后进行选择操作;所述交叉操作采用的是实数交叉法;
所述变异操作为选取选取第i个个体的第j个基因aij进行变异,将所述个体解码为BP神经网络权值,根据权值对训练样本进行学习,得到反馈误差后进行反馈控制,最终获得BP神经网络的最优权值,进而优化BP神经网络性能。
针对所述基于粒子滤波的动态跟踪算法进行改进;
可选的,所述基于粒子滤波的动态跟踪算法对目标进行特征提取采用的是提取目标的轮廓特征;
可选的,在提取完目标轮廓的基础上,我们将对要跟踪的动态目标进行所述基于粒子滤波的目标跟踪,每次通过当前的跟踪结果重采样粒子的分布,然后根据粒子的分布对粒子进行扩散,再通过扩散的结果来重新观察目标的状态,最后归一化更新目标的状态。
针对所述基于粒子滤波算法的动态跟踪算法在粒子重采样过程中的改进流程如下:
基于广义交互式遗传算法的进化思想,在所述粒子滤波的重采样过程中,获取所述粒子的适应度值,所述适应度值为k时刻粒子集中每个粒子的权值;
将所述遗传个体按其适应度值大小排序,用一个值λ表示第λ代种群,初始时,λ=1;
人为确定进行交叉和变异的个体范围以及参与交叉和变异操作的个体数量,所述个体范围称之为候选窗,用字母Wcand表示,并定义所述候选窗的参量:Wcand_x和Wcand_y分别为所述候选窗x方向和y方向的长度值,定义所述交叉操作的交叉概率pc=0.8,定义两个值分别为其中N为所述种群的粒子总数目;
在所述候选窗Wcand内,从种群中随机选取r个个体,并根据适应值排序,将排序后的总个体中的前c个个体标记为进行交叉操作的个体,后面r-c个个体将进行变异操作;
从所述种群中随机选取N-r个个体进入到下一代,作为下一代个体;
经过所述交叉和变异操作后,得到r个新生成的个体插入到下一代,作为下一代个体;
所述交叉操作为:根据完全算术交叉算子的思想,对个体进行所述操作。完全算术交叉是对两个个体的线性组合。
所述变异操作为:由于非一致变异算子可以获得良好的局部微调能力,因此我们根据所述非一致变异的思想,对个体进行所述变异操作。
令所述值λ=λ+1,重复所述遗传操作,直至误差精度符合要求,至此完成对所述粒子滤波算法中重采样过程的优化。
附图说明
图1为本发明实例提供的所述基于动态目标的无人机跟踪改进算法的总体改进流程图;
图2为本发明实例提供的所述基于BP神经网络算法改进流程图中的BP神经网络优化训练过程图;
图3为本发明实例提供的基于BP神经网络算法改进流程图中的基于所述遗传算法来获取最优权值步骤的详细流程图;
图4为本发明实例提供的所述基于粒子滤波算法的动态跟踪算法改进流程图;
图5为本发明实例提供的改进粒子滤波中重采样步骤的详细改进流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供基于动态目标的无人机跟踪改进算法,在基于已有的BP神经网络算法和粒子滤波算法的基础上,通过获取BP神经网络最优权值来改进BP神经网络算法达到提高人脸识别精准度的目的以及通过改进粒子滤波算法中的重采样过程来改进粒子滤波算法达到提高动态跟踪过程中精准度和抗干扰能力的目的,使得算法具有较高的鲁棒性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示,本发明提供了基于动态目标的无人机跟踪改进算法,包括:
步骤101:优化BP神经网络训练过程。如图2所示,具体包含以下步骤:
步骤1:选定训练集。由相应的训练策略选择样本图像作为训练集。
步骤2:初始化各权值Vij,Wjk和阈值φj,θk,将其设置为一个接近于0的随机值,并初始化精度控制参数ε和学习率α。
步骤3:从训练集中取一个输入向量X加到网络,并给定它的目标输出向量D。
步骤4:利用式计算出一个中间层输出H,再用式/>计算出网络的实际输出Y。
步骤5:将输出矢量中的元素yk与目标矢量中的元素dk进行比较,计算出M个输出误差项δk=(dk-yk)yk(1-yk)对中间层的隐单元也计算出L个误差项
步骤6:依次计算各权值和阈值的调整量:
ΔWjk()n=(a/(1+L))*(ΔWjk(n-1)+1)*δk*hj
Δθk(n)=(a/(1+L))*(Δθk(n-1)+1)*δk
步骤7:调整所属权值和阈值:
Wik(n+1)=Wik(n)+ΔWik(n)
Vii(n+1)=Vii(n)+ΔVii(n)
θk(n+1)=θk(n)+Δθk(n)
φj(n+1)=φj(n)+Δφ(n)
步骤8:当k每经历1至M后,判断指标是否满足精度要求:E≤ε,其中E是总误差函数,且如果不满足,就返回所述第三步,继续迭代。如果满足,就进入下一步。
步骤9:训练结束,将权值和阈值保存在文件中。这时可以认为各个权值已经达到稳定,分类器形成。再一次进行训练时,直接从文件导出权值和阈值进行训练,不需要进行初始化。
步骤102:获取BP神经网络最优权值。如图3所示,具体步骤为:
步骤1:个体编码。以BP神经网络权值作为编码对象,实现十进制编码。编码长度可以表示为:
S=m×s1+s1×s2
其中m×s1表示输入层和隐含层之间权重;s1×s2表示隐含层和输出层之间权重。
步骤2:构建适应度函数。通过个体解码,可以得到BP神经网络权值W1、W2,隐含层输出A1以及输出层输出A2,可分别表示为:A1=tansig(W1×P)
A2=purelin(W2×A1)
其中P表示输入变量矩阵。
则适应度函数具体形式为:
F=1/∑(T-A2)2
其中T表示训练输出值。
步骤3:通过遗传算法,获取最优权值。具体步骤为:
S1选择操作:采用轮盘赌法,即基于适应度比例的一种选择策略,每个个体i的选择概率pi为:其中fi为个体i的适应度值,N为种群的个体数目。
S2交叉操作:采用实数交叉法,第k个染色体ak和第i个染色体ai在j位的交叉操作方法为其中b是[0,1]间的随机数。
S3变异操作:选取第i个个体的第j个基因aij进行变异,变异操作方法如下:
式中,amax为基因aij的上界,amin为基因aij的下界,其中,r2为一个随机数;g为当前迭代次数;Gmax是最大进化次数;r为[0,1]之间的随机数
将个体解码为BP神经网络权值;根据权值对训练样本进行学习,得到反馈误差;根据反馈误差实现反馈控制,最终获得BP神经网络的最优权值。
步骤103:改进基于粒子滤波算法的动态跟踪算法,具体步骤如下:
步骤1:通过提取目标的轮廓特征来完成对目标的特征提取;
步骤2:改进粒子滤波重采样过程完成粒子滤波算法的改进从而提高动态跟踪的精确度和抗干扰能力,如图5所示,详细步骤如下:
SS1在粒子滤波的重采样过程中,获取种群中每个粒子的适应度值,该适应度值为k时刻粒子集中每个粒子的权值;
SS2将所述遗传个体按其适应度值大小排序,用一个值λ表示第λ代种群,初始时,λ=1;
SS3人为确定进行交叉和变异的个体范围以及参与交叉和变异操作的个体数量,将所述个体范围称之为候选窗,用字母Wcand表示,并定义所述候选窗的参量:Wcand_x和Wcand_y分别为候选窗x方向和y方向的长度值,定义交叉操作的交叉概率pc=0.8,定义两个值分别为其中N为种群的粒子总数目;
SS4在所述候选窗Wcand内,从种群P(n)(λ)中随机选取r个个体 作为父代个体,并根据每个个体的适应值/>将个体进行适应值大小排序,将排序后的总个体中的前c个个体标记为进行交叉操作的个体,后面r-c个个体将进行变异操作;
交叉操作:根据完全算术交叉算子的思想,对个体进行所述操作。完全算术交叉是对两个个体的线性组合,由凸集的性质可知,完全算术交叉算子对可行解空间是封闭的。
具体步骤如下:
C.随机产生整数ν∈{1,…,c}和u∈{1,…,c},则进行交叉操作的两个个体即为和/>
D.随机产生交叉因子α∈[0,1],依据公式和公式得到交叉后的个体/>和/>将交叉操作进行/>次,得到交叉后的下一代个体/>
变异操作:根据非一致变异的思想,对个体进行变异操作,步骤如下:
B.随机产生变异因子β∈[0,1];
C.依据公式其中Δd∈[C1,C2],C1=min(2Wcand_x,2Wcand_y),C2=max(2Wcand_x,2Wcand_y),得到变异后的下一代个体/>
SS5从种群中随机选取N-r个个体/>直接进入到下一代,作为下一代个体/>
SS6将经过交叉和变异操作后,得到的r个新生成的个体插入到下一代,作为下一代个体SS7令λ=λ+1次,重复遗传操作,直至误差精度符合要求。
综上所述:本发明应用于无人机动态跟踪技术领域,无人机动态跟踪共分为两个部分:一是通过人脸识别技术精准确定跟踪的目标,二是通过体型、着装等特征识别技术实现对动态目标的持续、精准跟踪。针对基于BP神经网络的人脸识别部分,我们改进了BP神经网络的训练过程,同时通过遗传算法实现了获取BP神经网络的最优权值,提高了BP神经网络性能,从而提高无人机动态跟踪过程中对人脸目标识别判断的精度和抗干扰能力;而对于基于粒子滤波算法的动态跟踪部分,我们首先决定通过提取目标轮廓特征来完成对目标的特征提取,再基于交互式遗传算法思想,改进了粒子滤波重采样过程,从而提高了动态跟踪过程中的精度和抗干扰能力,与现有技术相比,本发明算法具有较高的鲁棒性,能够良好地应用到无人机动态跟踪领域。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (6)
1.基于动态目标的无人机跟踪改进方法,其特征在于,所述无人机跟踪方法改进过程包括:
改进BP神经网络的训练过程来优化BP神经网络性能;
改进基于BP神经网络的人脸识别算法来获取BP神经网络最优权值;
改进基于粒子滤波的动态跟踪算法来提高跟踪时的精确度和抗干扰能力;
所述改进BP神经网络的训练过程来优化BP神经网络性能,具体包括:
选定训练集,由相应的训练策略选择样本图像作为训练集;
初始化各权值Vij,Wjk和阈值φj,θk,将其设置为一个接近于0的随机值,并初始化精度控制参数ε和学习率α;
从训练集中取一个输入向量X加到网络,并给定它的目标输出向量D;
利用式计算出一个中间层输出H,再用式/>计算出网络的实际输出Y;
将输出矢量中的元素yk与目标矢量中的元素dk进行比较,计算出M个输出误差项δk=(dk-yk)yk(1-yk)对中间层的隐单元也计算出L个误差项
依次计算各权值和阈值的调整量:
ΔWjk()n=(a/(1+L))*(ΔWjk(n-1)+1)*δk*hj
Δθk(n)=(a/(1+L))*(Δθk(n-1)+1)*δk
调整所属权值和阈值:
Wik(n+1)=Wik(n)+ΔWik(n)
Vii(n+1)=Vii(n)+ΔVii(n)
θk(n+1)=θk(n)+Δθk(n)
φj(n+1)=φj(n)+Δφ(n)
当k每经历1至M后,判断指标是否满足精度要求:E≤ε,其中E是总误差函数,且如果不满足,就返回所述第三步,继续迭代;如果满足,就进入下一步;
训练结束,将权值和阈值保存在文件中;这时可以认为各个权值已经达到稳定,分类器形成;再一次进行训练时,直接从文件导出权值和阈值进行训练,不需要进行初始化;
所述改进基于BP神经网络的人脸识别算法来获取BP神经网络最优权值,具体包括:
个体编码;
构建适应度函数;
通过遗传算法获取最优权值;
所述改进基于粒子滤波的动态跟踪算法来提高跟踪时的精确度和抗干扰能力,具体包括:
通过提取目标的轮廓特征来完成对目标的特征提取;
改进粒子滤波重采样过程完成粒子滤波算法的改进从而提高动态跟踪的精确度和抗干扰能力;
所述改进粒子滤波重采样过程完成粒子滤波算法的改进从而提高动态跟踪的精确度和抗干扰能力,具体包括:
在粒子滤波的重采样过程中,获取种群中每个粒子的适应度值,该适应度值为k时刻粒子集中每个粒子的权值;
将所述遗传个体按其适应度值大小排序,用一个值λ表示第λ代种群,初始时,λ=1;
人为确定进行交叉和变异的个体范围以及参与交叉和变异操作的个体数量,将所述个体范围称之为候选窗,用字母Wcand表示,并定义所述候选窗的参量:Wcand_x和Wcand_y分别为候选窗x方向和y方向的长度值,定义交叉操作的交叉概率pc=0.8,定义两个值分别为其中N为种群的粒子总数目;
在所述候选窗Wcand内,从种群P(n)(λ)中随机选取r个个体 作为父代个体,并根据每个个体的适应值/>将个体进行适应值大小排序,将排序后的总个体中的前c个个体标记为进行交叉操作的个体,后面r-c个个体将进行变异操作;
从种群P(n)(λ)中随机选取N-r个个体直接进入到下一代,作为下一代个体/>
将经过交叉和变异操作后,得到的r个新生成的个体插入到下一代,作为下一代个体
令λ=λ+1次,重复遗传操作,直至误差精度符合要求。
2.根据权利要求1所述的基于动态目标的无人机跟踪改进方法,其特征在于,所述个体编码过程,包括:
以BP神经网络权值作为编码对象,实现十进制编码;编码长度表示为:
S=m×s1+s1×s2
其中m×s1表示输入层和隐含层之间权重;s1×s2表示隐含层和输出层之间权重。
3.根据权利要求2所述的基于动态目标的无人机跟踪改进方法,其特征在于,所述构建适应度函数过程,包括:
通过个体解码,可以得到BP神经网络权值W1、W2,隐含层输出A1以及输出层输出A2,可分别表示为:
A1=tansig(W1×P)
A2=purelin(W2×A1)
其中P表示输入变量矩阵;
则适应度函数具体形式为:
F=1/Σ(T-A2)2
其中T表示训练输出值。
4.根据权利要求3所述的基于动态目标的无人机跟踪改进方法,其特征在于,所述通过遗传算法获取最优权值过程,包括:
选择操作:采用轮盘赌法,即基于适应度比例的一种选择策略,每个个体i的选择概率pi为:其中fi为个体i的适应度值,N为种群的个体数目;
交叉操作:采用实数交叉法,第k个染色体ak和第i个染色体ai在j位的交叉操作方法为
其中b是[0,1]间的随机数;
变异操作:选取第i个个体的第j个基因aij进行变异,变异操作方法如下:
式中,amax为基因aij的上界,amin为基因aij的下界,其中,r2为一个随机数;g为当前迭代次数;Gmax是最大进化次数;r为[0,1]之间的随机数;
将个体解码为BP神经网络权值;根据权值对训练样本进行学习,得到反馈误差;根据反馈误差实现反馈控制,最终获得BP神经网络的最优权值。
5.根据权利要求4所述的基于动态目标的无人机跟踪改进方法,其特征在于,所述交叉操作,具体包括:
根据完全算术交叉算子的思想,对个体进行所述操作;完全算术交叉是对两个个体的线性组合,由凸集的性质可知,完全算术交叉算子对可行解空间是封闭的;
具体步骤如下:
A.随机产生整数ν∈{1,…,c}和u∈{1,…,c},则进行交叉操作的两个个体即为和
B.随机产生交叉因子α∈[0,1],依据公式和公式得到交叉后的个体/>和/>将交叉操作进行/>次,得到交叉后的下一代个体/>
6.根据权利要求5所述的基于动态目标的无人机跟踪改进方法,其特征在于,所述变异操作,具体包括:
变异操作:根据非一致变异的思想,对个体进行变异操作,步骤如下:
A.随机产生变异因子β∈[0,1];
依据公式其中Δd∈[C1,C2],C1=min(2Wcand_x,2Wcand_y),C2=max(2Wcand_x,2Wcand_y),得到变异后的下一代个体/>
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011018319.9A CN112102366B (zh) | 2020-09-24 | 2020-09-24 | 基于动态目标的无人机跟踪改进算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011018319.9A CN112102366B (zh) | 2020-09-24 | 2020-09-24 | 基于动态目标的无人机跟踪改进算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112102366A CN112102366A (zh) | 2020-12-18 |
CN112102366B true CN112102366B (zh) | 2024-04-02 |
Family
ID=73756119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011018319.9A Active CN112102366B (zh) | 2020-09-24 | 2020-09-24 | 基于动态目标的无人机跟踪改进算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112102366B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113219832A (zh) * | 2021-05-10 | 2021-08-06 | 西安理工大学 | 一种自适应迭代学习非一致目标跟踪控制器设计方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722714A (zh) * | 2012-05-18 | 2012-10-10 | 西安电子科技大学 | 基于目标跟踪的人工神经网络扩张式学习方法 |
CN103149940A (zh) * | 2013-03-27 | 2013-06-12 | 清华大学 | 一种结合均值移动与粒子滤波的无人机目标跟踪方法 |
CN104484833A (zh) * | 2014-12-02 | 2015-04-01 | 常州大学 | 基于遗传学算法改进的rbf-bp神经网络的光伏发电输出功率追踪算法 |
KR101589149B1 (ko) * | 2015-05-27 | 2016-02-03 | 수원대학교산학협력단 | Rbfnn 패턴 분류기와 객체 추적 알고리즘을 사용한 얼굴 인식-얼굴 추적 방법 및 이를 실행하기 위한 시스템 |
KR101650136B1 (ko) * | 2016-02-05 | 2016-08-25 | 김석준 | 원위치 자동복귀·컬러트래킹 자동추적을 갖는 스마트 드론 장치 |
CN110555386A (zh) * | 2019-08-02 | 2019-12-10 | 天津理工大学 | 一种基于动态贝叶斯的人脸识别身份认证方法 |
CN111259750A (zh) * | 2020-01-10 | 2020-06-09 | 西北工业大学 | 一种基于遗传算法优化bp神经网络的水声目标识别方法 |
CN111580544A (zh) * | 2020-03-25 | 2020-08-25 | 北京航空航天大学 | 一种基于强化学习ppo算法的无人机目标跟踪控制方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10902243B2 (en) * | 2016-10-25 | 2021-01-26 | Deep North, Inc. | Vision based target tracking that distinguishes facial feature targets |
CN107229972A (zh) * | 2017-03-10 | 2017-10-03 | 东莞理工学院 | 一种基于拉马克获得性遗传原理的全局优化、搜索和机器学习方法 |
CN108416103A (zh) * | 2018-02-05 | 2018-08-17 | 武汉大学 | 一种串联混合动力电动汽车交直流变换器的故障诊断方法 |
US10964033B2 (en) * | 2018-08-07 | 2021-03-30 | Qualcomm Incorporated | Decoupled motion models for object tracking |
WO2020072522A1 (en) * | 2018-10-02 | 2020-04-09 | Fortem Technologies, Inc. | System and method for drone and object classification |
-
2020
- 2020-09-24 CN CN202011018319.9A patent/CN112102366B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102722714A (zh) * | 2012-05-18 | 2012-10-10 | 西安电子科技大学 | 基于目标跟踪的人工神经网络扩张式学习方法 |
CN103149940A (zh) * | 2013-03-27 | 2013-06-12 | 清华大学 | 一种结合均值移动与粒子滤波的无人机目标跟踪方法 |
CN104484833A (zh) * | 2014-12-02 | 2015-04-01 | 常州大学 | 基于遗传学算法改进的rbf-bp神经网络的光伏发电输出功率追踪算法 |
KR101589149B1 (ko) * | 2015-05-27 | 2016-02-03 | 수원대학교산학협력단 | Rbfnn 패턴 분류기와 객체 추적 알고리즘을 사용한 얼굴 인식-얼굴 추적 방법 및 이를 실행하기 위한 시스템 |
KR101650136B1 (ko) * | 2016-02-05 | 2016-08-25 | 김석준 | 원위치 자동복귀·컬러트래킹 자동추적을 갖는 스마트 드론 장치 |
CN110555386A (zh) * | 2019-08-02 | 2019-12-10 | 天津理工大学 | 一种基于动态贝叶斯的人脸识别身份认证方法 |
CN111259750A (zh) * | 2020-01-10 | 2020-06-09 | 西北工业大学 | 一种基于遗传算法优化bp神经网络的水声目标识别方法 |
CN111580544A (zh) * | 2020-03-25 | 2020-08-25 | 北京航空航天大学 | 一种基于强化学习ppo算法的无人机目标跟踪控制方法 |
Non-Patent Citations (2)
Title |
---|
基于改进卡尔曼滤波方法的机动目标跟踪研究;王建华;张琳;;现代防御技术;20060420(02);全文 * |
基于改进遗传算法和BP神经网络的人脸识别方法;龚晗义;苏赋文;高汉军;;武汉理工大学学报(信息与管理工程版);20181015(05);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112102366A (zh) | 2020-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107622182B (zh) | 蛋白质局部结构特征的预测方法及系统 | |
CN108900346B (zh) | 基于lstm网络的无线网络流量预测方法 | |
CN108647583B (zh) | 一种基于多目标学习的人脸识别算法训练方法 | |
Bridle et al. | Unsupervised classifiers, mutual information and'phantom targets | |
Joy et al. | Batch Bayesian optimization using multi-scale search | |
CN107729999A (zh) | 考虑矩阵相关性的深度神经网络压缩方法 | |
CN111414849B (zh) | 一种基于演化卷积神经网络的人脸识别方法 | |
CN110826698A (zh) | 一种通过上下文相关的图嵌入表示人群移动模式的方法 | |
CN111091871B (zh) | 蛋白质信号肽及其切割位点预测实现方法 | |
CN111626764A (zh) | 基于Transformer+LSTM神经网络模型的商品销量预测方法及装置 | |
CN113128432B (zh) | 基于演化计算的机器视觉多任务神经网络架构搜索方法 | |
CN116503676B (zh) | 一种基于知识蒸馏小样本增量学习的图片分类方法及系统 | |
CN110929798A (zh) | 基于结构优化稀疏卷积神经网络的图像分类方法及介质 | |
CN109239670B (zh) | 基于结构嵌入和深度神经网络的雷达hrrp识别方法 | |
CN112102366B (zh) | 基于动态目标的无人机跟踪改进算法 | |
Ozyildirim et al. | Logarithmic learning for generalized classifier neural network | |
CN109033413B (zh) | 一种基于神经网络的需求文档和服务文档匹配方法 | |
CN112364098A (zh) | 一种基于Hadoop的分布式电力系统异常数据识别方法及系统 | |
CN117034060A (zh) | 基于ae-rcnn的洪水分级智能预报方法 | |
CN116976405A (zh) | 基于免疫优化算法的变分阴影量子神经网络 | |
Giménez et al. | Discriminative bernoulli mixture models for handwritten digit recognition | |
CN116415177A (zh) | 一种基于极限学习机的分类器参数辨识方法 | |
Yang et al. | Towards stochastic neural network via feature distribution calibration | |
CN115620046A (zh) | 一种基于半监督性能预测器的多目标神经架构搜索方法 | |
CN112446432B (zh) | 基于量子自学习自训练网络的手写体图片分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |