CN102880191B - 一种基于昆虫视觉仿生的末制导方法 - Google Patents

一种基于昆虫视觉仿生的末制导方法 Download PDF

Info

Publication number
CN102880191B
CN102880191B CN201210405297.0A CN201210405297A CN102880191B CN 102880191 B CN102880191 B CN 102880191B CN 201210405297 A CN201210405297 A CN 201210405297A CN 102880191 B CN102880191 B CN 102880191B
Authority
CN
China
Prior art keywords
ammunition
distance
target
focal point
perceptron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210405297.0A
Other languages
English (en)
Other versions
CN102880191A (zh
Inventor
王正杰
马昀
黄伟林
尚斐
吴炎烜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201210405297.0A priority Critical patent/CN102880191B/zh
Publication of CN102880191A publication Critical patent/CN102880191A/zh
Application granted granted Critical
Publication of CN102880191B publication Critical patent/CN102880191B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

本发明所述一种基于昆虫视觉仿生的末制导方法,属于制导与控制技术领域。包括基于昆虫捕捉目标过程中的“隐身”策略的制导方法以及其基于神经网络的实现方式。所述的制导方法利用视觉传感器上探测到的目标信息,估算出目标的距离以及位置信息,然后根据此信息,产生弹药需要运动的方向信息,再通过控制系统转化为控制指令,控制弹药精确击中目标。本发明设计的制导方法能使弹药得到理想的弹道,能满足弹药在仅搭载视觉传感器的情况下,用理想的弹道追踪目标的要求。实现了传统方法必须依靠主动式探测器,如雷达导引头,才能实现的“平行接近法”制导。

Description

一种基于昆虫视觉仿生的末制导方法
技术领域
本发明涉及一种基于昆虫视觉仿生的末制导方法,属于制导与控制技术领域。
背景技术
昆虫在飞行移动时,周围环境的亮度模式在视网膜上形成一系列连续变化的图像,这一系列连续变化的信息不断“流过”视网膜,好像是一种光的“流”,故称这种图像亮度模式的表观运动为光流。如图1所示,当昆虫A去捕获目标昆虫B时,如果A一直能确保自己位于目标昆虫B与焦点F的连线上,那么在昆虫B的视网膜上就无法形成关于A运动的光流,B会认为A一直是静止在焦点F处,这样A就能迅速的捕获到B。焦点F定义为:初始时刻AB连线及其延长线上选定的任意点。可以选在A点处,也可以选在无穷远处。图1所示为选择A点为焦点F的情况,图2为焦点F选在无穷远处的情况。此即为昆虫在捕捉目标过程中的“隐身”策略。
自然界飞行昆虫的眼睛无论是单眼还是复眼,都只是一种视觉传感系统,能获得目标的信息有限,但是,飞行昆虫确能依靠视觉系统实现对机动目标的捕获,能形成类似与最完美的“平行接近法”一样的导引轨迹,或者“三点法”导引轨迹,这些启发了本发明所述的基于视觉的制导系统。本发明焦点F选在无穷远处形成的即是与“平行接近法”一样的导引轨迹。
人工神经网络是通过从微观结构与功能上对生物大脑神经系统模拟而建立起来的一类模型,具有模拟生物的部分思维的能力,其特点主要是具有非线性、学习能力和自适应性,是模拟生物智能的一条重要途径。它是由简单信息处理单元互联组成的网络,能接受并处理信息。网络的信息处理由处理单元之间的相互作用来实现,它是通过把问题表达成处理单元之间的连接权来处理的。基于神经网络的以上特点,本发明应用神经网络技术来模拟飞行昆虫的制导技术,使得弹药只通过视觉传感系统便能形成理想的导引轨迹。
在传统导引方法中,“平行接近法”导引的弹道最为平直,所需的法向过载较小,可以实现全向攻击。虽然“平行接近法”被认为是一种最好的导引方法,但到目前为止,“平行接近法”并未得到广泛的应用,主要原因是实施这种导引方法对制导系统提出了严格的要求,要求制导系统在每一瞬间都要精确地测量目标、弹药速度及前置角,并严格保持“平行接近法”的运动关系,即保证弹药的相对速度始终指向目标。由于传感器的局限性等原因,很难满足上述条件,导致了“平行接近法”很难实际应用。
发明内容
本发明以飞行昆虫的感知学、神经学为基础,提出一种基于昆虫视觉仿生的末制导方法,能够使智能弹药或者其它微小型制导弹药在复杂的环境中,具有强的飞行稳定鲁棒性,能迅速捕获并攻击目标。
本发明提出的“一种基于昆虫视觉仿生的末制导方法”,包括以下步骤:
第一步:发现目标,进入末制导阶段;
第二步:指定焦点F位置;
第三步:初始化数据,包括探测步长h,弹药到焦点F的距离rp0以及方位角θ0、弹药的初始运动速率vp以及方向a0、目标到弹药的距离rt0以及方位角β0,目标到弹药的距离以及方位角由视觉传感器给出;
第四步:根据上一时刻弹药到焦点F的距离rpn-1和方位角θn-1,以及弹药的运动速率vp和方向αn1 -,加上探测步长h,应用制导方法的距离感知器和方位感知器,距离感知器和方位感知器计算的结果送入速度方向感知器中,作为速度方向感知器的输入,计算当前弹药到焦点F的距离rpn和方位角θn
由弹载微处理器实现距离感知器和方位感知器的计算功能。距离感知器和方位感知器具体的计算方法为 r pn = r pn - 1 + Δt · v p cos ( α n - 1 - θ n - 1 ) θ n = θ n - 1 + Δt · v p r pn - 1 sin ( α n - 1 - θ n - 1 ) 式中rpn-1和θn-1分别表示n-1时刻弹药到焦点F的距离和方位角,vp表示弹药速率,αn-1表示n-1时刻弹药速度方向,Δt为探测步长。rpn和θn分别表示当前,即n时刻弹药到焦点F的距离和方位角,rpn和θn作为输入数据提供给速度方向感知器。
第五步:根据当前弹药到焦点F的距离rpn和方位角θn,以及目标到弹药的距离rtn和方位角βn(此距离和方位由视觉传感器给出),加上上一时刻弹药速度方向αn-1和探测步长h,应用制导方法的速度方向感知器计算当前弹药的速度方向αn;
速度方向感知器具体来说是一个训练好的人工神经网络,输入为rpn,αn-1,θn,βn,rtn,其中,rtn和βn分别表示目标到弹药的距离和方位角,输出为αn,αn为当前时刻,即n时刻弹药速度方向,αn提供给弹药的控制系统,控制弹药的速度方向。本步骤算法由弹载微处理器实现。
第六步:第三步至第五步迭代进行,直到弹药击中目标后结束末制导阶段。
弹药的制导与控制系统如图3所示,制导系统结构如图4所示。该制导方法应用于搭载有视觉传感器的弹药中,此视觉传感器可以获取目标的光学信息,目标的光学信息经过弹载微处理器的处理,得出以上第三步以及五步需要的目标距离和方位信息。该制导方法可以由弹载微处理器来实现其计算功能,其输出为弹药的运动方向。弹药的控制系统接收此输出信息,并转化为弹药的力学控制指令,控制弹药飞向目标。
本发明的有益效果:
本发明设计的制导方法能使弹药得到理想的弹道,能满足弹药在仅搭载视觉传感器的情况下,用理想的弹道追踪目标的要求。实现了传统方法必须依靠主动式探测器(如雷达导引头)才能实现的“平行接近法”制导。
本发明不仅使“平行接近法”形成的导引轨迹成为可能,还大大降低了成本,具有很强的应用价值。
附图说明
图1是昆虫捕捉目标时的运动轨迹,焦点F选在A初始位置时的情况;
图2是昆虫捕捉目标时的运动轨迹,焦点F选在无穷远处时的情况;
图3是弹药的制导与控制系统;
图4是制导系统的结构;
图5是末制导阶段,弹目交会过程中相邻两时刻弹目关系示意图;
图6是人工神经网络结构;
图7是用本发明的制导方法绘制的初始目标速度方向αt=π/6时的仿真弹道;
图8是用本发明的制导方法绘制的初始目标速度方向αt=10π/6时的仿真弹道。
具体实施方式
下面将结合附图对本发明加以详细说明,具体实施方式如下所示:
第一步:发现目标,进入末制导阶段;
根据第二步,指定焦点F位置为弹药的初始位置;
根据第三步,初始化数据,在俯仰平面内:
弹药的初始位置选择在焦点F处,即rp0=0(m),θ0=0(rad);
弹药速率为,vp=100(m/s);
弹药初始速度方向为,α0=0(rad);
目标初始位置为,xt0=1000(m),yt0=0(m),即rt0=1000(m),β0=0(rad)。
根据第四步,计算当前弹药到焦点F的距离和方位。设目标的速度大小为vt=30(m/s),速度方向与x轴的夹角为αt=π/6或αt=10π/6,且目标速度大小和方向时刻保持不变,选择视觉传感器的探测步长为h=0.1s。
末制导阶段弹药和目标交会过程中n时刻以及n-1时刻关系如图5所示。图中,p为弹药,t为目标,θ为弹药方位角,rp为p到焦点F的距离,rt为p测得的t到p的距离,vp为p的速度大小,α为p速度矢量与x轴夹角(即为p运动方向),设p的视线正前方总是与其速度方向重合,则β就可以表示t相对p的方位角。以上变量θ,rp,rt,vp,α,β若带角标n-1,则表示其在n-1时刻的数据,若带角标n,则表示其在n时刻的数据。
由于弹药的视觉传感器可以测得目标距离rt和方位角β。根据图4描述的制导系统结构,可以得出:
对于距离感知器:rpn=f(rpn-1,αn-1,θn-1)
对于速度方向感知器:αn=f(rpn,αn-1,θn,βn,rtn)
对于方位感知器:θn=f(rpn-1,αn-1,θn-1)
由运动关系,有: r · p = v p cos ( α - θ ) θ · = v p r p sin ( α - θ )
使用欧拉法进行数值积分,下一时刻的rp和θ可以用下面公式求得:
r pn = r pn - 1 + Δt · v p cos ( α n - 1 - θ n - 1 ) θ n = θ n - 1 + Δt · v p r pn - 1 sin ( α n - 1 - θ n - 1 )
即,只要知道了初始的rp和θ,以及每一时刻的弹药运动方向αn,可以用数值积分的方法求得每一步弹药到焦点的距离和方位。
根据第五步,计算当前弹药的运动方向。神经网络的结构如图6所示,在此网络中,每个神经元用一个节点表示。网络由输入层、隐层和输出层节点组成。隐层层数可以是一层,也可以是多层,前层至后层节点通过权连接,即拓扑结构为有向无环图的前向网络。网络学习算法选用神经网络领域较为成熟的反向传播学习算法,实质就是根据预期的输入输出数据,通过反向传播学习规则,调整各层权值,以使神经网络“学会”输入输出数据的映射关系。
具体的反向传播学习算法如下:
1)设置初始权系W(0),即图6中1w、2w、3w,它是较小的随机非零值。
2)给定输入和输出样本,计算网络的输出。
设在t时刻第n组样本输入:un=(rpn-1,θn-1,αn-1,rtn,βn)=(u1n,u2n,u3n,u4n,u5n)
                  输出:dn=rpn=dln
对于第一隐层的第一个节点,其输入为u1n~u5n,对应的权系数为1w111w51,输出为1y1n(t),设输入的加权和函数为1x1n(t),则
x 1 n 1 ( t ) = Σ j = 1 5 u jn w j 1 - - - ( 1 )
                                1y1n(t)=f[1x1n(t)]            (2)
其中f(·)是节点函数,取可微的S型函数:
f ( x ) = 1 - e - x 1 + e - x - - - ( 3 )
以后每个节点都按照式(1)~式(3)的方法计算,即每个节点都接受上层各节点输出的加权和,并且作用于自身的节点函数,得出输出值作为下层各节点的输入。由此最终得到输出yn(t)。
3)计算网络的目标函数J
设En为在第n组样本输入时,网络的目标函数,取L2范数,则
E n ( t ) = 1 2 | | d n - d n ( t ) | | 2 2 = 1 2 Σ k [ d kn - y kn ( t ) ] 2 = 1 2 Σ k e kp 2 ( t ) - - - ( 4 )
式中,ykn(t)是在第n组样本输入时,经t次权值调整后网络的输出;k是输出层第k个节点。由于本发明神经网络输出只有一项,因此k=1。
网络的总目标函数:
J ( t ) = Σ n E n ( t ) - - - ( 5 )
作为对网络学习状况的评价。
4)判别
J(t)≤ε            (6)
算法结束;否则至步骤5)。式中,ε是预先确定的,ε>0。
5)反向传播计算
由输出层,依据J,按照梯度下降法反向计算,可逐层调整权值。
取步长为常值,可以得到神经元i到神经元j的连接权wij的t+1次调整算式:
w ij ( t + 1 ) = w ij ( t ) - η ∂ J ( t ) ∂ w ij ( t ) = w ij ( t ) - η Σ n ∂ E n ( t ) ∂ w ij ( t ) = w ij ( t ) + Δw ij ( t ) - - - ( 7 ) 式中,η为学习算子,在0到1之间取值,它越大,学习速率越快,所以在不引起网络震荡的情况下,η取值应该越大越好。
权值调整一次后返回步骤2),这样经过多次调整权值,就得到了期望的权值,反向传播算法结束。
根据传统的“三点法”导引律得到弹药目标交会弹道,于是就知道了每一时刻弹弹药目标坐标。如图5所示,在n-1时刻p、t分别位于pn-1、tn-1位置,在n时刻p、t分别位于pn、tn位置。由于知道了p与t每一时刻的坐标,因此每一时刻p到O的距离rp就可以算出来,同样p相对于焦点F转过的角度θ也可以算出来,n-1时刻p相对于焦点F转过的角度为θn-1,n时刻p相对于焦点F转过的角度为θn。如果相邻两个间隔点的时间选取得很短,那么就可以认为是p在n-1时刻的速度矢量方向,它与x轴的夹角为αn-1,可以以此表示p的运动方向。设p的视线正前方与其速度方向始终保持一致,那么由图5中的βn和rtn就可以确定t在p视场中的位置,βn为目标到弹药的方位角,rtn为目标到弹药的距离。也就是说,神经网络训练需要的输入rpn,αn-1,θn,βn,rtn以及输出αn都通过弹药目标相对运动每一时刻的坐标得到。
根据弹药目标交会过程中能遇见的所有交会情况,设定不同的初始数据,包括焦点F的位置,弹药到焦点的距离以及方位,弹药的初始运动速度大小以及方向,目标到弹药的距离以及方位,并记录下对应的弹目坐标,以此转化为神经网络训练需要的输入rpn,αn-1,θn,βn,rtn以及输出αn,根据这些输入输出数据,采用反向传播学习规则训练神经网络,得到合适的各层神经网络的权值。
根据第六步,将第三步至第五步的计算结果迭代进行,可得仿真结果如图7、图8所示。
其中图7为αt=π/6时的弹道,8图为αt=10π/6时的弹道。
仿真结果显示,弹药能按要求击中目标。如果弹药初始位置选在离焦点很远处,即rp0值选得很大,则可得到平行接近弹道。
以上所述为本发明的较佳实施例,不应该局限于该实施例和附图所公开的内容。凡是不脱离本发明所公开的精神下完成的等效或修改,都落入本发明保护的范围。

Claims (2)

1.一种基于昆虫视觉仿生的末制导方法,其特征包括以下步骤: 
A、发现目标,并进入末制导阶段; 
B、指定焦点F位置; 
C、初始化数据,包括探测步长Δt,弹药到焦点F的距离rp0以及方位角θ0、弹药的初始运动速率vp以及方向α0、目标到弹药的距离rt0以及方位角β0,目标到弹药的距离以及方位角由视觉传感器给出; 
D、根据上一时刻弹药到焦点F的距离rpn-1和方位角θn-1,以及弹药的运动速率vp和方向αn-1,加上探测步长Δt,应用制导方法的距离感知器:rpn=f(rpn-1n-1,θn-1)和方位感知器:θn=f(rpn-1n-1n-1),计算当前弹药到焦点F的距离rpn和方位角θn,并把此计算结果送入到速度方向感知器中,作为速度方向感知器的输入,其中,速度方向感知器为:αn=f(rpnn-1nn,rtn);弹药到焦点F的距离和方位数据,是应用数值积分方法计算方程 
求得;采用欧拉法进行数值积分,则距离感知器和方位感知器具体的计算方法为 
E、根据当前弹药到焦点F的距离rpn和方位角θn,以及目标到弹药的距离rtn和方位角βn,加上上一时刻弹药速度方向αn-1和探测步长h,应用制导方法的速度方向感知器计算当前弹药的速度方向αn;速度方向感知器计算弹药运动方向:应用人工神经网络及离线的反向传播学习规则得到神经网络的各层权值; 
F、以上C-E步骤迭代进行,直到弹药击中目标,结束末制导阶段,
以上C-E中,p为弹药,t为目标,θ为弹药方位角,rp为p到焦点F的距离,rt为p测得的t到p的距离,vp为p的速度大小,α为p速度矢量与x轴夹角,即为p运动方向,设p的视线正前方总是与其速度方向重合,则β就可以表示t相对p的方位角 ,以上变量 θ,rp,rt,vp,α,β若带角标n-1,则表示其在n-1时刻的数据,若带角标n,则表示其在n时刻的数据;Δt为探测步长。 
2.如权利要求1所述的基于昆虫视觉仿生的末制导方法,其特征在于:视觉传感器获得的弹药的距离以及方位数据为输入数据,弹药一直飞行于焦点F和目标的连线上,并以此飞行轨迹击中目标。 
CN201210405297.0A 2012-10-23 2012-10-23 一种基于昆虫视觉仿生的末制导方法 Expired - Fee Related CN102880191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210405297.0A CN102880191B (zh) 2012-10-23 2012-10-23 一种基于昆虫视觉仿生的末制导方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210405297.0A CN102880191B (zh) 2012-10-23 2012-10-23 一种基于昆虫视觉仿生的末制导方法

Publications (2)

Publication Number Publication Date
CN102880191A CN102880191A (zh) 2013-01-16
CN102880191B true CN102880191B (zh) 2015-02-11

Family

ID=47481559

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210405297.0A Expired - Fee Related CN102880191B (zh) 2012-10-23 2012-10-23 一种基于昆虫视觉仿生的末制导方法

Country Status (1)

Country Link
CN (1) CN102880191B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108490773A (zh) * 2018-03-16 2018-09-04 北京理工大学 一种基于视觉传感的仿生分段复合末制导方法
CN111766874B (zh) * 2020-06-12 2024-06-11 广州极飞科技股份有限公司 作业设备的控制方法及相关装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2909458B1 (fr) * 2006-12-01 2009-01-23 Thales Sa Procede d'estimation du site d'un projectile balistique.
CN100565087C (zh) * 2007-05-14 2009-12-02 王林波 军警用非致命杀伤弹-壳式小比动能弹
CN101363699A (zh) * 2007-08-06 2009-02-11 孙再庸 一种可自旋稳定的灭火火箭弹及其发射装置及系统
CN101923669A (zh) * 2008-07-18 2010-12-22 史迪芬·凯斯 智能的适应式设计
CN102156198A (zh) * 2011-02-27 2011-08-17 中北大学 利用转速测试弹丸炮口速度的方法

Also Published As

Publication number Publication date
CN102880191A (zh) 2013-01-16

Similar Documents

Publication Publication Date Title
Xie et al. Unmanned aerial vehicle path planning algorithm based on deep reinforcement learning in large-scale and dynamic environments
Wan et al. Robot-assisted pedestrian regulation based on deep reinforcement learning
CN109933086A (zh) 基于深度q学习的无人机环境感知与自主避障方法
CN110782481A (zh) 无人艇智能决策方法及系统
CN110928329B (zh) 一种基于深度q学习算法的多飞行器航迹规划方法
CN109633631A (zh) 一种多功能侦察雷达作战任务自动规划方法
CN105654500A (zh) 基于仿生鸽群优化视觉注意机制的无人机目标检测方法
CN104317305B (zh) 一种面向复杂战场威胁的射前航迹确定方法
CN102156992A (zh) 两站多目标无源定位与跟踪的智能仿生方法
CN114037050B (zh) 一种基于脉冲神经网络内在可塑性的机器人退化环境避障方法
Xie et al. Dual-channel and bidirectional neural network for hypersonic glide vehicle trajectory prediction
CN114638339A (zh) 基于深度强化学习的智能体任务分配方法
CN106155082A (zh) 一种基于光流的无人机仿生智能避障方法
CN102880191B (zh) 一种基于昆虫视觉仿生的末制导方法
Jiang et al. Realizing midcourse penetration with deep reinforcement learning
Strydom et al. UAS stealth: Target pursuit at constant distance using a bio-inspired motion camouflage guidance law
Minglang et al. Maneuvering decision in short range air combat for unmanned combat aerial vehicles
CN106934339A (zh) 一种目标跟踪、跟踪目标识别特征的提取方法和装置
CN114548674B (zh) 面向多智能体对抗场景的威胁态势评估方法、装置及设备
JP2001194097A (ja) 飛しょう体の誘導装置
Qi et al. Detection and tracking of a moving target for UAV based on machine vision
Wang et al. Vision-based bio-inspired guidance law for small aerial vehicle
CN115187631A (zh) 基于深度元强化学习的无人武器平台视觉主动跟踪瞄准方法
Cheng et al. A novel decision-making method based on reinforcement learning for underwater robots
Plunkett et al. Modeling Coordinate Transformations in the Dragonfly Nervous System

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150211

Termination date: 20201023