CN115657689B - 一种基于轨迹预测的自主水下航行器目标跟踪控制方法 - Google Patents

一种基于轨迹预测的自主水下航行器目标跟踪控制方法 Download PDF

Info

Publication number
CN115657689B
CN115657689B CN202211670756.8A CN202211670756A CN115657689B CN 115657689 B CN115657689 B CN 115657689B CN 202211670756 A CN202211670756 A CN 202211670756A CN 115657689 B CN115657689 B CN 115657689B
Authority
CN
China
Prior art keywords
underwater vehicle
autonomous underwater
target
track
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211670756.8A
Other languages
English (en)
Other versions
CN115657689A (zh
Inventor
曹翔
孙长银
吴巧云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN202211670756.8A priority Critical patent/CN115657689B/zh
Publication of CN115657689A publication Critical patent/CN115657689A/zh
Application granted granted Critical
Publication of CN115657689B publication Critical patent/CN115657689B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于轨迹预测的自主水下航行器目标跟踪控制方法,基于TPENN神经网络进行目标轨迹预测,得到预测的逃逸目标轨迹;根据预测的逃逸目标轨迹,基于深度强化进行动态目标跟踪控制,实现安全避障、水流补偿和轨迹跟踪。本发明将轨迹预测问题转化为时间序列的预测问题,将TPENN神经网络模型引入目标轨迹预测之中,利用TPENN神经网络挖掘轨迹数据的内部相关性,解决轨迹预测难题;在动态逃逸目标轨迹预测的基础上,针对自主水下航行器非线性模型不确定特性和水流影响,借助强化学习方法的非线性、强学习,不依赖模型的特性,同时引入深度学习算法克服强化学习的维度灾难问题,从而实现航行器自主动态目标跟踪控制。

Description

一种基于轨迹预测的自主水下航行器目标跟踪控制方法
技术领域
本发明属于水下航行器控制技术领域,具体涉及一种基于轨迹预测的自主水下航行器目标跟踪控制方法。
背景技术
深海水下追踪与博弈是未来水下无人战争的重要形式。自主水下航行器自带能源动力、航行范围广而深的特性,使其成为水下无人战争的重要载体,在海洋工程与海防军事领域有着十分广泛的应用前景,发挥着不可代替的作用。特别是基于水下动态目标跟踪控制技术,在国家海防安全领域得到高度关注,是水下逃逸目标追踪控制、敌对目标拦截围捕及各种水下博弈对抗研究的关键与核心技术。
目标跟踪是指自主水下航行器在控制律的激励下持续跟踪轨迹连续变化的目标,强调在指定时间到达指定位置,是一种严格考虑时间约束的动态跟踪。由于自主水下航行器自身非线性和模型不确定性的存在,早期普遍使用的PID控制、反步控制等依赖自主水下航行器模型的控制策略,很难实现精确的水下目标跟踪。近年来,针对自主水下航行器非线性和模型不确定性特性,新型变结构滑模控制、自适应控制、智能控制等得到了广泛关注。
然而,在水下目标跟踪控制研究中,通常将自主水下航行器的性能设置为与目标性能相同,甚至更优,采用跟随的方式能够实现对目标的跟踪。当自主水下航行器的性能比逃逸目标更差时,再采用跟随的方式很难实现目标跟踪。自主水下航行器系统本身的非线性、强耦合、模型不确定特性,水下海流及外界扰动因素影响,使得准确有效的自主水下航行器目标跟踪控制律的设计非常困难。现有控制策略中,要么将自主水下航行器简化为线性系统,要么训练样本难获取,无法满足在线跟踪目标的需求。因此,自主水下航行器在复杂海洋环境下的动态目标跟踪控制仍有很大的提升空间。
发明内容
本发明所要解决的技术问题是针对上述现有技术的不足,提供一种基于轨迹预测的自主水下航行器目标跟踪控制方法。
为实现上述技术目的,本发明采取的技术方案为:
一种基于轨迹预测的自主水下航行器目标跟踪控制方法,包括
步骤1、基于TPENN神经网络进行目标轨迹预测,得到预测的逃逸目标轨迹;
步骤2、根据预测的逃逸目标轨迹,基于深度强化进行动态目标跟踪控制,实现安全避障、水流补偿和轨迹跟踪。
为优化上述技术方案,采取的具体措施还包括:
上述的步骤1将逃逸目标当前时刻t时间序列轨迹坐标输入已学习的TPENN神经网络,得到逃逸目标未来时刻的预测轨迹坐标。
上述的TPENN神经网络包括输入层、隐含层、输出层和承接层;
其中,承接层的激活函数为恒等函数,用于存储记忆隐含层单元上一时刻的输出,当作一步延时算子;
假设在时刻t,TPENN神经网络的输入是U(t),隐含层的输出为X(t),整个网络的输出为Y(t),ω123分别表示输入层与隐含层、承接层与隐含层、隐含层与输出层之间的连接权值,b和c分别代表隐含层和输出层的偏置,则神经网络的计算过程表示为
Figure GDA0004116886020000021
Y(t)=g(ω3X(t)+c)                           (7)
神经网络采用时间反向传播算法进行学习和训练,其目标函数为
Figure GDA0004116886020000022
Yd(t)表示预期的输出;
由于神经网络的输入是具有时间序列的历史数据,因此引入时间回归因子fTP(t)得到神经网络改进后的目标函数ETP(t):
Figure GDA0004116886020000023
Figure GDA0004116886020000024
其中,α表示是打折率,λ表示样本数量,t表示迭代次数。
上述的TPENN神经网络的学习方式为:
输入训练样本数据,根据BPTT算法,得到ETP(t)的偏导数,其权重计算如式(11)所示:
Figure GDA0004116886020000031
η1、η2、η3是ω1、ω2、ω3学习步长;
i=1,2,...,m;j=1,2,...,n;q=1,2,...,r;l=1,2,...,n;
Figure GDA0004116886020000032
分别表示第j层输出层的误差、第i层输入层的误差;
通过神经网络的训练,得到TPENN神经网络的各项参数。
上述的步骤1通过水下声呐与光学传感器得到逃逸目标所有历史时刻位姿数据,作为TPENN神经网络学习训练样本。
上述的步骤2所述控制过程具体为:
从预测的逃逸目标轨迹中获取期望的自主水下航行器位姿矢量ηd=[xd yd zd φdθd ψd]T,与自主水下航行器当前状态矢量η=[x y z φ θ ψ]T比较,产生航向以及位置轨迹误差,并与自主水下航行器的状态信息整合生成状态误差向量,输入DRL深度强化学习模型中,根据强化学习算法输出最优的运动速度控制信号矢量
Figure GDA0004116886020000033
并与自主水下航行器输出速度信号矢量
Figure GDA0004116886020000034
比较,产生自主水下航行器跟踪速度误差
Figure GDA0004116886020000035
输入变结构滑模动力学跟踪控制器SMC,由此产生自主水下航行器的动力学推进控制信号
Figure GDA0004116886020000036
驱动自主水下航行器的速度矢量矩阵
Figure GDA0004116886020000037
跟踪
Figure GDA0004116886020000038
通过坐标转换
Figure GDA0004116886020000039
得到AUV实际位姿矢量η=[x y z φ θ ψ]T,从而实现自主水下航行器对动态目标的高效精准跟踪;
其中,x dyd zd分别为自主水下航行器在惯性坐标系中期望的位置;φd θd ψd分别为自主水下航行器对惯性坐标系中期望的横倾角、纵倾角和艏向角;
x y z分别为自主水下航行器在惯性坐标系中当前的位置;φθψ分别为自主水下航行器对惯性坐标系中当前的横倾角、纵倾角和艏向角;
ud vd wd分别为自主水下航行器线速度矢量在载体坐标系中的3个分量;pd qd rd分别为自主水下航行器角速度矢量在载体坐标系中的3个分量。
上述的DRL深度强化学习模型包括DRL避障模块、导航模块和动作调度器;
避障模块,用于DRL通过双Q-network学习模式实现避开障碍物;
导航模块,用于通过双Q-network学习的方式完成自主水下航行器导航策略的在线训练,通过在线学习解决目标跟踪的最终策略;
动作调度器,用于对导航模块在线部分进行有效的探索和加速训练,并生成自主水下航行器运动学控制指令。
上述的避障模块设置碰撞负奖励,将避障目标表达为强化学习的一般目标,即寻求一种使总奖励最大化的策略,经过训练,由双Q-network得到学习Q函数,最终收敛于最优Q函数附近;
所述导航模块使用双Q-network中的一个网络分别将获得的局部障碍物信息、预测轨迹信息转化为奖励,并将奖励结果立即反馈以改进导航策略;同时,使用另一个完全连接的Q-network在线学习的行为价值函数。
所述动作调度器利用从避障模块、导航模块学习到的策略,在重置缓冲区中积累训练经验,随着时间的推移,调度器逐渐从静态学习策略转移到在线学习策略,在线探索和优化一直持续到产生稳定的自主水下航行器跟踪的运动学速度控制信号。
上述的步骤2进行动态目标跟踪控制时,将时变立体水流模型加入到载体坐标系的速度矢量中进行控制补偿;
所述时变立体水流模型中,自主水下航行器动力学方程的动力项为:水动力+推进机构推力+水流干扰力。
本发明具有以下有益效果:
在本发明中将轨迹预测问题转化为时间序列的预测问题,将TPENN(Time ProfitElman Neural Network)神经网络模型引入目标轨迹预测之中,利用TPENN神经网络挖掘轨迹数据的内部相关性,解决轨迹预测难题;
在动态逃逸目标轨迹预测的基础上,针对自主水下航行器非线性模型不确定特性和水流影响,借助强化学习方法的非线性、强学习,不依赖模型的特性,同时引入深度学习算法克服强化学习的维度灾难问题,从而实现航行器自主动态目标跟踪控制。
附图说明
图1为本发明的逃逸目标位置计算图;
图2为本发明的TPENN学习训练与运动轨迹预测生成图;
图3为本发明的深度强化学习目标跟踪控制图;
图4为本发明的DRL深度强化学习控制模型图;
图5为本发明的TPENN轨迹预测流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明中的步骤虽然用标号进行了排列,但并不用于限定步骤的先后次序,除非明确说明了步骤的次序或者某步骤的执行需要其他步骤作为基础,否则步骤的相对次序是可以调整的。可以理解,本文中所使用的术语“和/或”涉及且涵盖相关联的所列项目中的一者或一者以上的任何和所有可能的组合。
如图1-5所示,一种基于轨迹预测的自主水下航行器目标跟踪控制方法,包括:
步骤1、基于TPENN神经网络进行目标轨迹预测,得到预测的逃逸目标轨迹;
由于自主水下航行器和逃逸目标的航行速度不同,特别是逃逸目标航行速度快时,如果只是对动态目标被动跟随,很难跟踪上目标,这时需要准确预测逃逸目标未来的逃逸路径,实现主动跟踪。
在水下动态目标跟踪控制中,逃逸目标的运动状态具有一定的连续性,其运动轨迹不会发生跳变,这就说明其在某一时刻的位置与过去时刻的位置具有一定的相关性。
在目标之前的轨迹上按照一定的时间间隔选取若干个位置点,根据轨迹连续性的性质,利用前若干时刻的位置,对下一时刻的位置进行预测。
在本发明中将轨迹预测问题转化为时间序列的预测问题,将TPENN(Time ProfitElman Neural Network)神经网络模型引入目标轨迹预测之中,利用TPENN神经网络挖掘轨迹数据的内部相关性,解决轨迹预测难题。具体方法如下:
①逃逸目标坐标获取
如图1所示,通过水下声呐与光学传感器,自主水下航行器与目标物及各类障碍物每一时刻的相对距离是确定的,根据坐标变换可以得到逃逸目标在每个时刻的位置坐标,从而得到逃逸目标所有历史时刻位姿数据,进而得到轨迹预测神经网络学习训练样本。
设(xe,ye)为逃逸目标在惯性栅格坐标系中的坐标,(xr,yr)为自主水下航行器在惯性栅格坐标系中的坐标,相互转换方式为式(1):
Figure GDA0004116886020000061
(1)
其中,r为动态目标与自主水下航行器之间的距离;
θl是逃逸目标在自主水下航行器载体坐标系中的矢量角,θr为自主水下航行器水平方向角。
②轨迹预测生成
ENN(Elman Neural Network)神经网络模型是一种具有多层动态递归结构的循环神经网络,对历史数据具有高度敏感性和动态记忆能力,特别适合处理时间序列问题,为了提高模型的学习收敛速度,本发明将时间收益因子引入到ENN神经网络的目标函数中,提出一种改进的ENN神经模型TPENN,实现逃逸目标运动轨迹在线预测。动态逃逸目标运动轨迹预测生成过程见图2。它由在线学习训练与运动轨迹在线预测生成两大部分组成。具体描述如下:
本发明利用截取的时间连续的逃逸目标航行数据,每个数据包含该时刻逃逸目标的三维坐标及其航向角数据。以对x坐标进行预测为例,利用历史数据包中t时刻前n个连续时刻的轨迹数据,预测t时刻x坐标。样本数据构建完成之后,进而利用样本数据训练TPENN神经网络。
然后应用当前时刻的逃逸目标轨迹数据,由学习收敛后的TPENN神经网络直接输出未来时刻系列轨迹坐标与姿态角数值,预测生成动态目标的未来逃逸轨迹。
自主水下航行器目标跟踪是先预测目标的运动轨迹,然后自主水下航行器根据预测的轨迹开始的跟踪上目标。
通过目标估计预测可以提高跟踪效率。目标预测的流程,如图5所示,本发明实施例部分提供一种基于TPENN的目标轨迹预测方法,包括:
1:构建样本数据
在惯性系中,目标的位置用xe,ye表示。本发明认为的变化xe,ye坐标与航向角直接相关,而俯仰角的变化又影响坐标的变化。因此,在预测目标的轨迹时,坐标xe,ye是独立预测的。坐标xe,ye利用自主水下航行器航向角数据进行预测。以x坐标的预测为例,利用前n个时刻的轨迹数据来预测tn+1的x坐标,函数映射关系为
xd=f2(L1,L2,...,Ln)                        (3)
Li=(xi,ai)T,i∈[1,n+1]是目标在ti时刻的x坐标和航向角,xd是自主水下航行器在时间tn+1的横坐标值.
选取L1-Ln为第一组输入数据,输出数据为xd+1。以L2-Ln+1为第二组输入数据,输出数据为xd+2。以此类推,依次类推,形成式(4)和(5)所示的训练样本输入数据和训练样本输出数据。测试数据的构建方法与训练样本数据一致。
Figure GDA0004116886020000071
Figure GDA0004116886020000072
在完成样本数据构建后,为防止各个数据的取值范围过大对预测误差的不利影响,对所有数据进行归一化处理。通过训练TPENN,模型可以学习目标在一定情况下的运动规律,进而预测目标的运动轨迹。
2:确定TPENN神经网络结构
TPENN神经网络通过内部反馈结构,可以更好地处理时间序列问题。
网络一般由输入层、隐含层、输出层和承接层组成。
其中承接层的激活函数一般为恒等函数,用于存储记忆隐含层单元上一时刻的输出,可以当作一步延时算子。
假设在时刻t,TPENN神经网络的输入是U(t),隐含层的输出为X(t),整个网络的输出为Y(t),ω123分别表示输入层与隐含层、承接层与隐含层、隐含层与输出层之间的连接权值。
b和c分别代表隐含层和输出层的偏置,因此神经网络的计算过程可表示为
Figure GDA0004116886020000073
Y(t)=g(ω3X(t)+c)                           (7)
神经网络采用时间反向传播算法进行学习和训练,其目标函数为
Figure GDA0004116886020000075
Yd(t)表示预期的输出。
当网络的输入是时间序列数据时,数据距离当前预测时刻越近,对预测值的影响越大。在最小二乘数中引入时间反馈因子fTP(t)。
时间收益因子可以增强较近时间点的样本数据对预测结果的影响,而降低较远时间点的数据对预测结果的影响。
由于神经网络的输入是具有时间序列的历史数据,因此本发明考虑引入时间回归因子fTP(t)转化为神经网络的目标函数。
提出了一种基于时间回报因子的TPENN模型。
下式为时间收益因素和改进后的目标函数ETP(t):
Figure GDA0004116886020000081
Figure GDA0004116886020000082
α表示是打折率,λ表示样本数量,t表示迭代次数.
3:训练TPENN神经网络
在完成样本数据构建后,确定TPENN神经网络结构,利用样本数据对神经网络进行训练,输入训练样本,根据BPTT(Back Propagation Through Time)算法,得到ETP(t)的偏导数,其权重计算如式(11)所示:
Figure GDA0004116886020000083
η1、η2、η3是ω1、ω2、ω3学习步长;i=1,2,...,m;j=1,2,...,n;q=1,2,...,r;l=1,2,...,n.
Figure GDA0004116886020000084
分别表示第j层输出层的误差、第i层输入层的误差;
通过神经网络的训练,得到TPENN神经网络的各项参数。
4:轨迹预测
在某一时刻,目标的运动状态具有绝对连续性。它的运动轨迹不跳跃,这说明它在某一时刻的位置与它在最后时刻的位置有特定的相关性。在目标轨迹上按一定的时间间隔选择n个位置点,tn+1时刻的目标位置是未知的。根据轨迹连续性的性质,前n个的位置可以用来预测时刻tn+1的位置。
本发明将轨迹预测问题转化为时间序列预测问题。利用TPENN挖掘轨迹数据的内容相关性,解决轨迹预测问题。
步骤2、根据预测的逃逸目标轨迹,基于深度强化进行动态目标跟踪控制,实现安全避障、水流补偿和轨迹跟踪。
在动态逃逸目标轨迹预测的基础上,针对自主水下航行器非线性模型不确定特性和水流影响,借助强化学习方法的非线性、强学习,不依赖模型的特性,同时引入深度学习算法克服强化学习的维度灾难问题,从而实现航行器自主动态目标跟踪控制。
目标跟踪控制系统分为三个子任务:安全避障、水流补偿和轨迹跟踪。
安全避障任务是使自主水下航行器跟踪过程中远离障碍物;
水流补偿就是跟踪过程中补偿水流的影响;
而轨迹跟踪任务是使自主水下航行器能够按照预测生成的轨迹航行,且不受自主水下航行器模型不确定与非线性耦合影响。
图3为深度强化学习自主水下航行器动态目标跟踪控制的整体方案。
图4为深度强化学习模型的基本结构。
①深度强化学习轨迹跟踪控制原理
深度强化学习控制器是由一个外环运动学控制器与内环动力学跟踪控制器构成,控制原理如图3所示。
外环DRL(Deep Reinforcement Learning)运动学跟踪控制器负责产生自主水下航行器的运动速度控制信号;
而内环变结构滑模控制器SMC(Sliding Mode Control)负责产生自主水下航行器的动力学推进控制信号(推力与力矩)。
整个控制过程为:
从预测的逃逸目标轨迹中获取期望的自主水下航行器位姿矢量ηd=[xd yd zdφdθdψd]T,与自主水下航行器当前状态矢量η=[x y zφθψ]T比较,产生航向以及位置轨迹误差,并与自主水下航行器的状态信息整合生成状态误差向量,输入DRL深度强化学习模型中,根据强化学习算法输出最优的运动学速度控制信号矢量
Figure GDA0004116886020000091
并与自主水下航行器输出速度信号矢量
Figure GDA0004116886020000092
比较,产生自主水下航行器跟踪速度误差
Figure GDA0004116886020000101
输入内环变结构滑模控制器SMC,由此产生自主水下航行器的动力学推进控制信号(推力与力矩)
Figure GDA0004116886020000102
驱动自主水下航行器的速度矢量矩阵
Figure GDA0004116886020000103
跟踪
Figure GDA0004116886020000104
通过坐标转换
Figure GDA0004116886020000105
得到AUV实际位姿矢量η=[x y z φ θ ψ]T,从而构成一个双闭环串级跟踪控制系统,实现自主水下航行器对动态目标的高效精准跟踪;
其中,xd yd zd分别为自主水下航行器在惯性坐标系中期望的位置;φd θd ψd分别为自主水下航行器对惯性坐标系中期望的横倾角、纵倾角和艏向角;
x y z分别为自主水下航行器在惯性坐标系中当前的位置;φθψ分别为自主水下航行器对惯性坐标系中当前的横倾角、纵倾角和艏向角;
ud vd wd分别为自主水下航行器线速度矢量在载体坐标系中的3个分量;pd qd rd分别为自主水下航行器角速度矢量在载体坐标系中的3个分量。
②深度强化学习模型设计
图4为深度强化学习模型的基本结构。
DRL控制模型包含三个模块:避障模块、导航模块和动作调度器。
避障模块是DRL通过双Q-network(two-stream Q-network)学习模式实现避开障碍物。设置碰撞负奖励,将避障目标表达为强化学习的一般目标,即寻求一种使总奖励最大化的策略。经过充分的训练,由双Q-network近似得到学习Q函数,最终收敛于最优Q函数附近。配备预先训练过的避障模块的自主水下航行器将自动避开移动的障碍物。
导航模块提供了通过在线学习解决目标跟踪的最终策略,该策略也遵循DRL算法。轨迹导航模块使用双Q-network中的一个网络分别将获得的局部障碍物信息、预测轨迹信息转化为奖励(跟踪预测轨迹设置为积极的奖励,碰撞设置为消极的奖励,并在每一步设置了小的时间惩罚),并将奖励结果立即反馈以改进导航策略;同时,使用另一个完全连接的Q-network近似在线学习的行为价值函数。通过双Q-network学习的方式完成自主水下航行器导航策略的在线训练。
动作调度器:
旨在对轨迹导航模块在线部分进行有效的探索和加速训练,并生成自主水下航行器运动学控制指令。动作调度器利用从避障模块、轨迹导航模块学习到的策略,在重置缓冲区中积累足够的高质量的训练经验。随着时间的推移,调度器逐渐从静态学习策略转移到在线学习策略。在线探索和优化一直持续到产生稳定的自主水下航行器跟踪的运动学速度控制信号
Figure GDA0004116886020000106
③水流补偿模型设计
水流是水相对稳定的非周期性流动,随季节、气候、海域、地形、深度变化而变化,是时间和空间的复杂函数,目前很难用精确的数学表达式描述其运动规律。但是,考虑水下航行器的航行能力有限,只能在特定的时间段和水域内作一定距离航行,当水流随时间和空间的变化是在较大范围内发生的,而在有限的特定水域和特定时间段内,水流的流速和流向都是比较稳定的。因此,可将水流的运动简化为变化较缓慢的流动。
Figure GDA0004116886020000111
其中,x,y为惯性坐标系中自主水下航行器平面坐标,B(t)为水流模型函数,k,c为运动参数,对水流函数分别在x方向与y方向求导,可得到水流在x方向与y方向的分量。将水下航行器工作空间的三维水下环境按深度分层,每层可看作一个二维平面坐标系统,并对其进行栅格化处理,每个栅格内的海流模型相同,从而设计出三维水流模型。
对于水流对自主水下航行器轨迹跟踪跟踪控制的影响,可以通过将时变立体水流模型加入到载体坐标系的速度矢量中进行控制补偿。
将水流的速度加入到自主水下航行器的运动控制中,最后转变为一种附加的力和力矩的作用,在水流存在的情况下,水下航行器的受力除了其自身运动引起的自主水下航行器水动力(力矩)和推进器产生的推力(力矩)外,还受到水流的干扰力(力矩),因此可将自主水下航行器动力学方程的动力项变为:水动力(力矩)+推进机构推力(力矩)+水流干扰力(力矩),从而综合考虑水流的动力学影响,使得动力学控制满足目标跟踪要求,实现自主水下航行器高效可靠的跟踪控制。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。

Claims (6)

1.一种基于轨迹预测的自主水下航行器目标跟踪控制方法,其特征在于,包括
步骤1、基于TPENN神经网络进行目标轨迹预测,得到预测的逃逸目标轨迹;
所述TPENN神经网络包括输入层、隐含层、输出层和承接层;
其中,承接层的激活函数为恒等函数,用于存储记忆隐含层单元上一时刻的输出,当作一步延时算子;
假设在时刻t,TPENN神经网络的输入是U(t),隐含层的输出为X(t),整个网络的输出为Y(t),ω123分别表示输入层与隐含层、承接层与隐含层、隐含层与输出层之间的连接权值,b和c分别代表隐含层和输出层的偏置,则神经网络的计算过程表示为
Figure FDA0004116886010000011
Y(t)=g(ω3X(t)+c)                           (7)
神经网络采用时间反向传播算法进行学习和训练,其目标函数为
Figure FDA0004116886010000012
Yd(t)表示预期的输出;
由于神经网络的输入是具有时间序列的历史数据,因此引入时间回归因子fTP(t)得到神经网络改进后的目标函数ETP(t):
Figure FDA0004116886010000013
Figure FDA0004116886010000014
其中,α表示是打折率,λ表示样本数量,t表示迭代次数;
步骤2、根据预测的逃逸目标轨迹,基于深度强化进行动态目标跟踪控制,实现安全避障、水流补偿和轨迹跟踪;
步骤2所述控制过程具体为:
从预测的逃逸目标轨迹中获取期望的自主水下航行器位姿矢量ηd=[xd yd zd φd θdψd]T,与自主水下航行器当前状态矢量η=[x y z φ θ ψ]T比较,产生航向以及位置轨迹误差,并与自主水下航行器的状态信息整合生成状态误差向量,输入DRL深度强化学习模型中,根据强化学习算法输出最优的运动速度控制信号矢量
Figure FDA0004116886010000021
并与自主水下航行器输出速度信号矢量
Figure FDA0004116886010000022
比较,产生自主水下航行器跟踪速度误差
Figure FDA0004116886010000027
输入变结构滑模动力学跟踪控制器SMC,由此产生自主水下航行器的动力学推进控制信号
Figure FDA0004116886010000028
驱动自主水下航行器的速度矢量矩阵
Figure FDA0004116886010000023
跟踪自主水下航行器跟踪的运动学速度控制信号
Figure FDA0004116886010000024
通过坐标转换
Figure FDA0004116886010000025
得到AUV实际位姿矢量η=[xy z φ θ ψ]T,从而实现自主水下航行器对动态目标的高效精准跟踪;
其中,xdyd zd分别为自主水下航行器在惯性坐标系中期望的位置;φd θd ψd分别为自主水下航行器对惯性坐标系中期望的横倾角、纵倾角和艏向角;
x y z分别为自主水下航行器在惯性坐标系中当前的位置;φ θ ψ分别为自主水下航行器对惯性坐标系中当前的横倾角、纵倾角和艏向角;
ud vd wd分别为自主水下航行器线速度矢量在载体坐标系中的3个分量;pd qd rd分别为自主水下航行器角速度矢量在载体坐标系中的3个分量;
所述步骤2还包括,将时变立体水流模型加入到载体坐标系的速度矢量中进行控制补偿;
所述时变立体水流模型中,自主水下航行器动力学方程的动力项为:水动力+推进机构推力+水流干扰力。
2.根据权利要求1所述的一种基于轨迹预测的自主水下航行器目标跟踪控制方法,其特征在于,所述步骤1将逃逸目标当前时刻t时间序列轨迹坐标输入已学习的TPENN神经网络,得到逃逸目标未来时刻的预测轨迹坐标。
3.根据权利要求1所述的一种基于轨迹预测的自主水下航行器目标跟踪控制方法,其特征在于,所述TPENN神经网络的学习方式为:
输入训练样本数据,根据BPTT算法,得到ETP(t)的偏导数,其权重计算如式(11)所示:
Figure FDA0004116886010000026
η1、η2、η3是ω1、ω2、ω3学习步;
i=1,2,...,m;j=1,2,...,n;q=1,2,...,r;l=1,2,...,n;
Figure FDA0004116886010000031
分别表示第j层输出层的误差、第i层输入层的误差;
通过神经网络的训练,得到TPENN神经网络的各项参数。
4.根据权利要求1所述的一种基于轨迹预测的自主水下航行器目标跟踪控制方法,其特征在于,所述步骤1通过水下声呐与光学传感器得到逃逸目标所有历史时刻位姿数据,作为TPENN神经网络学习训练样本。
5.根据权利要求1所述的一种基于轨迹预测的自主水下航行器目标跟踪控制方法,其特征在于,所述DRL深度强化学习模型包括DRL避障模块、导航模块和动作调度器;
避障模块,用于DRL通过双Q-network学习模式实现避开障碍物;
导航模块,用于通过双Q-network学习的方式完成自主水下航行器导航策略的在线训练,通过在线学习解决目标跟踪的最终策略;
动作调度器,用于对导航模块在线部分进行有效的探索和加速训练,并生成自主水下航行器运动学控制指令。
6.根据权利要求5所述的一种基于轨迹预测的自主水下航行器目标跟踪控制方法,其特征在于,所述避障模块设置碰撞负奖励,将避障目标表达为强化学习的一般目标,以寻求一种使总奖励最大化的策略,经过训练,由双Q-network得到学习Q函数,最终收敛于最优Q函数附近;
所述导航模块使用双Q-network中的一个网络分别将获得的局部障碍物信息、预测轨迹信息转化为奖励,并将奖励结果立即反馈以改进导航策略;同时,使用另一个完全连接的Q-network在线学习的行为价值函数;
所述动作调度器利用从避障模块、导航模块学习到的策略,在重置缓冲区中积累训练经验,随着时间的推移,调度器逐渐从静态学习策略转移到在线学习策略,在线探索和优化一直持续到产生稳定的自主水下航行器跟踪的运动学速度控制信号。
CN202211670756.8A 2022-12-26 2022-12-26 一种基于轨迹预测的自主水下航行器目标跟踪控制方法 Active CN115657689B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211670756.8A CN115657689B (zh) 2022-12-26 2022-12-26 一种基于轨迹预测的自主水下航行器目标跟踪控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211670756.8A CN115657689B (zh) 2022-12-26 2022-12-26 一种基于轨迹预测的自主水下航行器目标跟踪控制方法

Publications (2)

Publication Number Publication Date
CN115657689A CN115657689A (zh) 2023-01-31
CN115657689B true CN115657689B (zh) 2023-04-07

Family

ID=85023532

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211670756.8A Active CN115657689B (zh) 2022-12-26 2022-12-26 一种基于轨迹预测的自主水下航行器目标跟踪控制方法

Country Status (1)

Country Link
CN (1) CN115657689B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116203932B (zh) * 2023-05-06 2023-07-21 安徽大学 基于模型的无人艇执行器故障检测方法、存储介质及设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111324146B (zh) * 2020-03-09 2023-06-13 河海大学常州校区 一种水下巡检机器人的轨迹跟踪控制方法
CN115509241A (zh) * 2021-06-22 2022-12-23 中移系统集成有限公司 水下机器人轨迹跟踪控制方法及装置
CN114995426A (zh) * 2022-06-06 2022-09-02 江苏大学 一种基于神经网络动力学模型的无人驾驶车辆轨迹跟踪控制方法、系统及车载控制设备
CN115480580A (zh) * 2022-09-23 2022-12-16 安徽大学 一种基于nmpc的水下机器人路径跟踪与避障的控制方法

Also Published As

Publication number Publication date
CN115657689A (zh) 2023-01-31

Similar Documents

Publication Publication Date Title
CN108803321B (zh) 基于深度强化学习的自主水下航行器轨迹跟踪控制方法
Xiang et al. Robust fuzzy 3D path following for autonomous underwater vehicle subject to uncertainties
CN109765929B (zh) 一种基于改进rnn的uuv实时避障规划方法
CN111240345B (zh) 基于双bp网络增强学习框架的水下机器人轨迹跟踪方法
CN111650948B (zh) 一种可底栖式auv的水平面轨迹快速跟踪控制方法
CN109050835B (zh) 全驱动自主水下机器人结构及回收三维路径跟踪方法
Hadi et al. Deep reinforcement learning for adaptive path planning and control of an autonomous underwater vehicle
Cui et al. Autonomous boat driving system using sample‐efficient model predictive control‐based reinforcement learning approach
CN112965371B (zh) 基于固定时间观测器的水面无人艇轨迹快速跟踪控制方法
CN108897217A (zh) 一种基于模型预测控制的欠驱动水面船轨迹跟踪控制方法
Wang et al. A simultaneous planning and control method integrating APF and MPC to solve autonomous navigation for USVs in unknown environments
Song et al. Guidance and control of autonomous surface underwater vehicles for target tracking in ocean environment by deep reinforcement learning
CN113848974B (zh) 一种基于深度强化学习的飞行器轨迹规划方法及系统
CN115657689B (zh) 一种基于轨迹预测的自主水下航行器目标跟踪控制方法
CN114115262B (zh) 基于方位角信息的多auv执行器饱和协同编队控制系统和方法
Chocron et al. Dynamic reconfiguration of autonomous underwater vehicles propulsion system using genetic optimization
Yan et al. Reinforcement learning-based autonomous navigation and obstacle avoidance for USVs under partially observable conditions
Wang et al. Path-following optimal control of autonomous underwater vehicle based on deep reinforcement learning
CN112051742A (zh) 一种基于mpc的全驱动船舶航迹跟踪方法
Liu et al. A hierarchical disturbance rejection depth tracking control of underactuated AUV with experimental verification
Zhang et al. Tracking fault-tolerant control based on model predictive control for human occupied vehicle in three-dimensional underwater workspace
Cai et al. Autonomous manipulation of an underwater vehicle-manipulator system by a composite control scheme with disturbance estimation
Zheng et al. DDPG based LADRC trajectory tracking control for underactuated unmanned ship under environmental disturbances
CN114943168B (zh) 一种水上浮桥组合方法及系统
CN115480580A (zh) 一种基于nmpc的水下机器人路径跟踪与避障的控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant