CN117170382A - 一种适用于同向实时点位跟踪的双无人船协同控制方法 - Google Patents

一种适用于同向实时点位跟踪的双无人船协同控制方法 Download PDF

Info

Publication number
CN117170382A
CN117170382A CN202311310809.XA CN202311310809A CN117170382A CN 117170382 A CN117170382 A CN 117170382A CN 202311310809 A CN202311310809 A CN 202311310809A CN 117170382 A CN117170382 A CN 117170382A
Authority
CN
China
Prior art keywords
ship
following
real
dqn
longitudinal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311310809.XA
Other languages
English (en)
Other versions
CN117170382B (zh
Inventor
栾添添
吴凯
孙明晓
尤波
姚汉红
徐东昊
刘彩云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202311310809.XA priority Critical patent/CN117170382B/zh
Publication of CN117170382A publication Critical patent/CN117170382A/zh
Application granted granted Critical
Publication of CN117170382B publication Critical patent/CN117170382B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供一种适用于同向点位跟踪的双无人船协同控制方法,包括:建立领航‑跟随无人船位置协同编队控制模型,设定期望纵向距离及方位角;基于编队协同控制模型及领航船的实时位置,对跟随船建立距离及方位角的协同动态方程;基于协同动态方程,并考虑推进器约束限制,引入障碍李亚普诺夫函数,推导跟随船的实时期望速度及偏航角;并利用非线性扰动观测器观测跟随船的集合扰动;为了使跟随船在环境扰动下能够领航船保持期望距距离及方位角,引入深度强化学习双Deep Q‑Network(DQN)网络,依据跟随船的实时状态,控制其纵向推力力矩及艏向角力矩;相比传统控制方法,本发明的技术方案能够根据跟随船实时状态快速,准确地控制其与领航船保持期望纵向距离及方位角。

Description

一种适用于同向实时点位跟踪的双无人船协同控制方法
技术领域
本发明涉及无人船点位跟踪控制技术领域,具体涉及一种适用于同向实时点位跟踪的双无人船协同控制方法。
背景技术
近年来,随着科技的快速发展和自动化技术的不断创新,无人船的使用规模不断扩大,其在海洋调查、监测、救援、航道疏浚、风电场运维以及水上娱乐和旅游等领域发挥着越来越重要的作用。在这些场景中,需要根据路径上事先设定好的虚拟目标点进行精确航行的领域越来越多。同时,随着通信技术、和多智能体控制技术的不断发展,需要多无人船保精确的位置关系协同控制的应用场景或者与无人潜航器配合协同航行的场景也应运而生,因此,无人船点位跟踪控制技术已经成为了新的研究热点。但是,目前对于双无人船水面航行协同跟踪控制的研究相对缺乏,在现有技术中,为实现多无人船协同控制,常使用编队控制相关控制算法进行实现,但相关技术多适用于多船航行过程中的队形保持,对于双船协同航行的场景并不适用。同时,此类方法多关注队形保持及队形破坏后的重组能力,对于相对位置精确性以及在复杂水面环境下,应对海面各种环境干扰,同时保证跟随船与领航船之间航行的精确位置关系,现有技术存在明显不足。
目前现有无人船协同航行控制方法的研究主要有以下不足:
(1)传统基于编队位置的模型策略,需要精确的模型参数,并且需要较为复杂的计算过程。比如论文《Swarm control of USVs based on adaptive backstepping combinedwith sliding mode》对无人船集群建立虚拟结构,并利用反步滑模控制方法消除编队协同控制中的误差,对于双船协同航行场景,无可避免出现计算复杂问题。
(2)对于现有的控制方法,当跟随船与领航船之间的协同位置关系由于水面环境等原因受到破坏后,无法依据现有实时环境及与期望位置的距离关系,选择最为合适的动作快速恢复协同位置关系。
针对上述问题,本方法在双无人船协同控制模型的基础上,引入障碍李亚普诺夫函数限制纵向速度及艏向角期望幅值设计虚拟控制律,在此基础上,利用虚拟控制律及位置误差设计奖励函数,考虑环境扰动将其作为Deep Q-Network(DQN)神经网络的输入,依据实时状态选择训练DQN神经网络。最后将收敛后的DQN决策网络部署到跟随船代替控制器进行跟踪控制。
发明内容
为解决现有技术中在双无人船协同运动控制存在的问题,本发明提出一种基于预先训练DQN决策网络的双无人船协同运动控制方法,可使系统达到快速、精确、稳定的性能要求,并提供相应的控制方法。
为实现上述目的,本发明通过如下技术方案实现:
一种适用于同向实时点位跟踪的双无人船协同控制方法,其特征在于,包括以下步骤:
S1、建立跟随船运动学与动力学模型。
S2、基于领航船的实时位置,及跟随船相对领航船位置的期望方向角及相对距离,确定点位跟踪控制协同系统模型。
S3、基于点位跟踪协同控制模型,及实时距离误差与方向角误差,引入障碍李雅普诺夫函数对跟随船设计纵向速度虚拟控制律及艏向角虚拟控制律。
S4、引入非线性扰动观测器观测环境扰动,并将其作为外部环境变量,和跟随船与领航船的实时位置误差,设计并训练主DQN决策网络,该决策网络可根据实时输入的状态选择最为合适的动作完成点位跟踪协同控制。
S5、仿真验证所提出方法的有效性。
所述的S1中,考虑双无人船协同点位跟踪控制系统,对于跟随船,其运动学模型可被描述为:
式中,uf、vf、rf分别为跟随船的纵向速度、横向速度以及转艏角速度,(x,y,ψ)为跟随船的纵向位置、横向位置及艏向角。令ηf=[xf,yff]T则式(1)可重写为:
考虑系统误差及外部扰动,其动力学模型可设计为:
式中,m11f、m22f、m33f表示跟随船包含附加质量的惯性矩阵系数,τduf、τdvf、τdrf为三个方向上的扰动力矩,τuf、τrf为控制力矩输入,d11f、d22f、d33f为跟随船的附加质量惯性矩阵系数,uf、vf、rf为跟随船的纵向速度、横向速度及艏向角速度。令则式(3)可重写为:
式中,为斜对角矩阵。
所述的S2中,点位跟踪控制协同系统模型领航船与跟随船之间的距离及角度关系为:
式中,(xl,yl)为领航船的实时位置,(xf,yf)为跟随船的实时位置,di为实时距离,为跟随船相对领航船的方向角。
所述的S3中,为建立点位跟踪协同控制模型,定义距离误差与方向角误差为:
式中,dresi分别为期望距离与期望方向角。
为了使实际距离与实际方向角能跟踪上期望距离与方向角,定义距离与方向角的动态微分方程为:
对式(7)求导,并结合式(8)、(9)得:
式中,αuf与αψf为跟随船纵向速度与艏向角虚拟控制律。并且设标量
为了使实际距离与实际方向角能够跟踪上期望距离及期望方向角,定义
其中,e df分别是跟踪距离误差的下界与上界,/>跟踪方向角误差的下界与上界。
为了保证控制输出不违反上述约束,引入障碍李亚普诺夫函数:
式中,
为求解αuf,对式(13)求导得:
并将式(10)代入,
则式(16)可被重写为:
因此标量wd可被镇定为:
同理,为求解αψf,对式(14)求导得:
并将式(11)代入,
则式(19)可被重写为:
因此标量可被镇定为:
最终,式(10)与式(11)中的虚拟控制律αuf与αψf可被设计为:
所述的S4中,所引入非线性扰动观测器为:
式中,为扰动观测器对各方向扰动的估计值,K0∈R3×3为正定设计矩阵。
为使得跟随船的实时位置与其期望与领航船的相对位置的误差保持在极小范围内,本方法引入双DQN网络根据跟随船当前的位置速度、与期望位置的相对距离、实时扰动进行学习评估,并选择最适宜的动作对跟随船的纵向推进控制力矩,艏向角控制力矩进行实时调整,使其满足:
lim||η(x,y)-ηd(xd,yd)||=ε ε≥0 (25)
式中,ε是一个极小的正整数,η(x,y)表示跟随船的实时位置,ηd(xd,yd)表示跟随船相对领航船的期望位置。
本方法引入的深度强化学习DON技术设计点位跟踪控制决策系统。首先,根据实时期望位置及跟随船的实际位置得到纵向及横向实时位置误差,然后将实时位置误差与跟随船的位置状态、速度、及非线性观测器对三个方向上的扰动力矩观测值作为实时环境变量输入训练完成的DQN决策网络中。DQN决策网络根据输入的实时状态,得到对于各种不同动作的奖励,选取奖励值最大的动作作为最优动作,接下来根据所选取的最优动作对纵向推力控制力矩及艏向角控制力矩进行调整,并将调整后的力矩作用到跟随船的运动学与动力学模型上得到新的实时位置及速度。最后将新的实时位置及速度、扰动估计值、位置误差输入到DQN决策网络进行下一轮控制。
Q网络的建立过程,具体包括:
建立状态空间S={u,v,r,x,y,ψ,ex,ey,eu,eψ},动作空间A={ai|i=1...9},奖励r。A(s)表示在状态s下可选择的动作集合,S(t)、A(t)、R(t)、G(t)分别表示t步时的状态、选择动作、瞬时奖励和累计奖励。π(s)表示在状态s下选择的动作策略,π*表示最优策略,π(a|s)表示在状态s下策略π选择动作a的概率。r(s,a)指代在状态s下选择动作a的奖励,r(s',a,s)表示在s状态下选择动作a使状态s变成s'的奖励,vπ(s)为策略价值函数,表示策略在状态s下的累计奖励,qπ(s,a)为行动价值函数,表示在状态s下选择动作a的累计奖励。v*(s)为最优状态值,q*(s,a)为状态s下动作a的最优动作值。
因此,在状态s情况下,选择动作a所得到的期望奖励r(s,a)为:
式中,p(s'|s,a)为在状态s情况下选择动作a从而达到状态s'的概率。
从状态s下选择动作a转化到状态s'时,其期望获得的奖励r(s,a,s')为:
式中,p(s',r|s,a)为状态s时选择动作a,将状态转化为s'的概率。
深度强化学习的本质是从初始状态到最终状态的每一步选择最优策略π*,使得其累计奖励G(t)最大化,并且针对其中的各个状态,根据策略π*选择每一步的最优动作a。其中,G(t)是每一步瞬时奖励与折扣因子乘积的总和:
式中,0≤γ≤1为折扣因子,k为动作编号。
对于从初始状态到最终状态的每一个动作,都可以计算出每个状态下执行不同动作所对应的不同奖励值。因此策略价值函数vπ(s)可以表示为:
行动价值函数qπ(s,a)可表示为:
式中,表示对•的期望。因此,策略价值函数与行动价值函数的关系可表示为:
vπ(s)=maxqπ(s,a) a∈A (31)
最后,选择最优动作使π(s)达到最大值,即满足:
π(s)=argmaxavπ(s'∣s,a)=argmaxaqπ(s,a) (32)
双DQN网络训练的体步骤为:
S4.1:初始化主DQN决策网络、target-DQN评价网络,设定前期观察轮数N_obs、训练轮数N_train,总轮数N_total,单轮最大步数T_episode,主DQN决策网络向target-DQN评价网络的更新周期N_renew,参数调节周期N_gap,纵向位置容许偏离e_x,横向位置容许偏离e_y。
S4.2:设定备选动作及动作选择策略,其中动作分别为纵向推力增加,艏向角控制力矩增加、纵向推力增加,艏向角控制力矩保持、纵向推力增加,艏向角控制力矩减小、纵向推力保持,艏向角控制力矩增加、纵向推力保持,艏向角控制力矩保持、纵向推力保持,艏向角控制力矩减小、纵向推力减小,艏向角控制力矩增加、纵向推力减小,艏向角控制力矩保持、纵向推力减小,艏向角控制力矩减小共9个动作;动作选择策略为:
式中,ε为随机选取动作的概率,表示在每个步每一轮的动作选择中有ε的概率是随机选择的,1-ε的概率是选择主DQN决策网络输出奖励值最高的动作;Ns是训练的总轮数即N_total,T表示训练的当前轮数。
S4.3:根据式(22)、(23)中的虚拟控制律及跟随船的实时位置与期望位置的误差设定奖励函数;其中,奖励函数设置为:
式中,kx、ky∈(0,1)分别为纵向方向与横向方向的奖励权重系数,ex=x-xd为当前纵向位置与期望纵向位置中心点的距离误差,ey=y-yd为当前横向位置与期望横向位置中心点的距离误差,为了使期望位置中心点附近有较高的奖励值,取σ=0.5。
式中,ku、kψ∈(0,1)分别为纵向速度奖励权重系数与艏向角奖励权重系数。取综合奖励r为rp与rv的总合,即:
r=rp+rv (36)
S4.4:开始训练,若当前轮数小于N_total,进入步骤S4.5,否则结束训练过程。
S4.5:设置智能体及环境初始状态(跟随船初始位置、速度,初始期望位置、初始环境扰动)。
S4.6:判断前步数是否大于T_episode,若是,返回步骤S4.5,否则进入步骤S4.7。
S4.7:按照所设定的动作选择策略选择当前步的动作。
S4.8:将动作代入跟随船运动学与动力学模型进行状态更新。
S4.9:将前一状态、新状态、当前步动作选择存放入经验池中。
S4.10:若当前轮数小于N_gap的倍数,进入步骤S4.6,否则进入步骤S4.11。
S4.11:从经验池中随机抽取若干组数据,利用target-DQN评价网络及奖励函数对经验池中的当前状态下的各个动作进行评价,并利用梯度下降法对主DQN决策网络进行参数修正。
S4.12:判断当前轮数是否达到更新周期N_renew,若达到,将主DQN决策网络中的权重参数赋值给target-DQN评价网络。
S4.13:若跟随船进入期望位置允许偏离范围内,将此后的纵向及横向偏离位置分别大于e_x、e_y作为单轮结束条件。
S4.14:返回步骤S4.4。
与现有技术相比,本发明具有的有益效果为:
(1)本发明利用预先设计的DQN决策网络进行动作选择,代替传统方法中使用的控制器进行控制,能够依据实时位置误差和环境快速做出最优决策,同时避免了传统方法控制过程中复杂的计算过程,在协同位置关系受到破坏后能够快速恢复,提高了控制的平稳性。
(2)将实时扰动作为环境变量的一部分参与到DQN决策网络的训练中,能够更为充分的考虑环境扰动的影响,保证对双船协同航行的进行精确控制。
附图说明
为了更清楚地说明现有技术中的技术方案和本发明的实施例,下面将对现有技术和实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明的控制系统结构图;
图2是本发明双DQN网络训练过程框图;
图3是本发明的DQN网络结构及动作选择;
图4是本发明双DQN网络训练流程图;
图5是本发明训练过程中每10轮平均控制步数;
图6是本发明数值仿真时领航船与跟随船实时位置关系图;
图7是本发明数值仿真时领航船与跟随船实时距离图;
图8是本发明跟随船控制力矩输出曲线。
具体实施方式
一种适用于同向实时点位跟踪的双无人船协同控制方法,其特征在于,包括以下步骤:
S1、建立跟随船运动学与动力学模型。
S2、基于领航船的实时位置,及跟随船相对领航船位置的期望方向角及相对距离,确定点位跟踪控制协同系统模型。
S3、基于点位跟踪协同控制模型,及实时距离误差与方向角误差,引入障碍李雅普诺夫函数对跟随船设计纵向速度虚拟控制律及艏向角虚拟控制律。
S4、引入非线性扰动观测器观测环境扰动,并将其作为外部环境变量,和跟随船与领航船的实时位置误差,设计并训练主DQN决策网络,该决策网络可根据实时输入的状态选择最为合适的动作完成点位跟踪协同控制。
S5、仿真验证所提出方法的有效性。
所述的S1中,考虑双无人船协同点位跟踪控制系统,对于跟随船,其运动学模型可被描述为:
式中,uf、vf、rf分别为跟随船的纵向速度、横向速度以及转艏角速度,(x,y,ψ)为跟随船的纵向位置、横向位置及艏向角。令ηf=[xf,yff]T则式(1)可重写为:
考虑系统误差及外部扰动,其动力学模型可设计为:
式中,m11f、m22f、m33f表示跟随船包含附加质量的惯性矩阵系数,τduf、τdvf、τdrf为三个方向上的扰动力矩,τuf、τrf为控制力矩输入,d11f、d22f、d33f为跟随船的附加质量惯性矩阵系数,uf、vf、rf为跟随船的纵向速度、横向速度及艏向角速度。令则式(3)可重写为:
式中,为斜对角矩阵。
所述的S2中,点位跟踪控制协同系统模型领航船与跟随船之间的距离及角度关系为:
式中,(xl,yl)为领航船的实时位置,(xf,yf)为跟随船的实时位置,di为实时距离,为跟随船相对领航船的方向角。
所述的S3中,为建立点位跟踪协同控制模型,定义距离误差与方向角误差为:
式中,dresi分别为期望距离与期望方向角。
为了使实际距离与实际方向角能跟踪上期望距离与方向角,定义距离与方向角的动态微分方程为:
对式(7)求导,并结合式(8)、(9)得:
式中,αuf与αψf为跟随船纵向速度与艏向角虚拟控制律。并且设标量
为了使实际距离与实际方向角能够跟踪上期望距离及期望方向角,定义
其中,edf分别是跟踪距离误差的下界与上界,/>跟踪方向角误差的下界与上界。
为了保证控制输出不违反上述约束,引入障碍李亚普诺夫函数:
式中,
为求解αuf,对式(13)求导得:
并将式(10)代入,
则式(16)可被重写为:
因此标量wd可被镇定为:
同理,为求解αψf,对式(14)求导得:
并将式(11)代入,
则式(19)可被重写为:
因此标量可被镇定为:
最终,式(10)与式(11)中的虚拟控制律αuf与αψf可被设计为:
所述的S4中,所引入非线性扰动观测器为:
式中,为扰动观测器对各方向扰动的估计值,K0∈R3×3为正定设计矩阵。
为使得跟随船的实时位置与其期望与领航船的相对位置的误差保持在极小范围内,本方法引入双DQN网络根据跟随船当前的位置速度、与期望位置的相对距离、实时扰动进行学习评估,并选择最适宜的动作对跟随船的纵向推进控制力矩,艏向角控制力矩进行实时调整,使其满足:
lim||η(x,y)-ηd(xd,yd)||=ε ε≥0 (25)
式中,ε是一个极小的正整数,η(x,y)表示跟随船的实时位置,ηd(xd,yd)表示跟随船相对领航船的期望位置。
本方法引入的深度强化学习DON技术设计点位跟踪控制决策系统。如图1所示,首先,根据实时期望位置及跟随船的实际位置得到纵向及横向实时位置误差,然后将实时位置误差与跟随船的位置状态、速度、及非线性观测器对三个方向上的扰动力矩观测值作为实时环境变量输入训练完成的DQN决策网络中。DQN决策网络根据输入的实时状态,得到对于各种不同动作的奖励,选取奖励值最大的动作作为最优动作,接下来根据所选取的最优动作对纵向推力控制力矩及艏向角控制力矩进行调整,并将调整后的力矩作用到跟随船的运动学与动力学模型上得到新的实时位置及速度。最后将新的实时位置及速度、扰动估计值、位置误差输入到DQN决策网络进行下一轮控制。
Q网络的建立过程,具体包括:
建立状态空间S={u,v,r,x,y,ψ,ex,ey,eu,eψ},动作空间A={ai|i=1...9},奖励r。A(s)表示在状态s下可选择的动作集合,S(t)、A(t)、R(t)、G(t)分别表示t步时的状态、选择动作、瞬时奖励和累计奖励。π(s)表示在状态s下选择的动作策略,π*表示最优策略,π(a|s)表示在状态s下策略π选择动作a的概率。r(s,a)指代在状态s下选择动作a的奖励,r(s',a,s)表示在s状态下选择动作a使状态s变成s'的奖励,vπ(s)为策略价值函数,表示策略在状态s下的累计奖励,qπ(s,a)为行动价值函数,表示在状态s下选择动作a的累计奖励。v*(s)为最优状态值,q*(s,a)为状态s下动作a的最优动作值。
因此,在状态s情况下,选择动作a所得到的期望奖励r(s,a)为:
式中,p(s'|s,a)为在状态s情况下选择动作a从而达到状态s'的概率。
从状态s下选择动作a转化到状态s'时,其期望获得的奖励r(s,a,s')为:
式中,p(s',r|s,a)为状态s时选择动作a,将状态转化为s'的概率。
深度强化学习的本质是从初始状态到最终状态的每一步选择最优策略π*,使得其累计奖励G(t)最大化,并且针对其中的各个状态,根据策略π*选择每一步的最优动作a。其中,G(t)是每一步瞬时奖励与折扣因子乘积的总和:
式中,0≤γ≤1为折扣因子,k为动作编号。
对于从初始状态到最终状态的每一个动作,都可以计算出每个状态下执行不同动作所对应的不同奖励值。因此策略价值函数vπ(s)可以表示为:
行动价值函数qπ(s,a)可表示为:
式中,表示对·的期望。因此,策略价值函数与行动价值函数的关系可表示为:
vπ(s)=maxqπ(s,a) a∈A (31)
最后,选择最优动作使π(s)达到最大值,即满足:
π(s)=argmaxavπ(s'∣s,a)=argmaxaqπ(s,a) (32)
双DQN网络训练过程如图2所示。首先,定义双DQN评价训练网络,根据初始状态下跟随船实时位置与其期望位置及扰动建立状态空间,其次根据跟随船动力结构,为推进器配合设置九个动作。将初始状态输入到定义好的主DQN决策网络,决策网络的输出为当前状态下不同动作各自对应的奖励值。选择奖励值最大的动作为最优动作并将其放置进经验池中,控制器根据根据所选择的最优动作对纵向推力控制力矩与艏向角控制力矩进行改变,使跟随船的位置达到下一状态,并将下一状态与当前状态、所选择的最优动作、与实时期望位置的横向纵向误差、纵向速度和艏向角与式(23)、式(24)所示的虚拟控制律的误差一同放入经验池中。
在完成若干轮上述过程后,从经验池中随机抽取一组数据,分别将这组数据中每一项的上一步状态送入target-DQN网络,将下一状态和位置及纵向速度与期望值误差及艏向角与期望值误差送入奖励函数得到对于每一项的奖励r,将target-DQN的输出与奖励r输入优化器中,同时将当前时刻状态输入到主DQN决策网络后对各个动作输出值送入优化器中,优化器利用主DQN决策网络的输出值及奖励r与target-DQN的输出构建损失函数利用梯度下降法对主DQN决策网络进行优化。
在进行多轮上述步骤后,将主DQN网络的权重值幅值到target-DQN中,然后继续用target-DQN的输出结合奖励函数的奖励值对主DQN决策网络进行优化,直到收敛为止。
网络结构及动作确定:
本方法提出的用于训练和控制的网络架构(主DQN决策网络与target-DQN评价网络)结构如图3所示。该网络共有6层,包括1个输入层、4个完全连接的隐藏层和一个输出层。输入层有10个神经元,对应状态空间的10个状态。输出层有9个神经元,对应9个预定义动作。每个隐藏的完全连接层有256个神经元。其中,状态包括跟随船的实时位置及速度,还包括与期望位置及虚拟控制律误差的10个状态变量,动作包括纵向推力力矩与艏向角控制力矩增加、保持、减小的九个动作。在训练的过程中,利用target-DQN网络及智能体与环境交互产生的状态变化,结合期望值和奖励函数获得奖励值,并将状态分别输入到target-DQN和主DQN决策网络中得到每一个状态下对于每一个动作的奖励值,结合target-DQN的输出与奖励值利用下降梯度法对主DQN决策网络进行参数实时调整,当主DQN网络训练收敛时,将其部署到智能体上代替控制器做运动决策。
双DQN网络训练步骤如图4所示,具体为:
S4.1:初始化主DQN决策网络、target-DQN评价网络,设定前期观察轮数N_obs、训练轮数N_train,总轮数N_total,单轮最大步数T_episode,主DQN决策网络向target-DQN评价网络的更新周期N_renew,参数调节周期N_gap,纵向位置容许偏离e_x,横向位置容许偏离e_y。
S4.2:设定备选动作及动作选择策略,其中动作分别为纵向推力增加,艏向角控制力矩增加、纵向推力增加,艏向角控制力矩保持、纵向推力增加,艏向角控制力矩减小、纵向推力保持,艏向角控制力矩增加、纵向推力保持,艏向角控制力矩保持、纵向推力保持,艏向角控制力矩减小、纵向推力减小,艏向角控制力矩增加、纵向推力减小,艏向角控制力矩保持、纵向推力减小,艏向角控制力矩减小共9个动作;动作选择策略为:
式中,ε为随机选取动作的概率,表示在每个步每一轮的动作选择中有ε的概率是随机选择的,1-ε的概率是选择主DQN决策网络输出奖励值最高的动作;Ns是训练的总轮数即N_total,T表示训练的当前轮数。
S4.3:根据式(22)、(23)中的虚拟控制律及跟随船的实时位置与期望位置的误差设定奖励函数。其中,奖励函数设置为:
式中,kx、ky∈(0,1)分别为纵向方向与横向方向的奖励权重系数,ex=x-xd为当前纵向位置与期望纵向位置中心点的距离误差,ey=y-yd为当前横向位置与期望横向位置中心点的距离误差,为了使期望位置中心点附近有较高的奖励值,取σ=0.5。
式中,ku、kψ∈(0,1)分别为纵向速度奖励权重系数与艏向角奖励权重系数。取综合奖励r为rp与rv的总合,即:
r=rp+rv (36)
S4.4:开始训练,若当前轮数小于N_total,进入步骤S4.5,否则结束训练过程。
S4.5:设置智能体及环境初始状态(跟随船初始位置、速度,初始期望位置、初始环境扰动)。
S4.6:判断前步数是否大于T_episode,若是,返回步骤S4.5,否则进入步骤S4.7。
S4.7:按照所设定的动作选择策略选择当前步的动作。
S4.8:将动作代入跟随船运动学与动力学模型进行状态更新。
S4.9:将前一状态、新状态、当前步动作选择存放入经验池中。
S4.10:若当前轮数小于N_gap的倍数,进入步骤S4.6,否则进入步骤S4.11。
S4.11:从经验池中随机抽取若干组数据,利用target-DQN评价网络及奖励函数对经验池中的当前状态下的各个动作进行评价,并利用梯度下降法对主DQN决策网络进行参数修正。
S4.12:判断当前轮数是否达到更新周期N_renew,若达到,将主DQN决策网络中的权重参数赋值给target-DQN评价网络。
S4.13:若跟随船进入期望位置允许偏离范围内,将此后的纵向及横向偏离位置分别大于e_x、e_y作为单轮结束条件。
S4.14:返回步骤S4.4。
所述步骤S5中,对跟随船对领航船协同点位跟踪控制进行仿真验证,验证方法的有效性,具体包括:
定义领航船的预定正弦轨迹如下:
设定跟随船纵向及横向未建模部分及系统内外部扰动τdu和τdr为:
设定无人潜航器动力学方程Mf,C,Df矩阵为:
设定DQN网络训练相关参数:前期观察期轮数N_obs=300、训练总轮数N_train=3000、总轮数N_total=3300、单轮最大步数T_episode=210,target-DQN决策网络更新周期N_renew=50、单词训练抽取样本数nBatch=40、参数训练调节斗气N_gap,纵向位置最大容许偏离e_x=1m,横向位置最大容许偏离e_y=2m。
为了使跟随船在领航船后方进行跟踪,设定跟随船与领航船之间的期望纵向距离dresi=5m,期望方位角跟随船初始状态[x(0),y(0),ψ(0)]T=[10m,-7m,0.3rad]T,初始状态[u(0),v(0),r(0)]T=[3m/s,0m/s,0rad/s]T,仿真时间200s。
本方法所使用的DQN神经网络训练过程中每10轮的平均步数如图5所示。从图中可以看出,在前期300轮时,由于尚未对DQN网络进行训练,在动作选择过程中DQN网络并未做出合适的动作选择,导致在前期300轮的观察期中每轮的平均步数仅为40次左右,并且杂乱无序,证明前期依靠随机选择控制效果极差。从第500轮到第1000轮的过程中,由于主DQN决策网络开始受到训练,并且根据式(33)选择每步执行动作的时候,更加偏向于采用训练后的主DQN决策网络输出的结果,因此在这段周期内每轮的平均步数有所提升,达到了140次左右,证明在此过程中主DQN决策网络在被训练调整的过程中,效果相对于训练初期有了明显改善。当训练轮数大于1000次时,由于动作选择更加依赖于DQN决策网络的输出,因此效果较为优秀,能够达到每轮训练的最大步数210次,证明在此过程中DQN神经网络的收敛效果较好。
图6、图7为本方法在领航船在正弦路径下的点位跟踪效果图及实时误差图,从图中可直观看出,跟随船能够在存在环境干扰的情况下在领航船后方的期望位置对领航船进行跟踪,并且跟踪效果良好,这得益于如图8所示控制器输出根据实时环境及位置变化的及时调整。如图7所示,在t=10s时,跟随船能够跟踪上领航船的期望路径,并且在正弦曲线曲率较低的直线部分拥有优秀的跟踪性能,最大偏离误差不超过0.1m,但是在曲率较大部分,由于与期望位置在纵向与横向的变化较快,跟踪效果下降,最大偏离误差在0.8m内。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (1)

1.一种适用于同向实时点位跟踪的双无人船协同控制方法,其特征在于,包括以下步骤:
S1、建立跟随船运动学与动力学模型;
S2、基于领航船的实时位置,及跟随船相对领航船位置的期望方向角及相对距离,确定点位跟踪控制协同系统模型;
S3、基于点位跟踪协同控制模型,及实时距离误差与方向角误差,引入障碍李雅普诺夫函数对跟随船设计纵向速度虚拟控制律及艏向角虚拟控制律;
S4、引入非线性扰动观测器观测环境扰动,并将其作为外部环境变量,和跟随船与领航船的实时位置误差,设计并训练主Deep Q-Network(DQN)决策网络,该决策网络可根据实时输入的状态选择最为合适的动作完成点位跟踪协同控制;
所述的S1中,考虑双无人船协同点位跟踪控制系统,对于跟随船,其运动学模型可被描述为:
式中,uf、vf、rf分别为跟随船的纵向速度、横向速度以及转艏角速度,(x,y,ψ)为跟随船的纵向位置、横向位置及艏向角;令ηf=[xf,yff]T则式(1)可重写为:
考虑系统误差及外部扰动,其动力学模型可设计为:
式中,m11f、m22f、m33f表示跟随船包含附加质量的惯性矩阵系数,τduf、τdvf、τdrf为三个方向上的扰动力矩,τuf、τrf为控制力矩输入,d11f、d22f、d33f为跟随船的附加质量惯性矩阵系数,uf、vf、rf为跟随船的纵向速度、横向速度及艏向角速度;令则式(3)可重写为:
式中,为斜对角矩阵;
所述的S2中,点位跟踪控制协同系统模型领航船与跟随船之间的距离及角度关系为:
式中,(xl,yl)为领航船的实时位置,(xf,yf)为跟随船的实时位置,di为实时距离,为跟随船相对领航船的方向角;
所述的S3中,为建立点位跟踪协同控制模型,定义距离误差与方位角误差为:
式中,dresi分别为期望距离与期望方向角;
为了使实际距离与实际方向角能跟踪上期望距离与方向角,定义距离与方向角的动态微分方程为:
对式(7)求导,并结合式(8)、(9)得:
式中,αuf与αψf为跟随船纵向速度与艏向角虚拟控制律;并且设标量
为了使实际距离与实际方向角能够跟踪上期望距离及期望方向角,定义:
其中,e df分别是跟踪距离误差的下界与上界,/>跟踪方向角误差的下界与上界;
为了保证控制输出不违反上述约束,引入障碍李亚普诺夫函数:
式中,
为求解αuf,对式(13)求导得:
并将式(10)代入,则式(16)可被重写为:
因此标量wd可被镇定为:
同理,为求解αψf,对式(14)求导得:
并将式(11)代入,则式(19)可被重写为:
因此标量可被镇定为:
最终,式(10)与式(11)中的虚拟控制律αuf与αψf可被设计为:
所述的S4中,所引入非线性扰动观测器为:
式中,为扰动观测器对各方向扰动的估计值,K0∈R3×3为正定设计矩阵;
双DQN网络训练的体步骤为:
S4.1:初始化主DQN决策网络、target-DQN评价网络,设定前期观察轮数N_obs、训练轮数N_train,总轮数N_total,单轮最大步数T_episode,主DQN决策网络向target-DQN评价网络的更新周期N_renew,参数调节周期N_gap,纵向位置容许偏离e_x,横向位置容许偏离e_y;
S4.2:设定备选动作及动作选择策略,其中动作分别为纵向推力增加,艏向角控制力矩增加、纵向推力增加,艏向角控制力矩保持、纵向推力增加,艏向角控制力矩减小、纵向推力保持,艏向角控制力矩增加、纵向推力保持,艏向角控制力矩保持、纵向推力保持,艏向角控制力矩减小、纵向推力减小,艏向角控制力矩增加、纵向推力减小,艏向角控制力矩保持、纵向推力减小,艏向角控制力矩减小共9个动作;动作选择策略为:
式中,ε为随机选取动作的概率,表示在每个步每一轮的动作选择中有ε的概率是随机选择的,1-ε的概率是选择主DQN决策网络输出奖励值最高的动作;Ns是训练的总轮数即N_total,T表示训练的当前轮数;
S4.3:根据式(22)、(23)中的虚拟控制律及跟随船的实时位置与期望位置的误差设定奖励函数;其中,奖励函数设置为:
式中,kx、ky∈(0,1)分别为纵向方向与横向方向的奖励权重系数,ex=x-xd为当前纵向位置与期望纵向位置中心点的距离误差,ey=y-yd为当前横向位置与期望横向位置中心点的距离误差,为了使期望位置中心点附近有较高的奖励值,取σ=0.5;
式中,ku、kψ∈(0,1)分别为纵向速度奖励权重系数与艏向角奖励权重系数;
取综合奖励r为rp与rv的总合,即:
r=rp+rv (28)
S4.4:开始训练,若当前轮数小于N_total,进入步骤S4.5,否则结束训练过程;
S4.5:设置智能体及环境初始状态(跟随船初始位置、速度,初始期望位置、初始环境扰动);
S4.6:判断前步数是否大于T_episode,若是,返回步骤S4.5,否则进入步骤S4.7;
S4.7:按照所设定的动作选择策略选择当前步的动作;
S4.8:将动作代入跟随船运动学与动力学模型进行状态更新;
S4.9:将前一状态、新状态、当前步动作选择存放入经验池中;
S4.10:若当前轮数小于N_gap的倍数,进入步骤S4.6,否则进入步骤S4.11;
S4.11:从经验池中随机抽取若干组数据,利用target-DQN评价网络及奖励函数对经验池中的当前状态下的各个动作进行评价,并利用梯度下降法对主DQN决策网络进行参数修正;
S4.12:判断当前轮数是否达到更新周期N_renew,若达到,将主DQN决策网络中的权重参数赋值给target-DQN评价网络;
S4.13:若跟随船进入期望位置允许偏离范围内,将此后的纵向及横向偏离位置分别大于e_x、e_y作为单轮结束条件;
S4.14:返回步骤S4.4。
CN202311310809.XA 2023-10-11 2023-10-11 一种适用于同向实时点位跟踪的双无人船协同控制方法 Active CN117170382B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311310809.XA CN117170382B (zh) 2023-10-11 2023-10-11 一种适用于同向实时点位跟踪的双无人船协同控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311310809.XA CN117170382B (zh) 2023-10-11 2023-10-11 一种适用于同向实时点位跟踪的双无人船协同控制方法

Publications (2)

Publication Number Publication Date
CN117170382A true CN117170382A (zh) 2023-12-05
CN117170382B CN117170382B (zh) 2024-04-26

Family

ID=88941447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311310809.XA Active CN117170382B (zh) 2023-10-11 2023-10-11 一种适用于同向实时点位跟踪的双无人船协同控制方法

Country Status (1)

Country Link
CN (1) CN117170382B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170203815A1 (en) * 2016-01-19 2017-07-20 Ion Geophysical Corporation Unmanned marine vessel for node deployment and retrieval
WO2018150101A1 (en) * 2017-02-16 2018-08-23 Rolls-Royce Oy Ab System and method for managing navigation plan of a marine vessel
CN110879599A (zh) * 2019-12-12 2020-03-13 大连海事大学 一种基于有限时间扰动观测器的固定时间编队控制方法
CN110928310A (zh) * 2019-12-12 2020-03-27 大连海事大学 一种无人船领航跟随固定时间编队控制方法
CN111694365A (zh) * 2020-07-01 2020-09-22 武汉理工大学 一种基于深度强化学习的无人船艇编队路径跟踪方法
CN113189979A (zh) * 2021-04-02 2021-07-30 大连海事大学 一种无人船的分布式队列有限时间控制方法
US20220187830A1 (en) * 2020-12-10 2022-06-16 Shiwei Liu Modular deployment and retrieval system for unmanned sub-carriers
CN114995446A (zh) * 2022-06-20 2022-09-02 广州工业智能研究院 一种无人船编队的自适应控制方法、装置、设备和介质
CN115390564A (zh) * 2022-08-31 2022-11-25 江南造船(集团)有限责任公司 用于欠驱动水面无人船舶的编队控制方法、介质及设备
CN115903800A (zh) * 2022-11-10 2023-04-04 上海交通大学 一种基于领导者协同的多无人船编队的严格安全控制方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170203815A1 (en) * 2016-01-19 2017-07-20 Ion Geophysical Corporation Unmanned marine vessel for node deployment and retrieval
WO2018150101A1 (en) * 2017-02-16 2018-08-23 Rolls-Royce Oy Ab System and method for managing navigation plan of a marine vessel
CN110879599A (zh) * 2019-12-12 2020-03-13 大连海事大学 一种基于有限时间扰动观测器的固定时间编队控制方法
CN110928310A (zh) * 2019-12-12 2020-03-27 大连海事大学 一种无人船领航跟随固定时间编队控制方法
CN111694365A (zh) * 2020-07-01 2020-09-22 武汉理工大学 一种基于深度强化学习的无人船艇编队路径跟踪方法
US20220187830A1 (en) * 2020-12-10 2022-06-16 Shiwei Liu Modular deployment and retrieval system for unmanned sub-carriers
CN113189979A (zh) * 2021-04-02 2021-07-30 大连海事大学 一种无人船的分布式队列有限时间控制方法
CN114995446A (zh) * 2022-06-20 2022-09-02 广州工业智能研究院 一种无人船编队的自适应控制方法、装置、设备和介质
CN115390564A (zh) * 2022-08-31 2022-11-25 江南造船(集团)有限责任公司 用于欠驱动水面无人船舶的编队控制方法、介质及设备
CN115903800A (zh) * 2022-11-10 2023-04-04 上海交通大学 一种基于领导者协同的多无人船编队的严格安全控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李芸;肖英杰;: "领航跟随法和势函数组合的船舶编队控制", 控制理论与应用, no. 09, 31 August 2016 (2016-08-31), pages 1259 - 1264 *
齐小伟;任光;: "基于领导跟随的船舶航迹控制", 船舶, no. 01, 25 February 2016 (2016-02-25), pages 92 - 98 *

Also Published As

Publication number Publication date
CN117170382B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
CN111694365B (zh) 一种基于深度强化学习的无人船艇编队路径跟踪方法
CN108803321B (zh) 基于深度强化学习的自主水下航行器轨迹跟踪控制方法
CN111351488B (zh) 飞行器智能轨迹重构再入制导方法
CN109976349B (zh) 一种含约束无人船的路径跟踪制导与控制结构的设计方法
CN111240345B (zh) 基于双bp网络增强学习框架的水下机器人轨迹跟踪方法
Burns The use of artificial neural networks for the intelligent optimal control of surface ships
CN113052372B (zh) 一种基于深度强化学习的动态auv追踪路径规划方法
CN112286218B (zh) 基于深度确定性策略梯度的飞行器大迎角摇滚抑制方法
CN113534668B (zh) 基于最大熵的演员-评论家框架的auv运动规划方法
CN109828467B (zh) 一种数据驱动的无人船强化学习控制器结构及设计方法
CN111290270A (zh) 一种基于Q-learning参数自适应技术的水下机器人反步速度和艏向控制方法
CN113033118B (zh) 一种基于示范数据强化学习技术的水下航行器自主上浮控制方法
CN113821035A (zh) 无人船轨迹追踪控制方法和装置
CN114879671A (zh) 一种基于强化学习mpc的无人艇轨迹跟踪控制方法
CN115033022A (zh) 面向移动平台基于专家经验的ddpg无人机降落方法
CN114089776B (zh) 一种基于深度强化学习的无人机避障方法
CN117170382B (zh) 一种适用于同向实时点位跟踪的双无人船协同控制方法
CN109946972A (zh) 基于在线学习模型技术的水下机器人预测控制系统及方法
CN117311142A (zh) 一种融合粒子群算法与神经网络预测控制的dp船舶运动控制与推力分配协同控制方法
CN112540614A (zh) 一种基于深度强化学习的无人艇航迹控制方法
CN111813143A (zh) 一种基于强化学习的水下滑翔机智能控制系统及方法
CN114943168B (zh) 一种水上浮桥组合方法及系统
CN115903820A (zh) 多无人艇追逃博弈控制方法
Jose et al. Navigating the Ocean with DRL: Path following for marine vessels
Wang et al. Efficient Reinforcement Learning for Autonomous Ship Collision Avoidance under Learning Experience Reuse

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant