CN114089748B - 一种基于轨迹预测的编队围捕方法 - Google Patents

一种基于轨迹预测的编队围捕方法 Download PDF

Info

Publication number
CN114089748B
CN114089748B CN202111317808.9A CN202111317808A CN114089748B CN 114089748 B CN114089748 B CN 114089748B CN 202111317808 A CN202111317808 A CN 202111317808A CN 114089748 B CN114089748 B CN 114089748B
Authority
CN
China
Prior art keywords
robot
target
moment
formation
trapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111317808.9A
Other languages
English (en)
Other versions
CN114089748A (zh
Inventor
陈博
鲍元康
李同祥
胡中尧
胡明南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202111317808.9A priority Critical patent/CN114089748B/zh
Publication of CN114089748A publication Critical patent/CN114089748A/zh
Application granted granted Critical
Publication of CN114089748B publication Critical patent/CN114089748B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0289Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Feedback Control In General (AREA)

Abstract

一种基于轨迹预测的编队围捕方法,包括:步骤1,为解决传感器视野丢失问题,对机器人运动状态进行估计与预测;步骤2,建立多机器人编队围捕模型;步骤3,计算多机器人系统的控制量,对目标进行编队围捕。本发明在机器人获取目标状态时,运用轨迹拟合的方法将目标运动状态拟合成一个轨迹时间函数,当目标视野丢失时,通过轨迹时间函数计算预测值进行补偿,提高了定位精度,减少了目标视野丢失带来的影响。在进行编队围捕时,根据围捕方法计算多机器人各自的控制量,完成编队控制,提高了围捕跟踪的效率。

Description

一种基于轨迹预测的编队围捕方法
技术领域
本发明属于机器人协同控制技术领域,具体涉及一种基于轨迹预测的编队围捕方法。
背景技术
随着科技技术的不断发展,机器人的应用领域不断扩大,对机器人需要完成的任务的复杂性要求也越来越高。在面对一些复杂的任务时,单个机器人无法满足工作需求,需要多个机器人协同合作来完成任务。多机器人编队控制是多机器人研究领域一类常见的复杂协作问题,采用多个机器人组成编队具有较多优点,例如在军事侦察、搜索、排雷等应用中能够获取更多的环境信息,在飞行器、卫星编队飞行等应用中能够完成更多、更复杂的任务。
在多机器人编队控制的基础上,完成编队下的围捕任务具有重要的应用价值,围捕任务要求多个机器人完成对环境中的目标进行跟踪并以特定队形实现围捕,这是通过多个机器人运动至各自期望的围捕点加以实现的。在实际围捕任务中,由于环境中的干扰、机器人传感器的局限性,对目标的定位可能不精准,甚至由于视野丢失问题导致目标信息可能短时间内无法获取,这种情况极大的影响了围捕任务。
发明内容
为了解决实际围捕中目标信息定位可能不精准以及视野丢失问题,本发明提出了一种基于轨迹预测的编队围捕方法,提高了围捕精度和围捕方法的鲁棒性。
本发明为了实现上述目的,提出技术方案如下:
一种基于轨迹预测的编队围捕方法,包括以下步骤:
步骤1:为解决传感器视野丢失问题,对机器人运动状态进行估计与预测,过程如下:
1.1通过先验知识建立目标运动轨迹的拟合函数,如式(1)所示
Fk(t;Ck)=c0φ0(t)+c1φ1(t)+…+cγφγ(t) (1)
其中,Fk(t;Ck)为k时刻轨迹拟合函数,{φi(t)}i=0,1,…,γ为先验函数,根据先验知识设置为单项式或者三角函数,Ck={ci}i=0,1,…γ为k时刻待确定的参数,γ为拟合函数的阶数,根据实际需要选定;
1.2初始化{φi(t)}i=0,1,…,γ,Ck
1.3机器人传感器对环境进行感知,寻找目标,若感知到目标时,其量测信息为Yk,则存储k时刻量测数据yk=Yk
1.4设置合适的滑动时间窗口[k-l,k],其窗口长度为l,定义时间窗口内拟合残差函数如式(2)所示
并通过求解最优化问题,最小化拟合残差求解轨迹时间函数的参数估计如式(3)所示
1.5通过时刻k求解的参数估计获得最优轨迹时间函数通过Fk(t)计算目标在k时刻的位置估计Fk(k)与下一时刻的位置预测Fk(k+1);
1.6令k→k+1,循环执行上述步骤1.3、1.4、1.5;当执行至步骤1.3时,先判断传感器是否感知到目标,若感知到目标则继续执行;若未感知到目标则执行步骤1.7;
1.7通过上一时刻的最优轨迹时间函数Fk-1(t)计算当前时刻的目标位置预测Fk-1(k),存储k时刻量测数据yk=Fk-1(k),返回执行步骤1.4;
步骤2:建立多机器人编队围捕模型,过程如下:
2.1建立单个机器人动力学模型,如式(4)所示
其中,为k时刻机器人的位置坐标,θk为k时刻机器人的角度,vk为机器人的线速度,wk为机器人的角速度,T0为系统的时间周期;
2.2建立多机器人系统模型,如式(5)所示
Xi,k+1=Xi,k+Qui,k (5)
其中,i为机器人的编号,Xi,k∈R3×1为k时刻机器人i的坐标与角度,ui,k∈R2×1为k时机器人i的控制量输入,Q∈R3×2为控制量的传递函数;
步骤3:计算多机器人系统的控制量,对目标进行编队围捕,过程如下:
3.1初始化编队围捕方法,如选择方法1利用当前时刻目标信息进行围捕则执行步骤3.2;如选择方法2利用下一时刻目标信息进行围捕则执行步骤3.3;
3.2选取目标在k时刻的位置估计Fk(k),作为多机器人系统的围捕目标位置,qk=Fk(k);
3.3选取目标下一时刻的位置预测Fk(k+1),作为多机器人系统的围捕目标位置,qk=Fk(k+1);
3.4计算多机器人自身的期望围捕点,以环形队形为例,如式(6)所示
其中,为机器人的期望围捕点坐标,R为圆环队形的半径,N为编队中移动机器人的数量;
3.5计算k时刻机器人与期望围捕点的距离和角度,如式(7)所示
其中,dk为k时刻机器人与期望围捕点的距离,为k时刻机器人与期望围捕点的角度;
3.6计算k时刻机器人的控制量,如式(8)所示
其中,λ∈R2×1为控制参数。
首先机器人对目标位置进行感知,执行步骤1,利用最小化拟合残差算法迭代求得当前时刻特定长度时间窗口内目标运动的轨迹时间函数,通过轨迹拟合计算目标位置的状态估计,在视野丢失时利用上一时刻的轨迹时间函数计算当前时刻目标位置的状态预测值作为补偿。然后执行步骤3进行编队围捕,选择围捕方法计算多机器人围捕目标位置,根本围捕目标位置计算机器人自身的期望围捕坐标点,最后根据期望围捕坐标点计算机器人的控制量,完成编队控制。
本发明的有益效果主要体现在:本发明方法在机器人获取目标状态时,运用轨迹拟合的方法将目标运动状态拟合成一个轨迹时间函数,当目标视野丢失时,通过轨迹时间函数计算预测值进行补偿,提高了定位精度,减少了目标视野丢失带来的影响。在进行编队围捕时,根据围捕方法计算多机器人各自的控制量,完成编队控制,提高了围捕跟踪的效率。
附图说明
图1是本发明的机器人动力学模型的示意图。
图2是本发明的算法的流程图。
图3是本发明的移动机器人编队围捕效果图。
图4是本发明的估计围捕误差示意图。
图5是本发明的预测围捕误差示意图。
具体实施方式
下面结合附图对本发明做进一步说明。
参照图1~图4,一种基于轨迹预测的编队围捕方法,所述方法包括以下步骤:
一种基于轨迹预测的编队围捕方法,包括以下步骤:
步骤1:为解决传感器视野丢失问题,对机器人运动状态进行估计与预测,过程如下:
1.1通过先验知识建立目标运动轨迹的拟合函数,如式(1)所示
Fk(t;Ck)=c0φ0(t)+c1φ1(t)+…+cγφγ(t) (1)
其中,Fk(t;Ck)为k时刻轨迹拟合函数,{φi(t)}i=0,1,…,γ为先验函数,根据先验知识设置为单项式或者三角函数,Ck={ci}i=0,1,…γ为k时刻待确定的参数,γ为拟合函数的阶数,根据实际需要选定;
1.2初始化{φi(t)}i=0,1,…,γ,Ck
1.3机器人传感器对环境进行感知,寻找目标,若感知到目标时,其量测信息为Yk,则存储k时刻量测数据yk=Yk
1.4设置合适的滑动时间窗口[k-l,k],其窗口长度为l,定义时间窗口内拟合残差函数如式(2)所示
并通过求解最优化问题,最小化拟合残差求解轨迹时间函数的参数估计如式(3)所示
1.5通过时刻k求解的参数估计获得最优轨迹时间函数通过Fk(t)计算目标在k时刻的位置估计Fk(k)与下一时刻的位置预测Fk(k+1);
1.6令k→k+1,循环执行上述步骤1.3、1.4、1.5;当执行至步骤1.3时,先判断传感器是否感知到目标,若感知到目标则继续执行;若未感知到目标则执行步骤1.7;
1.7通过上一时刻的最优轨迹时间函数Fk-1(t)计算当前时刻的目标位置预测Fk-1(k),存储k时刻量测数据yk=Fk-1(k),返回执行步骤1.4;
步骤2:建立多机器人编队围捕模型,过程如下:
2.1建立单个机器人动力学模型,如式(4)所示
其中,为k时刻机器人的位置坐标,θk为k时刻机器人的角度,vk为机器人的线速度,wk为机器人的角速度,T0为系统的时间周期;
2.2建立多机器人系统模型,如式(5)所示
Xi,k+1=Xi,k+Qui,k (5)
其中,i为机器人的编号,Xi,k∈R3×1为k时刻机器人i的坐标与角度,ui,k∈R2×1为k时机器人i的控制量输入,Q∈R3×2为控制量的传递函数;
步骤3:计算多机器人系统的控制量,对目标进行编队围捕,过程如下:
3.1初始化编队围捕方法,如选择方法1利用当前时刻目标信息进行围捕则执行步骤3.2;如选择方法2利用下一时刻目标信息进行围捕则执行步骤3.3;
3.2选取目标在k时刻的位置估计Fk(k),作为多机器人系统的围捕目标位置,qk=Fk(k);
3.3选取目标下一时刻的位置预测Fk(k+1),作为多机器人系统的围捕目标位置,qk=Fk(k+1);
3.4计算多机器人自身的期望围捕点,以环形队形为例,如式(6)所示
其中,为机器人的期望围捕点坐标,R为圆环队形的半径,N为编队中移动机器人的数量;
3.5计算k时刻机器人与期望围捕点的距离和角度,如式(7)所示
其中,dk为k时刻机器人与期望围捕点的距离,为k时刻机器人与期望围捕点的角度;
3.6计算k时刻机器人的控制量,如式(8)所示
其中,λ∈R2×1为控制参数。
首先机器人对目标位置进行感知,执行步骤1,利用最小化拟合残差算法迭代求得当前时刻特定长度时间窗口内目标运动的轨迹时间函数,通过轨迹拟合计算目标位置的状态估计,在视野丢失时利用上一时刻的轨迹时间函数计算当前时刻目标位置的状态预测值作为补偿。然后执行步骤3进行编队围捕,选择围捕方法计算多机器人围捕目标位置,根本围捕目标位置计算机器人自身的期望围捕坐标点,最后根据期望围捕坐标点计算机器人的控制量,完成编队控制。
为验证本发明所设计方法的有效性,采用以下实例来进行验证。
如图1所示,移动机器人的运动模型如式(9)所示:
在本实验中,目标机器人的初始坐标与角度设置为线速度v(k)=0.2,角速度w(k)=0.12,时间周期T0=0.1。
进行编队围捕时采用3台围捕机器人,即N=3,初始位置坐标分别设置为(-5,-2)、(-5,-6)、(-5,-1),初始位姿角设置为0。设置编队围捕的队形半径R=3m,设置控制系数得到移动机器人运动轨迹如图4所示。
为了方便误差效果的分析,验证预测算法的有效性,将环形编队中心点与目标点的距离作为误差,定义系统误差如式(10)所示:
结果如图3~5所示,图3为多机器人的编队围捕效果图,图4为运用目标估计的围捕误差示意图,图5为运用目标预测的围捕误差示意图,可以看到本发明给出的方法具有良好的编队围捕效果。
以上阐述的是本发明给出的一个实施例表现出的优良优化效果,显然本发明不只是限于上述实施例,在不偏离本发明基本精神及不超出本发明实质内容所涉及范围的前提下对其可作种种变形加以实施。

Claims (2)

1.一种基于轨迹预测的编队围捕方法,包括以下步骤:
步骤1:为解决传感器视野丢失问题,对机器人运动状态进行估计与预测,具体包括:
1.1通过先验知识建立目标运动轨迹的拟合函数,如式(1)所示
Fk(t;Ck)=c0φ0(t)+c1φ1(t)+…+cγφγ(t) (1)
其中,Fk(t;Ck)为k时刻轨迹拟合函数,{φi(t)}i=0,1,…,γ为先验函数,根据先验知识设置为单项式或者三角函数,Ck={ci}i=0,1,…γ为k时刻待确定的参数,γ为拟合函数的阶数,根据实际需要选定;
1.2初始化{φi(t)}i=0,1,…,γ,Ck
1.3机器人传感器对环境进行感知,寻找目标,若感知到目标时,其量测信息为Yk,则存储k时刻量测数据yk=Yk
1.4设置合适的滑动时间窗口[k-l,k],其窗口长度为l,定义时间窗口内拟合残差函数如式(2)所示
并通过求解最优化问题,最小化拟合残差求解轨迹时间函数的参数估计如式(3)所示
1.5通过时刻k求解的参数估计获得最优轨迹时间函数通过Fk(t)计算目标在k时刻的位置估计Fk(k)与下一时刻的位置预测Fk(k+1);
1.6令k→k+1,循环执行上述步骤1.3、1.4、1.5;当执行至步骤1.3时,先判断传感器是否感知到目标,若感知到目标则继续执行;若未感知到目标则执行步骤1.7;
1.7通过上一时刻的最优轨迹时间函数Fk-1(t)计算当前时刻的目标位置预测Fk-1(k),存储k时刻量测数据yk=Fk-1(k),返回执行步骤1.4;
步骤2:建立多机器人编队围捕模型,具体包括:
2.1建立单个机器人动力学模型,如式(4)所示
其中,[sxk syk]T为k时刻机器人的位置坐标,θk为k时刻机器人的角度,vk为机器人的线速度,wk为机器人的角速度,T0为系统的时间周期;
2.2建立多机器人系统模型,如式(5)所示
Xi,k+1=Xi,k+Qui,k (5)
其中,i为机器人的编号,Xi,k∈R3×1为k时刻机器人i的坐标与角度,ui,k∈R2×1为k时机器人i的控制量输入,Q∈R3×2为控制量的传递函数;
步骤3:计算多机器人系统的控制量,对目标进行编队围捕,具体包括:
3.1初始化编队围捕方法,如选择方法1利用当前时刻目标信息进行围捕则执行步骤3.2;如选择方法2利用下一时刻目标信息进行围捕则执行步骤3.3;
3.2选取目标在k时刻的位置估计Fk(k),作为多机器人系统的围捕目标位置,qk=Fk(k);
3.3选取目标下一时刻的位置预测Fk(k+1),作为多机器人系统的围捕目标位置,qk=Fk(k+1);
3.4计算多机器人自身的期望围捕点,以环形队形为例,如式(6)所示
其中,为机器人的期望围捕点坐标,R为圆环队形的半径,N为编队中移动机器人的数量;
3.5计算k时刻机器人与期望围捕点的距离和角度,如式(7)所示
其中,dk为k时刻机器人与期望围捕点的距离,为k时刻机器人与期望围捕点的角度;
3.6计算k时刻机器人的控制量,如式(8)所示
其中,λ∈R2×1为控制参数。
2.如权利要求1所述的一种基于轨迹预测的编队方法,其特征在于,在所述步骤1中,利用最小化拟合残差算法迭代求得当前时刻特定长度时间窗口内目标运动的轨迹时间函数,通过轨迹拟合计算目标位置的状态估计,在视野丢失时利用上一时刻的轨迹时间函数计算当前时刻目标位置的状态预测值作为补偿,提高了定位精度,减少了目标视野丢失带来的影响,在步骤3执行在编队围捕时,通过对目标位置的预测值进行预测围捕,提高了围捕跟踪的效率。
CN202111317808.9A 2021-11-09 2021-11-09 一种基于轨迹预测的编队围捕方法 Active CN114089748B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111317808.9A CN114089748B (zh) 2021-11-09 2021-11-09 一种基于轨迹预测的编队围捕方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111317808.9A CN114089748B (zh) 2021-11-09 2021-11-09 一种基于轨迹预测的编队围捕方法

Publications (2)

Publication Number Publication Date
CN114089748A CN114089748A (zh) 2022-02-25
CN114089748B true CN114089748B (zh) 2024-05-03

Family

ID=80299363

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111317808.9A Active CN114089748B (zh) 2021-11-09 2021-11-09 一种基于轨迹预测的编队围捕方法

Country Status (1)

Country Link
CN (1) CN114089748B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110517286A (zh) * 2019-08-12 2019-11-29 杭州电子科技大学 基于多智能体控制的单目标动态跟踪与围捕方法
WO2020037610A1 (zh) * 2018-08-23 2020-02-27 深圳市大疆创新科技有限公司 目标对象的运动轨迹预测方法和监控平台
CN111107070A (zh) * 2019-12-10 2020-05-05 浙江工业大学 一种DoS攻击下的目标跟踪方法
CN111399534A (zh) * 2020-02-25 2020-07-10 清华大学 多无人机对空中高速运动目标的围捕方法及系统
CN112488359A (zh) * 2020-11-02 2021-03-12 杭州电子科技大学 基于rrt与ospa距离的多智能体静止多目标围捕方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020037610A1 (zh) * 2018-08-23 2020-02-27 深圳市大疆创新科技有限公司 目标对象的运动轨迹预测方法和监控平台
CN110517286A (zh) * 2019-08-12 2019-11-29 杭州电子科技大学 基于多智能体控制的单目标动态跟踪与围捕方法
CN111107070A (zh) * 2019-12-10 2020-05-05 浙江工业大学 一种DoS攻击下的目标跟踪方法
CN111399534A (zh) * 2020-02-25 2020-07-10 清华大学 多无人机对空中高速运动目标的围捕方法及系统
CN112488359A (zh) * 2020-11-02 2021-03-12 杭州电子科技大学 基于rrt与ospa距离的多智能体静止多目标围捕方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于动态预测目标轨迹和围捕点的多机器人围捕算法;胡俊,朱庆保;电子学报;20111130(第11期);正文第2480-2485页 *
多机器人编队围捕算法研究;林子键;王秋阳;肖杨;;计算机仿真;20170415(04);正文第350-355页 *

Also Published As

Publication number Publication date
CN114089748A (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
CN111052183B (zh) 利用事件相机的视觉惯性里程计
CN108444478B (zh) 一种用于水下航行器的移动目标视觉位姿估计方法
US20170061195A1 (en) Real-time pose estimation system using inertial and feature measurements
CN108120438B (zh) 一种基于imu和rfid信息融合的室内目标快速跟踪方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN110967017B (zh) 一种用于双移动机器人刚体协作搬运的协同定位方法
CN112904358B (zh) 基于几何信息的激光定位方法
US20240312061A1 (en) High-precision odometry estimation method based on double-layer filtering framework
CN109059907A (zh) 轨迹数据处理方法、装置、计算机设备和存储介质
CN105096341B (zh) 基于三焦张量和关键帧策略的移动机器人位姿估计方法
CN112254729A (zh) 一种基于多传感器融合的移动机器人定位方法
CN110209180A (zh) 一种基于HuberM-Cubature卡尔曼滤波的无人水下航行器目标跟踪方法
WO2023142353A1 (zh) 一种位姿预测方法及装置
CN111025229B (zh) 一种水下机器人纯方位目标估计方法
CN113709662B (zh) 一种基于超宽带的自主式三维反演定位方法
CN114219022B (zh) 结合聚类分析和粒子群优化算法的多传感器多目标跟踪方法
CN114089748B (zh) 一种基于轨迹预测的编队围捕方法
CN111580530B (zh) 一种定位方法、装置、自主移动设备及介质
CN112067007A (zh) 地图生成方法、计算机存储介质及电子设备
CN109459769B (zh) 一种自主定位方法与系统
CN115540854A (zh) 一种基于uwb辅助的主动定位方法、设备和介质
CN113310484B (zh) 一种移动机器人定位方法和系统
CN115454053A (zh) 自动导引车控制方法、系统、装置和计算机设备
Wang et al. A visual integrated navigation for precise position estimation
CN113916232B (zh) 一种改进图优化的地图构建方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant