CN114089748A - 一种基于轨迹预测的编队围捕方法 - Google Patents
一种基于轨迹预测的编队围捕方法 Download PDFInfo
- Publication number
- CN114089748A CN114089748A CN202111317808.9A CN202111317808A CN114089748A CN 114089748 A CN114089748 A CN 114089748A CN 202111317808 A CN202111317808 A CN 202111317808A CN 114089748 A CN114089748 A CN 114089748A
- Authority
- CN
- China
- Prior art keywords
- robot
- time
- target
- enclosure
- formation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000000007 visual effect Effects 0.000 claims abstract description 14
- 238000005259 measurement Methods 0.000 claims description 9
- 238000010187 selection method Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 3
- 238000012546 transfer Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 241000350468 Prioria Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0289—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Feedback Control In General (AREA)
Abstract
一种基于轨迹预测的编队围捕方法,包括:步骤1,为解决传感器视野丢失问题,对机器人运动状态进行估计与预测;步骤2,建立多机器人编队围捕模型;步骤3,计算多机器人系统的控制量,对目标进行编队围捕。本发明在机器人获取目标状态时,运用轨迹拟合的方法将目标运动状态拟合成一个轨迹时间函数,当目标视野丢失时,通过轨迹时间函数计算预测值进行补偿,提高了定位精度,减少了目标视野丢失带来的影响。在进行编队围捕时,根据围捕方法计算多机器人各自的控制量,完成编队控制,提高了围捕跟踪的效率。
Description
技术领域
本发明属于机器人协同控制技术领域,具体涉及一种基于轨迹预测的编队围捕方法。
背景技术
随着科技技术的不断发展,机器人的应用领域不断扩大,对机器人需要完成的任务的复杂性要求也越来越高。在面对一些复杂的任务时,单个机器人无法满足工作需求,需要多个机器人协同合作来完成任务。多机器人编队控制是多机器人研究领域一类常见的复杂协作问题,采用多个机器人组成编队具有较多优点,例如在军事侦察、搜索、排雷等应用中能够获取更多的环境信息,在飞行器、卫星编队飞行等应用中能够完成更多、更复杂的任务。
在多机器人编队控制的基础上,完成编队下的围捕任务具有重要的应用价值,围捕任务要求多个机器人完成对环境中的目标进行跟踪并以特定队形实现围捕,这是通过多个机器人运动至各自期望的围捕点加以实现的。在实际围捕任务中,由于环境中的干扰、机器人传感器的局限性,对目标的定位可能不精准,甚至由于视野丢失问题导致目标信息可能短时间内无法获取,这种情况极大的影响了围捕任务。
发明内容
为了解决实际围捕中目标信息定位可能不精准以及视野丢失问题,本发明提出了一种基于轨迹预测的编队围捕方法,提高了围捕精度和围捕方法的鲁棒性。
本发明为了实现上述目的,提出技术方案如下:
一种基于轨迹预测的编队围捕方法,包括以下步骤:
步骤1:为解决传感器视野丢失问题,对机器人运动状态进行估计与预测,过程如下:
1.1通过先验知识建立目标运动轨迹的拟合函数,如式(1)所示
Fk(t;Ck)=c0φ0(t)+c1φ1(t)+…+cγφγ(t) (1)
其中,Fk(t;Ck)为k时刻轨迹拟合函数,{φi(t)}i=0,1,…,γ为先验函数,根据先验知识设置为单项式或者三角函数,Ck={ci}i=0,1,…γ为k时刻待确定的参数,γ为拟合函数的阶数,根据实际需要选定;
1.2初始化{φi(t)}i=0,1,…,γ,Ck;
1.3机器人传感器对环境进行感知,寻找目标,若感知到目标时,其量测信息为Yk,则存储k时刻量测数据yk=Yk;
1.4设置合适的滑动时间窗口[k-l,k],其窗口长度为l,定义时间窗口内拟合残差函数如式(2)所示
并通过求解最优化问题,最小化拟合残差求解轨迹时间函数的参数估计如式(3)所示
1.6令k→k+1,循环执行上述步骤1.3、1.4、1.5;当执行至步骤1.3时,先判断传感器是否感知到目标,若感知到目标则继续执行;若未感知到目标则执行步骤1.7;
1.7通过上一时刻的最优轨迹时间函数Fk-1(t)计算当前时刻的目标位置预测Fk-1(k),存储k时刻量测数据yk=Fk-1(k),返回执行步骤1.4;
步骤2:建立多机器人编队围捕模型,过程如下:
2.1建立单个机器人动力学模型,如式(4)所示
2.2建立多机器人系统模型,如式(5)所示
Xi,k+1=Xi,k+Qui,k (5)
其中,i为机器人的编号,Xi,k∈R3×1为k时刻机器人i的坐标与角度,ui,k∈R2×1为k时机器人i的控制量输入,Q∈R3×2为控制量的传递函数;
步骤3:计算多机器人系统的控制量,对目标进行编队围捕,过程如下:
3.1初始化编队围捕方法,如选择方法1利用当前时刻目标信息进行围捕则执行步骤3.2;如选择方法2利用下一时刻目标信息进行围捕则执行步骤3.3;
3.2选取目标在k时刻的位置估计Fk(k),作为多机器人系统的围捕目标位置,qk=Fk(k);
3.3选取目标下一时刻的位置预测Fk(k+1),作为多机器人系统的围捕目标位置,qk=Fk(k+1);
3.4计算多机器人自身的期望围捕点,以环形队形为例,如式(6)所示
3.5计算k时刻机器人与期望围捕点的距离和角度,如式(7)所示
3.6计算k时刻机器人的控制量,如式(8)所示
其中,λ∈R2×1为控制参数。
首先机器人对目标位置进行感知,执行步骤1,利用最小化拟合残差算法迭代求得当前时刻特定长度时间窗口内目标运动的轨迹时间函数,通过轨迹拟合计算目标位置的状态估计,在视野丢失时利用上一时刻的轨迹时间函数计算当前时刻目标位置的状态预测值作为补偿。然后执行步骤3进行编队围捕,选择围捕方法计算多机器人围捕目标位置,根本围捕目标位置计算机器人自身的期望围捕坐标点,最后根据期望围捕坐标点计算机器人的控制量,完成编队控制。
本发明的有益效果主要体现在:本发明方法在机器人获取目标状态时,运用轨迹拟合的方法将目标运动状态拟合成一个轨迹时间函数,当目标视野丢失时,通过轨迹时间函数计算预测值进行补偿,提高了定位精度,减少了目标视野丢失带来的影响。在进行编队围捕时,根据围捕方法计算多机器人各自的控制量,完成编队控制,提高了围捕跟踪的效率。
附图说明
图1是本发明的机器人动力学模型的示意图。
图2是本发明的算法的流程图。
图3是本发明的移动机器人编队围捕效果图。
图4是本发明的估计围捕误差示意图。
图5是本发明的预测围捕误差示意图。
具体实施方式
下面结合附图对本发明做进一步说明。
参照图1~图4,一种基于轨迹预测的编队围捕方法,所述方法包括以下步骤:
一种基于轨迹预测的编队围捕方法,包括以下步骤:
步骤1:为解决传感器视野丢失问题,对机器人运动状态进行估计与预测,过程如下:
1.1通过先验知识建立目标运动轨迹的拟合函数,如式(1)所示
Fk(t;Ck)=c0φ0(t)+c1φ1(t)+…+cγφγ(t) (1)
其中,Fk(t;Ck)为k时刻轨迹拟合函数,{φi(t)}i=0,1,…,γ为先验函数,根据先验知识设置为单项式或者三角函数,Ck={ci}i=0,1,…γ为k时刻待确定的参数,γ为拟合函数的阶数,根据实际需要选定;
1.2初始化{φi(t)}i=0,1,…,γ,Ck;
1.3机器人传感器对环境进行感知,寻找目标,若感知到目标时,其量测信息为Yk,则存储k时刻量测数据yk=Yk;
1.4设置合适的滑动时间窗口[k-l,k],其窗口长度为l,定义时间窗口内拟合残差函数如式(2)所示
并通过求解最优化问题,最小化拟合残差求解轨迹时间函数的参数估计如式(3)所示
1.6令k→k+1,循环执行上述步骤1.3、1.4、1.5;当执行至步骤1.3时,先判断传感器是否感知到目标,若感知到目标则继续执行;若未感知到目标则执行步骤1.7;
1.7通过上一时刻的最优轨迹时间函数Fk-1(t)计算当前时刻的目标位置预测Fk-1(k),存储k时刻量测数据yk=Fk-1(k),返回执行步骤1.4;
步骤2:建立多机器人编队围捕模型,过程如下:
2.1建立单个机器人动力学模型,如式(4)所示
2.2建立多机器人系统模型,如式(5)所示
Xi,k+1=Xi,k+Qui,k (5)
其中,i为机器人的编号,Xi,k∈R3×1为k时刻机器人i的坐标与角度,ui,k∈R2×1为k时机器人i的控制量输入,Q∈R3×2为控制量的传递函数;
步骤3:计算多机器人系统的控制量,对目标进行编队围捕,过程如下:
3.1初始化编队围捕方法,如选择方法1利用当前时刻目标信息进行围捕则执行步骤3.2;如选择方法2利用下一时刻目标信息进行围捕则执行步骤3.3;
3.2选取目标在k时刻的位置估计Fk(k),作为多机器人系统的围捕目标位置,qk=Fk(k);
3.3选取目标下一时刻的位置预测Fk(k+1),作为多机器人系统的围捕目标位置,qk=Fk(k+1);
3.4计算多机器人自身的期望围捕点,以环形队形为例,如式(6)所示
3.5计算k时刻机器人与期望围捕点的距离和角度,如式(7)所示
3.6计算k时刻机器人的控制量,如式(8)所示
其中,λ∈R2×1为控制参数。
首先机器人对目标位置进行感知,执行步骤1,利用最小化拟合残差算法迭代求得当前时刻特定长度时间窗口内目标运动的轨迹时间函数,通过轨迹拟合计算目标位置的状态估计,在视野丢失时利用上一时刻的轨迹时间函数计算当前时刻目标位置的状态预测值作为补偿。然后执行步骤3进行编队围捕,选择围捕方法计算多机器人围捕目标位置,根本围捕目标位置计算机器人自身的期望围捕坐标点,最后根据期望围捕坐标点计算机器人的控制量,完成编队控制。
为验证本发明所设计方法的有效性,采用以下实例来进行验证。
如图1所示,移动机器人的运动模型如式(9)所示:
进行编队围捕时采用3台围捕机器人,即N=3,初始位置坐标分别设置为(-5,-2)、(-5,-6)、(-5,-1),初始位姿角设置为0。设置编队围捕的队形半径R=3m,设置控制系数得到移动机器人运动轨迹如图4所示。
为了方便误差效果的分析,验证预测算法的有效性,将环形编队中心点与目标点的距离作为误差,定义系统误差如式(10)所示:
结果如图3~5所示,图3为多机器人的编队围捕效果图,图4为运用目标估计的围捕误差示意图,图5为运用目标预测的围捕误差示意图,可以看到本发明给出的方法具有良好的编队围捕效果。
以上阐述的是本发明给出的一个实施例表现出的优良优化效果,显然本发明不只是限于上述实施例,在不偏离本发明基本精神及不超出本发明实质内容所涉及范围的前提下对其可作种种变形加以实施。
Claims (2)
1.一种基于轨迹预测的编队围捕方法,包括以下步骤:
步骤1:为解决传感器视野丢失问题,对机器人运动状态进行估计与预测,具体包括:
1.1通过先验知识建立目标运动轨迹的拟合函数,如式(1)所示
Fk(t;Ck)=c0φ0(t)+c1φ1(t)+…+cγφγ(t) (1)
其中,Fk(t;Ck)为k时刻轨迹拟合函数,{φi(t)}i=0,1,…,γ为先验函数,根据先验知识设置为单项式或者三角函数,Ck={ci}i=0,1,…γ为k时刻待确定的参数,γ为拟合函数的阶数,根据实际需要选定;
1.2初始化{φi(t)}i=0,1,…,γ,Ck;
1.3机器人传感器对环境进行感知,寻找目标,若感知到目标时,其量测信息为Yk,则存储k时刻量测数据yk=Yk;
1.4设置合适的滑动时间窗口[k-l,k],其窗口长度为l,定义时间窗口内拟合残差函数如式(2)所示
并通过求解最优化问题,最小化拟合残差求解轨迹时间函数的参数估计如式(3)所示
1.6令k→k+1,循环执行上述步骤1.3、1.4、1.5;当执行至步骤1.3时,先判断传感器是否感知到目标,若感知到目标则继续执行;若未感知到目标则执行步骤1.7;
1.7通过上一时刻的最优轨迹时间函数Fk-1(t)计算当前时刻的目标位置预测Fk-1(k),存储k时刻量测数据yk=Fk-1(k),返回执行步骤1.4;
步骤2:建立多机器人编队围捕模型,具体包括:
2.1建立单个机器人动力学模型,如式(4)所示
其中,[sxk syk]T为k时刻机器人的位置坐标,θk为k时刻机器人的角度,vk为机器人的线速度,wk为机器人的角速度,T0为系统的时间周期;
2.2建立多机器人系统模型,如式(5)所示
Xi,k+1=Xi,k+Qui,k (5)
其中,i为机器人的编号,Xi,k∈R3×1为k时刻机器人i的坐标与角度,ui,k∈R2×1为k时机器人i的控制量输入,Q∈R3×2为控制量的传递函数;
步骤3:计算多机器人系统的控制量,对目标进行编队围捕,具体包括:
3.1初始化编队围捕方法,如选择方法1利用当前时刻目标信息进行围捕则执行步骤3.2;如选择方法2利用下一时刻目标信息进行围捕则执行步骤3.3;
3.2选取目标在k时刻的位置估计Fk(k),作为多机器人系统的围捕目标位置,qk=Fk(k);
3.3选取目标下一时刻的位置预测Fk(k+1),作为多机器人系统的围捕目标位置,qk=Fk(k+1);
3.4计算多机器人自身的期望围捕点,以环形队形为例,如式(6)所示
3.5计算k时刻机器人与期望围捕点的距离和角度,如式(7)所示
3.6计算k时刻机器人的控制量,如式(8)所示
其中,λ∈R2×1为控制参数。
2.如权利要求1所述的一种基于轨迹预测的编队方法,其特征在于,在所述步骤1中,利用最小化拟合残差算法迭代求得当前时刻特定长度时间窗口内目标运动的轨迹时间函数,通过轨迹拟合计算目标位置的状态估计,在视野丢失时利用上一时刻的轨迹时间函数计算当前时刻目标位置的状态预测值作为补偿,提高了定位精度,减少了目标视野丢失带来的影响。在步骤3执行在编队围捕时,通过对目标位置的预测值进行预测围捕,提高了围捕跟踪的效率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111317808.9A CN114089748B (zh) | 2021-11-09 | 2021-11-09 | 一种基于轨迹预测的编队围捕方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111317808.9A CN114089748B (zh) | 2021-11-09 | 2021-11-09 | 一种基于轨迹预测的编队围捕方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114089748A true CN114089748A (zh) | 2022-02-25 |
CN114089748B CN114089748B (zh) | 2024-05-03 |
Family
ID=80299363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111317808.9A Active CN114089748B (zh) | 2021-11-09 | 2021-11-09 | 一种基于轨迹预测的编队围捕方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114089748B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110517286A (zh) * | 2019-08-12 | 2019-11-29 | 杭州电子科技大学 | 基于多智能体控制的单目标动态跟踪与围捕方法 |
WO2020037610A1 (zh) * | 2018-08-23 | 2020-02-27 | 深圳市大疆创新科技有限公司 | 目标对象的运动轨迹预测方法和监控平台 |
CN111107070A (zh) * | 2019-12-10 | 2020-05-05 | 浙江工业大学 | 一种DoS攻击下的目标跟踪方法 |
CN111399534A (zh) * | 2020-02-25 | 2020-07-10 | 清华大学 | 多无人机对空中高速运动目标的围捕方法及系统 |
CN112488359A (zh) * | 2020-11-02 | 2021-03-12 | 杭州电子科技大学 | 基于rrt与ospa距离的多智能体静止多目标围捕方法 |
-
2021
- 2021-11-09 CN CN202111317808.9A patent/CN114089748B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020037610A1 (zh) * | 2018-08-23 | 2020-02-27 | 深圳市大疆创新科技有限公司 | 目标对象的运动轨迹预测方法和监控平台 |
CN110517286A (zh) * | 2019-08-12 | 2019-11-29 | 杭州电子科技大学 | 基于多智能体控制的单目标动态跟踪与围捕方法 |
CN111107070A (zh) * | 2019-12-10 | 2020-05-05 | 浙江工业大学 | 一种DoS攻击下的目标跟踪方法 |
CN111399534A (zh) * | 2020-02-25 | 2020-07-10 | 清华大学 | 多无人机对空中高速运动目标的围捕方法及系统 |
CN112488359A (zh) * | 2020-11-02 | 2021-03-12 | 杭州电子科技大学 | 基于rrt与ospa距离的多智能体静止多目标围捕方法 |
Non-Patent Citations (2)
Title |
---|
林子键;王秋阳;肖杨;: "多机器人编队围捕算法研究", 计算机仿真, no. 04, 15 April 2017 (2017-04-15), pages 350 - 355 * |
胡俊,朱庆保: "基于动态预测目标轨迹和围捕点的多机器人围捕算法", 电子学报, no. 11, 30 November 2011 (2011-11-30), pages 2480 - 2485 * |
Also Published As
Publication number | Publication date |
---|---|
CN114089748B (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111052183B (zh) | 利用事件相机的视觉惯性里程计 | |
CN109597864B (zh) | 椭球边界卡尔曼滤波的即时定位与地图构建方法及系统 | |
CN110967017B (zh) | 一种用于双移动机器人刚体协作搬运的协同定位方法 | |
CN108120438B (zh) | 一种基于imu和rfid信息融合的室内目标快速跟踪方法 | |
CN102706342A (zh) | 一种智能移动机器人的定位与环境建模方法 | |
CN105096341B (zh) | 基于三焦张量和关键帧策略的移动机器人位姿估计方法 | |
US20240312061A1 (en) | High-precision odometry estimation method based on double-layer filtering framework | |
US11620755B2 (en) | Method and system for tracking trajectory based on visual localization and odometry | |
CN113253741B (zh) | 一种agv叉车的控制方法、装置及计算机可读介质 | |
Shen et al. | Leader-follower formation control without leader’s velocity information | |
CN111025229B (zh) | 一种水下机器人纯方位目标估计方法 | |
CN113709662B (zh) | 一种基于超宽带的自主式三维反演定位方法 | |
CN113124854A (zh) | 一种视觉定位方法、以及地图构建方法、装置 | |
CN111924142B (zh) | 一种基于序列图像的软着陆高精度避障方法 | |
CN111709095B (zh) | 一种面向复杂曲面6d虚拟夹具构造方法 | |
CN117388870A (zh) | 应用于激光雷达感知模型的真值生成方法、装置及介质 | |
Zhang et al. | A robust lidar slam system based on multi-sensor fusion | |
CN114089748A (zh) | 一种基于轨迹预测的编队围捕方法 | |
CN111426322A (zh) | 同时估计状态和输入的自适应目标跟踪滤波方法及系统 | |
CN109459769B (zh) | 一种自主定位方法与系统 | |
Demim et al. | Visual SVSF-SLAM algorithm based on adaptive boundary layer width | |
CN111024071A (zh) | Gnss辅助的加速度计和陀螺仪常值漂移估算的导航方法及系统 | |
CN115839726A (zh) | 磁传感器和角速度传感器联合标定的方法、系统及介质 | |
Sjanic et al. | A nonlinear least-squares approach to the SLAM problem | |
Low et al. | Visual based SLAM using modified PSO |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |