CN114089748A - 一种基于轨迹预测的编队围捕方法 - Google Patents

一种基于轨迹预测的编队围捕方法 Download PDF

Info

Publication number
CN114089748A
CN114089748A CN202111317808.9A CN202111317808A CN114089748A CN 114089748 A CN114089748 A CN 114089748A CN 202111317808 A CN202111317808 A CN 202111317808A CN 114089748 A CN114089748 A CN 114089748A
Authority
CN
China
Prior art keywords
robot
time
target
enclosure
formation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111317808.9A
Other languages
English (en)
Other versions
CN114089748B (zh
Inventor
陈博
鲍元康
李同祥
胡中尧
胡明南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202111317808.9A priority Critical patent/CN114089748B/zh
Publication of CN114089748A publication Critical patent/CN114089748A/zh
Application granted granted Critical
Publication of CN114089748B publication Critical patent/CN114089748B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0289Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Feedback Control In General (AREA)

Abstract

一种基于轨迹预测的编队围捕方法,包括:步骤1,为解决传感器视野丢失问题,对机器人运动状态进行估计与预测;步骤2,建立多机器人编队围捕模型;步骤3,计算多机器人系统的控制量,对目标进行编队围捕。本发明在机器人获取目标状态时,运用轨迹拟合的方法将目标运动状态拟合成一个轨迹时间函数,当目标视野丢失时,通过轨迹时间函数计算预测值进行补偿,提高了定位精度,减少了目标视野丢失带来的影响。在进行编队围捕时,根据围捕方法计算多机器人各自的控制量,完成编队控制,提高了围捕跟踪的效率。

Description

一种基于轨迹预测的编队围捕方法
技术领域
本发明属于机器人协同控制技术领域,具体涉及一种基于轨迹预测的编队围捕方法。
背景技术
随着科技技术的不断发展,机器人的应用领域不断扩大,对机器人需要完成的任务的复杂性要求也越来越高。在面对一些复杂的任务时,单个机器人无法满足工作需求,需要多个机器人协同合作来完成任务。多机器人编队控制是多机器人研究领域一类常见的复杂协作问题,采用多个机器人组成编队具有较多优点,例如在军事侦察、搜索、排雷等应用中能够获取更多的环境信息,在飞行器、卫星编队飞行等应用中能够完成更多、更复杂的任务。
在多机器人编队控制的基础上,完成编队下的围捕任务具有重要的应用价值,围捕任务要求多个机器人完成对环境中的目标进行跟踪并以特定队形实现围捕,这是通过多个机器人运动至各自期望的围捕点加以实现的。在实际围捕任务中,由于环境中的干扰、机器人传感器的局限性,对目标的定位可能不精准,甚至由于视野丢失问题导致目标信息可能短时间内无法获取,这种情况极大的影响了围捕任务。
发明内容
为了解决实际围捕中目标信息定位可能不精准以及视野丢失问题,本发明提出了一种基于轨迹预测的编队围捕方法,提高了围捕精度和围捕方法的鲁棒性。
本发明为了实现上述目的,提出技术方案如下:
一种基于轨迹预测的编队围捕方法,包括以下步骤:
步骤1:为解决传感器视野丢失问题,对机器人运动状态进行估计与预测,过程如下:
1.1通过先验知识建立目标运动轨迹的拟合函数,如式(1)所示
Fk(t;Ck)=c0φ0(t)+c1φ1(t)+…+cγφγ(t) (1)
其中,Fk(t;Ck)为k时刻轨迹拟合函数,{φi(t)}i=0,1,…,γ为先验函数,根据先验知识设置为单项式或者三角函数,Ck={ci}i=0,1,…γ为k时刻待确定的参数,γ为拟合函数的阶数,根据实际需要选定;
1.2初始化{φi(t)}i=0,1,…,γ,Ck
1.3机器人传感器对环境进行感知,寻找目标,若感知到目标时,其量测信息为Yk,则存储k时刻量测数据yk=Yk
1.4设置合适的滑动时间窗口[k-l,k],其窗口长度为l,定义时间窗口内拟合残差函数如式(2)所示
Figure BDA0003344365180000021
并通过求解最优化问题,最小化拟合残差求解轨迹时间函数的参数估计如式(3)所示
Figure BDA0003344365180000022
1.5通过时刻k求解的参数估计获得最优轨迹时间函数
Figure BDA0003344365180000023
通过Fk(t)计算目标在k时刻的位置估计Fk(k)与下一时刻的位置预测Fk(k+1);
1.6令k→k+1,循环执行上述步骤1.3、1.4、1.5;当执行至步骤1.3时,先判断传感器是否感知到目标,若感知到目标则继续执行;若未感知到目标则执行步骤1.7;
1.7通过上一时刻的最优轨迹时间函数Fk-1(t)计算当前时刻的目标位置预测Fk-1(k),存储k时刻量测数据yk=Fk-1(k),返回执行步骤1.4;
步骤2:建立多机器人编队围捕模型,过程如下:
2.1建立单个机器人动力学模型,如式(4)所示
Figure BDA0003344365180000024
其中,
Figure BDA0003344365180000025
为k时刻机器人的位置坐标,θk为k时刻机器人的角度,vk为机器人的线速度,wk为机器人的角速度,T0为系统的时间周期;
2.2建立多机器人系统模型,如式(5)所示
Xi,k+1=Xi,k+Qui,k (5)
其中,i为机器人的编号,Xi,k∈R3×1为k时刻机器人i的坐标与角度,ui,k∈R2×1为k时机器人i的控制量输入,Q∈R3×2为控制量的传递函数;
步骤3:计算多机器人系统的控制量,对目标进行编队围捕,过程如下:
3.1初始化编队围捕方法,如选择方法1利用当前时刻目标信息进行围捕则执行步骤3.2;如选择方法2利用下一时刻目标信息进行围捕则执行步骤3.3;
3.2选取目标在k时刻的位置估计Fk(k),作为多机器人系统的围捕目标位置,qk=Fk(k);
3.3选取目标下一时刻的位置预测Fk(k+1),作为多机器人系统的围捕目标位置,qk=Fk(k+1);
3.4计算多机器人自身的期望围捕点,以环形队形为例,如式(6)所示
Figure BDA0003344365180000031
其中,
Figure BDA0003344365180000032
为机器人的期望围捕点坐标,R为圆环队形的半径,N为编队中移动机器人的数量;
3.5计算k时刻机器人与期望围捕点的距离和角度,如式(7)所示
Figure BDA0003344365180000033
其中,dk为k时刻机器人与期望围捕点的距离,
Figure BDA0003344365180000034
为k时刻机器人与期望围捕点的角度;
3.6计算k时刻机器人的控制量,如式(8)所示
Figure BDA0003344365180000035
其中,λ∈R2×1为控制参数。
首先机器人对目标位置进行感知,执行步骤1,利用最小化拟合残差算法迭代求得当前时刻特定长度时间窗口内目标运动的轨迹时间函数,通过轨迹拟合计算目标位置的状态估计,在视野丢失时利用上一时刻的轨迹时间函数计算当前时刻目标位置的状态预测值作为补偿。然后执行步骤3进行编队围捕,选择围捕方法计算多机器人围捕目标位置,根本围捕目标位置计算机器人自身的期望围捕坐标点,最后根据期望围捕坐标点计算机器人的控制量,完成编队控制。
本发明的有益效果主要体现在:本发明方法在机器人获取目标状态时,运用轨迹拟合的方法将目标运动状态拟合成一个轨迹时间函数,当目标视野丢失时,通过轨迹时间函数计算预测值进行补偿,提高了定位精度,减少了目标视野丢失带来的影响。在进行编队围捕时,根据围捕方法计算多机器人各自的控制量,完成编队控制,提高了围捕跟踪的效率。
附图说明
图1是本发明的机器人动力学模型的示意图。
图2是本发明的算法的流程图。
图3是本发明的移动机器人编队围捕效果图。
图4是本发明的估计围捕误差示意图。
图5是本发明的预测围捕误差示意图。
具体实施方式
下面结合附图对本发明做进一步说明。
参照图1~图4,一种基于轨迹预测的编队围捕方法,所述方法包括以下步骤:
一种基于轨迹预测的编队围捕方法,包括以下步骤:
步骤1:为解决传感器视野丢失问题,对机器人运动状态进行估计与预测,过程如下:
1.1通过先验知识建立目标运动轨迹的拟合函数,如式(1)所示
Fk(t;Ck)=c0φ0(t)+c1φ1(t)+…+cγφγ(t) (1)
其中,Fk(t;Ck)为k时刻轨迹拟合函数,{φi(t)}i=0,1,…,γ为先验函数,根据先验知识设置为单项式或者三角函数,Ck={ci}i=0,1,…γ为k时刻待确定的参数,γ为拟合函数的阶数,根据实际需要选定;
1.2初始化{φi(t)}i=0,1,…,γ,Ck
1.3机器人传感器对环境进行感知,寻找目标,若感知到目标时,其量测信息为Yk,则存储k时刻量测数据yk=Yk
1.4设置合适的滑动时间窗口[k-l,k],其窗口长度为l,定义时间窗口内拟合残差函数如式(2)所示
Figure BDA0003344365180000051
并通过求解最优化问题,最小化拟合残差求解轨迹时间函数的参数估计如式(3)所示
Figure BDA0003344365180000052
1.5通过时刻k求解的参数估计获得最优轨迹时间函数
Figure BDA0003344365180000053
通过Fk(t)计算目标在k时刻的位置估计Fk(k)与下一时刻的位置预测Fk(k+1);
1.6令k→k+1,循环执行上述步骤1.3、1.4、1.5;当执行至步骤1.3时,先判断传感器是否感知到目标,若感知到目标则继续执行;若未感知到目标则执行步骤1.7;
1.7通过上一时刻的最优轨迹时间函数Fk-1(t)计算当前时刻的目标位置预测Fk-1(k),存储k时刻量测数据yk=Fk-1(k),返回执行步骤1.4;
步骤2:建立多机器人编队围捕模型,过程如下:
2.1建立单个机器人动力学模型,如式(4)所示
Figure BDA0003344365180000054
其中,
Figure BDA0003344365180000055
为k时刻机器人的位置坐标,θk为k时刻机器人的角度,vk为机器人的线速度,wk为机器人的角速度,T0为系统的时间周期;
2.2建立多机器人系统模型,如式(5)所示
Xi,k+1=Xi,k+Qui,k (5)
其中,i为机器人的编号,Xi,k∈R3×1为k时刻机器人i的坐标与角度,ui,k∈R2×1为k时机器人i的控制量输入,Q∈R3×2为控制量的传递函数;
步骤3:计算多机器人系统的控制量,对目标进行编队围捕,过程如下:
3.1初始化编队围捕方法,如选择方法1利用当前时刻目标信息进行围捕则执行步骤3.2;如选择方法2利用下一时刻目标信息进行围捕则执行步骤3.3;
3.2选取目标在k时刻的位置估计Fk(k),作为多机器人系统的围捕目标位置,qk=Fk(k);
3.3选取目标下一时刻的位置预测Fk(k+1),作为多机器人系统的围捕目标位置,qk=Fk(k+1);
3.4计算多机器人自身的期望围捕点,以环形队形为例,如式(6)所示
Figure BDA0003344365180000061
其中,
Figure BDA0003344365180000062
为机器人的期望围捕点坐标,R为圆环队形的半径,N为编队中移动机器人的数量;
3.5计算k时刻机器人与期望围捕点的距离和角度,如式(7)所示
Figure BDA0003344365180000063
其中,dk为k时刻机器人与期望围捕点的距离,
Figure BDA0003344365180000064
为k时刻机器人与期望围捕点的角度;
3.6计算k时刻机器人的控制量,如式(8)所示
Figure BDA0003344365180000065
其中,λ∈R2×1为控制参数。
首先机器人对目标位置进行感知,执行步骤1,利用最小化拟合残差算法迭代求得当前时刻特定长度时间窗口内目标运动的轨迹时间函数,通过轨迹拟合计算目标位置的状态估计,在视野丢失时利用上一时刻的轨迹时间函数计算当前时刻目标位置的状态预测值作为补偿。然后执行步骤3进行编队围捕,选择围捕方法计算多机器人围捕目标位置,根本围捕目标位置计算机器人自身的期望围捕坐标点,最后根据期望围捕坐标点计算机器人的控制量,完成编队控制。
为验证本发明所设计方法的有效性,采用以下实例来进行验证。
如图1所示,移动机器人的运动模型如式(9)所示:
Figure BDA0003344365180000071
在本实验中,目标机器人的初始坐标与角度设置为
Figure BDA0003344365180000072
线速度v(k)=0.2,角速度w(k)=0.12,时间周期T0=0.1。
进行编队围捕时采用3台围捕机器人,即N=3,初始位置坐标分别设置为(-5,-2)、(-5,-6)、(-5,-1),初始位姿角设置为0。设置编队围捕的队形半径R=3m,设置控制系数
Figure BDA0003344365180000073
得到移动机器人运动轨迹如图4所示。
为了方便误差效果的分析,验证预测算法的有效性,将环形编队中心点与目标点的距离作为误差,定义系统误差如式(10)所示:
Figure BDA0003344365180000074
结果如图3~5所示,图3为多机器人的编队围捕效果图,图4为运用目标估计的围捕误差示意图,图5为运用目标预测的围捕误差示意图,可以看到本发明给出的方法具有良好的编队围捕效果。
以上阐述的是本发明给出的一个实施例表现出的优良优化效果,显然本发明不只是限于上述实施例,在不偏离本发明基本精神及不超出本发明实质内容所涉及范围的前提下对其可作种种变形加以实施。

Claims (2)

1.一种基于轨迹预测的编队围捕方法,包括以下步骤:
步骤1:为解决传感器视野丢失问题,对机器人运动状态进行估计与预测,具体包括:
1.1通过先验知识建立目标运动轨迹的拟合函数,如式(1)所示
Fk(t;Ck)=c0φ0(t)+c1φ1(t)+…+cγφγ(t) (1)
其中,Fk(t;Ck)为k时刻轨迹拟合函数,{φi(t)}i=0,1,…,γ为先验函数,根据先验知识设置为单项式或者三角函数,Ck={ci}i=0,1,…γ为k时刻待确定的参数,γ为拟合函数的阶数,根据实际需要选定;
1.2初始化{φi(t)}i=0,1,…,γ,Ck
1.3机器人传感器对环境进行感知,寻找目标,若感知到目标时,其量测信息为Yk,则存储k时刻量测数据yk=Yk
1.4设置合适的滑动时间窗口[k-l,k],其窗口长度为l,定义时间窗口内拟合残差函数如式(2)所示
Figure FDA0003344365170000011
并通过求解最优化问题,最小化拟合残差求解轨迹时间函数的参数估计如式(3)所示
Figure FDA0003344365170000012
1.5通过时刻k求解的参数估计获得最优轨迹时间函数
Figure FDA0003344365170000013
通过Fk(t)计算目标在k时刻的位置估计Fk(k)与下一时刻的位置预测Fk(k+1);
1.6令k→k+1,循环执行上述步骤1.3、1.4、1.5;当执行至步骤1.3时,先判断传感器是否感知到目标,若感知到目标则继续执行;若未感知到目标则执行步骤1.7;
1.7通过上一时刻的最优轨迹时间函数Fk-1(t)计算当前时刻的目标位置预测Fk-1(k),存储k时刻量测数据yk=Fk-1(k),返回执行步骤1.4;
步骤2:建立多机器人编队围捕模型,具体包括:
2.1建立单个机器人动力学模型,如式(4)所示
Figure FDA0003344365170000021
其中,[sxk syk]T为k时刻机器人的位置坐标,θk为k时刻机器人的角度,vk为机器人的线速度,wk为机器人的角速度,T0为系统的时间周期;
2.2建立多机器人系统模型,如式(5)所示
Xi,k+1=Xi,k+Qui,k (5)
其中,i为机器人的编号,Xi,k∈R3×1为k时刻机器人i的坐标与角度,ui,k∈R2×1为k时机器人i的控制量输入,Q∈R3×2为控制量的传递函数;
步骤3:计算多机器人系统的控制量,对目标进行编队围捕,具体包括:
3.1初始化编队围捕方法,如选择方法1利用当前时刻目标信息进行围捕则执行步骤3.2;如选择方法2利用下一时刻目标信息进行围捕则执行步骤3.3;
3.2选取目标在k时刻的位置估计Fk(k),作为多机器人系统的围捕目标位置,qk=Fk(k);
3.3选取目标下一时刻的位置预测Fk(k+1),作为多机器人系统的围捕目标位置,qk=Fk(k+1);
3.4计算多机器人自身的期望围捕点,以环形队形为例,如式(6)所示
Figure FDA0003344365170000022
其中,
Figure FDA0003344365170000023
为机器人的期望围捕点坐标,R为圆环队形的半径,N为编队中移动机器人的数量;
3.5计算k时刻机器人与期望围捕点的距离和角度,如式(7)所示
Figure FDA0003344365170000031
其中,dk为k时刻机器人与期望围捕点的距离,
Figure FDA0003344365170000032
为k时刻机器人与期望围捕点的角度;
3.6计算k时刻机器人的控制量,如式(8)所示
Figure FDA0003344365170000033
其中,λ∈R2×1为控制参数。
2.如权利要求1所述的一种基于轨迹预测的编队方法,其特征在于,在所述步骤1中,利用最小化拟合残差算法迭代求得当前时刻特定长度时间窗口内目标运动的轨迹时间函数,通过轨迹拟合计算目标位置的状态估计,在视野丢失时利用上一时刻的轨迹时间函数计算当前时刻目标位置的状态预测值作为补偿,提高了定位精度,减少了目标视野丢失带来的影响。在步骤3执行在编队围捕时,通过对目标位置的预测值进行预测围捕,提高了围捕跟踪的效率。
CN202111317808.9A 2021-11-09 2021-11-09 一种基于轨迹预测的编队围捕方法 Active CN114089748B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111317808.9A CN114089748B (zh) 2021-11-09 2021-11-09 一种基于轨迹预测的编队围捕方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111317808.9A CN114089748B (zh) 2021-11-09 2021-11-09 一种基于轨迹预测的编队围捕方法

Publications (2)

Publication Number Publication Date
CN114089748A true CN114089748A (zh) 2022-02-25
CN114089748B CN114089748B (zh) 2024-05-03

Family

ID=80299363

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111317808.9A Active CN114089748B (zh) 2021-11-09 2021-11-09 一种基于轨迹预测的编队围捕方法

Country Status (1)

Country Link
CN (1) CN114089748B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110517286A (zh) * 2019-08-12 2019-11-29 杭州电子科技大学 基于多智能体控制的单目标动态跟踪与围捕方法
WO2020037610A1 (zh) * 2018-08-23 2020-02-27 深圳市大疆创新科技有限公司 目标对象的运动轨迹预测方法和监控平台
CN111107070A (zh) * 2019-12-10 2020-05-05 浙江工业大学 一种DoS攻击下的目标跟踪方法
CN111399534A (zh) * 2020-02-25 2020-07-10 清华大学 多无人机对空中高速运动目标的围捕方法及系统
CN112488359A (zh) * 2020-11-02 2021-03-12 杭州电子科技大学 基于rrt与ospa距离的多智能体静止多目标围捕方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020037610A1 (zh) * 2018-08-23 2020-02-27 深圳市大疆创新科技有限公司 目标对象的运动轨迹预测方法和监控平台
CN110517286A (zh) * 2019-08-12 2019-11-29 杭州电子科技大学 基于多智能体控制的单目标动态跟踪与围捕方法
CN111107070A (zh) * 2019-12-10 2020-05-05 浙江工业大学 一种DoS攻击下的目标跟踪方法
CN111399534A (zh) * 2020-02-25 2020-07-10 清华大学 多无人机对空中高速运动目标的围捕方法及系统
CN112488359A (zh) * 2020-11-02 2021-03-12 杭州电子科技大学 基于rrt与ospa距离的多智能体静止多目标围捕方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
林子键;王秋阳;肖杨;: "多机器人编队围捕算法研究", 计算机仿真, no. 04, 15 April 2017 (2017-04-15), pages 350 - 355 *
胡俊,朱庆保: "基于动态预测目标轨迹和围捕点的多机器人围捕算法", 电子学报, no. 11, 30 November 2011 (2011-11-30), pages 2480 - 2485 *

Also Published As

Publication number Publication date
CN114089748B (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
CN111052183B (zh) 利用事件相机的视觉惯性里程计
CN109597864B (zh) 椭球边界卡尔曼滤波的即时定位与地图构建方法及系统
CN110967017B (zh) 一种用于双移动机器人刚体协作搬运的协同定位方法
CN108120438B (zh) 一种基于imu和rfid信息融合的室内目标快速跟踪方法
CN102706342A (zh) 一种智能移动机器人的定位与环境建模方法
CN105096341B (zh) 基于三焦张量和关键帧策略的移动机器人位姿估计方法
US20240312061A1 (en) High-precision odometry estimation method based on double-layer filtering framework
US11620755B2 (en) Method and system for tracking trajectory based on visual localization and odometry
CN113253741B (zh) 一种agv叉车的控制方法、装置及计算机可读介质
Shen et al. Leader-follower formation control without leader’s velocity information
CN111025229B (zh) 一种水下机器人纯方位目标估计方法
CN113709662B (zh) 一种基于超宽带的自主式三维反演定位方法
CN113124854A (zh) 一种视觉定位方法、以及地图构建方法、装置
CN111924142B (zh) 一种基于序列图像的软着陆高精度避障方法
CN111709095B (zh) 一种面向复杂曲面6d虚拟夹具构造方法
CN117388870A (zh) 应用于激光雷达感知模型的真值生成方法、装置及介质
Zhang et al. A robust lidar slam system based on multi-sensor fusion
CN114089748A (zh) 一种基于轨迹预测的编队围捕方法
CN111426322A (zh) 同时估计状态和输入的自适应目标跟踪滤波方法及系统
CN109459769B (zh) 一种自主定位方法与系统
Demim et al. Visual SVSF-SLAM algorithm based on adaptive boundary layer width
CN111024071A (zh) Gnss辅助的加速度计和陀螺仪常值漂移估算的导航方法及系统
CN115839726A (zh) 磁传感器和角速度传感器联合标定的方法、系统及介质
Sjanic et al. A nonlinear least-squares approach to the SLAM problem
Low et al. Visual based SLAM using modified PSO

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant