CN114063614A - 基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法 - Google Patents

基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法 Download PDF

Info

Publication number
CN114063614A
CN114063614A CN202111263973.0A CN202111263973A CN114063614A CN 114063614 A CN114063614 A CN 114063614A CN 202111263973 A CN202111263973 A CN 202111263973A CN 114063614 A CN114063614 A CN 114063614A
Authority
CN
China
Prior art keywords
robot
coordinate system
target
formation
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111263973.0A
Other languages
English (en)
Other versions
CN114063614B (zh
Inventor
王晓敏
孙振东
郑舟
孔旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University of Science and Technology
Original Assignee
Shandong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University of Science and Technology filed Critical Shandong University of Science and Technology
Priority to CN202111263973.0A priority Critical patent/CN114063614B/zh
Publication of CN114063614A publication Critical patent/CN114063614A/zh
Application granted granted Critical
Publication of CN114063614B publication Critical patent/CN114063614B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0289Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling with means for avoiding collisions between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法,其包括如下步骤:首先通过机载单目视觉感知算法建立的基于可在线更新掩模特征库的二维互相关特征滤波器,从拍摄的单幅图像中完成目标识别;基于建立的相对距离与相对角度模型从单幅图像中获得三维信息;基于局部位置信息的时间最优目标分配算法快速确定期望队形分布,以及完成机器人单元目标位置的优化匹配,实现基于梯度下降速度最快且无交叉初始轨迹的规划;当遇到障碍时自主切换至考虑避障与收敛速度的异步离散时变加权一致性队形快速构建算法,基于感知到的邻居位姿独立更新轨迹,直到队形收敛。本发明通信频次小、计算量小,能够避障,且提高了队形收敛速度。

Description

基于机载单目视觉感知的多小型机器人系统混合队形快速收 敛方法
技术领域
本发明涉及一种基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法。
背景技术
基于机载视觉感知的多小型机器人系统能够仅依靠其自身视觉系统感知的局部信息进行队形构建,进而完成给定任务,该系统在通信恶劣环境(例如地下、室内、水下或者GPS定位信号较弱的室外环境等)中有着广泛的应用前景。尽管针对多机器人系统的分布式控制方法的研究成果丰富,但现有的基于局部信息的队形收敛方法,主要在控制理论方面对考虑通信反馈延迟、有限时间约束等分布式控制算法做出了贡献,很少有研究者基于机载视觉系统感知的特性,提出适用于基于机载视觉感知系统的多机器人队形收敛方法;而已存在的基于机载视觉感知系统的多机器人队形收敛方法的收敛速度与抗干扰性不能兼顾。
由于基于机载单目视觉感知的多小型机器人系统因对通信环境要求比较低、成本低,因此得到了很多研究者的关注。由于机载单目视觉感知较小的范围、深度信息的缺失,机器人单元特征多变且差异性较大,使得机器人单元识别的准确度以及相对位姿的精度受到了各种因素的影响,降低了视觉反馈的准确性。此外,现有技术中很少有队形控制方法考虑机载视觉感知与伺服的特性,进而限制了队形收敛方法的准确性。因此,研究基于机载单目视觉感知的多小型机器人系统队形收敛方法变得至关重要。
发明内容
本发明的目的在于提出一种基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法,该方法通信频次小、计算量小,能够避障,而且通过局部位置信息的时间最优目标分配算法以及异步离散时变加权一致性队形构建算法的权值更新规则,能够提高队形收敛速度。
本发明为了实现上述目的,采用如下技术方案:
基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法,包括如下步骤:
步骤1.首先通过机载单目视觉感知算法建立的基于可在线更新掩模特征库的二维互相关特征滤波器从拍摄的单幅图像中完成目标识别,并基于建立的相对距离与相对角度模型从当前包含目标的单幅图像中获得目标的三维信息,即相对距离与相对角度;
步骤2.基于局部位置信息的时间最优目标分配算法快速完成期望队形分布,以及机器人单元目标位置的优化匹配,实现基于梯度下降速度最快且无交叉初始轨迹的规划;
步骤3.当遇到障碍时,无需通信,自主切换至考虑避障与收敛速度的异步离散时变加权一致性队形快速构建算法,基于感知到的邻居位姿,独立更新轨迹,直到队形收敛。
本发明具有如下优点:
1.本发明方法,仅依靠单目视觉系统和罗盘感知信息能够快速实现队形的收敛,能够降低对通信模块的要求,并降低了成本,提高了多机器人系统在地下、水下等通信受限区域的应用能力。
2.本发明方法支持机器人数量较多的多机器人系统,提高了应用范围。
3.本发明方法对多机器人系统的机器人单元性能要求较低,仅需要配备摄像机、罗盘、IMU以及简单的通信模块即可。
4.本发明方法提出的针对机载单目视觉感知的基于可在线更新掩模特征库的二维互相关特征滤波器,能够在相对复杂背景下,识别特征多样化的目标物体。
5.本发明方法提出的基于局部位置信息的时间最优目标分配算法,能够优化期望队形的分布以及目标分配,并生成基于梯度下降最大且无交叉的初始轨迹。
6.本发明方法提出的考虑避障与收敛速度的异步离散时变加权一致性队形快速构建算法,能够基于感知的邻居相对位姿信息,实现避障,更新轨迹,无需通信;而且给出的权值更新规则能够快速实现队形收敛。
附图说明
图1为本发明实施例中基于机载单目视觉感知的多小型机器人混合队形快速收敛方法的流程图;
图2为本发明实施例中目标识别实例示意图;
图3为本发明实施例中相对距离模型、相对角度模型学习过程示意图;
图4为本发明实施例中初始分布构成的连通有向图;
图5为本发明实施例中期望队形分布确定以及目标位置的优化分配示意图;
图6为本发明实施例中基于机载单目视觉感知的多小型机器人混合队形快速收敛方法的仿真结果示意图。
具体实施方式
本实施例提供了一种基于机载单目视觉感知的多小型机器人混合队形快速收敛方法,该方法包含机载单目视觉感知方法、基于局部位置信息的时间最优目标位置分配方法以及考虑避障与收敛速度的异步离散时变加权一致性队形快速构建方法。
其中,机载单目视觉感知方法解决了每个机器人单元的目标识别与空间定位问题。在识别目标时,通过建立掩模特征库,以及基于特征库的二维互相关特征滤波器,识别特征丰富且变化较大的目标,而且根据识别得到的目标特征,按照一定规则更新掩模特征库。为了获取目标三维信息,基于摄像机模型,构建了局部坐标系下的相对距离与相对角度模型,从单幅图像中确定感知到的邻近机器人及障碍物在其局部坐标系下的相对位姿。
基于局部位置信息的时间最优目标位置分配方法,解决了期望队形的分布与机器人单元在期望队形中的目标位置优化分配问题。在通过唯一一次通信,共享感知的机器人单元数量与相对位姿,确定多小型机器人系统初始分布后,基于局部位置信息的时间最优目标位置分配方法基于主分量分析法(PCA)优化期望队形分布使其趋近于初始分布,基于二分图原理设计目标位置分配规则,计算期望位置关系(Position Relationship,PR),规划避碰的初始无交叉轨迹。
考虑避障与收敛速度的异步离散时变加权一致性队形快速构建方法,解决了障碍环境下轨迹更新问题。当某机器人单元沿初始轨迹向目标位置运动过程中遇到动/静态障碍,不能明确自身在公共坐标系下的位姿时,基于提出的考虑避障与收敛速度的异步离散时变加权一致性队形快速构建算法,该机器人单元通过“感知、计算、运动”的循环,不断感知当前邻居与障碍信息,并异步独立更新轨迹直到收敛到期望队形。在轨迹更新过程中,每个机器人单元的运动控制由PID控制算法实现。
下面结合附图以及具体实施方式对本发明作进一步详细说明:
如图1所示,基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法,包括如下步骤:
步骤1.首先通过机载单目视觉感知算法建立的基于可在线更新掩模特征库的二维互相关特征滤波器从拍摄的单幅图像中完成目标识别,并基于建立的相对距离与相对角度模型从当前包含目标的单幅图像中获得目标的三维信息,即相对距离与相对角度。
步骤1.1.基于机载单目视觉感知的多小型机器人系统的工作环境为通信受限环境,例如密闭室内、地下,以及水下环境等,感知传感器为机载单目视觉系统和罗盘,无全局传感器。
多个小型机器人单元无序状态下进入通信受限环境,每个机器人单元原地绕自身旋转一周感知周边环境,步幅小于单目摄像机的水平视场范围,即rstep≤γhorizon。其中,rstep表示步幅,γhorizon表示机载单目摄像机的水平视场范围。各个机器人单元分别利用机载单目视觉系统识别邻居,即邻近机器人单元,估计与邻居在摄像机坐标系oicxicyic下的相对距离dij与相对角度
Figure BDA0003323130440000031
结合罗盘测量的全局方位θij,确定局部机器人坐标系olixliyli下邻居的相对位姿pij=(xij,yij),θij指机器人-i在感知到机器人-j时的全局方位,具体步骤如下:
I.目标识别:通过学习目标在一固定距离dmask不同姿态下的颜色、形状、结构特征,建立初始掩模特征库,并通过给出的二维互相关特征滤波器,如公式(1)所示,实现目标识别,并按照一定规则更新掩模库。图2给出了两种不同目标的识别实例,其中,图2中(a)图表示特征简单物体的识别过程,(b)图表示特征复杂物体的部分掩模,(c)图表示增加的部分掩模。
Figure BDA0003323130440000041
其中,f[mf,nf]是掩模特征库中的一个掩模,mf、nf分别表示掩模f[mf,nf]的第mf行、第nf列像素;g[x,y]是从当前感知图像中提取的一个特征区域,w和h分别表示特征区域g[x,y]的高和宽,x、y分别表示特征区域的第1行、第1列像素在当前感知图像中的第x行、第y列;
Figure BDA0003323130440000042
表示当f[mf,nf]与特征区域g[x,y]尺寸不一致时,通过放大或缩小调整f[mf,nf]的尺寸后,与特征区域g[x,y]尺寸一致后的掩模,并得到调整的尺度调整比例因子rg。(f*g)[x,y]的值越大,f[mf,nf]与特征区域g[x,y]的相似性越大。
基于此,定义一个可信度因子
Figure BDA0003323130440000043
判断特征区域g[x,y]是不是目标物体;其中,a=(f*g)[x,y],b=(f*f)[x,y]);当g[x,y]与掩模特征库中所有掩模对比完成后,若可信度因子的最大值λmax≥0.6,则g[x,y]为目标物体,否则不是目标物体。
当从当前感知图像上提取的全部特征区域都经过二维互相关特征滤波器筛选后,可以确定目标物体的数量,以及在当前感知图像中的位置,至此目标识别完成。而且给定阈值εmask,当λmax≤εmask时,将当前目标的特征区域g[x,y]制作成一个掩模,更新掩模特征库。
II.相对位姿确定:为了确定机器人单元在局部坐标系olixliyli的位姿,首先建立机器人局部坐标系olixliyli、摄像机坐标系oicxicyic,以及图像坐标系oiuivi;其中,图像坐标系的原点oi建立在图像的第1行、第1列像素上,oiui轴沿图像的行方向,oivi轴沿图像的列方向;摄像机坐标系oicxicyic的原点与机载摄像机的光心重合,光轴方向为摄像机坐标系oicxicyic的y轴,摄像机坐标系oicxicyic的x轴平行于图像坐标系oiuivi的oiui轴;机器人局部坐标系olixliyli的原点与摄像机坐标系oicxicyic的原点重合,罗盘测量的正北方向为机器人局部坐标系olixliyli的y轴,按右手准则确定机器人局部坐标系olixliyli的x轴。所有机器人局部坐标系olixliyli相互平行,降低了空间转换难度。其次,在摄像机坐标系oicxicyic下,通过学习不同距离下提取的特征尺度以及学习不同角度下提取的特征位置,如图3所示,建立目标距离dij与特征尺度比例因子关系,以及目标角度
Figure BDA0003323130440000051
与特征位置关系,如公式(2)所示;其中,在图3中,对应的学习范围如图浅灰色区域所示。
Figure BDA0003323130440000052
其中,rg为掩模f[mf,nf]的尺度调整比例因子,即特征尺度比例因子,u为目标在当前感知图像的图像坐标系oiuivi中的横坐标,即特征位置。a2、b1、a2、b2为待学习的参数,其中a1代表生成掩模库时的dmask,即构建初始掩模特征库时与目标固定的相对距离,如上述步骤1.1所示,a1的值围绕dmask上下波动,b1为不确定因子,a2、b2为比例系数。
当将识别得到的目标对应的特征尺度比例因子rg和特征位置u代入公式(2)后,得到目标的相对距离dij与相对角度
Figure BDA0003323130440000053
结合感知到机器人-j时罗盘测量得到的机器人-i的全局方位θij,从当前感知图像中实现机器人-j在olixliyli下相对位姿pij的确定,如公式(3)所示。
Figure BDA0003323130440000054
步骤1.2.每个机器人单元在完成周边环境感知后,多小型机器人系统通过唯一的一次通信共享感知到的局部信息,包括自身ID、感知到的邻居ID、邻居数量Ni,以及所有邻居在其坐标系olixliyli下相对位姿
Figure BDA0003323130440000055
使得每个机器人单元都拥有所有机器人单元感知的局部信息。然后,每个机器人单元各自从共享的这些相同信息中选择邻居数量Nk最多的机器人-k的局部坐标系olkxlkylk,作为共同的公共坐标系ocxcyc
步骤1.3.在确定初始分布过程中,每个机器人单元需要至少发现一个邻居,而且每个机器人对邻居的感知是一个有向通道,即机器人A感知到B,并不等同于机器人B同时感知到A。并且需要每个机器人感知邻居的子集Si={Rm,...Rq}的并集包含所有机器人单元构成的集合S={R1,...,Rn},即:
Figure BDA0003323130440000061
构成一个连通有向图,如图4所示。
其中,Rm、Rq、R1、Rn分别代表机器人-m,机器人-q,机器人-1,和机器人-n。
若不满足上述条件,则每个机器人单元随机微调位姿,重新回到步骤1.1,直至满足该条件;随后,以广度优先顺序遍历共享的邻居信息,逐层计算所有机器人单元在该公共坐标系下的坐标,得到多小型机器人系统的初始分布,如公式(4)所示。
Figure BDA0003323130440000062
其中,
Figure BDA0003323130440000063
存放除机器人-j之外的其他机器人单元感知到机器人-j的mj次公共坐标系下的坐标;pci最初为选作公共坐标系的机器人-k局部坐标系olkxlkylk下的邻居机器人-i的坐标pki,即pki=pci,pij则为机器人-i感知的邻居机器人-j坐标;随后,当机器人-j确定了其在公共坐标系下的一次坐标
Figure BDA0003323130440000064
后,其感知到的邻居坐标也会被转移到公共坐标系下,直到所有的机器人都被遍历一遍;多次被感知到的机器人单元坐标取平均值作为最终的坐标值pcj
本发明步骤1中提出了一种针对目标特征丰富且多变的可在线更新的掩模特征库,结合二维互相关特征滤波器,解决了现有方法目标识别准确度与速度不能兼容的问题,能够在相对复杂的背景环境中,正确且快速识别目标并计算相对位姿,满足编队对目标感知的精度以及速度要求,保证编队的成功率。
步骤2.基于局部位置信息的时间最优目标分配算法快速完成期望队形分布,以及机器人单元目标位置的优化匹配,实现基于梯度下降速度最快且无交叉初始轨迹的规划。
步骤2.1.在确定期望队形的分布过程中,需要期望队形分布尽可能趋近于初始分布,运动控制的能量消耗最小化。我们采用提出的基于局部位置信息的时间最优目标分配算法,通过主分量分析法(PCA)找到多小型机器人系统的初始分布的主轴方向,同时将该主轴方向作为期望队形的主轴,并作为期望队形坐标系opxpyp的y轴,以多小型机器人系统的初始分布的平均位置
Figure BDA0003323130440000065
为期望队形坐标系opxpyp的原点,按右手准则确定期望队形坐标系opxpyp的x轴。由期望队形的主轴与公共坐标系ocxcyc的x轴ocxc正方向的夹角用β表示。
随后确定公共坐标系ocxcyc与期望队形坐标系opxpyp之间的转换关系pci=Rppi+T,其中,pci,ppi分别表示机器人-i在公共坐标系、期望队形坐标系下的坐标,将多小型机器人系统的初始分布由公共坐标系ocxcyc转换到期望队形坐标系opxpyp下。
其中
Figure BDA0003323130440000071
是ocxcyc与opxpyp两个坐标系之间的旋转矩阵,
Figure BDA0003323130440000072
是ocxcyc与opxpyp两个坐标系之间的平移向量。然后,选择期望队形坐标系opxpyp下最大y值坐标ypmax对应的y轴位置(0,ypmax)作为期望队形中领导者的位置,期望队形中的其他位置按照机器人单元之间的期望相对距离与相对角度依次确定,例如:本发明构建的队形结构为一平面金字塔队形结构,如图5中(a)图所示的期望队形的确定,是一个主从式结构,除领导者外,每个机器人单元,又称为子机器人单元,都跟随其运动方向正前方的一个机器人单元,又称为父机器人单元,其位置的确定如公式(5)所示;
Figure BDA0003323130440000073
其中,de
Figure BDA0003323130440000074
分别是平面金字塔队形中父机器人与子机器人之间的期望相对距离与期望相对角度,
Figure BDA0003323130440000075
odpa、odch分别是父机器人单元与子机器人单元在期望队形中的序号,lych为子机器人在期望队形中的层号,(xpa,ypa)为期望队形中已确定位置的父机器人单元的坐标,(xch,ych)为坐标为(xpa,ypa)的父机器人单元的子机器人单元的坐标。
步骤2.2.在分配每个机器人的目标位置过程中,为避免目标运动过程中互相发生碰撞,基于图论中“两对固定顶点的无交叉连线之和距离最小”这一引理,如图5中(b)图所示,该图为目标位置分配引理示意图。以所有机器人单元当前位置与期望位置的距离和最小作为损失函数,完成目标位置的分配,如公式(6)所示。
Figure BDA0003323130440000076
其中,w(G)表示损失函数,G表示多小型机器人构成的拓扑结构,
Figure BDA0003323130440000077
为机器人-i在期望队形坐标系opxpyp下的初始位置的坐标,
Figure BDA0003323130440000078
与机器人-i在期望队形坐标系opxpyp下的目标位置的坐标,
Figure BDA0003323130440000079
表示
Figure BDA00033231304400000710
Figure BDA00033231304400000711
之间的相对距离。
为降低计算量,引入分域划界的理念,通过几何与代数相结合的方式,优化目标位置的分配,以满足上述公式(6);优化目标位置分配的具体过程如下:
首先将opxpyp坐标系下的多小型机器人系统的初始分布与期望队形分布分别按x坐标值划分成左右两个子集;然后每个子集内同样地按x、y坐标值不断划分子区域,直到子区域内最多包含两对初始位置与目标位置,记为一个联合子组;最后在联合子组内通过线性回归的方式迭代计算,使得分配的目标位置满足上述公式(6),而生成的连接每个机器人单元初始位置
Figure BDA0003323130440000081
与目标位置
Figure BDA0003323130440000082
的无交叉直线段记为初始轨迹,如图5中(c)图所示,该图示出了目标位置的优化。
本发明提出的步骤2能够在降低通信频次与通信量的基础上,通过提出的基于局部位置信息的时间最优目标位置分配方法确定期望队形的分布,以及优化目标位置的分配,并形成初始的无交叉运动轨迹,以降低每个机器人的运动距离。
步骤3.当遇到障碍时,无需通信,自主切换至考虑避障与收敛速度的异步离散时变加权一致性队形快速构建算法,基于感知到的邻居位姿,独立更新轨迹,直到队形收敛。
机器人单元在运动过程中遇到障碍后,其运动状态被截断,不能仅凭自身的机载感知传感器确定该机器人单元在公共坐标系中的位置。每个机器人单元需要依靠视觉和罗盘感知的局部坐标系下的邻居信息,独立快速更新轨迹,低功耗完成队形构建;
本发明提出一种异步离散时变加权一致性队形构建算法,如公式(7)所示,通过视觉感知、误差计算以及运动控制循环,不断更新轨迹,直到到达相对目标位置。
ei[(k+1)i]=Wi[ki]Ci1[ki]eid[ki]+Wio[ki]Ci2[ki]eio[ki] (7)
其中,(k+1)i、ki分别是机器人-i的第k+1个循环和k个循环,wij[ki]、Ni[ki]分别表示机器人-i在第ki个循环感知到的一个邻居机器人-j的权值、邻居数量;
Figure BDA0003323130440000083
表示机器人-i在第ki个循环感知到的所有邻居的权值构成的权值向量。
wio[ki]、Nio[ki]分别表示机器人-i在第ki个循环感知到的障碍物-o的权值、障碍物数量;
Figure BDA0003323130440000084
表示机器人-i在第ki个循环感知到所有障碍物的权值构成的权值向量;
Figure BDA0003323130440000085
是感知到所有邻居在机器人-i坐标系下的距离矢量dij[ki]与期望距离矢量
Figure BDA0003323130440000086
之差构成的矩阵,
Figure BDA0003323130440000087
Figure BDA0003323130440000088
Figure BDA0003323130440000089
分别是为避免过度轨迹规划从贝尔曼方程引入的惩罚因子矩阵,βij[ki],αij[ki]分别为感知到的机器人-j、障碍物-j对避免机器人-i过度轨迹规划与避免碰撞贡献的惩罚因子,
Figure BDA0003323130440000091
是感知到所有障碍物在机器人-i坐标系下的距离矢量dio[ki]构成的矩阵。
Figure BDA0003323130440000092
Figure BDA0003323130440000093
Figure BDA0003323130440000094
dij[ki]、
Figure BDA0003323130440000095
θij[ki]分别表示机器人-i在第ki次循环中感知到机器人-j时两者之间的相对距离、摄像机坐标系oicxicyic下的相对角度以及罗盘感知到此时机器人-i的全局方位。
Figure BDA0003323130440000096
分别表示机器人-i与机器人-j之间的期望距离与期望角度。
dio[ki]、
Figure BDA0003323130440000097
θio[ki]分别表示机器人-i在第ki次循环中感知到障碍物-o时两者之间的相对距离、摄像机坐标系oicxicyic下的相对角度以及罗盘感知到此时机器人-i的全局方位。
多小型机器人系统的收敛条件是Wi[ki]Ci1[ki]的谱半径ρi<1;其中,为避免过度规划轨迹,Ci1[ki]的每个元素βij[ki]∈[0,0.5],如公式(8)所示,其谱半径小于1,所以核心是确定Wi[ki],因为谱半径ρ(A)不大于矩阵任意范数||A||,即ρ(A)≤||A||,而基于视觉感知的队形构建能够看作离散马尔科夫链,其转移矩阵的范数满足||Pi[ki]||<1,因此,Wi[ki]从转移矩阵中得到,而且矩阵谱半径ρ越小收敛越快。
首先每个机器人单元基于视觉感知到的邻居建立当前子拓扑结构为强连通子图Gi[ki],通过设计感知到的邻居的可信度确定邻接矩阵
Figure BDA0003323130440000098
其中,aij[ki]表示感知到的邻居机器人-j在ki循环中的可信度,得到拉普拉斯矩阵
Figure BDA0003323130440000099
其中,
Figure BDA00033231304400000910
是强连通子图Gi[ki]的度量矩阵,
Figure BDA00033231304400000911
进而得到转移矩阵
Figure BDA00033231304400000912
t∈Z且t>0,Z表示自然数;因为两个矩阵乘积的范数小于或等于两个矩阵范数的乘积,即||AB||≤||A||||B||,加上转移矩阵
Figure BDA00033231304400000913
所以
Figure BDA00033231304400000914
进而得到
Figure BDA00033231304400000915
对应的范数最小,也就是对应的谱半径最小;因此,由
Figure BDA0003323130440000101
计算权值向量,使得每个循环收敛速度最快,提高多小型机器人系统的收敛速度。
两个惩罚因子矩阵中βij[ki]和αij[ki]的计算,分别如公式(8)和公式(9)所示:
Figure BDA0003323130440000102
其中,
Figure BDA0003323130440000103
βij[ki]因子调节机器人-i在邻居机器人-j方向上的分量,当分量较小时,能够增大分量,加快收敛速度;当分量较大时,能够减小分量,避免机器人之间发生碰撞。
Figure BDA0003323130440000104
其中,αij[ki]∈[-1,0],r是机器人的长度;
αij[ki]因子调节机器人-i与障碍物之间的距离,避免与障碍物发生碰撞。
所有到达目标位置的机器人,通过感知位于其运动方向前方的机器人的位置,微调自身位姿,降低机器人运动控制误差带来的影响。
本发明步骤3在遇到障碍后,每个机器人单元通过机载单目视觉感知环境,通过提出的异步离散时变加权一致性队形收敛算法,独立更新运动轨迹,并通过设计的权值向量与惩罚因子实现多机器人系统在未知环境中的快速收敛、避免轨迹过度规划,且降低了成本。
此外,本发明还给出了基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法的仿真结果,如图6所示,图6中(a)图表示Blender三维仿真环境,(b)图表示机器人的运动轨迹示意图。由图6能够看出,当机器人-1和机器人-5出现意外情况或遇到障碍,丢失自身在公共坐标系下的位姿时,由考虑避障与收敛速度的异步离散时变加权一致性队形快速构建算法基于邻居信息到达目标位置,其他机器人单元沿规划的初始轨迹达到目标位姿。
综上,本发明针对通信受限密闭室内地面环境或者水下同一深度环境中的多小型机器人系统(二维环境),结合成本低、硬件设备好实现、应用范围最广的单目视觉感知系统,提出了一种基于机载单目视觉感知、通信频次较低的混合队形快速收敛方法,该方法仅依靠单目视觉系统和罗盘感知信息能够快速实现队形的收敛,降低对通信模块的要求,并降低了成本,提高了多机器人系统在地下、水下等通信受限区域的应用能力。
当然,以上说明仅仅为本发明的较佳实施例,本发明并不限于列举上述实施例,应当说明的是,任何熟悉本领域的技术人员在本说明书的教导下,所做出的所有等同替代、明显变形形式,均落在本说明书的实质范围之内,理应受到本发明的保护。

Claims (4)

1.基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法,其特征在于,
包括如下步骤:
步骤1.首先通过机载单目视觉感知算法建立的基于可在线更新掩模特征库的二维互相关特征滤波器,从拍摄的单幅图像中完成目标识别;并基于建立的相对距离与相对角度模型,从当前包含目标的单幅图像中获得目标的三维信息,即相对距离与相对角度;
步骤2.基于局部位置信息的时间最优目标分配算法快速确定期望队形分布,以及完成机器人单元目标位置的优化匹配,实现基于梯度下降速度最快且无交叉初始轨迹的规划;
步骤3.当遇到障碍时,无需通信,自主切换至考虑避障与收敛速度的异步离散时变加权一致性队形快速构建算法,基于感知到的邻居位姿,独立更新轨迹,直到队形收敛。
2.根据权利要求1所述的多小型机器人系统混合队形快速收敛方法,其特征在于,
所述步骤1具体为:
步骤1.1.基于机载单目视觉感知的多小型机器人系统的工作环境为通信受限环境,感知传感器为机载单目视觉系统和罗盘;多个小型机器人单元无序状态下进入通信受限环境,每个机器人单元原地绕自身旋转一周感知周边环境,步幅小于单目摄像机的水平视场范围;
各个机器人单元分别利用机载单目视觉系统识别邻居,即邻近机器人单元,估计与邻居在其摄像机坐标系oicxicyic下的相对距离dij与相对角度
Figure FDA0003323130430000011
结合罗盘测量的全局方位θij,确定局部机器人坐标系olixliyli下邻居的相对位姿pij=(xij,yij),其中,θij指机器人-i在感知到机器人-j时的全局方位,具体步骤如下:
I.目标识别:首先在线下通过学习目标在一固定距离dmask不同姿态下的颜色、形状、结构特征,建立初始目标识别掩模特征库,然后通过给出的二维互相关特征滤波器,实现目标识别,二维互相关特征滤波器如公式(1)所示;
Figure FDA0003323130430000012
其中,f[mf,nf]是掩模特征库中的一个掩模,mf、nf分别表示掩模f[mf,nf]的第mf行、第nf列像素;g[x,y]是从当前感知图像中提取的一个特征区域,w和h分别表示特征区域g[x,y]的高和宽,x、y分别表示特征区域g[x,y]的第1行、第1列像素在当前感知图像中的第x行、第y列;
Figure FDA0003323130430000013
表示当掩模f[mf,nf]与特征区域g[x,y]尺寸不一致时,通过放大或缩小调整f[mf,nf]的尺寸后与特征区域g[x,y]尺寸一致后的掩模,并得到尺度调整比例因子rg;(f*g)[x,y]的值越大,表示掩模f[mf,nf]与特征区域g[x,y]的相似性越大;
基于此,定义一个可信度因子
Figure FDA0003323130430000021
判断特征区域g[x,y]是不是目标物体;
其中,a=(f*g)[x,y],b=(f*f)[x,y],b表示掩模跟掩模自身求相关程度;
当特征区域g[x,y]与掩模特征库中所有掩模对比完成后,若可信度因子的最大值λmax≥0.6,则特征区域g[x,y]为目标物体,否则,特征区域g[x,y]不是目标物体;
当从当前感知图像上提取的全部特征区域都经过二维互相关特征滤波器筛选后,确定目标物体的数量以及在当前感知图像中的位置,至此目标识别完成;给定阈值εmask,当λmax≤εmask时,将当前目标的特征区域g[x,y]制作成一个掩模,更新掩模特征库;
II.相对位姿确定:为了确定机器人单元在局部坐标系olixliyli的位姿,首先建立机器人局部坐标系olixliyli、摄像机坐标系oicxicyic以及图像坐标系oiuivi;图像坐标系的原点oi建立在图像的第1行、第1列像素上,oiui轴沿图像的行方向,oivi轴沿图像的列方向;摄像机坐标系oicxicyic的原点与机载摄像机的光心重合,光轴方向为摄像机坐标系oicxicyic的y轴,摄像机坐标系oicxicyic的x轴平行于图像坐标系oiuivi的oiui轴;机器人局部坐标系olixliyli的原点与摄像机坐标系oicxicyic的原点重合,罗盘测量的正北方向为机器人局部坐标系olixliyli的y轴,按右手准则确定机器人局部坐标系olixliyli的x轴;所有机器人局部坐标系olixliyli相互平行;
其次,在摄像机坐标系oicxicyic下,通过学习不同距离下提取的特征尺度以及学习不同角度下提取的特征位置,建立目标相对距离dij与特征尺度比例因子关系,即相对距离模型,以及目标相对角度
Figure FDA0003323130430000022
与特征位置关系,即相对角度模型,如公式(2)所示;
Figure FDA0003323130430000023
其中,rg为掩模f[mf,nf]的尺度调整比例因子,即特征尺度比例因子,u表示目标在当前感知图像的图像坐标系oiuivi中的横坐标,即特征位置;a2、b1、a2、b2为待学习的参数,其中,a1代表生成掩模库时的dmask,a1的值围绕dmask上下波动,b1为不确定因子,a2、b2为比例系数;当将识别得到的目标对应的特征尺度比例因子rg和特征位置u代入公式(2)后,得到目标的相对距离dij与相对角度
Figure FDA0003323130430000031
然后结合感知到机器人-j时罗盘测量得到的机器人-i的全局方位θij,从当前感知图像中实现机器人-j在机器人局部坐标系olixliyli下相对位姿pij的确定,如公式(3)所示;
Figure FDA0003323130430000032
步骤1.2.每个机器人单元在完成周边环境感知后,多小型机器人系统通过唯一的一次通信共享感知到的局部信息,包括自身ID、感知到的邻居ID、邻居数量Ni,以及所有感知到的邻居在其坐标系olixliyli下的相对位姿
Figure FDA0003323130430000033
使得每个机器人单元都拥有所有机器人单元感知的局部信息;
然后,每个机器人单元各自从共享的这些相同信息中选择邻居数量Nk最多的机器人-k的局部坐标系olkxlkylk,作为共同的公共坐标系ocxcyc,Nk=max{N1,...,Nn},n表示机器人-n,N1表示机器人-1感知的邻居数量,Nn表示机器人-n感知的邻居数量;
步骤1.3.在确定初始分布过程中,每个机器人单元需要至少发现一个邻居,而且每个机器人对邻居的感知是一个有向通道,并且需要每个机器人感知邻居的子集Si={Rm,...Rq}的并集包含所有机器人单元构成的集合S={R1,...,Rn},即:
Figure FDA0003323130430000034
构成一个连通有向图;
其中,Rm、Rq、R1、Rn分别代表机器人-m,机器人-q,机器人-1,和机器人-n;
若不满足上述条件,则每个机器人单元随机微调位姿,重新回到步骤1.1,直至满足该条件;随后,以广度优先顺序遍历共享的邻居信息,逐层计算所有机器人单元在该公共坐标系下的坐标,得到多小型机器人系统的初始分布,如公式(4)所示;
Figure FDA0003323130430000035
其中,
Figure FDA0003323130430000036
用于存放除机器人-j之外的其他机器人单元感知到机器人-j的mj次公共坐标系下的坐标;pci最初为选作公共坐标系的机器人-k局部坐标系olkxlkylk下的邻居机器人-i的坐标pki,即pki=pci,pij则为机器人-i感知的邻居机器人-j坐标;随后,当机器人-j确定了其在公共坐标系下的一次坐标
Figure FDA0003323130430000037
后,其感知到的邻居坐标也会被转移到公共坐标系下,直到所有的机器人都被遍历一遍;多次被感知到的机器人单元坐标取平均值作为最终的坐标值pcj
3.根据权利要求2所述的多小型机器人系统混合队形快速收敛方法,其特征在于,
所述步骤2具体为:
步骤2.1.通过主分量分析法找到多小型机器人系统的初始分布的主轴方向,同时将该主轴方向作为期望队形的主轴,并作为期望队形坐标系opxpyp的y轴,以多小型机器人系统的初始分布的平均位置
Figure FDA0003323130430000041
为期望队形坐标系opxpyp的原点,按右手准则确定期望队形坐标系opxpyp的x轴;
期望队形的主轴与公共坐标系ocxcyc的x轴ocxc正方向的夹角用β表示;
随后确定公共坐标系ocxcyc与期望队形坐标系opxpyp之间的转换关系pci=Rppi+T,其中,pci、ppi分别表示机器人-i在公共坐标系ocxcyc、期望队形坐标系opxpyp下的坐标,将多小型机器人系统的初始分布由公共坐标系ocxcyc转换到期望队形坐标系opxpyp下;
其中,
Figure FDA0003323130430000042
是公共坐标系ocxcyc与期望队形坐标系opxpyp之间的旋转矩阵,
Figure FDA0003323130430000043
是公共坐标系ocxcyc与期望队形坐标系opxpyp之间的平移向量;
然后,选择期望队形坐标系opxpyp下最大y值坐标ypmax对应的y轴位置(0,ypmax)作为期望队形中领导者的位置,期望队形中的其他位置按照机器人单元之间的期望相对距离de与相对角度
Figure FDA0003323130430000044
依次确定;
步骤2.2.在分配每个机器人单元的目标位置过程中,为避免目标运动过程中互相发生碰撞,以所有机器人单元当前位置与期望位置的距离和最小作为损失函数,完成目标位置的分配,如公式(5)所示;
Figure FDA0003323130430000045
其中,w(G)表示损失函数,G表示多小型机器人构成的拓扑结构,
Figure FDA0003323130430000046
为机器人-i在期望队形坐标系opxpyp下的初始位置坐标,
Figure FDA0003323130430000047
与机器人-i在期望队形坐标系opxpyp下的目标位置坐标,
Figure FDA0003323130430000048
表示初始位置坐标
Figure FDA0003323130430000049
与目标位置坐标
Figure FDA00033231304300000410
之间的相对距离;
为降低计算量,引入分域划界的理念,通过几何与代数相结合的方式,优化目标位置的分配,以满足上述公式(5);优化目标位置分配的具体过程如下:
首先将期望队形坐标系opxpyp下的多小型机器人系统的初始分布与期望队形分布分别按x坐标值划分成左右两个子集;然后每个子集内按x、y坐标值不断划分子区域,直到子区域内最多包含两对初始位置与目标位置,记为一个联合子组;最后在联合子组内通过线性回归的方式迭代计算,使得分配的目标位置满足上述公式(5),而生成的连接每个机器人单元初始位置坐标
Figure FDA0003323130430000051
与目标位置坐标
Figure FDA0003323130430000052
的无交叉直线段记为初始轨迹。
4.根据权利要求3所述的多小型机器人系统混合队形快速收敛方法,其特征在于,
所述步骤3具体为:
机器人单元在运动过程中遇到障碍后,其运动状态被截断,不能仅凭自身的机载感知传感器确定该机器人单元在公共坐标系中的位置,每个机器人单元需要依靠视觉和罗盘感知的局部坐标系下的邻居信息,独立快速更新轨迹,低功耗完成队形构建;
提出一种异步离散时变加权一致性队形构建算法,如公式(6)所示,通过视觉感知、距离误差矢量计算以及运动控制循环,不断更新轨迹,直到到达相对目标位置;
ei[(k+1)i]=Wi[ki]Ci1[ki]eid[ki]+Wio[ki]Ci2[ki]eio[ki] (6)
其中,(k+1)i、ki分别是机器人-i的第k+1个循环和k个循环,wij[ki]、Ni[ki]分别表示机器人-i在第ki个循环感知到的一个邻居机器人-j的权值、邻居数量;
Figure FDA0003323130430000053
表示机器人-i在第ki个循环感知到的所有邻居的权值构成的权值向量;
wio[ki]、Nio[ki]分别表示机器人-i在第ki个循环感知到的障碍物-o的权值、障碍物数量;
Figure FDA0003323130430000054
表示机器人-i在第ki个循环感知到所有障碍物的权值构成的权值向量;
Figure FDA0003323130430000055
是感知到所有邻居在机器人-i坐标系下的距离矢量dij[ki]与期望距离矢量
Figure FDA0003323130430000056
之差构成的矩阵,
Figure FDA0003323130430000057
Figure FDA0003323130430000058
Figure FDA0003323130430000059
分别是为避免过度轨迹规划从贝尔曼方程引入的惩罚因子矩阵,βij[ki]、αij[ki]分别为感知到的机器人-j、障碍物-j对避免机器人-i过度轨迹规划与避免碰撞贡献的惩罚因子,
Figure FDA00033231304300000510
是感知到所有障碍物在机器人-i坐标系下的距离矢量dio[ki]构成的矩阵;
Figure FDA0003323130430000061
Figure FDA0003323130430000062
Figure FDA0003323130430000063
dij[ki]、
Figure FDA0003323130430000064
θij[ki]分别表示机器人-i在第ki次循环中感知到机器人-j时两者之间的相对距离、摄像机坐标系oicxicyic下的相对角度以及罗盘感知到此时机器人-i的全局方位;
Figure FDA0003323130430000065
Figure FDA0003323130430000066
分别表示机器人-i与机器人-j人之间的期望距离与期望角度;
dio[ki]、
Figure FDA0003323130430000067
θio[ki]分别表示机器人-i在第ki次循环中感知到障碍物-o时两者之间的相对距离、摄像机坐标系oicxicyic下的相对角度以及罗盘感知到此时机器人-i的全局方位;
多小型机器人系统的收敛条件是Wi[ki]Ci1[ki]的谱半径ρi<1;
其中,为避免过度规划轨迹,Ci1[ki]的每个元素βij[ki]∈[0,0.5],如公式(7)所示,其谱半径小于1,所以核心是确定Wi[ki],因为谱半径ρ(A)不大于矩阵任意范数||A||,即ρ(A)≤||A||,而基于视觉感知的队形构建能够看作离散马尔科夫链,其转移矩阵的范数满足||Pi[ki]||<1,因此,Wi[ki]从转移矩阵中得到,而且矩阵谱半径ρ越小收敛越快;
首先每个机器人单元基于视觉感知到的邻居建立当前子拓扑结构为强连通子图Gi[ki],通过设计感知到的邻居的可信度确定邻接矩阵
Figure FDA0003323130430000068
其中,aij[ki]表示感知到的邻居机器人-j在ki循环中的可信度,得到拉普拉斯矩阵
Figure FDA0003323130430000069
其中,
Figure FDA00033231304300000610
是强连通子图Gi[ki]的度量矩阵,
Figure FDA00033231304300000611
进而得到转移矩阵
Figure FDA00033231304300000612
t∈Z且t>0,Z表示自然数;因为两个矩阵乘积的范数小于或等于两个矩阵范数的乘积,即||AB||≤||A||||B||,加上转移矩阵
Figure FDA00033231304300000613
所以
Figure FDA00033231304300000614
进而得到
Figure FDA00033231304300000615
对应的范数最小,也就是对应的谱半径最小;因此,由
Figure FDA00033231304300000616
计算权值向量,使得每个循环收敛速度最快,以提高多小型机器人系统的收敛速度;
两个惩罚因子矩阵中βij[ki]和αij[ki]的计算,分别如公式(7)和公式(8)所示:
Figure FDA0003323130430000071
其中,
Figure FDA0003323130430000072
βij[ki]因子调节机器人-i在邻居机器人-j方向上的分量;
Figure FDA0003323130430000073
其中,αij[ki]∈[-1,0],r是机器人的长度;αij[ki]因子调节机器人-i与障碍物之间的距离。
CN202111263973.0A 2021-10-27 2021-10-27 基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法 Active CN114063614B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111263973.0A CN114063614B (zh) 2021-10-27 2021-10-27 基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111263973.0A CN114063614B (zh) 2021-10-27 2021-10-27 基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法

Publications (2)

Publication Number Publication Date
CN114063614A true CN114063614A (zh) 2022-02-18
CN114063614B CN114063614B (zh) 2023-07-25

Family

ID=80235849

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111263973.0A Active CN114063614B (zh) 2021-10-27 2021-10-27 基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法

Country Status (1)

Country Link
CN (1) CN114063614B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115542924A (zh) * 2022-11-28 2022-12-30 中汽智联技术有限公司 路径规划方法、设备和存储介质
CN116954264A (zh) * 2023-09-08 2023-10-27 杭州牧星科技有限公司 分布式高亚音速无人机集群控制系统及其方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050131581A1 (en) * 2003-09-19 2005-06-16 Sony Corporation Environment recognizing device, environment recognizing method, route planning device, route planning method and robot
KR20150068742A (ko) * 2013-12-12 2015-06-22 레드원테크놀러지 주식회사 다중 이동 로봇의 대형 제어 방법 및 시스템
CN110244756A (zh) * 2019-04-29 2019-09-17 福州大学 无人机快速追踪协同避障方法
CN112987732A (zh) * 2021-02-20 2021-06-18 陕西理工大学 基于人工势场法的多移动机器人编队避障控制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050131581A1 (en) * 2003-09-19 2005-06-16 Sony Corporation Environment recognizing device, environment recognizing method, route planning device, route planning method and robot
KR20150068742A (ko) * 2013-12-12 2015-06-22 레드원테크놀러지 주식회사 다중 이동 로봇의 대형 제어 방법 및 시스템
CN110244756A (zh) * 2019-04-29 2019-09-17 福州大学 无人机快速追踪协同避障方法
CN112987732A (zh) * 2021-02-20 2021-06-18 陕西理工大学 基于人工势场法的多移动机器人编队避障控制方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115542924A (zh) * 2022-11-28 2022-12-30 中汽智联技术有限公司 路径规划方法、设备和存储介质
CN116954264A (zh) * 2023-09-08 2023-10-27 杭州牧星科技有限公司 分布式高亚音速无人机集群控制系统及其方法
CN116954264B (zh) * 2023-09-08 2024-03-15 杭州牧星科技有限公司 分布式高亚音速无人机集群控制系统及其方法

Also Published As

Publication number Publication date
CN114063614B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
CN111240319B (zh) 室外多机器人协同作业系统及其方法
CN112684807A (zh) 无人机集群三维编队方法
Nüchter et al. Heuristic-based laser scan matching for outdoor 6D SLAM
CN114063614A (zh) 基于机载单目视觉感知的多小型机器人系统混合队形快速收敛方法
CN106502250B (zh) 三维空间内多机器人编队的路径规划算法
CN112097769B (zh) 仿信鸽脑-海马的无人机同时定位与建图导航系统及方法
Costante et al. Exploiting photometric information for planning under uncertainty
CN111474953B (zh) 多动态视角协同的空中目标识别方法及系统
CN110989639B (zh) 一种基于应力矩阵的水下航行器编队控制方法
CN111338384B (zh) 一种仿蛇机器人自适应路径跟踪方法
WO2021179409A1 (zh) 一种非规则形状移动机器人的路径规划方法
CN115903879A (zh) 基于地形数据插值技术的无人机航迹规划方法
Ni et al. An improved real-time path planning method based on dragonfly algorithm for heterogeneous multi-robot system
CN114077256A (zh) 一种水上无人船路径规划方法
CN111667100A (zh) 敏捷卫星单轨多点目标立体成像任务规划方法及系统
CN109900272B (zh) 视觉定位与建图方法、装置及电子设备
CN111474932A (zh) 一种集成情景经验的移动机器人建图与导航方法
Wu et al. Real-time three-dimensional smooth path planning for unmanned aerial vehicles in completely unknown cluttered environments
CN110989350B (zh) 一种基于膜计算实现井下移动机器人位姿优化方法及装置
Belavadi et al. Frontier exploration technique for 3d autonomous slam using k-means based divisive clustering
Li et al. UAV-BS formation control method based on loose coupling structure
CN113674310A (zh) 一种基于主动视觉感知的四旋翼无人机目标跟踪方法
Bender et al. Map-based drone homing using shortcuts
CN115755975A (zh) 多无人机协同的分布式空间搜索及轨迹规划方法及装置
Becerra et al. Wheeled mobile robots navigation from a visual memory using wide field of view cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant