CN109857102B - 一种基于相对位置的轮式机器人编队与跟踪控制方法 - Google Patents
一种基于相对位置的轮式机器人编队与跟踪控制方法 Download PDFInfo
- Publication number
- CN109857102B CN109857102B CN201910051172.4A CN201910051172A CN109857102B CN 109857102 B CN109857102 B CN 109857102B CN 201910051172 A CN201910051172 A CN 201910051172A CN 109857102 B CN109857102 B CN 109857102B
- Authority
- CN
- China
- Prior art keywords
- formation
- robot
- wheel type
- wheeled
- type robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015572 biosynthetic process Effects 0.000 title claims abstract description 112
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000004891 communication Methods 0.000 claims abstract description 20
- 238000005755 formation reaction Methods 0.000 claims description 105
- 230000008569 process Effects 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 239000003550 marker Substances 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 claims description 4
- 238000011065 in-situ storage Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000009466 transformation Effects 0.000 abstract description 5
- 230000008859 change Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000007547 defect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009012 visual motion Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明属于机器人编队和计算机视觉技术领域,一种基于相对位置的轮式机器人编队与跟踪控制方法,包括以下步骤:(1)安装三个轮式机器人,(2)构建实验场景地图,标记目标点,并实现多点顺序导航,(3)获得目标物体在双目视觉相机坐标系的相对位置信息,(4)设计实现ZigBee无线通讯部分,(5)编队队形的设计与实现,(6)队形变换的设计与实现,(7)实现整个编队的行进。本发明具有以下优点:一是、领航者轮式机器人以多点顺序导航的形式近似的实现了领航者轮式机器人沿实验场景中线行进,采用圆弧上采4个点的近似方法实现转弯,简单可行。二是、采用的领航者‑跟随者这种队形形式,容易实现编队队形变换。
Description
技术领域
本发明涉及一种基于相对位置的轮式机器人编队与跟踪控制方法,属于机器人编队和计算机视觉技术领域。
背景技术
近年来,随着机器人技术、网络通信技术和自动控制技术的不断发展,多个机器人协调合作研究引起了众多领域研究者的关注,并在军事、空间探索、交通控制、医疗与服务行业等领域展现了广阔的应用前景。多个机器人协调合作可以完成单一机器人难以完成的任务。其中编队问题是多个机器人协调合作中的一个典型性的问题。多个机器人编队控制技术是指多个机器人群体在向特定目标或者特定方向运动的过程中,相互之间保持预定的几何形态,如四边形、三角形、直线等队形,同时又要适应环境约束的控制技术。
目前,多机器人编队大多采用视觉动作捕捉系统、超宽带(UWB)系统等进行全局位置信息获取,其系统存在成本高昂、安装复杂、维护困难等缺点。特别是在新的环境下,安装系统需要校准后才能使用。而且,在室内等障碍物多的环境下,避免遮挡是主要问题,当前的解决办法只是增加设备数量,导致系统的成本增加。基于这两方面的考虑,其实际应用极其困难。有必要提出一种新的策略,克服全局信息获取的困难,易于实际应用,降低系统成本。
发明内容
为了克服现有技术中存在的不足,本发明目的是提供一种基于相对位置的轮式机器人编队与跟踪控制方法,该方法旨在综合应用多个传感器,基于机器人之间的相对位置以实现多个轮式机器人编队控制的目的。多个传感器的综合运用充分结合各个传感器的优点,将整个系统整合到一起,激光雷达通过发射激光束,探测目标位置与周围环境信息。由于雷达在工作的时候不受有源干扰影响,以激光为探测手段,获得的数据具有精度高,实时好,数据稳定等特点,适合用于机器人的导航;双目视觉的优点是在单目摄像头识别图像的基础上可以通过视差原理计算获得场景的深度信息;无线通信保证个体之间进行信息交互,实现协同作业。基于相对位置避免了获取全局位置信息,降低系统复杂度。
为了实现上述发明目的,解决已有技术中所存在的问题,本发明采取的技术方案是:一种基于相对位置的轮式机器人编队与跟踪控制方法,包括以下步骤:
步骤1、安装三个轮式机器人,包括一个领航者轮式机器人和两个跟随者轮式机器人,领航者轮式机器人以Kobuki轮式机器人为平台,以Jetson TK1单板计算机模块为上位机,搭载RPlidar A2二维激光雷达和ZigBee无线通讯模块,以尾部蓝色靶标作为标志物;跟随者轮式机器人以Kobuki轮式机器人为平台,以笔记本电脑为上位机,搭载ZED双目视觉相机和ZigBee无线通讯模块,以尾部红色靶标作为标志物;
步骤2、构建实验场景地图,标记目标点,并实现多点顺序导航,领航者轮式机器人利用搭载的RplidarA2二维激光雷达采用Hector的方法构建高精度的实验场景地图,并在已经构建好的实验场景地图上沿实验场景中线标记一系列的目标点,进而实现多点顺序导航,为整个编队提供行进路径;采用多点顺序导航的方式,实现领航者轮式机器人在实验场景的中线上行驶,最大限度的避免跟随者轮式机器人碰撞两侧墙壁;在拐角处,由于彩色靶标在轮式机器人的尾部,领航者轮式机器人要顾及跟随者轮式机器人的识别角度而不能进行直角转弯,而采用圆弧上采4个点的近似方法实现转弯;
步骤3、获得目标物体在双目视觉相机坐标系的相对位置信息,具体包括以下子步骤:
(a)、获取目标物体的像素坐标与深度信息,运行双目视觉相机,在HSV色彩空间利用颜色特征识别目标物体,取识别到的目标物体图像的中心点为测距点,该点的像素坐标为(u,v),与深度图像进行匹配获得该点的深度信息d;
(b)、获取目标物体在双目视觉相机坐标系中的三维空间位置,设目标物体在双目视觉相机坐标系中的三维空间位置为(X,Y,Z),则像素坐标系与双目视觉相机坐标系的三维坐标转换的矩阵形式为:
其中Zc为子步骤(a)获得的深度信息d,f为摄像机焦距,dx为每个像素在x轴上的物理尺寸,dy为每个像素在y轴上的物理尺寸,最终获得目标物体在双目视觉相机坐标系的三维空间位置为(X,Y,Z),再转换成相对位置信息;
步骤4、设计实现ZigBee无线通讯部分,ZigBee无线通讯模块采用协调器-终端的模式,领航者轮式机器人上的ZigBee协调器以广播的传输方式向跟随者轮式机器人上的ZigBee终端发送信号,信号内容为相应队形下设定的目标轮式机器人在跟随者轮式机器人视野中的相对位置信息,即相对角度和距离;
步骤5、编队队形的设计与实现,三个轮式机器人编队采用一字队形和三角队形两种编队形式,跟随者轮式机器人利用搭载的ZED双目视觉相机,通过计算机视觉的方法对目标轮式机器人上的彩色靶标进行识别与定位,确定相对位置关系,进而构成相应的编队队形;三角形编队中,在左侧跟随者轮式机器人双目视觉视野中,领航者轮式机器人位于左侧跟随者轮式机器人右前方偏角θ为25-35度,两个轮式机器人之间距离l为70-80厘米处;在右侧跟随者轮式机器人双目视觉视野中,领航者轮式机器人位于右侧跟随者轮式机器人左前方偏角θ为25-35度,两个轮式机器人之间距离l为70-80厘米处,由此构成三角形队形;一字形编队中,设置领航者轮式机器人为1号车,三角形编队中右侧跟随者轮式机器人为2号车,左侧跟随者轮式机器人为3号车;在2号车双目视觉视野中,1号车位于2号车正前方距离l为70-80厘米处,在3号车双目视觉视野中,2号车位于3号车正前方距离l为70-80厘米处,由此构成一字形队形;
步骤6、队形变换的设计与实现,在编队以三角形队形行进过程中,右侧跟随者轮式机器人变为直线跟随领航者轮式机器人行进,左侧跟随者轮式机器人原地待命等待右侧跟随者轮式机器人,当右侧跟随者轮式机器人出现在其视野中,左侧跟随者轮式机器人立即对右侧跟随者轮式机器人进行直线跟随行进,最终在行进的过程中实现编队队形的变换,即由三角形队形变换为一字形队形;
步骤7、实现整个编队的行进,在编队行进的过程中,领航者轮式机器人通过ZigBee无线通讯模块实时地向两个跟随者轮式机器人发送队形保持与变换的指令信号,两个跟随者轮式机器人根据接收到的相应信号调整与目标轮式机器人的相对位置,最终实现整个编队的行进。
本发明有益效果是:一种基于相对位置的轮式机器人编队与跟踪控制方法,包括以下步骤:(1)安装三个轮式机器人,(2)构建实验场景地图,标记目标点,并实现多点顺序导航,(3)获得目标物体在双目视觉相机坐标系的相对位置信息,(4)设计实现ZigBee无线通讯部分,(5)编队队形的设计与实现,(6)队形变换的设计与实现,(7)实现整个编队的行进。与已有技术相比,本发明具有以下优点:一是、基于相对位置关系的应用避免了获取全局坐标信息,易于实际应用;二是、领航者轮式机器人以多点顺序导航的形式近似的实现了领航者轮式机器人沿实验场景中线行进,以及采用圆弧上采4个点的近似方法实现转弯,简单可行,最大限度的消除编队行进受实验场景的影响;三是、采用的领航者-跟随者这种队形形式,可描述任意队形结构,容易实现编队队形变换。
附图说明
图1是本发明方法步骤流程图。
图2是领航者轮式机器人示意图。
图3是跟随者轮式机器人示意图。
图4是实验场景示意图。
图5是构建地图与多点顺序导航示意图。
图6是弧度圆角转弯示意图。
图7是目标物体识别效果图。
图8是目标物体三维定位示意图。
图9是ZigBee无线通讯示意图。
图10是三角形编队示意图。
图11是一字形编队示意图。
图12是编队变换效果图。
图中:(a)是编队变换前的三角形队形效果图。
(b)和(c)是编队变换过程的效果图。
(d)是编队变换后的一字形队形效果图。
图13是编队行进效果图。
图中:(a)是编队进入拐角前以一字形队形行进效果图。
(b)、(c)和(d)是一字形队形转弯处理效果图。
(e)和(f)是编队驶出拐角逐渐恢复一字形队形效果图。
具体实施方式
下面结合附图对本发明作进一步说明。
如图1所示,一种基于相对位置的轮式机器人编队与跟踪控制方法,包括以下步骤:
步骤1、安装三个轮式机器人,包括一个领航者轮式机器人和两个跟随者轮式机器人,领航者轮式机器人如图2所示,它是以Kobuki轮式机器人为平台,以Jetson TK1单板计算机模块为上位机,搭载RPlidar A2二维激光雷达和ZigBee无线通讯模块,并以尾部蓝色靶标作为标志物;跟随者轮式机器人如图3所示,它是以Kobuki轮式机器人为平台,以笔记本电脑为上位机,搭载ZED双目视觉相机和ZigBee无线通讯模块,并以尾部红色靶标作为标志物。
步骤2、构建实验场景地图,标记目标点,并实现多点顺序导航,领航者轮式机器人利用搭载的RplidarA2二维激光雷达采用Hector的方法构建高精度的实验场景地图,如图4所示,并在已经构建好的实验场景地图上沿实验场景中线标记一系列的目标点,进而实现多点顺序导航,如图5所示,为整个编队提供行进路径;采用多点顺序导航的方式,实现领航者轮式机器人在实验场景的中线上行驶,最大限度的避免跟随者轮式机器人碰撞两侧墙壁;在拐角处,由于彩色靶标在轮式机器人的尾部,领航者轮式机器人要顾及跟随者轮式机器人的识别角度而不能进行直角转弯,而采用圆弧上采4个点的近似方法实现转弯,如图6所示,实线为理想的圆弧轨迹,虚线为采用近似方法后的轨迹。
步骤3、获得目标物体在双目视觉相机坐标系的相对位置信息,具体包括以下子步骤:
(a)、获取目标物体的像素坐标与深度信息,运行双目视觉相机,在HSV色彩空间利用颜色特征识别目标物体,如图7所示。取识别到的目标物体图像的中心点为测距点,该点的像素坐标为(u,v),与深度图像进行匹配获得该点的深度信息d;
(b)、获取目标物体在双目视觉相机坐标系中的空间位置,如图8所示,设目标物体在双目视觉相机坐标系中的三维空间位置为(X,Y,Z),则像素坐标系与双目视觉相机坐标系的三维坐标转换的矩阵形式为:
其中Zc为子步骤(a)获得的深度信息d,f为摄像机焦距,dx为每个像素在x轴上的物理尺寸,dy为每个像素在y轴上的物理尺寸,最终获得目标物体在双目视觉相机坐标系的三维空间位置为(X,Y,Z),再转换成相对位置信息。
步骤4、设计实现ZigBee无线通讯部分,ZigBee无线通讯模块遵循ZStack协议,在IAR软件工具下对传输协议的应用层进行开发,采用协调器-终端的模式,领航者轮式机器人上的ZigBee协调器以广播的传输方式向跟随者轮式机器人上的ZigBee终端发送信号,信号内容为相应队形下设定的目标轮式机器人在跟随者轮式机器人视野中的相对位置信息,即相对角度和距离,如图9所示。
步骤5、编队队形的设计与实现,如图10和图11所示,三个轮式机器人编队采用一字队形和三角队形两种编队形式,跟随者轮式机器人利用搭载的ZED双目视觉相机,通过计算机视觉的方法对目标轮式机器人上的彩色靶标进行识别与定位,确定相对位置关系,进而构成相应的编队队形;三角形编队中,在左侧跟随者轮式机器人双目视觉视野中,领航者轮式机器人位于左侧跟随者轮式机器人右前方偏角θ为30度,两个轮式机器人之间距离l为75厘米处;在右侧跟随者轮式机器人双目视觉视野中,领航者轮式机器人位于右侧跟随者轮式机器人左前方偏角θ为30度,两个轮式机器人之间距离l为75厘米处,由此构成三角形队形;一字形编队中,设置领航者轮式机器人为1号车,三角形编队中右侧跟随者轮式机器人为2号车,左侧跟随者轮式机器人为3号车;在2号车双目视觉视野中,1号车位于2号车正前方距离l为75厘米处;在3号车双目视觉视野中,2号车位于3号车正前方距离l为75厘米处,由此构成一字形队形;
步骤6、队形变换的设计与实现,在编队以三角形队形行进过程中,如图12(a)所示;右侧跟随者轮式机器人变为直线跟随领航者轮式机器人行进,左侧跟随者轮式机器人原地待命等待右侧跟随者轮式机器人,如图12(b)所示;当右侧跟随者轮式机器人出现在左侧跟随者轮式机器人视野中,左侧跟随者轮式机器人立即对右侧跟随者轮式机器人进行直线跟随行进,如图12(c)所示;最终在行进的过程中实现编队队形的变换,如图12(d)所示,即由三角形队形变换为一字形队形;
步骤7、实现整个编队的行进,在编队行进的过程中,领航者轮式机器人通过ZigBee无线通讯模块实时的向两个跟随者轮式机器人发送队形保持与变换的指令信号,两个跟随者轮式机器人根据接收到的相应信号调整与目标轮式机器人的相对位置,最终实现整个编队的行进。以一字形队形转弯为例,编队进入拐角前以一字形队形行进,如图13(a)所示;由于一字形队形的长度原因,继续采用原有队形会造成3号车碰撞拐角墙壁,故当领航者轮式机器人进入拐角圆弧区域时,向跟随者轮式机器人发送一字形队形转弯处理的控制指令,在2号车双目视觉视野中,1号车位于2号车左前方45°75厘米处,在3号车双目视觉视野中,2号车位于3号车正前方75厘米处,如图13(b),图13(c),图13(d)所示;领航者轮式机器人驶出拐角圆弧区域后,向跟随者轮式机器人发送控制指令,在2号车双目视觉视野中,1号车位于2号车正前方75厘米处,在3号车双目视觉视野中,2号车位于3号车正前方75厘米处,逐渐恢复一字形队形,如图13(e),图13(f)所示。
Claims (1)
1.一种基于相对位置的轮式机器人编队与跟踪控制方法,其特征在于包括以下步骤:
步骤1、安装三个轮式机器人,包括一个领航者轮式机器人和两个跟随者轮式机器人,领航者轮式机器人以Kobuki轮式机器人为平台,以Jetson TK1单板计算机模块为上位机,搭载RPlidar A2二维激光雷达和ZigBee无线通讯模块,以尾部蓝色靶标作为标志物;跟随者轮式机器人以Kobuki轮式机器人为平台,以笔记本电脑为上位机,搭载ZED双目视觉相机和ZigBee无线通讯模块,以尾部红色靶标作为标志物;
步骤2、构建实验场景地图,标记目标点,并实现多点顺序导航,领航者轮式机器人利用搭载的RplidarA2二维激光雷达采用Hector的方法构建高精度的实验场景地图,并在已经构建好的实验场景地图上沿实验场景中线标记一系列的目标点,进而实现多点顺序导航,为整个编队提供行进路径;采用多点顺序导航的方式,实现领航者轮式机器人在实验场景的中线上行驶,最大限度的避免跟随者轮式机器人碰撞两侧墙壁;在拐角处,由于彩色靶标在轮式机器人的尾部,领航者轮式机器人要顾及跟随者轮式机器人的识别角度而不能进行直角转弯,而采用圆弧上采4个点的近似方法实现转弯;
步骤3、获得目标物体在双目视觉相机坐标系的相对位置信息,具体包括以下子步骤:
(a)、获取目标物体的像素坐标与深度信息,运行双目视觉相机,在HSV色彩空间利用颜色特征识别目标物体,取识别到的目标物体图像的中心点为测距点,该点的像素坐标为(u,v),与深度图像进行匹配获得该点的深度信息d;
(b)、获取目标物体在双目视觉相机坐标系中的三维空间位置,设目标物体在双目视觉相机坐标系中的三维空间位置为(X,Y,Z),则像素坐标系与双目视觉相机坐标系的三维坐标转换的矩阵形式为:
其中ZC为子步骤(a)获得的深度信息d,f为双目视觉相机焦距,dx为每个像素在x轴上的物理尺寸,dy为每个像素在y轴上的物理尺寸,最终获得目标物体在双目视觉相机坐标系的三维空间位置为(X,Y,Z),再转换成相对位置信息;
步骤4、设计实现ZigBee无线通讯部分,ZigBee无线通讯模块采用协调器-终端的模式,领航者轮式机器人上的ZigBee协调器以广播的传输方式向跟随者轮式机器人上的ZigBee终端发送信号,信号内容为相应队形下设定的目标轮式机器人在跟随者轮式机器人视野中的相对位置信息,即相对角度和距离;
步骤5、编队队形的设计与实现,三个轮式机器人编队采用一字队形和三角队形两种编队形式,跟随者轮式机器人利用搭载的ZED双目视觉相机,通过计算机视觉的方法对目标轮式机器人上的彩色靶标进行识别与定位,确定相对位置关系,进而构成相应的编队队形;三角形编队中,在左侧跟随者轮式机器人双目视觉视野中,领航者轮式机器人位于左侧跟随者轮式机器人右前方偏角θ为25-35度,两个轮式机器人之间距离l为70-80厘米处;在右侧跟随者轮式机器人双目视觉视野中,领航者轮式机器人位于右侧跟随者轮式机器人左前方偏角θ为25-35度,两个轮式机器人之间距离l为70-80厘米处,由此构成三角形队形;一字形编队中,设置领航者轮式机器人为1号车,三角形编队中右侧跟随者轮式机器人为2号车,左侧跟随者轮式机器人为3号车;在2号车双目视觉视野中,1号车位于2号车正前方距离l为70-80厘米处,在3号车双目视觉视野中,2号车位于3号车正前方距离l为70-80厘米处,由此构成一字形队形;
步骤6、队形变换的设计与实现,在编队以三角形队形行进过程中,右侧跟随者轮式机器人变为直线跟随领航者轮式机器人行进,左侧跟随者轮式机器人原地待命等待右侧跟随者轮式机器人,当右侧跟随者轮式机器人出现在其视野中,左侧跟随者轮式机器人立即对右侧跟随者轮式机器人进行直线跟随行进,最终在行进的过程中实现编队队形的变换,即由三角形队形变换为一字形队形;
步骤7、实现整个编队的行进,在编队行进的过程中,领航者轮式机器人通过ZigBee无线通讯模块实时地向两个跟随者轮式机器人发送队形保持与变换的指令信号,两个跟随者轮式机器人根据接收到的相应信号调整与目标轮式机器人的相对位置,最终实现整个编队的行进。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910051172.4A CN109857102B (zh) | 2019-01-21 | 2019-01-21 | 一种基于相对位置的轮式机器人编队与跟踪控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910051172.4A CN109857102B (zh) | 2019-01-21 | 2019-01-21 | 一种基于相对位置的轮式机器人编队与跟踪控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109857102A CN109857102A (zh) | 2019-06-07 |
CN109857102B true CN109857102B (zh) | 2021-06-15 |
Family
ID=66895185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910051172.4A Active CN109857102B (zh) | 2019-01-21 | 2019-01-21 | 一种基于相对位置的轮式机器人编队与跟踪控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109857102B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110244772B (zh) * | 2019-06-18 | 2021-12-03 | 中国科学院上海微系统与信息技术研究所 | 移动机器人的领航跟随系统和领航跟随控制方法 |
CN111190420B (zh) * | 2020-01-07 | 2021-11-12 | 大连理工大学 | 一种多移动机器人在安防领域中协作搜索与围捕方法 |
CN111309014B (zh) * | 2020-02-25 | 2023-10-20 | 西交利物浦大学 | Agv控制方法及装置 |
CN112099505B (zh) * | 2020-09-17 | 2021-09-28 | 湖南大学 | 一种低复杂度的移动机器人视觉伺服编队控制方法 |
CN113219854B (zh) * | 2021-04-20 | 2024-05-28 | 鹏城实验室 | 机器人仿真控制平台、方法及计算机存储介质 |
CN113405544B (zh) * | 2021-05-08 | 2024-02-09 | 中电海康集团有限公司 | 一种移动机器人的建图与定位方法及系统 |
CN113534824B (zh) * | 2021-07-21 | 2023-04-25 | 中国科学院沈阳自动化研究所 | 面向水下机器人集群的视觉定位与近距离密集编队方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102168985A (zh) * | 2010-12-08 | 2011-08-31 | 厦门雅迅网络股份有限公司 | 一种基于gps进行多点预约导航的方法及其系统 |
CN105467981A (zh) * | 2015-12-24 | 2016-04-06 | 中南大学 | 一种针对多个智能体的编队方法以及装置 |
CN105606092A (zh) * | 2016-02-04 | 2016-05-25 | 中国科学院电子学研究所 | 一种室内机器人定位方法及系统 |
CN105683000A (zh) * | 2013-10-23 | 2016-06-15 | 歌乐株式会社 | 自动停车控制装置和停车辅助装置 |
CN105783908A (zh) * | 2014-12-25 | 2016-07-20 | 阿里巴巴集团控股有限公司 | 导航方法、装置、客户端、服务器及导航计算设备 |
CN107014378A (zh) * | 2017-05-22 | 2017-08-04 | 中国科学技术大学 | 一种视线跟踪瞄准操控系统及方法 |
CN107424156A (zh) * | 2017-06-28 | 2017-12-01 | 北京航空航天大学 | 基于仿仓鸮眼视觉注意的无人机自主编队精准测量方法 |
CN108897321A (zh) * | 2018-07-16 | 2018-11-27 | 重庆理工大学 | 基于领航跟随法的机器人队形可变编队控制方法与控制器 |
CN109062229A (zh) * | 2018-08-03 | 2018-12-21 | 北京理工大学 | 基于双目视觉的水下机器人系统的领航跟随编队方法 |
CN109079738A (zh) * | 2018-08-24 | 2018-12-25 | 北京秘塔网络科技有限公司 | 一种自适应agv机器人及自适应导航方法 |
-
2019
- 2019-01-21 CN CN201910051172.4A patent/CN109857102B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102168985A (zh) * | 2010-12-08 | 2011-08-31 | 厦门雅迅网络股份有限公司 | 一种基于gps进行多点预约导航的方法及其系统 |
CN105683000A (zh) * | 2013-10-23 | 2016-06-15 | 歌乐株式会社 | 自动停车控制装置和停车辅助装置 |
CN105783908A (zh) * | 2014-12-25 | 2016-07-20 | 阿里巴巴集团控股有限公司 | 导航方法、装置、客户端、服务器及导航计算设备 |
CN105467981A (zh) * | 2015-12-24 | 2016-04-06 | 中南大学 | 一种针对多个智能体的编队方法以及装置 |
CN105606092A (zh) * | 2016-02-04 | 2016-05-25 | 中国科学院电子学研究所 | 一种室内机器人定位方法及系统 |
CN107014378A (zh) * | 2017-05-22 | 2017-08-04 | 中国科学技术大学 | 一种视线跟踪瞄准操控系统及方法 |
CN107424156A (zh) * | 2017-06-28 | 2017-12-01 | 北京航空航天大学 | 基于仿仓鸮眼视觉注意的无人机自主编队精准测量方法 |
CN108897321A (zh) * | 2018-07-16 | 2018-11-27 | 重庆理工大学 | 基于领航跟随法的机器人队形可变编队控制方法与控制器 |
CN109062229A (zh) * | 2018-08-03 | 2018-12-21 | 北京理工大学 | 基于双目视觉的水下机器人系统的领航跟随编队方法 |
CN109079738A (zh) * | 2018-08-24 | 2018-12-25 | 北京秘塔网络科技有限公司 | 一种自适应agv机器人及自适应导航方法 |
Non-Patent Citations (4)
Title |
---|
Distributed multi-robot formation control among obstacles: A geometric and optimization approach with consensus;J. Alonso-Mora等;《2016 IEEE International Conference on Robotics and Automation (ICRA)》;IEEE;20160609;第5356-5363页 * |
Multi-robot navigation in formation via sequential convex programming;Javier Alonso-Mora等;《2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)》;IEEE;20151217;第4634-4641页 * |
基于ROS的AGV多目标点导航系统研究及实现;吴慧超;《中国优秀硕士学位论文全文数据库 信息科技辑》;中国学术期刊(光盘版)电子杂志社;20180415(第04期);第1-80页 * |
基于视觉的多机器人协作SLAM研究;苑全德;《中国博士学位论文全文数据库 信息科技辑》;中国学术期刊(光盘版)电子杂志社;20170215(第02期);第1-124页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109857102A (zh) | 2019-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109857102B (zh) | 一种基于相对位置的轮式机器人编队与跟踪控制方法 | |
CN109579843B (zh) | 一种空地多视角下的多机器人协同定位及融合建图方法 | |
WO2020253316A1 (zh) | 移动机器人的领航跟随系统和领航跟随控制方法 | |
CN110362083B (zh) | 一种基于多目标跟踪预测的时空地图下自主导航方法 | |
CN111158355A (zh) | 自动导航云服务器及自动导航控制方法 | |
CN107144281B (zh) | 基于合作目标和单目视觉的无人机室内定位系统及定位方法 | |
Lin et al. | Autonomous quadrotor navigation with vision based obstacle avoidance and path planning | |
CN102944224A (zh) | 一种无人驾驶车的自动环境感知系统及其工作方法 | |
CN110703751B (zh) | 一种多移动机器人系统半自主编队及避障控制方法 | |
CN112947407A (zh) | 一种多智能体有限时间的编队路径跟踪控制方法及系统 | |
AU2021209229A1 (en) | Method and apparatus for positioning movable device, and movable device | |
CN114684202B (zh) | 一种用于自动驾驶车辆的智能系统及其集成控制方法 | |
Butzke et al. | The University of Pennsylvania MAGIC 2010 multi‐robot unmanned vehicle system | |
CN114923477A (zh) | 基于视觉与激光slam技术的多维度空地协同建图系统和方法 | |
CN111708010A (zh) | 一种可移动设备的定位方法、装置、系统及可移动设备 | |
CN116540784A (zh) | 一种基于视觉的无人系统空地协同导航与避障方法 | |
CN113610910B (zh) | 一种移动机器人避障方法 | |
Yang et al. | Vision-based intelligent vehicle road recognition and obstacle detection method | |
Su et al. | A framework of cooperative UAV-UGV system for target tracking | |
CN113110441B (zh) | 基于超宽带的农用无人车集群作业方法 | |
CN114897935A (zh) | 基于虚拟相机的无人机对空中目标物的追踪方法及系统 | |
Zhang et al. | UGV autonomous driving system design for unstructed environment | |
Qiu et al. | Augmented vehicular reality: Enabling extended vision for future automobiles | |
CN113203986B (zh) | 机器人集群编队定位方法 | |
Fantoni et al. | Optic flow-based control and navigation of mini aerial vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |