CN110244772A - 移动机器人的领航跟随系统和领航跟随控制方法 - Google Patents

移动机器人的领航跟随系统和领航跟随控制方法 Download PDF

Info

Publication number
CN110244772A
CN110244772A CN201910528247.3A CN201910528247A CN110244772A CN 110244772 A CN110244772 A CN 110244772A CN 201910528247 A CN201910528247 A CN 201910528247A CN 110244772 A CN110244772 A CN 110244772A
Authority
CN
China
Prior art keywords
robot
navigator
truck
follow
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910528247.3A
Other languages
English (en)
Inventor
沈国锋
周明拓
王华俊
李剑
杨旸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Microsystem and Information Technology of CAS
ShanghaiTech University
Original Assignee
Shanghai Institute of Microsystem and Information Technology of CAS
ShanghaiTech University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Microsystem and Information Technology of CAS, ShanghaiTech University filed Critical Shanghai Institute of Microsystem and Information Technology of CAS
Priority to CN201910528247.3A priority Critical patent/CN110244772A/zh
Publication of CN110244772A publication Critical patent/CN110244772A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/12Target-seeking control

Abstract

本发明提供一种移动机器人的领航跟随系统,包括:机器人,广播自身的历史速度信息,设有标志板;雾计算节点,包括无线接入模块和通用计算模块;视觉识别模块,包括相机和视觉处理模块,视觉处理模块接收相机数据,识别标志板,并估计其与前车的相对位置和姿态;跟随控制模块,安装在通用计算模块中,根据广播的信息和视觉识别模块的估计值,转化为实时速度信息。本发明还提供领航跟随控制方法。本发明的领航跟随系统采用姿态和位置传感器和相机,在雾计算节点的协助下,利用前车的速度信息和本车视觉信息估计跟随者的相对位置和姿态,实现机器人编队跟随,降低了单个机器人的硬件成本,克服了现有方法在宽阔地域或陌生环境场景下不可用的缺陷。

Description

移动机器人的领航跟随系统和领航跟随控制方法
技术领域
本发明属于物理信息系统领域,涉及一种移动机器人的领航跟随系统和领航跟随控制方法。
背景技术
目前,移动机器人已经在工业制造、农业生产、服务业、救援抢险等领域广泛应用,不仅解放人力、提高了生产力,还能完成人所不能及的工作。在一些场景中,从实际需求或成本考虑出发,往往需要多机器人协同合作完成某一任务。其中多机器人编队跟随行驶是一项常见的协作任务,要求后方机器人在领航机器人的带领下沿同一航线运动[杨萍,侯静茹,全方位移动机器人编队控制研究,《机电工程》,2017年7月]。例如,在运输任务中领航机器人装备齐全的传感器,具有自主导航和避障能力,而跟随机器人为承重搬运设计,精简了传感导航系统,只能按照领航机器人的轨迹行驶;再比如,移动机器人自主导航系统由于某些原因失能时,降级到跟随模式,需要在领航机器人的带领下返回机器人母港。因此,对于移动机器人的跟随控制研究是一项重要内容。
在移动机器人跟随控制应用中,机器人定位和机器人运动控制是两个主要的技术挑战。现有的大多数机器人定位方案通过全局定位系统获得各机器人的位置和航向,且机器人领航跟随模式中的运动控制研究已较为成熟,提出了瞄准-前进、虚结构等方法[郭福娟《基于无线传感器网络的移动机器人编队控制研究》哈尔滨工业大学,2012年以及,韩青,张常亮,《Leader-Followers多机器人编队控制方法》,机床与液压,2017年9月]。但现有的机器人定位方法在有些场景下无法获得全局位置信息,例如在室内无法获得GPS信号;在陌生地带无法通过无线电信标定位;在阴暗复杂的环境下,无法通过顶部摄像机识别机器人位置;且现有的这些运动控制研究将已知各机器人位置信息作为前提条件,与机器人定位割裂开来,没有完全利用系统信息,并且这些方法的目的是保持队形,并不严格要求跟随者遵循领航者轨迹。
具体来说,专利号为CN105527960A的专利文件公开了一种基于领航跟随的移动机器人编队控制方法,并在其中公开了一种基于非线性最小二乘预测模型的跟随方法。该方法采用了全局定位系统,在平台顶端布置高清CCD摄像机,通过颜色识别算法获取机器人的全局位置和姿态信息,再发送给各机器人,实现编队控制。该方法可以避免由于暂通信异常造成的编队队形偏离,但基于视觉的全局定位模块存在局限性,在大活动区域、狭窄地带或陌生环境中没有条件通过顶部摄像机进行全局定位,机器人的遮挡也会影响该方法性能。
专利号为CN102662377A的专利文件公开了一种基于无线传感器网络的多移动机器人编队系统和方法,具体公开了主从机器人节点通过信标节点确定自身位置,主机器人带领所有机器人节点向目标导航。该方法利用无线传感网来实现全局定位,解除了对各种传感器的依赖,一定程度上降低了机器人成本,但事先需要在机器人运动区域布置传感器网络和已知位置的信标,不适合在陌生环境下使用,此外该方法本身无法实现导航中的避障,仍需增加额外传感器,削弱了该方法的优势。
专利号为CN109062204A的专利文件公开了一种基于跟随领航者编队的多移动机器人控制系统,也公开了一种通过视觉探测器来全局定位的编队跟随方法,但在编队控制上使用模型,在转向时后车无法严格遵循前车轨迹。
不采用全局定位方法的移动机器人的领航跟随方法依靠超声波、视觉等单一手段探测相对位置和姿态,克服了上述使用场景受限的问题,但这样的算法容易在转向时丢失。
例如,专利号为CN108594824A的专利文件公开了一种基于视觉导航和超声波阵列的车辆编队装置和方法,具体公开了在主从车辆之间通过超声波阵列和视觉方法综合测量相对位置和姿态,能够在不使用定位系统的情况下使车辆编队行驶。但该方法中使用的声波和视觉只能在可视范围内起作用,障碍物遮挡、前车转弯过快等情况下,后车都有可能跟随失败。
综上所述,现有的移动机器人领航跟随方法中,需要通过图像、传感器网络等方法获取多机器人的全局绝对位置,限制了使用场景;另一类依靠超声波、视觉等单一手段探测相对位置和姿态的算法容易在转向时跟随丢失;若采用更加复杂的双目视觉算法作姿态估计,对机器人计算能力有更高的要求,同时带来成本和能耗的上升。在跟随运动控制方面,现有方案多使用瞄准-前进的简单控制或者跟随方法,跟随机器人难以严格遵循领航者的轨迹行驶。
雾计算/边缘计算模式作为新兴的计算架构,伴随日益增长的物联网应用而产生,其主要思想是在靠近物理设备的边缘提供通信、技术和存储服务,这对机器人跟随应用的实施提供了新的思路。借助网络中的雾计算节点提供的高速低时延的本地网络,机器人之间可以传输实时信息,并将复杂的计算任务(如图像处理)卸载到雾计算节点上进行。雾计算模式为构建计算复杂、成本和能耗经济的机器人跟随系统提供了可能。在此之前,受限于通信能力,现有的移动机器人跟随控制系统往往使用本地算力运行控制算法;传统接入网络单纯被看作管道,机器人系统设计者亦没有动机分布式地部署计算组件。
发明内容
本发明的目的是提供一种移动机器人的领航跟随系统和领航跟随控制方法,以避免对全局定位信息的依赖,使机器人遵循其前车轨迹的问题,并降低成本。
为了实现上述目的,本发明提供了一种移动机器人的领航跟随系统,其特征在于,包括:机器人,分为位于最前方的领航机器人和多个跟随机器人,每个跟随机器人的前一个机器人为其前车,每个机器人设置为广播自身的历史速度信息,包括姿态和位置传感器,且其尾部设有标志板;至少一个雾计算节点,包括无线接入模块和通用计算模块,其独立于各机器人并通过无线接入模块与各机器人均通信相连;视觉识别模块,包括一相机和一视觉处理模块,相机搭载在各跟随机器人上,视觉处理模块安装于所述通用计算模块上,该视觉处理模块接收相机采集到的原始数据,识别该跟随机器人的前车的标志板,并估计其与前车的相对位置和姿态;跟随控制模块,安装于所述通用计算模块上,设置为根据每个跟随机器人的前车广播的历史速度信息和其视觉识别模块输出的相对位置和姿态的估计值,将其转化为该跟随机器人的实时速度信息。
每个机器人上均设有一运动控制模块和电机,该运动控制模块设置为将所述实时速度信息转化为车轮驱动指令,所述电机设置为由所述运动控制模块根据所述车轮驱动指令驱动。
所述姿态和位置传感器包括惯性测量单元和轮式里程计。
所述领航机器人的姿态和位置传感器包括激光雷达。
所述运动控制模块为微控制单元,所述惯性测量单元为9轴IMU,所述轮式里程计采用AB编码器,且所述激光雷达为单线激光雷达。
所述相机面向正前方固定在所述跟随机器人的中心轴线上,且相机的光轴平行于水平地面。
另一方面,本发明提供了一种移动机器人的领航跟随控制方法,包括:
S1:将机器人分为位于最前方的领航机器人和多个跟随机器人,每个机器人设有标志板,每个跟随机器人上分别搭载有相机和跟随控制模块,将每一个跟随机器人的前一个机器人指定为其前车;
S2:每个跟随机器人的前车广播自身的历史速度信息,该历史速度信息采用队列数据结构的存储方式存储,形成速度信息队列;
S3:每个跟随机器人对其相机进行标定,利用该相机采集图像,识别其前车的标志板,并估计跟随机器人与其前车的相对位置和姿态;
S4:跟随机器人利用所述步骤S2中的前车的历史速度信息和所述步骤S3中的相对位置和姿态的估计值,采用其跟随控制模块输出实时速度信息。
各机器人均与一雾计算节点通信相连,所述步骤S1还包括:将机器人以不同的名称接入雾计算节点。
在所述步骤S2中,所述历史速度信息经由所述雾计算节点发送至该跟随机器人,并存储在其跟随控制模块中;或者所述历史速度信息存储在雾计算节点上,并由跟随控制模块调用。
在所述步骤S1中,所述领航机器人采用一激光雷达来产生实时速度信息,并发送给自身的电机。
在所述步骤S3中,所述前车的标志板是通过将相机采集的图像转换到HSV颜色空间,并阈值化来识别得到的。
在所述步骤S3中,所述估计跟随机器人与其前车的相对位置和姿态,包括:
S31:通过Open CV程序获得标志板的4个角点;
S32:得到跟随机器人与其前车的相对位置和姿态的估计值。
所述跟随机器人与其前车的相对位置的估计值为:
所述跟随机器人与其前车的相对姿态的估计值为:
其中,xci,yci,zci分别为4个角点在相机坐标系下的x方向坐标、y方向坐标和z方向坐标,za=zc1=zc2,zb=zc3=zc4,w为标志板的底边长度。
每个机器人上均设有惯性传感单元、轮式里程计和一运动控制模块,且步骤S4还包括:采用每个跟随机器人的运动控制模块将所述实时速度信息转化为车轮驱动指令。
所述采用跟随控制模块输出跟随机器人的实时速度信息包括:
S41:根据速度信息队列中存储的历史速度信息预测跟随机器人与其前车的相对位置p和相对姿态θ;
S42:根据所述步骤S41中的相对位置p与通过步骤S3获得的相对位置的当前时刻的估计值p′的误差,修正速度信息队列中的历史速度信息;
S43:跟随机器人通过依次弹出速度信息队列中的历史速度信息来输出其实时速度信息。
在所述步骤S41中,跟随机器人与其前车的相对位置p和相对姿态θ为:
其中,p=(xr,yr)T为相对位置、θ为相对姿态,vF,t=(vx,t,vy,t)T为各历史时刻的线速度、ωt为各历史时刻的角速度。
在所述步骤S42中,所修正的历史速度信息是速度信息队列中的全部历史速度信息,或速度信息队列中的最先存入的一条历史速度信息。
在所述步骤S42中,所述修正采用两个一维模糊控制器实现。
在所述步骤S42中,所述修正在跟随机器与其前车的相对姿态至多为±15-25°且修正值不超过一阈值时进行。
本发明提出的移动机器人的领航跟随系统采用姿态和位置传感器和相机,利用前车的速度信息和本车的视觉信息估计跟随者的相对位置和姿态,从而省去了全局定位装置,如顶部摄像机、无线电信标等,克服了现有方法在宽阔地域或陌生环境场景下不可用的缺陷。此外,本发明引入雾计算节点以卸载复杂计算任务,使得在低成本、低能耗的机器人平台上运行复杂视觉识别任务成为可能,从而降低成本。本发明的领航跟随控制方法以前车的历史速度信息为主要依据,使用视觉识别修正历史速度信息的误差,使得编队机器人能严格遵循领航者的轨迹前进,提高了在狭窄空间中的编队性能且在因遮挡或大角度转弯短暂丢失视野的情况下,领航跟随仍然可以正常进行,并且在视野恢复时视觉辅助能自动重新介入,具有较高的鲁棒性。
附图说明
图1是根据本发明的一个实施例的移动机器人的领航跟随系统的结构框图;
图2是根据本发明的一个实施例的移动机器人的领航跟随控制方法的流程图。
图3是根据本发明的一个实施例的移动机器人的领航跟随控制方法的机器人的运动模型图的坐标示意图。
具体实施方式
下面结合附图对本发明进行进一步详细说明。此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示为根据本发明的一个实施例的移动机器人的领航跟随系统,其适用于货物运输、救援、导航等场景下的机器人编队跟随行驶,并用于克服现有领航跟随方法中需要获得移动机器人全局绝对位置和姿态、转向时难以遵循同一轨迹的问题。
该移动机器人的领航跟随系统包括:分为编队中的位于最前方的领航机器人101和多个跟随机器人102的机器人1、视觉识别模块2和跟随控制模块3。
其中,每个机器人1设置为广播自身的历史速度信息,历史速度信息为各历史时刻的速度信息,包括线速度和角速度信息。每个机器人1上均设有传感器11、运动控制模块12和电机13。每个机器人1的姿态和位置传感器11均包括惯性测量单元(IMU)和轮式里程计,惯性测量单元测得的是加速度和角速度,里程计测得的是距离,用于测量该姿态和位置传感器11所在的机器人1的历史速度信息(即本车速度控制信息)。运动控制模块12采用闭环控制将实时速度信息精确转化为车轮驱动指令,并根据车轮驱动指令驱动电机13。此外,每个机器人1的尾部设有一便于视觉识别的标志板14,标志板14优选为不同颜色的矩形标志板。
在本实施例中,所述机器人1使用四轮差速底盘,使用12V 8400mAh锂电池供电。所述惯性测量单元(IMU)为GY-85型9轴IMU,并由一树莓派3B+电脑提供计算能力,所述轮式里程计采用360线AB编码器。运动控制模块12优选为型号为STM32的微控制单元(MCU),其与所述惯性测量单元的树莓派3B+电脑通过串口通讯,所述闭环控制为PID闭环控制。电机13采用12V的有刷直流电机。
机器人1中的领航机器人101的姿态和位置传感器11除了惯性测量单元和轮式里程计外,还包括激光雷达,可以在空间中自主导航和避障。在本实施例中,激光雷达为思岚rpLidar A1型号单线激光雷达,其可以在指定目的地后采用一导航算法(即开源的navigate导航程序包)来自动避障导航行驶。
视觉识别模块2设置为探测跟随机器人102的前车(即探测编队中跟随机器人102的前一个机器人1的相对位置和姿态,其包括一相机21和一视觉处理模块22。其中,相机21优选为CMOS摄像机,相机21面向正前方固定在跟随机器人102的中心轴线上,相机21的光轴平行于水平地面,分辨率为1280*720,工作帧数为5fps。每个视觉处理模块22接收相机21采集到的原始数据,识别该跟随机器人102的前车的标志板14,并采用视觉处理算法估计其与前车的相对位置和姿态,得到一相对位置和姿态的估计值。
跟随控制模块3设置为根据每个跟随机器人102的前车广播的历史速度信息(即前车速度控制信息)和该跟随机器人102的视觉识别模块2输出的相对位置和姿态的估计值,采用跟随控制方法将其转换为该跟随机器人102的实时速度信息(即本车速度控制信息)。由此,每个跟随机器人102均可以遵循其前一个机器人1的轨迹运动。
视觉识别模块2的视觉处理模块22和跟随控制模块3均安装于至少一个独立于各机器人1并与各机器人1均通信相连的雾计算节点4上。雾计算节点4提供无线接入能力,支持数据通信和信息交互,提供通用计算能力,在网络中承担卸载的计算任务。所述雾计算节点4是具有通用计算能力的网络接入设备,类似于一个无线AP,同时又可作为服务器运行程序,其包括无线接入模块41和通用计算模块42。雾计算节点4通过无线接入模块41与各机器人1均以无线通信方式通信相连,由此作为无线接入点提供低时延大带宽的网络接入能力,支持各组件之间的数据通信和信息交互,其中,跟随机器人102通过该无线接入模块41接收其前车广播的历史速度信息(即前车速度控制信息)和相机21产生的原始图像信号,并将其存入雾计算节点4并由实际安装于雾计算节点4上的视觉处理模块22和跟随控制模块3调用;视觉处理模块22和跟随控制模块3安装于所述通用计算模块42上,并经由所述无线接入模块41接收上述信号,使得视觉处理模块22中的图像处理任务实际运行在该雾计算节点4上,以提供网络计算资源,进而减轻机器人1的计算负担,延长电池寿命。其中,无线接入模块41作为网关和路由器连接该通用计算模块42中安装的视觉处理模块22和各机器人1的相机21。此外,雾计算节点4至少有一个,也可以有多个。有多个雾计算节点4的情况下,每个雾计算节点4都可以为机器人提供网络接入,雾计算节点4和雾计算节点4之间通过交换机相连。因此所有的机器人之间仍可以通过网络通信,视觉处理模块22和跟随控制模块3可以安装在任一雾计算节点上。
在本实施例中,雾计算节点4采用x86通用计算机,具体采用型号为inteli74700HQ的CPU和16GB的RAM,其上安装Ubuntu16.04操作系统和ROSKinetic版本。各机器人1分别通过无线网卡以星形或网状拓扑结构接入到雾计算节点4,其AP信速率为75Mbps;通过ROS的网络组件建立彼此之间消息通信。雾节点通过802.11n无线网卡创建无线接入点,通过Openwrt实现协议转换和网络路由。
如图2所示,基于上文的移动机器人的领航跟随系统,可以实现一种移动机器人的领航跟随控制方法,移动机器人的领航跟随控制方法运行在分布式的计算架构上,算法执行的实际物理位置可以按需优化,例如各机器人1借助其前车的更强大的计算能力执行视觉处理算法,或者采用雾计算节点4执行大部分的计算密集型算法。
该基于雾计算的移动机器人领航跟随控制方法具体包括:
步骤S1:准备工作。各机器人1在雾计算节点4中注册。
其中,所述步骤1中的注册是指将机器人1以不同的名称接入雾计算节点4。
同时,将机器人1分为位于最前方的领航机器人101和多个跟随机器人102,每个机器人1设有标志板14,每个跟随机器人102上分别搭载相机21,将编队中的每一个跟随机器人102的前一个机器人1(可以是领航机器人101,也可以是跟随机器人102)指定为其前车,由此,每个机器人在其前车的带领下行驶。
在本实施例中,位于编队最前方的领航机器人101采用一激光雷达的传感数据进行自主导航,输出以5Hz频率实时发布的实时速度信息,该实时速度信息由实时的线速度和角速度信息组成,并发送给自身的电机13,从而驱动领航机器人101行驶。其中,速度信息包括线速度信息和角速度信息。
步骤S2:每个跟随机器人102的前车在行驶过程中通过无线通信方式广播自身的历史速度信息,该历史速度信息以离散值的形式采用队列数据结构的存储方式存储,形成速度信息队列,用作编队所有机器人的时钟脉冲驱动。其中,历史速度信息为各历史时刻的速度信息。该速度信息队列具有先入先出的特性。
其中,该历史速度信息可以经由雾计算节点4发送至该跟随机器人102,并存储在其跟随控制模块3中,历史速度信息也可以存储在雾计算节点4上,并由跟随控制模块3调用。
步骤S3:对每个跟随机器人102的相机21进行标定,利用该相机21采集图像,识别其前车的标志板14,并估计跟随机器人102与其前车的相对位置和姿态,得到相对位置和姿态的当前时刻的估计值。
其中,对相机21的标定,即标定相机的内外参数,是指计算各跟随机器人102的相机21的镜头内外参数,建立相机21的坐标系与像平面坐标系的关系。
前车的标志板14是通过将相机21采集的图像转换到HSV颜色空间,并阈值化来识别得到的。
所述估计跟随机器人102与其前车的相对位置和姿态,具体包括:
步骤S31:通过Open CV程序获得标志板14的4个角点;
具体地,在相机21的坐标系中,矩形的标志板14的4个角点从左上角开始按逆时针顺序分别记为
C1=[xc1,yc1,zc1]
C2=[xc2,yc2,zc2]
C3=[xc3,yc3,zc3]
C4=[xc4,yc4,zc4]
其中,C1、C2、C3、C4分别为4个角点在相机坐标系下的坐标,xci,yci,zci分别为4个角点在相机坐标系下的x方向坐标、y方向坐标和z方向坐标。
步骤S32:采用现有的视觉处理算法得到跟随机器人102与其前车的相对位置和姿态的估计值,即图3中的运动模型所对应的相对位置坐标(xr,yr)和航向角θ’。
在相机21标定之后,根据相似三角形原理,在理想成像模型下,相机21的坐标系[xc,yc,zc]与图像坐标系[xp,yp]之间存在以下关系:
其中f为焦距。
由于竖直方向上的线段C1C2与相机21的光轴垂直,因此C1,C2具有相同的深度记zc1=zc2=za.
且C1C2边长已知,记为||C1-C2||=la
进而有:
其中[xp1,yp1],[xp2,yp2]分别是C1,C2在像素坐标系上的成像坐标。
因此可求得
进而可以得
类似地,可得标志板14另一边深度zb和位置坐标[xci,yci],i=3,4.
使用标志板14的4个角点的中心作为前车的位置,即
相机坐标系到图3所示的坐标系转换关系为:
其中R为旋转矩阵,T为平移向量,T=[0,0,0]T.
故而解得,跟随机器人与其前车的相对位置的估计值为:
跟随机器人与其前车的相对姿态,即航向角的估计值为:
其中,xci,yci,zci分别为4个角点在相机坐标系下的x方向坐标、y方向坐标和z方向坐标,za=zc1=zc2,zb=zc3=zc4,w为标志板14的底边长度。
步骤S4:利用所述步骤S2中的跟随机器人102的前车的历史速度信息和所述步骤S3中的相对位置和姿态的估计值,采用一跟随控制模块3计算输出每个跟随机器人102的实时速度信息,并采用每个跟随机器人102的运动控制模块12将速度信息转换为车轮驱动指令,使跟随机器人102能遵循其前车的轨迹行驶。
其中,所述采用跟随控制模块3输出跟随机器人102的实时速度信息包括:
步骤S41:根据速度信息队列中存储的历史速度信息预测跟随机器人102与其前车的相对位置p和相对姿态θ。
跟随机器人102与其前车的相对位置p和相对姿态θ可以通过对速度信息队列中的历史速度信息积分得到。跟随机器人102与其前车的相对位置p和相对姿态θ为:
其中,p=(xr,yr)T为相对位置、θ为相对姿态,vF,t=(vx,t,vy,t)T为各历史时刻的线速度、ωt为各历史时刻的角速度。
但由于机械误差的存在,利用前车历史速度信息直接预测出的相对位置和姿态存在偏差,因此视觉识别模块得出的前车位置信息用于修正这一偏差。
步骤S42:根据所述步骤S41中的相对位置p与通过步骤S3获得的相对位置的当前时刻的估计值p′的误差,修正速度信息队列中的历史速度信息。
在本实施例,所述修正的历史速度信息可以是速度信息队列中的全部历史速度信息,也可以是速度信息队列中的最先存入的一条历史速度信息。在本实施例中,所修正的是最先存入的一条历史速度信息,然后弹出,该弹出的历史速度信息用于控制机器人。
所述修正具体采用两个一维模糊控制器实现,具体包括:
将距离偏差||p′-p||作为第一个控制器的输入量,输出控制量ηv作为线速度修正系数,将线速度修正为Cv为常数;将角度偏差作为第二个控制器的输入量,输出控制量ηω作为角速度修正系数,将角速度修正为Cω为常数。
当前后机器人具有同一航向时,视觉识别模块所得的相对位置具有最大精度,此时是对跟随机器人速度信息队列中的数据修正的最佳时刻。而当前后机器人相对姿态(即航向角)较大时,舍弃视觉识别的结果,所述修正不进行;或者此时每次修正不超过一阈值,该阈值为原始数据的±30-60%,所述修正不进行。前后机器人相对航向角较大,是指相对航向角大于±15-25°。即,所述修正在跟随机器人102与其前车的相对姿态至多为±15-25°且修正值不超过一阈值时进行。
步骤S43:在领航机器人的控制脉冲的驱动下,跟随机器人102通过依次弹出速度信息队列中的历史速度信息来输出其实时速度信息。其中,领航机器人的控制脉冲为5Hz,所弹出的历史速度信息是最先加入速度信息队列的历史速度信息。
由此,在短时间内,若前车转向过大,或者跟随机器人102及其前车之间的视线被障碍物遮挡,造成视觉识别模块无法捕获前车时,由于缓存了前车的速度信息,本发明的基于雾计算的移动机器人的领航跟随控制方法仍能工作。当视觉识别恢复时,视觉修正能自动重新介入。由于速度信息队列中的历史速度信息来自于前车,又通过视觉识别模块周期性地修正累计偏差,因此跟随机器人能够遵循前车的轨迹行驶。
进一步地,每个机器人1上均设有惯性传感单元、轮式里程计和一运动控制模块12,且步骤S4还包括:采用每个跟随机器人102的运动控制模块12,通过利用跟随机器人102的惯性传感单元和轮式里程计测量其速度信息来进行闭环控制,来将实时速度信息转换为车轮驱动指令。
其中,速度信息包括期望线速度和角速度信息,所述车轮驱动指令包括左、右车轮的转速和转动角度。根据如图3所示的机器人运动模型,所述左、右车轮的转速v1、v2和转向半径r为:
其中,机器人底盘宽度为l,指定机器人底盘中心的线速度vF,角速度ω。
综上所述,本发明提出了一种基于雾计算模式,无需全局定位的移动机器人领航跟随方法。本发明通过利用前车速度信息,辅以视觉识别修正累计误差的方法,去除了对全局定位信息的依赖,拓宽了机器人编队任务的运用场景,支持机器人在陌生环境、狭窄地带跟随行驶。
以上所述的,仅为本发明的较佳实施例,并非用以限定本发明的范围,本发明的上述实施例还可以做出各种变化。例如,本发明还可以采用双目相机获得更好的估计性能,或在视觉估计信息和航速信息融合上引入其他的算法。即凡是依据本发明申请的权利要求书及说明书内容所作的简单、等效变化与修饰,皆落入本发明专利的权利要求保护范围。本发明未详尽描述的均为常规技术内容。

Claims (19)

1.一种移动机器人的领航跟随系统,其特征在于,包括:
机器人(1),分为位于最前方的领航机器人(101)和多个跟随机器人(102),每个跟随机器人(102)的前一个机器人(1)为其前车,每个机器人(1)设置为广播自身的历史速度信息,包括姿态和位置传感器(11),且其尾部设有标志板(14);
至少一个雾计算节点(4),包括无线接入模块(41)和通用计算模块(42),其独立于各机器人(1)并通过无线接入模块(41)与各机器人(1)均通信相连;
视觉识别模块(2),包括一相机(21)和一视觉处理模块(22),相机(21)搭载在各跟随机器人(102)上,视觉处理模块(22)安装于所述通用计算模块(42)上,该视觉处理模块(22)接收相机(21)采集到的原始数据,识别该跟随机器人(102)的前车的标志板(14),并估计其与前车的相对位置和姿态;
跟随控制模块(3),安装于所述通用计算模块(42)上,设置为根据每个跟随机器人(102)的前车广播的历史速度信息和其视觉识别模块(2)输出的相对位置和姿态的估计值,将其转化为该跟随机器人(102)的实时速度信息。
2.根据权利要求1所述的移动机器人的领航跟随系统,其特征在于,每个机器人(1)上均设有一运动控制模块(12)和电机(13),该运动控制模块(12)设置为将所述实时速度信息转化为车轮驱动指令,所述电机(13)设置为由所述运动控制模块(12)根据所述车轮驱动指令驱动。
3.根据权利要求2所述的移动机器人的领航跟随系统,其特征在于,所述位置和姿态传感器(11)包括惯性测量单元和轮式里程计。
4.根据权利要求3所述的移动机器人的领航跟随系统,其特征在于,所述领航机器人(101)的姿态和位置传感器(11)包括激光雷达。
5.根据权利要求4所述的移动机器人的领航跟随系统,其特征在于,所述运动控制模块(12)为微控制单元,所述惯性测量单元为9轴IMU,所述轮式里程计采用AB编码器,且所述激光雷达为单线激光雷达。
6.根据权利要求1所述的移动机器人的领航跟随系统,其特征在于,所述相机(21)面向正前方固定在所述跟随机器人(102)的中心轴线上,且相机(21)的光轴平行于水平地面。
7.一种移动机器人的领航跟随控制方法,其特征在于,包括:
步骤S1:将机器人(1)分为位于最前方的领航机器人(101)和多个跟随机器人(102),每个机器人(1)设有标志板(14),每个跟随机器人(102)上分别搭载相机(21),将每一个跟随机器人(102)的前一个机器人(1)指定为其前车;
步骤S2:每个跟随机器人(102)的前车广播自身的历史速度信息,该历史速度信息采用队列数据结构的存储方式存储,形成速度信息队列;
步骤S3:对每个跟随机器人(102)的相机(21)进行标定,利用该相机(21)采集图像,识别其前车的标志板(14),并估计跟随机器人(102)与其前车的相对位置和姿态;
步骤S4:利用所述步骤S2中的每个跟随机器人(102)的前车的历史速度信息和所述步骤S3中的相对位置和姿态的估计值,采用一跟随控制模块(3)计算输出每个跟随机器人(102)的实时速度信息。
8.根据权利要求7所述的移动机器人的领航跟随控制方法,其特征在于,各机器人(1)均与一雾计算节点(4)通信相连,所述步骤S1还包括:将机器人(1)以不同的名称接入雾计算节点(4)。
9.根据权利要求8所述的移动机器人的领航跟随控制方法,其特征在于,在所述步骤S2中,所述历史速度信息经由所述雾计算节点(4)发送至该跟随机器人(102),并存储在其跟随控制模块(3)中;或者所述历史速度信息存储在雾计算节点(4)上,并由跟随控制模块(3)调用。
10.根据权利要求7所述的移动机器人的领航跟随控制方法,其特征在于,在所述步骤S1中,所述领航机器人(101)采用一激光雷达的传感数据进行自主导航,输出实时速度信息,并发送给自身的电机(13)。
11.根据权利要求7所述的移动机器人的领航跟随控制方法,其特征在于,在所述步骤S3中,所述前车的标志板(14)是通过将相机(21)采集的图像转换到HSV颜色空间,并阈值化来识别得到的。
12.根据权利要求7所述的移动机器人的领航跟随控制方法,其特征在于,在所述步骤S3中,所述估计跟随机器人(102)与其前车的相对位置和姿态,包括:
步骤S31:通过Open CV程序获得标志板(14)的4个角点;
步骤S32:得到跟随机器人(102)与其前车的相对位置和姿态的估计值。
13.根据权利要求12所述的移动机器人的领航跟随控制方法,其特征在于,所述前车的相对位置的估计值为:
所述前车的相对姿态的估计值为:
其中,xci,yci,zci分别为4个角点在相机坐标系下的x方向坐标、y方向坐标和z方向坐标,za=zc1=zc2,zb=zc3=zc4,w为标志板(14)的底边长度。
14.根据权利要求7所述的移动机器人的领航跟随控制方法,其特征在于,每个机器人(1)上均设有惯性传感单元、轮式里程计和一运动控制模块(12),且步骤S4还包括:采用每个跟随机器人(102)的运动控制模块(12)将所述实时速度信息转化为车轮驱动指令。
15.根据权利要求7所述的移动机器人的领航跟随控制方法,其特征在于,所述采用一跟随控制模块(3)中计算输出每个跟随机器人(102)的实时速度信息,包括:
步骤S41:根据速度信息队列中存储的历史速度信息预测跟随机器人(102)与其前车的相对位置p和相对姿态θ;
步骤S42:根据所述步骤S41中的相对位置p与通过步骤S3获得的相对位置的当前时刻的估计值p′的误差,修正速度信息队列中的历史速度信息;
步骤S43:跟随机器人(102)通过依次弹出速度信息队列中的历史速度信息来输出其实时速度信息。
16.根据权利要求15所述的移动机器人的领航跟随控制方法,其特征在于,在所述步骤S41中,跟随机器人(102)与其前车的相对位置p和相对姿态θ为:
其中,p=(xr,yr)T为相对位置、θ为相对姿态,vF,t=(vx,t,vy,t)T为各历史时刻的线速度、ωt为各历史时刻的角速度。
17.根据权利要求15所述的移动机器人的领航跟随控制方法,其特征在于,在所述步骤S42中,所修正的历史速度信息是速度信息队列中的全部历史速度信息,或速度信息队列中的最先存入的一条历史速度信息。
18.根据权利要求15所述的移动机器人的领航跟随控制方法,其特征在于,在所述步骤S42中,所述修正采用两个一维模糊控制器实现。
19.根据权利要求15所述的移动机器人的领航跟随控制方法,其特征在于,在所述步骤S42中,所述修正在跟随机器人(102)与其前车的相对姿态至多为±15-25°且修正值不超过一阈值时进行。
CN201910528247.3A 2019-06-18 2019-06-18 移动机器人的领航跟随系统和领航跟随控制方法 Pending CN110244772A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910528247.3A CN110244772A (zh) 2019-06-18 2019-06-18 移动机器人的领航跟随系统和领航跟随控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910528247.3A CN110244772A (zh) 2019-06-18 2019-06-18 移动机器人的领航跟随系统和领航跟随控制方法
PCT/CN2020/082419 WO2020253316A1 (zh) 2019-06-18 2020-03-31 移动机器人的领航跟随系统和领航跟随控制方法

Publications (1)

Publication Number Publication Date
CN110244772A true CN110244772A (zh) 2019-09-17

Family

ID=67887925

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910528247.3A Pending CN110244772A (zh) 2019-06-18 2019-06-18 移动机器人的领航跟随系统和领航跟随控制方法

Country Status (2)

Country Link
CN (1) CN110244772A (zh)
WO (1) WO2020253316A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020253316A1 (zh) * 2019-06-18 2020-12-24 中国科学院上海微系统与信息技术研究所 移动机器人的领航跟随系统和领航跟随控制方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685309A (zh) * 2008-09-24 2010-03-31 中国科学院自动化研究所 多机器人协调队形控制方法
KR20140112824A (ko) * 2013-03-14 2014-09-24 인하대학교 산학협력단 백스테핑 기법을 이용한 선도 추종자 대형제어 장치, 방법 및 이동로봇
US20150153738A1 (en) * 2013-12-03 2015-06-04 King Abdulaziz City For Science And Technology Robotic leader-follower navigation and fleet management control method
CN104898656A (zh) * 2014-03-06 2015-09-09 西北农林科技大学 一种基于立体视觉的农田多机器人跟随耕地系统及方法
CN105425791A (zh) * 2015-11-06 2016-03-23 武汉理工大学 一种基于视觉定位的群机器人控制系统及方法
CN107168329A (zh) * 2017-06-20 2017-09-15 南京长峰航天电子科技有限公司 基于跟随领航者法的航速航向协同控制编队航行控制方法
CN107336251A (zh) * 2016-09-20 2017-11-10 苏州小璐机器人有限公司 一种机器人队列的控制方法及系统
CN108627801A (zh) * 2017-03-17 2018-10-09 株式会社东芝 移动体位置估计系统、装置和方法
CN109857102A (zh) * 2019-01-21 2019-06-07 大连理工大学 一种基于相对位置的轮式机器人编队与跟踪控制方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6842674B2 (en) * 2002-04-22 2005-01-11 Neal Solomon Methods and apparatus for decision making of system of mobile robotic vehicles
CN106094875B (zh) * 2016-06-27 2019-01-22 南京邮电大学 一种移动机器人的目标跟随控制方法
CN108469823B (zh) * 2018-04-04 2020-03-20 浙江大学 一种基于单应性的移动机器人编队跟随方法
CN108594824A (zh) * 2018-05-23 2018-09-28 南京航空航天大学 一种基于视觉导航和超声波阵列的车辆编队装置和方法
CN109062204A (zh) * 2018-07-25 2018-12-21 南京理工大学 一种基于跟随领航者编队的多移动机器人控制系统
CN110244772A (zh) * 2019-06-18 2019-09-17 中国科学院上海微系统与信息技术研究所 移动机器人的领航跟随系统和领航跟随控制方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685309A (zh) * 2008-09-24 2010-03-31 中国科学院自动化研究所 多机器人协调队形控制方法
KR20140112824A (ko) * 2013-03-14 2014-09-24 인하대학교 산학협력단 백스테핑 기법을 이용한 선도 추종자 대형제어 장치, 방법 및 이동로봇
US20150153738A1 (en) * 2013-12-03 2015-06-04 King Abdulaziz City For Science And Technology Robotic leader-follower navigation and fleet management control method
CN104898656A (zh) * 2014-03-06 2015-09-09 西北农林科技大学 一种基于立体视觉的农田多机器人跟随耕地系统及方法
CN105425791A (zh) * 2015-11-06 2016-03-23 武汉理工大学 一种基于视觉定位的群机器人控制系统及方法
CN107336251A (zh) * 2016-09-20 2017-11-10 苏州小璐机器人有限公司 一种机器人队列的控制方法及系统
CN108627801A (zh) * 2017-03-17 2018-10-09 株式会社东芝 移动体位置估计系统、装置和方法
CN107168329A (zh) * 2017-06-20 2017-09-15 南京长峰航天电子科技有限公司 基于跟随领航者法的航速航向协同控制编队航行控制方法
CN109857102A (zh) * 2019-01-21 2019-06-07 大连理工大学 一种基于相对位置的轮式机器人编队与跟踪控制方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
杨旸等: "雾计算赋能机器人同步定位与地图构建", 《物联网学报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020253316A1 (zh) * 2019-06-18 2020-12-24 中国科学院上海微系统与信息技术研究所 移动机器人的领航跟随系统和领航跟随控制方法

Also Published As

Publication number Publication date
WO2020253316A1 (zh) 2020-12-24

Similar Documents

Publication Publication Date Title
Schmuck et al. Multi-uav collaborative monocular slam
US20180102058A1 (en) High-precision autonomous obstacle-avoidance flying method for unmanned aerial vehicle
CN103853156B (zh) 一种基于机载传感器的小型四旋翼飞行器控制系统及方法
CN103294059B (zh) 基于混合导航带的移动机器人定位系统及其方法
Meier et al. PIXHAWK: A micro aerial vehicle design for autonomous flight using onboard computer vision
JP6637400B2 (ja) 車両制御装置
Geiger et al. Team AnnieWAY's entry to the 2011 grand cooperative driving challenge
Barry et al. High‐speed autonomous obstacle avoidance with pushbroom stereo
Ahrens et al. Vision-based guidance and control of a hovering vehicle in unknown, GPS-denied environments
CN102419178B (zh) 基于红外路标的移动机器人定位系统和方法
Engel et al. Accurate figure flying with a quadrocopter using onboard visual and inertial sensing
Heng et al. Autonomous obstacle avoidance and maneuvering on a vision-guided mav using on-board processing
US9520064B2 (en) Train-of-vehicle travel support device, control system and processor unit
Montemerlo et al. Junior: The stanford entry in the urban challenge
US8233660B2 (en) System and method for object motion detection based on multiple 3D warping and vehicle equipped with such system
CN106802658B (zh) 一种全自动高精度室内快速定位方法
Stroupe et al. Distributed sensor fusion for object position estimation by multi-robot systems
Engel et al. Camera-based navigation of a low-cost quadrocopter
Frew et al. Coordinated standoff tracking of moving targets using Lyapunov guidance vector fields
Milford et al. Single camera vision-only SLAM on a suburban road network
Noguchi et al. Development of a master–slave robot system for farm operations
Xu et al. Vision-guided automatic parking for smart car
Snape et al. Independent navigation of multiple mobile robots with hybrid reciprocal velocity obstacles
Agrawal et al. Rough terrain visual odometry
Kim et al. Cooperative perception for autonomous vehicle control on the road: Motivation and experimental results

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination