CN103970134A - 多移动机器人系统协作实验平台及其视觉分割和定位方法 - Google Patents

多移动机器人系统协作实验平台及其视觉分割和定位方法 Download PDF

Info

Publication number
CN103970134A
CN103970134A CN201410152510.0A CN201410152510A CN103970134A CN 103970134 A CN103970134 A CN 103970134A CN 201410152510 A CN201410152510 A CN 201410152510A CN 103970134 A CN103970134 A CN 103970134A
Authority
CN
China
Prior art keywords
robot
mobile
code
image
video camera
Prior art date
Application number
CN201410152510.0A
Other languages
English (en)
Other versions
CN103970134B (zh
Inventor
袁明新
赵荣
江亚峰
夏善跃
华晓彬
申燚
Original Assignee
江苏科技大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 江苏科技大学 filed Critical 江苏科技大学
Priority to CN201410152510.0A priority Critical patent/CN103970134B/zh
Publication of CN103970134A publication Critical patent/CN103970134A/zh
Application granted granted Critical
Publication of CN103970134B publication Critical patent/CN103970134B/zh

Links

Abstract

本发明公开了一种多移动机器人系统协作实验平台及其视觉分割和定位方法。所述协作实验平台由全局视觉监测系统和多个机构相同的移动机器人组成;其中全局视觉监测系统由门形支撑、CCD摄像机、图像采集卡和监控主机组成;CCD摄像机安装于门形支撑上并与移动机器人对应设置,CCD摄像机通过视频线与安装在监控主机PCI插槽内的图像采集卡相连。所述视觉分割方法结合帧差法和光流法进行障碍物分割。所述视觉定位方法基于色标板进行阈值分割来实现。本发明不仅能满足多移动机器人系统中编队控制、目标探索、任务分配和路径规划等协作技术的实验验证,而且具有成本低和搭建迅速的优点。

Description

多移动机器人系统协作实验平台及其视觉分割和定位方法
技术领域
[0001] 本发明属于多移动机器人系统领域,涉及到多移动机器人系统协作实验平台的构建,尤其涉及到实验平台中基于视觉的环境分割和机器人定位方法的实现。
背景技术
[0002] 近年来,随着机器人应用领域的不断拓展,机器人所面对的环境越来越复杂,任务种类越来越多样化,任务复杂程度也越来越高,单机器人对此已经不堪重负,而多机器人系统的内在并行性、功能叠加性,使得其具有更高的任务执行能力和执行效率,系统的鲁棒性也更好。因此,多机器人系统目前已经成为机器人领域的研究热点和趋势。多机器人系统研究所涉及的关键技术包括:编队控制、目标探索、目标围捕、任务分配和路径规划等,为了提高所研究关键技术在实际应用中的效率和可靠性,降低运行成本,往往需要事先对相关技术进行理论验证,而目前更多的是通过仿真来实现,但仿真环境过于理想化,与实际相差较多,因此发明一种多机器人系统协作实验平台有助于推动多机器人系统协作技术的发展和应用。
[0003] 专利号为“ZL201220043533.4”的专利文献公开了“一种全景摄像头的移动机器人传感器实验平台”技术。该实验平台主要是针对单移动机器人的传感器测试,且采用车载视觉,而非本申请发明中的全局视觉,机器人所获得的视觉信息也只能是局部环境信息。该平台并不能满足多移动机器人的系统协作实验。
[0004] 专利号为“ZL201220084942.9”的专利文献公开了 “基于ZigBee无线控制移动机器人平台”技术。该平台虽然适用于环境探测、群体监控、群体机器人实验,但移动机器人运动控制的实现,主要是通过手动遥控来实现,而这不能满足多移动机器人系统协作中的自主性要求,因此该装置也不能作为多机器人系统协作的实验平台。
[0005] 专利号为“ZL00816243.3”公布了一种自主多平台机器人系统。该系统至少需要一个采用车载视觉的导航机器人,该机器人负责自身及其它功能机器人的定位、计划和控制,由此可以看出,整个机器人系统完全依赖于该导航机器人。一方面,当导航机器人出现故障时,整个机器人系统会陷入瘫痪;另一方面,各功能机器人由于受导航机器人的控制,则他们也无法真正意义上实现自身的自主性,因此,这种平台同样不适合多机器人系统的协作实验。
[0006] 专利号为“ZL201010572035.4”公布了一种自主移动机器人平台。内容涉及到了机器人身上携带环境感知系统、驱动系统、平台控制系统等,但该平台对象仍然是单机器人,若要基于其进行多机器人系统协作的实验平台搭建,还需要解决多机器人之间的信息共享、机器人之间的各自定位等。
[0007] 专利号为“200720011967.5”公布了一种色标标示足球机器人。为了区别对抗组机器人,该专利设计了一种含色标分隔凸线的方形色标板,这比较适合于区别不同组的机器人,但是无法基于视觉实现机器人的精确定位。
[0008] 综上所述,相比起单移动机器人而言,多移动机器人的任务执行能力更强、任务执行效率更高,而这又取决于多机器人系统的协作技术。为了提高多机器人协作技术的实际应用效率和应用效果,降低系统运行成本,事先开展相关协作技术的实验验证是必不可少的,这就需要一种适合多移动机器人系统协作的实验平台。从已有的专利来看,目前现有机器人平台主要以单移动机器人为主,若依靠多个该类机器人组成多机器人系统协作实验平台,还需要解决多机器人之间的通信、环境地图的构建、机器人的定位等相关技术,因此现有移动机器人的实验平台都不能满足多移动机器人的系统协作实验。
发明内容
[0009] 本发明的目的在于为解决多移动机器人系统协作的实验需要而构建一种集控式平台,进而提供实验平台中基于视觉的环境分割和机器人定位方法。
[0010] 本发明的多移动机器人系统协作实验平台,由全局视觉监测系统和多个机构相同的移动机器人组成;其中全局视觉监测系统由门形支撑、CXD摄像机、图像采集卡和监控主机组成;(XD摄像机安装于门形支撑上并与移动机器人对应设置,CXD摄像机通过视频线与安装在监控主机PCI插槽内的图像采集卡相连。
[0011] 所述全局视觉监测系统的门形支撑包括底座、竖直下支撑管、两通紧固件、竖直上支撑管、L型连接件、横支撑管和摄像机支架;底座由底板通过螺钉与T型支撑管相连构成,竖直下支撑管的一端插在T型支撑管里;两通紧固件由上螺帽、两端中空螺纹管和下螺帽组成,竖直上支撑管的一端依次通过上螺帽、两端中空螺纹管和下螺帽插在竖直下支撑管的另一端里面;横支撑管通过L型连接件与竖直上支撑管固定;摄像机支架设置于横支撑管上。
[0012] 所述的摄像机支架由马鞍卡、螺栓、托盘和T型万向支架组成;(XD摄像机通过紧固螺钉与T型万向支架相连,T型万向支架的底盘通过螺栓与托盘相连,托盘再通过螺栓与跨在横支撑管上的马鞍卡相连;通过马鞍卡实现CCD摄像机绕着横支撑管旋转。
[0013] 所述的移动机器人由三层组成,由上至下依次为:色标板、控制层和底层;色标板由基板、主色标和三个辅色标组成,基板的颜色为固定黑色;位于基板中心的主色标的颜色是固定蓝色;三个辅色标的颜色为黄色和红色,不同移动机器人用三个辅色标的不同颜色组合来区分;
[0014] 所述的控制层以控制电路板为基础,在控制电路板上通过单排座连有五个超声波测距传感器和无线接收模块,五个超声波测距传感器以夹角30°均衡布置在机器人前方;
[0015] 所述的底层以机器人底板为基础并通过左码盘轮、右码盘轮和万向轮支撑;所述左码盘轮和右码盘轮对称设置并且结构相同,其中左码盘轮与左轮直流电机相连,左轮直流电机通过电机卡帽、左轮码盘测速模块和螺栓固定在机器人底板上,左码盘轮和左轮码盘测速模块配合进行测速;右码盘轮与右轮直流电机相连,并与右轮码盘测速模块配合测速;机器人底板上以夹角45°布置三个红外测距传感器。
[0016] 多移动机器人系统协作实验平台的环境视觉分割方法采用如下步骤:
[0017] (I)利用CCD摄像机获取无任何物体的初始时刻背景图像Ib (O);
[0018] (2)采集t时刻图像I⑴,计算该帧图像的差分图像Id(t):Id(t)=I(t) -1b(O);
[0019] (3)对差分图像Id(t)进行阈值分割,得到含障碍物信息的二值分割图像;
[0020] (4)对分割图像进行闭运算处理,目的是消除障碍物区域的孔洞,以及平滑障碍物的边界;
[0021] (5)对闭运算后图像进行均值滤波,去除图像噪声,获得精确障碍物区域,实现t时刻的障碍物分割,即环境分割;
[0022] (6)根据环境分割从图像I (t)中剔除精确障碍物区域,得到t时刻的背景图像Ib⑴;
[0023] (7)根据t时刻的背景图像Ib (t)与初始背景图像Ib(O),通过光流法估算背景运动速度场,对背景图像Ib(O)进行补偿校正和更新;
[0024] (8)返回到步骤⑵。
[0025] 多移动机器人系统协作实验平台的机器人视觉定位方法采用如下步骤:
[0026] I)利用CXD摄像机获取移动机器人运动空间的RGB彩色图像;
[0027] 2)将RGB彩色图像转换到YUV空间,获取像素的色度信息——U, V分量;
[0028] 3)基于U分量对色标板中主色标和黄色的辅色标进行阈值分割;
[0029] 4)基于V分量对色标板中红色的辅色标进行阈值分割;
[0030] 5)搜索分割后三色色标的连通域,获得各色标的中心坐标;
[0031] 6)根据各色标的中心坐标即可得到色标板的坐标和方向角,进而实现移动机器人的视觉定位。
[0032] 本发明具有如下有益效果:
[0033] 根据多移动机器人系统协作的实验需要,本发明设计了一种集控式实验平台。针对多机器人系统协作中的环境分割及机器人定位需要,本发明还提供了实验平台中基于视觉的分割和定位方法。环境分割流程中基于帧差法的障碍物区域提取,与现有常用边界分割方法相比,具有计算量小、实时性好和抗噪声能力强的优点,满足了多机器人协作系统的实时性和鲁棒性要求。而基于光流法的背景图像实时更新,使环境分割更具有自适应性,提高了实时分割的稳定性。在机器人视觉定位中,平台采用的全局视觉比车载局部视觉更容易精确地提供机器人环境地图,而所设计的机器人色标板简单实用,提高了视觉分割速度。在机器人视觉定位流程中,基于YUV空间的U,V色度分量进行机器人色标分割,可以增强对环境光照变化干扰的抑制力,从而提高机器人定位精度。
[0034] 总之,该实验平台不仅可以满足多移动机器人系统协作技术,比如编队控制、目标探索、目标围捕、任务分配和路径规划等的实验验证需要,而且还具有成本低、搭建迅速和实验精确的优点。
附图说明
[0035] 图1:多移动机器人系统协作实验平台示意图;
[0036] 图2:底座结构图;
[0037] 图3:两通紧固件结构图;
[0038] 图4:摄像机支架结构图;
[0039] 图5:移动机器人结构图;
[0040] 图6:机器人色标板示意图;
[0041] 图7:机器人中间控制层结构图;
[0042] 图8:机器人底盘结构图;[0043] 图9:机器人控制系统组成示意图;
[0044] 图10:环境视觉分割方法流程图;
[0045] 图11:机器人视觉定位方法流程图。
[0046] 图中1.底座,2.竖直下支撑管,3.两通紧固件,4.竖直上支撑管,5.L型连接件,6.横支撑管,7.摄像机支架,8.C⑶摄像机,9.图像采集卡,10.监控主机,11.NRF905无线发送模块,12.移动机器人,13.底板,14.螺钉,15.T型支撑管,16.下螺帽,17.两端中空螺纹管,18.上螺帽,19.马鞍卡,20.螺栓,21.托盘,22.T型万向支架,23.紧固螺钉,24.T型万向支架的底盘,25.螺栓,26.色标板,27.控制层,28.底层,29.基板,30.辅色标,31.主色标,32.NRF905无线接收模块,33.超声波测距传感器,34.控制电路板,35.机器人底板,36.万向轮,37.左码盘轮,38.右码盘轮,39.左轮直流电机,40.电机卡帽,41.螺栓,42.右轮直流电机,43.左轮码盘测速模块,44.右轮码盘测速模块,45.红外测距传感器,46.微处理器,47.左轮电机驱动模块,48.右轮电机驱动模块,49.电子罗盘传感器。
具体实施方式
[0047] 下面结合附图对本发明的多移动机器人系统协作实验平台及其视觉分割和定位方法进行详细描述:
[0048] 多移动机器人系统协作实验平台由全局视觉监测系统和多移动机器人组成。
[0049] 如图1所示,CXD摄像机8通过摄像机支架7安装在门形支撑的横支撑管6上,CXD摄像机8通过视频线与图像采集卡9相连,图像采集卡9安装在监控主机10的PCI插槽内。门形支撑的横支撑管6通过L型连接件5与竖直上支撑管4相连,竖直上支撑管4再通过两通紧固件3插在竖直下支撑管2中,竖直下支撑管2插在底座I里面。CXD摄像机8的高低调节可以通过两通紧固件3调节竖直上支撑管4在竖直下支撑管2里的长度来实现。
[0050] 如图1和2所示,底座I由底板13通过螺钉14与T型支撑管15相连,竖直下支撑管2插在T型支撑管里。
[0051] 如图1和3所示,两通紧固件3由上螺帽18、两端中空螺纹管17和下螺帽16组成。两端中空螺纹管17插在竖直下支撑管2上,通过下螺帽16进行两者紧固,竖直上支撑管4通过上螺帽18、两端中空螺纹管17插在竖直下支撑管2上面,并且依靠上螺帽18拧紧两端中空螺纹管17来固定。横支撑管6通过L型连接件5与竖直上支撑管4固定。
[0052] 如图1和4所示,CXD摄像机8通过紧固螺钉23与T型万向支架22相连,T型万向支架的底盘24通过螺栓25与托盘21相连,托盘21再通过螺栓20与跨在横支撑管6上的马鞍卡19相连。通过马鞍卡19可以实现CXD摄像机8绕着横支撑管6旋转。
[0053] 移动机器人12由三层组成。如图5所示,上面为色标板26,中间为控制层27,下面为底层28。
[0054] 如图6所示,色标板26由基板29、主色标31和三个辅色标30组成。基板29的颜色为固定黑色;位于色标板26中心的主色标31的颜色是固定蓝色;三个辅色标30的颜色可选择为黄色和红色。不同移动机器人可以用三个辅色标30的不同颜色组合来区分。
[0055] 如图5和7所示,移动机器人12的中间控制层27以控制电路板34为基础,通过单排座连有五个超声波测距传感器33和NRF905无线接收模块32等。五个超声波测距传感器以夹角30°均衡布置在机器人前方。[0056] 如图5和8所示,移动机器人12的底层28以机器人底板35为基础,通过左码盘轮37、右码盘轮38和万向轮36支撑。左码盘轮37与左轮直流电机39相连,左轮直流电机39通过电机卡帽40、左轮码盘测速模块43和螺栓41固定在机器人底板35上。左码盘轮37和左轮码盘测速模块43配合进行测速。右码盘轮38与右轮直流电机42相连,并与右轮码盘测速模块44配合测速。三个红外测距传感器45以夹角45°布置在机器人底板35上。
[0057] 如图1、5和9所示,移动机器人12的控制系统组成如下:以微处理器46为核心,超声波测距传感器33和红外测距传感器45分别与微处理器46相连,通过数据融合来进行移动机器人12的周围近距离障碍物检测;电子罗盘传感器49与微处理器46相连用以记录移动机器人12的运动方向;NRF905无线接收模块32通过SPI串口与微处理器46相连,并通过与监控主机10相连的NRF905无线发送模块11进行无线通信,用来接收来自监控主机10的控制命令,以及将机器人自身的检测信息发送到监控主机10。微处理器46通过左轮电机驱动模块47来驱动与控制左轮直流电机39 ;同样,微处理器46通过右轮电机驱动模块48来驱动与控制右轮直流电机42。移动机器人12通过左码盘轮37和右码盘轮38组成差动连接方式。左轮码盘测速模块43与左码盘轮37配合进行左轮转速测量;同样,右轮码盘测速模块44与右码盘轮38配合进行右轮转速测量。
[0058] 为了完成基于所发明实验平台的多移动机器人系统协作实验,还需要进行环境分割以及机器人定位。
[0059] 如图10所示,本发明基于视觉的环境分割方法采用如下步骤:
[0060] (I)利用CXD摄像机8获取无任何物体的初始时刻背景图像Ib (O);
[0061] (2)采集t时刻图像I⑴,计算该帧图像的差分图像Id(t):Id(t)=I(t) -1b(O);
[0062] (3)对差分图像Id(t)进行阈值分割,得到含障碍物信息的二值分割图像;
[0063] (4)对分割图像进行闭运算处理,目的是消除障碍物区域的孔洞,以及平滑障碍物的边界;
[0064] (5)对闭运算后图像进行均值滤波,去除图像噪声,获得精确障碍物区域,实现t时刻的障碍物分割,即环境分割;
[0065] (6)从图像I⑴中剔除精确障碍物区域,得到t时刻的背景图像Ib (t);
[0066] (7)根据t时刻的背景图像Ib(t)与初始背景图像Ib(O),通过光流法估算背景运动速度场,对背景图像Ib(O)进行补偿校正和更新;
[0067] (8)返回到步骤⑵。
[0068] 如图11所示,本发明的基于视觉的机器人定位方法采用如下步骤:
[0069] (I)利用全局CXD摄像机8获取移动机器人12运动空间的RGB彩色图像;
[0070] (2)将RGB彩色图像转换到YUV空间,获取像素的色度信息——U, V分量;
[0071] (3)基于U分量对色标板26中蓝色主色标31和黄色辅色标30进行阈值分割;
[0072] (4)基于V分量对色标板26中红色辅色标30进行阈值分割;
[0073] (5)搜索分割后三色色标的连通域,获得各色标的中心坐标;
[0074] (6)根据各色标的中心坐标即可得到色标板26的坐标和方向角,进而实现移动机器人12的视觉定位。

Claims (6)

1.一种多移动机器人系统协作实验平台,其特征在于:由全局视觉监测系统和多个机构相同的移动机器人(12)组成;其中全局视觉监测系统包括门形支撑、CXD摄像机(8)、图像采集卡(9)和监控主机(10)组成;(XD摄像机(8)安装于门形支撑上并与移动机器人(12)对应设置,CXD摄像机(8 )通过视频线与安装在监控主机(10 ) PCI插槽内的图像采集卡(9)相连。
2.根据权利要求1所述的多移动机器人系统协作实验平台,其特征在于所述全局视觉监测系统的门形支撑包括底座(1)、竖直下支撑管(2)、两通紧固件(3)、竖直上支撑管(4)、L型连接件(5)、横支撑管(6)和摄像机支架(7);底座(1)由底板(13)通过螺钉(14)与T型支撑管(15)相连构成,竖直下支撑管(2)的一端插在T型支撑管(15)里;两通紧固件(3)由上螺帽(18)、两端中空螺纹管(17)和下螺帽(16)组成,竖直上支撑管(4)的一端依次通过上螺帽(18)、两端中空螺纹管(17)和下螺帽(16)插在竖直下支撑管(2)的另一端里面;横支撑管(6 )通过L型连接件(5 )与竖直上支撑管(4 )固定;摄像机支架(7 )设置于横支撑管(6)上。
3.根据权利要求2所述的多移动机器人系统协作实验平台,其特征在于所述的摄像机支架(7)由马鞍卡(19)、螺栓(25)、托盘(21)和T型万向支架(22)组成;(XD摄像机(8)通过紧固螺钉(23)与T型万向支架(22)相连,T型万向支架的底盘(24)通过螺栓(25)与托盘(21)相连,托盘(21)再通过螺栓(20)与跨在横支撑管(6)上的马鞍卡(19)相连;通过马鞍卡(19)实现CCD摄像机(8)绕着横支撑管(6)旋转。
4.根据权利要求1所述的多移动机器人系统协作实验平台,其特征在于所述的移动机器人(12)由三层组成,由上至下依次为:色标板(26)、控制层(27)和底层(28);色标板(26)由基板(29)、主色标(31)和三个辅色标(30)组成,基板(29)的颜色为固定黑色;位于基板(29)中心的主色标(31)的颜色是固定蓝色;三个辅色标(30)的颜色为黄色和红色,不同移动机器人用三个辅色标(30)的不同颜色组合来区分; 所述的控制层(27)以控制电路板(34)为基础,在控制电路板(34)上通过单排座连有五个超声波测距传感器(33)和无线接收模块(32),五个超声波测距传感器(33)以夹角30°均衡布置在机器人前方; 所述的底层(28 )以机器人底板(35 )为基础并通过左码盘轮(37 )、右码盘轮(38 )和万向轮(36)支撑;所述左码盘轮(37)和右码盘轮(38)对称设置并且结构相同,其中左码盘轮(37 )与左轮直流电机(39 )相连,左轮直流电机(39 )通过电机卡帽(40 )、左轮码盘测速模块(43 )和螺栓(41)固定在机器人底板(35 )上,左码盘轮(37 )和左轮码盘测速模块(43 )配合进行测速;右码盘轮(38)与右轮直流电机(42)相连,并与右轮码盘测速模块(44)配合测速;机器人底板(35)上以夹角45°布置三个红外测距传感器(45)。
5.一种如权利I所述的多移动机器人系统协作实验平台的环境视觉分割方法,其特征在于采用如下步骤: (1)利用CCD摄像机(8)获取无任何物体的初始时刻背景图像Ib(O); (2)采集t时刻图像I(t),计算该帧图像的差分图像Id(t):Id(t)=I(t) -1b(O); (3)对差分图像Id(t)进行阈值分割,得到含障碍物信息的二值分割图像; (4)对二值分割图像进行闭运算处理,消除障碍物区域的孔洞,以及平滑障碍物的边界;(5)对闭运算后图像进行均值滤波,去除图像噪声,获得精确障碍物区域,实现t时刻的障碍物分割,即环境分割;(6)根据环境分割从图像I (t)中剔除精确障碍物区域,得到t时刻的背景图像Ib(t); (7)根据t时刻的背景图像Ib(t)与初始背景图像Ib(O),通过光流法估算背景运动速度场,对背景图像Ib(O)进行补偿校正和更新; (8)返回到步骤(2)。
6.一种如权利I所述的多移动机器人系统协作实验平台的机器人视觉定位方法,其特征在于采用如下步骤: 1)利用CXD摄像机(8)获取移动机器人(12)运动空间的RGB彩色图像; 2)将RGB彩色图像转换到YUV空间,获取像素的色度信息——U, V分量; 3)基于U分量对色标板(26)中主色标(31)和黄色的辅色标(30)进行阈值分割; 4)基于V分量对色标板(26)中红色的辅色标(30)进行阈值分割; 5)搜索分割后三色色标的连通域,获得各色标的中心坐标; 6)根据各色标的中心坐标即可得到色标板(26)的坐标和方向角,进而实现移动机器人(12)的视觉定位。
CN201410152510.0A 2014-04-16 2014-04-16 多移动机器人系统协作实验平台及其视觉分割和定位方法 CN103970134B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410152510.0A CN103970134B (zh) 2014-04-16 2014-04-16 多移动机器人系统协作实验平台及其视觉分割和定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410152510.0A CN103970134B (zh) 2014-04-16 2014-04-16 多移动机器人系统协作实验平台及其视觉分割和定位方法

Publications (2)

Publication Number Publication Date
CN103970134A true CN103970134A (zh) 2014-08-06
CN103970134B CN103970134B (zh) 2017-01-18

Family

ID=51239760

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410152510.0A CN103970134B (zh) 2014-04-16 2014-04-16 多移动机器人系统协作实验平台及其视觉分割和定位方法

Country Status (1)

Country Link
CN (1) CN103970134B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104898575A (zh) * 2015-06-01 2015-09-09 中国人民解放军装甲兵工程学院 多机器人协同控制系统
CN105182973A (zh) * 2015-09-08 2015-12-23 郑州大学 多机器人追捕者围捕单移动目标的自适应围捕装置与方法
CN105425791A (zh) * 2015-11-06 2016-03-23 武汉理工大学 一种基于视觉定位的群机器人控制系统及方法
CN105573316A (zh) * 2015-12-01 2016-05-11 武汉科技大学 一种自主编队移动群体机器人
CN105955279A (zh) * 2016-07-18 2016-09-21 中国矿业大学 一种基于图像视觉的移动机器人路径规划方法及装置
CN105955275A (zh) * 2016-05-26 2016-09-21 华讯方舟科技有限公司 一种机器人路径规划方法及系统
CN107076557A (zh) * 2016-06-07 2017-08-18 深圳市大疆创新科技有限公司 可移动机器人识别定位方法、装置、系统及可移动机器人
CN108000512A (zh) * 2016-11-02 2018-05-08 香港理工大学深圳研究院 一种移动机械臂系统及围捕控制方法
CN108227712A (zh) * 2017-12-29 2018-06-29 北京臻迪科技股份有限公司 一种无人船的避障行驶方法及装置
CN109828580A (zh) * 2019-02-27 2019-05-31 华南理工大学 一种基于分离式超声波的移动机器人编队跟踪控制方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1369356A (zh) * 2002-03-21 2002-09-18 上海广茂达电子信息有限公司 个人机器人
CN201058236Y (zh) * 2007-04-28 2008-05-14 辽宁机电职业技术学院 足球机器人低层控制系统
CN201058228Y (zh) * 2007-04-28 2008-05-14 王忠诚 足球机器人远程比赛系统
CN101398689A (zh) * 2008-10-30 2009-04-01 中控科技集团有限公司 实时颜色自动采集的机器人控制方法及机器人
CN102141398A (zh) * 2010-12-28 2011-08-03 北京航空航天大学 基于单目视觉的多机器人位置与姿态测量方法
CN102542294A (zh) * 2011-12-29 2012-07-04 河海大学常州校区 双视觉信息融合的集控式足球机器人识别系统及识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1369356A (zh) * 2002-03-21 2002-09-18 上海广茂达电子信息有限公司 个人机器人
CN201058236Y (zh) * 2007-04-28 2008-05-14 辽宁机电职业技术学院 足球机器人低层控制系统
CN201058228Y (zh) * 2007-04-28 2008-05-14 王忠诚 足球机器人远程比赛系统
CN101398689A (zh) * 2008-10-30 2009-04-01 中控科技集团有限公司 实时颜色自动采集的机器人控制方法及机器人
CN102141398A (zh) * 2010-12-28 2011-08-03 北京航空航天大学 基于单目视觉的多机器人位置与姿态测量方法
CN102542294A (zh) * 2011-12-29 2012-07-04 河海大学常州校区 双视觉信息融合的集控式足球机器人识别系统及识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吕小虎: "六足机器人控制器设计与目标跟踪算法", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104898575A (zh) * 2015-06-01 2015-09-09 中国人民解放军装甲兵工程学院 多机器人协同控制系统
CN105182973B (zh) * 2015-09-08 2018-01-30 郑州大学 多机器人追捕者围捕单移动目标的自适应围捕方法
CN105182973A (zh) * 2015-09-08 2015-12-23 郑州大学 多机器人追捕者围捕单移动目标的自适应围捕装置与方法
CN105425791B (zh) * 2015-11-06 2019-01-29 武汉理工大学 一种基于视觉定位的群机器人控制系统及方法
CN105425791A (zh) * 2015-11-06 2016-03-23 武汉理工大学 一种基于视觉定位的群机器人控制系统及方法
CN105573316A (zh) * 2015-12-01 2016-05-11 武汉科技大学 一种自主编队移动群体机器人
CN105573316B (zh) * 2015-12-01 2019-05-03 武汉科技大学 一种自主编队移动群体机器人
CN105955275A (zh) * 2016-05-26 2016-09-21 华讯方舟科技有限公司 一种机器人路径规划方法及系统
CN107076557A (zh) * 2016-06-07 2017-08-18 深圳市大疆创新科技有限公司 可移动机器人识别定位方法、装置、系统及可移动机器人
WO2017210866A1 (zh) * 2016-06-07 2017-12-14 深圳市大疆创新科技有限公司 可移动机器人识别定位方法、装置、系统及可移动机器人
CN105955279B (zh) * 2016-07-18 2019-04-09 中国矿业大学 一种基于图像视觉的移动机器人路径规划方法及装置
CN105955279A (zh) * 2016-07-18 2016-09-21 中国矿业大学 一种基于图像视觉的移动机器人路径规划方法及装置
CN108000512A (zh) * 2016-11-02 2018-05-08 香港理工大学深圳研究院 一种移动机械臂系统及围捕控制方法
CN108227712A (zh) * 2017-12-29 2018-06-29 北京臻迪科技股份有限公司 一种无人船的避障行驶方法及装置
CN109828580A (zh) * 2019-02-27 2019-05-31 华南理工大学 一种基于分离式超声波的移动机器人编队跟踪控制方法

Also Published As

Publication number Publication date
CN103970134B (zh) 2017-01-18

Similar Documents

Publication Publication Date Title
EP3475659B1 (en) Controlling host vehicle based on detected parked vehicle characteristics
JP2020194571A (ja) 自律車両ナビゲーションのための疎な地図
Hecker et al. End-to-end learning of driving models with surround-view cameras and route planners
US20180367615A1 (en) Smart road system for vehicles
JP6738777B2 (ja) センサの位置を推定する方法及び関連装置
US9952317B2 (en) Vehicle sensor calibration system
CN103778523B (zh) 一种垂直起降无人机及其精确定位及避障方法
CN105318888B (zh) 基于无人机感知的无人驾驶车辆路径规划方法
US10684372B2 (en) Systems, devices, and methods for autonomous vehicle localization
La et al. Mechatronic systems design for an autonomous robotic system for high-efficiency bridge deck inspection and evaluation
JP6387782B2 (ja) 制御装置、制御方法及びコンピュータプログラム
CN102914303B (zh) 多移动机器人的智能空间系统及导航信息获取方法
CN205264074U (zh) 一种基于无人机的反向寻车系统
Droeschel et al. Multilayered mapping and navigation for autonomous micro aerial vehicles
CN105916758B (zh) 自主泊车方法、用于执行所述方法的驾驶员辅助设备以及具有所述驾驶员辅助设备的车辆
CN100399356C (zh) 自动与飞机停靠在一起的旅客登机桥或类似装置的成像系统
JP2019194903A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
KR101515496B1 (ko) 가상현실에서 변동되는 장애물 정보를 반영한 무인 자동차의 자율 주행 시뮬레이션 시스템
US10025317B2 (en) Methods and systems for camera-based autonomous parking
Ilas Electronic sensing technologies for autonomous ground vehicles: A review
US7321386B2 (en) Robust stereo-driven video-based surveillance
US20130231779A1 (en) Mobile Inspection Robot
US20150294430A1 (en) Dynamic dispatching and schedule management methods for an intelligent transit system with electronic guided buses
CN102866706B (zh) 一种采用智能手机导航的清扫机器人及其导航清扫方法
Martinelli et al. Multi-robot localization using relative observations

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
C10 Entry into substantive examination
GR01 Patent grant
C14 Grant of patent or utility model
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170118

Termination date: 20200416