CN103970134B - 多移动机器人系统协作实验平台及其视觉分割和定位方法 - Google Patents
多移动机器人系统协作实验平台及其视觉分割和定位方法 Download PDFInfo
- Publication number
- CN103970134B CN103970134B CN201410152510.0A CN201410152510A CN103970134B CN 103970134 B CN103970134 B CN 103970134B CN 201410152510 A CN201410152510 A CN 201410152510A CN 103970134 B CN103970134 B CN 103970134B
- Authority
- CN
- China
- Prior art keywords
- robot
- mobile
- image
- code
- support tube
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种多移动机器人系统协作实验平台及其视觉分割和定位方法。所述协作实验平台由全局视觉监测系统和多个机构相同的移动机器人组成;其中全局视觉监测系统由门形支撑、CCD摄像机、图像采集卡和监控主机组成;CCD摄像机安装于门形支撑上并与移动机器人对应设置,CCD摄像机通过视频线与安装在监控主机PCI插槽内的图像采集卡相连。所述视觉分割方法结合帧差法和光流法进行障碍物分割。所述视觉定位方法基于色标板进行阈值分割来实现。本发明不仅能满足多移动机器人系统中编队控制、目标探索、任务分配和路径规划等协作技术的实验验证,而且具有成本低和搭建迅速的优点。
Description
技术领域
本发明属于多移动机器人系统领域,涉及到多移动机器人系统协作实验平台的构建,尤其涉及到实验平台中基于视觉的环境分割和机器人定位方法的实现。
背景技术
近年来,随着机器人应用领域的不断拓展,机器人所面对的环境越来越复杂,任务种类越来越多样化,任务复杂程度也越来越高,单机器人对此已经不堪重负,而多机器人系统的内在并行性、功能叠加性,使得其具有更高的任务执行能力和执行效率,系统的鲁棒性也更好。因此,多机器人系统目前已经成为机器人领域的研究热点和趋势。多机器人系统研究所涉及的关键技术包括:编队控制、目标探索、目标围捕、任务分配和路径规划等,为了提高所研究关键技术在实际应用中的效率和可靠性,降低运行成本,往往需要事先对相关技术进行理论验证,而目前更多的是通过仿真来实现,但仿真环境过于理想化,与实际相差较多,因此发明一种多机器人系统协作实验平台有助于推动多机器人系统协作技术的发展和应用。
专利号为“ZL201220043533.4”的专利文献公开了“一种全景摄像头的移动机器人传感器实验平台”技术。该实验平台主要是针对单移动机器人的传感器测试,且采用车载视觉,而非本申请发明中的全局视觉,机器人所获得的视觉信息也只能是局部环境信息。该平台并不能满足多移动机器人的系统协作实验。
专利号为“ZL201220084942.9”的专利文献公开了“基于ZigBee无线控制移动机器人平台”技术。该平台虽然适用于环境探测、群体监控、群体机器人实验,但移动机器人运动控制的实现,主要是通过手动遥控来实现,而这不能满足多移动机器人系统协作中的自主性要求,因此该装置也不能作为多机器人系统协作的实验平台。
专利号为“ZL00816243.3”公布了一种自主多平台机器人系统。该系统至少需要一个采用车载视觉的导航机器人,该机器人负责自身及其它功能机器人的定位、计划和控制,由此可以看出,整个机器人系统完全依赖于该导航机器人。一方面,当导航机器人出现故障时,整个机器人系统会陷入瘫痪;另一方面,各功能机器人由于受导航机器人的控制,则他们也无法真正意义上实现自身的自主性,因此,这种平台同样不适合多机器人系统的协作实验。
专利号为“ZL201010572035.4”公布了一种自主移动机器人平台。内容涉及到了机器人身上携带环境感知系统、驱动系统、平台控制系统等,但该平台对象仍然是单机器人,若要基于其进行多机器人系统协作的实验平台搭建,还需要解决多机器人之间的信息共享、机器人之间的各自定位等。
专利号为“200720011967.5”公布了一种色标标示足球机器人。为了区别对抗组机器人,该专利设计了一种含色标分隔凸线的方形色标板,这比较适合于区别不同组的机器人,但是无法基于视觉实现机器人的精确定位。
综上所述,相比起单移动机器人而言,多移动机器人的任务执行能力更强、任务执行效率更高,而这又取决于多机器人系统的协作技术。为了提高多机器人协作技术的实际应用效率和应用效果,降低系统运行成本,事先开展相关协作技术的实验验证是必不可少的,这就需要一种适合多移动机器人系统协作的实验平台。从已有的专利来看,目前现有机器人平台主要以单移动机器人为主,若依靠多个该类机器人组成多机器人系统协作实验平台,还需要解决多机器人之间的通信、环境地图的构建、机器人的定位等相关技术,因此现有移动机器人的实验平台都不能满足多移动机器人的系统协作实验。
发明内容
本发明的目的在于为解决多移动机器人系统协作的实验需要而构建一种集控式平台,进而提供实验平台中基于视觉的环境分割和机器人定位方法。
本发明的多移动机器人系统协作实验平台,由全局视觉监测系统和多个机构相同的移动机器人组成;其中全局视觉监测系统由门形支撑、CCD摄像机、图像采集卡和监控主机组成;CCD摄像机安装于门形支撑上并与移动机器人对应设置,CCD摄像机通过视频线与安装在监控主机PCI插槽内的图像采集卡相连。
所述全局视觉监测系统的门形支撑包括底座、竖直下支撑管、两通紧固件、竖直上支撑管、L型连接件、横支撑管和摄像机支架;底座由底板通过螺钉与T型支撑管相连构成,竖直下支撑管的一端插在T型支撑管里;两通紧固件由上螺帽、两端中空螺纹管和下螺帽组成,竖直上支撑管的一端依次通过上螺帽、两端中空螺纹管和下螺帽插在竖直下支撑管的另一端里面;横支撑管通过L型连接件与竖直上支撑管固定;摄像机支架设置于横支撑管上。
所述的摄像机支架由马鞍卡、螺栓、托盘和T型万向支架组成;CCD摄像机通过紧固螺钉与T型万向支架相连,T型万向支架的底盘通过螺栓与托盘相连,托盘再通过螺栓与跨在横支撑管上的马鞍卡相连;通过马鞍卡实现CCD摄像机绕着横支撑管旋转。
所述的移动机器人由三层组成,由上至下依次为:色标板、控制层和底层;色标板由基板、主色标和三个辅色标组成,基板的颜色为固定黑色;位于基板中心的主色标的颜色是固定蓝色;三个辅色标的颜色为黄色和红色,不同移动机器人用三个辅色标的不同颜色组合来区分;
所述的控制层以控制电路板为基础,在控制电路板上通过单排座连有五个超声波测距传感器和无线接收模块,五个超声波测距传感器以夹角30°均衡布置在机器人前方;
所述的底层以机器人底板为基础并通过左码盘轮、右码盘轮和万向轮支撑;所述左码盘轮和右码盘轮对称设置并且结构相同,其中左码盘轮与左轮直流电机相连,左轮直流电机通过电机卡帽、左轮码盘测速模块和螺栓固定在机器人底板上,左码盘轮和左轮码盘测速模块配合进行测速;右码盘轮与右轮直流电机相连,并与右轮码盘测速模块配合测速;机器人底板上以夹角45°布置三个红外测距传感器。
多移动机器人系统协作实验平台的环境视觉分割方法采用如下步骤:
(1)利用CCD摄像机获取无任何物体的初始时刻背景图像Ib(0);
(2)采集t时刻图像I(t),计算该帧图像的差分图像Id(t):Id(t)=I(t)–Ib(0);
(3)对差分图像Id(t)进行阈值分割,得到含障碍物信息的二值分割图像;
(4)对分割图像进行闭运算处理,目的是消除障碍物区域的孔洞,以及平滑障碍物的边界;
(5)对闭运算后图像进行均值滤波,去除图像噪声,获得精确障碍物区域,实现t时刻的障碍物分割,即环境分割;
(6)根据环境分割从图像I(t)中剔除精确障碍物区域,得到t时刻的背景图像Ib(t);
(7)根据t时刻的背景图像Ib(t)与初始背景图像Ib(0),通过光流法估算背景运动速度场,对背景图像Ib(0)进行补偿校正和更新;
(8)返回到步骤(2)。
多移动机器人系统协作实验平台的机器人视觉定位方法采用如下步骤:
1)利用CCD摄像机获取移动机器人运动空间的RGB彩色图像;
2)将RGB彩色图像转换到YUV空间,获取像素的色度信息——U,V分量;
3)基于U分量对色标板中主色标和黄色的辅色标进行阈值分割;
4)基于V分量对色标板中红色的辅色标进行阈值分割;
5)搜索分割后三色色标的连通域,获得各色标的中心坐标;
6)根据各色标的中心坐标即可得到色标板的坐标和方向角,进而实现移动机器人的视觉定位。
本发明具有如下有益效果:
根据多移动机器人系统协作的实验需要,本发明设计了一种集控式实验平台。针对多机器人系统协作中的环境分割及机器人定位需要,本发明还提供了实验平台中基于视觉的分割和定位方法。环境分割流程中基于帧差法的障碍物区域提取,与现有常用边界分割方法相比,具有计算量小、实时性好和抗噪声能力强的优点,满足了多机器人协作系统的实时性和鲁棒性要求。而基于光流法的背景图像实时更新,使环境分割更具有自适应性,提高了实时分割的稳定性。在机器人视觉定位中,平台采用的全局视觉比车载局部视觉更容易精确地提供机器人环境地图,而所设计的机器人色标板简单实用,提高了视觉分割速度。在机器人视觉定位流程中,基于YUV空间的U,V色度分量进行机器人色标分割,可以增强对环境光照变化干扰的抑制力,从而提高机器人定位精度。
总之,该实验平台不仅可以满足多移动机器人系统协作技术,比如编队控制、目标探索、目标围捕、任务分配和路径规划等的实验验证需要,而且还具有成本低、搭建迅速和实验精确的优点。
附图说明
图1:多移动机器人系统协作实验平台示意图;
图2:底座结构图;
图3:两通紧固件结构图;
图4:摄像机支架结构图;
图5:移动机器人结构图;
图6:机器人色标板示意图;
图7:机器人中间控制层结构图;
图8:机器人底盘结构图;
图9:机器人控制系统组成示意图;
图10:环境视觉分割方法流程图;
图11:机器人视觉定位方法流程图。
图中1.底座,2.竖直下支撑管,3.两通紧固件,4.竖直上支撑管,5.L型连接件,6.横支撑管,7.摄像机支架,8.CCD摄像机,9.图像采集卡,10.监控主机,11.NRF905无线发送模块,12.移动机器人,13.底板,14.螺钉,15.T型支撑管,16.下螺帽,17.两端中空螺纹管,18.上螺帽,19.马鞍卡,20.螺栓,21.托盘,22.T型万向支架,23.紧固螺钉,24.T型万向支架的底盘,25.螺栓,26.色标板,27.控制层,28.底层,29.基板,30.辅色标,31.主色标,32.NRF905无线接收模块,33.超声波测距传感器,34.控制电路板,35.机器人底板,36.万向轮,37.左码盘轮,38.右码盘轮,39.左轮直流电机,40.电机卡帽,41.螺栓,42.右轮直流电机,43.左轮码盘测速模块,44.右轮码盘测速模块,45.红外测距传感器,46.微处理器,47.左轮电机驱动模块,48.右轮电机驱动模块,49.电子罗盘传感器。
具体实施方式
下面结合附图对本发明的多移动机器人系统协作实验平台及其视觉分割和定位方法进行详细描述:
多移动机器人系统协作实验平台由全局视觉监测系统和多移动机器人组成。
如图1所示,CCD摄像机8通过摄像机支架7安装在门形支撑的横支撑管6上,CCD摄像机8通过视频线与图像采集卡9相连,图像采集卡9安装在监控主机10的PCI插槽内。门形支撑的横支撑管6通过L型连接件5与竖直上支撑管4相连,竖直上支撑管4再通过两通紧固件3插在竖直下支撑管2中,竖直下支撑管2插在底座1里面。CCD摄像机8的高低调节可以通过两通紧固件3调节竖直上支撑管4在竖直下支撑管2里的长度来实现。
如图1和2所示,底座1由底板13通过螺钉14与T型支撑管15相连,竖直下支撑管2插在T型支撑管里。
如图1和3所示,两通紧固件3由上螺帽18、两端中空螺纹管17和下螺帽16组成。两端中空螺纹管17插在竖直下支撑管2上,通过下螺帽16进行两者紧固,竖直上支撑管4通过上螺帽18、两端中空螺纹管17插在竖直下支撑管2上面,并且依靠上螺帽18拧紧两端中空螺纹管17来固定。横支撑管6通过L型连接件5与竖直上支撑管4固定。
如图1和4所示,CCD摄像机8通过紧固螺钉23与T型万向支架22相连,T型万向支架的底盘24通过螺栓25与托盘21相连,托盘21再通过螺栓20与跨在横支撑管6上的马鞍卡19相连。通过马鞍卡19可以实现CCD摄像机8绕着横支撑管6旋转。
移动机器人12由三层组成。如图5所示,上面为色标板26,中间为控制层27,下面为底层28。
如图6所示,色标板26由基板29、主色标31和三个辅色标30组成。基板29的颜色为固定黑色;位于色标板26中心的主色标31的颜色是固定蓝色;三个辅色标30的颜色可选择为黄色和红色。不同移动机器人可以用三个辅色标30的不同颜色组合来区分。
如图5和7所示,移动机器人12的中间控制层27以控制电路板34为基础,通过单排座连有五个超声波测距传感器33和NRF905无线接收模块32等。五个超声波测距传感器以夹角30°均衡布置在机器人前方。
如图5和8所示,移动机器人12的底层28以机器人底板35为基础,通过左码盘轮37、右码盘轮38和万向轮36支撑。左码盘轮37与左轮直流电机39相连,左轮直流电机39通过电机卡帽40、左轮码盘测速模块43和螺栓41固定在机器人底板35上。左码盘轮37和左轮码盘测速模块43配合进行测速。右码盘轮38与右轮直流电机42相连,并与右轮码盘测速模块44配合测速。三个红外测距传感器45以夹角45°布置在机器人底板35上。
如图1、5和9所示,移动机器人12的控制系统组成如下:以微处理器46为核心,超声波测距传感器33和红外测距传感器45分别与微处理器46相连,通过数据融合来进行移动机器人12的周围近距离障碍物检测;电子罗盘传感器49与微处理器46相连用以记录移动机器人12的运动方向;NRF905无线接收模块32通过SPI串口与微处理器46相连,并通过与监控主机10相连的NRF905无线发送模块11进行无线通信,用来接收来自监控主机10的控制命令,以及将机器人自身的检测信息发送到监控主机10。微处理器46通过左轮电机驱动模块47来驱动与控制左轮直流电机39;同样,微处理器46通过右轮电机驱动模块48来驱动与控制右轮直流电机42。移动机器人12通过左码盘轮37和右码盘轮38组成差动连接方式。左轮码盘测速模块43与左码盘轮37配合进行左轮转速测量;同样,右轮码盘测速模块44与右码盘轮38配合进行右轮转速测量。
为了完成基于所发明实验平台的多移动机器人系统协作实验,还需要进行环境分割以及机器人定位。
如图10所示,本发明基于视觉的环境分割方法采用如下步骤:
(1)利用CCD摄像机8获取无任何物体的初始时刻背景图像Ib(0);
(2)采集t时刻图像I(t),计算该帧图像的差分图像Id(t):Id(t)=I(t)–Ib(0);
(3)对差分图像Id(t)进行阈值分割,得到含障碍物信息的二值分割图像;
(4)对分割图像进行闭运算处理,目的是消除障碍物区域的孔洞,以及平滑障碍物的边界;
(5)对闭运算后图像进行均值滤波,去除图像噪声,获得精确障碍物区域,实现t时刻的障碍物分割,即环境分割;
(6)从图像I(t)中剔除精确障碍物区域,得到t时刻的背景图像Ib(t);
(7)根据t时刻的背景图像Ib(t)与初始背景图像Ib(0),通过光流法估算背景运动速度场,对背景图像Ib(0)进行补偿校正和更新;
(8)返回到步骤(2)。
如图11所示,本发明的基于视觉的机器人定位方法采用如下步骤:
(1)利用全局CCD摄像机8获取移动机器人12运动空间的RGB彩色图像;
(2)将RGB彩色图像转换到YUV空间,获取像素的色度信息——U,V分量;
(3)基于U分量对色标板26中蓝色主色标31和黄色辅色标30进行阈值分割;
(4)基于V分量对色标板26中红色辅色标30进行阈值分割;
(5)搜索分割后三色色标的连通域,获得各色标的中心坐标;
(6)根据各色标的中心坐标即可得到色标板26的坐标和方向角,进而实现移动机器人12的视觉定位。
Claims (3)
1.一种多移动机器人系统协作实验平台,由全局视觉监测系统和多个机构相同的移动机器人(12)组成;其中全局视觉监测系统包括门形支撑、CCD摄像机(8)、图像采集卡(9)和监控主机(10)组成;其特征在于:所述CCD摄像机(8)安装于门形支撑上并与移动机器人(12)对应设置,CCD摄像机(8)通过视频线与安装在监控主机(10)PCI插槽内的图像采集卡(9)相连;
所述全局视觉监测系统的门形支撑包括底座(1)、竖直下支撑管(2)、两通紧固件(3)、竖直上支撑管(4)、L型连接件(5)、横支撑管(6)和摄像机支架(7);底座(1)由底板(13)通过螺钉(14)与T型支撑管(15)相连构成,竖直下支撑管(2)的一端插在T型支撑管(15)里;两通紧固件(3)由上螺帽(18)、两端中空螺纹管(17)和下螺帽(16)组成,竖直上支撑管(4)的一端依次通过上螺帽(18)、两端中空螺纹管(17)和下螺帽(16)插在竖直下支撑管(2)的另一端里面;横支撑管(6)通过L型连接件(5)与竖直上支撑管(4)固定;摄像机支架(7)设置于横支撑管(6)上;
所述的摄像机支架(7)由马鞍卡(19)、螺栓(25)、托盘(21)和T型万向支架(22)组成;CCD摄像机(8)通过紧固螺钉(23)与T型万向支架(22)相连,T型万向支架的底盘(24)通过螺栓(25)与托盘(21)相连,托盘(21)再通过螺栓(20)与跨在横支撑管(6)上的马鞍卡(19)相连;通过马鞍卡(19)实现CCD摄像机(8)绕着横支撑管(6)旋转;
所述的移动机器人(12)由三层组成,由上至下依次为:色标板(26)、控制层(27)和底层(28);色标板(26)由基板(29)、主色标(31)和三个辅色标(30)组成,基板(29)的颜色为固定黑色;位于基板(29)中心的主色标(31)的颜色是固定蓝色;三个辅色标(30)的颜色为黄色和红色,不同移动机器人用三个辅色标(30)的不同颜色组合来区分;
所述的控制层(27)以控制电路板(34)为基础,在控制电路板(34)上通过单排座连有五个超声波测距传感器(33)和无线接收模块(32),五个超声波测距传感器(33)以夹角30°均衡布置在机器人前方;
所述的底层(28)以机器人底板(35)为基础并通过左码盘轮(37)、右码盘轮(38)和万向轮(36)支撑;所述左码盘轮(37)和右码盘轮(38)对称设置并且结构相同,其中左码盘轮(37)与左轮直流电机(39)相连,左轮直流电机(39)通过电机卡帽(40)、左轮码盘测速模块(43)和螺栓(41)固定在机器人底板(35)上,左码盘轮(37)和左轮码盘测速模块(43)配合进行测速;右码盘轮(38)与右轮直流电机(42)相连,并与右轮码盘测速模块(44)配合测速;机器人底板(35)上以夹角45°布置三个红外测距传感器(45)。
2.一种如权利要求1所述的多移动机器人系统协作实验平台的环境视觉分割方法,其特征在于采用如下步骤:
(1)利用CCD摄像机(8)获取无任何物体的初始时刻背景图像Ib(0);
(2)采集t时刻图像I(t),计算图像I(t)的差分图像Id(t):Id(t)=I(t)–Ib(0);
(3)对差分图像Id(t)进行阈值分割,得到含障碍物信息的二值分割图像;
(4)对二值分割图像进行闭运算处理,消除障碍物区域的孔洞,以及平滑障碍物的边界;
(5)对闭运算后图像进行均值滤波,去除图像噪声,获得精确障碍物区域,实现t时刻的障碍物分割,即环境分割;
(6)根据环境分割从图像I(t)中剔除精确障碍物区域,得到t时刻的背景图像Ib(t);
(7)根据t时刻的背景图像Ib(t)与初始背景图像Ib(0),通过光流法估算背景运动速度场,对背景图像Ib(0)进行补偿校正和更新;
(8)返回到步骤(2)。
3.一种如权利要求1所述的多移动机器人系统协作实验平台的机器人视觉定位方法,其特征在于采用如下步骤:
1)利用CCD摄像机(8)获取移动机器人(12)运动空间的RGB彩色图像;
2)将RGB彩色图像转换到YUV空间,获取像素的色度信息——U,V分量;
3)基于U分量对色标板(26)中主色标(31)和黄色的辅色标(30)进行阈值分割;
4)基于V分量对色标板(26)中红色的辅色标(30)进行阈值分割;
5)搜索分割后三色色标的连通域,获得各色标的中心坐标;
6)根据各色标的中心坐标即可得到色标板(26)的坐标和方向角,进而实现移动机器人(12)的视觉定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410152510.0A CN103970134B (zh) | 2014-04-16 | 2014-04-16 | 多移动机器人系统协作实验平台及其视觉分割和定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410152510.0A CN103970134B (zh) | 2014-04-16 | 2014-04-16 | 多移动机器人系统协作实验平台及其视觉分割和定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103970134A CN103970134A (zh) | 2014-08-06 |
CN103970134B true CN103970134B (zh) | 2017-01-18 |
Family
ID=51239760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410152510.0A Expired - Fee Related CN103970134B (zh) | 2014-04-16 | 2014-04-16 | 多移动机器人系统协作实验平台及其视觉分割和定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103970134B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104898575A (zh) * | 2015-06-01 | 2015-09-09 | 中国人民解放军装甲兵工程学院 | 多机器人协同控制系统 |
CN105182973B (zh) * | 2015-09-08 | 2018-01-30 | 郑州大学 | 多机器人追捕者围捕单移动目标的自适应围捕方法 |
CN105425791B (zh) * | 2015-11-06 | 2019-01-29 | 武汉理工大学 | 一种基于视觉定位的群机器人控制系统及方法 |
CN105573316B (zh) * | 2015-12-01 | 2019-05-03 | 武汉科技大学 | 一种自主编队移动群体机器人 |
CN105955275B (zh) * | 2016-05-26 | 2021-07-13 | 华讯方舟科技有限公司 | 一种机器人路径规划方法及系统 |
CN107076557A (zh) * | 2016-06-07 | 2017-08-18 | 深圳市大疆创新科技有限公司 | 可移动机器人识别定位方法、装置、系统及可移动机器人 |
CN105955279B (zh) * | 2016-07-18 | 2019-04-09 | 中国矿业大学 | 一种基于图像视觉的移动机器人路径规划方法及装置 |
CN108000512B (zh) * | 2016-11-02 | 2021-02-02 | 香港理工大学深圳研究院 | 一种移动机械臂系统及围捕控制方法 |
CN108227712A (zh) * | 2017-12-29 | 2018-06-29 | 北京臻迪科技股份有限公司 | 一种无人船的避障行驶方法及装置 |
CN109828580B (zh) * | 2019-02-27 | 2022-05-24 | 华南理工大学 | 一种基于分离式超声波的移动机器人编队跟踪控制方法 |
CN111190420B (zh) * | 2020-01-07 | 2021-11-12 | 大连理工大学 | 一种多移动机器人在安防领域中协作搜索与围捕方法 |
CN113386052A (zh) * | 2021-05-12 | 2021-09-14 | 华南理工大学 | 一种船体磨料水射流除漆除锈设备及其实现方法 |
CN115657720A (zh) * | 2022-10-28 | 2023-01-31 | 哈尔滨工业大学 | 动态障碍物场景下微型无人机集群算法的实验系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1369356A (zh) * | 2002-03-21 | 2002-09-18 | 上海广茂达电子信息有限公司 | 个人机器人 |
CN201058236Y (zh) * | 2007-04-28 | 2008-05-14 | 辽宁机电职业技术学院 | 足球机器人低层控制系统 |
CN201058228Y (zh) * | 2007-04-28 | 2008-05-14 | 王忠诚 | 足球机器人远程比赛系统 |
CN101398689A (zh) * | 2008-10-30 | 2009-04-01 | 中控科技集团有限公司 | 实时颜色自动采集的机器人控制方法及机器人 |
CN102141398A (zh) * | 2010-12-28 | 2011-08-03 | 北京航空航天大学 | 基于单目视觉的多机器人位置与姿态测量方法 |
CN102542294A (zh) * | 2011-12-29 | 2012-07-04 | 河海大学常州校区 | 双视觉信息融合的集控式足球机器人识别系统及识别方法 |
-
2014
- 2014-04-16 CN CN201410152510.0A patent/CN103970134B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1369356A (zh) * | 2002-03-21 | 2002-09-18 | 上海广茂达电子信息有限公司 | 个人机器人 |
CN201058236Y (zh) * | 2007-04-28 | 2008-05-14 | 辽宁机电职业技术学院 | 足球机器人低层控制系统 |
CN201058228Y (zh) * | 2007-04-28 | 2008-05-14 | 王忠诚 | 足球机器人远程比赛系统 |
CN101398689A (zh) * | 2008-10-30 | 2009-04-01 | 中控科技集团有限公司 | 实时颜色自动采集的机器人控制方法及机器人 |
CN102141398A (zh) * | 2010-12-28 | 2011-08-03 | 北京航空航天大学 | 基于单目视觉的多机器人位置与姿态测量方法 |
CN102542294A (zh) * | 2011-12-29 | 2012-07-04 | 河海大学常州校区 | 双视觉信息融合的集控式足球机器人识别系统及识别方法 |
Non-Patent Citations (1)
Title |
---|
六足机器人控制器设计与目标跟踪算法;吕小虎;《中国优秀硕士学位论文全文数据库 信息科技辑》;20111015(第10期);22-23页及附图4.5 * |
Also Published As
Publication number | Publication date |
---|---|
CN103970134A (zh) | 2014-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103970134B (zh) | 多移动机器人系统协作实验平台及其视觉分割和定位方法 | |
CN111145545B (zh) | 基于深度学习的道路交通行为无人机监测系统及方法 | |
CN103386975B (zh) | 一种基于机器视觉的车辆避障方法及系统 | |
CN105197252B (zh) | 一种小型无人机降落方法及系统 | |
CN103940434B (zh) | 基于单目视觉和惯性导航单元的实时车道线检测系统 | |
CN106054929B (zh) | 一种基于光流的无人机自动降落引导方法 | |
CN105318888B (zh) | 基于无人机感知的无人驾驶车辆路径规划方法 | |
CN103941747B (zh) | 无人机群的控制方法及系统 | |
CN101458083B (zh) | 结构光视觉导航系统与方法 | |
CN106527487A (zh) | 一种运动平台上无人机自主精确着陆系统及着陆方法 | |
CN109187041A (zh) | 一种用于自动驾驶测试场的无人测试车平台及方法 | |
CN109270953A (zh) | 一种基于同心圆视觉标识的多旋翼无人机自主降落方法 | |
CN103389733A (zh) | 一种基于机器视觉的车辆巡线方法及系统 | |
CN103794056A (zh) | 基于实时双路视频流的车型精确分类系统及方法 | |
CN105554472B (zh) | 覆盖环境的视频监控系统及其定位机器人的方法 | |
CN110281941A (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
CN103268072A (zh) | 一种基于机器视觉的缩微车、缩微车控制系统及控制方法 | |
CN105716611A (zh) | 基于环境信息的室内移动机器人及其定位方法 | |
CN113085896B (zh) | 一种现代有轨清洁车辅助自动驾驶系统及方法 | |
CN106767854A (zh) | 移动设备、车库地图形成方法及系统 | |
CN113359709B (zh) | 一种基于数字孪生的无人驾驶运动规划方法 | |
CN105955279A (zh) | 一种基于图像视觉的移动机器人路径规划方法及装置 | |
KR101510745B1 (ko) | 차량의 무인 자율주행 시스템 | |
CN103488801B (zh) | 一种基于地理信息空间库的机场目标检测方法 | |
CN201345166Y (zh) | 视频通道车辆检测器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170118 Termination date: 20200416 |