CN112034851B - 集群机器人建图系统及方法 - Google Patents
集群机器人建图系统及方法 Download PDFInfo
- Publication number
- CN112034851B CN112034851B CN202010910180.2A CN202010910180A CN112034851B CN 112034851 B CN112034851 B CN 112034851B CN 202010910180 A CN202010910180 A CN 202010910180A CN 112034851 B CN112034851 B CN 112034851B
- Authority
- CN
- China
- Prior art keywords
- robot
- map
- local environment
- coordinate
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 238000013507 mapping Methods 0.000 title claims abstract description 13
- 230000004927 fusion Effects 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 5
- 238000010408 sweeping Methods 0.000 abstract description 27
- 101150064138 MAP1 gene Proteins 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 101100075995 Schizosaccharomyces pombe (strain 972 / ATCC 24843) fma2 gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0225—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种集群机器人建图系统及方法,扫地机器人利用激光雷达构建栅格地图,在基于路由器搭建的局域网通信模块中实时发送局部子地图到控制中心,最后在已知机器人初始相对位姿基础上,通过地图坐标系转换融合为完整地图。本发明基于局域网的集群扫地机器人实时建图方法,可以解决在大面积室内环境下建图时间长的问题,同时既可以提高建图质量,又可以实时观察建图效果。
Description
技术领域
本发明涉及集群扫地机器人建图领域,特别是涉及一种基于局域网的集群机器人实时建图系统。
背景技术
机器人逐渐代替人类完成基本工作。最为常见的是扫地机器人,它可以帮助我们打扫卫生,深受广大人民的喜爱。但是随着清扫环境的变化,比如面积变大,结构更加复杂,单个扫地机器人任务完成效率逐渐降低,甚至对于环境的感知也随着长时间的游走而产生的一定的误差,影响工作效率。因此集群机器人工作成为研究热点,现有的特征点匹配融合方法需要很大重叠区域,不能实时融合,同时误匹配特征点比较多,从而无法得出正确的转换关系。
发明内容
本发明所要解决的技术问题是,针对现有技术不足,提供一种集群机器人建图系统,实时传送地图数据,防止数据丢失,实时融合地图。
为解决上述技术问题,本发明所采用的技术方案是:一种集群机器人建图系统,包括:
集群机器人,各机器人构建局部环境地图,并将局部环境地图经通信网络发送至控制中心;
通信网络,包括由多个路由器搭建的局域网;
控制中心,用于对接收到的局部环境地图解压,并利用各机器人初始位姿和局部环境地图解压数据融合局部环境地图,得到全局地图。
本发明局域网(通信网络)可以实时传送地图数据,并且不会有数据丢失情况,同时根据初始位姿融合可以实时融合地图。
所述通信网络传输局部环境地图的通信格式为(height,width,d1,a[],origini);其中(height,width)为局部环境地图的高度和宽度,d1为局部环境地图数据长度,a[]为局部环境地图数据,origini=(oxi,oyi)为局部环境地图左上角在机器人坐标系中坐标值,i为机器人编号。本发明只传送必要数据,减少原始地图无关数据,缩短数据长度。
各机器人并排设置。机器人并排设置可以固定初始相互位姿,避免每次修改初始位姿参数。
所述控制中心获得全局地图的具体实现过程包括:
S1、对于机器人A和机器人B,将机器人B的左上角真实坐标值转化为机器人A坐标系中的坐标,其中机器人A坐标系和机器人B坐标系分别以机器人初始位置为原点,前进方向为Y轴负方向,原地右转前进方向为X轴正方向。将机器人B的坐标在xy方向上分别加上真实初始位姿坐标值,从而将机器人A和机器人B的局部环境地图左上角坐标值转化为机器人A坐标系下的坐标值;其中,机器人A和机器人B相邻;
S2、在机器人A坐标系下,根据机器人A和机器人B的左上角坐标点位置,确定两个坐标值中沿x,y方向距离最大的值为全局地图原点在机器人A坐标系下坐标(ox,oy);
S3、获取机器人A和机器人B局部环境地图右下角在机器人A坐标系中坐标,将机器人A和机器人B局部环境地图右下角在机器人A坐标系中坐标值的x和y值分别进行比较,分别选择两个坐标值中x方向和y方向最大值作为全局地图的右下角x和y坐标值,计算出全局地图大小(heigh,width);
S4、创建两个全局地图大小的空白地图,根据机器人A和机器人B局部环境地图左上角坐标与全局地图原点坐标(ox,oy)的相互关系,推导出机器人A和机器人B的局部环境地图和全局地图的转换关系,即转换矩阵分别为T1和T2,利用T1和T2分别对机器人A和机器人B的局部环境地图对应进行转换;
S5、根据融合准则融合转换后的两幅地图,得到全局地图。
以上步骤S1—S5根据地图左上角坐标进行地图坐标系转换,可以实时地图融合,并且随着单机器人建图回环检测左上角坐标会动态优化,从而减少误差。
步骤S4中,转换矩阵为,其中(ox1,oy1)为机器人A局部环境地图在机器人A坐标系下的左上角坐标,(ox12,oy12)为机器人B局部环境地图在机器人A坐标系下的左上角坐标,
转换矩阵只包含坐标系直接的x和y方向转换,无旋转变换,计算简单,节省时间。
步骤S5中,融合准则为,
s1=障碍,s2=空闲,ss=障碍;
s1=障碍,s2=未知,ss=障碍;
s1=空闲,s2=未知,ss=空闲;
s1=空闲,s2=障碍,ss=障碍;
s1=未知,s2=障碍,ss=障碍;
s1=未知,s2=空闲,ss=空闲;
其中,s1为机器人A局部环境地图转换后得到的地图中的任一位置的像素点状态,s2为机器人B局部环境地图转换后得到的地图对应s1的位置的像素点状态,ss为融合后得到的地图对应s1的位置的像素点状态。
本发明的融合准则可以简单方便的对于同一位置的不同状态进行判断。
本发明还提供了一种集群机器人建图方法,包括以下步骤:
1)各机器人构建局部环境地图;
2)利用各机器人初始位姿和局部环境地图解压数据融合局部环境地图,得到全局地图。
步骤2)的具体实现过程包括:
S1、对于机器人A和机器人B,将机器人B的左上角真实坐标值转化为机器人A坐标系中的坐标,,其中机器人A坐标系和机器人B坐标系分别以机器人初始位置为原点,前进方向为Y轴负方向,原地右转前进方向为X轴正方向。将机器人B的坐标在xy方向上分别加上真实初始位姿坐标值,从而将机器人A和机器人B的局部环境地图左上角坐标值转化为机器人A坐标系下的坐标值;其中,机器人A和机器人B相邻;
S2、在机器人A坐标系下,根据机器人A和机器人B的左上角坐标点位置,确定两个坐标值中沿x,y方向距离最大的值为全局地图原点在机器人A坐标系下坐标(ox,oy);
S3、获取机器人A和机器人B局部环境地图右下角在机器人A坐标系中坐标,将机器人A和机器人B局部环境地图右下角在机器人A坐标系中坐标值的x和y值分别进行比较,分别选择两个坐标值中x方向和y方向最大值作为全局地图的右下角x和y坐标值,计算出全局地图大小(heigh,width);
S4、创建两个全局地图大小的空白地图,根据机器人A和机器人B局部环境地图左上角坐标与全局地图原点坐标(ox,oy)的相互关系,推导出机器人A和机器人B的局部环境地图和全局地图的转换关系,即转换矩阵分别为T1和T2,利用T1和T2分别对机器人A和机器人B的局部环境地图对应进行转换;
S5、根据融合准则融合转换后的两幅地图,得到全局地图。
步骤S5中,融合准则为,
s1=障碍,s2=空闲,ss=障碍;
s1=障碍,s2=未知,ss=障碍;
s1=空闲,s2=未知,ss=空闲;
s1=空闲,s2=障碍,ss=障碍;
s1=未知,s2=障碍,ss=障碍;
s1=未知,s2=空闲,ss=空闲;
其中,s1为机器人A局部环境地图转换后得到的地图中的任一位置的像素点状态,s2为机器人B局部环境地图转换后得到的地图对应s1的位置的像素点状态,ss为融合后得到的地图对应s1的位置的像素点状态。
与现有技术相比,本发明所具有的有益效果为:
1、本发明在面积大结构复杂的环境下,可以协同工作,共同完成环境建图。
2、集群扫地机器人协同工作节省时间,提高工作效率,建图质量也有较大提升。
3、本发明可以实时传送地图数据,并且不会有数据丢失情况,同时根据初始位姿融合可以实时融合地图。
附图说明
图1为集群扫地机器人框架图;
图2为单个扫地机器人局域网通信结构;
图3为实施例1机器人真实环境单独建立的三副局部子地图(局部环境地图);
图4为实施例1实验结果展示图。
具体实施方式
本发明提供了一种基于局域网的群扫地机器人实时建图系统,包含多个扫地机器人,每个扫地机器人携带有路由器和单轴激光雷达;所述扫地机器人利用激光雷达构建二维平面地图,在搭建的局域网环境下传输地图数据;所述控制中心利用初始位姿和地图左上角坐标进行地图融合,最后将全局地图发送到每个扫地机器人。
进一步地,通信网络是由各个路由器相互桥接搭建的局域网基础下,利用socket通信机制中的TCP协议,将栅格地图一维数据和相关位置信息进行实时传送。
扫地机器人随机漫游在环境中,利用Cartographer建立栅格平面地图。
本发明传输地图数据消息格式为(height,width,d1,a[],origini),其中(height,width)为地图大小,d1为地图数据长度,a[]为一维栅格地图数据,origini=(oxi,oyi)为地图左下角在机器人坐标系中坐标值(i为机器人编号)。
本发明中,已知扫地机器人初始位姿,以机器人初始位姿为原点构建机器人坐标系,通过初始位姿关系推导出地图转换关系,从而融合成全局地图。对于大小不同的地图,利用地图左上角在扫地机器人坐标系中坐标值(oxi,oyi)和扫地机器人之间的相互位置,其中机器人2与机器人1的真实相对位置为(tx,ty),计算出子地图之间的转换关系。
我们将机器人2的左上角真实坐标值转化为机器人1坐标系中坐标,将机器人2的坐标在xy方向上分别加上真实初始位姿的值,便可以将两个地图左上角坐标值化为统一坐标系。
origin1=(ox1,oy1) (1)
origin2=(ox2,oy2) (2)
origin12=(ox12,oy12)=(ox2+tx,oy2+ty) (3)
在机器人1坐标系下,根据两个左上角坐标点位置(两个坐标点数值为负),可以确定两个坐标值中沿x,y方向距离最大的值为全局地图原点坐标(ox,oy)。
ox=min(ox1,ox12) (4)
oy=min(oy1,oy12) (5)
获得全局原点坐标后,可以求得每个子地图右下角在机器人A坐标系中坐标,将两个坐标值比较,选择每个方向最大值作为全局地图的右下角坐标值,由此计算出全局地图大小(heigh,width)。创建两个全局地图大小的空白地图。在同一坐标系下,由于我们建立的是二维平面栅格地图,根据全局地图原点坐标与机器人局部地图左上角坐标,我们可以推导出机器人局部子地图到全局地图的像素坐标平移矩阵。
实施例1的系统由两台深兰福喜吸尘机器人和一台终端计算机组成,在大面积区域内协同建图。每台扫地机器人均安装一个路由器和一个TIM561激光雷达,终端计算机安装Ubuntu16.04系统。集群扫地机器人系统框架见图1,本发明主要步骤如下:
步骤一:两个扫地机器人在环境中随机游走,利用cartographer包建立栅格地图,此功能包会实时将地图数据传送到话题上。
步骤二:扫地机器人通过局域网将地图数据和位姿数据传送到控制中心。
步骤三:控制中心收到地图数据后,利用所述地图融合方法,根据扫地机器人初始位姿,我们可以融合局部子地图,从而得到全局地图。控制中心将全局地图再发送到每个扫地机器人。
在步骤一中,cartographer包订阅激光雷达数据,将每一帧扫描数据(laserscan)构建子地图(submap),每隔一段时间进行以此所有submap数据图优化,最后输出栅格地图以及地图左上角在机器人坐标系中坐标数据。
在步骤二中,每个扫地机器人携带路由器,通过路由器之间的桥接,可以使得所有扫地机器人在同一局域网下,控制中心上位机通过wife信号加入局域网,形成一个通信网络。其整个数据传送过程如下:控制中心作为客户端首先循环向每个扫地机器人请求发送地图数据;扫地机器人作为服务端,首先响应客户端的要求,通过订阅ROS环境中的/map话题的Occupancygrid消息获得实时栅格地图数据,将数据和其数据长度压缩为一个包一起发送到服务端;控制中心接收到数据后,将压缩包进行恢复获得其实际数据,再经过相应数据处理成ROS话题所对应的消息类型,在发送到/map(id)话题上。
在步骤二中,控制中心接受到地图相关数据中,包含地图大小以及栅格数据,其对应的Occupancygrid消息内包含有以下参数:消息名称,地图大小,地图分辨率,地图一维栅格数据。我们将受到的数据封装成此消息格式,发送到对应话题下。
在步骤二中,控制中心接受到地图相关数据中,包含地图左上角在机器人坐标系中坐标,我们由此需设计一个坐标消息将其发送到相应话题上,坐标消息中我们设置两个int类型数据值,分别为x和y坐标值。
在步骤三中,我们已知机器人的初始位姿,由此可以通过初始位姿推导出机器人局部子地图之间的转换关系。在我们机器人发布到地图话题的地图数据中,主要包含栅格地图数据以及地图左上角像素坐标在真实环境下机器人坐标系的坐标位置。我们主要利用这个左上角坐标来进行地图转换。
实施例1地图转换过程如下:机器人1构建map1,其左上角实际坐标为origin1;机器人2构建map2,其左上角实际坐标为origin2,机器人2与机器人1的真实相对位置为(tx,ty)。
两个机器人创建的地图大小可能会有不一致的情况,所以首先需要考虑全局地图的原点位置以及地图大小。首先我们将机器人2的左上角真实坐标值转化为机器人1坐标系中坐标,将机器人2的坐标在xy方向上分别加上真实初始位姿的值,便可以将两个地图左上角坐标值化为统一坐标系。
origin1=(ox1,oy1) (1)
origin2=(ox2,oy2) (2)
origin21=(ox12,oy12)=(ox2+tx,oy2+ty) (3)
在机器人1坐标系下,根据两个左上角坐标点位置(两个坐标点数值为负),可以确定两个坐标值中沿x,y方向距离最大的值为全局地图原点坐标(ox,oy)。
ox=min(ox1,ox12) (4)
oy=min(oy1,oy12) (5)
获得全局原点坐标后,可以求得每个子地图右下角在机器人A坐标系中坐标,将两个坐标值比较,选择每个方向最大值作为全局地图的右下角坐标值,由此计算出全局地图大小(heigh,width)。创建两个全局地图大小的空白地图。在同一坐标系下,由于我们建立的是二维平面栅格地图,根据全局地图原点坐标与机器人局部地图左上角坐标,我们可以推导出机器人局部子地图到全局地图的像素坐标平移矩阵T1和T2(每个像素格子大小为0.05m):
我们将平移矩阵乘以局部子地图每个像素坐标值,可以得到在全局地图上的像素坐标位置,创建两个全局地图坐标系下的局部子地图,我们比较某点在两幅不同地图中的像素值,当两点像素值不一样时按照以下准则来计算此点状态:
(1)s1=障碍,s2=空闲,ss=障碍
(2)s1=障碍,s2=未知,ss=障碍
(3)s1=空闲,s2=未知,ss=空闲
(4)s1=空闲,s2=障碍,ss=障碍
(5)s1=未知,s2=障碍,ss=障碍
(6)s1=未知,s2=空闲,ss=空闲
其中s1是此点在map1中的像素值,s2是此点在map1中的像素值,ss是我们计算得到的像素值。
Claims (7)
1.一种集群机器人建图系统,其特征在于,包括:
集群机器人,各机器人构建局部环境地图,并将局部环境地图经通信网络发送至控制中心;
通信网络,包括由多个路由器搭建的局域网;
控制中心,用于对接收到的局部环境地图解压,并利用各机器人初始位姿和局部环境地图解压数据融合局部环境地图,得到全局地图;
所述控制中心获得全局地图的具体实现过程包括:
S1、对于机器人A和机器人B,将机器人B的左上角真实坐标值转化为机器人A坐标系中的坐标,其中机器人A坐标系和机器人B坐标系均分别以机器人初始位置为原点,前进方向为Y轴负方向,原地右转前进方向为X轴正方向;将机器人B的坐标在xy方向上分别加上真实初始位姿坐标值,从而将机器人A和机器人B的局部环境地图左上角坐标值转化为机器人A坐标系下的坐标值;其中,机器人A和机器人B相邻;
S2、在机器人A坐标系下,根据机器人A和机器人B的左上角坐标点位置,确定两个坐标值中沿x,y方向距离最大的值为全局地图原点在机器人A坐标系中的坐标(ox,oy);
S3、获取机器人A和机器人B局部环境地图右下角在机器人A坐标系下坐标,将机器人A和机器人B局部环境地图右下角在机器人A坐标系中坐标值的x和y值分别进行比较,分别选择两个坐标值中x方向和y方向最大值作为全局地图的右下角x和y坐标值,计算出全局地图大小(heigh,width);
S4、创建两个全局地图大小的空白地图,根据机器人A和机器人B局部环境地图左上角坐标与全局地图原点坐标(ox,oy)的相互关系,推导出机器人A和机器人B的局部环境地图和全局地图的转换关系,即转换矩阵分别为T1和T2,利用T1和T2分别对机器人A和机器人B的局部环境地图对应进行转换;
S5、根据融合准则融合转换后的两幅地图,得到全局地图。
2.根据权利要求1所述的集群机器人建图系统,其特征在于,所述通信网络传输局部环境地图的通信格式为(height,width,d1,a[],origini);其中(height,width)为局部环境地图的高度和宽度,d1为局部环境地图数据长度,a[]为局部环境地图数据,origini=(oxi,oyi)为局部环境地图左上角在机器人坐标系中坐标值,i为机器人编号。
3.根据权利要求1所述的集群机器人建图系统,其特征在于,各机器人并排设置。
5.根据权利要求1所述的集群机器人建图系统,其特征在于,步骤S5中,
融合准则为,
s1=障碍,s2=空闲,ss=障碍;
s1=障碍,s2=未知,ss=障碍;
s1=空闲,s2=未知,ss=空闲;
s1=空闲,s2=障碍,ss=障碍;
s1=未知,s2=障碍,ss=障碍;
s1=未知,s2=空闲,ss=空闲;
其中,s1为机器人A局部环境地图转换后得到的地图中的任一位置的像素点状态,s2为机器人B局部环境地图转换后得到的地图对应s1的位置的像素点状态,ss为融合后得到的地图对应s1的位置的像素点状态。
6.一种集群机器人建图方法,其特征在于,包括以下步骤:
1)各机器人构建局部环境地图;
2)利用各机器人初始位姿和局部环境地图解压数据融合局部环境地图,得到全局地图;
步骤2)的具体实现过程包括:
S1、对于机器人A和机器人B,将机器人B的左上角真实坐标值转化为机器人A坐标系中的坐标,其中机器人A坐标系和机器人B坐标系分别以机器人初始位置为原点,前进方向为Y轴负方向,原地右转前进方向为X轴正方向;将机器人B的坐标在xy方向上分别加上真实初始位姿坐标值,从而将机器人A和机器人B的局部环境地图左上角坐标值转化为机器人A坐标系下的坐标值;其中,机器人A和机器人B相邻;
S2、在机器人A坐标系下,根据机器人A和机器人B的左上角坐标点位置,确定两个坐标值中沿x,y方向距离最大的值为全局地图原点在机器人A坐标系中的坐标(ox,oy);
S3、获取机器人A和机器人B局部环境地图右下角在机器人A坐标系中的坐标,将机器人A和机器人B局部环境地图右下角在机器人A坐标系中坐标值的x和y值分别进行比较,分别选择两个坐标值中x方向和y方向最大值作为全局地图的右下角x和y坐标值,计算出全局地图大小(heigh,width);
S4、创建两个全局地图大小的空白地图,根据机器人A和机器人B局部环境地图左上角坐标与全局地图原点坐标(ox,oy)的相互关系,推导出机器人A和机器人B的局部环境地图和全局地图的转换关系,即转换矩阵分别为T1和T2,利用T1和T2分别对机器人A和机器人B的局部环境地图对应进行转换;
S5、根据融合准则融合转换后的两幅地图,得到全局地图。
7.根据权利要求6所述的集群机器人建图方法,其特征在于,步骤S5中,融合准则为,
s1=障碍,s2=空闲,ss=障碍;
s1=障碍,s2=未知,ss=障碍;
s1=空闲,s2=未知,ss=空闲;
s1=空闲,s2=障碍,ss=障碍;
s1=未知,s2=障碍,ss=障碍;
s1=未知,s2=空闲,ss=空闲;
其中,s1为机器人A局部环境地图转换后得到的地图中的任一位置的像素点状态,s2为机器人B局部环境地图转换后得到的地图对应s1的位置的像素点状态,ss为融合后得到的地图对应s1的位置的像素点状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010910180.2A CN112034851B (zh) | 2020-09-02 | 2020-09-02 | 集群机器人建图系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010910180.2A CN112034851B (zh) | 2020-09-02 | 2020-09-02 | 集群机器人建图系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112034851A CN112034851A (zh) | 2020-12-04 |
CN112034851B true CN112034851B (zh) | 2021-06-18 |
Family
ID=73592259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010910180.2A Active CN112034851B (zh) | 2020-09-02 | 2020-09-02 | 集群机器人建图系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112034851B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006236098A (ja) * | 2005-02-25 | 2006-09-07 | Mitsubishi Heavy Ind Ltd | 移動体の障害物回避方法及び該移動体 |
CN107544515A (zh) * | 2017-10-10 | 2018-01-05 | 苏州中德睿博智能科技有限公司 | 基于云服务器的多机器人建图导航系统与建图导航方法 |
CN105955258B (zh) * | 2016-04-01 | 2018-10-30 | 沈阳工业大学 | 基于Kinect传感器信息融合的机器人全局栅格地图构建方法 |
CN109814556A (zh) * | 2019-01-22 | 2019-05-28 | 东南大学 | 一种多机器人协作探索未知环境与地图构建的装置与方法 |
-
2020
- 2020-09-02 CN CN202010910180.2A patent/CN112034851B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006236098A (ja) * | 2005-02-25 | 2006-09-07 | Mitsubishi Heavy Ind Ltd | 移動体の障害物回避方法及び該移動体 |
CN105955258B (zh) * | 2016-04-01 | 2018-10-30 | 沈阳工业大学 | 基于Kinect传感器信息融合的机器人全局栅格地图构建方法 |
CN107544515A (zh) * | 2017-10-10 | 2018-01-05 | 苏州中德睿博智能科技有限公司 | 基于云服务器的多机器人建图导航系统与建图导航方法 |
CN109814556A (zh) * | 2019-01-22 | 2019-05-28 | 东南大学 | 一种多机器人协作探索未知环境与地图构建的装置与方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112034851A (zh) | 2020-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Schmuck et al. | Multi-uav collaborative monocular slam | |
Hu et al. | A vision of an XR-aided teleoperation system toward 5G/B5G | |
US11636764B2 (en) | Vehicle-to-infrastructure cooperation information processing method, apparatus, device and autonomous vehicle | |
CN103389699B (zh) | 基于分布式智能监测控制节点的机器人监控及自主移动系统的运行方法 | |
CN104808668B (zh) | 基于力信息的多移动机器人协作搬运平板状物体方法 | |
WO2021139819A1 (zh) | 动态选择网络连接点的方法、设备及存储介质 | |
CN102142081A (zh) | 图像处理设备、图像处理方法、以及程序 | |
CN103716399A (zh) | 基于无线网络的远程交互果实采摘协同异步控制系统及方法 | |
CN112034851B (zh) | 集群机器人建图系统及方法 | |
CN114299039B (zh) | 一种机器人及其碰撞检测装置和方法 | |
CN110531725B (zh) | 一种基于云的地图共享方法 | |
Uchechukwu et al. | ROS-based integration of smart space and a mobile robot as the internet of robotic things | |
CN110677811A (zh) | 多移动机器人的自组网方法以及确定各自工作区域的方法 | |
CN107911294A (zh) | 一种基于地表区块的协同标绘消息路由转发及处理方法 | |
CN114429415A (zh) | 一种搭载高光谱相机的扫地机器人 | |
CN112330216A (zh) | 一种基于模拟设备的通信网络训练系统及方法 | |
CN113866789A (zh) | 无人机激光雷达点云数据处理系统 | |
CN112799010B (zh) | 一种室内定位系统及方法 | |
CN112671854A (zh) | 数据处理方法、服务器和系统 | |
CN112860946A (zh) | 一种视频图像信息转换为地理信息的方法及系统 | |
Fu et al. | Costmap construction and pseudo-lidar conversion method of mobile robot based on monocular camera | |
Zheng et al. | Indoor and Outdoor Positioning and Navigation Based on A Cloud Robot | |
Lin et al. | Multi Agricultural Robots Cooperation Using Wireless Ad-hoc Network | |
CN116442244B (zh) | 一种基于数字孪生技术快速部署机器人的系统及方法 | |
CN111590573A (zh) | 一种机器人三维环境的构建方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |