CN115131434A - 基于视觉传感器的多移动机器人协作建图方法及系统 - Google Patents

基于视觉传感器的多移动机器人协作建图方法及系统 Download PDF

Info

Publication number
CN115131434A
CN115131434A CN202210737658.5A CN202210737658A CN115131434A CN 115131434 A CN115131434 A CN 115131434A CN 202210737658 A CN202210737658 A CN 202210737658A CN 115131434 A CN115131434 A CN 115131434A
Authority
CN
China
Prior art keywords
robot
map
sub
data
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210737658.5A
Other languages
English (en)
Other versions
CN115131434B (zh
Inventor
和望利
杜文莉
钱锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China University of Science and Technology
Original Assignee
East China University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China University of Science and Technology filed Critical East China University of Science and Technology
Priority to CN202210737658.5A priority Critical patent/CN115131434B/zh
Publication of CN115131434A publication Critical patent/CN115131434A/zh
Application granted granted Critical
Publication of CN115131434B publication Critical patent/CN115131434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明涉及移动机器人定位与地图构建技术领域,更具体的说,涉及一种基于视觉传感器的多移动机器人协作建图方法及系统。本方法,包括以下步骤:步骤S1、相机标定;步骤S2、各子机器人分别独立运行视觉SLAM算法,获得自身位姿和局部地图;步骤S3、各子机器人将自身数据传输至服务端;步骤S4、服务端进行地图重叠区域检测;步骤S5、服务端计算得出局部地图和全局地图之间的变换矩阵;步骤S6、服务端将局部地图融合转换至全局地图;步骤S7、服务端将全局地图数据发送至各子机器人;步骤S8、子机器人更新本地局部地图数据。本发明可实现移动机器人在未知大范围环境下的自主地图构建,克服了单移动机器人建图效率低下的问题,系统可用性及鲁棒性强。

Description

基于视觉传感器的多移动机器人协作建图方法及系统
技术领域
本发明涉及移动机器人定位与地图构建技术领域,更具体的说,涉及一种基于视觉传感器的多移动机器人协作建图方法及系统。
背景技术
在面对一些大规模场景或者场景相对复杂的作业环境,由于单个移动机器人只能根据其观测到的局部信息做出决策,并且还可能由于其自身传感器故障导致整个系统的瘫痪,因此,单个移动机器人在上述作业环境方面存在局限性,需要多机器人协作共同完成任务,以弥补单机器人的能力限制,进而提高整个系统的效率和鲁棒性。
在面向未知大范围环境探索、人员搜救、军事侦察等场景下,采用多机器人协作方式能够大大提高感知效率,从而克服单个移动机器人的感知局限,为后续的自主决策与路径规划奠定基础。
发明内容
本发明的目的是提供一种基于视觉传感器的多移动机器人协作建图方法及系统,解决现有移动机器人在面对未知大范围环境下协同建图精度差、效率低的问题。
为了实现上述目的,本发明提供了一种基于视觉传感器的多移动机器人协作建图方法,包括以下步骤:
步骤S1、相机标定,获取相机内参数及畸变参数;
步骤S2、各子机器人分别独立运行视觉SLAM算法,获得自身位姿和局部地图;
步骤S3、各子机器人采用多机器人通讯机制将自身数据传输至服务端,所述多机器人通讯机制基于ROS系统设计实现;
步骤S4、服务端基于公共区域相似性原理进行地图重叠区域检测,建立各子机器人的局部地图之间的数据关联;
步骤S5、服务端构建PNP问题,计算得出局部地图和全局地图之间的变换矩阵;
步骤S6、服务端将局部地图融合转换至全局地图,并进行全局集束优化;
步骤S7、服务端采用多机器人通讯机制将全局地图数据发送至各子机器人;
步骤S8、子机器人接收全局地图数据并进行解析,更新子机器人的本地局部地图数据。
在一实施例中,所述步骤S1,进一步包括:
采用ROS系统中的相机标定工具包获取相机内参数以及相机畸变参数。
在一实施例中,所述步骤S2,进一步包括:
子机器人搭载RGB-D相机对输入图像提取ORB特征点,在位姿跟踪线程中进行恒速模型估计、参考关键帧估计以及重定位步骤,初步计算出相机位姿,获得自身位姿数据;
子机器人在局部建图线程中根据所新建的关键帧,增加局部地图点数目,关键帧之间重新进行特征匹配,将未匹配的特征点插入到全局地图中,生成新的地图点,获得局部点云地图。
在一实施例中,所述步骤S2,进一步包括:
子机器人在闭环检测线程中对所有的图像关键帧进行位姿优化。
在一实施例中,所述步骤S3,进一步包括:
各子机器人发布自身的关键帧和局部地图数据至服务端;
服务端通过订阅关键帧和地图数据的话题接收各子机器人发布数据。
在一实施例中,所述步骤S4,进一步包括:
步骤S41、服务端加载视觉词袋模型,初始化全局地图数据;
步骤S42、基于公共区域相似性原理确定各子机器人的局部地图之间的相似关键帧和候选关键帧。
在一实施例中,所述步骤S41,进一步包括:
服务端在初始化全局地图数据时加载视觉词袋模型;
检查当前地图数据是否为空,直到接收到第一帧由子机器人端传输过来的地图数据时确定全局坐标系,全局坐标系与所接收到第一帧地图数据对应的子机器人端的局部坐标系保持一致。
在一实施例中,所述步骤S42,进一步包括:
服务端对接收到的所有关键帧迭代遍历,并在存储全局地图关键帧的字典树中进行挑选;
选择一定数量的与当前全局地图关键帧具有相同特征的关键帧作为相似关键帧,在相似关键帧基础上根据地图点数目确定候选关键帧。
在一实施例中,所述步骤S5,进一步包括:
服务端遍历候选关键帧集合,对每个候选关键帧与当前全局地图关键帧之间构建PNP问题,计算出当前候选关键帧在全局坐标系下的位姿,结合候选关键帧在局部坐标下的位姿,计算出局部地图与全局地图之间的变换矩阵。
在一实施例中,所述步骤S5,进一步包括:采用EPnP算法对PNP问题进行求解。
在一实施例中,所述步骤S6,进一步包括:
利用步骤S5获得的变换矩阵,将局部地图中的所有关键帧和地图点数据转换到全局地图坐标系下;
对全局地图中所有关键帧和所有地图点进行全局集束优化。
在一实施例中,所述步骤S7,进一步包括:
服务端将全局地图中的关键帧数据和地图点数据进行序列化,并进行数据包的拆分;
服务端基于多机器人通讯机制发布数据包的话题。
在一实施例中,所述步骤S8,进一步包括:
各个子机器人基于多机器人通讯机制进行接收地图数据;
各子机器人端对接收的地图数据进行反序列化从而得到对应的格式数据;
各子机器人利用变换矩阵将全局地图数据添加到自己局部地图的参考坐标系下,实现本地局部地图的实时更新。
为了实现上述目的,本发明提供了一种基于视觉传感器的多移动机器人协作建图系统,其特征在于,包括多个子机器人和服务端:
所述多个子机器人,分别与服务端通信进行数据交互,
所述多个子机器人和服务端,用于实现如上述任一项所述的方法。
本发明提供的基于视觉传感器的多移动机器人协作建图方法及系统,从实际应用角度出发,实现局部地图向全局地图的高效融合及地图更新,可实现移动机器人在未知大范围环境下的自主地图构建,克服了单移动机器人建图效率低下的问题,提高在未知大范围环境下基于视觉传感器的环境感知效率,系统可用性及鲁棒性强,可应用于大规模作业场景下的环境感知任务。
附图说明
本发明上述的以及其他的特征、性质和优势将通过下面结合附图和实施例的描述而变的更加明显,在附图中相同的附图标记始终表示相同的特征,其中:
图1揭示了根据本发明一实施例的基于视觉传感器的多移动机器人协作建图方法流程图;
图2揭示了根据本发明一实施例中的基于视觉传感器的多移动机器人协作建图流程框图;
图3揭示了根据本发明一实施例的服务端全局地图融合算法流程图;
图4揭示了根据本发明一实施例的服务端地图重叠区域检测流程图;
图5揭示了根据本发明一实施例的根据本发明一实施例的基于视觉传感器的多移动机器人协作建图系统示意图;
图6揭示了根据本发明一实施例的仿真环境下的多移动机器人协作建图结果图。
图中各附图标记的含义如下:
11子机器人;
12子机器人;
1n子机器人;
20服务端。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释发明,并不用于限定发明。
本发明提出的一种基于视觉传感器的多移动机器人协作建图方法,应用于无人搜救和环境探索等领域,用于移动机器人自主定位与地图构建,对移动机器人在大范围未知环境下的环境感知具有推动意义。
图1揭示了根据本发明一实施例中的基于视觉传感器的多移动机器人协作建图方法流程图,图2揭示了根据本发明一实施例中的基于视觉传感器的多移动机器人协作建图流程框图,如图1和如2所示,本发明提出的基于视觉传感器的多移动机器人协作建图方法,采用集中式方案,具体包括以下步骤:
步骤S1、相机标定,获取相机内参数及畸变参数;
步骤S2、各子机器人分别独立运行视觉SLAM算法,获得自身位姿和局部地图;
步骤S3、各子机器人采用多机器人通讯机制将自身数据传输至服务端,所述多机器人通讯机制基于ROS系统设计实现;
步骤S4、服务端基于公共区域相似性原理进行地图重叠区域检测,建立各子机器人的局部点云地图之间的数据关联;
步骤S5、服务端构建PNP问题,计算得出局部地图和全局地图之间的变换矩阵;
步骤S6、服务端将局部地图融合转换至全局地图,并进行全局集束优化;
步骤S7、服务端采用多机器人通讯机制将全局地图数据发送至各子机器人;
步骤S8、子机器人接收全局地图数据并进行解析,更新子机器人的本地局部地图数据。
本发明提出的一种基于视觉传感器的多移动机器人协作建图方法,采用集中式的多机器人协作架构,基于ROS实现了多机器人节点数据通信,单台移动机器人搭载相同的视觉SLAM系统,分工协作完成自身局部子地图构建;服务器端基于公共区域相似性原理并采用视觉词袋模型技术建立局部地图间的数据关联,之后构建PNP问题求解局部地图到全局地图间的坐标变换矩阵从而实现局部地图融合,进一步对地图数据进行全局集束优化,以降低全局地图误差。
下文将对这些步骤进行详细描述。应理解,在本发明范围内,本发明的上述各技术特征和在下文(如实施例)中具体描述的各技术特征之间都可以互相组合,相互关联,从而构成优选的技术方案。
步骤S1、相机标定,获取相机内参数及畸变参数。
在本实施例中,对RGB-D相机标定,采用ROS系统中开源的相机标定工具包获取相机内参数以及相机畸变参数。
相机内参数具体包括相机内参数fx,fy,cx,cy
相机畸变参数具体包括径向畸变参数k1,k2,k3和切向畸变系数p1,p2。
步骤S2、各子机器人分别独立运行视觉SLAM算法,获得自身位姿和局部地图。
各子机器人独立运行自身视觉SLAM算法,获得其自身位姿和局部点云地图。
定位与建图(Simultaneous Localization and Mapping,SLAM)是指载有特定传感器的主体在没有先验信息的情况下,通过计算特定传感器获取图像帧来估计自身运动的轨迹,并建立周围环境的地图,其广泛应用于机器人、无人机、自动驾驶、增强现实、虚拟现实等应用中。
本实施例中,子机器人端运行ORB-SLAM2视觉SLAM算法。
如图2所示,子机器人11,...,子机器人1n分别独立运行视觉SLAM算法,对输入图像进行特征点提取与匹配,利用局部建图线程进行局部跟踪和后段优化,获得局部稀疏点云地图,同时利用闭环检测线程来进行全局位姿优化,更正漂移误差。
如图2所示,更进一步的,所述步骤S2,进一步包括:
子机器人搭载RGB-D相机对输入图像提取ORB(Oriented FAST and RotatedBRIEF,快速导向与简要旋转)特征点,在位姿跟踪线程中进行恒速模型估计、参考关键帧估计以及重定位步骤,初步计算出相机位姿,获得自身位姿数据;
子机器人在局部建图线程中根据所新建的关键帧,增加局部地图点数目,同时关键帧之间重新进行特征匹配,将未匹配的特征点插入到全局地图中,以此生成新的地图点,获得局部点云地图。
更进一步的,子机器人在闭环检测线程中对所有的图像关键帧进行位姿优化,以减少相机运动过程中所产生的累计和漂移误差。
步骤S3、各子机器人采用多机器人通讯机制将自身数据传输至服务端,所述多机器人通讯机制基于ROS系统设计实现。
基于ROS系统设计实现多机器人通讯机制,子机器人端传输数据给服务端。
如图2所示,子机器人11,...,子机器人1n与服务端20之间基于ROS系统中的发布订阅话题的通讯方式传输数据包。
所述ROS系统是用于编写机器人软件程序的一种分布式的软件架构,可提供多节点之间的通信服务。
更具体的说为,基于ROS系统中的发布订阅话题的通讯方式为:
整个ROS系统由ROS主节点进行管理发布者节点和订阅者节点,发布者与订阅者基于RPC协议向ROS主节点注册其节点信息以及要发布和订阅的话题信息,ROS主节点会将相同话题的节点绑定在一起,使订阅者能够发现发布者的地址信息。发布者和订阅者之间基于TCP协议建立网络连接通道,订阅者便可订阅由发布者发送的消息数据,实现数据通信。
子机器人端发布自身的关键帧和地图数据给服务端,服务端通过订阅关键帧和地图数据的话题接收子机器人端的数据。
在图2所示的实施例中,子机器人11,...,子机器人1n发布自身的关键帧和地图数据给服务端20,服务端20通过订阅关键帧和地图数据的话题接收子机器人11,...,子机器人1n的数据。
图3揭示了根据本发明一实施例的服务端全局地图融合算法流程图,图4揭示了根据本发明一实施例的服务端地图重叠区域检测流程图,结合图3和图4详细说明本发明中的步骤S4-步骤S6。
步骤S4、服务端基于公共区域相似性原理进行地图重叠区域检测,建立各子机器人的局部地图之间的数据关联。
各子机器人在单独进行SLAM算法构建局部地图过程中,会形成所有关键帧地图点的集合。如果局部地图与全局地图之间有重复观测过的环境区域,那么此场景下的ORB特征点会有较大的相似度。服务端为每个局部地图以及全局地图建立关键帧数据库,数据库中的索引存储视觉单词的标识。
如图4所示,所述步骤S4,进一步包括以下步骤:
S41、全局地图数据初始化。
服务端在初始化时加载视觉词袋模型,首先检查当前地图数据是否为空,直到接收到第一帧由子机器人端传输过来的地图数据,此时,便可确定全局坐标系,其坐标系与所接收到地图数据对应的子机器人端的局部地图坐标系保持一致。
S42、确定相似关键帧和候选关键帧。
随着接收到的地图数据越来越多,当子机器人曾经过公共区域,服务端即可进行地图重建区域检测,其对接收到的局部地图的所有关键帧迭代遍历,并选择出与当前帧具有一定数量和相同特征的关键帧作为相似关键帧,在相似关键帧基础上根据地图点数据确定候选关键帧。
在本实施例中,服务端对接收到的局部地图的所有关键帧迭代遍历,并在存储全局地图关键帧的字典树中进行挑选,选择出与当前帧具有一定数量和相同特征的关键帧作为相似关键帧并存储到对应集合中,进一步在此集合中依据匹配地图数量超过20的原则确定候选关键帧。
在本实施例中,服务端在进行特征库中的遍历时,通过使用基于视觉词袋模型,可以高效地查询关键帧数据库,从而找到公共区域。
所述视觉词袋模型为对已有图像进行ORB特征提取并通过聚类算法将重复的特征聚集在一起进而形成词袋库,词袋通过树形结构进行存储,其查询的时间复杂度为log(N),之后利用聚类算法生成字典树。
采用TF-IDF(Term Frequency-Inverse Document Frequency)指数作为每个叶子节点的权重值,具有很好的区分能力。包含视觉单词越少的图像,其IDF值就越大。
对于第k个节点的TF和IDF的计算如下式所示:
Figure BDA0003716551180000091
Figure BDA0003716551180000092
TF-IDF=TFk×IDFk
其中,TF表示单词频率,IDF表示逆向文本频率。
步骤S5、构建PNP问题,计算得出局部地图和全局地图之间的变换矩阵。
如图4所示,遍历候选关键帧集合,对每个候选关键帧与当前帧之间建立PNP(Perspective-n-Point)问题,通过求解器计算出当前帧在全局坐标系下的位姿Tn,结合候选关键帧在局部坐标下的位姿To,便可计算出局部地图与全局地图间的变换矩阵
Figure BDA0003716551180000093
在本实施例中,所述PNP问题可描述为在已知关键帧Kα与候选关键帧Kg共同匹配到的地图点P在全局坐标下的位姿以及地图点P在已知关键帧Kα中的二维投影位置,需要求解已知关键帧Kα在全局地图坐标系下的位姿。
在本实施例中,通过采用EPnP算法求解PNP问题。
所述EPNP算法包括以下步骤:
首先,选择4个控制点构成质心坐标系,计算世界坐标系下每个3D点用4个控制点线性表达时的系数α;
其次,根据系数α与3D-2D匹配对中的2D点,计算出控制点在相机坐标系下的3D坐标;
最后,根据3D坐标与之前的2D-3D匹配对内的3D坐标,构建3D-3D的求解问题,用迭代最近点ICP算法进行求解。
步骤S6、服务端将局部地图融合转换至全局地图,并进行全局集束优化。
服务端进行局部地图融合,并进行全局集束优化。
利用步骤S5获得的变换矩阵可将局部地图中的所有关键帧和地图点数据转换到全局地图坐标系下;
对全局地图中所有关键帧和所有地图点进行全局集束优化,从而降低全局地图误差。
所述全局集束优化,是指每一个匹配好的特征点建立方程,联立形成超定方程并求解得到最优的位姿矩阵和三维空间点坐标。
步骤S7、服务端采用多机器人通讯机制将全局地图数据发送至各子机器人。
服务端分发关键帧数据和地图点数据。
服务端将全局地图中的关键帧数据和地图点数据进行序列化,进行数据包的拆分,之后服务端基于ROS系统的多机器人通讯机制发布数据包的话题。
步骤S8、子机器人接收全局地图数据并进行解析,更新子机器人的本地局部地图数据。
子机器人端接收地图数据并进行解析,更新子机器人所维护的地图数据。
各子机器人可订阅这个话题进行接收数据。
各子机器人端接收完服务端广播的地图数据后,对数据进行反序列化从而得到对应的格式数据。
各子机器人利用先前计算出的变换矩阵将全局地图数据添加到自己局部地图的参考坐标系下,实现本地局部地图的实时更新。
图5揭示了根据本发明一实施例的根据本发明一实施例的基于视觉传感器的多移动机器人协作建图系统示意图,如图5所示的实施例中,采用一台计算资源丰富的处理器作为服务端20,子机器人11和子机器人12作为客户端。
如图5所示的集中式方案中,各子机器人11和子机器人12之间相互独立,仅和作为计算中心的服务端20进行信息数据交互,在服务端20对接收到的数据包进行更复杂的操作,有利于构建全局一致的地图,在系统搭建过程中复杂度低,易于数据融合的计算与结果分发。
子机器人11、子机器人12和服务端20用于实现如图1至图4所示的基于视觉传感器的多移动机器人协作建图方法。
总体来说,采用集中式的多机器人协作技术方案在实际应用中更加易于实现,且在数据通信实施以及数据一致性方面更具有优势。
图6揭示了根据本发明一实施例的仿真环境下的多移动机器人协作建图结果图,如图6所示的实施例中,同样采用子机器人11、子机器人12和服务端20。
如图6所示,在仿真环境下子机器人11、子机器人12协作建图之后服务端20的全局地图结果,以及子机器人11、子机器人12各自所维护的地图结果。
服务端20中的两条灰色实线分别为两台子机器人的实际运动轨迹,黑色点云为服务端20所维护的全局点云地图,包含了子机器人11和子机器人12所维护的地图数据。
同时,子机器人11、子机器人12也维护了其自身建立的局部地图与从服务端20接收到更新后的点云地图数据,子机器人11、子机器人12与服务端20共同拥有全局一致的环境点云地图。
本发明提供的基于视觉传感器的多移动机器人协作建图方法及系统,从实际应用角度出发,实现局部地图向全局地图的高效融合及地图更新,可实现移动机器人在未知大范围环境下的自主地图构建,克服了单移动机器人建图效率低下的问题,提高在未知大范围环境下基于视觉传感器的环境感知效率,系统可用性及鲁棒性强,可应用于大规模作业场景下的环境感知任务。
尽管为使解释简单化将上述方法图示并描述为一系列动作,但是应理解并领会,这些方法不受动作的次序所限,因为根据一个或多个实施例,一些动作可按不同次序发生和/或与来自本文中图示和描述或本文中未图示和描述但本领域技术人员可以理解的其他动作并发地发生。
如本申请和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其他的步骤或元素。
上述实施例是提供给熟悉本领域内的人员来实现或使用本发明的,熟悉本领域的人员可在不脱离本发明的发明思想的情况下,对上述实施例做出种种修改或变化,因而本发明的保护范围并不被上述实施例所限,而应该是符合权利要求书提到的创新性特征的最大范围。

Claims (13)

1.一种基于视觉传感器的多移动机器人协作建图方法,其特征在于,包括以下步骤:
步骤S1、相机标定,获取相机内参数及畸变参数;
步骤S2、各子机器人分别独立运行视觉SLAM算法,获得自身位姿和局部地图;
步骤S3、各子机器人采用多机器人通讯机制将自身数据传输至服务端,所述多机器人通讯机制基于ROS系统设计实现;
步骤S4、服务端基于公共区域相似性原理进行地图重叠区域检测,建立各子机器人的局部地图之间的数据关联;
步骤S5、服务端构建PNP问题,计算得出局部地图和全局地图之间的变换矩阵;
步骤S6、服务端将局部地图融合转换至全局地图,并进行全局集束优化;
步骤S7、服务端采用多机器人通讯机制将全局地图数据发送至各子机器人;
步骤S8、子机器人接收全局地图数据并进行解析,更新子机器人的本地局部地图数据。
2.根据权利要求1所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S1,进一步包括:
采用ROS系统中的相机标定工具包获取相机内参数以及相机畸变参数。
3.根据权利要求1所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S2,进一步包括:
子机器人搭载RGB-D相机对输入图像提取ORB特征点,在位姿跟踪线程中进行恒速模型估计、参考关键帧估计以及重定位步骤,初步计算出相机位姿,获得自身位姿数据;
子机器人在局部建图线程中根据所新建的关键帧,增加局部地图点数目,关键帧之间重新进行特征匹配,将未匹配的特征点插入到全局地图中,生成新的地图点,获得局部点云地图。
4.根据权利要求3所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S2,进一步包括:
子机器人在闭环检测线程中对所有的图像关键帧进行位姿优化。
5.根据权利要求1所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S3,进一步包括:
各子机器人发布自身的关键帧和局部地图数据至服务端;
服务端通过订阅关键帧和地图数据的话题接收各子机器人发布数据。
6.根据权利要求1所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S4,进一步包括:
步骤S41、服务端加载视觉词袋模型,初始化全局地图数据;
步骤S42、基于公共区域相似性原理确定各子机器人的局部地图之间的相似关键帧和候选关键帧。
7.根据权利要求6所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S41,进一步包括:
服务端在初始化全局地图数据时加载视觉词袋模型;
检查当前地图数据是否为空,直到接收到第一帧由子机器人端传输过来的地图数据时确定全局坐标系,全局坐标系与所接收到第一帧地图数据对应的子机器人端的局部坐标系保持一致。
8.根据权利要求6所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S42,进一步包括:
服务端对接收到的所有关键帧迭代遍历,并在存储全局地图关键帧的字典树中进行挑选;
选择一定数量的与当前全局地图关键帧具有相同特征的关键帧作为相似关键帧,在相似关键帧基础上根据地图点数目确定候选关键帧。
9.根据权利要求1所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S5,进一步包括:
服务端遍历候选关键帧集合,对每个候选关键帧与当前全局地图关键帧之间构建PNP问题,计算出当前候选关键帧在全局坐标系下的位姿,结合候选关键帧在局部坐标下的位姿,计算出局部地图与全局地图之间的变换矩阵。
10.根据权利要求1所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S6,进一步包括:
利用步骤S5获得的变换矩阵,将局部地图中的所有关键帧和地图点数据转换到全局地图坐标系下;
对全局地图中所有关键帧和所有地图点进行全局集束优化。
11.根据权利要求1所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S7,进一步包括:
服务端将全局地图中的关键帧数据和地图点数据进行序列化,并进行数据包的拆分;
服务端基于多机器人通讯机制发布数据包的话题。
12.根据权利要求1所述的基于视觉传感器的多移动机器人协作建图方法,其特征在于,所述步骤S8,进一步包括:
各个子机器人基于多机器人通讯机制进行接收地图数据;
各子机器人端对接收的地图数据进行反序列化从而得到对应的格式数据;
各子机器人利用变换矩阵将全局地图数据添加到自己局部地图的参考坐标系下,实现本地局部地图的实时更新。
13.一种基于视觉传感器的多移动机器人协作建图系统,其特征在于,包括多个子机器人和服务端:
所述多个子机器人,分别与服务端通信进行数据交互,
所述多个子机器人和服务端,用于实现如权利要求1-12任一项所述的方法。
CN202210737658.5A 2022-06-27 2022-06-27 基于视觉传感器的多移动机器人协作建图方法及系统 Active CN115131434B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210737658.5A CN115131434B (zh) 2022-06-27 2022-06-27 基于视觉传感器的多移动机器人协作建图方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210737658.5A CN115131434B (zh) 2022-06-27 2022-06-27 基于视觉传感器的多移动机器人协作建图方法及系统

Publications (2)

Publication Number Publication Date
CN115131434A true CN115131434A (zh) 2022-09-30
CN115131434B CN115131434B (zh) 2024-03-01

Family

ID=83379599

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210737658.5A Active CN115131434B (zh) 2022-06-27 2022-06-27 基于视觉传感器的多移动机器人协作建图方法及系统

Country Status (1)

Country Link
CN (1) CN115131434B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115965673A (zh) * 2022-11-23 2023-04-14 中国建筑一局(集团)有限公司 基于双目视觉的集中式多机器人定位方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200004266A1 (en) * 2019-08-01 2020-01-02 Lg Electronics Inc. Method of performing cloud slam in real time, and robot and cloud server for implementing the same
CN113537208A (zh) * 2021-05-18 2021-10-22 杭州电子科技大学 一种基于语义orb-slam技术的视觉定位方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200004266A1 (en) * 2019-08-01 2020-01-02 Lg Electronics Inc. Method of performing cloud slam in real time, and robot and cloud server for implementing the same
CN113537208A (zh) * 2021-05-18 2021-10-22 杭州电子科技大学 一种基于语义orb-slam技术的视觉定位方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115965673A (zh) * 2022-11-23 2023-04-14 中国建筑一局(集团)有限公司 基于双目视觉的集中式多机器人定位方法
CN115965673B (zh) * 2022-11-23 2023-09-12 中国建筑一局(集团)有限公司 基于双目视觉的集中式多机器人定位方法

Also Published As

Publication number Publication date
CN115131434B (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
CN109559277B (zh) 一种面向数据共享的多无人机协同地图构建方法
CN111415417B (zh) 一种集成稀疏点云的移动机器人拓扑经验地图构建方法
Hörner Map-merging for multi-robot system
Yang et al. Stress-matrix-based formation scaling control
Yue et al. A hierarchical framework for collaborative probabilistic semantic mapping
Vemprala et al. Monocular vision based collaborative localization for micro aerial vehicle swarms
US11568598B2 (en) Method and device for determining an environment map by a server using motion and orientation data
CN115131434A (zh) 基于视觉传感器的多移动机器人协作建图方法及系统
Wen et al. Edge computing-based collaborative vehicles 3D mapping in real time
CN113326769B (zh) 高精地图生成方法、装置、设备及存储介质
Dai et al. Navigation of simultaneous localization and mapping by fusing RGB-D camera and IMU on UAV
Martins et al. MRGS: A multi-robot SLAM framework for ROS with efficient information sharing
Ma et al. Multi-robot collaborative SLAM and scene reconstruction based on RGB-D camera
Patel et al. Collaborative mapping of archaeological sites using multiple uavs
Vemprala et al. Collaborative localization for micro aerial vehicles
Chen et al. CAMs-SLAM: Cloud-based multi-submap VSLAM for multi-source asynchronous sensing of biped climbing robots
CN113256796A (zh) 基于Kinect V2传感器三维点云环境实时重构方法
Yang et al. PSL-SLAM: a monocular SLAM system using points and structure lines in Manhattan World
Zhao et al. A multi-robot collaborative monocular SLAM based on semi-direct method
Chen et al. Development of optimal path planning based on ant colony and wireless sensor network localization techniques for an autonomous mobile service robot
Hu et al. EMS-SLAM: Edge-Assisted Multi-Agent System Simultaneous Localization and Mapping
Shi et al. An Efficient Multi-Robot 3D SLAM Algorithm
Sun et al. Online map fusion system based on sparse point-cloud
Chen et al. Pose-graph based 3D map fusion with distributed robot system
Dong et al. Clusterfusion: Real-time relative positioning and dense reconstruction for UAV cluster

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant