CN108227717B - 基于orb特征的多移动机器人地图融合方法及融合平台 - Google Patents
基于orb特征的多移动机器人地图融合方法及融合平台 Download PDFInfo
- Publication number
- CN108227717B CN108227717B CN201810087679.0A CN201810087679A CN108227717B CN 108227717 B CN108227717 B CN 108227717B CN 201810087679 A CN201810087679 A CN 201810087679A CN 108227717 B CN108227717 B CN 108227717B
- Authority
- CN
- China
- Prior art keywords
- robot
- fusion
- optimal
- map
- orb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 44
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 16
- 230000009466 transformation Effects 0.000 claims abstract description 35
- 239000011159 matrix material Substances 0.000 claims abstract description 25
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 27
- 235000011034 Rubus glaucus Nutrition 0.000 claims description 22
- 235000009122 Rubus idaeus Nutrition 0.000 claims description 22
- 240000007651 Rubus glaucus Species 0.000 claims description 21
- 238000010276 construction Methods 0.000 claims description 18
- 239000003642 reactive oxygen metabolite Substances 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 12
- 238000000746 purification Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 7
- 235000000177 Indigofera tinctoria Nutrition 0.000 claims description 6
- 229940097275 indigo Drugs 0.000 claims description 6
- COHYTHOBJLSHDF-UHFFFAOYSA-N indigo powder Natural products N1C2=CC=CC=C2C(=O)C1=C1C(=O)C2=CC=CC=C2N1 COHYTHOBJLSHDF-UHFFFAOYSA-N 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000010845 search algorithm Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 abstract description 2
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 238000009616 inductively coupled plasma Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 229910000838 Al alloy Inorganic materials 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 244000235659 Rubus idaeus Species 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了基于ORB特征的多移动机器人地图融合方法,包括以下步骤:多机器人网络构建;将机器人实时获取的环境点云信息进行局部栅格地图构建;分别提取格栅地图的ORB特征,并进行特征点匹配,将匹配后的特征点进行提纯;利用经过提纯的二维特征点对计算偏仿射变换,得到最优仿射变换矩阵;对输入最优仿射变换矩阵的特征点计算最优变换,得到单应矩阵,通过对单应矩阵求解得到最优匹配点,设定融合比例得到全局栅格地图。本发明提取了融合地图的ORB特征,解决了融合效率不高的问题;融合时计算了两幅地图最优匹配点集的最优仿射变换参数,解决了重合区域少会导致融合精度降低的问题。
Description
技术领域
本发明涉及机器人技术领域,更具体的说是涉及基于ORB特征的多移动机器人地图融合方法及融合平台。
背景技术
随着智能时代的来临,机器人广泛进入了研究人员的视野。近年来,机器人学得到了蓬勃发展,作为一门综合交叉学科,机器人学涵盖了控制、导航、机械和计算机科学等领域的最新成果,是当前科技发展最为活跃的领域之一。机器人学的显著成就使我们更加容易处理一些信息收集的问题,诸如环境监测、搜索救援、以及动态的同时定位与地图创建SLAM(Simultaneous localization and mapping)系统。SLAM技术包括同时定位和地图构建两部分,利用机器人自身携带的传感器感知周围的环境以确定机器人在环境中的位置同时对环境进行建模,SLAM成为当前智能机器人研究的热点问题,被很多著名学者认为是实现真正全自主移动机器人的关键。
面对复杂多变的动态环境时,单个机器人往往难以胜任,需要多机器人的协作配合。地图融合作为多机器人SLAM的一个子问题,是解决多机器人SLAM的有效手段,同时也是其中的难点问题。地图融合现存的解决方法分成直接融合法和间接融合法。直接融合法多依靠的是机器人的相对位姿,要求机器人在某一时刻相遇,而间接融合法多考虑局部地图间的重合区域,不需要知晓机器人相对位置的先验信息,所以应用范围更广,产生了更多解决策略;间接融合法存在的问题其一是地图重复区域较少时容易融合失败;其二是算法实时性较差,融合效率较慢。
因此,如何提供一种融合效率高的多移动机器人地图融合平台及融合方法成为了本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了基于ORB特征的多移动机器人地图融合方法及融合平台,提取了融合地图的ORB特征,解决了融合效率不高的问题;融合时计算了两幅地图最优匹配点集的最优仿射变换参数,解决了重合区域少会导致融合精度降低的问题。
为了实现上述目的,本发明采用如下技术方案:
一种基于ORB特征的多移动机器人地图融合方法,其中,包括如下步骤:
1)、建立网络通信实现多机器人网络构建;
包括2个全向机器人和1台笔记本电脑,每个全向机器人搭载树莓派2,安装Ubuntu14.04系统,Robot operating system版本即ROS版本Indigo,笔记本电脑作为终端计算机,搭载AMD FX-8800P处理器,内存8G,同样安装Ubuntu14.04系统,ROS版本Indigo;使用终端计算机发布指令,独立控制每个全向机器人:首先建立wifi网络,相互通信,终端计算机通过SSH网络协议远程登录机器人上的数据处理单元树莓派2,终端计算机和每个机器人分别启动ROS,使得终端计算机可以独立的控制2个机器人,控制的机器人数量不受限制,由于每个树莓派2有不同的IP地址,则机器人相互之间不会受到影响,同时利用现有的master_discovery软件包和master_sync软件包进行时间上的同步;
2)、机器人通过漫游扫描周围的环境,实时获取的环境点云信息进行局部栅格地图构建;
全向机器人通过漫游扫描周围的环境,搭载激光雷达RPLIDAR实时获取环境点云信息,树莓派2运行Hector SLAM算法进行二维栅格地图构建,为了保证地图构建的效率,使用ROS中的rviz实时显示地图构建情况;
3)、将机器人扫描得到的栅格地图分别提取ORB特征,并进行特征点匹配,将匹配后的特征点基于最小距离比例提纯和随机采样一致性RANSAC方法提纯;
3-1)、ORB特征提取匹配。图像处理使用开源图像处理库OpenCV,版本为2.4.9。将机器人扫描得到的栅格地图分别提取ORB特征,得到关键点oFAST集合ki={ki|1≤i≤m,m∈N+}和kj={kj|1≤j≤n,n∈N+},将每个特征点依据描述子rBRIEF的方向向量化,用坐标表示为和针对ORB的描述子为二进制的BRIEF描述子,故选择汉明距离作为描述子的度量手段。特征点匹配选用穷举法Brute Force,由于栅格地图特征分明,重复相似的区域较多,会出现很多的误匹配,需要进一步的提纯。
3-2)、剔除误匹配。先对Brute Force匹配后的特征点,使用基于阈值的方法,将描述子距离大于30的特征点剔除,进行第一步提纯;然后找到两幅地图中距离差Δd相同的特征点对,将距离差大于5的点对剔除,进行第二步提纯;对剩余的特征点对利用RANSAC算法筛选,进行第三步提纯;
4)、利用经过提纯的二维特征点对计算偏仿射变换,得到最优仿射变换矩阵;
对经过提纯的二维特征点对计算偏仿射变换Partial affine,定义旋转矩阵Rφ、尺度变换S和平变换t:
φ代表旋转的角度,s代表缩放的比例,δx和δy代表x和y方向上的平移量;使用estimateRigidTransform函数计算特征点对的最优偏仿射变换矩阵;
偏仿射变换T表示如下:
5)、对输入最优仿射变换矩阵的特征点计算最优变换,得到单应矩阵,通过对单应矩阵求解得到最优解;根据得到的最优匹配点对将多幅地图联系起来,设定融合比例得到全局栅格地图;
待融合的栅格地图设为m1、m2,T有4个变量,输入2组匹配点对即可求解,所以对输入的特征点利用最小二乘计算最优变换,得到单应矩阵T0=(R0,t0)后,作为裁剪ICP算法的初值,采用迭代方式计算最优解(R,t),建立点集之间的对应关系时,使用基于k-d树的最近邻搜索算法,基于前一次迭代获得的转换关系(Rk-1,tk-1),建立点集pi和qj之间的对应关系:
在得到最优解(R,t)之后,T(m2)与m1的重叠区域可以进行较好的匹配,根据得到的最优匹配点对将两幅地图联系起来,最后设定融合比例,将m1与m2融合得到全局栅格地图。
此外,还提供了一种基于ORB特征的多移动机器人地图融合平台,其包括平台基座,电池,驱动电机,电机驱动模块和电压转换模块,所述平台基座与所述驱动电机传动连接,所述驱动电机与所述电机驱动模块电性连接;其中还包括:激光传感器,数据处理单元以及控制单元;
所述激光传感器通过所述数据处理单元与所述控制单元相连,扫描获取周围环境的点云信息,进行局部栅格地图构建;
所述激光传感器采用激光雷达RPLIDAR,包括测距核心和安装平台,测距核心安装于安装平台顶端。激光雷达RPLIDAR作为二维激光传感器,可以扫描获取周围环境的点云信息,进行二维栅格地图构建。所述激光传感器所采用规格如下:系统供电3.6~5V伏,通讯接口为3.3V UART/USB,距离范围为在白色物体下0.2~6m米,角度范围为0~360°度,在小于1.5m范围内距离分辨力为小于0.5mm毫米,在全量程范围内为小于1%,角分辨力为5.5Hz扫描频率下小于等于1°,单次测距时间为0.5ms毫秒,采样频率为大于等于2000Hz,扫描频率为1~10Hz,典型值5.5Hz,每周采样360个点时为典型值;
所述数据处理单元与所述控制单元电连,运行地图构建算法,将局部栅格地图融合成全局栅格地图;所述数据控制单元还与所述激光传感器电连,为激光传感器供电并提供驱动控制其运行;
所述数据处理单元通过输出PWM信号控制电机驱动模块,所述数据处理单元为激光雷达RPLIDAR供电并提供驱动控制其运行;所述数据处理单元采用树莓派2,通过USB转TTL串口线连接控制单元,并为控制单元提供5V电压。树莓派2规格参数如下:处理器为4核ARM Cortex-A7,内存为1GB,具有4个USB 2.0端口,40Pin GPIO接口,一个HDMI视频信号输入接口,一个10/100自适应以太网接口,额定功率为3.5W,电源为InputAC 5V;存储带MicroSD卡插槽,支持通过Micro SD卡启动;
所述电压转换模块,选用了XL4015大功率直流可调降稳压电源模块,最大电流5A,功率75W,带电压显示带数显;
所述电池与所述电机驱动模块电连,并且所述电池通过电压转换模块与所述数据处理单元电连;电池通过电压转换模块,将12V降压为5V稳压,为树莓派2供电;
所述控制单元支持串口控制,提供速度位置双环PID控制,使得机器人工作在速度控制或者位置控制模式;
所述控制单元为主板,其上设置有OLED显示屏、所述电机驱动模块和MPU-6050模块,所述主板还集成了三轴加速度计和三轴陀螺仪。
所述控制单元为主板,主板配置了0.96寸OLED显示屏,3个TB6612FNG电机驱动模块,传感器包括型号GY-521的MPU-6050模块,集成了三轴加速度计和三轴陀螺仪,共6DOF,提供Z轴陀螺仪校正,并通过CAN总线输出小车三轴姿态;支持串口控制,提供速度位置双环PID控制,机器人可以工作在速度控制或者位置控制模式;
所述平台基座包括:底板、驱动轮、联轴器和滚筒,所述滚筒和所述联轴器设置于所述底板顶端,并且所述滚筒通过所述联轴器与所述驱动轮连接;
采用低成本的激光雷达RPLIDAR传感器和三轮全向机器人基座,构建了三轮全向轮式移动机器人硬件平台,拥有速度位置双环控制控制模式,可以构建清晰的环境栅格地图,具备在室内进行自主漫游避障和导航的功能,同时可以作为多机器人地图融合的验证平台。
经由上述的技术方案可知,与现有技术相比,本发明公开提供了基于ORB特征的多移动机器人地图融合方法及融合平台,有益效果在于:
本发明所提供的基于ORB特征的多移动机器人地图融合平台,采用低成本的激光传感器、数据处理单元和三轮全向机器人平台基座,构建了三轮全向轮式移动机器人硬件平台,拥有速度位置双环控制控制模式,可以构建清晰的环境栅格地图,具备在室内进行自主漫游避障和导航的功能,同时可以作为多机器人地图融合的验证平台。
本发明还提供了基于ORB特征的多移动机器人地图融合方法,将传统方法和ORB算法结合起来,应用到多机器人栅格地图融合,通过自主搭建的数据处理单元的全向机器人平台,经过双机器人构图实验,成功得使用Hector SLAM算法构建了局部栅格地图并融合成全局栅格地图,同时选择公开的栅格地图数据集进行验证,本发明提出的融合算法在融合效率和融合精度上都有较好的表现。
移动机器人的可扩展性强,软件系统选择ROS系统,硬件主体使用数据处理单元,二者均为开源产品,可开发程度高,通过硬件的升级和程序的改进,本平台能够开发多机器人在地图融合方面的应用研究。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明一种栅格地图融合流程图。
图2附图为本发明另一种栅格地图融合流程图。
图3附图为本发明的结构框图。
图4附图为本发明平台基座的结构示意图。
其中,图中,
1-底板;2-驱动轮;3-联轴器;4-滚筒。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅附图1,本发明提供了一种基于ORB特征的多移动机器人地图融合方法,包括以下步骤:
建立网络通信实现多机器人网络构建;
机器人通过漫游扫描周围的环境,实时获取的环境点云信息进行局部栅格地图构建;
将机器人扫描得到的栅格地图分别提取ORB特征,并进行特征点匹配,将匹配后的特征点基于最小距离比例提纯和随机采样一致性RANSAC方法提纯;
利用经过提纯的二维特征点对计算偏仿射变换,得到最优仿射变换矩阵;
对输入最优仿射变换矩阵的特征点计算最优变换,得到单应矩阵,通过对单应矩阵求解得到最优解;根据得到的最优匹配点对将多幅地图联系起来,设定融合比例得到全局栅格地图。
本发明还提供了一种基于ORB特征的多移动机器人地图融合平台,包括平台基座,电池,驱动电机,电机驱动模块和电压转换模块,所述平台基座与所述驱动电机传动连接,所述驱动电机与所述电机驱动模块电性连接;其特征在于,还包括:激光传感器,数据处理单元以及控制单元;其中,
所述激光传感器通过所述数据处理单元与所述控制单元相连,扫描获取周围环境的点云信息,进行局部栅格地图构建;
所述数据处理单元与所述控制单元电连,运行地图构建算法,将局部栅格地图融合成全局栅格地图;所述数据控制单元还与所述激光传感器电连,为激光传感器供电并提供驱动控制其运行;
所述控制单元支持串口控制,提供速度位置双环PID控制,使得机器人工作在速度控制或者位置控制模式。
参阅附图2,基于ORB特征的多移动机器人地图融合方法,具体包括以下步骤:
(1)多机器人网络构建
实验系统包括2个全向机器人和1台笔记本电脑,每个全向机器人搭载树莓派2,安装Ubuntu14.04系统,ROS(Robot operating system)版本Indigo,笔记本电脑作为终端计算机,搭载AMDFX-8800P处理器,内存8G,同样安装Ubuntu14.04系统,ROS版本Indigo。使用终端计算机发布指令,独立控制每个全向机器人。首先建立wifi网络,系统才能相互通信,终端计算机通过SSH网络协议远程登录机器人上的数据处理单元树莓派2,终端计算机和每个机器人分别启动ROS,使得终端计算机可以独立的控制2个机器人,控制的机器人数量理论上不受限制,由于每个树莓派2有不同的IP地址,所以机器人相互之间不会受到影响,同时利用现有的master_discovery和master_sync两个软件包进行时间上的同步。
(2)局部栅格地图构建
全向机器人通过漫游扫描周围的环境,搭载激光雷达RPLIDAR实时获取环境点云信息,树莓派2运行HectorSLAM算法进行二维栅格地图构建,为了保证地图构建的效率,使用ROS中的rviz实时显示地图构建情况。
(3)ORB特征提取匹配
①ORB特征提取匹配。图像处理使用开源图像处理库OpenCV,版本为2.4.9。将机器人扫描得到的栅格地图分别提取ORB特征,得到关键点oFAST集合ki={ki|1≤i≤m,m∈N+}和kj={kj|1≤j≤n,n∈N+},将每个特征点依据描述子rBRIEF的方向向量化,用坐标表示为和针对ORB的描述子为二进制的BRIEF描述子,故选择汉明距离作为描述子的度量手段。特征点匹配选用穷举法Brute Force,由于栅格地图特征分明,重复相似的区域较多,会出现很多的误匹配,需要进一步的提纯。
②剔除误匹配。先对Brute Force匹配后的特征点,使用基于阈值的方法,将描述子距离大于30的特征点剔除,进行第一步提纯;然后找到两幅地图中距离差Δd相同的特征点对,将距离差大于5的点对剔除,进行第二步提纯;对剩余的特征点对利用RANSAC算法筛选,进行第三步提纯。
(4)融合参数计算
对经过提纯的二维特征点对计算偏仿射变换(Partial affine),定义旋转矩阵Rφ、尺度变换S和平变换t:
φ代表旋转的角度,s代表缩放的比例,δx和δy代表x和y方向上的平移量。使用estimateRigidTransform函数计算特征点对的最优偏仿射变换矩阵。
偏仿射变换T表示如下:
(5)栅格地图融合
待融合的栅格地图设为m1与m2。由于T只有4个变量,只需要输入2组匹配点对即可求解,所以对输入的特征点利用最小二乘计算最优变换。得到单应矩阵T0=(R0,t0)后,作为裁剪ICP算法的初值,采用迭代方式计算最优解(R,t),建立点集之间的对应关系时,使用基于k-d树的最近邻搜索算法。基于前一次迭代获得的转换关系(Rk-1,tk-1),建立点集pi和qj之间的对应关系:
在得到最优解(R,t)之后,T(m2)与m1的重叠区域可以进行较好的匹配,根据得到的最优匹配点对将两幅地图联系起来,最后设定融合比例,将m1与m2融合得到全局栅格地图。
本发明所提供的基于ORB特征的多移动机器人地图融合方法,将传统方法和ORB算法结合起来,应用到多机器人栅格地图融合,通过自主搭建的基于树莓派2的全向机器人平台,经过双机器人构图实验,成功得使用Hector SLAM算法构建了局部栅格地图并融合成全局栅格地图,同时选择公开的栅格地图数据集进行验证,本发明提出的融合算法在融合效率和融合精度上都有较好的表现。
请参阅附图3-4,本发明提供了基于ORB特征的多移动机器人地图融合平台,包括:平台基座、电池、驱动电机、电机驱动模块、激光传感器、数据处理单元、电压转换模块和控制单元。
平台基座包括:底板、驱动轮、联轴器和滚筒,滚筒和联轴器设置于底板顶端,并且滚筒通过联轴器与驱动轮连接,底板材质使用亚克力板,驱动轮由三个直径60mm铝合金全向轮组成。平台基座的相关参数见表1。
表1
电池为3S 2800mah的航模锂电池,支持B3充电器充电。
驱动电机,控制平台基座的移动,驱动电机选用永磁有刷直流电机,并且带减速器,能够更好的控制机器人运动。驱动电机的工作参数见表2。
表2
工作电压(V) | 7~13,通常选择12 |
额定功率(W) | 7 |
堵转电流(A) | 5.4 |
堵转扭矩(kgf.cm) | 15 |
额定电流(mA) | 540 |
额定扭矩(kgf.cm) | 15 |
原始转速(rpm) | 15000 |
空载转速(rpm) | 500 |
减速比 | 1:30 |
电机驱动模块通过AB相编码器驱动电机,实现驱动电机正反向的调速控制。
激光传感器采用激光雷达RPLIDAR,包括测距核心和安装平台,测距核心安装于安装平台顶端。激光雷达RPLIDAR作为二维激光传感器,可以扫描获取周围环境的点云信息,进行二维栅格地图构建。具体参数见表3。
表3
数据处理单元,数据处理单元是移动机器人平台运行构图算法以及实现控制的核心,选择数据处理单元需要考虑处理能力和运行速度,结合性价比及性能,选用树莓派2作为数据处理单元,能够满足正常条件下的实验需求。它的功能包括:通过输出PWM信号控制电机驱动模块;运行地图构建算法,进行栅格地图构建;为激光雷达RPLIDAR供电并提供驱动控制其运行;树莓派2通过USB转TTL串口线连接控制单元,并为控制单元提供5V电压。树莓派2硬件配置参数见表4。
表4
电压转换模块,选用了XL4015大功率直流可调降稳压电源模块,最大电流5A,功率75W,带电压显示带数显。电池通过电压转换模块,将12V降压为5V稳压,为树莓派2供电。
控制单元为主板,主板配置了0.96寸OLED显示屏,3个TB6612FNG电机驱动模块,传感器包括型号GY-521的MPU-6050模块,集成了三轴加速度计和三轴陀螺仪,共6DOF,提供Z轴陀螺仪校正,并通过CAN总线输出小车三轴姿态。支持串口控制,提供速度位置双环PID控制,机器人可以工作在速度控制或者位置控制模式。
本发明还提供了基于ORB特征的多移动机器人地图融合平台,采用低成本的激光雷达RPLIDAR传感器、树莓派2和三轮全向机器人基座,构建了三轮全向轮式移动机器人硬件平台,拥有速度位置双环控制控制模式,可以构建清晰的环境栅格地图,具备在室内进行自主漫游避障和导航的功能,同时可以作为多机器人地图融合的验证平台。
移动机器人的可扩展性强,软件系统选择ROS系统,硬件主体使用树莓派2,二者均为开源产品,可开发程度高,通过硬件的升级和程序的改进,本平台能够开发多机器人在地图融合方面的应用研究。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (1)
1.一种基于ORB特征的多移动机器人地图融合方法,其特征在于,包括如下步骤:
1)、建立网络通信实现多机器人网络构建;
包括2个全向机器人和1台笔记本电脑,每个全向机器人搭载树莓派2,安装Ubuntu14.04系统,Robot operating system版本即ROS版本Indigo,笔记本电脑作为终端计算机,搭载AMD FX-8800P处理器,内存8G,同样安装Ubuntu14.04系统,ROS版本Indigo;使用终端计算机发布指令,独立控制每个全向机器人:首先建立wifi网络,相互通信,终端计算机通过SSH网络协议远程登录机器人上的数据处理单元树莓派2,终端计算机和每个机器人分别启动ROS,使得终端计算机可以独立的控制2个机器人,控制的机器人数量不受限制,由于每个树莓派2有不同的IP地址,则机器人相互之间不会受到影响,同时利用现有的master_discovery软件包和master_sync软件包进行时间上的同步;
2)、机器人通过漫游扫描周围的环境,实时获取的环境点云信息进行局部栅格地图构建;
全向机器人通过漫游扫描周围的环境,搭载激光雷达RPLIDAR实时获取环境点云信息,树莓派2运行Hector SLAM算法进行二维栅格地图构建,为了保证地图构建的效率,使用ROS中的rviz实时显示地图构建情况;
3)、将机器人扫描得到的栅格地图分别提取ORB特征,并进行特征点匹配,将匹配后的特征点基于最小距离比例提纯和随机采样一致性RANSAC方法提纯;
3-1)、ORB特征提取匹配:图像处理使用开源图像处理库OpenCV,版本为2.4.9,将机器人扫描得到的栅格地图分别提取ORB特征,得到关键点oFAST集合ki={ki|1≤i≤m,m∈N+}和kj={kj|1≤j≤n,n∈N+},将每个特征点依据描述子rBRIEF的方向向量化,用坐标表示为和针对ORB的描述子为二进制的BRIEF描述子,故选择汉明距离作为描述子的度量手段;特征点匹配选用穷举法Brute Force,由于栅格地图特征分明,重复相似的区域较多,会出现很多的误匹配,需要进一步的提纯;
3-2)、剔除误匹配:先对Brute Force匹配后的特征点,使用基于阈值的方法,将描述子距离大于30的特征点剔除,进行第一步提纯;然后找到两幅地图中距离差Δd相同的特征点对,将距离差大于5的点对剔除,进行第二步提纯;对剩余的特征点对利用RANSAC算法筛选,进行第三步提纯;
4)、利用经过提纯的二维特征点对计算偏仿射变换,得到最优仿射变换矩阵;
对经过提纯的二维特征点对计算偏仿射变换Partial affine,定义旋转矩阵Rφ、尺度变换S和平变换t:
φ代表旋转的角度,s代表缩放的比例,δx和δy代表x和y方向上的平移量;使用estimateRigidTransform函数计算特征点对的最优偏仿射变换矩阵;
偏仿射变换T表示如下:
5)、对输入最优仿射变换矩阵的特征点计算最优变换,得到单应矩阵,通过对单应矩阵求解得到最优解;根据得到的最优匹配点对将多幅地图联系起来,设定融合比例得到全局栅格地图;
待融合的栅格地图设为m1、m2,T有4个变量,输入2组匹配点对即可求解,所以对输入的特征点利用最小二乘计算最优变换,得到单应矩阵T0=(R0,t0)后,作为裁剪ICP算法的初值,采用迭代方式计算最优解(R,t),建立点集之间的对应关系时,使用基于k-d树的最近邻搜索算法,基于前一次迭代获得的转换关系(Rk-1,tk-1),建立点集pi和qj之间的对应关系:
在得到最优解(R,t)之后,T(m2)与m1的重叠区域可以进行较好的匹配,根据得到的最优匹配点对将两幅地图联系起来,最后设定融合比例,将m1与m2融合得到全局栅格地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810087679.0A CN108227717B (zh) | 2018-01-30 | 2018-01-30 | 基于orb特征的多移动机器人地图融合方法及融合平台 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810087679.0A CN108227717B (zh) | 2018-01-30 | 2018-01-30 | 基于orb特征的多移动机器人地图融合方法及融合平台 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108227717A CN108227717A (zh) | 2018-06-29 |
CN108227717B true CN108227717B (zh) | 2021-12-03 |
Family
ID=62669224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810087679.0A Active CN108227717B (zh) | 2018-01-30 | 2018-01-30 | 基于orb特征的多移动机器人地图融合方法及融合平台 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108227717B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108775901B (zh) * | 2018-07-20 | 2021-05-07 | 山东大学 | 一种实时slam场景地图构建系统、导航系统及方法 |
CN109615698A (zh) * | 2018-12-03 | 2019-04-12 | 哈尔滨工业大学(深圳) | 基于互回环检测的多无人机slam地图融合算法 |
CN109725327B (zh) * | 2019-03-07 | 2020-08-04 | 山东大学 | 一种多机构建地图的方法及系统 |
CN110110763B (zh) * | 2019-04-19 | 2023-06-23 | 苏州大学 | 一种基于最大公共子图的栅格地图融合方法 |
CN110119144B (zh) * | 2019-04-19 | 2022-04-22 | 苏州大学 | 基于子地图特征匹配的多机器人slam算法 |
CN110727747B (zh) * | 2019-09-02 | 2022-03-15 | 湖北大学 | 基于经纬度识别的纸质地图快速矢量化方法及系统 |
CN110604515B (zh) * | 2019-09-11 | 2021-05-28 | 深圳市银星智能科技股份有限公司 | 多机协作系统及清洁设备 |
CN110849380B (zh) * | 2019-10-28 | 2022-04-22 | 北京影谱科技股份有限公司 | 一种基于协同vslam的地图对齐方法及系统 |
CN111830985A (zh) * | 2020-07-24 | 2020-10-27 | 中南大学 | 一种多机器人定位方法、系统及集中式通信系统 |
CN112070814B (zh) * | 2020-08-31 | 2024-04-02 | 杭州迅蚁网络科技有限公司 | 一种靶标角度识别方法、装置 |
CN114859939A (zh) * | 2022-07-05 | 2022-08-05 | 中国人民解放军战略支援部队航天工程大学 | 一种基于智能移动的节点机器人路径规划方法 |
CN118642377A (zh) * | 2024-08-15 | 2024-09-13 | 湖南科瑞特科技有限公司 | 一种基于机器学习的机器人智能群控方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944240A (zh) * | 2010-08-20 | 2011-01-12 | 浙江大学 | 多机器人三维几何地图的融合方法 |
CN102915039A (zh) * | 2012-11-09 | 2013-02-06 | 河海大学常州校区 | 一种仿动物空间认知的多机器人联合目标搜寻方法 |
CN104200487A (zh) * | 2014-08-01 | 2014-12-10 | 广州中大数字家庭工程技术研究中心有限公司 | 一种基于orb特征点匹配的目标跟踪方法 |
CN106272423A (zh) * | 2016-08-31 | 2017-01-04 | 哈尔滨工业大学深圳研究生院 | 一种针对大尺度环境的多机器人协同制图与定位的方法 |
CN106778767A (zh) * | 2016-11-15 | 2017-05-31 | 电子科技大学 | 基于orb和主动视觉的视觉图像特征提取及匹配方法 |
CN107160395A (zh) * | 2017-06-07 | 2017-09-15 | 中国人民解放军装甲兵工程学院 | 地图构建方法及机器人控制系统 |
CN107390703A (zh) * | 2017-09-12 | 2017-11-24 | 北京创享高科科技有限公司 | 一种智能化导盲机器人及其导盲方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9969337B2 (en) * | 2014-09-03 | 2018-05-15 | Sharp Laboratories Of America, Inc. | Methods and systems for mobile-agent navigation |
-
2018
- 2018-01-30 CN CN201810087679.0A patent/CN108227717B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944240A (zh) * | 2010-08-20 | 2011-01-12 | 浙江大学 | 多机器人三维几何地图的融合方法 |
CN102915039A (zh) * | 2012-11-09 | 2013-02-06 | 河海大学常州校区 | 一种仿动物空间认知的多机器人联合目标搜寻方法 |
CN104200487A (zh) * | 2014-08-01 | 2014-12-10 | 广州中大数字家庭工程技术研究中心有限公司 | 一种基于orb特征点匹配的目标跟踪方法 |
CN106272423A (zh) * | 2016-08-31 | 2017-01-04 | 哈尔滨工业大学深圳研究生院 | 一种针对大尺度环境的多机器人协同制图与定位的方法 |
CN106778767A (zh) * | 2016-11-15 | 2017-05-31 | 电子科技大学 | 基于orb和主动视觉的视觉图像特征提取及匹配方法 |
CN107160395A (zh) * | 2017-06-07 | 2017-09-15 | 中国人民解放军装甲兵工程学院 | 地图构建方法及机器人控制系统 |
CN107390703A (zh) * | 2017-09-12 | 2017-11-24 | 北京创享高科科技有限公司 | 一种智能化导盲机器人及其导盲方法 |
Non-Patent Citations (4)
Title |
---|
Multi-camera visual SLAM for autonomous navigation of micro aerial vehicles;Shaowu Yang 等;《Robotics and Autonomous Systems》;20170731;第116-134页 * |
一种基于改进ORB的视觉SLAM图像匹配算法;张洋 等;《装甲兵工程学院学报》;20161231;第30卷(第6期);第82-88页 * |
基于ORB的多机器人SLAM地图融合算法;卫恒 等;《装甲兵工程学院学报》;20180228;第32卷(第1期);第85-89页 * |
基于仿射变换模型的图像配准中的平移、旋转和缩放;曾文锋 等;《红外与激光工程》;20010228;第30卷(第1期);第17-20页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108227717A (zh) | 2018-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108227717B (zh) | 基于orb特征的多移动机器人地图融合方法及融合平台 | |
CN107167141A (zh) | 基于双一线激光雷达的机器人自主导航系统 | |
CN206908538U (zh) | 伺服电机驱动装置和系统 | |
CN107297748B (zh) | 一种餐厅服务机器人系统及应用 | |
CN111427370A (zh) | 一种基于稀疏位姿调整的移动机器人的Gmapping建图方法 | |
CN105667838A (zh) | 一种皮纳卫星的模块化姿态确定与控制装置及其方法 | |
CN101817182A (zh) | 一种智能移动机械臂控制系统 | |
CN105856231B (zh) | 一种特定构型六轴工业机器人的运动控制方法 | |
CN107729707B (zh) | 基于移动增强现实技术和bim的工程施工放样方法 | |
CN111028267B (zh) | 一种移动机器人单目视觉跟随系统及跟随方法 | |
CN106895841A (zh) | 一种应用于变电站的矢量电子地图创建方法 | |
CN113282083A (zh) | 一种基于机器人操作系统的无人车编队实验平台 | |
CN102528821A (zh) | 一种基于多独立云台的仿生多目视觉物理平台 | |
CN112223278A (zh) | 一种基于深度视觉信息的探测机器人跟随方法及系统 | |
CN108536146B (zh) | 基于路径和rssi的移动机器人定位充电基座的智能控制方法 | |
Li et al. | Depth camera based remote three-dimensional reconstruction using incremental point cloud compression | |
CN103383552B (zh) | 一种任意平面圆弧插补运动控制器及其控制方法 | |
CN112157645A (zh) | 一种七自由度协作机器人智能控制器 | |
Lisang et al. | Design and implementation of intelligent tracking car based on machine vision | |
CN115302523A (zh) | 智能分拣机器人、控制方法及其机械臂逆解运算方法 | |
CN114545919A (zh) | 基于ros2的松散介质移动机器人 | |
CN114355910A (zh) | 一种基于Jetson Nano的室内机器人自主建图导航系统及方法 | |
CN111832510B (zh) | 一种智能寻找杆塔方法及系统 | |
CN208621042U (zh) | 一种用于教学的航行姿态研究系统 | |
CN114800518A (zh) | 基于嵌入式框架的多移动机器人协同控制实验平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |