CN103901774B - 高效鲁棒的基于多传感器的slam协调方法及系统 - Google Patents

高效鲁棒的基于多传感器的slam协调方法及系统 Download PDF

Info

Publication number
CN103901774B
CN103901774B CN201210587503.4A CN201210587503A CN103901774B CN 103901774 B CN103901774 B CN 103901774B CN 201210587503 A CN201210587503 A CN 201210587503A CN 103901774 B CN103901774 B CN 103901774B
Authority
CN
China
Prior art keywords
point set
pose
space coordinates
sensor
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201210587503.4A
Other languages
English (en)
Other versions
CN103901774A (zh
Inventor
张贺
李南君
刘国良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201210587503.4A priority Critical patent/CN103901774B/zh
Publication of CN103901774A publication Critical patent/CN103901774A/zh
Application granted granted Critical
Publication of CN103901774B publication Critical patent/CN103901774B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种高效鲁棒的基于多传感器的SLAM协调方法,包括:协调各个传感器之间的时间戳和相对位置的同步;通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;根据上一帧和当前帧的空间坐标点集来计算机器人的位姿和位姿对应的权重;根据权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿。多个传感器即可以协调工作,由于多个传感器的视角范围广,可以减少盲区,以提高障碍物检测能力;而且,可以通过多个传感器获取更多的环境数据,所以可以极大地降低出现数据采集失败的情况,所以多传感器协调工作的策略可以提高即时定位与地图构建的成功率,并提高机器人成功采集数据的速度,以提高定位效率。

Description

高效鲁棒的基于多传感器的SLAM协调方法及系统
技术领域
本发明涉及通信技术领域,更具体的说,涉及高效鲁棒的基于多传感器的SLAM协调方法及系统。
背景技术
机器人上通常会设置有传感器用于即时定位与地图构建,例如设置2D激光器或3D体感摄影机Kinect等传感器。现有机器人上仅设置有单一的传感器,从而通过单一的匹配策略来实现机器人的即时定位与地图构建,例如仅设置有激光传感器或3DKinect。
在对现有技术的研究和实践过程中,本发明的发明人发现现有技术存在以下问题:
由于通过单一的传感器能够获取到的环境数据较少,并且盲点极大,即使在室内比较规则的环境下,也会经常出现数据采集失败的情况,所以单一的匹配策略使得即时定位与地图构建的失败率增加;而且,单一的匹配策略受环境变化影响较大,机器人只有在数据采集成功的情况下才能够继续行进,所以如果机器人在当前的位置上采集数据失败的话,那么只能在当前的位置上继续采集,知道数据采集成功为止,所以机器人的速度无法保障,从而导致机器人定位的效率低。
因此,如何提高即时定位与地图构建的成功率,提高机器人成功采集数据的速度,提高定位效率,成为目前最需要解决的问题。
发明内容
有鉴于此,本发明的设计目的在于,提供一种高效鲁棒的基于多传感器的SLAM协调方法及系统,以提高即时定位与地图构建的成功率,提高机器人的速度。
本发明实施例是这样实现的:
一种高效鲁棒的基于多传感器的SLAM协调方法,包括:
协调各个传感器之间的时间戳和相对位置的同步;
通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;
根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重;
根据所述权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿。
优选地,在根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重的步骤中,具体为:
当计算所述机器人的位姿的算法中仅包括基于特征点匹配算法时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对所述第一特征点集和所述第二特征点集通过描述符进行匹配,得到匹配点集,根据所述匹配点集计算位姿,并根据所述匹配点集作为该传感器对应的位姿的权重。
优选地,在根据所述空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重的步骤中,具体为:
当计算所述机器人的位姿的算法中仅包括基于扫描匹配算法时,则对所述上一帧的空间坐标点集和所述当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
优选地,在根据所述空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重的步骤中,具体为:
根据所述空间坐标点集通过基于扫描匹配算法和基于特征点匹配算法来计算所述机器人的位姿和所述位姿对应的权重;
当所述空间坐标点集通过特征点匹配算法计算位姿时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对第一特征点集和第二特征点集通过描述符进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述第一特征点集和第二特征点集的差值作为该传感器对应的位姿的权重;
当所述空间坐标点集通过扫描匹配算法计算位姿时,则对上一帧的空间坐标点集和当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
一种高效鲁棒的基于多传感器的SLAM协调系统,包括:
协调模块,用于协调各个传感器之间的时间戳和相对位置的同步;
传感器,用于通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;
即时定位和地图构建模块,用于根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重;
位姿计算模块,用于根据所述权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿。
优选地,所述即时定位和地图构建模块,具体用于当计算所述机器人的位姿的算法中仅包括基于特征点匹配算法时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对所述第一特征点集和所述第二特征点集通过描述符进行匹配,得到匹配点集,根据所述匹配点集计算位姿,并根据所述匹配点集作为该传感器对应的位姿的权重。
优选地,所述即时定位和地图构建模块,具体用于当计算所述机器人的位姿的算法中仅包括基于扫描匹配算法时,则对所述上一帧的空间坐标点集和所述当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
优选地,所述即时定位和地图构建模块,具体用于根据所述空间坐标点集通过基于扫描匹配算法和基于特征点匹配算法来计算所述机器人的位姿和所述位姿对应的权重;当所述空间坐标点集通过特征点匹配算法计算位姿时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对第一特征点集和第二特征点集通过描述符进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述第一特征点集和第二特征点集的差值作为该传感器对应的位姿的权重;当所述空间坐标点集通过扫描匹配算法计算位姿时,则对上一帧的空间坐标点集和当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
与现有技术相比,本实施例提供的技术方案具有以下优点和特点:
在本发明提供的方案中,在协调各个传感器之间的时间戳和相对位置同步之后,多个传感器即可以协调工作,由于多个传感器的视角范围广,可以减少盲区,以提高障碍物检测能力;而且,可以通过多个传感器获取更多的环境数据,所以可以极大地降低出现数据采集失败的情况,所以多传感器协调工作的策略可以提高即时定位与地图构建的成功率,并提高机器人成功采集数据的速度,以提高定位效率。因此,本发明具有提高即时定位与地图构建的成功率和提高定位效率等优点。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明所提供的一种高效鲁棒的基于多传感器的SLAM协调方法的流程图;
图2为本发明所提供的另一种高效鲁棒的基于多传感器的SLAM协调方法的流程图;
图3为本发明所提供的又一种高效鲁棒的基于多传感器的SLAM协调方法的流程图;
图4为本发明所提供的又一种高效鲁棒的基于多传感器的SLAM协调方法的流程图;
图5为本发明所提供的一种高效鲁棒的基于多传感器的SLAM协调系统的模块图;
图6为本发明所提供的雷达的协调示意图;
图7为本发明所提供的Kinect传感器的协调示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种高效鲁棒的基于多传感器的SLAM协调方法,以提高即时定位与地图构建的成功率,提高机器人的运行速度。由于上述高效鲁棒的基于多传感器的SLAM协调方法的具体实现存在多种方式,下面通过具体实施例进行详细说明:
实施例一
请参见图1所示,图1所示的为一种高效鲁棒的基于多传感器的SLAM协调方法,该方法包括:
步骤S11、协调各个传感器之间的时间戳和相对位置的同步;
其中,SLAM的应为全称为simultaneous localization and mapping,中文解释为即时定位与地图构建,或并发建图与定位。传感器包括很多个种类,例如,雷达和Kinect等传感器,其中,Kinect为3D体感摄影机。
正常情况下,传感器获取的每一帧观测信息上面都会有一个时间戳,以表示该帧观测信息的观测时间,每个传感器的时间戳可能都不相同,所以需要对这些传感器的时间戳进行同步。具体的实现方式可以为,将所有传感器的时间都统一设置成一个时间,保证所有的传感器在某一时刻下同时采集观测信息,以便于后续步骤对同一时刻下每个传感器获取的观测信息进行使用。
步骤S12、通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;
其中,传感器每次获取的环境信息为由多个空间坐标点构成的空间坐标点集,每个传感器设置在机器人上面的位置都不同,所以设置在机器人上的每个传感器获取的信息均为不同角度的环境信息。本步骤需要获取传感器采集的上一帧和当前帧的空间坐标点集。
步骤S13、根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重;
其中,计算机器人的位姿的方式有很多种,主要包括两种方法,具体为Scan-matching和Feature-matching。Scan-matching是基于扫描的匹配算法,简称为扫描匹配算法,该算法在2D传感器的情况下计算的速度快,鲁棒性强,但是3D情况下速度非常慢,最大的缺点是很难实现闭环;Feature-matching是基于特征点匹配算法,简称为特征点匹配算法,该算法的计算速度较慢,但是可以利用图优化技术实现闭环。扫描匹配算法和特征点匹配算法均有各自的优点和缺陷,所以将多个传感器均采用不同的匹配算法来得到的位姿,可以兼具上述两种算法的优点,摒弃两种算法的缺点。
对于位姿的权重,由于计算扫描匹配算法和特征匹配算法的权重的方式各不相同,下文会通过更具体的实施例来进行介绍。此处需要说明的是,位姿的权重代表着该位姿的重要性,对于权重越大的位姿,说明该位姿的重要程度就越大,所以该位姿的参考价值就越大。
步骤S14、根据所述权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿。
其中,通过上面的步骤进行处理后,每个传感器都会得到一个对应的位姿和该位姿对应的权重。假设,传感器的数量为2个,第一传感器的位姿为P1,P1对应的权重为W1,第二传感器的位姿为P2,P2对应的权重为W2,假设W1具体为20%,W2具体为80%,所以机器人真正的位姿为P=P1×20%+P2×80%,通过上述方案可以了解到,机器人真正的位姿是通过每个传感器得到的位姿和该位姿所占权重计算而得到的,所以相对于现有技术采用的单一传感器的策略,本发明计算位姿的方法成功率更高,采集速度更快。
在图1所示的实施例中,在协调各个传感器之间的时间戳和相对位置同步之后,多个传感器即可以协调工作,由于多个传感器的视角范围广,可以减少盲区,以提高障碍物检测能力;而且,可以通过多个传感器获取更多的环境数据,所以可以极大地降低出现数据采集失败的情况,所以多传感器协调工作的策略可以提高即时定位与地图构建的成功率,并提高机器人成功采集数据的速度,以提高定位效率。因此,本发明具有提高即时定位与地图构建的成功率和提高定位效率等优点。
在实施例一中的步骤S13中提到,计算机器人的位姿的方式有很多种,下面的实施例将对计算机器人的位姿的各种情况进行详细的介绍。
实施例二
请参见图2所示,图2所示的为另一种高效鲁棒的基于多传感器的SLAM协调方法,本实施例提供的方案主要是介绍对于至少有两个传感器的情况,其中,所有的传感器均采用特征点匹配算法计算位姿的方案,该方法包括:
步骤S21、协调各个传感器之间的时间戳和相对位置的同步;
其中,SLAM的应为全称为simultaneous localization and mapping,中文解释为即时定位与地图构建,或并发建图与定位。
正常情况下,传感器获取的每一帧观测信息上面都会有一个时间戳,以表示该帧观测信息的观测时间,每个传感器的时间戳可能都不相同,所以需要对这些传感器的时间戳进行同步。具体的实现方式可以为,将所有传感器的时间都统一设置成一个时间,保证所有的传感器在某一时刻下同时采集观测信息,以便于后续步骤对同一时刻下每个传感器获取的观测信息进行使用。
步骤S22、通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;
其中,传感器每次获取的环境信息为由多个空间坐标点构成的空间坐标点集,每个传感器设置在机器人上面的位置都不同,所以设置在机器人上的每个传感器获取的信息均为不同角度的环境信息。本步骤需要获取传感器采集的上一帧和当前帧的空间坐标点集。
步骤S23、当计算所述机器人的位姿的算法中仅包括基于特征点匹配算法时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集;
其中,在将上一帧的空间坐标点集计算第一特征点集和根据当前帧的空间坐标点集计算第二特征点集的步骤中的计算均采用flirt算法。
步骤S24、对所述第一特征点集和所述第二特征点集通过描述符进行匹配得到匹配点集;
其中,特征点包括坐标信息和描述符信息,通常情况下判断两个特征点是否相同,是利用特征点对应的描述符进行的匹配的。例如,如果特征点A和特征点B的描述符相同,那么我们可以判断特征点A和特征点B相同;如果特征点A和特征点B的描述符不同,那么我们可以判断特征点A和特征点B不同。第一特征点集包括一些特征点,这些特征点是通过上一帧的空间坐标集计算出来的;第二特征点集也包括一些特征点,这些特征点是通过当前帧的空间坐标集计算出来的。所以在对第一特征点集和第二特征点集进行匹配时,需要匹配出第一特征点集和第二特征点集中的相同的特征点,即两个特征点集中匹配符相同的特征点,并将匹配出的一些特征点作为匹配点集。例如,第一特征点集和第二特征点集均包括10个特征点,这两个特征点集在通过描述符进行匹配后,判断出第一特征点集中有8个特征点的描述符与第二特征点集中的8个特征点的描述符相同,所以可以说明这8个描述符相同的特征点是相匹配的,从而将这8个特征点作为匹配点集,以备后续步骤使用。
步骤S25、根据所述匹配点集计算位姿;
其中,当传感器的数量具体为两个时,那么这两个传感器对应的位姿均采用特征点匹配算法进行计算,所以就利用匹配点集中的特征点并采用特征点匹配算法来计算该传感器对应的位姿。
需要说明的是,本实施例中开始已经限定在至少两个传感器的情况下,所以在步骤S25中,计算得到的结果实际上是至少两个传感器中每个传感器对应的位姿,但是本实施例仅仅是举例说明两个传感器的情况,所以并不局限于两个传感器,也可以为多个传感器。
步骤S26、根据所述匹配点集作为该传感器对应的位姿的权重。
其中,假设传感器的数量为2个,包括第一传感器和第二传感器,第一传感器对应的是第一匹配点集,第一匹配点集中包括10个特征点;第二传感器对应的是第二匹配点集,包括20个特征点。第一传感器的权重为第一匹配点集的特征点占据第一匹配特征点集与第二匹配特征点集之和的比例,第二传感器的权重为第二匹配点集的特征点占据第一匹配特征点集与第二匹配特征点集之和的比例。具体为,第一传感器的位姿的权重为10÷(10+20)=1/3,第二传感器的位姿的权重为20÷(10+20)=2/3,所以第二传感器的位姿的权重相对于第一传感器的位姿的权重更大一些,说明第二传感器的位姿的可靠性更大一些。
步骤S27、根据所述权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿。
其中,通过上面的步骤进行处理后,每个传感器都会得到一个对应的位姿和该位姿对应的权重。假设,传感器的数量为2个,第一传感器的位姿为P1,P1对应的权重为W1,第二传感器的位姿为P2,P2对应的权重为W2,假设W1具体为1/3,W2具体为2/3,所以机器人真正的位姿为P=P1×1/3+P2×2/3,通过上述方案可以了解到,机器人真正的位姿是通过每个传感器得到的位姿和该位姿所占权重计算而得到的,所以相对于现有技术采用的单一传感器的策略,本发明计算位姿的方法成功率更高,采集速度更快。
在图2所示的实施例中,本实施例与实施例一不同在于,本实施例提供的方案主要是针对至少有两个传感器的情况,其中,所有的传感器均采用特征点匹配算法计算位姿的方案。因此,本发明提供的实施例同样具有提高即时定位与地图构建的成功率和提高定位效率等优点。
实施例三
请参见图3所示,图3所示的为另一种高效鲁棒的基于多传感器的SLAM协调方法,本实施例提供的方案主要是介绍对于至少有两个传感器的情况,其中,所有的传感器均采用扫描匹配算法计算位姿的方案,该方法包括:
步骤S31、协调各个传感器之间的时间戳和相对位置的同步;
其中,SLAM的应为全称为simultaneous localization and mapping,中文解释为即时定位与地图构建,或并发建图与定位。
正常情况下,传感器获取的每一帧观测信息上面都会有一个时间戳,以表示该帧观测信息的观测时间,每个传感器的时间戳可能都不相同,所以需要对这些传感器的时间戳进行同步。具体的实现方式可以为,将所有传感器的时间都统一设置成一个时间,保证所有的传感器在某一时刻下同时采集观测信息,以便于后续步骤对同一时刻下每个传感器获取的观测信息进行使用。
步骤S32、通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;
其中,传感器每次获取的环境信息为由多个空间坐标点构成的空间坐标点集,每个传感器设置在机器人上面的位置都不同,所以设置在机器人上的每个传感器获取的信息均为不同角度的环境信息。本步骤需要获取传感器采集的上一帧和当前帧的空间坐标点集。
步骤S33、当计算所述机器人的位姿的算法中仅包括基于扫描匹配算法时,则对所述上一帧的空间坐标点集和所述当前帧的空间坐标点集进行匹配,得到匹配点集;
其中,空间坐标点包括坐标信息和描述符信息,通常情况下判断两个空间坐标点是否相同,是利用空间坐标点对应的描述符进行的匹配的。例如,如果空间坐标点A和空间坐标点B的描述符相同,那么我们可以判断空间坐标点A和空间坐标点B相同;如果空间坐标点A和空间坐标点B的描述符不同,那么我们可以判断空间坐标点A和空间坐标点B不同。在对上一帧的空间坐标点集和当前帧的空间坐标点集进行匹配时,需要匹配出上一帧的空间坐标点集和当前帧的空间坐标点集中的相同的空间坐标点,即两个空间坐标点集中匹配符相同的空间坐标点,并将匹配出的一些空间坐标点作为匹配点集。例如,第一空间坐标点集和第二空间坐标点集均包括10个空间坐标点,这两个空间坐标点集在通过描述符进行匹配后,判断出上一帧的空间坐标点集中有8个空间坐标点的描述符与当前帧的空间坐标点集中的8个空间坐标点的描述符相同,所以可以说明这8个描述符相同的空间坐标点是相匹配的,从而将这8个空间坐标点作为匹配点集,以备后续步骤使用。
步骤S34、根据所述匹配点集计算位姿;
其中,当传感器的数量具体为两个时,那么两个传感器对应的位姿均采用扫描匹配算法进行计算,所以就利用匹配点集中的空间坐标点并采用扫描匹配算法来计算该传感器对应的位姿。
需要说明的是,本实施例中开始已经限定在至少两个传感器的情况下,所以在步骤S34中,计算得到的结果实际上是至少两个传感器中每个传感器对应的位姿,但是本实施例仅仅是举例说明两个传感器的情况,所以并不局限于两个传感器,也可以为多个传感器。
步骤S35、利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
其中,假设传感器的数量为2个,包括第一传感器和第二传感器,第一传感器上一帧的空间坐标点集的空间坐标点的数量为20个,第一传感器当前帧的空间坐标点集的空间坐标点的数量为40个,所以第一传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值为20;第二传感器上一帧的空间坐标点集的空间坐标点的数量为20个,第二传感器当前帧的空间坐标点集的空间坐标点的数量为50个,所以第二传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值为30。具体为,第一传感器得到的差值为20,第二传感器得到的差值为30,所以第一传感器的位姿的权重为20÷(20+30)=2/5,第二传感器的位姿的权重为30÷(20+30)=3/5,所以第二传感器的位姿的权重相对于第一传感器的位姿的权重更大一些,说明第二传感器的位姿的可靠性更大一些。
步骤S36、根据所述权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿。
其中,通过上面的步骤进行处理后,每个传感器都会得到一个对应的位姿和该位姿对应的权重。假设,传感器的数量为2个,第一传感器的位姿为P1,P1对应的权重为W1,第二传感器的位姿为P2,P2对应的权重为W2,假设W1具体为2/5,W2具体为3/5,所以机器人真正的位姿为P=P1×2/5+P2×3/5,通过上述方案可以了解到,机器人真正的位姿是通过每个传感器得到的位姿和该位姿所占权重计算而得到的,所以相对于现有技术采用的单一传感器的策略,本发明计算位姿的方法成功率更高,采集速度更快。
在图3所示的实施例中,本实施例与实施例一不同在于,本实施例提供的方案主要是针对至少有两个传感器的情况,其中,所有的传感器均采用特扫描匹配算法计算位姿的方案。因此,本发明提供的实施例同样具有提高即时定位与地图构建的成功率和提高定位效率等优点。
实施例四
请参见图4所示,图4所示的为又一种高效鲁棒的基于多传感器的SLAM协调方法,本实施例提供的方案主要是介绍对于至少有两个传感器的情况,其中,至少有一个传感器采集的数据利用扫描匹配算法计算位姿,至少有一个传感器采用的数据利用特征点匹配算法计算位姿,该方法包括:
步骤S41、协调各个传感器之间的时间戳和相对位置的同步;
其中,SLAM的应为全称为simultaneous localization and mapping,中文解释为即时定位与地图构建,或并发建图与定位。
正常情况下,传感器获取的每一帧观测信息上面都会有一个时间戳,以表示该帧观测信息的观测时间,每个传感器的时间戳可能都不相同,所以需要对这些传感器的时间戳进行同步。具体的实现方式可以为,将所有传感器的时间都统一设置成一个时间,保证所有的传感器在某一时刻下同时采集观测信息,以便于后续步骤对同一时刻下每个传感器获取的观测信息进行使用。
步骤S42、通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;
其中,传感器每次获取的环境信息为由多个空间坐标点构成的空间坐标点集,每个传感器设置在机器人上面的位置都不同,所以设置在机器人上的每个传感器获取的信息均为不同角度的环境信息。本步骤需要获取传感器采集的上一帧和当前帧的空间坐标点集。
步骤S43、根据所述空间坐标点集通过基于扫描匹配算法和基于特征点匹配算法来计算所述机器人的位姿和所述位姿对应的权重;
其中,在多个传感器获取的数据中,至少有一个传感器获得的数据是通过基于扫描匹配算法计算位姿和该位姿对应的权重,至少有一个传感器获得的数据是通过基于特征点匹配算法计算位姿和该位姿对应的权重。基于扫描匹配算法的速度较快,而且基于特征点匹配算法能够实现闭环,所以本实施例可以兼顾高速与闭环这两种非常重要的SLAM算法特性。
步骤S44、当所述空间坐标点集通过特征点匹配算法计算位姿时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对第一特征点集和第二特征点集通过描述符进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述第一特征点集和第二特征点集的差值作为该传感器对应的位姿的权重;
其中,在将上一帧的空间坐标点集计算第一特征点集和根据当前帧的空间坐标点集计算第二特征点集的步骤中的计算均采用flirt算法。
特征点包括坐标信息和描述符信息,通常情况下判断两个特征点是否相同,是利用特征点对应的描述符进行的匹配的。例如,如果特征点A和特征点B的描述符相同,那么我们可以判断特征点A和特征点B相同;如果特征点A和特征点B的描述符不同,那么我们可以判断特征点A和特征点B不同。第一特征点集包括一些特征点,这些特征点是通过上一帧的空间坐标集计算出来的;第二特征点集也包括一些特征点,这些特征点是通过当前帧的空间坐标集计算出来的。所以在对第一特征点集和第二特征点集进行匹配时,需要匹配出第一特征点集和第二特征点集中的相同的特征点,即两个特征点集中匹配符相同的特征点,并将匹配出的一些特征点作为匹配点集。
例如,第一特征点集和第二特征点集均包括10个特征点,这两个特征点集在通过描述符进行匹配后,判断出第一特征点集中有8个特征点的描述符与第二特征点集中的8个特征点的描述符相同,所以可以说明这8个描述符相同的特征点是相匹配的,从而将这8个特征点作为匹配点集,以备后续步骤使用。
在根据所述匹配点集计算位姿的步骤中,利用匹配点集中的特征点并采用特征点匹配算法来计算该传感器对应的位姿。
在利用所述第一特征点集和第二特征点集的差值作为该传感器对应的位姿的权重的步骤中,第一传感器的第一特征点集的特征点的数量为20个,第一传感器的第二特征点集的特征点的数量为40个,所以第一传感器对应的第一特征点集和第二特征点集的差值为20。
步骤S45、当所述空间坐标点集通过扫描匹配算法计算位姿时,则对上一帧的空间坐标点集和当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
其中,空间坐标点包括坐标信息和描述符信息,通常情况下判断两个空间坐标点是否相同,是利用空间坐标点对应的描述符进行的匹配的。例如,如果空间坐标点A和空间坐标点B的描述符相同,那么我们可以判断空间坐标点A和空间坐标点B相同;如果空间坐标点A和空间坐标点B的描述符不同,那么我们可以判断空间坐标点A和空间坐标点B不同。在对上一帧的空间坐标点集和当前帧的空间坐标点集进行匹配时,需要匹配出上一帧的空间坐标点集和当前帧的空间坐标点集中的相同的空间坐标点,即两个空间坐标点集中匹配符相同的空间坐标点,并将匹配出的一些空间坐标点作为匹配点集。例如,第一空间坐标点集和第二空间坐标点集均包括10个空间坐标点,这两个空间坐标点集在通过描述符进行匹配后,判断出上一帧的空间坐标点集中有8个空间坐标点的描述符与当前帧的空间坐标点集中的8个空间坐标点的描述符相同,所以可以说明这8个描述符相同的空间坐标点是相匹配的,从而将这8个空间坐标点作为匹配点集,以备后续步骤使用。
在根据所述匹配点集计算位姿的步骤中,利用匹配点集中的空间坐标点并采用扫描匹配算法来计算该传感器对应的位姿。
在利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重的步骤中,假设第二传感器上一帧的空间坐标点集的空间坐标点的数量为20个,第二传感器当前帧的空间坐标点集的空间坐标点的数量为50个,所以第二传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值为30。假设第一传感器对应的第一特征点集和第二特征点集的差值为20。具体为,第一传感器得到的差值为20,第二传感器得到的差值为30,所以第一传感器的位姿的权重为20÷(20+30)=2/5,第二传感器的位姿的权重为30÷(20+30)=3/5,所以第二传感器的位姿的权重相对于第一传感器的位姿的权重更大一些,说明第二传感器的位姿的可靠性更大一些。
步骤S46、根据所述权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿。
其中,通过上面的步骤进行处理后,每个传感器都会得到一个对应的位姿和该位姿对应的权重。假设,传感器的数量为2个,第一传感器的位姿为P1,P1对应的权重为W1,第二传感器的位姿为P2,P2对应的权重为W2,假设W1具体为2/5,W2具体为3/5,所以机器人真正的位姿为P=P1×2/5+P2×3/5,通过上述方案可以了解到,机器人真正的位姿是通过每个传感器得到的位姿和该位姿所占权重计算而得到的,所以相对于现有技术采用的单一传感器的策略,本发明计算位姿的方法成功率更高,采集速度更快。
在图4所示的实施例中,本实施例与实施例一不同在于,本实施例提供的方案为至少有两个传感器的情况,其中,至少有一个传感器采集的数据利用扫描匹配算法计算位姿,至少有一个传感器采用的数据利用特征点匹配算法计算位姿,因此,基于扫描匹配算法的速度较快,而且基于特征点匹配算法能够实现闭环,所以本实施例可以兼顾高速与闭环这两种非常重要的SLAM算法特性。本发明提供的实施例同样具有提高即时定位与地图构建的成功率和提高定位效率等优点。
实施例五
请参见图5所示,图5所示的为一种高效鲁棒的基于多传感器的SLAM协调系统,该系统包括:协调模块11,用于协调各个传感器之间的时间戳和相对位置的同步;传感器12,用于通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;即时定位和地图构建模块13,用于根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重;位姿计算模块14,用于根据所述权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿。
在图5所示的实施例中,当计算所述机器人的位姿的算法中仅包括基于特征点匹配算法时,即时定位和地图构建模块13,具体用于根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对所述第一特征点集和所述第二特征点集通过描述符进行匹配,得到匹配点集,根据所述匹配点集计算位姿,并根据所述匹配点集作为该传感器对应的位姿的权重。
在图5所示的实施例中,当计算所述机器人的位姿的算法中仅包括基于扫描匹配算法时,所述即时定位和地图构建模块13,具体用于则对所述上一帧的空间坐标点集和所述当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
在图5所示的实施例中,当计算所述机器人的位姿的算法中包括基于扫描匹配算法和基于特征点匹配算法时,即时定位和地图构建模块13,具体用于根据所述空间坐标点集通过基于扫描匹配算法和基于特征点匹配算法来计算所述机器人的位姿和所述位姿对应的权重;当所述空间坐标点集通过特征点匹配算法计算位姿时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对第一特征点集和第二特征点集通过描述符进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述第一特征点集和第二特征点集的差值作为该传感器对应的位姿的权重;当所述空间坐标点集通过扫描匹配算法计算位姿时,则对上一帧的空间坐标点集和当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
实施例六
请参见图6所示,图6所示的为设置在机器人上的两个传感器,这两个传感器均为雷达,包括雷达21和雷达22,由于两个雷达设置在不同水平面上,所以两个雷达将获取不同的环境信息,从而获取了更多的环境信息,降低了即时定位和地图构建的失败率。而且,雷达22获取的信息用快速的扫描匹配算法进行计算,而雷达21则使用特征点匹配算法进行计算,从而使得该系统在即时定位和地图构建的过程中既能够实现高速,又能实现闭环。
实施例七
请参见图7所示,图7所示的为设置在机器人上的两个传感器,两个传感器均为3D传感器,具体为Kinect传感器,包括Kinect传感器31和Kinect传感器32。由于Kinect传感器的视野比较局限,所以利用多个Kinect传感器可以极大地增加数据获取的能力,降低了即时定位和地图构建的失败率。而且,Kinect传感器32获取的数据利用精确但速度慢的SURF-Based SLAM算法,Kinect传感器31则用快速但是误差较大的Orb-Based SLAM算法,所以本系统既保证了速度,又提高了精度。其中,SURF-Based SLAM算法与Orb-Based SLAM算法都属于特征点匹配算法,但是前者提取速度慢,精度高,而后者提取速度快,精度低。
综上所述,本发明提供的方案具有很多优点,首先,由于多个传感器的视角范围广,可以减少盲区,以提高障碍物检测能力;而且,可以通过多个传感器获取更多的环境数据,所以可以极大地降低出现数据采集失败的情况,所以多传感器协调工作的策略可以提高即时定位与地图构建的成功率,举例来讲,设有2组SLAM模块,工作时每帧SLAM成功率分别P1、P2。两个SLAM模块都成功时,该模块负责数据融合矫正,若其一失败,则以另一个的数据弥补。通过我们这个模块合理并联后,整体SLAM成功率即可达1-(1-P1)*(1-P2),即P1+P2-P1*P2。另外,基于扫描匹配算法的速度较快,而且基于特征点匹配算法能够实现闭环,所以本实施例可以兼顾高速与闭环这两种非常重要的SLAM算法特性。
需要说明的是,图1至图7所示的实施例只是本发明所介绍的优选实施例,本领域技术人员在此基础上,完全可以设计出更多的实施例,因此不在此处赘述。
对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种高效鲁棒的基于多传感器的SLAM协调方法,其特征在于,包括:
协调各个传感器之间的时间戳和相对位置的同步;
通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;
根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重;
根据所述权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿;
其中,在根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重的步骤中,具体为:
当计算所述机器人的位姿的算法中仅包括基于特征点匹配算法时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对所述第一特征点集和所述第二特征点集通过描述符进行匹配,得到匹配点集,根据所述匹配点集计算位姿,并根据所述匹配点集作为该传感器对应的位姿的权重。
2.根据权利要求1所述的高效鲁棒的基于多传感器的SLAM协调方法,其特征在于,在根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重的步骤中,具体为:
当计算所述机器人的位姿的算法中仅包括基于扫描匹配算法时,则对所述上一帧的空间坐标点集和所述当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
3.根据权利要求1所述的高效鲁棒的基于多传感器的SLAM协调方法,其特征在于,在根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重的步骤中,具体为:
根据所述空间坐标点集通过基于扫描匹配算法和基于特征点匹配算法来计算所述机器人的位姿和所述位姿对应的权重;
当所述空间坐标点集通过特征点匹配算法计算位姿时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对第一特征点集和第二特征点集通过描述符进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述第一特征点集和第二特征点集的差值作为该传感器对应的位姿的权重;
当所述空间坐标点集通过扫描匹配算法计算位姿时,则对上一帧的空间坐标点集和当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
4.一种高效鲁棒的基于多传感器的SLAM协调系统,其特征在于,包括:
协调模块,用于协调各个传感器之间的时间戳和相对位置的同步;
传感器,用于通过多个传感器分别获取机器人周围环境的上一帧和当前帧的空间坐标点集;
即时定位和地图构建模块,用于根据所述上一帧和当前帧的空间坐标点集来计算所述机器人的位姿和所述位姿对应的权重;
位姿计算模块,用于根据所述权重对所有传感器对应的位姿进行加权平均得到机器人真正的位姿;
其中,所述即时定位和地图构建模块,具体用于当计算所述机器人的位姿的算法中仅包括基于特征点匹配算法时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对所述第一特征点集和所述第二特征点集通过描述符进行匹配,得到匹配点集,根据所述匹配点集计算位姿,并根据所述匹配点集作为该传感器对应的位姿的权重。
5.根据权利要求4所述的高效鲁棒的基于多传感器的SLAM协调系统,其特征在于,所述即时定位和地图构建模块,具体用于当计算所述机器人的位姿的算法中仅包括基于扫描匹配算法时,则对所述上一帧的空间坐标点集和所述当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
6.根据权利要求4所述的高效鲁棒的基于多传感器的SLAM协调系统,其特征在于,所述即时定位和地图构建模块,具体用于根据所述空间坐标点集通过基于扫描匹配算法和基于特征点匹配算法来计算所述机器人的位姿和所述位姿对应的权重;当所述空间坐标点集通过特征点匹配算法计算位姿时,则根据所述上一帧的空间坐标点集计算第一特征点集,根据所述当前帧的空间坐标点集计算第二特征点集,对第一特征点集和第二特征点集通过描述符进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述第一特征点集和第二特征点集的差值作为该传感器对应的位姿的权重;当所述空间坐标点集通过扫描匹配算法计算位姿时,则对上一帧的空间坐标点集和当前帧的空间坐标点集进行匹配,得到匹配点集,根据匹配点集计算位姿,并利用所述传感器对应的上一帧的空间坐标点集和当前帧的空间坐标点集的差值作为该传感器对应的位姿的权重。
CN201210587503.4A 2012-12-28 2012-12-28 高效鲁棒的基于多传感器的slam协调方法及系统 Active CN103901774B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210587503.4A CN103901774B (zh) 2012-12-28 2012-12-28 高效鲁棒的基于多传感器的slam协调方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210587503.4A CN103901774B (zh) 2012-12-28 2012-12-28 高效鲁棒的基于多传感器的slam协调方法及系统

Publications (2)

Publication Number Publication Date
CN103901774A CN103901774A (zh) 2014-07-02
CN103901774B true CN103901774B (zh) 2017-02-08

Family

ID=50993167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210587503.4A Active CN103901774B (zh) 2012-12-28 2012-12-28 高效鲁棒的基于多传感器的slam协调方法及系统

Country Status (1)

Country Link
CN (1) CN103901774B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105955258B (zh) * 2016-04-01 2018-10-30 沈阳工业大学 基于Kinect传感器信息融合的机器人全局栅格地图构建方法
CN107450577A (zh) * 2017-07-25 2017-12-08 天津大学 基于多传感器的无人机智能感知系统和方法
GB201718507D0 (en) 2017-07-31 2017-12-27 Univ Oxford Innovation Ltd A method of constructing a model of the motion of a mobile device and related systems
WO2019104732A1 (zh) * 2017-12-01 2019-06-06 深圳市沃特沃德股份有限公司 视觉扫地机器人及障碍物检测方法
CN108089191B (zh) * 2017-12-25 2021-03-30 中山大学 一种基于激光雷达的全局定位系统及方法
CN108764196B (zh) * 2018-06-05 2021-01-26 北京智行者科技有限公司 区块地图的生成方法
CN109059927A (zh) * 2018-08-21 2018-12-21 南京邮电大学 复杂环境下多传感器的移动机器人slam建图方法和系统
WO2020150996A1 (zh) * 2019-01-25 2020-07-30 深圳市大疆创新科技有限公司 视觉定位方法、装置及系统
CN111412904B (zh) * 2020-04-24 2022-01-25 武汉派涅尔科技有限公司 一种建筑物尺寸测量方法
CN111412888B (zh) * 2020-04-24 2022-03-11 武汉派涅尔科技有限公司 一种建筑物尺寸测量方法
CN112000225B (zh) * 2020-08-25 2021-06-25 唯羲科技有限公司 一种定位建图优化方法、装置及定位建图优化芯片

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863234A (ja) * 1994-08-22 1996-03-08 Kayaba Ind Co Ltd 制御装置
KR100843085B1 (ko) * 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
KR100809352B1 (ko) * 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
KR101362961B1 (ko) * 2009-08-31 2014-02-12 니토 로보틱스 인코퍼레이티드 이동 로봇 환경의 실시간 위치 측정 및 매핑을 위한 방법 및 장치
KR101739996B1 (ko) * 2010-11-03 2017-05-25 삼성전자주식회사 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"基于多传感器融合的移动机器人SLAM";李金良等;《中国科技论文》;20120430;第7卷(第4期);正文第312-316页 *

Also Published As

Publication number Publication date
CN103901774A (zh) 2014-07-02

Similar Documents

Publication Publication Date Title
CN103901774B (zh) 高效鲁棒的基于多传感器的slam协调方法及系统
CN110849367B (zh) 基于融合uwb的视觉slam的室内定位与导航的方法
CN105411490B (zh) 移动机器人的实时定位方法及移动机器人
CN104457704B (zh) 基于增强地理信息的无人机地面目标定位系统及方法
CN106127788B (zh) 一种视觉避障方法和装置
CN102573052B (zh) 一种基于无线传感器网络的目标定位跟踪方法及系统
CN101916437B (zh) 一种基于多视觉信息的目标定位方法和系统
CN109377513A (zh) 一种针对两视图的全局三维人体姿态可信估计方法
CN1987353A (zh) 位置数据内插法及位置检测传感器以及位置测定装置
CN104112363A (zh) 多传感数据时空同步方法及道路多传感数据车载采集系统
CN101127128B (zh) 一种环形摄像机阵列校准系统及其方法
CN107491071A (zh) 一种智能多机器人协同测图系统及其方法
CN103901884A (zh) 信息处理方法和信息处理设备
CN111337037B (zh) 移动激光雷达slam制图装置及数据处理方法
CN104966062A (zh) 视频监视方法和装置
CN114638909A (zh) 基于激光slam和视觉融合的变电站语义地图构建方法
CN107560592A (zh) 一种用于光电跟踪仪联动目标的精确测距方法
CN109993798A (zh) 多摄像头检测运动轨迹的方法、设备及存储介质
CN107659614A (zh) 一种多基站式水域监视控制系统及其监视控制方法
CN107767424A (zh) 多相机系统的标定方法、多相机系统及终端设备
CN106370160A (zh) 一种机器人室内定位系统和方法
CN107025661A (zh) 一种实现增强现实的方法、服务器、终端及系统
CN106303409A (zh) 一种目标对象联合跟踪方法及目标对象联合跟踪装置
CN106558038B (zh) 一种水天线检测方法及装置
TW201322179A (zh) 街景建立系統及街景建立方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant