CN107491071A - 一种智能多机器人协同测图系统及其方法 - Google Patents

一种智能多机器人协同测图系统及其方法 Download PDF

Info

Publication number
CN107491071A
CN107491071A CN201710787430.6A CN201710787430A CN107491071A CN 107491071 A CN107491071 A CN 107491071A CN 201710787430 A CN201710787430 A CN 201710787430A CN 107491071 A CN107491071 A CN 107491071A
Authority
CN
China
Prior art keywords
robot
point
point cloud
cloud matching
collaboration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710787430.6A
Other languages
English (en)
Other versions
CN107491071B (zh
Inventor
陈龙
张亚琛
黄凯
李清泉
涂伟
周宝定
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Sun Yat Sen University
Original Assignee
Shenzhen University
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University, Sun Yat Sen University filed Critical Shenzhen University
Priority to CN201710787430.6A priority Critical patent/CN107491071B/zh
Publication of CN107491071A publication Critical patent/CN107491071A/zh
Application granted granted Critical
Publication of CN107491071B publication Critical patent/CN107491071B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种智能多机器人协同测图系统,其中该系统包括数据采集模块,点云匹配模块,协同SLAM模块;数据采集模块将机器人携带的激光雷达采集到的数据进行处理,提取其中的线点和面点特征点,以及这些点的最近邻点,作为特征数据点输出到点云匹配模块;点云匹配模块将得到的不同机器人的特征数据点之间进行点云匹配,如果可以匹配则建立起机器人之间的对应联系,并将联系关系传输到协同SLAM模块,如果不可以匹配则暂时保留下姿态矩阵(6—DOE);协同SLAM模块根据前面的点云匹配模块,如果已经有闭包,那么就按照机器人之间的关系,将新得到的数据点重建到全局的地图之中,得到完整的地图,本发明思路新颖,是一种全新的协同测图方法。

Description

一种智能多机器人协同测图系统及其方法
技术领域
本发明涉及机器人的技术领域,更具体地,涉及一种智能多机器人协同测图系统及其方法。
背景技术
随着时代的发展,协同SLAM一直都是研究的热点。而传统的协同SLAM也是有着很多的分类,如针对传感器而言的分类为:雷达,相机,RGB-D,GPS等。而对于基于雷达的协同SLAM而言,研究的主要方向都在2D雷达,现阶段,很少有3D雷达的协同SLAM。因此,我们提出了一种全新的,基于3D雷达的多机器人协同测图方法。该方法可以采集到更多的环境数据,构建出能够完整展示出环境信息的3D地图,增强了地图的客观性和准确性。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷,提供一种智能多机器人协同测图系统及其方法,通过使用3D激光雷达采集数据,协同每个机器人采集到的数据,构建一个三维的地图。与传统的2D激光雷达的协同测图相比,3D的数据更加详细,可以更好的还原环境信息,构建出3D地图,全方位,立体的重现需要测量的环境。使用协同测图,可以节约时间,节省成本,更快更好的得到最终的结果。
本发明的技术方案是:一种智能多机器人协同测图系统,包括:
数据采集模块:采集机器人周围的环境信息,并进行处理,得到两种特征点线点和面点,以及其最近邻点,作为整个的特征点集的信息,将线点和面点输入到点云匹配模块,而将整个的特征点集输入到协同SLAM模块;
点云匹配模块:将数据采集模块传输而来的不同机器人之间的特征点信息进行点云匹配,如果可以匹配成功,构建闭包(相同的路径),并得出相关矩阵之间的姿态矩阵Tij,并将改矩阵传输到协同SLAM模块。如果匹配不成功,则保留其特征点信息,和接下来传输进来的特征点集进行点云匹配;
协同SLAM模块:根据测图区域的空间位置及其形状,预先规划多个测图机器人的行驶轨迹,保证多个机器人之间的测图区域之间互有重叠。根据数据采集模块传输的特征点集和点云匹配模块传输的姿态矩阵Tij,将另一个机器人的特征点全部重建为目标机器人的坐标系上的点,构建在目标坐标系上的地图。在两个机器人建立了闭包之后,就可以将其采集到的点根据建立起的对应关系,全部转化到目标机器人的地图之中,这样,就可以实现多机器人的协同SLAM。可选的,所述图像采集模块包括四个摄像头,其中两个摄像头拍摄车前的路面场景,另两个摄像头拍摄车后的路面场景。
可选的,所述数据采集模块需要保证每一个机器人都含有一个激光雷达,且可以全方位的采集到环境信息
可选的,所述激光雷达为Velodyne 16线或32线的激光雷达。
一种智能多机器人协同测图方法,包括以下步骤:
步骤1、所述数据采集模块包括激光雷达,先测验其精准度,对于其可以测量的范围有一定的预估;
步骤2、对于激光雷达采集到的数据,通过平面光滑度等指标进行特征点的提取,得到线点和面点,找寻每个特征点的最近邻点,扩充特征点集;
步骤3、对于提取的特征点集进行合法性检测,得到有效合法的特征点信息,并建立对应的与前一帧的姿态矩阵TL
步骤4、点云匹配模块,将得到的特征点信息进行点云匹配,可以采用轨迹到轨迹以及帧与帧的方式进行匹配;
步骤5:测图路径规划,根据测图区域的位置和空间形状,利用遗传优化方法(不限于遗传优化算法,其他启发式优化算法如蚁群优化算法、粒子群优化算法等均可适用),规划生成N个测图机器人的测量轨迹,使得测图轨迹长度和最短,相互之间的重叠区域最大。
步骤6、通过数据采集模块得到运动的轨迹信息,对比机器人之间的实际运动轨迹,通过轨迹的相似性,判断是否经过了相同的地方,如果部分轨迹相似度高于设定的阈值,则可以进行下面的操作,如果部分轨迹相似度低于阈值,则两个机器人之间的特征点集是不能进行匹配的;
步骤7、如果轨迹之间的匹配成功,则进行更加详细的帧与帧之间的数据匹配,通过数据采集模块的特征点信息,进行细致的点云匹配,如果可以匹配成功,则认为两个机器人之间是经过了相同的路径,得到两个机器人之间的姿态矩阵Tij。如果不能匹配成功,则保留点云数据信息,和后面传输进来的数据信息进行匹配。
步骤8、协同SLAM模块,如果得到姿态矩阵Tij,那么就一直加入到闭包之中。如果没有得到姿态矩阵Tij,那么就根据之前得到的姿态矩阵Tij,将目标机器人B的特征点集转化为源机器人A坐标系上的点,将机器人B的地图重建到机器人A中;
步骤9、将机器人两两之间协同构图,然后,再采用上面的方法,继续构图,直到完全的构建出最终的地图。
与现有技术相比,有益效果是:
1、本发明的激光雷达采用的是3D激光雷达,与以往的2D激光雷达相比,可以获取到更多的点云数据信息,能够获取到竖直平面的环境信息,可以更加全面的包含环境信息,使得数据更加丰富,便于处理并能够更加直观的将数据可视化。
2、本发明消耗更少的时间,可以更快,更精准的得到最终的结果。
附图说明
图1为本发明中系统的结构简图。
图2为本发明中方法的流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本专利的限制。
如图1、2所示,一种智能多机器人协同测图系统,包括数据采集模块,点云匹配模块,协同SLAM模块;数据采集模块采集机器人周围的环境信息,并进行处理,得到两种特征点线点和面点,以及其最近邻点,作为整个的特征点集的信息,将线点和面点输入到点云匹配模块,而将整个的特征点集输入到协同SLAM模块;点云匹配模块将数据采集模块传输而来的不同机器人之间的特征点信息进行点云匹配,如果可以匹配成功,构建闭包(相同的路径),并得出相关矩阵之间的姿态矩阵Tij,并将改矩阵传输到协同SLAM模块。如果匹配不成功,则保留其特征点信息,和接下来传输进来的特征点集进行点云匹配;协同SLAM模块规划机器人的测图轨迹,根据数据采集模块传输的特征点集和点云匹配模块传输的姿态矩阵Tij,将另一个机器人的特征点全部重建为目标机器人的坐标系上的点,构建在目标坐标系上的地图。在两个机器人建立了闭包之后,就可以将其采集到的点根据建立起的对应关系,全部转化到目标机器人的地图之中,这样,就可以实现多机器人的协同SLAM。
本方法的应用场景为室内或室外的平坦环境,需要尽可能的减少颠簸导致数据采集的信息出现偏差。。
为了更好的说明本发明具体实施方案,下面将结合图2以及具体的实施方式对上述技术方案进行详细的说明:
步骤1、所述数据采集模块包括激光雷达,先测验其精准度,对于其可以测量的范围有一定的预估;
步骤2、对于激光雷达采集到的数据,通过平面光滑度等指标进行特征点的提取,得到线点和面点,找寻每个特征点的最近邻点,扩充特征点集;
步骤3、对于提取的特征点集进行合法性检测,得到有效合法的特征点信息,并建立对应的与前一帧的姿态矩阵TL
步骤4、点云匹配模块,将得到的特征点信息进行点云匹配,可以采用轨迹到轨迹以及帧与帧的方式进行匹配;
步骤5:测图路径规划,根据测图区域的位置和空间形状,利用遗传优化方法(不限于遗传优化算法,其他启发式优化算法如蚁群优化算法、粒子群优化算法等均可适用),规划生成N个测图机器人的测量轨迹,使得测图轨迹长度和最短,相互之间的重叠区域最大。
步骤6、通过数据采集模块得到运动的轨迹信息,对比机器人之间的运动轨迹,通过轨迹的相似性,判断是否经过了相同的地方,如果轨迹相似度高于设定的阈值,则可以进行下面的操作,如果轨迹相似度低于阈值,则两个机器人之间的特征点集是不能进行匹配的;
步骤7、如果轨迹之间的匹配成功,则进行更加详细的帧与帧之间的数据匹配,通过数据采集模块的特征点信息,进行细致的点云匹配,如果可以匹配成功,则认为两个机器人之间是经过了相同的路径,得到两个机器人之间的姿态矩阵Tij。如果不能匹配成功,则保留点云数据信息,和后面传输进来的数据信息进行匹配。
步骤8、协同SLAM模块,如果得到姿态矩阵Tij,那么就一直加入到闭包之中。如果没有得到姿态矩阵Tij,那么就根据之前得到的姿态矩阵Tij,将目标机器人B的特征点集转化为源机器人A坐标系上的点,将机器人B的地图重建到机器人A中;
步骤9、将机器人两两之间协同构图,然后,再采用上面的方法,继续构图,直到完全的构建出最终的地图。
其中,所述数据采集模块需要保证每一个机器人都含有一个激光雷达,且可以全方位的采集到环境信息。
其中,所述数据采集模块自启用该方法开始将不停地采集数据并对数据进行处理,并根据当前所处的阶段以及各个模块的需求将相应的处理信息及时反馈给点云匹配模块以及协同SLAM模块,直至完成整个过程。
其中,所述点云匹配模块中,轨迹匹配首先是和同一时刻传输进去的其他机器人的特征点集进行匹配,如果成功匹配,则进入下面的帧匹配,如果失败,则保留特征点集
其中,所述点云匹配模块中,帧匹配是接上面的轨迹匹配之后,如果匹配成功,则得到姿态矩阵,并传输给协同SLAM模块,如果匹配失败,则保留特征点集。
其中,所述点云匹配模块中,如果保留了特征点集,则将保留下来的信息和后面传输进来的其他机器人的特征点集进行匹配,重复点云匹配的整个过程。
其中,所述协同SLAM模块,是根据前面点云匹配模块得到的姿态矩阵进行坐标转换,将其中一个机器人地图的坐标转化到另一个机器人的坐标系下,合并两个坐标系。
其中,所述协同SLAM模块,是将机器人构建的地图两两合并,一直进行下去,直到只有一个地图存在,最终得到一个新的,完整的地图。
本发明所提供的一种智能多机器人协同测图系统包含模块有:数据采集模块,采集机器人周围的环境信息,并进行处理,得到两种特征点线点和面点,以及其最近邻点,作为整个的特征点集的信息,将线点和面点输入到点云匹配模块,而将整个的特征点集输入到协同SLAM模块;点云匹配模块,将数据采集模块传输而来的不同机器人之间的特征点信息进行点云匹配,如果可以匹配成功,构建闭包(相同的路径),并得出相关矩阵之间的姿态矩阵Tij,并将改矩阵传输到协同SLAM模块。如果匹配不成功,则保留其特征点信息,和接下来传输进来的特征点集进行点云匹配;协同SLAM模块,根据数据采集模块传输的特征点集和点云匹配模块传输的姿态矩阵Tij,将另一个机器人的特征点全部重建为目标机器人的坐标系上的点,构建在目标坐标系上的地图。在两个机器人建立了闭包之后,就可以将其采集到的点根据建立起的对应关系,全部转化到目标机器人的地图之中,这样,就可以实现多机器人的协同SLAM。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (4)

1.一种智能多机器人协同测图系统,其特征在于,包括
数据采集模块:采集机器人周围的环境信息,并进行处理,得到两种特征点线点和面点,以及其最近邻点,作为整个的特征点集的信息,将线点和面点输入到点云匹配模块,而将整个的特征点集输入到协同SLAM模块;
点云匹配模块:将数据采集模块传输而来的不同机器人之间的特征点信息进行点云匹配,如果可以匹配成功,构建闭包,并得出相关矩阵之间的姿态矩阵Tij,并将改矩阵传输到协同SLAM模块;如果匹配不成功,则保留其特征点信息,和接下来传输进来的特征点集进行点云匹配;
协同SLAM模块:根据数据采集模块传输的特征点集和点云匹配模块传输的姿态矩阵Tij,将另一个机器人的特征点全部重建为目标机器人的坐标系上的点,构建在目标坐标系上的地图;在两个机器人建立了闭包之后,就可以将其采集到的点根据建立起的对应关系,全部转化到目标机器人的地图之中,就可以实现多机器人的协同SLAM。
2.根据权利要求1所述的一种智能多机器人协同测图系统,其特征在于:所述的数据采集模块需要保证每一个机器人都含有一个激光雷达,且可以全方位的采集到环境信息。
3.根据权利要求2所述的一种智能多机器人协同测图系统,其特征在于:所述的激光雷达为Velodyne 16线或32线的激光雷达。
4.利用权利要求1所述的一种智能多机器人协同测图系统的方法,其特征在于:包括以下步骤:
步骤1、所述数据采集模块包括激光雷达,先测验其精准度,对于其可以测量的范围有一定的预估;
步骤2、对于激光雷达采集到的数据,通过平面光滑度等指标进行特征点的提取,得到线点和面点,找寻每个特征点的最近邻点,扩充特征点集;
步骤3、对于提取的特征点集进行合法性检测,得到有效合法的特征点信息,并建立对应的与前一帧的姿态矩阵TL
步骤4、点云匹配模块,将得到的特征点信息进行点云匹配,可以采用轨迹到轨迹以及帧与帧的方式进行匹配;
步骤5、通过数据采集模块得到运动的轨迹信息,对比机器人之间的运动轨迹,通过轨迹的相似性,判断是否经过了相同的地方,如果轨迹相似度高于设定的阈值,则可以进行下面的操作,如果轨迹相似度低于阈值,则两个机器人之间的特征点集是不能进行匹配的;
步骤6、如果轨迹之间的匹配成功,则进行更加详细的帧与帧之间的数据匹配,通过数据采集模块的特征点信息,进行细致的点云匹配,如果可以匹配成功,则认为两个机器人之间是经过了相同的路径,得到两个机器人之间的姿态矩阵Tij;如果不能匹配成功,则保留点云数据信息,和后面传输进来的数据信息进行匹配;
步骤7、协同SLAM模块,如果得到姿态矩阵Tij,那么就一直加入到闭包之中;如果没有得到姿态矩阵Tij,那么就根据之前得到的姿态矩阵Tij,将目标机器人B的特征点集转化为源机器人A坐标系上的点,将机器人B的地图重建到机器人A中;
步骤8、将机器人两两之间协同构图,然后,再采用上面的方法,继续构图,直到完全的构建出最终的地图。
CN201710787430.6A 2017-09-04 2017-09-04 一种智能多机器人协同测图系统及其方法 Active CN107491071B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710787430.6A CN107491071B (zh) 2017-09-04 2017-09-04 一种智能多机器人协同测图系统及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710787430.6A CN107491071B (zh) 2017-09-04 2017-09-04 一种智能多机器人协同测图系统及其方法

Publications (2)

Publication Number Publication Date
CN107491071A true CN107491071A (zh) 2017-12-19
CN107491071B CN107491071B (zh) 2020-10-30

Family

ID=60651428

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710787430.6A Active CN107491071B (zh) 2017-09-04 2017-09-04 一种智能多机器人协同测图系统及其方法

Country Status (1)

Country Link
CN (1) CN107491071B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108089191A (zh) * 2017-12-25 2018-05-29 中山大学 一种基于激光雷达的全局定位系统及方法
CN108362294A (zh) * 2018-03-05 2018-08-03 中山大学 一种应用于自动驾驶的多车协同建图方法
CN109100730A (zh) * 2018-05-18 2018-12-28 北京师范大学-香港浸会大学联合国际学院 一种多车协同快速建图方法
CN109407115A (zh) * 2018-12-25 2019-03-01 中山大学 一种基于激光雷达的路面提取系统及其提取方法
CN109945871A (zh) * 2019-03-15 2019-06-28 中山大学 一种通信带宽与距离受限情况下的多无人平台同步定位与地图构建方法
CN110111374A (zh) * 2019-04-29 2019-08-09 上海电机学院 基于分组阶梯式阈值判断的激光点云匹配方法
CN110119144A (zh) * 2019-04-19 2019-08-13 苏州大学 基于子地图特征匹配的多机器人slam算法
CN110162032A (zh) * 2018-02-15 2019-08-23 德尔福技术有限公司 车辆地图数据采集系统和方法
CN110275537A (zh) * 2019-06-27 2019-09-24 中国电子科技集团公司信息科学研究院 运动轨迹协同控制方法及其装置、计算机可读存储介质
CN112305558A (zh) * 2020-10-22 2021-02-02 中国人民解放军战略支援部队信息工程大学 一种利用激光点云数据的移动机器人轨迹确定方法及装置
CN114577215A (zh) * 2022-03-10 2022-06-03 山东新一代信息产业技术研究院有限公司 一种移动机器人的特征地图更新方法、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120046974A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 이동 로봇 및 이동 로봇의 위치인식 및 지도작성 방법
CN103941264A (zh) * 2014-03-26 2014-07-23 南京航空航天大学 一种室内未知环境下使用激光雷达定位方法
CN105701771A (zh) * 2016-03-17 2016-06-22 江苏科技大学 一种基于射频识别锚点的数字地图拼接方法
CN106780459A (zh) * 2016-12-12 2017-05-31 华中科技大学 一种三维点云数据自动配准方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120046974A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 이동 로봇 및 이동 로봇의 위치인식 및 지도작성 방법
CN103941264A (zh) * 2014-03-26 2014-07-23 南京航空航天大学 一种室内未知环境下使用激光雷达定位方法
CN105701771A (zh) * 2016-03-17 2016-06-22 江苏科技大学 一种基于射频识别锚点的数字地图拼接方法
CN106780459A (zh) * 2016-12-12 2017-05-31 华中科技大学 一种三维点云数据自动配准方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
石家兴: "多移动机器人同步定位与构图问题研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
辛菁 等: "基于Kinect的移动机器人大视角3维V_SLAM", 《机器人》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108089191A (zh) * 2017-12-25 2018-05-29 中山大学 一种基于激光雷达的全局定位系统及方法
CN110162032A (zh) * 2018-02-15 2019-08-23 德尔福技术有限公司 车辆地图数据采集系统和方法
CN108362294A (zh) * 2018-03-05 2018-08-03 中山大学 一种应用于自动驾驶的多车协同建图方法
CN109100730B (zh) * 2018-05-18 2022-05-24 北京师范大学-香港浸会大学联合国际学院 一种多车协同快速建图方法
CN109100730A (zh) * 2018-05-18 2018-12-28 北京师范大学-香港浸会大学联合国际学院 一种多车协同快速建图方法
CN109407115A (zh) * 2018-12-25 2019-03-01 中山大学 一种基于激光雷达的路面提取系统及其提取方法
CN109407115B (zh) * 2018-12-25 2022-12-27 中山大学 一种基于激光雷达的路面提取系统及其提取方法
CN109945871A (zh) * 2019-03-15 2019-06-28 中山大学 一种通信带宽与距离受限情况下的多无人平台同步定位与地图构建方法
CN110119144A (zh) * 2019-04-19 2019-08-13 苏州大学 基于子地图特征匹配的多机器人slam算法
CN110119144B (zh) * 2019-04-19 2022-04-22 苏州大学 基于子地图特征匹配的多机器人slam算法
CN110111374A (zh) * 2019-04-29 2019-08-09 上海电机学院 基于分组阶梯式阈值判断的激光点云匹配方法
CN110275537A (zh) * 2019-06-27 2019-09-24 中国电子科技集团公司信息科学研究院 运动轨迹协同控制方法及其装置、计算机可读存储介质
CN112305558A (zh) * 2020-10-22 2021-02-02 中国人民解放军战略支援部队信息工程大学 一种利用激光点云数据的移动机器人轨迹确定方法及装置
CN112305558B (zh) * 2020-10-22 2023-08-01 中国人民解放军战略支援部队信息工程大学 一种利用激光点云数据的移动机器人轨迹确定方法及装置
CN114577215A (zh) * 2022-03-10 2022-06-03 山东新一代信息产业技术研究院有限公司 一种移动机器人的特征地图更新方法、设备及介质
CN114577215B (zh) * 2022-03-10 2023-10-27 山东新一代信息产业技术研究院有限公司 一种移动机器人的特征地图更新方法、设备及介质

Also Published As

Publication number Publication date
CN107491071B (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN107491071A (zh) 一种智能多机器人协同测图系统及其方法
CN110502965B (zh) 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法
CN109100730B (zh) 一种多车协同快速建图方法
CN103049912B (zh) 一种基于任意三面体的雷达-相机系统外部参数标定方法
CN110073362A (zh) 用于车道标记检测的系统及方法
CN114782626B (zh) 基于激光与视觉融合的变电站场景建图及定位优化方法
US20210062653A1 (en) Method and device for acquiring three-dimensional coordinates of ore based on mining process
CN109444912B (zh) 一种基于协同控制与深度学习的驾驶环境感知系统及方法
CN108088445A (zh) 基于八叉树表示的三维栅格地图路径规划系统及方法
CN110992487B (zh) 手持式飞机油箱快速三维地图重建装置及重建方法
CN111914615A (zh) 基于立体视觉的消防区域可通过性分析系统
CN104302016A (zh) 一种基于多功能复合式传感器的无线传感网架构
CN106970620A (zh) 一种基于单目视觉的机器人控制方法
CN103716399A (zh) 基于无线网络的远程交互果实采摘协同异步控制系统及方法
CN112581402B (zh) 一种基于机器视觉技术的路桥病害自动检测方法
CN114966696A (zh) 一种基于Transformer的跨模态融合目标检测方法
CN113674355A (zh) 一种基于相机与激光雷达的目标识别与定位方法
CN117826795A (zh) 地下管廊巡检机器人的自主巡检方法及系统
Hao et al. Rcooper: A real-world large-scale dataset for roadside cooperative perception
CN116630267A (zh) 基于无人机与激光雷达数据融合的路基沉降监测方法
Dubois et al. AirMuseum: a heterogeneous multi-robot dataset for stereo-visual and inertial simultaneous localization and mapping
Shi et al. Cobev: Elevating roadside 3d object detection with depth and height complementarity
Quattrocchi et al. Put Your PPE on: A Tool for Synthetic Data Generation and Related Benchmark in Construction Site Scenarios.
CN109644263A (zh) 第一智能设备及其连接方法以及具有存储功能的装置
Zhang et al. Real time obstacle detection method based on lidar and wireless sensor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant