CN107491071B - 一种智能多机器人协同测图系统及其方法 - Google Patents

一种智能多机器人协同测图系统及其方法 Download PDF

Info

Publication number
CN107491071B
CN107491071B CN201710787430.6A CN201710787430A CN107491071B CN 107491071 B CN107491071 B CN 107491071B CN 201710787430 A CN201710787430 A CN 201710787430A CN 107491071 B CN107491071 B CN 107491071B
Authority
CN
China
Prior art keywords
points
robots
matching
robot
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710787430.6A
Other languages
English (en)
Other versions
CN107491071A (zh
Inventor
陈龙
张亚琛
黄凯
李清泉
涂伟
周宝定
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Sun Yat Sen University
Original Assignee
Shenzhen University
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University, Sun Yat Sen University filed Critical Shenzhen University
Priority to CN201710787430.6A priority Critical patent/CN107491071B/zh
Publication of CN107491071A publication Critical patent/CN107491071A/zh
Application granted granted Critical
Publication of CN107491071B publication Critical patent/CN107491071B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种智能多机器人协同测图系统,其中该系统包括数据采集模块,点云匹配模块,协同SLAM模块;数据采集模块将机器人携带的激光雷达采集到的数据进行处理,提取其中的线点和面点特征点,以及这些点的最近邻点,作为特征数据点输出到点云匹配模块;点云匹配模块将得到的不同机器人的特征数据点之间进行点云匹配,如果可以匹配则建立起机器人之间的对应联系,并将联系关系传输到协同SLAM模块,如果不可以匹配则暂时保留下姿态矩阵(6—DOE);协同SLAM模块根据前面的点云匹配模块,如果已经有闭包,那么就按照机器人之间的关系,将新得到的数据点重建到全局的地图之中,得到完整的地图,本发明思路新颖,是一种全新的协同测图方法。

Description

一种智能多机器人协同测图系统及其方法
技术领域
本发明涉及机器人的技术领域,更具体地,涉及一种智能多机器人协同测图系统及其方法。
背景技术
随着时代的发展,协同SLAM一直都是研究的热点。而传统的协同SLAM也是有着很多的分类,如针对传感器而言的分类为:雷达,相机,RGB-D,GPS等。而对于基于雷达的协同SLAM而言,研究的主要方向都在2D雷达,现阶段,很少有3D雷达的协同SLAM。因此,我们提出了一种全新的,基于3D雷达的多机器人协同测图方法。该方法可以采集到更多的环境数据,构建出能够完整展示出环境信息的3D地图,增强了地图的客观性和准确性。
发明内容
本发明为克服上述现有技术所述的至少一种缺陷,提供一种智能多机器人协同测图系统及其方法,通过使用3D激光雷达采集数据,协同每个机器人采集到的数据,构建一个三维的地图。与传统的2D激光雷达的协同测图相比,3D的数据更加详细,可以更好的还原环境信息,构建出3D地图,全方位,立体的重现需要测量的环境。使用协同测图,可以节约时间,节省成本,更快更好的得到最终的结果。
本发明的技术方案是:一种智能多机器人协同测图系统,包括:
数据采集模块:采集机器人周围的环境信息,并进行处理,得到两种特征点线点和面点,以及其最近邻点,作为整个的特征点集的信息,将线点和面点输入到点云匹配模块,而将整个的特征点集输入到协同SLAM模块;
点云匹配模块:将数据采集模块传输而来的不同机器人之间的特征点信息进行点云匹配,如果可以匹配成功,构建闭包(相同的路径),并得出相关矩阵之间的姿态矩阵Tij,并将改矩阵传输到协同SLAM模块。如果匹配不成功,则保留其特征点信息,和接下来传输进来的特征点集进行点云匹配;
协同SLAM模块:根据测图区域的空间位置及其形状,预先规划多个测图机器人的行驶轨迹,保证多个机器人之间的测图区域之间互有重叠。根据数据采集模块传输的特征点集和点云匹配模块传输的姿态矩阵Tij,将另一个机器人的特征点全部重建为目标机器人的坐标系上的点,构建在目标坐标系上的地图。在两个机器人建立了闭包之后,就可以将其采集到的点根据建立起的对应关系,全部转化到目标机器人的地图之中,这样,就可以实现多机器人的协同SLAM。可选的,所述图像采集模块包括四个摄像头,其中两个摄像头拍摄车前的路面场景,另两个摄像头拍摄车后的路面场景。
可选的,所述数据采集模块需要保证每一个机器人都含有一个激光雷达,且可以全方位的采集到环境信息
可选的,所述激光雷达为Velodyne 16线或32线的激光雷达。
一种智能多机器人协同测图方法,包括以下步骤:
步骤1、所述数据采集模块包括激光雷达,先测验其精准度,对于其可以测量的范围有一定的预估;
步骤2、对于激光雷达采集到的数据,通过平面光滑度等指标进行特征点的提取,得到线点和面点,找寻每个特征点的最近邻点,扩充特征点集;
步骤3、对于提取的特征点集进行合法性检测,得到有效合法的特征点信息,并建立对应的与前一帧的姿态矩阵TL
步骤4、点云匹配模块,将得到的特征点信息进行点云匹配,可以采用轨迹到轨迹以及帧与帧的方式进行匹配;
步骤5:测图路径规划,根据测图区域的位置和空间形状,利用遗传优化方法(不限于遗传优化算法,其他启发式优化算法如蚁群优化算法、粒子群优化算法等均可适用),规划生成N个测图机器人的测量轨迹,使得测图轨迹长度和最短,相互之间的重叠区域最大。
步骤6、通过数据采集模块得到运动的轨迹信息,对比机器人之间的实际运动轨迹,通过轨迹的相似性,判断是否经过了相同的地方,如果部分轨迹相似度高于设定的阈值,则可以进行下面的操作,如果部分轨迹相似度低于阈值,则两个机器人之间的特征点集是不能进行匹配的;
步骤7、如果轨迹之间的匹配成功,则进行更加详细的帧与帧之间的数据匹配,通过数据采集模块的特征点信息,进行细致的点云匹配,如果可以匹配成功,则认为两个机器人之间是经过了相同的路径,得到两个机器人之间的姿态矩阵Tij。如果不能匹配成功,则保留点云数据信息,和后面传输进来的数据信息进行匹配。
步骤8、协同SLAM模块,如果得到姿态矩阵Tij,那么就一直加入到闭包之中。如果没有得到姿态矩阵Tij,那么就根据之前得到的姿态矩阵Tij,将目标机器人B的特征点集转化为源机器人A坐标系上的点,将机器人B的地图重建到机器人A中;
步骤9、将机器人两两之间协同构图,然后,再采用上面的方法,继续构图,直到完全的构建出最终的地图。
与现有技术相比,有益效果是:
1、本发明的激光雷达采用的是3D激光雷达,与以往的2D激光雷达相比,可以获取到更多的点云数据信息,能够获取到竖直平面的环境信息,可以更加全面的包含环境信息,使得数据更加丰富,便于处理并能够更加直观的将数据可视化。
2、本发明消耗更少的时间,可以更快,更精准的得到最终的结果。
附图说明
图1为本发明中系统的结构简图。
图2为本发明中方法的流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本专利的限制。
如图1、2所示,一种智能多机器人协同测图系统,包括数据采集模块,点云匹配模块,协同SLAM模块;数据采集模块采集机器人周围的环境信息,并进行处理,得到两种特征点线点和面点,以及其最近邻点,作为整个的特征点集的信息,将线点和面点输入到点云匹配模块,而将整个的特征点集输入到协同SLAM模块;点云匹配模块将数据采集模块传输而来的不同机器人之间的特征点信息进行点云匹配,如果可以匹配成功,构建闭包(相同的路径),并得出相关矩阵之间的姿态矩阵Tij,并将改矩阵传输到协同SLAM模块。如果匹配不成功,则保留其特征点信息,和接下来传输进来的特征点集进行点云匹配;协同SLAM模块规划机器人的测图轨迹,根据数据采集模块传输的特征点集和点云匹配模块传输的姿态矩阵Tij,将另一个机器人的特征点全部重建为目标机器人的坐标系上的点,构建在目标坐标系上的地图。在两个机器人建立了闭包之后,就可以将其采集到的点根据建立起的对应关系,全部转化到目标机器人的地图之中,这样,就可以实现多机器人的协同SLAM。
本方法的应用场景为室内或室外的平坦环境,需要尽可能的减少颠簸导致数据采集的信息出现偏差。。
为了更好的说明本发明具体实施方案,下面将结合图2以及具体的实施方式对上述技术方案进行详细的说明:
步骤1、所述数据采集模块包括激光雷达,先测验其精准度,对于其可以测量的范围有一定的预估;
步骤2、对于激光雷达采集到的数据,通过平面光滑度等指标进行特征点的提取,得到线点和面点,找寻每个特征点的最近邻点,扩充特征点集;
步骤3、对于提取的特征点集进行合法性检测,得到有效合法的特征点信息,并建立对应的与前一帧的姿态矩阵TL
步骤4、点云匹配模块,将得到的特征点信息进行点云匹配,可以采用轨迹到轨迹以及帧与帧的方式进行匹配;
步骤5:测图路径规划,根据测图区域的位置和空间形状,利用遗传优化方法(不限于遗传优化算法,其他启发式优化算法如蚁群优化算法、粒子群优化算法等均可适用),规划生成N个测图机器人的测量轨迹,使得测图轨迹长度和最短,相互之间的重叠区域最大。
步骤6、通过数据采集模块得到运动的轨迹信息,对比机器人之间的运动轨迹,通过轨迹的相似性,判断是否经过了相同的地方,如果轨迹相似度高于设定的阈值,则可以进行下面的操作,如果轨迹相似度低于阈值,则两个机器人之间的特征点集是不能进行匹配的;
步骤7、如果轨迹之间的匹配成功,则进行更加详细的帧与帧之间的数据匹配,通过数据采集模块的特征点信息,进行细致的点云匹配,如果可以匹配成功,则认为两个机器人之间是经过了相同的路径,得到两个机器人之间的姿态矩阵Tij。如果不能匹配成功,则保留点云数据信息,和后面传输进来的数据信息进行匹配。
步骤8、协同SLAM模块,如果得到姿态矩阵Tij,那么就一直加入到闭包之中。如果没有得到姿态矩阵Tij,那么就根据之前得到的姿态矩阵Tij,将目标机器人B的特征点集转化为源机器人A坐标系上的点,将机器人B的地图重建到机器人A中;
步骤9、将机器人两两之间协同构图,然后,再采用上面的方法,继续构图,直到完全的构建出最终的地图。
其中,所述数据采集模块需要保证每一个机器人都含有一个激光雷达,且可以全方位的采集到环境信息。
其中,所述数据采集模块自启用该方法开始将不停地采集数据并对数据进行处理,并根据当前所处的阶段以及各个模块的需求将相应的处理信息及时反馈给点云匹配模块以及协同SLAM模块,直至完成整个过程。
其中,所述点云匹配模块中,轨迹匹配首先是和同一时刻传输进去的其他机器人的特征点集进行匹配,如果成功匹配,则进入下面的帧匹配,如果失败,则保留特征点集
其中,所述点云匹配模块中,帧匹配是接上面的轨迹匹配之后,如果匹配成功,则得到姿态矩阵,并传输给协同SLAM模块,如果匹配失败,则保留特征点集。
其中,所述点云匹配模块中,如果保留了特征点集,则将保留下来的信息和后面传输进来的其他机器人的特征点集进行匹配,重复点云匹配的整个过程。
其中,所述协同SLAM模块,是根据前面点云匹配模块得到的姿态矩阵进行坐标转换,将其中一个机器人地图的坐标转化到另一个机器人的坐标系下,合并两个坐标系。
其中,所述协同SLAM模块,是将机器人构建的地图两两合并,一直进行下去,直到只有一个地图存在,最终得到一个新的,完整的地图。
本发明所提供的一种智能多机器人协同测图系统包含模块有:数据采集模块,采集机器人周围的环境信息,并进行处理,得到两种特征点线点和面点,以及其最近邻点,作为整个的特征点集的信息,将线点和面点输入到点云匹配模块,而将整个的特征点集输入到协同SLAM模块;点云匹配模块,将数据采集模块传输而来的不同机器人之间的特征点信息进行点云匹配,如果可以匹配成功,构建闭包(相同的路径),并得出相关矩阵之间的姿态矩阵Tij,并将改矩阵传输到协同SLAM模块。如果匹配不成功,则保留其特征点信息,和接下来传输进来的特征点集进行点云匹配;协同SLAM模块,根据数据采集模块传输的特征点集和点云匹配模块传输的姿态矩阵Tij,将另一个机器人的特征点全部重建为目标机器人的坐标系上的点,构建在目标坐标系上的地图。在两个机器人建立了闭包之后,就可以将其采集到的点根据建立起的对应关系,全部转化到目标机器人的地图之中,这样,就可以实现多机器人的协同SLAM。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (1)

1.一种智能多机器人协同测图系统的方法,其特征在于:包括以下步骤:
步骤1、数据采集模块包括激光雷达,先测验其精准度,对于其可以测量的范围有一定的预估;
步骤2、对于激光雷达采集到的数据,通过平面光滑度指标进行特征点的提取,得到线点和面点,找寻每个特征点的最近邻点,扩充特征点集;
步骤3、对于提取的特征点集进行合法性检测,得到有效合法的特征点信息,并建立对应的与前一帧的姿态矩阵TL
步骤4、点云匹配模块,将得到的特征点信息进行点云匹配,可以采用轨迹到轨迹以及帧与帧的方式进行匹配;
步骤5、通过数据采集模块得到运动的轨迹信息,对比机器人之间的运动轨迹,通过轨迹的相似性,判断是否经过了相同的地方,如果轨迹相似度高于设定的阈值,则可以进行下面的操作,如果轨迹相似度低于阈值,则两个机器人之间的特征点集是不能进行匹配的;
步骤6、如果轨迹之间的匹配成功,则进行更加详细的帧与帧之间的数据匹配,通过数据采集模块的特征点信息,进行细致的点云匹配,如果可以匹配成功,则认为两个机器人之间是经过了相同的路径,得到两个机器人之间的姿态矩阵Tij;如果不能匹配成功,则保留点云数据信息,和后面传输进来的数据信息进行匹配;
步骤7、协同SLAM模块,如果得到姿态矩阵Tij,那么就一直加入到闭包之中;如果没有得到姿态矩阵Tij,那么就根据之前得到的姿态矩阵Tij,将目标机器人B的特征点集转化为源机器人A坐标系上的点,将机器人B的地图重建到机器人A中;
步骤8、将机器人两两之间协同构图,然后,再采用上面的方法,继续构图,直到完全的构建出最终的地图。
CN201710787430.6A 2017-09-04 2017-09-04 一种智能多机器人协同测图系统及其方法 Active CN107491071B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710787430.6A CN107491071B (zh) 2017-09-04 2017-09-04 一种智能多机器人协同测图系统及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710787430.6A CN107491071B (zh) 2017-09-04 2017-09-04 一种智能多机器人协同测图系统及其方法

Publications (2)

Publication Number Publication Date
CN107491071A CN107491071A (zh) 2017-12-19
CN107491071B true CN107491071B (zh) 2020-10-30

Family

ID=60651428

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710787430.6A Active CN107491071B (zh) 2017-09-04 2017-09-04 一种智能多机器人协同测图系统及其方法

Country Status (1)

Country Link
CN (1) CN107491071B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108089191B (zh) * 2017-12-25 2021-03-30 中山大学 一种基于激光雷达的全局定位系统及方法
US10890920B2 (en) * 2018-02-15 2021-01-12 Aptiv Technologies Limited Vehicle map-data gathering system and method
CN108362294B (zh) * 2018-03-05 2021-08-03 中山大学 一种应用于自动驾驶的多车协同建图方法
CN109100730B (zh) * 2018-05-18 2022-05-24 北京师范大学-香港浸会大学联合国际学院 一种多车协同快速建图方法
CN109407115B (zh) * 2018-12-25 2022-12-27 中山大学 一种基于激光雷达的路面提取系统及其提取方法
CN109945871B (zh) * 2019-03-15 2021-03-02 中山大学 一种通信带宽与距离受限情况下的多无人平台同步定位与地图构建方法
CN110119144B (zh) * 2019-04-19 2022-04-22 苏州大学 基于子地图特征匹配的多机器人slam算法
CN110111374B (zh) * 2019-04-29 2020-11-17 上海电机学院 基于分组阶梯式阈值判断的激光点云匹配方法
CN110275537B (zh) * 2019-06-27 2022-05-17 中国电子科技集团公司信息科学研究院 运动轨迹协同控制方法及其装置、计算机可读存储介质
CN112305558B (zh) * 2020-10-22 2023-08-01 中国人民解放军战略支援部队信息工程大学 一种利用激光点云数据的移动机器人轨迹确定方法及装置
CN114577215B (zh) * 2022-03-10 2023-10-27 山东新一代信息产业技术研究院有限公司 一种移动机器人的特征地图更新方法、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120046974A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 이동 로봇 및 이동 로봇의 위치인식 및 지도작성 방법
CN103941264A (zh) * 2014-03-26 2014-07-23 南京航空航天大学 一种室内未知环境下使用激光雷达定位方法
CN105701771A (zh) * 2016-03-17 2016-06-22 江苏科技大学 一种基于射频识别锚点的数字地图拼接方法
CN106780459A (zh) * 2016-12-12 2017-05-31 华中科技大学 一种三维点云数据自动配准方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120046974A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 이동 로봇 및 이동 로봇의 위치인식 및 지도작성 방법
CN103941264A (zh) * 2014-03-26 2014-07-23 南京航空航天大学 一种室内未知环境下使用激光雷达定位方法
CN105701771A (zh) * 2016-03-17 2016-06-22 江苏科技大学 一种基于射频识别锚点的数字地图拼接方法
CN106780459A (zh) * 2016-12-12 2017-05-31 华中科技大学 一种三维点云数据自动配准方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于Kinect的移动机器人大视角3维V_SLAM;辛菁 等;《机器人》;20140930;第36卷(第5期);第581-583页 *
多移动机器人同步定位与构图问题研究;石家兴;《中国优秀硕士学位论文全文数据库 信息科技辑》;20150715(第2015/07期);全文 *

Also Published As

Publication number Publication date
CN107491071A (zh) 2017-12-19

Similar Documents

Publication Publication Date Title
CN107491071B (zh) 一种智能多机器人协同测图系统及其方法
CN110349250B (zh) 一种基于rgbd相机的室内动态场景的三维重建方法
Lin et al. Depth estimation from monocular images and sparse radar data
Yang et al. Concrete defects inspection and 3D mapping using CityFlyer quadrotor robot
CN110097553B (zh) 基于即时定位建图与三维语义分割的语义建图系统
De Silva et al. Fusion of LiDAR and camera sensor data for environment sensing in driverless vehicles
CN111563415B (zh) 一种基于双目视觉的三维目标检测系统及方法
Kim et al. Deep learning based vehicle position and orientation estimation via inverse perspective mapping image
Miclea et al. Monocular depth estimation with improved long-range accuracy for UAV environment perception
CN111797836B (zh) 一种基于深度学习的地外天体巡视器障碍物分割方法
Rodríguez et al. Obstacle avoidance system for assisting visually impaired people
Vaquero et al. Dual-branch CNNs for vehicle detection and tracking on LiDAR data
CN110223351B (zh) 一种基于卷积神经网络的深度相机定位方法
CN115900710A (zh) 基于视觉信息的动态环境导航方法
Shreyas et al. 3D object detection and tracking methods using deep learning for computer vision applications
CN111914615A (zh) 基于立体视觉的消防区域可通过性分析系统
CN111812978B (zh) 一种多无人机协作slam方法与系统
Guizilini et al. Semi-parametric models for visual odometry
Forechi et al. Visual global localization with a hybrid WNN-CNN approach
Narayanan et al. A multi-purpose realistic haze benchmark with quantifiable haze levels and ground truth
Li et al. Driver drowsiness behavior detection and analysis using vision-based multimodal features for driving safety
Ma et al. Self-Supervised Drivable Area Segmentation Using LiDAR's Depth Information for Autonomous Driving
Huang et al. A coarse-to-fine LiDar-based SLAM with dynamic object removal in dense urban areas
Chen et al. End-to-end multi-view structure-from-motion with hypercorrelation volume
Lim et al. MSDPN: Monocular depth prediction with partial laser observation using multi-stage neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant