CN108073167A - 一种基于深度相机与激光雷达的定位与导航方法 - Google Patents
一种基于深度相机与激光雷达的定位与导航方法 Download PDFInfo
- Publication number
- CN108073167A CN108073167A CN201611006340.0A CN201611006340A CN108073167A CN 108073167 A CN108073167 A CN 108073167A CN 201611006340 A CN201611006340 A CN 201611006340A CN 108073167 A CN108073167 A CN 108073167A
- Authority
- CN
- China
- Prior art keywords
- laser radar
- depth camera
- positioning
- information
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 claims abstract description 17
- 230000007613 environmental effect Effects 0.000 claims abstract description 5
- 238000007405 data analysis Methods 0.000 claims abstract description 4
- 230000004807 localization Effects 0.000 claims abstract description 3
- 238000010586 diagram Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 claims 2
- 230000003287 optical effect Effects 0.000 claims 1
- 238000004458 analytical method Methods 0.000 abstract 3
- 238000005259 measurement Methods 0.000 abstract 1
- 230000033001 locomotion Effects 0.000 description 7
- 230000004888 barrier function Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 231100000572 poisoning Toxicity 0.000 description 1
- 230000000607 poisoning effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种基于深度相机与激光雷达的定位与导航方法,利用传感器采集到的二维和三维信息进行室内环境建模、位置分析与信息标定。用户收集当前场景信息,通过与二维和三维环境模型信息进行快速对比与精确特征匹配,实现用户的室内定位。完成该定位方法需要分别搭建室内定位的数据采集装置与数据分析平台。数据采集装置包括深度相机、惯性测量传感器等,可以完成室内的任意位置二维和三维信息与姿态、偏角等空间信息采集;数据分析平台可以利用采集到的二维和三维信息进行环境模型的快速存储、位置分析与信息标定,并实时将分析后得到的定位结果反馈给用户,实现室内定位功能。
Description
技术领域
本发明涉及自动化技术领域,特别涉及到一种自主避障导航信息共享和使用方法及一种应用于机器人的自主避障导航系统。
背景技术
随着科技的发展,机器人应用领域越来越广泛,其在不同行业的应用可以带来行业应用上的创新,带来跨行业的叠加跃变;同时“家家都有机器人”的宏伟目标也在逐步实现。但在机器人普及的路上,最重要的是和安全息息相关的自动避障和导航技术,如果机器人和人员的安全都无法保障,其他的一切都无从谈起。
机器人的自主避障导航系统是当前机器人研究的热点问题,涉及到诸多学科的交叉研究领域。机器人避障导航首先需要确定自身的位置和姿态,并构建周围环境地图,然后根据自身的位置和姿态、周围环境地图和最终任务完成路径规划;在机器人移动过程中,实时检测周围障碍物,对规划路径上突入障碍物采取规避策略并最终完成指定任务。
由于现有技术需要定位服务提供者提前在需要进行定位的部署大量的应答器或信标,用来实时接收使用者的发射信号,并需要待测物体或使用者同时安装或佩戴支持相同技术的信号发射或收集装置,使得目前室内定位服务的硬件成本高,使用和维护也十分不便。
此外,由于部署的应答器对于部署区域条件具有一定限制,也需要服务提供者对室内进行相对较为精确的平面测绘,进一步提高了室内定位的服务成本。
发明内容
本发明提出一种基于深度相机与激光雷达的定位与导航方法,目的在于避免现有技术中的不足之处,提供一种不需要部署应答器或信标,仅通过用户采集当前时刻的三维信息,并与前期录入的整个三维环境信息进行对比,通过计算机模式识别方法计算得到相对精确的室内位置。本发明针对目标匹配的三维环境模型进行了存储结构优化,提高了匹配的速度,可以实现快速准确的室内定位。
为实现上述目的,本发明采用以下技术方案:
一种基于深度相机与激光雷达的定位与导航方法,其特征在于:包括,通过数据采集装置和数据分析平台完成室内三维环境模型的构建,并通过计算机模式识别方法计算得到用户相对精确的室内位置。
一种基于深度相机与激光雷达的定位与导航方法,其特征在于,数据采集装置包括深度相机、激光雷达、IMU惯性传感器以及超声波传感器。
一种基于深度相机与激光雷达的定位与导航方法,其特征在于,具体包括如下步骤:
步骤1):通过深度相机采集彩色和深度图像帧并生成点云;应用ORB特征点提取算法提取每帧图像的特征点并生成视觉单词;利用视觉词袋法表示图像特征;同时将采集到的激光雷达数据转换成点云;向点云数据与视觉词袋打包成节点;
步骤2):应用迭代就近点(ICP)算法计算两帧深度图像的空间变换,得到节点间的空间转换;同时将当前节点中的视觉词袋与内存中存储的所有节点内的视觉词袋进行比较以检测是否存在节点图闭环;如检测到闭环,则建立当前局部地图和全局地图的空间关系,从而获得机器人的全局位置,并根据图像匹配度计算方差;
步骤3):当检测到闭环时,应用g2o图优化算法更新所有各节点之间的空间关系,获得优化过的节点图;
步骤4):将节点图中所有通过激光雷达产生的点云注册成全局点云图,并将该全局点云图转化成网格占有图;
步骤5):根据当前激光雷达信息,通过适应性蒙特卡洛定位法计算出机器人在网格图中的位置估计;
步骤6):应用扩展卡尔曼滤波将步骤2和步骤5得到的1全局位置估计进行融合,得到新的位置估计作为最终定位结果。
根据权利要求3所述的基于深度相机与激光雷达的定位与导航方法,其特征在于,所述步骤1)、步骤4)中,场景地图构建步骤为:以起始点为中心,避障导航装置或其载体旋转360°,获得了起始点360°的三维点云数据,分析并存储三维点云数据,得出下一个扫描点的位置和到达轨迹,载体将按照指令运动到目标点,并开始360°扫描,继续分析并存储三维点云数据;在整个过程中,根据传感器输出的点云数据和IMU惯性导航模块输出的姿态位置信息进行三维点云的拼接,形成场景内局部三维地图,并根据场景内局部三维地图和扫描策略得到下一个扫描点,直至三维地图构建完成。
本发明的有益效果为:采用超声波传感器、深度相机、激光雷达、IMU惯性导航模块等多传感器组合的方案提升了自主避障导航系统的三维地图构建能力和精度;并通过自主避障导航系统和云平台相结合的方式,提高了机器人的工作效率;同时对在已完成地图构建的场景中工作机器人的避障导航模块硬件的要求降低,有利于降低整个机器人的成本。
附图说明
下面根据附图对本发明作进一步详细说明。
图1为本发明的应用于机器人的自主避障导航系统图,图2为深度视觉定位与激光定位融合的算法框架。
图1中,1为深度相机,2为激光雷达,3为驱动电机,4为IMU惯性导航模块,5为底盘,6为轮子。
具体实施方式
下面结合附图对本发明做进一步的详述。
如图1所示,本发明包括自主避障导航系统深度相机1,激光雷达2,驱动电机3、底盘5、IMU惯性模块4、多个超声波传感器(未画出).其中,多个超声波传感器分别安装在自主避障导航系统底盘5的四周,负责实时监测四个方向上的障碍物,并将检测结果发送给避障导航电路板7;避障导航电路板7位于底盘5的内部,为整个避障导航模块的核心,负责系统中超声波传感器、深度相机1、IMU惯性导航模块4、激光雷达2之间的信息交互,其根据深度相机1的3D数据对场景进行三维数据点云提取;根据IMU惯性导航模块4进行自身姿态和位置的确定;根据多个超声波传感器、深度相机1、IMU惯性导航模块4的数据融合进行场景地图构建、轨迹规划和障碍物避让,并形成运动指令发送给机器人运动底盘5,机器人运动底盘5根据指令控制机器人的轮子6按照要求运动,在运动过程中,IMU惯性导航模块4实时计算机器人底盘5在场景中的位置和姿态,并将上述信息发送给避障导航电路板7,避障导航电路板7将根据IMU惯性导航模块输出的位置和姿态信息实时调整控制指令,形成机器人运动负反馈控制,实现机器人按照规划路径运动。
在机器人底盘5运动过程中,位于自主导航避障系统的深度相机1按照一定频率输出前视方向上的三维场景点云数据传输给避障导航电路板7,避障导航电路板7根据上述数据判断前方障碍物情况,并将上述三维场景点云数据和IMU惯性导航模块4输出的位置姿态数据打包存储。
如果自主避障导航系统处于场景地图构建工作状态,则避障导航电路板7将按照遍历算法进行机器人底盘5运动轨迹规划:首先以起始点为中心,机器人旋转360°,获得了起始点360°的三维点云数据,避障导航电路板7将分析并存储三维点云数据,并分析出下一个扫描点的位置和到达轨迹,机器人底盘5将按照避障导航电路板7的指令运动到目标点,并开始360°扫描,避障导航电路板7继续分析并存储三维点云数据,在整个过程中,避障导航电路板7将根据深度相机1输出的点云数据和IMU惯性导航模块4输出的姿态位置信息进行三维点云的拼接,形成场景内局部三维地图,避障导航电路板7并根据场景内局部三维地图和扫描策略得到下一个扫描点,直至避障导航电路板7将场景三维地图闭环,三维地图闭环意味着三维地图构建的第一步完成,还需要根据超声波传感器、点云数据对三维地图进行修正,修正完成后,场景地图构建完成。
如果自主避障导航系统已经获得场景的三维地图,则避障导航电路板7根据深度相机1输出的点云数据进行自身定位,作为IMU惯性导航模块4输出的位置姿态数据的补偿,确定自身在场景中的具体位置,避障导航电路板7根据自身的位置和需要完成的任务,在场景地图上规划完成任务的路径,规划路径采用基于动态拟牛顿法来进行动态递归最小二乘Jacobian估计来实现目标函数的最小化实现最优径,当路径规划完成后,避障导航电路 板7输出控制指令给机器人底盘5,机器人底盘5控制控机器人的轮子2按照要求运动,在运动过程中,IMU惯性导航模块4实时计算机器人底盘5在场景中的位置和姿态,并将上述信息发送给避障导航电路板7,避障导航电路板7将根据IMU惯性导航模块输出的位置和姿态信息实时调整控制指令,形成机器人运动负反馈控制,实现机器人按照规划路径运动。同时,避障导航电路板7根据深度相机1输出的点云数据、超声波传感器输出的数据判断路径上是否有突入障碍物,如果遇到突入障碍物,则根据障碍物信息和场景地图生成避障路径,直至完成任务。
Claims (4)
1.一种基于深度相机与激光雷达的定位与导航方法,其特征在于,通过数据采集装置和数据分析平台完成室内三维环境模型的构建,并通过计算机模式识别方法计算得到用户相对精确的室内位置。
2.根据权利要求1所述的基于深度相机与激光雷达的定位与导航方法,其特征在于,数据采集装置包括深度相机、激光雷达、IMU惯性传感器以及超声波传感器。
3.根据权利要求1或2所述的基于深度相机与激光雷达的定位与导航方法,其特征在于,具体包括如下步骤:
步骤1):通过深度相机采集彩色和深度图像帧并生成点云;应用ORB特征点提取算法提取每帧图像的特征点并生成视觉单词;利用视觉词袋法表示图像特征;同时将采集到的激光雷达数据转换成点云;向点云数据与视觉词袋打包成节点;
步骤2):应用迭代就近点(ICP)算法计算两帧深度图像的空间变换,得到节点间的空间转换;同时将当前节点中的视觉词袋与内存中存储的所有节点内的视觉词袋进行比较以检测是否存在节点图闭环;如检测到闭环,则建立当前局部地图和全局地图的空间关系,从而获得机器人的全局位置,并根据图像匹配度计算方差;
步骤3):当检测到闭环时,应用g2o图优化算法更新所有各节点之间的空间关系,获得优化过的节点图;
步骤4):将节点图中所有通过激光雷达产生的点云注册成全局点云图,并将该全局点云图转化成网格占有图;
步骤5):根据当前激光雷达信息,通过适应性蒙特卡洛定位法计算出机器人在网格图中的位置估计;
步骤6):应用扩展卡尔曼滤波将步骤2和步骤5得到的l全局位置估计进行融合,得到新的位置估计作为最终定位结果。
4.根据权利要求3所述的基于深度相机与激光雷达的定位与导航方法,其特征在于,所述步骤1)、步骤4)中,场景地图构建步骤为:以起始点为中心,避障导航装置或其载体旋转360°,获得了起始点360°的三维点云数据,分析并存储三维点云数据,得出下一个扫描点的位置和到达轨迹,载体将按照指令运动到目标点,并开始360°扫描,继续分析并存储三维点云数据;在整个过程中,根据传感器输出的点云数据和IMU惯性导航模块输出的姿态位置信息进行三维点云的拼接,形成场景内局部三维地图,并根据场景内局部三维地图和扫描策略得到下一个扫描点,直至三维地图构建完成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611006340.0A CN108073167A (zh) | 2016-11-10 | 2016-11-10 | 一种基于深度相机与激光雷达的定位与导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611006340.0A CN108073167A (zh) | 2016-11-10 | 2016-11-10 | 一种基于深度相机与激光雷达的定位与导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108073167A true CN108073167A (zh) | 2018-05-25 |
Family
ID=62163048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611006340.0A Withdrawn CN108073167A (zh) | 2016-11-10 | 2016-11-10 | 一种基于深度相机与激光雷达的定位与导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108073167A (zh) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109029450A (zh) * | 2018-06-26 | 2018-12-18 | 重庆市勘测院 | 一种室内定位方法 |
CN109116397A (zh) * | 2018-07-25 | 2019-01-01 | 吉林大学 | 一种车载多相机视觉定位方法、装置、设备及存储介质 |
CN109445441A (zh) * | 2018-12-14 | 2019-03-08 | 上海安吉四维信息技术有限公司 | 3d激光导航系统、自动引导运输车及工作方法 |
CN109947097A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 一种基于视觉和激光融合的机器人定位方法及导航应用 |
CN110428467A (zh) * | 2019-07-30 | 2019-11-08 | 四川大学 | 一种相机、imu和激光雷达联合的机器人定位方法 |
CN110530372A (zh) * | 2019-09-26 | 2019-12-03 | 上海商汤智能科技有限公司 | 定位方法、路径确定方法、装置、机器人及存储介质 |
CN110858328A (zh) * | 2018-08-06 | 2020-03-03 | 纳恩博(北京)科技有限公司 | 用于模仿学习的数据采集方法、装置及存储介质 |
CN111380515A (zh) * | 2018-12-29 | 2020-07-07 | 纳恩博(常州)科技有限公司 | 定位方法及装置、存储介质、电子装置 |
CN111531549A (zh) * | 2020-06-18 | 2020-08-14 | 北京海益同展信息科技有限公司 | 一种机器人系统及定位导航方法 |
CN111609853A (zh) * | 2019-02-25 | 2020-09-01 | 北京奇虎科技有限公司 | 三维地图构建方法、扫地机器人及电子设备 |
CN111665826A (zh) * | 2019-03-06 | 2020-09-15 | 北京奇虎科技有限公司 | 基于激光雷达与单目相机的深度图获取方法及扫地机器人 |
CN111678534A (zh) * | 2019-03-11 | 2020-09-18 | 武汉小狮科技有限公司 | 一种结合rgbd双目深度相机、imu和多线激光雷达的联合标定平台和方法 |
CN111679661A (zh) * | 2019-02-25 | 2020-09-18 | 北京奇虎科技有限公司 | 基于深度相机的语义地图构建方法及扫地机器人 |
CN111679664A (zh) * | 2019-02-25 | 2020-09-18 | 北京奇虎科技有限公司 | 基于深度相机的三维地图构建方法及扫地机器人 |
CN111679663A (zh) * | 2019-02-25 | 2020-09-18 | 北京奇虎科技有限公司 | 三维地图构建方法、扫地机器人及电子设备 |
CN112045655A (zh) * | 2020-08-14 | 2020-12-08 | 华中科技大学 | 用于大尺度多站点场景的移动机器人位姿测量方法及系统 |
CN112578778A (zh) * | 2019-09-27 | 2021-03-30 | 上海尊颐智能科技有限公司 | 一种机能辅助装置的导航控制方法及导航系统 |
WO2021147546A1 (zh) * | 2020-01-20 | 2021-07-29 | 深圳市普渡科技有限公司 | 多传感器融合slam系统、多传感器融合方法及机器人、介质 |
CN113219492A (zh) * | 2021-03-30 | 2021-08-06 | 苏州市卫航智能技术有限公司 | 一种河道船舶行驶定位导航的方法及系统 |
CN113253297A (zh) * | 2021-06-21 | 2021-08-13 | 中国人民解放军国防科技大学 | 融合激光雷达和深度相机的地图构建方法及装置 |
CN113390409A (zh) * | 2021-07-09 | 2021-09-14 | 广东机电职业技术学院 | 一种机器人全程自主探索导航实现slam技术的方法 |
CN113607051A (zh) * | 2021-07-24 | 2021-11-05 | 全图通位置网络有限公司 | 一种非暴露空间数字化数据的采集方法、系统及存储介质 |
CN113741473A (zh) * | 2021-09-13 | 2021-12-03 | 深圳本云国际发展有限公司 | 光触媒移动机器人及地图构建方法 |
CN114034343A (zh) * | 2021-11-11 | 2022-02-11 | 珠海惠中智能技术有限公司 | 一种基于机器人的环境多模信息综合分析系统 |
TWI756844B (zh) * | 2020-09-25 | 2022-03-01 | 財團法人工業技術研究院 | 自走車導航裝置及其方法 |
CN114863075A (zh) * | 2022-07-05 | 2022-08-05 | 深圳市新天泽消防工程有限公司 | 基于多传感器的消防疏散路径规划方法、装置、设备 |
CN115107057A (zh) * | 2022-08-12 | 2022-09-27 | 广东海洋大学 | 一种基于ros和深度视觉的智能养老服务机器人 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002109695A (ja) * | 2000-10-02 | 2002-04-12 | Nissan Motor Co Ltd | 車両の走行路認識装置 |
CN102818567A (zh) * | 2012-08-08 | 2012-12-12 | 浙江大学 | 集合卡尔曼滤波-粒子滤波相结合的auv组合导航方法 |
CN105467838A (zh) * | 2015-11-10 | 2016-04-06 | 山西大学 | 一种随机有限集框架下的同步定位与地图构建方法 |
CN105698807A (zh) * | 2016-02-01 | 2016-06-22 | 郑州金惠计算机系统工程有限公司 | 一种适用于变电站智能巡检机器人的激光导航系统 |
CN105823478A (zh) * | 2016-03-14 | 2016-08-03 | 武汉卓拔科技有限公司 | 一种自主避障导航信息共享和使用方法 |
CN105843223A (zh) * | 2016-03-23 | 2016-08-10 | 东南大学 | 一种基于空间词袋模型的移动机器人三维建图与避障方法 |
CN105911518A (zh) * | 2016-03-31 | 2016-08-31 | 山东大学 | 机器人定位方法 |
-
2016
- 2016-11-10 CN CN201611006340.0A patent/CN108073167A/zh not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002109695A (ja) * | 2000-10-02 | 2002-04-12 | Nissan Motor Co Ltd | 車両の走行路認識装置 |
CN102818567A (zh) * | 2012-08-08 | 2012-12-12 | 浙江大学 | 集合卡尔曼滤波-粒子滤波相结合的auv组合导航方法 |
CN105467838A (zh) * | 2015-11-10 | 2016-04-06 | 山西大学 | 一种随机有限集框架下的同步定位与地图构建方法 |
CN105698807A (zh) * | 2016-02-01 | 2016-06-22 | 郑州金惠计算机系统工程有限公司 | 一种适用于变电站智能巡检机器人的激光导航系统 |
CN105823478A (zh) * | 2016-03-14 | 2016-08-03 | 武汉卓拔科技有限公司 | 一种自主避障导航信息共享和使用方法 |
CN105843223A (zh) * | 2016-03-23 | 2016-08-10 | 东南大学 | 一种基于空间词袋模型的移动机器人三维建图与避障方法 |
CN105911518A (zh) * | 2016-03-31 | 2016-08-31 | 山东大学 | 机器人定位方法 |
Non-Patent Citations (2)
Title |
---|
苏中等: "《仿生蛇形机器人技术》", 31 December 2015 * |
闵华松等: "融合IMU的RGBD-SLAM算法改进研究", 《计算机工程与设计》 * |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109029450A (zh) * | 2018-06-26 | 2018-12-18 | 重庆市勘测院 | 一种室内定位方法 |
CN109116397A (zh) * | 2018-07-25 | 2019-01-01 | 吉林大学 | 一种车载多相机视觉定位方法、装置、设备及存储介质 |
CN109116397B (zh) * | 2018-07-25 | 2022-12-30 | 吉林大学 | 一种车载多相机视觉定位方法、装置、设备及存储介质 |
CN110858328B (zh) * | 2018-08-06 | 2022-06-14 | 纳恩博(北京)科技有限公司 | 用于模仿学习的数据采集方法、装置及存储介质 |
CN110858328A (zh) * | 2018-08-06 | 2020-03-03 | 纳恩博(北京)科技有限公司 | 用于模仿学习的数据采集方法、装置及存储介质 |
CN109445441A (zh) * | 2018-12-14 | 2019-03-08 | 上海安吉四维信息技术有限公司 | 3d激光导航系统、自动引导运输车及工作方法 |
CN111380515A (zh) * | 2018-12-29 | 2020-07-07 | 纳恩博(常州)科技有限公司 | 定位方法及装置、存储介质、电子装置 |
CN111380515B (zh) * | 2018-12-29 | 2023-08-18 | 纳恩博(常州)科技有限公司 | 定位方法及装置、存储介质、电子装置 |
CN111679661A (zh) * | 2019-02-25 | 2020-09-18 | 北京奇虎科技有限公司 | 基于深度相机的语义地图构建方法及扫地机器人 |
CN111609853A (zh) * | 2019-02-25 | 2020-09-01 | 北京奇虎科技有限公司 | 三维地图构建方法、扫地机器人及电子设备 |
CN111679663A (zh) * | 2019-02-25 | 2020-09-18 | 北京奇虎科技有限公司 | 三维地图构建方法、扫地机器人及电子设备 |
CN111679664A (zh) * | 2019-02-25 | 2020-09-18 | 北京奇虎科技有限公司 | 基于深度相机的三维地图构建方法及扫地机器人 |
CN111665826A (zh) * | 2019-03-06 | 2020-09-15 | 北京奇虎科技有限公司 | 基于激光雷达与单目相机的深度图获取方法及扫地机器人 |
CN109947097A (zh) * | 2019-03-06 | 2019-06-28 | 东南大学 | 一种基于视觉和激光融合的机器人定位方法及导航应用 |
CN109947097B (zh) * | 2019-03-06 | 2021-11-02 | 东南大学 | 一种基于视觉和激光融合的机器人定位方法及导航应用 |
CN111678534A (zh) * | 2019-03-11 | 2020-09-18 | 武汉小狮科技有限公司 | 一种结合rgbd双目深度相机、imu和多线激光雷达的联合标定平台和方法 |
CN110428467A (zh) * | 2019-07-30 | 2019-11-08 | 四川大学 | 一种相机、imu和激光雷达联合的机器人定位方法 |
TWI742554B (zh) * | 2019-09-26 | 2021-10-11 | 大陸商上海商湯智能科技有限公司 | 定位方法、路徑確定方法、機器人及儲存介質 |
CN110530372A (zh) * | 2019-09-26 | 2019-12-03 | 上海商汤智能科技有限公司 | 定位方法、路径确定方法、装置、机器人及存储介质 |
CN110530372B (zh) * | 2019-09-26 | 2021-06-22 | 上海商汤智能科技有限公司 | 定位方法、路径确定方法、装置、机器人及存储介质 |
CN112578778A (zh) * | 2019-09-27 | 2021-03-30 | 上海尊颐智能科技有限公司 | 一种机能辅助装置的导航控制方法及导航系统 |
WO2021147546A1 (zh) * | 2020-01-20 | 2021-07-29 | 深圳市普渡科技有限公司 | 多传感器融合slam系统、多传感器融合方法及机器人、介质 |
WO2021254367A1 (zh) * | 2020-06-18 | 2021-12-23 | 京东科技信息技术有限公司 | 机器人系统及定位导航方法 |
CN111531549A (zh) * | 2020-06-18 | 2020-08-14 | 北京海益同展信息科技有限公司 | 一种机器人系统及定位导航方法 |
CN112045655A (zh) * | 2020-08-14 | 2020-12-08 | 华中科技大学 | 用于大尺度多站点场景的移动机器人位姿测量方法及系统 |
US11636612B2 (en) | 2020-09-25 | 2023-04-25 | Industrial Technology Research Institute | Automated guided vehicle navigation device and method thereof |
TWI756844B (zh) * | 2020-09-25 | 2022-03-01 | 財團法人工業技術研究院 | 自走車導航裝置及其方法 |
CN113219492A (zh) * | 2021-03-30 | 2021-08-06 | 苏州市卫航智能技术有限公司 | 一种河道船舶行驶定位导航的方法及系统 |
CN113253297B (zh) * | 2021-06-21 | 2021-09-17 | 中国人民解放军国防科技大学 | 融合激光雷达和深度相机的地图构建方法及装置 |
CN113253297A (zh) * | 2021-06-21 | 2021-08-13 | 中国人民解放军国防科技大学 | 融合激光雷达和深度相机的地图构建方法及装置 |
CN113390409A (zh) * | 2021-07-09 | 2021-09-14 | 广东机电职业技术学院 | 一种机器人全程自主探索导航实现slam技术的方法 |
CN113607051A (zh) * | 2021-07-24 | 2021-11-05 | 全图通位置网络有限公司 | 一种非暴露空间数字化数据的采集方法、系统及存储介质 |
CN113607051B (zh) * | 2021-07-24 | 2023-12-12 | 全图通位置网络有限公司 | 一种非暴露空间数字化数据的采集方法、系统及存储介质 |
CN113741473A (zh) * | 2021-09-13 | 2021-12-03 | 深圳本云国际发展有限公司 | 光触媒移动机器人及地图构建方法 |
CN114034343A (zh) * | 2021-11-11 | 2022-02-11 | 珠海惠中智能技术有限公司 | 一种基于机器人的环境多模信息综合分析系统 |
CN114863075A (zh) * | 2022-07-05 | 2022-08-05 | 深圳市新天泽消防工程有限公司 | 基于多传感器的消防疏散路径规划方法、装置、设备 |
CN114863075B (zh) * | 2022-07-05 | 2022-10-14 | 深圳市新天泽消防工程有限公司 | 基于多传感器的消防疏散路径规划方法、装置、设备 |
CN115107057A (zh) * | 2022-08-12 | 2022-09-27 | 广东海洋大学 | 一种基于ros和深度视觉的智能养老服务机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108073167A (zh) | 一种基于深度相机与激光雷达的定位与导航方法 | |
US20210064024A1 (en) | Scanning environments and tracking unmanned aerial vehicles | |
WO2022021739A1 (zh) | 一种语义智能变电站机器人仿人巡视作业方法及系统 | |
JP6896077B2 (ja) | 車両自動パーキングシステム及び方法 | |
CN108051002B (zh) | 基于惯性测量辅助视觉的运输车空间定位方法及系统 | |
CN107655473B (zh) | 基于slam技术的航天器相对自主导航系统 | |
TWI827649B (zh) | 用於vslam比例估計的設備、系統和方法 | |
CN108290294B (zh) | 移动机器人及其控制方法 | |
CN109599945A (zh) | 一种智慧电厂自主巡检机器人巡检系统及方法 | |
CN208255717U (zh) | 物流机器人 | |
CN110275538A (zh) | 智能巡航车导航方法及系统 | |
KR102096875B1 (ko) | 자율 주행 기술을 응용한 3차원 실내 정밀 지도 자동 생성 로봇 및 로봇의 제어 방법 | |
CN111123911B (zh) | 一种腿足式智能星表探测机器人感知系统及其工作方法 | |
CN114474061B (zh) | 基于云服务的机器人多传感器融合定位导航系统及方法 | |
CN111033561A (zh) | 用于利用语义信息来导航机器人设备的系统和方法 | |
CN111061266A (zh) | 一种实时场景分析和空间避障的夜间值守机器人 | |
CN104217439A (zh) | 一种室内视觉定位系统及方法 | |
CN104854428A (zh) | 传感器融合 | |
WO2018228254A1 (zh) | 一种移动电子设备以及该移动电子设备中的方法 | |
CN111263308A (zh) | 定位数据采集方法及系统 | |
KR102112162B1 (ko) | 자율 주행 기술을 응용한 3차원 실내 정밀 지도 자동 생성 로봇 및 로봇의 제어 방법 | |
Johnson | Vision-assisted control of a hovering air vehicle in an indoor setting | |
CN206833252U (zh) | 一种移动电子设备 | |
CN113093759A (zh) | 基于多传感器信息融合的机器人编队构造方法及系统 | |
CN116352722A (zh) | 多传感器融合的矿山巡检救援机器人及其控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180525 |
|
WW01 | Invention patent application withdrawn after publication |