CN110631586A - 基于视觉slam的地图构建的方法、导航系统及装置 - Google Patents
基于视觉slam的地图构建的方法、导航系统及装置 Download PDFInfo
- Publication number
- CN110631586A CN110631586A CN201910919739.5A CN201910919739A CN110631586A CN 110631586 A CN110631586 A CN 110631586A CN 201910919739 A CN201910919739 A CN 201910919739A CN 110631586 A CN110631586 A CN 110631586A
- Authority
- CN
- China
- Prior art keywords
- image data
- screen image
- view screen
- point cloud
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Abstract
本发明公开一种基于视觉SLAM的地图构建的方法,其中,所述地图构建方法包括以下步骤:获取当前位置视屏图像数据与目标位置视屏图像数据;识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离;根据各所述点云之间的距离构建点云地图,以便于移动机器人的定位、避障、自主导航以及三维重建和人机交互。本发明还公开了一种基于视觉SLAM及网络地图结合的导航系统和具有存储功能的装置。
Description
技术领域
本发明涉及智能机器人领域,特别涉及一种基于视觉SLAM的地图构建的方法、导航系统及装置。
背景技术
同时定位与地图创建(Simultaneous Localization and Mapping,SLAM)是实现机器人智能感知的一种重要方式,主要解决的是,在未知环境中,移动机器人通过自身搭载的传感器获取环境信息,并在运动过程中不断估计自身的位姿,同时对其周围环境创建地图,也就是说SLAM主要用于解决移动机器人的“定位”和“地图创建”,移动机器人一方面需要知道自己当前在地图的什么位置(定位),另一方面又需要创建周围环境的地图(地图创建),其中,只通过相机获取环境信息的SLAM被称为视觉SLAM,视觉SLAM创建的三维地图的最基本的功能应该是机器人的导航以及在机器人执行任务时用于路径规划和障碍躲避,然而,当前视觉SLAM创建的地图还不能很好地用于移动机器人理解环境和执行任务,更不用说帮助人类理解未知环境。
发明内容
本发明的主要目的是提出一种基于视觉SLAM的地图构建的方法,旨在提高移动机器人的定位、避障、自主导航的智能化水平。具体方案如下:
一种基于视觉SLAM的地图构建的方法,所述地图构建方法包括以下步骤:获取当前位置视屏图像数据与目标位置视屏图像数据;识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离;根据各所述点云之间的距离构建点云地图。
可选地,所述根据各所述点云之间的距离构建点云地图的步骤之后包括:获取回环检测数据;根据所述回环检测数据调整所述点云地图。
可选地,所述获取当前位置视屏图像数据与目标位置视屏图像数据的步骤之后包括:根据所述当前位置视屏图像数据与所述目标位置视屏图像数据的获取相对运动点云。
可选地,所述根据所述当前位置视屏图像数据与所述目标位置视屏图像数据的获取相对运动点云的步骤包括:根据所述当前位置视屏图像数据与所述目标位置视屏图像数据获取当前位置与目标位置的点特征与线特征;根据获取的所述点特征与线特征得出相对运动点云。
可选地,所述根据所述当前位置视屏图像数据与所述目标位置视屏图像数据获取当前位置与目标位置的点特征与线特征的步骤包括:根据所述当前位置视屏图像数据与所述目标位置视屏图像数据选取关键帧;根据所述关键帧提取点特征和线特征。
可选地,所述根据各所述点云之间的距离构建点云地图的步骤包括:根据提取的所述点特征和线特征构建运动轨迹。
可选地,所述根据所述当前位置视屏图像数据与所述目标位置视屏图像数据选取关键帧的步骤之后包括:当新的图像帧上的特征块数量小于一定阈值时,则该帧作为新的关键帧。
可选地,所述识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离的步骤包括:获取惯性移动数据;根据所述当前位置视屏图像数据与所述目标位置视屏图像数据、惯性移动数据以及所述相对运动点云计算各所述视觉标定点之间的距离。
一种基于视觉SLAM及网络地图结合的导航系统,所述导航系统包括:数据通信处理模块、视觉采集模块、识别模块、距离获取模块与位置估计模块,所述数据通信处理模块分别连接所述视觉采集模块、所述识别模块、所述距离获取模块以及所述位置估计模块,所述视觉采集模块、所述识别模块、所述距离获取模块以及所述位置估计模块在工作时能够实现如上所述基于视觉SLAM的地图构建的方法中的步骤。
一种具有存储功能的装置,其上存储有程序数据,所述程序数据被处理器执行时实现如上所述基于视觉SLAM的地图构建的方法中的步骤。
本发明技术方案在基于视觉的同步定位与地图构建运行过程中,通过获取当前位置的视屏图像数据与目标位置的视屏图像数据,识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离,进而推算出当前位置与目标位置的距离和方位,并构建点云地图,以便于移动机器人的定位、避障、自主导航以及三维重建和人机交互。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明实施例方案涉及的硬件运行环境的终端结构示意图;
图2为本发明基于视觉SLAM的地图构建的方法第一实施例的流程示意图;
图3为本发明基于视觉SLAM的地图构建的方法第二实施例的流程示意图;
图4为本发明基于视觉SLAM的地图构建的方法第三实施例的流程示意图;
图5为本发明基于视觉SLAM的地图构建的方法第四实施例的流程示意图;
图6为本发明基于视觉SLAM的地图构建的方法第五实施例的流程示意图;
图7为本发明基于视觉SLAM的地图构建的方法第六实施例的流程示意图;
图8为本发明基于视觉SLAM的地图构建的方法第七实施例的流程示意图;
图9为本发明基于视觉SLAM的地图构建的方法第八实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的主要解决方案是:在基于视觉的同步定位与地图构建运行过程中,通过获取当前位置的视屏图像数据与目标位置的视屏图像数据,识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离,进而推算出当前位置与目标位置的距离和方位,并构建点云地图,以便于移动机器人的定位、避障、自主导航以及三维重建和人机交互。
由于现有技术中,移动机器人一方面需要知道自己当前在地图的什么位置(定位),另一方面又需要创建周围环境的地图(地图创建),其中,只通过相机获取环境信息的SLAM被称为视觉SLAM,视觉SLAM创建的三维地图的最基本的功能应该是机器人的导航以及在机器人执行任务时用于路径规划和障碍躲避,然而,当前视觉SLAM创建的地图还不能很好地用于移动机器人理解环境和执行任务,更不用说帮助人类理解未知环境。
本发明提供一种解决方案,获取当前位置的视屏图像数据与目标位置的视屏图像数据,识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离,进而推算出当前位置与目标位置的距离和方位,并构建点云地图,以便于移动机器人的定位、避障、自主导航以及三维重建和人机交互。
如图1所示,图1是本发明实施例方案涉及的终端的硬件运行环境示意图。
如图1所示,该终端可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard)、遥控器,可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的终端的结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于视觉SLAM的地图构建的方法的控制程序。
在图1所示的终端中,网络接口1004主要用于连接后台服务器,与后台服务器进行数据通信;用户接口1003主要用于连接客户端(用户端),与客户端进行数据通信;而处理器1001可以用于调用存储器1005中存储的基于视觉SLAM的地图构建的方法的控制程序,并执行以下操作:在接收到通过预设控件触发的操作执行指令时,获取所述预设控件对应的操作路径。
进一步地,处理器1001可以调用存储器1005中存储的基于视觉SLAM的地图构建的方法的控制程序,还执行以下操作。
本发明提供一种基于视觉SLAM的地图构建的方法。
参照图2,图2为本发明基于视觉SLAM的地图构建的方法第一实施例的流程示意图。
本实施例提出一种基于视觉SLAM的地图构建的方法,该基于视觉SLAM的地图构建的方法包括:步骤S10,获取当前位置视屏图像数据与目标位置视屏图像数据;步骤S20,识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离;步骤S30,根据各所述点云之间的距离构建点云地图。
于本实施例中,目标位置为机器人将要到达的位置,其中,目标位置的物体的形状包括但不限于为方形、圆形、三角形或菱形中的任一种或多种组合。通过相机拍摄当前位置的视屏图像数据与目标位置的视屏图像数据。
由于获取了当前位置的视屏图像数据与目标位置的视屏图像数据,处理器根据当前位置的视屏图像数据进行当前位置标定点,处理器根据目标位置的视屏图像数据进行目标位置标定点,将当前位置的当前位置标定点与目标位置标定点整合形成点云数据,在处理器识别所述图像数据中的视觉标定点之后,可以获取任意两个所述视觉标定点之间的距离。
由于相机内部参数(焦距,畸变参数)已知,在根据识别出的所述视觉标定点在拍摄到图像中的位置,处理器识别出超过三个视觉标定点,可以使用计算视觉算法直接推算出相机离目标位置的距离和方位。
具体地,以目标位置作为坐标系,长边为X轴,短边为Y轴,重力轴为Z轴。视觉标定点A,B,C,D在世界坐标系下的位置记为(x1,y1,z1),…,(x4,y4,z4),在相片中的位置记为(u1,v1),…,(u4,v4),将两组点和相机内参作为输入,可以使用OpenCV开源算法中的calib3d模块下的solvePnP函数计算出相机的距离方位,该问题为计算视觉领域已经解决的Perspective-n-Point问题,是本领域技术人员早已掌握的技术手段,在此不再详述。
本实施例技术方案实现了对视觉SLAM的补充和完善,能够创建出环境的认知点云地图,可以用于实现移动机器人的定位、避障、自主导航以及三维重建和人机交互。
进一步地,参照图3,基于第一实施例提出本发明第二实施例,在本实施例中,所述根据各所述点云之间的距离构建点云地图的步骤之后包括:步骤S40,获取回环检测数据;步骤S50,根据所述回环检测数据调整所述点云地图。
本实施例技术方案实现了对视觉SLAM的补充和完善,能够校准认知点云地图,增加移动机器人运动的准确性。
进一步地,参照图4,基于上述实施例提出本发明第三实施例,在本实施例中,所述获取当前位置视屏图像数据与目标位置视屏图像数据的步骤之后包括:步骤S60,根据所述当前位置视屏图像数据与所述目标位置视屏图像数据的获取相对运动点云。
本实施例技术方案实现了图像数据的点云处理,处理的点云信息包含直接的几何关系,使得机器人的路径规划和导航变得直观。
进一步地,参照图5,基于上述实施例提出本发明第四实施例,在本实施例中,所述根据所述当前位置视屏图像数据与所述目标位置视屏图像数据的获取相对运动点云的步骤包括:步骤S61,根据所述当前位置视屏图像数据与所述目标位置视屏图像数据获取当前位置与目标位置的点特征与线特征;步骤S62,根据获取的所述点特征与线特征得出相对运动点云。
本实施例技术方案实现了对视觉SLAM的补充和完善,能够创建出环境的认知点云地图,可以用于实现移动机器人的定位、避障、自主导航以及三维重建和人机交互。
进一步地,参照图6,基于上述实施例提出本发明第五实施例,在本实施例中,所述根据所述当前位置视屏图像数据与所述目标位置视屏图像数据获取当前位置与目标位置的点特征与线特征的步骤包括:步骤S611,根据所述当前位置视屏图像数据与所述目标位置视屏图像数据选取关键帧;步骤S612,根据所述关键帧提取点特征和线特征。
本实施例技术方案实现了对视觉SLAM的补充和完善,能够创建出环境的认知点云地图,可以用于实现移动机器人的定位、避障、自主导航以及三维重建和人机交互。
进一步地,参照图7,基于上述实施例提出本发明第六实施例,在本实施例中,所述根据各所述点云之间的距离构建点云地图的步骤包括:步骤S31,根据提取的所述点特征和线特征构建运动轨迹。
本实施例技术方案实现了对视觉SLAM的补充和完善,能够创建出环境的认知点云地图,可以用于实现移动机器人的定位、避障、自主导航以及三维重建和人机交互。
进一步地,参照图8,基于上述实施例提出本发明第七实施例,在本实施例中,所述根据所述当前位置视屏图像数据与所述目标位置视屏图像数据选取关键帧的步骤之后还包括:步骤S613,当新的图像帧上的特征块数量小于一定阈值时,则该帧作为新的关键帧。
本实施例技术方案实现了对视觉SLAM的补充和完善,能够创建出环境的认知点云地图,可以用于实现移动机器人的定位、避障、自主导航以及三维重建和人机交互。
进一步地,参照图9,基于上述实施例提出本发明第八实施例,在本实施例中,所述识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离的步骤包括:步骤S21,获取惯性移动数据;步骤S22,根据所述当前位置视屏图像数据与所述目标位置视屏图像数据、惯性移动数据以及所述相对运动点云计算各所述视觉标定点之间的距离。
本实施例技术方案实现了对视觉SLAM的补充和完善,能够创建出环境的认知点云地图,可以用于实现移动机器人的定位、避障、自主导航以及三维重建和人机交互。
本发明还提出一种基于视觉SLAM及网络地图结合的导航系统,所述导航系统包括:数据通信处理模块、视觉采集模块、识别模块、距离获取模块与位置估计模块,所述数据通信处理模块分别连接所述视觉采集模块、所述识别模块、所述距离获取模块以及所述位置估计模块,所述视觉采集模块、所述识别模块、所述距离获取模块以及所述位置估计模块在工作时能够实现如上所述基于视觉SLAM的地图构建的方法中的步骤。
本发明还提出一种具有存储功能的装置,该装置上存储有程序数据,程序数据被处理器执行时实现任一项实施例中基于视觉SLAM的地图构建的方法中的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者处理器不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者处理器所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者处理器中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是液晶电视、液晶显示屏等)执行本发明各个实施例所述的方法。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (10)
1.一种基于视觉SLAM的地图构建的方法,其特征在于,所述地图构建方法包括以下步骤:
获取当前位置视屏图像数据与目标位置视屏图像数据;
识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离;
根据各所述点云之间的距离构建点云地图。
2.如权利要求1所述的基于视觉SLAM的地图构建的方法,其特征在于,所述根据各所述点云之间的距离构建点云地图的步骤之后包括:
获取回环检测数据;
根据所述回环检测数据调整所述点云地图。
3.如权利要求1所述的基于视觉SLAM的地图构建的方法,其特征在于,所述获取当前位置视屏图像数据与目标位置视屏图像数据的步骤之后包括:
根据所述当前位置视屏图像数据与所述目标位置视屏图像数据的获取相对运动点云。
4.如权利要求3所述的基于视觉SLAM的地图构建的方法,其特征在于,所述根据所述当前位置视屏图像数据与所述目标位置视屏图像数据的获取相对运动点云的步骤包括:
根据所述当前位置视屏图像数据与所述目标位置视屏图像数据获取当前位置与目标位置的点特征与线特征;
根据获取的所述点特征与线特征得出相对运动点云。
5.如权利要求4所述的基于视觉SLAM的地图构建的方法,其特征在于,所述根据所述当前位置视屏图像数据与所述目标位置视屏图像数据获取当前位置与目标位置的点特征与线特征的步骤包括:
根据所述当前位置视屏图像数据与所述目标位置视屏图像数据选取关键帧;
根据所述关键帧提取点特征和线特征。
6.如权利要求5所述的基于视觉SLAM的地图构建的方法,其特征在于,所述根据各所述点云之间的距离构建点云地图的步骤包括:
根据提取的所述点特征和线特征构建运动轨迹。
7.如权利要求5所述的基于视觉SLAM的地图构建的方法,其特征在于,所述根据所述当前位置视屏图像数据与所述目标位置视屏图像数据选取关键帧的步骤之后包括:
当新的图像帧上的特征块数量小于一定阈值时,则该帧作为新的关键帧。
8.如权利要求1所述的基于视觉SLAM的地图构建的方法,其特征在于,所述识别所述当前位置视屏图像数据与所述目标位置视屏图像数据的点云数据,并获取各所述当前视屏图像数据的点云与所述目标视屏图像数据的点云之间的距离的步骤包括:
获取惯性移动数据;
根据所述当前位置视屏图像数据与所述目标位置视屏图像数据、惯性移动数据以及所述相对运动点云计算各所述视觉标定点之间的距离。
9.一种基于视觉SLAM及网络地图结合的导航系统,其特征在于,所述导航系统包括:数据通信处理模块、视觉采集模块、识别模块、距离获取模块与位置估计模块,所述数据通信处理模块分别连接所述视觉采集模块、所述识别模块、所述距离获取模块以及所述位置估计模块,所述视觉采集模块、所述识别模块、所述距离获取模块以及所述位置估计模块在工作时能够实现如权利要求1-8任一项所述基于视觉SLAM的地图构建的方法中的步骤。
10.一种具有存储功能的装置,其上存储有程序数据,其特征在于,所述程序数据被处理器执行时实现如权利要求1-8任一项所述基于视觉SLAM的地图构建的方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910919739.5A CN110631586A (zh) | 2019-09-26 | 2019-09-26 | 基于视觉slam的地图构建的方法、导航系统及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910919739.5A CN110631586A (zh) | 2019-09-26 | 2019-09-26 | 基于视觉slam的地图构建的方法、导航系统及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110631586A true CN110631586A (zh) | 2019-12-31 |
Family
ID=68974355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910919739.5A Pending CN110631586A (zh) | 2019-09-26 | 2019-09-26 | 基于视觉slam的地图构建的方法、导航系统及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110631586A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112734841A (zh) * | 2020-12-31 | 2021-04-30 | 华南理工大学 | 一种用轮式里程计-imu和单目相机实现定位的方法 |
WO2022000755A1 (zh) * | 2020-06-29 | 2022-01-06 | 济南浪潮高新科技投资发展有限公司 | 机器人及其行动控制方法、装置和计算机可读存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103453901A (zh) * | 2013-06-27 | 2013-12-18 | 展讯通信(上海)有限公司 | 一种位置指引系统及位置指引方法 |
CN108460801A (zh) * | 2017-06-12 | 2018-08-28 | 炬大科技有限公司 | 一种通过图像识别方式达成室内任务目标位置确定的系统和方法 |
CN109307508A (zh) * | 2018-08-29 | 2019-02-05 | 中国科学院合肥物质科学研究院 | 一种基于多关键帧的全景惯导slam方法 |
US20190094028A1 (en) * | 2017-09-28 | 2019-03-28 | Baidu Usa Llc | Systems and methods to accommodate state transitions in mapping |
CN109767452A (zh) * | 2018-12-24 | 2019-05-17 | 深圳市道通智能航空技术有限公司 | 一种目标定位方法和装置、无人机 |
CN109974721A (zh) * | 2019-01-08 | 2019-07-05 | 武汉中海庭数据技术有限公司 | 一种基于高精度地图的视觉回环检测方法和装置 |
CN110060277A (zh) * | 2019-04-30 | 2019-07-26 | 哈尔滨理工大学 | 一种多特征融合的视觉slam方法 |
CN110082781A (zh) * | 2019-05-20 | 2019-08-02 | 东北大学秦皇岛分校 | 基于slam技术与图像识别的火源定位方法及系统 |
-
2019
- 2019-09-26 CN CN201910919739.5A patent/CN110631586A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103453901A (zh) * | 2013-06-27 | 2013-12-18 | 展讯通信(上海)有限公司 | 一种位置指引系统及位置指引方法 |
CN108460801A (zh) * | 2017-06-12 | 2018-08-28 | 炬大科技有限公司 | 一种通过图像识别方式达成室内任务目标位置确定的系统和方法 |
US20190094028A1 (en) * | 2017-09-28 | 2019-03-28 | Baidu Usa Llc | Systems and methods to accommodate state transitions in mapping |
CN109307508A (zh) * | 2018-08-29 | 2019-02-05 | 中国科学院合肥物质科学研究院 | 一种基于多关键帧的全景惯导slam方法 |
CN109767452A (zh) * | 2018-12-24 | 2019-05-17 | 深圳市道通智能航空技术有限公司 | 一种目标定位方法和装置、无人机 |
CN109974721A (zh) * | 2019-01-08 | 2019-07-05 | 武汉中海庭数据技术有限公司 | 一种基于高精度地图的视觉回环检测方法和装置 |
CN110060277A (zh) * | 2019-04-30 | 2019-07-26 | 哈尔滨理工大学 | 一种多特征融合的视觉slam方法 |
CN110082781A (zh) * | 2019-05-20 | 2019-08-02 | 东北大学秦皇岛分校 | 基于slam技术与图像识别的火源定位方法及系统 |
Non-Patent Citations (1)
Title |
---|
易诗: "《信息工程专业机器人创新实验设计》", 31 August 2017 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022000755A1 (zh) * | 2020-06-29 | 2022-01-06 | 济南浪潮高新科技投资发展有限公司 | 机器人及其行动控制方法、装置和计算机可读存储介质 |
CN112734841A (zh) * | 2020-12-31 | 2021-04-30 | 华南理工大学 | 一种用轮式里程计-imu和单目相机实现定位的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111442722B (zh) | 定位方法、装置、存储介质及电子设备 | |
CN107990899B (zh) | 一种基于slam的定位方法和系统 | |
CN111325796B (zh) | 用于确定视觉设备的位姿的方法和装置 | |
CN111694903B (zh) | 地图构建方法、装置、设备以及可读存储介质 | |
CN106959691B (zh) | 可移动电子设备和即时定位与地图构建方法 | |
US10046459B2 (en) | Three-dimensional visual servoing for robot positioning | |
CN107748569B (zh) | 用于无人机的运动控制方法、装置及无人机系统 | |
KR20220028042A (ko) | 포즈 결정 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
WO2022193508A1 (zh) | 位姿优化方法、装置、电子设备、计算机可读存储介质、计算机程序及程序产品 | |
CN112556685B (zh) | 导航路线的显示方法、装置和存储介质及电子设备 | |
CN111805535B (zh) | 一种定位导航方法、装置以及计算机存储介质 | |
CN110134117B (zh) | 一种移动机器人重定位方法、移动机器人及电子设备 | |
WO2021027967A1 (zh) | 一种路线确定方法、可行进设备、和存储介质 | |
CN115578433B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113910224B (zh) | 机器人跟随的方法、装置及电子设备 | |
CN111476894A (zh) | 三维语义地图构建方法、装置、存储介质及电子设备 | |
WO2020114214A1 (zh) | 导盲方法和装置,存储介质和电子设备 | |
CN110631586A (zh) | 基于视觉slam的地图构建的方法、导航系统及装置 | |
JP7351892B2 (ja) | 障害物検出方法、電子機器、路側機器、及びクラウド制御プラットフォーム | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
US9030501B2 (en) | Methods and systems for modifying a display of a field of view of a robotic device to include zoomed-in and zoomed-out views | |
CN112162561A (zh) | 一种地图构建优化方法、装置、介质及设备 | |
CN109993834B (zh) | 目标物体在虚拟空间中的定位方法及装置 | |
CN114266876B (zh) | 定位方法、视觉地图的生成方法及其装置 | |
JP6603993B2 (ja) | 画像処理装置、画像処理方法、画像処理システム、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191231 |
|
RJ01 | Rejection of invention patent application after publication |