CN109579843B - 一种空地多视角下的多机器人协同定位及融合建图方法 - Google Patents
一种空地多视角下的多机器人协同定位及融合建图方法 Download PDFInfo
- Publication number
- CN109579843B CN109579843B CN201811444561.5A CN201811444561A CN109579843B CN 109579843 B CN109579843 B CN 109579843B CN 201811444561 A CN201811444561 A CN 201811444561A CN 109579843 B CN109579843 B CN 109579843B
- Authority
- CN
- China
- Prior art keywords
- robot
- map
- dimensional
- pose
- dimensional code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
- G06K7/10—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
- G06K7/14—Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
- G06K7/1404—Methods for optical code recognition
- G06K7/1408—Methods for optical code recognition the method being specifically adapted for the type of code
- G06K7/1417—2D bar codes
Abstract
本发明公开了一种空地多视角下的多机器人协同定位及融合建图方法,使用空中、地面多视角完整覆盖探测场景,融合由空中机器人、地面机器人采集的场景图像数据,通过视觉约束定位各机器人并还原三维场景信息。通过附着于机器人上的特定视觉特征,优化建图和定位系统三维点云地图和机器人六自由度位姿。基于视觉特征的位姿优化、地图融合算法显著地提高了的重建和定位精度,修正了地图尺度,使得各机器人的局部地图能够在多个异构机器人间共享,提高了三维重建的覆盖率,为任务规划、灾难环境搜救、军事反恐等情景快速提供可靠的环境信息。
Description
技术领域
本发明属于计算机视觉技术领域,尤其涉及空地多视角下的多机器人协同定位及融合建图方法,适用于复杂场景下三维点云地图的构建、多机器人协同定位、自动任务规划、无人机测绘等技术领域。
背景技术
同时定位和建图(SLAM)技术近年来得到广泛而深入的研究,但是多机器人、跨视场的协同定位和建图问题一直没有很好地被解决。在协同定位方面,多机器人之间的相对位姿校正和信息感知成为一个难点,在建图过程中,机器人无法得知场景中的结构先验信息,地图构建主要靠机器人在场景中的运动完成,而机器人间的相对位姿关系在地图融合过程中起到关键作用。现有技术通过差分GPS等技术手段获得机器人相对位置关系从而使得机器人之间得以相对定位。
三维地图直观地反映了三维空间中的环境特征,所以三维地图作为三维环境的重要特征之一,一直以来都是国内外研究人员的研究重点。如果可以对三维场景进行结构的重建,就可以恢复场景信息,为人工智能设备对三维场景的理解和探索提供了直接信息。分散于环境中的多个机器人,通过通信和协作,可以使得整个系统在重建和定位的速度和精度都有较大提升。
三维重建问题就是确定某一三维环境的空间结构问题。三维重建估计在机器人视觉、场景理解和自动任务规划、自动路径规划等很多领域都有应用。随着计算机视觉技术的广泛应用,在场景环境固定的情况下,自由运动的相机拍摄场景,并对环境三维结构信息做出估计,已经成为一个重要的研究方向。目前现有技术在三维重建问题上有多种解决方案,例如基于双目相机、深度相机、激光雷达或基于SfM(Structure from Motion)技术来计算三维地图。
目前基于双目相机、深度相机、激光雷达或基于SFM等的单一机器人的方法恢复场景三维结构受视角局限等影响,在复杂场景下,无法完备地恢复场景中的三维信息,同时由于无法统一地图尺度,各机器人创建的地图无法在多个机器人之间共享。而差分GPS等定位方法精度受环境影响大,在有遮蔽的环境中定位精度较低,从而影响协同定位的总体精度,使建图结果出现偏移或形变。
发明内容
针对当前对于复杂环境下单一机器人建图视角受限、无法获取全局地图的问题,本发明借助空中机器人和地面机器人协同建图的空地多视角协同建图和定位方法,旨在高效、鲁棒地解决机器人间地图共享、融合和定位问题。
本发明的目的是提供一种基于多机器人的空地协同定位与建图方法,通过机器人上的标志物辅助定位与建图算法完成初始化,多个机器人维护和创建各自的局部地图,并由运算设备融合各机器人的局部地图形成尺度统一的全局地图并定位各终端在地图中的位置。
为了实现上述目的,本发明技术方案包括如下步骤:
一种空地多视角下的多机器人协同定位及融合建图方法,包括:
步骤1、机器人各自进行初始化,各自建立和维护一张局部地图;
步骤2、机器人检测所获取图像中的附着于其他机器人之上的二维码,将检测到二维码的机器人作为观测机器人,将附着有二维码的机器人作为被观测机器人,计算二维码相对于观测机器人的位姿,并通过二维码中携带的标识获取预先标定的二维码在被观测机器人坐标系下的位姿,计算机器人之间的位姿;
步骤3、通过引入的二维码位姿约束,优化各机器人的地图尺度和轨迹,使用局部光束平差法融合当前的全局地图和对应机器人的局部地图,生成新的全局地图;
步骤4、将全局地图、各机器人的地图尺度和轨迹广播给各机器人,各机器人根据收到的全局地图和轨迹通过局部光束平差法更新当前的局部地图和自身相对于世界坐标系的位姿,并根据地图尺度修正局部地图。
进一步地,所述步骤2,包括:
步骤2.1、观测机器人检测所获取图像中的附着于其他被观测机器人之上的二维码,获取二维码对应的二维码数据;
步骤2.2、提取二维码内部角点在图像平面上的坐标;
步骤2.3、根据二维码数据中印刷尺寸,恢复出二维码内部角点在被观测机器人坐标系下的三维坐标,作为PnP算法的物体原始坐标,求解PnP,获得二维码相对于观测机器人的位姿;
步骤2.4:根据二维码数据中预先标定的二维码在被观测机器人坐标系下的位姿,计算得到机器人之间的位姿。
进一步地,所述引入的二维码位姿约束,包括:机器人的地图尺度、机器人之间的位姿。
进一步地,所述优化各机器人的地图尺度,包括:
其中,si为所求机器人i的地图尺度,根据该值缩放对应机器人局部地图使各机器人的地图尺度统一,其中(·)表示i或m。
进一步地,所述优化各机器人的轨迹,包括:
通过ICP配准统一尺度后的各局部地图形成全局地图,在全局地图中通过最小化如下函数优化机器人i的轨迹:
其中,ρ是损失函数,K为匹配的特征点对,(xk,Xk)为K中的二维点和三维点,π为重投影函数。
本发明提出的一种空地多视角下的多机器人协同定位及融合建图方法,与现有技术相比,本发明的有益效果如下:
空中机器人与地面机器人相互协作,在建筑物内部等空中机器人无法进入的场景可由地面机器人负责建图,同时,空中机器人为地面机器人提供俯视视角,为协同建图提供更多图像特征点,使得生成的三维点云地图更加完备,当无人机视角包含地面机器人时,地面机器人机身附着的二维码提供的附加几何约束可以有效地降低建图误差和定位漂移。并且,计算终端可以根据实时更新优化的全局地图统一规划机器人探索路径和所需执行的任务,合理调度机器人资源,为灾难环境搜救、军事反恐等情景快速提供可靠的环境信息。
附图说明
图1为本发明空地多视角下的多机器人协同定位及融合建图方法流程图;
图2为本发明实施例机器人所附着的二维码示例;
图3为本发明实施例协同定位与建图结果样本。
具体实施方式
下面结合附图和实施例,对本发明进行进一步的说明。应当理解,此处所描述的具体实施示例仅仅用于解释本发明,并不用于限定本发明;附图仅用于示例性说明,不能理解为对本专利的限制;为了更好地说明实施例,附图某些部件可能会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中的某些公知结构及其说明可能省略是可以理解的;附图中描述的位置关系仅用于示例性说明,不能理解为对本专利的限制。
基于空中机器人和地面机器人来实现空地多视角下的多机器人协同定位及融合建图,需要空中机器人、地面机器人和计算终端来联合实现。其中,空中机器人和地面机器人采集和计算本地局部地图,其上安装有用于采集场景视频流的摄像头以及相应的计算硬件设备和必须的控制程序;计算终端用于融合各机器人重建的局部地图以及计算各机器人于全局地图中的位姿。
如图1所示,给出了一种空地多视角下的多机器人协同定位及融合建图方法的实施例,包括如下步骤:
步骤1、机器人各自进行初始化,各自建立和维护一张局部地图。
本实施例在非动态场景下,部署由空中机器人和地面机器人组成的机器人群。各机器人上设置有相机(或者称为摄像头、摄像机等),用于拍摄场景图像。各个机器人上还设置有各自的同时定位和建图系统,可以单独完成各自的同时定位和建图,本实施例将各个机器人建立的地图也称为局部地图。
各个机器人的初始化过程,包括:
步骤1.1、接收相机采集的图像,提取图像特征点。
一般认为,图像像素点与其8邻域差异足够大,该点就是特征点:
其中,I(x)为圆周circle(p)上一点的灰度,I(p)为圆心的灰度,ε为灰度差的阈值,如果N大于给定阈值,则认为p为特征点。
步骤1.2、通过最小化相机帧间重投影误差,求解相机帧间位姿R,t。
相机帧间重投影误差为:
ρ是损失函数,xi和Xi为关键帧和地图中匹配的二维和三维点,π为重投影函数,将空间点根据相机成像规律投影至图像平面。
求解相机帧间位姿R,t的过程即最小化重投影误差,可用最小二乘法求解:
步骤1.3:恢复图像特征点的三维信息。
已知相机内参K的的情况下,在帧间匹配的两个二维关键点的齐次坐标x0=(u0,v0,s0)和x1=(u1,v1,s1)间有如下约束:
其中,相机内参为:
fx和fy分别为相机焦距,cx和cy分别为相机光心的x和y坐标。
在初始化后,持续对每帧图像提取特征点,并根据帧间特征点的匹配信息完成增量建图过程。需要说明的是,各个机器人单独完成各自的同时定位和建图,属于比较成熟的现有技术,本发明对此不做限制。
在各个机器人完成各自的SLAM局部地图后,本实施例通过无线通信手段实时将局部地图更新至计算终端。此外,各机器人还将自身位姿(机器人相对于局部地图世界坐标系下的位姿)上传到计算终端。
步骤2、机器人检测所获取图像中的附着于其他机器人之上的二维码,将检测到二维码的机器人作为观测机器人,将附着有二维码的机器人作为被观测机器人,计算二维码相对于观测机器人的位姿,并通过二维码中携带的标识获取预先标定的二维码在被观测机器人坐标系下的位姿,计算机器人之间的位姿。
本实施例机器人包括空中机器人和地面机器人,在地面机器人上附着有形如图2所示的二维码,其上记载有唯一标识码。空中机器人可以采集到含有地面机器人的图像,地面机器人也可以采集到含有其他地面机器人的图像,在本实施例中将观测到其他机器人上面附着有二维码的机器人称为观测机器人,而将附着有二维码并被其他机器人观测到的机器人称为被观测机器人。
例如,机器人A采集到的图像中含有机器人B,机器人B上附着有二维码,则将机器人A称为观测机器人,而将机器人B称为被观测机器人。而当机器人B采集到的图像中含有机器人C,机器人C上附着有二维码,则将机器人B称为观测机器人,而将机器人C称为被观测机器人。机器人B观测别的机器人时是观测机器人,而在被别的机器人观测到的时候,是被观测机器人。被观测机器人上一定附着有二维码,即一定是地面机器人。
本实施例二维码记载有唯一标识码,本实施例预先设定了关系表,表中包括二维码唯一标识码、机器人编号、二维码在所附着机器人坐标系下的位姿、印刷尺寸。则在获知二维码对应的唯一标识码后,可以查表获取其他信息,即通过查表等方法可以获知该二维码所对应的机器人编号以及预先标定的二维码在所附着机器人坐标系下的位姿、印刷尺寸等二维码数据。
本实施例求解二维码相对于观测机器人的位姿的计算过程,包括:
步骤2.1、观测机器人检测所获取图像中的附着于其他被观测机器人之上的二维码,获取二维码对应的二维码数据。
由于本实施例仅在地面机器人上贴二维码,因此空中机器人、地面机器人在获取图像时,可以检测所获取图像中的附着于其他机器人之上的二维码。在本实施例中空中机器人、地面机器人各自的数量不限,空中机器人所获取图像中如果包括一个地面机器人,则可以检测到该地面机器人上的二维码;同样地面机器人所获取图像中如果包括另一个地面机器人,则可以检测到该另一个地面机器人上的二维码。
使用自适应阈值算法二值化获取的图像,查找图像中的凸四边形,提取四个角点,根据仿射变换将四边形投影至方形图像块内,根据编码规则判断得到二维码对应的唯一标识码,进而通过查表获取二维码数据。
步骤2.2、提取二维码内部角点在图像平面上的坐标。
二维码中内部角点在图像平面上的坐标,可以根据图像的尺寸获取,这里不再赘述。
步骤2.3、根据二维码数据中印刷尺寸,恢复出二维码内部角点在被观测机器人坐标系下的三维坐标,作为PnP算法的物体原始坐标,求解PnP,获得二维码相对于观测机器人的位姿。
在检测到二维码后,容易获得二维码对应的唯一标识码,然后通过查表获得二维码对应的二维码数据,二维码数据中包括印刷尺寸,从而可以恢复出二维码内部角点在被观测机器人坐标系下的三维坐标,作为PnP算法的物体原始坐标。
本实施例通过PnP算法来计算二维码相对于观测机器人的位姿,本实施例将获取图像的机器人也称为观测机器人,将图像中贴有二维码的机器人称为被观测机器人。
步骤2.4:根据二维码数据中预先标定的二维码在被观测机器人坐标系下的位姿,计算得到机器人之间的位姿。
本实施例二维码数据中包括预先标定的二维码在被观测机器人坐标系下的位姿。
机器人之间的位姿计算公式如下:
需要说明的是,本实施例中可以在观测机器人中计算出二维码相对于观测机器人的位姿后,将二维码相对于观测机器人的位姿上传到计算终端,由计算终端计算机器人之间的位姿;也可以直接在观测机器人中计算,如果在观测机器人中计算,则将计算得到的机器人之间的位姿上传到计算终端。此外,机器人还可以检测每帧图像中出现的二维码,提取含有二维码的视频帧传送至统一的计算终端来完成步骤2中的操作。
步骤3、通过引入的二维码位姿约束,优化各机器人的地图尺度和轨迹,使用局部光束平差法融合当前的全局地图和对应机器人的局部地图,生成新的全局地图。
本发明技术方案引入了二维码位姿约束,包括:机器人的地图尺度、机器人之间的位姿。
其中机器人地图尺度sm为真实尺寸与机器人建图尺寸的比值,可由IMU预积分估计得出。机器人地图尺度也可从二维码恢复:求得各二维码内部角点的空间坐标,计算各坐标间的空间距离,通过最小二乘法,求解机器人地图尺度。
式中dmap为地图坐标系下二维码内部角点的空间距离,dtag为世界坐标系真实尺度下二维码内部角点的空间距离。
根据得到的机器人的地图尺度sm,修正其他机器人的局部地图尺度:
上述公式中,si为所求机器人i的地图尺度,根据该值缩放对应机器人局部地图使各机器人的地图尺度统一,其中(·)表示i或m。
通过ICP(Iterative Closest Points)配准统一尺度后的各局部地图形成全局地图,在全局地图中通过最小化如下函数优化机器人i的轨迹:
其中,ρ是损失函数,K为匹配的特征点对,(xk,xk)为K中的二维点和三维点,π为重投影函数,将三维点根据针孔相机模型投影至图像平面;ICP配准算法使用步骤2中计算的机器人间相对位姿作为观测机器人和被测机器人局部地图间的初始转换矩阵,关于ICP配准算法属于现有成熟的技术,这里不再赘述。
在优化各机器人的轨迹后,使用局部光束平差法融合当前的全局地图和对应机器人的局部地图,生成新的全局地图。本实施例中,通过局部光束平差法来融合机器人的局部地图。由于机器人在运动中不断获取新的图像,各机器人也不断更新上传新的局部地图,计算终端在获取到新的局部地图后,使用局部光束平差法融合当前的全局地图和对应机器人的局部地图,生成新的全局地图,从而实现全局地图的不断更新。
在计算终端,可以获得步骤1上传的局部地图、机器人自身位姿,也可以获得步骤2计算得到的机器人之间的位姿,从而可以来融合生成新的全局地图。在一些可选的实施例中,当机器人附带有惯性测量单元(IMU)时,其创建的三维点云地图的尺度可以由IMU数据辅助确定,二维码几何信息计算得出的尺度转换关系可以与由IMU恢复的尺度信息进行融合。同时,如果GPS信号可用且精度达到合适指标,则通过GPS计算得出的机器人相对位姿亦关系可用于数据融合。
步骤4:将全局地图、地图尺度和各机器人的轨迹广播给各机器人,各机器人根据收到的全局地图和轨迹通过局部光束平差法更新当前的局部地图和自身相对于世界坐标系的位姿,并根据地图尺度修正局部地图。
上述局部光束平差法求解如下方程在姿态链约束下的最优解以优化机器人自身相对于世界坐标系的位姿和局部地图:
根据以上步骤,可以得到如图3所示的协同定位和融合建图结果,可以看出三维点云地图在融合后去除了部分重复的地图点,并优化了各机器人的轨迹。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,在不背离本发明精神及其实质的情况下,熟悉本领域的技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。
Claims (5)
1.一种空地多视角下的多机器人协同定位及融合建图方法,其特征在于,所述协同定位及融合建图方法,包括:
步骤1、机器人各自进行初始化,各自建立和维护一张局部地图;
步骤2、机器人检测所获取图像中的附着于其他机器人之上的二维码,将检测到二维码的机器人作为观测机器人,将附着有二维码的机器人作为被观测机器人,计算二维码相对于观测机器人的位姿,并通过二维码中携带的标识获取预先标定的二维码在被观测机器人坐标系下的位姿,计算观测机器人与被观测机器人之间的位姿;
步骤3、通过引入的二维码位姿约束,优化各机器人的地图尺度和轨迹,使用局部光束平差法融合当前的全局地图和对应机器人的局部地图,生成新的全局地图;
步骤4、将全局地图、各机器人的地图尺度和轨迹广播给各机器人,各机器人根据收到的全局地图和轨迹通过局部光束平差法更新当前的局部地图和自身相对于世界坐标系的位姿,并根据地图尺度修正局部地图。
2.如权利要求1所述的空地多视角下的多机器人协同定位及融合建图方法,其特征在于,所述步骤2,包括:
步骤2.1、观测机器人检测所获取图像中的附着于其他被观测机器人之上的二维码,获取二维码对应的二维码数据;
步骤2.2、提取二维码内部角点在图像平面上的坐标;
步骤2.3、根据二维码数据中印刷尺寸,恢复出二维码内部角点在被观测机器人坐标系下的三维坐标,作为PnP算法的物体原始坐标,求解PnP,获得二维码相对于观测机器人的位姿;
步骤2.4:根据二维码数据中预先标定的二维码在被观测机器人坐标系下的位姿,计算得到机器人之间的位姿。
3.如权利要求1所述的空地多视角下的多机器人协同定位及融合建图方法,其特征在于,所述引入的二维码位姿约束,包括:机器人的地图尺度、机器人之间的位姿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811444561.5A CN109579843B (zh) | 2018-11-29 | 2018-11-29 | 一种空地多视角下的多机器人协同定位及融合建图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811444561.5A CN109579843B (zh) | 2018-11-29 | 2018-11-29 | 一种空地多视角下的多机器人协同定位及融合建图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109579843A CN109579843A (zh) | 2019-04-05 |
CN109579843B true CN109579843B (zh) | 2020-10-27 |
Family
ID=65925638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811444561.5A Active CN109579843B (zh) | 2018-11-29 | 2018-11-29 | 一种空地多视角下的多机器人协同定位及融合建图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109579843B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110018688B (zh) * | 2019-04-11 | 2022-03-29 | 清华大学深圳研究生院 | 基于视觉的自动引导车定位方法 |
CN110349214B (zh) * | 2019-07-01 | 2022-09-16 | 达闼机器人股份有限公司 | 一种物体的定位方法、终端及可读存储介质 |
CN110243381B (zh) * | 2019-07-11 | 2020-10-30 | 北京理工大学 | 一种陆空机器人协同感知监测方法 |
CN110414458B (zh) * | 2019-08-01 | 2022-03-08 | 北京主线科技有限公司 | 基于平面标签和模板匹配的定位方法及装置 |
CN110587606B (zh) * | 2019-09-18 | 2020-11-20 | 中国人民解放军国防科技大学 | 一种面向开放场景的多机器人自主协同搜救方法 |
CN110852939A (zh) * | 2019-10-28 | 2020-02-28 | 北京影谱科技股份有限公司 | 一种基于二维对象和相关关系的三维布局预测方法及系统 |
CN110849380B (zh) * | 2019-10-28 | 2022-04-22 | 北京影谱科技股份有限公司 | 一种基于协同vslam的地图对齐方法及系统 |
CN113031582A (zh) * | 2019-12-25 | 2021-06-25 | 北京极智嘉科技股份有限公司 | 机器人、定位方法及计算机可读存储介质 |
CN111077907A (zh) * | 2019-12-30 | 2020-04-28 | 哈尔滨理工大学 | 一种室外无人机的自主定位方法 |
CN111369640B (zh) * | 2020-02-28 | 2024-03-26 | 广州高新兴机器人有限公司 | 多机器人建图方法、系统、计算机存储介质及电子设备 |
CN113515112A (zh) * | 2020-03-26 | 2021-10-19 | 顺丰科技有限公司 | 机器人移动方法、装置、计算机设备和存储介质 |
CN111474953B (zh) * | 2020-03-30 | 2021-09-17 | 清华大学 | 多动态视角协同的空中目标识别方法及系统 |
CN111308523B (zh) * | 2020-03-31 | 2020-12-29 | 北京航空航天大学 | 一种无人机无人船协同导航方法 |
CN112461210B (zh) * | 2020-12-18 | 2021-12-24 | 湖南大学 | 一种空地协同建筑测绘机器人系统及其测绘方法 |
CN112785702B (zh) * | 2020-12-31 | 2023-06-20 | 华南理工大学 | 一种基于2d激光雷达和双目相机紧耦合的slam方法 |
CN113155126B (zh) * | 2021-01-04 | 2023-10-20 | 航天时代飞鸿技术有限公司 | 一种基于视觉导航的多机协同目标高精度定位系统及方法 |
CN113074737B (zh) * | 2021-03-25 | 2023-12-29 | 大连理工大学 | 一种基于场景辨识的多机器人分布式协作视觉建图方法 |
CN113108798A (zh) * | 2021-04-21 | 2021-07-13 | 浙江中烟工业有限责任公司 | 一种基于激光雷达的多仓储机器人室内建图定位系统 |
CN113342008B (zh) * | 2021-05-21 | 2023-12-26 | 武汉理工大学 | 一种海空协同水下目标追踪的路径规划系统及方法 |
CN114330978B (zh) * | 2021-11-11 | 2022-08-09 | 深圳大学 | 一种空地机器人任务动态分配方法、存储介质及终端设备 |
CN114383611A (zh) * | 2021-12-30 | 2022-04-22 | 华南智能机器人创新研究院 | 一种移动机器人的多机协同激光slam方法、装置及系统 |
CN114236564B (zh) * | 2022-02-23 | 2022-06-07 | 浙江华睿科技股份有限公司 | 动态环境下机器人定位的方法、机器人、装置及存储介质 |
CN115375866B (zh) * | 2022-10-20 | 2023-02-03 | 国家电投集团科学技术研究院有限公司 | 矿区三维地质模型的更新方法、装置、设备和介质 |
CN115965673B (zh) * | 2022-11-23 | 2023-09-12 | 中国建筑一局(集团)有限公司 | 基于双目视觉的集中式多机器人定位方法 |
CN116030136B (zh) * | 2023-03-29 | 2023-06-09 | 中国人民解放军国防科技大学 | 基于几何特征的跨视角视觉定位方法、装置和计算机设备 |
CN116408807B (zh) * | 2023-06-06 | 2023-08-15 | 广州东焊智能装备有限公司 | 一种基于机器视觉和轨迹规划的机器人控制系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
US9746330B2 (en) * | 2013-08-03 | 2017-08-29 | Robotic Research, Llc | System and method for localizing two or more moving nodes |
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN107862720A (zh) * | 2017-11-24 | 2018-03-30 | 北京华捷艾米科技有限公司 | 基于多地图融合的位姿优化方法及位姿优化系统 |
CN108363386A (zh) * | 2017-12-30 | 2018-08-03 | 杭州南江机器人股份有限公司 | 基于二维码和激光的室内机器人定位方法、装置及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103177247B (zh) * | 2013-04-09 | 2015-11-18 | 天津大学 | 一种融合多视角信息的目标检测方法 |
CN108508439B (zh) * | 2018-05-01 | 2022-02-18 | 南京理工大学 | 双机载sar对目标协同成像立体定位的方法 |
-
2018
- 2018-11-29 CN CN201811444561.5A patent/CN109579843B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9746330B2 (en) * | 2013-08-03 | 2017-08-29 | Robotic Research, Llc | System and method for localizing two or more moving nodes |
CN106595659A (zh) * | 2016-11-03 | 2017-04-26 | 南京航空航天大学 | 城市复杂环境下多无人机视觉slam的地图融合方法 |
CN107301654A (zh) * | 2017-06-12 | 2017-10-27 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN107862720A (zh) * | 2017-11-24 | 2018-03-30 | 北京华捷艾米科技有限公司 | 基于多地图融合的位姿优化方法及位姿优化系统 |
CN108363386A (zh) * | 2017-12-30 | 2018-08-03 | 杭州南江机器人股份有限公司 | 基于二维码和激光的室内机器人定位方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109579843A (zh) | 2019-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109579843B (zh) | 一种空地多视角下的多机器人协同定位及融合建图方法 | |
CN110068335B (zh) | 一种gps拒止环境下无人机集群实时定位方法及系统 | |
CN110446159B (zh) | 一种室内无人机精确定位与自主导航的系统及方法 | |
CN109191504A (zh) | 一种无人机目标跟踪方法 | |
CN109509230A (zh) | 一种应用于多镜头组合式全景相机的slam方法 | |
CN112505065B (zh) | 一种实现室内无人机对大部件表面缺陷进行检测的方法 | |
Cui et al. | Drones for cooperative search and rescue in post-disaster situation | |
Meyer et al. | The MADMAX data set for visual‐inertial rover navigation on Mars | |
CN112461210B (zh) | 一种空地协同建筑测绘机器人系统及其测绘方法 | |
CN108519102B (zh) | 一种基于二次投影的双目视觉里程计算方法 | |
CN111474953B (zh) | 多动态视角协同的空中目标识别方法及系统 | |
CN112734765A (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 | |
Bazin et al. | UAV attitude estimation by vanishing points in catadioptric images | |
CN112991440B (zh) | 车辆的定位方法和装置、存储介质和电子装置 | |
Xiang et al. | UAV based target tracking and recognition | |
Chen et al. | Real-time geo-localization using satellite imagery and topography for unmanned aerial vehicles | |
Xian et al. | Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach | |
Daftry et al. | Semi-dense visual odometry for monocular navigation in cluttered environment | |
CN117152249A (zh) | 基于语义一致性的多无人机协同建图与感知方法及系统 | |
CN117115271A (zh) | 无人机飞行过程中的双目相机外参数自标定方法及系统 | |
Kim et al. | Target detection and position likelihood using an aerial image sensor | |
Contreras et al. | Efficient decentralized collaborative mapping for outdoor environments | |
CN115588036A (zh) | 图像采集方法及装置、机器人 | |
Zhang et al. | Object depth measurement from monocular images based on feature segments | |
CN112050814A (zh) | 一种室内变电站无人机视觉导航系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |