CN116878504B - 基于多传感器融合的建筑物外墙作业无人机精准定位方法 - Google Patents
基于多传感器融合的建筑物外墙作业无人机精准定位方法 Download PDFInfo
- Publication number
- CN116878504B CN116878504B CN202311146599.5A CN202311146599A CN116878504B CN 116878504 B CN116878504 B CN 116878504B CN 202311146599 A CN202311146599 A CN 202311146599A CN 116878504 B CN116878504 B CN 116878504B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- positioning
- data
- building
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 23
- 238000005457 optimization Methods 0.000 claims abstract description 19
- 230000000007 visual effect Effects 0.000 claims description 28
- 238000001514 detection method Methods 0.000 claims description 11
- 230000007246 mechanism Effects 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000000694 effects Effects 0.000 description 13
- 239000013598 vector Substances 0.000 description 10
- 238000003860 storage Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000005507 spraying Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明提供了基于多传感器融合的建筑物外墙作业无人机精准定位方法,该方法包括以下步骤:通过定位系统的传感器采集无人机的作业数据,并通过融合算法计算出无人机的位置和姿态信息;将已知建筑物的BIM模型换为点云格式,作为先验数据,与所述作业数据中的点云数据进行配准,确定无人机的定位信息;根据获得的无人机的位置和姿态以及定位信息构建残差约束,迭代优化得到无人机作业的定位结果数据。本发明充分利用建筑物的BIM模型,通过多传感器融合技术,有效地提高了无人机在建筑物外墙作业中的定位精准度,提高了作业效率,降低了安全风险。
Description
技术领域
本发明涉及无人机定位技术领域,具体涉及一种基于多传感器融合的建筑物外墙作业无人机精准定位方法。
背景技术
随着无人机技术的快速发展,无人机在建筑物外墙作业中得到了广泛的应用,包括清洁、维护、检测等。然而,在建筑物外墙近距离作业的场景下,存在一些挑战和问题,主要集中在定位精度和环境干扰方面。
1.GPS受阻问题:建筑物的高度和结构会阻挡GPS(Global Positioning System,全球定位系统)信号的到达,这在近墙作业时尤为明显。建筑物遮挡导致无人机无法获得足够的卫星信号,从而影响了其定位精度。由于无法准确获取位置信息,无人机在操作中容易偏离预定的路径,甚至可能造成撞墙等安全风险。
2.多径效应影响:建筑物表面的反射和折射会引起GPS信号的多径效应,导致信号的干扰和时延扩展。这会导致GPS接收器测量出现误差,从而使得定位精度下降。在近墙作业场景下,多径效应的影响尤为明显,造成定位误差达到10米左右,严重制约了无人机的应用范围和作业效率。
3.作业精度要求:建筑物外墙作业通常对精度要求较高,特别是在喷涂等作业中,需要实现0.15米左右的局部定位精度。如果定位精度不够,喷涂等作业无法达到验收要求,影响了整体作业效果。现有的定位技术在近墙作业场景中难以满足这一高精度的要求。
4.传感器单一性问题:在室外场景下,常用的定位方案是基于RTK-GPS(Real-TimeKinematic Global Positioning System,实时动态差分全球定位系统)定位。然而,在近墙作业场景下,建筑物的遮挡和多径效应等问题会使RTK-GPS的定位精度急剧下降。室内定位方案通常只采用单一或两种传感器,如纯双目相机、激光雷达和IMU(InertialMeasurement Unit,惯性测量单元)融合、单目相机和IMU融合等。然而,这些方案在面对复杂近墙作业场景时,往往无法提供稳定和准确的定位结果。
综上所述,近墙作业场景下的无人机定位问题至关重要,需要克服GPS受阻、多径效应、作业精度要求高以及传感器单一性等挑战。现有技术中的定位方法难以满足这些要求,因此需要一种能够融合多种传感器数据、充分利用建筑物的BIM模型(BuildingInformation Modeling,建筑信息模型)、提高定位精度和作业效率的新方法。
发明内容
有鉴于此,本发明的目的在于提出一种基于多传感器融合的建筑物外墙作业无人机精准定位方法,通过融合多种传感器的数据,将激光雷达传感器、视觉传感器和惯性测量单元(IMU)的数据进行融合,结合建筑物的BIM模型,实现了无人机在近墙1米左右作业场景下的精确定位,在解决建筑物外墙作业中定位精度不足的问题上取得了突破。
基于上述目的,第一方面,本发明提供了一种基于多传感器融合的建筑物外墙作业无人机精准定位方法,包括以下步骤:
通过定位系统的传感器采集无人机的作业数据,并通过融合算法计算出无人机的位置和姿态信息;
将已知建筑物的BIM模型换为点云格式,作为先验数据,与所述作业数据中的点云数据进行配准,确定无人机的定位信息;
根据获得的无人机的位置和姿态以及定位信息构建残差约束,迭代优化得到无人机作业的定位结果数据。
作为本发明的进一步方案,所述定位系统的传感器包括IMU、双目相机以及激光雷达,所述IMU用于获取无人机作业的速度、角速度数据,所述双目相机用于获取无人机作业的图像信息数据;所述激光雷达用于获取无人机作业的点云数据。
作为本发明的进一步方案,通过Autodesk Revit软件将已知建筑物的BIM模型换为点云格式。
作为本发明的进一步方案,在计算出无人机的位置和姿态信息之前,还包括以下步骤:
设置坐标系,包括在建筑物周围设置一个固定的起始点,以所述起始点为原点设置ENU全局坐标系;
基于所述ENU全局坐标系测量所述起始点到建筑物的相对位置,获得所述建筑物的点云在全局坐标系下的坐标数据。
作为本发明的进一步方案,通过融合算法计算出无人机的位置和姿态信息时,融合算法的融合定位包含视觉里程计系统(Visual Inertial Odometry System,VIS)和雷达里程计系统(Lidar Inertial Odometry System,LIS),将视觉里程计系统(VIS)和雷达里程计系统(LIS)的定位输出通过无迹卡尔曼滤波(Unscented Kalman Filter,UKF)融合,获得里程计坐标系下的无人机局部位姿。
作为本发明的进一步方案,通过融合算法计算出无人机的位置和姿态信息,包括以下步骤:
一、初始化视觉里程计系统
利用视觉里程计对激光雷达帧进行配准,获取用于特征点深度估计的稀疏深度图;其中,视觉里程计系统在滑动窗口中执行光束法平差,视觉里程计系统的系统状态x表示为:
其中,R为旋转矩阵,p为平移向量,v为速度,b为包含加速度计零偏和陀螺仪零偏的IMU的零偏向量;从定位系统的传感器到全局坐标系的位姿转换用表示;
二、初始化雷达里程计系统
根据图像时间戳插值将系统状态x和IMU的零偏向量b与每个图像关键帧相关联;其中,图像关键帧在两个图像之间的IMU零偏向量b保持恒定,则利用从雷达里程计系统估计的系统状态x和IMU零偏向量b作为初始化的初始预测。
三、采用失效检测机制
当特征点数量小于预设阈值,或者估计的IMU零偏向量b超过预设阈值时,采用失效检测机制,报告视觉里程计系统失效,并进行重新初始化。
作为本发明的进一步方案,在将已知建筑物的BIM模型换为点云格式,作为先验数据,与所述作业数据中的点云数据进行配准时,包括以下步骤:
根据获得的所述建筑物的点云在全局坐标系下的坐标数据,将通过BIM模型和经过预处理的点云数据进行ICP(Iterative Closest Point,迭代最近点算法)匹配,计算出无人机在全局坐标系下的位置和姿态信息。
作为本发明的进一步方案,根据获得的无人机的位置和姿态以及定位信息构建残差约束,迭代优化,包括以下步骤:
将计算出的无人机在全局坐标系下的位置和姿态信息转化为因子图中的因子项,和通过融合算法计算出无人机的位置和姿态信息一同输入到全局位姿图中构造优化,生成无漂移的全局位姿;
其中,生成无漂移的全局位姿的公式如下:
其中,为通过ICP配准解算出的在全局坐标系下的坐标,/>为无人机位姿近似值,/>为全局坐标,/>为里程计的位姿,X为状态预测,h方程为观测方程,X通过上一时刻状态以及当前时刻与上一时刻的位姿变换计算所得。
作为本发明的进一步方案,迭代优化得到无人机作业的定位结果数据,包括以下步骤:
利用VIO(Visual-Inertial Odometry,视觉惯性里程计)得到当前时刻和上一时刻的相对位姿dx,加到上一时刻的位姿上Xi-1,得到当前时刻的位姿Xi;其中,X以第一帧为原点;
通过观测方程h,将当前状态的坐标转换到全局坐标系下,构建得到一个全局约束;
使用CeresSolver求解工具求解,得到无人机作业的定位结果数据。
作为本发明的进一步方案,所述基于多传感器融合的建筑物外墙作业无人机精准定位方法,还包括:将无人机作业的定位结果数据通过数据传输模块反馈给地面的操作员。
本发明的又一方面,还提供了一种计算机设备,包括存储器和处理器,该存储器中存储有计算机程序,该计算机程序被处理器执行时执行上述任一项根据本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法。
本发明的再一方面,还提供了一种计算机可读存储介质,存储有计算机程序指令,该计算机程序指令被执行时实现上述任一项根据本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法。
与现有技术相比较而言,本发明提出的一种基于多传感器融合的建筑物外墙作业无人机精准定位方法,具有以下有益效果:
1.环境干扰降低:通过多传感器数据的融合,能够更好地抵御环境干扰,从而减少外部因素对无人机定位的影响,提高定位的稳定性和准确性,实现无人机的精确定位。
2.利用BIM模型增强定位:采用已知建筑物的BIM模型作为先验数据,通过与激光雷达获取的点云数据配准,进一步提高了定位精度,无人机可以更准确地根据建筑物的结构和特征进行定位,避免了误差的累积。
3.实时控制和反馈:本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法,可以实时将无人机作业的结果通过数据传输模块反馈给地面的操作员,包括实时位置、传感器信息以及系统状态;使得操作员能够随时监控无人机的状态,进行必要的调整和干预,从而提高了作业的效率和安全性。
4.融合算法提高精度:通过融合视觉里程计系统和雷达里程计系统的定位输出,利用无迹卡尔曼滤波进行融合,获得了在里程计坐标系下的局部位姿,融合定位可以在视觉和雷达数据的互补性上提高定位的精确度。
5.失效检测机制提高鲁棒性:采用失效检测机制可以在光照变化或其他异常情况下提早检测视觉里程计系统的失效,避免误导导致的定位错误。这种机制增加了定位系统的鲁棒性,保障了定位的可靠性。
6.迭代优化提升精度:通过迭代优化方法,将已知建筑物的BIM模型点云与激光雷达获取的点云进行匹配,进一步优化了无人机的全局定位信息。这种方法有效消除了漂移,提高了定位的精度。
综上所述,本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法在提高定位精度、抵御环境干扰、实现实时控制和反馈等方面带来了明显的有益效果。
本申请的这些方面或其他方面在以下实施例的描述中会更加简明易懂。应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
在图中:
图1为本发明实施例的基于多传感器融合的建筑物外墙作业无人机精准定位方法中因子图优化示意图。
图2为本发明实施例的基于多传感器融合的建筑物外墙作业无人机精准定位方法中定位数据流示意图。
图3为本发明实施例的基于多传感器融合的建筑物外墙作业无人机精准定位方法中操作员视角用例图。
图4为本发明实施例的基于多传感器融合的建筑物外墙作业无人机精准定位方法的流程图。
具体实施方式
下面,结合附图以及具体实施方式,对本申请做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称的非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、装置、产品或设备固有的其他步骤或单元。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
随着无人机技术的发展,无人机已被广泛应用于建筑物外墙作业中,包括清洁、维护、检测等。然而,建筑物的高度和结构可能会阻挡GPS信号的到达,建筑物引发的多径效应也会导致GPS信号的干扰和时延扩展,从而影响GPS接收器的测量,进而造成定位误差较大,达到10m左右,产生安全风险。同时,包括喷涂在内的无人机近墙作业场景通常对精度要求较高,需要达到0.15m左右的局部定位精度,否则喷涂的效果难以达到验收要求,影响作业效率。因此,基于上述两点,急需一种能够提高无人机在该场景下定位精准度的技术。
由于目前市面上暂时还没有针对近墙场景下的定位系统,在室外场景下,大多数方案采用的是RTK-GPS定位。而在室内,大多仅使用其中的一种或两种传感器,例如纯双目相机、激光雷达和IMU融合、单目相机和IMU融合。在近墙作业场景中,由于建筑物的遮挡、多径效应等问题,RTK-GPS的定位精度会急剧变差,无法满足需求。如果采用市面上的室内定位方案,由于系统缺乏冗余,在面对复杂场景时,一旦单个传感器失效,定位系统将不可用。例如IMU可以提供加速度、角速度,通过对其积分我们可以获得物体的位置、姿态,但是积分的误差会随时间累积,长时间使用会导致定位信息严重偏离实际情况。视觉传感器虽然在一定程度上能够提升无人机的定位精度,但对环境的光照条件、目标的颜色和纹理等因素敏感,影响其使用效果。例如面对白墙场景时,难以提取到特征点,导致视觉定位失效。
以上这些问题,使得无人机在进行建筑物外墙作业时,定位精度不高,作业效率低,甚至可能对建筑物造成损害。因此无法采用现有方案。
有鉴于此,针对在近墙1m左右作业的场景下,由于建筑物遮挡GPS信号,影响定位效果的问题,本发明提供了一种基于多传感器融合的建筑物外墙作业无人机精准定位方法。该方法通过融合激光雷达传感器、视觉传感器和惯性测量单元(IMU)的数据,以及与建筑物的BIM模型配准,实现在建筑物外墙近距离作业场景下无人机的精确定位。该方法不仅克服了GPS信号受阻和多径效应等问题,还提高了定位精度和作业效率。
参见图1至图4所示,本发明的实施例提供了一种基于多传感器融合的建筑物外墙作业无人机精准定位方法,该方法包括以下步骤:
S1、通过定位系统的传感器采集无人机的作业数据,并通过融合算法计算出无人机的位置和姿态信息。
在本实施例中,所述定位系统的传感器包括IMU、双目相机以及激光雷达,所述IMU用于获取无人机作业的速度、角速度数据,所述双目相机用于获取无人机作业的图像信息数据;所述激光雷达用于获取无人机作业的点云数据。
因此,在采集无人机的作业数据时,在无人机的作业过程中,通过定位系统的传感器采集无人机的加速度、角速度、图像、点云等数据;根据上述IMU、双目相机以及激光雷达获取的作业数据,通过融合算法计算出无人机的位置和姿态信息。
S2、将已知建筑物的BIM模型换为点云格式,作为先验数据,与所述作业数据中的点云数据进行配准,确定无人机的定位信息。
在本实施例中,在本实施例中,通过Autodesk Revit软件将已知建筑物的BIM模型换为点云格式。
S3、根据获得的无人机的位置和姿态以及定位信息构建残差约束,迭代优化得到无人机作业的定位结果数据。
在本实施例中,利用步骤S1得到的无人机的位置和和姿态信息以及步骤S2得到的无人机的定位信息构建残差约束,通过Bundle Adjustment进行迭代优化,最终得到精确的定位信息。
本发明所述基于多传感器融合的建筑物外墙作业无人机精准定位方法,充分利用建筑物的BIM模型,通过多传感器融合技术,有效地提高了无人机在建筑物外墙作业中的定位精准度,提高了作业效率,降低了安全风险,实现对无人机的精准定位。
在本发明的实施例中,本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法,具体实施步骤如下:
(1)数据准备
本发明通过IMU获取无人机作业的速度、角速度数据,通过激光雷达获取无人机作业的点云数据,通过双目相机获取无人机作业的图像信息数据,利用Autodesk Revit软件将已知的建筑物BIM模型转化为点云格式。
(2)设置坐标系
在计算出无人机的位置和姿态信息之前,在建筑物周围设置一个固定的起始点,以所述起始点为原点设置ENU全局坐标系;基于所述ENU全局坐标系测量所述起始点到建筑物的相对位置,获得所述建筑物的点云在全局坐标系下的坐标数据。
在本实施例中,该建筑物的点云在全局坐标系下的坐标数据为获得建筑物的点云在全局坐标系下的坐标。
(3)融合定位
通过融合算法计算出无人机的位置和姿态信息时,融合算法的融合定位包含视觉里程计系统(VIS)和雷达里程计系统(LIS),将视觉里程计系统(VIS)和雷达里程计系统(LIS)的定位输出通过无迹卡尔曼滤波(UKF)融合,获得里程计坐标系下的无人机局部位姿。
其中,通过融合算法计算出无人机的位置和姿态信息,包括以下步骤:
一、初始化视觉里程计系统
利用视觉里程计对激光雷达帧进行配准,获取用于特征点深度估计的稀疏深度图。其中,视觉里程计系统在滑动窗口中执行光束法平差,视觉里程计系统的系统状态x表示为:
其中,R为旋转矩阵,p为平移向量,v为速度,b为包含加速度计零偏和陀螺仪零偏的IMU的零偏向量;从定位系统的传感器到全局坐标系的位姿转换用表示。
二、初始化雷达里程计系统
在本实施例中,利用从雷达里程计系统估计的系统状态x和IMU的零偏 b。由于深度可以直接从激光雷达上观察到,所以首先初始化LIS并得到x和b;然后根据图像时间戳插值将系统状态x和IMU的零偏向量b与每个图像关键帧相关联。其中,图像关键帧在两个图像之间的IMU零偏向量b保持恒定,则利用从雷达里程计系统估计的系统状态x和IMU零偏向量b作为初始化的初始预测,提高初始化速度和鲁棒性。
三、采用失效检测机制
采用失效检测机制,在遇到光照变化或者白墙时,VIS跟踪的特征点急剧减少,进而导致优化发散,VIS系统失效,VIS失效时,估计的IMU零偏会变大。因此,当特征点数量小于预设阈值,或者估计的IMU零偏向量b超过预设阈值时,采用失效检测机制,报告视觉里程计系统失效,并进行重新初始化。
(4)BIM模型配准
初始化雷达里程计系统中获得了建筑物的点云在全局坐标系下的坐标。
考虑到实际环境当中,墙体附近会安装防护架等其他临时结构,导致和原始的BIM模型不一致,所以需要先预处理点云数据,以去除不需要的对象。
利用ICP算法,对BIM模型和经过预处理的点云数据进行局部匹配,并计算出无人机在全局坐标系下的位姿。
在本实施例中,在将已知建筑物的BIM模型换为点云格式,作为先验数据,与所述作业数据中的点云数据进行配准时,包括以下步骤:
根据获得的所述建筑物的点云在全局坐标系下的坐标数据,将通过BIM模型和经过预处理的点云数据进行ICP匹配,计算出无人机在全局坐标系下的位置和姿态信息。
(5)自动避障
设置安全距离阈值,当无人机距离墙体小于这个阈值时触发自动避障,远离墙体。
利用IMU数据和激光雷达数据,计算无人机相对于墙体的接近速度和方向。当计算结果显示无人机与墙体的距离将会小于0.8m时,自动触发避障,控制飞机向远离墙体的方向飞行,从而避免碰撞。
(6)位姿优化
融合定位中解算出了无人机在里程计坐标系下的局部位姿。
BIM模型配准中解算出的全局位姿转化为因子图中的因子项,和局部位姿一起输入到全局位姿图中构造优化问题,最后生成无漂移的全局位姿。
在本实施例中,将计算出的无人机在全局坐标系下的位置和姿态信息转化为因子图中的因子项,和通过融合算法计算出无人机的位置和姿态信息一同输入到全局位姿图中构造优化,生成无漂移的全局位姿。
其中,生成无漂移的全局位姿的公式如下:
其中,为通过ICP配准解算出的在全局坐标系下的坐标,/>为无人机位姿近似值,/>为全局坐标,/>为里程计的位姿,X为状态预测,h方程为观测方程,X通过上一时刻状态以及当前时刻与上一时刻的位姿变换计算所得。
在本实施例中,迭代优化得到无人机作业的定位结果数据,包括以下步骤:
利用VIO得到当前时刻和上一时刻的相对位姿dx,加到上一时刻的位姿上Xi-1,得到当前时刻的位姿Xi;其中,X以第一帧为原点;
通过观测方程h,将当前状态的坐标转换到全局坐标系下,构建得到一个全局约束;
使用CeresSolver求解工具求解,得到无人机作业的定位结果数据。
其中,因子图优化如图1所示,上述方程所构成的优化问题,使用CeresSolver求解工具求解。得到最终的定位数据。数据流图如图2所示。
(7)作业结果反馈
在本实施例中,所述基于多传感器融合的建筑物外墙作业无人机精准定位方法,还包括:将无人机作业的定位结果数据通过数据传输模块反馈给地面的操作员。
通过将无人机作业的结果通过数据传输模块反馈给地面的操作员,以供后续分析和调整。如图3所示,操作员需要查看无人机的实时位置、传感器信息以及系统的状态,若出现异常情况,通过人工干预,可避免安全事故。
综上所述,本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法中,通过融合多种传感器的数据,包括IMU、双目相机、激光雷达等,实现了在建筑物外墙作业场景下的无人机精确定位,降低了环境干扰对无人机定位的影响;充分利用已知的BIM模型,通过与已知的点云配准,进一步提高了定位精度;可以实现实时控制和反馈,方便操作员或控制中心进行作业调整和优化,提高了建筑物外墙作业的效率和安全性。
本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法,包括数据准备、坐标系设置、融合定位、BIM模型配准、自动避障、位姿优化和作业结果反馈等,有效地解决了现有技术中存在的精度不足、环境干扰等问题。在本发明中,定位系统的传感器通过采集无人机的加速度、角速度、图像和点云等数据,结合融合算法,计算无人机的位置和姿态信息。已知建筑物的BIM模型被转换为点云格式,并与激光雷达获取的点云进行配准,进一步提高了定位精度。通过融合视觉里程计系统和雷达里程计系统的输出,利用无迹卡尔曼滤波进行融合,获得了里程计坐标系下的无人机局部位姿。失效检测机制则增强了算法的鲁棒性,在视觉里程计系统失效时进行重新初始化,提高了系统的稳定性。
本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法还通过迭代优化,将全局位姿信息融合到因子图中,生成无漂移的全局位姿,从而进一步提高了定位精度。实时控制和反馈机制使操作员能够随时监控无人机的状态,进行必要的调整和干预,提高了作业效率和安全性。
因此,本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法在定位精度、鲁棒性、实时控制等方面都取得了显著的优势,为建筑物外墙作业提供了一种高效、准确且安全的解决方案。
需要注意的是,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应该理解的是,上述虽然是按照某一顺序描述的,但是这些步骤并不是必然按照上述顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,本实施例的一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
本发明实施例的第二个方面,还提供了一种计算机设备,包括存储器和处理器,该存储器中存储有计算机程序,该计算机程序被该处理器执行时实现上述任意一项实施例的方法。
在该计算机设备中包括一个处理器以及一个存储器,并还可以包括:输入装置和输出装置。处理器、存储器、输入装置和输出装置可以通过总线或者其他方式连接,输入装置可接收输入的数字或字符信息,以及产生与基于多传感器融合的建筑物外墙作业无人机精准定位的迁移有关的信号输入。输出装置可包括显示屏等显示设备。
存储器作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的基于多传感器融合的建筑物外墙作业无人机精准定位方法对应的程序指令/模块。存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作装置、至少一个功能所需要的应用程序;存储数据区可存储基于多传感器融合的建筑物外墙作业无人机精准定位方法的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器通常用于控制计算机设备的总体操作。本实施例中,处理器用于运行存储器中存储的程序代码或者处理数据。本实施例计算机设备的多个计算机设备的处理器通过运行存储在存储器中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的基于多传感器融合的建筑物外墙作业无人机精准定位方法的步骤。
应当理解,在相互不冲突的情况下,以上针对根据本发明的基于多传感器融合的建筑物外墙作业无人机精准定位方法阐述的所有实施方式、特征和优势同样地适用于根据本发明的基于多传感器融合的建筑物外墙作业无人机精准定位和存储介质。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个装置的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
最后需要说明的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM 可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (6)
1.一种基于多传感器融合的建筑物外墙作业无人机精准定位方法,其特征在于,包括以下步骤:
通过定位系统的传感器采集无人机的作业数据,并通过融合算法计算出无人机的位置和姿态信息;
将已知建筑物的BIM模型换为点云格式,作为先验数据,与所述作业数据中的点云数据进行配准,确定无人机的定位信息;
根据获得的无人机的位置和姿态以及定位信息构建残差约束,迭代优化得到无人机作业的定位结果数据;
其中,通过融合算法计算出无人机的位置和姿态信息时,融合算法的融合定位包含视觉里程计系统和雷达里程计系统,将视觉里程计系统和雷达里程计系统的定位输出通过无迹卡尔曼滤波融合,获得里程计坐标系下的无人机局部位姿;
通过融合算法计算出无人机的位置和姿态信息,包括以下步骤:
初始化视觉里程计系统,利用视觉里程计对激光雷达帧进行配准,获取用于特征点深度估计的稀疏深度图;其中,视觉里程计系统在滑动窗口中执行光束法平差;
初始化雷达里程计系统,根据图像时间戳插值将系统状态和IMU的零偏向量与每个图像关键帧相关联;其中,图像关键帧在两个图像之间的IMU零偏向量保持恒定,则利用从雷达里程计系统估计的系统状态和IMU零偏向量作为初始化的初始预测;
当特征点数量小于预设阈值,或者估计的IMU零偏向量超过预设阈值时,采用失效检测机制,报告视觉里程计系统失效,并进行重新初始化;
其中,根据获得的无人机的位置和姿态以及定位信息构建残差约束,迭代优化,包括以下步骤:
将计算出的无人机在全局坐标系下的位置和姿态信息转化为因子图中的因子项,和通过融合算法计算出无人机的位置和姿态信息一同输入到全局位姿图中构造优化,生成无漂移的全局位姿;
迭代优化得到无人机作业的定位结果数据,包括以下步骤:
利用VIO得到当前时刻和上一时刻的相对位姿,加到上一时刻的位姿上,得到当前时刻的位姿;
通过观测方程,将当前状态的坐标转换到全局坐标系下,构建得到一个全局约束;
使用CeresSolver求解工具求解,得到无人机作业的定位结果数据。
2.根据权利要求1所述的基于多传感器融合的建筑物外墙作业无人机精准定位方法,其特征在于,所述定位系统的传感器包括IMU、双目相机以及激光雷达,所述IMU用于获取无人机作业的速度、角速度数据,所述双目相机用于获取无人机作业的图像信息数据;所述激光雷达用于获取无人机作业的点云数据。
3.根据权利要求1所述的基于多传感器融合的建筑物外墙作业无人机精准定位方法,其特征在于,通过Autodesk Revit软件将已知建筑物的BIM模型换为点云格式。
4.根据权利要求2所述的基于多传感器融合的建筑物外墙作业无人机精准定位方法,其特征在于,在计算出无人机的位置和姿态信息之前,还包括以下步骤:
设置坐标系,包括在建筑物周围设置一个固定的起始点,以所述起始点为原点设置ENU全局坐标系;
基于所述ENU全局坐标系测量所述起始点到建筑物的相对位置,获得所述建筑物的点云在全局坐标系下的坐标数据。
5.根据权利要求4所述的基于多传感器融合的建筑物外墙作业无人机精准定位方法,其特征在于,在将已知建筑物的BIM模型换为点云格式,作为先验数据,与所述作业数据中的点云数据进行配准时,包括以下步骤:
根据获得的所述建筑物的点云在全局坐标系下的坐标数据,将通过BIM模型和经过预处理的点云数据进行ICP匹配,计算出无人机在全局坐标系下的位置和姿态信息。
6.根据权利要求1所述的基于多传感器融合的建筑物外墙作业无人机精准定位方法,其特征在于,所述基于多传感器融合的建筑物外墙作业无人机精准定位方法,还包括:将无人机作业的定位结果数据通过数据传输模块反馈给地面的操作员。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311146599.5A CN116878504B (zh) | 2023-09-07 | 2023-09-07 | 基于多传感器融合的建筑物外墙作业无人机精准定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311146599.5A CN116878504B (zh) | 2023-09-07 | 2023-09-07 | 基于多传感器融合的建筑物外墙作业无人机精准定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116878504A CN116878504A (zh) | 2023-10-13 |
CN116878504B true CN116878504B (zh) | 2023-12-08 |
Family
ID=88272094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311146599.5A Active CN116878504B (zh) | 2023-09-07 | 2023-09-07 | 基于多传感器融合的建筑物外墙作业无人机精准定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116878504B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117213469A (zh) * | 2023-11-07 | 2023-12-12 | 中建三局信息科技有限公司 | 地铁站厅的同步定位与建图方法、系统、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111006676A (zh) * | 2019-11-14 | 2020-04-14 | 广东博智林机器人有限公司 | 地图构建方法、装置及系统 |
CN114721001A (zh) * | 2021-11-17 | 2022-07-08 | 长春理工大学 | 一种基于多传感器融合的移动机器人定位方法 |
CN114862932A (zh) * | 2022-06-20 | 2022-08-05 | 安徽建筑大学 | 基于bim全局定位的位姿修正方法及运动畸变矫正方法 |
CN115290097A (zh) * | 2022-09-30 | 2022-11-04 | 安徽建筑大学 | 基于bim的实时精确地图构建方法、终端及存储介质 |
CN115451948A (zh) * | 2022-08-09 | 2022-12-09 | 中国科学院计算技术研究所 | 一种基于多传感器融合的农业无人车定位里程计方法及系统 |
WO2022257801A1 (zh) * | 2021-06-09 | 2022-12-15 | 山东大学 | 基于slam的移动机器人矿山场景重建方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10900790B2 (en) * | 2018-01-26 | 2021-01-26 | Autodesk, Inc. | Interior building navigation system |
-
2023
- 2023-09-07 CN CN202311146599.5A patent/CN116878504B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111006676A (zh) * | 2019-11-14 | 2020-04-14 | 广东博智林机器人有限公司 | 地图构建方法、装置及系统 |
WO2022257801A1 (zh) * | 2021-06-09 | 2022-12-15 | 山东大学 | 基于slam的移动机器人矿山场景重建方法及系统 |
CN114721001A (zh) * | 2021-11-17 | 2022-07-08 | 长春理工大学 | 一种基于多传感器融合的移动机器人定位方法 |
CN114862932A (zh) * | 2022-06-20 | 2022-08-05 | 安徽建筑大学 | 基于bim全局定位的位姿修正方法及运动畸变矫正方法 |
CN115451948A (zh) * | 2022-08-09 | 2022-12-09 | 中国科学院计算技术研究所 | 一种基于多传感器融合的农业无人车定位里程计方法及系统 |
CN115290097A (zh) * | 2022-09-30 | 2022-11-04 | 安徽建筑大学 | 基于bim的实时精确地图构建方法、终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116878504A (zh) | 2023-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10006772B2 (en) | Map production method, mobile robot, and map production system | |
EP2503510B1 (en) | Wide baseline feature matching using collaborative navigation and digital terrain elevation data constraints | |
US20150142248A1 (en) | Apparatus and method for providing location and heading information of autonomous driving vehicle on road within housing complex | |
CN116878504B (zh) | 基于多传感器融合的建筑物外墙作业无人机精准定位方法 | |
KR102226846B1 (ko) | Imu 센서와 카메라를 이용한 하이브리드 실내 측위 시스템 | |
Nahangi et al. | Automated localization of UAVs in GPS-denied indoor construction environments using fiducial markers | |
KR101737950B1 (ko) | 지형참조항법에서 영상 기반 항법해 추정 시스템 및 방법 | |
US20230222688A1 (en) | Mobile device positioning method and positioning apparatus | |
KR101764222B1 (ko) | 고정밀 측위 시스템 및 방법 | |
Bassiri et al. | Particle filter and finite impulse response filter fusion and hector SLAM to improve the performance of robot positioning | |
Andert et al. | Optical-aided aircraft navigation using decoupled visual SLAM with range sensor augmentation | |
Li et al. | Aerial-triangulation aided boresight calibration for a low-cost UAV-LiDAR system | |
CN113580134A (zh) | 视觉定位方法、设备、机器人、存储介质及程序产品 | |
CN113252066B (zh) | 里程计设备参数的标定方法及装置、存储介质、电子装置 | |
CN112862818A (zh) | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 | |
Yang et al. | Simultaneous estimation of ego-motion and vehicle distance by using a monocular camera | |
CN116958452A (zh) | 三维重建方法和系统 | |
Deusch et al. | Improving localization in digital maps with grid maps | |
CN110648353A (zh) | 一种基于单目传感器的机器人室内定位方法和装置 | |
CN113379850B (zh) | 移动机器人控制方法、装置、移动机器人及存储介质 | |
KR101502071B1 (ko) | 랜드마크 기반 비전항법시스템을 위한 카메라 데이터 생성기와 그것을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체 | |
CN113034538B (zh) | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 | |
Han et al. | Multi-layer vi-gnss global positioning framework with numerical solution aided map initialization | |
Park et al. | Localization for mobile robots with a multi-ToF camera system | |
TWI570423B (zh) | 定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |