CN112347840B - 视觉传感器激光雷达融合无人机定位与建图装置和方法 - Google Patents

视觉传感器激光雷达融合无人机定位与建图装置和方法 Download PDF

Info

Publication number
CN112347840B
CN112347840B CN202010864051.4A CN202010864051A CN112347840B CN 112347840 B CN112347840 B CN 112347840B CN 202010864051 A CN202010864051 A CN 202010864051A CN 112347840 B CN112347840 B CN 112347840B
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
imu
pose
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010864051.4A
Other languages
English (en)
Other versions
CN112347840A (zh
Inventor
田栢苓
戴威
张奕恺
宗群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202010864051.4A priority Critical patent/CN112347840B/zh
Publication of CN112347840A publication Critical patent/CN112347840A/zh
Application granted granted Critical
Publication of CN112347840B publication Critical patent/CN112347840B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/933Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明属于视觉传感器、激光雷达、嵌入式、无人机领域,为解决无人机在GPS拒止环境下自主定位与环境地图建立问题,实现无人机在未知环境下自主飞行与避障,本发明,视觉传感器激光雷达融合无人机定位与建图装置和方法,包括双目相机、激光雷达、IMU惯性测量单元、嵌入式机载处理器和无人机平台;双目相机采集周围环境的视觉信息;激光雷达主要用于测量无人机周围环境的3维位置信息;IMU惯性测量单元用于高频测量无人机自身加速度与角速度信息;嵌入式机载处理器用于算法运行,通过处理相机、雷达与IMU采集到的数据,运行自主定位与建图算法,获得无人机自身位姿并同时进行环境地图的建立。本发明主要应用于无人机设计制造场合。

Description

视觉传感器激光雷达融合无人机定位与建图装置和方法
技术领域
本发明属于视觉传感器领域、激光雷达传感器领域、嵌入式系统领域、无人机领域,尤 其涉及一种基于视觉与激光雷达结合的无人机感知系统,解决了在GPS(全球卫星定位系统) 拒止环境下基于视觉雷达的无人机自主定位与环境地图建立的问题。
背景技术
近年来无人机技术是国内外研究的重要热点之一,无人机以无线遥控或嵌入式程序控制 代替人工完成各种任务,凭借其体积小、成本低、易用性好、对飞行环境要求低等优点,在 军事领域和民用领域得到了广泛的应用。军事方面无人机在侦查、攻击、电子对抗等方面发 挥了重要的作用。民用方面无人机在航拍、灾情监控、线路巡检以及农药喷洒等领域的应用 越来越广泛。
传统的无人机定位方法是采用GPS、北斗等全球卫星导航定位系统。但随着无人机技术 的发展尤其是随着无人机应用场景的复杂化,在室内、隧道、楼体间等场景下GPS的定位精 度受卫星信号强弱影响,信号呈现不稳定乃至拒止现象,无法实时为无人机提供准确的定位 信息。基于卫星定位的无人机在类似场景下的应用受到严重限制,因此近年来基于无人机自 身携带的传感器的无人机自主飞行技术是无人机领域研究热点。
实现无人机自主飞行,要解决无人机在GPS拒止且未知复杂环境下自主定位与环境地图 建立两大问题。自主定位指传感器提供精准可靠的无人机飞行状态信息,这是实现无人机自 主飞行的基础与关键。环境地图建立指无人机利用传感器探测的环境信息建立周围环境的地 图,是无人机实现自主导航、路径规划与避障的必要能力。为了解决无人机的自主定位与环 境建图问题,我们常采用激光雷达、单双目摄像头、深度图像相机和IMU(Inertial Measurement Unit)惯性测量单元等多传感器设备进行无人机自主定位与建图。
针对无人机自主定位与建图问题,国内外各大高校都进行了深入的研究。2014年,德国 慕尼黑工业大学提出了一种基于直接法的稠密单目视觉SLAM(simultaneouslocalization and mapping,同步定位与建图)算法来构建大规模的环境地图。2015年,卡耐基梅隆大学的团 队提出一种基于鱼眼相机与2D激光雷达融合的无人机自主飞行系统,2018年,香港科技大 学的团队提出了一种飞行状态估计的单目视觉惯性系统,实现了无人机自主导航飞行。目前 美国麻省理工大学、宾夕法尼亚大学、苏黎世联邦理工大学、新加坡国立大学等国家的科研 团队都采用视觉或激光雷达设备进行了相关研究,并取得了一定成果;国内的清华大学、北 京航空航天大学、哈尔滨工业大学、天津大学等也开展了相关研究。由此可见无人机在复杂 环境下的自主定位与建图是目前国际无人机领域的研究热点之一,因此,设计一套精度高、 实时性强、可扩展性强的无人机自主定位与建图系统具有十分重要的研究价值和应用意义。
发明内容
为克服现有技术的不足,本发明旨在提出解决无人机在GPS拒止环境下无人机自主定位 与环境地图建立问题,实现无人机在未知环境下自主飞行与避障。具体而言,本发明将相机 和雷达感知的信息作为输入,通过计算得到无人机自身状态信息和无人机周围环境地图。此 外本发明有利于其他无人机自主定位算法在该平台上进行验证,有限提高了无人机自主定位 的研究效率,具有极大的应用价值。为此,本发明采取的技术方案是,视觉传感器激光雷达 融合无人机定位与建图方法,步骤如下:
1)视觉里程计:视觉里程计部分采用基于多状态卡尔曼滤波MSCKF(Multi-StateConstraint Kalman Filter)的算法,将惯性测量单元IMU(Inertial Measurement Unit)预积分 结果作为预测值,同时接收双目相机的原始数据,从相机的图像中提取特征点并进行特征匹 配,然后构建观测方程更新预测值,得到高频的无人机位姿、速度信息;
2)视觉雷达松耦合里程计:首先将MSCKF视觉里程计的高频的无人机位姿信息作为先 验,对当前扫描的雷达点云做去畸变处理,然后从去畸变的点云中提出特征点并与点云地图 做特征匹配,构建出非线性优化问题,将MSCKF预测值作为优化初值,求解无人机位姿, 最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状 态信息,同时逐步拼接点云地图;
3)建立占据体素地图:基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为 中心的局部占据体素地图,占据体素地图的建立与更新通过循环缓冲区进行维护。
具体步骤如下:
第一步:视觉里程计,采用MSCKF视觉里程计,MSCKF视觉里程计算法分为两部分,第一部分是对IMU与相机的原始信息的数据处理,首先算法从双目相机图像上做有向快速Oriented Fast特征点提取,Oriented Fast特征点是计算机视觉领域的图像特征点,特征提取完 成后基于灰度不变假设,同一个特征点在不同图像帧上是相同的,所以算法搜索匹配当前得 到的特征点与之前图像上已经提取到的特征点,搜索过程使用IMU预积分得到的对应相机帧 的位姿变换加速搜索过程,以上过程称为特征跟踪,这一部分得到匹配成功的特征点的像素 位置作为滤波算法里的观测值输出到第二部分;
第二部分是多状态卡尔曼滤波模型:首先定义待估计的状态,MSCKF取连续20帧的无 人机状态,将其中无人机状态量的误差作为待估计的状态量,误差的定义是无人机状态的真 值和估计值之差,定义为
Figure BDA0002649137540000021
其中Bi,i=1,2,…20代表第i帧相机坐标系,
Figure BDA0002649137540000022
为IMU误差状态,表达式
Figure BDA0002649137540000023
其中
Figure BDA0002649137540000024
分别代表IMU 估计的无人机位置、速度误差状态,
Figure BDA0002649137540000025
代表四元数误差的三维近似,
Figure BDA0002649137540000026
Figure BDA0002649137540000027
分别代表IMU 加速度计与陀螺仪的误差状态,相机每帧位姿的误差
Figure BDA0002649137540000028
其中
Figure BDA0002649137540000029
代表相 机姿态的误差状态,
Figure BDA00026491375400000210
代表相机位置的误差状态;
多状态卡尔曼滤波模型分为预测、观测更新两步:预测步骤使用IMU预积分计算无人机 各项状态的预测值,具体步骤如下:首先不考虑噪声时IMU状态的动力学微分方程如下:
Figure BDA0002649137540000031
其中
Figure BDA0002649137540000032
分别代表对应IMU位置、速度、姿态、加速度计与陀螺仪 偏差状态,
Figure BDA0002649137540000033
Figure BDA0002649137540000034
am是IMU测量的加速度,wm是IMU测量的角速度,
Figure BDA0002649137540000035
代表四元数乘法,
Figure BDA0002649137540000036
代表四元数转旋转矩阵,当考虑噪声与偏差的随机游走模型 时,得IMU误差状态的动力学方程如下:
Figure BDA0002649137540000037
其中F是误差状态的状态转移矩 阵,G是IMU噪声的输入矩阵,nI是IMU噪声矩阵,
Figure BDA0002649137540000038
分别是加速度 计噪声方差,陀螺仪噪声方差,加速度计偏差噪声方差,陀螺仪偏差噪声方差,设当前帧为 k帧,当k+1帧到来时,使用中值积分离散化IMU动力学方程来更新的IMU状态与IMU误 差状态:
Figure BDA0002649137540000039
Θk是IMU误差状态转移矩阵。IMU误差状态的协方差矩阵
Figure BDA00026491375400000310
以如下方式传播:
Figure BDA00026491375400000311
其中
Figure BDA00026491375400000312
是k帧时刻IMU误差状态协方差矩阵,Q是IMU噪声的协方差矩阵,Qk代表预测模型的噪声协方差矩阵,然后将
Figure BDA00026491375400000313
增广到全状态Pk+1|k,Pk+1|k如下:
Figure BDA00026491375400000314
其中
Figure BDA00026491375400000315
均为
Figure BDA00026491375400000316
Figure BDA00026491375400000317
间的协方差矩阵,
Figure BDA00026491375400000318
Figure BDA00026491375400000319
的协方差矩阵,再来看相机 的位值预测值
Figure BDA00026491375400000320
和姿态预测值
Figure BDA00026491375400000321
因为IMU与相机之间有姿态外参BqI与位置外参 BpI,所以
Figure BDA00026491375400000322
Figure BDA00026491375400000323
有如下表示:
Figure BDA00026491375400000324
到此基于IMU预积分的预测步骤完成;
接下来开始观测更新步骤:首先根据特征跟踪的结果,观测到的特征点fj在第i帧图像 上的归一化坐标
Figure BDA00026491375400000325
Figure BDA00026491375400000326
为图像测量的噪声,
Figure BDA00026491375400000327
为fj在 第i帧相机坐标下的位置,设
Figure BDA00026491375400000328
为根据预测环节计算出的fj的坐标,由此得到观测方程的残 差
Figure BDA0002649137540000041
的表达式:
Figure BDA0002649137540000042
其中
Figure BDA0002649137540000043
是fj在世界系下的坐标,
Figure BDA0002649137540000044
代表相机的位置,
Figure BDA0002649137540000045
代表世界系到相机系的姿 态。将残差对相机帧的位姿的误差及特征点的位置误差取一阶线性化展开得
Figure BDA0002649137540000046
其中
Figure BDA0002649137540000047
Figure BDA0002649137540000048
分别为残差相对相机位姿与特征点位置的雅克比矩 阵,同时计算多帧的残差,累计起来的残差
Figure BDA0002649137540000049
其中
Figure BDA00026491375400000410
与nj分别 是累积形式的雅克比矩阵与噪声矩阵,
Figure BDA00026491375400000411
分别是累计的无人机状态误差与特征点位置 误差,该残差形式不符合卡尔曼滤波的表达形式,所以定义残差在
Figure BDA00026491375400000412
的左零空间的映射
Figure BDA00026491375400000413
得到了符合卡尔曼滤波模型的残差形式:
Figure BDA00026491375400000414
其中
Figure BDA00026491375400000415
是包含所有观测残差的雅克比矩阵,n是重新映射后的噪声矩阵,为了恢复左 零映射导致的残差维度变化,对
Figure BDA00026491375400000416
做正交三角分解,得
Figure BDA00026491375400000417
[M1 M2] 是正交矩阵,TH是上三角矩阵,得最终的观测方程
Figure BDA00026491375400000418
最后根据传统的卡尔曼滤波模型计算卡尔曼增益以及更新预测值和协方差矩阵:
Figure BDA00026491375400000419
其中Rn是噪声
Figure BDA00026491375400000420
的协方差矩阵,K是计算得到的卡尔曼增益,至此,视觉里程计完 成了对无人机状态的估计,因为有IMU的使用,视觉里程计得到高频无人机位姿信息;
第二步:视觉雷达松耦合里程计,在这一部分本发明首先接受雷达点云信息,并使用视 觉里程计的无人机位姿修正点云畸变,平均有10个MSCKF输出的信息,设一段时间内MSCKF位姿变换到雷达坐标下的变换矩阵
Figure BDA00026491375400000421
其对应的欧拉角与位移的表示方式为
Figure BDA00026491375400000422
二者可以相互转换。假设当前帧点云扫描结束时刻tk位于5和6之间。设tk时刻的位姿变换矩阵为
Figure BDA00026491375400000423
做线性插值得
Figure BDA00026491375400000424
Figure BDA00026491375400000425
对于当前点云帧里的每一个点
Figure BDA00026491375400000426
时间戳为ti,采取相同的线性插值的方法获取ti时刻 的位姿
Figure BDA00026491375400000427
再计算
Figure BDA00026491375400000428
Figure BDA00026491375400000429
间的姿态变化
Figure BDA00026491375400000430
Figure BDA00026491375400000431
得到
Figure BDA00026491375400000432
后,将
Figure BDA00026491375400000433
变换到扫描结 束tk时刻,得到了
Figure BDA00026491375400000434
这样当前帧点云坐标便全局统一到当前帧扫描结束时刻的雷达坐标下, 去除了点云畸变;
其次是从点云中提取特征,具体采用LOAM(Lidar Odometry And Mapping)雷达里程计的 方法,从点云中提取两种特征点,位于平坦区域的平面点和位于边缘或尖锐区域的边缘线点, 为了提取这两种点,对点云中每个点
Figure BDA0002649137540000051
定义平滑度c:
Figure BDA0002649137540000052
其中E代表
Figure BDA0002649137540000053
的数个邻域点。根据c的定义,如果点分布在平面上,c的值接近0;若点分布在边缘上,c的值很大,先计算每个点云的平滑度值,排序后取最大和最小的数十个点,即为特征点,在特征提取时为了避免特征点扎堆,规定一个特征点周围10个邻近点不能作为特征点,最终特征提取环节获得了边缘线点集
Figure BDA0002649137540000054
与平面点集
Figure BDA0002649137540000055
最后是特征匹配优化位姿,首先将
Figure BDA0002649137540000056
Figure BDA0002649137540000057
利用
Figure BDA0002649137540000058
变换到世界坐标系下,在当前位置 200m范围的点云地图PG上搜索与
Figure BDA0002649137540000059
Figure BDA00026491375400000510
匹配的特征线与面并计算当前特征点到各自匹配 的特征线、面的距离。定义当前线、面特征
Figure BDA00026491375400000511
Figure BDA00026491375400000512
里的任一点
Figure BDA00026491375400000513
到PG中的匹配特征距离:
Figure BDA00026491375400000514
其中,dL、dΠ为当前特征点到匹配的线、面的距离,下面统称为d。点p(k-1,j),p(k-1,l),p(k-1,m)为在PG中距离点
Figure BDA00026491375400000515
最近的点,这些点张成与
Figure BDA00026491375400000516
匹配的线与面,这样得到两个以距离作为残差,以位姿作为状态变量的非线性函数,将其转化为非线性最小二乘问题,以MSCKF 估计的位姿为先验值,使优化目标函数d近0,采用高斯牛顿法进行位姿优化求解。求解过程 如下,先将特征距离函数写为
Figure BDA00026491375400000517
设状态的增量为
Figure BDA00026491375400000518
做一阶泰勒展开得
Figure BDA00026491375400000519
其中J是函数f()相对于位姿的雅克比矩阵,根据高斯 牛顿方法可得要求解的
Figure BDA00026491375400000520
有以下方程
Figure BDA00026491375400000521
经过这样数次迭代,最终优化求 解出了更精确的位姿Tk。这步优化以5Hz低频进行,最后一步是位姿融合,每次得到Tk后计 算
Figure BDA00026491375400000522
接下来MSCKF输出位姿时,都左乘该△Tk,直到下一次雷达点云匹配优化 更新△Tk
第三步:建立占据体素地图,将点云地图转化为一种基于循环数组的占据体素地图,建 立占据体素地图有分为两个部分,第一步将3D空间体素化并建立循环数组,首先按照分辨 率r将三维空间划为若干大小一致的立方体称为体素,并对每个体素建立索引index,index为 三维向量index=[xin,yin,zin]T,对于空间中任一点po,其对应的index表达式为
Figure BDA0002649137540000061
其中floor()代表向下取整,这样建立起了空间点与体素索引间的映射,维护一个以当前 无人机位置为中心,边长为N个体素长度的局部立方体空间,具体方法为维护一个包含长度 为N3的数组以及局部地图的起始索引O的循环数组,当无人机移动时,只需要改变O和更新 数组中更新变化的体素,判断体素是否在局部空间及计算体素索引τ在循环数组中位置的方 法inVolume(τi)定义如下:
inVolume(τi)=0≤τi-Oi≤N,i∈{x,y,z} (13)
其中τi是τ的任意一维。而τ在数组内的位置lτ用以下公式计算:
Figure BDA0002649137540000062
其中address(τ)i代表体素τ在维度i上的索引,mod代表取余。运用以上公式,当无人机 移动时,更新的体素索引会对数组循环赋值,以上建立了体素索引与循环数组索引的映射, 就可以通过更新循环缓冲区维护局部地图,到此建图的第一步完成;
第二部分是对初始化完成的体素地图进行插值,插值指对每个体素计算占据概率并赋予 状态,具体的插值过程如下:
(1)遍历所有位于局部空间的点云,计算对应体素的占据概率,大于0.8时体素为占据 状态,代表无人机无法通过
(2)对局部空间以外的点,在局部空间内找到距离该点最近的体素索引,计算对应占据 概率,小于0.2即设为空闲状态,代表无人机可以通过;
(3)遍历已有的占据体素,向无人机所在位置投射射线,射线经过的体素都设为空闲;
在插值时,每个体素的占据概率是综合当前和历史所有观测结果得到的,占据概率 P(n|z1:t)计算公式如下:
Figure BDA0002649137540000063
其中n代表当前观测的体素,T={1,...t}时刻,观测的数据为{z1,...zt},该公式表明当前 体素的占据概率与当前观测结果zt,先验概率P(n)和之前估计的概率P(n|z1:t-1)有关;
使用对数logit变换将P(n|z1:t)变换到全体实数空间L(n|z1:t),logit变换公式为
Figure BDA0002649137540000064
其中log()代表对数运算。那么占据概率的计算公式的logit表达为 L(n|z1:t)=L(n|z1:t-1)+L(n|zt)。可见占据概率的计算完全变成了简单的加法,最后利用逆logit 变换得到真实的占据概率
Figure BDA0002649137540000065
其中exp()代表指数运算;到此插值 部分完成,以无人机位置为中心的占据体素地图建立完成。
视觉传感器激光雷达融合无人机定位与建图装置,包括双目相机、3D激光雷达、IMU 惯性测量单元、嵌入式机载处理器和无人机平台;双目相机采集周围环境的视觉信息;3D激 光雷达主要用于测量无人机周围环境的3维位置信息;IMU惯性测量单元用于高频测量无人 机自身加速度与角速度信息;嵌入式机载处理器用于算法运行,通过处理相机、雷达与IMU 采集到的数据,运行自主定位与建图算法,获得无人机自身位姿并同时进行环境地图的建立; 无人机平台用于搭载以上设备进行飞行实验验证。
所述的算法运行步骤如下:
1)视觉里程计:视觉里程计部分采用基于多状态卡尔曼滤波MSCKF(Multi-StateConstraint Kalman Filter,)的算法,将惯性测量单元IMU(Inertial Measurement Unit)预积分 结果作为预测值,同时接收双目相机的原始数据,从相机的图像中提取特征点并进行特征匹 配,然后构建观测方程更新预测值,得到高频的无人机位姿、速度信息;
2)视觉雷达松耦合里程计:首先将MSCKF视觉里程计的高频的无人机位姿信息作为先 验,对当前扫描的雷达点云做去畸变处理,然后从去畸变的点云中提出特征点并与点云地图 做特征匹配,构建出非线性优化问题,将MSCKF预测值作为优化初值,求解无人机位姿, 最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状 态信息,同时逐步拼接点云地图;
3)建立占据体素地图:基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为 中心的局部占据体素地图,占据体素地图的建立与更新通过循环缓冲区进行维护。
本发明的特点及有益效果是:
本发明对无人机自主定位与建图领域的算法研究具有十分重要的意义。本发明稳定可靠, 可直接作为无人机自主感知实验平台,进而解决无人机在无GPS信号下自主飞行,路径规划 以及避障问题,具有很高的理论与实用价值。本发明主要具有以下特点和优点:
(1)本发明提出的基于视觉雷达融合的无人机自主定位方法结合了基于视觉与基于雷达 的两类自主定位方法的优点,定位精度高且运算速度快,实时性高,占用计算机资源少。传 统的基于视觉的定位方法受光线影响强烈,鲁棒性差。传统的激光雷达定位方法采用ICP (Iterative Closest Point)就近点迭代算法进行扫描匹配,ICP算法不基于特征,对所有点云 进行最近点匹配,算法计算量过大,且在先验信息不准确的情况下算法不收敛。本发明提出 的视觉里程计与基于特征的雷达里程计松耦合的策略,结合了二者的优点,大大提高了自主 定位与建图算法的精度与鲁棒性。
(2)本发明提出了用高频视觉里程计信息修正雷达点云畸变再从点云中提取特征的策略, 解决雷达点云在无人机高速运动时的畸变问题,有效提高了定位算法在无人机等快速移动物 体上的精度。
(3)本发明提出了基于一种循环缓冲区的占据体素地图建立方法。能够快速高效地将雷 达扫描点云转化为以无人机为中心的占据体素地图,在无人机导航与避障能够发挥巨大作用。
(4)本发明搭建的无人机自主定位平台可扩展性强,除了相机、激光雷达和IMU传感 器设备之外,还可根据开发者需要自行添加传感器设备,可以进行二次开发。
附图说明:
附图1视觉雷达松耦合里程计姿态估计对比图。
附图2自主定位与建图算法结构框图。
附图3MSCKF视觉里程计结构框图。
附图4视觉雷达松耦合里程计位置估计对比图。
附图5走廊环境自主定位与建图实验效果图。
附图6室外环境自主定位与建图实验效果图。
附图7室外占据体素地图效果图。
具体实施方式
本发明提出的基于视觉雷达融合的无人机自主定位与建图系统,主要由硬件部分与算法 部分组成。
硬件部分包括双目相机、3D激光雷达、IMU惯性测量单元、嵌入式机载处理器和无人 机平台。双目相机采集周围环境的视觉信息,测量频率高,信息丰富。3D激光雷达主要用于 测量无人机周围环境的3维位置信息,测量精度高,覆盖范围大,能够将环境信息以3D点云数据形式发布出来;IMU惯性测量单元用于高频测量无人机自身加速度与角速度信息;嵌入式机载处理器主要用于算法运行,通过处理相机、雷达与IMU采集到的数据,运行自主定位与建图算法,获得无人机自身位姿并同时进行环境地图的建立;无人机平台用于搭载以上 设备进行飞行实验验证。
算法部分本发明利用多个传感器的信息计算无人机自身状态信息以及构建环境地图。本 发明提出的基于视觉雷达融合的无人机自主定位与建图算法由以下三个部分组成:
4)视觉里程计。视觉里程计部分采用基于MSCKF(Multi-State ConstraintKalman Filter, 多状态卡尔曼滤波)的算法,该算法将IMU预积分结果作为预测值,同时接收双目相机的原 始数据,从相机的图像中提取特征点并进行特征匹配,然后构建观测方程更新预测值,得到 高频的无人机位姿、速度等信息。
5)视觉雷达松耦合里程计。这一部分首先将MSCKF视觉里程计的高频位姿信息作为先 验,对当前扫描的雷达点云做去畸变处理。然后从去畸变的点云中提出特征点并与点云地图 做特征匹配,构建出非线性优化问题,将MSCKF估计值作为优化初值,求解无人机位姿, 最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状 态信息,同时逐步拼接点云地图。
6)建立占据体素地图。因为点云地图无法直接用于无人机导航与避障,所以这一部分将 提出一种基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为中心的局部占据体 素地图,占据体素地图的建立与更新通过循环缓冲区维护。
下面结合附图对本发明的基于视觉与雷达融合的无人机自主定位与建图给出详细说明。
无人机自主定位与建图系统总体结构图如附图1所示。针对无人机在无GPS信号下自主 定位与环境感知问题,本发明设计了一种基于视觉雷达融合的无人机自主定位与建图系统。 首先对系统的硬件构成进行详细的介绍,该系统的硬件组成包括四旋翼无人机、双目相机、 激光雷达、IMU惯性测量单元和嵌入式机载处理器。
考虑到该系统的可靠性与定位精度,需要具有高精度的传感器设备。对双目相机,本发 明采用
Figure BDA0002649137540000091
相机,该相机具有帧率高、曝光时间短,可外部硬件同步,重量轻、体积小等 诸多优点,该相机搭载到无人机上,使用USB3.0接口将视觉信息传给机载处理器进行处理。
对激光雷达设备,本发明采用
Figure BDA0002649137540000092
公司的VLP-16型号三维激光雷达。VLP-16测 量精度高,距离远。测量距离100米,垂直方向测量角度30°,分辨率为2°,水平方向测量角度范围为360°,测量频率10Hz,解析度为0.2°。雷达每次扫描获得16线数据,每条线包 含1800个测量点,每个测量点为三维位置信息。激光雷达将采集到的点云数据通过网口发给机载处理器进行处理。
对IMU,IMU(Inertial Measurement Unit,惯性测量单元)是一种直接测量所在机体加速度 与角速度的传感器。本发明采用
Figure BDA0002649137540000093
公司的MTi-300型号IMU。这是一款基于微型惯性 传感技术的工业级IMU,该传感器以1000Hz频率发布原生的角速率与线加速度信息。采用 USB3.0接口直接将传感器信息传给机载处理器进行处理。
对于嵌入式机载处理器,考虑到需要处理大量数据且能够搭载于无人机上。需选择性能 优异、轻量化的嵌入式开发平台,本发明采用英特尔第七代NUC(Next Unit ofComputing, 微型计算单元)作为机载处理器。NUC是英特尔推出的最小体积电脑,它搭载第七代智能
Figure BDA0002649137540000095
Figure BDA0002649137540000094
酷睿TM i7处理器,32G内存,这些使它成为适合嵌入式机载处理器的优良系统平台。
对四旋翼无人机平台,本发明采用碳纤维机架、Pixhawk飞行器控制器和大疆E300电机 电调组装成的四旋翼无人机。该无人机搭载性能强,续航时间长,可搭载多种类型的传感器 以进行相关研究。且Pixhawk作为一款开源飞控,提供了相当丰富的软件接口,研究者可根 据自身需求进行相应开发,可移植性强,极大算短了无人机飞行控制的研发周期。
接下来对本发明的软件依赖及算法结构进行介绍。本发明定位与建图算法都是在Linux 操作系统下基于ROS(Robot Operating System,机器人操作系统)进行开发。嵌入式机载处 理器内嵌Linux操作系统,在ROS系统环境下接受相机、雷达和IMU传感器采集的数据, 通过本发明设计的自主定位与建图算法进行处理,以实现无人机实时自主定位与环境感知。 其中,关键算法均采用C++语言编写。
自主定位与建图算法流程结构框图如附图2所示。本发明设计的基于视觉雷达融合的无 人机自主定位与建图算法主要包含3个步骤:
第一步:视觉里程计,采用MSCKF视觉里程计。MSCKF(Multi-State ConstraintKalman Filter,多状态约束卡尔曼滤波器)是一种改进的卡尔曼滤波器,其最大的特点是利用特征观测 对多个状态的约束更新状态变量。MSCKF视觉里程计算法分为两部分,第一部分是对IMU 与相机的原始信息的数据处理。首先算法从双目相机图像上做OrientedFast(有向快速)特 征点提取,Oriented Fast特征点计算机视觉领域经典的图像特征,最大的优点是提取速度很 快,适合在无人机等实时性要求较高的平台使用,而且具有尺度不变性、旋转不变性等优点。 特征提取完成后基于灰度不变假设,同一个特征点在不同图像帧上是相同的,所以算法搜索 匹配当前得到的特征点与之前图像上已经提取到的特征点,搜索过程使用IMU预积分得到的 对应相机帧的位姿变换加速搜索过程,以上过程称为特征跟踪,这一部分得到匹配成功的特 征点的像素位置作为滤波算法里的观测值输出到第二部分;
第二部分是多状态卡尔曼滤波模型。首先定义待估计的状态,MSCKF取连续20帧的无 人机状态,将其中无人机状态量的误差作为待估计的状态量,误差的定义是无人机状态的真 值和估计值之差,定义为
Figure BDA0002649137540000101
其中Bi,i=1,2,…20代表第i帧相机坐标系,
Figure BDA0002649137540000102
为IMU误差状态,表达式
Figure BDA0002649137540000103
其中
Figure BDA0002649137540000104
分别代表IMU 估计的无人机位置、速度,
Figure BDA0002649137540000105
代表四元数误差的三维近似,
Figure BDA0002649137540000106
Figure BDA0002649137540000107
分别代表IMU加速度 计与陀螺仪的误差状态。相机每帧位姿的误差
Figure BDA0002649137540000108
其中
Figure BDA0002649137540000109
代表相机姿态 的误差状态,
Figure BDA00026491375400001010
代表相机位置的误差状态;
接下来介绍多状态卡尔曼滤波模型。多状态卡尔曼滤波模型分为预测、观测更新两步。 预测步骤使用IMU预积分计算无人机各项状态的预测值,具体步骤如下。首先不考虑噪声时 IMU状态的动力学微分方程如下:
Figure BDA00026491375400001011
其中
Figure BDA00026491375400001012
分别代表对应IMU位置、速度、姿态、加速度计与陀螺仪 偏差状态。
Figure BDA00026491375400001013
Figure BDA00026491375400001014
am是IMU测量的加速度,wm是IMU测量的角速度。
Figure BDA00026491375400001015
代表四元数乘法,
Figure BDA00026491375400001016
代表四元数转旋转矩阵。当考虑噪声与偏差的随机游走模型 时,得IMU误差状态的动力学方程如下:
Figure BDA00026491375400001017
其中F是误差状态的状态转移矩 阵,G是IMU噪声的输入矩阵,nI是IMU噪声矩阵,
Figure BDA00026491375400001018
分别是加速度 计噪声方差,陀螺仪噪声方差,加速度计偏差噪声方差,陀螺仪偏差噪声方差。设当前帧为 k帧,当k+1帧到来时,使用中值积分离散化IMU动力学方程来更新的IMU状态与IMU误 差状态:
Figure BDA00026491375400001019
Θk是IMU误差状态转移矩阵。IMU误差状态的协方差矩阵
Figure BDA00026491375400001020
以如下方式传播:
Figure BDA00026491375400001021
其中
Figure BDA00026491375400001022
是k帧IMU误差状态协方差矩阵,Q是IMU噪声的协方差矩阵,Qk代表预测模型的噪声协方差矩阵。然后将
Figure BDA00026491375400001023
增广到全状态协方差矩阵Pk+1|k,Pk+1|k如下:
Figure BDA0002649137540000111
其中
Figure BDA0002649137540000112
均为
Figure BDA0002649137540000113
Figure BDA0002649137540000114
间的协方差矩阵,
Figure BDA0002649137540000115
Figure BDA0002649137540000116
的协方差矩阵。再来看相机 的位置预测值
Figure BDA0002649137540000117
和姿态预测值
Figure BDA0002649137540000118
因为IMU与相机之间有姿态外参BqI与位置外参 BpI,所以
Figure BDA0002649137540000119
Figure BDA00026491375400001110
有如下表示:
Figure BDA00026491375400001111
到此基于IMU预积分的预测步骤完成。
接下来开始观测更新步骤。首先根据特征跟踪的结果,观测到的特征点fj在第i帧图像 上的归一化坐标
Figure BDA00026491375400001112
Figure BDA00026491375400001113
为图像测量的噪声,
Figure BDA00026491375400001114
为fj在 第i帧相机坐标下的位置。设
Figure BDA00026491375400001115
为根据预测环节计算出的fj的坐标,由此得到观测方程的残 差
Figure BDA00026491375400001116
的表达式:
Figure BDA00026491375400001117
Figure BDA00026491375400001118
其中
Figure BDA00026491375400001119
是fj在世界系下的坐标,其中
Figure BDA00026491375400001120
代表相机的位置,
Figure BDA00026491375400001121
代表世界系到相机系 的姿态。将残差对相机帧的位姿的误差及特征点的位置误差取一阶线性化展开得
Figure BDA00026491375400001122
其中
Figure BDA00026491375400001123
Figure BDA00026491375400001124
分别为残差相对相机位姿与特征点位置的雅克比矩 阵。累计起来的残差
Figure BDA00026491375400001125
其中
Figure BDA00026491375400001126
与nj分别是累积形式的雅克比矩 阵与噪声矩阵,
Figure BDA00026491375400001127
分别是累计的无人机状态误差与特征点位置误差。该残差形式不符 合卡尔曼滤波的表达形式,所以我们定义残差在
Figure BDA00026491375400001128
的左零空间的映射
Figure BDA00026491375400001129
得到了符合卡尔 曼滤波模型的残差形式:
Figure BDA00026491375400001130
其中
Figure BDA00026491375400001131
是包含所有观测残差的雅克比矩阵,n是重新映射后的噪声矩阵。为了恢复左 零映射导致的残差维度变化,对
Figure BDA00026491375400001132
做正交三角分解,得
Figure BDA00026491375400001133
[M1 M2] 是正交矩阵,TH是上三角矩阵,得最终的观测方程
Figure BDA00026491375400001134
最后根据传统的卡尔曼滤波模型计算卡尔曼增益以及更新预测值和协方差矩阵:
Figure BDA00026491375400001135
其中Rn是噪声
Figure BDA0002649137540000121
的协方差矩阵,K是计算得到的卡尔曼增益。至此,视觉里程计完 成了对无人机状态的估计,因为有IMU的使用,视觉里程计得到了100hz的高频无人机位姿 信息。
第二步:视觉雷达松耦合里程计,在这一部分本发明首先接受雷达点云信息,并使用视 觉里程计的100Hz的无人机位姿修正点云畸变,点云扫描周期为0.1s,平均有10个MSCKF 输出的信息,设一段时间内MSCKF位姿变换到雷达坐标下的变换矩阵
Figure BDA0002649137540000122
其对应的欧拉角与位移的表示方式为
Figure BDA0002649137540000123
二者可以相互转换,假设当前帧点 云扫描结束时刻tk位于5和6之间。设tk时刻的位姿变换矩阵为
Figure BDA0002649137540000124
做线性插值得
Figure BDA0002649137540000125
Figure BDA0002649137540000126
对于当前点云帧里的每一个点pi B,时间戳为ti,采取相同的线性插值的方法获取ti时刻 的位姿
Figure BDA0002649137540000127
再计算
Figure BDA0002649137540000128
Figure BDA0002649137540000129
间的姿态变化
Figure BDA00026491375400001210
Figure BDA00026491375400001211
得到
Figure BDA00026491375400001212
后,将pi B变换到扫描结 束tk时刻,这样当前帧点云坐标便全局统一到当前帧扫描结束时刻的雷达坐标下,去除了点 云畸变。
其次是从点云中提取特征,具体采用LOAM(Lidar Odometry And Mapping)雷达里程计的 方法,从点云中提取两种特征点,位于平坦区域的平面点和位于边缘或尖锐区域的边缘线点, 为了提取这两种点,对点云中每个点
Figure BDA00026491375400001213
定义平滑度c:
Figure BDA00026491375400001214
其中E代表
Figure BDA00026491375400001215
的数个邻域点。根据c的定义,如果点分布在平面上,c的值接近0;若点分布在边缘上,c的值很大。先计算每个点云的平滑度值,排序后取最大和最小的数十个点,即为特征点,在特征提取时为了避免特征点扎堆,规定一个特征点周围10个邻近点不能作为特征点,最终特征提取环节获得了边缘线点集
Figure BDA00026491375400001216
与平面点集
Figure BDA00026491375400001217
最后是特征匹配优化位姿,首先将
Figure BDA00026491375400001218
Figure BDA00026491375400001219
利用
Figure BDA00026491375400001220
变换到世界坐标系下,在当前位置 200m范围的点云地图PG上搜索与
Figure BDA00026491375400001221
Figure BDA00026491375400001222
匹配的特征线与面,并计算当前特征点到各自匹配 的特征线、面的距离。定义当前线、面特征
Figure BDA00026491375400001223
Figure BDA00026491375400001224
里的任一点
Figure BDA00026491375400001225
到PG中的匹配特征距离:
Figure BDA00026491375400001226
Figure BDA00026491375400001227
其中,dL、dΠ为当前特征点到匹配的线、面的距离,下面统称为d。点p(k-1,j),p(k-1,l),p(k-1,m)为在PG内距离点
Figure BDA00026491375400001228
最近的点,这些点张成与
Figure BDA00026491375400001229
匹配的线与面,这样得到两个以距离作为残差,以位姿作为状态变量的非线性函数。将其转化为非线性最小二乘问题,以MSCKF估计的位姿为先验值,使优化目标函数d趋近0,采用高斯牛顿法进行位姿优化求解。求解过程如下,先将特征距离函数写为
Figure BDA0002649137540000131
设状态的增量为
Figure BDA0002649137540000132
做一阶泰勒展开得
Figure BDA0002649137540000133
其中J是函数f()相对于位姿的雅克比矩阵,根据 高斯牛顿方法可得要求解的
Figure BDA0002649137540000134
有以下方程
Figure BDA0002649137540000135
经过这样数次迭代,最终优 化求解出了更精确的位姿Tk。这步优化以5Hz低频进行,最后一步是位姿融合,每次得到Tk后计算
Figure BDA0002649137540000136
接下来MSCKF输出位姿时,都左乘该△Tk,直到下一次雷达点云匹配 优化更新△Tk
第三步:建立占据体素地图,将点云地图转化为一种基于循环数组的占据体素地图,建 立占据体素地图有分为两个部分。第一步将3D空间体素化并建立循环数组。首先按照分辨 率r将三维空间划为若干大小一致的立方体称为体素,并对每个体素建立索引index,index为 三维向量index=[xin,yin,zin]T,对于空间中任一点po,其对应的index表达式为
Figure BDA0002649137540000137
其中floor()代表向下取整,这样建立起了空间点与体素索引间的映射,维护一个以当前 无人机位置为中心,边长为N个体素长度的局部立方体空间,具体方法为维护一个包含长度 为N3的数组以及局部地图的起始索引O的循环数组,当无人机移动时,只需要改变O和更新 数组中更新变化的体素,判断体素是否在局部空间及计算体素索引τ在循环数组中位置的方 法inVolume(τi)定义如下:
inVolume(τi)=0≤τi-Oi≤N,i∈{x,y,z} (13)
其中τi是τ的任意一维。而τ在数组内的位置lτ用以下公式计算:
Figure BDA0002649137540000138
其中address(τ)i代表体素τ在维度i上的索引,mod代表取余。运用以上公式,当无人机 移动时,更新的体素索引会对数组循环赋值。以上建立了体素索引与循环数组索引的映射, 就可以通过更新循环缓冲区维护局部地图,到此建图的第一步完成;
第二部分是对初始化完成的体素地图进行插值,插值指对每个体素计算占据概率并赋予 状态,具体的插值过程如下:
(1)遍历所有位于局部空间的点云,计算对应体素的占据概率,大于0.8时体素为占据 状态,代表无人机无法通过
(2)对局部空间以外的点,在局部空间内找到距离该点最近的体素索引,计算对应占据 概率,小于0.2即设为空闲状态,代表无人机可以通过;
(3)遍历已有的占据体素,向无人机所在位置投射射线,射线经过的体素都设为空闲;
在插值时,每个体素的占据概率是综合当前和历史所有观测结果得到的,占据概率 P(n|z1:t)计算公式如下:
Figure BDA0002649137540000141
其中n代表当前观测的体素,T={1,...t}时刻,观测的数据为{z1,...zt},该公式表明当前 体素的占据概率与当前观测结果zt,先验概率P(n)和之前估计的概率P(n|z1:t-1)有关;
使用logit(对数)变换将P(n|z1:t)变换到全体实数空间L(n|z1:t),logit变换公式为
Figure BDA0002649137540000142
log()代表对数运算。那么占据概率的计算公式的logit表达为 L(n|z1:t)=L(n|z1:t-1)+L(n|zt)。可见占据概率的计算完全变成了简单的加法,最后利用逆logit 变换得到真实的占据概率
Figure BDA0002649137540000143
exp()代表指数运算;到此插值部分 完成,以无人机位置为中心的占据体素地图建立完成。

Claims (3)

1.一种视觉传感器激光雷达融合无人机定位与建图方法,其特征是,步骤如下:
1)视觉里程计:视觉里程计部分采用基于多状态卡尔曼滤波MSCKF(Multi-StateConstraint Kalman Filter)的算法,将惯性测量单元IMU(Inertial Measurement Unit)预积分结果作为预测值,同时接收双目相机的原始数据,从相机的图像中提取特征点并进行特征匹配,然后构建观测方程更新预测值,得到高频的无人机位姿、速度信息;
2)视觉雷达松耦合里程计:首先将MSCKF视觉里程计的高频的无人机位姿信息作为先验,对当前扫描的雷达点云做去畸变处理,然后从去畸变的点云中提出特征点并与点云地图做特征匹配,构建出非线性优化问题,将MSCKF预测值作为优化初值,求解无人机位姿,最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状态信息,同时逐步拼接点云地图;
3)建立占据体素地图:基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为中心的局部占据体素地图,占据体素地图的建立与更新通过循环缓冲区进行维护。
2.如权利要求1所述的视觉传感器激光雷达融合无人机定位与建图方法,其特征是,具体步骤如下:
第一步:视觉里程计,采用MSCKF视觉里程计,MSCKF视觉里程计算法分为两部分,第一部分是对IMU与相机的原始信息的数据处理,首先算法从双目相机图像上做有向快速Oriented Fast特征点提取,Oriented Fast特征点是计算机视觉领域的图像特征点,特征提取完成后基于灰度不变假设,同一个特征点在不同图像帧上是相同的,所以算法搜索匹配当前得到的特征点与之前图像上已经提取到的特征点,搜索过程使用IMU预积分得到的对应相机帧的位姿变换加速搜索过程,以上过程称为特征跟踪,这一部分得到匹配成功的特征点的像素位置作为滤波算法里的观测值输出到第二部分;
第二部分是多状态卡尔曼滤波模型:首先定义待估计的状态,MSCKF取连续20帧的无人机状态,将其中无人机状态量的误差作为待估计的状态量,误差的定义是无人机状态的真值和估计值之差,定义为
Figure FDA0003853841850000011
其中Bi,i=1,2,…20代表第i帧相机坐标系,
Figure FDA0003853841850000012
为IMU误差状态,表达式
Figure FDA0003853841850000013
其中
Figure FDA0003853841850000014
分别代表IMU估计的无人机位置、速度误差状态,
Figure FDA0003853841850000015
代表四元数误差的三维近似,
Figure FDA0003853841850000016
Figure FDA0003853841850000017
分别代表IMU加速度计与陀螺仪的误差状态,相机每帧位姿的误差
Figure FDA0003853841850000018
其中
Figure FDA0003853841850000019
代表相机姿态的误差状态,
Figure FDA00038538418500000110
代表相机位置的误差状态;
多状态卡尔曼滤波模型分为预测、观测更新两步:预测步骤使用IMU预积分计算无人机各项状态的预测值,具体步骤如下:首先不考虑噪声时IMU状态的动力学微分方程如下:
Figure FDA0003853841850000021
Figure FDA0003853841850000022
Figure FDA0003853841850000023
其中
Figure FDA0003853841850000024
分别代表对应IMU位置、速度、姿态、加速度计与陀螺仪偏差状态,
Figure FDA0003853841850000025
Figure FDA0003853841850000026
am是IMU测量的加速度,wm是IMU测量的角速度,
Figure FDA0003853841850000027
代表四元数乘法,
Figure FDA0003853841850000028
代表四元数转旋转矩阵,当考虑噪声与偏差的随机游走模型时,得IMU误差状态的动力学方程如下:
Figure FDA0003853841850000029
其中F是误差状态的状态转移矩阵,G是IMU噪声的输入矩阵,nI是IMU噪声矩阵,
Figure FDA00038538418500000210
分别是加速度计噪声方差,陀螺仪噪声方差,加速度计偏差噪声方差,陀螺仪偏差噪声方差,设当前帧为k帧,当k+1帧到来时,使用中值积分离散化IMU动力学方程来更新的IMU状态与IMU误差状态:
Figure FDA00038538418500000211
Θk是IMU误差状态转移矩阵,IMU误差状态的协方差矩阵
Figure FDA00038538418500000212
以如下方式传播:
Figure FDA00038538418500000213
Figure FDA00038538418500000214
其中
Figure FDA00038538418500000215
是k帧时刻IMU误差状态协方差矩阵,Q是IMU噪声的协方差矩阵,Qk代表预测模型的噪声协方差矩阵,然后将
Figure FDA00038538418500000216
增广到全状态Pk+1|k,Pk+1|k如下:
Figure FDA00038538418500000217
其中
Figure FDA00038538418500000218
均为
Figure FDA00038538418500000219
Figure FDA00038538418500000220
间的协方差矩阵,
Figure FDA00038538418500000221
Figure FDA00038538418500000222
的协方差矩阵,再来看相机的位置预测值
Figure FDA00038538418500000223
和姿态预测值
Figure FDA00038538418500000224
因为IMU与相机之间有姿态外参BqI与位置外参BpI,所以
Figure FDA00038538418500000225
Figure FDA00038538418500000226
有如下表示:
Figure FDA00038538418500000227
到此基于IMU预积分的预测步骤完成;
接下来开始观测更新步骤:首先根据特征跟踪的结果,观测到的特征点fj在第i帧图像上的归一化坐标
Figure FDA0003853841850000031
为图像测量的噪声,
Figure FDA0003853841850000032
为fj在第i帧相机坐标下的位置,设
Figure FDA0003853841850000033
为根据预测环节计算出的fj的坐标,由此得到观测方程的残差
Figure FDA0003853841850000034
的表达式:
Figure FDA0003853841850000035
Figure FDA0003853841850000036
其中
Figure FDA0003853841850000037
是fj在世界系下的坐标,
Figure FDA0003853841850000038
代表相机的位置,
Figure FDA0003853841850000039
代表世界系到相机系的姿态,将残差对相机帧的位姿的误差及特征点的位置误差取一阶线性化展开得
Figure FDA00038538418500000310
其中
Figure FDA00038538418500000311
Figure FDA00038538418500000312
分别为残差相对相机位姿与特征点位置的雅克比矩阵,同时计算多帧的残差,累计起来的残差
Figure FDA00038538418500000313
其中
Figure FDA00038538418500000314
与nj分别是累积形式的雅克比矩阵与噪声矩阵,
Figure FDA00038538418500000315
分别是累计的无人机状态误差与特征点位置误差,该残差形式不符合卡尔曼滤波的表达形式,所以定义残差在
Figure FDA00038538418500000316
的左零空间的映射
Figure FDA00038538418500000317
得到了符合卡尔曼滤波模型的残差形式:
Figure FDA00038538418500000318
其中
Figure FDA00038538418500000319
是包含所有观测残差的雅克比矩阵,n是重新映射后的噪声矩阵,为了恢复左零映射导致的残差维度变化,对
Figure FDA00038538418500000320
做正交三角分解,得
Figure FDA00038538418500000321
[M1 M2]是正交矩阵,TH是上三角矩阵,得最终的观测方程
Figure FDA00038538418500000322
最后根据传统的卡尔曼滤波模型计算卡尔曼增益以及更新预测值和协方差矩阵:
Figure FDA00038538418500000323
Figure FDA00038538418500000324
Pk+1|k+1=(I-KTH)Pk+1|k(I-KTH)T+KRnKT (8)
其中Rn是噪声
Figure FDA00038538418500000325
的协方差矩阵,K是计算得到的卡尔曼增益,至此,视觉里程计完成了对无人机状态的估计,因为有IMU的使用,视觉里程计得到高频无人机位姿信息;
第二步:视觉雷达松耦合里程计,在这一部分首先接受雷达点云信息,并使用视觉里程计的无人机位姿修正点云畸变,平均有10个MSCKF输出的信息,设一段时间内MSCKF位姿变换到雷达坐标下的变换矩阵
Figure FDA00038538418500000326
其对应的欧拉角与位移的表示方式为
Figure FDA00038538418500000327
二者可以相互转换,假设当前帧点云扫描结束时刻tk位于5和6之间,设tk时刻的位姿变换矩阵为
Figure FDA00038538418500000328
做线性插值得
Figure FDA00038538418500000329
Figure FDA0003853841850000041
对于当前点云帧里的每一个点
Figure FDA0003853841850000042
时间戳为ti,采取相同的线性插值的方法获取ti时刻的位姿
Figure FDA0003853841850000043
再计算
Figure FDA0003853841850000044
Figure FDA0003853841850000045
间的姿态变化
Figure FDA0003853841850000046
得到
Figure FDA0003853841850000047
后,将
Figure FDA0003853841850000048
变换到扫描结束tk时刻,得到了
Figure FDA0003853841850000049
这样当前帧点云坐标便全局统一到当前帧扫描结束时刻的雷达坐标下,去除了点云畸变;
其次是从点云中提取特征,具体采用LOAM(Lidar Odometry And Mapping)雷达里程计的方法,从点云中提取两种特征点,位于平坦区域的平面点和位于边缘或尖锐区域的边缘线点,为了提取这两种点,对点云中每个点
Figure FDA00038538418500000410
定义平滑度c:
Figure FDA00038538418500000411
其中Ε代表
Figure FDA00038538418500000412
的数个邻域点,根据c的定义,如果点分布在平面上,c的值接近0;若点分布在边缘上,c的值很大,先计算每个点云的平滑度值,排序后取最大和最小的数十个点,即为特征点,在特征提取时为了避免特征点扎堆,规定一个特征点周围10个邻近点不能作为特征点,最终特征提取环节获得了边缘线点集
Figure FDA00038538418500000413
与平面点集
Figure FDA00038538418500000414
最后是特征匹配优化位姿,首先将
Figure FDA00038538418500000415
Figure FDA00038538418500000416
利用
Figure FDA00038538418500000417
变换到世界坐标系下,在当前位置200m范围的点云地图PG上搜索与
Figure FDA00038538418500000418
Figure FDA00038538418500000419
匹配的特征线与面并计算当前特征点到各自匹配的特征线、面的距离,定义当前线、面特征
Figure FDA00038538418500000420
Figure FDA00038538418500000421
里的任一点
Figure FDA00038538418500000422
到PG中的匹配特征距离:
Figure FDA00038538418500000423
Figure FDA00038538418500000424
其中,dL、dΠ为当前特征点到匹配的线、面的距离,下面统称为d,点p(k-1,j),p(k-1,l),p(k-1,m)为在PG中距离点
Figure FDA00038538418500000425
最近的点,这些点张成与
Figure FDA00038538418500000426
匹配的线与面,这样得到两个以距离作为残差,以位姿作为状态变量的非线性函数,将其转化为非线性最小二乘问题,以MSCKF估计的位姿为先验值,使优化目标函数d近0,采用高斯牛顿法进行位姿优化求解,求解过程如下,先将特征距离函数写为
Figure FDA00038538418500000427
设状态的增量为
Figure FDA00038538418500000428
做一阶泰勒展开得
Figure FDA00038538418500000429
其中J是函数f()相对于位姿的雅克比矩阵,根据高斯牛顿方法可得要求解的
Figure FDA0003853841850000051
有以下方程
Figure FDA0003853841850000052
经过这样数次迭代,最终优化求解出了更精确的位姿Tk,这步优化以5Hz低频进行,最后一步是位姿融合,每次得到Tk后计算
Figure FDA0003853841850000053
接下来MSCKF输出位姿时,都左乘该ΔTk,直到下一次雷达点云匹配优化更新ΔTk
第三步:建立占据体素地图,将点云地图转化为一种基于循环数组的占据体素地图,建立占据体素地图有分为两个部分,第一步将3D空间体素化并建立循环数组,首先按照分辨率r将三维空间划为若干大小一致的立方体称为体素,并对每个体素建立索引index,index为三维向量index=[xin,yin,zin]T,对于空间中任一点po,其对应的index表达式为
Figure FDA0003853841850000054
其中floor()代表向下取整,这样建立起了空间点与体素索引间的映射,维护一个以当前无人机位置为中心,边长为N个体素长度的局部立方体空间,具体方法为维护一个包含长度为N3的数组以及局部地图的起始索引O的循环数组,当无人机移动时,只需要改变O和更新数组中更新变化的体素,判断体素是否在局部空间及计算体素索引τ在循环数组中位置的方法inVolume(τi)定义如下:
inVolume(τi)=0≤τi-Oi≤N,i∈{x,y,z} (13)
其中τi是τ的任意一维,而τ在数组内的位置lτ用以下公式计算:
address(τ)i=(τi-O)mod N,i∈{x,y,z}
lτ=N2address(τ)x+Naddress(τ)y+address(τ)z (14)
其中address(τ)i代表体素τ在维度i上的索引,mod代表取余,运用以上公式,当无人机移动时,更新的体素索引会对数组循环赋值,以上建立了体素索引与循环数组索引的映射,就可以通过更新循环缓冲区维护局部地图,到此建图的第一步完成;
第二部分是对初始化完成的体素地图进行插值,插值指对每个体素计算占据概率并赋予状态,具体的插值过程如下:
(1)遍历所有位于局部空间的点云,计算对应体素的占据概率,大于0.8时体素为占据状态,代表无人机无法通过
(2)对局部空间以外的点,在局部空间内找到距离该点最近的体素索引,计算对应占据概率,小于0.2即设为空闲状态,代表无人机可以通过;
(3)遍历已有的占据体素,向无人机所在位置投射射线,射线经过的体素都设为空闲;
在插值时,每个体素的占据概率是综合当前和历史所有观测结果得到的,占据概率P(n|z1:t)计算公式如下:
Figure FDA0003853841850000061
其中n代表当前观测的体素,T={1,...t}时刻,观测的数据为{z1,...zt},该公式表明当前体素的占据概率与当前观测结果zt,先验概率P(n)和之前估计的概率P(n|z1:t-1)有关;
使用对数logit变换将P(n|z1:t)变换到全体实数空间L(n|z1:t),logit变换公式为
Figure FDA0003853841850000062
其中log()代表对数运算,那么占据概率的计算公式的logit表达为L(n|z1:t)=L(n|z1:t-1)+L(n|zt),可见占据概率的计算完全变成了简单的加法,最后利用逆logit变换得到真实的占据概率
Figure FDA0003853841850000063
其中exp()代表指数运算;到此插值部分完成,以无人机位置为中心的占据体素地图建立完成。
3.一种视觉传感器激光雷达融合无人机定位与建图装置,其特征是,包括双目相机、3D激光雷达、IMU惯性测量单元、嵌入式机载处理器和无人机平台;双目相机采集周围环境的视觉信息;3D激光雷达用于测量无人机周围环境的3维位置信息;IMU惯性测量单元用于高频测量无人机自身加速度与角速度信息;嵌入式机载处理器用于算法运行,通过处理相机、雷达与IMU采集到的数据,运行自主定位与建图算法,获得无人机自身位姿并同时进行环境地图的建立;无人机平台用于搭载以上设备进行飞行实验验证;所述的算法运行步骤如下:
1)视觉里程计:视觉里程计部分采用基于多状态卡尔曼滤波MSCKF(Multi-StateConstraint Kalman Filter,)的算法,将惯性测量单元IMU(Inertial Measurement Unit)预积分结果作为预测值,同时接收双目相机的原始数据,从相机的图像中提取特征点并进行特征匹配,然后构建观测方程更新预测值,得到高频的无人机位姿、速度信息;
2)视觉雷达松耦合里程计:首先将MSCKF视觉里程计的高频的无人机位姿信息作为先验,对当前扫描的雷达点云做去畸变处理,然后从去畸变的点云中提出特征点并与点云地图做特征匹配,构建出非线性优化问题,将MSCKF预测值作为优化初值,求解无人机位姿,最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状态信息,同时逐步拼接点云地图;
3)建立占据体素地图:基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为中心的局部占据体素地图,占据体素地图的建立与更新通过循环缓冲区进行维护。
CN202010864051.4A 2020-08-25 2020-08-25 视觉传感器激光雷达融合无人机定位与建图装置和方法 Active CN112347840B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010864051.4A CN112347840B (zh) 2020-08-25 2020-08-25 视觉传感器激光雷达融合无人机定位与建图装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010864051.4A CN112347840B (zh) 2020-08-25 2020-08-25 视觉传感器激光雷达融合无人机定位与建图装置和方法

Publications (2)

Publication Number Publication Date
CN112347840A CN112347840A (zh) 2021-02-09
CN112347840B true CN112347840B (zh) 2022-12-02

Family

ID=74357908

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010864051.4A Active CN112347840B (zh) 2020-08-25 2020-08-25 视觉传感器激光雷达融合无人机定位与建图装置和方法

Country Status (1)

Country Link
CN (1) CN112347840B (zh)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112965063B (zh) * 2021-02-11 2022-04-01 深圳市安泽智能机器人有限公司 一种机器人建图定位方法
CN113075686B (zh) * 2021-03-19 2024-01-12 长沙理工大学 一种基于多传感器融合的电缆沟智能巡检机器人建图方法
CN112697064B (zh) * 2021-03-24 2021-06-18 北京大成国测科技有限公司 基于视觉和激光雷达的轨道变形智能识别系统
CN113066105B (zh) * 2021-04-02 2022-10-21 北京理工大学 激光雷达和惯性测量单元融合的定位与建图方法及系统
CN112991400B (zh) * 2021-04-07 2022-02-01 广东工业大学 一种无人艇的多传感器辅助定位方法
CN113093759A (zh) * 2021-04-08 2021-07-09 中国科学技术大学 基于多传感器信息融合的机器人编队构造方法及系统
CN113220023B (zh) * 2021-04-28 2022-10-14 中国科学院重庆绿色智能技术研究院 一种高精度无人机实时路径规划方法
CN113310487B (zh) * 2021-05-25 2022-11-04 云南电网有限责任公司电力科学研究院 一种面向地面移动机器人的组合导航方法和装置
CN113375664B (zh) * 2021-06-09 2023-09-01 成都信息工程大学 基于点云地图动态加载的自主移动装置定位方法
CN113503883B (zh) * 2021-06-22 2022-07-19 北京三快在线科技有限公司 采集用于构建地图的数据的方法、存储介质及电子设备
CN113465728B (zh) * 2021-06-25 2023-08-04 重庆工程职业技术学院 一种地形感知方法、系统、存储介质、计算机设备
CN113566833A (zh) * 2021-07-28 2021-10-29 上海工程技术大学 一种多传感器融合的车辆定位方法及系统
CN113706626B (zh) * 2021-07-30 2022-12-09 西安交通大学 一种基于多传感器融合及二维码校正的定位与建图方法
CN113658257B (zh) * 2021-08-17 2022-05-27 广州文远知行科技有限公司 一种无人设备定位方法、装置、设备及存储介质
CN113759364A (zh) * 2021-09-06 2021-12-07 浙江大学 一种基于激光地图的毫米波雷达连续定位方法及装置
CN113625774B (zh) * 2021-09-10 2023-07-21 天津大学 局部地图匹配与端到端测距多无人机协同定位系统和方法
CN113781582B (zh) * 2021-09-18 2023-09-19 四川大学 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN115371699B (zh) * 2021-09-30 2024-03-15 达闼科技(北京)有限公司 视觉惯性里程计方法、装置及电子设备
CN113920186B (zh) * 2021-10-13 2022-12-27 中国电子科技集团公司第五十四研究所 一种低空无人机多源融合定位方法
CN113933861B (zh) * 2021-11-12 2022-06-07 成都航维智芯科技有限公司 机载激光雷达点云生成方法及系统
CN114089364A (zh) * 2021-11-18 2022-02-25 智能移动机器人(中山)研究院 一种集成化的感知系统装置及实现方法
CN114413885A (zh) * 2021-12-22 2022-04-29 华人运通(上海)自动驾驶科技有限公司 基于多传感器融合定位的时间同步方法及系统
CN114353799B (zh) * 2021-12-30 2023-09-05 武汉大学 搭载多线激光雷达的无人驾驶平台室内快速全局定位方法
CN114370871A (zh) * 2022-01-13 2022-04-19 华南理工大学 一种可见光定位与激光雷达惯性里程计的紧耦合优化方法
CN114371716A (zh) * 2022-01-20 2022-04-19 红骐科技(杭州)有限公司 一种用于消防机器人的自动驾驶巡检方法
CN114429432B (zh) * 2022-04-07 2022-06-21 科大天工智能装备技术(天津)有限公司 一种多源信息分层融合方法、装置及存储介质
CN114648584B (zh) * 2022-05-23 2022-08-30 北京理工大学前沿技术研究院 一种用于多源融合定位的鲁棒性控制方法和系统
CN114755693B (zh) * 2022-06-15 2022-09-16 天津大学四川创新研究院 基于多旋翼无人机的基建设施测量系统和方法
CN114779793B (zh) * 2022-06-21 2022-08-26 北京大学 一种基于动态向量场的轮式机器人运动规划方法
CN114858226B (zh) * 2022-07-05 2022-10-25 武汉大水云科技有限公司 一种无人机山洪流量测量方法、装置及设备
CN114897942B (zh) * 2022-07-15 2022-10-28 深圳元戎启行科技有限公司 点云地图的生成方法、设备及相关存储介质
CN115097381B (zh) * 2022-08-26 2022-12-09 东南大学溧阳研究院 一种室内可见光定位校准方法
CN115166686B (zh) * 2022-09-06 2022-11-11 天津大学 卫星拒止环境下多无人机分布式协同定位与建图方法
CN115574816B (zh) * 2022-11-24 2023-03-14 东南大学 仿生视觉多源信息智能感知无人平台
CN116839570B (zh) * 2023-07-13 2023-12-01 安徽农业大学 一种基于传感器融合目标检测的作物行间作业导航方法
CN116660923B (zh) * 2023-08-01 2023-09-29 齐鲁空天信息研究院 一种融合视觉和激光雷达的无人农机机库定位方法和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107450577A (zh) * 2017-07-25 2017-12-08 天津大学 基于多传感器的无人机智能感知系统和方法
CN108804528A (zh) * 2018-04-28 2018-11-13 北京猎户星空科技有限公司 一种数据融合方法及装置
CN110118554A (zh) * 2019-05-16 2019-08-13 深圳前海达闼云端智能科技有限公司 基于视觉惯性的slam方法、装置、存储介质和设备
CN110262546A (zh) * 2019-06-18 2019-09-20 武汉大学 一种隧道智能无人机巡检系统及方法
CN111366153A (zh) * 2020-03-19 2020-07-03 浙江大学 一种激光雷达与imu紧耦合的定位方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018026544A1 (en) * 2016-07-22 2018-02-08 Regents Of The University Of Minnesota Square-root multi-state constraint kalman filter for vision-aided inertial navigation system
US10317214B2 (en) * 2016-10-25 2019-06-11 Massachusetts Institute Of Technology Inertial odometry with retroactive sensor calibration

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107450577A (zh) * 2017-07-25 2017-12-08 天津大学 基于多传感器的无人机智能感知系统和方法
CN108804528A (zh) * 2018-04-28 2018-11-13 北京猎户星空科技有限公司 一种数据融合方法及装置
CN110118554A (zh) * 2019-05-16 2019-08-13 深圳前海达闼云端智能科技有限公司 基于视觉惯性的slam方法、装置、存储介质和设备
CN110262546A (zh) * 2019-06-18 2019-09-20 武汉大学 一种隧道智能无人机巡检系统及方法
CN111366153A (zh) * 2020-03-19 2020-07-03 浙江大学 一种激光雷达与imu紧耦合的定位方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Xingxing Zuo 等."LIC-Fusion: LiDAR-Inertial-Camera Odometry".《2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)》.2020, *
安靖雅."用于园区自动驾驶的高精度定位与环境构建算法开发".《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》.2020, *

Also Published As

Publication number Publication date
CN112347840A (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
CN112347840B (zh) 视觉传感器激光雷达融合无人机定位与建图装置和方法
CN109709801B (zh) 一种基于激光雷达的室内无人机定位系统及方法
CN112634451B (zh) 一种融合多传感器的室外大场景三维建图方法
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
CN112083725B (zh) 一种面向自动驾驶车辆的结构共用多传感器融合定位系统
CN109522832B (zh) 基于点云片段匹配约束和轨迹漂移优化的回环检测方法
Li et al. Estimating position of mobile robots from omnidirectional vision using an adaptive algorithm
CN113781582A (zh) 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
US20210183100A1 (en) Data processing method and apparatus
CN113625774B (zh) 局部地图匹配与端到端测距多无人机协同定位系统和方法
CN112967392A (zh) 一种基于多传感器触合的大规模园区建图定位方法
CN116182837A (zh) 基于视觉激光雷达惯性紧耦合的定位建图方法
CN113674412B (zh) 基于位姿融合优化的室内地图构建方法、系统及存储介质
CN115272596A (zh) 一种面向单调无纹理大场景的多传感器融合slam方法
Magree et al. Combined laser and vision-aided inertial navigation for an indoor unmanned aerial vehicle
CN113763549A (zh) 融合激光雷达和imu的同时定位建图方法、装置和存储介质
Karam et al. Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping
CN110187337B (zh) 一种基于ls和neu-ecef时空配准的高机动目标跟踪方法及系统
Peng et al. Vehicle odometry with camera-lidar-IMU information fusion and factor-graph optimization
Wang et al. Micro aerial vehicle navigation with visual-inertial integration aided by structured light
CN116577801A (zh) 一种基于激光雷达和imu的定位与建图方法及系统
CN116124161A (zh) 一种基于先验地图的LiDAR/IMU融合定位方法
Hu et al. Efficient Visual-Inertial navigation with point-plane map

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant