CN112347840B - 视觉传感器激光雷达融合无人机定位与建图装置和方法 - Google Patents
视觉传感器激光雷达融合无人机定位与建图装置和方法 Download PDFInfo
- Publication number
- CN112347840B CN112347840B CN202010864051.4A CN202010864051A CN112347840B CN 112347840 B CN112347840 B CN 112347840B CN 202010864051 A CN202010864051 A CN 202010864051A CN 112347840 B CN112347840 B CN 112347840B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- imu
- pose
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000000007 visual effect Effects 0.000 claims abstract description 54
- 238000013507 mapping Methods 0.000 claims abstract description 47
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 44
- 238000005259 measurement Methods 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 12
- 230000001133 acceleration Effects 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 67
- 238000005457 optimization Methods 0.000 claims description 20
- 238000001914 filtration Methods 0.000 claims description 17
- 230000010354 integration Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 16
- 125000004122 cyclic group Chemical group 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 230000001131 transforming effect Effects 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 6
- 230000008878 coupling Effects 0.000 claims description 5
- 238000010168 coupling process Methods 0.000 claims description 5
- 238000005859 coupling reaction Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 235000008331 Pinus X rigitaeda Nutrition 0.000 claims description 4
- 235000011613 Pinus brutia Nutrition 0.000 claims description 4
- 241000018646 Pinus brutia Species 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000002474 experimental method Methods 0.000 claims description 3
- 238000005295 random walk Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000005305 interferometry Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 abstract description 2
- 238000004519 manufacturing process Methods 0.000 abstract 1
- 238000011160 research Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 229920000049 Carbon (fiber) Polymers 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000011668 ascorbic acid Substances 0.000 description 1
- 239000004917 carbon fiber Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C22/00—Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/933—Lidar systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明属于视觉传感器、激光雷达、嵌入式、无人机领域,为解决无人机在GPS拒止环境下自主定位与环境地图建立问题,实现无人机在未知环境下自主飞行与避障,本发明,视觉传感器激光雷达融合无人机定位与建图装置和方法,包括双目相机、激光雷达、IMU惯性测量单元、嵌入式机载处理器和无人机平台;双目相机采集周围环境的视觉信息;激光雷达主要用于测量无人机周围环境的3维位置信息;IMU惯性测量单元用于高频测量无人机自身加速度与角速度信息;嵌入式机载处理器用于算法运行,通过处理相机、雷达与IMU采集到的数据,运行自主定位与建图算法,获得无人机自身位姿并同时进行环境地图的建立。本发明主要应用于无人机设计制造场合。
Description
技术领域
本发明属于视觉传感器领域、激光雷达传感器领域、嵌入式系统领域、无人机领域,尤 其涉及一种基于视觉与激光雷达结合的无人机感知系统,解决了在GPS(全球卫星定位系统) 拒止环境下基于视觉雷达的无人机自主定位与环境地图建立的问题。
背景技术
近年来无人机技术是国内外研究的重要热点之一,无人机以无线遥控或嵌入式程序控制 代替人工完成各种任务,凭借其体积小、成本低、易用性好、对飞行环境要求低等优点,在 军事领域和民用领域得到了广泛的应用。军事方面无人机在侦查、攻击、电子对抗等方面发 挥了重要的作用。民用方面无人机在航拍、灾情监控、线路巡检以及农药喷洒等领域的应用 越来越广泛。
传统的无人机定位方法是采用GPS、北斗等全球卫星导航定位系统。但随着无人机技术 的发展尤其是随着无人机应用场景的复杂化,在室内、隧道、楼体间等场景下GPS的定位精 度受卫星信号强弱影响,信号呈现不稳定乃至拒止现象,无法实时为无人机提供准确的定位 信息。基于卫星定位的无人机在类似场景下的应用受到严重限制,因此近年来基于无人机自 身携带的传感器的无人机自主飞行技术是无人机领域研究热点。
实现无人机自主飞行,要解决无人机在GPS拒止且未知复杂环境下自主定位与环境地图 建立两大问题。自主定位指传感器提供精准可靠的无人机飞行状态信息,这是实现无人机自 主飞行的基础与关键。环境地图建立指无人机利用传感器探测的环境信息建立周围环境的地 图,是无人机实现自主导航、路径规划与避障的必要能力。为了解决无人机的自主定位与环 境建图问题,我们常采用激光雷达、单双目摄像头、深度图像相机和IMU(Inertial Measurement Unit)惯性测量单元等多传感器设备进行无人机自主定位与建图。
针对无人机自主定位与建图问题,国内外各大高校都进行了深入的研究。2014年,德国 慕尼黑工业大学提出了一种基于直接法的稠密单目视觉SLAM(simultaneouslocalization and mapping,同步定位与建图)算法来构建大规模的环境地图。2015年,卡耐基梅隆大学的团 队提出一种基于鱼眼相机与2D激光雷达融合的无人机自主飞行系统,2018年,香港科技大 学的团队提出了一种飞行状态估计的单目视觉惯性系统,实现了无人机自主导航飞行。目前 美国麻省理工大学、宾夕法尼亚大学、苏黎世联邦理工大学、新加坡国立大学等国家的科研 团队都采用视觉或激光雷达设备进行了相关研究,并取得了一定成果;国内的清华大学、北 京航空航天大学、哈尔滨工业大学、天津大学等也开展了相关研究。由此可见无人机在复杂 环境下的自主定位与建图是目前国际无人机领域的研究热点之一,因此,设计一套精度高、 实时性强、可扩展性强的无人机自主定位与建图系统具有十分重要的研究价值和应用意义。
发明内容
为克服现有技术的不足,本发明旨在提出解决无人机在GPS拒止环境下无人机自主定位 与环境地图建立问题,实现无人机在未知环境下自主飞行与避障。具体而言,本发明将相机 和雷达感知的信息作为输入,通过计算得到无人机自身状态信息和无人机周围环境地图。此 外本发明有利于其他无人机自主定位算法在该平台上进行验证,有限提高了无人机自主定位 的研究效率,具有极大的应用价值。为此,本发明采取的技术方案是,视觉传感器激光雷达 融合无人机定位与建图方法,步骤如下:
1)视觉里程计:视觉里程计部分采用基于多状态卡尔曼滤波MSCKF(Multi-StateConstraint Kalman Filter)的算法,将惯性测量单元IMU(Inertial Measurement Unit)预积分 结果作为预测值,同时接收双目相机的原始数据,从相机的图像中提取特征点并进行特征匹 配,然后构建观测方程更新预测值,得到高频的无人机位姿、速度信息;
2)视觉雷达松耦合里程计:首先将MSCKF视觉里程计的高频的无人机位姿信息作为先 验,对当前扫描的雷达点云做去畸变处理,然后从去畸变的点云中提出特征点并与点云地图 做特征匹配,构建出非线性优化问题,将MSCKF预测值作为优化初值,求解无人机位姿, 最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状 态信息,同时逐步拼接点云地图;
3)建立占据体素地图:基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为 中心的局部占据体素地图,占据体素地图的建立与更新通过循环缓冲区进行维护。
具体步骤如下:
第一步:视觉里程计,采用MSCKF视觉里程计,MSCKF视觉里程计算法分为两部分,第一部分是对IMU与相机的原始信息的数据处理,首先算法从双目相机图像上做有向快速Oriented Fast特征点提取,Oriented Fast特征点是计算机视觉领域的图像特征点,特征提取完 成后基于灰度不变假设,同一个特征点在不同图像帧上是相同的,所以算法搜索匹配当前得 到的特征点与之前图像上已经提取到的特征点,搜索过程使用IMU预积分得到的对应相机帧 的位姿变换加速搜索过程,以上过程称为特征跟踪,这一部分得到匹配成功的特征点的像素 位置作为滤波算法里的观测值输出到第二部分;
第二部分是多状态卡尔曼滤波模型:首先定义待估计的状态,MSCKF取连续20帧的无 人机状态,将其中无人机状态量的误差作为待估计的状态量,误差的定义是无人机状态的真 值和估计值之差,定义为其中Bi,i=1,2,…20代表第i帧相机坐标系, 为IMU误差状态,表达式其中分别代表IMU 估计的无人机位置、速度误差状态,代表四元数误差的三维近似,与分别代表IMU 加速度计与陀螺仪的误差状态,相机每帧位姿的误差其中代表相 机姿态的误差状态,代表相机位置的误差状态;
多状态卡尔曼滤波模型分为预测、观测更新两步:预测步骤使用IMU预积分计算无人机 各项状态的预测值,具体步骤如下:首先不考虑噪声时IMU状态的动力学微分方程如下:
其中分别代表对应IMU位置、速度、姿态、加速度计与陀螺仪 偏差状态,和am是IMU测量的加速度,wm是IMU测量的角速度,代表四元数乘法,代表四元数转旋转矩阵,当考虑噪声与偏差的随机游走模型 时,得IMU误差状态的动力学方程如下:其中F是误差状态的状态转移矩 阵,G是IMU噪声的输入矩阵,nI是IMU噪声矩阵,分别是加速度 计噪声方差,陀螺仪噪声方差,加速度计偏差噪声方差,陀螺仪偏差噪声方差,设当前帧为 k帧,当k+1帧到来时,使用中值积分离散化IMU动力学方程来更新的IMU状态与IMU误 差状态:
到此基于IMU预积分的预测步骤完成;
接下来开始观测更新步骤:首先根据特征跟踪的结果,观测到的特征点fj在第i帧图像 上的归一化坐标 为图像测量的噪声,为fj在 第i帧相机坐标下的位置,设为根据预测环节计算出的fj的坐标,由此得到观测方程的残 差的表达式:
其中是fj在世界系下的坐标,代表相机的位置,代表世界系到相机系的姿 态。将残差对相机帧的位姿的误差及特征点的位置误差取一阶线性化展开得其中与分别为残差相对相机位姿与特征点位置的雅克比矩 阵,同时计算多帧的残差,累计起来的残差其中与nj分别 是累积形式的雅克比矩阵与噪声矩阵,分别是累计的无人机状态误差与特征点位置 误差,该残差形式不符合卡尔曼滤波的表达形式,所以定义残差在的左零空间的映射得到了符合卡尔曼滤波模型的残差形式:
最后根据传统的卡尔曼滤波模型计算卡尔曼增益以及更新预测值和协方差矩阵:
第二步:视觉雷达松耦合里程计,在这一部分本发明首先接受雷达点云信息,并使用视 觉里程计的无人机位姿修正点云畸变,平均有10个MSCKF输出的信息,设一段时间内MSCKF位姿变换到雷达坐标下的变换矩阵其对应的欧拉角与位移的表示方式为二者可以相互转换。假设当前帧点云扫描结束时刻tk位于5和6之间。设tk时刻的位姿变换矩阵为做线性插值得
对于当前点云帧里的每一个点时间戳为ti,采取相同的线性插值的方法获取ti时刻 的位姿再计算与间的姿态变化 得到后,将变换到扫描结 束tk时刻,得到了这样当前帧点云坐标便全局统一到当前帧扫描结束时刻的雷达坐标下, 去除了点云畸变;
其次是从点云中提取特征,具体采用LOAM(Lidar Odometry And Mapping)雷达里程计的 方法,从点云中提取两种特征点,位于平坦区域的平面点和位于边缘或尖锐区域的边缘线点, 为了提取这两种点,对点云中每个点定义平滑度c:
其中E代表的数个邻域点。根据c的定义,如果点分布在平面上,c的值接近0;若点分布在边缘上,c的值很大,先计算每个点云的平滑度值,排序后取最大和最小的数十个点,即为特征点,在特征提取时为了避免特征点扎堆,规定一个特征点周围10个邻近点不能作为特征点,最终特征提取环节获得了边缘线点集与平面点集
最后是特征匹配优化位姿,首先将和利用变换到世界坐标系下,在当前位置 200m范围的点云地图PG上搜索与和匹配的特征线与面并计算当前特征点到各自匹配 的特征线、面的距离。定义当前线、面特征和里的任一点到PG中的匹配特征距离:
其中,dL、dΠ为当前特征点到匹配的线、面的距离,下面统称为d。点p(k-1,j),p(k-1,l),p(k-1,m)为在PG中距离点最近的点,这些点张成与匹配的线与面,这样得到两个以距离作为残差,以位姿作为状态变量的非线性函数,将其转化为非线性最小二乘问题,以MSCKF 估计的位姿为先验值,使优化目标函数d近0,采用高斯牛顿法进行位姿优化求解。求解过程 如下,先将特征距离函数写为设状态的增量为做一阶泰勒展开得 其中J是函数f()相对于位姿的雅克比矩阵,根据高斯 牛顿方法可得要求解的有以下方程经过这样数次迭代,最终优化求 解出了更精确的位姿Tk。这步优化以5Hz低频进行,最后一步是位姿融合,每次得到Tk后计 算接下来MSCKF输出位姿时,都左乘该△Tk,直到下一次雷达点云匹配优化 更新△Tk;
第三步:建立占据体素地图,将点云地图转化为一种基于循环数组的占据体素地图,建 立占据体素地图有分为两个部分,第一步将3D空间体素化并建立循环数组,首先按照分辨 率r将三维空间划为若干大小一致的立方体称为体素,并对每个体素建立索引index,index为 三维向量index=[xin,yin,zin]T,对于空间中任一点po,其对应的index表达式为
其中floor()代表向下取整,这样建立起了空间点与体素索引间的映射,维护一个以当前 无人机位置为中心,边长为N个体素长度的局部立方体空间,具体方法为维护一个包含长度 为N3的数组以及局部地图的起始索引O的循环数组,当无人机移动时,只需要改变O和更新 数组中更新变化的体素,判断体素是否在局部空间及计算体素索引τ在循环数组中位置的方 法inVolume(τi)定义如下:
inVolume(τi)=0≤τi-Oi≤N,i∈{x,y,z} (13)
其中τi是τ的任意一维。而τ在数组内的位置lτ用以下公式计算:
其中address(τ)i代表体素τ在维度i上的索引,mod代表取余。运用以上公式,当无人机 移动时,更新的体素索引会对数组循环赋值,以上建立了体素索引与循环数组索引的映射, 就可以通过更新循环缓冲区维护局部地图,到此建图的第一步完成;
第二部分是对初始化完成的体素地图进行插值,插值指对每个体素计算占据概率并赋予 状态,具体的插值过程如下:
(1)遍历所有位于局部空间的点云,计算对应体素的占据概率,大于0.8时体素为占据 状态,代表无人机无法通过
(2)对局部空间以外的点,在局部空间内找到距离该点最近的体素索引,计算对应占据 概率,小于0.2即设为空闲状态,代表无人机可以通过;
(3)遍历已有的占据体素,向无人机所在位置投射射线,射线经过的体素都设为空闲;
在插值时,每个体素的占据概率是综合当前和历史所有观测结果得到的,占据概率 P(n|z1:t)计算公式如下:
其中n代表当前观测的体素,T={1,...t}时刻,观测的数据为{z1,...zt},该公式表明当前 体素的占据概率与当前观测结果zt,先验概率P(n)和之前估计的概率P(n|z1:t-1)有关;
使用对数logit变换将P(n|z1:t)变换到全体实数空间L(n|z1:t),logit变换公式为其中log()代表对数运算。那么占据概率的计算公式的logit表达为 L(n|z1:t)=L(n|z1:t-1)+L(n|zt)。可见占据概率的计算完全变成了简单的加法,最后利用逆logit 变换得到真实的占据概率其中exp()代表指数运算;到此插值 部分完成,以无人机位置为中心的占据体素地图建立完成。
视觉传感器激光雷达融合无人机定位与建图装置,包括双目相机、3D激光雷达、IMU 惯性测量单元、嵌入式机载处理器和无人机平台;双目相机采集周围环境的视觉信息;3D激 光雷达主要用于测量无人机周围环境的3维位置信息;IMU惯性测量单元用于高频测量无人 机自身加速度与角速度信息;嵌入式机载处理器用于算法运行,通过处理相机、雷达与IMU 采集到的数据,运行自主定位与建图算法,获得无人机自身位姿并同时进行环境地图的建立; 无人机平台用于搭载以上设备进行飞行实验验证。
所述的算法运行步骤如下:
1)视觉里程计:视觉里程计部分采用基于多状态卡尔曼滤波MSCKF(Multi-StateConstraint Kalman Filter,)的算法,将惯性测量单元IMU(Inertial Measurement Unit)预积分 结果作为预测值,同时接收双目相机的原始数据,从相机的图像中提取特征点并进行特征匹 配,然后构建观测方程更新预测值,得到高频的无人机位姿、速度信息;
2)视觉雷达松耦合里程计:首先将MSCKF视觉里程计的高频的无人机位姿信息作为先 验,对当前扫描的雷达点云做去畸变处理,然后从去畸变的点云中提出特征点并与点云地图 做特征匹配,构建出非线性优化问题,将MSCKF预测值作为优化初值,求解无人机位姿, 最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状 态信息,同时逐步拼接点云地图;
3)建立占据体素地图:基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为 中心的局部占据体素地图,占据体素地图的建立与更新通过循环缓冲区进行维护。
本发明的特点及有益效果是:
本发明对无人机自主定位与建图领域的算法研究具有十分重要的意义。本发明稳定可靠, 可直接作为无人机自主感知实验平台,进而解决无人机在无GPS信号下自主飞行,路径规划 以及避障问题,具有很高的理论与实用价值。本发明主要具有以下特点和优点:
(1)本发明提出的基于视觉雷达融合的无人机自主定位方法结合了基于视觉与基于雷达 的两类自主定位方法的优点,定位精度高且运算速度快,实时性高,占用计算机资源少。传 统的基于视觉的定位方法受光线影响强烈,鲁棒性差。传统的激光雷达定位方法采用ICP (Iterative Closest Point)就近点迭代算法进行扫描匹配,ICP算法不基于特征,对所有点云 进行最近点匹配,算法计算量过大,且在先验信息不准确的情况下算法不收敛。本发明提出 的视觉里程计与基于特征的雷达里程计松耦合的策略,结合了二者的优点,大大提高了自主 定位与建图算法的精度与鲁棒性。
(2)本发明提出了用高频视觉里程计信息修正雷达点云畸变再从点云中提取特征的策略, 解决雷达点云在无人机高速运动时的畸变问题,有效提高了定位算法在无人机等快速移动物 体上的精度。
(3)本发明提出了基于一种循环缓冲区的占据体素地图建立方法。能够快速高效地将雷 达扫描点云转化为以无人机为中心的占据体素地图,在无人机导航与避障能够发挥巨大作用。
(4)本发明搭建的无人机自主定位平台可扩展性强,除了相机、激光雷达和IMU传感 器设备之外,还可根据开发者需要自行添加传感器设备,可以进行二次开发。
附图说明:
附图1视觉雷达松耦合里程计姿态估计对比图。
附图2自主定位与建图算法结构框图。
附图3MSCKF视觉里程计结构框图。
附图4视觉雷达松耦合里程计位置估计对比图。
附图5走廊环境自主定位与建图实验效果图。
附图6室外环境自主定位与建图实验效果图。
附图7室外占据体素地图效果图。
具体实施方式
本发明提出的基于视觉雷达融合的无人机自主定位与建图系统,主要由硬件部分与算法 部分组成。
硬件部分包括双目相机、3D激光雷达、IMU惯性测量单元、嵌入式机载处理器和无人 机平台。双目相机采集周围环境的视觉信息,测量频率高,信息丰富。3D激光雷达主要用于 测量无人机周围环境的3维位置信息,测量精度高,覆盖范围大,能够将环境信息以3D点云数据形式发布出来;IMU惯性测量单元用于高频测量无人机自身加速度与角速度信息;嵌入式机载处理器主要用于算法运行,通过处理相机、雷达与IMU采集到的数据,运行自主定位与建图算法,获得无人机自身位姿并同时进行环境地图的建立;无人机平台用于搭载以上 设备进行飞行实验验证。
算法部分本发明利用多个传感器的信息计算无人机自身状态信息以及构建环境地图。本 发明提出的基于视觉雷达融合的无人机自主定位与建图算法由以下三个部分组成:
4)视觉里程计。视觉里程计部分采用基于MSCKF(Multi-State ConstraintKalman Filter, 多状态卡尔曼滤波)的算法,该算法将IMU预积分结果作为预测值,同时接收双目相机的原 始数据,从相机的图像中提取特征点并进行特征匹配,然后构建观测方程更新预测值,得到 高频的无人机位姿、速度等信息。
5)视觉雷达松耦合里程计。这一部分首先将MSCKF视觉里程计的高频位姿信息作为先 验,对当前扫描的雷达点云做去畸变处理。然后从去畸变的点云中提出特征点并与点云地图 做特征匹配,构建出非线性优化问题,将MSCKF估计值作为优化初值,求解无人机位姿, 最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状 态信息,同时逐步拼接点云地图。
6)建立占据体素地图。因为点云地图无法直接用于无人机导航与避障,所以这一部分将 提出一种基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为中心的局部占据体 素地图,占据体素地图的建立与更新通过循环缓冲区维护。
下面结合附图对本发明的基于视觉与雷达融合的无人机自主定位与建图给出详细说明。
无人机自主定位与建图系统总体结构图如附图1所示。针对无人机在无GPS信号下自主 定位与环境感知问题,本发明设计了一种基于视觉雷达融合的无人机自主定位与建图系统。 首先对系统的硬件构成进行详细的介绍,该系统的硬件组成包括四旋翼无人机、双目相机、 激光雷达、IMU惯性测量单元和嵌入式机载处理器。
考虑到该系统的可靠性与定位精度,需要具有高精度的传感器设备。对双目相机,本发 明采用相机,该相机具有帧率高、曝光时间短,可外部硬件同步,重量轻、体积小等 诸多优点,该相机搭载到无人机上,使用USB3.0接口将视觉信息传给机载处理器进行处理。
对激光雷达设备,本发明采用公司的VLP-16型号三维激光雷达。VLP-16测 量精度高,距离远。测量距离100米,垂直方向测量角度30°,分辨率为2°,水平方向测量角度范围为360°,测量频率10Hz,解析度为0.2°。雷达每次扫描获得16线数据,每条线包 含1800个测量点,每个测量点为三维位置信息。激光雷达将采集到的点云数据通过网口发给机载处理器进行处理。
对IMU,IMU(Inertial Measurement Unit,惯性测量单元)是一种直接测量所在机体加速度 与角速度的传感器。本发明采用公司的MTi-300型号IMU。这是一款基于微型惯性 传感技术的工业级IMU,该传感器以1000Hz频率发布原生的角速率与线加速度信息。采用 USB3.0接口直接将传感器信息传给机载处理器进行处理。
对于嵌入式机载处理器,考虑到需要处理大量数据且能够搭载于无人机上。需选择性能 优异、轻量化的嵌入式开发平台,本发明采用英特尔第七代NUC(Next Unit ofComputing, 微型计算单元)作为机载处理器。NUC是英特尔推出的最小体积电脑,它搭载第七代智能 酷睿TM i7处理器,32G内存,这些使它成为适合嵌入式机载处理器的优良系统平台。
对四旋翼无人机平台,本发明采用碳纤维机架、Pixhawk飞行器控制器和大疆E300电机 电调组装成的四旋翼无人机。该无人机搭载性能强,续航时间长,可搭载多种类型的传感器 以进行相关研究。且Pixhawk作为一款开源飞控,提供了相当丰富的软件接口,研究者可根 据自身需求进行相应开发,可移植性强,极大算短了无人机飞行控制的研发周期。
接下来对本发明的软件依赖及算法结构进行介绍。本发明定位与建图算法都是在Linux 操作系统下基于ROS(Robot Operating System,机器人操作系统)进行开发。嵌入式机载处 理器内嵌Linux操作系统,在ROS系统环境下接受相机、雷达和IMU传感器采集的数据, 通过本发明设计的自主定位与建图算法进行处理,以实现无人机实时自主定位与环境感知。 其中,关键算法均采用C++语言编写。
自主定位与建图算法流程结构框图如附图2所示。本发明设计的基于视觉雷达融合的无 人机自主定位与建图算法主要包含3个步骤:
第一步:视觉里程计,采用MSCKF视觉里程计。MSCKF(Multi-State ConstraintKalman Filter,多状态约束卡尔曼滤波器)是一种改进的卡尔曼滤波器,其最大的特点是利用特征观测 对多个状态的约束更新状态变量。MSCKF视觉里程计算法分为两部分,第一部分是对IMU 与相机的原始信息的数据处理。首先算法从双目相机图像上做OrientedFast(有向快速)特 征点提取,Oriented Fast特征点计算机视觉领域经典的图像特征,最大的优点是提取速度很 快,适合在无人机等实时性要求较高的平台使用,而且具有尺度不变性、旋转不变性等优点。 特征提取完成后基于灰度不变假设,同一个特征点在不同图像帧上是相同的,所以算法搜索 匹配当前得到的特征点与之前图像上已经提取到的特征点,搜索过程使用IMU预积分得到的 对应相机帧的位姿变换加速搜索过程,以上过程称为特征跟踪,这一部分得到匹配成功的特 征点的像素位置作为滤波算法里的观测值输出到第二部分;
第二部分是多状态卡尔曼滤波模型。首先定义待估计的状态,MSCKF取连续20帧的无 人机状态,将其中无人机状态量的误差作为待估计的状态量,误差的定义是无人机状态的真 值和估计值之差,定义为其中Bi,i=1,2,…20代表第i帧相机坐标系, 为IMU误差状态,表达式其中分别代表IMU 估计的无人机位置、速度,代表四元数误差的三维近似,与分别代表IMU加速度 计与陀螺仪的误差状态。相机每帧位姿的误差其中代表相机姿态 的误差状态,代表相机位置的误差状态;
接下来介绍多状态卡尔曼滤波模型。多状态卡尔曼滤波模型分为预测、观测更新两步。 预测步骤使用IMU预积分计算无人机各项状态的预测值,具体步骤如下。首先不考虑噪声时 IMU状态的动力学微分方程如下:
其中分别代表对应IMU位置、速度、姿态、加速度计与陀螺仪 偏差状态。和am是IMU测量的加速度,wm是IMU测量的角速度。代表四元数乘法,代表四元数转旋转矩阵。当考虑噪声与偏差的随机游走模型 时,得IMU误差状态的动力学方程如下:其中F是误差状态的状态转移矩 阵,G是IMU噪声的输入矩阵,nI是IMU噪声矩阵,分别是加速度 计噪声方差,陀螺仪噪声方差,加速度计偏差噪声方差,陀螺仪偏差噪声方差。设当前帧为 k帧,当k+1帧到来时,使用中值积分离散化IMU动力学方程来更新的IMU状态与IMU误 差状态:
到此基于IMU预积分的预测步骤完成。
接下来开始观测更新步骤。首先根据特征跟踪的结果,观测到的特征点fj在第i帧图像 上的归一化坐标 为图像测量的噪声,为fj在 第i帧相机坐标下的位置。设为根据预测环节计算出的fj的坐标,由此得到观测方程的残 差的表达式:
其中是fj在世界系下的坐标,其中代表相机的位置,代表世界系到相机系 的姿态。将残差对相机帧的位姿的误差及特征点的位置误差取一阶线性化展开得其中与分别为残差相对相机位姿与特征点位置的雅克比矩 阵。累计起来的残差其中与nj分别是累积形式的雅克比矩 阵与噪声矩阵,分别是累计的无人机状态误差与特征点位置误差。该残差形式不符 合卡尔曼滤波的表达形式,所以我们定义残差在的左零空间的映射得到了符合卡尔 曼滤波模型的残差形式:
最后根据传统的卡尔曼滤波模型计算卡尔曼增益以及更新预测值和协方差矩阵:
第二步:视觉雷达松耦合里程计,在这一部分本发明首先接受雷达点云信息,并使用视 觉里程计的100Hz的无人机位姿修正点云畸变,点云扫描周期为0.1s,平均有10个MSCKF 输出的信息,设一段时间内MSCKF位姿变换到雷达坐标下的变换矩阵其对应的欧拉角与位移的表示方式为二者可以相互转换,假设当前帧点 云扫描结束时刻tk位于5和6之间。设tk时刻的位姿变换矩阵为做线性插值得
对于当前点云帧里的每一个点pi B,时间戳为ti,采取相同的线性插值的方法获取ti时刻 的位姿再计算与间的姿态变化 得到后,将pi B变换到扫描结 束tk时刻,这样当前帧点云坐标便全局统一到当前帧扫描结束时刻的雷达坐标下,去除了点 云畸变。
其次是从点云中提取特征,具体采用LOAM(Lidar Odometry And Mapping)雷达里程计的 方法,从点云中提取两种特征点,位于平坦区域的平面点和位于边缘或尖锐区域的边缘线点, 为了提取这两种点,对点云中每个点定义平滑度c:
其中E代表的数个邻域点。根据c的定义,如果点分布在平面上,c的值接近0;若点分布在边缘上,c的值很大。先计算每个点云的平滑度值,排序后取最大和最小的数十个点,即为特征点,在特征提取时为了避免特征点扎堆,规定一个特征点周围10个邻近点不能作为特征点,最终特征提取环节获得了边缘线点集与平面点集
最后是特征匹配优化位姿,首先将和利用变换到世界坐标系下,在当前位置 200m范围的点云地图PG上搜索与和匹配的特征线与面,并计算当前特征点到各自匹配 的特征线、面的距离。定义当前线、面特征和里的任一点到PG中的匹配特征距离:
其中,dL、dΠ为当前特征点到匹配的线、面的距离,下面统称为d。点p(k-1,j),p(k-1,l),p(k-1,m)为在PG内距离点最近的点,这些点张成与匹配的线与面,这样得到两个以距离作为残差,以位姿作为状态变量的非线性函数。将其转化为非线性最小二乘问题,以MSCKF估计的位姿为先验值,使优化目标函数d趋近0,采用高斯牛顿法进行位姿优化求解。求解过程如下,先将特征距离函数写为设状态的增量为做一阶泰勒展开得其中J是函数f()相对于位姿的雅克比矩阵,根据 高斯牛顿方法可得要求解的有以下方程经过这样数次迭代,最终优 化求解出了更精确的位姿Tk。这步优化以5Hz低频进行,最后一步是位姿融合,每次得到Tk后计算接下来MSCKF输出位姿时,都左乘该△Tk,直到下一次雷达点云匹配 优化更新△Tk;
第三步:建立占据体素地图,将点云地图转化为一种基于循环数组的占据体素地图,建 立占据体素地图有分为两个部分。第一步将3D空间体素化并建立循环数组。首先按照分辨 率r将三维空间划为若干大小一致的立方体称为体素,并对每个体素建立索引index,index为 三维向量index=[xin,yin,zin]T,对于空间中任一点po,其对应的index表达式为
其中floor()代表向下取整,这样建立起了空间点与体素索引间的映射,维护一个以当前 无人机位置为中心,边长为N个体素长度的局部立方体空间,具体方法为维护一个包含长度 为N3的数组以及局部地图的起始索引O的循环数组,当无人机移动时,只需要改变O和更新 数组中更新变化的体素,判断体素是否在局部空间及计算体素索引τ在循环数组中位置的方 法inVolume(τi)定义如下:
inVolume(τi)=0≤τi-Oi≤N,i∈{x,y,z} (13)
其中τi是τ的任意一维。而τ在数组内的位置lτ用以下公式计算:
其中address(τ)i代表体素τ在维度i上的索引,mod代表取余。运用以上公式,当无人机 移动时,更新的体素索引会对数组循环赋值。以上建立了体素索引与循环数组索引的映射, 就可以通过更新循环缓冲区维护局部地图,到此建图的第一步完成;
第二部分是对初始化完成的体素地图进行插值,插值指对每个体素计算占据概率并赋予 状态,具体的插值过程如下:
(1)遍历所有位于局部空间的点云,计算对应体素的占据概率,大于0.8时体素为占据 状态,代表无人机无法通过
(2)对局部空间以外的点,在局部空间内找到距离该点最近的体素索引,计算对应占据 概率,小于0.2即设为空闲状态,代表无人机可以通过;
(3)遍历已有的占据体素,向无人机所在位置投射射线,射线经过的体素都设为空闲;
在插值时,每个体素的占据概率是综合当前和历史所有观测结果得到的,占据概率 P(n|z1:t)计算公式如下:
其中n代表当前观测的体素,T={1,...t}时刻,观测的数据为{z1,...zt},该公式表明当前 体素的占据概率与当前观测结果zt,先验概率P(n)和之前估计的概率P(n|z1:t-1)有关;
Claims (3)
1.一种视觉传感器激光雷达融合无人机定位与建图方法,其特征是,步骤如下:
1)视觉里程计:视觉里程计部分采用基于多状态卡尔曼滤波MSCKF(Multi-StateConstraint Kalman Filter)的算法,将惯性测量单元IMU(Inertial Measurement Unit)预积分结果作为预测值,同时接收双目相机的原始数据,从相机的图像中提取特征点并进行特征匹配,然后构建观测方程更新预测值,得到高频的无人机位姿、速度信息;
2)视觉雷达松耦合里程计:首先将MSCKF视觉里程计的高频的无人机位姿信息作为先验,对当前扫描的雷达点云做去畸变处理,然后从去畸变的点云中提出特征点并与点云地图做特征匹配,构建出非线性优化问题,将MSCKF预测值作为优化初值,求解无人机位姿,最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状态信息,同时逐步拼接点云地图;
3)建立占据体素地图:基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为中心的局部占据体素地图,占据体素地图的建立与更新通过循环缓冲区进行维护。
2.如权利要求1所述的视觉传感器激光雷达融合无人机定位与建图方法,其特征是,具体步骤如下:
第一步:视觉里程计,采用MSCKF视觉里程计,MSCKF视觉里程计算法分为两部分,第一部分是对IMU与相机的原始信息的数据处理,首先算法从双目相机图像上做有向快速Oriented Fast特征点提取,Oriented Fast特征点是计算机视觉领域的图像特征点,特征提取完成后基于灰度不变假设,同一个特征点在不同图像帧上是相同的,所以算法搜索匹配当前得到的特征点与之前图像上已经提取到的特征点,搜索过程使用IMU预积分得到的对应相机帧的位姿变换加速搜索过程,以上过程称为特征跟踪,这一部分得到匹配成功的特征点的像素位置作为滤波算法里的观测值输出到第二部分;
第二部分是多状态卡尔曼滤波模型:首先定义待估计的状态,MSCKF取连续20帧的无人机状态,将其中无人机状态量的误差作为待估计的状态量,误差的定义是无人机状态的真值和估计值之差,定义为其中Bi,i=1,2,…20代表第i帧相机坐标系,为IMU误差状态,表达式其中分别代表IMU估计的无人机位置、速度误差状态,代表四元数误差的三维近似,与分别代表IMU加速度计与陀螺仪的误差状态,相机每帧位姿的误差其中代表相机姿态的误差状态,代表相机位置的误差状态;
多状态卡尔曼滤波模型分为预测、观测更新两步:预测步骤使用IMU预积分计算无人机各项状态的预测值,具体步骤如下:首先不考虑噪声时IMU状态的动力学微分方程如下:
其中分别代表对应IMU位置、速度、姿态、加速度计与陀螺仪偏差状态,和am是IMU测量的加速度,wm是IMU测量的角速度,代表四元数乘法,代表四元数转旋转矩阵,当考虑噪声与偏差的随机游走模型时,得IMU误差状态的动力学方程如下:其中F是误差状态的状态转移矩阵,G是IMU噪声的输入矩阵,nI是IMU噪声矩阵,分别是加速度计噪声方差,陀螺仪噪声方差,加速度计偏差噪声方差,陀螺仪偏差噪声方差,设当前帧为k帧,当k+1帧到来时,使用中值积分离散化IMU动力学方程来更新的IMU状态与IMU误差状态:
到此基于IMU预积分的预测步骤完成;
接下来开始观测更新步骤:首先根据特征跟踪的结果,观测到的特征点fj在第i帧图像上的归一化坐标为图像测量的噪声,为fj在第i帧相机坐标下的位置,设为根据预测环节计算出的fj的坐标,由此得到观测方程的残差的表达式:
其中是fj在世界系下的坐标,代表相机的位置,代表世界系到相机系的姿态,将残差对相机帧的位姿的误差及特征点的位置误差取一阶线性化展开得其中与分别为残差相对相机位姿与特征点位置的雅克比矩阵,同时计算多帧的残差,累计起来的残差其中与nj分别是累积形式的雅克比矩阵与噪声矩阵,分别是累计的无人机状态误差与特征点位置误差,该残差形式不符合卡尔曼滤波的表达形式,所以定义残差在的左零空间的映射得到了符合卡尔曼滤波模型的残差形式:
最后根据传统的卡尔曼滤波模型计算卡尔曼增益以及更新预测值和协方差矩阵:
Pk+1|k+1=(I-KTH)Pk+1|k(I-KTH)T+KRnKT (8)
第二步:视觉雷达松耦合里程计,在这一部分首先接受雷达点云信息,并使用视觉里程计的无人机位姿修正点云畸变,平均有10个MSCKF输出的信息,设一段时间内MSCKF位姿变换到雷达坐标下的变换矩阵其对应的欧拉角与位移的表示方式为二者可以相互转换,假设当前帧点云扫描结束时刻tk位于5和6之间,设tk时刻的位姿变换矩阵为做线性插值得
对于当前点云帧里的每一个点时间戳为ti,采取相同的线性插值的方法获取ti时刻的位姿再计算与间的姿态变化得到后,将变换到扫描结束tk时刻,得到了这样当前帧点云坐标便全局统一到当前帧扫描结束时刻的雷达坐标下,去除了点云畸变;
其次是从点云中提取特征,具体采用LOAM(Lidar Odometry And Mapping)雷达里程计的方法,从点云中提取两种特征点,位于平坦区域的平面点和位于边缘或尖锐区域的边缘线点,为了提取这两种点,对点云中每个点定义平滑度c:
其中Ε代表的数个邻域点,根据c的定义,如果点分布在平面上,c的值接近0;若点分布在边缘上,c的值很大,先计算每个点云的平滑度值,排序后取最大和最小的数十个点,即为特征点,在特征提取时为了避免特征点扎堆,规定一个特征点周围10个邻近点不能作为特征点,最终特征提取环节获得了边缘线点集与平面点集
最后是特征匹配优化位姿,首先将和利用变换到世界坐标系下,在当前位置200m范围的点云地图PG上搜索与和匹配的特征线与面并计算当前特征点到各自匹配的特征线、面的距离,定义当前线、面特征和里的任一点到PG中的匹配特征距离:
其中,dL、dΠ为当前特征点到匹配的线、面的距离,下面统称为d,点p(k-1,j),p(k-1,l),p(k-1,m)为在PG中距离点最近的点,这些点张成与匹配的线与面,这样得到两个以距离作为残差,以位姿作为状态变量的非线性函数,将其转化为非线性最小二乘问题,以MSCKF估计的位姿为先验值,使优化目标函数d近0,采用高斯牛顿法进行位姿优化求解,求解过程如下,先将特征距离函数写为设状态的增量为做一阶泰勒展开得其中J是函数f()相对于位姿的雅克比矩阵,根据高斯牛顿方法可得要求解的有以下方程经过这样数次迭代,最终优化求解出了更精确的位姿Tk,这步优化以5Hz低频进行,最后一步是位姿融合,每次得到Tk后计算接下来MSCKF输出位姿时,都左乘该ΔTk,直到下一次雷达点云匹配优化更新ΔTk;
第三步:建立占据体素地图,将点云地图转化为一种基于循环数组的占据体素地图,建立占据体素地图有分为两个部分,第一步将3D空间体素化并建立循环数组,首先按照分辨率r将三维空间划为若干大小一致的立方体称为体素,并对每个体素建立索引index,index为三维向量index=[xin,yin,zin]T,对于空间中任一点po,其对应的index表达式为
其中floor()代表向下取整,这样建立起了空间点与体素索引间的映射,维护一个以当前无人机位置为中心,边长为N个体素长度的局部立方体空间,具体方法为维护一个包含长度为N3的数组以及局部地图的起始索引O的循环数组,当无人机移动时,只需要改变O和更新数组中更新变化的体素,判断体素是否在局部空间及计算体素索引τ在循环数组中位置的方法inVolume(τi)定义如下:
inVolume(τi)=0≤τi-Oi≤N,i∈{x,y,z} (13)
其中τi是τ的任意一维,而τ在数组内的位置lτ用以下公式计算:
address(τ)i=(τi-O)mod N,i∈{x,y,z}
lτ=N2address(τ)x+Naddress(τ)y+address(τ)z (14)
其中address(τ)i代表体素τ在维度i上的索引,mod代表取余,运用以上公式,当无人机移动时,更新的体素索引会对数组循环赋值,以上建立了体素索引与循环数组索引的映射,就可以通过更新循环缓冲区维护局部地图,到此建图的第一步完成;
第二部分是对初始化完成的体素地图进行插值,插值指对每个体素计算占据概率并赋予状态,具体的插值过程如下:
(1)遍历所有位于局部空间的点云,计算对应体素的占据概率,大于0.8时体素为占据状态,代表无人机无法通过
(2)对局部空间以外的点,在局部空间内找到距离该点最近的体素索引,计算对应占据概率,小于0.2即设为空闲状态,代表无人机可以通过;
(3)遍历已有的占据体素,向无人机所在位置投射射线,射线经过的体素都设为空闲;
在插值时,每个体素的占据概率是综合当前和历史所有观测结果得到的,占据概率P(n|z1:t)计算公式如下:
其中n代表当前观测的体素,T={1,...t}时刻,观测的数据为{z1,...zt},该公式表明当前体素的占据概率与当前观测结果zt,先验概率P(n)和之前估计的概率P(n|z1:t-1)有关;
3.一种视觉传感器激光雷达融合无人机定位与建图装置,其特征是,包括双目相机、3D激光雷达、IMU惯性测量单元、嵌入式机载处理器和无人机平台;双目相机采集周围环境的视觉信息;3D激光雷达用于测量无人机周围环境的3维位置信息;IMU惯性测量单元用于高频测量无人机自身加速度与角速度信息;嵌入式机载处理器用于算法运行,通过处理相机、雷达与IMU采集到的数据,运行自主定位与建图算法,获得无人机自身位姿并同时进行环境地图的建立;无人机平台用于搭载以上设备进行飞行实验验证;所述的算法运行步骤如下:
1)视觉里程计:视觉里程计部分采用基于多状态卡尔曼滤波MSCKF(Multi-StateConstraint Kalman Filter,)的算法,将惯性测量单元IMU(Inertial Measurement Unit)预积分结果作为预测值,同时接收双目相机的原始数据,从相机的图像中提取特征点并进行特征匹配,然后构建观测方程更新预测值,得到高频的无人机位姿、速度信息;
2)视觉雷达松耦合里程计:首先将MSCKF视觉里程计的高频的无人机位姿信息作为先验,对当前扫描的雷达点云做去畸变处理,然后从去畸变的点云中提出特征点并与点云地图做特征匹配,构建出非线性优化问题,将MSCKF预测值作为优化初值,求解无人机位姿,最终将高频的MSCKF估计与低频的松耦合里程计的结果融合,得到高频、准确的无人机状态信息,同时逐步拼接点云地图;
3)建立占据体素地图:基于循环缓冲区的建图策略,将点云地图转化为以无人机位置为中心的局部占据体素地图,占据体素地图的建立与更新通过循环缓冲区进行维护。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010864051.4A CN112347840B (zh) | 2020-08-25 | 2020-08-25 | 视觉传感器激光雷达融合无人机定位与建图装置和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010864051.4A CN112347840B (zh) | 2020-08-25 | 2020-08-25 | 视觉传感器激光雷达融合无人机定位与建图装置和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112347840A CN112347840A (zh) | 2021-02-09 |
CN112347840B true CN112347840B (zh) | 2022-12-02 |
Family
ID=74357908
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010864051.4A Active CN112347840B (zh) | 2020-08-25 | 2020-08-25 | 视觉传感器激光雷达融合无人机定位与建图装置和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112347840B (zh) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112965063B (zh) * | 2021-02-11 | 2022-04-01 | 深圳市安泽智能机器人有限公司 | 一种机器人建图定位方法 |
CN113075686B (zh) * | 2021-03-19 | 2024-01-12 | 长沙理工大学 | 一种基于多传感器融合的电缆沟智能巡检机器人建图方法 |
CN112697064B (zh) * | 2021-03-24 | 2021-06-18 | 北京大成国测科技有限公司 | 基于视觉和激光雷达的轨道变形智能识别系统 |
CN113066105B (zh) * | 2021-04-02 | 2022-10-21 | 北京理工大学 | 激光雷达和惯性测量单元融合的定位与建图方法及系统 |
CN112991400B (zh) * | 2021-04-07 | 2022-02-01 | 广东工业大学 | 一种无人艇的多传感器辅助定位方法 |
CN113093759A (zh) * | 2021-04-08 | 2021-07-09 | 中国科学技术大学 | 基于多传感器信息融合的机器人编队构造方法及系统 |
CN113220023B (zh) * | 2021-04-28 | 2022-10-14 | 中国科学院重庆绿色智能技术研究院 | 一种高精度无人机实时路径规划方法 |
CN113310487B (zh) * | 2021-05-25 | 2022-11-04 | 云南电网有限责任公司电力科学研究院 | 一种面向地面移动机器人的组合导航方法和装置 |
CN113375664B (zh) * | 2021-06-09 | 2023-09-01 | 成都信息工程大学 | 基于点云地图动态加载的自主移动装置定位方法 |
CN113503883B (zh) * | 2021-06-22 | 2022-07-19 | 北京三快在线科技有限公司 | 采集用于构建地图的数据的方法、存储介质及电子设备 |
CN113465728B (zh) * | 2021-06-25 | 2023-08-04 | 重庆工程职业技术学院 | 一种地形感知方法、系统、存储介质、计算机设备 |
CN113566833A (zh) * | 2021-07-28 | 2021-10-29 | 上海工程技术大学 | 一种多传感器融合的车辆定位方法及系统 |
CN113706626B (zh) * | 2021-07-30 | 2022-12-09 | 西安交通大学 | 一种基于多传感器融合及二维码校正的定位与建图方法 |
CN113658257B (zh) * | 2021-08-17 | 2022-05-27 | 广州文远知行科技有限公司 | 一种无人设备定位方法、装置、设备及存储介质 |
CN113759364A (zh) * | 2021-09-06 | 2021-12-07 | 浙江大学 | 一种基于激光地图的毫米波雷达连续定位方法及装置 |
CN113625774B (zh) * | 2021-09-10 | 2023-07-21 | 天津大学 | 局部地图匹配与端到端测距多无人机协同定位系统和方法 |
CN113781582B (zh) * | 2021-09-18 | 2023-09-19 | 四川大学 | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 |
CN115371699B (zh) * | 2021-09-30 | 2024-03-15 | 达闼科技(北京)有限公司 | 视觉惯性里程计方法、装置及电子设备 |
CN113920186B (zh) * | 2021-10-13 | 2022-12-27 | 中国电子科技集团公司第五十四研究所 | 一种低空无人机多源融合定位方法 |
CN113933861B (zh) * | 2021-11-12 | 2022-06-07 | 成都航维智芯科技有限公司 | 机载激光雷达点云生成方法及系统 |
CN114089364A (zh) * | 2021-11-18 | 2022-02-25 | 智能移动机器人(中山)研究院 | 一种集成化的感知系统装置及实现方法 |
CN114413885A (zh) * | 2021-12-22 | 2022-04-29 | 华人运通(上海)自动驾驶科技有限公司 | 基于多传感器融合定位的时间同步方法及系统 |
CN114353799B (zh) * | 2021-12-30 | 2023-09-05 | 武汉大学 | 搭载多线激光雷达的无人驾驶平台室内快速全局定位方法 |
CN114370871A (zh) * | 2022-01-13 | 2022-04-19 | 华南理工大学 | 一种可见光定位与激光雷达惯性里程计的紧耦合优化方法 |
CN114371716A (zh) * | 2022-01-20 | 2022-04-19 | 红骐科技(杭州)有限公司 | 一种用于消防机器人的自动驾驶巡检方法 |
CN114429432B (zh) * | 2022-04-07 | 2022-06-21 | 科大天工智能装备技术(天津)有限公司 | 一种多源信息分层融合方法、装置及存储介质 |
CN114648584B (zh) * | 2022-05-23 | 2022-08-30 | 北京理工大学前沿技术研究院 | 一种用于多源融合定位的鲁棒性控制方法和系统 |
CN114755693B (zh) * | 2022-06-15 | 2022-09-16 | 天津大学四川创新研究院 | 基于多旋翼无人机的基建设施测量系统和方法 |
CN114779793B (zh) * | 2022-06-21 | 2022-08-26 | 北京大学 | 一种基于动态向量场的轮式机器人运动规划方法 |
CN114858226B (zh) * | 2022-07-05 | 2022-10-25 | 武汉大水云科技有限公司 | 一种无人机山洪流量测量方法、装置及设备 |
CN114897942B (zh) * | 2022-07-15 | 2022-10-28 | 深圳元戎启行科技有限公司 | 点云地图的生成方法、设备及相关存储介质 |
CN115097381B (zh) * | 2022-08-26 | 2022-12-09 | 东南大学溧阳研究院 | 一种室内可见光定位校准方法 |
CN115166686B (zh) * | 2022-09-06 | 2022-11-11 | 天津大学 | 卫星拒止环境下多无人机分布式协同定位与建图方法 |
CN115574816B (zh) * | 2022-11-24 | 2023-03-14 | 东南大学 | 仿生视觉多源信息智能感知无人平台 |
CN116839570B (zh) * | 2023-07-13 | 2023-12-01 | 安徽农业大学 | 一种基于传感器融合目标检测的作物行间作业导航方法 |
CN116660923B (zh) * | 2023-08-01 | 2023-09-29 | 齐鲁空天信息研究院 | 一种融合视觉和激光雷达的无人农机机库定位方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107450577A (zh) * | 2017-07-25 | 2017-12-08 | 天津大学 | 基于多传感器的无人机智能感知系统和方法 |
CN108804528A (zh) * | 2018-04-28 | 2018-11-13 | 北京猎户星空科技有限公司 | 一种数据融合方法及装置 |
CN110118554A (zh) * | 2019-05-16 | 2019-08-13 | 深圳前海达闼云端智能科技有限公司 | 基于视觉惯性的slam方法、装置、存储介质和设备 |
CN110262546A (zh) * | 2019-06-18 | 2019-09-20 | 武汉大学 | 一种隧道智能无人机巡检系统及方法 |
CN111366153A (zh) * | 2020-03-19 | 2020-07-03 | 浙江大学 | 一种激光雷达与imu紧耦合的定位方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018026544A1 (en) * | 2016-07-22 | 2018-02-08 | Regents Of The University Of Minnesota | Square-root multi-state constraint kalman filter for vision-aided inertial navigation system |
US10317214B2 (en) * | 2016-10-25 | 2019-06-11 | Massachusetts Institute Of Technology | Inertial odometry with retroactive sensor calibration |
-
2020
- 2020-08-25 CN CN202010864051.4A patent/CN112347840B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107450577A (zh) * | 2017-07-25 | 2017-12-08 | 天津大学 | 基于多传感器的无人机智能感知系统和方法 |
CN108804528A (zh) * | 2018-04-28 | 2018-11-13 | 北京猎户星空科技有限公司 | 一种数据融合方法及装置 |
CN110118554A (zh) * | 2019-05-16 | 2019-08-13 | 深圳前海达闼云端智能科技有限公司 | 基于视觉惯性的slam方法、装置、存储介质和设备 |
CN110262546A (zh) * | 2019-06-18 | 2019-09-20 | 武汉大学 | 一种隧道智能无人机巡检系统及方法 |
CN111366153A (zh) * | 2020-03-19 | 2020-07-03 | 浙江大学 | 一种激光雷达与imu紧耦合的定位方法 |
Non-Patent Citations (2)
Title |
---|
Xingxing Zuo 等."LIC-Fusion: LiDAR-Inertial-Camera Odometry".《2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)》.2020, * |
安靖雅."用于园区自动驾驶的高精度定位与环境构建算法开发".《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》.2020, * |
Also Published As
Publication number | Publication date |
---|---|
CN112347840A (zh) | 2021-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112347840B (zh) | 视觉传感器激光雷达融合无人机定位与建图装置和方法 | |
CN109709801B (zh) | 一种基于激光雷达的室内无人机定位系统及方法 | |
CN112634451B (zh) | 一种融合多传感器的室外大场景三维建图方法 | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
CN112083725B (zh) | 一种面向自动驾驶车辆的结构共用多传感器融合定位系统 | |
CN109522832B (zh) | 基于点云片段匹配约束和轨迹漂移优化的回环检测方法 | |
Li et al. | Estimating position of mobile robots from omnidirectional vision using an adaptive algorithm | |
CN113781582A (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
US20210183100A1 (en) | Data processing method and apparatus | |
CN113625774B (zh) | 局部地图匹配与端到端测距多无人机协同定位系统和方法 | |
CN112967392A (zh) | 一种基于多传感器触合的大规模园区建图定位方法 | |
CN116182837A (zh) | 基于视觉激光雷达惯性紧耦合的定位建图方法 | |
CN113674412B (zh) | 基于位姿融合优化的室内地图构建方法、系统及存储介质 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
Magree et al. | Combined laser and vision-aided inertial navigation for an indoor unmanned aerial vehicle | |
CN113763549A (zh) | 融合激光雷达和imu的同时定位建图方法、装置和存储介质 | |
Karam et al. | Integrating a low-cost mems imu into a laser-based slam for indoor mobile mapping | |
CN110187337B (zh) | 一种基于ls和neu-ecef时空配准的高机动目标跟踪方法及系统 | |
Peng et al. | Vehicle odometry with camera-lidar-IMU information fusion and factor-graph optimization | |
Wang et al. | Micro aerial vehicle navigation with visual-inertial integration aided by structured light | |
CN116577801A (zh) | 一种基于激光雷达和imu的定位与建图方法及系统 | |
CN116124161A (zh) | 一种基于先验地图的LiDAR/IMU融合定位方法 | |
Hu et al. | Efficient Visual-Inertial navigation with point-plane map |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |