CN114459467B - 一种未知救援环境中基于vi-slam的目标定位方法 - Google Patents
一种未知救援环境中基于vi-slam的目标定位方法 Download PDFInfo
- Publication number
- CN114459467B CN114459467B CN202111658544.3A CN202111658544A CN114459467B CN 114459467 B CN114459467 B CN 114459467B CN 202111658544 A CN202111658544 A CN 202111658544A CN 114459467 B CN114459467 B CN 114459467B
- Authority
- CN
- China
- Prior art keywords
- target
- information
- aerial vehicle
- pose
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 239000011159 matrix material Substances 0.000 claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims abstract description 6
- 230000009466 transformation Effects 0.000 claims abstract description 5
- 230000003287 optical effect Effects 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 102000008115 Signaling Lymphocytic Activation Molecule Family Member 1 Human genes 0.000 description 3
- 108010074687 Signaling Lymphocytic Activation Molecule Family Member 1 Proteins 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011796 hollow space material Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Abstract
本发明公开了一种未知救援环境中基于VI‑SLAM的目标定位方法,一:由无人机获取传感器数据,包括双目图像信息和IMU信息,构建视觉惯性里程计获取无人机的位姿信息;二:在得到位姿信息之后,对图像进行目标检测,定位目标,通过双目立体测距及投影方程得到目标在相机坐标系下的坐标;三:同步图像和位姿时间戳,得到该时刻的无人机位姿信息,通过矩阵变换得到目标在世界坐标系下的位置信息;四:同时通过深度图像和里程计信息构建八叉树地图,将地图和目标位置传递给地面机器人,用作自主导航;本发明能够充分利用无人设备的优势,使得机器人可以在无GPS的未知环境中快速执行搜索、救援等任务。
Description
技术领域
本发明属于目标定位的技术领域,具体涉及一种未知救援环境中基于VI-SLAM(Visual-Inertial Simultaneous localization and mapping)的目标定位方法。
背景技术
随着无人设备的发展和相关技术的智能化,无人机和各类其他机器人被广泛应用于灾难场景下的搜索、救援等活动。无人机具有机动性强、视野开阔等特点,地面机器人具有载重量大、稳定等特点,两者之间的协同配合能充分发挥各自的优势,使得在灾难场景下可以快速实施搜索、救援等任务,同时降低了工作人员在危险区域执行任务的安全风险。然而在室内、野外等灾难环境中,GPS及其他有源定位技术精度较差甚至失效,导致无人机与地面机器人无法获取自身位姿信息,执行任务受阻。
同步定位与建图(SLAM)技术使得机器人在未知环境中的定位成为可能。机器人利用搭载的IMU、雷达、相机等传感器,记录自身的位姿,并对周围环境进行感知建图。根据传感器的类型不同,SLAM可以分为雷达SLAM和视觉SLAM,由于雷达设备价格昂贵,成本较小的相机往往作为机器人进行位姿估计的载体。而纯视觉SLAM在快速运动等场景下容易出现跟踪丢失,价格低廉的IMU可以弥补相机在快速运动场景下跟踪丢失的情况。视觉与IMU相互融合的SLAM精度较高,可以达到自身定位的需求。但在定位目标测量深度时,深度相机探测距离较短,而激光测距仪价格昂贵、且会额外无人机的负载。同时地面机器人在未知环境中执行搜索任务时,往往耗时较长,尤其是多机器人执行多任务的情况,对环境中的同一位置可能会执行多次搜索,造成资源上的浪费,而多机器人协同建图的效果又难以达到导航的需求。如果地面机器人在面对不属于自己执行的任务时,由于机器人各自地图坐标系不统一,就无法将任务位置发送给执行该任务的机器人,那么在最差的情况下,每个机器人在找到自己的目标时都要遍历一次任务区域,使得执行任务的时间代价增加。
因此,如何充分发挥无人设备的优势,在减少额外负载的情况下实现对目标的精确定位,使得多个地面机器人可以统一坐标系,快速的到达各自目标点并执行救援任务成为在该场景下亟待解决的问题。
发明内容
有鉴于此,本发明提供了一种未知救援环境中基于VI-SLAM的目标定位方法,能够充分利用无人设备的优势,使得机器人可以在无GPS的未知环境中快速执行搜索、救援等任务。
实现本发明的技术方案如下:
一种未知救援环境中基于VI-SLAM的目标定位方法,包括以下步骤:
步骤一:获取无人机的传感器数据,包括双目图像信息、深度图像信息和IMU信息,利用双目图像信息和IMU信息构建视觉惯性里程计获取无人机的位姿信息;
步骤二:在得到无人机的位姿信息之后,对双目图像进行目标检测,定位目标,通过双目立体测距及投影方程得到目标在相机坐标系下的坐标;
步骤三:同步图像和位姿的时间戳,得到当前时刻的无人机位姿信息,将当前时刻的无人机位姿信息和相机坐标系下的坐标进行矩阵变换得到目标在世界坐标系下的位置信息;
步骤四:通过深度图像信息和无人机的位姿信息构建八叉树地图,将八叉树地图和目标在世界坐标系下的位置信息传递给地面机器人,用作自主导航。
进一步地,在步骤一中,无人机搭载包括相机、IMU的传感器获取环境信息,提取图像的Harris角点,构建图像金字塔,利用光流跟踪构建起相邻图像帧之间的数据关联,利用RANSAC去除其中的误匹配,同时计算IMU数据的预积分增量,图像信息和IMU信息采用紧耦合的方式估计位姿,构建滑动窗口,采取非线性优化提高位姿估计的精度;在GPS精度不高,或者无GPS的未知环境中对无人机的自身姿态进行位姿估计。
进一步地,在步骤二中,无人机利用机载相机所采集的双目图像信息进行目标检测,采用Qr code(二维码)作为需要识别的对象,Qr code的识别包括以下步骤:对传感器采集的图像进行包括平滑滤波、二值化的预处理,提取图像轮廓,选取有两个子轮廓的轮廓特征,从筛选的轮廓中选择面积相近的三个来作为Qr code的定位角点;根据三个角点的位置,对图像进行透视矫正,确定Qr code四个顶点的坐标,并计算中心坐标作为目标位置。
进一步地,定位目标之后,获取目标的像素坐标p=(u,v,1)T,通过事先标定好的相机内参矩阵K,将p转换为归一化坐标系下的归一化坐标p1=(x,y,1)T,其中p1=K-1p;通过双目立体测距获取目标的深度值s,得到目标位于相机坐标系下的坐标P=(X,Y,Z)T,其中P=sp1。
进一步地,在步骤三中,当无人机检测到某时刻的两个相机图像都含有任务目标时,同步相机的位姿估计时间戳与该两个相机图像的时间戳,以获取在该时刻下相机的位姿信息,得到该时刻相机位姿与世界坐标系的关系,即该时刻相机相较于世界坐标系下的旋转矩阵R和平移向量t;通过Pw=R-1(P-t);得到目标在世界坐标系下的坐标Pw,在搜索过程中所有的目标坐标都统一于世界坐标系下。
进一步地,在步骤四中,通过无人机的机载传感器所获取的深度图像和步骤一所计算得到无人机的位姿信息来构建环境八叉树地图;首先将深度信息转换为点云信息,然后根据里程计内的位姿关系进行点云拼接,使用Octomap将点云地图转换为八叉树地图,由于八叉树地图可以进行避障检测,因此可以用作自主导航,根据步骤三所定位的目标坐标与所建地图属于同一坐标系,多个地面机器人可以共享地图,在实现基于地图的定位之后,快速到达指定目标点执行救援任务,减少搜索时间。
有益效果:
相比于基于UWB定位技术需要极高的硬件成本和基于Wi-Fi的定位技术的鲁棒性差、定位精度低,本发明可以充分发挥无人设备的优势,利用无人机机载设备进行定位,不需要提前部署环境,可以应对突发状况。同时利用无人机的机动性和广阔的视野对目标进行检测并感知周围环境,在无GPS的情况下可以估计自身位姿并定位目标,采用双目立体测距估计目标的深度值,不需要激光测距仪等额外设备。同时建立环境的描述地图,目标的坐标是统一于所建环境地图的坐标系,将目标位置和环境地图发送给地面机器人,多个地面机器人可以共享地图,在实现基于地图的定位之后,快速到达指定目标点执行救援任务。在多机器人执行多任务的情况下,减少了机器人探索环境所耗费的时间,使得机器人可以快速确定各自的目标位置,地图的存在使得机器人可以快速进行避障检测和路径规划,确定自己的移动轨迹,执行救援任务。
附图说明
图1为本发明未知环境中空地协同流程图;
图2为本发明实施例仿真环境俯视图;
图3为本发明实施例仿真环境主视图;
图4为本发明目标的深度值s计算示意图;
图5为本发明实施例估计的定位结果与真实值xy方向上的比较;
图6为本发明实施例估计的定位结果与真实值z方向上的比较;
图7为本发明实施例构建的八叉树地图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
本发明提出了一种未知救援环境中基于VI-SLAM的目标定位方法,系统的整体框架如图1所示。
步骤一、无人机获取传感器数据,构建视觉惯性里程计获取无人机的位姿信息。
无人机搭载相机、IMU等传感器获取环境信息,提取图像的Harris角点,构建图像金字塔,利用LK光流跟踪构建起相邻图像帧之间的数据关联,利用RANSAC去除其中的误匹配,由于双目相机可直接测得角点的深度值,因此可以直接求解PnP问题计算帧间位姿,同时计算IMU数据的预积分增量,图像信息和IMU信息采用紧耦合的方式估计帧间位姿,后端采用滑动窗口,构建视觉重投影误差,之前估计的累计误差和IMU误差的最小二乘问题,采取非线性优化提高位姿估计的精度。在GPS精度不高,或者无GPS的未知环境中对无人机的自身姿态进行位姿估计,以获取相机及机体位姿信息,并保留飞行过程的轨迹信息,用于后续的矩阵变换。
步骤二、对图像进行目标检测,定位目标,通过双目立体测距及投影方程得到目标在相机坐标系下的坐标。
接收相机图像信息进行目标检测,本发明中采用Qr code作为需要识别的对象,在仿真环境中放置了3个Qr code作为需要检测的目标,如图2、图3。Qr code的识别可分为以下步骤:对传感器采集的图像进行平滑滤波,二值化等预处理,提取图像轮廓,选取有两个子轮廓的轮廓特征,从筛选的轮廓中选择面积相近的三个来作为Qr code的定位角点;根据三个角点的位置,对图像进行透视矫正,确定Qr code四个顶点的坐标,当在两个相机的当前帧都检测到所需的目标信息时,计算中心坐标作为目标位置。定位目标之后获取目标的像素坐标p=(u,v,1)T,通过事先标定好的相机内参矩阵K,将p转换为归一化坐标系下的归一化坐标p1=(x,y,1)T,其中p1=K-1p。接下来通过双目立体测距获取目标的深度值s。s的计算由下面的公式得到。
如图4所示,对于标定好的双目相机,左右光心O1,O2与成像平面相互平行,相机基线为b,焦距为f,Q1,Q2是Q点在两个成像平面上的投影。根据相似三角形的性质,有化简得/>求解s之后,得到目标位于相机坐标系下的坐标P=(X,Y,Z)T,其中P=sp1。
步骤三、同步图像和位姿时间戳,得到该时刻的无人机位姿信息,通过矩阵变换得到目标在世界坐标系下的位置信息。
当无人机检测到某时刻的两个相机图像都含有任务目标时,同步相机的位姿估计时间戳与该图像的时间戳,以获取在该时刻下相机的位姿信息,得到该时刻相机位姿与世界坐标系的关系,及该时刻相机相较于世界坐标系下的旋转矩阵R和平移向量t。通过Pw=R-1(P-t)。得到目标在世界坐标系下的坐标Pw。将估计得到的世界坐标Pw与仿真环境中的真值比较如图5、图6。
步骤四、通过深度图像和里程计信息(无人机的位姿信息)构建八叉树地图,将八叉树地图和目标在世界坐标系下的位置信息传递给地面机器人。
通过传感器的深度图像和计算得到里程计信息构建八叉树地图。首先将深度信息转换为点云信息,然后根据里程计内的位姿关系进行点云拼接,使用Octomap将点云地图转换为八叉树地图,如图7。八叉树是一种树状数据结构,每个节点表示一个正方体的体积元素,每个体素由0-1之间的浮点数表示节点被占据的概率。由于八叉树地图可以进行避障检测,因此可以用作地面机器人的自主导航。步骤三定位的目标坐标与所建地图属于同一坐标系,多个地面机器人可以共享地图,在实现基于地图的定位之后,快速到达指定目标点执行救援任务,减少搜索时间。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种未知救援环境中基于VI-SLAM的目标定位方法,其特征在于,包括以下步骤:
步骤一:获取无人机的传感器数据,包括双目图像信息、深度图像信息和IMU信息,利用双目图像信息和IMU信息构建视觉惯性里程计获取无人机的位姿信息;
步骤二:在得到无人机的位姿信息之后,对双目图像信息进行目标检测,定位目标,通过双目立体测距及投影方程得到目标在相机坐标系下的坐标;
在步骤二中,无人机利用机载相机所采集的双目图像信息进行目标检测,采用Qr code作为需要识别的对象,Qr code的识别包括以下步骤:对传感器采集的图像进行包括平滑滤波、二值化的预处理,提取图像轮廓,选取有两个子轮廓的轮廓特征,从筛选的轮廓中选择面积相近的三个来作为Qr code的定位角点;根据三个角点的位置,对图像进行透视矫正,确定Qr code四个顶点的坐标,并计算中心坐标作为目标位置;
步骤三:同步双目图像信息、深度图像信息和位姿信息的时间戳,得到当前时刻的无人机位姿信息,将当前时刻的无人机位姿信息和相机坐标系下的坐标进行矩阵变换得到目标在世界坐标系下的位置信息;
步骤四:通过深度图像信息和步骤三所得的无人机位姿信息构建八叉树地图,将八叉树地图和目标在世界坐标系下的位置信息传递给地面机器人,用作自主导航。
2.如权利要求1所述的一种未知救援环境中基于VI-SLAM的目标定位方法,其特征在于,在步骤一中,无人机搭载包括相机、IMU的传感器获取环境信息,提取图像的Harris角点,构建图像金字塔,利用光流跟踪构建起相邻图像帧之间的数据关联,利用RANSAC去除其中的误匹配,同时计算IMU数据的预积分增量,图像信息和IMU信息采用紧耦合的方式估计位姿,构建滑动窗口,采取非线性优化提高位姿估计的精度;在GPS精度不高,或者无GPS的未知环境中对无人机的自身姿态进行位姿估计。
3.如权利要求1所述的一种未知救援环境中基于VI-SLAM的目标定位方法,其特征在于,定位目标之后,获取目标的像素坐标p=(u,v,1)T,通过事先标定好的相机内参矩阵K,将p转换为归一化坐标系下的归一化坐标p1=(x,y,1)T,其中p1=K-1p;通过双目立体测距获取目标的深度值s,得到目标位于相机坐标系下的坐标P=(X,Y,Z)T,其中P=sp1。
4.如权利要求1所述的一种未知救援环境中基于VI-SLAM的目标定位方法,其特征在于,在步骤三中,当无人机检测到某时刻的两个相机图像都含有任务目标时,同步相机的位姿估计时间戳与该两个相机图像的时间戳,以获取在该时刻下相机的位姿信息,得到该时刻相机位姿与世界坐标系的关系,即该时刻相机相较于世界坐标系下的旋转矩阵R和平移向量t;通过Pw=R-1(P-t);得到目标在世界坐标系下的坐标Pw,在搜索过程中所有的目标坐标都统一于世界坐标系下。
5.如权利要求1所述的一种未知救援环境中基于VI-SLAM的目标定位方法,其特征在于,在步骤四中,通过无人机的机载传感器所获取的深度图像和步骤一所计算得到无人机的位姿信息来构建环境八叉树地图;首先将深度信息转换为点云信息,然后根据里程计内的位姿关系进行点云拼接,使用Octomap将点云地图转换为八叉树地图,由于八叉树地图可以进行避障检测,因此可以用作自主导航,根据步骤三所定位的目标坐标与所建地图属于同一坐标系,多个地面机器人可以共享地图,在实现基于地图的定位之后,快速到达指定目标点执行救援任务,减少搜索时间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111658544.3A CN114459467B (zh) | 2021-12-30 | 2021-12-30 | 一种未知救援环境中基于vi-slam的目标定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111658544.3A CN114459467B (zh) | 2021-12-30 | 2021-12-30 | 一种未知救援环境中基于vi-slam的目标定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114459467A CN114459467A (zh) | 2022-05-10 |
CN114459467B true CN114459467B (zh) | 2024-05-03 |
Family
ID=81407190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111658544.3A Active CN114459467B (zh) | 2021-12-30 | 2021-12-30 | 一种未知救援环境中基于vi-slam的目标定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114459467B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115143959A (zh) * | 2022-06-08 | 2022-10-04 | 北京眸星科技有限公司 | 测定室内无线信号发射锚点的位置坐标的方法及装置 |
CN115597498B (zh) * | 2022-12-13 | 2023-03-31 | 成都铂贝科技有限公司 | 一种无人机定位及速度估计方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN107808407A (zh) * | 2017-10-16 | 2018-03-16 | 亿航智能设备(广州)有限公司 | 基于双目相机的无人机视觉slam方法、无人机及存储介质 |
CN108827306A (zh) * | 2018-05-31 | 2018-11-16 | 北京林业大学 | 一种基于多传感器融合的无人机slam导航方法及系统 |
CN109029433A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 |
CN109029417A (zh) * | 2018-05-21 | 2018-12-18 | 南京航空航天大学 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
WO2019157925A1 (zh) * | 2018-02-13 | 2019-08-22 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计的实现方法及系统 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN110375738A (zh) * | 2019-06-21 | 2019-10-25 | 西安电子科技大学 | 一种融合惯性测量单元的单目同步定位与建图位姿解算方法 |
WO2020087846A1 (zh) * | 2018-10-31 | 2020-05-07 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN112435325A (zh) * | 2020-09-29 | 2021-03-02 | 北京航空航天大学 | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 |
CN112923933A (zh) * | 2019-12-06 | 2021-06-08 | 北理慧动(常熟)车辆科技有限公司 | 一种激光雷达slam算法与惯导融合定位的方法 |
CN113720324A (zh) * | 2021-08-30 | 2021-11-30 | 上海大学 | 一种八叉树地图构建方法及系统 |
-
2021
- 2021-12-30 CN CN202111658544.3A patent/CN114459467B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106679648A (zh) * | 2016-12-08 | 2017-05-17 | 东南大学 | 一种基于遗传算法的视觉惯性组合的slam方法 |
CN107808407A (zh) * | 2017-10-16 | 2018-03-16 | 亿航智能设备(广州)有限公司 | 基于双目相机的无人机视觉slam方法、无人机及存储介质 |
WO2019157925A1 (zh) * | 2018-02-13 | 2019-08-22 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计的实现方法及系统 |
WO2019169540A1 (zh) * | 2018-03-06 | 2019-09-12 | 斯坦德机器人(深圳)有限公司 | 紧耦合视觉slam的方法、终端及计算机可读存储介质 |
CN109029417A (zh) * | 2018-05-21 | 2018-12-18 | 南京航空航天大学 | 基于混合视觉里程计和多尺度地图的无人机slam方法 |
CN108827306A (zh) * | 2018-05-31 | 2018-11-16 | 北京林业大学 | 一种基于多传感器融合的无人机slam导航方法及系统 |
CN109029433A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 |
WO2020087846A1 (zh) * | 2018-10-31 | 2020-05-07 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN110375738A (zh) * | 2019-06-21 | 2019-10-25 | 西安电子科技大学 | 一种融合惯性测量单元的单目同步定位与建图位姿解算方法 |
CN112923933A (zh) * | 2019-12-06 | 2021-06-08 | 北理慧动(常熟)车辆科技有限公司 | 一种激光雷达slam算法与惯导融合定位的方法 |
CN112435325A (zh) * | 2020-09-29 | 2021-03-02 | 北京航空航天大学 | 基于vi-slam和深度估计网络的无人机场景稠密重建方法 |
CN113720324A (zh) * | 2021-08-30 | 2021-11-30 | 上海大学 | 一种八叉树地图构建方法及系统 |
Non-Patent Citations (5)
Title |
---|
一种基于双目SLAM的环境建模方法;张釜恺 等;信息技术与网络安全;第39卷(第1期);全文 * |
一种改进的未知环境无人机三维地图实时创建方法;黄金鑫 等;机械与电子(第1期);全文 * |
基于Vision-IMU的机器人同时定位与地图创建算法;姚二亮 等;仪器仪表学报;第39卷(第4期);全文 * |
基于VSLAM的自主移动机器人三维同时定位与地图构建;林辉灿 等;计算机应用;第37卷(第10期);全文 * |
室内环境下结合里程计的双目视觉SLAM研究;王晓华 等;西安理工大学学报;第25卷(第4期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114459467A (zh) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104197928B (zh) | 多摄像机协同的无人机检测、定位及跟踪方法 | |
CN112197770B (zh) | 一种机器人的定位方法及其定位装置 | |
US9031809B1 (en) | Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion | |
Kanade et al. | Real-time and 3D vision for autonomous small and micro air vehicles | |
CN102435188B (zh) | 一种用于室内环境的单目视觉/惯性全自主导航方法 | |
CN112785702A (zh) | 一种基于2d激光雷达和双目相机紧耦合的slam方法 | |
Merino et al. | Vision-based multi-UAV position estimation | |
CN114459467B (zh) | 一种未知救援环境中基于vi-slam的目标定位方法 | |
CN102419178A (zh) | 基于红外路标的移动机器人定位系统和方法 | |
CN113223045B (zh) | 基于动态物体语义分割的视觉与imu传感器融合定位系统 | |
Dawood et al. | Harris, SIFT and SURF features comparison for vehicle localization based on virtual 3D model and camera | |
Wen et al. | Object-detection-aided GNSS and its integration with lidar in highly urbanized areas | |
CN115371673A (zh) | 一种未知环境中基于Bundle Adjustment的双目相机目标定位方法 | |
Tao et al. | Automated processing of mobile mapping image sequences | |
CN117152249A (zh) | 基于语义一致性的多无人机协同建图与感知方法及系统 | |
Ivancsits et al. | Visual navigation system for small unmanned aerial vehicles | |
Xian et al. | Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach | |
US11561553B1 (en) | System and method of providing a multi-modal localization for an object | |
CN113971697A (zh) | 一种空地协同车辆定位定向方法 | |
CN117470259A (zh) | 一种子母式空地协同多传感器融合三维建图系统 | |
Hoang et al. | Combining edge and one-point ransac algorithm to estimate visual odometry | |
Li et al. | Collaborative positioning for swarms: A brief survey of vision, LiDAR and wireless sensors based methods | |
Davidson et al. | Depth estimation from motion parallax: Experimental evaluation | |
Pu et al. | A summary of UAV positioning technology in GPS denial environment | |
Chen et al. | 3d map building based on stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |