CN110455301A - 一种基于惯性测量单元的动态场景slam方法 - Google Patents
一种基于惯性测量单元的动态场景slam方法 Download PDFInfo
- Publication number
- CN110455301A CN110455301A CN201910705038.1A CN201910705038A CN110455301A CN 110455301 A CN110455301 A CN 110455301A CN 201910705038 A CN201910705038 A CN 201910705038A CN 110455301 A CN110455301 A CN 110455301A
- Authority
- CN
- China
- Prior art keywords
- imu
- pose
- camera
- dynamic scene
- measurement unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/18—Stabilised platforms, e.g. by gyroscope
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
Abstract
本发明涉及一种基于惯性测量单元的动态场景SLAM方法,包括以下步骤:采集IMU数据:获得t时刻的加速度计测量的瞬时加速度值陀螺仪测量的瞬时角速度和双目相机数据N(t);通过瞬时加速度值分析系统加速度在一定时间内变化值γa,并与预设阈值γk进行对比,当γa>γk时,则融合IMU数据,矫正系统位姿,当γa≤γk时,则处理相机数据。本发明设计合理,在保证系统解算速度的前提下,提高了SLAM系统的鲁棒性,并建立精准地图,有效克服了动态场景、剧烈运动对SLAM系统的影响。
Description
技术领域
本发明属于机器人视觉导航技术领域,尤其是一种基于惯性测量单元的动态场景SLAM方法。
背景技术
SLAM(simultaneous localization and mapping)指基于视觉的即时定位与地图构建,该技术能够使未获得环境先验信息的机器人在运动状态下,通过视觉传感器的数据信息完成建图任务,是机器人学的热门方向,目前SLAM多应用于机器人导航、AR、VR与自动驾驶等领域,并推动了一批相关技术的发展。
按照机器人使用传感器的不同,如激光雷达或者相机(单目、双目),SLAM技术分为激光SLAM和视觉SLAM。激光SLAM发展较早,技术较为成熟;视觉SLAM出现较晚,但是具有成本低,图像含有丰富信息等优点,逐渐成为主流并具有潜力的SLAM方法。
视觉SLAM技术相对于其他定位技术,精度较高,但是,其依赖环境的特征信息,在环境纹理缺失或者动态场景下容易产生误匹配、稳定性较差。惯性测量元件(IMU,InertialMeasurement Unit)虽然可以获得传感器x、y、z三轴的角速度和加速度,测量不受外界因素影响,但是在每一时刻产生的误差会随着时间累计发生漂移现象。如何将上述技术结合在一起,在保证系统计算量的同时有效提高SLAM算法的鲁棒性,适应动态场景下的剧烈运动并实现动态场景SLAM功能是目前迫切需要解决的问题。
发明内容
本发明的目的在于克服现有技术的不足,提出一种设计合理、性能稳定且安全可靠的基于惯性测量单元的动态场景SLAM方法。
本发明解决其技术问题是采取以下技术方案实现的:
一种基于惯性测量单元的动态场景SLAM方法,包括以下步骤:
步骤1、采集IMU数据:获得t时刻的加速度计测量的瞬时加速度值陀螺仪测量的瞬时角速度和双目相机数据N(t);
步骤2、通过瞬时加速度值分析系统加速度在一定时间内变化值γa,并与预设阈值γk进行对比,当γa>γk时,执行步骤3、4,当γa≤γk时,执行步骤5;
步骤3、对获得的IMU数据进行预积分处理,使两个传感器数据在测量模型中的频率保持一致;
步骤4、通过IMU提供平移向量T和旋转矩阵R预测相机位姿,使用初始模型追寻初始化后的两帧图像,通过融合IMU的旋转矩阵R、速度V、平移向量T对相机的位姿进行矫正,更新地图并跳转回步骤1;
步骤5:使用前一帧的速度和相对位姿估计当前时刻的位姿,通过视觉重投影误差构造损失函数,使用图优化的方法进行位姿估计,更新地图并跳转回步骤1。
进一步,所述步骤3采用如下预积分测量模型,对IMU数据进行预积分处理:
其中:是陀螺仪到旋转矩阵的雅各比矩阵展开式,为速度的雅各比矩阵展开式;δbg,δba是陀螺仪和加速度计的变化量。
进一步,所述步骤4的具体实现方法为:
设当前的关键帧为k,上一时刻关键帧为k-1,则构建优化方程和优化变量:
优化变量
相对于恒速模型下通过图优化进行位姿估计,增加了IMU的速度、陀螺仪零偏、加速度零偏:
系统的目标损失函数:
式中,∑k∈LEproj(k)是当前帧对应的局部地图点的的视觉重投影误差,
在关键帧k,∑k∈LEproj(k)定义为:
其中,∑k-1是关键帧的信息矩阵,Xw是在相机坐标下的地图点,Eimu(k-1,k)是IMU的误差项,ρ( )是Huber鲁棒代价函数,yk-1是重投影到当前帧图像上的特征点;
IMU的误差项Eimu(k-1,k):
其中,∑I是IMU预积分的信息矩阵,∑R是IMU的零偏随机游走的信息矩阵;
通过高斯牛顿法对上述优化模型进行求解,联合IMU的预积分值和 作为优化的初始值,融合IMU的旋转矩阵R、速度V、平移向量T对相机的位姿进行矫正。
进一步,所述步骤5的具体实现方法为:
考虑状态变量和运动方程:
X=[x1x2…xky1y2…yj]
将相机的姿态和位置构建拓扑图,该拓扑图由许多顶点及连接顶点的若干条边构成,优化变量用顶点表示,误差项用边表示,表示为式G{V,E},
相机的六自由度姿态V表示为:
表示姿态的变换关系E表示为:
构建优化函数:
e(xi,yj,ri,j)=ri,j-g(xi,yj)
上式中,xi表示i时刻的相机位姿,在图优化中称为位姿节点;yj表示j时刻相机观测到的路标,称为路标节点;ri,j表示位姿节点和路标节点之间的约束。
本发明的优点和积极效果是:
本发明设计合理,其通过IMU测量数据,分析系统加速度在一定时间内变化并与预设阈值进行对比,当系统运动较为平稳,依靠双目视觉可以精确、完整地跟踪系统的运动;当系统正处于剧烈运动时,在视觉SLAM中融合IMU数据,矫正系统位姿。从而构建两种视觉和惯性测量单元融合的优化模型,在保证系统解算速度的前提下,提高了SLAM系统的鲁棒性,并建立精准地图,有效克服了动态场景、剧烈运动对SLAM系统的影响。
附图说明
图1是本发明的处理流程图;
图2是本发明的IMU与世界坐标系之间的变换原理图;
图3是本发明的预积分前后的各信息节点关系示意图;
图4是本发明的位姿节点与路标节点之间的约束关系示意图。
具体实施方式
以下结合附图对本发明实施例做进一步详述。
本发明的设计思想是:通过IMU测量数据,分析系统加速度在一定时间内变化(下文用γa表示),并与预设阈值(下文用γk表示)进行对比。当γa≤γk(加速度变化小于、等于阈值),说明此时系统运动较为平稳,依靠双目视觉可以精确、完整地跟踪系统的运动;当γa>γk,说明此时系统正处于剧烈运动(速度变化快,系统转向角度大)的复杂情况,此时,融合IMU数据,矫正系统位姿。通过约束算法流程构建两种观测方程,在剧烈运动情况下,系统融合IMU数据,而在平稳情况下,不需要融合IMU信息,这样在节省系统计算量的同时,从而加强了SLAM的精确性和鲁棒性。
本发明的基于惯性测量单元的动态场景SLAM方法,如图1所示,包括以下步骤:
步骤1:采集IMU数据,获得t时刻的IMU加速度计测量的瞬时加速度值陀螺仪测量的瞬时角速度和双目相机数据N(t)。
步骤2:通过IMU数据分析系统加速度在一定时间内变化(下文用γa表示),并与预设阈值(下文用γk表示)进行对比,建立两种优化模型。当γa>γk(加速度变化大于阈值),说明此时系统正处于剧烈运动(速度变化快,系统转向角度大)的复杂情况,此时,采用步骤3、步骤4融合IMU数据,矫正系统位姿;当γa≤γk(加速度变化小于、等于阈值),说明此时系统运动较为平稳,采用步骤5处理相机数据。
步骤3:在获得IMU数据后,进行预积分处理,使两个传感器数据在测量模型中的频率保持一致。具体方法为:
首先给出IMU坐标系和世界坐标系之间的变换关系,如图2所示。IMU坐标系到世界坐标系通过旋转和平移变换PWB=(RWB,TWB)得到,其中,用RWB表示旋转矩阵,TWB表示平移矩阵。
其中,aw(t)为当前时刻瞬时加速度的真实值,ωWB(t)为当前时刻瞬时角速度的真实值,gw是世界坐标系下的重力加速度,ba(t)、bg(t)分别为加速度计和陀螺仪的测量随机偏差。ηa(t)、ηg(t)分别为加速度计和陀螺仪受到的噪声干扰。
实际测量中,IMU的测量值三轴加速度a和角速度ω通常受到高斯白噪声和零偏影响。因此,实际测量值是噪声、零偏、真实值的函数和。三者之间的函数关系为:
通过加速度推算出位移和速度,从角速度推算出旋转量,使用旋转矩阵法建立IMU的运动学模型,得到旋转量、速度和平移向量与IMU真实值(aw(t),ωW(t)为)之间的积分关系:
由于IMU得到的瞬时角速度,瞬时加速度的值是离散的,所以将积分形式转为差分形式。
RWB(t+Δt)=RWB(t)Exp(ωWB(t)Δt)
VWB(t+Δt)=VW(t)+aW(t)Δt
IMU每一次测量的时间间隔Δt极短,故我们可以将wa(t)和ωWB(t)看作一个恒定值。利用上式中的(测量值)代替wa(t)和ωWB(t)这两个真实值。就可以通过计算IMU加速度和陀螺仪测量值获得速度、位移和旋转量。
其中上标ηad中d表示的是离散(discrete)数据,是在t到t+Δt这一时间段内的测量值的高斯误差。
由上式,得到了时间间隔为Δt时的RWB(t+Δt),VWB(t+Δt),TWB(t+Δt)变化关系。
在SLAM系统中,需要求解每个图像时刻的pose,相机的采样频率一般在几十Hz,而IMU的频率达到了几百Hz,所以我们把两个图像帧t=i,t=j之间的IMU观测量进行累加,中间时间间隔为j-i个Δt时间段,这样就得到了从i时刻到j时刻的两个图像帧之间的位姿、速度关系。
通过图3可以看出,虽然IMU和相机两个传感器采样频率不同,但是通过预积分的方法使两个传感器在测量模型中的频率保持一致,预积分的核心是把时刻i和j的IMU的测量信息通过积分的形式分成i和j两个时刻的相对位姿值,那么通过对两个时刻的加速度值和角速度值进行积分,可以把上式改写成如下形式。
式中,每次更新速度时,需要得到每个时刻IMU的World坐标系(以下简称W系)下的旋转,在每次更新平移向量时需要更新W系下的旋转和速度,因为IMU采样频率远远大于相机的采样频率,这样就造成了大量的冗余计算,计算复杂,解算时间更长。所以引入预积分概念计算两个关键帧t=i,t=j之间的旋转和平移运动,作为IMU的测量模型。这里把旋转和平移运动还有速度单独拿出不与IMU的测量数据共同积分,给出两个关键帧之间的测量模型。
(接近极限,k代指为i和j之间的任意时刻)
上式中多次出现故假设则ΔVij=vk-vi.等式右边即为预积分量。至此,旋转、平移向量和速度量与i,j时刻的状态量Ri,Ti,Vi,Rj,Tj,Vi没有关系。只与t=i,t=j两个关键帧之间的噪声(ηa(t)、ηg(t))、零偏(ba(t)、bg(t))和IMU测量值有关。
通过上式可以看出测量方程与IMU的bias和噪声都有关系,并且关系十分复杂。因为噪声服从高斯正态分布,bias服从随机游走测量模型,所以两者处理方式不同。在这里我们假设bias为恒定值,(k=i,i+1,i+2,…,j)先讨论噪声对测量模型产生的影响,然后对bias采用一阶泰勒展开方式,这样得到IMU的预积分测量模型:
其中:是陀螺仪到旋转矩阵的雅各比矩阵展开式,为速度的雅各比矩阵展开式;δbg,δba是陀螺仪和加速度计的变化量。
步骤4:在对IMU数据进行预积分处理后,通过IMU提供平移向量T和旋转矩阵R预测相机位姿,使用初始模型追寻初始化后的两帧图像,通过融合IMU的R、V、T对相机的位姿进行矫正,更新地图并跳转回步骤1。
假设当前的关键帧为k,上一时刻关键帧为k-1,则构建优化方程和优化变量。
优化变量
相对于恒速模型下通过图优化进行位姿估计,增加了(IMU的速度、陀螺仪零偏、加速度零偏)。
系统的目标损失函数:
式中,∑k∈LEproj(k)是当前帧对应的局部地图点的的视觉重投影误差。
在关键帧k,∑k∈LEproj(k)定义为:
其中∑k-1是关键帧的信息矩阵,Xw是在相机坐标下的地图点,Eimu(k-1,k)是IMU的误差项,ρ()是Huber鲁棒代价函数,yk-1是重投影到当前帧图像上的特征点
IMU的误差项Eimu(k-1,k):
其中∑I是IMU预积分的信息矩阵,∑R是IMU的零偏随机游走的信息矩阵。通过高斯牛顿法对上述优化模型进行求解,联合IMU的预积分值和等变量作为优化的初始值,可以得到鲁棒性和精确性更高的估计值。
步骤5:使用前一帧的速度和相对位姿估计当前时刻的位姿,通过视觉重投影误差构造损失函数,使用图优化的方法进行位姿估计,更新地图并跳转回步骤1。
考虑状态变量和运动方程:
X=[x1x2…xky1y2…yj]
相机的姿态和位置构建拓扑图,一个图由许多顶点(Vertex)及连接顶点的若干条边构成,优化变量用顶点表示,误差项用边表示,表示为式G{V,E},如图4所示。
V(相机的六自由度姿态)表示为
E(表示姿态的变换关系)表示为
构建优化函数:
e(xi,yj,ri,j)=ri,j-g(xi,yj)
上式中,xi表示i时刻的相机位姿,在图优化中称为位姿节点;yj表示j时刻相机观测到的路标,称为路标节点;ri,j表示位姿节点和路标节点之间的约束。这样将问题转化成一个非线性最小二乘问题,使用g2o(图优化求解库)求解。
本发明未述及之处适用于现有技术。
需要强调的是,本发明所述的实施例是说明性的,而不是限定性的,因此本发明包括并不限于具体实施方式中所述的实施例,凡是由本领域技术人员根据本发明的技术方案得出的其他实施方式,同样属于本发明保护的范围。
Claims (4)
1.一种基于惯性测量单元的动态场景SLAM方法,其特征在于包括以下步骤:
步骤1、采集IMU数据:获得t时刻的加速度计测量的瞬时加速度值陀螺仪测量的瞬时角速度和双目相机数据N(t);
步骤2、通过瞬时加速度值分析系统加速度在一定时间内变化值γa,并与预设阈值γk进行对比,当γa>γk时,执行步骤3和4,当γa≤γk时,执行步骤5;
步骤3、对获得的IMU数据进行预积分处理,使两个传感器数据在测量模型中的频率保持一致;
步骤4、通过IMU提供平移向量T和旋转矩阵R预测相机位姿,使用初始模型追寻初始化后的两帧图像,通过融合IMU的旋转矩阵R、速度V、平移向量T对相机的位姿进行矫正,更新地图并跳转回步骤1;
步骤5:使用前一帧的速度和相对位姿估计当前时刻的位姿,通过视觉重投影误差构造损失函数,使用图优化的方法进行位姿估计,更新地图并跳转回步骤1。
2.根据权利要求1所述的一种基于惯性测量单元的动态场景SLAM方法,其特征在于:所述步骤3采用如下预积分测量模型,对IMU数据进行预积分处理:
其中:是陀螺仪到旋转矩阵的雅各比矩阵展开式,为速度的雅各比矩阵展开式;δbg,δba是陀螺仪和加速度计的变化量。
3.根据权利要求1所述的一种基于惯性测量单元的动态场景SLAM方法,其特征在于:所述步骤4的具体实现方法为:
设当前的关键帧为k,上一时刻关键帧为k-1,则构建优化方程和优化变量:
优化变量
相对于恒速模型下通过图优化进行位姿估计,增加了IMU的速度、陀螺仪零偏、加速度零偏:
系统的目标损失函数:
式中,∑k∈LEproj(k)是当前帧对应的局部地图点的的视觉重投影误差,
在关键帧k,∑k∈LEproj(k)定义为:
其中,∑k-1是关键帧的信息矩阵,Xw是在相机坐标下的地图点,Eimu(k-1,k)是IMU的误差项,ρ()是Huber鲁棒代价函数,yk-1是重投影到当前帧图像上的特征点;
IMU的误差项Eimu(k-1,k):
其中,∑I是IMU预积分的信息矩阵,∑R是IMU的零偏随机游走的信息矩阵;
通过高斯牛顿法对上述优化模型进行求解,联合IMU的预积分值和 作为优化的初始值,融合IMU的旋转矩阵R、速度V、平移向量T对相机的位姿进行矫正。
4.根据权利要求1所述的一种基于惯性测量单元的动态场景SLAM方法,其特征在于:所述步骤5的具体实现方法为:
考虑状态变量和运动方程:
X=[x1x2…xky1y2…yj]
将相机的姿态和位置构建拓扑图,该拓扑图由许多顶点及连接顶点的若干条边构成,优化变量用顶点表示,误差项用边表示,表示为式G{V,E},
相机的六自由度姿态V表示为:
表示姿态的变换关系E表示为:
构建优化函数:
e(xi,yj,ri,j)=ri,j-g(xi,yj)
上式中,xi表示i时刻的相机位姿,在图优化中称为位姿节点;yj表示j时刻相机观测到的路标,称为路标节点;ri,j表示位姿节点和路标节点之间的约束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910705038.1A CN110455301A (zh) | 2019-08-01 | 2019-08-01 | 一种基于惯性测量单元的动态场景slam方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910705038.1A CN110455301A (zh) | 2019-08-01 | 2019-08-01 | 一种基于惯性测量单元的动态场景slam方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110455301A true CN110455301A (zh) | 2019-11-15 |
Family
ID=68484428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910705038.1A Pending CN110455301A (zh) | 2019-08-01 | 2019-08-01 | 一种基于惯性测量单元的动态场景slam方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110455301A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111156984A (zh) * | 2019-12-18 | 2020-05-15 | 东南大学 | 一种面向动态场景的单目视觉惯性slam方法 |
CN111307146A (zh) * | 2020-03-02 | 2020-06-19 | 北京航空航天大学青岛研究院 | 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统 |
CN112464432A (zh) * | 2020-10-27 | 2021-03-09 | 江苏大学 | 一种基于双速数值积分结构的惯性预积分的优化方法 |
CN112595314A (zh) * | 2020-12-11 | 2021-04-02 | 北京大学 | 一种可实时测量重力加速度的惯性导航系统 |
CN113034538A (zh) * | 2019-12-25 | 2021-06-25 | 杭州海康威视数字技术股份有限公司 | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 |
CN113624228A (zh) * | 2021-07-26 | 2021-11-09 | 中国科学院上海微系统与信息技术研究所 | 一种图像传感器和加速度计的同步标定装置及方法 |
CN113984051A (zh) * | 2020-04-30 | 2022-01-28 | 深圳市瑞立视多媒体科技有限公司 | Imu与刚体的位姿融合方法、装置、设备及存储介质 |
WO2022061799A1 (zh) * | 2020-09-27 | 2022-03-31 | 深圳市大疆创新科技有限公司 | 位姿估计的方法和装置 |
CN115451958A (zh) * | 2022-11-10 | 2022-12-09 | 中国人民解放军国防科技大学 | 基于相对旋转角度的相机绝对姿态优化方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103135549A (zh) * | 2012-12-21 | 2013-06-05 | 北京邮电大学 | 一种具有视觉反馈的球形机器人运动控制系统及运动控制方法 |
CN106909877A (zh) * | 2016-12-13 | 2017-06-30 | 浙江大学 | 一种基于点线综合特征的视觉同时建图与定位方法 |
CN108253963A (zh) * | 2017-12-20 | 2018-07-06 | 广西师范大学 | 一种基于多传感器融合的机器人自抗扰定位方法以及定位系统 |
CN108253962A (zh) * | 2017-12-18 | 2018-07-06 | 中北智杰科技(北京)有限公司 | 一种低照度环境下新能源无人驾驶汽车定位方法 |
CN108827315A (zh) * | 2018-08-17 | 2018-11-16 | 华南理工大学 | 基于流形预积分的视觉惯性里程计位姿估计方法及装置 |
CN109029448A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 单目视觉惯性定位的imu辅助跟踪模型 |
CN109307508A (zh) * | 2018-08-29 | 2019-02-05 | 中国科学院合肥物质科学研究院 | 一种基于多关键帧的全景惯导slam方法 |
CN109465832A (zh) * | 2018-12-18 | 2019-03-15 | 哈尔滨工业大学(深圳) | 高精度视觉和imu紧融合定位方法与系统 |
CN109766758A (zh) * | 2018-12-12 | 2019-05-17 | 北京计算机技术及应用研究所 | 一种基于orb特征的视觉slam方法 |
CN109974707A (zh) * | 2019-03-19 | 2019-07-05 | 重庆邮电大学 | 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 |
CN109991636A (zh) * | 2019-03-25 | 2019-07-09 | 启明信息技术股份有限公司 | 基于gps、imu以及双目视觉的地图构建方法及系统 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
CN110009681A (zh) * | 2019-03-25 | 2019-07-12 | 中国计量大学 | 一种基于imu辅助的单目视觉里程计位姿处理方法 |
CN110030994A (zh) * | 2019-03-21 | 2019-07-19 | 东南大学 | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 |
-
2019
- 2019-08-01 CN CN201910705038.1A patent/CN110455301A/zh active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103135549A (zh) * | 2012-12-21 | 2013-06-05 | 北京邮电大学 | 一种具有视觉反馈的球形机器人运动控制系统及运动控制方法 |
CN106909877A (zh) * | 2016-12-13 | 2017-06-30 | 浙江大学 | 一种基于点线综合特征的视觉同时建图与定位方法 |
CN108253962A (zh) * | 2017-12-18 | 2018-07-06 | 中北智杰科技(北京)有限公司 | 一种低照度环境下新能源无人驾驶汽车定位方法 |
CN108253963A (zh) * | 2017-12-20 | 2018-07-06 | 广西师范大学 | 一种基于多传感器融合的机器人自抗扰定位方法以及定位系统 |
CN109029448A (zh) * | 2018-06-28 | 2018-12-18 | 东南大学 | 单目视觉惯性定位的imu辅助跟踪模型 |
CN108827315A (zh) * | 2018-08-17 | 2018-11-16 | 华南理工大学 | 基于流形预积分的视觉惯性里程计位姿估计方法及装置 |
CN109307508A (zh) * | 2018-08-29 | 2019-02-05 | 中国科学院合肥物质科学研究院 | 一种基于多关键帧的全景惯导slam方法 |
CN109766758A (zh) * | 2018-12-12 | 2019-05-17 | 北京计算机技术及应用研究所 | 一种基于orb特征的视觉slam方法 |
CN109465832A (zh) * | 2018-12-18 | 2019-03-15 | 哈尔滨工业大学(深圳) | 高精度视觉和imu紧融合定位方法与系统 |
CN109974707A (zh) * | 2019-03-19 | 2019-07-05 | 重庆邮电大学 | 一种基于改进点云匹配算法的室内移动机器人视觉导航方法 |
CN110030994A (zh) * | 2019-03-21 | 2019-07-19 | 东南大学 | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 |
CN109991636A (zh) * | 2019-03-25 | 2019-07-09 | 启明信息技术股份有限公司 | 基于gps、imu以及双目视觉的地图构建方法及系统 |
CN110009681A (zh) * | 2019-03-25 | 2019-07-12 | 中国计量大学 | 一种基于imu辅助的单目视觉里程计位姿处理方法 |
CN109993113A (zh) * | 2019-03-29 | 2019-07-09 | 东北大学 | 一种基于rgb-d和imu信息融合的位姿估计方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111156984A (zh) * | 2019-12-18 | 2020-05-15 | 东南大学 | 一种面向动态场景的单目视觉惯性slam方法 |
CN113034538B (zh) * | 2019-12-25 | 2023-09-05 | 杭州海康威视数字技术股份有限公司 | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 |
CN113034538A (zh) * | 2019-12-25 | 2021-06-25 | 杭州海康威视数字技术股份有限公司 | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 |
CN111307146A (zh) * | 2020-03-02 | 2020-06-19 | 北京航空航天大学青岛研究院 | 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统 |
CN113984051A (zh) * | 2020-04-30 | 2022-01-28 | 深圳市瑞立视多媒体科技有限公司 | Imu与刚体的位姿融合方法、装置、设备及存储介质 |
WO2022061799A1 (zh) * | 2020-09-27 | 2022-03-31 | 深圳市大疆创新科技有限公司 | 位姿估计的方法和装置 |
CN112464432A (zh) * | 2020-10-27 | 2021-03-09 | 江苏大学 | 一种基于双速数值积分结构的惯性预积分的优化方法 |
CN112464432B (zh) * | 2020-10-27 | 2024-05-14 | 江苏大学 | 一种基于双速数值积分结构的惯性预积分的优化方法 |
CN112595314A (zh) * | 2020-12-11 | 2021-04-02 | 北京大学 | 一种可实时测量重力加速度的惯性导航系统 |
CN113624228B (zh) * | 2021-07-26 | 2024-01-26 | 中国科学院上海微系统与信息技术研究所 | 一种图像传感器和加速度计的同步标定装置及方法 |
CN113624228A (zh) * | 2021-07-26 | 2021-11-09 | 中国科学院上海微系统与信息技术研究所 | 一种图像传感器和加速度计的同步标定装置及方法 |
CN115451958B (zh) * | 2022-11-10 | 2023-02-03 | 中国人民解放军国防科技大学 | 基于相对旋转角度的相机绝对姿态优化方法 |
CN115451958A (zh) * | 2022-11-10 | 2022-12-09 | 中国人民解放军国防科技大学 | 基于相对旋转角度的相机绝对姿态优化方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110455301A (zh) | 一种基于惯性测量单元的动态场景slam方法 | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
CN110163968B (zh) | Rgbd相机大型三维场景构建方法及系统 | |
CN104236548B (zh) | 一种微型无人机室内自主导航方法 | |
Weiss et al. | Real-time onboard visual-inertial state estimation and self-calibration of MAVs in unknown environments | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN110243358A (zh) | 多源融合的无人车室内外定位方法及系统 | |
CN105953796A (zh) | 智能手机单目和imu融合的稳定运动跟踪方法和装置 | |
CN109991636A (zh) | 基于gps、imu以及双目视觉的地图构建方法及系统 | |
CN109166149A (zh) | 一种融合双目相机与imu的定位与三维线框结构重建方法与系统 | |
CN109084732A (zh) | 定位与导航方法、装置及处理设备 | |
CN107909614B (zh) | 一种gps失效环境下巡检机器人定位方法 | |
CN106056664A (zh) | 一种基于惯性和深度视觉的实时三维场景重构系统及方法 | |
Kang et al. | Vins-vehicle: A tightly-coupled vehicle dynamics extension to visual-inertial state estimator | |
Sujiwo et al. | Monocular vision-based localization using ORB-SLAM with LIDAR-aided mapping in real-world robot challenge | |
CN114529576B (zh) | 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法 | |
CN106767785A (zh) | 一种双回路无人机的导航方法及装置 | |
Zheng et al. | An optimization-based UWB-IMU fusion framework for UGV | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN113674412B (zh) | 基于位姿融合优化的室内地图构建方法、系统及存储介质 | |
CN108170297A (zh) | 实时六自由度vr/ar/mr设备定位方法 | |
CN110929402A (zh) | 一种基于不确定分析的概率地形估计方法 | |
CN108253962A (zh) | 一种低照度环境下新能源无人驾驶汽车定位方法 | |
CN115218906A (zh) | 面向室内slam的视觉惯性融合定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20191115 |