CN111156997A - 一种基于相机内参在线标定的视觉/惯性组合导航方法 - Google Patents
一种基于相机内参在线标定的视觉/惯性组合导航方法 Download PDFInfo
- Publication number
- CN111156997A CN111156997A CN202010135460.0A CN202010135460A CN111156997A CN 111156997 A CN111156997 A CN 111156997A CN 202010135460 A CN202010135460 A CN 202010135460A CN 111156997 A CN111156997 A CN 111156997A
- Authority
- CN
- China
- Prior art keywords
- time
- inertial
- camera
- visual
- integration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
Abstract
Description
技术领域
本发明属于机器人导航领域,特别涉及了一种视觉/惯性组合导航方法。
背景技术
视觉/惯性组合导航系统因其具有良好的鲁棒性而成为机器人自主导航领域中的一大研究热点。视觉传感器可以抑制惯性传感器的漂移问题,惯性传感器可以弥补纹理少、光照不充足环境下视觉传感器无法工作的问题,因此视觉/惯性组合导航系统具有广阔的发展前景。
目前大多数视觉/惯性组合导航方法在运行过程中将相机内参作为固定参数,并通过传统的离线标定方法得到相机的内参。但实际中,相机内参可能会因为机械冲击或其它因素而发生变化,进而降低了组合导航系统的精度和可靠性。
发明内容
为了解决上述背景技术提到的技术问题,本发明提出了一种基于相机内参在线标定的视觉/惯性组合导航方法,解决因相机内参变化而导致的导航系统精度降低的问题。
为了实现上述技术目的,本发明的技术方案为:
一种基于相机内参在线标定的视觉/惯性组合导航方法,包括以下步骤:
(2)利用视觉传感器数据S(k)进行相邻两图像帧之间的特征匹配与检测;
(4)联合视觉重投影误差和惯性预积分误差优化求解载体导航信息和相机内参;
(5)输出载体导航信息和相机内参,并返回步骤(1)。
进一步地,在步骤(2)中,利用视觉传感器数据S(k)进行相邻两图像帧之间的特征匹配与检测的方法如下:
所述视觉传感器数据S(k)包括第k帧的图像信息和第k-1帧图像的FAST特征点;使用KLT稀疏光流法对第k-1帧图像的FAST特征点进行跟踪,完成前后两帧图像特征点的匹配,同时对第k帧图像进行新的FAST特征点检测,使每张图像中的特征点数目保持在一定值。
所述k时刻得到的惯性传感器数据和包括从k-1时刻到k时刻的加速度计数据和陀螺仪数据其中i=0,1,2,···,(t(k)-t(k-1))/Δt,t(k)为k 时刻对应的采样时间,t(k-1)为k-1时刻对应的采样时间,Δt为惯性传感器的采样周期,惯性传感器测量模型:
上式中,na和nω分别为加速度计和陀螺仪白噪声;和为加速度计和陀螺仪的随机游走,其导数为白噪声;为加速度计量测的理想值,为陀螺仪量测的理想值;gW为导航系下的重力;为采样时刻导航坐标系到机体坐标系的旋转矩阵;
相邻两惯性帧之间的预积分过程:
上式中,为位置预积分,为速度预积分,旋转用四元数γ表示,为旋转预积分;初始时,和为0,为单位四元数,R(γ)表示将四元数转化为旋转矩阵,表示四元数的乘法运算;在相邻两图像帧之间有若干惯性传感器数据,通过上式,采用迭代的方式对相邻两图像帧之间的所有惯性传感器数据进行预积分,从而使视觉数据的频率与惯性预积分频率保持一致,得到相邻两图像帧之间的惯性预积分和
进一步地,在步骤(4)中,联合视觉重投影误差和惯性预积分误差优化求解载体导航信息和相机内参的具体过程如下:
(a)建立优化变量X:
X=[x0,x1,···,xn,xc,P0,P1,···,Pm]
上式中,n为最后一帧的序号, 和分别表示第k帧的载体位置、速度、四元数、加速度计和陀螺仪的随机游走;xc=[fx,fy,cx,cy,k1,k2],fx和fy为相机的焦距,cx和cy为相机的光心位置, k1和k2为相机的径向畸变参数;Pl,l∈[0,m]为特征点坐标,m为最后一个特征点的序号;
(b)建立优化函数:
其中,||ep-HpX||2为边缘化约束,{ep,Hp}为边缘化的先验信息;为IMU预积分误差,表示该IMU预积分误差项是第k-1帧图像与第k帧图像之间的IMU预积分误差,B是所有IMU测量的集合,为IMU预积分误差的协方差;为相机内参为变量的视觉重投影误差,表示该视觉重投影误差项是第k帧图像上关于第l特征点的视觉重投影误差,C是所有图像帧中至少有两次观测的特征集,为视觉重投影误差的协方差;
其中,为特征点Pl在像素平面上的实际成像位置;为消除径向畸变后特征点Pl在像素平面上的位置;xd、yd分别为相机图像坐标系下特征点Pl在x和y方向的值;为k时刻机体系在导航系下的位姿,为相机和惯性传感器之间的旋转和平移;
[a]^表示把三维实向量映射为3×3反对称阵;
相邻两图像帧之间的惯性预积分误差由预积分预测值与预积分值之差得到:
上式中,为k-1时刻导航坐标系到机体坐标系的旋转矩阵;分别为 k时刻和k-1时刻机体坐标系在导航坐标系下的位置;分别为k时刻和 k-1时刻机体坐标系在导航坐标系下的速度;Δtk为相邻两图像帧之间的时间间隔;分别为k时刻和k-1时刻机体坐标系在导航坐标系下旋转的四元数; 分别为k时刻和k-1时刻机体坐标系下的加速度计随机游走;分别为k时刻和k-1时刻机体坐标系下的陀螺仪随机游走,[γ]xyz表示取四元数γ的 x、y、z分量;
(c)使用高斯-牛顿法对优化函数进行迭代求解,当达到误差收敛或者设定的最大迭代次数时停止迭代,求得载体导航信息和相机内参。
进一步地,在步骤(c)中,所述设定的最大迭代次数为30。
采用上述技术方案带来的有益效果:
本发明将相机内参作为优化变量建模到视觉重投影误差中,在视觉/惯性导航系统的运行中联合视觉传感器和惯性传感器数据对相机内参和载体导航信息实时优化求解,可以在相机内参因为机械冲击或其它因素而发生变化的情况下及时修正,因而能够有效解决由于相机内参变化而导致的视觉/惯性导航系统精度降低的问题,可以获得高精度的导航信息。
附图说明
图1是本发明的基本流程图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
本发明设计了一种基于相机内参在线标定的视觉/惯性组合导航方法,如图1 所示,步骤如下:
步骤2:利用视觉传感器数据S(k)进行相邻两图像帧之间的特征匹配与检测;
步骤4:联合视觉重投影误差和惯性预积分误差优化求解载体导航信息和相机内参;
步骤5:输出载体导航信息和相机内参,并返回步骤1。
在本实施例中,上述步骤2可以采用如下优选方案实现:
利用视觉传感器数据S(k)进行相邻两图像帧之间的特征匹配与检测的方法如下:
所述视觉传感器数据S(k)包括第k帧的图像信息和第k-1帧图像的FAST特征点;使用KLT稀疏光流法对第k-1帧图像的FAST特征点进行跟踪,完成前后两帧图像特征点的匹配,同时对第k帧图像进行新的FAST特征点检测,使每张图像中的特征点数目保持在一定值。
在本实施例中,上述步骤3可以采用如下优选方案实现:
所述k时刻得到的惯性传感器数据和包括从k-1时刻到k时刻的加速度计数据和陀螺仪数据其中i=0,1,2,···,(t(k)-t(k-1))/Δt,t(k)为k 时刻对应的采样时间,t(k-1)为k-1时刻对应的采样时间,Δt为惯性传感器的采样周期,惯性传感器测量模型:
上式中,na和nω分别为加速度计和陀螺仪白噪声;和为加速度计和陀螺仪的随机游走,其导数为白噪声;为加速度计量测的理想值,为陀螺仪量测的理想值;gW为导航系下的重力;为采样时刻导航坐标系到机体坐标系的旋转矩阵;
相邻两惯性帧之间的预积分过程:
上式中,为位置预积分,为速度预积分,旋转用四元数γ表示,为旋转预积分;初始时,和为0,为单位四元数,R(γ)表示将四元数转化为旋转矩阵,表示四元数的乘法运算;在相邻两图像帧之间有若干惯性传感器数据,通过上式,采用迭代的方式对相邻两图像帧之间的所有惯性传感器数据进行预积分,从而使视觉数据的频率与惯性预积分频率保持一致,得到相邻两图像帧之间的惯性预积分和
在本实施例中,上述步骤4可以采用如下优选方案实现:
联合视觉重投影误差和惯性预积分误差优化求解载体导航信息和相机内参的具体过程如下:
(a)建立优化变量X:
X=[x0,x1,···,xn,xc,P0,P1,···,Pm]
上式中,n为最后一帧的序号, 和分别表示第k帧的载体位置、速度、四元数、加速度计和陀螺仪的随机游走;xc=[fx,fy,cx,cy,k1,k2],fx和fy为相机的焦距,cx和cy为相机的光心位置,k1和k2为相机的径向畸变参数;Pl,l∈[0,m]为特征点坐标,m为最后一个特征点的序号;
(b)建立优化函数:
其中,||ep-HpX||2为边缘化约束,{ep,Hp}为边缘化的先验信息;为 IMU预积分误差,表示该IMU预积分误差项是第k-1帧图像与第k帧图像之间的IMU预积分误差,B是所有IMU测量的集合,为IMU预积分误差的协方差;为相机内参为变量的视觉重投影误差,表示该视觉重投影误差项是第k帧图像上关于第l特征点的视觉重投影误差,C是所有图像帧中至少有两次观测的特征集,为视觉重投影误差的协方差;
其中,为特征点Pl在像素平面上的实际成像位置;为消除径向畸变后特征点Pl在像素平面上的位置;xd、yd分别为相机图像坐标系下特征点Pl在x和y方向的值;为k时刻机体系在导航系下的位姿,为相机和惯性传感器之间的旋转和平移;
[a]^表示把三维实向量映射为3×3反对称阵,即:
相邻两图像帧之间的惯性预积分误差由预积分预测值与预积分值之差得到:
上式中,为k-1时刻导航坐标系到机体坐标系的旋转矩阵;分别为 k时刻和k-1时刻机体坐标系在导航坐标系下的位置;分别为k时刻和 k-1时刻机体坐标系在导航坐标系下的速度;Δtk为相邻两图像帧之间的时间间隔;分别为k时刻和k-1时刻机体坐标系在导航坐标系下旋转的四元数; 分别为k时刻和k-1时刻机体坐标系下的加速度计随机游走;分别为k时刻和k-1时刻机体坐标系下的陀螺仪随机游走,[γ]xyz表示取四元数γ的 x、y、z分量;
(c)使用高斯-牛顿法对优化函数进行迭代求解,当达到误差收敛或者设定的最大迭代次数时停止迭代,求得载体导航信息和相机内参。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (5)
2.根据权利要求1所述基于相机内参在线标定的视觉/惯性组合导航方法,其特征在于,在步骤(2)中,利用视觉传感器数据S(k)进行相邻两图像帧之间的特征匹配与检测的方法如下:
所述视觉传感器数据S(k)包括第k帧的图像信息和第k-1帧图像的FAST特征点;使用KLT稀疏光流法对第k-1帧图像的FAST特征点进行跟踪,完成前后两帧图像特征点的匹配,同时对第k帧图像进行新的FAST特征点检测,使每张图像中的特征点数目保持在一定值。
所述k时刻得到的惯性传感器数据和包括从k-1时刻到k时刻的加速度计数据和陀螺仪数据其中i=0,1,2,···,(t(k)-t(k-1))/Δt,t(k)为k时刻对应的采样时间,t(k-1)为k-1时刻对应的采样时间,Δt为惯性传感器的采样周期,惯性传感器测量模型:
上式中,na和nω分别为加速度计和陀螺仪白噪声;和为加速度计和陀螺仪的随机游走,其导数为白噪声;为加速度计量测的理想值,为陀螺仪量测的理想值;gW为导航系下的重力;为采样时刻导航坐标系到机体坐标系的旋转矩阵;
相邻两惯性帧之间的预积分过程:
4.根据权利要求3所述基于相机内参在线标定的视觉/惯性组合导航方法,其特征在于,在步骤(4)中,联合视觉重投影误差和惯性预积分误差优化求解载体导航信息和相机内参的具体过程如下:
(a)建立优化变量X:
X=[x0,x1,···,xn,xc,P0,P1,···,Pm]
上式中,n为最后一帧的序号, 和分别表示第k帧的载体位置、速度、四元数、加速度计和陀螺仪的随机游走;xc=[fx,fy,cx,cy,k1,k2],fx和fy为相机的焦距,cx和cy为相机的光心位置,k1和k2为相机的径向畸变参数;Pl,l∈[0,m]为特征点坐标,m为最后一个特征点的序号;
(b)建立优化函数:
其中,||ep-HpX||2为边缘化约束,{ep,Hp}为边缘化的先验信息;为IMU预积分误差,表示该IMU预积分误差项是第k-1帧图像与第k帧图像之间的IMU预积分误差,B是所有IMU测量的集合,为IMU预积分误差的协方差;为相机内参为变量的视觉重投影误差,表示该视觉重投影误差项是第k帧图像上关于第l特征点的视觉重投影误差,C是所有图像帧中至少有两次观测的特征集,为视觉重投影误差的协方差;
其中,为特征点Pl在像素平面上的实际成像位置;为消除径向畸变后特征点Pl在像素平面上的位置;xd、yd分别为相机图像坐标系下特征点Pl在x和y方向的值;为k时刻机体系在导航系下的位姿,为相机和惯性传感器之间的旋转和平移;
[a]^表示把三维实向量映射为3×3反对称阵;
相邻两图像帧之间的惯性预积分误差由预积分预测值与预积分值之差得到:
上式中,为k-1时刻导航坐标系到机体坐标系的旋转矩阵;分别为k时刻和k-1时刻机体坐标系在导航坐标系下的位置;分别为k时刻和k-1时刻机体坐标系在导航坐标系下的速度;Δtk为相邻两图像帧之间的时间间隔;分别为k时刻和k-1时刻机体坐标系在导航坐标系下旋转的四元数; 分别为k时刻和k-1时刻机体坐标系下的加速度计随机游走;分别为k时刻和k-1时刻机体坐标系下的陀螺仪随机游走,[γ]xyz表示取四元数γ的x、y、z分量;
(c)使用高斯-牛顿法对优化函数进行迭代求解,当达到误差收敛或者设定的最大迭代次数时停止迭代,求得载体导航信息和相机内参。
5.根据权利要求4所述基于相机内参在线标定的视觉/惯性组合导航方法,其特征在于,在步骤(c)中,所述设定的最大迭代次数为30。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010135460.0A CN111156997B (zh) | 2020-03-02 | 2020-03-02 | 一种基于相机内参在线标定的视觉/惯性组合导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010135460.0A CN111156997B (zh) | 2020-03-02 | 2020-03-02 | 一种基于相机内参在线标定的视觉/惯性组合导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111156997A true CN111156997A (zh) | 2020-05-15 |
CN111156997B CN111156997B (zh) | 2021-11-30 |
Family
ID=70566863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010135460.0A Active CN111156997B (zh) | 2020-03-02 | 2020-03-02 | 一种基于相机内参在线标定的视觉/惯性组合导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111156997B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112637496A (zh) * | 2020-12-21 | 2021-04-09 | 维沃移动通信有限公司 | 图像矫正方法及装置 |
CN113029134A (zh) * | 2021-03-02 | 2021-06-25 | 浙江商汤科技开发有限公司 | 视觉惯性系统的初始化方法、装置、电子设备及存储介质 |
CN113159197A (zh) * | 2021-04-26 | 2021-07-23 | 北京华捷艾米科技有限公司 | 一种纯旋转运动状态判定方法及装置 |
CN113188557A (zh) * | 2021-04-28 | 2021-07-30 | 江苏方天电力技术有限公司 | 一种融合语义特征的视觉惯性组合导航方法 |
CN113358134A (zh) * | 2021-04-20 | 2021-09-07 | 重庆知至科技有限公司 | 一种视觉惯性里程计系统 |
CN114323002A (zh) * | 2021-12-27 | 2022-04-12 | 浙江大学 | 一种基于双目视觉、imu和uwb融合的agv定位导航方法 |
WO2022100189A1 (zh) * | 2020-11-16 | 2022-05-19 | 浙江商汤科技开发有限公司 | 视觉惯性系统的参数标定方法及装置、电子设备和介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110316980A1 (en) * | 2008-12-22 | 2011-12-29 | Nederlandse Organisatie voor toegepastnatuurweten schappelijk Onderzoek TNO | Method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product |
CN102622744A (zh) * | 2012-01-17 | 2012-08-01 | 浙江大学 | 一种基于多项式投影模型的长焦相机标定方法 |
CN102663763A (zh) * | 2012-04-25 | 2012-09-12 | 南京航空航天大学 | 一种面向大视场高精度视觉测量的摄像机标定方法 |
CN103886595A (zh) * | 2014-03-19 | 2014-06-25 | 浙江大学 | 一种基于广义统一模型的折反射相机自标定方法 |
WO2014179745A1 (en) * | 2013-05-02 | 2014-11-06 | Qualcomm Incorporated | Methods for facilitating computer vision application initialization |
CN104392435A (zh) * | 2014-11-10 | 2015-03-04 | 中科院微电子研究所昆山分所 | 鱼眼相机标定方法及标定装置 |
US20160042515A1 (en) * | 2014-08-06 | 2016-02-11 | Thomson Licensing | Method and device for camera calibration |
CN109781092A (zh) * | 2019-01-19 | 2019-05-21 | 北京化工大学 | 一种危险化工事故中移动机器人定位与建图方法 |
CN110207693A (zh) * | 2019-05-21 | 2019-09-06 | 南京航空航天大学 | 一种鲁棒立体视觉惯性预积分slam方法 |
CN110246193A (zh) * | 2019-06-20 | 2019-09-17 | 南京博蓝奇智能科技有限公司 | 工业机器人末端相机在线标定方法 |
CN110322514A (zh) * | 2019-06-24 | 2019-10-11 | 西北工业大学 | 一种基于多中心投影模型的光场相机参数估计方法 |
CN110345944A (zh) * | 2019-05-27 | 2019-10-18 | 浙江工业大学 | 融合视觉特征和imu信息的机器人定位方法 |
-
2020
- 2020-03-02 CN CN202010135460.0A patent/CN111156997B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110316980A1 (en) * | 2008-12-22 | 2011-12-29 | Nederlandse Organisatie voor toegepastnatuurweten schappelijk Onderzoek TNO | Method of estimating a motion of a multiple camera system, a multiple camera system and a computer program product |
CN102622744A (zh) * | 2012-01-17 | 2012-08-01 | 浙江大学 | 一种基于多项式投影模型的长焦相机标定方法 |
CN102663763A (zh) * | 2012-04-25 | 2012-09-12 | 南京航空航天大学 | 一种面向大视场高精度视觉测量的摄像机标定方法 |
WO2014179745A1 (en) * | 2013-05-02 | 2014-11-06 | Qualcomm Incorporated | Methods for facilitating computer vision application initialization |
CN103886595A (zh) * | 2014-03-19 | 2014-06-25 | 浙江大学 | 一种基于广义统一模型的折反射相机自标定方法 |
US20160042515A1 (en) * | 2014-08-06 | 2016-02-11 | Thomson Licensing | Method and device for camera calibration |
CN104392435A (zh) * | 2014-11-10 | 2015-03-04 | 中科院微电子研究所昆山分所 | 鱼眼相机标定方法及标定装置 |
CN109781092A (zh) * | 2019-01-19 | 2019-05-21 | 北京化工大学 | 一种危险化工事故中移动机器人定位与建图方法 |
CN110207693A (zh) * | 2019-05-21 | 2019-09-06 | 南京航空航天大学 | 一种鲁棒立体视觉惯性预积分slam方法 |
CN110345944A (zh) * | 2019-05-27 | 2019-10-18 | 浙江工业大学 | 融合视觉特征和imu信息的机器人定位方法 |
CN110246193A (zh) * | 2019-06-20 | 2019-09-17 | 南京博蓝奇智能科技有限公司 | 工业机器人末端相机在线标定方法 |
CN110322514A (zh) * | 2019-06-24 | 2019-10-11 | 西北工业大学 | 一种基于多中心投影模型的光场相机参数估计方法 |
Non-Patent Citations (2)
Title |
---|
K. SENGUPTA 等: "A new camera projection model and its application in reprojection", 《PROCEEDINGS. FOURTEENTH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 * |
潘林豪 等: "单目相机-IMU外参自动标定与在线估计的视觉-惯导SLAM", 《仪器仪表学报》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022100189A1 (zh) * | 2020-11-16 | 2022-05-19 | 浙江商汤科技开发有限公司 | 视觉惯性系统的参数标定方法及装置、电子设备和介质 |
CN114791291A (zh) * | 2020-11-16 | 2022-07-26 | 浙江商汤科技开发有限公司 | 视觉惯性系统的参数标定方法及装置、电子设备和介质 |
CN112637496A (zh) * | 2020-12-21 | 2021-04-09 | 维沃移动通信有限公司 | 图像矫正方法及装置 |
CN112637496B (zh) * | 2020-12-21 | 2022-05-31 | 维沃移动通信有限公司 | 图像矫正方法及装置 |
CN113029134A (zh) * | 2021-03-02 | 2021-06-25 | 浙江商汤科技开发有限公司 | 视觉惯性系统的初始化方法、装置、电子设备及存储介质 |
CN113358134A (zh) * | 2021-04-20 | 2021-09-07 | 重庆知至科技有限公司 | 一种视觉惯性里程计系统 |
CN113159197A (zh) * | 2021-04-26 | 2021-07-23 | 北京华捷艾米科技有限公司 | 一种纯旋转运动状态判定方法及装置 |
CN113188557A (zh) * | 2021-04-28 | 2021-07-30 | 江苏方天电力技术有限公司 | 一种融合语义特征的视觉惯性组合导航方法 |
CN113188557B (zh) * | 2021-04-28 | 2023-10-20 | 江苏方天电力技术有限公司 | 一种融合语义特征的视觉惯性组合导航方法 |
CN114323002A (zh) * | 2021-12-27 | 2022-04-12 | 浙江大学 | 一种基于双目视觉、imu和uwb融合的agv定位导航方法 |
CN114323002B (zh) * | 2021-12-27 | 2023-12-08 | 浙江大学 | 一种基于双目视觉、imu和uwb融合的agv定位导航方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111156997B (zh) | 2021-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111156997B (zh) | 一种基于相机内参在线标定的视觉/惯性组合导航方法 | |
CN110009681B (zh) | 一种基于imu辅助的单目视觉里程计位姿处理方法 | |
CN109307508B (zh) | 一种基于多关键帧的全景惯导slam方法 | |
CN109540126B (zh) | 一种基于光流法的惯性视觉组合导航方法 | |
CN109029433B (zh) | 一种移动平台上基于视觉和惯导融合slam的标定外参和时序的方法 | |
CN106679648B (zh) | 一种基于遗传算法的视觉惯性组合的slam方法 | |
CN107941217B (zh) | 一种机器人定位方法、电子设备、存储介质、装置 | |
CN109676604B (zh) | 机器人曲面运动定位方法及其运动定位系统 | |
CN111780754B (zh) | 基于稀疏直接法的视觉惯性里程计位姿估计方法 | |
CN109648558B (zh) | 机器人曲面运动定位方法及其运动定位系统 | |
CN110702107A (zh) | 一种单目视觉惯性组合的定位导航方法 | |
CN107193279A (zh) | 基于单目视觉和imu信息的机器人定位与地图构建系统 | |
CN111024066A (zh) | 一种无人机视觉-惯性融合室内定位方法 | |
CN112649016A (zh) | 一种基于点线初始化的视觉惯性里程计方法 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN112734841B (zh) | 一种用轮式里程计-imu和单目相机实现定位的方法 | |
CN110986939A (zh) | 一种基于imu预积分的视觉惯性里程计方法 | |
CN111862316B (zh) | 一种基于优化的imu紧耦合稠密直接rgbd的三维重建方法 | |
CN111238535B (zh) | 一种基于因子图的imu误差在线标定方法 | |
CN110207693B (zh) | 一种鲁棒立体视觉惯性预积分slam方法 | |
CN111609868A (zh) | 一种基于改进光流法的视觉惯性里程计方法 | |
CN114526745A (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN115371665B (zh) | 一种基于深度相机和惯性融合的移动机器人定位方法 | |
CN114529576A (zh) | 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |