CN111811506B - 视觉/惯性里程计组合导航方法、电子设备及存储介质 - Google Patents
视觉/惯性里程计组合导航方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111811506B CN111811506B CN202010963803.2A CN202010963803A CN111811506B CN 111811506 B CN111811506 B CN 111811506B CN 202010963803 A CN202010963803 A CN 202010963803A CN 111811506 B CN111811506 B CN 111811506B
- Authority
- CN
- China
- Prior art keywords
- camera
- error
- coordinate system
- imu
- inertial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
Abstract
针对现有的视觉/惯性里程计组合导航滤波技术中存在的方差估计不一致问题,本发明提供了一种视觉/惯性里程计组合导航方法、电子设备及存储介质。IMU接收载体的运动信息,相机同步采集图像信息,根据IMU接收到的运动信息进行捷联惯性导航解算,得到载体的姿态、速度和位置信息;对相机同步采集到的图像信息提取特征点并对提取的特征点进行跟踪;通过速度误差的严格状态变换,构建视觉/惯性里程计组合导航滤波的系统模型和观测模型,完成卡尔曼滤波,输出滤波后的组合导航系统的姿态、速度、位置信息。本发明克服了视觉/惯性里程计组合导航滤波的方差估计不一致问题,提高组合导航的精度。
Description
技术领域
本发明涉及视觉/惯性里程计组合导航技术领域,特别是涉及一种具有滤波一致性的基于状态变换的视觉/惯性里程计组合导航方法。
背景技术
视觉/惯性里程计组合导航问题一直是状态估计研究领域中的一个热点问题,特别是对于无人载体如无人车、无人机在卫星拒止的环境中的应用来说意义重大。在所有的视觉/惯性里程计组合导航方案中,使用一个惯性测量单元(IMU)和单目摄像机进行组合的方案因体积小、成本低而备受关注。但是,单目摄像机存在度量尺度不确定的问题。然而,一个惯性测量单元(IMU)可以为视觉里程计提供绝对尺度,也可以用来辅助视觉特征的提取和匹配。在组合导航系统失去视觉信息后,惯性导航系统仍能在短时间内高精度地工作。
对于视觉/惯性里程计组合导航方法,根据融合的方式,可以分为松组合和紧组合。松组合方式将惯导信息和视觉信息分别处理,惯性测量单元(IMU)的测量信息用于状态传递,视觉信息计算的位姿用于更新,这种方法没有利用惯性测量单元(IMU)对视觉的辅助作用,无法纠正视觉位姿引入的漂移。紧组合方式利用惯性和视觉的原始信息,将IMU和相机的测量值全部优化,然后基于滤波或者非线性优化实现。由于IMU与相机的测量值会相互影响,因此紧组合比松组合具有更好的鲁棒性和精度。一般认为基于非线性优化的紧组合方法比基于滤波的紧组合方法精度更高,因为在每个迭代周期中使用了更多的测量信息。但是,非线性方程的迭代求解需要大量的计算资源,因此很难在资源受限的平台上实现实时计算。与此相反,基于扩展卡尔曼滤波的方法具有更好的计算效率,并且易于在小型移动设备上实现。
然而,早期基于扩展卡尔曼滤波的视觉/惯性里程计紧组合导航方法存在方差估计不一致性的问题。例如在多状态约束卡尔曼滤波(MSCKF)的惯性/视觉紧组合导航系统中,偏航角是不可观测的,但是滤波过程中却误认为它是可观测的,进而方差减小。这里产生方差不一致性的根本原因源于组合导航滤波的雅可比矩阵的计算方法。为了解决方差不一致性的问题,目前比较流行的两种方法是基于可观测性约束的扩展卡尔曼滤波方法(OCEKF)和不变扩展卡尔曼滤波方法(IEKF)。使用基于可观测性约束的扩展卡尔曼滤波方法(OCEKF)的困难在于,首先需要对系统在不同场景下的不可观测子空间进行深入研究,然后基于观测性约束对雅克比矩阵进行重新计算。然而,在实际应用中,很难从静态和动态两个方面全面分析系统的可观测性。有时,基于静态基座的可观测性分析在动态基座上是不适用的。不变扩展卡尔曼滤波方法(IEKF)的缺点是滤波推导和实现过程非常复杂。
因此,亟需设计一种能够比基于可观测性约束的扩展卡尔曼滤波方法(OCEKF)和不变扩展卡尔曼滤波方法(IEKF)更简单、更容易实现的可解决方差不一致问题的视觉/惯性里程计紧组合导航技术方案。
发明内容
针对现有的视觉/惯性里程计组合导航滤波技术中存在的方差估计不一致问题,本发明提供了一种视觉/惯性里程计组合导航方法、电子设备及存储介质。本发明旨在通过速度误差的严格状态变换,推导视觉/惯性里程计组合导航滤波的系统模型和观测模型,进而克服视觉/惯性里程计组合导航滤波的方差估计不一致问题,提高组合导航的精度。
为实现上述技术目的,本发明采用的具体技术方案如下:
视觉/惯性里程计组合导航方法,包括:
在载体上安装视觉/惯性里程计组合导航系统,视觉/惯性里程计组合导航系统包括IMU以及相机,IMU接收载体的运动信息,相机同步采集图像信息,根据IMU接收到的运动信息进行捷联惯性导航解算,得到载体的姿态、速度和位置信息;对相机同步采集到的图像信息提取特征点并对提取的特征点进行跟踪;
构建视觉/惯性里程计组合导航系统的系统模型和观测模型,根据视觉/惯性里程计组合导航系统的系统模型和观测模型完成卡尔曼滤波,输出滤波后的组合导航系统的姿态、速度、位置信息。
其中,本发明中IMU接收载体的运动信息包括:三轴陀螺仪的角增量或角速度信息和三轴加速度计的比力或比力积分增量信息。单目摄像机采集的图像信息为与IMU同步采集的二维图像。
本发明中,构建视觉/惯性里程计组合导航系统的系统模型和观测模型,包括:
(1)确定视觉/惯性里程计组合导航模型的状态向量。
t时刻视觉/惯性里程计组合导航模型的状态向量x由与惯导相关的状态向量和与相机相关的状态向量组成。
(2)构建基于状态变换的与惯导误差状态相关的系统模型:
基于状态变换的与惯导误差状态相关的系统模型中的各参数定义如下:
是Hamilton单位四元数,表示从IMU坐标系到世界参考坐标系的旋转,是IMU相对于世界参考坐标系的速度在世界参考坐标系中的投影,是IMU在世界参考坐标系中的位置坐标,和分别是三轴陀螺仪零偏和三轴加速度计零偏,表示从相机坐标系到IMU坐标系的旋转,表示IMU坐标系的原点到相机坐标系的原点的矢量在IMU坐标系下的投影。
基于状态变换后的噪声转移矩阵G ST-IMU 为:
(3)构建基于状态变换的与相机位姿误差状态相关的状态和协方差传递模型:
每次获得相机的关键帧即具有平移运动或旋转和平移运动均足够大的帧后,需要增加关键帧对应的相机位姿状态到与相机相关的状态向量中,并且扩增状态协方差矩阵;表示增加了新的关键帧的相机位姿状态后的与相机相关的状态向量,对应的与相机相关的误差状态向量表示为:
扩增后的协方差矩阵表示为:
(4)根据特征点的重投影误差构建视觉/惯性里程计组合导航系统的观测模型。
分别为第帧图像的第j个特征点在第帧图像对应的相机坐标系中的X,Y,Z坐标;表示第j个特征点在世界参考坐标系中的坐标;表示第个相机位置在世界参考坐标系中的坐标,其中第个相机位置与第i帧图像对应;表示世界参考坐标系到第个相机坐标系的旋转矩阵;
本发明提供一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述视觉/惯性里程计组合导航方法的步骤。
本发明提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述视觉/惯性里程计组合导航方法的步骤。
本发明所涉及的滤波方法并不局限于单目视觉/惯性里程计的组合导航系统,亦可以扩展应用于双目视觉/惯性里程计的组合导航系统。
与现有技术相比,本发明具有以下优点:
1)本发明中的视觉/惯性组合导航方法的速度误差定义更为严格,物理意义更为明确。
2)本发明中的视觉/惯性组合导航系统模型中不再有比力相关项,而是被重力相关项替代,使得组合导航系统可以更好的适用于复杂的动态环境,滤波具有更好的一致性。
3)本发明方法实现容易,并且计算量小。与基于可观测性约束的扩展卡尔曼滤波方法(OCEKF)和不变扩展卡尔曼滤波方法(IEKF)相比,本发明的滤波过程与标准的扩展卡尔曼滤波过程完全一致,实现起来简单,更容易理解。
本发明所提出的方法具有很强的工程应用灵活性和适用性,由于计算量相对较小,因此可以为组合导航系统增加额外的功能留有足够的空间。
附图说明
图1 为本发明的流程图。
图2 为开源数据集某次实验的位置轨迹。
图3 为开源数据集某次实验的水平位置误差结果。
图4 为开源数据集某次实验的姿态误差结果。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚明白,下面将以附图及详细叙述清楚说明本发明所揭示内容的精神,任何所属技术领域技术人员在了解本发明内容的实施例后,当可由本发明内容所教示的技术,加以改变及修饰,其并不脱离本发明内容的精神与范围。本发明的示意性实施例及其说明用于解释本发明,但并不作为对本发明的限定。
参照图1是本实施例的流程图,一种视觉/惯性里程计组合导航方法,具体包括如下步骤:
步骤一,初始化数据。
视觉/惯性里程计组合导航系统中的IMU接收载体的运动信息,相机同步采集图像信息。
根据IMU接收到的运动信息进行惯性导航解算,得到IMU的姿态、速度和位置信息;根据相机同步采集到的图像信息提取FAST(Features from Accelerated Segment Test)角点作为特征点,将特征点的二维像素坐标信息进行存储;采用KLT(Kanade LucasTomasi)光流跟踪法对提取的特征点进行跟踪。
IMU接收的数据信息包括:三轴陀螺仪的角增量或角速度信息和三轴加速度计的比力或比力积分增量信息,利用这些数据完成惯性导航的推算。单目相机接收到的数据信息为与惯性测量单元数据时间同步的二维图像,根据二维图像完成FAST角点的提取和角点像素坐标的存储,对提取的角点利用KLT光流跟踪算法进行跟踪。
利用第一帧图像进行图像关键特征点的提取,作为跟踪的初始特征点。FAST(Features from Accelerated Segment Test)角点由于其计算量小、实时性强等诸多优点,在视觉导航领域中得到了广泛应用,因此本发明选择FAST角点作为初始化的特征点。
在正式进行组合视觉/惯性的组合导航滤波之前,视觉图像需要完成特征点的跟踪与匹配、剔除异常特征点以及提取新的特征点的任务。选择使用KLT(KanadeLucasTomasi)跟踪法,该算法以光流跟踪为基础,对于特征的形变有较好的适应性。另外在跟踪到特征点后,在跟踪点之外的图像区域中检测新的特征点,以补足跟踪过程中特征点的数量。
步骤二,构建视觉/惯性里程计组合导航系统的系统模型和观测模型。
首先明确本发明中涉及到的坐标系:当地地理坐标系N、世界参考坐标系W、车体坐标系M、IMU坐标系I、相机坐标系C、地固地心坐标系E,定义如下:
当地地理坐标系N:本发明取为北东地(NED)坐标系作为当地地理坐标系,视觉/惯性里程计组合导航系统最终输出的导航状态,如速度、姿态角在当地地理坐标系中表示。
世界参考坐标系W:该世界参考坐标系即当地切平面坐标系,与地球固联,与所在点的当地地理坐标系重合。为了满足算法的无缝运行,IMU和相机的位置、姿态以及场景中的特征点都在世界参考坐标系中表示。
车体坐标系M:该坐标系与车体固联,原点位于车辆质心,坐标轴方向为前右下。
IMU坐标系I:该坐标系即导航解算载体系,以三个加速度计的中心为原点,以三个敏感轴的敏感方向为X,Y,Z轴,三个方向满足右手法则,分别指向前右下,安装时应使其坐标轴方向尽量与车体坐标系一致,以使安装角较小。
相机坐标系C:该坐标系与相机固联,坐标系原点在相机的光学中心,X轴和Y轴平行于成像平面,其中X轴为横向,Y轴为纵向,Z轴平行于透镜的轴线,方向根据右手法则由X轴和Y轴确定。
地心地固坐标系E:该坐标系与地球固联,坐标原点位于地球球心,X轴指向赤道与参考子午线的交点,Z轴沿地球自转轴指向北极点,Y轴由右手法则确定,此坐标系用于世界参考坐标系与当地地理坐标系转换的中间坐标系。
在传统的视觉/惯性里程计中,通常把特征点位置加入状态向量中,通过新的观测不断地去优化特征点的位置和载体位姿,直至特征点消失。但是与同时定位与建图(SLAM)系统不同,惯性/视觉里程计并不需要得到环境地图,因此将特征点加入到状态向量中进行优化,将使计算过程变得复杂。多状态约束卡尔曼滤波(MSCKF)算法在这一点上做了改进,状态向量中不再包含特征点位置,而是以过去时刻的相机位姿作为代替,状态向量是一个滑动窗口的形式,不断加入新的相机位姿,并不断舍弃旧的相机位姿。
(1)确定视觉/惯性里程计组合导航模型的状态向量;
t时刻组合导航滤波器的状态向量x由与惯导相关的量和与相机相关的量组成:
(2)构建基于状态变换的与惯导误差状态相关的系统模型:
式中,是Hamilton单位四元数,表示从IMU坐标系到世界参考坐标系的旋转,是IMU相对于世界参考坐标系的速度在世界参考坐标系中的投影,是IMU在世界参考坐标系中的位置坐标,和分别是三轴陀螺仪零偏和三轴加速度计零偏,表示从相机坐标系到IMU坐标系的旋转,表示IMU坐标系的原点到相机坐标系的原点的矢量在IMU坐标系下的投影。
与公式(2)中状态向量相对应的误差状态向量为公式(3)所示。
基于状态变换后的噪声转移矩阵G ST-IMU 为:
(3)构建基于状态变换的与相机位姿误差状态相关的状态和协方差传递模型:
与公式(8)对应的与相机相关的误差状态向量表示为:
在每次获得IMU测量值后,进行状态和协方差矩阵的传递过程。而在每次获得相机的关键帧即具有平移运动或旋转和平移运动的帧后,需要增加关键帧对应的相机位姿状态到与相机相关的状态向量中,并且扩增状态协方差矩阵;表示增加了新的关键帧的相机位姿状态后的与相机相关的状态向量,对应的与相机相关的误差状态向量表示为:
扩增后的协方差矩阵表示为:
(4)根据特征点的重投影误差构建视觉/惯性里程计组合导航系统的观测模型;
在视觉/惯性里程计组合导航系统中,使用IMU信息进行状态传递,使用视觉信息进行观测,在多状态约束卡尔曼滤波(MSCKF)方法中使用的是特征点重投影误差,根据特征点重投影误差建立观测模型。
分别为第帧图像的第j个特征点在第帧图像对应的相机坐标系中的X,Y,Z坐标;表示第j个特征点在世界参考坐标系中的坐标;表示第个相机位置在世界参考坐标系中的坐标,其中第个相机位置与第帧图像对应;表示世界参考坐标系到第个相机坐标系的旋转矩阵。
其中公式(20)中对应的所有符号含义与公式(16)相同,只不过这里上波浪线代表估计值。第帧图像中的第j个特征点三维位置估计值可通过最小化重投影误差的非线性优化过程进行估计,主要使用Bundle Adjustment和逆深度参数化实现。
因此,本发明构建视觉/惯性里程计组合导航系统的观测模型,包括以下步骤:
视觉信息作为观测量时没有固定的滤波周期,而是采取一定的策略进行滤波更新,滤波更新在两种情况下会被触发。第一种情况是某一个特征点跟踪结束。当一个特征点从视野中消失时,此时该特征点的跟踪过程结束,对包含该特征点的相机位姿进行滤波更新。第二种情况是状态向量中的滤波状态达到上限。每当产生新的关键帧,状态向量中将会添加新的相机位姿,如果某些特征点的生命周期很长,将会使状态向量的维度很大,为了提高计算效率和避免长时间不更新造成误差积累过大,对状态向量中的相机状态维数设置最大阈值,当达到此阈值后,删除部分相机状态,在删除的同时,利用已有的观测信息对这些状态进行滤波更新。滤波的预测和更新过程所涉及的公式为公式(1)- (25)所示。
步骤三,根据视觉/惯性里程计组合导航系统的系统模型和观测模型完成卡尔曼滤波,输出滤波后的组合导航系统的姿态、速度、位置信息。
为验证本发明所提供方法的有效性,以开源数据集KITTI的惯导、视觉数据为例,对本发明提供的视觉/惯性里程计组合导航方法与传统的多状态约束卡尔曼滤波(MSCKF)的惯性/视觉紧组合导航方法进行性能对比。IMU输出频率为100 Hz, 图像的帧率为10 Hz。
位置误差结果如图2所示,从图2可以看出,本发明所提出的视觉/惯性里程计组合导航方法具有比传统的多状态约束卡尔曼滤波(MSCKF)的惯性/视觉紧组合导航方法更高的位置精度。
航向角误差结果如图3所示,从图3可以看出,本发明所提出的视觉/惯性里程计组合导航方法具有比传统的多状态约束卡尔曼滤波(MSCKF)的惯性/视觉紧组合导航方法更高的航向估计精度。
航向角滤波均方根误差如图4所示,从图4可以看出,本发明所提出的基于状态变换的视觉/惯性里程计多状态约束滤波方法的航向角估计具有更好的一致性。虽然航向角是不可观的,但是传统的多状态约束卡尔曼滤波(MSCKF)的惯性/视觉紧组合导航方法的航向角滤波均方根却逐渐减小,说明滤波错误的认为航向角是可观的,进而产生了错误的估计。
综上所述,虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明,任何本领域普通技术人员,在不脱离本发明的精神和范围内,当可作各种更动与润饰,因此本发明的保护范围当视权利要求书界定的范围为准。
Claims (5)
1.视觉/惯性里程计组合导航方法,其特征在于,包括:
在载体上安装视觉/惯性里程计组合导航系统,视觉/惯性里程计组合导航系统包括IMU以及相机,IMU接收载体的运动信息,相机同步采集图像信息,根据IMU接收到的运动信息进行捷联惯性导航解算,得到载体的姿态、速度和位置信息;对相机同步采集到的图像信息提取特征点并对提取的特征点进行跟踪;
构建视觉/惯性里程计组合导航系统的系统模型和观测模型,根据视觉/惯性里程计组合导航系统的系统模型和观测模型完成卡尔曼滤波,输出滤波后的组合导航系统的姿态、速度、位置信息,其中构建视觉/惯性里程计组合导航系统的系统模型和观测模型,包括:
(1)确定视觉/惯性里程计组合导航模型的状态向量;
t时刻视觉/惯性里程计组合导航模型的状态向量x由与惯导相关的状态向量和与相机相关的状态向量组成:
(2)构建基于状态变换的与惯导误差状态相关的系统模型:
基于状态变换的与惯导误差状态相关的系统模型中的各参数定义如下:
是Hamilton单位四元数,表示从IMU坐标系到世界参考坐标系的旋转,是IMU相对于世界参考坐标系的速度在世界参考坐标系中的投影,是IMU在世界参考坐标系中的位置坐标,和分别是三轴陀螺仪零偏和三轴加速度计零偏,表示从相机坐标系到IMU坐标系的旋转,表示IMU坐标系的原点到相机坐标系的原点的矢量在IMU坐标系下的投影;
基于状态变换后的噪声转移矩阵G ST-IMU 为:
(3)构建基于状态变换的与相机位姿误差状态相关的状态和协方差传递模型:
每次获得相机的关键帧即具有平移运动或旋转和平移运动的帧后,需要增加关键帧对应的相机位姿状态到与相机相关的状态向量中,并且扩增状态协方差矩阵;表示增加了新的关键帧的相机位姿状态后的与相机相关的状态向量,对应的与相机相关的误差状态向量表示为:
扩增后的协方差矩阵表示为:
(4)根据特征点的重投影误差构建视觉/惯性里程计组合导航系统的观测模型;
分别为第帧图像的第j个特征点在第帧图像对应的相机坐标系中的X,Y,Z坐标;表示第j个特征点在世界参考坐标系中的坐标;表示第个相机位置在世界参考坐标系中的坐标,其中第个相机位置与第帧图像对应;表示世界参考坐标系到第个相机坐标系的旋转矩阵;
2.根据权利要求1所述的视觉/惯性里程计组合导航方法,其特征在于:IMU接收的运动信息包括三轴陀螺仪的角增量或角速度信息以及三轴加速度计的比力或比力积分增量信息。
3.根据权利要求1所述的视觉/惯性里程计组合导航方法,其特征在于:对相机同步采集到的图像信息提取FAST角点作为特征点,采用KLT光流跟踪法对提取的特征点进行跟踪。
4.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于:所述处理器执行所述计算机程序时实现权利要求1至3中任一项所述视觉/惯性里程计组合导航方法的步骤。
5.一种存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现权利要求1至3中任一项所述视觉/惯性里程计组合导航方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010963803.2A CN111811506B (zh) | 2020-09-15 | 2020-09-15 | 视觉/惯性里程计组合导航方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010963803.2A CN111811506B (zh) | 2020-09-15 | 2020-09-15 | 视觉/惯性里程计组合导航方法、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111811506A CN111811506A (zh) | 2020-10-23 |
CN111811506B true CN111811506B (zh) | 2020-12-01 |
Family
ID=72859232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010963803.2A Active CN111811506B (zh) | 2020-09-15 | 2020-09-15 | 视觉/惯性里程计组合导航方法、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111811506B (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112461237B (zh) * | 2020-11-26 | 2023-03-14 | 浙江同善人工智能技术有限公司 | 一种应用于动态变化场景下的多传感器融合定位方法 |
CN112556719B (zh) * | 2020-11-27 | 2022-01-21 | 广东电网有限责任公司肇庆供电局 | 一种基于cnn-ekf的视觉惯性里程计实现方法 |
CN112683305B (zh) * | 2020-12-02 | 2022-03-04 | 中国人民解放军国防科技大学 | 一种基于点线特征的视觉-惯性里程计状态估计方法 |
CN112697142B (zh) * | 2020-12-21 | 2023-03-10 | 南京航空航天大学 | 一种基于预积分理论的惯性/轮速里程计融合定位与参数优化方法 |
CN112729283A (zh) * | 2020-12-21 | 2021-04-30 | 西北工业大学 | 一种基于深度相机/mems惯导/里程计组合的导航方法 |
CN112985388B (zh) * | 2021-02-08 | 2022-08-19 | 福州大学 | 基于大位移光流法的组合导航方法及系统 |
CN114964216A (zh) * | 2021-02-23 | 2022-08-30 | 广州汽车集团股份有限公司 | 一种车辆定位方法及系统 |
CN113218394A (zh) * | 2021-04-20 | 2021-08-06 | 浙江大学 | 扑翼飞行器室内视觉定位方法及系统 |
CN113358134A (zh) * | 2021-04-20 | 2021-09-07 | 重庆知至科技有限公司 | 一种视觉惯性里程计系统 |
CN113514058A (zh) * | 2021-04-23 | 2021-10-19 | 北京华捷艾米科技有限公司 | 融合msckf和图优化的视觉slam定位方法及装置 |
CN113503872B (zh) * | 2021-06-03 | 2024-04-12 | 浙江工业大学 | 一种基于相机与消费级imu融合的低速无人车定位方法 |
CN113390408A (zh) * | 2021-06-30 | 2021-09-14 | 深圳市优必选科技股份有限公司 | 一种机器人定位方法、装置、机器人及存储介质 |
CN113587916B (zh) * | 2021-07-27 | 2023-10-03 | 北京信息科技大学 | 实时稀疏视觉里程计、导航方法以及系统 |
CN113701749A (zh) * | 2021-07-29 | 2021-11-26 | 江苏师范大学 | 一种基于立体视觉惯性里程计的车辆定位导航方法及系统 |
CN114018284B (zh) * | 2021-10-13 | 2024-01-23 | 上海师范大学 | 一种基于视觉的轮速里程计校正方法 |
CN114018254B (zh) * | 2021-10-27 | 2024-03-12 | 南京师范大学 | 一种激光雷达与旋转惯导一体化构架与信息融合的slam方法 |
CN114001733B (zh) * | 2021-10-28 | 2024-03-15 | 浙江大学 | 一种基于地图的一致性高效视觉惯性定位算法 |
CN114184209B (zh) * | 2021-10-29 | 2023-10-13 | 北京自动化控制设备研究所 | 用于低速检测平台系统的惯性误差抑制方法 |
CN114046800B (zh) * | 2021-11-09 | 2023-09-29 | 浙江大学 | 一种基于双层滤波框架的高精度里程估计方法 |
CN114199084A (zh) * | 2021-12-31 | 2022-03-18 | 陕西北斗东芯科技有限公司 | 一种图像制导控制系统及微型制导子弹 |
CN114184200B (zh) * | 2022-02-14 | 2022-06-17 | 南京航空航天大学 | 一种结合动态建图的多源融合导航方法 |
CN115127554B (zh) * | 2022-08-31 | 2022-11-15 | 中国人民解放军国防科技大学 | 一种基于多源视觉辅助的无人机自主导航方法与系统 |
CN115523929B (zh) * | 2022-09-20 | 2023-05-12 | 北京四维远见信息技术有限公司 | 一种基于slam的车载组合导航方法、装置、设备及介质 |
CN116088020A (zh) * | 2022-12-23 | 2023-05-09 | 中国铁路设计集团有限公司 | 一种基于低成本传感器集成的融合轨道三维重建方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014089113A (ja) * | 2012-10-30 | 2014-05-15 | Yamaha Corp | 姿勢推定装置及びプログラム |
CN103414451B (zh) * | 2013-07-22 | 2015-11-25 | 北京理工大学 | 一种应用于飞行器姿态估计的扩展卡尔曼滤波方法 |
CN107796391A (zh) * | 2017-10-27 | 2018-03-13 | 哈尔滨工程大学 | 一种捷联惯性导航系统/视觉里程计组合导航方法 |
US20190301871A1 (en) * | 2018-03-27 | 2019-10-03 | Artisense Corporation | Direct Sparse Visual-Inertial Odometry Using Dynamic Marginalization |
CN109084762A (zh) * | 2018-08-12 | 2018-12-25 | 西北工业大学 | 基于惯导辅助单星定位的卡尔曼滤波动目标定位方法 |
-
2020
- 2020-09-15 CN CN202010963803.2A patent/CN111811506B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111811506A (zh) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111811506B (zh) | 视觉/惯性里程计组合导航方法、电子设备及存储介质 | |
US9243916B2 (en) | Observability-constrained vision-aided inertial navigation | |
US9071829B2 (en) | Method and system for fusing data arising from image sensors and from motion or position sensors | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
CN109764880B (zh) | 紧耦合车辆轮子编码器数据的视觉惯性测程方法及系统 | |
CN112304307A (zh) | 一种基于多传感器融合的定位方法、装置和存储介质 | |
US20220051031A1 (en) | Moving object tracking method and apparatus | |
CN110956665B (zh) | 车辆拐弯轨迹双向计算方法、系统、装置 | |
CN110726406A (zh) | 一种改进的非线性优化单目惯导slam的方法 | |
CN114001733B (zh) | 一种基于地图的一致性高效视觉惯性定位算法 | |
CN111380514A (zh) | 机器人位姿估计方法、装置、终端及计算机存储介质 | |
CN112577493B (zh) | 一种基于遥感地图辅助的无人机自主定位方法及系统 | |
CN114693754B (zh) | 一种基于单目视觉惯导融合的无人机自主定位方法与系统 | |
CN109141411B (zh) | 定位方法、定位装置、移动机器人及存储介质 | |
CN111609868A (zh) | 一种基于改进光流法的视觉惯性里程计方法 | |
Xian et al. | Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach | |
CN110749308A (zh) | 使用消费级gps和2.5d建筑物模型的面向slam的室外定位方法 | |
Hong et al. | Visual inertial odometry using coupled nonlinear optimization | |
CN109785428A (zh) | 一种基于多态约束卡尔曼滤波的手持式三维重建方法 | |
CN114993338B (zh) | 基于多段独立地图序列的一致性高效视觉惯性里程计算法 | |
CN115235454A (zh) | 行人运动约束的视觉惯性融合定位与建图方法和装置 | |
CN113034538B (zh) | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 | |
CN114111769A (zh) | 一种视觉惯性定位方法、装置及自动驾驶装置 | |
CN110864685A (zh) | 一种基于松耦合的车辆单目视觉轮式里程计定位方法 | |
CN113503872B (zh) | 一种基于相机与消费级imu融合的低速无人车定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |