WO2020087846A1 - 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 - Google Patents

基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 Download PDF

Info

Publication number
WO2020087846A1
WO2020087846A1 PCT/CN2019/079138 CN2019079138W WO2020087846A1 WO 2020087846 A1 WO2020087846 A1 WO 2020087846A1 CN 2019079138 W CN2019079138 W CN 2019079138W WO 2020087846 A1 WO2020087846 A1 WO 2020087846A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
imu
observation
time
deviation
Prior art date
Application number
PCT/CN2019/079138
Other languages
English (en)
French (fr)
Inventor
徐晓苏
袁杰
杨阳
梁紫依
翁铖铖
刘兴华
Original Assignee
东南大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 东南大学 filed Critical 东南大学
Publication of WO2020087846A1 publication Critical patent/WO2020087846A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Definitions

  • the invention relates to the technical field of navigation, and in particular to a navigation method based on iterative extended Kalman filter fusion of inertia and monocular vision.
  • the combined navigation method combines various navigation sensors together, and uses the information measured by the various sensors to compensate for their respective limitations to achieve high-precision navigation and enhance the robustness of the system.
  • Inertial navigation is a comprehensive technology, which is the product of the development of modern science to a certain stage. Inertial navigation mainly uses the IMU as a sensor for data collection.
  • the IMU will contain a three-axis gyroscope and an accelerometer.
  • the gyroscope is used to measure the angular rate
  • the accelerometer is used to measure the acceleration in the three-axis direction.
  • the dead reckoning method can be used to estimate the IMU position, velocity and attitude in real time.
  • the pure inertial navigation method only has good accuracy near the initial moment. This is because the data collected by the IMU contains the drift of the gyro and the accelerometer, so that the accuracy of pure inertial navigation will diverge over time.
  • the monocular camera is widely used for its advantages of simple structure, simple calibration and low price.
  • the monocular camera cannot obtain the depth information of pixels directly from the image because it can only obtain one picture at the same time.
  • the monocular camera has the characteristic of scale uncertainty, which is also the main cause of errors in monocular measurement. By adding IMU data, the problem of initialization of the monocular camera can be solved.
  • Filter-based visual and inertial integrated navigation methods can be divided into tightly coupled and loosely coupled methods according to whether image state information is added to the state vector.
  • the tightly coupled method greatly increases the amount of calculation due to the addition of image feature information to the state vector, and its calculation complexity is linearly related to the image feature range, and its scalability is poor.
  • loose coupling is slightly worse than tight coupling, its computational complexity is far less than tight coupling.
  • loose coupling has the advantages of better scalability and constant computational complexity between frames.
  • an iterative extended Kalman filter method is used to achieve loose coupling between the monocular camera and the inertial sensor. This method has higher accuracy than the extended Kalman filter, and is more computationally complex than the infinite Kalman filter method. For simplicity.
  • the present invention provides a navigation method based on iterative extended Kalman filter fusion of inertia and monocular vision.
  • the present invention can maintain high accuracy during long-term real-time positioning and navigation, and has inter-frame calculation complexity
  • the present invention provides a navigation method based on iterative extended Kalman filter fusion of inertia and monocular vision. The method includes the following steps:
  • Step 1 Synchronize the information collected by the IMU and the monocular camera with a time stamp
  • Step 2 Calculate the posture change between two consecutive frames of the monocular camera
  • Step 3 Solve the IMU data between the images to obtain the position, velocity and attitude changes of the inertial measurement
  • Step 4 Establish an equation of state, and use an iterative extended Kalman filter to fuse sensor information.
  • step 1 the information collected by the IMU and the monocular camera is time-stamp synchronized, and the specific method is as follows:
  • the message filter in ROS is used to match the time stamp of the information collected by the sensor. There is more IMU data between each two frames of images, and the latest IMU collected information is searched from the time stamp of the image for time stamping Synchronization.
  • step 2 the posture change between two consecutive frames of the monocular camera is calculated, the specific method is:
  • step 3 the IMU data between the images is solved to obtain the position, velocity, and attitude changes of the inertial measurement.
  • step 1 realizes the time stamp synchronization of the information collected by the IMU and the monocular camera, and uses dead reckoning to calculate the relative position, speed and attitude changes measured by the IMU between the corresponding frames.
  • the state equation is established in step 4, and the sensor information fusion is performed by using an iterative extended Kalman filter.
  • the specific method is:
  • the subscript m represents the measured value, and modeling the above bias as a dynamic stochastic process can obtain:
  • the state variables of the system are expressed as follows, where IMU respectively obtained from the world coordinate system, select East - N - day world coordinate system coordinate system, the coordinate position between the IMU, and the rotational speed variation quaternion, b ⁇ b a and above the IMU gyroscopes And the zero offset of the accelerometer, L is the scale factor of the camera, with Respectively represent the rotation quaternion and position transformation from the IMU coordinate system to the camera coordinate system, from which a 24-dimensional system state vector can be obtained;
  • ⁇ ( ⁇ ) is the multiplicative matrix of ⁇ quaternion differential equation, Represents the antisymmetric matrix of the vector ⁇ , Is the cosine matrix of the direction from the IMU coordinate system to the world coordinate system, assuming that the scale drift is very slow, so we can get From the above derivation results and the filter state estimation noise model can be obtained:
  • the system error state variable can be obtained, in which the quaternion error is not obtained by simple arithmetic calculation, but the quaternion error is used, as shown below:
  • n is the system noise, which is expressed as Discretize the above linearized continuous-time error state equation:
  • Noise covariance matrix The noise covariance matrix of the discrete system can be obtained:
  • the above establishes the system state deviation equation based on the inertial measurement unit and its related models, updates the system state deviation and its covariance matrix, and uses the information measured by the monocular visual sensor to establish the observation equation to correct the state quantity of the above system state deviation equation;
  • the position measurement deviation is as follows:
  • the rotation observation measured by the monocular camera can be expressed as:
  • the observation model of the system is:
  • the one-step prediction of the state variable can be obtained from the one-step prediction of the above state deviation variable.
  • the system observation equation is Taylor expanded at the one-step prediction and the first-order approximation is H k + 1
  • the state variance covariance matrix is updated as follows:
  • the filter gain after one iteration is:
  • the state variance covariance matrix after one iteration is updated as follows:
  • the present invention uses an iterative extended Kalman filter to perform data fusion between the monocular camera and the inertial sensor. Compared with the standard extended Kalman filter, the scheme has improved accuracy. Although the calculation complexity has increased, it is still better than The calculation complexity of the unscented Kalman filter is simple. The absence of image feature point information in the establishment of the system state equation greatly reduces the calculation, and realizes the function of unchanged calculation complexity between image frames.
  • FIG. 1 is a flow chart of a navigation method based on iterative extended Kalman filter fusion inertia and monocular vision of the present invention
  • FIG. 2 is a schematic diagram of the synchronization of the time stamp of the data collected by the monocular camera and the IMU of the present invention
  • 3 is a schematic diagram of the pose estimation of the monocular camera of the present invention.
  • FIG. 4 is a flow chart of the inertial navigation IMU of the present invention for calculating position, speed and attitude changes.
  • the present invention provides a navigation method based on iterative extended Kalman filter fusion of inertia and monocular vision.
  • the present invention can maintain high accuracy during long-term real-time positioning and navigation, and has the advantage of unchanged calculation complexity between frames .
  • a navigation method based on iterative extended Kalman filter fusing inertial and monocular vision includes the following steps:
  • Step 1 Synchronize the information collected by the IMU and the monocular camera with a time stamp.
  • the specific methods are as follows:
  • the sampling frequency of the ordinary monocular camera is about 30HZ, while the higher sampling frequency of the IMU can reach hundreds or even kilohertz.
  • the message filter in ROS is used to match the time stamp of the information collected by the sensor. As shown in Figure 2, there is more IMU data between every two frames of images, and the nearest IMU acquisition information is searched from the image time stamp to synchronize the time stamp.
  • Step 2 Calculate the posture change between two consecutive frames of the monocular camera, the specific method is:
  • Step 3 Solve the IMU data between the images to obtain the position, velocity and attitude changes of the inertial measurement.
  • the specific methods are:
  • step 1 realizes the time stamp synchronization of the information collected by the IMU and the monocular camera, and uses dead reckoning to calculate the relative position, speed and attitude changes measured by the IMU between the corresponding frames.
  • Step 4 Establish an equation of state, and use an iterative extended Kalman filter to fuse sensor information.
  • the specific method is:
  • the subscript m represents the measured value, and modeling the above bias as a dynamic stochastic process can obtain:
  • the state variables of the system are expressed as follows, where Represents the position, velocity and rotation quaternion changes from the world coordinate system (selecting the east-north-day coordinate system as the world coordinate system) obtained by the IMU to the IMU coordinate system, b ⁇ and b a are the gyros in the IMU And the zero offset of the accelerometer, L is the scale factor of the camera, with Respectively represent the rotation quaternion and position transformation from the IMU coordinate system to the camera coordinate system, from which a 24-dimensional system state vector can be obtained.
  • ⁇ ( ⁇ ) is the multiplicative matrix of ⁇ quaternion differential equation, Represents the antisymmetric matrix of the vector ⁇ , Is the cosine matrix of the direction from the IMU coordinate system to the world coordinate system, we assume that the scale drift is very slow, so we can get From the above derivation results and the filter state estimation noise model can be obtained
  • the system error state variable can be obtained, in which the quaternion error is not obtained by simple arithmetic calculation, but the quaternion error is used, as shown below:
  • n is the system noise, which is expressed as Discretize the above linearized continuous-time error state equation:
  • Noise covariance matrix The noise covariance matrix of the discrete system can be obtained:
  • the system state deviation equation is established based on the inertial measurement unit and its related models, and the system state deviation and its covariance matrix are updated.
  • the information measured by the monocular visual sensor is used to establish an observation equation, which is used to correct the state quantity of the above system state deviation equation.
  • the position measurement deviation is as follows:
  • the rotation observation measured by the monocular camera can be expressed as:
  • the observation model of the system is:
  • the one-step prediction of the state variable can be obtained from the one-step prediction of the above state deviation variable.
  • the system observation equation is Taylor expanded at the one-step prediction and the first-order approximation is H k + 1
  • the state variance covariance matrix is updated as follows:
  • the filter gain after one iteration is:
  • the state variance covariance matrix after one iteration is updated as follows:

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

一种基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,该方法具体如下:在载体上安装单目相机与惯性测量单元,运用ROS中消息过滤器实现单目相机和惯性测量单元的时间戳同步,计算前后两帧图像之间的位姿变化,并计算其相应时间内的惯性测量单元解算得到的位置,速度,旋转等变化信息,将惯性测量单元得到的位置、速度与旋转等作为系统的状态变量,视觉传感器得到的位姿变化信息作为观测量建立系统方程。并通过一次迭代扩展卡尔曼滤波的方法对两种传感器获得的信息进行融合,实现载体的实时状态估计与导航。该方法可以在长时间实时定位与导航过程中保持较高的精度,且具有帧间计算复杂度不变的优点。

Description

基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 技术领域
本发明涉及导航技术领域,特别是涉及基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法。
背景技术
近年来,导航相关的仪器设备有着较为突破的发展,设备的性能和精度有着大幅度的提升,但单一传感器实现的的导航方法仍具有某些性能上的局限性。为了满足高性能的导航需求,组合导航方法近些年来得到了广泛的重视和发展。组合导航方法将多种导航传感器组合在一起,利用多种传感器测得信息对其各自局限性进行相互补偿以实现高精度导航并且增强系统的鲁棒性。
惯性导航是一门综合类技术,是现代科学发展到一定阶段的产物。惯性导航中主要利用了IMU作为传感器进行数据采集,一般IMU中会包含一个三轴的陀螺仪和加速度计,陀螺仪用于测量角速率,加速度计用于测量三轴方向上的加速度。在已知IMU初始位置、速度和姿态的前提下,利用航位推算的方法可以实现实时估算IMU位置、速度和姿态。纯惯性的导航方法只在初始时刻附近有较好的精度,这是因为IMU采集到的数据包含陀螺和加速度计的漂移使得纯惯性导航的精度会随时间发散。
单目相机以其结构简单、标定简单与价格低廉的优点而得到广泛的应用,但是单目相机由于只能在同一时刻获得一张图片而无法从图像中直接获得像素的深度信息。除此之外,单目相机还有着尺度不确定性的特点,该特点也是导致单目测量产生误差的主要原因。通过加入IMU数据可以解决单目相机初始化尺度的问题。
基于滤波的视觉和惯性的组合导航方法按照是否把图像状态信息加入到状态向量可以分为紧耦合和松耦合两种方式。紧耦合方式由于将图像特征信息加入到状态向量中使得计算量大大增加,其计算复杂度与图像特征数量程线性关系,且可扩展性差。松耦合虽然精度上略差于紧耦合,但其计算复杂度却远小于紧耦合。其次,松耦合具有较好的可扩展性和帧间计算复杂度不变的优点。本文采用了一次迭代扩展卡尔曼滤波的方法实现单目相机与惯性传感器的松耦合,该方法相较于扩展卡尔曼滤波有着更高的精度,且在计算复杂度上比无极卡尔曼滤波方法更为简单。
发明内容
为了解决以上问题,本发明提供一种基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,本发明可以在长时间实时定位与导航过程中保持较高的精度,且具有帧间计算复杂度不变的优点,为达此目的,本发明提供基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导 航方法,该方法包括如下步骤:
步骤1:对IMU以及单目相机采集到的信息进行时间戳同步;
步骤2:计算单目相机连续两帧图像间的位姿变化;
步骤3:解算图像间IMU数据得到惯性测量的位置、速度与姿态变化;
步骤4:建立状态方程,利用一次迭代扩展卡尔曼滤波进行传感器信息融合。
作为本发明进一步改进,所述步骤1中对IMU以及单目相机采集到的信息进行时间戳同步,具体方法如下:
在机器人操作系统ROS平台上,利用ROS中消息过滤器进行传感器采集信息时间戳的匹配,每两帧图像之间有较多IMU数据,从图像的时间戳上搜索最近的IMU采集信息进行时间戳的同步。
作为本发明进一步改进,所述步骤2中计算单目相机连续两帧图像间的位姿变化,具体方法为:
1)在已知单目相机内参的前提下,提取初始时刻两帧图像作为初始帧进行初始化,提取图像的ORB特征点,利用对极约束得到对极几何关系,并计算其本质矩阵;
2)根据上述估计的本质矩阵,由奇异值分解恢复出相机的旋转和平移;
3)通过三角化的方法得到特征点的深度信息,并在之后的相机图像中利用PnP的方法解算相机的位姿。
作为本发明进一步改进,所述步骤3中解算图像间IMU数据得到惯性测量的位置、速度与姿态变化,具体方法为:
1)在已知载体初始位置、速度与姿态的前提下,利用IMU采集到的数据进行航位推算可得到载体实时位置、速度与姿态变化;
2)上述步骤1实现了IMU以及单目相机采集到的信息的时间戳同步,利用航位推算计算对应帧间IMU所测得的相对位置、速度与姿态变化。
作为本发明进一步改进,所述步骤4中建立状态方程,利用一次迭代扩展卡尔曼滤波进行传感器信息融合,具体方法为:
1)建立惯性传感器模型:
假设IMU中含有零偏误差b和高斯噪声n,所以在IMU框架下得到的真实的角速度和加速度为:
ω=ω m-b ω-n ω
a=a m-b a-n a
其中下标m表示为测量值,将以上零偏建模为动态随机过程可以得到:
Figure PCTCN2019079138-appb-000001
2)选择状态变量
系统的状态变量表示如下,其中
Figure PCTCN2019079138-appb-000002
分别表示IMU得到的从世界坐标系,选取东-北-天坐标系为世界坐标系,到IMU坐标系之间的位置、速度和旋转四元数变化,b ω和b a为上述IMU中陀螺和加速度计的零偏,L表示为相机的尺度因子,
Figure PCTCN2019079138-appb-000003
Figure PCTCN2019079138-appb-000004
分别表示从IMU坐标系到相机坐标系的旋转四元数和位置变换,由此可以得到24维的系统状态向量;
Figure PCTCN2019079138-appb-000005
由此状态变量可以得到以下微分方程:
Figure PCTCN2019079138-appb-000006
Figure PCTCN2019079138-appb-000007
Figure PCTCN2019079138-appb-000008
Figure PCTCN2019079138-appb-000009
其中g表示世界坐标系下的重力矢量,ω=[ω x ω y ω z] T表示角速度变化
Figure PCTCN2019079138-appb-000010
Ω(ω)为ω四元数微分方程的乘法阵,
Figure PCTCN2019079138-appb-000011
表示向量ω的反对称矩阵,
Figure PCTCN2019079138-appb-000012
为IMU坐标系到世界坐标系的方向余弦矩阵,假设尺度漂移非常缓慢,所以可以得到
Figure PCTCN2019079138-appb-000013
由以上求导结果和滤波器的状态估计噪声模型可以得到:
Figure PCTCN2019079138-appb-000014
Figure PCTCN2019079138-appb-000015
Figure PCTCN2019079138-appb-000016
Figure PCTCN2019079138-appb-000017
3)建立状态偏差方程
通过上述状态向量及其微分方程,可以得到系统误差状态变量,其中四元数的误差不是通过简单的算术计算得到,而是使用四元数误差,如下所示:
Figure PCTCN2019079138-appb-000018
Figure PCTCN2019079138-appb-000019
所以利用
Figure PCTCN2019079138-appb-000020
可以得到22维的系统状态偏差变量:
Figure PCTCN2019079138-appb-000021
根据连续时间系统状态偏差变量建立其微分方程如下:
Figure PCTCN2019079138-appb-000022
Figure PCTCN2019079138-appb-000023
Figure PCTCN2019079138-appb-000024
Figure PCTCN2019079138-appb-000025
其中
Figure PCTCN2019079138-appb-000026
使用以上方程可以得到如下线性化连续时间状态偏差方程:
Figure PCTCN2019079138-appb-000027
其中n为系统噪声,其表示为
Figure PCTCN2019079138-appb-000028
对上述线性化连续时间误差状态方程进行离散化:
Figure PCTCN2019079138-appb-000029
取其前两项截断后可以得到:
Figure PCTCN2019079138-appb-000030
其中:
Figure PCTCN2019079138-appb-000031
Figure PCTCN2019079138-appb-000032
Figure PCTCN2019079138-appb-000033
F 4=-F 1
Figure PCTCN2019079138-appb-000034
Figure PCTCN2019079138-appb-000035
通过连续系统噪声协方差矩阵
Figure PCTCN2019079138-appb-000036
可以得到该离散系统的噪声协方差矩阵:
Figure PCTCN2019079138-appb-000037
可以得到系统状态偏差的一步预测和一步预测的协方差矩阵:
Figure PCTCN2019079138-appb-000038
Figure PCTCN2019079138-appb-000039
4)建立系统观测模型
上述根据惯性测量单元以及其相关模型建立了系统状态偏差方程,更新系统状态偏差与其协方差矩阵,利用单目视觉传感器测得的信息建立观测方程,用于矫正上述系统状态偏差方程的状态量;
假设可以得到相机变换中旋转轴和旋转幅值的偏差,使用n p表示位置观测噪声,使用n q表示旋转观测噪声,可以得到系统的观测噪声为n m=[n p n q] T,并以此得到系统的观测噪声协方差矩阵为R;
通过对单目相机采集到的图片进行处理可以得到视觉解算的系统位置观测量:
Figure PCTCN2019079138-appb-000040
位置观测量偏差如下:
Figure PCTCN2019079138-appb-000041
根据误差四元数的定义:
Figure PCTCN2019079138-appb-000042
Figure PCTCN2019079138-appb-000043
Figure PCTCN2019079138-appb-000044
通过单目相机测得的旋转观测量可表示为:
Figure PCTCN2019079138-appb-000045
利用上述误差四元数的定义可以得到系统旋转观测量偏差如下:
Figure PCTCN2019079138-appb-000046
系统的观测量模型为:
Z=[Z p Z q] T=h(X k,k)
将上述位置观测量偏差和旋转观测量偏差结合得到系统观测量偏差模型:
Figure PCTCN2019079138-appb-000047
5)迭代扩展卡尔曼滤波更新状态
由上述状态偏差变量的一步预测可以得到该状态变量的一步预测,将系统观测方程在一步预测处进行泰勒展开并取一阶近似得H k+1|k,所以可以得到:
Figure PCTCN2019079138-appb-000048
有了上述推导,一次迭代扩展卡尔曼滤波描述如下:
计算滤波增益,下标0表示未进行迭代之前的值:
Figure PCTCN2019079138-appb-000049
计算k+1时刻状态偏差向量的次优解,此处与标准离散扩展卡尔曼滤波是相同的:
Figure PCTCN2019079138-appb-000050
可以得到系统在k+1时刻状态变量的次优解为:
Figure PCTCN2019079138-appb-000051
状态方差协方差矩阵更新如下:
Figure PCTCN2019079138-appb-000052
利用以上得到的次优解进行一次迭代,首先将系统的观测方程在次优解X k+1|k+1,0处进行泰勒展开并取一阶近似得:
Figure PCTCN2019079138-appb-000053
一次迭代后的滤波增益为:
Figure PCTCN2019079138-appb-000054
一次迭代后得到的k+1时刻状态偏差向量的最优解为:
Figure PCTCN2019079138-appb-000055
一次迭代后的状态方差协方差矩阵更新如下:
Figure PCTCN2019079138-appb-000056
所以k+1时刻状态向量的最优解为:
Figure PCTCN2019079138-appb-000057
本发明使用一次迭代扩展卡尔曼滤波对单目相机与惯性传感器进行数据融合,该方案相较于标准扩展卡尔曼滤波在精度上有了提升,虽然在计算复杂度上有所增加,但仍比无迹卡尔曼滤波计算复杂度简单。在系统状态方程的建立中未加入图像特征点信息大大减少了计算, 并且实现了图像帧间计算复杂度不变的功能。
附图说明
图1是本发明一种基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法流程图;
图2是本发明单目相机与IMU采集数据时间戳同步示意图;
图3是本发明单目相机位姿估计的示意图;
图4是本发明惯性导航IMU解算位置、速度和姿态变化流程图。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供一种基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,本发明可以在长时间实时定位与导航过程中保持较高的精度,且具有帧间计算复杂度不变的优点。
如图1-4所示,一种基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,该方法包含如下步骤:
步骤1:对IMU以及单目相机采集到的信息进行时间戳同步,具体方法如下:
普通单目相机的采样频率为30HZ左右,而IMU采样频率较高可以达到几百甚至上千赫兹。在机器人操作系统ROS平台上,利用ROS中消息过滤器进行传感器采集信息时间戳的匹配。如图2所示,每两帧图像之间有较多IMU数据,从图像的时间戳上搜索最近的IMU采集信息进行时间戳的同步。
步骤2:计算单目相机连续两帧图像间的位姿变化,具体方法为:
1)在已知单目相机内参的前提下,提取初始时刻两帧图像作为初始帧进行初始化,提取图像的ORB特征点,利用对极约束得到对极几何关系,并计算其本质矩阵;
2)根据上述估计的本质矩阵,由奇异值分解恢复出相机的旋转和平移;
3)通过三角化的方法得到特征点的深度信息,并在之后的相机图像中利用PnP的方法解算相机的位姿。
步骤3:解算图像间IMU数据得到惯性测量的位置、速度与姿态变化,具体方法为:
1)在已知载体初始位置、速度与姿态的前提下,利用IMU采集到的数据进行航位推算可得到载体实时位置、速度与姿态变化;
2)上述步骤1实现了IMU以及单目相机采集到的信息的时间戳同步,利用航位推算计算对应帧间IMU所测得的相对位置、速度与姿态变化。
步骤4:建立状态方程,利用一次迭代扩展卡尔曼滤波进行传感器信息融合,具体方法为:
1)建立惯性传感器模型:
假设IMU中含有零偏误差b和高斯噪声n,所以在IMU框架下得到的真实的角速度和加速度为:
ω=ω m-b ω-n ω
a=a m-b a-n a
其中下标m表示为测量值,将以上零偏建模为动态随机过程可以得到:
Figure PCTCN2019079138-appb-000058
2)选择状态变量
系统的状态变量表示如下,其中
Figure PCTCN2019079138-appb-000059
分别表示IMU得到的从世界坐标系(选取东-北-天坐标系为世界坐标系)到IMU坐标系之间的位置、速度和旋转四元数变化,b ω和b a为上述IMU中陀螺和加速度计的零偏,L表示为相机的尺度因子,
Figure PCTCN2019079138-appb-000060
Figure PCTCN2019079138-appb-000061
分别表示从IMU坐标系到相机坐标系的旋转四元数和位置变换,由此可以得到24维的系统状态向量。
Figure PCTCN2019079138-appb-000062
由此状态变量可以得到以下微分方程:
Figure PCTCN2019079138-appb-000063
Figure PCTCN2019079138-appb-000064
Figure PCTCN2019079138-appb-000065
Figure PCTCN2019079138-appb-000066
其中g表示世界坐标系下的重力矢量,ω=[ω x ω y ω z] T表示角速度变化,
Figure PCTCN2019079138-appb-000067
Ω(ω)为ω四元数微分方程的乘法阵,
Figure PCTCN2019079138-appb-000068
表示向量ω的反对称矩阵,
Figure PCTCN2019079138-appb-000069
为IMU坐标系到世界坐标系的方向余弦矩阵,我们假设尺度漂移非常缓慢,所以可以得到
Figure PCTCN2019079138-appb-000070
由以上求导结果和滤波器的状态估计噪声模型可以得到:
Figure PCTCN2019079138-appb-000071
Figure PCTCN2019079138-appb-000072
Figure PCTCN2019079138-appb-000073
Figure PCTCN2019079138-appb-000074
3)建立状态偏差方程
通过上述状态向量及其微分方程,可以得到系统误差状态变量,其中四元数的误差不是通过简单的算术计算得到,而是使用四元数误差,如下所示:
Figure PCTCN2019079138-appb-000075
Figure PCTCN2019079138-appb-000076
所以利用
Figure PCTCN2019079138-appb-000077
可以得到22维的系统状态偏差变量:
Figure PCTCN2019079138-appb-000078
根据连续时间系统状态偏差变量建立其微分方程如下:
Figure PCTCN2019079138-appb-000079
Figure PCTCN2019079138-appb-000080
Figure PCTCN2019079138-appb-000081
Figure PCTCN2019079138-appb-000082
其中
Figure PCTCN2019079138-appb-000083
使用以上方程可以得到如下线性化连续时间状态偏差方程:
Figure PCTCN2019079138-appb-000084
其中n为系统噪声,其表示为
Figure PCTCN2019079138-appb-000085
对上述线性化连续时间误差状态方程进行离散化:
Figure PCTCN2019079138-appb-000086
取其前两项截断后可以得到:
Figure PCTCN2019079138-appb-000087
其中:
Figure PCTCN2019079138-appb-000088
Figure PCTCN2019079138-appb-000089
Figure PCTCN2019079138-appb-000090
F 4=-F 1
Figure PCTCN2019079138-appb-000091
Figure PCTCN2019079138-appb-000092
通过连续系统噪声协方差矩阵
Figure PCTCN2019079138-appb-000093
可以得到该离散系统的噪声协方差矩阵:
Figure PCTCN2019079138-appb-000094
可以得到系统状态偏差的一步预测和一步预测的协方差矩阵:
Figure PCTCN2019079138-appb-000095
Figure PCTCN2019079138-appb-000096
4)建立系统观测模型
上述根据惯性测量单元以及其相关模型建立了系统状态偏差方程,更新系统状态偏差与其协方差矩阵。利用单目视觉传感器测得的信息建立观测方程,用于矫正上述系统状态偏差方程的状态量。
假设可以得到相机变换中旋转轴和旋转幅值的偏差,使用n p表示位置观测噪声,使用n q表示旋转观测噪声,可以得到系统的观测噪声为n m=[n p n q] T,并以此得到系统的观测噪声协方差矩阵为R。
通过对单目相机采集到的图片进行处理可以得到视觉解算的系统位置观测量:
Figure PCTCN2019079138-appb-000097
位置观测量偏差如下:
Figure PCTCN2019079138-appb-000098
根据误差四元数的定义:
Figure PCTCN2019079138-appb-000099
Figure PCTCN2019079138-appb-000100
Figure PCTCN2019079138-appb-000101
通过单目相机测得的旋转观测量可表示为:
Figure PCTCN2019079138-appb-000102
利用上述误差四元数的定义可以得到系统旋转观测量偏差如下:
Figure PCTCN2019079138-appb-000103
系统的观测量模型为:
Z=[Z p Z q] T=h(X k,k)
将上述位置观测量偏差和旋转观测量偏差结合得到系统观测量偏差模型:
Figure PCTCN2019079138-appb-000104
5)迭代扩展卡尔曼滤波更新状态
由上述状态偏差变量的一步预测可以得到该状态变量的一步预测,将系统观测方程在一步预测处进行泰勒展开并取一阶近似得H k+1|k,所以可以得到:
Figure PCTCN2019079138-appb-000105
有了上述推导,一次迭代扩展卡尔曼滤波描述如下:
计算滤波增益,下标0表示未进行迭代之前的值:
Figure PCTCN2019079138-appb-000106
计算k+1时刻状态偏差向量的次优解,此处与标准离散扩展卡尔曼滤波是相同的:
Figure PCTCN2019079138-appb-000107
可以得到系统在k+1时刻状态变量的次优解为:
Figure PCTCN2019079138-appb-000108
状态方差协方差矩阵更新如下:
Figure PCTCN2019079138-appb-000109
利用以上得到的次优解进行一次迭代,首先将系统的观测方程在次优解X k+1|k+1,0处进行泰勒展开并取一阶近似得:
Figure PCTCN2019079138-appb-000110
一次迭代后的滤波增益为:
Figure PCTCN2019079138-appb-000111
一次迭代后得到的k+1时刻状态偏差向量的最优解为:
Figure PCTCN2019079138-appb-000112
一次迭代后的状态方差协方差矩阵更新如下:
Figure PCTCN2019079138-appb-000113
所以k+1时刻状态向量的最优解为:
Figure PCTCN2019079138-appb-000114
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。

Claims (5)

  1. 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:
    该方法包括如下步骤:
    步骤1:对IMU以及单目相机采集到的信息进行时间戳同步;
    步骤2:计算单目相机连续两帧图像间的位姿变化;
    步骤3:解算图像间IMU数据得到惯性测量的位置、速度与姿态变化;
    步骤4:建立状态方程,利用一次迭代扩展卡尔曼滤波进行传感器信息融合。
  2. 根据权利要求1所述的基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:所述步骤1中对IMU以及单目相机采集到的信息进行时间戳同步,具体方法如下:
    在机器人操作系统ROS平台上,利用ROS中消息过滤器进行传感器采集信息时间戳的匹配,每两帧图像之间有较多IMU数据,从图像的时间戳上搜索最近的IMU采集信息进行时间戳的同步。
  3. 根据权利要求1所述的基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:所述步骤2中计算单目相机连续两帧图像间的位姿变化,具体方法为:
    1)在已知单目相机内参的前提下,提取初始时刻两帧图像作为初始帧进行初始化,提取图像的ORB特征点,利用对极约束得到对极几何关系,并计算其本质矩阵;
    2)根据上述估计的本质矩阵,由奇异值分解恢复出相机的旋转和平移;
    3)通过三角化的方法得到特征点的深度信息,并在之后的相机图像中利用PnP的方法解算相机的位姿。
  4. 根据权利要求1所述的基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:所述步骤3中解算图像间IMU数据得到惯性测量的位置、速度与姿态变化,具体方法为:
    1)在已知载体初始位置、速度与姿态的前提下,利用IMU采集到的数据进行航位推算可得到载体实时位置、速度与姿态变化;
    2)上述步骤1实现了IMU以及单目相机采集到的信息的时间戳同步,利用航位推算计算对应帧间IMU所测得的相对位置、速度与姿态变化。
  5. 根据权利要求1所述的基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:所述步骤4中建立状态方程,利用一次迭代扩展卡尔曼滤波进行传感器信息融合,具体方法为:
    1)建立惯性传感器模型:
    假设IMU中含有零偏误差b和高斯噪声n,所以在IMU框架下得到的真实的角速度和加速度为:
    ω=ω m-b ω-n ω
    a=a m-b a-n a
    其中下标m表示为测量值,将以上零偏建模为动态随机过程可以得到:
    Figure PCTCN2019079138-appb-100001
    2)选择状态变量
    系统的状态变量表示如下,其中
    Figure PCTCN2019079138-appb-100002
    分别表示IMU得到的从世界坐标系到IMU坐标系之间的位置、速度和旋转四元数变化,选取东-北-天坐标系为世界坐标系,b ω和b a为上述IMU中陀螺和加速度计的零偏,L表示为相机的尺度因子,
    Figure PCTCN2019079138-appb-100003
    Figure PCTCN2019079138-appb-100004
    分别表示从IMU坐标系到相机坐标系的旋转四元数和位置变换,由此可以得到24维的系统状态向量;
    Figure PCTCN2019079138-appb-100005
    由此状态变量可以得到以下微分方程:
    Figure PCTCN2019079138-appb-100006
    Figure PCTCN2019079138-appb-100007
    Figure PCTCN2019079138-appb-100008
    Figure PCTCN2019079138-appb-100009
    其中g表示世界坐标系下的重力矢量,ω=[ω x ω y ω z] T表示角速度变化,
    Figure PCTCN2019079138-appb-100010
    Ω(ω)为ω四元数微分方程的乘法阵,
    Figure PCTCN2019079138-appb-100011
    表示向量ω的反对称矩阵,
    Figure PCTCN2019079138-appb-100012
    为IMU坐标系到世界坐标系的方向余弦矩阵,假设尺度漂移非常缓慢,所以可以得到
    Figure PCTCN2019079138-appb-100013
    由以上求导结果和滤波器的状态估计噪声模型可以得到:
    Figure PCTCN2019079138-appb-100014
    Figure PCTCN2019079138-appb-100015
    Figure PCTCN2019079138-appb-100016
    Figure PCTCN2019079138-appb-100017
    3)建立状态偏差方程
    通过上述状态向量及其微分方程,可以得到系统误差状态变量,其中四元数的误差不是通过简单的算术计算得到,而是使用四元数误差,如下所示:
    Figure PCTCN2019079138-appb-100018
    Figure PCTCN2019079138-appb-100019
    所以利用
    Figure PCTCN2019079138-appb-100020
    可以得到22维的系统状态偏差变量:
    Figure PCTCN2019079138-appb-100021
    根据连续时间系统状态偏差变量建立其微分方程如下:
    Figure PCTCN2019079138-appb-100022
    Figure PCTCN2019079138-appb-100023
    Figure PCTCN2019079138-appb-100024
    Figure PCTCN2019079138-appb-100025
    其中
    Figure PCTCN2019079138-appb-100026
    使用以上方程可以得到如下线性化连续时间状态偏差方程:
    Figure PCTCN2019079138-appb-100027
    其中n为系统噪声,其表示为
    Figure PCTCN2019079138-appb-100028
    对上述线性化连续时间误差状态方程进行离散化:
    Figure PCTCN2019079138-appb-100029
    取其前两项截断后可以得到:
    Figure PCTCN2019079138-appb-100030
    其中:
    Figure PCTCN2019079138-appb-100031
    Figure PCTCN2019079138-appb-100032
    Figure PCTCN2019079138-appb-100033
    F 4=-F 1
    Figure PCTCN2019079138-appb-100034
    Figure PCTCN2019079138-appb-100035
    通过连续系统噪声协方差矩阵
    Figure PCTCN2019079138-appb-100036
    可以得到该离散系统的噪声协方差矩阵:
    Figure PCTCN2019079138-appb-100037
    可以得到系统状态偏差的一步预测和一步预测的协方差矩阵:
    Figure PCTCN2019079138-appb-100038
    Figure PCTCN2019079138-appb-100039
    4)建立系统观测模型
    上述根据惯性测量单元以及其相关模型建立了系统状态偏差方程,更新系统状态偏差与其协方差矩阵,利用单目视觉传感器测得的信息建立观测方程,用于矫正上述系统状态偏差方程的状态量;
    假设可以得到相机变换中旋转轴和旋转幅值的偏差,使用n p表示位置观测噪声,使用n q表示旋转观测噪声,可以得到系统的观测噪声为n m=[n p n q] T,并以此得到系统的观测噪声协方差矩阵为R;
    通过对单目相机采集到的图片进行处理可以得到视觉解算的系统位置观测量:
    Figure PCTCN2019079138-appb-100040
    位置观测量偏差如下:
    Figure PCTCN2019079138-appb-100041
    根据误差四元数的定义:
    Figure PCTCN2019079138-appb-100042
    Figure PCTCN2019079138-appb-100043
    Figure PCTCN2019079138-appb-100044
    通过单目相机测得的旋转观测量可表示为:
    Figure PCTCN2019079138-appb-100045
    利用上述误差四元数的定义可以得到系统旋转观测量偏差如下:
    Figure PCTCN2019079138-appb-100046
    系统的观测量模型为:
    Z=[Z p Z q] T=h(X k,k)
    将上述位置观测量偏差和旋转观测量偏差结合得到系统观测量偏差模型:
    Figure PCTCN2019079138-appb-100047
    5)迭代扩展卡尔曼滤波更新状态
    由上述状态偏差变量的一步预测可以得到该状态变量的一步预测,将系统观测方程在一步预测处进行泰勒展开并取一阶近似得H k+1|k,所以可以得到:
    Figure PCTCN2019079138-appb-100048
    有了上述推导,一次迭代扩展卡尔曼滤波描述如下:
    计算滤波增益,下标0表示未进行迭代之前的值:
    Figure PCTCN2019079138-appb-100049
    计算k+1时刻状态偏差向量的次优解,此处与标准离散扩展卡尔曼滤波是相同的:
    Figure PCTCN2019079138-appb-100050
    可以得到系统在k+1时刻状态变量的次优解为:
    Figure PCTCN2019079138-appb-100051
    状态方差协方差矩阵更新如下:
    Figure PCTCN2019079138-appb-100052
    利用以上得到的次优解进行一次迭代,首先将系统的观测方程在次优解X k+1|k+1,0处进行泰勒展开并取一阶近似得:
    Figure PCTCN2019079138-appb-100053
    一次迭代后的滤波增益为:
    Figure PCTCN2019079138-appb-100054
    一次迭代后得到的k+1时刻状态偏差向量的最优解为:
    Figure PCTCN2019079138-appb-100055
    一次迭代后的状态方差协方差矩阵更新如下:
    Figure PCTCN2019079138-appb-100056
    所以k+1时刻状态向量的最优解为:
    Figure PCTCN2019079138-appb-100057
PCT/CN2019/079138 2018-10-31 2019-03-21 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 WO2020087846A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811282269.8A CN109376785B (zh) 2018-10-31 2018-10-31 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法
CN201811282269.8 2018-10-31

Publications (1)

Publication Number Publication Date
WO2020087846A1 true WO2020087846A1 (zh) 2020-05-07

Family

ID=65391020

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2019/079138 WO2020087846A1 (zh) 2018-10-31 2019-03-21 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法

Country Status (2)

Country Link
CN (1) CN109376785B (zh)
WO (1) WO2020087846A1 (zh)

Cited By (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111578937A (zh) * 2020-05-29 2020-08-25 天津工业大学 同时优化外参数的视觉惯性里程计系统
CN111739063A (zh) * 2020-06-23 2020-10-02 郑州大学 一种基于多传感器融合的电力巡检机器人定位方法
CN111833281A (zh) * 2020-06-08 2020-10-27 上海宇航系统工程研究所 面向可重复使用火箭回收的多视觉敏感器数据融合方法
CN111949123A (zh) * 2020-07-01 2020-11-17 青岛小鸟看看科技有限公司 多传感器手柄控制器混合追踪方法及装置
CN111984919A (zh) * 2020-06-16 2020-11-24 济南大学 水泥回转窑温度场与物料密度的计算方法及系统
CN111985300A (zh) * 2020-06-29 2020-11-24 魔门塔(苏州)科技有限公司 自动驾驶动态目标定位方法、装置、电子设备及存储介质
CN112114665A (zh) * 2020-08-23 2020-12-22 西北工业大学 一种基于多模态融合的手部追踪方法
CN112131928A (zh) * 2020-08-04 2020-12-25 浙江工业大学 一种rgb-d图像特征融合的人体姿态实时估计方法
CN112129287A (zh) * 2020-09-24 2020-12-25 北京华捷艾米科技有限公司 一种基于视觉惯性里程计处理的方法和相关装置
CN112269317A (zh) * 2020-11-04 2021-01-26 天津大学 一种基于扩展卡尔曼滤波器的双边遥操作控制方法
CN112284381A (zh) * 2020-10-19 2021-01-29 北京华捷艾米科技有限公司 视觉惯性实时初始化对准方法及系统
CN112346032A (zh) * 2020-11-10 2021-02-09 中国科学院数学与系统科学研究院 基于一致性扩展卡尔曼滤波的单红外传感器目标定轨方法
CN112378396A (zh) * 2020-10-29 2021-02-19 江苏集萃未来城市应用技术研究所有限公司 基于抗差lm视觉惯性里程计与uwb混合高精度室内定位方法
CN112472432A (zh) * 2020-11-25 2021-03-12 武汉理工大学 一种手杖-轮椅自动跟随系统及方法
CN112562077A (zh) * 2020-11-25 2021-03-26 西北工业大学 一种融合pdr和先验地图的行人室内定位方法
CN112683271A (zh) * 2020-12-17 2021-04-20 东南大学 一种考虑可观测性的水域观测平台的组合定位方法
CN112697142A (zh) * 2020-12-21 2021-04-23 南京航空航天大学 一种基于预积分理论的惯性/轮速里程计融合定位与参数优化方法
CN112712565A (zh) * 2020-12-28 2021-04-27 中国民航大学 基于视觉与imu融合的飞机蒙皮损伤无人机绕检定位方法
CN112734765A (zh) * 2020-12-03 2021-04-30 华南理工大学 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN112833892A (zh) * 2020-12-31 2021-05-25 杭州普锐视科技有限公司 一种基于轨迹对齐的语义建图方法
CN112833788A (zh) * 2021-01-07 2021-05-25 深圳许多米科技有限公司 一种枪体定位方法、装置、设备、仿真枪及可读存储介质
CN112880674A (zh) * 2021-01-21 2021-06-01 深圳市镭神智能系统有限公司 一种行驶设备的定位方法、装置、设备及存储介质
CN112883134A (zh) * 2021-02-01 2021-06-01 上海三一重机股份有限公司 数据融合建图方法、装置、电子设备及存储介质
CN113008229A (zh) * 2021-02-26 2021-06-22 南京理工大学 一种基于低成本车载传感器的分布式自主组合导航方法
CN113091748A (zh) * 2021-04-12 2021-07-09 北京航空航天大学 一种室内自校准导航定位方法
CN113124856A (zh) * 2021-05-21 2021-07-16 天津大学 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN113189578A (zh) * 2021-04-20 2021-07-30 浙江大学 一种扩展目标跟踪方法
CN113220017A (zh) * 2021-04-16 2021-08-06 同济大学 一种地下无人机飞行方法及系统
CN113240597A (zh) * 2021-05-08 2021-08-10 西北工业大学 基于视觉惯性信息融合的三维软件稳像方法
CN113298881A (zh) * 2021-05-27 2021-08-24 中国科学院沈阳自动化研究所 单目相机-imu-机械臂的空间联合标定方法
CN113313116A (zh) * 2021-06-20 2021-08-27 西北工业大学 一种基于视觉的水下人工目标准确检测与定位方法
CN113324544A (zh) * 2021-04-19 2021-08-31 北京化工大学 一种基于图优化的uwb/imu的室内移动机器人协同定位方法
CN113341718A (zh) * 2021-06-10 2021-09-03 浙江大学 欠驱动水面机器人的水动力系数混合自适应估计方法
CN113408623A (zh) * 2021-06-21 2021-09-17 北京理工大学 非合作目标柔性附着多节点融合估计方法
CN113406682A (zh) * 2021-06-22 2021-09-17 腾讯科技(深圳)有限公司 一种定位方法、装置、电子设备及存储介质
CN113432603A (zh) * 2021-06-25 2021-09-24 中国船舶重工集团公司第七0七研究所 一种复杂环境下母平台与子平台相对位姿测量方法
CN113516714A (zh) * 2021-07-15 2021-10-19 北京理工大学 基于imu预积分信息加速特征匹配的视觉slam方法
CN113534227A (zh) * 2021-07-26 2021-10-22 中国电子科技集团公司第五十四研究所 一种适用于复杂非合作场景的多传感器融合绝对定位方法
CN113551671A (zh) * 2021-06-10 2021-10-26 中国科学院西安光学精密机械研究所 一种无人机姿态与位置的实时高精度测量系统及方法
CN113551666A (zh) * 2021-07-06 2021-10-26 杭州鸿泉物联网技术股份有限公司 自动驾驶多传感器融合定位方法和装置、设备及介质
CN113608556A (zh) * 2021-07-19 2021-11-05 西北工业大学 一种基于多传感器融合的多机器人相对定位方法
CN113640791A (zh) * 2021-06-09 2021-11-12 西安电子科技大学 一种基于距离和瞬时速度的空间目标三维姿态重构方法
CN113674412A (zh) * 2021-08-12 2021-11-19 浙江工商大学 基于位姿融合优化的室内地图构建方法、系统及存储介质
CN113674327A (zh) * 2021-07-01 2021-11-19 北京航空航天大学 一种适用于无人机空中防撞的入侵机航迹融合跟踪方法
CN113701745A (zh) * 2020-05-21 2021-11-26 杭州海康威视数字技术股份有限公司 一种外参变化检测方法、装置、电子设备及检测系统
CN113709662A (zh) * 2021-08-05 2021-11-26 北京理工大学重庆创新中心 一种基于超宽带的自主式三维反演定位方法
CN113724337A (zh) * 2021-08-30 2021-11-30 合肥工业大学 一种无需依赖云台角度的相机动态外参标定方法及装置
CN113759982A (zh) * 2021-10-19 2021-12-07 中国人民解放军军事科学院国防科技创新研究院 一种仅基于视线测量信息的无人机编队相对状态估计方法
CN113865584A (zh) * 2021-08-24 2021-12-31 知微空间智能科技(苏州)有限公司 一种基于视觉惯性里程计的uwb三维寻物方法和装置
CN113938825A (zh) * 2021-10-15 2022-01-14 太原理工大学 一种基于蓝牙aoa的综采工作面采煤机定位方法及系统
CN113932820A (zh) * 2020-06-29 2022-01-14 杭州海康威视数字技术股份有限公司 对象检测的方法和装置
CN113989371A (zh) * 2021-10-28 2022-01-28 山东大学 一种基于视觉的模块化平台相对位姿估计系统
CN114018250A (zh) * 2021-10-18 2022-02-08 杭州鸿泉物联网技术股份有限公司 惯性导航方法、电子设备、存储介质和计算机程序产品
CN114040128A (zh) * 2021-11-24 2022-02-11 视辰信息科技(上海)有限公司 时间戳延时标定方法及系统、设备和计算机可读存储介质
CN114280925A (zh) * 2021-12-24 2022-04-05 合肥工业大学 基于单目视觉的可变杆长倒立摆目标捕捉控制方法及系统
CN114296069A (zh) * 2021-12-23 2022-04-08 青岛科技大学 一种基于视觉雷达的小天体探测器多模型导航方法
CN114322943A (zh) * 2021-12-15 2022-04-12 南京航空航天大学 一种基于无人机前视图像的目标距离测量方法及装置
CN114322996A (zh) * 2020-09-30 2022-04-12 阿里巴巴集团控股有限公司 一种多传感器融合定位系统的位姿优化方法和装置
CN114323050A (zh) * 2022-01-07 2022-04-12 苏州挚途科技有限公司 车辆定位方法、装置和电子设备
CN114323003A (zh) * 2021-12-27 2022-04-12 青岛慧拓智能机器有限公司 一种基于umb、imu及激光雷达的井工矿融合定位方法
CN114459467A (zh) * 2021-12-30 2022-05-10 北京理工大学 一种未知救援环境中基于vi-slam的目标定位方法
CN114485648A (zh) * 2022-02-08 2022-05-13 北京理工大学 一种基于仿生复眼惯性系统的导航定位方法
CN114485574A (zh) * 2021-12-21 2022-05-13 武汉大学 基于卡尔曼滤波模型的三线阵影像pos辅助对地定位方法
CN114485577A (zh) * 2021-12-13 2022-05-13 丁莹莹 一种基于视觉的无人机着陆姿态估计方法
CN114529585A (zh) * 2022-02-23 2022-05-24 北京航空航天大学 基于深度视觉和惯性测量的移动设备自主定位方法
CN114554389A (zh) * 2021-12-29 2022-05-27 重庆邮电大学 一种行人导航定位系统融合方法
CN114567401A (zh) * 2022-04-14 2022-05-31 中国人民解放军火箭军工程大学 一种基于感知通信一体化的无人机蜂群状态联合估计方法
CN114608568A (zh) * 2022-02-22 2022-06-10 北京理工大学 一种基于多传感器信息即时融合定位方法
CN114812610A (zh) * 2020-11-16 2022-07-29 浙江商汤科技开发有限公司 视觉惯性系统的参数标定方法及装置、电子设备和介质
CN114820721A (zh) * 2022-05-17 2022-07-29 苏州轻棹科技有限公司 一种卡尔曼滤波观测噪声的可视化调制方法和装置
CN114838732A (zh) * 2022-05-18 2022-08-02 北京航空航天大学 一种基于图优化的通信受限环境下协同导航方法
CN114895241A (zh) * 2022-05-09 2022-08-12 知微空间智能科技(苏州)有限公司 一种基于数据和模型联合驱动的弹性融合定位方法和装置
CN114964266A (zh) * 2022-07-26 2022-08-30 中国人民解放军国防科技大学 基于多视觉矢量的运动状态协同群组相对姿态确定方法
CN114973660A (zh) * 2022-05-13 2022-08-30 黄河科技学院 一种模型线性化迭代更新法的交通决策方法
CN114979943A (zh) * 2022-05-18 2022-08-30 东南大学 一种基于raukf的rssi室内定位算法
CN114993296A (zh) * 2022-04-19 2022-09-02 北京自动化控制设备研究所 一种制导炮弹高动态组合导航方法
CN115031726A (zh) * 2022-03-29 2022-09-09 哈尔滨工程大学 一种数据融合导航定位方法
CN115024715A (zh) * 2022-05-20 2022-09-09 北京航天时代光电科技有限公司 一种人体运动智能测量与数字训练系统
CN115060260A (zh) * 2022-02-22 2022-09-16 上海大学 一种基于anfis-eskf的地面移动机器人多传感器融合定位方法
CN115127547A (zh) * 2022-06-27 2022-09-30 长安大学 一种基于捷联惯导系统和图像定位的隧道检测车定位方法
CN115265591A (zh) * 2022-07-15 2022-11-01 北京航空航天大学 一种双轴旋转惯导imu与转位机构安装误差的标定方法
CN115307626A (zh) * 2021-05-06 2022-11-08 北京航通云科技有限公司 一种应用于小型无人机的冗余定位方法
CN115574816A (zh) * 2022-11-24 2023-01-06 东南大学 仿生视觉多源信息智能感知无人平台
CN115616641A (zh) * 2022-12-16 2023-01-17 南京航空航天大学 一种基于粒子滤波的城市峡谷中组合导航高精度定位方法
CN115639521A (zh) * 2022-10-24 2023-01-24 青岛柯锐思德电子科技有限公司 一种基于uwb的移动目标运动状态判断方法
CN115752442A (zh) * 2022-12-07 2023-03-07 无锡恺韵来机器人有限公司 一种基于单目视觉辅助惯性定位方法
CN115855456A (zh) * 2023-03-03 2023-03-28 北京航空航天大学 一种基于视觉无人机平台的舰载机光学助降系统标校方法
CN115859212A (zh) * 2022-11-17 2023-03-28 广东智能无人系统研究院 一种用于海洋设备的自主布放回收的方法及系统
CN115930971A (zh) * 2023-02-01 2023-04-07 七腾机器人有限公司 一种机器人定位与建图的数据融合处理方法
CN116182873A (zh) * 2023-05-04 2023-05-30 长沙驰芯半导体科技有限公司 室内定位方法、系统及计算机可读介质
CN116380056A (zh) * 2023-06-02 2023-07-04 中国船舶集团有限公司第七〇七研究所 惯性定位方法、装置、电子设备及存储介质
CN116502478A (zh) * 2023-06-29 2023-07-28 中国电建集团华东勘测设计研究院有限公司 一种基于海底地形监测的自提升平台下桩辅助决策方法
CN116519011A (zh) * 2023-03-11 2023-08-01 中国人民解放军国防科技大学 基于Psi角误差修正模型的长航时双惯导协同标定方法
CN116543057A (zh) * 2023-06-27 2023-08-04 华南理工大学 一种水下多相机与imu一体化标定方法
CN116592896A (zh) * 2023-07-17 2023-08-15 山东水发黄水东调工程有限公司 基于卡尔曼滤波和红外热成像的水下机器人导航定位方法
CN116609776A (zh) * 2023-05-23 2023-08-18 兰州理工大学 复杂环境下的基于人工势场法的星凸形扩展目标跟踪方法
CN116734864A (zh) * 2023-08-14 2023-09-12 中国西安卫星测控中心 一种常值观测偏差条件下航天器自主相对导航方法
CN116736286A (zh) * 2023-05-24 2023-09-12 兰州理工大学 基于随机超曲面的渐进贝叶斯扩展目标跟踪方法及系统
CN117058430A (zh) * 2023-10-12 2023-11-14 北京万龙精益科技有限公司 用于视场匹配的方法、装置、电子设备和存储介质
CN117148406A (zh) * 2023-10-30 2023-12-01 山东大学 一种室内外无缝弹性融合定位方法、系统、介质及设备
CN117214857A (zh) * 2023-11-09 2023-12-12 中国人民解放军海军航空大学 一种三维场景下高斯多假设多扩展目标的跟踪方法
CN117346794A (zh) * 2023-12-05 2024-01-05 山东省科学院海洋仪器仪表研究所 一种用于浒苔跟踪的无人船组合导航系统及导航方法
CN117433564A (zh) * 2023-12-05 2024-01-23 北京航空航天大学 一种基于太阳敏感器辅助的偏振传感器误差在线标定方法
CN117495900A (zh) * 2023-11-06 2024-02-02 长沙理工大学 基于相机运动趋势估计的多目标视觉跟踪方法
CN117609737A (zh) * 2024-01-18 2024-02-27 中国人民解放军火箭军工程大学 一种惯性导航系统健康状态预测方法、系统、设备及介质
CN117788302A (zh) * 2024-02-26 2024-03-29 山东全维地信科技有限公司 一种测绘图形处理系统
CN117875226A (zh) * 2024-03-13 2024-04-12 江南大学 基于流形空间协方差递推的连续离散卡尔曼状态估计方法

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376785B (zh) * 2018-10-31 2021-09-24 东南大学 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法
CN111723624B (zh) * 2019-03-22 2023-12-05 京东方科技集团股份有限公司 一种头部运动跟踪方法和系统
CN110018691B (zh) * 2019-04-19 2022-04-15 天津大学 小型多旋翼无人机飞行状态估计系统和方法
CN110136168B (zh) * 2019-04-26 2021-06-18 北京航空航天大学 一种基于特征点匹配和光流法的多旋翼速度测量方法
CN110234029B (zh) * 2019-07-31 2021-12-17 上海商汤临港智能科技有限公司 多传感器数据的播放处理方法、装置、设备和存储介质
CN110517324B (zh) * 2019-08-26 2023-02-17 上海交通大学 基于变分贝叶斯自适应算法的双目vio实现方法
CN110455309B (zh) * 2019-08-27 2021-03-16 清华大学 具备在线时间校准的基于msckf的视觉惯性里程计
CN110490933A (zh) * 2019-09-18 2019-11-22 郑州轻工业学院 基于单点ransac的非线性状态空间中心差分滤波器方法
CN110864685B (zh) * 2019-10-18 2023-03-21 浙江天尚元科技有限公司 一种基于松耦合的车辆单目视觉轮式里程计定位方法
CN110702107A (zh) * 2019-10-22 2020-01-17 北京维盛泰科科技有限公司 一种单目视觉惯性组合的定位导航方法
CN110793526A (zh) * 2019-11-18 2020-02-14 山东建筑大学 基于可穿戴单目视觉和惯性传感器融合的行人导航方法及系统
CN110865650B (zh) * 2019-11-19 2022-12-20 武汉工程大学 基于主动视觉的无人机位姿自适应估计方法
CN110887481B (zh) * 2019-12-11 2020-07-24 中国空气动力研究与发展中心低速空气动力研究所 基于mems惯性传感器的载体动态姿态估计方法
CN111156994B (zh) * 2019-12-31 2023-10-27 上海星思半导体有限责任公司 一种基于mems惯性组件的ins/dr&gnss松组合导航方法
CN111197984A (zh) * 2020-01-15 2020-05-26 重庆邮电大学 一种基于环境约束下的视觉-惯性运动估计方法
CN111450515B (zh) * 2020-03-20 2022-02-15 北京理工大学 一种用于机器人射击对抗比赛的自动识别打击系统及方法
CN111580596B (zh) * 2020-05-19 2022-04-15 北京数字绿土科技股份有限公司 多个imu时间同步方法、装置、终端
CN112344914A (zh) * 2020-10-30 2021-02-09 哈尔滨工业大学(深圳) 基于柔性臂手眼相机的自适应视觉测量方法及系统
CN115701810A (zh) * 2020-12-25 2023-02-14 深圳怪虫机器人有限公司 一种光伏清洁机器人辅助定位的方法
CN113465596B (zh) * 2021-06-25 2023-05-30 电子科技大学 一种基于多传感器融合的四旋翼无人机定位方法
CN113884098B (zh) * 2021-10-15 2024-01-23 上海师范大学 一种基于具体化模型的可迭代的卡尔曼滤波定位方法
CN114199233B (zh) * 2021-11-08 2024-04-05 北京旷视科技有限公司 位姿确定方法及可移动设备
CN114147717B (zh) * 2021-12-09 2024-05-24 乐聚(深圳)机器人技术有限公司 机器人运动轨迹估计方法、装置、控制器及存储介质
CN114370870B (zh) * 2022-01-05 2024-04-12 中国兵器工业计算机应用技术研究所 适用于位姿测量卡尔曼滤波的滤波器更新信息筛选方法
CN114413893A (zh) * 2022-01-19 2022-04-29 天津大学 一种融合惯性测量信息的动态位置、姿态同步的测量方法
CN114184200B (zh) * 2022-02-14 2022-06-17 南京航空航天大学 一种结合动态建图的多源融合导航方法
CN114413898B (zh) * 2022-03-29 2022-07-29 深圳市边界智控科技有限公司 多传感器数据融合方法、装置、计算机设备及存储介质
CN115523920B (zh) * 2022-11-30 2023-03-10 西北工业大学 一种基于视觉惯性gnss紧耦合的无缝定位方法
CN116772903B (zh) * 2023-08-16 2023-10-20 河海大学 基于迭代ekf的sins/usbl安装角估计方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107014371A (zh) * 2017-04-14 2017-08-04 东南大学 基于扩展自适应区间卡尔曼的无人机组合导航方法与装置
US20180031387A1 (en) * 2016-07-29 2018-02-01 Carnegie Mellon University State estimation for aerial vehicles using multi-sensor fusion
CN108646760A (zh) * 2018-07-11 2018-10-12 中国人民解放军火箭军工程大学 基于单目视觉移动机器人目标跟踪及平台控制系统和方法
CN109376785A (zh) * 2018-10-31 2019-02-22 东南大学 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105953796A (zh) * 2016-05-23 2016-09-21 北京暴风魔镜科技有限公司 智能手机单目和imu融合的稳定运动跟踪方法和装置
CN105931275A (zh) * 2016-05-23 2016-09-07 北京暴风魔镜科技有限公司 基于移动端单目和imu融合的稳定运动跟踪方法和装置
CN108090921A (zh) * 2016-11-23 2018-05-29 中国科学院沈阳自动化研究所 单目视觉和imu融合的自适应室内定位方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180031387A1 (en) * 2016-07-29 2018-02-01 Carnegie Mellon University State estimation for aerial vehicles using multi-sensor fusion
CN107014371A (zh) * 2017-04-14 2017-08-04 东南大学 基于扩展自适应区间卡尔曼的无人机组合导航方法与装置
CN108646760A (zh) * 2018-07-11 2018-10-12 中国人民解放军火箭军工程大学 基于单目视觉移动机器人目标跟踪及平台控制系统和方法
CN109376785A (zh) * 2018-10-31 2019-02-22 东南大学 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XIE YUNYU: "Research on Monocular Vision Trajectory Tracking Method Based on Extended Kalman Filter", CHINA MASTER S THESES FULL-TEXT DATABASE, 1 March 2017 (2017-03-01), pages 1 - 57, XP055704006 *
ZHANG, ZHANYU: "Study on monocular vision SLAM based on extended Kalman filtering", DISSERTATION, 24 November 2010 (2010-11-24), pages 1 - 62, XP009520932 *

Cited By (181)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113701745A (zh) * 2020-05-21 2021-11-26 杭州海康威视数字技术股份有限公司 一种外参变化检测方法、装置、电子设备及检测系统
CN113701745B (zh) * 2020-05-21 2024-03-08 杭州海康威视数字技术股份有限公司 一种外参变化检测方法、装置、电子设备及检测系统
CN111578937A (zh) * 2020-05-29 2020-08-25 天津工业大学 同时优化外参数的视觉惯性里程计系统
CN111578937B (zh) * 2020-05-29 2024-01-09 上海新天策数字科技有限公司 同时优化外参数的视觉惯性里程计系统
CN111833281A (zh) * 2020-06-08 2020-10-27 上海宇航系统工程研究所 面向可重复使用火箭回收的多视觉敏感器数据融合方法
CN111833281B (zh) * 2020-06-08 2024-04-09 上海宇航系统工程研究所 面向可重复使用火箭回收的多视觉敏感器数据融合方法
CN111984919A (zh) * 2020-06-16 2020-11-24 济南大学 水泥回转窑温度场与物料密度的计算方法及系统
CN111984919B (zh) * 2020-06-16 2023-06-23 济南大学 水泥回转窑温度场与物料密度的计算方法及系统
CN111739063B (zh) * 2020-06-23 2023-08-18 郑州大学 一种基于多传感器融合的电力巡检机器人定位方法
CN111739063A (zh) * 2020-06-23 2020-10-02 郑州大学 一种基于多传感器融合的电力巡检机器人定位方法
CN111985300A (zh) * 2020-06-29 2020-11-24 魔门塔(苏州)科技有限公司 自动驾驶动态目标定位方法、装置、电子设备及存储介质
CN111985300B (zh) * 2020-06-29 2023-11-03 魔门塔(苏州)科技有限公司 自动驾驶动态目标定位方法、装置、电子设备及存储介质
CN113932820A (zh) * 2020-06-29 2022-01-14 杭州海康威视数字技术股份有限公司 对象检测的方法和装置
EP4155873A4 (en) * 2020-07-01 2023-11-08 Qingdao Pico Technology Co., Ltd. HYBRID TRACKING METHOD AND APPARATUS FOR MULTIPLE-SENSOR HANDLE CONTROL
CN111949123B (zh) * 2020-07-01 2023-08-08 青岛小鸟看看科技有限公司 多传感器手柄控制器混合追踪方法及装置
US12008173B2 (en) 2020-07-01 2024-06-11 Qingdao Pico Technology Co., Ltd. Multi-sensor handle controller hybrid tracking method and device
CN111949123A (zh) * 2020-07-01 2020-11-17 青岛小鸟看看科技有限公司 多传感器手柄控制器混合追踪方法及装置
CN112131928A (zh) * 2020-08-04 2020-12-25 浙江工业大学 一种rgb-d图像特征融合的人体姿态实时估计方法
CN112114665A (zh) * 2020-08-23 2020-12-22 西北工业大学 一种基于多模态融合的手部追踪方法
CN112129287A (zh) * 2020-09-24 2020-12-25 北京华捷艾米科技有限公司 一种基于视觉惯性里程计处理的方法和相关装置
CN114322996B (zh) * 2020-09-30 2024-03-19 阿里巴巴集团控股有限公司 一种多传感器融合定位系统的位姿优化方法和装置
CN114322996A (zh) * 2020-09-30 2022-04-12 阿里巴巴集团控股有限公司 一种多传感器融合定位系统的位姿优化方法和装置
CN112284381B (zh) * 2020-10-19 2022-09-13 北京华捷艾米科技有限公司 视觉惯性实时初始化对准方法及系统
CN112284381A (zh) * 2020-10-19 2021-01-29 北京华捷艾米科技有限公司 视觉惯性实时初始化对准方法及系统
CN112378396A (zh) * 2020-10-29 2021-02-19 江苏集萃未来城市应用技术研究所有限公司 基于抗差lm视觉惯性里程计与uwb混合高精度室内定位方法
CN112269317B (zh) * 2020-11-04 2024-03-15 天津大学 一种基于扩展卡尔曼滤波器的双边遥操作控制方法
CN112269317A (zh) * 2020-11-04 2021-01-26 天津大学 一种基于扩展卡尔曼滤波器的双边遥操作控制方法
CN112346032B (zh) * 2020-11-10 2023-07-14 中国科学院数学与系统科学研究院 基于一致性扩展卡尔曼滤波的单红外传感器目标定轨方法
CN112346032A (zh) * 2020-11-10 2021-02-09 中国科学院数学与系统科学研究院 基于一致性扩展卡尔曼滤波的单红外传感器目标定轨方法
CN114812610A (zh) * 2020-11-16 2022-07-29 浙江商汤科技开发有限公司 视觉惯性系统的参数标定方法及装置、电子设备和介质
CN112562077A (zh) * 2020-11-25 2021-03-26 西北工业大学 一种融合pdr和先验地图的行人室内定位方法
CN112472432A (zh) * 2020-11-25 2021-03-12 武汉理工大学 一种手杖-轮椅自动跟随系统及方法
CN112562077B (zh) * 2020-11-25 2024-01-09 西北工业大学 一种融合pdr和先验地图的行人室内定位方法
CN112472432B (zh) * 2020-11-25 2023-06-30 武汉理工大学 一种手杖-轮椅自动跟随系统及方法
CN112734765A (zh) * 2020-12-03 2021-04-30 华南理工大学 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN112734765B (zh) * 2020-12-03 2023-08-22 华南理工大学 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN112683271B (zh) * 2020-12-17 2023-10-27 东南大学 一种考虑可观测性的水域观测平台的组合定位方法
CN112683271A (zh) * 2020-12-17 2021-04-20 东南大学 一种考虑可观测性的水域观测平台的组合定位方法
CN112697142A (zh) * 2020-12-21 2021-04-23 南京航空航天大学 一种基于预积分理论的惯性/轮速里程计融合定位与参数优化方法
CN112697142B (zh) * 2020-12-21 2023-03-10 南京航空航天大学 一种基于预积分理论的惯性/轮速里程计融合定位与参数优化方法
CN112712565B (zh) * 2020-12-28 2024-03-01 中国民航大学 基于视觉与imu融合的飞机蒙皮损伤无人机绕检定位方法
CN112712565A (zh) * 2020-12-28 2021-04-27 中国民航大学 基于视觉与imu融合的飞机蒙皮损伤无人机绕检定位方法
CN112833892A (zh) * 2020-12-31 2021-05-25 杭州普锐视科技有限公司 一种基于轨迹对齐的语义建图方法
CN112833788A (zh) * 2021-01-07 2021-05-25 深圳许多米科技有限公司 一种枪体定位方法、装置、设备、仿真枪及可读存储介质
CN112880674A (zh) * 2021-01-21 2021-06-01 深圳市镭神智能系统有限公司 一种行驶设备的定位方法、装置、设备及存储介质
CN112883134A (zh) * 2021-02-01 2021-06-01 上海三一重机股份有限公司 数据融合建图方法、装置、电子设备及存储介质
CN113008229A (zh) * 2021-02-26 2021-06-22 南京理工大学 一种基于低成本车载传感器的分布式自主组合导航方法
CN113008229B (zh) * 2021-02-26 2024-04-05 南京理工大学 一种基于低成本车载传感器的分布式自主组合导航方法
CN113091748A (zh) * 2021-04-12 2021-07-09 北京航空航天大学 一种室内自校准导航定位方法
CN113220017A (zh) * 2021-04-16 2021-08-06 同济大学 一种地下无人机飞行方法及系统
CN113324544A (zh) * 2021-04-19 2021-08-31 北京化工大学 一种基于图优化的uwb/imu的室内移动机器人协同定位方法
CN113324544B (zh) * 2021-04-19 2023-02-28 北京化工大学 一种基于图优化的uwb/imu的室内移动机器人协同定位方法
CN113189578A (zh) * 2021-04-20 2021-07-30 浙江大学 一种扩展目标跟踪方法
CN113189578B (zh) * 2021-04-20 2022-09-16 浙江大学 一种扩展目标跟踪方法
CN115307626A (zh) * 2021-05-06 2022-11-08 北京航通云科技有限公司 一种应用于小型无人机的冗余定位方法
CN113240597B (zh) * 2021-05-08 2024-04-26 西北工业大学 基于视觉惯性信息融合的三维软件稳像方法
CN113240597A (zh) * 2021-05-08 2021-08-10 西北工业大学 基于视觉惯性信息融合的三维软件稳像方法
CN113124856A (zh) * 2021-05-21 2021-07-16 天津大学 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN113124856B (zh) * 2021-05-21 2023-03-14 天津大学 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法
CN113298881A (zh) * 2021-05-27 2021-08-24 中国科学院沈阳自动化研究所 单目相机-imu-机械臂的空间联合标定方法
CN113298881B (zh) * 2021-05-27 2023-09-12 中国科学院沈阳自动化研究所 单目相机-imu-机械臂的空间联合标定方法
CN113640791B (zh) * 2021-06-09 2023-12-26 西安电子科技大学 一种基于距离和瞬时速度的空间目标三维姿态重构方法
CN113640791A (zh) * 2021-06-09 2021-11-12 西安电子科技大学 一种基于距离和瞬时速度的空间目标三维姿态重构方法
CN113341718A (zh) * 2021-06-10 2021-09-03 浙江大学 欠驱动水面机器人的水动力系数混合自适应估计方法
CN113551671B (zh) * 2021-06-10 2023-04-11 中国科学院西安光学精密机械研究所 一种无人机姿态与位置的实时高精度测量方法
CN113551671A (zh) * 2021-06-10 2021-10-26 中国科学院西安光学精密机械研究所 一种无人机姿态与位置的实时高精度测量系统及方法
CN113313116A (zh) * 2021-06-20 2021-08-27 西北工业大学 一种基于视觉的水下人工目标准确检测与定位方法
CN113408623A (zh) * 2021-06-21 2021-09-17 北京理工大学 非合作目标柔性附着多节点融合估计方法
CN113408623B (zh) * 2021-06-21 2022-10-04 北京理工大学 非合作目标柔性附着多节点融合估计方法
CN113406682B (zh) * 2021-06-22 2024-03-12 腾讯科技(深圳)有限公司 一种定位方法、装置、电子设备及存储介质
CN113406682A (zh) * 2021-06-22 2021-09-17 腾讯科技(深圳)有限公司 一种定位方法、装置、电子设备及存储介质
CN113432603A (zh) * 2021-06-25 2021-09-24 中国船舶重工集团公司第七0七研究所 一种复杂环境下母平台与子平台相对位姿测量方法
CN113432603B (zh) * 2021-06-25 2022-09-16 中国船舶重工集团公司第七0七研究所 一种复杂环境下母平台与子平台相对位姿测量方法
CN113674327B (zh) * 2021-07-01 2024-04-12 北京航空航天大学 一种适用于无人机空中防撞的入侵机航迹融合跟踪方法
CN113674327A (zh) * 2021-07-01 2021-11-19 北京航空航天大学 一种适用于无人机空中防撞的入侵机航迹融合跟踪方法
CN113551666A (zh) * 2021-07-06 2021-10-26 杭州鸿泉物联网技术股份有限公司 自动驾驶多传感器融合定位方法和装置、设备及介质
CN113516714A (zh) * 2021-07-15 2021-10-19 北京理工大学 基于imu预积分信息加速特征匹配的视觉slam方法
CN113608556B (zh) * 2021-07-19 2023-06-30 西北工业大学 一种基于多传感器融合的多机器人相对定位方法
CN113608556A (zh) * 2021-07-19 2021-11-05 西北工业大学 一种基于多传感器融合的多机器人相对定位方法
CN113534227A (zh) * 2021-07-26 2021-10-22 中国电子科技集团公司第五十四研究所 一种适用于复杂非合作场景的多传感器融合绝对定位方法
CN113534227B (zh) * 2021-07-26 2022-07-01 中国电子科技集团公司第五十四研究所 一种适用于复杂非合作场景的多传感器融合绝对定位方法
CN113709662B (zh) * 2021-08-05 2023-12-01 北京理工大学重庆创新中心 一种基于超宽带的自主式三维反演定位方法
CN113709662A (zh) * 2021-08-05 2021-11-26 北京理工大学重庆创新中心 一种基于超宽带的自主式三维反演定位方法
CN113674412A (zh) * 2021-08-12 2021-11-19 浙江工商大学 基于位姿融合优化的室内地图构建方法、系统及存储介质
CN113674412B (zh) * 2021-08-12 2023-08-29 浙江工商大学 基于位姿融合优化的室内地图构建方法、系统及存储介质
CN113865584B (zh) * 2021-08-24 2024-05-03 知微空间智能科技(苏州)有限公司 一种基于视觉惯性里程计的uwb三维寻物方法和装置
CN113865584A (zh) * 2021-08-24 2021-12-31 知微空间智能科技(苏州)有限公司 一种基于视觉惯性里程计的uwb三维寻物方法和装置
CN113724337B (zh) * 2021-08-30 2024-02-23 合肥工业大学 一种无需依赖云台角度的相机动态外参标定方法及装置
CN113724337A (zh) * 2021-08-30 2021-11-30 合肥工业大学 一种无需依赖云台角度的相机动态外参标定方法及装置
CN113938825A (zh) * 2021-10-15 2022-01-14 太原理工大学 一种基于蓝牙aoa的综采工作面采煤机定位方法及系统
CN114018250A (zh) * 2021-10-18 2022-02-08 杭州鸿泉物联网技术股份有限公司 惯性导航方法、电子设备、存储介质和计算机程序产品
CN114018250B (zh) * 2021-10-18 2024-05-03 杭州鸿泉物联网技术股份有限公司 惯性导航方法、电子设备、存储介质和计算机程序产品
CN113759982A (zh) * 2021-10-19 2021-12-07 中国人民解放军军事科学院国防科技创新研究院 一种仅基于视线测量信息的无人机编队相对状态估计方法
CN113759982B (zh) * 2021-10-19 2024-05-28 中国人民解放军军事科学院国防科技创新研究院 一种仅基于视线测量信息的无人机编队相对状态估计方法
CN113989371B (zh) * 2021-10-28 2024-05-03 山东大学 一种基于视觉的模块化平台相对位姿估计系统
CN113989371A (zh) * 2021-10-28 2022-01-28 山东大学 一种基于视觉的模块化平台相对位姿估计系统
CN114040128B (zh) * 2021-11-24 2024-03-01 视辰信息科技(上海)有限公司 时间戳延时标定方法及系统、设备和计算机可读存储介质
CN114040128A (zh) * 2021-11-24 2022-02-11 视辰信息科技(上海)有限公司 时间戳延时标定方法及系统、设备和计算机可读存储介质
CN114485577A (zh) * 2021-12-13 2022-05-13 丁莹莹 一种基于视觉的无人机着陆姿态估计方法
CN114485577B (zh) * 2021-12-13 2024-04-12 丁莹莹 一种基于视觉的无人机着陆姿态估计方法
CN114322943A (zh) * 2021-12-15 2022-04-12 南京航空航天大学 一种基于无人机前视图像的目标距离测量方法及装置
CN114485574A (zh) * 2021-12-21 2022-05-13 武汉大学 基于卡尔曼滤波模型的三线阵影像pos辅助对地定位方法
CN114296069A (zh) * 2021-12-23 2022-04-08 青岛科技大学 一种基于视觉雷达的小天体探测器多模型导航方法
CN114296069B (zh) * 2021-12-23 2024-05-28 青岛科技大学 一种基于视觉雷达的小天体探测器多模型导航方法
CN114280925A (zh) * 2021-12-24 2022-04-05 合肥工业大学 基于单目视觉的可变杆长倒立摆目标捕捉控制方法及系统
CN114323003A (zh) * 2021-12-27 2022-04-12 青岛慧拓智能机器有限公司 一种基于umb、imu及激光雷达的井工矿融合定位方法
CN114554389B (zh) * 2021-12-29 2023-06-20 重庆邮电大学 一种行人导航定位系统融合方法
CN114554389A (zh) * 2021-12-29 2022-05-27 重庆邮电大学 一种行人导航定位系统融合方法
CN114459467A (zh) * 2021-12-30 2022-05-10 北京理工大学 一种未知救援环境中基于vi-slam的目标定位方法
CN114459467B (zh) * 2021-12-30 2024-05-03 北京理工大学 一种未知救援环境中基于vi-slam的目标定位方法
CN114323050A (zh) * 2022-01-07 2022-04-12 苏州挚途科技有限公司 车辆定位方法、装置和电子设备
CN114485648B (zh) * 2022-02-08 2024-02-02 北京理工大学 一种基于仿生复眼惯性系统的导航定位方法
CN114485648A (zh) * 2022-02-08 2022-05-13 北京理工大学 一种基于仿生复眼惯性系统的导航定位方法
CN114608568A (zh) * 2022-02-22 2022-06-10 北京理工大学 一种基于多传感器信息即时融合定位方法
CN114608568B (zh) * 2022-02-22 2024-05-03 北京理工大学 一种基于多传感器信息即时融合定位方法
CN115060260A (zh) * 2022-02-22 2022-09-16 上海大学 一种基于anfis-eskf的地面移动机器人多传感器融合定位方法
CN114529585A (zh) * 2022-02-23 2022-05-24 北京航空航天大学 基于深度视觉和惯性测量的移动设备自主定位方法
CN115031726A (zh) * 2022-03-29 2022-09-09 哈尔滨工程大学 一种数据融合导航定位方法
CN114567401B (zh) * 2022-04-14 2023-02-14 中国人民解放军火箭军工程大学 一种基于感知通信一体化的无人机蜂群状态联合估计方法
CN114567401A (zh) * 2022-04-14 2022-05-31 中国人民解放军火箭军工程大学 一种基于感知通信一体化的无人机蜂群状态联合估计方法
CN114993296B (zh) * 2022-04-19 2024-03-15 北京自动化控制设备研究所 一种制导炮弹高动态组合导航方法
CN114993296A (zh) * 2022-04-19 2022-09-02 北京自动化控制设备研究所 一种制导炮弹高动态组合导航方法
CN114895241A (zh) * 2022-05-09 2022-08-12 知微空间智能科技(苏州)有限公司 一种基于数据和模型联合驱动的弹性融合定位方法和装置
CN114895241B (zh) * 2022-05-09 2024-05-03 知微空间智能科技(苏州)有限公司 一种基于数据和模型联合驱动的弹性融合定位方法和装置
CN114973660A (zh) * 2022-05-13 2022-08-30 黄河科技学院 一种模型线性化迭代更新法的交通决策方法
CN114973660B (zh) * 2022-05-13 2023-10-24 黄河科技学院 一种模型线性化迭代更新法的交通决策方法
CN114820721B (zh) * 2022-05-17 2024-03-26 苏州轻棹科技有限公司 一种卡尔曼滤波观测噪声的可视化调制方法和装置
CN114820721A (zh) * 2022-05-17 2022-07-29 苏州轻棹科技有限公司 一种卡尔曼滤波观测噪声的可视化调制方法和装置
CN114838732A (zh) * 2022-05-18 2022-08-02 北京航空航天大学 一种基于图优化的通信受限环境下协同导航方法
CN114838732B (zh) * 2022-05-18 2024-04-09 北京航空航天大学 一种基于图优化的通信受限环境下协同导航方法
CN114979943A (zh) * 2022-05-18 2022-08-30 东南大学 一种基于raukf的rssi室内定位算法
CN115024715A (zh) * 2022-05-20 2022-09-09 北京航天时代光电科技有限公司 一种人体运动智能测量与数字训练系统
CN115127547A (zh) * 2022-06-27 2022-09-30 长安大学 一种基于捷联惯导系统和图像定位的隧道检测车定位方法
CN115127547B (zh) * 2022-06-27 2024-04-19 长安大学 一种基于捷联惯导系统和图像定位的隧道检测车定位方法
CN115265591A (zh) * 2022-07-15 2022-11-01 北京航空航天大学 一种双轴旋转惯导imu与转位机构安装误差的标定方法
CN115265591B (zh) * 2022-07-15 2024-04-09 北京航空航天大学 一种双轴旋转惯导imu与转位机构安装误差的标定方法
CN114964266A (zh) * 2022-07-26 2022-08-30 中国人民解放军国防科技大学 基于多视觉矢量的运动状态协同群组相对姿态确定方法
CN115639521A (zh) * 2022-10-24 2023-01-24 青岛柯锐思德电子科技有限公司 一种基于uwb的移动目标运动状态判断方法
CN115859212A (zh) * 2022-11-17 2023-03-28 广东智能无人系统研究院 一种用于海洋设备的自主布放回收的方法及系统
CN115574816A (zh) * 2022-11-24 2023-01-06 东南大学 仿生视觉多源信息智能感知无人平台
CN115752442A (zh) * 2022-12-07 2023-03-07 无锡恺韵来机器人有限公司 一种基于单目视觉辅助惯性定位方法
CN115752442B (zh) * 2022-12-07 2024-03-12 运来智能装备(无锡)有限公司 一种基于单目视觉辅助惯性定位方法
CN115616641A (zh) * 2022-12-16 2023-01-17 南京航空航天大学 一种基于粒子滤波的城市峡谷中组合导航高精度定位方法
CN115930971B (zh) * 2023-02-01 2023-09-19 七腾机器人有限公司 一种机器人定位与建图的数据融合处理方法
CN115930971A (zh) * 2023-02-01 2023-04-07 七腾机器人有限公司 一种机器人定位与建图的数据融合处理方法
CN115855456A (zh) * 2023-03-03 2023-03-28 北京航空航天大学 一种基于视觉无人机平台的舰载机光学助降系统标校方法
CN116519011B (zh) * 2023-03-11 2024-03-01 中国人民解放军国防科技大学 基于Psi角误差修正模型的长航时双惯导协同标定方法
CN116519011A (zh) * 2023-03-11 2023-08-01 中国人民解放军国防科技大学 基于Psi角误差修正模型的长航时双惯导协同标定方法
CN116182873A (zh) * 2023-05-04 2023-05-30 长沙驰芯半导体科技有限公司 室内定位方法、系统及计算机可读介质
CN116182873B (zh) * 2023-05-04 2023-07-11 长沙驰芯半导体科技有限公司 室内定位方法、系统及计算机可读介质
CN116609776A (zh) * 2023-05-23 2023-08-18 兰州理工大学 复杂环境下的基于人工势场法的星凸形扩展目标跟踪方法
CN116609776B (zh) * 2023-05-23 2023-11-14 兰州理工大学 复杂环境下的基于人工势场法的星凸形扩展目标跟踪方法
CN116736286B (zh) * 2023-05-24 2024-02-06 兰州理工大学 基于随机超曲面的渐进贝叶斯扩展目标跟踪方法及系统
CN116736286A (zh) * 2023-05-24 2023-09-12 兰州理工大学 基于随机超曲面的渐进贝叶斯扩展目标跟踪方法及系统
CN116380056B (zh) * 2023-06-02 2023-08-15 中国船舶集团有限公司第七〇七研究所 惯性定位方法、装置、电子设备及存储介质
CN116380056A (zh) * 2023-06-02 2023-07-04 中国船舶集团有限公司第七〇七研究所 惯性定位方法、装置、电子设备及存储介质
CN116543057B (zh) * 2023-06-27 2023-10-10 华南理工大学 一种水下多相机与imu一体化标定方法
CN116543057A (zh) * 2023-06-27 2023-08-04 华南理工大学 一种水下多相机与imu一体化标定方法
CN116502478B (zh) * 2023-06-29 2023-09-01 中国电建集团华东勘测设计研究院有限公司 一种基于海底地形监测的自提升平台下桩辅助决策方法
CN116502478A (zh) * 2023-06-29 2023-07-28 中国电建集团华东勘测设计研究院有限公司 一种基于海底地形监测的自提升平台下桩辅助决策方法
CN116592896B (zh) * 2023-07-17 2023-09-29 山东水发黄水东调工程有限公司 基于卡尔曼滤波和红外热成像的水下机器人导航定位方法
CN116592896A (zh) * 2023-07-17 2023-08-15 山东水发黄水东调工程有限公司 基于卡尔曼滤波和红外热成像的水下机器人导航定位方法
CN116734864A (zh) * 2023-08-14 2023-09-12 中国西安卫星测控中心 一种常值观测偏差条件下航天器自主相对导航方法
CN116734864B (zh) * 2023-08-14 2023-11-28 中国西安卫星测控中心 一种常值观测偏差条件下航天器自主相对导航方法
CN117058430B (zh) * 2023-10-12 2023-12-22 北京万龙精益科技有限公司 用于视场匹配的方法、装置、电子设备和存储介质
CN117058430A (zh) * 2023-10-12 2023-11-14 北京万龙精益科技有限公司 用于视场匹配的方法、装置、电子设备和存储介质
CN117148406B (zh) * 2023-10-30 2024-01-30 山东大学 一种室内外无缝弹性融合定位方法、系统、介质及设备
CN117148406A (zh) * 2023-10-30 2023-12-01 山东大学 一种室内外无缝弹性融合定位方法、系统、介质及设备
CN117495900B (zh) * 2023-11-06 2024-06-07 长沙理工大学 基于相机运动趋势估计的多目标视觉跟踪方法
CN117495900A (zh) * 2023-11-06 2024-02-02 长沙理工大学 基于相机运动趋势估计的多目标视觉跟踪方法
CN117214857B (zh) * 2023-11-09 2024-02-02 中国人民解放军海军航空大学 一种三维场景下高斯多假设多扩展目标的跟踪方法
CN117214857A (zh) * 2023-11-09 2023-12-12 中国人民解放军海军航空大学 一种三维场景下高斯多假设多扩展目标的跟踪方法
CN117433564A (zh) * 2023-12-05 2024-01-23 北京航空航天大学 一种基于太阳敏感器辅助的偏振传感器误差在线标定方法
CN117433564B (zh) * 2023-12-05 2024-03-01 北京航空航天大学 一种基于太阳敏感器辅助的偏振传感器误差在线标定方法
CN117346794B (zh) * 2023-12-05 2024-02-23 山东省科学院海洋仪器仪表研究所 一种用于浒苔跟踪的无人船组合导航系统及导航方法
CN117346794A (zh) * 2023-12-05 2024-01-05 山东省科学院海洋仪器仪表研究所 一种用于浒苔跟踪的无人船组合导航系统及导航方法
CN117609737B (zh) * 2024-01-18 2024-03-19 中国人民解放军火箭军工程大学 一种惯性导航系统健康状态预测方法、系统、设备及介质
CN117609737A (zh) * 2024-01-18 2024-02-27 中国人民解放军火箭军工程大学 一种惯性导航系统健康状态预测方法、系统、设备及介质
CN117788302A (zh) * 2024-02-26 2024-03-29 山东全维地信科技有限公司 一种测绘图形处理系统
CN117788302B (zh) * 2024-02-26 2024-05-14 山东全维地信科技有限公司 一种测绘图形处理系统
CN117875226A (zh) * 2024-03-13 2024-04-12 江南大学 基于流形空间协方差递推的连续离散卡尔曼状态估计方法

Also Published As

Publication number Publication date
CN109376785B (zh) 2021-09-24
CN109376785A (zh) 2019-02-22

Similar Documents

Publication Publication Date Title
WO2020087846A1 (zh) 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法
CN110375738B (zh) 一种融合惯性测量单元的单目同步定位与建图位姿解算方法
CN110030994B (zh) 一种基于单目的鲁棒性视觉惯性紧耦合定位方法
CN108225308B (zh) 一种基于四元数的扩展卡尔曼滤波算法的姿态解算方法
CN104501814B (zh) 一种基于视觉和惯性信息的姿态与位置估计方法
CN110702107A (zh) 一种单目视觉惯性组合的定位导航方法
CN108036785A (zh) 一种基于直接法与惯导融合的飞行器位姿估计方法
CN112649016A (zh) 一种基于点线初始化的视觉惯性里程计方法
CN105698765A (zh) 双imu单目视觉组合测量非惯性系下目标物位姿方法
WO2020192326A1 (zh) 一种头部运动跟踪方法和系统
CN113551665B (zh) 一种用于运动载体的高动态运动状态感知系统及感知方法
KR100558367B1 (ko) Gps및 ins를 이용한 수치지도 제작 시스템 및 방법
CN114529576A (zh) 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法
CN115540860A (zh) 一种多传感器融合位姿估计算法
CN111307114B (zh) 基于运动参考单元的水面舰船水平姿态测量方法
CN115560760A (zh) 一种面向无人机的视觉/激光测距高空导航方法
CN112985450B (zh) 一种具有同步时间误差估计的双目视觉惯性里程计方法
CN106352897A (zh) 一种基于单目视觉传感器的硅mems陀螺误差估计与校正方法
WO2024041347A1 (zh) 机器人以及基于多传感器的三维建图方法、存储介质
CN117073720A (zh) 弱环境与弱动作控制下快速视觉惯性标定与初始化方法及设备
CN112729283A (zh) 一种基于深度相机/mems惯导/里程计组合的导航方法
CN115574816B (zh) 仿生视觉多源信息智能感知无人平台
CN114543786B (zh) 一种基于视觉惯性里程计的爬壁机器人定位方法
CN112489176B (zh) 一种融合ESKF,g2o和点云匹配的紧耦合建图方法
CN114440877A (zh) 一种异步多相机视觉惯性里程计定位方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19878981

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19878981

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 22.06.2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19878981

Country of ref document: EP

Kind code of ref document: A1