WO2020087846A1 - 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 - Google Patents
基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 Download PDFInfo
- Publication number
- WO2020087846A1 WO2020087846A1 PCT/CN2019/079138 CN2019079138W WO2020087846A1 WO 2020087846 A1 WO2020087846 A1 WO 2020087846A1 CN 2019079138 W CN2019079138 W CN 2019079138W WO 2020087846 A1 WO2020087846 A1 WO 2020087846A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- state
- imu
- observation
- time
- deviation
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Definitions
- the invention relates to the technical field of navigation, and in particular to a navigation method based on iterative extended Kalman filter fusion of inertia and monocular vision.
- the combined navigation method combines various navigation sensors together, and uses the information measured by the various sensors to compensate for their respective limitations to achieve high-precision navigation and enhance the robustness of the system.
- Inertial navigation is a comprehensive technology, which is the product of the development of modern science to a certain stage. Inertial navigation mainly uses the IMU as a sensor for data collection.
- the IMU will contain a three-axis gyroscope and an accelerometer.
- the gyroscope is used to measure the angular rate
- the accelerometer is used to measure the acceleration in the three-axis direction.
- the dead reckoning method can be used to estimate the IMU position, velocity and attitude in real time.
- the pure inertial navigation method only has good accuracy near the initial moment. This is because the data collected by the IMU contains the drift of the gyro and the accelerometer, so that the accuracy of pure inertial navigation will diverge over time.
- the monocular camera is widely used for its advantages of simple structure, simple calibration and low price.
- the monocular camera cannot obtain the depth information of pixels directly from the image because it can only obtain one picture at the same time.
- the monocular camera has the characteristic of scale uncertainty, which is also the main cause of errors in monocular measurement. By adding IMU data, the problem of initialization of the monocular camera can be solved.
- Filter-based visual and inertial integrated navigation methods can be divided into tightly coupled and loosely coupled methods according to whether image state information is added to the state vector.
- the tightly coupled method greatly increases the amount of calculation due to the addition of image feature information to the state vector, and its calculation complexity is linearly related to the image feature range, and its scalability is poor.
- loose coupling is slightly worse than tight coupling, its computational complexity is far less than tight coupling.
- loose coupling has the advantages of better scalability and constant computational complexity between frames.
- an iterative extended Kalman filter method is used to achieve loose coupling between the monocular camera and the inertial sensor. This method has higher accuracy than the extended Kalman filter, and is more computationally complex than the infinite Kalman filter method. For simplicity.
- the present invention provides a navigation method based on iterative extended Kalman filter fusion of inertia and monocular vision.
- the present invention can maintain high accuracy during long-term real-time positioning and navigation, and has inter-frame calculation complexity
- the present invention provides a navigation method based on iterative extended Kalman filter fusion of inertia and monocular vision. The method includes the following steps:
- Step 1 Synchronize the information collected by the IMU and the monocular camera with a time stamp
- Step 2 Calculate the posture change between two consecutive frames of the monocular camera
- Step 3 Solve the IMU data between the images to obtain the position, velocity and attitude changes of the inertial measurement
- Step 4 Establish an equation of state, and use an iterative extended Kalman filter to fuse sensor information.
- step 1 the information collected by the IMU and the monocular camera is time-stamp synchronized, and the specific method is as follows:
- the message filter in ROS is used to match the time stamp of the information collected by the sensor. There is more IMU data between each two frames of images, and the latest IMU collected information is searched from the time stamp of the image for time stamping Synchronization.
- step 2 the posture change between two consecutive frames of the monocular camera is calculated, the specific method is:
- step 3 the IMU data between the images is solved to obtain the position, velocity, and attitude changes of the inertial measurement.
- step 1 realizes the time stamp synchronization of the information collected by the IMU and the monocular camera, and uses dead reckoning to calculate the relative position, speed and attitude changes measured by the IMU between the corresponding frames.
- the state equation is established in step 4, and the sensor information fusion is performed by using an iterative extended Kalman filter.
- the specific method is:
- the subscript m represents the measured value, and modeling the above bias as a dynamic stochastic process can obtain:
- the state variables of the system are expressed as follows, where IMU respectively obtained from the world coordinate system, select East - N - day world coordinate system coordinate system, the coordinate position between the IMU, and the rotational speed variation quaternion, b ⁇ b a and above the IMU gyroscopes And the zero offset of the accelerometer, L is the scale factor of the camera, with Respectively represent the rotation quaternion and position transformation from the IMU coordinate system to the camera coordinate system, from which a 24-dimensional system state vector can be obtained;
- ⁇ ( ⁇ ) is the multiplicative matrix of ⁇ quaternion differential equation, Represents the antisymmetric matrix of the vector ⁇ , Is the cosine matrix of the direction from the IMU coordinate system to the world coordinate system, assuming that the scale drift is very slow, so we can get From the above derivation results and the filter state estimation noise model can be obtained:
- the system error state variable can be obtained, in which the quaternion error is not obtained by simple arithmetic calculation, but the quaternion error is used, as shown below:
- n is the system noise, which is expressed as Discretize the above linearized continuous-time error state equation:
- Noise covariance matrix The noise covariance matrix of the discrete system can be obtained:
- the above establishes the system state deviation equation based on the inertial measurement unit and its related models, updates the system state deviation and its covariance matrix, and uses the information measured by the monocular visual sensor to establish the observation equation to correct the state quantity of the above system state deviation equation;
- the position measurement deviation is as follows:
- the rotation observation measured by the monocular camera can be expressed as:
- the observation model of the system is:
- the one-step prediction of the state variable can be obtained from the one-step prediction of the above state deviation variable.
- the system observation equation is Taylor expanded at the one-step prediction and the first-order approximation is H k + 1
- the state variance covariance matrix is updated as follows:
- the filter gain after one iteration is:
- the state variance covariance matrix after one iteration is updated as follows:
- the present invention uses an iterative extended Kalman filter to perform data fusion between the monocular camera and the inertial sensor. Compared with the standard extended Kalman filter, the scheme has improved accuracy. Although the calculation complexity has increased, it is still better than The calculation complexity of the unscented Kalman filter is simple. The absence of image feature point information in the establishment of the system state equation greatly reduces the calculation, and realizes the function of unchanged calculation complexity between image frames.
- FIG. 1 is a flow chart of a navigation method based on iterative extended Kalman filter fusion inertia and monocular vision of the present invention
- FIG. 2 is a schematic diagram of the synchronization of the time stamp of the data collected by the monocular camera and the IMU of the present invention
- 3 is a schematic diagram of the pose estimation of the monocular camera of the present invention.
- FIG. 4 is a flow chart of the inertial navigation IMU of the present invention for calculating position, speed and attitude changes.
- the present invention provides a navigation method based on iterative extended Kalman filter fusion of inertia and monocular vision.
- the present invention can maintain high accuracy during long-term real-time positioning and navigation, and has the advantage of unchanged calculation complexity between frames .
- a navigation method based on iterative extended Kalman filter fusing inertial and monocular vision includes the following steps:
- Step 1 Synchronize the information collected by the IMU and the monocular camera with a time stamp.
- the specific methods are as follows:
- the sampling frequency of the ordinary monocular camera is about 30HZ, while the higher sampling frequency of the IMU can reach hundreds or even kilohertz.
- the message filter in ROS is used to match the time stamp of the information collected by the sensor. As shown in Figure 2, there is more IMU data between every two frames of images, and the nearest IMU acquisition information is searched from the image time stamp to synchronize the time stamp.
- Step 2 Calculate the posture change between two consecutive frames of the monocular camera, the specific method is:
- Step 3 Solve the IMU data between the images to obtain the position, velocity and attitude changes of the inertial measurement.
- the specific methods are:
- step 1 realizes the time stamp synchronization of the information collected by the IMU and the monocular camera, and uses dead reckoning to calculate the relative position, speed and attitude changes measured by the IMU between the corresponding frames.
- Step 4 Establish an equation of state, and use an iterative extended Kalman filter to fuse sensor information.
- the specific method is:
- the subscript m represents the measured value, and modeling the above bias as a dynamic stochastic process can obtain:
- the state variables of the system are expressed as follows, where Represents the position, velocity and rotation quaternion changes from the world coordinate system (selecting the east-north-day coordinate system as the world coordinate system) obtained by the IMU to the IMU coordinate system, b ⁇ and b a are the gyros in the IMU And the zero offset of the accelerometer, L is the scale factor of the camera, with Respectively represent the rotation quaternion and position transformation from the IMU coordinate system to the camera coordinate system, from which a 24-dimensional system state vector can be obtained.
- ⁇ ( ⁇ ) is the multiplicative matrix of ⁇ quaternion differential equation, Represents the antisymmetric matrix of the vector ⁇ , Is the cosine matrix of the direction from the IMU coordinate system to the world coordinate system, we assume that the scale drift is very slow, so we can get From the above derivation results and the filter state estimation noise model can be obtained
- the system error state variable can be obtained, in which the quaternion error is not obtained by simple arithmetic calculation, but the quaternion error is used, as shown below:
- n is the system noise, which is expressed as Discretize the above linearized continuous-time error state equation:
- Noise covariance matrix The noise covariance matrix of the discrete system can be obtained:
- the system state deviation equation is established based on the inertial measurement unit and its related models, and the system state deviation and its covariance matrix are updated.
- the information measured by the monocular visual sensor is used to establish an observation equation, which is used to correct the state quantity of the above system state deviation equation.
- the position measurement deviation is as follows:
- the rotation observation measured by the monocular camera can be expressed as:
- the observation model of the system is:
- the one-step prediction of the state variable can be obtained from the one-step prediction of the above state deviation variable.
- the system observation equation is Taylor expanded at the one-step prediction and the first-order approximation is H k + 1
- the state variance covariance matrix is updated as follows:
- the filter gain after one iteration is:
- the state variance covariance matrix after one iteration is updated as follows:
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Abstract
Description
Claims (5)
- 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:该方法包括如下步骤:步骤1:对IMU以及单目相机采集到的信息进行时间戳同步;步骤2:计算单目相机连续两帧图像间的位姿变化;步骤3:解算图像间IMU数据得到惯性测量的位置、速度与姿态变化;步骤4:建立状态方程,利用一次迭代扩展卡尔曼滤波进行传感器信息融合。
- 根据权利要求1所述的基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:所述步骤1中对IMU以及单目相机采集到的信息进行时间戳同步,具体方法如下:在机器人操作系统ROS平台上,利用ROS中消息过滤器进行传感器采集信息时间戳的匹配,每两帧图像之间有较多IMU数据,从图像的时间戳上搜索最近的IMU采集信息进行时间戳的同步。
- 根据权利要求1所述的基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:所述步骤2中计算单目相机连续两帧图像间的位姿变化,具体方法为:1)在已知单目相机内参的前提下,提取初始时刻两帧图像作为初始帧进行初始化,提取图像的ORB特征点,利用对极约束得到对极几何关系,并计算其本质矩阵;2)根据上述估计的本质矩阵,由奇异值分解恢复出相机的旋转和平移;3)通过三角化的方法得到特征点的深度信息,并在之后的相机图像中利用PnP的方法解算相机的位姿。
- 根据权利要求1所述的基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:所述步骤3中解算图像间IMU数据得到惯性测量的位置、速度与姿态变化,具体方法为:1)在已知载体初始位置、速度与姿态的前提下,利用IMU采集到的数据进行航位推算可得到载体实时位置、速度与姿态变化;2)上述步骤1实现了IMU以及单目相机采集到的信息的时间戳同步,利用航位推算计算对应帧间IMU所测得的相对位置、速度与姿态变化。
- 根据权利要求1所述的基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法,其特征在于:所述步骤4中建立状态方程,利用一次迭代扩展卡尔曼滤波进行传感器信息融合,具体方法为:1)建立惯性传感器模型:假设IMU中含有零偏误差b和高斯噪声n,所以在IMU框架下得到的真实的角速度和加速度为:ω=ω m-b ω-n ωa=a m-b a-n a其中下标m表示为测量值,将以上零偏建模为动态随机过程可以得到:2)选择状态变量系统的状态变量表示如下,其中 分别表示IMU得到的从世界坐标系到IMU坐标系之间的位置、速度和旋转四元数变化,选取东-北-天坐标系为世界坐标系,b ω和b a为上述IMU中陀螺和加速度计的零偏,L表示为相机的尺度因子, 和 分别表示从IMU坐标系到相机坐标系的旋转四元数和位置变换,由此可以得到24维的系统状态向量;由此状态变量可以得到以下微分方程:其中g表示世界坐标系下的重力矢量,ω=[ω x ω y ω z] T表示角速度变化,3)建立状态偏差方程通过上述状态向量及其微分方程,可以得到系统误差状态变量,其中四元数的误差不是通过简单的算术计算得到,而是使用四元数误差,如下所示:根据连续时间系统状态偏差变量建立其微分方程如下:取其前两项截断后可以得到:其中:F 4=-F 1可以得到系统状态偏差的一步预测和一步预测的协方差矩阵:4)建立系统观测模型上述根据惯性测量单元以及其相关模型建立了系统状态偏差方程,更新系统状态偏差与其协方差矩阵,利用单目视觉传感器测得的信息建立观测方程,用于矫正上述系统状态偏差方程的状态量;假设可以得到相机变换中旋转轴和旋转幅值的偏差,使用n p表示位置观测噪声,使用n q表示旋转观测噪声,可以得到系统的观测噪声为n m=[n p n q] T,并以此得到系统的观测噪声协方差矩阵为R;通过对单目相机采集到的图片进行处理可以得到视觉解算的系统位置观测量:位置观测量偏差如下:根据误差四元数的定义:通过单目相机测得的旋转观测量可表示为:利用上述误差四元数的定义可以得到系统旋转观测量偏差如下:系统的观测量模型为:Z=[Z p Z q] T=h(X k,k)将上述位置观测量偏差和旋转观测量偏差结合得到系统观测量偏差模型:5)迭代扩展卡尔曼滤波更新状态由上述状态偏差变量的一步预测可以得到该状态变量的一步预测,将系统观测方程在一步预测处进行泰勒展开并取一阶近似得H k+1|k,所以可以得到:有了上述推导,一次迭代扩展卡尔曼滤波描述如下:计算滤波增益,下标0表示未进行迭代之前的值:计算k+1时刻状态偏差向量的次优解,此处与标准离散扩展卡尔曼滤波是相同的:可以得到系统在k+1时刻状态变量的次优解为:状态方差协方差矩阵更新如下:利用以上得到的次优解进行一次迭代,首先将系统的观测方程在次优解X k+1|k+1,0处进行泰勒展开并取一阶近似得:一次迭代后的滤波增益为:一次迭代后得到的k+1时刻状态偏差向量的最优解为:一次迭代后的状态方差协方差矩阵更新如下:所以k+1时刻状态向量的最优解为:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811282269.8A CN109376785B (zh) | 2018-10-31 | 2018-10-31 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN201811282269.8 | 2018-10-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020087846A1 true WO2020087846A1 (zh) | 2020-05-07 |
Family
ID=65391020
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2019/079138 WO2020087846A1 (zh) | 2018-10-31 | 2019-03-21 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109376785B (zh) |
WO (1) | WO2020087846A1 (zh) |
Cited By (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111578937A (zh) * | 2020-05-29 | 2020-08-25 | 天津工业大学 | 同时优化外参数的视觉惯性里程计系统 |
CN111739063A (zh) * | 2020-06-23 | 2020-10-02 | 郑州大学 | 一种基于多传感器融合的电力巡检机器人定位方法 |
CN111833281A (zh) * | 2020-06-08 | 2020-10-27 | 上海宇航系统工程研究所 | 面向可重复使用火箭回收的多视觉敏感器数据融合方法 |
CN111949123A (zh) * | 2020-07-01 | 2020-11-17 | 青岛小鸟看看科技有限公司 | 多传感器手柄控制器混合追踪方法及装置 |
CN111984919A (zh) * | 2020-06-16 | 2020-11-24 | 济南大学 | 水泥回转窑温度场与物料密度的计算方法及系统 |
CN111985300A (zh) * | 2020-06-29 | 2020-11-24 | 魔门塔(苏州)科技有限公司 | 自动驾驶动态目标定位方法、装置、电子设备及存储介质 |
CN112114665A (zh) * | 2020-08-23 | 2020-12-22 | 西北工业大学 | 一种基于多模态融合的手部追踪方法 |
CN112131928A (zh) * | 2020-08-04 | 2020-12-25 | 浙江工业大学 | 一种rgb-d图像特征融合的人体姿态实时估计方法 |
CN112129287A (zh) * | 2020-09-24 | 2020-12-25 | 北京华捷艾米科技有限公司 | 一种基于视觉惯性里程计处理的方法和相关装置 |
CN112269317A (zh) * | 2020-11-04 | 2021-01-26 | 天津大学 | 一种基于扩展卡尔曼滤波器的双边遥操作控制方法 |
CN112284381A (zh) * | 2020-10-19 | 2021-01-29 | 北京华捷艾米科技有限公司 | 视觉惯性实时初始化对准方法及系统 |
CN112346032A (zh) * | 2020-11-10 | 2021-02-09 | 中国科学院数学与系统科学研究院 | 基于一致性扩展卡尔曼滤波的单红外传感器目标定轨方法 |
CN112378396A (zh) * | 2020-10-29 | 2021-02-19 | 江苏集萃未来城市应用技术研究所有限公司 | 基于抗差lm视觉惯性里程计与uwb混合高精度室内定位方法 |
CN112472432A (zh) * | 2020-11-25 | 2021-03-12 | 武汉理工大学 | 一种手杖-轮椅自动跟随系统及方法 |
CN112562077A (zh) * | 2020-11-25 | 2021-03-26 | 西北工业大学 | 一种融合pdr和先验地图的行人室内定位方法 |
CN112683271A (zh) * | 2020-12-17 | 2021-04-20 | 东南大学 | 一种考虑可观测性的水域观测平台的组合定位方法 |
CN112697142A (zh) * | 2020-12-21 | 2021-04-23 | 南京航空航天大学 | 一种基于预积分理论的惯性/轮速里程计融合定位与参数优化方法 |
CN112712565A (zh) * | 2020-12-28 | 2021-04-27 | 中国民航大学 | 基于视觉与imu融合的飞机蒙皮损伤无人机绕检定位方法 |
CN112734765A (zh) * | 2020-12-03 | 2021-04-30 | 华南理工大学 | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 |
CN112833892A (zh) * | 2020-12-31 | 2021-05-25 | 杭州普锐视科技有限公司 | 一种基于轨迹对齐的语义建图方法 |
CN112833788A (zh) * | 2021-01-07 | 2021-05-25 | 深圳许多米科技有限公司 | 一种枪体定位方法、装置、设备、仿真枪及可读存储介质 |
CN112880674A (zh) * | 2021-01-21 | 2021-06-01 | 深圳市镭神智能系统有限公司 | 一种行驶设备的定位方法、装置、设备及存储介质 |
CN112883134A (zh) * | 2021-02-01 | 2021-06-01 | 上海三一重机股份有限公司 | 数据融合建图方法、装置、电子设备及存储介质 |
CN113008229A (zh) * | 2021-02-26 | 2021-06-22 | 南京理工大学 | 一种基于低成本车载传感器的分布式自主组合导航方法 |
CN113091748A (zh) * | 2021-04-12 | 2021-07-09 | 北京航空航天大学 | 一种室内自校准导航定位方法 |
CN113124856A (zh) * | 2021-05-21 | 2021-07-16 | 天津大学 | 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法 |
CN113189578A (zh) * | 2021-04-20 | 2021-07-30 | 浙江大学 | 一种扩展目标跟踪方法 |
CN113220017A (zh) * | 2021-04-16 | 2021-08-06 | 同济大学 | 一种地下无人机飞行方法及系统 |
CN113240597A (zh) * | 2021-05-08 | 2021-08-10 | 西北工业大学 | 基于视觉惯性信息融合的三维软件稳像方法 |
CN113298881A (zh) * | 2021-05-27 | 2021-08-24 | 中国科学院沈阳自动化研究所 | 单目相机-imu-机械臂的空间联合标定方法 |
CN113313116A (zh) * | 2021-06-20 | 2021-08-27 | 西北工业大学 | 一种基于视觉的水下人工目标准确检测与定位方法 |
CN113324544A (zh) * | 2021-04-19 | 2021-08-31 | 北京化工大学 | 一种基于图优化的uwb/imu的室内移动机器人协同定位方法 |
CN113341718A (zh) * | 2021-06-10 | 2021-09-03 | 浙江大学 | 欠驱动水面机器人的水动力系数混合自适应估计方法 |
CN113408623A (zh) * | 2021-06-21 | 2021-09-17 | 北京理工大学 | 非合作目标柔性附着多节点融合估计方法 |
CN113406682A (zh) * | 2021-06-22 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 一种定位方法、装置、电子设备及存储介质 |
CN113432603A (zh) * | 2021-06-25 | 2021-09-24 | 中国船舶重工集团公司第七0七研究所 | 一种复杂环境下母平台与子平台相对位姿测量方法 |
CN113516714A (zh) * | 2021-07-15 | 2021-10-19 | 北京理工大学 | 基于imu预积分信息加速特征匹配的视觉slam方法 |
CN113534227A (zh) * | 2021-07-26 | 2021-10-22 | 中国电子科技集团公司第五十四研究所 | 一种适用于复杂非合作场景的多传感器融合绝对定位方法 |
CN113551671A (zh) * | 2021-06-10 | 2021-10-26 | 中国科学院西安光学精密机械研究所 | 一种无人机姿态与位置的实时高精度测量系统及方法 |
CN113551666A (zh) * | 2021-07-06 | 2021-10-26 | 杭州鸿泉物联网技术股份有限公司 | 自动驾驶多传感器融合定位方法和装置、设备及介质 |
CN113608556A (zh) * | 2021-07-19 | 2021-11-05 | 西北工业大学 | 一种基于多传感器融合的多机器人相对定位方法 |
CN113640791A (zh) * | 2021-06-09 | 2021-11-12 | 西安电子科技大学 | 一种基于距离和瞬时速度的空间目标三维姿态重构方法 |
CN113674412A (zh) * | 2021-08-12 | 2021-11-19 | 浙江工商大学 | 基于位姿融合优化的室内地图构建方法、系统及存储介质 |
CN113674327A (zh) * | 2021-07-01 | 2021-11-19 | 北京航空航天大学 | 一种适用于无人机空中防撞的入侵机航迹融合跟踪方法 |
CN113701745A (zh) * | 2020-05-21 | 2021-11-26 | 杭州海康威视数字技术股份有限公司 | 一种外参变化检测方法、装置、电子设备及检测系统 |
CN113709662A (zh) * | 2021-08-05 | 2021-11-26 | 北京理工大学重庆创新中心 | 一种基于超宽带的自主式三维反演定位方法 |
CN113724337A (zh) * | 2021-08-30 | 2021-11-30 | 合肥工业大学 | 一种无需依赖云台角度的相机动态外参标定方法及装置 |
CN113759982A (zh) * | 2021-10-19 | 2021-12-07 | 中国人民解放军军事科学院国防科技创新研究院 | 一种仅基于视线测量信息的无人机编队相对状态估计方法 |
CN113865584A (zh) * | 2021-08-24 | 2021-12-31 | 知微空间智能科技(苏州)有限公司 | 一种基于视觉惯性里程计的uwb三维寻物方法和装置 |
CN113938825A (zh) * | 2021-10-15 | 2022-01-14 | 太原理工大学 | 一种基于蓝牙aoa的综采工作面采煤机定位方法及系统 |
CN113932820A (zh) * | 2020-06-29 | 2022-01-14 | 杭州海康威视数字技术股份有限公司 | 对象检测的方法和装置 |
CN113989371A (zh) * | 2021-10-28 | 2022-01-28 | 山东大学 | 一种基于视觉的模块化平台相对位姿估计系统 |
CN114018250A (zh) * | 2021-10-18 | 2022-02-08 | 杭州鸿泉物联网技术股份有限公司 | 惯性导航方法、电子设备、存储介质和计算机程序产品 |
CN114040128A (zh) * | 2021-11-24 | 2022-02-11 | 视辰信息科技(上海)有限公司 | 时间戳延时标定方法及系统、设备和计算机可读存储介质 |
CN114280925A (zh) * | 2021-12-24 | 2022-04-05 | 合肥工业大学 | 基于单目视觉的可变杆长倒立摆目标捕捉控制方法及系统 |
CN114296069A (zh) * | 2021-12-23 | 2022-04-08 | 青岛科技大学 | 一种基于视觉雷达的小天体探测器多模型导航方法 |
CN114322943A (zh) * | 2021-12-15 | 2022-04-12 | 南京航空航天大学 | 一种基于无人机前视图像的目标距离测量方法及装置 |
CN114322996A (zh) * | 2020-09-30 | 2022-04-12 | 阿里巴巴集团控股有限公司 | 一种多传感器融合定位系统的位姿优化方法和装置 |
CN114323050A (zh) * | 2022-01-07 | 2022-04-12 | 苏州挚途科技有限公司 | 车辆定位方法、装置和电子设备 |
CN114323003A (zh) * | 2021-12-27 | 2022-04-12 | 青岛慧拓智能机器有限公司 | 一种基于umb、imu及激光雷达的井工矿融合定位方法 |
CN114459467A (zh) * | 2021-12-30 | 2022-05-10 | 北京理工大学 | 一种未知救援环境中基于vi-slam的目标定位方法 |
CN114485648A (zh) * | 2022-02-08 | 2022-05-13 | 北京理工大学 | 一种基于仿生复眼惯性系统的导航定位方法 |
CN114485574A (zh) * | 2021-12-21 | 2022-05-13 | 武汉大学 | 基于卡尔曼滤波模型的三线阵影像pos辅助对地定位方法 |
CN114485577A (zh) * | 2021-12-13 | 2022-05-13 | 丁莹莹 | 一种基于视觉的无人机着陆姿态估计方法 |
CN114529585A (zh) * | 2022-02-23 | 2022-05-24 | 北京航空航天大学 | 基于深度视觉和惯性测量的移动设备自主定位方法 |
CN114554389A (zh) * | 2021-12-29 | 2022-05-27 | 重庆邮电大学 | 一种行人导航定位系统融合方法 |
CN114567401A (zh) * | 2022-04-14 | 2022-05-31 | 中国人民解放军火箭军工程大学 | 一种基于感知通信一体化的无人机蜂群状态联合估计方法 |
CN114608568A (zh) * | 2022-02-22 | 2022-06-10 | 北京理工大学 | 一种基于多传感器信息即时融合定位方法 |
CN114812610A (zh) * | 2020-11-16 | 2022-07-29 | 浙江商汤科技开发有限公司 | 视觉惯性系统的参数标定方法及装置、电子设备和介质 |
CN114820721A (zh) * | 2022-05-17 | 2022-07-29 | 苏州轻棹科技有限公司 | 一种卡尔曼滤波观测噪声的可视化调制方法和装置 |
CN114838732A (zh) * | 2022-05-18 | 2022-08-02 | 北京航空航天大学 | 一种基于图优化的通信受限环境下协同导航方法 |
CN114895241A (zh) * | 2022-05-09 | 2022-08-12 | 知微空间智能科技(苏州)有限公司 | 一种基于数据和模型联合驱动的弹性融合定位方法和装置 |
CN114964266A (zh) * | 2022-07-26 | 2022-08-30 | 中国人民解放军国防科技大学 | 基于多视觉矢量的运动状态协同群组相对姿态确定方法 |
CN114973660A (zh) * | 2022-05-13 | 2022-08-30 | 黄河科技学院 | 一种模型线性化迭代更新法的交通决策方法 |
CN114979943A (zh) * | 2022-05-18 | 2022-08-30 | 东南大学 | 一种基于raukf的rssi室内定位算法 |
CN114993296A (zh) * | 2022-04-19 | 2022-09-02 | 北京自动化控制设备研究所 | 一种制导炮弹高动态组合导航方法 |
CN115031726A (zh) * | 2022-03-29 | 2022-09-09 | 哈尔滨工程大学 | 一种数据融合导航定位方法 |
CN115024715A (zh) * | 2022-05-20 | 2022-09-09 | 北京航天时代光电科技有限公司 | 一种人体运动智能测量与数字训练系统 |
CN115060260A (zh) * | 2022-02-22 | 2022-09-16 | 上海大学 | 一种基于anfis-eskf的地面移动机器人多传感器融合定位方法 |
CN115127547A (zh) * | 2022-06-27 | 2022-09-30 | 长安大学 | 一种基于捷联惯导系统和图像定位的隧道检测车定位方法 |
CN115265591A (zh) * | 2022-07-15 | 2022-11-01 | 北京航空航天大学 | 一种双轴旋转惯导imu与转位机构安装误差的标定方法 |
CN115307626A (zh) * | 2021-05-06 | 2022-11-08 | 北京航通云科技有限公司 | 一种应用于小型无人机的冗余定位方法 |
CN115574816A (zh) * | 2022-11-24 | 2023-01-06 | 东南大学 | 仿生视觉多源信息智能感知无人平台 |
CN115616641A (zh) * | 2022-12-16 | 2023-01-17 | 南京航空航天大学 | 一种基于粒子滤波的城市峡谷中组合导航高精度定位方法 |
CN115639521A (zh) * | 2022-10-24 | 2023-01-24 | 青岛柯锐思德电子科技有限公司 | 一种基于uwb的移动目标运动状态判断方法 |
CN115752442A (zh) * | 2022-12-07 | 2023-03-07 | 无锡恺韵来机器人有限公司 | 一种基于单目视觉辅助惯性定位方法 |
CN115855456A (zh) * | 2023-03-03 | 2023-03-28 | 北京航空航天大学 | 一种基于视觉无人机平台的舰载机光学助降系统标校方法 |
CN115859212A (zh) * | 2022-11-17 | 2023-03-28 | 广东智能无人系统研究院 | 一种用于海洋设备的自主布放回收的方法及系统 |
CN115930971A (zh) * | 2023-02-01 | 2023-04-07 | 七腾机器人有限公司 | 一种机器人定位与建图的数据融合处理方法 |
CN116182873A (zh) * | 2023-05-04 | 2023-05-30 | 长沙驰芯半导体科技有限公司 | 室内定位方法、系统及计算机可读介质 |
CN116380056A (zh) * | 2023-06-02 | 2023-07-04 | 中国船舶集团有限公司第七〇七研究所 | 惯性定位方法、装置、电子设备及存储介质 |
CN116502478A (zh) * | 2023-06-29 | 2023-07-28 | 中国电建集团华东勘测设计研究院有限公司 | 一种基于海底地形监测的自提升平台下桩辅助决策方法 |
CN116519011A (zh) * | 2023-03-11 | 2023-08-01 | 中国人民解放军国防科技大学 | 基于Psi角误差修正模型的长航时双惯导协同标定方法 |
CN116543057A (zh) * | 2023-06-27 | 2023-08-04 | 华南理工大学 | 一种水下多相机与imu一体化标定方法 |
CN116592896A (zh) * | 2023-07-17 | 2023-08-15 | 山东水发黄水东调工程有限公司 | 基于卡尔曼滤波和红外热成像的水下机器人导航定位方法 |
CN116609776A (zh) * | 2023-05-23 | 2023-08-18 | 兰州理工大学 | 复杂环境下的基于人工势场法的星凸形扩展目标跟踪方法 |
CN116734864A (zh) * | 2023-08-14 | 2023-09-12 | 中国西安卫星测控中心 | 一种常值观测偏差条件下航天器自主相对导航方法 |
CN116736286A (zh) * | 2023-05-24 | 2023-09-12 | 兰州理工大学 | 基于随机超曲面的渐进贝叶斯扩展目标跟踪方法及系统 |
CN117058430A (zh) * | 2023-10-12 | 2023-11-14 | 北京万龙精益科技有限公司 | 用于视场匹配的方法、装置、电子设备和存储介质 |
CN117148406A (zh) * | 2023-10-30 | 2023-12-01 | 山东大学 | 一种室内外无缝弹性融合定位方法、系统、介质及设备 |
CN117214857A (zh) * | 2023-11-09 | 2023-12-12 | 中国人民解放军海军航空大学 | 一种三维场景下高斯多假设多扩展目标的跟踪方法 |
CN117346794A (zh) * | 2023-12-05 | 2024-01-05 | 山东省科学院海洋仪器仪表研究所 | 一种用于浒苔跟踪的无人船组合导航系统及导航方法 |
CN117433564A (zh) * | 2023-12-05 | 2024-01-23 | 北京航空航天大学 | 一种基于太阳敏感器辅助的偏振传感器误差在线标定方法 |
CN117495900A (zh) * | 2023-11-06 | 2024-02-02 | 长沙理工大学 | 基于相机运动趋势估计的多目标视觉跟踪方法 |
CN117609737A (zh) * | 2024-01-18 | 2024-02-27 | 中国人民解放军火箭军工程大学 | 一种惯性导航系统健康状态预测方法、系统、设备及介质 |
CN117788302A (zh) * | 2024-02-26 | 2024-03-29 | 山东全维地信科技有限公司 | 一种测绘图形处理系统 |
CN117875226A (zh) * | 2024-03-13 | 2024-04-12 | 江南大学 | 基于流形空间协方差递推的连续离散卡尔曼状态估计方法 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376785B (zh) * | 2018-10-31 | 2021-09-24 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
CN111723624B (zh) * | 2019-03-22 | 2023-12-05 | 京东方科技集团股份有限公司 | 一种头部运动跟踪方法和系统 |
CN110018691B (zh) * | 2019-04-19 | 2022-04-15 | 天津大学 | 小型多旋翼无人机飞行状态估计系统和方法 |
CN110136168B (zh) * | 2019-04-26 | 2021-06-18 | 北京航空航天大学 | 一种基于特征点匹配和光流法的多旋翼速度测量方法 |
CN110234029B (zh) * | 2019-07-31 | 2021-12-17 | 上海商汤临港智能科技有限公司 | 多传感器数据的播放处理方法、装置、设备和存储介质 |
CN110517324B (zh) * | 2019-08-26 | 2023-02-17 | 上海交通大学 | 基于变分贝叶斯自适应算法的双目vio实现方法 |
CN110455309B (zh) * | 2019-08-27 | 2021-03-16 | 清华大学 | 具备在线时间校准的基于msckf的视觉惯性里程计 |
CN110490933A (zh) * | 2019-09-18 | 2019-11-22 | 郑州轻工业学院 | 基于单点ransac的非线性状态空间中心差分滤波器方法 |
CN110864685B (zh) * | 2019-10-18 | 2023-03-21 | 浙江天尚元科技有限公司 | 一种基于松耦合的车辆单目视觉轮式里程计定位方法 |
CN110702107A (zh) * | 2019-10-22 | 2020-01-17 | 北京维盛泰科科技有限公司 | 一种单目视觉惯性组合的定位导航方法 |
CN110793526A (zh) * | 2019-11-18 | 2020-02-14 | 山东建筑大学 | 基于可穿戴单目视觉和惯性传感器融合的行人导航方法及系统 |
CN110865650B (zh) * | 2019-11-19 | 2022-12-20 | 武汉工程大学 | 基于主动视觉的无人机位姿自适应估计方法 |
CN110887481B (zh) * | 2019-12-11 | 2020-07-24 | 中国空气动力研究与发展中心低速空气动力研究所 | 基于mems惯性传感器的载体动态姿态估计方法 |
CN111156994B (zh) * | 2019-12-31 | 2023-10-27 | 上海星思半导体有限责任公司 | 一种基于mems惯性组件的ins/dr&gnss松组合导航方法 |
CN111197984A (zh) * | 2020-01-15 | 2020-05-26 | 重庆邮电大学 | 一种基于环境约束下的视觉-惯性运动估计方法 |
CN111450515B (zh) * | 2020-03-20 | 2022-02-15 | 北京理工大学 | 一种用于机器人射击对抗比赛的自动识别打击系统及方法 |
CN111580596B (zh) * | 2020-05-19 | 2022-04-15 | 北京数字绿土科技股份有限公司 | 多个imu时间同步方法、装置、终端 |
CN112344914A (zh) * | 2020-10-30 | 2021-02-09 | 哈尔滨工业大学(深圳) | 基于柔性臂手眼相机的自适应视觉测量方法及系统 |
CN115701810A (zh) * | 2020-12-25 | 2023-02-14 | 深圳怪虫机器人有限公司 | 一种光伏清洁机器人辅助定位的方法 |
CN113465596B (zh) * | 2021-06-25 | 2023-05-30 | 电子科技大学 | 一种基于多传感器融合的四旋翼无人机定位方法 |
CN113884098B (zh) * | 2021-10-15 | 2024-01-23 | 上海师范大学 | 一种基于具体化模型的可迭代的卡尔曼滤波定位方法 |
CN114199233B (zh) * | 2021-11-08 | 2024-04-05 | 北京旷视科技有限公司 | 位姿确定方法及可移动设备 |
CN114147717B (zh) * | 2021-12-09 | 2024-05-24 | 乐聚(深圳)机器人技术有限公司 | 机器人运动轨迹估计方法、装置、控制器及存储介质 |
CN114370870B (zh) * | 2022-01-05 | 2024-04-12 | 中国兵器工业计算机应用技术研究所 | 适用于位姿测量卡尔曼滤波的滤波器更新信息筛选方法 |
CN114413893A (zh) * | 2022-01-19 | 2022-04-29 | 天津大学 | 一种融合惯性测量信息的动态位置、姿态同步的测量方法 |
CN114184200B (zh) * | 2022-02-14 | 2022-06-17 | 南京航空航天大学 | 一种结合动态建图的多源融合导航方法 |
CN114413898B (zh) * | 2022-03-29 | 2022-07-29 | 深圳市边界智控科技有限公司 | 多传感器数据融合方法、装置、计算机设备及存储介质 |
CN115523920B (zh) * | 2022-11-30 | 2023-03-10 | 西北工业大学 | 一种基于视觉惯性gnss紧耦合的无缝定位方法 |
CN116772903B (zh) * | 2023-08-16 | 2023-10-20 | 河海大学 | 基于迭代ekf的sins/usbl安装角估计方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107014371A (zh) * | 2017-04-14 | 2017-08-04 | 东南大学 | 基于扩展自适应区间卡尔曼的无人机组合导航方法与装置 |
US20180031387A1 (en) * | 2016-07-29 | 2018-02-01 | Carnegie Mellon University | State estimation for aerial vehicles using multi-sensor fusion |
CN108646760A (zh) * | 2018-07-11 | 2018-10-12 | 中国人民解放军火箭军工程大学 | 基于单目视觉移动机器人目标跟踪及平台控制系统和方法 |
CN109376785A (zh) * | 2018-10-31 | 2019-02-22 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN105931275A (zh) * | 2016-05-23 | 2016-09-07 | 北京暴风魔镜科技有限公司 | 基于移动端单目和imu融合的稳定运动跟踪方法和装置 |
CN108090921A (zh) * | 2016-11-23 | 2018-05-29 | 中国科学院沈阳自动化研究所 | 单目视觉和imu融合的自适应室内定位方法 |
-
2018
- 2018-10-31 CN CN201811282269.8A patent/CN109376785B/zh active Active
-
2019
- 2019-03-21 WO PCT/CN2019/079138 patent/WO2020087846A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180031387A1 (en) * | 2016-07-29 | 2018-02-01 | Carnegie Mellon University | State estimation for aerial vehicles using multi-sensor fusion |
CN107014371A (zh) * | 2017-04-14 | 2017-08-04 | 东南大学 | 基于扩展自适应区间卡尔曼的无人机组合导航方法与装置 |
CN108646760A (zh) * | 2018-07-11 | 2018-10-12 | 中国人民解放军火箭军工程大学 | 基于单目视觉移动机器人目标跟踪及平台控制系统和方法 |
CN109376785A (zh) * | 2018-10-31 | 2019-02-22 | 东南大学 | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 |
Non-Patent Citations (2)
Title |
---|
XIE YUNYU: "Research on Monocular Vision Trajectory Tracking Method Based on Extended Kalman Filter", CHINA MASTER S THESES FULL-TEXT DATABASE, 1 March 2017 (2017-03-01), pages 1 - 57, XP055704006 * |
ZHANG, ZHANYU: "Study on monocular vision SLAM based on extended Kalman filtering", DISSERTATION, 24 November 2010 (2010-11-24), pages 1 - 62, XP009520932 * |
Cited By (181)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113701745A (zh) * | 2020-05-21 | 2021-11-26 | 杭州海康威视数字技术股份有限公司 | 一种外参变化检测方法、装置、电子设备及检测系统 |
CN113701745B (zh) * | 2020-05-21 | 2024-03-08 | 杭州海康威视数字技术股份有限公司 | 一种外参变化检测方法、装置、电子设备及检测系统 |
CN111578937A (zh) * | 2020-05-29 | 2020-08-25 | 天津工业大学 | 同时优化外参数的视觉惯性里程计系统 |
CN111578937B (zh) * | 2020-05-29 | 2024-01-09 | 上海新天策数字科技有限公司 | 同时优化外参数的视觉惯性里程计系统 |
CN111833281A (zh) * | 2020-06-08 | 2020-10-27 | 上海宇航系统工程研究所 | 面向可重复使用火箭回收的多视觉敏感器数据融合方法 |
CN111833281B (zh) * | 2020-06-08 | 2024-04-09 | 上海宇航系统工程研究所 | 面向可重复使用火箭回收的多视觉敏感器数据融合方法 |
CN111984919A (zh) * | 2020-06-16 | 2020-11-24 | 济南大学 | 水泥回转窑温度场与物料密度的计算方法及系统 |
CN111984919B (zh) * | 2020-06-16 | 2023-06-23 | 济南大学 | 水泥回转窑温度场与物料密度的计算方法及系统 |
CN111739063B (zh) * | 2020-06-23 | 2023-08-18 | 郑州大学 | 一种基于多传感器融合的电力巡检机器人定位方法 |
CN111739063A (zh) * | 2020-06-23 | 2020-10-02 | 郑州大学 | 一种基于多传感器融合的电力巡检机器人定位方法 |
CN111985300A (zh) * | 2020-06-29 | 2020-11-24 | 魔门塔(苏州)科技有限公司 | 自动驾驶动态目标定位方法、装置、电子设备及存储介质 |
CN111985300B (zh) * | 2020-06-29 | 2023-11-03 | 魔门塔(苏州)科技有限公司 | 自动驾驶动态目标定位方法、装置、电子设备及存储介质 |
CN113932820A (zh) * | 2020-06-29 | 2022-01-14 | 杭州海康威视数字技术股份有限公司 | 对象检测的方法和装置 |
EP4155873A4 (en) * | 2020-07-01 | 2023-11-08 | Qingdao Pico Technology Co., Ltd. | HYBRID TRACKING METHOD AND APPARATUS FOR MULTIPLE-SENSOR HANDLE CONTROL |
CN111949123B (zh) * | 2020-07-01 | 2023-08-08 | 青岛小鸟看看科技有限公司 | 多传感器手柄控制器混合追踪方法及装置 |
US12008173B2 (en) | 2020-07-01 | 2024-06-11 | Qingdao Pico Technology Co., Ltd. | Multi-sensor handle controller hybrid tracking method and device |
CN111949123A (zh) * | 2020-07-01 | 2020-11-17 | 青岛小鸟看看科技有限公司 | 多传感器手柄控制器混合追踪方法及装置 |
CN112131928A (zh) * | 2020-08-04 | 2020-12-25 | 浙江工业大学 | 一种rgb-d图像特征融合的人体姿态实时估计方法 |
CN112114665A (zh) * | 2020-08-23 | 2020-12-22 | 西北工业大学 | 一种基于多模态融合的手部追踪方法 |
CN112129287A (zh) * | 2020-09-24 | 2020-12-25 | 北京华捷艾米科技有限公司 | 一种基于视觉惯性里程计处理的方法和相关装置 |
CN114322996B (zh) * | 2020-09-30 | 2024-03-19 | 阿里巴巴集团控股有限公司 | 一种多传感器融合定位系统的位姿优化方法和装置 |
CN114322996A (zh) * | 2020-09-30 | 2022-04-12 | 阿里巴巴集团控股有限公司 | 一种多传感器融合定位系统的位姿优化方法和装置 |
CN112284381B (zh) * | 2020-10-19 | 2022-09-13 | 北京华捷艾米科技有限公司 | 视觉惯性实时初始化对准方法及系统 |
CN112284381A (zh) * | 2020-10-19 | 2021-01-29 | 北京华捷艾米科技有限公司 | 视觉惯性实时初始化对准方法及系统 |
CN112378396A (zh) * | 2020-10-29 | 2021-02-19 | 江苏集萃未来城市应用技术研究所有限公司 | 基于抗差lm视觉惯性里程计与uwb混合高精度室内定位方法 |
CN112269317B (zh) * | 2020-11-04 | 2024-03-15 | 天津大学 | 一种基于扩展卡尔曼滤波器的双边遥操作控制方法 |
CN112269317A (zh) * | 2020-11-04 | 2021-01-26 | 天津大学 | 一种基于扩展卡尔曼滤波器的双边遥操作控制方法 |
CN112346032B (zh) * | 2020-11-10 | 2023-07-14 | 中国科学院数学与系统科学研究院 | 基于一致性扩展卡尔曼滤波的单红外传感器目标定轨方法 |
CN112346032A (zh) * | 2020-11-10 | 2021-02-09 | 中国科学院数学与系统科学研究院 | 基于一致性扩展卡尔曼滤波的单红外传感器目标定轨方法 |
CN114812610A (zh) * | 2020-11-16 | 2022-07-29 | 浙江商汤科技开发有限公司 | 视觉惯性系统的参数标定方法及装置、电子设备和介质 |
CN112562077A (zh) * | 2020-11-25 | 2021-03-26 | 西北工业大学 | 一种融合pdr和先验地图的行人室内定位方法 |
CN112472432A (zh) * | 2020-11-25 | 2021-03-12 | 武汉理工大学 | 一种手杖-轮椅自动跟随系统及方法 |
CN112562077B (zh) * | 2020-11-25 | 2024-01-09 | 西北工业大学 | 一种融合pdr和先验地图的行人室内定位方法 |
CN112472432B (zh) * | 2020-11-25 | 2023-06-30 | 武汉理工大学 | 一种手杖-轮椅自动跟随系统及方法 |
CN112734765A (zh) * | 2020-12-03 | 2021-04-30 | 华南理工大学 | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 |
CN112734765B (zh) * | 2020-12-03 | 2023-08-22 | 华南理工大学 | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 |
CN112683271B (zh) * | 2020-12-17 | 2023-10-27 | 东南大学 | 一种考虑可观测性的水域观测平台的组合定位方法 |
CN112683271A (zh) * | 2020-12-17 | 2021-04-20 | 东南大学 | 一种考虑可观测性的水域观测平台的组合定位方法 |
CN112697142A (zh) * | 2020-12-21 | 2021-04-23 | 南京航空航天大学 | 一种基于预积分理论的惯性/轮速里程计融合定位与参数优化方法 |
CN112697142B (zh) * | 2020-12-21 | 2023-03-10 | 南京航空航天大学 | 一种基于预积分理论的惯性/轮速里程计融合定位与参数优化方法 |
CN112712565B (zh) * | 2020-12-28 | 2024-03-01 | 中国民航大学 | 基于视觉与imu融合的飞机蒙皮损伤无人机绕检定位方法 |
CN112712565A (zh) * | 2020-12-28 | 2021-04-27 | 中国民航大学 | 基于视觉与imu融合的飞机蒙皮损伤无人机绕检定位方法 |
CN112833892A (zh) * | 2020-12-31 | 2021-05-25 | 杭州普锐视科技有限公司 | 一种基于轨迹对齐的语义建图方法 |
CN112833788A (zh) * | 2021-01-07 | 2021-05-25 | 深圳许多米科技有限公司 | 一种枪体定位方法、装置、设备、仿真枪及可读存储介质 |
CN112880674A (zh) * | 2021-01-21 | 2021-06-01 | 深圳市镭神智能系统有限公司 | 一种行驶设备的定位方法、装置、设备及存储介质 |
CN112883134A (zh) * | 2021-02-01 | 2021-06-01 | 上海三一重机股份有限公司 | 数据融合建图方法、装置、电子设备及存储介质 |
CN113008229A (zh) * | 2021-02-26 | 2021-06-22 | 南京理工大学 | 一种基于低成本车载传感器的分布式自主组合导航方法 |
CN113008229B (zh) * | 2021-02-26 | 2024-04-05 | 南京理工大学 | 一种基于低成本车载传感器的分布式自主组合导航方法 |
CN113091748A (zh) * | 2021-04-12 | 2021-07-09 | 北京航空航天大学 | 一种室内自校准导航定位方法 |
CN113220017A (zh) * | 2021-04-16 | 2021-08-06 | 同济大学 | 一种地下无人机飞行方法及系统 |
CN113324544A (zh) * | 2021-04-19 | 2021-08-31 | 北京化工大学 | 一种基于图优化的uwb/imu的室内移动机器人协同定位方法 |
CN113324544B (zh) * | 2021-04-19 | 2023-02-28 | 北京化工大学 | 一种基于图优化的uwb/imu的室内移动机器人协同定位方法 |
CN113189578A (zh) * | 2021-04-20 | 2021-07-30 | 浙江大学 | 一种扩展目标跟踪方法 |
CN113189578B (zh) * | 2021-04-20 | 2022-09-16 | 浙江大学 | 一种扩展目标跟踪方法 |
CN115307626A (zh) * | 2021-05-06 | 2022-11-08 | 北京航通云科技有限公司 | 一种应用于小型无人机的冗余定位方法 |
CN113240597B (zh) * | 2021-05-08 | 2024-04-26 | 西北工业大学 | 基于视觉惯性信息融合的三维软件稳像方法 |
CN113240597A (zh) * | 2021-05-08 | 2021-08-10 | 西北工业大学 | 基于视觉惯性信息融合的三维软件稳像方法 |
CN113124856A (zh) * | 2021-05-21 | 2021-07-16 | 天津大学 | 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法 |
CN113124856B (zh) * | 2021-05-21 | 2023-03-14 | 天津大学 | 基于uwb在线锚点的视觉惯性紧耦合里程计及计量方法 |
CN113298881A (zh) * | 2021-05-27 | 2021-08-24 | 中国科学院沈阳自动化研究所 | 单目相机-imu-机械臂的空间联合标定方法 |
CN113298881B (zh) * | 2021-05-27 | 2023-09-12 | 中国科学院沈阳自动化研究所 | 单目相机-imu-机械臂的空间联合标定方法 |
CN113640791B (zh) * | 2021-06-09 | 2023-12-26 | 西安电子科技大学 | 一种基于距离和瞬时速度的空间目标三维姿态重构方法 |
CN113640791A (zh) * | 2021-06-09 | 2021-11-12 | 西安电子科技大学 | 一种基于距离和瞬时速度的空间目标三维姿态重构方法 |
CN113341718A (zh) * | 2021-06-10 | 2021-09-03 | 浙江大学 | 欠驱动水面机器人的水动力系数混合自适应估计方法 |
CN113551671B (zh) * | 2021-06-10 | 2023-04-11 | 中国科学院西安光学精密机械研究所 | 一种无人机姿态与位置的实时高精度测量方法 |
CN113551671A (zh) * | 2021-06-10 | 2021-10-26 | 中国科学院西安光学精密机械研究所 | 一种无人机姿态与位置的实时高精度测量系统及方法 |
CN113313116A (zh) * | 2021-06-20 | 2021-08-27 | 西北工业大学 | 一种基于视觉的水下人工目标准确检测与定位方法 |
CN113408623A (zh) * | 2021-06-21 | 2021-09-17 | 北京理工大学 | 非合作目标柔性附着多节点融合估计方法 |
CN113408623B (zh) * | 2021-06-21 | 2022-10-04 | 北京理工大学 | 非合作目标柔性附着多节点融合估计方法 |
CN113406682B (zh) * | 2021-06-22 | 2024-03-12 | 腾讯科技(深圳)有限公司 | 一种定位方法、装置、电子设备及存储介质 |
CN113406682A (zh) * | 2021-06-22 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 一种定位方法、装置、电子设备及存储介质 |
CN113432603A (zh) * | 2021-06-25 | 2021-09-24 | 中国船舶重工集团公司第七0七研究所 | 一种复杂环境下母平台与子平台相对位姿测量方法 |
CN113432603B (zh) * | 2021-06-25 | 2022-09-16 | 中国船舶重工集团公司第七0七研究所 | 一种复杂环境下母平台与子平台相对位姿测量方法 |
CN113674327B (zh) * | 2021-07-01 | 2024-04-12 | 北京航空航天大学 | 一种适用于无人机空中防撞的入侵机航迹融合跟踪方法 |
CN113674327A (zh) * | 2021-07-01 | 2021-11-19 | 北京航空航天大学 | 一种适用于无人机空中防撞的入侵机航迹融合跟踪方法 |
CN113551666A (zh) * | 2021-07-06 | 2021-10-26 | 杭州鸿泉物联网技术股份有限公司 | 自动驾驶多传感器融合定位方法和装置、设备及介质 |
CN113516714A (zh) * | 2021-07-15 | 2021-10-19 | 北京理工大学 | 基于imu预积分信息加速特征匹配的视觉slam方法 |
CN113608556B (zh) * | 2021-07-19 | 2023-06-30 | 西北工业大学 | 一种基于多传感器融合的多机器人相对定位方法 |
CN113608556A (zh) * | 2021-07-19 | 2021-11-05 | 西北工业大学 | 一种基于多传感器融合的多机器人相对定位方法 |
CN113534227A (zh) * | 2021-07-26 | 2021-10-22 | 中国电子科技集团公司第五十四研究所 | 一种适用于复杂非合作场景的多传感器融合绝对定位方法 |
CN113534227B (zh) * | 2021-07-26 | 2022-07-01 | 中国电子科技集团公司第五十四研究所 | 一种适用于复杂非合作场景的多传感器融合绝对定位方法 |
CN113709662B (zh) * | 2021-08-05 | 2023-12-01 | 北京理工大学重庆创新中心 | 一种基于超宽带的自主式三维反演定位方法 |
CN113709662A (zh) * | 2021-08-05 | 2021-11-26 | 北京理工大学重庆创新中心 | 一种基于超宽带的自主式三维反演定位方法 |
CN113674412A (zh) * | 2021-08-12 | 2021-11-19 | 浙江工商大学 | 基于位姿融合优化的室内地图构建方法、系统及存储介质 |
CN113674412B (zh) * | 2021-08-12 | 2023-08-29 | 浙江工商大学 | 基于位姿融合优化的室内地图构建方法、系统及存储介质 |
CN113865584B (zh) * | 2021-08-24 | 2024-05-03 | 知微空间智能科技(苏州)有限公司 | 一种基于视觉惯性里程计的uwb三维寻物方法和装置 |
CN113865584A (zh) * | 2021-08-24 | 2021-12-31 | 知微空间智能科技(苏州)有限公司 | 一种基于视觉惯性里程计的uwb三维寻物方法和装置 |
CN113724337B (zh) * | 2021-08-30 | 2024-02-23 | 合肥工业大学 | 一种无需依赖云台角度的相机动态外参标定方法及装置 |
CN113724337A (zh) * | 2021-08-30 | 2021-11-30 | 合肥工业大学 | 一种无需依赖云台角度的相机动态外参标定方法及装置 |
CN113938825A (zh) * | 2021-10-15 | 2022-01-14 | 太原理工大学 | 一种基于蓝牙aoa的综采工作面采煤机定位方法及系统 |
CN114018250A (zh) * | 2021-10-18 | 2022-02-08 | 杭州鸿泉物联网技术股份有限公司 | 惯性导航方法、电子设备、存储介质和计算机程序产品 |
CN114018250B (zh) * | 2021-10-18 | 2024-05-03 | 杭州鸿泉物联网技术股份有限公司 | 惯性导航方法、电子设备、存储介质和计算机程序产品 |
CN113759982A (zh) * | 2021-10-19 | 2021-12-07 | 中国人民解放军军事科学院国防科技创新研究院 | 一种仅基于视线测量信息的无人机编队相对状态估计方法 |
CN113759982B (zh) * | 2021-10-19 | 2024-05-28 | 中国人民解放军军事科学院国防科技创新研究院 | 一种仅基于视线测量信息的无人机编队相对状态估计方法 |
CN113989371B (zh) * | 2021-10-28 | 2024-05-03 | 山东大学 | 一种基于视觉的模块化平台相对位姿估计系统 |
CN113989371A (zh) * | 2021-10-28 | 2022-01-28 | 山东大学 | 一种基于视觉的模块化平台相对位姿估计系统 |
CN114040128B (zh) * | 2021-11-24 | 2024-03-01 | 视辰信息科技(上海)有限公司 | 时间戳延时标定方法及系统、设备和计算机可读存储介质 |
CN114040128A (zh) * | 2021-11-24 | 2022-02-11 | 视辰信息科技(上海)有限公司 | 时间戳延时标定方法及系统、设备和计算机可读存储介质 |
CN114485577A (zh) * | 2021-12-13 | 2022-05-13 | 丁莹莹 | 一种基于视觉的无人机着陆姿态估计方法 |
CN114485577B (zh) * | 2021-12-13 | 2024-04-12 | 丁莹莹 | 一种基于视觉的无人机着陆姿态估计方法 |
CN114322943A (zh) * | 2021-12-15 | 2022-04-12 | 南京航空航天大学 | 一种基于无人机前视图像的目标距离测量方法及装置 |
CN114485574A (zh) * | 2021-12-21 | 2022-05-13 | 武汉大学 | 基于卡尔曼滤波模型的三线阵影像pos辅助对地定位方法 |
CN114296069A (zh) * | 2021-12-23 | 2022-04-08 | 青岛科技大学 | 一种基于视觉雷达的小天体探测器多模型导航方法 |
CN114296069B (zh) * | 2021-12-23 | 2024-05-28 | 青岛科技大学 | 一种基于视觉雷达的小天体探测器多模型导航方法 |
CN114280925A (zh) * | 2021-12-24 | 2022-04-05 | 合肥工业大学 | 基于单目视觉的可变杆长倒立摆目标捕捉控制方法及系统 |
CN114323003A (zh) * | 2021-12-27 | 2022-04-12 | 青岛慧拓智能机器有限公司 | 一种基于umb、imu及激光雷达的井工矿融合定位方法 |
CN114554389B (zh) * | 2021-12-29 | 2023-06-20 | 重庆邮电大学 | 一种行人导航定位系统融合方法 |
CN114554389A (zh) * | 2021-12-29 | 2022-05-27 | 重庆邮电大学 | 一种行人导航定位系统融合方法 |
CN114459467A (zh) * | 2021-12-30 | 2022-05-10 | 北京理工大学 | 一种未知救援环境中基于vi-slam的目标定位方法 |
CN114459467B (zh) * | 2021-12-30 | 2024-05-03 | 北京理工大学 | 一种未知救援环境中基于vi-slam的目标定位方法 |
CN114323050A (zh) * | 2022-01-07 | 2022-04-12 | 苏州挚途科技有限公司 | 车辆定位方法、装置和电子设备 |
CN114485648B (zh) * | 2022-02-08 | 2024-02-02 | 北京理工大学 | 一种基于仿生复眼惯性系统的导航定位方法 |
CN114485648A (zh) * | 2022-02-08 | 2022-05-13 | 北京理工大学 | 一种基于仿生复眼惯性系统的导航定位方法 |
CN114608568A (zh) * | 2022-02-22 | 2022-06-10 | 北京理工大学 | 一种基于多传感器信息即时融合定位方法 |
CN114608568B (zh) * | 2022-02-22 | 2024-05-03 | 北京理工大学 | 一种基于多传感器信息即时融合定位方法 |
CN115060260A (zh) * | 2022-02-22 | 2022-09-16 | 上海大学 | 一种基于anfis-eskf的地面移动机器人多传感器融合定位方法 |
CN114529585A (zh) * | 2022-02-23 | 2022-05-24 | 北京航空航天大学 | 基于深度视觉和惯性测量的移动设备自主定位方法 |
CN115031726A (zh) * | 2022-03-29 | 2022-09-09 | 哈尔滨工程大学 | 一种数据融合导航定位方法 |
CN114567401B (zh) * | 2022-04-14 | 2023-02-14 | 中国人民解放军火箭军工程大学 | 一种基于感知通信一体化的无人机蜂群状态联合估计方法 |
CN114567401A (zh) * | 2022-04-14 | 2022-05-31 | 中国人民解放军火箭军工程大学 | 一种基于感知通信一体化的无人机蜂群状态联合估计方法 |
CN114993296B (zh) * | 2022-04-19 | 2024-03-15 | 北京自动化控制设备研究所 | 一种制导炮弹高动态组合导航方法 |
CN114993296A (zh) * | 2022-04-19 | 2022-09-02 | 北京自动化控制设备研究所 | 一种制导炮弹高动态组合导航方法 |
CN114895241A (zh) * | 2022-05-09 | 2022-08-12 | 知微空间智能科技(苏州)有限公司 | 一种基于数据和模型联合驱动的弹性融合定位方法和装置 |
CN114895241B (zh) * | 2022-05-09 | 2024-05-03 | 知微空间智能科技(苏州)有限公司 | 一种基于数据和模型联合驱动的弹性融合定位方法和装置 |
CN114973660A (zh) * | 2022-05-13 | 2022-08-30 | 黄河科技学院 | 一种模型线性化迭代更新法的交通决策方法 |
CN114973660B (zh) * | 2022-05-13 | 2023-10-24 | 黄河科技学院 | 一种模型线性化迭代更新法的交通决策方法 |
CN114820721B (zh) * | 2022-05-17 | 2024-03-26 | 苏州轻棹科技有限公司 | 一种卡尔曼滤波观测噪声的可视化调制方法和装置 |
CN114820721A (zh) * | 2022-05-17 | 2022-07-29 | 苏州轻棹科技有限公司 | 一种卡尔曼滤波观测噪声的可视化调制方法和装置 |
CN114838732A (zh) * | 2022-05-18 | 2022-08-02 | 北京航空航天大学 | 一种基于图优化的通信受限环境下协同导航方法 |
CN114838732B (zh) * | 2022-05-18 | 2024-04-09 | 北京航空航天大学 | 一种基于图优化的通信受限环境下协同导航方法 |
CN114979943A (zh) * | 2022-05-18 | 2022-08-30 | 东南大学 | 一种基于raukf的rssi室内定位算法 |
CN115024715A (zh) * | 2022-05-20 | 2022-09-09 | 北京航天时代光电科技有限公司 | 一种人体运动智能测量与数字训练系统 |
CN115127547A (zh) * | 2022-06-27 | 2022-09-30 | 长安大学 | 一种基于捷联惯导系统和图像定位的隧道检测车定位方法 |
CN115127547B (zh) * | 2022-06-27 | 2024-04-19 | 长安大学 | 一种基于捷联惯导系统和图像定位的隧道检测车定位方法 |
CN115265591A (zh) * | 2022-07-15 | 2022-11-01 | 北京航空航天大学 | 一种双轴旋转惯导imu与转位机构安装误差的标定方法 |
CN115265591B (zh) * | 2022-07-15 | 2024-04-09 | 北京航空航天大学 | 一种双轴旋转惯导imu与转位机构安装误差的标定方法 |
CN114964266A (zh) * | 2022-07-26 | 2022-08-30 | 中国人民解放军国防科技大学 | 基于多视觉矢量的运动状态协同群组相对姿态确定方法 |
CN115639521A (zh) * | 2022-10-24 | 2023-01-24 | 青岛柯锐思德电子科技有限公司 | 一种基于uwb的移动目标运动状态判断方法 |
CN115859212A (zh) * | 2022-11-17 | 2023-03-28 | 广东智能无人系统研究院 | 一种用于海洋设备的自主布放回收的方法及系统 |
CN115574816A (zh) * | 2022-11-24 | 2023-01-06 | 东南大学 | 仿生视觉多源信息智能感知无人平台 |
CN115752442A (zh) * | 2022-12-07 | 2023-03-07 | 无锡恺韵来机器人有限公司 | 一种基于单目视觉辅助惯性定位方法 |
CN115752442B (zh) * | 2022-12-07 | 2024-03-12 | 运来智能装备(无锡)有限公司 | 一种基于单目视觉辅助惯性定位方法 |
CN115616641A (zh) * | 2022-12-16 | 2023-01-17 | 南京航空航天大学 | 一种基于粒子滤波的城市峡谷中组合导航高精度定位方法 |
CN115930971B (zh) * | 2023-02-01 | 2023-09-19 | 七腾机器人有限公司 | 一种机器人定位与建图的数据融合处理方法 |
CN115930971A (zh) * | 2023-02-01 | 2023-04-07 | 七腾机器人有限公司 | 一种机器人定位与建图的数据融合处理方法 |
CN115855456A (zh) * | 2023-03-03 | 2023-03-28 | 北京航空航天大学 | 一种基于视觉无人机平台的舰载机光学助降系统标校方法 |
CN116519011B (zh) * | 2023-03-11 | 2024-03-01 | 中国人民解放军国防科技大学 | 基于Psi角误差修正模型的长航时双惯导协同标定方法 |
CN116519011A (zh) * | 2023-03-11 | 2023-08-01 | 中国人民解放军国防科技大学 | 基于Psi角误差修正模型的长航时双惯导协同标定方法 |
CN116182873A (zh) * | 2023-05-04 | 2023-05-30 | 长沙驰芯半导体科技有限公司 | 室内定位方法、系统及计算机可读介质 |
CN116182873B (zh) * | 2023-05-04 | 2023-07-11 | 长沙驰芯半导体科技有限公司 | 室内定位方法、系统及计算机可读介质 |
CN116609776A (zh) * | 2023-05-23 | 2023-08-18 | 兰州理工大学 | 复杂环境下的基于人工势场法的星凸形扩展目标跟踪方法 |
CN116609776B (zh) * | 2023-05-23 | 2023-11-14 | 兰州理工大学 | 复杂环境下的基于人工势场法的星凸形扩展目标跟踪方法 |
CN116736286B (zh) * | 2023-05-24 | 2024-02-06 | 兰州理工大学 | 基于随机超曲面的渐进贝叶斯扩展目标跟踪方法及系统 |
CN116736286A (zh) * | 2023-05-24 | 2023-09-12 | 兰州理工大学 | 基于随机超曲面的渐进贝叶斯扩展目标跟踪方法及系统 |
CN116380056B (zh) * | 2023-06-02 | 2023-08-15 | 中国船舶集团有限公司第七〇七研究所 | 惯性定位方法、装置、电子设备及存储介质 |
CN116380056A (zh) * | 2023-06-02 | 2023-07-04 | 中国船舶集团有限公司第七〇七研究所 | 惯性定位方法、装置、电子设备及存储介质 |
CN116543057B (zh) * | 2023-06-27 | 2023-10-10 | 华南理工大学 | 一种水下多相机与imu一体化标定方法 |
CN116543057A (zh) * | 2023-06-27 | 2023-08-04 | 华南理工大学 | 一种水下多相机与imu一体化标定方法 |
CN116502478B (zh) * | 2023-06-29 | 2023-09-01 | 中国电建集团华东勘测设计研究院有限公司 | 一种基于海底地形监测的自提升平台下桩辅助决策方法 |
CN116502478A (zh) * | 2023-06-29 | 2023-07-28 | 中国电建集团华东勘测设计研究院有限公司 | 一种基于海底地形监测的自提升平台下桩辅助决策方法 |
CN116592896B (zh) * | 2023-07-17 | 2023-09-29 | 山东水发黄水东调工程有限公司 | 基于卡尔曼滤波和红外热成像的水下机器人导航定位方法 |
CN116592896A (zh) * | 2023-07-17 | 2023-08-15 | 山东水发黄水东调工程有限公司 | 基于卡尔曼滤波和红外热成像的水下机器人导航定位方法 |
CN116734864A (zh) * | 2023-08-14 | 2023-09-12 | 中国西安卫星测控中心 | 一种常值观测偏差条件下航天器自主相对导航方法 |
CN116734864B (zh) * | 2023-08-14 | 2023-11-28 | 中国西安卫星测控中心 | 一种常值观测偏差条件下航天器自主相对导航方法 |
CN117058430B (zh) * | 2023-10-12 | 2023-12-22 | 北京万龙精益科技有限公司 | 用于视场匹配的方法、装置、电子设备和存储介质 |
CN117058430A (zh) * | 2023-10-12 | 2023-11-14 | 北京万龙精益科技有限公司 | 用于视场匹配的方法、装置、电子设备和存储介质 |
CN117148406B (zh) * | 2023-10-30 | 2024-01-30 | 山东大学 | 一种室内外无缝弹性融合定位方法、系统、介质及设备 |
CN117148406A (zh) * | 2023-10-30 | 2023-12-01 | 山东大学 | 一种室内外无缝弹性融合定位方法、系统、介质及设备 |
CN117495900B (zh) * | 2023-11-06 | 2024-06-07 | 长沙理工大学 | 基于相机运动趋势估计的多目标视觉跟踪方法 |
CN117495900A (zh) * | 2023-11-06 | 2024-02-02 | 长沙理工大学 | 基于相机运动趋势估计的多目标视觉跟踪方法 |
CN117214857B (zh) * | 2023-11-09 | 2024-02-02 | 中国人民解放军海军航空大学 | 一种三维场景下高斯多假设多扩展目标的跟踪方法 |
CN117214857A (zh) * | 2023-11-09 | 2023-12-12 | 中国人民解放军海军航空大学 | 一种三维场景下高斯多假设多扩展目标的跟踪方法 |
CN117433564A (zh) * | 2023-12-05 | 2024-01-23 | 北京航空航天大学 | 一种基于太阳敏感器辅助的偏振传感器误差在线标定方法 |
CN117433564B (zh) * | 2023-12-05 | 2024-03-01 | 北京航空航天大学 | 一种基于太阳敏感器辅助的偏振传感器误差在线标定方法 |
CN117346794B (zh) * | 2023-12-05 | 2024-02-23 | 山东省科学院海洋仪器仪表研究所 | 一种用于浒苔跟踪的无人船组合导航系统及导航方法 |
CN117346794A (zh) * | 2023-12-05 | 2024-01-05 | 山东省科学院海洋仪器仪表研究所 | 一种用于浒苔跟踪的无人船组合导航系统及导航方法 |
CN117609737B (zh) * | 2024-01-18 | 2024-03-19 | 中国人民解放军火箭军工程大学 | 一种惯性导航系统健康状态预测方法、系统、设备及介质 |
CN117609737A (zh) * | 2024-01-18 | 2024-02-27 | 中国人民解放军火箭军工程大学 | 一种惯性导航系统健康状态预测方法、系统、设备及介质 |
CN117788302A (zh) * | 2024-02-26 | 2024-03-29 | 山东全维地信科技有限公司 | 一种测绘图形处理系统 |
CN117788302B (zh) * | 2024-02-26 | 2024-05-14 | 山东全维地信科技有限公司 | 一种测绘图形处理系统 |
CN117875226A (zh) * | 2024-03-13 | 2024-04-12 | 江南大学 | 基于流形空间协方差递推的连续离散卡尔曼状态估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109376785B (zh) | 2021-09-24 |
CN109376785A (zh) | 2019-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020087846A1 (zh) | 基于迭代扩展卡尔曼滤波融合惯性与单目视觉的导航方法 | |
CN110375738B (zh) | 一种融合惯性测量单元的单目同步定位与建图位姿解算方法 | |
CN110030994B (zh) | 一种基于单目的鲁棒性视觉惯性紧耦合定位方法 | |
CN108225308B (zh) | 一种基于四元数的扩展卡尔曼滤波算法的姿态解算方法 | |
CN104501814B (zh) | 一种基于视觉和惯性信息的姿态与位置估计方法 | |
CN110702107A (zh) | 一种单目视觉惯性组合的定位导航方法 | |
CN108036785A (zh) | 一种基于直接法与惯导融合的飞行器位姿估计方法 | |
CN112649016A (zh) | 一种基于点线初始化的视觉惯性里程计方法 | |
CN105698765A (zh) | 双imu单目视觉组合测量非惯性系下目标物位姿方法 | |
WO2020192326A1 (zh) | 一种头部运动跟踪方法和系统 | |
CN113551665B (zh) | 一种用于运动载体的高动态运动状态感知系统及感知方法 | |
KR100558367B1 (ko) | Gps및 ins를 이용한 수치지도 제작 시스템 및 방법 | |
CN114529576A (zh) | 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法 | |
CN115540860A (zh) | 一种多传感器融合位姿估计算法 | |
CN111307114B (zh) | 基于运动参考单元的水面舰船水平姿态测量方法 | |
CN115560760A (zh) | 一种面向无人机的视觉/激光测距高空导航方法 | |
CN112985450B (zh) | 一种具有同步时间误差估计的双目视觉惯性里程计方法 | |
CN106352897A (zh) | 一种基于单目视觉传感器的硅mems陀螺误差估计与校正方法 | |
WO2024041347A1 (zh) | 机器人以及基于多传感器的三维建图方法、存储介质 | |
CN117073720A (zh) | 弱环境与弱动作控制下快速视觉惯性标定与初始化方法及设备 | |
CN112729283A (zh) | 一种基于深度相机/mems惯导/里程计组合的导航方法 | |
CN115574816B (zh) | 仿生视觉多源信息智能感知无人平台 | |
CN114543786B (zh) | 一种基于视觉惯性里程计的爬壁机器人定位方法 | |
CN112489176B (zh) | 一种融合ESKF,g2o和点云匹配的紧耦合建图方法 | |
CN114440877A (zh) | 一种异步多相机视觉惯性里程计定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19878981 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19878981 Country of ref document: EP Kind code of ref document: A1 |
|
32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 22.06.2021) |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19878981 Country of ref document: EP Kind code of ref document: A1 |