CN106709223B - 基于惯性引导采样的视觉imu方向估计方法 - Google Patents
基于惯性引导采样的视觉imu方向估计方法 Download PDFInfo
- Publication number
- CN106709223B CN106709223B CN201510455818.7A CN201510455818A CN106709223B CN 106709223 B CN106709223 B CN 106709223B CN 201510455818 A CN201510455818 A CN 201510455818A CN 106709223 B CN106709223 B CN 106709223B
- Authority
- CN
- China
- Prior art keywords
- imu
- indicate
- point
- vision
- direction estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提出了一种基于惯性引导采样的视觉IMU方向估计方法,即利用IMU的方向估计信息,引导视觉方向估计中匹配点对的采样过程和误匹配点的移除过程。包括基于增益自适应互补滤波器的IMU方向估计、基于尺度旋转不变的特征检测以及基于视觉IMU融合的方向估计三个步骤。本发明方法采用增益自适应互补滤波器,能够在初始迭代过程中剔除明显的误匹配点对,提高了方向估计的准确性;将IMU的姿态估计信息作为初值引入到视觉方向估计中,通过迭代移除误匹配点对,加快了方向估计的进程,有效避免了采用随机初始值带来的运算量大的问题。本发明方法适用性广、鲁棒性好、准确率高,可广泛应用在人体康复训练的动作捕捉过程中。
Description
技术领域
本发明涉及计算机视觉技术以及数据处理和信息融合技术,具体是一种基于惯性引导采样的视觉IMU方向估计方法。
背景技术
人体动作捕捉系统获得的高分辨率和大容量的数据可以被用来研究疾病的起因,并有助于疾病的预防和治疗,广泛应用于生物医疗领域,例如,临床的步态分析、门诊病人的身体复原、腿部关节复原、老年人活动监测和评估以及视觉障碍人群的恢复。随着MEMS传感器的成本越来越低、体积越来越小,出现了加速计、陀螺计和磁力计集成的惯性测量单元(Inertial Measurement Unit,IMU)。现有的人体动作捕捉系统就是通过在人体各个部位固定数量不等的IMU来实现的。考虑到传感器模块的配置以及人体的限制,人体的姿势数据可以通过信号融合来获得。IMU优势在于不依赖于某个特定的基础条件,也不受视线的限制;然而,1)方向估测容易受本地磁场的影响,而地球磁场却容易受到周围电子产品或者是铁制材料的影响;2)位置和方向测量是根据集成的双惯性传感器获得的,该方法在长时间的对人体进行跟踪的时候会产生低频漂移以及错误积累的问题,无法对人体动作进行准确的定量评估。上述两个缺点使得IMU不利于其在医疗领域的推广应用。
为了克服IMU的局限性,有学者提出了利用可穿戴的摄像机对IMU的漂移进行补偿的视觉IMU方向估计方法,通过采集摄像机对周围环境的观测图像序列,得到基于视觉的方向估计值,再通过卡尔曼滤波的方法与IMU进行融合,从而实现更为准确的方向估计。然而这一补偿方法在图像处理过程中存在相邻帧特征点匹配耗时和误匹配的问题,大大制约了运算速度和计算精度。
发明内容
针对现有IMU方向估计方法存在精度低和长时间误差累积的问题,以及基于视觉的方向估计方法存在匹配耗时和误匹配的问题,本发明提出了一种基于惯性引导采样的视觉IMU方向估计方法,充分利用IMU的方向估计信息,引导视觉方向估计中匹配点对的采样过程和误匹配点的移除过程,保证了视觉IMU方向估计的精度,提高了视觉IMU方向估计的运算速度。
本发明为实现上述目的所采用的技术方案是:一种基于惯性引导采样的视觉IMU方向估计方法,包括以下步骤:
步骤1:基于增益自适应互补滤波器的IMU方向估计;
步骤2:基于尺度旋转不变的特征检测方法,检测与匹配特征点检测与匹配;
步骤3:基于视觉IMU融合的方向估计。
所述步骤1包括以下步骤:
步骤1.1:计算陀螺仪的方向估计;
步骤1.2:计算加速计与磁力计的方向估计;
步骤1.3:基于互补滤波算法的方向估计;
步骤1.4:IMU姿态估计。
所述步骤1.1包括以下步骤:
步骤1.1.1:求解t+Δt时刻描述IMU方向的四元数 的变化率
其中,四元数中的q1、q2、q3分量分别对应旋转轴在X、Y、Z方向的投影,q0分量对应IMU围绕旋转轴旋转的角度;符号表示四元数乘积,表示t时刻IMU陀螺仪的四元数估计值,ωt+Δt表示t+Δt时刻陀螺仪的输出值。
步骤1.1.2:求解t+Δt时刻四元数的估计值
步骤1.1.3:归一化处理四元数估计值,得出t+Δt时刻由陀螺仪估计出的四元数
值
所述步骤1.2通过高斯牛顿的迭代优化算法计算加速计与磁力计的方向估计值首先确定初始时刻的加速度值zα和磁场强度值zm,再根据t时刻加速计和磁力计的输出值α(t)和m(t),以最小化估计值误差为目标,建立目标函数:
其中,和分别表示由加速计和磁力计估计值的误差,计算过程为:
其中,表示的共轭四元数。
所述步骤1.3联合t+Δt时刻陀螺仪的方向估计值和以及加速计和磁力计的方向估计值采用增益自适应互补滤波算法求解IMU坐标系下IMU的方向信息
其中,kt表示自适应的增益系数,表示t时刻加速计、磁力计、陀螺仪融合后的方向估计信息,表示t时刻加速计与磁力计的方向估计值。
所述步骤1.4采用运动力学中的扭转表示和指数映射算法,初步估计IMU的姿态信息,具体包括以下步骤:
步骤1.4.1:根据IMU估计出的四元数得到与四元数相对
应的旋转轴ω=(cosωx,cosωy,cosωz)和绕轴旋转的角度θ,求解过程是:θ=2cos-1q0
步骤1.4.2:根据扭转与指数映射理论,将(ω,θ)其映射为坐标系间的旋转和平移。已知初始时刻的位置gglobal,n(0)与坐标系间的转换关系(R,T)后,计算n时刻IMU的位置gglobal,n(θ),其映射关系如下所示:
其中,表示与ω相对应的扭转参数,v表示绕轴旋转的角度。
其中,qg表示初始时刻坐标系原点与载体之间的向量。
所述步骤2包含以下步骤:
步骤2.1:基于SURF算法的特征点检测;
步骤2.2:相邻帧间图像特征点的匹配。
所述步骤2.2具体为:
通过计算特征点描述子之间的欧氏距离实现相邻帧间特征点的匹配,表示P
与P1的特征点描述子之间的欧式距离,表示P与P2的特征点描述子之间的距离,如果与的比值小于预定义的阈值δD,即则接受这一对匹配点;其
中,对于图像中的某个特征点P,其特征点描述子记为DP=[x1,x2,…x64]T;待匹配图像中与P
点对应的第一近邻点和第二近邻点分别记为P1和P2;所述第一近邻点和第二近邻点分别指
待匹配图像的特征点中,与P点描述子欧氏距离最近的描述子的特征点和次近的描述子的
特征点;P1和P2的特征点描述子分别记为P点与P1和P2的特征点描述子之间的欧
式距离和可表示为分别表示为:
所述步骤3包含以下步骤:
步骤3.1:期望步骤得到本次迭代的姿态信息;
步骤3.2:最大化步骤确定本次迭代中的内点集合;
反复迭代步骤3.1和步骤3.2,得到最终的参数估计集合θ*={R*,T*,On *},其中,R*即为可穿戴视觉IMU的方向估计,θ*表示载体姿态与匹配点对集合,T*表示最终解算出的载体的平移分量,On *表示最终做出的匹配点对集合。
所述步骤3.1包含以下步骤:
步骤3.1.1:利用步骤2中得到的内点集合,通过外级线约束方程和最小二乘法估计本质矩阵E;
步骤3.1.2:对本质矩阵E做奇异值分解,估算出载体的姿态信息:旋转分量R和平移分量T;
步骤3.1.3:建立后验贝叶斯估计模型:
其中,(η1,η2,…ηn)表示相邻帧图像间的匹配的特征点对,θ表示视觉IMU姿态估计值和匹配点对的集合,定义为:
θ={R,T,On}
其中,On=(o1,o2,…on)表示匹配点对的集合,元素oi服从伯努利分布,用于判断第i个匹配点对是否正确;oi=1表示样本点为内点;oi=0表示样本点为外点。
所述步骤3.2具体为:判断迭代样本点:
P{oi|{R,T}}=max{P(oi=1|{R,T}),P(oi=0|{R,T})}
其中,P(oi=1|{R,T})和P(oi=0|{R,T})分别表示为:
其中,表示Sampson误差,S和σ为预先设定的窗口大小和方差,取决于具体应用;yn表示第n幅图像中的第i个特征点的坐标,f(xn)表示第n幅图像中的第i个特征点所对应的外级线,oi取值为1或0由P(oi=1|{R,T})和P(oi=0|{R,T})的大小决定:如果P(oi=1|{R,T})≥P(oi=0|{R,T}),则oi取值为1;反之,oi取值为0。
本发明具有以下优点:
1.本发明方法采用增益自适应互补滤波器,能够在初始迭代过程中剔除明显的误匹配点对,提高了方向估计的准确性;
2.本发明将IMU的姿态估计信息作为初值引入到视觉方向估计中,通过迭代移除误匹配点对,加快了方向估计的进程,有效避免了采用随机初始值带来的运算量大的问题。
附图说明
图1为发明方法原理图。
具体实施方式
下面结合附图及实例对本发明做进一步的详细说明。
本发明主要分为三部分,图1所示为本发明方法原理图,具体实现过程如下所述。
步骤1:基于增益自适应互补滤波器的IMU方向估计。
IMU包含三个主要的传感器:三轴陀螺仪、三轴加速计和三轴磁力计。IMU的姿态估计包括三类传感器的方向估计,并对其估计值进行融合。
步骤1.1:计算陀螺仪的方向估计。
步骤1.1.1:求解t+Δt时刻描述IMU方向的四元数 的变化率(也称导数)公式如下:
其中,四元数中的q1、q2、q3分量分别对应旋转轴在X、Y、Z方向的投影,q0分量对应IMU围绕旋转轴旋转的角度;符号表示四元数乘积,表示t时刻IMU陀螺仪的四元数估计值,ωt+Δt表示t+Δt时刻陀螺仪的输出值。
步骤1.1.2:求解t+Δt时刻四元数的估计值
步骤1.1.3:归一化处理四元数估计值,得出t+Δt时刻由陀螺仪估计出的四元数
值
步骤1.2:计算加速计与磁力计的方向估计。
通过高斯牛顿的迭代优化算法[Boyd S,Vandenberghe L.Convex optimization[M].Cambridge universitypress,2004]计算加速计与磁力计的方向估计值首先确定初始时刻的加速度值zα和磁场强度值zm,再根据t时刻加速计和磁力计的输出值α(t)和m(t),以最小化估计值误差为目标,建立目标函数:
其中,和分别表示由加速计和磁力计估计值的误差,计算过程为:
其中,表示的共轭四元数。
步骤1.3:基于互补滤波算法的方向估计。
联合t+Δt时刻陀螺仪的方向估计值和以及加速计和磁力计的方向估计值采用增益自适应互补滤波算法[TianY,Wei H,Tan J.An adaptive-gain complementary filter for real-time human motion tracking with margsensors in free-living environments[J].Neural Systems and RehabilitationEngineering,IEEE Transactions on,2013,21(2):254-264]求解IMU坐标系下IMU的方向信息
其中kt表示自适应的增益系数,表示t时刻加速计、磁力计、陀螺仪融合后的方向估计信息,表示t时刻加速计与磁力计的方向估计值。
步骤1.4:IMU姿态估计。
采用运动力学中的扭转表示和指数映射算法,初步估计IMU的姿态信息,具体过程包括:
步骤1.4.1:根据IMU估计出的四元数得到与四元数相对
应的旋转轴ω=(cosωx,cosωy,cosωz)和绕轴旋转的角度θ,求解过程是:θ=2cos-1q0
步骤1.4.2:根据扭转与指数映射理论,将(ω,θ)其映射为坐标系间的旋转和平移。已知初始时刻的位置gglobal,n(0)与坐标系间的转换关系(R,T)后,计算n时刻IMU的位置gglobal,n(θ),其映射关系如下所示:
其中表示与ω相对应的扭转参数,v表示绕轴旋转的角度,qg表示初始时刻坐标系原点与载体之间的向量。
步骤2:基于尺度旋转不变的特征检测方法,检测与匹配特征点检测与匹配。
步骤2.1:基于SURF(Speeded Up Robust Features,SURF)[Bay H,Tuytelaars T,Van Gool L.Surf:Speeded up robust features[M].Computer vision-ECCV2006.Springer Berlin Heidelberg,2006:404-417]的特征点检测;
步骤2.2:相邻帧间图像特征点的匹配。
通过计算特征点描述子之间的欧氏距离实现相邻帧间特征点的匹配。对于图像中的某个特征点P,其特征点描述子记为DP=[x1,x2,…x64]T。待匹配图像中与P点对应的第一近邻点和第二近邻点分别记为P1和P2。所述第一近邻点和第二近邻点分别指待匹配图像的特征点中,与P点描述子欧氏距离最近的描述子的特征点和次近的描述子的特征点。P1和P2的特征点描述子分别记为 P点与P1和P2的特征点描述子之间的欧式距离和可表示为分别表示为:
如果与的比值小于预定义的阈值δD,即则接受这一对匹配点。依据这一匹配规则,找到所有相邻帧间的特征匹配点对,作为初始的匹配点对。
由于以上匹配方法仅考虑特征点描述子的相似程度,而图像间存在周期性的纹理和相似的斑块,仍然会造成误匹配,需要进一步把误匹配点对移除掉。
步骤3:基于视觉IMU融合的方向估计。
旋转矩阵R和平移向量T作为初始姿态信息带入到相机本质矩阵E=T×·R(T×是关于平移向量T的负斜对称矩阵)的估计中。
根据外级线约束方程x′Ex=0,来初步判断内点和外点。所述内点,是指两幅图像间正确的匹配点对;所述外点,是指两幅图像间错误的匹配点对。
视觉IMU融合的方向估计是利用两幅图像间的匹配点对和IMU的姿态估计信息来建立后验贝叶斯估计模型,通过期望最大化算法来迭代估计出方向的。具体步骤如下:
步骤3.1:期望步骤得到本次迭代的姿态信息。
步骤3.1.1:利用步骤2中得到的内点集合,通过外级线约束方程和最小二乘法估计本质矩阵E。
步骤3.1.2:对本质矩阵E做奇异值分解,估算出载体的姿态信息:旋转分量R和平移分量T。
步骤3.1.3:建立后验贝叶斯估计模型:
其中(η1,η2,…ηn)表示相邻帧图像间的匹配的特征点对,θ表示视觉IMU姿态估计值和匹配点对的集合,定义为:
θ={R,T,On}
其中On=(o1,o2,…on)表示匹配点对的集合,元素oi服从伯努利分布,用于判断第i个匹配点对是否正确。oi=1表示样本点为内点;oi=0表示样本点为外点。
步骤3.2:最大化步骤确定本次迭代中的内点集合。
判断迭代样本点:
P{oi|{R,T}}=max{P(oi=1|{R,T}),P(oi=0|{R,T})}
其中P(oi=1|{R,T})和P(oi=0|{R,T})分别表示为:
其中表示Sampson误差,S和σ为预先设定的窗口大小和方差,取决于具体应用。yn表示第n幅图像中的第i个特征点的坐标,f(xn)表示第n幅图像中的第i个特征点所对应的外级线。
oi取值为1或0由P(oi=1|{R,T})和P(oi=0|{R,T})的大小决定:如果P(oi=1|{R,T})≥P(oi=0|{R,T}),则oi取值为1;反之,oi取值为0。
反复迭代步骤3.1和步骤3.2,得到最终的参数估计集合θ*={R*,T*,On *},其中θ*表示载体姿态与匹配点对集合,T*表示最终解算出的载体的平移分量,On *表示最终做出的匹配点对集合,R*即为可穿戴视觉IMU的方向估计。
Claims (9)
1.一种基于惯性引导采样的视觉IMU方向估计方法,其特征在于,包括以下步骤:
步骤1:基于增益自适应互补滤波器的IMU方向估计;
步骤2:基于尺度旋转不变的特征检测方法,来检测与匹配两幅图像间的特征点;
步骤3:基于视觉IMU融合的方向估计;
所述步骤1包括以下步骤:
步骤1.1:计算陀螺仪的方向估计;
步骤1.2:计算加速计与磁力计的方向估计;
步骤1.3:基于互补滤波算法的方向估计;
步骤1.4:IMU姿态估计;
所述步骤1.1包括以下步骤:
步骤1.1.1:求解t+Δt时刻描述IMU方向的四元数 的变化率
其中,四元数中的q1、q2、q3分量分别对应旋转轴在X、Y、Z方向的投影,q0分量对应IMU围绕旋转轴旋转的角度;符号表示四元数乘积,表示t时刻IMU陀螺仪的四元数估计值,ωt+Δt表示t+Δt时刻陀螺仪的输出值。
步骤1.1.2:求解t+Δt时刻四元数的估计值
步骤1.1.3:归一化处理四元数估计值,得出t+Δt时刻由陀螺仪估计出的四元数值
2.根据权利要求1所述的一种基于惯性引导采样的视觉IMU方向估计方法,其特征在于,所述步骤1.2通过高斯牛顿的迭代优化算法计算加速计与磁力计的方向估计值首先确定初始时刻的加速度值zα和磁场强度值zm,再根据t时刻加速计和磁力计的输出值α(t)和m(t),以最小化估计值误差为目标,建立目标函数:
其中,和分别表示由加速计和磁力计估计值的误差,计算过程为:
其中,表示的共轭四元数。
3.根据权利要求1所述的一种基于惯性引导采样的视觉IMU方向估计方法,其特征在于,所述步骤1.3联合t+Δt时刻陀螺仪的方向估计值以及加速计和磁力计的方向估计值采用增益自适应互补滤波算法求解IMU坐标系下IMU的方向信息
其中,kt表示自适应的增益系数,表示t时刻加速计、磁力计、陀螺仪融合后的方向估计信息,表示t时刻加速计与磁力计的方向估计值。
4.根据权利要求1所述的一种基于惯性引导采样的视觉IMU方向估计方法,其特征在于,所述步骤1.4采用运动力学中的扭转表示和指数映射算法,初步估计IMU的姿态信息,具体包括以下步骤:
步骤1.4.1:根据IMU估计出的四元数得到与四元数相对应的旋转轴ω=(cosωx,cosωy,cosωz)和绕轴旋转的角度θ,求解过程是:θ=2cos-1q0
步骤1.4.2:根据扭转与指数映射理论,将(ω,θ)其映射为坐标系间的旋转和平移;已知初始时刻的位置gglobal,n(0)与坐标系间的转换关系(R,T)后,计算n时刻IMU的位置gglobal,n(θ),其映射关系如下所示:
其中,表示与ω相对应的扭转参数,ν表示绕轴旋转的角度;
ν=-ω×qg
其中,qg表示初始时刻坐标系原点与载体之间的向量。
5.根据权利要求1所述的一种基于惯性引导采样的视觉IMU方向估计方法,其特征在于,所述步骤2包含以下步骤:
步骤2.1:基于SURF算法的特征点检测;
步骤2.2:相邻帧间图像特征点的匹配。
6.根据权利要求5所述的一种基于惯性引导采样的视觉IMU方向估计方法,其特征在于,所述步骤2.2具体为:
通过计算特征点描述子之间的欧氏距离实现相邻帧间特征点的匹配,表示P与P1的特征点描述子之间的欧式距离,表示P与P2的特征点描述子之间的距离,如果与的比值小于预定义的阈值δD,即则接受这一对匹配点;其中,对于图像中的某个特征点P,其特征点描述子记为DP=[x1,x2,…x64]T;待匹配图像中与P点对应的第一近邻点和第二近邻点分别记为P1和P2;所述第一近邻点和第二近邻点分别指待匹配图像的特征点中,与P点描述子欧氏距离最近的描述子的特征点和次近的描述子的特征点;P1和P2的特征点描述子分别记为P点与P1和P2的特征点描述子之间的欧式距离和可表示为分别表示为:
7.根据权利要求1所述的一种基于惯性引导采样的视觉IMU方向估计方法,其特征在于,所述步骤3包含以下步骤:
步骤3.1:期望步骤得到本次迭代的姿态信息;
步骤3.2:最大化步骤确定本次迭代中的内点集合;
反复迭代步骤3.1和步骤3.2,得到最终的参数估计集合θ*={R*,T*,On *},其中,R*即为可穿戴视觉IMU的方向估计,θ*表示载体姿态与匹配点对集合,T*表示最终解算出的载体的平移分量,On *表示最终做出的匹配点对集合。
8.根据权利要求7所述的一种基于惯性引导采样的视觉IMU方向估计方法,其特征在于,所述步骤3.1包含以下步骤:
步骤3.1.1:利用步骤2中得到的内点集合,通过外级线约束方程和最小二乘法估计本质矩阵E;
步骤3.1.2:对本质矩阵E做奇异值分解,估算出载体的姿态信息:旋转分量R和平移分量T;
步骤3.1.3:建立后验贝叶斯估计模型:
其中,(η1,η2,…ηn)表示相邻帧图像间的匹配的特征点对,θ表示视觉IMU姿态估计值和匹配点对的集合,定义为:
θ={R,T,On}
其中,On=(o1,o2,…on)表示匹配点对的集合,元素oi服从伯努利分布,用于判断第i个匹配点对是否正确;oi=1表示样本点为内点;oi=0表示样本点为外点,其中1<i<n。
9.根据权利要求7所述的一种基于惯性引导采样的视觉IMU方向估计方法,其特征在于,所述步骤3.2具体为:判断迭代样本点:
P{oi|{R,T}}=max{P(oi=1|{R,T}),P(oi=0|{R,T})}
其中,P(oi=1|{R,T})和P(oi=0|{R,T})分别表示为:
其中,表示Sampson误差,S和σ为预先设定的窗口大小和方差,取决于具体应用;yn表示第n幅图像中的第i个特征点的坐标,f(xn)表示第n幅图像中的第i个特征点所对应的外级线,oi取值为1或0由P(oi=1|{R,T})和P(oi=0|{R,T})的大小决定:如果P(oi=1|{R,T})≥P(oi=0|{R,T}),则oi取值为1;反之,oi取值为0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510455818.7A CN106709223B (zh) | 2015-07-29 | 2015-07-29 | 基于惯性引导采样的视觉imu方向估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510455818.7A CN106709223B (zh) | 2015-07-29 | 2015-07-29 | 基于惯性引导采样的视觉imu方向估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106709223A CN106709223A (zh) | 2017-05-24 |
CN106709223B true CN106709223B (zh) | 2019-01-22 |
Family
ID=58901198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510455818.7A Active CN106709223B (zh) | 2015-07-29 | 2015-07-29 | 基于惯性引导采样的视觉imu方向估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106709223B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107871327A (zh) * | 2017-10-23 | 2018-04-03 | 武汉大学 | 基于特征点线的单目相机位姿估计和优化方法及系统 |
CN109073407B (zh) * | 2017-10-26 | 2022-07-05 | 深圳市大疆创新科技有限公司 | 惯性测量单元的漂移标定方法、设备及无人飞行器 |
CN108711166B (zh) * | 2018-04-12 | 2022-05-03 | 浙江工业大学 | 一种基于四旋翼无人机的单目相机尺度估计方法 |
CN109141396B (zh) * | 2018-07-16 | 2022-04-26 | 南京航空航天大学 | 辅助信息与随机抽样一致算法融合的无人机位姿估计方法 |
CN111723366A (zh) * | 2019-03-19 | 2020-09-29 | 中国科学院沈阳自动化研究所 | 一种基于状态估计偏差的错误数据注入攻击鲁棒检测方法 |
CN109883451A (zh) * | 2019-04-15 | 2019-06-14 | 山东建筑大学 | 一种用于行人方位估计的自适应增益互补滤波方法及系统 |
CN113608523B (zh) * | 2020-04-20 | 2023-03-14 | 中国科学院沈阳自动化研究所 | 一种基于单目视觉和惯性融合的车辆场景动态性分析方法 |
CN113640738B (zh) * | 2021-06-24 | 2023-05-09 | 西南科技大学 | 一种结合imu与单组uwb的旋转式目标定位方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101109640A (zh) * | 2006-07-19 | 2008-01-23 | 北京航空航天大学 | 基于视觉的无人驾驶飞机自主着陆导航系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090262074A1 (en) * | 2007-01-05 | 2009-10-22 | Invensense Inc. | Controlling and accessing content using motion processing on mobile devices |
-
2015
- 2015-07-29 CN CN201510455818.7A patent/CN106709223B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101109640A (zh) * | 2006-07-19 | 2008-01-23 | 北京航空航天大学 | 基于视觉的无人驾驶飞机自主着陆导航系统 |
Non-Patent Citations (3)
Title |
---|
基于SURF特征匹配的数字图像相关变形初值可靠估计;张华俊等;《光学学报》;20131130;第33卷(第11期);第1-6页 * |
视觉和IMU融合的移动机器人运动解耦估计;路丹晖;《浙江大学学报》;20120515;第46卷(第6期);第1021-1026页 * |
路丹晖.视觉和IMU融合的移动机器人运动解耦估计.《浙江大学学报》.2012,第46卷(第6期),第1021-1026页. * |
Also Published As
Publication number | Publication date |
---|---|
CN106709223A (zh) | 2017-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106709223B (zh) | 基于惯性引导采样的视觉imu方向估计方法 | |
CN106679648B (zh) | 一种基于遗传算法的视觉惯性组合的slam方法 | |
CN112097768B (zh) | 机器人位姿的确定方法、装置、机器人及存储介质 | |
Li et al. | High-fidelity sensor modeling and self-calibration in vision-aided inertial navigation | |
CN106709222B (zh) | 基于单目视觉的imu漂移补偿方法 | |
CN112815939B (zh) | 移动机器人的位姿估计方法及计算机可读存储介质 | |
CN108846857A (zh) | 视觉里程计的测量方法及视觉里程计 | |
CN108827341B (zh) | 用于确定图像采集装置的惯性测量单元中的偏差的方法 | |
US10401175B2 (en) | Optical inertial measurement apparatus and method | |
CN107909614A (zh) | 一种gps失效环境下巡检机器人定位方法 | |
CN110956665A (zh) | 车辆拐弯轨迹双向计算方法、系统、装置 | |
CN103175502A (zh) | 一种基于数据手套低速运动的姿态角检测方法 | |
CN107941212B (zh) | 一种视觉与惯性联合定位方法 | |
Li et al. | Towards end-to-end learning of visual inertial odometry with an EKF | |
CN114529576A (zh) | 一种基于滑动窗口优化的rgbd和imu混合跟踪注册方法 | |
CN110793526A (zh) | 基于可穿戴单目视觉和惯性传感器融合的行人导航方法及系统 | |
Xian et al. | Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach | |
CN112907633B (zh) | 动态特征点识别方法及其应用 | |
CN112731503B (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
CN111811421A (zh) | 一种高速实时形变监测方法及系统 | |
CN115049697A (zh) | 视觉测速方法、装置、设备和存储介质 | |
Zhang et al. | Research on UAV attitude data fusion algorithm based on quaternion gradient descent | |
Zhang et al. | Robust orientation estimate via inertial guided visual sample consensus | |
Ogata et al. | A robust position and posture measurement system using visual markers and an inertia measurement unit | |
Soroush et al. | Design and implementation of an improved real-time tracking system for navigation surgery by fusion of optical and inertial tracking methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Liang Wei Inventor after: Zhang Yinlong Inventor after: Zhang Xiaoling Inventor after: Li Yang Inventor before: Liang Wei Inventor before: Zhang Yinlong Inventor before: Tan Jindong Inventor before: Zhang Xiaoling Inventor before: Li Yang |