CN108981687A - 一种视觉与惯性融合的室内定位方法 - Google Patents
一种视觉与惯性融合的室内定位方法 Download PDFInfo
- Publication number
- CN108981687A CN108981687A CN201810428539.5A CN201810428539A CN108981687A CN 108981687 A CN108981687 A CN 108981687A CN 201810428539 A CN201810428539 A CN 201810428539A CN 108981687 A CN108981687 A CN 108981687A
- Authority
- CN
- China
- Prior art keywords
- image
- image data
- frame
- data
- imu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种视觉与惯性融合的室内定位方法,输入测量数据和图像数据,其中IMU数据用于状态预测,而图像数据用于量测更新,基于扩展卡尔曼滤波器的框架,在状态预测阶段采用惯性器件的测量进行状态更新,在量测更新阶段采用特征点在图像帧上的投影残差作为测量进行状态校正,在扩展卡尔曼滤波器的设计中,选取包含当前以及过去多个相机位置对应IMU状态的滑动状态窗口作为状态变量;在特征跟踪阶段采用光流法建立图像中的特征关联关系;在滑动窗口更新阶段,只有当状态间存在足够大的平移时,才将当前IMU状态作为新的状态加入到滑动状态窗口中。本发明具有如下优点:可以在满足机载性能限制的要求下提供鲁棒、精确的导航性能。
Description
技术领域
本发明属于无人机导航定位技术领域,特别涉及一种视觉与惯性融合的室内定位方法。
背景技术
微小无人机在室内的自主飞行对导航系统的精度、鲁棒性以及定位频率都有很高的要求。由于室内不能获得稳定的GPS信号支持,无人机在室内的导航主要依靠其机载传感器进行组合导航。在常用的机载传感器中,相机能够获取含有丰富信息的图像数据,惯性测量器件(IMU)输出频率高且不易受环境影响,两者的有效融合可以给无人机提供稳定、鲁棒的导航性能。
一般可以从实现框架上将视觉与惯性数据的融合方法分为松耦合和紧耦合两种。其中,松耦合方法中先将视觉与惯性器件分为两个子系统进行独立解算,然后将两个子系统的解算结果融合起来。紧耦合算法中则对视觉与惯性的原始测量数据进行联合优化,这样做的好处是可以得到最优的估计结果。由于受到机载计算性能的限制,无人机上通常采用松耦合的视觉惯性融合方法进行导航定位,难以得到最优的估计结果。
发明内容
本发明旨在至少解决上述技术问题之一。
为此,本发明的目的在于提出一种视觉与惯性融合的室内定位方法,可以在满足机载性能限制的要求下提供鲁棒、精确的导航性能。
为了实现上述目的,本发明的实施例公开了一种视觉与惯性融合的室内定位方法,包括以下步骤:S11:获取当前时刻的IMU测量数据,并根据当前时刻的IMU测量数据以及前一时刻的IMU状态数据对所述当前时刻的IMU状态数据进行更新,其中,所述IMU状态数据包括速度数据和位移数据;S12:根据所述当前时刻的IMU测量数据以及前一时刻的协方差矩阵进行更新,得到所述当前时刻的协方差矩阵;S21:获取当前帧的图像数据,如果所述当前帧的图像数据为第一幅图像,则在所述第一幅图像中提取第一预设阈值的FAST特征点作为初始光流跟踪点;如果所述当前帧的图像数据不是第一幅图像,则使用网格化的光流跟踪算法进行特征跟踪;S22:检测所述当前帧的图像数据与前一帧的图像数据间的平移值是否超过预设平移阈值,如果未超过所述预设平移阈值则进入步骤S23;如果超过所述预设平移阈值则进入步骤S24;S23:对当前帧的图像数据跟踪到的特征点进行量测更新,且在下一次更新中仍将第k帧作为前一帧进行特征跟踪,并结束当前帧图像的处理;S24:将当前帧的图像数据对应的IMU状态数据加入到滑动窗口的尾部,并对协方差矩阵进行更新,并进入步骤S25;S25:遍历所述当前帧的图像数据的所有特征点,若某个特征点在当前帧中跟踪失败且跟踪持续的帧数大于等于第二预设阈值,则对大于等于所述第二预设阈值的特征点进行量测更新;S26:根据滑动状态窗口中的状态数目和特征点更新情况对滑动状态窗口进行管理。
进一步地,所述第一预设阈值为300。
进一步地,所述网格化的光流跟踪算法包括:S21_1:从图像左上方像素开始对图像进行滑动窗口处理,选取3×3大小的窗口,对于窗口中心的像素点,将其与其邻域内的8个像素点进行比较,若中心点灰度值更大则赋1,否则赋0,最终将这8个0/1值组合成二进制数作为中心点的灰度值;S21_2:在光流跟踪过程中,将图像均匀分为8×8个网格,若跟踪过程中特征点数目小于300,则通过提取新的FAST特征点补足300个;S21_3:对于步骤S21_2中获得的特征点跟踪点对,采用RANSAC算法剔除匹配错误的点对。
进一步地,在步骤S22中,所述检测所述当前帧的图像数据与前一帧的图像数据间的平移值的步骤包括:获取所述当前帧的图像数据与前一帧的图像数据的所有匹配点对;将所述所有匹配点对转化为以图像像素中心为原点的齐次坐标;根据所述所有匹配点对转化为以图像像素中心为原点的齐次坐标得到所述当前帧的图像数据与前一帧的图像数据间的平移值。
进一步地,所述第二预设阈值为3。
根据本发明实施例的视觉与惯性融合的室内定位方法,输入测量数据和图像数据,IMU数据用于状态预测,而图像数据用于量测更新,基于扩展卡尔曼滤波器的框架,在状态预测阶段采用惯性器件的测量进行状态更新,在量测更新阶段采用特征点在图像帧上的投影残差作为测量进行状态校正,在扩展卡尔曼滤波器的设计中,选取包含当前以及过去多个相机位置对应IMU状态的滑动状态窗口作为状态变量;在特征跟踪阶段采用光流法建立图像中的特征关联关系;在滑动窗口更新阶段,只有当状态间存在足够大的平移时,才将当前IMU状态作为新的状态加入到滑动状态窗口。本发明实施例的视觉与惯性融合的室内定位方法,可以在满足机载性能限制的要求下提供鲁棒、精确的导航性能。本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一个实施例的视觉与惯性融合的室内定位方法的总体流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
参照下面的描述和附图,将清楚本发明的实施例的这些和其他方面。在这些描述和附图中,具体公开了本发明的实施例中的一些特定实施方式,来表示实施本发明的实施例的原理的一些方式,但是应当理解,本发明的实施例的范围不受此限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
以下结合附图描述本发明。
图1是本发明一个实施例的视觉与惯性融合的室内定位方法的总体流程图。如图1所示,本发明的视觉与惯性融合的室内定位方法,包括以下步骤:
S11:当获取到l+1时刻的IMU数据时,依据此测量数据以及时刻l的状态对l+1时刻的状态进行预测。
通过时刻l+1的陀螺仪测量数据ωl+1使用数值积分方法计算时刻l到时刻l+1的旋转则l+1时刻的方位四元数估计如下:
其中代表时刻l的本体方位四元数,代表时刻l+1本体方位四元数的估计。
l+1时刻的位移和速度估计如下:
其中表示τ时刻本体在全局坐标系下的加速度,表示τ时刻本体在全局坐标系下的速度,式(1-2)和(1-3)可由梯形公式近似求解。
S12:当获取到l+1时刻的IMU数据时,依据时刻l+1的IMU数据对协方差矩阵进行更新。将时刻l的协方差矩阵分块为如下形式:
其中PII,l表示当前IMU状态对应的协方差矩阵,PCC,l代表保存的N个过去的IMU状态对应的协方差矩阵。
时刻l+1的协方差矩阵更新为:
其中,
式(1-6)中:
运算如式(1-10)中所示:
式(1-7)中:
其中σgc,σwgc分别为陀螺仪测量噪声以及偏差量噪声的标准差,σac,σwac分别为加速度测量噪声以及偏差量噪声的标准差。
对于图像数据的处理(记新获得的图像为第k+1帧,前一帧图像为第k帧):
S21:对于获取的图像数据,若为第一幅图像,则在图像中提取300个FAST特征点作为初始光流跟踪点,若不是第一幅图像,则使用网格化的光流跟踪算法进行特征跟踪。其步骤如下:
S21_1:对图像进行如下的预处理以减少光照变化带来的影响:从图像左上方像素开始对图像进行滑动窗口处理,选取3×3大小的窗口,对于窗口中心的像素点,将其与其邻域内的8个像素点进行比较,若中心点灰度值更大则赋1,否则赋0,最终将这8个0/1值组合成二进制数作为中心点的灰度值;
S21_2:在光流跟踪过程中,将图像均匀分为8×8个网格,若跟踪过程中特征点数目小于300,则通过提取新的FAST特征点补足,而提取FAST特征点的原则是使特征点尽量均匀的分布到8×8的网格块中去;
S21_3:对于上一步中获得的特征点跟踪点对,采用RANSAC算法(常用的剔除外点算法)剔除匹配错误的点对。
S22:检测前后两帧图像间的平移是否超过预设平移阈值,本发明中采用如下方法进行检测:设第k帧图像和第k+1帧图像间的共有M对匹配点对:先将其转化为以图像像素中心为原点的齐次坐标,并归一化记为计算下式:
其中表示帧k到帧k+1的旋转矩阵,若式(2-1)求得的T<0.01,则判定平移量未超过预设平移阈值,反之判断超过预设平移阈值。
S23:若S22中判定的平移量很小,则不改变滑动窗口中的状态,而是对当前图像帧跟踪到的特征点进行一次量测更新(量测更新的步骤与S25中相似,将在S25中详细介绍),且在下一次更新中仍将第k帧作为前一帧进行特征跟踪,并结束当前帧图像的处理。
S24:若S22中判定的平移量足够大,则将当前帧对应的IMU状态加入到滑动窗口的尾部,此时协方差矩阵作以下的相应更新:
其中Pk|k表示获取第k+1帧图像时刻系统的协方差矩阵,Pk+1|k为将第k+1帧图像对应的IMU状态加入滑动窗口后的协方差矩阵,式(2-2)中:
S25:遍历所有特征点,若其在当前帧中跟踪失败且跟踪持续的帧数大于等于3,则对其进行三角化并将其运用到量测更新中。假设共有m个特征点满足上述条件并将它们记作fi,i=1…m。
对于特征点fi首先通过三角化计算出其在全局坐标系下的坐标将估计的特征点坐标投影到像素平面得到的投影点与特征点的跟踪位置间的像素差建模为量测误差,假设特征点fi共在n个图像帧上被观测到,则其对应的量测误差为:
其中,ni为像素噪声:
且
式(2-8)中fx,fy分别代表焦距与x,y方向1个像素距离的比值,[xij yij zij]为特征点在第j帧相机坐标系下的坐标。
构造的左零空间矩阵并将其左乘到式(2-4)的两侧消去包含的项得到如下形式:
将所有m个待跟新的特征点写成(2-9)种形式,并叠加到一起如下式中所示形式:
记为:
对式(2-11)中所得结果采用标准卡尔曼公式进行更新:
Δx=Kr (2-13)
Pk+1|k+1=(I-KH)Pk+1|k(I-KH)T+KRnKT (2-14)
其中Rn为式(2-11)中像素误差对应的方差阵。用求得的Δx更新状态变量即可得到无人机当前时刻的位置、速度等状态。
S26:为了限制计算量的增加,本发明中在状态窗口中只保存过去的20个状态,所以当状态窗口中状态数超过20时要进行相应的处理。本发明中采用的策略是:首先检查所有状态对应的图像帧,若其观测到的特征点已经全部用于量测更新,则直接将其删除并对协方差矩阵进行相应的更新;若没有满足前述条件的状态帧,则将状态窗口中的第2帧删除,并对其观测到的仍旧处于持续跟踪状态的特征点进行一次步骤S25中所述的量测更新。
根据本发明实施例的视觉与惯性融合的室内定位方法,输入测量数据和图像数据,其中IMU数据用于状态预测,而图像数据用于量测更新,基于扩展卡尔曼滤波器的框架,在状态预测阶段采用惯性器件的测量进行状态更新,在量测更新阶段采用特征点在图像帧上的投影残差作为测量进行状态校正,在扩展卡尔曼滤波器的设计中,选取包含当前以及过去多个相机位置对应IMU状态的滑动状态窗口作为状态变量;在特征跟踪阶段采用光流法建立图像中的特征关联关系;在滑动窗口更新阶段,只有当状态间存在足够大的平移时,才将当前IMU状态作为新的状态加入到滑动状态窗口。本发明实施例的视觉与惯性融合的室内定位方法,可以在满足机载性能限制的要求下提供鲁棒、精确的导航性能。
另外,本发明实施例的视觉与惯性融合的室内定位方法的其它构成以及作用对于本领域的技术人员而言都是已知的,为了减少冗余,不做赘述。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同限定。
Claims (5)
1.一种视觉与惯性融合的室内定位方法,其特征在于,包括以下步骤:
S11:获取当前时刻的IMU测量数据,并根据当前时刻的IMU测量数据以及前一时刻的IMU状态数据对所述当前时刻的IMU状态数据进行更新,其中,所述IMU状态数据包括速度数据和位移数据;
S12:根据所述当前时刻的IMU测量数据以及前一时刻的协方差矩阵进行更新,得到所述当前时刻的协方差矩阵;
S21:获取当前帧的图像数据,如果所述当前帧的图像数据为第一幅图像,则在所述第一幅图像中提取第一预设阈值的FAST特征点作为初始光流跟踪点;如果所述当前帧的图像数据不是第一幅图像,则使用网格化的光流跟踪算法进行特征跟踪;
S22:检测所述当前帧的图像数据与前一帧的图像数据间的平移值是否超过预设平移阈值,如果未超过所述预设平移阈值则进入步骤S23;如果超过所述预设平移阈值则进入步骤S24;
S23:对当前帧的图像数据跟踪到的特征点进行量测更新,且在下一次更新中仍将第k帧作为前一帧进行特征跟踪,并结束当前帧图像的处理;
S24:将当前帧的图像数据对应的IMU状态数据加入到滑动窗口的尾部,并对协方差矩阵进行更新,并进入步骤S25;
S25:遍历所述当前帧的图像数据的所有特征点,若某个特征点在当前帧中跟踪失败且跟踪持续的帧数大于等于第二预设阈值,则对大于等于所述第二预设阈值的特征点进行量测更新;
S26:根据滑动状态窗口中的状态数目和特征点更新情况对滑动状态窗口进行管理。
2.根据权利要求1所述的视觉与惯性融合的室内定位方法,其特征在于,所述第一预设阈值为300。
3.根据权利要求2所述的视觉与惯性融合的室内定位方法,其特征在于,所述网格化的光流跟踪算法包括:
S21_1:从图像左上方像素开始对图像进行滑动窗口处理,选取3×3大小的窗口,对于窗口中心的像素点,将其与其邻域内的8个像素点进行比较,若中心点灰度值更大则赋1,否则赋0,最终将这8个0/1值组合成二进制数作为中心点的灰度值;
S21_2:在光流跟踪过程中,将图像均匀分为8×8个网格,若跟踪过程中特征点数目小于300,则通过提取新的FAST特征点补足300个;
S21_3:对于步骤S21_2中获得的特征点跟踪点对,采用RANSAC算法剔除匹配错误的点对。
4.根据权利要求1所述的视觉与惯性融合的室内定位方法,其特征在于,在步骤S22中,所述检测所述当前帧的图像数据与前一帧的图像数据间的平移值的步骤包括:
获取所述当前帧的图像数据与前一帧的图像数据的所有匹配点对;
将所述所有匹配点对转化为以图像像素中心为原点的齐次坐标;
根据所述所有匹配点对转化为以图像像素中心为原点的齐次坐标得到所述当前帧的图像数据与前一帧的图像数据间的平移值。
5.根据权利要求1所述的视觉与惯性融合的室内定位方法,其特征在于,所述第二预设阈值为3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810428539.5A CN108981687B (zh) | 2018-05-07 | 2018-05-07 | 一种视觉与惯性融合的室内定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810428539.5A CN108981687B (zh) | 2018-05-07 | 2018-05-07 | 一种视觉与惯性融合的室内定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108981687A true CN108981687A (zh) | 2018-12-11 |
CN108981687B CN108981687B (zh) | 2021-01-15 |
Family
ID=64542477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810428539.5A Active CN108981687B (zh) | 2018-05-07 | 2018-05-07 | 一种视觉与惯性融合的室内定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108981687B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109443355A (zh) * | 2018-12-25 | 2019-03-08 | 中北大学 | 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法 |
CN109443353A (zh) * | 2018-12-25 | 2019-03-08 | 中北大学 | 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 |
CN109676604A (zh) * | 2018-12-26 | 2019-04-26 | 清华大学 | 机器人曲面运动定位方法及其运动定位系统 |
CN110147164A (zh) * | 2019-05-22 | 2019-08-20 | 京东方科技集团股份有限公司 | 头部运动跟踪方法、设备、系统及存储介质 |
CN110458887A (zh) * | 2019-07-15 | 2019-11-15 | 天津大学 | 一种基于pca的加权融合室内定位方法 |
CN110763251A (zh) * | 2019-10-18 | 2020-02-07 | 华东交通大学 | 视觉惯性里程计优化的方法及系统 |
CN110986930A (zh) * | 2019-11-29 | 2020-04-10 | 北京三快在线科技有限公司 | 设备定位方法、装置、电子设备及存储介质 |
CN111288989A (zh) * | 2020-02-25 | 2020-06-16 | 浙江大学 | 一种小型无人机视觉定位方法 |
CN112461258A (zh) * | 2019-09-06 | 2021-03-09 | 北京三快在线科技有限公司 | 一种参数修正的方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN103325108A (zh) * | 2013-05-27 | 2013-09-25 | 浙江大学 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
CN103411621A (zh) * | 2013-08-09 | 2013-11-27 | 东南大学 | 一种面向室内移动机器人的光流场视觉/ins组合导航方法 |
CN104729506A (zh) * | 2015-03-27 | 2015-06-24 | 北京航空航天大学 | 一种视觉信息辅助的无人机自主导航定位方法 |
US20160063330A1 (en) * | 2014-09-03 | 2016-03-03 | Sharp Laboratories Of America, Inc. | Methods and Systems for Vision-Based Motion Estimation |
-
2018
- 2018-05-07 CN CN201810428539.5A patent/CN108981687B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN103325108A (zh) * | 2013-05-27 | 2013-09-25 | 浙江大学 | 一种融合光流与特征点匹配的单目视觉里程计的设计方法 |
CN103411621A (zh) * | 2013-08-09 | 2013-11-27 | 东南大学 | 一种面向室内移动机器人的光流场视觉/ins组合导航方法 |
US20160063330A1 (en) * | 2014-09-03 | 2016-03-03 | Sharp Laboratories Of America, Inc. | Methods and Systems for Vision-Based Motion Estimation |
CN104729506A (zh) * | 2015-03-27 | 2015-06-24 | 北京航空航天大学 | 一种视觉信息辅助的无人机自主导航定位方法 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109443353A (zh) * | 2018-12-25 | 2019-03-08 | 中北大学 | 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 |
CN109443355A (zh) * | 2018-12-25 | 2019-03-08 | 中北大学 | 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法 |
CN109443353B (zh) * | 2018-12-25 | 2020-11-06 | 中北大学 | 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 |
CN109443355B (zh) * | 2018-12-25 | 2020-10-27 | 中北大学 | 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法 |
CN109676604B (zh) * | 2018-12-26 | 2020-09-22 | 清华大学 | 机器人曲面运动定位方法及其运动定位系统 |
CN109676604A (zh) * | 2018-12-26 | 2019-04-26 | 清华大学 | 机器人曲面运动定位方法及其运动定位系统 |
CN110147164A (zh) * | 2019-05-22 | 2019-08-20 | 京东方科技集团股份有限公司 | 头部运动跟踪方法、设备、系统及存储介质 |
CN110458887A (zh) * | 2019-07-15 | 2019-11-15 | 天津大学 | 一种基于pca的加权融合室内定位方法 |
CN112461258A (zh) * | 2019-09-06 | 2021-03-09 | 北京三快在线科技有限公司 | 一种参数修正的方法及装置 |
CN110763251A (zh) * | 2019-10-18 | 2020-02-07 | 华东交通大学 | 视觉惯性里程计优化的方法及系统 |
CN110763251B (zh) * | 2019-10-18 | 2021-07-13 | 华东交通大学 | 视觉惯性里程计优化的方法及系统 |
CN110986930A (zh) * | 2019-11-29 | 2020-04-10 | 北京三快在线科技有限公司 | 设备定位方法、装置、电子设备及存储介质 |
CN110986930B (zh) * | 2019-11-29 | 2022-07-15 | 北京三快在线科技有限公司 | 设备定位方法、装置、电子设备及存储介质 |
CN111288989A (zh) * | 2020-02-25 | 2020-06-16 | 浙江大学 | 一种小型无人机视觉定位方法 |
CN111288989B (zh) * | 2020-02-25 | 2021-11-05 | 浙江大学 | 一种小型无人机视觉定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108981687B (zh) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108981687A (zh) | 一种视觉与惯性融合的室内定位方法 | |
CN110706279B (zh) | 基于全局地图与多传感器信息融合的全程位姿估计方法 | |
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
US11586218B2 (en) | Method and apparatus for positioning vehicle, electronic device and storage medium | |
CN113781582B (zh) | 基于激光雷达和惯导联合标定的同步定位与地图创建方法 | |
CN112734852B (zh) | 一种机器人建图方法、装置及计算设备 | |
CN112268559B (zh) | 复杂环境下融合slam技术的移动测量方法 | |
CN111274974B (zh) | 定位元素检测方法、装置、设备和介质 | |
CN107909614B (zh) | 一种gps失效环境下巡检机器人定位方法 | |
CN109211251A (zh) | 一种基于激光和二维码融合的即时定位与地图构建方法 | |
CN108375370A (zh) | 一种面向智能巡防无人机的复合导航系统 | |
WO2017008454A1 (zh) | 一种机器人的定位方法 | |
CN103175524A (zh) | 一种无标识环境下基于视觉的飞行器位置与姿态确定方法 | |
CN109579838A (zh) | Agv小车的定位方法及定位系统 | |
CN109633664A (zh) | 基于rgb-d与激光里程计的联合定位方法 | |
CN114323033B (zh) | 基于车道线和特征点的定位方法、设备及自动驾驶车辆 | |
Jones et al. | Inertial structure from motion with autocalibration | |
CN112556719A (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
CN104848861A (zh) | 一种基于图像消失点识别技术的移动设备姿态测量方法 | |
CN114119886A (zh) | 高精地图点云重建方法、装置、车辆、设备和存储介质 | |
CN109490931A (zh) | 飞行定位方法、装置及无人机 | |
Li et al. | Aerial-triangulation aided boresight calibration for a low-cost UAV-LiDAR system | |
CN112762929B (zh) | 一种智能导航方法、装置和设备 | |
CN112146627B (zh) | 在无特征表面上使用投影图案的飞行器成像系统 | |
Wu et al. | AFLI-Calib: Robust LiDAR-IMU extrinsic self-calibration based on adaptive frame length LiDAR odometry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |