CN111595337B - 一种基于视觉建模的惯性定位的自校正方法 - Google Patents

一种基于视觉建模的惯性定位的自校正方法 Download PDF

Info

Publication number
CN111595337B
CN111595337B CN202010284017.XA CN202010284017A CN111595337B CN 111595337 B CN111595337 B CN 111595337B CN 202010284017 A CN202010284017 A CN 202010284017A CN 111595337 B CN111595337 B CN 111595337B
Authority
CN
China
Prior art keywords
error
visual modeling
inertial positioning
inertial
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010284017.XA
Other languages
English (en)
Other versions
CN111595337A (zh
Inventor
许凯
晏博
王栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Shenxun Technology Co ltd
Original Assignee
Zhejiang Shenxun Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Shenxun Technology Co ltd filed Critical Zhejiang Shenxun Technology Co ltd
Priority to CN202010284017.XA priority Critical patent/CN111595337B/zh
Publication of CN111595337A publication Critical patent/CN111595337A/zh
Application granted granted Critical
Publication of CN111595337B publication Critical patent/CN111595337B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

本发明涉及惯性定位技术领域,尤其涉及一种基于视觉建模的惯性定位的自校正方法。它包括以下步骤:S1、惯性设备与视觉建模设备同时采集数据;S2、得到状态方程;S3、得到观测方程;S4、将状态方程与观测方程代入到计算预测值与实际值之间误差的协方差矩阵中;S5、代入多个特征点进行非线性化迭代,不断逼近离散时间模型曲线,得到最终校正结果。采用这种校正方法,在不需要事先做任何布置的前提下,让自主式惯性定位系统在所有场景下,都能够保持长时间的高精度定位效果。

Description

一种基于视觉建模的惯性定位的自校正方法
技术领域
本发明涉及惯性定位技术领域,尤其涉及一种基于视觉建模的惯性定位的自校正方法。
背景技术
现下主流的室内定位技术中,惯性定位技术凭借着其成本低、不受信号强弱影响、不依赖外部辅助即可进行高精度定位的特点占据了一定的市场。然而,惯性定位由于其误差累积的特性,无法满足人员长时间或长距离定位的需求,因此需要一项技术来对惯性定位的结果进行不定时的校正,以弥补误差带来的精度失准。
常见的校正方式主要分为两种,一种是卫星定位校正,使用北斗/GPS定位对惯性定位结果进行修正,保持其定位精度;第二种是架设如UWB、蓝牙信标这类的基站,通过此类基站所得的人员位置来修正惯性定位的结果。
前者使用卫星定位来校正惯性定位结果,将使得惯性定位不再具有原本的不受信号强弱影响特点,一旦来到室内或者高楼附近这类卫星信号差的地区,卫星定位的修正效果就会失效。
后者虽然适用于室内等卫星信号无法覆盖的地方,但是由于对基站有要求,因此具有成本高、需要事先部署基站灵活性差等缺点。
发明内容
本发明所要解决的技术问题是:提供一种基于视觉建模的惯性定位的自校正方法,采用这种校正方法,在不需要事先做任何布置的前提下,让自主式惯性定位系统在所有场景下,都能够保持长时间的高精度定位效果。
本发明所采用的技术方案是:一种基于视觉建模的惯性定位的自校正方法,它包括以下步骤:
S1、惯性设备与视觉建模设备同时采集数据;
S2、根据步骤S1采集到的数据计算得到惯性定位的误差向量与视觉建模的特征点坐标向量,然后根据误差向量与特征点向量得到动点的状态方程;
S3、根据采集到的数据得到视觉建模中的动点与特征点之间的距离,同时得到惯性定位中的动点与特征点的距离,然后根据两个距离的均方差得到动点的观测方程;
S4、将步骤S2得到的状态方程与步骤S3得到观测方程代入到计算预测值与实际值之间误差的协方差矩阵中;
S5、代入多个特征点进行非线性化迭代,不断逼近离散时间模型曲线,得到最终校正结果。
作为优选,步骤S5之后还需要进行平滑处理。
作为优选,所述平滑处理是指采用容积Rauch-Tung-Striebel平滑器进行处理。
作为优选,步骤S2中的误差向量包括姿态误差、位置误差、速度误差、加速度计误差以及陀螺仪误差。
作为优选,步骤S2中得到特征点的具体方法包括以下步骤:
S21、将采集的图像进行灰度化和模糊化处理;
S22、采用黑塞矩阵对处理后的图像中各像素点进行偏导处理,获得突变点;
S23、将突变点与其周围26个像素点进行比较,保留其中的极值点作为特征点。
作为优选,得到特征点后还需要进行特征点筛选。
采用以上方法与现有技术相比,本发明具有以下优点:采用视觉建模技术给惯导定位技术进行校正,这样并不需要事先布置基站,而能让自主式惯性定位系统在所有场景下,都能够保持长时间的高精度定位效果,并且整套定位系统可以完全自主独立进行定位工作,不容易受到外界信号影响。
附图说明
图1为本发明一种基于视觉建模的惯性定位的自校正方法的原理图。
具体实施方式
以下通过具体实施方式对本发明做进一步描述,但是本发明不仅限于以下具体实施方式。
本方法的主要原理就是使用卡尔曼滤波将视觉定位所获得的定位点和惯性技术所获得的定位点进行误差计算。
当来到一个陌生的环境时,集成在一起的惯性设备与视觉建模设备会同时开始采集数据并进行处理。以运行过程中的任意时间点t为例。在t时刻,惯性设备中的加速度计与陀螺仪都采集到了佩戴人员当前的数值,并用这些数值进行处理,得到了此时该人员对应的位置、速度、姿态。显然,使用带有误差的数值计算出来的结果也都含有误差,这里我们使用来表示t时刻时惯性技术解算出的15维误差向量。
其中,Фt表示t时刻的姿态误差向量,表示t时刻的位置误差向量,/>表示t时刻的速度误差向量,/>表示t时刻的加速度计误差向量,/>表示t时刻的陀螺仪误差向量,这些误差向量都包括3个元素(即x,y,z,轴或对应各轴的旋转角)。上标b表示该数值建立在载体坐标系上,上标n表示该数值建立在导航坐标系上。
而在惯性设备获取相对定位数值并处理的同时,视觉建模也在不同的采集现场画面并处理着。在t时刻,视觉建模设备采集到现场的画面图像,在对该图像进行灰度化与模糊化处理之后,使用黑塞矩阵对所得到的新图像中的各像素点进行偏导处理,以此初步获得一些突变点,然后用这些突变点与其周围的26个像素点进行比较,只保留其中的极值点作为最后的特征点。
而这些特征点不一定都能够达到自校正算法中用于标定的特征点的标准。因此,要对这些特征点进行进一步的筛选处理,即:根据所需要的特征点个数选择对应的对比度阈值,将这些特征点进行筛选处理,仅保留满足阈值要求的特征点,否则剔除掉。这样就能保证最后留下来的特征点都是满足要求的高对比度的点。将m个这种特征点的坐标向量记为
结合所获得这些特征点坐标向量与惯性定位的误差向量,得到的状态方程为:
其中,矩阵I表示单位矩阵。ωt为满足均值为零正态分布的系统噪声,其协方差矩阵为Q。/>为t时刻惯性定位系统的误差状态转移矩阵。其表达式为:
矩阵中的 分别表示导航坐标系下的东向,北向与天向,/>表示坐标系从载体坐标系b系到导航坐标系n系的转换矩阵,T为系统的采样周期。
而因为卡尔曼滤波在进行数值的最优化选择的时候还需要该点的观测值,所以还需要确定t时刻时,动点对应的观测方程。本方法采用特征点与动点之间的距离作为参考数据,然后对其进行均方误差计算减少其中的噪声误差,来确定最后的观测方程。
首先,记视觉建模中的动点与特征点之间的距离为根据距离计算公式,得:
式中的表示定点在视觉定位中的理论值,/>为第i个特征点的理论位置值,特征点取自前文中提到的保留的高对比度得特征点。
那么在同一时刻,该动点在惯性定位中与特征点的间距的表达式为:
那么相同点在两个系统中的间距的均方误差为:
由于本发明中要用视觉定位的结果来校正惯性定位的定位结果,因此这里先假定视觉定位所得结果精准,为惯性定位结果减去其误差后所得的最后结果,其表达式为:
式中的表示t时刻惯性定位推导的定点位置的误差。
将此关系式代入到均方误差表达式中,可得:
代入的表达式,得:
将等式左边的特征点坐标移至等式右边,使左边仅保留定点坐标值,即:
再代入视觉定位中的噪声ε,获得视觉定位得实际距离表达式:
可得最后的均方差表达式变为:
就可以获得最后化简得观测方程:
将得到的动点的状态方程与观测方程代入到计算预测值与实际值之间误差的协方差矩阵中,即可获得最后的校正结果。
假设,两个方程所得结果分别为P1=(x1,y1),P2=(x2,y2),而它们的高斯白噪声分别为Q1,Q2。那么经过校正后得到的定位点坐标为:
或/>
完成以上校正计算之后,还需要进行最后的算法优化。因为简单的卡尔曼滤波所得到的是一个线性方程A=TB,T为转换矩阵。而作为一个描述定位曲线的方程,该定点的移动轨迹是无规则的,显然是一个非线性的方程,那么就需要代入多个特征点来对该方程进行一个多次的迭代逼近我们所需要的方程曲线。
首先,我们需要将这个曲线方程与时间的关系表示出来。假设非线性系统的离散时间模型为:
Xk=f(Xk-1)+Bk-1ωk-1
yk=h(Xk)+vk
然后再将相邻定点之间的递归关系代入到协方差矩阵中,即:
其中,表示矩阵Xk在k位置的变化率,上标数字表示迭代次数。
通过对上面的协方差矩阵进行迭代运算,可以得到最后的递归关系式为:
上式为将迭代的关系式代入卡尔曼滤波方程后的表达式,/>与Pk|k是根据/>表达式推导出来的姿态与位置矩阵,其中/>
经过以上方法拟合得到的曲线可能存在节点不够平滑的问题,因此需要将取得的非线性系统用容积Rauch-Tung-Striebel平滑器来进行平滑处理,也就是将上面的递归关系式代入到下面这个正向数据处理方程组里:
其中
这样,我们最后得到的关于定位点的递归关系式就是经过优化后的最后的非线性曲线表达式:
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的技术人员应当理解,其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行同等替换;而这些修改或者替换,并不使相应的技术方案的本质脱离本发明各实施例技术方案的精神与范围。

Claims (6)

1.一种基于视觉建模的惯性定位的自校正方法,其特征在于,它包括以下步骤:
S1、惯性设备采集第一数据,同时视觉建模设备采集第二数据,所述第一数据包括人员对应的位置、速度以及姿态,所述第二数据包括现场的画面图像;
S2、根据步骤S1采集到的所述第一数据和所述第二数据,计算得到惯性定位的误差向量与视觉建模的特征点坐标向量,然后根据所述误差向量与所述特征点向量得到动点的状态方程;
S3、根据采集到的第一数据、所述第二数据以及状态方程,得到所述视觉建模中的动点与特征点之间的第一距离,同时得到惯性定位中的动点与特征点的第二距离,然后根据所述第一距离和所述第二距离的均方差得到动点的观测方程;
S4、将步骤S2得到的所述状态方程与步骤S3得到的所述观测方程代入到计算预测值与实际值之间误差的协方差矩阵中;
S5、代入多个特征点进行非线性化迭代,不断逼近离散时间模型曲线,得到最终校正结果。
2.根据权利要求1所述的一种基于视觉建模的惯性定位的自校正方法,其特征在于:步骤S5之后还需要进行平滑处理。
3.根据权利要求2所述的一种基于视觉建模的惯性定位的自校正方法,其特征在于:所述平滑处理是指采用容积Rauch-Tung-Striebel平滑器进行处理。
4.根据权利要求1所述的一种基于视觉建模的惯性定位的自校正方法,其特征在于:步骤S2中的所述误差向量包括姿态误差、位置误差、速度误差、加速度计误差以及陀螺仪误差。
5.根据权利要求1所述的一种基于视觉建模的惯性定位的自校正方法,其特征在于:步骤S2中得到的所述特征点的具体方法包括以下步骤:
S21、将采集的所述画面图像进行灰度化和模糊化处理;
S22、采用黑塞矩阵对处理后的所述画面图像中各像素点进行偏导处理,获得突变点;
S23、将突变点与其周围26个像素点进行比较,保留其中的极值点作为特征点。
6.根据权利要求5所述的一种基于视觉建模的惯性定位的自校正方法,其特征在于:得到所述特征点后还需要进行特征点筛选。
CN202010284017.XA 2020-04-13 2020-04-13 一种基于视觉建模的惯性定位的自校正方法 Active CN111595337B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010284017.XA CN111595337B (zh) 2020-04-13 2020-04-13 一种基于视觉建模的惯性定位的自校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010284017.XA CN111595337B (zh) 2020-04-13 2020-04-13 一种基于视觉建模的惯性定位的自校正方法

Publications (2)

Publication Number Publication Date
CN111595337A CN111595337A (zh) 2020-08-28
CN111595337B true CN111595337B (zh) 2023-09-26

Family

ID=72187496

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010284017.XA Active CN111595337B (zh) 2020-04-13 2020-04-13 一种基于视觉建模的惯性定位的自校正方法

Country Status (1)

Country Link
CN (1) CN111595337B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
CN108731670A (zh) * 2018-05-18 2018-11-02 南京航空航天大学 基于量测模型优化的惯性/视觉里程计组合导航定位方法
CN109387219A (zh) * 2017-08-02 2019-02-26 珊口(上海)智能科技有限公司 误差标定系统
CN109523529A (zh) * 2018-11-12 2019-03-26 西安交通大学 一种基于surf算法的输电线路缺陷识别方法
CN110766720A (zh) * 2019-09-23 2020-02-07 盐城吉大智能终端产业研究院有限公司 一种基于深度学习的多摄像头车辆跟踪系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI397671B (zh) * 2009-12-16 2013-06-01 Ind Tech Res Inst 定位載體、估測載體姿態與建地圖之系統與方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
CN109387219A (zh) * 2017-08-02 2019-02-26 珊口(上海)智能科技有限公司 误差标定系统
CN108731670A (zh) * 2018-05-18 2018-11-02 南京航空航天大学 基于量测模型优化的惯性/视觉里程计组合导航定位方法
CN109523529A (zh) * 2018-11-12 2019-03-26 西安交通大学 一种基于surf算法的输电线路缺陷识别方法
CN110766720A (zh) * 2019-09-23 2020-02-07 盐城吉大智能终端产业研究院有限公司 一种基于深度学习的多摄像头车辆跟踪系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
王龙 ; 董新民 ; 张宗麟 ; .紧耦合INS/视觉相对位姿测量方法.中国惯性技术学报.2011,(06),全文. *
顾洪洋 ; 方针 ; 刘宇 ; 张泽欣 ; 付乐乐 ; .基于卡尔曼滤波的视觉辅助惯导定位算法研究.电子质量.2020,(03),全文. *

Also Published As

Publication number Publication date
CN111595337A (zh) 2020-08-28

Similar Documents

Publication Publication Date Title
AU2020103576A4 (en) Autonomous orbit and attitude determination method of low-orbit satellite based on non-navigation satellite signal
CN109911188B (zh) 非卫星导航定位环境的桥梁检测无人机系统
CN106840148B (zh) 室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法
Amidi et al. A visual odometer for autonomous helicopter flight
CN109708632B (zh) 一种面向移动机器人的激光雷达/ins/地标松组合导航系统及方法
CN112965063B (zh) 一种机器人建图定位方法
CN110726406A (zh) 一种改进的非线性优化单目惯导slam的方法
CN111426320B (zh) 一种基于图像匹配/惯导/里程计的车辆自主导航方法
CN108592914A (zh) 无gps情况下的复杂区域巡视机器人定位、导航及授时方法
CN114199239B (zh) 结合北斗导航的双视觉辅助惯性差分座舱内头部测姿系统
CN114693754B (zh) 一种基于单目视觉惯导融合的无人机自主定位方法与系统
CN114608560B (zh) 一种基于智能终端传感器的无源组合室内定位系统及方法
Hussnain et al. An automatic procedure for mobile laser scanning platform 6dof trajectory adjustment
CN110223233B (zh) 一种基于图像拼接的无人机航拍建图方法
CN112179373A (zh) 一种视觉里程计的测量方法及视觉里程计
CN110070577B (zh) 基于特征点分布的视觉slam关键帧与特征点选取方法
CN113345032B (zh) 一种基于广角相机大畸变图的初始化建图方法及系统
CN111595337B (zh) 一种基于视觉建模的惯性定位的自校正方法
CN114066972A (zh) 一种基于单目视觉的无人机自主定位方法
CN113639722A (zh) 连续激光扫描配准辅助惯性定位定姿方法
CN111460898B (zh) 一种基于月面巡视器单目相机图像的天际线获取方法
CN115046543A (zh) 一种基于多传感器的组合导航方法及系统
Toth et al. Terrain-based navigation: Trajectory recovery from LiDAR data
CN116698029A (zh) 一种基于向量权重的激光雷达室内定位方法
CN115930948A (zh) 一种果园机器人融合定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 315194 room 209-2, building B, science and technology information Incubation Park, No. 655, bachelor Road, Yinzhou District, Ningbo City, Zhejiang Province

Applicant after: Zhejiang shenxun Technology Co.,Ltd.

Address before: 315194 room 209-2, building B, science and technology information Incubation Park, No. 655, bachelor Road, Yinzhou District, Ningbo City, Zhejiang Province

Applicant before: Ningbo shenxun Information Technology Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant