CN103983263A - 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 - Google Patents
一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 Download PDFInfo
- Publication number
- CN103983263A CN103983263A CN201410240678.7A CN201410240678A CN103983263A CN 103983263 A CN103983263 A CN 103983263A CN 201410240678 A CN201410240678 A CN 201410240678A CN 103983263 A CN103983263 A CN 103983263A
- Authority
- CN
- China
- Prior art keywords
- speed
- mobile robot
- neural network
- inertia
- navigation system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
Abstract
本发明涉及一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法,属于复杂环境下的组合导航技术领域。在视觉信号有效时,利用移动机器人搭载的摄像头采集动态视频,通过图像特征提取和最近邻匹配法来确定摄像头的速度;使用迭代扩展卡尔曼滤波最优估计移动机器人的速度、加速度;并利用神经网络建立惯性导航系统的导航速度误差模型;在视觉信号失锁时,依靠之前训练获得的神经网络误差模型对导航系统速度误差进行补偿。该方法克服了在视觉信号失锁时,惯性/视觉组合导航系统无法提供持久的高精度导航问题,可应用于移动机器人在弱光或是无光等复杂环境下的长航时远距离高精度导航定位。
Description
技术领域
本发明涉及一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法,属于复杂环境下组合导航技术领域。
背景技术
近年来,伴随着计算机技术、电子技术、通讯技术、先进控制以及人工智能的迅猛发展,有关移动机器人技术的研究以及应用取得了巨大的进步。智能移动机器人作为集环境感知、动态决策以及实时行为控制与执行等众多特性为一体的复杂综合系统,目前已经在军事、民用和科学研究以及工业生产等领域获得越来越普遍的应用,用以代替人类来执行一些需要在恶劣条件或是危险条件下开展的工作。定位与导航作为室内移动机器人完成任务的首要前提,逐渐成为该领域的研究热点。然而,在外界无线电信号微弱、电磁干扰强烈等一系列复杂室内环境中,室内机器人获取导航信息的准确性、实时性及鲁棒性会受到很大的影响。如何实现在室内环境下获取有效的导航信息以满足高精度导航智能移动机器人的要求且尽量避免使其受到外界环境的影响,具有十分重要的科学理论意义以及工程应用价值。
惯性导航系统(Inertial Navigation System,INS)以牛顿经典力学定律为理论基础,根据惯性测量单元(陀螺仪和加速度计)测量得到的载体的角运动和线运动信息,通过积分运算得到载体的姿态、速度和位置信息。惯性导航系统不依赖任何外部信息,也不向外辐射能量,仅靠系统本身就能在全天候、全球范围内、所有介质环境中自主的进行三维定位和定向,具有机动性好、环境适应力强、隐蔽性好、导航参数和载体运动信息完备以及短时精度高等优点。惯性导航系统的导航误差主要由初始对准的精度、惯性测量单元的误差和载体的运动特性决定,其误差值随时间累积,导航精度随时间发散,不适合单独长时间工作。因此,惯性导航系统单独工作时,不能满足远程、长航等情形下对导航精度和稳定性的要求。
随着计算机视觉技术以及数字图像处理技术的飞速发展,通过采用视觉传感器来对周围环境进行感知进而是实现自身的定位与导航的视觉导航方式被越来越普遍的运用到移动机器人的导航研究当中。视觉导航相较其它导航方式具有信号探测范围广、信息获取丰富的特点,而且视觉传感器属于被动式传感器,不受外界电磁环境等的影响亦不会对环境造成二次污染。但是视觉导航易受敏感器作用距离和光照条件的限制且导航数据更新频率低。
惯性导航和视觉导航有其各自的特点,并具有互补的特性,将两种导航方法结合,取长补短,利用信息融合技术进行组合而成的惯性/视觉组合导航系统,可以最大限度地提高导航的精度和可靠性。但是其导航精度依然受到外界环境的限制。比如当移动机器人需要长期的运动在弱光条件下或是无光的环境中时,视觉信号可能会出现长时间的失锁,而惯性导航系统不能提供长时间高精度导航的缺点会导致惯性/视觉组合导航系统出现严重的精度下降。因此针对视觉长期失锁条件下的惯性导航系统的误差补偿研究显得尤为重要。
发明内容
本发明为了解决移动机器人运动在弱光或是无光环境时,惯性导航系统不能提供长时间高精度导航从而导致惯性/视觉组合导航系统出现严重的精度下降的缺点,提出一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法。
本发明解决其技术问题所采用的技术方案为:在视觉信号有效时,利用移动机器人搭载的摄像头采集动态视频,通过图像特征提取和最近邻匹配法来确定摄像头的速度;根据惯性导航系统测得的航向角并结合摄像头的速度计算出移动机器人的速度;使用迭代扩展卡尔曼滤波最优估计移动机器人的速度、加速度;并利用神经网络建立惯性导航系统的导航速度误差模型;在视觉信号失锁时,依靠之前训练获得的神经网络误差模型对导航系统速度误差进行补偿得到移动机器人速度的最优估计。
进一步的,当视觉信号有效时,利用车载摄像头采集动态视频,采用SURF算法分别提取视频中的相邻两个图像帧中的SURF特征点,并根据最近邻匹配法对两帧图像上的SURF特征点进行匹配,确定摄像头在水平面上的速度Vx、Vy。
进一步的,由惯性导航系统测量得到的航向角结合摄像头在水平面上的速度Vx、Vy,计算得到移动机器人的东向速度和北向速度计算公式如下:
进一步的,利用迭代扩展卡尔曼滤波器,将移动机器人的速度和惯性导航系统测量得到的航向角变化量ωZ进行数据融合,得到移动机器人的东向和北向的速度以及加速度的最优估计;
迭代扩展卡尔曼滤波器的系统方程以移动机器人的东向和北向的速度和加速度作为状态变量,则滤波器的系统方程如式(2)所示:
式中,VE,k,VN,k,AccE,k,AccN,k分别代表k时刻移动机器人的东向速度、北向速度、东向加速度和北向加速度,VE,k+1,VN,k+1,AccE,k+1,AccN,k+1分别代表k+1时刻移动机器人的东向速度、北向速度、东向加速度和北向加速度,T为相邻两帧图片的采样时间,也即数据的采样周期,为系统随机噪声;
滤波器的观测方程如式(3)所示:
式中,υ3×1为观测方程随机噪声。
进一步的,训练误差模型将惯性导航系统中测量得到东向速度和北向速度作为输入,将移动机器人东向和北向速度的最优估计与惯性导航系统测量得到的东向速度和北向速度作差,并将差值作为理想输出,对误差模型进行训练建模。
进一步的,所使用的训练误差模型为RBF神经网络模型。
本发明与现有技术相比的有益效果在于:
1、通过视觉获取室内移动机器人的东向和北向速度,仅需要车载摄像头,不需要借助其他外部设备,具有较好的独立性。
2、采用迭代扩展卡尔曼滤波器将视觉导航信息与惯性导航系统的导航信息进行数据融合,可有效的对系统线性化过程中所产生的截断误差进行补偿,得到的导航信息比上述任何单一导航方法得到的信息精度更高。
3、通过人工智能算法来对惯性导航系统的导航速度误差进行建模,从而实现在视觉信息发生失锁后对惯性导航系统的导航速度误差进行有效的补偿,进而提高了惯性/视觉组合导航的适用范围。
4、使用RBF神经网络对惯性导航系统的导航速度误差进行建模,可以获得精度较高的预测模型。
附图说明
图1为一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法的速度误差训练框图。
图2为采用RBF神经网络的惯性/视觉组合导航方法的速度误差补偿框图。
具体实施方式
下面结合附图对本发明做更进一步的解释。
一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法包括以下几个步骤:
步骤1:如图1所示,当视觉信号良好时,车载摄像头垂直向下放置,获取移动机器人运动过程中所经过路面的动态视频,采用SURF算法分别提取视频中的相邻两个图像帧中的SURF特征点,并记录特征点在图像坐标系中的位置坐标并根据最近邻匹配法对两帧图像上的SURF特征点进行匹配,来确定摄像头在水平面上的速度Vx、Vy;
设车载摄像头的投影中心距离地面的垂直距离为ZR,摄像头成像平面上横轴与纵轴的归一化焦距分别为f1=f/dx,f2=f/dy,f为摄像头焦距,dx和dy分别为成像平面的横轴与纵轴上单位像素的尺寸大小,主光轴点坐标(c1,c2),针孔摄像头模型的归一化映射关系如下:
式中,(XR,YR,ZR)为真实的地面上的某一特定点在相机坐标系中的坐标,此特定点投影在图像坐标系上就是SURF特征点。考虑镜头畸变系数为[k1,k2,k3,k4,k5],其包括径向畸变系数和切向畸变系数,则相应的图像坐标系上的点可以表示为:
其中切向畸变向量 则相应的像素点的最终坐标为:
假设镜头的畸变系数[k1,k2,k3,k4,k5]可忽略,均为零,则:
将(7)式对时间微分得:
式中,Vx、Vy、Vz分别为坐标点XR、YR、ZR关于时间的导数,表示摄像头在相机坐标系x、y、z三个轴方向上的即时速度;vx、vy分别为坐标点xc、yc关于时间的导数,表示SURF特征点在图像坐标系x、y两个轴方向上的即时速度,将(7)式带入(8)式得:
若考虑地面水平则ZR为常值,关于时间的导数为0,即Vz=0,则有:
根据最近邻匹配法对两帧图像上的SURF特征点进行匹配,得到SURF特征点在图像上的横向位移变化Δx和纵向位移变化Δy,则有:
式中,T为相邻两帧图片的采样时间,也即数据的采样周期;
步骤2:根据步骤1获得的摄像头在水平面上的速度Vx,Vy,结合惯性导航系统测量得到的航向角计算得到移动机器人的东向速度和北向速度计算公式如下:
步骤3:利用迭代扩展卡尔曼滤波器,结合步骤2获得的和惯性导航系统测量得到的航向角变化量ωZ进行数据融合,得到移动机器人的东向和北向的速度以及加速度的最优估计,记东向速度和加速度的最优估计分别为北向速度和加速度的最优估计分别为
迭代扩展卡尔曼滤波器的系统方程以移动机器人的东向和北向的速度和加速度作为状态变量,则滤波器的系统方程如式(13)所示:
式中,VE,k,VN,k,AccE,k,AccN,k分别代表k时刻移动机器人的东向速度、北向速度、东向加速度和北向加速度,VE,k+1,VN,k+1,AccE,k+1,AccN,k+1分别代表k+1时刻移动机器人的东向速度、北向速度、东向加速度和北向加速度,为系统随机噪声,且系统方程中的状态量初始值为实际测量所得的实验数据,通常均取为0;
观测方程如式(14)所示:
式中,υ3×1为观测方程随机噪声,且滤波协方差矩阵初始值 系统噪声协方差矩阵 观测噪声协方差矩阵
步骤4:将步骤3获得的移动机器人东向和北向速度的最优估计与惯性导航系统测量得到的东向速度和北向速度作差,并将差值作为训练误差模型的理想输出,将惯性导航系统中测量得到东向速度和北向速度作为训练误差模型的输入,对RBF神经网络误差模型进行训练建模;
步骤5:如图2所示,当载体进入视觉信息失锁区域时,惯性/视觉组合导航系统进入速度误差补偿区域,在此区域,系统无法获得视觉测量信息,只能通过惯性导航系统完成自主导航。此时惯性导航系统根据在视觉信号有效时得到的RBF神经网络模型对惯性导航系统测量的速度信息进行误差补偿,得到在视觉信息失锁区域移动机器人东向和北向的最优速度估计和进而避免了因视觉信息缺失而导致的导航精度迅速下降的问题,具有良好的可行性和前瞻性。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (6)
1.一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法,其特征在于:在视觉信号有效时,利用移动机器人搭载的摄像头采集动态视频,通过图像特征提取和最近邻匹配法来确定摄像头的速度;根据惯性导航系统测得的航向角并结合摄像头的速度计算出移动机器人的速度;使用迭代扩展卡尔曼滤波最优估计移动机器人的速度、加速度;并利用神经网络建立惯性导航系统的导航速度误差模型;在视觉信号失锁时,依靠之前训练获得的神经网络误差模型对导航系统速度误差进行补偿得到移动机器人速度的最优估计。
2.如权利要求1所述的一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法,其特征在于:当视觉信号有效时,利用车载摄像头采集动态视频,采用SURF算法分别提取视频中的相邻两个图像帧中的SURF特征点,并根据最近邻匹配法对两帧图像上的SURF特征点进行匹配,确定摄像头在水平面上的速度Vx、Vy。
3.如权利要求1所述的一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法,其特征在于:由惯性导航系统测量得到的航向角结合摄像头在水平面上的速度Vx、Vy,计算得到移动机器人的东向速度和北向速度计算公式如下:
。
4.根如权利要求1所述的一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法,其特征在于:利用迭代扩展卡尔曼滤波器,将移动机器人的速度和惯性导航系统测量得到的航向角变化量ωZ进行数据融合,得到移动机器人的东向和北向的速度以及加速度的最优估计:
迭代扩展卡尔曼滤波器的系统方程以移动机器人的东向和北向的速度和加速度作为状态变量,则滤波器的系统方程如式(2)所示:
式中,VE,k,VN,k,AccE,k,AccN,k分别代表k时刻移动机器人的东向速度、北向速度、东向加速度和北向加速度,VE,k+1,VN,k+1AccE,k+1,AccN,k+1分别代表k+1时刻移动机器人的东向速度、北向速度、东向加速度和北向加速度,T为相邻两帧图片的采样时间,也即数据的采样周期, 为系统随机噪声;
滤波器的观测方程如式(3)所示:
式中,υ3×1为观测方程随机噪声。
5.如权利要求1所述的一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法,其特征在于:训练误差模型将惯性导航系统中测量得到东向速度和北向速度作为输入,将移动机器人东向和北向速度的最优估计与惯性导航系统测量得到的东向速度和北向速度作差,并将差值作为理想输出,对误差模型进行训练建模。
6.如权利要求1或5所述的一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法,其特征在于:所使用的训练误差模型为RBF神经网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410240678.7A CN103983263A (zh) | 2014-05-30 | 2014-05-30 | 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410240678.7A CN103983263A (zh) | 2014-05-30 | 2014-05-30 | 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103983263A true CN103983263A (zh) | 2014-08-13 |
Family
ID=51275327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410240678.7A Pending CN103983263A (zh) | 2014-05-30 | 2014-05-30 | 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103983263A (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104197938A (zh) * | 2014-09-03 | 2014-12-10 | 厦门大学 | 基于脚部惯性传感器的室内定位方法 |
CN104330084A (zh) * | 2014-11-13 | 2015-02-04 | 东南大学 | 一种水下航行器用神经网络辅助组合导航方法 |
CN104656112A (zh) * | 2015-01-28 | 2015-05-27 | 重庆大学 | 基于表面肌电信号与mems惯组组合的个人定位方法和装置 |
CN105259902A (zh) * | 2015-09-06 | 2016-01-20 | 江苏科技大学 | 水下机器人惯性导航方法及系统 |
CN106352880A (zh) * | 2016-10-28 | 2017-01-25 | 中国电子科技集团公司第五十四研究所 | 一种基于非线性网络的惯性导航算法架构的确定方法 |
CN106527239A (zh) * | 2016-12-30 | 2017-03-22 | 华南智能机器人创新研究院 | 一种多机器人协同操作模式的方法及系统 |
CN106595640A (zh) * | 2016-12-27 | 2017-04-26 | 天津大学 | 基于双imu和视觉融合的动基座上物体相对姿态测量方法及系统 |
CN106767791A (zh) * | 2017-01-13 | 2017-05-31 | 东南大学 | 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法 |
CN107690567A (zh) * | 2015-04-01 | 2018-02-13 | 赛峰电子与防务公司 | 利用扩展卡尔曼滤波器用于对移动载体设备的航行进行追踪的方法 |
CN108106614A (zh) * | 2017-12-22 | 2018-06-01 | 北京轻威科技有限责任公司 | 一种惯性传感器与视觉传感器数据融算法 |
CN108759846A (zh) * | 2018-05-29 | 2018-11-06 | 东南大学 | 自适应扩展卡尔曼滤波噪声模型建立方法 |
CN109073390A (zh) * | 2018-07-23 | 2018-12-21 | 深圳前海达闼云端智能科技有限公司 | 一种定位方法及装置、电子设备和可读存储介质 |
CN109405827A (zh) * | 2018-11-23 | 2019-03-01 | 安徽华米信息科技有限公司 | 终端定位方法及装置 |
CN109443355A (zh) * | 2018-12-25 | 2019-03-08 | 中北大学 | 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法 |
CN109443353A (zh) * | 2018-12-25 | 2019-03-08 | 中北大学 | 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 |
CN109579825A (zh) * | 2018-11-26 | 2019-04-05 | 江苏科技大学 | 基于双目视觉和卷积神经网络的机器人定位系统及方法 |
CN109764876A (zh) * | 2019-02-21 | 2019-05-17 | 北京大学 | 无人平台的多模态融合定位方法 |
CN109781099A (zh) * | 2019-03-08 | 2019-05-21 | 兰州交通大学 | 一种自适应ukf算法的导航方法及系统 |
CN110081890A (zh) * | 2019-05-24 | 2019-08-02 | 长安大学 | 一种结合深度网络的动态k最近邻地图匹配方法 |
WO2019242251A1 (zh) * | 2018-06-21 | 2019-12-26 | 北京三快在线科技有限公司 | 一种定位方法、装置及移动设备 |
CN110631588A (zh) * | 2019-09-23 | 2019-12-31 | 电子科技大学 | 一种基于rbf网络的无人机视觉导航定位方法 |
CN110646574A (zh) * | 2019-10-08 | 2020-01-03 | 张家港江苏科技大学产业技术研究院 | 基于无人船的水质电导率自主检测系统及方法 |
CN111121767A (zh) * | 2019-12-18 | 2020-05-08 | 南京理工大学 | 一种融合gps的机器人视觉惯导组合定位方法 |
CN111913484A (zh) * | 2020-07-30 | 2020-11-10 | 杭州电子科技大学 | 一种变电站巡检机器人在未知环境下的路径规划方法 |
WO2021248636A1 (zh) * | 2020-06-12 | 2021-12-16 | 东莞市普灵思智能电子有限公司 | 一种自动驾驶对象探测和定位系统及方法 |
CN113949999A (zh) * | 2021-09-09 | 2022-01-18 | 之江实验室 | 一种室内定位导航设备和方法 |
US11348274B2 (en) | 2017-01-23 | 2022-05-31 | Oxford University Innovation Limited | Determining the location of a mobile device |
US11436749B2 (en) | 2017-01-23 | 2022-09-06 | Oxford University Innovation Limited | Determining the location of a mobile device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010040585A1 (de) * | 2008-10-06 | 2010-04-15 | Robert Bosch Gmbh | Vorrichtung zur messung einer bewegungsrichtung |
CN102636166A (zh) * | 2012-05-02 | 2012-08-15 | 东南大学 | 基于航向角的wsn/ins组合导航系统及方法 |
CN102692223A (zh) * | 2012-06-27 | 2012-09-26 | 东南大学 | 用于wsn/ins组合导航的多级非线性滤波器的控制方法 |
CN103148855A (zh) * | 2013-02-27 | 2013-06-12 | 东南大学 | 一种ins辅助的室内移动机器人无线定位方法 |
CN103149580A (zh) * | 2013-02-04 | 2013-06-12 | 东南大学 | 一种基于stkf和wnn的gps/ins组合导航方法 |
CN103411621A (zh) * | 2013-08-09 | 2013-11-27 | 东南大学 | 一种面向室内移动机器人的光流场视觉/ins组合导航方法 |
-
2014
- 2014-05-30 CN CN201410240678.7A patent/CN103983263A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010040585A1 (de) * | 2008-10-06 | 2010-04-15 | Robert Bosch Gmbh | Vorrichtung zur messung einer bewegungsrichtung |
CN102636166A (zh) * | 2012-05-02 | 2012-08-15 | 东南大学 | 基于航向角的wsn/ins组合导航系统及方法 |
CN102692223A (zh) * | 2012-06-27 | 2012-09-26 | 东南大学 | 用于wsn/ins组合导航的多级非线性滤波器的控制方法 |
CN103149580A (zh) * | 2013-02-04 | 2013-06-12 | 东南大学 | 一种基于stkf和wnn的gps/ins组合导航方法 |
CN103148855A (zh) * | 2013-02-27 | 2013-06-12 | 东南大学 | 一种ins辅助的室内移动机器人无线定位方法 |
CN103411621A (zh) * | 2013-08-09 | 2013-11-27 | 东南大学 | 一种面向室内移动机器人的光流场视觉/ins组合导航方法 |
Non-Patent Citations (3)
Title |
---|
崔乃刚等: "基于Sigma-point卡尔曼_省略INS/Vision相对导航方法研究", 《宇航学报》 * |
白宇骏等: "神经网络辅助卡尔曼滤波技术在组合导航系统中的应用研究", 《中国惯性技术学报》 * |
顾明武等: "RBFNN辅助卡尔曼滤波在GPS/SINS组合导航中的应用_", 《红外与激光工程》 * |
Cited By (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104197938A (zh) * | 2014-09-03 | 2014-12-10 | 厦门大学 | 基于脚部惯性传感器的室内定位方法 |
CN104330084B (zh) * | 2014-11-13 | 2017-06-16 | 东南大学 | 一种水下航行器用神经网络辅助组合导航方法 |
CN104330084A (zh) * | 2014-11-13 | 2015-02-04 | 东南大学 | 一种水下航行器用神经网络辅助组合导航方法 |
CN104656112A (zh) * | 2015-01-28 | 2015-05-27 | 重庆大学 | 基于表面肌电信号与mems惯组组合的个人定位方法和装置 |
CN104656112B (zh) * | 2015-01-28 | 2017-08-25 | 重庆大学 | 基于表面肌电信号与mems惯组组合的个人定位方法和装置 |
CN107690567B (zh) * | 2015-04-01 | 2019-01-15 | 赛峰电子与防务公司 | 利用扩展卡尔曼滤波器用于对移动载体设备的航行进行追踪的方法 |
CN107690567A (zh) * | 2015-04-01 | 2018-02-13 | 赛峰电子与防务公司 | 利用扩展卡尔曼滤波器用于对移动载体设备的航行进行追踪的方法 |
CN105259902A (zh) * | 2015-09-06 | 2016-01-20 | 江苏科技大学 | 水下机器人惯性导航方法及系统 |
CN106352880B (zh) * | 2016-10-28 | 2019-04-12 | 中国电子科技集团公司第五十四研究所 | 一种基于非线性网络的惯性导航算法架构的确定方法 |
CN106352880A (zh) * | 2016-10-28 | 2017-01-25 | 中国电子科技集团公司第五十四研究所 | 一种基于非线性网络的惯性导航算法架构的确定方法 |
CN106595640A (zh) * | 2016-12-27 | 2017-04-26 | 天津大学 | 基于双imu和视觉融合的动基座上物体相对姿态测量方法及系统 |
CN106527239B (zh) * | 2016-12-30 | 2018-12-21 | 华南智能机器人创新研究院 | 一种多机器人协同操作模式的方法及系统 |
CN106527239A (zh) * | 2016-12-30 | 2017-03-22 | 华南智能机器人创新研究院 | 一种多机器人协同操作模式的方法及系统 |
CN106767791A (zh) * | 2017-01-13 | 2017-05-31 | 东南大学 | 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法 |
US11436749B2 (en) | 2017-01-23 | 2022-09-06 | Oxford University Innovation Limited | Determining the location of a mobile device |
US11348274B2 (en) | 2017-01-23 | 2022-05-31 | Oxford University Innovation Limited | Determining the location of a mobile device |
CN108106614A (zh) * | 2017-12-22 | 2018-06-01 | 北京轻威科技有限责任公司 | 一种惯性传感器与视觉传感器数据融算法 |
CN108759846A (zh) * | 2018-05-29 | 2018-11-06 | 东南大学 | 自适应扩展卡尔曼滤波噪声模型建立方法 |
CN108759846B (zh) * | 2018-05-29 | 2021-10-29 | 东南大学 | 自适应扩展卡尔曼滤波噪声模型建立方法 |
WO2019242251A1 (zh) * | 2018-06-21 | 2019-12-26 | 北京三快在线科技有限公司 | 一种定位方法、装置及移动设备 |
CN109073390B (zh) * | 2018-07-23 | 2022-10-04 | 达闼机器人股份有限公司 | 一种定位方法及装置、电子设备和可读存储介质 |
CN109073390A (zh) * | 2018-07-23 | 2018-12-21 | 深圳前海达闼云端智能科技有限公司 | 一种定位方法及装置、电子设备和可读存储介质 |
CN109405827A (zh) * | 2018-11-23 | 2019-03-01 | 安徽华米信息科技有限公司 | 终端定位方法及装置 |
CN109579825A (zh) * | 2018-11-26 | 2019-04-05 | 江苏科技大学 | 基于双目视觉和卷积神经网络的机器人定位系统及方法 |
CN109579825B (zh) * | 2018-11-26 | 2022-08-19 | 江苏科技大学 | 基于双目视觉和卷积神经网络的机器人定位系统及方法 |
CN109443353A (zh) * | 2018-12-25 | 2019-03-08 | 中北大学 | 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 |
CN109443355A (zh) * | 2018-12-25 | 2019-03-08 | 中北大学 | 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法 |
CN109443355B (zh) * | 2018-12-25 | 2020-10-27 | 中北大学 | 基于自适应高斯pf的视觉-惯性紧耦合组合导航方法 |
CN109443353B (zh) * | 2018-12-25 | 2020-11-06 | 中北大学 | 基于模糊自适应ickf的视觉-惯性紧耦合组合导航方法 |
CN109764876A (zh) * | 2019-02-21 | 2019-05-17 | 北京大学 | 无人平台的多模态融合定位方法 |
CN109781099A (zh) * | 2019-03-08 | 2019-05-21 | 兰州交通大学 | 一种自适应ukf算法的导航方法及系统 |
CN110081890A (zh) * | 2019-05-24 | 2019-08-02 | 长安大学 | 一种结合深度网络的动态k最近邻地图匹配方法 |
CN110631588A (zh) * | 2019-09-23 | 2019-12-31 | 电子科技大学 | 一种基于rbf网络的无人机视觉导航定位方法 |
CN110646574B (zh) * | 2019-10-08 | 2022-02-08 | 张家港江苏科技大学产业技术研究院 | 基于无人船的水质电导率自主检测系统及方法 |
CN110646574A (zh) * | 2019-10-08 | 2020-01-03 | 张家港江苏科技大学产业技术研究院 | 基于无人船的水质电导率自主检测系统及方法 |
CN111121767A (zh) * | 2019-12-18 | 2020-05-08 | 南京理工大学 | 一种融合gps的机器人视觉惯导组合定位方法 |
WO2021248636A1 (zh) * | 2020-06-12 | 2021-12-16 | 东莞市普灵思智能电子有限公司 | 一种自动驾驶对象探测和定位系统及方法 |
CN111913484B (zh) * | 2020-07-30 | 2022-08-12 | 杭州电子科技大学 | 一种变电站巡检机器人在未知环境下的路径规划方法 |
CN111913484A (zh) * | 2020-07-30 | 2020-11-10 | 杭州电子科技大学 | 一种变电站巡检机器人在未知环境下的路径规划方法 |
CN113949999A (zh) * | 2021-09-09 | 2022-01-18 | 之江实验室 | 一种室内定位导航设备和方法 |
CN113949999B (zh) * | 2021-09-09 | 2024-01-30 | 之江实验室 | 一种室内定位导航设备和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103983263A (zh) | 一种采用迭代扩展卡尔曼滤波与神经网络的惯性/视觉组合导航方法 | |
CN103411621B (zh) | 一种面向室内移动机器人的光流场视觉/ins组合导航方法 | |
CN103033189B (zh) | 一种深空探测巡视器惯性/视觉组合导航方法 | |
CN106017463A (zh) | 一种基于定位传感装置的飞行器定位方法 | |
CN107909614B (zh) | 一种gps失效环境下巡检机器人定位方法 | |
CN105865454A (zh) | 一种基于实时在线地图生成的无人机导航方法 | |
CN103994765B (zh) | 一种惯性传感器的定位方法 | |
CN106767791A (zh) | 一种采用基于粒子群优化的ckf的惯性/视觉组合导航方法 | |
AU2018421458B2 (en) | Initial alignment system and method for strap-down inertial navigation of shearer based on optical flow method | |
CN104215239A (zh) | 基于视觉的无人机自主着陆导引装置及导引方法 | |
CN110081875B (zh) | 一种仿鸽子智能的无人机自主导航系统及方法 | |
CN102636081B (zh) | 一种基于视觉运动建模的传递对准方法及装置 | |
CN111077907A (zh) | 一种室外无人机的自主定位方法 | |
CN115272596A (zh) | 一种面向单调无纹理大场景的多传感器融合slam方法 | |
CN112556719B (zh) | 一种基于cnn-ekf的视觉惯性里程计实现方法 | |
CN112254729A (zh) | 一种基于多传感器融合的移动机器人定位方法 | |
CN114019552A (zh) | 一种基于贝叶斯多传感器误差约束的定位置信度优化方法 | |
CN106969721A (zh) | 一种三维测量方法及其测量装置 | |
CN111307146A (zh) | 一种基于双目相机和imu的虚拟现实头戴显示设备定位系统 | |
CN104567801A (zh) | 一种基于立体视觉的高精度激光测量方法 | |
CN114690229A (zh) | 一种融合gps的移动机器人视觉惯性导航方法 | |
CN112444245B (zh) | 一种基于偏振光、光流矢量、双目视觉传感器的仿昆虫视觉组合导航方法 | |
CN112580683A (zh) | 一种基于互相关的多传感器数据时间对齐系统及其方法 | |
CN115824230A (zh) | 一种基于多传感器主动融合的井下无人驾驶车辆定位方法 | |
CN116027351A (zh) | 一种手持/背包式slam装置及定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140813 |