CN112652001B - 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 - Google Patents

基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 Download PDF

Info

Publication number
CN112652001B
CN112652001B CN202011275233.4A CN202011275233A CN112652001B CN 112652001 B CN112652001 B CN 112652001B CN 202011275233 A CN202011275233 A CN 202011275233A CN 112652001 B CN112652001 B CN 112652001B
Authority
CN
China
Prior art keywords
positioning
unit
result
fusion
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011275233.4A
Other languages
English (en)
Other versions
CN112652001A (zh
Inventor
胡宴才
张强
刘洋
张燕
许世波
于光宇
苏文学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Jiaotong University
Original Assignee
Shandong Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Jiaotong University filed Critical Shandong Jiaotong University
Priority to CN202011275233.4A priority Critical patent/CN112652001B/zh
Publication of CN112652001A publication Critical patent/CN112652001A/zh
Application granted granted Critical
Publication of CN112652001B publication Critical patent/CN112652001B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

本发明公开了基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统,包括:EKF数据融合单元、外参标定单元、激光定位单元、视觉定位单元、里程计、路径规划单元、以及定位信息反馈单元;在融合定位过程中,先将里程计结果与视觉定位结果融合得到转化后的视觉定位结果,将转化后的视觉定位结果和激光定位结果输入到EKF数据融合单元,将融合结果输入至路径规划单元和定位信息反馈单元。本发明结合激光建图与视觉建图,可以反应和利用更丰富的环境信息,当某种传感器定位失败时,可避免原地重定位过程,保证移动机器人工作鲁棒性,当某种传感器定位结果发生跳变时,可使用其他传感器依据其置信度对跳变进行修正。

Description

基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统
技术领域
本发明涉及水下机器人技术领域,特别涉及基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统。
背景技术
目前的水下机器人定位主要通过2D激光雷达构建的栅格地图进行定位,但是2D栅格地图只能反映固定高度的障碍物信息,面对结构单一或动态的工作环境存在定位失败的风险。
在定位过程中如果出现观测高度的障碍物信息发生改变,水下机器人无法在环境变化的情况下进行有效的定位工作,无法实时修改更新已有2D激光雷达构建的栅格地图,无法在激光定位失败的情况下继续运行。
发明内容
本发明实施例提供了一种基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统,结合激光建图与视觉建图,可以反应和利用更丰富的环境信息,当某种传感器定位失败时,可避免原地重定位过程,保证移动机器人工作鲁棒性,当某种传感器定位结果发生跳变时,可使用其他传感器依据其置信度对跳变进行修正。
为了解决上述问题,本发明公开了如下技术方案:
第一方面,提供一种基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统,其特征在于,所述系统包括:EKF数据融合单元、外参标定单元、激光定位单元、视觉定位单元、里程计、路径规划单元、以及定位信息反馈单元;
其中,激光定位单元由激光传感器输入激光传感信号输出激光定位结果;视觉定位单元根据相机和IMU数据进行融合定位输出的视觉定位结果;
在融合定位过程中,先将里程计结果与视觉定位结果融合,以里程计为坐标系时,视觉定位结果的转换关系可以表述为TL=TC·TCL·TEX,其中TL为转化后的视觉定位结果,TC为相机坐标系下的定位结果,TCL为相机与机器人主体之间的外参,TEX为初始阶段时不同传感器坐标系下定位结果未清零的初始值;
将转化后的视觉定位结果和激光定位结果输入到EKF数据融合单元,将融合结果输入至路径规划单元和定位信息反馈单元。
进一步的,以里程计的预测值作为约束,利用预测方程和测量方程,以重投影误差最小为优化目标,在流行上进行联合优化,其中联合优化公式如下所示:
Figure BDA0002776387070000021
其中,上述公式中i代表第i个里程计数据,k代表第k个关键帧,j代表里程计数据的积分项,e代表误差项,W是协方差矩阵;等号后第一项是里程计数据的误差项,第二项是环境图像上特征点重投影的误差项。
本发明另一实施例,一种水下机器人设备,其特征在于,包括:设备本体,所述设备本体上设有EKF数据融合单元、外参标定单元、激光定位单元、视觉定位单元、里程计、路径规划单元、以及定位信息反馈单元;
其中,激光定位单元由激光传感器输入激光传感信号输出激光定位结果;视觉定位单元根据相机和IMU数据进行融合定位输出的视觉定位结果;
在融合定位过程中,先将里程计结果与视觉定位结果融合,以里程计为坐标系时,视觉定位结果的转换关系可以表述为TL=TC·TCL·TEX,其中TL为转化后的视觉定位结果,TC为相机坐标系下的定位结果,TCL为相机与机器人主体之间的外参,TEX为初始阶段时不同传感器坐标系下定位结果未清零的初始值;
将转化后的视觉定位结果和激光定位结果输入到EKF数据融合单元,将融合结果输入至路径规划单元和定位信息反馈单元。
进一步的,以里程计的预测值作为约束,利用预测方程和测量方程,以重投影误差最小为优化目标,在流行上进行联合优化,其中联合优化公式如下所示:
Figure BDA0002776387070000031
其中,上述公式中i代表第i个里程计数据,k代表第k个关键帧,j代表里程计数据的积分项,e代表误差项,W是协方差矩阵;等号后第一项是里程计数据的误差项,第二项是环境图像上特征点重投影的误差项。
本发明公开了一种基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统,包括:EKF数据融合单元、外参标定单元、激光定位单元、视觉定位单元、里程计、路径规划单元、以及定位信息反馈单元;在融合定位过程中,先将里程计结果与视觉定位结果融合得到转化后的视觉定位结果,将转化后的视觉定位结果和激光定位结果输入到EKF数据融合单元,将融合结果输入至路径规划单元和定位信息反馈单元。本发明结合激光建图与视觉建图,可以反应和利用更丰富的环境信息,当某种传感器定位失败时,可避免原地重定位过程,保证移动机器人工作鲁棒性,当某种传感器定位结果发生跳变时,可使用其他传感器依据其置信度对跳变进行修正。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一个实施例中基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统的结构示意图。
图2是本发明一个实施例中基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统的流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明中的水下机器人,指的是可以在水底地面建立三维地图的水下爬行机器人,不限于水下爬行作业机器人、水下爆破机器人、水下挖沙机器人、水下特种作业机器人等。
水下机器人设备具有水下行进装置,可以在当前所处环境内自主移动;另外,水下机器人设备还具有视觉传感器和里程计传感器,可分别在移动过程中采集周围环境图像和反应水下机器人设备运动状态的里程计数据。其中,视觉传感器可以是单目摄像头、双目摄像头或者深度摄像头(Red Green Blue-Depth map,RGB-D)等;里程计传感器包括但不限于:惯性测量单元(Inertial measurement unit,IMU)或者里程计(Odometry)。其中,六轴IMU包括三轴陀螺仪和三轴加速度计,九轴IMU包括三轴磁力计、三轴陀螺仪和三轴加速度计。IMU采集的里程计数据包括自主移动设备在三维空间中移动时的角速度和加速度,除此之外,还可以测量重力加速度,但不限于此。里程计采集的里程计数据一方面是水下机器人设备的位姿(位置和转角),另一方面是水下机器人设备的速度(前进速度和转向速度)。在此基础上,将视觉、里程计和语义分割技术相结合,应用到水下机器人设备的SLAM系统中,实现对水下机器人设备的联合定位、导航与避障,有效提高SLAM系统的鲁棒性。
参见图1,本发明一个实施例提出了一种基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统,多传感器信息融合定位是基于扩展卡尔曼滤波,主要原理是在里程计坐标系下将视觉定位结果与里程计进行融合,从而提高定位结果的稳定性,再将融合结果进行转化后与地图坐标系下的激光定位结果进行融合,最终通过融合后的定位信息实时矫正机器人的位姿,从而实现更精准、更鲁棒的定位。
所述系统包括:EKF数据融合单元、外参标定单元、激光定位单元、视觉定位单元、里程计、路径规划单元、以及定位信息反馈单元。激光定位单元由激光传感器输入激光传感信号输出激光定位结果;视觉定位单元根据相机和IMU数据进行融合定位输出的视觉定位结果。
依据工作内容可以将该系统划分为三个阶段:
在系统运行的初始阶段,需将此时传感器得到不同坐标系下的水下机器人定位结果进行关联与统一,以便进行之后的融合工作。以里程计为坐标系时,视觉定位结果的转换关系可以表述为TL=TC·TCL·TEX,其中TL为转化后的视觉定位结果,TC为相机坐标系下的定位结果,TCL为相机与机器人主体之间的外参,TEX为初始阶段时不同传感器坐标系下定位结果未清零的初始值。而以地图为坐标系时,需加入里程计与地图之间的外参TM。在融合定位过程中,当视觉定位结果或激光定位结果输入到卡尔曼滤波器时,首先由激光定位结果对滤波器进行初始化,其次依据构建的运动模型,以x方向为例:Xnew=Xold+Vx*t+0.5*a*t2,Vx_new=Vx_old+a*t,对移动机器人当前位姿及其对应的协方差矩阵进行预估,在预估过程中加入了过程噪声,可以通过调整过程噪声来优化运动模型,使之更符合实际。之后基于均方误差最小的准则,将视觉定位结果和激光定位结果作为观测值,对上一步中的预估值进行修正,最终得到融合定位结果。此外,算法考虑到当出现某传感器的定位结果与其他传感器存在较大的差异,或短时间内该传感器输出位置出现较大的跳变时,可依据融合结果对该传感器给出的定位结果进行修正,从而提高长期融合的鲁棒性和有效性。
水下机器人搭载视觉传感器,包括但不限于单目传感器、双目传感器、鱼眼相机、全景相机。同时搭载里程计模块,包括但不限IMU、ODOM等。在水下机器人系统中,通过硬件时钟方法对多个传感器进行同步触发,保证系统的实时性。视觉传感器与里程计模块刚性连接,通过位姿标定的方法计算得到两者之间坐标系的转换cTi。
通过里程计模块预积分计算的方法可以预测出视觉传感器的上一帧到当前帧的相对位置,结合视觉跟踪过程如光流跟踪、特征匹配跟踪等,可以提高视觉跟踪的匹配速度,尤其是在旋转状态下,提高了系统的鲁棒性。通过IMU系统的重力加速度方向计算,可以将视觉地图与实际物理地图的坐标进行统一,同时可以计算视觉地图的尺度信息。
水下机器人的运行系统在k时刻的过程可以描述为xk={Rk,pk,uk,bgk,bak},依次代表k时刻下的旋转、位移、里程计测量量、陀螺仪偏置、加速度计偏置。水下机器人的运动状态可以通过运动方程从k-1时刻和k时刻的输入从而预测当前的水下机器人位姿。以里程计的预测值作为约束,利用预测方程和测量方程,以重投影误差最小为优化目标,在流行上进行联合优化,其中联合优化公式如下所示:
Figure BDA0002776387070000071
其中,上述公式中i代表第i个里程计数据,k代表第k个关键帧,j代表里程计数据的积分项,e代表误差项,W是协方差矩阵。等号后第一项是里程计数据的误差项,第二个是环境图像上特征点重投影的误差项。
视觉系统通过slideWindow的形式对输入的普通视帧做跟踪、三角化、边缘化。对进入到slideWindow中的关键帧,通过分割的方法对逐个像素进行预测,在室内机器人的运行过程中,动态环境以人为主。语义分割将输入的图像的每个像素标签化,对于动态物体,在SLAM系统中对这些区域不进行跟踪,可以大幅度降低动态环境的干扰。对于固定物体,使用其作为定位约束,加入在地图描述中,给出避障信息及可行驶区域信息,可以提高定位导航的鲁棒性。
在室内环境下,相比于传统视觉SLAM,多传感器融合及语义分割的SLAM系统表现出了更高的鲁棒性。地图尺度信息明确,地图坐标与物理坐标对齐。可以应对机器人打滑、视觉匹配错误等问题。
在动态场景下,里程计系统对视觉SLAM做出了先验约束,语义分割则对视场中的动态物体及背景进行分割,使得视觉系统只对背景区域进行匹配跟踪。在导航状态下,通过语义分割对视场中的动态障碍物进行预测分割,可以作为一种先验信息使得导航提前判断。
本发明公开了一种基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统,包括:EKF数据融合单元、外参标定单元、激光定位单元、视觉定位单元、里程计、路径规划单元、以及定位信息反馈单元;在融合定位过程中,先将里程计结果与视觉定位结果融合得到转化后的视觉定位结果,将转化后的视觉定位结果和激光定位结果输入到EKF数据融合单元,将融合结果输入至路径规划单元和定位信息反馈单元。本发明结合激光建图与视觉建图,可以反应和利用更丰富的环境信息,当某种传感器定位失败时,可避免原地重定位过程,保证移动机器人工作鲁棒性,当某种传感器定位结果发生跳变时,可使用其他传感器依据其置信度对跳变进行修正。
需要说明的是,在本文中,诸如第一和第二之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同因素。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储在计算机可读取的存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质中。
最后需要说明的是:以上所述仅为本发明的较佳实施例,仅用于说明本发明的技术方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所做的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (4)

1.一种基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统,其特征在于,所述系统包括:EKF数据融合单元、外参标定单元、激光定位单元、视觉定位单元、里程计、路径规划单元、以及定位信息反馈单元;
其中,激光定位单元由激光传感器输入激光传感信号输出激光定位结果;视觉定位单元根据相机和IMU数据进行融合定位输出的视觉定位结果;
在融合定位过程中,先将里程计结果与视觉定位结果融合,以里程计为坐标系时,视觉定位结果的转换关系可以表述为TL=TC·TCL·TEX,其中TL为转化后的视觉定位结果,TC为相机坐标系下的定位结果,TCL为相机与机器人主体之间的外参,TEX为初始阶段时不同传感器坐标系下定位结果未清零的初始值;
将转化后的视觉定位结果和激光定位结果输入到EKF数据融合单元,将融合结果输入至路径规划单元和定位信息反馈单元;
其中,在融合定位过程中,当视觉定位结果或激光定位结果输入到卡尔曼滤波器时,首先由激光定位结果对滤波器进行初始化,其次依据构建的运动模型,以x方向为例:Xnew=Xold+Vx*t+0.5*a*t2,Vx_new=Vx_old+a*t,对移动机器人当前位姿及其对应的协方差矩阵进行预估。
2.根据权利要求1所述的系统,其特征在于,以里程计的预测值作为约束,利用预测方程和测量方程,以重投影误差最小为优化目标,在流行上进行联合优化,其中联合优化公式如下所示:
Figure FDA0003954367480000011
其中,上述公式中i代表第i个里程计数据,k代表第k个关键帧,j代表里程计数据的积分项,e代表误差项,W是协方差矩阵;等号后第一项是里程计数据的误差项,第二项是环境图像上特征点重投影的误差项。
3.一种水下机器人设备,其特征在于,包括:设备本体,所述设备本体上设有EKF数据融合单元、外参标定单元、激光定位单元、视觉定位单元、里程计、路径规划单元、以及定位信息反馈单元;
其中,激光定位单元由激光传感器输入激光传感信号输出激光定位结果;视觉定位单元根据相机和IMU数据进行融合定位输出的视觉定位结果;
在融合定位过程中,先将里程计结果与视觉定位结果融合,以里程计为坐标系时,视觉定位结果的转换关系可以表述为TL=TC·TCL·TEX,其中TL为转化后的视觉定位结果,TC为相机坐标系下的定位结果,TCL为相机与机器人主体之间的外参,TEX为初始阶段时不同传感器坐标系下定位结果未清零的初始值;
将转化后的视觉定位结果和激光定位结果输入到EKF数据融合单元,将融合结果输入至路径规划单元和定位信息反馈单元;
其中,在融合定位过程中,当视觉定位结果或激光定位结果输入到卡尔曼滤波器时,首先由激光定位结果对滤波器进行初始化,其次依据构建的运动模型,以x方向为例:Xnew=Xold+Vx*t+0.5*a*t2,Vx_new=Vx_old+a*t,对移动机器人当前位姿及其对应的协方差矩阵进行预估。
4.根据权利要求3所述的设备,其特征在于,以里程计的预测值作为约束,利用预测方程和测量方程,以重投影误差最小为优化目标,在流行上进行联合优化,其中联合优化公式如下所示:
Figure FDA0003954367480000031
其中,上述公式中i代表第i个里程计数据,k代表第k个关键帧,j代表里程计数据的积分项,e代表误差项,W是协方差矩阵;等号后第一项是里程计数据的误差项,第二项是环境图像上特征点重投影的误差项。
CN202011275233.4A 2020-11-13 2020-11-13 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 Active CN112652001B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011275233.4A CN112652001B (zh) 2020-11-13 2020-11-13 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011275233.4A CN112652001B (zh) 2020-11-13 2020-11-13 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统

Publications (2)

Publication Number Publication Date
CN112652001A CN112652001A (zh) 2021-04-13
CN112652001B true CN112652001B (zh) 2023-03-31

Family

ID=75349277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011275233.4A Active CN112652001B (zh) 2020-11-13 2020-11-13 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统

Country Status (1)

Country Link
CN (1) CN112652001B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113776523B (zh) * 2021-08-24 2024-03-19 武汉第二船舶设计研究所 一种机器人低成本导航定位方法、系统及应用
CN114485613B (zh) * 2021-12-31 2024-05-17 浙江大学海南研究院 一种多信息融合水下机器人定位方法
CN117268395B (zh) * 2023-09-20 2024-05-03 北京自动化控制设备研究所 一种无人机地图匹配位置跳变抑制方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3451288A1 (en) * 2017-09-04 2019-03-06 Universität Zürich Visual-inertial odometry with an event camera
CN109959377A (zh) * 2017-12-25 2019-07-02 北京东方兴华科技发展有限责任公司 一种机器人导航定位系统及方法
CN109341705A (zh) * 2018-10-16 2019-02-15 北京工业大学 智能探测机器人同时定位与地图构建系统
CN109737950B (zh) * 2019-01-28 2020-04-17 智真海洋科技(威海)有限公司 基于vio和动力学模型的水下机器人定位系统及方法
CN110261870B (zh) * 2019-04-15 2021-04-06 浙江工业大学 一种用于视觉-惯性-激光融合的同步定位与建图方法
CN110243358B (zh) * 2019-04-29 2023-01-03 武汉理工大学 多源融合的无人车室内外定位方法及系统
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
CN111089585A (zh) * 2019-12-30 2020-05-01 哈尔滨理工大学 一种基于传感器信息融合的建图及定位方法
CN111337943B (zh) * 2020-02-26 2022-04-05 同济大学 一种基于视觉引导激光重定位的移动机器人定位方法
CN111595333B (zh) * 2020-04-26 2023-07-28 武汉理工大学 视觉惯性激光数据融合的模块化无人车定位方法及系统
CN111739063B (zh) * 2020-06-23 2023-08-18 郑州大学 一种基于多传感器融合的电力巡检机器人定位方法

Also Published As

Publication number Publication date
CN112652001A (zh) 2021-04-13

Similar Documents

Publication Publication Date Title
CN112652001B (zh) 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统
CN113781582B (zh) 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN106840148B (zh) 室外作业环境下基于双目摄像机的可穿戴式定位与路径引导方法
US10133278B2 (en) Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof
CN109211241B (zh) 基于视觉slam的无人机自主定位方法
CN112197770B (zh) 一种机器人的定位方法及其定位装置
EP2590042B1 (en) Walking robot performing position recognition using several local filters and a fusion filter
JP6855524B2 (ja) 低速特徴からのメトリック表現の教師なし学習
Chambers et al. Perception for a river mapping robot
CN111338383B (zh) 基于gaas的自主飞行方法及系统、存储介质
CN112740274A (zh) 在机器人设备上使用光流传感器进行vslam比例估计的系统和方法
CN114001733A (zh) 一种基于地图的一致性高效视觉惯性定位算法
CN112506200A (zh) 机器人定位方法、装置、机器人及存储介质
CN111474932B (zh) 一种集成情景经验的移动机器人建图与导航方法
Liu A robust and efficient lidar-inertial-visual fused simultaneous localization and mapping system with loop closure
CN116380039A (zh) 一种基于固态激光雷达和点云地图的移动机器人导航系统
Roggeman et al. Embedded vision-based localization and model predictive control for autonomous exploration
Bender et al. Map-based drone homing using shortcuts
CN117029802A (zh) 一种基于深度学习的多模态slam方法
CN115290090A (zh) 基于多传感器信息融合的slam地图构建方法
Leng et al. An improved method for odometry estimation based on EKF and Temporal Convolutional Network
CN114415655A (zh) 一种基于改进slam的巡检机器人导航控制方法
Palmer et al. Vision based localization system for AUV docking on subsea intervention panels
Housein et al. Extended Kalman filter sensor fusion in practice for mobile robot localization
Zhang et al. A visual slam system with laser assisted optimization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant