CN112991400A - 一种无人艇的多传感器辅助定位方法 - Google Patents

一种无人艇的多传感器辅助定位方法 Download PDF

Info

Publication number
CN112991400A
CN112991400A CN202110372857.6A CN202110372857A CN112991400A CN 112991400 A CN112991400 A CN 112991400A CN 202110372857 A CN202110372857 A CN 202110372857A CN 112991400 A CN112991400 A CN 112991400A
Authority
CN
China
Prior art keywords
representing
formula
imu
unmanned ship
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110372857.6A
Other languages
English (en)
Other versions
CN112991400B (zh
Inventor
鲁仁全
植美渝
徐雍
饶红霞
林明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN202110372857.6A priority Critical patent/CN112991400B/zh
Publication of CN112991400A publication Critical patent/CN112991400A/zh
Application granted granted Critical
Publication of CN112991400B publication Critical patent/CN112991400B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/18Stabilised platforms, e.g. by gyroscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/203Specially adapted for sailing ships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

一种无人艇的多传感器辅助定位方法,搭载于定位系统,具体步骤如下:判断定位系统是否初始化,若否,则返回定位系统的初始化阶段,循环等待至GPS、IMU、双目相机和单目相机的数据不为空;提取ROU区域并读取IMU和GPS的数据,根据深度学习的结果动态确定滑窗窗口大小,具体包括:双目相机线程进行粒子滤波实现跟踪目标,根据深度学习的分类结果进行动态投放粒子的数量;根据粒子追踪的目标进行计算双目相机的位姿;将双目相机的位姿、IMU的位姿和GPS的位姿进行融合;构造定位系统的卡尔曼的量测方程;获取卡尔曼的增益,确定定位系统的误差状态并获得无人艇的位置、速度和姿态,更新卡尔曼的系统协方差。本发明实现最优解算无人艇自身位姿的效果。

Description

一种无人艇的多传感器辅助定位方法
技术领域
本发明涉及无人艇定位技术领域,尤其涉及一种无人艇的多传感器辅助定位方法。
背景技术
无人艇在水域上运行,最需要的是解算出自身的位姿,有了位姿无人艇方可进行定位与导航。现有的无人艇主要在应用卫星导航(GPS)进行定位,GPS的获取数据,经过解算算法得出X,Y,Z轴的数据,定位出无人艇的当前位置。GPS的定位方法可以全天候,全球性都很出色,但是缺点易容易受到电磁干扰并且GPS的更新频率在1hz-10hz,无人艇的水域运行得不到实时性的满足;
而另一种技术则是采用惯性测量单元(IMU),惯性测量单元搭配在无人艇,通过获取惯性测量单元的角加速度和加速度,积分计算出惯导当前的速度与位置,从而获取无人艇的当前姿态,惯导的导航系统数据频率更新快,输出信息多,是缺点在于无人艇的运作是需要长时间的,IMU具有累积误差的致命缺点,无人艇无法准确定位,系统的误差大。
上述两种技术对于无人艇自身的位姿的计算求解均无法达到最佳,因此目前急需一种在解决上述现有技术的同时能够最优解算出无人艇自身位姿的方法。
发明内容
本发明的目的在于针对背景技术中的缺陷,提出一种无人艇的多传感器辅助定位方法,实现最优解算无人艇自身位姿的效果。
为达此目的,本发明采用以下技术方案:
一种无人艇的多传感器辅助定位方法,搭载于定位系统,所述定位系统包括GPS、IMU、双目相机和单目相机,所述定位方法具体步骤如下:
步骤一:判断所述定位系统是否初始化,若否,则返回所述定位系统的初始化阶段,循环等待至所述GPS、IMU、双目相机和单目相机的数据不为空;若是,则执行步骤二;
步骤二:提取ROU区域并读取IMU和GPS的数据,根据深度学习的结果动态确定滑窗窗口大小,具体包括:
双目相机线程进行粒子滤波实现跟踪目标,根据深度学习的分类结果进行动态投放粒子的数量;
根据粒子追踪的目标进行计算双目相机的位姿;
步骤三:将双目相机的位姿、IMU的位姿和GPS的位姿进行融合;
步骤四:构造所述定位系统的卡尔曼的量测方程;
步骤五:获取卡尔曼的增益,确定定位系统的误差状态并获得无人艇的位置、速度和姿态,更新卡尔曼的系统协方差。
优选的,在步骤三中,包括获取GPS的数据,具体步骤如下:
根据公式(1)-公式(3)确定卫星在轨道平面的位置;
x′k=Fkcosuk--公式(1);
y′k=rksinuk--公式(2);
z′k=0--公式(3);
其中:
(x′k,y′k,z′k)表示卫星在轨道平面的坐标位置;
uk表示摄动校正后升交点角距;
rk表示卫星矢径长度;
根据公式(4)获取升交点赤经;
Figure BDA0003009965970000031
其中:
Ωk表示升交点赤经;
Ω0表示参考时刻升交点赤经;
Figure BDA0003009965970000032
表示升交点赤经变化率;
Figure BDA0003009965970000033
表示地球自转角速率;
tk表示当前k时刻时间;
toe表示参考时间;
根据公式(5)-公式(7)将卫星在轨道直角坐标系中的坐标位置(x′k,y′k,z′k)转换为WGS-84坐标系中的坐标(xk,yk,zk);
xk=x′kcosΩk-y′kcosiksinΩk--公式(5);
yk=x′ksinΩk+y′kcosikcosΩk--公式(6);
zk=y′ksinik--公式(7);
其中:ik表示摄动校正后的轨道倾角;
基于上述坐标位置获取无人艇的当前位置。
优选的,在步骤三中,包括获取IMU数据,具体步骤如下:
获取无人艇的位置p(t)和速度v(t),包括:
Figure BDA0003009965970000034
Figure BDA0003009965970000035
其中:
Figure BDA0003009965970000036
定示更新下一个时刻的位置;
Figure BDA0003009965970000041
表示更新下一个时刻的速度;
a(t)表示利用传感器读取的加速度;
Figure BDA0003009965970000042
表示旋转矩阵;
am、ba、na表示加速度的噪声;
g表示重力;
使用4阶Runge-Kutta积分对速度和位置进行更新;
更新速度包括:
Figure BDA0003009965970000043
Figure BDA0003009965970000044
Figure BDA0003009965970000045
Figure BDA0003009965970000046
Figure BDA0003009965970000047
其中:
kv1表示时间段开始时的斜率;
kv2表示时间段中点的斜率;
kv3表示时间段中点的斜率;
kv4表示时间段终点的斜率;
Figure BDA0003009965970000048
表示更新下一个时刻n的速度;
an表示当前的时刻n的加速度;
Δt表示相隔的两个时刻时间Δt=t2-t1
vn表示当前的时刻n的速度;
更新位置包括:
Kp1=v(tn)=vn-公式(15);
Kp2=v(tn+Δt/2)=vn+Δt/2·kv1-公式(16);
Kp3=v(tn+Δt/2)=vn+Δt/2·kv2-公式(17);
Kp4=v(tn+Δt)=vn+Δt·kv3-公式(18);
Figure BDA0003009965970000051
其中:
Kp1表示时间段开始时的斜率;
Kp2表示时间段中点的斜率;
Kp3表示时间段中点的斜率;
Kp4表示时间段终点的斜率;
pn表示当前的时刻n的位置。
优选的,在步骤三中,将IMU和GPS的位姿融合形成无人艇第一个融合位姿,具体步骤如下:
Zk=Zk-1+Kw(PIMU-PGPs+δnp)--公式(20);
Figure BDA0003009965970000052
其中:
Zk表示位置量测值;
Kw表示融合增益;
PIMU表示IMU的位置;
PGPS表示GPS的位置;
δnp表示位置噪声误差;
δnv表示速度噪声误差;
δp表示PIMU-PGPS
δv表示VIMU-VGPS
8w表示设定噪声0.0047。
优选的,包括获取双目相机的位姿,具体步骤如下:
提取ROI区域特征点,包括:
获取一帧图片,选择感兴趣区域,以一个像素点P为原点,P点的亮度为lp,设定阈值N,若其他像素点满足如下条件,则认为满足条件的像素点为一个特征点;
lpm>lp+N或lpm<lp-N;其中,lpm表示满足条件的其他像素点;
遍历感兴趣区域,提取所有满足条件的特征点;
获取特征点后得到特征点的领域像素梯度分布,根据梯度公式划分领域窗口的大小,获得特征描述子。
优选的,获取双目相机的位姿还包括如下步骤:
粒子算法的跟踪,包括:
初始化:获取到目标模板的特征描述子,在以该目标模板的位置为中心开始向全图随机撒M个粒子,粒子集为Ψi={xi,yi,ωi},i=1,2,3...M;其中,x和y分别表示是第i个粒子的位置坐标,ω表示第i个粒子的相似度;
通过匹配点对集合(P0,P1),其中,P0表示粒子特征点,P1表示后一个时刻的粒子特征点;获取匹配对之间的相似度,按照相似度由大到小对粒子集重新排序;
重采样:将粒子不断更新移动速度来改变粒子的位置的方式修改为按照粒子相似度来重新随机撒粒子,随机选取相似度最高的n个粒子,根据公式(22)获得以每个粒子为中心的一定范围内需要重新投放的粒子数,总共投放的粒子数应等于N个;
Figure BDA0003009965970000071
Figure BDA0003009965970000072
其中:
g表示n个粒子的相似度之和;
Ci表示将N个粒子按照相似度重新分为n份;
Figure BDA0003009965970000073
表示权重;
粒子滤波跟踪:第t时刻目标的位置是粒子集Ψi中根据公式(23)获得的位置(X,Y),重复重采样和跟踪步骤实现粒子滤波跟踪;
Figure BDA0003009965970000074
Figure BDA0003009965970000075
其中:
Figure BDA0003009965970000076
表示上一个时刻的粒子特征点的x位置;
Figure BDA0003009965970000077
表示上一个时刻的粒子特征点的y位置。
优选的,获取双目相机的位姿还包括:
特征点更新:基于Body-frame的姿态约束特征点更新,所述双目相机构造三维相机坐标系,为卡尔曼滤波求解最有位姿提供三维信息,具体包括:
H=KRk′-1--公式(24);
xk′=Hxk-1′--公式(25);
其中,H表示预测点矩阵;
k′表示标定参数;
R表示Body-frame坐标系的位姿矩阵;
xk′表示预测后的相机特征点。
优选的,构造量测方程包括:
Figure BDA0003009965970000081
其中:
rj表示量测方程的结果;
Figure BDA0003009965970000082
表示残差对误差状态向量的雅克比矩阵;
Figure BDA0003009965970000083
表示无人艇当前的状态;
Figure BDA0003009965970000084
表示残差对特征点的位置的雅克比矩阵;
Figure BDA0003009965970000085
表示无人艇观察的特征点;
nj表示噪声;
将公式(17)投影到左零空间V获得:
Figure BDA0003009965970000086
其中:
Figure BDA0003009965970000087
表示优化后的残差;
Figure BDA0003009965970000088
表示左零空间对状态向量雅克比;
Figure BDA0003009965970000089
表示噪声;
进行EKF滤波,获得最优位姿,包括:
对左零空间对状态向量雅克比
Figure BDA00030099659700000810
进行矩阵分解获得:
Figure BDA00030099659700000811
其中:
r′表示矩阵分解后的结果;
TH表示
Figure BDA00030099659700000812
分解后的列向量;
n′表示噪声;
n′的噪声协方差R为:
R=σ2I--公式(29);
其中:
σ2表示IMU的误差;
I表示单位矩阵;
获取卡尔曼的增益K,包括:
Figure BDA0003009965970000091
其中:
Figure BDA0003009965970000092
表示
Figure BDA0003009965970000093
分解后的列向量的转置;
P表示状态协方差;
根据卡尔曼的增益K和对左零空间对状态向量雅克比
Figure BDA0003009965970000094
进行矩阵分解获得最优状态误差向量Δx为:
Δx=Kr′--公式(31);
恢复定位系统的状态xk+1为:
xk+1=xk′+Δx--公式(32);
其中:xk′表示无人艇当前的状态;
更新定位系统的状态协方差矩阵Pk+1|k+1
Pk+1|k+1=(I-KTH)Pk+1|k(I-KTH)-1+KPKT--公式(32);
其中:
KT表示卡尔曼的增益K的转置。
优选的,所述深度学习包括:
通过预先训练好的联级回归模型的多尺度卷积神经网络,预测待定场景的类别,其中,每一个精化层包括特征提取器、特征融合器和回归器;
在训练好的模型中输入图片得出分类结果,依据特征提取器的数据,归一化特征点获取滑窗大小因子。
本发明相对于现有技术来说所达到的有益效果:
本发明相对于传统的定位解算算法,融合了多个传感器的数据,弥补了各个传感器的缺点实现1+1>2的效果,利用IMU的更新频率快的特点实现载体的实时性要求,融合GPS后弥补IMU本身具有发散的缺点,同时补上GPS的更新频率慢,相机的特征点提取采用粒子滤波的思想,实现更好的持续捕捉并且追踪特征点,相机的特征点预测加入了载体坐标系的相对旋转进行约束。现更好的特征点更新,弥补上相机的尺度变化问题,使得鲁棒性更佳。深度学习的计算结果,对不同的场景应用不同的初始参数,以便更好解算位姿。
本发明可以在GPS的无信号的环境,GPS的数据紊乱,融合时候,系统更考虑IMU的数据与视觉可靠性。对于长时间的运作IMU数据错误也可以计算出好的无人艇状态,也可以在视觉捕捉的数据过差也能精准定位无人艇的当前状态。同时对于传感器的异常例如:传感器的损坏等因素造成数据错误。具有一定的纠正错误能力,即在单一传感器损坏依然可以正常定位无人艇的状态。在数据完整的场景,无人艇系统可以提高系统的稳定性,快速性,准确性。以深度学习反馈的结果为参数因子决定系统投放的粒子数和滑窗大小以及常见的初始化参数。动态调节系统的计算。数据残缺可以加大上一次的数据计算完成下一个时刻的估计定位状态。完成定位无人艇系统的状态。
本发明的精度较高,使用滤波的方法使得定位出无人艇的当前专利使用的专利使用方法较快解算出当前的无人艇数据,相比传统的方法具有使用场景约束较小状态更具有高精度性。
附图说明
图1是本发明的一个实施例的定位系统硬件结构示意图;
图2是本发明的一个实施例的定位系统数据传输示意图;
图3是本发明的一个实施例的定位系统运行框架图;
图4是本发明的一个实施例的定位系统的数学模型图;
图5是本发明的一个实施例的IMU与GPS的时间差关系图;
图6是本发明的一个实施例的GPS与IMU的运算关系图;
图7是本发明的一个实施例的相机追踪示意图;
图8是本发明的一个实施例的传感器融合顺序图;
图9是本发明的一个实施例的深度学习的使用流程图;
图10是本发明的一个实施例的神经卷积网络训练图;
图11是本发明的一个实施例的分类结果的无人艇应用图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。
本发明的一种无人艇的多传感器辅助定位方法,搭载于定位系统,本发明为无人艇的定位提供了一种新的思路,系统由相机,IMU,GPS来组成,利用IMU读取的位姿和GPS读取的位姿进行数据融合,对两个数据进行权值融合,相机的特征点识别使用粒子滤波提取特征进行持续追踪,载体系融合后的数据与相机构成的三维坐标构造残差量测模型,对模型进行卡尔曼的算法定位出当前无人艇的位姿,以便于后续的工作。
对于水域上面的场景具有单一化的情况使用深度学习计算出场景,对不同的场景加载不同的设定数据以便于更精确的解算位姿。不同场景由深度学习反馈的参数为滑窗大小因子决定粒子滤波的投放粒子数目与滑窗的窗口大小。特征点少,双目相机投放的粒子多去捕捉特征点以及滑窗的窗口变大,对老帧的计算更多确定的无人艇状态更为精准。特征点多,双目相机投放的粒子少去捕捉特征点以及滑窗的窗口小,对新帧的计算更多确定的无人艇状态更为精准。因此,深度学习的分类结果反馈的滑窗大小因子可以动态的变化滑窗窗口大小
本发明提出滤波的视觉与GPS和IMU的融合,以及加以深度学习的辅助的方法去定位出无人艇的当前状态包括位置,速度,姿态。
如图1和图2所示,所述定位系统包括GPS、IMU、双目相机和单目相机;
如图3所示,所述定位方法具体步骤如下:
步骤一:判断所述定位系统是否初始化,若否,则返回所述定位系统的初始化阶段,循环等待至所述GPS、IMU、双目相机和单目相机的数据不为空;若是,则执行步骤二;
步骤二:提取ROU区域并读取IMU和GPS的数据,根据深度学习的结果动态确定滑窗窗口大小,具体包括:
双目相机线程进行粒子滤波实现跟踪目标,根据深度学习的分类结果进行动态投放粒子的数量;
根据粒子追踪的目标进行计算双目相机的位姿;
步骤三:将双目相机的位姿、IMU的位姿和GPS的位姿进行融合;
步骤四:构造所述定位系统的卡尔曼的量测方程;
步骤五:获取卡尔曼的增益,确定定位系统的误差状态并获得无人艇的位置、速度和姿态,更新卡尔曼的系统协方差。
本发明通过解算出系统的当前的位置,速度,姿态数据,在系统初始化后把深度学习的分类结果反馈出来的滑窗大小因子加入解算之前,然后将预设的参数加入无人艇初始系统中,无人艇的相机手动提取ROI区域,IMU,GPS读取数据。系统的相机部分采用粒子滤波实现持续追踪特征点并且左右相机求解相机位姿,多传感器融合存在时间差问题,因此根据各个传感器时间差问题,IMU的数据处理一直处理,当有相机数据,GPS数据来临时就进行多传感器融合。对于融合后,构造相机重投影误差量测模型,进行计算卡尔曼的增益,最终达到解算出最优的位置,速度,姿态。
本发明的数学模型如图4所示:
World表示世界坐标系,Body Frame表示载体坐标系,Cam表示相机坐标系。组合传感器将多个传感器的优势集合在一起,形成一个约束条件解算出当前的姿态,位置,速度;
在图4中,o0-u0-v0的为双目相机的左侧相机,也是左侧相机的图像坐标。o1-u1-v1是双目相机右侧相机,右侧相机的图像坐标,两个相机匹配作为相机视觉约束条件。o2-u2-v2是作为辅助相机的图像坐标。
Figure BDA0003009965970000131
是世界坐标系下的一个特征点,在双目相机与独立相机的共同可视范围内,由图3可知,该点可投射到双目相机的两个相机的P0,P1
系统由一个拥有左右侧相机的双目立体相机,单目的相机以及IMU和GPS传感器组合而成。系统的工作主要双目相中的左右侧相机立体匹配后由,双目相机进行粒子滤波,计算相机位姿。此时,IMU与GPS的位姿也进行一个加权融合,产生一个IMU与GPS的融合位姿与相机的位姿再进行传感器融合优化。系统的更新主要由视觉更新完成,由观测特征点确定量测方程,对量测方程简化。经过卡尔曼计算估计出最优的姿态,速度,位置。单目相机的工作主要是深度学习计算当前特征点数目判断应用场景是否是环境复杂场景还是单一的空旷环境场景。返回数据可以决定投放粒子数目和滑动窗口的大小。
优选的,在步骤三中,包括获取GPS的数据,具体步骤如下:
GPS可以提供无人艇的当前位置,获取无人艇的当前位置与速度。那么极坐标表示升交点角距和卫星矢径长度即可确定卫星在轨道平面的位置(x′k,y′k,z′k),具体的:
根据公式(1)-公式(3)确定卫星在轨道平面的位置;
x′k=rkcosuk--公式(1);
y′k=rksinuk--公式(2);
z′k=0--公式(3);
其中:
(x′k,y′k,z′k)表示卫星在轨道平面的坐标位置;
uk表示摄动校正后升交点角距;
rk表示卫星矢径长度;
根据公式(4)获取升交点赤经;
Figure BDA0003009965970000141
其中:
Ωk表示升交点赤经;
Ω0表示参考时刻升交点赤经;
Figure BDA0003009965970000142
表示升交点赤经变化率;
Figure BDA0003009965970000151
表示地球自转角速率;
tk表示当前k时刻时间;
toe表示参考时间;
根据公式(5)-公式(7)将卫星在轨道直角坐标系中的坐标位置(x′k,y′k,z′k)转换为WGS-84坐标系中的坐标(xk,yk,zk);
xk=x′kcosΩk-y′kcosiksinΩk--公式(5);
yk=x′ksinΩk+y′kcosikcosΩk--公式(6);
zk=y′ksinik--公式(7);
其中:ik表示摄动校正后的轨道倾角;
基于上述坐标位置获取无人艇的当前位置。
优选的,在步骤三中,包括获取IMU数据,具体步骤如下:
IMU的更新频率达到200Hz,IMU得到原始数据。无人艇需要计算重力因素和误差,为了求出零偏,比例因子,交轴耦合等误差,本系统采用Kalibr工具箱标定,通过旋转3个轴,针对加速度计与陀螺仪同时标定。得到标定后数据,这里的加速度积分得到速度,速度积分得到位置。积分过程选择了RK4的积分方法。积分的原理是近似的办法,利用多个斜率加权近似整段函数的斜率;
获取无人艇的位置p(t)和速度v(t),包括:
Figure BDA0003009965970000152
Figure BDA0003009965970000153
其中:
Figure BDA0003009965970000154
表示更新下一个时刻的位置;
Figure BDA0003009965970000155
表示更新下一个时刻的速度;
a(t)表示利用传感器读取的加速度;
Figure BDA0003009965970000161
表示旋转矩阵;
am、ba、na表示加速度的噪声;
g表示重力;
使用4阶Runge-Kutta积分对速度和位置进行更新;
更新速度包括:
Figure BDA0003009965970000162
Figure BDA0003009965970000163
Figure BDA0003009965970000164
Figure BDA0003009965970000165
Figure BDA0003009965970000166
其中:
kv1表示时间段开始时的斜率;
kv2表示时间段中点的斜率;
kv3表示时间段中点的斜率;
kv4表示时间段终点的斜率;
Figure BDA0003009965970000167
表示更新下一个时刻n的速度;
an表示当前的时刻n的加速度;
Δt表示相隔的两个时刻时间Δt=t2-t1
vn表示当前的时刻n的速度;
更新位置包括:
Kp1=v(tn)=vn-公式(15);
Kp2=v(tn+Δt/2)=vn+Δt/2·kv1-公式(16);
Kp3=v(tn+Δt/2)=vn+Δt/2·kv2-公式(17);
Kp4=v(tn+Δt)=vn+Δt·kv3-公式(18);
Figure BDA0003009965970000171
其中:
Kp1表示时间段开始时的斜率;
Kp2表示时间段中点的斜率;
Kp3表示时间段中点的斜率;
Kp4表示时间段终点的斜率;
pn表示当前的时刻n的位置。
利用RK4的迭代计算出IMU的当前位置,速度,位置以及偏差。
优选的,如图5和图6所示,无人艇单一的传感器对于定位是极其不利的,首先我们进行GPS和IMU的传感器数据,融合主要利用惯导的误差方程作为系统的方程,利用惯导的输出的位置,速度以及卫星系统的输出位置,速度做差作为系统的量测量,以便进行后续的卡尔曼滤波。
惯导的频率是要比GPS的频率快的,因此出现了一个时间差。在组合中,在有INS的信息就更新INS信息存储在缓冲数组中,当GPS的信息到来才可以进行处理做差计算;
在步骤三中,将IMU和GPS的位姿融合形成无人艇第一个融合位姿,具体步骤如下:
Zk=Zk-1+Kw(PIMU-PGPS+δnp)--公式(20);
Figure BDA0003009965970000172
其中:
Zk表示位置量测值;
Kw表示融合增益;
PIMU表示IMU的位置;
PGPS表示GPS的位置;
δnp表示位置噪声误差;
δnv表示速度噪声误差;
δp表示PIMU-PGPS
δv表示VIMU-VGPS
δw表示设定噪声0.0047。
GPS和IMU的融合形成无人艇的第一个融合位姿信息,实现较为可靠的数据。
优选的,如图7所示,系统不仅仅有惯导和卫星的约束估计位姿,还有相机的约束,做出最优估计。本系统采用Intel RealSense T265带IMU的追踪鱼眼相机,可以利用粒子滤波优化左眼追踪特征点,采用自适应Ransac算法剔除误匹配点在左右眼匹配成优化后的三维特征点,利用IMU与GPS的融合结果的相对转动变量R估计下一个特征点的位置;
包括获取双目相机的位姿,具体步骤如下:
提取ROI区域特征点,包括:
获取一帧图片,选择感兴趣区域,以一个像素点P为原点,P点的亮度为lp,设定阈值N,若其他像素点满足如下条件,则认为满足条件的像素点为一个特征点;
lpm>lp+N或lpm<lp-N;其中,lpm表示满足条件的其他像素点;
遍历感兴趣区域,提取所有满足条件的特征点;
获取特征点后得到特征点的领域像素梯度分布,根据梯度公式划分领域窗口的大小,获得特征描述子。
特征点匹配通常会发生误匹配点,利用自适应Rahsac算法剔除误匹配点。特征点的过多导致不可以使用最小二乘法拟合特征点,使用Ransac将特征点分为局外点与局内点,降低计算矩阵的维度。
优选的,获取双目相机的位姿还包括如下步骤:
粒子算法的跟踪,包括:
初始化:获取到目标模板的特征描述子,在以该目标模板的位置为中心开始向全图随机撒M个粒子,粒子集为Ψi={xi,yi,ωi},i=1,2,3...M;其中,x和y分别表示是第i个粒子的位置坐标,ω表示第i个粒子的相似度;
通过匹配点对集合(P0,P1),其中,P0表示粒子特征点,P1表示后一个时刻的粒子特征点;获取匹配对之间的相似度,按照相似度由大到小对粒子集重新排序;
重采样:为了提高程序响应速度,将粒子不断更新移动速度来改变粒子的位置的方式修改为按照粒子相似度来重新随机撒粒子,随机选取相似度最高的n个粒子,根据公式(22)获得以每个粒子为中心的一定范围内需要重新投放的粒子数,总共投放的粒子数应等于N个;
Figure BDA0003009965970000191
Figure BDA0003009965970000192
其中:
g表示n个粒子的相似度之和;
Ci表示将N个粒子按照相似度重新分为n份;
Figure BDA0003009965970000201
表示权重;
粒子滤波跟踪:第t时刻目标的位置是粒子集Ψ1中根据公式(23)获得的位置(X,Y),重复重采样和跟踪步骤实现粒子滤波跟踪;
Figure BDA0003009965970000202
Figure BDA0003009965970000203
其中:
Figure BDA0003009965970000204
表示上一个时刻的粒子特征点的x位置;
Figure BDA0003009965970000205
表示上一个时刻的粒子特征点的y位置。
优选的,获取双目相机的位姿还包括:
特征点更新:粒子算法不具备尺度更新与感兴趣区域内的特征点更新,在长时间的追踪容易发生形变导致匹配错误,采用Body-frame的姿态约束特征点更新,并且双目相机可以构造出三维的相机坐标系,可以为后续的卡尔曼滤波求解最优位姿提供三维信息;
基于Body-frame的姿态约束特征点更新,所述双目相机构造三维相机坐标系,为卡尔曼滤波求解最有位姿提供三维信息,具体包括:
H=KRk′-1--公式(24);
xk′=Hxk-1′--公式(25);
其中,H表示预测点矩阵;
k′表示标定参数;
R表示Body-frame坐标系的位姿矩阵;
xk′表示预测后的相机特征点。
优选的,如图8所示,载体系下的坐标是经过GPS和IMU的数据融合,在相机数据没有到来之前,一直更新IMU,相机额更新频率比GPS快,系统先和相机融合再以GPS的信息矫正IMU的累积误差,系统状态矩阵增广进行了两次;对载体估计要以误差作为状态向量,这样的目的在于系统处于强非线性化的情况下,偏差接近0值可以进行线性化误差比较小,根据上述的GPS/INS解算与相机的特征点追踪进行量测模型构造;
构造量测方程包括:
Figure BDA0003009965970000211
其中:
rj表示量测方程的结果;
Figure BDA0003009965970000212
表示残差对误差状态向量的雅克比矩阵;
Figure BDA0003009965970000213
表示无人艇当前的状态;
Figure BDA0003009965970000214
表示残差对特征点的位置的雅克比矩阵;
Figure BDA0003009965970000215
表示无人艇观察的特征点;
nj表示噪声;
将公式(17)投影到左零空间V获得:
Figure BDA0003009965970000216
其中:
Figure BDA0003009965970000217
表示优化后的残差;
Figure BDA0003009965970000218
表示左零空间对状态向量雅克比;
Figure BDA0003009965970000219
表示噪声;
进行EKF滤波,获得最优位姿,包括:
对左零空间对状态向量雅克比
Figure BDA00030099659700002110
进行矩阵分解获得:
Figure BDA0003009965970000221
其中:
r′表示矩阵分解后的结果;
TH表示
Figure BDA0003009965970000222
分解后的列向量;
n′表示噪声;
n′的噪声协方差R为:
R=σ2I--公式(29);
其中:
σ2表示IMU的误差;
I表示单位矩阵;
获取卡尔曼的增益K,包括:
Figure BDA0003009965970000223
其中:
Figure BDA0003009965970000224
表示
Figure BDA0003009965970000225
分解后的列向量的转置;
P表示状态协方差;
根据卡尔曼的增益K和对左零空间对状态向量雅克比
Figure BDA0003009965970000226
进行矩阵分解获得最优状态误差向量Δx为:
Δx=Kr′--公式(31);
恢复定位系统的状态xk+1为:
xk+1=xk′+Δx--公式(32);
其中:xk′表示无人艇当前的状态;
更新定位系统的状态协方差矩阵Pk+1|k+1
Pk+1|k+1=(I-KTH)Pk+1|k(I-KTH)-1+KPKT--公式(32);
其中:
KT表示卡尔曼的增益K的转置。
优选的,无人艇的场景比较特殊,水域上的情况,相机大多数的情况可能捕捉空旷的水面,双目特征点的统计办法不能区分不同的场景,设定参数单一化使得无人艇在水域上的定位运行效果不佳,及时的切换里程计的参数是十分必须的,因此使用经过训练的神经网络对大部分场景进行识别;
本系统采用级联回归的模型的多尺度卷积神经网络的方法进行场景预测,深度学习的方法流程如图9所示;
所述深度学习包括:
通过预先训练好的联级回归模型的多尺度卷积神经网络,预测待定场景的类别,其中,每一个精化层包括特征提取器、特征融合器和回归器;
在训练好的模型中输入图片得出分类结果,依据特征提取器的数据,归一化特征点获取滑窗大小因子。
如图10所示:
Cov1_1:第一个网络分支的第一个卷积层;
Cov3_1:第一个网络分支的第三个卷积层;
Cov3_2:第二个网络分支的第三个卷积层;
Cov3_3:第三个网络分支的第三个卷积层;
Fc_1:第一个全连接层;
深度学习捕捉的场景反馈滑窗大小因子参数,及时调制位姿计算,提升计算速度以及精准度。在分类结果为空旷区域即特征点少,就滑窗的窗口变大,计算的无人艇位姿更为准确。相反,特征点少,计算滑窗大小变小,提升计算速度与精准度。无人艇在深度学习的卷积网络作用如图11所示。
以上结合具体实施例描述了本发明的技术原理。这些描述只是为了解释本发明的原理,而不能以任何方式解释为对本发明保护范围的限制。基于此处的解释,本领域的技术人员不需要付出创造性的劳动即可联想到本发明的其它具体实施方式,这些方式都将落入本发明的保护范围之内。

Claims (9)

1.一种无人艇的多传感器辅助定位方法,其特征在于:搭载于定位系统,所述定位系统包括GPS、IMU、双目相机和单目相机,所述定位方法具体步骤如下:
步骤一:判断所述定位系统是否初始化,若否,则返回所述定位系统的初始化阶段,循环等待至所述GPS、IMU、双目相机和单目相机的数据不为空;若是,则执行步骤二;
步骤二:提取ROU区域并读取IMU和GPS的数据,根据深度学习的结果动态确定滑窗窗口大小,具体包括:
双目相机线程进行粒子滤波实现跟踪目标,根据深度学习的分类结果进行动态投放粒子的数量;
根据粒子追踪的目标进行计算双目相机的位姿;
步骤三:将双目相机的位姿、IMU的位姿和GPS的位姿进行融合;
步骤四:构造所述定位系统的卡尔曼的量测方程;
步骤五:获取卡尔曼的增益,确定定位系统的误差状态并获得无人艇的位置、速度和姿态,更新卡尔曼的系统协方差。
2.根据权利要求1所述一种无人艇的多传感器辅助定位方法,其特征在于:
在步骤三中,包括获取GPS的数据,具体步骤如下:
根据公式(1)-公式(3)确定卫星在轨道平面的位置;
x′k=rkcosuk--公式(1);
y′k=rksinuk--公式(2);
z′k=0--公式(3);
其中:
(x′k,y′k,z′k)表示卫星在轨道平面的坐标位置;
uk表示摄动校正后升交点角距;
rk表示卫星矢径长度;
根据公式(4)获取升交点赤经;
Figure FDA0003009965960000021
其中:
Ωk表示升交点赤经;
Ω0表示参考时刻升交点赤经;
Figure FDA0003009965960000022
表示升交点赤经变化率;
Figure FDA0003009965960000023
表示地球自转角速率;
tk表示当前k时刻时间;
toe表示参考时间;
根据公式(5)-公式(7)将卫星在轨道直角坐标系中的坐标位置(x′k,y′k,z′k)转换为WGS-84坐标系中的坐标(xk,yk,zk);
xk=x′kcosΩk-y′kcosiksinΩk--公式(5);
yk=x′ksinΩk+y′kcosikcosΩk--公式(6);
zk=y′ksinik --公式(7);
其中:ik表示摄动校正后的轨道倾角;
基于上述坐标位置获取无人艇的当前位置。
3.根据权利要求1所述一种无人艇的多传感器辅助定位方法,其特征在于:
在步骤三中,包括获取IMU数据,具体步骤如下:
获取无人艇的位置p(t)和速度v(t),包括:
Figure FDA0003009965960000031
Figure FDA0003009965960000032
其中:
Figure FDA0003009965960000033
表示更新下一个时刻的位置;
Figure FDA0003009965960000034
表示更新下一个时刻的速度;
a(t)表示利用传感器读取的加速度;
Figure FDA0003009965960000035
表示旋转矩阵;
am、ba、na表示加速度的噪声;
g表示重力;
使用4阶Runge-Kutta积分对速度和位置进行更新;
更新速度包括:
Figure FDA0003009965960000036
Figure FDA0003009965960000037
Figure FDA0003009965960000038
Figure FDA0003009965960000039
Figure FDA00030099659600000310
其中:
kv1表示时间段开始时的斜率;
kv2表示时间段中点的斜率;
kv3表示时间段中点的斜率;
kv4表示时间段终点的斜率;
Figure FDA00030099659600000311
表示更新下一个时刻n的速度;
an表示当前的时刻n的加速度;
Δt表示相隔的两个时刻时间Δt=t2-t1
vn表示当前的时刻n的速度;
更新位置包括:
Kp1=v(tn)=vn—公式(15);
Kp2=v(tn+Δt/2)=vn+Δt/2·kv1—公式(16);
Kp3=v(tn+Δt/2)=vn+Δt/2·kv2—公式(17);
Kp4=v(tn+Δt)=vn+Δt·kv3—公式(18);
Figure FDA0003009965960000041
其中:
Kp1表示时间段开始时的斜率;
Kp2表示时间段中点的斜率;
Kp3表示时间段中点的斜率;
Kp4表示时间段终点的斜率;
pn表示当前的时刻n的位置。
4.根据权利要求1所述一种无人艇的多传感器辅助定位方法,其特征在于:
在步骤三中,将IMU和GPS的位姿融合形成无人艇第一个融合位姿,具体步骤如下:
Zk=Zk-1+Kw(PIMU-PGPS+δnp)--公式(20);
Figure FDA0003009965960000042
其中:
Zk表示位置量测值;
Kw表示融合增益;
PIMU表示IMU的位置;
PGPS表示GPS的位置;
δnp表示位置噪声误差;
δnv表示速度噪声误差;
δp表示PIMU-PGPS
δv表示VIMU-VGPS
δw表示设定噪声0.0047。
5.根据权利要求1所述一种无人艇的多传感器辅助定位方法,其特征在于:
包括获取双目相机的位姿,具体步骤如下:
提取ROI区域特征点,包括:
获取一帧图片,选择感兴趣区域,以一个像素点P为原点,P点的亮度为lp,设定阈值N,若其他像素点满足如下条件,则认为满足条件的像素点为一个特征点;
lpm>lp+N或lpm<lp-N;其中,lpm表示满足条件的其他像素点;
遍历感兴趣区域,提取所有满足条件的特征点;
获取特征点后得到特征点的领域像素梯度分布,根据梯度公式划分领域窗口的大小,获得特征描述子。
6.根据权利要求5所述一种无人艇的多传感器辅助定位方法,其特征在于:
获取双目相机的位姿还包括如下步骤:
粒子算法的跟踪,包括:
初始化:获取到目标模板的特征描述子,在以该目标模板的位置为中心开始向全图随机撒M个粒子,粒子集为Ψi={xi,yi,ωi},i=1,2,3...M;其中,x和y分别表示是第i个粒子的位置坐标,ω表示第i个粒子的相似度;
通过匹配点对集合(P0,P1),其中,P0表示粒子特征点,P1表示后一个时刻的粒子特征点;获取匹配对之间的相似度,按照相似度由大到小对粒子集重新排序;
重采样:将粒子不断更新移动速度来改变粒子的位置的方式修改为按照粒子相似度来重新随机撒粒子,随机选取相似度最高的n个粒子,根据公式(22)获得以每个粒子为中心的一定范围内需要重新投放的粒子数,总共投放的粒子数应等于N个;
Figure FDA0003009965960000061
Figure FDA0003009965960000062
其中:
g表示n个粒子的相似度之和;
Ci表示将N个粒子按照相似度重新分为n份;
Figure FDA0003009965960000063
表示权重;
粒子滤波跟踪:第t时刻目标的位置是粒子集Ψi中根据公式(23)获得的位置(X,Y),重复重采样和跟踪步骤实现粒子滤波跟踪;
Figure FDA0003009965960000064
Figure FDA0003009965960000065
其中:
Figure FDA0003009965960000066
表示上一个时刻的粒子特征点的x位置;
Figure FDA0003009965960000067
表示上一个时刻的粒子特征点的y位置。
7.根据权利要求6所述一种无人艇的多传感器辅助定位方法,其特征在于:
获取双目相机的位姿还包括:
特征点更新:基于Body-frame的姿态约束特征点更新,所述双目相机构造三维相机坐标系,为卡尔曼滤波求解最有位姿提供三维信息,具体包括:
H=KRk′-1--公式(24);
xk′=Hxk-1′--公式(25);
其中,H表示预测点矩阵;
k′表示标定参数;
R表示Body-frame坐标系的位姿矩阵;
xk′表示预测后的相机特征点。
8.根据权利要求1所述一种无人艇的多传感器辅助定位方法,其特征在于:
构造量测方程包括:
Figure FDA0003009965960000071
其中:
rj表示量测方程的结果;
Figure FDA0003009965960000072
表示残差对误差状态向量的雅克比矩阵;
Figure FDA0003009965960000073
表示无人艇当前的状态;
Figure FDA0003009965960000074
表示残差对特征点的位置的雅克比矩阵;
Figure FDA0003009965960000075
表示无人艇观察的特征点;
nj表示噪声;
将公式(17)投影到左零空间V获得:
Figure FDA0003009965960000076
其中:
Figure FDA0003009965960000081
表示优化后的残差;
Figure FDA0003009965960000082
表示左零空间对状态向量雅克比;
Figure FDA0003009965960000083
表示噪声;
进行EKF滤波,获得最优位姿,包括:
对左零空间对状态向量雅克比
Figure FDA0003009965960000084
进行矩阵分解获得:
Figure FDA0003009965960000085
其中:
r′表示矩阵分解后的结果;
TH表示
Figure FDA0003009965960000086
分解后的列向量;
n′表示噪声;
n′的噪声协方差R为:
R=σ2I--公式(29);
其中:
σ2表示IMU的误差;
I表示单位矩阵;
获取卡尔曼的增益K,包括:
Figure FDA0003009965960000087
其中:
Figure FDA0003009965960000088
表示
Figure FDA0003009965960000089
分解后的列向量的转置;
P表示状态协方差;
根据卡尔曼的增益K和对左零空间对状态向量雅克比
Figure FDA00030099659600000810
进行矩阵分解获得最优状态误差向量Δx为:
Δx=Kr′--公式(31);
恢复定位系统的状态xk+1为:
xk+1=xk′+Δx--公式(32);
其中:xk′表示无人艇当前的状态;
更新定位系统的状态协方差矩阵Pk+1丨k+1
Pk+1丨k+1=(I-KTH)Pk+1丨k(I-KTH)-1+KPKT--公式(32);
其中:
KT表示卡尔曼的增益K的转置。
9.根据权利要求1所述一种无人艇的多传感器辅助定位方法,其特征在于:
所述深度学习包括:
通过预先训练好的联级回归模型的多尺度卷积神经网络,预测待定场景的类别,其中,每一个精化层包括特征提取器、特征融合器和回归器;
在训练好的模型中输入图片得出分类结果,依据特征提取器的数据,归一化特征点获取滑窗大小因子。
CN202110372857.6A 2021-04-07 2021-04-07 一种无人艇的多传感器辅助定位方法 Active CN112991400B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110372857.6A CN112991400B (zh) 2021-04-07 2021-04-07 一种无人艇的多传感器辅助定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110372857.6A CN112991400B (zh) 2021-04-07 2021-04-07 一种无人艇的多传感器辅助定位方法

Publications (2)

Publication Number Publication Date
CN112991400A true CN112991400A (zh) 2021-06-18
CN112991400B CN112991400B (zh) 2022-02-01

Family

ID=76339341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110372857.6A Active CN112991400B (zh) 2021-04-07 2021-04-07 一种无人艇的多传感器辅助定位方法

Country Status (1)

Country Link
CN (1) CN112991400B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113031632A (zh) * 2021-03-15 2021-06-25 王曰英 一种适用于潜航器水面回收的控制系统及其控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101950025A (zh) * 2010-08-11 2011-01-19 中国电子科技集团公司第二十研究所 用于局域增强系统的数据质量监测方法
US20160080897A1 (en) * 2014-09-17 2016-03-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable clip for providing social and environmental awareness
CN110517324A (zh) * 2019-08-26 2019-11-29 上海交通大学 基于变分贝叶斯自适应算法的双目vio实现方法
CN111649740A (zh) * 2020-06-08 2020-09-11 武汉中海庭数据技术有限公司 一种基于imu进行车辆高精度定位的方法及系统
CN112347840A (zh) * 2020-08-25 2021-02-09 天津大学 视觉传感器激光雷达融合无人机定位与建图装置和方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101950025A (zh) * 2010-08-11 2011-01-19 中国电子科技集团公司第二十研究所 用于局域增强系统的数据质量监测方法
US20160080897A1 (en) * 2014-09-17 2016-03-17 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable clip for providing social and environmental awareness
CN110517324A (zh) * 2019-08-26 2019-11-29 上海交通大学 基于变分贝叶斯自适应算法的双目vio实现方法
CN111649740A (zh) * 2020-06-08 2020-09-11 武汉中海庭数据技术有限公司 一种基于imu进行车辆高精度定位的方法及系统
CN112347840A (zh) * 2020-08-25 2021-02-09 天津大学 视觉传感器激光雷达融合无人机定位与建图装置和方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YU SONG ETAL.: "《A Multi-Sensor Fusion MAV State Estimation from Long-Range Stereo, IMU, GPS and Barometric Sensors》", 《SENSORS》 *
陈允芳等: "基于多传感器融合的车载移动测图系统研究", 《测绘通报》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113031632A (zh) * 2021-03-15 2021-06-25 王曰英 一种适用于潜航器水面回收的控制系统及其控制方法

Also Published As

Publication number Publication date
CN112991400B (zh) 2022-02-01

Similar Documents

Publication Publication Date Title
Qin et al. Vins-mono: A robust and versatile monocular visual-inertial state estimator
Qin et al. Robust initialization of monocular visual-inertial estimation on aerial robots
CN107980150B (zh) 对三维空间建模
CN110068335B (zh) 一种gps拒止环境下无人机集群实时定位方法及系统
CN106873619B (zh) 一种无人机飞行路径的处理方法
US9071829B2 (en) Method and system for fusing data arising from image sensors and from motion or position sensors
Chambers et al. Robust multi-sensor fusion for micro aerial vehicle navigation in GPS-degraded/denied environments
CN111288989B (zh) 一种小型无人机视觉定位方法
Anderson et al. Towards relative continuous-time SLAM
JP5012615B2 (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
Zhang et al. Vision-aided localization for ground robots
CN113551665B (zh) 一种用于运动载体的高动态运动状态感知系统及感知方法
CN112802096A (zh) 实时定位和建图的实现装置和方法
CN114001733A (zh) 一种基于地图的一致性高效视觉惯性定位算法
CN108900775B (zh) 一种水下机器人实时电子稳像方法
Zhong et al. Direct visual-inertial ego-motion estimation via iterated extended kalman filter
CN112556719A (zh) 一种基于cnn-ekf的视觉惯性里程计实现方法
Chen et al. Stereo visual inertial pose estimation based on feedforward-feedback loops
JP2023021994A (ja) 自動運転車両に対するデータ処理方法及び装置、電子機器、記憶媒体、コンピュータプログラム、ならびに自動運転車両
Tarrio et al. Realtime edge based visual inertial odometry for MAV teleoperation in indoor environments
CN114719848A (zh) 基于视觉与惯性导航信息融合神经网络的无人机高度估算方法
CN114485640A (zh) 基于点线特征的单目视觉惯性同步定位与建图方法及系统
Spaenlehauer et al. A loosely-coupled approach for metric scale estimation in monocular vision-inertial systems
CN112991400B (zh) 一种无人艇的多传感器辅助定位方法
CN110598370A (zh) 基于sip和ekf融合的多旋翼无人机鲁棒姿态估计

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant