CN117310773A - 基于双目立体视觉的水下机器人自主定位方法及系统 - Google Patents
基于双目立体视觉的水下机器人自主定位方法及系统 Download PDFInfo
- Publication number
- CN117310773A CN117310773A CN202311615765.1A CN202311615765A CN117310773A CN 117310773 A CN117310773 A CN 117310773A CN 202311615765 A CN202311615765 A CN 202311615765A CN 117310773 A CN117310773 A CN 117310773A
- Authority
- CN
- China
- Prior art keywords
- underwater robot
- information
- algorithm
- stereoscopic vision
- binocular stereoscopic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000005259 measurement Methods 0.000 claims description 79
- 238000001914 filtration Methods 0.000 claims description 49
- 239000002245 particle Substances 0.000 claims description 29
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 230000004927 fusion Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 229920006395 saturated elastomer Polymers 0.000 claims description 8
- 230000005484 gravity Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 3
- 238000012804 iterative process Methods 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000005286 illumination Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/203—Specially adapted for sailing ships
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/393—Trajectory determination or predictive tracking, e.g. Kalman filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了基于双目立体视觉的水下机器人自主定位方法及系统,涉及水下机器人自主定位技术领域,通过使用双目立体视觉测量模块、扭矩力学测量模块、北斗导航模块和无迹卡尔曼滤波算法,实现了高精度自主定位,在照明不好时,使用无迹卡尔曼滤波算法融合双目立体视觉测量模块、扭矩力学测量模块、北斗导航模块数据和BCF‑PPSO‑ESN神经网络预测,实现特征点不足情况下水下机器人快速高精度定位。本发明可实现快速高精度自主定位,并较好的获得了照明不好时水下机器人定位信息,可明显改善自主定位的精度、输出频率及增强系统的可靠性,获得最佳水下机器人运行轨迹。
Description
技术领域
本发明涉及水下机器人自主定位技术领域,尤其是基于双目立体视觉的水下机器人自主定位方法及系统。
背景技术
二十一世纪是人类向海洋进军的世纪。水下机器人作为一种高技术手段在海洋开发和利用领域的重要性不亚于宇宙火箭在探索宇宙空间中的作用。目前为止,水下机器人多以半自动化形式运行,具有完全自主航行能力的水下机器人是当前国内外研究的热点之一。为实现水下机器人自主化航行,自主定位技术是必须具备的一项关键技术,也是水下机器人实现智能化的必然需求。精确可靠的自主定位方法是水下机器人成功完成任务不可或缺的一部分。现阶段应用于水下机器人自主定位的传感器主要有:声纳、地磁、深度计、惯导等。但是,这些传感器均有其自身的局限性,若采用传统传感器进行自主定位,定位精度低,抗干扰能力差,其精度、可靠性均很难满足大范围水下航行的要求。
发明内容
为了克服现有技术中存在的上述问题,本发明提出一种基于双目立体视觉的水下机器人自主定位方法。
本发明解决其技术问题所采用的技术方案是:基于双目立体视觉的水下机器人自主定位方法,包括如下步骤:步骤1,使用北斗导航模块创建3D栅格地图,将水面无人艇作为坐标原点,对水下机器人进入水下前的初始位置进行初步定位;
步骤2,双目立体视觉测量模块水面无人艇发光二极管发出的光的图像,通过粒子滤波算法对图像进行滤波处理,通过改进的高斯曲面拟合算法对滤波处理后的图像进行处理;
步骤3,将步骤1所得的初步定位信息、步骤2所得的数据、扭矩力学测量模块测量所得的数据通过无迹卡尔曼滤波算法进行数据融合;
步骤4,对BCF-PPSO-ESN模型进行训练,将步骤3所得数据作为训练好的BCF-PPSO-ESN模型的输入值,输出水下无人船的位置信息;
步骤5,使用SLAM算法读取3D栅格地图信息,将步骤4所得的数据转换到3D栅格地图坐标系中。
上述的基于双目立体视觉的水下机器人自主定位方法,所述步骤2中改进的高斯曲面拟合算法计算光斑中心坐标具体为:
;
其中,,/>,/>为待估参数;待估参数的计算公式具体为:
;
其中,N表示图像截面上的采样点个数;为第i个点的像素坐标值,/>为第i个采样点灰度值,F(xi,yi)=lnf(xi,yi)。
上述的基于双目立体视觉的水下机器人自主定位方法,所述步骤2中改进的高斯曲面拟合算法还包括消除图像光饱和点,具体方法为:在逐行或逐列扫描光条图像时,若检测到两个以上连续像素点的灰度值均饱和,则所有光饱和点都不参与高斯拟合;若检测到唯一像素点灰度值饱和,则该光饱和点参与高斯拟合;确定了滤除的饱和点个数后,以粗算的光斑中心点为中点,在原光斑半径的基础上按比例尺缩小光斑半径;光斑内像素点个数减去滤除光饱和点个数,剩余的像素点保持光斑半径在3-5个像素,并使用灰度重心算法求解中心像素点的值。
上述的基于双目立体视觉的水下机器人自主定位方法,所述灰度重心算法计算的中心坐标计算公式为:
,/>;
其中,和/>是某灰度极值点分别沿u轴和v轴的像素坐标;/>是沿u轴某点的灰度值,/>是沿v轴某点的灰度值。
上述的基于双目立体视觉的水下机器人自主定位方法,所述步骤3无迹卡尔曼滤波算法具体包括:
步骤a,根据给定的、/>、/>,预测/>、/>、/>;其中为所得水下机器人位置信息、姿态信息和速度信息;/>为水下机器人相对于水面无人艇的位置和角度信息、受力和转速扭矩情况、初步定位信息,/>为预测误差的协方差矩阵;
步骤b,求、/>、/>通过量测方程的传播;
步骤c,将的一步预测状态向量作为迭代的初始值/>,依据观测方程线性化,计算滤波值,并把结果/>作为/>;
步骤d,在处重新将观测方程线性化,再一次进行滤波,新估计值/>作为/>;
步骤e,迭代过程中,当两步状态差值满足,则迭代终止,否则返回步骤d;其中ε是预先给定的迭代阈值,i代表迭代次数。
上述的基于双目立体视觉的水下机器人自主定位方法,所述步骤4中BCF-PPSO-ESN模型训练具体步骤如下:
4.1、用高精度激光雷达实测水下机器人本体的位置、姿态、速度信息,这个高精度雷达测量结果作为标准值;
4.2、用北斗导航模块、双目立体视觉测量模块、扭矩力学测量模块测量所得的数据通过无迹卡尔曼滤波算法进行数据融合后得到水下机器人位置、姿态、速度信息,在使用BCF算法获得实际测量误差与无迹卡尔曼滤波算法融合后输出结果之间的关系;
4.3、在4.2得到的关系曲线中,选取测量误差结果变化趋势稳定的区间得到测量误差拟合值,使用测量误差的拟合值减去实际测量误差来获得其他组的调整系数,通过调整系数修正全部测量误差,其中实际测量误差为无迹卡尔曼滤波算法输出结果减去高精度激光雷达实测结果;
4.4、将修正后的位置信息、姿态信息和速度信息测量误差和无迹卡尔曼滤波算法输出结果代入BCF-PPSO-ESN神经网络进行训练,无迹卡尔曼滤波算法输出结果作为神经网络的输入,修正后的位置信息、姿态信息和速度信息测量误差作为神经网络的输出,从而训练得到无迹卡尔曼滤波算法输出结果和位置信息、姿态信息和速度信息测量误差之间的最终关系模型。
上述的基于双目立体视觉的水下机器人自主定位方法,所述步骤5中SLAM算法具体包括:进行位姿和地图的初始化,即将水下机器人的任务区域进行栅格化;由于双目立体视觉测量模块、北斗导航模块、扭矩力学测量模块获取数据频率低于导航计算的频率,在没有收到新的定位信息数据时,使用航位推算对水下机器人状态进行时间更新,并通过计算雅可比矩阵预测系统协方差;当定位信息数据更新后,首先通过提取数据中的目标点,将探测到的目标映射为扫描栅格图,并在探测目标的区域内提取栅格子地图;扫描栅格图和栅格子地图通过匹配方式实现水下机器人的位姿估计,估计的水下机器人位姿作为观测量进行系统状态的观测更新;最后系统根据估计的位姿将双目立体视觉测量系统数据重新映射至导航坐标系,从而完成地图的更新。
基于双目立体视觉的水下机器人自主定位方法的定位系统,包括水下机器人本体、双目立体视觉测量模块、北斗导航模块、扭矩力学测量模块,所述双目立体视觉测量模块、北斗导航模块、扭矩力学测量模块均搭载在水下机器人本体上,所述双目立体视觉测量模块用于测量水下机器人本体相对水面无人艇的位置和角度;所述北斗导航模块用于创建3D栅格地图,通过水面无人艇作为中转,对水下机器人进行了初步定位;所述扭矩力学测量模块用于测量在水中受海流影响的受力情况,并实时输出推进电机转速、扭矩。
本发明的有益效果是,本发明通过使用双目立体视觉测量模块、扭矩力学测量模块、北斗导航模块等部件和无迹卡尔曼滤波算法,实现了高精度自主定位,在照明不好时,使用无迹卡尔曼滤波算法融合双目立体视觉测量模块、扭矩力学测量模块、北斗导航模块数据和BCF-PPSO-ESN神经网络预测,实现特征点不足情况下水下机器人快速高精度定位。本发明可实现快速高精度自主定位,并较好的获得了照明不好时水下机器人定位信息,可明显改善自主定位的精度、输出频率及增强系统的可靠性,获得最佳水下机器人运行轨迹。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1为本发明实施例中自主定位系统示意图;
图2为本发明实施例中无迹卡尔曼滤波算法流程图;
图3为本发明实施例中ESN神经网络结构图;
图4为本发明实施例中BCF-PPSO-ESN算法的训练的原理图;
图5为本发明实施例中BCF-PPSO-ESN算法训练流程图。
具体实施方式
为使本领域技术人员更好的理解本发明的技术方案,下面结合附图和具体实施方式对本发明作详细说明。
本实施例公开了一种基于双目立体视觉的水下机器人自主定位系统,如图1所示,包括水下机器人本体、双目立体视觉测量模块、天线、北斗导航模块、扭矩力学测量模块。双目立体视觉测量模块包括两个图像传感器,安装在水下机器人本体上部前端,在水下二十米范围内测量相对于水面无人艇的位置和角度,并实时输出水下机器人的艏向角、纵倾角和横摇角,用于计算水下机器人运行轨迹;天线安装在水下机器人上部中间,用于传输数据信息,方便和北斗卫星、岸基系统等系统远程通讯;北斗导航模块为北斗导航信号收发器,安装在水下机器人下部中间,用于创建3D栅格地图,对水下机器人进入水下前的初始位置进行初步定位;扭矩力学测量模块安装在水下机器人下部后端,通过使用六自由度力/扭矩传感器,测量在水中受海流影响的受力情况,并实时输出推进电机转速、扭矩。在接收双目立体视觉测量模块、北斗导航模块、扭矩力学测量模块输出的相关信息后经过无迹卡尔曼滤波算法进行数据融合,并使用SLAM算法 读取3D栅格地图信息,实时输出水下机器人位置信息、姿态信息和速度信息,形成水下机器人精确自主定位信息。
本实施例还公开了基于上述自主定位系统的自主定位方法,具体包括如下步骤:
步骤1,使用北斗导航模块创建3D栅格地图,将水面无人艇作为坐标原点,对水下机器人进入水下前的初始位置进行初步定位。水面无人艇上安装有波长540nm(黄绿光)的发光二极管
步骤2,双目立体视觉测量模块水面无人艇发光二极管发出的光的图像,通过粒子滤波算法对图像进行滤波处理,通过改进的高斯曲面拟合算法对滤波处理后的图像进行处理。
粒子滤波算法具体包括:在机器人的自主定位过程中,存在很多不确定性因素。首先机器人的位姿和运动过程具有不确定性,如机器人机械运动产生的误差以及传感器数据的噪声等等。其次移动机器人周围的环境也是不可预测的,如可移动物体使得周围环境在不断的变化。这些不确定性因素,使得本来就不容易的自主定位问题变得更加困难。因此,本项目采用粒子滤波算法,利用概率理论作为移动机器人自主定位问题的一个实时的有效的解决方法。
粒子滤波的本质是在概率密度函数的基础上,从中随机抽取加权样本来近似表示后验概率。适用于各种线性或非线性、高斯分布或非高斯分布的问题。其主要过程如下所示:自主机器人在未知的环境中移动,在定位的同时创建环境地图,机器人基本的系统运动模型和观测模型用概率的方法可以表示为、/>,其中/>、/>为系统在时刻的状态量和观测量,/>表示概率;/>、/>分别表示相邻两个时刻系统状态传递的后验概率和周围环境特征的后验概率。
机器人的定位问题可以归纳为求在己知环境地图的情况下求系统状态的后验概率,利用条件概率公式及Chapman-Kolmogorov方程可得:
。
改进的高斯曲面拟合算法用于获得水面无人艇黄绿发光二极管中心在红外双目立体视觉测量系统中两个像机像平面上的坐标。用黄绿发光二极管作为光源发射器,出射的光线与双目立体视觉测量系统的视场相交并在视场内成像,在视场内黄绿发光二极管的光强分布从光斑边缘到光斑中心大致服从二维高斯函数曲面的分布规律,黄绿发光二极管的中心位置可认为是拟合后高斯函数的极值点位置。高斯函数曲面的数学表达式为:
(1);
其中,A为高斯函数的幅值,σ为高斯函数的半宽度,为高斯曲面中心即光斑图像中心坐标。对式(1)两边取对数可得:
(2);
令,/>,/>,/>,/>,那么式(2)可改写成:
(3);
其中,、/>、/>、/>为待估参数。针对数字化处理的黄绿光源图像,假设提取截面上有N个点(/>)作为采样点,/>为第i个点的像素坐标值,/>为第i个采样点灰度值(量化像素点的能力强度),根据表达式(3)可得出对应的(/>),进一步由(3)列出方程:
(4);
为了解出待估参数、/>、/>、/>,可建立目标函数(5),利用最小二乘法求解。
(5);
令,/>,/>,/>,则可得出下列方程:
(6);
由此,可解得待估参数、/>、/>、/>,最终得到拟合高斯函数的极值点位置,即光斑中心坐标为:
(7)。
基于传统高斯拟合法求取光斑中心的应用中,常常将光斑所在矩形区域的所有像素点参与拟合求解,这样其实会对中心定位精度造成一定影响。因为随着光斑半径的扩大,图像灰度分布将和理想高斯曲面相差较大,尤其是光斑边缘处的背景灰度受噪声相对影响较大。此外,实际光斑在极值点附近存在明显的光饱和现象,多个灰度值达到峰值的光饱和点参与高斯拟合运算,必然会引入误差,对拟合结果产生影响。故而,传统的高斯拟合算法不再适用于本课题的实际情况,需要采取措施限制光斑半径的大小和去光饱和点。为了使高斯拟合法更贴合本发明的实际应用,有必要仔细斟酌高斯算法应用的各个环节,在确保算法时效性的前提下,尽量最优化定位精度。
针对光饱和现象,在逐行(列)扫描光条图像时,如果检测到两个以上连续像素点的灰度值均饱和,则所有光饱和点都不参与高斯拟合;如果检测到唯一像素点灰度值饱和,则该光饱和点参与高斯拟合。确定了滤除的饱和点个数后,以粗算的光斑中心点为中点,在原光斑半径的基础上按比例尺缩小光斑半径。光斑内像素点个数减去滤除光饱和点个数,剩余的像素点保持光斑半径在3-5个像素,并使用灰度重心算法求解中心像素点的值。基于灰度重心算法计算的中心坐标为:
,/>(8);
在上述公式中,和/>是某灰度极值点分别沿u轴和v轴的的像素坐标,/>是沿u轴某点的灰度值,/>是沿v轴某点的灰度值。
步骤3,将步骤1所得的初步定位信息、步骤2所得的数据、扭矩力学测量模块测量所得的数据通过无迹卡尔曼滤波算法进行数据融合。
无迹卡尔曼滤波算法具体步骤如下:
(1)根据给定的、/>、/>,预测/>、/>、/>。其中/>为所得水下机器人位置信息、姿态信息和速度信息,/>为水下机器人相对于水面无人艇的位置和角度信息、受力和转速扭矩情况、初步定位信息,/>为预测误差的协方差矩阵。一般选/>个点,n为随机变量维数,/>、/>均为随机变量,随机变量计算步骤如下:
①计算点、/>:
(9);
其中,和/>表示k-1时刻的最优值,λ的定义为:
(10);
式中,表示/>在均值附近的分布程度,一般取/>。
②计算点、/>,可以得到变换后的点集/>和/>。
(11);
其中:点集可近似地表示为姿态信息和速度信息的分布,点集/>可近似地表示为位置信息的分布,/>为点期望的权值,/>为点方差的权值,/>为过程激励噪声的协方差矩阵。
(2)求、/>、/>通过量测方程的传播,计算步骤如下:
①计算、/>、/>通过量测方程对/>、/>的传播:
(12);
②计算观测预测均值:
(13);
其中:和/>为预测值;/>和/>为经过加权后得到的一步预测值即观测变量;/>和/>为均方误差的一步预测;/>和/>为互方差。
③滤波更新以及数据融合:
(14);
其中:和/>为k时刻的最优值,/>为k时刻的滤波增益,/>为k时刻的最优均方误差,/>为3D栅格地图坐标系下的位置信息、姿态信息和速度信息,/>为水下机器人相对于水面无人艇的位置和角度信息、受力和转速扭矩情况、初步定位信息。/>实现3D栅格地图坐标系下的的位置信息、姿态信息和速度信息和水下机器人相对于水面无人艇的位置和角度信息、受力和转速扭矩情况、初步定位信息的融合。
(3)将的一步预测状态向量作为迭代的初始值/>,依据观测方程线性化,计算滤波值,并把结果/>作为/>。
(4)在处重新将观测方程线性化,再一次进行滤波,新估计值/>作为/>。
(5)迭代过程中,当两步状态差值满足式(15),迭代终止,否则返回步骤(4)。
(15);
其中ε是预先给定的迭代阈值,i代表迭代次数。
步骤4,对BCF-PPSO-ESN模型进行训练,将步骤3所得数据作为训练好的BCF-PPSO-ESN模型的输入值,输出水下无人船的位置信息。
BCF算法
考虑到在运动态状态下进行的实验中,水下机器人在水中受力情况和水中的照明情况时刻都在发生变化,使用无迹卡尔曼滤波算法融合双目立体视觉测量系统、扭矩力学测量系统、北斗导航系统数据输出的3D栅格地图坐标系下水下机器人位置信息、姿态信息和速度信息和真实结果之间呈非线性关系。因此,在获得使用无迹卡尔曼滤波算法融合三种测量系统数据输出结果与真实结果之后,先根据该数据,先采用BCF算法,获得无迹卡尔曼滤波算法输出结果-真实结果关系模型。之所以使用最小二乘曲线拟合法,是因为BCF算法可以尽可能小的残差拟合出任何非线性函数关系。BCF算法的原理是通过两次拟合得到的多项式系数的相对差小于公差。有关算法步骤的详细信息如下:
步骤(1):使用最小二乘法,对最近的有限离散数据点、/>、…、进行非线性拟合,以获得初始拟合模型的估计多项式系数/>;
(16)
步骤(2):利用残差E最小化的方法得到新的权值,然后利用更新后的权值/>通过加权最小二乘拟合得到数据点的最佳拟合值/>。并得到了更新后的多项式系数/>。残差E的计算公式如下:
(17);
(18);
步骤(3):通过最小化残差,上述方程被推导为等于零。可以得到:
(19);
步骤(4):判断拟合系数之间的相对差值是否小于公差。如果满足小于公差的要求,则是多项式系数的最佳估计。如果不满足小于公差的要求,则将新获得的权重/>与加权最小二乘法一起使用,以获得/>:
(20);
(21)。
步骤(5):重复上述过程,不断更新多项式系数的估计值,直到满足小于公差的条件。
在已知各点的使用无迹卡尔曼滤波算法融合三种测量系统数据输出结果与真实结果的情况下,求解最小二乘曲线方程的关键是求解系数的值。为了防止陷入局部最优,并尽快让迭代收敛,本实施例中基于PPSO算法对求解最小二乘曲线方程使用的各点的使用无迹卡尔曼滤波算法融合三种测量系统数据输出结果与真实结果进行了优化。
基于帕累托最优解的粒子群优化(PPSO)算法
本实施例所述的PPSO算法是基于粒子群算法的基础上演变而来。在PSO算法中,每个粒子代表三次样条曲线方程的一个解。在所有解中,最好的解(残差最小)是最佳位置,每个粒子都会在这个区域寻找最佳位置。在寻找最佳位置的过程中,每个粒子都会找到自己最接近最佳位置的位置,这个位置被称为个体极值。所有粒子在搜索过程中得到的最佳位置是全局极值。通过这两个位置,这些粒子将不断调整其速度和方向,以接近最佳位置。粒子速度和位置的更新公式如下:
(22);
(23);
在上面的方程式中,i=1,2,…,n,j=1,2,…,j,m=1,2,…,M,m是迭代次数。是粒子i在空间中的位置,/>是粒子i在空间中的速度,/>和/>分别定义为个体极值和全局极值。c1和c2是加速度系数,通常c1=c2。r1和r2是区间[0,1]中的随机数,w是权重。
(24);
在上面的等式中,是最大迭代次数,/>和/>表示最大和最小权重。本实施例在粒子群算法的基础上,引入Pareto最优原则。基于Pareto最优原则获得了三次样条曲线模型的Pareto最优解集,具体的步骤如下:
首先,估算非支配解集中的初始化粒子群。该算法生成网格,并将这些网格建立成坐标系。在坐标系中,根据每个粒子的目标函数值定义每个粒子的坐标。每个粒子的密度值是该粒子所在网格的粒子数。在非支配解集中密度值较小的粒子被设定了更高的选择压力,从而探索更广阔的搜索目标空间。然后,在进化过程中,我们通过实时计算所发现的非支配解的数量来在线评估全局搜索和局部搜索的能力。如果在搜索过程中有更多的非支配解,则可以更大概率地使用Sigma方法来提高搜索精度和收敛速度。否则,可以通过在非支配解集中选择密度值较小、概率较大的粒子,来增强算法的全局搜索能力。基于此,当非支配解集中的粒子的位置被选为粒子群中粒子/>的种群最佳位置时,强度的适应度由以下等式计算:
(25);
(26);
(27);
(28);/>
(29);
其中,代表全局或局部搜索的能力,/>表示非支配解集E的固定大小,/>表示在第t代时设置的非支配解中的成员数,/>是Ej所在网格的成员数,/>表示/>的Sigma值和/>的Sigma值的距离,/>是一个小的正数。对于二维优化问题,/>通过如下公式计算:
(30);
其中,和/>是/>的目标值,/>和/>是/>的第一个和第二个目标值的最大值。选择适应度值最大的粒子作为/>的种群最佳位置。
PPSO算法的最终目的是要获得所有粒子的种群的最佳位置。使用PPSO算法,经过迭代后可以获得残差为10-8的输入、输出点关系曲线方程,然后可以根据获得的方程来估算未知点的坐标。
ESN神经网络
ESN是一种特殊的递归神经网络,具有训练过程简单、收敛速度快和处理非线性问题能力强等优点,适合处理非平稳的时间序列数据。其标准的组成部分为具有K个神经元的输入层、包含N个内部神经元的储备池层和具有L个神经元的输出层。标准的ESN结构如图3所示,图中黑色实线表示在网络初始化时随机生成但在训练过程中保 持不变的连接权重;灰色虚线表示在ESN中需要训练的储备池输出权重;灰色实线表示输出层与储备池的反馈连接。
在t时刻,ESN输入层的输入向量为u(t),储备池内部状态向量为s(t),输出层的输出向量为o(t)。 其中,输入层与储备池、储备池内部、储备池与输出层神经元之间的连接权重矩阵分别为Ws u、Ws s和Wo s;输出层到储备池的反馈连接权重矩阵为N×L的Ws o。与此同时,ESN在t时刻的储备池内部状态s(t)和输出o(t)的更新公式分别如式(31)、(32)所示:
(31);
(32)。
基于BCF-PPSO-ESN算法的水下机器人自主定位算法
研究BCF-PPSO-ESN算法,解决使用双目立体视觉测量系统对水下机器人进行自主定位时复杂海况和天气环境下,水下机器人自主定位时效果不稳定的问题。在本算法中,以海况良好、照明良好时,高精度水下激光雷达(100米测量范围内测量精度达0.01mm)所测得3D栅格地图坐标系下的位置信息、姿态信息和速度信息为期望输出值,以北斗导航系统和双目立体视觉测量系统、扭矩力学测量系统数据使用无迹卡尔曼滤波算法进行数据融合输出的3D栅格地图坐标系下水下机器人位置信息、姿态信息和速度信息作为输入值,完成BCF-PPSO-ESN算法训练获得真实3D栅格地图坐标系下的位置信息、姿态信息、速度信息与使用无迹卡尔曼滤波算法融合三种测量系统数据输出结果之间的关系;在海况恶劣、照明不好时,使用无迹卡尔曼滤波算法融合双目立体视觉测量系统、扭矩力学测量系统、北斗导航系统数据和训练好的BCF-PPSO-ESN算法预测,实现特征点不足情况下水下机器人在3D栅格地图坐标系下的位置信息、姿态信息、速度信息快速获取,可明显改善自主定位系统的精度、输出频率及增强系统的可靠性,获得最佳水下机器人运行轨迹。BCF-PPSO-ESN算法的训练的原理图和流程图分别如图4、图5所示。
BCF-PPSO-ESN算法的具体实施步骤如下:
(1)在实验水池中模拟良好海况和天气环境,测量水下机器人在不同初始位置下开始运动的多组位置信息、姿态信息和速度信息测量误差。使用高精度激光雷达作为3D栅格地图坐标系下的位置信息、姿态信息和速度信息测量基准,使用无迹卡尔曼滤波算法融合北斗导航系统和双目立体视觉测量系统、扭矩力学测量系统数据输出的3D栅格地图坐标系下水下机器人位置信息、姿态信息和速度信息。以位置测量为例,初始水下机器人位置为0m(±0.1cm)。然后将水下机器人位置调整为5m,10m,15m,…,100m。在整个水下机器人移动范围内获得20个点。该实验重复三次,以获得水下机器人的第一组位置信息、姿态信息和速度信息测量误差。
(2)拟合关系曲线。利用BCF算法,基于使用无迹卡尔曼滤波算法输出的3D栅格地图坐标系下水下机器人位置信息、姿态信息和速度信息和使用高精度激光雷达所测3D栅格地图坐标系下的位置信息、姿态信息和速度信息,拟合了无迹卡尔曼滤波算法输出结果和位置信息、姿态信息和速度信息测量误差之间的关系模型。
(3)多组数据预处理。无迹卡尔曼滤波算法输出结果和高精度激光雷达测量结果被用作基准。选择水下机器人运动位置区间,在该运动位置区间内,无迹卡尔曼滤波算法输出结果-位置信息、姿态信息和速度信息测量误差关系模型中的位置信息、姿态信息和速度信息测量误差具有稳定的变化趋势。选择其他两组的位置信息、姿态信息和速度信息测量误差。然后,可以使用位置信息、姿态信息和速度信息测量误差的拟合值减去位置信息、姿态信息和速度信息测量误差实际值来获得其他两组的调整系数,即:
(33);
(34);
其中,表示第二组位置信息、姿态信息和速度信息测量误差的调整系数,/>表示第三组位置信息、姿态信息和速度信息测量误差的调整系数,/>表示第二组位置信息、姿态信息和速度信息测量误差的实际值,/>表示第三组位置信息、姿态信息和速度信息测量误差的实际值,/>表示第二组位置信息、姿态信息和速度信息测量误差的拟合值,/>表示第三组位置信息、姿态信息和速度信息测量误差的拟合值。
然后将和/>添加到/>和/>,根据式(35)~(37)计算水下机器人位置信息、姿态信息和速度信息测量误差值,可以修正最终的无迹卡尔曼滤波算法输出水下机器人位置信息、姿态信息和速度信息。
(35);
(36);
(37);/>
其中,表示修正后第一组位置信息、姿态信息和速度信息测量误差,/>表示第一组位置信息、姿态信息和速度信息测量误差的实际值,/>表示修正后第二组位置信息、姿态信息和速度信息测量误差,/>表示修正后第三组位置信息、姿态信息和速度信息测量误差。
(4)将预处理后的无迹卡尔曼滤波算法输出结果-位置信息、姿态信息和速度信息测量误差关系模型中的数据代入BCF-PPSO-ESN神经网络进行训练,无迹卡尔曼滤波算法输出结果作为神经网络的输入,修正后的位置信息、姿态信息和速度信息测量误差作为神经网络的输出,从而训练得到无迹卡尔曼滤波算法输出结果和位置信息、姿态信息和速度信息测量误差之间的最终关系模型。此外,可根据拟合的关系模型估计3D栅格地图坐标系下水下机器人位置信息、姿态信息和速度信息。
在实验水池中模拟复杂海况和恶劣天气环境,在3D栅格地图坐标系下水下机器人位置信息、姿态信息和速度信息测试过程中,根据无迹卡尔曼滤波算法输出结果带入最终关系模型计算出对应的误差补偿值,并补偿于最终无迹卡尔曼滤波算法输出结果。这样即可实现复杂海况和恶劣天气环境下水下机器人自主定位中无迹卡尔曼滤波算法输出结果误差补偿,误差补偿后无迹卡尔曼滤波算法输出结果为(以位置为例):
(38);
其中,S表示水下机器人位置信息、姿态信息和速度信息,X表示无迹卡尔曼滤波算法输出结果,表示位置信息、姿态信息和速度信息测量误差。
步骤5,使用SLAM算法读取3D栅格地图信息,将步骤4所得的数据转换到3D栅格地图坐标系中。
SLAM算法具体步骤如下:
首先进行位姿和地图的初始化,即将水下机器人的任务区域进行栅格化。由于双目立体视觉测量系统、北斗导航系统、扭矩力学测量系统获取数据频率低于导航计算的频率,在没有收到新的定位信息数据时,使用航位推算对水下机器人系统状态进行时间更新,并通过计算雅可比矩阵预测系统协方差;当定位信息数据更新后,首先通过提取数据中的目标点,将探测到的目标映射为扫描栅格图,并在探测目标的区域内提取栅格子地图。扫描栅格图和栅格子地图通过匹配方式实现水下机器人的位姿估计,估计的水下机器人位姿作为观测量进行系统状态的观测更新;最后系统根据估计的位姿将双目立体视觉测量系统数据重新映射至导航坐标系,从而完成地图的更新。
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。
Claims (8)
1.基于双目立体视觉的水下机器人自主定位方法,其特征在于,包括如下步骤:
步骤1,使用北斗导航模块创建3D栅格地图,将水面无人艇作为坐标原点,对水下机器人进入水下前的初始位置进行初步定位;
步骤2,双目立体视觉测量模块水面无人艇发光二极管发出的光的图像,通过粒子滤波算法对图像进行滤波处理,通过改进的高斯曲面拟合算法对滤波处理后的图像进行处理;
步骤3,将步骤1所得的初步定位信息、步骤2所得的数据、扭矩力学测量模块测量所得的数据通过无迹卡尔曼滤波算法进行数据融合;
步骤4,对BCF-PPSO-ESN模型进行训练,将步骤3所得数据作为训练好的BCF-PPSO-ESN模型的输入值,输出水下无人船的位置信息;
步骤5,使用SLAM算法读取3D栅格地图信息,将步骤4所得的数据转换到3D栅格地图坐标系中。
2.根据权利要求1所述的基于双目立体视觉的水下机器人自主定位方法,其特征在于,所述步骤2中改进的高斯曲面拟合算法计算光斑中心坐标具体为:
;
其中,,/>,/>为待估参数;待估参数的计算公式具体为:
;
其中,N表示图像截面上的采样点个数;为第i个点的像素坐标值,/>为第i个采样点灰度值,F(xi,yi)=lnf(xi,yi)。
3.根据权利要求1所述的基于双目立体视觉的水下机器人自主定位方法,其特征在于,所述步骤2中改进的高斯曲面拟合算法还包括消除图像光饱和点,具体方法为:在逐行或逐列扫描光条图像时,若检测到两个以上连续像素点的灰度值均饱和,则所有光饱和点都不参与高斯拟合;若检测到唯一像素点灰度值饱和,则该光饱和点参与高斯拟合;确定了滤除的饱和点个数后,以粗算的光斑中心点为中点,在原光斑半径的基础上按比例尺缩小光斑半径;光斑内像素点个数减去滤除光饱和点个数,剩余的像素点保持光斑半径在3-5个像素,并使用灰度重心算法求解中心像素点的值。
4.根据权利要求3所述的基于双目立体视觉的水下机器人自主定位方法,其特征在于,所述灰度重心算法计算的中心坐标计算公式为:
,/>;
其中,和/>是某灰度极值点分别沿u轴和v轴的像素坐标;/>是沿u轴某点的灰度值,/>是沿v轴某点的灰度值。
5.根据权利要求1所述的基于双目立体视觉的水下机器人自主定位方法,其特征在于,所述步骤3无迹卡尔曼滤波算法具体包括:
步骤a,根据给定的、/>、/>,预测/>、/>、/>;其中/>为所得水下机器人位置信息、姿态信息和速度信息;/>为水下机器人相对于水面无人艇的位置和角度信息、受力和转速扭矩情况、初步定位信息,/>为预测误差的协方差矩阵;
步骤b,求、/>、/>通过量测方程的传播;
步骤c,将的一步预测状态向量作为迭代的初始值/>,依据观测方程线性化,计算滤波值,并把结果/>作为/>;
步骤d,在处重新将观测方程线性化,再一次进行滤波,新估计值/>作为/>;
步骤e,迭代过程中,当两步状态差值满足,则迭代终止,否则返回步骤d;其中ε是预先给定的迭代阈值,i代表迭代次数。
6.根据权利要求1所述的基于双目立体视觉的水下机器人自主定位方法,其特征在于,所述步骤4中BCF-PPSO-ESN模型训练具体步骤如下:
步骤4.1、用高精度激光雷达实测水下机器人本体的位置、姿态、速度信息,这个高精度雷达测量结果作为标准值;
步骤4.2、用北斗导航模块、双目立体视觉测量模块、扭矩力学测量模块测量所得的数据通过无迹卡尔曼滤波算法进行数据融合后得到水下机器人位置、姿态、速度信息,在使用BCF算法获得实际测量误差与无迹卡尔曼滤波算法融合后输出结果之间的关系;
步骤4.3、在步骤4.2得到的关系曲线中,选取测量误差结果变化趋势稳定的区间得到测量误差拟合值,使用测量误差的拟合值减去实际测量误差来获得其他组的调整系数,通过调整系数修正全部测量误差,其中实际测量误差为无迹卡尔曼滤波算法输出结果减去高精度激光雷达实测结果;
步骤4.4、将修正后的位置信息、姿态信息和速度信息测量误差和无迹卡尔曼滤波算法输出结果代入BCF-PPSO-ESN神经网络进行训练,无迹卡尔曼滤波算法输出结果作为神经网络的输入,修正后的位置信息、姿态信息和速度信息测量误差作为神经网络的输出,从而训练得到无迹卡尔曼滤波算法输出结果和位置信息、姿态信息和速度信息测量误差之间的最终关系模型。
7.根据权利要求1所述的基于双目立体视觉的水下机器人自主定位方法,其特征在于,所述步骤5中SLAM算法具体包括:进行位姿和地图的初始化,即将水下机器人的任务区域进行栅格化;由于双目立体视觉测量模块、北斗导航模块、扭矩力学测量模块获取数据频率低于导航计算的频率,在没有收到新的定位信息数据时,使用航位推算对水下机器人状态进行时间更新,并通过计算雅可比矩阵预测系统协方差;当定位信息数据更新后,首先通过提取数据中的目标点,将探测到的目标映射为扫描栅格图,并在探测目标的区域内提取栅格子地图;扫描栅格图和栅格子地图通过匹配方式实现水下机器人的位姿估计,估计的水下机器人位姿作为观测量进行系统状态的观测更新;最后系统根据估计的位姿将双目立体视觉测量系统数据重新映射至导航坐标系,从而完成地图的更新。
8.基于权利要求1-7任一项所述的基于双目立体视觉的水下机器人自主定位方法的定位系统,其特征在于,包括水下机器人本体、双目立体视觉测量模块、北斗导航模块、扭矩力学测量模块,所述双目立体视觉测量模块、北斗导航模块、扭矩力学测量模块均搭载在水下机器人本体上,所述双目立体视觉测量模块用于测量水下机器人本体相对水面无人艇的位置和角度;所述北斗导航模块用于创建3D栅格地图,通过水面无人艇作为中转,对水下机器人进行了初步定位;所述扭矩力学测量模块用于测量在水中受海流影响的受力情况,并实时输出推进电机转速、扭矩。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311615765.1A CN117310773B (zh) | 2023-11-30 | 2023-11-30 | 基于双目立体视觉的水下机器人自主定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311615765.1A CN117310773B (zh) | 2023-11-30 | 2023-11-30 | 基于双目立体视觉的水下机器人自主定位方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117310773A true CN117310773A (zh) | 2023-12-29 |
CN117310773B CN117310773B (zh) | 2024-02-02 |
Family
ID=89274142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311615765.1A Active CN117310773B (zh) | 2023-11-30 | 2023-11-30 | 基于双目立体视觉的水下机器人自主定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117310773B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102042835A (zh) * | 2010-11-05 | 2011-05-04 | 中国海洋大学 | 自主式水下机器人组合导航系统 |
WO2015105597A2 (en) * | 2013-11-27 | 2015-07-16 | The Trustees Of The University Of Pennsylvania | Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (mav) |
WO2017177533A1 (zh) * | 2016-04-12 | 2017-10-19 | 深圳市龙云创新航空科技有限公司 | 基于激光雷达的微型无人机操控方法及系统 |
CN107561544A (zh) * | 2016-06-30 | 2018-01-09 | 天津广深科技有限公司 | 一种水下机器人的检测方法 |
CN111290007A (zh) * | 2020-02-27 | 2020-06-16 | 桂林电子科技大学 | 一种基于神经网络辅助的bds/sins组合导航方法和系统 |
CN111856448A (zh) * | 2020-07-02 | 2020-10-30 | 山东省科学院海洋仪器仪表研究所 | 基于双目视觉和雷达的海上障碍物识别方法及系统 |
CN114199259A (zh) * | 2022-02-21 | 2022-03-18 | 南京航空航天大学 | 一种基于运动状态与环境感知的多源融合导航定位方法 |
CN114565684A (zh) * | 2022-03-03 | 2022-05-31 | 安徽工业大学 | 一种基于一致性采样算法的标靶单应性矩阵计算方法 |
US20220383484A1 (en) * | 2021-05-25 | 2022-12-01 | Tongji University | Tunnel defect detecting method and system using unmanned aerial vehicle |
US20230245444A1 (en) * | 2021-05-07 | 2023-08-03 | California Institute Of Technology | Unmanned aerial system (uas) autonomous terrain mapping and landing site detection |
-
2023
- 2023-11-30 CN CN202311615765.1A patent/CN117310773B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102042835A (zh) * | 2010-11-05 | 2011-05-04 | 中国海洋大学 | 自主式水下机器人组合导航系统 |
WO2015105597A2 (en) * | 2013-11-27 | 2015-07-16 | The Trustees Of The University Of Pennsylvania | Multi-sensor fusion for robust autonomous flight in indoor and outdoor environments with a rotorcraft micro-aerial vehicle (mav) |
WO2017177533A1 (zh) * | 2016-04-12 | 2017-10-19 | 深圳市龙云创新航空科技有限公司 | 基于激光雷达的微型无人机操控方法及系统 |
CN107561544A (zh) * | 2016-06-30 | 2018-01-09 | 天津广深科技有限公司 | 一种水下机器人的检测方法 |
CN111290007A (zh) * | 2020-02-27 | 2020-06-16 | 桂林电子科技大学 | 一种基于神经网络辅助的bds/sins组合导航方法和系统 |
CN111856448A (zh) * | 2020-07-02 | 2020-10-30 | 山东省科学院海洋仪器仪表研究所 | 基于双目视觉和雷达的海上障碍物识别方法及系统 |
US20230245444A1 (en) * | 2021-05-07 | 2023-08-03 | California Institute Of Technology | Unmanned aerial system (uas) autonomous terrain mapping and landing site detection |
US20220383484A1 (en) * | 2021-05-25 | 2022-12-01 | Tongji University | Tunnel defect detecting method and system using unmanned aerial vehicle |
CN114199259A (zh) * | 2022-02-21 | 2022-03-18 | 南京航空航天大学 | 一种基于运动状态与环境感知的多源融合导航定位方法 |
CN114565684A (zh) * | 2022-03-03 | 2022-05-31 | 安徽工业大学 | 一种基于一致性采样算法的标靶单应性矩阵计算方法 |
Non-Patent Citations (9)
Title |
---|
KOU, LEI ET AL.: "Optimized design of patrol path for offshore wind farms based on genetic algorithm and particle swarm optimization with traveling salesman problem", CONCURRENCY AND COMPUTATION-PRACTICE & EXPERIENCE, vol. 36, no. 2, XP072559095, DOI: 10.1002/cpe.7907 * |
于振等: "基于IGCF 算法和CSF⁃PPSO⁃ESN 算法的工业机器人末端执行器位姿重复性检测", 仪器仪表学报, vol. 44, no. 6 * |
何珍;楼佩煌;钱晓明;武星;朱立群;: "多目视觉与激光组合导航AGV精确定位技术研究", 仪器仪表学报, no. 11 * |
傅勤毅;胡杰华;: "基于单目视觉的轨道固定桩基准点测量方法", 交通运输工程学报, no. 02 * |
向超;蒋林;雷斌;朱建阳;: "基于环境语义信息的移动机器人重定位增强", 武汉科技大学学报, no. 03 * |
曹宇, 赵星涛: "一种新型双权值人工神经元网络的数据拟合研究", 电子学报, no. 10 * |
路丹晖;周文晖;龚小谨;刘济林;: "视觉和IMU融合的移动机器人运动解耦估计", 浙江大学学报(工学版), no. 06 * |
马虹;: "基于5G的视觉辅助BDS移动机器人融合定位算法", 计算机科学, no. 1 * |
高俊钗;刘明雍;徐飞;: "基于单目视觉的AUV实时定位算法研究", 半导体光电, no. 06 * |
Also Published As
Publication number | Publication date |
---|---|
CN117310773B (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109521774B (zh) | 一种基于强化学习的喷涂机器人轨迹优化方法 | |
CN114625151B (zh) | 一种基于强化学习的水下机器人避障路径规划方法 | |
CN113627473B (zh) | 基于多模态传感器的水面无人艇环境信息融合感知方法 | |
CN111273312B (zh) | 一种智能车辆定位与回环检测方法 | |
CN112444246B (zh) | 高精度的数字孪生场景中的激光融合定位方法 | |
Thompson et al. | Efficient lidar-based object segmentation and mapping for maritime environments | |
CN113778099A (zh) | 基于NDT算法和Hybrid A*算法的无人船路径规划方法 | |
Cui et al. | Research on simultaneous localization and mapping for AUV by an improved method: Variance reduction FastSLAM with simulated annealing | |
CN113593035A (zh) | 一种运动控制决策生成方法、装置、电子设备及存储介质 | |
Kuang et al. | Ir-mcl: Implicit representation-based online global localization | |
CN112802195B (zh) | 一种基于声呐的水下机器人连续占据建图方法 | |
CN112581610B (zh) | 从多波束声呐数据中建立地图的鲁棒优化方法和系统 | |
Franchi et al. | A probabilistic 3D map representation for forward-looking sonar reconstructions | |
CN117310773B (zh) | 基于双目立体视觉的水下机器人自主定位方法及系统 | |
CN117311372A (zh) | 基于双目立体视觉的水下机器人自主避障系统及方法 | |
Lin et al. | The fuzzy-based visual intelligent guidance system of an autonomous underwater vehicle: realization of identifying and tracking underwater target objects | |
CN115080903A (zh) | 一种基于智能优化算法的海上多目标多模态匹配融合方法 | |
CN115031726A (zh) | 一种数据融合导航定位方法 | |
Chang et al. | Robust accurate LiDAR-GNSS/IMU self-calibration based on iterative refinement | |
Lin et al. | Autonomous Landing of a VTOL UAV on a Ship based on Tau Theory | |
CN113989350A (zh) | 无人船自主探索和未知环境三维重构的监控系统 | |
CN108459614B (zh) | 一种基于cw-rnn网络的uuv实时避碰规划方法 | |
Yu et al. | A Direct approach of path planning using environmental contours | |
Khorrami et al. | A hierarchical path planning and obstacle avoidance system for an autonomous underwater vehicle | |
Zheng et al. | Research on Real Time Obstacle Avoidance Method for AUV Based on Combination of ViT-DPFN and MPC |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |