CN104766312A - 一种基于双目光视觉引导的智能水下机器人自主对接方法 - Google Patents
一种基于双目光视觉引导的智能水下机器人自主对接方法 Download PDFInfo
- Publication number
- CN104766312A CN104766312A CN201510140946.2A CN201510140946A CN104766312A CN 104766312 A CN104766312 A CN 104766312A CN 201510140946 A CN201510140946 A CN 201510140946A CN 104766312 A CN104766312 A CN 104766312A
- Authority
- CN
- China
- Prior art keywords
- underwater robot
- obtains
- sight
- intelligent underwater
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明涉及一种基于双目光视觉引导的智能水下机器人的自主对接方法。本发明包括:对双目光视觉系统进行立体标定;图像采集模块采集双目光视觉图像,通过总线传输至光视觉处理计算机;判断智能水下机器人是否已成功实现对接,若为否,转至第二步,若为是,则本流程运行结束。本发明中,对采集的双目光视觉系统的左视图和右视图进行了高斯降采样和非线性变换,不但有效抑制了图像中的噪声,还降低了计算消耗,保证了自主对接方法的实时性和鲁棒性。
Description
技术领域
本发明涉及一种基于双目光视觉引导的智能水下机器人的自主对接方法。
背景技术
近年来,智能水下机器人技术在世界各国的广泛关注和大量资源投入进行研发的情况下,得到了较快的发展且日趋成熟。与有缆遥控水下机器人、载人潜水器等水下作业装备相比,具有作业效率高、智能化水平高、生产成本低、无需专用母船支持等显著优势,目前已经在海洋生态研究、海洋地质科学、海底沉物搜索、油气管线检测等领域得到了越来越广泛的应用。然而在目前的技术条件下,智能水下机器人在海洋环境下的适用性受到气象条件、能源技术、通信方式等因素的制约,仍然没有达到理想的应用状态。针对这些技术瓶颈发展智能水下机器人的自主对接技术,使智能水下机器人能够在水下进行任务上传或下载、能源补充和数据交换,从而大幅度提高水下连续作业时间和连续航程,具有在较恶劣海况下进行布放、回收的能力,对推动智能水下机器人技术的迅速发展和广泛应用具有重要意义。
智能水下机器人的自主对接技术是指智能水下机器人采用一定引导方法获得对接装置的相对位置和姿态,自主调整自身的运动状态进入对接装置并进行可靠固定,从而实现任务上传或下载、能源补充和数据交换的一种先进技术。智能水下机器人的引导方法是实现自主对接的关键,目前主要包括水声、电磁场、光视觉等方式。其中水声引导的有效作用距离可达2千米,但容易受到各种噪声干扰,在近距离处的引导精度较差;电磁场引导的作用距离较近,并且容易受到机器人本身的电磁干扰和海底的地磁场干扰;光视觉引导的有效作用距离视水质而定,一般可达几十米,引导精度较高,适用于自主对接过程的末引导。现有的光视觉引导方法主要有两种机制:其一是利用摄像机获取对接装置的影像并对其位置和姿态进行辨识,这种机制的有效作用距离较小且可靠性差;其二是在对接装置上安装引导光源,利用摄像机获取引导光源的影像并估算对接装置的方位和距离,这种机制的有效作用距离较大且可靠性高,但现有的距离计算方法较粗略且准确性较差。
发明内容
本发明的目的是提供一种针对现有的光视觉引导方法的准确性低、可靠性差、作用距离小的不足之处,能够引导智能水下机器人实现准确、可靠的自主对接的基于双目光视觉引导的智能水下机器人的自主对接方法。
本发明的目的是这样实现的:
(1)对双目光视觉系统进行立体标定;
(2)图像采集模块采集双目光视觉图像,通过总线传输至光视觉处理计算机;
(3)对第二步得到的图像进行标准化处理和校正;
(4)对第三步得到的图像进行高斯降采样;
(5)对第四步得到的高斯降采样图像进行非线性变换;
(6)计算第五步得到的非线性变换的结果的直方图,根据直方图选择一定比例的像素,根据灰度值进行排序形成有序列表;
(7)依次从第六步得到的有序列表中取出一个像素,以该像素为种子点执行区域生长算法得到待选区域;
(8)根据第七步得到的待选区域的面积和圆形度选择疑似光源区域;
(9)判断是否已遍历第六步得到的有序列表,若为是,转至第十步,若为否,转至第七步;
(10)对第八步得到的疑似光源区域进行聚类和随机检验得到光源区域;
(11)对第十步得到的光源区域进行匹配得到平均视差;
(12)根据第十一步得到的平均视差计算引导光源的三维空间坐标,将其发送至运动控制计算机;
(13)运动控制计算机根据第十二步得到的引导光源坐标进行运动路径的规划;
(14)判断智能水下机器人是否已成功实现对接,若为否,转至第二步,若为是,则本流程运行结束。
本发明在技术方面的有益效果在于:
(1)本发明采用的对接装置具有圆锥导向罩和对接管形式的结构,能够容许较大的对接位置偏差且有利于实现可靠的锁紧固定,保证了自主对接方法的高可靠性。
(2)本发明中,采用双目光视觉系统获取引导光源的图像,通过计算引导光源在双目光视觉系统中的视差得到引导光源的准确的三维空间坐标,保证了引导方法的高精确性。
(3)本发明中,对采集的双目光视觉系统的左视图和右视图进行了高斯降采样和非线性变换,不但有效抑制了图像中的噪声,还降低了计算消耗,保证了自主对接方法的实时性和鲁棒性。
(4)本发明中,采用了区域生长算法和K均值聚类方法提取引导光源区域,并采用Rank变换和Census变换实现光源区域的匹配,能够有效剔除伪光源的干扰,保证了引导方法的高准确性和强抗干扰能力,同时具有较好的实时性。
附图说明
图1用于双目光视觉引导的智能水下机器人;
图2用于双目光视觉引导的对接装置;
图3左视图标准校正图像;
图4右视图标准校正图像;
图5左视图非线性变换结果;
图6右视图非线性变换结果;
图7左视图区域生长结果;
图8右视图区域生长结果;
图9左视图光源区域匹配结果;
图10右视图光源区域匹配结果;
图11基于双目光视觉引导的智能水下机器人自主对接算法流程图。
具体实施方式
下面结合附图举例对本发明作进一步的详细描述。
智能水下机器人具有典型的舵翼联合操控的欠驱动形式,在其艏部安装双目光视觉系统,在其密封的仪器舱中搭载图像采集模块、光视觉处理计算机和运动控制计算机,对接装置具有圆锥导向罩和对接管形式的结构,并在圆锥导向罩的外侧边缘安装引导光源。
本发明的目的是提供一种基于双目光视觉引导的智能水下机器人的自主对接方法,该方法针对现有的光视觉引导方法的准确性低、可靠性差、作用距离小的不足之处,采用双目光视觉对智能水下机器人进行引导,得到对接装置的精确位置,并用于机器人的路径规划和运动控制,从而引导机器人实现准确、可靠的自主对接。
结合图1,适用于双目光视觉引导的智能水下机器人具有典型的舵翼联合操控的欠驱动形式,在其密封的仪器舱中搭载运动控制计算机1、图像采集模块2和光视觉处理计算机3,在其艏部安装了双目光视觉系统4,其中双目光视觉系统4主要由光轴互相平行的摄像机5和摄像机6组成,图像采集模块2通过同轴视频信号线缆7获取双目光视觉系统4的光视觉信号,形成数字图像数据通过总线8传输至光视觉处理计算机3,光视觉处理计算机3将计算得到的引导光源的三维空间坐标通过以太网连接9发送至运动控制计算机1,并接收运动控制计算机1返回的对接状态。
结合图2,适用于双目光视觉引导的对接装置主要由圆锥导向罩10和对接管11组成,在圆锥导向罩10的外侧边缘安装了4只发光二极管12作为引导光源,对接装置由底座13可靠固定在海底并保持水平姿态。
实现本发明目的的具体实施步骤如下:
第一步,对双目光视觉系统利用张正友标定方法进行立体标定,用于标定的模板是黑白棋盘格形式,可以得到双目光视觉系统的空间变换矩阵P和双目测量矩阵Q,其中P表示摄像机之间的空间位置关系,而Q表示摄像机之间的视差与实际空间位置的变换关系;
第二步,图像采集模块利用双目光视觉系统采集左视图和右视图各一帧,通过总线传输至光视觉处理计算机;
第三步,在光视觉处理计算机中对和进行标准化处理并利用Bouguet算法进行校正,得到左视图和右视图的8位灰度图像和如图3和图4所示分别是左视图和右视图经过标准化处理和校正后得到的图像,每幅图像中共出现了八个引导光源,其中上面四个引导光源是水面反射形成的虚像;
第四步,对和进行高斯降采样以消除部分噪声和降低计算消耗,主要包括快速高斯滤波和降采样两个步骤。首先需要对和进行快速高斯滤波,即先采用模板g1与图像沿行方向进行卷积运算,再将卷积结果与模板g2沿列方向进行卷积运算得到高斯滤波后的图像,模板g1与g2是标准差σ=0.75的一维三元高斯模板:
g1=[0.2533 0.4934 0.2533]
其中表示模板g1的转置,然后对高斯滤波后的图像采用双线性插值方法进行降采样,缩放尺度s=0.75,得到降采样结果和
第五步,对和的灰度值进行非线性变换,以有效抑制图像中的噪声,如下公式所示:
f′=2c·f-1
其中f和f′分别是变换前和变换后的灰度值,且有f,f′∈{1,2,3,...,255},c是非线性变换的抑制系数且c=0.0314,得到非线性变换的结果是灰度图像和如图5和图6所示分别是左视图和右视图的非线性变换结果;
第六步,分别计算和的直方图hl(f′)和hr(f′),根据直方图选择灰度值最高的20%像素,按照灰度值由高到低进行排序形成有序列表Ll和Lr,并将Ll和Lr中所有像素设置为“未标记”状态;
第七步,依次分别从Ll和Lr中各取出一个“未标记”的像素Al和Ar作为种子点,设置灰度容许偏差为τ=3,生长域为灰度图像和区域生长算法的详细步骤如下:
步骤1初始化待选区域和为空集,其中i与j是区域编号且i,j=1,2,3,...,将Al和Ar分别加入和并设置为“已标记”状态,以Al和Ar的灰度值分别作为的区域灰度均值和的区域灰度均值
步骤2分别取出和中的每一个像素Bl和Br,若其分别在和中的8邻接像素Dl和Dr在有序列表Ll和Lr中是“未标记”状态且满足条件:
其中F(Dl)和F(Dr)分别是Dl和Dr的灰度值,则将Dl加入将Dr加入并设置为“已标记”状态,重新计算并更新区域灰度均值和
步骤3判断是否有新的像素加入和若为是转至步骤2,若为否区域生长算法结束,如图7和图8所示分别是左视图和右视图进行区域生长得到的待选区域;
第八步,计算和的区域面积和区域周长和且圆形度和计算公式如下:
其中π代表圆周率,将区域面积大于预设阈值tA=25且圆形度属于实数区间[0.9,1.1]的待选区域作为疑似光源区域;
第九步,判断有序列表Ll和Lr中是否所有的像素都是“已标记”状态,若为是,转至第十步,若为否,转至第七步;
第十步,对疑似光源区域集合和进行区域面积的K均值聚类,聚类数量设置为K=5,聚类的详细步骤如下:
步骤1从疑似光源区域集合或中随机选择5个样本作为聚类中心Uk,形成的5个聚类表示为Jk,其中k是聚类编号且k=1,2,3,4,5;
步骤2对于或中的任意一个样本Csample,搜索使Csample的区域面积S(Csample)与聚类中心Uk的距离|S(Csample)-Uk|最小的聚类k,并将Csample加入该聚类;
步骤3对于每一个聚类Jk,计算其所有样本的区域面积均值作为新的聚类中心Uk;
步骤4重复步骤2和步骤3直至每一个聚类Jk和聚类中心Uk不再发生变化。
对每一个聚类Jk采用随机抽样一致性算法进行检验,详细步骤如下:
步骤1从聚类Jk中任意选择3个样本,根据样本的区域中心拟合出圆的方程;
步骤2将聚类Jk中的其余样本用于检验得到的圆的方程,并把符合圆的方程的样本和3个拟合样本加入光源区域集合和其中ml和mr是区域编号;
步骤3重复步骤1和步骤2直至遍历聚类Jk中的所有样本组合。
第十一步,计算和中每个光源区域的Rank变换和Census变换,计算像素Bc的Rank变换Rank(Bc)的公式如下:
Rank(Bc)=Σδ[F(Bc),F(B8)]
其中变换函数δ[F(Bc),F(B8)]是像素Bc的灰度值F(Bc)和Bc的8邻接像素B8的灰度值F(B8)的函数,且计算公式如下:
类似地,Census变换定义为变换函数δ[F(Bc),F(B8)]按照像素Bc的8邻接像素B8的位置进行排序形成的二进制编码,则利用Rank变换和Census变换进行光源区域的匹配的详细步骤如下:
步骤1计算左视图的中一个像素的Rank变换,在右视图的中计算对应行上的像素的Rank变换,将Rank变换值相同的两个像素作为匹配点;
步骤2若匹配点数量只有一对,转至步骤2,否则计算匹配点的Census变换,选择Census变换差别最小的一对作为匹配点;
步骤3判断是否已遍历中的所有像素,若为是,转至步骤4,若为否,转至步骤1;
步骤4对中的任意一个光源区域计算它与中每一个光源区域的匹配度计算匹配度的公式为:
其中与分别是和的区域面积,N(ml,mr)是和的匹配点对数,选择匹配度最高的一对光源区域,若其匹配度大于0.9,则作为成功匹配的光源区域,计算其区域中心的位置偏差,即平均视差dn,其中n是光源编号且n=1,2,3,4,如图9和图10所示左视图和右视图中亮度相同的区域即为已实现匹配的光源区域,并且已经去除水面反射形成的引导光源的虚像。
第十二步,利用双目测量矩阵Q、平均视差dn和光源区域的中心(xn,yn)计算每个引导光源相对于智能水下机器人本体的三维空间坐标(Xn,Yn,Zn)的公式如下:
将计算得到的引导光源的三维空间坐标通过以太网TCP协议发送至运动控制计算机;
第十三步,运动控制计算机根据引导光源的三维空间坐标(Xn,Yn,Zn),采用模糊变系数人工势场法完成运动路径的规划,具体方法如下:
方法1将引导光源设置为引力点,从而使机器人在引力点的引力作用下向对接装置运动;
方法2机器人的运动速度对其向对接装置运动过程中的稳定性有较大影响,因此需要引入速度引力势场函数;
方法3采用模糊规则确定引力增益系数,保证路径规划的鲁棒性和可靠性。
坐标为(Xn,Yn,Zn)的引导光源对以速度V运动的机器人的速度引力势函数定义为:
其中定义为编号为n的引导光源的速度引力系数。相应地引力势函数定义为:
其中定义为编号为n的引导光源的距离引力系数,||(Xn,Yn,Zn)||2表示坐标(Xn,Yn,Zn)的l-2范数,则编号为n的引导光源对机器人产生的引力Wn的计算方法如下:
智能水下机器人机器人将在4个引导光源的引力作用下向对接装置运动。
第十四步,光视觉处理计算机接收运动控制计算机返回的对接状态,若尚未实现对接,转至第二步,若已成功对接,则本流程运行结束。
Claims (1)
1.一种基于双目光视觉引导的智能水下机器人自主对接方法,其特征在于:
(1)对双目光视觉系统进行立体标定;
(2)图像采集模块采集双目光视觉图像,通过总线传输至光视觉处理计算机;
(3)对第二步得到的图像进行标准化处理和校正;
(4)对第三步得到的图像进行高斯降采样;
(5)对第四步得到的高斯降采样图像进行非线性变换;
(6)计算第五步得到的非线性变换的结果的直方图,根据直方图选择一定比例的像素,根据灰度值进行排序形成有序列表;
(7)依次从第六步得到的有序列表中取出一个像素,以该像素为种子点执行区域生长算法得到待选区域;
(8)根据第七步得到的待选区域的面积和圆形度选择疑似光源区域;
(9)判断是否已遍历第六步得到的有序列表,若为是,转至第十步,若为否,转至第七步;
(10)对第八步得到的疑似光源区域进行聚类和随机检验得到光源区域;
(11)对第十步得到的光源区域进行匹配得到平均视差;
(12)根据第十一步得到的平均视差计算引导光源的三维空间坐标,将其发送至运动控制计算机;
(13)运动控制计算机根据第十二步得到的引导光源坐标进行运动路径的规划;
(14)判断智能水下机器人是否已成功实现对接,若为否,转至第二步,若为是,则本流程运行结束。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510140946.2A CN104766312B (zh) | 2015-03-27 | 2015-03-27 | 一种基于双目光视觉引导的智能水下机器人自主对接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510140946.2A CN104766312B (zh) | 2015-03-27 | 2015-03-27 | 一种基于双目光视觉引导的智能水下机器人自主对接方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104766312A true CN104766312A (zh) | 2015-07-08 |
CN104766312B CN104766312B (zh) | 2017-11-21 |
Family
ID=53648121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510140946.2A Active CN104766312B (zh) | 2015-03-27 | 2015-03-27 | 一种基于双目光视觉引导的智能水下机器人自主对接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104766312B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109436240A (zh) * | 2018-12-20 | 2019-03-08 | 中国船舶重工集团公司七五0试验场 | 一种水下机器人回收用锥杆式对接牵引机构 |
CN110001703A (zh) * | 2019-06-06 | 2019-07-12 | 上海电气泰雷兹交通自动化系统有限公司 | 列车连挂辅助导引系统、方法及连挂列车完整性监测方法 |
CN110675341A (zh) * | 2019-09-18 | 2020-01-10 | 哈尔滨工程大学 | 一种单目光视觉引导的水下机器人与海底平台对接方法 |
CN111572737A (zh) * | 2020-05-28 | 2020-08-25 | 大连海事大学 | 一种基于声学和光学引导的auv捕获引导方法 |
CN111784753A (zh) * | 2020-07-03 | 2020-10-16 | 江苏科技大学 | 自主水下机器人回收对接前景视场三维重建立体匹配方法 |
CN113034399A (zh) * | 2021-04-01 | 2021-06-25 | 江苏科技大学 | 基于双目视觉自主式水下机器人回收导引伪光源去除方法 |
CN113109762A (zh) * | 2021-04-07 | 2021-07-13 | 哈尔滨工程大学 | 一种用于auv对接回收的光视觉引导方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101251379A (zh) * | 2008-02-19 | 2008-08-27 | 哈尔滨工程大学 | 一种面向水下运载器的实时双目视觉导引方法 |
CN103057679A (zh) * | 2013-01-11 | 2013-04-24 | 哈尔滨工程大学 | 双智能水下机器人相互对接装置及对接方法 |
-
2015
- 2015-03-27 CN CN201510140946.2A patent/CN104766312B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101251379A (zh) * | 2008-02-19 | 2008-08-27 | 哈尔滨工程大学 | 一种面向水下运载器的实时双目视觉导引方法 |
CN103057679A (zh) * | 2013-01-11 | 2013-04-24 | 哈尔滨工程大学 | 双智能水下机器人相互对接装置及对接方法 |
Non-Patent Citations (2)
Title |
---|
XINQIAN BIAN ET AL: "《An Effective Binocular Vision-based Sensing Approach for IAUV》", 《PROCEEDINGS OF THE 2009 IEEE INTERNATIONAL CONFERENCE ON INFORMATION AND AUTOMATION 》 * |
施小成等: "《一种面向AUV水下对接的双目视觉测距方法》", 《计算机测量与控制》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109436240A (zh) * | 2018-12-20 | 2019-03-08 | 中国船舶重工集团公司七五0试验场 | 一种水下机器人回收用锥杆式对接牵引机构 |
CN110001703A (zh) * | 2019-06-06 | 2019-07-12 | 上海电气泰雷兹交通自动化系统有限公司 | 列车连挂辅助导引系统、方法及连挂列车完整性监测方法 |
CN110001703B (zh) * | 2019-06-06 | 2019-09-03 | 上海电气泰雷兹交通自动化系统有限公司 | 列车连挂辅助导引方法及连挂列车完整性监测方法 |
CN110675341B (zh) * | 2019-09-18 | 2022-11-15 | 哈尔滨工程大学 | 一种单目光视觉引导的水下机器人与海底平台对接方法 |
CN110675341A (zh) * | 2019-09-18 | 2020-01-10 | 哈尔滨工程大学 | 一种单目光视觉引导的水下机器人与海底平台对接方法 |
CN111572737A (zh) * | 2020-05-28 | 2020-08-25 | 大连海事大学 | 一种基于声学和光学引导的auv捕获引导方法 |
CN111572737B (zh) * | 2020-05-28 | 2022-04-12 | 大连海事大学 | 一种基于声学和光学引导的auv捕获引导方法 |
CN111784753A (zh) * | 2020-07-03 | 2020-10-16 | 江苏科技大学 | 自主水下机器人回收对接前景视场三维重建立体匹配方法 |
CN111784753B (zh) * | 2020-07-03 | 2023-12-05 | 江苏科技大学 | 自主水下机器人回收对接前景视场三维重建立体匹配方法 |
CN113034399A (zh) * | 2021-04-01 | 2021-06-25 | 江苏科技大学 | 基于双目视觉自主式水下机器人回收导引伪光源去除方法 |
WO2022205525A1 (zh) * | 2021-04-01 | 2022-10-06 | 江苏科技大学 | 基于双目视觉自主式水下机器人回收导引伪光源去除方法 |
CN113109762B (zh) * | 2021-04-07 | 2022-08-02 | 哈尔滨工程大学 | 一种用于auv对接回收的光视觉引导方法 |
CN113109762A (zh) * | 2021-04-07 | 2021-07-13 | 哈尔滨工程大学 | 一种用于auv对接回收的光视觉引导方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104766312B (zh) | 2017-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104766312A (zh) | 一种基于双目光视觉引导的智能水下机器人自主对接方法 | |
Cong et al. | Underwater robot sensing technology: A survey | |
Weidner et al. | Underwater cave mapping using stereo vision | |
Foresti | Visual inspection of sea bottom structures by an autonomous underwater vehicle | |
CN105809684B (zh) | 一种自主式水下机器人的光学引导回收系统及其回收方法 | |
CN112146654B (zh) | 基于关键约束帧的前视成像声呐水下定位与导航方法 | |
Negahdaripour et al. | Direct estimation of motion from sea floor images for automatic station-keeping of submersible platforms | |
CN109859202B (zh) | 一种基于usv水面光学目标跟踪的深度学习检测方法 | |
CN107730539B (zh) | 自主水下机器人控制系统及声纳目标跟踪方法 | |
CN114693720A (zh) | 基于无监督深度学习的单目视觉里程计的设计方法 | |
CN110533650A (zh) | 一种基于视觉的auv水下管道检测跟踪方法 | |
He et al. | Multi-AUV inspection for process monitoring of underwater oil transportation | |
Inzartsev et al. | Underwater pipeline inspection method for AUV based on laser line recognition: Simulation results | |
CN111784753B (zh) | 自主水下机器人回收对接前景视场三维重建立体匹配方法 | |
CN116958439B (zh) | 一种满水环境中基于多传感融合的管道三维重建方法 | |
Ruscio et al. | Visual-based navigation strategy for autonomous underwater vehicles in monitoring scenarios | |
CN117454680A (zh) | 一种海洋搜索集群设计系统及方法 | |
Horgan et al. | Computer vision applications in the navigation of unmanned underwater vehicles | |
Dionísio et al. | Nereon-an underwater dataset for monocular depth estimation | |
Li et al. | Learning scribbles for dense depth: Weakly-supervised single underwater image depth estimation boosted by multi-task learning | |
Negahdaripour et al. | A vision system for real-time positioning, navigation, and video mosaicing of sea floor imagery in the application of ROVs/AUVs | |
Zhang et al. | Triangle codes and tracer lights based absolute positioning method for terminal visual docking of autonomous underwater vehicles | |
Wu et al. | Self-supervised monocular depth estimation scale recovery using ransac outlier removal | |
CN112116538A (zh) | 一种基于深度神经网络的海洋勘测图像质量增强方法 | |
Ercan et al. | Underwater target detection using deep learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |