CN112305493A - 一种基于光信标检测的深海视觉测距方法 - Google Patents

一种基于光信标检测的深海视觉测距方法 Download PDF

Info

Publication number
CN112305493A
CN112305493A CN202011205868.7A CN202011205868A CN112305493A CN 112305493 A CN112305493 A CN 112305493A CN 202011205868 A CN202011205868 A CN 202011205868A CN 112305493 A CN112305493 A CN 112305493A
Authority
CN
China
Prior art keywords
distance
deep sea
optical beacon
optical
beacon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011205868.7A
Other languages
English (en)
Other versions
CN112305493B (zh
Inventor
杨梦宁
韩彪
李小斌
陈开润
何鑫
汪涵
向刚
李亚涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Mihong Technology Co ltd
Chongqing University
Xidian University
Original Assignee
Chongqing Mihong Technology Co ltd
Chongqing University
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Mihong Technology Co ltd, Chongqing University, Xidian University filed Critical Chongqing Mihong Technology Co ltd
Priority to CN202011205868.7A priority Critical patent/CN112305493B/zh
Publication of CN112305493A publication Critical patent/CN112305493A/zh
Application granted granted Critical
Publication of CN112305493B publication Critical patent/CN112305493B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S1/00Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith
    • G01S1/70Beacons or beacon systems transmitting signals having a characteristic or characteristics capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters; Receivers co-operating therewith using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及深海测距技术领域,具体涉及一种基于光信标检测的深海视觉测距方法。本发明通过对水下相机拍摄到的深海光信标图进行分析,测量相同光信标在不同深海距离时两两间的距离,将它们与水下相机到光信标的真实深海距离组成数据对,训练构建出深海视觉测距模型,基于光信标近大远小的原理,能够通过拍摄到的深海光信标图对水下相机到最近的光信标的距离进行预测,仅需光信标相互位置关系和相互之间的成像距离便可预测出水下相机与光信标之间的距离,受到海水的影响很小,精确性高,并且拍摄后可以及时的处理得到距离的预测值,有着良好的实时性。

Description

一种基于光信标检测的深海视觉测距方法
技术领域
本发明涉及深海测距技术领域,具体涉及一种基于光信标检测的深海视觉测距方法。
背景技术
深海中信息传输对信息发出者和接收者之间有着严格的距离控制,由于深海中海水对声、光信号的吸收,海洋背景噪声等导致现有深海距离测量问题面临重大挑战。因此如何准确、实时地测量深海距离是现阶段迫切研究的问题。
近年来国内外最常见的深海测距方法包括深海超声波测距和深海激光测距。深海超声波测距通过计算超声波自发射至接收的往返时间,从而得到实测距离,适合于近距离测距,无法满足长距离测距。深海激光测距不是直接测量光传播的距离,它工作原理类似于声纳,方法是向测量目标发送窄激光束并测量其反弹所需的时间,从而确定距离。由于水对激光有极强的吸收及散射效应,会导致信号的丢失及干涉,因此深海激光测距精度较低,难以满足工程需求。
无论是深海超声波测距还是深海激光测距,都是需要超声波或是激光“往复”行进一次,通过发出的时间和接受的时间确定距离,超声波和激光的每一次的行进过程都会收到海水巨大的影响,常常会发生信号延迟、信号丢失和测量不准确的情况。
发明内容
针对现有技术存在的上述问题,本发明要解决的技术问题是:深海测距容易受到海水的影响,导致测量时间长,测量精度低,适用性窄。
为解决上述技术问题,本发明采用如下技术方案:一种基于光信标检测的深海视觉测距方法,包括如下步骤:
S100;数据准备:
S110;使用水下相机对n(n≥2)个光信标进行拍摄,得到深海原图;
S120;对深海原图进行光信标检测处理,得到光信标轮廓图,并对光信标轮廓图中的光信标进行编号;
S130;对光信标轮廓图进行光信标垂直校正;
S140;通过校正好的光信标轮廓图计算出光信标两两之间的距离;
S150;将得到的光信标两两之间的距离作为输入特征,水下相机到光信标的真实距离D作为标签,构成数据对;
S160;通过S110-S150的方法拍摄不同深度的光信标,从而创建若干个数据对,一张深海原图对应一组数据对,若干个数据对组成数据库,随机提取数据库中80%的数据对作为训练集,剩余20%的数据对作为验证集;
S200;建立模型:
S210;提出目标函数如下:
y=a(K*X)b+c (1);
其中,X为输入特征,y为水下相机到光信标的距离,a、b、c、K为训练中需更新的参数;提出损失函数如下:
Figure BDA0002757075650000021
其中N为训练集的数量,D为水下相机到光信标的真实距离,
Figure BDA0002757075650000022
为预测的水下相机到光信标的距离;
S220;随机选择参数a、b、c、K;
S230;将参数带入目标函数;
S240;遍历训练集中的数据对,对目标函数进行训练,并将对参数进行更新,最终得到优化后的参数,从而得到测距模型;
S250;将验证集中的输入特征带入测距模型得到预测的水下相机到光信标的距离,将预测的水下相机到光信标的距离同验证集中对应的标签组成验证数据对,将验证数据对带入损失函数得到MSE值;
S260;判断MSE值是否连续5次上升或持平,若是,执行步骤S270;若否,将S240得到的优化后的参数重新返回S230继续对目标函数进行训练;
S270;将得到的优化参数带入目标函数,从而得到深海视觉测距模型;
S300;预测光信标到水下相机的距离:
S310;使用水下相机对待测光信标进行拍摄得到待测深海原图,将待测深海原图使用S120-S140的步骤得到待测光信标轮廓图以及待测光信标两两之间的距离;
S320;将待测光信标两两之间的距离输入到深海视觉测距模型中,即可得到水下相机到该光信标的距离预测值。
作为优选,所述步骤S120中对深海图像的光信标的检测处理具体方法步骤如下:
S121;对图像依次进行灰度化,中值滤波的预处理操作;
S122;在预处理好的图像上进行阈值分割操作,获得二值化图像,其中光信标显示为白色,其余为黑色;
S123;去除其中干扰的噪声目标,在二值图像上基于现有的Suzuki85算法确定光信标轮廓,Suzuki85算法将一个二值图像转化成边界的表示形式,然后提取各边界之间的父轮廓和内嵌轮廓,从而确定边界的围绕关系,最终找到最外边界即为目标轮廓,该目标轮廓图即为光信标轮廓图。
作为优选,所述S130中的光信标垂直校正方法为透视投影法,具体校正方法步骤如下:
S131;在光信标轮廓图中任意选取一组四个光信标点的坐标,这四个点坐标可连接形成一个矩形,四个点的坐标分别表示为左上(u0,v0),左下(u1,v1),右上(u2,v2),右下(u3,v3);
S132;根据四个点的坐标,计算校正后图像的宽度,为右下点和左下点之间的最大距离,使用下述等式计算得出:
Figure BDA0002757075650000031
Figure BDA0002757075650000032
width=max(widthA,widthB)(5);
其中,(u,v)表示点坐标校正前的坐标值,width为校正后图像的宽度;
S133;根据四个点的坐标,计算校正后图像的高度,为上右点和下右点之间的最大距离使用下述等式计算得出:
Figure BDA0002757075650000033
Figure BDA0002757075650000034
height=max(heightA,heightB) (8);
其中,(u,v)表示点坐标校正前的坐标值,height为校正后图像的高度;
S134;构造校正后图像的四个顶点,即:
左上:(x0,y0)=(0,0);左下:(x1,y1)=(0,-height);右上:(x2,y2)=(-width,0);右下:(x3,y3)=(-width,-height);
S135;通过图像校正前的四个顶点坐标(u0,v0),(u1,v1),(u2,v2),(u3,v3)和校正后的四个顶点坐标(x0,y0),(x1,y1),(x2,y2),(x3,y3),计算透视变换矩阵H,其中H满足下列等式:
Figure BDA0002757075650000041
Figure BDA0002757075650000042
Figure BDA0002757075650000043
Figure BDA0002757075650000044
S136;通过方程组求解即可得到透视变换矩阵H,求得H之后,应用等式(11)和(12)对整个深海原图执行透视变换矩阵的变换,实现光信标的垂直校正。
作为优选,所述S140中光信标间距的计算方法具体如下:
S141;根据opencv框架的moments方法计算出轮廓空间矩M,对于二值化的图像,使用等式(14)求解得到每个分量;
M=double[m00,m10,m01,m20,m11,m02,m30,m21,m12,m03](13);
mji=∑x,y(array(x,y)·xj·yi) (14);
其中,m00为轮廓的面积,(x,y)为轮廓上的坐标;
S142;根据上述轮廓的空间矩M,使用以下等式求取质心坐标:
x=int(M[m10]/M[m00]) (15);
y=int(M[m01]/M[m00]) (16);
由得到的质心坐标使用等式(17)计算得到质心之间的距离:
Figure BDA0002757075650000045
distance即为光信标之间的距离,使用等式(15)、(16)、(17)求出光信标轮廓图中光信标两两之间的距离。
相对于现有技术,本发明至少具有如下优点:
本发明通过对水下相机拍摄到的深海光信标图进行分析,测量光信标在不同深海距离时两两间的距离,将它们两两间的距离与其真实的深海距离组成数据对,并通过训练构建出深海视觉测距模型,基于光信标近大远小的原理,能够通过拍摄到的深海光信标图对水下相机到最近的光信标的距离进行预测,仅需光信标相互位置距离和关系便可预测出水下相机与光信标之间的距离。
因为光信标作为发射源,水下相机作为接收源,光源信息从光信标传递到水下相机仅为单程,即光源信息传递距离相比现有深海测距技术更短,受到海水的影响更小,从而能够保证一个良好的精确性。水下相机拍摄到的深海原图处理和输入特征的提取均能够软件快速的实现,通过深海视觉测距模型的运用,便可以快速的对水下相机到光信标之间的距离进行预测。
附图说明
图1为本发明提供的深海测距技术的流程图。
图2为本发明提供的深海视觉测距模型建立的流程图。
图3为本发明对深海原图检测处理的实际操作过程示意图。
图4为水下相机拍摄得到的光信标两两之间的距离示意图。
图5为实施例1中预测的深海距离图。
图6为实施例2中预测的深海距离图。
图7为实施例3中预测的深海距离图。
图8为验证线性回归模型LinearRegression的拟合结果图。
图9为验证极端随机森林模型ExtraTreesRegressor的拟合结果图。
图10为验证深海视觉测距模型的拟合结果图。
图11为图像校正示意图。
图12为拓扑分析的示意图。
具体实施方式
下面对本发明做进一步详细说明。
本发明中提及的光信标仅指代能够在水下放出光源的物体,不特指某种具体的器械设备,光信标可以是水下LED光信标,海底探测器指示灯等任意可以向水下相机发出光源信息的设备。水下相机拍摄的深海原图具有两种情况,第一种,光信标为分离式,各个相同光信标可能处于不同深度,且相互之间的距离差距极大,此时,通过近大远小的原则判断出校正后的深海原图中距离水下相机最近的光信标,使用深海视觉测距模型预测出来的预测距离值为水下相机到最近的光信标的距离;第二种,各个相同光信标相互之间保持固定距离,且相互之间的距离间隔不大,如光信标固定在同一海底探测器上不同的位置,此时,水下相机拍摄到的深海原图经过校正后可近似看作水下相机到各个光信标之间的距离相等,同时,光信标之间的距离接近,则通过深海视觉测距模型预测出来的预测距离值即为水下相机到光信标所处深度的距离。
实施例1:一种基于光信标检测的深海视觉测距方法,包括如下步骤:
S100;数据准备:
S110;使用水下相机对n(n≥2)个光信标进行拍摄,得到深海原图;
具体实施时,光信标越多,光信标两两之间的距离越多,也就是提取出的输入特征越多,光信标数量与输入特征数量之间的关系为:
Figure BDA0002757075650000061
其中,n为深海原图中光信标数量,Tn为深海原图中提取的输入特征数量。为保证距离的预测的精准性和减少模型的训练压力,选取光信标的数量为3-5个,在光信标下潜过程中,使用水下相机对准光信标进行视频拍摄,从拍摄好的视频中截取出光信标的深海原图。
S120;对深海原图进行光信标检测处理,得到光信标轮廓图,并对光信标轮廓图中的光信标进行编号;
具体实施时,深海图像的光信标的检测处理具体方法步骤如下:
S121;对图像依次进行灰度化,中值滤波的预处理操作;
S122;在预处理好的图像上进行阈值分割操作,获得二值化图像,其中光信标显示为白色,其余为黑色;
S123;去除其中干扰的噪声目标,在二值图像上基于现有的Suzuki85算法确定光信标轮廓,Suzuki85算法将一个二值图像转化成边界的表示形式,如图12中所示,图中左边是一个二值图在寻找边界之后被标记的结果,右边是对这个二值图的边界的拓扑结构的表示,从上往下依次是父亲轮廓和内嵌轮廓,借此可标记出所有轮廓边界,从而确定边界的围绕关系,最终找到最外边界即为目标轮廓,该目标轮廓图即为光信标轮廓图;
具体实施时,根据经验,二值化图像中明显较小的白点,即为拍摄到的深海噪声目标,直接使用软件将其抹去,或是忽视掉这些细小的白点。
S130;对光信标轮廓图进行光信标垂直校正;
具体实施时,校正的具体方法步骤如下:
S131;在光信标轮廓图中任意选取一组四个光信标点的坐标,这四个点坐标可连接形成一个矩形,如图11所示,四个点的坐标分别表示为左上(u0,v0),左下(u1,v1),右上(u2,v2),右下(u3,v3);
S132;根据四个点的坐标,计算校正后图像的宽度,为右下点和左下点之间的最大距离,使用下述等式计算得出:
Figure BDA0002757075650000071
Figure BDA0002757075650000072
width=max(widthA,widthB) (5);
其中,(u,v)表示点坐标校正前的坐标值,width为校正后图像的宽度;
S133;根据四个点的坐标,计算校正后图像的高度,为上右点和下右点之间的最大距离使用下述等式计算得出:
Figure BDA0002757075650000073
Figure BDA0002757075650000074
height=max(heightA,heightB) (8);
其中,(u,v)表示点坐标校正前的坐标值,height为校正后图像的高度;
S134;构造校正后图像的四个顶点,即:
左上:(x0,y0)=(0,0);左下:(x1,y1)=(0,-height);右上:(x2,y2)=(-width,0);右下:(x3,y3)=(-width,-height);
S135;通过图像校正前的四个顶点坐标(u0,v0),(u1,v1),(u2,v2),(u3,v3)和校正后的四个顶点坐标(x0,y0),(x1,y1),(x2,y2),(x3,y3),计算透视变换矩阵H,其中H满足下列等式:
Figure BDA0002757075650000075
Figure BDA0002757075650000076
Figure BDA0002757075650000077
Figure BDA0002757075650000078
S136;通过方程组求解即可得到透视变换矩阵H,求得H之后,应用等式(11)、(12)对整个原始图像执行透视变换矩阵的变换,实现光信标的垂直校正。
S140;通过校正好的光信标轮廓图计算出光信标两两之间的距离;
具体实施时,光信标间距的计算方法具体如下:
S141;根据opencv框架的moments方法计算出轮廓空间矩M,对于二值化的图像,使用等式(14)求解得到每个分量;
M=double[m00,m10,m01,m20,m11,m02,m30,m21,m12,m03] (13);
mji=∑x,y(array(x,y)·xj·yi) (14);
其中,m00为轮廓的面积,(x,y)为轮廓上的坐标;
S142;根据上述轮廓的空间矩M,使用以下等式求取质心坐标:
x=int(M[m10]/M[m00]) (15);
y=int(M[m01]/M[m00]) (16);
由得到的质心坐标使用等式(17)计算得到质心之间的距离:
Figure BDA0002757075650000081
distance即为光信标之间的距离,使用等式(15)、(16)、(17)便求出光信标轮廓图中光信标两两之间的距离。
S150;将得到的光信标两两之间的距离作为输入特征K,水下相机到光信标的真实距离D作为标签,构成数据对;
S160;通过S110-S150的方法拍摄不同深度的光信标,从而创建若干个数据对,一张深海原图对应一组数据对,若干个数据对组成数据库,随机提取数据库中80%的数据对作为训练集,剩余20%的数据对作为验证集。
具体实施时,划分出不同距离的层次,随机抽取每个层次中80%的数据对作为训练集,剩余的数据对作为验证集。
S200;建立模型:
S210;提出目标函数如下:
y=a(K*X)b+c (1);
其中,X为输入特征,y为水下相机到光信标的距离,a、b、c、K为训练中需更新的参数;
提出损失函数如下:
Figure BDA0002757075650000082
其中N为训练集的数量,D为水下相机到光信标的真实距离,
Figure BDA0002757075650000083
为预测的水下相机到光信标的距离;
具体实施时,不同的光信标数量需要建立不同的深海视觉测距模型,即目标函数为:
y=a(K1X1+K2X2+K3X3+…+KiXi)b+c;
其中,X1、X2、X3…Xi为深海原图中提取的输入特征,即两个光信标之间的距离,单位为像素;i为输入特征数量。
在此实施例中,建立光信标数为3个的深海视觉测距模型,对光信标分别标号为A,B,C,则输入特征X为distanceAB,distanceAC,distanceBC。即此时目标函数为:
y=a(K1 distanceAB+K2 distanceAC+K3 distanceBC)b+c。
S220;随机选择参数a、b、c、K;
S230;将参数带入目标函数;
S240;遍历训练集中的数据对,对目标函数进行训练,并将对参数进行更新,最终得到优化后的参数,从而得到测距模型;
S250;将验证集中的输入特征带入测距模型得到预测的水下相机到光信标的距离,将预测的水下相机到光信标的距离同验证集中对应的标签组成验证数据对,将验证数据对带入损失函数得到MSE值;
S260;判断MSE值是否连续5次上升或持平,若是,执行步骤S270;若否,将S240得到的优化后的参数重新返回S230继续对目标函数进行训练;
S270;将得到的优化参数带入目标函数,从而得到深海视觉测距模型。
在此实施例中,深海视觉测距模型的模型公式为:
y=(1.594e+03)(0.0026distanceAB+0.0109distanceAC+0.0016distanceBC)-1.032
S300;预测光信标到水下相机的距离:
S310;使用水下相机对待测光信标进行拍摄得到待测深海原图,将待测深海原图使用S120-S140的步骤得到待测光信标轮廓图以及待测光信标两两之间的距离;
S320;将待测光信标两两之间的距离输入到深海视觉测距模型中,即可得到水下相机到该光信标的距离预测值。
实施例2:使用水下相机拍摄到一张光信标数量为3的深海原图,此时水下相机与光信标的实际距离为5.050m,将得到的深海原图通过S102-S104的方法得到如图5所示的光信标间距图,将图中A与B之间的距离,A与B之间的距离,B与C之间的距离带入实施例1中的深海视觉预测模型中,由模型得到模型预测值为5.103m。
实施例3:使用水下相机拍摄到一张光信标数量为3的深海原图,此时水下相机与光信标的实际距离为7.000m,将得到的深海原图通过S102-S104的方法得到如图6所示的光信标间距图,将图中A与B之间的距离,A与B之间的距离,B与C之间的距离带入实施例1中的深海视觉预测模型中,由模型得到模型预测值为7.100m。
实施例4:使用水下相机拍摄到一张光信标数量为3的深海原图,此时水下相机与光信标的实际距离为11.000m,将得到的深海原图通过S102-S104的方法得到如图7所示的光信标间距图,将图中A与B之间的距离,A与B之间的距离,B与C之间的距离带入实施例1中的深海视觉预测模型中,由模型得到模型预测值为10.960m。
由上述实施例2、实施例3和实施例4可知,使用本发明提供的技术方案得到的深海视觉预测模型,对深海距离预测的数值与实际距离之间的差值均不大于0.1m。在深海这种影响因素多,影响强度大的环境下,本发明提供的方案仍能够较为准确预测得到水下相机与光信标的距离值。
本发明的预测方法与现有预测方法的比对:
实验数据集
本发明使用3个光信标投放,将水下相机采集的深海图像进行光信标距离计算,得出以下作为对比测试的深海测距数据集,如表1所示。
表1.深海测距数据集
Figure BDA0002757075650000101
表中,distanceAB,distanceAC,distanceBC表示目标之间的距离,单位为像素,D表示真实的深海距离,单位为厘米。
现有预测方法
本发明选取了线性回归(LinearRegression)方法和极端随机森林非线性回归(ExtraTreesRegressor)方法作为对比,探讨本发明的结果准确性。
验证标准
以均方根误差(RMSE,RootMeanSquardError)、平均绝对误差(MAE,MeanAbsoluteError)和平均偏差率(MVR,MeanVarianceRate)作为评价指标。RMSE衡量预测距离与真实距离之间的偏差,常用来作为机器学习模型预测结果衡量的标准。MAE是绝对误差的平均值,可以更好地反映预测距离误差的实际情况。MVR指真实距离与预测距离的偏差的程度,用于直观地表征实验效果。
RMSE、MAE和MVR三个评价指标数值越小,说明预测值越趋近于真实值,反之,则说明预测值越远离于真实值。
RMSE、MAE、MVR的定义分别等式19、等式20和等式21所示。
Figure BDA0002757075650000111
Figure BDA0002757075650000112
Figure BDA0002757075650000113
其中N为验证集的数量,yn为真实的深海距离,
Figure BDA0002757075650000114
为预测的深海距离。
将深海测距数据集带入本发明提供的预测模型,线性回归(LinearRegression)方法和极端随机森林非线性回归(ExtraTreesRegressor)方法中,得到三种方式预测的RMSE-MAE-MVR表,如下所示:
Figure BDA0002757075650000115
由上表可知,本发明提供的深海视觉预测模型RMSE、MAE和MVR三个评价指标分别为7.29%、7.06%和1.1%,明显低于其他两种方法,则说明了本发明所提供的技术方案能够准确地预测出深海中水下相机与光信标之间的距离。
为了直观了解模型性能,将三种方法所得距离预测值制作成拟合结果图如图8,图9,图10所示。图中,横坐标为输入特征,纵坐标为距离预测值,△点表示随机挑选的训练集数据对,○点表示随机挑选的测试集数据对。
由图8可知,线性回归(LinearRegression)方法所得到的拟合结果很明显与测试集和训练集的数据对均有较大差距,无法准确地得到距离的预测值。由图9可知,极端随机森林非线性回归(ExtraTreesRegressor)方法所得到的拟合结果能够很好的拟合训练集数据对,但在测试集数据对的拟合结果上发生了较大偏差,因此,极端随机森林非线性回归(ExtraTreesRegressor)方法的泛化性不强,对距离的预测仍有偏差,无法准确地得到距离的预测值。由图10可知,本发明提供的深海视觉预测模型对于测试集和训练集都能够很好的拟合,能够快速、准确地预测深海距离,并且模型具有很强的泛化能力,适用性广。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种基于光信标检测的深海视觉测距方法,其特征在于:包括如下步骤:
S100;数据准备:
S110;使用水下相机对n(n≥2)个光信标进行拍摄,得到一张深海原图;
S120;对深海原图进行光信标检测处理,得到光信标轮廓图,并对光信标轮廓图中的光信标进行编号;
S130;对光信标轮廓图进行光信标垂直校正;
S140;通过校正好的光信标轮廓图计算出光信标两两之间的距离;
S150;将得到的光信标两两之间的距离作为输入特征,水下相机到光信标的真实距离D作为标签,构成数据对;
S160;通过S110-S150的方法拍摄不同深度的光信标,从而创建若干个数据对,一张深海原图对应一组数据对,若干个数据对组成数据库,随机提取数据库中80%的数据对作为训练集,剩余20%的数据对作为验证集;
S200;建立模型:
S210;提出目标函数如下:
y=a(K*X)b+c(1);
其中,X为输入特征,y为水下相机到光信标的距离,a、b、c、K为训练中需更新的参数;
提出损失函数如下:
Figure FDA0002757075640000011
其中N为训练集的数量,D为水下相机到光信标的真实距离,
Figure FDA0002757075640000012
为预测的水下相机到光信标的距离;
S220;随机选择参数a、b、c、K;
S230;将参数带入目标函数;
S240;遍历训练集中的数据对,对目标函数进行训练,并将对参数进行更新,最终得到优化后的参数,从而得到测距模型;
S250;将验证集中的输入特征带入测距模型得到预测的水下相机到光信标的距离,将预测的水下相机到光信标的距离同验证集中对应的标签组成验证数据对,将验证数据对带入损失函数得到MSE值;
S260;判断MSE值是否连续5次上升或持平,若是,执行步骤S270;若否,将S240得到的优化后的参数重新返回S230继续对目标函数进行训练;
S270;将得到的优化参数带入目标函数,从而得到深海视觉测距模型;
S300;预测光信标到水下相机的距离:
S310;使用水下相机对待测光信标进行拍摄得到待测深海原图,将待测深海原图使用S120-S140的步骤得到待测光信标轮廓图以及待测光信标两两之间的距离;
S320;将待测光信标两两之间的距离输入到深海视觉测距模型中,即可得到水下相机到该光信标的距离预测值。
2.如权利要求1所述的一种基于光信标检测的深海视觉测距方法,其特征在于:所述步骤S120中对深海图像的光信标的检测处理具体方法步骤如下:
S121;对图像依次进行灰度化,中值滤波的预处理操作;
S122;在预处理好的图像上进行阈值分割操作,获得二值化图像,其中光信标显示为白色,其余为黑色。
3.S123;去除其中干扰的噪声目标,在二值图像上基于现有的Suzuki85算法确定光信标轮廓,Suzuki85算法将一个二值图像转化成边界的表示形式,然后提取各边界之间的父轮廓和内嵌轮廓,从而确定边界的围绕关系,最终找到最外边界即为目标轮廓,该目标轮廓图即为光信标轮廓图。
4.如权利要求1所述的一种基于光信标检测的深海视觉测距方法,其特征在于:所述S130中的光信标垂直校正方法为透视投影法,具体校正方法步骤如下:
S131;在光信标轮廓图中任意选取一组四个光信标点的坐标,这四个点坐标可连接形成一个矩形,四个点的坐标分别表示为左上(u0,v0),左下(u1,v1),右上(u2,v2),右下(u3,v3);
S132;根据四个点的坐标,计算校正后图像的宽度,为右下点和左下点之间的最大距离,使用下述等式计算得出:
Figure FDA0002757075640000021
Figure FDA0002757075640000022
width=max(widthA,widthB) (5);
其中,(u,v)表示点坐标校正前的坐标值,width为校正后图像的宽度;
S133;根据四个点的坐标,计算校正后图像的高度,为上右点和下右点之间的最大距离使用下述等式计算得出:
Figure FDA0002757075640000031
Figure FDA0002757075640000032
height=max(heightA,heightB) (8);
其中,(u,v)表示点坐标校正前的坐标值,height为校正后图像的高度;
S134;构造校正后图像的四个顶点,即:
左上:(x0,y0)=(0,0);左下:(x1,y1)=(0,-height);右上:(x2,y2)=(-width,0);右下:(x3,y3)=(-width,-height);
S135;通过图像校正前的四个顶点坐标(u0,v0),(u1,v1),(u2,v2),(u3,v3)和校正后的四个顶点坐标(x0,y0),(x1,y1),(x2,y2),(x3,y3),计算透视变换矩阵H,其中H满足下列等式:
Figure FDA0002757075640000033
Figure FDA0002757075640000034
Figure FDA0002757075640000035
Figure 1
5.S136;通过方程组求解即可得到透视变换矩阵H,求得H之后,应用等式(11)和(12)对整个深海原图执行透视变换矩阵的变换,实现光信标的垂直校正。
6.如权利要求1所述的一种基于光信标检测的深海视觉测距方法,其特征在于:所述S140中光信标间距的计算方法具体如下:
S141;根据opencv框架的moments方法计算出轮廓空间矩M,对于二值化的图像,使用等式(14)求解得到每个分量;
M=double[m00,m10,m01,m20,m11,m02,m30,m21,m12,m03](13);
mji=∑x,y(array(x,y)·xj·yi) (14);
其中,m00为轮廓的面积,(x,y)为轮廓上的坐标;
S142;根据上述轮廓的空间矩M,使用以下等式求取质心坐标:
x=int(M[m10]/M[m00]) (15);
y=int(M[m01]/M[m00]) (16);
由得到的质心坐标使用等式(17)计算得到质心之间的距离:
Figure FDA0002757075640000041
distance即为光信标之间的距离,使用等式(15)、(16)、(17)求出光信标轮廓图中光信标两两之间的距离。
CN202011205868.7A 2020-11-02 2020-11-02 一种基于光信标检测的深海视觉测距方法 Active CN112305493B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011205868.7A CN112305493B (zh) 2020-11-02 2020-11-02 一种基于光信标检测的深海视觉测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011205868.7A CN112305493B (zh) 2020-11-02 2020-11-02 一种基于光信标检测的深海视觉测距方法

Publications (2)

Publication Number Publication Date
CN112305493A true CN112305493A (zh) 2021-02-02
CN112305493B CN112305493B (zh) 2023-07-21

Family

ID=74333929

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011205868.7A Active CN112305493B (zh) 2020-11-02 2020-11-02 一种基于光信标检测的深海视觉测距方法

Country Status (1)

Country Link
CN (1) CN112305493B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101492A (ja) * 2005-10-07 2007-04-19 Sharp Corp 移動ロボットの距離および位置検出装置
JP2007200083A (ja) * 2006-01-27 2007-08-09 Sumitomo Electric Ind Ltd 距離算出装置及び距離算出方法並びにその装置を有する車両
EP1884803A1 (en) * 2006-07-18 2008-02-06 Samsung Electronics Co., Ltd. Beacon to measure distance, positioning system using the same, and method of measuring distance
CN101519981A (zh) * 2009-03-19 2009-09-02 重庆大学 基于单目视觉的矿井机车防撞预警系统和预警方法
CN103398710A (zh) * 2013-08-06 2013-11-20 大连海事大学 一种夜雾天况下的舰船进出港导航系统及其构建方法
CN103424750A (zh) * 2013-08-05 2013-12-04 中国人民解放军63655部队 一种接收激光信标测量大气湍流强度廓线的装置与方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007101492A (ja) * 2005-10-07 2007-04-19 Sharp Corp 移動ロボットの距離および位置検出装置
JP2007200083A (ja) * 2006-01-27 2007-08-09 Sumitomo Electric Ind Ltd 距離算出装置及び距離算出方法並びにその装置を有する車両
EP1884803A1 (en) * 2006-07-18 2008-02-06 Samsung Electronics Co., Ltd. Beacon to measure distance, positioning system using the same, and method of measuring distance
CN101519981A (zh) * 2009-03-19 2009-09-02 重庆大学 基于单目视觉的矿井机车防撞预警系统和预警方法
CN103424750A (zh) * 2013-08-05 2013-12-04 中国人民解放军63655部队 一种接收激光信标测量大气湍流强度廓线的装置与方法
CN103398710A (zh) * 2013-08-06 2013-11-20 大连海事大学 一种夜雾天况下的舰船进出港导航系统及其构建方法

Also Published As

Publication number Publication date
CN112305493B (zh) 2023-07-21

Similar Documents

Publication Publication Date Title
CN108256446B (zh) 用于确定道路中的车道线的方法、装置和设备
KR101856401B1 (ko) 차선 데이터의 처리 방법, 장치, 저장매체 및 기기
CN111222574B (zh) 基于多模型决策级融合的舰船与民船目标检测与分类方法
CN109932708B (zh) 一种基于干涉条纹和深度学习的水面水下分类目标的方法
CN103971406B (zh) 基于线结构光的水下目标三维重建方法
CN107392965B (zh) 一种基于深度学习和双目立体视觉相结合的测距方法
CN111369617B (zh) 一种基于卷积神经网络的单目视图的3d目标检测方法
CN112068085B (zh) 一种基于深度学习的雷达海杂波原始数据快速预处理方法
CN113624225B (zh) 一种用于发动机定位销安装的位姿解算方法
CN115187666A (zh) 深度学习和图像处理结合的侧扫声呐海底高程探测方法
CN105424724A (zh) 基于主动式全景视觉的火炮內膛疵病检测装置及方法
WO2022126522A1 (zh) 物体识别方法、装置、可移动平台以及存储介质
CN105283750A (zh) 用于处理轮胎表面的数字图像以便检测异常的方法
CN113807324A (zh) 一种声呐图像识别方法、装置、电子设备和储存介质
CN116703895B (zh) 基于生成对抗网络的小样本3d视觉检测方法及其系统
CN112305493B (zh) 一种基于光信标检测的深海视觉测距方法
CN117058236A (zh) 一种基于多目视觉系统自切换的目标识别定位方法
Liang et al. MVCNN: A Deep Learning-Based Ocean–Land Waveform Classification Network for Single-Wavelength LiDAR Bathymetry
CN111105390A (zh) 一种改进的海天线检测和评估方法
Quintana et al. Towards automatic recognition of mining targets using an autonomous robot
JP2020173160A (ja) 津波高及び津波到達時間予測システム
CN115507752A (zh) 基于平行环境元素的单目视觉测距方法和系统
CN115240058A (zh) 一种联合图像精准分割和目标阴影信息的侧扫声呐目标检测方法
US20240153120A1 (en) Method to determine the depth from images by self-adaptive learning of a neural network and system thereof
KR101696088B1 (ko) 초음파 물체 인식 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant