CN113592958A - 一种基于单目视觉的auv对接坞站光学引导方法 - Google Patents
一种基于单目视觉的auv对接坞站光学引导方法 Download PDFInfo
- Publication number
- CN113592958A CN113592958A CN202110931538.4A CN202110931538A CN113592958A CN 113592958 A CN113592958 A CN 113592958A CN 202110931538 A CN202110931538 A CN 202110931538A CN 113592958 A CN113592958 A CN 113592958A
- Authority
- CN
- China
- Prior art keywords
- light source
- camera
- coordinate
- pixel
- underwater
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000003032 molecular docking Methods 0.000 title claims abstract description 21
- 230000003287 optical effect Effects 0.000 title claims abstract description 20
- 230000011218 segmentation Effects 0.000 claims abstract description 15
- 238000003384 imaging method Methods 0.000 claims abstract description 14
- 238000012937 correction Methods 0.000 claims abstract description 8
- 238000013507 mapping Methods 0.000 claims abstract description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 25
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000013519 translation Methods 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000000354 decomposition reaction Methods 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 239000007787 solid Substances 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 6
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 1
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
- G06F17/12—Simultaneous equations, e.g. systems of linear equations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供一种基于单目视觉的AUV对接坞站光学引导方法,包括:设置引导光源;通过单目相机拍摄水下引导光源图像,其中所述单目相机通过采用改进的张正友标定法进行标定;获取相机水下非线性成像模型,并通过像素校正公式将引导光源图像映射到空气中,生成校正图像;基于改进的自适应OTSU算法对所述校正图像进行光源分割,基于像素加权质心的坐标计算获取光源中心坐标;基于光源中心坐标,采用三对已知坐标点进行P3P计算对相机的位姿进行解算,进而获得相机相对的位置信息。
Description
技术领域
本发明涉及坞站对接引导领域,具体而言,尤其涉及一种基于单目视觉的AUV对接坞站光学引导方法。
背景技术
自主式水下潜器(Autonomous Underwater Vehicle,简称AUV)。自主式水下机器人是新一代水下机器人,具有活动范围大、机动性好、安全、智能化等优点,成为完成各种水下任务的重要工具。AUV的准确回收是其能够推广使用的基础。
常用的坞站引导回收方式,光源排布方案多采用四个相同单色灯呈菱形或正方形组合排布方式,利用张正友标定法获取水下相机的内参和畸变参数。同时采用传统OTSU算法分割光源图像以获得全部目标光源。最后采用传统质心检测获取所有分割区域的质心作为目标光源的中心。
现有系统存在以下弊端:
现有水下引导光源的排布设计,未考虑光源排列的旋转不变性问题、深度分辨率问题以及相机定位盲区的问题。另外因水下相机外部有一个防水壳,引入了光线的折射,导致水下成像模型不再是线性模型,导致张正友标定法不能直接使用在水下相机的标定和校正中。同时,常用的水下光源检测方法为Hough圆形检测法,通过对光源圆心的查找以确定光源中心坐标,以此为特征坐标点解算AUV最终的位置信息,并且该检测法通常需要配合前期大量复杂的操作:自动曝光研究、图像改进滤波等,并且其算法本身需考虑边缘检测阈值、圆形半径范围、相对圆心距离,所以该算法计算量大、占用CPU处理周期长。最后在实际的水下环境中,导引光源直射状态下,光源图像存在光晕等影响,而非直射状态下,光晕影响尤其严重,使得传统质心算法误判光源中心,进而影响定位精度。
发明内容
鉴于现有技术的不足,本申请提供一种基于单目视觉的AUV对接坞站光学引导方法。对于AUV返回坞站开启视觉引导的对接过程中,提供一种基于可见光的对接引导方法,使对接流程更安全和准确。
本发明采用的技术手段如下:
一种基于单目视觉的AUV对接坞站光学引导方法,包括:
设置引导光源,所述引导光源包括顺时针设置在正方形顶点处的一号光源、二号光源、三号光源以及四号光源,其中一号光源为蓝色光源,二号光源、三号光源以及四号光源均为绿色光源;
通过单目相机拍摄水下引导光源图像,其中所述单目相机通过采用改进的张正友标定法进行标定;
获取相机水下非线性成像模型,并通过像素校正公式将引导光源图像映射到空气中,生成校正图像;
基于改进的自适应OTSU算法对所述校正图像进行光源分割,基于像素加权质心的坐标计算获取光源中心坐标;
基于光源中心坐标,采用三对已知坐标点进行P3P计算对相机的位姿进行解算,进而获得相机相对的位置信息,将所述相机的相对位置信息发送给AUV控制系统实现引导。
进一步地,获取相机水下非线性成像模型,采用改进的张正友标定法对模型进行标定,包括:
在实验水槽一侧布置相机,另一侧布置平面标定板,拍摄在空气中的平面标定板图片,拍摄过程中移动平面标定板,当最后一张平面标定板照片拍摄完后固定标定板位置不变;
使用张氏标定法对相机进行标定得到相机内参以及最后一张标定板姿态所对应的外参;
保持相机和标定板位置固定,向实验水槽中注水,注满水后拍摄一张水下标定板的照片;
将内外参数回带到水下非线性成像模型中,根据图像像素点与空间三维坐标点之间的对应关系求取相机中心距离折射平面的距离d。
进一步地,基于改进的自适应OTSU算法对所述校正图像进行光源分割,还包括对分割图像连通域数量进行判断,若连通域数量与引导光源数量不匹配则对灯光粘连区域进行分水岭分割。
进一步地,基于像素加权质心的坐标计算获取光源中心坐标,包括根据以下公式计算获取光源中心坐标:
进一步地,采用三对已知坐标点进行P3P计算对相机的位姿进行解算,包括:
通过余弦三角形法则构建相机光心与光源中心投影点连线形成的三个夹角的等式关系;
通过同除和替元操作将上述等式关系转换为一个二元二次方程组,通过吴消元法求解,获得立体几何之间的比值关系,进而用向量公式获得三个匹配的空间点在相机坐标系下的坐标;
通过上述求解的在相机坐标系下的空间坐标和已知的在世界坐标系下的坐标信息,采用SVD法获得两个坐标系的转换关系(R,T),进而获得相机相对的位置信息,其中,R是旋转矩阵,T是平移矩阵。
较现有技术相比,本发明具有以下优点:
1、本发明从经济和安全的角度入手水下引导光源的排布方案,给出了一种新颖实用的设计方案,使引导光源系统兼具长距离和短距离引导有效的特点。
2、本发明采用了改进的张正友标定来获取更准确的水下相机参数。
3、本发明提出了一种改进的自适应OTSU分割算法,计算速度快,实时响应高,光源分割更准确。
4、本发明改用满足条件的像素点的像素值与均值像素值在R通道的比值作为加权函数,减少光晕部分的噪声对质心检测的干扰,提高质心检测的精度。
本发明实时性好、复杂度低、可以实用,能够在AUV回收领域广泛推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于单目视觉的AUV对接坞站光学引导方法流程图。
图2为本发明水下折射成像示意图。
图3为本发明改进的自适应加权OTSU算法流程图。
图4为本发明P3P问题原理图。
图5为本发明光源排布示意图。
图6a为本发明实施例中光源图像经校正后灰度化图像。
图6b为本发明实施例中光源分割的结果示意图。
图6c为本发明实施例中光源分割的结果放大示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1所示,本发明提供了一种基于单目视觉的AUV对接坞站光学引导方法,包括:
S1、设置引导光源,所述引导光源包括顺时针设置在正方形顶点处的一号光源、二号光源、三号光源以及四号光源,其中一号光源为绿色光源,二号光源、三号光源以及四号光源均为蓝色光源。
作为本发明较佳的实施方式,确定引导光源的个数为4,起到了使P3P问题具有唯一解的作用,并且具有研究价值。使用一个550nm的绿色光源和三个460nm的蓝色光源使得可见光在水下传播的距离达到最远,为克服引导光源构成的四边形的旋转不变性问题,将蓝色光源设计为No.1号光源,绿色光源布置为No.2,No.3和No.4号光源,按照顺时针顺序排列,光源排布如图5所示。本发明通过深度分辨率和定位盲区高度公式的约束,得到在满足视野内均匀分布的情况下,让4灯排布成正方形使引导光源系统兼具长距离和短距离引导有效的特点。
S2、通过单目相机拍摄水下引导光源图像,其中所述单目相机通过采用改进的张正友标定法进行标定。获取相机水下非线性成像模型,并通过像素校正公式将引导光源图像映射到空气中,生成校正图像。
具体来说,由图2所示的水下折射成像示意图推导出水下非线性成像模型为:
其中,(u,v)是像素坐标,(u0,v0)是光心的像素坐标,dx、dy是像元横、纵方向上的尺寸,nwater是水的折射率,(xu,yu)是成像点的二维物理坐标,f是相机焦距,d是光心到折射平面的距离,R是旋转矩阵,T是平移矩阵,(XW,YW,ZW)是光源中心在世界坐标系下的坐标。
根据该模型采用一种改进的张正友标定法:首先在实验水槽中还未注水前放置好相机,然后拍摄在空气中的平面标定板图片,当最后一张平面标定板照片拍摄完后固定标定板位置不变,然后使用张氏标定法对相机进行标定得到相机内参以及最后一张标定板姿态所对应的外参;其次往水槽中注水,注水的同时要保证相机和标定板位置固定好,注满水后拍摄一张水下标定板的照片;最后将内外参数回带到水下非线性成像模型中,根据图像像素点与空间三维坐标点之间的对应关系得到方程组,同样通过最小二乘法解方程组求取相机中心距离折射平面的距离d。之后采用像素校正公式将水下图像映射到空气中。像素校正公式为:
其中,ui、vi是校正前像素坐标,u0、v0是相机光心像素坐标,nwater是水的折射率,θwater是入射光线与法线的夹角,u、v是校正后的像素坐标。
S3、基于改进的自适应OTSU算法对所述校正图像进行光源分割,基于像素加权质心的坐标计算获取光源中心坐标。
如图3所示,本发明提出一种改进的自适应OTSU算法分割图像中全部光源,首先对输入的原图像进行灰度化,然后初始化参数k,令k=像素均值/像素最大值;其次进行阈值分割,对当前图像进行改进的OTSU计算得到阈值,分割出图像中满足像素值大于阈值的部分,将该部分的像素最小值与最大值的比值作为参数k的更新,重复阈值分割操作,不断更新参数k至其大于等于0.92;最后退出循环,对分割的区域像素值置“1”,其余像素值置“0”,得到二值化后的全部光源。
其改进OTSU的公式为:
σB 2=ω0 k(μ0-μT)2+ω1 2-k(μ1-μT)2,
其中,k为增加的权重系数,ω0和ω1表示像素在全局阈值下划分为前景和背景的概率,变量μ0和μ1表示前景区域和背景区域的平均灰度值,而μT是整个图像的平均灰度值。其自适应分割流程如图所示,最后对二值化的图像进行边缘平滑操作,采用5*5的中值滤波和结构元素为4的膨胀操作。
进一步地,判断连通域个数,若个数不等于4则对灯光粘连区域进行分水岭分割,将四个目标区域逐个进行像素加权质心的坐标计算,该算法公式如下:
式中:(xi,yi)是当前被测像素的坐标,I是Iij像素R通道上的均值,是当前R通道像素值,Wij是当前加权值,(xc,yc)是加权后计算出来的光源中心坐标。
S4、基于光源中心坐标,采用三对已知坐标点进行P3P计算对相机的位姿进行解算,进而获得相机相对的位置信息。
具体来说,最后进行相机的位姿解算,采用三对已知坐标点进行P3P计算,第四对坐标点求取最佳解的算法。由1号蓝色光源开始,顺时针选取1、2、3号光源中心坐标点进行P3P计算,4号光源中心坐标点求取最佳解的算法。
通过余弦三角形法则构建相机光心与光源中心投影点连线形成的三个夹角∠aob、∠boc和∠aoc(见图4)的等式关系,图中,A、B、C分别表示世界中1号、2号、3号光源的中心,a、b、c表示图像中光源的中心。其次通过同除和替元操作将上述等式关系转换为一个二元二次方程组,通过吴消元法求解x、y,获得立体几何之间的比值关系,进而用向量公式获得3个匹配的空间点在相机坐标系下的坐标,最后通过上述求解的在相机坐标系下的空间坐标和已知的在世界坐标系下的坐标信息,采用SVD法获得两个坐标系的转换关系(R,T),进而获得相机相对的位置信息,其中,R是旋转矩阵,T是平移矩阵。
实例:世界中光源坐标设置为:(-354,-354,0)、(354,-354,0)、(354,354,0)、(-354,354,0),分别对应1、2、3、4号光源。光源图像经校正后灰度化如图6a所示。经过改进的OTSU算法进行光源分割的结果如图6b所示。图6c是图6b放大的一部分,其中“×”表示经过基于像素加权质心算法得到的光源中心标记点,其坐标值为:(807,566)、(943,468)、(1081,611)、(924,699)2。
进行位姿解算。首先像素坐标根据相机内参,得到转换到归一化平面的坐标(-0.03518,-0.2113)、(03.0775,-0.2929)、(0.1926,-0.1739)、(0.0617、-0.1006);其次给定三个点之间的距离以及顶点的3个角度的余弦值计算连接投影中心O和三个4世界点(A,B,C)的线段的长度,由向量内积公式(公知)得到三个夹角∠aob、∠boc和∠aoc的余弦值,分别是0.9911、0.9874、0.9747,由空间三维距离公式(公知)得到AB、BC、AC的距离,分别是708、708、1001,通过同除和替元操作得到一个二元二次方程组:
其中u=AB2/OC2,v=BC2/OC2,w=AC2/AB2,x=OA/OC,y=OB/OC,通过吴消元法求解x、y,获得立体几何之间的比值关系,得到4个解;进而对全部解逐个使用向量公式获得3个匹配的空间点在相机坐标系下的坐标;最后采用SVD法获得4组两个坐标系的转换关系(R,T),其中,R是3×3旋转矩阵,T是3×1平移矩阵,这4组转换关系分别是:
最后,通过转换关系计算第4个点的重投影误差,选择误差最小的解作为真值,得到旋转矩阵和平移矩阵如下所示。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (5)
1.一种基于单目视觉的AUV对接坞站光学引导方法,其特征在于,包括:
设置引导光源,所述引导光源包括顺时针设置在正方形顶点处的一号光源、二号光源、三号光源以及四号光源,其中一号光源为蓝色光源,二号光源、三号光源以及四号光源均为绿色光源;
通过单目相机拍摄水下引导光源图像,其中所述单目相机通过采用改进的张正友标定法进行标定;
获取相机水下非线性成像模型,并通过像素校正公式将引导光源图像映射到空气中,生成校正图像;
基于改进的自适应OTSU算法对所述校正图像进行光源分割,基于像素加权质心的坐标计算获取光源中心坐标;
基于光源中心坐标,采用三对已知坐标点进行P3P计算对相机的位姿进行解算,进而获得相机相对的位置信息,将所述相机的相对位置信息发送给AUV控制系统实现引导。
2.根据权利要求1所述的基于单目视觉的AUV对接坞站光学引导方法,其特征在于,获取相机水下非线性成像模型,采用改进的张正友标定法对模型进行标定,包括:
在实验水槽一侧布置相机,另一侧布置平面标定板,拍摄在空气中的平面标定板图片,拍摄过程中移动平面标定板,当最后一张平面标定板照片拍摄完后固定标定板位置不变;
使用张氏标定法对相机进行标定得到相机内参以及最后一张标定板姿态所对应的外参;
保持相机和标定板位置固定,向实验水槽中注水,注满水后拍摄一张水下标定板的照片;
将内外参数回带到水下非线性成像模型中,根据图像像素点与空间三维坐标点之间的对应关系求取相机中心距离折射平面的距离d。
3.根据权利要求1所述的基于单目视觉的AUV对接坞站光学引导方法,其特征在于,基于改进的自适应OTSU算法对所述校正图像进行光源分割,还包括对分割图像连通域数量进行判断,若连通域数量与引导光源数量不匹配则对灯光粘连区域进行分水岭分割。
5.根据权利要求1所述的基于单目视觉的AUV对接坞站光学引导方法,其特征在于,采用三对已知坐标点进行P3P计算对相机的位姿进行解算,包括:
通过余弦三角形法则构建相机光心与光源中心投影点连线形成的三个夹角的等式关系;
通过同除和替元操作将上述等式关系转换为一个二元二次方程组,通过吴消元法求解,获得立体几何之间的比值关系,进而用向量公式获得三个匹配的空间点在相机坐标系下的坐标;
通过上述求解的在相机坐标系下的空间坐标和已知的在世界坐标系下的坐标信息,采用SVD法获得两个坐标系的转换关系(R,T),进而获得相机相对的位置信息,其中,R是旋转矩阵,T是平移矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110931538.4A CN113592958A (zh) | 2021-08-13 | 2021-08-13 | 一种基于单目视觉的auv对接坞站光学引导方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110931538.4A CN113592958A (zh) | 2021-08-13 | 2021-08-13 | 一种基于单目视觉的auv对接坞站光学引导方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113592958A true CN113592958A (zh) | 2021-11-02 |
Family
ID=78257817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110931538.4A Pending CN113592958A (zh) | 2021-08-13 | 2021-08-13 | 一种基于单目视觉的auv对接坞站光学引导方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113592958A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116619392A (zh) * | 2023-07-24 | 2023-08-22 | 常熟理工学院 | 机器人跨介质视觉的标定板、标定方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108362296A (zh) * | 2017-12-29 | 2018-08-03 | 浙江大学 | Auv与接驳站水下对接的末端视觉导引方法 |
US10380751B1 (en) * | 2017-12-12 | 2019-08-13 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Robot vision in autonomous underwater vehicles using the color shift in underwater imaging |
CN110672020A (zh) * | 2019-06-14 | 2020-01-10 | 浙江农林大学 | 一种基于单目视觉的立木高度测量方法 |
CN111784655A (zh) * | 2020-06-24 | 2020-10-16 | 江苏科技大学 | 一种水下机器人回收定位方法 |
JP2021034050A (ja) * | 2019-08-21 | 2021-03-01 | 哈爾浜工程大学 | 強化学習に基づくauv行動計画及び動作制御方法 |
CN112700501A (zh) * | 2020-12-12 | 2021-04-23 | 西北工业大学 | 一种水下单目亚像素相对位姿估计方法 |
CN113109762A (zh) * | 2021-04-07 | 2021-07-13 | 哈尔滨工程大学 | 一种用于auv对接回收的光视觉引导方法 |
-
2021
- 2021-08-13 CN CN202110931538.4A patent/CN113592958A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10380751B1 (en) * | 2017-12-12 | 2019-08-13 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Robot vision in autonomous underwater vehicles using the color shift in underwater imaging |
CN108362296A (zh) * | 2017-12-29 | 2018-08-03 | 浙江大学 | Auv与接驳站水下对接的末端视觉导引方法 |
CN110672020A (zh) * | 2019-06-14 | 2020-01-10 | 浙江农林大学 | 一种基于单目视觉的立木高度测量方法 |
JP2021034050A (ja) * | 2019-08-21 | 2021-03-01 | 哈爾浜工程大学 | 強化学習に基づくauv行動計画及び動作制御方法 |
CN111784655A (zh) * | 2020-06-24 | 2020-10-16 | 江苏科技大学 | 一种水下机器人回收定位方法 |
CN112700501A (zh) * | 2020-12-12 | 2021-04-23 | 西北工业大学 | 一种水下单目亚像素相对位姿估计方法 |
CN113109762A (zh) * | 2021-04-07 | 2021-07-13 | 哈尔滨工程大学 | 一种用于auv对接回收的光视觉引导方法 |
Non-Patent Citations (3)
Title |
---|
朱志鹏 等: "一种基于双目视觉的水下导引光源检测和测距方法", 《水下无人系统学报》, pages 65 - 73 * |
石建树: "基于视觉的AUV 回收末端定位方法研究", 《江苏科技大学硕士学位论文》, pages 58 - 70 * |
石建树: "基于视觉的AUV 回收末端定位方法研究", 江苏科技大学硕士学位论文 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116619392A (zh) * | 2023-07-24 | 2023-08-22 | 常熟理工学院 | 机器人跨介质视觉的标定板、标定方法及系统 |
CN116619392B (zh) * | 2023-07-24 | 2023-11-07 | 常熟理工学院 | 机器人跨介质视觉的标定板、标定方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110853075B (zh) | 一种基于稠密点云与合成视图的视觉跟踪定位方法 | |
CN107122705B (zh) | 基于三维人脸模型的人脸关键点检测方法 | |
CN111723691B (zh) | 一种三维人脸识别方法、装置、电子设备及存储介质 | |
CN113658337B (zh) | 一种基于车辙线的多模态里程计方法 | |
CN112929626B (zh) | 一种基于智能手机影像的三维信息提取方法 | |
CN111964680B (zh) | 一种巡检机器人的实时定位方法 | |
CN110619660A (zh) | 一种物体定位方法、装置、计算机可读存储介质及机器人 | |
CN113269689B (zh) | 一种基于法向量和高斯权重约束的深度图像补全方法及系统 | |
CN110084743B (zh) | 基于多航带起始航迹约束的图像拼接与定位方法 | |
CN113724379B (zh) | 融合图像与激光点云的三维重建方法及装置 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN113298947A (zh) | 一种基于多源数据融合的变电站三维建模方法介质及系统 | |
CN110276801B (zh) | 一种物体定位方法、装置及存储介质 | |
CN110176041B (zh) | 一种基于双目视觉算法的新型列车辅助装配方法 | |
CN113592958A (zh) | 一种基于单目视觉的auv对接坞站光学引导方法 | |
CN117058183A (zh) | 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质 | |
CN116630423A (zh) | 一种基于orb特征的微小型机器人多目标双目定位方法及系统 | |
CN109754435B (zh) | 一种基于小靶标模糊图像的摄像机在线标定方法 | |
CN110570473A (zh) | 一种基于点线融合的权重自适应位姿估计方法 | |
CN106651950B (zh) | 一种基于二次曲线透视投影不变性的单相机位姿估计方法 | |
CN115147576A (zh) | 一种基于关键特征的水下机器人对接单目视觉导引方法 | |
CN115131433A (zh) | 一种非合作目标位姿的处理方法、装置及电子设备 | |
KR20220144456A (ko) | Svm 원 영상을 기반으로 근접 주행 환경을 인식하는 방법 및 시스템 | |
CN113723432A (zh) | 一种基于深度学习的智能识别、定位追踪的方法及系统 | |
CN109919998B (zh) | 卫星姿态确定方法、装置和终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |