CN113109762B - 一种用于auv对接回收的光视觉引导方法 - Google Patents
一种用于auv对接回收的光视觉引导方法 Download PDFInfo
- Publication number
- CN113109762B CN113109762B CN202110370348.XA CN202110370348A CN113109762B CN 113109762 B CN113109762 B CN 113109762B CN 202110370348 A CN202110370348 A CN 202110370348A CN 113109762 B CN113109762 B CN 113109762B
- Authority
- CN
- China
- Prior art keywords
- light source
- image
- light sources
- ellipse
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63C—LAUNCHING, HAULING-OUT, OR DRY-DOCKING OF VESSELS; LIFE-SAVING IN WATER; EQUIPMENT FOR DWELLING OR WORKING UNDER WATER; MEANS FOR SALVAGING OR SEARCHING FOR UNDERWATER OBJECTS
- B63C11/00—Equipment for dwelling or working underwater; Means for searching for underwater objects
- B63C11/52—Tools specially adapted for working underwater, not otherwise provided for
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Mechanical Engineering (AREA)
- Ocean & Marine Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明属于水下航行器的对接回收技术领域,具体涉及一种用于AUV对接回收的光视觉引导方法。本发明的步骤包括光源识别、光源匹配和立体测距,光源识别是通过自适应识别算法和伪光源判别算法,识别图像中正确的光源成像;光源匹配是将立体图像的左右图像中识别到的光源,通过定义的光源特征进行配对,并利用极线搜索算法保证配对准确性;立体测距是采用三角测量方法计算已配准光源的三维坐标,并通过最小二乘法优化光源位置。本发明可靠性好、精度高,在有干扰的水下环境中能准确识别出基站光源,并得到精确的基站位置。
Description
技术领域
本发明属于水下航行器的对接回收技术领域,具体涉及一种用于AUV对接回收的光视觉引导方法。
背景技术
AUV在水下执行特定任务时,为保证工作效率,需要在水下完成与基站的自主对接,实现给AUV电源充电、下载数据、并上传新的任务计划,从而执行下一个任务。与水面母船回收相比,水下对接回收具有隐蔽性好、自主化程度高、不间断作业等优点。作为AUV对接回收的关键技术之一,水下引导技术可以分为声学引导、电磁引导和光视觉引导。声学引导通常利用超短基线定位,为AUV提供水下基站的大致位置,精确度不高,通常用于对接的远距离阶段。电磁引导在近距离阶段可以得到基站的准确位置,但需要在水下提前布置较大功率的无线电传感器阵列,以克服水对电磁波的衰减,并且不适合基站移动的AUV动态对接。光视觉引导技术,即一种利用AUV自身携带的视觉传感器,主动识别基站的光源,通过一定的方法得到基站位置的技术,因其成本较低、灵活度好、可靠度高等特点,非常适合用于AUV水下对接的近距离引导.
本发明涉及的水下光视觉引导方法,该方法首先利用光源识别模块提取图像中正确的光源位置,接着通过光源匹配模块将立体图像中的光源进行准确的配对,最后经过立体测距模块得到精确的基站位置。
公开日为2015年07月08日、公开号为CN104766312A、发明名称为“一种基于双目光视觉引导的智能水下机器人自主对接方法”的专利申请,该方法的光视觉引导部分虽然与本发明实现相同的目的,但具体在光源识别、光源匹配和计算光源位置部分采用的方法,与发明完全不同。
公开日为2020年09月29日、公开号为CN111721259A、发明名称为“基于双目视觉的水下机器人回收定位方法”的专利申请,该方法实现的是单光源的引导方法,并且没有伪光源剔除的部分。本发明能够实现在复杂干扰环境下的多光源基站定位。
发明内容
本发明的目的在于提供可靠性好、精度高,在有干扰的水下环境中能准确识别出基站光源,并得到精确的基站位置的一种用于AUV对接回收的光视觉引导方法。
本发明的目的通过如下技术方案来实现,包括以下步骤:
步骤1:当AUV进行近距离对接时,利用搭载的立体相机,采集水下基站光源阵列的左右图像对;
所述的水下基站包括锥形导向罩和回收管,回收管与锥形导向罩半径较小的一端连接;所述的光源阵列由四个LED波长为540nm的黄绿光源组成,四个LED光源分别布置在锥形导向罩半径较大一端的上、下、左、右边缘处,整体构成正方形灯阵;
步骤2:对采集到的左右图像对分别进行自适应二值化和伪光源剔除,获取所有光源在图像中的位置,得到左图像的光源集合{Sli}和右图像的光源集合{Sri};
步骤3:对左图像的光源集合{Sli}和右图像的光源集合{Sri}分别进行光源特征提取,对比左右图像中光源特征一致性进行配对,并通过极线搜索判断是否正确匹配:
步骤3.1:计算左图像的光源集合{Sli}和右图像的光源集合{Sri}中每个光源的灰度方向特征θc;
θc=arctan(m01/m10)
其中,(x,y)表示光源成像的像素区域Opatch中像素的位置,I(x,y)表示该像素的灰度值;
步骤3.2:计算左图像的光源集合{Sli}和右图像的光源集合{Sri}中每个光源的椭圆拟合主方向特征θq;
对于光源的轮廓,利用直接最小二乘的椭圆拟合算法,得到光源轮廓近似椭圆的参数;已知平面椭圆的一般方程:
ax2+bxy+cy2+dx+ey+f=0
令A=[a,b,c,d,e,f]T,X=[x2,xy,y2,x,y,1]T,将方程写成矩阵形式ATX=0;已知一个椭圆方程有6个自由度,需要至少6个已知点来唯一确定一个椭圆,因此拟合椭圆的最优化问题表示为:
其中,D表示数据样本集合,维数为n×6;n表示样本数,即每个光源轮廓边缘像素点的个数;通过求解上式最小二乘问题,即可得到拟合椭圆的参数A=[a,b,c,d,e,f]T;
步骤3.3:从左图像的光源集合{Sli}中选择一个光源,依次计算其与右图像的光源集合{Sri}中四个光源的特征相似度ρ,选择对应相似度ρ最大的光源匹配在一起;若左图像的某一光源与右图像中四个光源的特征相似度ρ均小于设定的阈值,则该光源匹配失败,执行步骤3.4;重复步骤3.3,直至完成四对光源的配对;
其中,θcl表示左图像中某一光源的灰度方向特征;θcr表示右图像中某一光源的灰度方向特征;θql表示左图像中某一光源的椭圆拟合主方向特征;θqr表示右图像中某一光源的椭圆拟合主方向特征;
步骤3.4:对于匹配失败的左图像中某一光源,选取该光源中心P在左相机坐标系下的归一化点P′(x′,y′,1)和较远处任意给定深度值的点P″(x″,y″,z″),通过双目相机的转移矩阵T=[R|t]和右相机内参K2,得到右相机像素平面下的成像点,从而唯一确定极线l2;选择右图像中在极线l2上的光源,完成匹配;
步骤4:将每个光源的拟合椭圆的中心作为每个光源的像素中心;利用三角测量原理,计算出每个光源在左相机坐标系下的空间位置,将四个光源的平均数作为水下基站的空间位置(xo,yo,zo)。
本发明还可以包括:
所述的步骤2中对采集到的左右图像对分别进行自适应二值化和伪光源剔除,获取所有光源在图像中的位置,得到左图像的光源集合{Sli}和右图像的光源集合{Sri}的方法具体为:
步骤2.1:对输入的彩色图像进行灰度化,灰度值范围为[0,255];
步骤2.2:对灰度图像进行二值化,设置初始阈值threadgray=250,对灰度值小于阈值的像素的二值取0,否则取1,得到二值图像;
步骤2.3:对二值图像利用最外层边界跟踪法,对图像中的白色区域进行最外层轮廓检测,找出轮廓边缘的像素点个数在[30,300]范围内的作为候选轮廓;判断候选轮廓个数Ns是否大于4;若候选轮廓个数Ns大于4,则输出最终二值化的图像,执行步骤2.4;否则,令threadgray=threadgray-5,返回步骤2.2;
步骤2.4:对所有候选轮廓几何中心像素点进行HSV彩色域校准,剔除候选轮廓型心像素点的图像通道值H和V不满足60<H<120和0.5<V<1范围内的无效候选轮廓;其中H表示色调;V表示颜色明亮的程度;
步骤2.5:对剩余候选轮廓进行每次选取四个候选轮廓的无次序不重复组合对每一个组合中的4个轮廓计算型心像素点之间的距离,若最大距离dmax与最小距离dmin的关系满足dmin<dmax<2dmin,则将该组四个候选轮廓存入光源集合{S}。
所述的步骤4中将每个光源的拟合椭圆的中心作为每个光源的像素中心;利用三角测量原理,计算出每个光源在左相机坐标系下的空间位置(xo,yo,zo)的方法具体为:
步骤4.1:确定双目相机的左右两个内参矩阵K1和K2,以及外参矩阵T=[R|t];获取左图像π1中的光源像素中心点p1(u1,v1)和右图像π2中的光源像素中心点p2(u2,v2);
其中,X1′=[x1/z1,y1/z1,1]T和X2′=[x2/z2,y2/z2,1]T为中心点p1和p2的归一化坐标,由下式得出:
其中,z1和z2分别为中心点p1和p2的深度;
步骤4.3:将z2和X2′代入公式z1X1′=z2RX2′+t,求出z1,进而得到左相机坐标系下的中心点的真实位置X1=[x1,y1,z1]T,即光源在左相机坐标系下的真实位置(xw,yw,zw);
步骤4.4:计算四个光源在左相机坐标系下的真实位置的平均数,输出水下基站的空间位置(xo,yo,zo)。
本发明的有益效果在于:
本发明是一种用于AUV对接回收的光视觉引导方法,步骤包括光源识别、光源匹配和立体测距。本发明中光源识别是通过自适应识别算法和伪光源判别算法,识别图像中正确的光源成像;光源匹配是将立体图像的左右图像中识别到的光源,通过定义的光源特征进行配对,并利用极线搜索算法保证配对准确性;立体测距是采用三角测量方法计算已配准光源的三维坐标,并通过最小二乘法优化光源位置。本发明可靠性好、精度高,在有干扰的水下环境中能准确识别出基站光源,并得到精确的基站位置。
附图说明
图1是本发明的系统流程图。
图2是本发明中水下基站及其光源阵列的示意图。
图3是本发明中光源识别的流程图。
图4是本发明中光源匹配的流程图。
图5是本发明中立体测距的流程图。
具体实施方式
下面结合附图对本发明做进一步描述。
本发明涉及水下航行器(Autonomous Underwater Vehicle,AUV)的对接回收技术领域,是一种用于AUV对接回收的光视觉引导方法,包括光源识别、光源匹配和立体测距。光源识别通过自适应识别算法和伪光源判别算法,识别图像中正确的光源成像。光源匹配指将立体图像的左右图像中识别到的光源,通过定义的光源特征进行配对,并利用极线搜索算法保证配对准确性。立体测距采用三角测量方法计算已配准光源的三维坐标,并通过最小二乘法优化光源位置。本发明提出了一种可靠性好、精度高的水下光视觉引导方法,保证在有干扰的水下环境中准确识别出基站光源,并得到精确的基站位置。
本发明包括以下步骤:
步骤(1):输入左右图像对:当AUV进行近距离对接时,利用搭载的立体相机,采集基站光源阵列的图像对,并不断地输入到光视觉引导程序中,进入步骤(2);
步骤(2):光源识别:对左右图像分别进行自适应二值化和伪光源剔除,得到所有光源在图像中的位置,具体步骤如下:
步骤(2.1):对输入的彩色图像进行灰度化,灰度值范围为[0,255],进入步骤(2.2);
步骤(2.2):对灰度图像进行二值化,设置初始阈值threadgray=250,对灰度值小于阈值的像素的二值取0,否则取1,得到二值图像,计入步骤(2.3);
步骤(2.3):对二值图像利用最外层边界跟踪法,对图像中的白色区域进行最外层轮廓检测,找出轮廓边缘的像素点个数在[30,300]范围内的作为候选轮廓,判断候选轮廓个数Ns是否大于4,若不满足条件进入步骤(2.4),否则进入步骤(2.5);
步骤(2.4):将当前阈值减小一定步长threadgray=threadgray-5,返回步骤(2.2);
步骤(2.5):得到最终二值化的图像,进入步骤(2.6)。
步骤(2.6):对所有候选轮廓几何中心像素点进行HSV彩色域校准。本发明选择的是波长为540nm的黄绿光源,因此判断候选轮廓型心像素点的图像通道值H和V是否在60<H<120和0.5<V<1的范围内,若不满足则剔除无效候选轮廓。进入步骤(2.7);
步骤(2.7):几何距离判别:本发明采用4个黄绿光源组成正方形灯阵,因此对剩余候选轮廓进行每次选取四个轮廓的无次序不重复组合对每一个组合中的4个轮廓计算型心像素点之间的距离,可以得到6个距离,若最大距离dmax与最小距离dmin的关系满足dmin<dmax<2dmin,则进入步骤(2.8),否则直到找出为止;
步骤(2.8):最终得到4个光源成像轮廓集合{S}。
步骤(3):光源匹配:通过步骤(2)得到左右图像的光源集合{Sli}和{Sri}后,对其分别进行光源特征提取,之后对比左右图像中光源特征一致性进行配对,并通过极线搜索判断是否正确匹配。具体步骤如下:
步骤(3.1):提取灰度质心方向:对每个光源成像的像素区域Opatch中,计算图像区域的矩:
式中,(x,y)表示图像区域任意像素的位置,I(x,y)表示该像素的灰度值,因此可以得到该像素区域的质心:
连接图像区域的几何中心O和质心C,得到一个方向向量OC,则光源的灰度特征方向可以定义为:
θc=arctan(m01/m10)
步骤(3.2):提取拟合椭圆主方向:检测到光源标识轮廓后,利用直接最小二乘的椭圆拟合算法,得到光源轮廓近似椭圆的参数。已知平面椭圆的一般方程:
ax2+bxy+cy2+dx+ey+f=0
令A=[a,b,c,d,e,f]T,X=[x2,xy,y2,x,y,1]T,则将方程写成矩阵形式ATX=0。已知一个椭圆方程有6个自由度,需要至少6个已知点来唯一确定一个椭圆,因此拟合椭圆的最优化问题可表示为:
其中D表示数据样本集合,维数为n×6,n表示样本数,即每个光源轮廓边缘像素点的个数。通过求解上式最小二乘问题,即可得到拟合椭圆的参数A。已知椭圆的主方向θq与椭圆方程参数A,满足如下公式:
求解上式,即可得到椭圆的主方向θq,作为光源的另一个特征。
步骤(3.3):特征匹配:将左右图像中的光源集合方向特征进行比较,用特征的欧氏距离定义光源相似度
式中,(θcl,θql)表示左图像中的某一光源特征,(θcr,θqr)表示右图像中的某一光源特征。选择左图中的某一光源,依次计算与右图4个光源的特征相似度,选出相似度最大的左右两个光源作为一对。若左图某一光源,与右图像中的4个光源计算的特征相似度均小于一定的阈值,据经验取1,则表示该光源匹配失败,还需要进入步骤(3.4)。
步骤(3.4):极线判别:π1和π2分别表示左右相机的成像平面,光源中心P在左图像上的成像点为p1,根据针孔相机模型,当光源中心深度P未知时,其在右图像上的成像点应该在极线l2上。因此,选取中心深度P在左相机坐标系下的归一化点P′(x′,y′,1)和较远处任意给定深度值的点P″(x″,y″,z″),通过双目相机的转移矩阵T=[R|t]和右相机内参K2,即可得到右相机像素平面下的成像点,从而唯一确定极线l2。步骤(3.3)某个光源匹配失败后,判断右图像上的光源成像点是否在极线l2上,即可完成匹配。
步骤(4):立体测距:将步骤(3)光源拟合椭圆的中心,作为每个光源的像素中心,并利用三角测量原理,计算出每个光源在左相机坐标系下的空间位置,最终求取4个光源的平均数,作为水下基站的空间位置,具体步骤如下:
步骤(4.1):通过相机标定算法一旦确定双目相机的左右两个内参矩阵K1和K2,以及外参矩阵T=[R|t],即可通过三角测量计算每个匹配好的光源中心点对在相机坐标系下的三维位置。考虑左右图像π1和π2,以左图建立坐标系原点,则右图的变换矩阵为T=[R|t]。相机光心为O1和O2。在π1中检测到光源像素中心点p1(u1,v1),对应π2中的光源像素中心点p2(u2,v2)。理论上直线O1p1与O2p2在场景中会相交于一点P,该点即两个光源像素中心点对应的光源标识在三维场景中的位置。然而由于噪声和检测精度的影响,两条直线往往无法相交。因此,可以通过最小二乘法求解。根据相机位姿变换关系可得:
z1X1′=z2RX2′+t
其中,X1′=[x1/z1,y1/z1,1]T和X2′=[x2/z2,y2/z2,1]T为中心点p1和p2的归一化坐标,可由下式得出:
该式左侧为零,右侧可看成关于z2的方程。由于噪声和误差的存在,不能直接求解出深度,因此需要构建一个最小二乘求解:
通过求解上式最小二乘问题,即可得到z2的值,即得出右相机坐标系下中心点的真实位置X2=[x2,y2,z2]T,再将z2和X2′代入公式z1X1′=z2RX2′+t,即可求出z1,最终得到左相机坐标系下的中心点的真实位置X1=[x1,y1,z1]T,即光源在左相机坐标系下的真实位置(xw,yw,zw),进入步骤(4.2)。
步骤(4.2):对求得的每个光源位置(xw,yw,zw),计算平均数,即可得到基站的最终位置(xo,yo,zo)。
步骤(5):输出基站的三维位置(xo,yo,zo),结束。
实施例1:
图1表述了本发明的系统流程,具体实现步骤如下:
步骤(1):输入左右图像对:当AUV进行近距离对接时,利用搭载的立体相机,采集基站光源阵列的图像对,并不断地输入到光视觉引导程序中,进入步骤(2);
步骤(2):光源识别:对左右图像分别进行自适应二值化和伪光源剔除,得到所有光源在图像中的位置,进入步骤(3);
步骤(3):光源匹配:通过步骤(2)得到左右图像的光源集合{Sli}和{Sri}后,对其分别进行光源特征提取,之后对比左右图像中光源特征一致性进行配对,并通过极线搜索判断是否正确匹配,进入步骤(4);
步骤(4):立体测距:将步骤(3)光源拟合椭圆的中心,作为每个光源的像素中心,并利用三角测量原理,计算出每个光源在左相机坐标系下的空间位置,最终求取4个光源的平均数,作为水下基站的空间位置,进入步骤(5);
步骤(5):输出基站的三维位置(xo,yo,zo),结束。
图2是本发明基站光源阵列安装示意图,具体为:水下基站对接装置主要由锥形导向罩1和回收管3组成作为基站主体,并由支架2固定在水平底座4上,4个LED光源5固定在锥形导向罩1边缘,组成正方形灯阵。
图3是本发明光源识别算法的流程图,具体实现步骤如下:
步骤(1):对输入的彩色图像进行灰度化,灰度值范围为[0,255],进入步骤(2);
步骤(2):对灰度图像进行二值化,设置初始阈值threadgray=250,对灰度值小于阈值的像素的二值取0,否则取1,得到二值图像,计入步骤(3);
步骤(3):对二值图像利用最外层边界跟踪法,对图像中的白色区域进行最外层轮廓检测,找出轮廓边缘的像素点个数在[30,300]范围内的作为候选轮廓,判断候选轮廓个数Ns是否大于4,若不满足条件进入步骤(4),否则进入步骤(5);
步骤(4):将当前阈值减小一定步长threadgray=threadgray-5,返回步骤(2);
步骤(5):得到最终二值化的图像,进入步骤(6)。
步骤(6):对所有候选轮廓几何中心像素点进行HSV彩色域校准。本发明选择的是波长为540nm的黄绿光源,因此判断候选轮廓型心像素点的图像通道值H和V是否在60<H<120和0.5<V<1的范围内,若不满足则剔除无效候选轮廓。进入步骤(7);
步骤(7):几何距离判别:本发明采用4个黄绿光源组成正方形灯阵,因此对剩余候选轮廓进行每次选取四个轮廓的无次序不重复组合对每一个组合中的4个轮廓计算型心像素点之间的距离,可以得到6个距离,若最大距离dmax与最小距离dmin的关系满足dmin<dmax<2dmin,则进入步骤(8),否则直到找出为止;
步骤(8):最终得到4个光源成像轮廓集合{S}。
图4是本发明光源匹配算法的流程图,具体实现步骤如下:
步骤(1):提取灰度质心方向:对每个光源成像的像素区域Opatch中,计算图像区域的矩:
式中,(x,y)表示图像区域任意像素的位置,I(x,y)表示该像素的灰度值,因此可以得到该像素区域的质心:
连接图像区域的几何中心O和质心C,得到一个方向向量OC,则光源的灰度特征方向可以定义为:
θc=arctan(m01/m10)
步骤(2):提取拟合椭圆主方向:检测到光源标识轮廓后,利用直接最小二乘的椭圆拟合算法,得到光源轮廓近似椭圆的参数。已知平面椭圆的一般方程:
ax2+bxy+cy2+dx+ey+f=0
令A=[a,b,c,d,e,f]T,X=[x2,xy,y2,x,y,1]T,则将方程写成矩阵形式ATX=0。已知一个椭圆方程有6个自由度,需要至少6个已知点来唯一确定一个椭圆,因此拟合椭圆的最优化问题可表示为:
其中D表示数据样本集合,维数为n×6,n表示样本数,即每个光源轮廓边缘像素点的个数。通过求解上式最小二乘问题,即可得到拟合椭圆的参数。已知椭圆的主方向θq与椭圆方程参数A,满足如下公式:
求解上式,即可得到椭圆的主方向θq,作为光源的另一个特征。
步骤(3):特征匹配:将左右图像中的光源集合方向特征进行比较,用特征的欧氏距离定义光源相似度
式中,(θcl,θql)表示左图像中的某一光源特征,(θcr,θqr)表示右图像中的某一光源特征。选择左图中的某一光源,依次计算与右图4个光源的特征相似度,选出相似度最大的左右两个光源作为一对。若左图某一光源,与右图像中的4个光源计算的特征相似度均小于一定的阈值,据经验取1,则表示该光源匹配失败,还需要进入步骤(4)。
步骤(4):极线判别:π1和π2分别表示左右相机的成像平面,光源中心P在左图像上的成像点为p1,根据针孔相机模型,当光源中心深度P未知时,其在右图像上的成像点应该在极线l2上。因此,选取中心深度P在左相机坐标系下的归一化点P′(x′,y′,1)和较远处任意给定深度值的点P″(x″,y″,z″),通过双目相机的转移矩阵T=[R|t]和右相机内参K2,即可得到右相机像素平面下的成像点,从而唯一确定极线l2。步骤(3)某个光源匹配失败后,判断右图像上的光源成像点是否在极线l2上,即可完成匹配。
图5是本发明立体测距算法的流程图,具体实现步骤如下:
步骤(1):输入配准好的光源对,进入步骤(2);
步骤(2):通过相机标定算法一旦确定双目相机的左右两个内参矩阵K1和K2,以及外参矩阵T=[R|t],即可通过三角测量计算每个匹配好的光源中心点对在相机坐标系下的三维位置。考虑左右图像π1和π2,以左图建立坐标系原点,则右图的变换矩阵为T=[R|t]。相机光心为O1和O2。在π1中检测到光源像素中心点p1(u1,v1),对应π2中的光源像素中心点p2(u2,v2)。理论上直线O1p1与O2p2在场景中会相交于一点P,该点即两个光源像素中心点对应的光源标识在三维场景中的位置。然而由于噪声和检测精度的影响,两条直线往往无法相交。因此,可以通过最小二乘法求解。根据相机位姿变换关系可得:
z1X1′=z2RX2′+t
其中,X1′=[x1/z1,y1/z1,1]T和X2′=[x2/z2,y2/z2,1]T为中心点p1和p2的归一化坐标,可由下式得出:
该式左侧为零,右侧可看成关于z2的方程。由于噪声和误差的存在,不能直接求解出深度,因此需要构建一个最小二乘求解:
通过求解上式最小二乘问题,即可得到z2的值,即得出右相机坐标系下中心点的真实位置X2=[x2,y2,z2]T,再将z2和X2′代入公式z1X1′=z2RX2′+t,即可求出z1,最终得到左相机坐标系下的中心点的真实位置X1=[x1,y1,z1]T,即光源在左相机坐标系下的真实位置(xw,yw,zw),进入步骤(3);
步骤(3):对求得的每个光源位置(xw,yw,zw),计算平均数,即可得到基站的最终位置(xo,yo,zo),进入步骤(4);
步骤(4):输出基站的三维位置(xo,yo,zo),结束。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种用于AUV对接回收的光视觉引导方法,其特征在于,包括以下步骤:
步骤1:当AUV进行近距离对接时,利用搭载的立体相机,采集水下基站光源阵列的左右图像对;
所述的水下基站包括锥形导向罩和回收管,回收管与锥形导向罩半径较小的一端连接;所述的光源阵列由四个LED波长为540nm的黄绿光源组成,四个LED光源分别布置在锥形导向罩半径较大一端的上、下、左、右边缘处,整体构成正方形灯阵;
步骤2:对采集到的左右图像对分别进行自适应二值化和伪光源剔除,获取所有光源在图像中的位置,得到左图像的光源集合{Sli}和右图像的光源集合{Sri};
步骤3:对左图像的光源集合{Sli}和右图像的光源集合{Sri}分别进行光源特征提取,对比左右图像中光源特征一致性进行配对,并通过极线搜索判断是否正确匹配:
步骤3.1:计算左图像的光源集合{Sli}和右图像的光源集合{Sri}中每个光源的灰度方向特征θc;
θc=arctan(m01/m10)
提取灰度质心方向:对每个光源成像的像素区域Opatch中,计算图像区域的矩:
其中,(x,y)表示光源成像的像素区域Opatch中像素的位置,I(x,y)表示该像素的灰度值;
步骤3.2:计算左图像的光源集合{Sli}和右图像的光源集合{Sri}中每个光源的椭圆拟合主方向特征θq;
对于光源的轮廓,利用直接最小二乘的椭圆拟合算法,得到光源轮廓近似椭圆的参数;已知平面椭圆的一般方程:
ax2+bxy+cy2+dx+ey+f=0
令A=[a,b,c,d,e,f]T,X=[x2,xy,y2,x,y,1]T,将方程写成矩阵形式ATX=0;已知一个椭圆方程有6个自由度,需要至少6个已知点来唯一确定一个椭圆,因此拟合椭圆的最优化问题表示为:
其中,D表示数据样本集合,维数为n×6;n表示样本数,即每个光源轮廓边缘像素点的个数;通过求解上式最小二乘问题,即可得到拟合椭圆的参数A=[a,b,c,d,e,f]T;
步骤3.3:从左图像的光源集合{Sli}中选择一个光源,依次计算其与右图像的光源集合{Sri}中四个光源的特征相似度ρ,选择对应相似度ρ最大的光源匹配在一起;若左图像的某一光源与右图像中四个光源的特征相似度ρ均小于设定的阈值,则该光源匹配失败,执行步骤3.4;重复步骤3.3,直至完成四对光源的配对;
其中,θcl表示左图像中某一光源的灰度方向特征;θcr表示右图像中某一光源的灰度方向特征;θql表示左图像中某一光源的椭圆拟合主方向特征;θqr表示右图像中某一光源的椭圆拟合主方向特征;
步骤3.4:对于匹配失败的左图像中某一光源,选取该光源中心P在左相机坐标系下的归一化点P′(x′,y′,1)和较远处任意给定深度值的点P″(x″,y″,z″),通过双目相机的转移矩阵T=[R|t]和右相机内参K2,得到右相机像素平面下的成像点,从而唯一确定极线l2;选择右图像中在极线l2上的光源,完成匹配;
步骤4:将每个光源的拟合椭圆的中心作为每个光源的像素中心;利用三角测量原理,计算出每个光源在左相机坐标系下的空间位置,将四个光源的平均数作为水下基站的空间位置(xo,yo,zo)。
2.根据权利要求1所述的一种用于AUV对接回收的光视觉引导方法,其特征在于:所述的步骤2中对采集到的左右图像对分别进行自适应二值化和伪光源剔除,获取所有光源在图像中的位置,得到左图像的光源集合{Sli}和右图像的光源集合{Sri}的方法具体为:
步骤2.1:对输入的彩色图像进行灰度化,灰度值范围为[0,255];
步骤2.2:对灰度图像进行二值化,设置初始阈值threadgray=250,对灰度值小于阈值的像素的二值取0,否则取1,得到二值图像;
步骤2.3:对二值图像利用最外层边界跟踪法,对图像中的白色区域进行最外层轮廓检测,找出轮廓边缘的像素点个数在[30,300]范围内的作为候选轮廓;判断候选轮廓个数Ns是否大于4;若候选轮廓个数Ns大于4,则输出最终二值化的图像,执行步骤2.4;否则,令threadgray=threadgray-5,返回步骤2.2;
步骤2.4:对所有候选轮廓几何中心像素点进行HSV彩色域校准,剔除候选轮廓型心像素点的图像通道值H和V不满足60<H<120和0.5<V<1范围内的无效候选轮廓;其中H表示色调;V表示颜色明亮的程度;
3.根据权利要求1或2所述的一种用于AUV对接回收的光视觉引导方法,其特征在于:所述的步骤4中将每个光源的拟合椭圆的中心作为每个光源的像素中心;利用三角测量原理,计算出每个光源在左相机坐标系下的空间位置(xo,yo,zo)的方法具体为:
步骤4.1:确定双目相机的左右两个内参矩阵K1和K2,以及外参矩阵T=[R|t];获取左图像π1中的光源像素中心点p1(u1,v1)和右图像π2中的光源像素中心点p2(u2,v2);
其中,X1′=[x1/z1,y1/z1,1]T和X2′=[x2/z2,y2/z2,1]T为中心点p1和p2的归一化坐标,由下式得出:
其中,z1和z2分别为中心点p1和p2的深度;
步骤4.3:将z2和X2′代入公式z1X1′=z2RX2′+t,求出z1,进而得到左相机坐标系下的中心点的真实位置X1=[x1,y1,z1]T,即光源在左相机坐标系下的真实位置(xw,yw,zw);
步骤4.4:计算四个光源在左相机坐标系下的真实位置的平均数,输出水下基站的空间位置(xo,yo,zo)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110370348.XA CN113109762B (zh) | 2021-04-07 | 2021-04-07 | 一种用于auv对接回收的光视觉引导方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110370348.XA CN113109762B (zh) | 2021-04-07 | 2021-04-07 | 一种用于auv对接回收的光视觉引导方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113109762A CN113109762A (zh) | 2021-07-13 |
CN113109762B true CN113109762B (zh) | 2022-08-02 |
Family
ID=76714366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110370348.XA Active CN113109762B (zh) | 2021-04-07 | 2021-04-07 | 一种用于auv对接回收的光视觉引导方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113109762B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592958A (zh) * | 2021-08-13 | 2021-11-02 | 大连海事大学 | 一种基于单目视觉的auv对接坞站光学引导方法 |
CN117422767A (zh) * | 2023-10-30 | 2024-01-19 | 浙江大学 | 一种auv对接过程的引导灯鲁棒识别与定位优化方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009046519A1 (fr) * | 2007-10-11 | 2009-04-16 | Hydro-Quebec | Système et méthode de cartographie tridimensionnelle d'une surface structurelle |
CN104766312A (zh) * | 2015-03-27 | 2015-07-08 | 哈尔滨工程大学 | 一种基于双目光视觉引导的智能水下机器人自主对接方法 |
JP5777188B1 (ja) * | 2014-11-07 | 2015-09-09 | 国立大学法人 岡山大学 | 水中航走体制御システム |
KR20150145787A (ko) * | 2014-06-19 | 2015-12-31 | 포항공과대학교 산학협력단 | 수중 에이전트 도킹 시스템 및 이를 이용한 도킹방법 |
CN108492323A (zh) * | 2018-01-18 | 2018-09-04 | 天津大学 | 融合机器视觉与听觉的水下运动物体检测与识别方法 |
CN110223355A (zh) * | 2019-05-15 | 2019-09-10 | 大连理工大学 | 一种基于双重极线约束的特征标志点匹配方法 |
CN111498070A (zh) * | 2020-05-08 | 2020-08-07 | 中国科学院半导体研究所 | 水下矢量光视觉导引方法及装置 |
CN111721259A (zh) * | 2020-06-24 | 2020-09-29 | 江苏科技大学 | 基于双目视觉的水下机器人回收定位方法 |
CN111784655A (zh) * | 2020-06-24 | 2020-10-16 | 江苏科技大学 | 一种水下机器人回收定位方法 |
CN112561996A (zh) * | 2020-12-08 | 2021-03-26 | 江苏科技大学 | 一种自主水下机器人回收对接中目标检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL2020405B1 (en) * | 2018-02-08 | 2019-08-19 | Fugro N V | Method of and apparatus for analyzing images |
-
2021
- 2021-04-07 CN CN202110370348.XA patent/CN113109762B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009046519A1 (fr) * | 2007-10-11 | 2009-04-16 | Hydro-Quebec | Système et méthode de cartographie tridimensionnelle d'une surface structurelle |
KR20150145787A (ko) * | 2014-06-19 | 2015-12-31 | 포항공과대학교 산학협력단 | 수중 에이전트 도킹 시스템 및 이를 이용한 도킹방법 |
JP5777188B1 (ja) * | 2014-11-07 | 2015-09-09 | 国立大学法人 岡山大学 | 水中航走体制御システム |
CN104766312A (zh) * | 2015-03-27 | 2015-07-08 | 哈尔滨工程大学 | 一种基于双目光视觉引导的智能水下机器人自主对接方法 |
CN108492323A (zh) * | 2018-01-18 | 2018-09-04 | 天津大学 | 融合机器视觉与听觉的水下运动物体检测与识别方法 |
CN110223355A (zh) * | 2019-05-15 | 2019-09-10 | 大连理工大学 | 一种基于双重极线约束的特征标志点匹配方法 |
CN111498070A (zh) * | 2020-05-08 | 2020-08-07 | 中国科学院半导体研究所 | 水下矢量光视觉导引方法及装置 |
CN111721259A (zh) * | 2020-06-24 | 2020-09-29 | 江苏科技大学 | 基于双目视觉的水下机器人回收定位方法 |
CN111784655A (zh) * | 2020-06-24 | 2020-10-16 | 江苏科技大学 | 一种水下机器人回收定位方法 |
CN112561996A (zh) * | 2020-12-08 | 2021-03-26 | 江苏科技大学 | 一种自主水下机器人回收对接中目标检测方法 |
Non-Patent Citations (3)
Title |
---|
Improvement on Vision Guidance in AUV Docking;Guanyu Wang;《OCEANS 2016 - Shanghai》;20160413;全文 * |
一种基于双目视觉的水下导引光源检测和测距方法;朱志鹏;《水下无人系统学报》;20210228;第29卷(第1期);全文 * |
智能无人水下航行器水下回收对接技术综述;孙叶义;《哈尔滨工程学报》;20190131;第40卷(第1期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113109762A (zh) | 2021-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106767399B (zh) | 基于双目立体视觉和点激光测距的物流货物体积的非接触测量方法 | |
CN101839692B (zh) | 单相机测量物体三维位置与姿态的方法 | |
CN111721259B (zh) | 基于双目视觉的水下机器人回收定位方法 | |
CN113109762B (zh) | 一种用于auv对接回收的光视觉引导方法 | |
CN104390591B (zh) | 大型曲面板测量中圆形标记物的精确定位方法 | |
CN112184765B (zh) | 一种用于水下航行器的自主跟踪方法 | |
EP2234064B1 (en) | Method for estimating 3D pose of specular objects | |
CN111784655B (zh) | 一种水下机器人回收定位方法 | |
CN114029946A (zh) | 一种基于3d光栅引导机器人定位抓取的方法、装置及设备 | |
CN107957246B (zh) | 基于双目视觉的传送带上物体几何尺寸测量方法 | |
CN113624225B (zh) | 一种用于发动机定位销安装的位姿解算方法 | |
CN110136211A (zh) | 一种基于主动双目视觉技术的工件定位方法及系统 | |
CN110675341B (zh) | 一种单目光视觉引导的水下机器人与海底平台对接方法 | |
CN108051007A (zh) | 基于超声波组网和立体视觉的agv导航定位方法 | |
CN108171753A (zh) | 基于形心特征点与邻域灰度互相关性的立体视觉定位方法 | |
CN117058236A (zh) | 一种基于多目视觉系统自切换的目标识别定位方法 | |
Li et al. | Vision-based target detection and positioning approach for underwater robots | |
CN110533650A (zh) | 一种基于视觉的auv水下管道检测跟踪方法 | |
CN112862862B (zh) | 基于人工智能视觉跟踪的飞机自主受油装置及应用方法 | |
CN112785647A (zh) | 一种三目立体图像检测方法和系统 | |
CN107330936B (zh) | 一种基于单目视觉的双圆形标志物定位方法及系统 | |
CN109815966A (zh) | 一种基于改进sift算法的移动机器人视觉里程计实现方法 | |
CN115131433B (zh) | 一种非合作目标位姿的处理方法、装置及电子设备 | |
Zhang et al. | Visual location method based on asymmetric guiding light array in UUV recovery progress | |
Li et al. | Monocular vision and calculation of regular three-dimensional target pose based on Otsu and Haar-feature AdaBoost classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |