CN110260820B - 基于动态参考坐标系的水下双目立体视觉测量系统及方法 - Google Patents
基于动态参考坐标系的水下双目立体视觉测量系统及方法 Download PDFInfo
- Publication number
- CN110260820B CN110260820B CN201910353486.XA CN201910353486A CN110260820B CN 110260820 B CN110260820 B CN 110260820B CN 201910353486 A CN201910353486 A CN 201910353486A CN 110260820 B CN110260820 B CN 110260820B
- Authority
- CN
- China
- Prior art keywords
- target
- coordinate system
- point
- group
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
- G01C11/025—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提出了一种基于动态参考坐标系的水下双目立体视觉测量系统及方法。使用4个主动光标靶点建立动态参考坐标系,以消除振动带来的测量误差。使用基于光场模型的水下立体视觉重建方法计算标靶角点在扫描系统下的三维坐标,通过对标靶角点的坐标矩阵进行奇异值分解来建立编码点坐标系。用基于光场模型的水下激光条纹匹配和立体重建方法计算激光条纹在扫描系统坐标系下的空间三维点。通过计算每组图片激光条纹中心点在扫描系统下的三维坐标,并将其转换到第一组图片标靶点所在扫描系统坐标系下的方法消除振动带来的测量误差。水下标靶点采用耐高压封装,最深可承受深海4000米高压,因此该系统可用于深海4000米动态高精度测量场景。
Description
技术领域
本发明属于水下计算机视觉研究领域,涉及一种基于动态参考坐标系的水下双目立体视觉测量系统及方法,通过建立动态参考坐标系来消除系统振动带来的测量误差。
背景技术
立体视觉动态测量系统是三维坐标测量系统发展的一个重要方向,具有测量空间大、测量精度高、操作简单、测量柔性好等优点。它能够有效解决大型复杂零部件测量过程中所存在的零件体积大、不易搬运、隐蔽特征多以及多目标跟踪困难等问题。但尽管如此,目前所研究的双目立体动态测量系统由于受到位姿估计方法的健壮性不足以及测量现场产生持续性振动的影响,测量结果的精度难以得到保证,以至于很难真正被广泛应用到实际工业测量中。当测量系统用于水下时,由于激光扫描测量需要一定的时间,因此当物体随着洋流移动,或者潜器携带仪器发生漂移时,都会影响测量精度。
杨宇等人在其论文“水下环境的线结构光扫描和三维重建[J].光学学报,2012,32(s1).”中主要研究了一种基于线结构光扫描的三维物体探测和三维场景重建方法。该方法使用激光线光源扫描探测区域,用标定板进行定标,建立采样数据的二维像素坐标系与三维世界坐标系的映射关系,通过坐标系变换,将二维线结构光扫描数据转变为三维物体信息。实现了对目标物体的形状分辨。但该方法不适用于水下测量系统振动的情况。
中国专利CN200910307630提出了一种基于双目立体视觉测量系统的精确在线测量方法。该方法利用数值插值求得亚像素级的特征点,利用极线法获得另一幅图像中相匹配的亚像素级特征点然后进行三维重构。虽然该方法在一定程度上提高了测量速度和精度,但该方法精度依然不够高,达不到毫米级。
发明内容
本发明为解决测量现场持续性振动而导致测量精度低的问题,提出一种基于动态参考坐标系的水下双目立体视觉测量系统及方法。
为达到上述目的,本发明采用下述技术方案:
一种基于动态参考坐标系的水下双目立体视觉测量系统包括双目立体视觉测量系统和动态参考坐标系,其特征在于:所述双目立体视觉测量系统包括两个高速相机封装仓和一个激光扫描计算单元封装仓。所述两个高速相机封装仓对称安装于一个长方形铝型材框架的两端,激光扫描计算单元封装仓安装于长方形构架的中间;
所述激光扫描计算单元封装仓中有一个金属摆镜、一个激光器和一个计算单元,金属摆镜摆动时可使激光器发射的激光在相机视场内扫描;该封装仓除采用耐高压封装外,还在高速相机封装仓和激光扫描计算单元封装仓之间设有耐高压连接管;由于水下没有可以满足USB3.0传输速率的水密接插件,因此采用内部连线方式可保证传输速率,并且减少了连接件的数量,提高了系统稳定性;激光扫描计算单元封装仓的尾部有与外部连接的接插件,可外接电源和进行通讯控制;
所述动态参考坐标系包括4个主动光标靶和一个方形铝型材框架,方形铝型材框架用于固定主动光标靶和被测物体,并配有为主动光标靶供电装置,该主动光标靶具有易于识别、对应性好、精度高且体积小的特点,用于建立动态参考坐标系以消除振动带来的测量误差;主动光标靶采用耐高压封装,可用于深海4000米的高压环境。
一种基于动态参考坐标系的水下双目立体视觉测量方法利用上述原理实现基于动态参考坐标系的水下双目立体视觉测量系统进行测量,操作步骤如下:
步骤1:对物体和标靶进行激光扫描,获得一系列图片组:将要扫描的目标物体及主动光标靶点固定到铝型材框架上,使用中国专利CN201810584975.1中的三维重建装置进行激光扫描和图片拍摄,获得带有激光条纹和标靶点的图片组;
步骤2:对图片组中的标靶点进行角点检测并对标靶点进行排序;
步骤3:计算标靶点三维坐标,并建立编码点坐标系:使用中国专利CN201810584983.6中的基于光场模型的水下立体重建方法计算标靶角点在扫描系统下的三维坐标,通过对标靶角点的坐标矩阵进行奇异值分解来建立编码点坐标系;
步骤4:求解动态参考坐标系:由于标靶点和被测物一起固定在框架上,因此可将标靶点看成一个刚体结构,通过刚体变换求解动态参考坐标系;
步骤5:通过坐标转换获得每组图片对应的点云坐标:计算每组图片激光条纹中心在扫描系统下的三维坐标,并将其转换到第一组图片标靶点所在扫描系统坐标系下,获得点云坐标。
步骤2中标靶点检测和排序包括以下步骤:
步骤①设置阈值,对获得的图片组进行二值化处理;
步骤②对步骤①的二值图像进行形态学开运算,提取出标靶点特征;
步骤③通过设定标靶轮廓面积阈值、轮廓宽高比阈值、轮廓长度阈值对步骤②的特征进行筛选分类,以剔除非标靶点的亮斑,获得仅有标靶点亮斑的图像;
步骤④标靶点排序。根据四个标靶点的特征,通过平行四边形约束和最大面积法找到方形标靶作为参考点,按顺时针方向对其他三个标靶点进行排序,分别为1号标靶点,2号标靶点和3号标靶点,确定标靶点中心范围,即角点精确检测的区域范围;
步骤⑤通过Shi-Tomasi角点检测法在标靶点中心范围对原图片组进行角点检测,并根据所选参考点在原图像中的坐标修正角点,获得高精度的标靶点角点坐标,左图片三个角点像素坐标为(uL1,vL1),(uL2,vL2),(uL3,vL3),右图片三个角点像素坐标为(uR1,vR1),(uR2,vR2),(uR3,vR3)。
步骤3中计算标靶点在扫描系统下的三维坐标、建立编码点坐标系包括以下步骤:
步骤①根据步骤2中左右图片组对应角点,使用中国专利CN201810584983.6中的基于光场模型的水下立体重建方法计算标靶角点在扫描系统下的三维坐标,记第i个标靶点在扫描系统下的三维坐标为Pi=(xi yi zi)T;
步骤③对编码点的坐标矩阵M=[P1-Pc P2-Pc P3-Pc]进行奇异值分解,选择特征值最大值对应的特征向量所在方向为X轴,特征值次大值对应的特征向量所在方向为Y轴,Z轴由X轴和Y轴的叉乘来确定。至此完成编码点坐标系的建立。
步骤4中通过刚体变换求解动态参考坐标系包括以下步骤:
步骤③计算第一组图片和第i组图片编码点坐标系之间的相对位置Adelta_i。其中包括旋转变化量Rdelta_i和平移变化量Tdelta_i
步骤5中计算激光条纹中心点在第一组图片标靶点所在扫描系统坐标系下的三维坐标,包括以下步骤:
步骤①对获得的第i组图片组进行激光条纹中心提取;
步骤②用中国专利CN201810584983.6中的基于光场模型的水下激光条纹匹配和立体重建方法计算激光条纹在扫描系统坐标系下的空间三维点。空间三维点坐标记为
步骤③将第i组图片激光条纹中心在扫描系统坐标系下点云坐标pi,转换到第一组标靶点所在扫描系统坐标系下,获得点云坐标p1=Adelta_i*pi;
由于采用了上述解决方案,本发明具有如下优点:
1、在水下测量现场产生持续性振动的情况下,被扫描物体的测量精度仍然很高,点云拟合误差可在3mm以内。
2、采用水下光场多层折射模型进行重建,不存在系统偏差,重建精度高。
3、主动光靶标采用耐高压封装,可用于深海4000米的测量环境。
附图说明
图1为本发明扫描系统侧视图。
图2为本发明装置计算单元和激光扫描系统封装仓内部结构示意图。
图3为本发明动态参考坐标系的主动光标靶和被扫描球棒轴视图。
图4为本发明所获取的带有激光条纹和标靶点的一组图片。
图5为本发明获取三维点云流程图。
图6为本发明编码点检测流程图。
图7为本发明在水池中3m远扫描系统振动且未建立动态参考坐标系的点云效果图。
图8为本发明在水池中3m远扫描系统振动且未建立动态参考坐标系的球棒点云放大图。
图9为本发明在水池中3m远扫描系统振动但建立动态参考坐标系的点云效果图。
图10为本发明在水池中3m远扫描系统振动但建立动态参考坐标系的球棒放大效果图。
图11为本发明对图11中的球棒拟合的数据结果。
具体实施方式
下面结合附图对本发明的优选实施例做出详细说明。
实施例一:参见图1~图4,
本基于动态参考坐标系的水下双目立体视觉测量系统包括双目立体视觉测量系统和动态参考坐标系,其特征在于:所述双目立体视觉测量系统包括两个高速相机封装仓(1、2)和一个激光扫描计算单元封装仓(3)。所述两个高速相机封装仓(1、2)对称安装于一个长方形铝型材框架(11)的两端,激光扫描计算单元封装仓(3)安装于长方形构架的中间;
所述激光扫描计算单元封装仓中有一个金属摆镜(6)、一个激光器(5)和一个计算单元,金属摆镜(6)摆动时可使激光器(5)发射的激光在相机视场内扫描;该封装仓(3)除采用耐高压封装外,还在高速相机封装仓(1、2)和激光扫描计算单元封装仓(3)之间设有耐高压连接管(4);由于水下没有可以满足USB3.0传输速率的水密接插件,因此采用内部连线方式可保证传输速率,并且减少了连接件的数量,提高了系统稳定性;激光扫描计算单元封装仓(3)的尾部有与外部连接的接插件(9),可外接电源和进行通讯控制;
所述动态参考坐标系包括4个主动光标靶和一个方形铝型材框架,方形铝型材框架(12)用于固定主动光标靶(13)和被测物体(14),并配有为主动光标靶供电装置,该主动光标靶(13)具有易于识别、对应性好、精度高且体积小的特点,用于建立动态参考坐标系以消除振动带来的测量误差;主动光标靶(13)采用耐高压封装,可用于深海4000米的高压环境。
实施例二:参见图5~图11,
本基于动态参考坐标系的水下双目立体视觉测量方法,采用根据权利要求1所述的基于动态参考坐标系的水下双目立体视觉测量系统进行测量操作,具体操作步骤如下:
步骤1:对物体和标靶进行激光扫描,获得一系列图片组:将要扫描的目标物体及主动光标靶点固定到铝型材框架上,使用中国专利CN201810584975.1中的三维重建装置进行激光扫描和图片拍摄,获得带有激光条纹和标靶点的图片组;
步骤2:对图片组中的标靶点进行角点检测并对标靶点进行排序;
步骤3:计算标靶点三维坐标,并建立编码点坐标系:使用中国专利CN201810584983.6中的基于光场模型的水下立体重建方法计算标靶角点在扫描系统下的三维坐标,通过对标靶角点的坐标矩阵进行奇异值分解来建立编码点坐标系;
步骤4:求解动态参考坐标系:由于标靶点和被测物一起固定在框架上,因此可将标靶点看成一个刚体结构,通过刚体变换求解动态参考坐标系;
步骤5:通过坐标转换获得每组图片对应的点云坐标:计算每组图片激光条纹中心在扫描系统下的三维坐标,并将其转换到第一组图片标靶点所在扫描系统坐标系下,获得点云坐标。
实施例三:
基于动态参考坐标系的水下双目立体视觉测量系统和方法,其特征在于:本方法是建立动态参考坐标系以消除振动带来的测量误差,测量系统是两个高速相机封装仓(1和2)对称分布于整个装置的两端,激光扫描计算单元封装仓(3)位于装置中间。
激光扫描系统带一个金属摆镜(6),摆动时可使一字激光器(5)发射的激光在相机视场内扫描。封装仓除采用耐高压封装外,还在高速相机封装仓和激光扫描计算单元封装仓之间设计了耐高压连接管(4)。由于水下没有可以满足USB3.0传输速率的水密接插件,因此采用内部连线方式可保证传输速率,并且减少了连接件的数量,提高了系统稳定性。激光扫描计算单元封装仓(3)的尾部有与外部连接的接插件(9),可为计算单元和激光扫描系统提供电源和进行通讯控制。
由4个主动光标靶建立动态参考坐标系,铝型材框架用于固定主动光标靶和被测物体,并配有为主动光标靶供电装置。该主动光标靶具有易于识别、对应性好、精度高且体积小的特点。可用于建立动态参考坐标系以消除振动带来的测量误差;主动光标靶采用耐高压封装,可用于深海4000米的高压环境。
使用如图1和图2所示的扫描系统在水池中3m远处系统振动情况下进行激光扫描和图片拍摄。该扫描系统采用中国专利CN201810584975.1中的光场多层折射模型进行扫描物体的重建。待测球棒的直径为150.13mm,球心距为497.72mm。
如图5所示,基于动态参考坐标系的水下双目立体视觉测量系统和方法,使用流程包括以下步骤1至步骤5,共计5个步骤:
步骤1:将待扫描的球棒及四个主动光标靶点固定到铝型材框架上,如图3所示,使用如图1和图2所示的扫描系统在水池中3m远处系统振动情况下进行激光扫描和图片拍摄,获得带有激光条纹和标靶点的图片组如图4所示。
步骤2:对图片组中的标靶点进行角点检测并对标靶点进行排序,流程如图6所示。
步骤3:使用中国专利CN201810584983.6中的基于光场模型的水下立体重建方法计算标靶角点在扫描系统下的三维坐标,通过对标靶角点的坐标矩阵进行奇异值分解来建立编码点坐标系。
步骤4:由于标靶点是和球棒一起固定在框架上,因而可以将标靶点看成一个刚体结构,通过刚体变换求解动态参考坐标系。
步骤5:计算每组图片激光条纹中心在扫描系统下的三维坐标,并将其转换到第一组图片标靶点所在扫描系统坐标系下。
步骤2中标靶点检测和排序包括以下步骤:
步骤①对获得的图片组进行二值化处理,为提高检测效率设置阈值为150,像素值大于150的将像素值变为255,其余像素值变为0;
步骤②对步骤①的二值图像进行形态学开运算,提取出标靶点特征;
步骤③通过设定标靶轮廓面积阈值conA_up=1300,conA_low=20,轮廓宽高比阈值HWratioup=1.6,HWratio_low=0.5,轮廓长度阈值conArc_up=150,conArc_low=20,对步骤②的特征进行筛选分类,以剔除非标靶点的亮斑,获得仅有标靶点亮斑的图像;
步骤④标靶点排序。根据四个标靶点的特征,用平行四边形约束和最大面积法找到方形标靶作为参考点,按顺时针方向对其他三个标靶点进行排序,分别为1号标靶点,2号标靶点和3号标靶点,确定标靶点中心范围,即角点精确检测的区域范围;
步骤⑤通过Shi-Tomasi角点检测在标靶点中心范围对原图片组进行角点检测,并根据所选参考点在原图像中的坐标修正角点,获得高精度的标靶点角点像素位置,左图片三个角点像素坐标(uL1,vL1),(uL2,vL2),(uL3,vL3),右图片三个角点像素坐标为(uR1,vR1),(uR2,vR2),(uR3,vR3);
步骤3中计算标靶点在扫描系统下的三维坐标,建立编码点坐标系包括以下步骤:
步骤①根据步骤2中左右图片组对应角点,使用中国专利CN201810584983.6中的基于光场模型的水下立体重建方法计算标靶角点在扫描系统下的三维坐标,第i个标靶点在扫描系统下的三维坐标用Pi=(xi yizi)T表示;
步骤③对标靶点的坐标矩阵M=[P1-Pc P2-Pc P3-Pc]进行奇异值分解,选择特征值最大值对应的特征向量所在方向为X轴,特征值次大值对应的特征向量所在方向为Y轴,Z轴由X轴和Y轴的叉乘来确定。至此完成编码点坐标系的建立。
步骤4中通过刚体变换求解动态参考坐标系包括以下步骤:
步骤③计算第一组图片和第i组图片编码点坐标系之间的相对位置Adelta_i。其中包括旋转变化量Rdelta_i和平移变化量Tdelta_i。
步骤5中计算激光条纹中心点在第一组图片标靶点所在扫描系统坐标系下的三维坐标,包括以下步骤:
步骤①对获得的第i组图片组进行激光条纹中心提取。
步骤②用中国专利CN201810584983.6中的基于光场模型的水下激光条纹匹配和立体重建方法计算激光条纹扫描系统坐标系下的空间三维点。空间三维点坐标记为 得到的整体点云效果如图7所示,图8为被测球棒点云放大效果图,从以上图中可以看出由于扫描系统振动点云比较凌乱,球棒变形严重。
步骤③将第i组图片激光条纹中心在扫描系统坐标系下点云坐标pi,转换到第一组标靶点所在扫描系统坐标系下,获得点云坐标p1=Adelta_i*pi。此时得到的点云效果如图9所示,图10为建立动态参考坐标系的球棒放大效果图。图11为用Polyworks点云处理软件对球棒进行拟合的数据结果。
通过图11可以得到左球测量误差为0.155mm,右球测量误差为0.289mm,球棒中心距测量误差为1.46mm。由此可知,基于动态参考坐标系的水下测量系统可以有效消除测量系统抖动引起的测量误差,提高系统测量精度。
Claims (6)
1.基于动态参考坐标系的水下双目立体视觉测量系统包括双目立体视觉测量系统和动态参考坐标系,其特征在于:所述双目立体视觉测量系统包括两个高速相机封装仓(1、2)和一个激光扫描计算单元封装仓(3);所述两个高速相机封装仓(1、2)对称安装于一个长方形铝型材框架(11)的两端,激光扫描计算单元封装仓(3)安装于长方形构架的中间;
所述激光扫描计算单元封装仓中有一个金属摆镜(6)、一个激光器(5)和一个计算单元,金属摆镜(6)摆动时可使激光器(5)发射的激光在相机视场内扫描;该封装仓(3)除采用耐高压封装外,还在高速相机封装仓(1、2)和激光扫描计算单元封装仓(3)之间设有耐高压连接管(4);由于水下没有可以满足USB3.0传输速率的水密接插件,因此采用内部连线方式可保证传输速率,并且减少了连接件的数量,提高了系统稳定性;激光扫描计算单元封装仓(3)的尾部有与外部连接的接插件(9),可外接电源和进行通讯控制;
所述动态参考坐标系包括4个主动光标靶和一个方形铝型材框架,方形铝型材框架(12)用于固定主动光标靶(13)和被测物体(14),并配有为主动光标靶供电装置,该主动光标靶(13)具有易于识别、对应性好、精度高且体积小的特点,用于建立动态参考坐标系以消除振动带来的测量误差;主动光标靶(13)采用耐高压封装,可用于深海4000米的高压环境;采用所述基于动态参考坐标系的水下双目立体视觉测量系统实施基于动态参考坐标系的水下双目立体视觉测量方法,进行测量操作,具体操作步骤如下:
步骤1:对物体和标靶进行激光扫描,获得一系列图片组:将要扫描的目标物体及主动光标靶点固定到铝型材框架上,使用三维重建装置进行激光扫描和图片拍摄,获得带有激光条纹和标靶点的图片组;
步骤2:对图片组中的标靶点进行角点检测并对标靶点进行排序;
步骤3:计算标靶点三维坐标,并建立编码点坐标系:使用基于光场模型的水下立体重建方法计算标靶角点在扫描系统下的三维坐标,通过对标靶角点的坐标矩阵进行奇异值分解来建立编码点坐标系;
步骤4:求解动态参考坐标系:由于标靶点和被测物一起固定在框架上,因此可将标靶点看成一个刚体结构,通过刚体变换求解动态参考坐标系;
步骤5:通过坐标转换获得每组图片对应的点云坐标:计算每组图片激光条纹中心在扫描系统下的三维坐标,并将其转换到第一组图片标靶点所在扫描系统坐标系下,获得点云坐标。
2.一种基于动态参考坐标系的水下双目立体视觉测量方法,采用根据权利要求1所述的基于动态参考坐标系的水下双目立体视觉测量系统进行测量操作,具体操作步骤如下:
步骤1:对物体和标靶进行激光扫描,获得一系列图片组:将要扫描的目标物体及主动光标靶点固定到铝型材框架上,使用三维重建装置进行激光扫描和图片拍摄,获得带有激光条纹和标靶点的图片组;
步骤2:对图片组中的标靶点进行角点检测并对标靶点进行排序;
步骤3:计算标靶点三维坐标,并建立编码点坐标系:使用基于光场模型的水下立体重建方法计算标靶角点在扫描系统下的三维坐标,通过对标靶角点的坐标矩阵进行奇异值分解来建立编码点坐标系;
步骤4:求解动态参考坐标系:由于标靶点和被测物一起固定在框架上,因此可将标靶点看成一个刚体结构,通过刚体变换求解动态参考坐标系;
步骤5:通过坐标转换获得每组图片对应的点云坐标:计算每组图片激光条纹中心在扫描系统下的三维坐标,并将其转换到第一组图片标靶点所在扫描系统坐标系下,获得点云坐标。
3.根据权利要求2所述的基于动态参考坐标系的水下双目立体视觉测量方法,其特征在于:所述步骤2中标靶点检测和排序包括以下步骤:
步骤3-1设置阈值,对获得的图片组进行二值化处理;
步骤3-2对步骤3-1的二值图像进行形态学开运算,提取出标靶点特征;
步骤3-3通过设定标靶轮廓面积阈值、轮廓宽高比阈值、轮廓长度阈值对步骤3-2的特征进行筛选分类,以剔除非标靶点的亮斑,获得仅有标靶点亮斑的图像;
步骤3-4标靶点排序:根据四个标靶点的特征,通过平行四边形约束和最大面积法找到方形标靶作为参考点,按顺时针方向对其他三个标靶点进行排序,分别为1号标靶点,2号标靶点和3号标靶点,确定标靶点中心范围,即角点精确检测的区域范围;
步骤3-5通过Shi-Tomasi角点检测法在标靶点中心范围对原图片组进行角点检测,并根据所选参考点在原图像中的坐标修正角点,获得高精度的标靶点角点坐标,左图片三个角点像素坐标为(uL1,vL1),(uL2,vL2),(uL3,vL3),右图片三个角点像素坐标为(uR1,vR1),(uR2,vR2),(uR3,vR3)。
4.根据权利要求2所述的基于动态参考坐标系的水下双目立体视觉测量方法,其特征在于:所述步骤3中计算标靶点在扫描系统下的三维坐标,建立编码点坐标系包括以下步骤:
步骤4-1根据步骤2中左右图片组对应角点,使用基于光场模型的水下立体重建方法计算标靶角点在扫描系统下的三维坐标,记第i个标靶点在扫描系统下的三维坐标为Pi=(xiyi zi)T;
步骤4-3对编码点的坐标矩阵M=[P1-Pc P2-Pc P3-Pc]进行奇异值分解,选择特征值最大值对应的特征向量所在方向为X轴,特征值次大值对应的特征向量所在方向为Y轴,Z轴由X轴和Y轴的叉乘来确定;至此完成编码点坐标系的建立。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910353486.XA CN110260820B (zh) | 2019-04-29 | 2019-04-29 | 基于动态参考坐标系的水下双目立体视觉测量系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910353486.XA CN110260820B (zh) | 2019-04-29 | 2019-04-29 | 基于动态参考坐标系的水下双目立体视觉测量系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110260820A CN110260820A (zh) | 2019-09-20 |
CN110260820B true CN110260820B (zh) | 2021-07-06 |
Family
ID=67913996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910353486.XA Active CN110260820B (zh) | 2019-04-29 | 2019-04-29 | 基于动态参考坐标系的水下双目立体视觉测量系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110260820B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110763152B (zh) * | 2019-10-09 | 2021-08-20 | 哈尔滨工程大学 | 一种水下主动旋转结构光三维视觉测量装置及测量方法 |
CN110986886A (zh) * | 2019-12-18 | 2020-04-10 | 中国科学院长春光学精密机械与物理研究所 | 一种双相机动态旋转扫描立体成像的模拟装置 |
CN111563921B (zh) * | 2020-04-17 | 2022-03-15 | 西北工业大学 | 一种基于双目相机的水下点云获取方法 |
CN111649695A (zh) * | 2020-06-05 | 2020-09-11 | 苏州若柏视智能科技有限公司 | 一种双目视觉传感器及物体识别方法 |
CN112489110A (zh) * | 2020-11-25 | 2021-03-12 | 西北工业大学青岛研究院 | 一种水下动态场景光学混合三维成像方法 |
CN112995639B (zh) * | 2021-02-05 | 2022-04-15 | 中国科学院沈阳自动化研究所 | 一种水下目标精细三维感知方法 |
CN114111589B (zh) * | 2021-11-19 | 2024-05-28 | 南方海洋科学与工程广东省实验室(湛江) | 基于网状物的水下测距方法、测距系统及存储介质 |
CN115060238B (zh) * | 2022-05-18 | 2023-11-10 | 深圳荔石创新科技有限公司 | 一种水下构件相对位姿测量方法及装置 |
CN115790539B (zh) * | 2022-11-22 | 2024-02-13 | 深圳大学 | 一种合作靶标水下摄影测量方法 |
CN116817794B (zh) * | 2023-06-27 | 2024-02-13 | 浙江大学 | 一种基于结构光的水下高精度三维成像装置及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140115062A (ko) * | 2013-03-20 | 2014-09-30 | 한국전자통신연구원 | 수중물체 형상측정 장치 및 방법 |
CN103985121B (zh) * | 2014-05-13 | 2017-02-01 | 北京航空航天大学 | 一种水下投影仪结构光标定方法 |
CN104819707B (zh) * | 2015-04-23 | 2018-07-13 | 上海大学 | 一种多面体主动光标靶 |
CN106885514B (zh) * | 2017-02-28 | 2019-04-30 | 西南科技大学 | 一种基于机器视觉的深水钻井隔水管自动对接位姿检测方法 |
CN109059873A (zh) * | 2018-06-08 | 2018-12-21 | 上海大学 | 基于光场多层折射模型的水下三维重建装置和方法 |
CN109682575B (zh) * | 2019-01-25 | 2020-06-16 | 中国船舶科学研究中心(中国船舶重工集团公司第七0二研究所) | 复合材料螺旋桨模型旋转叶片水下动态变形双目测量系统 |
-
2019
- 2019-04-29 CN CN201910353486.XA patent/CN110260820B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110260820A (zh) | 2019-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110260820B (zh) | 基于动态参考坐标系的水下双目立体视觉测量系统及方法 | |
US8086026B2 (en) | Method and system for the determination of object positions in a volume | |
CN108594245A (zh) | 一种目标物运动监测系统及方法 | |
CN109598765A (zh) | 基于球形标定物的单目相机与毫米波雷达外参联合标定方法 | |
CN109341668B (zh) | 基于折射投影模型和光束追踪法的多相机测量方法 | |
CN107729893B (zh) | 一种合模机的视觉定位方法、系统和存储介质 | |
CN107167073A (zh) | 一种线阵结构光三维快速测量装置及其测量方法 | |
CN110966932B (zh) | 一种基于已知标记点的结构光三维扫描方法 | |
CN110672020A (zh) | 一种基于单目视觉的立木高度测量方法 | |
CN111220126A (zh) | 一种基于点特征和单目相机的空间物体位姿测量方法 | |
CN110223355B (zh) | 一种基于双重极线约束的特征标志点匹配方法 | |
CN101373135A (zh) | 基于瞬时随机光照的三维曲面测量装置及方法 | |
CN113160416B (zh) | 一种用于煤流检测的散斑成像装置及方法 | |
CN115272616A (zh) | 一种室内场景三维重建方法、系统、装置及存储介质 | |
CN108917640A (zh) | 一种激光盲孔深度检测方法及其系统 | |
CN113888641A (zh) | 一种基于机器视觉和深度学习的立木胸径测量方法 | |
CN110728745B (zh) | 一种基于多层折射图像模型的水下双目立体视觉三维重建方法 | |
CN113850868B (zh) | 一种波浪爬高图像识别方法 | |
CN208350997U (zh) | 一种目标物运动监测系统 | |
CN113916128A (zh) | 一种基于光笔式视觉测量系统的提高精度的方法 | |
CN116448053A (zh) | 一种基于激光三角测距系统的偏态光斑定位方法 | |
CN114442083A (zh) | 一种基于视觉与多源雷达的自适应加权数据融合方法 | |
CN110866951B (zh) | 一种单目摄像机光轴倾斜的校正方法 | |
Xianzhi | Research on kinect calibration and depth error compensation based on BP neural network | |
CN115170663B (zh) | 跨时空真伪目标多模态关联超远程无源测距方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |