CN113763562B - 基于双目视觉的立面特征检测及立面特征处理方法 - Google Patents

基于双目视觉的立面特征检测及立面特征处理方法 Download PDF

Info

Publication number
CN113763562B
CN113763562B CN202111016253.4A CN202111016253A CN113763562B CN 113763562 B CN113763562 B CN 113763562B CN 202111016253 A CN202111016253 A CN 202111016253A CN 113763562 B CN113763562 B CN 113763562B
Authority
CN
China
Prior art keywords
image
pixel
formula
feature
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111016253.4A
Other languages
English (en)
Other versions
CN113763562A (zh
Inventor
徐彬洋
余大海
钟鸣
刘亚欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology Weihai
Original Assignee
Harbin Institute of Technology Weihai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology Weihai filed Critical Harbin Institute of Technology Weihai
Priority to CN202111016253.4A priority Critical patent/CN113763562B/zh
Publication of CN113763562A publication Critical patent/CN113763562A/zh
Application granted granted Critical
Publication of CN113763562B publication Critical patent/CN113763562B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于双目视觉的立面特征检测及立面特征处理方法,其解决了现有爬壁机器人只能应对规则的平面或曲面,对凸起部位不能作业的技术问题,其通过深度学习算法对双目相机采集的图像数据构建立面特征数据集,通过目标检测算法,通过训练立面特征模型让爬壁机器人检测立面特征类别,通过双目视觉获取深度信息使得爬壁机器人实时获取自身到凸起特征的距离,通过双目视觉对凸起特征进行三维重建获取特征三维轮廓信息,从而完成对立面特征的识别。其可广泛应用于船舶、罐体等立面的维修、清洗过程。

Description

基于双目视觉的立面特征检测及立面特征处理方法
技术领域
本发明涉及船舶维护技术领域,具体而言,涉及一种基于双目视觉的立面特征检测及立面特征处理方法。
背景技术
船舶维修清洗由于受停泊时间限制,一般只对那些无法工作和工艺参数接近或超过极限的单台设备进行突击抢修性质的冲洗。航修清洗的特点是时间紧、工期短、操作空间小、清洗难度大。为保障船舶正常航行,船舶在停靠码头装卸期间对问题设备或管系的各类污垢进行清洗,一般在码头或锚地进行。
在航船舶厂修清洗分为船体外部清洗和机仓系统管路和设备清洗。船体外部清洗主要是甲板、船壳涂白、清除油漆层和船体下部各类海生物,其目的是减少船舶航行阻力和垢下腐蚀,增加新涂装防腐漆的附着力。厂修清洗时间一般较航修清洗宽松,工程项目一般较多,但都会提前获知,产前准备较充分,清洗范围涉及船舶所有系统及系统内配套的各类热交换设备及各类舱室。
目前,船舶除锈清洗主要有以下三种方式:
(1)喷丸或喷砂的方法,是利用磨料的打击力除锈、剥层。其除锈质量较好、效率较高,但是弊端也很多,会对海水和空气造成严重污染,日积月累的铜砂还会使船坞淤积,作业场所条件恶劣,产生的大量矽尘无法清除,除锈工人难以避免严重影响健康的矽肺病和眼疾。
(2)采用高压水射流清洗技术,可以清洗很多结构复杂的地方或不规则的表面,不管结构怎样,用高压水清洗船舱、底舱及压载箱都很容易,脏物和脏水可以很容易地被排出去,它们不会有尘埃产生到大气中去,也不会污染环境。采用150~250MPa的超高压纯水射流或较低压力下的特种射流进行除锈作业,大大提高了水射流除锈的适应性。然而,该方法通过人工操作,劳动强度大,人工成本高。
(3)采用爬壁机器人进行自动作业,爬壁机器人能够吸附在船体或罐体等立面上进行除锈和喷漆作业,操作者遥控爬壁机器人进行喷漆、除锈等作业从而取代了人工作业,现有的爬壁机器人可以参考申请公开号为CN112389559A的发明专利申请以及专利号为202021430043.0的实用新型专利,也可以参考德国Falch公司生产的Cleaning爬壁机器人。然而,针对船舶的立面或储罐的立面作业环境,现有爬壁机器人工作时只能应对规则的平面或曲面,对凸起部位(比如法兰、管路等)不能作业,还需依靠人工。此外,立面的作业效果检测也是需要操作人员在高空中通过观察进行评估,存在劳动强度大、人工成本高、评估不准确的问题。
发明内容
本发明就是为了解决现有爬壁机器人只能应对规则的平面或曲面,对凸起部位不能作业的技术问题,提供一种能够使爬壁机器人对立面的凸起部位进行作业的基于双目视觉的立面特征检测及立面特征处理方法。
双目立体视觉技术原理,通过图像匹配算法计算视差,得到三维场景信息。通过计算机对图像的理解使机器人既能够感知三维场景中物体的几何信息,又能对物体进行测距和检测。基于以上情况,将通过双目视觉技术对船舶和储罐的立面特征进行深度测量,让爬壁机器人能够获取周围不规则凸起的三维信息。
本发明公开一种基于双目视觉的立面特征检测及立面特征处理方法,包括以下步骤:
第一步,建立一个包含凸起特征的类别和三维形状信息的立面凸起特征数据库;
第二步,基于双目视觉的三维重建系统搭建;
步骤1,双目相机选型;
步骤2,标定双目相机;
步骤3,图像立体矫正预处理;
步骤4,立体匹配;
步骤5,获得视差图;
步骤6,获得点云三维重建,实时测距;
步骤7,获得立面特征的尺寸信息和深度信息;
第三步,识别立面上的凸起特征;
步骤1,构建立面特征数据集;
步骤2,基于YOLOV4目标检测算法训练特征识别模型;
步骤3,优化特征识别模型;
步骤4,双目相机实时采集待处理物体的立面图像,控制器将实时采集的立面图像输入特征识别模型,从而识别出立面上的凸起特征。
优选地,第三步中:
步骤1,构建立面特征数据集,
制作的数据集格式为VOC2007数据集,通过手动创建出包含整个特征的最小边界框,然后指定标注框内特征的名称;创建完成后会自动生成相应的xml文件,该文件中以固定格式存储着图像的尺寸、物体类别名称以及在图像中的位置等信息;
步骤2,基于YOLOV4目标检测算法训练特征识别模型,
模型训练采用的基本学习率是0.0004,变化比率gamma设置为0.1,具体的训练参数见表3-2:
表3-2训练参数设置汇总
采用训练得到的yolov4模型对测试集中立面特征样张进行检测。
优选地,所述第一步中:
步骤3,图像立体矫正预处理的具体过程是通过Bouguet算法进行立体矫正:
步骤4,通过SGBM(semi-global block matching)算法进行立体匹配:
(1)SGBM的图像预处理过程是通过水平Sobel算法实现的,采用公式为(3-2):
接着利用一个映射函数,能够把预处理图像上的所有像素点转换到另一张新的图像中,将经过水平Sobel算子处理后的图像上的每个像素点映射成一个新的图像,P代表通过水平Sobel算子处理得到的像素值,Pnew表示新图像上的像素值,所采用的映射函数为式(3-3)所示:
公式(3-3)中,preFilterCap为常值;
预处理得到的图像梯度信息,保存供后面进行代价计算;
(2)代价计算:
SGBM的代价由两部分组成:在之前进行的图像预处理获得的梯度信息按照采样的方式计算代价值以及直接对原图像进行采样获取SAD代价值,SAD代价计算公式如式(3-4):
式(3-4)中,Ir(u+d,v)表示右图像像素点;
Il(u,v)表示左视图像素点;
P(u,v,d)表示左右视图像素点之间的匹配代价;
(3)动态规划:
SGBM在不同方向上受到不同程度的一维约束,进而构建出一个马尔科夫能量函数,每一个像素最终的匹配代价都是所有路径上信息的叠加;
针对不同方向遵从动态规划算法完成能量聚集,再把这些方向上所聚集的匹配代价进行求和,如式(3-5)所示:
式(3-5)中,L表示当前路径积累的代价函数;
P1、P2表示像素点与相邻点视差的较小和较大值的平滑惩罚,P1<P2
总匹配代价的计算通过求和所有r方向的匹配代价所得,如式(3-6)所示:
默认的四条路径,其中P1、P2的设定方式如式(3-7)所示:
式(3-7)中,SADwindowSize表示SAD窗口的大小,奇数;Cn表示图像的通道数;当确定了图像的通道数和SAD窗口的大小,可得到P1和P2两个常数;
(4)后处理视差精细化,SGBM的后处理包含了三个过程,包括唯一性检测、左右一致性检测和亚像素插值,左右一致性检测可以对图像中遮挡的位置进行优化,然后再通过亚像素插值进行处理;
步骤5,获得视差图,在Ubuntu18.04系统下配置Clion编译软件及OpenCV3.4.5计算机视觉库完成的;
步骤6,获得点云三维重建,实时测距;
通过双目立体匹配获取视差图后,根据双目视觉测距原理,使用深度计算公式(2-16),
公式(2-16)中,uL,uR)表示像素平面的坐标;d表示左右像素横坐标之差;f表示焦距;焦距f和基线b已知;
带入标定得到的焦距f、基线b及视差信息d从而能够求解目标点的深度信息。
优选地,控制器在立面凸起特征数据库进行类别检索,检索到特征类别后,匹配爬壁机器人相应的作业参数,爬壁机器人进行相应的作业。
本发明的有益效果是:通过视觉系统识别立面的特征,能够准备识别不规则凸起部位。并通过视觉系统对表面作业效果进行检测评估,
智能化程度高,实现了爬壁机器人自主化作业。
本发明进一步的特征和方面,将在以下参考附图的具体实施方式的描述中,得以清楚地记载。
附图说明
图1是检测方法的流程图;
图2是双目相机标定过程采集的图片,其中图a)是左目20张标定图片,图b)是右目20张标定图片;
图3是共面行不对准图像平面;
图4是选取室内标定板图像作为校正前的图像;
图5是校正后的图像;
图6是代价计算原理图;
图7是多方向能量聚集示意图;
图8所示为不同光照下的双目图像,其中图a)是室内光照环境,图b)是室外逆光环境,图c)是是外顺光环境。
图9是SGBM算法视差图,其中图a)是室内光照环境,图b)是室外逆光环境,图c)是室外顺光环境。
图10是SGBM测距效果,其中图a)是室内光照环境,图b)是室外逆光环境,图c)是室外顺光环境。
图11是优化特征识别模型训练结果;
图12是yolov4训练模型检测效果,其中图a)是晴天,图b)是阴天。
图13是双目视觉的测距原理几何建模图。
具体实施方式
以下参照附图,以具体实施例对本发明作进一步详细说明。
原油储罐的罐体上常见的立面特征尺寸和类别都有国标规定,比如油罐维修的工作范围包括罐底、罐壁及附件,如阀门、进出油管、人孔、排水系统、电器仪表、盘梯、抗风圈等部分的修理或更换,需要根据检测报告和设计文件进行维修方式。明确立面特征类别后,可以通过基于深度学习的目标检测算法让爬壁机器人辨识立面作业对象类别。基于卷积神经网络的图像识别算法能够以高准确率检测目标,但能够达到实时检测的算法较少,其中SSD能够满足准确性的要求,但是对特征的检测存在实时不高的问题,YOLO的实时性较高但是很难达到实时检测,可以通过对YOLOV4改进使得YOLOV4在保证高准确率的基础上实现实时检测。
选择ZED双目相机,以NVIDIA Jetson TX2为图像处理计算平台,围绕船体立面或罐体立面上的法兰、管路等凸起部位的识别、测距、三维重建进行研究。
如图1所示的流程图。检测具体过程如下:
第一步,确定罐体立面作业所遇到的凸起特征,建立一个包含凸起特征的类别和三维形状信息的立面凸起特征数据库,为后期进行凸起特征作业提供精确的三维尺寸。凸起特征的类别有法兰、管路、电器仪表、盘梯等等。
大型的远洋船舶或者化工储罐上都会使用较多具有国家标准的零件用于船舶或者储罐的外表面,也就是我们所定义的立面特征。完成立面特征的识别与检测前,需要对船舶或储罐的立面特征进行归类,根据船舶或储罐的实际情况,我们能够建立立面凸起特征数据库用来记录常见的立面特征的尺寸信息。
第二步,基于双目视觉的三维重建系统搭建。
步骤1,双目相机选型,选择ZED双目相机。
步骤2,标定双目相机。
具体标定过程是使用MATLAB语言编写的程序,用到MATLAB自带的webcam包打开双目相机,然后对双目图像进行采集,并且将采集到的图片分割为左右两张图片进行相同命名。左右目图像分别采集了20张,如图2中图a)和图2中图b)所示。
提取角点后,接着在不考虑畸变的情况下对单目内外参数进行标定求解,然后Calibrator工具箱会使用最小二乘法求出左右目的畸变参数,出结果之前通过立体联合标定并优化各参数,最终标定得到的各参数如表1所示。
表1 Stereo Camera Calibrator工具箱标定结果
步骤3,图像立体矫正预处理
Bouguet算法的立体矫正,其思想是降低重投影次数,使得其数值最小化,其具体的方式主要包括以下几点:
(1)旋转左右相机坐标系使得图像平面实现共面
为了降低重投影畸变,需要通过一个旋转矩阵将右相机平面分成像图像那样的两部分,这两个旋转矩阵使得左右相机分别旋转一半,旋转过后,左右相机的平面就能够实现共面,但是还不能行对准。
(2)旋转图像平面实现共面行对准
旋转相机坐标系后,左右图像平面存在一定的夹角如图3,将左右图像平面分别以各自主心顺时针旋转α1和α2,此时左右目图像即可实现行对准。
我们将能够让极线对准的旋转矩阵Rrect_l通过极点变换得到,然后再设一个由极点e1为起始的旋转矩阵。左相机图像的原点是主点(cx,cy),方向是左右相机投影中心的平移向量的方向。
而e2与e1需要正交,从图中我们能够看到比较好的做法是与主光线正交,通过求解e1和主动光线的叉积可以得到,将所得到的向量进行归一化:
如式(2-19)所示计算e3的方向,通过叉积得到,它需要和e1、e2正交:
e3=e1×e2 (2-19)
式(2-20)表示的是左目相机的极点变换到无穷远处的计算公式:
通过上述的方式,计算得到右图像的旋转矩阵,且Rrect_l=Rrect_r,引入新参数Rrect,且使得:
Rrect=Rrect_l=Rrect_r (2-21)
设立体矫正过程左右图像所需的旋转矩阵为Rl和Rr,则有:
Rl=Rrectrl
Rr=Rrectrr (2-22)
式(2-22)矩阵能够让所拍摄的左右目图像的极线变水平,通过旋转得到,且极点位于无穷远处,Bouguet立体矫正算法在已知R和T后,具有计算快捷、高准确度的优点。
为验证Bouguet的矫正效果,在Ubuntu系统下以Clion+OpenCV3.4.5软件环境,选取室内标定板图像如图4所示,该图像已完成畸变校正。
图4在进行畸变校正后,通过图示能够看出,左右目图像存在较明显上下错位不对齐现象,图5为采用Bouguet算法进行立体矫正后的结果。通过图中的绿色线条能够看出,矫正后的图像基本实现行对齐。
步骤4,立体匹配。
通过SGBM(semi-global block matching)算法进行立体匹配,在OpenCV中实现后才称为SGBM,通过分析SGBM的原理能够很好的理解立体匹配的过程,并进行相应的优化。
(1)图像预处理
SGBM的图像预处理过程是通过水平Sobel算法实现的,采用公式为(3-2):
接着利用一个映射函数,能够把预处理图像上的所有像素点转换到另一张新的图像中,将经过水平Sobel算子处理后的图像上的每个像素点映射成一个新的图像,P代表通过水平Sobel算子处理得到的像素值,Pnew表示新图像上的像素值。所采用的映射函数为式(3-3)所示:
公式(3-3)中,preFilterCap为常值,一般情况下取63。
预处理得到的图像梯度信息,保存供后面进行代价计算。
(2)代价计算
SGBM的代价由两部分组成:1.在之前进行的图像预处理获得的梯度信息按照采样的方式计算代价值;2.直接对原图像进行采样获取SAD代价值,代价计算原理如图3-1,SAD代价计算公式如式(3-4):
式(3-4)中,Ir(u+d,v)表示右图像像素点;
Il(u,v)表示左视图像素点;
P(u,v,d)表示左右视图像素点之间的匹配代价。
(3)动态规划
在动态规划算法中,当视差突变时会产生误匹配现象,半全局立体匹配将整合不同方向上的数据,进而来消除误匹配对算法本身的干扰,这样能够明显减弱动态规划存在的拖尾效应。
SGBM在不同方向上受到不同程度的一维约束,进而构建出一个马尔科夫能量函数,每一个像素最终的匹配代价都是所有路径上信息的叠加,每个像素点视差的选择都是通过胜者为王策略决定,多方向上的能量聚集如图7所示。
针对图7所示的不同方向遵从动态规划算法完成能量聚集,再把这些方向上所聚集的匹配代价进行求和,如式(3-5)所示:
式(3-5)中,L表示当前路径积累的代价函数;
P1、P2表示像素点与相邻点视差的较小和较大值的平滑惩罚,P1<P2
总匹配代价的计算通过求和所有r方向的匹配代价所得,如式(3-6)所示:
默认的四条路径,其中P1、P2的设定方式如式(3-7)所示:
式(3-7)中,SADwindowSize表示SAD窗口的大小,奇数;
Cn表示图像的通道数。
从式看出当我们确定了图像的通道数和SAD窗口的大小,我们便可得到P1和P2两个常数。
(4)后处理视差精细化
SGBM的后处理包含了三个过程,包括唯一性检测、左右一致性检测和亚像素插值,左右一致性检测可以对图像中遮挡的位置进行优化,然后再通过亚像素插值进行处理,从而能够有效的提高分辨率,使得误差更小,结果更优化。通过以上过程,SGBM相对于其他立体匹配算法能够获得一个较好的视差效果。
步骤5,获得视差图。
在Ubuntu18.04系统下配置Clion编译软件及OpenCV3.4.5计算机视觉库完成的,如图8所示为不同光照下的双目图像,图9为采用SGBM立体匹配算法得到的视差图。
步骤6,获得点云三维重建。实时测距。
先说明一下双目视觉测距原理,本发明所研究的是平行双目视觉,同时采集周围环境图像,针对同一个目标在采集的左右视图中所成像的位置一定不同,由此便会产生视差。双目视觉原理可以看成是两个三角形相似,也就是通过立体匹配去获得匹配点的视差值,然后通过三角原理得到距离双目相机的深度信息。现对双目视觉的测距原理进行几何建模,如图13所示。根据图13所示的几何建模,设OL,OR为左右相机的光心,通过相似三角形关系得:
进一步整理得:
公式(2-16)中,uL,uR)表示像素平面的坐标;d表示左右像素横坐标之差;f表示焦距。焦距f和基线b已知。
通过双目立体匹配获取视差图后,根据双目视觉测距原理,使用深度计算公式(2-16),带入标定得到的焦距f、基线b及视差信息d从而能够求解目标点的深度信息。这样便建立视差图上点的二维坐标到其对应空间三维坐标的位置关系,不同光照下的距离如图10,为更好区分距离的远近,深度图赋予彩色信息,不同的颜色代表距离的远近。
步骤7,获得立面特征的尺寸信息和深度信息。
第三步,识别立面上的凸起特征。
步骤1,构建立面特征数据集,
制作的数据集格式为VOC2007数据集,通过手动创建出包含整个特征的最小边界框,然后指定标注框内特征的名称。创建完成后会自动生成相应的xml文件,该文件中以固定格式存储着图像的尺寸、物体类别名称以及在图像中的位置等信息。
步骤2,基于YOLOV4目标检测算法训练特征识别模型。
模型训练采用的基本学习率是0.0004,变化比率gamma设置为0.1,当迭代40000次后学习率就会衰减为基本学习率的0.1倍,也就是缩小了十倍,权重衰减项为损失函数添加的惩罚项,用于预防出现过拟合现象,具体的训练参数见表3-2。
表3-2训练参数设置汇总
根据以上训练参数的设置训练出模型yolov4,在12万次训练结束之后对模型进行精准度评估,平均准确率达到了99.63%,训练结果如图11所示。
采用前述训练得到的yolov4模型对测试集中立面特征样张进行检测,在测试集的检测结果表明,检测模型能够针对不同光照环境下的立面特征具有不错的检测效果。测试集图像中包含旋转、单个、多个目标特征的检测,模型都能够有效的将他们检测出来,体现出模型具有较强的鲁棒性。
步骤3,优化特征识别模型。
训练出模型yolov4,在12万次训练结束之后对模型进行精准度评估,平均准确率达到了99.63%,训练结果如图11所示。
检测模型在不同光照、不同方向环境下的圆柱特征检测置信度都比较高,并且基本能够检测出图中多个目标物体,置信度都超过0.9,检测效果较好。
步骤4,双目相机实时采集罐体的立面图像,控制器将实时采集罐体的立面图像输入特征识别模型,从而识别出立面上的凸起特征。
第四步,爬壁机器人对立面上的凸起特征自动作业。
控制器在立面凸起特征数据库进行类别检索,检索到特征类别后,匹配爬壁机器人相应的作业参数,爬壁机器人进行相应的作业。例如,识别出立面上的管路类别,检索到立面凸起特征数据库中的管路,然后设置爬壁机器人喷漆作业的参数(喷枪的角度、距离等),使爬壁机器人对管路进行喷漆作业。例如,识别出立面上的法兰,检索到立面凸起特征数据库中的法兰类别,然后设置爬壁机器人除锈作业的参数(喷枪的角度、距离、压强等),使爬壁机器人对管路进行除锈作业。由此可见,实现了机器人自主作业,代替了现有技术人工遥控机器人作业。
需要什么的是,本实施例是用罐体举例,上述方法同样适用于船舶。
以上所述仅对本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。

Claims (2)

1.一种基于双目视觉的立面特征检测及立面特征处理方法,其特征在于,包括以下步骤:
第一步,建立一个包含凸起特征的类别和三维形状信息的立面凸起特征数据库;
第二步,基于双目视觉的三维重建系统搭建;
步骤1,双目相机选型;
步骤2,标定双目相机;
步骤3,图像立体矫正预处理;
步骤4,立体匹配;
步骤5,获得视差图;
步骤6,获得点云三维重建,实时测距;
步骤7,获得立面特征的尺寸信息和深度信息;
第三步,识别立面上的凸起特征;
步骤1,构建立面特征数据集;
步骤2,基于YOLOV4目标检测算法训练特征识别模型;
步骤3,优化特征识别模型;
步骤4,双目相机实时采集待处理物体的立面图像,控制器将实时采集的立面图像输入特征识别模型,从而识别出立面上的凸起特征;
所述第三步中:
步骤1,构建立面特征数据集,
制作的数据集格式为VOC2007数据集,通过手动创建出包含整个特征的最小边界框,然后指定标注框内特征的名称;创建完成后会自动生成相应的xml文件,该文件中以固定格式存储着图像的尺寸、物体类别名称以及在图像中的位置等信息;
步骤2,基于YOLOV4目标检测算法训练特征识别模型,
模型训练采用的基本学习率是0.0004,变化比率gamma设置为0.1,具体的训练参数见表3-2:
表3-2训练参数设置汇总
采用训练得到的yolov4模型对测试集中立面特征样张进行检测;
所述第二步中:
步骤3,图像立体矫正预处理的具体过程是通过Bouguet算法进行立体矫正:
步骤4,通过SGBM(semi-global block matching)算法进行立体匹配:
(1)SGBM的图像预处理过程是通过水平Sobel算法实现的,采用公式为(3-2):
接着利用一个映射函数,能够把预处理图像上的所有像素点转换到另一张新的图像中,将经过水平Sobel算子处理后的图像上的每个像素点映射成一个新的图像,P代表通过水平Sobel算子处理得到的像素值,Pnew表示新图像上的像素值,所采用的映射函数为式(3-3)所示:
公式(3-3)中,preFilterCap为常值;
预处理得到的图像梯度信息,保存供后面进行代价计算;
(2)代价计算:
SGBM的代价由两部分组成:在之前进行的图像预处理获得的梯度信息按照采样的方式计算代价值以及直接对原图像进行采样获取SAD代价值,SAD代价计算公式如式(3-4):
式(3-4)中,Ir(u+d,v)表示右图像像素点;
Il(u,v)表示左视图像素点;
P(u,v,d)表示左右视图像素点之间的匹配代价;
(3)动态规划:
SGBM在不同方向上受到不同程度的一维约束,进而构建出一个马尔科夫能量函数,每一个像素最终的匹配代价都是所有路径上信息的叠加;
针对不同方向遵从动态规划算法完成能量聚集,再把这些方向上所聚集的匹配代价进行求和,如式(3-5)所示:
式(3-5)中,L表示当前路径积累的代价函数;
P1、P2表示像素点与相邻点视差的较小和较大值的平滑惩罚,P1<P2
总匹配代价的计算通过求和所有r方向的匹配代价所得,如式(3-6)所示:
默认的四条路径,其中P1、P2的设定方式如式(3-7)所示:
式(3-7)中,SADwindowSize表示SAD窗口的大小,奇数;Cn表示图像的通道数;当确定了图像的通道数和SAD窗口的大小,可得到P1和P2两个常数;
(4)后处理视差精细化,SGBM的后处理包含了三个过程,包括唯一性检测、左右一致性检测和亚像素插值,左右一致性检测可以对图像中遮挡的位置进行优化,然后再通过亚像素插值进行处理;
步骤5,获得视差图,在Ubuntu18.04系统下配置Clion编译软件及OpenCV3.4.5计算机视觉库完成的;
步骤6,获得点云三维重建,实时测距;
通过双目立体匹配获取视差图后,根据双目视觉测距原理,使用深度计算公式(2-16),
公式(2-16)中,uL,uR表示像素平面的坐标;d表示左右像素横坐标之差;f表示焦距;焦距f和基线b已知;
带入标定得到的焦距f、基线b及视差信息d从而能够求解目标点的深度信息。
2.根据权利要求1所述的基于双目视觉的立面特征检测及立面特征处理方法,其特征在于,控制器在立面凸起特征数据库进行类别检索,检索到特征类别后,匹配爬壁机器人相应的作业参数,爬壁机器人进行相应的作业。
CN202111016253.4A 2021-08-31 2021-08-31 基于双目视觉的立面特征检测及立面特征处理方法 Active CN113763562B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111016253.4A CN113763562B (zh) 2021-08-31 2021-08-31 基于双目视觉的立面特征检测及立面特征处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111016253.4A CN113763562B (zh) 2021-08-31 2021-08-31 基于双目视觉的立面特征检测及立面特征处理方法

Publications (2)

Publication Number Publication Date
CN113763562A CN113763562A (zh) 2021-12-07
CN113763562B true CN113763562B (zh) 2023-08-29

Family

ID=78792256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111016253.4A Active CN113763562B (zh) 2021-08-31 2021-08-31 基于双目视觉的立面特征检测及立面特征处理方法

Country Status (1)

Country Link
CN (1) CN113763562B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494857A (zh) * 2021-12-30 2022-05-13 中航华东光电(上海)有限公司 一种基于机器视觉的室内目标物识别和测距方法
CN114037703B (zh) * 2022-01-10 2022-04-15 西南交通大学 基于二维定位和三维姿态解算的地铁阀门状态检测方法
CN116051658B (zh) * 2023-03-27 2023-06-23 北京科技大学 基于双目视觉进行目标检测的相机手眼标定方法及装置
CN117593350A (zh) * 2024-01-18 2024-02-23 泉州装备制造研究所 一种用于无人机输电线检测的双目立体匹配方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001153633A (ja) * 1999-11-26 2001-06-08 Fujitsu Ltd 立体形状検出方法および装置
CN106384382A (zh) * 2016-09-05 2017-02-08 山东省科学院海洋仪器仪表研究所 一种基于双目立体视觉的三维重建系统及其方法
CN108053449A (zh) * 2017-12-25 2018-05-18 北京工业大学 双目视觉系统的三维重建方法、装置及双目视觉系统
CN108317953A (zh) * 2018-01-19 2018-07-24 东北电力大学 一种基于无人机的双目视觉目标表面3d检测方法及系统
KR101988551B1 (ko) * 2018-01-15 2019-06-12 충북대학교 산학협력단 스테레오 비전의 깊이 추정을 이용한 효율적 객체 검출 및 매칭 시스템 및 방법
CN111062990A (zh) * 2019-12-13 2020-04-24 哈尔滨工程大学 一种面向水下机器人目标抓取的双目视觉定位方法
WO2020103427A1 (zh) * 2018-11-23 2020-05-28 华为技术有限公司 对象检测方法、相关设备及计算机存储介质
CN111368802A (zh) * 2020-03-28 2020-07-03 河南工业职业技术学院 一种基于双目图像视觉的物资形状识别方法
CN111397529A (zh) * 2020-03-30 2020-07-10 武汉比天科技有限责任公司 一种基于双目视觉结构光的复杂表面形状检测方法
CN113129449A (zh) * 2021-04-16 2021-07-16 浙江孔辉汽车科技有限公司 一种基于双目视觉的车辆路面特征识别及三维重建方法
CN113160335A (zh) * 2021-04-28 2021-07-23 哈尔滨理工大学 一种基于双目视觉的模型点云及三维表面重建方法
CN113177565A (zh) * 2021-03-15 2021-07-27 北京理工大学 一种基于深度学习的双目视觉位置测量系统及方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001153633A (ja) * 1999-11-26 2001-06-08 Fujitsu Ltd 立体形状検出方法および装置
CN106384382A (zh) * 2016-09-05 2017-02-08 山东省科学院海洋仪器仪表研究所 一种基于双目立体视觉的三维重建系统及其方法
CN108053449A (zh) * 2017-12-25 2018-05-18 北京工业大学 双目视觉系统的三维重建方法、装置及双目视觉系统
KR101988551B1 (ko) * 2018-01-15 2019-06-12 충북대학교 산학협력단 스테레오 비전의 깊이 추정을 이용한 효율적 객체 검출 및 매칭 시스템 및 방법
CN108317953A (zh) * 2018-01-19 2018-07-24 东北电力大学 一种基于无人机的双目视觉目标表面3d检测方法及系统
WO2020103427A1 (zh) * 2018-11-23 2020-05-28 华为技术有限公司 对象检测方法、相关设备及计算机存储介质
CN111062990A (zh) * 2019-12-13 2020-04-24 哈尔滨工程大学 一种面向水下机器人目标抓取的双目视觉定位方法
CN111368802A (zh) * 2020-03-28 2020-07-03 河南工业职业技术学院 一种基于双目图像视觉的物资形状识别方法
CN111397529A (zh) * 2020-03-30 2020-07-10 武汉比天科技有限责任公司 一种基于双目视觉结构光的复杂表面形状检测方法
CN113177565A (zh) * 2021-03-15 2021-07-27 北京理工大学 一种基于深度学习的双目视觉位置测量系统及方法
CN113129449A (zh) * 2021-04-16 2021-07-16 浙江孔辉汽车科技有限公司 一种基于双目视觉的车辆路面特征识别及三维重建方法
CN113160335A (zh) * 2021-04-28 2021-07-23 哈尔滨理工大学 一种基于双目视觉的模型点云及三维表面重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于双目视觉的非凸复杂形貌物体干涉分析;张湛舸, 王乾一, 屈玉福;《仪器仪表学报》;第42卷(第3期);262- 269 *

Also Published As

Publication number Publication date
CN113763562A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
CN113763562B (zh) 基于双目视觉的立面特征检测及立面特征处理方法
CN109544679B (zh) 管道内壁的三维重建方法
CN111563878B (zh) 一种空间目标定位方法
CN109615654B (zh) 基于双目视觉的排水管道内表面腐蚀深度及面积测量方法
CN103970993B (zh) 一种针对星载相机的调制传递函数测算方法
US12073582B2 (en) Method and apparatus for determining a three-dimensional position and pose of a fiducial marker
CN109900713A (zh) 摄像引导的无人机风电叶片缺陷动态检测系统及其方法
CN113284109A (zh) 管道缺陷识别方法、装置、终端设备及存储介质
CN110796681A (zh) 一种用于船舶协同工作的视觉定位系统及方法
CN108665468B (zh) 一种提取直线塔绝缘子串的装置及方法
CN106952262B (zh) 一种基于立体视觉的船板加工精度分析方法
CN114324401A (zh) 基于环形多波束声呐的全覆盖式管道探测系统
CN112362034B (zh) 基于双目视觉的固体发动机多节筒段对接引导测量方法
CN113538503A (zh) 一种基于红外图像的太阳能板缺陷检测方法
Chavez et al. Adaptive navigation scheme for optimal deep-sea localization using multimodal perception cues
CN116804359A (zh) 一种基于前视全景钻孔摄像的虚拟岩芯成像设备及方法
CN114549780B (zh) 一种基于点云数据的大型复杂构件智能化检测方法
CN116091603A (zh) 一种基于点特征的箱体工件位姿测量方法
CN110533650A (zh) 一种基于视觉的auv水下管道检测跟踪方法
CN114066795A (zh) Df-sas高低频声呐图像精细配准融合方法
CN113947623A (zh) 一种粗糙度检测方法、slam定位方法及施工方法
CN117350996A (zh) 工业内窥镜视场范围调整方法及系统
CN111292418A (zh) 一种浑浊水体三维地图构建方法
CN113674349B (zh) 一种基于深度图像二次分割的钢结构识别和定位方法
CN113592953A (zh) 一种基于特征点集的双目非合作目标位姿测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant