CN108717713A - 一种基于双目视觉的复杂背景下横担姿态测量方法 - Google Patents

一种基于双目视觉的复杂背景下横担姿态测量方法 Download PDF

Info

Publication number
CN108717713A
CN108717713A CN201810498427.7A CN201810498427A CN108717713A CN 108717713 A CN108717713 A CN 108717713A CN 201810498427 A CN201810498427 A CN 201810498427A CN 108717713 A CN108717713 A CN 108717713A
Authority
CN
China
Prior art keywords
cross
arm
administrative division
division map
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810498427.7A
Other languages
English (en)
Other versions
CN108717713B (zh
Inventor
郭毓
郭飞
吴巍
苏鹏飞
杨光
郭健
吴益飞
蔡梁
肖潇
张冕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN201810498427.7A priority Critical patent/CN108717713B/zh
Publication of CN108717713A publication Critical patent/CN108717713A/zh
Application granted granted Critical
Publication of CN108717713B publication Critical patent/CN108717713B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明公开了一种基于双目视觉的复杂背景下横担姿态测量方法,包括以下步骤:首先初始化双目相机的内外参数;接着采集横担图像;之后对横担图像进行图像分割,分割出横担区域图;再通过边缘检测、掩膜运算获取边缘检测后的横担区域图;然后采用霍夫变换检测横担区域图中的直线,并通过聚类、斜率约束获得横担边缘的三条直线;然后对左目横担区域图中横担边缘的三条直线与右目横担区域图中横担边缘的三条直线进行特征匹配,并利用双目测距原理获取所有特征点的三维坐标;最后利用最小二乘法求解横担两个平面的法向量。本发明能精确地测量复杂背景下横担的姿态,为机械臂末端姿态控制提供有效数据,有利于带电作业机器人更换避雷器作业。

Description

一种基于双目视觉的复杂背景下横担姿态测量方法
技术领域
本发明属于图像信息技术领域,特别涉及一种基于双目视觉的复杂背景下横担姿态测量方法。
背景技术
更换避雷器是国内配网侧带电作业主要作业项目之一,该类工作目前多采用绝缘手套直接作业法,因此在配电作业之前,就需要准备好各种安全措施,明确作业方式,并选择好操作工具。带电作业很大程度上避免了线路停电带来的负面影响,大幅度减少停电时间,提高供电可靠率,缓解用电投诉矛盾。配电网与输电网相比,虽然电压较低,但却存在着设备密集、线路复杂、空间狭小、对地距离小等特点,增加了配电网带电作业难度,很容易造成相间短路或者相地短路。对带电作业人员造成更大的心理压力、劳动强度和作业危险。
使用带电作业机器人代替人进行更换避雷器作业,前提是要测量出避雷器的空间姿态,而避雷器的姿态和横担的姿态是相互垂直的,所以只要测量出横担的姿态,就能够计算出避雷器的姿态,然后根据避雷器姿态调整机械臂末端夹爪的姿态,使得夹爪的开口方向对准避雷器,只有夹爪的开口方向和避雷器对准了,才能保证后续的避雷器抓取和拆卸作业正常完成。现有的横担姿态测量方法是非自主性的,需要人为参与,且易受外界环境的干扰,复杂环境下测量的稳定性差、精度低,导致带电作业机器人机械臂末端的夹爪不能很好的与避雷器对准,从而不能快速完成更换避雷器作业,降低了更换避雷器作业的效率。
发明内容
本发明的目的在于提供一种基于双目视觉的复杂背景下横担姿态测量方法。
实现本发明目的的技术解决方案为:一种基于双目视觉的复杂背景下横担姿态测量方法,包括以下步骤:
步骤1、对双目相机的内外参数进行初始化;
步骤2、利用双目相机采集横担图像,获得左目图像A、右目图像B;
步骤3、对步骤2得到的左目图像A、右目图像B分别进行图像分割,获得图像分割后的横担区域图C、横担区域图D;
步骤4、通过边缘检测、掩膜运算对左目图像A、右目图像B、横担区域图C、横担区域图D进行处理,获取边缘检测后的横担区域图I、横担区域图J;
步骤5、采用霍夫变换对步骤4获得的横担区域图I、横担区域图J进行直线检测,然后在霍夫空间中对横担区域图I、横担区域图J各自检测到的直线分别进行聚类运算,再根据直线的斜率约束获得横担区域图I、横担区域图J各自横担边缘的三条直线;
步骤6、在横担区域图I中横担边缘的三条直线的每一条直线上均等间距选取n个特征点,用横担区域图J中横担边缘的三条直线对横担区域图I对应直线上的特征点进行匹配,然后利用双目测距原理获取所有特征点的三维坐标;
步骤7、利用步骤6获得的所有特征点的三维坐标,采用最小二乘法拟合出横担两个平面的法向量x1和x3,从而完成横担姿态的测量。
本发明与现有技术相比,其显著优点为:1)本发明是完全自主式测量方法,不需要人工干预,有效降低了工作人员工作的强度和难度,提高了更换避雷器作业效率;2)本发明能够去除大量环境因素,在复杂环境下也能准确测量横担的姿态,且稳定性好,提高了带电作业机器人机械臂与避雷器对准精度。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为本发明作业流程图。
图2为本发明中待测量的横担空间结构示意图,其中(a)为横担空间几何模型,(b)为横担主体侧视图。
图3为本发明中使用的全卷积神经网络结构。
图4为本发明实施例中双目相机采集的作业现场图像,其中(a)为左目图像,(b)为右目图像。
图5为本发明实施例中基于全卷积神经网络(FCN)算法的横担区域分割图像,其中(a)为左目分割图像,(b)为右目分割图像。
图6为本发明实施例中结合FCN算法对横担图像进行图像分割和Canny边缘检测的结果,其中(a)为左目横担边缘检测结果,(b)为右目横担边缘检测结果。
图7为本发明实施例中利用霍夫变换检测横担区域的直线,其中(a)为左目横担边缘直线检测结果,(b)为右目横担边缘直线检测结果。
图8为本发明实施例中基于聚类方法和斜率约束筛选直线结果,其中(a)为左目横担边缘三条直线检测结果,(b)为右目横担边缘三条直线检测结果。
图9为本发明实施例中左目图像特征点提取结果。
图10为本发明实施例中左、右目图像横担直线特征点匹配结果。
具体实施方式
为了说明本发明的技术方案及技术目的,下面结合附图及具体实施例对本发明做进一步的介绍。
结合图1,本发明基于双目视觉的复杂背景下横担姿态测量方法,包括以下步骤:
步骤1、对双目相机的内外参数进行初始化,如表1、表2所示。
表1左右摄像机参数标定结果
表2双目摄像机位置标定结果
步骤2、利用双目相机采集现场横担图像,获得左目图像A、右目图像B,如图4所示。
步骤3、采用全卷积神经网络(FCN)算法对步骤2得到的左目图像A、右目图像B分别进行图像分割,获得图像分割后的横担区域图C、横担区域图D,如图5所示。
其中,FCN网络结构图如图3所示,采用了VGG19网络架构,原VGG19网络拥有16个卷积层和3个全连接层,本发明将3个全连接层转化为卷积层,其中每层的网络参数如表3所示:
表3 FCN网络结构参数
步骤4、通过边缘检测、掩膜运算对左目图像A、右目图像B、横担区域图C、横担区域图D进行处理,获取边缘检测后的横担区域图I、横担区域图J,如图6所示。具体为:
步骤4-1、采用形态学处理分别去除步骤3获得的横担区域图C、横担区域图D中的空洞和白斑,获得新的横担区域图E、横担区域图F;
步骤4-2、分别对左目图像A、右目图像B进行Canny边缘检测,获得左目边缘检测图像G、右目边缘检测图像H;
步骤4-3、通过步骤4-1获得的横担区域图E、横担区域图F分别对步骤4-2的左目边缘检测图像G、右目边缘检测图像H进行掩膜运算,获得边缘检测后的横担区域图I、横担区域图J。
步骤5、采用霍夫变换对步骤4获得的横担区域图I、横担区域图J进行直线检测,然后在霍夫空间中对横担区域图I、横担区域图J各自检测到的直线分别进行聚类运算,再根据直线的斜率约束获得横担区域图I、横担区域图J各自横担边缘的三条直线。其中率约束的范围为k∈(-0.5,0.5),k为直线的斜率。
霍夫变换的基本思想是将原图像空间变换到霍夫参数空间,用大多数边缘点符合某种参数形式来描述原图像中的特定形状,通过累加器进行累加,累加器中峰值所对应的信息即为原图像中特定形状在参数空间的描述。
极坐标系中的直线方程可以表示为:
ρ=xcosθ+ysinθ
式中,ρ为原点到直线的距离,θ为直线法线方向与x轴的夹角。采用霍夫直线拟合可获得边缘图像中的直线集{lk:k=1,2,3,L,n}。
对于边缘图像中的任一边缘点pi和一条直线lk,若点pi与lk的距离
D(pi,lk)<d
式中,d为固定阈值,则认为点pi在直线lk上。采用该方法对每条直线进行投票,每条直线投票数记为Vk(k=1,2,3,L,n),表示直线上的点数,若Vk小于阈值v,则将lk从直线集中去除。
霍夫空间每个点的ρ和θ与直线的截距和斜率一一对应,所以直线的聚类问题可以转化为霍夫空间的点聚类问题。若霍夫空间中两个点pi,pj的距离
D(pi,pj)<dh
式中,dh为固定阈值,则将pi,pj作为一类。对霍夫空间中所有点聚类完成后,对每个类进行点坐标的平均处理,记霍夫空间中的一点为(θii),则有:
式中,Cj为点(θii)的类别,为聚类平均后的直线参数,n为Cj类中的点数。实际带电作业过程中,横担平面与作业平台平面夹角有限,而双目相机安装于作业平台的相机支架上。对参数为的直线进行数值约束,可最终得到三条直线。
步骤6、在横担区域图I中横担边缘的三条直线的每一条直线上均等间距选取n个特征点,用横担区域图J中横担边缘的三条直线对横担区域图I对应直线上的特征点进行匹配,然后利用双目测距原理获取所有特征点的三维坐标。其中n大于5。
对于标定好的双目视觉系统,只需获得目标在左右相机像素坐标系下的坐标,即可求得该目标的三维坐标:
式中,(Xc,Yc,Zc)即为图像中任意点P的三维坐标,(u1,v1)和(u2,v2)分别是点P在左右目相机像素坐标系下的坐标,fx、fy为左右相机焦距,B为左右相机的投影中心之间的连线距离,左右摄像机物理坐标系下的原点在像素坐标系下的坐标为(u0,v0)。
步骤7、利用步骤6获得的所有特征点的三维坐标,采用最小二乘法拟合出横担两个平面的法向量x1和x3,从而完成横担姿态的测量。具体为:
步骤7-1、根据步骤6获取的所有特征点的三维坐标,获取横担区域图I中横担两个平面各自的向量矩阵I1、I2;具体为:
步骤7-1-1、根据步骤6获取的所有特征点的三维坐标,求取横担区域图I中横担两个平面中每个平面内特征点构成的n个向量,具体为:
结合图2,记横担区域图I中横担边缘的三条直线分别为L1、L2、L3,直线L1、L2构成平面P,直线L2、L3构成平面Q,L1、L2、L3上特征点的坐标表示分别为{(X1i,Y1i,Z1i):i=1,2,3,…,n}、{(X2i,Y2i,Z2i):i=1,2,3,…,n}和{(X3i,Y3i,Z3i):i=1,2,3,…,n},
求取平面P内的n个向量:
求取平面Q内的n个向量:
关于αi、βi的公式中,n为每一条直线上的特征点数,αi为平面P内的第i个向量,βi为平面Q内的第i个向量,(X1*,Y1*,Z1*)为直线L1上第“*”个特征点的坐标,(X2*,Y2*,Z2*)为直线L2上第“*”个特征点的坐标,(X3*,Y3*,Z3*)为直线L3上第“*”个特征点的坐标;
步骤7-1-2、根据步骤7-1-1中的式αi、βi获得平面P、平面Q的向量矩阵分别为I1=[α123,…αn]T、I2=[β123,…βn]T
步骤7-2、根据步骤7-1获得的向量矩阵I1、I2结合最小二乘法求取横担区域图I中横担两个平面的法向量x1、x3,具体为:
I1·x1=0
I2·x3=0
式中,x1是横担P面的法向量,x3是横担Q面的法向量,使用最小二乘法求解矩阵方程。
实施例
本发明提出的基于双目视觉的复杂背景下横担姿态测量方法,包括以下步骤:
1.对双目相机的内外参数进行初始化;
2.利用双目相机采集横担图像,获得左目图像4(a)、右目图像4(b);
3.采用全卷积神经网络算法对步骤2得到的左目图像4(a)、右目图像4(b)分别进行图像分割,获得图像分割后的横担区域图5(a)、横担区域图5(b);
4.分别对左目图像4(a)、右目图像4(b)进行Canny边缘检测,把边缘检测结果分别与步骤3中获得的横担区域图5(a)、横担区域图5(b)进行掩膜运算,获得边缘检测后的横担区域图6(a)、横担区域图6(b);
5.采用霍夫变换对步骤4获得的横担区域图6(a)、横担区域图6(b)进行直线检测,得到图7,然后在霍夫空间中对图7(a)、图7(b)各自检测到的直线分别进行聚类运算,再根据直线的斜率约束(±0.5)获得图7(a)、图7(b)各自横担边缘的三条直线如图8(a)、图8(b);
6.在图8(a)中横担边缘的三条直线的每一条直线上均等间距选取特征点n个,在本实施例中取n=6,得到图9,用图8(b)中横担边缘的三条直线对图9中对应直线上的特征点进行匹配,得到图10,然后利用双目测距原理获取所有特征点的三维坐标;
7.利用步骤6获得的所有特征点的三维坐标,采用最小二乘法拟合出横担两个平面的法向量x1和x3,完成横担姿态的测量。
本发明能够自主、快速的检测复杂背景下横担的姿态,为带电作业机器人机械臂末端姿态控制提供有效数据,从而使得带电作业机器人根据横担的姿态准确的调整机械臂末端手爪的方向,使其能够对准避雷器,完成后续避雷器的抓取和拆卸工作,具有好的应用前景和价值。

Claims (8)

1.一种基于双目视觉的复杂背景下横担姿态测量方法,其特征在于,包括以下步骤:
步骤1、对双目相机的内外参数进行初始化;
步骤2、利用双目相机采集横担图像,获得左目图像A、右目图像B;
步骤3、对步骤2得到的左目图像A、右目图像B分别进行图像分割,获得图像分割后的横担区域图C、横担区域图D;
步骤4、通过边缘检测、掩膜运算对左目图像A、右目图像B、横担区域图C、横担区域图D进行处理,获取边缘检测后的横担区域图I、横担区域图J;
步骤5、采用霍夫变换对步骤4获得的横担区域图I、横担区域图J进行直线检测,然后在霍夫空间中对横担区域图I、横担区域图J各自检测到的直线分别进行聚类运算,再根据直线的斜率约束获得横担区域图I、横担区域图J各自横担边缘的三条直线;
步骤6、在横担区域图I中横担边缘的三条直线的每一条直线上均等间距选取n个特征点,用横担区域图J中横担边缘的三条直线对横担区域图I对应直线上的特征点进行匹配,然后利用双目测距原理获取所有特征点的三维坐标;
步骤7、利用步骤6获得的所有特征点的三维坐标,采用最小二乘法拟合出横担两个平面的法向量x1和x3,从而完成横担姿态的测量。
2.根据权利要求1所述的基于双目视觉的复杂背景下横担姿态测量方法,其特征在于,步骤3中图像分割采用的是全卷积神经网络算法。
3.根据权利要求1所述的基于双目视觉的复杂背景下横担姿态测量方法,其特征在于,步骤4中的边缘检测为Canny边缘检测。
4.根据权利要求1或3所述的基于双目视觉的复杂背景下横担姿态测量方法,其特征在于,步骤4具体为:
步骤4-1、采用形态学处理分别去除步骤3获得的横担区域图C、横担区域图D中的空洞和白斑,获得新的横担区域图E、横担区域图F;
步骤4-2、对左目图像A、右目图像B分别进行Canny边缘检测,获得左目边缘检测图像G、右目边缘检测图像H;
步骤4-3、通过步骤4-1获得的横担区域图E、横担区域图F分别对步骤4-2获得的左目边缘检测图像G、右目边缘检测图像H进行掩膜运算,获得边缘检测后的横担区域图I、横担区域图J。
5.根据权利要求1所述的基于双目视觉的复杂背景下横担姿态测量方法,其特征在于,步骤5中斜率约束的范围为k∈(-0.5,0.5),其中k为直线的斜率。
6.根据权利要求1所述的基于双目视觉的复杂背景下横担姿态测量方法,其特征在于,步骤6中n大于5。
7.根据权利要求1所述的基于双目视觉的复杂背景下横担姿态测量方法,其特征在于,步骤7具体为:
步骤7-1、根据步骤6获取的所有特征点的三维坐标,获取横担区域图I中横担两个平面各自的向量矩阵I1、I2
步骤7-2、根据步骤7-1获得的向量矩阵I1、I2结合最小二乘法求取横担区域图I中横担两个平面的法向量x1、x3,具体为:
8.根据权利要求7所述的基于双目视觉的复杂背景下横担姿态测量方法,其特征在于,步骤7-1具体为:
步骤7-1-1、根据步骤6获取的所有特征点的三维坐标,求取横担区域图I中横担两个平面中每个平面内特征点构成的n个向量,具体为:
记横担区域图I中横担边缘的三条直线分别为L1、L2、L3,直线L1、L2构成平面P,直线L2、L3构成平面Q,L1、L2、L3上特征点的坐标表示分别为{(X1i,Y1i,Z1i):i=1,2,3,…,n}、{(X2i,Y2i,Z2i):i=1,2,3,…,n}和{(X3i,Y3i,Z3i):i=1,2,3,…,n},
求取平面P内的n个向量:
求取平面Q内的n个向量:
上述关于αi、βi的公式中,n为每一条直线上的特征点数,αi为平面P内的第i个向量,βi为平面Q内的第i个向量,(X1*,Y1*,Z1*)为直线L1上第“*”个特征点的坐标,(X2*,Y2*,Z2*)为直线L2上第“*”个特征点的坐标,(X3*,Y3*,Z3*)为直线L3上第“*”个特征点的坐标;
步骤7-1-2、根据步骤7-1-1中的αi、βi获得平面P、平面Q的向量矩阵分别为I1=[α123,…αn]T、I2=[β123,…βn]T
CN201810498427.7A 2018-05-23 2018-05-23 一种基于双目视觉的复杂背景下横担姿态测量方法 Active CN108717713B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810498427.7A CN108717713B (zh) 2018-05-23 2018-05-23 一种基于双目视觉的复杂背景下横担姿态测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810498427.7A CN108717713B (zh) 2018-05-23 2018-05-23 一种基于双目视觉的复杂背景下横担姿态测量方法

Publications (2)

Publication Number Publication Date
CN108717713A true CN108717713A (zh) 2018-10-30
CN108717713B CN108717713B (zh) 2021-11-30

Family

ID=63900365

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810498427.7A Active CN108717713B (zh) 2018-05-23 2018-05-23 一种基于双目视觉的复杂背景下横担姿态测量方法

Country Status (1)

Country Link
CN (1) CN108717713B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112880561A (zh) * 2021-01-19 2021-06-01 华中科技大学 一种基于机器视觉的降落伞绳圈位姿检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007113261A (ja) * 2005-10-20 2007-05-10 Norimasa Ozaki 起立姿勢保持機構を備える止水施設
CN106476012A (zh) * 2016-10-18 2017-03-08 国网山东省电力公司电力科学研究院 一种新型辅助机械臂控制系统及其控制方法
CN106525003A (zh) * 2016-12-16 2017-03-22 深圳市未来感知科技有限公司 一种基于双目视觉的姿态测量方法
CN107767423A (zh) * 2017-10-10 2018-03-06 大连理工大学 一种基于双目视觉的机械臂目标定位抓取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007113261A (ja) * 2005-10-20 2007-05-10 Norimasa Ozaki 起立姿勢保持機構を備える止水施設
CN106476012A (zh) * 2016-10-18 2017-03-08 国网山东省电力公司电力科学研究院 一种新型辅助机械臂控制系统及其控制方法
CN106525003A (zh) * 2016-12-16 2017-03-22 深圳市未来感知科技有限公司 一种基于双目视觉的姿态测量方法
CN107767423A (zh) * 2017-10-10 2018-03-06 大连理工大学 一种基于双目视觉的机械臂目标定位抓取方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吕耀辉等: "快速傅里叶模板匹配算法及其在输电线中的应用", 《电子世界》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112880561A (zh) * 2021-01-19 2021-06-01 华中科技大学 一种基于机器视觉的降落伞绳圈位姿检测方法及系统

Also Published As

Publication number Publication date
CN108717713B (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN107392964B (zh) 基于室内特征点和结构线结合的室内slam方法
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN111045017B (zh) 一种激光和视觉融合的巡检机器人变电站地图构建方法
CN107392247B (zh) 一种电力线下方地物安全距离实时检测方法
CN105023014B (zh) 一种无人机巡检输电线路图像内的杆塔目标提取方法
CN106340009B (zh) 一种基于平行双目的电力线检测方法及系统
CN103913131B (zh) 一种基于双目视觉的自由曲面法矢量测量方法
CN107194991B (zh) 一种基于骨架点局域动态更新的三维全局可视化监控系统构建方法
CN107491781A (zh) 一种巡检机器人可见光与红外传感器数据融合方法
CN104573713B (zh) 一种基于图像纹理特征的互感器红外图像识别方法
CN109685886A (zh) 一种基于混合现实技术的配网三维场景建模方法
CN103278138A (zh) 一种复杂结构薄部件三维位置及姿态的测量方法
CN109961485A (zh) 一种基于单目视觉进行目标定位的方法
CN103727930A (zh) 一种基于边缘匹配的激光测距仪与相机相对位姿标定方法
CN101996407A (zh) 一种多相机颜色标定方法
CN103852060A (zh) 一种基于单目视觉的可见光图像测距方法
CN110232655A (zh) 一种用于煤场的红外-可见光双光图像拼接与融合方法
CN106296698A (zh) 一种基于立体视觉的闪电三维定位方法
CN109523528A (zh) 一种基于无人机双目视觉sgc算法的输电线路提取方法
CN109192055A (zh) 一种变电站设备铭牌三维模型快速获取匹配的方法
CN106886745B (zh) 一种基于实时在线地图生成的无人机侦察方法
CN103871072A (zh) 基于投影数字高程模型的正射影像镶嵌线自动提取方法
CN109300118A (zh) 一种基于rgb图像的高压电力线路无人机巡检方法
CN112183285A (zh) 一种变电站巡检机器人的3d点云地图融合方法和系统
CN108717713A (zh) 一种基于双目视觉的复杂背景下横担姿态测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant