CN109794948B - 配网带电作业机器人及识别定位方法 - Google Patents
配网带电作业机器人及识别定位方法 Download PDFInfo
- Publication number
- CN109794948B CN109794948B CN201910163831.3A CN201910163831A CN109794948B CN 109794948 B CN109794948 B CN 109794948B CN 201910163831 A CN201910163831 A CN 201910163831A CN 109794948 B CN109794948 B CN 109794948B
- Authority
- CN
- China
- Prior art keywords
- target object
- depth
- space
- data
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种配网带电作业机器人及识别定位方法,涉及机器人技术领域,该机器人包括机器人主体、滑动装置和识别定位装置;滑动装置包括滑动轨道和滑动平台;识别定位装置包括控制器、深度摄像机以及在滑动平台上的工业摄像机和激光雷达;深度摄像机、工业摄像机和激光雷达按照控制器的控制采集各自视野内的深度场景图像数据、二维场景图像数据和空间数据;控制器通过深度场景图像数据确定目标对象的深度空间坐标;并当深度空间坐标至滑动平台的距离小于设定阈值时通过工业摄像机和激光雷达采集的数据计算目标对象的空间坐标。这种利用可移动的工业摄像机和激光雷达对目标对象进行定位的方式能够真实反映目标对象的空间位置。
Description
技术领域
本发明涉及机器人技术领域,尤其是涉及一种配网带电作业机器人及识别定位方法。
背景技术
为了避免工作人员人工进行高空带电作业时存在的触电或坠落等风险,工作人员可以通过带电作业机器人定位高空带电物(目标对象)的三维信息,根据上述三维信息操控带电作业机器人对目标对象进行带电作业。由于带电作业机器人的监视摄像头的拍摄视角有限,这导致工作人员在地面监控室中很难理解带电作业机器人定位的三维信息,影响工作人员操控带电作业机器人对目标对象进行作业的准确性。
发明内容
有鉴于此,本发明的目的在于提供一种配网带电作业机器人及识别定位方法,以缓解带电作业机器人因拍摄视角有限而引发工作人员无法准确确定目标对象的三维坐标的技术问题。
第一方面,本发明实施例提供了一种配网带电作业机器人,该机器人包括机器人主体、设置在机器人主体上的滑动装置和识别定位装置;滑动装置包括滑动轨道,与滑动轨道连接的滑动平台;其中,滑动轨道固定在机器人主体的机身的侧面上;滑动平台用于沿滑动轨道移动;识别定位装置包括控制器,与控制器连接的深度摄像机、工业摄像机和激光雷达;其中,工业摄像机和激光雷达固定连接在滑动平台上;深度摄像机、工业摄像机和激光雷达均按照控制器的控制采集数据,将采集的数据传输至控制器;其中,深度摄像机用于采集深度摄像机视野内场景的深度场景图像数据;工业摄像机用于采集工业摄像机视野内场景的二维场景图像数据;激光雷达用于通过发射激光采集激光射程内场景的空间数据;控制器还用于确定深度场景图像数据中的目标对象的深度空间坐标;以及,当深度空间坐标至滑动平台的距离小于设定阈值时,触发工业摄像机和激光雷达进行数据采集,根据工业摄像机采集的二维场景图像和激光雷达采集的空间数据,计算目标对象相对配网带电作业机器人的空间坐标。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,滑动装置还包括与滑动平台连接的位置传感器和驱动设备;位置传感器用于检测滑动平台相对深度摄像机的实时相对坐标,并将实时相对坐标发送至控制器;控制器还用于当得到目标对象的深度空间坐标后,向驱动设备发送驱动命令;以及,计算滑动平台的实时相对坐标与深度空间坐标的距离,当深度空间坐标至滑动平台的距离小于设定阈值时,向驱动设备发送停止命令;驱动设备用于在接收到驱动命令时,驱动滑动平台按照驱动命令移动;以及在接收到停止命令时,停止滑动平台移动。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,滑动轨道包括第一轨道和与第一轨道垂直固定连接的第二轨道。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,深度摄像机与滑动轨道固定在机器人主体的机身的同一侧面上;深度摄像机包括第一深度摄像机和第二深度摄像机;第一深度摄像机的摄像头和第二深度摄像机的摄像头分别朝向深度摄像机所在侧面的前方位和上方位。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,其中,机器人主体的机械手臂末端连接测距装置;测距装置用于当机械手臂移动到空间坐标下时,对空间坐标下的目标对象进行再定位,以驱动机械手臂对目标对象进行作业。
第二方面,本发明实施例还提供一种识别定位方法,该方法应用于第一方面所述的配网带电作业机器人的控制器上,该方法包括:当配网带电作业机器人启动作业任务时,触发深度摄像机采集深度摄像机视野内场景的深度场景图像数据;识别深度场景图像数据中的目标对象,并确定目标对象的深度空间坐标;当深度空间坐标至滑动平台的距离小于设定阈值时,确定滑动平台相对配网带电作业机器人的平台坐标,并触发工业摄像机采集工业摄像机视野内场景的二维场景图像数据;以及,触发激光雷达采集激光射程内场景的空间数据;根据平台坐标、工业摄像机采集的二维场景图像数据和激光雷达采集的空间数据,计算目标对象相对配网带电作业机器人的空间坐标。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,识别深度场景图像数据中的目标对象,并确定目标对象的深度空间坐标的步骤,包括:将深度场景图像数据分割成为多个预设定尺寸的场景直方图;提取场景直方图中点云数据的颜色梯度变化和表面法向量;将颜色梯度变化和表面法向量与目标匹配模板进行相似度匹配,得到场景直方图的相似度;将相似度达到预设相似阈值的场景直方图对应的空间坐标设定为目标对象的深度空间坐标。
结合第二方面的第一种可能的实施方式,本发明实施例提供了第二方面的第二种可能的实施方式,其中,目标匹配模板的建立步骤,包括:采集目标对象样本的三维点云数据;提取三维点云数据中的颜色梯度样本和表面法向量样本;将提取到的颜色梯度样本和表面法向量样本转换为设定格式,得到目标匹配模板。
结合第二方面,本发明实施例提供了第二方面的第三种可能的实施方式,其中,根据平台坐标、工业摄像机采集的二维场景图像数据和激光雷达采集的空间数据,计算目标对象相对配网带电作业机器人的空间坐标的步骤,包括:在二维场景图像数据中,确定工业摄像机的拍摄视野内的目标对象所在的区域框;对区域框内的二维场景图像数据进行图像灰度处理和图像锐化处理,得到处理后的二维场景图像数据;提取处理后的二维场景图像数据中目标对象的轮廓线条;将轮廓线条进行直线拟合,得到拟合后的目标对象;将拟合后的目标对象与空间数据进行图像匹配,得到目标对象在空间数据的空间坐标;根据平台坐标将目标对象在空间数据中的空间坐标转换到相对配网带电作业机器人的坐标系下,得到目标对象相对配网带电作业机器人的空间坐标。
结合第二方面的第三种可能的实施方式,本发明实施例提供了第二方面的第四种可能的实施方式,其中,将拟合后的目标对象与空间数据进行图像匹配,得到目标对象在空间数据的空间坐标的步骤,包括:根据工业摄像机与激光雷达之间预建立的坐标转换关系式,将拟合后的目标对象转换到工业摄像机对应的坐标系下,得到转换后的目标对象;在空间数据的点云数据中查找与转换后的目标对象匹配的点云数据;提取与转换后的目标对象匹配的点云数据对应的空间坐标;将提取到的空间坐标作为目标对象在空间数据的空间坐标。
第三方面,本发明实施例提供了一种服务器,该服务器包括存储器以及处理器,该存储器用于存储支持处理器执行第一方面所述方法的程序,该处理器被配置为用于执行该存储器中存储的程序。
第四方面,本发明实施例还提供一种计算机存储介质,用于存储计算机程序指令,当计算机执行所示计算机程序指令时,执行如第一方面所述的方法。
本发明实施例带来了以下有益效果:
上述实施例提供了一种配网带电作业机器人及识别定位方法,该机器人包括机器人主体、设置在机器人主体上的滑动装置和识别定位装置;滑动装置包括滑动轨道,与可在滑动轨道滑动的滑动平台;识别定位装置包括控制器,与控制器连接的深度摄像机以及固定在滑动平台上的工业摄像机和激光雷达;深度摄像机、工业摄像机和激光雷达按照控制器的控制分别采集各自视野内场景的深度场景图像数据、二维场景图像数据和空间数据;控制器还用于确定深度场景图像数据中的目标对象的深度空间坐标;以及,当深度空间坐标至滑动平台的距离小于设定阈值时,触发工业摄像机和激光雷达进行数据采集,根据工业摄像机采集的二维场景图像和激光雷达采集的空间数据,计算目标对象相对配网带电作业机器人的空间坐标。这种利用可移动的工业摄像机和激光雷达对目标对象进行定位的方式扩大配网带电作业机器人的定位视角,所获得的空间坐标能够真实反映目标对象的空间位置。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种配网带电作业机器人的结构示意图;
图2为本发明实施例提供的另一种配网带电作业机器人的结构示意图;
图3为本发明实施例提供的一种识别定位方法的流程图;
图4为本发明实施例提供的另一种识别定位方法的流程图。
图标:
102-机器人主体;104-滑动装置;106-识别定位装置;108-滑动轨道;110-滑动平台;112-深度摄像机;114-工业摄像机;116-激光雷达;118-控制器;120-位置传感器;122-驱动设备;202-第一轨道;204-第二轨道;206-第一深度摄像机;208-第二深度摄像机;210-测距装置。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,工作人员在操控带电作业机器人进行高空带电作业的时候,由于带电作业机器人的拍摄视角受限,导致工作人员无法准确目标对象的三维坐标,从而影响操控带电作业机器人进行带电作业,基于此,本发明实施例提供的一种配网带电作业机器人及识别定位方法,可以扩大定位视角且所获得目标对象的空间坐标能够真实反映目标对象的空间位置。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种配网带电作业机器人进行详细介绍。
实施例一:
本实施例提供了一种配网带电作业机器人,如图1所示的一种配网带电作业机器人的结构示意图,该机器人包括机器人主体102、设置在机器人主体上的滑动装置104和识别定位装置106;
具体实现时,滑动装置104包括滑动轨道108,与滑动轨道108连接的滑动平台110;其中,滑动轨道108固定在机器人主体102的机身的侧面上,如以水平或垂直于机身底部的水平线的角度安装在机身侧面;
上述滑动平台用于沿滑动轨道108移动,该滑动平台110的滑动形式可以为滚轮移动,也可以为在外力驱动下进行移动,如利用伺服杆或弹簧装置驱动滑动平台;
进一步,识别定位装置包括控制器118,与控制器连接的深度摄像机112、工业摄像机114和激光雷达116;
具体实现时,工业摄像机114和激光雷达116固定连接在滑动平台110上,如该工业摄像机114和激光雷达116可以以固定相对位置安装在滑动平台110上;其中,工业摄像机114的正前方视角轴和激光雷达116的正前方视角轴是一致的。
其中,深度摄像机112、工业摄像机114和激光雷达116均按照控制器118的控制采集数据,将采集的数据传输至控制器118;具体地,深度摄像机112用于采集深度摄像机视野内场景的深度场景图像数据;工业摄像机114用于采集工业摄像机视野内场景的二维场景图像数据;激光雷达116用于通过发射激光采集激光射程内场景的空间数据;
上述控制器118还用于确定深度场景图像数据中的目标对象的深度空间坐标;以及,当深度空间坐标至滑动平台的距离小于设定阈值时,触发工业摄像机114和激光雷达116进行数据采集,根据工业摄像机114采集的二维场景图像数据和激光雷达116采集的空间数据,计算目标对象相对配网带电作业机器人的空间坐标。
上述目标对象可以为高压线或配电箱等;上述深度空间坐标反映的是目标对象相对深度摄像机112的坐标;上述设定阈值通常为工业摄像机114的拍摄最远视野和激光雷达116的拍摄最远视野;
上述实施例提供的配网带电作业机器人包括机器人主体、设置在机器人主体上的滑动装置和识别定位装置;滑动装置包括滑动轨道,与可在滑动轨道滑动的滑动平台;识别定位装置包括控制器,与控制器连接的深度摄像机以及固定在滑动平台上的工业摄像机和激光雷达;深度摄像机、工业摄像机和激光雷达按照控制器的控制分别采集各自视野内场景的深度场景图像数据、二维场景图像数据和空间数据;控制器还用于确定深度场景图像数据中的目标对象的深度空间坐标;以及,当深度空间坐标至滑动平台的距离小于设定阈值时,触发工业摄像机和激光雷达进行数据采集,根据工业摄像机采集的二维场景图像和激光雷达采集的空间数据,计算目标对象相对配网带电作业机器人的空间坐标。这种利用可移动的工业摄像机和激光雷达对目标对象进行定位的方式扩大配网带电作业机器人的定位视角,所获得的空间坐标能够真实反映目标对象的空间位置。
为了确保目标对象的深度空间坐标所在的空间进入工业摄像机114的视野范围和激光雷达116的视野范围内,上述滑动装置104还包括与滑动平台110连接的位置传感器120和驱动设备122;
位置传感器120用于检测滑动平台110相对深度摄像机112的实时相对坐标,并将实时相对坐标发送至控制器118;
控制器118还用于当得到目标对象的深度空间坐标后,向驱动设备122发送驱动命令;以及,计算滑动平台110的实时相对坐标与深度空间坐标的距离,当深度空间坐标至滑动平台110的距离小于设定阈值时,向驱动设备122发送停止命令;
驱动设备122用于在接收到驱动命令时,驱动滑动平台110按照驱动命令移动;以及在接收到停止命令时,停止滑动平台110移动。
上述控制器118可以通过深度空间坐标和位置传感器120采集的实时相对坐标,计算得到滑动平台110相对深度空间坐标的相对位置,该相对位置包括相对距离和相对方位;控制器118可以根据上述相对位置计算如果实现深度空间坐标至滑动平台110的距离小于设定阈值时,滑动平台110在滑动轨道108方向上需要移动的移动距离;在控制器118控制滑动平台110移动的过程中,控制器118可以将携带有滑动平台110需要移动的移动距离和移动方向的驱动命令发送至驱动设备122;驱动设备122可以通过推动或拉动的形式使滑动平台110移动,该驱动设备122可以为配置有伺服杆的电机,该伺服杆连接有滑动平台110,该电机通过转子正转或反转将转动位移转化为伺服杆的直线位移以推动或拉动滑动平台移动;其中,转子正转和转子反转的转动形式与上述驱动命令中的移动方向有关。
在判断深度空间坐标与滑动平台110的距离是否小于设定阈值的过程中,控制器118可以通过实时计算滑动平台110的实时相对坐标和深度空间坐标的距离实现,也可以通过监控电机的转动位移或滑动平台的移动位移是否已达到滑动平台110需要的移动距离来实现。
在上述配网带电作业机器人的基础上,为了确保该配网带电作业机器人的定位视角,本实施例提供了另一种配网带电作业机器人,参考图2所示的另一种配网带电作业机器人的结构示意图。
该配网带电作业机器人滑动轨道108可以包括第一轨道202和与第一轨道垂直固定连接的第二轨道204,还包括机器人主体102、连接第一轨道202和第二轨道204的滑动平台110及该滑动平台110上的工业摄像机114和激光雷达116;
上述深度摄像机112与滑动轨道108固定在机器人主体102的机身的同一侧面上;其中,深度摄像机112包括第一深度摄像机206和第二深度摄像机208;具体地,第一深度摄像机206的摄像头和第二深度摄像机208的摄像头分别朝向深度摄像机112所在侧面的前方位和上方位。
此外,机器人主体102的机械手臂末端还可以连接测距装置210;该测距装置用于当机械手臂移动到空间坐标下时,对空间坐标下的目标对象进行再定位,以驱动机械手臂对目标对象进行作业。
本实施例提供的配网带电作业机器人通过合理布局激光雷达、工业摄像机和深度摄像机的位置,将激光雷达和工业摄像机放置在两组相互垂直的滑台上,深度摄像机朝向前方位和上方位,保证配网带电作业机器人的定位视角范围。
实施例二:
在上述实施例一所述的配网带电作业机器人的基础上,本实施例提供了一种识别定位方法,参考图3所示的一种识别定位方法的流程图,该方法应用于实施例一所述的配网带电作业机器人的控制器上,该方法包括以下步骤:
步骤S302,当配网带电作业机器人启动作业任务时,触发深度摄像机拍摄深度摄像机视野内场景的深度场景图像数据;其中,上述深度场景图像数据可以图像数据或视频中的一个视频帧数据,该图像或视频都可以由深度摄像机采集得到。
步骤S304,识别深度场景图像数据中的目标对象,并确定目标对象的深度空间坐标;
在识别目标对象的过程中,可以利用预先训练的目标识别模型对深度场景图像数据进行识别以确定目标对象所在的区域框,也可以根据预先得到模型图表通过匹配深度场景图像数据中的颜色、轮廓等方式来确定目标对象所在的区域框。该目标对象所在的区域框的空间坐标即为目标对象的深度空间坐标,具体的,上述目标识别模型可以根据一个或多个目标样本库通过深度学习、神经网络学习或模型识别等手段预先训练得到的;上述模型图像也可以归纳目标样本库的样本特征点,如形状、颜色、灰度或轮廓线等得到;进一步,该深度空间坐标是目标对象相对深度摄像机的坐标。
步骤S306,当深度空间坐标至滑动平台的距离小于设定阈值时,确定滑动平台相对配网带电作业机器人的平台坐标,并触发工业摄像机采集工业摄像机视野内场景的二维场景图像数据;以及,触发激光雷达采集激光射程内场景的空间数据;
上述二维场景图像数据可以是图像数据或视频中的一个视频帧数据,该图像或视频都可以由工业摄像机采集得到。
在确定滑动平台相对配网带电作业机器人的平台坐标的过程中,可以通过滑动装置上的位置传感器采集滑动平台在滑动轨道上的位置信息,根据已知的滑动轨道相对配网带电作业机器人的相对位置,利用位置转换的原理,得到滑动平台相对配网带电作业机器人的平台坐标。
步骤S308,根据平台坐标、工业摄像机采集的二维场景图像数据和激光雷达采集的空间数据,计算目标对象相对配网带电作业机器人的空间坐标;
在计算上述空间坐标的过程中,可以将人工和识别出的二维场景图像数据中的目标对象映射到空间数据中,得到目标对象在空间数据中的空间坐标;进一步,利用工业摄像机和激光雷达与滑动平台之间固有的位置关系,以及滑动平台的平台坐标,将目标对象在空间数据中的空间坐标转换计算,得到目标对象相对配网带电作业机器人的空间坐标。
上述实施例提供的识别定位方法通过在配网带电作业机器人启动作业任务时,触发深度摄像机采集深度摄像机视野内场景的深度场景图像数据;识别深度场景图像数据中的目标对象,并确定目标对象的深度空间坐标;当深度空间坐标至滑动平台的距离小于设定阈值时,触发工业摄像机采集工业摄像机视野内场景的二维场景图像数据;以及,触发激光雷达采集激光射程内场景的空间数据;根据平台坐标、工业摄像机采集的二维场景图像数据和激光雷达采集的空间数据,计算目标对象相对配网带电作业机器人的空间坐标。这种利用二维场景图像数据和空间数据联合目标对象的空间坐标的方式,确定了空间坐标的准确性。
在上述实施例的基础上,本实施例提供了另一种识别定位方法,参考图4所示的另一种识别定位方法的流程图;
步骤S400,当配网带电作业机器人启动作业任务时,触发深度摄像机拍摄深度摄像机视野内场景的深度场景图像数据;
步骤S401,将深度场景图像数据分割成为多个预设定尺寸的场景直方图;
在分割深度场景图像数据的过程中,可以对深度场景图像数据进行锐化、过滤等预处理,以得到清晰的场景直方图。该场景直方图的分割原则,可以以预设定尺寸的滑窗进行滑动分割,以确保不会遗漏上述深度场景图像数据中的数据。该预设定尺寸的大小可以根据人眼识别目标对象与配网带电机器人的距离设定,当上述目标对象与配网带电机器人的距离较大时,深度摄像机采集的目标对象相对较小,预设定尺寸设置较小以确保分割得到的场景直方图中有相对清晰的目标对象;当上述目标对象与配网带电机器人的距离较小时,通过将预设定尺寸设置较大可以避免将深度场景图像数据中的目标对象误分割成多块。
步骤S402,提取场景直方图中点云数据的颜色梯度变化和表面法向量;
在提取的过程中,通过获知点云数据各个点的颜色、反射光强度数据,获知整个场景直方图中的颜色梯度变化,即颜色深浅变化的梯度规律,以及场景直方图中的表面法向量,即场景直方图中物体纹理引流线数据。
步骤S403,将颜色梯度变化和表面法向量与目标匹配模板进行相似度匹配,得到场景直方图的相似度;
为了使得匹配过程中具有一定的容错性,在相似度匹配的过程中,可以将颜色梯度变化和表面法向量的八个方向的组合特征与目标匹配模板进行匹配。在匹配的过程中,可以利用目标样本的形状、颜色和/或轮廓线作为匹配依据进行匹配。
上述目标匹配模板可以由步骤11、步骤12和步骤13建立得到:
步骤11,采集目标对象样本的三维点云数据;其中,上述目标对象样本可以为高压线等常用带电设备,该三维点云数据可以为目标对象样本的图像或视频流,该图像和视频流是由安装在预设位置的摄像机或图像数据库中获知的。上述预设位置是指摄像机在拍摄图像或视频流的时候与目标对象样本的位置关系时预先设定的,如将目标对象放置在摄像机前的特定标定板或特定平面上。
步骤12,提取三维点云数据中的颜色梯度样本和表面法向量样本;
步骤13,将提取到的颜色梯度样本和表面法向量样本转换为设定格式,得到目标匹配模板。其中,该设定格式可以为表格或模板图的格式。
步骤S404,将相似度达到预设相似阈值的场景直方图对应的空间坐标设定为目标对象的深度空间坐标。其中,预设相似阈值可以存在一定的容错性,即设定相似阈值为小于100%的浮动值,如相似阈值为90%。还可以认为相似度最大的场景直方图最能反映目标对象,即相似度最大的场景直方图对应的空间坐标为目标对象的深度空间坐标。
步骤S405,当深度空间坐标至滑动平台的距离小于设定阈值时,确定滑动平台相对配网带电作业机器人的平台坐标,并触发工业摄像机采集工业摄像机视野内场景的二维场景图像数据;以及,触发激光雷达采集激光射程内场景的空间数据;
步骤S406,在二维场景图像数据中,确定工业摄像机的拍摄视野内的目标对象所在的区域框;
在确定目标对象所在区域框的过程中,可以是人工在二维场景图像数据中圈画得到的,也可以是基于预训练的目标识别模型识别得到的目标对象的所在区域。
步骤S407,对区域框内的二维场景图像数据进行图像灰度处理和图像锐化处理,得到处理后的二维场景图像数据;
步骤S408,提取处理后的二维场景图像数据中目标对象的轮廓线条;
步骤S409,将轮廓线条进行直线拟合,得到拟合后的目标对象;
步骤S410,将拟合后的目标对象与空间数据进行图像匹配,得到目标对象在空间数据的空间坐标;
在上述实施例的基础上,步骤S410,将拟合后的目标导线与空间数据进行图像匹配,得到目标对象在空间数据的空间坐标可以由步骤21~步骤24实现:
步骤21,根据工业摄像机与激光雷达之间预建立的坐标转换关系式,将拟合后的目标对象转换到工业摄像机对应的坐标系下,得到转换后的目标对象;
上述坐标转换关系式是根据工业摄像机与激光雷达的相对位置预先计算得到的。在预先计算坐标转换关系式的过程中,可以触发工业摄像机和激光雷达分别采集V字形的标定板的图像数据,在工业摄像机采集的图像数据中可以选定3个不同位置的线特征,如:处于左侧的左线ll,处于中部位置的中线lc和处于右侧位置的右线lr,同时在激光雷达采集的图像数据中可以选定至少2个不同位置的点特征和两个不同斜率的线段,如:处于左半部的左点pl和处于右半部的右点pr。上述两个不同斜率的线段的交底即为第三点特征(可以标注为处于中间位置的中点pc)。设定激光雷达相对于工业摄像机坐标系的变换关系为[R,t],其中,R,t分别为旋转矩阵和平移矩阵。将pl,pr和pc向工业摄像机的2D像平面投影可得到投影点和经过多次变换V字形标定板的位置和姿态后,并记投影点和与像平面上线特征ll、lc和lr的距离为进一步,利用迭代估计方法得到最小化误差函数:
根据上述最小化误差函数,即可得到激光雷达相对于工业摄像机坐标转换关系式。
步骤22,在空间数据的点云数据中查找与转换后的目标对象匹配的点云数据;
在查找目标对象匹配的点云数据的过程中,可以根据目标对象在二维场景图像数据的相对位置,映射到空间数据中,进而获得目标对象在空间数据中的位置信息,也可以将目标对象的轮廓线、颜色梯度变化或灰度值与空间数据进行数值匹配,进而确定目标对象对应空间数据中的点云数据。
步骤23,提取与转换后的目标对象匹配的点云数据对应的空间坐标;
步骤24,将提取到的空间坐标作为目标对象在空间数据的空间坐标。
步骤S412,根据平台坐标将目标对象的空间数据中的空间坐标转换到相对配网带电作业机器人的坐标系下,得到目标对象相对配网带电作业机器人的空间坐标。
在上述过程中,可以利用工业摄像机相对滑动平台的固有位置关系,将目标对象的空间数据中的空间坐标(即相对工业摄像机的坐标)转换到目标对象相对滑动平台的坐标上;进一步,根据滑动平台相对配网带电作业机器人的平台坐标,计算得到目标对象相对配网带电作业机器人的空间坐标。
上述实施例提供的识别定位方法将工业摄像机与激光雷达获得的数据进行融合,充分利用各个传感器在测距范围、测距精度、抗光照变化等方面的优势特点,从而提高了识别定位精度。
这种利用工业摄像机和激光雷达联合获得目标对象的空间坐标的方法,实现了二维场景图像数据和空间数据的融合,提高了目标对象定位的准确度。
本发明实施例提供的识别定位方法,与上述实施例提供的配网带电作业机器人具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
本发明实施例所提供的配网带电作业机器人及识别定位方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
附图中的流程图和结构框图显示了根据本发明的多个实施例的方法、装置和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
在本申请所提供的几个实施例中,应该理解到,所揭露方法和装置,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种配网带电作业机器人,其特征在于,所述机器人包括机器人主体、设置在所述机器人主体上的滑动装置和识别定位装置;
所述滑动装置包括滑动轨道,与所述滑动轨道连接的滑动平台;其中,所述滑动轨道固定在所述机器人主体的机身的侧面上;所述滑动平台用于沿所述滑动轨道移动;
所述识别定位装置包括控制器,与所述控制器连接的深度摄像机、工业摄像机和激光雷达;其中,所述工业摄像机和所述激光雷达固定连接在所述滑动平台上;
所述深度摄像机、工业摄像机和激光雷达均按照所述控制器的控制采集数据,将采集的数据传输至所述控制器;其中,所述深度摄像机用于采集所述深度摄像机视野内场景的深度场景图像数据;所述工业摄像机用于采集所述工业摄像机视野内场景的二维场景图像数据;所述激光雷达用于通过发射激光采集激光射程内场景的空间数据;
所述控制器还用于确定所述深度场景图像数据中的目标对象的深度空间坐标;以及,当所述深度空间坐标至所述滑动平台的距离小于设定阈值时,触发所述工业摄像机和所述激光雷达进行数据采集,根据所述工业摄像机采集的二维场景图像数据和所述激光雷达采集的空间数据,计算所述目标对象相对所述配网带电作业机器人的空间坐标。
2.根据权利要求1所述的机器人,其特征在于,所述滑动装置还包括与所述滑动平台连接的位置传感器和驱动设备;
所述位置传感器用于检测所述滑动平台相对所述深度摄像机的实时相对坐标,并将所述实时相对坐标发送至所述控制器;
所述控制器还用于当得到所述目标对象的深度空间坐标后,向所述驱动设备发送驱动命令;以及,计算所述滑动平台的实时相对坐标与所述深度空间坐标的距离,当所述深度空间坐标至所述滑动平台的距离小于设定阈值时,向所述驱动设备发送停止命令;
所述驱动设备用于在接收到所述驱动命令时,驱动所述滑动平台按照所述驱动命令移动;以及在接收到所述停止命令时,停止所述滑动平台移动。
3.根据权利要求1所述的机器人,其特征在于,所述滑动轨道包括第一轨道和与所述第一轨道垂直固定连接的第二轨道。
4.根据权利要求1所述的机器人,其特征在于,所述深度摄像机与所述滑动轨道固定在所述机器人主体的机身的同一侧面上;
所述深度摄像机包括第一深度摄像机和第二深度摄像机;
所述第一深度摄像机的摄像头和所述第二深度摄像机的摄像头分别朝向所述深度摄像机所在侧面的前方位和上方位。
5.根据权利要求1所述的机器人,其特征在于,所述机器人主体的机械手臂末端连接测距装置;
所述测距装置用于当所述机械手臂移动到所述空间坐标下时,对所述空间坐标下的目标对象进行再定位,以驱动所述机械手臂对所述目标对象进行作业。
6.一种识别定位方法,其特征在于,所述方法应用于权利要求1~5任一项所述的配网带电作业机器人的控制器上,所述方法包括:
当所述配网带电作业机器人启动作业任务时,触发所述深度摄像机采集所述深度摄像机视野内场景的深度场景图像数据;
识别所述深度场景图像数据中的目标对象,并确定所述目标对象的深度空间坐标;
当所述深度空间坐标至所述滑动平台的距离小于设定阈值时,确定所述滑动平台相对所述配网带电作业机器人的平台坐标,并触发所述工业摄像机采集所述工业摄像机视野内场景的二维场景图像数据;以及,触发所述激光雷达采集激光射程内场景的空间数据;
根据所述平台坐标、所述工业摄像机采集的二维场景图像数据和所述激光雷达采集的空间数据,计算所述目标对象相对所述配网带电作业机器人的空间坐标。
7.根据权利要求6所述的方法,其特征在于,识别所述深度场景图像数据中的目标对象,并确定所述目标对象的深度空间坐标的步骤,包括:
将所述深度场景图像数据分割成为多个预设定尺寸的场景直方图;
提取所述场景直方图中点云数据的颜色梯度变化和表面法向量;
将所述颜色梯度变化和所述表面法向量与目标匹配模板进行相似度匹配,得到所述场景直方图的相似度;
将相似度达到预设相似阈值的场景直方图对应的空间坐标设定为所述目标对象的深度空间坐标。
8.根据权利要求7所述的方法,其特征在于,所述目标匹配模板的建立步骤,包括:
采集目标对象样本的三维点云数据;
提取所述三维点云数据中的颜色梯度样本和表面法向量样本;
将提取到的所述颜色梯度样本和所述表面法向量样本转换为设定格式,得到目标匹配模板。
9.根据权利要求6所述的方法,其特征在于,根据所述平台坐标、所述工业摄像机采集的二维场景图像数据和所述激光雷达采集的空间数据,计算所述目标对象相对所述配网带电作业机器人的空间坐标的步骤,包括:
在所述二维场景图像数据中,确定所述工业摄像机的拍摄视野内的目标对象所在的区域框;
对所述区域框内的二维场景图像数据进行图像灰度处理和图像锐化处理,得到处理后的二维场景图像数据;
提取所述处理后的二维场景图像数据中目标对象的轮廓线条;
将所述轮廓线条进行直线拟合,得到拟合后的目标对象;
将拟合后的目标对象与所述空间数据进行图像匹配,得到所述目标对象在所述空间数据的空间坐标;
根据所述平台坐标将所述目标对象的所述空间数据中的空间坐标转换到相对所述配网带电作业机器人的坐标系下,得到所述目标对象相对所述配网带电作业机器人的空间坐标。
10.根据权利要求9所述的方法,其特征在于,将拟合后的目标对象与所述空间数据进行图像匹配,得到所述目标对象在所述空间数据的空间坐标的步骤,包括:
根据所述工业摄像机与所述激光雷达之间预建立的坐标转换关系式,将拟合后的目标对象转换到所述工业摄像机对应的坐标系下,得到转换后的目标对象;
在所述空间数据的点云数据中查找与所述转换后的目标对象匹配的点云数据;
提取与所述转换后的目标对象匹配的点云数据对应的空间坐标;
将提取到的所述空间坐标作为所述目标对象在所述空间数据的空间坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910163831.3A CN109794948B (zh) | 2019-03-04 | 2019-03-04 | 配网带电作业机器人及识别定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910163831.3A CN109794948B (zh) | 2019-03-04 | 2019-03-04 | 配网带电作业机器人及识别定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109794948A CN109794948A (zh) | 2019-05-24 |
CN109794948B true CN109794948B (zh) | 2020-08-21 |
Family
ID=66561639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910163831.3A Active CN109794948B (zh) | 2019-03-04 | 2019-03-04 | 配网带电作业机器人及识别定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109794948B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110334699A (zh) * | 2019-05-31 | 2019-10-15 | 国网浙江省电力有限公司金华供电公司 | 一种基于深度学习的表计自动识别系统 |
CN110421557A (zh) * | 2019-06-21 | 2019-11-08 | 国网安徽省电力有限公司淮南供电公司 | 配网带电作业机器人的环境立体感知与安全预警保护系统及方法 |
CN111753609B (zh) * | 2019-08-02 | 2023-12-26 | 杭州海康威视数字技术股份有限公司 | 一种目标识别的方法、装置及摄像机 |
CN110988586B (zh) * | 2019-10-28 | 2021-11-16 | 国电南瑞科技股份有限公司 | 一种配网带电作业机器人作业精准定位方法及系统 |
CN111027540B (zh) * | 2019-11-08 | 2024-06-04 | 深兰机器人(上海)有限公司 | 一种寻找目标对象的方法和设备 |
CN110948486A (zh) * | 2019-11-20 | 2020-04-03 | 北京国电富通科技发展有限责任公司 | 带电机器人的作业方法、装置及控制器 |
CN110861087A (zh) * | 2019-11-22 | 2020-03-06 | 深圳市优必选科技股份有限公司 | 机器人初始化定位方法、装置、移动机器人及存储介质 |
CN111070218B (zh) * | 2019-12-12 | 2021-10-15 | 北京国电富通科技发展有限责任公司 | 定位装置及定位系统 |
CN112434559A (zh) * | 2020-10-26 | 2021-03-02 | 广东凯宝机器人科技有限公司 | 一种机器人识别定位方法 |
CN112356076B (zh) * | 2021-01-13 | 2021-04-06 | 国网瑞嘉(天津)智能机器人有限公司 | 一种带电作业机器人 |
CN116753907B (zh) * | 2023-08-18 | 2023-11-10 | 中国电建集团昆明勘测设计研究院有限公司 | 一种地下深层空洞的探测方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015141676A (ja) * | 2014-01-30 | 2015-08-03 | Kddi株式会社 | ガイダンス表示装置、方法及びプログラム |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
CN108037133A (zh) * | 2017-12-27 | 2018-05-15 | 武汉市智勤创亿信息技术股份有限公司 | 一种基于无人机巡检图像的电力设备缺陷智能识别方法及其系统 |
CN109285309A (zh) * | 2018-09-30 | 2019-01-29 | 国网黑龙江省电力有限公司电力科学研究院 | 一种基于输电系统的侵入目标实时检测系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9738360B2 (en) * | 2015-01-25 | 2017-08-22 | Cam Habeger | Submersible remote controlled vehicle |
-
2019
- 2019-03-04 CN CN201910163831.3A patent/CN109794948B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015141676A (ja) * | 2014-01-30 | 2015-08-03 | Kddi株式会社 | ガイダンス表示装置、方法及びプログラム |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
CN108037133A (zh) * | 2017-12-27 | 2018-05-15 | 武汉市智勤创亿信息技术股份有限公司 | 一种基于无人机巡检图像的电力设备缺陷智能识别方法及其系统 |
CN109285309A (zh) * | 2018-09-30 | 2019-01-29 | 国网黑龙江省电力有限公司电力科学研究院 | 一种基于输电系统的侵入目标实时检测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109794948A (zh) | 2019-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109794948B (zh) | 配网带电作业机器人及识别定位方法 | |
CN112476434B (zh) | 一种基于协作机器人的视觉3d取放方法及系统 | |
CN110415342B (zh) | 一种基于多融合传感器的三维点云重建装置与方法 | |
CN112418103B (zh) | 一种基于动态双目视觉的桥式起重机吊装安全防撞系统及方法 | |
CN111476841B (zh) | 一种基于点云和图像的识别定位方法及系统 | |
CN109923583A (zh) | 一种姿态的识别方法、设备及可移动平台 | |
CN110706248A (zh) | 一种基于slam的视觉感知建图算法及移动机器人 | |
CN110281231B (zh) | 无人化fdm增材制造的移动机器人三维视觉抓取方法 | |
CN110634161A (zh) | 一种基于点云数据的工件位姿快速高精度估算方法及装置 | |
CN110334701B (zh) | 数字孪生环境下基于深度学习和多目视觉的数据采集方法 | |
CN111598172B (zh) | 基于异构深度网络融合的动态目标抓取姿态快速检测方法 | |
CN112818925A (zh) | 一种城市建筑和树冠识别方法 | |
CN109636857B (zh) | 对位方法及标定系统 | |
CN117325170A (zh) | 基于深度视觉导引机械臂抓取硬盘架的方法 | |
CN112288815A (zh) | 一种目标模位置测量方法、系统、存储介质及设备 | |
CN116766194A (zh) | 基于双目视觉的盘类工件定位与抓取系统和方法 | |
CN111160280A (zh) | 基于rgbd相机的目标物体识别与定位方法及移动机器人 | |
CN111198563B (zh) | 一种用于足式机器人动态运动的地形识别方法及系统 | |
CN111780744A (zh) | 移动机器人混合导航方法、设备及存储装置 | |
Pan et al. | Vision-based approach angle and height estimation for UAV landing | |
CN115187556A (zh) | 一种基于机器视觉的流水线上零件定位与点云获取方法 | |
US11633862B2 (en) | Automatic control method of mechanical arm and automatic control system | |
CN113814972A (zh) | 基于ai图像识别算法的机械臂移动的控制方法 | |
CN114089364A (zh) | 一种集成化的感知系统装置及实现方法 | |
Shilin et al. | Application of a Depth Camera for Constructing Complex Three-Dimensional Models in Multiple Scanning Complexes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |