CN115309151A - 巡检路径规划方法、装置、可读存储介质及程序产品 - Google Patents

巡检路径规划方法、装置、可读存储介质及程序产品 Download PDF

Info

Publication number
CN115309151A
CN115309151A CN202210851340.XA CN202210851340A CN115309151A CN 115309151 A CN115309151 A CN 115309151A CN 202210851340 A CN202210851340 A CN 202210851340A CN 115309151 A CN115309151 A CN 115309151A
Authority
CN
China
Prior art keywords
inspection
robot
path
ptz
panoramic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210851340.XA
Other languages
English (en)
Inventor
黄思鹏
覃恳
徐劲莉
谷湘煜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Launch Digital Technology Co Ltd
Original Assignee
Shenzhen Launch Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Launch Digital Technology Co Ltd filed Critical Shenzhen Launch Digital Technology Co Ltd
Priority to CN202210851340.XA priority Critical patent/CN115309151A/zh
Publication of CN115309151A publication Critical patent/CN115309151A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

本申请提供了一种巡检路径规划方法、装置、可读存储介质及程序产品,利用全景点云地图对监测点位进行标记,标记好检测点位后,根据监测点坐标和巡检点坐标,利用绝对算法模型输出机器人巡检姿态,根据全景点云地图中的全景监测路径和机器人的巡检姿态进行巡检路径规划。实现了离线规划巡检路径,缩短了规划流程,减少了路径规划时间,提高了规划效率,也避免受到机器人自身状况和机器人道路状况的影响。

Description

巡检路径规划方法、装置、可读存储介质及程序产品
技术领域
本申请涉及智能机器人领域,特别涉及为一种巡检路径规划方法、装置、可读存储介质及程序产品。
背景技术
随着人工智能不断发展,人工智能逐步与传统产业结合,例如智能巡检机器人。在传统的变电站、配电站的巡检工作中,通常是通过人工来进行巡检,但存在巡检不到位、巡检结果无法数字化的缺陷。随着巡检机器人的出现,这些问题也得到了克服。
巡检机器人是新型服务机器人的一种,主要用于生产设备的监测,及时在系统进行设备状态反馈,以便技术人员快速查找问题进行维护。巡检机器人根据巡检点位进行巡检,而巡检点位是通过人工标注得到的。目前巡检机器人的巡检流程为:人工勘测巡检点位,再根据勘测的巡检点位铺设机器人道路,机器人在铺设好的机器人道路上进行扫图建图,并记录巡检时的数据(例如巡检点位的坐标、云台的角度等数据),最终形成巡检路径。
在形成巡检路径的过程中,经常会出现道路铺设周期长、机器人自身故障导致无法到现场录制巡检点位等问题,导致巡检路径的规划迟迟无法完成。现有技术必须依靠机器人到达现场才能执行巡检点位录制、路径规划等操作,即必须在线操作,局限性较强,效率较低,耗费较长时间。
发明内容
本发明的目的在于提供一种巡检路径规划方法、装置、可读存储介质及程序产品,能够解决现有技术在规划巡检路径时必须依靠机器人到达现场才能执行,导致规划路径时局限性较强,效率较低,耗费较长时间的问题。
为了实现上述发明目的,本发明提供如下技术方案:
第一方面,提供一种巡检路径规划方法,包括如下步骤:
S1:获取巡检路径的全景点云地图,所述全景点云地图包括巡检设备模型及录制全景点云地图的全景图监测路径,所述全景图监测路径包括全景图监测点坐标;
S2:获取巡检设备模型的巡检点坐标;
S3:获取绝对算法模型,将全景图监测点坐标及巡检点坐标作为绝对算法模型的输入,获取每个巡检设备模型的机器人巡检姿态;
S4:依据全景图监测路径和机器人巡检姿态获取巡检机器人的离线规划巡检路径。
第二方面,提供一种巡检路径规划装置,所述巡检路径规划装置用于执行上述第一方面所述巡检路径规划方法的步骤。
第三方面,提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行上述第一方面所述巡检路径规划方法的步骤。
第四方面,提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述第一方面所述巡检路径规划方法的步骤。
上述巡检路径规划方法、装置、可读存储介质及程序产品,首先建立巡检路径的全景点云地图,使用户在对点云地图中巡检设备上的监测点进行标记时,能参照全景点云地图中相应的巡检设备的全景图像进行标记,不需要机器人去到现场对点云地图上的巡检设备进行标点。
同时,本申请只需要获取采集设备采集的数据即可建立巡检路径的点云地图,不需要机器人去到现场现场进行数据采集并建图,也不需要机器人去到现场确认监测点坐标。
此外,本申请利用绝对算法模型,根据全景图监测点坐标及巡检点坐标能输出巡检设备模型的机器人巡检姿态。利用计算得到机器人巡检姿态,不需要机器人去到现场确认机器人的巡检姿态。
综上,本申请不需要机器人去到现场确认监测点坐标巡检姿态,也能实现巡检路径的规划,因此不会受到机器人自身状况和机器人道路状况的影响,同时效率更高,耗费时间较短。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为一个实施例中巡检路径规划方法的流程图;
图2为一个实施例中巡检点示意图;
图3为一个实施例中巡检路径规划方法的流程图;
图4为一个实施例中巡检路径规划方法的流程图;
图5为一个实施例中巡检路径规划方法的流程图;
图6为一个实施例中巡检路径规划方法的流程图;
图7为一个实施例中机器人云台角度补偿示意图;
图8为一个实施例中巡检路径规划装置的结构示意图。
其中,
1、巡检设备;11、监测点;2、巡检机器人;21、云台;22、图像采集设备;3、全景图监测路径;31、巡检点。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
下面将结合本申请的实施例中的附图,对本申请的实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“包括”、“包含”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、终端、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。在本申请的权利要求书、说明书以及说明书附图中的术语,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体/操作/对象与另一个实体/操作/对象区分开来,而不一定要求或者暗示这些实体/操作/对象之间存在任何这种实时的关系或者顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其他实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其他实施例相结合。
在巡检机器人2的路径规划过程中,需要确定监测点11的坐标以及机器人到达监测点11时的姿态,知道了这些数据才能规划机器人的巡检路径。在现有技术中,巡检机器人2的路径规划过程为:机器人和用户去到现场,机器人上的采集设备如激光雷达先采集数据如激光数据,根据采集的数据建立点云地图。建立点云地图之后,再次控制机器人到现场,通过机器人上的图像采集装置采集画面,确定监测点11位,以及机器人的图像采集装置能采集到监测点11位的画面时的云台21位姿,保存并记录监测点11位的坐标和能采集到检测点位时的云台21姿态,根据监测点11位的坐标和能采集到检测点位时的云台21姿态规划巡检路径。在现有技术中,巡检路径的规划需要机器人去到现场才可执行,而机器人需要走专门的机器人道路才能采集数据,因此必须等到机器人道路铺设完成后才能开始规划巡检路径,进一步增加规划巡检路径所需的时间,同时也会受到机器人自身状况和机器人道路状况的影响,局限性较强。
为了缩短巡检路径规划所需的时间以及减少机器人自身状况和机器人道路状况对巡检路径规划的影响,提高路径规划效率,本申请利用全景点云地图对监测点11位进行标记,标记好检测点位后,根据监测点11坐标和巡检点31坐标,利用绝对算法模型输出机器人巡检姿态,根据全景点云地图中的全景监测路径和机器人的巡检姿态进行巡检路径规划。实现了离线规划巡检路径,缩短了规划流程,减少了路径规划时间,提高了规划效率,也避免受到机器人自身状况和机器人道路状况的影响。
下面对本申请具体的巡检路径规划流程进行说明。
如图1所示,第一方面,提出了一种巡检路径规划方法,包括如下步骤:
S1:服务器获取巡检路径的全景点云地图,所述全景点云地图包括巡检设备1模型及录制全景点云地图的全景图监测路径3,所述全景图监测路径3包括全景图监测点11坐标。
值得注意的是,全景点云地图为带有全景图像的点云地图,例如点云地图上有有一个A点,同时也有A点对应的全景图像。巡检设备1模型为巡检设备1在点云地图中显示出来的模型,巡检设备1包括主变、避雷器、隔离开关等设备。全景图监测路径3是由一个个点组成的路径,全景图监测点11坐标是巡检设备1模型上需要检测的点的坐标。
在一种优选的实现方式中,以上数据的获取可以人工利用集成有激光雷达、IMU、GNSS和全景相机的特制数据采集设备采集数据,利用激光雷达、IMU和GNSS采集的数据并结合多传感器数据的融合技术实现对环境特征进行处理,并将采集到的多种数据的相对位置关联起来进行激光SLAM建图,建立3D点云地图,并利用全景相机采集监测点11的全景图像,将3D点云地图和全景图像利用时间戳关联起来,得到巡检路径的全景点云地图,参考全景图像信息在点云地图上进行人为的监测点11位标记。以上数据的采集不需要机器人去到现场进行采集,即在机器人道路铺设期间就可以实现以上数据的采集,大大提高了巡检路径规划的效率。
而在另一种实现方式中,也可以利用机器人去现场采集数据,机器人上同样集成了激光雷达、IMU、GNSS和全景相机,将采集到的数据结合多传感器数据的融合技术实现对环境特征进行处理,并将采集到的多种数据的相对位置关联起来进行激光SLAM建图,建立3D点云地图,并利用全景相机采集监测点11的全景图像,将3D点云地图和全景图像利用时间戳关联起来,得到巡检路径的全景点云地图,参考全景图像信息在点云地图上进行人为的监测点11位标记。
S2:服务器获取巡检设备1模型的巡检点31坐标。
值得注意的是,如图2所示,在机器人的巡检过程中,巡检点31坐标是巡检机器人2到达全景图监测路径3中的巡检点31时,巡检机器人2在全景图监测路径3上的坐标。巡检机器人2的坐标通过GNSS来获取。巡检点31通过人工来确认,在全景图像中选出能完整监测到监测点11的全景图像,采集该张全景图像时对应在全景图监测路径3上的点即为巡检点31。监测点11是巡检设备1上需要进行监测的点例如巡检设备1上的各类表,监测点11的坐标通过激光雷达采集得到。
S3:服务器获取绝对算法模型,将全景图监测点11坐标及巡检点31坐标作为绝对算法模型的输入,获取每个巡检设备1模型的机器人巡检姿态。
值得注意的是,绝对算法模型可以读取选定的巡检点31和当前对应全景图监测点11生成相应的关联,结合选择的机器人模型,通过位姿转换关系换算,最终生成机器人巡检全景图监测点11时应处在的位置和云台21姿态。通过绝对算法模型得到机器人巡检全景图监测点11时应处在的位置和云台21姿态,这些数据是规划巡检路径所必需的数据,而本申请不需要机器人去到现场即可获得这些数据,和上述步骤S1、S2结合起来,不需要出动机器人就可以得到机器人巡检全景图监测点11时应处在的位置和云台21姿态,实现了离线规划巡检路径,缩短了规划流程,减少了路径规划时间,提高了规划效率,也避免受到机器人自身状况和机器人道路状况的影响。
S4:服务器依据全景图监测路径3和机器人巡检姿态获取巡检机器人2的离线规划巡检路径。
值得注意的是,当获取了多个机器人巡检全景图监测点11时应处在的位置即巡检点31坐标和姿态后,就可以根据每个巡检点31和机器人到达每个巡检点31时的位姿规划巡检路径。
上述巡检路径规划方法,首先建立巡检路径的全景点云地图,使用户在对点云地图中巡检设备1上的监测点11进行标记时,能参照全景点云地图中相应的巡检设备1的全景图像进行标记,不需要机器人去到现场对点云地图上的巡检设备1进行标点。
同时,本申请只需要获取采集设备采集的数据即可建立巡检路径的点云地图,不需要机器人去到现场现场进行数据采集并建图,也不需要机器人去到现场确认监测点11坐标。
此外,本申请利用绝对算法模型,根据全景图监测点11坐标及巡检点31坐标能输出巡检设备1模型的机器人巡检姿态。利用计算得到机器人巡检姿态,不需要机器人去到现场确认机器人的巡检姿态。
综上,本申请不需要机器人去到现场确认监测点11坐标巡检姿态,也能实现巡检路径的规划,因此不会受到机器人自身状况和机器人道路状况的影响,同时效率更高,耗费时间较短。
如图3所示,在一个实施例中,步骤S1包括:S1a:服务器获取巡检路径的点云地图和巡检设备1的全景图像;S1b:服务器根据时间戳将巡检路径的点云地图和巡检设备1的全景图像进行关联,得到巡检路径的全景点云地图。
在一种实现方式中,巡检路径的点云地图和巡检设备1的全景图像的获取可以人工利用集成有激光雷达、IMU、GNSS和全景相机的特制数据采集设备采集数据,利用激光雷达、IMU和GNSS采集的数据并结合多传感器数据的融合技术实现对环境特征进行处理,并将采集到的多种数据的相对位置关联起来进行激光SLAM建图,建立3D点云地图,并利用全景相机采集监测点11的全景图像,将3D点云地图和全景图像利用时间戳关联起来,得到巡检路径的全景点云地图,参考全景图像信息在点云地图上进行人为的监测点11位标记。以上数据的采集不需要机器人去到现场进行采集,即在机器人道路铺设期间就可以实现以上数据的采集,大大提高了巡检路径规划的效率。值得注意的是,SLAM算法在建图生成3D点云地图时会得到当前激光帧的定位信息,根据3D激光数据和全景相机数据生成的时间戳,根据全景图像的时间戳与点云地图的时间戳在一定的阈值间进行匹配关联,因全景相机数据与该帧激光数据是相关联的,即该帧激光生成的定位信息为该全景图像定位位置信息。
在另一种实现方式中,也可以利用机器人去现场采集数据,机器人上同样集成了激光雷达、IMU、GNSS和全景相机,将采集到的数据结合多传感器数据的融合技术实现对环境特征进行处理,并将采集到的多种数据的相对位置关联起来进行激光SLAM建图,建立3D点云地图,并利用全景相机采集监测点11的全景图像,将3D点云地图和全景图像利用时间戳关联起来,得到巡检路径的全景点云地图,参考全景图像信息在点云地图上进行人为的监测点11位标记。
如图4所示,在一个实施例中,还包括步骤:S5:服务器根据离线规划巡检路径及巡检设备1模型获取巡检机器人2的离线规划巡检部署工作;S6:巡检机器人2根据所述离线规划巡检部署工作进行巡检。
值得注意的是,当服务器在步骤S4中规划好巡检路径后,会离线规划巡检路径和巡检设备1模型适应性设置巡检机器人2的离线规划巡检部署工作,并将离线规划巡检部署工作发送给巡检机器人2,巡检机器人2根据离线规划巡检部署工作进行巡检,例如到某一巡检点31以某一位姿监测巡检设备1。
如图5所示,在一个实施例中,还包括步骤:S7:服务器获取机器人采集的巡检设备1模型图像并在显示器上显示,并计算所述巡检设备1模型图像在显示器画面中的占比;S8:服务器判断所述占比与预设占比的大小,当所述占比小于所述预设占比时,计算机器人靠近巡检设备1的移动距离,所述移动距离为机器人靠近巡检设备1后使机器人采集的图像在显示器画面中的占比大于或等于预设占比的距离;S9:服务器根据所述移动距离向机器人发送控制信号,所述控制信号用于控制机器人远离巡检设备1所述移动距离。
值得注意的是,巡检机器人2在根据离线规划巡检部署工作进行巡检的过程中,可能会因为计算误差或者移动误差等原因,在采集巡检设备1的巡检点31的图像时,会出现采集的图像中巡检点31过小即选件设备模型图像在显示器画面中的占比较小,不利于工作人员准确判断巡检点31的状况。为了解决这一问题,本申请先获取机器人在巡检过程中采集的巡检设备1的图像,计算该图像在显示器画面中的占比。当占比小于预设占比如80%时,可以认为采集的图像无法准确判断巡检设备1的状况。此时就需要使机器人靠近巡检设备1,使机器人采集的巡检设备1图像在显示器中占比更大,使工作人员能准确判断巡检设备1的状况。而机器人靠近巡检设备1的距离需要通过计算得到。例如调试机器人的图像采集设备22在离巡检设备11m时,采集的巡检设备1图像在显示器中的占比为100%,当机器人的图像采集设备22离巡检设备11.25m时,采集的巡检设备1图像在显示器中的占比为80%,当采集的巡检设备1图像在显示器中的占比为50%时,计算得到此时机器人的图像采集设备22离巡检设备12m,要使图像在显示器画面中的占比达到80%,需让巡检机器人2向巡检设备1靠近0.75m。当服务器计算出机器人靠近巡检设备1所需的移动距离后,根据该移动距离向巡检机器人2发送控制信号,控制巡检机器人2向巡检设备1靠近该移动距离。本申请通过机器人采集的巡检设备1图像在显示器中的占比计算出机器人需要移动的距离,能控制机器人克服计算误差或者移动误差等误差,使机器人采集的巡检设备1图像在显示器中占比更大,使工作人员能准确判断巡检设备1的状况。
如图6所示,在一个实施例中,还包括步骤:S10:获取修正后的坐标,将修正后的坐标和全景图监测点坐标输入绝对算法模型,获取修正后的机器人巡检姿态,所述修正后的坐标为机器人靠近巡检设备后的坐标;S11:根据所述修正后的坐标和所述修正后的机器人巡检姿态对所述巡检路径进行更新。
值得注意的是,当机器人靠近巡检设备1后,意味着靠近后的巡检点31才是更合适的巡检点31,由于机器人移动到更靠近巡检设备的位置,因此机器人之前的巡检姿态可能不再适用于更新后的位置,需要对移动后的机器人的巡检姿态也进行修正。因此先获取修正后的巡检点31坐标,将修正后的巡检点31坐标输入绝对算法模型,就可以输出修正后的机器人巡检姿态,修正后的机器人巡检姿态能使机器人的图像采集设备采集到工作人员需要的图像。再将修正后的巡检点31坐标和修正后的的机器人巡检姿态替换原有对应的巡检点31坐标和机器人巡检姿态,生成新的巡检路径,即对巡检路径进行更新。机器人根据更新后的巡检路径进行巡检。本申请能对存在误差的巡检点31进行自动修正并自动更新巡检路径。
在一个实施例中,所述绝对算法模型包括绝对算法,所述绝对算法包括:
Figure BDA0003751931210000101
其中,(xwatchpoint,ywatchpoint)为全景图监测点11坐标,zground为地面坐标,(xrobot,yrobot,zrobot)为机器人坐标;
Figure BDA0003751931210000102
其中,(xPTZ,yPTZ,zPTZ)为机器人云台21坐标,Cx,Cy为常量且由机器人模型关系提供;
当xinspection>xPTZ且yinspection>yPTZ时,
Figure BDA0003751931210000103
当xinspection>xPTZ且yinspection<yPTZ时,
Figure BDA0003751931210000111
当xinspection<xPTZ且yinspection>yPTZ时,
Figure BDA0003751931210000112
当xinspection<xPTZ且yinspection<yPTZ时,
Figure BDA0003751931210000113
其中,(xinspection,yinspection,zinspection)为巡检点31坐标,θPTZ_vertical_deserve为云台21期望俯仰角度,θPTZ_horizontal_deserve为云台21期望转向角度。
值得注意的是,绝对算法模型可以读取选定的巡检点31和当前对应全景图监测点11生成相应的关联,结合选择的机器人模型,通过位姿转换关系换算,最终生成机器人巡检全景图监测点11时应处在的位置和云台21姿态。结合相应的巡检机器人2模型URDF描述文件,(URDF描述文件可在打开录制工具时导入进行设置,该文件包含各个传感器、电机、轮子、关节、传动轴等部件相对于机器人中心的位置坐标和模型外观)通过位姿转换关系换算,算法最终生成机器人的巡检该点时应处在的位置和云台21姿态。通过绝对算法模型得到机器人巡检全景图监测点11时应处在的位置和云台21姿态,这些数据是规划巡检路径所必需的数据,而本申请不需要机器人去到现场即可获得这些数据,和上述步骤S1、S2结合起来,不需要出动机器人就可以得到机器人巡检全景图监测点11时应处在的位置和云台21姿态,实现了离线规划巡检路径,缩短了规划流程,减少了路径规划时间,提高了规划效率,也避免受到机器人自身状况和机器人道路状况的影响。
在一个实施例中,所述绝对算法还包括:
Figure BDA0003751931210000121
其中,θPTZ_vertical为俯仰补偿角度,θPTZ_horizontal为转向补偿角度,θrobot为机器人当前位姿。
值得注意的是,θrobot可以通过机器人的位姿模块获取。如图7所示,期望水平转角的角度为云台21与机器人前进方向(假设录点时机器人前进方向始终保持与世界x轴同方向)的夹角,在机器人进行巡检时,根据机器人当前的位姿(与x轴的水平夹角)即可解算出云台21所需要补偿的云台21转角。
如图8所示,第二方面,提供一种巡检路径规划装置,所述巡检路径规划装置用于执行上述第一方面所述巡检路径规划方法的步骤。
具体的,所述巡检路径规划装置包括:
第一获取模块201,用于获取巡检路径的全景点云地图,所述全景点云地图包括巡检设备1模型及录制全景点云地图的全景图监测路径3,所述全景图监测路径3包括全景图监测点11坐标;
第二获取模块202,用于获取巡检设备1模型的巡检点31坐标;
第三获取模块203,用于获取绝对算法模型,将全景图监测点11坐标及巡检点31坐标作为绝对算法模型的输入,获取每个巡检设备1模型的机器人巡检姿态;
第四获取模块204,用于依据全景图监测路径3和机器人巡检姿态获取巡检机器人2的离线规划巡检路径。
上述巡检路径规划装置,首先建立巡检路径的全景点云地图,使用户在对点云地图中巡检设备1上的监测点11进行标记时,能参照全景点云地图中相应的巡检设备1的全景图像进行标记,不需要机器人去到现场对点云地图上的巡检设备1进行标点。
同时,本申请只需要获取采集设备采集的数据即可建立巡检路径的点云地图,不需要机器人去到现场现场进行数据采集并建图,也不需要机器人去到现场确认监测点11坐标。
此外,本申请利用绝对算法模型,根据全景图监测点11坐标及巡检点31坐标能输出巡检设备1模型的机器人巡检姿态。利用计算得到机器人巡检姿态,不需要机器人去到现场确认机器人的巡检姿态。
综上,本申请不需要机器人去到现场确认监测点11坐标巡检姿态,也能实现巡检路径的规划,因此不会受到机器人自身状况和机器人道路状况的影响,同时效率更高,耗费时间较短。
在一个实施例中,第一获取模块201还用于:获取巡检路径的点云地图和巡检设备1的全景图像;根据时间戳将巡检路径的点云地图和巡检设备1的全景图像进行关联,得到巡检路径的全景点云地图。
在一个实施例中,所述巡检路径规划装置还包括:第五获取模块205,用于根据离线规划巡检路径及巡检设备1模型获取巡检机器人2的离线规划巡检部署工作;巡检机器人2根据所述离线规划巡检部署工作进行巡检。
在一个实施例中,所述巡检路径规划装置还包括:计算模块206,用于获取机器人采集的巡检设备1模型图像并在显示器上显示,并计算所述巡检设备1模型图像在显示器画面中的占比;判断模块207,用于判断所述占比与预设占比的大小,当所述占比小于所述预设占比时,计算机器人靠近巡检设备1的移动距离,所述移动距离为机器人靠近巡检设备1后使机器人采集的图像在显示器画面中的占比大于或等于预设占比的距离;发送模块208,用于根据所述移动距离向机器人发送控制信号,所述控制信号用于控制机器人靠近巡检设备1所述移动距离。
在一个实施例中,所述巡检路径规划装置还包括:第六获取模块209,用于获取修正后的坐标,将修正后的坐标和全景图监测点坐标输入绝对算法模型,获取修正后的机器人巡检姿态,所述修正后的坐标为机器人靠近巡检设备后的坐标;更新模块210,用于根据所述修正后的坐标和所述修正后的机器人巡检姿态对所述巡检路径进行更新。
在一个实施例中,所述绝对算法模型包括绝对算法,所述绝对算法包括:
Figure BDA0003751931210000141
其中,(xwatchpoint,ywatchpoint)为全景图监测点11坐标,zground为地面坐标,(xrobot,yrobot,zrobot)为机器人坐标;
Figure BDA0003751931210000142
其中,(xPTZ,yPTZ,zPTZ)为机器人云台21坐标,Cx,Cy为常量且由机器人模型关系提供;
当xinspection>xPTZ且yinspection>yPTZ时,
Figure BDA0003751931210000143
当xinspection>xPTZ且yinspection<yPTZ时,
Figure BDA0003751931210000144
当xinspection<xPTZ且yinspection>yPTZ时,
Figure BDA0003751931210000151
当xinspection<xPTZ且yinspection<yPTZ时,
Figure BDA0003751931210000152
其中,(xinspection,yinspection,zinspection)为巡检点31坐标,θPTZ_vertical_deserve为云台21期望俯仰角度,θPTZ_horizontal_deserve为云台21期望转向角度。
在一个实施例中,所述绝对算法还包括:
Figure BDA0003751931210000153
其中,θPTZ_vertical为俯仰补偿角度,θPTZ_horizontal为转向补偿角度,θrobot为机器人当前位姿。
在一个实施例中,提出了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述巡检路径规划方法的步骤。
在一个实施例中,提出了一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时,使得处理器执行上述巡检路径规划方法的步骤。
可以理解的是,上述巡检路径规划方法、装置、计可读存储介及程序产品属于一个总的发明构思,实施例可相互适用。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种巡检路径规划方法,其特征在于,包括如下步骤:
S1:获取巡检路径的全景点云地图,所述全景点云地图包括巡检设备模型及录制全景点云地图的全景图监测路径,所述全景图监测路径包括全景图监测点坐标;
S2:获取巡检设备模型的巡检点坐标;
S3:获取绝对算法模型,将全景图监测点坐标及巡检点坐标作为绝对算法模型的输入,获取每个巡检设备模型的机器人巡检姿态;
S4:依据全景图监测路径和机器人巡检姿态获取巡检机器人的离线规划巡检路径。
2.如权利要求1所述的巡检路径规划方法,其特征在于,步骤S1包括:
S1a:获取巡检路径的点云地图和巡检设备的全景图像;
S1b:根据时间戳将巡检路径的点云地图和巡检设备的全景图像进行关联,得到巡检路径的全景点云地图。
3.如权利要求1所述的巡检路径规划方法,其特征在于,还包括步骤:
S5:根据离线规划巡检路径及巡检设备模型获取巡检机器人的离线规划巡检部署工作;
S6:巡检机器人根据所述离线规划巡检部署工作进行巡检。
4.如权利要求2所述的巡检路径规划方法,其特征在于,还包括步骤:
S7:获取机器人采集的巡检设备模型图像并在显示器上显示,并计算所述巡检设备模型图像在显示器画面中的占比;
S8:判断所述占比与预设占比的大小,当所述占比小于所述预设占比时,计算机器人靠近巡检设备的移动距离,所述移动距离为机器人靠近巡检设备后使机器人采集的图像在显示器画面中的占比大于或等于预设占比的距离;
S9:根据所述移动距离向机器人发送控制信号,所述控制信号用于控制机器人靠近巡检设备所述移动距离。
5.如权利要求4所述的巡检路径规划方法,其特征在于,还包括步骤:
S10:获取修正后的坐标,将修正后的坐标和全景图监测点坐标输入绝对算法模型,获取修正后的机器人巡检姿态,所述修正后的坐标为机器人靠近巡检设备后的坐标;
S11:根据所述修正后的坐标和所述修正后的机器人巡检姿态对所述巡检路径进行更新。
6.如权利要求1所述的巡检路径规划方法,其特征在于,所述绝对算法模型包括绝对算法,所述绝对算法包括:
Figure FDA0003751931200000021
其中,(xwatchpoint,ywatchpoint)为全景图监测点坐标,zground为地面坐标,(xrobot,yrobot,zrobot)为机器人坐标;
Figure FDA0003751931200000022
其中,(xPTZ,yPTZ,zPTZ)为机器人云台坐标,Cx,Cy为常量且由机器人模型关系提供;
当xinspection>xPTZ且yinspection>yPTZ时,
Figure FDA0003751931200000023
当xinspection>xPTZ且yinspection<yPTZ时,
Figure FDA0003751931200000031
当xinspection<xPTZ且yinspection>yPTZ时,
Figure FDA0003751931200000032
当xinspection<xPTZ且yinspection<yPTZ时,
Figure FDA0003751931200000033
其中,(xinspection,yinspection,zinspection)为巡检点坐标,θPTZ_vertical_deserve为云台期望俯仰角度,θPTZ_horizontal_deserve为云台期望转向角度。
7.如权利要求6所述的巡检路径规划方法,其特征在于,所述绝对算法还包括:
Figure FDA0003751931200000034
其中,θPTZ_vertical为俯仰补偿角度,θPTZ_horizontal为转向补偿角度,θrobot为机器人当前位姿。
8.一种巡检路径规划装置,其特征在于,所述巡检路径规划装置用于执行如权利要求1-7中任一项所述巡检路径规划方法的步骤。
9.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1-7中任一项所述巡检路径规划方法的步骤。
10.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1-7中任一项所述巡检路径规划方法的步骤。
CN202210851340.XA 2022-07-18 2022-07-18 巡检路径规划方法、装置、可读存储介质及程序产品 Pending CN115309151A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210851340.XA CN115309151A (zh) 2022-07-18 2022-07-18 巡检路径规划方法、装置、可读存储介质及程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210851340.XA CN115309151A (zh) 2022-07-18 2022-07-18 巡检路径规划方法、装置、可读存储介质及程序产品

Publications (1)

Publication Number Publication Date
CN115309151A true CN115309151A (zh) 2022-11-08

Family

ID=83857623

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210851340.XA Pending CN115309151A (zh) 2022-07-18 2022-07-18 巡检路径规划方法、装置、可读存储介质及程序产品

Country Status (1)

Country Link
CN (1) CN115309151A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116520853A (zh) * 2023-06-08 2023-08-01 江苏商贸职业学院 一种基于人工智能技术的农业巡检机器人
CN117557931A (zh) * 2024-01-11 2024-02-13 速度科技股份有限公司 一种基于三维场景的表计最优巡检点的规划方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116520853A (zh) * 2023-06-08 2023-08-01 江苏商贸职业学院 一种基于人工智能技术的农业巡检机器人
CN117557931A (zh) * 2024-01-11 2024-02-13 速度科技股份有限公司 一种基于三维场景的表计最优巡检点的规划方法
CN117557931B (zh) * 2024-01-11 2024-04-02 速度科技股份有限公司 一种基于三维场景的表计最优巡检点的规划方法

Similar Documents

Publication Publication Date Title
CN108181636B (zh) 石化工厂巡检机器人环境建模与地图构建装置和方法
AU2003244321B2 (en) Picked-up image display method
WO2023061049A1 (zh) 一种配网车载智能巡检机器人系统及方法
CN109060281B (zh) 基于无人机的一体化桥梁检测系统
CN204992418U (zh) 一种无人机输电线路缺陷自动巡检装置
CN103941746B (zh) 无人机巡检图像处理系统及方法
CN110246175A (zh) 全景相机与云台相机结合的变电站巡检机器人图像检测系统及方法
CN112258682B (zh) 一种变电站机器人巡检系统及其巡检方法
CN101261118A (zh) 基于机器人的快速自动化三维形貌在线测量方法和系统
CN109885098B (zh) 一种桥梁边栏巡检航线规划方法
CN105551032A (zh) 一种基于视觉伺服的杆塔图像采集系统及其方法
CN115143887B (zh) 视觉监测设备测量结果的修正方法及视觉监测系统
CN107730652A (zh) 一种巡检系统、方法及装置
CN111754638A (zh) 一种堆场内的自动抑尘降尘系统及堆场内抑尘降尘方法
CN113900436B (zh) 巡检控制方法、装置、设备和存储介质
CN115309151A (zh) 巡检路径规划方法、装置、可读存储介质及程序产品
CN105698784A (zh) 一种室内机器人定位系统及方法
JPH10150656A (ja) 画像処理装置及び侵入者監視装置
CN207155816U (zh) 一种基于智能发电站的机器人巡检系统
JP2009052907A (ja) 異物検出システム
CN112284277B (zh) 基于计算机视觉的隧道洞口边坡变形监测系统和方法
CN111754647A (zh) 基于环境感知的智能安防机器人巡检方法
CN115373416B (zh) 一种铁路电力贯通线智能巡检方法
CN112860946B (zh) 一种视频图像信息转换为地理信息的方法及系统
WO2020143004A1 (zh) 一种信息处理方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination