CN116901089A - 一种多角度视距的机器人控制方法及系统 - Google Patents
一种多角度视距的机器人控制方法及系统 Download PDFInfo
- Publication number
- CN116901089A CN116901089A CN202311186096.0A CN202311186096A CN116901089A CN 116901089 A CN116901089 A CN 116901089A CN 202311186096 A CN202311186096 A CN 202311186096A CN 116901089 A CN116901089 A CN 116901089A
- Authority
- CN
- China
- Prior art keywords
- image
- vision
- steering
- characteristic
- concave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000004458 analytical method Methods 0.000 claims abstract description 73
- 230000003213 activating effect Effects 0.000 claims abstract description 35
- 238000005457 optimization Methods 0.000 claims abstract description 21
- 238000007689 inspection Methods 0.000 claims description 120
- 230000000007 visual effect Effects 0.000 claims description 44
- 238000011156 evaluation Methods 0.000 claims description 38
- 230000007547 defect Effects 0.000 claims description 27
- 230000003287 optical effect Effects 0.000 claims description 27
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 12
- 238000004891 communication Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 5
- 230000002441 reversible effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种多角度视距的机器人控制方法及系统,涉及机器人控制技术领域,包括:激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像,确定第一目标路段视觉盲区,激活第二位置CCD视觉采集器,采集第二采集图像,根据第一采集图像和第二采集图像,对第一目标路段进行平坦度分析,获取凹凸特征区域,对巡检机器人进行转向视距分析,获取转向视距特征值,基于转向视距特征值对预设巡检路线进行调整,获取巡检路线优化结果,根据巡检路线优化结果控制巡检机器人。本发明解决了现有技术中的机器人控制方法通常由一个视觉模块采集结果进行决策,但是单一角度的视距图像具有视觉盲区,使得无法实现准确、稳定控制的技术问题。
Description
技术领域
本发明涉及机器人控制技术领域,具体涉及一种多角度视距的机器人控制方法及系统。
背景技术
随着人工智能、传感技术和自动化技术的快速发展,机器人控制正迎来创新性的发展,通过深度学习和强化学习等技术,机器人能够实现更高级的决策和学习能力,进一步提升其自主性和灵活性,同时,多模态感知和协作控制技术的应用,使得机器人能够与人类和其他机器人进行更紧密和智能的交互,这种创新性发展为机器人控制带来了更加广阔的应用前景,推动了智能机器人在各个领域的发展与应用。
而现今常用的机器人控制方法还存在着一定的弊端,现有技术中的机器人控制方法通过机器人的视觉系统,确定目标物特征,从而实现控制,通常由一个视觉模块采集结果进行决策,但是单一角度的视距图像具有视觉盲区,使得无法实现准确、稳定的控制。因此,对于机器人控制还存在着一定的可提升空间。
发明内容
本申请通过提供了一种多角度视距的机器人控制方法及系统,旨在解决现有技术中的机器人控制方法通常由一个视觉模块采集结果进行决策,但是单一角度的视距图像具有视觉盲区,使得无法实现准确、稳定控制的技术问题。
鉴于上述问题,本申请提供了一种多角度视距的机器人控制方法及系统。
本申请公开的第一个方面,提供了一种多角度视距的机器人控制方法,应用于多角度视距的机器人控制系统,所述系统和巡检机器人通信连接,和多个CCD视觉采集器通信连接,所述方法包括:激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像进行盲区分析,确定第一目标路段视觉盲区;激活第二位置CCD视觉采集器,基于所述第一目标路段视觉盲区采集第二采集图像;根据所述第一采集图像和所述第二采集图像,对所述第一目标路段进行平坦度分析,获取凹凸特征区域;基于所述凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值;基于所述转向视距特征值对预设巡检路线进行调整,获取巡检路线优化结果;根据所述巡检路线优化结果控制所述巡检机器人。
本申请公开的另一个方面,提供了一种多角度视距的机器人控制系统,所述系统和巡检机器人通信连接,和多个CCD视觉采集器通信连接,所述系统用于上述方法,所述系统包括:第一图像获取模块,所述第一图像获取模块用于激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像进行盲区分析,确定第一目标路段视觉盲区;第二图像获取模块,所述第二图像获取模块用于激活第二位置CCD视觉采集器,基于所述第一目标路段视觉盲区采集第二采集图像;平坦度分析模块,所述平坦度分析模块用于根据所述第一采集图像和所述第二采集图像,对所述第一目标路段进行平坦度分析,获取凹凸特征区域;转向视距分析模块,所述转向视距分析模块用于基于所述凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值;预设路线调整模块,所述预设路线调整模块用于基于所述转向视距特征值对预设巡检路线进行调整,获取巡检路线优化结果;机器人控制模块,所述机器人控制模块用于根据所述巡检路线优化结果控制所述巡检机器人。
本申请中提供的一个或多个技术方案,至少具有如下技术效果或优点:
激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像进行盲区分析,确定第一目标路段视觉盲区,激活第二位置CCD视觉采集器,采集第二采集图像,根据第一采集图像和第二采集图像,对第一目标路段进行平坦度分析,获取凹凸特征区域,基于凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值,基于转向视距特征值对预设巡检路线进行调整,获取巡检路线优化结果,根据巡检路线优化结果控制巡检机器人。解决了现有技术中的机器人控制方法通常由一个视觉模块采集结果进行决策,但是单一角度的视距图像具有视觉盲区,使得无法实现准确、稳定控制的技术问题,实现了通过多个视觉模块采集结果,从多个角度进行视距图像采集,进而消除视觉盲区,以更准确地评估目标路段情况,达到提升机器人控制的准确性、稳定性的技术效果。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
图1为本申请实施例提供了一种多角度视距的机器人控制方法流程示意图;
图2为本申请实施例提供了一种多角度视距的机器人控制方法中确定第一目标路段视觉盲区可能的流程示意图;
图3为本申请实施例提供了一种多角度视距的机器人控制方法中获取凹凸特征区域可能的流程示意图;
图4为本申请实施例提供了一种多角度视距的机器人控制系统可能的结构示意图。
附图标记说明:第一图像获取模块10,第二图像获取模块20,平坦度分析模块30,转向视距分析模块40,预设路线调整模块50,机器人控制模块60。
具体实施方式
本申请实施例通过提供一种多角度视距的机器人控制方法,解决了现有技术中的机器人控制方法通常由一个视觉模块采集结果进行决策,但是单一角度的视距图像具有视觉盲区,使得无法实现准确、稳定控制的技术问题,实现了通过多个视觉模块采集结果,从多个角度进行视距图像采集,进而消除视觉盲区,以更准确地评估目标路段情况,达到提升机器人控制的准确性、稳定性的技术效果。
在介绍了本申请基本原理后,下面将结合说明书附图来具体介绍本申请的各种非限制性的实施方式。
实施例一
如图1所示,本申请实施例提供了一种多角度视距的机器人控制方法,应用于多角度视距的机器人控制系统,所述系统和巡检机器人通信连接,和多个CCD视觉采集器通信连接,所述方法包括:
激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像进行盲区分析,确定第一目标路段视觉盲区;
本申请实施例提供的一种多角度视距的机器人控制方法应用于多角度视距的机器人控制系统,所述系统和巡检机器人通信连接,和多个CCD视觉采集器通信连接,所述多个CCD视觉采集器用于采集目标路段的采集图像。所述视距指机器人视觉系统在行车中从发现路面异常情况到采取措施避险所需的视线范围。
启动位于第一位置的CCD视觉采集器,例如摄像头,使其定向到第一目标路段进行图像采集,捕获其所见的图像数据。对采集到的第一采集图像进行视觉处理和盲区分析,确定第一目标路段的视觉盲区,也就是在该路段上机器人的视觉系统无法准确感知的区域,如拐角处。示例性的,将图像中的目标路段从背景和其他元素中分离出来,从目标路段图像中提取特征,如边缘、颜色、纹理等,以此识别路段的几何形状和结构,利用提取的特征和图像分析技术,检测其中的遮挡物、死角或其他视觉障碍物,并对它们进行分类和定位,以此确定目标路段中存在的视觉盲区。
进一步而言,如图2所示,激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像进行盲区分析,确定第一目标路段视觉盲区,包括:
对所述第一采集图像进行第一目标路段分割,构建第一目标子路段;获取所述第一目标子路段的第一定位坐标矩阵;获取所述第一目标路段的第二定位坐标矩阵;根据所述第一定位坐标矩阵和所述第二定位坐标矩阵,对所述第一目标子路段和所述第一目标路段进行相似度评估,获取子路段非覆盖区域;将所述子路段非覆盖区域设为所述第一目标路段视觉盲区。
使用阈值分割算法将第一采集图像中的第一目标路段从背景中分割出来,生成一个二值掩膜图像,其中目标路段被标记为前景(白色)而其他部分为背景(黑色),根据第一目标路段的形状和属性,例如颜色、纹理、形状或其他特征进行区域划分和分割操作,构建第一目标子路段。根据分割得到的子路段,创建子路段的相关数据结构,这些数据结构包含子路段的位置、形状、大小以及其他属性信息。
如果第一目标子路段的形状较为规则或简单,可以通过计算几何参数来获取第一定位坐标矩阵,例如,可以计算出子路段的质心、重心、边界框的顶点坐标等;如果第一目标子路段的形状较为复杂或需要更高精度的定位,可以使用图像特征提取和匹配技术,例如,可以提取子路段的特征描述符,如角点、SIFT特征等,并与其他图片或参考模板进行匹配。根据所选定位方法,将第一目标子路段的第一定位坐标记录下来,包括坐标矩阵中的x、y坐标值,获取第一定位坐标矩阵。
通过交互控制系统,获取在进行机器人控制之前预设的第一目标路段的第二定位坐标矩阵,这两个坐标矩阵都是以CCD视觉采集器为参考物构建的三维坐标得到的结果。
根据第一定位坐标矩阵中的坐标值,通过将子路段的坐标映射回完整图像的坐标系,确定第一目标子路段在完整二值掩膜中的位置,同样的,根据第二定位坐标矩阵中的坐标值,将路段的坐标映射回完整图像的坐标系,确定第一目标路段在完整二值掩膜中的位置。将第一目标子路段和第一目标路段的位置进行比较,以评估它们之间的相似度,例如利用定位坐标匹配方法,根据相似度评估结果,确定目标子路段和目标路段之间的非覆盖区域,若两者高度相似,则非覆盖区域较少;若相似度较低,则非覆盖区域较多。将其中不匹配的区域提取出来,作为子路段非覆盖区域。
将子路段非覆盖区域应用于第一目标路段,该区域代表了对于第一目标路段,第一位置CCD视觉采集器不能采集到的区域,将该区域设定为第一目标路段的视觉盲区,例如,可以在第一目标路段的相应位置上创建一个与非覆盖区域匹配的掩膜来实现。以此在巡检过程,巡检机器人可以利用设定的视觉盲区来识别和规避视觉盲区。
激活第二位置CCD视觉采集器,基于所述第一目标路段视觉盲区采集第二采集图像;
启动第二位置的CCD视觉采集器,所述第二位置与第一位置视觉覆盖范围不同,作为第一位置的补偿器,用于补充第一目标路段的视觉信息,根据确定的第一目标路段的视觉盲区信息,在选择第二位置进行图像采集时,重点关注第一目标覆盖不到的部分。通过调节摄像头的方向、角度等方式,调整第二位置CCD视觉采集器的视野和角度,以尽可能捕捉到被视野盲区覆盖的区域。启动第二位置CCD视觉采集器,获取第一目标路段的第二采集图像,这些图像包含第一目标路段视觉盲区的补充信息,以获得多角度的视觉信息,提供更全面和准确的视觉感知。
再次进行视觉盲区检测,若是第二位置的图像采集后还有盲区,则继续调集第三位置、第四位置进行多角度补偿图像采集,直至不存在盲区,这样,机器人的视觉系统可以获取更广泛的视野,避免单一角度的视觉盲区,并为后续的决策和控制提供更准确和稳定的数据支持。
根据所述第一采集图像和所述第二采集图像,对所述第一目标路段进行平坦度分析,获取凹凸特征区域;
进一步而言,如图3所示,根据所述第一采集图像和所述第二采集图像,对所述第一目标路段进行平坦度分析,获取凹凸特征区域,包括:
基于所述第一位置CCD视觉采集器,获取第一标准图像;
进一步而言,基于所述第一位置CCD视觉采集器,获取第一标准图像,包括:
基于所述第一位置CCD视觉采集器,获取图像采集参数特征和监控场景光学特性,其中,所述图像采集参数特征包括图像采集角度特征、图像采集距离特征和图像采集光学参数;获取标注数据集,其中,所述标注数据集包括图像采集参数记录值、场景光学特性记录值、概念图像集和目标图像集;将所述图像采集参数记录值、所述场景光学特性记录值、所述概念图像集同步至反向卷积神经网络,以所述目标图像集为监督数据进行训练,获取图像调制器;将所述图像采集参数特征、所述监控场景光学特性和第一目标子路段概念图同步至所述图像调制器,获取所述第一标准图像。
通过调整CCD视觉采集器的角度,获取在不同水平和垂直方向上采集图像的能力,例如,记录采集器的旋转角度和仰角信息,确定图像采集的视角范围,获取图像采集角度特征;利用CCD视觉采集器的变焦或镜头调整功能,获取图像采集的有效距离范围,记录采集器的最小和最大教具或可视区域,以及目标场景的相对距离,获取图像采集距离特征;根据CCD视觉采集器的规格或文档资料,获取与光学参数相关的信息,包括相机的感光度、快门速度、光圈大小等,用于衡量采集器对光线的敏感程度和控制曝光的能力,获取图像采集光学参数。通过记录监控场景的光照条件、环境反射、物体反射率等信息,获取场景光学特性,包括光源方向、光强度变化、背景噪声等。这些信息有助于了解采集设备的工作范围和限制,以及评估监控场景下的光学条件和影响因素。
对于每张图像,记录采集参数的具体数值,包括图像的采集角度、采集距离、光学参数等信息,针对不同的监控场景,记录其光学特性的具体数值,包括光源方向、光强度变化、背景噪声等信息,并将这些记录值与相应的图像相关联。
根据任务需求和分类准则,收集概念图像集,这些图像集代表了希望训练图像调制器进行理解的特定概念,对每张图像进行标注以表示其所属的概念,并建立与图像的关联。收集目标图像集,其中包含需要进行识别、分类或检测的特定目标物体的图像,对每张图像进行标注,将目标物体的位置、形状等信息与图像进行关联。
基于反向卷积神经网络构建网络构架,该网络包含编码器和解码器两部分,用于学习图像的表示和重建,确保网络结构能够处理输入的图像相关参数和场景光学特性。将图像采集参数记录值、场景光学特性记录值和概念图像集与对应的目标图像集进行配对,确保每个概念图像都有相应的目标图像作为其监督数据。
使用反向卷积神经网络的编码器部分,将图像采集参数记录值和场景光学特性记录值转化为有效的特征表示,这些特征表示可以捕获图像采集和场景特性之间的关系,使用反向卷积神经网络的解码器部分,将输入特征表示映射回图像空间,并生成调制后的图像,调制后的图像会在一定程度上反映了输入特征所描述的图像采集参数和光学特性。使用目标图像集作为监督数据,通过最小化重建图像与目标图像之间的差异,例如使用均方误差,训练反向卷积神经网络,该过程旨在使图像调制器能够准确地学习和预测图像的调制效果。当满足预设要求时,输出图像调制器,该图像调制器能够根据图像采集参数记录值、场景光学特性记录值和概念图像来生成调制后的图像,使其反映符合所述特性的视觉效果。
将图像采集参数特征、监控场景光学特性以及第一目标子路段概念图的特征同步到图像调制器中,该图像调制器将根据这些特征生成相应的调制图像,即所述第一标准图像,这个图像反映了对应的特征和特性在视觉上的调制效果。
基于所述第二位置CCD视觉采集器,获取第二标准图像;激活孪生网络模型的第一特征提取通道接收所述第一采集图像,激活孪生网络节点的第二特征提取通道接收所述第一标准图像,获取第一偏差特征区域;激活孪生网络模型的第一特征提取通道接收所述第二采集图像,激活孪生网络节点的第二特征提取通道接收所述第二标准图像,获取第二偏差特征区域;根据所述第一偏差特征区域和所述第二偏差特征区域进行平坦度分析,获取所述凹凸特征区域。
第二标准图像的获取方式与第一标准图像相同,为了说明书的简洁,在此不再赘述。
针对目标任务构建孪生网络模型,该模型包括两个并行的特征提取通道,分别用于处理第一采集图像和第一标准图像。对第一采集图像和第一标准图像进行预处理操作,如尺寸调整、归一化或增强等,确保两张图像在同步到孪生网络之前处于相同的格式和范围内。将预处理操作后的第一采集图像同步至孪生网络模型的第一特征提取通道,执行相应的计算和卷积过程,以提取图像的相关特征信息,类似地,将第一标准图像同步至孪生网络模型的第二特征提取通道,进行特征提取操作。
在两个特征提取通道中提取得到相应的特征表示后,将它们进行融合和比较,例如,可以使用距离度量方法,如欧氏距离,对特征进行比较和计算。根据比较结果,从特征图中确定第一偏差特征区域,该偏差特征区域用于识别目标图像与标准图像之间的差异。
以同样的方法,获取第二偏差特征区域。
进一步而言,根据所述第一偏差特征区域和所述第二偏差特征区域进行平坦度分析,获取所述凹凸特征区域,包括:
对所述第一偏差特征区域和所述第二偏差特征区域进行缺陷检测,获取凹区域尺寸特征和凸区域尺寸特征;
进一步而言,对所述第一偏差特征区域和所述第二偏差特征区域进行缺陷检测,获取凹区域尺寸特征和凸区域尺寸特征,包括:
获取凹区域像素特征参数和凸区域像素特征参数;获取标准图像集,结合所述凹区域像素特征参数和所述凸区域像素特征参数同步至图像编码器,获取缺陷图像编码结果;将所述缺陷图像编码结果同步至图像解码器,获取凹凸区域识别结果;根据所述凹凸区域识别结果对所述图像编码器进行权重更新,当所述凹凸区域识别结果的准确率满足准确率阈值时,获取缺陷检测模型,对所述第一偏差特征区域和所述第二偏差特征区域进行缺陷检测,获取所述凹区域尺寸特征和所述凸区域尺寸特征。
对于凹区域和凸区域,分别提取与其相关的像素特征参数,包括面积、周长、形状、强度分布和纹理特征,具体地,计算凹区域和凸区域的像素总数,即区域的面积;计算凹区域和凸区域的周长,即区域边界上所有像素的长度之和;通过计算区域的形状参数,如长宽比例、圆度等,来描述凹区域和凸区域的形状特征;分析凹区域和凸区域内像素的亮度或色彩分布情况,得到关于区域内强度或色彩分布的特征参数;从凹区域和凸区域中提取纹理特征,如灰度共生矩阵,以刻画区域内纹理的复杂度或规律性。
收集一组标准图像,其中包含各种缺陷类型或程度的样本图像,这些图像涵盖与凹区域和凸区域相关的道路表面缺陷情况。将标准图像与其对应的凹区域和凸区域的像素特征参数进行匹配,确保每个标准图像都有相应的凹区域和凸区域的特征参数。选择适当的图像编码器,将标准图像集与对应的凹区域和凸区域的像素特征参数作为输入,同步到图像编码器中,输出缺陷图像编码结果,这个编码结果是对于相应的标准图像以及与凹区域和凸区域的像素特征参数相关的图像表示,以此提供对标准图像的编码表示方式,使缺陷特征能够更好地被表示和分析。
选择适当的图像解码器,该解码器与之前使用的图像编码器相匹配,确保解码器能够将编码后的图像重新恢复为原始图像。将缺陷图像编码结果作为输入提供给图像解码器进行解码处理,将其转换为原始图像表示,基于解码得到的图像,使用图像处理和分析技术,例如边缘检测、阈值分割等方法,来识别凹凸区域,通过分析处理得到的图像,确定识别出的凹凸区域及其位置信息。
利用凹凸区域识别结果,通过与标注数据或其他参考信息进行比较,计算出其准确率,将准确率与预设的准确率阈值进行比较,如果准确率达到或超过阈值,则可以进一步进行权重更新和缺陷检测,基于凹凸区域识别结果的性能评估,对图像编码器进行权重更新,例如可以采用梯度下降方法,以调整编码器的参数,根据更新后的图像编码器,构建缺陷检测模型,使用所得的缺陷检测模型,对第一偏差特征区域和第二偏差特征区域进行缺陷检测,以获取凹区域和凸区域的尺寸特征,这些特征用于评估路面状况、辅助维护决策等。
所述凹区域尺寸特征包括第一方向直径极大值和第二方向直径极大值,当所述第一方向直径极大值大于或等于所述巡检机器人的行进轮宽度时,且所述第二方向直径极大值大于或等于行进轮卡死长度时,将凹区域分布位置添加进所述凹凸特征区域,其中,第二方向为行进方向,第一方向为行进方向垂直方向;所述凸区域尺寸特征包括高度极大值,当所述高度极大值大于或等于所述巡检机器人的可跨高度阈值时,将凸区域分布位置添加进所述凹凸特征区域。
在凹区域中,确定第一方向(垂直于行进方向)的最大距离,作为第一方向直径极大值,确定第二方向(行进方向)的最大距离,作为第二方向直径极大值。比较第一方向直径极大值与巡检机器人的行进轮宽度,并比较第二方向直径极大值与行进轮卡死长度,如果第一方向直径极大值大于或等于行进轮宽度,并且第二方向直径极大值大于或等于行进轮卡死长度,则将该凹区域的分布位置添加到凹凸特征区域中。通过这样的判断,可以将满足条件的凹区域位置添加到凹凸特征区域中,以提供关于可能影响巡检机器人行驶的路面凹陷的额外信息。
在凸区域中,确定最大高度值作为凸区域的高度极大值,与巡检机器人的可跨越高度阈值进行比较,如果凸区域的高度极大值大于或等于巡检机器人的可跨越高度阈值,则将凸区域的分布位置添加到凹凸特征区域中,通过这样的判断,可以将满足条件的凸区域位置添加到凹凸特征区域中,以提供关于可能影响巡检机器人行驶的路面凸起的额外信息。
通过上述凹凸特征区域的获取,可以更全面地了解路面状况,并采取适当的措施以确保巡检机器人的顺利行驶。
基于所述凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值;
进一步而言,基于所述凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值,包括:
获取所述巡检机器人的巡检速度参数;根据所述凹凸特征区域,确定所述巡检机器人的转向角度参数;激活转向视距分析节点对所述转向角度参数和所述巡检速度参数进行映射,获取第一转向视距评估结果;获取所述凹凸特征区域和所述巡检机器人的距离特征信息;当所述距离特征信息大于或等于所述转向视距评估结果,将所述第一转向视距评估结果添加进所述转向视距特征值;当所述距离特征信息小于所述转向视距评估结果,基于所述转向视距分析节点对所述巡检速度参数进行调整,获取巡检速度参数调整值和第二转向视距评估结果,添加进所述转向视距特征值;其中,获取所述巡检机器人的同型号记录数据,所述同型号记录数据包括巡检速度记录值、转向角度记录值和转向视距记录值,基于所述巡检速度记录值、所述转向角度记录值和所述转向视距记录值,结合BP神经网络训练所述转向视距分析节点。
参考巡检机器人的技术文档、用户手册等相关资料,获取关于巡检机器人的性能特性和参数,包括巡检速度。
根据所述凹凸特征区域,识别凹凸特征的位置、形状、尺寸以及其他相关属性,基于分析得到的凹凸特征信息,根据机器人的导航控制算法和路径规划策略,计算巡检机器人在接近凹凸区域时所需的转向角度。
基于BP神经网络训练转向视距分析节点,将转向角度参数和巡检速度参数作为输入提供给转向视距分析节点,执行转向视距分析,包括考虑机器人行进方向、机器人传感器覆盖范围等因素来评估巡检过程中的视距情况,通过转向视距分析节点,输出第一转向视距评估结果,这个结果是关于巡检机器人在特定转向角度和巡检速度下的可视范围、遮挡情况和视距障碍等的评估。以此实现对巡检过程中视觉环境的分析与优化,并为第一转向位置提供有价值的信息。
使用巡检机器人的传感器,如激光雷达等,接收来自凹凸特征区域的距离数据,计算最短距离、距离分布情况等距离特征,将所述距离特征与凹凸特征区域相关联,以此确定每个凹凸特征区域与机器人之间的距离特征。根据机器人传感器获取的数据和分析结果,获取巡检机器人在凹凸特征区域中的距离特征信息,包括凹凸特征区域与机器人的距离统计数据、遮挡情况以及在不同条件下的距离变化等。
将距离特征信息与转向视距评估结果进行比较,如果距离特征信息大于或等于转向视距评估结果,表示在该特定转向角度和巡检速度下视距充足,则将第一转向视距评估结果添加到转向视距特征值中,这样,在转向视距特征值中就包括了关于充足视距的信息,这增加了对巡检机器人在特定转向角度和巡检速度下视距情况的描述,并提供更全面的视距信息。
如果距离特征信息小于转向视距评估结果,表示在该特定转向角度和巡检速度下视距不足,根据转向视距分析节点,基于距离特征信息和转向视距评估结果,对巡检速度参数进行调整,通过调整巡检速度参数,可以使得视距情况更好地满足要求,记录所经过调整的巡检速度参数调整值,并通过再次运行转向视距分析节点,获取第二转向视距评估结果,这个结果描述了在经过巡检速度参数调整后的新转向角度和巡检速度下的视距情况。将巡检速度参数调整值和第二转向视距评估结果添加到转向视距特征值中,这样,转向视距特征值将包括针对视距不足情况的巡检速度参数调整信息和新的转向视距评估结果。
其中,所述转向视距分析节点的训练过程如下:收集一批以往相同型号巡检机器人的记录数据,这些数据包括巡检速度记录值、转向角度记录值和转向视距记录值,确保数据充分且代表性。将巡检速度记录值、转向角度记录值和转向视距记录值作为输入特征,使用与之对应的目标变量(如实际视距情况或评估结果)作为输出标签,将数据划分为训练集和测试集,用于训练和评估转向视距分析节点。
根据得到的输入和输出数据,基于BP神经网络,构建转向视距分析节点,并利用训练集对该节点进行训练,通过反向传播算法,优化神经网络的权重和偏置,使之能够更好地拟合和预测转向视距,使用测试集对训练好的转向视距分析节点进行评估,检查其在未见过的数据上的性能表现,当测试结果满足预设要求时,例如准确率达到95%,则获取所述转向视距分析节点。训练好的转向视距分析节点可以应用于实际的转向视距分析任务中,根据巡检速度记录值和转向角度记录值,预测并评估转向视距情况,以此优化巡检机器人的路径规划和安全性。
基于所述转向视距特征值对预设巡检路线进行调整,获取巡检路线优化结果;
根据获取的转向视距特征值,评估当前预设巡检路线中每个凹凸特征区域对机器人行驶的影响,其中,较大的视距值表示路段相对平坦,而较小的视距值表示存在凹凸不平的问题。基于转向视距的评估结果,制定路线优化策略,例如,对于存在严重凹凸的区域,需要选择绕行或调整机器人的速度以减少冲击,根据所述路线优化策略,对预设巡检路线进行调整,例如,采用最短路径算法或者遗传算法,以缩小凹凸特征区域的数量和强度,或寻找更平坦的代替路径为调整目标,生成更优化的巡检路线。
根据所述巡检路线优化结果控制所述巡检机器人。
将优化后的巡检路线同步到巡检机器人的导航系统中,利用机器人的控制系统,根据导航指令和传感器数据,控制机器人按优化后的路线进行移动,包括控制机器人的速度、方向以及姿态等参数,以确保其沿着优化路线正确行驶并进行巡检任务。以此实现提高效率、减少风险,并确保巡检工作的顺利进行。
综上所述,本申请实施例所提供的一种多角度视距的机器人控制方法及系统具有如下技术效果:
激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像,确定第一目标路段视觉盲区,激活第二位置CCD视觉采集器,采集第二采集图像,根据第一采集图像和第二采集图像,对第一目标路段进行平坦度分析,获取凹凸特征区域,基于凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值,基于转向视距特征值对预设巡检路线进行调整,获取巡检路线优化结果,根据巡检路线优化结果控制巡检机器人。
解决了现有技术中的机器人控制方法通常由一个视觉模块采集结果进行决策,但是单一角度的视距图像具有视觉盲区,使得无法实现准确、稳定控制的技术问题,实现了通过多个视觉模块采集结果,从多个角度进行视距图像采集,进而消除视觉盲区,以更准确地评估目标路段情况,达到提升机器人控制的准确性、稳定性的技术效果。
实施例二
基于与前述实施例中一种多角度视距的机器人控制方法相同的发明构思,如图4所示,本申请提供了一种多角度视距的机器人控制系统,所述系统和巡检机器人通信连接,和多个CCD视觉采集器通信连接,所述系统包括:
第一图像获取模块10,所述第一图像获取模块10用于激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像进行盲区分析,确定第一目标路段视觉盲区;
第二图像获取模块20,所述第二图像获取模块20用于激活第二位置CCD视觉采集器,基于所述第一目标路段视觉盲区采集第二采集图像;
平坦度分析模块30,所述平坦度分析模块30用于根据所述第一采集图像和所述第二采集图像,对所述第一目标路段进行平坦度分析,获取凹凸特征区域;
转向视距分析模块40,所述转向视距分析模块40用于基于所述凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值;
预设路线调整模块50,所述预设路线调整模块50用于基于所述转向视距特征值对预设巡检路线进行调整,获取巡检路线优化结果;
机器人控制模块60,所述机器人控制模块60用于根据所述巡检路线优化结果控制所述巡检机器人。
进一步而言,所述系统还包括:
第一路段分割模块,用于对所述第一采集图像进行第一目标路段分割,构建第一目标子路段;
第一坐标矩阵获取模块,用于获取所述第一目标子路段的第一定位坐标矩阵;
第二坐标矩阵获取模块,用于获取所述第一目标路段的第二定位坐标矩阵;
相似度评估模块,用于根据所述第一定位坐标矩阵和所述第二定位坐标矩阵,对所述第一目标子路段和所述第一目标路段进行相似度评估,获取子路段非覆盖区域;
第一盲区设定模块,用于将所述子路段非覆盖区域设为所述第一目标路段视觉盲区。
进一步而言,所述系统还包括:
第一标准图像获取模块,用于基于所述第一位置CCD视觉采集器,获取第一标准图像;
第二标准图像获取模块,用于基于所述第二位置CCD视觉采集器,获取第二标准图像;
第一区域获取模块,用于激活孪生网络模型的第一特征提取通道接收所述第一采集图像,激活孪生网络节点的第二特征提取通道接收所述第一标准图像,获取第一偏差特征区域;
第二区域获取模块,用于激活孪生网络模型的第一特征提取通道接收所述第二采集图像,激活孪生网络节点的第二特征提取通道接收所述第二标准图像,获取第二偏差特征区域;
凹凸特征区域获取模块,用于根据所述第一偏差特征区域和所述第二偏差特征区域进行平坦度分析,获取所述凹凸特征区域。
进一步而言,所述系统还包括:
特性获取模块,用于基于所述第一位置CCD视觉采集器,获取图像采集参数特征和监控场景光学特性,其中,所述图像采集参数特征包括图像采集角度特征、图像采集距离特征和图像采集光学参数;
标注数据集获取模块,用于获取标注数据集,其中,所述标注数据集包括图像采集参数记录值、场景光学特性记录值、概念图像集和目标图像集;
训练模块,用于将所述图像采集参数记录值、所述场景光学特性记录值、所述概念图像集同步至反向卷积神经网络,以所述目标图像集为监督数据进行训练,获取图像调制器;
第一标准图像输出模块,用于将所述图像采集参数特征、所述监控场景光学特性和第一目标子路段概念图同步至所述图像调制器,获取所述第一标准图像。
进一步而言,所述系统还包括:
缺陷检测模块,用于对所述第一偏差特征区域和所述第二偏差特征区域进行缺陷检测,获取凹区域尺寸特征和凸区域尺寸特征;
第一凹区域添加模块,用于所述凹区域尺寸特征包括第一方向直径极大值和第二方向直径极大值,当所述第一方向直径极大值大于或等于所述巡检机器人的行进轮宽度时,且所述第二方向直径极大值大于或等于行进轮卡死长度时,将凹区域分布位置添加进所述凹凸特征区域,其中,第二方向为行进方向,第一方向为行进方向垂直方向;
第二凸区域添加模块,用于所述凸区域尺寸特征包括高度极大值,当所述高度极大值大于或等于所述巡检机器人的可跨高度阈值时,将凸区域分布位置添加进所述凹凸特征区域。
进一步而言,所述系统还包括:
特征参数获取模块,用于获取凹区域像素特征参数和凸区域像素特征参数;
编码结果获取模块,用于获取标准图像集,结合所述凹区域像素特征参数和所述凸区域像素特征参数同步至图像编码器,获取缺陷图像编码结果;
识别结果获取模块,用于将所述缺陷图像编码结果同步至图像解码器,获取凹凸区域识别结果;
权重更新模块,用于根据所述凹凸区域识别结果对所述图像编码器进行权重更新,当所述凹凸区域识别结果的准确率满足准确率阈值时,获取缺陷检测模型,对所述第一偏差特征区域和所述第二偏差特征区域进行缺陷检测,获取所述凹区域尺寸特征和所述凸区域尺寸特征。
进一步而言,所述系统还包括:
巡检速度参数获取模块,用于获取所述巡检机器人的巡检速度参数;
转向角度参数获取模块,用于根据所述凹凸特征区域,确定所述巡检机器人的转向角度参数;
评估结果获取模块,用于激活转向视距分析节点对所述转向角度参数和所述巡检速度参数进行映射,获取第一转向视距评估结果;
特征信息获取模块,用于获取所述凹凸特征区域和所述巡检机器人的距离特征信息;
评估结果添加模块,用于当所述距离特征信息大于或等于所述转向视距评估结果,将所述第一转向视距评估结果添加进所述转向视距特征值;
巡检速度参数调整模块,用于当所述距离特征信息小于所述转向视距评估结果,基于所述转向视距分析节点对所述巡检速度参数进行调整,获取巡检速度参数调整值和第二转向视距评估结果,添加进所述转向视距特征值;
分析节点训练模块,用于其中,获取所述巡检机器人的同型号记录数据,所述同型号记录数据包括巡检速度记录值、转向角度记录值和转向视距记录值,基于所述巡检速度记录值、所述转向角度记录值和所述转向视距记录值,结合BP神经网络训练所述转向视距分析节点。
本说明书通过前述对一种多角度视距的机器人控制方法的详细描述,本领域技术人员可以清楚得知道本实施例中一种多角度视距的机器人控制方法及系统,对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述得比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其他实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (8)
1.一种多角度视距的机器人控制方法,其特征在于,应用于多角度视距的机器人控制系统,所述系统和巡检机器人通信连接,和多个CCD视觉采集器通信连接,所述方法包括:
激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像进行盲区分析,确定第一目标路段视觉盲区;
激活第二位置CCD视觉采集器,基于所述第一目标路段视觉盲区采集第二采集图像;
根据所述第一采集图像和所述第二采集图像,对所述第一目标路段进行平坦度分析,获取凹凸特征区域;
基于所述凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值;
基于所述转向视距特征值对预设巡检路线进行调整,获取巡检路线优化结果;
根据所述巡检路线优化结果控制所述巡检机器人。
2.如权利要求1所述的方法,其特征在于,激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像进行盲区分析,确定第一目标路段视觉盲区,包括:
对所述第一采集图像进行第一目标路段分割,构建第一目标子路段;
获取所述第一目标子路段的第一定位坐标矩阵;
获取所述第一目标路段的第二定位坐标矩阵;
根据所述第一定位坐标矩阵和所述第二定位坐标矩阵,对所述第一目标子路段和所述第一目标路段进行相似度评估,获取子路段非覆盖区域;
将所述子路段非覆盖区域设为所述第一目标路段视觉盲区。
3.如权利要求1所述的方法,其特征在于,根据所述第一采集图像和所述第二采集图像,对所述第一目标路段进行平坦度分析,获取凹凸特征区域,包括:
基于所述第一位置CCD视觉采集器,获取第一标准图像;
基于所述第二位置CCD视觉采集器,获取第二标准图像;
激活孪生网络模型的第一特征提取通道接收所述第一采集图像,激活孪生网络节点的第二特征提取通道接收所述第一标准图像,获取第一偏差特征区域;
激活孪生网络模型的第一特征提取通道接收所述第二采集图像,激活孪生网络节点的第二特征提取通道接收所述第二标准图像,获取第二偏差特征区域;
根据所述第一偏差特征区域和所述第二偏差特征区域进行平坦度分析,获取所述凹凸特征区域。
4.如权利要求3所述的方法,其特征在于,基于所述第一位置CCD视觉采集器,获取第一标准图像,包括:
基于所述第一位置CCD视觉采集器,获取图像采集参数特征和监控场景光学特性,其中,所述图像采集参数特征包括图像采集角度特征、图像采集距离特征和图像采集光学参数;
获取标注数据集,其中,所述标注数据集包括图像采集参数记录值、场景光学特性记录值、概念图像集和目标图像集;
将所述图像采集参数记录值、所述场景光学特性记录值、所述概念图像集同步至反向卷积神经网络,以所述目标图像集为监督数据进行训练,获取图像调制器;
将所述图像采集参数特征、所述监控场景光学特性和第一目标子路段概念图同步至所述图像调制器,获取所述第一标准图像。
5.如权利要求3所述的方法,其特征在于,根据所述第一偏差特征区域和所述第二偏差特征区域进行平坦度分析,获取所述凹凸特征区域,包括:
对所述第一偏差特征区域和所述第二偏差特征区域进行缺陷检测,获取凹区域尺寸特征和凸区域尺寸特征;
所述凹区域尺寸特征包括第一方向直径极大值和第二方向直径极大值,当所述第一方向直径极大值大于或等于所述巡检机器人的行进轮宽度时,且所述第二方向直径极大值大于或等于行进轮卡死长度时,将凹区域分布位置添加进所述凹凸特征区域,其中,第二方向为行进方向,第一方向为行进方向垂直方向;
所述凸区域尺寸特征包括高度极大值,当所述高度极大值大于或等于所述巡检机器人的可跨高度阈值时,将凸区域分布位置添加进所述凹凸特征区域。
6.如权利要求5所述的方法,其特征在于,对所述第一偏差特征区域和所述第二偏差特征区域进行缺陷检测,获取凹区域尺寸特征和凸区域尺寸特征,包括:
获取凹区域像素特征参数和凸区域像素特征参数;
获取标准图像集,结合所述凹区域像素特征参数和所述凸区域像素特征参数同步至图像编码器,获取缺陷图像编码结果;
将所述缺陷图像编码结果同步至图像解码器,获取凹凸区域识别结果;
根据所述凹凸区域识别结果对所述图像编码器进行权重更新,当所述凹凸区域识别结果的准确率满足准确率阈值时,获取缺陷检测模型,对所述第一偏差特征区域和所述第二偏差特征区域进行缺陷检测,获取所述凹区域尺寸特征和所述凸区域尺寸特征。
7.如权利要求1所述的方法,其特征在于,基于所述凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值,包括:
获取所述巡检机器人的巡检速度参数;
根据所述凹凸特征区域,确定所述巡检机器人的转向角度参数;
激活转向视距分析节点对所述转向角度参数和所述巡检速度参数进行映射,获取第一转向视距评估结果;
获取所述凹凸特征区域和所述巡检机器人的距离特征信息;
当所述距离特征信息大于或等于所述转向视距评估结果,将所述第一转向视距评估结果添加进所述转向视距特征值;
当所述距离特征信息小于所述转向视距评估结果,基于所述转向视距分析节点对所述巡检速度参数进行调整,获取巡检速度参数调整值和第二转向视距评估结果,添加进所述转向视距特征值;
其中,获取所述巡检机器人的同型号记录数据,所述同型号记录数据包括巡检速度记录值、转向角度记录值和转向视距记录值,基于所述巡检速度记录值、所述转向角度记录值和所述转向视距记录值,结合BP神经网络训练所述转向视距分析节点。
8.一种多角度视距的机器人控制系统,其特征在于,所述系统和巡检机器人通信连接,和多个CCD视觉采集器通信连接,用于实施权利要求1-7任一项所述的一种多角度视距的机器人控制方法,包括:
第一图像获取模块,所述第一图像获取模块用于激活第一位置CCD视觉采集器,采集第一目标路段的第一采集图像进行盲区分析,确定第一目标路段视觉盲区;
第二图像获取模块,所述第二图像获取模块用于激活第二位置CCD视觉采集器,基于所述第一目标路段视觉盲区采集第二采集图像;
平坦度分析模块,所述平坦度分析模块用于根据所述第一采集图像和所述第二采集图像,对所述第一目标路段进行平坦度分析,获取凹凸特征区域;
转向视距分析模块,所述转向视距分析模块用于基于所述凹凸特征区域对巡检机器人进行转向视距分析,获取转向视距特征值;
预设路线调整模块,所述预设路线调整模块用于基于所述转向视距特征值对预设巡检路线进行调整,获取巡检路线优化结果;
机器人控制模块,所述机器人控制模块用于根据所述巡检路线优化结果控制所述巡检机器人。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311186096.0A CN116901089B (zh) | 2023-09-14 | 2023-09-14 | 一种多角度视距的机器人控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311186096.0A CN116901089B (zh) | 2023-09-14 | 2023-09-14 | 一种多角度视距的机器人控制方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116901089A true CN116901089A (zh) | 2023-10-20 |
CN116901089B CN116901089B (zh) | 2024-01-05 |
Family
ID=88351543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311186096.0A Active CN116901089B (zh) | 2023-09-14 | 2023-09-14 | 一种多角度视距的机器人控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116901089B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117270548A (zh) * | 2023-11-23 | 2023-12-22 | 安徽领云物联科技有限公司 | 一种带有路线矫正功能的智慧巡检机器人 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101077578A (zh) * | 2007-07-03 | 2007-11-28 | 北京控制工程研究所 | 一种基于二元环境信息的移动机器人局部路径规划方法 |
CN101221447A (zh) * | 2008-01-18 | 2008-07-16 | 中国农业大学 | 一种机械自动转向控制方法 |
CN112721806A (zh) * | 2021-02-07 | 2021-04-30 | 戴姆勒股份公司 | 用于坡度路段的盲区辅助的方法和装置 |
CN113077562A (zh) * | 2021-04-09 | 2021-07-06 | 北京市燃气集团有限责任公司 | 一种燃气管网智能巡检方法与系统 |
CN114022798A (zh) * | 2021-10-29 | 2022-02-08 | 国网河南省电力公司洛阳供电公司 | 一种基于数字孪生技术的变电站巡检机器人避障方法 |
WO2023061049A1 (zh) * | 2021-10-11 | 2023-04-20 | 国网智能科技股份有限公司 | 一种配网车载智能巡检机器人系统及方法 |
CN116634095A (zh) * | 2022-02-09 | 2023-08-22 | 北京罗克维尔斯科技有限公司 | 车辆盲区路面感知方法、装置、设备及存储介质 |
-
2023
- 2023-09-14 CN CN202311186096.0A patent/CN116901089B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101077578A (zh) * | 2007-07-03 | 2007-11-28 | 北京控制工程研究所 | 一种基于二元环境信息的移动机器人局部路径规划方法 |
CN101221447A (zh) * | 2008-01-18 | 2008-07-16 | 中国农业大学 | 一种机械自动转向控制方法 |
CN112721806A (zh) * | 2021-02-07 | 2021-04-30 | 戴姆勒股份公司 | 用于坡度路段的盲区辅助的方法和装置 |
CN113077562A (zh) * | 2021-04-09 | 2021-07-06 | 北京市燃气集团有限责任公司 | 一种燃气管网智能巡检方法与系统 |
WO2023061049A1 (zh) * | 2021-10-11 | 2023-04-20 | 国网智能科技股份有限公司 | 一种配网车载智能巡检机器人系统及方法 |
CN114022798A (zh) * | 2021-10-29 | 2022-02-08 | 国网河南省电力公司洛阳供电公司 | 一种基于数字孪生技术的变电站巡检机器人避障方法 |
CN116634095A (zh) * | 2022-02-09 | 2023-08-22 | 北京罗克维尔斯科技有限公司 | 车辆盲区路面感知方法、装置、设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117270548A (zh) * | 2023-11-23 | 2023-12-22 | 安徽领云物联科技有限公司 | 一种带有路线矫正功能的智慧巡检机器人 |
CN117270548B (zh) * | 2023-11-23 | 2024-02-09 | 安徽领云物联科技有限公司 | 一种带有路线矫正功能的智慧巡检机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN116901089B (zh) | 2024-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN111340797B (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
CN110175576B (zh) | 一种结合激光点云数据的行驶车辆视觉检测方法 | |
US8634593B2 (en) | Pixel-based texture-less clear path detection | |
US8452053B2 (en) | Pixel-based texture-rich clear path detection | |
US8611585B2 (en) | Clear path detection using patch approach | |
CN110569704A (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
US8699754B2 (en) | Clear path detection through road modeling | |
CN108830171B (zh) | 一种基于深度学习的智能物流仓库引导线视觉检测方法 | |
CN112923904B (zh) | 面向多无人机协同摄影测量的地质灾害隐患探测方法 | |
CN109902676B (zh) | 一种基于动态背景的违停检测算法 | |
Huang et al. | Spatial-temproal based lane detection using deep learning | |
CN116901089B (zh) | 一种多角度视距的机器人控制方法及系统 | |
CN113269040A (zh) | 结合图象识别与激光雷达点云分割的驾驶环境感知方法 | |
CN112819895A (zh) | 一种摄像机标定方法及装置 | |
CN114972177A (zh) | 道路病害识别管理方法、装置及智能终端 | |
CN112581543A (zh) | 运动机器人视觉导航方法 | |
CN114905512A (zh) | 一种智能巡检机器人全景追踪及避障方法及系统 | |
CN112613392A (zh) | 基于语义分割的车道线检测方法、装置、系统及存储介质 | |
CN109934096B (zh) | 基于特征时序相关性的自动驾驶视觉感知优化方法 | |
CN117197019A (zh) | 一种车辆三维点云图像融合方法及系统 | |
CN115147450B (zh) | 基于运动帧差图像的移动目标检测方法及检测装置 | |
CN115457780B (zh) | 一种基于先验知识集合的车流量流速自动测算方法及系统 | |
Ji et al. | Lane line detection system based on improved Yolo V3 algorithm | |
CN115761265A (zh) | 一种用于提取激光雷达点云中变电站设备的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |