CN111611989A - 一种基于自主机器人的多目标精准定位识别方法 - Google Patents
一种基于自主机器人的多目标精准定位识别方法 Download PDFInfo
- Publication number
- CN111611989A CN111611989A CN202010442081.6A CN202010442081A CN111611989A CN 111611989 A CN111611989 A CN 111611989A CN 202010442081 A CN202010442081 A CN 202010442081A CN 111611989 A CN111611989 A CN 111611989A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- coordinate
- autonomous robot
- targets
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种基于自主机器人的多目标精准定位识别方法,包括以下步骤:检测前预作业:拍摄基准图像训练目标检测模型;正式检测:自主机器人行驶到目标检测点,拍摄得到图像A;输入到目标检测模型内,包含以下两种情况;能够得到图像A中的全部目标:并且全部目标识别成功,则进行下一目标检测点的识别;若部分目标未识别,调整自主机器人的云台PTZ参数,进行图像的平移缩放,再进行识别,直到所有的目标被识别完毕或识别失败;仅能够得到图像A中的部分目标:则调整云台PTZ参数,重新拍摄得到图像B,进行检测,直到所有的目标识别完毕。本发明的基于自主机器人的多目标精准定位识别方法具有目标定位精确,工作冗杂性小,运行效率高的优点。
Description
技术领域
本发明属于机器人巡检技术领域,具体涉及一种基于自主机器人的多目标精准定位识别方法。
背景技术
自主机器人是其本体自带各种必要的传感器、控制器,在运行过程中无外界人为信息输入和控制的条件下,可以独立完成一定的任务的机器人。
随着人工智能技术的逐渐兴起,各地也纷纷开始了自主机器人的研发。通常自主机器人的研发目的都是为了去检测某些设备的状态,或者识别某些设备的读数。自主机器人一般都会在车身上装载激光雷达、IMU等导航方式实现自主导航;装载云台、可见光摄相机、红外摄像机以实现设备图像信息的采集,以供后续的图像识别。现有的自主机器人运作的流程一般如下:先由自主导航行驶到设备附近,然后配置并存储好云台的俯仰角、旋转角,相机的焦距信息等,在下一次巡检时读取之前存储好的对应位置的信息,最后采集设备图像,识别设备状态。
但是现有的自主机器人运作流程存在一些问题,一是:在检测过程中,一旦检测目标点过多,需要花费大量时间去配置巡检信息;二是:导航技术会存在一定的误差,也就是说自主机器人在自主巡检到任务点时很可能会偏离原来的位置,这样会导致采集到的图像部分缺失或者完全丢失,最终识别出错,从而导致后续对图像中具体信息的分析出错,导致图像信息的提取失败。
发明内容
本发明的一个目的是解决至少上述问题和/或缺陷,并提供至少后面将说明的优点。
为了实现根据本发明的这些目的和其它优点,提供了一种基于自主机器人的多目标精准定位识别方法,包括以下步骤:
步骤S1、检测前预作业:通过自主机器人在巡检点拍摄基准图像训练目标检测模型;
步骤S2、正式检测:根据定位导航将自主机器人行驶到一个目标检测点,拍摄得到目标检测点的图像A;
步骤S3、将图像A输入到目标检测模型内,得到图像A内包含的待检测目标,包含以下两种情况;
情况一、能够得到图像A中的全部目标:并且全部目标识别成功,则自主机器人据定位导航行驶到下一个目标检测点,重复步骤S2~步骤S3;若部分目标未能识别成功,则调整自主机器人的云台PTZ参数,进行图像的平移缩放,再进行检测,直到所有的目标被识别完毕或识别失败,判定检测失败并记录;
情况二、仅能够得到图像A中的部分目标:则调整云台PTZ参数,重新拍摄得到包含所有目标检测点的图像B,重复情况一,直到所有的目标被识别完毕。
优选的是,所述步骤S1中的通过基准图像训练目标检测模型的具体步骤为:
步骤S11、将自主机器人行驶到一个巡检点,人工调整云台PTZ参数,在此巡检点正对多目标场景拍摄一张图像作为基准图像,并存储此巡检点的云台PTZ参数;
步骤S12、以基准图像的左上角作为坐标原点(0,0),建立x-y坐标系,并使用标准软件标注基准图像中所有目标在图像中的位置信息,该位置信息为包围目标的矩形框的左上角坐标On(xn,yn)和矩形框的长度、宽度,并存储到配置文件中;
步骤S13、在基准图像中选择一个特征丰富、易识别且靠近图像中央的目标作为标志目标并得到标志目标的位置信息,该位置信息为包围标志目标的矩形框的左上角坐标O0(x0,y0)和用于计算标志目标面积的矩形框长度、宽度;
步骤S14、通过标志目标的位置信息,计算出标志目标与x-y坐标系的x轴和y轴的距离分别为x0、y0,并将x0、y0作为基准距离;
步骤S15、人工调整云台的PTZ参数,并进行图像缩放,并以图像左上角作为坐标原点(0,0),根据各个目标的检测需求,依次采集目标所需检测的细节图像数据,使用标准软件标注并存储所有的细节图像数据中各个目标在图像中的位置,得到数据集文件;
步骤S16、将数据集输入到目标检测框架进行训练,最终得到一个用于检测目标个数和检测目标细节图像数据的目标检测模型。
优选的是,目标检测模型使用的标注软件为VOTT标注软件,标注完成后,可通过软件导出数据集文件;使用的检测算法为yolov3目标检测算法,目标检测框架为darknet目标检测框架。
优选的是,所述PTZ参数包括云台的水平旋转角度、垂直旋转角度和云台相机焦距。
优选的是,在步骤S3中,所述云台PTZ参数调整的具体方法包括:
图像A中标志目标的坐标为A(Ax,Ay),基准图像中的标志目标的坐标为O0(x0,y0),计算图像A中标志目标与基准图像中的标志目标相对于坐标原点的距离,相比较得出图像A中标志目标发生的x轴偏移量dx、y轴偏移量dy,并得到图像缩放比例dz:
dx=|Ax-x0|
dy=|Ay-y0|
其中,Ax、x0分别表示标志目标在图像A和基准图像中的左上角x坐标,Ay、y0分别表示标志目标在图像A和基准图像中的左上角y坐标,SA、SB分别表示标志目标在图像A和基准图像中的面积;
云台PTZ参数和图像位移缩放之间存在比例关系如下:
θp=dx*fp
θt=dy*ft
α=dz*fz
其中,θp表示水平偏转角度,dx表示图像x轴偏移量;
θt表示垂直偏转角度,dy表示图像y轴偏移量;
α表示相机焦距需调整的倍数,dz表示图像缩放比例;
其中,fp、ft、fz为已知的固定值,在训练目标检测模型的过程中,训练得到,具体步骤包括:
步骤1、在固定点上,正对目标A拍摄一张图像C,以图像C的左上角作为坐标原点(0,0),建立x-y坐标系,并记录目标A的中心点坐标(x1,y1);
本发明至少包括以下有益效果:
本发明通过对预存多目标的位置,使用目标检测技术结合云台PTZ参数和图像位移缩放之间的比例关系对目标进行精确定位检测,可以省略掉云台位置以及摄像机的焦距等信息的预先配置,大大减小了工作的冗杂性,通过一次性识别摄像机所能拍摄的大场景内的所有目标的细节信息,提高自主机器人识别系统的运行效率,方便实现后续图像信息的提取。
本发明的其它优点、目标和特征将部分通过下面的说明体现,部分还将通过对本发明的研究和实践而为本领域的技术人员所理解。
附图说明:
图1为本发明提供的基准图像示意图;
图2为本发明提供的建立坐标系后基准图像示意图;
图3为本发明提供的目标B缩放后示意图;
图4为本发明提供的只包含部分目标的图像A示意图;
图5为本发明提供的只包含部分目标的图像A建立坐标系后示意图;
图6为本发明提供的图像B示意图。
具体实施方式:
下面结合附图对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
应当理解,本文所使用的诸如“具有”、“包含”以及“包括”术语并不配出一个或多个其它元件或其组合的存在或添加。
实施例1:
如图1-6所示的一种基于自主机器人的多目标精准定位识别方法,包括以下步骤:
步骤S1、检测前预作业:将自主机器人行驶到一个巡检点,人工调整云台PTZ参数,其中,PTZ参数包括云台的水平旋转角度、垂直旋转角度和云台相机焦距,在此巡检点正对多目标场景拍摄一张图像作为基准图像,如图1所述,并存储此巡检点的云台PTZ参数;以基准图像的左上角作为坐标原点(0,0),建立x-y坐标系,并使用VOTT标注软件标注基准图像中所有目标(目标A、目标B、目标C、目标D、目标E、目标F)在图像中的位置信息,该位置信息为包围目标的矩形框的左上角坐标On(xn,yn)和矩形框的长度、宽度,并存储到配置文件中;在基准图像中选择一个特征丰富、易识别且靠近图像中央的目标作为标志目标(目标A)并得到标志目标的位置信息,如图2所示,该位置信息为包围标志目标的矩形框的左上角坐标O0(x0,y0)和用于计算标志目标面积的矩形框长度、宽度;通过标志目标的位置信息,计算出标志目标与x-y坐标系的x轴和y轴的距离分别为x0、y0,并将x0、y0作为基准距离;人工调整云台的PTZ参数,并进行图像缩放,通过多次的训练可以得到,能够保证图像最清晰的缩放比例为六分之一,并以图像左上角作为坐标原点(0,0),根据各个目标的检测需求,依次采集目标所需检测的细节图像数据,使用VOTT标注软件标注并存储所有的细节图像数据中各个目标在图像中的位置,得到数据集文件;将数据集输入到darknet目标检测框架,配合yolov3目标检测算法进行训练,最终得到一个用于检测目标个数和检测目标细节图像数据的目标检测模型;
在人工调整云台PTZ参数的过程中,保持自主机器人位置不变,正对目标A拍摄一张图像C,以图像C的左上角作为坐标原点(0,0),建立x-y坐标系,并记录目标A的中心点坐标(x1,y1);人工调整PTZ参数,使得云台在水平旋转一定的角度θ,此过程中,目标A一直处于视野内,再次记录目标中心点的坐标(x2,y1),由于只存在水平旋转,坐标的y值不变,可计算云台水平旋转角度与目标A水平的平移量之间的比例关系:人工调整PTZ参数,使得云台在垂直方向上旋转一定的角度θ,此过程中,目标A一直处于视野内,再次记录目标中心点的坐标(x1,y2),由于只存在垂直方向旋转,坐标的x值不变,可计算云台垂直方向旋转角度与目标A垂直方向的平移量之间的比例关系:调整云台摄像机的焦距为α倍,记录目标A缩放前后的面积S1和S2,可以计算出焦距变化时,图像的缩放比例关系:得到的比例关系fp、ft、fz为已知的固定值,用于后续的图像调整;
步骤S2、正式检测:根据定位导航信息将自主机器人行驶到一个目标检测点,此时,自主机器人在目标检测点停车的误差不会太大,读取并调用检测前预作业过程中存储的云台PTZ参数,通过自主机器人拍摄得到目标检测点的一张图像A;
步骤S3、将拍摄得到图像A输入到目标检测模型内,得到图像A内包含的待检测目标,包含以下两种情况;
情况一、通过目标检测模型能够得到图像A中的全部目标(目标A、目标B、目标C、目标D、目标E、目标F),且所有(目标A、目标B、目标C、目标D、目标E、目标F)目标均能识别成功,则自主机器人据定位导航行驶到下一个目标检测点,重复步骤S2~步骤S3;若部分目标(目标B)未能识别成功,此时,图像A中目标B的坐标为B(Bx,By),基准图像中目标B的坐标为OB(xB,yB),如图3所示,计算图像A中目标B的坐标与基准图像中的目标B相比较所发生的x轴偏移量dx、y轴偏移量dy以及图像缩放比例dz;
其中:
dx=|Bx-xB|
dy=|By-yB|
其中,Bx、xB分别表示目标B在图像A和基准图像中的左上角x坐标,By、yB分别表示目标B在图像A和基准图像中的左上角y坐标,SA、SB分别表示目标B在图像A和基准图像中的面积。
并且云台PTZ参数和图像位移缩放之间存在比例关系如下:
θp1=dx*fp
θt1=dy*ft
α1=dz*fz
其中,θp1表示水平偏转角度,dx表示图像x轴偏移量;θt1表示垂直偏转角度,dy表示图像y轴偏移量;α1表示相机焦距需调整的倍数,dz表示图像缩放比例;
从而调整云台PTZ参数,使得云台在水平方向和竖直方向上旋转相应的角度,使未识别到的目标B平移到图像正中,再将图像大小缩放为原始图像的六分之一,使用目标检测模型检测当前的图像,目标B识别成功,则自主机器人据定位导航行驶到下一个目标检测点,直到所有的目标被识别完毕,若多次检测识别,目标仍识别失败,判定检测失败并记录;
情况二、若通过目标检测模型仅能够得到图像A中的部分目标(目标A、目标B、目标D、目标E),如图4所示,此时,建立坐标系,图像A中标志目标(目标A)的坐标为A(Ax,Ay),如图5所示,基准图像中的标志目标(目标A)的坐标为O0(x0,y0),计算图像A中标志目标(目标A)与基准图像中的标志目标(目标A)相比较所发生的x轴偏移量dx、y轴偏移量dy以及图像缩放比例dz;
其中:
dx=|Ax-x0|
dy=|Ay-y0|
其中,Ax、x0分别表示标志目标在图像A和基准图像中的左上角x坐标,Ay、y0分别表示标志目标在图像A和基准图像中的左上角y坐标,SA、SB分别表示标志目标在图像A和基准图像中的面积。
并且云台PTZ参数和图像位移缩放之间存在比例关系如下:
θp2=dx*fp
θt2=dy*ft
α2=dz*fz
其中,θp2表示水平偏转角度,dx表示图像x轴偏移量;θt2表示垂直偏转角度,dy表示图像y轴偏移量;α2表示相机焦距需调整的倍数,dz表示图像缩放比例;
调整云台PTZ参数,使得云台在水平方向和竖直方向上旋转相应的角度,重新拍摄得到目标检测点的图像B,如图6所示,重复情况一,直到所有的目标被识别完毕。
这里说明的设备数量和处理规模是用来简化本发明的说明的。对本发明的基于自主机器人的多目标精准定位识别方法的应用、修改和变化对本领域的技术人员来说是显而易见的。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。
Claims (5)
1.一种基于自主机器人的多目标精准定位识别方法,其特征在于,包括以下步骤:
步骤S1、检测前预作业:通过自主机器人在巡检点拍摄基准图像训练目标检测模型;
步骤S2、正式检测:根据定位导航将自主机器人行驶到一个目标检测点,拍摄得到目标检测点的图像A;
步骤S3、将图像A输入到目标检测模型内,得到图像A内包含的待检测目标,包含以下两种情况;
情况一、能够得到图像A中的全部目标:并且全部目标识别成功,则自主机器人据定位导航行驶到下一个目标检测点,重复步骤S2~S3;若部分目标未能识别成功,则调整自主机器人的云台PTZ参数,进行图像的平移缩放,再进行检测,直到所有的目标被识别完毕或识别失败,判定检测失败并记录;
情况二、仅能够得到图像A中的部分目标:则调整云台PTZ参数,重新拍摄得到包含所有目标检测点的图像B,重复情况一,直到所有的目标被识别完毕。
2.如权利要求1所述的基于自主机器人的多目标精准定位识别方法,其特征在于,所述步骤S1中的通过基准图像训练目标检测模型的具体步骤为:
步骤S11、将自主机器人行驶到一个巡检点,人工调整云台PTZ参数,在此巡检点正对多目标场景拍摄一张图像作为基准图像,并存储此巡检点的云台PTZ参数;
步骤S12、以基准图像的左上角作为坐标原点(0,0),建立x-y坐标系,并使用标准软件标注基准图像中所有目标在图像中的位置信息,该位置信息为包围目标的矩形框的左上角坐标On(xn,yn)和矩形框的长度、宽度,并存储到配置文件中;
步骤S13、在基准图像中选择一个特征丰富、易识别且靠近图像中央的目标作为标志目标并得到标志目标的位置信息,该位置信息为包围标志目标的矩形框的左上角坐标O0(x0,y0)和用于计算标志目标面积的矩形框长度、宽度;
步骤S14、通过标志目标的位置信息,计算出标志目标与x-y坐标系的x轴和y轴的距离分别为x0、y0,并将x0、y0作为基准距离;
步骤S15、人工调整云台的PTZ参数,并进行图像缩放,并以图像左上角作为坐标原点(0,0),根据各个目标的检测需求,依次采集目标所需检测的细节图像数据,使用标准软件标注并存储所有的细节图像数据中各个目标在图像中的位置,得到数据集文件;
步骤S16、将数据集输入到目标检测框架进行训练,最终得到一个用于检测目标个数和检测目标细节图像数据的目标检测模型。
3.如权利要求2所述的基于自主机器人的多目标精准定位识别方法,其特征在于,目标检测模型使用的标注软件为VOTT标注软件,标注完成后,可通过软件导出数据集文件;使用的检测算法为yolov3目标检测算法,目标检测框架为darknet目标检测框架。
4.如权利要求1所述的基于自主机器人的多目标精准定位识别方法,其特征在于,所述PTZ参数包括云台的水平旋转角度、垂直旋转角度和云台相机焦距。
5.如权利要求2所述的基于自主机器人的多目标精准定位识别方法,其特征在于,在步骤S3中,所述云台PTZ参数调整的具体方法包括:
图像A中标志目标的坐标为A(Ax,Ay),基准图像中的标志目标的坐标为O0(x0,y0),计算图像A中标志目标与基准图像中的标志目标相对于坐标原点的距离,相比较得出图像A中标志目标发生的x轴偏移量dx、y轴偏移量dy,并得到图像缩放比例dz:
dx=|Ax-x0|
dy=|Ay-y0|
其中,Ax、x0分别表示标志目标在图像A和基准图像中的左上角x坐标,Ay、y0分别表示标志目标在图像A和基准图像中的左上角y坐标,SA、SB分别表示标志目标在图像A和基准图像中的面积;
云台PTZ参数和图像位移缩放之间存在比例关系如下:
θp=dx*fp
θt=dy*ft
α=dz*fz
其中,θp表示水平偏转角度,dx表示图像x轴偏移量;
θt表示垂直偏转角度,dy表示图像y轴偏移量;
α表示相机焦距需调整的倍数,dz表示图像缩放比例;
其中,fp、ft、fz为已知的固定值,在训练目标检测模型的过程中,训练得到,具体步骤包括:
步骤1、在固定点上,正对目标A拍摄一张图像C,以图像C的左上角作为坐标原点(0,0),建立x-y坐标系,并记录目标A的中心点坐标(x1,y1);
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010442081.6A CN111611989B (zh) | 2020-05-22 | 2020-05-22 | 一种基于自主机器人的多目标精准定位识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010442081.6A CN111611989B (zh) | 2020-05-22 | 2020-05-22 | 一种基于自主机器人的多目标精准定位识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111611989A true CN111611989A (zh) | 2020-09-01 |
CN111611989B CN111611989B (zh) | 2023-08-01 |
Family
ID=72199310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010442081.6A Active CN111611989B (zh) | 2020-05-22 | 2020-05-22 | 一种基于自主机器人的多目标精准定位识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111611989B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111935412A (zh) * | 2020-10-19 | 2020-11-13 | 广东科凯达智能机器人有限公司 | 一种巡检目标自动识别跟踪的方法、系统及机器人 |
CN112102395A (zh) * | 2020-11-09 | 2020-12-18 | 广东科凯达智能机器人有限公司 | 一种基于机器视觉的自主巡检的方法 |
CN112116529A (zh) * | 2020-09-23 | 2020-12-22 | 浙江浩腾电子科技股份有限公司 | 一种基于ptz相机的gps坐标与像素坐标的转换方法 |
CN112800867A (zh) * | 2021-01-13 | 2021-05-14 | 重庆英卡电子有限公司 | 基于二阶段高空云台视频的松材线虫病枯死树检测方法 |
CN115190237A (zh) * | 2022-06-20 | 2022-10-14 | 亮风台(上海)信息科技有限公司 | 一种确定承载设备的转动角度信息的方法与设备 |
CN115953605A (zh) * | 2023-03-14 | 2023-04-11 | 深圳中集智能科技有限公司 | 机器视觉多目标图像坐标匹配方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310190A (zh) * | 2012-05-16 | 2013-09-18 | 清华大学 | 基于异构主动视觉网络的人脸图像样本采集优化方法 |
GB201413251D0 (en) * | 2014-07-25 | 2014-09-10 | Canon Kk | Method and apparatus for video surveillance |
CN104615147A (zh) * | 2015-02-13 | 2015-05-13 | 中国北方车辆研究所 | 一种变电站巡检目标的精确定位方法和系统 |
CN106125744A (zh) * | 2016-06-22 | 2016-11-16 | 山东鲁能智能技术有限公司 | 基于视觉伺服的变电站巡检机器人云台控制方法 |
CN106468771A (zh) * | 2016-09-21 | 2017-03-01 | 电子科技大学 | 一种低可观测高杂波条件下的多目标检测与跟踪方法 |
CN107042511A (zh) * | 2017-03-27 | 2017-08-15 | 国机智能科技有限公司 | 基于视觉反馈的巡视机器人云台调整方法 |
CN107729808A (zh) * | 2017-09-08 | 2018-02-23 | 国网山东省电力公司电力科学研究院 | 一种用于输电线路无人机巡检的图像智能采集系统及方法 |
WO2018043525A1 (ja) * | 2016-09-02 | 2018-03-08 | 倉敷紡績株式会社 | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 |
CN108776471A (zh) * | 2018-04-13 | 2018-11-09 | 四川木牛流马智能科技有限公司 | 一种自主机器人的智能巡航方法 |
CN109189105A (zh) * | 2018-10-18 | 2019-01-11 | 上海电力学院 | 一种巡检机器人云台控制方法 |
CN110142785A (zh) * | 2019-06-25 | 2019-08-20 | 山东沐点智能科技有限公司 | 一种基于目标检测的巡检机器人视觉伺服方法 |
CN110335312A (zh) * | 2019-06-17 | 2019-10-15 | 武汉大学 | 一种基于神经网络的目标空间定位方法及装置 |
CN110633629A (zh) * | 2019-08-02 | 2019-12-31 | 广东电网有限责任公司清远供电局 | 基于人工智能的电网巡检方法、装置、设备及存储介质 |
CN110889324A (zh) * | 2019-10-12 | 2020-03-17 | 南京航空航天大学 | 一种基于yolo v3面向末端制导的热红外图像目标识别方法 |
CN110989344A (zh) * | 2019-11-27 | 2020-04-10 | 云南电网有限责任公司电力科学研究院 | 一种巡检机器人预置参数自动调整方法及系统 |
-
2020
- 2020-05-22 CN CN202010442081.6A patent/CN111611989B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310190A (zh) * | 2012-05-16 | 2013-09-18 | 清华大学 | 基于异构主动视觉网络的人脸图像样本采集优化方法 |
GB201413251D0 (en) * | 2014-07-25 | 2014-09-10 | Canon Kk | Method and apparatus for video surveillance |
CN104615147A (zh) * | 2015-02-13 | 2015-05-13 | 中国北方车辆研究所 | 一种变电站巡检目标的精确定位方法和系统 |
CN106125744A (zh) * | 2016-06-22 | 2016-11-16 | 山东鲁能智能技术有限公司 | 基于视觉伺服的变电站巡检机器人云台控制方法 |
WO2018043525A1 (ja) * | 2016-09-02 | 2018-03-08 | 倉敷紡績株式会社 | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 |
CN106468771A (zh) * | 2016-09-21 | 2017-03-01 | 电子科技大学 | 一种低可观测高杂波条件下的多目标检测与跟踪方法 |
CN107042511A (zh) * | 2017-03-27 | 2017-08-15 | 国机智能科技有限公司 | 基于视觉反馈的巡视机器人云台调整方法 |
CN107729808A (zh) * | 2017-09-08 | 2018-02-23 | 国网山东省电力公司电力科学研究院 | 一种用于输电线路无人机巡检的图像智能采集系统及方法 |
CN108776471A (zh) * | 2018-04-13 | 2018-11-09 | 四川木牛流马智能科技有限公司 | 一种自主机器人的智能巡航方法 |
CN109189105A (zh) * | 2018-10-18 | 2019-01-11 | 上海电力学院 | 一种巡检机器人云台控制方法 |
CN110335312A (zh) * | 2019-06-17 | 2019-10-15 | 武汉大学 | 一种基于神经网络的目标空间定位方法及装置 |
CN110142785A (zh) * | 2019-06-25 | 2019-08-20 | 山东沐点智能科技有限公司 | 一种基于目标检测的巡检机器人视觉伺服方法 |
CN110633629A (zh) * | 2019-08-02 | 2019-12-31 | 广东电网有限责任公司清远供电局 | 基于人工智能的电网巡检方法、装置、设备及存储介质 |
CN110889324A (zh) * | 2019-10-12 | 2020-03-17 | 南京航空航天大学 | 一种基于yolo v3面向末端制导的热红外图像目标识别方法 |
CN110989344A (zh) * | 2019-11-27 | 2020-04-10 | 云南电网有限责任公司电力科学研究院 | 一种巡检机器人预置参数自动调整方法及系统 |
Non-Patent Citations (4)
Title |
---|
PATTARAPORN TAPTIMTONG ET AL: ""Multi-objects detection and classification using Vision Builder for autonomous assembly"", 《2019 10TH INTERNATIONAL CONFERENCE OF INFORMATION AND COMMUNICATION TECHNOLOGY FOR EMBEDDED SYSTEMS (IC-ICTES)》 * |
徐诚等: "基于光电测量平台的多目标定位算法", 中南大学学报(自然科学版), vol. 46 * |
许湘明等: "变电站机器人视觉伺服系统研究", 西南科技大学学报, no. 04 * |
陈浩等: ""基于深度学习的多目标识别在移动智能体中的应用"", 《计算机与数字工程》, vol. 48 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116529A (zh) * | 2020-09-23 | 2020-12-22 | 浙江浩腾电子科技股份有限公司 | 一种基于ptz相机的gps坐标与像素坐标的转换方法 |
CN111935412A (zh) * | 2020-10-19 | 2020-11-13 | 广东科凯达智能机器人有限公司 | 一种巡检目标自动识别跟踪的方法、系统及机器人 |
CN112102395A (zh) * | 2020-11-09 | 2020-12-18 | 广东科凯达智能机器人有限公司 | 一种基于机器视觉的自主巡检的方法 |
CN112800867A (zh) * | 2021-01-13 | 2021-05-14 | 重庆英卡电子有限公司 | 基于二阶段高空云台视频的松材线虫病枯死树检测方法 |
CN112800867B (zh) * | 2021-01-13 | 2023-05-12 | 重庆英卡电子有限公司 | 基于二阶段高空云台视频的松材线虫病枯死树检测方法 |
CN115190237A (zh) * | 2022-06-20 | 2022-10-14 | 亮风台(上海)信息科技有限公司 | 一种确定承载设备的转动角度信息的方法与设备 |
CN115190237B (zh) * | 2022-06-20 | 2023-12-15 | 亮风台(上海)信息科技有限公司 | 一种确定承载设备的转动角度信息的方法与设备 |
CN115953605A (zh) * | 2023-03-14 | 2023-04-11 | 深圳中集智能科技有限公司 | 机器视觉多目标图像坐标匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111611989B (zh) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111611989A (zh) | 一种基于自主机器人的多目标精准定位识别方法 | |
CN110096059B (zh) | 自动驾驶方法、装置、设备及存储介质 | |
CN110142785A (zh) | 一种基于目标检测的巡检机器人视觉伺服方法 | |
KR20200041355A (ko) | 마커를 결합한 동시 위치결정과 지도작성 내비게이션 방법, 장치 및 시스템 | |
CN110231023B (zh) | 一种智能视觉采样方法、系统及装置 | |
CN110560373B (zh) | 一种多机器人协作分拣运输方法及系统 | |
CN105014678A (zh) | 基于激光测距的机器人手眼标定方法 | |
CN110084842B (zh) | 一种机器人云台伺服二次对准方法及装置 | |
SG191452A1 (en) | Automatic calibration method and apparatus | |
JPH06175715A (ja) | 視覚センサ座標系設定治具及び設定方法 | |
CN112949478A (zh) | 基于云台相机的目标检测方法 | |
CN115176274A (zh) | 一种异源图像配准方法及系统 | |
CN113643380A (zh) | 一种基于单目相机视觉标靶定位的机械臂引导方法 | |
CN114536292A (zh) | 基于复合标识的误差检测方法及机器人系统 | |
JP5019478B2 (ja) | マーカ自動登録方法及びシステム | |
CN114523471A (zh) | 基于关联标识的误差检测方法及机器人系统 | |
CN114536399A (zh) | 基于多个位姿标识的误差检测方法及机器人系统 | |
CN112381190B (zh) | 一种基于手机图像识别的索力测试方法 | |
CN113902721A (zh) | 一种工件位置的调整方法、控制处理装置及调整系统 | |
CN115439821A (zh) | 基于多目视觉agv的定位与跟踪方法及系统 | |
CN105354855A (zh) | 一种高耸结构外观检测装置及方法 | |
CN112584041B (zh) | 一种图像识别动态纠偏方法 | |
Liu et al. | An image-based accurate alignment for substation inspection robot | |
KR100697810B1 (ko) | 랜드마크를 이용한 이동체의 자기위치 인식시스템 및 그방법 | |
CN114463170A (zh) | 一种针对agv应用的大场景图像拼接方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |