CN112102395B - 一种基于机器视觉的自主巡检的方法 - Google Patents

一种基于机器视觉的自主巡检的方法 Download PDF

Info

Publication number
CN112102395B
CN112102395B CN202011235319.4A CN202011235319A CN112102395B CN 112102395 B CN112102395 B CN 112102395B CN 202011235319 A CN202011235319 A CN 202011235319A CN 112102395 B CN112102395 B CN 112102395B
Authority
CN
China
Prior art keywords
coordinate
pan
target
shooting
tilt camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011235319.4A
Other languages
English (en)
Other versions
CN112102395A (zh
Inventor
付守海
李方
陈曦
周伟亮
李培俊
李锦培
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Keystar Intelligence Robot Co ltd
Original Assignee
Guangdong Keystar Intelligence Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Keystar Intelligence Robot Co ltd filed Critical Guangdong Keystar Intelligence Robot Co ltd
Priority to CN202011235319.4A priority Critical patent/CN112102395B/zh
Publication of CN112102395A publication Critical patent/CN112102395A/zh
Application granted granted Critical
Publication of CN112102395B publication Critical patent/CN112102395B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • G06T5/70
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C1/00Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
    • G07C1/20Checking timed patrols, e.g. of watchman
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/50Systems or methods supporting the power network operation or management, involving a certain degree of interaction with the load-side end user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

一种基于机器视觉的自主巡检的方法,包括:建立识别模型,识别模型通过多组训练数据训练得出,其中每一组数据包括:检测目标的照片与用于识别检测目标类型的识别信息;根据不同检测目标的标准建设参数标准量化定位目标与拍摄目标的坐标信息,将定位目标的坐标信息标记为第一坐标,将多个拍摄目标的坐标信息标记为多个第二坐标,将第一坐标与多个第二坐标存入数据库;利用已知的标准化参数构造一个先验识别模型,检测到塔头中容易识别的关键定位目标后,剩余待检测的拍摄目标便可通过绑定的第二坐标并直接调用计算得出其位置,大幅提升了对杆塔上多种目标的检测效率。

Description

一种基于机器视觉的自主巡检的方法
技术领域
本发明涉及巡检导航定位技术领域,特别是一种基于机器视觉的自主巡检的方法。
背景技术
在输电线路的日常检测工作中,运行人员受工作经验及工作能力等方面因素限制,无法每次巡检都在现场对设备进行检测,所以现在采用了具有拍摄功能的机器人对于电站的设施进行拍摄,通过拍摄的图片来判断用电设施是否出现问题,在机器人巡检过程中需要对输电线路的设施进行巡检拍摄,如金具挂点、绝缘子串、塔头支架、塔基础环境等。而输电线路巡检机器人是一种用于巡检高压输电线路的特种机器人,可用于代替人工巡检,其巡检效率高,成像效果好,是机器人技术与输电线路巡检技术发展相结合的优秀案例。
但是传统输电线路巡检机器人需要人工手动调节云台相机的旋转角度,在目标较多且需要逐个微调的情况下,比较耗时,工作效率较低,而且绝缘子串与金具挂点等需要检测的物件体积较小,检测难易程度不如塔头中特征明显的结构。且目标位置跨度过大时,传统检测方法需要进一步拉远云台相机镜头,去将所有的目标拍全,当拉远云台相机的镜头时,绝缘子串与金具挂点等与对应缩小,增加了识别的难度。
发明内容
针对上述缺陷,本发明的目的在于提出一种基于机器视觉的自主巡检的方法。
为达此目的,本发明采用以下技术方案:一种基于机器视觉的自主巡检的方法,包括:
建立识别模型,所述识别模型通过多组训练数据训练得出,其中每一组数据包括:检测目标的照片与用于识别检测目标类型的识别信息;
根据不同检测目标的标准建设参数标准量化定位目标与拍摄目标的坐标信息,将定位目标的坐标信息标记为第一坐标,将多个拍摄目标的坐标信息标记为多个第二坐标,将所述第一坐标与多个第二坐标存入数据库;
云台相机对检测目标进行拍摄,获取一张含有定位目标的原始图像,将原始图像输入到所述识别模型中,获取识别结果,所述识别结果为识别所述检测目标的类型,根据识别结果调用对应的第一坐标与第二坐标;
根据第一坐标与第二坐标获取云台相机的转动角度,根据转动角度转动所述云台相机,使得所述云台相机的拍摄中心移动到单个拍摄目标,所述云台相机进行相应比例放大拍摄,获取该单个拍摄目标的放大图像,
继续调用其余的第二坐标,将单个检测目标所有的拍摄目标进行拍照检测,获取所有所述拍摄目标的放大图像,并将所有放大图像上传至云端。
优选的,所述将定位目标的坐标信息标记为第一坐标,包括获取定位目标的长度、宽度与高度,通过长度、宽度与高度构建一个第一长方体,获取第一长方体的中心点,将第一长方体的中心点标记为第一坐标;
将多个拍摄目标的坐标信息标记为多个第二坐标,包括获取拍摄目标的长度、宽度与高度,通过长度、宽度与高度构建一个第二长方体,获取第二长方体的中心点,以所述第一坐标为中心点构建一个三维坐标系,获取第二长方体的中心点在三维坐标系定位,并标记为第二坐标。
优选的,获取识别结果包括:使用图像降噪算法对所述原始图像进行降噪处理,提高所述原始图像的清晰度;
使用图像增强方法增强所述原始图像的边缘信息;
通过卷积神经网络识别在所述原始图像中的所述定位目标。
优选的,所述获取云台相机的转动角度前,需要使所述云台相机的拍摄中心与定位目标的中心重合;
以原始图像的中心点为原点,使用计算几何中心的计算方式构建二维十字坐标系,
使用所述云台相机对一个参照物在不同距离下进行拍摄,获取所述参照物在不同拍摄距离下的像素值,通过多组像素值与拍摄距离之间的比例关系获取像素值与距离的线性关系,通过所述线性关系确认所述云台相机在一个像素值的像素距离;
获取当前原始图像的像素值,通过所述像素距离计算所述云台相机到所述检测目标之间的实际距离;
将所述云台相机与所述检测目标之间的实际距离代入公式一
Figure GDA0003580182060000031
计算得出云台相机的拍摄中心转动到第二坐标的旋转度数。
优选的,所述获取云台相机的转动角度,包括调用第一坐标与第二坐标,通过将第一坐标与第二坐标带入所述公式一获取所述云台相机的转动角度。
优选的,所述进行相应比例放大拍摄,包括获取放大比例,其中获取放大比例包括以下步骤:
获取原始图像的长度与宽度的尺寸;
获取拍摄目标在所述原始图像中的长度与宽度的尺寸;
拍摄目标和原始图像的宽度比与所述检测目标和原始图像的长度比进行比对,若长度比小于宽度比,则所述长度比为放大比例,若所述长度比大于宽度比,则所述宽度比为放大比例。
附图说明
图1是本发明的一个实施例的工作流程图;
图2是本发明的一个实施例对焦定位目标的工作流程图;
图3是本发明的一个实施获取第一坐标与第二坐标的工作流程图;
图4是获取识别结果前的工作数据流图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
如图1~4所示,
一种基于机器视觉的自主巡检的方法,包括:
建立识别模型,所述识别模型通过多组训练数据训练得出,其中每一组数据包括:检测目标的照片与用于识别检测目标类型的识别信息;
根据不同检测目标的标准建设参数标准量化定位目标与拍摄目标的坐标信息,将定位目标的坐标信息标记为第一坐标,将多个拍摄目标的坐标信息标记为多个第二坐标,将所述第一坐标与多个第二坐标存入数据库;
云台相机对检测目标进行拍摄,获取一张含有定位目标的原始图像,将原始图像输入到所述识别模型中,获取识别结果,所述识别结果为识别所述检测目标的类型,根据识别结果调用对应的第一坐标与第二坐标;
根据第一坐标与第二坐标获取云台相机的转动角度,根据转动角度转动所述云台相机,使得所述云台相机的拍摄中心移动到单个拍摄目标,所述云台相机进行相应比例放大拍摄,获取该单个拍摄目标的放大图像,
继续调用其余的第二坐标,将单个检测目标所有的拍摄目标进行拍照检测,获取所有所述拍摄目标的放大图像,并将所有放大图像上传至云端。
在检测电力系统中常见的杆塔:干字塔、T字塔、猫头塔、酒杯塔,而每一个杆塔都具有不同的形状结构与特点,在本方法中,所述检测目标为杆塔,而识别信息一般为杆塔的塔头与其他关键点信息,每一种杆塔的塔头都不一致,使用塔头作为识别信息可以增加识别模型的准确率,在训练识别模型时需要将上万张的杆塔照片与不同杆塔的塔头照片放入识别模型内进行训练才能得到精确的识别结果。
所述定位目标在实际的拍摄中具体为塔头,而拍摄目标为杆塔上安装的绝缘子或者各种金具,由于建设的行业标准里已经固定这两者之间的相对位置,所以只需要知道其中定位目标的位置既可以推断其他拍摄目标的位置。
以所述定位目标的长宽高构建一个矩形,以矩形的中心点为第一坐标,以第一坐标为坐标信息的对应点,通过设计图纸或者具体人工测量的方式获取到所述拍摄目标以所述第一坐标为对照的相对的坐标信息,同样的以所述拍摄目标的长宽高构建一个矩形,以矩形的中心点为第二坐标。
在获取坐标信息时,优选找到对应的塔型及设计图纸,通过设计图纸的具体参数来标记第一坐标与第二坐标,具有更加精准的参数配置,在调用该识别模型时能够更加准确找到所述拍摄目标。
在实际云台相机运作中,所述云台相机会运动到指定的位置上拍摄一张包含有所述定位目标的原始图像,若是指定的地方检测不出所述定位目标,则所述云台相机会继续运动,并在移动的过程中会不断的拍摄,识别每一帧的所述原始图像,当识别到定位目标后会停下,将该原始图像放入所述识别模型内进行识别,此时所述云台相机将拍摄的中心移动到所述定位目标的中心,在转动的云台相机的转动角度时,需要将所述原始图像的中心点为原点构建一个二维坐标系,通过公式一:
Figure GDA0003580182060000061
计算所述云台相机需要转动的角度,其中dx为云台相机到定位目标的直线距离,lx为云台相机到定位目标的水平距离。在所述云台相机的拍摄中心转动至定位目标的中心后,此时可以将其视为所述云台相机的拍摄中心已经移到第一坐标,通过继续调用第二坐标,转动所述云台相机将拍摄中心移动到第二坐标,此过程与上述将云台相机的中心移动到定位目标的中心的过程一致,同样可以通过公式一来计算所述云台相机的旋转角度。然后进行比例放大拍摄所述放大图像上传至云端,检测人员通过放大图像即可以检测拍摄目标是否有损坏,通过继续调用其余的第二坐标即可以将单个检测目标所有的拍摄目标进行拍照检测。
本方法能避免因为网络连接断开导致不能连续操作云台的情况,进一步提高了现场工作调试的效率。同时利用已知的标准化参数构造一个先验识别模型,检测到塔头中容易识别的关键定位目标后,剩余待检测的拍摄目标便可通过绑定的第二坐标并直接调用计算得出其位置,相对于传统的逐个检测到各目标再对焦放大的方法,大幅提升了对杆塔上多种目标的检测效率。
优选的,所述将定位目标的坐标信息标记为第一坐标,包括获取定位目标的长度、宽度与高度,通过长度、宽度与高度构建一个第一长方体,获取获取第一长方体的中心点,将第一长方体的中心点标记为第一坐标;
将多个拍摄目标的坐标信息标记为多个第二坐标,包括获取拍摄目标的长度、宽度与高度,通过长度、宽度与高度构建一个第二长方体,获取第二长方体的中心点,以所述第一坐标为中心点构建一个三维坐标系,获取第二长方体的中心点在三维坐标系定位,并标记为第二坐标。
由于定位目标与拍摄目标为一个具有形体的具体结构,在调用识别模型与计算时需要精准的数值提供运算,所以选择以拍摄目标与定位目标的长度、宽度与高度,通过长度、宽度与高度构建第一长方体与第二长方体,通过第一将长方体的中心为原点(x0,y0,z0)构建一个三维坐标系,此时的原点(x0,y0,z0)为第一坐标。再通过设计图纸或者实际测量获取到拍摄目标与定位目标之间的相对位置关系,以第二长方体的中心点代表所述拍摄目标,根据三维坐标系以及定位目标与拍摄目标相对位置关系,可以确认其他多个所述拍摄目标的第二坐标(x1,y1,z1),(x2,y2,z3)...。
优选的,获取识别结果包括:使用图像降噪算法对所述原始图像进行降噪处理,提高所述原始图像的清晰度;
使用图像增强方法增强所述原始图像的边缘信息;
通过卷积神经网络识别在所述原始图像中的所述定位目标。
图像降噪算法使用均值滤波器、自适应维纳滤波器、中值滤波器一种或多种组合进行图像降噪处理,去除成像设备或外部环境产生的噪声干扰,以获得噪点少,清晰度高的原始图像。
图像增强方法可以使用例如对比度拉伸来增强灰度的动态范围、直方图均衡对全局图像进行均衡化等,提高图像的对比度,增强目标的边缘信息,从而能够在原始图像中提取更多有效的目标图像特征。
使用卷积神经网络识别对原始图像中的定位目标进行识别,选出所述原始图像中的检测目标,由于卷积神经网络具有自我的深度学习能力,在前期使用所述卷积神经网络识别所述定位目标与拍摄目标时,有可能出现漏检目标的情况,届时需要人工进行干预,对漏检的目标进行补充,在多次训练与学习之后所述卷积神经网络几乎可以识别到所有的定位目标,识别到定位目标后,带入所述识别模型,所述识别模型中以所述定位目标作为识别信息,通过所述识别模型可以识别到该原始图像所拍摄的杆塔为那一种类型的杆塔,随后调用该杆塔的第一坐标与第二坐标进行运算。
优选的,所述获取云台相机的转动角度前,需要使所述云台相机的拍摄中心与定位目标的中心重合;
以原始图像的中心点为原点,使用计算几何中心的计算方式构建二维十字坐标系,
使用所述云台相机对一个参照物在不同距离下进行拍摄,获取所述参照物在不同拍摄距离下的像素值,通过多组像素值与拍摄距离之间的比例关系获取像素值与距离的线性关系,通过所述线性关系确认所述云台相机在一个像素值的像素距离;
获取当前原始图像的像素值,通过所述像素距离计算所述云台相机到所述检测目标之间的实际距离;
将所述云台相机与所述检测目标之间的实际距离代入公式一
Figure GDA0003580182060000091
计算得出云台相机的拍摄中心转动到第二坐标的旋转度数。
根据上述公式一需要知道dx和lx的数值才能求出cos(x)即旋转的角度,dx和lx的实际值会根据云台相机对焦的物体来决定,如云台相机的拍摄中心需要转向定位目标,dx为云台相机到定位目标的直线距离,lx云台相机到定位目标为水平距离,通过带入公式一即可求出所述云台相机在水平方向的旋转角度,而垂直方向的同理可以求出,其中在获取dx水平距离时水平距离与垂直距离可以通过求坐标系在水平方向上与垂直方向上之间的差值获得,而获取云台相机的像素距离,可以通过像素距离与实际距离的对应线性关系求出云台相机到所述检测目标的实际距离。在公式一得出云台相机在第二坐标转变为第一坐标时转动的角度。由于每一台云台相机的像素距离与实际距离对应的线性关系都不一样,在使用该方法前,需要检测所述云台相机像素距离与实际距离的对应线性关系具体的数据值是多少。
确认云台相机的像素距离的方法为:使用一个已知尺寸的标定物,在云台相机距离标定物d=1,2,3,4,5m时分别对标定物进行拍照,使用图片工具计算出宽x和高y在图像中的像素距离。如标定物的实际宽,高分别为0.285m,0.289m,,当云台相机距离标定物d=1m时,像素距离x=200pixels,y=300pixels;云台相机距离标定物d=2m时,像素距离x=100pixels,y=150pixels。由于像素距离与实际距离之间具有线性关系,之后可以算出d=3m时,x=66pix,y=100pix;d=4m时,x=50pix,y=75pix;d=5m时,x=40pix,y=60pix。一米垂直距离下,1个像素代表的实际距离为:x=0.285m÷200,y=0.289m÷300。两米垂直距离下,1个像素代表的实际距离为:x=0.285m÷100=0.285÷(200/d),y=0.289m÷150=0.289÷(300/d)。n米垂直距离下,1个像素代表的实际距离为:x=0.285÷(200/n),y=0.289÷(300/n)。由于每一台云台相机的像素距离有所差别,在使用前需要使用上述方法测量其像素距离。
优选的,所述获取云台相机的转动角度,包括调用第一坐标与第二坐标,通过将第一坐标与第二坐标带入所述公式一获取所述云台相机的转动角度。
在所述云台相机的拍摄中心从第一坐标转动至第二坐标拍摄的过程,可以同于在等腰三角形中做余弦定理计算,同样可以使用第一坐标的数据值代入公式一中进行计算,得出所述云台相机从第一坐标转动至第二坐标拍摄所需要的水平方向与垂直方向的转动角度。
优选的,所述进行相应比例放大拍摄,包括获取放大比例,其中获取放大比例包括以下步骤:
获取原始图像的长度与宽度的尺寸;
获取拍摄目标在所述原始图像中的长度与宽度的尺寸;
拍摄目标和原始图像的宽度比与所述检测目标和原始图像的长度比进行比对,若长度比小于宽度比,则所述长度比为放大比例,若所述长度比大于宽度比,则所述宽度比为放大比例。
在放大图像的过程中需要将所述拍摄目标尽可能的放大拍摄,工作人员才能从所述区域图像中看清楚检测目标的情况,通过判断
Figure GDA0003580182060000111
Figure GDA0003580182060000112
的大小来获取放大比例,如果
Figure GDA0003580182060000113
w为原始图像的长度,h为原始图像的宽度,x为拍摄目标的长度,y为拍摄目标的宽度,则说明检测目标在所述原始图像中的长度小于宽度,若是进行长度
Figure GDA0003580182060000114
比例进行放大,所述检测目标在宽度的方向上无法完全录入到所述云台相机的拍摄范围内,所以只能进行宽度比例进行放大。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (2)

1.一种基于机器视觉的自主巡检的方法,其特征在于:
建立识别模型,所述识别模型通过多组训练数据训练得出,其中每一组数据包括:检测目标的照片与用于识别检测目标类型的识别信息;
根据不同检测目标的标准建设参数标准,量化定位目标与拍摄目标的坐标信息,将定位目标的坐标信息标记为第一坐标,将多个拍摄目标的坐标信息标记为多个第二坐标,将所述第一坐标与多个第二坐标存入数据库;
云台相机对检测目标进行拍摄,获取一张含有定位目标的原始图像,将原始图像输入到所述识别模型中,获取识别结果,所述识别结果为识别所述检测目标的类型,根据识别结果调用对应的第一坐标与第二坐标;
根据第一坐标与第二坐标获取云台相机的转动角度,根据转动角度转动所述云台相机,使得所述云台相机的拍摄中心移动到单个拍摄目标,所述云台相机进行相应比例放大拍摄,获取该单个拍摄目标的放大图像,
继续调用其余的第二坐标,将单个检测目标所有的拍摄目标进行拍照检测,获取所有所述拍摄目标的放大图像,并将所有放大图像上传至云端;
所述进行相应比例放大拍摄,包括获取放大比例,其中获取放大比例包括以下步骤:
获取原始图像的长度与宽度的尺寸;
获取拍摄目标在所述原始图像中的长度与宽度的尺寸;
拍摄目标和原始图像的宽度比与所述检测目标和原始图像的长度比进行比对,若长度比小于宽度比,则所述长度比为放大比例,若所述长度比大于宽度比,则所述宽度比为放大比例;
获取识别结果包括:使用图像降噪算法对所述原始图像进行降噪处理,提高所述原始图像的清晰度
使用图像增强方法增强所述原始图像的边缘信息;
通过卷积神经网络识别在所述原始图像中的所述定位目标;
所述获取云台相机的转动角度前,需要使所述云台相机的拍摄中心与定位目标的中心重合;
以原始图像的中心点为原点,使用计算几何中心的计算方式构建二维十字坐标系;
使用所述云台相机对一个参照物在不同距离下进行拍摄,获取所述参照物在不同拍摄距离下的像素值,通过多组像素值与拍摄距离之间的比例关系获取像素值与距离的线性关系,通过所述线性关系确认所述云台相机在一个像素值的像素距离;
获取当前原始图像的像素值,通过所述像素距离计算所述云台相机到所述检测目标之间的实际距离;
将所述云台相机与所述检测目标之间的实际距离代入公式一
Figure FDA0003563750620000021
计算得出云台相机的拍摄中心转动到第二坐标的旋转度数,其中dx为云台相机到定位目标的直线距离,lx为云台相机到定位目标的水平距离;
所述获取云台相机的转动角度,包括调用第一坐标与第二坐标,通过将第一坐标与第二坐标代 入所述公式一获取所述云台相机的转动角度;在所述云台相机的拍摄中心从第一坐标转动至第二坐标拍摄的过程,等同于在等腰三角形中做余弦定理计算,同样使用第一坐标的数据值代 入公式一中进行计算,得到所述云台相机从第一坐标转动至第二坐标拍摄所需要的水平方向与垂直方向的转动角度。
2.根据权利要求1所述一种基于机器视觉的自主巡检的方法,其特征在于:
所述将定位目标的坐标信息标记为第一坐标,包括获取定位目标的长度、宽度与高度,通过长度、宽度与高度构建一个第一长方体,获取第一长方体的中心点,将第一长方体的中心点标记为第一坐标;
将多个拍摄目标的坐标信息标记为多个第二坐标,包括获取拍摄目标的长度、宽度与高度,通过长度、宽度与高度构建一个第二长方体,获取第二长方体的中心点,以所述第一坐标为中心点构建一个三维坐标系,获取第二长方体的中心点在三维坐标系定位,并标记为第二坐标。
CN202011235319.4A 2020-11-09 2020-11-09 一种基于机器视觉的自主巡检的方法 Active CN112102395B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011235319.4A CN112102395B (zh) 2020-11-09 2020-11-09 一种基于机器视觉的自主巡检的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011235319.4A CN112102395B (zh) 2020-11-09 2020-11-09 一种基于机器视觉的自主巡检的方法

Publications (2)

Publication Number Publication Date
CN112102395A CN112102395A (zh) 2020-12-18
CN112102395B true CN112102395B (zh) 2022-05-20

Family

ID=73785185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011235319.4A Active CN112102395B (zh) 2020-11-09 2020-11-09 一种基于机器视觉的自主巡检的方法

Country Status (1)

Country Link
CN (1) CN112102395B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192127B (zh) * 2021-05-12 2024-01-02 北京市商汤科技开发有限公司 一种图像处理方法、装置、电子设备和存储介质
CN113191336B (zh) * 2021-06-04 2022-01-14 绍兴建元电力集团有限公司 基于图像识别的电力隐患识别方法及系统
CN115953605B (zh) * 2023-03-14 2023-06-06 深圳中集智能科技有限公司 机器视觉多目标图像坐标匹配方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729808A (zh) * 2017-09-08 2018-02-23 国网山东省电力公司电力科学研究院 一种用于输电线路无人机巡检的图像智能采集系统及方法
CN108733755A (zh) * 2018-04-11 2018-11-02 国网山东省电力公司信息通信公司 一种基于输电线路三维信息的智能巡检方法及系统
CN108961276A (zh) * 2018-04-04 2018-12-07 山东鲁能智能技术有限公司 基于视觉伺服的配电线路巡检数据自动采集方法及系统
CN110133440A (zh) * 2019-05-27 2019-08-16 国电南瑞科技股份有限公司 基于杆塔模型匹配及视觉导航的电力无人机及巡检方法
CN110633629A (zh) * 2019-08-02 2019-12-31 广东电网有限责任公司清远供电局 基于人工智能的电网巡检方法、装置、设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5673082A (en) * 1995-04-10 1997-09-30 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Light-directed ranging system implementing single camera system for telerobotics applications
RU2558002C1 (ru) * 2014-02-03 2015-07-27 Общество с ограниченной ответственностью "Лаборатория будущего" Устройство диагностики воздушных линий электропередач и его компонент
KR101769718B1 (ko) * 2016-09-21 2017-08-18 한국전력공사 송전선로 전자계 및 순시 점검 영상 취득 장치 및 방법
US10210662B2 (en) * 2016-12-09 2019-02-19 Fyusion, Inc. Live augmented reality using tracking
US11188768B2 (en) * 2017-06-23 2021-11-30 Nec Corporation Object detection apparatus, object detection method, and computer readable recording medium
CN108377328A (zh) * 2018-01-03 2018-08-07 广东电网有限责任公司机巡作业中心 一种直升机巡视作业的目标拍摄方法及装置
CN109307970A (zh) * 2018-11-22 2019-02-05 成都市鹰诺实业有限公司 一种相机自动对焦方法
CN109739239B (zh) * 2019-01-21 2021-09-21 天津迦自机器人科技有限公司 一种用于巡检机器人的不间断仪表识别的规划方法
CN110580717B (zh) * 2019-08-15 2022-10-21 成都优艾维智能科技有限责任公司 一种针对电力杆塔的无人机自主巡检航线生成方法
CN110602484B (zh) * 2019-08-29 2021-07-27 海南电网有限责任公司海口供电局 一种输电线路设备拍摄质量在线检核方法
CN110908401B (zh) * 2019-12-06 2021-03-30 电子科技大学 一种针对未知杆塔结构的无人机自主巡检方法
CN110879601B (zh) * 2019-12-06 2021-05-18 电子科技大学 一种对于未知风机结构的无人机巡检方法
CN110687904B (zh) * 2019-12-09 2020-08-04 广东科凯达智能机器人有限公司 一种巡线机器人视觉导航巡检和避障方法
CN111272148B (zh) * 2020-01-20 2021-08-31 江苏方天电力技术有限公司 输电线路无人机自主巡检自适应成像质量优化方法
CN111611989B (zh) * 2020-05-22 2023-08-01 四川智动木牛智能科技有限公司 一种基于自主机器人的多目标精准定位识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729808A (zh) * 2017-09-08 2018-02-23 国网山东省电力公司电力科学研究院 一种用于输电线路无人机巡检的图像智能采集系统及方法
CN108961276A (zh) * 2018-04-04 2018-12-07 山东鲁能智能技术有限公司 基于视觉伺服的配电线路巡检数据自动采集方法及系统
CN108733755A (zh) * 2018-04-11 2018-11-02 国网山东省电力公司信息通信公司 一种基于输电线路三维信息的智能巡检方法及系统
CN110133440A (zh) * 2019-05-27 2019-08-16 国电南瑞科技股份有限公司 基于杆塔模型匹配及视觉导航的电力无人机及巡检方法
CN110633629A (zh) * 2019-08-02 2019-12-31 广东电网有限责任公司清远供电局 基于人工智能的电网巡检方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于视觉导航的输电线杆塔方位确定方法;王祖武等;《激光与光电子学进展》;20190430;第56卷(第8期);第1-9页 *
无人机电力巡检中定位绝缘子的方法;唐泽亮等;《机电工程技术》;20170830;第46卷(第08期);第172-176页 *

Also Published As

Publication number Publication date
CN112102395A (zh) 2020-12-18

Similar Documents

Publication Publication Date Title
CN112102395B (zh) 一种基于机器视觉的自主巡检的方法
WO2022082856A1 (zh) 一种巡检目标自动识别跟踪的方法、系统及机器人
CN109544679B (zh) 管道内壁的三维重建方法
EP3749923A1 (en) Computer vision system and method for tank calibration using optical reference line method
CN110084842B (zh) 一种机器人云台伺服二次对准方法及装置
CN112714287A (zh) 一种云台目标转换控制方法、装置、设备及存储介质
CN113240747B (zh) 一种基于计算机视觉的户外结构振动位移自动化监测方法
CN108362205B (zh) 基于条纹投影的空间测距方法
CN111754462A (zh) 一种三维弯管的视觉检测方法及系统
CN112284260A (zh) 一种视觉位移监测方法、设备和系统
CN105352975A (zh) 一种桥梁缆索外观检测方法
CN108665468B (zh) 一种提取直线塔绝缘子串的装置及方法
CN112967319A (zh) 一种基于特征点识别的块体运动实时检测方法
CN114119614A (zh) 一种远程检测建筑物的裂缝的方法
CN113658279B (zh) 相机内参和外参估算方法、装置、计算机设备及存储介质
JP2011069797A (ja) 変位量測定装置及び変位量測定方法
CN113205541A (zh) 一种基于视觉边缘检测的实验室空间波浪实时测量方法
CN110068284B (zh) 利用高速摄影测量技术监测塔式起重机的方法
CN105354855B (zh) 一种高耸结构外观检测装置及方法
CN115690150B (zh) 一种基于视频的多目标位移跟踪监测方法及装置
CN111583174B (zh) 基于点云数据的铁塔形变检测检测的方法和系统
CN115717865A (zh) 环形结构全场变形测量方法
KR101174820B1 (ko) 부유체 동적 변위 계측장치 및 이에 포함되는 영상기반 유닛
CN112396651B (zh) 一种通过二角度图像实现设备定位的方法
CN114299153A (zh) 一种超大电力设备的相机阵列同步标定方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A Method of Autonomous Inspection Based on Machine Vision

Effective date of registration: 20230531

Granted publication date: 20220520

Pledgee: Agricultural Bank of China Limited Shunde Daliang sub branch

Pledgor: GUANGDONG KEYSTAR INTELLIGENCE ROBOT Co.,Ltd.

Registration number: Y2023980042390

PE01 Entry into force of the registration of the contract for pledge of patent right