CN116091996A - 刀闸分合状态的识别方法、装置、设备及存储介质 - Google Patents
刀闸分合状态的识别方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN116091996A CN116091996A CN202211492420.7A CN202211492420A CN116091996A CN 116091996 A CN116091996 A CN 116091996A CN 202211492420 A CN202211492420 A CN 202211492420A CN 116091996 A CN116091996 A CN 116091996A
- Authority
- CN
- China
- Prior art keywords
- disconnecting link
- image
- target
- point cloud
- knife switch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 34
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 238000000605 extraction Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 21
- 238000009434 installation Methods 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 15
- 238000005260 corrosion Methods 0.000 claims description 14
- 230000007797 corrosion Effects 0.000 claims description 14
- 238000005516 engineering process Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 7
- 238000003709 image segmentation Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims 2
- 238000012544 monitoring process Methods 0.000 abstract description 15
- 238000005286 illumination Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 13
- 239000000284 extract Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005530 etching Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及电力监控技术领域,公开了一种刀闸分合状态的识别方法、装置、设备及存储介质,该方法通过刀闸点云图像确定目标刀闸的实时坐标空间位置,并利用实时坐标空间位置和目标刀闸的预设坐标空间位置调整刀闸点云图像中的目标刀闸的位置,得到目标刀闸的待识别图像;识别待识别图像中刀闸臂,并计算刀闸臂在待识别图像中的占比,基于占比确定刀闸的分合状态。该方法通过获取刀闸的点云图像进行刀闸分合状态的检测,而点云图像并不会受现场环境的光照、监控设备的拍摄角度等因素的影响而导致图像不清楚等问题,并且算法识别的流程简单,解决了现有技术中对于刀闸分合状态的识别准确度不高的问题。
Description
技术领域
本发明涉及电力监控技术领域,尤其涉及一种刀闸分合状态的识别方法、装置、设备及存储介质。
背景技术
变电站每次进行停、送电操作后,需要对刀闸的分合状态进行确认。为了提升刀闸状态确认的准确性,而对于刀闸状态确认主要包括辅助设备确认和人工确认。
对于通过人工进行确认刀闸分合是否到位的方式,一方面会增加现场作业人员的工作量,另一方面也会给操作带来一定的主观性,有可能会有误判的情况发生。
对于利用辅助设备进行确认的方式,主要包括在刀闸装设磁感应装置和监控摄像头两种方式来实现,对于磁感应装置的装设一般需要在停电状态下进行,由于检修停电时间有限,检修工作有可能与安装此类装置存在冲突。对于监控摄像头,先通过监控摄像头获取刀闸图像,再运用图像处理技术对刀闸状态进行判断,此类方法的最大问题在于,最终结果会受到摄像头安装角度、现场光照以及后续图像处理算法的影响,考虑到现场环境的复杂、多样性,该方式的准确率难以保证。因此,考虑到确认刀闸分合状态的重要性及现场工况,很有必要提出一种适用性强、准确率高的刀闸分合状态识别技术。
发明内容
本发明的主要目的在于解决现有的刀闸分合状态检测方案,对于刀闸分合状态的识别准确度不高的问题。
本发明第一方面提供了一种刀闸分合状态的识别方法,所述刀闸分合状态的识别方法包括:
获取设定位置区域内的刀闸点云数据,并从所述刀闸点云数据中提取目标刀闸的刀闸点云图像;
基于所述刀闸点云图像确定所述目标刀闸的实时坐标空间位置,并基于所述实时坐标空间位置判断所述目标刀闸是否与预设的检测平面平行;
若否,则对所述刀闸点云图像进行调整,得到所述目标刀闸的待识别图像;
识别所述待识别图像中刀闸臂,并计算所述刀闸臂在所述待识别图像中的占比,基于所述占比确定所述刀闸的分合状态。
在本发明第一方面的第一种实现方式中,所述获取设定位置区域内的刀闸点云数据,并从所述刀闸点云数据中提取目标刀闸的刀闸点云图像,包括:
通过设于刀闸所在位置的深度相机采集设定位置区域内的刀闸点云数据,其中,所述设定位置区域包含所述刀闸的位置;
确定所述刀闸点云数据中的目标刀闸,并基于所述目标刀闸确定对应的安装信息,其中所述安装信息至少包括所述目标刀闸的初始坐标空间位置;
基于所述初始坐标空间位置确定所述刀闸点云数据中目标刀闸的位置,并提取所述位置上的点云数据,得到刀闸点云图像。
在本发明第一方面的第二种实现方式中,所述基于所述初始坐标空间位置确定所述刀闸点云数据中目标刀闸的位置,并提取所述位置上的点云数据,得到刀闸点云图像,包括:
基于所述初始坐标空间位置和所述深度相机的拍摄参数,计算出所述目标刀闸相对于所述深度相机的深度信息;
计算所述刀闸点云数据中各物体相对于所述深度相机的深度值,并从刀闸点云数据中剔除所述深度值不符合所述深度信息的物体的数据,得到刀闸点云图像。
在本发明第一方面的第三种实现方式中,在所述基于所述实时坐标空间位置判断所述目标刀闸是否与预设的检测平面平行之前,还包括:
利用可见光摄像头采集设定位置区域内的刀闸图像,并基于所述刀闸图像确定所述目标刀闸的图像位置信息;
基于所述目标刀闸的图像位置信息对所述实时坐标空间位置进行修正。
在本发明第一方面的第四种实现方式中,所述对所述刀闸点云图像进行调整,得到所述目标刀闸的待识别图像,包括:
利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置调整所述刀闸点云图像中的目标刀闸的位置,得到所述目标刀闸的待识别图像。
在本发明第一方面的第五种实现方式中,所述利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置调整所述刀闸点云图像中的目标刀闸的位置,得到所述目标刀闸的待识别图像,包括:
利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置中的目标刀闸与水平面的夹角信息和目标刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,对所述刀闸点云图像中目标刀闸的位置进行坐标系变换,得到所述目标刀闸的待识别图像。
在本发明第一方面的第六种实现方式中,所述识别所述待识别图像中刀闸臂,并计算所述刀闸臂在所述待识别图像中的占比,包括:
提取所述预设坐标空间位置中的刀闸的高度信息;
基于所述高度信息确定所述待识别图像中待检测区域,其中所述待检测区域为刀闸臂的识别区域;
利用刀闸臂识别算法提取所述待检测区域中的刀闸臂图像;
计算所述刀闸臂图像与所述待检测区域对应的图像的占比。
在本发明第一方面的第七种实现方式中,所述利用刀闸臂识别算法提取所述待检测区域中的刀闸臂图像,包括:
利用高斯滤波算法对所述待检测区域进行图像滤波,提取目标刀闸的检测区域图像;
利用刀闸臂识别算法从所述检测区域图像中识别刀闸臂的图像以及位置,并对所述位置进行标记;
基于所述标记,利用图像分割算法分割出刀闸臂图像。
在本发明第一方面的第八种实现方式中,所述计算所述刀闸臂图像与所述待检测区域对应的图像的占比,包括:
利用图像处理技术中的腐蚀操作,对所述标记的区域内的图像进行腐蚀处理,得到所述刀闸臂的轮廓信息;
基于各刀闸臂的所述轮廓信息计算出所有所述刀闸臂相对于所述标记的区域的占比。
在本发明第一方面的第九种实现方式中,所述利用图像处理技术中的腐蚀操作,对所述标记的区域内的图像进行腐蚀处理,得到所述刀闸臂的轮廓信息,包括:
利用OpenCV自带函数对所述标记的区域内的图像进行腐蚀操作,得到刀闸臂的轮廓;
确定所述轮廓的边界,并基于所述边界计算所述轮廓的面积,得到所述刀闸臂的轮廓信息。
在本发明第一方面的第十种实现方式中,所述基于所述占比确定所述刀闸的状态,包括:
将所述占比与预设的刀闸状态表中各状态的刀闸臂比例进行匹配,并基于匹配的结果确定所述刀闸的分合状态;
或者,
判断所述占比是否大于预设的刀闸合位状态的最低轮廓面积比例阈值;若是,则确定所述刀闸处于合位状态;若否,则确定所述刀闸处于分位状态。
本发明第二方面提供了一种刀闸分合状态的识别装置,所述刀闸分合状态的识别装置包括:
图像采集模块,用于获取设定位置区域内的刀闸点云数据,并从所述刀闸点云数据中提取目标刀闸的刀闸点云图像;
图像提取模块,用于基于所述刀闸点云图像确定所述目标刀闸的实时坐标空间位置,并基于所述实时坐标空间位置判断所述目标刀闸是否与预设的检测平面平行;若否,则对所述刀闸点云图像进行调整,得到所述目标刀闸的待识别图像;
状态识别模块,用于识别所述待识别图像中刀闸臂,并计算所述刀闸臂在所述待识别图像中的占比,基于所述占比确定所述刀闸的分合状态。
在本发明第二方面的第一种实现方式中,所述图像采集模块包括:
点云采集单元,用于通过设于刀闸所在位置的深度相机采集设定位置区域内的刀闸点云数据,其中,所述设定位置区域包含所述刀闸的位置;
第一确定单元,用于确定所述刀闸点云数据中的目标刀闸,并基于所述目标刀闸确定对应的安装信息,其中所述安装信息至少包括所述目标刀闸的初始坐标空间位置;
第一提取单元,用于基于所述初始坐标空间位置确定所述刀闸点云数据中目标刀闸的位置,并提取所述位置上的点云数据,得到刀闸点云图像。
在本发明第二方面的第二种实现方式中,所述图像提取模块具体用于:
基于所述初始坐标空间位置和所述深度相机的拍摄参数,计算出所述目标刀闸相对于所述深度相机的深度信息;
计算所述刀闸点云数据中各物体相对于所述深度相机的深度值,并从刀闸点云数据中剔除所述深度值不符合所述深度信息的物体的数据,得到刀闸点云图像。
在本发明第二方面的第三种实现方式中,所述图像提取模块具体还用于:
利用可见光摄像头采集设定位置区域内的刀闸图像,并基于所述刀闸图像确定所述目标刀闸的图像位置信息;
基于所述目标刀闸的图像位置信息对所述实时坐标空间位置进行修正。
在本发明第二方面的第四种实现方式中,所述图像提取模块具体用于:
利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置调整所述刀闸点云图像中的目标刀闸的位置,得到所述目标刀闸的待识别图像。
在本发明第二方面的第五种实现方式中,所述图像提取模块具体用于:
利用修正后的实时坐标空间位置和所述目标刀闸的预设坐标空间位置中的目标刀闸与水平面的夹角信息和目标刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,对所述刀闸点云图像中目标刀闸的位置进行坐标系变换,得到所述目标刀闸的待识别图像。
在本发明第二方面的第六种实现方式中,所述状态识别模块包括:
第二提取单元,用于提取所述预设坐标空间位置中的刀闸的高度信息;
第二确定单元,用于基于所述高度信息确定所述待识别图像中待检测区域,其中所述待检测区域为刀闸臂的识别区域;
第三提取单元,用于利用刀闸臂识别算法提取所述待检测区域中的刀闸臂图像;
计算单元,用于计算所述刀闸臂图像与所述待检测区域对应的图像的占比。
在本发明第二方面的第七种实现方式中,所述第三提取单元具体用于:
利用高斯滤波算法对所述待检测区域进行图像滤波,提取目标刀闸的检测区域图像;
利用刀闸臂识别算法从所述检测区域图像中识别刀闸臂的图像以及位置,并对所述位置进行标记;
基于所述标记,利用图像分割算法分割出刀闸臂图像。
在本发明第二方面的第八种实现方式中,所述计算单元具体用于:
利用图像处理技术中的腐蚀操作,对所述标记的区域内的图像进行腐蚀处理,得到所述刀闸臂的轮廓信息;
基于各刀闸臂的所述轮廓信息计算出所有所述刀闸臂相对于所述标记的区域的占比。
在本发明第二方面的第九种实现方式中,所述识别单元具体用于:
利用OpenCV自带函数对所述标记的区域内的图像进行腐蚀操作,得到刀闸臂的轮廓;
确定所述轮廓的边界,并基于所述边界计算所述轮廓的面积,得到所述刀闸臂的轮廓信息。
在本发明第二方面的第十种实现方式中,所述状态识别模块还包括识别单元,具体用于:
将所述占比与预设的刀闸状态表中各状态的刀闸臂比例进行匹配,并基于匹配的结果确定所述刀闸的分合状态;
或者,
判断所述占比是否大于预设的刀闸合位状态的最低轮廓面积比例阈值;若是,则确定所述刀闸处于合位状态;若否,则确定所述刀闸处于分位状态。
本发明第三方面提供了一种电子设备,包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;所述至少一个处理器调用所述存储器中的所述指令,以使得所述电子设备执行上述提供的刀闸分合状态的识别方法的各个步骤。
本发明的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述提供的刀闸分合状态的识别方法的各个步骤。
有益效果:
本发明的技术方案中,通过刀闸点云图像确定目标刀闸的实时坐标空间位置,并利用实时坐标空间位置和目标刀闸的预设坐标空间位置调整刀闸点云图像中的目标刀闸的位置,得到目标刀闸的待识别图像;识别待识别图像中刀闸臂,并计算刀闸臂在待识别图像中的占比,基于占比确定刀闸的分合状态。该方法通过获取刀闸的点云图像进行刀闸分合状态的检测,而点云图像并不会受现场环境的光照、监控设备的拍摄角度等因素的影响而导致图像不清楚等问题,并且算法识别的流程简单,解决了现有技术中对于刀闸分合状态的识别准确度不高的问题。
附图说明
图1为本发明实施例提供的基于3D图像分割的刀闸分合状态识别的硬件框架图;
图2为本发明实施例中刀闸分合状态的识别方法的第一个实施例示意图;
图3为本发明实施例中刀闸分合状态的识别方法的第二个实施例示意图;
图4为本发明实施例中刀闸分合状态的识别方法的第三个实施例示意图;
图5为本发明实施例中刀闸点云图像中刀闸的坐标变换示意图;
图6为本发明实施例中坐标变化后的刀闸的一种示意图;
图7为本发明实施例中坐标变化后的刀闸的另一种示意图;
图8为本发明实施例中刀闸分、合状态判定示意图;
图9为本发明实施例中刀闸分合状态识别装置的一个实施例示意图;
图10为本发明实施例中刀闸分合状态识别装置的另一个实施例示意图;
图11为本发明实施例中电子设备的一个实施例示意图。
具体实施方式
现有对刀闸状态进行判断的技术中,通过传统2d视觉的方案对环境依赖过重,周围环境的变化会对判断结果造成很大的影响,也存在一些通过深度学习将2d转3d的技术,该技术涉及到对2d空间到3d空间的转换,过程较为复杂,对现场的硬件要求也较高,工程部署会较为麻烦。对于具体到刀闸分、合位置状态的判定问题,本发明提供了一种基于刀闸的点云图像来实现分合状态的检测,而点云图像可以大幅度提升刀闸分合状态识别过程中对环境的适应性,在保证高准确率的同时,对硬件要求不高,现场部署方式简单、易于实现。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”或“具有”及其任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为便于理解,下面对本发明实施例的具体流程进行描述,本发明实施例提出的方法可基于图1提供的硬件框架,图1为本发明提供的基于3D图像分割的刀闸分合状态识别的硬件框架,该硬件框架包括刀闸、主控机、图像采集模块、目标图像提取模块、目标图像处理模块、刀闸分割与提取模块和状态识别模块组成,其中,各模块之间通过通信总线、无线通信等方式连接,该图像采集模块可以是深度相机,如激光雷达,图像采集模块安装在刀闸附近,用于监控刀闸,并获取刀闸的点云图像,然后发送给目标图像提取模块、目标图像处理模块、刀闸分割与提取模块和状态识别模块进行信息的提取和识别,从而得到刀闸分合状态的检测结果。
请参阅图1和2,本发明实施例中刀闸分合状态的识别方法的第一个实施例,该识别方法包括以下步骤:
101、获取设定位置区域内的刀闸点云数据,并从刀闸点云数据中提取目标刀闸的刀闸点云图像;
本实施例中,对于刀闸点云数据可以通过激光雷达来采集,具体的,将激光雷达设置在刀闸的附近位置上,并与主控机进行通信连接,激光雷达监控包含刀闸在内的一定范围上的电气设备,并在监控画面中设置监控区域,即是设定刀闸的位置区域,在激光雷达采集点云数据时,主控机在接收到点云数据后,从设定的位置区域中提取出刀闸的点云数据,并提取出刀闸点云图像。
具体的,该步骤通过设于刀闸所在位置的深度相机采集设定位置区域内的刀闸点云数据,其中,所述设定位置区域包含所述刀闸的位置;
确定所述刀闸点云数据中的目标刀闸,并基于所述目标刀闸确定对应的安装信息,其中所述安装信息至少包括所述目标刀闸的初始坐标空间位置;
基于所述初始坐标空间位置确定所述刀闸点云数据中目标刀闸位置,并提取所述位置上的点云数据,得到刀闸点云图像。
在实际应用中,主控机包括存储区域和控制器,其中存储器存储深度相机监测范围内的刀闸的安装信息,即是刀闸的空间坐标信息,其中空间坐标位置信息是以深度相机为原点构建的,存储器还存储深度相机监测范围内刀闸与水平面间的夹角信息和刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息。
102、基于刀闸点云图像确定目标刀闸的实时坐标空间位置,并基于实时坐标空间位置判断目标刀闸是否与预设的检测平面平行;
103、若否,则对刀闸点云图像进行调整,得到目标刀闸的待识别图像;
本实施例中,其对刀闸点云图像进行调整具体是利用实时坐标空间位置和目标刀闸的预设坐标空间位置调整刀闸点云图像中的目标刀闸的位置,得到目标刀闸的待识别图像;
本实施例中,基于刀闸点云图像中的图像坐标系与刀闸所在空间坐标系之间的变化关系,计算出所述刀闸点云图像中目标刀闸的实时坐标空间位置,而该实时坐标空间位置会与刀闸安装时的标准位置存在一定的偏移,在获取到刀闸点云图像后,识别所述目标刀闸在点云图像中的具体位置,然后结合图像的坐标系计算出所述目标刀闸的点云图像坐标,再基于坐标的变化关系和点云图像坐标计算出对应的空间坐标,从而得到目标刀闸的实时坐标空间位置。
在实际应用中,为了提高刀闸分合状态的识别精准度,则需要保持刀闸的正面形态,具体的,基于刀闸的实时坐标空间位置和预设坐标空间位置计算出位置的差异,基于位置的差异将目标刀闸调整至正面形态,从而得到待识别图像。
在本实施例中,利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置中的目标刀闸与水平面的夹角信息和目标刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,对所述刀闸点云图像中目标刀闸的位置进行坐标系变换,得到所述目标刀闸的待识别图像。
具体的,通过目标图像提取模块根据刀闸在深度相机视角处的坐标空间位置,去除不属于该坐标空间位置内的物体,提取刀闸,例如,为了检测某个刀闸的状态,根据存储在存储器中该刀闸各个顶点或边缘处的坐标信息,提取该3D空间内的点云图像,获得该刀闸点云图像。
目标图像处理模块根据存储器中存储的刀闸与水平面的夹角信息和刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,将目标刀闸图像进行坐标系变换,得到目标刀闸的待识别图像。
104、识别待识别图像中刀闸臂,并计算刀闸臂在待识别图像中的占比,基于占比确定刀闸的分合状态。
在本实施例中,对于刀闸臂的识别,具体可以通过特征模型来实现,也可以通过刀闸模型的匹配来确定待识别图像中的刀闸轮廓,并基于所述轮廓确定刀闸臂,这里的刀闸模型指的是通过神经网学习算法对各种刀闸的刀闸臂的轮廓特征和刀闸臂之外的轮廓特征进行学习,以构建出能够识别刀闸臂的识别模型。
本实施中,在识别出所述待识别图像中刀闸臂的坐标信息或者像素信息后,基于坐标信息或者像素信息来计算出刀闸臂的面积,从而计算所述刀闸臂在所述待识别图像中的占比,从而确定刀闸的分合状态。
在实际应用中,基于刀闸臂在待识别图像中的占比确定刀闸的分合状态,具体是通过计算各刀闸臂的总长度,基于各刀闸臂的总长度以及待识别图像的总长度计算出刀闸臂之间的距离,基于该距离来确定刀闸的是分位状态还是合位状态。
综上,基于刀闸的点云图像来识别刀闸的分合状态,点云图像可以在任何环境下实现准确采集,并不会受现场环境的光照、监控设备的拍摄角度等因素的影响而导致图像不清楚,并且算法识别的流程简单,解决了现有技术中对于刀闸分合状态识别准确度不高的问题。
同时,通过点云图像来识别刀闸的分合状态,对于识别算法的要求较低,同时对硬件要求不高,易于部署,算法内容只涉及简单的坐标换算及图像切片、比对,运算速度快、对算力要求低。
请参阅图3,为本发明实施例中刀闸分合状态的识别方法的另一个实施例,该识别方法包括:
201、获取设定位置区域内的刀闸点云数据,并从刀闸点云数据中提取目标刀闸的刀闸点云图像;
该步骤中,通过设于刀闸所在位置的深度相机采集设定位置区域内的刀闸点云数据,其中,所述设定位置区域包含所述刀闸的位置;确定所述刀闸点云数据中的目标刀闸,并基于所述目标刀闸确定对应的安装信息,其中所述安装信息至少包括所述目标刀闸的初始坐标空间位置;基于所述初始坐标空间位置确定所述刀闸点云数据中目标刀闸的位置,并提取所述位置上的点云数据,得到刀闸点云图像。
其中,所述基于所述初始坐标空间位置确定所述刀闸点云数据中目标刀闸的位置,并提取所述位置上的点云数据,得到刀闸点云图像,包括:基于所述初始坐标空间位置和所述深度相机的拍摄参数,计算出所述目标刀闸相对于所述深度相机的深度信息;计算所述刀闸点云数据中各物体相对于所述深度相机的深度值,并从刀闸点云数据中剔除所述深度值不符合所述深度信息的物体的数据,得到刀闸点云图像。
在实际应用中,通过激光雷达来采集刀闸的点云数据,并提取其中的刀闸点云图像,具体的在主控机控制器的控制指令下,深度相机采集设定位置区域内的刀闸点云图像信息;根据刀闸在深度相机视角内的坐标空间位置,去除不属于该坐标空间位置内的物体,提取刀闸,例如,为了检测某个刀闸的状态,根据存储在存储器中该刀闸各个顶点或边缘处的坐标信息,提取该3D空间内的点云图像,获得该刀闸点云图像。
202、基于刀闸点云图像确定目标刀闸的实时坐标空间位置,并基于实时坐标空间位置判断目标刀闸是否与预设的检测平面平行;
203、若是,利用实时坐标空间位置和目标刀闸的预设坐标空间位置调整刀闸点云图像中的目标刀闸的位置,得到目标刀闸的待识别图像;
该步骤中,具体利用实时坐标空间位置和目标刀闸的预设坐标空间位置中的目标刀闸与水平面的夹角信息和目标刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,对刀闸点云图像中目标刀闸的位置进行坐标系变换,得到目标刀闸的待识别图像。
在本实施例中,为了保证获取到的实时坐标空间位置的准确度,还包括:利用可见光摄像头采集设定位置区域内的刀闸图像,并基于所述刀闸图像确定所述目标刀闸的图像位置信息;基于所述目标刀闸的图像位置信息对所述实时坐标空间位置进行修正。
在实际应用中,对于刀闸的标准参数记录存储在设备中,具体的,存储深度相机监测范围内的刀闸的空间坐标信息,其中空间坐标位置信息是以深度相机为原点构建的,存储器还存储深度相机监测范围内刀闸与水平面间的夹角信息和刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,这里将刀闸与水平面间的夹角信息和刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息记为预置信息。
基于存储的刀闸的预置信息,根据存储器中存储的刀闸与水平面的夹角信息和刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,将目标刀闸图像进行坐标系变换,得到目标刀闸的待识别图像。
204、提取预设坐标空间位置中的刀闸的高度信息;
该步骤中,该高度信息是预设的,刀闸安装完成后,其所在Z轴坐标是固定不变的,而会存在变动的是刀闸有一定的旋转偏移,对此,在提取刀闸的具体图像时,可以基于高度信息计算出图像中的高度位置,从而基于高度位置来执行步骤205。
205、基于高度信息确定待识别图像中待检测区域,待检测区域为刀闸臂的识别区域;
该步骤中,基于上述的高度位置来确定待识别图像中刀闸所在的区域,然后将该区域标识为识别区域。后续的刀闸分合状态识别可以直接对识别区域进行提取和识别即可。
206、利用刀闸臂识别算法提取待检测区域中的刀闸臂图像;
本实施例中,利用高斯滤波算法对所述待检测区域进行图像滤波,提取目标刀闸的检测区域图像;利用刀闸臂识别算法从所述检测区域图像中识别刀闸臂的图像以及位置,并对所述位置进行标记;基于所述标记,利用图像分割算法分割出刀闸臂图像。
在实际应用中,所述刀闸臂识别算法可以是基于刀闸图像训练得到的识别模块,通过该识别模块提取待检测区域中刀闸特征,基于刀闸特征识别出刀闸臂,从而基于刀闸特征组合成刀闸臂图像。
207、计算刀闸臂图像与待检测区域对应的图像的占比,并基于占比确定刀闸的分合状态。
该步骤中,利用图像处理技术中的腐蚀操作,对所述标记的区域内的图像进行腐蚀处理,得到所述刀闸臂的轮廓信息;基于各刀闸臂的所述轮廓信息计算出所有所述刀闸臂相对于所述标记的区域的占比;基于所述占比确定所述刀闸的分合状态。
其中,所述基于所述占比确定所述刀闸的分合状态,包括:将所述占比与预设的刀闸状态表中各状态的刀闸臂比例进行匹配,并基于匹配的结果确定所述刀闸的状态;或者,判断所述占比是否大于预设的刀闸合位状态的最低轮廓面积比例阈值;若是,则确定所述刀闸处于合位状态;若否,则确定所述刀闸处于分位状态。
具体的,该腐蚀操作具体是利用图像处理技术中的腐蚀函数来实现,如利用OpenCV自带函数对所述标记的区域内的图像进行腐蚀操作,得到刀闸臂的轮廓;确定所述轮廓的边界,并基于所述边界计算所述轮廓的面积,得到所述刀闸臂的轮廓信息。
综上,获取设定位置区域内的刀闸点云数据,并从所述刀闸点云数据中提取目标刀闸的刀闸点云图像;基于所述刀闸点云图像确定所述目标刀闸的实时坐标空间位置,并利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置调整所述刀闸点云图像中的目标刀闸的位置,得到所述目标刀闸的待识别图像;识别所述待识别图像中刀闸臂,并计算所述刀闸臂在所述待识别图像中的占比,基于所述占比确定所述刀闸的分合状态。通过上述方法的实施例,点云图像可适应于各种环境,在保证高准确率的同时,对硬件要求不高,现场部署方式简单、易于实现。解决了现有的刀闸分合状态检测方案中刀闸分合状态的识别准确度不高的问题。
请参阅图1和4,为本发明实施例中刀闸分合状态的识别方法的另一个实施例,该实施例提供的方案是基于下面的方法结合图1中的硬件来实现,下面针对变电站中的刀闸的状态识别进行详细说明,该硬件基于激光雷达的软、硬件系统构成,具体包含:主控机(存储区域和控制器)、图像采集模块、目标图像提取模块、目标图像处理模块、刀闸分割和提取模块和状态识别模块。主控机负责存储刀闸的固定状态信息及激光雷达采集到的点云图像;图像采集模块负责接收控制器指令,并获取当前刀闸的点云图像;目标图像提取模块根据刀闸已知位置将过远的物体从图像中滤除,以提升目标刀闸的显著性;目标图像处理模块考虑到各个刀闸与相机位置关系,利用空间坐标变换将各个刀闸平面转变为正对相机平面;刀闸分割与提取模块根据已知刀闸的位置关系,将刀闸从点云图像中提取出来,并对部分噪声进行滤除,再进行切片;状态识别模块根据刀闸平面的切片对刀闸状态进行判断。目标图像提取模块根据刀闸已知位置将过远的物体从图像中滤除,以提升目标刀闸的显著性,只是通过已知的距离信息对点云空间的物体进行筛选,只是一个简单判据,不涉及复杂计算。目标图像处理模块中空间坐标转换是简单的坐标矩阵变换,通过该变换可准确获取旋转之后的刀闸空间位置。刀闸分割与提取模块是通过已知的刀闸空间位置,转换到旋转之后的坐标系中,对所拍摄的点云图像中的刀闸进行提取,考虑到可能会有部分噪声的存在,利用高斯滤波对这部分图像进行滤波处理。状态识别模块首先根据刀闸位置信息,截取刀闸双边中间位置各1/4区域,再对该区域内的刀闸进行轮廓检测,并计算该刀闸轮廓面积,当刀闸轮廓面积大于区域面积的1/2时,则判定处于合位,否则判定为分位。该识别方法包括:
301、获取刀闸点云图像;
通过在变电站刀闸附近安装深度相机(激光雷达)获取刀闸的点云图像,并根据刀闸的距离、高度以及角度等信息,将刀闸从点云图像中提取出来,得到目标刀闸的点云图像。
302、滤除刀闸点云图像中不相关信息;
该步骤中的不相关信息可以理解为刀闸之外的所有电气器件图像或者线路信息。具体通过刀闸识别模型来标记刀闸点云图像中的刀闸区域,然后将刀闸区域之外的点云数据删除,得到目标刀闸的图像。
303、从滤除不相关信息后的刀闸点云图像中识别出刀闸的图像;
304、利用存储的刀闸与水平面的夹角信息和刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息对识别出的刀闸的图像进行坐标转换,得到刀闸的正视图;
305、将刀闸的正视图从刀闸点云图像中分割出来,得到刀闸图像;
目标图像提取模块根据刀闸在深度相机视角处的坐标空间位置,去除不属于该坐标空间位置内的物体,提取刀闸,例如,为了检测某个刀闸的状态,根据存储在存储器中该刀闸各个顶点或边缘处的坐标信息,提取该3D空间内的点云图像,获得该刀闸点云图像。
目标图像处理模块根据存储器中存储的刀闸与水平面的夹角信息和刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,将目标刀闸图像进行坐标系变换,得到目标刀闸的待识别图像。
具体变换办法是,先绕y轴旋转θ,再将原点在x-z轴平面平移到o’的位置。其中θ是刀闸所在平面与水平线的夹角,o’位置为刀闸的中点垂线与深度相机坐标系z轴的交点,且y=0处。如图5中θ所示,具体变化描述如下式所示:
根据刀闸所在高度,提取刀闸所在位置,再通过高斯滤波算法对该区域滤波,得到刀闸待检测区域图像。
经过坐标系变换之后的单个刀闸示意图如图6所示,根据刀闸所在高度,可以截取图6所示的虚线框区域,检测不同距离下虚线框区域所在平面的成像情况,再通过高斯滤波算法对该虚线框区域进行滤波。在新坐标系原点o’处获取刀闸合位的平面图(根据刀闸平面到原点o’的距离确定该平面),再根据高度提取刀闸位置,图6中虚线框标出的位置则为刀闸合位时在该平面的成像,分闸处于分位时的提取效果如图7所示。
状态识别模块:提取刀闸位置图像中左右各一定比例的区域,通过计算设定区域内轮廓面积来识别刀闸分合状态,当设定区域轮廓面积大于选定区域总面积的1/2时,则认定刀闸处于合位,否则判定刀闸处于分位。具体的状态识别模块首先根据刀闸位置已知信息,截取刀闸中间位置双边各1/4区域,如图8中实线框所示,再对该实线框内的区域进行轮廓检测,并计算该轮廓面积,当轮廓面积大于区域面积的1/2时,则判定处于合位,否则判定为分位。
为了消除框内噪声及杂质的影响,可利用OpenCV自带函数对框内的区域进行腐蚀操作,再进行轮廓检测。
306、基于刀闸图像对刀闸的分合状态进行识别。
通过对上述方法的实施,通过刀闸点云图像确定目标刀闸的实时坐标空间位置,并利用实时坐标空间位置和目标刀闸的预设坐标空间位置调整刀闸点云图像中的目标刀闸的位置,得到目标刀闸的待识别图像;识别待识别图像中刀闸臂,并计算刀闸臂在待识别图像中的占比,基于占比确定刀闸的分合状态。该方法可以在简单硬件配置的基础上,实现对刀闸分合状态的准确判断。
进一步的,利用激光雷达获取刀闸点云图像,以及可见光摄像头获取图像确定刀闸位置,基于可见光摄像头确定的刀闸位置对激光雷达得到的位置进行校验,保证识别的刀闸位置的准确度,提高了对外界光线变化的适应性,实现了在不同的位置、场景及光线等情况下,均可完成对刀闸状态的准确判断。
上面对本发明实施例中刀闸分合状态的识别方法进行了描述,下面对本发明实施例中刀闸分合状态的识别装置进行描述,请参阅图9,本发明实施例中刀闸分合状态的识别装置的一个实施例,所述刀闸分合状态的识别装置包括:
图像采集模块910,用于获取设定位置区域内的刀闸点云数据,并从所述刀闸点云数据中提取目标刀闸的刀闸点云图像;
图像提取模块920,用于基于所述刀闸点云图像确定所述目标刀闸的实时坐标空间位置,并基于所述实时坐标空间位置判断所述目标刀闸是否与预设的检测平面平行;若否,则对所述刀闸点云图像进行调整,得到所述目标刀闸的待识别图像;
状态识别模块930,用于识别所述待识别图像中刀闸臂,并计算所述刀闸臂在所述待识别图像中的占比,基于所述占比确定所述刀闸的分合状态。
本发明实施例中,基于刀闸的点云图像来识别分合状态,点云图像的采集可以在任何环境下准确采集,并不会受现场环境的光照、监控设备的拍摄角度等因素的影响而导致图像不清楚,并且算法识别的流程简单,解决了现有技术中刀闸分合状态的识别准确度不高的问题。
请参阅图10,本发明实施例中刀闸分合状态的识别装置的第二个实施例,所述刀闸分合状态的识别装置包括:
图像采集模块910,用于获取设定位置区域内的刀闸点云数据,并从所述刀闸点云数据中提取目标刀闸的刀闸点云图像;
图像提取模块920,用于基于所述刀闸点云图像确定所述目标刀闸的实时坐标空间位置,并基于所述实时坐标空间位置判断所述目标刀闸是否与预设的检测平面平行;若否,则对所述刀闸点云图像进行调整,得到所述目标刀闸的待识别图像;
状态识别模块930,用于识别所述待识别图像中刀闸臂,并计算所述刀闸臂在所述待识别图像中的占比,基于所述占比确定所述刀闸的分合状态。
在本实施例中,所述图像采集模块910包括:
点云采集单元911,用于通过设于刀闸所在位置的深度相机采集设定位置区域内的刀闸点云数据,其中,所述设定位置区域包含所述刀闸的位置;
第一确定单元912,用于确定所述刀闸点云数据中的目标刀闸,并基于所述目标刀闸确定对应的安装信息,其中所述安装信息至少包括所述目标刀闸的初始坐标空间位置;
第一提取单元913,用于基于所述初始坐标空间位置确定所述刀闸点云数据中目标刀闸的位置,并提取所述位置上的点云数据,得到刀闸点云图像。
在本实施例中,所述图像提取模块920具体用于:
基于所述初始坐标空间位置和所述深度相机的拍摄参数,计算出所述目标刀闸相对于所述深度相机的深度信息;
计算所述刀闸点云数据中各物体相对于所述深度相机的深度值,并从刀闸点云数据中剔除所述深度值不符合所述深度信息的物体的数据,得到刀闸点云图像。
在本实施例中,所述图像提取模块920具体还用于:
利用可见光摄像头采集设定位置区域内的刀闸图像,并基于所述刀闸图像确定所述目标刀闸的图像位置信息;
基于所述目标刀闸的图像位置信息对所述实时坐标空间位置进行修正。
在本实施例中,所述图像提取模块920具体用于:
利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置调整所述刀闸点云图像中的目标刀闸的位置,得到所述目标刀闸的待识别图像。
在本实施例中,所述图像提取模块920具体用于:
利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置中的目标刀闸与水平面的夹角信息和目标刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,对所述刀闸点云图像中目标刀闸的位置进行坐标系变换,得到所述目标刀闸的待识别图像。
在本实施例中,所述状态识别模块930包括:
第二提取单元931,用于提取所述预设坐标空间位置中的刀闸的高度信息;
第二确定单元932,用于基于所述高度信息确定所述待识别图像中待检测区域,其中所述待检测区域为刀闸臂的识别区域;
第三提取单元933,用于利用刀闸臂识别算法提取所述待检测区域中的刀闸臂图像;
计算单元934,用于计算所述刀闸臂图像与所述待检测区域对应的图像的占比。
在本实施例中,所述第三提取单元933具体用于:
利用高斯滤波算法对所述待检测区域进行图像滤波,提取目标刀闸的检测区域图像;
利用刀闸臂识别算法从所述检测区域图像中识别刀闸臂的图像以及位置,并对所述位置进行标记;
基于所述标记,利用图像分割算法分割出刀闸臂图像。
在本实施例中,所述计算单元934具体用于:
利用图像处理技术中的腐蚀操作,对所述标记的区域内的图像进行腐蚀处理,得到所述刀闸臂的轮廓信息;
基于各刀闸臂的所述轮廓信息计算出所有所述刀闸臂相对于所述标记的区域的占比。
在本实施例中,所述识别单元934具体用于:
利用OpenCV自带函数对所述标记的区域内的图像进行腐蚀操作,得到刀闸臂的轮廓;
确定所述轮廓的边界,并基于所述边界计算所述轮廓的面积,得到所述刀闸臂的轮廓信息。
在本实施例中,所述状态识别模块930还包括识别单元935,具体用于:
将所述占比与预设的刀闸状态表中各状态的刀闸臂比例进行匹配,并基于匹配的结果确定所述刀闸的分合状态;
或者,
判断所述占比是否大于预设的刀闸合位状态的最低轮廓面积比例阈值;若是,则确定所述刀闸处于合位状态;若否,则确定所述刀闸处于分位状态。
本实施例通过刀闸点云图像确定目标刀闸的实时坐标空间位置,并利用实时坐标空间位置和目标刀闸的预设坐标空间位置调整刀闸点云图像中的目标刀闸的位置,得到目标刀闸的待识别图像;识别待识别图像中刀闸臂,并计算刀闸臂在待识别图像中的占比,基于占比确定刀闸的分合状态。该方法可以通过简单硬件配置,实现对刀闸分合状态的准确判断。
进一步的,利用激光雷达获取刀闸点云图像,以及可见光摄像头获取图像确定刀闸位置,基于可见光摄像头确定的刀闸位置对激光雷达得到的位置进行校验,保证识别的刀闸位置的准确度,提高了对外界光线变化的适应性,实现了在不同的位置、场景及光线等情况下,均可完成对刀闸状态的准确判断。
上面图9-10从模块化功能实体的角度对本发明实施例中的中刀闸分合状态的识别装置进行详细描述,下面从硬件处理的角度对本发明实施例中电子设备进行详细描述。
图11是本发明实施例提供的一种电子设备的结构示意图,该电子设备1000可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(centralprocessing units,CPU)1010(例如,一个或一个以上处理器)和存储器1020,一个或一个以上存储应用程序1033或数据1032的存储介质1030(例如一个或一个以上海量存储设备)。其中,存储器1020和存储介质1030可以是短暂存储或持久存储。存储在存储介质1030的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对电子设备1000中的一系列指令操作。更进一步地,处理器1010可以设置为与存储介质1030通信,在电子设备1000上执行存储介质1030中的一系列指令操作,以实现上述实施例提供的方法的各个步骤。
电子设备1000还可以包括一个或一个以上电源1040,一个或一个以上有线或无线网络接口1050,一个或一个以上输入输出接口1060,和/或,一个或一个以上操作系统1031,例如Windows Serve,Mac OS X,Unix,Linux,FreeBSD等等。本领域技术人员可以理解,图11示出的电子设备结构并不构成对本发明提供的计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
本发明实施例提供的电子设备,包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;所述至少一个处理器调用所述存储器中的所述指令,以使得所述电子设备执行上述提供的刀闸分合状态的识别方法的各个步骤。
本发明还提供一种计算机可读存储介质,该计算机可读存储介质可以为非易失性计算机可读存储介质,该计算机可读存储介质也可以为易失性计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行所述的刀闸分合状态的识别方法的各个步骤。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统或装置、单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (15)
1.一种刀闸分合状态的识别方法,其特征在于,所述刀闸分合状态的识别方法包括:
获取设定位置区域内的刀闸点云数据,并从所述刀闸点云数据中提取目标刀闸的刀闸点云图像;
基于所述刀闸点云图像确定所述目标刀闸的实时坐标空间位置,并基于所述实时坐标空间位置判断所述目标刀闸是否与预设的检测平面平行;
若否,则对所述刀闸点云图像进行调整,得到所述目标刀闸的待识别图像;
识别所述待识别图像中刀闸臂,并计算所述刀闸臂在所述待识别图像中的占比,基于所述占比确定所述刀闸的分合状态。
2.根据权利要求1所述的刀闸分合状态的识别方法,其特征在于,所述获取设定位置区域内的刀闸点云数据,并从所述刀闸点云数据中提取目标刀闸的刀闸点云图像,包括:
通过设于刀闸所在位置的深度相机采集设定位置区域内的刀闸点云数据,其中,所述设定位置区域包含所述刀闸的位置;
确定所述刀闸点云数据中的目标刀闸,并基于所述目标刀闸确定对应的安装信息,其中所述安装信息至少包括所述目标刀闸的初始坐标空间位置;
基于所述初始坐标空间位置确定所述刀闸点云数据中目标刀闸的位置,并提取所述位置上的点云数据,得到刀闸点云图像。
3.根据权利要求2所述的刀闸分合状态的识别方法,其特征在于,所述基于所述初始坐标空间位置确定所述刀闸点云数据中目标刀闸的位置,并提取所述位置上的点云数据,得到刀闸点云图像,包括:
基于所述初始坐标空间位置和所述深度相机的拍摄参数,计算出所述目标刀闸相对于所述深度相机的深度信息;
计算所述刀闸点云数据中各物体相对于所述深度相机的深度值,并从刀闸点云数据中剔除所述深度值不符合所述深度信息的物体的数据,得到刀闸点云图像。
4.根据权利要求1所述的刀闸分合状态的识别方法,其特征在于,在所述基于所述实时坐标空间位置判断所述目标刀闸是否与预设的检测平面平行之前,还包括:
利用可见光摄像头采集设定位置区域内的刀闸图像,并基于所述刀闸图像确定所述目标刀闸的图像位置信息;
基于所述目标刀闸的图像位置信息对所述实时坐标空间位置进行修正。
5.根据权利要求1所述的刀闸分合状态的识别方法,其特征在于,所述对所述刀闸点云图像进行调整,得到所述目标刀闸的待识别图像,包括:
利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置调整所述刀闸点云图像中的目标刀闸的位置,得到所述目标刀闸的待识别图像。
6.根据权利要求5所述的刀闸分合状态的识别方法,其特征在于,所述利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置调整所述刀闸点云图像中的目标刀闸的位置,得到所述目标刀闸的待识别图像,包括:
利用所述实时坐标空间位置和所述目标刀闸的预设坐标空间位置中的目标刀闸与水平面的夹角信息和目标刀闸的中点垂线与深度相机坐标系z轴的交点的位置信息,对所述刀闸点云图像中目标刀闸的位置进行坐标系变换,得到所述目标刀闸的待识别图像。
7.根据权利要求1-6中任一项所述的刀闸分合状态的识别方法,其特征在于,所述识别所述待识别图像中刀闸臂,并计算所述刀闸臂在所述待识别图像中的占比,包括:
提取所述预设坐标空间位置中的刀闸的高度信息;
基于所述高度信息确定所述待识别图像中待检测区域,其中所述待检测区域为刀闸臂的识别区域;
利用刀闸臂识别算法提取所述待检测区域中的刀闸臂图像;
计算所述刀闸臂图像与所述待检测区域对应的图像的占比。
8.根据权利要求7所述的刀闸分合状态的识别方法,其特征在于,所述利用刀闸臂识别算法提取所述待检测区域中的刀闸臂图像,包括:
利用高斯滤波算法对所述待检测区域进行图像滤波,提取目标刀闸的检测区域图像;
利用刀闸臂识别算法从所述检测区域图像中识别刀闸臂的图像以及位置,并对所述位置进行标记;
基于所述标记,利用图像分割算法分割出刀闸臂图像。
9.根据权利要求8所述的刀闸分合状态的识别方法,其特征在于,所述计算所述刀闸臂图像与所述待检测区域对应的图像的占比,包括:
利用图像处理技术中的腐蚀操作,对所述标记的区域内的图像进行腐蚀处理,得到所述刀闸臂的轮廓信息;
基于各刀闸臂的所述轮廓信息计算出所有所述刀闸臂相对于所述标记的区域的占比。
10.根据权利要求9所述的刀闸分合状态的识别方法,其特征在于,所述利用图像处理技术中的腐蚀操作,对所述标记的区域内的图像进行腐蚀处理,得到所述刀闸臂的轮廓信息,包括:
利用OpenCV自带函数对所述标记的区域内的图像进行腐蚀操作,得到刀闸臂的轮廓;
确定所述轮廓的边界,并基于所述边界计算所述轮廓的面积,得到所述刀闸臂的轮廓信息。
11.根据权利要求1-6中任一项所述的刀闸分合状态的识别方法,其特征在于,所述基于所述占比确定所述刀闸的分合状态,包括:
将所述占比与预设的刀闸状态表中各状态的刀闸臂比例进行匹配,并基于匹配的结果确定所述刀闸的分合状态;
或者,
判断所述占比是否大于预设的刀闸合位状态的最低轮廓面积比例阈值;若是,则确定所述刀闸处于合位状态;若否,则确定所述刀闸处于分位状态。
12.一种刀闸分合状态的识别装置,其特征在于,所述刀闸分合状态的识别装置包括:
图像采集模块,用于获取设定位置区域内的刀闸点云数据,并从所述刀闸点云数据中提取目标刀闸的刀闸点云图像;
图像提取模块,用于基于所述刀闸点云图像确定所述目标刀闸的实时坐标空间位置,并基于所述实时坐标空间位置判断所述目标刀闸是否与预设的检测平面平行;若否,则对所述刀闸点云图像进行调整,得到所述目标刀闸的待识别图像;
状态识别模块,用于识别所述待识别图像中刀闸臂,并计算所述刀闸臂在所述待识别图像中的占比,基于所述占比确定所述刀闸的分合状态。
13.根据权利要求12所述的刀闸分合状态的识别装置,其特征在于,所述状态识别模块包括:
第二提取单元,用于提取所述预设坐标空间位置中的刀闸的高度信息;
第二确定单元,用于基于所述高度信息确定所述待识别图像中待检测区域,其中所述待检测区域为刀闸臂的识别区域;
第三提取单元,用于利用刀闸臂识别算法提取所述待检测区域中的刀闸臂图像;
计算单元,用于计算所述刀闸臂图像与所述待检测区域对应的图像的占比。
14.一种电子设备,其特征在于,所述电子设备包括:存储器和至少一个处理器,所述存储器中存储有指令,所述存储器和所述至少一个处理器通过线路互连;
所述至少一个处理器调用所述存储器中的所述指令,以使得所述电子设备执行如权利要求1-11中任一项所述的刀闸分合状态的识别方法的各个步骤。
15.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-11中任一项所述的刀闸分合状态的识别方法的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211492420.7A CN116091996A (zh) | 2022-11-25 | 2022-11-25 | 刀闸分合状态的识别方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211492420.7A CN116091996A (zh) | 2022-11-25 | 2022-11-25 | 刀闸分合状态的识别方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116091996A true CN116091996A (zh) | 2023-05-09 |
Family
ID=86209102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211492420.7A Pending CN116091996A (zh) | 2022-11-25 | 2022-11-25 | 刀闸分合状态的识别方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116091996A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563272A (zh) * | 2023-06-29 | 2023-08-08 | 深圳优立全息科技有限公司 | 基于高精点云的隔离开关分合状态识别方法及相关装置 |
-
2022
- 2022-11-25 CN CN202211492420.7A patent/CN116091996A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563272A (zh) * | 2023-06-29 | 2023-08-08 | 深圳优立全息科技有限公司 | 基于高精点云的隔离开关分合状态识别方法及相关装置 |
CN116563272B (zh) * | 2023-06-29 | 2023-09-01 | 深圳优立全息科技有限公司 | 基于高精点云的隔离开关分合状态识别方法及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113313005B (zh) | 基于目标识别与重建的输电导线在线监测方法及系统 | |
WO2016055031A1 (zh) | 直线检测、图像处理的方法及相关装置 | |
AU2019390462A1 (en) | Method and device for determining tower clearance for wind turbine | |
CN105718964B (zh) | 一种输电线防振锤的视觉检测方法 | |
CN109271844A (zh) | 基于OpenCV的电气柜电气符号识别方法 | |
CN109117764A (zh) | 在电力监控中采用颜色阈值法识别目标物体区域电气符号的方法 | |
CN116091996A (zh) | 刀闸分合状态的识别方法、装置、设备及存储介质 | |
CN105262991A (zh) | 一种基于二维码的变电站设备对象识别方法 | |
CN116338449B (zh) | 一种断路器开关特性在线测试方法及系统 | |
CN111178395A (zh) | 一种隔离开关状态识别方法及装置 | |
CN109063634A (zh) | 在电力监控中采用霍夫圆变换识别目标物体区域电气符号的方法 | |
CN115909028A (zh) | 一种基于梯度图像融合的高压隔离开关状态识别方法 | |
CN113888462A (zh) | 一种裂纹识别方法、系统、可读介质及存储介质 | |
CN114639025B (zh) | 一种无人机辅助下风力机叶片检修方法及装置 | |
CN115294352A (zh) | 一种基于图像识别的开关柜状态智能识别系统及方法 | |
CN116883661B (zh) | 一种基于目标识别与图像处理的动火作业检测方法 | |
CN110322508B (zh) | 一种基于计算机视觉的辅助定位方法 | |
CN113487559A (zh) | 一种变电站隔离开关开合状态实时检测方法 | |
CN103455998A (zh) | 视频图像中阴影的检测方法及装置 | |
CN114549822A (zh) | 基于预置位摄像头的隔离开关闭合状态检测方法 | |
CN102004537B (zh) | 系统上下电控制装置和方法 | |
Zhang et al. | The automatic identification method of switch state | |
CN109860742B (zh) | 变电站通信电源蓄电池电解液泄漏识别方法 | |
CN104392429A (zh) | 基于色彩信息和P-tile算法的受电弓图像定位方法 | |
CN113780191B (zh) | 一种发电站启动拖动开关分合闸状态图像识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |