CN116844036A - 基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法 - Google Patents
基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法 Download PDFInfo
- Publication number
- CN116844036A CN116844036A CN202310569388.6A CN202310569388A CN116844036A CN 116844036 A CN116844036 A CN 116844036A CN 202310569388 A CN202310569388 A CN 202310569388A CN 116844036 A CN116844036 A CN 116844036A
- Authority
- CN
- China
- Prior art keywords
- image
- icing
- ice coating
- contour
- circle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 24
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 21
- 238000000034 method Methods 0.000 claims abstract description 77
- 239000011248 coating agent Substances 0.000 claims abstract description 69
- 238000000576 coating method Methods 0.000 claims abstract description 69
- 238000012545 processing Methods 0.000 claims abstract description 25
- 238000004364 calculation method Methods 0.000 claims abstract description 24
- 230000005540 biological transmission Effects 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 238000005516 engineering process Methods 0.000 claims abstract description 8
- 238000001914 filtration Methods 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 19
- 230000000877 morphologic effect Effects 0.000 claims description 15
- 230000002776 aggregation Effects 0.000 claims description 14
- 238000003708 edge detection Methods 0.000 claims description 8
- 230000005484 gravity Effects 0.000 claims description 6
- 230000001629 suppression Effects 0.000 claims description 6
- 238000003064 k means clustering Methods 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000001788 irregular Effects 0.000 claims description 3
- 238000013139 quantization Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 abstract description 6
- 238000005259 measurement Methods 0.000 abstract description 4
- 238000012544 monitoring process Methods 0.000 abstract description 4
- 230000002159 abnormal effect Effects 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000010191 image analysis Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 18
- 230000006872 improvement Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 238000005303 weighing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 229910002056 binary alloy Inorganic materials 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000000748 compression moulding Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005489 elastic deformation Effects 0.000 description 1
- 239000003822 epoxy resin Substances 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000012212 insulator Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920000647 polyepoxide Polymers 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229920002379 silicone rubber Polymers 0.000 description 1
- 239000004945 silicone rubber Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及输电线路安全监测技术领域,具体地说,涉及基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法。包括如下步骤:图像采集;图像预处理;覆冰厚度检测。本发明设计使用了基于深度学习的VGG卷积神经网络,能够进行精确的图像分析和数据处理,从而准确地获取覆冰类型,识别覆冰类型准确性高;使用高效的图像处理技术,计算速度快,占用计算资源少,可以准确地计算物体所占据的面积,避免了人工测量的误差,检测覆冰厚度的精度高、速度快;可以实现自动化的检测导线上的覆冰类型和厚度,提高工作效率;可以实现实时监测导线上的覆冰情况,及时发现异常情况,保障电力系统的稳定运行;可以较容易地进行扩展和改进,实现更广泛的应用。
Description
技术领域
本发明涉及输电线路安全监测技术领域,具体地说,涉及基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法。
背景技术
导线覆冰是指雨凇、雾凇凝附在导线上或湿雪冻结在导线上的现象,输电线路覆冰和积雪会导致其机械和电气性能急剧下降,引起绝缘子覆冰闪络、导地线断线、导线舞动、倒塔和电力通信中断等事故。
输电线路的冻结覆冰灾害一直严重威胁着电力系统的安全稳定运行,故对于输电线路覆冰状态的检测具有非常重要的意义。目前的监测方法主要有称重法、导线倾角法、覆冰速率计法、模拟导线法以及准分布式光纤法等。
上述方法中,目前效果较好的是称重法,但其存在操作繁琐,测量精度不够等问题,同时其他方法均存在难以克服的缺陷,需要进一步研究。鉴于此,我们提出了基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法。
发明内容
本发明的目的在于提供基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,以解决上述背景技术中提出的问题。
为实现上述技术问题的解决,本发明的目的在于,提供了基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,包括如下步骤:
S1、图像采集:使用伞形标尺上的醒目等距色环来判断覆冰的轮廓,利用无人机等设备上的摄像头采集输电线路色环上覆冰的图像,通过无线传输将图像信息回传至控制中心;
S2、图像预处理:利用图像滤波技术对图像进行增强处理,以实现对图像的补偿;
S3、覆冰类型检测:先获取覆冰形态训练样本集,通过预训练获取图像纹理特征,确定覆冰类型的类聚中心,构建覆冰形态特征库,最终根据图像的纹理特征确定待检测图像的覆冰类型;
S4、覆冰厚度检测:通过调整颜色空间,并对图像进行二值化,然后进行边缘检测以提取轮廓信息,再提取图像中覆冰的外形,最后计算像素点得到覆冰截面积,即覆冰厚度。
作为本技术方案的进一步改进,所述S2中,图像预处理中,采用中值滤波方法对图像进行滤波预处理;中值滤波方法的作业原理为:
通常情况下,传统的中值滤波含有窗口的数目为奇数个,则指定点的灰度值被窗口中各个点的灰度值的中值取代;如果是含有奇数个像素,按照排序后的值取中位数作为中值;如果是像素个数偶数,直接用中间灰度值的均值;
中值滤波的一般表达式为:
f(x,y)=median(g(x,y)),(x,y)∈Sw;
其中,f(x,y)为处理得到的结果图像,g(x,y)为含有噪声的原始图像,Sw为中值滤波操作的模板。
作为本技术方案的进一步改进,所述S3中,覆冰类型检测的具体方法包括如下步骤:
S3.1、获取覆冰形态训练样本集:采集多种状态的导线图像,并对覆冰形态训练样本集进行预处理;
其具体的操作步骤为:对采集的图像进行标注,标注出高压线的轮廓以及覆冰形态;继而截取覆冰形态训练样本集的任一图像中的高压线区域的图像,并将其矫正为矩形图像作为训练样本以为后续图像的训练和分类做准备;
S3.2、预训练获取图像纹理特征:将各类状态彩色图像作为不同类型的图像集,其中图像集合分别记作Xk;继而对Xk中的每幅图像进行缩放,并将缩放后的图像放入Xk中,同时也将Xk里的图像集转换成ImageNet数据集;
最后使用ImageNet数据集中的图像,对VGG-VD19层CNN网络进行预训练;
S3.3、k-means聚类确定类聚中心;
k-means聚类是一种常用的无监督学习算法,它的目标是将数据集分为k个不同的类别,每个类别具有相似的特征;在这个算法中,我们首先随机选取k个点作为类别的中心,然后将数据点分配到离其最近的中心点所在的类别中;接着,计算每个类别内所有点的平均值,并将这些平均值作为新的类别中心;不断重复这个过程,直到类别中心不再改变;
S3.4、构建覆冰形态特征库:覆冰形态特征库是基于VGG-19神经网络构建的,当类聚中心确定之后,覆冰形态特征库中就存储有各个类聚中心;
S3.5、确定待检测图像的覆冰类型:将待检测覆冰图像输入覆冰形态特征库,以使得所述覆冰形态特征库根据所述类聚中心来确定待检测图像的纹理特征,并根据所述待检测图像的纹理特征确定覆冰类型。
作为本技术方案的进一步改进,所述S4中,覆冰厚度检测的具体方法包括如下步骤:
S4.1、调整颜色空间:调用cv2.cvtColor函数对滤波后的图像进行灰度化处理,以提高后续图像处理的效率;
S4.2、图像二值化:调用cv2.threshold函数对图像进行二值化处理;
S4.3、采用Canny进行边缘检测,提取轮廓信息;
S4.4、采用霍夫变换(HoughTransform),提取图像中覆冰的外形:调用opencv的cv2.HoughCircle函数完成轮廓检测;
S4.5、计算像素点得到覆冰截面积:在OPENCV中,调用cv2.contourArea函数计算给定轮廓所围成区域的面积。
作为本技术方案的进一步改进,所述S4.1中,调整颜色空间时,采用加权平均值法对获取到图像进行初步灰度化处理;具体算法为:
分别对原始图像的R、G、B的三个通道进行权值平均,如下所示:
R=G=B=(λ1R+λ2G+λ3B)/3
其中,λ1+λ2+λ3=1,一般而言,λ1=0.587,λ2=0.299,λ3=0.114。
作为本技术方案的进一步改进,所述S4.2中,图像二值化时,采用Otsu法对图像进行二值化处理;Otsu阈值分割算法是一种自适应的图像分割算法,可以用来将图像分为前景和背景两部分;具体计算过程如下:
(1)遍历图像中的每一个像素,计算其灰度值的直方图p(i),其中i为灰度值(一般取0-255);
(2)计算每一个灰度级别i的像素在图像中的占比w(i):
其中,ni表示灰度级别i的像素数量,n表示图像的像素总数;
(3)计算每个灰度级别i的平均灰度值μ(i):
其中,L是灰度级别的总数(一般是256),p(j)是灰度值为j的像素占图像总像素数的比例;
(4)计算全局平均灰度值uT:
(5)计算类间方差ν(i):
ν(i)=w(i)·(uT-μ(i))2+(1-w(i))·(μ(i))2;
(6)取使类间方差最大的灰度级别值为阈值T:
T=arg maxi(ν(i));
(7)使用阈值T将图像分为前景和背景两部分;
通过以上步骤,得到Otsu阈值分割算法的阈值;该阈值可以使得将图像分割成前景和背景两部分时,使得两部分的类间方差最大化。
作为本技术方案的进一步改进,所述S4.3中,使用Canny算法进行边缘检测的具体计算过程如下:
(1)计算图像梯度幅值和方向:使用Sobel算子计算图像的水平和竖直方向的梯度;然后,对每个像素计算梯度的大小G和方向θ:
(2)非极大值抑制:对梯度幅值图像进行非极大值抑制,即对图像局部极大值对应的像素保留,其他像素舍弃;这一步的目的是在边缘明显的位置取得更细的边缘;
(3)双阈值处理:使用两个阈值TL和TH对梯度幅值进行二值化处理;对于梯度幅值大于TH的像素定为强边缘像素,对于梯度幅值小于TL的像素定为弱边缘像素;
(4)连通分量处理:根据强边缘像素,利用连通分量算法得到最终边缘结果。
作为本技术方案的进一步改进,所述S4.4中,调用opencv的cv2.HoughCircle函数完成轮廓检测的具体计算过程如下:
(1)在上一步提取的轮廓信息的基础上,选取圆的半径范围和步长,对每个半径进行特定的半径量化;
(2)对于每个像素点(x,y),计算它到半径为r,圆心坐标为(a,b)的圆的距离d,即然后将(a,b,r)的组合代入极坐标空间;其中,每个组合(a,b,r)代表着一条曲线,/>可表示为r(a,b)在极坐标中为θ-r空间中的一个点;
(3)统计极坐标空间中各点的数量,得到圆的数量。
Hough变换将图像的像素点映射到参数空间,并在参数空间中进行计数。通过具有更少轮廓点的形状在允许误差范围内逼近并拟合指定圆形或椭圆形轮廓,以提取图像中的覆冰形状信息。
作为本技术方案的进一步改进,所述S4.5中,上一步中获取了覆冰的外轮廓,在0PENCV中,调用cv2.contourArea函数计算给定轮廓所围成区域的面积,其实现原理是基于格林公式:
一个光滑向量场F(x,y,z)=P(x,y,z)i+Q(x,y,z)j+R(x,y,z)k和一个光滑曲面S,边界曲线为C;则:
其中,C为曲线的边界,参数化表示为C:r(t)=(x(t),y(t),z(t)),a≤t≤b;
将闭合曲线沿着曲线方向进行微小位移得到的掠过图形的梯形面积之和等于曲线所围成的面积;
计算轮廓内的像素点获取面积的原理是基于矩的概念。对于一幅图像,它的几何矩定义为:mij=∑x∑yxiyiI(x,y);其中I(x,y)表示图像在(x,y)处的像素灰度值,i、j分别表示阶数;
在计算轮廓面积的过程中,可以使用cv2.moments函数计算其矩,包括图像的重心C以及各阶矩mij;它的计算公式如下:
m00=∑x∑yI(x,y);
m10=∑x∑yxI(x,y);
m01=∑x∑yyI(x,y);
其中,Cx和Cy分表示图像的重心在x轴和y轴上的坐标;一阶矩m00表示轮廓区域的像素总数,而其他矩可以用于计算轮廓区域内的质心坐标和轮廓区域内的特征值;
获取了覆冰轮廓内和各个色环外轮廓内的像素点数量,基于面积等效原则,将导线实际非均匀、不规则覆冰校正为圆形的均匀覆冰;
具体的操作步骤为:对每个轮廓分别调用cv2.minEnclosingCircle函数计算最小外接圆,得到圆心和半径;其计算过程基于凸包算法。
作为本技术方案的进一步改进,所述凸包算法的具体流程如下:
(1)由给定的数据点集P={P1,P2,…,pn}计算其凸包H={h1,h2,…hm},即找到P中能够凸包住所有点的最小凸多边形(或称凸壳);
(2)根据凸包点集H,计算凸包的直径;直径是凸包中任意两个点之间距离的最大值;
(3)将最小外接圆的圆心C初始值设置为直径的中心点,半径r初始值为直径长度的一半;
(4)不断调整圆心和半径,使得圆内包含所有点,并且半径最小;调整过程如下:
(4a)对所有点p∈P,计算圆心C到该点的距离dPC;
(4b)如dPC>r,则将圆的半径r改为(dPC+r)/2,并将圆心移动到与该点的中点上;
(4c)重复上述步骤直至r不再发生变化;
最后得到的圆即为能够最小外接所有点的圆;
最后,使用cv2.circle()函数绘制最小外接圆;
因色环中每一环的半径都为已知量,所以能以色环为参考,判断校正后的覆冰外轮廓落于色环上的位置,便可得到实际的覆冰截面积,即导线上的覆冰厚度。
与现有技术相比,本发明的有益效果:
1.该基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法中,使用了基于深度学习的VGG卷积神经网络,能够进行精确的图像分析和数据处理,从而准确地获取覆冰类型,识别覆冰类型准确性高;
2.该基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法中,OpenCV使用高效的图像处理技术,在计算像素点得到面积时速度非常快,占用计算资源少;并且可以实现像素级别的计算,可以准确地计算物体所占据的面积,避免了人工测量的误差,检测覆冰厚度的精度高、速度快;
3.该基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法中,可以实现自动化的检测导线上的覆冰类型和厚度,提高工作效率;可以实现实时监测导线上的覆冰情况,及时发现异常情况,保障电力系统的稳定运行;可以较容易地进行扩展和改进,实现更广泛的应用。
附图说明
图1为本发明中示例性的整体方法流程图;
图2为本发明中示例性的伞形标尺的俯视结构示意图;
图3为本发明中示例性的伞形标尺的色环结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1-图3所示,本实施例提供了基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,包括如下步骤。
S1、图像采集:使用伞形标尺上的醒目等距色环来判断覆冰的轮廓,利用无人机等设备上的摄像头采集输电线路色环上覆冰的图像,通过无线传输将图像信息回传至控制中心,控制中心采用图像识别相关算法计算分析得到线路的覆冰类型和厚度。
本步骤中所采用的伞形标尺如图2-图3所示。这类标尺主要借助标尺本体(伞裙)上的醒目等距色环来判断覆冰的轮廓。为辅助判断,还可以将伞裙等分为若干扇形区域。
同时,这类标尺的本体为一个开口的伞裙,垂直固定在一个具有一定弹性形变能力的环氧树脂或其他塑料管上。此类标尺采用挤包穿伞、注塑成型或者模压成型的方法进行制造。伞裙和中间管体的开口相对,导线穿过开口即可卡在管体内部,方便借助带电作业工具进行带电安装和拆卸。为增大摩擦,减少标尺的滑移,还可在管体内壁粘接硅橡胶里衬。
另外,伞裙表面色环的宽度为5mm,颜色采用红、黄、绿、蓝等较为醒目且区别较大的颜色。
S2、图像预处理:利用图像滤波技术对图像进行增强处理,以实现对图像的补偿。
本步骤中,由于图像采集系统自身的不稳定性和外部环境的干扰,数字图像可能会产生不同程度的失真,出现噪声干扰和亮度失衡等问题。因此为了保证采集图像的质量,本实施例将利用图像滤波技术对图像进行增强处理,以实现对图像的补偿。再对预处理后的图像进行识别和计算。
图像滤波是保留图像细节特征的条件下对目标图像的噪声和干扰进行抑制,是图像预处理中不可缺少的步骤。其图像滤波的原理是选取一个大小为m×n的滤波模板对输入图像像素进行重新计算,并输出图像中新的像素值,在选取不同的滤波模板时能够实现不同的图像滤波算法。图像滤波有多种方法,其中均值滤波和高斯滤波处理的图像均含有大量的噪声干扰情况,并且经过处理后的图片变得比较模糊,而中值滤波法基本看不出含有噪声,并且处理后的图片比较清晰,所以本实施例优选用中值滤波方法对图像进行处理。中值滤波是一种统计滤波器,同时也是一种空间滤波器,类似于卷积运算,主要通过排序图像滤波器所包含的图像范围中的像素,用排序的结果来取代中心像素的值,进而达到消除噪声。由于图像的高频分量与区域边缘相对应,中值滤波通过滤除该区域中部分变化明显的灰度值,使得图像变得平滑。
具体地,中值滤波方法的作业原理为:
通常情况下,传统的中值滤波含有窗口的数目为奇数个,则指定点的灰度值被窗口中各个点的灰度值的中值取代;如果是含有奇数个像素,按照排序后的值取中位数作为中值;如果是像素个数偶数,直接用中间灰度值的均值;
中值滤波的一般表达式为:
f(x,y)=median(g(x,y)),(x,y)∈Sw;
其中,f(x,y)为处理得到的结果图像,g(x,y)为含有噪声的原始图像,Sw为中值滤波操作的模板。
本实施例中,中值滤波的滤波方法是对其中2N+1个窗口内的像素按照大小排序,滤波的结果为该序列的中值也是输出的像素值。比如取7×7大小的窗口时,中值为窗口内第25个最大的像素值。其中,在二维中值滤波中,所选择的窗口大小以及形状对最终的效果会产生较大的影响。此时,应该根据不同的图像及实际的应用需求来确定窗口的形状和大小。中值的计算最终还是取决于窗口内像素的排序。传统的排序算法为冒泡排序,该排序算法通过图像的像素值之间的比较,交换其位置来完成。比如,窗口中有n个像素,则每个窗口排序需要n(n-2)/2次像素之间的比较。在常规的滤波算法每次移动就要进行排序一次,这样带来的损失就是时间复杂度在提升。当一幅图像的大小为M×M,则整个计算的时间复杂度为(n2M2),当窗口较大时,计算的时间复杂度更大。本实施例采用的3×3模板,对模板内的9个元素进行排序为b1,b2,b3,b4,b5,b6,b7,b8,b9,选取b5来代替像素值。
S3、覆冰类型检测;具体方法包括如下步骤:
S3.1、获取覆冰形态训练样本集:采集雨凇、雾凇、混合凇、无覆冰四类状态的导线图像,并对覆冰形态训练样本集进行预处理;
其具体的操作步骤为:对采集的图像进行标注,标注出高压线的轮廓以及覆冰形态,包括雨凇、雾凇、混合凇、无覆冰四类状态;继而截取覆冰形态训练样本集的任一图像中的高压线区域的图像,并将其矫正为矩形图像作为训练样本以为后续图像的训练和分类做准备;
S3.2、预训练获取图像纹理特征:将各类状态雨凇、雾凇、混合凇、无覆冰的彩色图像作为四种不同类型的图像集(即四类图像集),其中四类图像集合分别记作Xk(1≤k≤4);继而对Xk中的每幅图像进行缩放,并将缩放后的图像放入Xk中,同时也将Xk里的图像集转换成ImageNet数据集;
最后使用ImageNet数据集中的图像,对VGG-VD19层CNN网络进行预训练;对于Xk中的每幅图像,在其中心截取一个224×224的图像块作为预训练VGG-VD网络的输入,将VGG-VD最后一个卷积层输出的49个512维的数据作为其纹理特征,并将这49个特征加入特征集Tk;
S3.3、k-means聚类确定类聚中心;
k-means聚类是一种常用的无监督学习算法,它的目标是将数据集分为k个不同的类别,每个类别具有相似的特征;在这个算法中,我们首先随机选取k个点作为类别的中心,然后将数据点分配到离其最近的中心点所在的类别中;接着,计算每个类别内所有点的平均值,并将这些平均值作为新的类别中心;不断重复这个过程,直到类别中心不再改变;在本实施例中,将架空线缆覆冰的覆冰形态分为雨凇、雾凇、混合凇、无覆冰四类状态,即k选取的数值为4;
S3.4、构建覆冰形态特征库:在本实施例中,覆冰形态特征库是基于VGG-19神经网络构建的,当类聚中心确定之后,覆冰形态特征库中就存储有各个类聚中心,即在本例中的覆冰形态特征库中存储有以雨凇、雾凇、混合凇、无覆冰为类聚中心的数据信息;
S3.5、确定待检测图像的覆冰类型:将待检测覆冰图像输入覆冰形态特征库,以使得覆冰形态特征库根据类聚中心来确定待检测图像的纹理特征,并根据待检测图像的纹理特征确定覆冰类型。
S4、覆冰厚度检测;具体方法包括如下步骤:
S4.1、调整颜色空间:调用cv2.cvtColor函数对滤波后的图像进行灰度化处理,以提高后续图像处理的效率;
S4.2、图像二值化:调用cv2.threshold函数对图像进行二值化处理;
S4.3、采用Canny进行边缘检测,提取轮廓信息;
S4.4、采用霍夫变换(HoughTransform),提取图像中覆冰的外形:调用opencv的cv2.HoughCircle函数完成轮廓检测;
S4.5、计算像素点得到覆冰截面积:在OPENCV中,调用cv2.contourArea函数计算给定轮廓所围成区域的面积。
本实施例中,S4.1中,调整颜色空间时,由于RGB图像由三个分量组合而成,每个像素的不同颜色,同时每个分量又有256种取值,因此一个像素点的颜色变化共1600多万种(256×256×256)。灰度图像是每个像素点的像素值取值范围有256种的单通道图像,且R、G、B三个分量都相等的特殊彩色图像。通常,为了提高后续图像处理的效率,会将各种形式的彩色图像转换为灰度图像。与彩色图像一样,灰度图像同样能够表征图像的信息特征。在RGB模型中,如果R、G、B三个分量取同一值,这个值称之为灰度值。当R、G、B三个分量相等时,其表示为一种灰度颜色,因此灰度图像的每个像素只需一个8位二进制来存放灰度值,其中灰度值的取值范围为0~255。将彩色图像灰度化主要有分量法、最大值法、平均值法、加权平均法四种方法,而根据实验对比,加权平均值法基本能够保留图像原来的细节,其效果最佳。因此本实施例选用采用加权平均值法对获取到图像进行初步灰度化处理;具体算法为:
分别对原始图像的R、G、B的三个通道进行权值平均,如下所示:
R=G=B=(λ1R+λ2G+λ3B)/3;
其中,λ1+λ2+λ3=1,一般而言,λ1=0.587,λ2=0.299,λ3=0.114。
进一步地,S4.2中,图像二值化时,图像二值化是指将敏感度明显的灰度图像通过选择适当的阈值,转化为只有两类灰度值的二值图像,经过这样的改变,虽然背景色被剔除,但转化后的灰度图像仍然能够表征出图像总体特征。其中,利用目标与背景之间的差异性,采取分割阈值的方法,把不同灰度级的目标和背景结合体看作图像,选择最佳阈值,将目标和背景区域中的每个像素点区分开,进而形成二值图像,就能得到所要检测的目标。本实施例采用0tsu法对图像进行二值化处理;0tsu阈值分割算法是一种自适应的图像分割算法,可以用来将图像分为前景和背景两部分;其具体计算过程如下:
(1)遍历图像中的每一个像素,计算其灰度值的直方图p(i),其中i为灰度值(一般取0-255);
(2)计算每一个灰度级别i的像素在图像中的占比w(i):
其中,ni表示灰度级别i的像素数量,n表示图像的像素总数;
(3)计算每个灰度级别i的平均灰度值μ(i):
其中,L是灰度级别的总数(一般是256),p(j)是灰度值为j的像素占图像总像素数的比例;
(4)计算全局平均灰度值uT:
(5)计算类间方差ν(i):
v(i)=w(i)·(uT-μ(i))2+(1-w(i)).(μ(i))2;
(6)取使类间方差最大的灰度级别值为阈值T:
T=arg maxi(ν(i));
(7)使用阈值T将图像分为前景和背景两部分;
通过以上步骤,得到0tsu阈值分割算法的阈值;该阈值可以使得将图像分割成前景和背景两部分时,使得两部分的类间方差最大化。
进一步地,使用Canny算法进行边缘检测,它的计算结果具有很好的连续性,能够比较精确地定位到物体的边缘;具体计算过程如下:
(1)计算图像梯度幅值和方向:使用Sobel算子计算图像的水平和竖直方向的梯度(或使用其他梯度算子);然后,对每个像素计算梯度的大小G和方向θ:
(2)非极大值抑制:对梯度幅值图像进行非极大值抑制,即对图像局部极大值对应的像素保留,其他像素舍弃;这一步的目的是在边缘明显的位置取得更细的边缘。
(3)双阈值处理:使用两个阈值TL和TH对梯度幅值进行二值化处理;对于梯度幅值大于TH的像素定为强边缘像素,对于梯度幅值小于TL的像素定为弱边缘像素;
(4)连通分量处理:根据强边缘像素,利用连通分量算法得到最终边缘结果。
进一步地,S4.4中,调用opencv的cv2.HoughCircle函数完成轮廓检测;具体计算过程如下:
(1)在步骤S4.3中上一步提取的轮廓信息的基础上,选取圆的半径范围和步长,对每个半径进行特定的半径量化;
(2)对于每个像素点(x,y),计算它到半径为r,圆心坐标为(a,b)的圆的距离d,即然后将(a,b,r)的组合代入极坐标空间;具体地,其中,每个组合(a,b,r)代表着一条曲线,/>可表示为r(a,b)在极坐标中为θ-r空间中的一个点;
(3)统计极坐标空间中各点的数量,得到圆的数量;
Hough变换将图像的像素点映射到参数空间,并在参数空间中进行计数;通过具有更少轮廓点的形状在允许误差范围内逼近并拟合指定圆形或椭圆形轮廓,以提取图像中的覆冰形状信息。
进一步地,S4.5中,上一步中获取了覆冰的外轮廓,在0PENCV中,调用cv2.contourArea函数计算给定轮廓所围成区域的面积,其实现原理是基于格林公式(Green’stheorem):
一个光滑向量场F(x,y,z)=P(x,y,z)i+Q(x,y,z)j+R(x,y,z)k和一个光滑曲面S,边界曲线为C;则:
其中,C为曲线的边界,参数化表示为C:r(t)=(x(t),y(t),z(t)),a≤t≤b;
将闭合曲线沿着曲线方向进行微小位移得到的掠过图形的梯形面积之和等于曲线所围成的面积;
计算轮廓内的像素点获取面积的原理是基于矩的概念。对于一幅图像,它的几何矩定义为:mij=∑x∑yxiyiI(x,y);其中I(x,y)表示图像在(x,y)处的像素灰度值,i、j分别表示阶数;
在计算轮廓面积的过程中,可以使用cv2.moments函数计算其矩,包括图像的重心C以及各阶矩mij;它的计算公式如下:
m00=∑x∑yI(x,y);
m10=∑x∑yxI(x,y);
m01=∑x∑yyI(x,y);
其中,Cx和Cy分表示图像的重心在x轴和y轴上的坐标;一阶矩m00表示轮廓区域的像素总数,而其他矩可以用于计算轮廓区域内的质心坐标和轮廓区域内的特征值;
获取了覆冰轮廓内和各个色环外轮廓内的像素点数量,基于面积等效原则,将导线实际非均匀、不规则覆冰校正为圆形的均匀覆冰;
具体的操作步骤为:对每个轮廓分别调用cv2.minEnclosingCircle函数计算最小外接圆,得到圆心和半径;其计算过程基于凸包(convexhull)算法;其具体流程如下:
(1)由给定的数据点集P={P1,P2,…,pn}计算其凸包H={h1,h2,…hm},即找到P中能够凸包住所有点的最小凸多边形(或称凸壳);
(2)根据凸包点集H,计算凸包的直径;直径是凸包中任意两个点之间距离的最大值;
(3)将最小外接圆的圆心C初始值设置为直径的中心点,半径r初始值为直径长度的一半;
(4)不断调整圆心和半径,使得圆内包含所有点,并且半径最小;调整过程如下:
(4a)对所有点p∈P,计算圆心C到该点的距离dPC;
(4b)如dPC>r,则将圆的半径r改为(dPC+r)/2,并将圆心移动到与该点的中点上;
(4c)重复上述步骤直至r不再发生变化;
最后得到的圆即为能够最小外接所有点的圆;
最后,使用cv2.circle()函数绘制最小外接圆;
因色环中每一环的半径都为已知量,所以能以色环为参考,判断校正后的覆冰外轮廓落于色环上的位置,便可得到实际的覆冰截面积,即导线上的覆冰厚度。
综上,本方案的检测方法具有如下优点:
1、识别覆冰类型准确性高:使用了基于深度学习的VGG卷积神经网络,它在图像分类和物体识别方面的性能非常出色,能够进行精确的图像分析和数据处理,从而准确地获取覆冰类型;
2、检测覆冰厚度的精度高,速度快:OpenCV使用高效的图像处理技术,在计算像素点得到面积时速度非常快,占用计算资源少;并且可以实现像素级别的计算,可以准确地计算物体所占据的面积,避免了人工测量的误差;
3、自动化检测:实现自动化的检测导线上的覆冰类型和厚度,提高工作效率;
4、实时监测:可以实现实时监测导线上的覆冰情况,及时发现异常情况,保障电力系统的稳定运行;
5、可扩展性:可以较容易地进行扩展和改进,将其应用于其他更多种类的覆冰类型识别和数据处理中,实现更广泛的应用。
本领域普通技术人员可以理解,实现上述实施例的全部或部分步骤的过程可以通过硬件来完成,也可以通过程序来指令相关的硬件完成。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的仅为本发明的优选例,并不用来限制本发明,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (10)
1.基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,包括如下步骤:
S1、图像采集:使用伞形标尺上的醒目等距色环来判断覆冰的轮廓,利用摄像头采集输电线路色环上覆冰的图像,通过无线传输将图像信息回传至控制中心;
S2、图像预处理:利用图像滤波技术对图像进行增强处理,以实现对图像的补偿;
S3、覆冰类型检测:先获取覆冰形态训练样本集,通过预训练获取图像纹理特征,确定覆冰类型的类聚中心,构建覆冰形态特征库,最终根据图像的纹理特征确定待检测图像的覆冰类型;
S4、覆冰厚度检测:通过调整颜色空间,并对图像进行二值化,然后进行边缘检测以提取轮廓信息,再提取图像中覆冰的外形,最后计算像素点得到覆冰截面积,即覆冰厚度。
2.根据权利要求1所述的基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,所述S2中,图像预处理中,采用中值滤波方法对图像进行滤波预处理;中值滤波方法的作业原理为:
传统的中值滤波含有窗口的数目为奇数个,则指定点的灰度值被窗口中各个点的灰度值的中值取代;如果是含有奇数个像素,按照排序后的值取中位数作为中值;如果是像素个数偶数,直接用中间灰度值的均值;
中值滤波的一般表达式为:
f(x,y)=median(g(x,y)),(x,y)∈Sw;
其中,f(x,y)为处理得到的结果图像,g(x,y)为含有噪声的原始图像,Sw为中值滤波操作的模板。
3.根据权利要求1所述的基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,所述S3中,覆冰类型检测的具体方法包括如下步骤:
S3.1、获取覆冰形态训练样本集:采集多种状态的导线图像,并对覆冰形态训练样本集进行预处理;
对采集的图像进行标注,标注出高压线的轮廓以及覆冰形态;继而截取覆冰形态训练样本集的任一图像中的高压线区域的图像,并将其矫正为矩形图像作为训练样本以为后续图像的训练和分类做准备;
S3.2、预训练获取图像纹理特征:将各类状态彩色图像作为不同类型的图像集,其中图像集合分别记作Xk;继而对Xk中的每幅图像进行缩放,并将缩放后的图像放入Xk中,同时也将Xk里的图像集转换成ImageNet数据集;
最后使用ImageNet数据集中的图像,对VGG-VD19层CNN网络进行预训练;
S3.3、k-means聚类确定类聚中心;
S3.4、构建覆冰形态特征库:当类聚中心确定之后,覆冰形态特征库中就存储有各个类聚中心;
S3.5、确定待检测图像的覆冰类型:将待检测覆冰图像输入覆冰形态特征库,以使得所述覆冰形态特征库根据所述类聚中心来确定待检测图像的纹理特征,并根据所述待检测图像的纹理特征确定覆冰类型。
4.根据权利要求1所述的基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,所述S4中,覆冰厚度检测的具体方法包括如下步骤:
S4.1、调整颜色空间:调用cv2.cvtColor函数对滤波后的图像进行灰度化处理,以提高后续图像处理的效率;
S4.2、图像二值化:调用cv2.threshold函数对图像进行二值化处理;
S4.3、采用Canny进行边缘检测,提取轮廓信息;
S4.4、采用霍夫Hough变换,提取图像中覆冰的外形:调用opencv的cv2.HoughCircle函数完成轮廓检测;
S4.5、计算像素点得到覆冰截面积:在OPENCV中,调用cv2.contourArea函数计算给定轮廓所围成区域的面积。
5.根据权利要求4所述的基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,所述S4.1中,调整颜色空间时采用加权平均值法对获取到图像进行初步灰度化处理;具体算法为:
分别对原始图像的R、G、B的三个通道进行权值平均,如下所示:
R=G=B=(λ1R+λ2G+λ3B)/3;
其中,λ1+λ2+λ3=1。
6.根据权利要求5所述的基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,所述S4.2中,图像二值化时采用Otsu法对图像进行二值化处理;具体计算过程如下:
(1)遍历图像中的每一个像素,计算其灰度值的直方图p(i),其中i为灰度值;
(2)计算每一个灰度级别i的像素在图像中的占比w(i):
其中,ni表示灰度级别i的像素数量,n表示图像的像素总数;
(3)计算每个灰度级别i的平均灰度值μ(i):
其中,L是灰度级别的总数,p(j)是灰度值为j的像素占图像总像素数的比例;
(4)计算全局平均灰度值uT:
(5)计算类间方差ν(i):
ν(i)=w(i)·(uT-μ(i))2+(1-w(i))·(μ(i))2;
(6)取使类间方差最大的灰度级别值为阈值T:
T=arg maxi(ν(i));
(7)使用阈值T将图像分为前景和背景两部分;
通过以上步骤,得到Otsu阈值分割算法的阈值;该阈值可以使得将图像分割成前景和背景两部分时,使得两部分的类间方差最大化。
7.根据权利要求6所述的基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,所述S4.3中,使用Canny算法进行边缘检测的具体计算过程如下:
(1)计算图像梯度幅值和方向:使用Sobel算子计算图像的水平和竖直方向的梯度;然后,对每个像素计算梯度的大小G和方向θ:
(2)非极大值抑制:对梯度幅值图像进行非极大值抑制,即对图像局部极大值对应的像素保留,其他像素舍弃;
(3)双阈值处理:使用两个阈值TL和TH对梯度幅值进行二值化处理;对于梯度幅值大于TH的像素定为强边缘像素,对于梯度幅值小于TL的像素定为弱边缘像素;
(4)连通分量处理:根据强边缘像素,利用连通分量算法得到最终边缘结果。
8.根据权利要求7所述的基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,所述S4.4中,调用opencv的cv2.HoughCircle函数完成轮廓检测的具体计算过程如下:
(1)在步骤S4.3中提取的轮廓信息的基础上,选取圆的半径范围和步长,对每个半径进行特定的半径量化;
(2)对于每个像素点(x,r),计算它到半径为r,圆心坐标为(a,b)的圆的距离d,即然后将(a,b,r)的组合代入极坐标空间;其中,每个组合(a,b,r)代表着一条曲线,/>可表示为r(a,b)在极坐标中为θ-r空间中的一个点;
(3)统计极坐标空间中各点的数量,得到圆的数量;
Hough变换将图像的像素点映射到参数空间,并在参数空间中进行计数;通过具有更少轮廓点的形状在允许误差范围内逼近并拟合指定圆形或椭圆形轮廓,以提取图像中的覆冰形状信息。
9.根据权利要求8所述的基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,所述S4.5中,基于步骤S4.4中获取了覆冰的外轮廓,在OPENCV中,调用cv2.contourArea函数计算给定轮廓所围成区域的面积,其实现原理是基于格林公式:
一个光滑向量场F(x,y,z)=P(x,y,z)i+Q(x,y,z)j+R(x,y,z)k和一个光滑曲面S,边界曲线为C;则:
其中,C为曲线的边界,参数化表示为C:r(t)=(x(t),y(t),z(t)),a≤t≤b;
将闭合曲线沿着曲线方向进行微小位移得到的掠过图形的梯形面积之和等于曲线所围成的面积;
计算轮廓内的像素点获取面积的原理是基于矩的概念;对于一幅图像,它的几何矩定义为:mij=ΣxΣyxiyiI(x,y);其中I(x,y)表示图像在(x,y)处的像素灰度值,i、j分别表示阶数;
在计算轮廓面积的过程中,可以使用cv2.moments函数计算其矩,包括图像的重心C以及各阶矩mij;它的计算公式如下:
m00=∑x∑yI(x,y);
m10=∑x∑yxI(x,y);
m01=∑x∑yyI(x,y);
其中,Cx和Cy分表示图像的重心在x轴和y轴上的坐标;一阶矩m00表示轮廓区域的像素总数,而其他矩可以用于计算轮廓区域内的质心坐标和轮廓区域内的特征值;
获取了覆冰轮廓内和各个色环外轮廓内的像素点数量,基于面积等效原则,将导线实际非均匀、不规则覆冰校正为圆形的均匀覆冰;
具体的操作步骤为:对每个轮廓分别调用cv2.minEnclosingCircle函数计算最小外接圆,得到圆心和半径;其计算过程基于凸包算法。
10.根据权利要求9所述的基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法,其特征在于,所述凸包算法的具体流程如下:
(1)由给定的数据点集P={P1,P2,…,pn}计算其凸包H={h1,h2,…hm},即找到P中能够凸包住所有点的最小凸多边形;
(2)根据凸包点集H,计算凸包的直径;直径是凸包中任意两个点之间距离的最大值;
(3)将最小外接圆的圆心C初始值设置为直径的中心点,半径r初始值为直径长度的一半;
(4)不断调整圆心和半径,使得圆内包含所有点,并且半径最小;调整过程如下:
(4a)对所有点p∈P,计算圆心C到该点的距离dPC;
(4b)如dPC>r,则将圆的半径r改为(dPC+r)/2,并将圆心移动到与该点的中点上;
(4c)重复上述步骤直至r不再发生变化;
最后得到的圆即为能够最小外接所有点的圆;
最后,使用cv2.circle()函数绘制最小外接圆;
因色环中每一环的半径都为已知量,所以能以色环为参考,判断校正后的覆冰外轮廓落于色环上的位置,便可得到实际的覆冰截面积,即导线上的覆冰厚度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310569388.6A CN116844036A (zh) | 2023-05-19 | 2023-05-19 | 基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310569388.6A CN116844036A (zh) | 2023-05-19 | 2023-05-19 | 基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116844036A true CN116844036A (zh) | 2023-10-03 |
Family
ID=88162389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310569388.6A Pending CN116844036A (zh) | 2023-05-19 | 2023-05-19 | 基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116844036A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117422718A (zh) * | 2023-12-19 | 2024-01-19 | 中江立江电子有限公司 | 一种绝缘子性能评估方法、装置、设备及介质 |
CN118068977A (zh) * | 2024-01-11 | 2024-05-24 | 夏单科技(珠海)有限公司 | 一种红外光学的触控交互方法 |
CN118262183A (zh) * | 2024-05-30 | 2024-06-28 | 国网江西省电力有限公司南昌供电分公司 | 基于x光图像的架空导线覆冰厚度测量方法及系统 |
-
2023
- 2023-05-19 CN CN202310569388.6A patent/CN116844036A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117422718A (zh) * | 2023-12-19 | 2024-01-19 | 中江立江电子有限公司 | 一种绝缘子性能评估方法、装置、设备及介质 |
CN117422718B (zh) * | 2023-12-19 | 2024-04-16 | 中江立江电子有限公司 | 一种绝缘子性能评估方法、装置、设备及介质 |
CN118068977A (zh) * | 2024-01-11 | 2024-05-24 | 夏单科技(珠海)有限公司 | 一种红外光学的触控交互方法 |
CN118262183A (zh) * | 2024-05-30 | 2024-06-28 | 国网江西省电力有限公司南昌供电分公司 | 基于x光图像的架空导线覆冰厚度测量方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116844036A (zh) | 基于人工智能及opencv图像识别算法的覆冰类型与厚度检测方法 | |
CN107392232B (zh) | 一种浮选工况分类方法和系统 | |
CN107679520B (zh) | 一种适用于复杂条件下的车道线视觉检测方法 | |
WO2022099598A1 (zh) | 一种基于图像像素相对统计特征的视频动态目标检测的方法 | |
CN105718945B (zh) | 基于分水岭和神经网络的苹果采摘机器人夜间图像识别方法 | |
CN114170228B (zh) | 一种计算机图像边缘检测方法 | |
CN109523529B (zh) | 一种基于surf算法的输电线路缺陷识别方法 | |
CN108764004B (zh) | 一种基于编码环采样的环状编码标记点解码识别方法 | |
CN115457004B (zh) | 基于计算机视觉的锌膏的智能检测方法 | |
CN111292321B (zh) | 一种输电线路绝缘子缺陷图像识别方法 | |
CN112819094A (zh) | 一种基于结构相似度度量的目标检测与识别方法 | |
CN111539330B (zh) | 一种基于双svm多分类器的变电站数显仪表识别方法 | |
CN109886277B (zh) | 一种基于轮廓分析的茶鲜叶识别方法 | |
CN112560634B (zh) | 基于现场图像的电力线路绝缘子快速检测定位方法及系统 | |
CN111340824A (zh) | 一种基于数据挖掘的图像特征分割方法 | |
CN114359190B (zh) | 一种基于图像处理的塑料制品成型控制方法 | |
CN115331119B (zh) | 一种固体废弃物识别方法 | |
CN110046565B (zh) | 一种基于Adaboost算法的人脸检测方法 | |
CN114463653A (zh) | 一种高浓度微群泡形态识别及轨迹追踪测速方法 | |
CN116188468B (zh) | 一种hdmi线缆传输分拣智能控制系统 | |
CN116703895B (zh) | 基于生成对抗网络的小样本3d视觉检测方法及其系统 | |
CN111080696A (zh) | 一种基于计算机视觉的水下海参识别及定位方法 | |
CN110874825A (zh) | 一种复合绝缘子表面水迹二值图像提取方法 | |
CN115100174A (zh) | 一种船舶钣金件漆面缺陷检测方法 | |
CN108073940A (zh) | 一种非结构化环境中的3d目标实例物体检测的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |