CN104680192A - 一种基于深度学习的电力图像分类方法 - Google Patents

一种基于深度学习的电力图像分类方法 Download PDF

Info

Publication number
CN104680192A
CN104680192A CN201510061576.3A CN201510061576A CN104680192A CN 104680192 A CN104680192 A CN 104680192A CN 201510061576 A CN201510061576 A CN 201510061576A CN 104680192 A CN104680192 A CN 104680192A
Authority
CN
China
Prior art keywords
mtd
mrow
msubsup
centerdot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510061576.3A
Other languages
English (en)
Other versions
CN104680192B (zh
Inventor
杜修明
杨祎
郭志红
陈玉峰
祝永新
印俊
张锦逵
孙英涛
冯新岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Corp of China SGCC
Electric Power Research Institute of State Grid Shandong Electric Power Co Ltd
Original Assignee
State Grid Corp of China SGCC
Electric Power Research Institute of State Grid Shandong Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Corp of China SGCC, Electric Power Research Institute of State Grid Shandong Electric Power Co Ltd filed Critical State Grid Corp of China SGCC
Priority to CN201510061576.3A priority Critical patent/CN104680192B/zh
Publication of CN104680192A publication Critical patent/CN104680192A/zh
Application granted granted Critical
Publication of CN104680192B publication Critical patent/CN104680192B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的电力图像分类方法,步骤:采用乱序发射机制实现输入电力图像的逐类发射:在乱序发射机制中采用第一缓存区和第二缓存区,第一缓存区用于存储若干张待处理的图象,从第一缓存区中选取若干张图象存储到第二缓存区中,第二缓存区的图象排队等候发射;对电力图像进行区域提取;对区域提取后的图象进行增强处理;对增强处理后的图像的进行大小调整,并将该图象格式化使其满足分类器的输入;将数据输入到分类器中,选择不同的训练集大小和训练速度进行多次实验,并将分类准确率和效率进行对比分析,选出最优的训练参数,以获得最佳训练效果。本发明比传统技术有着明显的优势,训练的收敛速度较快并有较高的准确率。

Description

一种基于深度学习的电力图像分类方法
技术领域
本发明涉及一种基于深度学习的电力图像分类方法。
背景技术
作为国家经济和安全的命脉,电网的安全运营一直是电网最核心和本质的要求。为了确保高压输变电网安全,已经在输变电系统中部署了大量的传感器。但功能单一的传感器的功能还不能充分满足电网安全的需求,近年来一个重要的辅助解决方法是采用监控设备采集视频图像,经人工评估输变电设备状态以及采取相应的措施解决故障。然而对庞大的流媒体文件进行人工分类处理将耗费大量的人力和时间,效率也很低下,这使得安全风险依然巨大。这就要求采用一种高效的面对大规模数据的自动化处理方法。
在电网目前的数据处理系统中,通常采用分类、回归、聚类等经典学习算法。这些算法基本上是基于浅层神经网络结构,其局限性在于有限的样本和计算单元情况下对复杂函数的表示能力有限,针对复杂分类问题其泛化能力受到一定制约。深度学习(Deep Learning,DL)以其多层网络可以提取出更多数据本质特征的优势,实现输入数据的分布式表示,展现了强大的从少量样本集中学习数据集本质特征的能力。
申请号为201310739026.3的发明专利公开了一种基于深度学习的自然图像中显著区域的检测方法。申请号为201410138343.4的发明专利公开了一种基于深度学习的纹身图像分类方法。目前基于深度学习的方法在非电力专业的自然图像识别中虽然已有一定的应用,但未见对电力设备图像分类的应用。
在现有的一些基于深度学习的处理平台中,如申请号为201310739026.3的发明专利和申请号为201410138343.4的发明专利,在处理类似于电力设备的大规模图像数据时存在明显局限:即当在一段时间内连续输入相同类型的训练数据时,训练模型将失效。
发明内容
本发明的目的就是为了解决上述问题,提供一种基于深度学习的电力图像分类方法,它具有训练的收敛速度较快并有较高的准确率,而且可通过使用GPU加快深度学习网络的处理速度优点。
为了实现上述目的,本发明采用如下技术方案:
一种基于深度学习的电力图像分类方法,包括以下步骤:
步骤S1:采用乱序发射机制实现输入电力图像的逐类发射:在乱序发射机制中采用第一 缓存区和第二缓存区,所述第一缓存区用于存储若干张待处理的图象,从第一缓存区中选取若干张图象存储到第二缓存区中,第二缓存区的图象排队等候发射;所述第二缓存区的图象按照图象类型标签逐类排序,进一步保证了训练一直处于有效状态;
步骤S2:对电力图像进行区域提取:图象的色数估计、图象的区域聚类和图象的分割融合;
步骤S3:使用基于非线性变换的改进的拉普拉斯算子对步骤S2的区域提取后的图象进行增强处理;
步骤S4:对步骤S3增强处理后的图像的进行大小调整,并将该图象格式化使其满足分类器的输入;
步骤S5:将步骤S4的数据输入到分类器中,选择不同的训练集大小和训练速度进行多次实验,并将分类准确率和效率进行对比分析,选出最优的训练参数,以获得最佳训练效果。
所述步骤S2的图像的色数估计的步骤为:
对于一个给定的采用红绿蓝RGB三原色构成原始彩色图像,将其转化为国际色彩组织CIELAB的“L*、a*、b*”色彩空间,采用CIELAB标准规定的XYZ三色值;
原始彩色图像的三原色分量为R、G、B;则首先将R、G、B对应转换成X、Y、Z的对应值。令P=[X,Y,Z]T,Q=[R/255,G/255,B/255]T,则X、Y、Z的计算按照以下公式计算:
P = 0.433910 0.376220 0.189860 0.212649 0.715169 0.072182 0.017756 0.109478 0.872915 × Q - - - ( 1 ) ;
其中,P的参数含义是图像的XYZ三色值矩阵,Q的参数含义是图像RGB数值矩阵。 
R表示原始彩色图像的红色,G表示原始彩色图像的绿色,B表示原始彩色图像的蓝色。
X、Y、Z为图像在CIE1964补充标准色度系统下的数值。而L*、a*、b*的值则由X、Y、Z进行表示,具体表达如下:
a*=500×(f(X)-f(Y))  (3);
b*=200×(f(Y)-f(Z))  (4);
其中,L*表示照度,a*表示红色至绿色的范围,b*表示蓝色至黄色的范围;
f(X)表示把X的数值带入函数f(ξ)求得的值,
f(Y)表示把Y的数值带入函数f(ξ)求得的值,
f(Z)表示把Z的数值带入函数f(ξ)求得的值;
其中:
通过颜色空间转换,从原始RGB图像得到了“L*、a*、b*”色彩空间的图像数据。
然后通过计算“L*、a*、b*”色彩空间的图像的像素统计分布获得密度分布统计,在对密度分布统计进行直方图拟合,通过拟合得到直方图拟合曲线;
在直方图拟合曲线中,有N个分布峰出现,则色数的估计值为N。
所述步骤S2的图像的区域聚类的步骤为:
为了得到图像中物体的区域,需要将图像颜色聚集到L*、a*、b*空间;
对于一个给定的图像Im×n,通过图像的空间变换,需要定义两个像素矩阵像素矩阵对应于a*空间,像素矩阵对应于b*空间,定义的格式如下:
M a * = a 11 * a 12 * . . . a 1 n * a 21 * a 22 * . . . a 2 n * . . . . . . . . . . . . a m 1 * a m 2 * . . . a mn * - - - ( 6 ) ,
M b * = b 11 * b 12 * . . . b 1 n * b 21 * b 22 * . . . b 2 n * . . . . . . . . . . . . b m 1 * b m 2 * . . . b mn * - - - ( 7 ) ;
其中,为的a*的像素矩阵,为b*的像素矩阵,表示第m行n列的像素点产生的a*值,表示第m行n列的像素点产生的b*值。
接下来构建聚类对象矩阵C:
C = a 11 * a 12 * . . . a 1 n * . . . a mn * b 11 * b 12 * . . . b 1 n * . . . b mn * T - - - ( 8 ) ;
聚类对象矩阵C将用于区域聚集的直接输入;
对于一个色数值为K的给定图像,图像区域提取算法会根据图像中像素的相似度将图像分出K个不同区域。
在聚类分析中,对于一组给定的数x1,x2,…,xN,假设区域的中心是Ck,k=1,2,3,...,K,则这组数将按照最小距离函数分类:
J = Σ k = 1 K Σ i = 1 N D ( x i ( k ) , C k ) = Σ k = 1 K Σ i = 1 N ( x i ( k ) - C k ) 2 - - - ( 9 ) ;
其中,J表示定义的最小距离函数,表示对于第k个数给定的第i个点的数值, 表示两者的距离,为欧氏距离。i表示给定的1~N个数值中的第i个。
所述区域聚集过程如下:
(2.1)在聚类矩阵C中随机选择K个点作为初始的聚类中心;
(2.2)分别计算点xi(i=1,2,3,…,mn)与Ck(k=1,2,3,...,K)之间的距离,然后按照公式(9)计算最小距离并将点聚集,最小距离准则将xi标记为类别k;
(2.3)由于每个聚类发生变化,则继续计算每一聚类的中心;
(2.4)重复步骤(2.2)和步骤(2.3)直到聚类包含的元素不再变化。
产生的颜色聚集标签矩阵为IL,该矩阵中的每个元素与原始图像Im*n中的每个像素点一一对应。
所述步骤S2的图像的分割融合的步骤为:
图像的区域聚类后,图像中的所有像素点都被标记上对应K个类别中的一类,所述类别表明相应的像素点所归属的类;
图像区域的提取只需要将与相邻像素点类别不同的那部分点找出,从而将图像中的电力设备的物体区域提取出来实现图像的分割融合。
所述步骤S3的步骤为: 
拉普拉斯算法输出表达式为:
g ( x , y ) = f ( x , y ) + Σ m = x - 1 x + 1 Σ n = y - 1 y + 1 T ( f ( x , y ) , f ( m , n ) ) T ( f ( x , y ) , f ( m , n ) ) = f ( x , y ) - f ( m , n ) - - - ( 10 ) ;
g(x,y)为图像在坐标为(x,y)处拉普拉斯变换后的数值,f(x,y)为图像在坐标(x,y)处的像素值,相应的f(m,n)为图像在坐标(m,n)处的像素值;T()为线性变换函数。
增强处理的输出与式(10)相同,唯一不同点在于将式中的T(f(x,y),f(m,n))这个线性函数改为一个非线性函数V(f(x,y),f(m,n)),非线性函数由两个过坐标原点的部分圆组成,两个部分圆都与直线相切,则圆心坐标为(b/2,-(b/2)tan(90°-a)),半径大小为(b/2)/sina,0°<a≤90°,0<b≤255,
非线性函数V(f(x,y),f(m,n))为:
(f(x,y)-b/2)2+(f(m,n)+(b/2)tan(90°-a))2=((b/2)/sina)2
V(f(x,y),f(m,n))的数值与参数a和参数b密切相关;参数a用来控制锐化强度,随着参数a的增大,输入x经过函数V(f(x,y),f(m,n))得到的输出结果就越大,增强效果就越明显;
而参数b则起到了控制图象噪声的作用,即把相邻像素f(m,n)与中心像素f(x,y)差值大于参数b的值当做噪声予以消除,小于b的值当做边缘细节进行增强。
本发明的有益效果:
1.本方法运用深度学习实现针对电网大数据中的图像等非结构化数据的分类。其原理实质是通过构建具有多层隐藏层的机器学习模型,从大量的数据中学习更有价值的特征,从而提升分类或者预测的准确性。该方法强调模型结构的深度,突出了特征学习的重要性,通过逐层的特征变化将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。相比于传统的浅层学习,该方法的分类准确度更高,速度更快,达到相同准确率所需训练样本容量更小。
2.通过使用改进型的拉普拉斯算子对图像进行处理,对参数a和b控制,可以较好的控制了噪声以及图像的增强效果。
附图说明
图1为本方法的整体流程示意图;
图2为预处理机制中逐类发射机制示意图;
图3为非线性函数V示意图;
图4为输入数据格式;
图5为部分训练样本(十类);
图6为使用预处理机制前后电力设备图像分类器的识别率对比;
图7为初始训练集大小与准确率的关系;
图8为迭代训练集与准确率的关系;
图9为不同训练速度下迭代训练集与准确率的关系;
图10为GPU和CPU两种模式运行时间的对比。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
一种基于深度学习的电力图像分类方法,包括以下步骤:
步骤S1:输入图像的逐类发射;
本发明在数据预处理阶段采用乱序发射机制,可有效解决训练模型失效问题。预处理发射机制如附图2所示。
该机制中使用了两个缓存。
第一个缓存用来存储最新的256张待处理的图片,控制单元将从中选取合适的数据类型,将其输入第二个缓存排队等候发射。
在第二个缓存中,图像按类型标签逐类排序,如以五种训练图片为例,其队列为0,1,2,3,4,0,1,2,3,4……这保证了在连续时间中输入图像不会都是同一种,保证了训练一直有效。步骤S1主要是为了使分类器满足更一般的情况,其与以下步骤没有直接的内在联系。
步骤S2:对电力图像进行区域提取;S2步骤主要包括三个阶段:
1、图像的色数估计;
对于一个给定的采用红绿蓝三原色(RGB)构成原始彩色图像,本发明将其转化为国际色彩组织(CIELAB)的“L*a*b*”色彩空间,其中采用CIELAB标准规定的XYZ三色值。
如我们原始彩色图像的三原色分量为R、G、B。则首先将R、G、B转换成X、Y、Z的对应值。令P=[X,Y,Z]T,Q=[R/255,G/255,B/255]T,则X,Y,Z的计算可以按照以下公式计算:
P = 0.433910 0.376220 0.189860 0.212649 0.715169 0.072182 0.017756 0.109478 0.872915 × Q
而L*a*b*的值则有X、Y、Z进行表示,具体表达如下:
a*=500×(f(X)-f(Y))
b*=200×(f(Y)-f(Z))
其中:
并且满足: 
0≤L*,a*,b*≤255
通过颜色空间转换,从原始RGB图像得到了L*a*b*色彩空间的图像数据。然后通过计算L*a*b*色彩空间的图像的像素统计分布获得密度分布统计,在对密度分布统计进行直方图拟合。在直方图拟合曲线中,有N个明显的分布峰出现,则色数的估计值约为N。
2、图像的区域聚类;
图像中包含的色数值已经计算出,为了得到图像中物体的区域,需要将图像颜色聚集到L*a*b*空间。对于一个给定的图像Im×n,通过图像的空间变换,需要定义两个像素矩阵和 他们分别对应于a*和b*空间,定义的格式如下:
M a * = a 11 * a 12 * . a 1 n * a 21 * a 22 * . a 2 n * . . . . a m 1 * a m 2 * a mn * , M b * = b 11 * b 12 * . b 1 n * b 21 * b 22 * . b 2 n * . . . . b m 1 * b m 2 * b mn *
接下来构建聚类对象矩阵C:
C = a 11 * a 12 * . . . a 1 n * . . . a mn * b 11 * b 12 * . . . b 1 n * . . . b mn * T
该矩阵将用于区域聚集的直接输入。对于一个色数值为K的给定图像,该算法会根据图像中像素的相似度将图像分出K个不同区域。在聚类分析中,对于一组给定的数x1,x2,…,xN,假设区域的中心是Ck,k-=1,2,3,...,K,则这组数将按照最小距离函数分类:
J = Σ k = 1 K Σ i = 1 N D ( x i ( k ) , C k ) = Σ k = 1 K Σ i = 1 N ( x i ( k ) - C k ) 2
等式中间一项的表示两者的距离,在本发明中为欧氏距离。区域聚集过程如下:
(1)在聚类矩阵C中随机选择K个点作为初始的聚类中心;
(2)分别计算点xi(i=1,2,3,…,mn)与Ck(k-=1,2,3,...,K)之间的距离,然后按照以上公式将点聚集,最小距离准则将xi标记为类别k;
(3)由于每个聚类发生变化,则继续计算每一聚类的中心;
(4)重复步骤(2)和步骤(3)直到聚类包含的元素不再变化。
为了避免距离函数J陷入局部最小值,此聚类算法通常重复两次到三次。当所有的集群保持稳定,这意味着所有给定的元素都分组到对应的类别中。产生的颜色聚集标签矩阵为IL,该矩阵中的每个元素与原始图像Im×n中的每个像素点一一对应。
3、图像分割融合
经过基于距离的聚类后,图像中的所有像素点都被标记上对应的类别,该类别表明相应的像素点属于哪一类。图像区域的提取只需要将相邻像素点类别不同的那部分点找出即可。至此,我们将图像中的电力设备的物体区域提取出来。
步骤S3:对电力图像进行增强;
在完成步骤S2后,我们还需要对区域提取后的图像进行加强处理,使得后续的图像的分类更易实现。这里我们使用改进型的拉普拉斯算子法,即一种基于噪声控制的非线性增强方法。
拉普拉斯算子是n维欧几里德空间中的一个二阶微分算子,定义为梯度▽f的散度▽·f。 因此如果f是二阶可微的实函数,则拉普拉斯算子定义为:
Δf=▽2f=▽·▽f
如果f是一个连续的二元函数,则函数在某一点的拉普拉斯值由下式决定:
▿ 2 f ( x , y ) = ∂ 2 f ∂ x 2 + ∂ 2 f ∂ y 2
对于图像中某一个像素点(x,y)有一个如下表所示的3×3的邻域窗口:
f(x-1,y-1) f(x-1,y) f(x-1,y+1)
f(x,y-1) f(x,y) f(x,y+1)
f(x+1,y-1) f(x+1,y) f(x+1,y+1)
为了求整个系统的输出g(x,y),需要先求解窗口的离散表达式:
2f(x,y)=8f(x,y)-[f(x+1,y)+f(x-1,y)+f(x,y+1)+f(x,y-1)+
f(x+1,y+1)+f(x-1,y+1)+f(x+1,y-1)+f(x-1,y-1)]
上式可以改写成:
▿ 2 f ( x , y ) = Σ m = x - 1 x + 1 Σ n = y - 1 y + 1 ( f ( x , y ) - f ( m , n ) )
因此,拉普拉斯算法输出表达式为:
g ( x , y ) = f ( x , y ) + Σ m = x - 1 x + 1 Σ n = y - 1 y + 1 T ( f ( x , y ) , f ( m , n ) ) T ( f ( x , y ) , f ( m , n ) ) = f ( x , y ) - f ( m , n )
增强系统的输出与式(4-8)基本相同,唯一不同点在于将式中的T(f(x,y),f(m,n))这个线性函数改为一个非线性函数V(f(x,y),f(m,n)),非线性函数由两个过坐标原点的部分圆组成,两个部分圆都与直线相切,则圆心坐标为(b/2,-(b/2)tan(90°-α)),半径大小为(b/2)/sinα,0°<α≤90°,0<b≤255。如附图3所示。
从附图3可以看出V(μ)的数值与参数a和参数b密切相关。参数a主要用来控制锐化强度,随着参数a的增大,输入u经过函数V得到的输出V(u)就越大,增强效果就越明显。而参数b则主要起到了控制噪声的作用,即把相邻像素f(m,n)与中心像素f(x,y)大于b的值当做噪声予以消除,小于b的值当做边缘细节进行增强。
通过使用改进型的拉普拉斯算子对图像进行处理,对参数a和b控制,可以较好的控制了噪声以及图像的增强效果。
步骤S4:图像的大小调整以及自定义数据的格式化;
图像大小合适与否决定分类器模型是否生效,为了实现输入数据满足神经网络输入数据层的要求,需要将图像大小调整到32*32个像素大小并将该图像格式化适合分类器输入的数据格式。
对于一个大小为M*N图像,我们调整的核心方法是将M/32*N/32个像素点取平均作为一个像素点或者将将一个像素点扩展为32/M*32/N个像素点。然后将调整后的图像转化成如附图4所示的自定义数据格式。
步骤S5:完成以上步骤后,数据既可以输入到我们设计的电力图像分类中训练和测试,在本明提供的框架下,选择不同的训练集大小和训练速度进行多次实验,并将分类准确率和效率进行对比分析,优选出最优的训练参数,以获得最佳方案。
为了检验本方法的可靠性和分类效率,从国家电网部门收集了60000张像素32*32的图片作为输入数据集,共分为变压器、铁塔、开关柜等10类,每类包含6000张图片,现分别随机选择10张图片示例于图5。
(1)本方法和传统浅层神经网络的对比
在本实验中记训练5万张图片即一个训练集为一次迭代。将迭代结果和传统的三层神经网络下得到的图像识别率对比如表2所示。
表2 ANN与DLNs图像识别率的比较
可以看出浅层网络中,迭代次数为50时准确率仅为45.14%,而当迭代次数达到5000时收敛到接近79%。进一步观察发现,传统神经网络的收敛速度比较慢,在迭代次数为1000时准确率才达到约70%。而当我们利用本方法对相同的数据集进行训练分析,迭代次数仅为 1次时准确率即达到68.17%,迭代次数为4时准确率已超过90%。最终收敛准确率比传统的神经网络提高24.1%。
(2)预处理机制对基于深度学习网络的分类器的影响
有预处理机制的深度学习网络比不加预处理机制的网络在识别准确率上有较大的提高,识别率平均提高了11.57%。除此之外,预处理机制也加快了训练的收敛速度,如图中两个分类器在相同的数据集下达到相同的识别率80%的时候,两者需要训练的图像数分别为800*100张、3100*100张。如果以需要的图片数为标准,加上预处理其的分类器在性能上有74.19%的提高。
实验结果表示预处理机制的图像区域提取和图像加强部分起到很大作用,该功能使改进后的分类器可以很容易的从图像中提起出重要的图像特征,最终使整个深度网络可以较好反映图像。使得基于深度学习的分类器获得更高的识别率以及更少的训练时间。如图6所示。
(3)训练集大小的优选过程
选择包含5万张图片的初始训练集,每1000张图片训练DLNs一次,并测试当前网络的准确率。初始训练集大小与准确率的关系如图7所示。
可以发现准确率随着训练量的增加不断上升。我们用初始训练集对DLNs迭代训练10次,每1万张图片训练DLNs一次,并测试准确率。实验发现迭代次数约为9次时准确率收敛到约98%。如图8所示。
(4)训练速度的优选
神经网络训练速度对整个网络的训练效果有巨大的影响。本小节针对不同的训练速度对网络的影响进行研究,以实测效果较好的训练速度为基准,训练速度调整为×0.1、×0.2、×0.5、×2、×5、×6、×7等8个,对应的收敛效果如图9所示。
可以看出收敛速度随着训练速度的减小而变慢,但最终总会收敛至某一值,然而训练速度过快会导致整个网络性能变差,此处当训练速度是基准的7倍以上时,准确率会降到10%,即网络完全失去了效果。因此,设定一个合适的训练速度十分重要。
(5)关于GPU加速的探究 
GPU依靠其数以百计的高效核心单元可高效的处理并行任务,本实验分别在GPU和CPU两种模式下进行,详细分析比较了在同等数据量并且训练速度相同的情况下,GPU和CPU两种模式的运行时间。实验结果如图10所示。
从预处理流程中可以看出迭代相同的次数GPU需要比CPU更少的处理时间,约有24.28%的性能提高。在大数据应用中GPU模式会有更加明显的优势。
通过对实际数据的实验可以得出结论,本发明对于实际生产中电力设备的图像分类有着很好的适应性,准确率比传统方法大大提升,并可通过逐类发射的方法保证训练集的有效率。此外,通过参数优选可以在本方法基础上进一步改善准确率和收敛速度。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (6)

1.一种基于深度学习的电力图像分类方法,其特征是,包括以下步骤:
步骤S1:采用乱序发射机制实现输入电力图像的逐类发射:在乱序发射机制中采用第一缓存区和第二缓存区,所述第一缓存区用于存储若干张待处理的图象,从第一缓存区中选取若干张图象存储到第二缓存区中,第二缓存区的图象排队等候发射;所述第二缓存区的图象按照图象类型标签逐类排序,进一步保证了训练一直处于有效状态;
步骤S2:对电力图像进行区域提取:图象的色数估计、图象的区域聚类和图象的分割融合;
步骤S3:使用基于非线性变换的改进的拉普拉斯算子对步骤S2的区域提取后的图象进行增强处理;
步骤S4:对步骤S3增强处理后的图像的进行大小调整,并将该图象格式化使其满足分类器的输入;
步骤S5:将步骤S4的数据输入到分类器中,选择不同的训练集大小和训练速度进行多次实验,并将分类准确率和效率进行对比分析,选出最优的训练参数,以获得最佳训练效果。
2.如权利要求1所述的一种基于深度学习的电力图像分类方法,其特征是,所述步骤S2的图像的色数估计的步骤为:
对于一个给定的采用红绿蓝RGB三原色构成原始彩色图像,将其转化为国际色彩组织CIELAB的“L*、a*、b*”色彩空间,采用CIELAB标准规定的XYZ三色值;
原始彩色图像的三原色分量为R、G、B;则首先将R、G、B对应转换成X、Y、Z的对应值;令P=[X,Y,Z]T,Q=[R/255,G/255,B/255]T,则X、Y、Z的计算按照以下公式计算:
P = 0.433910 0.376220 0.189860 0.212649 0.715169 0.072182 0.017756 0.109478 0.872915 × Q - - - ( 1 ) ;
其中,P的参数含义是图像的XYZ三色值矩阵,Q的参数含义是图像RGB数值矩阵;
R表示原始彩色图像的红色,G表示原始彩色图像的绿色,B表示原始彩色图像的蓝色;
X、Y、Z为图像在CIE1964补充标准色度系统下的数值;而L*、a*、b*的值则由X、Y、Z进行表示,具体表达如下:
a*=500×(f(X)-f(Y)) (3);
b*=200×(f(Y)-f(Z)) (4);
其中,L*表示照度,a*表示红色至绿色的范围,b*表示蓝色至黄色的范围;
f(X)表示把X的数值带入函数f(ξ)求得的值,
f(Y)表示把Y的数值带入函数f(ξ)求得的值,
f(Z)表示把Z的数值带入函数f(ξ)求得的值;
其中:
通过颜色空间转换,从原始RGB图像得到了“L*、a*、b*”色彩空间的图像数据;
然后通过计算“L*、a*、b*”色彩空间的图像的像素统计分布获得密度分布统计,在对密度分布统计进行直方图拟合,通过拟合得到直方图拟合曲线;
在直方图拟合曲线中,有N个分布峰出现,则色数的估计值为N。
3.如权利要求1所述的一种基于深度学习的电力图像分类方法,其特征是,所述步骤S2的图像的区域聚类的步骤为:
为了得到图像中物体的区域,需要将图像颜色聚集到L*、a*、b*空间;
对于一个给定的图像Im×n,通过图像的空间变换,需要定义两个像素矩阵像素矩阵对应于a*空间,像素矩阵对应于b*空间,定义的格式如下:
M a * = a 11 * a 12 * · · · a 1 n * a 21 * a 22 * · · · a 2 n * · · · · · · · · · · · · a m 1 * a m 2 * · · · a mn * - - - ( 6 ) ,
M b * = b 11 * b 12 * · · · b 1 n * b 21 * b 22 * · · · b 2 n * · · · · · · · · · · · · b m 1 * b m 2 * · · · b mn * - - - ( 7 ) ;
其中,为的a*的像素矩阵,为b*的像素矩阵,表示第m行n列的像素点产生的a*值,表示第m行n列的像素点产生的b*值;
接下来构建聚类对象矩阵C:
C = a 11 * a 12 * · · · a 1 n * · · · a mn * b 11 * b 12 * · · · b 1 n * · · · b mn * T - - - ( 8 ) ;
聚类对象矩阵C将用于区域聚集的直接输入;
对于一个色数值为K的给定图像,图像区域提取算法会根据图像中像素的相似度将图像分出K个不同区域;
在聚类分析中,对于一组给定的数x1,x2,…,xN,假设区域的中心是Ck,k=1,2,3,...,K,则这组数将按照最小距离函数分类:
J = Σ k = 1 K Σ i = 1 N D ( x i ( k ) , C k ) = Σ k = 1 K Σ i = 1 N ( x i ( k ) - C k ) 2 - - - ( 9 ) ;
其中,J表示定义的最小距离函数,表示对于第k个数给定的第i个点的数值,表示两者的距离为欧氏距离;i表示给定的1~N个数值中的第i个。
4.如权利要求3所述的一种基于深度学习的电力图像分类方法,其特征是,所述区域聚集过程如下:
(2.1)在聚类矩阵C中随机选择K个点作为初始的聚类中心;
(2.2)分别计算点xi(i=1,2,3,…,mn)与Ck(k=1,2,3,...,K)之间的距离,然后按照公式(9)计算最小距离并将点聚集,最小距离准则将xi标记为类别k;
(2.3)由于每个聚类发生变化,则继续计算每一聚类的中心;
(2.4)重复步骤(2.2)和步骤(2.3)直到聚类包含的元素不再变化;
产生的颜色聚集标签矩阵为IL,该矩阵中的每个元素与原始图像Im*n中的每个像素点一一对应。
5.如权利要求1所述的一种基于深度学习的电力图像分类方法,其特征是,所述步骤S2的图像的分割融合的步骤为:
图像的区域聚类后,图像中的所有像素点都被标记上对应K个类别中的一类,所述类别表明相应的像素点所归属的类;
图像区域的提取只需要将与相邻像素点类别不同的那部分点找出,从而将图像中的电力设备的物体区域提取出来实现图像的分割融合。
6.如权利要求1所述的一种基于深度学习的电力图像分类方法,其特征是,所述步骤S3的步骤为:
拉普拉斯算法输出表达式为:
g ( x , y ) = f ( x , y ) + Σ m = x - 1 x + 1 Σ n = y - 1 y + 1 T ( f ( x , y ) , f ( m , n ) ) T ( f ( x , y ) , f ( m , n ) ) = f ( x , y ) - f ( m , n ) - - - ( 10 ) ;
g(x,y)为图像在坐标为(x,y)处拉普拉斯变换后的数值,f(x,y)为图像在坐标(x,y)处的像素值,相应的f(m,n)为图像在坐标(m,n)处的像素值;T()为线性变换函数;
增强处理的输出与式(10)相同,唯一不同点在于将式中的T(f(x,y),f(m,n))这个线性函数改为一个非线性函数V(f(x,y),f(m,n)),非线性函数由两个过坐标原点的部分圆组成,两个部分圆都与直线相切,则圆心坐标为(b/2,-(b/2)tan(90°-a)),半径大小为(b/2)sina,0°<a≤90°,0<b≤255,
非线性函数V(f(x,y),f(m,n))为:
(f(x,y)-b/2)2+(f(m,n)+(b/2)tan(90°-a))2=((b/2)/sina)2
V(f(x,y),f(m,n))的数值与参数a和参数b密切相关;参数a用来控制锐化强度,随着参数a的增大,输入x经过函数V(f(x,y),f(m,n))得到的输出的结果就越大,增强效果就越明显;
而参数b则起到了控制图象噪声的作用,即把相邻像素f(m,n)与中心像素f(x,y)差值大于参数b的值当做噪声予以消除,小于b的值当做边缘细节进行增强。
CN201510061576.3A 2015-02-05 2015-02-05 一种基于深度学习的电力图像分类方法 Active CN104680192B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510061576.3A CN104680192B (zh) 2015-02-05 2015-02-05 一种基于深度学习的电力图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510061576.3A CN104680192B (zh) 2015-02-05 2015-02-05 一种基于深度学习的电力图像分类方法

Publications (2)

Publication Number Publication Date
CN104680192A true CN104680192A (zh) 2015-06-03
CN104680192B CN104680192B (zh) 2017-12-12

Family

ID=53315208

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510061576.3A Active CN104680192B (zh) 2015-02-05 2015-02-05 一种基于深度学习的电力图像分类方法

Country Status (1)

Country Link
CN (1) CN104680192B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109283439A (zh) * 2018-08-29 2019-01-29 华中科技大学 一种基于三基色色度信息和机器学习的放电状态识别方法
CN109509262A (zh) * 2018-11-13 2019-03-22 盎锐(上海)信息科技有限公司 基于人工智能的智能增强建模算法及装置
CN110032970A (zh) * 2019-04-11 2019-07-19 深圳市华付信息技术有限公司 高准确率的活体检测方法、装置、计算机设备及存储介质
CN111767718A (zh) * 2020-07-03 2020-10-13 北京邮电大学 一种基于弱化语法错误特征表示的中文语法错误更正方法
CN111862386A (zh) * 2020-07-03 2020-10-30 上海钧正网络科技有限公司 一种车辆的事故记录方法、装置、介质及服务器
CN114581425A (zh) * 2022-03-10 2022-06-03 四川大学 一种基于深度神经网络的心肌段缺损图像处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060083440A1 (en) * 2004-10-20 2006-04-20 Hewlett-Packard Development Company, L.P. System and method
US20080267497A1 (en) * 2007-04-27 2008-10-30 Jian Fan Image segmentation and enhancement
CN102368291A (zh) * 2011-09-07 2012-03-07 常州蓝城信息科技有限公司 基于指纹图像隐形意识的个人身份验证系统
CN103106262A (zh) * 2013-01-28 2013-05-15 新浪网技术(中国)有限公司 文档分类、支持向量机模型生成的方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060083440A1 (en) * 2004-10-20 2006-04-20 Hewlett-Packard Development Company, L.P. System and method
US20080267497A1 (en) * 2007-04-27 2008-10-30 Jian Fan Image segmentation and enhancement
CN102368291A (zh) * 2011-09-07 2012-03-07 常州蓝城信息科技有限公司 基于指纹图像隐形意识的个人身份验证系统
CN103106262A (zh) * 2013-01-28 2013-05-15 新浪网技术(中国)有限公司 文档分类、支持向量机模型生成的方法和装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109283439A (zh) * 2018-08-29 2019-01-29 华中科技大学 一种基于三基色色度信息和机器学习的放电状态识别方法
CN109509262A (zh) * 2018-11-13 2019-03-22 盎锐(上海)信息科技有限公司 基于人工智能的智能增强建模算法及装置
CN109509262B (zh) * 2018-11-13 2023-02-28 上海盎维信息技术有限公司 基于人工智能的智能增强建模方法及装置
CN110032970A (zh) * 2019-04-11 2019-07-19 深圳市华付信息技术有限公司 高准确率的活体检测方法、装置、计算机设备及存储介质
CN111767718A (zh) * 2020-07-03 2020-10-13 北京邮电大学 一种基于弱化语法错误特征表示的中文语法错误更正方法
CN111862386A (zh) * 2020-07-03 2020-10-30 上海钧正网络科技有限公司 一种车辆的事故记录方法、装置、介质及服务器
CN111767718B (zh) * 2020-07-03 2021-12-07 北京邮电大学 一种基于弱化语法错误特征表示的中文语法错误更正方法
CN114581425A (zh) * 2022-03-10 2022-06-03 四川大学 一种基于深度神经网络的心肌段缺损图像处理方法
CN114581425B (zh) * 2022-03-10 2022-11-01 四川大学 一种基于深度神经网络的心肌段缺损图像处理方法

Also Published As

Publication number Publication date
CN104680192B (zh) 2017-12-12

Similar Documents

Publication Publication Date Title
CN104680192B (zh) 一种基于深度学习的电力图像分类方法
CN109063723B (zh) 基于迭代挖掘物体共同特征的弱监督图像语义分割方法
Waghmare et al. Detection and classification of diseases of grape plant using opposite colour local binary pattern feature and machine learning for automated decision support system
US20190228268A1 (en) Method and system for cell image segmentation using multi-stage convolutional neural networks
CN111414942A (zh) 一种基于主动学习和卷积神经网络的遥感图像分类方法
CN108364281B (zh) 一种基于卷积神经网络的织带边缘毛疵缺陷检测方法
CN105184772B (zh) 一种基于超像素的自适应彩色图像分割方法
CN106934418B (zh) 一种基于卷积递归网络的绝缘子红外诊断方法
CN107180248A (zh) 基于联合损失增强网络的高光谱图像分类方法
CN107451565B (zh) 一种半监督小样本深度学习图像模式分类识别方法
CN106610969A (zh) 基于多模态信息的视频内容审查系统及方法
CN106897739A (zh) 一种基于卷积神经网络的电网设备分类方法
CN103577838A (zh) 一种人脸识别方法和装置
Niu et al. Image segmentation algorithm for disease detection of wheat leaves
Choi et al. Detecting composite image manipulation based on deep neural networks
CN113762265B (zh) 肺炎的分类分割方法及系统
CN105701835A (zh) 面向电力设施的图像边缘检测方法及系统
Septiarini et al. Maturity grading of oil palm fresh fruit bunches based on a machine learning approach
CN104408479A (zh) 一种基于深度局部特征描述符的海量图像分类方法
Sasirekha et al. Enhanced techniques for PDF image segmentation and text extraction
WO2021098620A1 (zh) 一种文件碎片分类方法及系统
CN108764287B (zh) 基于深度学习和分组卷积的目标检测方法及系统
CN111242891B (zh) 一种钢轨表面缺陷识别分类方法
CN114882278A (zh) 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置
CN106570514A (zh) 一种基于词袋模型和支持向量机的汽车轮毂分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant