一种基于自适应模糊神经网络的漏磁缺陷深度识别方法
技术领域
本发明涉及一种漏磁缺陷识别方法,特别涉及一种基于自适应模糊神经网络的漏磁缺陷深度识别方法。
背景技术
目前,管道作为一种重要的运输工具,被广泛用于石油,天然气,可燃冰等产品的运输。随着运行时间的增长,管道腐蚀情况越来越严重。一旦发生泄漏,将会带来巨大的环境污染和财产损失,甚至人员伤亡。因此,定期对管道进行安全检查尤其重要。
在对管道进行无损检测评估过程中,管道中缺陷的深度识别是无损评估过程的重要环节。管道中缺陷的深度识别直接关系到对管道的寿命预测以及维修工作。因此,如何提高缺陷识别精度尤其重要。一个良好的缺陷识别算法不但具备准确性,同时要具备快速能力。尽管目前深度网络被广泛的应用,但其结构复杂,模型庞大,参数众多,不能很好的用于工业环境中。
发明内容
本发明为解决公知技术中存在的技术问题而提供一种快速准确的基于自适应模糊神经网络的漏磁缺陷深度识别方法。
本发明为解决公知技术中存在的技术问题所采取的技术方案是:一种基于自适应模糊神经网络的漏磁缺陷深度识别方法,该方法为:对漏磁缺陷数据进行特征提取,由提取的特征制作样本集;构建最大最小模糊神经网络,采用样本集对该神经网络进行训练并使之生成多个由最小点和最大点构成的N维聚类超盒,每一个超盒内所有样本属于同一漏磁缺陷类别;超盒的隶属度函数采用自适应隶属度函数;由隶属度函数计算待识别漏磁缺陷数据对应每个超盒的隶属度值,将隶属度值最大的超盒所对应的漏磁缺陷类别作为待识别漏磁缺陷的类别。
进一步地,提取的特征包括:
磁化水平,当前缺陷所在这一节管道的采样均值;
峰峰值,用FPV表示,FPV=YP-YV;
式中,σ表示相邻里程点之间的间隔,T表示当前缺陷所在这一节管道跨越的时间;KM表示当前缺陷所在这一节管道里程点数;YP表示最大峰谷差所在的通道的峰值,YV表示最大峰谷差所在的通道的谷值,N1是左谷位置,N2是右谷位置,Dtq表示最大峰谷差所在的通道在t里程点的漏磁数值,q表示最大峰谷差所在的通道。
进一步地,由提取的特征制作样本集的方法包括:将时域特征和频域特征组合作为缺陷特征F=[FT,FF],收集组合特征制作样本集,并对样本集内数据进行归一化处理。
进一步地,将样本集分成两部分,一部分为训练样本集,一部分为测试样本集,其中训练样本数量占比为80%;采用训练样本集对最大最小模糊神经网络进行训练;采用测试样本集对训练后的最大最小模糊神经网络进行测试。
进一步地,采用样本集对最大最小模糊神经网络进行训练的方法包括:
步骤A-1,初始化超盒的最小点和最大点,对训练样本标注类别标签;
步骤A-2,输入第一个训练样本,建立第一个超盒;
步骤A-3,输入新训练样本;计算新训练样本和已建立超盒之间的关系,设新训练样本和已建立超盒之间的关系包括如下三种关系:
第一种关系:新训练样本包含在已建立且具有共同类别标签的第j个超盒内;
第二种关系:新训练样本与已建立超盒没有共同类别标签;
第三种关系:新训练样本处在多个具有共同类别标签的超盒外部;
步骤A-4:如果是第一种关系,对第j个超盒进行扩充,并更新第j个超盒最大点和最小点;如果是第二种关系,该训练样本属于新类别,则为该训练样本创建新的超盒;如果是第三种关系,则扩充超盒或者新建超盒;
步骤A-5:重复步骤A-3至步骤A-4,直到全部训练样本均输入至最大最小模糊神经网络。
进一步地,对应第三种关系,扩充超盒或者新建超盒的方法包括如下步骤:
步骤B-1,计算该训练样本与多个具有共同类别标签的超盒的几何中心距离,设几何中心距离最近的超盒为Bk,对Bk进行扩充;
步骤B-2,设超盒Bk扩充后生成的超盒为Bp,使超盒Bp包含新训练样本和超盒Bk;
步骤B-3,计算其他类组成的最大超盒,该最大超盒用Bother表示;查找和该训练样本属于不同类别的超盒集合,该超盒集合用B′表示;
步骤B-4,如果存在
则为该训练样本建立新的超盒;否则执行步骤B-5;
步骤B-5,如果
则保留超盒B
p;根据B
p更新超盒B
k的最大值和最小值,否则执行步骤B-6;
步骤B-6,计算Bp和Bother的交叠超盒;该交叠超盒用Bo表示;设Bo的几何中心点为U,计算U以及U与Bo的最大点或最小点之间的距离;设U与Bo的最大点或最小点之间的距离为r;
步骤B-7,以点U为中心,半径为r,寻找和该训练样本属于不同类别的数据集;该数据集用Ddc表示;
步骤B-8,如果存在Dx∈Ddc属于Bo;则为该训练样本建立新的超盒;否则根据Bp更新超盒Bk的最大值和最小值。
进一步地,超盒的隶属度函数为:
其中,
式中:
Vji为第j个超盒的最小点第i维特征;
Wji为第j个超盒的最大点第i维特征;
Yji为第i维数据的数据中心;
cji为第i维数据的几何中心;
r为数据点与超盒几何中心点的距离;
γi为中间变量;
Xdi为第d个数据点第i维特征;
Xd为第d个数据点;
bj(Xd)为第d个数据点的隶属度。
本发明具有的优点和积极效果是:本发明提出了一种基于自适应模糊神经网络的漏磁缺陷深度识别方法。与其他最大-最小模糊神经网络不同的是,本发明无需设置固定参数,提高了模型的分类速度。同时采用自适应能力的隶属度函数,提高了模型识别精度。
附图说明
图1为本发明的一种工作流程图;
图2为一种管道漏磁缺陷特征示意图;
图3为本发明的方法与其他神经网络方法在对管道5.6mm壁厚漏磁缺陷数据集进行分类的分类误差比较图。
图4为本发明的方法与其他神经网络方法对应5.6mm壁厚数据集的超盒数比较图。
图5为训练样本占比5%,测试样本占比95%时,本发明的方法与其他神经网络方法的训练测试时间比较图。
图6为训练样本占比30%,测试样本占比70%时,本发明的方法与其他神经网络方法的训练测试时间比较图。
图7为训练样本占比60%,测试样本占比40%时,本发明的方法与其他神经网络方法的训练测试时间比较图。
图8为训练样本占比90%,测试样本占比10%时,本发明的方法与其他神经网络方法的训练测试时间比较图。
具体实施方式
为能进一步了解本发明的发明内容、特点及功效,兹列举以下实施例,并配合附图详细说明如下:
说明书及附图中的英文释义如下:
SAFMM,自适应模糊神经网络,为采用本发明方法建立的一种最大最小模糊神经网络。
FMM:最大最小模糊神经网络。
GFMM:广义最大最小模糊神经网络。
FMCN:具有补偿神经元的最大最小模糊神经网络。
DCFMN:基于数据中心的最大最小模糊神经网络。
EFMM:增强型最大最小模糊神经网络。
请参见图1至图8,一种基于自适应模糊神经网络的漏磁缺陷深度识别方法,对漏磁缺陷数据进行特征提取,由提取的特征制作样本集;构建最大最小模糊神经网络,采用样本集对该神经网络进行训练并使之生成多个由最小点和最大点构成的N维聚类超盒,每一个超盒内所有样本属于同一漏磁缺陷类别;超盒的隶属度函数采用自适应隶属度函数;由隶属度函数计算待识别漏磁缺陷数据对应每个超盒的隶属度值,将隶属度值最大的超盒所对应的漏磁缺陷类别作为待识别漏磁缺陷的类别。
优选地,可将样本集分成两部分,一部分为训练样本集,一部分为测试样本集,其中训练样本数量占比可为70%~90%;采用训练样本集对最大最小模糊神经网络进行训练;采用测试样本集对训练后的最大最小模糊神经网络进行测试。
采用训练样本集对最大最小模糊神经网络进行自适应训练,训练完成后生成多个由最小点和最大点构成的N维聚类超盒,每一个超盒内所有样本属于同一漏磁缺陷类别;由隶属度函数计算测试样本集对应每个超盒的隶属度值,将隶属度值最大的超盒所对应的漏磁缺陷类别作为测试样本漏磁缺陷的类别。可以测试样本漏磁缺陷类别为基准,将与其隶属度值最大的超盒的类别进行相应的分类。
对漏磁缺陷数据进行特征提取时,提取的特征可包括:
速度,用F
V表示,
其中,σ表示相邻里程点之间的间隔,可设σ=0.002m,T表示当前缺陷所在这一节管道跨越的时间;KM表示当前缺陷所在这一节管道里程点数;磁化水平,用F
M表示,当前缺陷所在这一节管道的采样均值。
峰峰值,用FPV表示,FPV=YP-YV;峰峰值是指:数据最大峰值和最小谷值之差。其中,YP表示最大峰谷差所在的通道的峰值,YV表示最大峰谷差所在的通道的谷值。
面积,用F
Sa表示,
面积是指:每一个数据点值减去数据点均值,再求和。其中。N
1是左谷位置,N
2是右谷位置,D
tq表示最大峰谷差所在的通道在t里程点的漏磁数值,q表示最大峰谷差所在的通道。
面能量,用F
Se表示,
面能量是指:每一个数据点值减去数据点均值,再取平方和。其中。N
1是左谷位置,N
2是右谷位置,D
tq表示最大峰谷差所在的通道在t里程点的漏磁数值,q表示最大峰谷差所在的通道。
体积,用F
Va表示,
体积是指:每一个通道的面积之和。
体能量,用F
Ve表示,
体能量是指每一个通道的面能量之和。
优选地,由提取的特征制作样本集的方法可包括:将时域特征和频域特征组合作为缺陷特征F=[FT,FF],收集组合特征制作样本集,并对样本集内数据进行归一化处理。
优选地,采用样本集可对最大最小模糊神经网络进行自适应训练,采用样本集可对最大最小模糊神经网络进行自适应训练的方法可包括:
步骤A-1,初始化超盒的最小点和最大点,对训练样本标注类别标签;设最小点为V,V∈RM×N;最大点为W,W∈RM×N,其中M表示训练样本数,N表示特征维度。
步骤A-2,输入第一个训练样本,建立第一个超盒。
对第一个训练样本,建立第一个超盒的方法可为:
B1={V1i,W1i},V1i=F1i-δ,W1i=F1i+δ。
其中B1表示第一个超盒,设δ表示超盒偏移量,δ是一个较小的正数。V1i表示第一个样本的第i个特征的最小值。W1i表示第一个样本的第i个特征的最大值。F1i表示第一个样本的第i个特征。
步骤A-3,输入新训练样本。设新进入的训练样本为第d个样本,设第d个样的第i个特征为Fdi,计算新训练样本和已建立超盒之间的关系,计算Fdi和已经建立的超盒中的对应特征之间的关系。设新进入的第d个训练样本的特征数据是对应超盒的N维空间的一个点。
设新训练样本和已建立超盒之间的关系包括如下三种关系:
第一种关系:该点包含在已建立的且具有共同类别标签的第j个超盒Bj内。新训练样本所有特征均包含在已建立且具有共同类别标签的第j个超盒内。即Fdi的值均小于等于第j个超盒的第i个特征的最大值,且Fdi的值大于等于第j个超盒的第i个特征的最小值。
第二种关系:该点属于新类别,新训练样本与已建立超盒没有共同类别标签。
第三种关系:该点处在具有共同类别标签的k个超盒的外部。新训练样本处在多个具有共同类别标签的超盒外部。即Fdi小于每一个超盒最小点的第i个特征。或者Fdi大于每一个超盒最大点的第i个特征。
步骤A-4:如果是第一种关系,对第j个超盒进行扩充,并更新第j个超盒最大点和最小点。设第j个超盒之前的第i个特征的最小值为
设第j个超盒更新后的第i个特征的最小值为
设第j个超盒之前的第i个特征的最大值为
设第j个超盒更新后的第i个特征的最大值为
更新的办法可为:
第j个超盒的第i个特征的最小值可更新为:第j个超盒的第i个特征过去的最小值
与第d个样的第i个特征F
di两者中的最小值;
第j个超盒的第i个特征的最大值可更新为:第j个超盒的第i个特征过去的最大值
与第d个样的第i个特征为F
di两者中的最大值;
如果是第二种关系,该训练样本属于新类别,则为该训练样本创建新的超盒。新建超盒方法可参考第一个超盒的建立方法。
如果是第三种关系,则可自适应扩充超盒,或者新建超盒;
步骤A-5:重复步骤A-3至步骤A-4,直到全部训练样本均输入至最大最小模糊神经网络。
优选地,对应第三种关系,自适应扩充超盒或者新建超盒的方法可包括如下步骤:
步骤B-1,计算该训练样本与多个具有共同类别标签的超盒的几何中心距离,设该训练样本与第k个超盒具有共同类别标签且两者的几何中心距离最近;设第k个超盒为Bk,对Bk进行扩充。超盒的几何中心指的是超盒内所有数据点在每一维度上的均值点。
步骤B-2,设超盒Bk扩充后生成的超盒为Bp,使超盒Bp包含新训练样本和超盒Bk。即,设超盒Bk第i个特征的最小值为Vki,设超盒Bk第i个特征的最大值为Wki;Fdi及Vki、Wki位于超盒Bp内。
步骤B-3,计算其他类组成的最大超盒,该最大超盒用Bother表示。查找和该训练样本属于不同类别的超盒集合,该超盒集合用B′表示。
步骤B-4,如果存在
则为该训练样本建立新的超盒。新建超盒方法可参考第一个超盒的建立方法。否则执行步骤B-5。
步骤B-5,如果
则保留超盒B
p;根据B
p更新超盒B
k的最大值和最小值,即将超盒B
k的最大值和最小值对应更新为超盒B
p的最大值和最小值。否则执行步骤B-6。
步骤B-6,计算Bp和Bother的交叠超盒;该交叠超盒用Bo表示;设Bo的几何中心点为U,计算U以及U与Bo的最大点或最小点之间的距离;设U与Bo的最大点或最小点之间的距离为r。
步骤B-7,以点U为中心,半径为r,寻找和该训练样本属于不同类别的数据集;该数据集用Ddc表示。
步骤B-8,如果存在Dx∈Ddc属于Bo;其中Dx为属于Ddc的集合,则为该训练样本建立新的超盒;新建超盒方法可参考第一个超盒的建立方法。否则根据Bp更新超盒Bk的最大值和最小值。
优选地,超盒的隶属度函数可为:
其中,
式中:
Vji为第j个超盒的最小点第i维特征;
Wji为第j个超盒的最大点第i维特征;
Yji为第i维数据的数据中心;数据的数据中心即第i维数据的均值;
cji为第i维数据的几何中心;数据的几何中心即第i维数据最大值和最小值的均值;
r为数据点与超盒几何中心点的距离;
γi为中间变量;
Xdi为第d个数据点第i维特征;
Xd为第d个数据点;
bj(Xd)为第d个数据点的隶属度。
下面以本发明的一个优选实施例来进一步说明本发明的工作流程及工作原理:
该方法包括3个阶段,即:漏磁缺陷特征提取阶段、最大最小模糊神经网络训练阶段、最大最小模糊神经网络分类阶段。
漏磁缺陷特征提取阶段完成对漏磁缺陷数据的特征提取,为后续最大最小模糊神经网络训练和测试提供特征数据集。
最大最小模糊神经网络训练阶段完成对训练数据集的自适应训练,生成多个超盒,每一个超盒内所有样本属于同一类别。
最大最小模糊神经网络分类阶段完成对测试数据的分类,该分类过程基于一种具有自适应能力的隶属度函数实现。
步骤1:漏磁缺陷特征提取。对漏磁缺陷数据Dm×n进行特征提取,其中m表示缺陷数据跨越的里程点数,n表示缺陷数据跨越的传感器通道数。缺陷特征示意图如图2所示。提取的特征F包括:
速度F
V:
σ=0.002m表示相邻里程点之间的间隔,T表示当前缺陷所在这一节管道跨越的时间。KM表示当前缺陷所在这一节管道里程点数。
磁化水平FM:当前缺陷所在这一节管道的采样均值。
峰峰值FPV:FPV=YP-YV,YP表示最大峰谷差所在的通道的峰值。YV表示最大峰谷差所在的通道的谷值。
面积F
Sa和面能量F
Se:
q表示最大峰谷差所在的通道。N
1是左谷位置。N
2是右谷位置。
步骤2:最大最小模糊神经网络训练。
步骤2.1:初始化最小点和最大点V,W∈RM×N,其中M=165表示训练样本数,N=7表示特征维度。实施方案中样本来源于实验场5.6mm壁厚管道,样本数据类别为3类,分别表示为深度1mm、深度3mm、深度5mm。
步骤2.2:对第一个进入网络的数据,建立超盒B1={V1t,W1i}。V1i=F1i-δ,W1i=F1i+δ,其中δ=0.001表示超盒偏移量。
步骤2.3:计算新进入的第d个训练样本Fdi和已经建立的超盒之间的关系。Fdi表示第d个样的第i个特征。设新进入的第d个训练样本的特征数据是对应超盒的N维空间的一个点。
第一种关系:该点包含在已建立的且具有共同类别标签的超盒Bt内。
第二种关系:该点属于新类别。
第三种关系:该点处在具有共同类别标签的k个超盒的外部。
步骤2.4:针对第一种关系,对超盒B
t进行扩充,并更新超盒最大点和最小点:
针对第二种关系,为该点创建新的超盒。
步骤2.5:针对第三种关系,进行超盒自适应扩充。包括如下子步骤:
步骤2.5.1:首先计算该点和k个超盒的几何中心距离,选择距离最近的超盒Bk。
步骤2.5.2:计算该点和超盒Bk的欲扩充超盒Bp。使得超盒Bp包含该点和超盒Bk。
步骤2.5.3:计算其他类组成的最大超盒Bother,并寻找和当前点属于不同类别的超盒集合B′。
步骤2.5.4:如果存在
则为该点建立新的超盒。否则执行步骤1.1.5.5。
步骤2.5.5:如果
则该欲扩充超盒B
p保留。并将超盒B
k的最大值和最小值对应更新为超盒B
p的最大值和最小值。否则执行步骤2.5.6.
步骤2.5.6:计算Bp和Bother的交叠超盒Bo。计算Bo的几何中心点U,以及U和Bo最大点或最小点之间的距离r。
步骤2.5.7:以点U为中心,半径为r,寻找和当前点属于不同类别的数据集Ddc。
步骤2.5.8:如果存在Dx∈Ddc属于Bo,则为当前点建立新的超盒。否则将超盒Bk的最大值和最小值对应更新为超盒Bp的最大值和最小值。
步骤2.6:重复步骤2.3-2.5,最终得到多个聚类超盒。至此,最大最小模糊神经网络训练完成。
步骤3:最大最小模糊神经网络分类。
步骤3.1:对新进入的点,计算其属于每个聚类超盒的隶属度值bj:
其中,
Yji表示第i维数据的数据中心,cji表示第i维数据的几何中心。
上式中,
Vji为第j个超盒的最小点第i维特征;
Wji为第j个超盒的最大点第i维特征;
Yji为第i维数据的数据中心;
cji为第i维数据的几何中心;
r为数据点与超盒几何中心点的距离;
γi为中间变量;
Xdi为第d个数据点第i维特征;
Xd为第d个数据点;
bj(Xd)为第d个数据点的隶属度。
步骤3.2:寻找隶属度值最大的聚类超盒,输出该超盒对应的类别,完成分类。为了体现本发明方法的优势,我们将本发明方法SAFMM和传统模糊最小-最大网络以及其诸多变种算法做比较,比较算法包括,模糊最小-最大神经网络(FMM),广义模糊最大值-最小神经网络(GFMM),具有补偿神经元的FMM(FMCN),基于数据中心的FMM(DCFMN)以及增强型FMM(EFMM)。
请参见图3至图8,图中横轴的θ是指超盒最大值点与最小值点每一维度之差的最大值,纵轴“error”表示分类误差,纵轴“time”表示训练测试时间,纵轴“HyperBox numer”表示超盒数量。
θ取值为0.1-0.9,步进为0.1。分类误差结果如图3所示。超盒数比较如图4所示。从图中可以看出:本发明方法分类误差低于FMM、GFMM、FMCN以及DCFMN方法。尽管当θ小于0.4时,EFMM的分类精度高于本发明,但其超盒数目超过了40,而本发明生成的超盒数仅仅为20。
为了进一步说明本文方法的快速识别特性,我们测试本发明方法在大数据集中的执行速度。选择数据集为UCI公共数据集中的Electrical Grid Stability(电网稳定性仿真数据集),包含10000个样本,13个特征属性,2个类别。如图5所示,实验分别测试不同的训练测试比例下的时间。实验结果表明:本发明方法在大数据集应用中,具有很好的运算效率,预算时间小于0.2s,而其它算法时间只有当θ取值为0.8左右时,才能达到这个水平。
以上所述的实施例仅用于说明本发明的技术思想及特点,其目的在于使本领域内的技术人员能够理解本发明的内容并据以实施,不能仅以本实施例来限定本发明的专利范围,即凡本发明所揭示的精神所作的同等变化或修饰,仍落在本发明的专利范围内。