CN110826570B - 一种ect两相流基于宽度学习的流型识别方法 - Google Patents

一种ect两相流基于宽度学习的流型识别方法 Download PDF

Info

Publication number
CN110826570B
CN110826570B CN201911026269.6A CN201911026269A CN110826570B CN 110826570 B CN110826570 B CN 110826570B CN 201911026269 A CN201911026269 A CN 201911026269A CN 110826570 B CN110826570 B CN 110826570B
Authority
CN
China
Prior art keywords
layer
bls
output
mapping
enhancement layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911026269.6A
Other languages
English (en)
Other versions
CN110826570A (zh
Inventor
秦学斌
纪晨晨
刘浪
王湃
王卓
张波
张小燕
王美
景宁波
赵玉娇
郇超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Science and Technology
Original Assignee
Xian University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Science and Technology filed Critical Xian University of Science and Technology
Priority to CN201911026269.6A priority Critical patent/CN110826570B/zh
Publication of CN110826570A publication Critical patent/CN110826570A/zh
Application granted granted Critical
Publication of CN110826570B publication Critical patent/CN110826570B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种ECT两相流基于宽度学习的流型识别方法,包括以下步骤:BLS模型的建立;特征提取;提出方法;数据集建立;提取特征。本发明通过Matlab 2018a软件建立两相流图像数据集;作为数据样本的二值图像的特征提取主要针对目标区域块,采用Opencv库获取目标区域块的个数、描述目标区域块的形状复杂性、反映目标区域块的位置信息;最后使用Anaconda软件实现两相流图像的流型辨识。本发明的优点是:1.采用BLS网络对两相流图像进行流型辨识。2.额外提取数据集的特征弥补BLS网络的特征提取能力不足的缺点。3.额外提取的特征与BLS网络融合,提高了训练准确率。

Description

一种ECT两相流基于宽度学习的流型识别方法
技术领域
本发明涉及电容层析成像技术领域,特别涉及一种ECT两相流基于宽度学习的流型识别方法。
背景技术
电容层析成像(ECT)是一种对封闭容器内特定介质或混合物进行2维或3维图像重建的可视化技术[1]。ECT技术具有精度高,成本低的特点。其硬件主要包括电容传感器、采集电路和计算机。电容传感器可以是由8,12,16片电极组成,其中,各电极等距离环绕封闭容器一周,紧贴在容器壁外。ECT系统工作时通过不同的电极对激励顺序采集一组独立电容数据到计算机进行重建处理。由这组独立电容数据通过图像重建算法反演封闭容器内多相流介质的介电常数分布(也即像素分布)。ECT技术的应用潜力巨大,如多相流检测[2],燃烧成像[3],流化床的固体颗粒监测[4]等。
ECT技术的经典的图像重建算法有线性反投影[5](LBP),Landweber[6],Tikho nov正则化[7]算法等,经典算法有利有弊,例如,LBP算法成像速度快但精度低,Landweber算法的成像质量依赖于参数。近年来,快速高效的在线图像重建算法成为ECT技术投入现场使用的主要难关,也是科研人员主要攻克的研究方向。Wa ng P利用最小二乘支持向量(LeastSquares Support Vector Machines,LS-SVM)方法预测由软场特性所引起的电容误差,根据此电容误差构造Simulated Annea ling Particle Swarm Optimization(APSO)的适应度函数,并通过寻找最佳分辨率实现较高精度的图像重建[8]。Zhang L提出基于压缩感知理论的ECT图像重建算法,利用离散Fourier变换基将原始图像灰度信号稀疏化处理,采用L1范数正则化模型和原对偶内点法重建图像[9]。如今,许多快速精确的重建算法的出现促进了ECT技术日益成熟。
ECT算法包括正问题和反问题的求解,正问题是指根据敏感场内介电常数的分布和敏感场的边界条件建立数学模型进而求取各电极对之间的电容值;反问题是指通过场域的灵敏度以及已测量出的电容数据重建出场域内介电常数分布,并以图像为最终表现形式。但未加处理的重建图像并不能满足现场要求,为了智能化、一体化的作业流程,ECT技术仍需要多样化的后期处理,其中流型辨识是基本要求。AbdeelJ.Roman利用ECT和组合空间平均介电常数和质心位置的特征采用神经网络对制冷剂在水平管内流动的液-汽两相流型进行自动识别,实验表明9种流型的分类结果达到98.1%的平均准确率[10]。RafaelJohansen采用可以克服梯度消失或者爆炸的长短时记忆(Long Short Term Memory,LSTM)神经网络,给出了对环形流、塞流、段塞流、分层流和波状流五种流态识别的成功应用场景[11]。两相流成像以及流型辨识作为现场流水线中的一环,其训练速度以及分类准确度对后续操作具有重要的影响。
宽度学习系统[12-13](Broad Learning System,BLS)的提出为两相流的流型辨识提供了一种新的思路。BLS是一种新颖的神经网络框架,与深层结构神经网络相比,该网络具有待优化参数少,训练时间短等优点。简单的BLS的网络适合处理低维度的小型样本集,高效建立在线学习模型。BLS网络结构很灵活,它可以与其他网络结合使用,例如将卷积神经网络提取的特征与BLS的特征层输出相结合,在最优训练时间的前提下增强网络预测或分类的能力。
如何利用BLS网络进行两相流的流型辨识是当前的研究热点问题。该技术主要存在的问题如下:
目前ECT系统重建的图像带有少量的噪声、伪影,导致数据拟合不准确。
由于BLS网络的特殊性,映射层提取特征的能力有限。
ECT系统重建的两相流图像样本的像素数量多,导致训练速度时间长。
参考文献:
[1]Meribout M,Saied I M.Real-Time Two-Dimensional Imaging of SolidContaminants in Gas Pipelines Using an Electrical Capacitance TomographySystem[J].IEEE Transactions on Industrial Electronics,2017,64(5):3989-3996;
[2]Shi Y,Meng W,Shen M.Characterization of oil-water two-phaseflow ina horizontal pipe with multi-electrode conductance sensor[J].Journal ofPetroleum Science&Engineering,2016,146:584-590;
[3]Jia Y,Chen Q.Theoretical analysis of the dielectriccharacteristics of plasma flame and imaging plasma flame using ElectricalCapacitance Tomography[C]//IEEE International Conference on Imaging Systems&Techniques.2014;
[4]Li X,Jaworski A J,Mao X.Bubble size and bubble rise velocityestimation by means of electrical capacitance tomography within gas-solidsfluidized beds[J].Measurement,2018,117:226-240;
[5]Matusiak B,Silva M J D,Hampel U,et al.Measurement of DynamicLiquid Distributions in a Fixed Bed Using Electrical Capacitance Tomographyand Capacitance Wire-Mesh Sensor[J].Industrial&EngineeringChemistry Research,2010,49(5):2070-2077;
[6]Hua Y,Yi F W,Ying G Z.Three-dimensional electrical capacitancetomography reconstruction by the Landweber iterative algorithm with fuzzythresholding[J].Science Measurement&Technology Iet,2014,8(6):487-496;
[7]Guo Q,Meng S,Wang D,et al.Investigation of gas–solid bubblingfluidized beds using ECT with a modified Tikhonov regularizationtechnique[J].Aiche Journal,2017,64(1):29-41;
[8]Wang P,Lin J S,Wang M.An image reconstruction algorithmforelectrical capacitance tomography based on simulated annealing particleswarm optimization[J].Journal of Applied Research&Technology,2015,13(2):197-204;
[9]Zhang L,Liu Z,Pei T.Image reconstruction algorithm basedoncompressed sensing for electrical capacitance tomography[C].EighthInternational Conference on Digital Image Processing.2016;
[10]Roman A J,Kreitzer P J,Ervin J S,et al.Flow patternidentification of horizontal two-phase refrigerant flow using neural networks[J].International Communications in Heat&Mass Transfer,2016,71:254-264;
[11]Rafael Johansen,Torbjorn Grande Ostby,Antoine Dupre,SabaMylvaganam.LONG SHORT-TERM MEMORY NEURAL NETWORKS FOR FLOW REGIMEIDENTIFICATION USING ECT[C].9th World Congress on INDUSTRIAL PROCESSTOMOGRAPHY,2018;
[12]Chen C,Liu Z.Broad Learning System:An Effective and EfficientIncremental Learning System Without the Need for Deep Architecture[J].IEEETransactions on Neural Networks&Learning Systems,2018,29(1):10-24;
[13]Shuang F,Chen C L P.Fuzzy Broad Learning System:A Novel Neuro-Fuzzy Model for Regression and Classification[J].IEEE Transactions onCybernetics,PP(99):1-11。
发明内容
本发明针对现有技术的缺陷,提供了一种ECT两相流基于宽度学习的流型识别方法,解决了现有技术中存在的缺陷。
为了实现以上发明目的,本发明采取的技术方案如下:
一种ECT两相流基于宽度学习的流型识别方法,包括以下步骤:
步骤一、BLS模型的建立;
首先,输入数据通过稀疏化的权重映射为“特征节点”,这些“特征节点”就组成了映射层;其次,映射层的输出作为增强层的输入,通过“增强节点”激活后输出;最后,将映射层的输出和增强层输出融合作为该网络的输入矢量,直接连接到输出端,对应的权重由Moore-Penrose广义逆求出。
公式如下:
映射层:Z=φ(XWee) (1)
增强层:H=ξ(ZWhh) (2)
输出层:Y=[Z|H]Wm (3)
其中,X是输入数据;Y是已知的标签数据;=φ(XWee)是恒等映射函数;ξ(ZWhh)是tansig激活函数
Figure GDA0003801319800000051
We,Wh和Wm是权重;βe和βh是偏置;Z和H分别是映射层和增强层的输出。
设输入数据为Xm×n,m是训练集个数,n是像素个数,给Xm×n加入一列常数元素变为Xm×(n+1),对式(1)简写为,
Z=φ(XWee) (4)
其中,Wee是随机生成的(n+1)×N1的权重矩阵,N1是映射层的“特征节点”个数。为了有效地减少新生“特征节点”的线性相关度,需要对Wee稀疏化处理。
映射层的输出
Figure GDA0003801319800000061
作为增强层的输入,同理,式(2)可简写为,
H=ξ(ZWhh) (5)
其中,Whh是随机生成的N1×N2的权重矩阵,N2是增强层的“增强节点”个数。并对Whh标准正交基化以提高增强层提取特征能力。
融合映射层和增强层输出的特征得到
Figure GDA0003801319800000062
Figure GDA0003801319800000063
与标签数据Y直接建立映射得到式(3)。为了求解输出层的权重Wm,建立式(3)的最优化方程,
Figure GDA0003801319800000064
其中,λ是接近于0的参数。为了防止模型过拟合,采用了l2范数的正则化方法。
求解权重Wm,也就是求解Moore-Penrose广义逆,
Wm=(ATA+λI)-1ATY (7)
BLS的网络模型包括:由映射层的权重Wee,增强层的权重Whh和输出层的权重Wm
步骤二、特征提取;
包括特征:区域块个数、区域块的圆形度和区域块的重心。
区域块个数,采用两相流的二值图像基于Opencv库获取管道内目标区域块的个数。
区域块的圆形度,区域块形状复杂性通过形状系数描述,公式如下:
ff=4π·S/C2 (8)
其中,S表示区域块的面积,C表示区域块的周长。
区域块的重心,采用两相流截面的二值图像基于矩的方式计算区域块的重心位置。
Figure GDA0003801319800000071
Figure GDA0003801319800000072
Figure GDA0003801319800000073
Figure GDA0003801319800000074
其中,M00为图像块白色区域的面积。v(i,j)表示二值图像上的白色区域像素值。(i,j)为图像上的坐标;M10和M01分别表示二值图像上白色区域x方向和y方向上的坐标值的累加;(xc,yc)为重心坐标。
步骤三、提出方法;
对训练集和测试集提取的三种特征,区域块的个数、圆形度和重心坐标,分别用P1,P2,P3表示。将它们合并后得P=[P1 P2 P3],其中,P1,P2,P3分别是d×1,d×q,d×2q的矩阵,d是样本集个数,q的值等于待分类别数。
P2,P3采用“补0”原则。若第i个样本计算出的P(i)=[P1 (i) P2 (i) P3 (i)],P2 (i)中前面位置存放该样本对应圆形度的计算值,剩余位置补0;P3 (i)中前面位置存放重心坐标的计算值,剩余位置补0。
对BLS映射层扩增“特征节点”,映射层的输出与特征矩阵P组合成一个新的矩阵[Z|P]。对P归一化后,BLS的增强层的输入也为[Z|P],则
H*=ξ([Z|P]Whh) (13)
Y*=[Z|P|H*]Wm=A*Wm (14)
其中,H*是增强层的输出;A*=[Z|P|H*],是输出层的输入。
步骤四,数据集建立;
数据集模拟ECT重建管道2维截面图像,每一个样本图像的大小为64×64pixels。流型共6类,分别是单泡流、双泡流、三泡流、四泡流、层流和环流。数据集包括训练集、训练集标签、测试集和测试集标签,训练集总共3000张,其中不同类别各500张;测试集总共500张,其中不同类别各100张。
将样本图像的像素压缩为32×32pixels后,逐行排列成1×1024的行向量,即训练集是一个3000×1024的矩阵,测试集是一个500×1024的矩阵。训练集标签、测试集标签分别是3000×6、500×6的矩阵,标签矩阵的元素为0和1,行对应不同样本,列对应不同类别。
步骤五,提取特征;
采用ECT重建后的二值图像,提取区域块个数、区域块的圆形度和区域块的重心这三个特征。
与现有技术相比,本发明的优点在于:
1.采用BLS网络对两相流图像进行流型辨识。
2.额外提取数据集的特征弥补BLS网络的特征提取能力不足的缺点。
3.额外提取的特征与BLS网络融合,提高了训练准确率。
附图说明
图1是本发明实施例BLS的网络模型图;
图2是本发明实施例额外特征与BLS网络的组合示意图;
图3是本发明实施例部分数据集样本展示图,(a)单泡流;(b)双泡流;(c)三泡流;(d)四泡流;(e)层流;(f)环流;
图4是本发明实施例ECT重建图像的特征提取示意图,(a)重建的灰度图像;(b)重建的二值图像。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下根据附图并列举实施例,对本发明做进一步详细说明。
一、BLS模型的建立
BLS的前身是随机向量函数链接网络(Random Vector Functional-Link NeuralNetwork,RVFLNN),本质上属于前馈神经网络(Feedforward Neural Network,FNN)。
如图1所示,BLS网络由映射层,增强层和输出层构成。首先,输入数据通过稀疏化的权重映射为“特征节点”,这些“特征节点”就组成了映射层;其次,映射层的输出作为增强层的输入,通过“增强节点”激活后输出;最后,将映射层的输出和增强层输出融合作为该网络的输入矢量,直接连接到输出端,对应的权重由Moore-Penrose广义逆求出。
公式如下:
映射层:Z=φ(XWee) (1)
增强层:H=ξ(ZWhh) (2)
输出层:Y=[Z|H]Wm (3)
其中,X是输入数据;Y是已知的标签数据;=φ(XWee)是恒等映射函数;ξ(ZWhh)是tansig激活函数
Figure GDA0003801319800000091
We,Wh和Wm是权重;βe和βh是偏置;Z和H分别是映射层和增强层的输出。
设输入数据为Xm×n(m是训练集个数,n是像素个数),给Xm×n加入一列常数元素变为Xm×(n+1),对式(1)简写为,
Z=φ(XWee) (4)
其中,Wee是随机生成的(n+1)×N1的权重矩阵(N1是映射层的“特征节点”个数)。为了有效地减少新生“特征节点”的线性相关度,需要对Wee稀疏化处理。
映射层的输出
Figure GDA0003801319800000101
作为增强层的输入,同理,式(2)可简写为,
H=ξ(ZWhh) (5)
其中,Whh是随机生成的N1×N2的权重矩阵(N2是增强层的“增强节点”个数)。并对Whh标准正交基化以提高增强层提取特征能力。
融合映射层和增强层输出的特征得到
Figure GDA0003801319800000102
Figure GDA0003801319800000103
与标签数据Y直接建立映射得到式(3)。为了求解输出层的权重Wm,建立式(3)的最优化方程,
Figure GDA0003801319800000104
其中,λ是接近于0的参数。为了防止模型过拟合,采用了l2范数的正则化方法。
求解权重Wm,也就是求解Moore-Penrose广义逆,
Wm=(ATA+λI)-1ATY (7)
BLS的网络模型主要是由映射层的权重Wee,增强层的权重Whh和输出层的权重Wm组成,由于训练时无需反向传播,所以训练时间很短。另外,BLS处理大数据时能提供类似迁移学习的增量学习,主要针对增量增强节点,增量特征节点和增量输入数据。增量学习避免了数据的重新训练,极大节省了训练时间。
二、特征提取
本实施例利用BLS架构对两相流图像进行流型辨识,在原BLS网络的基础上增加了特征可以进一步提高识别准确率。下面介绍三种不同的特征以及它们的提取方法。
区域块个数
获取区域块的数量是判断管道堵塞的一个重要指标。在此,采用两相流的二值图像基于Opencv库获取管道内目标区域块的个数。
区域块的圆形度
区域块形状复杂性可通过形状系数描述。如层流的圆形度系数较小,泡状流的圆形度系数较大。
ff=4π·S/C2 (8)
其中,S表示区域块的面积,C表示区域块的周长。
区域块的重心
重心是反映区域块的位置信息。如层流的重心位置靠近管道的底部,环流的重心一般位于中心位置附近。在此,采用两相流截面的二值图像基于矩的方式计算区域块的重心位置。
Figure GDA0003801319800000111
Figure GDA0003801319800000112
Figure GDA0003801319800000113
Figure GDA0003801319800000114
其中,M00为图像块白色区域的面积。v(i,j)表示二值图像上的白色区域像素值。(i,j)为图像上的坐标;M10和M01分别表示二值图像上白色区域x方向和y方向上的坐标值的累加;(xc,yc)为重心坐标。
三、提出方法
对训练集和测试集提取的三种特征,区域块的个数、圆形度和重心坐标,分别用P1,P2,P3表示。将它们合并后得P=[P1 P2 P3],其中,P1,P2,P3分别是d×1,d×q,d×2q的矩阵,d是样本集个数,q的值等于待分类别数。q的值等于待分类别数。本实施例的类别数是6,则设置q=6。
P2,P3采用“补0”原则。若第i个样本计算出的P(i)=[P1 (i) P2 (i) P3 (i)],P2 (i)中前面位置存放该样本对应圆形度的计算值,剩余位置补0;P3 (i)中前面位置存放重心坐标的计算值,剩余位置补0。
如图2所示,对BLS映射层扩增“特征节点”,映射层的输出与特征矩阵P组合成一个新的矩阵[Z|P]。对P归一化后,BLS的增强层的输入也为[Z|P],则
H*=ξ([Z|P]Whh) (13)
Y*=[Z|P|H*]Wm=A*Wm (14)
其中,H*是增强层的输出;A*=[Z|P|H*],是输出层的输入。
在BLS架构的基础上加入额外的特征,为识别准确度提供了保证。并且由于额外特征的数据量少,几乎不会影响训练速度。
四、仿真与实验
数据集
本实施例的数据集模拟ECT重建管道2维截面图像,每一个样本图像的大小为64×64pixels。流型共6类,分别是单泡流、双泡流、三泡流、四泡流、层流和环流。数据集包括训练集、训练集标签、测试集和测试集标签,训练集总共3000张,其中不同类别各500张;测试集总共500张,其中不同类别各100张。部分训练集如图3所示。
将样本图像的像素压缩为32×32pixels后,逐行排列成1×1024的行向量,即训练集是一个3000×1024的矩阵,测试集是一个500×1024的矩阵。训练集标签、测试集标签分别是3000×6、500×6的矩阵,标签矩阵的元素为0和1,行对应不同样本,列对应不同类别,例如第i行第j列的元素为1表示第i个样本属于第j类别。
提取的特征
基于第二部分提出的三个特征,在此采用ECT重建后的二值图像,提取三个特征。图4所示为层流的一个样本。该图像的大小为64x64pixels。区域块为1,重心坐标为(31,45),圆形度为0.5344。从该样本可以看出层流图像的重心偏下,圆形度较小。
对比实验
为了验证额外特征对BLS网络流型辨识的影响,本实施例做了三组对比实验,分别是BLS网络训练数据、一个特征与BLS网络的组合训练数据、三个特征与BLS网络的组合训练数据。实验环境为Intel(R)Core(TM)i5-8300H CPU@2.30GHz,64位操作系统。
BLS网络的训练结果
调整BLS网络的特征节点个数和增强节点个数,训练准确率、测试准确率和训练时间如表1所示。
表1.BLS网络结果
Figure GDA0003801319800000131
分别设置特征节点和增强节点为200和2000个,将训练集数据输入BLS网络后得到训练准确率为99.57%,训练时间是0.5787s;将测试集数据输入BLS网络后得到测试准确率为66.96%。
在表1中,将特征节点个数设置为200个,随着增强节点个数的增加,测试准确率小幅度提高。将增强节点个数固定为10000个,随着特征节点个数的增加,测试集准确率小幅度下降。这表明BLS的增强层很大程度上影响着训练结果。由于BLS增强层的激活函数是tansig(·),故其具有拟合非线性函数的能力,这也是BLS网络的核心功能。
BLS网络的训练准确率接近100%,测试准确率较低,这是典型的过拟合现象。BLS网络出现过拟合现象的可能原因有2点:
(1)映射层是一个直接地线性变换系统,它提取的特征表现力不足或者提取特征少;
(2)增强层参数过多,过度拟合了训练集,导致模型在测试集上表现不佳。
特征与BLS网络组合的训练结果
单独的BLS网络对两相流数据集的分类结果较差的主要原因是网络架构的局限性,特征提取能力不足。该小节分别将额外提取的特征,区域块个数P1、区域块的圆形度P2、区域块的重心坐标P3,与BLS映射层的“特征节点”组合,该网络对两相流数据集的分类结果如表2所示。
分别设置特征节点和增强节点为200和2000个。当特征P1与BLS的“特征节点”组合时,测试集准确率为76.73%,训练时间为0.6187s;当特征P2与“特征节点”组合时,测试集准确率为97.13%,训练时间为0.6754s;当特征P3与“特征节点”组合时,测试集准确率为98.35%,训练时间为0.7246s。
表2.一个额外特征加入BLS网络的结果
Figure GDA0003801319800000151
将三个额外特征,区域块个数P1、区域块的圆形度P2、区域块的重心坐标P3,合并为P=[P1 P2 P3],将P与BLS映射层的“特征节点”组合,其对两相流数据集的辨识结果如表3所示。
分别设置特征节点和增强节点为200和2000个,将训练集数据输入BLS网络后得到训练准确率为99.68%,训练时间是0.6083s;将测试集数据输入BLS网络后得到测试准确率为66.54%。
表3.三个额外特征加入BLS网络的结果
Figure GDA0003801319800000152
表2的结果表明特征P1对BLS网络有一定的提高,但效果不显著;特征P2,P3对BLS网络的提高效果显著,测试集准确率较高。表3的结果表明特征P1、P2、P3共同作用的情况下,测试准确率接近100%。加入额外特征的BLS网络的训练时间与单独BLS网络的训练时间相差无几,几乎不影响训练速度。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的实施方法,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (1)

1.一种ECT两相流基于宽度学习的流型识别方法,其特征在于,包括以下步骤:
步骤一、BLS模型的建立;
首先,输入数据通过稀疏化的权重映射为“特征节点”,这些“特征节点”就组成了映射层;其次,映射层的输出作为增强层的输入,通过“增强节点”激活后输出;最后,将映射层的输出和增强层输出融合作为网络的输入矢量,直接连接到输出端,对应的权重由Moore-Penrose广义逆求出;
公式如下:
映射层:Z=φ(XWee) (1)
增强层:H=ξ(ZWhh) (2)
输出层:Y=[Z|H]Wm (3)
其中,X是输入数据;Y是已知的标签数据;φ(XWee)是恒等映射函数;ξ(ZWhh)是tansig激活函数,
Figure FDA0003805759320000011
We,Wh和Wm是权重;βe和βh是偏置;Z和H分别是映射层和增强层的输出;
设输入数据为Xm×n,m是训练集个数,n是像素个数,给Xm×n加入一列常数元素变为Xm×(n+1),对式(1)简写为,
Z=φ(XWee) (4)
其中,Wee是随机生成的(n+1)×N1的权重矩阵,N1是映射层的“特征节点”个数;为了有效地减少新生“特征节点”的线性相关度,需要对Wee稀疏化处理;
映射层的输出
Figure FDA0003805759320000012
作为增强层的输入,同理,式(2)可简写为,
H=ξ(ZWhh) (5)
其中,Whh是随机生成的N1×N2的权重矩阵,N2是增强层的“增强节点”个数;并对Whh标准正交基化以提高增强层提取特征能力;融合映射层和增强层输出的特征得到
Figure FDA0003805759320000021
Figure FDA0003805759320000022
与标签数据Y直接建立映射得到式(3);为了求解输出层的权重Wm,建立式(3)的最优化方程,
Figure FDA0003805759320000023
其中,λ是接近于0的参数;为了防止模型过拟合,采用了l2范数的正则化方法;
求解权重Wm,也就是求解Moore-Penrose广义逆,
Wm=(ATA+λI)-1ATY (7)
BLS的网络模型包括:映射层的权重Wee,增强层的权重Whh和输出层的权重Wm
步骤二、特征提取;
包括特征:区域块个数、区域块的圆形度和区域块的重心;
区域块个数,采用两相流的二值图像基于Opencv库获取管道内目标区域块的个数;
区域块的圆形度,区域块形状复杂性通过形状系数描述,公式如下:
ff=4π·S/C2 (8)
其中,S表示区域块的面积,C表示区域块的周长;
区域块的重心,采用两相流截面的二值图像基于矩的方式计算区域块的重心位置;
Figure FDA0003805759320000024
Figure FDA0003805759320000025
Figure FDA0003805759320000026
Figure FDA0003805759320000031
其中,M00为图像块白色区域的面积;v(i,j)表示二值图像上的白色区域像素值;(i,j)为图像上的坐标;M10和M01分别表示二值图像上白色区域x方向和y方向上的坐标值的累加;(xc,yc)为重心坐标;
步骤三、提出方法;
对训练集和测试集提取的三种特征,区域块的个数、圆形度和重心坐标,分别用P1,P2,P3表示;将它们合并后得P=[P1 P2 P3],其中,P1,P2,P3分别是d×1,d×q,d×2q的矩阵,d是样本集个数,q的值等于待分类别数;
P2,P3采用“补0”原则;若第i个样本计算出的
Figure FDA0003805759320000032
Figure FDA0003805759320000033
中前面位置存放该样本对应圆形度的计算值,剩余位置补0;
Figure FDA0003805759320000034
中前面位置存放重心坐标的计算值,剩余位置补0;
对BLS映射层扩增“特征节点”,映射层的输出与特征矩阵P组合成一个新的矩阵[Z|P];对P归一化后,BLS的增强层的输入也为[Z|P],则
H*=ξ([Z|P]Whh) (13)
Y*=[Z|P|H*]Wm=A*Wm (14)
其中,H*是增强层的输出;A*=[Z|P|H*],是输出层的输入;
步骤四,数据集建立;
数据集模拟ECT重建管道2维截面图像,每一个样本图像的大小为64×64pixels;流型共6类,分别是单泡流、双泡流、三泡流、四泡流、层流和环流;数据集包括训练集、训练集标签、测试集和测试集标签,训练集总共3000张,其中不同类别各500张;测试集总共500张,其中不同类别各100张;
将样本图像的像素压缩为32×32pixels后,逐行排列成1×1024的行向量,即训练集是一个3000×1024的矩阵,测试集是一个500×1024的矩阵;训练集标签、测试集标签分别是3000×6、500×6的矩阵,标签矩阵的元素为0和1,行对应不同样本,列对应不同类别;
步骤五,提取特征;
采用步骤二中的特征提取方法,对步骤四中的数据集进行特征提取。
CN201911026269.6A 2019-10-25 2019-10-25 一种ect两相流基于宽度学习的流型识别方法 Active CN110826570B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911026269.6A CN110826570B (zh) 2019-10-25 2019-10-25 一种ect两相流基于宽度学习的流型识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911026269.6A CN110826570B (zh) 2019-10-25 2019-10-25 一种ect两相流基于宽度学习的流型识别方法

Publications (2)

Publication Number Publication Date
CN110826570A CN110826570A (zh) 2020-02-21
CN110826570B true CN110826570B (zh) 2022-09-27

Family

ID=69550663

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911026269.6A Active CN110826570B (zh) 2019-10-25 2019-10-25 一种ect两相流基于宽度学习的流型识别方法

Country Status (1)

Country Link
CN (1) CN110826570B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111914A (zh) * 2021-03-12 2021-07-13 浙江工业大学 一种基于全局采样子图的图宽度学习分类方法及系统
CN112949749B (zh) * 2021-03-25 2023-08-25 辽宁科技大学 一种面向不平衡钢卷外形缺陷数据的分类方法
CN116403078A (zh) * 2023-06-09 2023-07-07 深圳市金大智能创新科技有限公司 基于机器人的广泛学习的中大规模图像识别集成学习模型

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734301A (zh) * 2017-06-29 2018-11-02 澳门大学 一种机器学习方法和机器学习装置
CN109615008A (zh) * 2018-12-11 2019-04-12 华中师范大学 基于堆叠宽度学习的高光谱图像分类方法和系统
CN109858501A (zh) * 2019-02-20 2019-06-07 云南农业大学 一种两相流流型特征提取方法
CN110209825A (zh) * 2019-06-17 2019-09-06 大连海事大学 一种基于宽度学习系统的快速网络表征学习算法
CN110288088A (zh) * 2019-06-28 2019-09-27 中国民航大学 基于流形正则化和宽度网络的半监督宽度学习分类方法
CN110334775A (zh) * 2019-07-12 2019-10-15 广东工业大学 一种基于宽度学习的无人机线路故障识别方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734301A (zh) * 2017-06-29 2018-11-02 澳门大学 一种机器学习方法和机器学习装置
CN109615008A (zh) * 2018-12-11 2019-04-12 华中师范大学 基于堆叠宽度学习的高光谱图像分类方法和系统
CN109858501A (zh) * 2019-02-20 2019-06-07 云南农业大学 一种两相流流型特征提取方法
CN110209825A (zh) * 2019-06-17 2019-09-06 大连海事大学 一种基于宽度学习系统的快速网络表征学习算法
CN110288088A (zh) * 2019-06-28 2019-09-27 中国民航大学 基于流形正则化和宽度网络的半监督宽度学习分类方法
CN110334775A (zh) * 2019-07-12 2019-10-15 广东工业大学 一种基于宽度学习的无人机线路故障识别方法和装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
《A CNN-Based Broad Learning System》;Fan Yang;《2018 IEEE 4th International Conference on Computer and Communications (ICCC)》;20190801;全文 *
《Broad Learning System: An Effective and Efficient Incremental Learning System Without the Need for Deep Architecture》;C.L.Philip Chen,Zhulin Liu;《 IEEE Transactions on Neural Networks and Learning Systems 》;20170721;全文 *
《基于宽度学习方法的多模态信息融合》;贾晨,刘华平,续欣莹,孙富春;《智能系统学报》;20190131;全文 *

Also Published As

Publication number Publication date
CN110826570A (zh) 2020-02-21

Similar Documents

Publication Publication Date Title
CN110826570B (zh) 一种ect两相流基于宽度学习的流型识别方法
Han et al. Deep residual learning for compressed sensing CT reconstruction via persistent homology analysis
CN110992270A (zh) 基于注意力的多尺度残差注意网络图像超分辨率重建方法
Li et al. Deep convolutional neural networks for detecting secondary structures in protein density maps from cryo-electron microscopy
Liu et al. Fg-net: A fast and accurate framework for large-scale lidar point cloud understanding
CN101140216A (zh) 基于数字图像处理技术的气液两相流流型识别方法
Matuszewski et al. Minimal annotation training for segmentation of microscopy images
Guan et al. Medical image enhancement method based on the fractional order derivative and the directional derivative
Fabijańska et al. Graph convolutional networks for enhanced resolution 3D Electrical Capacitance Tomography image reconstruction
Deshpande et al. Super resolution and recognition of long range captured multi‐frame iris images
Georgakopoulos et al. Pose recognition using convolutional neural networks on omni-directional images
CN111160225A (zh) 基于深度学习的人体解析方法和装置
CN108376393B (zh) 一种面向高速直线运动对象的模糊图像盲复原方法
Zhu et al. Deep image refinement method by hybrid training with images of varied quality in electrical capacitance tomography
CN110991563B (zh) 一种基于特征融合的胶囊网络随机路由方法
Easom-McCaldin et al. Efficient quantum image classification using single qubit encoding
Dou et al. Object-based visual saliency via laplacian regularized kernel regression
Hammad et al. Efficient multimodal deep-learning-based COVID-19 diagnostic system for noisy and corrupted images
Lu et al. Dynamic spatio-temporal graph convolutional networks for cardiac motion analysis
Hua et al. Dynamic scene deblurring with continuous cross-layer attention transmission
Hu et al. Online recognition of magnetic tile defects based on UPM-DenseNet
CN111401209B (zh) 一种基于深度学习的动作识别方法
Tang et al. Electrical resistance tomography image reconstruction based on one-dimensional multi-branch convolutional neural network combined with attention mechanism
Amrogowicz et al. An edge detection method using outer Totalistic Cellular Automata
Zhang et al. Lesion detection of computed tomography and magnetic resonance imaging image based on fully convolutional networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant