CN114202653A - 一种基于全卷积神经网络的两相流混合图像分割的方法 - Google Patents
一种基于全卷积神经网络的两相流混合图像分割的方法 Download PDFInfo
- Publication number
- CN114202653A CN114202653A CN202111412740.2A CN202111412740A CN114202653A CN 114202653 A CN114202653 A CN 114202653A CN 202111412740 A CN202111412740 A CN 202111412740A CN 114202653 A CN114202653 A CN 114202653A
- Authority
- CN
- China
- Prior art keywords
- gas
- liquid
- phase flow
- layer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005514 two-phase flow Effects 0.000 title claims abstract description 69
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 22
- 238000003709 image segmentation Methods 0.000 title claims abstract description 20
- 239000007788 liquid Substances 0.000 claims abstract description 91
- 238000007781 pre-processing Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 11
- 230000008569 process Effects 0.000 claims abstract description 10
- 238000003860 storage Methods 0.000 claims abstract description 5
- 239000012071 phase Substances 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000011176 pooling Methods 0.000 claims description 13
- 238000011068 loading method Methods 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 8
- 239000007791 liquid phase Substances 0.000 claims description 7
- 230000006872 improvement Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 239000011800 void material Substances 0.000 claims description 6
- 238000005094 computer simulation Methods 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000005520 cutting process Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 230000017105 transposition Effects 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 2
- 230000008676 import Effects 0.000 claims 1
- 230000011218 segmentation Effects 0.000 abstract description 16
- 230000000694 effects Effects 0.000 abstract description 8
- 238000012360 testing method Methods 0.000 abstract description 3
- 239000007789 gas Substances 0.000 description 8
- 230000009466 transformation Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 238000010310 metallurgical process Methods 0.000 description 2
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000003546 flue gas Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于全卷积神经网络(FullConvolutionalNetworks,FCN)的气‑液两相流图像分割方法,属于两相流测试领域。其实现步骤为:(1)输入两相流混合图像;(2)对图像进行预处理;(3)使用改进的FCN网络对两相流图像进行语义分割。该方法将两相流图像进行像素到像素的预测和端到端的训练,可以获得任意大小的两相流图像分割结果,分割过程中因避免了由于使用像素块而带来的重复存储和计算卷积的问题使得计算效率更加高效。本发明适应所有涉及两相流和多相流混合图像的分割,该方法分割效果好、速度快,具有很高的实用价值。
Description
技术领域
本发明属于两相流测试领域,具体涉及一种基于全卷积神经网络的两相流混合图像分割的方法。
背景技术
在冶金工业中,冶金炉窑中的高温流体(如金属熔体,高温烟气等)多相流动参数是影响冶金工艺的一个重要因素,它不仅关系到冶金反应的效率,还决定着冶金炉窑的安全使用寿命。冶金炉窑内部的冷热流体混合特性与由直接接触产生的传热特性存在密切关联,然而由于炉窑内部温度过高、环境复杂,对高温熔池内部搅拌混合效果的直接研究难度一直较大。近年来,图像处理技术作为一门新兴的检测技术,在两相流参数检测领域具有不干扰流场的优点,可以直接获得流动图像的分布状态,应用广泛,前景良好。对图像中气泡的分割效果将直接决定气泡特征参数的精度。因此,气泡的准确分割对于气液混合效果的评价和冶金炉窑的优化设计和改进具有非常重要的经济意义。
气液混合图像分割是通过一定手段将气液图像划分为气相和液相不重叠子区域的过程。气液图像中液体背景噪声比较大,并且部分气泡出现内部亮度不均匀和气液边界模糊等问题,应用传统的分割方法对气液图像进行分割时,一方面会产生过分割或者欠分割现象;另一方面需要根据不同的气液图像确定相应参数才能得到比较好的分割效果。目前,基于全卷积神经网络的语义分割方法是从图像数据中自动学习特征,利用全卷积神经网络实现像素到像素、端到端的语义分割预测,有效克服了气液图像噪声大、气泡内部不均匀以及气液边界模糊对气泡分割的不利影响,解决了过分割和欠分割的问题,减弱了对参数的依赖性,并且可以实现对气相和液相精准化和智能化分割。
发明内容
本发明的目的在于针对现有气液图像分割技术的不足,提出了一种易实现、精确度高并且收敛速度快的气液两相流图象分割方法,能够高效、精准地分割出气泡,从而为冶金过程中气液两相的智能化精准分割提供科学方法,智能化的分割技术具有非常高的应用价值;
为了达到上述技术效果,本发明是通过以下技术方案实现的:一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,包括以下步骤:
S1:准备气液两相流图像数据集;对图片预处理;
S2:设定全卷积神经网络(Fully Convolutional Networks,FCN)的模型结构;基于编码器-解码器的结构改进的全卷积神经网络FCN模型,包括在编码器部分加入批量归一化(Batch Normalization,BN)层,在解码器部分的跳层连接部分加入更浅层的信息,将上采样方法由转置卷积改为双线性插值,在编码器和解码器之间加入空洞空间金字塔(ASPP)模块;
S3:确定损失函数;使用二元交叉熵作为损失函数:
其中y是二进制标签0或1,p(y)是概率密度函数;
S4:采用Adam优化器确定优化器;通过服务器性能确定超参数batch size和epochs的值;确定每个epoch中batch的数量参数n;
S5:初始化各层权值矩阵;对需要更新的权值矩阵进行正态分布初始化;
S6:数据增强;确定增强参数,设置以下增强参数:旋转范围为0-0.2、平移范围为0-0.05、剪裁范围为0-0.05、缩放范围为0-0.05;用临近插值算法按照S4选定的批量数(batch size)不断地产生训练用的batch,共产生n个batch;
S7:向前传播;一个batch输入深度神经网络模型,进行向前传播,每层的输出由其参数和输入确定,层层传递得到最终输出的预测值;
S8:计算预测损失;通过(1)式中的损失函数计算此次预测的损失;
S9:反向传播;当通过前向传播得到由任意一组随机参数计算出的网络预测结果后,利用损失函数的信息通过网络向后流动,计算出每个参数的梯度;
S10:更新权值矩阵;根据S9反向传播得到的梯度值,通过梯度下降算法计算出更新后的权值矩阵;
S11:重复S8至S10,训练模型的权值矩阵,直至所有的epoch都完成了训练;将训练好的深度神经网络模型储存为ckpt文件;
S12:输入待分割的气液两相流图像;搜集使用高速摄像机拍摄的气液两相流图像,并作为系统的输入;
S13:预处理待分割的两相流图像,处理过程与S1预处理相同;
S14:加载训练好的改进FCN模型;
S15:气液两相流图像分割输出;输入气液两相流图像,通过训练好的FCN模型,预测出分割好的气液两相流图像,其中液相为黑色,气相为白色;
S16:获取训练好的FCN模型文件保存在存储设备中,同时加载模型二进制文件到内存中。
优选的,所述S1中气液两相流图像数据集的准备方法为:
使用计算机模拟产生的气液图像分割数据集,该数据集包含气液图像以及已经标注的气液两相的形状和位置;
优选的,所述S1中气液两相流图像数据集的准备方法为:
拍摄真实的气液两相流的视频,并从视频中获取气液两相的照片,组成气液两相流图片数据集;使用带约束的Dirichlet过程混合模型(the constrained Dirichletprocess mixture model,CDPMM)对每张气液两相流照片标注气液两相的形状和位置,选出气相的形状和位置作为图像样本标签;
优选的,所述图像样本标签的选取方法采用以下3个步骤予以实现:
1)确定关联的样本组;设定组的索引为l,组的总数量为L,Zl表示相对应部分分配到第l个关联组,则变分分布(CDPMM)的表达式为:
2)定义
则目标函数F设定为
通过迭代更新(2)中的每个部分,使用CAVI算法最小化函数F,直到F收敛为止;
3)设定
Zl就是每一组Xl的聚类标签。
优选的,所述S2中改进的FCN模型的编码器包括5个模块,前两个模块分别包括两个卷积层和一个池化层,每个卷积层后都加入了BN层,后三个模块分别包括三个卷积层和一个池化层,每个卷积层后也都加入了BN层;
优选的,所述S2中在编码器和解码器之间添加了密集空洞空间金字塔池化(Atrous spatial pyramid pooling,ASPP)模块,并删除了原FCN模型中编码器和解码器之间的两个1×1卷积层;ASPP模块使用一个1×1卷积、三个3×3卷积和一个平均池来获得多尺度特征;然后,通过对串接的特征进行1×1卷积得到输出;此外,通过加入一个dropout层来抑制过度拟合;与编码器相同,在ASPP模块中的每个卷积层之后都加入了BN层;
优选的,所述S2中改进的FCN模型的解码器包括5次上采样和四次跳层链接,每次跳层链接都将编码器部分的相应浅层信息导入到解码器部分;
优选的,所述S14中加载训练好的改进FCN模型的步骤为:
1)根据传入的文件名称,找到已经训练好的FCN模型文件;
2)读取FCN模型文件到内存;
3)使用加载的模型文件中的参数对输入的气液两相流图像进行预测。
本发明的有益效果是:
提出新的无监督分割图像方法,实现两相流和多相流图像中每一相的智能、高效、精准分割。这种方法在实际的冶金应用中是非常有意义的,能够有效解决FCN模型训练时图像样本打标签难的问题。
附图说明
图1是本发明方法流程图;
图2是本发明基于FCN模型的语义分割图;
图3是本发明在DeepLabV3+语义分割中的ASPP结构图;
图4是本发明FCN模型原理图;
图5是本发明ASPP示意图。
具体实施方式
为了对本发明的方案及效果做出清楚完整的描述,通过以下实施例进行详细说明。
实施例1
一种基于全卷积神经网络的气液两相图像分割方法具体包括以下步骤:
步骤1:准备气液两相流图像数据集;具体采用步骤101或步骤102的方案:
步骤101:使用计算机模拟产生的气液图像分割数据集,该数据集包含气液图像以及已经标注的气液两相的形状和位置;
步骤102:拍摄真实的气液两相流的视频,并从视频中获取气液两相的照片,组成气液两相流图片数据集;使用带约束的Dirichlet过程混合模型(the constrainedDirichlet process mixture model,CDPMM)对每张气液两相流照片标注气液两相的形状和位置。
优选地,步骤102包括以下实现过程:
步骤1021:确定关联的样本组;设定组的索引为l,组的总数量为L,Zl表示相对应部分分配到第l个关联组,则变分分布(CDPMM)的表达式为:
步骤1022:定义
则目标函数F设定为
通过迭代更新(2)中的每个部分,使用CAVI算法最小化函数F,直到F收敛为止;
步骤1023:设定
Zl就是每一组Xl的聚类标签。
通过步骤1021、1022和1023就可以给气液两相流照片标注气液两相的形状和位置;
步骤2:对图片预处理;图片的预处理包括对图像进行统一缩放和剪裁,如统一尺寸为515×512像素大小,并对得到的图像进行灰度变换、高帽(低帽)变换和均值滤波变换;
步骤3:设定全卷积神经网络(Fully Convolutional Networks,FCN)的模型结构,如图4所示;基于编码器-解码器的结构改进的全卷积神经网络FCN模型,包括在编码器部分加入批量归一化(Batch Normalization,BN)层,在解码器部分的跳层连接部分加入更浅层的信息,将上采样方法由转置卷积改为双线性插值,在编码器和解码器之间加入空洞空间金字塔(ASPP)模块;
步骤301:改进的FCN模型的编码器包括5个模块,前两个模块分别包括两个卷积层和一个池化层,每个卷积层后都加入了BN层,后三个模块分别包括三个卷积层和一个池化层,每个卷积层后也都加入了BN层;
步骤302:在编码器和解码器之间添加了密集空洞空间金字塔池化(Atrousspatial pyramid pooling,ASPP)模块,并删除了原FCN模型中编码器和解码器之间的两个1×1卷积层。ASPP模块使用一个1×1卷积、三个3×3卷积和一个平均池来获得多尺度特征。然后,通过对串接的特征进行1×1卷积得到输出。此外,通过加入一个dropout层来抑制过度拟合。与编码器相同,在ASPP模块中的每个卷积层之后都加入了BN层。
步骤303:改进的FCN模型的解码器包括5次上采样和四次跳层链接,每次跳层链接都将编码器部分的相应浅层信息导入到解码器部分;
步骤4:确定损失函数;使用二元交叉熵作为损失函数:
其中,其中y是二进制标签0或1,p(y)是概率密度函数;
步骤5:确定优化器;采用Adam优化器;
步骤6:确定超参数;通过服务器性能确定超参数batch size和epochs的值;确定每个epoch中batch的数量参数n;
步骤7:初始化各层权值矩阵;对需要更新的权值矩阵进行正态分布初始化;
步骤8:数据增强;确定增强参数,设置以下增强参数:旋转范围为0-0.2、平移范围为0-0.05、剪裁范围为0-0.05、缩放范围为0-0.05;用临近插值算法按照步骤六选定的批量数(batch size)不断地产生训练用的batch,共产生n个batch;
步骤9:向前传播;一个batch输入深度神经网络模型,进行向前传播,每层的输出由其参数和输入确定,层层传递得到最终输出的预测值;
步骤10:计算预测损失;通过(1)式中的损失函数计算此次预测的损失;
步骤11:反向传播;当通过前向传播得到由任意一组随机参数计算出的网络预测结果后,利用损失函数的信息通过网络向后流动,计算出每个参数的梯度;
步骤12:更新权值矩阵;根据步骤11反向传播得到的梯度值,通过梯度下降算法计算出更新后的权值矩阵;
步骤13:重复步骤10至步骤12,训练模型的权值矩阵,直至所有的epoch都完成了训练;
步骤14:将训练好的深度神经网络模型储存为ckpt文件;
步骤15:输入待分割的气液两相流图像;搜集使用高速摄像机拍摄的气液两相流图像,并作为系统的输入;
步骤16:预处理待分割的两相流图像,处理过程与步骤2相同;
步骤17:加载训练好的改进FCN模型,其步骤为:
步骤1701:根据传入的文件名称,找到已经训练好的FCN模型文件;
步骤1702:读取FCN模型文件到内存;
步骤1703:使用加载的模型文件中的参数对输入的气液两相流图像进行预测;
步骤18:气液两相流图像分割输出;输入气液两相流图像,通过训练好的FCN模型,预测出分割好的气液两相流图像,其中液相为黑色,气相为白色;
步骤19:获取训练好的FCN模型文件保存在存储设备中,同时加载模型二进制文件到内存中。
实施例2
在上述实施例的基础上,结合图1至图5,进一步说明本发明基于全卷积神经网络的气液两相流气泡图像分割方法包括以下步骤:
步骤1:准备气液两相流图像数据集;具体采用步骤101或步骤102的方案:
步骤101:使用计算机模拟产生的气液图像分割数据集,该数据集包含气液图像以及已经标注的气液两相的形状和位置;
步骤102:拍摄真实的气液两相流的视频,并从视频中获取气液两相的照片,组成气液两相流图片数据集;使用带约束的Dirichlet过程混合模型(the constrainedDirichlet process mixture model,CDPMM)对每张气液两相流照片标注气液两相的形状和位置。
步骤2:对图片预处理;图片的预处理包括对图像进行统一缩放和剪裁,如统一尺寸为515×512像素大小,并对得到的图像进行灰度变换、高帽(低帽)变换和均值滤波变换;
步骤3:设定全卷积神经网络(Fully Convolutional Networks,FCN)的模型结构,如图4所示;基于编码器-解码器的结构改进的全卷积神经网络FCN模型,包括在编码器部分加入批量归一化(Batch Normalization,BN)层,在解码器部分的跳层连接部分加入更浅层的信息,将上采样方法由转置卷积改为双线性插值,在编码器和解码器之间加入空洞空间金字塔(ASPP)模块;
具体的,如图4所示,编码器由输入层,编码层-1至编码层-5组成,其中输入层至编码层-5与如图2所示的FCN模型的输入层至编码层-5对应。
具体的,如图4所示,解码器由解码层-1至解码层5和输出层组成。
具体的,如图5所示,空洞空间金字塔模块由多尺度信息获取模块和卷积模块两部分组成,其结构与如图3所示的deeplabv3+的ASPP模块类似。
进一步而言,如图4所示,编码层-1和编码层-2分别包含两个3×3的same卷积层,两个BN层,一个两倍下采样的最大池化层和一个作为跳层连接的3×3的same卷积层;编码器-3和编码器-4分别包含三个3×3的same卷积层,三个BN层,一个两倍下采样的最大池化层和一个作为跳层连接的3×3的same卷积层;编码器-5包含三个3×3的same卷积层,三个BN层和一个两倍下采样的最大池化层;编码层-5的输出将直接输入到空洞空间金字塔模块。
进一步而言,如图4所示,解码层-1包含一个1×1卷积模块和一个双线性插值上采样模块;解码层-2至解码层-5分别包含一个双线性插值上采样模块,一个卷积模块和一个用于跳层连接的求和模块。
进一步而言,如图5所示,空洞空间金字塔模块通过不同卷积核和上下采样多个模块获得多尺度信息,使用的模块包括一个1×1卷积模块,一个3×3扩张率为6的空洞same卷积,一个3×3扩张率为12的空洞same卷积,一个3×3扩张率为18的空洞same卷积,以及一个两倍平均池化下采样和两倍双线性插值上采样模块。通过连接的方式综合多尺度信息,并用一个1×1卷积获得输出。
进一步而言,如图4所示,输出层包括一个1×1卷积层和一个softmax分类器,其中softmax分类器的公式如下:
其中,p表示同一通道中像素的序号,p=1,…,P,输入张量的通道数为C此时输入的张量的大小表示为P×P×C,xp表示输入张量中第p个像素在所有通道上的信号,θ表示权重。分母表示每个像素都有n种可能分类,并计算了所有信号在所有分类的加权的指数和。ypk表示该像素点属于第k种分类的概率。
步骤4:确定损失函数;使用二元交叉熵作为损失函数,其计算公式为公式(1);
其中,其中y是二进制标签0或1,p(y)是概率密度函数;
步骤5:确定优化器;采用Adam优化器;
步骤6:确定超参数;通过服务器性能确定超参数batch size和epochs的值;确定每个epoch中batch的数量参数n;
步骤7:初始化各层权值矩阵;对需要更新的权值矩阵进行正态分布初始化;
步骤8:数据增强;确定增强参数,设置以下增强参数:旋转范围为0-0.2、平移范围为0-0.05、剪裁范围为0-0.05、缩放范围为0-0.05;用临近插值算法按照步骤六选定的批量数(batch size)不断地产生训练用的batch,共产生n个batch;
步骤9:向前传播;一个batch输入深度神经网络模型,进行向前传播,每层的输出由其参数和输入确定,层层传递得到最终输出的预测值;
步骤10:计算预测损失;通过(1)式中的损失函数计算此次预测的损失;
步骤11:反向传播;当通过前向传播得到由任意一组随机参数计算出的网络预测结果后,利用损失函数的信息通过网络向后流动,计算出每个参数的梯度;
步骤12:更新权值矩阵;根据步骤11反向传播得到的梯度值,通过梯度下降算法计算出更新后的权值矩阵;
步骤13:重复步骤10至步骤12,训练模型的权值矩阵,直至所有的epoch都完成了训练;
步骤14:将训练好的深度神经网络模型储存为ckpt文件;
步骤15:输入待分割的气液两相流图像;搜集使用高速摄像机拍摄的气液两相流图像,并作为系统的输入;
步骤16:预处理待分割的两相流图像,处理过程与步骤2相同;
步骤17:加载训练好的改进FCN模型,其步骤为:
步骤1701:根据传入的文件名称,找到已经训练好的FCN模型文件;
步骤1702:读取FCN模型文件到内存;
步骤1703:使用加载的模型文件中的参数对输入的气液两相流图像进行预测;
步骤18:气液两相流图像分割输出;输入气液两相流图像,通过训练好的FCN模型,预测出分割好的气液两相流图像,其中液相为黑色,气相为白色;
步骤19:获取训练好的FCN模型文件保存在存储设备中,同时加载模型二进制文件到内存中。
实施例3
在上述实施例的基础上,本发明通过以下两种数据评估改进FCN模型的性能,一种是基于计算机模拟产生的数据集,另一种是基于水模型实验获得的数据集。
所有的数据分析都是在以下规格的计算机上进行的:
软件环境基于Window 10,编程语言为Python 3.6.7,实验是在Tensorflow 2.0.0和Keras 2.3.1框架上完成的。硬件环境如下:内存为两条3200MHz的8GB内存条,CPU型号为i7-10875h,GPU型号为RTX20608G。
本发明采用随机梯度下降法作为训练的优化算法。超参数值如下:学习率=0.0001,batch size=2,epochs=500。
对于本发明中的两相流图像分割任务,使用以下指标进行评价:准确率(PA)、平均准确率(MPA)、MIoU和FWIoU。其中准确率的公式为(14),平均准确率的公式为(15),MIoU的计算公式为(16),FWIoU的计算公式为(17),其中pij表示第i类的像素被判别为属于第j类的像素的数量。
实验结果如下:
表1 FCN和改进的FCN在模拟数据集上的测试结果
PA | MPA | MIoU | FWIoU | |
FCN--8s | 0.983055 | 0.980336 | 0.951556 | 0.967109 |
改进的FCN | 0.996574 | 0.995089 | 0.990057 | 0.993184 |
如表1所示,相对于图2所示的FCN模型,改进的FCN模型在PA、MPA、MIoU和FMIoU四个指标上都有提升,证明本发明改进的FCN模型在两相流图像分割任务上有更大的优势。
Claims (10)
1.一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,包括以下步骤:
S1:准备气液两相流图像数据集;对图片预处理;
S2:设定全卷积神经网络(Fully Convolutional Networks,FCN)的模型结构;基于编码器-解码器的结构改进的全卷积神经网络FCN模型,包括在编码器部分加入批量归一化(Batch Normalization,BN)层,在解码器部分的跳层连接部分加入更浅层的信息,将上采样方法由转置卷积改为双线性插值,在编码器和解码器之间加入空洞空间金字塔(ASPP)模块;
S3:确定损失函数;使用二元交叉熵作为损失函数:
其中y是二进制标签0或1,p(y)是概率密度函数;
S4:采用Adam优化器确定优化器;通过服务器性能确定超参数batch size和epochs的值;确定每个epoch中batch的数量参数n;
S5:初始化各层权值矩阵;对需要更新的权值矩阵进行正态分布初始化;
S6:数据增强;确定增强参数,设置以下增强参数:旋转范围为0-0.2、平移范围为0-0.05、剪裁范围为0-0.05、缩放范围为0-0.05;用临近插值算法按照S4选定的批量数(batchsize)不断地产生训练用的batch,共产生n个batch;
S7:向前传播;一个batch输入深度神经网络模型,进行向前传播,每层的输出由其参数和输入确定,层层传递得到最终输出的预测值;
S8:计算预测损失;通过(1)式中的损失函数计算此次预测的损失;
S9:反向传播;当通过前向传播得到由任意一组随机参数计算出的网络预测结果后,利用损失函数的信息通过网络向后流动,计算出每个参数的梯度;
S10:更新权值矩阵;根据S9反向传播得到的梯度值,通过梯度下降算法计算出更新后的权值矩阵;
S11:重复S8至S10,训练模型的权值矩阵,直至所有的epoch都完成了训练;将训练好的深度神经网络模型储存为ckpt文件;
S12:输入待分割的气液两相流图像;搜集使用高速摄像机拍摄的气液两相流图像,并作为系统的输入;
S13:预处理待分割的两相流图像,处理过程与S1预处理相同;
S14:加载训练好的改进FCN模型;
S15:气液两相流图像分割输出;输入气液两相流图像,通过训练好的FCN模型,预测出分割好的气液两相流图像,其中液相为黑色,气相为白色;
S16:获取训练好的FCN模型文件保存在存储设备中,同时加载模型二进制文件到内存中。
2.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S1中气液两相流图像数据集的准备方法为:
使用计算机模拟产生的气液图像分割数据集,该数据集包含气液图像以及已经标注的气液两相的形状和位置。
3.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S1中气液两相流图像数据集的准备方法为:
拍摄真实的气液两相流的视频,并从视频中获取气液两相的照片,组成气液两相流图片数据集;使用带约束的Dirichlet过程混合模型(the constrained Dirichlet processmixture model,CDPMM)对每张气液两相流照片标注气液两相的形状和位置。
5.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S2中改进的FCN模型的编码器包括5个模块,前两个模块分别包括两个卷积层和一个池化层,后三个模块分别包括三个卷积层和一个池化层。
6.根据权利要求5所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述卷积层均加入了BN层。
7.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S2中在编码器和解码器之间添加了密集空洞空间金字塔池化(Atrous spatialpyramid pooling,ASPP)模块,并删除了原FCN模型中编码器和解码器之间的两个1×1卷积层;ASPP模块使用一个1×1卷积、三个3×3卷积和一个平均池来获得多尺度特征;然后,通过对串接的特征进行1×1卷积得到输出;此外,通过加入一个dropout层来抑制过度拟合;与编码器相同,在ASPP模块中的每个卷积层之后都加入了BN层。
8.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S2中改进的FCN模型的解码器包括5次上采样和四次跳层链接,每次跳层链接都将编码器部分的相应浅层信息导入到解码器部分。
9.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S14中加载训练好的改进FCN模型的步骤为:
1)根据传入的文件名称,找到已经训练好的FCN模型文件;
2)读取FCN模型文件到内存;
3)使用加载的模型文件中的参数对输入的气液两相流图像进行预测。
10.根据权利要求1-9任一项所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,公开了其在两相流混合图像处理领域的应用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111412740.2A CN114202653A (zh) | 2021-11-25 | 2021-11-25 | 一种基于全卷积神经网络的两相流混合图像分割的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111412740.2A CN114202653A (zh) | 2021-11-25 | 2021-11-25 | 一种基于全卷积神经网络的两相流混合图像分割的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114202653A true CN114202653A (zh) | 2022-03-18 |
Family
ID=80649061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111412740.2A Pending CN114202653A (zh) | 2021-11-25 | 2021-11-25 | 一种基于全卷积神经网络的两相流混合图像分割的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114202653A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116956751A (zh) * | 2023-09-19 | 2023-10-27 | 北京航空航天大学 | 一种基于二进制量化的航空发动机寿命预测方法及系统 |
-
2021
- 2021-11-25 CN CN202111412740.2A patent/CN114202653A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116956751A (zh) * | 2023-09-19 | 2023-10-27 | 北京航空航天大学 | 一种基于二进制量化的航空发动机寿命预测方法及系统 |
CN116956751B (zh) * | 2023-09-19 | 2023-12-12 | 北京航空航天大学 | 一种基于二进制量化的航空发动机寿命预测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112668579A (zh) | 基于自适应亲和力和类别分配的弱监督语义分割方法 | |
CN113807355A (zh) | 一种基于编解码结构的图像语义分割方法 | |
CN109102498B (zh) | 一种宫颈涂片图像中簇型细胞核分割的方法 | |
CN113393370A (zh) | 中国书法文字图像风格迁移的方法、系统、智能终端 | |
CN113393443B (zh) | 一种he病理图像细胞核分割方法及系统 | |
CN110930378B (zh) | 基于低数据需求的肺气肿影像处理方法及系统 | |
CN112598053A (zh) | 基于半监督学习的主动显著性目标检测方法 | |
CN112084859A (zh) | 一种基于稠密边界块和注意力机制的建筑物分割方法 | |
CN115775316A (zh) | 基于多尺度注意力机制的图像语义分割方法 | |
CN117437423A (zh) | 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置 | |
CN113743505A (zh) | 基于自注意力和特征融合的改进ssd目标检测方法 | |
CN115131565A (zh) | 基于半监督学习的组织学图像分割模型 | |
CN115601330A (zh) | 一种基于多尺度空间反向注意力机制的结肠息肉分割方法 | |
CN115861333A (zh) | 基于涂鸦标注的医学图像分割模型训练方法、装置及终端 | |
CN114299305B (zh) | 聚合密集和注意力多尺度特征的显著性目标检测算法 | |
CN117152438A (zh) | 一种基于改进DeepLabV3+网络的轻量级街景图像语义分割方法 | |
CN114202653A (zh) | 一种基于全卷积神经网络的两相流混合图像分割的方法 | |
CN113436115A (zh) | 一种基于深度无监督学习的图像阴影检测方法 | |
CN117787087A (zh) | 机器学习驱动的气液两相流仿真中气泡动态边界重构方法 | |
CN111612803B (zh) | 一种基于图像清晰度的车辆图像语义分割方法 | |
CN117934491A (zh) | 一种基于半监督深度学习的腺体分割方法 | |
CN111914949B (zh) | 基于强化学习的零样本学习模型的训练方法及装置 | |
CN117593275A (zh) | 一种医学图像分割系统 | |
CN110942463B (zh) | 一种基于生成对抗网络的视频目标分割方法 | |
CN116580036A (zh) | 基于Transformer和U-Net融合网络的腹部多器官分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |