CN114202653A - 一种基于全卷积神经网络的两相流混合图像分割的方法 - Google Patents

一种基于全卷积神经网络的两相流混合图像分割的方法 Download PDF

Info

Publication number
CN114202653A
CN114202653A CN202111412740.2A CN202111412740A CN114202653A CN 114202653 A CN114202653 A CN 114202653A CN 202111412740 A CN202111412740 A CN 202111412740A CN 114202653 A CN114202653 A CN 114202653A
Authority
CN
China
Prior art keywords
gas
liquid
phase flow
layer
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111412740.2A
Other languages
English (en)
Inventor
句媛媛
王�华
肖清泰
吴刘仓
崔子良
杨燕
刘冬冬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kunming University of Science and Technology
Original Assignee
Kunming University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kunming University of Science and Technology filed Critical Kunming University of Science and Technology
Priority to CN202111412740.2A priority Critical patent/CN114202653A/zh
Publication of CN114202653A publication Critical patent/CN114202653A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于全卷积神经网络(FullConvolutionalNetworks,FCN)的气‑液两相流图像分割方法,属于两相流测试领域。其实现步骤为:(1)输入两相流混合图像;(2)对图像进行预处理;(3)使用改进的FCN网络对两相流图像进行语义分割。该方法将两相流图像进行像素到像素的预测和端到端的训练,可以获得任意大小的两相流图像分割结果,分割过程中因避免了由于使用像素块而带来的重复存储和计算卷积的问题使得计算效率更加高效。本发明适应所有涉及两相流和多相流混合图像的分割,该方法分割效果好、速度快,具有很高的实用价值。

Description

一种基于全卷积神经网络的两相流混合图像分割的方法
技术领域
本发明属于两相流测试领域,具体涉及一种基于全卷积神经网络的两相流混合图像分割的方法。
背景技术
在冶金工业中,冶金炉窑中的高温流体(如金属熔体,高温烟气等)多相流动参数是影响冶金工艺的一个重要因素,它不仅关系到冶金反应的效率,还决定着冶金炉窑的安全使用寿命。冶金炉窑内部的冷热流体混合特性与由直接接触产生的传热特性存在密切关联,然而由于炉窑内部温度过高、环境复杂,对高温熔池内部搅拌混合效果的直接研究难度一直较大。近年来,图像处理技术作为一门新兴的检测技术,在两相流参数检测领域具有不干扰流场的优点,可以直接获得流动图像的分布状态,应用广泛,前景良好。对图像中气泡的分割效果将直接决定气泡特征参数的精度。因此,气泡的准确分割对于气液混合效果的评价和冶金炉窑的优化设计和改进具有非常重要的经济意义。
气液混合图像分割是通过一定手段将气液图像划分为气相和液相不重叠子区域的过程。气液图像中液体背景噪声比较大,并且部分气泡出现内部亮度不均匀和气液边界模糊等问题,应用传统的分割方法对气液图像进行分割时,一方面会产生过分割或者欠分割现象;另一方面需要根据不同的气液图像确定相应参数才能得到比较好的分割效果。目前,基于全卷积神经网络的语义分割方法是从图像数据中自动学习特征,利用全卷积神经网络实现像素到像素、端到端的语义分割预测,有效克服了气液图像噪声大、气泡内部不均匀以及气液边界模糊对气泡分割的不利影响,解决了过分割和欠分割的问题,减弱了对参数的依赖性,并且可以实现对气相和液相精准化和智能化分割。
发明内容
本发明的目的在于针对现有气液图像分割技术的不足,提出了一种易实现、精确度高并且收敛速度快的气液两相流图象分割方法,能够高效、精准地分割出气泡,从而为冶金过程中气液两相的智能化精准分割提供科学方法,智能化的分割技术具有非常高的应用价值;
为了达到上述技术效果,本发明是通过以下技术方案实现的:一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,包括以下步骤:
S1:准备气液两相流图像数据集;对图片预处理;
S2:设定全卷积神经网络(Fully Convolutional Networks,FCN)的模型结构;基于编码器-解码器的结构改进的全卷积神经网络FCN模型,包括在编码器部分加入批量归一化(Batch Normalization,BN)层,在解码器部分的跳层连接部分加入更浅层的信息,将上采样方法由转置卷积改为双线性插值,在编码器和解码器之间加入空洞空间金字塔(ASPP)模块;
S3:确定损失函数;使用二元交叉熵作为损失函数:
Figure BDA0003374786660000031
其中y是二进制标签0或1,p(y)是概率密度函数;
S4:采用Adam优化器确定优化器;通过服务器性能确定超参数batch size和epochs的值;确定每个epoch中batch的数量参数n;
S5:初始化各层权值矩阵;对需要更新的权值矩阵进行正态分布初始化;
S6:数据增强;确定增强参数,设置以下增强参数:旋转范围为0-0.2、平移范围为0-0.05、剪裁范围为0-0.05、缩放范围为0-0.05;用临近插值算法按照S4选定的批量数(batch size)不断地产生训练用的batch,共产生n个batch;
S7:向前传播;一个batch输入深度神经网络模型,进行向前传播,每层的输出由其参数和输入确定,层层传递得到最终输出的预测值;
S8:计算预测损失;通过(1)式中的损失函数计算此次预测的损失;
S9:反向传播;当通过前向传播得到由任意一组随机参数计算出的网络预测结果后,利用损失函数的信息通过网络向后流动,计算出每个参数的梯度;
S10:更新权值矩阵;根据S9反向传播得到的梯度值,通过梯度下降算法计算出更新后的权值矩阵;
S11:重复S8至S10,训练模型的权值矩阵,直至所有的epoch都完成了训练;将训练好的深度神经网络模型储存为ckpt文件;
S12:输入待分割的气液两相流图像;搜集使用高速摄像机拍摄的气液两相流图像,并作为系统的输入;
S13:预处理待分割的两相流图像,处理过程与S1预处理相同;
S14:加载训练好的改进FCN模型;
S15:气液两相流图像分割输出;输入气液两相流图像,通过训练好的FCN模型,预测出分割好的气液两相流图像,其中液相为黑色,气相为白色;
S16:获取训练好的FCN模型文件保存在存储设备中,同时加载模型二进制文件到内存中。
优选的,所述S1中气液两相流图像数据集的准备方法为:
使用计算机模拟产生的气液图像分割数据集,该数据集包含气液图像以及已经标注的气液两相的形状和位置;
优选的,所述S1中气液两相流图像数据集的准备方法为:
拍摄真实的气液两相流的视频,并从视频中获取气液两相的照片,组成气液两相流图片数据集;使用带约束的Dirichlet过程混合模型(the constrained Dirichletprocess mixture model,CDPMM)对每张气液两相流照片标注气液两相的形状和位置,选出气相的形状和位置作为图像样本标签;
优选的,所述图像样本标签的选取方法采用以下3个步骤予以实现:
1)确定关联的样本组;设定组的索引为l,组的总数量为L,Zl表示相对应部分分配到第l个关联组,则变分分布(CDPMM)的表达式为:
Figure BDA0003374786660000051
2)定义
Figure BDA0003374786660000052
Figure BDA0003374786660000053
则目标函数F设定为
Figure BDA0003374786660000054
通过迭代更新(2)中的每个部分,使用CAVI算法最小化函数F,直到F收敛为止;
3)设定
Figure BDA0003374786660000055
Zl就是每一组Xl的聚类标签。
优选的,所述S2中改进的FCN模型的编码器包括5个模块,前两个模块分别包括两个卷积层和一个池化层,每个卷积层后都加入了BN层,后三个模块分别包括三个卷积层和一个池化层,每个卷积层后也都加入了BN层;
优选的,所述S2中在编码器和解码器之间添加了密集空洞空间金字塔池化(Atrous spatial pyramid pooling,ASPP)模块,并删除了原FCN模型中编码器和解码器之间的两个1×1卷积层;ASPP模块使用一个1×1卷积、三个3×3卷积和一个平均池来获得多尺度特征;然后,通过对串接的特征进行1×1卷积得到输出;此外,通过加入一个dropout层来抑制过度拟合;与编码器相同,在ASPP模块中的每个卷积层之后都加入了BN层;
优选的,所述S2中改进的FCN模型的解码器包括5次上采样和四次跳层链接,每次跳层链接都将编码器部分的相应浅层信息导入到解码器部分;
优选的,所述S14中加载训练好的改进FCN模型的步骤为:
1)根据传入的文件名称,找到已经训练好的FCN模型文件;
2)读取FCN模型文件到内存;
3)使用加载的模型文件中的参数对输入的气液两相流图像进行预测。
本发明的有益效果是:
提出新的无监督分割图像方法,实现两相流和多相流图像中每一相的智能、高效、精准分割。这种方法在实际的冶金应用中是非常有意义的,能够有效解决FCN模型训练时图像样本打标签难的问题。
附图说明
图1是本发明方法流程图;
图2是本发明基于FCN模型的语义分割图;
图3是本发明在DeepLabV3+语义分割中的ASPP结构图;
图4是本发明FCN模型原理图;
图5是本发明ASPP示意图。
具体实施方式
为了对本发明的方案及效果做出清楚完整的描述,通过以下实施例进行详细说明。
实施例1
一种基于全卷积神经网络的气液两相图像分割方法具体包括以下步骤:
步骤1:准备气液两相流图像数据集;具体采用步骤101或步骤102的方案:
步骤101:使用计算机模拟产生的气液图像分割数据集,该数据集包含气液图像以及已经标注的气液两相的形状和位置;
步骤102:拍摄真实的气液两相流的视频,并从视频中获取气液两相的照片,组成气液两相流图片数据集;使用带约束的Dirichlet过程混合模型(the constrainedDirichlet process mixture model,CDPMM)对每张气液两相流照片标注气液两相的形状和位置。
优选地,步骤102包括以下实现过程:
步骤1021:确定关联的样本组;设定组的索引为l,组的总数量为L,Zl表示相对应部分分配到第l个关联组,则变分分布(CDPMM)的表达式为:
Figure BDA0003374786660000071
步骤1022:定义
Figure BDA0003374786660000072
Figure BDA0003374786660000073
则目标函数F设定为
Figure BDA0003374786660000081
通过迭代更新(2)中的每个部分,使用CAVI算法最小化函数F,直到F收敛为止;
步骤1023:设定
Figure BDA0003374786660000082
Zl就是每一组Xl的聚类标签。
通过步骤1021、1022和1023就可以给气液两相流照片标注气液两相的形状和位置;
步骤2:对图片预处理;图片的预处理包括对图像进行统一缩放和剪裁,如统一尺寸为515×512像素大小,并对得到的图像进行灰度变换、高帽(低帽)变换和均值滤波变换;
步骤3:设定全卷积神经网络(Fully Convolutional Networks,FCN)的模型结构,如图4所示;基于编码器-解码器的结构改进的全卷积神经网络FCN模型,包括在编码器部分加入批量归一化(Batch Normalization,BN)层,在解码器部分的跳层连接部分加入更浅层的信息,将上采样方法由转置卷积改为双线性插值,在编码器和解码器之间加入空洞空间金字塔(ASPP)模块;
步骤301:改进的FCN模型的编码器包括5个模块,前两个模块分别包括两个卷积层和一个池化层,每个卷积层后都加入了BN层,后三个模块分别包括三个卷积层和一个池化层,每个卷积层后也都加入了BN层;
步骤302:在编码器和解码器之间添加了密集空洞空间金字塔池化(Atrousspatial pyramid pooling,ASPP)模块,并删除了原FCN模型中编码器和解码器之间的两个1×1卷积层。ASPP模块使用一个1×1卷积、三个3×3卷积和一个平均池来获得多尺度特征。然后,通过对串接的特征进行1×1卷积得到输出。此外,通过加入一个dropout层来抑制过度拟合。与编码器相同,在ASPP模块中的每个卷积层之后都加入了BN层。
步骤303:改进的FCN模型的解码器包括5次上采样和四次跳层链接,每次跳层链接都将编码器部分的相应浅层信息导入到解码器部分;
步骤4:确定损失函数;使用二元交叉熵作为损失函数:
Figure BDA0003374786660000091
其中,其中y是二进制标签0或1,p(y)是概率密度函数;
步骤5:确定优化器;采用Adam优化器;
步骤6:确定超参数;通过服务器性能确定超参数batch size和epochs的值;确定每个epoch中batch的数量参数n;
步骤7:初始化各层权值矩阵;对需要更新的权值矩阵进行正态分布初始化;
步骤8:数据增强;确定增强参数,设置以下增强参数:旋转范围为0-0.2、平移范围为0-0.05、剪裁范围为0-0.05、缩放范围为0-0.05;用临近插值算法按照步骤六选定的批量数(batch size)不断地产生训练用的batch,共产生n个batch;
步骤9:向前传播;一个batch输入深度神经网络模型,进行向前传播,每层的输出由其参数和输入确定,层层传递得到最终输出的预测值;
步骤10:计算预测损失;通过(1)式中的损失函数计算此次预测的损失;
步骤11:反向传播;当通过前向传播得到由任意一组随机参数计算出的网络预测结果后,利用损失函数的信息通过网络向后流动,计算出每个参数的梯度;
步骤12:更新权值矩阵;根据步骤11反向传播得到的梯度值,通过梯度下降算法计算出更新后的权值矩阵;
步骤13:重复步骤10至步骤12,训练模型的权值矩阵,直至所有的epoch都完成了训练;
步骤14:将训练好的深度神经网络模型储存为ckpt文件;
步骤15:输入待分割的气液两相流图像;搜集使用高速摄像机拍摄的气液两相流图像,并作为系统的输入;
步骤16:预处理待分割的两相流图像,处理过程与步骤2相同;
步骤17:加载训练好的改进FCN模型,其步骤为:
步骤1701:根据传入的文件名称,找到已经训练好的FCN模型文件;
步骤1702:读取FCN模型文件到内存;
步骤1703:使用加载的模型文件中的参数对输入的气液两相流图像进行预测;
步骤18:气液两相流图像分割输出;输入气液两相流图像,通过训练好的FCN模型,预测出分割好的气液两相流图像,其中液相为黑色,气相为白色;
步骤19:获取训练好的FCN模型文件保存在存储设备中,同时加载模型二进制文件到内存中。
实施例2
在上述实施例的基础上,结合图1至图5,进一步说明本发明基于全卷积神经网络的气液两相流气泡图像分割方法包括以下步骤:
步骤1:准备气液两相流图像数据集;具体采用步骤101或步骤102的方案:
步骤101:使用计算机模拟产生的气液图像分割数据集,该数据集包含气液图像以及已经标注的气液两相的形状和位置;
步骤102:拍摄真实的气液两相流的视频,并从视频中获取气液两相的照片,组成气液两相流图片数据集;使用带约束的Dirichlet过程混合模型(the constrainedDirichlet process mixture model,CDPMM)对每张气液两相流照片标注气液两相的形状和位置。
步骤2:对图片预处理;图片的预处理包括对图像进行统一缩放和剪裁,如统一尺寸为515×512像素大小,并对得到的图像进行灰度变换、高帽(低帽)变换和均值滤波变换;
步骤3:设定全卷积神经网络(Fully Convolutional Networks,FCN)的模型结构,如图4所示;基于编码器-解码器的结构改进的全卷积神经网络FCN模型,包括在编码器部分加入批量归一化(Batch Normalization,BN)层,在解码器部分的跳层连接部分加入更浅层的信息,将上采样方法由转置卷积改为双线性插值,在编码器和解码器之间加入空洞空间金字塔(ASPP)模块;
具体的,如图4所示,编码器由输入层,编码层-1至编码层-5组成,其中输入层至编码层-5与如图2所示的FCN模型的输入层至编码层-5对应。
具体的,如图4所示,解码器由解码层-1至解码层5和输出层组成。
具体的,如图5所示,空洞空间金字塔模块由多尺度信息获取模块和卷积模块两部分组成,其结构与如图3所示的deeplabv3+的ASPP模块类似。
进一步而言,如图4所示,编码层-1和编码层-2分别包含两个3×3的same卷积层,两个BN层,一个两倍下采样的最大池化层和一个作为跳层连接的3×3的same卷积层;编码器-3和编码器-4分别包含三个3×3的same卷积层,三个BN层,一个两倍下采样的最大池化层和一个作为跳层连接的3×3的same卷积层;编码器-5包含三个3×3的same卷积层,三个BN层和一个两倍下采样的最大池化层;编码层-5的输出将直接输入到空洞空间金字塔模块。
进一步而言,如图4所示,解码层-1包含一个1×1卷积模块和一个双线性插值上采样模块;解码层-2至解码层-5分别包含一个双线性插值上采样模块,一个卷积模块和一个用于跳层连接的求和模块。
进一步而言,如图5所示,空洞空间金字塔模块通过不同卷积核和上下采样多个模块获得多尺度信息,使用的模块包括一个1×1卷积模块,一个3×3扩张率为6的空洞same卷积,一个3×3扩张率为12的空洞same卷积,一个3×3扩张率为18的空洞same卷积,以及一个两倍平均池化下采样和两倍双线性插值上采样模块。通过连接的方式综合多尺度信息,并用一个1×1卷积获得输出。
进一步而言,如图4所示,输出层包括一个1×1卷积层和一个softmax分类器,其中softmax分类器的公式如下:
Figure BDA0003374786660000131
其中,p表示同一通道中像素的序号,p=1,…,P,输入张量的通道数为C此时输入的张量的大小表示为P×P×C,xp表示输入张量中第p个像素在所有通道上的信号,θ表示权重。分母表示每个像素都有n种可能分类,并计算了所有信号在所有分类的加权的指数和。ypk表示该像素点属于第k种分类的概率。
步骤4:确定损失函数;使用二元交叉熵作为损失函数,其计算公式为公式(1);
其中,其中y是二进制标签0或1,p(y)是概率密度函数;
步骤5:确定优化器;采用Adam优化器;
步骤6:确定超参数;通过服务器性能确定超参数batch size和epochs的值;确定每个epoch中batch的数量参数n;
步骤7:初始化各层权值矩阵;对需要更新的权值矩阵进行正态分布初始化;
步骤8:数据增强;确定增强参数,设置以下增强参数:旋转范围为0-0.2、平移范围为0-0.05、剪裁范围为0-0.05、缩放范围为0-0.05;用临近插值算法按照步骤六选定的批量数(batch size)不断地产生训练用的batch,共产生n个batch;
步骤9:向前传播;一个batch输入深度神经网络模型,进行向前传播,每层的输出由其参数和输入确定,层层传递得到最终输出的预测值;
步骤10:计算预测损失;通过(1)式中的损失函数计算此次预测的损失;
步骤11:反向传播;当通过前向传播得到由任意一组随机参数计算出的网络预测结果后,利用损失函数的信息通过网络向后流动,计算出每个参数的梯度;
步骤12:更新权值矩阵;根据步骤11反向传播得到的梯度值,通过梯度下降算法计算出更新后的权值矩阵;
步骤13:重复步骤10至步骤12,训练模型的权值矩阵,直至所有的epoch都完成了训练;
步骤14:将训练好的深度神经网络模型储存为ckpt文件;
步骤15:输入待分割的气液两相流图像;搜集使用高速摄像机拍摄的气液两相流图像,并作为系统的输入;
步骤16:预处理待分割的两相流图像,处理过程与步骤2相同;
步骤17:加载训练好的改进FCN模型,其步骤为:
步骤1701:根据传入的文件名称,找到已经训练好的FCN模型文件;
步骤1702:读取FCN模型文件到内存;
步骤1703:使用加载的模型文件中的参数对输入的气液两相流图像进行预测;
步骤18:气液两相流图像分割输出;输入气液两相流图像,通过训练好的FCN模型,预测出分割好的气液两相流图像,其中液相为黑色,气相为白色;
步骤19:获取训练好的FCN模型文件保存在存储设备中,同时加载模型二进制文件到内存中。
实施例3
在上述实施例的基础上,本发明通过以下两种数据评估改进FCN模型的性能,一种是基于计算机模拟产生的数据集,另一种是基于水模型实验获得的数据集。
所有的数据分析都是在以下规格的计算机上进行的:
软件环境基于Window 10,编程语言为Python 3.6.7,实验是在Tensorflow 2.0.0和Keras 2.3.1框架上完成的。硬件环境如下:内存为两条3200MHz的8GB内存条,CPU型号为i7-10875h,GPU型号为RTX20608G。
本发明采用随机梯度下降法作为训练的优化算法。超参数值如下:学习率=0.0001,batch size=2,epochs=500。
对于本发明中的两相流图像分割任务,使用以下指标进行评价:准确率(PA)、平均准确率(MPA)、MIoU和FWIoU。其中准确率的公式为(14),平均准确率的公式为(15),MIoU的计算公式为(16),FWIoU的计算公式为(17),其中pij表示第i类的像素被判别为属于第j类的像素的数量。
Figure BDA0003374786660000161
Figure BDA0003374786660000162
Figure BDA0003374786660000164
Figure BDA0003374786660000163
实验结果如下:
表1 FCN和改进的FCN在模拟数据集上的测试结果
PA MPA MIoU FWIoU
FCN--8s 0.983055 0.980336 0.951556 0.967109
改进的FCN 0.996574 0.995089 0.990057 0.993184
如表1所示,相对于图2所示的FCN模型,改进的FCN模型在PA、MPA、MIoU和FMIoU四个指标上都有提升,证明本发明改进的FCN模型在两相流图像分割任务上有更大的优势。

Claims (10)

1.一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,包括以下步骤:
S1:准备气液两相流图像数据集;对图片预处理;
S2:设定全卷积神经网络(Fully Convolutional Networks,FCN)的模型结构;基于编码器-解码器的结构改进的全卷积神经网络FCN模型,包括在编码器部分加入批量归一化(Batch Normalization,BN)层,在解码器部分的跳层连接部分加入更浅层的信息,将上采样方法由转置卷积改为双线性插值,在编码器和解码器之间加入空洞空间金字塔(ASPP)模块;
S3:确定损失函数;使用二元交叉熵作为损失函数:
Figure FDA0003374786650000011
其中y是二进制标签0或1,p(y)是概率密度函数;
S4:采用Adam优化器确定优化器;通过服务器性能确定超参数batch size和epochs的值;确定每个epoch中batch的数量参数n;
S5:初始化各层权值矩阵;对需要更新的权值矩阵进行正态分布初始化;
S6:数据增强;确定增强参数,设置以下增强参数:旋转范围为0-0.2、平移范围为0-0.05、剪裁范围为0-0.05、缩放范围为0-0.05;用临近插值算法按照S4选定的批量数(batchsize)不断地产生训练用的batch,共产生n个batch;
S7:向前传播;一个batch输入深度神经网络模型,进行向前传播,每层的输出由其参数和输入确定,层层传递得到最终输出的预测值;
S8:计算预测损失;通过(1)式中的损失函数计算此次预测的损失;
S9:反向传播;当通过前向传播得到由任意一组随机参数计算出的网络预测结果后,利用损失函数的信息通过网络向后流动,计算出每个参数的梯度;
S10:更新权值矩阵;根据S9反向传播得到的梯度值,通过梯度下降算法计算出更新后的权值矩阵;
S11:重复S8至S10,训练模型的权值矩阵,直至所有的epoch都完成了训练;将训练好的深度神经网络模型储存为ckpt文件;
S12:输入待分割的气液两相流图像;搜集使用高速摄像机拍摄的气液两相流图像,并作为系统的输入;
S13:预处理待分割的两相流图像,处理过程与S1预处理相同;
S14:加载训练好的改进FCN模型;
S15:气液两相流图像分割输出;输入气液两相流图像,通过训练好的FCN模型,预测出分割好的气液两相流图像,其中液相为黑色,气相为白色;
S16:获取训练好的FCN模型文件保存在存储设备中,同时加载模型二进制文件到内存中。
2.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S1中气液两相流图像数据集的准备方法为:
使用计算机模拟产生的气液图像分割数据集,该数据集包含气液图像以及已经标注的气液两相的形状和位置。
3.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S1中气液两相流图像数据集的准备方法为:
拍摄真实的气液两相流的视频,并从视频中获取气液两相的照片,组成气液两相流图片数据集;使用带约束的Dirichlet过程混合模型(the constrained Dirichlet processmixture model,CDPMM)对每张气液两相流照片标注气液两相的形状和位置。
4.根据权利要求3所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,打标签的方法采用以下3个步骤予以实现:
1)确定关联的样本组;设定组的索引为l,组的总数量为L,Zl表示相对应部分分配到第l个关联组,则变分分布(CDPMM)的表达式为:
Figure FDA0003374786650000031
2)定义
Figure FDA0003374786650000032
Figure FDA0003374786650000033
则目标函数F设定为
Figure FDA0003374786650000034
通过迭代更新(2)中的每个部分,使用CAVI算法最小化函数F,直到F收敛为止;
3)设定
Figure FDA0003374786650000041
Zl就是每一组Xl的聚类标签。
5.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S2中改进的FCN模型的编码器包括5个模块,前两个模块分别包括两个卷积层和一个池化层,后三个模块分别包括三个卷积层和一个池化层。
6.根据权利要求5所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述卷积层均加入了BN层。
7.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S2中在编码器和解码器之间添加了密集空洞空间金字塔池化(Atrous spatialpyramid pooling,ASPP)模块,并删除了原FCN模型中编码器和解码器之间的两个1×1卷积层;ASPP模块使用一个1×1卷积、三个3×3卷积和一个平均池来获得多尺度特征;然后,通过对串接的特征进行1×1卷积得到输出;此外,通过加入一个dropout层来抑制过度拟合;与编码器相同,在ASPP模块中的每个卷积层之后都加入了BN层。
8.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S2中改进的FCN模型的解码器包括5次上采样和四次跳层链接,每次跳层链接都将编码器部分的相应浅层信息导入到解码器部分。
9.根据权利要求1所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,所述S14中加载训练好的改进FCN模型的步骤为:
1)根据传入的文件名称,找到已经训练好的FCN模型文件;
2)读取FCN模型文件到内存;
3)使用加载的模型文件中的参数对输入的气液两相流图像进行预测。
10.根据权利要求1-9任一项所述一种基于全卷积神经网络的气液两相图像分割方法,其特征在于,公开了其在两相流混合图像处理领域的应用。
CN202111412740.2A 2021-11-25 2021-11-25 一种基于全卷积神经网络的两相流混合图像分割的方法 Pending CN114202653A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111412740.2A CN114202653A (zh) 2021-11-25 2021-11-25 一种基于全卷积神经网络的两相流混合图像分割的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111412740.2A CN114202653A (zh) 2021-11-25 2021-11-25 一种基于全卷积神经网络的两相流混合图像分割的方法

Publications (1)

Publication Number Publication Date
CN114202653A true CN114202653A (zh) 2022-03-18

Family

ID=80649061

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111412740.2A Pending CN114202653A (zh) 2021-11-25 2021-11-25 一种基于全卷积神经网络的两相流混合图像分割的方法

Country Status (1)

Country Link
CN (1) CN114202653A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116956751A (zh) * 2023-09-19 2023-10-27 北京航空航天大学 一种基于二进制量化的航空发动机寿命预测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116956751A (zh) * 2023-09-19 2023-10-27 北京航空航天大学 一种基于二进制量化的航空发动机寿命预测方法及系统
CN116956751B (zh) * 2023-09-19 2023-12-12 北京航空航天大学 一种基于二进制量化的航空发动机寿命预测方法及系统

Similar Documents

Publication Publication Date Title
CN112668579A (zh) 基于自适应亲和力和类别分配的弱监督语义分割方法
CN109102498B (zh) 一种宫颈涂片图像中簇型细胞核分割的方法
CN113393443B (zh) 一种he病理图像细胞核分割方法及系统
CN113393370A (zh) 中国书法文字图像风格迁移的方法、系统、智能终端
CN110930378B (zh) 基于低数据需求的肺气肿影像处理方法及系统
CN109948696A (zh) 一种多语言场景字符识别方法及系统
CN112084859A (zh) 一种基于稠密边界块和注意力机制的建筑物分割方法
CN112598053A (zh) 基于半监督学习的主动显著性目标检测方法
CN113743505A (zh) 基于自注意力和特征融合的改进ssd目标检测方法
CN115601330A (zh) 一种基于多尺度空间反向注意力机制的结肠息肉分割方法
CN115131565A (zh) 基于半监督学习的组织学图像分割模型
CN115775316A (zh) 基于多尺度注意力机制的图像语义分割方法
CN114202653A (zh) 一种基于全卷积神经网络的两相流混合图像分割的方法
CN115861333A (zh) 基于涂鸦标注的医学图像分割模型训练方法、装置及终端
CN115035293A (zh) 一种无监督深度学习的sar影像海水养殖智能提取方法
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
CN111612803B (zh) 一种基于图像清晰度的车辆图像语义分割方法
CN111914949B (zh) 基于强化学习的零样本学习模型的训练方法及装置
CN117593275A (zh) 一种医学图像分割系统
CN110942463B (zh) 一种基于生成对抗网络的视频目标分割方法
CN117152438A (zh) 一种基于改进DeepLabV3+网络的轻量级街景图像语义分割方法
CN114663661A (zh) 空间生命科学实验对象语义分割方法、装置及存储介质
CN112257787B (zh) 基于生成式双重条件对抗网络结构的图像半监督分类方法
CN114821067A (zh) 基于点标注数据的病理图像分割方法
CN114299305B (zh) 聚合密集和注意力多尺度特征的显著性目标检测算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination