CN114332101A - 一种基于遗传算法的U-Net网络模型剪枝方法 - Google Patents
一种基于遗传算法的U-Net网络模型剪枝方法 Download PDFInfo
- Publication number
- CN114332101A CN114332101A CN202111638106.0A CN202111638106A CN114332101A CN 114332101 A CN114332101 A CN 114332101A CN 202111638106 A CN202111638106 A CN 202111638106A CN 114332101 A CN114332101 A CN 114332101A
- Authority
- CN
- China
- Prior art keywords
- net network
- network model
- genetic algorithm
- layer
- net
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于遗传算法的U‑Net网络模型剪枝方法。本发明首先对数据集进行扩增处理,其次将遗传优化算法与U‑Net模型相结合,将U‑Net模型的损失函数引入到遗传算法的适应度指标中,而优化的目标则是U‑Net模型的各层通道数的压缩率组合;随后通过遗传算法获得所需的最佳U‑Net网络的压缩率组合,并对网络结构进行剪枝处理。本发明与剪枝前的U‑Net网络模型相比,在三个数据集以及各自的扩增数据集的分割结果上,模型剪枝前后对结果并没有较大差异,但整个U‑Net网络的参数量以及计算量等都有明显的降低,达到了网络模型剪枝的效果。
Description
技术领域
本发明涉及一种U-Net网络模型剪枝方法,具体是将深度学习中的U-Net网络与遗传算法相结合进行剪枝的一种方法。该方法实际应用在了视网膜血管图像的分割中。
背景技术
视网膜血管的提取和形态学属性的表征,如直径、形状、扭曲度和分叉,可用于筛选、评估和治疗不同的眼部异常。随着近几年人工智能技术的快速发展,神经网络模型在图像分割领域得到了广泛的应用。但是现在主流的神经网络模型均有着很复杂的网络结构,因此模型的训练时间要大大增加。随着网络模型发展的越来越深,在网络性能得到提升的同时,随之而来产生了另一个问题:越来越复杂的网络结构带来了更大的计算资料的消耗,而且在卷积核数量的设计上的不合理设置更会导致卷积层参数未得到充分应用,最终浪费掉大量的计算资源。近年来用于医学图像分割领域的U-Net网络模型因其独特的结构有着不错的分割效果,但是对于U-Net的各层通道数设置,往往依赖于研究者的手工设置,这使得网络的分割效果在很大程度上依靠人工经验。针对这种现象,在分割视网膜血管的工作上,本文提出了一种利用遗传算法进行U-Net通道自动剪枝的方法进行处理,目的在于通过通道剪枝获得一个更加轻量化的U-Net网络结构,在性能上拥有不输于原始结构的效果。
发明内容
本发明针对现有U-Net网络模型在视网膜图像分割上存在的参数冗余问题,提出了一种基于遗传算法的U-Net网络模型剪枝方法,该方法与以往大多数通道修剪方法不同的是,所进行修剪的是U-Net网络结构中每层的通道数量,而不是对“非重要”通道进行选择性修剪。通过对每层设置一个具体的压缩率,利用遗传算法的快速随机性,能够尽可能地得到一个鲁棒性较好的最优压缩率组合。
按照本发明提供的技术方案,提出了一种基于遗传算法的U-Net剪枝方法,包括以下步骤:
步骤1、对训练集图像进行水平翻转、垂直翻转和多角度旋转;
步骤2、对彩色图像进行图像的预处理操作;
步骤3、对U-Net网络模型构建新的损失函数,使其更加适合于存在像素不平衡问题的视网膜图像数据集的训练;
所述的新的损失函数表达式为:
Loss=Ldice+λLr#(1)
Lr为交叉熵函数,表达式如下:
其中TP和TN分别是真阳性和真阴性像素的个数;Np和Nn分别是目标像素和非目标像素的个数;y是标签值,y=1,为分割目标,y=0,为背景;p是像素的预测概率值;
Ldice为Dice系数表达式,如下:
其中N是像素的数量值;p(k,i)∈[0,1],q(k,i)∈[0,1]分别是像素点k类的预测概率和真实标签,λ为系数;
步骤4、将U-Net网络模型对称的四层卷积层的数量作为优化目标,即遗传算法的优化结果为一组含四个压缩率数值的组合;采用遗传优化算法对该组合进行寻优,最终获得一个最佳的压缩率组合,每层卷积层数量进行相对应的修改操作后,便得到了一个剪枝后的U-Net网络模型;
步骤5、将U-Net网络的损失函数作为参数融合到遗传算法的适应度函数中,使两者存在一个反比关系,并通过适应度函数来扩大损失函数之间的差距;
步骤6、通过对遗传算法的不断迭代,得到所需的最优压缩率组合,并在三个数据集上分别进行U-Net网络模型剪枝前后的实验对比。
作为优选,对训练集图像进行水平翻转、垂直翻转使数据量扩增4倍;对训练集图像进行多角度旋转使数据量扩增8倍。
作为优选,所述的步骤4中,压缩率组合如下:
α=[α1,α2,α3,α4]#(4)
式中αβ的取值范围为[0.1,0.2,…,0.8];α作为遗传算法的输入参数。
作为优选,所述的U-Net网络结构如下:
在网络的编码结构,使用了四层编码块,其中每层编码块包括两个卷积层,一个批归一化层、LReLU激活层以及最大池化层;
在网络的解码结构,与编码结构相对应,使用了四层解码块,其中每层解码块包括两个卷积层,一个上采样层、BN层以及一个跳跃连接层。
作为优选,所述的步骤5中,遗传算法中的适应度函数表达式为:
Fitness=e20*(0.3-Loss)#(5)
其中Loss为U-Net网络模型的损失函数。
作为优选,遗传算法与U-Net网络模型结合的伪代码如下:
本发明与现有技术相比,有益效果如下:
相比于U-Net网络模型原始结构,本发明方法对模型结构进行了相应的剪枝处理,在降低了网络参数量的同时,在分割结果上并未造成明显的效果下降,达到了较好的剪枝预期;相比于传统手工设置U-Net各层通道数的方法,本发明方法具有自动优化获取最佳通道数的优点,并且经过遗传算法的一系列优化运算,所得结果更具有说服力。
附图说明
图1为本发明的流程图;
图2为本发明的U-Net网络模型结构图;
图3为卷积层剪枝示意图;
图4为适应度函数值变化图;
图5为U-Net剪枝前后在DRIVE扩增数据集上的结果对比图。
具体实施方式
下面结合具体实施例对本发明做进一步说明。以下描述仅作为示范和接收,并不对本发明作任何形式上的限制。
如图1所示,本发明的实施例实现步骤如下:
步骤1、对现有的公开数据集DRIVE、STARE和CHASE_DB1的训练集进行数据扩增操作,具体为对图像进行水平翻转、垂直翻转和多角度旋转,将数据量分别扩增到原来的4倍和8倍。该步骤的目的一方面是为了提供更多的训练集用于模型训练,另一方面也是为了验证在使用不同数量的训练集训练时,U-Net网络模型在剪枝前后是否仍然能保持分割结果的稳定性。
步骤2、对图像的预处理流程为:
对彩色图像进行通道分离,选取血管清晰度较好的绿色通道作为输入图像进行处理,图像尺寸为576×576;
步骤3、对U-Net构建新的网络模型损失函数是为了在训练中更好地反馈训练的过程,从而使模型能够获得较好的训练参数。为此本发明方法考虑到所用到的三个视网膜图像训练集均存在像素分布不平衡的特点,在传统的二分类交叉熵损失函数的基础上,引入了Dice系数,两者进行加权结合形成新的损失函数,具体表达式如式(1)所示,U-Net网络模型结构如图2所示。
步骤4、对U-Net网络模型的对称结构进行对称剪枝,剪枝的目标是每层包含大量参数的卷积层,降低卷积层的数量则是剪枝的重点。在原始结构数量的基础上,每层设置一个压缩率参数,则得到了一个包含四个参数的压缩率组合,后续采用遗传优化算法对该组合进行寻优,最终获得一个最佳的压缩率组合,每层卷积层数量进行相对应的修改操作后,便得到了一个剪枝后的U-Net网络模型。卷积层的剪枝操作如图3所示。
步骤5、为了评价不同的压缩率组合所产生的剪枝效果,将U-Net网络模型训练所得的最小损失函数作为参数输入到遗传算法的适应度函数中,使两者存在一个反比关系,并通过适应度函数来扩大损失函数之间的差距,以便于在遗传算法中能够较好地进行下一代的迭代计算。在U-Net模型的相关参数设置上,优化器使用了随机梯度下降算法(SGD)进行模型的参数训练优化,初始学习率设为0.1,随着训练迭代次数降低,每二十个epoch乘以0.1,epoch设为60。为了加快遗传算法寻优速度,将输入图像切分为48×48的像素块进行训练。
步骤6、对于遗传算法,将变异率和重组概率分别设为0.01和0.8,种群数量设为100,迭代次数为70。实验表明,压缩率组合在迭代45代以后便已经达到了算法的最优解,不再更新。具体的适应度变化如图4所示。
表1U-Net网络模型剪枝前后对比
表1列举了U-Net网络模型在进行剪枝前后的相关指标的对比,可以看出在参数量、计算量和模型大小等指标上都有了不同程度的降低,达到了剪枝的主要目的,降低网络模型训练中所需的计算和存储能力。另外,表2列出了在DRIVE测试集中,U-Net网络模型剪枝前后不同评价指标的分割对比,DRIVE4倍扩增数据集和8倍扩增数据集的分割对比图分别如图5(a)、(b)所示。
表2U-Net网络模型剪枝前后在DRIVE数据集上的分割结果
Claims (6)
1.一种基于遗传算法的U-Net网络模型剪枝方法,其特征在于,包括如下步骤:
步骤1、对训练集图像进行水平翻转、垂直翻转和多角度旋转;
步骤2、对彩色图像进行图像的预处理操作;
步骤3、对U-Net网络模型构建新的损失函数,使其更加适合于存在像素不平衡问题的视网膜图像数据集的训练;
所述的新的损失函数表达式为:
Loss=Ldice+λLr#(1)
Lr为交叉熵函数,表达式如下:
其中TP和TN分别是真阳性和真阴性像素的个数;Np和Nn分别是目标像素和非目标像素的个数;y是标签值,y=1,为分割目标,y=0,为背景;p是像素的预测概率值;
Ldice为Dice系数表达式,如下:
其中N是像素的数量值;p(k,i)∈[0,1],q(k,i)∈[0,1]分别是像素点k类的预测概率和真实标签,λ为系数;
步骤4、将U-Net网络模型对称的四层卷积层的数量作为优化目标,即遗传算法的优化结果为一组含四个压缩率数值的组合;采用遗传优化算法对该组合进行寻优,最终获得一个最佳的压缩率组合,每层卷积层数量进行相对应的修改操作后,便得到了一个剪枝后的U-Net网络模型;
步骤5、将U-Net网络的损失函数作为参数融合到遗传算法的适应度函数中,使两者存在一个反比关系,并通过适应度函数来扩大损失函数之间的差距;
步骤6、通过对遗传算法的不断迭代,得到所需的最优压缩率组合,并在三个数据集上分别进行U-Net网络模型剪枝前后的实验对比。
2.根据权利要求1所述的一种基于遗传算法的U-Net网络模型剪枝方法,其特征在于:对训练集图像进行水平翻转、垂直翻转使数据量扩增4倍;对训练集图像进行多角度旋转使数据量扩增8倍。
3.根据权利要求1所述的一种基于遗传算法的U-Net网络模型剪枝方法,其特征在于:所述的步骤4中,压缩率组合如下:
α=[α1,α2,α3,α4]#(4)
式中αβ的取值范围为[0.1,0.2,…,0.8];α作为遗传算法的输入参数。
4.根据权利要求1所述的一种基于遗传算法的U-Net网络模型剪枝方法,其特征在于:所述的U-Net网络结构如下:
在网络的编码结构,使用了四层编码块,其中每层编码块包括两个卷积层,一个批归一化层、LReLU激活层以及最大池化层;
在网络的解码结构,与编码结构相对应,使用了四层解码块,其中每层解码块包括两个卷积层,一个上采样层、BN层以及一个跳跃连接层。
5.根据权利要求1所述的一种基于遗传算法的U-Net网络模型剪枝方法,其特征在于:所述的步骤5中,遗传算法中的适应度函数表达式为:
Fitness=e20*(0.3-Loss)#(5)
其中Loss为U-Net网络模型的损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111638106.0A CN114332101A (zh) | 2021-12-29 | 2021-12-29 | 一种基于遗传算法的U-Net网络模型剪枝方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111638106.0A CN114332101A (zh) | 2021-12-29 | 2021-12-29 | 一种基于遗传算法的U-Net网络模型剪枝方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114332101A true CN114332101A (zh) | 2022-04-12 |
Family
ID=81017633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111638106.0A Pending CN114332101A (zh) | 2021-12-29 | 2021-12-29 | 一种基于遗传算法的U-Net网络模型剪枝方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114332101A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843691A (zh) * | 2023-09-01 | 2023-10-03 | 尚特杰电力科技有限公司 | 光伏板热斑检测方法及存储介质、电子设备 |
-
2021
- 2021-12-29 CN CN202111638106.0A patent/CN114332101A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116843691A (zh) * | 2023-09-01 | 2023-10-03 | 尚特杰电力科技有限公司 | 光伏板热斑检测方法及存储介质、电子设备 |
CN116843691B (zh) * | 2023-09-01 | 2024-01-26 | 尚特杰电力科技有限公司 | 光伏板热斑检测方法及存储介质、电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110020682B (zh) | 一种基于小样本学习的注意力机制关系对比网络模型方法 | |
CN113159173B (zh) | 一种结合剪枝与知识蒸馏的卷积神经网络模型压缩方法 | |
Peng et al. | Extreme network compression via filter group approximation | |
CN106991646A (zh) | 一种基于密集连接网络的图像超分辨率方法 | |
CN108573399A (zh) | 基于转移概率网络的商户推荐方法及其系统 | |
CN107239825A (zh) | 考虑负载均衡的深度神经网络压缩方法 | |
CN111986075B (zh) | 一种目标边缘清晰化的风格迁移方法 | |
CN113011570A (zh) | 一种卷积神经网络模型的自适应高精度压缩方法及系统 | |
CN110880165A (zh) | 一种基于轮廓和颜色特征融合编码的图像去雾方法 | |
CN112508104A (zh) | 一种基于快速网络架构搜索的跨任务图像分类方法 | |
CN110909874A (zh) | 一种神经网络模型的卷积运算优化方法和装置 | |
CN111523483B (zh) | 中餐菜品图像识别方法及装置 | |
CN110991621A (zh) | 一种基于通道数搜索卷积神经网络的方法 | |
CN111582311A (zh) | 基于强化学习利用动态奖励示例样本训练智能体的方法 | |
CN114332101A (zh) | 一种基于遗传算法的U-Net网络模型剪枝方法 | |
CN110517272A (zh) | 基于深度学习的血细胞分割方法 | |
CN113971367A (zh) | 一种基于混洗蛙跳算法的卷积神经网络框架自动设计方法 | |
CN114897694A (zh) | 基于混合注意力和双层监督的图像超分辨率重建方法 | |
CN107240100A (zh) | 一种基于遗传算法的图像分割方法和系统 | |
Feng et al. | Multi-scale feature-guided stereoscopic video quality assessment based on 3D convolutional neural network | |
Yan et al. | Channel pruning via multi-criteria based on weight dependency | |
CN110910329B (zh) | 一种以需求为导向的图像去噪方法 | |
CN112766134A (zh) | 一种强化类间区分的表情识别方法 | |
CN113554104B (zh) | 一种基于深度学习模型的图像分类方法 | |
CN110047088A (zh) | 一种基于改进教与学优化算法的ht-29图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |