CN111860528A - 基于改进U-Net网络的图像分割模型及训练方法 - Google Patents

基于改进U-Net网络的图像分割模型及训练方法 Download PDF

Info

Publication number
CN111860528A
CN111860528A CN202010546283.5A CN202010546283A CN111860528A CN 111860528 A CN111860528 A CN 111860528A CN 202010546283 A CN202010546283 A CN 202010546283A CN 111860528 A CN111860528 A CN 111860528A
Authority
CN
China
Prior art keywords
decoding
layer
block
input
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010546283.5A
Other languages
English (en)
Other versions
CN111860528B (zh
Inventor
杨真真
许鹏飞
孙雪
郑艺欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202010546283.5A priority Critical patent/CN111860528B/zh
Publication of CN111860528A publication Critical patent/CN111860528A/zh
Application granted granted Critical
Publication of CN111860528B publication Critical patent/CN111860528B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于改进U‑Net网络的图像分割模型,模型采用编解码结构,包括:编码模块、解码模块、编解码连接层和多特征融合模块;编码模块包括多个串接的编码单元,解码模块包括多个与编码单元一一对应的解码单元,编解码连接层用于连接编码模块与解码模块;多特征融合模块包括上采样层和加性融合层;上采样层对各解码单元的输出进行对应的上采样后输入至加性融合层进行叠加,得到图像分割结果。本申请的模型能够提高特征提取的能力以及提取的准确性。另外本申请提出的损失函数能够在分割目标大小不固定及目标与背景差异过大的情况下进行较好的分割。

Description

基于改进U-Net网络的图像分割模型及训练方法
技术领域
本发明涉及视觉图像处理,具体涉及一种基于改进U-Net网络的图像分割模型及训练方法。
背景技术
图像分割是视觉图像处理的重要分支,在各领域中具有广阔的应用前景。由于人工分割的复杂性,目前已有大量用于图像分割的算法,如基于阈值的方法、马尔可夫随机场模型、聚类算法等。然而,上述传统算法仅针对特定图像形式,大多存在人为偏差。
与传统算法不同的是,深度学习可以从多层网络结构中学习目标特征,其网络中的卷积神经网络(convolutional neural network,CNN)在各种图像处理问题上都有不错的表现。基于CNN基础上的全卷积网络(fully convolutional network,FCN)及在FCN基础上演变出的其他变体网络(如SegNet、DeepLab和U-Net网络)在图像分割任务中都能获得了更好的效果。其中,SegNet和DeepLab网络架构必须要有大量的训练数据,否则很容易出现过拟合的现象,训练效果好,测试效果却不理想。对于图像数据集不丰富的领域(如医学领域),难以得到较好的分割结果。
现有的U-Net网络可以充分利用图像的全局和局部细节,在数据集较小的情况下获得不错的分割效果,从而减少依赖大量的训练数据。U-Net也是基于卷积层来构建的。如图1所示,U-Net网络结构是具有对称结构的编译码网络。编码部分和译码部分的基本单元如图2所示,由两个3×3的卷积层连接。编码部分有四个相似的操作,每个操作都有两个3×3的卷积层和一个最大池化层,池化大小为2×2,步长为2。在每个最大池化之后,卷积层的深度将增加一倍。译码部分的主要作用是增大特征图的分辨率,以保证输出图像的大小与输入图像的大小相等。解码器也有四次操作,每个操作由一个2×2反卷积层和两个3×3的卷积层组成。在每个反卷积层之后,反卷积层的特征图将与编码部分具有相同分辨率的特征图进行拼接。最后,使用1×1的卷积层进行降维,生成最终的分割结果。U-Net中所有3×3个卷积层都使用整流线性单元(ReLU)作为激活函数,最后1×1个卷积层使用Sigmoid激活函数。但在分割目标大小不固定,目标与背景差异过大时,现有的上述U-Net网络结构的分割效果难以满足需求。
发明内容
发明目的:本申请的目的在于提供一种基于改进U-Net网络的图像分割模型及训练方法,以解决传统U-Net网络对于分割目标大小不固定以及目标与背景差异过大时分割效果不理想的缺陷。
技术方案:本发明提供了一种基于改进U-Net网络的图像分割模型,模型采用编解码结构,包括:编码模块、解码模块、编解码连接层和多特征融合模块;
编码模块包括多个串接的编码单元,每个编码单元包括编码紧密块和下采样块;每个编码紧密块对当前编码单元的输入进行特征提取,得到对应的输出。该输出下采样后得到当前编码单元的输出,并将其作为下一编码单元的输入;
解码模块包括多个与编码单元一一对应的解码单元,每个解码单元包括上采样块和解码紧密块;每个解码单元的输入包括第一输入和第二输入,第一输入经上采样块进行上采样后与第二输入拼接后输入到当前解码紧密块,作为当前解码紧密块的输入;
编解码连接层用于连接编码模块与解码模块,对最后一编码单元的输出进行特征提取后,得到编解码连接层的输出,并将其输入至第一解码单元;
多特征融合模块包括上采样层和加性融合层;上采样层对各解码紧密块的输出进行对应的上采样后输入至加性融合层进行叠加,得到图像分割结果。
进一步地,第一解码单元的第一输入为编解码连接层的输出,第二输入为第一解码单元对应的编码单元中编码紧密块的输出;
其他解码单元的第一输入为上一解码单元的输出,第二输入为当前解码单元对应的编码单元中编码紧密块的输出。
进一步地,多特征融合模块的上采样层包括与各解码紧密块的输出分别对应的上采样块,用于将各解码紧密块的输出恢复至输入图像的大小,以供加性融合层进行叠加。
进一步地,编码紧密块与解码紧密块的结构相同,均采用紧密块;紧密块包括卷积块、过渡块,卷积块与过渡块跳跃连接;
卷积块包括多个卷积核相同的标准卷积层,用于对紧密块的输入进行逐层提取;每个卷积层的输入都与前面所有层的输出有关,在后卷积层的输入是在前所有卷积层的输入和前一卷积层的输出的拼接;
过渡块用于将卷积块中所有卷积层逐层提取的输出以及紧密块的输入合并。
进一步地,过渡块采用卷积核为1×1的标准卷积。
进一步地,采用紧密块作为编解码连接层。
本申请还公开了一种用于上述图像分割模型的训练方法,包括:
(1)将图像样本数据集按照预设的比例划分训练集、验证集和测试集;
(2)对模型权重进行初始化,利用训练集对初始化后的模型进行迭代训练,不断更新模型的权重,得到最新权重的模型;
(3)利用验证集对最新权重的模型进行验证,继续更新模型的权重,对已训练的权重进行调整,直至模型收敛,将此时的模型参数作为最终的模型参数用于图像分割。
进一步地,在上述方法中,采用He正态分布初始化方法来进行初始化网络的权重,初始权重满足均值为0,标准差为
Figure BDA0002540902610000031
的正态分布产生,其中x指权重矩阵中元素的数量。
进一步地,训练方法的损失函数Ln表示为:
Ln=λLbce+(1-λ)(1-Ldi)
其中,λ(0≤λ≤1)为Ln的参数,Lbce为交叉熵损失函数,Ldi为骰子损失函数,其表达式分别为:
Figure BDA0002540902610000032
Figure BDA0002540902610000033
其中,N为图像像素点的个数,gi为正确分割图像的像素值,ti指训练出的图像的像素值。此处训练使用了训练集和验证集,整个训练过程,先在训练集中训练,再将训练得来的权重在验证集中调整,以避免训练过程中过拟合的现象。
进一步地,权重更新规律表示为:
Figure BDA0002540902610000041
其中,
Figure BDA0002540902610000042
表示现在第k层的权重,
Figure BDA0002540902610000043
表示上一次训练时的第k层权重,η表示学习率,
Figure BDA0002540902610000044
表示损失函数对第k层权重求偏导。
有益效果:与现有技术相比,一方面,本申请公开的模型可通过紧密块提高特征提取的能力,同时多特征融合模块能够提高特征提取的准确性。另一方面,本申请还提供可以处理目标与背景不平衡的损失函数,提高模型的适用范围和图像分割效果。
附图说明
图1为现有U-Net网络模型的整体结构示意图;
图2为现有U-Net网络模型的基本单元结构示意图;
图3为本申请的图像分割模型的整体结构示意图;
图4为本申请的图像分割模型中紧密块的结构示意图;
图5为本申请的图像分割模型中多特征融合模块的结构示意图;
图6为ISBI-2012的原始图片、正确分割效果图和三种算法的分割效果图;
图7为DRIVE的原始图片、正确分割效果图和三种算法的分割效果图;
图8为ISIC-2018的原始图片、正确分割效果图和三种算法的分割效果图。
具体实施方式
下面结合附图和实施例对本发明做进一步描述:
本申请提供了一种基于改进U-Net网络的图像分割模型,如图3所示,模型采用编解码结构,包括:编码模块、解码模块、编解码连接层和多特征融合模块;
在本实施例中,编码模块包括4个串接的编码单元,每个编码单元包括编码紧密块和下采样块;每个编码紧密块对当前编码单元的输入进行特征提取,得到对应的编码稠密输出;编码稠密输出经过下采样块进行下采样后得到当前编码单元的输出,并将其作为下一编码单元的输入。
解码模块包括4个与编码单元一一对应的解码单元,本申请中第i编码单元与第N+1-i解码单元一一对应,其中,N表示编码单元(解码单元)各自的数量。本实施例中,编码单元与解码单元的数量均为4个,其中,第一解码单元与第四编码单元对应;第二解码单元与第三编码单元对应;第三解码单元与第二编码单元对应;第四解码单元与第一编码单元对应。
编解码连接层连接第四编码单元与第一解码模块,对第四编码单元的输出进行特征提取后,得到编解码连接层的输出,并将其输入至第一解码单元;
每个解码单元包括上采样块和解码紧密块;每个解码单元的输入包括第一输入和第二输入,第一输入经上采样块进行上采样后与第二输入拼接(concatanate)后输入到当前解码紧密块,作为当前解码紧密块的输入。具体地,对于第一解码单元而言,第一输入为编解码连接层的输出,第二输入为第一解码单元对应的编码单元中编码紧密块的输出;对其他解码单元而言,第一输入为上一解码单元的输出,第二输入为当前解码单元对应的编码单元中编码紧密块的输出。
在本实施例中,编码紧密块、解码紧密块与编解码连接层的结构相同,均采用紧密块(Dense block),如图4所示,紧密块包括卷积块、过渡块,卷积块和过渡块跳跃连接;
卷积块包括多个卷积核相同的标准卷积层,用于对紧密块的输入进行逐层提取;每个卷积层的输入都与前面所有层的输出有关,在后卷积层的输入是在前所有卷积层的输入和前一卷积层的输出的拼接。本实施例中将标准卷积层的数量设置为3个,卷积核的大小设为3×3,将网络性能调整至优选状态。
为避免过多的特征图影响网络的训练速度,在紧密块中加入一个过渡块来减少特征图的数量,采用1×1的标准卷积和丢弃层作为过渡块,将在前的所有特征合并。将卷积块中所有卷积层逐层提取的输出以及紧密块的输入拼接后输入过渡块,将通过过渡块中1×1的标准卷积后的输出作为紧密块的输出。丢弃层的引入,在完成前面的所有卷积和拼接操作后,随机丢弃学习到的一部分,作防止过拟合。
本实施例中,紧密块中所有卷积层的激活函数都是整流的线性单元(Relu)激活函数。然而,为了区分明显的目标和背景,在输出层使用了Sigmoid激活函数。与传统的两层3×3卷积的U-Net相比,紧密块更容易获得更多的特征,并且不需要使网络变得更深,解决了小训练数据集过拟合的问题,促进了网络内信息的传播,加快了收敛速度。
多特征融合模块(Multi-scale Features Fusion module)如图5所示,包括上采样层和加性融合层;上采样层包括与各解码紧密块的输出分别对应的上采样块,用于将各解码紧密块的输出恢复至输入图像的大小,以供加性融合层进行叠加(add),得到图像分割结果。本实施例中,第四紧密块的输出与输入图像大小一致,而将第三、第二、第一解码紧密块的输出分别需经过一个、两个、三个相同的上采样块才能恢复至与输入图像大小一致。通过多特征融合模块的叠加,将低层紧密块得到的包含更多位置和细节信息的特征图与高层紧密块得到的包含更多语义信息的特征图叠加,提高学习的准确性。
本申请还公开了一种用于上述图像分割模型的训练方法,包括:
(1)将图像样本数据集按照预设的比例划分训练集、验证集和测试集。具体地,将图像样本数据集进行五等分,随机选取一份作为测试集,用于后续对模型进行测试;将剩余的数据集以4:1的比例划分为训练集和验证集。
(2)对模型权重进行初始化,利用训练集对初始化后的模型进行迭代训练,不断更新模型的权重,得到最新权重的模型。具体地,采用He正态分布初始化方法来进行初始化网络的权重,初始权重满足均值为0,标准差为
Figure BDA0002540902610000061
的正态分布产生,其中x指权重矩阵中元素的数量。
(3)利用验证集对最新权重的模型进行验证,继续更新模型的权重,对已训练的权重进行更新,直至模型收敛,将此时的模型参数作为最终的模型参数用于图像分割。
常用的交叉熵损失函数(cross entropy loss function)优点是收敛速度快,因为最后一层权重的梯度与激活函数的导数无关,只与输出结果与真实结果的差值有关。此外,由于反向传播是相乘的,所以整个权重矩阵的更新将会更快。但是,每个梯度损失函数的返回对每个类别的关注是相同的,因此很容易受到类别不平衡的影响。也就是在目标和背景相差较大的情况下,交叉熵可能无法分割出目标。但是,在这个情况下,骰子损失函数(dice loss function)仍然可以执行训练损失函数,但是骰子的梯度是不稳定,可能导致训练曲线不可靠。因而,为了兼顾训练过程的稳定性和解决类别不平衡的问题,本申请结合了交叉熵损失函数和骰子损失函数的优势提出一个新的损失函数Ln,其表达式如下:
Ln=λLbce+(1-λ)(1-Ldi)
其中,λ(0≤λ≤1)为Ln的参数,通过大量的实验,设置λ=0.1,Lbce为交叉熵损失函数,Ldi为骰子损失函数,其表达式分别为:
Figure BDA0002540902610000071
Figure BDA0002540902610000072
其中,N为图像像素点的个数,gi为正确分割图像的像素值,ti指训练出的图像的像素值。此处训练使用了训练集和验证集,整个训练过程,先在训练集中训练,再将训练得来的权重在验证集中调整,以避免训练过程中过拟合的现象。
权重更新规律表示为:
Figure BDA0002540902610000073
其中,
Figure BDA0002540902610000074
表示现在第k层的权重,
Figure BDA0002540902610000075
表示上一次训练时的第k层权重,η表示学习率,
Figure BDA0002540902610000076
表示损失函数对第k层权重求偏导。
仿真验证:
为验证本申请模型的有效性,本申请采用医学图像数据集进行图像分割仿真实验,并对比本申请的模型(DenseUNet)与现有其他图像分割模型(U-Net、MultiResUNet)的分割结果来说明本申请模型的有效性。首先介绍实验中使用的数据集。与非医学图像数据集相比,医学图像数据集的获取面临着诸多挑战,如昂贵的图像采集设备、复杂的图像获取方法、耗时的专家注释和隐私问题等。这些都增加了医学影像数据集开发的难度。因此,目前只有少数公开的医学图像数据集。而且每个数据集只包含少量的图像。此外,每个数据集都有其独特的挑战,因为它们的分割对象不同。为了评估本申请模型的有效性,我们选择了来自不同科研机构的三个医学图像数据集进行了实验。
第一个数据集是电子显微镜图像数据集ISBI-2012。该数据集是果蝇一龄幼虫的腹神经束的图片的连续切片(ssTEM)。它只包含30张图片,大小为512×512。这个数据集的难点是很容易出现过度分割图像的现象,因为要分割的目标遍布整个图像。
第二个数据集是一个视网膜图像数据集。该数据集包含40张大小为565×584的图像,是具有45度视场(FOV)的佳能CR5非散光的3CCD相机所拍摄的。所有的分叶脉管由经验丰富的眼科医生标注。该数据集的难点在于目标形状复杂,微细毛细血管对比度低。
第三个数据集是皮肤镜图像数据集。该数据集包含2594张不同程度皮肤损伤的图像,是由ISIC-2017数据集和HAM10000数据集组合而成。每个原始医学图像分割的正确效果图都由专业专家进行了标注的。该数据集中的图像分辨率不同,为了方便训练,我们统一将尺寸调整为256×192。通过对该数据集的分析,我们发现皮肤镜图像中存在大量干扰,如毛发、血管等。其次,病变区域与周围皮肤的对比度较低。最后,黑素瘤通常有不同的大小、形状和颜色,这取决于皮肤状况,这对网络模型的稳健性是一个很大的考验。
使用Python3编程语言和Keras框架得到本申请的图像分割模型,实验所用的设备是一台装有Ubuntu 16.04.3系统的Linux服务器,该服务器配备了intel Xeon E5-2695CPU、220GB内存和NVIDIA Tesla M40(12GB)GPU。
在模型训练过程中,选择Adam优化器作为DenseUNet的优化器,并将最高训练次数设置为150。将模型的初始学习率设置为0.001,并动态地将其降低0.1倍。
图6~图8中(a)(b)(c)(d)(e)分别表示原始图像、标准分割效果以及U-Net、MultiResUNet、DenseUNet三种模型针对三个医学图像数据集的分割结果,从图6~7可以看出,U-net的分割效果尚可。然而,由于U-Net学习了太多的冗余特征,噪声点总是很明显。MultiResUNet在分割边界上也有很好的分割效果,但是它过于关注边界,因此忽略了分割目标的整体特征。虽然DenseUNet不能得到一个完美的分割结果,但是分割图像的边缘相对清晰,分割结果与真实分割效果图基本重合。从图8中可以清楚地看到,DenseUNet的边缘更加清晰,并且与标准分割效果情况非常吻合。与其他两种网络架构相比,可以看出DenseUNet比其他架构保留了更多的细节。
为了定量分析DenseUNet的性能,在本发明中,我们使用了两个常用的评价指标交并比(Jaccard index,JA)和骰子系数(dice coefficient,DI)。JA和DI的表达式如下:
Figure BDA0002540902610000091
Figure BDA0002540902610000092
其中,TP表示正确效果图与训练的效果图的像素值一致的个数,FP与TN的和是指正确效果图与训练的效果图的像素值不一致的个数。
DenseUNet、MultiResUNet和U-Net网络训练三种医学图像数据集所得的性能指标如表1所示。从表1可以看出,对于JA指标而言,DenseUNet的表现明显优于其他两个网络。对于电子显微镜图像,DenseUNet相对于MultiResUnet有7.4719%的提升,相对于U-Net有10.8212%的提升。对于皮肤镜图像,DenseUNet也比MultiResUnet和U-Net有更好的性能,分别提高了5.8599%和12.2715%。对于视网膜图像,仍分别取得了8.9279%和12.8947%的相对提升。对于DI评价指标,DenseUNet也优于其他网络架构。对于电子显微镜图像,我们可以看到DenseUNet比MultiResUNet和U-Net都有更好的性能,分别有10.5486%和8.8393%的相对提升。视网膜图像的相对提升分别为3.6037%和6.0528%。对于皮肤镜图像,U-Net与DenseUNet处于同一水平,但在这种情况下,DenseUNet的性能稍好一些(相对提升了1.6656%)。但DenseUNet还是比MultiResUNet提高了11.7016%。综上所述,本文提出的DenseUNet在两个评价指标上都达到了最好的效果。
表1
Figure BDA0002540902610000093
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。

Claims (10)

1.一种基于改进U-Net网络的图像分割模型,其特征在于,所述模型采用编解码结构,包括:编码模块、解码模块、编解码连接层和多特征融合模块;
所述编码模块包括多个串接的编码单元,每个编码单元包括编码紧密块和下采样块;每个编码紧密块对当前编码单元的输入进行特征提取,得到对应的编码稠密输出;所述编码稠密输出经过下采样块进行下采样后得到当前编码单元的输出,并将其作为下一编码单元的输入;
所述解码模块包括多个与所述编码单元一一对应的解码单元,每个解码单元包括上采样块和解码紧密块;每个所述解码单元的输入包括第一输入和第二输入,所述第一输入经上采样块进行上采样后与所述第二输入拼接后输入到当前解码紧密块,作为当前解码紧密块的输入;
所述编解码连接层用于连接所述编码模块与所述解码模块,对最后一编码单元的输出进行特征提取后,得到编解码连接层的输出,并将其输入至第一解码单元;
所述多特征融合模块包括上采样层和加性融合层;所述上采样层对各所述解码紧密块的输出进行对应的上采样后输入至加性融合层进行叠加,得到图像分割结果。
2.根据权利要求1所述的模型,其特征在于,所述第一解码单元的第一输入为所述编解码连接层的输出,第二输入为第一解码单元对应的编码单元中编码紧密块的输出;
其他解码单元的第一输入为上一解码单元的输出,第二输入为当前解码单元对应的编码单元中编码紧密块的输出。
3.根据权利要求1所述的模型,其特征在于,所述多特征融合模块的上采样层包括与各解码紧密块的输出分别对应的上采样块,用于将各解码紧密块的输出恢复至输入图像的大小,以供加性融合层进行叠加。
4.根据权利要求1所述的模型,其特征在于,所述编码紧密块与所述解码紧密块的结构相同,均采用紧密块;所述紧密块包括卷积块、过渡块,所述卷积块与所述过渡块跳跃连接;
所述卷积块包括多个卷积核相同的标准卷积层,用于对紧密块的输入进行逐层提取;每个卷积层的输入都与前面所有层的输出有关,在后卷积层的输入是在前所有卷积层的输入和前一卷积层的输出的拼接;
所述过渡块用于将卷积块中所有卷积层逐层提取的输出以及紧密块的输入合并。
5.根据权利要求4所述的模型,其特征在于,所述过渡块采用卷积核为1×1的标准卷积。
6.根据权利要求4所述的模型,其特征在于,采用紧密块作为所述编解码连接层。
7.一种用于权利要求1~6中任一项所述的图像分割模型的训练方法,其特征在于,包括:
(1)将图像样本数据集按照预设的比例划分训练集、验证集和测试集;
(2)对模型权重进行初始化,利用训练集对初始化后的模型进行迭代训练,不断更新模型的权重,得到最新权重的模型;
(3)利用验证集对最新权重的模型进行验证,继续更新模型的权重,对已训练的权重进行调整,直至模型收敛,将此时的模型参数作为最终的模型参数用于图像分割。
8.根据权利要求7所述的方法,其特征在于,采用He正态分布初始化方法来进行初始化网络的权重,初始权重满足均值为0,标准差为
Figure FDA0002540902600000021
的正态分布,其中x指权重矩阵中元素的数量。
9.根据权利要求7所述的方法,其特征在于,所述训练方法的损失函数Ln表示为:
Ln=λLbce+(1-λ)(1-Ldi)
其中,λ(0≤λ≤1)为Ln的参数,Lbce为交叉熵损失函数,Ldi为骰子损失函数,其表达式分别为:
Figure FDA0002540902600000022
Figure FDA0002540902600000023
其中,N为图像像素点的个数,gi为正确分割图像的像素值,ti指训练出的图像的像素值。
10.根据权利要求7所述的方法,其特征在于,权重更新规律表示为:
Figure FDA0002540902600000031
其中,
Figure FDA0002540902600000032
表示现在第k层的权重,
Figure FDA0002540902600000033
表示上一次训练时的第k层权重,η表示学习率,
Figure FDA0002540902600000034
表示损失函数对第k层权重求偏导。
CN202010546283.5A 2020-06-16 2020-06-16 基于改进U-Net网络的图像分割模型及训练方法 Active CN111860528B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010546283.5A CN111860528B (zh) 2020-06-16 2020-06-16 基于改进U-Net网络的图像分割模型及训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010546283.5A CN111860528B (zh) 2020-06-16 2020-06-16 基于改进U-Net网络的图像分割模型及训练方法

Publications (2)

Publication Number Publication Date
CN111860528A true CN111860528A (zh) 2020-10-30
CN111860528B CN111860528B (zh) 2022-08-26

Family

ID=72987674

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010546283.5A Active CN111860528B (zh) 2020-06-16 2020-06-16 基于改进U-Net网络的图像分割模型及训练方法

Country Status (1)

Country Link
CN (1) CN111860528B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112330642A (zh) * 2020-11-09 2021-02-05 山东师范大学 基于双输入全卷积网络的胰腺图像分割方法及系统
CN112635067A (zh) * 2020-12-29 2021-04-09 上海市第十人民医院 基于深度学习的核素骨显像中骨转移瘤的诊断方法
CN112669329A (zh) * 2020-12-25 2021-04-16 上海交通大学 图像分割方法及图像分割系统
CN112686900A (zh) * 2020-12-31 2021-04-20 北京医智影科技有限公司 用于图像自动处理的方法、装置、电子设备和存储介质
CN113011582A (zh) * 2021-03-03 2021-06-22 上海科技大学 基于自审视的多单元反馈网络模型、设备和存储介质
CN114445420A (zh) * 2021-12-31 2022-05-06 湖南科技大学 编解码结构结合注意力机制的图像分割模型及其训练方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080175476A1 (en) * 2007-01-24 2008-07-24 Samsung Electronics Co., Ltd. Apparatus and method of segmenting an image and/or receiving a signal representing the segmented image in an image coding and/or decoding system
CN111127493A (zh) * 2019-11-12 2020-05-08 中国矿业大学 基于注意力多尺度特征融合的遥感图像语义分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080175476A1 (en) * 2007-01-24 2008-07-24 Samsung Electronics Co., Ltd. Apparatus and method of segmenting an image and/or receiving a signal representing the segmented image in an image coding and/or decoding system
CN111127493A (zh) * 2019-11-12 2020-05-08 中国矿业大学 基于注意力多尺度特征融合的遥感图像语义分割方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112330642A (zh) * 2020-11-09 2021-02-05 山东师范大学 基于双输入全卷积网络的胰腺图像分割方法及系统
CN112669329A (zh) * 2020-12-25 2021-04-16 上海交通大学 图像分割方法及图像分割系统
CN112669329B (zh) * 2020-12-25 2022-12-13 上海交通大学 图像分割方法及图像分割系统
CN112635067A (zh) * 2020-12-29 2021-04-09 上海市第十人民医院 基于深度学习的核素骨显像中骨转移瘤的诊断方法
CN112686900A (zh) * 2020-12-31 2021-04-20 北京医智影科技有限公司 用于图像自动处理的方法、装置、电子设备和存储介质
CN113011582A (zh) * 2021-03-03 2021-06-22 上海科技大学 基于自审视的多单元反馈网络模型、设备和存储介质
CN113011582B (zh) * 2021-03-03 2023-12-12 上海科技大学 基于自审视的多单元反馈网络模型、设备和存储介质
CN114445420A (zh) * 2021-12-31 2022-05-06 湖南科技大学 编解码结构结合注意力机制的图像分割模型及其训练方法
CN114445420B (zh) * 2021-12-31 2024-07-26 湖南科技大学 编解码结构结合注意力机制的图像分割模型及其训练方法

Also Published As

Publication number Publication date
CN111860528B (zh) 2022-08-26

Similar Documents

Publication Publication Date Title
CN111860528B (zh) 基于改进U-Net网络的图像分割模型及训练方法
CN111681252B (zh) 一种基于多路径注意力融合的医学图像自动分割方法
CN110097550B (zh) 一种基于深度学习的医学图像分割方法及系统
CN112465827B (zh) 一种基于逐类卷积操作的轮廓感知多器官分割网络构建方法
CN113012172B (zh) 一种基于AS-UNet的医学图像分割方法及系统
CN112529839B (zh) 一种核磁共振图像中颈动脉血管中心线的提取方法及系统
JP7540127B2 (ja) 人工知能に基づく画像処理方法、画像処理装置、コンピュータプログラム及びコンピュータ機器
CN109447976B (zh) 一种基于人工智能的医学图像分割方法及系统
CN112330684B (zh) 对象分割方法、装置、计算机设备及存储介质
CN109492668B (zh) 基于多通道卷积神经网络的mri不同期多模图像表征方法
CN116309648A (zh) 一种基于多注意力融合的医学图像分割模型构建方法
CN112348830B (zh) 基于改进3D U-Net的多器官分割方法
CN109961397B (zh) 图像重建方法及设备
CN114004811A (zh) 一种基于多尺度残差编解码网络的图像分割方法及系统
CN111127490A (zh) 一种基于循环残差U-Net网络的医学图像分割方法
CN115526829A (zh) 基于ViT与上下文特征融合的蜂窝肺病灶分割方法及网络
Dong et al. Supervised learning-based retinal vascular segmentation by m-unet full convolutional neural network
Ruan et al. An efficient tongue segmentation model based on u-net framework
CN113436224B (zh) 一种基于显式构图规则建模的智能图像裁剪方法及装置
CN115147640A (zh) 一种基于改进胶囊网络的脑肿瘤图像分类方法
CN113657392A (zh) 基于低秩混合注意力机制的小目标语义分割方法及系统
CN114529794B (zh) 一种红外与可见光图像融合方法、系统及介质
CN113409291B (zh) 一种肺部4d-ct医学图像配准方法及系统
CN116778158A (zh) 基于改进u形网络的多组织成分图像分割方法及系统
CN116188420A (zh) 一种基于卷积Transformer的多模态医学图像分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant