CN115311194A - 一种基于transformer和SE块的CT自动肝脏图像分割方法 - Google Patents

一种基于transformer和SE块的CT自动肝脏图像分割方法 Download PDF

Info

Publication number
CN115311194A
CN115311194A CN202210563644.6A CN202210563644A CN115311194A CN 115311194 A CN115311194 A CN 115311194A CN 202210563644 A CN202210563644 A CN 202210563644A CN 115311194 A CN115311194 A CN 115311194A
Authority
CN
China
Prior art keywords
network
image
loss function
segmentation
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210563644.6A
Other languages
English (en)
Inventor
徐志强
王涛
陈�峰
王晓东
陈柯文
李志雄
陈万朋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiangtan University
Original Assignee
Xiangtan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiangtan University filed Critical Xiangtan University
Priority to CN202210563644.6A priority Critical patent/CN115311194A/zh
Publication of CN115311194A publication Critical patent/CN115311194A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于transformer和SE块在电子计算机断层扫描中自动肝脏图像分割方法,属于医学图像分割领域。本发明通过图像分割方法,对肝脏实现自动分割。引入transformer,SE块使其能够自使用地提取图像特征,同时抑制不相关区域,以保证网络聚焦于特定的分割任务相关的特征。用RepVGG替代U‑Net网络的解码器部分,用一种简单的架构,来实现速度与精度的平衡。本发明解决了现有的卷积神经网络在肝脏图像分割上存在的感受野不足,无法建立有效的远程依赖等问题,并提高了肝脏分割的准确性。

Description

一种基于transformer和SE块的CT自动肝脏图像分割方法
技术领域
本发明涉及一种基于transformer和SE块的CT自动肝脏图像分割方法,属于医学图像分割领域。
背景技术
肝癌是世界上最常见、死亡率最高的癌症之一。肝脏分割是肝癌诊断和手术计划的必要前提。为了从腹部CT图像中获得完整、准确的肝脏分割图像,成像医生需要逐个手动标记切片。然而,每例患者的肝脏与周围邻近器官的对比度较低,边界较弱,肝脏形态差异较大。这个过程不仅是劳动密集型的,而且也是对医生经验的检验。因此,临床迫切需要自动、准确的肝脏分割方法。
在过去的几十年里,研究人员开发的许多自动肝脏分割方法可以分为三类:一类是基于传统图像分析的,一类是基于机器学习的,另一类是基于深度学习的。基于传统的图像分析方法,大多是半自动的,易受噪声影响,分割过程复杂。虽然基于机器学习的方法极大地提高了分割精度,但对鉴别特征的设计有很高的要求。然而,随着医学图像越来越复杂,很难获得理想的图像。基于深度学习的方法可以根据提供的数据集自动学习和识别特征,实现肝脏的自动分割。
在基于深度学习的方法中,Jonathanlong等人提出的FCN具有显著的像素级分割精度。该模型与CNN的主要区别在于它使用卷积层而不是全连接层。 Ronneberger等人在FCN的基础上提出了u-net模型。该模型在医学图像分割领域取得了巨大的成功。随后的大多数模型都是在u-net的基础上进行修改的,这促进了医学图像分割的发展。然而,尽管卷积神经网络在医学图像分割领域取得了巨大的成功,但它也遇到了瓶颈。卷积运算的固有局部性通常在建立远程关系时有局限性,这将产生较弱的性能,尤其是对于在纹理、形状和大小上表现出巨大差异的目标结构。与之前基于CNN的方法不同,transformer不仅在全局上下文表现出非常强大的性能,而且在大规模的预训练下,它还表现出良好的下游任务的能力。它的全注意力结构不仅提高了特征提取的能力,而且保持了并行计算的特点。
发明内容
为了解决现有技术中存在的一些问题,如缺乏感受野,无法获得有效的全局信息;本发明提供了一种基于卷积变换的CT肝脏图像自动分割方法,部分解决了上述问题。
本发明在u-net网络模型的总体框架中增加了Repvgg模块、SE模块和trans-former模块。选择Repvgg模块的原因是模型的计算速度快,现有的计算库和硬件对3×3卷积进行了深入优化,计算密度高且有效,并且在节省内存的同时具有灵活性。选择Transformer是因为模型全部由注意力机制组合而成,可以实现更好的提取全局信息。选择SE模块的目的是通过一组权重值来表达每个特征通道的重要性,并根据权重值对特征通道进行重新排序,增加有用特征通道的权重,削弱不太有用的特征通道。
本发明提供了一种基于transformer和SE块的CT自动肝脏图像分割方法,该分割方法包括以下步骤:
步骤1:选择包含131组3D腹部CT扫描的Lits2017作为所需数据集,其中121组数据用作训练集,另外10组数据用作测试集。
步骤2:对数据集进行图像预处理和数据增强。首先,读取lits2017数据集的图像,将其转换为灰度图像,并通过直方图均衡化增强图像的对比度和清晰度。为了消除训练过程中的过拟合问题,对原始数据集进行剪切、翻转、旋转和弹性变形以扩展数据集。数据增强可以提高网络模型的泛化能力,增强噪声和网络模型的鲁棒性。
步骤3:构建网络模型:
3.1.本发明的编码器部分由编码器部分和解码器部分组成。编码器部分负责特征提取,解码器部分负责特征定位。整个架构由一个Repvgg模块、12个 transformer模块、4个SE模块和4个上采样模块组成。卷积核的大小为3×3,池层的步长为2×2。经过卷积块、池化、transformer等一系列操作后,每个512 x512x1特征图像获得大小为512x512x1的分割图像。
3.2.在整个网络中,首先是由一个Repvgg模块构成。Repvgg在VGG网络的基础上加入了Identity和残差分支,就相当将ResNet网络中的精华部分应用到VGG中。由于残差结构具有多个分支,就相当于给网络增加了多条梯度流动的路径,类似于模型集成的思路,简单又高效。且当前大多数引擎对3x3的卷积做了特定的加速,减少了整个网络的时间。
3.3.解码器的第二部分是由12个transformer构成。Transformer模型全部由注意力机制组合而成,可以实现更好的提取全局信息,但是容易忽视低分辨率的图像细节,在解码的过程中容易产生偏差。
transformer模型包括:位置编码,前向传播,多头注意力模块,自注意力和相加归一化。
位置编码:通过注入数据的顺序信息增强模型输入。
自注意力模块中,三个输入的初始向量分别为K(key),Q(query),V(value), 权值的计算公式是:
Figure BDA0003656856500000031
其中为了防止Q与K点乘的乘积过大,所以除以
Figure BDA0003656856500000032
3.4.此外,为了从编码器的特征映射中获取信息,在每一个跳跃连接中加入 SE模块,自适应的提取图像特征。因为模块中的通道注意力机制,使得网络能够专注于特定的分割任务。
SE模块的具体操作:第一步,通过全局平均池化将每个通道的特征映射压缩为实数,第二步,添加一个连通的神经网路,非线性变换以获得每个特征通道的权重。最后,将获得的权重归一化后应用于每个通道的特征,从而达到了提取特定信息的目的。
3.5.本网络模型采用了经典的编解码结构,包括上采样,下采样和跳跃连接。跳跃连接把编码器每一次下采样得到的特征通过级联与解码器上采样结果融合,从而使分割结果更加精准。
3.6.损失函数利用BCE损失函数和Dice损失函数进行融合构建损失函数作用于损失值的计算。
BCE损失函数公式为:
Figure BDA0003656856500000033
其中
ln=-w[yn·logxn+(1-yn)·log(1-xn)] (2)
N表示图像的像素总数,yn和xn分别表示第i个像素的真实值和预测值。
Dice损失函数公式如下:
Figure BDA0003656856500000041
结合Dice损失函数与二元交叉熵损失函数构建网络的损失函数:
Loss=α·BCEloss+(1-α)·Diceloss (4)
其中,a为权重因子,用于调节Dice损失函数和二元交叉函数所占比重,取值范围为0–1。
3.6.此方法,采用了如下几种常见的指标:
Dice coeffcient(DC):用于度量两个集合的相似性,值越大,表示分割的精度越高。
Figure BDA0003656856500000042
其中X表示分割结果,Y是表示的标签。
准确率Accuracy:
Figure BDA0003656856500000043
敏感度Sensitivity:
Figure BDA0003656856500000044
特异度Specificity:
Figure BDA0003656856500000045
其中TN、FP、FN和TP分别代表真阴性,假阳性,假阴性,真阳性的数量。
AUC指标是用来评价分类器对于正样本和负样本的分辨能力。AUC是ROC 曲线与坐标轴围成的面积,以Sen为横轴,Spe为纵轴所绘制而成的曲线,越靠近左上角,模型的性能就越好。
本发明提供的技术方法,具有以下优势:
本发明提供了一种基于transformer和卷积的CT肝脏图像分割方法,该方法将Repvgg、transformer和SE模块组合成了一个U型网络。在构建的网络模型中,引入的transformer模块在全局上下文方面表现的很强大。该网络模型克服了卷积操作在建模远程关系时存在的固有局限性,特别是对于在纹理,形状和大小等方面表现出较大差异的目标结构。
但是单纯的使用transformer并不能够产生令人满意的结果,因为trans- former在所有阶段只专注于全局上下文,缺乏低分辨率特征的详细定位信息,所以在通过上采样时无法恢复有效的特征信息,导致分割结果粗糙。所有选择加入CNN,将CNN在提取底层细节的优势融入到网络模型中,有效的弥补了 transformer的缺陷。在跳跃连接时,还加入了SE模块,自适应的提取图像特征。因为模块中的通道注意力机制,使得网络能够专注于特定的分割任务。
本发明中还采用结合Dice损失函数与二元交叉熵损失函数构建网络的损失函数,对网络模型进行优化训练。二元交叉熵损失函数是通过突出特征像素和标签像素的距离差异,来优化整体的网络结构参数,Dice损失函数是通过度量两个样本之间的相似度。
附图说明
图1网络结构示意图;
图2 SE模块具体结构示意图;
图3 Repvgg模块具体结构示意图;
图4本发明方法流程图;
具体实施方式
基于本发明中的实施例,本领域技术人员在没有提出创造性劳动前提下所得到的其他实施例,都在本发明保护的范围之内。
为了使本发明的目的和优势更加清楚,下面对本发明的技术方案作进一步的描述。本发明提供了一种基于transformer和SE块的CT自动肝脏图像分割方法,该分割方法包括以下步骤:
步骤1:选择包含131组3D腹部CT扫描的Lits2017作为所需数据集,其中121组数据用作训练集,另外10组数据用作测试集。
步骤2:对数据集进行图像预处理和数据增强。首先,读取lits2017数据集的图像,将其转换为灰度图像,并通过直方图均衡化增强图像的对比度和清晰度。为了消除训练过程中的过拟合问题,对原始数据集进行剪切、翻转、旋转和弹性变形以扩展数据集。数据增强可以提高网络模型的泛化能力,增强噪声和网络模型的鲁棒性。
步骤3:构建网络模型:
3.1.本发明的编码器部分由编码器部分和解码器部分组成。编码器部分负责特征提取,解码器部分负责特征定位。整个架构由一个Repvgg模块、12个 transformer模块、4个SE模块和4个上采样模块组成。卷积核的大小为3×3,池层的步长为2×2。经过卷积块、池化、transformer等一系列操作后,每个512 x512x1特征图像获得大小为512x512x1的分割图像。
3.2.在整个网络中,首先是由一个Repvgg模块构成。Repvgg在VGG网络的基础上加入了Identity和残差分支,就相当将ResNet网络中的精华部分应用到VGG中。由于残差结构具有多个分支,就相当于给网络增加了多条梯度流动的路径,类似于模型集成的思路,简单又高效。且当前大多数引擎对3x3的卷积做了特定的加速,减少了整个网络的时间。
3.3.解码器的第二部分是由12个transformer构成。Transformer模型全部由注意力机制组合而成,可以实现更好的提取全局信息,但是容易忽视低分辨率的图像细节,在解码的过程中容易产生偏差。
transformer模型包括:位置编码,前向传播,多头注意力模块,自注意力和相加归一化。
位置编码:通过注入数据的顺序信息增强模型输入。
自注意力模块中,三个输入的初始向量分别为K(key),Q(query),V(value), 权值的计算公式是:
Figure BDA0003656856500000061
其中为了防止Q与K点乘的乘积过大,所以除以
Figure BDA0003656856500000062
3.4.此外,为了从编码器的特征映射中获取信息,在每一个跳跃连接中加入 SE模块,自适应的提取图像特征。因为模块中的通道注意力机制,使得网络能够专注于特定的分割任务。
SE模块的具体操作:第一步,通过全局平均池化将每个通道的特征映射压缩为实数,第二步,添加一个连通的神经网路,非线性变换以获得每个特征通道的权重。最后,将获得的权重归一化后应用于每个通道的特征,从而达到了提取特定信息的目的。
3.5.本网络模型采用了经典的编解码结构,包括上采样,下采样和跳跃连接。跳跃连接把编码器每一次下采样得到的特征通过级联与解码器上采样结果融合,从而使分割结果更加精准。
3.6.损失函数利用BCE损失函数和Dice损失函数进行融合构建损失函数作用于损失值的计算。
BCE损失函数公式为:
Figure BDA0003656856500000071
其中
ln=-w[yn·logxn+(1-yn)·log(1-xn)] (10)
N表示图像的像素总数,yn和xn分别表示第i个像素的真实值和预测值。
Dice损失函数公式如下:
Figure BDA0003656856500000072
结合Dice损失函数与二元交叉熵损失函数构建网络的损失函数:
Loss=α·BCEloss+(1-α)·Diceloss (12)
其中,a为权重因子,用于调节Dice损失函数和二元交叉函数所占比重,取值范围为0–1。
3.6.此方法,采用了如下几种常见的指标:
Dice coeffcient(DC):用于度量两个集合的相似性,值越大,表示分割的精度越高。
Figure BDA0003656856500000073
其中X表示分割结果,Y是表示的标签。
准确率Accuracy:
Figure BDA0003656856500000074
敏感度Sensitivity:
Figure BDA0003656856500000075
特异度Specificity:
Figure BDA0003656856500000081
其中TN、FP、FN和TP分别代表真阴性,假阳性,假阴性,真阳性的数量。
AUC指标是用来评价分类器对于正样本和负样本的分辨能力。AUC是ROC 曲线与坐标轴围成的面积,以Sen为横轴,Spe为纵轴所绘制而成的曲线,越靠近左上角,模型的性能就越好。

Claims (1)

1.本发明提供了一种基于transformer和SE块的CT自动肝脏图像分割方法,该分割方法包括以下步骤:
步骤1:选择包含131组3D腹部CT扫描的Lits2017作为所需数据集,其中121组数据用作训练集,另外10组数据用作测试集。
步骤2:对数据集进行图像预处理和数据增强。首先,读取lits2017数据集的图像,将其转换为灰度图像,并通过直方图均衡化增强图像的对比度和清晰度。为了消除训练过程中的过拟合问题,对原始数据集进行剪切、翻转、旋转和弹性变形以扩展数据集。数据增强可以提高网络模型的泛化能力,增强噪声和网络模型的鲁棒性。
步骤3:构建网络模型:
3.1.本发明的编码器部分由编码器部分和解码器部分组成。编码器部分负责特征提取,解码器部分负责特征定位。整个架构由一个Repvgg模块、12个transformer模块、4个SE模块和4个上采样模块组成。卷积核的大小为3×3,池层的步长为2×2。经过卷积块、池化、transformer等一系列操作后,每个512x512x1特征图像获得大小为512x512x1的分割图像。
3.2.在整个网络中,首先是由一个Repvgg模块构成。Repvgg在VGG网络的基础上加入了Identity和残差分支,就相当将ResNet网络中的精华部分应用到VGG中。由于残差结构具有多个分支,就相当于给网络增加了多条梯度流动的路径,类似于模型集成的思路,简单又高效。且当前大多数引擎对3x3的卷积做了特定的加速,减少了整个网络的时间。
3.3.解码器的第二部分是由12个transformer构成。Transformer模型全部由注意力机制组合而成,可以实现更好的提取全局信息,但是容易忽视低分辨率的图像细节,在解码的过程中容易产生偏差。
transformer模型包括:位置编码,前向传播,多头注意力模块,自注意力和相加归一化。
位置编码:通过注入数据的顺序信息增强模型输入。
自注意力模块中,三个输入的初始向量分别为K(key),Q(query),V(value),权值的计算公式是:
Figure FDA0003656856490000021
其中为了防止Q与K点乘的乘积过大,所以除以
Figure FDA0003656856490000025
3.4.此外,为了从编码器的特征映射中获取信息,在每一个跳跃连接中加入SE模块,自适应的提取图像特征。因为模块中的通道注意力机制,使得网络能够专注于特定的分割任务。
SE模块的具体操作:第一步,通过全局平均池化将每个通道的特征映射压缩为实数,第二步,添加一个连通的神经网路,非线性变换以获得每个特征通道的权重。最后,将获得的权重归一化后应用于每个通道的特征,从而达到了提取特定信息的目的。
3.5.本网络模型采用了经典的编解码结构,包括上采样,下采样和跳跃连接。跳跃连接把编码器每一次下采样得到的特征通过级联与解码器上采样结果融合,从而使分割结果更加精准。
3.6.损失函数利用BCE损失函数和Dice损失函数进行融合构建损失函数作用于损失值的计算。
BCE损失函数公式为:
Figure FDA0003656856490000022
其中
Figure FDA0003656856490000023
N表示图像的像素总数,yn和xn分别表示第i个像素的真实值和预测值。
Dice损失函数公式如下:
Figure FDA0003656856490000024
结合Dice损失函数与二元交叉熵损失函数构建网络的损失函数:
Loss=α·BCEloss+(1-α)·Diceloss (4)
其中,a为权重因子,用于调节Dice损失函数和二元交叉函数所占比重,取值范围为0–1。
3.6.此方法,采用了如下几种常见的指标:
Dice coeffcient(DC):用于度量两个集合的相似性,值越大,表示分割的精度越高。
Figure FDA0003656856490000031
其中X表示分割结果,Y是表示的标签。
准确率Accuracy:
Figure FDA0003656856490000032
敏感度Sensitivity:
Figure FDA0003656856490000033
特异度Specificity:
Figure FDA0003656856490000034
其中TN、FP、FN和TP分别代表真阴性,假阳性,假阴性,真阳性的数量。
AUC指标是用来评价分类器对于正样本和负样本的分辨能力。AUC是ROC曲线与坐标轴围成的面积,以Sen为横轴,Spe为纵轴所绘制而成的曲线,越靠近左上角,模型的性能就越好。
CN202210563644.6A 2022-05-23 2022-05-23 一种基于transformer和SE块的CT自动肝脏图像分割方法 Pending CN115311194A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210563644.6A CN115311194A (zh) 2022-05-23 2022-05-23 一种基于transformer和SE块的CT自动肝脏图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210563644.6A CN115311194A (zh) 2022-05-23 2022-05-23 一种基于transformer和SE块的CT自动肝脏图像分割方法

Publications (1)

Publication Number Publication Date
CN115311194A true CN115311194A (zh) 2022-11-08

Family

ID=83854404

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210563644.6A Pending CN115311194A (zh) 2022-05-23 2022-05-23 一种基于transformer和SE块的CT自动肝脏图像分割方法

Country Status (1)

Country Link
CN (1) CN115311194A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115937423A (zh) * 2022-12-13 2023-04-07 西安电子科技大学 肝脏肿瘤医疗影像的三维智能重建方法
CN115936979A (zh) * 2023-01-09 2023-04-07 珠海金智维信息科技有限公司 一种端到端的文本图像合成和识别的方法及系统
CN116343045A (zh) * 2023-03-30 2023-06-27 南京理工大学 基于YOLO v5的轻量化SAR图像舰船目标检测方法
CN116630303A (zh) * 2023-07-11 2023-08-22 安徽中医药大学 胸部ct影像分类模型训练方法、分类方法、系统及设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115937423A (zh) * 2022-12-13 2023-04-07 西安电子科技大学 肝脏肿瘤医疗影像的三维智能重建方法
CN115937423B (zh) * 2022-12-13 2023-08-15 西安电子科技大学 肝脏肿瘤医疗影像的三维智能重建方法
CN115936979A (zh) * 2023-01-09 2023-04-07 珠海金智维信息科技有限公司 一种端到端的文本图像合成和识别的方法及系统
CN116343045A (zh) * 2023-03-30 2023-06-27 南京理工大学 基于YOLO v5的轻量化SAR图像舰船目标检测方法
CN116343045B (zh) * 2023-03-30 2024-03-19 南京理工大学 基于YOLO v5的轻量化SAR图像舰船目标检测方法
CN116630303A (zh) * 2023-07-11 2023-08-22 安徽中医药大学 胸部ct影像分类模型训练方法、分类方法、系统及设备

Similar Documents

Publication Publication Date Title
CN113077471B (zh) 一种基于u型网络的医学图像分割方法
CN111627019B (zh) 一种基于卷积神经网络的肝脏肿瘤分割方法及系统
CN108898175B (zh) 基于深度学习胃癌病理切片的计算机辅助模型构建方法
CN115311194A (zh) 一种基于transformer和SE块的CT自动肝脏图像分割方法
CN112183258A (zh) 一种基于上下文信息和注意力机制的遥感图像道路分割方法
CN113012172B (zh) 一种基于AS-UNet的医学图像分割方法及系统
CN111028242A (zh) 一种肿瘤自动分割系统、方法及电子设备
CN111242288B (zh) 一种用于病变图像分割的多尺度并行深度神经网络模型构建方法
CN116309650B (zh) 基于双分支嵌入注意力机制的医学图像分割方法与系统
CN106408001A (zh) 基于深度核哈希的感兴趣区域快速检测方法
CN110189342B (zh) 脑胶质瘤区域自动分割方法
CN110648331B (zh) 用于医学图像分割的检测方法、医学图像分割方法及装置
CN113223005B (zh) 一种甲状腺结节自动分割及分级的智能系统
CN116309648A (zh) 一种基于多注意力融合的医学图像分割模型构建方法
CN115620010A (zh) 一种rgb-t双模态特征融合的语义分割方法
CN112767417A (zh) 一种基于级联U-Net网络的多模态图像分割方法
CN114972248A (zh) 基于注意力机制改进的U-net肝肿瘤分割方法
CN110930378A (zh) 基于低数据需求的肺气肿影像处理方法及系统
CN116228792A (zh) 一种医学图像分割方法、系统及电子装置
CN114821052A (zh) 基于自调节策略的三维脑肿瘤核磁共振图像分割方法
CN115661165A (zh) 基于增强注意力的编解码网络胶质瘤融合分割系统及方法
CN113344933B (zh) 一种基于多层次特征融合网络的腺体细胞分割方法
CN115775252A (zh) 一种基于全局局部级联的磁共振影像宫颈癌肿瘤分割方法
CN115565671A (zh) 基于跨模型相互教学半监督的房颤辅助分析方法
Li et al. A Multi-Category Brain Tumor Classification Method Bases on Improved ResNet50.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination