CN112308835A - 一种融合密集连接与注意力机制的颅内出血分割方法 - Google Patents
一种融合密集连接与注意力机制的颅内出血分割方法 Download PDFInfo
- Publication number
- CN112308835A CN112308835A CN202011185830.8A CN202011185830A CN112308835A CN 112308835 A CN112308835 A CN 112308835A CN 202011185830 A CN202011185830 A CN 202011185830A CN 112308835 A CN112308835 A CN 112308835A
- Authority
- CN
- China
- Prior art keywords
- intracranial hemorrhage
- attention
- segmentation
- channel
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 206010018985 Haemorrhage intracranial Diseases 0.000 title claims abstract description 91
- 208000008574 Intracranial Hemorrhages Diseases 0.000 title claims abstract description 91
- 230000011218 segmentation Effects 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000007246 mechanism Effects 0.000 title claims abstract description 35
- 208000032843 Hemorrhage Diseases 0.000 claims description 16
- 239000013598 vector Substances 0.000 claims description 16
- 230000000740 bleeding effect Effects 0.000 claims description 15
- 238000002591 computed tomography Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 9
- 230000035945 sensitivity Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 230000003902 lesion Effects 0.000 claims description 7
- 210000004556 brain Anatomy 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 5
- 238000007917 intracranial administration Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 4
- 230000009191 jumping Effects 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 claims description 2
- 230000008034 disappearance Effects 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims description 2
- 230000004927 fusion Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 239000000203 mixture Substances 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims description 2
- 230000001105 regulatory effect Effects 0.000 claims description 2
- 210000005013 brain tissue Anatomy 0.000 abstract description 3
- 208000034158 bleeding Diseases 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 210000003625 skull Anatomy 0.000 description 2
- 206010019196 Head injury Diseases 0.000 description 1
- 208000012902 Nervous system disease Diseases 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 208000030886 Traumatic Brain injury Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000002889 endothelial cell Anatomy 0.000 description 1
- 230000002008 hemorrhagic effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明针对颅内出血区域结构不明确且存在伪影和其他脑组织等噪声对分割任务造成了极大的影响。为提高颅内出血分割的性能,提出了融合密集连接与注意机制的颅内出血分割方法。在全卷积网络的编码器部分引入密集连接块进行颅内出血特征提取,但从编码器中提取的特征并非所有都可用于分割,为此,本文将融合空间和通道注意力的注意力机制融入网络架构中,在空间和通道方面对颅内出血特征进行加权,捕获丰富的上下文关系,获取更为精确的特征。另外,本文采用Focal Tversky损失函数针对处理小面积颅内出血的分割。有效的提升的分割性能,可以实现精确,快速的分割。
Description
技术领域
本发明涉及医学图像处理及语义分割,具体设计了一种融合密集连接与注意力机制的颅内出血分割方法。
背景技术
颅内出血是一种神经系统疾病,是由血管破裂进入组织并可能延伸脑内内皮细胞导致,一直以来,颅内出血是导致死亡和残疾瘫痪的主要原因,颅脑损伤后,如果不及时的进行诊断和治疗,极有可能会诱发较高的死亡率[1]。传统的诊断方法由医生人工定量估计出血区域和大小,整个过程非常耗时,且确定其出血的类型和区域十分依赖于医生的经验累积,人为误差也是导致颅内出血诊断偏差的问题所在。
随着深度学习的发展,基于深度学习的图像分割技术已经成为图像分割的重要组成部分,分割任务的挑战性在于识别医学图像中器官或病变的区域位置[2]。对于颅内出血,深度学习方法最近在分割颅内出血方面取得了成功。其分割目的在于传递和提取出血点定量测量的关键信息。然而,与人体器官分割相比,颅内出的血病灶分割存在更大的困难与挑战:1)与人体其他部位的图像相比,脑部CT图像存在成像伪影及颅骨等脑部组织噪声的复杂情况。2)颅内出血区域常常表现为结构相对不明确的高密度区域,分割任务更具有挑战性。因此需要一种能高效准确分割出血区域的病灶分割方法。
发明内容
本发明设计一种融合密集连接与注意力机制的颅内出血分割方法。用于解决颅内CT图像存在成像伪影及颅骨等脑部组织噪声、颅内出血区域常常结构相对不明确等各种问题,为了达到理想分割效果,该方法通过对颅内出血CT扫描图像数据集进行标注与训练,以全卷积网络融合密集连接块与注意力机制的方式对颅内出血病灶的特征进行精细的提取。在全卷积网络的基础上,采用密集连接的思想,并在网络的编码与解码的连接部分融合了一种包括空间和通道注意的注意力机制,以捕获丰富的上下文关系来精准的提取高质量的颅内出血特征。针对面积较小的颅内出血区域,本方法引入了Focal Tversky损失函数以解决对小面积出血病灶的分割精度不足的问题,有效的提升了颅内出血分割的性能。
网络模型由全卷积密集网络以及该网络中编码器、解码器两者连接间的注意力机制模块组成。本方法在颅内出血分割网络中编码器部分融合了密集连接块,编码器和解码器由池化层,密集连接块,过渡层和上采样层,共计167个卷积层组成。编码器用于提取特征,解码器用于恢复特征至原始输入图像的分辨率,并且采用跳跃连接的方式将编码器和解码器进行连接,以融合前面特征层所提取到的细节信息。
在编解码与解码器中,引入通道和空间注意力机制模块。其中,网络编码器中密集连接块用于获取颅内出血病灶特征,并将编码器中提取的每一层特征输入到注意力机制中,在注意力机制中,将分别在通道注意力和空间注意力上进行特征加权,从而获得颅内出血病灶最详尽的特征以及特征利用,以提高颅内出血分割的准确率。最后,将特征由解码器映射到标签概率以获取分割结果。
附图说明
图1是本发明所述的一种融合密集连接与注意力机制的颅内出血分割方法的卷积神经网络框架。
具体实施方式
请参阅图1所示:
1、一种融合密集连接与注意力机制的颅内出血分割方法,其特征在于提取颅内出血CT扫描图像中颅内出血病灶的特征精细提取,所述方法包括以下步骤:
步骤一:颅内出血CT扫描图像据集采集,采集颅内出血病患的CT扫描图像,并在专业医生的指导下对扫描图像中颅内出血病灶区域进行人工标注。将标注好的图像组成颅内出血病灶数据集进入步骤二;
步骤二:颅内出血病灶数据集训练,接着将我们标注的颅内出血病灶数据集作为我们密集连接与注意力机制模型的训练集,最终得到颅内出血分割模型进行进入步骤三;
步骤三:病灶分割,根据步骤二得到的颅内出血分割模型,对实时采集的颅内出血CT扫描图像进行病灶分割,分割出CT扫描图像中颅内出血病灶的大小以及区域。
2、根据权利要求1所述的一种融合密集连接与注意力机制的颅内出血分割方法,其特征在于,步骤一中所述采集颅内出血数据集方法包括以下步骤:
步骤一:首先利用CT扫描仪扫描脑部图像,并保留进入步骤二;
步骤二:然后删除掉不存在颅内出血情况的病例图像,在医生的指导下使用3dslicer进行人工标注。
3、根据权利要求1所述的种融合密集连接与注意力机制的颅内出血分割方法,其特征在于,步骤二所述的密集连接与注意力机制模型训练包括以下步骤:
步骤一:训练过程中,输入图像进入我们的密集连接与注意力机制网络,进行特征提取,我们的密集连接与注意力机制网络框架采用编码器和解码器的组成结构。它由池化层,密集连接块,过渡层和上采样层,共计167个卷积层组成。编码器用于提取特征,解码器用于恢复特征至原始输入图像的分辨率,并且采用跳跃连接的方式将编码器和解码器进行连接,以融合前面特征层所提取到的细节信息。
编码器以除去全连接层的DenseNet-161为基础网络,如图1所示卷积层 1一密集连接块4构成了编码器部分,包含了3×3卷积的卷积层1步长为2,步长为2的3×3最大池化层,以及4个密集连接块和3个过渡层。每个密集连接块由若干1×1、3×3卷积组合构成,密集连接块1-4中分别包含了6、12、36、 24个1×1、3×3卷积组合。3个过渡层均由批归一化层(BN)、1×1卷积和2×2 平均池化组成。密集连接块中提取的特征图在过渡层中通过卷积与合并来缩小特征图大小。该编码器中共计有160个卷积层,由于网络深度越深,其特征提取能力越强,密集连接块的引入不仅有效的提高颅内出血特征的利用率,而且可以更加有效的进行梯度传递,以防止梯度消失。码器由5个上采样层以及1个卷积层组成。由图1可知,解码器中的1-3个上采样层分别与分别与3-1密集连接块相连接,上采样层4与卷积层1相连。上采样层为2×2的卷积,通过双线性插值实现上采样操作,解码器通过5次上采样使得分割结果最终能拥有更为精细的边缘信息。卷积层2由一个1×1卷积构成,用来恢复分辨率至原始图像分辨率,同时卷积层2也降低了参数量。解码器中采用sigmoid激活函数输出概率范围为(0,1),获得颅内出血的概率。
我们在上述网络编码器和解码器的连接中引入了一种融合空间和通道注意力的注意力机制模型,该模型将编码器中各通道的特征y1,y2,…yn进行连接,然后在通道和空间上对连接后的特征进行校准获得Yc、Ys,最后将它们融合以获得丰富的融合特征,最终将融合后的特征连接到解码器进行解码。
本方法首先将来自每个通道输出的各个颅内出血特征进行连接,作为注意力机制模块的输入。计算公式如下:
式中n是每个层中通道的数量。本文为了简化描述,以通道数为32的输出为例。
然后,利用两个连接的卷积层对通道注意力中特征向量进行编码,计算公式如下:
其中W1、W2表示两个连接卷积层的权重,δ(g)表示对特征向量进行修正线性单元(ReLU)操作。并对重新编码后的特征向量进行sigmoid操作,以获取通道注意力的权重,该权重将通过与注意力机制模块的输入Y相乘,获得最终的通道注意力,计算公式如下:
在空间注意力模块中,空间注意力输入可以表示为:
Y=[y1,1,y1,2,…yi,j,…yH,W] (5)
然后,本文对空间注意力的输入进行1×1卷积运算,计算公式如下:
d=Ws*Y (6)
其中,Ws为空间注意力权重,用于压缩空间域,并生成映射向量,该向量表示空间位置上所有通道的线性组合。本文注意力机制模型将向量最终通过sigmoid操作获取空间注意力权重并计算空间注意力。计算公式如下:
Ys=[σ(d1,1)y1,1,…σ(di,j)yi,j,…σ(dH,W)yH,W] (7)
式中,σ(di,j)表示空间信息的重要系数。
获得通道注意力与空间注意力特征之后,本文将两者进行融合,融合的特征表示是通过将按通道注意力和空间注意力特征相加而获得,融合公式如下:
Yf=Yc+Ys (8)
本文通道和空间注意力机制可以直接适用于任何类型的特征表示问题,并且其促进颅内出血分割网络捕获丰富的脑部CT上下文关系,进行颅内出血特征区域校准。此外,该注意力机制对整个网络的复杂度仅有很小的增加,在不影响其效率的同时,以获得更精确的颅内出血特征。
步骤二:考虑由于小面积的出血病灶并未对损失造成重大影响,因此,对于小面积的出血区域很难进行分割。为解决此问题,针对颅内出血的特点,本文采用Focal Tversky损失函数:
FTL=∑c(1-Tl)1/γ (10)
其中,γ在[1,3]范围内变化,本文经过比对,选定α=0.7,β=0.3,γ= 4/3。
4.根据权利要求1所述的种融合密集连接与注意力机制的颅内出血分割方法,其特征在于,步骤三所述的病灶分割包括以下步骤:
步骤一:分割过程中,颅内出血CT扫描图像输入进训练完毕的网络模型中,由网络模型对其进行颅内出血病灶位置区域的分割。
步骤二:本方法对颅内出血病灶的分割结果使用Dice相似性系数、 Hausdorff距离(HD)、精确度(precision)和灵敏度(Sensitivity)作为颅内出血分割任务的评价指标。
Dice相似性系数表达式如下:
精确度(precision)、灵敏度(Sensitivity)表达式如下:
上述式中,TP定义为正确分割为颅内出血的区域(真阳性),FP定义为将非颅内出血区域错误分割成颅内出血区域(假阳性),FN定义为错误漏分割颅内出血区域(假阴性)。
Hausdorff距离(HD)表示颅内出血标签和分割结果两者表面点之间的最大欧式距离。其指标越小,分割精度越高。Hausdorff距离公式如下:
式中,颅内出血区域标签点为A,颅内出血分割结果区域表面的点为 B,d(a,b)为两点之间的欧氏距离。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所做的等效结构或等流程变换,或直接或间接运用在相关技术领域,均同理包括在本发明的专利保护范围。
Claims (4)
1.一种融合密集连接与注意力机制的颅内出血分割方法,其特征在于提取颅内出血CT扫描图像中颅内出血病灶的特征精细提取,所述方法包括以下步骤:
步骤一:颅内出血CT扫描图像据集采集,采集颅内出血病患的CT扫描图像,并在专业医生的指导下对扫描图像中颅内出血病灶区域进行人工标注。将标注好的图像组成颅内出血病灶数据集进入步骤二;
步骤二:颅内出血病灶数据集训练,接着将我们标注的颅内出血病灶数据集作为我们密集连接与注意力机制模型的训练集,最终得到颅内出血分割模型进行进入步骤三;
步骤三:病灶分割,根据步骤二得到的颅内出血分割模型,对实时采集的颅内出血CT扫描图像进行病灶分割,分割出CT扫描图像中颅内出血病灶的大小以及区域。
2.根据权利要求1所述的一种融合密集连接与注意力机制的颅内出血分割方法,其特征在于,步骤一中所述采集颅内出血数据集方法包括以下步骤:
步骤一:首先利用CT扫描仪扫描脑部图像,并保留进入步骤二;
步骤二:然后删除掉不存在颅内出血情况的病例图像,在医生的指导下使用3d slicer进行人工标注。
3.根据权利要求1所述的种融合密集连接与注意力机制的颅内出血分割方法,其特征在于,步骤二所述的密集连接与注意力机制模型训练包括以下步骤:
步骤一:训练过程中,输入图像进入我们的密集连接与注意力机制网络,进行特征提取,我们的密集连接与注意力机制网络框架采用编码器和解码器的组成结构。它由池化层,密集连接块,过渡层和上采样层,共计167个卷积层组成。编码器用于提取特征,解码器用于恢复特征至原始输入图像的分辨率,并且采用跳跃连接的方式将编码器和解码器进行连接,以融合前面特征层所提取到的细节信息。
编码器以除去全连接层的DenseNet-161为基础网络,如图1所示卷积层1-密集连接块4构成了编码器部分,包含了3×3卷积的卷积层1步长为2,步长为2的3×3最大池化层,以及4个密集连接块和3个过渡层。每个密集连接块由若干1×1、3×3卷积组合构成,密集连接块1-4中分别包含了6、12、36、24个1×1、3×3卷积组合。3个过渡层均由批归一化层(BN)、1×1卷积和2×2平均池化组成。密集连接块中提取的特征图在过渡层中通过卷积与合并来缩小特征图大小。该编码器中共计有160个卷积层,由于网络深度越深,其特征提取能力越强,密集连接块的引入不仅有效的提高颅内出血特征的利用率,而且可以更加有效的进行梯度传递,以防止梯度消失。码器由5个上采样层以及1个卷积层组成。解码器中的1-3个上采样层分别与分别与3-1密集连接块相连接,上采样层4与卷积层1相连。上采样层为2×2的卷积,通过双线性插值实现上采样操作,解码器通过5次上采样使得分割结果最终能拥有更为精细的边缘信息。卷积层2由一个1×1卷积构成,用来恢复分辨率至原始图像分辨率,同时卷积层2也降低了参数量。解码器中采用sigmoid激活函数输出概率范围为(0,1),获得颅内出血的概率。
我们在上述网络编码器和解码器的连接中引入了一种融合空间和通道注意力的注意力机制模型,该模型将编码器中各通道的特征y1,y2,…yn进行连接,然后在通道和空间上对连接后的特征进行校准获得Yc、Ys,最后将它们融合以获得丰富的融合特征,最终将融合后的特征连接到解码器进行解码。
本方法首先将来自每个通道输出的各个颅内出血特征进行连接,作为注意力机制模块的输入。计算公式如下:
然后,利用两个连接的卷积层对通道注意力中特征向量进行编码,计算公式如下:
其中W1、W2表示两个连接卷积层的权重,δ(g)表示对特征向量进行修正线性单元(ReLU)操作。并对重新编码后的特征向量进行sigmoid操作,以获取通道注意力的权重,该权重将通过与注意力机制模块的输入Y相乘,获得最终的通道注意力,计算公式如下:
在空间注意力模块中,空间注意力输入可以表示为:
Y=[y1,1,y1,2,…yi,j,…yH,W] (5)
然后,本文对空间注意力的输入进行1×1卷积运算,计算公式如下:
d=Ws*Y (6)
其中,Ws为空间注意力权重,用于压缩空间域,并生成映射向量,该向量表示空间位置上所有通道的线性组合。本文注意力机制模型将向量最终通过sigmoid操作获取空间注意力权重并计算空间注意力。计算公式如下:
Ys=[σ(d1,1)y1,1,…σ(di,j)yi,j,…σ(dH,W)yH,W] (7)
式中,σ(di,j)表示空间信息的重要系数。
获得通道注意力与空间注意力特征之后,本方法将两者进行融合,融合的特征表示是通过将按通道注意力和空间注意力特征相加而获得,融合公式如下:
Yf=Yc+Ys (8)
本文通道和空间注意力机制可以直接适用于任何类型的特征表示问题,并且其促进颅内出血分割网络捕获丰富的脑部CT上下文关系,进行颅内出血特征区域校准。此外,该注意力机制对整个网络的复杂度仅有很小的增加,在不影响其效率的同时,以获得更精确的颅内出血特征。
步骤二:考虑由于小面积的出血病灶并未对损失造成重大影响,因此,对于小面积的出血区域很难进行分割。为解决此间题,针对颅内出血的特点,本文采用Focal Tversky损失函数:
FTL=∑c(1-Tl)1/γ (10)
其中,γ在[1,3]范围内变化,本文经过比对,选定α=0.7,β=0.3,γ=4/3。
4.根据权利要求1所述的种融合密集连接与注意力机制的颅内出血分割方法,其特征在于,步骤三所述的病灶分割包括以下步骤:
步骤一:分割过程中,颅内出血CT扫描图像输入进训练完毕的网络模型中,由网络模型对其进行颅内出血病灶位置区域的分割。
步骤二:本方法对颅内出血病灶的分割结果使用Dice相似性系数、Hausdorff距离(HD)、精确度(precision)和灵敏度(Sensitivity)作为颅内出血分割任务的评价指标。
Dice相似性系数表达式如下:
精确度(precision)、灵敏度(Sensitivity)表达式如下:
上述式中,TP定义为正确分割为颅内出血的区域(真阳性),FP定义为将非颅内出血区域错误分割成颅内出血区域(假阳性),FN定义为错误漏分割颅内出血区域(假阴性)。
Hausdorff距离(HD)表示颅内出血标签和分割结果两者表面点之间的最大欧式距离。其指标越小,分割精度越高。Hausdorff距离公式如下:
式中,颅内出血区域标签点为A,颅内出血分割结果区域表面的点为B,d(a,b)为两点之间的欧氏距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011185830.8A CN112308835A (zh) | 2020-10-27 | 2020-10-27 | 一种融合密集连接与注意力机制的颅内出血分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011185830.8A CN112308835A (zh) | 2020-10-27 | 2020-10-27 | 一种融合密集连接与注意力机制的颅内出血分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112308835A true CN112308835A (zh) | 2021-02-02 |
Family
ID=74332280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011185830.8A Pending CN112308835A (zh) | 2020-10-27 | 2020-10-27 | 一种融合密集连接与注意力机制的颅内出血分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112308835A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949838A (zh) * | 2021-04-15 | 2021-06-11 | 陕西科技大学 | 基于四分支注意力机制的卷积神经网络及图像分割方法 |
CN113744284A (zh) * | 2021-09-06 | 2021-12-03 | 浙大城市学院 | 脑肿瘤图像区域分割方法、装置、神经网络及电子设备 |
CN114298234A (zh) * | 2021-12-31 | 2022-04-08 | 深圳市铱硙医疗科技有限公司 | 脑部医学影像分类方法、装置、计算机设备和存储介质 |
CN117197162A (zh) * | 2023-09-27 | 2023-12-08 | 东北林业大学 | 一种基于差分卷积的颅内出血ct图像分割方法 |
-
2020
- 2020-10-27 CN CN202011185830.8A patent/CN112308835A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949838A (zh) * | 2021-04-15 | 2021-06-11 | 陕西科技大学 | 基于四分支注意力机制的卷积神经网络及图像分割方法 |
CN112949838B (zh) * | 2021-04-15 | 2023-05-23 | 陕西科技大学 | 基于四分支注意力机制的卷积神经网络及图像分割方法 |
CN113744284A (zh) * | 2021-09-06 | 2021-12-03 | 浙大城市学院 | 脑肿瘤图像区域分割方法、装置、神经网络及电子设备 |
CN113744284B (zh) * | 2021-09-06 | 2023-08-29 | 浙大城市学院 | 脑肿瘤图像区域分割方法、装置、神经网络及电子设备 |
CN114298234A (zh) * | 2021-12-31 | 2022-04-08 | 深圳市铱硙医疗科技有限公司 | 脑部医学影像分类方法、装置、计算机设备和存储介质 |
CN114298234B (zh) * | 2021-12-31 | 2022-10-04 | 深圳市铱硙医疗科技有限公司 | 脑部医学影像分类方法、装置、计算机设备和存储介质 |
CN117197162A (zh) * | 2023-09-27 | 2023-12-08 | 东北林业大学 | 一种基于差分卷积的颅内出血ct图像分割方法 |
CN117197162B (zh) * | 2023-09-27 | 2024-04-09 | 东北林业大学 | 一种基于差分卷积的颅内出血ct图像分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112308835A (zh) | 一种融合密集连接与注意力机制的颅内出血分割方法 | |
WO2022257344A1 (zh) | 图像配准融合方法及装置、模型训练方法及电子设备 | |
CN111784671B (zh) | 基于多尺度深度学习的病理图像病灶区域检测方法 | |
CN112150428B (zh) | 一种基于深度学习的医学图像分割方法 | |
WO2022257345A1 (zh) | 医学图像融合方法及系统、模型训练方法及存储介质 | |
JP2008520344A (ja) | 放射線写真画像の向きを検知及び補正する方法 | |
Valanarasu et al. | Learning to segment brain anatomy from 2D ultrasound with less data | |
CN111681230A (zh) | 脑白质高信号评分系统及其评分方法 | |
EP4118617A1 (en) | Automated detection of tumors based on image processing | |
CN116563533A (zh) | 基于目标位置先验信息的医学图像分割方法及系统 | |
JP2024027078A (ja) | マルチスケールに基づく全スライド病理特徴融合抽出方法、システム、電子機器及び記憶媒体 | |
Kriti et al. | A review of Segmentation Algorithms Applied to B-Mode breast ultrasound images: a characterization Approach | |
CN113538530A (zh) | 一种耳部医学图像分割方法、装置、电子设备及存储介质 | |
CN111489291A (zh) | 一种基于网络级联的医学图像超分辨率重建方法 | |
CN116433654A (zh) | 一种改进的U-Net网络实现脊柱整体分割方法 | |
CN112967295B (zh) | 一种基于残差网络和注意力机制的图像处理方法及系统 | |
CN116524178A (zh) | 基于半监督的mri图像组织分割方法及成像方法 | |
CN115409812A (zh) | 一种基于融合时间注意机制的ct图像自动分类方法 | |
CN115294023A (zh) | 肝脏肿瘤自动分割方法及装置 | |
Zargari et al. | Brain Tumor Classification and Segmentation Using Dual-Outputs for U-Net Architecture: O2U-Net | |
Mani | Deep learning models for semantic multi-modal medical image segmentation | |
CN116739951B (zh) | 一种图像生成器、图像风格转换装置及方法 | |
Sanubary | Brain Tumor Detection Using Backpropagation Neural Networks | |
Selim et al. | Latent Diffusion Model for Medical Image Standardization and Enhancement | |
Fatema et al. | Development of an automated optimal distance feature-based decision system for diagnosing knee osteoarthritis using segmented X-ray images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |