CN113222899B - 一种基于深度学习通过ct检测分割分类肝脏肿瘤的方法 - Google Patents
一种基于深度学习通过ct检测分割分类肝脏肿瘤的方法 Download PDFInfo
- Publication number
- CN113222899B CN113222899B CN202110404710.0A CN202110404710A CN113222899B CN 113222899 B CN113222899 B CN 113222899B CN 202110404710 A CN202110404710 A CN 202110404710A CN 113222899 B CN113222899 B CN 113222899B
- Authority
- CN
- China
- Prior art keywords
- feature
- image
- attention
- information
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30056—Liver; Hepatic
Abstract
一种通过CT的检测分割分类肝脏肿瘤的深度学习方法,包括:(1)对待预测的CT图像进行预处理,使其符合训练好的网络的输入要求;(2)使用训练好的模型对(1)中的待预测CT进行分割,得到最终的分割结果,包括:(21)将CT图像送入特征提取器提取特征;(22)将经特征提取器提取到的特征送入背景注意力模块,融合上下文信息与位置信息;(23)将融合了上下文信息与位置信息的特征图送入head模块,进一步整合多尺度的信息;(24)融合了多尺度信息的特征与特征提取器提取到的low‑level features结合,通过解码器模块还原为原图大小(C,512,512),这即为最后的肿瘤分割结果。本发明利用肝脏CT图像的连续上下多层信息以及像素点的位置信息。
Description
技术领域
本发明涉及一种通过CT的检测分割分类肝脏肿瘤的方法。
背景技术
肝脏是人体的重要器官,功能繁多。但是肝脏也是比较容易病变的器官,常见的就是各类肝脏结节,如肝细胞肝癌,囊肿,肝血管瘤等。肝脏的CT图像是检测肝脏病变部位的重要工具。但是,肝脏部位的图像环境十分复杂,肝脏内外的血管、肺部隔膜、心脏、胰腺和胃等都很容易造成误识别。传统的分割方法已经难以适应如此复杂的图像环境,深度学习等更加智能化的方法的优势逐渐凸显。
目前市面上最常见的深度学习方法都是基于U-Net,该网络简单易用,但是性能有限。也有诸多方法提出对U-Net网络结构的改造或者是训练方式上的改造。但是,这些方法存在几个方面的局限性,一是没有利用更多相邻层的上下文信息辅助检测,二是没有利用CT图像中各个像素点之间的位置关系。而这些信息对于防止模型对血管、胆囊等组织的误识别是至关重要的。
发明内容
本发明要克服现有的技术的上述不足,提供一种基于深度学习通过CT检测分割分类肝脏肿瘤的方法。本发明采用一种可以利用肝脏CT图像的连续上下多层信息和像素点的位置信息的肝脏结节的分割算法。
本发明通过以下方案来实现:
一种基于深度学习通过CT的检测分割分类肝脏肿瘤的方法,包括以下步骤:
步骤1.对待预测的CT图像进行预处理,使其符合训练好的网络的输入要求;
步骤2.使用训练好的模型对(1)中的待预测CT进行分割,得到最终的分割结果,具体包括:
每一例CT由M张图像组成,其中每一张为大小为(W,H)的矩阵,即每一例CT图像的规格为(M,W,H);由于经过预训练的卷积神经网络(CNN)用作特征提取器时的输入图像为3通道,即输入的矩阵规格为(3,W,H),因此,在预测CT中的第i张图像时,会利用CT的第i-1和第i+1张图像与第i张图像拼接在一起,组成(3,W,H)的矩阵;为了使得模型能够捕捉到更加丰富的上下文信息,在预测第i张图像时,会使用连续的N张图像作为输入辅助预测,N可以取1,3,5,7,9;因此送入特征提取器的输入规格为(N,3,W,H),将此输入记作contextinput,即上下文输入,而将需要预测的第i张图像记作key input;
context input经过特征提取器后得到一个规格(N,1024,W/32,H/32)的特征图,记为context features;key input经过特征提取器后得到一个规格为(1024,W/32,H/32)的特征图,记为key features,一个(256,W/4,H/4)的特征图,记为low-level features;
(22)将经特征提取器提取到的特征送入背景注意力模块,融合上下文信息与位置信息;背景注意力模块记为Context attention,通过目标层的上下层所组成上下文,像素点的位置来过滤和修正提取到的特征信息,得到融合了上下文信息与位置信息的特征图;
(23)将融合了上下文信息与位置信息的特征图送入head模块,进一步整合多尺度的信息;
(24)融合了多尺度信息的特征与特征提取器提取到的low-level features结合,通过解码器模块,记为decoder,还原为原图大小(C,512,512),这即为最后的肿瘤分割结果,其中C为肿瘤类别数目,即肝结节类别数量。
本发明的优点是:弥补了市面上大部分基于U-Net的分割算法的缺陷,可以利用肝脏CT图像的连续上下多层信息以及像素点的位置信息,从而实现表现优异的分割结果。
附图说明
图1是本发明方法的算法模型的整体设计图;
图2是本发明的背景注意力模块(context attention)的结构示意图;
图3是本发明的层间注意力模块(slice attention)的结构示意图;
图4是本发明的空间注意力模块(spatial attention)的结构示意图。
具体实施方式
下面结合实例对本发明进行进一步说明。
步骤(1)中的预处理过程会将CT图像的HU值剪切为[-55,155],并对其进行归一化,归一化到[-1,1]。将预处理后的CT图像送入步骤(2)中的分割模型进行预测,该预测过程具体包括以下步骤:
(1)将CT图像送入特征提取器提取特征。具体说明如下:
每一例CT由M张图像组成,其中每一张为大小为(W,H)的矩阵,即每一例CT图像的规格为(M,W,H)。由于经过预训练的卷积神经网络(CNN)用作特征提取器时的输入图像为3通道,即输入的矩阵规格为(3,W,H),因此,在预测CT中的第i张图像时,会利用CT的第i-1和第i+1张图像与第i张图像拼接在一起,组成(3,W,H)的矩阵。本发明中,为了使得模型能够捕捉到更加丰富的上下文信息,在预测第i张图像时,会使用连续的N张图像作为输入辅助预测,N可以取1,3,5,7,9。因此送入特征提取器的输入规格为(N,3,W,H),本发明中将此输入记作context input,即上下文输入。而将需要预测的第i张图像记作key input。
context input经过特征提取器后得到一个规格(N,1024,W/32,H/32)的特征图,记为context features。key input经过特征提取器后得到一个规格为(1024,W/32,H/32)的特征图,记为key features,一个(256,W/4,H/4)的特征图,记为low-level features。
(2)将经特征提取器提取到的特征送入背景注意力模块,融合上下文信息与位置信息。背景注意力模块是本发明的核心组件,记为Context attention。它会通过目标层的上下层所组成上下文,像素点的位置来过滤和修正提取到的特征信息,得到融合了上下文信息与位置信息的特征图。
(3)将融合了上下文信息与位置信息的特征图送入head模块,进一步整合多尺度的信息。
(4)融合了多尺度信息的特征与特征提取器提取到的low-level features结合,通过解码器模块,记为decoder,还原为原图大小(C,512,512),这即为最后的肿瘤分割结果,其中C为肿瘤类别数目,即肝结节类别数量。
下面对本模型中的各个模块进行进一步说明:
所述的特征提取器可以采用任意的卷积神经网络(CNN)。比如resnet-50或者dla102x等。则特征提取器提取到的特征表示为:
fkey_low,fkey=CNN(Ikey) (1)
fctx=CNN(Ictx) (2)
所述的背景注意力模块(context attention)主要由三部分组成,位置编码器(positional embedding),负责给每个像素点产生一个位置编码;层间注意力(sliceattention)负责将相邻层的信息整合起来。空间注意力(spatial attention)结合位置编码,筛选和整合各个像素点的信息。其具体计算过程为:
首先计算层间的注意力:
x1'=SA(fkey,fctx,fctx)+fkey (3)
x1=BN(x1') (4)
计算空间注意力:
x2'=SPA((x1+pos),(fctx+pos),fctx)+x1 (5)
x2=BN(x2') (6)
该模块的输出结果为:
fca=ReLU(x1+x2) (7)
所述的层间注意力(slice attention)表示为:
OSA=SA(Q,K,V) (8)
所述的空间注意力(spatial attention)表示为:
OSPA=SPA(Q,K,V) (9)
接下来,位置信息编码:
pos=Position(fkey) (10)
其中,(x,y)是需要预测的关键帧的特征key feature中的某一点的坐标,i的取值范围为[0,D/2),D是key feature的通道数。
计算slice attention,具体计算如下:
qsa=GlobalAvg(conv2d(Q)) (15)
ksa=GlobalAvg(conv2d(K)) (16)
OSA=ReLU(BN(cond2d(csa))) (19)
首先,输入q,k,v都需要各自经过一个kernel为1,stride为1的2D卷积层conv2d,之后计算出相似度,通过softmax计算出各层的权重α,之后使用加权和将各层特征相加。
空间注意力的具体方式如下:
qspa=conv2d(Q) (20)
kspa=conv2d(K) (21)
OSPA=ReLU(BN(cond2d(cspa))) (25)
和slice attention一样,也是Q,K,V先各自经过一个2D的卷积网络conv2d,其中(l,h)为key feature的大小,(i,j)为context feature的大小,n是context feature的层数,实际上在该模型中,l=h=i=j,n=N,但是为了区分,给了不同的代号。之后再W和H的平面上计算权重,并与V做加权和。
所述的head模块可以采用ASPP模块(Rethinking Atrous Convolution forSemantic Image Segmentation.Liang-Chieh Chen,George Papandreou,FlorianSchroff,Hartwig Adam)。ASPP模块对所给定的输入以不同采样率的空洞卷积并行采样,相当于以多个比例捕捉图像的上下文。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (3)
1.一种通过CT的检测分割分类肝脏肿瘤的深度学习方法,包括以下步骤:
(1)对待预测的CT图像进行预处理,使其符合训练好的网络的输入要求;
(2)使用训练好的模型对(1)中的待预测CT进行分割,得到最终的分割结果,预测过程具体包括:
(21)将CT图像送入特征提取器提取特征;具体包括:
每一例CT由M张图像组成,其中每一张为大小为(W,H)的矩阵,即每一例CT图像的规格为(M,W,H);由于经过预训练的卷积神经网络CNN用作特征提取器时的输入图像为3通道,即输入的矩阵规格为(3,W,H),因此,在预测CT中的第i张图像时,会利用CT的第i-1和第i+1张图像与第i张图像拼接在一起,组成(3,W,H)的矩阵;为了使得模型能够捕捉到更加丰富的上下文信息,在预测第i张图像时,会使用连续的N张图像作为输入辅助预测,N可以取1,3,5,7,9;因此送入特征提取器的输入规格为(N,3,W,H),将此输入记作context input,即上下文输入,而将需要预测的第i张图像记作key input;
context input经过特征提取器后得到一个规格(N,1024,W/32,H/32)的特征图,记为context features;key input经过特征提取器后得到一个规格为(1024,W/32,H/32)的特征图,记为key features,一个(256,W/4,H/4)的特征图,记为low-level features;
(22)将经特征提取器提取到的特征送入背景注意力模块,融合上下文信息与位置信息;背景注意力模块记为Context attention,通过目标层的上下层所组成上下文,像素点的位置来过滤和修正提取到的特征信息,得到融合了上下文信息与位置信息的特征图;所述背景注意力模块由三部分组成:位置编码器即positional embedding,负责给每个像素点产生一个位置编码;层间注意力即slice attention,负责将相邻层的信息整合起来;空间注意力即spatial attention,结合位置编码,筛选和整合各个像素点的信息;其具体计算过程为:
首先计算层间的注意力:
x1'=SA(fkey,fctx,fctx)+fxey (3)
x1=BN(x1') (4)
计算空间注意力:
x2'=SPA((x1+pos),(fctx+pos),fctx)+x1 (5)
x2=BN(x2') (6)
该模块的输出结果为:
fca=ReLU(x1+x2) (7)
所述的层间注意力表示为:
OSA=SA(Q,K,V) (8)
所述的空间注意力表示为:
OSPA=SPA(Q,K,V) (9)
接下来,位置信息编码:
pos=Position(fkey) (10)
其中,(x,y)是需要预测的关键帧的特征key feature中的某一点的坐标,i的取值范围为[0,D/2),D是key feature的通道数;
计算slice attention,具体计算如下:
qsa=GlobalAvg(conv2d(Q)) (15)
ksa=GlobalAvg(conv2d(K)) (16)
OSA=ReLU(BN(cond2d(csa))) (19)
首先,输入q,k,v都需要各自经过一个kernel为1,stride为1的2D卷积层conv2d,之后计算出相似度,通过softmax计算出各层的权重α,之后使用加权和将各层特征相加;
空间注意力的具体方式如下:
qspa=conv2d(Q) (20)
kspa=conv2d(K) (21)
OSPA=ReLU(BN(cond2d(cspa))) (25)
和slice attention一样,也是Q,K,V先各自经过一个2D的卷积网络conv2d,其中(l,h)为key feature的大小,(i,j)为context feature的大小,n是context feature的层数,实际上在该模型中,l=h=i=j,n=N,但是为了区分,给了不同的代号;之后再W和H的平面上计算权重,并与V做加权和;
(23)将融合了上下文信息与位置信息的特征图送入head模块,进一步整合多尺度的信息;
(24)融合了多尺度信息的特征与特征提取器提取到的low-level features结合,通过解码器模块,记为decoder,还原为原图大小(C,512,512),这即为最后的肿瘤分割结果,其中C为肿瘤类别数目,即肝结节类别数量。
2.如权利要求1所述的通过CT的检测分割分类肝脏肿瘤的深度学习方法,其特征在于:所述的特征提取器可以采用任意的卷积神经网络CNN;则特征提取器提取到的特征表示为:
fkey_low,fkey=CNN(Ikey) (1)
fctx=CNN(Ictx) (2)。
3.如权利要求1所述的通过CT的检测分割分类肝脏肿瘤的深度学习方法,其特征在于:所述的head模块可以采用ASPP模块;ASPP模块对所给定的输入以不同采样率的空洞卷积并行采样,相当于以多个比例捕捉图像的上下文。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110404710.0A CN113222899B (zh) | 2021-04-15 | 2021-04-15 | 一种基于深度学习通过ct检测分割分类肝脏肿瘤的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110404710.0A CN113222899B (zh) | 2021-04-15 | 2021-04-15 | 一种基于深度学习通过ct检测分割分类肝脏肿瘤的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113222899A CN113222899A (zh) | 2021-08-06 |
CN113222899B true CN113222899B (zh) | 2022-09-30 |
Family
ID=77087354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110404710.0A Active CN113222899B (zh) | 2021-04-15 | 2021-04-15 | 一种基于深度学习通过ct检测分割分类肝脏肿瘤的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113222899B (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875592A (zh) * | 2018-04-13 | 2018-11-23 | 哈尔滨工程大学 | 一种基于注意力的卷积神经网络优化方法 |
CN112446398A (zh) * | 2019-09-02 | 2021-03-05 | 华为技术有限公司 | 图像分类方法以及装置 |
CN111598112B (zh) * | 2020-05-18 | 2023-02-24 | 中科视语(北京)科技有限公司 | 多任务的目标检测方法、装置、电子设备及存储介质 |
-
2021
- 2021-04-15 CN CN202110404710.0A patent/CN113222899B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113222899A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109543667B (zh) | 一种基于注意力机制的文本识别方法 | |
CN112785617B (zh) | 残差UNet直肠癌肿瘤磁共振图像自动分割方法 | |
CN109800629B (zh) | 一种基于卷积神经网络的遥感图像目标检测方法 | |
CN110189308B (zh) | 一种基于bm3d和稠密卷积网络融合的肿瘤检测方法和装置 | |
CN107239730B (zh) | 智能汽车交通标志识别的四元数深度神经网络模型方法 | |
CN111415342A (zh) | 一种融合注意力机制的三维卷积神经网络肺部结节图像自动检测方法 | |
CN113591968A (zh) | 一种基于非对称注意力特征融合的红外弱小目标检测方法 | |
WO2022083335A1 (zh) | 一种基于自我注意力机制的行为识别方法 | |
CN116681679A (zh) | 基于双分支特征融合注意的医学图像小目标分割方法 | |
CN112819013A (zh) | 基于层内层间联合全局表示的图像描述方法 | |
CN115311194A (zh) | 一种基于transformer和SE块的CT自动肝脏图像分割方法 | |
Zhang et al. | Pulmonary nodule detection based on 3D feature pyramid network with incorporated squeeze‐and‐excitation‐attention mechanism | |
CN113076947A (zh) | 一种交叉引导融合的rgb-t图像显著性检测系统 | |
CN114359626A (zh) | 基于条件生成对抗网络的可见光-热红外显著目标检测方法 | |
CN113902702A (zh) | 一种基于计算机断层扫描的肺结节良恶性辅助诊断系统 | |
CN113222899B (zh) | 一种基于深度学习通过ct检测分割分类肝脏肿瘤的方法 | |
Yang et al. | Lesion classification of wireless capsule endoscopy images | |
CN112529930A (zh) | 一种基于聚焦融合的上下文学习医学图像分割方法 | |
CN116542921A (zh) | 一种结肠息肉分割方法、装置及存储介质 | |
Tyagi et al. | An amalgamation of vision transformer with convolutional neural network for automatic lung tumor segmentation | |
Ma et al. | MSFNET: multi-stage fusion network for semantic segmentation of fine-resolution remote sensing data | |
CN113298094B (zh) | 一种基于模态关联与双感知解码器的rgb-t的显著性目标检测方法 | |
CN115661482A (zh) | 一种基于联合注意力的rgb-t显著目标检测方法 | |
CN115131386A (zh) | 胸腔病灶影像的轮廓提取及检测方法与系统 | |
Yuan et al. | Medseq: Semantic segmentation for medical image sequences |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |